JP7129271B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP7129271B2
JP7129271B2 JP2018153278A JP2018153278A JP7129271B2 JP 7129271 B2 JP7129271 B2 JP 7129271B2 JP 2018153278 A JP2018153278 A JP 2018153278A JP 2018153278 A JP2018153278 A JP 2018153278A JP 7129271 B2 JP7129271 B2 JP 7129271B2
Authority
JP
Japan
Prior art keywords
image
area
captured
future
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018153278A
Other languages
Japanese (ja)
Other versions
JP2020028085A (en
Inventor
大輔 高林
純 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2018153278A priority Critical patent/JP7129271B2/en
Publication of JP2020028085A publication Critical patent/JP2020028085A/en
Application granted granted Critical
Publication of JP7129271B2 publication Critical patent/JP7129271B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像内から検出対象を検出する画像処理装置に関する。 The present invention relates to an image processing apparatus that detects a detection target from within an image.

従来、監視領域をカメラにて撮影して取得される撮影画像と、基準画像とを比較することで、両画像間において変化のある領域である変化領域を求め、変化領域の大きさあるいは形状などの画像特徴に基づいて「人物らしさ」を判定して、撮影画像内から侵入者などの検出対象を検出する画像処理装置がある。 Conventionally, by comparing an image obtained by photographing a monitoring area with a camera and a reference image, a changed area, which is an area where there is a change between the two images, is obtained, and the size or shape of the changed area is determined. There is an image processing apparatus that detects a detection target such as an intruder from a photographed image by determining "likeness of a person" based on the image features.

基準画像は、過去において、監視領域に検出対象が存在していないときに撮影された過去画像に基づいて設定することができる。なお、監視領域の明るさが1日のうちの時間帯によって異なり得ることなどに応じて、基準画像は数分毎あるいは十数分毎に更新されるのが一般的である。 The reference image can be set based on a past image taken in the past when the detection target did not exist in the monitoring area. Note that the reference image is generally updated every several minutes or every ten and several minutes, depending on the brightness of the monitored area depending on the time of day.

また従来、監視領域を撮影する撮影方法が変更される場合がある。撮影方法が変更され、それにより撮影画像の画素値が全体的に変更された場合、撮影方法変更前に用いていた基準画像では、変化量域が大量に抽出されるため変更後の撮影方法で取得された撮影画像との比較が適切に行えなくなる。したがって、従来、撮影画像の撮影方法が変更された場合に、変更後の撮影画像が数フレーム取得されるのを待ち、当該数フレームに基づいて基準画像を更新した上で、撮影画像と基準画像とを比較することが行われていた。 Further, conventionally, there are cases where the photographing method for photographing the monitored area is changed. If the imaging method is changed and the pixel values of the captured image are changed as a result, the standard image used before the imaging method change will extract a large amount of change, so the imaging method after the change will be used. It becomes impossible to appropriately compare with the captured image that has been acquired. Therefore, conventionally, when a photographing method of a photographed image is changed, after obtaining several frames of the photographed image after the change, the reference image is updated based on the few frames, and then the photographed image and the reference image are obtained. A comparison was made with

例えば、特許文献1には、監視領域を可視光で撮影したカラー画像を撮影画像として出力する昼間モードと、監視領域に赤外光照明を当てて撮影した画像を撮影画像として出力する夜間モードを備える警備システムであって、撮影モード(昼間モードあるいは夜間モード)が切り替わる度に、基準画像を更新する警備システムが開示されている。 For example, Patent Document 1 discloses a daytime mode in which a color image of a monitoring area captured with visible light is output as a captured image, and a nighttime mode in which an image captured by illuminating the monitoring area with infrared light is output as a captured image. A security system is disclosed that updates the reference image each time the shooting mode (daytime mode or nighttime mode) is switched.

特開2009-239739号公報JP 2009-239739 A

上述のように、撮影画像の撮影方法が変更された場合に基準画像が更新される。しかしながら、従来においては、撮影画像の撮影方法が変更された直後、すなわち撮影方法が変更されてから基準画像が更新されるまでの間においては、変更後の撮影方法に応じた基準画像が存在しないことになる。したがって、撮影画像の撮影方法が変更された直後であって、基準画像が更新されるまでの間、撮影画像から検出対象を検出することができない監視不能期間が生じるという問題があった。 As described above, the reference image is updated when the photographing method of the photographed image is changed. However, conventionally, immediately after the photographing method of the photographed image is changed, that is, between the time the photographing method is changed and the reference image is updated, there is no reference image corresponding to the photographing method after the change. It will be. Therefore, immediately after the photographing method of the photographed image is changed and until the reference image is updated, there is a problem that a monitoring disabled period occurs during which the detection target cannot be detected from the photographed image.

また、同様の問題が、監視領域の明るさが急激に変化した場合(例えば消灯していた監視領域内の照明が点灯した場合)にも生じ得る。すなわち、監視領域の明るさが急激に変化した場合であっても、撮影画像の画素値が全体的に変更され、それまで用いていた基準画像との比較では適切に検出対象を検出できなくなるからである。 A similar problem may also occur when the brightness of the monitoring area changes abruptly (for example, when the illumination in the monitoring area that has been turned off is turned on). In other words, even if the brightness of the monitoring area suddenly changes, the pixel values of the captured image are changed as a whole, and it becomes impossible to appropriately detect the detection target by comparison with the reference image that has been used up to that point. is.

本発明の目的は、撮影画像の撮影方法が変更された場合、あるいは、監視領域の明るさが急激に変化した場合であっても、監視不能期間を生じさせることなく、撮影画像から検出対象を検出可能とすることにある。 SUMMARY OF THE INVENTION It is an object of the present invention to detect a detection target from a photographed image without causing a monitoring disabled period even when the photographing method of the photographed image is changed or when the brightness of the monitored area is abruptly changed. It is to be detectable.

本発明は、撮影環境に応じた撮影方法で順次撮影された撮影画像のうち、処理対象の対象画像について基準画像との変化領域を抽出する画像処理装置であって、前記対象画像を含む所定期間の前記撮影画像を記憶する記憶手段と、前記対象画像の撮影方法と、当該対象画像の直前に撮影された撮影画像又は前記基準画像の撮影方法とが一致する場合、当該対象画像よりも時間的に前に撮影された前記撮影画像である過去画像を用いて設定した前記基準画像と当該対象画像とから前記変化領域を抽出し、前記撮影方法が相違する場合には、前記記憶されている前記撮影画像のうち当該対象画像よりも時間的に後に撮影された前記撮影画像である未来画像を用いて設定した前記基準画像と当該対象画像とから前記変化領域を抽出する抽出手段と、を有することを特徴とする画像処理装置である。 The present invention provides an image processing apparatus for extracting a change area from a reference image in a target image to be processed from among captured images sequentially captured by a capturing method according to a capturing environment, wherein a predetermined period including the target image is extracted. When the storage means for storing the photographed image of and the photographing method of the target image match the photographing method of the photographed image photographed immediately before the target image or the photographing method of the reference image, the photographing method is more temporal than the target image extracting the changed area from the reference image set using the past image which is the photographed image photographed before and the target image; extracting means for extracting the changed region from the target image and the reference image set using a future image, which is the captured image captured temporally later than the target image among the captured images; An image processing apparatus characterized by

望ましくは、前記記憶手段は、前記過去画像を用いて設定した前記基準画像を更に記憶し、前記対象画像の撮影方法と、当該対象画像の直前に撮影された撮影画像又は前記基準画像の撮影方法とが相違するか否かを判定し、前記撮影方法が相違すると判定したとき、前記抽出手段による抽出処理の前に、前記未来画像を用いて前記基準画像を更新する基準画像更新手段を、更に有することを特徴とする。 Preferably, the storage means further stores the reference image set using the past image, and stores a method of photographing the target image, a photographed image photographed immediately before the target image, or a method of photographing the reference image. a reference image updating means for updating the reference image using the future image before the extraction processing by the extraction means when it is determined that the photographing method is different, and characterized by having

望ましくは、前記基準画像更新手段は、前記未来画像を用いて前記基準画像を更新する際、複数の前記未来画像間の差分領域が抽出されなかった場合は、比較に用いた前記未来画像のいずれか一つを前記基準画像とする、ことを特徴とする。 Desirably, when updating the reference image using the future image, the reference image updating means updates any of the future images used for comparison if a difference region between the plurality of future images is not extracted. One of them is used as the reference image.

望ましくは、前記基準画像更新手段は、前記未来画像を用いて前記基準画像を更新する際、複数の前記未来画像間差分領域が抽出された場合は、前記未来画像における前記差分領域以外の各画素の画素値と、更新前の前記基準画像における前記差分領域以外の対応する各画素の画素値とから求められる画素値変化量に基づいて、更新前の前記基準画像における前記差分領域内の各画素の画素値を補正して、更新後の前記基準画像の差分領域の対応する各画素の画素値とし、前記未来画像における前記差分領域以外の領域の画素値を更新後の前記基準画像の差分領域以外の各画素の画素値とする、ことを特徴とする。 Preferably, when updating the reference image using the future image, if a plurality of the inter-future-image difference areas are extracted, the reference image updating means updates each pixel in the future image other than the difference area. and each pixel in the difference area in the reference image before updating based on the pixel value change amount obtained from the pixel value of each corresponding pixel outside the difference area in the reference image before updating to set the pixel values of corresponding pixels in the difference area of the reference image after updating, and the pixel values of the areas other than the difference area in the future image are corrected to the difference area of the reference image after updating A pixel value of each pixel other than .

望ましくは、前記基準画像更新手段は、前記未来画像における前記差分領域の周辺領域内の各画素の画素値と、前記周辺領域に対応する更新前の前記基準画像の画像領域の各画素の画素値とから前記画素値変化量を求める、ことを特徴とする。 Preferably, the reference image updating means updates the pixel value of each pixel in the peripheral area of the difference area in the future image and the pixel value of each pixel in the image area of the reference image before updating corresponding to the peripheral area. and obtaining the pixel value change amount.

また、本発明は、監視領域が順次撮影された撮影画像のうち、処理対象の対象画像について基準画像との変化領域を抽出する画像処理装置であって、前記監視領域の明るさ及び前記撮影画像の輝度の少なくとも一方から前記監視領域の明るさに水準以上の変化があるか否かを判定する明るさ変化判定手段と、前記対象画像を含む所定期間の前記撮影画像を記憶する記憶手段と、前記対象画像の撮影時と、当該対象画像の直前の撮影画像又は前記基準画像の撮影時とにおいて、前記明るさ変化判定手段により前記水準以上の変化がないと判定された場合、当該対象画像よりも時間的に前に撮影された前記撮影画像である過去画像を用いて設定した前記基準画像と当該対象画像とから前記変化領域を抽出し、前記水準以上の変化があると判定された場合には、前記記憶されている前記撮影画像のうち当該対象画像よりも時間的に後に撮影された未来画像を用いて設定した前記基準画像と当該対象画像とから前記変化領域を抽出する抽出手段と、を有することを特徴とする画像処理装置である。 Further, the present invention is an image processing apparatus for extracting a change area from a reference image in a target image to be processed from among captured images in which a monitoring area is sequentially captured, wherein the brightness of the monitoring area and the captured image are brightness change determination means for determining whether or not there is a change of a level or more in the brightness of the monitoring area from at least one of the brightness of the; storage means for storing the captured images for a predetermined period including the target image; When it is determined by the brightness change determining means that there is no change equal to or greater than the level between when the target image is captured and when the captured image immediately before the target image or the reference image is captured, the target image is The changed area is extracted from the reference image set using the past image, which is the captured image captured earlier in time, and the target image. extracting means for extracting the changed region from the target image and the reference image set using a future image captured temporally later than the target image among the stored captured images; An image processing apparatus characterized by having

本発明によれば、撮影画像の撮影方法が変更された場合、あるいは、監視領域の明るさが変化した場合であっても、監視不能期間を生じさせることなく、撮影画像から検出対象を検出可能とすることができる。 According to the present invention, detection targets can be detected from a captured image without causing a monitoring disabled period even when the method of capturing the captured image is changed or the brightness of the monitored area is changed. can be

本実施形態に係る警備システムの構成概略図である。1 is a schematic configuration diagram of a security system according to this embodiment; FIG. 本実施形態に係る画像センサの構成概略図である。1 is a schematic configuration diagram of an image sensor according to an embodiment; FIG. 取得時刻順に並ぶ複数の撮影画像を示す概念図である。FIG. 4 is a conceptual diagram showing a plurality of captured images arranged in order of acquisition time; 背景画像及び未来画像における第2変化領域を示す図である。FIG. 10 is a diagram showing a second change area in the background image and the future image; 背景画像及び未来画像における周辺領域を示す図である。FIG. 4 is a diagram showing peripheral areas in a background image and a future image; 背景画像及び未来画像における推定人領域及び周辺領域の輝度値を示す図である。FIG. 4 is a diagram showing luminance values of an estimated human area and a peripheral area in a background image and a future image; 変化率テーブルの内容を示す図である。It is a figure which shows the content of a change rate table. 更新された背景画像における推定人領域の輝度値を示す図である。FIG. 10 is a diagram showing luminance values of an estimated human region in an updated background image; 更新された背景画像における推定人領域及び周辺領域の輝度値を示す図である。FIG. 10 is a diagram showing luminance values of an estimated human region and surrounding regions in an updated background image; 変形実施形態に係る画像センサの構成概略図である。FIG. 10 is a schematic configuration diagram of an image sensor according to a modified embodiment; 侵入者判定処理の流れを示すフローチャートである。10 is a flowchart showing the flow of intruder determination processing;

以下、本発明の実施形態について説明する。 Embodiments of the present invention will be described below.

図1は、本実施形態に係る警備システム10の構成概略図である。警備システム10は、店舗、オフィス、マンション、倉庫、家屋などの各監視対象物件12に設置される警備装置14、公衆電話回線などの通信網16を介して各警備装置14と接続される警備センタ装置18、及び利用者装置20とを含んで構成される。さらに、警備システム10は、監視対象物件12の監視領域を撮影した撮影画像に基づいて監視対象物件12内の監視領域から検出対象(本実施形態では人物像)を検出するための1以上の画像センサ22(画像処理装置)、及び、画像センサ22により撮影された撮影画像を記録する録画装置24を含んで構成される。画像センサ22及び録画装置24は警備装置14と通信可能に接続される。 FIG. 1 is a schematic diagram of the configuration of a security system 10 according to this embodiment. The security system 10 includes a security device 14 installed in each property 12 to be monitored such as a store, an office, an apartment building, a warehouse, a house, etc., and a security center connected to each security device 14 via a communication network 16 such as a public telephone line. It comprises a device 18 and a user device 20 . Further, the security system 10 includes one or more images for detecting a detection target (a human figure in this embodiment) from the monitored area within the monitored object 12 based on the photographed image of the monitored area of the monitored object 12. It includes a sensor 22 (image processing device) and a recording device 24 for recording an image captured by the image sensor 22 . Image sensor 22 and recording device 24 are communicatively connected to security device 14 .

警備装置14は、構内LANなどを介してそれ自体に接続された画像センサ22からアラーム信号を受信すると、そのアラーム信号及び警備装置14自体の識別信号、又は、監視対象物件12あるいは異常を検出した画像センサ22の識別信号を警備センタ装置18へ送信する。そのために、警備装置14は、画像センサ22と通信するための通信インタフェースと、警備センタ装置18及び利用者装置20と通信するための通信インタフェースと、それらを制御するための制御ユニットを有する。 When the security device 14 receives an alarm signal from the image sensor 22 connected to itself via a local LAN or the like, the alarm signal and the identification signal of the security device 14 itself, or the property 12 to be monitored or an abnormality is detected. The identification signal of the image sensor 22 is transmitted to the security center device 18 . Therefore, the security device 14 has a communication interface for communicating with the image sensor 22, a communication interface for communicating with the security center device 18 and the user device 20, and a control unit for controlling them.

警備センタ装置18は、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インタフェースと、液晶ディスプレイなどの表示装置と、ブザーやLEDなどで構成される報知部を備える。警備センタ装置18は、警備装置14から通信網16を介してアラーム信号を受信すると、そのアラーム信号を送信した警備装置14が設置された監視対象物件12及び検出された異常の内容を報知部及び表示装置を通じて監視員に報知する。 The security center device 18 is composed of a so-called computer, and has a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a notification unit composed of a buzzer, an LED, and the like. . When the security center device 18 receives an alarm signal from the security device 14 via the communication network 16, the security center device 18 notifies the property 12 to be monitored where the security device 14 that sent the alarm signal and the content of the detected abnormality are sent to the reporting unit and Notify the observer through the display device.

利用者装置20も、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インタフェース、液晶ディスプレイなどの表示装置、及び、キーボートやマウスなど、警備装置14を遠隔操作するための操作コマンドを入力するためのユーザインターフェースを備える。利用者装置20は、ユーザインターフェースを介して予め登録されている監視対象物件12を観察する操作がなされると、登録されている監視対象物件12に設置された警備装置14に対して、現在撮影中の撮影画像又は録画装置24に記録されている撮影画像を利用者装置20に送信することを要求する各種の画像要求信号を送信する。そして、警備装置14から撮影画像を受信すると、利用者装置20は表示部に要求された撮影画像を表示する。 The user device 20 is also composed of a so-called computer, and includes a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a keyboard, mouse, etc. for remotely operating the security device 14. A user interface for inputting operation commands for When the user device 20 is operated to observe the object 12 to be monitored which has been registered in advance via the user interface, the user device 20 is currently photographing the security device 14 installed at the object 12 to be monitored which has been registered. Various image request signals are transmitted to request the user device 20 to transmit the captured image inside or the captured image recorded in the recording device 24 . Then, when the photographed image is received from the security device 14, the user device 20 displays the requested photographed image on the display unit.

録画装置24は、HDDなどの磁気ディスク装置、DATなどの磁気テープ、DVD-RAMなどの光記録媒体のように、録画装置24に着脱自在となる記録媒体と、それら記録媒体にアクセスしてデータの読み書きを行う装置で構成される。録画装置24は、画像センサ22が撮影した撮影画像を警備装置14から受け取り、撮影時刻と関連付けて記録する。 The recording device 24 includes recording media such as a magnetic disk device such as an HDD, a magnetic tape such as a DAT, and an optical recording medium such as a DVD-RAM. It consists of a device that reads and writes The recording device 24 receives the photographed image photographed by the image sensor 22 from the security device 14 and records it in association with the photographing time.

図2は、画像センサ22の構成概略図である。 FIG. 2 is a schematic diagram of the configuration of the image sensor 22. As shown in FIG.

通信部30は、画像センサ22と警備装置14との間で構内LANなどの通信ネットワークを介して各種の設定信号及び制御信号などを送受信する入出力インタフェースであり、イーサネット(登録商標)などの各種の通信インタフェース回路及びそれらを駆動するドライバソフトウェアなどで構成される。具体的には、通信部30は、後述の信号処理部44によって侵入者が検出された場合に、侵入者を検出したことを示す侵入アラーム信号を警備装置14に出力する。 The communication unit 30 is an input/output interface for transmitting and receiving various setting signals and control signals between the image sensor 22 and the security device 14 via a communication network such as a local LAN. communication interface circuits and driver software for driving them. Specifically, when an intruder is detected by the signal processing unit 44 described later, the communication unit 30 outputs an intrusion alarm signal indicating that the intruder has been detected to the security device 14 .

撮影部32は、監視対象物件12における監視領域を撮影して撮影画像を取得する。本実施形態に係る撮影部32は、複数の撮影方法にて同一の画角で監視領域を撮影することが可能となっている。ここでの複数の撮影方法とは、同一の監視領域を撮影した撮影画像の画素値が全体的に異なる方法を意味する。例えば、可視光で撮影する方法(可視画像を撮影)と、近赤外照明を当てて撮影する方法(近赤外画像を撮影)と、撮影部32から撮影した物体までの距離を示す距離画像を撮影する方法と、撮影した物体の温度を示す熱画像を撮影する方法などを組み合わせて撮影を行う。なお、撮影画像の画素値が全体的に異なるとは、偶々少数の画素の画素値が同一となる場合も含むものである。 The photographing unit 32 obtains a photographed image by photographing a monitoring area in the property 12 to be monitored. The photographing unit 32 according to the present embodiment is capable of photographing the monitoring area with the same angle of view using a plurality of photographing methods. A plurality of imaging methods here means methods in which the pixel values of the captured images obtained by imaging the same monitoring area are entirely different. For example, a method of photographing with visible light (capturing a visible image), a method of photographing with near-infrared illumination (capturing a near-infrared image), and a distance image showing the distance from the photographing unit 32 to the photographed object and a method of capturing a thermal image showing the temperature of the captured object. Note that the fact that the pixel values of the captured image are totally different includes the case where the pixel values of a small number of pixels are the same.

それ故、撮影部32は、CCDなどの、可視光や赤外光などに感度を有する光電変換器、光電変換器上に監視領域の像を結像する結像光学系、結像工学系に設けられるIRカットフィルタ(赤外線カットフィルタ)、撮影対象物までの距離を計測するための投光LED、あるいは撮影対象物の温度を検出するための赤外線イメージセンサなどを含んで構成される。 Therefore, the imaging unit 32 includes a photoelectric converter such as a CCD that is sensitive to visible light and infrared light, an imaging optical system that forms an image of the monitored area on the photoelectric converter, and an imaging engineering system. It includes an IR cut filter (infrared cut filter) provided, a projection LED for measuring the distance to the object to be photographed, or an infrared image sensor for detecting the temperature of the object to be photographed.

本実施形態では、撮影部32は、複数の撮影方法として、監視領域を可視光で撮影する昼間モードと、監視領域に近赤外光照明を当てて撮影する夜間モードの2つの撮影モードを切り替えて撮影するものとする。詳しくは、昼間モードでは、近赤外光をカットするようにIRカットフィルタが結像光学系の光路内に挿入され、撮像部21の2次元検出器は可視光画像を取得する。一方、夜間モードでは、IRカットフィルタは結像光学系の光路外へ外され、2次元検出器は近赤外画像を取得する。なお、可視光画像を取得する可視カメラと、近赤外光画像を取得する近赤外線カメラを別個に設ける方式、積層型構造を有する有機薄膜へ加える電圧を変えることにより光電変換器の感度波長域を制御する方式などにより、昼間モードのときは可視画像の撮影を行い、夜間モードのときは近赤外画像の撮影を行うようにしてもよい。ちなみに、撮影モードの切り替えは、後述の撮影モード切替手段48により実行される。 In this embodiment, the photographing unit 32 switches between two photographing modes as a plurality of photographing methods: a daytime mode in which the monitored area is photographed with visible light, and a nighttime mode in which the monitored area is photographed with near-infrared light illumination. shall be taken. Specifically, in the daytime mode, an IR cut filter is inserted into the optical path of the imaging optical system so as to cut near-infrared light, and the two-dimensional detector of the imaging unit 21 acquires visible light images. On the other hand, in the night mode, the IR cut filter is removed out of the optical path of the imaging optics and the two-dimensional detector acquires near-infrared images. In addition, the sensitivity wavelength range of the photoelectric converter can be controlled by a method in which a visible camera for acquiring visible light images and a near infrared camera for acquiring near infrared light images are separately installed, or by changing the voltage applied to the organic thin film having a laminated structure. , a visible image may be captured in the daytime mode, and a near-infrared image may be captured in the nighttime mode. Incidentally, the switching of the shooting mode is executed by the shooting mode switching means 48, which will be described later.

本実施形態では、撮影部32は、一定の時間間隔(例えば1/5秒)ごとに撮影を行って撮影画像を取得するが、撮影部32の撮影間隔はこれには限られない。取得された撮影画像は記憶部38に記憶される。なお、本実施形態では、撮影部32が画像センサ22に含まれているが、撮影部32は画像センサ22の外部に設けられてもよい。 In the present embodiment, the imaging unit 32 acquires a captured image by performing imaging at regular time intervals (for example, 1/5 second), but the imaging interval of the imaging unit 32 is not limited to this. The captured image thus acquired is stored in the storage unit 38 . Note that although the imaging unit 32 is included in the image sensor 22 in this embodiment, the imaging unit 32 may be provided outside the image sensor 22 .

照度センサ34は、例えばフォトダイオードなどを含んで構成される。照度センサ34は、監視領域の照度(明るさ)を検出し、検出した照度を示す照度信号を後述の信号処理部44へ出力する。なお、照度センサ34として、公知の様々な照度センサを使用することができる。 The illuminance sensor 34 includes, for example, a photodiode. The illuminance sensor 34 detects the illuminance (brightness) of the monitored area and outputs an illuminance signal indicating the detected illuminance to the signal processing unit 44 described later. Various well-known illuminance sensors can be used as the illuminance sensor 34 .

照明部36は、例えば近赤外線LEDなどを含んで構成される。照明部36は、撮影部32の撮影モードが夜間モードである場合に、監視領域に向けて近赤外光を照射する。一方、撮影部32の撮影モードが昼間モードである場合には、照明部36は消灯される。 The illumination unit 36 includes, for example, a near-infrared LED. The illumination unit 36 irradiates the monitoring area with near-infrared light when the imaging mode of the imaging unit 32 is the night mode. On the other hand, when the shooting mode of the shooting unit 32 is the daytime mode, the lighting unit 36 is turned off.

記憶部38(記憶手段)は、半導体メモリ、磁気ディスク(HDD)、又はCD-ROM、DVD-RAMなどの光ディスクドライブ及びその記録媒体で構成される。記憶部38には、画像センサ22の各部を動作させるための画像処理プログラムが記憶される。また、図2に示される通り、記憶部38には、撮影部32が取得した撮影画像40及び背景画像42が記憶される。 The storage unit 38 (storage means) is composed of a semiconductor memory, a magnetic disk (HDD), or an optical disk drive such as CD-ROM, DVD-RAM, and its recording medium. The storage unit 38 stores an image processing program for operating each unit of the image sensor 22 . In addition, as shown in FIG. 2, the storage unit 38 stores a photographed image 40 and a background image 42 acquired by the photographing unit 32 .

撮影画像40は、撮影部32が監視領域を順次撮影することで取得される画像である。記憶部38には、数十フレーム(画像)分の撮影画像40が記憶され、新たなフレームが撮影された場合には、記憶部38に記憶された複数の撮影画像40のうち最も取得時刻が古いフレームを削除した上で最新のフレームが記憶される。すなわち、記憶部38には、所定期間分の撮影画像40が蓄積記憶される。 The photographed image 40 is an image acquired by the photographing unit 32 sequentially photographing the monitoring area. The storage unit 38 stores captured images 40 for several tens of frames (images). The latest frame is stored after deleting the old frame. That is, the storage unit 38 accumulates and stores captured images 40 for a predetermined period.

図3に、記憶部38に記憶された、取得時刻順に並んだ複数の撮影画像40の概念図が示されている。本明細書においては、記憶部38に記憶された複数の撮影画像40のうち、人物像検出の処理対象となる画像をセンシング画像40t(対象画像)と呼び、センシング画像40tよりも時間的に前に撮影された画像を過去画像40pと呼び、センシング画像40tよりも時間的に後に撮影された画像を未来画像40fと呼ぶ。本実施形態では、記憶部38には、過去画像40pが10フレーム、センシング画像40tが1フレーム、未来画像40fが10フレーム記憶され、センシング画像40tは後述の侵入者判定処理(図11参照)が終了すると、センシング画像40tの次に撮影された撮影画像40(センシング画像40tの1フレーム後の未来画像40f)が新たなセンシング画像40tとなる。このように、本実施形態では、センシング画像40tは最新の(取得時刻が最も新しい)撮影画像40ではない。また、記憶部38に記憶されている撮影画像40が撮影された撮影方法は、例えば、過去画像40pは可視画像であり、センシング画像40t及び未来画像40fは近赤外画像である。 FIG. 3 shows a conceptual diagram of a plurality of photographed images 40 arranged in order of acquisition time and stored in the storage unit 38 . In this specification, among the plurality of captured images 40 stored in the storage unit 38, an image to be processed for human image detection is referred to as a sensing image 40t (target image). An image captured in the past is called a past image 40p, and an image captured after the sensing image 40t is called a future image 40f. In this embodiment, the storage unit 38 stores 10 frames of the past image 40p, 1 frame of the sensing image 40t, and 10 frames of the future image 40f. When finished, the captured image 40 captured next to the sensing image 40t (the future image 40f one frame after the sensing image 40t) becomes the new sensing image 40t. Thus, in the present embodiment, the sensing image 40t is not the latest (most recently acquired) captured image 40 . Further, the photographing method by which the photographed image 40 stored in the storage unit 38 is photographed is, for example, the past image 40p is a visible image, and the sensing image 40t and the future image 40f are near-infrared images.

背景画像42(基準画像)は、過去画像40pを用いて設定されるものである。具体的には、過去画像40pのうち、監視領域内に人物などの移動物体が存在していないときの過去画像40pに基づいて、後述の信号処理部44により生成される。例えば、信号処理部44は、時系列的に隣接する2つの過去画像40pのフレーム間差分を求め、フレーム間での対応画素間の輝度差の絶対値の平均値を求める。両フレームの双方に移動物体が存在していない場合は、当該両フレーム間の輝度差の絶対値の平均値はかなり小さくなる。したがって、信号処理部44は、その平均値が所定の基準よりも小さいフレーム間差分した過去画像40pのいずれかを背景画像42として記憶部38に記憶させる。背景画像42は、照明状態の変動、太陽の日周変動などによる監視領域の明るさの変動に対応するために、一定周期(例えば、10分間隔)毎に更新される。なお、記憶している背景画像42は、過去画像40pよりも過去に撮影された撮影画像でもよい。 The background image 42 (reference image) is set using the past image 40p. Specifically, it is generated by the signal processing unit 44, which will be described later, based on the past image 40p when there is no moving object such as a person in the monitoring area among the past images 40p. For example, the signal processing unit 44 obtains an inter-frame difference between two past images 40p adjacent in time series, and obtains an average value of absolute values of luminance differences between corresponding pixels between frames. If there is no moving object in both frames, the average absolute value of the luminance difference between the two frames is considerably small. Therefore, the signal processing unit 44 causes the storage unit 38 to store one of the past images 40p whose average value is smaller than the predetermined reference as the background image 42 . The background image 42 is updated at regular intervals (for example, every 10 minutes) in order to deal with variations in the brightness of the monitored area due to variations in lighting conditions, diurnal variations in the sun, and the like. Note that the stored background image 42 may be a captured image captured before the past image 40p.

なお、本実施形態では、撮影画像40及び背景画像42が画像センサ22内の記憶部38に記憶されているが、撮影画像40及び背景画像42は、画像センサ22の外部に設けられた記憶部であって画像センサ22からアクセス可能な記憶部に記憶されてもよい。 Note that in the present embodiment, the captured image 40 and the background image 42 are stored in the storage unit 38 within the image sensor 22, but the captured image 40 and the background image 42 are stored in a storage unit provided outside the image sensor 22. and stored in a storage accessible from the image sensor 22 .

信号処理部44は、組み込み型のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、画像センサ22の各種信号処理を実行する。図2に示されるように、信号処理部44は、明るさ検出手段46、撮影モード切替手段48、背景画像更新手段50、抽出手段52、及び判定手段54の機能を発揮する。信号処理部44がこれらの手段を発揮することで、撮影部32の撮影モードを好適に切り替えた上で、撮影モードが切り替えられた場合であっても、監視不能期間を生じさせることなく、センシング画像40tにおいて、人物に相当する画像領域である人領域が検出される。以下、信号処理部44が有する各手段について説明する。 The signal processing unit 44 has a built-in microprocessor unit, memories such as ROM and RAM, and peripheral circuits thereof, and executes various signal processing of the image sensor 22 . As shown in FIG. 2 , the signal processing unit 44 functions as brightness detection means 46 , shooting mode switching means 48 , background image update means 50 , extraction means 52 and determination means 54 . By the signal processing unit 44 exerting these means, even if the shooting mode of the shooting unit 32 is suitably switched and the shooting mode is switched, sensing is possible without causing a monitoring disabled period. In the image 40t, a person area, which is an image area corresponding to a person, is detected. Each unit included in the signal processing unit 44 will be described below.

明るさ検出手段46は、監視領域の明るさを検出した上で、監視領域の明るさが、撮影部32の撮影モードのうち昼間モードに適した明るさであるか、夜間モードに適した明るさであるかを判定する。本実施形態では、明るさ検出手段46は、照度センサ34から受け取った照度信号に基づいて、監視領域の明るさを検出する。 The brightness detection means 46 detects the brightness of the monitoring area, and determines whether the brightness of the monitoring area is suitable for the daytime mode or the nighttime mode among the shooting modes of the imaging unit 32. determine whether the In this embodiment, the brightness detection means 46 detects the brightness of the monitored area based on the illuminance signal received from the illuminance sensor 34 .

例えば、明るさ検出手段46は、照度信号に示される照度が第1照度閾値以上である状態が所定時間(例えば30秒間)継続した場合に昼間モードに適した明るさであると判定し、照度信号に示される照度が第1照度閾値より小さい第2照度閾値未満である状態が所定時間継続した場合に夜間モードに適した明るさであると判定する。なお、第1照度閾値と第2照度閾値は同じであってもよい。また、所定時間の要件は省略されてもよく、すなわち、明るさ検出手段46は、照度信号に示される照度が第1照度閾値以上である状態が生じた場合に直ちに昼間モードに適した明るさであると判定し、照度信号に示される照度が第2照度閾値未満である状態が生じた場合に直ちに夜間モードに適した明るさであると判定するようにしてもよい。 For example, the brightness detection means 46 determines that the brightness is suitable for the daytime mode when the illuminance indicated by the illuminance signal is equal to or higher than the first illuminance threshold and continues for a predetermined time (for example, 30 seconds). If the illuminance indicated by the signal is less than the first illuminance threshold and less than the second illuminance threshold for a predetermined period of time, it is determined that the brightness is suitable for the night mode. Note that the first illuminance threshold and the second illuminance threshold may be the same. In addition, the requirement for the predetermined time may be omitted, that is, the brightness detection means 46 immediately detects the brightness suitable for the daytime mode when a state occurs where the illuminance indicated by the illuminance signal is equal to or higher than the first illuminance threshold. , and when the illuminance indicated by the illuminance signal is less than the second illuminance threshold value, it may be immediately determined that the brightness is suitable for the night mode.

また、明るさ検出手段46は、撮影画像40(例えば最新の撮影画像40)の画素の値から監視領域の明るさを推定するようにしてもよい。例えば、撮影画像40全体あるいは一部を構成する複数の画素の平均輝度値を算出し、当該平均輝度値に基づいて、監視領域が昼間モードに適した明るさであるか夜間モードに適した明るさであるかを判定するようにしてもよい。詳しくは、平均輝度値が閾値以上である場合に昼間モードに適した明るさであると判定し、平均輝度値が閾値未満である場合に夜間モードに適した明るさであると判定することができる。なお、明るさ検出手段46が撮影画像40に基づいて監視領域の明るさを推定する場合、照度センサ34は省略することができる。 Further, the brightness detection means 46 may estimate the brightness of the monitoring area from the pixel values of the captured image 40 (for example, the latest captured image 40). For example, the average brightness value of a plurality of pixels forming the whole or part of the captured image 40 is calculated, and based on the average brightness value, the brightness of the monitoring area is suitable for the daytime mode or the brightness suitable for the nighttime mode. You may make it determine whether it is. Specifically, when the average luminance value is equal to or greater than the threshold, it is determined that the brightness is suitable for the daytime mode, and when the average luminance value is less than the threshold, it is determined that the brightness is suitable for the nighttime mode. can. If the brightness detection means 46 estimates the brightness of the monitored area based on the captured image 40, the illuminance sensor 34 can be omitted.

撮影モード切替手段48は、明るさ検出手段46の判定結果に基づいて、撮影環境の明るさに適した撮影方法で撮影画像を撮影するために、撮影部32の撮影モードを切り替える。具体的には、撮影モード切替手段48は、監視領域の明るさが昼間モードに適した明るさであると判定された場合には、撮影部32の撮影モードを昼間モードに設定し、監視領域の明るさが夜間モードに適した明るさであると判定された場合には、撮影部32の撮影モードを夜間モードに設定する。なお、撮影モード切替手段48は、利用者からの指示に応じて撮影部32の撮影モードを切り替えるようにしてもよい。 A photographing mode switching unit 48 switches the photographing mode of the photographing unit 32 based on the determination result of the brightness detecting unit 46 in order to photograph a photographed image with a photographing method suitable for the brightness of the photographing environment. Specifically, when it is determined that the brightness of the monitoring area is suitable for the daytime mode, the imaging mode switching means 48 sets the imaging mode of the imaging unit 32 to the daytime mode and switches the monitoring area to the daytime mode. is determined to be suitable for the night mode, the photographing mode of the photographing section 32 is set to the night mode. Note that the photographing mode switching means 48 may switch the photographing mode of the photographing section 32 according to an instruction from the user.

背景画像更新手段50(基準画像更新手段)は、記憶部38に記憶された背景画像42を更新する。具体的には、背景画像更新手段50は、センシング画像40tの撮影方法と、センシング画像40tの直前に撮影された過去画像40pの撮影方法とが異なる場合に、背景画像42をセンシング画像40tの撮影方法に適した画像に更新する。なお、「直前」という用語には、取得時刻順に並べた場合(図3参照)、センシング画像40tの1つ前の過去画像40pのみならず、センシング画像40tの複数前までの複数の過去画像40pが含まれていてもよい。背景画像更新手段50の処理の詳細については後述する。 Background image updating means 50 (reference image updating means) updates the background image 42 stored in the storage unit 38 . Specifically, the background image updating means 50 replaces the background image 42 with the photographing method of the sensing image 40t when the photographing method of the sensing image 40t and the photographing method of the past image 40p photographed immediately before the sensing image 40t are different. Update to a suitable image for the method. Note that the term “immediately before” includes not only the past image 40p that is one before the sensing image 40t but also a plurality of past images 40p that are a plurality of times before the sensing image 40t when arranged in order of acquisition time (see FIG. 3). may be included. The details of the processing of the background image updating means 50 will be described later.

抽出手段52は、センシング画像40tと基準画像(本実施形態では背景画像42)とを比較して、両画像間で画素値が相違する画素からなる1又は複数の変化領域を抽出する。また、抽出手段52は、変化領域を構成する各画素に対して識別子(ラベル)を付与するラベリング処理を行う。ラベルとしては、例えば当該変化領域画像内でユニークな数値を用いることができる。ラベリング処理では、ある抽出画素に注目したとき、当該抽出画素に隣接している他の抽出画素からなる一塊の抽出画素群を1つの変化領域とみなす。なお、抽出画素に隣接する画素とは、抽出画素の上下左右方向に隣接する画素であってもよいし、斜め方向に隣接する画素まで含めてもよい。その上で、各変化領域に対して異なるラベルを付与し、変化領域画像の画素値として記憶する処理を行う。さらに、抽出手段52は、ラベルが付与された変化領域に対して、より好適に人領域を求めるために、統合、分離、あるいは削除などの整形処理を行う。 The extracting means 52 compares the sensing image 40t and the reference image (the background image 42 in this embodiment) and extracts one or a plurality of changed regions composed of pixels having different pixel values between the two images. The extraction unit 52 also performs a labeling process of assigning an identifier (label) to each pixel forming the change area. As the label, for example, a numerical value unique within the change area image can be used. In the labeling process, when a certain extracted pixel is focused on, a cluster of extracted pixels consisting of other extracted pixels adjacent to the extracted pixel is regarded as one changing region. Note that the pixels adjacent to the extracted pixel may be pixels adjacent to the extracted pixel in the vertical and horizontal directions, or may include pixels adjacent to the extracted pixel in the oblique direction. Then, a process of assigning different labels to the respective changing regions and storing them as pixel values of the changing region image is performed. Furthermore, the extracting means 52 performs shaping processing such as integration, separation, or deletion on the labeled changed regions in order to obtain human regions more appropriately.

本実施形態では、抽出手段52は、センシング画像40tと背景画像42とを比較してセンシング画像40tから変化領域を抽出しているが、抽出手段52は、フレーム間差分、すなわち、センシング画像40tと、センシング画像40tの直前に取得された過去画像40pとを比較して変化領域を抽出するようにしてもよい。その場合は、当該過去画像40pが基準画像となる。 In the present embodiment, the extracting means 52 compares the sensing image 40t and the background image 42 and extracts a changed region from the sensing image 40t. , and the past image 40p acquired immediately before the sensing image 40t may be compared to extract the changed region. In that case, the past image 40p becomes the reference image.

判定手段54は、抽出手段52が抽出した変化領域が人領域であるか否かの判定を行う。例えば、判定手段54は、整形された変化領域のサイズ(幅・高さ)などの特徴量を求め、求めた特徴量と予め記憶された人らしさを表す特徴量とを比較することにより、当該変化領域が人らしいかを判定する。また、複数の撮影画像40間において、変化領域の追跡処理を行った上で、各撮影画像40における変化領域の位置と各撮影画像40の取得時刻から変化領域の移動速度を算出し、変化領域の移動速度と、予め記憶された人らしい速度との比較をさらに行って、当該変化領域が人領域であるか否かを判定するようにしてもよい。 The determining means 54 determines whether or not the changed area extracted by the extracting means 52 is a human area. For example, the determining means 54 obtains a feature amount such as the size (width/height) of the shaped change area, and compares the obtained feature amount with a pre-stored feature amount representing humanness to determine the It is determined whether the change area is human-like. In addition, after performing tracking processing of the changed regions between the plurality of captured images 40, the movement speed of the changed regions is calculated from the position of the changed regions in each captured image 40 and the acquisition time of each captured image 40, and the changed region is calculated. and a pre-stored human-like speed may be further compared to determine whether or not the changed region is a human region.

判定手段54が、センシング画像40tから抽出された変化領域が人領域であると判定すると、通信部30から侵入アラーム信号が警備装置14へ送信される。 When the determining means 54 determines that the changed area extracted from the sensing image 40 t is the human area, the communication section 30 transmits an intrusion alarm signal to the security device 14 .

画像センサ22の構成概要としては以上の通りである。以下、背景画像更新手段50の処理の詳細について説明する。 The outline of the configuration of the image sensor 22 is as described above. Details of the processing of the background image updating means 50 will be described below.

本実施形態では、まず、背景画像更新手段50は、撮影モード切替手段48により撮影部32の撮影モードが切り替えられ、センシング画像40tの撮影モードと、センシング画像40tの直前に撮影された過去画像40pの撮影モードとが互いに異なるか否かを判定する。なお、手動操作などにより撮影モードが切替えられ、モード変更入力を撮影モード切替手段48から受けた場合は、その入力を受けたか否かから、撮影モードが互いに異なるか判定してもよい。また、センシング画像40tの直前に撮影された過去画像40pの代わりに、背景画像42(以下、2つの画像をまとめて「判定対象画像」と記載する場合がある)と比較をして、撮影モードが互いに異なるか否かを判定してもよい。 In the present embodiment, first, the background image updating unit 50 switches the shooting mode of the shooting unit 32 by the shooting mode switching unit 48, and changes the shooting mode of the sensing image 40t and the past image 40p shot immediately before the sensing image 40t. It is determined whether or not the photographing modes of are different from each other. When the shooting mode is switched by manual operation or the like and a mode change input is received from the shooting mode switching means 48, it may be determined whether the shooting modes are different from each other based on whether or not the input is received. Also, instead of the past image 40p captured immediately before the sensing image 40t, a background image 42 (hereinafter, the two images may be collectively referred to as a “determination target image”) is compared with the image capturing mode. are different from each other.

各画像の撮影モードは、各画像のメタデータ(属性情報)に記録されていてよく、背景画像更新手段50は、各画像のメタデータを確認することで撮影モードを確認することができる。あるいは、背景画像更新手段50は、各画像の画素値に基づいて各画像の撮影モードを判定することもできる。例えば、可視光RGB成分は分けて光を通すが、IR成分は同程度の光を通す性質を持つカラーフィルタを有する撮像素子を使う場合、画像の各画素のRGB値のバラツキ(分散)から当該画像の撮影モードを判定できる。具体的には、画像の全画素のRGB値の分散値を算出し、算出した分散値が所定値以上である(RGB値のバラツキが大きい)場合は、当該画像が可視画像である、つまり昼間モードで撮影されたと判定し、算出した分散値が所定値未満である(RGB値のバラツキが小さい)場合は、当該画像が近赤外画像である、つまり夜間モードで撮影されたと判定する。これは、昼間モードにおいては、明るい環境で可視画像を撮影するため、撮影画像に写る物体の色に応じて各画素のRGB値のバラツキが大きく、夜間モードにおいては、真っ暗な状態で近赤外ライトを投射して近赤外画像を撮影するため、各画素のRGB値が似たような値を示し、そのバラツキが小さくなるという特徴に基づくものである。また、撮像素子にIR素子がある場合は、IR値が所定値以上か否かから画像の撮影モードを判定してもよい。また、各画像が撮影されたときの明るさ検出手段46の判定結果に基づいて、各画像の撮影モードを判定してもよい。また、撮影モード切替手段48が撮影モードを切替えた結果を示すデータを、撮影モードを切替えて撮影した撮影画像40にメタデータとして記憶してもよく、背景画像更新手段50は撮影画像のメタデータを確認し、撮影モードを切替えた結果を示す情報があるか否かから、撮影モードが互いに異なるか否かを判定してもよい。 The shooting mode of each image may be recorded in the metadata (attribute information) of each image, and the background image updating means 50 can confirm the shooting mode by checking the metadata of each image. Alternatively, the background image updating means 50 can determine the shooting mode of each image based on the pixel values of each image. For example, when using an image pickup device having a color filter that allows the visible light RGB components to pass through separately, but the IR component to pass the same amount of light, the variation (dispersion) of the RGB values of each pixel of the image causes the The shooting mode of the image can be determined. Specifically, the variance value of the RGB values of all pixels of the image is calculated, and if the calculated variance value is equal to or greater than a predetermined value (the variation in the RGB values is large), the image is a visible image, that is, the daytime image. If the calculated variance value is less than a predetermined value (variation in RGB values is small), it is determined that the image is a near-infrared image, that is, that the image was shot in the night mode. In the daytime mode, visible images are captured in a bright environment, so the RGB values of each pixel vary greatly according to the color of the object in the captured image. Since the near-infrared image is captured by projecting light, the RGB values of each pixel show similar values, and the variation is small. Also, if the imaging device has an IR element, the imaging mode of the image may be determined based on whether the IR value is equal to or greater than a predetermined value. Alternatively, the shooting mode of each image may be determined based on the determination result of the brightness detection means 46 when each image was shot. Data indicating the result of switching the shooting mode by the shooting mode switching means 48 may be stored as metadata in the shot image 40 shot by switching the shooting mode. , and whether or not there is information indicating the result of switching the shooting modes, it may be determined whether or not the shooting modes are different from each other.

センシング画像40tの撮影モードと判定対象画像の撮影モードとが異なる場合、背景画像更新手段50は、抽出手段52による抽出処理の前に、記憶部38に記憶された未来画像40fを用いて背景画像42を更新する背景画像更新処理を実行する。 When the imaging mode of the sensing image 40t and the imaging mode of the determination target image are different, the background image updating unit 50 updates the background image using the future image 40f stored in the storage unit 38 before the extraction processing by the extraction unit 52. 42 is executed to update the background image.

背景画像更新処理において、まず、背景画像更新手段50は、記憶部38に記憶された複数の未来画像40fの比較により差分領域を抽出し、移動物体が写っているか否かを判定する。ここで、本実施形態では移動物体が検出対象である人であることを想定して説明するが、移動物体としては人に限られず、例えばその他の動物などであってもよい。詳しくは、背景画像更新手段50は、複数の未来画像40fの比較により、未来画像40fにおいて比較対象の画像から変化した領域である推定人領域(第2変化領域)が抽出されたか否かを判定する。 In the background image updating process, first, the background image updating means 50 extracts a difference area by comparing a plurality of future images 40f stored in the storage unit 38, and determines whether or not a moving object is captured. In this embodiment, the moving object is assumed to be a person to be detected, but the moving object is not limited to a person, and may be other animals, for example. More specifically, the background image update means 50 compares a plurality of future images 40f to determine whether or not an estimated human area (second change area), which is an area changed from the image to be compared in the future image 40f, is extracted. do.

本実施形態では、背景画像更新手段50は、時系列的に隣接する未来画像40f間毎に、両画像の対応する画素の画素値に所定値以上の差がある画素の集合である差分領域を表す差分画像を生成する。これにより、複数の差分画像が得られる。そして、得られた複数の差分画像において、所定回数以上、差分領域として抽出された領域があるか否かを判定する。具体的には、背景画像更新手段50は、差分領域に含まれる画素の画素値を「1」とし、その他の画素(画素値の差が所定値未満である画素)の画素値を「0」とした2値化画像を差分画像として生成し、複数の2値化画像の同座標の画素の画素値の合計値を算出し、当該合計値が所定値以上である画素の集合である差分領域を推定人領域とする。なお、予め設定した所定値ではなく、2値化画像の画素値が「0」以外である画素から求めた平均値と合計値を比較して、合計値が平均値以上である差分領域を推定人領域としてもよい。また、差分領域は、抽出された領域が全て含まれる最小の矩形で囲まれた領域でもよい。 In this embodiment, the background image updating means 50 creates a difference region, which is a set of pixels having a difference of a predetermined value or more between the pixel values of the corresponding pixels of the future images 40f that are adjacent in time series. Generate a difference image that represents Thereby, a plurality of difference images are obtained. Then, it is determined whether or not there is an area extracted as a difference area a predetermined number of times or more in the plurality of obtained difference images. Specifically, the background image updating unit 50 sets the pixel value of the pixels included in the difference area to "1", and sets the pixel value of the other pixels (pixels whose difference in pixel value is less than a predetermined value) to "0". is generated as a difference image, the total value of the pixel values of pixels at the same coordinates in a plurality of binary images is calculated, and the difference region is a set of pixels whose total value is equal to or greater than a predetermined value be the estimated person region. In addition, instead of using a predetermined value set in advance, the average value obtained from pixels with pixel values other than "0" in the binarized image is compared with the total value to estimate a difference region in which the total value is equal to or greater than the average value. It may be a human area. Also, the difference area may be an area surrounded by a minimum rectangle that includes all the extracted areas.

未来画像40fにおいて推定人領域が抽出されなかった場合、背景画像更新手段50は、複数の未来画像40fのいずれかを背景画像42とする。換言すれば、更新後の背景画像42は複数の未来画像40fのいずれかとする。一方、未来画像40fにおいて推定人領域が抽出された場合、背景画像更新手段50は、以下に説明する背景画像生成処理を行う。 If no presumed human region is extracted from the future image 40f, the background image updating means 50 sets one of the multiple future images 40f as the background image 42. FIG. In other words, the updated background image 42 is one of the multiple future images 40f. On the other hand, when the presumed human region is extracted in the future image 40f, the background image updating means 50 performs background image generation processing described below.

背景画像生成処理において、背景画像更新手段50は、複数の未来画像40fのうちのいずれか1つ(以下単に「未来画像40f」と記載する)における推定人領域以外の各画素の画素値と、更新前の背景画像42における推定人領域以外の対応する各画素の画素値とに基づいて、背景画像42から未来画像40fへの画素値変化量を算出する。 In the background image generation process, the background image updating means 50 updates the pixel value of each pixel other than the estimated human region in one of the plurality of future images 40f (hereinafter simply referred to as the “future image 40f”), A pixel value change amount from the background image 42 to the future image 40f is calculated based on the pixel value of each corresponding pixel other than the estimated human region in the background image 42 before updating.

背景画像42における推定人領域とは、未来画像40fの推定人領域に含まれる複数の画素と同じ座標の複数の画素からなる領域である。図4(a)に背景画像42が示され、図4(b)に未来画像40fが示されている。図4(b)には、未来画像40fにおいて検出された推定人領域60が示され、図4(a)には背景画像42における推定人領域60’が示されている。 The estimated person area in the background image 42 is an area made up of a plurality of pixels having the same coordinates as the pixels included in the estimated person area of the future image 40f. The background image 42 is shown in FIG. 4(a), and the future image 40f is shown in FIG. 4(b). FIG. 4(b) shows an estimated human area 60 detected in the future image 40f, and FIG. 4(a) shows an estimated human area 60' in the background image 42. As shown in FIG.

好ましくは、図5に示すように、背景画像更新手段50は、未来画像40fにおける推定人領域60の周辺領域62(図5(b)参照)内の各画素の画素値と、当該周辺領域62に対応する更新前の背景画像42の画像領域の各画素の画素値(換言すれば、背景画像42における推定人領域60’の周辺領域62’(図5(a)参照)内の各画素の画素値)とに基づいて、画素値変化量を算出する。 Preferably, as shown in FIG. 5, the background image updating means 50 updates the pixel value of each pixel in a peripheral region 62 (see FIG. 5B) of the estimated human region 60 in the future image 40f and the peripheral region 62 The pixel value of each pixel in the image area of the background image 42 before updating corresponding to pixel value), and the amount of change in pixel value is calculated.

本実施形態では、背景画像更新手段50は、背景画像42から未来画像40fへの、同じ座標の画素の輝度値の変化の倍率(変化率)を算出して、輝度値毎の変化率を表す変化率テーブルを生成する。例えば、背景画像42の周辺領域62’に含まれる各画素の輝度値が図6(a)に示すものであり、未来画像40fの周辺領域62に含まれる各画素の輝度値が図6(b)に示すものである場合を例に説明する。なお、図6は簡略的な図であり、実際には、周辺領域62,62’あるいは推定人領域60,60’はもっと多くの数の画素から構成される。また、本実施形態では、変化率を算出するための画素値として輝度値を用いているが、画素値としてはこれには限られず、例えば色相などの値であってもよい。 In this embodiment, the background image updating means 50 calculates the magnification (rate of change) of the change in the luminance value of pixels at the same coordinates from the background image 42 to the future image 40f, and expresses the rate of change for each luminance value. Generate a rate of change table. For example, the brightness value of each pixel included in the peripheral region 62' of the background image 42 is shown in FIG. 6A, and the brightness value of each pixel included in the peripheral region 62 of the future image 40f is ) will be described as an example. It should be noted that FIG. 6 is a simplified diagram, and in reality the peripheral regions 62, 62' or the estimated human regions 60, 60' are composed of a larger number of pixels. Also, in the present embodiment, the luminance value is used as the pixel value for calculating the rate of change, but the pixel value is not limited to this, and may be, for example, a hue value.

周辺領域62’の一番左上の画素に着目すると、背景画像42では当該画素の輝度値が「2」であるが、未来画像40fでは対応する画素の輝度値が「6」となっている。したがって、変化率テーブルにおいては、輝度値「2」に対する変化率「3倍」となる。同様に、周辺領域62’の一番右上の画素に着目すると、背景画像42では当該画素の輝度値が「36」であるが、未来画像40fでは対応する画素の輝度値が「12」となっている。したがって、変化率テーブルにおいては、輝度値「36」に対する変化率「1/3倍」となる。 Focusing on the upper leftmost pixel of the peripheral region 62', the brightness value of the pixel is "2" in the background image 42, but the brightness value of the corresponding pixel is "6" in the future image 40f. Therefore, in the rate of change table, the rate of change is "three times" with respect to the luminance value "2". Similarly, focusing on the uppermost pixel of the peripheral region 62', the brightness value of the pixel is "36" in the background image 42, but the brightness value of the corresponding pixel is "12" in the future image 40f. ing. Therefore, in the rate of change table, the rate of change is "1/3 times" with respect to the luminance value "36".

このようにして、背景画像更新手段50は、各輝度値に対する変化率を求め、図7に示すような変化率テーブルを生成する。なお、背景画像更新手段50は、周辺領域62’の画素の輝度値として存在しなかった輝度値(例えば図7の例だと輝度値「1」あるいは「3」など)に対する変化率を補完するようにしてもよい。例えば、近い輝度値の変化率を用いる(例えば輝度値「1」に対する変化率を「3倍」、輝度値「3」に対する変化率を「2倍」とする)か、あるいは、近い輝度値の変化率に基づいて変化率を算出する(例えば輝度値「3」に対する変化率を輝度値「2」に対する変化率「3倍」と輝度値「4」に対する変化率「2倍」の中央値「2.5倍」とする)ようにしてもよい。 In this manner, the background image updating means 50 obtains the rate of change for each luminance value and generates a rate of change table as shown in FIG. Note that the background image updating means 50 complements the rate of change for the luminance value that did not exist as the luminance value of the pixels in the peripheral region 62′ (for example, the luminance value “1” or “3” in the example of FIG. 7). You may do so. For example, the rate of change of luminance values that are close to each other (for example, the rate of change for a luminance value of “1” is “three times” and the rate of change to a luminance value of “3” is “two times”), or Calculate the change rate based on the change rate (for example, the change rate for the luminance value "3" is calculated as the median of the change rate "3 times" for the luminance value "2" and the change rate "2 times" for the luminance value "4". 2.5 times”).

次いで、背景画像更新手段50は、生成した変化率テーブルに基づいて、更新前の背景画像42における推定人領域60’内の各画素の輝度値を補正して、補正後の輝度値を更新後の背景画像42’の推定人領域60’’の対応する画素の輝度値とする。例えば、図6(a)に示される通り、推定人領域60’内の一番左上の画素の輝度値が「5」となっており、図7に示される通り、変化率テーブルにおいては、輝度値「5」に対応する変化率が「3倍」となっている。したがって、背景画像更新手段50は、図8に示す通り、更新後の背景画像42’における推定人領域60’’内の一番左上の画素の輝度値を5×3の「15」とする。 Next, the background image updating means 50 corrects the luminance value of each pixel in the estimated human region 60′ in the background image 42 before updating based on the generated change rate table, and updates the luminance value after the correction. is the luminance value of the corresponding pixel of the estimated human region 60'' of the background image 42'. For example, as shown in FIG. 6(a), the luminance value of the upper leftmost pixel in the estimated human region 60′ is “5”, and as shown in FIG. The rate of change corresponding to the value "5" is "3 times". Therefore, as shown in FIG. 8, the background image updating means 50 sets the luminance value of the upper leftmost pixel in the estimated human region 60'' in the updated background image 42' to 5×3=“15”.

さらに、背景画像更新手段50は、未来画像40fの推定人領域60以外の領域の画素値を、更新後の背景画像42’の推定人領域60’’以外の各画素の画素値とする。これにより、図9に示される通り、更新後の背景画像42’が生成され、つまり背景画像42が更新される。 Further, the background image updating means 50 sets the pixel values of the areas other than the estimated human area 60 of the future image 40f as the pixel values of the pixels of the updated background image 42' other than the estimated human area 60''. Thereby, as shown in FIG. 9, an updated background image 42' is generated, that is, the background image 42 is updated.

上述のように、背景画像更新手段50は、変更前の撮影モードに対応する背景画像42から変更後の撮影モードに対応する未来画像40fへの画素値変化量に基づいて、移動物体である人物像が存在しない、更新前の背景画像42の推定人領域60’内の各画素値を補正して、更新後の背景画像42’の推定人領域60’’内の画素の画素値とする。これにより、更新後の背景画像42’の推定人領域60’’内の各画素値を、人物像が存在せず、且つ、変更後の撮影モードに対応した画素値とすることができる。また、更新後の背景画像42’の推定人領域60’’以外の各画素の画素値は、もとより人物像が存在せず、変更後の撮影モードに対応した、未来画像40fの推定人領域60以外の各画素の画素値としている。これにより、更新後の背景画像42’を、移動物体である人物像が存在せず、変更後の撮影モードに対応したものとすることができる。 As described above, the background image updating unit 50 updates the background image 42 corresponding to the photographing mode before the change to the future image 40f corresponding to the photographing mode after the change based on the amount of change in the pixel value of the person who is the moving object. Each pixel value in the estimated human region 60′ of the background image 42 before updating, in which no image exists, is corrected to obtain the pixel value of the pixels in the estimated human region 60″ of the background image 42′ after updating. As a result, each pixel value in the estimated human region 60'' of the updated background image 42' can be set to a pixel value in which there is no human image and which corresponds to the changed shooting mode. Further, the pixel value of each pixel other than the estimated human region 60'' of the background image 42' after updating is the estimated human region 60 of the future image 40f corresponding to the shooting mode after change, where there is no human image from the beginning. The pixel value of each pixel other than As a result, the background image 42' after the update does not include the human image, which is the moving object, and can correspond to the shooting mode after the change.

特に、周辺領域62,62’は、画素値の補正が必要な推定人領域60,60’の近傍に位置しているため、背景画像42の周辺領域62’内の画素の画素値と、未来画像40fの周辺領域62内の画素の画素値とに基づいて画素値変化量を求めることで、背景画像42の推定人領域60’内の画素の画素値を補正するに適した画素値変化量を求めることができる。つまり、推定人領域の画素と、隣接する周辺領域の画素の輝度値が近しい場合、周辺領域に写る物体が推定人領域にも続いている可能性が高く、さらに撮影モードの切り替え前後で画像に写っている同一の物体は、同様の輝度変化が起こる。したがって、周辺領域62、62’から画素値変化量を求めることで、推定人領域60’’内に写る物体に適した画素値変化量を求めることができる。これにより、更新後の背景画像42’において、推定人領域60’’内の画素の画素値が不自然な値となる可能性が低減され、より自然な背景画像42’を生成することができる。 In particular, since the peripheral regions 62, 62' are located in the vicinity of the estimated human regions 60, 60' that require pixel value correction, the pixel values of the pixels in the peripheral region 62' of the background image 42 and the future By obtaining the pixel value change amount based on the pixel value of the pixels in the peripheral region 62 of the image 40f, the pixel value change amount suitable for correcting the pixel value of the pixels in the estimated human region 60′ of the background image 42 is obtained. can be asked for. In other words, when the brightness values of the pixels in the estimated human area and the pixels in the adjacent peripheral area are close, there is a high possibility that the object captured in the peripheral area continues to the estimated human area, and furthermore, the image changes before and after switching the shooting mode. Identical objects in the image undergo similar luminance changes. Therefore, by obtaining the pixel value change amount from the peripheral areas 62 and 62', it is possible to obtain the pixel value change amount suitable for the object captured in the estimated human area 60''. This reduces the possibility that the pixel values of the pixels in the estimated human region 60'' will be unnatural values in the updated background image 42', and a more natural background image 42' can be generated. .

抽出手段52は、センシング画像40tの撮影モードと、センシング画像40tの直前に撮影された過去画像40p又は背景画像42の撮影モードとが一致する場合、当該過去画像40p又は背景画像42を基準画像として、センシング画像40tから変化領域を抽出する。一方、センシング画像40tの撮影モードと、センシング画像40tの直前に撮影された過去画像40p又は背景画像42の撮影モードとが相違する場合、上述のように背景画像更新手段50により更新された基準画像に基づいて、センシング画像40tから変化領域を抽出する。 When the photographing mode of the sensing image 40t and the photographing mode of the past image 40p or the background image 42 photographed immediately before the sensing image 40t match, the extracting means 52 uses the past image 40p or the background image 42 as a reference image. , to extract a changed region from the sensing image 40t. On the other hand, if the imaging mode of the sensing image 40t is different from the imaging mode of the past image 40p or the background image 42 shot immediately before the sensing image 40t, the reference image updated by the background image updating means 50 as described above Based on, the changed area is extracted from the sensing image 40t.

このように、撮影画像40の撮影方法が変更された場合に、未来画像40fを用いて背景画像42を現在の撮影方法に適したものに更新することで、監視不能期間を生じさせることなく、センシング画像40tにおいて、人物に相当する画像領域である人領域を検出することができるようになる。 In this way, when the shooting method of the shot image 40 is changed, the background image 42 is updated using the future image 40f so as to be suitable for the current shooting method. In the sensing image 40t, it is possible to detect a person area, which is an image area corresponding to a person.

本実施形態では、撮影部32は、可視画像と近赤外画像の2種類の撮影方法にて監視領域を撮影していたが、3種類以上の撮影方法にて監視領域を撮影してもよい。例えば、可視画像、距離画像及び熱画像の3種類の撮影方法にて監視領域の撮影を行う。 In the present embodiment, the imaging unit 32 images the monitoring area using two types of imaging methods, the visible image and the near-infrared image. . For example, the monitoring area is photographed by three types of photographing methods of a visible image, a distance image, and a thermal image.

また、本実施形態では、推定人領域を抽出する場合に、未来画像毎に差分画像を生成し、得られた複数の差分画像から、所定回数以上、差分領域として抽出された領域を推定人領域としていたが、生成する差分画像は1枚でも良い。例えば、センシング画像の直後に撮影された未来画像2枚から差分画像を作成し、作成した差分画像に差分領域が抽出されなかった場合は、差分画像の作成に用いた未来画像のいずれかを背景画像とし、差分画像に差分領域が抽出されたら、抽出された差分領域を推定人領域としてもよい。 Further, in the present embodiment, when extracting the estimated human region, a difference image is generated for each future image, and the region extracted as the difference region a predetermined number of times or more from the obtained multiple difference images is extracted as the estimated human region. However, the number of difference images to be generated may be one. For example, if a difference image is created from two future images captured immediately after the sensing image, and if no difference region is extracted in the created difference image, one of the future images used to create the difference image is used as the background. When the difference area is extracted from the difference image, the extracted difference area may be used as the estimated human area.

また、本実施形態では、背景画像更新手段50が変化率テーブルを生成していたが、背景画像42の推定人領域60’内の各画素の輝度値を補正するにあたり、変化率テーブルを生成しなくてもよい。例えば、背景画像42の推定人領域60’以外の領域内の複数の画素の輝度値の平均値と、未来画像40fの推定人領域60以外の領域内の複数の画素の輝度値の平均値との差分から画素値変化量を求めてもよい。特に、背景画像42の周辺領域62’内の複数の画素の輝度値の平均値と、未来画像40fの周辺領域62内の複数の画素の輝度値の平均値との差分から画素値変化量を求めてもよい。 Further, in the present embodiment, the background image updating means 50 generates the change rate table, but when correcting the luminance value of each pixel in the estimated human region 60' of the background image 42, the change rate table is generated. It doesn't have to be. For example, the average value of the luminance values of the plurality of pixels in the region other than the estimated human region 60′ of the background image 42 and the average value of the luminance values of the plurality of pixels in the region other than the estimated human region 60′ of the future image 40f. A pixel value change amount may be obtained from the difference between . In particular, the pixel value change amount is calculated from the difference between the average value of the brightness values of the plurality of pixels in the peripheral region 62′ of the background image 42 and the average value of the brightness values of the plurality of pixels in the peripheral region 62 of the future image 40f. you may ask.

また、本実施形態では、複数の未来画像40fから選択された1つの未来画像40fと、背景画像42とに基づいて、画素値変化量を求めていたが、複数の未来画像40fの対応する画素の画素値を平均化した平均未来画像を生成し、当該平均未来画像と背景画像42とに基づいて画素値変化量を求めるようにしてもよい。 Further, in the present embodiment, the pixel value change amount is obtained based on one future image 40f selected from a plurality of future images 40f and the background image 42. It is also possible to generate an average future image by averaging the pixel values of , and obtain the pixel value change amount based on the average future image and the background image 42 .

また、背景画像更新手段50がセンシング画像40tの撮影モードと判定対象画像の撮影モードとが異なる場合に背景画像42を更新する際、未来画像40fの撮影モードを判定してセンシング画像40tの撮影モードと同じ未来画像40fを用いて背景画像を更新すると尚よい。つまり、未来画像40fの中で撮影モードが切替られた場合、撮影モードが切替えられる前の未来画像40f、すなわちセンシング画像40tと同じ撮影モードで撮影された未来画像40fを用いて背景画像42を更新する。なお、未来画像40fの撮影方法が1フレーム毎に切替わって撮影された(例えば、センシング画像40tが近赤外画像、センシング画像40tの1フレーム後が可視画像、センシング画像40tの2フレーム後が近赤外画像)場合、未来画像40fのうち、センシング画像40tの撮影方法と同じ撮影方法で撮影された未来画像40fを用いて、背景画像42を更新するとよい。 Further, when the background image updating unit 50 updates the background image 42 when the imaging mode of the sensing image 40t and the imaging mode of the determination target image are different, the imaging mode of the future image 40f is determined and the imaging mode of the sensing image 40t is determined. It is even more preferable to update the background image using the same future image 40f as in . That is, when the shooting mode is switched in the future image 40f, the background image 42 is updated using the future image 40f before the shooting mode is switched, that is, the future image 40f shot in the same shooting mode as the sensing image 40t. do. The imaging method of the future image 40f is switched for each frame (for example, the sensing image 40t is a near-infrared image, one frame after the sensing image 40t is a visible image, and two frames after the sensing image 40t is a near-infrared image), the background image 42 may be updated using the future image 40f captured by the same imaging method as the sensing image 40t.

また、抽出手段52が上述のフレーム間差分によってセンシング画像40tから変化領域を抽出する場合、背景画像更新手段50は、センシング画像40tの撮影モードと、センシング画像40tの直前に撮影された過去画像40pの撮影モードとが互いに異なる場合、未来画像40f(好適にはセンシング画像40tの1フレーム後の未来画像40f)を基準画像とする。その上で、抽出手段52は、センシング画像40tと当該未来画像40fとを比較して、センシング画像40tにおいて変化領域を抽出する。 Further, when the extracting unit 52 extracts the changed region from the sensing image 40t by the inter-frame difference described above, the background image updating unit 50 changes the shooting mode of the sensing image 40t and the past image 40p shot immediately before the sensing image 40t. , the future image 40f (preferably the future image 40f one frame after the sensing image 40t) is used as the reference image. After that, the extracting means 52 compares the sensing image 40t with the future image 40f, and extracts a changed region in the sensing image 40t.

また、本実施形態では、センシング画像40tの撮影モードと、判定対象画像の撮影モードとが互いに異なる場合に、背景画像更新手段50が背景画像42を更新していたが、背景画像更新手段50は、センシング画像40tの撮影時と、判定対象画像の撮影時とにおいて、監視領域において所定の水準以上の明るさの変化があったと判定した場合に、背景画像42を更新するようにしてもよい。なお、この場合であっても、背景画像42の更新方法は上述と同様であってよい。 Further, in the present embodiment, the background image updating unit 50 updates the background image 42 when the shooting mode of the sensing image 40t and the shooting mode of the determination target image are different from each other. , the background image 42 may be updated when it is determined that there is a change in the brightness of the monitoring area that is greater than or equal to a predetermined level between when the sensing image 40t is captured and when the determination target image is captured. Even in this case, the method of updating the background image 42 may be the same as described above.

この場合、図10に示すように、変形例に係る画像センサ22’は、基本実施形態に係る画像センサ22に比して、明るさ検出手段46及び撮影モード切替手段48に代えてあるいは加えて、明るさ変化判定手段70を備える。 In this case, as shown in FIG. 10, the image sensor 22' according to the modified example has the brightness detection means 46 and the shooting mode switching means 48 instead of or in addition to the image sensor 22 according to the basic embodiment. , a brightness change determination means 70 is provided.

明るさ変化判定手段70は、監視領域において、ある時点から他の時点までの間において、所定の水準以上の明るさの変化があるか否かを判定する。 Brightness change determination means 70 determines whether or not there is a change in brightness of a predetermined level or more in the monitored area from one point in time to another point in time.

例えば、明るさ変化判定手段70は、照度センサ34からの照度信号に基づいて、監視領域の明るさの変化を判定することができる。なお、この場合、撮影部32により撮影画像40が撮影される度に、撮影時の監視領域の明るさを示す照度情報を当該撮影画像40のメタデータとして付与しておき、明るさ変化判定手段70が、ある撮影画像40の撮影時から他の撮影画像40の撮影時までの間における監視領域の明るさの変化(量)を求められるようにしておく。 For example, the brightness change determining means 70 can determine a change in brightness of the monitored area based on the illuminance signal from the illuminance sensor 34 . In this case, each time the photographed image 40 is photographed by the photographing unit 32, illuminance information indicating the brightness of the monitored area at the time of photographing is added as metadata to the photographed image 40, and the brightness change determination means 70 can obtain the change (amount) of the brightness of the monitoring area from the time when a certain captured image 40 is captured to the time when another captured image 40 is captured.

また、例えば、明るさ変化判定手段70は、センシング画像40tの平均輝度値と、センシング画像40tの直前の過去画像40pの平均輝度値とを算出し、算出した平均輝度値の差分(平均輝度差)が予め設定した所定値以上であるか否かを判定する。所定値以上である場合、監視領域において水準以上の明るさの変化が生じたと判定し、所定値以下の場合は、監視領域において水準以上の明るさの変化が生じていないと判定する。あるいは、センシング画像40tの平均輝度値が第1閾値以下であり、且つ、センシング画像40tの直前の過去画像40pの平均輝度値が第1閾値よりも高い第2閾値以上である場合、又は、センシング画像40tの平均輝度値が第2閾値以上であり、且つ、センシング画像40tの直前の過去画像40pの平均輝度値が第1閾値以下である場合に、監視領域において水準以上の明るさの変化が生じたと判定してもよい。なお、センシング画像40tの直前の過去画像40pの代わりに、背景画像42とセンシング画像40tとを比較して監視領域において水準以上の明るさの変化が生じたか否かを判定してもよい。 Further, for example, the brightness change determination unit 70 calculates the average brightness value of the sensing image 40t and the average brightness value of the past image 40p immediately before the sensing image 40t, and calculates the difference between the calculated average brightness values (average brightness difference ) is equal to or greater than a preset value. If it is equal to or greater than the predetermined value, it is determined that a change in brightness equal to or greater than the standard has occurred in the monitoring area. Alternatively, when the average luminance value of the sensing image 40t is equal to or less than a first threshold and the average luminance value of the previous image 40p immediately before the sensing image 40t is equal to or greater than a second threshold higher than the first threshold, or When the average luminance value of the image 40t is equal to or greater than the second threshold and the average luminance value of the past image 40p immediately before the sensing image 40t is equal to or less than the first threshold, the change in brightness above the standard level occurs in the monitoring area. may be determined to have occurred. Instead of the previous image 40p immediately before the sensing image 40t, the background image 42 and the sensing image 40t may be compared to determine whether or not there has been a change in brightness above the standard level in the monitoring area.

なお、水準以上の明るさの変化の有無を判定するために、センシング画像40tと過去画像40pの平均輝度値に代えて、平均明度などの他の指標を用いてもよい。また、画像全体の平均輝度値ではなく、予め設定した画像内の所定領域の平均輝度値に基づいて、監視領域における水準以上の明るさの変化の有無を判定してもよい。また、輝度変化のパターン(輝度変化のグラフなどを用いて)などが予め設定したパターンと一致するか否かに基づいて、監視領域における水準以上の明るさの変化の有無を判定してもよい。 Note that, in order to determine whether or not there is a change in brightness equal to or higher than the standard, another index such as average brightness may be used instead of the average luminance value of the sensing image 40t and the past image 40p. Further, it is also possible to determine whether or not there is a change in the brightness of the monitoring area that exceeds the standard based on the average luminance value of a predetermined area within the image, instead of the average luminance value of the entire image. Alternatively, it may be determined whether or not there is a change in brightness above a standard level in the monitoring area based on whether or not the pattern of brightness change (using a graph of brightness change, etc.) matches a preset pattern. .

抽出手段52は、センシング画像40tの撮影時と、センシング画像40tの直前に撮影された過去画像40p又は背景画像42の撮影時とにおいて、明るさ変化判定手段70により、監視領域の明るさに水準以上の変化がないと判定された場合、当該過去画像40p又は背景画像42を基準画像として、センシング画像40tから変化領域を抽出する。一方、センシング画像40tの撮影時と、センシング画像40tの直前に撮影された過去画像40p又は背景画像42の撮影時とにおいて、明るさ変化判定手段70により、監視領域の明るさに水準以上の変化があると判定された場合、上述のように背景画像更新手段50により更新された基準画像に基づいて、センシング画像40tから変化領域を抽出する。 The extraction unit 52 determines the level of brightness of the monitored area by the brightness change determination unit 70 when the sensing image 40t is captured and when the previous image 40p or the background image 42 captured immediately before the sensing image 40t is captured. If it is determined that there is no such change, the past image 40p or the background image 42 is used as a reference image to extract a changed region from the sensing image 40t. On the other hand, when the sensing image 40t is captured, and when the past image 40p or the background image 42 captured immediately before the sensing image 40t is captured, the brightness change determination unit 70 determines that the brightness of the monitoring area has changed by a level or more. If it is determined that there is, the changed area is extracted from the sensing image 40t based on the reference image updated by the background image updating means 50 as described above.

以下、図11に示すフローチャートに従って、基本実施形態における侵入者判定処理の流れを説明する。 The flow of intruder determination processing in the basic embodiment will be described below according to the flowchart shown in FIG.

ステップS10において、背景画像更新手段50は、撮影モード切替手段48により撮影部32の撮影モードが切り替えられ、センシング画像40tの撮影モードと、センシング画像40tの直前に撮影された過去画像40p又は背景画像42の撮影モードとが互いに異なるか否かを判定する。両画像の撮影モードが異なる場合はステップS12に進む。両画像の撮影モードが同じである場合はステップS22に進む。 In step S10, the background image updating unit 50 switches the shooting mode of the shooting unit 32 by the shooting mode switching unit 48, and changes the shooting mode of the sensing image 40t to the past image 40p shot immediately before the sensing image 40t or the background image. 42 is different from each other. If the shooting modes of both images are different, the process proceeds to step S12. If the shooting modes of both images are the same, the process proceeds to step S22.

ステップS12において、背景画像更新手段50は、複数の未来画像40f間の差分画像に基づいて、未来画像40fに推定人領域60が存在するか否かを判定する。 In step S12, the background image updating unit 50 determines whether or not the estimated human area 60 exists in the future image 40f based on the difference image between the multiple future images 40f.

未来画像40fに推定人領域60が存在しない場合、ステップS14において、背景画像更新手段50は、複数の未来画像40fのいずれかを背景画像42とし、ステップS22に進む。 When the estimated human region 60 does not exist in the future image 40f, the background image updating means 50 sets one of the plurality of future images 40f as the background image 42 in step S14, and proceeds to step S22.

未来画像40fに推定人領域60が存在する場合、ステップS16において、背景画像更新手段50は、未来画像40fにおける推定人領域60の周辺領域62内の各画素の画素値と、背景画像42における推定人領域60’の周辺領域62’内の各画素の画素値とに基づいて、背景画像42から未来画像40fへの輝度値毎の変化率を表す変化率テーブルを生成する。 When the estimated human region 60 exists in the future image 40f, in step S16, the background image updating means 50 updates the pixel values of each pixel in the peripheral region 62 of the estimated human region 60 in the future image 40f and the estimated Based on the pixel value of each pixel in the peripheral region 62' of the human region 60', a rate of change table is generated that represents the rate of change for each luminance value from the background image 42 to the future image 40f.

ステップS18において、背景画像更新手段50は、ステップS16で生成した変化率テーブルに基づいて、更新前の背景画像42における推定人領域60’内の各画素の輝度値を補正して、補正後の輝度値を更新後の背景画像42’の推定人領域60’’の対応する画素の輝度値とする。 In step S18, the background image updating means 50 corrects the luminance value of each pixel in the pre-updated background image 42 in the estimated human region 60' based on the change rate table generated in step S16. Let the brightness value be the brightness value of the corresponding pixel in the estimated human region 60'' of the updated background image 42'.

ステップS20において、背景画像更新手段50は、未来画像40fの推定人領域60以外の領域の画素値を、更新後の背景画像42’の推定人領域60’’以外の各画素の画素値とする。これにより、更新後の背景画像42’が生成される。 In step S20, the background image updating means 50 sets the pixel values of the regions other than the estimated human region 60 in the future image 40f to the pixel values of the pixels other than the estimated human region 60'' of the updated background image 42'. . As a result, an updated background image 42' is generated.

ステップS22において、抽出手段52は、センシング画像40tと背景画像42とを比較して、センシング画像40tから変化領域を抽出する。ここで、ステップS10でセンシング画像40tの撮影モードと、センシング画像40tの直前に撮影された過去画像40p又は背景画像42の撮影モードとが互いに異なると判定された場合(すなわちステップS12~20を経由した場合)には、ステップS22で用いられる背景画像42は、ステップS12~20の処理で更新された背景画像42である。一方、ステップS10でセンシング画像40tの撮影モードと、センシング画像40tの直前に撮影された過去画像40p又は背景画像42の撮影モードとが一致すると判定された場合には、当該過去画像40p又は背景画像42を基準画像として、センシング画像40tから変化領域を抽出する。 In step S22, the extracting unit 52 compares the sensing image 40t and the background image 42, and extracts a changed region from the sensing image 40t. Here, if it is determined in step S10 that the shooting mode of the sensing image 40t is different from the shooting mode of the past image 40p or the background image 42 shot immediately before the sensing image 40t (that is, steps S12 to S20 are passed through). case), the background image 42 used in step S22 is the background image 42 updated in the processes of steps S12 to S20. On the other hand, if it is determined in step S10 that the shooting mode of the sensing image 40t matches the shooting mode of the past image 40p or the background image 42 shot immediately before the sensing image 40t, then the past image 40p or the background image Using 42 as a reference image, a changed region is extracted from the sensing image 40t.

ステップS24において、背景画像更新手段50は、背景画像42を更新する条件を満たすか否かを判定する。具体的には、所定期間(例えば、20フレーム間隔)背景画像42の更新が行われていないか否か、さらに、センシング画像の変化領域が所定範囲以下か否かを判定する。 In step S24, the background image updating means 50 determines whether or not the conditions for updating the background image 42 are satisfied. Specifically, it is determined whether or not the background image 42 has been updated for a predetermined period of time (for example, 20 frame intervals), and whether or not the change area of the sensing image is within a predetermined range.

条件を満たす場合、ステップS26において、背景画像更新手段50は、センシング画像42tを背景画像42とする。条件を満たさなかった場合、ステップS26をバイパスし、つまり背景画像42の更新は行わずにステップS28に進む。 If the condition is satisfied, the background image updating unit 50 sets the sensing image 42t as the background image 42 in step S26. If the condition is not satisfied, step S26 is bypassed, that is, the process proceeds to step S28 without updating the background image 42 .

ステップS28において、判定手段54は、ステップS22において抽出された変化領域が人領域であるか否かの判定を行う。人領域である場合には、通信部30から侵入アラーム信号が警備装置14へ送信され、そうでない場合は通知は行われない。 In step S28, the determination means 54 determines whether or not the changed region extracted in step S22 is a human region. If it is in a human area, an intrusion alarm signal is sent from the communication unit 30 to the security device 14, otherwise no notification is given.

以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。 Although the embodiments according to the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the gist of the present invention.

10 警備システム、12 監視対象物件、14 警備装置、16 通信網、18 警備センタ装置、20 利用者装置、22 画像センサ、24 録画装置、30 通信部、32 撮影部、34 照度センサ、36 照明部、38 記憶部、40 撮影画像、42 背景画像、44 信号処理部、46 明るさ検出手段、48 撮影モード切替手段、50 背景画像更新手段、52 抽出手段、54 判定手段。
10 security system, 12 object to be monitored, 14 security device, 16 communication network, 18 security center device, 20 user device, 22 image sensor, 24 recording device, 30 communication unit, 32 imaging unit, 34 illuminance sensor, 36 lighting unit , 38 storage unit, 40 captured image, 42 background image, 44 signal processing unit, 46 brightness detection means, 48 shooting mode switching means, 50 background image updating means, 52 extraction means, 54 determination means.

Claims (6)

撮影環境に応じた撮影方法で順次撮影された撮影画像のうち、処理対象の対象画像について基準画像との変化領域を抽出する画像処理装置であって、
前記対象画像を含む所定期間の前記撮影画像を記憶する記憶手段と、
前記対象画像の撮影方法と、当該対象画像の直前に撮影された撮影画像又は前記基準画像の撮影方法とが一致する場合、当該対象画像よりも時間的に前に撮影された前記撮影画像である過去画像を用いて設定した前記基準画像と当該対象画像とから前記変化領域を抽出し、前記撮影方法が相違する場合には、前記記憶されている前記撮影画像のうち当該対象画像よりも時間的に後に撮影された前記撮影画像である未来画像を用いて設定した前記基準画像と当該対象画像とから前記変化領域を抽出する抽出手段と、
を有することを特徴とする画像処理装置。
An image processing device for extracting a change area from a reference image in a target image to be processed from among captured images sequentially captured by a capturing method according to a capturing environment,
a storage means for storing the captured images for a predetermined period including the target image;
If the method of photographing the target image matches the method of photographing the photographed image photographed immediately before the subject image or the photographing method of the reference image, the photographed image is the photographed image temporally before the subject image. extracting the changed area from the reference image set using a past image and the target image; extracting means for extracting the changed region from the reference image set using the future image, which is the photographed image photographed later, and the target image;
An image processing device comprising:
前記記憶手段は、前記過去画像を用いて設定した前記基準画像を更に記憶し、
前記対象画像の撮影方法と、当該対象画像の直前に撮影された撮影画像又は前記基準画像の撮影方法とが相違するか否かを判定し、前記撮影方法が相違すると判定したとき、前記抽出手段による抽出処理の前に、前記未来画像を用いて前記基準画像を更新する基準画像更新手段を、
更に有することを特徴とする請求項1に記載の画像処理装置。
The storage means further stores the reference image set using the past image,
determining whether or not a shooting method of the target image is different from a shooting method of a shot image shot immediately before the target image or the shooting method of the reference image, and if it is determined that the shooting methods are different, the extracting means A reference image updating means for updating the reference image using the future image before the extraction process by
2. The image processing apparatus according to claim 1, further comprising:
前記基準画像更新手段は、前記未来画像を用いて前記基準画像を更新する際、複数の前記未来画像間の差分領域が抽出されなかった場合は、比較に用いた前記未来画像のいずれか一つを前記基準画像とする、
ことを特徴とする請求項2に記載の画像処理装置。
When updating the reference image using the future image, the reference image updating means updates one of the future images used for comparison if a difference region between the plurality of future images is not extracted. is the reference image,
3. The image processing apparatus according to claim 2 , wherein:
前記基準画像更新手段は、前記未来画像を用いて前記基準画像を更新する際、複数の前記未来画像間の差分領域が抽出された場合は、前記未来画像における前記差分領域以外の各画素の画素値と、更新前の前記基準画像における前記差分領域以外の対応する各画素の画素値とから求められる画素値変化量に基づいて、更新前の前記基準画像における前記差分領域内の各画素の画素値を補正して、更新後の前記基準画像の差分領域の対応する各画素の画素値とし、前記未来画像における前記差分領域以外の領域の画素値を更新後の前記基準画像の差分領域以外の各画素の画素値とする、
ことを特徴とする請求項2又は3に記載の画像処理装置。
When updating the reference image using the future image, the reference image updating means, when a difference area between a plurality of the future images is extracted, is a pixel of each pixel in the future image other than the difference area. and the pixel value of each pixel in the difference area in the reference image before updating based on the pixel value change amount obtained from the pixel value of each corresponding pixel outside the difference area in the reference image before updating. The value is corrected to be the pixel value of each corresponding pixel in the difference area of the reference image after updating, and the pixel value of the area other than the difference area in the future image is corrected to the pixel value of the area other than the difference area of the reference image after updating. Let the pixel value of each pixel be
4. The image processing apparatus according to claim 2 , wherein:
前記基準画像更新手段は、前記未来画像における前記差分領域の周辺領域内の各画素の画素値と、前記周辺領域に対応する更新前の前記基準画像の画像領域の各画素の画素値とから前記画素値変化量を求める、
ことを特徴とする請求項4に記載の画像処理装置。
The reference image updating means calculates the pixel value of each pixel in the peripheral area of the difference area in the future image and the pixel value of each pixel in the image area of the reference image before updating corresponding to the peripheral area. find the amount of pixel value change,
5. The image processing apparatus according to claim 4, wherein:
監視領域が順次撮影された撮影画像のうち、処理対象の対象画像について基準画像との変化領域を抽出する画像処理装置であって、
前記監視領域の明るさ及び前記撮影画像の輝度の少なくとも一方から前記監視領域の明るさに水準以上の変化があるか否かを判定する明るさ変化判定手段と、
前記対象画像を含む所定期間の前記撮影画像を記憶する記憶手段と、
前記対象画像の撮影時と、当該対象画像の直前の撮影画像又は前記基準画像の撮影時とにおいて、前記明るさ変化判定手段により前記水準以上の変化がないと判定された場合、当該対象画像よりも時間的に前に撮影された前記撮影画像である過去画像を用いて設定した前記基準画像と当該対象画像とから前記変化領域を抽出し、前記水準以上の変化があると判定された場合には、前記記憶されている前記撮影画像のうち当該対象画像よりも時間的に後に撮影された未来画像を用いて設定した前記基準画像と当該対象画像とから前記変化領域を抽出する抽出手段と、
を有することを特徴とする画像処理装置。
An image processing device for extracting a change area from a reference image for a target image to be processed from captured images in which a monitoring area is sequentially captured,
brightness change determination means for determining whether or not the brightness of the monitoring area changes by a level or more from at least one of the brightness of the monitoring area and the brightness of the captured image;
a storage means for storing the captured images for a predetermined period including the target image;
When it is determined by the brightness change determining means that there is no change equal to or greater than the level between when the target image is captured and when the captured image immediately before the target image or the reference image is captured, the target image is The changed area is extracted from the reference image set using the past image, which is the captured image captured earlier in time, and the target image. extracting means for extracting the changed region from the target image and the reference image set using a future image captured temporally later than the target image among the stored captured images;
An image processing device comprising:
JP2018153278A 2018-08-16 2018-08-16 Image processing device Active JP7129271B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018153278A JP7129271B2 (en) 2018-08-16 2018-08-16 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018153278A JP7129271B2 (en) 2018-08-16 2018-08-16 Image processing device

Publications (2)

Publication Number Publication Date
JP2020028085A JP2020028085A (en) 2020-02-20
JP7129271B2 true JP7129271B2 (en) 2022-09-01

Family

ID=69620463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018153278A Active JP7129271B2 (en) 2018-08-16 2018-08-16 Image processing device

Country Status (1)

Country Link
JP (1) JP7129271B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150409A (en) 2013-02-01 2014-08-21 Canon Inc Image processing device, imaging device, and image processing program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190533A (en) * 1996-01-11 1997-07-22 Mitsubishi Heavy Ind Ltd Vehicle detecting device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150409A (en) 2013-02-01 2014-08-21 Canon Inc Image processing device, imaging device, and image processing program

Also Published As

Publication number Publication date
JP2020028085A (en) 2020-02-20

Similar Documents

Publication Publication Date Title
KR102010228B1 (en) Image processing apparatus, image processing method, and program
JP6127152B2 (en) Security monitoring system and corresponding alarm triggering method
EP3024227B1 (en) Image processing apparatus and image processing method
US10277805B2 (en) Monitoring system and camera device
JP6036824B2 (en) Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program
EP3018891B1 (en) Tracking device, tracking method, and non-transitory recording medium having tracking program stored therein
CN101986691B (en) Image processing apparatus and image processing method
US20160165129A1 (en) Image Processing Method
JP5887508B2 (en) Exposure control apparatus, imaging apparatus, image display apparatus, and exposure control method
JP2011123742A (en) Intruding object detector
JP5042177B2 (en) Image sensor
JP5393086B2 (en) Image sensor
JP2005346425A (en) Automatic tracking system and automatic tracking method
KR20160048428A (en) Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera
JP7129271B2 (en) Image processing device
JP5030832B2 (en) Image sensor
JP7355553B2 (en) Image processing device and image processing program
JP3965003B2 (en) Image recognition device and monitoring device
JP7328778B2 (en) Image processing device and image processing program
JP6155106B2 (en) Image sensor
JP7290961B2 (en) Image processing device and image processing program
JP2013090063A (en) Monitoring device, monitoring method, and monitoring program
JP7221092B2 (en) Image processing device and image processing program
JP7101080B2 (en) Image processing equipment
KR20160043484A (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7129271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150