JP7328778B2 - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP7328778B2
JP7328778B2 JP2019065553A JP2019065553A JP7328778B2 JP 7328778 B2 JP7328778 B2 JP 7328778B2 JP 2019065553 A JP2019065553 A JP 2019065553A JP 2019065553 A JP2019065553 A JP 2019065553A JP 7328778 B2 JP7328778 B2 JP 7328778B2
Authority
JP
Japan
Prior art keywords
image
area
image processing
changed
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019065553A
Other languages
Japanese (ja)
Other versions
JP2020167500A (en
Inventor
全史 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019065553A priority Critical patent/JP7328778B2/en
Publication of JP2020167500A publication Critical patent/JP2020167500A/en
Application granted granted Critical
Publication of JP7328778B2 publication Critical patent/JP7328778B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影画像から検出対象を識別する画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program for identifying detection targets from captured images.

従来、所定の監視領域(所定領域という)の画像をカメラにて撮影し、撮影した画像と、検出対象を含まない基準画像とを比較して変化のある変化領域を求め、変化領域の大きさに基づいて侵入者等の検出対象の有無を判定する画像処理装置が知られている。この画像処理装置では、カメラ近傍に存在する虫を撮影した場合、画像上の大きさが人と同程度となり、虫を人だと誤って検出してしまう可能性がある。 Conventionally, an image of a predetermined monitoring area (referred to as a predetermined area) is photographed with a camera, and the photographed image is compared with a reference image that does not include a detection target to obtain a changed area, and the size of the changed area is obtained. There is known an image processing apparatus that determines the presence or absence of a detection target such as an intruder based on the following. In this image processing device, when an insect that exists in the vicinity of the camera is photographed, the size of the image becomes about the same as that of a person, and there is a possibility that the insect is erroneously detected as a person.

そのため、特許文献1では、カメラの直近のみを照らす近接照明を点灯した点灯画像と、近接照明を点灯しない消灯画像とを比較し、点灯画像と消灯画像に写された変化領域の明るさの差が大きい場合に虫と判定することで、虫と人とを識別する。すなわち、撮影装置の近くにいる虫であれば、近接照明によって照らされるので、点灯画像で明るく写り、消灯画像では暗く写るため、明るさの差が大きくなる。 Therefore, in Patent Document 1, a lit image with proximity lighting that illuminates only the immediate vicinity of the camera is compared with an unlit image that does not light up the proximity lighting, and the difference in brightness between the lit image and the unlit image. Insects and humans are discriminated by judging insects when is large. In other words, an insect near the photographing device is illuminated by the proximity illumination, and thus appears bright in the lit image and dark in the unlit image, resulting in a large difference in brightness.

特開2000-348266号公報JP-A-2000-348266

しかし、太陽光が当たっていたり屋内照明が点灯したりして、所定領域が明るい場合、点灯画像と、消灯画像での虫の明るさの差が小さくなる。このため、虫と人との識別の精度が低くなる場合がある。 However, when the predetermined area is bright due to sunlight or indoor lighting, the difference in brightness of the insect between the lit image and the unlit image becomes small. For this reason, the accuracy of discriminating between insects and humans may be low.

本発明では、所定領域が比較的明るい場合でも、検出対象(例えば、人)と、非検出対象(例えば、虫)の識別精度を向上できる画像処理装置を提供する。 The present invention provides an image processing apparatus capable of improving the accuracy of identifying a detection target (eg, a person) and a non-detection target (eg, an insect) even when a predetermined area is relatively bright.

本発明に係る画像処理装置は、所定領域を順次撮影した撮影画像を取得する撮影部と、前記画像のうち処理対象の撮影画像と当該撮影画像より過去に撮影した基準画像とを比較して当該撮影画像から移動物体を表す変化領域を抽出し、前記変化領域に基づき、前記撮影部から離れた位置に存在する検出対象と前記撮影部の近くに存在する非検出対象を判定する画像処理部と、を含み、前記画像処理部は、前記撮影画像の前記変化領域について輝度値が低い画素からなる暗領域及び前記暗領域よりも輝度値が高い画素からなる明領域を求め、前記撮影画像について前記暗領域の周囲近傍の画像領域に占める前記明領域の比率を特徴量として求める特徴量算出手段と、前記特徴量を用いて、前記変化領域について求めた前記比率が所定値以上である場合、当該変化領域を前記非検出対象と判定する判定手段と、を備えることを特徴とする。 An image processing apparatus according to the present invention includes a photographing unit that obtains photographed images obtained by sequentially photographing a predetermined region, and a photographed image to be processed among the images, which is compared with a reference image photographed in the past from the photographed image, and an image processing unit that extracts a changed area representing a moving object from a captured image, and determines a detection target that exists at a position away from the imaging unit and a non-detection target that exists near the imaging unit based on the changed area; wherein the image processing unit obtains a dark area made up of pixels with a low luminance value and a bright area made up of pixels with a higher luminance value than the dark area in the changed area of the captured image, a feature amount calculating means for obtaining, as a feature amount, a ratio of the bright area to an image area in the vicinity of the dark area; and determination means for determining the changed region as the non-detection target.

前記特徴量算出手段は、前記変化領域を抽出した前記撮影画像の輝度値に基づいて閾値を設定し、当該閾値から前記暗領域及び前記明領域を求めるとよい。 Preferably, the feature amount calculation means sets a threshold value based on the luminance value of the captured image from which the changed region is extracted, and obtains the dark region and the bright region from the threshold value.

前記特徴量算出手段は、前記暗領域の周囲近傍に位置する画像領域のうち前記暗領域に隣接する画素からなる画像領域を、前記暗領域の周囲近傍の画像領域とするとよい。 It is preferable that the feature amount calculation means regards an image area formed of pixels adjacent to the dark area among the image areas located in the vicinity of the dark area as the image area in the vicinity of the dark area.

また、本発明に係る画像処理装置は、所定領域を順次撮影した撮影画像を取得する撮影部と、前記撮影画像のうち処理対象の前記撮影画像と当該撮影画像より過去に撮影した基準画像とを比較して当該撮影画像から移動物体を表す変化領域を抽出し、抽出された変化領域に基づき、前記撮影部から離れた位置に存在する検出対象と前記撮影部の近くに存在する非検出対象を判定する画像処理部と、前記撮影部の近傍を照らす照明手段と、を含み、前記画像処理部は、前記撮影画像の前記変化領域について輝度値が低い画素からなる暗領域及び前記暗領域よりも輝度値が高い画素からなる明領域を求め、前記撮影画像について前記暗領域の周囲近傍の画像領域に占める前記明領域の比率を第1特徴量として求めるとともに、前記照明手段を点灯して撮影された点灯画像及び前記照明手段を点灯せず撮影した非点灯画像に基づいて抽出した前記変化領域の輝度値の差を第2特徴量として求める特徴量算出手段と、前記変化領域について求めた前記第1特徴量及び前記第2特徴量を用いて、当該変化領域が非検出対象かを判定する判定手段と、を備え、前記判定手段は、前記比率が高いほど、前記変化領域を前記非検出対象と判定しやすくし、又は、前記輝度値の差が大きいほど、前記変化領域を前記非検出対象と判定しやすくすることを特徴とする。 Further, the image processing apparatus according to the present invention includes a photographing unit that obtains photographed images obtained by sequentially photographing a predetermined region, the photographed image to be processed among the photographed images, and a reference image photographed before the photographed image. A changed area representing a moving object is extracted from the captured image by comparison, and based on the extracted changed area, a detection target existing at a position away from the imaging unit and a non-detection target existing near the imaging unit are determined. and an illumination means for illuminating the vicinity of the photographing unit, wherein the image processing unit processes a dark area made up of pixels having a low luminance value in the changing area of the photographed image, and a dark area more than the dark area. A bright area composed of pixels having a high luminance value is obtained, and a ratio of the bright area to an image area in the vicinity of the dark area is obtained as a first feature value of the photographed image, and the photograph is taken with the lighting means turned on. feature quantity calculating means for obtaining, as a second feature quantity, a difference in luminance value of the changing region extracted based on the lighted image and the non-lighting image photographed without lighting the lighting means; determination means for determining whether the changed area is a non-detection target using the first feature amount and the second feature amount, and the determination means determines that the changed area is the non-detection target as the ratio is higher. Alternatively, the greater the difference between the luminance values, the easier it is to determine the changed region as the non-detection target.

前記判定手段は、前記比率が高いほど前記非検出対象と判定するために必要な前記輝度値の差は小さい値とし、又は、前記輝度値の差が大きいほど前記非検出対象と判定するために必要な前記比率は低い値とするとよい。 The determining means determines that the higher the ratio, the smaller the difference in luminance value necessary for determining the non-detection target, or the greater the difference in luminance value, the greater the non-detection target determination. The required ratio should be low.

前記判定手段は、所定領域が明るいほど前記非検出対象と判定するために必要な前記比率は高い値とし、又は、所定領域が暗いほど前記非検出対象と判定するために必要な前記輝度値の差は大きい値とするとよい。 The determining means sets the ratio necessary for determining the non-detection target to a higher value as the predetermined area is brighter, or sets the luminance value necessary for determining the non-detection target as the predetermined area is darker. The difference should be a large value.

また、本発明に係る画像処理プログラムは、画像処理装置に、撮影部から離れた位置に存在する検出対象と前記撮影部の近くに存在する非検出対象を識別させる、画像処理プログラムであって、画像処理装置に、所定領域を順次撮影した撮影画像のうち処理対象の撮影画像と当該撮影画像より過去に撮影した基準画像とを比較して当該撮影画像から移動物体を表す変化領域を抽出させ、前記撮影画像の前記変化領域について輝度値が低い画素からなる暗領域及び前記暗領域よりも輝度値が高い画素からなる明領域を求め、前記撮影画像について前記暗領域の周囲近傍の画像領域に占める前記明領域の比率を特徴量として求めさせ、前記特徴量を用いて、前記変化領域について求めた前記比率が所定値以上である場合、当該変化領域を前記非検出対象と判定させることを特徴とする。 Further, an image processing program according to the present invention is an image processing program that causes an image processing device to distinguish between a detection target that exists at a position distant from an imaging unit and a non-detection target that exists near the imaging unit, causing an image processing device to compare a photographic image to be processed among photographic images obtained by sequentially photographing a predetermined region with a reference image that was previously photographed from the photographic image, and to extract a changed region representing a moving object from the photographic image ; A dark area composed of pixels having a low luminance value and a bright area composed of pixels having a luminance value higher than that of the dark area are obtained for the changed area of the photographed image, and occupying an image area in the vicinity of the dark area of the photographed image. A ratio of the bright area is obtained as a feature amount, and if the ratio obtained for the changed area using the feature amount is equal to or greater than a predetermined value, the changed area is determined as the non-detection target. do.

また、本発明に係る画像処理プログラムは、画像処理装置に、撮影部から離れた位置に存在する検出対象と前記撮影部の近くに存在する非検出対象を識別させる、画像処理プログラムであって、画像処理装置に、所定領域を順次撮影した撮影画像のうち処理対象の撮影画像と当該撮影画像より過去に撮影した基準画像とを比較して当該撮影画像から移動物体を表す変化領域を抽出させ、前記撮影画像の前記変化領域について輝度値が低い画素からなる暗領域及び前記暗領域よりも輝度値が高い画素からなる明領域を求め、前記撮影画像について前記暗領域の周囲近傍の画像領域に占める前記明領域の比率を第1特徴量として求めさせるとともに、前記撮影部の近くを照らす照明手段を点灯して撮影された点灯画像及び前記照明手段を点灯せず撮影した非点灯画像に基づいて抽出した前記変化領域の輝度値の差を第2特徴量として求めさせ、前記変化領域について求めた前記第1特徴量及び前記第2特徴量を用いて、前記比率が高いほど、前記変化領域を前記非検出対象と判定しやすくし、又は、前記輝度値の差が大きいほど、前記変化領域を前記非検出対象と判定しやすくして、当該変化領域が非検出対象かを判定させることを特徴とする。
Further, an image processing program according to the present invention is an image processing program that causes an image processing device to distinguish between a detection target that exists at a position distant from an imaging unit and a non-detection target that exists near the imaging unit, causing an image processing device to compare a photographic image to be processed among photographic images obtained by sequentially photographing a predetermined region with a reference image that was previously photographed from the photographic image, and to extract a changed region representing a moving object from the photographic image; A dark area composed of pixels having a low luminance value and a bright area composed of pixels having a luminance value higher than that of the dark area are obtained for the changed area of the photographed image, and occupying an image area in the vicinity of the dark area of the photographed image. Obtaining the ratio of the bright region as a first feature quantity, and extracting based on a lit image captured with lighting means for illuminating the vicinity of the imaging unit and a non-lighting image captured without lighting the lighting means A difference in luminance value of the changed region obtained as a second feature amount is obtained, and using the first feature value and the second feature value obtained for the changed region, the higher the ratio, the more the changed region is the It is characterized by making it easier to determine that the changed region is a non-detected target, or making it easier to determine that the changed region is a non-detected target as the difference between the luminance values increases, thereby determining whether the changed region is a non-detected target. do.

本発明によれば、変化領域に対応する画像領域内の暗領域の周囲に占める明領域の比率を用い、変化領域が虫のような非検出対象であるかを判定することで、非検出対象を精度よく識別することができる。 According to the present invention, the non-detection target is determined by determining whether the change region is a non-detection target such as an insect using the ratio of the bright region occupying the periphery of the dark region in the image region corresponding to the change region. can be accurately identified.

本実施形態に係る警備システムの構成概略図である。1 is a schematic configuration diagram of a security system according to this embodiment; FIG. 画像処理装置の構成概略図である。1 is a schematic configuration diagram of an image processing apparatus; FIG. 基準画像及び撮影画像の例を示す図であり、(a)は基準画像、(b)は撮影画像を示す。It is a figure which shows the example of a reference|standard image and a picked-up image, (a) shows a reference|standard image, (b) shows a picked-up image. 撮影画像の変化領域を示す2値化画像の例を示す図である。FIG. 10 is a diagram showing an example of a binarized image showing changed areas of a captured image; 比率算出方法を虫(非検出対象)に適用した場合を示す説明図である。FIG. 10 is an explanatory diagram showing a case where the ratio calculation method is applied to insects (non-detection targets); 比率算出方法を人(検出対象)に適用した場合を示す説明図である。FIG. 10 is an explanatory diagram showing a case where the ratio calculation method is applied to a person (detection target); 人(検出対象)と虫(非検出対象)を識別して検出する処理(異常検出処理)のフローチャートである。10 is a flowchart of processing (abnormality detection processing) for identifying and detecting humans (detection targets) and insects (non-detection targets). 2つの特徴量から虫か否かを判定するフローチャートである。10 is a flowchart for determining whether or not an object is an insect based on two feature amounts;

以下、本発明の実施形態について、図面に基づいて説明する。なお、本発明は、ここに記載される実施形態に限定されるものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described based on the drawings. It should be noted that the invention is not limited to the embodiments described herein.

「システム構成」
図1は、本実施形態に係る警備システム10の構成概略図である。警備システム10は、店舗、オフィス、マンション、倉庫、家屋などの各監視対象物件12に設置される警備装置14、公衆電話回線などの通信網16を介して各警備装置14と接続される警備センタ装置18、及び利用者装置20とを含んで構成される。さらに、警備システム10は、監視対象物件12の監視領域(所定領域ともいう)を撮影した撮影画像に基づいて監視対象物件12内の監視領域から検出対象(本実施形態では人:侵入者)を検出するための1以上の画像処理装置22、及び画像処理装置22により撮影された撮影画像を記録する録画装置24を含んで構成される。画像処理装置22及び録画装置24は警備装置14と通信可能に接続される。
"System configuration"
FIG. 1 is a schematic diagram of the configuration of a security system 10 according to this embodiment. The security system 10 includes a security device 14 installed in each property 12 to be monitored such as a store, an office, an apartment building, a warehouse, a house, etc., and a security center connected to each security device 14 via a communication network 16 such as a public telephone line. It comprises a device 18 and a user device 20 . Furthermore, the security system 10 detects a detection target (in this embodiment, a person: an intruder) from the monitored area within the monitored object 12 based on the photographed image of the monitored area (also referred to as a predetermined area) of the monitored object 12. It includes one or more image processing devices 22 for detection and a recording device 24 for recording captured images captured by the image processing devices 22 . The image processing device 22 and the recording device 24 are communicably connected to the security device 14 .

警備装置14は、構内LANなどを介してそれ自体に接続された画像処理装置22からアラーム信号を受信すると、そのアラーム信号及び警備装置14自体の識別信号、又は監視対象物件12あるいは異常を検出した画像処理装置22の識別信号を警備センタ装置18へ送信する。そのために、警備装置14は、画像処理装置22と通信するための通信インタフェースと、警備センタ装置18及び利用者装置20と通信するための通信インタフェースと、それらを制御するための制御ユニットを有する。 When the security device 14 receives an alarm signal from the image processing device 22 connected to itself via a local LAN or the like, the alarm signal and the identification signal of the security device 14 itself, or the property 12 to be monitored or an abnormality is detected. The identification signal of the image processing device 22 is transmitted to the security center device 18 . Therefore, the security device 14 has a communication interface for communicating with the image processing device 22, a communication interface for communicating with the security center device 18 and the user device 20, and a control unit for controlling them.

警備センタ装置18は、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インタフェースと、液晶ディスプレイなどの表示装置と、ブザーやLEDなどで構成される報知部を備える。警備センタ装置18は、警備装置14から通信網16を介してアラーム信号を受信すると、そのアラーム信号を送信した警備装置14が設置された監視対象物件12及び検出された異常の内容を報知部及び表示装置を通じて監視員に報知する。 The security center device 18 is composed of a so-called computer, and has a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a notification unit composed of a buzzer, an LED, and the like. . When the security center device 18 receives an alarm signal from the security device 14 via the communication network 16, the security center device 18 notifies the property 12 to be monitored where the security device 14 that sent the alarm signal and the content of the detected abnormality are sent to the reporting unit and Notify the observer through the display device.

利用者装置20も、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インタフェース、液晶ディスプレイなどの表示装置、及び、キーボートやマウスなど、警備装置14を遠隔操作するための操作コマンドを入力するためのユーザインターフェースを備える。利用者装置20は、ユーザインターフェースを介して予め登録されている監視対象物件12を観察する操作がなされると、登録されている監視対象物件12に設置された警備装置14に対して、現在撮影中の撮影画像又は録画装置24に記録されている撮影画像を利用者装置20に送信することを要求する各種の画像要求信号を送信する。そして、警備装置14から撮影画像を受信すると、利用者装置20は表示部に要求された撮影画像を表示する。 The user device 20 is also composed of a so-called computer, and includes a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a keyboard, mouse, etc. for remotely operating the security device 14. A user interface for inputting operation commands for When the user device 20 is operated to observe the object 12 to be monitored which has been registered in advance via the user interface, the user device 20 is currently photographing the security device 14 installed at the object 12 to be monitored which has been registered. Various image request signals are transmitted to request the user device 20 to transmit the captured image inside or the captured image recorded in the recording device 24 . Then, when the photographed image is received from the security device 14, the user device 20 displays the requested photographed image on the display unit.

録画装置24は、HDDなどの磁気ディスク装置、DATなどの磁気テープ、DVD-RAMなどの光記録媒体のように、録画装置24に着脱自在となる記録媒体と、それら記録媒体にアクセスしてデータの読み書きを行う装置で構成される。録画装置24は、画像処理装置22が撮影した撮影画像を警備装置14から受け取り、撮影時刻と関連付けて記録する。 The recording device 24 includes recording media such as a magnetic disk device such as an HDD, a magnetic tape such as a DAT, and an optical recording medium such as a DVD-RAM. It consists of a device that reads and writes The recording device 24 receives the photographed image photographed by the image processing device 22 from the security device 14 and records it in association with the photographing time.

「画像処理装置の構成」
図2は、画像処理装置22の構成概略図である。画像処理装置22はコンピュータを含み、画像処理プログラムを実行することで、撮影画像から人(検出対象)、虫(非検出対象)を識別する。
"Configuration of image processing device"
FIG. 2 is a schematic diagram of the configuration of the image processing device 22. As shown in FIG. The image processing device 22 includes a computer and executes an image processing program to identify a person (detection target) or an insect (non-detection target) from the captured image.

通信部30は、画像処理装置22と警備装置14との間で構内LANなどの通信ネットワークを介して各種の設定信号及び制御信号などを送受信する入出力インタフェースであり、イーサネット(登録商標)などの各種の通信インタフェース回路及びそれらを駆動するドライバソフトウェアなどで構成される。具体的には、通信部30は、後述の画像処理部44によって監視領域に侵入してきた人が検出された場合に、侵入者である人を検出したことを示す侵入アラーム信号を警備装置14に出力する。 The communication unit 30 is an input/output interface for transmitting and receiving various setting signals and control signals between the image processing device 22 and the security device 14 via a communication network such as a local LAN. It consists of various communication interface circuits and driver software for driving them. Specifically, when the image processing unit 44 (to be described later) detects a person who has intruded into the monitored area, the communication unit 30 sends an intrusion alarm signal to the security device 14 to indicate that the intruder has been detected. Output.

撮影部32は、監視対象物件12における監視領域を撮影して撮影画像を順次取得する。撮影部32は、CCD、CMOSなどの、可視光及び近赤外光に感度を有する光電変換器で構成された2次元検出器と、2次元検出器上に監視領域の像を結像する結像光学系などで構成される。 The photographing unit 32 photographs a monitoring area in the property 12 to be monitored and sequentially obtains photographed images. The imaging unit 32 includes a two-dimensional detector composed of a photoelectric converter having sensitivity to visible light and near-infrared light, such as a CCD or CMOS, and an image of a monitoring area formed on the two-dimensional detector. It consists of an image optical system.

また、撮影部32は、同一の画角で監視領域を撮影することが可能となっており、一定の時間間隔(例えば1/5秒)ごとに撮影を行って撮影画像を取得する。そして、取得された撮影画像は記憶部38に記憶される。 Further, the photographing unit 32 is capable of photographing the monitoring area at the same angle of view, and acquires photographed images by photographing at regular time intervals (for example, 1/5 second). Then, the acquired photographed image is stored in the storage unit 38 .

ここで、画像処理装置22は、照明部36を有しており、この照明部36は例えば近赤外線LEDなどを含んで構成される。そして、この照明部36は、近接照明手段であって、撮影部32の前方の近傍エリアに限定して明るくする。すなわち、撮影部32によって得られる虫など小さな飛来物の画像が監視領域に侵入してきた人などと同等の大きさとなるようなエリアに限定して照明を行う。 Here, the image processing device 22 has an illumination section 36, and the illumination section 36 includes, for example, a near-infrared LED. The illumination unit 36 is a proximity illumination means, and brightens only the vicinity area in front of the photographing unit 32 . That is, the illumination is limited to an area in which the image of a small flying object such as an insect obtained by the photographing unit 32 has the same size as a person who has entered the monitoring area.

そして、撮影部32は、照明部36を点灯して、撮影部32の直近のみを照らして撮影した点灯画像と、照明部36を消灯して撮影した消灯画像を撮影する。点灯画像と消灯画像は、同時期に撮影を行う。例えば、点灯画像と消灯画像を交互に撮影するとよい。また、一定の時間間隔(例えば1/5秒)で交互に点灯画像と消灯画像を撮影してもよいが、この間隔が離れすぎていなければ(例えば1/2秒以内程度)、交互に撮影する必要はなく、点灯画像と消灯画像の間に別の画像を撮影してもよい。 Then, the photographing unit 32 turns on the lighting unit 36 to photograph a lit image photographed by illuminating only the immediate vicinity of the photographing unit 32 and a light-off image photographed by turning off the lighting unit 36 . The turned-on image and the turned-off image are taken at the same time. For example, it is preferable to alternately capture a lit image and an unlit image. Alternatively, the lit image and the unlit image may be shot alternately at regular time intervals (for example, 1/5 second). Another image may be captured between the lit image and the unlit image.

照度センサ34は、監視領域の照度(監視領域の明るさ)を検出し、検出した照度を示す照度信号を後述の画像処理部44へ出力する。照度センサ34は、例えばフォトダイオードなどを含んで構成されるが、各種の公知の照度センサを使用することができる。 The illuminance sensor 34 detects the illuminance of the monitored area (brightness of the monitored area) and outputs an illuminance signal indicating the detected illuminance to the image processing unit 44 described later. The illuminance sensor 34 includes, for example, a photodiode, and various known illuminance sensors can be used.

記憶部38は、不揮発性半導体メモリ、磁気ディスク、光ディスクなどの記録媒体で構成される。記憶部38には、画像処理装置22の各部を動作させるための画像処理プログラムが記憶される。また、図2に示される通り、記憶部38には、撮影部32が取得した撮影画像40と基準画像42が記憶される。撮影画像40は、点灯画像40aと消灯画像40bを含み、基準画像42は点灯基準画像42aと消灯基準画像42bを含む。 The storage unit 38 is composed of a recording medium such as a nonvolatile semiconductor memory, a magnetic disk, or an optical disk. The storage unit 38 stores an image processing program for operating each unit of the image processing device 22 . Further, as shown in FIG. 2 , the storage unit 38 stores a captured image 40 and a reference image 42 acquired by the imaging unit 32 . The captured image 40 includes a lighting image 40a and a lighting image 40b, and the reference image 42 includes a lighting reference image 42a and a lighting reference image 42b.

撮影画像40は、撮影部32が監視領域を順次撮影することで取得される画像であり、照明部36が点灯しているときの撮影画像40が点灯画像40a、消灯しているときの撮影画像40が消灯画像40bである。記憶部38には、数十フレーム(画像)分の撮影画像40が記憶され、新たなフレームが撮影された場合には、記憶部38に記憶された複数の撮影画像40のうち最も取得時刻が古いフレームを削除した上で最新のフレームが記憶される。すなわち、記憶部38には、所定期間分の撮影画像40(点灯画像40a、消灯画像40b)が蓄積記憶される。 The photographed image 40 is an image acquired by the photographing unit 32 sequentially photographing the monitoring area. 40 is an extinguished image 40b. The storage unit 38 stores captured images 40 for several tens of frames (images). The latest frame is stored after deleting the old frame. That is, the storage unit 38 accumulates and stores captured images 40 (lighted image 40a and unlit image 40b) for a predetermined period.

基準画像42は、監視領域内に人物などの検出対象や、虫などの非検出対象が存在していないときの基準となる背景画像である。画像処理装置22の初期設置時に撮影した撮影画像40でもよいし、過去画像に基づいて生成してもよい。例えば、画像処理部44が、時系列的に隣接する2つの撮影画像のフレーム間差分を求め、フレーム間での差分が所定以下であり、且つ、フレーム間差分した撮影画像と基準画像との差分も所定以下である場合に、差分を求めた撮影画像を基準画像42として記憶部38に記憶させる。なお、基準画像42は、照明状態の変動、太陽の日周変動などによる監視領域の明るさの変動に対応するため、一定周期(例えば、10分間隔)毎に更新されるとよい。また、記憶している基準画像42は、記憶部38に記憶されている過去画像よりも過去に撮影された撮影画像でもよい。また、基準画像42は、複数の撮影画像40から作成してもよい。 The reference image 42 is a background image that serves as a reference when there is no detection target such as a person or non-detection target such as an insect within the monitoring area. The captured image 40 captured when the image processing device 22 was initially installed may be used, or it may be generated based on a past image. For example, the image processing unit 44 obtains an inter-frame difference between two captured images adjacent in time series, the difference between the frames is equal to or less than a predetermined value, and the difference between the inter-frame differenced captured image and the reference image. is equal to or less than a predetermined value, the photographed image obtained by obtaining the difference is stored in the storage unit 38 as the reference image 42 . Note that the reference image 42 is preferably updated at regular intervals (for example, every 10 minutes) in order to cope with variations in the brightness of the monitoring area due to variations in lighting conditions, diurnal variations in the sun, and the like. Also, the stored reference image 42 may be a captured image that was captured earlier than the past image stored in the storage unit 38 . Also, the reference image 42 may be created from a plurality of captured images 40 .

ここで、基準画像42は、点灯画像40aの基準画像である点灯基準画像42aと、消灯画像40bの基準画像である消灯基準画像42bの2つを含む。 Here, the reference image 42 includes two of a lighting reference image 42a that is a reference image of the lighting image 40a and a lighting reference image 42b that is a reference image of the lighting image 40b.

画像処理部44は、コンピュータのデータ処理実行部であって、組み込み型のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、画像処理プログラムを実行する。また、図2に示されるように、画像処理部44は、抽出手段46、特徴量算出手段48、判定手段50を含む。 The image processing unit 44 is a data processing execution unit of a computer, has a built-in microprocessor unit, memories such as ROM and RAM, and peripheral circuits thereof, and executes image processing programs. Further, as shown in FIG. 2, the image processing section 44 includes an extraction means 46, a feature amount calculation means 48, and a determination means 50. FIG.

「抽出手段」
抽出手段46は、消灯画像40bと消灯基準画像42bを比較して両者において異なる領域を変化領域として抽出する。例えば、画素ごとの輝度の差を取り、差が所定量以上である1以上の画素を変化領域として抽出する。また、点灯画像40aと点灯基準画像42aとを比較して変化領域を抽出してもよいし、消灯画像40bと消灯基準画像42bとで異なる領域及び点灯画像40aと点灯基準画像42aとで異なる領域を変化領域、又は、両者で異なる領域のうち重なる領域を変化領域として抽出してもよい。
"extraction means"
The extracting means 46 compares the unlit image 40b and the unlit reference image 42b and extracts a different region between them as a changed region. For example, the luminance difference of each pixel is obtained, and one or more pixels with a difference of a predetermined amount or more are extracted as the changed area. Alternatively, the changed area may be extracted by comparing the lit image 40a and the lit reference image 42a, or the areas that differ between the lit image 40b and the lit reference image 42b and the areas that differ between the lit image 40a and the lit reference image 42a. may be extracted as a changed region, or an overlapping region among different regions between the two may be extracted as a changed region.

なお、抽出手段46は、撮影画像40と背景画像である基準画像42とを比較して撮影画像40から変化領域を抽出しているがフレーム間差分、すなわち、撮影画像40の直前に取得された過去画像を基準画像42とし、当該基準画像42と撮影画像40とを比較して変化領域を抽出するようにしてもよい。なお、撮影画像40の比較は、点灯画像40a同士又は消灯画像40b同士の比較である。 Note that the extracting means 46 compares the captured image 40 with the reference image 42, which is a background image, and extracts a change area from the captured image 40. A past image may be used as the reference image 42, and the reference image 42 and the photographed image 40 may be compared to extract the changed area. Note that the comparison of the captured images 40 is a comparison between the lit images 40a or the unlit images 40b.

図3(a)は、消灯基準画像42bの一例であり、図3(b)は消灯画像40bの一例である。この例では、左下に人2、右上に虫3が写っている状態を模式的に示してある。 FIG. 3(a) is an example of an extinguished reference image 42b, and FIG. 3(b) is an example of an extinguished image 40b. In this example, a person 2 is shown in the lower left, and an insect 3 is shown in the upper right.

「特徴量算出手段」
特徴量算出手段48は、抽出手段46において抽出した変化領域について、解析を行い、抽出した変化領域が虫(非検出対象)であるか、人(検出対象)であるかを判定するための虫らしさを判定するための特徴量を算出する。
"Feature value calculation means"
The feature amount calculating means 48 analyzes the changed regions extracted by the extracting means 46, and determines whether the extracted changed regions are insects (non-detection targets) or humans (detection targets). A feature amount for determining likelihood is calculated.

ここで、特徴量算出手段48は、2種類の特徴量を算出する。すなわち、
(1)点灯画像40aと消灯画像40bそれぞれの変化領域における明るさの差、
(2)変化領域内の暗領域(輝度値が低い領域)の周囲に存在する明領域(輝度値が高い明領域)の比率、
を特徴量として求める。
Here, the feature amount calculation means 48 calculates two types of feature amounts. i.e.
(1) difference in brightness in each change area between the lit image 40a and the unlit image 40b;
(2) the ratio of bright regions (bright regions with high brightness values) existing around dark regions (regions with low brightness values) in the change region;
is obtained as a feature quantity.

<変化領域の明るさの差>
変化領域についての明るさの差(輝度の差)を求める場合、変化領域内の撮影画像40及び基準画像42について次の処理を行う。
<Brightness difference in change area>
When obtaining the difference in brightness (difference in luminance) for the changed area, the following processing is performed on the captured image 40 and the reference image 42 in the changed area.

まず、撮影画像40の消灯画像40bと点灯画像40aを比較して(輝度の差分を求め)、消点灯差分画像を作成する。また、基準画像42の消灯基準画像42bと点灯基準画像42aとを比較して(輝度の差分を求め)消点灯差分基準画像を作成する。 First, the light-off image 40b and the light-on image 40a of the photographed image 40 are compared (the difference in luminance is obtained) to create an off-light difference image. Also, the non-lighting reference image 42b and the lighting reference image 42a of the reference image 42 are compared (obtaining the difference in luminance) to create a non-lighting difference reference image.

作成した消点灯差分画像と消点灯差分基準画像とを比較して(差分を求め)、抽出手段46において抽出した変化領域の画像領域に対応する消点灯差分画像及び消点灯差分基準画像の差分画像の画像領域の輝度値から、変化領域の明るさの差(輝度の差)を求める。この明るさの差は、変化領域の画素の平均輝度値の差でもよいし、画素数で除算しない変化領域の合計輝度値の差でもよい。また、その他公知の手法を用いて、変化領域についての明るさの差を求めてよい。 The created non-lighting difference image and the non-lighting difference reference image are compared (the difference is obtained), and the non-lighting difference image corresponding to the image area of the change region extracted by the extraction means 46 and the difference image of the non-lighting difference reference image. The brightness difference (luminance difference) of the changed area is obtained from the brightness value of the image area of . This difference in brightness may be the difference in the average luminance value of the pixels in the changed area, or the difference in the total luminance value of the changed area that is not divided by the number of pixels. Alternatively, other known methods may be used to obtain the difference in brightness for the changed region.

このようにして求められた変化領域の点灯時、消灯時の明るさの差が特徴量の1つとして算出される。すなわち、照明部36は、撮影部32の近傍を照らすものであり、撮影部32の近傍に飛来する虫(非検出対象)を明るく照らすが、撮影部32から遠い人(検出対象)には影響は少ない。従って、変化領域の明るさの差が大きいことで、虫と判定できる。 The difference between the brightness of the change area obtained in this way between when the light is on and when the light is off is calculated as one of the feature amounts. That is, the lighting unit 36 illuminates the vicinity of the photographing unit 32, and brightly illuminates insects (non-detection targets) flying near the photographing unit 32, but does not affect people (detection targets) far from the photographing unit 32. is less. Therefore, if the difference in brightness of the changed area is large, it can be determined as an insect.

<比率>
撮影環境が明るい場合、上述した点灯画像40aと消灯画像40bの明るさの差が小さくなる。さらに、撮影部32から離れた位置に存在する人(検出対象)と、カメラ近傍に飛来する虫(非検出対象)は、画像上の大きさが類似する。従って、撮影環境が明るい場合の人と虫の識別精度を向上したいという要求がある。
<ratio>
When the shooting environment is bright, the difference in brightness between the lit image 40a and the unlit image 40b is small. Furthermore, a person (detection target) at a position away from the photographing unit 32 and an insect (non-detection target) flying near the camera are similar in size on the image. Therefore, there is a demand for improving the accuracy of identifying humans and insects when the shooting environment is bright.

このような判定に、変化領域についての暗領域の周囲近傍に位置する画像領域に占める明領域の比率を用いるのが好適である。すなわち、暗領域を膨張させた膨張領域の画素数と、当該膨張領域内の明領域の画素数との比率を算出し、人と虫を識別する。この比率は、下記の比率算出方法により求める。 For such a determination, it is preferable to use the ratio of the bright area to the image area positioned near the periphery of the dark area for the changed area. That is, the ratio between the number of pixels in the expanded area obtained by expanding the dark area and the number of pixels in the bright area within the expanded area is calculated, and humans and insects are identified. This ratio is obtained by the following ratio calculation method.

まず、抽出手段が抽出した変化領域の画像領域に対応する消灯画像40bの画像領域である比率算出領域内の平均輝度値を算出する。撮影環境が明るいので、照明部36の点灯の影響が小さく、撮影画像40の点灯画像40a、消灯画像40bのいずれでも構わないが、虫に一部照明が当たった場合の悪影響などを考慮して消灯画像40bを用いるとよい。そして、この平均輝度値に対し所定のオフセット値だけ加算して、これを閾値とする。このオフセット値は固定でもよいし、平均値の10%などの値としてもよい。また、オフセット値を0として、平均輝度値をそのまま閾値としてもよい。 First, the average brightness value within the ratio calculation area, which is the image area of the unlit image 40b corresponding to the image area of the change area extracted by the extracting means, is calculated. Since the photographing environment is bright, the influence of lighting of the lighting unit 36 is small, and either the lighted image 40a or the lighted image 40b of the photographed image 40 may be used. It is preferable to use the unlit image 40b. Then, a predetermined offset value is added to this average luminance value, and this value is used as a threshold value. This offset value may be fixed or may be a value such as 10% of the average value. Alternatively, the offset value may be set to 0, and the average brightness value may be used as the threshold as it is.

このようにして、閾値が求められた場合、消灯画像40bの比率算出領域についての画素ごとの輝度を閾値と比較し、閾値以上である明領域と、閾値未満である暗領域とを求め、2値化画像を作成する。 When the threshold is obtained in this way, the luminance of each pixel in the ratio calculation area of the unlit image 40b is compared with the threshold, and the bright area that is equal to or greater than the threshold and the dark area that is less than the threshold are obtained. Create a valued image.

図4には、撮影画像40の変化領域を示す2値化画像の例を示してあり、比率算出領域5について、人2については比率算出領域5の全部が暗領域となり、虫3については周辺部が明領域になっている。なお、図4の2値化画像は、図3(a),(b)の撮影画像40及び基準画像42の変化領域に対応した撮影画像40の画像領域(比率算出領域)を2値化した画像である。 FIG. 4 shows an example of a binarized image showing the change area of the photographed image 40. Regarding the ratio calculation area 5, the ratio calculation area 5 for the person 2 is entirely a dark area, and the insect 3 is a peripheral area. part is a bright region. The binarized image of FIG. 4 is obtained by binarizing the image area (ratio calculation area) of the captured image 40 corresponding to the changed area of the captured image 40 and the reference image 42 of FIGS. It is an image.

虫であれば、撮影部32近傍にいるため回折光の影響が画像上に強く現れる。これは、逆光の中にいる物体を撮影した場合に似た現象である。したがって、虫の映像の場合、暗領域の輪郭は明領域と隣接することが多くなる。このため、暗領域の周囲(膨張領域)には、明領域の画素の比率が多くなる。一方人は、撮影部32から遠くにいるため回折光の影響が画像上に現れることが弱くなる。これは、人と同じ大きさで写る虫と、人とを比較すると、1画素に占める実サイズは、遠くに写る人のほうが十分に大きくなるからである。従って、暗領域の輪郭は明領域と隣接することが少なく、比率算出領域(変化領域)の輪郭と一致することが多くなる。このため、暗領域の周囲(膨張領域)は非変化領域である背景画像の画素の比率が多くなる。すなわち、変化領域内の明領域の画素が少なくなる。以上より、図3(b)に示すように虫は回折光の影響が強く現れるため、虫3の周辺部分に比較的明るい領域が形成されるが、遠くに写る人は回折光の影響が弱いため、人2の周辺部分は明るく写らない。 In the case of an insect, since it is in the vicinity of the photographing unit 32, the influence of the diffracted light appears strongly on the image. This is a phenomenon similar to the case of photographing an object in backlight. Therefore, in the case of images of insects, the contours of dark regions are often adjacent to bright regions. For this reason, the ratio of pixels in the bright area increases around the dark area (expansion area). On the other hand, since the person is far from the photographing unit 32, the effect of diffracted light on the image is less likely to appear. This is because when comparing an insect, which is the same size as a person, and a person, the actual size of the person in one pixel is sufficiently larger when the person is farther away. Therefore, the outline of the dark area is less likely to be adjacent to the bright area, and more often coincides with the outline of the ratio calculation area (change area). Therefore, the ratio of pixels of the background image, which is a non-change area, increases around the dark area (expansion area). That is, the number of pixels in the bright area within the change area is reduced. From the above, as shown in FIG. 3(b), the insect is strongly affected by the diffracted light, so a relatively bright area is formed around the insect 3, but the person in the distance is less affected by the diffracted light. Therefore, the peripheral portion of the person 2 is not captured brightly.

次に、暗領域の輪郭に隣接する画素からなる画像領域を求める。例えば、求められた2値化画像における暗領域の輪郭を周辺に向けて膨張させる。暗領域の各周辺画素について、4近傍(上下左右)に1回膨張してもよいし、8近傍(上下左右斜め)で1回膨張してもよい。さらに、1回ではなく複数回膨張してもよい。膨張させた暗領域から暗領域を除いた膨張領域(膨張させた領域のみ)を求める。 Next, an image area consisting of pixels adjacent to the outline of the dark area is determined. For example, the outline of the dark region in the obtained binarized image is expanded toward the periphery. Each peripheral pixel in the dark region may be expanded once in four neighborhoods (up, down, left, and right), or may be expanded once in eight neighborhoods (up, down, left, right, and obliquely). Further, it may be inflated multiple times rather than once. An expanded region (only the expanded region) is obtained by removing the dark region from the expanded dark region.

このようにして、膨張領域が求められた場合には、膨張領域の中で明領域である画素により形成される対象領域を抽出する。すなわち、明領域でもあり、膨張領域でもある対象領域(明領域と膨張領域のand領域)を抽出する。 When the expansion area is obtained in this way, a target area formed by pixels that are bright areas in the expansion area is extracted. That is, a target area (and area between a bright area and an expanded area) that is both a bright area and an expanded area is extracted.

得られた対象領域の画素数と、膨張領域の画素数を比較して比率を算出する。例えば、(対象領域の画素数)÷(膨張領域の画素数)×100から比率を求める。 A ratio is calculated by comparing the number of pixels in the obtained target area and the number of pixels in the expansion area. For example, the ratio is obtained from (the number of pixels in the target area)/(the number of pixels in the expansion area)×100.

図5には、上述した比率算出方法を図4の虫3について適用した場合を示してある。まず、比率算出領域5の内部が明領域6と暗領域7と、に分けられる。次に、暗領域7を取り出し周辺に膨張させる。暗領域7を取り除くことで膨張領域8が得られる。膨張領域8と明領域6を重ね、両者が重複する対象領域9を得る。この場合、対象領域9は、膨張領域8に一致している。 FIG. 5 shows a case where the ratio calculation method described above is applied to the insect 3 in FIG. First, the inside of the ratio calculation area 5 is divided into a bright area 6 and a dark area 7 . Next, the dark area 7 is taken out and expanded to the periphery. By removing the dark area 7 an expanded area 8 is obtained. The dilated area 8 and the bright area 6 are overlapped to obtain a target area 9 where both overlap. In this case, the region of interest 9 coincides with the expansion region 8 .

図6には、上述した比率算出方法を図4の人2について適用した場合を示してある。まず、比率算出領域5の内部が明領域6と、暗領域7に分けられる。次に、暗領域7を取り出し周辺に膨張させる。暗領域7を取り除くことで膨張領域8が得られる。膨張領域8と明領域6を重ねるが、この例では比率算出領域5がすべて暗領域7であるため、膨張領域8は変化のない背景領域と重複することになり、両者が重複する対象領域9はない。 FIG. 6 shows a case where the ratio calculation method described above is applied to the person 2 in FIG. First, the inside of the ratio calculation area 5 is divided into a bright area 6 and a dark area 7 . Next, the dark area 7 is taken out and expanded to the periphery. By removing the dark area 7 an expanded area 8 is obtained. The expanded region 8 overlaps the bright region 6. In this example, the ratio calculation region 5 is all the dark region 7, so the expanded region 8 overlaps the unchanged background region. no.

このように、人2と虫3では、比率算出領域5を2値化した場合の明領域6と、暗領域7の分布が異なっている。そこで、撮影環境が明るい場合においても、比率によって、人2と虫3を識別することができる。なお、人2であっても周辺に白い部分があり、ここが膨張領域8に含まれる場合もある。しかし、この場合でも、虫3に比べれば、膨張領域8に含まれる明領域6は多くなく、比率により人2、虫3の識別が行える。なお、撮影画像40上で黒く写る人(例えば、黒い服を着用した人)に対して、上述した識別方法は特に有効である。 Thus, the person 2 and the insect 3 have different distributions of the bright area 6 and the dark area 7 when the ratio calculation area 5 is binarized. Therefore, even when the shooting environment is bright, the person 2 and the insect 3 can be distinguished from each other by the ratio. It should be noted that even the person 2 has a white portion around it, which may be included in the expansion region 8 . However, even in this case, compared to the insect 3, the bright area 6 included in the expansion area 8 is not so large, and the person 2 and the insect 3 can be distinguished from each other by the ratio. Note that the identification method described above is particularly effective for a person who appears black on the captured image 40 (for example, a person wearing black clothes).

<閾値について>
ここで、比率算出領域を2値化する閾値は、比率算出領域内の平均輝度値以外でもよい。例えば、予め設定されている露光制御で用いる目標輝度値を閾値として設定してもよい。この目標輝度値は、例えば画像全体の明るさ(平均輝度値)を、目標輝度値となるように露光制御を行うために使用する。撮影環境が明るければ、虫は撮影環境からの光を遮るので目標輝度値よりも暗く写る。したがって、比率算出領域内の平均輝度値ではなく目標輝度値を閾値として採用できる。また、画像全体の平均輝度値を閾値としてもよい。また、閾値は複数あってもよい。例えば、比率算出領域内の平均輝度値を第1閾値とし当該平均輝度値にオフセット値を加算した値を第2閾値として設定して、比率算出領域内で第1閾値未満である画素からなる画像領域を暗領域とし、比率算出領域内で第2閾値以上である画素からなる画像領域を明領域と判定してもよい。
<About the threshold>
Here, the threshold for binarizing the ratio calculation area may be other than the average luminance value in the ratio calculation area. For example, a preset target luminance value used in exposure control may be set as a threshold. This target brightness value is used, for example, to perform exposure control so that the brightness (average brightness value) of the entire image becomes the target brightness value. If the shooting environment is bright, the insect will block the light from the shooting environment, and will appear darker than the target luminance value. Therefore, the target luminance value can be used as the threshold instead of the average luminance value within the ratio calculation area. Alternatively, the average brightness value of the entire image may be used as the threshold. Also, there may be a plurality of thresholds. For example, the average brightness value in the ratio calculation area is set as the first threshold, and the value obtained by adding the offset value to the average brightness value is set as the second threshold. The area may be determined to be a dark area, and an image area composed of pixels having a second threshold value or more within the ratio calculation area may be determined to be a bright area.

さらに、目標輝度値についても、所望のオフセット値を加算(減算)してもよい。このオフセット値は固定でもよいし、撮影した画像の露光量に応じて変えてもよい。例えば、露光量が小さければ、環境が明るいため虫が暗く写りやすく、回折光の影響が強く現れやすいので、オフセット値を大きくする。 Furthermore, a desired offset value may be added (subtracted) to the target luminance value. This offset value may be fixed or may be changed according to the exposure of the captured image. For example, if the exposure amount is small, the insects tend to appear dark because the environment is bright, and the effect of diffracted light tends to be strong, so the offset value is increased.

「判定手段」
判定手段50は、抽出手段46にて抽出された変化領域のサイズ(幅・高さ)を求め、求めたサイズが予め記憶した人らしさを表すサイズ相当であるか否かを判定する。そして、変化領域のサイズが人サイズ相当であった場合、特徴量算出手段48において算出された特徴量を用いて、その変化領域が虫(非検出対象)であるか否かの判定をする。なお、判定手段50は、変化領域が人(検出対象)であるか否かの判定も行う。
"Judgment means"
The determining means 50 obtains the size (width and height) of the changed area extracted by the extracting means 46, and determines whether or not the obtained size is equivalent to the pre-stored size representing humanness. Then, if the size of the changed region is equivalent to the size of a person, the feature quantity calculated by the feature quantity calculating means 48 is used to determine whether or not the changed region is an insect (non-detection target). Note that the determination means 50 also determines whether or not the change area is a person (detection target).

<明るさの差による判定>
判定手段50は、特徴量算出手段48によって算出された特徴量に基づいて、抽出手段46にて抽出した変化領域が虫か否かを判定する。
<Judgment by Brightness Difference>
The determining means 50 determines whether or not the changed area extracted by the extracting means 46 is an insect based on the feature amount calculated by the feature amount calculating means 48 .

まず、特徴量算出手段48において算出された明るさ差が予め設定した閾値(設定輝度値)以上である場合、虫であると判定し、求めた明るさの差が予め設定した閾値未満である場合、虫ではないと判定する。上述したように、変化領域が撮影部32の近傍にいる虫であれば、照明部36による照明の影響を大きく受け、明るさの差が大きくなるからである。 First, when the brightness difference calculated by the feature amount calculation means 48 is equal to or greater than a preset threshold value (set brightness value), it is determined to be an insect, and the obtained brightness difference is less than the preset threshold value. If so, it is determined not to be an insect. This is because, as described above, if the changing area is an insect in the vicinity of the photographing unit 32, it is greatly affected by the illumination by the illumination unit 36, resulting in a large difference in brightness.

<比率による判定>
求めた比率が、予め設定した比率以上である場合、虫であると判定し、求めた比率が予め設定した比率未満である場合、虫ではないと判定する。
<Judgment by ratio>
If the calculated ratio is equal to or greater than the preset ratio, it is determined to be an insect, and if the calculated ratio is less than the preset ratio, it is determined not to be an insect.

変化領域の大きさは、人や虫の位置によって異なる。例えば、変化領域が大きくなれば、膨張領域の画素数も大きくなる。そこで、膨張領域内の明領域の画素数でなく、明領域の比率とすることで、精度の高い判定が行える。 The size of the change area varies depending on the position of the person or insect. For example, the larger the change area, the larger the number of pixels in the expansion area. Therefore, by using the ratio of the bright areas instead of the number of pixels in the bright areas in the expansion area, highly accurate determination can be performed.

<検出処理の手順>
図7は、人(検出対象)と虫(非検出対象)を識別して検出する処理(異常検出処理)のフローチャートを示す。この処理は、画像処理部44の抽出手段46、特徴量算出手段48、判定手段50により行われる。
<Procedure of detection processing>
FIG. 7 shows a flowchart of processing (abnormality detection processing) for identifying and detecting humans (detection targets) and insects (non-detection targets). This processing is performed by the extracting means 46 , feature quantity calculating means 48 and determining means 50 of the image processing section 44 .

まず、抽出手段46は、撮影画像40の消灯画像40bと、消灯基準画像42bを比較し、画素データ(例えば輝度)について有意の差がある領域を変化領域として抽出する(S10)。そして、消灯画像40bに変化領域が存在するか否かを判定する(S11)。 First, the extracting means 46 compares the unlit image 40b of the captured image 40 with the unlit reference image 42b, and extracts a region having a significant difference in pixel data (for example, brightness) as a changed region (S10). Then, it is determined whether or not there is a change area in the unlit image 40b (S11).

S11の判定で、NOの場合には、検出対象も、非検出対象もないので処理を終了する。一方、S11の判定で、YESの場合には、判定手段50は、抽出された変化領域が人物サイズか否かを判定する(S12)。 If the determination in S11 is NO, there is neither a detection target nor a non-detection target, so the process ends. On the other hand, if the determination in S11 is YES, the determining means 50 determines whether or not the extracted change area is human size (S12).

S12の判定で、変化領域が人物サイズ相当ではない場合は、変化領域は人でないと判定し(S13)、正常判定をして(S14)、処理を終了する。 If it is determined in S12 that the changed area does not correspond to the size of a person, it is determined that the changed area is not a person (S13), it is determined to be normal (S14), and the process ends.

S12の判定で、YESの場合には、特徴量算出手段48は、抽出された変化領域が人であるか虫であるかを判定するための特徴量を求める(S15)。この特徴量は、上述したように、(i)抽出された変化領域において、点灯画像と消灯画像40bとの明るさの差、(ii)抽出された変化領域を暗領域と明領域に分け、暗領域の周囲に明領域が存在する比率、の2つである。 If the determination in S12 is YES, the feature amount calculation means 48 obtains a feature amount for determining whether the extracted changed region is a person or an insect (S15). As described above, this feature amount includes (i) the difference in brightness between the lit image and the unlit image 40b in the extracted changing region, (ii) dividing the extracted changing region into a dark region and a bright region, and the ratio of bright areas around dark areas.

そして、判定手段50は、特徴量の1つである明るさの差が予め設定した所定値以上かを判定する(S16)。S16の判定でYESの場合は虫(非検出対象)と判定し(S17)、正常判定して(S18)、処理を終了する。 Then, the determining means 50 determines whether the difference in brightness, which is one of the feature amounts, is equal to or greater than a predetermined value (S16). If the determination in S16 is YES, it is determined to be an insect (non-detection object) (S17), it is determined to be normal (S18), and the process ends.

S16の判定で、NOの場合には、もう1つの特徴量である、比率が所定値以上かを判定する(S19)。そして、S19の判定でYESであれば、S17に移り変化領域を虫と判定して、S18で正常判定して、処理を終了する。 If the determination in S16 is NO, it is determined whether the ratio, which is another characteristic quantity, is equal to or greater than a predetermined value (S19). Then, if the determination in S19 is YES, the process proceeds to S17, determines that the changed area is an insect, determines normal in S18, and terminates the process.

S19の判定でNOであり、比率が所定値未満の場合には、人か否かを判定する(S20)。ここで、S12においてサイズによる人か否かの判定を行っているので、ここではサイズ以外の判定を行う。例えば、時系列の複数の撮影画像40間において、変化領域の追跡処理を行った上で、各撮影画像40における変化領域の位置と各撮影画像40の取得時刻から変化領域の移動速度を算出し、変化領域の移動速度と、予め記憶された人らしい速度との比較をさらに行って、当該変化領域が人領域であるか否かを判定する。また、変化領域のエッジ数から人か否かを判定してもよい。エッジ数は、例えば変化領域内において輝度値の変化が所定以上である画素のエッジ数を求め、求めたエッジ数が所定数以上の場合に、変化領域を人(検出対象)と判定する。なお、公知の様々な方法を適用して人か否かを判定してよい。 If the determination in S19 is NO and the ratio is less than the predetermined value, it is determined whether or not it is a person (S20). Here, since it is determined whether or not the object is a person based on size in S12, determination other than size is performed here. For example, between a plurality of time-series captured images 40, after performing tracking processing of the changed regions, the moving speed of the changed regions is calculated from the position of the changed region in each captured image 40 and the acquisition time of each captured image 40. , the moving speed of the changed area is further compared with a pre-stored human-like speed, and it is determined whether or not the changed area is a human area. Also, whether or not the object is a person may be determined from the number of edges in the change area. For the number of edges, for example, the number of edges of pixels in which the change in luminance value is a predetermined number or more in the changed area is obtained. In addition, you may determine whether it is a person by applying various well-known methods.

S20の判定で、NOの場合には、正常と判定して(S21)、処理を終了する。一方、S20の判定で、YESの場合には、人を検出したのであり、異常と判定する(S22)。この場合には、例えば、通信部30から侵入アラーム信号が警備装置14へ送信される。また、監視領域に設けられているアラームを鳴らすことも好適である。 If the determination in S20 is NO, it is determined to be normal (S21), and the process ends. On the other hand, if the determination in S20 is YES, it means that a person has been detected and is determined to be abnormal (S22). In this case, for example, an intrusion alarm signal is transmitted from the communication unit 30 to the security device 14 . It is also preferable to sound an alarm provided in the monitored area.

なお、S16の判定は行わずS19の判定のみを行ってもよいし、S19の判定を行わずS16の判定のみを行ってもよい。 Only the determination of S19 may be performed without performing the determination of S16, or only the determination of S16 may be performed without performing the determination of S19.

このように、本実施形態によれば、虫(非検出対象)を効果的に除外して、人を検出することが可能となる。 Thus, according to this embodiment, it is possible to effectively exclude insects (non-detection targets) and detect humans.

「変形例」
<特徴量の組み合わせ>
上述のフローチャートでは、明るさの差と比率とを独立に判定していたが、二つの特徴量を用いて虫か否かを判定してもよい。また明るさの差と、比率を多段階で判定してもよい。
"Variation"
<Combination of feature values>
In the above-described flowchart, the brightness difference and ratio are determined independently, but two feature amounts may be used to determine whether or not the object is an insect. Also, the difference in brightness and the ratio may be determined in multiple stages.

明るさの差が小さい場合は明るさの差が大きい場合に比べ、比率を優先して虫の判定を行い、比率が低い場合は比率が高い場合に比べ、明るさの差を優先して虫の判定を行う。例えば、明るさの差の閾値と、比率の閾値を、第3閾値>第2閾値>第1閾値と、それぞれ3段階設定し、明るさの差及び比率の判定結果によって虫か否かを判定する。なお、具体的な閾値の値は、明るさの差と比率とで異なる。図8は、2つの特徴量から非検出対象(虫)か否かを判定するフローチャートである。 When the difference in brightness is small, insects are detected with priority given to the ratio compared to when the difference in brightness is large. judgment is made. For example, the brightness difference threshold and the ratio threshold are set in three steps, respectively, in the order of the third threshold > second threshold > first threshold, and whether or not the insect is an insect is determined based on the determination result of the brightness difference and ratio. do. Note that a specific threshold value differs depending on the brightness difference and the ratio. FIG. 8 is a flowchart for determining whether or not an object is a non-detection target (insect) from two feature amounts.

まず、明るさの差が第3閾値以上であるかを判定する(S31)。S31の判定でYESの場合、比率が第1閾値以上であるかを判定し(S32)、YESであれば虫と判定する。 First, it is determined whether the difference in brightness is equal to or greater than the third threshold (S31). If the determination in S31 is YES, it is determined whether the ratio is equal to or greater than the first threshold (S32), and if YES, it is determined as an insect.

S31の判定でNOの場合、明るさの差が第2閾値以上であるかを判定する(S33)。S33の判定でYESの場合、比率が第2閾値以上であるかを判定し(S34)、YESであれば虫と判定する。 If the determination in S31 is NO, it is determined whether the difference in brightness is equal to or greater than the second threshold (S33). If the determination in S33 is YES, it is determined whether the ratio is equal to or greater than the second threshold (S34), and if YES, it is determined as an insect.

S33の判定でNOの場合、明るさの差が第1閾値以上であるかを判定する(S35)。S35の判定でYESの場合、比率が第3閾値以上であるかを判定し(S36)、YESであれば虫と判定する。 If the determination in S33 is NO, it is determined whether the difference in brightness is greater than or equal to the first threshold (S35). If the determination in S35 is YES, it is determined whether the ratio is equal to or greater than the third threshold (S36), and if YES, it is determined as an insect.

S35又はS36の判定で、NOの場合には、虫ではないと判定されているため、人かどうかの判定に移行する。 If the determination in S35 or S36 is NO, it is determined that the object is not an insect, so the process proceeds to determine whether the object is a person.

なお、明るさの差が第3閾値以上の場合や、比率が第3閾値以上の場合には、その判定だけで虫と判定するなどしてもよい。 If the difference in brightness is greater than or equal to the third threshold value, or if the ratio is greater than or equal to the third threshold value, it may be determined that the object is an insect based solely on that determination.

また、二つの特徴量を統合して求めた統合値が予め設定した統合設定値以上である場合に、虫と判定してもよい。例えば、明るさの差から求めた虫らしさの値と、比率から求めた虫らしさの値とを合計して統合値を求める。 Also, if the integrated value obtained by integrating the two feature amounts is greater than or equal to a preset integrated setting value, it may be determined as an insect. For example, an integrated value is obtained by summing the insect-likeness value obtained from the brightness difference and the insect-likeness value obtained from the ratio.

<明るさの考慮>
撮影環境が明るい場合は、明るさの差が小さくなってしまう。このため、撮影環境の明るさが明るい場合は、明るさの差よりも比率の判定基準を重視して虫か否かを判定し、撮影環境の明るさが暗い場合には、比率よりも明るさの差の判定基準を重視して虫か否かを判定してもよい。例えば、図7のフローにおいて、撮影環境の明るさが所定値を上回った場合には、S16の判定を行わず、S19の判定を行い、明るさが所定値以下の場合には、S19の判定を行わず、S16の判定を行い、S17又はS20の判定に移行するようにしてもよい。また、図8のフローでは、撮影環境の明るさが所定値を上回った場合は、比率が第3閾値以上であり、さらに明るさの差が第1閾値以上である場合は虫であると判定し、撮影環境の明るさが所定値以下の場合には、明るさの差が第3閾値以上であり、さらに比率が第1閾値以上である場合は虫であると判定してもよい。また、撮影環境の明るさに加えて、明るさの差や比率の大きさも考慮して虫か否かを判定してもよい。例えば、撮影環境の明るさが明るい場合は、明るさの差が小さいほど比率の判定基準を重視し、撮影環境の明るさが暗い場合には、比率が低いほど明るさの差の判定基準を重視して虫か否かを判定する。なお、撮影環境が暗い状態とは、屋内照明が点灯していたり、太陽光は当たったりしているが、屋内照明や太陽光の光量が弱いため撮影環境がそこまで明るくなっていない状態のことを指す。
<Consideration of brightness>
If the shooting environment is bright, the difference in brightness becomes small. For this reason, when the brightness of the shooting environment is bright, the determination criterion of the ratio is emphasized rather than the difference in brightness to determine whether it is an insect or not. Whether or not an object is an insect may be determined by emphasizing the criterion of the difference in size. For example, in the flow of FIG. 7, if the brightness of the shooting environment exceeds a predetermined value, the determination in S16 is not performed, and the determination in S19 is performed. may be skipped, the determination of S16 may be performed, and the determination of S17 or S20 may be performed. In the flow of FIG. 8, when the brightness of the shooting environment exceeds a predetermined value, the ratio is equal to or greater than the third threshold, and when the difference in brightness is equal to or greater than the first threshold, it is determined to be an insect. However, if the brightness of the imaging environment is less than a predetermined value, the difference in brightness is greater than or equal to the third threshold, and if the ratio is greater than or equal to the first threshold, it may be determined to be an insect. In addition to the brightness of the imaging environment, the difference in brightness and the size of the ratio of brightness may also be considered to determine whether or not the object is an insect. For example, when the brightness of the shooting environment is bright, the smaller the difference in brightness, the more important the judgment criterion for the ratio is. Whether it is an insect or not is determined with emphasis. A dark shooting environment means that the indoor lighting is on or the sunlight is shining, but the shooting environment is not so bright because the indoor lighting or sunlight is weak. point to

明るさの差及び比率の特徴量を算出する際、上述した撮影環境の明るさを判定する所定値よりも低く設定した設定値を用いて、撮影環境の明るさを判定し、撮影環境の明るさが設定値未満(太陽光が当たっていなかったり、屋内照明が消灯していることで真っ暗な状態)の場合は、明るさの差のみを算出し、撮影環境が設定値以上(太陽光が当たっていたり、屋内照明が点灯している状態)の場合には、明るさの差及び比率を算出してもよい。すなわち、撮影環境が明るい場合は、明るさの差と比率とから変化領域が虫であるか否かを判定し、撮影環境が暗い場合は、明るさの差から変化領域が虫であるか否かを判定してもよい。 When calculating the feature amount of the brightness difference and ratio, the brightness of the shooting environment is determined using a setting value set lower than the predetermined value for determining the brightness of the shooting environment described above, and the brightness of the shooting environment is determined. If the brightness is less than the set value (no sunlight is shining or the indoor lighting is turned off), only the difference in brightness is calculated and the shooting environment is greater than the set value (sunlight is turned off). or the indoor lighting is turned on), the brightness difference and ratio may be calculated. That is, if the shooting environment is bright, it is determined whether the changed area is an insect based on the brightness difference and the ratio. It may be determined whether

このような本実施の形態では、撮影環境が明るい環境であっても、人と虫を精度良く区別して判定することができる。 In this embodiment, even if the imaging environment is bright, humans and insects can be accurately distinguished and determined.

<撮影環境の明るさの判定>
ここで、撮影環境の明るさは、照度センサ34の出力によって判定することができるが、照度センサ34を設けず、撮影画像40から判定してもよい。ここで、撮影部32には、撮影環境の明るさに応じて露光量を制御する露光制御機能が備えられている。すなわち、撮影環境が暗い場合には露光量を高くして撮影し、撮影環境が明るい場合には、露光量を低くして撮影する。このため、撮影画像40についての露光量が閾値以上である場合、暗いと判定し、閾値未満の場合に明るいと判定するとよい。なお、閾値は1つではなく、明るいという判定と、暗いという判定の閾値を異ならせてもよい。この場合、中間の領域においては、上述したように、明るさの差と比率の2つの判定を組み合わせ、明るい場合に比率の判定のみ、暗い場合に明るさの差の判定のみを行うこともできる。
<Determination of brightness of shooting environment>
Here, the brightness of the shooting environment can be determined from the output of the illuminance sensor 34, but may be determined from the captured image 40 without providing the illuminance sensor 34. FIG. Here, the photographing unit 32 has an exposure control function for controlling the amount of exposure according to the brightness of the photographing environment. That is, when the shooting environment is dark, the exposure is increased, and when the shooting environment is bright, the exposure is decreased. Therefore, it is preferable to determine that the captured image 40 is dark when the exposure amount is equal to or greater than the threshold, and to be bright when the exposure amount is less than the threshold. It should be noted that the threshold value is not limited to one, and the threshold values for the bright determination and the dark determination may be different. In this case, in the intermediate region, as described above, it is possible to combine the two determinations of the difference in brightness and the ratio, so that only the determination of the ratio is performed when the region is bright, and only the determination of the difference in brightness is performed when the region is dark. .

<エッジ強度の考慮>
比率の特徴量に加えて、膨張領域内のエッジ強度を特徴量として求めてもよい。膨張領域内において輝度値の変化が所定以上である強エッジ画素を抽出し、強エッジ画素の数が所定のエッジ数値未満の場合、虫らしさを上げる。例えば、エッジ数が少ない場合に明るさの差や比率の閾値を小さくして虫と判定しやすくする。また、強エッジ画素の数が所定エッジ数値以上の場合は、反対に閾値を大きくして虫と判定しにくくする。なお、閾値は変更せず、判定結果を変更してもよい。
<Consideration of Edge Strength>
In addition to the feature amount of the ratio, the edge strength in the expanded region may be obtained as the feature amount. Strong edge pixels whose change in luminance value is greater than or equal to a predetermined value are extracted in the expanded region, and if the number of strong edge pixels is less than a predetermined edge numerical value, the likelihood of an insect is increased. For example, when the number of edges is small, the threshold value for the difference in brightness or the ratio is made small to facilitate determination as an insect. On the other hand, when the number of strong edge pixels is equal to or greater than the predetermined edge value, the threshold value is increased to make it difficult to determine insects. Note that the determination result may be changed without changing the threshold.

虫は、回折光と虫本体の輝度値が混じるため、滑らかな輝度変化をする。したがって、膨張領域内のエッジ強度を判定することで、より精度良く虫と判定することができる Insects have a smooth luminance change because the diffracted light and the luminance value of the insect itself are mixed. Therefore, by judging the edge strength in the expanded region, it is possible to judge the insects more accurately.

なお、膨張領域のみだけでなく、変化領域全体のエッジ強度を判定してもよい。虫であれば、一様に暗く写り、膨張領域も上記のように滑らかな輝度変化をする。そのため、虫本体の画素毎の輝度差が小さくなるため、強エッジの割合が人と比較すると小さくなる。 It should be noted that the edge intensity may be determined not only for the expansion area but also for the entire change area. If it is an insect, it will appear uniformly dark, and the expanded area will also have a smooth luminance change as described above. As a result, the difference in luminance between pixels of the insect body becomes smaller, and the proportion of strong edges becomes smaller than that of a human.

なお、画像処理装置22は、自装置内の記憶部38に記憶された画像を画像処理するものに限定されない。例えば、他の外部装置から読み出した画像を画像処理したり、外部のカメラから受信した画像を画像処理したりする構成としてもよい。また、カメラを複数設けて、点灯画像と消灯画像とをそれぞれのカメラで撮影するようにしてもよい。その場合、点灯画像と消灯画像とを同時に撮影してもよい。 Note that the image processing device 22 is not limited to processing images stored in the storage unit 38 within the device itself. For example, the configuration may be such that an image read from another external device is subjected to image processing, or an image received from an external camera is subjected to image processing. Alternatively, a plurality of cameras may be provided, and the turned-on image and the turned-off image may be captured by each camera. In that case, the lit image and the unlit image may be captured at the same time.

2 人、3 虫、5 変化領域、6 明領域、7 暗領域、8 膨張領域、9 対象領域、10 警備システム、12 各監視対象物件、12 監視対象物件、14 警備装置、16 通信網、18 警備センタ装置、20 利用者装置、22 画像処理、24 録画装置、30 通信部、32 撮影部、34 照度センサ、36 照明部、38 記憶部、40 撮影画像、40a 点灯画像、40b 消灯画像、42 基準画像、42a 点灯基準画像、42b 消灯基準画像、44 画像処理部、46 抽出手段、48 特徴量算出手段、50 判定手段。 2 people, 3 insects, 5 changing area, 6 bright area, 7 dark area, 8 expansion area, 9 target area, 10 security system, 12 objects to be monitored, 12 objects to be monitored, 14 security device, 16 communication network, 18 Security center device, 20 user device, 22 image processing, 24 recording device, 30 communication unit, 32 photographing unit, 34 illuminance sensor, 36 lighting unit, 38 storage unit, 40 photographed image, 40a lighting image, 40b lighting image, 42 Reference image 42a lighting reference image 42b lighting reference image 44 image processing section 46 extraction means 48 feature quantity calculation means 50 determination means.

Claims (8)

所定領域を順次撮影した撮影画像を取得する撮影部と、
前記画像のうち処理対象の撮影画像と当該撮影画像より過去に撮影した基準画像とを比較して当該撮影画像から移動物体を表す変化領域を抽出し、前記変化領域に基づき、前記撮影部から離れた位置に存在する検出対象と前記撮影部の近くに存在する非検出対象を判定する画像処理部と、
を含み、
前記画像処理部は、
前記撮影画像の前記変化領域について輝度値が低い画素からなる暗領域及び前記暗領域よりも輝度値が高い画素からなる明領域を求め、前記撮影画像について前記暗領域の周囲近傍の画像領域に占める前記明領域の比率を特徴量として求める特徴量算出手段と、
前記特徴量を用いて、前記変化領域について求めた前記比率が所定値以上である場合、当該変化領域を前記非検出対象と判定する判定手段と、
を備えることを特徴とする画像処理装置。
a photographing unit that obtains a photographed image obtained by sequentially photographing a predetermined area;
A photographed image to be processed among the images is compared with a reference image photographed in the past from the photographed image, a changed area representing a moving object is extracted from the photographed image, and the moving object is separated from the photographing unit based on the changed area. an image processing unit that determines a detection target that exists at a position close to the imaging unit and a non-detection target that exists near the imaging unit;
including
The image processing unit
A dark area composed of pixels having a low luminance value and a bright area composed of pixels having a luminance value higher than that of the dark area are obtained for the changed area of the photographed image, and occupying an image area in the vicinity of the dark area of the photographed image. a feature amount calculating means for obtaining the ratio of the bright area as a feature amount;
determination means for determining the changed region as the non-detection target when the ratio obtained for the changed region using the feature amount is equal to or greater than a predetermined value;
An image processing device comprising:
請求項1に記載の画像処理装置であって、
前記特徴量算出手段は、前記変化領域を抽出した前記撮影画像の輝度値に基づいて閾値を設定し、当該閾値から前記暗領域及び前記明領域を求めることを特徴とする画像処理装置。
The image processing device according to claim 1,
The image processing apparatus, wherein the feature quantity calculating means sets a threshold value based on the brightness value of the photographed image from which the changed region is extracted, and obtains the dark region and the bright region from the threshold value.
請求項1又は2に記載の画像処理装置であって、
前記特徴量算出手段は、前記暗領域の周囲近傍に位置する画像領域のうち前記暗領域に隣接する画素からなる画像領域を、前記暗領域の周囲近傍の画像領域とすることを特徴とする画像処理装置。
The image processing device according to claim 1 or 2,
The image characterized in that the feature quantity calculating means defines an image area formed of pixels adjacent to the dark area among the image areas positioned in the vicinity of the dark area as the image area in the vicinity of the dark area. processing equipment.
所定領域を順次撮影した撮影画像を取得する撮影部と、
前記撮影画像のうち処理対象の前記撮影画像と当該撮影画像より過去に撮影した基準画像とを比較して当該撮影画像から移動物体を表す変化領域を抽出し、抽出された変化領域に基づき、前記撮影部から離れた位置に存在する検出対象と前記撮影部の近くに存在する非検出対象を判定する画像処理部と、
前記撮影部の近傍を照らす照明手段と、
を含み、
前記画像処理部は、
前記撮影画像の前記変化領域について輝度値が低い画素からなる暗領域及び前記暗領域よりも輝度値が高い画素からなる明領域を求め、前記撮影画像について前記暗領域の周囲近傍の画像領域に占める前記明領域の比率を第1特徴量として求めるとともに、前記照明手段を点灯して撮影された点灯画像及び前記照明手段を点灯せず撮影した非点灯画像に基づいて抽出した前記変化領域の輝度値の差を第2特徴量として求める特徴量算出手段と、
前記変化領域について求めた前記第1特徴量及び前記第2特徴量を用いて、当該変化領域が非検出対象かを判定する判定手段と、
を備え、
前記判定手段は、前記比率が高いほど、前記変化領域を前記非検出対象と判定しやすくし、又は、前記輝度値の差が大きいほど、前記変化領域を前記非検出対象と判定しやすくすることを特徴とする画像処理装置。
a photographing unit that obtains a photographed image obtained by sequentially photographing a predetermined area;
comparing the photographed image to be processed among the photographed images with a reference image photographed in the past from the photographed image , extracting a changed region representing a moving object from the photographed image ; an image processing unit that determines a detection target that exists at a position away from an imaging unit and a non-detection target that exists near the imaging unit;
lighting means for illuminating the vicinity of the photographing unit;
including
The image processing unit
A dark area composed of pixels having a low luminance value and a bright area composed of pixels having a luminance value higher than that of the dark area are obtained for the changed area of the photographed image, and occupying an image area in the vicinity of the dark area of the photographed image. The ratio of the bright area is obtained as a first feature amount, and the luminance value of the changed area is extracted based on the lit image captured with the lighting means turned on and the non-lighted image captured without lighting the lighting means. A feature amount calculation means for obtaining the difference as a second feature amount;
determination means for determining whether the changed region is a non-detection target using the first feature amount and the second feature value obtained for the changed region;
with
The determining means makes it easier to determine the changed region as the non-detection target as the ratio is higher, or to make it easier to determine the changed region as the non-detection target as the difference in luminance value is larger. An image processing device characterized by:
請求項4に記載の画像処理装置であって、
前記判定手段は、
前記比率が高いほど前記非検出対象と判定するために必要な前記輝度値の差は小さい値とし、又は、前記輝度値の差が大きいほど前記非検出対象と判定するために必要な前記比率は低い値とすることを特徴とする画像処理装置。
The image processing device according to claim 4,
The determination means is
The higher the ratio, the smaller the difference in luminance value required to determine the non-detection target; An image processing device characterized in that a low value is set.
請求項4又は5に記載の画像処理装置であって、
前記判定手段は、所定領域が明るいほど前記非検出対象と判定するために必要な前記比率は高い値とし、又は、所定領域が暗いほど前記非検出対象と判定するために必要な前記輝度値の差は大きい値とすることを特徴とする画像処理装置。
The image processing device according to claim 4 or 5,
The determining means sets the ratio necessary for determining the non-detection target to a higher value as the predetermined area is brighter, or sets the luminance value necessary for determining the non-detection target as the predetermined area is darker. An image processing apparatus characterized in that the difference is set to a large value.
画像処理装置に、撮影部から離れた位置に存在する検出対象と前記撮影部の近くに存在する非検出対象を識別させる、画像処理プログラムであって、
画像処理装置に、
所定領域を順次撮影した撮影画像のうち処理対象の撮影画像と当該撮影画像より過去に撮影した基準画像とを比較して当該撮影画像から移動物体を表す変化領域を抽出させ、
前記撮影画像の前記変化領域について輝度値が低い画素からなる暗領域及び前記暗領域よりも輝度値が高い画素からなる明領域を求め、前記撮影画像について前記暗領域の周囲近傍の画像領域に占める前記明領域の比率を特徴量として求めさせ、
前記特徴量を用いて、前記変化領域について求めた前記比率が所定値以上である場合、当該変化領域を前記非検出対象と判定させる、
画像処理プログラム。
An image processing program that causes an image processing device to distinguish between a detection target that exists at a position distant from an imaging unit and a non-detection target that exists near the imaging unit,
image processing equipment,
comparing a photographic image to be processed among photographic images obtained by sequentially photographing a predetermined area with a reference image obtained before the photographic image, and extracting a changed area representing a moving object from the photographic image ;
A dark area composed of pixels having a low luminance value and a bright area composed of pixels having a luminance value higher than that of the dark area are obtained for the changed area of the photographed image, and occupying an image area in the vicinity of the dark area of the photographed image. Obtaining the ratio of the bright area as a feature amount,
If the ratio obtained for the changed region using the feature amount is equal to or greater than a predetermined value, determining the changed region as the non-detection target;
Image processing program.
画像処理装置に、撮影部から離れた位置に存在する検出対象と前記撮影部の近くに存在する非検出対象を識別させる、画像処理プログラムであって、
画像処理装置に、
所定領域を順次撮影した撮影画像のうち処理対象の撮影画像と当該撮影画像より過去に撮影した基準画像とを比較して当該撮影画像から移動物体を表す変化領域を抽出させ、
前記撮影画像の前記変化領域について輝度値が低い画素からなる暗領域及び前記暗領域よりも輝度値が高い画素からなる明領域を求め、前記撮影画像について前記暗領域の周囲近傍の画像領域に占める前記明領域の比率を第1特徴量として求めさせるとともに、前記撮影部の近くを照らす照明手段を点灯して撮影された点灯画像及び前記照明手段を点灯せず撮影した非点灯画像に基づいて抽出した前記変化領域の輝度値の差を第2特徴量として求めさせ、
前記変化領域について求めた前記第1特徴量及び前記第2特徴量を用いて、前記比率が高いほど、前記変化領域を前記非検出対象と判定しやすくし、又は、前記輝度値の差が大きいほど、前記変化領域を前記非検出対象と判定しやすくして、当該変化領域が非検出対象かを判定させる、
画像処理プログラム。
An image processing program that causes an image processing device to distinguish between a detection target that exists at a position distant from an imaging unit and a non-detection target that exists near the imaging unit,
image processing equipment,
comparing a photographic image to be processed among photographic images obtained by sequentially photographing a predetermined area with a reference image obtained before the photographic image, and extracting a changed area representing a moving object from the photographic image;
A dark area composed of pixels having a low luminance value and a bright area composed of pixels having a luminance value higher than that of the dark area are obtained for the changed area of the photographed image, and occupying an image area in the vicinity of the dark area of the photographed image. Obtaining the ratio of the bright region as a first feature quantity, and extracting based on a lit image captured with lighting means for illuminating the vicinity of the imaging unit and a non-lighting image captured without lighting the lighting means obtaining a difference in brightness value of the changed region as a second feature quantity;
Using the first feature amount and the second feature amount obtained for the changing area, the higher the ratio, the easier it is to determine the changing area as the non-detection target, or the difference in luminance value is large. the more easily it is determined that the changed region is the non-detected target, and it is determined whether the changed region is the non-detected target.
Image processing program.
JP2019065553A 2019-03-29 2019-03-29 Image processing device and image processing program Active JP7328778B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019065553A JP7328778B2 (en) 2019-03-29 2019-03-29 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019065553A JP7328778B2 (en) 2019-03-29 2019-03-29 Image processing device and image processing program

Publications (2)

Publication Number Publication Date
JP2020167500A JP2020167500A (en) 2020-10-08
JP7328778B2 true JP7328778B2 (en) 2023-08-17

Family

ID=72714170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019065553A Active JP7328778B2 (en) 2019-03-29 2019-03-29 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP7328778B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116703900B (en) * 2023-08-03 2023-10-20 山东明佳科技有限公司 Image detection method, system, equipment and storage medium for bottle mouth crack of milk glass bottle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350191A (en) 1999-06-02 2000-12-15 Secom Co Ltd Image sensor
JP2015001836A (en) 2013-06-14 2015-01-05 セコム株式会社 Image sensor
WO2018021076A1 (en) 2016-07-27 2018-02-01 京セラ株式会社 Detection device, image pickup device, movable body, and detection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350191A (en) 1999-06-02 2000-12-15 Secom Co Ltd Image sensor
JP2015001836A (en) 2013-06-14 2015-01-05 セコム株式会社 Image sensor
WO2018021076A1 (en) 2016-07-27 2018-02-01 京セラ株式会社 Detection device, image pickup device, movable body, and detection method

Also Published As

Publication number Publication date
JP2020167500A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
US10854062B2 (en) Fire monitoring system
JP5518359B2 (en) Smoke detector
KR101822924B1 (en) Image based system, method, and program for detecting fire
JP5106356B2 (en) Image monitoring device
JP6322128B2 (en) Smoke detection device and smoke detection method
JP5042177B2 (en) Image sensor
JP2018088630A (en) Fire monitoring system
JP6372854B2 (en) Smoke detection device and smoke detection method
JP5393086B2 (en) Image sensor
JP7328778B2 (en) Image processing device and image processing program
JP2016110263A (en) Smoke detection device and smoke detection method
JPH0973541A (en) Object detection device/method
JP5286113B2 (en) Smoke detector
JP2012084009A (en) Image sensor
JP6155106B2 (en) Image sensor
JP7290961B2 (en) Image processing device and image processing program
JP2007060468A (en) Image sensor
JP3736989B2 (en) Image monitoring device
JP2009010594A (en) Image sensor
JP6133700B2 (en) Image sensor
JP2007249743A (en) Identification method for moving object, identification device for moving object and program making identification processing for moving object to be performed
JP7233994B2 (en) Image processing device and image processing program
JP4544955B2 (en) Image monitoring device
JP6322127B2 (en) Smoke detection device and smoke detection method
JP7129271B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230804

R150 Certificate of patent or registration of utility model

Ref document number: 7328778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150