JP7252815B2 - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP7252815B2
JP7252815B2 JP2019067975A JP2019067975A JP7252815B2 JP 7252815 B2 JP7252815 B2 JP 7252815B2 JP 2019067975 A JP2019067975 A JP 2019067975A JP 2019067975 A JP2019067975 A JP 2019067975A JP 7252815 B2 JP7252815 B2 JP 7252815B2
Authority
JP
Japan
Prior art keywords
image
light source
captured
area
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019067975A
Other languages
Japanese (ja)
Other versions
JP2020167585A (en
Inventor
拓也 光信
純 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019067975A priority Critical patent/JP7252815B2/en
Publication of JP2020167585A publication Critical patent/JP2020167585A/en
Application granted granted Critical
Publication of JP7252815B2 publication Critical patent/JP7252815B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、撮影装置に対する視野妨害を検出する画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing device and an image processing program for detecting visual field obstruction to an imaging device.

従来、所定の監視領域(所定領域という)に侵入する侵入者をカメラなどで監視するとき、侵入者が懐中電灯などのライトをカメラに照射してカメラの視野を妨害することで監視領域を撮影できないようにする視野妨害を検出するための技術が開示されている。例えば、監視領域を撮像する撮像手段によって撮像された画像の所定領域毎に輝度値を算出し、当該算出された輝度値が所定の輝度値以上である領域数を計算し、当該領域数が基準値以上となると撮像手段の視野が妨害されたと判断する技術が開示されている(特許文献1)。また、撮像部によって撮影された画像から抽出されたエッジの数と撮像部から出力される画像信号レベルを所定レベルに調整するためのゲイン値とを用いて、現画像のエッジ数が当該現画像より以前に撮影した元画像から得た基準エッジ数から所定のしきい値以上減少し、且つ、現画像のゲイン値が元画像の基準ゲイン値以上であるときに撮像部がマスクされたと判定する技術が開示されている(特許文献2)。 Conventionally, when a camera is used to monitor an intruder who enters a predetermined monitoring area (referred to as a predetermined area), the intruder irradiates the camera with a light such as a flashlight, obstructing the camera's field of view, and filming the monitored area. Techniques are disclosed for detecting obscured vision. For example, a brightness value is calculated for each predetermined region of an image captured by an imaging unit that captures an image of a monitoring region, and the number of regions whose calculated brightness value is equal to or greater than a predetermined brightness value is calculated, and the number of regions is used as a reference. A technique is disclosed in which it is determined that the field of view of an imaging means is obstructed when the value is greater than or equal to the value (Patent Document 1). Further, the number of edges of the current image is calculated by using the number of edges extracted from the image captured by the imaging unit and the gain value for adjusting the level of the image signal output from the imaging unit to a predetermined level. It is determined that the imaging unit is masked when the reference edge number obtained from the original image taken earlier is reduced by a predetermined threshold or more and the gain value of the current image is equal to or higher than the reference gain value of the original image. A technique has been disclosed (Patent Document 2).

特開2000-222646号公報JP-A-2000-222646 特開2003-134504号公報JP-A-2003-134504

しかし、撮影装置に対してレーザポインタのような単色光を照射された場合、輝度値に基づく処理では高輝度と判定され難く、撮像装置に対する視野妨害として検出し難い可能性があった。つまり、単色光(例えば、(R,G,B)=(255,0,0))から求めた輝度値は、懐中電灯などの白色光(例えば、(R,G,B)=(255,255,255))から求めた輝度値よりも低くなるため高輝度とは判定され難く、視野妨害として検出し難い可能性があった。また、侵入者検知に用いる画像において高輝度領域を求める際に環境変化による輝度の飽和も撮像装置に対する視野妨害として判定してしまうおそれがあった。例えば、侵入者判定を行う撮影画像では、撮影装置に当たっていない太陽光やヘッドライトの光も高輝度と判定されてしまい、撮像装置に対する視野妨害として判定してしまうおそれがあった。 However, when monochromatic light such as a laser pointer is irradiated onto the imaging device, it is difficult to determine that the brightness is high in the processing based on the luminance value, and there is a possibility that it is difficult to detect it as obstruction of the field of view of the imaging device. In other words, the luminance value obtained from monochromatic light (for example, (R, G, B)=(255, 0, 0)) is equivalent to that of white light such as a flashlight (for example, (R, G, B)=(255, 255, 255)), it is difficult to determine that the brightness is high, and there is a possibility that it is difficult to detect it as a visual disturbance. Further, when obtaining a high-brightness region in an image used for intruder detection, saturation of brightness due to environmental changes may also be determined as obstruction of the field of view of the imaging device. For example, in a photographed image for intruder determination, even sunlight or headlight light that does not hit the imaging device may be determined to have high brightness, and may be determined as obstructing the field of view of the imaging device.

本発明は、レーザポインタが照射された場合に撮影装置に対する視野妨害を検出することができる画像処理装置及び画像処理プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus and an image processing program capable of detecting obstruction of a field of view to an imaging apparatus when a laser pointer is irradiated.

本発明の1つの態様は、撮影装置により所定空間を順次撮影した撮影画像のうち、第1露光量で撮影した第1撮影画像及び前記第1露光量よりも小さい第2露光量で前記第1撮影画像と同時期に撮影した第2撮影画像を取得する取得手段と、前記第2撮影画像の各画素のRGB成分の値のうちいずれか一つの成分のみ飽和している画素からなるRGB光源領域を抽出する抽出手段と、前記RGB光源領域が抽出された場合、前記第1撮影画像における当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の対象画像領域と、過去に前記第1露光量で撮影された基準画像における、当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の基準画像領域と、を比較し、当該基準画像領域よりも当該対象画像領域のエッジ数が第1エッジ判定基準値以上減少している場合、前記撮影装置の視野が妨害されたと判定する視野妨害判定手段と、を備えることを特徴とする画像処理装置である。 One aspect of the present invention is to provide a first photographed image photographed with a first exposure amount and the first photographed image photographed with a second exposure amount smaller than the first exposure amount, among photographed images sequentially photographed in a predetermined space by a photographing device. an acquisition means for acquiring a second photographed image photographed at the same time as the photographed image; and an RGB light source region composed of pixels in which only one of RGB component values of each pixel of the second photographed image is saturated. and when the RGB light source region is extracted, in the first captured image , the RGB light source region extracted from the second captured image captured at the same time as the first captured image A target image area other than the corresponding area, and the RGB light source area extracted from the second captured image captured at the same time as the first captured image in the reference image captured in the past with the first exposure amount. is compared with a reference image area other than the area corresponding to the target image area, and if the number of edges of the target image area is smaller than that of the reference image area by the first edge determination reference value or more, the field of view of the photographing device is obstructed. and visual field obstruction determination means for determining that the image processing apparatus is characterized by comprising:

本発明の別の態様は、コンピュータを、撮影装置により所定空間を順次撮影した撮影画像のうち、第1露光量で撮影した第1撮影画像及び前記第1露光量よりも小さい第2露光量で前記第1撮影画像と同時期に撮影した第2撮影画像を取得する取得手段と、前記第2撮影画像の各画素のRGB成分の値のうちいずれか一つの成分のみ飽和している画素からなるRGB光源領域を抽出する抽出手段と、前記RGB光源領域が抽出された場合、前記第1撮影画像における当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の対象画像領域と、過去に前記第1露光量で撮影された基準画像における、当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の基準画像領域と、を比較し、当該基準画像領域よりも当該対象画像領域のエッジ数が第1エッジ判定基準値以上減少している場合、前記撮影装置の視野が妨害されたと判定する視野妨害判定手段と、して機能させることを特徴とする画像処理プログラムである。 Another aspect of the present invention is to provide a computer with a first photographed image photographed with a first exposure amount and a second exposure amount smaller than the first exposure amount among photographed images sequentially photographed in a predetermined space by a photographing device. Acquisition means for acquiring a second photographed image photographed at the same time as the first photographed image; extraction means for extracting an RGB light source region; and, when the RGB light source region is extracted, the RGB extracted from the second captured image captured at the same time as the first captured image in the first captured image. The target image area other than the area corresponding to the light source area and the second captured image captured at the same time as the first captured image in the reference image captured in the past with the first exposure amount A reference image area other than the area corresponding to the RGB light source area is compared, and if the number of edges of the target image area is smaller than that of the reference image area by a first edge determination reference value or more, the field of view of the photographing device An image processing program characterized by functioning as visual field obstruction determination means for determining that a is obstructed.

ここで、前記抽出手段は、前記第2撮影画像の各画素のRGB成分の値のうちいずれか一つの成分のみ飽和しており残り2つの成分の値が飽和している成分の値と比べて十分に小さい画素からなる画像領域を前記RGB光源領域として抽出することが好適である。 Here, the extraction means compares the values of the remaining two components with the values of the saturated components of the values of the RGB components of the pixels of the second captured image. It is preferable to extract an image area composed of sufficiently small pixels as the RGB light source area.

本発明の別の態様は、撮影装置により所定空間を順次撮影した撮影画像のうち、第1露光量で撮影した第1撮影画像及び前記第1露光量よりも小さい第2露光量で前記第1撮影画像と同時期に撮影した第2撮影画像を取得する取得手段と、前記第2撮影画像の各画素のRGB成分の値のうちいずれか2成分の値を合計した値が飽和基準値以上である画素からなるRGB光源領域を抽出する抽出手段と、前記第1撮影画像における当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の対象画像領域と、当該第1撮影画像より過去に前記第1露光量で撮影された基準画像における、当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の基準画像領域と、を比較し、当該基準画像領域よりも当該対象画像領域のエッジ数がエッジ判定基準値以上減少している場合、前記撮影装置の視野が妨害されたと判定する視野妨害判定手段と、を備えることを特徴とする画像処理装置である。 Another aspect of the present invention is to provide a first photographed image photographed with a first exposure amount and the first photographed image photographed with a second exposure amount smaller than the first exposure amount, among photographed images sequentially photographed in a predetermined space by a photographing device. an obtaining means for obtaining a second photographed image photographed at the same time as the photographed image; and a value obtained by summing any two RGB component values of each pixel of the second photographed image is equal to or greater than a saturation reference value. an extraction means for extracting an RGB light source area composed of certain pixels; and an area in the first captured image corresponding to the RGB light source area extracted from the second captured image captured at the same time as the first captured image. The extracted from the second captured image captured at the same time as the first captured image in the target image area other than the A reference image area other than the area corresponding to the RGB light source area is compared, and if the number of edges of the target image area is smaller than that of the reference image area by the edge determination reference value or more, the field of view of the photographing device is obstructed. and visual field obstruction determination means for determining that an image has been obstructed.

本発明の別の態様は、コンピュータを、撮影装置により所定空間を順次撮影した撮影画像のうち、第1露光量で撮影した第1撮影画像及び前記第1露光量よりも小さい第2露光量で前記第1撮影画像と同時期に撮影した第2撮影画像を取得する取得手段と、前記第2撮影画像の各画素のRGB成分の値のうちいずれか2成分の値を合計した値が飽和基準値以上である画素からなるRGB光源領域を抽出する抽出手段と、前記第1撮影画像における当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の対象画像領域と、当該第1撮影画像より過去に前記第1露光量で撮影された基準画像における、当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の基準画像領域と、を比較し、当該基準画像領域よりも当該対象画像領域のエッジ数がエッジ判定基準値以上減少している場合、前記撮影装置の視野が妨害されたと判定する視野妨害判定手段と、して機能させることを特徴とする画像処理プログラムである。 Another aspect of the present invention is to provide a computer with a first photographed image photographed with a first exposure amount and a second exposure amount smaller than the first exposure amount among photographed images sequentially photographed in a predetermined space by a photographing device. an acquisition means for acquiring a second captured image captured at the same time as the first captured image; an extracting means for extracting an RGB light source region composed of pixels having a value equal to or greater than the value of the RGB light source region; Extraction from the target image area other than the corresponding area and the second captured image captured at the same time as the first captured image in the reference image captured with the first exposure before the first captured image is compared with a reference image area other than the area corresponding to the RGB light source area, and if the number of edges of the target image area is smaller than that of the reference image area by an edge determination reference value or more, An image processing program characterized by functioning as visual field obstruction determination means for determining that the visual field is obstructed.

ここで、前記抽出手段は、さらに前記第2撮影画像の各画素のうち輝度値が輝度基準値以上である画素からなる輝度光源領域を抽出し、前記視野妨害判定手段は、前記輝度光源領域が抽出された場合、前記第1撮影画像における当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記輝度光源領域に対応する領域以外の対象画像領域と、前記基準画像における、当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記輝度光源領域に対応する領域以外の基準画像領域と、を比較し、当該基準画像領域よりも当該対象画像領域のエッジ数が前記第1エッジ判定基準値よりも大きい第2エッジ判定基準値以上減少していた場合に前記撮影装置の視野が妨害されたと判定することが好適である。 Here, the extracting means further extracts a luminance light source area made up of pixels whose luminance value is equal to or higher than a luminance reference value among the pixels of the second photographed image, and the visual field obstruction determining means determines whether the luminance light source area is When extracted, a target image region other than a region corresponding to the luminance light source region extracted from the second captured image captured at the same time as the first captured image in the first captured image, and the reference In the image , a reference image region other than the region corresponding to the luminance light source region extracted from the second captured image captured at the same time as the first captured image is compared, and the It is preferable to determine that the field of view of the photographing device is obstructed when the number of edges in the target image region has decreased by a second edge determination reference value that is larger than the first edge determination reference value.

また、前記視野妨害判定手段は、前記輝度光源領域について、さらに前記輝度光源領域に対応する前記第1撮影画像の画像領域の周囲の画像領域の輝度の分散値が第1分散判定基準値未満である場合に前記撮影装置の視野が妨害されたと判定し、前記RGB光源領域について、さらに前記RGB光源領域に対応する前記第1撮影画像の画像領域の周囲の画像領域の輝度の分散値が前記第1分散判定基準値以上である第2分散判定基準値以上である場合に前記撮影装置の視野が妨害されたと判定することが好適である。 In addition, the visual field obstruction determination means determines that, with respect to the luminance light source area, a luminance variance value of an image area surrounding the image area of the first captured image corresponding to the luminance light source area is less than a first variance determination reference value. In a certain case, it is determined that the field of view of the photographing device is obstructed, and for the RGB light source region, the variance value of the brightness of the image region surrounding the image region of the first captured image corresponding to the RGB light source region is the first It is preferable to determine that the field of view of the photographing device is obstructed when the variance is equal to or greater than a second variance criterion value, which is equal to or greater than one variance criterion value.

また、前記視野妨害判定手段は、前記第1撮影画像について抽出された前記RGB光源領域の大きさが所定の領域基準値以下の場合には、前記基準画像領域よりも前記対象画像領域のエッジ数が前記第1エッジ判定基準値よりも高い第2エッジ判定基準値以上減少している場合、前記撮影装置の視野が妨害されたと判定することが好適である。 Further, when the size of the RGB light source area extracted for the first captured image is equal to or smaller than a predetermined area reference value, the visual field obstruction determination means determines that the number of edges of the target image area is larger than that of the reference image area. has decreased by more than a second edge criterion value which is higher than said first edge criterion value, it is preferably determined that the field of view of said imager is obstructed.

本発明によれば、撮影部に対してレーザポインタを照射された場合であっても高い精度で視野妨害と判定することができる。 According to the present invention, it is possible to determine with high accuracy that there is obstruction of the field of view even when the imaging unit is irradiated with the laser pointer.

本発明の実施の形態における警備システムの構成概略図である。1 is a schematic configuration diagram of a security system according to an embodiment of the present invention; FIG. 本発明の実施の形態における画像処理装置の構成概略図である。1 is a schematic configuration diagram of an image processing apparatus according to an embodiment of the present invention; FIG. 本発明の実施の形態におけるRGB成分の例を示す図である。It is a figure which shows the example of the RGB component in embodiment of this invention. 本発明の実施の形態における輝度光源領域とRGB光源領域における輝度の分散状態を説明する図である。FIG. 4 is a diagram for explaining the distributed state of luminance in a luminance light source region and an RGB light source region according to the embodiment of the present invention; 本発明の実施の形態における視野妨害判定処理の流れを示すフローチャートである。4 is a flow chart showing the flow of visual field obstruction determination processing according to the embodiment of the present invention.

本実施形態に係る警備システム10は、図1に示すように、店舗、オフィス、マンション、倉庫、家屋などの各監視対象物件12に設置される警備装置14、公衆電話回線などの通信網16を介して各警備装置14と接続される警備センタ装置18、及び利用者装置20とを含んで構成される。さらに、警備システム10は、監視対象物件12の監視領域を撮影した監視画像に基づいて監視対象物件12の異常を検出するための1以上の画像処理装置としての画像処理装置22、及び、画像処理装置22により撮影された監視画像を記録する録画装置24を含んで構成される。画像処理装置22及び録画装置24は警備装置14と通信可能に接続される。 Security system 10 according to the present embodiment, as shown in FIG. It includes a security center device 18 connected to each security device 14 via and a user device 20 . Further, the security system 10 includes an image processing device 22 as one or more image processing devices for detecting abnormalities in the object 12 to be monitored based on a surveillance image obtained by photographing a monitoring area of the object 12 to be monitored, and image processing. It includes a recording device 24 for recording surveillance images captured by the device 22 . The image processing device 22 and the recording device 24 are communicably connected to the security device 14 .

警備装置14は、構内LANなどを介してそれ自体に接続された画像処理装置22からアラーム信号を受信すると、そのアラーム信号及び警備装置14自体の識別信号、又は、監視対象物件12あるいは異常を検出した画像処理装置22の識別信号を警備センタ装置18へ送信する。そのために、警備装置14は、画像処理装置22と通信するための通信インターフェースと、警備センタ装置18及び利用者装置20と通信するための通信インターフェースと、それらを制御するための制御ユニットを有する。 When the security device 14 receives an alarm signal from the image processing device 22 connected to itself via a local LAN or the like, the alarm signal and the identification signal of the security device 14 itself, or the property 12 to be monitored or an abnormality is detected. The identification signal of the image processing device 22 is transmitted to the security center device 18 . Therefore, the security device 14 has a communication interface for communicating with the image processing device 22, a communication interface for communicating with the security center device 18 and the user device 20, and a control unit for controlling them.

警備センタ装置18は、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェースと、液晶ディスプレイなどの表示装置と、ブザーやLEDなどで構成される報知部を備える。警備センタ装置18は、警備装置14から通信網16を介してアラーム信号を受信すると、そのアラーム信号を送信した警備装置14が設置された監視対象物件12及び検出された異常の内容を報知部及び表示装置を通じて監視員に報知する。 The security center device 18 is composed of a so-called computer, and includes a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a notification unit composed of a buzzer, an LED, and the like. . When the security center device 18 receives an alarm signal from the security device 14 via the communication network 16, the security center device 18 notifies the property 12 to be monitored where the security device 14 that sent the alarm signal and the content of the detected abnormality are sent to the reporting unit and Notify the observer through the display device.

利用者装置20も、いわゆるコンピュータで構成され、通信網16を介して警備装置14と通信するための通信インターフェース、液晶ディスプレイなどの表示装置、及び、キーボードやマウスなど、警備装置14を遠隔操作するための操作コマンドを入力するためのユーザインターフェースを備える。利用者装置20は、ユーザインターフェースを介して予め登録されている監視対象物件12を観察する操作がなされると、登録されている監視対象物件12に設置された警備装置14に対して、現在撮影中の監視画像又は録画装置24に記録されている監視画像を利用者装置20に送信することを要求する各種の画像要求信号を送信する。そして、警備装置14から監視画像を受信すると、利用者装置20は要求された監視画像を表示装置に表示する。 The user device 20 is also composed of a so-called computer, and includes a communication interface for communicating with the security device 14 via the communication network 16, a display device such as a liquid crystal display, and a keyboard, mouse, etc. for remotely operating the security device 14. A user interface for inputting operation commands for When the user device 20 is operated to observe the object 12 to be monitored which has been registered in advance via the user interface, the user device 20 is currently photographing the security device 14 installed at the object 12 to be monitored which has been registered. It transmits various image request signals requesting transmission of the monitoring image inside or the monitoring image recorded in the recording device 24 to the user device 20 . Upon receiving the monitoring image from the security device 14, the user device 20 displays the requested monitoring image on the display device.

録画装置24は、HDDなどの磁気ディスク装置、DATなどの磁気テープ、DVD-RAMなどの光記録媒体のように、録画装置24に着脱自在となる記録媒体と、それら記録媒体にアクセスしてデータの読み書きを行う装置で構成される。録画装置24は、画像処理装置22が撮影した監視画像を警備装置14から受け取り、撮影時刻と関連付けて記録する。 The recording device 24 includes recording media such as a magnetic disk device such as an HDD, a magnetic tape such as a DAT, and an optical recording medium such as a DVD-RAM. It consists of a device that reads and writes The recording device 24 receives the monitoring image captured by the image processing device 22 from the security device 14 and records it in association with the time of capturing.

図2は、画像処理装置22の構成概念図である。 FIG. 2 is a conceptual diagram of the configuration of the image processing device 22. As shown in FIG.

通信部30は、画像処理装置22と警備装置14との間で構内LANなどの通信ネットワークを介して各種の設定信号及び制御信号などを送受信する入出力インターフェースであり、イーサネット(登録商標)などの各種の通信インターフェース回路及びそれらを駆動するドライバソフトウェアなどで構成される。具体的には、通信部30は、後述の制御部36によって侵入者が検出された場合に、侵入者を検出したことを示す侵入アラーム信号を警備装置14に出力する。 The communication unit 30 is an input/output interface for transmitting and receiving various setting signals and control signals between the image processing device 22 and the security device 14 via a communication network such as a local LAN. It consists of various communication interface circuits and driver software for driving them. Specifically, when an intruder is detected by the control unit 36 described later, the communication unit 30 outputs an intrusion alarm signal indicating that the intruder has been detected to the security device 14 .

撮影部32は、CMOSなどの、可視光及び近赤外光に感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に監視領域の像を結像する結像光学系などで構成される。撮影部32は、監視領域を撮影することによって撮影画像を取得する。撮影部32は、一定の時間間隔(例えば1/5秒)ごとに撮影を行うが、撮影部32の撮影方法はこれには限られない。監視領域に侵入者が存在する場合、撮影部32が取得した撮影画像には、当該人物(侵入者)に相当する人領域が含まれることとなる。取得された撮影画像は記憶部34に記憶される。 The imaging unit 32 includes a two-dimensional detector such as a CMOS, which is composed of a photoelectric converter having sensitivity to visible light and near-infrared light, and an imaging unit that forms an image of a monitoring area on the two-dimensional detector. It consists of an optical system. The photographing unit 32 obtains a photographed image by photographing the monitoring area. The imaging unit 32 performs imaging at regular time intervals (for example, 1/5 second), but the imaging method of the imaging unit 32 is not limited to this. When an intruder exists in the monitoring area, the captured image acquired by the imaging unit 32 includes a human area corresponding to the person (intruder). The acquired captured image is stored in the storage unit 34 .

また、本実施の形態では、撮影部32は、通常の露光量(侵入者判定に適した第1露光量)で通常露光画像40を撮影し、通常の露光量よりも小さい低露光量(第2露光量)で低露光画像42を撮影する。通常露光画像40と低露光画像42は同時期に撮影を行う。例えば、通常露光画像40と低露光画像42は交互に撮影を行うとよい。一定の時間間隔(例えば1/5秒)で交互に通常露光画像40と低露光画像42を撮影してもよいが、この間隔が離れすぎていなければ(例えば1/2秒以内程度)、交互に撮影する必要はなく、通常露光画像40と低露光画像42の間に別の画像を撮影してもよい。なお、撮影部32の露光量は撮影環境に応じて変更される。すなわち、常に露光量を固定して撮影を行うのではなく、通常露光画像40と低露光画像42の露光量の比も固定されているものではない。 Further, in the present embodiment, the photographing unit 32 photographs the normal exposure image 40 with a normal exposure amount (first exposure amount suitable for intruder determination), and uses a low exposure amount (second exposure amount) that is smaller than the normal exposure amount. 2 exposure) to capture a low exposure image 42 . The normal exposure image 40 and the low exposure image 42 are shot at the same time. For example, the normal-exposure image 40 and the low-exposure image 42 may be alternately shot. The normal-exposure image 40 and the low-exposure image 42 may be captured alternately at regular time intervals (for example, 1/5 second). It is not necessary to take two images, and another image may be taken between the normal-exposure image 40 and the low-exposure image 42 . Note that the exposure amount of the photographing unit 32 is changed according to the photographing environment. In other words, the ratio of the exposure amounts of the normal-exposure image 40 and the low-exposure image 42 is not fixed, either.

記憶部34は、半導体メモリ、磁気ディスク(HDD)、又はCD-ROM、DVD-RAMなどの光ディスクドライブ及びその記録媒体で構成される記憶手段である。記憶部34には、画像処理装置22の各部を動作させるための画像処理プログラムが記憶される。また、記憶部34は、通常露光画像40、低露光画像42、基準画像44、飽和基準値46、輝度基準値48、輝度判定基準値50(第1輝度判定基準値50a,第2輝度判定基準値50b)、エッジ判定基準値52(第1エッジ判定基準値52a,第2エッジ判定基準値52b)、分散判定基準値54(第1分散判定基準値54a,第2分散判定基準値54b)を記憶する。すなわち、記憶部34は、通常露光画像40を記憶する通常露光画像記憶手段、低露光画像42を記憶する低露光画像記憶手段、基準画像44を記憶する基準画像記憶手段、飽和基準値を記憶する飽和基準値記憶手段、輝度基準値を記憶する輝度基準値記憶手段、輝度判定基準値を記憶する輝度判定基準値記憶手段、エッジ判定基準値を記憶するエッジ判定基準値記憶手段、分散判定基準値を記憶する分散判定基準値記憶手段として機能する。 The storage unit 34 is storage means configured by a semiconductor memory, a magnetic disk (HDD), or an optical disk drive such as a CD-ROM, DVD-RAM, and its recording medium. The storage unit 34 stores an image processing program for operating each unit of the image processing device 22 . The storage unit 34 stores a normal exposure image 40, a low exposure image 42, a reference image 44, a saturation reference value 46, a brightness reference value 48, a brightness determination reference value 50 (a first brightness determination reference value 50a, a second brightness determination reference value 50b), edge determination reference value 52 (first edge determination reference value 52a, second edge determination reference value 52b), and variance determination reference value 54 (first variance determination reference value 54a, second dispersion determination reference value 54b). Remember. That is, the storage unit 34 stores a normal exposure image storage means for storing the normal exposure image 40, a low exposure image storage means for storing the low exposure image 42, a reference image storage means for storing the reference image 44, and a saturation reference value. saturation reference value storage means, luminance reference value storage means for storing luminance reference values, luminance judgment reference value storage means for storing luminance judgment reference values, edge judgment reference value storage means for storing edge judgment reference values, variance judgment reference values It functions as a dispersion judgment reference value storage means for storing the .

基準画像44は、撮影部32において撮影された通常露光画像40のうち視野妨害だと判定されていない画像である。基準画像44は1枚であってもよいが、複数枚の基準画像44が作成されてもよい。なお、基準画像44の露光量は、リアルタイムで撮影された通常露光画像40の露光量と異なっていてもよい。また、基準画像44は複数の通常露光画像40から作成されてもよい。 A reference image 44 is an image that is not determined to be obstructing the field of view, out of the normal-exposure image 40 captured by the capturing unit 32 . Although one reference image 44 may be used, a plurality of reference images 44 may be created. Note that the exposure amount of the reference image 44 may be different from the exposure amount of the normal exposure image 40 captured in real time. Also, the reference image 44 may be created from a plurality of normal exposure images 40 .

制御部36は、組み込み型のマイクロプロセッサユニットと、ROM、RAMなどのメモリと、その周辺回路とを有し、画像処理装置22の各種信号処理を実行する。図2に示されるように、制御部36は、光源領域抽出手段60及び視野妨害判定手段62を含んで構成され、全体として画像処理手段として機能する。制御部36がこれらの手段として機能することで撮影部32に対して光を照射することによって視野妨害されているか否かが判定される。以下、制御部36が有する各手段について説明する。 The control unit 36 has a built-in microprocessor unit, memories such as ROM and RAM, and their peripheral circuits, and executes various signal processing of the image processing device 22 . As shown in FIG. 2, the control section 36 includes a light source area extraction means 60 and a visual field disturbance determination means 62, and functions as an image processing means as a whole. It is determined whether or not the field of view is obstructed by irradiating the imaging unit 32 with light by the control unit 36 functioning as these means. Each unit of the control unit 36 will be described below.

光源領域抽出手段60は、レーザポインタや懐中電灯の光源等によって撮影部32が照らされたときに通常露光画像40に生ずる光源を撮影した画像領域である光源領域を抽出する。光源領域抽出手段60は、レーザポインタによって通常露光画像40に生ずるRGB光源領域と懐中電灯などのLEDライトによって通常露光画像40に生ずる輝度光源領域を抽出する。 A light source region extracting means 60 extracts a light source region, which is an image region obtained by photographing a light source generated in the normal exposure image 40 when the photographing unit 32 is illuminated by a light source such as a laser pointer or a flashlight. A light source area extraction means 60 extracts an RGB light source area generated in the normal exposure image 40 by a laser pointer and a luminance light source area generated in the normal exposure image 40 by an LED light such as a flashlight.

まず、レーザポインタによって通常露光画像40に生ずるRGB光源領域の抽出処理について説明する。 First, extraction processing of the RGB light source area generated in the normal exposure image 40 by the laser pointer will be described.

光源領域抽出手段60は、図3に示すように、低露光画像42の各画素の赤色の波長領域の成分(R成分)、緑色の波長領域の成分(G成分)、青色の波長領域の成分(B成分)を抽出する。そして、RGB成分のうちいずれか1つの成分が飽和基準値46以上である画素を抽出し、当該抽出された画素をRGB光源領域に設定する。なお、画素のRGB成分のいずれか1つの成分が完全に飽和している場合のみ、飽和基準値46以上であるものとして当該画素をRGB光源領域としてもよいし、画素のRGB成分のいずれか1つの成分が所定の飽和基準値46以上である場合に当該画素をRGB光源領域としてもよい。 As shown in FIG. 3, the light source region extracting means 60 extracts a red wavelength region component (R component), a green wavelength region component (G component), and a blue wavelength region component of each pixel of the low-exposure image 42. (B component) is extracted. Then, a pixel whose one of the RGB components is equal to or greater than the saturation reference value of 46 is extracted, and the extracted pixel is set in the RGB light source region. Only when any one of the RGB components of the pixel is completely saturated, the pixel may be regarded as having a saturation reference value of 46 or more, and may be regarded as the RGB light source region. If one component is equal to or greater than a predetermined saturation reference value 46, the pixel may be regarded as the RGB light source area.

例えば、0~255階調で表わされる低露光画像42のある画素のRGB成分のいずれか1つの成分が255である場合に当該画素をRGB光源領域とすればよい。また、例えば、飽和基準値46を250として、0~255階調で表わされる低露光画像42のある画素のRGB成分のいずれか1つの成分が250以上である場合に当該画素をRGB光源領域とすればよい。 For example, if one of the RGB components of a pixel in the low-exposure image 42 represented by 0 to 255 gradations is 255, the pixel may be set as the RGB light source area. Also, for example, if the saturation reference value 46 is set to 250, and any one of the RGB components of a pixel in the low-exposure image 42 represented by gradation 0 to 255 is 250 or more, the pixel is regarded as the RGB light source region. do it.

また、残りの2成分について飽和していなければRGB光源領域と設定してもよいし、飽和している一つの成分の値又は飽和基準値46よりも十分に小さい値であればRGB光源領域と設定してもよい。ここで、十分に小さい値とは、例えば、RGB成分の飽和値の10%以下の値とすればよい。 If the remaining two components are not saturated, they may be set as the RGB light source region, or if the value of one saturated component or a value sufficiently smaller than the saturation reference value 46 is set as the RGB light source region. May be set. Here, the sufficiently small value may be, for example, a value that is 10% or less of the saturation value of the RGB components.

例えば、残りの2成分について飽和していなければRGB光源領域と設定する場合、0~255階調で表わされる低露光画像42のある画素のRGB成分が(R,G,B)=(255,125,100)である場合であっても当該画素をRGB光源領域として設定する。一方、例えば、残りの2成分について飽和値の10%以下であればRGB光源領域と設定する場合、0~255階調で表わされる低露光画像42のある画素のRGB成分が(R,G,B)=(255,125,100)である場合には当該画素はRGB光源領域に設定せず、(R,G,B)=(255,25,20)である場合には当該画素はRGB光源領域に設定する。 For example, if the remaining two components are not saturated and set as the RGB light source region, the RGB components of a pixel in the low-exposure image 42 represented by 0 to 255 gradations are (R, G, B)=(255, 125, 100), the pixel is set as the RGB light source area. On the other hand, for example, if the remaining two components are set to be the RGB light source region if they are 10% or less of the saturation value, the RGB components of a pixel in the low-exposure image 42 represented by 0 to 255 gradations are (R, G, B) = (255, 125, 100), the pixel is not set in the RGB light source region, and (R, G, B) = (255, 25, 20), the pixel is set in RGB. Set to light source area.

また、低露光画像42の画素のRGB成分のうち、いずれか2成分の値を合計した値が所定の飽和基準値46以上であり、合計していない残りの1成分の値が合計した2成分の値よりも十分に小さい値である画素をRGB光源領域に設定してもよい。例えば、紫色のレーザポインタの場合、低露光画像42の画素のRGB成分が(R,G,B)=(140,0,140)等となるので、飽和基準値46を255に設定して、当該画素がRGB光源領域に設定されるようにしてもよい。ここで、十分に小さい値とは、例えば、合計した2成分の値の10%以下の値や、飽和基準値46の10%以下の値とすればよい。 Further, among the RGB components of the pixels of the low-exposure image 42, the sum of the values of any two components is equal to or greater than the predetermined saturation reference value 46, and the value of the remaining one component that has not been summed is the sum of the two components. A pixel having a value sufficiently smaller than the value of may be set in the RGB light source area. For example, in the case of a purple laser pointer, since the RGB components of the pixels of the low-exposure image 42 are (R, G, B)=(140, 0, 140), etc., the saturation reference value 46 is set to 255, The pixel may be set in the RGB light source area. Here, the sufficiently small value may be, for example, a value that is 10% or less of the total value of the two components, or a value that is 10% or less of the saturation reference value 46 .

ここで、RGB光源領域の設定処理において低露光画像42を用いることによって、強い単色成分の光を放っている光源を撮影した画像領域のみをRGB光源領域として設定することができる。すなわち、通常露光画像40では強い光を放っていない単色成分の物体もRGB光源領域として抽出してしまうおそれがあるので、低露光画像42を用いることが好適である。 Here, by using the low-exposure image 42 in the process of setting the RGB light source area, it is possible to set only the image area in which the light source emitting strong monochromatic light is captured as the RGB light source area. That is, it is preferable to use the low-exposure image 42 because there is a risk that even an object of a single color component that does not emit strong light in the normal-exposure image 40 will be extracted as the RGB light source region.

次に、懐中電灯の照射によって通常露光画像40に生ずる輝度光源領域の抽出処理について説明する。 Next, extraction processing of a luminance light source region generated in the normal exposure image 40 by flashlight irradiation will be described.

光源領域抽出手段60は、低露光画像42の各画素のうち所定の輝度基準値48以上の輝度値をもつ画素を輝度光源領域に設定する。具体的には、通常露光画像40と低露光画像42の露光量の比率から低露光画像42の各画素の輝度値を通常の露光量で撮影した場合の推定輝度値に換算し、各画素の推定輝度値が予め設定した輝度基準値48以上である画素を輝度光源領域として設定する。 The light source region extracting means 60 sets pixels having luminance values equal to or higher than a predetermined luminance reference value 48 among the pixels of the low exposure image 42 as luminance light source regions. Specifically, the luminance value of each pixel of the low-exposure image 42 is converted into an estimated luminance value when photographed with normal exposure from the ratio of the exposure amount of the normal-exposure image 40 and the low-exposure image 42, and the luminance value of each pixel is calculated. A pixel whose estimated luminance value is equal to or greater than a preset luminance reference value of 48 is set as a luminance light source region.

輝度基準値48は、通常露光画像40のダイナミックレンジを越えた輝度値を表わす基準値である。すなわち、撮影部32に対して懐中電灯の光が当てられたときの通常露光画像40と低露光画像42とを組として撮影し、視野妨害を検出するために必要な推定輝度値を輝度基準値48として設定する。このとき、撮影部32で光量が異なる種々の懐中電灯を用いて視野妨害を検出するために必要な推定輝度値を輝度基準値48として設定することが好適である。 A luminance reference value 48 is a reference value representing a luminance value exceeding the dynamic range of the normal exposure image 40 . That is, the normal-exposure image 40 and the low-exposure image 42 are photographed as a set when the light of the flashlight is applied to the photographing unit 32, and the estimated luminance value necessary for detecting the obstruction of the visual field is set to the luminance reference value. Set as 48. At this time, it is preferable to set, as the luminance reference value 48, an estimated luminance value necessary for detecting obstruction of the field of view using various flashlights with different light intensities in the photographing section 32. FIG.

輝度基準値48は、以下のようにして具体的に求めることができる。予め通常露光画像40と低露光画像42とを一組として撮影して画像の組を複数取得する。そして、それぞれの組について後述する露光量比率に基づいて低露光画像42の各画素の輝度値を通常露光画像40の露光量に換算した推定輝度値(通常露光画像40の露光量で撮影した場合に取得できる推定輝度値)に変換する。そして、視野妨害を検出できる推定輝度値を特定して、当該推定輝度値を輝度基準値48に設定する。 The brightness reference value 48 can be specifically obtained as follows. A set of normal-exposure images 40 and low-exposure images 42 are photographed in advance to obtain a plurality of sets of images. Then, an estimated luminance value obtained by converting the luminance value of each pixel of the low-exposure image 42 into the exposure amount of the normal-exposure image 40 based on the exposure amount ratio described later for each pair (when photographed with the exposure amount of the normal-exposure image 40 Estimated luminance value that can be obtained from Then, an estimated brightness value that can detect visual disturbance is specified, and the estimated brightness value is set as the brightness reference value 48 .

露光量比率は、撮影部32のシャッタースピードとゲインを基に算出することができる。このとき、撮影部32の絞りは固定とする。ただし、以下の計算に絞り等を追加して比率を求めてもよい。撮影部32によって通常露光画像40及び低露光画像42を撮影したときのシャッタースピード及び撮像素子のゲインを取得する。シャッタースピードを数式(1)にしたがってデシベル表示[dB]に変換する。例えば、1/60[msec]のシャッタースピードを基準にして撮影部32において設定可能な各シャッタースピードをデシベル表示[dB]に変換する。なお、露光量比率を求める場合、シャッタースピード,ゲイン,絞り等のパラメータうち撮影部32で固定せずに撮影を行ったパラメータを使って求めてもよい。例えば、シャッタースピード,ゲインを固定した撮影を行った場合は、ゲインから露光量比率を算出してもよい。

20log(Out/In)=デシベル表示[dB]・・・(1)

ここで、Out:撮影に使用したシャッタースピード、In:基準のシャッタースピード(例えば、1/60)

Figure 0007252815000001
The exposure amount ratio can be calculated based on the shutter speed and gain of the imaging unit 32 . At this time, the aperture of the photographing unit 32 is fixed. However, the ratio may be obtained by adding an aperture or the like to the calculation below. The shutter speed and the gain of the imaging device when the normal exposure image 40 and the low exposure image 42 are captured by the imaging unit 32 are acquired. The shutter speed is converted into a decibel display [dB] according to Equation (1). For example, based on the shutter speed of 1/60 [msec], each shutter speed that can be set in the photographing unit 32 is converted into decibel display [dB]. When obtaining the exposure amount ratio, among the parameters such as shutter speed, gain, and aperture, the parameters obtained by photographing without being fixed by the photographing unit 32 may be used. For example, when shooting is performed with a fixed shutter speed and gain, the exposure ratio may be calculated from the gain.

20log (Out/In) = decibel display [dB] (1)

Here, Out: shutter speed used for shooting, In: standard shutter speed (eg, 1/60)
Figure 0007252815000001

デシベル表示[dB]変換後のシャッタースピードとゲインから数式(2)に基づいて撮影画像の露光量を求める。

露光量[dB]=ゲイン[dB]+シャッタースピード[dB]・・・(2)
The exposure amount of the photographed image is obtained from the shutter speed and the gain after the decibel display [dB] conversion, based on the formula (2).

Exposure amount [dB] = gain [dB] + shutter speed [dB] (2)

例えば、通常露光画像40のゲインが6[dB]で、シャッタースピードが1/60(0[dB])の場合には、通常露光画像40の露光量は6[dB]となる。一方、低露光画像42のゲインが0[dB]で、シャッタースピードが1/320(-14[dB])の場合には、低露光画像42の露光量は-14[dB]となる。通常露光画像40と低露光画像42の露光量が求められたら、露光差[dB]=通常露光画像40の露光量[dB]-低露光画像42の露光量[dB]として数式(3)に基づいて露光量比率を算出する。

20log(露光量比率)=露光差・・・(3)
For example, when the gain of the normal exposure image 40 is 6 [dB] and the shutter speed is 1/60 (0 [dB]), the exposure amount of the normal exposure image 40 is 6 [dB]. On the other hand, when the gain of the low-exposure image 42 is 0 [dB] and the shutter speed is 1/320 (-14 [dB]), the exposure amount of the low-exposure image 42 is -14 [dB]. When the exposure amounts of the normal-exposure image 40 and the low-exposure image 42 are obtained, the exposure difference [dB]=the exposure amount [dB] of the normal-exposure image 40−the exposure amount [dB] of the low-exposure image 42 is expressed in Equation (3). Based on this, the exposure amount ratio is calculated.

20log (exposure ratio) = exposure difference (3)

例えば、通常露光画像40の露光量が6[dB]であり、低露光画像42の露光量が-14[dB]の場合には露光差は6-(-14)=20[dB]となる。露光差が20[dB]の場合、露光量比率は10^(20/20)=10となる。すなわち、低露光画像42は通常露光画像40よりも10%の露光量で撮影されたと判定できる。表2は、通常露光画像40の露光量と低露光画像42の露光量の倍率と露光差との関係を示す。

Figure 0007252815000002
For example, if the exposure amount of the normal exposure image 40 is 6 [dB] and the exposure amount of the low exposure image 42 is -14 [dB], the exposure difference is 6-(-14)=20 [dB]. . When the exposure difference is 20 [dB], the exposure amount ratio is 10̂(20/20)=10. That is, it can be determined that the low-exposure image 42 was shot with an exposure amount 10% higher than that of the normal-exposure image 40 . Table 2 shows the relationship between the magnification of the exposure amount of the normal-exposure image 40 and the exposure amount of the low-exposure image 42 and the exposure difference.
Figure 0007252815000002

推定輝度値は、低露光画像42の各画素の輝度値を通常露光画像40の露光量で撮影した場合の輝度値に換算した値である。したがって、低露光画像42の各画素の輝度値に対して露光量比率を乗算することで推定輝度値を算出することができる。例えば、低露光画像42が通常露光画像40に対して10%の露光量で撮影された場合、低露光画像42の各画素の輝度値に露光量比率である10を乗算して通常露光画像40の露光量で撮影した場合の輝度値に換算した推定輝度値を算出する。低露光画像42のある画素の輝度値が60の場合は、推定輝度値は600(60(低露光画像42の輝度値)×10(露光量比率)=600(推定輝度値))となる。また、低露光画像42のある画素の輝度値が200の場合、推定輝度値は2000となる。 The estimated brightness value is a value obtained by converting the brightness value of each pixel of the low-exposure image 42 into a brightness value when the image is captured with the exposure amount of the normal-exposure image 40 . Therefore, the estimated luminance value can be calculated by multiplying the luminance value of each pixel of the low-exposure image 42 by the exposure amount ratio. For example, when the low-exposure image 42 is shot with an exposure amount of 10% with respect to the normal-exposure image 40, the luminance value of each pixel of the low-exposure image 42 is multiplied by 10, which is the exposure ratio, to obtain the normal-exposure image 40. Calculates an estimated luminance value converted into a luminance value when photographing with an exposure amount of . When the luminance value of a pixel in the low-exposure image 42 is 60, the estimated luminance value is 600 (60 (luminance value of low-exposure image 42) x 10 (exposure ratio) = 600 (estimated luminance value)). Also, when the luminance value of a pixel in the low-exposure image 42 is 200, the estimated luminance value is 2000.

このように、露光量比率に基づいて推定輝度値を算出して、視野妨害を検出できる推定輝度値を特定して、当該推定輝度値を輝度基準値48として設定する。例えば、輝度基準値48を2000と設定する。 In this way, the estimated brightness value is calculated based on the exposure amount ratio, the estimated brightness value with which visual disturbance can be detected is specified, and the estimated brightness value is set as the brightness reference value 48 . For example, the brightness reference value 48 is set to 2000.

なお、同じ画像領域がRGB光源領域と輝度光源領域の両方と判定された場合、RGB光源領域として設定することが好適である。 Note that if the same image area is determined to be both the RGB light source area and the luminance light source area, it is preferable to set it as the RGB light source area.

視野妨害判定手段62は、光源領域抽出手段60においてRGB光源領域又は輝度光源領域が設定された場合、以下のように撮影部32に対して視野妨害されたか否かの判定処理を行う。 When the RGB light source area or the luminance light source area is set by the light source area extracting means 60, the visual field obstruction determination means 62 performs the following process for determining whether or not the visual field obstruction has occurred for the photographing section 32. FIG.

視野妨害判定手段62は、光源領域の種類に応じて通常露光画像40において光源領域の周囲近傍に位置する画像領域の輝度値及び輝度の分散値を算出する。このとき、輝度光源領域については、輝度光源領域の面積を第1倍率だけ膨張させた画像領域の平均輝度値及び分散値を算出する。第1倍率は、例えば、20%に設定することが好適である。また、RGB光源領域については、RGB光源領域の面積を輝度光源領域に対する第1倍率よりも低い第2倍率だけ膨張させた画像領域の平均輝度値及び分散値を算出する。第2倍率は、例えば、10%に設定することが好適である。ただし、光源領域の種類に応じて第1倍率と第2倍率とを異なる値にせず、一律にして平均輝度値及び分散値を算出してもよい。このとき、平均輝度値及び分散値を算出する画像領域は、膨張領域のうち光源領域を除いた画像領域から算出する。 The visual field obstruction determining means 62 calculates the brightness value and the brightness variance value of the image area located in the vicinity of the light source area in the normal exposure image 40 according to the type of the light source area. At this time, for the luminance light source region, the average luminance value and variance value of the image region obtained by expanding the area of the luminance light source region by the first magnification are calculated. The first magnification is preferably set to 20%, for example. Also, for the RGB light source region, the average luminance value and variance value of the image region obtained by expanding the area of the RGB light source region by a second magnification lower than the first magnification with respect to the luminance light source region are calculated. The second magnification is preferably set to 10%, for example. However, instead of using different values for the first magnification and the second magnification according to the type of the light source region, the average luminance value and the variance value may be calculated uniformly. At this time, the image area for calculating the average luminance value and the variance value is calculated from the image area excluding the light source area in the expanded area.

次に、視野妨害判定手段62は、エッジ減少率を算出する。視野妨害判定されていない過去に撮影した基準画像44のエッジ数と通常露光画像40のエッジ数とを比較して、通常露光画像40において基準画像44から減少したエッジ数の比率を求める。ここで、エッジ数は、通常露光画像40と基準画像44ともRGB光源領域又は輝度光源領域に設定された画像領域を膨張させた画像領域以外の画像領域のエッジ数とする。画像領域の膨張率は、上記と同様に、輝度光源領域に対して第1倍率とし、RGB光源領域に対して第2倍率とすればよい。また、エッジ数は、通常露光画像40において輝度値が所定輝度値以上の画素を除いた画像領域から求めるようにしてもよい。エッジ減少率は、通常露光画像40と基準画像44のエッジ数を引き算した差分としてもよいし、{(基準画像44のエッジ数-通常露光画像40のエッジ数)/基準画像44のエッジ数}としてもよい。また、通常露光画像40と基準画像44の画像全体に対して抽出されたエッジ数の比率の減少率を算出してもよい。なお、エッジ数は、通常露光画像40と基準画像44ともRGB光源領域又は輝度光源領域に設定された画像領域以外の画像領域からエッジ数を求めてもよい。 Next, the visual field obstruction determination means 62 calculates the edge reduction rate. The number of edges of a reference image 44 photographed in the past and not determined to obstruct the field of view is compared with the number of edges of an ordinary exposure image 40, and the ratio of the number of edges decreased in the ordinary exposure image 40 from that of the reference image 44 is obtained. Here, the number of edges is the number of edges of the image area other than the image area obtained by expanding the image area set to the RGB light source area or the luminance light source area for both the normal exposure image 40 and the reference image 44 . Similar to the above, the expansion rate of the image area may be the first magnification for the luminance light source area and the second magnification for the RGB light source area. Alternatively, the number of edges may be obtained from an image area excluding pixels having luminance values equal to or higher than a predetermined luminance value in the normal exposure image 40 . The edge reduction rate may be a difference obtained by subtracting the number of edges between the normal exposure image 40 and the reference image 44, or {(the number of edges of the reference image 44−the number of edges of the normal exposure image 40)/the number of edges of the reference image 44}. may be Also, the reduction rate of the number of edges extracted with respect to the entire images of the normal exposure image 40 and the reference image 44 may be calculated. Note that the number of edges may be obtained from an image area other than the image area set as the RGB light source area or the luminance light source area for both the normal exposure image 40 and the reference image 44 .

なお、基準画像44は、過去に撮影された視野妨害判定されていない通常露光画像40であれば直前に撮影された画像でもよい。例えば、処理対象としている通常露光画像40の1フレーム前に撮影された通常露光画像40としてもよいし、数フレーム前に撮影された通常露光画像40としてもよい。また、基準画像44は、1枚ではなく複数枚としてもよい。例えば、複数の基準画像44に対してエッジ数の比較処理を適用し、最もエッジ数の減少率が高い結果を採用してもよい。 It should be noted that the reference image 44 may be an image taken immediately before as long as it is a normal exposure image 40 that has been taken in the past and has not been judged as obstructing the field of view. For example, the normal exposure image 40 shot one frame before the normal exposure image 40 to be processed, or the normal exposure image 40 shot several frames before. Also, the reference image 44 may be a plurality of images instead of one. For example, edge number comparison processing may be applied to a plurality of reference images 44, and the result with the highest edge number reduction rate may be adopted.

視野妨害判定手段62は、平均輝度値、分散値及びエッジ減少率に基づいて、光源領域の種類に応じて撮影部32に対して視野妨害されたか否かを判定する処理を行う。 The visual field obstruction determination means 62 performs processing for determining whether or not visual field obstruction has occurred with respect to the photographing section 32 according to the type of the light source region, based on the average luminance value, the variance value, and the edge reduction rate.

輝度光源領域に対して、算出された平均輝度値が第1輝度判定基準値50a以上であり、算出されたエッジ減少率が第1エッジ判定基準値52a以上であり、算出された分散値が第1分散判定基準値54a未満の場合に視野妨害があったと判定する。また、RGB光源領域に対して、算出された平均輝度値が第2輝度判定基準値50b以上であり、算出されたエッジ減少率が第2エッジ判定基準値52b以上であり、算出された分散値が第2分散判定基準値54b以上である場合に視野妨害があったと判定する。 For the luminance light source region, the calculated average luminance value is equal to or greater than the first luminance determination reference value 50a, the calculated edge reduction rate is equal to or greater than the first edge determination reference value 52a, and the calculated variance value is equal to or greater than the first edge determination reference value 52a. If the value is less than the 1-dispersion criterion value 54a, it is determined that there is visual field obstruction. Further, for the RGB light source region, the calculated average luminance value is equal to or greater than the second luminance determination reference value 50b, the calculated edge reduction rate is equal to or greater than the second edge determination reference value 52b, and the calculated variance value is greater than or equal to the second dispersion criterion value 54b, it is determined that there is visual field obstruction.

ここで、第2輝度判定基準値50bは、第1輝度判定基準値50aより低い値に設定する。また、第2エッジ判定基準値52bは、第1エッジ判定基準値52aより小さい値に設定する。また、第2分散判定基準値54bは、第1分散判定基準値54aと等しい値としてもよいし、第1分散判定基準値54aとは異なる値に設定してもよい。第1分散判定基準値54aと第2分散判定基準値54bとを異なる値に設定する場合は、第1分散判定基準値54aよりも第2分散判定基準値54bの値のほうを高い値がよい。 Here, the second luminance criterion value 50b is set to a value lower than the first luminance criterion value 50a. Also, the second edge determination reference value 52b is set to a value smaller than the first edge determination reference value 52a. The second dispersion criterion value 54b may be set to a value equal to the first dispersion criterion value 54a, or may be set to a value different from the first dispersion criterion value 54a. When setting the first variance criterion value 54a and the second variance criterion value 54b to different values, the value of the second variance criterion value 54b should be higher than the value of the first variance criterion value 54a. .

一般的に懐中電灯による輝度光源領域ではレーザポインタによるRGB光源領域より平均輝度値が高くなる傾向がある。そこで、第2輝度判定基準値50bを第1輝度判定基準値50aより低い値に設定することによって、撮影部32に対して照射されていないヘッドライトなどの単色光ではない光を視野妨害と誤判定してしまうことを抑制しつつ、レーザポインタによる視野妨害を高精度で検出することができる。 In general, the luminance light source region of a flashlight tends to have a higher average luminance value than the RGB light source region of a laser pointer. Therefore, by setting the second luminance judgment reference value 50b to a value lower than the first luminance judgment reference value 50a, light that is not monochromatic light such as headlights that are not irradiated to the photographing unit 32 is mistaken as visual field obstruction. It is possible to detect the obstruction of the field of view by the laser pointer with high accuracy while suppressing misjudgment.

また、懐中電灯などのライトの光は拡散するため、撮影部32にピンポイントにライトの光を当てなくても通常露光画像40の画像全体が白飛びすることが多い。対して、画像全体が白飛びしないときは、カメラレンズ以外にライトが当てられている場合であり、そのときは監視領域に侵入した侵入者を検知することができる。一方、一般的にレーザポインタの光は拡散しないため、撮影部32に対してピンポイントに光を当てなければ通常露光画像40の画像全体が白飛びすることはない。撮影部32に対してピンポイントに光が当てられなかった場合、光源領域及び光源領域の周囲近傍の領域のみが白飛びし、その領域以外の画像領域は、白飛びはせず、輝度値が高くなっているだけの場合がある。したがって、基準画像44に写っている背景物がそのまま通常露光画像40にも写っている可能性があり、このような背景物から抽出されるエッジについては基準画像44と通常露光画像40とで変化が小さいのでエッジ減少率が小さくなり視野妨害と判定されない可能性がある。その一方で、ライトの光と違い、通常露光画像40の画像全体の輝度値が高くなっているため、輝度が高い領域に侵入者が埋れてしまい、侵入者を検知することができない場合がある。そこで、第2エッジ判定基準値52bを第1エッジ判定基準値52aより小さい値に設定することによって、侵入者判定に影響を及ぼす懐中電灯及びレーザポインタによる視野妨害を高精度で検出することができる。 In addition, since the light of a flashlight or the like diffuses, the entire image of the normal exposure image 40 is often overexposed even if the light of the light is not pinpointed to the photographing unit 32 . On the other hand, when the entire image is not overexposed, it means that the light is applied to a part other than the camera lens, and in this case, an intruder who has entered the monitored area can be detected. On the other hand, since the light of the laser pointer generally does not diffuse, the entire image of the normal exposure image 40 will not be overexposed unless the light is applied to the photographing unit 32 at a pinpoint. When light is not applied to the photographing unit 32 at a pinpoint, only the light source area and the area in the vicinity of the light source area are overexposed, and the image area other than that area is not overexposed, and the luminance value is Sometimes it's just higher. Therefore, there is a possibility that the background object captured in the reference image 44 is also captured in the normal exposure image 40 as it is, and the edge extracted from such a background object changes between the reference image 44 and the normal exposure image 40. is small, the edge reduction rate is small, and there is a possibility that it will not be judged as obstruction of the visual field. On the other hand, unlike the light of the light, the luminance value of the entire image of the normal exposure image 40 is high, so the intruder may be buried in the area with high luminance, and the intruder may not be detected. . Therefore, by setting the second edge determination reference value 52b to a value smaller than the first edge determination reference value 52a, it is possible to detect, with high accuracy, visual disturbance caused by flashlights and laser pointers that affect intruder determination. .

また、懐中電灯のように単色光でない光源の場合、図4(a)に示すように、通常露光画像40において光が照射された画像領域全体において輝度値に大きな変化が見られず、輝度光源領域における輝度の分散値は小さくなる。これに対して、レーザポインタのように単色光(単一波長)の光源の場合、図4(b)に示すように、空気中の塵やレンズカバーでの乱反射による散乱等の影響によって光の干渉が生じて輝度値の高い画像領域と低い画像領域が現れる。すなわち、通常露光画像40において光が照射されたRGB光源領域における輝度の分散値は輝度光源領域よりも大きくなる。そこで、輝度光源領域では分散値が小さい場合に視野妨害と判定し、RGB光源領域では分散値が大きい場合に視野妨害と判定することによって、視野妨害を高精度で検出することができる。 In the case of a light source that is not monochromatic light, such as a flashlight, as shown in FIG. The brightness variance value in the region becomes smaller. On the other hand, in the case of a monochromatic light (single wavelength) light source such as a laser pointer, as shown in FIG. An image area with a high luminance value and an image area with a low luminance value appear due to interference. That is, in the normal-exposure image 40, the luminance variance value in the RGB light source area irradiated with light is larger than that in the luminance light source area. Therefore, visual field disturbance can be detected with high accuracy by determining visual field disturbance when the dispersion value is small in the luminance light source region and visual field disturbance when the dispersion value is large in the RGB light source region.

ただし、平均輝度値及び分散値に対する判定を行わず、エッジ減少率に対する判定のみに基づいて視野妨害の有無を判定してもよい。また、エッジ減少率及び平均輝度値に対する判定を行い、分散値に対する判定を行うことなく視野妨害の有無を判定してもよい。また、エッジ減少率及び分散値に対する判定を行い、平均輝度値に対する判定を行うことなく視野妨害の有無を判定してもよい。 However, the presence or absence of visual field obstruction may be determined based only on the determination on the edge reduction rate without performing the determination on the average luminance value and the variance value. Alternatively, the presence or absence of visual field obstruction may be determined without determining the variance value without determining the edge reduction rate and the average luminance value. Further, the presence or absence of visual field obstruction may be determined without performing determination on the average brightness value by performing determination on the edge reduction rate and the variance value.

以下、図5に示すフローチャートにしたがって視野妨害を検出する視野妨害判定処理の流れを説明する。 The flow of visual field obstruction determination processing for detecting visual field obstruction will be described below according to the flowchart shown in FIG.

光源領域抽出手段は、低露光画像42の各画素において輝度基準値48以上の輝度値からなる画素を輝度光源領域とし、RGB成分のうちいずれかの1成分のみ飽和基準値46以上である画素をRGB光源領域として抽出する(ステップS10)。いずれの光源領域も抽出されなかった場合は、視野妨害判定処理を終了する。輝度光源領域が抽出された場合にはステップS14に処理を移行させ、RGB光源領域が抽出された場合にはステップS26に処理を移行させ、輝度光源領域及びRGB光源領域のいずれも抽出されなかった場合には処理を終了させる(ステップS12)。 The light source region extracting means defines pixels having luminance values equal to or higher than the luminance reference value 48 in each pixel of the low-exposure image 42 as luminance light source regions, and pixels having only one of the RGB components equal to or higher than the saturation reference value 46. It is extracted as an RGB light source area (step S10). If none of the light source areas are extracted, the visual field obstruction determination process is terminated. If the luminance light source area is extracted, the process proceeds to step S14, and if the RGB light source area is extracted, the process proceeds to step S26, and neither the luminance light source area nor the RGB light source area is extracted. If so, the process is terminated (step S12).

輝度光源領域が抽出された場合、視野妨害判定手段は、通常露光画像40において輝度光源領域の周囲の画像領域の平均輝度値を算出する(ステップS14)。平均輝度値が第1輝度判定基準値以上であればステップS18に処理を移行させ、そうでなければ処理を終了させる(ステップS16)。続いて、輝度光源領域の周囲の画像領域の輝度の分散値を算出する(ステップS18)。分散値が第1分散判定基準値未満であればステップS22に処理を移行させ、そうでなければ処理を終了させる(ステップS20)。そして、通常露光画像40と基準画像44とのエッジ減少率を算出する(ステップS22)。エッジ減少率が第1エッジ判定基準値以上であればステップS38に処理を移行させ(ステップS24)、撮影部32に対して視野妨害されたと判定する(ステップS38)。エッジ減少率が第1エッジ判定基準値未満であれば処理を終了させる(ステップS24)。 When the luminance light source area is extracted, the visual field obstruction determination means calculates the average luminance value of the image area surrounding the luminance light source area in the normal exposure image 40 (step S14). If the average brightness value is greater than or equal to the first brightness determination reference value, the process proceeds to step S18, otherwise the process ends (step S16). Subsequently, the luminance variance value of the image area around the luminance light source area is calculated (step S18). If the variance value is less than the first variance criterion value, the process proceeds to step S22, otherwise the process ends (step S20). Then, the edge reduction rate between the normal exposure image 40 and the reference image 44 is calculated (step S22). If the edge reduction rate is greater than or equal to the first edge determination reference value, the process proceeds to step S38 (step S24), and it is determined that the field of view of the imaging unit 32 has been obstructed (step S38). If the edge reduction rate is less than the first edge determination reference value, the process is terminated (step S24).

RGB光源領域が抽出された場合、視野妨害判定手段は、通常露光画像40においてRGB光源領域の周囲の画像領域の平均輝度値を算出する(ステップS26)。平均輝度値が第2輝度判定基準値以上であればステップS30に処理を移行させ、そうでなければ処理を終了させる(ステップS28)。続いて、RGB光源領域の周囲の画像領域の輝度の分散値を算出する(ステップS30)。分散値が第2分散判定基準値以上であればステップS34に処理を移行させ、そうでなければ処理を終了させる(ステップS32)。そして、通常露光画像40と基準画像44とのエッジ減少率を算出する(ステップS34)。エッジ減少率が第2エッジ判定基準値以上であればステップS38に処理を移行させ(ステップS36)、撮影部32に対して視野妨害されたと判定する(ステップS38)。エッジ減少率が第2エッジ判定基準値未満であれば処理を終了させる(ステップS36)。 When the RGB light source area is extracted, the visual field obstruction determining means calculates the average brightness value of the image area around the RGB light source area in the normal exposure image 40 (step S26). If the average brightness value is greater than or equal to the second brightness determination reference value, the process proceeds to step S30, otherwise the process ends (step S28). Subsequently, the brightness variance value of the image area around the RGB light source area is calculated (step S30). If the variance value is greater than or equal to the second variance criterion value, the process proceeds to step S34, otherwise the process ends (step S32). Then, the edge reduction rate between the normal exposure image 40 and the reference image 44 is calculated (step S34). If the edge reduction rate is equal to or greater than the second edge determination reference value, the process proceeds to step S38 (step S36), and it is determined that the field of view of the imaging unit 32 has been obstructed (step S38). If the edge reduction rate is less than the second edge determination reference value, the process is terminated (step S36).

以上のように、本実施の形態によれば、撮影部32に対してレーザポインタを照射された場合であっても高い精度で視野妨害と判定することができる。 As described above, according to the present embodiment, even when the imaging unit 32 is irradiated with the laser pointer, it can be determined with high accuracy that the field of view is disturbed.

上記実施の形態では、光源領域をRGB光源領域と輝度光源領域とに分けていたが、視野妨害判定手段62は、光源領域の種類を設定せずに光源領域に大きさに応じて視野妨害判定処理を行ってもよい。例えば、抽出された光源領域の大きさが領域基準値以上か否かを判定し、抽出された光源領域の面積が領域基準値以上の場合は、光源領域の面積が領域基準値未満の場合よりもエッジ減少率を算出する基準値を低く設定して、視野妨害判定を行う。すなわち、抽出された光源領域の面積が大きい場合は、光源領域が小さい場合よりも光源領域による視野妨害が発生しているため、光源領域以外の画像領域のエッジ減少率を比較せずとも視野妨害と判定するのが好適である。対して光源領域が小さい場合は、光源領域による視野妨害は小さいため、光源領域以外の画像領域のエッジ減少率を光源領域が大きい場合よりも厳しく判定することで、視野妨害と判定するべき現象に対して精度良く判定することができる。なお、光源領域の大きさを判定する基準値は複数あってもよく、光源領域の大きさを多段階に分けてもよい。 In the above embodiment, the light source area is divided into the RGB light source area and the luminance light source area. processing may be performed. For example, it is determined whether or not the size of the extracted light source region is equal to or greater than the region reference value. Also, the reference value for calculating the edge reduction rate is set low, and the visual field obstruction determination is performed. In other words, when the extracted light source region has a large area, visual disturbance due to the light source region occurs more than when the light source region is small. It is preferable to determine that On the other hand, when the light source area is small, the field of view obstruction due to the light source area is small. Therefore, by judging the edge reduction rate of the image area other than the light source area more strictly than when the light source area is large, the phenomenon that should be judged as obstruction of the field of vision can be avoided. can be determined with high accuracy. Note that there may be a plurality of reference values for determining the size of the light source region, and the size of the light source region may be divided into multiple levels.

上記実施の形態では、撮影画像(通常露光画像40及び低露光画像42)一組が視野妨害を判定する条件を満たした場合、視野妨害されたと判定していたが、一組ではなく複数の組の視野妨害判定結果から視野妨害されたか否かを判定してもよい。例えば、6組(6フレーム)中に視野妨害を判定する条件を満たす撮影画像が3組(3フレーム)存在した場合は、視野妨害されたと判定してもよい。 In the above-described embodiment, when a set of captured images (normally exposed image 40 and low-exposed image 42) satisfies the conditions for determining visual field obstruction, it is determined that visual field obstruction has occurred. It may be determined whether or not visual field obstruction has occurred from the visual field obstruction determination result. For example, if there are 3 sets (3 frames) of captured images that satisfy the conditions for determining visual field obstruction among the 6 sets (6 frames), it may be determined that visual field obstruction has occurred.

なお、画像処理装置22は、自装置内の記憶部34に記憶された画像を画像処理するものに限定されない。例えば、他の外部装置から読み出した画像を画像処理したり、外部のカメラから受信した画像を画像処理したりする構成としてもよい。また、カメラを複数設けて、通常露光画像40と低露光画像42とをそれぞれのカメラで撮影するようにしてもよい。その場合、通常露光画像40と低露光画像42とを同時に撮影してもよい。 Note that the image processing device 22 is not limited to processing images stored in the storage unit 34 within the device itself. For example, the configuration may be such that an image read from another external device is subjected to image processing, or an image received from an external camera is subjected to image processing. Alternatively, a plurality of cameras may be provided, and the normal-exposure image 40 and the low-exposure image 42 may be captured by each camera. In that case, the normal-exposure image 40 and the low-exposure image 42 may be shot simultaneously.

上記実施の形態では、レーザポインタの光による光源の抽出及び視野妨害判定と、懐中電灯などのライトの光による光源の抽出及び視野妨害判定とを行っていたが、画像処理装置22は、懐中電灯などの光による光源の抽出及び視野妨害判定する構成は除き、レーザポインタの光による光源の抽出及び視野妨害判定のみを行ってもよい。 In the above-described embodiment, light source extraction and visual field obstruction determination are performed using light from a laser pointer, and light source extraction and visual field obstruction determination are performed using light from a light such as a flashlight. Only extraction of the light source and determination of obstruction of the field of vision by light of the laser pointer may be performed except for the configuration of extracting the light source and determining obstruction of the field of view using light such as the above.

以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。 Although the embodiments according to the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the gist of the present invention.

10 警備システム、12 監視対象物件、14 警備装置、16 通信網、18 警備センタ装置、20 利用者装置、22 画像処理装置、24 録画装置、30 通信部、32 撮影部、34 記憶部、36 制御部、40 通常露光画像、42 低露光画像、44 基準画像、46 飽和基準値、48 輝度基準値、50 輝度判定基準値、50a 第1輝度判定基準値、50b 第2輝度判定基準値、52 エッジ判定基準値、52a 第1エッジ判定基準値、52b 第2エッジ判定基準値、54 分散判定基準値、54a 第1分散判定基準値、54b 第2分散判定基準値、60 光源領域抽出手段、62 視野妨害判定手段。 10 security system, 12 object to be monitored, 14 security device, 16 communication network, 18 security center device, 20 user device, 22 image processing device, 24 recording device, 30 communication unit, 32 imaging unit, 34 storage unit, 36 control part, 40 normal exposure image, 42 low exposure image, 44 reference image, 46 saturation reference value, 48 luminance reference value, 50 luminance judgment reference value, 50a first luminance judgment reference value, 50b second luminance judgment reference value, 52 edge judgment reference value 52a first edge judgment reference value 52b second edge judgment reference value 54 dispersion judgment reference value 54a first dispersion judgment reference value 54b second dispersion judgment reference value 60 light source region extracting means 62 field of view Interference determination means.

Claims (7)

撮影装置により所定空間を順次撮影した撮影画像のうち、第1露光量で撮影した第1撮影画像及び前記第1露光量よりも小さい第2露光量で前記第1撮影画像と同時期に撮影した第2撮影画像を取得する取得手段と、
前記第2撮影画像の各画素のRGB成分の値のうちいずれか一つの成分のみ飽和している画素からなるRGB光源領域を抽出する抽出手段と、
前記RGB光源領域が抽出された場合、前記第1撮影画像における当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の対象画像領域と、過去に前記第1露光量で撮影された基準画像における、当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の基準画像領域と、を比較し、当該基準画像領域よりも当該対象画像領域のエッジ数が第1エッジ判定基準値以上減少している場合、前記撮影装置の視野が妨害されたと判定する視野妨害判定手段と、
を備えることを特徴とする画像処理装置。
A first photographed image photographed with a first exposure amount and photographed at a second exposure amount smaller than the first exposure amount at the same time as the first photographed image among photographed images sequentially photographed of a predetermined space by a photographing device. Acquisition means for acquiring the second captured image;
extracting means for extracting an RGB light source region composed of pixels in which only one of RGB component values of each pixel of the second captured image is saturated;
When the RGB light source region is extracted, the target image other than the region corresponding to the RGB light source region extracted from the second captured image captured at the same time as the first captured image in the first captured image. and a reference other than the area corresponding to the RGB light source area extracted from the second captured image captured at the same time as the first captured image in the reference image captured in the past with the first exposure amount. and a visual field obstruction determining means for determining that the field of view of the photographing device is obstructed when the number of edges of the target image area is smaller than that of the reference image area by a first edge determination reference value or more. and,
An image processing device comprising:
請求項1に記載の画像処理装置であって、
前記抽出手段は、前記第2撮影画像の各画素のRGB成分の値のうちいずれか一つの成分のみ飽和しており残り2つの成分の値が飽和している成分の値と比べて十分に小さい画素からなる画像領域を前記RGB光源領域として抽出することを特徴とする画像処理装置。
The image processing device according to claim 1,
The extraction means is configured such that only one of the RGB component values of each pixel of the second captured image is saturated, and the remaining two component values are sufficiently smaller than the saturated component values. An image processing apparatus, wherein an image area composed of pixels is extracted as the RGB light source area.
請求項1又は2に記載の画像処理装置であって、
前記抽出手段は、さらに前記第2撮影画像の各画素のうち輝度値が輝度基準値以上である画素からなる輝度光源領域を抽出し、
前記視野妨害判定手段は、前記輝度光源領域が抽出された場合、前記第1撮影画像における当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記輝度光源領域に対応する領域以外の対象画像領域と、前記基準画像における、当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記輝度光源領域に対応する領域以外の基準画像領域と、を比較し、当該基準画像領域よりも当該対象画像領域のエッジ数が前記第1エッジ判定基準値よりも大きい第2エッジ判定基準値以上減少していた場合に前記撮影装置の視野が妨害されたと判定することを特徴とする画像処理装置。
The image processing device according to claim 1 or 2,
The extracting means further extracts a luminance light source region composed of pixels having a luminance value equal to or higher than a luminance reference value among the pixels of the second captured image,
When the luminance light source region is extracted, the visual field obstruction determination means determines, in the first captured image , the luminance light source region extracted from the second captured image captured at the same time as the first captured image. a target image area other than the corresponding area; and a reference image area other than the area corresponding to the luminance light source area extracted from the second captured image captured at the same time as the first captured image in the reference image. , and if the number of edges in the target image area is smaller than that in the reference image area by a second edge determination reference value that is larger than the first edge determination reference value, the field of view of the photographing device is obstructed. An image processing apparatus characterized by determining that
請求項3に記載の画像処理装置であって、
前記視野妨害判定手段は、
前記輝度光源領域について、さらに前記輝度光源領域に対応する前記第1撮影画像の画像領域の周囲の画像領域の輝度の分散値が第1分散判定基準値未満である場合に前記撮影装置の視野が妨害されたと判定し、
前記RGB光源領域について、さらに前記RGB光源領域に対応する前記第1撮影画像の画像領域の周囲の画像領域の輝度の分散値が前記第1分散判定基準値以上である第2分散判定基準値以上である場合に前記撮影装置の視野が妨害されたと判定することを特徴とする画像処理装置。
The image processing device according to claim 3,
The visual field obstruction determination means includes:
With respect to the luminance light source region, if the variance value of the luminance of the image region surrounding the image region of the first captured image corresponding to the luminance light source region is less than a first variance determination reference value, the field of view of the photographing device is determined to be disturbed,
For the RGB light source region, furthermore, the luminance variance value of the image region surrounding the image region of the first captured image corresponding to the RGB light source region is equal to or greater than the first variance determination reference value, and is equal to or greater than the second variance determination reference value. An image processing apparatus that determines that the field of view of the imaging device is obstructed when .
請求項1又は2に記載の画像処理装置であって、
前記視野妨害判定手段は、
前記第1撮影画像について抽出された前記RGB光源領域の大きさが所定の領域基準値以下の場合には、前記基準画像領域よりも前記対象画像領域のエッジ数が前記第1エッジ判定基準値よりも高い第2エッジ判定基準値以上減少している場合、前記撮影装置の視野が妨害されたと判定することを特徴とする画像処理装置。
The image processing device according to claim 1 or 2,
The visual field obstruction determination means includes:
When the size of the RGB light source region extracted from the first captured image is equal to or less than a predetermined region reference value, the number of edges of the target image region is greater than that of the reference image region than the first edge determination reference value. and determining that the field of view of the photographing device is obstructed when the edge is also decreased by a second high edge determination reference value or more.
撮影装置により所定空間を順次撮影した撮影画像のうち、第1露光量で撮影した第1撮影画像及び前記第1露光量よりも小さい第2露光量で前記第1撮影画像と同時期に撮影した第2撮影画像を取得する取得手段と、
前記第2撮影画像の各画素のRGB成分の値のうちいずれか2成分の値を合計した値が飽和基準値以上である画素からなるRGB光源領域を抽出する抽出手段と、
前記第1撮影画像における当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の対象画像領域と、当該第1撮影画像より過去に前記第1露光量で撮影された基準画像における、当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の基準画像領域と、を比較し、当該基準画像領域よりも当該対象画像領域のエッジ数がエッジ判定基準値以上減少している場合、前記撮影装置の視野が妨害されたと判定する視野妨害判定手段と、
を備えることを特徴とする画像処理装置。
A first photographed image photographed with a first exposure amount and photographed at a second exposure amount smaller than the first exposure amount at the same time as the first photographed image among photographed images sequentially photographed of a predetermined space by a photographing device. Acquisition means for acquiring the second captured image;
extraction means for extracting an RGB light source region made up of pixels for which a sum of values of any two of RGB component values of each pixel of the second captured image is equal to or greater than a saturation reference value;
A target image region in the first captured image other than the region corresponding to the RGB light source region extracted from the second captured image captured at the same time as the first captured image, and a region past the first captured image. A reference image area other than the area corresponding to the RGB light source area extracted from the second captured image captured at the same time as the first captured image in the reference image captured at the first exposure amount at the time of and, if the number of edges in the target image area is smaller than that in the reference image area by an edge determination reference value or more, a visual field obstruction determination means for determining that the visual field of the photographing device is obstructed;
An image processing device comprising:
コンピュータを、
撮影装置により所定空間を順次撮影した撮影画像のうち、第1露光量で撮影した第1撮影画像及び前記第1露光量よりも小さい第2露光量で前記第1撮影画像と同時期に撮影した第2撮影画像を取得する取得手段と、
前記第2撮影画像の各画素のRGB成分の値のうちいずれか一つの成分のみ飽和している画素からなるRGB光源領域を抽出する抽出手段と、
前記RGB光源領域が抽出された場合、前記第1撮影画像における当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の対象画像領域と、過去に前記第1露光量で撮影された基準画像における、当該第1撮影画像と同時期に撮影された前記第2撮影画像から抽出された前記RGB光源領域に対応する領域以外の基準画像領域と、を比較し、当該基準画像領域よりも当該対象画像領域のエッジ数が第1エッジ判定基準値以上減少している場合、前記撮影装置の視野が妨害されたと判定する視野妨害判定手段と、
して機能させることを特徴とする画像処理プログラム。
the computer,
A first photographed image photographed with a first exposure amount and photographed at a second exposure amount smaller than the first exposure amount at the same time as the first photographed image among photographed images sequentially photographed of a predetermined space by a photographing device. Acquisition means for acquiring the second captured image;
extracting means for extracting an RGB light source region composed of pixels in which only one of RGB component values of each pixel of the second captured image is saturated;
When the RGB light source region is extracted, the target image other than the region corresponding to the RGB light source region extracted from the second captured image captured at the same time as the first captured image in the first captured image. and a reference other than the area corresponding to the RGB light source area extracted from the second captured image captured at the same time as the first captured image in the reference image captured in the past with the first exposure amount. and a visual field obstruction determining means for determining that the field of view of the photographing device is obstructed when the number of edges of the target image area is smaller than that of the reference image area by a first edge determination reference value or more. and,
An image processing program characterized by functioning as
JP2019067975A 2019-03-29 2019-03-29 Image processing device and image processing program Active JP7252815B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019067975A JP7252815B2 (en) 2019-03-29 2019-03-29 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019067975A JP7252815B2 (en) 2019-03-29 2019-03-29 Image processing device and image processing program

Publications (2)

Publication Number Publication Date
JP2020167585A JP2020167585A (en) 2020-10-08
JP7252815B2 true JP7252815B2 (en) 2023-04-05

Family

ID=72714190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019067975A Active JP7252815B2 (en) 2019-03-29 2019-03-29 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP7252815B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134504A (en) 2001-10-25 2003-05-09 Secom Co Ltd Mask detector and monitor camera system
JP2005252479A (en) 2004-03-02 2005-09-15 Mitsubishi Electric Corp Surveillance camera block detector

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3096609B2 (en) * 1995-04-03 2000-10-10 オプテックス株式会社 Infrared security alarm

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134504A (en) 2001-10-25 2003-05-09 Secom Co Ltd Mask detector and monitor camera system
JP2005252479A (en) 2004-03-02 2005-09-15 Mitsubishi Electric Corp Surveillance camera block detector

Also Published As

Publication number Publication date
JP2020167585A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
US8477232B2 (en) System and method to capture depth data of an image
JP4718253B2 (en) Image abnormality detection device for surveillance camera
US9313415B2 (en) Method and system for adjusting exposure settings of video cameras
JP4767240B2 (en) Method and apparatus for detecting video boundary and computer-readable recording medium embodying the same
KR100922784B1 (en) Image base fire sensing method and system of crime prevention and disaster prevention applying method thereof
US9569688B2 (en) Apparatus and method of detecting motion mask
EP3080788B1 (en) Flame detection system and method
JP2014053855A (en) Image processing device and method, and program
KR101695246B1 (en) Device for estimating light source and method thereof
US20200380649A1 (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
KR101224548B1 (en) Fire imaging detection system and method
JP6536567B2 (en) Detection apparatus, detection method, and computer program
KR20180089249A (en) Method for diagnosing fault of camera
JP2004222231A (en) Image processing apparatus and image processing program
US10432854B2 (en) Image processing apparatus to determine whether there is fog or mist in a captured image
JP7252815B2 (en) Image processing device and image processing program
KR20060041555A (en) System and method for detecting and alarming a fire of thermal power plants
JP4853657B2 (en) Image processing device
US20210271868A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP2003270037A (en) Flame detector
JP7328778B2 (en) Image processing device and image processing program
JP7233994B2 (en) Image processing device and image processing program
KR101367103B1 (en) Apparatus and method for determining back light
JP2021038871A (en) Method of observing combustion field, observation device, and observation program
KR101637637B1 (en) Method and apparatus for local auto exposure in video sensor systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230324

R150 Certificate of patent or registration of utility model

Ref document number: 7252815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150