JP2003169321A - Image sensor and monitoring camera apparatus - Google Patents

Image sensor and monitoring camera apparatus

Info

Publication number
JP2003169321A
JP2003169321A JP2001367087A JP2001367087A JP2003169321A JP 2003169321 A JP2003169321 A JP 2003169321A JP 2001367087 A JP2001367087 A JP 2001367087A JP 2001367087 A JP2001367087 A JP 2001367087A JP 2003169321 A JP2003169321 A JP 2003169321A
Authority
JP
Japan
Prior art keywords
image
exposure
section
state
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001367087A
Other languages
Japanese (ja)
Other versions
JP3862558B2 (en
Inventor
Yoshi Marukawa
佳 丸川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2001367087A priority Critical patent/JP3862558B2/en
Publication of JP2003169321A publication Critical patent/JP2003169321A/en
Application granted granted Critical
Publication of JP3862558B2 publication Critical patent/JP3862558B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image sensor and a monitoring camera apparatus for acquiring images having a different amount of exposure and at the same time inhibiting the number of images to be analyzed for rational image processing. <P>SOLUTION: The monitoring camera apparatus comprises a control section 101, a power supply section 102 for supplying power to each section, a lighting section 103 for lighting a monitored region, an imaging section 104 for imaging the image of the monitored region, an image-processing section 10 for analyzing the change region of images, a storage section 106, and an output section 107 for outputting the detection result via an external communication line. The control section 101 acquires two types of images having different lighting states and exposure stages by controlling the light section 103 to normal lighting and direct close lighting, and at the same time by switching the imaging section 104 to high exposure and low exposure for control. In the image-processing section 105, the brightness of these two kinds of images is appropriately corrected for analysis, thus discriminating a non-detection target such as an insect existing extremely close to the imaging section 104, and preventing an intruder to be detected originally from being detected by mistake. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮像手段によって
画像を撮影し、撮影された画像を解析する画像センサ、
及び、撮像手段によって監視領域の画像を撮影し、撮影
された画像を解析して検知対象の存在を検知する監視カ
メラ装置の技術分野に属するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image sensor for capturing an image by an image capturing means and analyzing the captured image.
Also, it belongs to the technical field of a surveillance camera device that captures an image of a surveillance region by an imaging means and analyzes the captured image to detect the presence of a detection target.

【0002】[0002]

【従来の技術】従来の画像センサとしては、所望の監視
領域を継続して撮影し、撮影した画像から侵入者の有無
を判定する監視カメラ装置が知られている。この種の監
視カメラ装置では、所定の時間間隔で撮影された複数の
画像を比較し、その変化を解析することにより侵入者を
検知する。一般に、解析対象として複数の画像を用いる
場合、シャッター速度や絞りに基づく露出が一致した状
態で各画像を撮影する必要がある。これは、露出が異な
った複数の画像を比較する場合、特定の被写体において
輝度値の相対的な相違が画像上に現れるため、適正な画
像解析を行うことができなくなるからである。
2. Description of the Related Art As a conventional image sensor, a surveillance camera device is known in which a desired surveillance region is continuously photographed and the presence or absence of an intruder is determined from the photographed image. This type of surveillance camera device detects an intruder by comparing a plurality of images taken at predetermined time intervals and analyzing the change. Generally, when a plurality of images are used as an analysis target, it is necessary to capture each image in a state where the exposures based on the shutter speed and the aperture match. This is because when a plurality of images with different exposures are compared, a relative difference in the brightness value appears on the image in a specific subject, so that proper image analysis cannot be performed.

【0003】ところで、監視カメラ装置には、人間以外
にも監視領域に飛来する虫等が外乱として検知される可
能性がある。特に、監視カメラ装置の直近に虫が存在
し、そのサイズが画像内で人間程度になる場合が問題と
なる。このような状況下で非検出対象の虫等により、誤
って侵入者を検知されることを防止するため、飛来した
虫等を人間と区別するための対策が必要となる。一方、
監視カメラ装置には、監視領域が暗い場合であっても侵
入者を検出し得るように照明手段を設けるのが一般的な
構成である。そして、このような照明手段において、光
量や光の照射範囲を切り替えて画像を撮影し、監視カメ
ラ装置における虫等の判定に利用することができる。す
なわち、監視領域全域の照明と、監視カメラ装置の直近
に限定した照明とを用いて取得された2つの画像を比較
し、両者の差を求めることにより、近傍に虫等が存在す
ることを認識することができる。この場合、2つの画像
を適正に比較するには、上記の露出量を撮影時に一定に
なるように設定する必要がある。
By the way, the surveillance camera device may detect insects and the like flying into the surveillance area as disturbances in addition to humans. In particular, there is a problem when an insect is present in the immediate vicinity of the surveillance camera device and the size of the insect is about human in the image. In such a situation, in order to prevent an intruder from being mistakenly detected by a non-detection target insect or the like, it is necessary to take measures to distinguish the flying insect or the like from a human. on the other hand,
The surveillance camera device is generally provided with an illumination means so that an intruder can be detected even when the surveillance area is dark. Then, in such an illumination means, it is possible to switch the amount of light and the irradiation range of the light to capture an image, and use the image to determine an insect or the like in the surveillance camera device. That is, it is possible to recognize that a bug or the like exists in the vicinity by comparing two images acquired by using the illumination of the entire surveillance area and the illumination limited to the immediate vicinity of the surveillance camera device and obtaining the difference between the two images. can do. In this case, in order to properly compare the two images, it is necessary to set the exposure amount to be constant at the time of shooting.

【0004】[0004]

【発明が解決しようとする課題】しかし、上記従来の監
視カメラ装置において、虫等の検知を行う場合、画像の
ダイナミックレンジの制約が問題となる。すなわち、監
視カメラ装置の直近に限定した照明を施したとき、虫等
の反射光により画像のダイナミックレンジを越える可能
性がある。よって、直近に限定した照明を用いる場合、
低露出に設定する必要が生じる。この場合、上述したよ
うに2つの画像で露出量を一定にすべく、監視領域全域
の照明時も低露出に設定せざるを得なくなる。そのた
め、監視領域の検出対象が暗く撮影されることになり、
侵入者を判定するための画像処理には適さない。
However, in the above-described conventional surveillance camera device, when detecting insects and the like, the restriction of the dynamic range of the image becomes a problem. In other words, when limited illumination is provided in the immediate vicinity of the surveillance camera device, the reflected light of insects or the like may exceed the dynamic range of the image. Therefore, when using the most limited lighting,
It will be necessary to set a low exposure. In this case, in order to make the exposure amount constant for the two images as described above, it is unavoidable to set low exposure even during illumination of the entire monitoring region. Therefore, the detection target of the monitoring area will be photographed darkly,
It is not suitable for image processing to determine an intruder.

【0005】上記従来の監視カメラ装置において、虫等
の検知とダイナミックレンジの拡大とを両立させるため
には、監視領域全域の照明時の画像とは別に、直近に限
定した照明を用いるときに露出の異なる複数の画像を撮
影し、これらを組み合わせて画像処理を行う必要があ
る。従って、虫等の検知を目的とした画像が増加し、そ
れにより侵入者を検知するための画像の枚数が制約を受
けることが問題となる。
In the above conventional surveillance camera device, in order to achieve both detection of insects and expansion of the dynamic range, in addition to the image at the time of illumination of the entire surveillance area, exposure is performed when illumination is limited to the immediate vicinity. It is necessary to take a plurality of different images and combine them to perform image processing. Therefore, there is a problem in that the number of images for detecting insects and the like increases, which limits the number of images for detecting an intruder.

【0006】そこで、本発明はこのような問題に鑑みな
されたものであり、撮影時の露出量と画像の輝度値の相
関関係に着目し、例えば、虫等の検知ロジックなどの画
像処理を組み込む場合であっても、用いる画像の枚数を
抑えて合理的な画像処理を行うことができる画像センサ
及び監視カメラ装置を提供することを目的とする。
Therefore, the present invention has been made in view of such a problem, and pays attention to the correlation between the exposure amount at the time of photographing and the brightness value of the image, and incorporates image processing such as a logic for detecting insects and the like. Even in such a case, it is an object of the present invention to provide an image sensor and a surveillance camera device capable of performing rational image processing while suppressing the number of images used.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に、請求項1に記載の画像センサは、画像を撮影する撮
像手段と、前記撮像手段の露出量を時間に応じて切り替
え制御する露出量制御手段と、撮影された画像の前記露
出量の相違に対応する輝度値の相違を補正し、補正後の
画像に基づいて変化領域を解析する画像処理手段とを備
えることを特徴とする。
In order to solve the above-mentioned problems, an image sensor according to a first aspect of the present invention is an image sensor that captures an image and an exposure that controls the exposure amount of the image sensor according to time. It is characterized by comprising an amount control means and an image processing means for correcting a difference in brightness value corresponding to a difference in the exposure amount of a photographed image and analyzing a change area based on the corrected image.

【0008】この発明によれば、撮像手段で撮影される
画像のダイナミックレンジを拡大するために露出量が時
間に応じて切り替えられる。この露出量の相違は画像の
輝度値の相違となって現れるので、その相関関係を考慮
して画像の補正を行った上で、画像の変化領域の解析を
行う。従って、異なる露出量にて撮影された画像を比較
したときに適切に画像の解析を行うことができる。この
とき、照明状態などの条件を変えて異なる画像を取得す
れば、必要な画像の枚数を増加させることなく合理的な
画像処理を実現することができる。
According to the present invention, the exposure amount is switched according to time in order to expand the dynamic range of the image taken by the image pickup means. Since the difference in the exposure amount appears as the difference in the brightness value of the image, the correlation of the image is corrected and the image is corrected, and then the changed region of the image is analyzed. Therefore, it is possible to appropriately analyze images when comparing images taken with different exposure amounts. At this time, if different images are acquired by changing the conditions such as the illumination state, rational image processing can be realized without increasing the number of required images.

【0009】請求項2に記載の画像センサは、請求項1
に記載の画像センサにおいて、前記露出量制御手段は、
低露出と高露出の2段階を交互に切り替え、前記画像処
理手段は、高露出の画像を基準として低露出の画像の輝
度値を補正することを特徴とする。
The image sensor according to claim 2 is the image sensor according to claim 1.
In the image sensor described in above, the exposure amount control means,
The low-exposure image and the high-exposure image are alternately switched, and the image processing means corrects the brightness value of the low-exposure image with the high-exposure image as a reference.

【0010】この発明によれば、撮影時に2段階の露出
量を切り替え制御し、それぞれに対応する輝度値の相違
を補正する際の基準を高露出の画像としたので、画像に
含まれる情報量がより多い状態で精度の高い解析を行う
ことができる。
According to the present invention, the exposure amount in two steps is controlled to be switched at the time of photographing, and the reference for correcting the difference in the brightness value corresponding to each is set to the high-exposure image. It is possible to perform highly accurate analysis in a state where there are more.

【0011】請求項3に記載の監視カメラ装置は、監視
領域の画像を撮影する撮像手段と、前記撮像手段の直近
のみを照明する直近照明を施す照明手段と、前記直近照
明を施すとともに前記撮像手段を所定露出とする第1の
状態と、前記直近照明を施さずに前記撮像手段を前記所
定露出と異なる露出とする第2の状態とを切り替え制御
する状態制御手段と、前記第1の状態の画像と前記第2
の状態の画像における前記露出量の相違に対応する輝度
値の相違を補正し、補正後の画像に基づいて変化領域を
解析し、前記監視領域における検出対象である移動体を
判定する画像処理手段とを備えることを特徴とする。
According to a third aspect of the present invention, there is provided a surveillance camera device, which comprises an image pickup means for picking up an image of a surveillance area, an illuminating means for illuminating only the immediate vicinity of the image pickup means, and the near illuminant and the image pickup. State control means for switching control between a first state in which the means is set to a predetermined exposure and a second state in which the image pickup means is set to an exposure different from the predetermined exposure without performing the nearest illumination, and the first state Image and the second
An image processing unit that corrects the difference in brightness value corresponding to the difference in the exposure amount in the image in the state of 1), analyzes the change region based on the corrected image, and determines the moving body that is the detection target in the monitoring region. And is provided.

【0012】この発明によれば、監視カメラ装置により
監視領域を撮影する場合、画像のダイナミックレンジを
拡大するための露出量と、非検出対象を検知するための
照明状態とを時間に応じて切り替えて、2つの状態に対
応する画像を取得する。そして、露出量の相違は画像の
輝度値の相違となって現れるので、その相関関係を考慮
して画像の補正を行った上で、画像の変化領域の解析を
行って検出対象である移動体の判定を行う。従って、異
なる露出量にて撮影された画像を比較したときに検出対
象の存在を高精度に判定することができる。このとき、
露出状態と照明状態の両者を変えるときの画像が2種で
よいため、画像の枚数を増加させることなく合理的な処
理を実現することができる。なお、所定露出は、監視領
域の状態、監視目的等に応じて適宜設定される。
According to the present invention, when the surveillance area is photographed by the surveillance camera device, the exposure amount for expanding the dynamic range of the image and the illumination state for detecting the non-detection target are switched according to time. Then, the images corresponding to the two states are acquired. Since the difference in the exposure amount appears as the difference in the brightness value of the image, the image is corrected in consideration of the correlation, and then the changed area of the image is analyzed to detect the moving object. Is determined. Therefore, it is possible to highly accurately determine the presence of the detection target when comparing images captured with different exposure amounts. At this time,
Since only two types of images are required when changing both the exposure state and the illumination state, rational processing can be realized without increasing the number of images. The predetermined exposure is appropriately set according to the state of the monitoring area, the monitoring purpose, and the like.

【0013】請求項4に記載の監視カメラ装置は、請求
項3に記載の監視カメラ装置において、前記画像処理手
段は、前記第1の状態の画像と前記第2の状態の画像と
を比較して、前記直近照明の影響を受ける移動体を、前
記撮像手段の直近に存在する非検出対象として判定する
ことを特徴とする。
According to a fourth aspect of the present invention, in the surveillance camera apparatus according to the third aspect, the image processing means compares the image in the first state with the image in the second state. Then, the moving body affected by the closest illumination is determined as a non-detection target existing in the immediate vicinity of the imaging unit.

【0014】この発明によれば、請求項3に記載の発明
の作用に加えて、露出量の状態と照明状態が異なる2つ
の画像との比較によって、移動体が直近照明の影響を受
けることを解析し、それにより撮像手段の直近に存在す
る非検出対象を判定する。従って、監視カメラ装置の直
近に虫等が存在し、そのサイズが画像内で人と同程度に
なる状況において、これを確実に検知して侵入者の誤検
知を有効に防止することができる。
According to the present invention, in addition to the operation of the invention described in claim 3, the moving object is influenced by the closest illumination by comparing the two images having different exposure states and different illumination states. The non-detection target existing in the immediate vicinity of the image pickup means is determined by the analysis. Therefore, in the situation where insects or the like exist in the immediate vicinity of the surveillance camera device and the size thereof is about the same as that of a person in the image, it is possible to reliably detect this and effectively prevent erroneous detection of an intruder.

【0015】請求項5に記載の監視カメラ装置は、請求
項4に記載の監視カメラ装置において、画像の輝度値が
飽和する飽和領域を判別し、前記変化領域から前記飽和
領域を除いた領域において前記移動体を判定することを
特徴とする。
According to a fifth aspect of the present invention, in the surveillance camera device according to the fourth aspect, a saturated region in which the brightness value of an image is saturated is discriminated, and in the region excluding the saturated region from the change region. It is characterized in that the moving body is determined.

【0016】この発明によれば、監視カメラ装置で撮影
された画像において輝度値が飽和する場合、飽和領域を
判別して上記の画像処理において飽和領域を除外する。
従って、輝度値が飽和して信頼性が低くなる領域を画像
処理に反映させないようにして、より信頼性の高い画像
処理を行うことができる。
According to the present invention, when the brightness value is saturated in the image photographed by the surveillance camera device, the saturated region is discriminated and the saturated region is excluded in the above image processing.
Therefore, it is possible to perform the image processing with higher reliability by not reflecting the area where the brightness value is saturated and the reliability becomes low in the image processing.

【0017】[0017]

【発明の実施の形態】以下、本発明の好適な実施の形態
を図面に基づいて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below with reference to the drawings.

【0018】図1は、本発明を適用した一形態としての
監視カメラ装置の機能ブロック図である。図1に示す監
視カメラ装置には、制御部101、電源部102、照明
部103、撮像部104、画像処理部105、記憶部1
06、出力部107を含んでいる。
FIG. 1 is a functional block diagram of a surveillance camera apparatus as one embodiment to which the present invention is applied. The monitoring camera device shown in FIG. 1 includes a control unit 101, a power supply unit 102, an illumination unit 103, an imaging unit 104, an image processing unit 105, and a storage unit 1.
06, the output unit 107 is included.

【0019】以上の構成において、制御部101は、C
PU等から構成され、監視カメラ装置全体の動作を制御
するとともに、後述するように記憶部106に保持され
るプログラムに従って本発明の各種判定処理等を実行す
る。また、電源部102は、制御部101の制御の下、
監視カメラ装置の各部に電力を供給する役割を担い、外
部から電源部102にAC電源を供給する構成になって
いる。
In the above structure, the control unit 101 is
It is composed of a PU or the like and controls the operation of the entire surveillance camera device, and executes various determination processes and the like of the present invention according to a program stored in the storage unit 106 as described later. Further, the power supply unit 102, under the control of the control unit 101,
It plays a role of supplying electric power to each unit of the surveillance camera device, and is configured to supply AC power to the power supply unit 102 from the outside.

【0020】照明部103は、監視領域が暗い場合に画
像を識別するための光を照射する手段である。後述する
ように、照明部103は、監視領域全域に広く光を照射
する通常照明装置と、監視カメラ装置の直近の領域のみ
に光を照射する直近照明装置とを含んで構成される。ま
た、撮像部104は、光学系及びCCD素子等の撮像素
子から構成され、監視領域を撮影した画像に対応するア
ナログ信号をディジタル画像信号に変換して出力する。
撮像部104からのディジタル画像信号は、計時手段
(不図示)に基づいて所定の時間間隔で順次出力され
る。なお、監視領域を撮影するときの露出状態として、
後述するように画像の擬似的なダイナミックレンジ拡大
のために低露出状態と高露出状態の2つを切り替え可能
になっている。なお、露出状態は2通りに限られず、3
通り以上に切り替え可能にしてもよい。
The illumination unit 103 is means for irradiating light for identifying an image when the monitoring area is dark. As will be described later, the illuminating unit 103 includes a normal illuminating device that radiates light widely over the entire surveillance region and a direct illuminating device that illuminates light only in the region closest to the surveillance camera device. Further, the image pickup unit 104 includes an optical system and an image pickup element such as a CCD element, and converts an analog signal corresponding to an image obtained by photographing the monitoring area into a digital image signal and outputs the digital image signal.
Digital image signals from the image pickup unit 104 are sequentially output at predetermined time intervals based on a time measuring means (not shown). In addition, as the exposure state when shooting the surveillance area,
As will be described later, it is possible to switch between a low-exposure state and a high-exposure state in order to expand the pseudo dynamic range of the image. It should be noted that the exposure state is not limited to 2 types, and 3
You may be able to switch more than the street.

【0021】画像処理部105は、制御部101の制御
の下、撮像部104からのディジタル画像信号を処理す
る手段であり、画像処理用ICや画像用メモリ等から構
成される。画像処理部105では、撮像部104で得ら
れたディジタル画像信号を2値化するとともに、後述の
判定処理に必要なパラメータや属性情報などの算出と、
それらを用いた画像の解析とを行う。そして、画像処理
部105での処理結果は制御部101に出力され侵入者
の有無を判別する際に利用される。また、記憶部106
には、上記のプログラムに加えて、画像処理部105の
処理対象である画像データや演算に必要なパラメータ、
監視領域の状態や監視カメラ装置の動作モードなどの各
種情報が更新可能に記憶されている。また、出力部10
7は、最終的な検知結果を外部の通信回線を経由して出
力する手段であり、例えば警報装置やベルなどを経由し
て通報されることになる。
The image processing section 105 is a means for processing a digital image signal from the image pickup section 104 under the control of the control section 101, and is composed of an image processing IC, an image memory and the like. The image processing unit 105 binarizes the digital image signal obtained by the image pickup unit 104, calculates parameters and attribute information necessary for the determination process described later, and
Image analysis using them is performed. Then, the processing result of the image processing unit 105 is output to the control unit 101 and is used when determining the presence or absence of an intruder. In addition, the storage unit 106
Includes, in addition to the above program, image data to be processed by the image processing unit 105 and parameters necessary for calculation,
Various types of information such as the state of the surveillance area and the operation mode of the surveillance camera device are stored so that they can be updated. Also, the output unit 10
Reference numeral 7 is a means for outputting the final detection result via an external communication line, and is notified via, for example, an alarm device or a bell.

【0022】次に、本実施形態の監視カメラ装置におけ
る検知方法の概念について説明する。上述の画像処理部
105で抽出される2値化画像は、予め設定された基準
画像と所定の時間間隔で取得される撮影画像との差分を
とることによって算出される。ここで、基準画像とは、
検出領域に検出対象(人)が存在しない状態における監
視領域の画像であり、監視カメラ装置の初期設置時に予
め記憶されている。そして、監視領域において基準画像
に存在しない侵入者等の移動体が写ると、その時点の画
像で変化が現れる変化領域を求めることにより、移動体
が存在する領域を識別し得る。このような変化領域を時
間経過によって常に抽出し続け、所定のアルゴリズムに
基づいて移動体が侵入者であるか否かを判定することが
できる。
Next, the concept of the detection method in the surveillance camera apparatus of this embodiment will be described. The binarized image extracted by the image processing unit 105 described above is calculated by taking the difference between the reference image set in advance and the captured image acquired at a predetermined time interval. Here, the reference image is
It is an image of the monitoring area in a state where no detection target (person) exists in the detection area, and is stored in advance when the monitoring camera device is initially installed. Then, when a moving object such as an intruder that does not exist in the reference image is captured in the monitoring area, the area in which the moving object exists can be identified by obtaining the changed area in which the change appears in the image at that time. It is possible to continuously extract such a change area over time and determine whether or not the moving body is an intruder based on a predetermined algorithm.

【0023】一方、図2は、監視領域において非検出対
象の虫等が存在する状況を説明する図である。図2
(a)においては、監視カメラ装置の近辺に虫が飛来し
た状況を示すとともに、図2(b)においては、監視カ
メラ装置の表面に虫が張り付いている状況を示す。いず
れの状況であっても、虫が監視領域における移動体とし
て認識される。この場合、監視カメラ装置と虫との距離
が近いため、画像内でのサイズが人と同程度になるの
で、誤検出のおそれがある。本実施形態においては、監
視カメラ装置の照明状態及び露出状態の適切な切り替え
制御と画像処理のアルゴリズムとにより、本来の検出対
象から虫等の非検出対象を明確に区別し得る検知方法を
採用している。
On the other hand, FIG. 2 is a diagram for explaining a situation in which there is a non-detection target insect or the like in the monitoring area. Figure 2
FIG. 2A shows a situation where insects fly near the surveillance camera device, and FIG. 2B shows a situation where insects stick to the surface of the surveillance camera device. In any situation, the insect is recognized as a moving body in the surveillance area. In this case, since the surveillance camera device and the insect are close to each other, the size in the image is about the same as that of a person, which may cause erroneous detection. In the present embodiment, a detection method capable of clearly distinguishing a non-detection target such as a bug from an original detection target by an appropriate switching control of the illumination state and the exposure state of the surveillance camera device and an image processing algorithm is adopted. ing.

【0024】次に図3は、本実施形態の監視カメラ装置
の装置構成を示す図である。図3においては、監視カメ
ラ装置を構成する部材として、撮像部104に対応する
カメラ201と、照明部103に含まれる通常照明装置
202及び直近照明層装置203と、透明カバー204
と、レンズ面205と、プリズム206とが示されてい
る。
Next, FIG. 3 is a diagram showing the device configuration of the surveillance camera device of this embodiment. In FIG. 3, as members constituting the surveillance camera device, a camera 201 corresponding to the imaging unit 104, a normal illumination device 202 and a closest illumination layer device 203 included in the illumination unit 103, and a transparent cover 204.
, A lens surface 205 and a prism 206 are shown.

【0025】以上の構成において、監視カメラ装置の中
央部にはカメラ201が設置されている。カメラ201
は、レンズと撮像素子が一体化された構造であり、レン
ズ面205を介して監視領域を所定のタイミングで撮影
する。カメラ201の周囲には、遠端側に通常照明装置
202が配置されるとともに、近端側に直近照明装置2
03が配置され、それぞれ別々に点灯制御することがで
きる。これら通常照明装置202及び直近照明装置20
3は、例えば複数の照明用LEDにより構成される。な
お、通常照明装置202及び直近照明装置203は、カ
メラ201と一体となって監視カメラ装置中央部の軸の
周囲を回動可能に構成されている。
In the above structure, the camera 201 is installed at the center of the surveillance camera device. Camera 201
Is a structure in which a lens and an image pickup element are integrated, and images the monitoring area through the lens surface 205 at a predetermined timing. Around the camera 201, the normal illumination device 202 is arranged on the far end side, and the closest illumination device 2 is arranged on the near end side.
03 are arranged, and lighting can be controlled separately. The normal lighting device 202 and the closest lighting device 20
3 is composed of, for example, a plurality of lighting LEDs. It should be noted that the normal lighting device 202 and the closest lighting device 203 are configured to be integrated with the camera 201 so as to be rotatable around an axis in the central portion of the surveillance camera device.

【0026】まず、通常照明装置202を点灯させた状
態では、透明カバー204を介して監視領域全体が照明
される。この場合、通常照明装置202からの光は、図
3のA方向の範囲には照射されるが、プリズム206の
突出部分によって遮蔽される図3のB方向の範囲には届
かない。
First, when the normal illumination device 202 is turned on, the entire monitoring area is illuminated via the transparent cover 204. In this case, the light from the normal illumination device 202 is applied to the area in the A direction in FIG. 3, but does not reach the area in the B direction in FIG. 3 which is blocked by the protruding portion of the prism 206.

【0027】一方、直近照明装置203を点灯させた状
態では、レンズ面205を介してカメラ201の直近の
領域が照明される。この場合、直近照明装置203から
の光は、プリズム206を通して屈折し、レンズ面20
5上部のB方向(図3)の範囲にのみ光が照射されるこ
とになり、それより外部の領域には届かない。
On the other hand, in the state where the closest illuminating device 203 is turned on, the area closest to the camera 201 is illuminated via the lens surface 205. In this case, the light from the closest illuminating device 203 is refracted through the prism 206 and the lens surface 20.
The light is irradiated only in the area in the B direction (FIG. 3) on the upper part of the area 5, and does not reach the area outside the area.

【0028】また、カメラ201は、図示しない機構に
よって低露出状態と高露出状態とを切り替えることがで
きる。一般に監視カメラ装置による監視領域において
は、非常に明るい箇所と非常に暗い箇所が混在するの
で、良好な画質を確保するには画像のダイナミックレン
ジを擬似的に拡大する必要がある。そのため、非常に暗
い箇所をある程度明るく撮影できる高露出状態と、非常
に明るい箇所をある程度暗く撮影できる低露出状態とを
切り替え制御することが有効である。本実施形態では、
カメラ201の低露出状態に対する高露出状態の露出量
が、例えば8倍となるように設定される。なお、実際の
カメラ201の露出量は、シャッター速度を調整するこ
とにより切り替え可能である。
Further, the camera 201 can switch between a low exposure state and a high exposure state by a mechanism (not shown). Generally, in a surveillance area of a surveillance camera device, a very bright portion and a very dark portion coexist, so it is necessary to artificially expand the dynamic range of the image in order to secure good image quality. Therefore, it is effective to control switching between a high-exposure state in which a very dark place can be photographed to a certain degree bright and a low-exposure state in which a very bright place can be photographed to a certain degree dark. In this embodiment,
The exposure amount of the camera 201 in the high exposure state with respect to the low exposure state is set to be eight times, for example. Note that the actual exposure amount of the camera 201 can be switched by adjusting the shutter speed.

【0029】そして、上述したような監視カメラ装置の
照明状態と露出状態とを組み合わせて、カメラ201に
より2種類の画像を撮影する。図4において、本実施形
態の2種類の画像である第1の画像及び第2の画像に関
し、撮影時の制御条件を対比して示している。まず、第
1の画像は、通常照明装置202を点灯し、直近照明装
置203を消灯するとともに、高露出状態となる条件で
制御される。また、第2の画像は、通常照明装置202
と直近照明装置203をいずれも点灯するとともに、低
露出状態となるように制御される。そして、撮影された
2種類の画像を用いて、高いダイナミックレンジを持つ
補正画像が生成される。
Then, two types of images are taken by the camera 201 by combining the illumination state and the exposure state of the surveillance camera device as described above. In FIG. 4, the control conditions at the time of shooting are shown in comparison for the first image and the second image, which are the two types of images of this embodiment. First, the first image is controlled under the condition that the normal illumination device 202 is turned on and the closest illumination device 203 is turned off, and the high exposure state is obtained. Also, the second image is the normal illumination device 202.
And the closest illuminating device 203 are both turned on and controlled so as to be in a low exposure state. Then, a corrected image having a high dynamic range is generated using the two types of captured images.

【0030】このように、本実施形態のカメラ装置で
は、露出状態と照明状態の双方を切り替えて制御し、2
種類の画像を取得している。一般には、後述の虫判定の
ために照明状態を切り替える一方、それとは独立して、
ダイナミックレンジの拡大のために露出状態を切り替え
ることなると、必要な画像が多くなる。これに対し、本
実施形態では、露出量と画像の輝度値との相関関係に着
目し、2種類の画像から生成された補正画像を解析対象
とするので、必要な画像は2種で済む。そのため、画像
を記憶する場合に必要な容量を抑えることができる。
As described above, in the camera device according to the present embodiment, both the exposure state and the illumination state are switched and controlled.
Acquiring a type of image. In general, while switching the lighting state for insect determination, which will be described later, independently of that,
When the exposure state is switched to expand the dynamic range, more images are needed. On the other hand, in the present embodiment, attention is focused on the correlation between the exposure amount and the brightness value of the image, and the corrected image generated from the two types of images is the analysis target. Therefore, only two types of images are required. Therefore, it is possible to reduce the capacity required for storing the image.

【0031】次に、図5〜図7を参照して、本実施形態
の検知ロジックについて説明する。図5は、監視カメラ
装置において実行される検知ロジックの処理全体の流れ
を説明するフローチャートである。まず、計時手段によ
って示される所定のタイミングで、図3に示す第1の画
像に対応する設定を行った状態で、撮像部104により
現画像を撮影して取り込む(ステップS1)。続いて、
図3に示す第2の画像に対応する設定を行った状態で、
撮像部104により現画像を撮影して取り込む(ステッ
プS2)。これら第1の画像と第2の画像は、それぞれ
記憶部106に順次保持される。
Next, the detection logic of this embodiment will be described with reference to FIGS. FIG. 5 is a flowchart illustrating the flow of the entire processing of the detection logic executed in the surveillance camera device. First, the current image is captured and captured by the image capturing unit 104 in a state where the setting corresponding to the first image shown in FIG. 3 is made at a predetermined timing indicated by the timing means (step S1). continue,
With the settings corresponding to the second image shown in FIG. 3,
The current image is captured and captured by the image capturing unit 104 (step S2). The first image and the second image are sequentially stored in the storage unit 106.

【0032】次に、ステップS1の第1の画像とステッ
プS2の第2の画像とを用いて演算を行って、ダイナミ
ックレンジが拡大された補正画像を生成する(ステップ
S3)。ここで、ステップS3においては、画像を構成
する画素ごとに次式に従って演算を行う。 P3 = P1×α + P2×(1−α) (1) ただし、P1:第1の画像の画素値 P2:第2の画像の画素値 P3:補正画像の画素値 α:0≦α≦1(αは実験的に求めたパラメータ) 上記(1)式の演算により得た補正画像は、監視領域内
の各部で明るさが大きく異なる場合であっても良好な画
像を得ることができる。なお、本実施形態における補正
画像に基づく検知ロジックの基本的な考え方については
後述する。
Next, calculation is performed using the first image in step S1 and the second image in step S2 to generate a corrected image with an expanded dynamic range (step S3). Here, in step S3, the calculation is performed for each pixel forming the image according to the following equation. P3 = P1 × α + P2 × (1-α) (1) where P1: pixel value of the first image P2: pixel value of the second image P3: pixel value of the corrected image α: 0 ≦ α ≦ 1 (Α is an experimentally obtained parameter) The corrected image obtained by the calculation of the above formula (1) can obtain a good image even when the brightness in each part in the monitoring area is significantly different. The basic idea of the detection logic based on the corrected image in this embodiment will be described later.

【0033】次に、一般的な手法を用いて監視領域内に
存在する移動体の有無を検出する(ステップS4)。具
体的には、上述した基準画像と補正画像とを比較して両
者の差分を求めた後、監視領域において時間経過により
変化が現れる変化領域を抽出し、それを画像中の移動体
部分として判別する(ステップS4)。ステップS4の
判別の結果、監視領域に移動体が存在しないときは(ス
テップS5;NO)、監視領域において人が検知されな
いものと判断する(ステップS11)。これは、侵入者
等が検知されず正常な状態に対応する。
Next, the presence / absence of a moving object existing in the monitoring area is detected using a general method (step S4). Specifically, after comparing the above-described reference image and the corrected image to obtain the difference between them, the change area in which the change appears over time is extracted in the monitoring area, and it is determined as the moving body portion in the image. Yes (step S4). As a result of the determination in step S4, when there is no moving object in the monitoring area (step S5; NO), it is determined that no person is detected in the monitoring area (step S11). This corresponds to a normal state in which an intruder or the like is not detected.

【0034】一方、ステップS4の判別の結果、監視領
域に移動体が存在するときは(ステップS5;YE
S)、画像内での移動体部分の面積を算出し、算出され
た面積が人間のサイズとして想定される範囲内であるか
否かを判断する(ステップS6)。その結果、移動体部
分の面積が人間のサイズの範囲から外れていると判断さ
れるときは(ステップS6;NO)、移動体は人ではな
いと判断できるので、上記のステップS11に移行す
る。これに対し、移動体部分の面積が人間のサイズの範
囲内であると判断されるときは(ステップS6;YE
S)、その移動体が虫等であるか否かを判断するための
虫判定処理を実行する(ステップS7)。
On the other hand, as a result of the determination in step S4, when a moving object exists in the monitoring area (step S5; YE
S), the area of the moving body portion in the image is calculated, and it is determined whether or not the calculated area is within the range assumed as the size of a human (step S6). As a result, when it is determined that the area of the moving body portion is out of the human size range (step S6; NO), it can be determined that the moving body is not a person, so the process proceeds to step S11. On the other hand, when it is determined that the area of the moving body portion is within the range of human size (step S6; YE
S), the insect determination process for determining whether the moving body is an insect or the like is performed (step S7).

【0035】図6は、ステップS7の虫判定処理を説明
するフローチャートである。虫判定処理が開始される
と、ステップS1で取り込んだ第1の画像を処理対象と
して、移動体部分に含まれる画素ごとの輝度値が所定値
を超える領域R1を求める(ステップS21)。図7
(a)に、第1の画像の移動体部分において求めた領域
R1の例を示している。具体的には、輝度値が飽和する
程度のしきい値TH1(例えば、254)を予め設定し
ておき、移動体部分の画素のうち、輝度値>TH1を満
たす領域を求め、これを領域R1とすればよい。この領
域R1は、第1の画像の移動体部分における飽和領域に
相当する。
FIG. 6 is a flow chart for explaining the insect determination process of step S7. When the insect determination process is started, a region R1 in which the brightness value of each pixel included in the moving body portion exceeds a predetermined value is obtained by using the first image captured in step S1 as a processing target (step S21). Figure 7
An example of the region R1 obtained in the moving body portion of the first image is shown in (a). Specifically, a threshold value TH1 (for example, 254) at which the brightness value is saturated is set in advance, and an area satisfying the brightness value> TH1 among the pixels of the moving body part is obtained, and this area is determined as the area R1. And it is sufficient. This region R1 corresponds to the saturated region in the moving body portion of the first image.

【0036】同様に、ステップS2で取り込んだ第2の
画像を処理対象として、移動体部分に含まれる画素ごと
の輝度値が所定値を超える領域R2を求める(ステップ
S22)。図7(b)に、第2の画像の移動体部分にお
いて求めた領域R2の例を示している。具体的には、輝
度値が飽和する程度のしきい値TH2(例えば、25
4)を予め設定しておき、移動体部分の画素のうち、輝
度値>TH2を満たす領域を求め、これを領域R2とす
ればよい。この領域R2は、第2の画像の移動体部分に
おける飽和領域に相当する。
Similarly, with the second image captured in step S2 as the processing target, a region R2 in which the luminance value of each pixel included in the moving body portion exceeds a predetermined value is obtained (step S22). FIG. 7B shows an example of the region R2 obtained in the moving body portion of the second image. Specifically, the threshold value TH2 (for example, 25
4) is set in advance, and an area satisfying the brightness value> TH2 among the pixels of the moving body portion may be obtained and set as the area R2. This region R2 corresponds to the saturated region in the moving body portion of the second image.

【0037】そして、第1の画像と第2の画像の両方を
処理対象として、移動体部分のうち次の(2)式を満た
す領域R3を求める(ステップS23)。ここでは、低
露出状態に対する高露出状態の露出量が8倍であるもの
とする。なお、図7(c)において、(2)式により求
めた領域R3の例を示している。
Then, with both the first image and the second image as processing targets, a region R3 that satisfies the following expression (2) in the moving body portion is obtained (step S23). Here, it is assumed that the exposure amount in the high exposure state is 8 times that in the low exposure state. In addition, in FIG. 7C, an example of the region R3 obtained by the equation (2) is shown.

【0038】 第2の画像の輝度値×8−第1の画像の輝度値 > TH3 (2) ただし、TH3:所定のしきい値(例えば、200) この(2)式は、本実施形態の虫検知ロジックにおいて
基本となる式である。以下、(2)式を虫検知に適用す
る場合の考え方を説明する。
Luminance value of second image × 8−luminance value of first image> TH3 (2) where TH3: predetermined threshold value (for example, 200) This equation (2) is used in the present embodiment. This is a basic expression in the insect detection logic. Hereinafter, the idea when the expression (2) is applied to insect detection will be described.

【0039】まず、(2)式に含まれる第1の画像の輝
度値及び第2の画像の輝度値は、それぞれ次の(3)式
及び(4)式で表すことができる。 第1の画像の輝度値 = (C1+C3)×1 (3) 第2の画像の輝度値 = (C1+C2+C3)×(1/8) (4) ただし、C1:通常照明装置202の反射光の成分 C2:直近照明装置203の反射光の成分 C3:その他の入射光の成分
First, the brightness value of the first image and the brightness value of the second image included in the expression (2) can be expressed by the following expressions (3) and (4), respectively. Luminance value of first image = (C1 + C3) × 1 (3) Luminance value of second image = (C1 + C2 + C3) × (1/8) (4) where C1: component C2 of reflected light from the normal illumination device 202 : Component of reflected light of the closest illumination device 203 C3: component of other incident light

【0040】上述したように、図4に示す制御条件を用
いるので、通常照明装置202の影響(C1)は、
(3)式と(4)式の双方に現れるのに対し、直近照明
装置203の影響(C2)は、(3)式のみに現れるこ
とがわかる。なお、(3)式と(4)式のいずれにおい
ても、監視カメラ装置以外から到来する光の影響(C
3)を想定している。ここで、図4に示すように、第1
の画像が高露出状態、第2の画像が低露出状態でそれぞ
れ撮影したものであり、上述したように互いの露出量の
違いを8倍に設定している。よって、露出量と画像の輝
度値との相関関係に従って、(4)式の係数を1/8と
したのである。
As described above, since the control condition shown in FIG. 4 is used, the influence (C1) of the normal lighting device 202 is as follows.
It can be seen that the effect (C2) of the direct illumination device 203 appears only in the expression (3), while it appears in both the expression (3) and the expression (4). It should be noted that in both equations (3) and (4), the influence of light arriving from other than the surveillance camera device (C
3) is assumed. Here, as shown in FIG.
Image is taken in a high-exposure state and the second image is taken in a low-exposure state, and the difference in exposure amount between them is set to 8 times as described above. Therefore, the coefficient of the equation (4) is set to 1/8 according to the correlation between the exposure amount and the brightness value of the image.

【0041】そこで、(4)式を8倍して(3)式を引
くと、次の(5)式を得ることができる。 第2の画像の輝度値×8―第1の画像の輝度値 = C2 (5) この(5)式は、2つの画像の露出量の違いを補正した
状態で、第1の画像と第2の差をとることに相当し、結
果的に直近照明装置203の反射光の影響のみが抽出さ
れることになる。そして、ステップS23で用いる
(2)式の左辺が、上記の(5)式に対応している。こ
の場合、直近照明装置203からの光が通過するレンズ
面205の直近に虫等の物体が存在するときは、その状
態が(5)式を通じて検出されることになる。
Therefore, by multiplying the equation (4) by 8 and subtracting the equation (3), the following equation (5) can be obtained. Luminance value of second image × 8−luminance value of first image = C2 (5) This equation (5) is the same as the first image and the second image when the difference in exposure amount between the two images is corrected. The result is that only the influence of the reflected light of the closest illumination device 203 is extracted. The left side of the equation (2) used in step S23 corresponds to the above equation (5). In this case, when an object such as a bug exists in the immediate vicinity of the lens surface 205 through which the light from the immediate illumination device 203 passes, the state is detected through the equation (5).

【0042】ただし、第1の画像又は第2の画像におい
て輝度値の飽和が生じる場合は、(5)式が成立しなく
なる。つまり、例えば各画素の輝度値が0〜255の範
囲の整数値をとり得るとすると、輝度値は最大の255
で飽和することになる。この場合、撮像部106への入
射光量が実際には255を超える所定の輝度値であった
としても、輝度値が255として検出されるので、上記
の(3)〜(5)式において正しい演算を行うことがで
きなくなる。
However, when the saturation of the brightness value occurs in the first image or the second image, the expression (5) is not satisfied. That is, for example, if the brightness value of each pixel can take an integer value in the range of 0 to 255, the brightness value is the maximum value of 255.
Will be saturated with. In this case, even if the amount of light incident on the image capturing unit 106 is actually a predetermined brightness value exceeding 255, the brightness value is detected as 255, and therefore the correct calculation in the above equations (3) to (5) is performed. Will not be able to do.

【0043】既に説明したように、第1の画像と第2の
画像において輝度値が飽和する範囲は、それぞれ図6の
ステップS21の領域R1及びステップS22の領域R
2として求めている。よって、図6の処理において、以
下に説明するようにステップS24〜S28を行うこと
により、輝度値の飽和による影響を除外している。
As described above, the ranges in which the brightness values are saturated in the first image and the second image are the region R1 in step S21 and the region R in step S22 in FIG. 6, respectively.
2 is required. Therefore, in the process of FIG. 6, the effects of saturation of the brightness value are excluded by performing steps S24 to S28 as described below.

【0044】図6に示すように、ステップS21で求め
た領域R1に含まれる画素数N1を求める(ステップS
24)。同様に、ステップS22で求めた領域R2に含
まれるが、領域R1には含まれない画素数N2を求める
(ステップS25)。そして、ステップS23で求めた
領域R3内に含まれるが、領域R1と領域R2のいずれ
にも含まれない画素数N3をも求める(ステップS2
6)。一方、ステップS4で判別した移動体部分に含ま
れる画素数N4を求める(ステップS27) 次に、虫判定を行うべく、ステップS24〜S27にて
求めた各画素数N1〜N4を用いて、以下に示す3つの
式が全て成立するか否かを判断する(ステップS2
8)。 N1/N4 < TH4 (6) N2/N4 < TH5 (7) N3/N4 > TH6 (8) ただし、TH4、TH5、TH6:所定のしきい値 ステップS28では、上記の(6)〜(8)式を全て満
たすか否かを判断する。その結果、ステップS28が肯
定判断されるときは、画像内の移動体を虫であると判定
し(ステップS29)、ステップS28が否定判断され
るときは、画像内の移動体を虫ではないと判定する(ス
テップS30)。なお、各しきい値の設定としては、例
えば、TH4=0.2、TH5=0.2、TH6=0.
4として定めればよい。
As shown in FIG. 6, the number N1 of pixels included in the region R1 obtained in step S21 is obtained (step S
24). Similarly, the number N2 of pixels included in the region R2 obtained in step S22 but not included in the region R1 is obtained (step S25). Then, the number N3 of pixels included in the region R3 obtained in step S23 but not included in both the regions R1 and R2 is also obtained (step S2).
6). On the other hand, the number of pixels N4 included in the moving body portion determined in step S4 is obtained (step S27). Next, in order to perform the insect determination, the number of pixels N1 to N4 obtained in steps S24 to S27 is used as follows. It is determined whether or not all three expressions shown in are satisfied (step S2).
8). N1 / N4 <TH4 (6) N2 / N4 <TH5 (7) N3 / N4> TH6 (8) However, in TH4, TH5, TH6: predetermined threshold value step S28, the above (6) to (8) Judge whether all expressions are satisfied. As a result, when step S28 is affirmatively determined, the moving body in the image is determined to be a bug (step S29), and when step S28 is negatively determined, the moving body in the image is not a bug. The determination is made (step S30). In addition, as the setting of each threshold value, for example, TH4 = 0.2, TH5 = 0.2, TH6 = 0.
It may be set as 4.

【0045】ここで、ステップS28で用いる(6)〜
(8)式の具体的な意味を説明する。(6)式は、第1
の画像で輝度値が飽和状態となる部分の移動体部分に占
める面積の割合が大きいときは信頼性が低いと考え、虫
とは判定しないことを意味している。また、(7)式
は、第1の画像では輝度値が飽和状態ではないが第2の
画像では輝度値が飽和状態となる部分の移動体部分に占
める面積の割合が大きいときは信頼性が低いと考え、虫
とは判定しないことを意味している。さらに、(8)式
は、第1の画像と第2の画像のいずれにおいても輝度値
が飽和状態ではない部分の移動体部分に占める面積の割
合が大きいとき、すなわち、直近照明装置203の反射
光の影響が正常に現れる画素数が多い状態で、かつ、直
近照明装置203の反射光の影響が大きい状態であるこ
とを意味している。これらを虫の判定条件とすることに
より、画像の飽和に起因する誤検知を回避して信頼性が
高い検知ロジックを実現することができる。
Here, (6) -used in step S28
The specific meaning of the expression (8) will be described. Equation (6) is the first
When the ratio of the area occupied by the moving body portion in the image where the luminance value is saturated is large, it is considered that the reliability is low and it is not judged as a bug. Further, the expression (7) has high reliability when the ratio of the area occupied by the moving object portion in which the luminance value is not saturated in the first image but the luminance value is saturated in the second image is large. It means that it is low, and it is not judged as an insect. Further, the expression (8) is obtained when the ratio of the area occupied by the moving body portion of the portion where the luminance value is not saturated in both the first image and the second image is large, that is, the reflection of the closest illumination device 203. This means that the number of pixels in which the influence of light normally appears is large and the influence of the reflected light of the closest illumination device 203 is large. By using these as insect determination conditions, false detection due to image saturation can be avoided and a highly reliable detection logic can be realized.

【0046】次に、図6のステップS21〜S30の処
理を終えると、図5に戻ってステップS8以降の処理を
行う。図5において、ステップS7の処理の判定結果が
虫であった場合は(ステップS8;YES)、監視領域
において非検出対象の虫等が検知されたと判断する(ス
テップS9)。一方、ステップS7の処理による判定結
果が虫ではなかった場合は(ステップS8;NO)、監
視領域において検出対象の人(侵入者)が検知されたと
判断する(ステップS10)。
Next, when the processes of steps S21 to S30 of FIG. 6 are completed, the process returns to FIG. 5 and the processes of step S8 and subsequent steps are performed. In FIG. 5, when the determination result of the process of step S7 is a bug (step S8; YES), it is determined that a non-detection target bug or the like is detected in the monitoring area (step S9). On the other hand, when the determination result of the process of step S7 is not a bug (step S8; NO), it is determined that a person (intruder) to be detected is detected in the monitoring area (step S10).

【0047】以上の処理の結果、本実施形態の検知ロジ
ックの1回分の処理が終了する。これ以降、所定の時間
間隔で上記ステップS1〜S11が繰り返し実行され
る。なお、図6の処理により、ステップS9又はステッ
プS11の判断がなされた場合は、監視領域に侵入者が
存在しない正常な状態であるのに対し、ステップS10
の判断がなされた場合は、監視領域に侵入者が存在する
異常な状態であり、出力部107により検知結果が通報
されることになる。
As a result of the above processing, one processing of the detection logic of this embodiment is completed. After that, the above steps S1 to S11 are repeatedly executed at predetermined time intervals. When the determination of step S9 or step S11 is made by the process of FIG. 6, it is a normal state where no intruder exists in the monitoring area, whereas step S10 is performed.
If it is determined that there is an intruder in the monitoring area, the output unit 107 reports the detection result.

【0048】次に、図6の虫判定処理の変形例について
説明する。図6の虫判定処理においては、ステップS2
8〜S30によって、虫か、あるいは虫ではないかの一
方を選択的に判定する処理を示した。これに対し本変形
例では、「虫らしさ」を数値化し、虫判定の結果に幅を
持たせることを特徴としている。すなわち、「虫らし
さ」を、例えば、0から1の範囲の数値で示し、虫であ
る度合いが1のときに最大で0のときに最小となるよう
に「虫らしさ」を算出するものである。
Next, a modified example of the insect determination process of FIG. 6 will be described. In the insect determination process of FIG. 6, step S2
The process of selectively determining whether the insect is a bug or not is shown by 8 to S30. On the other hand, the present modification is characterized in that the “insect-likeness” is converted into a numerical value and the result of the insect determination has a range. That is, for example, the "insect-likeness" is indicated by a numerical value in the range of 0 to 1, and the "insect-likeness" is calculated so that it is maximum when the degree of insects is 1 and is minimum when the degree of insects is 1. .

【0049】図8は、かかる変形例に関し、図6のステ
ップS28〜S30を置き換える場合の判定部分をグラ
フにより表した図である。なお、本変形例においては、
図6のステップS21〜S27の処理は上記と同様に行
えばよく、それ以降の処理を置き換えることによって実
現できる。図8において、グラフ1〜グラフ3の3つの
グラフを示している。グラフ1は、ステップS24で求
めた画素数N1とステップS27で求めた画素数N4の
比であるN1/N4を横軸にとっている。グラフ2は、
ステップS25で求めた画素数N2と上記の画素数N4
の比であるN2/N4を横軸にとっている。グラフ3
は、ステップS26で求めた画素数N3と上記の画素数
N4の比であるN3/N4を横軸にとっている。
FIG. 8 is a graph showing the determination part in the case of replacing steps S28 to S30 of FIG. 6 in the modified example. In this modification,
The processing of steps S21 to S27 in FIG. 6 may be performed in the same manner as described above, and can be realized by replacing the subsequent processing. In FIG. 8, three graphs, graph 1 to graph 3, are shown. In the graph 1, the horizontal axis represents N1 / N4, which is the ratio of the number of pixels N1 obtained in step S24 and the number of pixels N4 obtained in step S27. Graph 2 is
The number of pixels N2 obtained in step S25 and the number of pixels N4 described above
The ratio of N2 / N4 is plotted on the horizontal axis. Graph 3
Indicates the ratio N3 / N4, which is the ratio of the number of pixels N3 obtained in step S26 and the number of pixels N4 described above, on the horizontal axis.

【0050】そして、3つのグラフの各々のパラメータ
N1/N4、N2/N4、N3/N4に関し、「虫らし
さ」との相関を実験的に調べた上で適切なグラフ形状を
求めた。これにより、各グラフの横軸のパラメータに基
づいて、グラフ1の縦軸の値B1と、グラフ2の縦軸の
値B2と、グラフ3の縦軸の値B3とを決定できる。最
終的に、「虫らしさ」Bは、3つのグラフの縦軸の積をと
り、B=B1×B2×B3により算出される。例えば、
N1/N4=0.2、N2/N4=0.2、N3/N4
=0.15となる場合、グラフ1〜グラフ3に基づきB
1=1、B2=1、B3=0.5が得られるので、「虫
らしさ」B==0.5となる。
For each of the parameters N1 / N4, N2 / N4 and N3 / N4 of the three graphs, an appropriate graph shape was obtained after experimentally examining the correlation with "insect-likeness". Accordingly, the value B1 on the vertical axis of graph 1, the value B2 on the vertical axis of graph 2, and the value B3 on the vertical axis of graph 3 can be determined based on the parameter of the horizontal axis of each graph. Finally, the “insect-likeness” B is calculated by taking the product of the vertical axes of the three graphs and B = B1 × B2 × B3. For example,
N1 / N4 = 0.2, N2 / N4 = 0.2, N3 / N4
= 0.15, B based on Graph 1 to Graph 3
Since 1 = 1, B2 = 1, and B3 = 0.5 are obtained, "insect-likeness" B == 0.5.

【0051】このように判定された「虫らしさ」は、幅
のある数値であるため、最終的に虫の存在を検知すべ
く、種々の判断を適用する必要がある。例えば、別途、
移動体について「人らしさ」を求めた上で、これを「虫
らしさ」と比較し、「虫らしさ」の方が大きいときは、
人ではなく虫と判断すればよい。あるいは、瞬時的な値
の変動を抑えるため、「虫らしさ」を時間的に蓄積した
値を判断の際に用いてもよい。
Since the "insect-likeness" determined in this way has a wide range of numerical values, it is necessary to apply various determinations so as to finally detect the presence of insects. For example, separately
After determining the "personality" of the moving body, compare this with "insect-likeness", and if "insect-likeness" is greater,
You should judge it as a bug, not a person. Alternatively, in order to suppress the instantaneous fluctuation of the value, a value obtained by temporally accumulating the “insect-likeness” may be used in the determination.

【0052】以上の実施形態では、本発明を監視カメラ
装置に適用する場合について説明したが、これに限られ
ることなく、様々な用途の画像センサに対し広く本発明
を適用することができる。この場合、撮像手段に対する
露出量を切り替え制御し、上述したように輝度値を補正
して画像処理を行う構成を有する画像センサであれば、
照明制御や非検出対象の検知ロジックの有無を問うこと
なく、本発明を適用することができる。
In the above embodiments, the case where the present invention is applied to the surveillance camera device has been described, but the present invention is not limited to this, and the present invention can be widely applied to image sensors for various purposes. In this case, if the image sensor has a configuration in which the exposure amount for the image pickup unit is switched and controlled, and the brightness value is corrected as described above to perform image processing,
The present invention can be applied irrespective of the presence or absence of illumination control and detection logic for non-detection targets.

【0053】[0053]

【発明の効果】以上説明したように本発明によれば、撮
影時に露出量を切り替え制御し、画像の露出量の相違に
対応する輝度値の相違を補正し、補正された画像に基づ
いて変化領域を解析するようにしたので、画像の枚数を
抑えて合理的な画像処理を行う画像センサ及び監視カメ
ラ装置を実現することができる。
As described above, according to the present invention, the exposure amount is switched and controlled at the time of shooting, the difference in the brightness value corresponding to the difference in the exposure amount of the image is corrected, and the change is made based on the corrected image. Since the area is analyzed, it is possible to realize an image sensor and a surveillance camera device that reduce the number of images and perform rational image processing.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用した一形態としての監視カメラ装
置の機能ブロック図である。
FIG. 1 is a functional block diagram of a surveillance camera device as one embodiment to which the present invention is applied.

【図2】監視領域において非検出対象の虫等が存在する
状況を説明する図である。
FIG. 2 is a diagram illustrating a situation in which a non-detection target insect or the like exists in a monitoring area.

【図3】本実施形態の監視カメラ装置の装置構成を示す
図である。
FIG. 3 is a diagram showing a device configuration of a surveillance camera device of the present embodiment.

【図4】本実施形態における第1の画像及び第2の画像
に関し、撮影時の制御条件を対比して示す図である。
FIG. 4 is a diagram showing, in comparison, control conditions at the time of shooting for the first image and the second image in the present embodiment.

【図5】本実施形態の検知ロジックについて、処理全体
の流れを説明するフローチャートである。
FIG. 5 is a flowchart illustrating the flow of the entire processing of the detection logic of this embodiment.

【図6】本実施形態の検知ロジックについて、図5のス
テップS7の虫判定処理を説明するフローチャートであ
る。
FIG. 6 is a flowchart illustrating the insect determination process of step S7 of FIG. 5 in the detection logic of this embodiment.

【図7】図6のステップS21〜S23で求めた領域R
1〜R3の例を示す図である。
7 is a region R obtained in steps S21 to S23 of FIG.
It is a figure which shows the example of 1-R3.

【図8】本実施形態の変形例に関する判定部分をグラフ
により表した図である。
FIG. 8 is a graph showing a determination part relating to a modified example of the present embodiment.

【符号の説明】[Explanation of symbols]

101…制御部 102…電源部 103…照明部 104…撮像部 105…画像処理部 106…記憶部 107…出力部 201…カメラ 202…通常照明装置 203…直近照明装置 204…透明カバー 205…レンズ面 206…プリズム 101 ... Control unit 102 ... power supply unit 103 ... Illumination unit 104 ... Imaging unit 105 ... Image processing unit 106 ... Storage unit 107 ... Output unit 201 ... camera 202 ... Ordinary lighting device 203 ... Nearest illumination device 204 ... Transparent cover 205 ... Lens surface 206 ... Prism

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08B 13/196 G08B 13/196 H04N 5/225 H04N 5/225 C Fターム(参考) 2H002 DB25 EB09 5C022 AA05 AB01 AB15 AC41 AC69 5C054 AA01 CA04 CC02 CH02 EA01 ED17 FC01 FC05 GB01 GB12 HA18 5C084 AA02 AA07 BB05 CC17 DD12 EE02 FF03 FF10 GG43 GG57 GG78 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G08B 13/196 G08B 13/196 H04N 5/225 H04N 5/225 C F term (reference) 2H002 DB25 EB09 5C022 AA05 AB01 AB15 AC41 AC69 5C054 AA01 CA04 CC02 CH02 EA01 ED17 FC01 FC05 GB01 GB12 HA18 5C084 AA02 AA07 BB05 CC17 DD12 EE02 FF03 FF10 GG43 GG57 GG78

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 画像を撮影する撮像手段と、 前記撮像手段の露出量を時間に応じて切り替え制御する
露出量制御手段と、 撮影された画像の前記露出量の相違に対応する輝度値の
相違を補正し、補正後の画像に基づいて変化領域を解析
する画像処理手段と、 を備えることを特徴とする画像センサ。
1. An image pickup means for picking up an image, an exposure amount control means for switching the exposure amount of the image pickup means according to time, and a difference in brightness value corresponding to the difference in the exposure amount of the picked-up image. And an image processing unit that corrects the change area and analyzes the changed region based on the corrected image.
【請求項2】 前記露出量制御手段は、低露出と高露出
の2段階を交互に切り替え、前記画像処理手段は、高露
出の画像を基準として低露出の画像の輝度値を補正する
ことを特徴とする請求項1に記載の画像センサ。
2. The exposure amount control means alternately switches between two steps of low exposure and high exposure, and the image processing means corrects the brightness value of the low exposure image with reference to the high exposure image. The image sensor according to claim 1, wherein the image sensor is an image sensor.
【請求項3】 監視領域の画像を撮影する撮像手段と、 前記撮像手段の直近のみを照明する直近照明を施す照明
手段と、 前記直近照明を施すとともに前記撮像手段を所定露出と
する第1の状態と、前記直近照明を施さずに前記撮像手
段を前記所定露出と異なる露出とする第2の状態とを切
り替え制御する状態制御手段と、 前記第1の状態の画像と前記第2の状態の画像における
前記露出量の相違に対応する輝度値の相違を補正し、補
正後の画像に基づいて変化領域を解析し、前記監視領域
における検出対象である移動体を判定する画像処理手段
と、 を備えることを特徴とする監視カメラ装置。
3. An image pickup means for picking up an image of a monitoring area, an illuminating means for illuminating only the immediate vicinity of the image pickup means, and a first illuminating means for illuminating the image in the immediate vicinity of the image pickup means. State control means for switching control between a state and a second state in which the image pickup means has an exposure different from the predetermined exposure without performing the closest illumination; and an image in the first state and a second state. An image processing unit that corrects a difference in brightness value corresponding to the difference in the exposure amount in the image, analyzes a change region based on the corrected image, and determines a moving object that is a detection target in the monitoring region; A surveillance camera device comprising:
【請求項4】 前記画像処理手段は、前記第1の状態の
画像と前記第2の状態の画像とを比較して、前記直近照
明の影響を受ける移動体を、前記撮像手段の直近に存在
する非検出対象として判定することを特徴とする請求項
3に記載の監視カメラ装置。
4. The image processing means compares the image in the first state with the image in the second state, and a moving object affected by the closest illumination is present in the immediate vicinity of the imaging means. The surveillance camera device according to claim 3, wherein the surveillance camera device is determined as a non-detection target.
【請求項5】 画像の輝度値が飽和する飽和領域を判別
し、前記変化領域から前記飽和領域を除いた領域におい
て前記移動体を判定することを特徴とする請求項4に記
載の監視カメラ装置。
5. The surveillance camera apparatus according to claim 4, wherein a saturated region in which the brightness value of the image is saturated is determined, and the moving object is determined in a region excluding the saturated region from the change region. .
JP2001367087A 2001-11-30 2001-11-30 Image sensor and surveillance camera device Expired - Fee Related JP3862558B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001367087A JP3862558B2 (en) 2001-11-30 2001-11-30 Image sensor and surveillance camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001367087A JP3862558B2 (en) 2001-11-30 2001-11-30 Image sensor and surveillance camera device

Publications (2)

Publication Number Publication Date
JP2003169321A true JP2003169321A (en) 2003-06-13
JP3862558B2 JP3862558B2 (en) 2006-12-27

Family

ID=19176886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001367087A Expired - Fee Related JP3862558B2 (en) 2001-11-30 2001-11-30 Image sensor and surveillance camera device

Country Status (1)

Country Link
JP (1) JP3862558B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006186458A (en) * 2004-12-27 2006-07-13 Secom Co Ltd Image signal processor and sensing apparatus
KR100776920B1 (en) 2007-07-26 2007-11-20 주식회사에이멕스 Camera gain automatic control method for sorting of grain
JP2010205133A (en) * 2009-03-05 2010-09-16 Panasonic Corp Apparatus and method for identifying object
JP2015001836A (en) * 2013-06-14 2015-01-05 セコム株式会社 Image sensor
WO2017204126A1 (en) * 2016-05-24 2017-11-30 コニカミノルタ株式会社 Image recognition system, moving body detecting unit, and care support system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006186458A (en) * 2004-12-27 2006-07-13 Secom Co Ltd Image signal processor and sensing apparatus
KR100776920B1 (en) 2007-07-26 2007-11-20 주식회사에이멕스 Camera gain automatic control method for sorting of grain
JP2010205133A (en) * 2009-03-05 2010-09-16 Panasonic Corp Apparatus and method for identifying object
JP2015001836A (en) * 2013-06-14 2015-01-05 セコム株式会社 Image sensor
WO2017204126A1 (en) * 2016-05-24 2017-11-30 コニカミノルタ株式会社 Image recognition system, moving body detecting unit, and care support system
JPWO2017204126A1 (en) * 2016-05-24 2019-03-28 コニカミノルタ株式会社 Image recognition system, motion detection unit and care support system

Also Published As

Publication number Publication date
JP3862558B2 (en) 2006-12-27

Similar Documents

Publication Publication Date Title
US7948524B2 (en) Image processor and face detector using the same
JP4747065B2 (en) Image generation apparatus, image generation method, and image generation program
KR100970750B1 (en) Apparatus and Method for operating monitoring camera using according to external environmental conditions
KR20150013756A (en) Object detection device
JP2007082026A (en) Position detection device and method for object image, and program for controlling the position detection device of object image
JP2004261515A (en) Iris image pickup device
US8615114B2 (en) Image reading apparatus and image reading method
JP6189284B2 (en) Image sensing device
JP2003169321A (en) Image sensor and monitoring camera apparatus
JP2021168465A (en) Method for assessing ambient light during night mode image acquisition
JP2007318673A (en) Sensor camera
JP4740755B2 (en) Monitoring device using images
JP4219201B2 (en) Imaging system
JP2003030665A (en) Mobile object detector, mobile object detection method and program making computer execute the method
US8306411B2 (en) Photographic apparatus
JP3385475B2 (en) Image monitoring device
JP7328778B2 (en) Image processing device and image processing program
JP6961506B2 (en) Image processing device
JP2009085618A (en) Human body detector
JP5044742B2 (en) Digital camera
JP7262412B2 (en) Image processing device and image processing program
JP6093270B2 (en) Image sensor
JP3890164B2 (en) Image sensor
JP2004072415A (en) Intruding object detector
JP2000350191A (en) Image sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060926

R150 Certificate of patent or registration of utility model

Ref document number: 3862558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees