JP2009010594A - Image sensor - Google Patents

Image sensor Download PDF

Info

Publication number
JP2009010594A
JP2009010594A JP2007169056A JP2007169056A JP2009010594A JP 2009010594 A JP2009010594 A JP 2009010594A JP 2007169056 A JP2007169056 A JP 2007169056A JP 2007169056 A JP2007169056 A JP 2007169056A JP 2009010594 A JP2009010594 A JP 2009010594A
Authority
JP
Japan
Prior art keywords
pixel
value
image
light
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007169056A
Other languages
Japanese (ja)
Other versions
JP4925942B2 (en
Inventor
Yutaka Miyakita
豊 宮北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2007169056A priority Critical patent/JP4925942B2/en
Publication of JP2009010594A publication Critical patent/JP2009010594A/en
Application granted granted Critical
Publication of JP4925942B2 publication Critical patent/JP4925942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image sensor for detecting light imprinted into a monitor image. <P>SOLUTION: The image sensor includes a light candidate pixel extracting means 10 for extracting pixels that are likely as being the light caught in monitor images, based on the monitor images captured at a predetermined frequency. The light candidate pixel extracting means 10 includes a determining means for determining whether brightness values of corresponding pixels between a plurality of monitor images captured at the predetermined frequency increase or decrease; a cumulative change quantity calculating means for calculating a cumulative quantity of change for each pixel, based on a temporal continuity of determination of an increase determined by the determining means and a temporal continuity of determination of a decrease judged by the determining means; and the light candidate pixel extracting means 10 extracts the pixels whose cumulative change quantity is a predetermined threshold or higher as the light candidate pixels. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、監視領域に進入した移動物体を検知する画像センサに関し、特に、監視領域を撮影した監視画像に写った強い光を認識する処理を利用して、その光を移動物体と誤認識することを防止できる画像センサに関する。   The present invention relates to an image sensor that detects a moving object that has entered a monitoring area, and in particular, recognizes the light as a moving object by using a process for recognizing strong light reflected in a monitoring image obtained by photographing the monitoring area. The present invention relates to an image sensor that can prevent this.

近年、セキュリティシステムにおいて、カメラ等の撮像装置によって撮像された画像を画像処理して侵入者を検出する画像センサが提供されている。このようなシステムでは、侵入者が写っていない基準となる背景画像を記憶しておき、随時撮像される監視画像と背景画像との背景差分処理によって差分画像を生成する。そして、この差分画像中において差分信号が所定値以上となる変化領域から求めた画像特徴量に基づいて、その変化領域が監視領域に侵入した移動物体によるものか、光や影等の移動物体以外の要因によるものかを判定する。   In recent years, in security systems, an image sensor that detects an intruder by performing image processing on an image captured by an imaging device such as a camera has been provided. In such a system, a reference background image in which an intruder is not captured is stored, and a difference image is generated by background difference processing between a monitoring image captured at any time and the background image. Based on the image feature amount obtained from the change area where the difference signal is a predetermined value or more in the difference image, whether the change area is due to a moving object that has entered the monitoring area or other than moving objects such as light and shadow To determine whether it is due to the cause of

変化領域から求める画像特徴量としては、監視領域内に存在する物体のテクスチャの類似度が挙げられる。変化領域が外乱である光または影による場合、その変化領域に対応する監視画像と背景画像とにおいてテクスチャは類似する。
一方、移動物体が監視空間に元々存在する物体を遮蔽して生じた変化領域においては、監視空間に存在する物体のテクスチャは類似しない。したがって、物体のテクスチャの類似度の変化を利用すれば移動物体と外乱とを区別することができる。
Examples of the image feature amount obtained from the change area include the similarity of the texture of the object existing in the monitoring area. When the change area is due to disturbance light or shadow, the texture is similar between the monitoring image and the background image corresponding to the change area.
On the other hand, the texture of the object existing in the monitoring space is not similar in the change area generated by the moving object shielding the object originally existing in the monitoring space. Therefore, a moving object and a disturbance can be distinguished by using a change in the similarity of the texture of the object.

例えば、特許文献1に開示された画像センサでは、背景差分処理により変化領域を抽出し、背景画像における変化領域に対応する領域のテクスチャと監視画像における変化領域に対応する領域のテクスチャとの類似度が高ければ光または影らしさを示す属性値を高く算出する。光属性値または影属性値が高い変化領域は外乱によるものと判定される。   For example, in the image sensor disclosed in Patent Literature 1, a change area is extracted by background difference processing, and the degree of similarity between the texture of the area corresponding to the change area in the background image and the texture of the area corresponding to the change area in the monitoring image If is high, the attribute value indicating the light or shadowiness is calculated to be high. A change region having a high light attribute value or shadow attribute value is determined to be due to disturbance.

特開2001−243475号公報JP 2001-243475 A

しかしながら、夜間、車のヘッドライトやサーチライトなど、指向性を有する強い光が監視領域に差し込んだことによって発生する変化領域については、その変化領域に対応する監視画像と背景画像の領域のテクスチャの類似度が低い場合がある。例えば、ヘッドライトの強い光により監視画像中の一部の輝度値が画像のダイナミックレンジを超えて飽和して、光が照射された部分の濃淡変化が消失してしまったり、ヘッドライトの光による地面の凹凸等の影が濃くなって、その凹凸に相当するテクスチャが強調されることがある。このような場合には、ヘッドライトの光により発生した変化領域に対応する監視画像と背景画像の領域のテクスチャの類似度が低くなる。そのため光らしさを示す光属性値が低くなり、変化領域が光によるものとして判定されず、移動物体と判定されるという誤検出が発生する。   However, with regard to a change area that occurs when a strong directional light such as a headlight or a searchlight of a car is inserted into the monitoring area at night, the texture of the monitoring image and the background image area corresponding to the changing area The similarity may be low. For example, due to the strong light of the headlight, some luminance values in the surveillance image will be saturated beyond the dynamic range of the image, and the change in light and shade of the part irradiated with light will disappear, or the light from the headlight Shadows such as unevenness on the ground may become dark, and textures corresponding to the unevenness may be emphasized. In such a case, the texture similarity between the monitoring image corresponding to the change area generated by the light of the headlight and the background image area is low. For this reason, the light attribute value indicating the lightness is lowered, and the erroneous detection that the change area is not determined to be a light object but is determined to be a moving object occurs.

そこで、本発明の目的は、監視領域内に強い光が照射された場合でも、その光による誤検出を防止できる移動物体検知装置を提供することにある。
また本発明の他の目的は、監視画像内に写り込んだ光を検出する画像センサを提供することにある。
Accordingly, an object of the present invention is to provide a moving object detection device capable of preventing erroneous detection due to light even when intense light is irradiated in a monitoring region.
Another object of the present invention is to provide an image sensor for detecting light reflected in a monitoring image.

かかる課題を解決するための本発明は、一つの形態として、所定周期にて撮像した監視画像に基づいて、監視画像に写り込んだ光の可能性が高い画素を光候補画素として抽出する光候補画素抽出手段を有する画像センサを提供する。係る画像センサにおいて、光候補画素抽出手段は、所定周期で撮像された複数の監視画像間の対応する画素の輝度値が増加または減少しているか否かを判定する判定手段と、判定手段にて増加との判定の時間的な連続性または減少との判定の時間的な連続性に基づき累積変化度数を画素ごとに算出する累積変化度数算出手段とを有し、その累積変化度数が所定の閾値以上となる画素を光候補画素として抽出する。   As one form of the present invention for solving such a problem, a light candidate for extracting, as a light candidate pixel, a pixel having a high possibility of light reflected in the monitoring image based on the monitoring image captured in a predetermined cycle. An image sensor having pixel extraction means is provided. In such an image sensor, the light candidate pixel extraction unit includes: a determination unit that determines whether or not the luminance value of the corresponding pixel between a plurality of monitoring images captured in a predetermined cycle is increased or decreased; A cumulative change frequency calculating means for calculating the cumulative change frequency for each pixel based on the temporal continuity of the determination of increase or the temporal continuity of the determination of decrease, and the cumulative change frequency is a predetermined threshold value The above pixels are extracted as light candidate pixels.

また、本発明に係る画像センサにおいて、判定手段は、累積変化度数を求める対象の注目画素の近傍の少なくとも半数の画素の輝度値が増加または減少している場合にその注目画素の輝度値が増加または減少しているものと判定することが好ましい。   In the image sensor according to the present invention, the determination unit increases the luminance value of the target pixel when the luminance value of at least half of the pixels in the vicinity of the target pixel for which the cumulative change frequency is to be calculated is increased or decreased. Or it is preferable to determine that it is decreasing.

さらに、本発明に係る画像センサにおいて、累積変化度数算出手段は、判定手段が増加判定すると第1の所定値を加算し、減少判定すると第1の所定値より大きい第2の所定値を減算する正変化度数を計数する手段と、判定手段が減少判定すると第1の所定値を加算し、増加判定すると第1の所定値より大きい第2の所定値を減算する負変化度数を計数する手段とを有し、正変化度数と負変化度数の合計値を累積変化度数とすることが好ましい。   Furthermore, in the image sensor according to the present invention, the cumulative change frequency calculating means adds a first predetermined value when the determining means determines increase, and subtracts a second predetermined value that is greater than the first predetermined value when decreasing. Means for counting the positive change frequency; and means for counting the negative change frequency for adding a first predetermined value when the determination means determines decrease, and subtracting a second predetermined value greater than the first predetermined value when increasing. It is preferable that the total value of the positive change frequency and the negative change frequency be the cumulative change frequency.

さらに、本発明に係る画像センサにおいて、累積変化度数算出手段は、正変化度数および負変化度数に下限値を設定し、複数の監視画像間の対応する輝度値が変化しない場合は、正変化度数および負変化度数から第3の所定値を減算することが好ましい。   Further, in the image sensor according to the present invention, the cumulative change frequency calculation means sets a lower limit value for the positive change frequency and the negative change frequency, and when the corresponding luminance value between the plurality of monitoring images does not change, the positive change frequency It is preferable to subtract the third predetermined value from the negative change frequency.

また、本発明に係る画像センサは、移動物体が写っていない画像を背景画像として記憶する記憶部と、監視画像と背景画像とを差分処理して差分領域を抽出する差分領域抽出手段と、光候補画素の全部または一部が差分領域に含まれているとその差分領域が移動物体によるものである可能性を下げる移動物体判定手段とをさらに有することが好ましい。   In addition, an image sensor according to the present invention includes a storage unit that stores an image in which a moving object is not captured as a background image, a difference area extraction unit that performs difference processing between the monitoring image and the background image, and extracts a difference area, It is preferable to further include moving object determination means for reducing the possibility that the difference area is due to a moving object when all or part of the candidate pixels are included in the difference area.

本発明によれば、監視領域内に強い光が照射された場合でも、その光による誤検出を防止できる移動物体検知装置を提供することが可能となった。
また本発明によれば、監視画像内に写り込んだ光を検出する画像センサを提供することが可能となった。
ADVANTAGE OF THE INVENTION According to this invention, even when strong light was irradiated in the monitoring area | region, it became possible to provide the moving object detection apparatus which can prevent the misdetection by the light.
Further, according to the present invention, it is possible to provide an image sensor that detects light reflected in a monitoring image.

以下、本発明にかかる移動物体検知装置を侵入者検知装置に適用した実施の形態について図を参照しつつ説明する。
本発明を適用した侵入者検知装置は、監視領域を撮影した監視画像と背景画像との差分領域に基づいて侵入者を検知する装置である。特に、この侵入者検知装置は、求めた差分領域について、ヘッドライトなど、ある程度指向性を有する強い光が照射された可能性を調べることにより、照射された光を侵入者と誤って検知することを防止するものである。
Hereinafter, an embodiment in which a moving object detection device according to the present invention is applied to an intruder detection device will be described with reference to the drawings.
An intruder detection apparatus to which the present invention is applied is an apparatus that detects an intruder based on a difference area between a monitoring image obtained by photographing a monitoring area and a background image. In particular, this intruder detection device erroneously detects the irradiated light as an intruder by examining the possibility that a strong light having a certain degree of directivity, such as a headlight, was applied to the obtained difference area. Is to prevent.

図1は、本発明を適用した侵入者検知装置1の全体システム構成を示す図である。図1に示すように、侵入者検知装置1は、撮像部2、通信部3、記憶部4、画像処理部5及び警報部6を有する。以下、侵入者検知装置1の各部について詳細に説明する。   FIG. 1 is a diagram showing an overall system configuration of an intruder detection apparatus 1 to which the present invention is applied. As illustrated in FIG. 1, the intruder detection device 1 includes an imaging unit 2, a communication unit 3, a storage unit 4, an image processing unit 5, and an alarm unit 6. Hereinafter, each part of the intruder detection device 1 will be described in detail.

撮像部2は、侵入者の検知を行う監視領域を撮影し、監視画像を取得する。そのために、撮像部2は、CCD、C−MOSセンサなどの光電変換器で構成された2次元検出器と、その2次元検出器上に監視領域の像を結像する結像光学系などで構成される。また撮像部2は、一定の時間間隔(例えば1/5秒)ごとに撮影を行う。ここで監視画像I(x,y)(ただし、x、yは、それぞれ画像データ中の画素の水平座標、垂直座標を表す。以下同じ)は、各画素が例えば0〜255の輝度値を有するデジタル画像データとして表現される。撮像部2で取得された監視画像は、通信部3を通じて画像処理部5へ送られる。   The imaging unit 2 captures a monitoring area where an intruder is detected and acquires a monitoring image. For this purpose, the imaging unit 2 includes a two-dimensional detector composed of a photoelectric converter such as a CCD or C-MOS sensor, and an imaging optical system that forms an image of a monitoring region on the two-dimensional detector. Composed. The imaging unit 2 performs imaging at regular time intervals (for example, 1/5 second). Here, in the monitoring image I (x, y) (where x and y represent the horizontal and vertical coordinates of the pixels in the image data, respectively), each pixel has a luminance value of 0 to 255, for example. Expressed as digital image data. The monitoring image acquired by the imaging unit 2 is sent to the image processing unit 5 through the communication unit 3.

通信部3は、画像処理部5と、撮像部2または外部の機器との間で各種の信号を送受信する入出力インタフェースであり、USB、SCSI、RS232C、イーサネット(登録商標)などの各種の通信インタフェース回路及びそれらを駆動するドライバソフトウェアなどで構成される。そして通信部3は、撮像部2で取得された監視画像を画像処理部5へ送る。また、通信部3は、画像処理部5によって侵入者が検知されたことを示す異常発生信号を、警備装置または遠隔の監視センタ(図示せず)などに出力する。   The communication unit 3 is an input / output interface that transmits and receives various signals between the image processing unit 5 and the imaging unit 2 or an external device. Various communication such as USB, SCSI, RS232C, Ethernet (registered trademark), and the like. It is composed of an interface circuit and driver software for driving them. Then, the communication unit 3 sends the monitoring image acquired by the imaging unit 2 to the image processing unit 5. The communication unit 3 also outputs an abnormality occurrence signal indicating that an intruder has been detected by the image processing unit 5 to a security device or a remote monitoring center (not shown).

記憶部4は、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)などの半導体メモリ、磁気ディスク(HDD)、またはCD−ROM、DVD−RAMなどの光ディスクドライブおよびその記録媒体で構成される。また記憶部4は、画像処理部5の動作を制御するソフトウェア、画像処理部5の各種処理で使用される情報、例えば、監視画像との比較対象となる過去の画像および各種閾値などを記憶する。そして記憶部4は、画像処理部5からの要求に応じて、必要な情報を提供する。   The storage unit 4 includes a semiconductor memory such as a read only memory (ROM) and a random access memory (RAM), a magnetic disk (HDD), an optical disk drive such as a CD-ROM and a DVD-RAM, and a recording medium thereof. The storage unit 4 stores software for controlling the operation of the image processing unit 5, information used in various processes of the image processing unit 5, for example, past images to be compared with the monitoring image, various threshold values, and the like. . The storage unit 4 provides necessary information in response to a request from the image processing unit 5.

また記憶部4は、侵入者の無い状態で監視領域を撮影した監視画像を、侵入者検知の基準となる背景画像として記憶する。具体的には、侵入者検知装置1を設置したときなど、侵入者検知装置1が初期化された後、最初に撮影された監視画像を背景画像とする。また、侵入者検知装置1が稼動している間、時間経過による監視領域内の明るさの変化や、影の位置の変化に対応するため、一定周期ごとに、撮像部2で取得された監視画像のうち、背景差分領域がないと判定されたもの、あるいは、侵入者が検知されなかった監視画像を、背景画像として更新し、記憶部4に記憶してもよい。また、数フレーム(例えば5フレーム)にわたって取得された監視画像を平均化した画像を、背景画像としてもよい。   In addition, the storage unit 4 stores a monitoring image obtained by capturing a monitoring area in a state where there is no intruder as a background image that serves as a reference for intruder detection. Specifically, when the intruder detection device 1 is installed, for example, a monitoring image that is first taken after the intruder detection device 1 is initialized is used as a background image. In addition, while the intruder detection device 1 is operating, the monitoring acquired by the imaging unit 2 at regular intervals in order to cope with the change in brightness in the monitoring region and the change in shadow position over time. Of the images, an image determined to have no background difference area or a monitoring image in which no intruder has been detected may be updated as a background image and stored in the storage unit 4. An image obtained by averaging the monitoring images acquired over several frames (for example, 5 frames) may be used as the background image.

画像処理部5は、CPUまたは数値演算プロセッサなどの演算装置、および記憶部4からその演算装置で実行可能に読み込まれたソフトウェアなどで構成される。そして、画像処理部5は、撮像部2から取得した監視画像I(x,y)に基づいて、監視領域内に侵入者がいるか否かを判定する。   The image processing unit 5 includes an arithmetic device such as a CPU or a numerical arithmetic processor, and software read from the storage unit 4 so as to be executable by the arithmetic device. Then, the image processing unit 5 determines whether there is an intruder in the monitoring area based on the monitoring image I (x, y) acquired from the imaging unit 2.

ここで、画像処理部5は、数フレームにわたって生じる輝度変化を参照することにより、監視画像中に生じた輝度変化が、ヘッドライトなどの光による可能性を調べる。
そこで、図2を参照しつつ、監視領域内にヘッドライトなどの光が照射された場合と、侵入者が存在する場合との輝度変化の違いを説明する。図2(a)は、照射された光の移動に伴う注目画素の輝度変化を示し、図2(b)は、侵入者の移動に伴う注目画素の輝度変化を示す。まず、図2(a)に示すように、時刻t〜(t+2)にかけて、監視領域を撮影した監視画像201内で、光202が左側から右側へ移動するものとする。通常、ヘッドライトのように、ある程度の指向性を持った強い光は、その中心が最も明るく、中心から離れるにつれて徐々に暗くなる。そのため、注目画素203における、時間経過に伴う輝度変化を調べると、図2(a)の下方に示したグラフ204のように、光202が注目画素203に近づくにつれて徐々に明るくなり、光202が注目画素203から離れるにつれて徐々に暗くなる。
Here, the image processing unit 5 refers to the luminance change that occurs over several frames, and examines the possibility that the luminance change that has occurred in the monitoring image is caused by light such as a headlight.
Therefore, with reference to FIG. 2, a difference in luminance change between when the light such as a headlight is irradiated in the monitoring area and when there is an intruder will be described. FIG. 2A shows the luminance change of the pixel of interest accompanying the movement of the irradiated light, and FIG. 2B shows the luminance change of the pixel of interest accompanying the movement of the intruder. First, as illustrated in FIG. 2A, it is assumed that the light 202 moves from the left side to the right side in the monitoring image 201 obtained by capturing the monitoring area from time t to (t + 2). Usually, a strong light having a certain degree of directivity, such as a headlight, has the brightest center, and gradually becomes darker as it moves away from the center. Therefore, when the change in luminance of the target pixel 203 over time is examined, the light 202 gradually becomes brighter as the light 202 approaches the target pixel 203 as shown in the graph 204 shown in the lower part of FIG. It becomes darker as it gets away from the pixel of interest 203.

一方、図2(b)に示すように、時刻t〜(t+2)にかけて、監視領域を撮影した監視画像211内で、侵入者212が左側から右側へ移動するものとする。この場合、監視画像211上では、侵入者212に相当する領域だけが、監視領域を照明する照明光の反射などにより輝度が変化する。そのため、注目画素213における、時間経過に伴う輝度変化を調べると、図2(b)の下方に示したグラフ214のように、侵入者212と注目画素213が重なっている期間だけ明るくなる。そして、注目画素213に侵入者212が重なったとき、及び注目画素213と侵入者212が重ならなくなっときの注目画素212の輝度変化は急峻である。   On the other hand, as shown in FIG. 2B, it is assumed that the intruder 212 moves from the left side to the right side in the monitoring image 211 obtained by photographing the monitoring area from time t to (t + 2). In this case, on the monitoring image 211, only the area corresponding to the intruder 212 changes in luminance due to, for example, reflection of illumination light that illuminates the monitoring area. Therefore, when the change in luminance with time in the target pixel 213 is examined, the brightness is brightened only during a period in which the intruder 212 and the target pixel 213 overlap as shown in the graph 214 shown in the lower part of FIG. Then, when the intruder 212 overlaps the target pixel 213 and when the target pixel 213 does not overlap the intruder 212, the luminance change of the target pixel 212 is steep.

このように、監視領域内に照射された光と侵入者とでは、経過時間と輝度変化との関係が異なっている。そこで、この関係を調べて侵入者の有無の判定に利用することにより、監視領域内に照射された光を侵入者と誤認識する可能性を低減できる。
そのために、画像処理部5は、侵入者の無い状態で監視領域を撮影した背景画像と監視画像との差分処理を行って背景差分領域を求め、その背景差分領域から、人らしさを表す人属性値を求める。一方、画像処理部5は、監視領域に照射された光により明るくなったと考えられる光候補画素を時間的に連続した輝度変化を調べることにより抽出し、背景差分領域にその光候補画素が含まれている割合に基づいて、光らしさを表す光属性値を求める。そして、画像処理部5は、人属性値と光属性値に基づいて、監視領域内に侵入者がいるか否かを判定する。なお、画像処理部5の個々の処理の詳細については後述する。
Thus, the relationship between the elapsed time and the luminance change is different between the light irradiated in the monitoring area and the intruder. Therefore, by examining this relationship and using it for the determination of the presence or absence of an intruder, the possibility of erroneously recognizing the light irradiated in the monitoring area as an intruder can be reduced.
For this purpose, the image processing unit 5 performs a difference process between the background image obtained by capturing the monitoring area in a state where there is no intruder and the monitoring image to obtain a background difference area, and from the background difference area, a human attribute representing humanity Find the value. On the other hand, the image processing unit 5 extracts light candidate pixels that are considered to have become brighter by the light irradiated to the monitoring area by examining temporal changes in luminance, and the light candidate pixels are included in the background difference area. Based on the ratio, the light attribute value representing the lightness is obtained. Then, the image processing unit 5 determines whether there is an intruder in the monitoring area based on the human attribute value and the light attribute value. Details of individual processing of the image processing unit 5 will be described later.

警報部6は、LED、ブザーなどで構成される。そして警報部6は、画像処理部5で侵入者が検知されると、LEDを点灯若しくは点滅させたり、ブザーを鳴らしたりして侵入者を検知したことを報知する。   The alarm unit 6 includes an LED, a buzzer, and the like. When the intruder is detected by the image processing unit 5, the alarm unit 6 notifies that the intruder has been detected by turning on or blinking an LED or sounding a buzzer.

以下、画像処理部5について詳細に説明する。図1に示すように、画像処理部5は、光候補画素抽出手段10、背景差分領域抽出手段20、ラベリング手段30、トラッキング手段40、特徴量算出手段50及び侵入者判定手段60を有する。   Hereinafter, the image processing unit 5 will be described in detail. As illustrated in FIG. 1, the image processing unit 5 includes a light candidate pixel extraction unit 10, a background difference area extraction unit 20, a labeling unit 30, a tracking unit 40, a feature amount calculation unit 50, and an intruder determination unit 60.

光候補画素抽出手段10は、監視領域内において光が照射された領域に含まれると考えられる光候補画素を抽出する。上記のように、光が注目画素を通過する場合、時間経過に伴って、その注目画素の輝度値は、徐々に明るくなり、その後徐々に暗くなる。そこで、光候補画素抽出手段10は、各画素の時間経過による輝度変化を、プラス変化カウンタとマイナス変化カウンタとして記憶していく。プラス変化カウンタは注目画素の輝度値が連続して明るくなるに連れてカウントアップするカウンタ(累積変化度数)で、マイナス変化カウンタは注目画素の輝度値が連続して暗くなるにつれてカウントアップするカウンタである。プラス変化カウンタ及びマイナス変化カウンタは、それぞれ監視画像の各画素に対応して設けられ、各々の画素位置の輝度変化に応じたポイントを加減算され、カウント結果が記憶部4に記憶される。そして、プラス変化カウンタとマイナス変化カウンタの加算値が、所定の閾値以上となった画素を、光候補画素とする。   The light candidate pixel extraction unit 10 extracts light candidate pixels that are considered to be included in the region irradiated with light in the monitoring region. As described above, when light passes through the pixel of interest, the luminance value of the pixel of interest gradually increases with time and then gradually decreases. Therefore, the light candidate pixel extraction unit 10 stores the luminance change of each pixel over time as a positive change counter and a negative change counter. The positive change counter is a counter (cumulative change frequency) that counts up as the luminance value of the pixel of interest continuously increases. The negative change counter is a counter that counts up as the luminance value of the pixel of interest continues to darken. is there. A plus change counter and a minus change counter are provided corresponding to each pixel of the monitoring image, and points according to the luminance change at each pixel position are added and subtracted, and the count result is stored in the storage unit 4. Then, a pixel in which the added value of the plus change counter and the minus change counter is equal to or greater than a predetermined threshold is set as a light candidate pixel.

図3に示したフローチャートを参照しつつ、光候補画素抽出手段10の動作を説明する。光候補画素抽出手段10は、まず、撮像部2から取得された最新の監視画像と記憶部4に記憶してある1フレーム前の監視画像間で互いに対応する画素同士の差分を算出し、フレーム間差分画像を生成する(ステップST021)。   The operation of the light candidate pixel extracting unit 10 will be described with reference to the flowchart shown in FIG. First, the light candidate pixel extraction unit 10 calculates a difference between pixels corresponding to each other between the latest monitoring image acquired from the imaging unit 2 and the monitoring image of the previous frame stored in the storage unit 4. A difference image is generated (step ST021).

光候補画素抽出手段10は、ステップST021で生成したフレーム間差分画像の各画素について、その輝度値を所定の閾値Th1と比較する。そして、光候補画素抽出手段10は、輝度値がTh1以上の画素、すなわち、1フレーム前と比較して明るくなった画素(プラス変化画素)を1、輝度値が−Th1以下の画素、すなわち、1フレーム前と比較して暗くなった画素(マイナス変化画素)を−1、輝度値が−Th1〜Th1の間の画素、すなわち、輝度変化のない画素(変化なし画素)を0とした3値のプラスマイナス変化画像を生成する(ステップST022)。なお、所定の閾値Th1は、例えば2とすることができる。   The light candidate pixel extraction unit 10 compares the luminance value of each pixel of the inter-frame difference image generated in step ST021 with a predetermined threshold Th1. Then, the light candidate pixel extraction unit 10 sets a pixel whose luminance value is Th1 or more, that is, a pixel that is brighter than the previous frame (plus change pixel) to 1, and a pixel whose luminance value is −Th1 or less, that is, A ternary value in which a pixel that has become darker than the previous frame (a minus change pixel) is -1, and a pixel whose luminance value is between -Th1 and Th1, that is, a pixel that does not change in luminance (a pixel without change) is 0. Are generated (step ST022). The predetermined threshold Th1 can be set to 2, for example.

また上記のように、ヘッドライトのような光が注目画素上を通過する場合、そのような光はある程度の大きさを持った領域を照射するため、注目画素の周辺領域に含まれる画素についても、注目画素が明るくなるのとほぼ同時に明るくなり、注目画素が暗くなるのとほぼ同時に暗くなる。   In addition, as described above, when light such as a headlight passes over the target pixel, such light irradiates an area having a certain size. The pixel of interest becomes brighter at the same time as it becomes brighter, and it becomes darker at the same time as the pixel of interest becomes darker.

そこで次に、光候補画素抽出手段10は、ステップST022で生成したプラスマイナス変化画像について、輝度変化の方向が統一されている領域に含まれる画素だけをプラス変化画素、又はマイナス変化画素とするよう修正する(ステップST023)。
具体的には、プラス変化画素である注目画素の周辺画素(例えば8近傍)に、プラス変化画素が所定数以上(少なくとも半数。例えば4画素以上)なければ、光候補画素抽出手段10は、注目画素を変化なし画素(画素値0)に修正する。なお、修正結果は、プラスマイナス変化画像を複製した、更新用プラスマイナス変化画像に反映する。
Therefore, next, the light candidate pixel extraction unit 10 sets only the pixels included in the region where the direction of the luminance change is unified as the plus change pixel or the minus change pixel in the plus / minus change image generated in step ST022. It corrects (step ST023).
Specifically, if the number of positive change pixels is not less than a predetermined number (at least half, for example, 4 pixels or more) in the peripheral pixels (for example, the vicinity of 8) that are positive change pixels, the light candidate pixel extraction unit 10 The pixel is corrected to the unchanged pixel (pixel value 0). The correction result is reflected in the update plus / minus change image obtained by copying the plus / minus change image.

光候補画素抽出手段10は、マイナス変化画素に関しても、プラス変化画素と同様に、マイナス変化画素のうちの注目画素の周辺画素(例えば8近傍)に、マイナス変化画素が所定数以上(少なくとも半数。例えば4画素以上)なければ、その注目画素に対応する更新用プラスマイナス変化画像の画素を変化なし画素(画素値0)に修正する。
光候補画素抽出手段10は、全てのプラス変化画素及びマイナス変化画素について上記の処理を終えると、修正結果を反映した更新用プラスマイナス画像を改めてプラスマイナス変化画像として以降の処理に用いる。
The light candidate pixel extraction unit 10 also has a negative change pixel equal to or more than a predetermined number (at least half) of the negative change pixels in the peripheral pixels (for example, 8 neighborhoods) of the target pixel among the negative change pixels, similarly to the positive change pixels. If there are no more than four pixels, for example, the pixel of the update plus / minus change image corresponding to the target pixel is corrected to a non-change pixel (pixel value 0).
When the light candidate pixel extraction unit 10 finishes the above processing for all the positive change pixels and the negative change pixels, the light candidate pixel extraction unit 10 uses the update positive / negative image reflecting the correction result as a positive / negative change image for the subsequent processing.

次に、光候補画素抽出手段10は、更新したプラスマイナス変化画像から、各画素に対するプラス変化カウンタの値とマイナス変化カウンタの値を更新する。そして、各画素のプラス変化カウンタ及びマイナス変化カウンタの値を加算し、閾値処理することで、光候補画素を抽出し、光候補画素の位置を表す光候補画素画像を生成する(ステップST024)。   Next, the light candidate pixel extraction unit 10 updates the value of the plus change counter and the value of the minus change counter for each pixel from the updated plus / minus change image. Then, by adding the values of the positive change counter and the negative change counter of each pixel and performing threshold processing, light candidate pixels are extracted, and a light candidate pixel image representing the position of the light candidate pixel is generated (step ST024).

図4に、上記のステップST024の処理の詳細を表すフローチャートを示す。まず、光候補画素抽出手段10は、プラスマイナス変化画像上の任意の画素を注目画素に設定する(ステップST24−1)。次に、光候補画素抽出手段10は、注目画素がプラス変化画素か否か判定する(ステップST24−2)。注目画素がプラス変化画素の場合、すなわち、注目画素の値が1の場合、光候補画素抽出手段10は、その注目画素に対応するプラス変化カウンタの値を2カウントアップし、マイナス変化カウンタの値を4カウントダウンする(ステップST24−4)。   FIG. 4 is a flowchart showing details of the process in step ST024 described above. First, the light candidate pixel extraction unit 10 sets an arbitrary pixel on the plus-minus change image as a target pixel (step ST24-1). Next, the light candidate pixel extraction unit 10 determines whether or not the target pixel is a positive change pixel (step ST24-2). When the pixel of interest is a positive change pixel, that is, when the value of the pixel of interest is 1, the light candidate pixel extraction unit 10 increments the value of the positive change counter corresponding to the pixel of interest by two, and the value of the negative change counter Is counted down by 4 (step ST24-4).

一方、ステップST24−2において、注目画素がプラス変化画素でない場合、光候補画素抽出手段10は、注目画素がマイナス変化画素か否かを判定する(ステップST24−3)。注目画素がマイナス変化画素の場合、すなわち、注目画素の値が−1の場合、光候補画素抽出手段10は、注目画素に対応するプラス変化カウンタの値を4カウントダウンし、マイナス変化カウンタの値を2カウントアップする(ステップST24−5)。一方、ステップST24−3において、注目画素がマイナス変化画素でない場合、すなわち、注目画素の値が0の場合、光候補画素抽出手段10は、輝度変化がない場合に光候補画素が残るのを避けるために、注目画素に対応するプラス変化カウンタ、マイナス変化カウンタの値を共に1カウントダウンする(ステップST24−6)。   On the other hand, if the target pixel is not a positive change pixel in step ST24-2, the light candidate pixel extraction unit 10 determines whether the target pixel is a negative change pixel (step ST24-3). When the pixel of interest is a negative change pixel, that is, when the value of the pixel of interest is −1, the light candidate pixel extraction unit 10 counts down the value of the positive change counter corresponding to the pixel of interest by 4 and sets the value of the negative change counter to Counts up by 2 (step ST24-5). On the other hand, if the target pixel is not a minus change pixel in step ST24-3, that is, if the value of the target pixel is 0, the light candidate pixel extraction unit 10 avoids remaining light candidate pixels when there is no luminance change. Therefore, the values of the plus change counter and the minus change counter corresponding to the target pixel are both counted down by 1 (step ST24-6).

その後、光候補画素抽出手段10は、輝度変化が長時間発生していない場合にプラス変化カウンタの値が極端に低下して、実際の光が照射されたときに光候補画素として抽出されなくなることを避けるために設定された下限値と、プラス変化カウンタの値を比較する(ステップST24−7)。そして光候補画素抽出手段10は、プラス変化カウンタの値が下限値を下回っている場合、プラス変化カウンタの値をその下限値(例えば0)に設定する(ステップST24−8)。同様に、光候補画素抽出手段10は、マイナス変化カウンタの値を下限値と比較する(ステップST24−9)。そして光候補画素抽出手段10は、マイナス変化カウンタの値が下限値を下回っている場合、マイナス変化カウンタの値をその下限値に設定する(ステップST24−10)。   Thereafter, the light candidate pixel extraction unit 10 causes the value of the plus change counter to be extremely reduced when the luminance change has not occurred for a long time, and is not extracted as a light candidate pixel when actual light is irradiated. Is compared with the lower limit value set in order to avoid the negative change counter value (step ST24-7). Then, when the value of the plus change counter is below the lower limit value, the light candidate pixel extraction unit 10 sets the value of the plus change counter to the lower limit value (for example, 0) (step ST24-8). Similarly, the light candidate pixel extraction unit 10 compares the value of the minus change counter with the lower limit value (step ST24-9). If the value of the minus change counter is below the lower limit value, the light candidate pixel extraction unit 10 sets the value of the minus change counter to the lower limit value (step ST24-10).

次に、光候補画素抽出手段10は、プラス変化カウンタとマイナス変化カウンタの合計を算出し、その合計値と所定の閾値Th2とを比較する(ステップST24−11)。なお、所定の閾値Th2は、例えば8とすることができる。そして、カウンタの合計値が閾値Th2以上の場合、光候補画素抽出手段10は、当該注目画素を光候補画素とする(ステップST24−12)。一方、ステップST24−11において、カウンタの合計値が閾値Th2未満の場合、当該注目画素を光候補画素ではないとする(ステップST24−13)。なお、光候補画素か否かは、監視画像と同一の大きさを持つ2値画像である光候補画素画像で表され、注目画素が光候補画素である場合、光候補画素画像の対応する位置の画素値が1に設定され、その他の場合、画素値が0に設定される。   Next, the light candidate pixel extraction unit 10 calculates the sum of the plus change counter and the minus change counter, and compares the sum with a predetermined threshold Th2 (step ST24-11). The predetermined threshold value Th2 can be set to 8, for example. If the total value of the counter is equal to or greater than the threshold Th2, the light candidate pixel extraction unit 10 sets the target pixel as a light candidate pixel (step ST24-12). On the other hand, when the total value of the counter is less than the threshold Th2 in step ST24-11, the target pixel is not a light candidate pixel (step ST24-13). Whether or not it is a light candidate pixel is represented by a light candidate pixel image that is a binary image having the same size as the monitoring image. When the target pixel is a light candidate pixel, the corresponding position of the light candidate pixel image Is set to 1; otherwise, the pixel value is set to 0.

その後、光候補画素抽出手段10は、全ての画素について上記のステップST24−2〜ST24−13の処理を行ったか否かを調べる(ステップST24−14)。そして、それらの処理を行っていない画素が残っている場合、ステップST24−1に処理を戻し、未処理の画素から新たな注目画素を設定する。一方、全ての画素についてそれらの処理が行われた場合、光候補画素抽出手段10は、光候補画素の抽出を終了する。そして、光候補画素画像を、記憶部4に記憶する。   Thereafter, the light candidate pixel extraction unit 10 checks whether or not the processing in steps ST24-2 to ST24-13 has been performed on all the pixels (step ST24-14). If pixels that have not been processed remain, the process returns to step ST24-1, and a new pixel of interest is set from the unprocessed pixels. On the other hand, when those processes are performed for all the pixels, the light candidate pixel extraction unit 10 ends the extraction of the light candidate pixels. Then, the light candidate pixel image is stored in the storage unit 4.

なお、各カウンタの増減値及び閾値Th2は、実験または経験などにより、適切な値に調整される。また、ステップST24−4及びST24−5において、各カウンタの1フレーム当たりの増加値よりも、減少値を大きくしたことにより、輝度の変化が増加または減少の何れか一方で連続していないときはカウンタの値を急速にカウントダウンして、監視領域を通過する光以外の原因による輝度変化の抽出を防ぐことができる。また、カウントダウンを行う代わりに、カウンタの下限値(例えば0)を代入してもよい。
また、ステップST24−6についても、各カウンタの値を1カウントダウンする代わりに、カウンタの下限値を代入してもよい。
The increase / decrease value of each counter and the threshold value Th2 are adjusted to appropriate values by experiment or experience. Further, in steps ST24-4 and ST24-5, when the decrease value is made larger than the increase value per frame of each counter, the change in luminance is not continuously increased or decreased. By rapidly counting down the counter value, it is possible to prevent extraction of luminance changes due to causes other than light passing through the monitoring area. Further, instead of counting down, a lower limit value (for example, 0) of the counter may be substituted.
In step ST24-6, instead of decrementing the value of each counter by 1, the lower limit value of the counter may be substituted.

さらに、プラス変化カウンタとマイナス変化カウントを別々に設定するのではなく、プラス方向及びマイナス方向の両方の輝度変化を一つの指標として表す変化カウンタを用意してもよい。この場合、光候補画素抽出手段10は、1フレーム前において求めたプラスマイナス変化画像の注目画素がプラス変化画素であり、かつ現時刻で求めたプラスマイナス変化画像の対応する画素もプラス変化画素のとき、変化カウンタをカウントアップする。同様に、光候補画素抽出手段10は、1フレーム前において求めたプラスマイナス変化画像の注目画素がマイナス変化画素であり、かつ現時刻で求めたプラスマイナス変化画像の対応する画素もマイナス変化画素のときにも、変化カウンタをカウントアップする。それ以外の場合は、光候補画素抽出手段10は、変化カウンタをカウントダウンするか、若しくは下限値(例えば0)に設定する。
この場合、上記のステップST24−11では、プラス変化カウンタとマイナス変化カウンタの合計値の代わりに、変化カウンタの値を直接閾値Th2と比較する。
Furthermore, instead of setting the positive change counter and the negative change count separately, a change counter that represents both positive and negative luminance changes as one index may be prepared. In this case, the light candidate pixel extraction unit 10 determines that the target pixel of the plus / minus change image obtained one frame before is a plus change pixel, and the corresponding pixel of the plus / minus change image obtained at the current time is also a plus change pixel. When the change counter is counted up. Similarly, the light candidate pixel extraction unit 10 determines that the target pixel of the plus / minus change image obtained one frame before is a minus change pixel, and the corresponding pixel of the plus / minus change image obtained at the current time is also a minus change pixel. Sometimes the change counter is counted up. In other cases, the light candidate pixel extraction unit 10 counts down the change counter or sets it to a lower limit value (for example, 0).
In this case, in step ST24-11, instead of the total value of the plus change counter and the minus change counter, the value of the change counter is directly compared with the threshold Th2.

理解を容易にするため、図5(a)〜(e)を用いて、注目画素における、光が通過した際の輝度変化、各カウンタの値及び光候補画素に相当するか否かの判定結果の一例を示す。図5(a)は、監視画像の注目画素の輝度値変化を表す。横軸は時間(フレーム数)であり、便宜上、2フレームごとに区切ってある。また、縦軸は輝度値を表し、1目盛の値は2とする。グラフ501は、輝度値の時間変化を表す。図5(b)は、プラス変化カウンタの値の時間変化を表し、図5(c)は、マイナス変化カウンタの値の時間変化を表す。また図5(d)は、プラス変化カウンタとマイナス変化カウンタの合計値の時間変化を表す。図5(b)〜(d)において、横軸は、時間(フレーム数)であり、図5(a)と対応している。また、縦軸は、各カウンタの値またはその合計値を表す。グラフ502〜504は、それぞれプラス変化カウンタ、マイナス変化カウンタ、及びそれらの合計値の時間変化を表す。図5(e)は、各フレームにおいて注目画素が光候補画素に該当するか否かを表す。図5(e)についても、横軸は時間(フレーム数)を表し、図5(a)と対応している。また各フレームに対応する数値が「1」のとき、注目画素が光候補画素であることを示し、その数値が「0」のとき、注目画素が光候補画素ではないことを示す。   In order to facilitate understanding, FIG. 5A to FIG. 5E are used to determine the luminance change when light passes through the pixel of interest, the value of each counter, and whether or not it corresponds to the light candidate pixel. An example is shown. FIG. 5A shows a change in luminance value of the target pixel of the monitoring image. The horizontal axis represents time (number of frames), and is divided every two frames for convenience. The vertical axis represents the luminance value, and the value of one scale is 2. A graph 501 represents a change in luminance value over time. FIG. 5B shows the time change of the value of the plus change counter, and FIG. 5C shows the time change of the value of the minus change counter. FIG. 5D shows the time change of the total value of the plus change counter and the minus change counter. 5B to 5D, the horizontal axis represents time (number of frames) and corresponds to FIG. 5A. The vertical axis represents the value of each counter or its total value. Graphs 502 to 504 represent the change over time of the positive change counter, the negative change counter, and their total values, respectively. FIG. 5E shows whether the target pixel corresponds to a light candidate pixel in each frame. In FIG. 5E as well, the horizontal axis represents time (the number of frames) and corresponds to FIG. When the numerical value corresponding to each frame is “1”, it indicates that the target pixel is a light candidate pixel, and when the numerical value is “0”, it indicates that the target pixel is not a light candidate pixel.

以下、1フレーム目から順に、輝度変化及び各カウンタの値の変化を追っていく。図5(a)において、2フレーム目までは輝度変化なしだが、3〜10フレーム(図中、510として表される)で輝度が徐々に高くなる。その後、11〜14フレームでは輝度変化がなく、15〜20フレーム(図中、520として表される)で輝度が徐々に低くなっている。21フレーム以降は輝度変化はなしである。
図5(b)に示すように、注目画素の輝度が徐々に高くなる3〜10フレームの間、プラス変化カウンタの値502も2ずつ増加する。その後、注目画素の輝度が変化しない11〜14フレームの間、プラス変化カウンタの値502は1ずつ減少する。そして、注目画素の輝度が低くなる15〜20フレームでは、プラス変化カウンタの値502は−4ずつ急激に低下し、下限値に到達した以降、一定となる。
一方、図5(c)に示すように、注目画素の輝度が一定または高くなる14フレームまでは、マイナス変化カウンタの値503は下限値で一定である。そして、その輝度値が低下する15〜20フレームの間、マイナスカウンタの値503は2ずつ増加する。そして、その輝度値が一定となる21フレーム以降、マイナスカウンタの値503は1ずつ減少する。
この結果、図5(d)に示すように、両カウンタの合計値504は、注目画素の輝度値が上昇するにつれて増加し、6フレーム目で閾値Th2以上となる。そして、プラス変化カウンタまたはマイナス変化カウンタの少なくとも一方が比較的大きな値を持つ24フレーム目まで、その合計値504が閾値Th2以上となる。
従って、図5(e)に示すように、6フレーム以降24フレームまで、注目画素は光候補画素となる。
Hereinafter, in order from the first frame, the luminance change and the change in the value of each counter are followed. In FIG. 5A, the luminance does not change until the second frame, but the luminance gradually increases in 3 to 10 frames (represented as 510 in the figure). Thereafter, there is no luminance change in the 11th to 14th frames, and the luminance gradually decreases in the 15th to 20th frames (represented as 520 in the figure). The luminance does not change after 21 frames.
As shown in FIG. 5B, the positive change counter value 502 increases by 2 during 3 to 10 frames in which the luminance of the target pixel gradually increases. Thereafter, during the 11th to 14th frames in which the luminance of the target pixel does not change, the value 502 of the plus change counter decreases by one. Then, in 15 to 20 frames when the luminance of the pixel of interest becomes low, the value 502 of the plus change counter rapidly decreases by -4 and becomes constant after reaching the lower limit value.
On the other hand, as shown in FIG. 5C, the negative change counter value 503 is constant at the lower limit value until 14 frames when the luminance of the target pixel becomes constant or high. Then, the minus counter value 503 increases by 2 during 15 to 20 frames when the luminance value decreases. Then, after 21 frames when the luminance value becomes constant, the minus counter value 503 decreases by one.
As a result, as shown in FIG. 5D, the total value 504 of both counters increases as the luminance value of the target pixel increases, and becomes equal to or greater than the threshold Th2 in the sixth frame. Then, up to the 24th frame in which at least one of the plus change counter and the minus change counter has a relatively large value, the total value 504 is equal to or greater than the threshold Th2.
Therefore, as shown in FIG. 5E, the pixel of interest is a light candidate pixel from 6 frames to 24 frames.

図5の設定例では、プラス変化カウンタとマイナス変化カウンタの合計値に基づいて光候補画素を抽出するため、光が照射されている期間とほぼ等しい期間中、注目画素を光候補画素と判定することができる。しかし、カウンタの増減値または閾値Th2を適切に調整することにより、プラス変化カウンタあるいはマイナス変化カウンタのみを用いて光候補画素の抽出を行うようにしてもよい。   In the setting example of FIG. 5, since the light candidate pixel is extracted based on the total value of the plus change counter and the minus change counter, the target pixel is determined as the light candidate pixel during a period substantially equal to the period during which light is irradiated. be able to. However, the light candidate pixel may be extracted using only the plus change counter or the minus change counter by appropriately adjusting the increase / decrease value of the counter or the threshold value Th2.

背景差分領域抽出手段20は、監視領域内に侵入した侵入者などによって、監視画像と背景画像との間で輝度変動を生じた背景差分領域を抽出する。そのために、背景差分領域抽出手段20は、撮像部2から取得した最新の監視画像と背景画像の互いに対応する画素同士の差分値を算出し、差分画像を生成する。そして、背景差分領域抽出手段20は、生成した差分画像に含まれる各画素の輝度値を所定のしきい値と比較して、輝度値の変動が閾値以上となる背景差分領域を抽出した差分2値画像B(x,y)を生成する。ここで、所定の閾値は、例えば、差分画像の輝度値に関して、最小値からの累積ヒストグラムが、差分画像全体の累積ヒストグラムに対して所定の比率(例えば、70%)となったときの輝度値とすることができる。また所定の閾値は、差分画像の輝度値の平均値に、所定のバイアス値を加えた値としてもよい。   The background difference area extraction unit 20 extracts a background difference area in which a luminance variation occurs between the monitoring image and the background image by an intruder who has entered the monitoring area. For this purpose, the background difference area extraction unit 20 calculates a difference value between corresponding pixels of the latest monitoring image and the background image acquired from the imaging unit 2, and generates a difference image. Then, the background difference area extraction unit 20 compares the luminance value of each pixel included in the generated difference image with a predetermined threshold value, and extracts the difference 2 obtained by extracting the background difference area in which the fluctuation of the luminance value is equal to or greater than the threshold value. A value image B (x, y) is generated. Here, the predetermined threshold is, for example, the luminance value when the cumulative histogram from the minimum value is a predetermined ratio (for example, 70%) with respect to the cumulative histogram of the entire differential image with respect to the luminance value of the differential image. It can be. The predetermined threshold may be a value obtained by adding a predetermined bias value to an average value of luminance values of the difference image.

さらに、背景差分領域抽出手段20は、モルフォロジー演算の膨張・収縮処理、または微小面積除外のフィルタリング処理を差分2値画像B(x,y)に対して行い、ノイズを除去することが好ましい。   Furthermore, it is preferable that the background difference area extraction unit 20 performs the expansion / contraction process of the morphological operation or the filtering process of excluding the small area on the difference binary image B (x, y) to remove the noise.

ラベリング手段30は、背景差分領域抽出手段20で得られた差分2値画像B(x,y)に対してラベリング処理を行い、独立した背景差分領域、すなわち、互いに連結されない背景差分領域ごとにラベルを付す。なお、ラベリング処理は公知の技術を用いて行うことができるので、ここでは詳細な説明を省略する。その後、ラベリング手段30は、独立した背景差分領域ごとに、面積、すなわち、その領域に含まれる画素数を算出する。そして、ラベリング手段30は、算出した面積が予め設定した面積閾値以上の背景差分領域を、以降の処理の対象となる「物体候補領域」として管理番号を付与して管理する。一方、ラベリング手段30は、その面積が面積閾値未満の背景差分領域については、ノイズにより生じた領域と判断して削除し、以降の処理対象としない。
ラベリングされた差分2値画像B(x,y)は、人属性値及び光属性値の算出に用いるため、及び、次に取得された監視画像に対するトラッキング処理の基準とするために記憶部4に記憶される。
The labeling means 30 performs a labeling process on the difference binary image B (x, y) obtained by the background difference area extraction means 20, and labels each independent background difference area, that is, each background difference area not connected to each other. Is attached. Since the labeling process can be performed using a known technique, detailed description is omitted here. Thereafter, the labeling means 30 calculates the area, that is, the number of pixels included in the area, for each independent background difference area. Then, the labeling means 30 manages a background difference area whose calculated area is equal to or larger than a preset area threshold by assigning a management number as an “object candidate area” to be processed later. On the other hand, the labeling means 30 determines that the background difference area whose area is less than the area threshold is an area caused by noise, deletes it, and does not set it as a subsequent processing target.
The labeled difference binary image B (x, y) is stored in the storage unit 4 for use in calculating the human attribute value and the light attribute value, and as a reference for tracking processing for the next acquired monitoring image. Remembered.

トラッキング手段40は、最新の差分2値画像Bt(x,y)において注目する物体候補領域と、1フレーム前の時刻t-1に取得された監視画像から求めた差分2値画像Bt-1(x,y)に含まれる物体候補領域のうち、同一の物体によると考えられる物体候補領域を関係付ける。そのためにトラッキング手段40は、最新の差分2値画像Bt(x,y)から、注目する物体候補領域の重心位置Gt(x,y)及び面積を求める。次に、トラッキング手段40は、1フレーム前の差分2値画像Bt-1(x,y)に含まれる各物体候補領域mの重心Gmt-1(x,y)(ただし、mは各物体候補領域を表すラベル番号であり、例えば、m=1,2,..)及び面積を求める。そして、トラッキング手段40は、Gt(x,y)と各Gmt-1(x,y)の距離ΔGmを求める。トラッキング手段40は、1フレーム前の差分2値画像Bt-1(x,y)に含まれる物体候補領域のうち、その距離ΔGmの値が人の移動速度から想定される最大移動距離よりも小さく、且つその面積が注目する物体候補領域に最も近いものを、最新の差分2値画像Bt(x,y)の注目する物体候補領域と同一の物体によるものとし、それらの物体候補領域に同一の参照番号を付する。
なお、トラッキング手段40は、他のトラッキング方法を用いて、同一の物体による、最新の監視画像に対する物体候補領域と過去に取得された監視画像に対する物体候補領域を関連付けてもよい。
Tracking means 40, and the object candidate region of interest in the latest binary difference image B t (x, y), 1 frame before time t-1 in the binary difference was calculated from the obtained monitored image to the image B t- Among object candidate areas included in 1 (x, y), object candidate areas that are considered to be the same object are related. For this purpose, the tracking unit 40 obtains the center-of-gravity position G t (x, y) and area of the object candidate region of interest from the latest difference binary image B t (x, y). Next, the tracking unit 40 calculates the center of gravity G mt-1 (x, y) of each object candidate area m included in the difference binary image B t-1 (x, y) one frame before (where m is each This is a label number representing an object candidate area, for example, m = 1, 2,. Then, the tracking unit 40 obtains a distance ΔG m between G t (x, y) and each G mt−1 (x, y). Tracking means 40, one frame before the binary difference image B t-1 (x, y ) of the object candidate region included in, than the maximum moving distance value of the distance .DELTA.G m is estimated from the moving speed of the person is small, and the one closest to the object candidate area in which the area of interest, and by the same object and object candidate region of interest of the latest binary difference image B t (x, y), their object candidate region Are given the same reference numbers.
The tracking unit 40 may associate the object candidate area for the latest monitoring image and the object candidate area for the monitoring image acquired in the past by the same object using another tracking method.

特徴量算出手段50は、ラベリング手段30により監視対象とされた物体候補領域に対して、光候補画素抽出手段10によって抽出された光候補画素の占める割合を、「光らしさ」を表す光属性値として算出する。具体的には、特徴量算出手段50は、背景差分領域抽出手段20で求めた差分2値画像と、光候補画素抽出手段10で求めた光候補画素画像の対応画素同士で論理積を求め、注目する物体候補領域においてその論理積が1となった画素の数の合計を求める。そして、その合計を注目する物体候補領域に含まれる画素数で割った値を物体候補領域に占める光候補画素の割合を表す光属性値とする。この値は注目する物体候補領域に含まれる画素が全て光候補画素である場合1となり、注目する物体候補領域に含まれる何れの画素も光候補画素でない場合0となる。光属性値はその値が1に近いほど「光らしさ」の度合いも大きいことを表す。なお、物体候補領域が差分2値画像に複数個含まれる場合、特徴量算出手段50は、各物体候補領域に対して光属性値を算出する。   The feature amount calculating unit 50 represents the ratio of the light candidate pixels extracted by the light candidate pixel extracting unit 10 with respect to the object candidate region monitored by the labeling unit 30 and represents the light attribute value. Calculate as Specifically, the feature amount calculation unit 50 calculates a logical product between corresponding pixels of the difference binary image obtained by the background difference region extraction unit 20 and the light candidate pixel image obtained by the light candidate pixel extraction unit 10, The total number of pixels whose logical product is 1 in the object candidate region of interest is obtained. Then, a value obtained by dividing the total by the number of pixels included in the object candidate region to be noticed is set as a light attribute value representing the proportion of light candidate pixels in the object candidate region. This value is 1 when all the pixels included in the target object candidate region are light candidate pixels, and is 0 when none of the pixels included in the target object candidate region is a light candidate pixel. The light attribute value indicates that the closer the value is to 1, the greater the degree of “lightness”. When a plurality of object candidate areas are included in the binary difference image, the feature amount calculating unit 50 calculates a light attribute value for each object candidate area.

また、特徴量算出手段50は、物体候補領域に対して、「人らしさ」を表す人属性値を算出する。なお、物体候補領域が差分2値画像に複数個含まれる場合、特徴量算出手段50は、各物体候補領域に対して人属性値を算出する。   Further, the feature amount calculating means 50 calculates a human attribute value representing “humanity” for the object candidate region. When a plurality of object candidate areas are included in the binary difference image, the feature amount calculating unit 50 calculates a human attribute value for each object candidate area.

特徴量算出手段50は、異なる観点から「人らしさ」の度合いを表すパラメータを複数種類算出する。そして特徴量算出手段50は、それら複数のパラメータを重み付けした後、加算または積算して求めた値を正規化することにより、人属性値を算出する。
ここで、特徴量算出手段50は、「人らしさ」の度合いを表すパラメータとして、例えば、物体候補領域内のエッジの類似度、テクスチャの類似度などを算出する。以下、これらのパラメータの具体的な算出方法の例について説明する。なお、以下の例では、何れのパラメータについても、その値が大きいほど「人らしさ」の度合いも大きいことを表すものとする。
The feature amount calculating means 50 calculates a plurality of types of parameters representing the degree of “humanity” from different viewpoints. The feature quantity calculation means 50 calculates the human attribute value by weighting the plurality of parameters and then normalizing the values obtained by addition or integration.
Here, the feature amount calculation unit 50 calculates, for example, the similarity of edges in the object candidate region, the similarity of texture, and the like as parameters representing the degree of “humanity”. Hereinafter, an example of a specific calculation method of these parameters will be described. In the following example, for any parameter, the greater the value, the greater the degree of “humanity”.

まず、物体候補領域内のエッジの類似度を表すパラメータについて説明する。特徴量算出手段50は、注目する物体候補領域について、最新の監視画像と背景画像の対応する領域内で、エッジ画素の分布を調べる。そのために、特徴量算出手段50は、注目する物体候補領域内の各画素について、例えばラプラシアンフィルタを用いてエッジ強度を算出したエッジ画像を求める。そして特徴量算出手段50は、最新の監視画像について求めたエッジ画像のうち、所定以上のエッジ強度(例えば、50)を有する画素の合計Etotalを求める。また特徴量算出手段50は、最新の監視画像について求めたエッジ画像のうち、所定以上のエッジ強度を有する画素について、背景画像について求めたエッジ画像の対応する画素とのエッジ強度の差の絶対値を求める。そして特徴量算出手段50は、エッジ強度の差の絶対値が所定の閾値(例えば、30)以上である画素の累計値Esを求める。そして、特徴量算出手段50は、(1-Es/Etotal)を、エッジの類似度を表すパラメータの値とする。このパラメータの値は、注目する物体候補領域について、最新の監視画像のエッジ分布と背景画像のエッジ分布が異なるほど1に近づき、そのエッジ分布が似ているほど0に近づく。 First, a parameter representing the similarity of edges in the object candidate area will be described. The feature amount calculating unit 50 examines the distribution of edge pixels in the corresponding region of the latest monitoring image and background image for the object candidate region of interest. For this purpose, the feature amount calculation unit 50 obtains an edge image in which the edge strength is calculated using, for example, a Laplacian filter, for each pixel in the object candidate region of interest. Then, the feature amount calculating unit 50 calculates a total E total of pixels having edge strengths (for example, 50) that are equal to or higher than a predetermined value among the edge images calculated for the latest monitoring image. In addition, the feature amount calculation unit 50 calculates the absolute value of the difference in edge strength between the edge image obtained for the latest monitoring image and the corresponding pixel of the edge image obtained for the background image for a pixel having an edge strength equal to or higher than a predetermined value. Ask for. The characteristic amount calculating unit 50, the absolute value of the difference between the edge strength is a predetermined threshold value (e.g., 30) obtains the cumulative value E s of the pixel is greater than or equal. Then, the feature quantity calculating means 50 sets (1-E s / E total ) as a parameter value representing the similarity of edges. The value of this parameter approaches 1 as the edge distribution of the latest monitoring image and the edge distribution of the background image differ for the object candidate region of interest, and approaches 0 as the edge distribution is similar.

次に、物体候補領域内のテクスチャの類似度を表すパラメータについて説明する。テクスチャの指標としては、例えば、輝度値のヒストグラムの中央値または最頻値、輝度分散値、フーリエパワースペクトルの所定周波数の強度、濃度共起行列の所定要素の値などを用いることができる。特徴量算出手段50は、注目する物体候補領域について、最新の監視画像と背景画像の対応する領域のそれぞれについて、これらテクスチャの指標のうち、少なくとも一つについてその値を算出する。そして、特徴量算出手段50は、監視画像について算出したテクスチャの指標値Tと、背景画像について算出したテクスチャの指標値TBとに基づいて、両者の値が一致するほど0に近い値となるような関数を用いて、テクスチャの類似度を表すパラメータの値を算出する。なお、上記の関数として、例えば、次に示すものを用いることができる。

Figure 2009010594
ここでαは定数である。 Next, a parameter representing the texture similarity in the object candidate area will be described. As the texture index, for example, a median or mode value of a histogram of luminance values, a luminance dispersion value, an intensity of a predetermined frequency of a Fourier power spectrum, a value of a predetermined element of a density co-occurrence matrix, or the like can be used. The feature amount calculating means 50 calculates the value of at least one of the texture indices for each of the corresponding regions of the latest monitoring image and background image for the object candidate region of interest. The feature amount calculating means 50 is composed of the index values T of the texture calculated for monitoring image, based on the index value T B of the texture calculated for the background image, a value close to 0 as both values match Using such a function, the value of the parameter representing the texture similarity is calculated. As the above function, for example, the following functions can be used.
Figure 2009010594
Here, α is a constant.

特徴量算出手段50は、上記のパラメータの他、例えば、輝度変化の極性分布、物体候補領域の形状及び面積などを基準としたパラメータを算出してもよい。
各パラメータ値を算出すると、特徴量算出手段50は、各パラメータの値に対し、実験などに基づいて最適化した重み係数を用いて重み付けする。そして、特徴量算出手段50は、その重み付けを行なった各パラメータの値を、加算または積算して求めた値を0〜1の範囲で正規化する。特徴量算出手段50は、その正規化された値を人属性値とする。得られた人属性値は、1に近いほど、人である可能性が高いことを表す。また特徴量算出手段50は、各パラメータの値から、ファジー推論に基づいて人属性値を求めるようにしてもよい。
In addition to the above parameters, the feature amount calculating unit 50 may calculate parameters based on, for example, the polarity distribution of luminance change, the shape and area of the object candidate region, and the like.
When each parameter value is calculated, the feature amount calculating means 50 weights each parameter value using a weighting factor optimized based on experiments or the like. Then, the feature quantity calculating means 50 normalizes the values obtained by adding or integrating the weighted parameter values in the range of 0-1. The feature quantity calculation means 50 uses the normalized value as the human attribute value. The obtained human attribute value represents that the closer to 1, the higher the possibility of being a person. Further, the feature quantity calculating means 50 may obtain the human attribute value from the value of each parameter based on fuzzy inference.

侵入者判定手段60は、特徴量算出手段50で算出された人属性値及び光属性値に基づいて、物体候補領域が侵入者によるものか否かを判定する。そのために、侵入者判定手段60は、所定数だけ連続したフレーム(例えば、5フレーム)にわたって、同一の物体によるものとしてトラッキング手段40により関連付けられた物体候補領域について、求めた人属性値及び光属性値から算出した判定値が所定の閾値以上となるとき、その物体候補領域は侵入者によるものと判定する。そして、警報部6や、通信部3を通じて監視センタなどに異常発生信号を送信する。一方、判定値が所定の閾値以上となる連続フレーム数が、所定数未満であれば、侵入者判定手段60は、その物体候補領域は侵入者によるものではないと判定する。
侵入者判定手段60は、例えば以下の式にしたがって、その判定に用いる判定値を算出する。
判定値=人属性値/(1+光属性値)
また、所定の閾値は、用途に応じて実験的に定めることができる。なお、判定値の算出方法は、上記のものに限られない。例えば、(人属性値−光属性値)を判定値として用いてもよい。あるいは、侵入者判定手段60は、人属性値と光属性値を直接判定値として用い、それぞれ別個に評価してもよい。この場合、例えば、人属性値が所定の閾値(例えば、0.8)より高く、光属性値が別個に定められた閾値(例えば、0.2)未満となるフレームが、所定数連続した場合、侵入者判定手段60は、その物体候補領域は侵入者によるものと判定する。さらに、閾値を適切に調整することにより、上記の何れかの判定値が、1フレームでも閾値以上となったとき、侵入者判定手段60は、物体候補領域が侵入者によるものと判定してもよい。
The intruder determination unit 60 determines whether or not the object candidate region is an intruder based on the human attribute value and the light attribute value calculated by the feature amount calculation unit 50. For this purpose, the intruder determination unit 60 determines the obtained human attribute value and optical attribute for the object candidate region related by the tracking unit 40 as being due to the same object over a predetermined number of consecutive frames (for example, 5 frames). When the determination value calculated from the value is equal to or greater than a predetermined threshold, it is determined that the object candidate region is due to an intruder. Then, an abnormality occurrence signal is transmitted to the monitoring center or the like through the alarm unit 6 or the communication unit 3. On the other hand, if the number of consecutive frames whose determination value is equal to or greater than the predetermined threshold is less than the predetermined number, the intruder determination unit 60 determines that the object candidate area is not from an intruder.
The intruder determination means 60 calculates a determination value used for the determination according to the following formula, for example.
Judgment value = human attribute value / (1 + light attribute value)
The predetermined threshold value can be experimentally determined according to the application. Note that the determination value calculation method is not limited to the above. For example, (person attribute value−light attribute value) may be used as the determination value. Alternatively, the intruder determination unit 60 may use the human attribute value and the light attribute value directly as the determination value, and may evaluate each separately. In this case, for example, when a predetermined number of frames in which the human attribute value is higher than a predetermined threshold value (for example, 0.8) and the light attribute value is less than a separately determined threshold value (for example, 0.2) are consecutive. The intruder determination means 60 determines that the object candidate area is due to an intruder. Furthermore, by appropriately adjusting the threshold value, when any one of the above determination values is equal to or greater than the threshold value even in one frame, the intruder determination unit 60 determines that the object candidate area is an intruder. Good.

図6に示したフローチャートを参照しつつ、本発明を適用した侵入者検知装置1の動作を以下に説明する。
まず、侵入者検知装置1に電源が投入されると、撮像部2は、一定の時間間隔で監視領域を撮影し、監視画像を取得する。そして、撮像部2は、監視画像を通信部3を介して画像処理部5へ送信する(ステップST01)。そして、画像処理部5は、取得した監視画像を、その取得時刻の順番にしたがって配列するように、記憶部4に記憶する。なお、侵入者検知装置1の起動直後など、背景画像が設定されていない場合、あるいは、背景画像が設定されてから一定時間を経過した場合、画像処理部5は取得した監視画像を背景画像として設定し、記憶部4に記憶する。
次に、画像処理部5は、光候補画素抽出手段10において、光候補画素を抽出する(ステップST02)。光候補画素の抽出の詳細については、上述したとおりである。
The operation of the intruder detection device 1 to which the present invention is applied will be described below with reference to the flowchart shown in FIG.
First, when power is turned on to the intruder detection device 1, the imaging unit 2 captures a monitoring area at regular time intervals and acquires a monitoring image. Then, the imaging unit 2 transmits the monitoring image to the image processing unit 5 via the communication unit 3 (step ST01). And the image processing part 5 memorize | stores the acquired monitoring image in the memory | storage part 4 so that it may arrange according to the order of the acquisition time. When a background image is not set, such as immediately after the intruder detection device 1 is activated, or when a certain time has elapsed since the background image was set, the image processing unit 5 uses the acquired monitoring image as the background image. Set and store in the storage unit 4.
Next, the image processing unit 5 uses the light candidate pixel extraction unit 10 to extract light candidate pixels (step ST02). Details of extraction of light candidate pixels are as described above.

その後、画像処理部5は、背景差分領域抽出手段20において、最新の監視画像と背景画像との対応画素間で差分を行い、輝度変動が相対的に大きい背景差分領域を抽出する(ステップST03)。そして、画像処理部5は、ラベリング手段30により、独立した背景差分領域のうち、所定以上の面積を持つ領域にラベルを付けて、物体候補領域とする(ステップST04)。さらに、トラッキング手段40により、同一の物体によると考えられる、最新の監視画像に対する物体候補領域と過去に取得された監視画像に対する物体候補領域を関連付ける(ステップST05)。   Thereafter, the image processing unit 5 performs a difference between the corresponding pixels of the latest monitoring image and the background image in the background difference area extraction unit 20, and extracts a background difference area having a relatively large luminance variation (step ST03). . Then, the image processing unit 5 uses the labeling unit 30 to label an area having a predetermined area or larger among the independent background difference areas, thereby forming an object candidate area (step ST04). Further, the tracking means 40 associates the object candidate area for the latest monitoring image, which is considered to be due to the same object, with the object candidate area for the monitoring image acquired in the past (step ST05).

次に、画像処理部5は、特徴量算出手段50において、各物体候補領域について人属性値及び光属性値を算出する(ステップST06)。そして、画像処理部5は、侵入者判定手段50において、各物体候補領域について、人属性値及び光属性値に基づいて算出された判定値が所定の閾値以上となるフレーム数が所定数連続するか否かを判定することにより、その物体候補領域が侵入者によるものか否かを判定する(ステップST07)。画像処理部5は、何れの物体候補領域についても、侵入者によるものではないと判定すると、処理をステップST01へ戻し、監視を継続する。
一方、画像処理部5は、何れか一つの物体候補領域でも侵入者によるものと判定すると、警報部6へ異常発生信号を送信し、警報部6はその異常発生信号の受信に伴って、LEDの明滅、ブザー音の発振など、異常の報知を行う。また画像処理部5は、通信部3を介して、外部の警備装置または監視センタへ異常発生信号を送信する(ステップST08)。そして、処理をステップST01へ戻す。
Next, the image processing unit 5 calculates the human attribute value and the light attribute value for each object candidate region in the feature amount calculating unit 50 (step ST06). Then, in the intruder determination unit 50, the image processing unit 5 continues a predetermined number of frames in which the determination value calculated based on the human attribute value and the light attribute value is equal to or greater than a predetermined threshold for each object candidate region. It is determined whether or not the object candidate area is an intruder (step ST07). If the image processing unit 5 determines that none of the object candidate areas is due to an intruder, the process returns to step ST01 and continues monitoring.
On the other hand, if the image processing unit 5 determines that any one of the object candidate areas is caused by an intruder, the image processing unit 5 transmits an abnormality occurrence signal to the alarm unit 6. Notification of abnormalities such as blinking of light and oscillation of buzzer sound. Further, the image processing unit 5 transmits an abnormality occurrence signal to an external security device or a monitoring center via the communication unit 3 (step ST08). Then, the process returns to step ST01.

以上説明してきたように、監視領域に車のヘッドライトのような指向性を持った強い光が照射された場合、その光の中心から離れるにつれて徐々に明るさが減少する。そのため、その光の接近または離反に伴って、輝度が徐々に変化する。そこで本発明を適用した侵入者検知装置1は、時間経過に伴って輝度が徐々に変化する画素を光候補画素として抽出する。そして、侵入者の可能性があるとして抽出した物体候補領域と、その光候補画素の重なり度合いなどに基づいて、物体候補領域が侵入者によるものか否かを判定するので、監視領域内に照射された光を侵入者と誤って検知することを防止できる。   As described above, when a strong light having directivity such as a headlight of a car is irradiated on the monitoring area, the brightness gradually decreases as the distance from the center of the light increases. Therefore, the luminance gradually changes as the light approaches or leaves. Therefore, the intruder detection apparatus 1 to which the present invention is applied extracts pixels whose luminance gradually changes with time as light candidate pixels. Then, based on the object candidate area extracted as the possibility of an intruder and the degree of overlap between the light candidate pixels and the like, it is determined whether or not the object candidate area is an intruder. It is possible to prevent the detected light from being mistakenly detected as an intruder.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。本発明は、車両、動物など、人以外の物体の監視領域内への侵入を検出するために使用してもよい。また、画像処理部5の光候補画素抽出手段10を含んで、撮像部から取得した監視画像を処理して監視画像に写り込んだ光部分を抽出する画像センサとして使用してもよい。
以上のように、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. The present invention may be used to detect intrusion of an object other than a human, such as a vehicle or animal, into a monitored area. Moreover, the light candidate pixel extraction means 10 of the image processing unit 5 may be included and used as an image sensor that processes a monitoring image acquired from the imaging unit and extracts a light portion reflected in the monitoring image.
As described above, various modifications can be made within the scope of the present invention according to the embodiment to be implemented.

本発明を適用した侵入者検知装置の機能ブロック図である。It is a functional block diagram of the intruder detection device to which the present invention is applied. (a)は、照射された光の移動に伴う注目画素の輝度変化を表す概略図であり、(b)は、侵入者の移動に伴う注目画素の輝度変化を表す概略図である。(A) is a schematic diagram showing the luminance change of the pixel of interest accompanying the movement of the irradiated light, and (b) is a schematic diagram showing the luminance change of the pixel of interest accompanying the movement of the intruder. 光候補画素を抽出する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which extracts a light candidate pixel. 光候補画素を抽出する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which extracts a light candidate pixel. (a)〜(e)は、注目画素の輝度変化と各カウンタ値の関係を示す図である。(A)-(e) is a figure which shows the relationship between the luminance change of an attention pixel, and each counter value. 本発明を適用した侵入者検知装置の動作フローチャートである。It is an operation | movement flowchart of the intruder detection apparatus to which this invention is applied.

符号の説明Explanation of symbols

1 侵入者検知装置
2 撮像部
3 通信部
4 記憶部
5 画像処理部
6 警報部
10 光候補画素抽出手段
20 背景差分領域抽出手段
30 ラベリング手段
40 トラッキング手段
50 特徴量算出手段
60 侵入者判定手段
DESCRIPTION OF SYMBOLS 1 Intruder detection apparatus 2 Imaging part 3 Communication part 4 Storage part 5 Image processing part 6 Alarm part 10 Light candidate pixel extraction means 20 Background difference area extraction means 30 Labeling means 40 Tracking means 50 Feature-value calculation means 60 Intruder determination means

Claims (5)

所定周期にて撮像した監視画像に基づいて、監視画像に写り込んだ光の可能性が高い画素を光候補画素として抽出する光候補画素抽出手段を有する画像センサであって、
前記光候補画素抽出手段は、
前記所定周期で撮像された複数の監視画像間の対応する画素の輝度値が増加または減少しているか否かを判定する判定手段と、前記判定手段にて増加との判定の時間的な連続性または減少との判定の時間的な連続性に基づき累積変化度数を画素ごとに算出する累積変化度数算出手段とを有し、
該累積変化度数が所定の閾値以上となる画素を前記光候補画素として抽出することを特徴とした画像センサ。
An image sensor having light candidate pixel extraction means for extracting pixels having a high possibility of light reflected in a monitoring image as light candidate pixels based on a monitoring image captured at a predetermined cycle,
The light candidate pixel extraction means includes
Determination means for determining whether or not the luminance value of a corresponding pixel between a plurality of monitoring images captured in the predetermined cycle is increased or decreased, and temporal continuity of determination of increase by the determination means Or a cumulative change frequency calculating means for calculating the cumulative change frequency for each pixel based on the temporal continuity of the determination of decrease,
An image sensor characterized in that a pixel whose cumulative change frequency is equal to or greater than a predetermined threshold is extracted as the light candidate pixel.
前記判定手段は、
前記累積変化度数を求める対象の注目画素の近傍の少なくとも半数の画素の輝度値が増加または減少している場合に該注目画素の輝度値が増加または減少しているものと判定する請求項1に記載の画像センサ。
The determination means includes
The method according to claim 1, wherein when the luminance value of at least half of the pixels in the vicinity of the target pixel for which the cumulative change frequency is to be calculated has increased or decreased, it is determined that the luminance value of the target pixel has increased or decreased. The image sensor described.
前記累積変化度数算出手段は、
前記判定手段が増加判定すると第1の所定値を加算し、減少判定すると第1の所定値より大きい第2の所定値を減算する正変化度数を計数する手段と、
前記判定手段が減少判定すると第1の所定値を加算し、増加判定すると第1の所定値より大きい第2の所定値を減算する負変化度数を計数する手段とを有し、
前記正変化度数と前記負変化度数の合計値を前記累積変化度数とする、請求項1または2に記載の画像センサ。
The cumulative change frequency calculation means includes:
Means for adding a first predetermined value when the determination means determines increase, and counting a positive change frequency for subtracting a second predetermined value greater than the first predetermined value when decreasing;
Means for adding a first predetermined value when the determination means determines to decrease, and counting a negative change frequency for subtracting a second predetermined value greater than the first predetermined value when determined to increase;
The image sensor according to claim 1, wherein a total value of the positive change frequency and the negative change frequency is the cumulative change frequency.
前記累積変化度数算出手段は、
さらに前記正変化度数および前記負変化度数に下限値を設定し、
前記複数の監視画像間の対応する輝度値が変化しない場合は、前記正変化度数および前記負変化度数から第3の所定値を減算する請求項3に記載の画像センサ。
The cumulative change frequency calculation means includes:
Furthermore, a lower limit is set for the positive change frequency and the negative change frequency,
The image sensor according to claim 3, wherein a third predetermined value is subtracted from the positive change frequency and the negative change frequency when corresponding luminance values between the plurality of monitoring images do not change.
さらに、移動物体が写っていない画像を背景画像として記憶する記憶部と、
前記監視画像と前記背景画像とを差分処理して差分領域を抽出する差分領域抽出手段と、
前記光候補画素の全部または一部が前記差分領域に含まれていると当該差分領域が前記移動物体によるものである可能性を下げる移動物体判定手段とを有する請求項1〜4の何れか一項に記載の画像センサ。
Furthermore, a storage unit that stores an image in which a moving object is not captured as a background image;
Difference area extraction means for extracting a difference area by performing a difference process between the monitoring image and the background image;
The moving object determination unit according to any one of claims 1 to 4, further comprising a moving object determination unit that reduces a possibility that the difference area is caused by the moving object when all or a part of the light candidate pixels are included in the difference area. The image sensor according to item.
JP2007169056A 2007-06-27 2007-06-27 Image sensor Active JP4925942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007169056A JP4925942B2 (en) 2007-06-27 2007-06-27 Image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007169056A JP4925942B2 (en) 2007-06-27 2007-06-27 Image sensor

Publications (2)

Publication Number Publication Date
JP2009010594A true JP2009010594A (en) 2009-01-15
JP4925942B2 JP4925942B2 (en) 2012-05-09

Family

ID=40325249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007169056A Active JP4925942B2 (en) 2007-06-27 2007-06-27 Image sensor

Country Status (1)

Country Link
JP (1) JP4925942B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106366A (en) * 2016-12-26 2018-07-05 三菱電機株式会社 Image processing system and program
JP2018195190A (en) * 2017-05-19 2018-12-06 キヤノン株式会社 Image processing apparatus and image processing method
JP2020149407A (en) * 2019-03-14 2020-09-17 株式会社東芝 Monitoring system and monitoring method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341677A (en) * 1999-05-31 2000-12-08 Secom Co Ltd Image monitoring device
JP2004236087A (en) * 2003-01-31 2004-08-19 Funai Electric Co Ltd Monitoring camera system
JP2004348425A (en) * 2003-05-22 2004-12-09 Hitachi Ltd Extracting method of object change between two images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341677A (en) * 1999-05-31 2000-12-08 Secom Co Ltd Image monitoring device
JP2004236087A (en) * 2003-01-31 2004-08-19 Funai Electric Co Ltd Monitoring camera system
JP2004348425A (en) * 2003-05-22 2004-12-09 Hitachi Ltd Extracting method of object change between two images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106366A (en) * 2016-12-26 2018-07-05 三菱電機株式会社 Image processing system and program
JP2018195190A (en) * 2017-05-19 2018-12-06 キヤノン株式会社 Image processing apparatus and image processing method
JP2020149407A (en) * 2019-03-14 2020-09-17 株式会社東芝 Monitoring system and monitoring method

Also Published As

Publication number Publication date
JP4925942B2 (en) 2012-05-09

Similar Documents

Publication Publication Date Title
US9224278B2 (en) Automated method and system for detecting the presence of a lit cigarette
JP5518359B2 (en) Smoke detector
Hu et al. Robust real-time ship detection and tracking for visual surveillance of cage aquaculture
JP4832894B2 (en) Image sensor
JP6764481B2 (en) Monitoring device
JP5106356B2 (en) Image monitoring device
JP2007300531A (en) Object detector
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
WO2020248543A1 (en) Abnormal target detection method and device, and storage medium
WO2023039781A1 (en) Method for detecting abandoned object, apparatus, electronic device, and storage medium
JP4990030B2 (en) Moving object detection device
JP4925942B2 (en) Image sensor
JP7125843B2 (en) Fault detection system
JP4740755B2 (en) Monitoring device using images
JP2018107665A (en) Imaging apparatus, dirt detection system, and dirt detection method
JP2007180932A (en) Image sensor
US10268922B2 (en) Image processing by means of cross-correlation
KR101581162B1 (en) Automatic detection method, apparatus and system of flame, smoke and object movement based on real time images
JP5679760B2 (en) Intruder detection device
JP4641902B2 (en) Image sensor
JP4619082B2 (en) Image determination device
JP6124739B2 (en) Image sensor
JP7328778B2 (en) Image processing device and image processing program
JP3736989B2 (en) Image monitoring device
JP4544955B2 (en) Image monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4925942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250