JP2007060468A - Image sensor - Google Patents

Image sensor Download PDF

Info

Publication number
JP2007060468A
JP2007060468A JP2005245377A JP2005245377A JP2007060468A JP 2007060468 A JP2007060468 A JP 2007060468A JP 2005245377 A JP2005245377 A JP 2005245377A JP 2005245377 A JP2005245377 A JP 2005245377A JP 2007060468 A JP2007060468 A JP 2007060468A
Authority
JP
Japan
Prior art keywords
region
image
fluctuation
luminance
pixel group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005245377A
Other languages
Japanese (ja)
Other versions
JP4641902B2 (en
Inventor
Chihiro Sato
千尋 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2005245377A priority Critical patent/JP4641902B2/en
Publication of JP2007060468A publication Critical patent/JP2007060468A/en
Application granted granted Critical
Publication of JP4641902B2 publication Critical patent/JP4641902B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image sensor capable of accurately determining whether or not a temporal varying domain included in an image picking up a monitoring space is caused by a moving object to be monitored. <P>SOLUTION: An image sensor extracts a varying domain from a differential between an image acquired by an image pick-up 2 and a past image, and determines whether or not the varying domain is caused by disturbance. An image sensor 1 is configured to comprise a pixel group extractor 21 for extracting a group of pixels having a predetermined feature amount in the varying domain; a deviation calculator 22 for calculating a degree of eccentricity for determining whether or not a position of that group of pixels is eccentric in the varying domain; and a disturbance determination section 13 for determining that the varying domain is caused by disturbance, if the degree of eccentricity is judged small. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像センサに関するものであり、より詳しくは、監視装置に使用される画像センサに関する。   The present invention relates to an image sensor, and more particularly to an image sensor used in a monitoring device.

従来、画像監視装置に使用される画像センサとして、撮像装置としてのカメラから入力される監視空間の画像と、その監視空間について過去に取得された画像との変化態様から、入力画像中の移動物体(人間など)の有無を判定する画像センサが知られている。この画像センサとしては、例えば、現在撮影した入力画像と、予め記憶している過去の画像(背景画像)とを比較して、両画像の輝度に差のある領域を変動領域として抽出し、この抽出された領域についてテクスチャ(模様等)の変化度合いから、照明光の光量変化または監視空間に写り込んだ影などによって生じた外乱による画像の変動か、人間がその監視空間に侵入したことによる画像の変動かを判断するものが知られている(特許文献1参照)。   2. Description of the Related Art Conventionally, as an image sensor used in an image monitoring device, a moving object in an input image from a change mode between an image of a monitoring space input from a camera as an imaging device and an image acquired in the past with respect to the monitoring space. Image sensors that determine the presence or absence of a human (such as a human) are known. As this image sensor, for example, a currently captured input image is compared with a previously stored past image (background image), and an area having a difference in luminance between both images is extracted as a fluctuation area. From the degree of change in texture (pattern, etc.) of the extracted area, image fluctuations due to disturbance caused by changes in the amount of illumination light or shadows reflected in the monitoring space, or images of humans entering the monitoring space Is known (see Patent Document 1).

このような画像センサに関して、特に特許文献1では、入力画像と背景画像の差分から求めた変動領域と、その変動領域に対応する背景画像の対応領域との間における、エッジの変化、テクスチャの変化、輝度変化の極性方向などの特徴量を算出して、変動領域が人間に相当するのか、人間以外の影などの外乱によるものかを判定する画像センサが記載されている。   With regard to such an image sensor, particularly in Patent Document 1, a change in edge and a change in texture between a change area obtained from a difference between an input image and a background image and a corresponding area of a background image corresponding to the change area. An image sensor is described in which a feature amount such as the polarity direction of luminance change is calculated to determine whether the fluctuation region corresponds to a human or due to a disturbance such as a shadow other than a human.

例えば、変動領域が、負の輝度変化を示す場合(変動領域中の画素の輝度値が、背景画像における対応領域中の画素の輝度値よりも低い場合)で、エッジの変化が少ない場合、若しくはテクスチャの変化が少ない場合、変動領域の「影らしさ」が高く算出されて、この変動領域は影であると判定される。   For example, when the change area shows a negative brightness change (when the brightness value of the pixel in the change area is lower than the brightness value of the pixel in the corresponding area in the background image), or when the edge change is small, or When the texture change is small, the “shadowiness” of the fluctuation area is calculated to be high, and it is determined that the fluctuation area is a shadow.

しかしながら、上述した従来の画像センサでは、人間とこの人間から伸びた影とが変動領域として抽出された場合に、人間の存在を検出できないおそれがある。
これは、影が長く伸びたような場合(例えば、日没直前時のように、光源と人間を結ぶ線と影の投影される面とのなす角が非常に狭い鋭角をなす場合)において、変動領域として抽出された領域中に占める影部分の割合が大きくなり、影部分の画像特徴(エッジ類似度、テクスチャ類似度など)が変動領域全体に対して支配的になり、変動領域の「影らしさ」が高く算出されてしまうためである。
However, in the conventional image sensor described above, when a person and a shadow extending from the person are extracted as a fluctuation region, the presence of the person may not be detected.
This is the case when the shadow is extended for a long time (for example, when the angle between the line connecting the light source and the person and the surface on which the shadow is projected is very narrow, as in the case just before sunset) The ratio of the shadow part in the area extracted as the fluctuation area increases, and the image features (edge similarity, texture similarity, etc.) of the shadow part dominate the whole fluctuation area. This is because “likeness” is calculated to be high.

この様子を図5に示す。入力画像I中に、人間a1とその影a2、及び単なる影bが写っている場合、それらの存在しない背景画像Bとの差分を行うことにより、人間a1とその影a2の部分、及び単なる影bの部分を、それぞれ画素の輝度値が変動した領域、即ち変動領域として抽出することができる。   This is shown in FIG. If the human a1 and its shadow a2 and the simple shadow b are shown in the input image I, the difference between the human a1 and its shadow a2 and the simple shadow b2 are obtained by performing a difference from the background image B that does not exist. The part b can be extracted as a region where the luminance value of each pixel fluctuates, that is, as a fluctuating region.

ここで、逆光の場合、または人間が黒い衣服を着ている場合などの理由により、監視空間の入力画像I中に黒く(すなわち、低輝度で)写り込んだ人間から影が長く伸びている場合、この「黒い」人間と影を含む変動領域(a1+a2)は、背景画像Bの対応領域に対し負の輝度変化を示すこととなり、また、影部分a2から算出されるエッジ変化度合い若しくはテクスチャ変化度合いなどの画像特徴が、変動領域全体の画像特徴に対して支配的となるために、総じて変動領域の「影らしさ」が高く算出されてしまう。   Here, when the shadow is extended for a long time from the person who appears black (that is, with low brightness) in the input image I in the monitoring space due to backlight or when the person is wearing black clothes. The fluctuation area (a1 + a2) including the “black” human and the shadow shows a negative luminance change with respect to the corresponding area of the background image B, and the edge change degree or the texture change degree calculated from the shadow part a2. Therefore, the “shadowiness” of the fluctuation region is generally calculated to be high.

このため、変動領域(a1+a2)について算出された画像特徴は、影だけからなる変動領域bについて算出された画像特徴と、大差がなくなる。そのため、従来の画像センサでは、影を伴う人間と、単なる影とを区別することが困難となり、影を伴う人間を単なる影として判定してしまい、本来なら人間の存在を検知すべき場合に、人間を検知しないおそれがあった。   For this reason, the image feature calculated for the variation region (a1 + a2) is not significantly different from the image feature calculated for the variation region b including only the shadow. Therefore, in conventional image sensors, it is difficult to distinguish between a person with a shadow and a simple shadow, and a person with a shadow is determined as a simple shadow. There was a risk of not detecting humans.

また、この人間を検知しないおそれがあるという問題に対処するために、「影らしさ」が如何に高く算出されていても、少しでも人間である可能性があれば人間と判定するように設定すると、単なる影を人間と判定してしまい、誤報してしまう可能性が高くなるという問題が生じていた。   In addition, in order to deal with this problem that humans may not be detected, even if the “shadowiness” is calculated as high as possible, if there is a possibility of being a human, it is determined to be a human. There was a problem that a simple shadow was judged as a human and the possibility of misreporting increased.

特開平2001−243475号公報JP-A-2001-243475

上記の問題点に鑑み、本発明は、人間などの移動物体とその影とが監視空間内に写り込む場合であっても、移動物体が写っているか否かを正確に判断できる画像センサを提供することを目的とする。   In view of the above problems, the present invention provides an image sensor that can accurately determine whether or not a moving object is captured even when a moving object such as a human and its shadow are reflected in the monitoring space. The purpose is to do.

上記の目的を達成するために、本発明に係る画像センサは、撮像部にて取得される画像と過去の画像の差分から変動領域を抽出して、変動領域が外乱により生じたものか否かを判定する。その画像センサは、変動領域において所定の特徴量を有する画素群を抽出する画素群抽出部と、画素群の位置が変動領域において偏った位置であるかを判定するための偏り度合いを算出する偏差算出部と、偏り度合いが小さいと判定した場合、変動領域は外乱により生じたものと判定する外乱判定部と、を備えることを特徴とする。   In order to achieve the above object, the image sensor according to the present invention extracts a fluctuation region from a difference between an image acquired by an imaging unit and a past image, and determines whether or not the fluctuation region is caused by a disturbance. Determine. The image sensor includes a pixel group extraction unit that extracts a pixel group having a predetermined feature amount in the fluctuation region, and a deviation that calculates a degree of bias for determining whether the position of the pixel group is a biased position in the fluctuation region. When it is determined that the degree of bias is small, the fluctuation region includes a disturbance determination unit that determines that the fluctuation region is caused by a disturbance.

上記のように、変動領域内である特徴を有する画素が変動領域全体に対し偏った位置に存在するかを調べることにより、監視空間を撮像した画像に、影が長く伸びた移動物体が写っている場合でも、影の領域に影響されず、正確に移動物体の存在の有無を判定することが可能となる。   As described above, by checking whether the pixel having the characteristic in the fluctuation area exists at a position biased with respect to the whole fluctuation area, a moving object with a long shadow appears in the image obtained by imaging the monitoring space. Even when the moving object is present, it is possible to accurately determine the presence or absence of the moving object without being affected by the shadow area.

なお、上記の外乱とは、監視空間を照明する照明光(太陽、街灯、照明灯などの光源による光)の光量変化、天候変化、または監視空間の近傍を横切る車の影など、監視空間内に侵入した物体(人、動物を含む)以外に起因するものをいう。また、過去の画像とは、変動領域の抽出を行う撮像画像よりも前に撮影された監視空間の画像である。具体的には、本発明に係る画像センサの設置時またはメンテナンス時に予め監視空間を撮影した画像、若しくは本発明に係る画像センサで所定時間前に撮影した画像とすることができる。   Note that the above disturbance refers to changes in the amount of illumination light that illuminates the monitoring space (light from light sources such as the sun, streetlights, and illuminating lights), weather changes, or car shadows that cross the vicinity of the monitoring space. This is caused by objects other than objects (including humans and animals) that have intruded. The past image is an image of the monitoring space taken before the captured image from which the variable region is extracted. Specifically, it can be an image obtained by photographing the monitoring space in advance at the time of installation or maintenance of the image sensor according to the present invention, or an image photographed by the image sensor according to the present invention a predetermined time ago.

また、上記の偏差算出部は、変動領域の重心位置と画素群の重心位置間の距離と、変動領域の大きさとの比に基づき変動領域における画素群の位置の偏り度合いを算出することが好ましい。変動領域中に占める所定の特徴量を有する画素群の位置関係を正確に把握することができるため、変動領域に対して前記画素群の位置が偏った位置であるか否かを正確に調べることが可能となる。   Further, the deviation calculation unit preferably calculates the degree of deviation of the position of the pixel group in the variation area based on the ratio of the distance between the center of gravity position of the variation area and the center of gravity position of the pixel group and the size of the variation area. . Since it is possible to accurately grasp the positional relationship of the pixel group having a predetermined feature amount occupying in the fluctuation region, it is possible to accurately check whether or not the position of the pixel group is biased with respect to the fluctuation region. Is possible.

さらに、上記の画素群は、所定の閾値以下の輝度を有する低輝度画素、又は所定の閾値以上の輝度を有する高輝度画素の何れか一方よりなる画素群であることが好ましい。また更に、画素群抽出部は、変動領域を変動領域の輝度平均値以下の閾値で2値化して、変動領域における低輝度画素を抽出し、低輝度画素よりなる画素群を上記の画素群として抽出することが好ましい。変動領域内における、特徴の異なる画素群を簡便且つ正確に抽出することが可能なためである。   Furthermore, the pixel group is preferably a pixel group including any one of a low luminance pixel having a luminance equal to or lower than a predetermined threshold and a high luminance pixel having a luminance equal to or higher than the predetermined threshold. Furthermore, the pixel group extraction unit binarizes the fluctuation region with a threshold value that is equal to or lower than the luminance average value of the fluctuation region, extracts low luminance pixels in the fluctuation region, and sets a pixel group including the low luminance pixels as the pixel group described above. It is preferable to extract. This is because it is possible to easily and accurately extract pixel groups having different characteristics in the fluctuation region.

また、外乱判定部は、変動領域が過去の画像における対応領域よりも低輝度であり、且つ偏り度合いが小さいと判定した場合に変動領域を外乱により生じたものと判定し、変動領域が過去の画像における対応領域よりも高輝度である場合、又は、変動領域が過去の画像における対応領域よりも低輝度であり、且つ偏り度合いが大きいと判定した場合、変動領域は外乱により生じたものではないと判定することが好ましい。   In addition, the disturbance determination unit determines that the fluctuation region is caused by the disturbance when it is determined that the fluctuation region has lower luminance than the corresponding region in the past image and the degree of bias is small, and the fluctuation region is the past. When the brightness is higher than the corresponding area in the image, or when it is determined that the fluctuation area is lower in brightness than the corresponding area in the past image and the degree of bias is large, the fluctuation area is not caused by disturbance. Is preferably determined.

ここで、変動領域と過去の画像における対応領域とについて、どちらの輝度が高いか否かの判定は、具体的には変動領域及びその対応領域内の平均輝度値の比較により行う。   Here, the determination as to which luminance is higher between the fluctuation area and the corresponding area in the past image is performed by comparing the average luminance value in the fluctuation area and the corresponding area.

また、外乱判定部において変動領域が外乱により生じたものではないと判定されると、他の判定基準に基づいて変動領域が移動物体により生じたものか否かを判定する移動物体判定部をさらに備えることが好ましい。このような移動物体判定部を備えることにより、監視空間内の変動領域が、監視対象物となる移動物体に起因するものか、それ以外の物に起因するものかを正確に判定することが可能である。   In addition, when the disturbance determination unit determines that the fluctuation region is not caused by the disturbance, the moving object determination unit further determines whether the fluctuation region is caused by the moving object based on another determination criterion. It is preferable to provide. By providing such a moving object determination unit, it is possible to accurately determine whether the fluctuation region in the monitoring space is caused by the moving object that is the monitoring target or the other object. It is.

本発明によれば、移動物体とその影とが監視空間内に写り込む場合であっても、移動物体が写っているか否かを正確に判断できる画像センサを提供することが可能となる。   According to the present invention, it is possible to provide an image sensor that can accurately determine whether or not a moving object is reflected even when the moving object and its shadow are reflected in the monitoring space.

以下、図面を参照しつつ本発明に係るについて詳細に説明する。
本発明の一例に係る画像センサは、監視対象となる空間(監視空間)を撮影した画像において、撮像画像に写りこんだ移動物体、特に人間による輝度変動と、監視空間を横切る影または光量変化などの外乱による輝度変動とを区別する検出ロジックを搭載した画像センサである。
Hereinafter, the present invention will be described in detail with reference to the drawings.
An image sensor according to an example of the present invention, in an image obtained by capturing a space to be monitored (monitoring space), a moving object reflected in a captured image, particularly a luminance variation by a human, a shadow or a light amount change across the monitoring space, and the like. This is an image sensor equipped with a detection logic that distinguishes luminance fluctuations caused by external disturbances.

また以下の説明においては、監視対象となる移動物体として、監視空間に侵入した人間(侵入者)を検出して出力する例について説明する。   In the following description, an example will be described in which a human (intruder) who has entered the monitoring space is detected and output as a moving object to be monitored.

図1に、本発明の一例に係る画像センサの機能ブロック図を示す。
本発明の一例に係る画像センサ1は、監視空間の撮像画像を取得する撮像部2と、画像センサ1の各種処理で使用される情報を記憶する記憶部3と、撮像画像から監視空間に侵入者がいるか否かを判定する画像処理部4と、その判定結果を出力する出力部5から構成される。
FIG. 1 is a functional block diagram of an image sensor according to an example of the present invention.
An image sensor 1 according to an example of the present invention includes an imaging unit 2 that acquires a captured image of a monitoring space, a storage unit 3 that stores information used in various processes of the image sensor 1, and an intrusion into the monitoring space from the captured image. An image processing unit 4 for determining whether there is a person and an output unit 5 for outputting the determination result.

以下、各部について詳細に説明する。
撮像部2は、CCDカメラなどの撮像装置から構成される。撮像部2は、監視空間の光学的な映像を、離散的な画素群からなるデジタル化された画像に変換して、各画素が輝度値で表現された撮像画像I(x,y)(ただし、x、yは、それぞれ画像データ中の画素の水平座標、垂直座標を表す、以下同じ)を取得し、その撮像画像I(x,y)を画像処理部4へ出力する。また撮像部2は、所定の時間間隔(例えば1/5秒毎)で1フレームの撮像画像I(x,y)を取得して画像処理部4に出力する。
撮像画像I(x,y)は、一例として、1フレームあたり、水平768画素、垂直494画素(約38万画素)、且つ1画素あたりの輝度値が0〜255(256階調)のグレー階調で表現され、明るいほど輝度値が大きな値を有する。
Hereinafter, each part will be described in detail.
The imaging unit 2 includes an imaging device such as a CCD camera. The imaging unit 2 converts the optical image of the monitoring space into a digitized image composed of discrete pixel groups, and a captured image I (x, y) (where each pixel is represented by a luminance value) (however, , X, and y represent the horizontal coordinate and vertical coordinate of the pixel in the image data, respectively, and the same applies to the acquired image, and outputs the captured image I (x, y) to the image processing unit 4. Further, the imaging unit 2 acquires one frame of the captured image I (x, y) at a predetermined time interval (for example, every 1/5 second) and outputs the acquired image to the image processing unit 4.
As an example, the captured image I (x, y) has a gray scale of 768 pixels horizontally, 494 pixels vertically (approximately 380,000 pixels) per frame, and a luminance value of 0 to 255 (256 gradations) per pixel. The brightness value has a larger value as it is brighter.

記憶部3は、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)などの半導体メモリ、磁気ディスク(HDD)、又はCD−ROM、DVD−RAMなどの光ディスクドライブ及びそのメディアで構成される。また記憶部3は、画像センサ1の各種処理で使用される情報、例えば、撮像画像との比較対象となる過去の画像及び各種の閾値などを記憶する。そして、画像処理部4などからの要求に応じて、必要な情報を提供する。   The storage unit 3 includes a semiconductor memory such as a read only memory (ROM) and a random access memory (RAM), a magnetic disk (HDD), an optical disk drive such as a CD-ROM and a DVD-RAM, and a medium thereof. In addition, the storage unit 3 stores information used in various processes of the image sensor 1, for example, past images to be compared with the captured image, various threshold values, and the like. Then, necessary information is provided in response to a request from the image processing unit 4 or the like.

画像処理部4は、CPU、数値演算プロセッサなどの演算装置、及び記憶部3からその演算装置で実行可能に読み込まれたソフトウェアから構成される。そして、画像処理部4は、撮像部2から取得した、デジタル化された撮像画像I(x,y)に基づいて、変動領域の抽出処理、特徴算出処理、及び外乱判定処理などの処理を実行する。なお、画像処理部4の詳細については後述する。   The image processing unit 4 includes a calculation device such as a CPU and a numerical calculation processor, and software read from the storage unit 3 so as to be executable by the calculation device. Then, the image processing unit 4 executes processing such as fluctuation region extraction processing, feature calculation processing, and disturbance determination processing based on the digitized captured image I (x, y) acquired from the imaging unit 2. To do. Details of the image processing unit 4 will be described later.

出力部5は、画像処理部4で判定された異常を外部に出力するための手段であって、LED、ブザーなどで構成される。出力部5は、画像処理部4から異常信号の入力があると、LEDを点灯若しくは点滅させたり、ブザーを鳴らして異常の発生を報知する。
なお、出力部5は、警備装置または遠隔の監視センタ(図示せず)などと有線若しくは無線通信によって接続され、画像処理部4から入力された異常信号をそれらに出力する通信インターフェースとして構成されてもよい。
The output unit 5 is means for outputting the abnormality determined by the image processing unit 4 to the outside, and includes an LED, a buzzer, and the like. When an abnormal signal is input from the image processing unit 4, the output unit 5 lights or blinks an LED or sounds a buzzer to notify the occurrence of an abnormality.
The output unit 5 is connected to a security device or a remote monitoring center (not shown) by wired or wireless communication, and is configured as a communication interface that outputs an abnormal signal input from the image processing unit 4 to them. Also good.

以下、画像処理部4について詳述する。
画像処理部4は、撮像画像I(x,y)から、過去画像中の対応画素と輝度値に差異のある画素領域である変動領域を抽出する変動領域抽出部11と、抽出された変動領域中の特徴を算出する特徴算出部12と、特徴算出部12で算出された特徴に基づいて、変動領域が外乱に起因するものか否かを判定する外乱判定部13と、変動領域が外乱に起因するものでないと判定された場合に、その変動領域が侵入者によるものか否かを判定する移動物体判定部14を有する。
Hereinafter, the image processing unit 4 will be described in detail.
The image processing unit 4 extracts, from the captured image I (x, y), a variation region extraction unit 11 that extracts a variation region that is a pixel region having a difference in luminance value from the corresponding pixel in the past image, and the extracted variation region A feature calculation unit 12 that calculates the inside feature, a disturbance determination unit 13 that determines whether or not the fluctuation region is caused by a disturbance based on the feature calculated by the feature calculation unit 12, and the fluctuation region When it is determined that it is not caused by the moving object determination unit 14, the moving object determination unit 14 determines whether or not the fluctuation region is caused by an intruder.

次に、画像処理部4で行われる処理内容について、図2を参照しつつ説明する。
一般に、人間と、その人間から伸びる影とを含む領域(人間を含む影の領域)では、人間が領域の端部に位置し、逆方向の端部に向けて影が伸びる。また、人間を含む影の領域においては、人間と影とで輝度差が生じる。例えば、逆光時など、黒く写りこんだ人間から影が伸びている場合であっても、この人間を含む影の領域では、人間と影とで輝度差が生じて暗い画素の出現位置が偏る。これは、影が投影される地面の反射率と、人間の衣服及び皮膚、毛髪の反射率が異なるためである。
Next, processing contents performed in the image processing unit 4 will be described with reference to FIG.
In general, in a region including a human and a shadow extending from the human (a shadow region including a human), the human is located at the end of the region, and the shadow extends toward the opposite end. Further, in a shadow area including a human, a luminance difference is generated between the human and the shadow. For example, even when a shadow extends from a human who appears black, such as when the subject is backlit, in the shadow area including this human, a difference in brightness occurs between the human and the shadow, and the appearance position of dark pixels is biased. This is because the reflectance of the ground on which the shadow is projected is different from the reflectance of human clothes, skin, and hair.

一方、影だけの領域では、暗い画素がその領域全体に分布する。また、単なる影だけが写っている領域に関して、例えば、影が淡いために、影が投影されている領域の背景部分のテクスチャが保存されている(透けて見える)場合には、その領域内にほぼ均一にテクスチャが現れ、暗い画素群が領域内の偏った位置に出現することはない。また、影が強い場合には、影が投影されている領域の背景部分のテクスチャが全く見えなくなり、且つ一様に暗い領域となり、暗い画素群が領域内の偏った位置に出現することはない。
つまり、人間を含む影の領域は、暗い画素群が領域端部に偏って出現するのに対し、影だけの領域では偏りは見られない。
On the other hand, in a shadow-only area, dark pixels are distributed throughout the area. In addition, regarding a region where only a simple shadow is shown, for example, when the texture of the background part of the region where the shadow is projected is stored (visible through) because the shadow is pale, The texture appears almost uniformly, and the dark pixel group does not appear at a biased position in the region. In addition, when the shadow is strong, the texture of the background part of the area where the shadow is projected cannot be seen at all and becomes a dark area uniformly, and the dark pixel group does not appear at a biased position in the area. .
That is, in a shadow area including a human, a dark pixel group appears biased toward the edge of the area, whereas no bias is observed in a shadow-only area.

そこで、監視空間について、侵入者がいない状態で撮影された過去画像(以下、背景画像Bという)と、撮像部2によって撮影された入力画像Iとで、対応画素間の輝度値の差分画像Sをもとめると、侵入者(領域a1)とその影(領域a2)、若しくは単なる影だけの領域(領域b)について大きな差分輝度値を得ることができる。そこで、差分輝度値の大きい画素群が連続する領域を、各々変動領域c(ここでは、領域a1+a2と領域b)として抽出する。次に、各変動領域cに含まれる、撮像画像の各画素の輝度値を平均した値を閾値とし、その閾値以下の輝度値を有する画素の分布を調べる。すると、領域(a1+a2)では、閾値以下の輝度値を有する画素が領域(a1+a2)中の一方の端部に集中するのに対して、領域bでは、閾値以下の輝度値を有する画素が領域b全体に広がる。そこで、閾値以下の輝度値を有する画素群が変動領域中の一端部に寄る程大きくなる度合いとしての偏り度合いが小さいか大きいかを調べることにより、変動領域cが侵入者によるものか、影などの外乱によるものかを判別することができる。   Therefore, a difference image S of luminance values between corresponding pixels between a past image (hereinafter referred to as background image B) captured in the absence of an intruder and an input image I captured by the imaging unit 2 in the monitoring space. As a result, a large difference luminance value can be obtained for the intruder (region a1) and its shadow (region a2), or a region having only a shadow (region b). Therefore, regions where pixel groups having large difference luminance values are continuous are extracted as variable regions c (here, region a1 + a2 and region b). Next, a distribution obtained by averaging the luminance values of the pixels of the captured image included in each variation region c is used as a threshold, and the distribution of pixels having luminance values equal to or lower than the threshold is examined. Then, in the region (a1 + a2), pixels having a luminance value equal to or less than the threshold value are concentrated on one end in the region (a1 + a2), whereas in the region b, pixels having a luminance value equal to or less than the threshold value are included in the region b. Spread throughout. Therefore, by examining whether the degree of bias as the degree of increase of the pixel group having a luminance value less than or equal to the threshold is closer to one end in the fluctuation area, whether the fluctuation area c is caused by an intruder, a shadow, or the like It can be discriminated whether it is due to the disturbance.

なお、偏り度合いとは、変動領域c内において上記画素群の位置が偏っているかどうかを示す度合いであって、上記の画素群が変動領域中の一端部に偏っている程大きくなるような値をいう。また、偏り度合いが小さいとは、変動領域c中の最も離れた2点を結ぶ直線に直交する任意の直線で、変動領域を2分割した場合において、分割されたそれぞれの変動領域に占める上記画素群に所属する画素の比率に有意差がないことをいう。
一方、偏り度合いが大きいとは、変動領域中の最も離れた2点を結ぶ直線に直交する或る直線で、変動領域を2分割した場合において、分割されたそれぞれの変動領域に占める上記画素群に所属する画素の比率に有意差が有ることをいう。
The degree of bias is a level indicating whether or not the position of the pixel group is biased in the variation area c, and is a value that increases as the pixel group is biased to one end in the variation area. Say. In addition, when the degree of bias is small, an arbitrary straight line orthogonal to a straight line connecting the two most distant points in the fluctuation region c, and when the fluctuation region is divided into two, the pixels occupying each of the divided fluctuation regions This means that there is no significant difference in the ratio of pixels belonging to the group.
On the other hand, when the degree of bias is large, the pixel group occupying each of the divided variable areas when the variable area is divided into two by a certain straight line orthogonal to a straight line connecting the two most distant points in the variable area. This means that there is a significant difference in the ratio of pixels belonging to.

以下、画像処理部4の各部について詳細に説明する。
変動領域抽出部11は、撮像部から取得した撮像画像I(x,y)と、基準となる背景画像B(x,y)とにおいて互いに対応する画素同士の輝度差を算出して撮像画像I(x,y)と背景画像B(x,y)との差分画像S(x,y)(=I(x,y)−B(x,y))を得る。
Hereinafter, each part of the image processing unit 4 will be described in detail.
The variable region extraction unit 11 calculates a luminance difference between pixels corresponding to each other in the captured image I (x, y) acquired from the imaging unit and the reference background image B (x, y), and the captured image I A difference image S (x, y) (= I (x, y) −B (x, y)) between (x, y) and the background image B (x, y) is obtained.

背景画像B(x,y)は、監視空間に侵入者が存在しない状態で撮像部2により撮像された過去画像であり、予め取得され、記憶部3に記憶されている。そして、変動領域抽出部11は、差分画像S(x,y)から、差分輝度値の絶対値が所定値以上となる画素(変動画素)を1、それ以外の画素を0として表現した差分2値画像Sb(x,y)を生成する。ここで所定値としては、ノイズによる悪影響を避け、且つ適切に変動領域を抽出するために、監視空間の状況に応じて2から10程度の値(256階調に対して)を使用する。   The background image B (x, y) is a past image captured by the imaging unit 2 in a state where no intruder exists in the monitoring space, and is acquired in advance and stored in the storage unit 3. Then, the variation area extraction unit 11 expresses, from the difference image S (x, y), a pixel 2 (a variation pixel) in which the absolute value of the difference luminance value is equal to or greater than a predetermined value, and a difference 2 that represents other pixels as 0. A value image Sb (x, y) is generated. Here, as the predetermined value, a value of about 2 to 10 (for 256 gradations) is used according to the situation of the monitoring space in order to avoid the adverse effect due to noise and to appropriately extract the fluctuation region.

差分2値画像Sb(x,y)を生成すると、略連続した変動画素群を1つの変動領域c(x,y)として抽出する。この場合において、ノイズを除去するために、差分2値画像Sb(x,y)に対してモルフォロジー基本演算のオープニング演算を行って、抽出された変動画素(差分2値画像Sb(x,y)で1の値を有する画素)の孤立点を削除することが好ましい。同様に、差分2値画像Sb(x,y)に対してクロージング演算を行って、変動画素に囲まれた非変動画素(差分2値画像Sb(x,y)で0の値を有する画素)を削除することが好ましい。また、微小面積除去に用いられる既知のフィルタリング演算を行って、変動画素の孤立点を削除してもよい。変動領域c(x,y)は、上記のノイズ除去処理を施された差分2値画像Sb(x,y)において、画素値が1の画素が略連続してなる領域である。   When the difference binary image Sb (x, y) is generated, a substantially continuous variation pixel group is extracted as one variation region c (x, y). In this case, in order to remove noise, an opening operation of a morphological basic operation is performed on the difference binary image Sb (x, y), and the extracted variation pixel (difference binary image Sb (x, y)) is extracted. It is preferable to delete an isolated point of a pixel having a value of 1. Similarly, a closing operation is performed on the differential binary image Sb (x, y), and non-variable pixels (pixels having a value of 0 in the differential binary image Sb (x, y)) surrounded by the varying pixels. Is preferably deleted. Alternatively, a known filtering operation used for removing a minute area may be performed to delete the isolated point of the variable pixel. The fluctuation region c (x, y) is a region in which pixels having a pixel value of 1 are substantially continuous in the differential binary image Sb (x, y) subjected to the above-described noise removal processing.

変動領域c(x,y)が求められると、変動領域c(x,y)に含まれる総画素数Ctotalを算出する。そして、侵入者として考えられる最低限度の大きさに基づいて、予め定められた閾値Thcと比較し、総画素数Ctotalが閾値Thcよりも大きい場合、変動領域が存在すると判定される。変動領域c(x,y)が存在しないと判定された場合、次の撮像画像が撮像部2により取得され、再度変動領域の抽出がなされる。一方、変動領域が存在すると判定された場合、生成された差分画像S(x,y)、及び差分2値画像Sb(x,y)は、記憶部3に記憶される。   When the change area c (x, y) is obtained, the total number of pixels Ctotal included in the change area c (x, y) is calculated. Then, based on the minimum size that can be considered as an intruder, it is compared with a predetermined threshold value Thc. If the total number of pixels Ctotal is larger than the threshold value Thc, it is determined that a variable region exists. When it is determined that the fluctuation region c (x, y) does not exist, the next captured image is acquired by the imaging unit 2, and the fluctuation region is extracted again. On the other hand, when it is determined that a fluctuation region exists, the generated difference image S (x, y) and difference binary image Sb (x, y) are stored in the storage unit 3.

なお、背景画像B(x,y)は、10分毎、1時間毎といった所定時間毎に撮像された画像で更新するように構成してもよい。また、所定フレーム前に取得された撮像画像を背景画像として用いることにより、フレーム間における差分画像を上記のS(x,y)として求め、変動領域c(x,y)の抽出に用いてもよい。   The background image B (x, y) may be configured to be updated with an image captured every predetermined time such as every 10 minutes or every hour. In addition, by using a captured image acquired before a predetermined frame as a background image, a difference image between frames can be obtained as the above S (x, y) and used for extracting the fluctuation region c (x, y). Good.

特徴算出部12は、抽出された変動領域c(x,y)内の特徴量を調べ、変動領域中で所定の輝度を示す画素の位置に偏りが有るか否かを調べる。そこで、特徴抽出部12は、抽出された変動領域c(x,y)内における低輝度又は高輝度の画素よりなる画素群を抽出する画素群抽出部21と、その画素群の出現位置の偏り度合いを算出する偏差算出部22とを含む。   The feature calculation unit 12 checks the feature amount in the extracted fluctuation region c (x, y), and checks whether or not there is a bias in the position of a pixel showing a predetermined luminance in the fluctuation region. Therefore, the feature extraction unit 12 extracts a pixel group composed of low-luminance or high-luminance pixels in the extracted fluctuation region c (x, y), and the bias of the appearance position of the pixel group. And a deviation calculating unit 22 for calculating the degree.

以下、低輝度画素群の出現位置の偏り度合いを算出する場合を例として説明する。なお、高輝度画素群の出現位置の偏り度合いを算出した場合には、以降の処理で低輝度画素群の偏り度合いに代えて高輝度画素群の偏り度合いを使用する。   Hereinafter, a case where the degree of bias of the appearance position of the low luminance pixel group is calculated will be described as an example. When the degree of bias of the appearance position of the high brightness pixel group is calculated, the degree of bias of the high brightness pixel group is used in the subsequent processing instead of the degree of bias of the low brightness pixel group.

画素群抽出部21は、変動領域c(x,y)内における低輝度の画素群を抽出する(高輝度画素群の偏り度合いを使用する場合は、高輝度の画素群を抽出する)。変動領域c(x,y)内の低輝度画素群の抽出は、撮影画像I(x,y)における変動領域c(x,y)について、所定の輝度閾値で2値化して、低輝度画素と高輝度画素とに分離することによって行う。具体的には、以下の手順で行う。   The pixel group extraction unit 21 extracts a low-brightness pixel group in the fluctuation region c (x, y) (when using the degree of bias of the high-brightness pixel group, a high-brightness pixel group is extracted). The extraction of the low-luminance pixel group in the fluctuation area c (x, y) is performed by binarizing the fluctuation area c (x, y) in the captured image I (x, y) with a predetermined luminance threshold to obtain a low-luminance pixel. And high luminance pixels. Specifically, the following procedure is used.

まず、撮像画像I(x,y)から、変動領域c(x,y)に含まれる変動画素の輝度値についての平均値(輝度平均値ca)を算出する。次に、算出した輝度平均値caを用いて、以下の式に基づいて輝度閾値Th1を算出する。
Th1= ca * p
ここでパラメータpは、高輝度ノイズによる影響を低減しつつ、暗い(低輝度の)画素を抽出するために設定される値であり、一例として0.9などに設定される。パラメータpを1未満にすることで、より厳密に暗い画素を抽出することができる。一方、パラメータpを1よりも大きくすることで、より厳密に明るい(高輝度な)画素を抽出できる。このように、パラメータpは、2値化により抽出したい画素をより厳しい条件で抽出するための調整ファクタとして用いられる。ただし、パラメータpを使用することは必ずしも必要でなく、輝度平均値caそのものの値を閾値Th1として用いてもよい。
First, an average value (luminance average value ca) for the luminance values of the changing pixels included in the changing region c (x, y) is calculated from the captured image I (x, y). Next, the luminance threshold value Th1 is calculated based on the following formula using the calculated luminance average value ca.
Th1 = ca * p
Here, the parameter p is a value set for extracting dark (low luminance) pixels while reducing the influence of high luminance noise, and is set to 0.9 as an example. By setting the parameter p to less than 1, dark pixels can be extracted more strictly. On the other hand, by setting the parameter p to be larger than 1, it is possible to extract more strictly bright (high luminance) pixels. Thus, the parameter p is used as an adjustment factor for extracting pixels to be extracted by binarization under more severe conditions. However, it is not always necessary to use the parameter p, and the value of the luminance average value ca itself may be used as the threshold value Th1.

輝度閾値Th1を算出すると、撮像画像I(x,y)における変動領域c(x,y)に相当する各画素の輝度値と、輝度閾値Th1を比較する。そして、輝度閾値Th1未満の輝度値を有する画素の画素値を1、輝度閾値Th1以上の輝度値を有する画素の画素値を0とし、低輝度画素群l(x,y)として抽出する。低輝度画素群l(x,y)において画素値1で表される画素に対応する撮像画像I(x,y)の画素が低輝度画素である(なお、低輝度画素でない画素(輝度閾値Th1以上の輝度を有する変動領域中の高輝度画素)は、低輝度画素群l(x,y)において、画素値0として表される)。逆に、撮像画像I(x,y)における変動領域c(x,y)に相当する各画素のうち、輝度閾値Th1以上の輝度値を有する画素を、高輝度画素群h(x,y)として抽出してもよい。高輝度画素群h(x,y)において画素値1で表される画素に対応する撮像画像I(x,y)の画素が高輝度画素である(なお、高輝度画素でない画素(変動領域中の低輝度画素)は、高輝度画素群h(x,y)において、画素値0として表される)。   When the luminance threshold Th1 is calculated, the luminance threshold Th1 is compared with the luminance value of each pixel corresponding to the fluctuation region c (x, y) in the captured image I (x, y). Then, the pixel value of a pixel having a luminance value less than the luminance threshold Th1 is set to 1, and the pixel value of a pixel having a luminance value equal to or higher than the luminance threshold Th1 is set to 0, and extracted as a low luminance pixel group l (x, y). A pixel of the captured image I (x, y) corresponding to the pixel represented by the pixel value 1 in the low-luminance pixel group l (x, y) is a low-luminance pixel (a pixel that is not a low-luminance pixel (luminance threshold Th1) The high luminance pixel in the fluctuation region having the above luminance is represented as a pixel value 0 in the low luminance pixel group l (x, y)). Conversely, among the pixels corresponding to the fluctuation region c (x, y) in the captured image I (x, y), pixels having a luminance value equal to or higher than the luminance threshold Th1 are set as the high luminance pixel group h (x, y). May be extracted as The pixel of the captured image I (x, y) corresponding to the pixel represented by the pixel value 1 in the high luminance pixel group h (x, y) is a high luminance pixel (in addition, a pixel that is not a high luminance pixel (in the fluctuation region) Is represented as a pixel value of 0 in the high-luminance pixel group h (x, y)).

なお、低輝度の画素群若しくは高輝度の画素群を抽出する方法は、上記に限られるものではない。例えば、事前に実験的に監視空間に人を配置し、撮像部2で撮影したサンプル画像を複数準備し、それらサンプル画像を解析して人が写っている領域と影が映っている領域とを最も良好に分離可能な輝度閾値を実験的に見つけ、その実験的に見つけた輝度閾値以下の輝度値を有する画素とそれ以外の画素とに2値化することにより、低輝度画素群または高輝度画素群を抽出することができる。   Note that the method of extracting a low-luminance pixel group or a high-luminance pixel group is not limited to the above. For example, a person is experimentally arranged in advance in a monitoring space, a plurality of sample images taken by the imaging unit 2 are prepared, and an area where a person is reflected and an area where a shadow is reflected are analyzed by analyzing the sample images. By experimentally finding the best separable luminance threshold value and binarizing it into a pixel having a luminance value equal to or lower than the experimentally found luminance threshold value and other pixels, a low luminance pixel group or a high luminance value is obtained. A pixel group can be extracted.

偏差算出部22は、画素群抽出部21で抽出された低輝度画素群l(x,y)の出現位置が、変動領域c(x,y)全体に対して偏っている度合い(偏り度合いR)を算出する。この偏り度合いRは、変動領域c(x,y)の重心位置cg(cgx,cgy)(ただし、cgxは撮像画像I(x,y)中の水平座標値、cgyは撮像画像I(x,y)中の垂直座標値を表す)と、低輝度画素群l(x,y)の重心位置lg(lgx,lgy)(ただし、lgxは撮像画像I(x,y)中の水平座標値、lgyは撮像画像I(x,y)中の垂直座標値を表す)との距離に基づき算出される。即ち、偏差算出部22は、変動領域c(x,y)とこの変動領域内の低輝度画素群l(x,y)との重心間距離dと、変動領域の大きさとの比を算出して、これを低輝度画素群l(x,y)の偏り度合いRとして出力する。この様子を図3に示す。
ここで、重心間距離dは、以下に示す式(1)に基づいて算出される。
The deviation calculation unit 22 is a degree of the appearance position of the low-luminance pixel group l (x, y) extracted by the pixel group extraction unit 21 with respect to the entire variation region c (x, y) (bias degree R). ) Is calculated. The degree of deviation R is the center-of-gravity position cg (cgx, cgy) of the fluctuation region c (x, y) (where cgx is the horizontal coordinate value in the captured image I (x, y), and cgy is the captured image I (x, y). y) representing the vertical coordinate value) and the barycentric position lg (lgx, lgy) of the low luminance pixel group l (x, y) (where lgx is the horizontal coordinate value in the captured image I (x, y)) lgy is calculated based on the distance to the vertical coordinate value in the captured image I (x, y). In other words, the deviation calculating unit 22 calculates the ratio between the distance d between the centers of gravity of the variation region c (x, y) and the low luminance pixel group l (x, y) in the variation region and the size of the variation region. This is output as the degree of bias R of the low luminance pixel group l (x, y). This is shown in FIG.
Here, the distance d between the centers of gravity is calculated based on the following formula (1).

変動領域c(x,y)の大きさとしては、変動領域c(x,y)の外接矩形の長辺の長さが用いられる。例えば、変動領域の重心位置cg(cgx,cgy)が変動領域c(x,y)の外接矩形の中心近傍になると仮定したとき、変動領域c(x,y)内における低輝度画素群l(x,y)の位置が変動領域の一端部に大きく偏っている場合、変動領域c(x,y)とこの変動領域内の低輝度画素群l(x,y)との重心間距離dは、外接矩形の長辺距離を2分した距離rに近づく。そこで、本実施形態では、以下に示す式(2)に基づいて、距離dと距離rの比を求め、得られた値を低輝度画素群l(x,y)の偏り度合いRとして記憶部に記憶する。 As the size of the fluctuation area c (x, y), the length of the long side of the circumscribed rectangle of the fluctuation area c (x, y) is used. For example, when it is assumed that the center of gravity cg (cgx, cgy) of the fluctuation region is near the center of the circumscribed rectangle of the fluctuation region c (x, y), the low luminance pixel group l (in the fluctuation region c (x, y)) When the position of x, y) is greatly deviated toward one end of the fluctuation area, the distance d between the centers of gravity of the fluctuation area c (x, y) and the low luminance pixel group l (x, y) in the fluctuation area is , Approaches the distance r that divides the long side distance of the circumscribed rectangle into two. Therefore, in the present embodiment, the ratio between the distance d and the distance r is obtained based on the following equation (2), and the obtained value is stored as the degree of bias R of the low-luminance pixel group l (x, y). To remember.

なお、上述の算定に用いられる外接矩形は、変動領域c(x,y)を楕円近似した際の楕円の長短軸に矩形の長短辺が平行となるような外接矩形を用いることが好ましい。代わりとして、面積が最も小さくなる外接矩形を用いてもよい。
これにより、変動領域c(x,y)において低輝度を示す画素群の出現位置の偏り度合いを算出することができる。
The circumscribed rectangle used in the above calculation is preferably a circumscribed rectangle whose long and short sides are parallel to the major and minor axes of the ellipse when the variable region c (x, y) is approximated to an ellipse. Alternatively, a circumscribed rectangle having the smallest area may be used.
Thereby, it is possible to calculate the degree of bias of the appearance position of the pixel group exhibiting low luminance in the fluctuation region c (x, y).

外乱判定部13は、特徴算出部12で算出された変動領域の画像特徴量、本実施形態では、偏差算出部22で算出した偏り度合いRに基づいて、変動領域が、光量変化などで生じた外乱によるものか否かを判定する。
外乱判定部13は、以下の手順で判定を行う。
まず、記憶部3に記憶された差分画像S(x,y)から、変動領域c(x,y)中の各画素の差分輝度値の平均値(差分輝度平均値ea)を算出する。そして、差分輝度平均値eaに基づき、撮像画像I(x,y)から抽出された変動領域c(x,y)が、背景画像B(x,y)の対応領域の輝度平均値よりも暗いか否かを判定する。ここで変動領域が1つだけ抽出されている場合において、この変動領域の差分輝度平均値eaは、以下に示す式(3)で算出される他、複数の変動領域が抽出されている場合には、各変動領域毎に、差分画像から領域内の各画素の差分輝度値を求めて加算し、領域内の総画素数で除することで差分輝度平均値eaを算出できる。
The disturbance determination unit 13 is based on the image feature amount of the variation area calculated by the feature calculation unit 12, that is, the bias degree R calculated by the deviation calculation unit 22 in this embodiment, and the variation region is caused by a change in the amount of light. It is determined whether or not it is due to disturbance.
The disturbance determination unit 13 performs determination according to the following procedure.
First, from the difference image S (x, y) stored in the storage unit 3, an average value of difference luminance values (difference luminance average value ea) of each pixel in the fluctuation region c (x, y) is calculated. Then, based on the difference luminance average value ea, the fluctuation area c (x, y) extracted from the captured image I (x, y) is darker than the luminance average value of the corresponding area of the background image B (x, y). It is determined whether or not. Here, when only one variable region is extracted, the difference luminance average value ea of this variable region is calculated by the following equation (3), and when a plurality of variable regions are extracted. The difference luminance average value ea can be calculated by obtaining and adding the difference luminance value of each pixel in the region from the difference image and dividing by the total number of pixels in the region for each variable region.

ここで、mは撮像画像I(x,y)の水平方向画素数であり、nは垂直方向画素数である。算出された輝度平均値eaが正の値若しくは0を示す場合、すなわち、変動領域c(x,y)が背景画像B(x,y)の対応領域よりも明るい場合、変動領域c(x,y)は光量変化による影などの外乱に起因するものではないと判定し、外乱判定部13は処理を終了する。このような場合、変動領域は、監視空間内に存在する移動物体に起因する可能性が高いためである。 Here, m is the number of pixels in the horizontal direction of the captured image I (x, y), and n is the number of pixels in the vertical direction. When the calculated luminance average value ea shows a positive value or 0, that is, when the fluctuation area c (x, y) is brighter than the corresponding area of the background image B (x, y), the fluctuation area c (x, It is determined that y) is not caused by a disturbance such as a shadow due to a change in the amount of light, and the disturbance determination unit 13 ends the process. In such a case, the fluctuation region is likely to be caused by a moving object existing in the monitoring space.

一方、差分輝度平均値eaが負の値を示す場合、すなわち、変動領域c(x,y)が背景画像B(x,y)の対応領域よりも暗い場合、変動領域c(x,y)は影である可能性がある。   On the other hand, when the difference luminance average value ea shows a negative value, that is, when the fluctuation area c (x, y) is darker than the corresponding area of the background image B (x, y), the fluctuation area c (x, y). May be a shadow.

上述したように、人間を含む影の領域が変動領域c(x,y)として抽出されている場合、暗い画素群が変動領域c(x,y)の領域端部に偏って出現するのに対し、影だけの領域が変動領域c(x,y)として抽出されている場合には、そのような偏りは見られない。   As described above, when a shadow area including a human being is extracted as the fluctuation area c (x, y), a dark pixel group appears evenly toward the edge of the fluctuation area c (x, y). On the other hand, when a region having only a shadow is extracted as the variation region c (x, y), such a bias is not seen.

そこで、外乱判定部13は、変動領域c(x,y)が背景画像B(x,y)中の対応領域よりも暗く、影の可能性がある場合には、偏差算出部22にて算出された偏り度合いRに基づいて、変動領域が単なる影(影だけの領域)なのか、人間を含む可能性がある領域なのかを判定する。そして、外乱判定部13は、偏り度合いRが所定の閾値Th2以上である場合、変動領域は人間を含む可能性があるとし、その変動領域c(x,y)は外乱によるものではないと判定する。一方、偏り度合いが閾値Th2未満であれば、変動領域c(x,y)は外乱によるものと判定する。ここで所定の閾値Th2は、例えば、0.0625(重心間距離dが、外接矩形の長辺の1/2の長さrの1/4に相当)などに設定される。   Therefore, the disturbance determining unit 13 calculates the deviation calculation unit 22 when the fluctuation region c (x, y) is darker than the corresponding region in the background image B (x, y) and there is a possibility of a shadow. Based on the biased degree R, it is determined whether the fluctuation region is a simple shadow (a region with only a shadow) or a region that may include a human being. Then, the disturbance determination unit 13 determines that the fluctuation region may include a human when the degree of bias R is equal to or greater than the predetermined threshold Th2, and the fluctuation region c (x, y) is determined not to be due to disturbance. To do. On the other hand, if the degree of bias is less than the threshold Th2, it is determined that the fluctuation region c (x, y) is due to disturbance. Here, the predetermined threshold Th2 is set to, for example, 0.0625 (the distance d between the centers of gravity is equivalent to ¼ of the length r that is ½ of the long side of the circumscribed rectangle).

このような判定を行うことにより、人間が影とともに変動領域として抽出された場合であっても、光量変化などの外乱による単なる影と区別することができる。また、特に、逆光や黒い衣服などにより、黒く写りこんだ人間から影が長く伸びている場合であっても、これを単なる影と誤判定してしまうことを防止して、監視空間に侵入者がいるか否かを正確に判定することが可能となる。   By making such a determination, even if a person is extracted as a fluctuation region together with a shadow, it can be distinguished from a simple shadow due to a disturbance such as a change in the amount of light. In particular, even if a shadow is long extending from a human being reflected in black due to backlight or black clothes, it is possible to prevent it from being mistakenly judged as a mere shadow, and an intruder into the surveillance space. It is possible to accurately determine whether or not there is.

外乱判定部13は、判定処理を終了すると、その判定結果Jを移動体判定部14へ送る。判定結果Jは、変動領域c(x,y)が外乱によるものと判定した場合、1となり、そうでない場合、0の値を有するように設定される。   When the disturbance determination unit 13 ends the determination process, the disturbance determination unit 13 sends the determination result J to the moving body determination unit 14. The determination result J is set to 1 when it is determined that the fluctuation region c (x, y) is due to disturbance, and is set to have a value of 0 otherwise.

移動体判定部14は、外乱判定部13より判定結果Jを受け取ると、その判定結果Jを参照する。そして、判定結果Jが、変動領域c(x,y)は外乱によるものではないと判定されたものである場合(J=0)、他の付加的情報を用いた判定基準に基づいて、変動領域c(x,y)が侵入者によるものか否かを判定する。   When the moving body determination unit 14 receives the determination result J from the disturbance determination unit 13, the moving body determination unit 14 refers to the determination result J. If the determination result J is determined that the fluctuation region c (x, y) is not due to disturbance (J = 0), the fluctuation results based on the determination criterion using other additional information. It is determined whether the region c (x, y) is due to an intruder.

移動体判定部14は、変動領域c(x,y)が人間によるものと判定すると、出力部5に異常信号を出力する。なお、移動体判定部14の判定に用いられる他の付加的情報としては、例えば「変動領域c(x,y)の大きさ」、「変動領域c(x,y)の形状」、または「移動情報」などを用いることができる。   When the moving body determination unit 14 determines that the fluctuation region c (x, y) is caused by a human, the moving body determination unit 14 outputs an abnormal signal to the output unit 5. In addition, as other additional information used for the determination of the moving body determination unit 14, for example, “the size of the variation region c (x, y)”, “the shape of the variation region c (x, y)”, or “ Movement information "can be used.

ここで、「変動領域c(x,y)の大きさ」は、変動領域c(x,y)に含まれる総画素数として表すことができ、人間らしい大きさを満たすか否かを判定するために使用することができる。人間らしい大きさを満たすか否かについては、撮像画像I(x,y)に写る監視空間の大きさに基づいて、経験的に決定することができる。また、「変動領域c(x,y)の形状」は、変動領域c(x,y)の縦横比とすることができ、人間らしい形状を満たすか否かを判定するために使用することができる。その縦横比の算出には、変動領域c(x,y)の上端座標と下端座標間の距離と、左端座標と右端座標の距離との比を用いることができる。さらに、「移動情報」とは、時間的に近接した複数のフレーム間で、変動領域c(x,y)の重心位置を求め、その重心位置の差に基づいて算出した変動領域c(x,y)の移動速度とすることができる。この移動速度と、人間が移動できる通常の速度の限界に相当する閾値とを比較して、閾値以上であれば、人間では有り得ないと判定することができる。   Here, “the size of the variation region c (x, y)” can be expressed as the total number of pixels included in the variation region c (x, y), and is used to determine whether or not the size of a human being is satisfied. Can be used for Whether or not a human-like size is satisfied can be determined empirically based on the size of the monitoring space shown in the captured image I (x, y). The “shape of the fluctuation region c (x, y)” can be the aspect ratio of the fluctuation region c (x, y), and can be used to determine whether or not a human-like shape is satisfied. . For the calculation of the aspect ratio, the ratio between the distance between the upper end coordinate and the lower end coordinate of the fluctuation region c (x, y) and the distance between the left end coordinate and the right end coordinate can be used. Furthermore, the “movement information” refers to the center of gravity position of the variable region c (x, y) between a plurality of temporally adjacent frames, and the variable region c (x, x, calculated based on the difference between the center of gravity positions. The movement speed of y) can be obtained. This moving speed is compared with a threshold value corresponding to a limit of a normal speed at which a human can move. If the moving speed is equal to or higher than the threshold value, it can be determined that the human cannot.

以下、本発明の一例に係る画像センサ1の動作手順について、図4を参照しつつ説明する。
図4に、本発明の一例に係る画像センサ1の動作フローチャートを示す。
まず、撮像部2により、監視空間を撮影した撮像画像I(x,y)を取得する(ステップS01)。
The operation procedure of the image sensor 1 according to an example of the present invention will be described below with reference to FIG.
FIG. 4 shows an operation flowchart of the image sensor 1 according to an example of the present invention.
First, the captured image I (x, y) obtained by capturing the monitoring space is acquired by the imaging unit 2 (step S01).

次に、撮像画像I(x,y)は画像処理部4へ送信され、背景画像B(x,y)との対応画素間の差分輝度値を表す差分画像S(x,y)を算出し、その差分画像S(x,y)に基づいて変動領域c(x,y)が存在するか否かを判定する。変動領域c(x,y)に含まれる総画素数Ctotalが、所定値Thc以上であれば、変動領域c(x,y)が存在し、そうでなければ、変動領域c(x,y)は存在しないと判定する。(ステップS02)。変動領域c(x,y)が存在しないと判定された場合、再度撮像画像を取得する。一方、変動領域c(x,y)が存在すると判断された場合、変動領域c(x,y)内の低輝度画素群l(x,y)を抽出する(ステップS03)。   Next, the captured image I (x, y) is transmitted to the image processing unit 4, and a difference image S (x, y) representing a difference luminance value between corresponding pixels with the background image B (x, y) is calculated. Based on the difference image S (x, y), it is determined whether or not the fluctuation region c (x, y) exists. If the total number of pixels Ctotal included in the fluctuation area c (x, y) is equal to or greater than the predetermined value Thc, the fluctuation area c (x, y) exists, otherwise, the fluctuation area c (x, y). Is determined not to exist. (Step S02). When it is determined that the fluctuation region c (x, y) does not exist, the captured image is acquired again. On the other hand, when it is determined that the fluctuation region c (x, y) exists, the low luminance pixel group l (x, y) in the fluctuation region c (x, y) is extracted (step S03).

次に、変動領域c(x,y)内の重心と、低輝度画素群l(x,y)の重心を求め、それらの距離dを算出する(ステップS04)。
距離dが算出されると、その距離dと、変動領域c(x,y)を楕円近似した外接矩形の長辺距離の1/2となるrとの比に基づいて変動領域c(x,y)の偏り度合いRを算出する(ステップS05)。
Next, the center of gravity in the fluctuation region c (x, y) and the center of gravity of the low luminance pixel group l (x, y) are obtained, and the distance d between them is calculated (step S04).
When the distance d is calculated, based on the ratio of the distance d to r which is 1/2 of the long side distance of the circumscribed rectangle obtained by ellipse approximation of the variation region c (x, y), the variation region c (x, The bias degree R of y) is calculated (step S05).

その後、変動領域c(x,y)が背景画像の対応領域よりも暗いか否かを判定する。変動領域c(x,y)が、背景画像の対応領域よりも明るい場合は、変動領域c(x,y)は背景よりも反射率の高い移動物体として監視空間内に存在する可能性が高いため、この変動領域が外乱に起因するものか否かの判定を行わず、この変動領域が侵入者か否かの判定を必ず行う方が好ましいためである。この判定は、撮像画像内における変動領域内の各画素の輝度値と、背景画像B(x,y)における対応画素の輝度値との差分輝度値の平均値eaを算出し、eaが負の値となるか否かで判定する(ステップS06)。ea<0の場合、変動領域c(x,y)が外乱に起因する領域か否かの判定を行う(ステップS07).一方、ea≧0の場合、変動領域c(x,y)は、外乱に起因する領域ではないと判定され、移動体判定処理を行う(ステップS08)。   Thereafter, it is determined whether or not the fluctuation area c (x, y) is darker than the corresponding area of the background image. When the fluctuation area c (x, y) is brighter than the corresponding area of the background image, the fluctuation area c (x, y) is likely to exist in the monitoring space as a moving object having a higher reflectance than the background. For this reason, it is preferable to always determine whether or not this fluctuation area is an intruder without determining whether or not this fluctuation area is caused by a disturbance. This determination is performed by calculating an average value ea of the difference luminance value between the luminance value of each pixel in the fluctuation region in the captured image and the luminance value of the corresponding pixel in the background image B (x, y), and ea is negative. The determination is made based on whether or not the value is reached (step S06). When ea <0, it is determined whether or not the fluctuation region c (x, y) is a region caused by a disturbance (step S07). On the other hand, when ea ≧ 0, it is determined that the fluctuation region c (x, y) is not a region caused by disturbance, and a moving body determination process is performed (step S08).

変動領域が外乱に起因する領域か否かの判定(ステップS07)においては、ステップS05で算出した変動領域c(x,y)中の低輝度画素群l(x,y)の偏り度合いRが、所定の閾値Th2以上か否かを調べることによって、変動領域c(x,y)が外乱に起因する領域か否かを判定する。偏り度合いRが、所定の閾値Th2以上の場合、変動領域は外乱に起因する領域ではないと判定され、その後移動体判定処理が行われる(ステップS08)。一方、偏り度合いRが、閾値Th2未満の場合、変動領域c(x,y)を外乱に起因する領域と判定する。そして、再度監視空間の撮像画像を取得する。   In determining whether or not the variation region is a region caused by disturbance (step S07), the degree of bias R of the low-luminance pixel group l (x, y) in the variation region c (x, y) calculated in step S05 is determined. It is determined whether or not the fluctuation region c (x, y) is a region caused by a disturbance by checking whether or not the threshold value Th2 is greater than or equal to the predetermined threshold value Th2. If the degree of bias R is greater than or equal to the predetermined threshold Th2, it is determined that the fluctuation region is not a region due to disturbance, and then a moving body determination process is performed (step S08). On the other hand, when the degree of bias R is less than the threshold value Th2, the fluctuation region c (x, y) is determined as a region caused by disturbance. Then, a captured image of the monitoring space is acquired again.

移動体判定処理(ステップS08)では、変動領域c(x,y)の大きさ、形状、及び移動の速さなどの情報を用いて、変動領域c(x,y)が侵入者に起因するものか否かを判定する。変動領域c(x,y)が侵入者に起因するものと判定された場合には、出力処理が行われ(ステップS09)、画像センサの一連の処理手順が終了する。一方、変動領域c(x,y)が、侵入者に起因するものでないと判定された場合には、再度監視空間の撮像画像を取得する。   In the moving body determination process (step S08), the variable area c (x, y) is caused by an intruder using information such as the size, shape, and speed of movement of the variable area c (x, y). It is determined whether it is a thing. When it is determined that the fluctuation area c (x, y) is caused by an intruder, an output process is performed (step S09), and a series of processing procedures of the image sensor is completed. On the other hand, when it is determined that the fluctuation region c (x, y) is not caused by an intruder, a captured image of the monitoring space is acquired again.

上述した画像センサ1の動作手順において、変動領域c(x,y)が背景画像B(x,y)の対応領域よりも暗いか否かを判定するステップ(ステップS06)を、変動領域c(x,y)が存在するか否かを判定するステップ(ステップS02)の後で、変動領域c(x,y)内の低輝度画素群l(x,y)を抽出するステップ(ステップS03)の前に行ってもよい。この場合、ステップS06でNoと判定されればステップS03に、Yesと判定されれば外乱に起因する領域ではないと判定され、ステップS08に進む。これにより、変動領域c(x,y)が背景領域B(x,y)の対応領域よりも明るければ、変動領域内の偏り度合いを求める手順を省略することができる。   In the operation procedure of the image sensor 1 described above, the step (step S06) of determining whether or not the variation region c (x, y) is darker than the corresponding region of the background image B (x, y) is performed. After the step of determining whether or not x, y) exists (step S02), the step of extracting the low luminance pixel group l (x, y) in the fluctuation region c (x, y) (step S03). You may go before. In this case, if it is determined No in step S06, the process proceeds to step S03, and if it is determined Yes, it is determined that the region is not caused by a disturbance, and the process proceeds to step S08. Thereby, if the fluctuation area c (x, y) is brighter than the corresponding area of the background area B (x, y), the procedure for obtaining the degree of bias in the fluctuation area can be omitted.

なお、本発明に係る画像センサは、上述した実施例に限るものではない。例えば、撮像部に使用するカメラとして、100万画素、200万画素などの高画素数のカメラを使用してもよく、カラー撮影可能なカメラを使用してもよい。さらに、撮像素子として、CCDの代わりに、C−MOSセンサを備えたカメラを使用することもできる。   The image sensor according to the present invention is not limited to the above-described embodiment. For example, a camera having a high pixel number such as 1 million pixels or 2 million pixels may be used as the camera used in the imaging unit, or a camera capable of color photography may be used. Furthermore, a camera equipped with a C-MOS sensor can be used as the image sensor instead of the CCD.

また、画像処理部4においては、輝度以外の特徴量に基づいて変動領域中の偏り度合いを算出することができる。例えば、特徴算出部12では、低輝度または高輝度の画素群を抽出する代わりに、濃度共起行列に基づくエントロピーなどのテクスチャ特徴量を算出して偏り度合いの算出に用いることができる。この場合、画素群抽出部21では、変動領域中を複数の小領域に分割し、各小領域内のテクスチャ特徴量などをそれぞれ算出し、算出された特徴量が予め定めた閾値以上となるか否かで、各小領域を2つ以上の画素群に分類することができる。また、変動領域内における近傍画素間の輝度差に基づくエッジ分布と背景画像の対応領域における同様のエッジ分布との差や変動領域のテクスチャ特徴量と背景画像の対応領域におけるテクスチャ特徴量との差を用いて、この差が閾値以上となるか否かで変動領域を2つ以上の画素群に分類することができる。   Further, the image processing unit 4 can calculate the degree of bias in the fluctuation region based on the feature amount other than the luminance. For example, the feature calculation unit 12 can calculate a texture feature quantity such as entropy based on the density co-occurrence matrix and use it for calculating the degree of bias instead of extracting a pixel group of low luminance or high luminance. In this case, the pixel group extraction unit 21 divides the variable region into a plurality of small regions, calculates texture feature amounts and the like in each small region, and whether the calculated feature amount is equal to or greater than a predetermined threshold value. No, each small region can be classified into two or more pixel groups. Also, the difference between the edge distribution based on the luminance difference between neighboring pixels in the fluctuation area and the similar edge distribution in the corresponding area of the background image, or the difference between the texture feature quantity in the fluctuation area and the texture feature quantity in the corresponding area of the background image. By using this, it is possible to classify the fluctuation region into two or more pixel groups depending on whether or not this difference is greater than or equal to a threshold value.

さらに、偏差算出部22では、偏り度合いの指数として、上述したRの平方根、若しくは逆数を用いてもよい。さらに、変動領域を楕円近似する代わりに、単純に変動領域の上端座標tp、下端座標bp、左端座標lp、右端座標rpを求め、点(lp,tp)を左上端、点(rp,bp)を右下端とする矩形で近似して、その矩形に基づいて偏り度合いRの算出で使用する、変動領域の大きさに基づく値として上述のrを求めてもよい。また、変動領域の総画素数をrとしてもよい。一方、偏り度合いRの算出で使用する距離dについて、例えば変動領域c(x,y)を楕円近似して求めた楕円の中心点と、低輝度画素群l(x,y)(若しくは高輝度画素群h(x,y))を楕円近似して求めた楕円の中心点との距離を用いることができる。さらに、偏り度合いRとして、変動領域c(x,y)中の最も離れた2点間の距離と、低輝度画素群l(x,y)中の最も離れた2点間の距離との比を用いてもよい。当然ながら、偏り度合いRとして、ここに挙げた指標を用いる場合は、閾値Th2もそれら指標に合わせて最適化する必要がある。いずれの指標を用いる場合にも、実験的に閾値Th2を最適化することができる。   Further, the deviation calculating unit 22 may use the square root of R described above or the reciprocal as an index of the degree of bias. Further, instead of elliptically approximating the fluctuation region, the upper end coordinate tp, the lower end coordinate bp, the left end coordinate lp, and the right end coordinate rp of the fluctuation region are simply obtained, and the point (lp, tp) is set to the upper left end and the point (rp, bp). The above-mentioned r may be obtained as a value based on the size of the fluctuation area, which is used for calculating the degree of bias R based on the rectangle having the right lower end as a lower limit. In addition, the total number of pixels in the variable region may be r. On the other hand, for the distance d used in the calculation of the degree of bias R, for example, the center point of the ellipse obtained by ellipse approximation of the fluctuation region c (x, y) and the low luminance pixel group l (x, y) (or high luminance) The distance from the center point of the ellipse obtained by ellipse approximation of the pixel group h (x, y)) can be used. Further, as the degree of bias R, the ratio between the distance between the two most distant points in the fluctuation region c (x, y) and the distance between the two most distant points in the low luminance pixel group l (x, y). May be used. Needless to say, when the indexes listed here are used as the degree of bias R, the threshold Th2 also needs to be optimized according to these indexes. Regardless of which index is used, the threshold Th2 can be optimized experimentally.

さらに、上記の例では、変動領域が外乱に起因するものか否かの判定に、変動領域中の異なる画像特徴を有する画素群の偏り度合いを使用したが、代わりとして、変動領域中の均質度合いを使用してもよい。この均質度合いと上記の偏り度合いとは、表裏一体の関係にあり、変動領域中の均質度合いを使用する場合、偏り度合いを使用する場合と逆に、均質度合いが高い程、変動領域は外乱に起因する可能性が高くなる。   Furthermore, in the above example, the degree of bias of the pixel group having different image characteristics in the fluctuation region is used to determine whether or not the fluctuation region is caused by disturbance. Instead, the degree of homogeneity in the fluctuation region is used. May be used. This degree of homogeneity and the above-mentioned degree of bias are in an integrated relationship, and when using the degree of homogeneity in the fluctuation region, contrary to the case of using the degree of bias, the higher the degree of homogeneity, the more the fluctuation region becomes more disturbing. It is more likely to be attributed.

本発明の一例に係る画像センサの機能ブロック図である。It is a functional block diagram of an image sensor concerning an example of the present invention. 本発明による、変動領域が外乱によるものか否かの判定の原理についての説明図である。It is explanatory drawing about the principle of determination whether the change area | region is based on a disturbance by this invention. 変動領域内の低輝度画素群の偏り度合いを説明する図である。It is a figure explaining the bias | inclination degree of the low-intensity pixel group in a fluctuation area. 本発明の一実施形態における動作フローチャートである。It is an operation | movement flowchart in one Embodiment of this invention. 従来例の画像センサによる、監視空間内の人間有無判定処理の説明図である。It is explanatory drawing of the human presence determination process in the monitoring space by the image sensor of a prior art example.

符号の説明Explanation of symbols

1 画像センサ
2 撮像部
3 記録部
4 画像処理部
5 出力部
11 変動領域抽出部
12 特徴算出部
13 外乱判定部
14 移動体判定部
21 画素群抽出部
22 偏差算出部
DESCRIPTION OF SYMBOLS 1 Image sensor 2 Imaging part 3 Recording part 4 Image processing part 5 Output part 11 Fluctuation area extraction part 12 Feature calculation part 13 Disturbance determination part 14 Moving body determination part 21 Pixel group extraction part 22 Deviation calculation part

Claims (6)

撮像部にて取得される画像と過去の画像の差分から変動領域を抽出して、該変動領域が外乱により生じたものか否かを判定する画像センサであって、
前記変動領域において所定の特徴量を有する画素群を抽出する画素群抽出部と、
前記画素群の位置が前記変動領域において偏った位置であるかを判定するための偏り度合いを算出する偏差算出部と、
前記偏り度合いが小さいと判定した場合、前記変動領域は外乱により生じたものと判定する外乱判定部と、
を備えることを特徴とする画像センサ。
An image sensor that extracts a fluctuation region from a difference between an image acquired by an imaging unit and a past image, and determines whether the fluctuation region is caused by a disturbance,
A pixel group extraction unit that extracts a pixel group having a predetermined feature amount in the variable region;
A deviation calculating unit for calculating a degree of bias for determining whether the position of the pixel group is a biased position in the fluctuation region;
When it is determined that the degree of bias is small, a disturbance determination unit that determines that the fluctuation region is caused by a disturbance,
An image sensor comprising:
前記偏差算出部は、前記変動領域の重心位置と前記画素群の重心位置間の距離と、前記変動領域の大きさとの比に基づき前記変動領域における前記画素群の位置の偏り度合いを算出する、請求項1に記載の画像センサ。   The deviation calculating unit calculates a degree of deviation of the position of the pixel group in the variation area based on a ratio between the center position of the variation area and the center position of the pixel group and the size of the variation area. The image sensor according to claim 1. 前記画素群は、所定の閾値以下の輝度を有する低輝度画素又は所定の閾値以上の輝度を有する高輝度画素の何れか一方よりなる画素群である、請求項1又は2に記載の画像センサ。   The image sensor according to claim 1, wherein the pixel group is a pixel group including any one of a low luminance pixel having a luminance equal to or lower than a predetermined threshold and a high luminance pixel having a luminance equal to or higher than the predetermined threshold. 前記画素群抽出部は、前記変動領域に含まれる画素を該変動領域の輝度平均値以下の閾値で2値化して、前記変動領域における低輝度画素を抽出し、該低輝度画素よりなる画素群を前記画素群として抽出する、請求項1〜3の何れか一項に記載の画像センサ。   The pixel group extraction unit binarizes pixels included in the variation area with a threshold value equal to or less than a luminance average value of the variation area, extracts a low luminance pixel in the variation area, and a pixel group including the low luminance pixels The image sensor according to any one of claims 1 to 3, wherein a pixel group is extracted as the pixel group. 前記外乱判定部は、前記変動領域が前記過去の画像における対応領域よりも低輝度であり、且つ前記偏り度合いが小さいと判定した場合に該変動領域を外乱により生じたものと判定し、前記変動領域が前記過去の画像における対応領域よりも高輝度である場合、又は、前記変動領域が前記過去の画像における対応領域よりも低輝度であり、且つ前記偏り度合いが大きいと判定した場合、該変動領域は外乱により生じたものではないと判定する、請求項3又は4に記載の画像センサ。   The disturbance determination unit determines that the fluctuation area is caused by disturbance when the fluctuation area is lower in brightness than the corresponding area in the past image and the degree of bias is small. If the region is higher in luminance than the corresponding region in the past image, or if the variation region is lower in luminance than the corresponding region in the past image and the degree of bias is large, the variation The image sensor according to claim 3, wherein the region is determined not to be caused by a disturbance. 前記外乱判定部において前記変動領域が外乱により生じたものではないと判定されると、他の判定基準に基づいて前記変動領域が移動物体により生じたものか否かを判定する移動物体判定部をさらに備える、請求項1〜5の何れか一項に記載の画像センサ。   When the disturbance determination unit determines that the fluctuation region is not caused by disturbance, a moving object determination unit that determines whether the fluctuation region is caused by a moving object based on another determination criterion. The image sensor according to claim 1, further comprising:
JP2005245377A 2005-08-26 2005-08-26 Image sensor Active JP4641902B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005245377A JP4641902B2 (en) 2005-08-26 2005-08-26 Image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005245377A JP4641902B2 (en) 2005-08-26 2005-08-26 Image sensor

Publications (2)

Publication Number Publication Date
JP2007060468A true JP2007060468A (en) 2007-03-08
JP4641902B2 JP4641902B2 (en) 2011-03-02

Family

ID=37923517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005245377A Active JP4641902B2 (en) 2005-08-26 2005-08-26 Image sensor

Country Status (1)

Country Link
JP (1) JP4641902B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230225A (en) * 2008-03-19 2009-10-08 Mazda Motor Corp Periphery monitoring device for vehicle
JP2010221810A (en) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc Visual recognition support evaluation device and program
JP2015046811A (en) * 2013-08-29 2015-03-12 セコム株式会社 Image sensor
JP2020149448A (en) * 2019-03-14 2020-09-17 東芝エレベータ株式会社 Image processing device and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046996A (en) * 2001-08-01 2003-02-14 Hitachi Kokusai Electric Inc Method for recognizing invading object in image processing apparatus
JP2004258931A (en) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd Image processing method, image processor, and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046996A (en) * 2001-08-01 2003-02-14 Hitachi Kokusai Electric Inc Method for recognizing invading object in image processing apparatus
JP2004258931A (en) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd Image processing method, image processor, and image processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230225A (en) * 2008-03-19 2009-10-08 Mazda Motor Corp Periphery monitoring device for vehicle
JP2010221810A (en) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc Visual recognition support evaluation device and program
JP2015046811A (en) * 2013-08-29 2015-03-12 セコム株式会社 Image sensor
JP2020149448A (en) * 2019-03-14 2020-09-17 東芝エレベータ株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
JP4641902B2 (en) 2011-03-02

Similar Documents

Publication Publication Date Title
US8565484B2 (en) Forest fire smoke detection method using random forest classification
KR100476019B1 (en) Monitoring method for detecting an intruding object and monitoring apparatus therefor
JP5106356B2 (en) Image monitoring device
JPH07302328A (en) Method for extracting area of moving object based upon background difference
JP4389602B2 (en) Object detection apparatus, object detection method, and program
JP2010003177A (en) Image processor
WO1998028706B1 (en) Low false alarm rate video security system using object classification
GB2557035A (en) IR or thermal image enhancement method based on background information for video analysis
KR20210094493A (en) Distinguishing - in an image - human beings in a crowd
JP4641902B2 (en) Image sensor
KR101769741B1 (en) Method and apparatus for recognizing iris through pupil detection
JP4865328B2 (en) Image sensor
JP6752710B2 (en) Imaging device, dirt detection system, and dirt detection method
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP7092616B2 (en) Object detection device, object detection method, and object detection program
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4925942B2 (en) Image sensor
JP4619082B2 (en) Image determination device
CN114757963A (en) Moving target extraction method under complex illumination change at night
JP6124739B2 (en) Image sensor
JP2007249743A (en) Identification method for moving object, identification device for moving object and program making identification processing for moving object to be performed
JP3813043B2 (en) Glasses reflection detection apparatus and glasses reflection detection method
JP6618438B2 (en) Foreground region extraction apparatus, method, and program
JP6133700B2 (en) Image sensor
JP4544955B2 (en) Image monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101130

R150 Certificate of patent or registration of utility model

Ref document number: 4641902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250