JP3465632B2 - Object detection device and object detection method - Google Patents

Object detection device and object detection method

Info

Publication number
JP3465632B2
JP3465632B2 JP15792699A JP15792699A JP3465632B2 JP 3465632 B2 JP3465632 B2 JP 3465632B2 JP 15792699 A JP15792699 A JP 15792699A JP 15792699 A JP15792699 A JP 15792699A JP 3465632 B2 JP3465632 B2 JP 3465632B2
Authority
JP
Japan
Prior art keywords
pixel
background
image
target
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15792699A
Other languages
Japanese (ja)
Other versions
JP2000348163A (en
Inventor
祐介 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP15792699A priority Critical patent/JP3465632B2/en
Publication of JP2000348163A publication Critical patent/JP2000348163A/en
Application granted granted Critical
Publication of JP3465632B2 publication Critical patent/JP3465632B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、監視カメラなどに
より撮影した画像に含まれる物体を検出する物体検出装
および物体検出方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object detecting device and an object detecting method for detecting an object included in an image taken by a surveillance camera or the like.

【0002】[0002]

【従来の技術】監視カメラなどで撮影した動画像から物
体を検出する場合、日照条件などにより背景の明るさが
変動しても確実に物体を検出できることが重要である。
そこで、本発明の発明者らは照明変動が大きく、かつ頻
繁に発生する場合でも、その影響を受けにくい物体検出
技術を考案し、すでにその特許出願を行っている(特願
平11−078641号)。
2. Description of the Related Art When detecting an object from a moving image photographed by a surveillance camera or the like, it is important to be able to detect the object reliably even if the brightness of the background changes due to sunshine conditions or the like.
Therefore, the inventors of the present invention have devised an object detection technique that is less susceptible to the influence of the illumination variation even when it frequently occurs, and have already applied for a patent thereof (Japanese Patent Application No. 11-078641). ).

【0003】この物体検出技術は、あらかじめ作成した
背景画像と、現時点の画像とにおいて、注目点とは異な
る位置に参照点を設け、その参照点の輝度値変化の相関
情報から物体を判別するというものである。以下、原理
について図面を参照して詳しく説明する。図8は背景画
像を表す説明図であり、水平方向にX軸、垂直方向にY
軸がそれぞれ設定されている。ただし、必要以上に複雑
になることを避けるため、背景画像はテクスチャーがな
く場所によらず一定の明るさであるとする。図8におい
て、PAは注目点、PBはその近傍に設けた参照点であ
る。そして、注目点PAにおける輝度値をIA、参照点P
Bにおける輝度値をIBとする。
In this object detection technique, a reference point is provided at a position different from the point of interest in the background image created in advance and the current image, and the object is discriminated from the correlation information of the brightness value change of the reference point. It is a thing. Hereinafter, the principle will be described in detail with reference to the drawings. FIG. 8 is an explanatory diagram showing a background image, in which the X axis is in the horizontal direction and the Y axis is in the vertical direction.
Each axis is set. However, in order to avoid unnecessarily complicated images, the background image has no texture and has a constant brightness regardless of location. In FIG. 8, P A is a point of interest and P B is a reference point provided in the vicinity thereof. Then, the brightness value at the attention point P A is I A , and the reference point P A
The luminance values in B and I B.

【0004】図9は注目点および参照点の輝度値により
形成される2次元の輝度空間を示す説明図である。この
輝度空間には2次元の座標系が設定され、その横軸は上
記注目点PAの輝度値IAを表し、縦軸は上記参照点PB
の輝度値IBを表している。ここで、注目点PAの輝度値
がIA1、参照点PBの輝度値がIB1であったとすると、
これらの輝度値の組に対応する、上記輝度空間上の点、
すなわち輝度点(I A1、IB1)は、たとえば図9中の白
ドット102の位置となる。そして、背景の明るさが変
化し、注目点PAの輝度値がたとえば小さくなったとす
ると、参照点PBの輝度値も同じ割合で小さくなる。ま
た、注目点PAの輝度値が0なら、参照点PBの輝度値も
0となる。したがって、注目点PAおよび参照点PBの輝
度IA、IBの組に対応する輝度空間上の点は、背景の明
るさが変化したとき、図9に示した直線104に沿って
移動する。ここではこのような直線のことを照明変動背
景モデルと呼ぶ。
FIG. 9 shows the brightness values of the target point and the reference point.
It is explanatory drawing which shows the two-dimensional brightness | luminance space formed. this
A two-dimensional coordinate system is set in the luminance space, and the horizontal axis is
Note PABrightness value ofARepresents the reference point P on the vertical axis.B
Brightness value ofBIs represented. Here, attention point PABrightness value
Is IA1, Reference point PBBrightness value of IB1, Then
Points in the luminance space corresponding to these luminance value pairs,
That is, the luminance point (I A1, IB1) Is, for example, white in FIG.
This is the position of the dot 102. And the background brightness changes
Point of interest PAIf the brightness value of
Then, the reference point PBThe luminance value of is also reduced at the same rate. Well
Attention point PAIs 0, the reference point PBThe brightness value of
It becomes 0. Therefore, attention point PAAnd the reference point PBShine
Degree IA, IBThe points in the luminance space corresponding to the
When the ruggedness changes, along the straight line 104 shown in FIG.
Moving. Here, such a straight line is
It is called a scenery model.

【0005】一方、たとえば注目点PAの位置に物体が
侵入したとし、注目点PAの輝度値がIA2に下がったと
すると、この場合の輝度点(IA2、IB1)はたとえば白
丸ドット106の位置となる。したがって、このような
輝度点と直線104との距離107を調べ、輝度点が直
線104から離れている場合には、注目点の位置に物体
が侵入していると判定することができる。そして、照明
変動が生じ、たとえば参照点PBの輝度値が大きくなっ
たとすると、通常、物体上の注目点PAの輝度値も同様
に大きくなるため、輝度点(IA2、IB1)はおおむね直
線104と平行に右上方向(矢印A)に移動し、直線1
04との間の距離はあまり変化しない。したがって、照
明変動が生じても物体を確実に検出することができる。
On the other hand, for example, the object has entered the position of the attention point P A, the luminance value of the attention point P A is the dropped to I A2, the luminance point in this case (I A2, I B1), for example white circle dots The position is 106. Therefore, by checking the distance 107 between the brightness point and the straight line 104, when the brightness point is far from the straight line 104, it can be determined that the object has entered the position of the target point. Then, if illumination fluctuation occurs and, for example, the brightness value of the reference point P B becomes large, the brightness value of the target point P A on the object also becomes large in the same manner, so that the brightness points (I A2 , I B1 ) become Move to the upper right direction (arrow A) in parallel with the straight line 104, and straight line 1
The distance to 04 does not change much. Therefore, it is possible to reliably detect the object even if the illumination changes.

【0006】[0006]

【発明が解決しようとする課題】しかし、上記従来技術
では、参照点を注目点に接近して配置した場合には物体
の輪郭部のみが抽出されて、抽出した物体画像が中抜け
の状態となり、この点で改良の余地があった。以下、図
10を参照して具体的に説明する。図10は、たとえば
監視カメラの撮影領域に物体が侵入した場合の撮影画像
を示す説明図である。背景は図8の場合と同様、場所に
よらず一定の明るさであるとする。この画像に対して、
図10に示したように、注目点PAを設定し、近接して
参照点PBを設定したとすると、図10の状態ではこれ
らの点はいずれも物体108上に在り、両点の輝度はと
もに同じ程度に低下するため、輝度空間において注目点
Aおよび参照点PBが対応する輝度点(IA、IB)は、
図9に示した直線104上の黒ドット110の位置とな
る。そして、黒ドット110と直線104との間の距離
は零であるから、この場合、注目点PAは、物体上には
ないと判定することになり、注目点PAが物体108上
に在るにも係わらず物体を検出することができない。
However, in the above-mentioned prior art, when the reference point is arranged close to the point of interest, only the contour portion of the object is extracted, and the extracted object image is in a hollow state. , There was room for improvement in this respect. Hereinafter, a specific description will be given with reference to FIG. FIG. 10 is an explanatory diagram showing a captured image when an object enters the capturing area of the surveillance camera, for example. As in the case of FIG. 8, the background has a constant brightness regardless of the place. For this image,
As shown in FIG. 10, if the attention point P A is set and the reference point P B is set close to each other, all of these points are on the object 108 in the state of FIG. 10, and the brightness of both points is set. together to lower to the same extent, the point of interest P a and the reference point P B corresponding luminance points in the luminance space (I a, I B) is,
This is the position of the black dot 110 on the straight line 104 shown in FIG. Since the distance between the black dot 110 and the straight line 104 is zero, it is determined that the attention point P A is not on the object in this case, and the attention point P A is on the object 108. However, the object cannot be detected.

【0007】一方、注目点PAと参照点PBを同様の間隔
で設定した場合でも、物体108の縁部で、たとえば注
目点PAが物体108上となり、参照点PBが背景上とな
る位置に各点を設定した場合には、両点に輝度差が生
じ、図9において対応する輝度点は直線104から離れ
た位置となるため、物体108を検出することができ
る。したがって、特願平11−078641号の技術で
は、注目点と参照線とを近接して配置した場合には、物
体の縁部、すなわち輪郭部のみが検出されることにな
る。
On the other hand, even when the attention point P A and the reference point P B are set at the same interval, for example, the attention point P A is on the object 108 and the reference point P B is on the background at the edge of the object 108. When each point is set at the position, the luminance difference occurs between the two points, and the corresponding luminance point is located away from the straight line 104 in FIG. 9, so that the object 108 can be detected. Therefore, in the technique of Japanese Patent Application No. 11-078641, when the target point and the reference line are arranged close to each other, only the edge portion of the object, that is, the contour portion is detected.

【0008】そこで、物体の輪郭部だけでなく全体を検
出するためには、参照点を注目点から充分に離して配置
する必要がある。また、特願平11−078641号の
技術では、参照点はかならず、物体が侵入する可能性の
ある領域の外に設定する必要がある。これについて図1
1を参照して説明する。図11の(A)は画像面を示す
説明図、(B)は物体が撮影領域に侵入した場合の模式
図、(C)は検出結果を示す模式図である。
Therefore, in order to detect not only the outline of the object but the whole, it is necessary to dispose the reference point sufficiently away from the target point. Further, in the technique of Japanese Patent Application No. 11-078641, the reference point must be set outside the area where an object may enter. About this
This will be described with reference to FIG. 11A is an explanatory diagram showing the image surface, FIG. 11B is a schematic diagram when an object enters the photographing area, and FIG. 11C is a schematic diagram showing a detection result.

【0009】図11の(A)に示したように、画像上に
注目点PAと注目点PBとを離して設定した場合、図11
の(B)に示したように、物体108が注目点PAの位
置に侵入すると、注目点PAと参照点PBとの間で輝度差
が生じて物体108が検出される。しかし、物体108
が参照点PBの位置に侵入した場合にも同様の輝度差が
生じるため、この場合にも物体108は検出されること
になる。したがって、注目点PAに物体108が侵入し
て検出された場合、物体108が注目点PAの位置に存
在するのか、あるいは参照点PBの位置に存在するのか
を特定することができず、その結果、注目点PAの位置
のみに物体108が存在するにもかかわらず、図11の
(C)に示したように、両方の位置に物体108が存在
するように物体像109が生成されてしまう。
As shown in FIG. 11A, when the attention point P A and the attention point P B are set apart from each other on the image, as shown in FIG.
As shown in the (B), when an object 108 enters the position of the target point P A, the object 108 generated luminance difference between the reference point P B and the point of interest P A is detected. However, the object 108
A similar brightness difference also occurs when the object enters the position of the reference point P B , so that the object 108 is also detected in this case. Therefore, when the object 108 invades the attention point P A and is detected, it is not possible to specify whether the object 108 exists at the position of the attention point P A or the position of the reference point P B. As a result, although the object 108 exists only at the position of the attention point P A , the object image 109 is generated such that the object 108 exists at both positions as shown in FIG. 11C. Will be done.

【0010】そのため、このような現象を回避すべく、
参照点はかならず、物体が侵入する可能性のある領域の
外に設定しなければならない。本発明はこのような欠点
を除去するためになされたもので、その目的は、照明変
動が大きく、かつ頻繁に発生する場合にも安定で、しか
も高精度に物体を検出できるとともに、参照点を任意の
位置に設定して確実に物体を検出することが可能な物体
検出装置および物体検出方法を提供することにある。
Therefore, in order to avoid such a phenomenon,
The reference point must always be set outside the area where the object may enter. The present invention has been made to eliminate such drawbacks, and its purpose is to detect an object with high accuracy and with stability even when the illumination fluctuation is large and frequently occur, and to determine a reference point. It is an object to provide an object detection device and an object detection method that can set an arbitrary position to reliably detect an object.

【0011】[0011]

【課題を解決するための手段】本発明は、上記目的を達
成するため、撮影画像を用いて物体を検出する物体検出
装置であって、前記撮影画像の各画素の輝度値を取り込
んで保持する画像入力手段と、前記撮影画像の注目画素
ごとに複数の参照画素を選択して、選択した複数の参照
画素および前記注目画素の輝度値を前記画像入力手段か
ら前記注目画素ごとに取得する複数参照点選択手段と、
前記撮影画像の背景を成す背景画像の各画素の輝度値を
保持する背景画像保持手段と、前記複数参照点選択手段
が選択した前記注目画素および同画素に対応する前記複
数の参照画素にそれぞれ対応する、前記背景画像におけ
る複数の画素の輝度値を前記背景画像保持手段から取得
して、背景の輝度が照明変動の影響を受けて変化した場
合の照明変動背景モデルを前記注目画素と、同画素に対
応する各参照画素との組ごとに作成する背景モデル作成
手段と、輝度空間において、前記背景モデル作成手段が
前記注目画素と参照画素との前記組ごとに作成した前記
照明変動背景モデルと、前記複数参照点選択手段が前記
注目画素ごとに取得した前記複数の参照画素の輝度値の
それぞれと前記注目画素の輝度値との組が表す点との間
の距離をそれぞれ計算する距離計算手段と、前記注目画
素と各参照画素との組ごとに、前記距離計算手段が計算
した前記距離にもとづいて前記注目画素が物体を表す画
素か否かを判別し、前記組ごとの判別結果に対し論理演
算を行って前記注目画素が物体を表す画素か否かを最終
的に判別する物体判別手段とを備えたことを特徴とす
る。
In order to achieve the above-mentioned object, the present invention is an object detecting apparatus for detecting an object using a photographed image, in which the brightness value of each pixel of the photographed image is captured and held. An image input unit and a plurality of reference pixels that select a plurality of reference pixels for each target pixel of the captured image and obtain the brightness values of the selected plurality of reference pixels and the target pixel from the image input unit for each target pixel Point selection means,
Background image holding means for holding the luminance value of each pixel of the background image forming the background of the captured image, and the target pixel selected by the plurality of reference point selection means and the plurality of reference pixels corresponding to the same pixel respectively The luminance value of a plurality of pixels in the background image is acquired from the background image holding means, and the illumination variation background model when the background luminance changes under the influence of illumination variation is the same pixel as the pixel of interest. A background model creating means for creating each set with each reference pixel corresponding to, in the luminance space, the background model creating means creates the illumination variation background model for each set of the target pixel and the reference pixel, The distance between each of the brightness values of the plurality of reference pixels acquired for each of the target pixels by the plurality of reference point selecting means and the point represented by the set of the brightness values of the target pixel, respectively. For each set of the distance calculating means for calculating and the target pixel and each reference pixel, it is determined whether or not the target pixel is a pixel representing an object based on the distance calculated by the distance calculating means. And an object discriminating means for finally discriminating whether or not the target pixel is a pixel representing an object.

【0012】本発明の物体検出装置では、画像入力手段
は、撮影画像の各画素の輝度値を取り込んで保持し、複
数参照点選択手段は、前記画像の注目画素ごとに複数の
参照画素を選択して、選択した複数の参照画素および前
記注目画素の輝度値を画像入力手段から注目画素ごとに
取得する。そして、背景モデル作成手段は、複数参照点
選択手段が選択した注目画素および同画素に対応する前
記複数の参照画素にそれぞれ対応する、前記背景画像に
おける複数の画素の輝度値を背景画像保持手段から取得
して、背景の輝度が照明変動の影響を受けて変化した場
合の照明変動背景モデルを注目画素と、同画素に対応す
る各参照画素との組ごとに作成する。
In the object detecting apparatus of the present invention, the image input means captures and holds the luminance value of each pixel of the photographed image, and the plural reference point selecting means selects a plurality of reference pixels for each target pixel of the image. Then, the brightness values of the selected plurality of reference pixels and the target pixel are acquired for each target pixel from the image input means. Then, the background model creating means obtains from the background image holding means brightness values of a plurality of pixels in the background image respectively corresponding to the target pixel selected by the plurality of reference point selecting means and the plurality of reference pixels corresponding to the same pixel. An illumination variation background model in the case where the background brightness is changed by being affected by the illumination variation is created for each set of the target pixel and each reference pixel corresponding to the same pixel.

【0013】その上で、距離計算手段は、輝度空間にお
いて、背景モデル作成手段が注目画素と参照画素との前
記組ごとに作成した前記照明変動背景モデルと、複数参
照点選択手段が注目画素ごとに取得した前記複数の参照
画素の輝度値のそれぞれと注目画素の輝度値との組が表
す点との間の距離をそれぞれ計算する。そして、物体判
別手段は、注目画素と各参照画素との組ごとに、距離計
算手段が計算した前記距離にもとづいて前記注目画素が
物体を表す画素か否かを判別し、前記組ごとの判別結果
に対し論理演算を行って注目画素が物体を表す画素か否
かを最終的に判別する。
Further, the distance calculation means is configured such that, in the brightness space, the illumination variation background model created by the background model creation means for each set of the target pixel and the reference pixel, and the plurality of reference point selection means for each target pixel. The distances between the points represented by the respective sets of the brightness values of the plurality of reference pixels and the brightness value of the target pixel acquired in step S1 are calculated. Then, the object discriminating means discriminates, for each group of the target pixel and each reference pixel, based on the distance calculated by the distance calculating means, whether the target pixel is a pixel representing an object or not, and discriminating for each group. A logical operation is performed on the result to finally determine whether the pixel of interest is a pixel representing an object.

【0014】また、本発明は、撮影画像を用いて物体を
検出する物体検出装置であって、前記撮影画像の各画素
の輝度値を取り込んで保持する画像入力手段と、前記撮
影画像において水平方向に配列された複数の画素から成
る注目水平画素列ごとに、前記注目水平画素列に含まれ
る複数の参照画素を選択して各参照画素の輝度値を前記
画像入力手段から取得する水平参照点選択手段と、前記
撮影画像において垂直方向に配列された複数の画素から
成る注目垂直画素列ごとに、前記注目垂直画素列に含ま
れる複数の参照画素を選択して各参照画素の輝度値を前
記画像入力手段から取得する垂直参照点選択手段と、前
記撮影画像の背景を成す画像の各画素の輝度値を保持す
る背景画像保持手段と、前記水平参照点選択手段が選択
した前記複数の参照画素にそれぞれ対応する、前記背景
画像における複数の画素の輝度値を前記背景画像保持手
段から取得して背景の輝度が照明変動の影響を受けて変
化した場合の照明変動背景モデルを作成する水平背景モ
デル作成手段と、前記垂直参照点選択手段が選択した前
記複数の参照画素にそれぞれ対応する、前記背景画像に
おける複数の画素の輝度値を前記背景画像保持手段から
取得して背景の輝度が照明変動の影響を受けて変化した
場合の照明変動背景モデルを作成する垂直背景モデル作
成手段と、多次元輝度空間において、前記水平背景モデ
ル作成手段が作成した前記照明変動背景モデルと、前記
水平参照点選択手段が取得した前記複数の輝度値が表す
点との間の距離を計算する水平距離計算手段と、多次元
輝度空間において、前記垂直背景モデル作成手段が作成
した前記照明変動背景モデルと、前記垂直参照点選択手
段が取得した前記複数の輝度値が表す点との間の距離を
計算する垂直距離計算手段と、前記水平距離計算手段お
よび前記垂直距離計算手段が計算した前記距離にもとづ
いて、前記注目水平画素列および前記注目垂直画素列に
物体を表す画素が含まれているか否かを判別し、両画素
列に係わる判別結果に対して論理演算を行って物体を含
む矩形領域を特定する物体判別手段とを備えたことを特
徴とする。
Further, the present invention is an object detecting device for detecting an object using a photographed image, comprising image input means for fetching and holding a luminance value of each pixel of the photographed image, and a horizontal direction in the photographed image. Horizontal reference point selection for selecting a plurality of reference pixels included in the target horizontal pixel row and acquiring the brightness value of each reference pixel from the image input means for each target horizontal pixel row composed of a plurality of pixels arranged in And a plurality of reference pixels included in the target vertical pixel row for each target vertical pixel row composed of a plurality of pixels arranged in the vertical direction in the captured image, and the brightness value of each reference pixel is set to the image. Vertical reference point selecting means acquired from the input means, background image holding means for holding the luminance value of each pixel of the image forming the background of the photographed image, and the plurality of reference points selected by the horizontal reference point selecting means. A horizontal background that obtains luminance values of a plurality of pixels in the background image, which correspond to pixels, from the background image holding means and creates an illumination variation background model when the background luminance changes under the influence of illumination variation. The brightness values of the plurality of pixels in the background image, which correspond respectively to the plurality of reference pixels selected by the model creating means and the vertical reference point selecting means, are acquired from the background image holding means, and the background brightness is changed by illumination. Vertical background model creating means for creating an illumination fluctuation background model in the case of a change due to the influence of, and the illumination fluctuation background model created by the horizontal background model creating means in a multidimensional luminance space, and the horizontal reference point selection. Horizontal distance calculation means for calculating a distance between the points represented by the plurality of brightness values acquired by the means, and the vertical background model in the multidimensional brightness space. Vertical distance calculating means for calculating the distance between the illumination fluctuation background model created by the creating means and the points represented by the plurality of brightness values acquired by the vertical reference point selecting means, the horizontal distance calculating means, and Based on the distance calculated by the vertical distance calculating means, it is determined whether or not the target horizontal pixel row and the target vertical pixel row include a pixel representing an object. And an object discriminating means for performing a logical operation to specify a rectangular area including the object.

【0015】本発明の物体検出装置では、画像入力手段
は撮影画像の各画素の輝度値を取り込んで保持し、水平
参照点選択手段は、撮影画像において水平方向に配列さ
れた複数の画素から成る注目水平画素列ごとに、注目水
平画素列に含まれる複数の参照画素を選択して各参照画
素の輝度値を画像入力手段から取得する。また、垂直参
照点選択手段は、撮影画像において垂直方向に配列され
た複数の画素から成る注目垂直画素列ごとに、注目垂直
画素列に含まれる複数の参照画素を選択して各参照画素
の輝度値を画像入力手段から取得する。そして、水平背
景モデル作成手段は、水平参照点選択手段が選択した前
記複数の参照画素にそれぞれ対応する、前記背景画像に
おける複数の画素の輝度値を背景画像保持手段から取得
して背景の輝度が照明変動の影響を受けて変化した場合
の照明変動背景モデルを作成し、垂直背景モデル作成手
段は、垂直参照点選択手段が選択した前記複数の参照画
素にそれぞれ対応する、前記背景画像における複数の画
素の輝度値を背景画像保持手段から取得して背景の輝度
が照明変動の影響を受けて変化した場合の照明変動背景
モデルを作成する。
In the object detecting device of the present invention, the image input means captures and holds the luminance value of each pixel of the photographed image, and the horizontal reference point selecting means is composed of a plurality of pixels arranged in the horizontal direction in the photographed image. For each target horizontal pixel row, a plurality of reference pixels included in the target horizontal pixel row are selected and the brightness value of each reference pixel is acquired from the image input means. Further, the vertical reference point selecting means selects a plurality of reference pixels included in the target vertical pixel row for each target vertical pixel row composed of a plurality of pixels arranged in the vertical direction in the captured image, and determines the brightness of each reference pixel. The value is obtained from the image input means. Then, the horizontal background model creating means acquires the brightness values of a plurality of pixels in the background image corresponding to the plurality of reference pixels selected by the horizontal reference point selecting means from the background image holding means and determines the background brightness. An illumination variation background model is created when it is changed under the influence of the illumination variation, and the vertical background model creating means corresponds to the plurality of reference pixels selected by the vertical reference point selecting means. The brightness value of the pixel is acquired from the background image holding means, and an illumination fluctuation background model is created when the background brightness changes under the influence of the illumination fluctuation.

【0016】その後、水平距離計算手段は、多次元輝度
空間において、水平背景モデル作成手段が作成した前記
照明変動背景モデルと、水平参照点選択手段が取得した
前記複数の輝度値が表す点との間の距離を計算し、垂直
距離計算手段は、多次元輝度空間において、垂直背景モ
デル作成手段が作成した前記照明変動背景モデルと、垂
直参照点選択手段が取得した前記複数の輝度値が表す点
との間の距離を計算する。そして、物体判別手段は、水
平距離計算手段および垂直距離計算手段が計算した前記
距離にもとづいて、注目水平画素列および注目垂直画素
列に物体を表す画素が含まれているか否かを判別し、両
画素列に係わる判別結果に対して論理演算を行って物体
を含む矩形領域を特定する。
After that, the horizontal distance calculating means, in the multi-dimensional brightness space, defines the illumination fluctuation background model created by the horizontal background model creating means and the points represented by the plurality of brightness values acquired by the horizontal reference point selecting means. The vertical distance calculation means calculates the distance between the points, and the point represented by the illumination fluctuation background model created by the vertical background model creation means and the plurality of brightness values acquired by the vertical reference point selection means in the multidimensional brightness space. Calculate the distance between. Then, the object discriminating means discriminates based on the distance calculated by the horizontal distance calculating means and the vertical distance calculating means whether or not the target horizontal pixel row and the target vertical pixel row include a pixel representing an object, A logical operation is performed on the discrimination result relating to both pixel rows to specify a rectangular area including an object.

【0017】また、本発明は、撮影画像を用いて物体を
検出する物体検出方法であって、前記撮影画像の各画素
の輝度値を取り込んで第1の記憶手段に保持させる画像
入力ステップと、前記撮影画像の注目画素ごとに複数の
参照画素を選択して、選択した複数の参照画素および前
記注目画素の輝度値を前記第1の記憶手段から前記注目
画素ごとに取得する複数参照点選択ステップと、前記撮
影画像の背景を成す背景画像の各画素の輝度値を第2の
記憶手段に保持させる背景画像保持ステップと、前記複
数参照点選択ステップで選択した前記注目画素および同
画素に対応する前記複数の参照画素にそれぞれ対応す
る、前記背景画像における複数の画素の輝度値を前記第
2の記憶手段から取得して、背景の輝度が照明変動の影
響を受けて変化した場合の照明変動背景モデルを前記注
目画素と、同画素に対応する各参照画素との組ごとに作
成する背景モデル作成ステップと、輝度空間において、
前記背景モデル作成ステップで前記注目画素と参照画素
との前記組ごとに作成した前記照明変動背景モデルと、
前記複数参照点選択ステップで前記注目画素ごとに取得
した前記複数の参照画素の輝度値のそれぞれと前記注目
画素の輝度値との組が表す点との間の距離をそれぞれ計
算する距離計算ステップと、前記注目画素と各参照画素
との組ごとに、前記距離計算ステップで計算した前記距
離にもとづいて前記注目画素が物体を表す画素か否かを
判別し、前記組ごとの判別結果に対し論理演算を行って
前記注目画素が物体を表す画素か否かを最終的に判別す
る物体判別ステップとを備えたことを特徴とする。
Further, the present invention is an object detecting method for detecting an object using a photographed image, comprising an image input step of fetching a luminance value of each pixel of the photographed image and holding the luminance value in the first storage means. A plurality of reference point selecting step of selecting a plurality of reference pixels for each target pixel of the captured image and acquiring the brightness values of the selected plurality of reference pixels and the target pixel from the first storage means for each target pixel A background image holding step of holding the luminance value of each pixel of the background image forming the background of the captured image in the second storage means, and the target pixel and the same pixel selected in the plurality of reference point selecting steps. The brightness values of the plurality of pixels in the background image corresponding to the plurality of reference pixels are acquired from the second storage unit, and the background brightness is changed by the influence of illumination fluctuation. And the target pixel illumination variation background model case, the background model creation step of creating for each set and each reference pixel corresponding to the same pixel, in the luminance space,
The illumination fluctuation background model created for each of the set of the target pixel and the reference pixel in the background model creating step,
A distance calculation step of calculating a distance between each of the luminance values of the plurality of reference pixels acquired for each of the attention pixels in the plurality of reference point selection steps and a point represented by a set of the luminance values of the attention pixel; For each set of the target pixel and each reference pixel, it is determined whether or not the target pixel is a pixel representing an object based on the distance calculated in the distance calculation step, and the determination result for each set is logically determined. And an object determining step for finally determining whether or not the pixel of interest is a pixel representing an object by performing a calculation.

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【0022】また、本発明は、撮影画像を用いて物体を
検出する物体検出方法であって、前記撮影画像の各画素
の輝度値を取り込んで第1の記憶手段に保持させる画像
入力ステップと、前記撮影画像において水平方向に配列
された複数の画素から成る注目水平画素列ごとに、前記
注目水平画素列に含まれる複数の参照画素を選択して各
参照画素の輝度値を前記第1の記憶手段から取得する水
平参照点選択ステップと、前記撮影画像において垂直方
向に配列された複数の画素から成る注目垂直画素列ごと
に、前記注目垂直画素列に含まれる複数の参照画素を選
択して各参照画素の輝度値を前記第1の記憶手段から取
得する垂直参照点選択ステップと、前記撮影画像の背景
を成す画像の各画素の輝度値を第2の記憶手段に保持さ
せる背景画像保持ステップと、前記水平参照点選択ステ
ップで選択した前記複数の参照画素にそれぞれ対応す
る、前記背景画像における複数の画素の輝度値を前記第
2の記憶手段から取得して背景の輝度が照明変動の影響
を受けて変化した場合の照明変動背景モデルを作成する
水平背景モデル作成ステップと、前記垂直参照点選択ス
テップで選択した前記複数の参照画素にそれぞれ対応す
る、前記背景画像における複数の画素の輝度値を前記第
2の記憶手段から取得して背景の輝度が照明変動の影響
を受けて変化した場合の照明変動背景モデルを作成する
垂直背景モデル作成ステップと、多次元輝度空間におい
て、前記水平背景モデル作成ステップで作成した前記照
明変動背景モデルと、前記水平参照点選択ステップで取
得した前記複数の輝度値が表す点との間の距離を計算す
る水平距離計算ステップと、多次元輝度空間において、
前記垂直背景モデル作成ステップで作成した前記照明変
動背景モデルと、前記垂直参照点選択ステップで取得し
た前記複数の輝度値が表す点との間の距離を計算する垂
直距離計算ステップと、前記水平距離計算ステップおよ
び前記垂直距離計算ステップで計算した前記距離にもと
づいて、前記注目水平画素列および前記注目垂直画素列
に物体を表す画素が含まれているか否かを判別し、両画
素列に係わる判別結果に対して論理演算を行って物体を
含む矩形領域を特定する物体判別ステップとを備えたこ
とを特徴とする。
Further, the present invention is an object detecting method for detecting an object using a photographed image, comprising an image input step of fetching a luminance value of each pixel of the photographed image and storing the luminance value in the first storage means. For each target horizontal pixel row composed of a plurality of pixels arranged in the horizontal direction in the captured image, a plurality of reference pixels included in the target horizontal pixel row are selected, and the brightness value of each reference pixel is stored in the first storage. A horizontal reference point selecting step obtained from the means, and a plurality of reference pixels included in the target vertical pixel row are selected for each target vertical pixel row composed of a plurality of pixels arranged in the vertical direction in the captured image. Vertical reference point selecting step of obtaining the brightness value of a reference pixel from the first storage means, and background image holding for holding the brightness value of each pixel of the image forming the background of the photographed image in the second storage means Step, and the brightness values of a plurality of pixels in the background image corresponding to the plurality of reference pixels selected in the horizontal reference point selecting step are acquired from the second storage unit to reduce the background brightness to the illumination variation. Horizontal background model creating step of creating an illumination variation background model when affected and changed, and brightness of a plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the vertical reference point selecting step A vertical background model creating step of obtaining a value from the second storage means and creating an illumination fluctuation background model when the background brightness changes under the influence of the illumination fluctuation; and the horizontal background in the multidimensional brightness space. Of the illumination fluctuation background model created in the model creating step and the points represented by the plurality of brightness values acquired in the horizontal reference point selecting step A horizontal distance calculation step of calculating the distance, in a multidimensional intensity space,
A vertical distance calculation step of calculating a distance between the illumination fluctuation background model created in the vertical background model creation step and a point represented by the plurality of brightness values acquired in the vertical reference point selection step, and the horizontal distance. Based on the distance calculated in the calculation step and the vertical distance calculation step, it is determined whether or not the target horizontal pixel row and the target vertical pixel row include a pixel representing an object, and a determination relating to both pixel rows. And an object determining step of performing a logical operation on the result to identify a rectangular area including the object.

【0023】本発明の物体検出方法では、画像入力ステ
ップにおいて撮影画像の各画素の輝度値を取り込んで第
1の記憶手段に保持させ、水平参照点選択ステップで
は、撮影画像において水平方向に配列された複数の画素
から成る注目水平画素列ごとに、注目水平画素列に含ま
れる複数の参照画素を選択して各参照画素の輝度値を第
1の記憶手段から取得する。また、垂直参照点選択ステ
ップでは、撮影画像において垂直方向に配列された複数
の画素から成る注目垂直画素列ごとに、注目垂直画素列
に含まれる複数の参照画素を選択して各参照画素の輝度
値を第1の記憶手段から取得する。そして、水平背景モ
デル作成ステップでは、水平参照点選択ステップで選択
した前記複数の参照画素にそれぞれ対応する、前記背景
画像における複数の画素の輝度値を第1の記憶手段から
取得して背景の輝度が照明変動の影響を受けて変化した
場合の照明変動背景モデルを作成し、垂直背景モデル作
成ステップでは、垂直参照点選択ステップで選択した前
記複数の参照画素にそれぞれ対応する、前記背景画像に
おける複数の画素の輝度値を第2の記憶手段から取得し
て背景の輝度が照明変動の影響を受けて変化した場合の
照明変動背景モデルを作成する。
In the object detecting method of the present invention, the brightness value of each pixel of the photographed image is fetched and held in the first storage means in the image input step, and is arranged in the horizontal direction in the photographed image in the horizontal reference point selecting step. A plurality of reference pixels included in the target horizontal pixel row are selected for each target horizontal pixel row including a plurality of pixels, and the brightness value of each reference pixel is acquired from the first storage unit. Further, in the vertical reference point selecting step, the plurality of reference pixels included in the target vertical pixel row are selected for each target vertical pixel row composed of a plurality of pixels arranged in the vertical direction in the captured image, and the brightness of each reference pixel is selected. The value is acquired from the first storage means. Then, in the horizontal background model creating step, the brightness values of the plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the horizontal reference point selecting step are acquired from the first storage unit to obtain the background brightness. Creates an illumination variation background model in the case where it changes due to the influence of illumination variation, and in the vertical background model creating step, a plurality of background images corresponding to the plurality of reference pixels selected in the vertical reference point selecting step are provided. The luminance value of the pixel is acquired from the second storage means and an illumination fluctuation background model is created when the background luminance changes under the influence of the illumination fluctuation.

【0024】その後、水平距離計算ステップでは、多次
元輝度空間において、水平背景モデル作成ステップで作
成した前記照明変動背景モデルと、水平参照点選択ステ
ップで取得した前記複数の輝度値が表す点との間の距離
を計算し、垂直距離計算ステップでは、多次元輝度空間
において、垂直背景モデル作成ステップで作成した前記
照明変動背景モデルと、垂直参照点選択ステップで取得
した前記複数の輝度値が表す点との間の距離を計算す
る。そして、物体判別ステップでは、水平距離計算ステ
ップおよび垂直距離計算ステップで計算した前記距離に
もとづいて、注目水平画素列および注目垂直画素列に物
体を表す画素が含まれているか否かを判別し、両画素列
に係わる判別結果に対して論理演算を行って物体を含む
矩形領域を特定する。
Then, in the horizontal distance calculation step, in the multidimensional brightness space, the illumination fluctuation background model created in the horizontal background model creation step and the points represented by the plurality of brightness values acquired in the horizontal reference point selection step are defined. In the vertical distance calculation step, in the vertical distance calculation step, the points represented by the illumination fluctuation background model created in the vertical background model creation step and the plurality of brightness values acquired in the vertical reference point selection step. Calculate the distance between. Then, in the object determining step, based on the distance calculated in the horizontal distance calculating step and the vertical distance calculating step, it is determined whether or not the target horizontal pixel row and the target vertical pixel row include a pixel representing an object, A logical operation is performed on the discrimination result relating to both pixel rows to specify a rectangular area including an object.

【0025】[0025]

【発明の実施の形態】次に本発明の実施の形態例につい
て図面を参照して説明する。まず、第1の実施の形態例
における物体検出の原理について説明する。図3の
(A)は画像面における注目点と参照点との位置関係を
示す説明図、(B)は物体が撮影領域に侵入した場合の
模式図、(C)は検出結果を示す模式図、(D)は画像
面における注目点と参照点との位置関係を示す他の説明
図、(E)は検出結果を示す他の模式図、(F)は最終
的な検出結果を示す模式図である。
BEST MODE FOR CARRYING OUT THE INVENTION Next, embodiments of the present invention will be described with reference to the drawings. First, the principle of object detection in the first embodiment will be described. 3A is an explanatory diagram showing a positional relationship between a target point and a reference point on the image surface, FIG. 3B is a schematic diagram when an object enters the photographing region, and FIG. 3C is a schematic diagram showing a detection result. , (D) is another explanatory diagram showing the positional relationship between the target point and the reference point on the image surface, (E) is another schematic diagram showing the detection result, and (F) is a schematic diagram showing the final detection result. Is.

【0026】図3の(A)に示したように、画像上に注
目点PAと注目点PBとを離して設定した場合、図3の
(B)に示したように、物体108が注目点PAの位置
に侵入すると、注目点PAと参照点PBとの間で輝度差が
生じるので、照明変動背景モデルを用いた従来と同じ手
法で検出を行って物体108を検出する。そして、検出
結果は、図3の(C)に示したように、従来と同様、注
目点PAと参照点PBの両方に物体108が存在する可能
性があることを示すものとなる。
As shown in FIG. 3A, when the attention point P A and the attention point P B are set apart from each other on the image, as shown in FIG. and enters the position of the attention point P a, the luminance difference between the reference point P B and the point of interest P a occurs, detects the object 108 performs detection in the same manner as conventional using the illumination variation background model . Then, as shown in FIG. 3C, the detection result indicates that the object 108 may exist at both the attention point P A and the reference point P B as in the conventional case.

【0027】一方、本実施の形態例では、図3の(D)
に示したように、参照点PBとは異なる参照点PCをさら
に設定する。そして、注目点PAと参照点PCとの組に関
しても従来と同様の手法で物体の検出を行う。その結
果、上述のように物体108が注目点PAに侵入した場
合、検出結果では図3の(E)に示したように、注目点
Aと参照点PCの両方の位置に物体108が存在する可
能性があることを示すものとなる。
On the other hand, in this embodiment, (D) of FIG.
As shown in, and sets a different reference point P C is the reference point P B. Then, with respect to the set of the attention point P A and the reference point P C , the object is detected by the same method as the conventional one. As a result, when the object 108 invades the attention point P A as described above, the detection result shows that the object 108 is present at both the attention point P A and the reference point P C , as shown in FIG. Is likely to be present.

【0028】本実施の形態例では、さらに、この2つの
検出結果、すなわち図3の(C)と(E)の論理積をと
る。したがって、図3の(F)に示したように、図3の
(C)と(E)の両方に共通して存在する注目点PA
位置の物体像111のみが残り、注目点PAに侵入した
物体108がその位置を特定して確実に検出される。そ
して、本実施の形態例では注目点と参照点とをある程度
離して配置することができることから、検出された物体
の画像は輪郭部だけでなく内側の領域も描画された画像
となる。
In the present embodiment, the two detection results, that is, the logical product of (C) and (E) in FIG. Accordingly, as shown in (F) in FIG. 3, leaving only the object image 111 in the position of the attention point P A that is present commonly in both of Figures 3 and (C) (E), point of interest P A The object 108 that has entered the vehicle is specified and reliably detected. Further, in the present embodiment, the attention point and the reference point can be arranged to be apart from each other to some extent, so that the image of the detected object is an image in which not only the contour portion but also the inner region is drawn.

【0029】なお、一般に、1つの注目点に対し、注目
点を含むN個(Nは3以上の整数)の異なる参照点を設
定した場合、次式により表される条件を満たすことで物
体の存在領域を特定することができる。
Generally, when N different reference points (N is an integer of 3 or more) including the target point are set for one target point, the object The existence area can be specified.

【0030】[0030]

【数1】dist(Pi、Pj)>ObjectSize だだし、1≦i、j≦N(i≠j)であり、dist
(A、B)は点A、B間の距離を表す。また、Obje
ctSizeは画像上での物体の大きさを表している。
## EQU1 ## dist (P i , P j )> ObjectSize, and 1 ≦ i, j ≦ N (i ≠ j), and dist
(A, B) represents the distance between points A and B. Also, Obje
ctSize represents the size of the object on the image.

【0031】次に、本発明の第1の実施形態について図
面を参照して詳細に説明する。図1は第1の実施の形態
例の物体検出装置を示すブロック図、図2は図1の物体
検出装置の動作を示すフローチャートである。以下で
は、これらの図面を参照して本発明の物体検出装置の一
例について説明すると同時に本発明の物体検出方法およ
び物体検出プログラムを記録したコンピュータ読み取り
可能な情報記録媒体の実施の形態例について説明する。
Next, a first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing an object detecting apparatus according to the first embodiment, and FIG. 2 is a flow chart showing the operation of the object detecting apparatus shown in FIG. Hereinafter, an example of the object detection apparatus of the present invention will be described with reference to these drawings, and at the same time, an embodiment of a computer-readable information recording medium recording the object detection method and the object detection program of the present invention will be described. .

【0032】図1に示した物体検出装置2は、画像入力
手段4、複数参照点選択手段6、背景画像保持手段8、
背景モデル作成手段10、距離計算手段12、物体判別
手段14、ならびに背景作成手段16を含み、たとえば
監視カメラにより撮影した画像から物体を検出する構成
となっている。物体検出装置2は具体的には、一例とし
て、監視カメラやビデオテープレコーダとのインターフ
ェースなども備え、所定のオペレーティングシステムが
組み込まれたコンピュータにより構成されており、コン
ピュータを構成する入力装置に、本発明の物体検出プロ
グラムを記録したコンピュータ読み取り可能な情報記録
媒体としてのたとえばCD−ROMを装着してCD−R
OMからプログラムデータを読み込み、コンピュータの
メモリにロードして、コンピュータのCPUを同プログ
ラムデータにもとづいて動作させることで実現されてい
る。
The object detecting apparatus 2 shown in FIG. 1 comprises an image input means 4, a plurality of reference point selecting means 6, a background image holding means 8,
The background model creating unit 10, the distance calculating unit 12, the object discriminating unit 14, and the background creating unit 16 are included, and the object is detected from an image captured by a surveillance camera, for example. Specifically, the object detection device 2 is, for example, provided with a monitor camera, an interface with a video tape recorder, and the like, and is configured by a computer in which a predetermined operating system is incorporated. A CD-R equipped with, for example, a CD-ROM as a computer-readable information recording medium recording the object detection program of the present invention
This is realized by reading the program data from the OM, loading the program data into the memory of the computer, and operating the CPU of the computer based on the program data.

【0033】画像入力手段4は、監視カメラにより撮影
された画像、あるいは撮影後、ビデオテープレコーダに
録画された画像を、監視カメラやVTRなどから取り込
んで保持する。より詳しくは、画像入力手段4は、撮影
画像の各画素の輝度値を取り込んで保持する。なお、画
像入力手段4が取り込む画像は動画像であっても、静止
画像であってもよい。また、画像入力手段4は、自身が
画像を撮像するカメラを備えた構成であってもよい。
The image input means 4 takes in an image captured by the surveillance camera, or an image recorded in the video tape recorder after the capture, from the surveillance camera or VTR, and holds it. More specifically, the image input means 4 captures and holds the brightness value of each pixel of the captured image. The image captured by the image input means 4 may be a moving image or a still image. Further, the image input unit 4 may be configured to include a camera that captures an image by itself.

【0034】複数参照点選択手段6は、前記画像の注目
画素(注目点の位置の画素)ごとに、あらかじめ決めら
れた複数の参照画素(参照点の位置の画素)を選択し
て、選択した複数の参照画素および注目画素の各輝度値
を画像入力手段4から注目画素ごとに取得する。なお、
1つの注目画素に対応する上記複数の参照画素は参照画
素群ともいう。背景画像保持手段8は、撮影領域の背景
画像の各画素の輝度値を保持している。背景画像保持手
段8が保持する輝度値は、本実施の形態例では、後に説
明するように背景作成手段16により適宜更新される。
背景モデル作成手段10は、複数参照点選択手段6が選
択した注目画素および同画素に対応する前記複数の参照
画素にそれぞれ対応する、前記背景画像における複数の
画素の輝度値を背景画像保持手段8から取得して、背景
の輝度が照明変動の影響を受けて変化した場合の照明変
動背景モデルを注目画素と、同画素に対応する各参照画
素との組ごとに作成する。
The plurality of reference point selecting means 6 selects and selects a plurality of predetermined reference pixels (pixels at the reference point positions) for each target pixel (pixels at the position of the target points) of the image. The brightness values of the plurality of reference pixels and the target pixel are acquired from the image input unit 4 for each target pixel. In addition,
The plurality of reference pixels corresponding to one target pixel is also referred to as a reference pixel group. The background image holding unit 8 holds the brightness value of each pixel of the background image in the shooting area. In the present embodiment, the brightness value held by the background image holding means 8 is appropriately updated by the background creating means 16 as described later.
The background model creating means 10 stores the brightness values of a plurality of pixels in the background image, which correspond to the target pixel selected by the plurality of reference point selecting means 6 and the plurality of reference pixels corresponding to the same pixel, respectively, to the background image holding means 8 , And an illumination variation background model in the case where the background brightness changes due to the influence of illumination variation is created for each set of the target pixel and each reference pixel corresponding to the same pixel.

【0035】そして、距離計算手段12は、輝度空間に
おいて、背景モデル作成手段10が注目画素と参照画素
との前記組ごとに作成した前記照明変動背景モデルと、
複数参照点選択手段6が注目画素ごとに取得した複数の
参照画素の輝度値のそれぞれと注目画素の輝度値との組
が表す点との間の距離をそれぞれ計算する。
Then, the distance calculating means 12 has the illumination fluctuation background model created by the background model creating means 10 for each of the groups of the target pixel and the reference pixel in the luminance space,
The plural reference point selecting means 6 calculates the distance between each point represented by the set of the luminance values of the plurality of reference pixels acquired for each target pixel and the luminance value of the target pixel.

【0036】物体判別手段14は、注目画素と各参照画
素との組ごとに、距離計算手段12が計算した前記距離
にもとづいて前記注目画素が物体を表す画素か否かを判
別し、注目画素と各参照画素との組ごとの判別結果に対
し論理演算を行って注目画素が物体を表す画素か否かを
最終的に判別する。そして、画像出力手段15は、物体
判別手段14が出力する判別結果の画像データを不図示
の表示装置などへ出力する。また、背景作成手段16
は、物体判別手段14が物体を表す画素ではないと判別
した注目画素と、同画素に対応する前記複数の参照画素
のそれぞれに対応する背景画像の画素の輝度値を、注目
画素および参照画素の輝度値にもとづき更新して背景画
像保持手段8に保持させる。
The object discriminating means 14 discriminates, for each set of the target pixel and each reference pixel, based on the distance calculated by the distance calculating means 12, whether or not the target pixel is a pixel representing an object. Finally, it is determined whether or not the target pixel is a pixel representing an object by performing a logical operation on the determination result for each set of the reference pixel and each reference pixel. Then, the image output unit 15 outputs the image data of the determination result output by the object determination unit 14 to a display device (not shown) or the like. Also, the background creating means 16
Is the luminance value of the pixel of interest and the pixel of the background image corresponding to each of the plurality of reference pixels corresponding to the pixel of interest determined as not being a pixel representing the object. It is updated based on the brightness value and held in the background image holding means 8.

【0037】次に、このように構成された第1の実施の
形態例の動作について説明する。図2に示したように、
まず、物体検出装置2の画像入力手段4は、監視カメラ
などによって撮像された画像を読み込み、画像を構成す
る各画素ごとの輝度値を画像入力手段4内に設けられた
不図示のメモリに保持する(ステップA1)。画像はマ
トリクス状に配列された多数の画素により構成され、画
像入力手段4はこのような画素の輝度値を2次元配列の
データとして保持する。また、各画素は上記メモリのx
アドレスとyアドレスを指定することで特定可能となっ
ており、xアドレスはマトリクスの列番号に対応し、y
アドレスはマトリクスの行番号に対応している。
Next, the operation of the first embodiment thus constructed will be described. As shown in FIG.
First, the image input unit 4 of the object detection device 2 reads an image captured by a surveillance camera or the like, and holds a brightness value for each pixel forming the image in a memory (not shown) provided in the image input unit 4. (Step A1). The image is composed of a large number of pixels arranged in a matrix, and the image input means 4 holds the luminance values of such pixels as two-dimensional array data. In addition, each pixel is x in the memory.
It can be specified by specifying the address and y address. The x address corresponds to the column number of the matrix, and y
The address corresponds to the row number of the matrix.

【0038】そして、複数参照点選択手段6は、上記画
像の注目画素ごとに、あらかじめ決められた複数の参照
画素を選択して、選択した複数の参照画素および注目画
素の各輝度値を画像入力手段4の上記メモリから注目画
素ごとに取得する(ステップA2)。上記参照画素はそ
れぞれ、検出すべき侵入物体の大きさよりも大きい距離
だけ注目画素から離れた位置に設定されている。たとえ
ば、侵入物体の画面上での大きさが100画素未満であ
るとし、現在の注目画素点PAと、この画素とは異なる
もう1つの画素点PBを参照点とする場合、図3の
(A)に示したように参照点PBは、注目点PAからx
軸方向に100画素離れた位置に設定する。このとき、
注目点PAにおける輝度値はI(x、y)、参照点PB
における輝度値はI(x+100、y)のように表すこ
とができる。同様に、もう1つの参照点PCを設定する
場合、図3の(D)に示したように、参照点PCは注目
点PAからx軸の反対方向に100画素離れた位置に設
定する。参照点PCにおける輝度値はI(x−100、
y)のように表すことができる。
Then, the plurality of reference point selecting means 6 selects a plurality of predetermined reference pixels for each target pixel of the image and inputs the brightness values of the selected plurality of reference pixels and the target pixel as an image. Each pixel of interest is acquired from the memory of the means 4 (step A2). Each of the reference pixels is set at a position separated from the pixel of interest by a distance larger than the size of the intruding object to be detected. For example, if the size of the intruding object on the screen is less than 100 pixels and the current pixel of interest PA and another pixel point PB different from this pixel are used as reference points, (A) in FIG. ), The reference point PB is x from the point of interest PA.
It is set at a position separated by 100 pixels in the axial direction. At this time,
The brightness value at the attention point PA is I (x, y), and the reference point PB
The luminance value at can be expressed as I (x + 100, y). Similarly, when setting another reference point PC, as shown in FIG. 3D, the reference point PC is set at a position 100 pixels away from the target point PA in the direction opposite to the x-axis. The brightness value at the reference point PC is I (x-100,
y).

【0039】本実施の形態例では、複数参照点選択手段
6は、注目点PAに対し注目点以外に2つの参照点PB
Cを設定するものとし、したがって、注目点および各
参照点にそれぞれ対応する1つの注目画素と2つの参照
画素を設定するものとする。次に、複数参照点選択手段
6は、ステップA2で得た注目画素および参照画素の各
輝度値を背景作成手段16に供給する(ステップA
3)。この段階では、背景画像保持手段8を構成するメ
モリには、背景画像を構成する各画素の輝度値はまだ格
納されていないため、背景作成手段16は、複数参照点
選択手段6から供給された各輝度値を、それぞれ対応す
る背景画像の画素の輝度値として、背景画像保持手段8
に保持させる。
In the present embodiment, the plural reference point selecting means 6 has two reference points P B for the point of interest P A in addition to the point of interest.
It is assumed that P C is set, and accordingly, one target pixel and two reference pixels respectively corresponding to the target point and each reference point are set. Next, the plural reference point selecting means 6 supplies the luminance values of the target pixel and the reference pixel obtained in step A2 to the background creating means 16 (step A).
3). At this stage, since the brightness value of each pixel forming the background image is not yet stored in the memory forming the background image holding unit 8, the background creating unit 16 is supplied from the multiple reference point selecting unit 6. The background image holding unit 8 sets each luminance value as the luminance value of the pixel of the corresponding background image.
To hold.

【0040】次に、背景モデル作成手段10は、背景画
像保持手段8が保持している背景画像の各画素の輝度値
を用いて照明変動背景モデルを作成する。たとえば注目
画素が図3における注目点PAに対応するpaであり、参
照画素が参照点PB、PCに対応するpb、pcであったと
すると、背景モデル作成手段10はまず、注目画素pa
および参照画素pbに対応する、背景画像における2つ
の画素の輝度値を背景画像保持手段8から取得する。
Next, the background model creating means 10 creates an illumination variation background model using the brightness value of each pixel of the background image held by the background image holding means 8. For example, if the target pixel is p a corresponding to the target point P A in FIG. 3 and the reference pixels are p b and p c corresponding to the reference points P B and P C , the background model creating means 10 first Pixel of interest p a
And the luminance values of the two pixels in the background image corresponding to the reference pixel p b are acquired from the background image holding means 8.

【0041】そして、これら2つの輝度値を用いて、注
目画素paと参照画素pbとの組に対応するものとして、
背景の輝度が照明変動の影響を受けて変化した場合の照
明変動背景モデルを作成する。具体的には、図9に示し
たような、注目画素paに対応する背景画素の輝度値を
横軸、参照画素pbに対応する背景画素の輝度値を縦軸
とする輝度空間において、注目画素paと参照画素pb
対応する背景画素の輝度値の組が表す点と、原点を通過
する直線を求め、その直線を上記照明変動背景モデルと
する。背景モデル作成手段10は、注目画素paと参照
画素pcとの組に対しても同様に照明変動背景モデルを
作成する。
Then, using these two luminance values, as the one corresponding to the set of the target pixel p a and the reference pixel p b ,
An illumination fluctuation background model is created when the background brightness changes under the influence of lighting fluctuation. Specifically, as shown in FIG. 9, the horizontal axis the luminance value of the background pixel corresponding to the pixel of interest p a, in the luminance space to the vertical axis the luminance value of the background pixel corresponding to the reference pixel p b, A straight line passing through a point represented by a set of brightness values of background pixels corresponding to the target pixel p a and the reference pixel p b and the origin is obtained, and the straight line is set as the illumination variation background model. The background model creating means 10 similarly creates an illumination variation background model for a set of the target pixel p a and the reference pixel p c .

【0042】なお、注目画素ごとに参照する画素の数が
注目画素も含めてN個であれば、1つの注目画素ごとに
N個の背景画像の画素の輝度値を用いることになり、し
たがって注目画素ごとの背景の輝度値の組はN次元のベ
クトルとして表すことができる。本実施例では注目画素
と1参照点の組を2組用いているので、背景の輝度値は
2組の2次元ベクトルとなる。
If the number of pixels to be referred to for each target pixel is N, including the target pixel, the brightness values of N background image pixels are used for each target pixel. The set of background luminance values for each pixel can be represented as an N-dimensional vector. In the present embodiment, two sets of the pixel of interest and one reference point are used, so the background brightness value is two sets of two-dimensional vectors.

【0043】その後、距離計算手段12は、注目画素p
aおよび参照画素pbの組に対して、上記輝度空間におい
て、上記照明変動背景モデルと、注目画素paおよび参
照画素pbの輝度値の組が表す点との間の距離を計算
し、さらに、注目画素paおよび参照画素pcの組に対し
ても同様の距離を計算する(ステップA4)。
After that, the distance calculating means 12 determines the target pixel p.
For the set of a and the reference pixel p b , in the brightness space, calculate the distance between the illumination fluctuation background model and the point represented by the set of brightness values of the pixel of interest p a and the reference pixel p b , Further, similar distances are calculated for the set of the target pixel p a and the reference pixel p c (step A4).

【0044】ここで、注目画素pa、参照画素pb、pc
に対応する背景画素の輝度値をia0、ib0、ic0とし、
注目画素pa、参照画素pb、pcの輝度値をia1
b1、ic 1とすると、注目画素paと参照画素pbとの組
に対応する照明変動背景モデルと、輝度値ia1、ib1
対応する点との間の距離D1、ならびに注目画素paと参
照画素pcとの組に対応する照明変動背景モデルと、輝
度値ia1、ic1に対応する点との間の距離D2はそれぞ
れ[数2]、[数4]に示した式によって計算すること
ができる。
Here, the target pixel p a , the reference pixels p b and p c
Let the brightness values of the background pixels corresponding to i a0 , i b0 , i c0 ,
The luminance values of the pixel of interest p a and the reference pixels p b and p c are i a1 ,
Let i b1 and i c 1 be the distance D 1 between the illumination fluctuation background model corresponding to the set of the target pixel p a and the reference pixel p b and the point corresponding to the brightness values i a1 and i b1 , and The distance D 2 between the illumination fluctuation background model corresponding to the set of the target pixel p a and the reference pixel p c and the points corresponding to the luminance values i a1 and i c1 is [Equation 2] and [Equation 4], respectively. It can be calculated by the formula shown in.

【0045】[0045]

【数2】 [Equation 2]

【0046】[0046]

【数3】 次に、物体判別手段14は、ステップA4において求め
られた距離D1、D2と、あらかじめ設定されているしき
い値T1、T2とを比べ(ステップA5)、これらの距離
およびしきい値が[数4]を満たす場合には、注目画素
aは物体を表す画素であり、対応箇所に物体が存在す
ると判断し、一方、[数4]を満たさない場合には、注
目画素paは背景を表す画素であると判断する(ステッ
プA6、S7、S8、S9)。
[Equation 3] Next, the object discriminating means 14 compares the distances D 1 and D 2 obtained in step A4 with preset threshold values T 1 and T 2 (step A5), and the distances and the thresholds are compared. When the value satisfies [Equation 4], the target pixel p a is a pixel representing an object, and it is determined that the object exists at the corresponding position. On the other hand, when the value does not satisfy [Equation 4], the target pixel p a It is determined that a is a pixel representing the background (steps A6, S7, S8, S9).

【0047】[0047]

【数4】 より詳しくは、物体判別手段14は、複数距離計算手段
が計算した距離D1、D2がそれぞれ上記しきい値T1
2より大きいか否かを調べる(ステップA5)。たと
えば距離D1がしきい値T1より大きい場合には、物体判
別手段14は注目画素paおよび参照画素pbは物体を表
す画素である可能性があるとし、検出結果として両画素
に論理”1”を対応づける。また、距離D2も、しきい
値T2より大きい場合には、物体判別手段14は、注目
画素paおよび参照画素pcは物体を表す画素である可能
性があるとし、検出結果として両画素に論理”1”を対
応づける。一方、距離D1、D2がT1、T2より小さい場
合には、各画素には論理”0”を対応づける。
[Equation 4] More specifically, in the object discriminating means 14, the distances D 1 and D 2 calculated by the plural distance calculating means are the threshold values T 1 and
It is checked whether it is larger than T 2 (step A5). For example, when the distance D 1 is larger than the threshold value T 1 , the object discriminating means 14 determines that the target pixel p a and the reference pixel p b may be pixels representing an object, and the detection result is logically determined by both pixels. Correlate "1". If the distance D 2 is also larger than the threshold value T 2 , the object discriminating unit 14 determines that the target pixel p a and the reference pixel p c may be pixels representing an object, and both of them are detected as the detection result. The logic "1" is associated with the pixel. On the other hand, when the distances D 1 and D 2 are smaller than T 1 and T 2 , each pixel is associated with the logic “0”.

【0048】その上で、物体判別手段14は、これらの
検出結果の論理積をとり(ステップA6)、そして値を
判定して(ステップA7)、結果が論理”1”の場合は
注目画素paは物体を表す画素であるとし(ステップA
8)、論理”0”の場合は注目画素paは物体を表さ
ず、背景を表す画素であるとする(ステップA9)。た
とえば、距離D1がしきい値T1より大きい場合、物体判
別手段14が各画素pa、pb、pcに対応づける値は”
1”、”1”、”0”となり、また、距離D2がしきい
値T2より大きい場合、物体判別手段14が各画素pa
b、pcに対応づける値は”1”、”0”、”1”とな
る。したがって、各画素ごとに、これらの値の論理積を
とると、それぞれ”1”、”0”、”0”となり、画素
aに対する論理値のみが”1”となる。したがって、
物体判別手段14は、注目画素p aが物体を表す画素で
あると判断する。
Then, the object discriminating means 14 determines whether these
The logical product of the detection results is taken (step A6), and the value is
If judged (step A7) and the result is logic "1",
Pixel of interest paIs a pixel representing an object (step A
8), if the logic is “0”, the pixel of interest paRepresents an object
Instead, it is assumed that the pixel represents the background (step A9). Was
For example, the distance D1Is the threshold T1If larger, object size
Another means 14 is each pixel pa, Pb, PcThe value associated with
1 ”,“ 1 ”,“ 0 ”, and the distance D2Threshold
Value T2If it is larger, the object discriminating means 14 determines that each pixel pa,
pb, PcThe values associated with are "1", "0", and "1".
It Therefore, the logical product of these values is calculated for each pixel.
When taken, they become “1”, “0”, and “0”, respectively.
paOnly the logical value for is "1". Therefore,
The object discriminating means 14 determines the target pixel p. aIs a pixel that represents an object
Judge that there is.

【0049】一般に注目画素以外にN個の参照点をとっ
た場合、各参照点ごとに距離Diを計算し、各参照点ご
とのしきい値Tiを用いて、[数5]が成立するか否か
により注目画素が物体を表す画素であるか否かを判別す
ることができる。
Generally, when N reference points other than the pixel of interest are taken, the distance D i is calculated for each reference point and the threshold T i for each reference point is used to satisfy [Equation 5]. Whether or not the target pixel is a pixel representing an object can be determined.

【0050】[0050]

【数5】 このようなステップA2からS9までの処理を、画像入
力手段4が保持している全画素を次々に注目画素に設定
して行うことで(ステップA10)、撮影画像上の物体
を検出することができる。検出された物体は、画像出力
手段15により出力され、表示装置に表示される。その
際、ステップA7、A8において、物体を表すと判別さ
れた注目画素の表示色を、背景とは異なる色で表示すれ
ば、画面上で検出物体の形状などをより明瞭に把握する
ことができる。
[Equation 5] By performing the processing from steps A2 to S9 by setting all the pixels held by the image input unit 4 as the target pixel one after another (step A10), it is possible to detect the object on the captured image. it can. The detected object is output by the image output means 15 and displayed on the display device. At that time, in steps A7 and A8, if the display color of the pixel of interest that is determined to represent the object is displayed in a color different from the background, the shape of the detected object can be more clearly understood on the screen. .

【0051】なお、ステップA10において、すべての
画素について処理が終わったと判断された場合に、物体
であると判別された画素の数をカウントして、このカウ
ント値が予め設定されたしきい値より大きい場合にのみ
物体が存在すると判断するようにしてもよい。これによ
って、ある大きさ以上の物体のみを検出することが可能
となる。
When it is determined in step A10 that all pixels have been processed, the number of pixels determined to be an object is counted, and the count value is set to a preset threshold value. It may be determined that the object exists only when it is large. This makes it possible to detect only objects of a certain size or larger.

【0052】一方、ステップA7、A9で注目画素が物
体を表す画素ではないと判別された場合には、背景作成
手段16は、同注目画素および対応する複数の参照画素
の輝度値にもとづいて、対応する背景画像の画素の輝度
値を更新し、背景画像保持手段8に保持させる(ステッ
プA3)。なお、最初の入力画像に移動物体が含まれて
いなければ、基本的に背景画像の各画素の輝度値は更新
する必要はない。しかし、ノイズ等の影響で、背景領域
の輝度値が照明変動以外の要因でばらつきを起こしうる
ため、物体判別手段14により背景とみなされた画素に
おいて随時輝度値を更新していくことで誤差を抑えるこ
とができる。
On the other hand, when it is determined in steps A7 and A9 that the pixel of interest is not a pixel representing an object, the background creating means 16 determines, based on the luminance values of the pixel of interest and a plurality of corresponding reference pixels. The brightness value of the pixel of the corresponding background image is updated and held in the background image holding means 8 (step A3). If the first input image does not include a moving object, basically it is not necessary to update the brightness value of each pixel of the background image. However, due to the influence of noise or the like, the luminance value of the background region may vary due to factors other than the illumination variation. Therefore, by updating the luminance value of the pixel regarded as the background by the object discriminating unit 14 at any time, an error may occur. Can be suppressed.

【0053】また、このような背景画像の更新におい
て、新旧の輝度値に重みを乗じて徐々に更新するという
方法をとることができる。すなわち、物体判別手段14
で注目画素paが背景画素とみなされた場合、[数6]
のように新しく加わるデータに重みをかけ徐々に更新す
ることができる。
Further, in updating such a background image, it is possible to adopt a method of multiplying the old and new luminance values by a weight and gradually updating. That is, the object discriminating means 14
If the pixel of interest p a is regarded as a background pixel in, then [Equation 6]
It is possible to weight the newly added data and gradually update it.

【0054】[0054]

【数6】 ここで、PA_newは注目画素paと参照画素pb、pc
に対応する背景画素の輝度値による3次元輝度値行列、
A_oldは今までの注目画素paと参照画素pb、pc
に対応する背景画素の輝度値による3次元背景輝度行列
である。また、IAは、注目画素paと参照画素pb、pc
の輝度値行列、αは上記重み定数である。
[Equation 6] Here, P A — new is the target pixel p a and the reference pixels p b and p c
A three-dimensional luminance value matrix of the luminance values of the background pixels corresponding to
P A — old is the pixel of interest p a and the reference pixels p b and p c that have been obtained so far.
3 is a three-dimensional background luminance matrix based on the luminance value of the background pixel corresponding to. I A is the pixel of interest p a and the reference pixels p b and p c.
Is a luminance value matrix, and α is the weighting constant.

【0055】次に、ステップA10において、すべての
画素に対して前述した判別処理が終了したと判断された
場合、画像入力手段4は、次の画像があるか否かを判断
し(ステップA11)、次の画像がある場合はステップ
A1に戻って、画像を取得し、以降、上述した各処理が
繰り返される。そして、すべての画像に対して処理が終
了した時点で、物体検出処理を終了する。以上の処理を
監視カメラから画像が取り込まれるごとに行うことで、
物体検出を逐次行うことができる。
Next, when it is determined in step A10 that the above-described determination processing has been completed for all pixels, the image input means 4 determines whether or not there is a next image (step A11). If there is a next image, the process returns to step A1, the image is acquired, and thereafter, the above-described processes are repeated. Then, when the processing is completed for all the images, the object detection processing is completed. By performing the above processing each time an image is captured from the surveillance camera,
Object detection can be performed sequentially.

【0056】図4の(A)は、道路を黒い車が走ってい
る原画像を示す模式図、(B)は従来技術による車の検
出結果を示す説明図、(C)は本実施の形態例による車
の検出結果を示す説明図である。図4の(B)は、図4
の(A)に示した原画像および背景画像により図8など
を用いて説明した従来技術にもとづき車の検出を行った
結果を示し、注目点および参照点を隣接させて物体検出
を行ったため、車の輪郭部のみが検出されている。
FIG. 4A is a schematic view showing an original image of a black car running on a road, FIG. 4B is an explanatory view showing a detection result of a car according to the prior art, and FIG. 4C is this embodiment. It is explanatory drawing which shows the detection result of the vehicle by an example. FIG. 4B is the same as FIG.
8A shows a result of detecting a vehicle based on the conventional image described with reference to FIG. 8 and the like using the original image and the background image shown in FIG. 8A. Since the object detection is performed with the attention point and the reference point adjacent to each other, Only the car contour is detected.

【0057】これに対して、本実施の形態例による検出
結果である図4の(C)では、車の輪郭部だけでなく、
輪郭の内側も含め、車全体が検出されており、より明瞭
に、したがって確実に車が検出されている。本実施の形
態例では、上述したように、各注目画素ごとに選択する
参照画素を、注目画素に対し、物体の大きさ以上に離し
て設定する。したがって、注目画素と参照画素とを接近
させて設定した場合のように物体の輪郭部のみが検出さ
れるといったことがない。そして、1つの注目画素に対
して複数の参照画素を設定し、注目画素と各参照画素と
の組ごとに物体検出を行って、最終的に論理演算により
注目画素が物体の画素か否かを判別するので、注目画素
と参照画素とを離して設定しても、物体の位置を確実に
特定できる。
On the other hand, in (C) of FIG. 4 which is the detection result according to the present embodiment, not only the contour portion of the vehicle but
The entire vehicle is detected, including the inside of the contour, and the vehicle is detected more clearly and therefore reliably. In the present embodiment, as described above, the reference pixel selected for each target pixel is set apart from the target pixel by at least the size of the object. Therefore, unlike the case where the target pixel and the reference pixel are set close to each other, only the contour portion of the object is not detected. Then, a plurality of reference pixels are set for one target pixel, object detection is performed for each set of the target pixel and each reference pixel, and finally, a logical operation is performed to determine whether the target pixel is an object pixel. Since the determination is made, the position of the object can be reliably specified even if the target pixel and the reference pixel are set separately.

【0058】また、上記従来技術と同様、輝度空間にお
ける照明変動背景モデルと輝度点との距離にもとづいて
注目画素が画像を表すか否かを判定しているので、照明
変動が大きく、かつ頻繁に発生する場合にも安定で、し
かも高精度に物体を検出することができる。
As in the prior art, it is determined whether or not the pixel of interest represents an image based on the distance between the illumination fluctuation background model and the luminance point in the luminance space. Therefore, the illumination variation is large and frequent. The object can be detected in a stable manner and with high accuracy even in the case of occurrence.

【0059】次に、本発明の第2の実施形態について説
明する。図5は第2の実施の形態例の物体検出装置2を
示すブロック図、図6は図5の物体検出装置の動作を示
すフローチャートである。以下では、これらの図面を参
照して本発明の第2の実施の形態例の物体検出装置につ
いて説明すると同時に本発明の第2の実施の形態例の物
体検出方法および物体検出プログラムを記録したコンピ
ュータ読み取り可能な情報記録媒体について説明する。
なお、図5において図1と同一の要素には同一の符号が
付されており、それらに関する説明はここでは省略す
る。
Next, a second embodiment of the present invention will be described. FIG. 5 is a block diagram showing the object detecting device 2 of the second embodiment, and FIG. 6 is a flowchart showing the operation of the object detecting device of FIG. Hereinafter, an object detecting apparatus according to a second embodiment of the present invention will be described with reference to these drawings, and at the same time, a computer that records an object detecting method and an object detecting program according to the second embodiment of the present invention. A readable information recording medium will be described.
In FIG. 5, the same elements as those in FIG. 1 are designated by the same reference numerals, and a description thereof will be omitted here.

【0060】図5に示した物体検出装置18が上記物体
検出装置2と異なるのは、物体自体を検出するのではな
く物体の外接矩形を求める点であり、その結果、少ない
計算量で物体を検出することが可能となる。物体検出装
置18は、画像入力手段4、本発明に係わる水平参照点
選択手段および垂直参照点選択手段として機能する複数
参照点選択手段20、背景画像保持手段8、本発明に係
わる水平背景モデル作成手段および垂直背景モデル作成
手段として機能する背景モデル作成手段22、本発明に
係わる水平距離計算手段および垂直距離計算手段として
機能する距離計算手段24、物体判別手段26、背景作
成手段28、ならびに画像出力手段15を含み、たとえ
ば監視カメラにより撮影した画像から物体を検出する構
成となっている。
The object detecting device 18 shown in FIG. 5 is different from the above object detecting device 2 in that the circumscribed rectangle of the object is obtained instead of detecting the object itself. As a result, the object is detected with a small amount of calculation. It becomes possible to detect. The object detection device 18 includes an image input unit 4, a plurality of reference point selection units 20 functioning as horizontal reference point selection unit and vertical reference point selection unit according to the present invention, a background image holding unit 8, and a horizontal background model generation according to the present invention. Background model creating means 22 functioning as means and vertical background model creating means, distance calculating means 24 functioning as horizontal distance calculating means and vertical distance calculating means according to the present invention, object discriminating means 26, background creating means 28, and image output. The means 15 is included and configured to detect an object from an image captured by a surveillance camera, for example.

【0061】物体検出装置18は上記物体検出装置2と
同様、具体的には、一例として監視カメラやビデオテー
プレコーダとのインターフェースなども備えたコンピュ
ータにより構成されており、コンピュータを構成する入
力装置に、本発明の物体検出プログラムを記録したコン
ピュータ読み取り可能な情報記録媒体としてのたとえば
CD−ROMを装着してCD−ROMからプログラムデ
ータを読み込み、コンピュータのメモリにロードして、
コンピュータのCPUを同プログラムデータにもとづい
て動作させることで実現されている。
Like the object detecting device 2, the object detecting device 18 is specifically constituted by a computer having an interface with a surveillance camera or a video tape recorder as an example, and is an input device constituting the computer. , For example, a CD-ROM as a computer-readable information recording medium recording the object detection program of the present invention is mounted, the program data is read from the CD-ROM, loaded into the memory of the computer,
It is realized by operating the CPU of the computer based on the program data.

【0062】物体検出装置18の複数参照点選択手段2
0は、水平参照点選択手段として機能して、撮影画像に
おいて水平方向に配列された複数の画素から成る注目水
平画素列ごとに、注目水平画素列に含まれる複数の参照
画素を選択して各参照画素の輝度値を画像入力手段4か
ら取得する。また、複数参照点選択手段20は、垂直参
照点選択手段として機能して、撮影画像において垂直方
向に配列された複数の画素から成る注目垂直画素列ごと
に、注目垂直画素列に含まれる複数の参照画素を選択し
て各参照画素の輝度値を画像入力手段4から取得する。
Plural reference point selecting means 2 of the object detecting device 18
0 functions as a horizontal reference point selecting unit, selects a plurality of reference pixels included in the target horizontal pixel row for each target horizontal pixel row composed of a plurality of pixels arranged in the horizontal direction in the captured image, and selects each reference pixel. The brightness value of the reference pixel is acquired from the image input means 4. Further, the plurality of reference point selection means 20 functions as a vertical reference point selection means, and for each target vertical pixel row composed of a plurality of pixels arranged in the vertical direction in the captured image, a plurality of target vertical pixel rows are included. The reference pixel is selected and the brightness value of each reference pixel is acquired from the image input unit 4.

【0063】そして、背景モデル作成手段22は、水平
背景モデル作成手段として機能して、水平参照点選択手
段が選択した複数の参照画素にそれぞれ対応する、背景
画像における複数の画素の輝度値を背景画像保持手段8
から取得して背景の輝度が照明変動の影響を受けて変化
した場合の照明変動背景モデルを作成する。また、背景
モデル作成手段22は、垂直背景モデル作成手段として
機能して、垂直参照点選択手段が選択した複数の参照画
素にそれぞれ対応する、背景画像における複数の画素の
輝度値を背景画像保持手段8から取得して背景の輝度が
照明変動の影響を受けて変化した場合の照明変動背景モ
デルを作成する。
The background model creating means 22 functions as the horizontal background model creating means, and sets the brightness values of a plurality of pixels in the background image corresponding to the plurality of reference pixels selected by the horizontal reference point selecting means to the background. Image holding means 8
Create a lighting fluctuation background model when the background brightness changes due to the fluctuation of lighting. The background model creating means 22 functions as a vertical background model creating means, and stores the brightness values of a plurality of pixels in the background image, which correspond to the plurality of reference pixels selected by the vertical reference point selecting means, to the background image holding means. 8 to obtain the illumination fluctuation background model in the case where the background brightness changes under the influence of the lighting fluctuation.

【0064】複数距離計算手段2は、水平距離計算手段
として機能して、多次元輝度空間において、水平背景モ
デル作成手段としての背景モデル作成手段22が作成し
た前記照明変動背景モデルと、水平参照点選択手段とし
ての複数参照点選択手段20が取得した複数の輝度値が
表す点との間の距離を計算する。また、複数距離計算手
段2は、垂直距離計算手段として機能して、多次元輝度
空間において、垂直背景モデル作成手段としての背景モ
デル作成手段22が作成した前記照明変動背景モデル
と、垂直参照点選択手段としての複数参照点選択手段2
0が取得した前記複数の輝度値が表す点との間の距離を
計算する。
The plural distance calculating means 2 functions as a horizontal distance calculating means, and in the multidimensional luminance space, the illumination fluctuation background model created by the background model creating means 22 as the horizontal background model creating means and the horizontal reference point. The distance between the points represented by the plurality of brightness values acquired by the plurality of reference point selecting means 20 as the selecting means is calculated. Further, the plural distance calculating means 2 functions as a vertical distance calculating means, and in the multidimensional luminance space, the illumination fluctuation background model created by the background model creating means 22 as the vertical background model creating means and the vertical reference point selection. Multiple reference point selection means 2 as means
The distance between 0 and the point represented by the plurality of acquired brightness values is calculated.

【0065】物体判別手段26は、上記水平距離計算手
段および垂直距離計算手段としての複数距離計算手段2
が計算した前記距離にもとづいて、注目水平画素列およ
び注目垂直画素列に物体を表す画素が含まれているか否
かを判別し、両画素列に係わる判別結果に対して論理演
算を行って物体を含む矩形領域を特定する。背景作成手
段28は、物体判別手段26が物体を表す画素を含まな
いと判別した前記注目水平画素列および注目垂直画素列
を構成する各画素の輝度値にもとづいて、対応する前記
背景画像の画素の輝度値を更新して背景画像保持手段8
に保持させる。
The object discriminating means 26 is a plural distance calculating means 2 as the horizontal distance calculating means and the vertical distance calculating means.
On the basis of the distance calculated by the above, it is determined whether or not the pixel representing the object is included in the target horizontal pixel row and the target vertical pixel row, and the logical operation is performed on the determination result related to both pixel rows to determine the object. Specify a rectangular area that contains. The background creating means 28, based on the luminance value of each pixel forming the target horizontal pixel row and the target vertical pixel row, which the object discriminating means 26 determines not to include a pixel representing an object, the corresponding pixel of the background image. The background image holding means 8 by updating the luminance value of
To hold.

【0066】次に、このように構成された物体検出装置
18の動作について説明する。図7は第2の実施の形態
例の動作を説明するための図であって、(A)は垂直方
向における物体の存在可能領域の検出を表す説明図、
(B)は水平方向における物体の存在可能領域の検出を
表す説明図、(C)は検出結果を示す説明図である。以
下では、図5とともに図6、図7を参照して説明する。
Next, the operation of the object detecting device 18 thus constructed will be described. 7A and 7B are diagrams for explaining the operation of the second embodiment, and FIG. 7A is an explanatory diagram showing detection of an object possible region in the vertical direction,
(B) is an explanatory view showing detection of an object possible area in the horizontal direction, and (C) is an explanatory view showing a detection result. Hereinafter, description will be given with reference to FIGS. 6 and 7 together with FIG. 5.

【0067】図6に示したように、まず、画像入力手段
4は、監視カメラなどによって撮像された画像を読み込
み、画像を構成する各画素ごとの輝度値を画像入力手段
4内に設けられた不図示のメモリに保持する(ステップ
B1)。次に、複数参照点選択手段20は、撮影画像に
おいて垂直方向のアドレスyにおける1行分の画素を注
目水平画素列とし、またこの1行分の画素を参照画素
(参照画素群)に選択して、各参照画素の輝度値を画像
入力手段4から取得する(ステップB4)。したがっ
て、撮影画像の幅がWidth画素(Widthは正の
整数)であったとすると、上記注目水平画素列にはWi
dth個の画素が含まれ、複数参照点選択手段20は、
本実施の形態例ではこれらすべて画素を参照画素とす
る。
As shown in FIG. 6, first, the image input means 4 reads an image picked up by a surveillance camera or the like, and the brightness value of each pixel forming the image is provided in the image input means 4. It is held in a memory (not shown) (step B1). Next, the plural reference point selecting means 20 sets one row of pixels at the vertical address y in the captured image as a target horizontal pixel column, and selects this one row of pixels as a reference pixel (reference pixel group). Then, the brightness value of each reference pixel is acquired from the image input means 4 (step B4). Therefore, assuming that the width of the captured image is Width pixels (Width is a positive integer), Wi
The dth number of pixels are included, and the multiple reference point selection unit 20 is
In this embodiment, all these pixels are used as reference pixels.

【0068】そして、背景モデル作成手段22は、複数
参照点選択手段20が選択した上記参照画素にそれぞれ
対応する、背景画像における各画素の輝度値を背景画像
保持手段8から取得して背景の輝度が照明変動の影響を
受けて変化した場合の照明変動背景モデルを作成する。
その後、複数距離計算手段24は、参照画素の輝度値に
よって形成される多次元輝度空間において、背景モデル
作成手段22が作成した前記照明変動背景モデルと、複
数参照点選択手段20が取得した上記複数の輝度値が表
す点との間の距離を計算する(ステップB6)。
Then, the background model creating means 22 obtains the brightness value of each pixel in the background image corresponding to each of the reference pixels selected by the plural reference point selecting means 20 from the background image holding means 8 to obtain the background brightness. We will create a background model of the lighting fluctuation when the value changes due to the lighting fluctuation.
After that, the plural distance calculating means 24, in the multidimensional luminance space formed by the luminance values of the reference pixels, the illumination variation background model created by the background model creating means 22 and the plurality of the plurality of reference point selecting means 20 acquired. The distance to the point represented by the luminance value is calculated (step B6).

【0069】つづいて、物体判別手段26は、複数距離
計算手段24がこのように計算した距離をしきい値と比
較して、距離がしきい値より大きい場合には、上記注目
水平画素列に対応づけて論理”1”を保持し、距離がし
きい値より小さい場合には論理”0”を保持する(ステ
ップB8)。複数参照点選択手段20、背景モデル作成
手段22、ならびに複数距離計算手段2は、このような
処理を、アドレスyの値を1ずつ大きくしながら、画像
の垂直方向の全範囲において行う(ステップB10)。
その結果、図7の(A)に示したように、物体108が
図のように存在する場合、Hの範囲内の各注目水平画素
列に対して、物体判別手段26は論理”1”を保持する
ことになる。
Then, the object discriminating means 26 compares the distance calculated by the plural distance calculating means 24 with a threshold value, and if the distance is larger than the threshold value, the object horizontal pixel row is selected. Correspondingly, the logic "1" is held, and if the distance is smaller than the threshold value, the logic "0" is held (step B8). The plural reference point selecting means 20, the background model creating means 22, and the plural distance calculating means 2 perform such processing in the entire range in the vertical direction of the image while increasing the value of the address y by 1 (step B10). ).
As a result, as shown in FIG. 7A, when the object 108 exists as shown in the figure, the object discriminating unit 26 sets the logic "1" to each horizontal pixel row of interest within the range of H. Will hold.

【0070】また、複数参照点選択手段20、背景モデ
ル作成手段22、ならびに複数距離計算手段2は、同様
の処理を、画像の水平方向においても行う。すなわち、
複数参照点選択手段20は、撮影画像において水平方向
のアドレスxにおける1列分の画素を注目垂直画素列と
し、またこの1列分の画素を参照画素(参照画素群)に
選択して、各参照画素の輝度値を画像入力手段4から取
得する(ステップB2)。したがって、撮影画像の高さ
がHeight画素(Heightは正の整数)であっ
たとすると、上記注目垂直画素列にはHeight個の
画素が含まれ、複数参照点選択手段20は、本実施の形
態例ではこれらすべて画素を参照画素とする。
The plural reference point selecting means 20, the background model creating means 22, and the plural distance calculating means 2 perform the same processing in the horizontal direction of the image. That is,
The plural-reference-point selecting unit 20 sets a pixel for one column at the address x in the horizontal direction in the captured image as a vertical pixel column of interest, and selects a pixel for this one column as a reference pixel (reference pixel group). The brightness value of the reference pixel is acquired from the image input means 4 (step B2). Therefore, if the height of the captured image is Height pixels (Height is a positive integer), the vertical pixel array of interest includes Height pixels, and the plurality of reference point selecting means 20 is configured to include the plurality of reference point selecting means 20. Then, all these pixels are used as reference pixels.

【0071】そして、背景モデル作成手段22は、複数
参照点選択手段20が選択した上記参照画素にそれぞれ
対応する、背景画像における各画素の輝度値を背景画像
保持手段8から取得して背景の輝度が照明変動の影響を
受けて変化した場合の照明変動背景モデルを作成する。
その後、複数距離計算手段24は、参照画素の輝度値に
よって形成される多次元輝度空間において、背景モデル
作成手段22が作成した前記照明変動背景モデルと、複
数参照点選択手段20が取得した上記複数の輝度値が表
す点との間の距離を計算する(ステップB5)。
Then, the background model creating means 22 obtains the brightness value of each pixel in the background image corresponding to each of the reference pixels selected by the plural reference point selecting means 20 from the background image holding means 8 to obtain the background brightness. We will create a background model of the lighting fluctuation when the value changes due to the lighting fluctuation.
After that, the plural distance calculating means 24, in the multidimensional luminance space formed by the luminance values of the reference pixels, the illumination variation background model created by the background model creating means 22 and the plurality of the plurality of reference point selecting means 20 acquired. The distance to the point represented by the luminance value of is calculated (step B5).

【0072】つづいて、物体判別手段26は、複数距離
計算手段2がこのように計算した距離をしきい値と比較
して、距離がしきい値より大きい場合には、上記注目垂
直画素列に対応づけて論理”1”を保持し、距離がしき
い値より小さい場合には論理”0”を保持する(ステッ
プB7)。複数参照点選択手段20、背景モデル作成手
段22、ならびに複数距離計算手段24は、このような
処理を、アドレスyの値を1ずつ大きくしながら、画像
の水平方向の全範囲において行う(ステップB9)。そ
の結果、図7の(B)に示したように、Wの範囲内の各
注目垂直画素列に対して、物体判別手段26は論理”
1”を保持することになる。
Subsequently, the object discriminating means 26 compares the distance calculated by the plural distance calculating means 2 with a threshold value, and if the distance is larger than the threshold value, the vertical pixel column of interest is selected. Correspondingly, the logic "1" is held, and if the distance is smaller than the threshold value, the logic "0" is held (step B7). The plural reference point selecting means 20, the background model creating means 22, and the plural distance calculating means 24 perform such processing in the entire horizontal range of the image while increasing the value of the address y by 1 (step B9). ). As a result, as shown in FIG. 7B, the object discriminating unit 26 logically determines that for each vertical pixel column of interest within the range W.
1 ”will be retained.

【0073】その後、物体判別手段26は、各注目水平
画素列および各注目垂直画素列ごとに保持している論理
値の論理積をとることで(ステップB11)、検出結果
としての矩形領域の画像を保持するためのメモリ(図示
せず)において、各画素ごとに、その値が論理”1”か
論理”0”かを決定する。詳しくは、値を決定すべき画
素に対応する位置の撮影画像の画素を含む注目水平画素
列および注目垂直画素列に対して、共に論理”1”を保
持している場合には、上記画素の値は論理”1”に設定
する。一方、対応する撮影画像の画素を含む注目水平画
素列および注目垂直画素列の少なくとも一方に対して論
理”0”を保持している場合には、上記画素の値は論
理”0”に設定する(ステップB12、B13、B1
4)。その結果、検出結果を保持する上記メモリにおい
て、図7の(C)に示したように、物体を含む可能性の
ある矩形領域R内の画素の値は論理”1”となり、それ
以外の画素の値は論理”0”となる。
After that, the object discriminating means 26 obtains the image of the rectangular area as the detection result by taking the logical product of the logical values held for each target horizontal pixel row and each target vertical pixel row (step B11). In a memory (not shown) for holding the value, for each pixel, it is determined whether the value is logic "1" or logic "0". Specifically, when both the logical "1" is held for the target horizontal pixel row and the target vertical pixel row including the pixel of the captured image at the position corresponding to the pixel whose value is to be determined, The value is set to logic "1". On the other hand, when the logical "0" is held for at least one of the noticeable horizontal pixel column and the noticeable vertical pixel column including the pixels of the corresponding captured image, the value of the pixel is set to the logic "0". (Steps B12, B13, B1
4). As a result, in the memory that holds the detection result, as shown in FIG. 7C, the value of the pixel in the rectangular area R that may include an object is logical “1”, and the other pixels are The value of is logical "0".

【0074】したがって、このメモリの内容を画像出力
手段15により表示装置に表示すれば、物体を含む矩形
領域が画面に表示されることになる。また、矩形領域R
の4辺は物体108の外接矩形となっている。そして、
撮影画像の幅がWidth画素、高さがHeight画
素であった場合、上記第1の実施の形態例では、各画素
ごとに背景モデルの作成や距離の計算を行うので、この
ような演算処理を(Width×Heigh)回行う必
要がある。しかし、第2の実施の形態例では、各水平画
素列ごとに上記演算処理を行い、また各垂直画素列ごと
に上記演算処理を行えばよいので、演算処理の回数は全
体で(Width+Height)回となる。したがっ
て、演算量は第1の実施の形態例の場合にくらべ大幅に
低減し、高速に物体検出を行ったり、装置の低コスト化
を図る場合に非常に有利である。
Therefore, when the contents of this memory are displayed on the display device by the image output means 15, the rectangular area including the object is displayed on the screen. Also, the rectangular area R
The four sides of are the circumscribed rectangles of the object 108. And
When the width of the captured image is the Width pixel and the height is the Height pixel, the background model is created and the distance is calculated for each pixel in the above-described first embodiment. It is necessary to perform (Width × Height) times. However, in the second embodiment, the calculation process may be performed for each horizontal pixel column, and the calculation process may be performed for each vertical pixel column. Therefore, the number of calculation processes is (Width + Height) times in total. Becomes Therefore, the amount of calculation is significantly reduced as compared with the case of the first embodiment, and it is very advantageous when performing object detection at high speed and reducing the cost of the device.

【0075】なお、物体検出装置2の場合と同様に、背
景作成手段28は、物体判別手段26が物体を表す画素
を含まないと判別した注目水平画素列および注目垂直画
素列を構成する各画素の輝度値にもとづいて、対応する
背景画像の画素の輝度値を更新して背景画像保持手段8
に保持させる。これにより最新の背景画像を用いて精度
の高い物体検出を行うことができる。また、処理すべき
画像がさらに存在する場合には、物体検出装置2の場合
と同様、以上の手順が次の画像に対して繰り返される
(ステップB15)。
As in the case of the object detecting device 2, the background creating means 28 makes each pixel constituting the noticeable horizontal pixel row and the noticeable vertical pixel row which the object discriminating means 26 has determined not to include a pixel representing the object. The brightness value of the pixel of the corresponding background image is updated based on the brightness value of the background image holding means 8
To hold. This makes it possible to perform highly accurate object detection using the latest background image. If there is another image to be processed, the above procedure is repeated for the next image as in the case of the object detection device 2 (step B15).

【0076】なお、この第2の実施の形態例では、注目
水平画素列および注目垂直画素列において、各画素列の
すべての画素を参照画素にするとしたが、数画素ごとに
選択するなどの間引きを行って、さらに演算量の低減を
図ることも可能である。さらに、たとえば水平方向およ
び垂直方向のいずれか一方でまず物体の存在可能領域を
確定し、その上で、その領域内でのみ他方の方向におけ
る処理を行えば、物体が存在する可能性のない領域では
演算処理を行わなくても済むため、さらに演算量を削減
することが可能となる。
In the second embodiment, all pixels in each pixel row in the noticed horizontal pixel row and the noticed vertical pixel row are used as the reference pixels. It is also possible to further reduce the calculation amount by performing the above. Further, for example, if the area in which the object can exist is first determined in one of the horizontal direction and the vertical direction and then the processing in the other direction is performed only in that area, the area in which the object is not likely to exist Since it is not necessary to perform arithmetic processing, it is possible to further reduce the amount of arithmetic.

【0077】なお、ここでは物体検出装置2および物体
検出装置18はコンピュータにより構成されているとし
たが、物体検出装置2および物体検出装置18を専用の
ハードウェアにより構成することも無論可能である。ま
た、本発明に係わる機能のうち、一部の機能をコンピュ
ータに所定のプログラムをロードして実現し、他の機能
は専用のハードウェアによって実現したり、さらには、
コンピュータにすでに組み込まれているプログラムを組
み合わせて用いることで物体検出装置2および物体検出
装置18を構成とすることも可能である。
Although the object detecting device 2 and the object detecting device 18 are composed of computers here, it is of course possible to compose the object detecting device 2 and the object detecting device 18 with dedicated hardware. . Further, among the functions according to the present invention, some functions are realized by loading a predetermined program on a computer, other functions are realized by dedicated hardware, and further,
It is also possible to configure the object detection device 2 and the object detection device 18 by using a combination of programs already installed in the computer.

【0078】また、コンピュータ読み取り可能な情報記
録媒体とは、上述したCD−ROMに限らず、フロッピ
ーディスク、光磁気ディスク、ROMなどの可搬媒体
や、コンピュータに内蔵されるハードディスクなどの記
憶装置を含んでいる。さらに、コンピュータ読み取り可
能な情報記録媒体は、インターネットなどの通信ネット
ワークや電話回線などの通信回線を介してプログラムを
送信する場合の通信線のように、短時間の間、動的にプ
ログラムを保持するものも含み、その場合のサーバやク
ライアントとなるコンピュータシステム内部の揮発性メ
モリのように、一定時間プログラムを保持するものも含
んでいる。
The computer-readable information recording medium is not limited to the above-mentioned CD-ROM, but may be a portable medium such as a floppy disk, a magneto-optical disk, a ROM, or a storage device such as a hard disk built in the computer. Contains. Further, the computer-readable information recording medium dynamically holds the program for a short time like a communication line when transmitting the program through a communication network such as the Internet or a communication line such as a telephone line. It also includes things, such as a volatile memory inside a computer system that serves as a server or a client in that case, that holds a program for a certain period of time.

【0079】[0079]

【発明の効果】以上説明したように本発明の物体検出装
置では、画像入力手段は、撮影画像の各画素の輝度値を
取り込んで保持し、複数参照点選択手段は、前記画像の
注目画素ごとに複数の参照画素を選択して、選択した複
数の参照画素および前記注目画素の輝度値を画像入力手
段から注目画素ごとに取得する。そして、背景モデル作
成手段は、複数参照点選択手段が選択した注目画素およ
び同画素に対応する前記複数の参照画素にそれぞれ対応
する、前記背景画像における複数の画素の輝度値を背景
画像保持手段から取得して、背景の輝度が照明変動の影
響を受けて変化した場合の照明変動背景モデルを注目画
素と、同画素に対応する各参照画素との組ごとに作成す
る。
As described above, in the object detecting apparatus of the present invention, the image inputting means captures and holds the luminance value of each pixel of the photographed image, and the plural reference point selecting means sets each pixel of interest of the image. , A plurality of reference pixels are selected, and the brightness values of the selected plurality of reference pixels and the target pixel are acquired for each target pixel from the image input unit. Then, the background model creating means obtains from the background image holding means brightness values of a plurality of pixels in the background image respectively corresponding to the target pixel selected by the plurality of reference point selecting means and the plurality of reference pixels corresponding to the same pixel. An illumination variation background model in the case where the background brightness is changed by being affected by the illumination variation is created for each set of the target pixel and each reference pixel corresponding to the same pixel.

【0080】その上で、距離計算手段は、輝度空間にお
いて、背景モデル作成手段が注目画素と参照画素との前
記組ごとに作成した前記照明変動背景モデルと、複数参
照点選択手段が注目画素ごとに取得した前記複数の参照
画素の輝度値のそれぞれと注目画素の輝度値との組が表
す点との間の距離をそれぞれ計算する。そして、物体判
別手段は、注目画素と各参照画素との組ごとに、距離計
算手段が計算した前記距離にもとづいて前記注目画素が
物体を表す画素か否かを判別し、前記組ごとの判別結果
に対し論理演算を行って注目画素が物体を表す画素か否
かを最終的に判別する。
In addition, the distance calculation means is configured such that, in the luminance space, the background model generation means creates the illumination fluctuation background model for each of the set of the target pixel and the reference pixel, and the plural reference point selection means sets each target pixel for the target pixel. The distances between the points represented by the respective sets of the brightness values of the plurality of reference pixels and the brightness value of the target pixel acquired in step S1 are calculated. Then, the object discriminating means discriminates, for each group of the target pixel and each reference pixel, based on the distance calculated by the distance calculating means, whether the target pixel is a pixel representing an object or not, and discriminating for each group. A logical operation is performed on the result to finally determine whether the pixel of interest is a pixel representing an object.

【0081】このように、本発明の物体検出装置では、
1つの注目画素に対して複数の参照画素を設定し、注目
画素と各参照画素との組ごとに物体検出を行って、最終
的に論理演算により注目画素が物体の画素か否かを判別
するので、注目画素と参照画素とを離して設定しても、
物体の位置を確実に特定できる。したがって、各注目画
素ごとに選択する参照画素を、注目画素に対し、物体の
大きさ以上に離して設定することができ、その結果、注
目画素と参照画素とを接近させて設定した場合のように
物体の輪郭部のみが検出されるといったことがない。ま
た、上述した従来技術と同様、輝度空間における照明変
動背景モデルと輝度点との距離にもとづいて注目画素が
画像を表すか否かを判定するので、照明変動が大きく、
かつ頻繁に発生する場合にも安定で、しかも高精度に物
体を検出することができる。
As described above, in the object detecting device of the present invention,
A plurality of reference pixels are set for one target pixel, object detection is performed for each set of the target pixel and each reference pixel, and finally a logical operation is performed to determine whether the target pixel is an object pixel. Therefore, even if the target pixel and the reference pixel are set apart from each other,
The position of the object can be specified with certainty. Therefore, the reference pixel to be selected for each target pixel can be set apart from the target pixel by at least the size of the object, and as a result, it is possible to set the target pixel and the reference pixel close to each other. It is unlikely that only the outline of the object will be detected. Further, similar to the above-described conventional technology, since it is determined whether or not the pixel of interest represents an image based on the distance between the illumination variation background model and the luminance point in the luminance space, the illumination variation is large,
Moreover, even when it occurs frequently, it is stable and can detect an object with high accuracy.

【0082】また、本発明の物体検出装置では、画像入
力手段は撮影画像の各画素の輝度値を取り込んで保持
し、水平参照点選択手段は、撮影画像において水平方向
に配列された複数の画素から成る注目水平画素列ごと
に、注目水平画素列に含まれる複数の参照画素を選択し
て各参照画素の輝度値を画像入力手段から取得する。ま
た、垂直参照点選択手段は、撮影画像において垂直方向
に配列された複数の画素から成る注目垂直画素列ごと
に、注目垂直画素列に含まれる複数の参照画素を選択し
て各参照画素の輝度値を画像入力手段から取得する。そ
して、水平背景モデル作成手段は、水平参照点選択手段
が選択した前記複数の参照画素にそれぞれ対応する、前
記背景画像における複数の画素の輝度値を背景画像保持
手段から取得して背景の輝度が照明変動の影響を受けて
変化した場合の照明変動背景モデルを作成し、垂直背景
モデル作成手段は、垂直参照点選択手段が選択した前記
複数の参照画素にそれぞれ対応する、前記背景画像にお
ける複数の画素の輝度値を背景画像保持手段から取得し
て背景の輝度が照明変動の影響を受けて変化した場合の
照明変動背景モデルを作成する。
Further, in the object detecting device of the present invention, the image input means captures and holds the luminance value of each pixel of the photographed image, and the horizontal reference point selecting means comprises the plurality of pixels arranged in the horizontal direction in the photographed image. A plurality of reference pixels included in the noticed horizontal pixel row are selected for each noticed horizontal pixel row, and the brightness value of each reference pixel is acquired from the image input unit. Further, the vertical reference point selecting means selects a plurality of reference pixels included in the target vertical pixel row for each target vertical pixel row composed of a plurality of pixels arranged in the vertical direction in the captured image, and determines the brightness of each reference pixel. The value is obtained from the image input means. Then, the horizontal background model creating means acquires the brightness values of a plurality of pixels in the background image corresponding to the plurality of reference pixels selected by the horizontal reference point selecting means from the background image holding means and determines the background brightness. An illumination variation background model is created when it is changed under the influence of the illumination variation, and the vertical background model creating means corresponds to the plurality of reference pixels selected by the vertical reference point selecting means. The brightness value of the pixel is acquired from the background image holding means, and an illumination fluctuation background model is created when the background brightness changes under the influence of the illumination fluctuation.

【0083】その後、水平距離計算手段は、多次元輝度
空間において、水平背景モデル作成手段が作成した前記
照明変動背景モデルと、水平参照点選択手段が取得した
前記複数の輝度値が表す点との間の距離を計算し、垂直
距離計算手段は、多次元輝度空間において、垂直背景モ
デル作成手段が作成した前記照明変動背景モデルと、垂
直参照点選択手段が取得した前記複数の輝度値が表す点
との間の距離を計算する。そして、物体判別手段は、水
平距離計算手段および垂直距離計算手段が計算した前記
距離にもとづいて、注目水平画素列および注目垂直画素
列に物体を表す画素が含まれているか否かを判別し、両
画素列に係わる判別結果に対して論理演算を行って物体
を含む矩形領域を特定する。
After that, the horizontal distance calculating means divides the illumination fluctuation background model created by the horizontal background model creating means and the point represented by the plurality of brightness values acquired by the horizontal reference point selecting means into the multidimensional brightness space. The vertical distance calculation means calculates the distance between the points, and the point represented by the illumination fluctuation background model created by the vertical background model creation means and the plurality of brightness values acquired by the vertical reference point selection means in the multidimensional brightness space. Calculate the distance between. Then, the object discriminating means discriminates based on the distance calculated by the horizontal distance calculating means and the vertical distance calculating means whether or not the target horizontal pixel row and the target vertical pixel row include a pixel representing an object, A logical operation is performed on the discrimination result relating to both pixel rows to specify a rectangular area including an object.

【0084】本発明の物体検出装置では、各水平画素列
ごとに背景モデルの作成や、背景モデルと輝度点との間
の距離の計算といった演算処理を行い、また各垂直画素
列ごとに同様の演算処理を行えばよいので、演算処理の
回数は全体で画像の水平方向の画素数に、画像の垂直方
向の画素数を加えた値となる。一方、各画素ごとに背景
モデルの作成や、背景モデルと輝度点との間の距離の計
算といった演算処理を行った場合には、全体の演算処理
の回数は、画像の水平方向の画素数に、画像の垂直方向
の画素数を乗じたものとなる。したがって、本発明で
は、照明変動が大きく、かつ頻繁に発生する場合にも安
定で、しかも高精度に物体の存在領域を検出できる上
に、演算量が大幅に低減し、その結果、高速に物体検出
を行ったり、装置の低コスト化を図る上で非常に有利と
なる。
In the object detecting apparatus of the present invention, the calculation process such as the background model creation for each horizontal pixel column and the calculation of the distance between the background model and the luminance point is performed, and the similar process is performed for each vertical pixel column. Since the arithmetic processing may be performed, the total number of arithmetic processing is a value obtained by adding the number of pixels in the vertical direction of the image to the number of pixels in the horizontal direction of the image. On the other hand, when the background model is created for each pixel and the calculation processing such as the calculation of the distance between the background model and the luminance point is performed, the total number of calculation processing is the number of pixels in the horizontal direction of the image. , Multiplied by the number of pixels in the vertical direction of the image. Therefore, according to the present invention, even when the illumination variation is large and stable even when it frequently occurs, the area where the object exists can be detected with high accuracy, and the amount of calculation is significantly reduced. This is very advantageous for detection and cost reduction of the device.

【0085】本発明の物体検出方法では、画像入力ステ
ップにおいて、撮影画像の各画素の輝度値を取り込んで
第1の記憶手段に保持させ、複数参照点選択ステップで
は、前記画像の注目画素ごとに複数の参照画素を選択し
て、選択した複数の参照画素および前記注目画素の輝度
値を第1の記憶手段から注目画素ごとに取得する。そし
て、背景モデル作成ステップでは、複数参照点選択ステ
ップで選択した注目画素および同画素に対応する前記複
数の参照画素にそれぞれ対応する、前記背景画像におけ
る複数の画素の輝度値を第2の記憶手段から取得して、
背景の輝度が照明変動の影響を受けて変化した場合の照
明変動背景モデルを注目画素と、同画素に対応する各参
照画素との組ごとに作成する。
In the object detecting method of the present invention , in the image input step, the brightness value of each pixel of the photographed image is fetched and stored in the first storage means, and in the plural reference point selecting step, for each pixel of interest of the image. A plurality of reference pixels are selected, and the brightness values of the selected plurality of reference pixels and the target pixel are acquired from the first storage unit for each target pixel. Then, in the background model creating step, the brightness values of a plurality of pixels in the background image respectively corresponding to the target pixel selected in the plurality of reference point selecting step and the plurality of reference pixels corresponding to the same pixel are stored in the second storage means. Get from
An illumination variation background model in the case where the background brightness changes under the influence of illumination variation is created for each set of the target pixel and each reference pixel corresponding to the same pixel.

【0086】その上で、距離計算ステップでは、輝度空
間において、背景モデル作成ステップで注目画素と参照
画素との前記組ごとに作成した前記照明変動背景モデル
と、複数参照点選択ステップで注目画素ごとに取得した
前記複数の参照画素の輝度値のそれぞれと注目画素の輝
度値との組が表す点との間の距離をそれぞれ計算する。
そして、物体判別ステップでは、注目画素と各参照画素
との組ごとに、距離計算ステップで計算した前記距離に
もとづいて前記注目画素が物体を表す画素か否かを判別
し、前記組ごとの判別結果に対し論理演算を行って注目
画素が物体を表す画素か否かを最終的に判別する。
Further, in the distance calculation step, in the luminance space, the illumination fluctuation background model created for each set of the target pixel and the reference pixel in the background model creation step, and each target pixel in the multiple reference point selection step. The distances between the points represented by the respective sets of the brightness values of the plurality of reference pixels and the brightness value of the target pixel acquired in step S1 are calculated.
Then, in the object determination step, for each set of the target pixel and each reference pixel, it is determined whether or not the target pixel is a pixel representing an object based on the distance calculated in the distance calculation step, and the determination for each group is performed. A logical operation is performed on the result to finally determine whether the pixel of interest is a pixel representing an object.

【0087】このように本発明では、1つの注目画素に
対して複数の参照画素を設定し、注目画素と各参照画素
との組ごとに物体検出を行って、最終的に論理演算によ
り注目画素が物体の画素か否かを判別するので、注目画
素と参照画素とを離して設定しても、物体の位置を確実
に特定できる。したがって、各注目画素ごとに選択する
参照画素を、注目画素に対し、物体の大きさ以上に離し
て設定することができ、その結果、注目画素と参照画素
とを接近させて設定した場合のように物体の輪郭部のみ
が検出されるといったことがない。また、上述した従来
技術と同様、輝度空間における照明変動背景モデルと輝
度点との距離にもとづいて注目画素が画像を表すか否か
を判定するので、照明変動が大きく、かつ頻繁に発生す
る場合にも安定で、しかも高精度に物体を検出すること
ができる。
As described above, in the present invention, a plurality of reference pixels are set for one target pixel, object detection is performed for each set of the target pixel and each reference pixel, and finally the target pixel is determined by logical operation. Since it is determined whether or not is the pixel of the object, the position of the object can be surely specified even if the target pixel and the reference pixel are set separately. Therefore, the reference pixel to be selected for each target pixel can be set apart from the target pixel by at least the size of the object, and as a result, it is possible to set the target pixel and the reference pixel close to each other. It is unlikely that only the outline of the object will be detected. Further, similar to the above-described conventional technique, it is determined whether or not the pixel of interest represents an image based on the distance between the illumination variation background model and the luminance point in the luminance space, and thus when the illumination variation is large and frequently occurs. Moreover, the object can be detected with high stability and with high stability.

【0088】また、本発明の物体検出方法では、画像入
力ステップにおいて撮影画像の各画素の輝度値を取り込
んで第1の記憶手段に保持させ、水平参照点選択ステッ
プでは、撮影画像において水平方向に配列された複数の
画素から成る注目水平画素列ごとに、注目水平画素列に
含まれる複数の参照画素を選択して各参照画素の輝度値
を第1の記憶手段から取得する。また、垂直参照点選択
ステップでは、撮影画像において垂直方向に配列された
複数の画素から成る注目垂直画素列ごとに、注目垂直画
素列に含まれる複数の参照画素を選択して各参照画素の
輝度値を第1の記憶手段から取得する。そして、水平背
景モデル作成ステップでは、水平参照点選択ステップで
選択した前記複数の参照画素にそれぞれ対応する、前記
背景画像における複数の画素の輝度値を第1の記憶手段
から取得して背景の輝度が照明変動の影響を受けて変化
した場合の照明変動背景モデルを作成し、垂直背景モデ
ル作成ステップでは、垂直参照点選択ステップで選択し
た前記複数の参照画素にそれぞれ対応する、前記背景画
像における複数の画素の輝度値を第2の記憶手段から取
得して背景の輝度が照明変動の影響を受けて変化した場
合の照明変動背景モデルを作成する。
Further, in the object detecting method of the present invention, the brightness value of each pixel of the photographed image is fetched and held in the first storage means in the image input step, and in the horizontal reference point selecting step, the luminance value of the photographed image is changed in the horizontal direction. A plurality of reference pixels included in the noticed horizontal pixel row are selected for each noticed horizontal pixel row composed of a plurality of arranged pixels, and the brightness value of each reference pixel is acquired from the first storage means. Further, in the vertical reference point selecting step, the plurality of reference pixels included in the target vertical pixel row are selected for each target vertical pixel row composed of a plurality of pixels arranged in the vertical direction in the captured image, and the brightness of each reference pixel is selected. The value is acquired from the first storage means. Then, in the horizontal background model creating step, the brightness values of the plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the horizontal reference point selecting step are acquired from the first storage unit to obtain the background brightness. Creates an illumination variation background model in the case where it changes due to the influence of illumination variation, and in the vertical background model creating step, a plurality of background images corresponding to the plurality of reference pixels selected in the vertical reference point selecting step are provided. The luminance value of the pixel is acquired from the second storage means and an illumination fluctuation background model is created when the background luminance changes under the influence of the illumination fluctuation.

【0089】その後、水平距離計算ステップでは、多次
元輝度空間において、水平背景モデル作成ステップで作
成した前記照明変動背景モデルと、水平参照点選択ステ
ップで取得した前記複数の輝度値が表す点との間の距離
を計算し、垂直距離計算ステップでは、多次元輝度空間
において、垂直背景モデル作成ステップで作成した前記
照明変動背景モデルと、垂直参照点選択ステップで取得
した前記複数の輝度値が表す点との間の距離を計算す
る。そして、物体判別ステップでは、水平距離計算ステ
ップおよび垂直距離計算ステップで計算した前記距離に
もとづいて、注目水平画素列および注目垂直画素列に物
体を表す画素が含まれているか否かを判別し、両画素列
に係わる判別結果に対して論理演算を行って物体を含む
矩形領域を特定する。
Then, in the horizontal distance calculation step, in the multidimensional brightness space, the illumination fluctuation background model created in the horizontal background model creation step and the points represented by the plurality of brightness values acquired in the horizontal reference point selection step are displayed. In the vertical distance calculation step, in the vertical distance calculation step, the points represented by the illumination fluctuation background model created in the vertical background model creation step and the plurality of brightness values acquired in the vertical reference point selection step. Calculate the distance between. Then, in the object determining step, based on the distance calculated in the horizontal distance calculating step and the vertical distance calculating step, it is determined whether or not the target horizontal pixel row and the target vertical pixel row include a pixel representing an object, A logical operation is performed on the discrimination result relating to both pixel rows to specify a rectangular area including an object.

【0090】このように、本発明では、各水平画素列ご
とに背景モデルの作成や、背景モデルと輝度点との間の
距離の計算といった演算処理を行い、また各垂直画素列
ごとに同様の演算処理を行えばよいので、演算処理の回
数は全体で画像の水平方向の画素数に、画像の垂直方向
の画素数を加えた値となる。一方、各画素ごとに背景モ
デルの作成や、背景モデルと輝度点との間の距離の計算
といった演算処理を行った場合には、全体の演算処理の
回数は、画像の水平方向の画素数に、画像の垂直方向の
画素数を乗じたものとなる。したがて、本発明では、照
明変動が大きく、かつ頻繁に発生する場合にも安定で、
しかも高精度に物体の存在領域を検出できる上に、演算
量が大幅に低減し、その結果、高速に物体検出を行った
り、装置の低コスト化を図る上で非常に有利となる。
As described above, according to the present invention, the background model is created for each horizontal pixel row, the calculation processing such as the calculation of the distance between the background model and the luminance point is performed, and the similar processing is performed for each vertical pixel row. Since the arithmetic processing may be performed, the total number of arithmetic processing is a value obtained by adding the number of pixels in the vertical direction of the image to the number of pixels in the horizontal direction of the image. On the other hand, when the background model is created for each pixel and the calculation processing such as the calculation of the distance between the background model and the luminance point is performed, the total number of calculation processing is the number of pixels in the horizontal direction of the image. , Multiplied by the number of pixels in the vertical direction of the image. Therefore, in the present invention, the illumination fluctuation is large and stable even when it frequently occurs,
In addition, it is possible to detect the existence region of the object with high accuracy, and the amount of calculation is significantly reduced. As a result, it is very advantageous in performing the object detection at high speed and reducing the cost of the apparatus.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施の形態例の物体検出装置を示すブロ
ック図である。
FIG. 1 is a block diagram showing an object detection device according to a first exemplary embodiment.

【図2】図1の物体検出装置の動作を示すフローチャー
トである。
FIG. 2 is a flowchart showing an operation of the object detection device of FIG.

【図3】(A)は画像面における注目点と参照点との位
置関係を示す説明図、(B)は物体が撮影領域に侵入し
た場合の模式図、(C)は検出結果を示す模式図、
(D)は画像面における注目点と参照点との位置関係を
示す他の説明図、(E)は検出結果を示す他の模式図、
(F)は最終的な検出結果を示す模式図である。
3A is an explanatory diagram showing a positional relationship between a target point and a reference point on an image surface, FIG. 3B is a schematic diagram when an object enters an imaging region, and FIG. 3C is a schematic diagram showing a detection result. Figure,
(D) is another explanatory diagram showing the positional relationship between the target point and the reference point on the image surface, (E) is another schematic diagram showing the detection result,
(F) is a schematic diagram showing a final detection result.

【図4】(A)は、道路を黒い車が走っている原画像を
示す模式図、(B)は従来技術による車の検出結果を示
す説明図、(C)は本実施の形態例による車の検出結果
を示す説明図である。
4A is a schematic diagram showing an original image of a black car running on a road, FIG. 4B is an explanatory diagram showing a detection result of a car according to a conventional technique, and FIG. 4C is according to this embodiment. It is explanatory drawing which shows the detection result of a vehicle.

【図5】第2の実施の形態例の物体検出装置を示すブロ
ック図である。
FIG. 5 is a block diagram showing an object detection device according to a second exemplary embodiment.

【図6】図5の物体検出装置の動作を示すフローチャー
トである。
6 is a flowchart showing an operation of the object detection device of FIG.

【図7】第2の実施の形態例の動作を説明するための図
であって、(A)は垂直方向における物体の存在可能領
域の検出を表す説明図、(B)は水平方向における物体
の存在可能領域の検出を表す説明図、(C)は検出結果
を示す説明図である。
7A and 7B are diagrams for explaining the operation of the second embodiment, where FIG. 7A is an explanatory diagram showing detection of an object possible area in a vertical direction, and FIG. 7B is an object in a horizontal direction. FIG. 4C is an explanatory diagram showing detection of a possible existence area of FIG.

【図8】背景画像を表す説明図である。FIG. 8 is an explanatory diagram illustrating a background image.

【図9】注目点および参照点の輝度値により形成される
2次元の輝度空間を示す説明図である。
FIG. 9 is an explanatory diagram showing a two-dimensional luminance space formed by the luminance values of an attention point and a reference point.

【図10】監視カメラの撮影領域に物体が侵入した場合
の撮影画像を示す説明図である。
FIG. 10 is an explanatory diagram showing a captured image when an object enters the capturing area of the surveillance camera.

【図11】(A)は画像面を示す説明図、(B)は物体
が撮影領域に侵入した場合の模式図、(C)は検出結果
を示す模式図である。
11A is an explanatory diagram showing an image surface, FIG. 11B is a schematic diagram when an object enters an imaging region, and FIG. 11C is a schematic diagram showing a detection result.

【符号の説明】[Explanation of symbols]

2……物体検出装置、4……画像入力手段、6……複数
参照点選択手段、8……背景画像保持手段、10……背
景モデル作成手段、12……距離計算手段、14……物
体判別手段、16……背景作成手段、18……物体検出
装置、20……複数参照点選択手段、22……背景モデ
ル作成手段、24……距離計算手段、26……物体判別
手段、28……背景作成手段、102……白ドット、1
04……直線、106……白丸ドット、108……物
体、110……黒ドット。
2 ... Object detecting device, 4 ... Image input means, 6 ... Multiple reference point selecting means, 8 ... Background image holding means, 10 ... Background model creating means, 12 ... Distance calculating means, 14 ... Object Discriminating means, 16 ... Background creating means, 18 ... Object detecting device, 20 ... Multiple reference point selecting means, 22 ... Background model creating means, 24 ... Distance calculating means, 26 ... Object determining means, 28 ... ... background creating means, 102 ... white dots, 1
04: straight line, 106: white circle dot, 108: object, 110: black dot.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 280 G06T 7/20 G08B 13/196 H04N 5/235 H04N 7/18 JICSTファイル(JOIS)─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 280 G06T 7/20 G08B 13/196 H04N 5/235 H04N 7/18 JISST file (JOIS)

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮影画像を用いて物体を検出する物体検
出装置であって、 前記撮影画像の各画素の輝度値を取り込んで保持する画
像入力手段と、 前記撮影画像の注目画素ごとに複数の参照画素を選択し
て、選択した複数の参照画素および前記注目画素の輝度
値を前記画像入力手段から前記注目画素ごとに取得する
複数参照点選択手段と、 前記撮影画像の背景を成す背景画像の各画素の輝度値を
保持する背景画像保持手段と、 前記複数参照点選択手段が選択した前記注目画素および
同画素に対応する前記複数の参照画素にそれぞれ対応す
る、前記背景画像における複数の画素の輝度値を前記背
景画像保持手段から取得して、背景の輝度が照明変動の
影響を受けて変化した場合の照明変動背景モデルを前記
注目画素と、同画素に対応する各参照画素との組ごとに
作成する背景モデル作成手段と、 輝度空間において、前記背景モデル作成手段が前記注目
画素と参照画素との前記組ごとに作成した前記照明変動
背景モデルと、前記複数参照点選択手段が前記注目画素
ごとに取得した前記複数の参照画素の輝度値のそれぞれ
と前記注目画素の輝度値との組が表す点との間の距離を
それぞれ計算する距離計算手段と、 前記注目画素と各参照画素との組ごとに、前記距離計算
手段が計算した前記距離にもとづいて前記注目画素が物
体を表す画素か否かを判別し、前記組ごとの判別結果に
対し論理演算を行って前記注目画素が物体を表す画素か
否かを最終的に判別する物体判別手段とを備えたことを
特徴とする物体検出装置。
1. An object detection device for detecting an object using a captured image, comprising: an image input unit that captures and holds a luminance value of each pixel of the captured image; and a plurality of pixels for each target pixel of the captured image. A plurality of reference point selecting means for selecting a reference pixel and acquiring the brightness values of the selected plurality of reference pixels and the target pixel for each of the target pixels from the image input means; and a background image forming a background of the captured image. Background image holding means for holding the brightness value of each pixel, and a plurality of pixels in the background image respectively corresponding to the target pixel selected by the plurality of reference point selection means and the plurality of reference pixels corresponding to the pixel A luminance value is obtained from the background image holding means, and an illumination variation background model in the case where the background luminance changes under the influence of illumination variation is the target pixel and each reference corresponding to the same pixel. A background model creating means for creating each pair with a pixel, and the background model creating means for the brightness variation background model created for each pair of the target pixel and the reference pixel in the luminance space, and the plurality of reference point selections Distance calculation means for calculating a distance between each of the brightness values of the plurality of reference pixels acquired for each pixel of interest and a point represented by a set of brightness values of the pixel of interest; For each group with each reference pixel, it is determined whether or not the pixel of interest is a pixel representing an object based on the distance calculated by the distance calculation means, and a logical operation is performed on the determination result for each group to perform the logical operation. An object detecting device comprising: an object determining unit that finally determines whether or not the pixel of interest is a pixel representing an object.
【請求項2】 前記物体判別手段が物体を表す画素では
ないと判別した前記注目画素、および同画素に対応する
前記複数の参照画素のそれぞれに対応する前記背景画像
の画素の輝度値を、前記注目画素、および同画素に対応
する前記複数の参照画素の輝度値にもとづき更新して前
記背景画像保持手段に保持させる背景作成手段を備えた
ことを特徴とする請求項1記載の物体検出装置。
2. The brightness value of the pixel of the background image corresponding to each of the target pixel determined to be not a pixel representing an object by the object determining means and each of the plurality of reference pixels corresponding to the pixel, 2. The object detecting apparatus according to claim 1, further comprising a background creating unit that updates the pixel of interest and brightness values of the plurality of reference pixels corresponding to the pixel and holds the background image in the background image holding unit.
【請求項3】 撮影画像を用いて物体を検出する物体検
出装置であって、 前記撮影画像の各画素の輝度値を取り込んで保持する画
像入力手段と、 前記撮影画像において水平方向に配列された複数の画素
から成る注目水平画素列ごとに、前記注目水平画素列に
含まれる複数の参照画素を選択して各参照画素の輝度値
を前記画像入力手段から取得する水平参照点選択手段
と、 前記撮影画像において垂直方向に配列された複数の画素
から成る注目垂直画素列ごとに、前記注目垂直画素列に
含まれる複数の参照画素を選択して各参照画素の輝度値
を前記画像入力手段から取得する垂直参照点選択手段
と、 前記撮影画像の背景を成す画像の各画素の輝度値を保持
する背景画像保持手段と、 前記水平参照点選択手段が選択した前記複数の参照画素
にそれぞれ対応する、前記背景画像における複数の画素
の輝度値を前記背景画像保持手段から取得して背景の輝
度が照明変動の影響を受けて変化した場合の照明変動背
景モデルを作成する水平背景モデル作成手段と、 前記垂直参照点選択手段が選択した前記複数の参照画素
にそれぞれ対応する、前記背景画像における複数の画素
の輝度値を前記背景画像保持手段から取得して背景の輝
度が照明変動の影響を受けて変化した場合の照明変動背
景モデルを作成する垂直背景モデル作成手段と、 多次元輝度空間において、前記水平背景モデル作成手段
が作成した前記照明変動背景モデルと、前記水平参照点
選択手段が取得した前記複数の輝度値が表す点との間の
距離を計算する水平距離計算手段と、 多次元輝度空間において、前記垂直背景モデル作成手段
が作成した前記照明変動背景モデルと、前記垂直参照点
選択手段が取得した前記複数の輝度値が表す点との間の
距離を計算する垂直距離計算手段と、 前記水平距離計算手段および前記垂直距離計算手段が計
算した前記距離にもとづいて、前記注目水平画素列およ
び前記注目垂直画素列に物体を表す画素が含まれている
か否かを判別し、両画素列に係わる判別結果に対して論
理演算を行って物体を含む矩形領域を特定する物体判別
手段とを備えたことを特徴とする物体検出装置。
3. An object detecting device for detecting an object using a captured image, comprising image input means for capturing and holding a brightness value of each pixel of the captured image, and horizontally arranged in the captured image. Horizontal reference point selecting means for selecting a plurality of reference pixels included in the horizontal pixel row of interest for each horizontal horizontal pixel row of a plurality of pixels and acquiring the brightness value of each reference pixel from the image input means; For each target vertical pixel row composed of a plurality of pixels arranged in the vertical direction in the captured image, a plurality of reference pixels included in the target vertical pixel row are selected to obtain the brightness value of each reference pixel from the image input means. Vertical reference point selecting means, a background image holding means for holding the luminance value of each pixel of the image forming the background of the captured image, and the plurality of reference pixels selected by the horizontal reference point selecting means A corresponding horizontal background model is created by obtaining the brightness values of a plurality of pixels in the background image from the background image holding means and creating an illumination fluctuation background model when the background brightness changes under the influence of the illumination fluctuation. Means, and luminance values of a plurality of pixels in the background image, which correspond respectively to the plurality of reference pixels selected by the vertical reference point selecting means, are acquired from the background image holding means, and the background luminance is affected by the illumination variation. A vertical background model creating means for creating an illumination variation background model in the case where the illumination variation background model changes, and in the multidimensional luminance space, the illumination variation background model created by the horizontal background model creating means and the horizontal reference point selecting means. Horizontal distance calculating means for calculating the distance between the points represented by the acquired plurality of brightness values, and the vertical background model creation procedure in a multidimensional brightness space. A vertical distance calculating means for calculating a distance between the illumination fluctuation background model created by the vertical reference point selecting means and the points represented by the plurality of luminance values acquired by the vertical reference point selecting means, the horizontal distance calculating means and the vertical distance. Based on the distance calculated by the calculating means, it is determined whether or not the target horizontal pixel row and the target vertical pixel row include a pixel representing an object, and a logical operation is performed on the determination results relating to both pixel rows. And an object discriminating means for identifying a rectangular area including an object.
【請求項4】 前記物体判別手段が物体を表す画素を含
まないと判別した前記注目水平画素列および注目垂直画
素列を構成する各画素の輝度値にもとづいて、対応する
前記背景画像の画素の輝度値を更新して前記背景画像保
持手段に保持させる背景作成手段とを備えたことを特徴
とする請求項3記載の物体検出装置。
4. The pixel of the background image corresponding to the pixel of the corresponding background image is determined based on the luminance value of each pixel forming the target horizontal pixel row and the target vertical pixel row, which is determined by the object determining unit not to include a pixel representing an object. The object detecting apparatus according to claim 3, further comprising: a background creating unit that updates a brightness value and holds the background image in the background image holding unit.
【請求項5】 撮影画像を用いて物体を検出する物体検
出方法であって、 前記撮影画像の各画素の輝度値を取り込んで第1の記憶
手段に保持させる画像入力ステップと、 前記撮影画像の注目画素ごとに複数の参照画素を選択し
て、選択した複数の参照画素および前記注目画素の輝度
値を前記第1の記憶手段から前記注目画素ごとに取得す
る複数参照点選択ステップと、 前記撮影画像の背景を成す背景画像の各画素の輝度値を
第2の記憶手段に保持させる背景画像保持ステップと、 前記複数参照点選択ステップで選択した前記注目画素お
よび同画素に対応する前記複数の参照画素にそれぞれ対
応する、前記背景画像における複数の画素の輝度値を前
記第2の記憶手段から取得して、背景の輝度が照明変動
の影響を受けて変化した場合の照明変動背景モデルを前
記注目画素と、同画素に対応する各参照画素との組ごと
に作成する背景モデル作成ステップと、 輝度空間において、前記背景モデル作成ステップで前記
注目画素と参照画素との前記組ごとに作成した前記照明
変動背景モデルと、前記複数参照点選択ステップで前記
注目画素ごとに取得した前記複数の参照画素の輝度値の
それぞれと前記注目画素の輝度値との組が表す点との間
の距離をそれぞれ計算する距離計算ステップと、 前記注目画素と各参照画素との組ごとに、前記距離計算
ステップで計算した前記距離にもとづいて前記注目画素
が物体を表す画素か否かを判別し、前記組ごとの判別結
果に対し論理演算を行って前記注目画素が物体を表す画
素か否かを最終的に判別する物体判別ステップとを備え
たことを特徴とする物体検出方法。
5. An object detection method for detecting an object using a captured image, comprising: an image input step of capturing a brightness value of each pixel of the captured image and storing it in a first storage means; A plurality of reference pixels for each pixel of interest, a plurality of reference point selecting steps of acquiring the brightness values of the selected plurality of reference pixels and the pixel of interest from the first storage means for each pixel of interest; A background image holding step of holding the luminance value of each pixel of the background image forming the background of the image in the second storage means; the target pixel selected in the plurality of reference point selecting steps and the plurality of references corresponding to the same pixel The brightness values of a plurality of pixels in the background image, which respectively correspond to the pixels, are acquired from the second storage unit, and the illumination change when the background brightness changes under the influence of the illumination change. A background model creating step for creating a background model for each set of the target pixel and each reference pixel corresponding to the same pixel; and, in a luminance space, for each set of the target pixel and the reference pixel in the background model creating step. Between the illumination fluctuation background model created in step S1 and the point represented by each of the brightness values of the target pixel and the brightness values of the plurality of reference pixels acquired for each target pixel in the plurality of reference point selection steps. A distance calculation step for calculating the respective distances, and for each set of the target pixel and each reference pixel, it is determined whether or not the target pixel is a pixel representing an object based on the distance calculated in the distance calculation step. And an object discriminating step of finally discriminating whether or not the target pixel is a pixel representing an object by performing a logical operation on the discrimination result for each set. Detection method.
【請求項6】 前記物体判別ステップで物体を表す画素
ではないと判別した前記注目画素、および同画素に対応
する前記複数の参照画素のそれぞれに対応する前記背景
画像の画素の輝度値を、前記注目画素、および同画素に
対応する前記複数の参照画素の輝度値にもとづき更新し
て前記第1の記憶手段に保持させる背景作成ステップを
備えたことを特徴とする請求項5記載の物体検出方法。
6. The luminance value of the pixel of the background image corresponding to each of the target pixel determined to be not a pixel representing an object in the object determining step and each of the plurality of reference pixels corresponding to the pixel, 6. The object detecting method according to claim 5, further comprising a background creating step of updating based on the luminance value of the pixel of interest and the plurality of reference pixels corresponding to the pixel and holding the background value in the first storage unit. .
【請求項7】 撮影画像を用いて物体を検出する物体検
出方法であって、 前記撮影画像の各画素の輝度値を取り込んで第1の記憶
手段に保持させる画像入力ステップと、 前記撮影画像において水平方向に配列された複数の画素
から成る注目水平画素列ごとに、前記注目水平画素列に
含まれる複数の参照画素を選択して各参照画素の輝度値
を前記第1の記憶手段から取得する水平参照点選択ステ
ップと、 前記撮影画像において垂直方向に配列された複数の画素
から成る注目垂直画素列ごとに、前記注目垂直画素列に
含まれる複数の参照画素を選択して各参照画素の輝度値
を前記第1の記憶手段から取得する垂直参照点選択ステ
ップと、 前記撮影画像の背景を成す画像の各画素の輝度値を第2
の記憶手段に保持させる背景画像保持ステップと、 前記水平参照点選択ステップで選択した前記複数の参照
画素にそれぞれ対応する、前記背景画像における複数の
画素の輝度値を前記第2の記憶手段から取得して背景の
輝度が照明変動の影響を受けて変化した場合の照明変動
背景モデルを作成する水平背景モデル作成ステップと、 前記垂直参照点選択ステップで選択した前記複数の参照
画素にそれぞれ対応する、前記背景画像における複数の
画素の輝度値を前記第2の記憶手段から取得して背景の
輝度が照明変動の影響を受けて変化した場合の照明変動
背景モデルを作成する垂直背景モデル作成ステップと、 多次元輝度空間において、前記水平背景モデル作成ステ
ップで作成した前記照明変動背景モデルと、前記水平参
照点選択ステップで取得した前記複数の輝度値が表す点
との間の距離を計算する水平距離計算ステップと、 多次元輝度空間において、前記垂直背景モデル作成ステ
ップで作成した前記照明変動背景モデルと、前記垂直参
照点選択ステップで取得した前記複数の輝度値が表す点
との間の距離を計算する垂直距離計算ステップと、 前記水平距離計算ステップおよび前記垂直距離計算ステ
ップで計算した前記距離にもとづいて、前記注目水平画
素列および前記注目垂直画素列に物体を表す画素が含ま
れているか否かを判別し、両画素列に係わる判別結果に
対して論理演算を行って物体を含む矩形領域を特定する
物体判別ステップとを備えたことを特徴とする物体検出
方法。
7. An object detection method for detecting an object using a captured image, comprising: an image input step of capturing a brightness value of each pixel of the captured image and holding the same in a first storage means; For each target horizontal pixel row composed of a plurality of pixels arranged in the horizontal direction, a plurality of reference pixels included in the target horizontal pixel row are selected and the brightness value of each reference pixel is acquired from the first storage means. Horizontal reference point selecting step, and for each target vertical pixel column composed of a plurality of pixels arranged in the vertical direction in the captured image, select a plurality of reference pixels included in the target vertical pixel column to determine the brightness of each reference pixel. A vertical reference point selecting step of acquiring a value from the first storage means; and a second brightness value of each pixel of an image forming a background of the captured image.
And a luminance value of a plurality of pixels in the background image corresponding to each of the plurality of reference pixels selected in the horizontal reference point selecting step, from the second storage means. Then, a horizontal background model creating step of creating an illumination variation background model when the background brightness changes under the influence of the illumination variation, and respectively corresponding to the plurality of reference pixels selected in the vertical reference point selecting step, A vertical background model creating step of creating the illumination variation background model when the luminance values of a plurality of pixels in the background image are acquired from the second storage means and the background luminance changes under the influence of the illumination variation; In the multidimensional luminance space, in the illumination fluctuation background model created in the horizontal background model creating step, and in the horizontal reference point selecting step. The horizontal distance calculation step of calculating the distance between the points represented by the plurality of obtained brightness values, the illumination fluctuation background model created in the vertical background model creation step in the multidimensional brightness space, and the vertical reference point Based on the vertical distance calculation step of calculating a distance between the points represented by the plurality of brightness values obtained in the selection step, the horizontal distance calculation step and the distance calculated in the vertical distance calculation step, the target horizontal An object discrimination step of discriminating whether or not a pixel representing an object is included in the pixel row and the vertical pixel row of interest, and performing a logical operation on the discrimination results relating to both pixel rows to identify a rectangular area including the object. An object detection method comprising:
【請求項8】 前記物体判別ステップで物体を表す画素
を含まないと判別した前記注目水平画素列および注目垂
直画素列を構成する各画素の輝度値にもとづいて、対応
する前記背景画像の画素の輝度値を更新して前記第2の
記憶手段に保持させる背景作成ステップとを備えたこと
を特徴とする請求項7記載の物体検出方法。
8. The pixel of the corresponding background image based on the luminance value of each pixel forming the target horizontal pixel row and the target vertical pixel row, which is determined not to include a pixel representing an object in the object determining step. 8. The object detecting method according to claim 7, further comprising: a background creating step of updating a brightness value and holding the brightness value in the second storage means.
JP15792699A 1999-06-04 1999-06-04 Object detection device and object detection method Expired - Fee Related JP3465632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15792699A JP3465632B2 (en) 1999-06-04 1999-06-04 Object detection device and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15792699A JP3465632B2 (en) 1999-06-04 1999-06-04 Object detection device and object detection method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003170951A Division JP4306333B2 (en) 2003-06-16 2003-06-16 Computer-readable information recording medium recording object detection program

Publications (2)

Publication Number Publication Date
JP2000348163A JP2000348163A (en) 2000-12-15
JP3465632B2 true JP3465632B2 (en) 2003-11-10

Family

ID=15660501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15792699A Expired - Fee Related JP3465632B2 (en) 1999-06-04 1999-06-04 Object detection device and object detection method

Country Status (1)

Country Link
JP (1) JP3465632B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5167186B2 (en) * 2009-03-31 2013-03-21 能美防災株式会社 Smoke detector
CA2896825C (en) * 2013-01-15 2019-09-10 Avigilon Corporation Imaging apparatus with scene adaptive auto exposure compensation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高橋正雄ほか,空間微分および差分処理を用いた車両検出法,電子情報通信学会論文誌,日本,電子情報通信学会,1997年11月20日,Vol.J80−D−2,No.11,2976−2985

Also Published As

Publication number Publication date
JP2000348163A (en) 2000-12-15

Similar Documents

Publication Publication Date Title
JP3679512B2 (en) Image extraction apparatus and method
TWI459324B (en) Modifying color and panchromatic channel cfa image
US10762655B1 (en) Disparity estimation using sparsely-distributed phase detection pixels
JP5389903B2 (en) Optimal video selection
JP4489120B2 (en) Reduce artifacts in digital video
US7653249B2 (en) Variance-based event clustering for automatically classifying images
US20110243451A1 (en) Image processing apparatus and method, and program
US8134614B2 (en) Image processing apparatus for detecting an image using object recognition
US7440608B2 (en) Method and system for detecting image defects
CN110572636B (en) Camera contamination detection method and device, storage medium and electronic equipment
JP6624878B2 (en) Image processing apparatus, image processing method, and program
JP2006343859A (en) Image processing system and image processing method
WO2020171379A1 (en) Capturing a photo using a mobile device
KR20110074107A (en) Method for detecting object using camera
CN112001983B (en) Method and device for generating occlusion image, computer equipment and storage medium
JP2020149641A (en) Object tracking device and object tracking method
JP2019029935A (en) Image processing system and control method thereof
CN107578424B (en) Dynamic background difference detection method, system and device based on space-time classification
CN110120012B (en) Video stitching method for synchronous key frame extraction based on binocular camera
JP3465632B2 (en) Object detection device and object detection method
JP4192719B2 (en) Image processing apparatus and method, and program
JP7312026B2 (en) Image processing device, image processing method and program
JP3534551B2 (en) Motion detection device
JPH10320566A (en) Picture processor, picture processing method, and storage medium storing the same method
JP4328259B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100829

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130829

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees