JP2009064175A - Object detection device and object detection method - Google Patents

Object detection device and object detection method Download PDF

Info

Publication number
JP2009064175A
JP2009064175A JP2007230477A JP2007230477A JP2009064175A JP 2009064175 A JP2009064175 A JP 2009064175A JP 2007230477 A JP2007230477 A JP 2007230477A JP 2007230477 A JP2007230477 A JP 2007230477A JP 2009064175 A JP2009064175 A JP 2009064175A
Authority
JP
Japan
Prior art keywords
value
region
density
object detection
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007230477A
Other languages
Japanese (ja)
Other versions
JP5019375B2 (en
Inventor
Hiroki Yamamoto
大樹 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Industries Ltd
Original Assignee
Koito Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Industries Ltd filed Critical Koito Industries Ltd
Priority to JP2007230477A priority Critical patent/JP5019375B2/en
Publication of JP2009064175A publication Critical patent/JP2009064175A/en
Application granted granted Critical
Publication of JP5019375B2 publication Critical patent/JP5019375B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection device and an object detection method for detecting an object without erroneously detecting any shadow region from an image photographed by a camera. <P>SOLUTION: A CPU 12 sets many small block regions (for example, 4×4 pixel) by dividing a detection object area 31 in an image photographed by a camera 5, and obtains a mean value and distribution value of the density of each small block region, and compares the threshold and the distribution value to be selected according to the mean value of the density of each small block region. When the distribution value is larger than the threshold, the small block region is detected as a featured region having the feature quantity of the contour of the object. The threshold is determined in proportion to the maximum value of distribution values which can be taken by the small block region having the mean value of the density. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カメラで撮影した画像を解析して物体を検出する物体検出装置および物体検出方法に係わり、特に、物体の影の誤検知を防止する技術に関する。   The present invention relates to an object detection apparatus and an object detection method for detecting an object by analyzing an image captured by a camera, and more particularly to a technique for preventing erroneous detection of an object shadow.

カメラで撮影した画像内から物体を検出する基本的な手法には、隣接画素との濃度勾配が大きい箇所を抽出するエッジ検出処理がある。また、画像内の分散値の大小やその他の手法を用いて物体を検出することも行われる。   As a basic method for detecting an object from an image captured by a camera, there is an edge detection process for extracting a portion having a large density gradient with an adjacent pixel. In addition, an object is also detected using the size of the dispersion value in the image or other methods.

たとえば、道路上を走行する車両を、明度平均値、明度分散値、エッジ平均値、輝度分散値など複数の計測項目の中から選択された信頼性の高い項目に基づいて認識する道路交通監視システムがある(特許文献1参照。)。   For example, a road traffic monitoring system that recognizes a vehicle traveling on a road based on a reliable item selected from a plurality of measurement items such as a lightness average value, a lightness variance value, an edge average value, and a luminance variance value (See Patent Document 1).

また、カメラで撮影した画像の中から歩行者と推定される候補領域をその形状に基づいて抽出し、該候補領域の濃度の平均値が所定値以上、かつ濃度の分散値が所定値以下の場合にその候補領域はビルなどの構造物であると判定し、歩行者と区別する方法がある(たとえば、特許文献2参照。)。   Also, candidate areas estimated as pedestrians are extracted from images photographed by the camera based on the shape thereof, and the average density of the candidate areas is not less than a predetermined value and the density variance value is not more than a predetermined value. In some cases, the candidate area is determined to be a structure such as a building and is distinguished from a pedestrian (see, for example, Patent Document 2).

また、駐車場の区画エリア内に車両が駐車されているか空き状態かを以下のようにして判定する駐車場の空き場所認識装置がある(たとえば、特許文献3参照。)。この装置では予め設定した登録エリア内で車幅方向についてエッジ抽出処理を施した後、画像濃度値を集計した投影ヒストグラムを作成し、この投影ヒストグラムに基づいて駐車区画毎に濃度の平均値と分散値とを算出する。そして、この濃度の平均値に基づいて選択される基準値と分散値とを比較し、分散値>基準値の場合に車両が存在すると判断し、かつこの判断される状態が一定時間以上継続しない駐車区画は空き場所と判定するようになっている。   Moreover, there is a parking space vacant space recognition device that determines whether a vehicle is parked or vacant in a parking area (see, for example, Patent Document 3). In this device, after performing edge extraction processing in the vehicle width direction within a preset registration area, a projection histogram is created by summing up image density values, and the average value and variance of the density for each parking section based on this projection histogram Value. Then, the reference value selected based on the average value of the density is compared with the dispersion value, and it is determined that the vehicle exists when dispersion value> reference value, and the determined state does not continue for a certain time or more. The parking area is determined as an empty place.

特開2003−296877号公報JP 2003-296877 A 特開2005−159392号公報JP 2005-159392 A 特開平9−67954号公報Japanese Patent Laid-Open No. 9-67954

日中に撮影した画像内から車両や歩行者などの物体を検出する場合、影を物体として誤検知しないようにする必要がある。しかし、エッジ検出処理を基本とする従来の画像解析手法では、影領域を物体と区別して除去することは難しく、影の誤検知が検知精度を低下させる要因になっていた。   When detecting an object such as a vehicle or a pedestrian from an image taken during the day, it is necessary to prevent erroneous detection of a shadow as an object. However, in the conventional image analysis method based on the edge detection process, it is difficult to remove the shadow area by distinguishing it from the object, and erroneous detection of the shadow has been a factor of reducing the detection accuracy.

一方、複眼カメラを使用すれば立体的な解析により影領域の除去も可能であるが、装置価格の高騰を招く、あるいはシステム構成が複雑になるといった問題が生じる。   On the other hand, if a compound eye camera is used, the shadow area can be removed by a three-dimensional analysis, but there arises a problem that the apparatus price increases or the system configuration becomes complicated.

本発明は、上記の問題を解決しようとするものであり、カメラで撮影された画像内から影領域を誤検知せずに物体を検出することのできる物体検出装置および物体検出方法を提供することを目的としている。   The present invention is intended to solve the above problem, and provides an object detection apparatus and an object detection method capable of detecting an object from an image captured by a camera without erroneously detecting a shadow area. It is an object.

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。   The gist of the present invention for achieving the object lies in the inventions of the following items.

[1]カメラで撮影された画像内の所定エリアを複数の微小ブロック領域に分割する領域分割手段と、
前記微小ブロック領域毎の濃度の平均値を求める平均値算出手段と、
前記微小ブロック領域毎の濃度の分散値を求める分散値算出手段と、
前記微小ブロック領域毎に、前記平均値に応じて選ばれる閾値と前記分散値とを比較し、前記分散値が前記閾値より大きい場合にその微小ブロック領域を物体の輪郭の特徴量を持つ特徴領域として検出する特徴領域検出手段と、
を有する
ことを特徴とする物体検出装置。
[1] Area dividing means for dividing a predetermined area in an image photographed by the camera into a plurality of minute block areas;
An average value calculating means for obtaining an average value of the density for each micro block region;
Dispersion value calculating means for obtaining a dispersion value of density for each micro block region;
For each minute block region, a threshold value selected according to the average value is compared with the variance value, and when the variance value is larger than the threshold value, the minute block region is a feature region having a feature amount of an object contour A feature region detection means for detecting as,
An object detection device characterized by comprising:

上記発明では、微小ブロック領域の濃度の平均値に応じて選ばれる閾値とその微小ブロック領域の濃度の分散値とを比較し、分散値が閾値より大きい場合にその微小ブロック領域を、物体の輪郭の特徴量を持つ特徴領域として検出する。微小ブロック領域は、たとえば、4画素×4画素程度のサイズに設定される。   In the above invention, the threshold value selected according to the average value of the density of the micro block area is compared with the variance value of the density of the micro block area, and if the variance value is larger than the threshold value, the micro block area is defined as the contour of the object. It is detected as a feature region having a feature amount of. The minute block region is set to a size of about 4 pixels × 4 pixels, for example.

[2]前記平均値に応じて選ばれる閾値は、その平均値を持つ微小ブロック領域が取り得る前記分散値の範囲の大きさもしくはその平均値を持つ微小ブロック領域が取り得る前記分散値の最大値に応じて設定された値である
ことを特徴とする[1]に記載の物体検出装置。
[2] The threshold value selected according to the average value is the size of the range of the dispersion value that can be taken by the minute block region having the average value or the maximum value of the dispersion value that can be taken by the minute block region having the average value. The object detection device according to [1], wherein the object detection device is a value set according to a value.

上記発明では、ある濃度の平均値に対して選ばれる閾値は、その平均値を持つ微小ブロック領域が取り得る濃度の分散値の範囲の大きさ、もしくはその平均値を持つ微小ブロック領域が取り得る分散値の最大値に応じて設定される。物体の輪郭部では画像の濃度が急に変化するため分散値は大きくなる。しかし、分散値が取り得る範囲や取り得る分散値の最大値はその微小ブロック領域の濃度の平均値に応じて変動する。すなわち、濃度の平均値が階調範囲の中心付近では取り得る分散値の範囲は広く、最大値は大きくなり、階調範囲の両端(明るいもしくは暗い領域)では取り得る分散値の範囲は狭く、最大値は小さくなる。そこで、たとえば、ある濃度の平均値を持つ微小ブロック領域が取り得る分散値の範囲や最大値の中の中央値を閾値に選択することで、濃度の平均値に係わらず物体の輪郭部か否かの判断を適切に行うことが可能になる。   In the above invention, the threshold value selected for the average value of a certain density can be the size of the range of density dispersion values that can be taken by the micro block area having the average value, or the micro block area having the average value. It is set according to the maximum variance value. Since the density of the image changes abruptly at the contour portion of the object, the variance value increases. However, the range that the dispersion value can take and the maximum value of the dispersion value that can be taken vary depending on the average value of the density of the minute block region. In other words, the range of dispersion values that can be taken near the center of the gradation range is wide, the maximum value is large, and the range of dispersion values that can be taken at both ends (bright or dark areas) of the gradation range is narrow, The maximum value becomes smaller. Therefore, for example, by selecting a median value within a range of dispersion values or a maximum value that can be taken by a minute block region having an average value of a certain density as a threshold value, it is determined whether the object is an outline portion regardless of the average value of density. It becomes possible to make an appropriate decision.

[3]検出された前記特徴領域の密度が基準値以上の箇所に物体が存在すると判定する判定手段を有する
ことを特徴とする[1]または[2]に記載の物体検出装置。
[3] The object detection apparatus according to [1] or [2], further including a determination unit that determines that an object is present at a location where the density of the detected feature region is equal to or higher than a reference value.

上記発明では、特徴領域が基準値以上の密度で集まっている箇所に物体が存在すると判定する。孤立あるいは点在する特徴領域は排除することで、検知精度が向上する。   In the said invention, it determines with an object existing in the location where the characteristic area gathers with the density more than a reference value. The detection accuracy is improved by eliminating isolated or scattered feature regions.

[4]前記判定手段は、前記特徴領域が前記基準値以上の密度で存在する箇所の大きさおよびまたは画像内での位置に基づいてその物体の種類を判定する
ことを特徴とする[3]に記載の物体検出装置。
[4] The determining means determines the type of the object based on the size and / or position in the image where the feature region exists at a density equal to or higher than the reference value. [3] The object detection apparatus described in 1.

上記発明では、検出対象の物体に応じた大きさ、その物体が存在し得る画像内での位置などから物体の種類が判定される。   In the above invention, the type of the object is determined from the size according to the object to be detected, the position in the image where the object can exist, and the like.

[5]第1の画像から検出された前記特徴領域と、前記第1の画像と同一範囲を異なる時間に撮影した第2の画像から検出された前記特徴領域との比較から移動物体を抽出する
ことを特徴とする[1]乃至[4]のいずれか1つに記載の物体検出装置。
[5] A moving object is extracted from a comparison between the feature region detected from the first image and the feature region detected from a second image obtained by photographing the same range as the first image at different times. The object detection device according to any one of [1] to [4], wherein:

上記発明では、たとえば、第1の画像は移動物体の写っていない背景画像とされ、第2の画像から検出された特徴領域から背景画像にあった特徴領域を排除することで、移動物体に係わる特徴領域のみが抽出される。   In the above invention, for example, the first image is a background image in which the moving object is not shown, and the feature area corresponding to the background image is excluded from the feature area detected from the second image, thereby relating to the moving object. Only feature regions are extracted.

[6]前記閾値は、物体の輪郭部は前記特徴領域として検出され、かつ、物体の影とその周囲との境界部は前記特徴領域として検出されない値に設定される
ことを特徴とする[1]乃至[5]のいずれか1つに記載の物体検出装置。
[6] The threshold value is set to a value at which a contour portion of an object is detected as the feature region, and a boundary portion between the shadow of the object and its periphery is not detected as the feature region. ] To [5] The object detection device according to any one of [5].

上記発明では、影の誤検知が防止される。   In the above invention, erroneous detection of shadows is prevented.

[7]カメラで撮影された画像内の所定エリアを複数の微小ブロック領域に分割し、
前記微小ブロック領域毎の濃度の平均値を求め、
前記微小ブロック領域毎の濃度の分散値を求め、
前記微小ブロック領域毎に、前記平均値に応じて選ばれる閾値と前記分散値とを比較し、前記分散値が前記閾値より大きい場合にその微小ブロック領域を物体の輪郭の特徴量を持つ特徴領域として検出する
ことを特徴とする物体検出方法。
[7] A predetermined area in the image taken by the camera is divided into a plurality of minute block areas,
Obtain the average value of the density for each micro block region,
Obtain the dispersion value of the density for each micro block region,
For each minute block region, a threshold value selected according to the average value is compared with the variance value, and when the variance value is larger than the threshold value, the minute block region is a feature region having a feature amount of an object contour The object detection method characterized by detecting as.

[8]前記平均値に応じて選ばれる閾値は、その平均値を持つ微小ブロック領域が取り得る前記分散値の範囲の大きさもしくはその平均値を持つ微小ブロック領域が取り得る前記分散値の最大値に応じて設定された値である
ことを特徴とする[7]に記載の物体検出方法。
[8] The threshold value selected according to the average value is the size of the range of the dispersion value that can be taken by the minute block region having the average value or the maximum value of the dispersion value that can be taken by the minute block region having the average value. The object detection method according to [7], wherein the object detection value is a value set according to a value.

本発明に係わる物体検出装置および物体検出方法によれば、カメラで撮影された画像内から影の領域を誤検知せずに物体を検出することができる。   According to the object detection apparatus and the object detection method according to the present invention, an object can be detected from an image captured by a camera without erroneously detecting a shadow area.

以下、図面に基づき本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明に係わる物体検出装置10の概略構成を示すブロック図である。物体検出装置10は、カメラ5で撮影して得た画像を解析することで車両や歩行者の交通量などを計測する交通量計測装置とされている。カメラ5は、たとえば、道路を跨ぐように設置された、あるいは道路脇に立てられた支柱などに固定されて道路およびその周辺の歩道などを撮影する。   FIG. 1 is a block diagram showing a schematic configuration of an object detection apparatus 10 according to the present invention. The object detection device 10 is a traffic volume measurement device that measures the traffic volume of a vehicle or a pedestrian by analyzing an image captured by the camera 5. The camera 5, for example, is fixed to a post or the like installed across the road or standing on the side of the road, and photographs the road and its surrounding sidewalk.

物体検出装置10は、バス11にCPU(Central Processing Unit)12、ROM(Read Only Memory)13、RAM(Random Access Memory)14、カメラI/F15、操作部16、表示部17、外部通信部18、不揮発メモリ19などを接続して構成される。   The object detection apparatus 10 includes a central processing unit (CPU) 12, a read only memory (ROM) 13, a random access memory (RAM) 14, a camera I / F 15, an operation unit 16, a display unit 17, an external communication unit 18 on a bus 11. The non-volatile memory 19 is connected.

CPU12は、ROM13に格納されているプログラムを実行することで当該物体検出装置10の動作を統括制御する機能を果たす。ROM13には上記プログラムのほか各種固定データや後述する閾値テーブル20が記憶されている。RAM14は、書き換え自在な半導体メモリであり、CPU12がプログラムを実行する上で一時的にデータを格納するワークメモリや、カメラ5から取り込んだ画像データを記憶する画像メモリなどとして使用される。   The CPU 12 has a function of performing overall control of the operation of the object detection apparatus 10 by executing a program stored in the ROM 13. In addition to the above programs, the ROM 13 stores various fixed data and a threshold table 20 described later. The RAM 14 is a rewritable semiconductor memory, and is used as a work memory that temporarily stores data when the CPU 12 executes a program, an image memory that stores image data captured from the camera 5, and the like.

カメラI/F15は、カメラ5に対して制御信号を出力したりカメラ5から画像データを入力したりする機能を果たす。カメラ5は、毎秒数フレームから数十フレームの画像を撮影しており、物体検出装置10はカメラI/F15を通じて各フレームの画像データを順次取り込む。カメラ5から取り込まれた画像の各画素の階調数は256階調となっており、濃度値は0〜255の範囲で表される。   The camera I / F 15 performs a function of outputting a control signal to the camera 5 and inputting image data from the camera 5. The camera 5 captures images from several frames to several tens of frames per second, and the object detection device 10 sequentially captures image data of each frame through the camera I / F 15. The number of gradations of each pixel of the image captured from the camera 5 is 256 gradations, and the density value is expressed in the range of 0 to 255.

操作部16は、物体検出装置10に対する各種の設定操作(たとえば、検知対象エリアの設定など)を受け付ける機能を果たし、テンキーや設定スイッチなどで構成される。表示部17は、液晶ディスプレイなどで構成され、計測結果や装置の動作状態、設定内容などを表示する機能を果たす。外部通信部18は、外部機器と各種のデータを送受信する機能を果たし、計測結果を外部機器に送信したり、外部機器からリモート制御やリモート設定などに係わる指令を受信したりする機能を果たす。不揮発メモリ19には、設定された検知対象エリア31の位置情報や後述する比較基準箇所などが記憶される。   The operation unit 16 has a function of accepting various setting operations (for example, setting of a detection target area) for the object detection apparatus 10 and includes a numeric keypad, a setting switch, and the like. The display unit 17 is composed of a liquid crystal display or the like, and fulfills a function of displaying measurement results, the operation state of the apparatus, setting contents, and the like. The external communication unit 18 functions to transmit / receive various data to / from an external device, and transmits a measurement result to the external device, and receives a command related to remote control or remote setting from the external device. The non-volatile memory 19 stores the set position information of the detection target area 31 and a comparison reference point described later.

図2(a)はカメラ5で撮影して物体検出装置10に取り込まれた画像の一例を示し、図2(b)はその画像内に設定された検知対象エリア31の一例を示している。検知対象エリア31の位置、形状、サイズは、操作部16や外部機器から任意に設定変更可能になっている。検知対象エリア31は多数の微小ブロック領域Bに分割されて処理される。1つの微小ブロック領域Bは、たとえば、4画素×4画素の矩形領域に設定される。微小ブロック領域Bのサイズは、これに限定されず、操作部16や外部機器から任意に設定変更可能になっている。   2A shows an example of an image captured by the camera 5 and captured by the object detection apparatus 10, and FIG. 2B shows an example of the detection target area 31 set in the image. The position, shape, and size of the detection target area 31 can be arbitrarily changed from the operation unit 16 or an external device. The detection target area 31 is divided into a large number of minute block regions B and processed. One minute block region B is set to a rectangular region of 4 pixels × 4 pixels, for example. The size of the minute block region B is not limited to this, and the setting can be arbitrarily changed from the operation unit 16 or an external device.

次に、閾値テーブル20について説明する。   Next, the threshold table 20 will be described.

先に説明したように本実施の形態では各画素の濃度値は0〜255の範囲にあるため、1つの微小ブロック領域Bを構成する16個の画素の濃度の平均値dも同様に0〜255の範囲を取り得る。また、ある微小ブロック領域Bを構成する16個の画素の濃度の分散値σが取り得る範囲は、その微小ブロック領域Bの濃度の平均値dに応じて変化する。 As described above, since the density value of each pixel is in the range of 0 to 255 in the present embodiment, the average value d of the density of the 16 pixels constituting one minute block region B is also 0 to 0. A range of 255 can be taken. In addition, the range that can be taken by the density dispersion value σ 2 of the density of 16 pixels constituting a certain minute block region B changes according to the average value d of the density of the minute block region B.

すなわち、濃度の平均値dが0の場合には、その微小ブロック領域Bを構成する16個の画素の濃度値はすべて0の場合しか在り得ず、分散値σの取り得る値も0のみになる。一方、ある微小ブロック領域Bの濃度の平均値dが0<d<255の範囲にある場合は、その微小ブロック領域Bを構成する16個の画素の濃度値の組み合わせパターンは複数種類存在する。たとえば、濃度の平均値dが16の場合、すべての画素の濃度値が16であるパターンや、16画素中の8画素の濃度値が32で他の8画素の濃度値が0のパターンなど様々にある。 That is, when the average density d is 0, the density values of the 16 pixels constituting the minute block region B can only be 0, and the possible value of the variance value σ 2 is only 0. become. On the other hand, when the average value d of the density of a certain minute block region B is in the range of 0 <d <255, there are a plurality of types of combination patterns of density values of 16 pixels constituting the minute block region B. For example, when the average density d is 16, there are various patterns such as a pattern in which the density value of all pixels is 16, or a pattern in which the density value of 8 pixels in 16 pixels is 32 and the density value of the other 8 pixels is 0. It is in.

濃度の平均値dが16の場合に濃度の分散値σが最も大きくなるのは、図3(a)に示すように、濃度値255の画素が1画素と、濃度値1の画素が1画素と、濃度値0の画素が14画素となるパターンであり、このときの分散値σは3808.125である。したがって、濃度の平均値dが16の場合に分散値σが取り得る範囲は、0≦σ≦3808.125になる。 As shown in FIG. 3A, when the average density d is 16, the density variance value σ 2 becomes the largest, as shown in FIG. 3A, the pixel having the density value 255 and the pixel having the density value 1 are 1 pixels. The pattern is a pattern in which the pixels and the pixels with density value 0 become 14 pixels, and the variance value σ 2 at this time is 3808.125. Therefore, when the average value d of the density is 16, the range that the dispersion value σ 2 can take is 0 ≦ σ 2 ≦ 3808.125.

また、濃度の平均値dが32の場合に分散値σが最も大きくなるのは、図3(b)に示すように、濃度値255の画素が2画素と、濃度値2の画素が1画素と、濃度値0の画素が13画素となるパターンであり、このときの分散値σは7104.375である。したがって、濃度の平均値dが32の場合に分散値σが取り得る範囲は、0≦σ≦7104.375になる。 In addition, when the average density d is 32, the variance value σ 2 is the largest, as shown in FIG. 3B, the two pixels having the density value 255 and the one having the density value 2 are 1. The pattern is a pattern in which pixels and pixels with a density value of 0 are 13 pixels, and the variance value σ 2 at this time is 7104.375. Therefore, when the average value d of the density is 32, the range that the dispersion value σ 2 can take is 0 ≦ σ 2 ≦ 710104.375.

ここでは、0〜255の範囲において0.1刻みに各濃度の平均値dに対する分散値σが取りえる範囲もしくは最大値を予め演算して求める。濃度の平均値dが127.5の場合における分散値σが取り得る範囲は0.25〜16256.25となり、16256.25は、すべての平均値dにおける分散値σの中の最大値である。 Here, a range or maximum value that can be taken by the variance value σ 2 for the average value d of each density in increments of 0.1 in the range of 0 to 255 is obtained in advance. The range that the dispersion value σ 2 can take when the average value d of the density is 127.5 is 0.25 to 16256.25, and 16256.25 is the maximum value among the dispersion values σ 2 of all the average values d. It is.

そして、割合R=((濃度の平均値dにおける分散値σの最大値)/(濃度の平均値が127.5の場合における分散値σの最大値))×100、とし、0〜255の範囲において0.1刻みに各濃度の平均値dに対する割合R(%)を求める。図4のグラフ41は、濃度の平均値dを横軸に、割合Rを左縦軸にとって、濃度の平均値dと割合Rとの関係を表したものである。閾値テーブル20は、このグラフ41の元データ、すなわち、0〜255までの0.1刻みの各濃度の平均値dとその平均値dにおける割合Rの値とを関連付けて登録したものであり、予め作成されてROM13に記憶されている。 The ratio R = ((the maximum value of the dispersion value σ 2 in the average value d of the density) / (the maximum value of the dispersion value σ 2 in the case where the average value of the density is 127.5)) × 100. In the range of 255, the ratio R (%) to the average value d of each density is determined in increments of 0.1. The graph 41 in FIG. 4 represents the relationship between the average density value d and the ratio R, with the average density value d on the horizontal axis and the ratio R on the left vertical axis. The threshold table 20 is the original data of the graph 41, that is, the average value d of each density in increments of 0.1 from 0 to 255 and the value of the ratio R in the average value d are registered in association with each other. It is created in advance and stored in the ROM 13.

次に、物体検出装置10の動作を説明する。   Next, the operation of the object detection device 10 will be described.

物体検出装置10は、画像内の検知対象エリア31に含まれる各微小ブロック領域Bが物体の輪郭の特徴量を持つ特徴領域か否かを判断して特徴領域を検出し、該検出された特徴領域が存在する密度や大きさ、位置、配列パターンなどに基づいて、目的の物体(ここでは、車両や歩行者)の存否を判定するようになっている。   The object detection device 10 determines whether each minute block region B included in the detection target area 31 in the image is a feature region having the feature amount of the contour of the object, detects the feature region, and the detected feature The presence / absence of a target object (here, a vehicle or a pedestrian) is determined based on the density, size, position, arrangement pattern, and the like of the region.

図5は、物体検出装置10が行う特徴領域検出処理の流れを示している。まず、カメラ5で取り込んだ画像内の検知対象エリア31を微小ブロック領域Bに分割して多数の微小ブロック領域Bを設定する(ステップS101)。微小ブロック領域Bは、たとえば画像あるいは検知対象エリア31の左上端を基準位置にしてマトリクス状に配列されるように分割される。   FIG. 5 shows a flow of the feature area detection process performed by the object detection apparatus 10. First, the detection target area 31 in the image captured by the camera 5 is divided into minute block areas B, and a large number of minute block areas B are set (step S101). The minute block region B is divided so as to be arranged in a matrix, for example, with the upper left end of the image or the detection target area 31 as a reference position.

次に、これらの微小ブロック領域Bの中から未処理の微小ブロック領域Bを1つ選択する(ステップS102)。この選択した微小ブロック領域Bの濃度の平均値dを算出し(ステップS103)、さらに該微小ブロック領域Bの濃度の分散値σを算出する(ステップS104)。 Next, one unprocessed micro block area B is selected from these micro block areas B (step S102). An average value d of the density of the selected micro block region B is calculated (step S103), and further, a variance value σ 2 of the density of the micro block region B is calculated (step S104).

次に、先に求めた濃度の平均値dで閾値テーブル20を参照して、当該平均値dに対する割合Rを取得し、予め定めた基準閾値にこの割合Rを乗じた値を閾値として選ぶ(ステップS105)。基準閾値は、濃度の平均値dが127.5の場合(取り得る分散値σの最大値が最も大きくなる場合の濃度の平均値)に使用する閾値として予め定めた値である。 Next, referring to the threshold value table 20 with the average value d of the previously obtained density, a ratio R with respect to the average value d is acquired, and a value obtained by multiplying the predetermined reference threshold value by the ratio R is selected as the threshold value ( Step S105). The reference threshold value is a value that is predetermined as a threshold value that is used when the average density value d is 127.5 (the average density value when the maximum possible dispersion value σ 2 is the largest).

ステップS104で算出した分散値σとステップS105で選んだ閾値とを比較し、分散値σが閾値より大きい場合は(ステップS106;Y)、該微小ブロック領域Bを、物体の輪郭の特徴量を持った特徴領域であると認定し検出する(ステップS107)。分散値σが閾値以下の場合は(ステップS106;N)、該微小ブロック領域Bは特徴領域とされない。 The variance value σ 2 calculated in step S104 is compared with the threshold value selected in step S105, and when the variance value σ 2 is larger than the threshold value (step S106; Y), the minute block region B is represented as a feature of the object outline. The feature area is recognized and detected as a quantity (step S107). When the variance value σ 2 is equal to or smaller than the threshold value (step S106; N), the minute block region B is not a feature region.

以上の処理は検知対象エリア31に含まれるすべての微小ブロック領域Bについて完了するまで繰り返され(ステップS108;N)、すべての微小ブロック領域Bについて完了すると(ステップS108;Y)、特徴領域検出処理は終了する(エンド)。   The above process is repeated until all the minute block areas B included in the detection target area 31 are completed (step S108; N). When all the minute block areas B are completed (step S108; Y), the characteristic area detection process is performed. Ends.

たとえば、図4のグラフ41を各濃度の平均値dにおいて取り得る分散値σの最大値を示すグラフ(図中の右側の目盛でグラフ41を見る)とすると、該グラフ41の最大値は16256.25となる。仮に基準閾値をこの16256.25の50%に相当する8128.0に設定すると、グラフ42は各濃度の平均値dにおける閾値を示しており、すべての平均値dにおいてグラフ41の値(各平均値dにおいて取り得る分散値σの最大値)の50%の値になっている。このとき、分散値σがグラフ42より上の領域にある微小ブロック領域Bは、物体の輪郭の特徴量を持つ特徴領域として検出され、分散値σがグラフ42以下の領域にある微小ブロック領域Bは特徴領域として検出されないようになる。 For example, if the graph 41 of FIG. 4 is a graph showing the maximum value of the variance value σ 2 that can be taken at the average value d of each concentration (see the graph 41 on the right scale in the figure), the maximum value of the graph 41 is 16256.25. If the reference threshold value is set to 818.0 corresponding to 50% of 16256.25, the graph 42 shows the threshold value at the average value d of each density, and the values of the graph 41 (each average value) at all the average values d. The maximum value of the dispersion value σ 2 that can be taken at the value d) is 50%. At this time, the micro block area B variance sigma 2 is in the region above the graph 42 is detected as the feature region with feature amount of the object contour, fine block variance sigma 2 is the graph 42 the following areas The region B is not detected as a feature region.

このように、ある微小ブロック領域Bを物体の輪郭の特徴量を持つ特徴領域とするか否かの判定に使用する閾値を、その微小ブロック領域Bの濃度の平均値dにおいて取り得る分散値σの最大値に比例して変化させたので、その微小ブロック領域Bの濃度の平均値dの大小に係わらず、適切な閾値を使用して該微小ブロック領域Bが特徴領域か否かを判定することができる。なお、取り得る分散値σの最大値に代えて、その微小ブロック領域Bの濃度の平均値dにおいて取り得る分散値σの範囲の大きさに比例させて閾値を設定してもよい。 In this way, the threshold value used for determining whether or not a certain minute block area B is a feature area having the feature amount of the contour of the object can be a dispersion value σ that can be taken in the average value d of the density of the minute block area B. Since it is changed in proportion to the maximum value of 2 , whether or not the minute block region B is a feature region is determined using an appropriate threshold value regardless of the average value d of the density of the minute block region B. can do. Instead of the maximum value of the dispersion value σ 2 that can be taken, a threshold value may be set in proportion to the size of the range of the dispersion value σ 2 that can be taken in the average value d of the density of the minute block region B.

本処理では濃度変化の少ない平坦な部分(主として輪郭部以外)は分散値σが小さいので特徴領域として検出されない。ここでは、車両や歩行者などの物体の輪郭部(物体とその周囲との境界部)は特徴領域として検出するが、物体の影とその周囲との境界部は特徴領域として検出しないように基準閾値を設定する。 In this processing, a flat portion (mainly other than the contour portion) with a small density change is not detected as a feature region because the variance value σ 2 is small. In this case, the contour of an object such as a vehicle or a pedestrian (the boundary between the object and its surroundings) is detected as a feature region, but the boundary between the shadow of the object and its surroundings is not detected as a feature region. Set the threshold.

基準閾値を一定値より高く設定した場合から影領域を特徴領域として検知しなくなる。本例の場合(各画素が256階調、微小ブロック領域Bのサイズが4画素×4画素であり、濃度の平均値dが127.5の場合の分散値σの最大値が16256.25となる場合)は、基準閾値を500〜2000の範囲内に設定すれば、車両や歩行者などの物体の輪郭は特徴領域として検出され、影の領域は特徴領域として検出されなかった。一方、影領域を特徴領域として検出しない範囲(500〜2000)に基準閾値を設定した場合でも、ヘッドライトと黒い車両の輪郭部など、黒い車両の中に含まれる複雑な部分は特徴領域として検出された。以下に検出例を示す。 When the reference threshold is set higher than a certain value, the shadow area is not detected as the feature area. In the case of this example (each pixel is 256 gradations, the size of the minute block region B is 4 × 4 pixels, and the average value d of the density is 127.5, the maximum value of the variance value σ 2 is 16256.25. If the reference threshold is set within the range of 500 to 2000, the contour of an object such as a vehicle or a pedestrian is detected as a feature region, and the shadow region is not detected as a feature region. On the other hand, even when a reference threshold is set in a range (500 to 2000) where a shadow area is not detected as a feature area, complicated parts included in the black vehicle such as the headlight and the contour of the black vehicle are detected as the feature area. It was done. A detection example is shown below.

図2(a)は検知対象エリア31にトラックの影51が存在している画像の一例であり、図2(b)はこの画像の検知対象エリア31に対して図5の特徴領域検出処理を施した結果を示している。検知対象エリア31にある多数の微小ブロック領域Bのうち黒く塗りつぶされている箇所は特徴領域として検出された微小ブロック領域Bを示している。図2(b)に示すように、トラックの影51は、その内部および輪郭部を含めて、特徴領域として検出されない。これに対し、図2(a)に示す画像にエッジ検出処理を施すと、その処理結果は図6に示すようになる。白線部分は輪郭部として検出された部分であり、トラックの影51の輪郭部が検出されている。   FIG. 2A is an example of an image in which the shadow 51 of the track exists in the detection target area 31, and FIG. 2B shows the feature region detection processing of FIG. 5 for the detection target area 31 of this image. The results are shown. Of the large number of minute block regions B in the detection target area 31, a blackened portion indicates the minute block region B detected as a feature region. As shown in FIG. 2B, the shadow 51 of the track is not detected as a feature region including the inside and the contour portion. On the other hand, when edge detection processing is performed on the image shown in FIG. 2A, the processing result is as shown in FIG. The white line portion is a portion detected as the contour portion, and the contour portion of the shadow 51 of the track is detected.

図7(a)は検知対象エリア31に車両52が存在する画像の一例であり、図7(b)はこの画像の検知対象エリア31に対して図5の特徴領域検出処理を施した結果を示している。検知対象エリア31にある多数の微小ブロック領域Bのうち黒く塗りつぶされている箇所は特徴領域として検出された箇所であり、車両52が存在している箇所、特に車体や窓の輪郭部が特徴領域として検出されている。   FIG. 7A is an example of an image in which the vehicle 52 is present in the detection target area 31, and FIG. 7B shows the result of performing the characteristic region detection processing of FIG. 5 on the detection target area 31 of this image. Show. Of the large number of minute block areas B in the detection target area 31, the blacked out areas are the areas detected as the characteristic areas, and the areas where the vehicle 52 is present, particularly the outlines of the vehicle body and windows are the characteristic areas. Has been detected.

図8は、道路上の黒い車両55を含む画像に対して特徴領域検出処理を施した結果の一例を示している。図中に散在する白い矩形領域は特徴領域として検出された箇所を示している。黒い車両55に含まれるヘッドライトやナンバープレートの輪郭部は特徴領域として検出されている。また、車体の輪郭部についてもその一部は(特に周囲が明るい部分で)特徴領域として検出されている。   FIG. 8 shows an example of the result of performing the feature region detection process on the image including the black vehicle 55 on the road. White rectangular areas scattered in the figure indicate locations detected as feature areas. The outline of the headlight or license plate included in the black vehicle 55 is detected as a feature region. Further, a part of the contour portion of the vehicle body is detected as a feature region (particularly in a bright portion).

本実施の形態に係わる特徴領域検出処理で影領域が検出されない理由は以下のように考えられる。図9に示すように、影領域61とその周囲(路面など)62との境界(影の輪郭部)では、各画素の輝度値(濃度)は緩やかに変化する。たとえば、影領域61とその周囲62との境界部分に設定した図中の矩形領域63では、左の画素から順番に輝度値が60、74、94、111と緩やかな階調変化となっている。すなわち、屋外では乱反射により物体に光が複数方向から当たり、影の輪郭がぼやけた状態になる。これに対して物体の輪郭はシャープであり、物体の輪郭部において各画素の輝度値(濃度)は急に変化する。   The reason why the shadow area is not detected by the feature area detection processing according to the present embodiment is considered as follows. As shown in FIG. 9, the luminance value (density) of each pixel gradually changes at the boundary (shadow contour portion) between the shadow region 61 and its surroundings (road surface or the like) 62. For example, in the rectangular area 63 in the figure set at the boundary between the shadow area 61 and the surrounding area 62, the luminance values gradually change from 60, 74, 94, and 111 in order from the left pixel. . That is, outdoors, the object hits the object from a plurality of directions due to irregular reflection, and the shadow outline becomes blurred. On the other hand, the contour of the object is sharp, and the luminance value (density) of each pixel changes suddenly in the contour portion of the object.

たとえば、図10(a)に示すように、緩やかな階調変化の4画素×4画素の微小ブロック領域B1に対して、基準閾値を500に設定して特徴領域検出処理を施すと、この微小ブロック領域B1は特徴領域と判定されない。詳細には、この微小ブロック領域B1の濃度の平均値dは84.75で分散値σは375.69になる。そして、平均値dが84.75に対する割合Rは閾値テーブル20(または図4のグラフ41)から83.51%と求まり、基準閾値500にこの割合Rを乗じて閾値417.55が求まる。従って、分散値σ(375.69)<閾値(417.55)となり、この微小ブロック領域B1は特徴領域と判定されない。 For example, as shown in FIG. 10 (a), when a feature region detection process is performed with a reference threshold set to 500 for a 4 × 4 pixel minute block region B1 with a gradual gradation change, The block region B1 is not determined as a feature region. Specifically, the average value d of the density of the minute block region B1 is 84.75, and the variance value σ 2 is 375.69. Then, the ratio R with respect to the average value d of 84.75 is obtained as 83.51% from the threshold table 20 (or the graph 41 in FIG. 4), and the threshold 417.55 is obtained by multiplying the reference threshold 500 by this ratio R. Accordingly, the variance value σ 2 (375.69) <threshold value (417.55), and this minute block region B1 is not determined as a feature region.

一方、図10(b)に示すように、同図(a)の微小ブロック領域B1と同じ階調差がありかつ濃度の平均値dがほぼ同一となる微小ブロック領域B2に対して、同じく基準閾値を500に設定して特徴領域検出処理を施すと、この微小ブロック領域B2は特徴領域として検出される。詳細には、この微小ブロック領域B2の濃度の平均値dは85.50で分散値σは650.25になる。そして、平均値dが85.50に対する割合Rは閾値テーブル20(または図4のグラフ41)から83.37%と求まり、基準閾値500にこの割合Rを乗じて閾値416.85が求まる。従って、分散値σ(650.25)>閾値(416.85)となり、微小ブロック領域B1は特徴領域と判定されて検出される。 On the other hand, as shown in FIG. 10B, the same reference is applied to the minute block region B2 having the same gradation difference as the minute block region B1 of FIG. When the threshold value is set to 500 and the feature region detection process is performed, the minute block region B2 is detected as a feature region. Specifically, the average value d of the density of the minute block region B2 is 85.50, and the variance value σ 2 is 650.25. Then, the ratio R with respect to the average value d of 85.50 is obtained as 83.37% from the threshold value table 20 (or the graph 41 in FIG. 4), and the threshold value 416.85 is obtained by multiplying the reference threshold value 500 by this ratio R. Therefore, the variance value σ 2 (650.25)> threshold value (416.85), and the minute block region B1 is determined to be a feature region and detected.

車両などの物体の輪郭部は特徴領域として検出するが、影領域の輪郭部を特徴領域として検出しないのは、上記のように、影領域の輪郭部周辺の輝度(濃度)差が物体の輪郭部周辺の輝度差に比べて緩やかであることによる。   The contour portion of an object such as a vehicle is detected as a feature region, but the contour portion of the shadow region is not detected as a feature region. As described above, the luminance (density) difference around the contour portion of the shadow region is the contour of the object. This is because it is more gradual than the luminance difference around the area.

次に、物体検出装置10が行う処理全体の流れを説明する。   Next, the overall flow of processing performed by the object detection apparatus 10 will be described.

図11は、物体検出装置10が行う物体検出処理の全体の流れを示している。まず、操作部16や外部通信部18を通じて、検知対象エリア31の設定を受け付け、カメラ5から取り込まれた画像内における該設定された検知対象エリア31の位置、形状などを不揮発メモリ19に記憶する(ステップS201)。   FIG. 11 shows the overall flow of object detection processing performed by the object detection apparatus 10. First, the setting of the detection target area 31 is received through the operation unit 16 and the external communication unit 18, and the position, shape, and the like of the set detection target area 31 in the image captured from the camera 5 are stored in the nonvolatile memory 19. (Step S201).

次に、カメラ5で背景画像を撮影し、その背景画像内の検知対象エリア31に対して図5に示す特徴領域検出処理を施して特徴領域を検出し、該検出されたすべての特徴領域の位置を比較基準箇所として不揮発メモリ19に記憶する(ステップS202)。背景画像は、車両や歩行者(人物)などの移動物体が映っていない画像である。   Next, a background image is photographed by the camera 5, and a feature region detection process shown in FIG. 5 is performed on the detection target area 31 in the background image to detect a feature region, and all the detected feature regions are detected. The position is stored in the nonvolatile memory 19 as a comparison reference location (step S202). The background image is an image in which a moving object such as a vehicle or a pedestrian (person) is not reflected.

以上の準備処理を終えた後、以下の検出動作が繰り返し行われる。詳細には、カメラ5から画像を取り込み(ステップS203)、その画像(現画像)内の検知対象エリア31に対して図5の特徴領域検出処理を施して特徴領域を検出する(ステップS204)。次に、この現画像から検出された特徴領域と背景画像から検出されて不揮発メモリ19に記憶されている特徴領域の位置(比較基準箇所)とを比較し移動物体に係わる特徴領域として抽出する(ステップS205)。たとえば、現画像から検出された特徴領域のうち比較基準箇所にない箇所のみを移動物体に係わる特徴領域として抽出する。   After the above preparation process is completed, the following detection operation is repeatedly performed. More specifically, an image is captured from the camera 5 (step S203), and the feature region detection process of FIG. 5 is performed on the detection target area 31 in the image (current image) to detect the feature region (step S204). Next, the feature area detected from the current image and the position of the feature area detected from the background image and stored in the nonvolatile memory 19 (comparison reference location) are compared and extracted as a feature area related to the moving object ( Step S205). For example, only a portion not included in the comparison reference portion among the feature regions detected from the current image is extracted as a feature region related to the moving object.

たとえば、図7(b)の検知結果では、路面に描かれた横断歩道の輪郭部が特徴領域として検出されているが、これらは背景画像にも存在するので、背景画像から抽出された特徴領域と同一箇所にある特徴領域を排除することで、車両にかかわる特徴領域のみが抽出される。   For example, in the detection result of FIG. 7B, the outline of the pedestrian crossing drawn on the road surface is detected as the feature region, but these are also present in the background image, so the feature region extracted from the background image By excluding the feature area at the same location, only the feature area related to the vehicle is extracted.

こうして抽出された特徴領域のうち、密度が予め定めた規定値以上の箇所(特徴領域が規定値以上の密度で集まって存在する箇所)に移動物体が存在すると判定する(ステップS206)。密度が低い箇所を排除することで、孤立した特徴領域などが移動物体として誤検知されることを防止して検知精度を高めている。   It is determined that a moving object is present at a location where the density is equal to or higher than a predetermined value (location where the feature regions are gathered at a density equal to or higher than the specified value) among the extracted feature regions (step S206). Eliminating locations with low density prevents isolated feature areas and the like from being erroneously detected as moving objects, thereby improving detection accuracy.

さらに移動物体が存在すると判定された箇所(規定値以上の密度で特徴領域が集まっている箇所)の大きさや形状、存在位置などからその移動物体の種類を判定する(ステップS207)。たとえば、大きさや形状から車両か、車両のヘッドライト部分か、歩行者か、その他のノイズ物体(たとえば、犬や鳥)かなどを判定する。この判定に用いられる大きさや形状のデータは予めROM13に記憶されている。また、予め画像内での車道の位置と歩道の位置とを登録しておき、検出された移動物体が車道に存在すれば車両の可能性が高いと判定し、歩道に存在すれば歩行者の可能性が高いと判定する。   Further, the type of the moving object is determined from the size, shape, location, etc. of the location where the moving object is determined to exist (location where the feature areas are gathered at a density equal to or higher than the specified value) (step S207). For example, whether the vehicle is a vehicle, a headlight portion of the vehicle, a pedestrian, or other noise object (for example, a dog or a bird) is determined from the size or shape. Data of size and shape used for this determination is stored in the ROM 13 in advance. In addition, the position of the roadway and the position of the sidewalk in the image are registered in advance, and if the detected moving object exists on the roadway, it is determined that the possibility of the vehicle is high. It is determined that the possibility is high.

このようにして影領域を誤検知することなく、車両や歩行者(人物)が検出される。以後、この検出結果から交通量などが計測されるがその処理の説明は省略する。   Thus, a vehicle or a pedestrian (person) is detected without erroneously detecting the shadow area. Thereafter, the traffic volume and the like are measured from the detection result, but the description of the processing is omitted.

以上、本発明の実施の形態を図面によって説明してきたが、具体的な構成は実施の形態に示したものに限られるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。   The embodiment of the present invention has been described with reference to the drawings. However, the specific configuration is not limited to that shown in the embodiment, and there are changes and additions within the scope of the present invention. Are also included in the present invention.

実施の形態では、微小ブロック領域Bのサイズを4画素×4画素としたが、微小ブロック領域Bのサイズはこれに限定されない。微小ブロック領域Bのサイズはその微小ブロック領域B内で濃度(輝度値)が緩やかに変化しているか急に変化しているかを分散値σから判断可能なサイズであればよい。 In the embodiment, the size of the minute block region B is 4 pixels × 4 pixels, but the size of the minute block region B is not limited to this. The size of the minute block region B may be a size that can determine from the dispersion value σ 2 whether the density (luminance value) within the minute block region B changes gently or suddenly.

すなわち、微小ブロック領域Bのサイズが大き過ぎると、その微小ブロック領域Bの中に複数の輪郭部が存在したり輪郭を有する物体の広範囲あるいは全体が含まれたりする為、輪郭部の特徴が分散値σに反映され難くなる。一方、緩やかな変化を確認するためにはある程度の領域サイズを必要とするので、微小ブロック領域Bのサイズが小さ過ぎると、濃度の変化が緩やかに生じているのか否かの判別は難しくなる。 That is, if the size of the micro block area B is too large, the micro block area B includes a plurality of contour portions or includes a wide range or the whole of an object having a contour. It becomes difficult to be reflected in the value σ 2 . On the other hand, since a certain area size is required to confirm a gradual change, if the size of the minute block area B is too small, it is difficult to determine whether or not the density change is gradual.

また、実施の形態では、ある濃度の平均値dの微小ブロック領域Bが取り得る分散値σの最大値から図4のグラフ41を求め、基準閾値に該グラフ41から求まる割合Rを乗じて閾値を算出する方法を例示したが、このような正確な計算に基づくグラフ41を使用しなくてもよい。たとえば、グラフ41に近い形状の山なりのカーブを適当に設定したり、グラフ41の形状に近い2次関数などの関数を定めておき、これらから各濃度の平均値dに対する割合Rや閾値を求めたりするように構成されてもよい。 In the embodiment, the graph 41 of FIG. 4 is obtained from the maximum value of the dispersion value σ 2 that can be taken by the minute block region B having an average value d of a certain density, and the reference threshold is multiplied by the ratio R obtained from the graph 41. Although the method of calculating the threshold is illustrated, the graph 41 based on such accurate calculation may not be used. For example, a mountain-like curve having a shape close to the graph 41 is appropriately set, or a function such as a quadratic function close to the shape of the graph 41 is set, and from these, the ratio R and the threshold value with respect to the average value d of each concentration Or may be configured to require.

実施の形態では、背景画像から検出された特徴領域と現画像から検出された特徴領域とを比較して背景画像に存在しない移動物体を検出するようにしたが、一般的に、時間的に差のある2枚の画像から検出された特徴領域を比較して、移動物体を検出するようにされてもよい。たとえば、止まっている車両と移動車両とを区別するといったことが可能になる。   In the embodiment, the feature region detected from the background image and the feature region detected from the current image are compared to detect a moving object that does not exist in the background image. A moving object may be detected by comparing feature regions detected from two images having the same. For example, it becomes possible to distinguish between a stationary vehicle and a moving vehicle.

実施の形態では影の影響を排除して車両や歩行者を検出する例を示したが、検出物体は車両や歩行者に限定されるものではない。   In the embodiment, an example in which a vehicle or a pedestrian is detected by removing the influence of a shadow has been described. However, the detected object is not limited to a vehicle or a pedestrian.

本発明の実施の形態に係わる物体検出装置の概略機能構成を示すブロック図である。It is a block diagram which shows schematic function structure of the object detection apparatus concerning embodiment of this invention. カメラで撮影した画像(検知対象エリアに車両の影のある画像)およびこの画像に特徴領域検出処理を施した結果の一例を示す説明図である。It is explanatory drawing which shows an example (the image with a shadow of a vehicle in a detection target area) image | photographed with the camera, and an example of the result of having performed the characteristic area detection process to this image. ある濃度の平均値(16および32)において濃度の分散値が最大となるパターンを例示した説明図である。It is explanatory drawing which illustrated the pattern from which the dispersion value of density | concentration becomes the maximum in the average value (16 and 32) of a certain density | concentration. 濃度の平均値に対する割合(もしくはその平均値で取り得る最大の分散値)との関係を表したグラフなどを示す説明図である。It is explanatory drawing which shows the graph etc. which represented the relationship with the ratio with respect to the average value of density | concentration (or the largest dispersion value which can be taken with the average value). 物体検出装置が行う特徴領域検出処理を示す流れ図である。It is a flowchart which shows the characteristic area | region detection process which an object detection apparatus performs. 図2(a)の画像にエッジ検出処理を施した結果を示す説明図である。It is explanatory drawing which shows the result of having performed the edge detection process to the image of Fig.2 (a). 検知対象エリアに車両が存在する画像およびこの画像に特徴領域検出処理を施した結果の一例を示す説明図である。It is explanatory drawing which shows an example of the result of having performed the characteristic area detection process to the image in which a vehicle exists in a detection target area, and this image. 道路上の黒い車両を含む画像に対して特徴領域検出処理を施した結果の一例を示す説明図である。It is explanatory drawing which shows an example of the result of having performed the characteristic area detection process with respect to the image containing the black vehicle on a road. 影領域の輪郭部の一例を拡大して示す説明図である。It is explanatory drawing which expands and shows an example of the outline part of a shadow area | region. 影領域の輪郭部のように輝度値が緩やかに変化する微小ブロック領域と輝度値が急に変化する微小ブロック領域およびそれらに対する分散値などの計算結果を対比して示す説明図である。It is explanatory drawing which compares and shows calculation results, such as a micro block area | region where a luminance value changes gently like the outline part of a shadow area | region, a micro block area | region where a luminance value changes suddenly, and those with respect to them. 物体検出装置が行う物体検出処理の全体を示す流れ図である。It is a flowchart which shows the whole object detection process which an object detection apparatus performs.

符号の説明Explanation of symbols

5…カメラ
10…物体検出装置
11…バス
12…CPU
13…ROM
14…RAM
15…カメラI/F
16…操作部
17…表示部
18…外部通信部
19…不揮発メモリ
20…閾値テーブル
31…検知対象エリア
51…トラックの影
52…車両
55…黒い車両
B、B1、B2…微小ブロック領域
5 ... Camera 10 ... Object detection device 11 ... Bus 12 ... CPU
13 ... ROM
14 ... RAM
15 ... Camera I / F
DESCRIPTION OF SYMBOLS 16 ... Operation part 17 ... Display part 18 ... External communication part 19 ... Non-volatile memory 20 ... Threshold table 31 ... Detection object area 51 ... Track shadow 52 ... Vehicle 55 ... Black vehicle B, B1, B2 ... Minute block area

Claims (8)

カメラで撮影された画像内の所定エリアを複数の微小ブロック領域に分割する領域分割手段と、
前記微小ブロック領域毎の濃度の平均値を求める平均値算出手段と、
前記微小ブロック領域毎の濃度の分散値を求める分散値算出手段と、
前記微小ブロック領域毎に、前記平均値に応じて選ばれる閾値と前記分散値とを比較し、前記分散値が前記閾値より大きい場合にその微小ブロック領域を物体の輪郭の特徴量を持つ特徴領域として検出する特徴領域検出手段と、
を有する
ことを特徴とする物体検出装置。
Area dividing means for dividing a predetermined area in an image photographed by a camera into a plurality of minute block areas;
An average value calculating means for obtaining an average value of the density for each micro block region;
Dispersion value calculating means for obtaining a dispersion value of density for each micro block region;
For each minute block region, a threshold value selected according to the average value is compared with the variance value, and when the variance value is larger than the threshold value, the minute block region is a feature region having a feature amount of an object contour A feature region detection means for detecting as,
An object detection device characterized by comprising:
前記平均値に応じて選ばれる閾値は、その平均値を持つ微小ブロック領域が取り得る前記分散値の範囲の大きさもしくはその平均値を持つ微小ブロック領域が取り得る前記分散値の最大値に応じて設定された値である
ことを特徴とする請求項1に記載の物体検出装置。
The threshold value selected according to the average value depends on the size of the range of the dispersion value that can be taken by the minute block area having the average value or the maximum value of the dispersion value that can be taken by the minute block area having the average value. The object detection device according to claim 1, wherein the object detection device is a value set by
検出された前記特徴領域の密度が基準値以上の箇所に物体が存在すると判定する判定手段を有する
ことを特徴とする請求項1または2に記載の物体検出装置。
The object detection apparatus according to claim 1, further comprising a determination unit that determines that an object is present at a location where the density of the detected feature region is equal to or greater than a reference value.
前記判定手段は、前記特徴領域が前記基準値以上の密度で存在する箇所の大きさおよびまたは画像内での位置に基づいてその物体の種類を判定する
ことを特徴とする請求項3に記載の物体検出装置。
The said determination means determines the kind of the object based on the magnitude | size of the location where the said characteristic area exists in the density more than the said reference value, and / or the position in an image. Object detection device.
第1の画像から検出された前記特徴領域と、前記第1の画像と同一範囲を異なる時間に撮影した第2の画像から検出された前記特徴領域との比較から移動物体を抽出する
ことを特徴とする請求項1乃至4のいずれか1つに記載の物体検出装置。
A moving object is extracted from a comparison between the feature region detected from the first image and the feature region detected from the second image obtained by photographing the same range as the first image at different times. The object detection device according to any one of claims 1 to 4.
前記閾値は、物体の輪郭部は前記特徴領域として検出され、かつ、物体の影とその周囲との境界部は前記特徴領域として検出されない値に設定される
ことを特徴とする請求項1乃至5のいずれか1つに記載の物体検出装置。
The threshold value is set to a value at which a contour portion of an object is detected as the feature region, and a boundary portion between the shadow of the object and its surroundings is not detected as the feature region. The object detection apparatus according to any one of the above.
カメラで撮影された画像内の所定エリアを複数の微小ブロック領域に分割し、
前記微小ブロック領域毎の濃度の平均値を求め、
前記微小ブロック領域毎の濃度の分散値を求め、
前記微小ブロック領域毎に、前記平均値に応じて選ばれる閾値と前記分散値とを比較し、前記分散値が前記閾値より大きい場合にその微小ブロック領域を物体の輪郭の特徴量を持つ特徴領域として検出する
ことを特徴とする物体検出方法。
Dividing a predetermined area in an image taken with a camera into a plurality of micro block areas,
Obtain the average value of the density for each micro block region,
Obtain the dispersion value of the density for each micro block region,
For each minute block region, a threshold value selected according to the average value is compared with the variance value, and when the variance value is larger than the threshold value, the minute block region is a feature region having a feature amount of an object contour The object detection method characterized by detecting as.
前記平均値に応じて選ばれる閾値は、その平均値を持つ微小ブロック領域が取り得る前記分散値の範囲の大きさもしくはその平均値を持つ微小ブロック領域が取り得る前記分散値の最大値に応じて設定された値である
ことを特徴とする請求項7に記載の物体検出方法。
The threshold value selected according to the average value depends on the size of the range of the dispersion value that can be taken by the minute block area having the average value or the maximum value of the dispersion value that can be taken by the minute block area having the average value. The object detection method according to claim 7, wherein the object detection method is a set value.
JP2007230477A 2007-09-05 2007-09-05 Object detection apparatus and object detection method Active JP5019375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007230477A JP5019375B2 (en) 2007-09-05 2007-09-05 Object detection apparatus and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007230477A JP5019375B2 (en) 2007-09-05 2007-09-05 Object detection apparatus and object detection method

Publications (2)

Publication Number Publication Date
JP2009064175A true JP2009064175A (en) 2009-03-26
JP5019375B2 JP5019375B2 (en) 2012-09-05

Family

ID=40558718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007230477A Active JP5019375B2 (en) 2007-09-05 2007-09-05 Object detection apparatus and object detection method

Country Status (1)

Country Link
JP (1) JP5019375B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105611674A (en) * 2016-02-04 2016-05-25 张宏业 Adaptive control cabinet for LED street lamps
CN105632226A (en) * 2016-03-27 2016-06-01 无锡智谷锐拓技术服务有限公司 Control box-based bus scheduling control method
CN105654726A (en) * 2016-03-27 2016-06-08 无锡智谷锐拓技术服务有限公司 Taxi information issuing platform based on distribution box
CN105679054A (en) * 2016-03-27 2016-06-15 无锡智谷锐拓技术服务有限公司 Taxi guidance system based on control box
CN105679033A (en) * 2016-03-27 2016-06-15 无锡智谷锐拓技术服务有限公司 Bus regulation power distribution cabinet
CN105679034A (en) * 2016-03-27 2016-06-15 无锡智谷锐拓技术服务有限公司 Passenger flow statistics control cabinet
CN105844909A (en) * 2016-02-04 2016-08-10 彭冬青 Electric shock prevention distribution box
CN105844910A (en) * 2016-02-04 2016-08-10 邢丽丽 Electrical alternating current control box for distribution automation station
CN105844911A (en) * 2016-02-04 2016-08-10 邢丽丽 Power distribution network control cabinet
CN105847741A (en) * 2016-02-04 2016-08-10 邢丽丽 Low-voltage user load control cabinet
CN105844918A (en) * 2016-02-04 2016-08-10 邢丽丽 Multifunctional power distribution control box
CN105844908A (en) * 2016-02-04 2016-08-10 弓保成 Lightning protection power distribution cabinet
JP6980887B1 (en) * 2020-10-23 2021-12-15 Pciソリューションズ株式会社 Mobile detection system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195461A (en) * 1992-12-25 1994-07-15 Sony Corp Image processor
JPH0967954A (en) * 1995-08-30 1997-03-11 Sharp Corp Method and device for recognizing empty place of parking area
JP2003217099A (en) * 2002-01-23 2003-07-31 Mitsubishi Electric Corp On-vehicle surrounding monitoring device
JP2005209097A (en) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp Vehicle detection device
JP2006023242A (en) * 2004-07-09 2006-01-26 Nissan Motor Co Ltd Object detecting device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195461A (en) * 1992-12-25 1994-07-15 Sony Corp Image processor
JPH0967954A (en) * 1995-08-30 1997-03-11 Sharp Corp Method and device for recognizing empty place of parking area
JP2003217099A (en) * 2002-01-23 2003-07-31 Mitsubishi Electric Corp On-vehicle surrounding monitoring device
JP2005209097A (en) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp Vehicle detection device
JP2006023242A (en) * 2004-07-09 2006-01-26 Nissan Motor Co Ltd Object detecting device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105847741A (en) * 2016-02-04 2016-08-10 邢丽丽 Low-voltage user load control cabinet
CN105844909A (en) * 2016-02-04 2016-08-10 彭冬青 Electric shock prevention distribution box
CN105844910A (en) * 2016-02-04 2016-08-10 邢丽丽 Electrical alternating current control box for distribution automation station
CN105844911A (en) * 2016-02-04 2016-08-10 邢丽丽 Power distribution network control cabinet
CN105611674A (en) * 2016-02-04 2016-05-25 张宏业 Adaptive control cabinet for LED street lamps
CN105844918A (en) * 2016-02-04 2016-08-10 邢丽丽 Multifunctional power distribution control box
CN105844908A (en) * 2016-02-04 2016-08-10 弓保成 Lightning protection power distribution cabinet
CN105632226A (en) * 2016-03-27 2016-06-01 无锡智谷锐拓技术服务有限公司 Control box-based bus scheduling control method
CN105654726A (en) * 2016-03-27 2016-06-08 无锡智谷锐拓技术服务有限公司 Taxi information issuing platform based on distribution box
CN105679054A (en) * 2016-03-27 2016-06-15 无锡智谷锐拓技术服务有限公司 Taxi guidance system based on control box
CN105679033A (en) * 2016-03-27 2016-06-15 无锡智谷锐拓技术服务有限公司 Bus regulation power distribution cabinet
CN105679034A (en) * 2016-03-27 2016-06-15 无锡智谷锐拓技术服务有限公司 Passenger flow statistics control cabinet
JP6980887B1 (en) * 2020-10-23 2021-12-15 Pciソリューションズ株式会社 Mobile detection system

Also Published As

Publication number Publication date
JP5019375B2 (en) 2012-09-05

Similar Documents

Publication Publication Date Title
JP5019375B2 (en) Object detection apparatus and object detection method
US20180204057A1 (en) Object detection method and object detection apparatus
JP5815910B2 (en) Methods, systems, products, and computer programs for multi-queue object detection and analysis (multi-queue object detection and analysis)
JP4567630B2 (en) Vehicle type identification program and vehicle type identification device
RU2484531C2 (en) Apparatus for processing video information of security alarm system
JP5223675B2 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
CN101599175B (en) Detection method for determining alteration of shooting background and image processing device
JP2008286725A (en) Person detector and detection method
CN111275036A (en) Target detection method, target detection device, electronic equipment and computer-readable storage medium
CN109478329A (en) Image processing method and device
KR20210097782A (en) Indicator light detection method, apparatus, device and computer-readable recording medium
Zhang et al. Counting vehicles in urban traffic scenes using foreground time‐spatial images
JP5983729B2 (en) White line detection device, white line detection filter device, and white line detection method
EP2821935A2 (en) Vehicle detection method and device
CN114898161A (en) Method and device for detecting dirt of camera and electronic equipment
Fathy et al. A window-based edge detection technique for measuring road traffic parameters in real-time
JP6432296B2 (en) Device and method for detecting zebra crossings in images
JP2021052238A (en) Deposit detection device and deposit detection method
US20210089818A1 (en) Deposit detection device and deposit detection method
CN113508395B (en) Method and device for detecting objects in an image composed of pixels
CN114757888A (en) Windshield dirt detection method based on textural features
JP2020109594A (en) Attachment detection device and attachment detection method
JP2001126192A (en) Method for judging parked or vacancy state in parking space of parking lot
Bachtiar et al. Parking management by means of computer vision
JPH1166490A (en) Vehicle detecting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120606

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120606

R150 Certificate of patent or registration of utility model

Ref document number: 5019375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250