JP2002366932A - Device and method for detecting object - Google Patents

Device and method for detecting object

Info

Publication number
JP2002366932A
JP2002366932A JP2001175968A JP2001175968A JP2002366932A JP 2002366932 A JP2002366932 A JP 2002366932A JP 2001175968 A JP2001175968 A JP 2001175968A JP 2001175968 A JP2001175968 A JP 2001175968A JP 2002366932 A JP2002366932 A JP 2002366932A
Authority
JP
Japan
Prior art keywords
image
projection
reliability
area
residual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001175968A
Other languages
Japanese (ja)
Other versions
JP3808727B2 (en
Inventor
Hisashi Kazama
久 風間
Kyoichi Okamoto
恭一 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001175968A priority Critical patent/JP3808727B2/en
Publication of JP2002366932A publication Critical patent/JP2002366932A/en
Application granted granted Critical
Publication of JP3808727B2 publication Critical patent/JP3808727B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device that surely detects a high object by applying a method for photographing a monitoring range with two cameras, performing projection conversion so as to make the position of pixels on a reference plane of one image equal to the position of pixels on a reference plane of the other and detecting an area having height with respect to the reference plane. SOLUTION: An object detecting device 10 consists of two image inputting parts 12 and 14, a reference image generating part 16, a projection conversion image generating part 18, an image comparing part 20, a reliability image generating part 22, a mask image storing part 24 and an object structure detecting 26, decides the existence (existence/non-existence) of an object by using information of an area having high responsibility in such a manner that a projection difference image is converted into a multi-level reliability image to be utilized, and prevents an error of a detection position with respect to an object position in such a manner that information of an area having low reliability and the information of an area having high reliability are combined to be utilized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ステレオカメラで
撮影した画像を処理する画像処理装置に関し、例えば、
3次元距離測定、3次元物体再構成、3次元物体認識、
交通監視システム、侵入者監視システム、車載カメラを
用いた前方・後方・側方の障害物検出装置などの様々な
画像処理装置及びその方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for processing an image photographed by a stereo camera.
3D distance measurement, 3D object reconstruction, 3D object recognition,
The present invention relates to various image processing apparatuses such as a traffic monitoring system, an intruder monitoring system, and a front / rear / side obstacle detection apparatus using an in-vehicle camera, and a method thereof.

【0002】[0002]

【従来の技術】ステレオ画像を入力とし、3次元計測や
3次元物体認識、交通監視、侵入者監視、人物の移動軌
跡解析、前方障害物検出などを行う様々な画像処理手法
が提案されている。
2. Description of the Related Art Various image processing methods have been proposed which take a stereo image as input, and perform three-dimensional measurement, three-dimensional object recognition, traffic monitoring, intruder monitoring, analysis of a moving trajectory of a person, detection of an obstacle ahead, and the like. .

【0003】交通監視のための画像処理や、自動車に搭
載したカメラを用いた前方障害物検出などの問題は、
「路面のような平面状の背景の中に存在する高さのある
物体の検出」と定式化することができる。
Problems such as image processing for traffic monitoring and detection of a forward obstacle using a camera mounted on an automobile are as follows.
It can be formulated as “detection of a tall object existing in a planar background such as a road surface”.

【0004】この問題に対して、文献1(小野口一則:
特開平11−328365号の「画像監視装置及びその
方法」)のように、まず路面を基準面と定め、2つのカ
メラで監視範囲を撮影し、一方の画像の基準面の画素の
位置が他方の画像の基準面の画素の位置に等しくなるよ
うに投影変換し、2つの画像の比較をすることで、基準
面に対して高さのある領域を検出する方法が提案されて
いる。
In response to this problem, reference 1 (Kazunori Onoguchi:
As described in Japanese Patent Application Laid-Open No. H11-328365, "image surveillance apparatus and method"), first, a road surface is set as a reference plane, and a monitoring range is photographed by two cameras. A method has been proposed in which a region having a height relative to the reference plane is detected by projecting and transforming the image so as to be equal to the position of a pixel on the reference plane of the image and comparing the two images.

【0005】さらに、文献1の方法を詳しく説明する。[0005] Further, the method of Reference 1 will be described in detail.

【0006】まず、第2のカメラで撮影された画像の道
路平面が、第2のカメラの画像の道路平面に一致するよ
うに、第1のカメラで撮影された画像を投影変換する。
First, the image photographed by the first camera is projected and transformed so that the road plane of the image photographed by the second camera coincides with the road plane of the image photographed by the second camera.

【0007】次に、投影変換によって道路面の位置が一
致した2つの画像の差分をとる。すると道路面上の領
域、もしくは道路面に対して高さのない領域(例えば、
影や、白線など)は、位置が一致するので、物体の像は
輝度が相殺して残差が0になる。一方、道路面に対して
高さのある物体の像は位置がずれるので、残差が現れ
る。
Next, the difference between the two images whose road surface positions match by projection transformation is calculated. Then, an area on the road surface or an area without height relative to the road surface (for example,
Since the positions of shadows, white lines, and the like match, the luminance of the image of the object is canceled out and the residual becomes zero. On the other hand, an image of an object having a height with respect to the road surface is displaced, so that a residual appears.

【0008】そして、この差分画像を2値化すると、高
さのある領域だけが残差として現れる。
When this difference image is binarized, only a region having a height appears as a residual.

【0009】しかしながら、この文献1の方法を、実際
の環境で撮影した画像に対して適用すると、残差領域に
は、高さのある領域だけでなく、いくらかの誤差領域が
含まれてしまう。誤差領域が含まれると、その誤差領域
を高さのある領域と誤認識することになる。その結果、
交通監視システムも、前方障害物検出も誤認識が発生し
てしまう。
[0009] However, when the method of Reference 1 is applied to an image photographed in an actual environment, the residual region includes not only a region having a height but also some error regions. When an error region is included, the error region is erroneously recognized as a region having a height. as a result,
False recognition occurs in both the traffic monitoring system and the detection of obstacles ahead.

【0010】この誤差領域が発生する理由は、投影変換
係数の誤差や、レンズの歪や、路面が厳密に平面状では
なく俵型をしていることなどによって起こる。理想的に
は投影変換によって完全に一致するはずの路面上の点
が、これらの原因によって微小にずれることによって誤
差領域が現れる。微小なずれがあると、例えば白線の輪
郭線や、建物の影の輪郭線や、車両の影の輪郭線など
に、誤差領域が現れる。
[0010] The reason for the occurrence of this error region is caused by an error in the projection conversion coefficient, distortion of the lens, or the fact that the road surface is not strictly flat but has a bale shape. Ideally, points on the road surface that should be perfectly matched by the projection transformation are slightly shifted due to these causes, and an error region appears. If there is a slight shift, an error region appears in, for example, the outline of a white line, the outline of a shadow of a building, or the outline of a shadow of a vehicle.

【0011】この誤差領域を除去するために、例えば小
さな残差領域や、細長い残差領域を除去する方法を用い
ることが可能である。あるいは、画像を小さなブロック
に分割し、小さなブロックを微小にずらしながら最も残
差が小さくなる位置を求めて、微小な位置ずれを補償す
る方法を用いることが可能である。
In order to remove the error region, it is possible to use, for example, a method for removing a small residual region or an elongated residual region. Alternatively, it is possible to use a method of dividing the image into small blocks, finely shifting the small blocks, finding the position where the residual is minimized, and compensating for the small positional deviation.

【0012】しかしながら、このような誤差領域の整理
を行うと、誤差領域だけでなく、同時に必要な残差領域
の一部を除去してしまう問題が発生する。例えば交通監
視システムに文献1の方法を適用すると、テクスチャが
乏しく暗いトラックの背面や天井面などは、投影変換し
た画像と元の画像で変化が少ないので、残差が現れにく
く検出が難しい。そこに誤差領域の除去処理を施すと、
このような残差の現れにくい領域が、誤差領域の除去と
同時に削除されてしまい、検出漏れを起こす場合があ
る。
However, when such error regions are arranged, there arises a problem that not only the error region but also a part of a necessary residual region is removed at the same time. For example, when the method of Reference 1 is applied to a traffic monitoring system, the rear surface and the ceiling surface of a dark truck with poor texture have little change between the projected and converted image and the original image. When error region removal processing is performed there,
An area where such a residual hardly appears is deleted at the same time as the removal of the error area, which may cause detection omission.

【0013】このように、誤差領域を含んだ残差画像で
は、誤差領域を高さのある物体と誤認識してしまう問題
や、誤差領域に影響されて物体の検出位置を誤る問題が
ある。
As described above, in the residual image including the error region, there is a problem that the error region is erroneously recognized as an object having a height and a problem that the detection position of the object is erroneously affected by the error region.

【0014】一方、誤差領域を削除した残差画像では、
残差の現れにくい障害物や監視対象の認識漏れを起こし
たり、必要な誤差領域の一部が欠落するために検出位置
を誤る問題がある。
On the other hand, in the residual image from which the error region has been deleted,
There is a problem that an obstacle where a residual does not easily appear or a target to be monitored is missed, or a part of a necessary error area is missing, so that a detection position is erroneously detected.

【0015】[0015]

【発明が解決しようとする課題】以上説明したように、
監視範囲内に基準面を定め、2つのカメラで監視範囲を
撮影し、一方の画像の基準面の画素の位置が他方の画像
の基準面の画素の位置に等しくなるように投影変換し
て、基準面に対して高さのある領域を検出する方法で
は、投影変換係数の誤差やレンズ歪や基準面が厳密に平
面でないために、誤差領域が表れる問題がある。
As described above,
A reference plane is defined within the monitoring range, the monitoring range is photographed by two cameras, and the projection is transformed so that the position of the pixel on the reference plane of one image is equal to the position of the pixel on the reference plane of the other image. In the method of detecting a region having a height relative to the reference plane, there is a problem that an error region appears due to an error in a projection conversion coefficient, lens distortion, or the strictness of the reference plane.

【0016】誤差領域が存在すると、誤差領域を高さの
ある物体と誤認識してしまう問題や、検出位置を誤る問
題がある。
If an error region exists, there is a problem that the error region is erroneously recognized as an object having a height, and a problem that the detection position is wrong.

【0017】また、誤差領域を削除すると、一部の障害
物や監視対象の認識漏れを起こしたり、検出位置を誤る
問題がある。
Further, when the error region is deleted, there is a problem that some obstacles or monitoring targets are missed, or the detection position is incorrect.

【0018】そこで、本発明は、監視範囲内に基準面を
定め、2つのカメラで監視範囲を撮影し、一方の画像の
基準面の画素の位置が他方の画像の基準面の画素の位置
に等しくなるように投影変換して、基準面に対して高さ
のある領域を検出する方法を適用して確実に高さのある
物体を検出する物体検出装置、及び、その方法を提供す
る。
Therefore, according to the present invention, a reference plane is defined within a monitoring range, the monitoring range is photographed by two cameras, and the position of the pixel on the reference plane of one image is set to the position of the pixel on the reference plane of the other image. Provided is an object detection device that reliably detects a tall object by applying a method of projecting and transforming to be equal and detecting a region having a height with respect to a reference plane, and a method thereof.

【0019】[0019]

【課題を解決するための手段】請求項1の発明は、共通
の視野を有した基準画像と比較画像とから、前記両画像
の共通の背景を構成する基準平面に対し高さのある物体
を検出する物体検出装置において、前記基準画像と前記
比較画像が、それぞれ入力する一対の画像入力手段と、
前記基準平面を基準にして前記比較画像中の画素の位置
を前記基準画像中の対応する画素の位置に投影変換して
投影変換画像を生成する投影変換手段と、前記投影変換
された投影変換画像と前記基準画像から、前記物体の領
域が残差として表れる投影差分画像を生成する画像比較
手段と、前記投影差分画像に基づいて、前記物体の検出
を行うときの信頼度を示す3以上の多値の画素から構成
された信頼度画像を生成する信頼度画像生成手段と、前
記信頼度画像の多値の画素の情報に基づいて前記物体の
有無、種類、または、位置を検出する物体構造検出手段
とを具備したことを特徴とする物体検出装置である。
According to a first aspect of the present invention, an object having a height relative to a reference plane constituting a common background of both images is obtained from a reference image having a common field of view and a comparative image. In the object detection device to detect, the reference image and the comparison image, a pair of image input means to input respectively,
Projection conversion means for projecting and converting a position of a pixel in the comparison image to a position of a corresponding pixel in the reference image with reference to the reference plane to generate a projection conversion image; Image comparison means for generating, from the reference image and the reference image, a projection difference image in which the region of the object appears as a residual; and three or more multiplicity indicating reliability when the object is detected based on the projection difference image. A reliability image generating means for generating a reliability image composed of pixels of a value, and an object structure detection for detecting presence / absence, type, or position of the object based on information of multi-valued pixels of the reliability image And an object detection device.

【0020】請求項2の発明は、前記信頼度画像生成手
段において、前記多値の画素は、高さの無い領域を表す
クラス、高さがあることの信頼度が低い領域を表すクラ
ス、高さがあることの信頼度が高い領域を表すクラスの
少なくとも3種類にクラス分けされていることを特徴と
する請求項1記載の物体検出装置である。
According to a second aspect of the present invention, in the reliability image generating means, the multi-valued pixel is a class representing a region having no height, a class representing a region having low reliability of having a height, 2. The object detection device according to claim 1, wherein the object detection device is classified into at least three types of classes representing regions having high reliability of existence.

【0021】請求項3の発明は、前記多値の画素は、さ
らに、前記物体の検出処理における適用外を表すクラス
にもクラス分けされていることを特徴とする請求項2記
載の物体検出装置である。
According to a third aspect of the present invention, the multi-valued pixel is further classified into a class representing a non-applicability in the object detection processing. It is.

【0022】請求項4の発明は、前記物体構造検出手段
において、前記物体の有無は、信頼度の高い領域を表す
クラスの情報を利用して判断し、前記物体の位置は、信
頼度の高い領域を表すクラスの情報と信頼度の低い領域
を表すクラスの情報を同時に利用して判断することを特
徴とする請求項1記載の物体検出装置である。
According to a fourth aspect of the present invention, in the object structure detecting means, the presence / absence of the object is determined by using information of a class representing a region with high reliability, and the position of the object is determined with high reliability. 2. The object detecting apparatus according to claim 1, wherein the determination is performed by simultaneously using the information of the class representing the region and the information of the class representing the region with low reliability.

【0023】請求項5の発明は、前記物体構造検出手段
において、前記投影差分画像に表れることが予想される
前記物体の投影像モデルを前記信頼度画像へマッチング
させて、前記信頼度画像における前記物体の有無、種
類、または、位置を検出することを特徴とする請求項1
記載の物体検出装置である。
According to a fifth aspect of the present invention, in the object structure detecting means, a projection image model of the object expected to appear in the projection difference image is matched with the reliability image, and 2. The method according to claim 1, wherein the presence, the type, or the position of the object is detected.
An object detection device according to any one of the preceding claims.

【0024】請求項6の発明は、前記物体構造検出手段
において、前記投影差分画像に表れることが予想される
前記物体の投影像モデルを前記信頼度画像へマッチング
させたときに、前記投影像モデルと前記信頼度画像の前
記クラス分けされた画素の領域と重なった部分における
前記クラス分けされた画素の数をそれぞれカウントし
て、前記各クラスのカウント数に基づいて、前記物体の
有無、種類、または、位置を判断することを特徴とする
請求項2記載の物体検出装置である。
According to a sixth aspect of the present invention, when the object structure detecting means matches a projection image model of the object expected to appear in the projection difference image with the reliability image, the projection image model And counting the number of the classified pixels in a portion overlapping the area of the classified pixels of the reliability image, based on the count number of each class, the presence or absence of the object, the type, 3. The object detecting device according to claim 2, wherein the position is determined.

【0025】請求項7の発明は、前記物体構造検出手段
において、前記投影像モデルは、上部領域、下部領域、
後方の隣接領域から少なくとも構成され、前記下部領域
と前記各クラスのカウント数に基づいて前記物体の有無
を判断し、前記後方の隣接領域と各クラスのカウント数
に基づいて前記物体の位置を判断することを特徴とする
請求項5記載の物体検出装置である。
According to a seventh aspect of the present invention, in the object structure detecting means, the projection image model includes an upper area, a lower area,
It is configured of at least a rear adjacent area, and determines the presence or absence of the object based on the lower area and the count number of each class, and determines the position of the object based on the rear adjacent area and the count number of each class. The object detection device according to claim 5, wherein

【0026】請求項8の発明は、共通の視野を有した基
準画像と比較画像とから、前記両画像の共通の背景を構
成する基準平面に対し高さのある物体を検出する物体検
出方法において、前記基準画像と前記比較画像が、それ
ぞれ入力する一対の画像入力ステップと、前記基準平面
を基準にして前記比較画像中の画素の位置を前記基準画
像中の対応する画素の位置に投影変換して投影変換画像
を生成する投影変換ステップと、前記投影変換された投
影変換画像と前記基準画像から、前記物体の領域が残差
として表れる投影差分画像を生成する画像比較ステップ
と、前記投影差分画像に基づいて、前記物体の検出を行
うときの信頼度を示す3以上の多値の画素から構成され
た信頼度画像を生成する信頼度画像生成ステップと、前
記信頼度画像の多値の画素の情報に基づいて前記物体の
有無、種類、または、位置を検出する物体構造検出ステ
ップとを具備した物体検出方法である。
According to an eighth aspect of the present invention, there is provided an object detection method for detecting, from a reference image and a comparison image having a common field of view, an object having a height with respect to a reference plane constituting a common background of the two images. A pair of image input steps for inputting the reference image and the comparison image, respectively, and projecting and converting the positions of the pixels in the comparison image to the positions of the corresponding pixels in the reference image with reference to the reference plane. A projection conversion step of generating a projection conversion image by using the projection conversion image and the reference image, an image comparison step of generating a projection difference image in which the region of the object appears as a residual from the projection conversion image and the reference image, and the projection difference image A reliability image generation step of generating a reliability image composed of three or more multi-valued pixels indicating the reliability at the time of detecting the object based on the reliability image; Presence of the object based on the information of the pixel, types, or a object detection method and a object structure detection step for detecting a position.

【0027】請求項9の発明は、共通の視野を有した基
準画像と比較画像とから、前記両画像の共通の背景を構
成する基準平面に対し高さのある物体を検出する物体検
出方法をコンピュータによって実現するプログラムにお
いて、前記基準画像と前記比較画像が、それぞれ入力す
る一対の画像入力機能と、前記基準平面を基準にして前
記比較画像中の画素の位置を前記基準画像中の対応する
画素の位置に投影変換して投影変換画像を生成する投影
変換機能と、前記投影変換された投影変換画像と前記基
準画像から、前記物体の領域が残差として表れる投影差
分画像を生成する画像比較機能と、前記投影差分画像に
基づいて、前記物体の検出を行うときの信頼度を示す3
以上の多値の画素から構成された信頼度画像を生成する
信頼度画像生成機能と、前記信頼度画像の多値の画素の
情報に基づいて前記物体の有無、種類、または、位置を
検出する物体構造検出機能とをコンピュータによって実
現することを特徴とする物体検出方法のプログラムであ
る。
According to a ninth aspect of the present invention, there is provided an object detection method for detecting, from a reference image having a common field of view and a comparison image, an object having a height with respect to a reference plane constituting a common background of the two images. In a program realized by a computer, the reference image and the comparison image are respectively input to a pair of image input functions, and a position of a pixel in the comparison image with respect to the reference plane is set to a corresponding pixel in the reference image. A projection conversion function of generating a projection conversion image by performing projection conversion to a position of an image, and an image comparison function of generating a projection difference image in which the region of the object appears as a residual from the projection-converted projection conversion image and the reference image. And 3 indicating the reliability at the time of detecting the object based on the projection difference image.
A reliability image generation function of generating a reliability image composed of the above-described multi-valued pixels, and detecting presence / absence, type, or position of the object based on information of the multi-valued pixels of the reliability image. A program for an object detection method, wherein the object structure detection function is realized by a computer.

【0028】本発明では、投影変換された比較画像と基
準画像を比較する際に、2つの画像の差分画像を2値化
して処理するのでなく、差分画像を多値の信頼度画像に
変換して処理する。
According to the present invention, when comparing the projection-converted comparative image with the reference image, the differential image of the two images is converted into a multi-valued reliability image instead of being binarized and processed. Process.

【0029】この結果、例えば、差分画像の2値化によ
り得られた領域の情報と、誤差領域を削除しても残った
領域の情報を、1つの画像として同時に処理することが
できるようになった。また、多値化することで、マスキ
ング処理など他の処理を施した画素に異なる画素値を付
与することができるようになった。このように、1つの
画像に同時に沢山の情報を統合することが可能になっ
た。
As a result, for example, the information on the area obtained by binarizing the difference image and the information on the area remaining after the error area has been deleted can be processed simultaneously as one image. Was. Further, by performing multi-value processing, different pixel values can be given to pixels that have been subjected to other processing such as masking processing. Thus, it has become possible to integrate a lot of information into one image at the same time.

【0030】多値の信頼度画像を利用することで、物体
の存在性(有無)は「高さがあることの信頼度の高い領
域」の情報を用いて判定することができ、高さがあるこ
との信頼度の低い領域を物体と誤認識することが無くな
る。
By using the multi-valued reliability image, the existence (presence / absence) of the object can be determined by using the information of the “region where the reliability of presence of the object is high”. It is possible to prevent an area having a low degree of certainty from being erroneously recognized as an object.

【0031】高さがあることの信頼度の低い領域の情報
であっても、高さのあることの信頼度の高い領域を内部
に含むことや、高さのあることの信頼度の高い領域の連
続性などを判断することで、残差の表れにくい対象であ
っても、検出漏れを防ぐことができる。
[0031] Even in the case of information on an area having a high reliability with a high height, a region having a high reliability with a height is included in an area, and an area with a high reliability having a height is included. By judging the continuity of the target, it is possible to prevent detection omission even for a target in which a residual hardly appears.

【0032】物体の位置の検出は、高さがあることの信
頼度の低い領域の情報と、高さがあることの信頼度の高
い情報を合わせて利用することで、検出位置の誤りを防
ぐことができる。
The detection of the position of the object is prevented by using the information of the area of low reliability of the presence of the height and the information of the reliability of the presence of the height in combination. be able to.

【0033】以上により、監視範囲に存在する物体の存
在性(有無)の判断を正しくすることができ、物体の位
置の検出精度も高めることができる。
As described above, it is possible to correctly determine the existence (presence or absence) of an object existing in the monitoring range, and it is possible to enhance the detection accuracy of the position of the object.

【0034】この結果を利用することで、車載カメラか
らの前方障害物検出の性能を向上させることが可能にな
り、また、交通監視システムや侵入者監視システムなど
の物体検出の性能を高めることが可能になる。
By utilizing this result, it is possible to improve the performance of detecting an obstacle ahead of a vehicle-mounted camera, and to improve the performance of detecting an object such as a traffic monitoring system or an intruder monitoring system. Will be possible.

【0035】[0035]

【発明の実施の形態】以下、本発明の一実施形態を図面
に基づいて説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings.

【0036】(実施例1)図1は、本発明の一実施例を
示す物体検出装置10の基本構成図である。
(Embodiment 1) FIG. 1 is a basic configuration diagram of an object detection apparatus 10 showing an embodiment of the present invention.

【0037】図3は、物体検出装置10の実施される形
態の1つである、交通監視システム模式図である。図5
は、実施例1の入力画像及びその処理過程における画像
を示している。
FIG. 3 is a schematic diagram of a traffic monitoring system, which is one of the embodiments of the object detecting device 10. FIG.
Shows an input image of the first embodiment and an image in the process of processing.

【0038】図1に示すように、物体検出装置10は、
2つの画像入力部12、14、基準画像生成部16、投
影変換画像生成部18、画像比較部20、信頼度画像生
成部22、マスク画像記憶部24、物体構造検出部26
から構成されている。なお。これら各装置は、コンピュ
ータに記憶されたプログラムによって下記で説明する機
能を実現する。
As shown in FIG. 1, the object detection device 10
Two image input units 12, 14, a reference image generation unit 16, a projection conversion image generation unit 18, an image comparison unit 20, a reliability image generation unit 22, a mask image storage unit 24, and an object structure detection unit 26
It is composed of In addition. Each of these devices realizes functions described below by a program stored in a computer.

【0039】これら各装置の機能の概略を段階に分けて
説明する。
The outline of the function of each of these devices will be described step by step.

【0040】画像入力部12、14、基準画像生成部1
6、投影変換画像生成部18、画像比較部20が、平面
投影ステレオ法によって投影差分画像や残差画像を生成
する(第一段階の処理)。
Image input units 12 and 14, reference image generation unit 1
6. The projection conversion image generation unit 18 and the image comparison unit 20 generate a projection difference image or a residual image by the planar projection stereo method (first-stage processing).

【0041】信頼度画像生成部22、マスク画像記憶部
24は、信頼度画像を生成する(第二段階の処理)。
The reliability image generation unit 22 and the mask image storage unit 24 generate a reliability image (second stage processing).

【0042】物体構造検出部26は、マッチング処理に
よって車両を検出する(第三段階の処理)。
The object structure detecting section 26 detects a vehicle by a matching process (third stage process).

【0043】(1)第一段階の処理 (1−1)各装置の役割 上記したように、第一段階の処理は、平面投影ステレオ
法によって投影差分画像や残差画像を生成する。
(1) First-Step Processing (1-1) Role of Each Device As described above, the first-step processing generates a projection difference image or a residual image by the planar projection stereo method.

【0044】画像入力部12,14は、図3に示すよう
に、道路をまたぐように設置された枠体に固定された2
台のカメラから画像がそれぞれ入力する。
As shown in FIG. 3, the image input units 12 and 14 are fixed to a frame installed over a road.
Images are input from each of the cameras.

【0045】基準画像生成部16は、左カメラに接続さ
れた画像入力部12から画像データが入力して、この画
像を基準画像とする。この基準画像は、平面投影ステレ
オ法に用いられる。
The reference image generator 16 receives image data from the image input unit 12 connected to the left camera, and uses this image as a reference image. This reference image is used for the planar projection stereo method.

【0046】投影変換画像生成部18は、右カメラに接
続された画像入力部14から画像データが入力して、こ
の画像から平面投影ステレオ法に用いられる投影変換画
像を生成する。
The projection conversion image generation unit 18 receives image data from the image input unit 14 connected to the right camera, and generates a projection conversion image from this image for use in the planar projection stereo method.

【0047】画像比較部20は、基準画像、投影変換画
像を用いて、下記で説明する平面投影ステレオ法によっ
て投影差分画像や残差画像を生成する。
The image comparing section 20 generates a projection difference image and a residual image by using the reference image and the projection conversion image by the planar projection stereo method described below.

【0048】(1−2)平面投影ステレオ法の説明 まず、本発明で用いる重要な原理である「平面投影ステ
レオ法」について説明する。
(1-2) Description of Planar Projection Stereo Method First, the "planar projection stereo method" which is an important principle used in the present invention will be described.

【0049】図3のように、カメラ2台を視差がつくよ
うに横に配置して固定カメラ系を構成する。片方を基準
画像(図5:上段左)、他方を比較画像(図5:上段
右)とする。本実施例では、左カメラの映像を基準画像
とし、右カメラの映像を比較画像とする。
As shown in FIG. 3, a fixed camera system is constructed by arranging two cameras side by side so as to obtain parallax. One is a reference image (FIG. 5: upper left), and the other is a comparative image (FIG. 5: upper right). In this embodiment, the image of the left camera is used as a reference image, and the image of the right camera is used as a comparison image.

【0050】カメラの投影関係を図4とする。このと
き、それぞれのカメラの投影関係は斉次座標系を用いて
以下の式で表される。
FIG. 4 shows the projection relationship of the camera. At this time, the projection relationship of each camera is expressed by the following equation using a homogeneous coordinate system.

【0051】[0051]

【数1】 (Equation 1)

【数2】 (2)式の変換行列Tは、路面上の対応点の座標をサン
プルし最小二乗法を用いて解く事ができる。変換行列T
は2つのカメラ間の相対位置によって決まる。交通監視
システムの様な監視を目的としたシステムではカメラ位
置が固定されるので、この変換行列Tも固定されてい
る。また、車載画像処理システムの場合でも2つのカメ
ラ間は固定されているので、変換行列Tも固定されてい
る。従って、変換行列Tはカメラ設置時に求めておけば
よい。
(Equation 2) The transformation matrix T of the equation (2) can be solved by sampling the coordinates of the corresponding point on the road surface and using the least squares method. Transformation matrix T
Is determined by the relative position between the two cameras. In a system for monitoring such as a traffic monitoring system, since the camera position is fixed, the transformation matrix T is also fixed. Further, even in the case of an in-vehicle image processing system, since the distance between the two cameras is fixed, the transformation matrix T is also fixed. Therefore, the transformation matrix T may be obtained when the camera is installed.

【0052】(2)式の関係式は、路面と同じ平面上に
存在する点に対してのみ成り立ち、路面と同じ平面上に
存在しない点では成り立たない。
The relational expression (2) holds only for points existing on the same plane as the road surface, and does not hold for points not existing on the same plane as the road surface.

【0053】入力した比較画像の全画素に対して(2)
式の投影変換を施す。この画像を投影変換画像と呼ぶこ
とにする(図5:下段左)。(2)式の関係は路面上の
点でしか成り立たないので、路面に対して高さのある物
体は基準画像中の対応点とは異なる位置に変換される。
ここで基準画像と投影変換画像の差分をとる。この処理
を「投影差分処理」と呼び、生成される画像を「投影差
分画像」と呼ぶことにする(図5:下段右)。
For all pixels of the input comparison image, (2)
Performs projection transformation of the expression. This image is called a projection conversion image (FIG. 5: lower left). Since the relationship of the expression (2) holds only at points on the road surface, an object having a height relative to the road surface is converted to a position different from a corresponding point in the reference image.
Here, the difference between the reference image and the projection conversion image is obtained. This processing is called “projection difference processing”, and the generated image is called “projection difference image” (FIG. 5: lower right).

【0054】投影差分画像では、高さのある領域が残差
として現れる。一方、影などの路面上にある物体は輝度
が相殺するので残差が無い。投影差分画像をしきい値で
2値化する。2値化した画像を残差画像と呼ぶ。残差画
像には路面に対して高さのある領域が表れる。
In the projection difference image, a region having a height appears as a residual. On the other hand, objects on the road surface such as shadows have no residual because the luminance is offset. The projection difference image is binarized using a threshold value. The binarized image is called a residual image. An area having a height relative to the road surface appears in the residual image.

【0055】以上の処理方法を「平面投影ステレオ法」
と呼ぶ。
The above processing method is referred to as "planar projection stereo method".
Call.

【0056】(2)第二段階の処理 上記第一段階の処理の後、第二段階の処理である信頼度
画像を生成する処理を信頼度画像生成部20で行う。以
下、その処理について順番に説明する。
(2) Second-Step Processing After the above-described first-step processing, the second-step processing of generating a reliability image is performed by the reliability-image generating unit 20. Hereinafter, the processing will be described in order.

【0057】(2−1)マッチングの必要性 まず、信頼度画像の生成処理を説明する前に、第3段階
の処理であるマッチング処理の必要性について説明する
ことにより、このマッチング処理に信頼度画像が有用で
あることを説明する。
(2-1) Necessity of Matching First, before describing the process of generating a reliability image, the necessity of the matching process, which is the third stage process, will be described. Explain that images are useful.

【0058】残差画像には高さのある領域が表れるが、
残差画像中の物体の形状は通常の投影像と異なり変形し
た像になる。一般に高さのある領域ほど、(2)式の関
係を満たさなくなるので、高さのある領域ほど投影画像
中では横にずれる。したがって、投影差分画像中では、
高さの高い物体ほど横に広がった形状になる。
Although an area having a height appears in the residual image,
The shape of the object in the residual image is a deformed image different from a normal projected image. In general, the higher the area, the less satisfied the relationship of the expression (2), and thus the higher the area, the laterally shifted in the projected image. Therefore, in the projection difference image,
The higher the height of the object, the wider the shape becomes.

【0059】例えば、交通監視システムの画像では、車
両が横に広がった形に投影される。横に広がるために、
画像中に車両が複数存在するとお互いが重なる場合もあ
る。したがって、車両を個別に切り分けたり、位置を認
識する場合は、投影差分画像を2値化してラベリング処
理を行うだけでは所望の結果が得られない場合がある。
For example, in the image of the traffic monitoring system, the vehicle is projected in a shape spread horizontally. To spread sideways,
If there are a plurality of vehicles in the image, they may overlap each other. Therefore, when the vehicle is individually cut or the position is recognized, a desired result may not be obtained simply by binarizing the projection difference image and performing the labeling process.

【0060】交通監視システムの例では、画像中には多
数の車両が存在することが普通であるし、システムの目
的としても個々の車両の位置を正しく検出する必要があ
る。また、障害物検出システムであれば、画像中で障害
物の位置を検出する必要がある。つまり、一般的にシス
テムを構成した場合には平面投影ステレオ法で高さのあ
る領域を検出しただけでは不足であり、残差画像や投影
差分画像に表れた領域の形状から車両領域を識別する処
理が必要になる。
In the example of the traffic monitoring system, it is common that a large number of vehicles are present in an image, and it is necessary to correctly detect the position of each vehicle for the purpose of the system. In the case of an obstacle detection system, it is necessary to detect the position of an obstacle in an image. That is, in general, when a system is configured, it is not enough to simply detect a region having a height by the planar projection stereo method, and the vehicle region is identified from the shape of the region shown in the residual image or the projection difference image. Processing is required.

【0061】車両領域を識別するためには、車両が残差
画像や投影差分画像の中でどのような形状になるかを、
モデルとして保有しておき、このモデルを残差画像や投
影差分画像にマッチングすることで識別するという処理
が有効である。
In order to identify the vehicle region, the shape of the vehicle in the residual image or the projection difference image is determined by:
It is effective to retain the model and identify the model by matching it with a residual image or a projection difference image.

【0062】交通監視システムに適用することを考えた
場合は、車両の検出段階に注力すべきと考えられる。
When considering application to a traffic monitoring system, it is considered that attention should be paid to the vehicle detection stage.

【0063】その理由は、車両が遠方に進行するに従っ
て、車両同士が単眼のカメラを用いた画像に比べて早く
重なりあってしまうからである。車両の検出に関して
は、影などの誤検出がないために、平面投影ステレオ方
法は有利であるが、車両の追跡能力は単眼のカメラの画
像処理に比べると不利である。
The reason is that as the vehicle travels farther, the vehicles overlap earlier than an image using a monocular camera. Regarding vehicle detection, the planar projection stereo method is advantageous because there is no false detection of a shadow or the like, but the tracking ability of the vehicle is disadvantageous compared to the image processing of a monocular camera.

【0064】そこで、本発明は、車両の検出能力が高い
ことを生かして、画像内に進入した車両を早く確実に正
しく検出する部分を担当することにする。そして、本発
明のの装置の次に、本発明の画像処理装置で検出した車
両領域を、単眼カメラの画像処理システム(例えば、正
規化相関による領域追跡装置)を用いて追跡するとい
う、システム構成をとる。このようにすれば、画像内の
車両の移動軌跡を検出することが可能になる。
Therefore, the present invention takes advantage of the high detection capability of the vehicle to take charge of a portion for quickly and surely correctly detecting the vehicle that has entered the image. Then, after the apparatus of the present invention, a system configuration in which the vehicle area detected by the image processing apparatus of the present invention is tracked using an image processing system of a monocular camera (for example, an area tracking apparatus using normalized correlation). Take. By doing so, it is possible to detect the movement locus of the vehicle in the image.

【0065】また、このシステム構成をとれば、マッチ
ング処理では、「画像に最も新しく進入した車両領域を
検出する」処理が実行できれば良くなる。つまり、奥行
き方向に沢山の車両が撮影されていたとしても、最も大
きく写っている最も手前の車両が1台だけ検出できれば
良いことになる。このような条件をつけたマッチング処
理は、簡単になり、以下に説明する手順で実現できる。
With this system configuration, in the matching process, it suffices if the process of “detecting the vehicle area that has entered the image most recently” can be executed. In other words, even if many vehicles are photographed in the depth direction, it is only necessary to detect only one vehicle at the forefront, which is the largest image. Matching processing with such conditions is simplified and can be realized by the procedure described below.

【0066】マッチング処理を想定すると、投影差分画
像から単に2値化された残差画像を得るのでなく、マッ
チング処理に適した中間画像を生成することが効果的に
なる。
Assuming a matching process, it is effective to generate an intermediate image suitable for the matching process instead of simply obtaining a binarized residual image from the projection difference image.

【0067】そこで本実施例では、路面に対して高さの
あることの信頼性を示す「信頼度画像」を生成し、それ
に対してマッチング処理を施す。
Therefore, in this embodiment, a “reliability image” indicating the reliability of having a height relative to the road surface is generated, and a matching process is performed on the image.

【0068】(2−2)信頼度画像の生成 以下、信頼度画像処理部22が、信頼度画像を生成する
処理について説明する。
(2-2) Generation of Reliability Image Hereinafter, a process in which the reliability image processing unit 22 generates a reliability image will be described.

【0069】基準画像と比較画像に平面投影ステレオ法
を適用すると、投影差分画像が得られる。投影差分画像
を2値化した画像を残差画像Aと呼ぶことにする。理想
的な条件では、残差画像Aには路面に対して高さのある
領域(すなわち車両の領域)しか現れないが、実際の入
力画像に対する残差画像Aには、車両の領域だけでな
く、いくらかの誤差領域が含まれる(図7:上段左)。
When the plane projection stereo method is applied to the reference image and the comparison image, a projection difference image is obtained. An image obtained by binarizing the projection difference image is referred to as a residual image A. Under ideal conditions, the residual image A shows only a region having a height relative to the road surface (that is, the region of the vehicle), but the residual image A for the actual input image includes not only the region of the vehicle but also , Some error regions are included (FIG. 7: upper left).

【0070】誤差領域は、例えば白線の輪郭線、車両の
影の輪郭線、建物の影の輪郭線などに表れる。輪郭線に
誤差領域が表れるのは、投影変換係数の誤差や、レンズ
の歪や、路面が厳密には平面でなく俵型をしているため
に投影変換した比較画像の位置と基準画像の位置が微小
にずれるためである。
The error region appears, for example, in a white line outline, a vehicle shadow outline, a building shadow outline, and the like. The error area appears on the contour line because of the error of the projection conversion coefficient, the distortion of the lens, and the position of the comparative image and the position of the reference image that are projected and converted because the road surface is not strictly flat but a bale shape. Is slightly shifted.

【0071】一方、マッチング処理に不要な領域とは、
路側帯の植え込みやガードレールや対向車線の車両など
である。
On the other hand, the areas unnecessary for the matching process are as follows.
Examples include roadside implants, guardrails and vehicles on opposite lanes.

【0072】そこで、これらの誤差領域やマッチング処
理に不要な領域を除去する。誤差領域や不要な領域の除
去は、位置が固定されている領域と位置が変化する領域
に分けて処理する。
Therefore, these error regions and regions unnecessary for the matching process are removed. The removal of the error region and the unnecessary region is performed separately for the region where the position is fixed and the region where the position is changed.

【0073】(2−2−1)位置が固定されている誤差
領域の除去 まず、位置が固定されている誤差領域をマスキング処理
により除去する。
(2-2-1) Removal of Error Region with Fixed Position First, the error region with the fixed position is removed by masking processing.

【0074】第1のマスキング処理で除去する対象は、
路面の両側にある植え込みの領域や対向車線の領域であ
る。これらの領域は、車両を検出する上では不要であ
る。今、カメラを固定カメラ系と仮定すれば、これらの
画像中の位置も固定される。そこで、路面の外の領域を
マスキングして、処理範囲から除外する。
The objects to be removed in the first masking process are
It is the area of implantation and the area of the oncoming lane on both sides of the road surface. These areas are unnecessary for detecting a vehicle. Now, assuming that the camera is a fixed camera system, the positions in these images are also fixed. Therefore, the area outside the road surface is masked and excluded from the processing range.

【0075】第2のマスキング処理で除去する対象は、
白線の輪郭付近に表れる誤差領域である。誤差領域は白
線の輪郭付近だけに表れるが、除去は白線全体とその輪
郭線付近を合わせて同時に行う。カメラが固定カメラ系
であれば、白線の位置は画像中で固定されているので、
マスキング処理により処理範囲から除外できる。
The object to be removed in the second masking process is
This is an error region that appears near the outline of the white line. Although the error region appears only near the outline of the white line, the removal is performed simultaneously for the entire white line and the vicinity of the outline. If the camera is a fixed camera system, the position of the white line is fixed in the image,
It can be excluded from the processing range by the masking processing.

【0076】マスキング処理のためのマスク画像は、予
め撮影したサンプル画像をマスク画像記憶部24に記憶
させておき、そこから手動でサンプル画像を呼び出して
きて位置を指定して作成する。
The mask image for the masking process is created by storing a sample image taken in advance in the mask image storage unit 24, manually calling the sample image from there, and designating the position.

【0077】(2−2−2)位置が変化する誤差領域の
除外 次に、位置が変化する誤差領域を除外する。位置が変化
する誤差領域は、ブロックマッチングの手法を用いて除
去する。
(2-2-2) Exclusion of error region where position changes Next, an error region where position changes will be excluded. An error region whose position changes is removed by using a block matching technique.

【0078】投影変換の微小なズレのために表れる誤差
領域には、白線の位置の様に画像中で固定されるものも
あるが、その位置が変化するものがある。
Some error regions appearing due to a slight shift in the projection conversion are fixed in the image, such as the position of the white line, but some of the positions change.

【0079】例えば、車両自身の影は車両の移動と共に
移動する。
For example, the shadow of the vehicle itself moves with the movement of the vehicle.

【0080】また、植え込みやポールの影、ガードレー
ルの影なども、太陽の移動に伴って移動する。
The shadows of the planting, the poles, the guardrails, and the like also move with the movement of the sun.

【0081】さらに、天候の変化によって照明条件が変
化すると、影のコントラストが変化したり、影自体が消
失する場合もある。
Further, when the lighting conditions change due to a change in weather, the contrast of the shadow may change, or the shadow itself may disappear.

【0082】従って、このような誤差領域はマスキング
処理でなく、ブロックマッチングの手法を用いて除去す
る。
Therefore, such an error region is removed by using a block matching technique instead of a masking process.

【0083】ブロックマッチングは以下のような手順で
処理する。
The block matching is processed in the following procedure.

【0084】ステップ1において、投影変換画像をブロ
ック状の小領域に分割する。
In step 1, the projection conversion image is divided into small blocks.

【0085】ステップ2において、第2に、分割された
それぞれの小領域の位置(x,y)を、基準画像中で
(Δx,Δy)だけ小さくスライドさせながら、小領域
内の2つの画像の輝度差の絶対値和(SAD)を求め、
最小の残差となる位置を探索する。
In step 2, second, the position (x, y) of each of the divided small areas is slid by (Δx, Δy) in the reference image, and the two images in the small area are shifted. Find the absolute value sum (SAD) of the luminance difference,
Search for the position with the smallest residual.

【0086】ステップ3において、第3に、求めた最小
の残差を、その小領域の残差とする(図6)。
Thirdly, in step 3, the obtained minimum residual is used as the residual of the small area (FIG. 6).

【0087】ステップ4において、第4に、小領域の残
差をしきい値で2値化すると、スライド量以下の小さな
位置誤差が吸収されて、誤差領域が削除される。
In step 4, fourth, when the residual of the small area is binarized by a threshold value, a small position error equal to or less than the slide amount is absorbed, and the error area is deleted.

【0088】以上のようにして、位置が変化する誤差領
域が除外される。
As described above, the error region whose position changes is excluded.

【0089】(2−2−3)残差画像の多値化 マスキングとブロックマッチングによって誤差領域と不
要な領域を削除した画像を(図7:上段右)に示す。こ
れを残差画像Bと呼ぶことにする。
(2-2-3) Multi-value conversion of residual image An image in which an error region and an unnecessary region are deleted by masking and block matching is shown in FIG. 7 (upper right). This will be referred to as a residual image B.

【0090】ブロックマッチング処理を施した残差画像
Bは、誤差領域やマッチングに不要な領域が除去されて
いるが、画像的に差の小さな部分も同時に除去されてし
まっている。画像的に差の小さな部分とは、具体的に
は、例えば車両の下回りの暗い部分や、黒幌トラックの
車体や、流線型の乗用車の車体や、ジェラルミンのトラ
ックの背面などのテクスチャが乏しい部分である。この
ようなテクスチャの乏しい部分は、投影変換しても(テ
クスチャが乏しいので)テクスチャに変化が無く、投影
変換画像と元の画像にほとんど差が無い。そのために、
ブロックマッチング処理を施すとこれらの領域も除去さ
れてしまう。このように、残差画像Bは、車体の一部が
欠落しているので投影像のマッチングを行う際に悪影響
がある。
In the residual image B that has been subjected to the block matching processing, an error region and a region unnecessary for matching have been removed, but a portion having a small difference in image has also been removed at the same time. The part with a small difference in image is specifically a dark part below the vehicle, a body of a Kuroho truck, a body of a streamlined passenger car, or a part with poor texture such as a back of a duralumin truck. is there. In such a portion having a poor texture, there is no change in the texture even after the projection conversion (because the texture is poor), and there is almost no difference between the projection conversion image and the original image. for that reason,
When the block matching process is performed, these regions are also removed. As described above, the residual image B has a bad influence when performing the matching of the projection images because a part of the vehicle body is missing.

【0091】一方、残差画像Aは、誤差領域が多く残っ
ているので、そのままでは投影像のマッチング処理を適
用できない。
On the other hand, since the residual image A has many error regions, the matching process of the projected image cannot be applied as it is.

【0092】そこで、残差画像を以下の様に多値に拡張
して、残差画像Aと残差画像Bの両方の特徴を有する新
しい残差画像を作成する。新しい残差画像の画素値を以
下の4つのクラスに定義する。この4つのクラスが、高
さのある物体の検出を行うときの信頼度を示す指標とな
る。
Therefore, a new residual image having both characteristics of the residual image A and the residual image B is created by expanding the residual image into multiple values as follows. The pixel values of the new residual image are defined in the following four classes. These four classes are indices indicating the reliability when detecting a tall object.

【0093】 a0 残差無しの場合の画素 a1 マスキングされている場合の画素 a2 高さがあることの信頼度の低い残差の場合の画素 a3 高さがあることの信頼度の高い残差の場合の画素 多値化した残差画像を(図7:下段左)に示す。これを
残差画像Cと呼ぶことにする。図7を拡大して各部位の
説明を加えた図を図8に示す。
A0 Pixel in the case where there is no residual a1 Pixel a2 in the case of masking a2 Pixel in the case of the residual having low reliability of height a3 Pixel of high reliability in the presence of height Pixels in the case The multi-valued residual image is shown in FIG. 7 (lower left). This is called a residual image C. FIG. 8 is an enlarged view of FIG. 7 with an explanation of each part added.

【0094】「a0」クラスは、残差が無い領域に付与
する画素値であり、この領域は高さが無いことを示す。
The “a0” class is a pixel value assigned to an area having no residual, and indicates that this area has no height.

【0095】「a1」クラスは、マスキングされている
領域に付与する画素値である。
The “a1” class is a pixel value given to a masked area.

【0096】「a2」クラスは、残差のある領域で、高
さがあることの信頼度の低い領域に対して付与する画素
値である。
The “a2” class is a pixel value to be assigned to a region having a residual and having low reliability of having a height.

【0097】「a3」クラスは、残差のある領域で、高
さがあることの信頼度の高い領域に対して付与する画素
値である。
The “a3” class is a pixel value assigned to an area having a residual and having a high degree of reliability of having a height.

【0098】残差画像Cでは、残差画像Aの残差領域が
多値のクラスに分類されている。すなわち、4つのクラ
スで表された画素とは、多値化(4値化)された画素値
を有する画素のことである。
In the residual image C, the residual area of the residual image A is classified into a multi-valued class. That is, the pixels represented by the four classes are pixels having multi-valued (quaternary) pixel values.

【0099】1) 監視対象外の領域は、マッチングに
不要なので残差無しのクラス「a0」に分類する。この
ようにマッチングに不要な領域は「a0」に分類でき
る。
1) Since the area not to be monitored is unnecessary for matching, it is classified into the class “a0” having no residual. As described above, an area unnecessary for matching can be classified as “a0”.

【0100】2) 監視対象内だが、白線の領域の様
に、マスキングした領域をクラス「a1」に分類する。
2) A masked area, such as a white line area, within the monitoring target is classified into class "a1".

【0101】3) 残差画像Aでは残差領域であった
が、ブロックマッチング処理など、誤差領域を削除する
処理によって削除された領域をクラス「a2」に分類す
る。この領域は、とりあえず誤差領域として削除した
が、実際には高さのある領域を誤って削除した可能性も
ある。そこでクラス「a2」は、「高さのあることの信
頼性が低いが、高さが無いとは言い切れない画素」であ
ると言える。クラス「a2」の画素を、以後の説明では
「信頼度の低い残差」と呼ぶ。
3) In the residual image A, the region which was a residual region but has been deleted by a process of deleting an error region such as a block matching process is classified into a class “a2”. Although this region is temporarily deleted as an error region, there is a possibility that a region having a height is actually deleted by mistake. Therefore, it can be said that the class “a2” is “a pixel whose height is low in reliability but cannot be said to have no height”. Pixels of class “a2” will be referred to as “residues with low reliability” in the following description.

【0102】4) 「a3」は、残差画像Aの残差領域
であり、誤差領域の削除処理を行っても残った残差領域
である。この領域は「高さのあることの信頼性が高い画
素」であると言える。クラス「a3」の画素を、以後の
説明では「信頼度の高い残差」と呼ぶ。
4) “a3” is a residual area of the residual image A, which is a residual area that remains even after the error area is deleted. It can be said that this region is a “pixel having high reliability in having a height”. Pixels of class “a3” are referred to as “residuals with high reliability” in the following description.

【0103】この残差画像Cを、以後「信頼度画像」と
呼ぶ。
This residual image C is hereinafter referred to as a “reliability image”.

【0104】(2−2−4)変更例 上記実施例では、a0、a1、a2、a3の4つの多値
化を行っているが、3つの多値化を行う場合には、マス
キングをされているa1の多値を省略して行えばよい。
このときの物体検出装置10は、図2のようにマスク画
像記憶部24を有しない構造となる。
(2-2-4) Modification In the above embodiment, four multi-levels of a0, a1, a2, and a3 are performed. However, when three multi-levels are performed, masking is performed. The multi-value of a1 may be omitted.
At this time, the object detecting device 10 does not have the mask image storage unit 24 as shown in FIG.

【0105】(3)第三段階の処理 上記第二段階の処理によって、信頼度画像が生成された
ので、信頼度画像に対して車両の投影像モデルをマッチ
ングすることで、車両の位置と台数を検出する。
(3) Third-Step Process Since the reliability image is generated by the above-described second-stage process, the position and the number of vehicles are determined by matching the projected image model of the vehicle with the reliability image. Is detected.

【0106】ここでマッチングに必要な車両投影像モデ
ルを準備する。
Here, a vehicle projection image model required for matching is prepared.

【0107】(3−1)車両投影像モデルの準備 車両投影像モデルは、信頼度画像、つまり投影差分画像
や残差画像に表れることが予想される車両像を、予め2
次元のシルエット形状でモデル化した投影像である。モ
デル投影像は物体構造検出部26に記憶されている。
(3-1) Preparation of Vehicle Projection Image Model The vehicle projection image model includes a reliability image, that is, a vehicle image expected to appear in a projection difference image or a residual image.
It is a projection image modeled by a two-dimensional silhouette shape. The model projection image is stored in the object structure detection unit 26.

【0108】(3−1−1)車両投影像モデルの作成 車両投影像モデルは、乗用車やトラックなど車両の3次
元モデルとカメラパラメータに従って、投影差分画像に
表れる車両の投影像を数学的に作成する。具体的な手順
は以下のようになる。
(3-1-1) Creation of Vehicle Projection Image Model The vehicle projection image model mathematically creates a projection image of the vehicle appearing in the projection difference image according to the three-dimensional model of the vehicle such as a car or truck and the camera parameters. I do. The specific procedure is as follows.

【0109】ステップ1において、予め2台のカメラの
カメラパラメータを計測しておく。ステップ2におい
て、次に、カメラパラメータに基づいて、基準画像と比
較画像のそれぞれで車両の投影像を作成し、比較画像の
投影像を投影変換する。
In step 1, camera parameters of two cameras are measured in advance. In step 2, a projection image of the vehicle is created based on each of the reference image and the comparison image based on the camera parameters, and the projection image of the comparison image is projected and transformed.

【0110】ステップ3において、投影変換した比較画
像の投影像と、基準画像の投影像と重ね合わせて投影差
分画像の投影像を作成する。ここでマッチング処理を簡
単にするために、投影像の輪郭を6角形で近似する。こ
れを投影像モデルとする。
In step 3, a projected image of the projection difference image is created by superimposing the projected transformed image of the comparative image and the projected image of the reference image. Here, in order to simplify the matching process, the contour of the projected image is approximated by a hexagon. This is defined as a projection image model.

【0111】図9は、以上の手順を模擬した模式図であ
る。
FIG. 9 is a schematic diagram simulating the above procedure.

【0112】図9では荷台付きトラックを模擬してい
る。乗用車や小型トラックなどの像も同様に生成でき
る。投影像は車両の形式ごとに変化するが、実際上は大
型車と小型車の2種類の像を用意しマッチング処理を工
夫することで対応可能である場合が多い。処理能力に余
裕がある場合には、各種の車両形式に応じて車両投影像
を多数準備してマッチング処理を行う方が、確実に車両
が認識できるようになる。
FIG. 9 simulates a truck with a carrier. Images of passenger cars, light trucks and the like can be generated in a similar manner. The projected image changes for each type of vehicle, but in practice it can often be handled by preparing two types of images of a large car and a small car and devising a matching process. If there is enough processing capacity, preparing a large number of vehicle projection images according to various types of vehicles and performing the matching process allows the vehicle to be recognized more reliably.

【0113】ここで、モデルの生成のためにはカメラパ
ラメータや、車両の3次元モデルが必要になるが、この
パラメータは一般的なステレオ画像処理で要求されるほ
ど精密なデータである必要はなく、図9のような車両の
像が生成できれば良い。
Here, a camera parameter and a three-dimensional model of the vehicle are required to generate the model. However, this parameter does not need to be data as precise as required in general stereo image processing. It is sufficient if an image of the vehicle as shown in FIG. 9 can be generated.

【0114】(3−1−2)車両の位置を考慮した場合
の車両投影像モデルの作成 ところで、車両の投影像は車両の形式だけでなく、その
画像中の位置によって変化する。
(3-1-2) Creation of Vehicle Projection Image Model in Consideration of Vehicle Position By the way, the projection image of the vehicle changes according to the position in the image as well as the type of the vehicle.

【0115】例えば手前(画像の下)の車両は大きい投
影像になり、奥(画像の上)の車両は小さい投影像にな
る。また、奥行きの変化により、車両の天井と背面の見
え方に変化がある。また、左右方向の移動に伴っても投
影像の形状は変化する。
For example, a vehicle in front (below the image) has a large projected image, and a vehicle in the back (above the image) has a small projected image. In addition, a change in the depth causes a change in the appearance of the ceiling and the back of the vehicle. Also, the shape of the projected image changes with the movement in the left-right direction.

【0116】しかし、マッチング処理を考慮すると、マ
ッチングする位置(探索位置)に対してその投影像は車
種ごとに一意に決まる。つまり、マッチングする位置の
全てに対して、その投影像モデルを準備したとしても投
影像の数は多いが処理量が増える訳ではない。従って、
記憶容量に問題がなければ全ての探索位置に対して、車
種別にその車両投影像モデルを記憶しマッチング処理を
実行すれば良い。
However, in consideration of the matching process, the projected image for the matching position (search position) is uniquely determined for each vehicle type. That is, even if the projection image models are prepared for all matching positions, the number of projection images is large but the processing amount does not increase. Therefore,
If there is no problem in the storage capacity, the vehicle projection image model may be stored for all the search positions for each vehicle type and the matching process may be executed.

【0117】実際には、記憶容量に制約のある場合があ
るので、全ての探索位置で車両投影像モデルを準備して
おくのでなく、予め標本化した位置ごとに車両投影像モ
デルを準備する方法をとる。
In practice, there is a case where the storage capacity is limited. Therefore, a method of preparing a vehicle projection image model for each sampled position instead of preparing a vehicle projection image model at all search positions. Take.

【0118】図10に示すように、画像の横方向は、車
線ごとに車両投影像モデルを準備する。例えば3車線の
道路を監視対象とするならば、車線ごとに3種類の車両
投影像モデルを準備する。
As shown in FIG. 10, in the horizontal direction of the image, a vehicle projection image model is prepared for each lane. For example, if a three-lane road is to be monitored, three types of vehicle projection image models are prepared for each lane.

【0119】また、画像の縦方向は、画像を縦にいくつ
かのゾーンに分割し、ゾーンごとに投影像を用意する方
法がある。例えば画像を縦に12のゾーンに分割すれ
ば、実用上は問題ない。
As for the vertical direction of the image, there is a method of vertically dividing the image into several zones and preparing a projection image for each zone. For example, if the image is vertically divided into 12 zones, there is no practical problem.

【0120】以上のように、車種、横方向、縦方向、そ
れぞれについて標本化して車両投影像モデルを生成し記
憶する。例えば、車種を2種(大型、小型)、横方向を
3種(3つの車線)、縦方向を12種(12のゾーン)
に標本化した場合には、画像が3×12=36のゾーン
に分割され、1つのゾーンにつき2種類のモデルを記
憶、72通りの車両投影像を記憶すれば済むことにな
る。
As described above, a vehicle projection image model is generated by sampling each of the vehicle type, the horizontal direction, and the vertical direction, and stored. For example, two types of vehicles (large and small), three types in the horizontal direction (three lanes), and twelve types in the vertical direction (12 zones)
, The image is divided into 3 × 12 = 36 zones, two types of models are stored for each zone, and only 72 vehicle projection images need to be stored.

【0121】図11は標本化された車両投影像モデル
の、一部の例を示している。図11では、車種を大型車
と普通車の2種に標本化しており、3つの車線ごとの像
を表示している。実際には、縦方向の位置の違いによる
バリエーションも必要になる。
FIG. 11 shows a partial example of a sampled vehicle projection image model. In FIG. 11, the vehicle types are sampled into two types, a large vehicle and a normal vehicle, and images for three lanes are displayed. In practice, variations due to differences in vertical position are also required.

【0122】(3−1−3)車両投影像モデルへの部分
領域の付加 以上のように、車両投影像モデルの基本形が生成される
が、マッチングの精度を向上させるために、車両投影像
モデルに部分領域を付加する。
(3-1-3) Addition of Partial Region to Vehicle Projection Image Model As described above, the basic form of the vehicle projection image model is generated. In order to improve the matching accuracy, the vehicle projection image model Is added to the partial area.

【0123】まず、交通監視システムでは車両の移動軌
跡や速度を抽出することが目的になるので、車両の画像
中の位置として車両の後方の端点の位置を正しく検出す
ることが重要になる。なぜなら、車両の3次元位置を正
しく算出するためには、車両領域の接地点、すなわち車
両の後方の端点の位置が必要だからである。
First, since the purpose of the traffic monitoring system is to extract the moving locus and speed of the vehicle, it is important to correctly detect the position of the rear end point of the vehicle as the position in the image of the vehicle. This is because, in order to correctly calculate the three-dimensional position of the vehicle, the position of the ground point in the vehicle area, that is, the position of the rear end point of the vehicle is required.

【0124】そこで、図12の様に、投影像モデルの輪
郭線の内部を「上部領域」と「下部領域」に分割する。
「上部領域」と「下部領域」の分割線の位置は、投影像
モデルの6角形の高さに対してパラメータで設定した比
に基づいて設定する。ここで図12では、図の上方を進
行方向とする。
Therefore, as shown in FIG. 12, the inside of the contour of the projection image model is divided into an “upper region” and a “lower region”.
The position of the dividing line between the “upper region” and the “lower region” is set based on the ratio set by the parameter to the height of the hexagon of the projection image model. Here, in FIG. 12, the upper part of the figure is the traveling direction.

【0125】次に、図12の様に、車両の後方に「後方
の隣接領域」を設定する。後方の隣接領域は6角形で近
似した投影像モデルの輪郭線の下辺の両端を、6角形の
高さに対してパラメータで設定した比だけ延長する、な
どと設定する。
Next, as shown in FIG. 12, a “rear adjacent area” is set behind the vehicle. In the rear adjacent area, both ends of the lower side of the outline of the projected image model approximated by a hexagon are set to be extended by a ratio set by a parameter with respect to the height of the hexagon.

【0126】また、車両の左右の位置を正確に検出する
ために、図12の様に「右の隣接領域」と「左の隣接領
域」を設定する。左右の隣接領域は、投影像モデルの輪
郭線の左右の辺を、6角形の幅に対してパラメータで設
定した比だけ延長する、などと設定する。
In order to accurately detect the left and right positions of the vehicle, a “right adjacent area” and a “left adjacent area” are set as shown in FIG. The left and right adjacent regions are set such that the left and right sides of the contour of the projection image model are extended by a ratio set by a parameter with respect to the width of the hexagon.

【0127】これらの部分領域と隣接領域の扱い方につ
いてはマッチング処理の段落で説明する。
How to handle these partial areas and adjacent areas will be described in the paragraph of matching processing.

【0128】(3−2)車両投影像モデルのマッチング 以上の様に生成した車両投影像モデルを、マッチング対
象の画像である「信頼度画像」(残差画像C、例えば図
7:下段左)にマッチングすることで、車両の存在性
(有無)の判断とその位置が決定できる。
(3-2) Matching of Vehicle Projection Image Model The vehicle projection image model generated as described above is matched with a “reliability image” (residual image C, for example, FIG. 7: lower left) as an image to be matched. , It is possible to determine the existence (presence or absence) of the vehicle and determine its position.

【0129】マッチングは以下に示す様に階層的に5層
のループ(Loop)を構成する。これらループでは、
車両投影像モデルの投影像が信頼度画像にマッチしてい
るか評価する処理が行われる。ループ内の繰り返し処理
を行いながら、最も評価値の高いマッチング結果を選択
する処理を繰り返す。
The matching hierarchically forms a five-layer loop as shown below. In these loops,
Processing is performed to evaluate whether the projection image of the vehicle projection image model matches the reliability image. The process of selecting the matching result with the highest evaluation value is repeated while performing the repetitive processing in the loop.

【0130】ループの階層構造は以下の構成である。こ
の階層構造はこれに限られたものではなく、要するに全
ての車種と位置に対してマッチング処理を行い、最も良
い結果を選択すればよい。
The hierarchical structure of the loop has the following configuration. This hierarchical structure is not limited to this. In short, matching processing is performed on all vehicle types and positions, and the best result may be selected.

【0131】 ループ1 車種ごとに探索 ループ2 車線ごとに探索(第1車線から第3車線) ループ3 ゾーンごとに探索 ループ4 ゾーン内の上下位置の探索 ループ5 左右位置の探索 このループの流れを簡単に説明すると、ループ1におい
て大型か小型かを判断し、ループ2において大型と判断
した中で第1、第2、第3車線かを判断し、ループ3に
おいて大型で第1車線と判断した中でどのゾーンかを判
断し、ループ4において大型で第1車線で8のゾーンと
判断した中で、ゾーン内の上下位置を判断し、ループ5
において大型で第1車線で8のゾーンでゾーンの上の位
置と判断した中で左右位置を判断する。
Loop 1 Search for each vehicle type Loop 2 Search for each lane (1st lane to 3rd lane) Loop 3 Search for each zone Loop 4 Search for up / down position in zone Loop 5 Search for left / right position Briefly, in loop 1 it is determined whether the vehicle is large or small, in loop 2 it is determined that the vehicle is in the first, second, or third lane while it is large, and in loop 3 it is determined that the vehicle is large and the first lane. In the loop 4, it is determined that the zone is large and the first lane is 8 zones, and the vertical position in the zone is determined.
The right and left positions are determined among the large positions in the first lane and the positions above the zones in the eight zones.

【0132】(3−3)マッチングの評価値の算出 上記のループにおけるマッチングの評価を行う処理の手
順について説明する。
(3-3) Calculation of Matching Evaluation Value A procedure of a process for evaluating matching in the above loop will be described.

【0133】本実施例のマッチングは一般的な2値画像
に形状をマッチングする処理と異なり、多値の残差画像
に対して投影像のモデルをマッチングする処理である。
多値の残差画像を用いることから、マッチングの評価を
以下の示す4つのカウンタを用いて行う。
The matching of the present embodiment is different from the process of matching a shape to a general binary image, and is a process of matching a model of a projected image to a multivalued residual image.
Since a multi-valued residual image is used, matching evaluation is performed using the following four counters.

【0134】 e0 残差なしの画素数をカウントした数 e1 信頼度の高い残差の画素数をカウントした数 e2 信頼度の低い残差の画素数をカウントした数 e3 車線領域をはみ出した画素数をカウントした数 このように、信頼度の違いによって評価カウンタを分け
ることができるのが本実施例の特徴である。
E0 The number of counted pixels without residuals e1 The number of counted pixels of residuals with high reliability e2 The number of counted pixels of residuals with low reliability e3 The number of pixels outside the lane area Thus, the feature of the present embodiment is that the evaluation counter can be divided according to the difference in the reliability.

【0135】このマッチングの評価を行うステップで
は、車両投影像モデルの投影像の位置が設定され、この
モデルの位置に対する、信頼度画像の適合性の良さを評
価することになる。そこで、投影像モデルの各部分領域
ごとに、信頼度画像の残差画素(高信頼残差と低信頼残
差の2種類ある)をカウントする処理を行うことにな
る。この時、各ライン(走査線)ごとに以下の条件に基
づいてそれぞれのカウンタを加算する。
In the step of evaluating the matching, the position of the projection image of the vehicle projection image model is set, and the suitability of the reliability image with respect to the position of the model is evaluated. Therefore, for each partial region of the projection image model, a process of counting the residual pixels of the reliability image (there are two types of high reliability residual and low reliability residual) is performed. At this time, each counter is incremented for each line (scanning line) based on the following conditions.

【0136】<条件1>もし、自車線内で「信頼度の高
い残差画素」が存在するならば、e1に「信頼度の高い
残差画素」の画素数を加え、e2に「信頼度の低い残差
画素」の画素数を加える。このとき、投影像モデルが隣
接する車線にはみ出していた場合は、はみ出した画素に
関しても同様に、それぞれのクラスごとに、e1,e2
に画素数を加える。
<Condition 1> If there is a “residual pixel with high reliability” in the own lane, the number of “residual pixels with high reliability” is added to e1, and the “reliability pixel” is added to e2. Pixel number of the “low residual pixel”. At this time, if the projected image model protrudes into an adjacent lane, the protruding pixels are similarly assigned e1 and e2 for each class.
Is added to the number of pixels.

【0137】<条件2>もし、自車線内で「信頼度の高
い残差画素」が存在しないならば、e1,e2ともカウ
ントしない。
<Condition 2> If there is no "residual pixel with high reliability" in the own lane, neither e1 nor e2 is counted.

【0138】この条件1,2を「自車線存在条件」と呼
ぶことにする。
Conditions 1 and 2 will be referred to as “own lane existence conditions”.

【0139】自車線存在条件の概念図を図13に示し
た。図13は「注目しているライン」上で、それぞれの
例の場合に残差をカウントするか、しないかを例として
示している。
FIG. 13 shows a conceptual diagram of the own lane existence condition. FIG. 13 shows, as an example, whether or not to count the residual in each case on the “line of interest”.

【0140】(a)の例は「注目しているライン」に、
自車線内で「信頼度の高い残差」が存在するので、残差
をカウントする。
The example of (a) shows that the “line of interest” is
Since “residuals with high reliability” exist in the own lane, the residuals are counted.

【0141】一方、(b)(c)(d)の例は、いずれ
も「注目しているライン」に、自車線内で「信頼度の高
い残差」が存在しないのでカウント対象にならない。特
に、(b)の例では、投影像の下部の領域では自車線条
件を満たしているが、「注目しているライン」では自車
線条件を満たしていないので、「注目しているライン」
に関してはカウント対象にならない。
On the other hand, in the examples of (b), (c), and (d), the “line of interest” is not counted because the “highly reliable residual” does not exist in the own lane. In particular, in the example of (b), the area under the projected image satisfies the own lane condition, but the “line of interest” does not satisfy the own lane condition.
Is not counted.

【0142】自車線条件は、「信頼度の高い残差画素」
が存在することを条件(条件2)に、「信頼度の高い残
差画素」及び「信頼度の低い残差画素」の両方をカウン
トする条件(条件1)である。すなわち「信頼度の高い
残差画素」が存在しなければ評価は0であるので、物体
の存在性(有無)の判断が「信頼度の高い残差画素」に
依存していることになる。また、後で説明するが、物体
の位置を決定する際には「信頼度の高い残差画素」及び
「信頼度の低い残差画素」の両方を加えた評価値で決定
するので、物体の位置の決定は両方の残差を用いて判断
することになる。
The own lane condition is “residual pixel with high reliability”.
Is a condition (condition 1) for counting both the “residual pixel with high reliability” and the “residual pixel with low reliability” under the condition (condition 2) that exists. That is, if there is no “residual pixel with high reliability”, the evaluation is 0, so that the determination of the existence (presence or absence) of the object depends on the “residual pixel with high reliability”. As will be described later, when determining the position of the object, the position of the object is determined by the evaluation value obtained by adding both the “high-reliability residual pixel” and the “low-reliability residual pixel”. The determination of the position will be determined using both residuals.

【0143】まとめると、物体の存在性(有無)の判断
には、高さがあることの信頼度の高い領域の画素の情報
を用いて判断した。また、物体の位置の決定には、高さ
があることの信頼度の高い領域の画素と、信頼度の低い
領域の画素の両方を同時に用いて判断した。
In summary, the existence (presence / absence) of the object is determined by using the information of the pixels in the region where the reliability of presence of the object is high. In determining the position of the object, the determination was made by simultaneously using both the pixels in the region with high reliability of the presence of the height and the pixels in the region with low reliability.

【0144】ここに、残差領域を信頼度で多値化した効
果が現れている。
Here, the effect that the residual area is multi-valued with reliability is shown.

【0145】「自車線存在条件」は、特に大型車の場合
に効果を発揮する。大型車は車両の高さがあるために、
その車両投影像モデルは隣接する車線に大きくはみ出
す。
The "own lane existence condition" is particularly effective for a large vehicle. Due to the height of large vehicles,
The vehicle projection image model largely protrudes into the adjacent lane.

【0146】例えば、車両は第2車線に存在し、第3車
線には存在しないとする。ここで第3車線に車両が存在
すると仮定して車両投影像をマッチングする。仮定した
車両投影像の中心は第3車線であるが、車両投影像は隣
接する第2車線にもはみ出している。実際の車両は第2
車線に存在するが、第2車線にはみ出してきた領域で、
第3車線の車両投影像のマッチング評価量に寄与してし
まう。このような、誤ったマッチングの寄与を防ぐため
に「自車線存在条件」は有効に機能する。
[0146] For example, it is assumed that the vehicle exists in the second lane and does not exist in the third lane. Here, assuming that a vehicle exists in the third lane, the vehicle projection image is matched. The center of the assumed vehicle projection image is the third lane, but the vehicle projection image protrudes into the adjacent second lane. The actual vehicle is second
In an area that exists in the lane but protrudes into the second lane,
This contributes to the matching evaluation amount of the vehicle projection image of the third lane. The “own lane existence condition” effectively functions to prevent such erroneous matching contribution.

【0147】マッチングの評価値の算出の際には、6角
形のモデル内部の適合画素数のカウントだけでなく、後
方や左右の隣接領域の適合画素数のカウントも同時に行
う。後方や左右の隣接領域の適合画素数のカウントも、
「自車線存在条件」を考慮してカウントする。
When calculating the matching evaluation value, not only the counting of the number of compatible pixels in the hexagonal model but also the counting of the number of compatible pixels in the rear and right and left adjacent areas are performed simultaneously. The count of the number of compatible pixels in the rear and left and right adjacent areas is also
Counting takes into account the “own lane existence condition”.

【0148】ここで、左右の隣接領域の残差画素をカウ
ントする場合、隣接領域の一部が白線のためにマスキン
グされている場合がある。このような場合は図14で示
すように、白線を飛び越した領域に代替の領域を設定し
て、残差画素をカウントする。
Here, when counting the residual pixels in the left and right adjacent areas, a part of the adjacent area may be masked due to a white line. In such a case, as shown in FIG. 14, an alternative area is set in an area where the white line is skipped, and residual pixels are counted.

【0149】(3−4)マッチングの評価値の判断 投影像モデル内のカウントが済んだ評価値に対して、そ
の適合性の検証と比較を以下の様に行う。
(3-4) Judgment of Matching Evaluation Value Verification and comparison of the matching evaluation value in the projection image model are performed as follows.

【0150】(3−4−1)車両投影像モデルの隣接領
域条件の検証 マッチングの評価は、図12で示した各部分領域の条件
を順にチェックして、全ての条件を満たすマッチング候
補の中から最も評価値の高い候補を選択する処理を行
う。
(3-4-1) Verification of Conditions of Neighboring Regions of Vehicle Projection Image Model The evaluation of matching is performed by sequentially checking the conditions of each partial region shown in FIG. Is performed to select the candidate having the highest evaluation value from.

【0151】(3−4−1−1)下部領域の評価 前述したように、マッチングにあたっては車両の後方の
端点が正しく求まることが重要なので、車両投影像モデ
ルの輪郭線内部の下部領域が正しくマッチングすること
が必要になる。
(3-4-1-1) Evaluation of Lower Region As described above, since it is important to correctly determine the rear end point of the vehicle in matching, the lower region inside the outline of the vehicle projected image model is correctly determined. Matching is required.

【0152】そこで、まず下部領域の適合画素数が十分
な密度であるか検証する。
Therefore, it is first verified whether the number of compatible pixels in the lower region is sufficient.

【0153】Bを下部領域、Nを下部領域の面積、
B’を下部領域において自車線存在条件を具備した領域
としたとき、(3)式の評価値Vを求める。
[0153] B of the lower region, the area of the N B lower region,
When the B 'was equipped with a self-lane existence condition in the lower region area, obtains the evaluation value V 1 of the equation (3).

【0154】[0154]

【数3】 なお、(3)式の右辺の分子は、B’の領域におけるe
1とe2の総和を示している。
(Equation 3) Note that the numerator on the right side of the equation (3) is e in the region of B ′.
The sum of 1 and e2 is shown.

【0155】そして、このVが、予め設定したしきい
値Thrより大きい場合には、条件を具備している
として、次の評価を行う。
If V 1 is larger than the predetermined threshold value Thr 1 , the condition is satisfied and the next evaluation is performed.

【0156】(3−4−1−2)後方の隣接領域の評価 次に、後方の隣接領域の残差画素数が十分低い密度であ
るか検証する。
(3-4-1-2) Evaluation of Rear Adjacent Region Next, it is verified whether the number of residual pixels in the rear adjacent region has a sufficiently low density.

【0157】車両投影像モデルが正しくマッチングして
いる場合、後方の隣接領域には残差画素が殆ど存在しな
いはずである。そこで、Rを後方の隣接領域、N
その領域の面積、R’を後方の隣接領域において自車線
存在条件を具備した領域としたとき、(4)式の評価値
を求める。
If the vehicle projection image model is correctly matched, there should be almost no residual pixels in the rear adjacent area. Therefore, the adjacent region of the backward R, the area of the region of the N R, when the region provided with the vehicle moving lane presence proviso R 'at the rear of the adjacent regions, obtaining the evaluation value V 2 of the equation (4).

【0158】[0158]

【数4】 なお、(4)式の右辺の分子は、R’の領域におけるe
1とe2の総和を示している。
(Equation 4) Note that the numerator on the right side of the equation (4) is e in the region of R ′.
The sum of 1 and e2 is shown.

【0159】そして、このVが予め設定したしきい値
Thrより小さい場合には、次の評価を行う。
[0159] and, in this case V 2 the threshold Thr 2 smaller than a preset, do the following evaluation.

【0160】(3−4−1−3)左右の隣接領域の評価 次に、左右の隣接領域を評価する。(3-4-1-3) Evaluation of Left and Right Neighboring Regions Next, left and right neighboring regions are evaluated.

【0161】左右の隣接領域は、後方の隣接領域と異な
り、正しいマッチングであっても、左右の隣接領域に残
差画素が存在する場合がある。例えば、大型車が隣接す
る車線に並走した場合や、車両の投影像がモデルの横幅
より大きな車両であった場合である(モデルの幅が大き
い場合だけでなく、高さが高い場合も、投影の効果で横
幅が大きくなる場合がある)。
The left and right adjacent areas are different from the rear adjacent area, and even if the matching is correct, residual pixels may be present in the left and right adjacent areas. For example, a case where a large vehicle runs parallel to an adjacent lane, or a case where the projected image of the vehicle is larger than the width of the model (not only when the width of the model is large but also when the height is high, The width may increase due to the effect of projection).

【0162】そこで、左右の隣接領域に対する判断は、
モデルの車種によって処理が変わる。まず、左右の隣接
領域に残差画素が存在するか判断する。そこで、Sを左
または右の隣接領域、Nをその領域の面積、M
をその領域内でマスキングによって除去された画素の数
としたとき、(5)式の評価値Vが予め設定したし
きい値Thrより大きいことをチェックする。
Therefore, the judgment on the left and right adjacent areas is as follows.
Processing changes depending on the model of the model. First, it is determined whether a residual pixel exists in the left and right adjacent areas. Therefore, the left or right flanking region of the S, the area of the region of the N S, M S
When was the number of pixels removed by the masking within the region, checks greater than the threshold value Thr 3 set in advance (5) evaluation value V 3 of the formula.

【0163】[0163]

【数5】 ここで、マスキングによって除去された画素の数を分母
から引くのは、左右の隣接領域には白線領域が含まれる
ことが多く、ここは実際上はノーカウントの領域となっ
ているために、密度を計算する場合は分母から差し引く
のが合理的であるからである。
(Equation 5) Here, the reason why the number of pixels removed by masking is subtracted from the denominator is that the left and right adjacent areas often include a white line area, which is actually a no-count area. This is because it is reasonable to subtract from the denominator when calculating.

【0164】評価値Vによって、左右の隣接領域に
残差画素が存在すると判定された場合、モデルが普通車
の場合は「大型車の一部にマッチングされた状態であ
る」と判断してこのマッチング候補を棄却する。
[0164] the evaluation value V 3, if it is determined that the residual pixel exists on the left and right flanking regions, if the model is a standard car is judged as "a state of being matched to a portion of large vehicles" This matching candidate is rejected.

【0165】一方、モデルが大型車の場合は、評価値V
によって、左右の隣接領域に残差画素が存在すると
判定された場合でも、投影像モデルの下部領域に十分な
密度の残差領域が存在しているならば「大型車が並走し
ている状態である」と判断してこのマッチング結果を認
める。
On the other hand, when the model is a large car, the evaluation value V
3 , even if it is determined that the residual pixels exist in the left and right adjacent regions, if there is a residual region with a sufficient density in the lower region of the projection image model, “the large vehicle is running in parallel. It is in a state ", and this matching result is recognized.

【0166】すなわち、予め定めたしきい値Thr
を用いて以下の様に判断する。
That is, the predetermined threshold value Thr 4
Is determined using the following.

【0167】[0167]

【表1】 大型車で、左右の隣接領域の密度が高くても候補を棄却
しない場合が存在するのは、自車線と隣接車線に車両が
並走する場合があるからである。輪郭線内部に適合画素
が存在するのが、隣接車線からのはみ出しでなく、確か
に自車線に車両が存在することを判断するために、新た
なしきい値Thrを導入している。
[Table 1] There is a case where a large vehicle does not reject candidates even if the density of the left and right adjacent areas is high because vehicles may run in the own lane and the adjacent lane in some cases. Are there conform pixels inside the contour line is not protruding from the adjacent lane, to determine that the vehicle is present certainly own lane, it introduces a new threshold Thr 4.

【0168】以上の様に車両投影像モデルの隣接領域の
条件を検証した上で、最終的に最もよく当てはまる位置
の候補を選択する。
After verifying the conditions of the adjacent area of the vehicle projection image model as described above, a candidate for a position that best fits is finally selected.

【0169】(3−4−2)車両位置の決定 このステップは車両の位置を決定するステップである。(3-4-2) Determination of Vehicle Position This step is for determining the position of the vehicle.

【0170】このステップでは、評価値は基本的に適合
した画素の数で行い、モデルの面積に対する比では行わ
ない。面積比で比較すると、相対的に小さな投影像が有
利になってしまうからである。面積比で比較すると、例
えば、黒い幌付きのトラックなどのように投影像が大き
くて、内部に残差領域の欠落がある車両は、密度が低く
なるので検出が難しくなる。
In this step, the evaluation value is basically determined by the number of matched pixels, not by the ratio to the area of the model. This is because a relatively small projection image is advantageous when compared by area ratio. When compared by area ratio, for example, a vehicle having a large projected image such as a truck with a black hood and having a missing residual area therein has a low density, which makes detection difficult.

【0171】すなわち、(6)式の評価値Vを用い
て、最も良い位置の候補を選択する。
[0171] That is, (6) using the evaluation value V 5 of formula, selecting a candidate of the best position.

【数6】 前述したループの階層構造でマッチング処理を行ってい
る場合には、車種ごとかつ車線ごとに最も良い位置の候
補が検出される。
(Equation 6) When the matching process is performed in the above-described loop hierarchical structure, the best position candidate is detected for each vehicle type and each lane.

【0172】ここで、位置の示す手段としては、例え
ば、下部領域の下端の線の中央部の座標値を用いる。こ
の座標値は、画像の横方向をx軸、縦方向をy軸として
(x,y)で表す。
Here, as means for indicating the position, for example, the coordinate value of the center of the line at the lower end of the lower area is used. These coordinate values are represented by (x, y) with the horizontal direction of the image as the x axis and the vertical direction as the y axis.

【0173】なお、重なり合った候補が得られた場合に
は、高い評価値を得た候補に統合する。統合処理の方法
はいくつか考えられるが、単純に(6)式のVが大
きい方に統合する方法がある。車線ごとに得られる結果
は、個別に得られた結果をそのまま並列に出力してよ
い。
When overlapping candidates are obtained, they are merged into candidates having high evaluation values. The method of integration processing are considered some, but there is simply (6) how to integrate towards V 5 is large type. As the result obtained for each lane, the result obtained individually may be output in parallel as it is.

【0174】最終的に、(7)式の評価値V(密
度)が、しきい値Thrより大きいことをチェック
して、通過した候補(車両投影像モデル)を最終出力と
する。
Finally, it is checked that the evaluation value V 6 (density) of the equation (7) is larger than the threshold value Thr 6 , and the passed candidate (vehicle projected image model) is set as the final output.

【0175】[0175]

【数7】 以上で1フレーム(1対のステレオ画像)の入力に対す
る処理が終了する。
(Equation 7) Thus, the processing for the input of one frame (a pair of stereo images) is completed.

【0176】これによって、どの車種が、どの車線で、
どの位置に存在するかが確実に判断することができる。
As a result, in which lane, in which lane,
It can be reliably determined at which position it exists.

【0177】(実施例2)実施例1では、信頼度画像を
用いた評価方法に関して、モデル内部の密度の評価や隣
接領域の密度の評価だけを行ったが、他にも信頼度画像
を用いて評価できる項目がある。
(Embodiment 2) In the first embodiment, with respect to the evaluation method using the reliability image, only the evaluation of the density inside the model and the evaluation of the density of the adjacent area are performed. There are items that can be evaluated.

【0178】例えば、モデルのマッチング精度を向上さ
せるためにマッチングの左右バランスのチェックを行う
場合がある。この場合は、モデルの位置の決定であるの
で、信頼度の低い残差画素の情報を合わせて処理するこ
とが有効である。
For example, there is a case where the right / left balance of the matching is checked in order to improve the matching accuracy of the model. In this case, since the position of the model is determined, it is effective to process the information of the residual pixels having low reliability.

【0179】マッチングの左右バランスのチェックは、
例えば、図15に示すように、車両投影像モデルの6角
形から中心線を設定し、輪郭線の内部を左右の領域に分
割すればできる。左右のそれぞれの領域に含まれる残差
画素数をカウントしてその比を計算し、比が定めた範囲
にあるかを検証することで判断できる。
Checking the left / right balance of matching
For example, as shown in FIG. 15, a center line can be set from a hexagon of the vehicle projection image model, and the inside of the contour can be divided into left and right regions. It can be determined by counting the number of residual pixels included in each of the left and right regions, calculating the ratio, and verifying whether the ratio is within a predetermined range.

【0180】(実施例3)信頼度画像を用いた別の例と
して、下部領域からモデルの形状を上部に拡張する方法
について説明する。
(Embodiment 3) As another example using a reliability image, a method of extending the model shape from the lower region to the upper portion will be described.

【0181】実施例1では大型車モデルと普通車モデル
の2種だけを用いる例を説明したが、実際には中型車な
ど様々な車両が存在する。
In the first embodiment, an example is described in which only two types, a large car model and a normal car model, are used. However, there are actually various vehicles such as medium-sized cars.

【0182】中型車に普通車モデルを当てはめると、輪
郭線の前方にさらに残差領域があるにも関わらず、モデ
ルの当てはめができなくなる。また、中型車に大型車モ
デルを当てはめると、上部の領域があまってしまい、悪
い場合には上部領域に前方の車両の一部が含まれてしま
う。
When a normal car model is applied to a medium-sized car, the model cannot be applied despite the presence of a residual area in front of the contour. In addition, when a large-sized vehicle model is applied to a medium-sized vehicle, an upper region is filled, and in a bad case, a part of a vehicle ahead is included in the upper region.

【0183】そこで、車両の投影像は一度に6角形のモ
デル全部の領域をカウントするのでなく、下部領域でマ
ッチングさせた後で、残差領域の連続性をチェックしな
がら上部の領域に拡張する方法が効果的になる場合があ
る。
Therefore, the projected image of the vehicle is not counted in the whole area of the hexagonal model at once, but is expanded in the upper area while checking the continuity of the residual area after matching in the lower area. The method may be effective.

【0184】このように、下部領域から上部領域に投影
像モデルを拡張する場合も、信頼度画像の活用が非常に
効果的である。
As described above, even when the projection image model is extended from the lower region to the upper region, the use of the reliability image is very effective.

【0185】図16は、下部領域から上部にモデルを拡
張する方法の説明図である。
FIG. 16 is an explanatory diagram of a method of extending a model from a lower region to an upper portion.

【0186】今、投影像モデルの輪郭線は大型車のモデ
ルであるとして、残差領域に表れた中型の大きさの車両
にマッチングしている状況であるとする。
Now, it is assumed that the contour line of the projected image model is a model of a large vehicle, and that the situation matches a medium-sized vehicle appearing in the residual area.

【0187】領域を拡張する場合でも、投影像モデルの
輪郭線は必要であるし、この輪郭線を超えないように拡
張することが必要になる。
Even when the area is extended, the contour of the projection image model is necessary, and it is necessary to extend the contour so as not to exceed the contour.

【0188】その理由は、境界線なしに、単純に連続す
る領域を接続していくと重なった車両が一つの塊になっ
てしまい、止め処なく大きくなってしまうからである。
車両の投影像モデルが大型車の3次元モデルから生成さ
れているならば、この輪郭線を超えて接続することは無
い。このような意味で投影像モデルの輪郭線は重要な情
報である。
[0188] The reason is that simply connecting continuous areas without a boundary line results in an overlapped vehicle becoming one lump and becoming larger without stopping.
If the projected image model of the vehicle is generated from the three-dimensional model of the large vehicle, there is no connection beyond this contour. In this sense, the outline of the projection image model is important information.

【0189】さて、いま輪郭線内部の下部領域に十分な
残差画素の密度があり、後方の隣接領域の0画素の密度
も定めたしきい値より低い密度であったとする。ここで
下部領域から領域を情報に拡張する。拡張の条件は「注
目するラインに、信頼度の高い残差画素が存在するこ
と」とする。条件を満たす場合には、信頼度の高低を問
わず両方の残差画素を評価量にカウントする。
Now, it is assumed that there is a sufficient density of residual pixels in the lower region inside the contour and that the density of 0 pixels in the adjacent region behind is also lower than the predetermined threshold value. Here, the area is extended from the lower area to information. The condition for expansion is that “a highly reliable residual pixel exists in the line of interest”. If the condition is satisfied, both residual pixels are counted in the evaluation amount regardless of the degree of reliability.

【0190】図16の例では横の線(L)の位置までは
拡張されるが、Lより上には信頼度の高い残差画素が無
いので拡張されない。
In the example shown in FIG. 16, the image is expanded up to the position of the horizontal line (L), but is not expanded above L since there is no highly reliable residual pixel.

【0191】このような場合でも信頼度画像が有効に活
用される。
Even in such a case, the reliability image is effectively used.

【0192】(実施例4)これまでの実施例では、信頼
度画像の信頼度のレベルは「高」「低」の2値しかなか
ったが、さらに多値に拡張する方法もある。
(Embodiment 4) In the above embodiments, the reliability level of the reliability image has only two values of "high" and "low". However, there is a method of extending the reliability image to more values.

【0193】(1)第1の方法 投影差分画像の差分値をそのまま信頼度に用いれば、入
力画像と同じだけの多段階の信頼度画像を構成できる。
(1) First Method If the difference value of the projection difference image is directly used as the reliability, a multi-level reliability image as many as the input image can be constructed.

【0194】(2)第2の方法 2値化した残差画像(例えば図7の残差画像Aや残差画
像B)を用いて、ある画素の周囲に存在する残差画素の
個数を8近傍でカウントして、その数を信頼度とする方
法もある。
(2) Second Method Using the binarized residual image (for example, residual image A or residual image B in FIG. 7), the number of residual pixels around a certain pixel is reduced to 8 There is also a method of counting in the vicinity and using the number as reliability.

【0195】この方法であれば、細い線状の領域は信頼
度は1から2程度になり、塊状の領域の中心部分の信頼
度は8などになる。
According to this method, the reliability of a thin linear region is about 1 to 2, and the reliability of the central portion of a block-like region is 8 or the like.

【0196】(3)第3の方法 時間的な継続性を評価して継続時間を信頼度にする方法
もある。
(3) Third Method There is also a method of evaluating temporal continuity and making the continuous time reliability.

【0197】例えば、残差画像Aを基準に、注目した画
素が残差画素として継続した時間を計る。
For example, based on the residual image A, the time during which the pixel of interest continues as a residual pixel is measured.

【0198】例えば、10フレーム前から連続して残差
画素であれば、信頼度10になり、現フレームで初めて
残差画素になった画素であれば信頼度1になる。継続時
間が200を超えたら信頼度は200にするなどと設定
できる。
For example, if the pixel is a residual pixel continuously from 10 frames before, the reliability is 10; if the pixel is the first residual pixel in the current frame, the reliability is 1. If the duration exceeds 200, the reliability can be set to 200 or the like.

【0199】(4)第4の方法 信頼度にマイナスの値を付与することもできる。(4) Fourth Method A negative value can be given to the reliability.

【0200】ある位置が、路面平面より低い位置であ
り、残差が現れたとしても間違いなく誤差領域であるこ
とが、予め分かっている位置に対しては、残差が表れて
も値を正負逆にしてマイナスの信頼度を付与することも
できる。
For a position that is lower than the road surface and is definitely in an error area even if a residual appears, it is determined that the value is positive or negative even if the residual appears for a position that is known in advance. Conversely, negative reliability can be given.

【0201】その部分に関しては、信頼度0であること
と意味は同じだが、近傍領域の処理で、当該位置には誤
差が発生しているを信頼度の値を利用して情報伝達でき
る効果などがある。
The meaning of the portion is the same as the reliability of 0, but the effect of transmitting information using the value of the reliability using the value of the reliability is shown in the processing of the neighboring area. There is.

【0202】[0202]

【発明の効果】以上により、監視範囲に存在する物体の
存在性(有無)の判断を正しくすることができ、物体の
位置の検出精度も高めることができる。
As described above, it is possible to correctly determine the existence (presence or absence) of an object existing in the monitoring range, and it is possible to improve the detection accuracy of the position of the object.

【0203】この結果を利用することで、車載カメラか
らの前方障害物検出の性能を向上させることが可能にな
り、また、交通監視システムや侵入者監視システムなど
の物体検出の性能を高めることが可能になる。
By utilizing this result, it is possible to improve the performance of detecting an obstacle ahead of a vehicle-mounted camera, and to improve the performance of detecting an object such as a traffic monitoring system or an intruder monitoring system. Will be possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1の物体検出装置の構成図であ
る。
FIG. 1 is a configuration diagram of an object detection device according to a first embodiment of the present invention.

【図2】実施例1の変更例の構成図である。FIG. 2 is a configuration diagram of a modified example of the first embodiment.

【図3】システムの概念図である。FIG. 3 is a conceptual diagram of a system.

【図4】投影関係図である。FIG. 4 is a projection relation diagram.

【図5】入力画像と投影差分の説明図であり、上段左は
左カメラの像であり、上段右は右カメラの像であり、下
段左は右カメラの像を投影変換した像であり、下段右は
投影差分画像である。
5 is an explanatory diagram of an input image and a projection difference, wherein the upper left is an image of a left camera, the upper right is an image of a right camera, and the lower left is an image obtained by projecting and converting an image of a right camera; The lower right part is a projection difference image.

【図6】ブロックマッチングによる誤差領域の除去方法
の説明図である。
FIG. 6 is an explanatory diagram of a method of removing an error region by block matching.

【図7】残差画像の説明図であり、上段左は残差画像A
(2値化した投影差分画像)、上段右は残差画像B(マ
スキングとブロックマッチングにより誤差領域と不要な
領域を削除した画像)、下段左は残差画像C(多値化さ
れた残差画像)である。
FIG. 7 is an explanatory diagram of a residual image.
(A binarized projection difference image), the upper right is a residual image B (an image in which an error region and an unnecessary region are deleted by masking and block matching), and the lower left is a residual image C (a multi-valued residual). Image).

【図8】残差画像の説明図である。FIG. 8 is an explanatory diagram of a residual image.

【図9】車両投影像モデルの生成方法を説明する図であ
る。
FIG. 9 is a diagram illustrating a method of generating a vehicle projection image model.

【図10】画像をブロックに分割する例である。FIG. 10 is an example of dividing an image into blocks.

【図11】車両投影像モデルの例である。FIG. 11 is an example of a vehicle projection image model.

【図12】車両投影像モデルの詳細図である。FIG. 12 is a detailed view of a vehicle projection image model.

【図13】自車線条件の概念図である。FIG. 13 is a conceptual diagram of an own lane condition.

【図14】左右の隣接領域をチェックする処理の模式図
である。
FIG. 14 is a schematic diagram of a process of checking left and right adjacent areas.

【図15】バランスチェックの模式図である。FIG. 15 is a schematic diagram of a balance check.

【図16】下部領域から上部にモデルを拡張する方法の
説明図である。
FIG. 16 is an explanatory diagram of a method of extending a model from a lower region to an upper portion.

【符号の説明】[Explanation of symbols]

10 物体検出装置 12 画像入力部 14 画像入力部 16 基準画像生成部 18 投影変換画像生成部 20 画像比較部 22 信頼度画像生成部 24 マスク画像記憶部 26 物体構造検出部 DESCRIPTION OF SYMBOLS 10 Object detection apparatus 12 Image input part 14 Image input part 16 Reference image generation part 18 Projection conversion image generation part 20 Image comparison part 22 Reliability image generation part 24 Mask image storage part 26 Object structure detection part

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA16 AA19 BA02 CA08 CA12 CA16 CB08 CB13 CB16 CC01 CD02 CD20 CE08 CE13 DA02 DB02 DB09 DC05 DC07 DC09 5H180 AA01 CC04 5L096 AA09 BA04 CA05 DA02 EA17 EA27 FA18 FA69 FA76 GA08 GA19  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference)

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】共通の視野を有した基準画像と比較画像と
から、前記両画像の共通の背景を構成する基準平面に対
し高さのある物体を検出する物体検出装置において、 前記基準画像と前記比較画像が、それぞれ入力する一対
の画像入力手段と、 前記基準平面を基準にして前記比較画像中の画素の位置
を前記基準画像中の対応する画素の位置に投影変換して
投影変換画像を生成する投影変換手段と、 前記投影変換された投影変換画像と前記基準画像から、
前記物体の領域が残差として表れる投影差分画像を生成
する画像比較手段と、 前記投影差分画像に基づいて、前記物体の検出を行うと
きの信頼度を示す3以上の多値の画素から構成された信
頼度画像を生成する信頼度画像生成手段と、 前記信頼度画像の多値の画素の情報に基づいて前記物体
の有無、種類、または、位置を検出する物体構造検出手
段とを具備したことを特徴とする物体検出装置。
1. An object detection apparatus for detecting an object having a height relative to a reference plane forming a common background of both images from a reference image having a common field of view and a comparison image, wherein: The comparison image is a pair of image input means for inputting, respectively, a projection-transformed image by projecting and converting a position of a pixel in the comparison image to a position of a corresponding pixel in the reference image with reference to the reference plane. Projection conversion means for generating, from the projection-converted projection-converted image and the reference image,
Image comparison means for generating a projection difference image in which the region of the object appears as a residual; and three or more multi-valued pixels indicating the reliability when detecting the object based on the projection difference image. Reliability image generation means for generating a reliability image, and object structure detection means for detecting the presence, type, or position of the object based on multi-valued pixel information of the reliability image. An object detection device characterized by the above-mentioned.
【請求項2】前記信頼度画像生成手段において、 前記多値の画素は、高さの無い領域を表すクラス、高さ
があることの信頼度が低い領域を表すクラス、高さがあ
ることの信頼度が高い領域を表すクラスの少なくとも3
種類にクラス分けされていることを特徴とする請求項1
記載の物体検出装置。
2. The reliability image generating means, wherein the multi-valued pixel is a class representing a region having no height, a class representing a region having low reliability of having a height, and a class representing a region having a height. At least three of the classes representing regions with high confidence
2. The method according to claim 1, wherein the class is classified into types.
The object detection device according to claim.
【請求項3】前記多値の画素は、さらに、前記物体の検
出処理における適用外を表すクラスにもクラス分けされ
ていることを特徴とする請求項2記載の物体検出装置。
3. The object detection apparatus according to claim 2, wherein the multi-valued pixels are further classified into classes indicating that the multi-valued pixels are not applicable to the object detection processing.
【請求項4】前記物体構造検出手段において、 前記物体の有無は、信頼度の高い領域を表すクラスの情
報を利用して判断し、 前記物体の位置は、信頼度の高い領域を表すクラスの情
報と信頼度の低い領域を表すクラスの情報を同時に利用
して判断することを特徴とする請求項1記載の物体検出
装置。
4. The object structure detecting means, wherein the presence or absence of the object is determined by using information of a class representing a high reliability area, and the position of the object is determined by a class of a high reliability area. 2. The object detection apparatus according to claim 1, wherein the determination is performed by simultaneously using the information and information of a class representing an area with low reliability.
【請求項5】前記物体構造検出手段において、 前記投影差分画像に表れることが予想される前記物体の
投影像モデルを前記信頼度画像へマッチングさせて、前
記信頼度画像における前記物体の有無、種類、または、
位置を検出することを特徴とする請求項1記載の物体検
出装置。
5. The object structure detection means, wherein a projection image model of the object expected to appear in the projection difference image is matched with the reliability image, and the presence / absence and type of the object in the reliability image Or
2. The object detection device according to claim 1, wherein the position is detected.
【請求項6】前記物体構造検出手段において、 前記投影差分画像に表れることが予想される前記物体の
投影像モデルを前記信頼度画像へマッチングさせたとき
に、前記投影像モデルと前記信頼度画像の前記クラス分
けされた画素の領域と重なった部分における前記クラス
分けされた画素の数をそれぞれカウントして、前記各ク
ラスのカウント数に基づいて、前記物体の有無、種類、
または、位置を判断することを特徴とする請求項2記載
の物体検出装置。
6. The object structure detecting means, wherein when the projection image model of the object expected to appear in the projection difference image is matched with the reliability image, the projection image model and the reliability image Counting the number of the classified pixels in a portion overlapping with the area of the classified pixels, based on the count number of each class, the presence or absence of the object, the type,
3. The object detection device according to claim 2, wherein the position is determined.
【請求項7】前記物体構造検出手段において、 前記投影像モデルは、上部領域、下部領域、後方の隣接
領域から少なくとも構成され、 前記下部領域と前記各クラスのカウント数に基づいて前
記物体の有無を判断し、 前記後方の隣接領域と各クラスのカウント数に基づいて
前記物体の位置を判断することを特徴とする請求項5記
載の物体検出装置。
7. The object structure detecting means, wherein the projection image model is at least composed of an upper area, a lower area, and a rear adjacent area, and the presence or absence of the object is determined based on the lower area and the count number of each class. The object detection apparatus according to claim 5, wherein the position of the object is determined based on the rear adjacent area and the count number of each class.
【請求項8】共通の視野を有した基準画像と比較画像と
から、前記両画像の共通の背景を構成する基準平面に対
し高さのある物体を検出する物体検出方法において、 前記基準画像と前記比較画像が、それぞれ入力する一対
の画像入力ステップと、 前記基準平面を基準にして前記比較画像中の画素の位置
を前記基準画像中の対応する画素の位置に投影変換して
投影変換画像を生成する投影変換ステップと、 前記投影変換された投影変換画像と前記基準画像から、
前記物体の領域が残差として表れる投影差分画像を生成
する画像比較ステップと、 前記投影差分画像に基づいて、前記物体の検出を行うと
きの信頼度を示す3以上の多値の画素から構成された信
頼度画像を生成する信頼度画像生成ステップと、 前記信頼度画像の多値の画素の情報に基づいて前記物体
の有無、種類、または、位置を検出する物体構造検出ス
テップとを具備したことを特徴とする物体検出方法。
8. An object detection method for detecting, from a reference image having a common field of view and a comparison image, an object having a height with respect to a reference plane constituting a common background of the two images, The comparison image is a pair of image input steps to be input, respectively, Projection conversion image by projecting the position of the pixel in the comparison image to the position of the corresponding pixel in the reference image with reference to the reference plane A projection conversion step to generate, and from the projection-converted projection-converted image and the reference image,
An image comparison step of generating a projection difference image in which the region of the object appears as a residual; and, based on the projection difference image, three or more multi-valued pixels indicating reliability at the time of detecting the object. A reliability image generating step of generating a reliability image, and an object structure detecting step of detecting presence / absence, type, or position of the object based on information of multi-valued pixels of the reliability image. An object detection method characterized by the following.
【請求項9】共通の視野を有した基準画像と比較画像と
から、前記両画像の共通の背景を構成する基準平面に対
し高さのある物体を検出する物体検出方法をコンピュー
タによって実現するプログラムにおいて、 前記基準画像と前記比較画像が、それぞれ入力する一対
の画像入力機能と、 前記基準平面を基準にして前記比較画像中の画素の位置
を前記基準画像中の対応する画素の位置に投影変換して
投影変換画像を生成する投影変換機能と、 前記投影変換された投影変換画像と前記基準画像から、
前記物体の領域が残差として表れる投影差分画像を生成
する画像比較機能と、 前記投影差分画像に基づいて、前記物体の検出を行うと
きの信頼度を示す3以上の多値の画素から構成された信
頼度画像を生成する信頼度画像生成機能と、 前記信頼度画像の多値の画素の情報に基づいて前記物体
の有無、種類、または、位置を検出する物体構造検出機
能とをコンピュータによって実現することを特徴とする
物体検出方法のプログラム。
9. A program for realizing, by a computer, an object detection method for detecting, from a reference image and a comparison image having a common field of view, an object having a height with respect to a reference plane constituting a common background of the two images. A pair of image input functions for inputting the reference image and the comparison image, respectively; and projecting a pixel position in the comparison image to a corresponding pixel position in the reference image with respect to the reference plane. And a projection conversion function of generating a projection conversion image, from the projection-converted projection-converted image and the reference image,
An image comparison function for generating a projection difference image in which the region of the object appears as a residual; and three or more multi-valued pixels indicating reliability when the object is detected based on the projection difference image. A computer-implemented reliability image generation function of generating a reliability image, and an object structure detection function of detecting the presence / absence, type, or position of the object based on multi-valued pixel information of the reliability image A program for an object detection method characterized by performing the following.
JP2001175968A 2001-06-11 2001-06-11 Object detection apparatus and method Expired - Fee Related JP3808727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001175968A JP3808727B2 (en) 2001-06-11 2001-06-11 Object detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001175968A JP3808727B2 (en) 2001-06-11 2001-06-11 Object detection apparatus and method

Publications (2)

Publication Number Publication Date
JP2002366932A true JP2002366932A (en) 2002-12-20
JP3808727B2 JP3808727B2 (en) 2006-08-16

Family

ID=19017022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001175968A Expired - Fee Related JP3808727B2 (en) 2001-06-11 2001-06-11 Object detection apparatus and method

Country Status (1)

Country Link
JP (1) JP3808727B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260098A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Obstacle detection unit
JP2007060511A (en) * 2005-08-26 2007-03-08 Fujitsu Ten Ltd Object discriminating device, object discriminating method, and object discriminating program
JP2013037394A (en) * 2011-08-03 2013-02-21 Toshiba Corp Vehicle detection device
CN112150538A (en) * 2019-06-27 2020-12-29 北京初速度科技有限公司 Method and device for determining vehicle pose in three-dimensional map construction process
CN115060665A (en) * 2022-08-16 2022-09-16 君华高科集团有限公司 Automatic inspection system for food safety

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260098A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Obstacle detection unit
JP4539388B2 (en) * 2005-03-16 2010-09-08 パナソニック電工株式会社 Obstacle detection device
JP2007060511A (en) * 2005-08-26 2007-03-08 Fujitsu Ten Ltd Object discriminating device, object discriminating method, and object discriminating program
JP2013037394A (en) * 2011-08-03 2013-02-21 Toshiba Corp Vehicle detection device
CN112150538A (en) * 2019-06-27 2020-12-29 北京初速度科技有限公司 Method and device for determining vehicle pose in three-dimensional map construction process
CN112150538B (en) * 2019-06-27 2024-04-12 北京初速度科技有限公司 Method and device for determining vehicle pose in three-dimensional map construction process
CN115060665A (en) * 2022-08-16 2022-09-16 君华高科集团有限公司 Automatic inspection system for food safety

Also Published As

Publication number Publication date
JP3808727B2 (en) 2006-08-16

Similar Documents

Publication Publication Date Title
CN110942449B (en) Vehicle detection method based on laser and vision fusion
US9292750B2 (en) Method and apparatus for detecting traffic monitoring video
Königshof et al. Realtime 3d object detection for automated driving using stereo vision and semantic information
JP3367170B2 (en) Obstacle detection device
EP3576008B1 (en) Image based lane marking classification
US7974442B2 (en) Vehicular vision system
EP0747870B1 (en) An object observing method and device with two or more cameras
CN105335955B (en) Method for checking object and object test equipment
WO2020097840A1 (en) Systems and methods for correcting a high-definition map based on detection of obstructing objects
Hinz Detection and counting of cars in aerial images
CN110889974B (en) Intelligent parking space identification method and device and automobile
JP2010244194A (en) Object identification device
Nuevo et al. Estimating surrounding vehicles' pose using computer vision
CN113111707B (en) Front car detection and ranging method based on convolutional neural network
US11281916B2 (en) Method of tracking objects in a scene
JPH09297849A (en) Vehicle detector
Hautière et al. Road scene analysis by stereovision: a robust and quasi-dense approach
Srinivasa et al. A fusion system for real-time forward collision warning in automobiles
Takahashi et al. A robust lane detection using real-time voting processor
JP3808727B2 (en) Object detection apparatus and method
JP3465531B2 (en) Object recognition method and apparatus
US20230169797A1 (en) Traffic hand signal detection system and method thereof
Fu et al. Vision-based preceding vehicle detection and tracking
CN116413725A (en) Barrier detection method based on camera and millimeter wave radar data fusion
Shen et al. An Efficient Probabilistic Solution to Mapping Errors in LiDAR-Camera Fusion for Autonomous Vehicles

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060518

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090526

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100526

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees