JP2000293693A - Obstacle detecting method and device - Google Patents

Obstacle detecting method and device

Info

Publication number
JP2000293693A
JP2000293693A JP11130451A JP13045199A JP2000293693A JP 2000293693 A JP2000293693 A JP 2000293693A JP 11130451 A JP11130451 A JP 11130451A JP 13045199 A JP13045199 A JP 13045199A JP 2000293693 A JP2000293693 A JP 2000293693A
Authority
JP
Japan
Prior art keywords
image
reference image
obstacle
points
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP11130451A
Other languages
Japanese (ja)
Inventor
Hiroshi Hattori
寛 服部
Kenichi Maeda
賢一 前田
Kazunori Onoguchi
一則 小野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP11130451A priority Critical patent/JP2000293693A/en
Publication of JP2000293693A publication Critical patent/JP2000293693A/en
Abandoned legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect an object existing on a road surface even when vibration during traveling is generated or inclination on the road surface itself exists without operating any calibration. SOLUTION: An obstacle detecting device 1 which detects an obstacle region on a road plane having plural lines is provided with two TV cameras 2a and 2b which photograph a read surface, a picture storing part 3 which stores right and left pictures photographed by the TV cameras 2b and 2a, a feature extracting part 4 which extracts plural lines expressed on the right and left pictures stored in the picture storing part 3, and which calculates corresponding points between the right and left pictures based on the extracted plural lines, a relational formula parameter calculating part 5 which calculates the parameter of a relational formula established between the projecting positions of arbitrary points of the road surface to the right and left pictures based on the corresponding points calculated by the feature extracting part 4, and a detecting part 6 which detects a region having height different from that of the road surface as an obstacle range based on the relational formula decided according to the parameter calculated by the relational formula parameter calculating part 5.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【発明の属する技術分野】道路等の面上を走行する自動
車等の車両の運転を支援するために、TVカメラによ
り、先行車等の他車両や歩行者等の道路上に存在する自
車両以外の物体(以下、障害物と定義する)を検出する
障害物検出方法および装置に関する。
BACKGROUND OF THE INVENTION In order to assist the driving of a vehicle such as an automobile running on a surface such as a road, a TV camera is used to control other vehicles such as a preceding vehicle and a vehicle other than the own vehicle existing on the road such as a pedestrian. The present invention relates to an obstacle detection method and apparatus for detecting an object (hereinafter, defined as an obstacle).

【従来の技術】道路上の障害物を検出するための技術
は、その障害物検出手段としてレーザや超音波等を利用
するものと、TVカメラを利用するものとに大別され
る。障害物検出手段としてレーザを利用する方式は、レ
ーザ自体が高価であるため、非実用的である。また、障
害物検知手段として超音波を利用する方式は、超音波の
解像度が低いため、障害物の検出精度に問題があり、こ
れも実用性を阻害している。上記2つの方式に対して、
障害物検出手段としてTVカメラを使用する方式は、T
Vカメラ自体が比較的安価であり、その解像度や計測精
度、計測範囲等の面からも障害物検出に適することが分
かっている。道路上の障害物検出手段としてTVカメラ
を用いる場合、1台のTVカメラを使用する方法と複数
台のカメラ(ステレオカメラ)を使用する方法がある。
1台のTVカメラを使用する方法は、そのカメラで撮影
した1枚の画像から、輝度や色、あるいはテクスチャ
(模様)等の情報を手がかりにして道路領域と障害物領
域とを分離する。例えば、画像中で彩度の低い中程度の
輝度領域、つまり灰色の領域を抽出して道路領域を求め
たり、テクスチャの少ない領域を求めて道路領域を抽出
し、それ以外の領域を障害物領域としている。しかしな
がら、道路上には、道路に類似した輝度、色、あるいは
テクスチャを有する障害物も数多く存在するため、この
方法で障害物領域と道路領域とを区別するのは困難であ
る。これに対し、複数台のTVカメラを用いる方法は3
次元情報を手がかりにして道路上の障害物を検出する。
これは一般にステレオ視と呼ばれる検出方式である。ス
テレオ視とは、例えば2つのカメラを左右に配置し、3
次元空間中で同一点である点を左右画像間で対応づけ、
三角測量の要領で、その点の3次元位置を求めるもので
ある。各カメラの道路平面に対する位置や姿勢等をあら
かじめ求めておくと、ステレオ視により、画像中の任意
の点の道路平面からの高さを得ることができ、この高さ
の有無により、障害物領域と道路領域とを分離すること
ができる。このステレオ視を用いた障害物検出方式によ
れば、1台のカメラを用いた場合で区別することが困難
であった道路に類似した輝度、色、あるいはテクスチャ
を有する障害物を道路領域と区別して検出することが可
能である。ところで、通常のステレオ視技術は、画像上
の任意の点のワールド座標系(絶対座標系)に対する3
次元位置を求める技術であり、このためには、あらかじ
め各カメラのワールド座標系に対する関係{位置、姿勢
(撮影方向等)、カメラレンズの焦点距離等}に関する
パラメータ(関係式パラメータ)を求める必要がある。
以下、関係式パラメータを求める作業(処理)をキャリ
ブレーションと呼ぶ。キャリブレーションは、ワールド
座標系に対する位置が既知の多数の点を用意し、それら
の点の画像への投影位置を求め、ワールド座標系に対す
るカメラの位置や姿勢、カメラレンズの焦点距離等に関
する関係式パラメータを算出する作業である。しかしな
がら、上記キャリブレーション作業を行うには、多大な
時間と労力を必要とするという問題がある。そこで、画
像上で道路領域と障害物領域とを分離することのみに着
目して、キャリブレーションを行うことなく、道路平面
からの高さの有無を判別し、高さ有り→道路平面上の障
害物、高さ無し→道路平面として、障害物を検出する方
式が考え出されている。このとき、道路平面からの高さ
の有無は、以下のようにして判別できる。道路平面上の
点の左右画像への投影点を(u,v),(u’,v’)
とすれば、
2. Description of the Related Art Techniques for detecting obstacles on a road are roughly classified into those using a laser or an ultrasonic wave as an obstacle detecting means, and those using a TV camera. The method using a laser as an obstacle detecting means is impractical because the laser itself is expensive. Further, the method of using an ultrasonic wave as an obstacle detecting means has a problem in the accuracy of detecting an obstacle because the resolution of the ultrasonic wave is low, which also hinders practicality. For the above two methods,
The method of using a TV camera as an obstacle detection means is as follows.
It is known that the V-camera itself is relatively inexpensive and is suitable for obstacle detection in terms of its resolution, measurement accuracy, measurement range, and the like. When a TV camera is used as an obstacle detecting unit on a road, there are a method using one TV camera and a method using a plurality of cameras (stereo cameras).
In a method using one TV camera, a road area and an obstacle area are separated from one image captured by the camera using information such as luminance, color, and texture (pattern). For example, a medium-luminance region with low saturation in the image, that is, a gray region is extracted to obtain a road region, or a region with little texture is extracted to extract a road region, and other regions are determined as obstacle regions. And However, since there are many obstacles on the road having similar brightness, color, or texture to the road, it is difficult to distinguish between the obstacle area and the road area by this method. On the other hand, the method using a plurality of TV cameras is 3
An obstacle on the road is detected using the dimensional information as a clue.
This is a detection method generally called stereo vision. Stereo vision refers to, for example, arranging two cameras on the left and right,
The same point in the dimensional space is associated with the left and right images,
In the manner of triangulation, the three-dimensional position of the point is determined. If the position and posture of each camera with respect to the road plane are determined in advance, the height of an arbitrary point in the image from the road plane can be obtained by stereo vision. And the road area can be separated. According to the obstacle detection method using stereo vision, an obstacle having a brightness, color, or texture similar to a road, which is difficult to distinguish when one camera is used, is distinguished from the road area. It is possible to detect separately. By the way, the usual stereo vision technique uses three points with respect to the world coordinate system (absolute coordinate system) of an arbitrary point on an image.
This is a technique for obtaining a three-dimensional position. For this purpose, it is necessary to previously obtain parameters (relational expression parameters) relating to the relationship of each camera with respect to the world coordinate system {position, posture (photographing direction, etc.), focal length of camera lens, etc.}. is there.
Hereinafter, the operation (process) for obtaining the relational expression parameters is referred to as calibration. Calibration prepares a number of points whose positions with respect to the world coordinate system are known, finds the projection positions of these points on the image, and obtains the relational expressions regarding the position and orientation of the camera with respect to the world coordinate system, the focal length of the camera lens, and the like. This is the task of calculating the parameters. However, there is a problem that a great deal of time and labor is required to perform the calibration work. Therefore, focusing only on separating the road area and the obstacle area on the image, the presence or absence of a height from the road plane is determined without performing calibration, and the height is present. Object, no height → A method of detecting an obstacle as a road plane has been devised. At this time, the presence or absence of the height from the road plane can be determined as follows. The projection points of points on the road plane onto the left and right images are (u, v), (u ', v')
given that,

【数1】 (Equation 1)

【外1】 ★● この関係式を用いて、左画像上の任意の点P(u,v)
が道路平面上に存在すると仮定した場合の右画像上の対
応点P′(u’,v’)を求める。点Pが道路平面上に
存在すれば、点PとP′が正しい対応点の組となるの
で、2点の輝度の差は小さくなる。したがって、点Pと
P’の輝度の違いが大きい場合には、点Pは障害物領域
に属すると判定することができ、キャリブレーションを
行うことなく障害物の判定を行うことが可能である。
[Outside 1] ★ ● Using this relational expression, any point P (u, v) on the left image
Is found on the right image assuming that exists on the road plane, the corresponding point P ′ (u ′, v ′) is obtained. If the point P exists on the road plane, the points P and P 'form a correct set of corresponding points, and the difference between the luminances of the two points becomes small. Therefore, when the difference in luminance between the points P and P ′ is large, it can be determined that the point P belongs to the obstacle region, and the obstacle can be determined without performing calibration.

【外2】 [Outside 2]

【発明が解決しようとする課題】上述したように、複数
台のTVカメラを用いて道路平面からの高さの有無によ
りキャリブレーションを行うことなく障害物を検出する
障害物検出装置は、超音波やレーザを検出手段として利
用する装置と比べて安価で、かつ検出精度が高く、しか
も、キャリブレーション作業を不用にして障害物検出に
かかる時間および労力を低減するという多くの利点を有
している。
As described above, an obstacle detecting apparatus for detecting an obstacle without performing calibration based on the presence or absence of a height from a road plane using a plurality of TV cameras is an ultrasonic detecting apparatus. It has many advantages in that it is inexpensive, has high detection accuracy, and reduces the time and effort required for obstacle detection by eliminating the need for calibration work, as compared with a device that uses a laser as a detection means. .

【外3】 ★● 本発明は上述した事情に鑑みてなされたもので、エビポ
ーラ拘束のみが既知な複数のTVカメラを用いて撮影し
た複数枚の画像から、面上の2本以上の線の投影像を抽
出し、抽出した投影像から面と各カメラとの幾何学的な
関係を求めることにより、キャリブレーションが不要
で、走行中に振動や路面自体に傾斜があつても、路面上
に存在する障害物を検出することができる障害物検出方
法および装置を提供することをその目的とする。
[Outside 3] ★ ● The present invention has been made in view of the above circumstances, and extracts a projection image of two or more lines on a surface from a plurality of images taken using a plurality of TV cameras whose only ebipolar constraints are known. By calculating the geometric relationship between the surface and each camera from the extracted projection image, calibration is not required, and obstacles existing on the road surface even if the road surface It is an object of the present invention to provide an obstacle detection method and apparatus capable of detecting an obstacle.

【課題を解決するための手段】上述した目的を達成する
ための第1の発明によれば、複数の線を有する面上の障
害物領域を検出する障害物検出装置であって、画像を撮
影する複数の撮影デバイスと、この複数の撮影デバイス
によりそれぞれ撮影された複数の画像を記憶する画像記
憶手段と、この画像記憶手段に記憶された複数の画像上
に表された前記複数の線を抽出し、抽出した複数の線に
基づいて前記複数の画像間の対応点を求める抽出手段
と、この抽出手段により求められた対応点に基づいて、
前記面上の任意の点の各画像への投影位置の間に成り立
つ関係式のパラメータを計算するパラメータ計算手段
と、このパラメータ計算手段により計算されたパラメー
タにより定まる関係式に基づいて前記面に対して異なる
高さを有する領域を障害物領域として検出する検出手段
とを備えている。第1の発明において、前記複数の撮影
デバイスの内の1つの基準撮影デバイスにより撮影され
た画像を基準画像とし、残りの撮影デバイスにより撮影
された画像を参照画像としたとき、前記基準画像上の任
意の点に対応する前記参照画像上の対応点は、前記基準
画像上の任意の点と前記基準撮影デバイスの視点とを結
ぶ直線の前記参照画像上への投影直線上に拘束される。
第1の発明において、好適には、前記抽出手段は、前記
基準画像上の複数の線および前記基準画像に対する前記
参照画像上への投影直線に基づいて前記基準画像および
前記参照画像間の対応点の組を求めており、前記パラメ
ータ計算手段は、前記抽出手段により求められた前記基
準画像および前記参照画像間の複数の対応点の組に基づ
いて、前記面上の任意の点の前記基準画像および前記参
照画像に対する投影位置の間に成り立つ関係式のパラメ
ータを求める手段である。第1の発明において、特に、
前記抽出手段は、前記基準画像上の複数の線の内の一本
の線1上の第1の複数の点と前記参照画像上の投影線と
の交点を第1の複数の対応点として求め、前記基準画像
上の複数の線の内の1以外の一本の線上の第2の複数の
点と前記参照画像上の投影線との交点を第2の複数の対
応点として求めることにより、前記第1の複数の点およ
び第1の複数の対応点の組と前記第2の複数の点および
第2の複数の対応点の組とを求めるようにしている。第
1の発明において、好適には、前記検出手段は、前記基
準画像上の任意の点が前記面上に存在すると仮定した場
合に、前記任意の点に対応する前記参照画像上の対応点
を、前記関係式パラメータにより定まる関係式に基づい
て求め、前記基準画像上の任意の点の輝度と求められた
前記参照画像上の対応点の輝度とを比較することによ
り、前記基準画像上の任意の点が前記面に対して異なる
高さを有する障害物領域に属するか否かを判定するよう
にしている。第1の発明において、前記検出手段は、前
記参照画像を、当該参照画像の任意の点が前記面上に存
在すると仮定した場合に、前記基準撮影デバイスで得ら
れる画像に変換する変換手段と、前記基準画像と前記変
換手段により変換された参照画像との差異を計算し、計
算された差異に基づいて、前記参照画像上の任意の点が
前記面に対して異なる高さを有する障害物領域に属する
か否かを判定する差異計算手段とを備えている。第1の
発明において、前記面は実空間で移動する移動体が走行
する路面であり、前記障害物検出装置を前記移動体に搭
載している。上述した目的を達成するための第2の発明
によれば、複数の線を有する面上の障害物領域を検出す
る障害物検出方法であって、複数の画像を撮影するステ
ップと、撮影ステップにより撮影された複数の画像を記
憶するステップと、この記憶ステップにより記憶された
複数の画像上に表された前記複数の線を抽出し、抽出し
た複数の線に基づいて前記複数の画像間の対応点を求め
るステップと、このステップにより求められた対応点に
基づいて、前記面上の任意の点の各画像への投影位置の
間に成り立つ関係式のパラメータを計算するステップ
と、このパラメータ計算ステップにより計算されたパラ
メータにより定まる関係式に基づいて前記面に対して異
なる高さを有する領域を障害物領域として検出するステ
ップとを備えている。
According to a first aspect of the present invention, there is provided an obstacle detecting apparatus for detecting an obstacle area on a surface having a plurality of lines, the apparatus comprising: A plurality of image capturing devices, image storing means for storing a plurality of images respectively captured by the plurality of image capturing devices, and extracting the plurality of lines represented on the plurality of images stored in the image storing means And extracting means for obtaining a corresponding point between the plurality of images based on the plurality of extracted lines, based on the corresponding points obtained by the extracting means,
Parameter calculating means for calculating a parameter of a relational expression that holds between the projection positions of the arbitrary points on the surface to the respective images, and the surface based on a relational expression determined by the parameter calculated by the parameter calculating means. Detecting means for detecting areas having different heights as obstacle areas. In the first invention, when an image photographed by one of the plurality of photographing devices is set as a reference image, and an image photographed by the remaining photographing devices is set as a reference image, A corresponding point on the reference image corresponding to an arbitrary point is constrained on a straight line connecting the arbitrary point on the reference image and the viewpoint of the reference imaging device onto a projection straight line on the reference image.
In the first invention, it is preferable that the extraction unit includes a corresponding point between the reference image and the reference image based on a plurality of lines on the reference image and a straight line projected on the reference image with respect to the reference image. The parameter calculation unit calculates the reference image of an arbitrary point on the surface based on a set of a plurality of corresponding points between the reference image and the reference image obtained by the extraction unit. And means for obtaining a parameter of a relational expression that is established between the projection position with respect to the reference image. In the first invention, in particular,
The extracting means determines an intersection of a first plurality of points on one line 1 of the plurality of lines on the reference image and a projection line on the reference image as a first plurality of corresponding points. Determining the intersection of a second plurality of points on one line other than one of the plurality of lines on the reference image and a projection line on the reference image as a second plurality of corresponding points, The set of the first plurality of points and the first plurality of corresponding points and the set of the second plurality of points and the second plurality of corresponding points are determined. In the first invention, preferably, the detecting means determines a corresponding point on the reference image corresponding to the arbitrary point, assuming that an arbitrary point on the reference image exists on the surface. By comparing the luminance of an arbitrary point on the reference image with the calculated luminance of the corresponding point on the reference image, the arbitrary luminance on the reference image is calculated based on a relational expression determined by the relational expression parameter. Is determined to belong to an obstacle area having a different height with respect to the plane. In the first invention, the detection unit converts the reference image into an image obtained by the reference imaging device, assuming that an arbitrary point of the reference image exists on the surface. Calculating a difference between the reference image and the reference image converted by the conversion unit, and based on the calculated difference, any point on the reference image having an obstacle area having a different height with respect to the plane; And a difference calculation means for determining whether or not the data belongs to In the first aspect, the surface is a road surface on which a moving body that moves in a real space travels, and the obstacle detection device is mounted on the moving body. According to a second aspect of the present invention, there is provided an obstacle detection method for detecting an obstacle area on a plane having a plurality of lines, comprising: a step of photographing a plurality of images; Storing a plurality of captured images, extracting the plurality of lines represented on the plurality of images stored by the storing step, and performing correspondence between the plurality of images based on the plurality of extracted lines. Obtaining a point; calculating parameters of a relational expression that holds between the projection positions of any points on the surface onto each image based on the corresponding points obtained in this step; Detecting regions having different heights with respect to the surface as obstacle regions based on a relational expression determined by parameters calculated by the above.

【発明の実施の形態】本発明の実施の形態を添付図面を
参照して説明する。なお、本実施形態においては、自動
車等の路面(道路平面)上を走行する車両に搭載した左
右2台の画像撮影デバイス(TVカメラ、ステレオカメ
ラ)から、その走行方向前方における歩行者や先行車等
の道路平面上に存在する障害物を検出する状況を想定
し、その想定状況での障害物検出装置による障害物検出
処理について説明する。図1は、本実施の形態に係る障
害物検出装置1の概略構成を示すブロック図である。本
実施形態の障害物検出装置1は、道路平面上を走行する
車両に搭載されており、自車両の走行時の振動や道路平
面の傾斜等により時々刻々変化する道路平面と各TVカ
メラとの幾何学的関係求め、その幾何学的関係を用いて
道路平面上に存在する障害物を検出し、検出した障害物
を表示するようになっている。すなわち、障害物検出装
置1は、自車両に係る3次元空間内の共通の面である例
えば走行方向前方の道路平面上の画像を撮影する左右2
台のTVカメラ(左側TVカメラ2a、右側TVカメラ
2b)を有する画像撮影部2と、TVカメラ2aにより
撮影された画像(左画像)およびTVカメラ2bにより
撮影された画像(右画像)を蓄積(記憶)するための画
像蓄積部3と、左画像および右画像上において特徴とな
る2本以上の線を抽出するための特徴抽出部4と、抽出
された特徴線に基づいて関係式パラメータを計算するパ
ラメータ計算部5と、計算された関係式パラメータに基
づいて道路平面に対して異なる高さを有する点を求め
て、この点を障害物(障害物領域)として検出する検出
部6とを備えている。本実施形態においては、図2に示
すように、上記道路平面上の2本の線を、道路平面両端
の2本の白線(1,1′)とし、直線1,1′方向をY
軸、このY軸に対して道路平面に沿って直交する方向を
X軸とするワールド座標系(絶対座標系)を設定する。
画像撮影部2は、左右2台のTVカメラ2a、2bによ
り道路平面上の2枚の画像(左画像IL、右画像IR)
をそれぞれ撮影するようになっている。各TVカメラ2
a、2bは、例えば所定間隔を空けて、例えばワールド
座標系のX軸方向に沿った左右に並べて取りつけられて
おり、その撮影方向は、走行車両の前方に限らず、後方
やサイド方向であってもよい。また、各TVカメラ2
a、2bの焦点距離を切り換えることにより、道路平面
(路面)の状況に応じて、広角撮影および望遠撮影を行
うことも可能である。そして、本実施形態における2台
のTVカメラ2a、2bは、そのワールド座標系に対す
る位置や姿勢は未知で、エピポーラ拘束のみが既知であ
るとし、走行中に変化しないように構成されている。こ
こで、エピポーラ拘束とは、一般的なステレオカメラに
対して成り立つ拘束であり、一方の画像(本実施形態で
は左画像とし、この画像を基準画像とも呼ぶ)上の任意
の点kに対応する他方の画像(本実施形態では右画像と
し、この画像を参照画像とも呼ぶ)上での点(対応点)
k’は、図3に示すように、その右画像IR上のある直
線上に拘束されることを意味する。この直線のことをエ
ピポーララインELと呼ぶ。このエピポーララインEL
は、左画像IL上の点kと左側TVカメラ2aの視点
(レンズの中心点位置)とを右画像IR上に投影してそ
れらを結ぶことにより定められる。例えば、各TVカメ
ラ2a、2bの光軸を平行に配置した場合には、左画像
IL上の任意の点の右画像IR上での対応点は、その右
画像IR上における同一走査線上に存在するので、エピ
ポーララインと走査線は一致する。エピポーラ拘束は、
ステレオカメラ(左側TVカメラ2a、右側TVカメラ
2b)間の相対的な位置・姿勢の関係と、各カメラ2
a、2bの内部パラメータ、すなわち、各カメラレンズ
の焦点距離、画像原点等に依存するため、エビポーラ拘
束が不変であるということは、ステレオカメラ2a、2
bの相対的な位置関係等が走行中に変化しないことを意
味する。エピポーラ拘束は以下のようにして求めてお
く。今、ステレオ画像(左画像IL、右画像IR)の任
意の対応点の組(u,v)、(u’,v’)
(i=1,2,…,N)には、
Embodiments of the present invention will be described with reference to the accompanying drawings. In the present embodiment, two left and right image photographing devices (TV camera and stereo camera) mounted on a vehicle running on a road surface (road plane) such as an automobile receive a pedestrian or a preceding vehicle in the traveling direction. Assuming a situation where an obstacle existing on a road plane such as is detected, an obstacle detection process performed by the obstacle detection device in the assumed situation will be described. FIG. 1 is a block diagram illustrating a schematic configuration of an obstacle detection device 1 according to the present embodiment. The obstacle detection device 1 according to the present embodiment is mounted on a vehicle traveling on a road plane. The obstacle detection device 1 is connected to each of the TV cameras and a road plane that changes every moment due to vibration of the own vehicle when traveling or an inclination of the road plane. A geometric relationship is obtained, an obstacle existing on a road plane is detected using the geometric relationship, and the detected obstacle is displayed. That is, the obstacle detection device 1 is configured to capture an image on a common plane in a three-dimensional space related to the host vehicle, for example, a road plane in front of the traveling direction.
An image photographing unit 2 having two TV cameras (left TV camera 2a, right TV camera 2b), and accumulating an image photographed by the TV camera 2a (left image) and an image photographed by the TV camera 2b (right image) An image storage unit 3 for storing (memory), a feature extraction unit 4 for extracting two or more characteristic lines on the left and right images, and a relational expression parameter based on the extracted characteristic lines. A parameter calculating unit 5 for calculating and a detecting unit 6 for obtaining points having different heights with respect to the road plane based on the calculated relational expression parameters and detecting these points as obstacles (obstacle areas). Have. In the present embodiment, as shown in FIG. 2, the two lines on the road plane are defined as two white lines (1, 1 ') at both ends of the road plane, and the directions of the straight lines 1, 1' are Y.
A world coordinate system (absolute coordinate system) is set in which a direction orthogonal to the Y axis along the road plane with respect to the Y axis is the X axis.
The image photographing unit 2 uses the two left and right TV cameras 2a and 2b to form two images (left image IL and right image IR) on the road plane.
Are to be shot respectively. Each TV camera 2
a and 2b are mounted side by side at predetermined intervals, for example, along the X-axis direction of the world coordinate system, and their shooting directions are not limited to the front of the traveling vehicle, but may be the rear and side directions. You may. In addition, each TV camera 2
By switching the focal lengths a and 2b, wide-angle shooting and telephoto shooting can be performed according to the condition of the road plane (road surface). The two TV cameras 2a and 2b according to the present embodiment are configured so that their positions and postures with respect to the world coordinate system are unknown and only the epipolar constraint is known, and do not change during traveling. Here, the epipolar constraint is a constraint that holds for a general stereo camera, and corresponds to an arbitrary point k on one image (the left image in this embodiment, which is also referred to as a reference image). Points (corresponding points) on the other image (the right image in this embodiment, which is also referred to as a reference image)
k 'means being constrained on a certain straight line on the right image IR as shown in FIG. This straight line is called an epipolar line EL. This epipolar line EL
Is determined by projecting the point k on the left image IL and the viewpoint (center point position of the lens) of the left TV camera 2a on the right image IR and connecting them. For example, when the optical axes of the TV cameras 2a and 2b are arranged in parallel, a corresponding point on the right image IR of an arbitrary point on the left image IL exists on the same scanning line on the right image IR. Therefore, the epipolar line and the scanning line coincide with each other. Epipolar restraint
Relative position / posture relationship between stereo cameras (left TV camera 2a, right TV camera 2b) and each camera 2
The fact that the ebipolar constraint is invariable depends on the internal parameters a and 2b, that is, the focal length of each camera lens, the image origin, and the like.
This means that the relative positional relationship of b does not change during traveling. The epipolar constraint is obtained as follows. Now, any of the corresponding point set of stereo image (left image IL, right image IR) (u i, v i ), (u i ', v i')
(I = 1, 2,..., N)

【数2】 ★ (但し、Fは、3×3のマトリクス)という関係式が成
り立つ。8組以上、すなわち、N=8以上の対応点の組
からマトリクスFを求めることができる。すなわち、マ
トリクスFを対応点の組のみを用いて求めることができ
るため、ワールド座標系に対する3次元位置が既知な点
を用意する必要がなく、前述したキャリブレーション処
理(作業)に比べて、非常に簡単な処理によりマトリク
スFを求めることができる。このようにして、マトリク
スFが求まると、左画像IL上のある点(u,v)の対
応点は、右画像IR上の直線
(Equation 2) ★ (where F is a 3 × 3 matrix). The matrix F can be obtained from eight or more sets, that is, N = 8 or more corresponding points. That is, since the matrix F can be obtained using only a set of corresponding points, there is no need to prepare a point whose three-dimensional position is known with respect to the world coordinate system. The matrix F can be obtained by simple processing. When the matrix F is obtained in this way, the corresponding point of a certain point (u, v) on the left image IL becomes a straight line on the right image IR.

【数3】 ★ 上にあることとなり、これがエビポーララインELとな
る。すなわち、式(2)がエピポーラ拘束を表す。ここ
で、Fij(i,j=1,2,3)はマトリクスFのi
行j列の要素である。画像蓄積部3は、画像メモリを有
しており、画像撮影部2の各TVカメラ2a、2bによ
り撮影された2枚の画像(左画像IL、IR)を画像メ
モリにそれぞれ蓄積するようになっている。特徴抽出部
4は、演算処理プロセッサおよびメモリを有しており、
最初に、画像蓄積部2により蓄積された2枚の画像(左
画像IL、右画像IR)上において、道路両端の2本の
直線(白線)1,1’をそれぞれ抽出する。なお、上記
2本の直線抽出は、Hough変換等を用いて行なう。
直線1と1’は左右画像IL、IR上において、各々交
点(消失点)V、V’を持ち、V’はVのエピポーララ
インLv上にあることを利用すれば、計算量を削減する
ことが可能である。このとき、左画像IL上における直
線1上の任意の2点を各々A、C、直線1’上の任意の
2点を各々B、Dとすると、特徴抽出部4は、これら4
点の右画像IR上の対応点A’,B’,C’,D’を、
エピポーラ拘束を用いることにより求める。すなわち、
点Aの対応点A’は、右画像IR上において、直線1と
点AのエピポーララインLAの交点として求めることが
でき、同様に、点B’,C’,D’も、それぞれ、点
B、C、DのエビポーララインLB、LC、LDの交点
として求めることができる。ここで、得られた点A,
B,C,Dおよび点A’,B’,C’,D’の座標デー
タを、それぞれ(u、v),(u、v),(u
、v),(u,v),(u’,v’),
(u’,v’),(u’、v’),(u’
v’)とする。パラメータ計算部5は、演算処理プロ
セッサおよびメモリを有しており、特徴抽出部4により
求められた4組の点の対応関係に基づいて、道路平面上
の任意の点の左画像IL上の投影点(u,v)と右画像
IR上の投影点(u’,v’)の間に成り立つ関係式の
パラメータ(関係式パラメータ)を計算する。今、道路
平面上の任意の点P(X,Y)の左右画像IL,IR上
への投影点をそれぞれ(u,v),(u’,v’)とす
れば、
(Equation 3) ★ It is above, and this is the shrimp polar line EL. That is, equation (2) represents the epipolar constraint. Here, F ij (i, j = 1, 2, 3) is the i of the matrix F
Element of row j column. The image storage unit 3 has an image memory, and stores two images (left images IL and IR) captured by the TV cameras 2a and 2b of the image capturing unit 2 in the image memory, respectively. ing. The feature extraction unit 4 has an arithmetic processing processor and a memory,
First, on the two images (the left image IL and the right image IR) stored by the image storage unit 2, two straight lines (white lines) 1 and 1 'at both ends of the road are respectively extracted. The extraction of the two straight lines is performed using Hough transform or the like.
The straight lines 1 and 1 ′ have intersections (vanishing points) V and V ′ on the left and right images IL and IR, respectively, and the calculation amount can be reduced by using that V ′ is on the epipolar line Lv of V. Is possible. At this time, if any two points on the straight line 1 on the left image IL are A and C, and any two points on the straight line 1 ′ are B and D, the feature extraction unit 4
The corresponding points A ', B', C ', D' on the right image IR of the point are
It is determined by using the epipolar constraint. That is,
The corresponding point A 'of the point A can be obtained as an intersection of the straight line 1 and the epipolar line LA of the point A on the right image IR. Similarly, the points B', C ', and D' are respectively , C and D as the intersections of the shrimp polar lines LB, LC and LD. Here, the obtained point A,
The coordinate data of B, C, D and the points A ′, B ′, C ′, D ′ are respectively expressed as (u A , v A ), (u B , v B ), (u
C, v C), (u D, v D), (u 'A, v' A),
(U 'B, v' B ), (u 'C, v' C), (u 'D,
v ′ D ). The parameter calculation unit 5 has an arithmetic processor and a memory, and projects any point on the road plane on the left image IL based on the correspondence between the four sets of points obtained by the feature extraction unit 4. A parameter of a relational expression (relational expression parameter) that is established between the point (u, v) and the projection point (u ′, v ′) on the right image IR is calculated. Now, assuming that the projection points of the arbitrary point P (X, Y) on the road plane on the left and right images IL and IR are (u, v) and (u ', v'),

【数4】 ★ なる関係式が成り立つ。(Equation 4) ★ The following relational expression holds.

【外4】 ★●[Outside 4] ★ ●

【外5】 ★●[Outside 5] ★ ●

【外6】 [Outside 6]

【数5】 ★●(Equation 5) ★ ●

【外7】 ★● 検出部6は、演算処理プロセッサおよびメモリを有して
おり、左画像IL上の任意の点P(u,v)の輝度をB
(u,v)とし、この点P(u,v)が道路平面上に
存在すると仮定した場合の上記点P(u,v)の右画像
IR上での対応点P’(u,v)を前掲(4)式に基づ
いて求める。今、求められた点P’(u’,v’)の輝
度をB(u,v)とすると、点P(u、v)が実際に
道路平面上に存在すれば、点PとP’は正しい対応点の
組となるから、基本的には点PとP’の輝度が同じにな
る。すなわち、
[Outside 7] ★ ● The detection unit 6 has an arithmetic processing processor and a memory, and calculates the luminance of an arbitrary point P (u, v) on the left image IL as B
Let L (u, v) be the corresponding point P '(u, v) on the right image IR of the point P (u, v) assuming that this point P (u, v) exists on the road plane. ) Is obtained based on the above equation (4). Now, the point obtained P '(u', v ' ) luminance B R (u, v) and when the point P (u, v) is if actually present on the road plane, and the point P P Since 'is a correct set of corresponding points, the brightness of the points P and P' is basically the same. That is,

【数6】 ★ とした場合、検出部6は、D≠0,あるいは誤差を考慮
し、D>Thr(Thrはあらかじめ設定した閾値)と
なる点Pを障書物領域に属すると判定し、この点Pを障
害物として検出することができる。
(Equation 6) In the case of ★, the detection unit 6 determines that the point P satisfying D> Thr (Thr is a preset threshold) belongs to the obstruction book area in consideration of D ≠ 0 or an error, and determines this point P as an obstacle. It can be detected as an object.

【外8】 ★● したがって、障害物(障害物検出領域)の検出精度を向
上させることができ、車両の安全性・信頼性の一層の向
上に寄与することができる。例えば、図5に示すよう
に、検出部6により検出された障害物領域情報および自
車両における例えば運転手のハンドル操作に応じた運転
方向指示情報に基づいて警報発生処理を行う警報発生部
7を設けておくことにより、運転手のハンドル操作によ
り、自車両を障害物領域(障害物)に向かわせるための
運転方向指示情報が警報発生部7に送られると、警報発
生部7は、障害物領域情報および運転方向指示情報に基
づいて自車両が障害物領域に向かって走行することを判
断し、警報を発生する。この結果、走行車両の運転手
は、自車両が障害物へ向かって走行していることを認識
することができるため、車両の安全性・信頼性の一層の
向上に寄与することができる。さらに、本実施形態の変
形例として、図6に示すように、自車両内の運転手が視
認できる位置に取り付けられたディスプレイ8と、画像
蓄積部3に蓄積された例えば左画像ILをそのディスプ
レイ8に表示し、検出部6により検出された障害物領域
情報に基づいて、上記左画像ILに対して、障害物領域
以外の安全領域と障害物領域との表示態様を異ならせる
表示処理(例えば、安全領域を緑の表示色、障害物領域
を赤の表示色にする処理や、障害物領域を表すマーカを
左画像IL上の障害物領域の座標位置に重畳表示する処
理等を行う画像処理プロセッサ9とを設けてもよい。こ
のように構成すれば、走行車両の前方に存在する障害物
領域と安全領域とがディスプレイ8上で明確に識別でき
るため、ディスプレイ8を視認することにより、運転手
の視界の死角に存在する障害物等を容易かつ確実に認識
することができ、車両の安全性・信頼性の一層の向上に
寄与することができる。なお、本実施形態においては、
画像撮影部2の2台のTVカメラ2a、2bを左右に並
べて車両に搭載し、TVカメラ2a、2bにより2枚の
画像を撮影しているが、これら2台のカメラ2a、2b
は、エピポーラ拘束を維持し、自車両に係る共通の平面
をそれぞれが撮影可能であれば、どのように配置しても
よい。また、3台以上のTVカメラを車両に配置するこ
とも可能である。3台以上のTVカメラを用いて本実施
形態の障害検出処理を行う際には、エピポーラ拘束は、
3枚以上の撮影画像の中の1枚の画像を基準画像とし、
その基準画像上の任意の点kに対応する残りの各画像
(参照画像)上での対応点k’が各参照画像上のある直
線上に拘束されることを意味する。また、特徴抽出部4
は左画像ILおよび右画像IR上の4組の点の対応関係
を求めたが、5組以上の対応関係を同様に求めてもよ
い。この場合では、パラメータ計算部5により、その5
組以上の対応関係から得られる10本以上の連立方程式
を最小自乗法等を用いて解くことも可能である。また、
検出部6は、さらに図7に示すように構成することも可
能である。この変形例において、検出部6は、画像変換
部10、差異計算部11を備えており、これら画像変換
部10、差異計算部11は、演算処理プロセッサの処理
機能として具体化される。画像変換部10は、参照画像
である右画像IRを以下の手順に従って画像変換する。
一般に、画像は画像上の点(u,v)を変数とし、その
各点に対して輝度値が定義された関数f(u,v)とし
て表現できる。以下では画像をこのように表現する。例
えば、図8に示すような、先行車両を含むステレオ画像
(左画像、右画像)が撮影されたとし、左画像をf
(u,v)、右画像をg(u,v)、右画像の変換後の
画像をg’(u、v)とすれば、画像変換部10は、以
下のように、変換画像g′(u,v)を求める。
[Outside 8] ★ ● Therefore, it is possible to improve the detection accuracy of the obstacle (obstacle detection area), and to contribute to further improvement of the safety and reliability of the vehicle. For example, as shown in FIG. 5, an alarm generation unit 7 that performs an alarm generation process based on obstacle area information detected by the detection unit 6 and driving direction instruction information corresponding to, for example, a steering wheel operation of the driver in the own vehicle is provided. By providing this, when the driver's steering wheel operation sends driving direction instruction information for directing the vehicle to an obstacle area (obstacle), the alarm generation section 7 Based on the area information and the driving direction instruction information, it is determined that the own vehicle is traveling toward the obstacle area, and an alarm is generated. As a result, since the driver of the traveling vehicle can recognize that the own vehicle is traveling toward the obstacle, it is possible to contribute to further improving the safety and reliability of the vehicle. Further, as a modified example of the present embodiment, as shown in FIG. 6, a display 8 mounted at a position where the driver in the vehicle can be visually recognized and, for example, a left image IL stored in the image storage unit 3 are displayed on the display. 8 on the basis of the obstacle area information detected by the detection unit 6, a display process (e.g., different display modes of the safety area other than the obstacle area and the obstacle area with respect to the left image IL) Image processing for performing a process of setting the safety area to a green display color and an obstacle area to a red display color, a process of superimposing a marker representing the obstacle area on the coordinate position of the obstacle area on the left image IL, and the like. The processor 9 may be provided.With such a configuration, the obstacle region and the safety region existing in front of the traveling vehicle can be clearly identified on the display 8, so that the display 8 can be visually recognized. An obstacle or the like present in the blind spot of the field of view of Utatete can be recognized easily and reliably, it is possible to contribute to further improvement of the safety and reliability of the vehicle. In the present embodiment,
Two TV cameras 2a and 2b of the image photographing unit 2 are mounted on a vehicle side by side and mounted on a vehicle, and two images are photographed by the TV cameras 2a and 2b.
May be arranged in any manner as long as the epipolar constraint is maintained and a common plane relating to the vehicle can be photographed. It is also possible to arrange three or more TV cameras on the vehicle. When the failure detection processing of the present embodiment is performed using three or more TV cameras, the epipolar constraint
One of the three or more captured images is used as a reference image,
This means that a corresponding point k ′ on the remaining images (reference images) corresponding to an arbitrary point k on the reference image is constrained on a certain straight line on each reference image. Also, the feature extraction unit 4
Has determined the correspondence between four pairs of points on the left image IL and the right image IR, but may also determine the correspondence between five or more pairs in the same manner. In this case, the parameter calculator 5
It is also possible to solve ten or more simultaneous equations obtained from the correspondences of pairs or more using the least square method or the like. Also,
The detection unit 6 can be further configured as shown in FIG. In this modified example, the detection unit 6 includes an image conversion unit 10 and a difference calculation unit 11, and the image conversion unit 10 and the difference calculation unit 11 are embodied as processing functions of an arithmetic processing processor. The image conversion unit 10 performs image conversion of the right image IR as a reference image according to the following procedure.
Generally, an image can be expressed as a function f (u, v) in which points (u, v) on the image are variables and a luminance value is defined for each point. Hereinafter, an image is represented in this manner. For example, suppose that a stereo image (left image, right image) including a preceding vehicle as shown in FIG.
Assuming that (u, v), the right image is g (u, v), and the converted image of the right image is g ′ (u, v), the image converter 10 converts the converted image g ′ as follows. Find (u, v).

【数7】 g’(u,v)=g(u’,v’) ……(7) 但し、(u’,v’)は、前掲式(4)により求める。
g’(u,v)は、画像g(u,v)上の任意の点が道
路平面上に存在すると仮定した場合に、左側TVカメラ
2aで得られる画像である。例えば、図9に示す右画像
g(u,v)からは、同図に示すような変換画像g’
(u’,v’)が得られる。図10に示すように、道路
平面上にある点の投影点は、左画像f(u,v)と変換
画像g’(u’,v’)で同一となるのに対し、道路平
面上にない点、すなわち、障害物(この場合は先行車
両)上の点は、道路からの高さに応じて異なる位置に投
影される。したがって、この左画像f(u,v)と変換
画像g’(u’,v’)との間の差分(画素間差分)を
取ることにより、道路平面上の障害物を検出することが
可能である。すなわち、差異計算部11は、
G ′ (u, v) = g (u ′, v ′) (7) where (u ′, v ′) is obtained by the above equation (4).
g ′ (u, v) is an image obtained by the left TV camera 2a assuming that an arbitrary point on the image g (u, v) exists on the road plane. For example, from a right image g (u, v) shown in FIG. 9, a converted image g ′ as shown in FIG.
(U ', v') is obtained. As shown in FIG. 10, the projection point of a point on the road plane is the same in the left image f (u, v) and the transformed image g ′ (u ′, v ′), whereas the projection point is on the road plane. The missing point, that is, the point on the obstacle (in this case, the preceding vehicle) is projected to different positions depending on the height from the road. Therefore, an obstacle on the road plane can be detected by taking the difference (inter-pixel difference) between the left image f (u, v) and the converted image g ′ (u ′, v ′). It is. That is, the difference calculation unit 11

【数8】 ★ で表される差分D’を計算し、このD’が、D′≠0,
あるいは誤差を考慮し、D′>Thr(Thrはあらか
じめ設定した閾値)となる点(u,v)を障害物領域に
属すると判定し、この点(u,v)を障害物として検出
することができる。また、検出部6の差異検出部は、画
素間差分をとることによって2枚の画像(左画像、右画
像)の差異を検出したが、本変形例はこれに限定される
ものではない。例えば、検出部6の差異検出部は、各画
像(左画像、右画像)の対応する各点(各画素)に対し
て(2ω+1)×(2ω+1)のウインドウを設定し、
ウインドウ内の輝度値の正規化相互相関Cを計算して差
異を検出することも可能である。この場合、2枚の画像
(左画像、右画像)F(u,v),G(u,v)の点
(u,v)Cは、
(Equation 8) The difference D ′ represented by ★ is calculated, and this D ′ is D ′ ≠ 0,
Alternatively, considering an error, a point (u, v) where D '> Thr (Thr is a preset threshold) is determined to belong to the obstacle area, and this point (u, v) is detected as an obstacle. Can be. In addition, the difference detection unit of the detection unit 6 detects the difference between the two images (the left image and the right image) by calculating the difference between the pixels, but the present modification is not limited to this. For example, the difference detection unit of the detection unit 6 sets a (2ω + 1) × (2ω + 1) window for each point (each pixel) corresponding to each image (left image, right image).
It is also possible to detect the difference by calculating the normalized cross-correlation C of the luminance values in the window. In this case, the point (u, v) C of two images (left image, right image) F (u, v) and G (u, v) is

【数9】 ★ で表される。ここで、N=(2ω+1)×(2ω+
1),a1、a2は2枚の画像F(u,v),G(u,
v)のウインドウ内の輝度の平均、σ ,σ は、
2枚の画像F(u,v),G(u,v)のウィンドウ内
の輝度の分散である。このとき、差異計算部11は、計
算値C<Thr(Thrはあらかじめ設定した閾値)を
満足する点(u,v)を障害物領域に属すると判定する
ようになっている。上述したように、検出部を変形例に
示したように構成しても、障害物領域を容易に検出する
ことができる。また、本実施例では道路平面の両端の2
本の白線を直線として抽出したが、道路がカーブしてい
る場合には白線は曲線となる。この場合には、白線を曲
線として抽出すれば、同様に障害物を検出することがで
きる。また、本実施形態では、道路面を平面と仮定して
説明したが、曲面の場合であっても、平面の場合と同様
に障害物を検出することができる。さらに、本実施形態
においては、図1に示した各ブロック構成要素4〜6そ
れぞれが演算処理プロセッサおよびメモリを有している
と説明したが、本発明はこれに限定されるものではな
く、1つの演算処理プロセッサおよびメモリにより上述
した特徴抽出部4の特徴抽出処理、関係式パラメータ計
算部の関係式パラメータ計算処理および検出部6の障害
物検出処理を行うように構成することも可能である。と
ころで、本実施形態では、道路面上を走行する車両に搭
載されたTVカメラからの障害物検出に関して説明した
が、本発明はこれに限定されるものではなく、例えば、
航空機やヘリコプター等の移動体が滑走路等の路面に着
陸する際の障害物検出にも適用することが可能である。
一方、本実施形態によれば、車両等の移動体に2台以上
のTVカメラを搭載した場合について説明したが、本発
明はこれに限定されるものではない。例えば、図11に
示すように、移動体(車両15)には1台のTVカメラ
2を搭載し、予め車両15が走行する道路の路側の上方
に例えば所定間隔毎に設置された道路監視用カメラ16
の画像を利用することにより、上述したステレオ視技術
に基づく障害物検出処理を行うことも可能である。すな
わち、車両15に搭載された1台のTVカメラ2Aを有
する障害物検出装置1aは、その走行位置近傍に設置さ
れた道路監視用カメラ16の画像を無線通信装置17を
経由して受け取り、この画像(第1の画像)と自車両1
5により撮影された画像(第2の画像)に基づいて上述
したステレオ視技術に基づく処理を実行することによ
り、道路上の障害物を検出することが可能である。そし
て、障害物検出装置1aは、自車両15の走行に応じ
て、自車両15の現在の走行位置に近い方の監視用カメ
ラ16から無線通信装置17を介して送信された第1の
画像を用いることにより、連続した障害物検出処理を行
うことができる。このように構成すれば、上述した効果
に加えて、車両に搭載するTVカメラの台数を減らすこ
とができ、障害物検出装置のシステムが簡素化される。
なお、車両に搭載されたTVカメラと道路監視用カメラ
との大きさが異なる場合には、得られた第1および第2
の画像間で補正処理を行うことが必要である。その他、
本発明の要旨を逸脱しない範囲内であれば、如何なる変
形も可能である。
(Equation 9) ★ is represented by Here, N = (2ω + 1) × (2ω +
1), a1, a2 are two images F (u, v), G (u,
The average brightness in the window of v), σ 2 1 , σ 2 2, is
This is the variance of the luminance in the windows of the two images F (u, v) and G (u, v). At this time, the difference calculation unit 11 determines that a point (u, v) satisfying the calculated value C <Thr (Thr is a preset threshold) belongs to the obstacle area. As described above, even if the detection unit is configured as shown in the modification, the obstacle area can be easily detected. In this embodiment, the two ends of the road plane are
Although the white lines are extracted as straight lines, if the road is curved, the white lines are curved. In this case, if the white line is extracted as a curve, an obstacle can be detected in the same manner. Further, in the present embodiment, the description has been made assuming that the road surface is a plane. However, even in the case of a curved surface, an obstacle can be detected as in the case of a plane. Furthermore, in the present embodiment, it has been described that each of the block components 4 to 6 shown in FIG. 1 has an arithmetic processing processor and a memory, but the present invention is not limited to this. The configuration may be such that the feature extraction processing of the feature extraction unit 4, the relational expression parameter calculation processing of the relational expression parameter calculation unit, and the obstacle detection processing of the detection unit 6 are performed by one arithmetic processing processor and memory. By the way, in the present embodiment, the detection of an obstacle from a TV camera mounted on a vehicle traveling on a road surface has been described, but the present invention is not limited to this.
The present invention can also be applied to obstacle detection when a moving object such as an aircraft or a helicopter lands on a road surface such as a runway.
On the other hand, according to the present embodiment, a case where two or more TV cameras are mounted on a moving body such as a vehicle has been described, but the present invention is not limited to this. For example, as shown in FIG. 11, one TV camera 2 is mounted on a moving body (vehicle 15), and a road monitor for road monitoring is installed in advance, for example, at predetermined intervals above a road side of a road on which the vehicle 15 runs. Camera 16
It is also possible to perform the obstacle detection processing based on the above-described stereo vision technology by using the image of (1). That is, the obstacle detection device 1a having one TV camera 2A mounted on the vehicle 15 receives the image of the road monitoring camera 16 installed near the traveling position via the wireless communication device 17, and receives the image. Image (first image) and own vehicle 1
By executing the processing based on the above-described stereoscopic vision technology based on the image (second image) captured by Step 5, an obstacle on the road can be detected. Then, the obstacle detection device 1a transmits the first image transmitted from the monitoring camera 16 closer to the current traveling position of the own vehicle 15 via the wireless communication device 17 in accordance with the traveling of the own vehicle 15. By using this, continuous obstacle detection processing can be performed. With this configuration, in addition to the above-described effects, the number of TV cameras mounted on the vehicle can be reduced, and the system of the obstacle detection device is simplified.
When the size of the TV camera mounted on the vehicle and the size of the road monitoring camera are different, the obtained first and second
It is necessary to perform the correction processing between the images. Others
Any modification is possible without departing from the gist of the present invention.

【発明の効果】以上述べたように、本発明の障害物検出
方法および装置によれば、路面等の面からの高さの有無
により障害物を検出することができるため、明るさの変
動や影の影響を受けることなく、画像中から先行車や歩
行者等の障害物を検出することができる。特に、本発明
では、路面と各撮影デバイスとの幾何学的な関係を、直
線検出等の簡単な処理により求めているため、走行中の
振動や道路平面に傾斜にある場合でも、安定に面上の障
害物を検出することができ、その実用性を大幅に向上さ
せることができる。
As described above, according to the obstacle detecting method and apparatus of the present invention, an obstacle can be detected based on the presence or absence of a height from a surface such as a road surface. An obstacle such as a preceding vehicle or a pedestrian can be detected from the image without being affected by the shadow. In particular, in the present invention, since the geometric relationship between the road surface and each photographing device is obtained by simple processing such as detection of a straight line, even when the vehicle is traveling or is inclined on a road plane, the surface can be stably obtained. The above obstacle can be detected, and its practicality can be greatly improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る障害物検出装置の概
略構成を示すブロック図。
FIG. 1 is a block diagram showing a schematic configuration of an obstacle detection device according to an embodiment of the present invention.

【図2】道路平面上に設定されたワールド座標系および
道路平面上の白線を示す図。
FIG. 2 is a diagram illustrating a world coordinate system set on a road plane and a white line on the road plane.

【図3】エピポーラ拘束を説明するための図。FIG. 3 is a diagram for explaining epipolar constraint.

【図4】図1に示す特徴抽出部の白線抽出処理および左
右画像間の対応点の組を求める処理を説明するための
図。
FIG. 4 is a view for explaining a white line extraction process and a process of obtaining a set of corresponding points between left and right images by the feature extraction unit shown in FIG. 1;

【図5】図1の構成に加えて、警報発生処理機能を有す
る障害物検出装置を示すブロック図。
FIG. 5 is a block diagram showing an obstacle detection device having an alarm generation processing function in addition to the configuration of FIG. 1;

【図6】図1の構成に加えて、ディスプレイに対する障
害物領域および安全領域の表示処理を有する障害物検出
装置を示すブロック図。
FIG. 6 is a block diagram showing an obstacle detection device having display processing of an obstacle area and a safety area for a display in addition to the configuration of FIG. 1;

【図7】図1に示す検出部の他の構成を示すブロック
図。
FIG. 7 is a block diagram showing another configuration of the detection unit shown in FIG. 1;

【図8】ステレオ画像の一例を示す図。FIG. 8 is a diagram showing an example of a stereo image.

【図9】右画像とその変換画像を示す図。FIG. 9 is a diagram showing a right image and its converted image.

【図10】左画像と右画像の変換画像とを示す図。FIG. 10 is a diagram showing a converted image of a left image and a right image.

【図11】本発明の変形例として、移動体に1台のTV
カメラを搭載し、道路の路側に設置された道路監視用カ
メラを利用してステレオ視を行う構成を示す図。
FIG. 11 shows a modification of the present invention, in which one moving body is provided with one TV.
The figure which shows the structure which mounts a camera and performs stereoscopic vision using the camera for road monitoring installed in the road side of the road.

【符号の説明】[Explanation of symbols]

1 障害物検出装置 2 画像撮影部 2a、2b TVカメラ 3 画像蓄積部 4 特徴抽出部 5 関係式パラメータ計算部 6 検出部 7 警報発生部 8 ディスプレイ 9 画像処理プロセッサ 10 画像変換部 11 差異計算部 DESCRIPTION OF SYMBOLS 1 Obstacle detection device 2 Image photographing part 2a, 2b TV camera 3 Image storage part 4 Feature extraction part 5 Relational expression parameter calculation part 6 Detection part 7 Alarm generation part 8 Display 9 Image processor 10 Image conversion part 11 Difference calculation part

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成11年7月13日(1999.7.1
3)
[Submission date] July 13, 1999 (1999.7.1)
3)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】全文[Correction target item name] Full text

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【書類名】 明細書[Document Name] Statement

【発明の名称】 障害物検出方法および装置Patent application title: Obstacle detection method and device

【特許請求の範囲】[Claims]

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】道路等の面上を走行する自動
車等の車両の運転を支援するために、TVカメラによ
り、先行車等の他車両や歩行者等の道路上に存在する自
車両以外の物体(以下、障害物と定義する)を検出する
障害物検出方法および装置に関する。
BACKGROUND OF THE INVENTION In order to assist the driving of a vehicle such as an automobile running on a surface such as a road, a TV camera is used to control other vehicles such as a preceding vehicle and a vehicle other than the own vehicle existing on the road such as a pedestrian. The present invention relates to an obstacle detection method and apparatus for detecting an object (hereinafter, defined as an obstacle).

【0002】[0002]

【従来の技術】道路上の障害物を検出するための技術
は、その障害物検出手段としてレーザや超音波等を利用
するものと、TVカメラを利用するものとに大別され
る。
2. Description of the Related Art Techniques for detecting obstacles on a road are roughly classified into those using a laser or an ultrasonic wave as an obstacle detecting means, and those using a TV camera.

【0003】障害物検出手段としてレーザを利用する方
式は、レーザ自体が高価であるため、非実用的である。
また、障害物検知手段として超音波を利用する方式は、
超音波の解像度が低いため、障害物の検出精度に問題が
あり、これも実用性を阻害している。
The method using a laser as an obstacle detecting means is impractical because the laser itself is expensive.
Also, the method of using ultrasonic waves as obstacle detection means is as follows:
Since the resolution of the ultrasonic wave is low, there is a problem in the accuracy of detecting an obstacle, which also hinders practicality.

【0004】上記2つの方式に対して、障害物検出手段
としてTVカメラを使用する方式は、TVカメラ自体が
比較的安価であり、その解像度や計測精度、計測範囲等
の面からも障害物検出に適することが分かっている。
[0004] In contrast to the above two methods, the method using a TV camera as an obstacle detecting means is relatively inexpensive for the TV camera itself, and also detects an obstacle in terms of its resolution, measurement accuracy, and measurement range. Has proven to be suitable for

【0005】道路上の障害物検出手段としてTVカメラ
を用いる場合、1台のTVカメラを使用する方法と複数
台のカメラ(ステレオカメラ)を使用する方法がある。
[0005] When a TV camera is used as an obstacle detecting means on a road, there are a method using one TV camera and a method using a plurality of cameras (stereo cameras).

【0006】1台のTVカメラを使用する方法は、その
カメラで撮影した1枚の画像から、輝度や色、あるいは
テクスチャ(模様)等の情報を手がかりにして道路領域
と障害物領域とを分離する。例えば、画像中で彩度の低
い中程度の輝度領域、つまり灰色の領域を抽出して道路
領域を求めたり、テクスチャの少ない領域を求めて道路
領域を抽出し、それ以外の領域を障害物領域としてい
る。
A method using one TV camera separates a road area and an obstacle area from one image taken by the camera by using information such as brightness, color, and texture (pattern) as clues. I do. For example, a medium-luminance region with low saturation in the image, that is, a gray region is extracted to obtain a road region, or a region with little texture is extracted to extract a road region, and other regions are determined as obstacle regions. And

【0007】しかしながら、道路上には、道路に類似し
た輝度、色、あるいはテクスチャを有する障害物も数多
く存在するため、この方法で障害物領域と道路領域とを
区別するのは困難である。
[0007] However, there are many obstacles on the road having luminance, color, or texture similar to the road, and it is difficult to distinguish between the obstacle area and the road area by this method.

【0008】これに対し、複数台のTVカメラを用いる
方法は3次元情報を手がかりにして道路上の障害物を検
出する。これは一般にステレオ視と呼ばれる検出方式で
ある。ステレオ視とは、例えば2つのカメラを左右に配
置し、3次元空間中で同一点である点を左右画像間で対
応づけ、三角測量の要領で、その点の3次元位置を求め
るものである。
On the other hand, a method using a plurality of TV cameras detects an obstacle on a road using three-dimensional information as a clue. This is a detection method generally called stereo vision. Stereo vision refers to, for example, arranging two cameras on the left and right, associating a point that is the same point in a three-dimensional space between left and right images, and finding a three-dimensional position of the point in the manner of triangulation. .

【0009】各カメラの道路平面に対する位置や姿勢等
をあらかじめ求めておくと、ステレオ視により、画像中
の任意の点の道路平面からの高さを得ることができ、こ
の高さの有無により、障害物領域と道路領域とを分離す
ることができる。このステレオ視を用いた障害物検出方
式によれば、1台のカメラを用いた場合で区別すること
が困難であった道路に類似した輝度、色、あるいはテク
スチャを有する障害物を道路領域と区別して検出するこ
とが可能である。
If the position, posture, and the like of each camera with respect to the road plane are obtained in advance, the height of an arbitrary point in the image from the road plane can be obtained by stereo vision. The obstacle area and the road area can be separated. According to the obstacle detection method using stereo vision, an obstacle having a brightness, color, or texture similar to a road, which is difficult to distinguish when one camera is used, is distinguished from the road area. It is possible to detect separately.

【0010】ところで、通常のステレオ視技術は、画像
上の任意の点のワールド座標系(絶対座標系)に対する
3次元位置を求める技術であり、このためには、あらか
じめ各カメラのワールド座標系に対する関係{位置、姿
勢(撮影方向等)、カメラレンズの焦点距離等}に関す
るパラメータ(関係式パラメータ)を求める必要があ
る。以下、関係式パラメータを求める作業(処理)をキ
ャリブレーションと呼ぶ。
By the way, the ordinary stereo vision technique is a technique for obtaining a three-dimensional position of an arbitrary point on an image with respect to a world coordinate system (absolute coordinate system). It is necessary to find parameters (relational expression parameters) related to the relation {position, posture (photographing direction, etc.), focal length of camera lens, etc.}. Hereinafter, the operation (process) for obtaining the relational expression parameters is referred to as calibration.

【0011】キャリブレーションは、ワールド座標系に
対する位置が既知の多数の点を用意し、それらの点の画
像ヘの投影位置を求め、ワールド座標系に対するカメラ
の位置や姿勢、カメラレンズの焦点距離等に関する関係
式パラメータを算出する作業である。
In the calibration, a number of points having known positions with respect to the world coordinate system are prepared, the projection positions of these points on the image are obtained, the position and orientation of the camera with respect to the world coordinate system, the focal length of the camera lens, and the like. This is the operation of calculating the relational expression parameters related to.

【0012】しかしながら、上記キャリブレーション作
業を行うには、多大な時間と労力を必要とするという問
題がある。
However, there is a problem that a great deal of time and labor is required to perform the above-mentioned calibration work.

【0013】そこで、画像上で道路領域と障害物領域と
を分離することのみに着目して、キャリブレーションを
行うことなく、道路平面からの高さの有無を判別し、高
さ有り→道路平面上の障害物、高さ無し→道路平面とし
て、障害物を検出する方式が考え出されている。
Therefore, by focusing only on separating the road area and the obstacle area on the image, the presence or absence of the height from the road plane is determined without performing calibration, and the height is determined. Above obstacle, no height → A method of detecting an obstacle as a road plane has been devised.

【0014】このとき、道路平面からの高さの有無は、
以下のようにして判別できる。
At this time, the presence or absence of the height from the road plane is determined by
It can be determined as follows.

【0015】道路平面上の点の左右画像への投影点を
(u,v),(u’,v’)とすれば、
If the projection points of points on the road plane onto the left and right images are (u, v) and (u ', v'),

【数1】 (Equation 1)

【外1】 [Outside 1]

【0016】この関係式を用いて、左画像上の任意の点
P(u,v)が道路平面上に存在すると仮定した場合の
右画像上の対応点P′(u’,v’)を求める。点Pが
道路平面上に存在すれば、点PとP′が正しい対応点の
組となるので、2点の輝度の差は小さくなる。したがっ
て、点PとP’の輝度の違いが大きい場合には、点Pは
障害物領域に属すると判定することができ、キャリブレ
ーションを行うことなく障害物の判定を行うことが可能
である。
Using this relational expression, the corresponding point P '(u', v ') on the right image, assuming that an arbitrary point P (u, v) on the left image exists on the road plane, is calculated. Ask. If the point P exists on the road plane, the points P and P 'form a correct set of corresponding points, and the difference between the luminances of the two points becomes small. Therefore, when the difference in luminance between the points P and P ′ is large, it can be determined that the point P belongs to the obstacle region, and the obstacle can be determined without performing calibration.

【0017】[0017]

【外2】 [Outside 2]

【0018】[0018]

【発明が解決しようとする課題】上述したように、複数
台のTVカメラを用いて道路平面からの高さの有無によ
りキャリブレーションを行うことなく障害物を検出する
障害物検出装置は、超音波やレーザを検出手段として利
用する装置と比べて安価で、かつ検出精度が高く、しか
も、キャリブレーション作業を不用にして障害物検出に
かかる時間および労力を低減するという多くの利点を有
している。
As described above, an obstacle detecting apparatus for detecting an obstacle without performing calibration based on the presence or absence of a height from a road plane using a plurality of TV cameras is an ultrasonic detecting apparatus. It has many advantages in that it is inexpensive, has high detection accuracy, and reduces the time and effort required for obstacle detection by eliminating the need for calibration work, as compared with a device that uses a laser as a detection means. .

【0019】[0019]

【外3】 [Outside 3]

【0020】本発明は上述した事情に鑑みてなされたも
ので、エビポーラ拘束のみが既知な複数のTVカメラを
用いて撮影した複数枚の画像から、面上の2本以上の線
の投影像を抽出し、抽出した投影像から面と各カメラと
の幾何学的な関係を求めることにより、キャリブレーシ
ョンが不要で、走行中に振動や路面自体に傾斜があつて
も、路面上に存在する障害物を検出することができる障
害物検出方法および装置を提供することをその目的とす
る。
The present invention has been made in view of the above-mentioned circumstances, and it is possible to form a projection image of two or more lines on a surface from a plurality of images photographed using a plurality of TV cameras having only known ebipolar constraints. By extracting the geometric relationship between the surface and each camera from the extracted projected images, calibration is not required, and obstacles existing on the road surface even if there is vibration or inclination on the road surface during traveling It is an object of the present invention to provide an obstacle detection method and apparatus capable of detecting an object.

【0021】[0021]

【課題を解決するための手段】上述した目的を達成する
ための第1の発明によれば、複数の線を有する面上の障
害物領域を検出する障害物検出装置であって、画像を撮
影する複数の撮影デバイスと、この複数の撮影デバイス
によりそれぞれ撮影された複数の画像を記憶する画像記
憶手段と、この画像記憶手段に記憶された複数の画像上
に表された前記複数の線を抽出し、抽出した複数の線に
基づいて前記複数の画像間の対応点を求める抽出手段
と、この抽出手段により求められた対応点に基づいて、
前記面上の任意の点の各画像への投影位置の間に成り立
つ関係式のパラメータを計算するパラメータ計算手段
と、このパラメータ計算手段により計算されたパラメー
タにより定まる関係式に基づいて前記面に対して異なる
高さを有する領域を障害物領域として検出する検出手段
とを備えている。
According to a first aspect of the present invention, there is provided an obstacle detecting apparatus for detecting an obstacle area on a surface having a plurality of lines, the apparatus comprising: A plurality of image capturing devices, image storing means for storing a plurality of images respectively captured by the plurality of image capturing devices, and extracting the plurality of lines represented on the plurality of images stored in the image storing means And extracting means for obtaining a corresponding point between the plurality of images based on the plurality of extracted lines, based on the corresponding points obtained by the extracting means,
Parameter calculating means for calculating a parameter of a relational expression that holds between the projection positions of the arbitrary points on the surface to the respective images, and the surface based on a relational expression determined by the parameter calculated by the parameter calculating means. Detecting means for detecting areas having different heights as obstacle areas.

【0022】第1の発明において、前記複数の撮影デバ
イスの内の1つの基準撮影デバイスにより撮影された画
像を基準画像とし、残りの撮影デバイスにより撮影され
た画像を参照画像としたとき、前記基準画像上の任意の
点に対応する前記参照画像上の対応点は、前記基準画像
上の任意の点と前記基準撮影デバイスの視点とを結ぶ直
線の前記参照画像上への投影直線上に拘束される。
In the first invention, when an image photographed by one of the plurality of photographing devices is used as a reference image, and an image photographed by the remaining photographing devices is used as a reference image, A corresponding point on the reference image corresponding to an arbitrary point on the image is constrained on a projection straight line on the reference image connecting a point on the reference image and a viewpoint of the reference imaging device. You.

【0023】第1の発明において、好適には、前記抽出
手段は、前記基準画像上の複数の線および前記基準画像
に対する前記参照画像上への投影直線に基づいて前記基
準画像および前記参照画像間の対応点の組を求めてお
り、前記パラメータ計算手段は、前記抽出手段により求
められた前記基準画像および前記参照画像間の複数の対
応点の組に基づいて、前記面上の任意の点の前記基準画
像および前記参照画像に対する投影位置の間に成り立つ
関係式のパラメータを求める手段である。
[0023] In the first invention, preferably, the extracting means includes a plurality of lines on the reference image and a straight line projected on the reference image with respect to the reference image. The parameter calculation means calculates a set of corresponding points on the surface based on a set of a plurality of corresponding points between the reference image and the reference image obtained by the extraction means. This is means for obtaining a parameter of a relational expression that holds between the projection position with respect to the reference image and the reference image.

【0024】第1の発明において、特に、前記抽出手段
は、前記基準画像上の複数の線の内の一本の線l上の第
1の複数の点と前記参照画像上の投影線との交点を第1
の複数の対応点として求め、前記基準画像上の複数の線
の内のl以外の一本の線上の第2の複数の点と前記参照
画像上の投影線との交点を第2の複数の対応点として求
めることにより、前記第1の複数の点および第1の複数
の対応点の組と前記第2の複数の点および第2の複数の
対応点の組とを求めるようにしている。
[0024] In the first invention, in particular, the extraction means is configured to determine a relationship between a first plurality of points on one line l of the plurality of lines on the reference image and projection lines on the reference image. Intersection is first
Of the plurality of lines on the reference image, and the intersection of the second plurality of points on one line other than l and the projection line on the reference image By obtaining the corresponding points, the first plurality of points and the first plurality of corresponding points and the second plurality of points and the second plurality of corresponding points are obtained.

【0025】第1の発明において、好適には、前記検出
手段は、前記基準画像上の任意の点が前記面上に存在す
ると仮定した場合に、前記任意の点に対応する前記参照
画像上の対応点を、前記関係式パラメータにより定まる
関係式に基づいて求め、前記基準画像上の任意の点の輝
度と求められた前記参照画像上の対応点の輝度とを比較
することにより、前記基準画像上の任意の点が前記面に
対して異なる高さを有する障害物領域に属するか否かを
判定するようにしている。
[0025] In the first invention, preferably, when it is assumed that an arbitrary point on the reference image exists on the surface, the detecting means may detect the point on the reference image corresponding to the arbitrary point. The corresponding point is determined based on a relational expression determined by the relational expression parameter, and the brightness of an arbitrary point on the reference image is compared with the calculated brightness of the corresponding point on the reference image to obtain the reference image. It is determined whether or not the above arbitrary point belongs to an obstacle area having a different height with respect to the plane.

【0026】第1の発明において、前記検出手段は、前
記参照画像を、当該参照画像の任意の点が前記面上に存
在すると仮定した場合に、前記基準撮影デバイスで得ら
れる画像に変換する変換手段と、前記基準画像と前記変
換手段により変換された参照画像との差異を計算し、計
算された差異に基づいて、前記参照画像上の任意の点が
前記面に対して異なる高さを有する障害物領域に属する
か否かを判定する差異計算手段とを備えている。
In the first invention, the detecting means converts the reference image into an image obtained by the reference photographing device, assuming that an arbitrary point of the reference image exists on the surface. Means, calculating a difference between the reference image and the reference image converted by the conversion means, and based on the calculated difference, any point on the reference image has a different height with respect to the plane A difference calculating means for determining whether or not the object belongs to the obstacle area.

【0027】第1の発明において、前記面は実空間で移
動する移動体が走行する路面であり、前記障害物検出装
置を前記移動体に搭載している。
In the first aspect, the surface is a road surface on which a moving body moving in a real space travels, and the obstacle detecting device is mounted on the moving body.

【0028】上述した目的を達成するための第2の発明
によれば、複数の線を有する面上の障害物領域を検出す
る障害物検出方法であって、複数の画像を撮影するステ
ップと、撮影ステップにより撮影された複数の画像を記
憶するステップと、この記憶ステップにより記憶された
複数の画像上に表された前記複数の線を抽出し、抽出し
た複数の線に基づいて前記複数の画像間の対応点を求め
るステップと、このステップにより求められた対応点に
基づいて、前記面上の任意の点の各画像への投影位置の
間に成り立つ関係式のパラメータを計算するステップ
と、このパラメータ計算ステップにより計算されたパラ
メータにより定まる関係式に基づいて前記面に対して異
なる高さを有する領域を障害物領域として検出するステ
ップとを備えている。
According to a second aspect of the present invention, there is provided an obstacle detecting method for detecting an obstacle area on a plane having a plurality of lines, comprising: Storing a plurality of images photographed by the photographing step, extracting the plurality of lines represented on the plurality of images stored by the storing step, and extracting the plurality of images based on the plurality of extracted lines. Calculating a corresponding point between the steps; calculating, based on the corresponding point obtained in this step, parameters of a relational expression that holds between the projection positions of the arbitrary points on the surface onto the respective images; Detecting a region having a different height with respect to the surface as an obstacle region based on a relational expression determined by the parameter calculated in the parameter calculation step.

【0029】[0029]

【発明の実施の形態】本発明の実施の形態を添付図面を
参照して説明する。なお、本実施形態においては、自動
車等の路面(道路平面)上を走行する車両に搭載した左
右2台の画像撮影デバイス(TVカメラ、ステレオカメ
ラ)から、その走行方向前方における歩行者や先行車等
の道路平面上に存在する障害物を検出する状況を想定
し、その想定状況での障害物検出装置による障害物検出
処理について説明する。
Embodiments of the present invention will be described with reference to the accompanying drawings. In the present embodiment, two left and right image photographing devices (TV camera and stereo camera) mounted on a vehicle running on a road surface (road plane) such as an automobile receive a pedestrian or a preceding vehicle in the traveling direction. Assuming a situation where an obstacle existing on a road plane such as is detected, an obstacle detection process performed by the obstacle detection device in the assumed situation will be described.

【0030】図1は、本実施の形態に係る障害物検出装
置1の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an obstacle detection device 1 according to the present embodiment.

【0031】本実施形態の障害物検出装置1は、道路平
面上を走行する車両に搭載されており、自車両の走行時
の振動や道路平面の傾斜等により時々刻々変化する道路
平面と各TVカメラとの幾何学的関係求め、その幾何学
的関係を用いて道路平面上に存在する障害物を検出し、
検出した障害物を表示するようになっている。
The obstacle detecting device 1 according to the present embodiment is mounted on a vehicle traveling on a road plane. Find the geometric relationship with the camera, detect obstacles on the road plane using the geometric relationship,
The detected obstacle is displayed.

【0032】すなわち、障害物検出装置1は、自車両に
係る3次元空間内の共通の面である例えば走行方向前方
の道路平面上の画像を撮影する左右2台のTVカメラ
(左側TVカメラ2a、右側TVカメラ2b)を有する
画像撮影部2と、TVカメラ2aにより撮影された画像
(左画像)およびTVカメラ2bにより撮影された画像
(右画像)を蓄積(記憶)するための画像蓄積部3と、
左画像および右画像上において特徴となる2本以上の線
を抽出するための特徴抽出部4と、抽出された特徴線に
基づいて関係式パラメータを計算するパラメータ計算部
5と、計算された関係式パラメータに基づいて道路平面
に対して異なる高さを有する点を求めて、この点を障害
物(障害物領域)として検出する検出部6とを備えてい
る。
That is, the obstacle detection device 1 includes two left and right TV cameras (left TV camera 2a) for capturing an image on a common plane in the three-dimensional space relating to the host vehicle, for example, a road plane in front of the traveling direction. , An image capturing unit 2 having a right TV camera 2b) and an image storing unit for storing (storing) an image (left image) captured by the TV camera 2a and an image (right image) captured by the TV camera 2b. 3 and
A feature extraction unit 4 for extracting two or more feature lines on the left image and the right image, a parameter calculation unit 5 for calculating a relational expression parameter based on the extracted feature lines, and a calculated relationship A detection unit that obtains points having different heights with respect to the road plane based on the equation parameters and detects the points as obstacles (obstacle areas);

【0033】本実施形態においては、図2に示すよう
に、上記道路平面上の2本の線を、道路平面両端の2本
の白線(l,l’)とし、直線l,l’方向をY軸、こ
のY軸に対して道路平面に沿って直交する方向をX軸と
するワールド座標系(絶対座標系)を設定する。
In the present embodiment, as shown in FIG. 2, the two lines on the road plane are two white lines (l, l ') at both ends of the road plane, and the directions of the straight lines l, l' are A world coordinate system (absolute coordinate system) is set in which the X axis is a direction orthogonal to the Y axis along the road plane with respect to the Y axis.

【0034】画像撮影部2は、左右2台のTVカメラ2
a、2bにより道路平面上の2枚の画像(左画像IL、
右画像IR)をそれぞれ撮影するようになっている。
The image photographing unit 2 includes two left and right TV cameras 2
The two images (left image IL,
The right image IR) is photographed.

【0035】各TVカメラ2a、2bは、例えば所定間
隔を空けて、例えばワールド座標系のX軸方向に沿った
左右に並べて取りつけられており、その撮影方向は、走
行車両の前方に限らず、後方やサイド方向であってもよ
い。また、各TVカメラ2a、2bの焦点距離を切り換
えることにより、道路平面(路面)の状況に応じて、広
角撮影および望遠撮影を行うことも可能である。
The TV cameras 2a and 2b are mounted side by side at predetermined intervals, for example, along the X-axis direction of the world coordinate system, and their shooting directions are not limited to the front of the traveling vehicle. It may be in the rear or side direction. Further, by switching the focal length of each of the TV cameras 2a and 2b, it is possible to perform wide-angle shooting and telephoto shooting according to the condition of a road plane (road surface).

【0036】そして、本実施形態における2台のTVカ
メラ2a、2bは、そのワールド座標系に対する位置や
姿勢は未知で、エピポーラ拘束のみが既知であるとし、
走行中に変化しないように構成されている。
It is assumed that the two TV cameras 2a and 2b in the present embodiment have unknown positions and orientations with respect to the world coordinate system and only known epipolar constraints.
It is configured not to change during running.

【0037】ここで、エピポーラ拘束とは、一般的なス
テレオカメラに対して成り立つ拘束であり、一方の画像
(本実施形態では左画像とし、この画像を基準画像とも
呼ぶ)上の任意の点kに対応する他方の画像(本実施形
態では右画像とし、この画像を参照画像とも呼ぶ)上で
の点(対応点)k’は、図3に示すように、その右画像
IR上のある直線上に拘束されることを意味する。
Here, the epipolar constraint is a constraint that holds for a general stereo camera, and is set at an arbitrary point k on one image (the left image in this embodiment, which is also referred to as a reference image). (The right image in this embodiment, this image is also referred to as a reference image) on the other image (corresponding point) k ′ is a straight line on the right image IR as shown in FIG. Means being restrained on.

【0038】この直線のことをエピポーララインELと
呼ぶ。このエピポーララインELは、左画像IL上の点
kと左側TVカメラ2aの視点(レンズの中心点位置)
とを右画像IR上に投影してそれらを結ぶことにより定
められる。
This straight line is called an epipolar line EL. The epipolar line EL is represented by a point k on the left image IL and the viewpoint of the left TV camera 2a (center point position of the lens).
Are projected on the right image IR and connected to each other.

【0039】例えば、各TVカメラ2a、2bの光軸を
平行に配置した場合には、左画像IL上の任意の点の右
画像IR上での対応点は、その右画像IR上における同
一走査線上に存在するので、エピポーララインと走査線
は一致する。
For example, when the optical axes of the TV cameras 2a and 2b are arranged in parallel, the corresponding point on the right image IR of an arbitrary point on the left image IL is the same scan on the right image IR. Since they are on the line, the epipolar line and the scan line coincide.

【0040】エピポーラ拘束は、ステレオカメラ(左側
TVカメラ2a、右側TVカメラ2b)間の相対的な位
置・姿勢の関係と、各カメラ2a、2bの内部パラメー
タ、すなわち、各カメラレンズの焦点距離、画像原点等
に依存するため、エビポーラ拘束が不変であるというこ
とは、ステレオカメラ2a、2bの相対的な位置関係等
が走行中に変化しないことを意味する。
The epipolar constraint is based on the relative position and orientation relationship between the stereo cameras (left TV camera 2a, right TV camera 2b) and the internal parameters of each camera 2a, 2b, ie, the focal length of each camera lens, The fact that the ebipolar constraint is invariable because it depends on the image origin and the like means that the relative positional relationship and the like of the stereo cameras 2a and 2b do not change during traveling.

【0041】エピポーラ拘束は以下のようにして求めて
おく。今、ステレオ画像(左画像IL、右画像IR)の
任意の対応点の組(u,v)、(u’,v’)
(i=1,2,…,N)には、
The epipolar constraint is obtained as follows. Now, any of the corresponding point set of stereo image (left image IL, right image IR) (u i, v i ), (u i ', v i')
(I = 1, 2,..., N)

【数2】 (但し、Fは、3×3のマトリクス)という関係式が成
り立つ。
(Equation 2) (However, F is a 3 × 3 matrix).

【0042】8組以上、すなわち、N=8以上の対応点
の組からマトリクスFを求めることができる。すなわ
ち、マトリクスFを対応点の組のみを用いて求めること
ができるため、ワールド座標系に対する3次元位置が既
知な点を用意する必要がなく、前述したキャリブレーシ
ョン処理(作業)に比べて、非常に簡単な処理によりマ
トリクスFを求めることができる。
The matrix F can be obtained from eight or more sets of corresponding points, that is, N = 8 or more. That is, since the matrix F can be obtained using only a set of corresponding points, there is no need to prepare a point whose three-dimensional position is known with respect to the world coordinate system. The matrix F can be obtained by simple processing.

【0043】このようにして、マトリクスFが求まる
と、左画像IL上のある点(u,v)の対応点は、右画
像IR上の直線
When the matrix F is obtained in this manner, a point corresponding to a certain point (u, v) on the left image IL becomes a straight line on the right image IR.

【数3】 上にあることとなり、これがエビポーララインELとな
る。すなわち、式(2)がエピポーラ拘束を表す。ここ
で、Fij(i,j=1,2,3)はマトリクスFのi
行j列の要素である。
(Equation 3) It is above, and this is the shrimp polar line EL. That is, equation (2) represents the epipolar constraint. Here, F ij (i, j = 1, 2, 3) is the i of the matrix F
Element of row j column.

【0044】画像蓄積部3は、画像メモリを有してお
り、画像撮影部2の各TVカメラ2a、2bにより撮影
された2枚の画像(左画像IL、IR)を画像メモリに
それぞれ蓄積するようになっている。
The image storage unit 3 has an image memory, and stores two images (left images IL, IR) captured by the TV cameras 2a, 2b of the image capturing unit 2 in the image memory, respectively. It has become.

【0045】特徴抽出部4は、演算処理プロセッサおよ
びメモリを有しており、最初に、画像蓄積部2により蓄
積された2枚の画像(左画像IL、右画像IR)上にお
いて、道路両端の2本の直線(白線)l,l’をそれぞ
れ抽出する。
The feature extraction unit 4 has an arithmetic processor and a memory. First, on the two images (left image IL, right image IR) stored by the image storage unit 2, the feature extraction unit 4 Two straight lines (white lines) l and l ′ are extracted.

【0046】なお、上記2本の直線抽出は、Hough
変換等を用いて行なう。直線lとl’は左右画像IL、
IR上において、各々交点(消失点)V、V’を持ち、
V’はVのエピポーララインLv上にあることを利用す
れば、計算量を削減することが可能である。
The above two straight line extractions are based on Hough
This is performed using conversion or the like. The straight lines l and l 'are left and right images IL,
On the IR, each has intersections (vanishing points) V and V ′,
By utilizing that V ′ is on the epipolar line Lv of V, the calculation amount can be reduced.

【0047】このとき、左画像IL上における直線l上
の任意の2点を各々A、C、直線l’上の任意の2点を
各々Β、Dとすると、特徴抽出部4は、これら4点の右
画像IR上の対応点A’,Β’,C’,D’を、エピポ
ーラ拘束を用いることにより求める。
At this time, if any two points on the straight line 1 on the left image IL are A and C, and any two points on the straight line l 'are Β and D, the feature extracting unit 4 The corresponding points A ′, Β ′, C ′, D ′ on the right image IR of the point are obtained by using the epipolar constraint.

【0048】すなわち、点Aの対応点A’は、右画像I
R上において、直線lと点AのエピポーララインLAの
交点として求めることができ、同様に、点Β’,C’,
D’も、それぞれ、点Β、C、DのエビポーララインL
B、LC、LDの交点として求めることができる。
That is, the point A ′ corresponding to the point A is the right image I
On R, it can be obtained as the intersection of the epipolar line LA of the straight line 1 and the point A, and similarly, the points Β ′, C ′,
D ′ is also the shrimp polar line L of points Β, C and D, respectively.
It can be obtained as the intersection of B, LC, and LD.

【0049】ここで、得られた点A,Β,C,Dおよび
点A’,B’,C’,D’の座標データを、それぞれ
(u、v),(u、v),(u、v),
(u,v),(u’,v’),(u’,v’
),(u’、v’),(u’、v’)とす
る。
Here, the coordinate data of the obtained points A, Β, C, D and points A ′, B ′, C ′, D ′ are respectively expressed as (u A , v A ), (u B , v B ), (U C , v C ),
(U D, v D), (u 'A, v' A), (u 'B, v'
B), and (u 'C, v' C ), (u 'D, v' D).

【0050】パラメータ計算部5は、演算処理プロセッ
サおよびメモリを有しており、特徴抽出部4により求め
られた4組の点の対応関係に基づいて、道路平面上の任
意の点の左画像IL上の投影点(u,v)と右画像IR
上の投影点(u’,v’)の間に成り立つ関係式のパラ
メータ(関係式パラメータ)を計算する。
The parameter calculation unit 5 has an arithmetic processing processor and a memory. Based on the correspondence between the four sets of points obtained by the feature extraction unit 4, the left image IL of an arbitrary point on the road plane is obtained. Upper projection point (u, v) and right image IR
A parameter of a relational expression (relational expression parameter) that is established between the above projected points (u ′, v ′) is calculated.

【0051】今、道路平面上の任意の点P(X,Y)の
左右画像IL,IR上への投影点をそれぞれ(u,
v),(u’,v’)とすれば、
Now, the projection points of an arbitrary point P (X, Y) on the road plane onto the left and right images IL and IR are respectively (u,
v), (u ', v'),

【数4】 なる関係式が成り立つ。(Equation 4) The following relational expression holds.

【0052】[0052]

【外4】 [Outside 4]

【0053】[0053]

【外5】 [Outside 5]

【0054】[0054]

【外6】 [Outside 6]

【数5】 (Equation 5)

【0055】[0055]

【外7】 [Outside 7]

【0056】検出部6は、演算処理プロセッサおよびメ
モリを有しており、左画像IL上の任意の点P(u,
v)の輝度をB(u,v)とし、この点P(u,v)
が道路平面上に存在すると仮定した場合の上記点P
(u,v)の右画像IR上での対応点P’(u,v)を
前掲(4)式に基づいて求める。
The detecting section 6 has an arithmetic processor and a memory, and has an arbitrary point P (u,
The brightness of v) is set to B L (u, v), and this point P (u, v)
Point P assuming that exists on the road plane
The corresponding point P ′ (u, v) of (u, v) on the right image IR is obtained based on the above equation (4).

【0057】今、求められた点P’(u’,v’)の輝
度をB(u,v)とすると、点P(u、v)が実際に
道路平面上に存在すれば、点PとP’は正しい対応点の
組となるから、基本的には点PとP’の輝度が同じにな
る。
[0057] Now, the point obtained P '(u', v ' ) luminance B R (u, v) of When the point P (u, v) if actually present on the road plane, the points Since P and P 'are a correct set of corresponding points, the brightness of the points P and P' is basically the same.

【0058】すなわち、That is,

【数6】 とした場合、検出部6は、D≠0,あるいは誤差を考慮
し、D>Thr(Thrはあらかじめ設定した閾値)と
なる点Pを障書物領域に属すると判定し、この点Pを障
害物として検出することができる。
(Equation 6) In this case, the detection unit 6 determines that the point P satisfying D> Thr (Thr is a preset threshold) belongs to the obstruction obstacle area in consideration of D ≠ 0 or an error, and determines this point P as an obstacle. Can be detected as

【0059】[0059]

【外8】 [Outside 8]

【0060】したがって、障害物(障害物検出領域)の
検出精度を向上させることができ、車両の安全性・信頼
性の一層の向上に寄与することができる。
Therefore, the detection accuracy of an obstacle (obstacle detection area) can be improved, and it can contribute to further improvement of the safety and reliability of the vehicle.

【0061】例えば、図5に示すように、検出部6によ
り検出された障害物領域情報および自車両における例え
ば運転手のハンドル操作に応じた運転方向指示情報に基
づいて警報発生処理を行う警報発生部7を設けておくこ
とにより、運転手のハンドル操作により、自車両を障害
物領域(障害物)に向かわせるための運転方向指示情報
が警報発生部7に送られると、警報発生部7は、障害物
領域情報および運転方向指示情報に基づいて自車両が障
害物領域に向かって走行することを判断し、警報を発生
する。
For example, as shown in FIG. 5, an alarm generation process for performing an alarm generation process based on obstacle region information detected by the detection unit 6 and driving direction instruction information corresponding to, for example, a driver's steering operation of the own vehicle. By providing the unit 7, when the driver's steering wheel operation sends driving direction instruction information for directing the vehicle to the obstacle area (obstacle) to the alarm generation unit 7, the alarm generation unit 7 Based on the obstacle area information and the driving direction instruction information, it is determined that the host vehicle is traveling toward the obstacle area, and an alarm is issued.

【0062】この結果、走行車両の運転手は、自車両が
障害物へ向かって走行していることを認識することがで
きるため、車両の安全性・信頼性の一層の向上に寄与す
ることができる。
As a result, the driver of the traveling vehicle can recognize that the own vehicle is traveling toward the obstacle, which contributes to further improvement of the safety and reliability of the vehicle. it can.

【0063】さらに、本実施形態の変形例として、図6
に示すように、自車両内の運転手が視認できる位置に取
り付けられたディスプレイ8と、画像蓄積部3に蓄積さ
れた例えば左画像ILをそのディスプレイ8に表示し、
検出部6により検出された障害物領域情報に基づいて、
上記左画像ILに対して、障害物領域以外の安全領域と
障害物領域との表示態様を異ならせる表示処理(例え
ば、安全領域を緑の表示色、障害物領域を赤の表示色に
する処理や、障害物領域を表すマーカを左画像IL上の
障害物領域の座標位置に重畳表示する処理等を行う画像
処理プロセッサ9とを設けてもよい。
Further, as a modification of this embodiment, FIG.
As shown in the figure, the display 8 attached to a position where the driver in the own vehicle can be visually recognized and, for example, the left image IL stored in the image storage unit 3 are displayed on the display 8.
Based on the obstacle area information detected by the detection unit 6,
A display process for making the display mode of the safety region other than the obstacle region and the obstacle region different from each other with respect to the left image IL (for example, a process of setting the safety region to a green display color and the obstacle region to a red display color) Alternatively, an image processor 9 may be provided which performs a process of superimposing and displaying a marker representing an obstacle region on the coordinate position of the obstacle region on the left image IL.

【0064】このように構成すれば、走行車両の前方に
存在する障害物領域と安全領域とがディスプレイ8上で
明確に識別できるため、ディスプレイ8を視認すること
により、運転手の視界の死角に存在する障害物等を容易
かつ確実に認識することができ、車両の安全性・信頼性
の一層の向上に寄与することができる。
With this configuration, the obstacle area and the safety area existing in front of the traveling vehicle can be clearly distinguished on the display 8. Existing obstacles and the like can be easily and reliably recognized, which contributes to further improvement of the safety and reliability of the vehicle.

【0065】なお、本実施形態においては、画像撮影部
2の2台のTVカメラ2a、2bを左右に並べて車両に
搭載し、TVカメラ2a、2bにより2枚の画像を撮影
しているが、これら2台のカメラ2a、2bは、エピポ
ーラ拘束を維持し、自車両に係る共通の平面をそれぞれ
が撮影可能であれば、どのように配置してもよい。ま
た、3台以上のTVカメラを車両に配置することも可能
である。
In the present embodiment, two TV cameras 2a and 2b of the image photographing section 2 are mounted on the vehicle side by side, and two images are photographed by the TV cameras 2a and 2b. These two cameras 2a and 2b may be arranged in any manner as long as the two cameras 2a and 2b maintain the epipolar constraint and can capture a common plane relating to the vehicle. It is also possible to arrange three or more TV cameras on the vehicle.

【0066】3台以上のTVカメラを用いて本実施形態
の障害検出処理を行う際には、エピポーラ拘束は、3枚
以上の撮影画像の中の1枚の画像を基準画像とし、その
基準画像上の任意の点kに対応する残りの各画像(参照
画像)上での対応点k’が各参照画像上のある直線上に
拘束されることを意味する。
When the failure detection processing of the present embodiment is performed using three or more TV cameras, the epipolar constraint uses one of three or more captured images as a reference image, This means that the corresponding point k ′ on the remaining images (reference images) corresponding to the arbitrary point k above is constrained on a certain straight line on each reference image.

【0067】また、特徴抽出部4は左画像ILおよび右
画像IR上の4組の点の対応関係を求めたが、5組以上
の対応関係を同様に求めてもよい。この場合では、パラ
メータ計算部5により、その5組以上の対応関係から得
られる10本以上の連立方程式を最小自乗法等を用いて
解くことも可能である。
Although the feature extracting unit 4 has determined the correspondence between the four sets of points on the left image IL and the right image IR, the correspondence may be determined between five or more sets in the same manner. In this case, the parameter calculation unit 5 can solve ten or more simultaneous equations obtained from the five or more sets of correspondences using the least square method or the like.

【0068】また、検出部6は、さらに図7に示すよう
に構成することも可能である。この変形例において、検
出部6は、画像変換部10、差異計算部11を備えてお
り、これら画像変換部10、差異計算部11は、演算処
理プロセッサの処理機能として具体化される。
Further, the detecting section 6 can be further configured as shown in FIG. In this modified example, the detection unit 6 includes an image conversion unit 10 and a difference calculation unit 11, and the image conversion unit 10 and the difference calculation unit 11 are embodied as processing functions of an arithmetic processing processor.

【0069】画像変換部10は、参照画像である右画像
IRを以下の手順に従って画像変換する。
The image conversion section 10 performs image conversion of the right image IR as a reference image according to the following procedure.

【0070】一般に、画像は画像上の点(u,v)を変
数とし、その各点に対して輝度値が定義された関数f
(u,v)として表現できる。以下では画像をこのよう
に表現する。
In general, an image uses points (u, v) on the image as variables, and a function f in which a luminance value is defined for each point.
It can be expressed as (u, v). Hereinafter, an image is represented in this manner.

【0071】例えば、図8に示すような、先行車両を含
むステレオ画像(左画像、右画像)が撮影されたとし、
左画像をf(u,v)、右画像をg(u,v)、右画像
の変換後の画像をg’(u、v)とすれば、画像変換部
10は、以下のように、変換画像g′(u,v)を求め
る。
For example, assume that a stereo image (left image, right image) including a preceding vehicle as shown in FIG.
Assuming that the left image is f (u, v), the right image is g (u, v), and the converted image of the right image is g ′ (u, v), the image conversion unit 10 calculates A converted image g '(u, v) is obtained.

【0072】[0072]

【数7】 g’(u,v)=g(u’,v’) ……(7) 但し、(u’,v’)は、前掲式(4)により求める。G ′ (u, v) = g (u ′, v ′) (7) where (u ′, v ′) is obtained by the above equation (4).

【0073】g’(u,v)は、画像g(u,v)上の
任意の点が道路平面上に存在すると仮定した場合に、左
側TVカメラ2aで得られる画像である。
G '(u, v) is an image obtained by the left TV camera 2a assuming that an arbitrary point on the image g (u, v) exists on the road plane.

【0074】例えば、図9に示す右画像g(u,v)か
らは、同図に示すような変換画像g’(u’,v’)が
得られる。図10に示すように、道路平面上にある点の
投影点は、左画像f(u,v)と変換画像g’(u’,
v’)で同一となるのに対し、道路平面上にない点、す
なわち、障害物(この場合は先行車両)上の点は、道路
からの高さに応じて異なる位置に投影される。
For example, from the right image g (u, v) shown in FIG. 9, a converted image g ′ (u ′, v ′) as shown in FIG. 9 is obtained. As shown in FIG. 10, the projection points of points on the road plane are the left image f (u, v) and the transformed image g ′ (u ′,
In contrast to v ′), points that are not on the road plane, that is, points on the obstacle (in this case, the preceding vehicle) are projected to different positions depending on the height from the road.

【0075】したがって、この左画像f(u,v)と変
換画像g’(u’,v’)との間の差分(画素間差分)
を取ることにより、道路平面上の障害物を検出すること
が可能である。
Therefore, the difference (inter-pixel difference) between the left image f (u, v) and the converted image g ′ (u ′, v ′)
, It is possible to detect an obstacle on the road plane.

【0076】すなわち、差異計算部11は、That is, the difference calculation unit 11

【数8】 で表される差分D'を計算し、このD'が、D′≠0,あ
るいは誤差を考慮し、D′>Thr(Thrはあらかじ
め設定した閾値)となる点(u,v)を障害物領域に属
すると判定し、この点(u,v)を障害物として検出す
ることができる。
(Equation 8) Is calculated, and a point (u, v) where D ′> 0 or D ′> Thr (Thr is a preset threshold value) is considered as an obstacle in consideration of an error. It is determined that they belong to the area, and this point (u, v) can be detected as an obstacle.

【0077】また、検出部6の差異検出部は、画素間差
分をとることによって2枚の画像(左画像、右画像)の
差異を検出したが、本変形例はこれに限定されるもので
はない。
The difference detector of the detector 6 detects the difference between the two images (left image and right image) by calculating the difference between the pixels. However, the present modification is not limited to this. Absent.

【0078】例えば、検出部6の差異検出部は、各画像
(左画像、右画像)の対応する各点(各画素)に対して
(2ω+1)×(2ω+1)のウインドウを設定し、ウ
インドウ内の輝度値の正規化相互相関Cを計算して差異
を検出することも可能である。
For example, the difference detection unit of the detection unit 6 sets a (2ω + 1) × (2ω + 1) window for each point (pixel) corresponding to each image (left image, right image). It is also possible to detect the difference by calculating the normalized cross-correlation C of the luminance value of the.

【0079】この場合、2枚の画像(左画像、右画像)
F(u,v),G(u,v)の点(u,v)Cは、
In this case, two images (left image, right image)
The point (u, v) C of F (u, v) and G (u, v) is

【数9】 で表される。(Equation 9) It is represented by

【0080】ここで、N=(2ω+1)×(2ω+
1)、a1,a2は2枚の画像F(u,v),G(u,
v)のウインドウ内の輝度の平均、σ ,σ は、
2枚の画像F(u,v),G(u,v)のウィンドウ内
の輝度の分散である。
Here, N = (2ω + 1) × (2ω +
1), a1 and a2 are two images F (u, v), G (u,
The average brightness in the window of v), σ 2 1 , σ 2 2, is
This is the variance of the luminance in the windows of the two images F (u, v) and G (u, v).

【0081】このとき、差異計算部11は、計算値C<
Thr(Thrはあらかじめ設定した閾値)を満足する
点(u,v)を障害物領域に属すると判定するようにな
っている。
At this time, the difference calculator 11 calculates the calculated value C <
A point (u, v) satisfying Thr (Thr is a preset threshold value) is determined to belong to the obstacle area.

【0082】上述したように、検出部を変形例に示した
ように構成しても、障害物領域を容易に検出することが
できる。
As described above, even if the detection unit is configured as shown in the modification, the obstacle area can be easily detected.

【0083】また、本実施例では道路平面の両端の2本
の白線を直線として抽出したが、道路がカーブしている
場合には白線は曲線となる。この場合には、白線を曲線
として抽出すれば、同様に障害物を検出することができ
る。
In this embodiment, the two white lines at both ends of the road plane are extracted as straight lines. However, when the road is curved, the white lines are curved. In this case, if the white line is extracted as a curve, an obstacle can be detected in the same manner.

【0084】また、本実施形態では、道路面を平面と仮
定して説明したが、曲面の場合であっても、平面の場合
と同様に障害物を検出することができる。
Further, in the present embodiment, the description has been made assuming that the road surface is a plane. However, even in the case of a curved surface, an obstacle can be detected as in the case of a plane.

【0085】さらに、本実施形態においては、図1に示
した各ブロック構成要素4〜6それぞれが演算処理プロ
セッサおよびメモリを有していると説明したが、本発明
はこれに限定されるものではなく、1つの演算処理プロ
セッサおよびメモリにより上述した特徴抽出部4の特徴
抽出処理、関係式パラメータ計算部の関係式パラメータ
計算処理および検出部6の障害物検出処理を行うように
構成することも可能である。
Further, in the present embodiment, it has been described that each of the block components 4 to 6 shown in FIG. 1 has an arithmetic processor and a memory, but the present invention is not limited to this. Instead, the configuration may be such that the feature extraction processing of the feature extraction unit 4, the relational expression parameter calculation processing of the relational expression parameter calculation unit, and the obstacle detection processing of the detection unit 6 are performed by one arithmetic processing processor and memory. It is.

【0086】ところで、本実施形態では、道路面上を走
行する車両に搭載されたTVカメラからの障害物検出に
関して説明したが、本発明はこれに限定されるものでは
なく、例えば、航空機やヘリコプター等の移動体が滑走
路等の路面に着陸する際の障害物検出にも適用すること
が可能である。
In this embodiment, the detection of an obstacle from a TV camera mounted on a vehicle traveling on a road surface has been described. However, the present invention is not limited to this. For example, an aircraft or a helicopter may be used. It can also be applied to obstacle detection when a moving body such as lands on a road surface such as a runway.

【0087】一方、本実施形態によれば、車両等の移動
体に2台以上のTVカメラを搭載した場合について説明
したが、本発明はこれに限定されるものではない。
On the other hand, according to the present embodiment, the case where two or more TV cameras are mounted on a moving body such as a vehicle has been described, but the present invention is not limited to this.

【0088】例えば、図11に示すように、移動体(車
両15)には1台のTVカメラ2を搭載し、予め車両1
5が走行する道路の路側の上方に例えば所定間隔毎に設
置された道路監視用カメラ16の画像を利用することに
より、上述したステレオ視技術に基づく障害物検出処理
を行うことも可能である。
For example, as shown in FIG. 11, one TV camera 2 is mounted on a moving body (vehicle 15), and
By using the images of the road monitoring cameras 16 installed at, for example, predetermined intervals above the roadside of the road on which the vehicle 5 travels, it is also possible to perform the above-described obstacle detection processing based on the stereo vision technique.

【0089】すなわち、車両15に搭載された1台のT
Vカメラ2Aを有する障害物検出装置1aは、その走行
位置近傍に設置された道路監視用カメラ16の画像を無
線通信装置17を経由して受け取り、この画像(第1の
画像)と自車両15により撮影された画像(第2の画
像)に基づいて上述したステレオ視技術に基づく処理を
実行することにより、道路上の障害物を検出することが
可能である。
That is, one T mounted on the vehicle 15
The obstacle detection device 1a having the V camera 2A receives the image of the road monitoring camera 16 installed near the traveling position via the wireless communication device 17, and receives this image (first image) and the own vehicle 15 By executing the processing based on the above-described stereoscopic vision technology based on the image (second image) captured by, it is possible to detect an obstacle on the road.

【0090】そして、障害物検出装置1aは、自車両1
5の走行に応じて、自車両15の現在の走行位置に近い
方の監視用カメラ16から無線通信装置17を介して送
信された第1の画像を用いることにより、連続した障害
物検出処理を行うことができる。
Then, the obstacle detecting device 1a
5, the continuous obstacle detection process is performed by using the first image transmitted from the monitoring camera 16 closer to the current traveling position of the host vehicle 15 via the wireless communication device 17 in accordance with the traveling of the vehicle 5. It can be carried out.

【0091】このように構成すれば、上述した効果に加
えて、車両に搭載するTVカメラの台数を減らすことが
でき、障害物検出装置のシステムが簡素化される。な
お、車両に搭載されたTVカメラと道路監視用カメラと
の大きさが異なる場合には、得られた第1および第2の
画像間で補正処理を行うことが必要である。
With this configuration, in addition to the above-described effects, the number of TV cameras mounted on the vehicle can be reduced, and the system of the obstacle detection device is simplified. When the size of the TV camera mounted on the vehicle and the size of the road monitoring camera are different, it is necessary to perform a correction process between the obtained first and second images.

【0092】その他、本発明の要旨を逸脱しない範囲内
であれば、如何なる変形も可能である。
In addition, any modifications can be made without departing from the gist of the present invention.

【0093】[0093]

【発明の効果】以上述べたように、本発明の障害物検出
方法および装置によれば、路面等の面からの高さの有無
により障害物を検出することができるため、明るさの変
動や影の影響を受けることなく、画像中から先行車や歩
行者等の障害物を検出することができる。
As described above, according to the obstacle detecting method and apparatus of the present invention, an obstacle can be detected based on the presence or absence of a height from a surface such as a road surface. An obstacle such as a preceding vehicle or a pedestrian can be detected from the image without being affected by the shadow.

【0094】特に、本発明では、路面と各撮影デバイス
との幾何学的な関係を、直線検出等の簡単な処理により
求めているため、走行中の振動や道路平面に傾斜にある
場合でも、安定に面上の障害物を検出することができ、
その実用性を大幅に向上させることができる。
In particular, according to the present invention, the geometric relationship between the road surface and each photographing device is obtained by simple processing such as detection of a straight line. Obstacles on the surface can be detected stably,
Its practicality can be greatly improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る障害物検出装置の概
略構成を示すブロック図。
FIG. 1 is a block diagram showing a schematic configuration of an obstacle detection device according to an embodiment of the present invention.

【図2】道路平面上に設定されたワールド座標系および
道路平面上の白線を示す図。
FIG. 2 is a diagram illustrating a world coordinate system set on a road plane and a white line on the road plane.

【図3】エピポーラ拘束を説明するための図。FIG. 3 is a diagram for explaining epipolar constraint.

【図4】図1に示す特徴抽出部の白線抽出処理および左
右画像間の対応点の組を求める処理を説明するための
図。
FIG. 4 is a view for explaining a white line extraction process and a process of obtaining a set of corresponding points between left and right images by the feature extraction unit shown in FIG. 1;

【図5】図1の構成に加えて、警報発生処理機能を有す
る障害物検出装置を示すブロック図。
FIG. 5 is a block diagram showing an obstacle detection device having an alarm generation processing function in addition to the configuration of FIG. 1;

【図6】図1の構成に加えて、ディスプレイに対する障
害物領域および安全領域の表示処理を有する障害物検出
装置を示すブロック図。
FIG. 6 is a block diagram showing an obstacle detection device having display processing of an obstacle area and a safety area for a display in addition to the configuration of FIG. 1;

【図7】図1に示す検出部の他の構成を示すブロック
図。
FIG. 7 is a block diagram showing another configuration of the detection unit shown in FIG. 1;

【図8】ステレオ画像の一例を示す図。FIG. 8 is a diagram showing an example of a stereo image.

【図9】右画像とその変換画像を示す図。FIG. 9 is a diagram showing a right image and its converted image.

【図10】左画像と右画像の変換画像とを示す図。FIG. 10 is a diagram showing a converted image of a left image and a right image.

【図11】本発明の変形例として、移動体に1台のTV
カメラを搭載し、道路の路側に設置された道路監視用カ
メラを利用してステレオ視を行う構成を示す図。
FIG. 11 shows a modification of the present invention, in which one moving body is provided with one TV.
The figure which shows the structure which mounts a camera and performs stereoscopic vision using the camera for road monitoring installed in the road side of the road.

【符号の説明】 1 障害物検出装置 2 画像撮影部 2a、2b TVカメラ 3 画像蓄積部 4 特徴抽出部 5 関係式パラメータ計算部 6 検出部 7 警報発生部 8 ディスプレイ 9 画像処理プロセッサ 10 画像変換部 11 差異計算部[Description of Signs] 1 Obstacle detection device 2 Image photographing unit 2a, 2b TV camera 3 Image storage unit 4 Feature extraction unit 5 Relational expression parameter calculation unit 6 Detection unit 7 Alarm generation unit 8 Display 9 Image processing processor 10 Image conversion unit 11 Difference calculator

【手続補正2】[Procedure amendment 2]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図1[Correction target item name] Fig. 1

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図1】 FIG.

【手続補正3】[Procedure amendment 3]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図2[Correction target item name] Figure 2

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図2】 FIG. 2

【手続補正4】[Procedure amendment 4]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図3[Correction target item name] Figure 3

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図3】 FIG. 3

【手続補正5】[Procedure amendment 5]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図4[Correction target item name] Fig. 4

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図4】 FIG. 4

【手続補正6】[Procedure amendment 6]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図5[Correction target item name] Fig. 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図5】 FIG. 5

【手続補正7】[Procedure amendment 7]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図6[Correction target item name] Fig. 6

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図6】 FIG. 6

【手続補正8】[Procedure amendment 8]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図7[Correction target item name] Fig. 7

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図7】 FIG. 7

【手続補正9】[Procedure amendment 9]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図8[Correction target item name] Fig. 8

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図8】 FIG. 8

【手続補正10】[Procedure amendment 10]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図9[Correction target item name] Fig. 9

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図9】 FIG. 9

【手続補正11】[Procedure amendment 11]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図10[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図10】 FIG. 10

【手続補正12】[Procedure amendment 12]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図11[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図11】 FIG. 11

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小野口 一則 兵庫県神戸市東灘区本山南町8丁目6番26 号株式会社東芝関西研究所内 Fターム(参考) 5B057 AA06 BA02 BA15 CE16 DA08 DA15 DA16 DC03 DC22 DC34 5H180 AA01 CC04 CC24 LL01 LL02 LL08  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Kazunori Onoguchi 8-6-26 Motoyama Minami-cho, Higashinada-ku, Kobe-shi, Hyogo F-term in Toshiba Kansai Research Institute Co., Ltd. 5B057 AA06 BA02 BA15 CE16 DA08 DA15 DA16 DC03 DC22 DC34 5H180 AA01 CC04 CC24 LL01 LL02 LL08

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 複数の線を有する面上の障害物領域を検
出する障害物検出装置であって、 画像を撮影する複数の撮影デバイスと、この複数の撮影
デバイスによりそれぞれ撮影された複数の画像を記憶す
る画像記憶手段と、この画像記憶手段に記憶された複数
の画像上に表された前記複数の線を抽出し、抽出した複
数の線に基づいて前記複数の画像間の対応点を求める抽
出手段と、この抽出手段により求められた対応点に基づ
いて、前記面上の任意の点の各画像への投影位置の間に
成り立つ関係式のパラメータを計算するパラメータ計算
手段と、このパラメータ計算手段により計算されたパラ
メータにより定まる関係式に基づいて前記面に対して異
なる高さを有する領域を障害物領域として検出する検出
手段とを備えたことを特徴とする障害物検出装置。
1. An obstacle detecting apparatus for detecting an obstacle area on a plane having a plurality of lines, comprising: a plurality of photographing devices for photographing images; and a plurality of images photographed by the plurality of photographing devices, respectively. And a plurality of lines extracted from the plurality of images stored in the image storage unit, and a corresponding point between the plurality of images is determined based on the plurality of extracted lines. Extraction means; parameter calculation means for calculating parameters of a relational expression between projection positions of arbitrary points on the surface on each image based on the corresponding points obtained by the extraction means; Detecting means for detecting areas having different heights with respect to the surface as obstacle areas based on a relational expression determined by parameters calculated by the means. Detection device.
【請求項2】 前記複数の撮影デバイスの内の1つの基
準撮影デバイスにより撮影された画像を基準画像とし、
残りの撮影デバイスにより撮影された画像を参照画像と
したとき、前記基準画像上の任意の点に対応する前記参
照画像上の対応点は、前記基準画像上の任意の点と前記
基準撮影デバイスの視点とを結ぶ直線の前記参照画像上
への投影直線上に拘束されることを特徴とする請求項1
記載の障害物検出装置。
2. An image photographed by one reference photographing device of the plurality of photographing devices as a reference image,
When an image photographed by the remaining photographing device is used as a reference image, a corresponding point on the reference image corresponding to an arbitrary point on the reference image is an arbitrary point on the reference image and the corresponding point on the reference photographing device. 2. The system according to claim 1, wherein a straight line connecting a viewpoint is constrained on a straight line projected onto the reference image.
An obstacle detection device as described in the above.
【請求項3】 前記抽出手段は、前記基準画像上の複数
の線および前記基準画像に対する前記参照画像上への投
影直線に基づいて前記基準画像および前記参照画像間の
対応点の組を求めており、 前記パラメータ計算手段は、前記抽出手段により求めら
れた前記基準画像および前記参照画像間の複数の対応点
の組に基づいて、前記面上の任意の点の前記基準画像お
よび前記参照画像に対する投影位置の間に成り立つ関係
式のパラメータを求める手段であることを特徴とする請
求項2記載の障害物検出装置。
3. The method according to claim 1, wherein the extracting unit calculates a set of corresponding points between the reference image and the reference image based on a plurality of lines on the reference image and a straight line projected on the reference image with respect to the reference image. Wherein the parameter calculation unit is configured to determine, for the reference image and the reference image at an arbitrary point on the surface, based on a set of a plurality of corresponding points between the reference image and the reference image obtained by the extraction unit. 3. The obstacle detection device according to claim 2, wherein the means for obtaining a parameter of a relational expression that holds between the projection positions.
【請求項4】 前記抽出手段は、前記基準画像上の複数
の線の内の一本の線1上の第1の複数の点と前記参照画
像上の投影線との交点を第1の複数の対応点として求
め、前記基準画像上の複数の線の内の1以外の1本の線
上の第2の複数の点と前記参照画像上の投影線との交点
を第2の複数の対応点として求めることにより、前記第
1の複数の点および第1の複数の対応点の組と前記第2
の複数の点および第2の複数の対応点の組とを求めるよ
うにしたことを特徴とする請求項3記載の障害物検出装
置。
4. The method according to claim 1, wherein the extracting unit determines an intersection between a first plurality of points on one line 1 of the plurality of lines on the reference image and a projection line on the reference image. And the intersection of a second plurality of points on one line other than one of the plurality of lines on the reference image with a projection line on the reference image is defined as a second plurality of corresponding points. And the second set of the first plurality of points and the first plurality of corresponding points
4. The obstacle detecting device according to claim 3, wherein a plurality of points and a set of a second plurality of corresponding points are obtained.
【請求項5】 前記検出手段は、前記基準画像上の任意
の点が前記面上に存在すると仮定した場合に、前記任意
の点に対応する前記参照画像上の対応点を、前記関係式
パラメータにより定まる関係式に基づいて求め、前記基
準画像上の任意の点の輝度と求められた前記参照画像上
の対応点の輝度とを比較することにより、前記基準画像
上の任意の点が前記面に対して異なる高さを有する障害
物領域に属するか否かを判定するようにしたことを特徴
とする請求項3または4記載の障害物検出装置。
5. The method according to claim 1, wherein the detecting unit determines a corresponding point on the reference image corresponding to the arbitrary point on the reference image, assuming that the arbitrary point on the reference image exists on the surface. By comparing the brightness of an arbitrary point on the reference image with the calculated brightness of the corresponding point on the reference image, an arbitrary point on the reference image can be obtained based on the relational expression determined by 5. The obstacle detecting device according to claim 3, wherein it is determined whether the object belongs to an obstacle region having a different height.
【請求項6】 前記検出手段は、前記参照画像を、当該
参照画像の任意の点が前記面上に存在すると仮定した場
合に、前記基準撮影デバイスで得られる画像に変換する
変換手段と、前記基準画像と前記変換手段により変換さ
れた参照画像との差異を計算し、計算された差異に基づ
いて、前記参照画像上の任意の点が前記面に対して異な
る高さを有する障害物領域に属するか否かを判定する差
異計算手段とを備えたことを特徴とする請求項3または
4記載の障害物検出装置。
6. The converting means for converting the reference image into an image obtained by the reference photographing device, assuming that an arbitrary point of the reference image exists on the plane, Calculate the difference between the reference image and the reference image converted by the conversion means, and based on the calculated difference, any point on the reference image is in an obstacle area having a different height with respect to the plane. The obstacle detection device according to claim 3, further comprising a difference calculation unit that determines whether the object belongs.
【請求項7】 前記差異計算手段は、前記基準画像と前
記変換参照画像との差分を取ることにより前記差異を計
算するようにしたことを特徴とする請求項6記載の障害
物検出装置。
7. The obstacle detection device according to claim 6, wherein the difference calculation means calculates the difference by taking a difference between the reference image and the converted reference image.
【請求項8】 前記差異計算手段は、前記参照画像上の
任意の点に対して、この点を中心としたウインドウを設
定し、設定したウインドウ内の前記基準画像および前記
変換参照画像間の輝度値の正規化相互相関を計算するこ
とにより差異を計算するようにしたことを特徴とする請
求項6記載の障害物検出装置。
8. The difference calculation means sets a window centered on an arbitrary point on the reference image, and sets a luminance between the reference image and the converted reference image in the set window. 7. The obstacle detecting device according to claim 6, wherein the difference is calculated by calculating a normalized cross-correlation of the value.
【請求項9】 前記面は実空間で移動する移動体が走行
する路面であり、前記障害物検出装置を前記移動体に搭
載したことを特徴とする請求項1乃至8の内の何れか1
項記載の障害物検出装置。
9. The vehicle according to claim 1, wherein the surface is a road surface on which a moving body moving in a real space travels, and the obstacle detection device is mounted on the moving body.
The obstacle detection device according to the item.
【請求項10】 前記検出手段により検出された障害物
領域に対して前記移動体を移動させる移動指示情報が送
られた際に、前記移動体の前記障害物領域への移動を回
避するための所定の処理を行う手段を備えたことを特徴
とする請求項9記載の障害物検出装置。
10. When the movement instruction information for moving the moving body with respect to the obstacle area detected by the detection means is transmitted, the moving body is configured to avoid moving the moving body to the obstacle area. 10. The obstacle detecting device according to claim 9, further comprising means for performing a predetermined process.
【請求項11】 前記画像記憶手段により記憶された少
なくとも1つの画像を、前記検出手段により検出された
障害物領域を当該画像上の他の安全領域の表示態様とは
異なる態様で表示する表示手段を備えたことを特徴とす
る請求項10記載の障害物検出装置。
11. A display unit for displaying at least one image stored by the image storage unit in a manner different from a display mode of another safety area on the image, the obstacle area detected by the detection means. The obstacle detection device according to claim 10, further comprising:
【請求項12】 複数の線を有する面上の障害物領域を
検出する障害物検出方法であって、 複数の画像を撮影するステップと、撮影ステップにより
撮影された複数の画像を記憶するステップと、この記憶
ステップにより記憶された複数の画像上に表された前記
複数の線を抽出し、抽出した複数の線に基づいて前記複
数の画像間の対応点を求めるステップと、このステップ
により求められた対応点に基づいて、前記面上の任意の
点の各画像への投影位置の間に成り立つ関係式のパラメ
ータを計算するステップと、このパラメータ計算ステッ
プにより計算されたパラメータにより定まる関係式に基
づいて前記面に対して異なる高さを有する領域を障害物
領域として検出するステップとを備えたことを特徴とす
る障害物検出方法。
12. An obstacle detection method for detecting an obstacle area on a plane having a plurality of lines, comprising: a step of photographing a plurality of images; and a step of storing a plurality of images photographed in the photographing step. Extracting the plurality of lines represented on the plurality of images stored by the storage step, and obtaining a corresponding point between the plurality of images based on the extracted plurality of lines; Calculating the parameters of a relational expression that holds between the projection positions of the arbitrary points on the surface onto the respective images based on the corresponding points; and Detecting a region having a different height with respect to the surface as an obstacle region.
JP11130451A 1999-03-31 1999-03-31 Obstacle detecting method and device Abandoned JP2000293693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11130451A JP2000293693A (en) 1999-03-31 1999-03-31 Obstacle detecting method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11130451A JP2000293693A (en) 1999-03-31 1999-03-31 Obstacle detecting method and device

Publications (1)

Publication Number Publication Date
JP2000293693A true JP2000293693A (en) 2000-10-20

Family

ID=15034557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11130451A Abandoned JP2000293693A (en) 1999-03-31 1999-03-31 Obstacle detecting method and device

Country Status (1)

Country Link
JP (1) JP2000293693A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6906620B2 (en) 2002-08-28 2005-06-14 Kabushiki Kaisha Toshiba Obstacle detection device and method therefor
JP2005347863A (en) * 2004-05-31 2005-12-15 Nissan Motor Co Ltd Device and method for displaying periphery of car
US6985075B2 (en) 2002-09-25 2006-01-10 Kabushiki Kaisha Toshiba Obstacle detection apparatus and method
WO2006016663A1 (en) 2004-08-11 2006-02-16 Tokyo Institute Of Technology Object detector
US7091837B2 (en) 2002-03-29 2006-08-15 Kabushiki Kaisha Toshiba Obstacle detecting apparatus and method
JP2006236094A (en) * 2005-02-25 2006-09-07 Toyota Motor Corp Obstacle recognition system
JP2007272668A (en) * 2006-03-31 2007-10-18 Toyota Motor Corp Image processing apparatus and method
JP2007300470A (en) * 2006-05-01 2007-11-15 Honda Motor Co Ltd Wireless communication region measuring system, method, program, and display device for displaying wireless communication region
US7313265B2 (en) 2003-03-13 2007-12-25 Kabushiki Kaisha Toshiba Stereo calibration apparatus and stereo image monitoring apparatus using the same
JP2008529183A (en) * 2005-02-04 2008-07-31 フィコ ミラーズ,エスエー A system to detect obstacles in front of a car
US7660434B2 (en) 2004-07-13 2010-02-09 Kabushiki Kaisha Toshiba Obstacle detection apparatus and a method therefor
US8154594B2 (en) 2004-08-11 2012-04-10 Tokyo Institute Of Technology Mobile peripheral monitor
US8180100B2 (en) 2004-08-11 2012-05-15 Honda Motor Co., Ltd. Plane detector and detecting method
JP2012248004A (en) * 2011-05-27 2012-12-13 Toshiba Corp Image processing system, image recognition device and method
JP5566281B2 (en) * 2008-03-03 2014-08-06 Toa株式会社 Apparatus and method for specifying installation condition of swivel camera, and camera control system provided with the apparatus for specifying installation condition
US8917929B2 (en) 2010-03-19 2014-12-23 Lapis Semiconductor Co., Ltd. Image processing apparatus, method, program, and recording medium

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7091837B2 (en) 2002-03-29 2006-08-15 Kabushiki Kaisha Toshiba Obstacle detecting apparatus and method
US7209031B2 (en) 2002-03-29 2007-04-24 Kabushiki Kaisha Toshiba Obstacle detecting apparatus and method
US6906620B2 (en) 2002-08-28 2005-06-14 Kabushiki Kaisha Toshiba Obstacle detection device and method therefor
EP1394761A3 (en) * 2002-08-28 2005-12-07 Kabushiki Kaisha Toshiba Obstacle detection device and method therefor
US7132933B2 (en) 2002-08-28 2006-11-07 Kabushiki Kaisha Toshiba Obstacle detection device and method therefor
US6985075B2 (en) 2002-09-25 2006-01-10 Kabushiki Kaisha Toshiba Obstacle detection apparatus and method
US7313265B2 (en) 2003-03-13 2007-12-25 Kabushiki Kaisha Toshiba Stereo calibration apparatus and stereo image monitoring apparatus using the same
JP2005347863A (en) * 2004-05-31 2005-12-15 Nissan Motor Co Ltd Device and method for displaying periphery of car
JP4556494B2 (en) * 2004-05-31 2010-10-06 日産自動車株式会社 Vehicle periphery display device and vehicle periphery display method
US7660434B2 (en) 2004-07-13 2010-02-09 Kabushiki Kaisha Toshiba Obstacle detection apparatus and a method therefor
WO2006016663A1 (en) 2004-08-11 2006-02-16 Tokyo Institute Of Technology Object detector
US8180100B2 (en) 2004-08-11 2012-05-15 Honda Motor Co., Ltd. Plane detector and detecting method
US8331653B2 (en) 2004-08-11 2012-12-11 Tokyo Institute Of Technology Object detector
US8154594B2 (en) 2004-08-11 2012-04-10 Tokyo Institute Of Technology Mobile peripheral monitor
JP2008529183A (en) * 2005-02-04 2008-07-31 フィコ ミラーズ,エスエー A system to detect obstacles in front of a car
JP4751894B2 (en) * 2005-02-04 2011-08-17 フィコ ミラーズ,エスエー A system to detect obstacles in front of a car
JP2006236094A (en) * 2005-02-25 2006-09-07 Toyota Motor Corp Obstacle recognition system
JP2007272668A (en) * 2006-03-31 2007-10-18 Toyota Motor Corp Image processing apparatus and method
JP2007300470A (en) * 2006-05-01 2007-11-15 Honda Motor Co Ltd Wireless communication region measuring system, method, program, and display device for displaying wireless communication region
JP4675822B2 (en) * 2006-05-01 2011-04-27 本田技研工業株式会社 Wireless communication area measurement system, method and program
JP5566281B2 (en) * 2008-03-03 2014-08-06 Toa株式会社 Apparatus and method for specifying installation condition of swivel camera, and camera control system provided with the apparatus for specifying installation condition
US8917929B2 (en) 2010-03-19 2014-12-23 Lapis Semiconductor Co., Ltd. Image processing apparatus, method, program, and recording medium
JP2012248004A (en) * 2011-05-27 2012-12-13 Toshiba Corp Image processing system, image recognition device and method

Similar Documents

Publication Publication Date Title
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
KR101327736B1 (en) AVM Top View Based Parking Support System
JP4899424B2 (en) Object detection device
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
US9418556B2 (en) Apparatus and method for displaying a blind spot
US20040125207A1 (en) Robust stereo-driven video-based surveillance
JP2000293693A (en) Obstacle detecting method and device
JP2002359838A (en) Device for supporting driving
JP2003083742A (en) Distance correction apparatus and method of monitoring system
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
KR20200071960A (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera Convergence
JP4032843B2 (en) Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
JP5539250B2 (en) Approaching object detection device and approaching object detection method
KR101203816B1 (en) Robot fish localization system using artificial markers and method of the same
JPH10269362A (en) Object recognition method and device therefor
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
JPH1144533A (en) Preceding vehicle detector
JP2001076128A (en) Device and method for detecting obstacle
JP4696925B2 (en) Image processing device
JP4106163B2 (en) Obstacle detection apparatus and method
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
JP4742695B2 (en) Gaze recognition apparatus and gaze recognition method
JPH1141521A (en) Image pickup device, instrument and method for measuring distance between vehicles
JP2017117357A (en) Three-dimensional object detection device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040121

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20040311