JP2001243456A - Device and method for detecting obstacle - Google Patents
Device and method for detecting obstacleInfo
- Publication number
- JP2001243456A JP2001243456A JP2000053825A JP2000053825A JP2001243456A JP 2001243456 A JP2001243456 A JP 2001243456A JP 2000053825 A JP2000053825 A JP 2000053825A JP 2000053825 A JP2000053825 A JP 2000053825A JP 2001243456 A JP2001243456 A JP 2001243456A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- converted
- obstacle
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、自動車の安全運転
の支援や自動走行を実現するために、車載カメラによ
り、先行車、駐車車両、歩行者等、道路上に存在する障
害物を検出する障害物検出装置及び障害物検出方法に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects an obstacle existing on a road, such as a preceding vehicle, a parked vehicle, or a pedestrian, by using an on-vehicle camera in order to realize safe driving assistance and automatic driving of an automobile. The present invention relates to an obstacle detection device and an obstacle detection method.
【0002】[0002]
【従来の技術】障害物を検知するための技術は、レーザ
や超音波等を利用するものとTVカメラを利用するもの
に大別できる。2. Description of the Related Art Techniques for detecting an obstacle can be roughly classified into those using a laser or an ultrasonic wave and those using a TV camera.
【0003】レーザを利用するものは高価であり、超音
波を利用するものは超音波の解像度が低いため、障害物
の検出精度に問題がある。また、レーザや超音波等を用
いる能動センサ単独では走行レーンの認識ができない。[0003] Those using a laser are expensive, and those using an ultrasonic wave have a low resolution of the ultrasonic wave, so that there is a problem in the accuracy of detecting an obstacle. Further, the active lane using the laser or the ultrasonic wave alone cannot recognize the traveling lane.
【0004】これに対し、TVカメラは比較的安価であ
り、解像度や計測精度、計測範囲の面からも障害物検出
に適する。また、走行レーンの認識も可能である。TV
カメラを用いる場合、1台のカメラを使用する方法と複
数台のカメラ(ステレオカメラ)を使用する方法があ
る。On the other hand, TV cameras are relatively inexpensive and are suitable for obstacle detection in terms of resolution, measurement accuracy, and measurement range. It is also possible to recognize the traveling lane. TV
When a camera is used, there are a method using one camera and a method using a plurality of cameras (stereo cameras).
【0005】1台のカメラを使用する方法は、そのカメ
ラで撮影した1枚の画像から、輝度や色、あるいはテク
スチャ等の情報を手がかりにして道路領域と障害物領域
とを分離する。例えば、画像中で彩度の低い中程度の輝
度領域、つまり灰色の領域を抽出し道路領域を求めた
り、テクスチャの少ない領域を求めて、道路領域を抽出
し、それ以外の領域を障害物領域とする。しかし、道路
と似た輝度、色、あるいはテクスチャを持つ障害物も数
多く存在するため、この方法で障害物領域と道路領域を
切り分けるのは困難である。In the method using one camera, a road area and an obstacle area are separated from one image captured by the camera by using information such as luminance, color, and texture. For example, in the image, a medium-luminance area with low saturation, that is, a gray area is extracted to obtain a road area, or an area with less texture is obtained, a road area is extracted, and the other areas are determined as obstacle areas. And However, since there are many obstacles having luminance, color, or texture similar to a road, it is difficult to separate an obstacle region from a road region by this method.
【0006】これに対して、複数台のカメラを用いる方
法は、3次元情報を手がかりにして障害物を検出する。
この方法は一般にステレオ視と呼ばれる。ステレオ視と
は、例えば、2つのカメラを左右に配置し、3次元空間
中で同一点である点を左右画像間で対応付け、三角測量
の要領で、その点の3次元位置を求めるものである。各
カメラの道路平面に対する位置や姿勢等を予め求めてお
くと、ステレオ視により画像中の任意の点の道路平面か
らの高さが得られる。このようにすることにより、高さ
の有無によって障害物領域と道路領域とを分離すること
ができる。ステレオ視によれば、1台のカメラを用いる
場合のような問題を回避することが可能である。On the other hand, the method using a plurality of cameras detects an obstacle using three-dimensional information as a clue.
This method is generally called stereo vision. Stereo vision refers to, for example, arranging two cameras on the left and right, associating a point that is the same point in a three-dimensional space between left and right images, and finding a three-dimensional position of the point in a triangulation manner. is there. If the position, posture, and the like of each camera with respect to the road plane are obtained in advance, the height of an arbitrary point in the image from the road plane can be obtained by stereo vision. In this way, the obstacle area and the road area can be separated depending on the presence or absence of the height. According to the stereo vision, it is possible to avoid the problem as in the case of using one camera.
【0007】しかし、通常のステレオ視には、対応点探
索という問題がある。ステレオ視とは、一般的には、画
像上の任意の点のステレオカメラに固定した座標系(以
下では、ステレオカメラ座標系と呼ぶ)に対する3次元
位置を求める技術である。対応点探索は、空間中で同一
である点を左右の画像間で対応付ける際に必要な探索計
算を意味し、計算コストが極めて高いという問題があ
る。対応点検索は、ステレオ視の実用化を妨げる要因と
なっている。However, ordinary stereo vision has a problem of searching for corresponding points. In general, stereo vision is a technique for obtaining a three-dimensional position of an arbitrary point on an image in a coordinate system fixed to a stereo camera (hereinafter, referred to as a stereo camera coordinate system). The corresponding point search means a search calculation required for associating the same point in space between the left and right images, and has a problem that the calculation cost is extremely high. The corresponding point search is a factor hindering the practical use of stereo vision.
【0008】しかし、画像上で道路領域と障害物領域と
を分離すればよいのであれば、対応点探索は必要でな
く、道路平面からの高さの有無は、例えば以下のように
して判別できる。However, if it is only necessary to separate the road area and the obstacle area on the image, it is not necessary to search for the corresponding point, and the presence or absence of the height from the road plane can be determined as follows, for example. .
【0009】道路平面上の点の左右画像への投影点を各
々(u,v),(u’,v’)とすれば、式(1)のよ
うな関係式が成り立つ。If the projection points of the points on the road plane onto the left and right images are (u, v) and (u ', v'), a relational expression such as the following expression (1) is established.
【0010】[0010]
【数1】 (Equation 1)
【0011】h→=(h11,h12,h13,h21,h22,
h23,h31,h32,h33)は、各カメラの道路平面に対
する位置と姿勢、さらに、各カメラのレンズの焦点距
離、画像原点に依存するパラメータである。h→は、あ
らかじめ道路平面上の4点以上の左右画像への投影点
(ui,vi),(ui’,vi’)(i=1,2,
…,N)から求めておく。H → = (h 11 , h 12 , h 13 , h 21 , h 22 ,
h 23 , h 31 , h 32 , h 33 ) are parameters depending on the position and orientation of each camera with respect to the road plane, the focal length of the lens of each camera, and the image origin. h → is projected points to 4 points or more of the left and right images on the advance road plane (u i, v i), (u i ', v i') (i = 1,2,
..., N).
【0012】この関係式を用いて、左画像上の任意の点
P(u,v)が道路平面上に存在すると仮定した場合の
右画像上の対応点P’(u’,v’)を求める。点Pが
道路平面上に存在すれば、点Pと点P’が正しい対応点
の組となるので、2点の輝度は一致する。したがって、
点Pと点P’の輝度が異なる場合には、点Pは障害物に
属すると判定することができる。この方式は、式(1)
のみから直接的に画像上の任意の点の道路面からの高さ
の有無を判定可能であり、式(1)の係数は道路上の4
点以上の特徴点の左右画像への投影点だけから求めるこ
とができ、左右画像間の対応点探索が不要である。Using this relational expression, a corresponding point P ′ (u ′, v ′) on the right image when an arbitrary point P (u, v) on the left image is assumed to be on the road plane. Ask. If the point P exists on the road plane, the points P and P 'are a correct pair of corresponding points, and the two points have the same luminance. Therefore,
If the luminance of the point P is different from that of the point P ′, it can be determined that the point P belongs to an obstacle. This method is based on the equation (1)
Alone, it is possible to directly determine the presence or absence of the height of an arbitrary point on the image from the road surface.
It can be obtained only from the projection points of the feature points or more on the left and right images, and the corresponding point search between the left and right images is unnecessary.
【0013】屋内環境でフラットな床面を比較的低速で
移動する場合には、h→は固定とみなせるので、一度求
めたh→を用いて正しく障害物を検出することができ
る。しかしながら、車が屋外を走行する場合には、車自
身の振動や道路の傾斜の変化等のため、道路平面と各カ
メラの相対的な位置や姿勢の関係は時々刻々と変化す
る。したがって、パラメータh→も車の移動に伴って変
化するため、あらかじめ、例えば静止時に求めたh→を
そのまま用い、あるカメラ画像を式(1)による変換し
他のカメラ画像と単なる差分などによって障害物を検出
すると、検出精度が著しく低下するという問題があっ
た。When moving on a flat floor surface at a relatively low speed in an indoor environment, h → can be regarded as fixed, and an obstacle can be correctly detected using h → once obtained. However, when the car travels outdoors, the relationship between the road plane and the relative position and posture of each camera changes every moment due to vibrations of the car itself, changes in the inclination of the road, and the like. Therefore, since the parameter h → also changes with the movement of the vehicle, h → previously obtained, for example, when the vehicle is at rest, is used as it is, a certain camera image is converted by the equation (1), and the obstacle is caused by a simple difference from the other camera image. When an object is detected, there is a problem that the detection accuracy is significantly reduced.
【0014】[0014]
【発明が解決しようとする課題】上記のように、障害物
検出装置はレーザや超音波を用いるものとTVカメラを
用いるものに大別できるが、レーザや超音波を利用する
障害物検出装置は高価であったり、計測精度が低いとい
う点や、走行レーンの認識ができないという点で問題が
あった。また、TVカメラを利用する障害物検出装置
は、使用環境が限定されていたり、計算コストの高い対
応探索が必要であったり、車の走行中の振動や道路の傾
斜に対処できないため、屋外環境では性能が著しく悪く
なるという問題があった。As described above, obstacle detecting devices can be roughly classified into those using a laser or an ultrasonic wave and those using a TV camera. There are problems in that they are expensive, have low measurement accuracy, and cannot recognize the traveling lane. In addition, an obstacle detection device using a TV camera has a limited use environment, requires a high-cost calculation search, and cannot cope with vibrations during driving and inclination of a road. However, there is a problem that the performance is significantly deteriorated.
【0015】本発明は、上記事情を考慮してなされたも
ので、複数のカメラを用いて障害物を検出する場合に、
平面の傾きやカメラの振動があっても平面上に存在する
障害物を高精度に検出できる障害物検出装置及び障害物
検出方法を提供することを目的とする。[0015] The present invention has been made in consideration of the above circumstances, and when an obstacle is detected using a plurality of cameras,
It is an object of the present invention to provide an obstacle detection device and an obstacle detection method capable of detecting an obstacle existing on a plane with high accuracy even when the plane is tilted or the camera shakes.
【0016】また、本発明は、車載のステレオカメラを
用いて先行車や歩行者等、道路面上に存在する障害物を
検出する場合に、道路面の傾きやカメラの振動があって
も道路平面上に存在する障害物を高精度に検出できる障
害物検出装置及び障害物検出方法を提供することを目的
とする。The present invention also provides a method for detecting an obstacle existing on a road surface, such as a preceding vehicle or a pedestrian, using a vehicle-mounted stereo camera. An object of the present invention is to provide an obstacle detection device and an obstacle detection method capable of detecting an obstacle existing on a plane with high accuracy.
【0017】[0017]
【課題を解決するための手段】本発明(請求項1)に係
る障害物検出装置は、ある物体に搭載された異なる視点
を持つ複数の撮像手段からそれぞれ画像を入力する画像
入力手段と、複数の撮像手段によりそれぞれ入力された
複数枚の画像を蓄積するための画像蓄積手段と、予め用
意された、空間中の複数の平面の各々(πn(n=1,
…,n))と前記撮像手段との間の幾何学的関係から各
平面についてそれぞれ導き出された複数の画像変換(T
n(n=1,…,n))を各々用いて、ある撮像手段か
ら入力された前記画像を他の撮像手段の視点へ変換する
ことによって、複数の変換画像を生成する画像変換手段
と、生成された複数の前記変換画像と前記他の撮像手段
から入力された前記画像とを、画素毎または複数の画素
からなる小領域毎に比較して、各画素または小領域の一
致度を求めるマッチング処理手段と、前記一致度の低い
画像上の領域を、前記物体に対する障害物領域として検
出する障害物検出手段とを備えたことを特徴とする。According to the present invention (claim 1), an obstacle detection device comprises: an image input means for inputting an image from a plurality of image pickup means having different viewpoints mounted on an object; Image storage means for storing a plurality of images respectively input by the image pickup means, and each of a plurality of planes prepared in advance (πn (n = 1,
.., N)) and a plurality of image transformations (T) each derived for each plane from the geometric relationship between the imaging means.
n (n = 1,..., n)), converting the image input from one imaging unit to the viewpoint of another imaging unit, thereby generating a plurality of converted images; Matching for comparing the generated plurality of converted images and the image input from the other imaging means for each pixel or for each small region including a plurality of pixels to obtain the degree of coincidence of each pixel or small region. Processing means; and an obstacle detecting means for detecting an area on the image having a low degree of coincidence as an obstacle area for the object.
【0018】好ましくは、前記マッチング処理手段は、
1つの前記変換画像と前記他の撮像手段から入力された
画像とを比較する際に、前記変換画像を小領域毎に分割
し、各小領域について、前記他の撮像手段から入力され
た画像の対応する小領域及びその周辺を含む探索領域内
でマッチング処理を行い、該探索領域内を探索して得ら
れた最大の一致度を当該小領域の一致度とするようにし
てもよい。Preferably, the matching processing means includes:
When comparing one of the converted images with an image input from the other imaging unit, the converted image is divided into small regions, and for each of the small regions, an image of the image input from the other imaging unit is divided. A matching process may be performed in a search area including a corresponding small area and its periphery, and the maximum matching degree obtained by searching in the search area may be set as the matching degree of the small area.
【0019】好ましくは、前記マッチング処理手段は、
複数の前記変換画像のうちのある変換画像のある小領域
を前記他の撮像手段から入力された画像と比較している
際に、前記他の撮像手段から入力された画像の探索領域
内で予め定められたしきい値以上の一致度が得られたな
らば、その時点で、当該小領域については以降の全ての
マッチング処理を終了し、該一致度を全変換画像におけ
る当該小領域についての一致度とするようにしてもよ
い。Preferably, the matching processing means includes:
When comparing a certain small area of a certain conversion image among the plurality of conversion images with an image input from the other imaging means, a search is made in advance in a search area of the image input from the other imaging means. If a matching degree equal to or greater than the predetermined threshold value is obtained, at that time, all subsequent matching processes for the small area are terminated, and the matching degree is determined for all the converted images. The degree may be used.
【0020】好ましくは、前記小領域の画像上の位置に
応じて、前記探索領域の大きさ、前記探索の際に画素を
ずらすピッチ、または前記変換画像を生成するために用
いる前記画像変換の種類数の少なくとも一つを変化させ
るようにしてもよい。Preferably, the size of the search area, the pitch at which pixels are shifted during the search, or the type of the image conversion used to generate the converted image, according to the position of the small area on the image At least one of the numbers may be changed.
【0021】好ましくは、前記物体は自動車であり、前
記複数の撮像手段は、ステレオ画像を得るための右およ
び左の撮像手段あり、前記画像変換は、前記左の撮像手
段から入力された左画像を、右の撮像手段の視点の画像
に変換するもの、または前記右の撮像手段から入力され
た右画像を、左の撮像手段の視点の画像に変換するもの
であり、複数種類の前記画像変換に用いられる複数種類
の変換パラメータは、前記自動車が取り得る姿勢の範囲
から選択された複数の姿勢ごとに、撮像手段と道路平面
との幾何学的関係に基づいて予め求められたものである
ようにしてもよい。Preferably, the object is an automobile, and the plurality of image pickup means are right and left image pickup means for obtaining a stereo image, and the image conversion is performed by a left image input from the left image pickup means. Is converted into an image of the viewpoint of the right imaging unit, or the right image input from the right imaging unit is converted into an image of the viewpoint of the left imaging unit, and a plurality of types of the image conversion Are used in advance for each of a plurality of postures selected from a range of possible postures of the vehicle, based on the geometric relationship between the imaging means and the road plane. It may be.
【0022】本発明(請求項6)に係る障害物検出方法
は、ある物体に搭載された異なる視点を持つ複数の撮像
手段からそれぞれ画像を入力し、前記複数の撮像手段に
よりそれぞれ入力された複数枚の画像を蓄積し、予め用
意された、空間中の複数の平面の各々(πn(n=1,
…,n))と前記撮像手段との間の幾何学的関係から各
平面についてそれぞれ導き出された複数の画像変換(T
n(n=1,…,n))を各々用いて、ある撮像手段か
ら入力された前記画像を他の撮像手段の視点へ変換する
ことによって、複数の変換画像を生成し、生成された複
数の前記変換画像と前記他の撮像手段から入力された前
記画像とを、画素毎または複数の画素からなる小領域毎
に比較して、各画素または小領域の一致度を求め、求め
られた前記一致度の低い画像上の領域を、前記物体に対
する障害物領域として検出することを特徴とする。In the obstacle detection method according to the present invention (claim 6), an image is input from a plurality of image pickup units having different viewpoints mounted on a certain object, and the plurality of input images are respectively input by the plurality of image pickup units. A plurality of images are accumulated, and each of a plurality of planes in the space prepared in advance (πn (n = 1,
.., N)) and a plurality of image transformations (T) each derived for each plane from the geometric relationship between the imaging means.
n (n = 1,..., n)), the image input from one imaging unit is converted to the viewpoint of another imaging unit, thereby generating a plurality of converted images, and generating the plurality of converted images. The converted image and the image input from the other imaging means are compared for each pixel or for each small area composed of a plurality of pixels, to determine the degree of coincidence of each pixel or small area, A region on the image with a low degree of coincidence is detected as an obstacle region for the object.
【0023】なお、装置に係る本発明は方法に係る発明
としても成立し、方法に係る本発明は装置に係る発明と
しても成立する。It should be noted that the present invention relating to the apparatus is also realized as an invention relating to a method, and the present invention relating to a method is also realized as an invention relating to an apparatus.
【0024】また、装置または方法に係る本発明は、コ
ンピュータに当該発明に相当する手順を実行させるため
の(あるいはコンピュータを当該発明に相当する手段と
して機能させるための、あるいはコンピュータに当該発
明に相当する機能を実現させるための)プログラムを記
録したコンピュータ読取り可能な記録媒体としても成立
する。Further, the present invention relating to an apparatus or a method is provided for causing a computer to execute a procedure corresponding to the present invention (or for causing a computer to function as means corresponding to the present invention, or for causing a computer to correspond to the present invention). The present invention is also realized as a computer-readable recording medium in which a program for realizing the function of performing the above is recorded.
【0025】本発明によれば、複数のTVカメラと道路
面の幾何学的関係から導き出されるあるカメラ画像を他
のカメラ視点へと変換を行う画像変換において、想定さ
れるカメラと道路面の取り得る相対的関係(姿勢)の範
囲から適当な姿勢を複数選び、それらの全ての姿勢に対
応する画像変換を用意し、あるTVカメラで撮影した画
像の変換画像を生成し、全てのまたは一部の変換画像と
他のカメラ画像比較をすることにより、道路平面上の物
体の高さの有無により障害物を検出するため、明るさの
変動や影の影響を受けず、画像中から先行車や歩行者等
の障害物を検出することができる。特に、道路面を平面
と仮定した処理であるが、複数の道路面を仮定すること
や変換誤差を低減する機構を併せ持つ構成となっている
ため、カメラの振動、道路面の傾きに対しても影響を受
けない。さらに、処理のハードウェア化、並列処理化が
容易に実現でき、特に最近のプロセッサ技術で一般的に
用いられる高速化手法であるSIMD演算機能を利用し
ての高速化も容易である。According to the present invention, in an image conversion for converting a camera image derived from a geometric relationship between a plurality of TV cameras and a road surface to another camera viewpoint, an assumed camera and road surface are taken. A plurality of suitable postures are selected from a range of relative relationships (postures) to be obtained, image conversions corresponding to all the postures are prepared, converted images of images taken by a certain TV camera are generated, and all or a part thereof is generated. By comparing the converted image with other camera images, obstacles are detected based on the presence or absence of the height of the object on the road plane.Therefore, it is not affected by brightness fluctuations and shadows. An obstacle such as a pedestrian can be detected. In particular, although the process assumes that the road surface is a plane, it has a configuration that also has a mechanism that assumes a plurality of road surfaces and reduces the conversion error. Not affected. Further, it is possible to easily realize hardware and parallel processing of the processing, and particularly to easily increase the processing speed by using the SIMD operation function, which is a high-speed technique generally used in recent processor technology.
【0026】[0026]
【発明の実施の形態】以下、図面を参照しながら発明の
実施の形態を説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0027】本実施形態は、左右2台のステレオカメラ
を車に搭載し、該ステレオカメラを搭載した車(以下、
該ステレオカメラを搭載した車を自車と呼ぶ)が走行す
ることによる振動や道路面の傾斜変化がある条件の下
で、歩行者や先行車等、道路面上に存在する障害物を検
出する状況を想定している。In this embodiment, two left and right stereo cameras are mounted on a car, and a car equipped with the stereo cameras (hereinafter, referred to as a car) is provided.
Under such conditions that the vehicle equipped with the stereo camera is referred to as a vehicle) and the road surface is subject to vibrations and changes in road surface inclination, obstacles existing on the road surface, such as pedestrians and preceding vehicles, are detected. Assume the situation.
【0028】なお、以下では、左カメラから入力された
画像を左カメラ画像、右カメラから入力された画像を右
カメラ画像と呼ぶものとする。Hereinafter, an image input from the left camera is referred to as a left camera image, and an image input from the right camera is referred to as a right camera image.
【0029】また、以下では、左カメラ画像を右カメラ
視点へと画像変換する構成を例にとって説明するが、も
ちろん、右カメラ画像を左カメラ視点へ画像変換する構
成も本質的に同じ処理を行うものであって同様に実施可
能であり、同様の効果を得ることができる。In the following, a description will be given of an example of a configuration in which a left camera image is converted to a right camera viewpoint, but, of course, a configuration in which a right camera image is converted to a left camera viewpoint performs essentially the same processing. The present invention can be implemented similarly, and the same effect can be obtained.
【0030】図1に、本発明の一実施形態に係る障害物
検出装置の概略構成を示す。図1に示されるように、こ
の障害物検出装置は、自車に装備された左右2台のカメ
ラにより自車前方(後方を監視する場合には自車後方)
のステレオ画像を入力する画像入力部1、入力された左
右カメラ画像を蓄積する画像蓄積部2、一方のカメラ画
像を他方のカメラの視点に変換する画像変換部3、一方
のカメラ画像を他方のカメラの視点に変換した変換画像
と他方のカメラ画像に対してマッチング処理を行うマッ
チング処理部4、マッチング処理の結果に基づいて障害
物検出処理を行う障害物検出部5を備えている。なお、
本実施形態では、画像変換に用いる変換パラメータを自
車の走行中(障害物検出時)には変更/修正せず、画像
変換部3では、予め用意された複数種類の変換パラメー
タを用いる。複数種類の変換パラメータを予め求める方
法としては、自車が取り得る姿勢の範囲から適当な複数
の姿勢を選択し、選択したそれぞれの姿勢ごとに、カメ
ラと道路平面の幾何学的関係(道路面とカメラの相対的
な関係、つまり姿勢を意味する)から変換パラメータを
求める方法を用いる。すなわち、詳しくは後述するよう
に、画像変換部3では、複数種類の変換パラメータのそ
れぞれを使って、一方のカメラ画像を他方のカメラの視
点に変換して、複数種類の変換画像を生成し、マッチン
グ処理部4では、その複数種類の変換画像と他方のカメ
ラ画像に対してマッチング処理を行うことになる。FIG. 1 shows a schematic configuration of an obstacle detection device according to an embodiment of the present invention. As shown in FIG. 1, this obstacle detection device uses the two left and right cameras mounted on the own vehicle in front of the own vehicle (when monitoring the rear, the rear of the own vehicle).
An image input unit 1 for inputting a stereo image, an image storage unit 2 for storing input left and right camera images, an image conversion unit 3 for converting one camera image into a viewpoint of the other camera, and converting one camera image into the other camera image. A matching processing unit 4 that performs a matching process on the converted image converted into the camera viewpoint and the other camera image, and an obstacle detection unit 5 that performs an obstacle detection process based on the result of the matching process. In addition,
In the present embodiment, the conversion parameters used for image conversion are not changed / corrected while the vehicle is running (when an obstacle is detected), and the image conversion unit 3 uses a plurality of types of conversion parameters prepared in advance. As a method of obtaining a plurality of types of conversion parameters in advance, an appropriate plurality of postures are selected from a range of postures that the vehicle can take, and for each of the selected postures, the geometric relationship between the camera and the road plane (road surface) is selected. Is used to determine the conversion parameters from the relative relationship between the camera and the camera, that is, the posture. That is, as described later in detail, the image conversion unit 3 converts one camera image to the viewpoint of the other camera using each of the plurality of types of conversion parameters, and generates a plurality of types of converted images. The matching processing unit 4 performs matching processing on the plurality of types of converted images and the other camera image.
【0031】ここで、本実施形態の障害物検出装置の詳
細について説明する前に、道路面と2台のカメラの幾何
学的関係から導き出される、一方のカメラ画像の他方の
カメラ視点への画像変換と、その従来の問題点について
説明する。Before describing the details of the obstacle detection device of the present embodiment, an image of one camera image to the other camera viewpoint derived from the geometrical relationship between the road surface and the two cameras. The conversion and its conventional problems will be described.
【0032】まず、2台のカメラ(を搭載した車)を図
2に示すような平面上(道路平面上)に配置する。さら
に、この平面上に前後方向に伸びる互いに平行な2本の
白線があり、それらをL、L’と呼ぶことにする。これ
ら2台のカメラの互いの位置や姿勢の関係は未知でエピ
ポーラ拘束のみ既知とし、走行中に変化しないものとす
る。エピポーラ拘束とは、一般的なステレオ画像に対し
て成り立つ拘束であり、図3((a)は左画像、(b)
は右画像)のように、左画像上のある点の右画像上での
対応点は、ある直線上に拘束されることを示す。この直
線のことをエピポーララインと呼ぶ。例えば、各カメラ
の光軸を平行に配置した場合には、左画像の任意の点の
対応点は、右画像上で同一走査線上に存在するので、エ
ピポーララインと走査線は一致する。エピポーラ拘束
は、ステレオカメラ間の相対的な位置・姿勢の関係と、
各カメラの内部パラメータ、すなわち、カメラレンズの
焦点距離、画像原点に依存するので、エピポーラ拘束が
不変であることは、ステレオカメラの相対的な位置関係
や内部パラメータが走行中に変化しないことを意味す
る。First, two cameras (cars equipped with) are arranged on a plane (on a road plane) as shown in FIG. Further, there are two parallel white lines extending in the front-rear direction on this plane, and these are referred to as L and L '. It is assumed that the relationship between the positions and postures of these two cameras is unknown and only the epipolar constraint is known and does not change during traveling. The epipolar constraint is a constraint that holds for a general stereo image, and FIG. 3A shows a left image, and FIG.
(Right image) indicates that a corresponding point on the right image of a point on the left image is constrained on a straight line. This straight line is called an epipolar line. For example, when the optical axes of the cameras are arranged in parallel, the corresponding point of an arbitrary point on the left image exists on the same scanning line on the right image, so that the epipolar line coincides with the scanning line. The epipolar constraint is based on the relative position / posture relationship between stereo cameras,
Since the intrinsic parameters of each camera are dependent on the focal length of the camera lens and the image origin, the invariable epipolar constraint means that the relative positional relationship and intrinsic parameters of the stereo camera do not change during traveling. I do.
【0033】エピポーラ拘束は以下のように定式化され
る。左画像上の任意の点を(u,v)とし、その右画像
上の対応点を(u’,v’)とすると、式(2)の関係
式が成り立つ。ここで、[F]は3×3の行列であり、
基礎行列と呼ばれる。The epipolar constraint is formulated as follows. Assuming that an arbitrary point on the left image is (u, v) and a corresponding point on the right image is (u ′, v ′), the relational expression of Expression (2) holds. Here, [F] is a 3 × 3 matrix,
It is called a fundamental matrix.
【0034】[0034]
【数2】 (Equation 2)
【0035】式(2)を展開して整理すると式(3)の
ようになる。When formula (2) is expanded and arranged, formula (3) is obtained.
【0036】[0036]
【数3】 (Equation 3)
【0037】式(3)は左画像上の点(u,v)に対す
る右画像上のエピポーララインを表す。ここで、F
ij(i,j=1,2,3)は行列[F]のj行i列の要
素であり、複数の対応点の組からあらかじめ求めてお
く。Equation (3) represents the epipolar line on the right image relative to point (u, v) on the left image. Where F
ij (i, j = 1, 2, 3) is an element at the j-th row and the i-th column of the matrix [F], and is obtained in advance from a set of a plurality of corresponding points.
【0038】行列[F]は9つの要素からなるが、各要
素は独立ではなく、理論的には7つ以上の対応点の組か
ら各要素を求めることができる。各対応点の組の3次元
位置は不要であるので、行列[F]、つまりエピポーラ
拘束の算出は、比較的容易である。Although the matrix [F] is composed of nine elements, each element is not independent, and theoretically each element can be obtained from a set of seven or more corresponding points. Since the three-dimensional position of each set of corresponding points is unnecessary, the calculation of the matrix [F], that is, the epipolar constraint, is relatively easy.
【0039】左右のカメラ画像上で図4((a)は左画
像、(b)は右画像)に示すような2本の直線L,L’
を求めると、直線Lと直線L’とは、3次元空間中では
互いに平行であるが、画像上では消失点と呼ばれる無限
遠方の点で交差する。On the left and right camera images, two straight lines L and L 'as shown in FIG. 4 ((a) is a left image, (b) is a right image)
Is obtained, the straight line L and the straight line L ′ are parallel to each other in the three-dimensional space, but intersect at a point at infinity called a vanishing point on the image.
【0040】道路面上の対応点同士の間に成り立つ関係
式を求める。図5((a)は左画像、(b)は右画像)
に示すように、左画像において、直線L上の任意の2点
を各々A,Cとし、直線L’上の任意の2点を各々B,
Dとする。これら4点の右画像上の対応点A’,B’,
C’,D’は、あらかじめ求めておいたエピポーラ拘束
を用いれば簡単に求めることができる。すなわち、点A
の対応点A’は右画像上において、直線Lと点Aのエピ
ポーララインLAの交点に一致する。同様に、点B’,
C’,D’も各々、点B,C,DのエピポーララインL
B,LC,LDの交点として求めることができる。点
A,B,C,Dと、その対応点A’,B’,C’,D’
の座標を各々、(u1,u1),(u2,u2),(u
3,u3),(u4,u4),(u1’,u1’),
(u2’,u2’),(u3’,u3’),(u4’,
u4’)とする。(ui,ui)と(ui’,ui’)
(i=1〜4)との間には、式(4)の関係式が成り立
つ。A relational expression that holds between corresponding points on the road surface is obtained. FIG. 5 ((a) is a left image, (b) is a right image)
In the left image, any two points on the straight line L are A and C, respectively, and any two points on the straight line L 'are B and
D. The corresponding points A ', B', on the right image of these four points
C ′ and D ′ can be easily obtained by using the previously obtained epipolar constraint. That is, point A
In the corresponding point A 'is the right image corresponds to the intersection of the epipolar line L A of the straight line L and the point A. Similarly, points B ′,
C ′ and D ′ are also epipolar lines L at points B, C and D, respectively.
B, can be determined as L C, the intersection of the L D. Points A, B, C, D and their corresponding points A ', B', C ', D'
Are (u 1 , u 1 ), (u 2 , u 2 ), (u
3, u 3), (u 4, u 4), (u 1 ', u 1'),
(U 2 ′, u 2 ′), (u 3 ′, u 3 ′), (u 4 ′,
u 4 ′). (U i, u i) and (u i ', u i' )
(I = 1 to 4), the relational expression of Expression (4) holds.
【0041】[0041]
【数4】 (Equation 4)
【0042】これら8つの方程式をh→=(h11,
h12,h13,h21,h22,h23,h31,h32,h33)に
ついて解く。ある1つの解h→が式(4)を満足するな
らば、それを定数k倍したk・h→も式(4)を満足す
るため、h33=1としても一般性を失わない。したがっ
て、8つの方程式から9つの要素からなるh→を求める
ことができる。These eight equations are given by h → = (h 11 ,
h 12, h 13, h 21 , h 22, h 23, h 31, h 32, h 33) solving for. If one solution h → satisfies equation (4), then k · h → multiplied by a constant k also satisfies equation (4), so that even if h 33 = 1, generality is not lost. Therefore, h → consisting of nine elements can be obtained from eight equations.
【0043】求めたh→=(h11,h12,h13,h21,
h22,h23,h31,h32,h33)を用いることによる、
左画像の任意の点P(u,v)が道路面上に存在すると
仮定した場合の右画像上の対応点P’(u’,v’)
を、求めることができ、式(5)のようになる。The obtained h → = (h 11 , h 12 , h 13 , h 21 ,
According to h 22, h 23, h 31 , h 32, h 33) the use of,
Corresponding point P '(u', v ') on the right image assuming that an arbitrary point P (u, v) on the left image exists on the road surface
Can be obtained as shown in Expression (5).
【0044】[0044]
【数5】 (Equation 5)
【0045】このようにして求めた変換は、例えば図6
で示されるステレオ画像((a)は左画像、(b)は右
画像)では、(a)の左カメラ画像を右カメラ視点に変
換した場合、(c)で示されるような変換画像となる。
つまり、路面上の画素(図6の例においては前方車のタ
イヤと路面との接地点)は、正しく対応点に変換される
のに対し、空間的に高さを持った物体(図6の例におい
ては前方車)は、画像中で倒れ込むような歪みを伴って
変換される。従って、点P(u,v),点P(u’,
v’)の輝度を各々IL(u,v),IR(u’,
v’)とした場合、点P(u,v)が実際に道路面上に
存在すれば、点Pと点P’とは正しい対応点の組になる
ので、基本的には点Pと点P’の輝度が同じになる。逆
に、点Pと点P’の輝度が異なれば、点P,P’は道路
面上にはない点であることになる。路面とカメラの関係
が一定であれば、例えば、式(6)のように評価値Dを
求め、D≠0となる点Pを障害物領域に属すると判定す
ることが可能である。あるいは、左右のカメラの特性の
違い等の誤差を考慮して、しきい値Thrを設定し、D>
Thrとなる点Pを障害物領域に属すると判定することが
可能である。The conversion obtained in this manner is, for example, shown in FIG.
(A) is a left image and (b) is a right image, when the left camera image of (a) is converted to the right camera viewpoint, the converted image becomes as shown in (c). .
That is, the pixels on the road surface (in the example of FIG. 6, the contact point between the tire of the preceding vehicle and the road surface) are correctly converted into corresponding points, while the object having a spatial height (FIG. (In the example, the preceding vehicle) is transformed with distortion such as falling down in the image. Therefore, the points P (u, v) and P (u ',
v ′) are represented by I L (u, v) and I R (u ′,
v ′), if the point P (u, v) actually exists on the road surface, the point P and the point P ′ are a correct pair of corresponding points. The brightness of P 'becomes the same. Conversely, if the luminance of point P is different from that of point P ', points P and P' are points that are not on the road surface. If the relationship between the road surface and the camera is constant, for example, the evaluation value D is obtained as in Expression (6), and it is possible to determine that the point P where D ≠ 0 belongs to the obstacle area. Alternatively, the threshold value Thr is set in consideration of an error such as a difference between the characteristics of the left and right cameras, and
It is possible to determine that the point P that becomes Thr belongs to the obstacle area.
【0046】[0046]
【数6】 (Equation 6)
【0047】しかしながら、実際には、自車の移動に伴
うカメラ振動や路面の傾きなど様々な変化が発生し、式
(6)のみによって障害物を判別することは困難であ
る。例えば、ランドマーク(例えば、路面に描かれた
「止」の文字や速度制限表示、白線等の路面上のパター
ン)と路面との輝度差が大きいため、仮定している路面
とカメラの幾何学的関係(前述の画像変換パラメータを
求めたときのカメラと路面の関係)と実際の路面とカメ
ラの幾何学的関係のずれによって、障害物ではないにも
かかわらず式(6)はランドマーク周辺(=エッジ周
辺)で大きな値を持つからである。However, in practice, various changes occur, such as camera vibration and road surface inclination due to the movement of the vehicle, and it is difficult to determine an obstacle only by equation (6). For example, since the luminance difference between a landmark (for example, a character “stop” drawn on the road surface, a speed limit display, and a pattern on the road surface such as a white line) is large, the assumed road surface and camera geometry are assumed. (6) is not an obstacle because of the positional relationship (the relationship between the camera and the road surface when the above-mentioned image conversion parameters are obtained) and the actual geometric relationship between the road surface and the camera. (= Around the edge).
【0048】従って、本実施形態では、自車と道路面と
の間の取り得る相対的関係の範囲から、複数の適当な姿
勢を選んで、複数種類の画像変換パラメータを予め求め
ておき、一方のカメラ画像をそれら複数種類の画像変換
によって各々変換し、変換画像と他方のカメラ画像との
間でマッチング処理を行って、前述の変換誤差による影
響を低減させるようにしている。Therefore, in the present embodiment, a plurality of appropriate postures are selected from the range of possible relative relationships between the vehicle and the road surface, and a plurality of types of image conversion parameters are obtained in advance. Are converted by the plurality of types of image conversion, and a matching process is performed between the converted image and the other camera image to reduce the influence of the conversion error described above.
【0049】さて、以下、本実施形態の障害物検出装置
について詳しく説明する。Hereinafter, the obstacle detecting device of the present embodiment will be described in detail.
【0050】画像入力部1は、左右2台のTVカメラを
用いて左右2枚の画像を入力する。ただし、2台のカメ
ラの幾何学的関係や車の搭載時の構成は、前述の画像変
換パラメータ算出時から変更/変化が無いものとする。The image input unit 1 inputs two left and right images using two left and right TV cameras. However, it is assumed that the geometric relationship between the two cameras and the configuration when the vehicle is mounted do not change / change from the above-described image conversion parameter calculation.
【0051】画像蓄積部2は、画像入力部1により入力
された2枚の画像を、画像メモリに蓄積する。The image storage unit 2 stores the two images input by the image input unit 1 in an image memory.
【0052】画像変換部3は、前述の方法で求めておい
た複数種類の変換パラメータのそれぞれにより、一方
(本例では左側)のカメラから入力された画像を他方
(本例では右側)のカメラ視点の画像へと変換する。画
像変換は、各々の変換パラメータ毎に行い、想定してい
る姿勢の数だけ変換画像が生成されることになる。The image converter 3 converts an image input from one (left in this example) camera into another (right in this example) camera according to each of the plurality of types of conversion parameters obtained by the above-described method. Convert to viewpoint image. Image conversion is performed for each conversion parameter, and converted images are generated by the number of assumed postures.
【0053】マッチング処理部4では、全ての変換画像
の画素と、上記他方(本例では右側)のカメラ画像上の
対応画素との間でマッチング処理を行い、最大の一致度
を求める。一致度としては、例えば、式(7)のよう
に、各画素の差の絶対値(この例の場合、値が小さいほ
ど一致度が高くなる)等を使用することができる。The matching processing section 4 performs a matching process between the pixels of all the converted images and the corresponding pixels on the other (right side in this example) camera image to obtain the maximum degree of coincidence. As the coincidence, for example, an absolute value of the difference between the pixels (in this example, the smaller the value, the higher the coincidence) can be used, as in Expression (7).
【0054】[0054]
【数7】 (Equation 7)
【0055】ここで、M(u,v)は画素座標(u,
v)における一致度、ITiはi番目の変換により変換さ
れた左カメラ画像、IRは右カメラ画像である。Here, M (u, v) is a pixel coordinate (u, v).
matching score at v), I Ti is transformed left camera image by i-th conversion, the I R is the right camera image.
【0056】ただし、想定している姿勢変化の範囲が広
い場合や、画像変換に使用する変換パラメータが少ない
場合には、予め用意しておいた変換パラメータのみでは
前述のような路面上パターンのエッジ部で検出誤差が発
生する可能性がある。そこで、マッチング処理を、画素
毎の比較ではなく、複数の画素からなる画像小領域(例
えば、1枚の画像を縦横に分割して得られる矩形形状の
領域)と、その対応周辺領域(探索領域)の探索処理で
行うことにより、変換誤差を低減することも可能であ
る。However, when the range of the assumed posture change is wide or when the conversion parameters used for image conversion are small, the edge of the above-described road surface pattern can be obtained only by using the conversion parameters prepared in advance. There is a possibility that a detection error occurs in the section. Therefore, the matching process is not performed for each pixel, but for an image small area composed of a plurality of pixels (for example, a rectangular area obtained by dividing one image vertically and horizontally) and a corresponding peripheral area (search area). The conversion error can be reduced by performing the search processing of ()).
【0057】例えば、図7(a)の複数の変換画像と図
7(b)の右画像に示すように、画像上のある位置の小
領域については次のようにして最大の一致度を求める。
すなわち、1つの変換画像上のある位置の小領域の画像
と、該小領域に対応する右カメラ画像上の探索領域(該
小領域に対応する領域とその周辺を含む周辺領域)内の
該小領域と同一形状の領域とを比較して一致度を求め、
これを探索領域内で該同一形状の領域の位置を変えて繰
り返し行い、これによって当該1つの変換画像上の当該
ある位置の小領域についての最大の一致度を求め、これ
を全変換画像の当該ある位置の小領域について行い、最
終的に全変換画像における当該ある位置の小領域につい
ての最大の一致度を求める。これを、画像上の全ての位
置の小領域について行う。これによって、画像上の各々
の位置の小領域について変換誤差を低減することが可能
になる。For example, as shown in a plurality of converted images in FIG. 7A and a right image in FIG. 7B, the maximum degree of coincidence is obtained for a small area at a certain position on the image as follows. .
That is, an image of a small area at a certain position on one converted image and the small area in a search area (a peripheral area including the area corresponding to the small area and its periphery) on the right camera image corresponding to the small area. The degree of coincidence is determined by comparing the area with an area having the same shape,
This is repeated by changing the position of the region having the same shape in the search region, thereby obtaining the maximum matching degree for the small region at the certain position on the one converted image, and calculating the maximum matching degree for all the converted images. This is performed for a small area at a certain position, and finally the maximum matching degree for the small area at the certain position in all the converted images is obtained. This is performed for small areas at all positions on the image. This makes it possible to reduce the conversion error for the small area at each position on the image.
【0058】なお、各変換画像の各小領域についての最
大の一致度は、該探索領域内でマッチングをとる対象領
域を1画素または数画素ずらしながら(例えば探索領域
の中心から渦巻き状もしくはそれに類する経路で探索す
る)一致度を求めることを繰り返すことによって行うこ
とができる。The maximum degree of coincidence for each small area of each converted image is determined by shifting the target area to be matched in the search area by one pixel or several pixels (for example, a spiral shape or the like from the center of the search area). This can be performed by repeating the process of finding the degree of coincidence (searching on the route).
【0059】なお、上記とは逆に、探索領域を変換画像
の方に設けて探索する方法ももちろん可能である。It should be noted that, contrary to the above, it is of course possible to provide a search area by providing a search area in the converted image.
【0060】上記の最大の一致度の探索処理を全ての変
換画像中の全ての小領域で行うことにより、各領域の一
致度の最大値で作られる2次元の画像を生成することが
できる。例えば、小領域の形状としてブロック形状を選
び、変換画像上の小ブロックと、右画像上で位置的に対
応する領域周辺で探索する場合に、例えば図8に示すよ
うな一致度画像を得ることができる。なお、図8では、
一致度Mを0≦M≦1、かつ0.05刻みに正規化して
例示している。By performing the above-described search processing for the maximum coincidence in all the small areas in all the converted images, it is possible to generate a two-dimensional image formed by the maximum value of the coincidence in each area. For example, when a block shape is selected as the shape of a small area, and a search is performed around a small block on the converted image and a region corresponding to a position on the right image, for example, a matching degree image as shown in FIG. 8 is obtained. Can be. In FIG. 8,
In this example, the degree of coincidence M is normalized to 0 ≦ M ≦ 1 and in increments of 0.05.
【0061】いずれかの変換画像上では道路面はほぼ正
しく投影される一方、前方の車や歩行者等の高さのある
物体は、いずれの投影画像上においても路面からの高さ
が高くなるに従い大きな歪みを持って投影されることに
なる。従って、たとえある変換画像に大きな変換誤差が
あったとしても、路面上の小領域では、最も近い姿勢の
変換画像との間で最も高い一致度を持つことになるた
め、高い一致度を持つことになる。一方、高さのある物
体上の小領域は、自車の取り得る姿勢範囲は物理的に拘
束されていることから、いずれの姿勢に対応した変換画
像によってもマッチングを取ることができず低い一致度
となる。小領域毎のマッチング処理では一致度として、
正規化関数やSAD(Sum of Abusolut
e Diference)、SSD(Sum of S
quare Difference)等の画像処理で用
いられる一般的なマッチング手法が利用できる。ただ
し、正規化相関は一致度が高いほど大きな値を持つのに
対し、SADやSSDは小さな値ほど高い一致度とな
る。On any one of the converted images, the road surface is almost correctly projected, while on the other hand, a tall object such as a car or a pedestrian ahead has a higher height from the road surface on any projected image. Accordingly, the image is projected with a large distortion. Therefore, even if there is a large conversion error in a certain converted image, the small area on the road surface has the highest matching degree with the converted image of the closest posture, so that it has a high matching degree. become. On the other hand, in a small area on a tall object, since the possible posture range of the vehicle is physically constrained, matching cannot be obtained with the converted image corresponding to any posture, resulting in a low match. Degree. In the matching process for each small area,
Normalization function or SAD (Sum of Absolut)
e Difference), SSD (Sum of S)
For example, a general matching method used in image processing such as “Quare Difference” can be used. However, while the normalized correlation has a higher value as the degree of coincidence is higher, the SAD and SSD have a higher degree of coincidence as the value is smaller.
【0062】なお、後述するように障害物検出部5では
一致度の低い領域を障害物として検出することから、変
換画像上のある位置の小領域と対応する右カメラ画像の
領域周辺(探索領域)で最大となる一致度を検出する際
に、あるしきい値以上の一致度が得られたら、その時点
でその位置の小領域については以降の全ての探索を打ち
切れって、その一致度を全変換画像上の当該ある位置の
小領域についての最大の一致度とすれば(もしくは、そ
の時点でその位置の小領域については当該変換画像に対
する探索を打ち切れって、その一致度を当該変換画像上
の当該ある位置の小領域についての最大の一致度とすれ
ば)、マッチング処理の著しい高速化を図ることができ
る。例えば、画像変換パラメータと、実際のカメラと道
路面の関係から導き出される最適な画像変換パラメータ
との間に誤差があり、左カメラ画像の変換に誤差が生じ
たとしても、路面上のテクスチャ(模様)の無い領域で
は、対応する右カメラ画像の対応周辺領域内においても
テクスチャが無い場合が多いため、このような領域は周
辺領域全体を探索したとしても得られる結果と大きな差
は無く、探索処理を打ち切ったとしても、障害検出性能
は劣化しない。Since the obstacle detection unit 5 detects an area having a low degree of coincidence as an obstacle as will be described later, the area around the right camera image corresponding to a small area at a certain position on the converted image (search area) ), When the maximum matching score is detected, if a matching score equal to or greater than a certain threshold is obtained, at that point, all subsequent searches for the small area at that position are terminated, and the matching score is determined. If the maximum degree of coincidence for the small area at a certain position on all the converted images is determined (or the search for the small area at that position is discontinued at that point in time and the degree of matching is converted to If the maximum degree of coincidence is as to the small area at the certain position above), the speed of the matching process can be remarkably increased. For example, even if there is an error between the image conversion parameter and the optimum image conversion parameter derived from the relationship between the actual camera and the road surface, even if an error occurs in the conversion of the left camera image, the texture (pattern) ), There is often no texture even in the corresponding peripheral region of the corresponding right camera image. Therefore, such a region does not greatly differ from the result obtained even if the entire peripheral region is searched. , The failure detection performance does not deteriorate.
【0063】また、上記では、小領域の画像上の位置に
かかわらず、探索領域の大きさ、探索の際に画素をずら
すピッチ、変換画像の種類の数(使用する変換パラメー
タの種類の数)を一定としたが、それらの全部または一
部を、小領域の画像上の位置、特に画像上の上下方向の
位置(画像の下部が自車に近く、画像の上部が自車から
遠い)に応じて、連続的にまたは段階的に変化させるよ
うにしてもよい。In the above description, regardless of the position of the small area on the image, the size of the search area, the pitch at which pixels are shifted during the search, and the number of types of conversion images (the number of types of conversion parameters to be used) Is fixed, but all or a part of them is located at the position of the small area on the image, especially the vertical position on the image (the lower part of the image is closer to the vehicle, and the upper part of the image is far from the vehicle). Accordingly, it may be changed continuously or stepwise.
【0064】例えば、探索領域の大きさを、画像の下部
の領域(自車に近い領域)ほど大きくし、画像の上部の
領域(自車から遠い領域)ほど小さくするようにしても
よい。For example, the size of the search area may be made larger in the lower area of the image (the area closer to the own vehicle) and smaller in the upper area of the image (the area farther from the own car).
【0065】また、例えば、探索の際に画素をずらすビ
ッチを、画像の下部の領域(自車に近い領域)ほど小さ
くし、画像の上部の領域(自車から遠い領域)ほど大き
くするようにしてもよい。もしくは、画像の下部の領域
(自車に近い領域)ほど細かく探索し、画像の上部の領
域(自車から遠い領域)ほど粗く探索するようにしても
よい。Further, for example, the bitch for shifting the pixels during the search is made smaller in the lower region of the image (the region closer to the own vehicle) and larger in the upper region of the image (the region farther from the own vehicle). You may. Alternatively, the search may be performed more finely in the lower region of the image (the region closer to the own vehicle), and may be searched more coarsely in the upper region of the image (the region farther from the own vehicle).
【0066】また、例えば、変換画像の種類の数を、画
像の下部の領域(自車に近い領域)ほど多くし、画像の
上部の領域(自車から遠い領域)ほど少なくするように
してもよい。Further, for example, the number of types of the converted image may be increased in the lower region of the image (region closer to the own vehicle) and reduced in the upper region of the image (region farther from the own vehicle). Good.
【0067】障害物検出部5では、マッチング処理部4
で求め生成された一致度からなる画像(図8参照)をし
きい値処理することにより、画像上で一致度の低い領域
を障害物領域として出力する。例えば、図8において、
しきい値を0.25とすると第1のハッチング(20)
の領域が障害物領域として検出される(なお、0.80
以下となった部分を第2のハッチング(21)で示
す)。In the obstacle detecting section 5, the matching processing section 4
By performing threshold processing on the image (see FIG. 8) composed of the coincidences generated in step (1), an area having a low coincidence on the image is output as an obstacle area. For example, in FIG.
When the threshold value is set to 0.25, the first hatching (20)
Area is detected as an obstacle area (0.80
The following portions are indicated by second hatching (21)).
【0068】この障害物検出結果は、車の自動走行や危
険回避等に利用することができる。The result of the obstacle detection can be used for automatic driving of the vehicle, danger avoidance, and the like.
【0069】以上のように本実施形態によれば、道路平
面上の物体の高さの有無により障害物を検出するため、
明るさの変動や影の影響を受けず、画像中から先行車や
歩行者等の障害物を検出することができる。特に、道路
面を平面と仮定した処理であるが、複数の道路面を仮定
することや変換誤差を低減する機構を併せ持つ構成とな
っているため、カメラの振動、道路面の傾きに対しても
影響を受けない。As described above, according to this embodiment, an obstacle is detected based on the presence or absence of an object on a road plane.
An obstacle such as a preceding vehicle or a pedestrian can be detected from the image without being affected by fluctuations in brightness or shadows. In particular, although the process assumes that the road surface is a plane, it has a configuration that also has a mechanism that assumes a plurality of road surfaces and reduces the conversion error. Not affected.
【0070】なお、本実施形態では説明を簡便にするた
めに、マッチング処理部4において算出される一致度を
2次元の一致度画像としたが、各画素または各小領域の
最大一致度を求める毎にしきい値処理を行い障害物領域
として出力しても、同様の効果を得ることができる。In this embodiment, for the sake of simplicity, the matching calculated by the matching processing unit 4 is a two-dimensional matching image, but the maximum matching of each pixel or each small area is obtained. The same effect can be obtained even if the threshold value processing is performed each time and the data is output as an obstacle area.
【0071】ところで、本実施形態によれば、画像変換
部3における画像変換処理、マッチング処理部4におけ
る一致度を求める処理、障害物検出部5における障害物
検出処理のいずれにおいても、処理部のハードウェア
化、並列化が容易に実現可能であり、さらに最近のプロ
セッサでマルチメディアデータ処理を高速化するために
用意されているSIMD(Single Instru
ction stream Multiple Dat
a stream)演算機能を利用しての高速化も容易
である。By the way, according to the present embodiment, in any of the image conversion processing in the image conversion section 3, the processing for obtaining the degree of coincidence in the matching processing section 4, and the obstacle detection processing in the obstacle detection section 5, SIMD (Single Instrument), which can be easily implemented in hardware and parallelism, and is provided for speeding up multimedia data processing with recent processors.
Ction stream Multiple Dat
It is also easy to increase the speed by using the arithmetic function.
【0072】なお、以上では、自車に装備された左右2
台のカメラにより自車前方を監視する場合を中心に説明
してきたが、もちろん、自車後方を監視することも同様
に可能である。また、1台の車に、前方監視用のシステ
ムと後方監視用システムの両方を搭載してもよい。In the above description, the left and right 2
Although the case where the front of the own vehicle is monitored by one camera has been mainly described, it is naturally possible to monitor the rear of the own vehicle as well. In addition, one vehicle may be equipped with both a forward monitoring system and a backward monitoring system.
【0073】また、本発明は、自動車以外の走行物体の
場合にも適用可能であり、また静止物体に搭載して他の
物体を監視する場合に適用することも可能である。The present invention can be applied to the case of a running object other than an automobile, and can also be applied to the case where the object is mounted on a stationary object and other objects are monitored.
【0074】なお、障害物検出装置がプロセッサを持つ
ものである場合には、本実施形態に係る処理は、ソフト
ウェアとして実現することも可能である。When the obstacle detecting device has a processor, the processing according to the present embodiment can be realized as software.
【0075】また、障害物検出装置がプロセッサを持つ
ものである場合には、本実施形態に係る処理は、コンピ
ュータに所定の手段を実行させるための(あるいはコン
ピュータを所定の手段として機能させるための、あるい
はコンピュータに所定の機能を実現させるための)プロ
グラムを記録したコンピュータ読取り可能な記録媒体
(例えば、ROM)として、当該障害物検出装置にイン
ストールすることもできる。When the obstacle detecting device has a processor, the processing according to the present embodiment is for causing a computer to execute predetermined means (or for causing the computer to function as predetermined means). Alternatively, the program may be installed in the obstacle detecting device as a computer-readable recording medium (for example, a ROM) in which a program for causing a computer to perform a predetermined function is recorded.
【0076】本発明は、上述した実施の形態に限定され
るものではなく、その技術的範囲において種々変形して
実施することができる。The present invention is not limited to the above-described embodiments, but can be implemented with various modifications within the technical scope thereof.
【0077】[0077]
【発明の効果】本発明によれば、平面上の物体の高さの
有無により障害物を検出するため、明るさの変動や影の
影響を受けず、画像中から障害物を検出することができ
る。特に、複数の平面を仮定することや変換誤差を低減
する機構を併せ持つ構成となっているため、撮像手段の
振動、平面の傾きに対しても影響を受けない。According to the present invention, since an obstacle is detected based on the presence or absence of the height of an object on a plane, it is possible to detect an obstacle from an image without being affected by variations in brightness or shadows. it can. In particular, since it has a configuration in which a plurality of planes are assumed and a mechanism for reducing the conversion error is also provided, it is not affected by the vibration of the image pickup means or the inclination of the plane.
【図1】本発明の一実施形態に係る障害物検出装置の構
成例を示す図FIG. 1 is a diagram showing a configuration example of an obstacle detection device according to an embodiment of the present invention.
【図2】道路面とステレオカメラの位置関係を示す図FIG. 2 is a diagram showing a positional relationship between a road surface and a stereo camera;
【図3】エピポーラ拘束について説明するための図FIG. 3 is a diagram for explaining epipolar constraint;
【図4】画像変換パラメータの算出方法について説明す
るための図FIG. 4 is a diagram for explaining a method of calculating an image conversion parameter.
【図5】画像変換パラメータの算出方法について説明す
るための図FIG. 5 is a diagram for explaining a method of calculating an image conversion parameter.
【図6】画像変換と変換画像の特性について説明するた
めの図FIG. 6 is a diagram for explaining image conversion and characteristics of the converted image;
【図7】マッチング処理について説明するための図FIG. 7 is a diagram for explaining a matching process;
【図8】一致度画像の一例を示す図FIG. 8 is a diagram illustrating an example of a matching degree image.
1…画像入力部 2…画像蓄積部 3…画像変換部 4…マッチング処理部 5…障害物検出部 REFERENCE SIGNS LIST 1 image input unit 2 image storage unit 3 image conversion unit 4 matching processing unit 5 obstacle detection unit
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08G 1/16 G08G 1/16 C H04N 7/18 H04N 7/18 J K (72)発明者 小野口 一則 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5B057 AA16 BA02 CA08 CA13 CB08 CB13 CD14 5C054 AA01 CD03 CE11 FC12 FC16 FD02 FD03 GA04 HA30 5H180 AA01 CC04 LL01 LL04 LL08──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme court ゛ (Reference) G08G 1/16 G08G 1/16 C H04N 7/18 H04N 7/18 JK (72) Inventor Kazunori Onoguchi Kanagawa 1 Tokoba, Komukai Toshiba-cho, Kawasaki-shi, Tokushima F-term in the Toshiba R & D Center (reference)
Claims (6)
数の撮像手段からそれぞれ画像を入力する画像入力手段
と、 複数の撮像手段によりそれぞれ入力された複数枚の画像
を蓄積するための画像蓄積手段と、 予め用意された、空間中の複数の平面の各々と前記撮像
手段との間の幾何学的関係から各平面についてそれぞれ
導き出された複数の画像変換を各々用いて、ある撮像手
段から入力された前記画像を他の撮像手段の視点へ変換
することによって、複数の変換画像を生成する画像変換
手段と、 生成された複数の前記変換画像と前記他の撮像手段から
入力された前記画像とを、画素毎または複数の画素から
なる小領域毎に比較して、各画素または小領域の一致度
を求めるマッチング処理手段と、 前記一致度の低い画像上の領域を、前記物体に対する障
害物領域として検出する障害物検出手段とを備えたこと
を特徴とする障害物検出装置。An image input means for inputting images from a plurality of image pickup means having different viewpoints mounted on an object, and an image storage for storing a plurality of images respectively input by the plurality of image pickup means. Means, using a plurality of image transformations respectively prepared for each plane from a geometric relationship between each of a plurality of planes in space and the imaging means, prepared in advance, and inputting from a certain imaging means. Image conversion means for generating a plurality of converted images by converting the obtained image into a viewpoint of another imaging means; and generating the plurality of converted images and the image input from the other imaging means. Is compared for each pixel or for each small area composed of a plurality of pixels, and a matching processing means for determining the degree of coincidence of each pixel or small area; An obstacle detection device comprising: an obstacle detection unit that detects an obstacle area with respect to the obstacle.
換画像と前記他の撮像手段から入力された画像とを比較
する際に、前記変換画像を小領域毎に分割し、各小領域
について、前記他の撮像手段から入力された画像の対応
する小領域及びその周辺を含む探索領域内でマッチング
処理を行い、該探索領域内を探索して得られた最大の一
致度を当該小領域の一致度とすることを特徴とする請求
項1に記載の障害物検出装置。2. The method according to claim 1, wherein the matching processing unit divides the converted image into small regions when comparing one of the converted images with an image input from the other imaging unit. A matching process is performed within a search area including the corresponding small area of the image input from the other imaging means and the periphery thereof, and the maximum matching degree obtained by searching within the search area is determined by the matching of the small area. The obstacle detection device according to claim 1, wherein the obstacle is detected in degrees.
換画像のうちのある変換画像のある小領域を前記他の撮
像手段から入力された画像と比較している際に、前記他
の撮像手段から入力された画像の探索領域内で予め定め
られたしきい値以上の一致度が得られたならば、その時
点で、当該小領域については以降の全てのマッチング処
理を終了し、該一致度を全変換画像における当該小領域
についての一致度とすることを特徴とする請求項2に記
載の障害物検出装置。3. The image processing apparatus according to claim 1, wherein the matching processing unit is configured to compare the small area of the converted image of the plurality of converted images with an image input from the other imaging unit. If a degree of coincidence equal to or greater than a predetermined threshold value is obtained in the search area of the image input from, at that time, all subsequent matching processing is terminated for the small area, and the degree of coincidence is determined. 3. The obstacle detection device according to claim 2, wherein: is a degree of coincidence for the small area in all the converted images.
探索領域の大きさ、前記探索の際に画素をずらすピッ
チ、または前記変換画像を生成するために用いる前記画
像変換の種類数の少なくとも一つを変化させるようにし
たことを特徴とする請求項2ないし4のいずれか1項に
記載の障害物検出装置。4. The size of the search area, the pitch at which pixels are shifted during the search, or the number of types of the image conversion used to generate the converted image, according to the position of the small area on the image. The obstacle detection device according to any one of claims 2 to 4, wherein at least one of the following is changed.
よび左の撮像手段あり、 前記画像変換は、前記左の撮像手段から入力された左画
像を、右の撮像手段の視点の画像に変換するもの、また
は前記右の撮像手段から入力された右画像を、左の撮像
手段の視点の画像に変換するものであり、 複数種類の前記画像変換に用いられる複数種類の変換パ
ラメータは、前記自動車が取り得る姿勢の範囲から選択
された複数の姿勢ごとに、撮像手段と道路平面との幾何
学的関係に基づいて予め求められたものであることを特
徴とする請求項1ないし4のいずれか1項に記載の障害
物検出装置。5. The image processing apparatus according to claim 1, wherein the object is an automobile, the plurality of imaging units are right and left imaging units for obtaining a stereo image, and the image conversion is performed by converting a left image input from the left imaging unit. Converting the right image input from the right imaging unit into an image of the viewpoint of the left imaging unit, or converting the right image input from the right imaging unit into an image of the viewpoint of the left imaging unit. The plurality of types of conversion parameters used are determined in advance for each of the plurality of postures selected from the range of possible postures of the vehicle based on the geometric relationship between the imaging means and the road plane. The obstacle detection device according to any one of claims 1 to 4, wherein
数の撮像手段からそれぞれ画像を入力し、 前記複数の撮像手段によりそれぞれ入力された複数枚の
画像を蓄積し、 予め用意された、空間中の複数の平面の各々と前記撮像
手段との間の幾何学的関係から各平面についてそれぞれ
導き出された複数の画像変換を各々用いて、ある撮像手
段から入力された前記画像を他の撮像手段の視点へ変換
することによって、複数の変換画像を生成し、 生成された複数の前記変換画像と前記他の撮像手段から
入力された前記画像とを、画素毎または複数の画素から
なる小領域毎に比較して、各画素または小領域の一致度
を求め、 求められた前記一致度の低い画像上の領域を、前記物体
に対する障害物領域として検出することを特徴とする障
害物検出方法。6. An image input from a plurality of image pickup means having different viewpoints mounted on a certain object, accumulating a plurality of images respectively input by the plurality of image pickup means, a space prepared in advance, The image input from one imaging unit is used for another imaging unit by using a plurality of image transformations respectively derived for each plane from the geometric relationship between each of the plurality of planes and the imaging unit. A plurality of converted images are generated by converting the generated plurality of converted images and the image input from the other imaging means for each pixel or for each small area including a plurality of pixels. Obtaining a degree of coincidence of each pixel or small area, and detecting an area of the obtained image with a low degree of coincidence as an obstacle area for the object. .
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000053825A JP2001243456A (en) | 2000-02-29 | 2000-02-29 | Device and method for detecting obstacle |
US09/779,619 US6801244B2 (en) | 2000-02-29 | 2001-02-09 | Obstacle detection apparatus and method |
US10/919,285 US7317474B2 (en) | 2000-02-29 | 2004-08-17 | Obstacle detection apparatus and method |
US10/923,048 US7436430B2 (en) | 2000-02-29 | 2004-08-23 | Obstacle detection apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000053825A JP2001243456A (en) | 2000-02-29 | 2000-02-29 | Device and method for detecting obstacle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001243456A true JP2001243456A (en) | 2001-09-07 |
Family
ID=18575156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000053825A Pending JP2001243456A (en) | 2000-02-29 | 2000-02-29 | Device and method for detecting obstacle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001243456A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006016663A1 (en) * | 2004-08-11 | 2006-02-16 | Tokyo Institute Of Technology | Object detector |
WO2006016664A1 (en) * | 2004-08-11 | 2006-02-16 | Honda Motor Co., Ltd. | Plane detector and detecting method |
WO2006016661A1 (en) * | 2004-08-11 | 2006-02-16 | Tokyo Institute Of Technology | Mobile peripheral monitor |
JP2006250722A (en) * | 2005-03-10 | 2006-09-21 | Toshiba Corp | Device, method and program for calibration |
US7124046B2 (en) | 2002-11-29 | 2006-10-17 | Kabushiki Kaisha Toshiba | Method and apparatus for calibration of camera system, and method of manufacturing camera system |
US7149327B2 (en) | 2002-03-28 | 2006-12-12 | Kabushiki Kaisha Toshiba | Image processing apparatus and method |
JP2007027948A (en) * | 2005-07-13 | 2007-02-01 | Nissan Motor Co Ltd | Apparatus and method for monitoring vehicle periphery |
KR101257871B1 (en) | 2011-08-05 | 2013-04-23 | 엘지전자 주식회사 | Apparatus and method for detecting object based on vanishing point and optical flow |
JP2020012735A (en) * | 2018-07-18 | 2020-01-23 | 日立オートモティブシステムズ株式会社 | On-vehicle environment recognition device |
CN114155518A (en) * | 2021-11-08 | 2022-03-08 | 西安西光产业发展有限公司 | Expressway visor inclination identification method based on deep semantic segmentation network and image correction |
-
2000
- 2000-02-29 JP JP2000053825A patent/JP2001243456A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7149327B2 (en) | 2002-03-28 | 2006-12-12 | Kabushiki Kaisha Toshiba | Image processing apparatus and method |
US7124046B2 (en) | 2002-11-29 | 2006-10-17 | Kabushiki Kaisha Toshiba | Method and apparatus for calibration of camera system, and method of manufacturing camera system |
US7321839B2 (en) | 2002-11-29 | 2008-01-22 | Kabushiki Kaisha Toshiba | Method and apparatus for calibration of camera system, and method of manufacturing camera system |
US8180100B2 (en) | 2004-08-11 | 2012-05-15 | Honda Motor Co., Ltd. | Plane detector and detecting method |
WO2006016664A1 (en) * | 2004-08-11 | 2006-02-16 | Honda Motor Co., Ltd. | Plane detector and detecting method |
WO2006016661A1 (en) * | 2004-08-11 | 2006-02-16 | Tokyo Institute Of Technology | Mobile peripheral monitor |
WO2006016663A1 (en) * | 2004-08-11 | 2006-02-16 | Tokyo Institute Of Technology | Object detector |
US8331653B2 (en) | 2004-08-11 | 2012-12-11 | Tokyo Institute Of Technology | Object detector |
US8154594B2 (en) | 2004-08-11 | 2012-04-10 | Tokyo Institute Of Technology | Mobile peripheral monitor |
JP2006250722A (en) * | 2005-03-10 | 2006-09-21 | Toshiba Corp | Device, method and program for calibration |
JP2007027948A (en) * | 2005-07-13 | 2007-02-01 | Nissan Motor Co Ltd | Apparatus and method for monitoring vehicle periphery |
KR101257871B1 (en) | 2011-08-05 | 2013-04-23 | 엘지전자 주식회사 | Apparatus and method for detecting object based on vanishing point and optical flow |
JP2020012735A (en) * | 2018-07-18 | 2020-01-23 | 日立オートモティブシステムズ株式会社 | On-vehicle environment recognition device |
JP7219561B2 (en) | 2018-07-18 | 2023-02-08 | 日立Astemo株式会社 | In-vehicle environment recognition device |
CN114155518A (en) * | 2021-11-08 | 2022-03-08 | 西安西光产业发展有限公司 | Expressway visor inclination identification method based on deep semantic segmentation network and image correction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7317474B2 (en) | Obstacle detection apparatus and method | |
US6956469B2 (en) | Method and apparatus for pedestrian detection | |
US9311711B2 (en) | Image processing apparatus and image processing method | |
JP3797949B2 (en) | Image processing apparatus and method | |
JP3895238B2 (en) | Obstacle detection apparatus and method | |
US8102427B2 (en) | Camera egomotion estimation from an infra-red image sequence for night vision | |
JP5926228B2 (en) | Depth detection method and system for autonomous vehicles | |
JP5663352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2002352225A (en) | Obstacle detector and its method | |
US20050232463A1 (en) | Method and apparatus for detecting a presence prior to collision | |
JP2006252473A (en) | Obstacle detector, calibration device, calibration method and calibration program | |
US11341604B2 (en) | Processing device for object identification | |
JP6021689B2 (en) | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program | |
JP2008262333A (en) | Road surface discrimination device and road surface discrimination method | |
JP2010079582A (en) | Apparatus, method and program for detecting object | |
JP2001243456A (en) | Device and method for detecting obstacle | |
JP2000293693A (en) | Obstacle detecting method and device | |
JP2007316856A (en) | Traveling object detecting device, computer program, and traveling object detection method | |
JP2003281552A (en) | Image processor and method | |
JP4256992B2 (en) | Obstacle detection device | |
JP2006127083A (en) | Image processing method, and image processor | |
JP2007233440A (en) | On-vehicle image processor | |
JP5832850B2 (en) | Lane monitoring system and lane monitoring method | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
JP4462533B2 (en) | Road lane detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080415 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080916 |