JP3424334B2 - Roadway detection device - Google Patents

Roadway detection device

Info

Publication number
JP3424334B2
JP3424334B2 JP16305294A JP16305294A JP3424334B2 JP 3424334 B2 JP3424334 B2 JP 3424334B2 JP 16305294 A JP16305294 A JP 16305294A JP 16305294 A JP16305294 A JP 16305294A JP 3424334 B2 JP3424334 B2 JP 3424334B2
Authority
JP
Japan
Prior art keywords
white line
road
vehicle
lane
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16305294A
Other languages
Japanese (ja)
Other versions
JPH085388A (en
Inventor
和彦 金原
良太 白▲土▼
干典 農宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP16305294A priority Critical patent/JP3424334B2/en
Publication of JPH085388A publication Critical patent/JPH085388A/en
Application granted granted Critical
Publication of JP3424334B2 publication Critical patent/JP3424334B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、自動車や無人搬送車等
における走行道路領域を画像処理によって認識する走行
路検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a traveling road detecting device for recognizing a traveling road region in an automobile or an automated guided vehicle by image processing.

【0002】[0002]

【従来の技術】自動車や無人搬送車等における「危険回
避のための補助的な警報発生」、「人間の判断操作の補
助」、「全面的な自動運転」等を目的として、種々の形
式の走行路検出装置が研究されている。走行路検出装置
の一例は、走行路面の画像を採取し、画像処理して白線
部分を際立たせる撮像入力手段と、路面画像の座標系を
用いて路面画像上の白線の位置を記述する白線検出手段
と、路面画像の座標系で記述された白線の位置情報に基
づいて道路の三次元形状を推定する推定演算手段とを含
む。走行路検出装置では、刻々の車両前方の路面の三次
元形状を1/10〜1/100秒と言ったごく短い時間
で割り出す必要がある。しかし、路面画像から道路の三
次元関数を厳密に割り出すには膨大な演算処理が必要で
ある。従って、画像処理から三次元形状の推定に至る各
段階の処理について種々の近似や簡略化を施している。
2. Description of the Related Art Various types of vehicles, such as automobiles and automatic guided vehicles, have various types for the purpose of "auxiliary alarm generation for danger avoidance", "assistance of human judgment operation", "fully automatic driving", etc. Roadway detection devices are being researched. An example of a traveling road detecting device is an image capturing input unit that collects an image of a traveling road surface and performs image processing to highlight the white line portion, and white line detection that describes the position of the white line on the road surface image using the coordinate system of the road surface image. And means for estimating the three-dimensional shape of the road based on the position information of the white line described in the coordinate system of the road surface image. In the traveling road detection device, it is necessary to determine the three-dimensional shape of the road surface in front of the vehicle every moment in a very short time of 1/10 to 1/100 seconds. However, enormous calculation processing is required to exactly determine the three-dimensional function of the road from the road surface image. Therefore, various approximations and simplifications are applied to the processing at each stage from image processing to estimation of a three-dimensional shape.

【0003】一般道路を走行する車両における走行路検
出装置が、第7回「産業における画像センシングシンポ
ジウム(平成4年7月7日)」において発表された「連
続道路画像からの道路構造と車両姿勢の実時間推定」と
いう論文に記載されている。この論文は、路面画像から
抽出した白線の画像データから、道路曲率、勾配、さら
には車両姿勢(ピッチ角、ヨー角、ロール角)を同時に
推定する手法について述べている。その手法の概念図を
図37に示す。白線モデルとしては、道路座標系(X、
Y、Z)によって記述される多次曲線を用いる。入力さ
れた画像から白線候補を抽出し、画像座標(x、y)か
らカメラ座標(U、V、W)へ、カメラ座標(U、V、
W)からさらに道路座標(X、Y、Z)へという2段階
の座標変換を経て、白線候補を道路座標系(X、Y、
Z)上に投影したものと、前時刻の白線候補に基づく道
路モデルとを比較する。比較結果に基づいて多次曲線式
のパラメータの各数値が確定される。これらの数値で道
路モデルの多次曲線式を更新しつつ、上述の走行路と車
両姿勢を認識する。
A traveling road detection device for a vehicle traveling on a general road was announced at "7th Image Sensing Symposium in Industry (July 7, 1992)", "Road structure and vehicle posture from continuous road images". "Real-time estimation". This paper describes a method for simultaneously estimating road curvature, gradient, and vehicle attitude (pitch angle, yaw angle, roll angle) from image data of white lines extracted from road surface images. FIG. 37 shows a conceptual diagram of the method. As the white line model, the road coordinate system (X,
A multi-dimensional curve described by Y, Z) is used. White line candidates are extracted from the input image, and from the image coordinates (x, y) to the camera coordinates (U, V, W), the camera coordinates (U, V,
After the two-step coordinate conversion from W) to road coordinates (X, Y, Z), the white line candidates are converted to the road coordinate system (X, Y, Z).
Z) projected onto the road model based on the white line candidate at the previous time. Based on the comparison result, each numerical value of the parameter of the multi-order curve equation is determined. While updating the multi-dimensional curve formula of the road model with these numerical values, the traveling path and the vehicle attitude described above are recognized.

【0004】[0004]

【発明が解決しようとする課題】この従来例の走行路検
出装置は、(1)白線の関数で道路形状を記述し、白線
のみを補足する、(2)白線上の限定された個数の白線
候補のみについて座標値を決定し、演算に供する、
(3)道路モデルの関数を一定とし、関数に含まれるパ
ラメータ部分のみを順次更新する、等の手法を採用して
おり、従来の処理に比較すれば必要な演算数を大幅に削
減している。これにより、やや特殊な演算装置を必要と
するものの、毎秒30画面を取り込んでリアルタイムに
道路形状、車両位置、および車両姿勢を演算して出力す
ることが可能である。
SUMMARY OF THE INVENTION The conventional roadway detecting apparatus according to the prior art (1) describes a road shape by a function of a white line and complements only the white line. (2) A limited number of white lines on the white line. Determine the coordinate value only for the candidate and use it for calculation,
(3) The function of the road model is kept constant, and only the parameter part included in the function is sequentially updated. The number of operations required is greatly reduced compared to the conventional processing. . As a result, although a somewhat special arithmetic device is required, it is possible to capture 30 screens per second and calculate and output the road shape, vehicle position, and vehicle attitude in real time.

【0005】しかし、現実に走行路検出装置を車両に搭
載する実用化の観点からは、さらに低速かつ小容量で、
より一般的な構造の演算装置を利用して、同等以上の速
度で演算出力できることが望まれる。また、車両に搭載
される演算装置には、道路の三次元形状の認識にとどま
らず、認識結果に基づく他の演算処理を割り込み処理で
きることが望まれる。例えば、路面画像上での先行車両
の認識、車線変更に対する警報等である。この観点から
見れば、従来例の走行路検出装置は、道路モデルと画像
から得られた白線候補との比較に際して、画像座標系か
ら道路座標系への2段階の座標変換を行わなければなら
ないため、計算が非常に複雑になるという問題があっ
た。
However, from the viewpoint of practical implementation of actually mounting the traveling road detection device in a vehicle, the speed is further reduced and the capacity is reduced.
It is desired to be able to perform arithmetic output at a speed equal to or higher than that using an arithmetic device having a more general structure. In addition, it is desired that the arithmetic device mounted on the vehicle can interrupt not only the recognition of the three-dimensional shape of the road but also other arithmetic processing based on the recognition result. For example, it is a recognition of a preceding vehicle on a road surface image, a warning about a lane change, and the like. From this point of view, the conventional roadway detection device has to perform two-step coordinate conversion from the image coordinate system to the road coordinate system when comparing the road model and the white line candidate obtained from the image. There was a problem that the calculation became very complicated.

【0006】一方、走行路検出装置を利用する機会が多
い高速道路等は、300R以上の曲率一定の緩やかなカ
ーブや勾配によって構成されるため、道路モデルを従来
例のような多次式で近似しなくても実用的な結果が得ら
れる可能性がある。また、高速道路では、車両のロール
角は無視し得る。結局のところ、従来例の走行路検出装
置では、画像処理から求める位置座標の誤差から見て、
高速道路等では不必要なほどの厳密な近似を行っている
問題があった。
On the other hand, since a highway or the like which often uses the traveling road detecting device is composed of a gentle curve or gradient having a constant curvature of 300R or more, the road model is approximated by a multi-dimensional expression like the conventional example. Practical results may be obtained without doing so. Also, on highways, the roll angle of the vehicle can be ignored. After all, in the roadway detection device of the conventional example, when viewed from the error of the position coordinates obtained from the image processing,
There has been a problem that unnecessary approximations are performed on expressways.

【0007】本発明は、演算の負荷をさらに軽減して、
少ない演算能力でも高速かつ高精度に道路の三次元形状
等を出力できる走行路検出装置を提供することを目的と
している。
The present invention further reduces the calculation load,
It is an object of the present invention to provide a traveling road detection device capable of outputting a three-dimensional shape of a road at high speed and with high accuracy even with a small computing capacity.

【0008】[0008]

【課題を解決するための手段】請求項1の走行路検出装
置は、車両前方の路面画像を採取し、画像処理して路面
の白線を抽出する撮像入力手段を有し、前記路面画像上
の白線を検出して、路面の三次元形状と路面に対する車
両の相対位置関係とを識別する走行路検出装置におい
て、前記白線の二次曲線近似式を路面画像の座標系に変
換したパラメータ記述式における、走行車線内の車両位
置、道路の平面曲率、車線に対する車両の傾き、道路の
傾斜、道路幅にそれぞれ関連付けた複数のパラメータを
保持する検出パラメータ保持手段と、路面画像上の前記
白線に沿った複数の白線候補点について、路面画像の座
標系を用いた位置情報を求める白線候補点検出手段と、
前記検出パラメータ保持手段に保持した過去の複数のパ
ラメータから演算した仮想的な白線候補点に対して、路
面画像から求めた最新の白線候補点の前記位置情報を比
較して、前記複数のパラメータの最新値を求めて、前記
検出パラメータ保持手段の前記複数のパラメータを更新
させるパラメータ補正手段と、を有するものとした。
According to another aspect of the present invention, there is provided an image pickup inputting means for collecting a road surface image in front of a vehicle and performing image processing to extract a white line on the road surface. In the running road detection device for detecting the white line and identifying the three-dimensional shape of the road surface and the relative positional relationship of the vehicle with respect to the road surface, in the parameter description expression obtained by converting the quadratic curve approximation expression of the white line into the coordinate system of the road surface image. , A vehicle position in the driving lane, a plane curvature of the road, a vehicle inclination with respect to the lane, a road inclination, a detection parameter holding means for holding a plurality of parameters respectively associated with the road width, and the white line on the road surface image. For a plurality of white line candidate points, white line candidate point detection means for obtaining position information using the coordinate system of the road surface image,
For virtual white line candidate points calculated from a plurality of past parameters held in the detection parameter holding means, the position information of the latest white line candidate points obtained from the road surface image is compared, and the plurality of parameters Parameter correction means for obtaining the latest value and updating the plurality of parameters of the detection parameter holding means.

【0009】請求項2の走行路検出装置は、請求項1記
載の走行路検出装置において、前記パラメータ補正手段
は、前記仮想的な白線候補点と最新の白線候補点とのず
れ量を算出するずれ量算出手段と、前記ずれ量に基づい
て前記複数のパラメータの変動量を算出するパラメータ
変動量算出手段と、を含み、かつ、前記パラメータ変動
量算出手段は、最小二乗法を用いて前記パラメータ変動
量を算出するものとした。
According to a second aspect of the present invention, in the traveling road detecting apparatus according to the first aspect, the parameter correcting means calculates a deviation amount between the virtual white line candidate point and the latest white line candidate point. A deviation amount calculating means; and a parameter fluctuation amount calculating means for calculating fluctuation amounts of the plurality of parameters based on the deviation amount, and the parameter fluctuation amount calculating means uses the least squares method to calculate the parameters. The amount of fluctuation was calculated.

【0010】請求項3の走行路検出装置は、請求項1ま
たは2記載の走行路検出装置において、前記パラメータ
補正手段は、更新した最新の前記複数のパラメータに基
づいて、道路の平面曲率、車線に対する車輌の傾き、道
路の傾斜を算出して出力する道路形状出力手段を含むも
のとした。
According to a third aspect of the present invention, there is provided the road route detecting apparatus according to the first or second aspect, wherein the parameter correcting means is based on the updated latest plurality of parameters. Road shape output means for calculating and outputting the inclination of the vehicle and the inclination of the road with respect to is included.

【0011】請求項4の走行路検出装置は、請求項1、
2、または3記載の走行路検出装置において、前記パラ
メータ記述式は、走行車線内の車両位置、道路の平面曲
率、車線に対する車両の傾き、道路の傾斜、道路幅に関
連付けた複数のパラメータをそれぞれa、b、c、d、
eとし、路面画像の座標系をx、yとし、kを整数とし
て、x=(a+ke)(y−d)+b/(y−d)+c
であるものとした。
According to a fourth aspect of the present invention, there is provided a traveling road detecting device.
2 or 3, the parameter description formula includes a plurality of parameters associated with a vehicle position in a traveling lane, a plane curvature of a road, a vehicle inclination with respect to a lane, a road inclination, and a road width, respectively. a, b, c, d,
x, (y + d) + b / (y-d) + c, where e is the coordinate system of the road surface image, x is the coordinate system of the road image, and k is an integer.
It was supposed to be.

【0012】請求項5の走行路検出装置は、車両前方の
路面画像を採取し、画像処理して路面の白線を抽出する
撮像入力手段と、前記白線の検出結果に基づいて、少な
くとも走行車線の幅と自車線内の自車両位置とにそれぞ
れ関連付けられた2つの道路パラメータを刻々の前記路
面画像について算出する道路パラメータ推定手段と、を
有する走行路検出装置において、前記白線の推定位置に
沿って前記路面画像上に設定した複数の小領域のそれぞ
れについて、前記画像処理手段が抽出した白線の通過位
置座標を求める白線候補点検出手段と、前記路面画像上
で前記小領域を設定すべき前記白線の本数と、それぞれ
の前記白線に対する小領域の割り当て数とを決定して、
前記白線候補点検出手段に設定する白線候補点検出領域
設定手段と、前記道路パラメータに基づいて自車線内の
自車両位置を識別する自車偏位判断手段と、を有し、か
つ、前記白線候補点検出領域設定手段は、前記自車両位
置に基づいて、前記小領域を設定すべき白線の本数と、
それぞれの白線に対する前記小領域の割り当て数とを変
更し、車両が一方の白線に接近した際には、接近方向の
別の1本の白線にも前記小領域を割り当てるものとし
た。
According to a fifth aspect of the present invention, there is provided an image pickup input means for collecting a road surface image in front of the vehicle and performing image processing to extract a white line on the road surface, and at least a traveling lane based on the detection result of the white line. A road parameter estimating unit that calculates two road parameters associated with the width and the position of the own vehicle in the own lane with respect to each of the road surface images every moment, in a traveling road detecting device, along the estimated position of the white line. For each of the plurality of small areas set on the road surface image, white line candidate point detecting means for obtaining the passing position coordinates of the white line extracted by the image processing means, and the white line for setting the small area on the road surface image. And the number of small areas allocated to each of the white lines,
The white line candidate point detection area setting means set in the white line candidate point detection means, and own vehicle deviation determination means for identifying the own vehicle position in the own lane based on the road parameter, and the white line Candidate point detection area setting means, based on the own vehicle position, the number of white lines to set the small area,
The number of small areas assigned to each white line is changed so that when a vehicle approaches one white line, the small area is also assigned to another white line in the approach direction.

【0013】請求項6の走行路検出装置は、請求項5記
載の走行路検出装置において、前記白線候補点検出領域
設定手段は、走行車線の幅と自車線内の自車両位置との
差を検知し、車両が一方の白線に接近して前記差が所定
の判定基準値範囲をはみだした場合には、その白線と両
側の2本の白線を含む3本の白線に対して前記小領域を
割り当てるものとした。
According to a sixth aspect of the present invention, there is provided the road route detecting apparatus according to the fifth aspect, wherein the white line candidate point detection area setting means determines a difference between a width of the traveling lane and a position of the own vehicle in the own lane. If the vehicle detects one of the white lines and the difference exceeds the predetermined judgment reference value range, the small area is set to the three white lines including the white line and the two white lines on both sides. I decided to allocate it.

【0014】請求項7の走行路検出装置は、請求項5記
載の走行路検出装置において、前記白線候補点検出領域
設定手段は、走行車線の幅と自車線内の自車両位置との
差を検知し、車両が一方の白線を越えた後に前記差が所
定の判定基準値範囲の中に入った場合には、新しい自車
線の両側の2本の白線のみに対して前記小領域を割り当
てるものとした。
According to a seventh aspect of the present invention, there is provided the road route detecting apparatus according to the fifth aspect, wherein the white line candidate point detection area setting means sets a difference between a width of the traveling lane and a position of the own vehicle in the own lane. If the difference is within the predetermined judgment reference value range after the vehicle has detected one of the white lines, the small area is assigned only to the two white lines on both sides of the new own lane. And

【0015】請求項8の走行路検出装置は、請求項5、
6、または7記載の走行路検出装置において、前記白線
候補点検出領域設定手段は、走行車線の幅に関連付けて
予め設定した定数を保持しており、前記走行車線の幅に
ついては、前記パラメータ推定手段と無関係に、一定の
値を用いて前記差の検知を行うものとした。
According to another aspect of the present invention, there is provided a traveling road detecting device.
6 or 7, the white line candidate point detection area setting means holds a constant set in advance in association with the width of the traveling lane, and the parameter estimation is performed for the width of the traveling lane. Regardless of the means, the constant value is used to detect the difference.

【0016】請求項9の走行路検出装置は、請求項5、
6、7、または8記載の走行路検出装置において、前記
白線候補点検出領域設定手段は、前記小領域を設定すべ
き白線の本数が変化しても、前記小領域の割り当ての合
計数を変化させずに小領域を設定するものとした。
A traveling road detecting device according to a ninth aspect is the fifth aspect.
In the traveling road detection device described in 6, 7, or 8, the white line candidate point detection area setting means changes the total number of allocations of the small areas even if the number of white lines for setting the small areas changes. The small area is set without doing this.

【0017】請求項10の走行路検出装置は、請求項
5、6、7、8、または9記載の走行路検出装置におい
て、前記白線候補点検出領域設定手段は、3本の白線に
対して前記小領域を割り当てる際に、接近した白線に対
して、両側の他の2本の白線のいずれに割り当てるより
も多くの前記小領域を割り当てるものとした。
A traveling road detecting device according to a tenth aspect is the traveling road detecting device according to any one of the fifth, sixth, seventh, eighth and ninth aspects, wherein the white line candidate point detection area setting means corresponds to three white lines. When allocating the small areas, more small areas are allocated to the approaching white line than to the other two white lines on both sides.

【0018】請求項11の走行路検出装置は、車両前方
の路面画像を採取し、画像処理して路面の白線を抽出す
る撮像入力手段と、前記白線の検出結果に基づいて、少
なくとも走行車線の幅と自車線内の自車両位置とにそれ
ぞれ関連付けられた2つの道路パラメータを刻々の前記
路面画像について算出する道路パラメータ推定手段と、
を有する走行路検出装置において、前記白線の推定位置
に沿って前記路面画像上に設定した複数の小領域のそれ
ぞれについて、前記画像処理手段が抽出した白線の通過
位置座標を求める白線候補点検出手段と、前記路面画像
上で前記小領域を設定すべき前記白線の本数と、それぞ
れの前記白線に対する小領域の割り当て数とを決定し
て、前記白線候補点検出手段に設定する白線候補点検出
領域設定手段と、前記道路パラメータに基づいて自車線
内の自車両位置を識別する自車偏位判断手段と、を有
し、かつ、前記白線候補点検出領域設定手段は、前記自
車両位置に基づいて、前記小領域を設定すべき白線の本
数と、それぞれの白線に対する前記小領域の割り当て数
とを変更し、車両が一方の白線に接近した際には、接近
方向の別の1本の白線にも前記小領域を割り当て、か
つ、自車両の方向指示器が操作されているか否かを識別
する方向指示判別手段と、自車両が一方の前記白線に接
近した際に、方向指示判別手段によって方向指示器の非
操作が識別された場合には、運転者に対して警報を出力
する警報発生手段と、を設けたものとした。
According to another aspect of the present invention, there is provided an image pickup inputting means for collecting a road surface image in front of a vehicle and performing image processing to extract a white line on the road surface. Road parameter estimating means for calculating, for each of the road surface images, two road parameters that are respectively associated with the width and the position of the own vehicle within the own lane;
In the traveling road detecting device, the white line candidate point detecting means for obtaining the passage position coordinates of the white line extracted by the image processing means for each of the plurality of small areas set on the road surface image along the estimated position of the white line. And a white line candidate point detection area to be set in the white line candidate point detection means by determining the number of white lines to set the small area on the road surface image and the number of small areas assigned to each of the white lines. Setting means, and own vehicle deviation determination means for identifying the own vehicle position in the own lane based on the road parameters, and the white line candidate point detection area setting means, based on the own vehicle position Then, the number of white lines to set the small area and the number of assigned small areas to each white line are changed. When the vehicle approaches one white line, another white line in the approaching direction is changed. Also assigns the small area and determines whether or not the turn indicator of the host vehicle is operated, and when the host vehicle approaches one of the white lines, the direction indicator determines the direction. An alarm generating means for outputting an alarm to the driver when the non-operation of the indicator is identified is provided.

【0019】請求項12の走行路検出装置は、車両前方
の路面画像を採取し、画像処理して路面の白線を抽出す
る撮像入力手段と、前記白線の検出結果に基づいて、少
なくとも走行車線の幅と自車線内の自車両位置とにそれ
ぞれ関連付けられた2つの道路パラメータを刻々の前記
路面画像について算出する道路パラメータ推定手段と、
を有する走行路検出装置において、前記白線の推定位置
に沿って前記路面画像上に設定した複数の小領域のそれ
ぞれについて、前記画像処理手段が抽出した白線の通過
位置座標を求める白線候補点検出手段と、前記路面画像
上で前記小領域を設定すべき前記白線の本数と、それぞ
れの前記白線に対する小領域の割り当て数とを決定し
て、前記白線候補点検出手段に設定する白線候補点検出
領域設定手段と、前記道路パラメータに基づいて自車線
内の自車両位置を識別する自車偏位判断手段と、を有
し、かつ、前記白線候補点検出領域設定手段は、前記自
車両位置に基づいて、前記小領域を設定すべき白線の本
数と、それぞれの白線に対する前記小領域の割り当て数
とを変更し、車両が一方の白線に接近した際には、接近
方向の別の1本の白線にも前記小領域を割り当て、か
つ、前記路面画像上の自車線領域を認識する車線領域認
識手段と、前記車線領域認識手段で認識される車線領域
について前方の障害物を検出する障害物検出手段と、前
記障害物検出手段で検出される障害物と車両との衝突の
可能性を判断する衝突可能性判断手段と、衝突の可能性
が肯定された場合に運転者に対して警報を出力する警報
発生手段と、を有するものとした。
According to a twelfth aspect of the present invention, there is provided an image pickup inputting means for collecting a road surface image in front of the vehicle and performing image processing to extract a white line on the road surface. Road parameter estimating means for calculating, for each of the road surface images, two road parameters that are respectively associated with the width and the position of the own vehicle within the own lane;
In the traveling road detecting device, the white line candidate point detecting means for obtaining the passage position coordinates of the white line extracted by the image processing means for each of the plurality of small areas set on the road surface image along the estimated position of the white line. And a white line candidate point detection area to be set in the white line candidate point detection means by determining the number of white lines to set the small area on the road surface image and the number of small areas assigned to each of the white lines. Setting means, and own vehicle deviation determination means for identifying the own vehicle position in the own lane based on the road parameters, and the white line candidate point detection area setting means, based on the own vehicle position Then, the number of white lines to set the small area and the number of assigned small areas to each white line are changed. When the vehicle approaches one white line, another white line in the approaching direction is changed. Lane area recognizing means for allocating the small area and recognizing the own lane area on the road surface image, and obstacle detecting means for detecting an obstacle ahead of the lane area recognized by the lane area recognizing means. A collision possibility judgment means for judging the possibility of collision between the obstacle and the vehicle detected by the obstacle detection means, and an alarm for outputting a warning to the driver when the possibility of collision is affirmed And a generating means.

【0020】請求項13の走行路検出装置は、車両前方
の路面画像を採取し、画像処理して路面の白線を抽出す
る撮像入力手段と、前記白線の検出結果に基づいて、少
なくとも走行車線の幅と自車線内の自車両位置とにそれ
ぞれ関連付けられた2つの道路パラメータを刻々の前記
路面画像について算出する道路パラメータ推定手段と、
を有する走行路検出装置において、前記白線の推定位置
に沿って前記路面画像上に設定した複数の小領域のそれ
ぞれについて、前記画像処理手段が抽出した白線の通過
位置座標を求める白線候補点検出手段と、前記路面画像
上で前記小領域を設定すべき前記白線の本数と、それぞ
れの前記白線に対する小領域の割り当て数とを決定し
て、前記白線候補点検出手段に設定する白線候補点検出
領域設定手段と、前記道路パラメータに基づいて自車線
内の自車両位置を識別する自車偏位判断手段と、を有
し、かつ、前記白線候補点検出領域設定手段は、前記自
車両位置に基づいて、前記小領域を設定すべき白線の本
数と、それぞれの白線に対する前記小領域の割り当て数
とを変更し、車両が一方の白線に接近した際には、接近
方向の別の1本の白線にも前記小領域を割り当て、か
つ、前記白線候補点検出領域設定手段が定めた白線の検
出本数によって認識する領域を変化させる車線領域認識
手段と、車両が白線に接近して外側の白線に前記小領域
が割り当てられた際に隣接車線領域の障害物の有無を識
別する隣接車線障害物検出手段と、前記障害物が存在す
る場合に、その障害物に衝突することなく車線変更が可
能か否かを判断する車線変更可否判断手段と、を有する
ものとした。
According to a thirteenth aspect of the present invention, there is provided an image pickup input means for collecting a road surface image in front of the vehicle and performing image processing to extract a white line on the road surface. Road parameter estimating means for calculating, for each of the road surface images, two road parameters that are respectively associated with the width and the position of the own vehicle within the own lane;
In the traveling road detecting device, the white line candidate point detecting means for obtaining the passage position coordinates of the white line extracted by the image processing means for each of the plurality of small areas set on the road surface image along the estimated position of the white line. And a white line candidate point detection area to be set in the white line candidate point detection means by determining the number of white lines to set the small area on the road surface image and the number of small areas assigned to each of the white lines. Setting means, and own vehicle deviation determination means for identifying the own vehicle position in the own lane based on the road parameters, and the white line candidate point detection area setting means, based on the own vehicle position Then, the number of white lines to set the small area and the number of assigned small areas to each white line are changed. When the vehicle approaches one white line, another white line in the approaching direction is changed. Lane area recognizing means for allocating the small area and changing the area to be recognized by the number of white lines detected by the white line candidate point detection area setting means, and the small area on the outer white line when the vehicle approaches the white line. Adjacent lane obstacle detection means for identifying the presence or absence of an obstacle in the adjacent lane area when the area is assigned, and whether or not the lane can be changed without colliding with the obstacle when the obstacle is present. And a lane change propriety judging means for judging.

【0021】請求項14の走行路検出装置は、車両前方
の路面画像を採取し、画像処理して路面の白線を抽出す
る撮像入力手段を有し、前記路面画像上の白線を検出し
て、路面の三次元形状と路面に対する車両の相対位置関
係とを識別する走行路検出装置において、前記白線の近
似式を路面画像の座標系に変換したパラメータ記述式に
おける複数のパラメータを保持する検出パラメータ保持
手段と、路面画像上の前記白線に沿った複数の白線候補
点について、路面画像の座標系を用いた位置情報を求め
る白線候補点検出手段と、前記検出パラメータ保持手段
に保持した過去の複数のパラメータから演算した仮想的
な白線候補点に対して、路面画像から求めた最新の白線
候補点の前記位置情報を比較して、前記複数のパラメー
タの最新値を求めて、前記検出パラメータ保持手段の前
記複数のパラメータを更新させるパラメータ補正手段
と、を有するとともに、自車線の先行車両によって前記
白線が遮断される範囲を求める白線遮蔽範囲検出手段
と、前記パラメータ記述式として、白線を二次曲線で近
似した第1パラメータ記述式と、前記白線が遮蔽された
場合に適合させて第1パラメータ記述式を簡略化した第
2パラメータ記述式とを記憶させた複数の白線モデル記
憶手段と、前記白線遮蔽範囲検出手段の検出状態に応じ
て前記複数の白線モデル記憶手段における複数のパラメ
ータ記述式を選択し、前記白線が遮蔽された場合には、
前記パラメータ補正手段に第2パラメータ記述式による
処理を実行させる白線モデル切り換え手段と、を設けた
ものとした。
A traveling road detecting apparatus according to a fourteenth aspect of the present invention has image pickup input means for collecting a road surface image in front of the vehicle, performing image processing to extract a white line on the road surface, and detecting a white line on the road surface image, In a traveling road detecting device for identifying a three-dimensional shape of a road surface and a relative positional relationship of a vehicle to the road surface, a detection parameter holding that holds a plurality of parameters in a parameter description expression obtained by converting the approximate expression of the white line into a coordinate system of a road surface image Means, a plurality of white line candidate points along the white line on the road surface image, white line candidate point detecting means for obtaining position information using the coordinate system of the road surface image, and a plurality of past pasts held in the detection parameter holding means. For the virtual white line candidate points calculated from the parameters, the position information of the latest white line candidate points obtained from the road surface image is compared to obtain the latest values of the plurality of parameters. , A parameter correction means for updating the plurality of parameters of the detection parameter holding means, and a white line shielding range detection means for obtaining a range in which the white line is blocked by a preceding vehicle in its own lane, and the parameter description expression , A plurality of white line models that store a first parameter description formula that approximates a white line with a quadratic curve and a second parameter description formula that is simplified when the white line is shielded to simplify the first parameter description formula. Storage means, select a plurality of parameter description formulas in the plurality of white line model storage means according to the detection state of the white line occlusion range detection means, when the white line is shielded,
A white line model switching unit that causes the parameter correcting unit to execute the process according to the second parameter description expression is provided.

【0022】請求項15の走行路検出装置は、請求項1
4記載の走行路検出装置において、前記白線遮蔽範囲検
出手段は、前記路面画像から自車線上の先行車両を識別
して先行車両の位置を求める車両位置検出手段と、求め
られた車両位置に基づいて白線が遮蔽される範囲を推定
する遮蔽範囲推定手段と、を有するものとした。
According to a fifteenth aspect of the present invention, there is provided a traveling road detecting apparatus according to the first aspect.
In the traveling road detecting device according to claim 4, the white line shielding range detecting means identifies the preceding vehicle on the own lane from the road surface image to obtain the position of the preceding vehicle, and the vehicle position detecting means based on the obtained vehicle position. And a shielding range estimating means for estimating a range in which the white line is shielded.

【0023】請求項16の走行路検出装置は、請求項1
5記載の走行路検出装置において、前記車両位置検出手
段は、前記路面画像から先行車両の両側端座標を求めて
先行車両の位置を計算するものとした。
The traveling road detecting device according to claim 16 is the device according to claim 1.
In the traveling road detecting device described in 5, the vehicle position detecting means calculates the position of the preceding vehicle by obtaining the side edge coordinates of the preceding vehicle from the road surface image.

【0024】請求項17の走行路検出装置は、請求項1
5記載の走行路検出装置において、前記車両位置検出手
段は、前記路面画像から先行車両の下端座標を求めて先
行車両の位置を計算するものとした。
The traveling road detecting device according to claim 17 is the device according to claim 1.
In the traveling road detecting device described in 5, the vehicle position detecting means calculates the position of the preceding vehicle by obtaining the lower end coordinates of the preceding vehicle from the road surface image.

【0025】請求項18の走行路検出装置は、請求項1
4記載の走行路検出装置において、前記白線遮蔽範囲検
出手段は、複数の指向性方向で先行車両を検知して、そ
れぞれの方向で障害物までの距離を計測可能な車間距離
検出手段と、前記パラメータに基づいて自車線の先行車
両が前記複数の指向性のいずれに相当しているかを識別
する自車走行レーン認識手段と、自車走行レーン認識手
段の識別結果に基づいて、前記車間距離検出手段が求め
た複数の車間距離から自車線上の先行車両の車間距離を
選択する車間距離値選択手段と、を含むものとした。
The traveling road detecting device according to claim 18 is the one according to claim 1.
In the traveling road detection device according to claim 4, the white line shielding range detection means is capable of detecting a preceding vehicle in a plurality of directivity directions and measuring a distance to an obstacle in each direction, Based on the parameters, the own vehicle traveling lane recognition means for identifying which of the plurality of directivities the preceding vehicle in the own lane corresponds to, and the inter-vehicle distance detection based on the discrimination result of the own vehicle traveling lane recognition means. And an inter-vehicle distance value selecting means for selecting the inter-vehicle distance of the preceding vehicle on the lane from the plurality of inter-vehicle distances obtained by the means.

【0026】請求項19の走行路検出装置は、請求項1
4、15、16、17、または18記載の走行路検出装
置において、第1パラメータ記述式は、走行車線内の車
両位置、道路の平面曲率、車線に対する車両の傾き、道
路の傾斜、道路幅にそれぞれ関連付けた5つのパラメー
タを含み、一方、第2パラメータ記述式は、道路の平面
曲率に関連つけた1つを除く4つのパラメータを含むも
のとした。
A traveling road detecting device according to a nineteenth aspect is the one according to the first aspect.
4, 15, 16, 17, or 18, the first parameter descriptive expression is a vehicle position in a traveling lane, a plane curvature of a road, a vehicle inclination with respect to a lane, a road inclination, and a road width. The second parameter descriptive expression includes four parameters associated with each other, while the second parameter descriptive expression includes four parameters except one associated with the plane curvature of the road.

【0027】請求項20の走行路検出装置は、請求項1
4、15、16、17、18、または19記載の走行路
検出装置において、第1パラメータ記述式は二次曲線
式、一方、第2パラメータ記述式は一次直線式であるも
のとした。
The traveling road detecting device according to claim 20 is the device according to claim 1.
In the traveling road detection device described in 4, 15, 16, 17, 18, or 19, the first parameter description formula is a quadratic curve formula, while the second parameter description formula is a linear linear formula.

【0028】請求項21の走行路検出装置は、請求項1
4、15、16、17、18、19、または20記載の
走行路検出装置前記において、パラメータ補正手段は、
選択されたパラメータ記述式による仮想的な白線候補点
と前記路面画像から求めた最新の白線候補点とのずれ量
を算出するずれ量算出手段と、前記ずれ量に基づいて前
記複数のパラメータの変動量を算出するパラメータ変動
量算出手段と、を含み、かつ、前記パラメータ変動量算
出手段は、最小二乗法を用いて前記パラメータ変動量を
算出するものとした。
According to a twenty-first aspect of the present invention, there is provided a traveling road detecting apparatus according to the first aspect.
4, 15, 16, 17, 18, 19, or 20, the traveling path detection device, wherein the parameter correction means is
A deviation amount calculating means for calculating an amount of deviation between a virtual white line candidate point by the selected parameter description expression and the latest white line candidate point obtained from the road surface image, and fluctuations of the plurality of parameters based on the deviation amount. And a parameter variation amount calculating means for calculating the amount, and the parameter variation amount calculating means calculates the parameter variation amount using a least square method.

【0029】請求項22の走行路検出装置は、請求項1
4、15、16、17、18、19、20、または21
記載の走行路検出装置において、前記パラメータ補正手
段は、更新した前記複数のパラメータに基づいて道路の
三次元形状を算出し、直ちに出力する道路形状出力手段
を含むものとした。
A traveling road detecting device according to a twenty-second aspect is the one according to the first aspect.
4, 15, 16, 17, 18, 19, 20, or 21
In the traveling road detection apparatus described above, the parameter correction unit includes a road shape output unit that calculates a three-dimensional shape of the road based on the updated plurality of parameters and immediately outputs the calculated three-dimensional shape.

【0030】請求項23の走行路検出装置は、請求項1
4、15、16、17、18、19、20、21、また
は22記載の走行路検出装置において、走行車線内の車
両位置、道路の平面曲率、車線に対する車両の傾き、道
路の傾斜、道路幅にそれぞれ関連付けたパラメータを
a、b、c、d、eとし、前記路面画像の座標系をx、
yとし、iを整数とするとき、第1パラメータ記述式
は、x=(a+ie)(y−d)+b/(y−d)+c
であり、一方、第2パラメータ記述式は、x=(a+i
e)(y−d)+cであるものとした。
The traveling road detecting device of claim 23 is the same as that of claim 1.
4, 15, 16, 17, 18, 19, 20, 21, or 22, the vehicle position in the traveling lane, the plane curvature of the road, the inclination of the vehicle with respect to the lane, the inclination of the road, the width of the road. The parameters respectively associated with a, b, c, d, and e, and the coordinate system of the road surface image is x,
When y and i are integers, the first parameter description expression is x = (a + ie) (yd) + b / (yd) + c
On the other hand, the second parameter description expression is x = (a + i
e) (y−d) + c.

【0031】[0031]

【作用】請求項1の走行路検出装置では、「パラメータ
記述式による前時刻の白線候補点」と「路面画像から求
めた現時刻の白線候補点」とを、路面画像の座標系で比
較する演算操作だけで、座標変換の演算を一切行うこと
なく、パラメータ記述式の複数のパラメータの最新の値
を求める。白線は、平面的には「並行する複数本の二次
曲線」、高さ方向には傾斜一定の坂道として近似式化さ
れ、この近似式を路面画像の座標系に変換してパラメー
タ記述式としている。従って、路面画像の座標系を用い
た演算操作だけで複数のパラメータを直接求めることが
でき、求めた白線候補点の数値自体の座標変換は行わな
いで済む。パラメータおよびパラメータ記述式の設定の
詳細、パラメータを決定する演算手法、パラメータから
道路の三次元形状を導き出す演算手法等については、実
施例中に詳しく説明する。
In the traveling road detecting device according to the first aspect, the "white line candidate point at the previous time by the parameter description expression" and the "white line candidate point at the current time obtained from the road image" are compared in the coordinate system of the road image. The latest values of the plurality of parameters in the parameter description expression are obtained by performing only the calculation operation without performing any coordinate conversion calculation. The white line is approximated as a “plurality of parallel quadratic curves” in a plane and a slope with a constant inclination in the height direction. This approximate formula is converted into a coordinate system of the road surface image and used as a parameter description formula. There is. Therefore, a plurality of parameters can be directly obtained only by a calculation operation using the coordinate system of the road surface image, and it is not necessary to perform the coordinate conversion of the obtained numerical values of the white line candidate points. Details of the setting of the parameters and the parameter description formulas, the calculation method for determining the parameters, the calculation method for deriving the three-dimensional shape of the road from the parameters, and the like will be described in detail in Examples.

【0032】請求項2の走行路検出装置では、「前時刻
の白線候補点」と「現時刻の白線候補点」のずれ量から
複数のパラメータの変動量を求める際に、最小二乗法を
用いる。請求項3の走行路検出装置では、決定された最
新のパラメータから、車両の進行につれて刻々と変化す
る前方の道路の平面曲率、車線に対する車輌の傾き、道
路の傾斜が算出されて、直ちに出力される。これらの数
値を用いて種々の機能、例えば、道路のカーブに追従し
た自動的なステアリング、先行車両の検出と組み合わせ
た危険評価、運転者の居眠りや不注意に対する警告等の
機能を組み立て得る。請求項4の走行路検出装置では、
x=(a+ke)(y−d)+b/(y−d)+cなる
パラメータ記述式を用いてパラメータの変動量を求め
る。
In the traveling road detecting device according to the second aspect, the least squares method is used when the variation amounts of the plurality of parameters are obtained from the deviation amounts of the "white line candidate point at the previous time" and the "white line candidate point at the current time". . According to another aspect of the present invention, in the traveling road detection device, the plane curvature of the road ahead, the inclination of the vehicle with respect to the lane, and the inclination of the road, which change every moment as the vehicle progresses, are calculated from the determined latest parameters and immediately output. It By using these numerical values, various functions can be assembled, for example, automatic steering following a curve of a road, risk evaluation combined with detection of a preceding vehicle, warning of drowsiness and carelessness of a driver. In the traveling road detecting device according to claim 4,
The parameter variation is calculated using the parameter description formula x = (a + ke) (yd) + b / (yd) + c.

【0033】請求項5の走行路検出装置では、路面画像
の中に小領域(ウインドウ)を設定して白線候補点の位
置情報を求める。小領域は、「パラメータ記述式による
前時刻の白線候補点」に対応させて、検知すべきそれぞ
れの白線について複数個づつが設定される。そして、こ
の設定の際に、「路面画像中のどの白線に何個づつの小
領域を割り当てるかを定める操作」が実行される。車両
が走行車線の一方の白線に接近すると、反対側の白線か
ら求める白線候補点の位置情報の質が低下する(求めた
パラメータの誤差が増大する)から、この白線を踏み越
えた次の車線の白線についても小領域を設定して、反対
側の白線の白線候補点の位置情報がパラメータ決定に関
与する割合を下げる。
In the traveling road detecting apparatus according to the fifth aspect, a small area (window) is set in the road surface image to obtain position information of the white line candidate points. A plurality of small areas are set for each white line to be detected, corresponding to the "white line candidate point at the previous time by the parameter description expression". Then, at the time of this setting, "an operation for determining how many small areas are allocated to which white line in the road surface image" is executed. When the vehicle approaches one of the white lanes of the driving lane, the quality of the position information of the white line candidate points obtained from the opposite white line deteriorates (the error of the obtained parameter increases). A small area is also set for the white line to reduce the rate at which the position information of the white line candidate point on the opposite white line is involved in parameter determination.

【0034】請求項6の走行路検出装置では、パラメー
タから求めた走行車線の幅について2つのしきい値が設
定される。このしきい値を越えて車両が一方の白線に接
近した際には、それまでの走行車線を挟む2本の白線か
ら、接近する白線を中心にした3本の白線に改めて小領
域を割り当てる。請求項7の走行路検出装置では、パラ
メータから求めた走行車線の幅について2つのしきい値
が設定される。車両が白線を踏み越えて隣接車線のこの
しきい値を越えた際には、それまでの3本の白線から新
しい走行車線の2本の白線に改めて小領域を割り当て
る。請求項8の走行路検出装置では、走行車線の幅を定
数として保持しており、少なくとも小領域の設定操作に
ついては、走行車線の幅に関連したパラメータが変動し
ても、走行車線の幅を終始一定として演算処理する。請
求項9の走行路検出装置では、2本の白線を検知する場
合でも3本の白線を検知する場合でも同数の白線候補点
を用いてパラメータを決定する。請求項10の走行路検
出装置では、3本の白線を検知する場合に路面画像の中
央の白線に対して、両側の白線よりも多くの小領域を割
り当てる。中央の白線は、両側の白線よりも路面画像上
で直線性が高く、撮像視点からも近いため、白線候補点
の位置情報の質が高いからである。
In the traveling road detecting device according to the sixth aspect, two thresholds are set for the width of the traveling lane obtained from the parameters. When the vehicle approaches one of the white lines exceeding this threshold value, a small area is reassigned from the two white lines sandwiching the traveling lane up to that point to the three white lines centering on the approaching white line. In the traveling road detecting device according to the seventh aspect, two thresholds are set for the width of the traveling lane obtained from the parameters. When the vehicle crosses the white lane and exceeds the threshold value of the adjacent lane, a small area is reassigned from the three white lanes until then to the two white lanes of the new lane. In the traveling road detecting device according to claim 8, the width of the traveling lane is held as a constant, and at least for the setting operation of the small area, even if the parameter related to the width of the traveling lane fluctuates, The arithmetic processing is performed with a constant value from beginning to end. In the traveling road detecting device according to the ninth aspect, the parameter is determined by using the same number of white line candidate points when detecting two white lines or when detecting three white lines. In the traveling road detection device according to the tenth aspect, when three white lines are detected, a larger number of small areas than the white lines on both sides are allocated to the central white line of the road surface image. This is because the white line in the center has higher linearity on the road surface image than the white lines on both sides and is closer from the imaging viewpoint, and therefore the quality of the position information of the white line candidate point is higher.

【0035】請求項11の走行路検出装置では、居眠り
や不注意によって車線変更の方向指示無しに白線を踏み
越えようとした場合に、運転者にその旨の警告を行う。
In the traveling road detecting apparatus according to the eleventh aspect, when the driver tries to cross the white line without taking a lane change direction instruction due to drowsiness or carelessness, the driver is warned accordingly.

【0036】請求項12の走行路検出装置では、踏み越
えようとする白線を越えた隣接車線について、先行車両
等の障害物を検知して、衝突の可能性が高いと判断され
た場合には、運転者にその旨の警告を行う。隣接車線の
障害物の検知は、走行車線の一方の白線に近付いた際
に、その白線を越えた隣接車線について開始される。請
求項13の走行路検出装置では、走行車線の2本の白線
のみに小領域を割り当てている場合には隣接車線の障害
物検知を行わないが、車両が一方の白線に接近して3本
の白線に小領域を割り当てている場合には隣接車線の障
害物を検知して、障害物があれば衝突の可能性を評価す
る。
According to another aspect of the present invention, the traveling road detecting device detects an obstacle such as a preceding vehicle in an adjacent lane crossing a white line which is about to be crossed, and when it is determined that there is a high possibility of collision, Warn the driver accordingly. The detection of the obstacle in the adjacent lane is started for the adjacent lane beyond the white lane when the vehicle approaches one white lane of the traveling lane. The roadway detection device according to claim 13 does not detect an obstacle in an adjacent lane when a small area is assigned to only two white lanes of the traveling lane, but the vehicle approaches one of the white lanes to detect three obstacles. When a small area is assigned to the white line, the obstacle in the adjacent lane is detected, and if there is an obstacle, the possibility of collision is evaluated.

【0037】請求項14の走行路検出装置では、先行車
両によって車両前方の白線が限度を越えて遮蔽された場
合に、第1パラメータ記述式を第2パラメータ記述式に
置き換える。車両に近くて遮蔽を逃れた短い部分的な白
線しか路面画像上に補足できない場合、遮蔽された部分
からは白線候補点の位置情報を採取する利益が無いから
である。
According to the fourteenth aspect of the present invention, the first parameter description expression is replaced with the second parameter description expression when the white line in front of the vehicle is shielded by the preceding vehicle beyond the limit. This is because if only a short partial white line that has escaped the shielding near the vehicle can be supplemented on the road surface image, there is no benefit to collect the position information of the white line candidate points from the blocked portion.

【0038】請求項15の走行路検出装置では、路面画
像から前方の先行車両を検出し、先行車両までの距離を
見積もり、白線の遮蔽範囲を評価して、使用すべきパラ
メータ記述式を決定する。請求項16の走行路検出装置
では、路面画像に対して縦エッジを強調する画像処理を
行って、先行車両の両側端の位置を際立たせる。ここか
ら先行車両の両側端の座標値を求めて先行車両の位置を
計算する。請求項17の走行路検出装置では、路面画像
に対して横エッジを強調する画像処理を行って先行車両
の下端(例えば影部分)を際立たせる。ここから先行車
両の下端座標を求めて先行車両の位置を計算する。
In the traveling road detecting apparatus according to the fifteenth aspect, the preceding vehicle ahead is detected from the road surface image, the distance to the preceding vehicle is estimated, the white line shielding range is evaluated, and the parameter description formula to be used is determined. .. In the traveling road detecting device according to the sixteenth aspect, the image processing for emphasizing the vertical edge is performed on the road surface image so that the positions of both side ends of the preceding vehicle are highlighted. From this, the coordinate values of both ends of the preceding vehicle are obtained to calculate the position of the preceding vehicle. In the traveling road detecting apparatus according to the seventeenth aspect, image processing for emphasizing the lateral edge is performed on the road surface image so that the lower end (for example, a shaded portion) of the preceding vehicle is highlighted. From this, the lower end coordinates of the preceding vehicle are obtained to calculate the position of the preceding vehicle.

【0039】請求項18の走行路検出装置では、路面画
像から自車線の先行車両の車間距離を求める手段に代え
て(あるいは共存させて)、レーダー電波、レーザー
光、超音波等のビームを車両前方に放射して車間距離を
計測する車間距離計測手段を備える。複数の指向性の方
向は、路面画像から認識された自車線や隣接車線に対応
させる形式で、自車走行レーン認識手段によって管理さ
れる。車間距離数値選択手段によって、単なる自車前方
一定方向の障害物でなく、道路の曲り形状に左右されな
い自車線上の先行車両が補足される。
In the traveling road detecting apparatus according to the eighteenth aspect of the invention, instead of the means for obtaining the inter-vehicle distance of the preceding vehicle in the own lane from the road surface image, (or in coexistence with), a beam of radar radio waves, laser light, ultrasonic waves or the like is emitted from the vehicle. An inter-vehicle distance measuring unit that radiates forward and measures the inter-vehicle distance is provided. The plurality of directivity directions are managed by the own vehicle traveling lane recognition means in a format corresponding to the own lane or the adjacent lane recognized from the road surface image. The inter-vehicle distance numerical value selection means supplements the preceding vehicle on the own lane, which is not simply an obstacle in a fixed direction in front of the own vehicle, but is not influenced by the curved shape of the road.

【0040】請求項19の走行路検出装置では、路面画
像上で白線が十分に補足できる場合のパラメータ記述式
が5つのパラメータを含む一方で、遮蔽が著しい場合の
パラメータ記述式が4つのパラメータを含み、道路の平
面曲率に関連したパラメータを含まない。請求項20の
走行路検出装置では、路面画像上で白線が十分に補足で
きる場合のパラメータ記述式が二次の曲線式であるのに
対して、遮蔽が著しい場合のパラメータ記述式が一次の
直線式である。請求項21の走行路検出装置では、パラ
メータの変動量を算出する際に最小二乗法を用いる。請
求項22の走行路検出装置では、更新した最新のパラメ
ータに基づいて、道路の三次元形状を算出して出力す
る。請求項23の走行路検出装置では、路面画像上で白
線が十分に補足できる場合のパラメータ記述式がx=
(a+ie)(y−d)+b/(y−d)+cであるの
に対して、遮蔽が著しい場合のパラメータ記述式がx=
(a+ie)(y−d)+cである。
According to the nineteenth aspect of the present invention, in the traveling road detecting device, the parameter description expression in the case where the white line can be sufficiently captured on the road surface image includes five parameters, while the parameter description expression in the case where the shielding is remarkable includes four parameters. It does not include the parameter related to the plane curvature of the road. In the traveling road detecting apparatus according to claim 20, the parameter description expression when the white line can be sufficiently captured on the road surface image is a quadratic curve expression, whereas the parameter description expression when the shielding is remarkable is a linear line. It is an expression. In the traveling road detecting device according to the twenty-first aspect, the least squares method is used when calculating the variation amount of the parameter. In the traveling road detecting device according to the twenty-second aspect, the three-dimensional shape of the road is calculated and output based on the updated latest parameter. In the traveling road detecting apparatus according to claim 23, the parameter description expression when the white line can be sufficiently captured on the road surface image is x =
(A + ie) (y-d) + b / (y-d) + c, whereas the parameter description expression when the shielding is significant is x =
(A + ie) (yd) + c.

【0041】[0041]

【実施例】図1〜図9を用いて第1実施例を説明する。
図1は設定座標系の説明図、図2はカメラ座標系におけ
る白線モデルの説明図、図3は画像座標系における新旧
白線対応点の説明図、図4は構成の説明図、図5は処理
全体のフローチャート、図6はウインドウ更新のための
フローチャート、図7は白線候補点の検出のフローチャ
ート、図8は白線候補点の検出方法の説明図、図9はウ
インドウ設定位置の説明図である。第1実施例は、路面
画像から白線モデルのパラメータを決定する基本的な機
能を持つ走行路検出装置であり、以下の他の実施例にも
共通に応用されている。
EXAMPLE A first example will be described with reference to FIGS.
1 is an explanatory diagram of a set coordinate system, FIG. 2 is an explanatory diagram of a white line model in a camera coordinate system, FIG. 3 is an explanatory diagram of corresponding points of new and old white lines in an image coordinate system, FIG. 4 is an explanatory diagram of a configuration, and FIG. 5 is processing. FIG. 6 is an overall flowchart, FIG. 6 is a flowchart for window updating, FIG. 7 is a flowchart for detecting white line candidate points, FIG. 8 is an explanatory diagram for a method for detecting white line candidate points, and FIG. The first embodiment is a traveling road detecting device having a basic function of determining the parameters of the white line model from the road surface image, and is commonly applied to the other embodiments below.

【0042】まず、白線モデルについて説明する。白線
モデルは、白線の三次元形状を表現する近似式である。
白線モデルを路面画像の座標系に座標変換して、第1実
施例のパラメータ記述式が作成される。パラメータ記述
式は、路面画像上の白線の関数表現である。路面画像の
座標系(x、y)とカメラ座標系(X、Y、Z)の関係
を図1に示す。図1において、道路24上を自車両とと
もに原点が移動するカメラ座標系23によって白線25
の近似式を設定する。ここでは、車両進行方向とカメラ
光軸のなす角、および車両静止時のカメラ光軸と路面の
なす角がそれぞれ0となるようにカメラが車体に取り付
けられる。第1実施例の白線モデルは、主として高速道
路を対象としており、Z軸回りの回転(ロール角)、路
面の勾配、バンク角を無視している。大地に固定された
座標系の代わりに、刻々の車両位置(カメラ位置)を原
点とする道路座標系を用いたから、道路構造を簡単な二
次式で近似しても、必要な計測項目に対応する複数の道
路パラメータについて、実用的に十分な検出精度を確保
できた。
First, the white line model will be described. The white line model is an approximate expression expressing the three-dimensional shape of the white line.
The white line model is coordinate-converted into the coordinate system of the road surface image to create the parameter description formula of the first embodiment. The parameter description expression is a function expression of a white line on the road surface image. The relationship between the coordinate system (x, y) of the road surface image and the camera coordinate system (X, Y, Z) is shown in FIG. In FIG. 1, a white line 25 is drawn by the camera coordinate system 23 whose origin moves on the road 24 together with the vehicle.
Set the approximate expression of. Here, the camera is attached to the vehicle body so that the angle formed by the vehicle traveling direction and the camera optical axis and the angle formed by the camera optical axis and the road surface when the vehicle is stationary are zero. The white line model of the first embodiment is mainly intended for highways, and ignores rotation about the Z axis (roll angle), road slope, and bank angle. Instead of a fixed coordinate system on the ground, a road coordinate system with the momentary vehicle position (camera position) as the origin is used, so even if the road structure is approximated by a simple quadratic formula, it will correspond to the required measurement items. It was possible to secure practically sufficient detection accuracy for multiple road parameters.

【0043】白線モデルは、道路の三次元形状、車両位
置、車両姿勢をそれぞれ表す道路パラメータを用いて、
白線25を、水平面(X−Z)では二次式、垂直面(X
−Y)では一次式で近似する。図2のように道路パラメ
ータを定めて、次の(1)式のように近似式を設定し
た。図2中、(a)は水平面、(b)は垂直面を示す。
The white line model uses road parameters that represent the three-dimensional shape of the road, the vehicle position, and the vehicle attitude, respectively.
The white line 25 is a quadratic equation in the horizontal plane (X-Z) and the vertical plane (X
-Y) is approximated by a linear expression. Road parameters are determined as shown in FIG. 2, and an approximate expression is set as in the following expression (1). In FIG. 2, (a) shows a horizontal plane and (b) shows a vertical plane.

【数1】 図2の(a)において、道路の左端の白線から順に白線
を0、1、2、・・i番とする。0〜i番の白線が共通
の(1)式で記述される。カメラ座標系(X、Y、Z)
の原点は、車両の進行とともに刻々と前方に移動し、
(1)式中のA〜Eのパラメータをそれぞれ変化させ
る。パラメータAは車両の左側に位置する白線と車両中
心(撮像装置の取り付け位置)との距離(以下偏位)、
パラメータBは車両前方の道路曲率、パラメータCはZ
=0における白線の接線方向に対する車両のヨー角、パ
ラメータDは道路平面に対する車両のピッチ角(道路と
Z軸の相対角度)、パラメータEは白線間距離(直線路
やZ=0では車線幅)にそれぞれ相当する。この白線モ
デルに三次元から二次元への透視変換を行って、路面画
像の座標系(x、y)で記述された路面画像上の白線モ
デル、すなわち第1実施例のパラメータ記述式を作成す
る。
[Equation 1] In FIG. 2A, the white lines are numbered 0, 1, 2, ... The white lines 0 to i are described by the common expression (1). Camera coordinate system (X, Y, Z)
The origin of moves every moment as the vehicle progresses,
The parameters A to E in the equation (1) are changed. Parameter A is the distance (hereinafter referred to as deviation) between the white line located on the left side of the vehicle and the center of the vehicle (attachment position of the imaging device),
Parameter B is the road curvature in front of the vehicle, parameter C is Z
= 0, the yaw angle of the vehicle with respect to the tangential direction of the white line, the parameter D is the pitch angle of the vehicle with respect to the road plane (the relative angle between the road and the Z axis), and the parameter E is the distance between the white lines (lane width for straight roads and Z = 0). Respectively correspond to. Perspective transformation from three-dimensional to two-dimensional is performed on this white line model to create a white line model on the road surface image described in the coordinate system (x, y) of the road surface image, that is, a parameter description expression of the first embodiment. .

【0044】図1のように、三次元空間であるXYZ座
標系が、焦点距離fの光学レンズを通して、xy座標系
の平面的な画面に投影されるとき、三次元空間のXYZ
座標は、次の(2)式の透視変換を通じてx、y座標に
変換される。XYZ座標系で記述される道路上の構造物
は、路面画像上に射影されて、(2)式によって変換さ
れたxy座標系の画像となる。
As shown in FIG. 1, when an XYZ coordinate system, which is a three-dimensional space, is projected on a plane screen of an xy coordinate system through an optical lens having a focal length f, the XYZ of the three-dimensional space is projected.
The coordinates are converted into x and y coordinates through the perspective transformation of the following equation (2). The structure on the road described in the XYZ coordinate system is projected on the road surface image and becomes an image in the xy coordinate system converted by the equation (2).

【数2】 この関係を基に、(1)式は、次の(3)式のごとく、
路面画像上の白線モデルに変換される。ここで、定めた
パラメータa〜eは、(3)式の記述を簡略にするため
に、前述のパラメータA〜Eにそれぞれ関連付けて新た
に定義したパラメータである。
[Equation 2] Based on this relationship, the equation (1) is expressed by the following equation (3),
Converted to a white line model on the road image. Here, the defined parameters a to e are parameters newly defined in association with the above-mentioned parameters A to E in order to simplify the description of the expression (3).

【数3】 第1実施例では、路面画像上の白線をxy座標系で検出
した後、XYZ座標系に変換することなく(3)式のパ
ラメータa〜eを直接に推定する。パラメータa〜eが
確定すれば、道路曲率ρ、ヨー角tanβ、ピッチ角t
anαの各道路パラメータは次の(4)式によって求め
得る。なお、車両の偏位と車線幅に相当するパラメータ
が含まれる道路モデルであれば、(3)式以外の道路モ
デルを利用しても、第1実施例と同様の効果が得られ
る。
[Equation 3] In the first embodiment, after detecting the white line on the road surface image in the xy coordinate system, the parameters a to e of the equation (3) are directly estimated without conversion into the XYZ coordinate system. When the parameters a to e are determined, the road curvature ρ, the yaw angle tan β, the pitch angle t
Each road parameter of an α can be obtained by the following equation (4). If the road model includes parameters corresponding to the vehicle deviation and the lane width, the same effect as that of the first embodiment can be obtained by using a road model other than the equation (3).

【数4】 [Equation 4]

【0045】次に、パラメータa〜eの推定方法につい
て説明する。路面画像上の道路構造は時間軸に対して滑
らかに変化すると仮定する。図3は、前時刻の路面画像
と現時刻の路面画像との間の白線部分の移動を示す。こ
こで、添字new は現在のフレーム、添字old は1フレー
ム前を意味する。第1実施例では、1/30秒間隔で路
面画像のフレームを取り込み、路面画像の白線上から複
数の白線部分を取り出してxy座標値を求め、リアルタ
イムにパラメータを推定する。パラメータの推定は、1
フレーム前の路面画像から求めた前回の白線位置に対し
て、現在のフレームの白線位置を比較する手法による。
図3に示すように、前回求めたパラメータa〜eからの
変動量をΔa〜Δeと仮定すると、路面画像(x、y)
におけるi番の白線のj個目の点xijの微小変動量Δx
ijは、2次以上の項を無視すればTaylorの定理に
よって、次の(5)、(6)式で表される。
Next, a method of estimating the parameters a to e will be described. It is assumed that the road structure on the road surface image changes smoothly with respect to the time axis. FIG. 3 shows the movement of the white line portion between the road surface image at the previous time and the road surface image at the current time. Here, the subscript new means the current frame and the subscript old means one frame before. In the first embodiment, frames of the road surface image are captured at intervals of 1/30 second, a plurality of white line portions are extracted from the white line of the road surface image, xy coordinate values are calculated, and parameters are estimated in real time. Parameter estimation is 1
By the method of comparing the white line position of the current frame with the previous white line position obtained from the road surface image before the frame.
As shown in FIG. 3, assuming that the variation amounts from the previously obtained parameters a to e are Δa to Δe, the road surface image (x, y)
Minute variation Δx of the j-th point xij of the i-th white line in
ij is expressed by the following equations (5) and (6) according to Taylor's theorem, if terms of the second or higher degree are ignored.

【数5】 [Equation 5]

【0046】変動量Δa〜Δeの推定には最小二乗法を
用いる。そのための評価誤差関数として、次の(7)〜
(9)式を定義する。
The least squares method is used to estimate the fluctuation amounts Δa to Δe. As an evaluation error function therefor, the following (7)-
Equation (9) is defined.

【数6】 ここに、(7)式は前回の検出結果xij-1と新たに検出
されたxijとの差によって定義される評価誤差関数であ
り、(7)式中のpijは白線候補点の確からしさを表
す。また、(8)式は、パラメータが時間軸方向に滑ら
かに移動するという仮定を表現した評価誤差関数であっ
て、Sは重み係数である。以上に示した評価誤差関数の
和が(9)式の和etotal で示され、和etotal を最小
とならしめるΔa〜Δeを求めることにより、次の式
(10)のごとくパラメータを更新する。
[Equation 6] Here, the expression (7) is an evaluation error function defined by the difference between the previous detection result xij-1 and the newly detected xij, and pij in the expression (7) is the probability of the white line candidate point. Represent Expression (8) is an evaluation error function expressing the assumption that the parameter smoothly moves in the time axis direction, and S is a weighting coefficient. The sum of the evaluation error functions shown above is represented by the sum etotal of the equation (9), and the parameters are updated as in the following equation (10) by obtaining Δa to Δe that minimizes the sum etotal.

【数7】 [Equation 7]

【0047】そして、変動量Δa〜Δeは、次の線形の
連立方程式(11)を解くことによって求める。なお、
行列中、XijYijZijの形式の各要素は、二重の総和記
号を省略して記述している。すなわち、ΣΣXijYijZ
ij(1番目のΣはi、2番目のΣはjについての総和記
号)を意味する。
Then, the variations Δa to Δe are obtained by solving the following linear simultaneous equations (11). In addition,
In the matrix, each element in the form of XijYijZij is described by omitting the double summation symbol. That is, ΣΣXijYijZ
ij (the first Σ is i and the second Σ is the summation symbol for j).

【数8】 [Equation 8]

【0048】第1実施例は、(3)式のパラメータ記述
式を使用して、刻々の白線部分の検出結果から(11)
式を解いて、刻々のパラメータa〜eを推定する。図4
に第1実施例の機能構成を示す。撮像部11は、車両前
方の路面を撮像して、入力画像を取り込む。入力画像に
対して、前処理のエッジ検出が実行されて白線の特徴が
際立たせられる。白線候補点検出部12は、路面画像の
座標系で記述された複数の白線候補点の位置情報を抽出
する。ここでは、後述するように、路面画像上の白線が
想定される位置に小領域(ウインドウ)を複数個設定し
て、ウインドウ内の白線部分を検出しているが、「白線
上の複数の点の画像座標系による位置座標」は他の手法
で求めてもよい。前回の白線モデル(曲線式)上の点列
を計算する算出部17は、前回の入力画像から求めたパ
ラメータに基づいて、前回の路面画像における白線候補
点の仮想的な位置をそれぞれ演算する。白線候補点と白
線モデル点列とのずれ量算出部13は、白線候補点検出
部12による現時刻の白線候補点位置と算出部17によ
る前回の白線候補点位置とを比較し、車両の前進に伴う
前回から現時刻までの白線候補点の移動量を演算する。
The first embodiment uses the parameter description formula (3) to detect (11) from the detection result of the white line portion at every moment.
The equations are solved to estimate the instantaneous parameters a to e. Figure 4
The functional configuration of the first embodiment is shown in FIG. The image capturing unit 11 captures an input image by capturing a road surface in front of the vehicle. Pre-processing edge detection is performed on the input image to highlight white line features. The white line candidate point detection unit 12 extracts position information of a plurality of white line candidate points described in the coordinate system of the road surface image. Here, as described later, a plurality of small areas (windows) are set at positions where a white line on the road surface image is assumed, and the white line portion in the window is detected. The "positional coordinates in the image coordinate system of" may be obtained by another method. The calculation unit 17 that calculates the point sequence on the previous white line model (curve formula) calculates the virtual position of each white line candidate point on the previous road surface image based on the parameters obtained from the previous input image. The deviation amount calculation unit 13 between the white line candidate points and the white line model point sequence compares the white line candidate point position at the current time by the white line candidate point detection unit 12 with the previous white line candidate point position by the calculation unit 17 to advance the vehicle. The amount of movement of the white line candidate point from the previous time to the current time is calculated.

【0049】パラメータ変動量算出部14は、白線候補
点と白線モデル点列とのずれ量算出部13における比較
結果から、前述の(11)式を解いて、(7)〜(9)
式の最小二乗法によるパラメータ変動量Δa〜Δeを推
定する。変動量に基づいて前回のパラメータを補正する
補正部15は、式(10)に、パラメータ変動量算出部
14で求めたパラメータ変動量Δa〜Δeを代入して、
最新のパラメータa〜e(new )を計算し、検出パラメ
ータ保持部16の前回のパラメータa〜e(old )を置
き換える。また、最新のパラメータから道路パラメータ
(曲率等、道路構造の定数)を算出して出力する。検出
パラメータ保持部16は、最新のパラメータを保持し
て、白線候補点と白線モデル点列とのずれ量算出部13
における次画面の処理に供する。以上の操作で1画面の
処理を終了する。
The parameter fluctuation amount calculation unit 14 solves the above equation (11) from the comparison result of the deviation amount calculation unit 13 between the white line candidate points and the white line model point sequence, and then (7) to (9).
The parameter fluctuation amounts Δa to Δe are estimated by the least squares method of the equation. The correction unit 15 that corrects the previous parameter based on the variation amount substitutes the parameter variation amounts Δa to Δe obtained by the parameter variation amount calculation unit 14 into the equation (10),
The latest parameters a to e (new) are calculated, and the previous parameters a to e (old) of the detection parameter holding unit 16 are replaced. It also calculates and outputs road parameters (constants of road structure such as curvature) from the latest parameters. The detection parameter holding unit 16 holds the latest parameters, and the deviation amount calculation unit 13 between the white line candidate points and the white line model point sequence.
To process the next screen in. With the above operation, the processing for one screen is completed.

【0050】第1実施例の全体処理のフローチャートが
図5に示される。図5のフローチャートにおけるステッ
プ122の詳細なフローチャートが図6に、ステップ1
16の詳細なフローチャートが図7に示される。また、
図7のフローチャートにおけるステップ152の詳細な
フローチャートが図8の(b)に示される。図4の構成
における1画面の処理は、1個の演算装置を時分割し
て、図5のステップ116〜123のループを通じて順
番に実行される。
A flowchart of the overall processing of the first embodiment is shown in FIG. A detailed flowchart of step 122 in the flowchart of FIG. 5 is shown in FIG.
A detailed flowchart of 16 is shown in FIG. Also,
A detailed flowchart of step 152 in the flowchart of FIG. 7 is shown in FIG. 8 (b). The processing of one screen in the configuration of FIG. 4 is executed in sequence through a loop of steps 116 to 123 in FIG.

【0051】図5において、ステップ111〜115で
は、白線候補点の位置情報を検出するための初期値を取
り込む。これらの初期値は運転者のキーボード操作を通
じて設定されるが、例えば、真直ぐな道路の車線中央を
直進している状態に相当する一定のデータとしてROM
に保持しておいてもよい。第1実施例では、刻々の白線
候補点検出結果に基づいてパラメータを演算する際や、
白線候補点を路面画像上で検出(ウインドウ設定)する
際に、パラメータを代入済みのパラメータ記述式が不可
欠であるから、ステップ116〜123のループを開始
する前に、初期値を与えてパラメータ記述式を完成させ
ておく。また、路面画像上の白線に対応させて初回のウ
インドウ位置と配置を設定する。すなわち、ステップ1
11ではパラメータa〜e、ステップ112では路面画
像上で検知すべき白線の本数m、ステップ113では路
面画像上のウインドウ初期設定位置、ステップ114で
は前述の(8)式の重み付け定数、ステップ115では
白線1本当たりのウインドウ設定数nがそれぞれ初期値
として設定される。
In steps 111 to 115 in FIG. 5, initial values for detecting the positional information of the white line candidate points are fetched. These initial values are set by the driver's keyboard operation, but, for example, ROM is stored as constant data corresponding to a state where the vehicle is traveling straight in the center of the lane of a straight road.
You may keep it in. In the first embodiment, when the parameters are calculated based on the detection result of the white line candidate points every moment,
When the white line candidate points are detected (window setting) on the road surface image, the parameter description expression in which the parameters have been substituted is indispensable. Therefore, before the loop of steps 116 to 123 is started, an initial value is given to describe the parameters. Complete the formula. Also, the initial window position and layout are set in correspondence with the white line on the road surface image. That is, step 1
11, parameters a to e, step 112, the number m of white lines to be detected on the road image, step 113, the window initial setting position on the road image, step 114, the weighting constant of the equation (8), step 115. The window setting number n for each white line is set as an initial value.

【0052】図5のステップ116は、白線候補点検出
部12に対応する。ステップ116では、初回は初期
値、2回目からは前画面の処理結果に基づいて、路面画
像上に複数の小領域(ウインドウ)を設定する。そし
て、複数のウインドウのそれぞれについて、白線候補点
の位置情報を検出する。この位置情報は、それぞれの白
線候補点の位置座標x1ij、x2ijと確からしさPijと
で構成される。ステップ116における処理の詳細を、
図7、図9を参照して説明する。図7はウインドウ設定
処理のフローチャート、図9は画面に白線が撮像されて
いる様子である。図9中、(a)は路面画像、(b)は
1個のウインドウにおける白線部分の検出を示す。
Step 116 in FIG. 5 corresponds to the white line candidate point detection unit 12. In step 116, a plurality of small areas (windows) are set on the road surface image based on the initial value for the first time and the processing result of the previous screen from the second time. Then, the position information of the white line candidate points is detected for each of the plurality of windows. This position information is composed of the position coordinates x1ij and x2ij of each white line candidate point and the probability Pij. Details of the processing in step 116
This will be described with reference to FIGS. 7 and 9. FIG. 7 is a flowchart of the window setting process, and FIG. 9 shows a white line imaged on the screen. In FIG. 9, (a) shows a road surface image, and (b) shows detection of a white line portion in one window.

【0053】図9の(a)において、路面画像26に
は、道路24G上の白線25Gが捕捉されている。道路
24Gの左端の白線25Gからi=0、1、2・・と番
号が付され、i=0、1の2本の白線に対して4個づつ
のウインドウ21が設置されている。ウインドウ21
は、パラメータ記述式から位置を定めて、路面画像上の
白線に沿って複数個が設定される。パラメータ記述式に
対して初回は初期値、2回目からは前回の入力画像から
求めたパラメータが代入される。ウインドウの設定は、
白線候補点の検出に関与する画素(明るさデータ)数を
削減し、また、路面と白線という明白なコントラストの
判別だけで白線部分の検出を可能にする。路面画像上の
所定の高さ位置(y1、y2)に定めたウインドウで白
線部分を取り出す。ウインドウの上辺と下辺を白線が横
切るx座標(x1、x2)を求めて、2つの白線候補点
の位置座標(x1、y1)、(x2、y2)を確定させ
る。
In FIG. 9A, a white line 25G on the road 24G is captured in the road surface image 26. The white lines 25G at the left end of the road 24G are numbered as i = 0, 1, 2, ... And four windows 21 are installed for each of the two white lines i = 0, 1. Window 21
Is determined from the parameter description formula, and a plurality of positions are set along the white line on the road surface image. Initial values are assigned to the parameter description formulas for the first time, and parameters obtained from the previous input image are substituted for the second time. The window settings are
The number of pixels (brightness data) involved in detecting the white line candidate point is reduced, and the white line portion can be detected only by clearly determining the contrast between the road surface and the white line. A white line portion is taken out in a window defined at a predetermined height position (y1, y2) on the road surface image. The x coordinate (x1, x2) where the white line crosses the upper side and the lower side of the window is obtained, and the position coordinates (x1, y1) and (x2, y2) of the two white line candidate points are determined.

【0054】図9の(b)において、1個のウインドウ
21は、上端の中心点(x1Wij、y1ij)、下端の中
心点(x2Wij、y2ij)、および幅W1ij、W2ijを
定めることにより位置と大きさを定める。ウインドウの
高さ位置(y1、y2)は所定の値として与えられ、水
平位置(x1Wij、x2Wij)がパラメータ記述式によ
り演算される。ここでは、ウインドウ高さをdy=一定
としている。1個のウインドウ21から得られる2つの
白線候補点の確からしさp1ij、p2ijは、次の式(1
2)により定義する。
In FIG. 9B, the position and size of one window 21 are determined by defining the center point (x1Wij, y1ij) at the upper end, the center point (x2Wij, y2ij) at the lower end, and the widths W1ij, W2ij. Determine the size. The height position (y1, y2) of the window is given as a predetermined value, and the horizontal position (x1Wij, x2Wij) is calculated by the parameter description formula. Here, the window height is set to dy = constant. The probability p1ij and p2ij of two white line candidate points obtained from one window 21 are calculated by the following equation (1
Defined by 2).

【数9】 ここに、数値pi-max は、i番目の白線上のウインドウ
群によって検出される濃度値の和の最大値である。
[Equation 9] Here, the numerical value pi-max is the maximum value of the sum of the density values detected by the window group on the i-th white line.

【0055】図5のステップ116では、図7に示すフ
ローで白線候補点を検出する。図7において、ステップ
151で処理の初期化が行われ、ステップ152〜15
5を通じて、路面画像上の同じ高さ位置yのm本の白線
に対応するn個のウインドウについて、順番に白線候補
点のx座標x1ij、x2ijと「ウインドウ内における白
線候補点の確からしさpij」を検出する。n個のウイン
ドウを処理し終わると、ステップ157を通過して、右
隣に位置する白線に対応するウインドウにおける白線候
補点の検出に移行する。このようにして、ステップ15
2〜159の処理をm本の白線に対して完了するまで繰
り返す。図9の(a)に示すウインドウ設定例で言え
ば、i=0の4個のウインドウ21でj=0、1、2、
3と順番に処理し、続いてi=1の4個のウインドウ2
1でj=0、1、2、3と順番に処理する。
In step 116 of FIG. 5, white line candidate points are detected by the flow shown in FIG. In FIG. 7, the processing is initialized in step 151, and steps 152 to 15 are executed.
5, through n windows corresponding to m white lines at the same height position y on the road surface image, the x-coordinates x1ij and x2ij of the white line candidate points and the “probability pij of the white line candidate points in the window” are sequentially displayed. To detect. When n windows have been processed, step 157 is passed to shift to detection of a white line candidate point in the window corresponding to the white line located on the right side. In this way, step 15
The processing of 2 to 159 is repeated until m white lines are completed. In the window setting example shown in FIG. 9A, j = 0, 1, 2,
3 in order, followed by 4 windows 2 with i = 1
1 is processed in the order of j = 0, 1, 2, 3.

【0056】次に、図7のステップ152における処理
の詳細を図8を参照して説明する。図8は1個のウイン
ドウ内における白線候補点の検出処理の説明図である。
図8中、(a)は1個のウインドウ、(b)は白線候補
点検出処理のフローチャートである。白線候補点の検出
処理では、演算装置に取り込まれた路面画像のメモリデ
ータから、ウインドウの範囲に該当するデータを呼び出
して識別と演算を実行する。このとき、図9の(a)の
ように、モニター画面に表示された路面画像26の上に
重ねてウインドウ21の範囲が表示される。図8の
(a)において、ウインドウ21は、その上底が[x=
x1i(i=0〜n)、y=y1 ]の座標値を占め、その
下底が[x=x2j(j=0〜m)、y=y2 =y1 +d
y]の座標値を占める台形ウインドウである。ウインド
ウ21が切り取る白線部分の両端が白線候補点である。
ウインドウの高さ位置(y1、y2)は所定の値として
与えられているので、水平位置(x1ij、x2ij)のみ
を求める。
Details of the process in step 152 of FIG. 7 will be described below with reference to FIG. FIG. 8 is an explanatory diagram of a white line candidate point detection process in one window.
In FIG. 8, (a) is one window, and (b) is a flowchart of white line candidate point detection processing. In the white line candidate point detection processing, data corresponding to the range of the window is called from the memory data of the road surface image captured by the calculation device to perform identification and calculation. At this time, as shown in FIG. 9A, the range of the window 21 is displayed overlaid on the road surface image 26 displayed on the monitor screen. In FIG. 8A, the window 21 has an upper bottom [x =
occupies the coordinate values of x1i (i = 0 to n), y = y1], and the bottom bottom thereof is [x = x2j (j = 0 to m), y = y2 = y1 + d
It is a trapezoidal window that occupies the coordinate values of y]. Both ends of the white line portion cut out by the window 21 are white line candidate points.
Since the height position (y1, y2) of the window is given as a predetermined value, only the horizontal position (x1ij, x2ij) is obtained.

【0057】図8の(b)において、ステップ101で
各値を初期化後、上辺の1個の画素と下辺の1個の画素
を結ぶ線分の画素群を順番に呼び出して画素の濃度値の
和pを算出する。ループ105で「上辺の1個の画素と
下辺のm個の画素の組み合わせが試され(j=0〜
m)、ループ106で上辺のn個の画素が網羅される
(i=0〜n)。ステップ107の条件に達すると1つ
のウインドウの処理が完了する。すなわち、ステップ1
02で点(x1i、y1 )と点(x2j、y2 )を結ぶ直線
上の画素の濃度値の和pを算出し、ステップ103で濃
度和pの過去の最大値pmax と比較する。ステップ10
3の条件が成立すれば、ステップ104でpmax 、x1
、x2 の各値を更新する。ステップ109では、濃度
和pmax が最大となるときの(x1i、x2j)を白線候補
点のx座標値として出力する。このとき得られる濃度和
pmax が白線候補点の確からしさである。
In FIG. 8B, after initializing each value in step 101, a pixel group of line segments connecting one pixel on the upper side and one pixel on the lower side is sequentially called to obtain the density value of the pixel. The sum p is calculated. In the loop 105, “a combination of one pixel on the upper side and m pixels on the lower side is tried (j = 0 to
m), the n pixels on the upper side are covered by the loop 106 (i = 0 to n). When the condition of step 107 is reached, processing of one window is completed. That is, step 1
In 02, the sum p of the density values of the pixels on the straight line connecting the point (x1i, y1) and the point (x2j, y2) is calculated, and in step 103, it is compared with the past maximum value pmax of the density sum p. Step 10
If the condition of 3 is satisfied, pmax, x1 in step 104
, X2 values are updated. In step 109, (x1i, x2j) when the density sum pmax becomes maximum is output as the x coordinate value of the white line candidate point. The density sum pmax obtained at this time is the certainty of the white line candidate points.

【0058】図5のステップ117〜119は、図4の
白線候補点と白線モデル点列とのずれ量算出部13に相
当する。ステップ117〜119では、ステップ116
における白線候補点の検出結果から(11)式の演算が
実行される。ステップ120は、パラメータ変動量算出
部14に対応する。ステップ120では、(10)式に
より最新のパラメータa〜eが確定される。ステップ1
21は、図4の変動量に基づいて前回のパラメータを補
正する補正部15に対応する。ステップ121では古い
パラメータa〜eが最新のパラメータに置き換えられ
る。ステップ122は、図4の白線候補点検出部12に
含まれる。ステップ122では、最新のパラメータに基
づいて次の路面画像でウインドウを設定すべき位置を求
める。ステップ123は図4の変動量に基づいて前回の
パラメータを補正する補正部15に含まれる。ステップ
123では、最新のパラメータから(6)式の道路パラ
メータの各値を求めて出力する。
Steps 117 to 119 in FIG. 5 correspond to the shift amount calculation unit 13 between the white line candidate points and the white line model point sequence in FIG. In Steps 117 to 119, Step 116
The calculation of Expression (11) is executed from the detection result of the white line candidate points in. Step 120 corresponds to the parameter variation calculation unit 14. In step 120, the latest parameters ae are determined by the equation (10). Step 1
Reference numeral 21 corresponds to the correction unit 15 that corrects the previous parameter based on the variation amount in FIG. In step 121, the old parameters a to e are replaced with the latest parameters. Step 122 is included in the white line candidate point detection unit 12 in FIG. In step 122, the position where the window should be set in the next road surface image is obtained based on the latest parameters. Step 123 is included in the correction unit 15 that corrects the previous parameter based on the variation amount in FIG. In step 123, each value of the road parameter of the expression (6) is obtained from the latest parameter and output.

【0059】ステップ122におけるウインド更新処理
は、図6のフローチャートに従って実行される。図6に
おいて、ステップ131では、図9の(a)のi=0、
1の白線における路面画像26上で最も高い(自車両か
ら最も遠い)位置の白線候補点を検出するj=0のウイ
ンドウ21について、ウインドウ21を設定すべき高さ
位置yが設定される。ステップ132で処理の初期化が
行われ、ステップ133〜136を通じて、図9の
(a)のウインドウ21の高さ位置y1ijを初めに与え
て、高さ位置y1ij、y2ijで白線が通過すべきx座標
x1wij、x2wijが計算される。路面画像上のx座標
x1wij、x2wijを中心とする所定の幅(図9の
(b)に置けるw1ij、W2IJの2倍)をウインドウが
占める。ステップ133〜137を繰り返して、検出す
べきm本の白線に対する同じ高さ位置yのウインドウの
設定位置を定めた後に、路面画像上で一段低い隣接位置
のウインドウを設定する。ステップ133〜139を通
じて、m本の白線のそれぞれにn個づつのウインドウが
設定される。
The window update processing in step 122 is executed according to the flowchart of FIG. 6, in step 131, i = 0 of (a) of FIG. 9,
The height position y at which the window 21 should be set is set for the window 21 of j = 0 for detecting the white line candidate point at the highest position (farthest from the own vehicle) on the road image 26 on the white line 1 of FIG. In step 132, the process is initialized, and through steps 133 to 136, the height position y1ij of the window 21 in FIG. The coordinates x1wij and x2wij are calculated. The window occupies a predetermined width (twice as large as w1ij and W2IJ in FIG. 9B) centering on the x-coordinate x1wij and x2wij on the road surface image. Steps 133 to 137 are repeated to determine the setting position of the window at the same height position y with respect to the m white lines to be detected, and then the window at the next lower position on the road surface image is set. Through steps 133 to 139, n windows are set for each of the m white lines.

【0060】図5のフローチャートにおいて、発明の検
出パラメータ保持手段はステップ121に、発明の白線
候補点検出手段はステップ116に、発明のパラメータ
補正手段はステップ117〜120にそれぞれ対応す
る。
In the flowchart of FIG. 5, the detection parameter holding means of the invention corresponds to step 121, the white line candidate point detection means of the invention corresponds to step 116, and the parameter correction means of the invention corresponds to steps 117 to 120.

【0061】以上説明した第1実施例の走行路検出装置
では、最新のパラメータ記述式でウインドウを更新しつ
つ、白線を連続的に追従して必要な道路パラメータを出
力し続ける。このとき、路面画像の座標系における線形
演算処理のみで道路パラメータが直接に求まり、データ
の座標変換に関する演算を必要としないから、従来例の
走行路検出装置に比較して、演算負荷が軽減される。ま
た、自車両とともに原点が移動する座標系で白線の三次
元形状の近似式を記述したので、簡単な二次曲線式によ
る近似でも、道路パラメータの推定結果に十分に実用的
な精度を確保できる。そして、この近似式によれば、自
動運転や種々の警報に関して高い精度が要求される「自
車両に近い部分」について、道路パラメータを精度高く
求めることができる。また、最小二乗法を採用したか
ら、比較的に少ない数の白線候補点でも道路パラメータ
の実用的な精度を確保できる。従って、最小二乗法のマ
トリクス演算を含むにもかかわらず、データ数を少なく
して、必要な演算数をあまり多くしないで済む。さら
に、白線位置の推定によってウインドウを無駄なく白線
に割り当てるから、少ない数のウインドウでもデータ不
足によって道路パラメータを決定し損なうことが無い。
In the traveling road detecting apparatus according to the first embodiment described above, the window is updated with the latest parameter description formula, and the white line is continuously followed to continuously output the required road parameters. At this time, the road parameters can be directly obtained only by the linear calculation processing in the coordinate system of the road surface image, and the calculation related to the coordinate conversion of the data is not required. It Also, since the approximate expression of the three-dimensional shape of the white line is described in the coordinate system in which the origin moves with the own vehicle, even a simple quadratic curve approximation can secure sufficient practical accuracy for the road parameter estimation result. . Then, according to this approximate expression, road parameters can be obtained with high accuracy for the “portion near the own vehicle” that requires high accuracy for automatic driving and various warnings. Further, since the least squares method is adopted, the practical accuracy of the road parameters can be secured even with a relatively small number of white line candidate points. Therefore, although the least squares matrix operation is included, it is possible to reduce the number of data and not to increase the required number of operations. Further, since the window is allocated to the white line without waste by estimating the position of the white line, the road parameter will not be lost due to lack of data even with a small number of windows.

【0062】第1実施例の走行路検出装置では、また、
白線候補点の確からしさを加味してパラメータを決定す
るから、ウインドウから白線が外れた場合にはそのウイ
ンドウの検出結果が無視され、そのウインドウによる間
違いデータが道路パラメータの推定結果に悪影響を及ぼ
さない。また、白線候補点の確からしさによって、自車
両に近くて路面画像上で明確な白線部分から求めた精度
の高いデータが重く用いられることになり、求めた道路
パラメータの精度が高まる。また、急激な車線変更等で
自車両に近い位置のウインドウから白線が外れた場合で
も、遠方の白線部分はウインドウから外れないから、遠
方の白線部分の検出結果に基づいて道路モデルが次第に
修正され、遠い位置の白線部分から順次ウインドウ内に
自動復帰して、自車両に近い位置のウインドウも白線を
再度捕捉できる。そして、その復帰の期間中、出力され
る道路パラメータの精度が向上し続ける。
In the traveling road detecting apparatus of the first embodiment,
Since the parameter is determined by considering the certainty of the white line candidate points, if the white line deviates from the window, the detection result of that window is ignored and the error data by that window does not adversely affect the road parameter estimation result. .. Further, due to the certainty of the white line candidate points, highly accurate data obtained from the clear white line portion on the road surface image close to the own vehicle is heavily used, and the accuracy of the obtained road parameter is increased. Also, even if the white line deviates from the window near the vehicle due to a sudden lane change, etc., the far white line portion will not fall out of the window, so the road model will be gradually corrected based on the detection result of the far white line portion. , The white line part at a distant position is automatically returned to the window, and the white line can be captured again in the window near the host vehicle. Then, the accuracy of the output road parameters continues to improve during the return.

【0063】図10〜図13を用いて第2実施例を説明
する。図10は構成の説明図、図11は白線検出本数切
り替えのフローチャート、図12は道路白線検出の例を
示した説明図、図13はウインドウの設定を示した説明
図である。ここでは、車線幅内の自車両位置に応じてウ
インドウ設定を変更している。なお、道路モデルの設
定、ウインドウ処理、道路パラメータの推定方法等につ
いては第1実施例と共通しており、重複する説明を省略
している。
A second embodiment will be described with reference to FIGS. 10 is an explanatory diagram of the configuration, FIG. 11 is a flowchart for switching the number of white line detection lines, FIG. 12 is an explanatory diagram showing an example of road white line detection, and FIG. 13 is an explanatory diagram showing window settings. Here, the window setting is changed according to the position of the own vehicle within the lane width. Note that the setting of the road model, the window processing, the method of estimating the road parameters, etc. are common to the first embodiment, and duplicate explanations are omitted.

【0064】図10において、撮像部41は、車両の前
方風景を撮影して路面画像を採取する。画像処理部42
は、撮影した路面画像から走行レーンを表す白線や前方
の先行車両の特徴を抽出する。白線候補点検出部43
は、画像処理部42によって処理された路面画像の画面
中に直線検出用の小領域(ウインドウ)をいくつか設定
して、各々の領域内で最も路面上の白線らしい線分を検
出して、その端点の座標と白線候補点の確からしさとを
求める。道路パラメータ推定部44は、白線候補点検出
部43によって検出された白線候補点の位置情報から、
道路モデルのパラメータを算出する。また、道路の三次
元形状を記述する道路パラメータを演算して出力する。
自車偏位判断部45は、道路パラメータ推定部44によ
って算出されたパラメータと既知の定数から自車両が走
行レーンのどの位置を走行しているのかを判断する。白
線検出本数設定部46は、自車偏位判断部45によって
検出された自車両の走行位置から、次画面の白線検出に
おいて検出すべき白線の本数を設定する。白線候補点検
出領域設定部47は、道路パラメータ推定部44によっ
て算出される道路パラメータと、白線検出本数設定部4
6によって設定される白線検出本数から次画面の白線候
補点検出のための小領域(ウインドウ)の数や位置を設
定する。
In FIG. 10, the image pickup section 41 photographs the scenery in front of the vehicle and collects a road surface image. Image processing unit 42
Extracts the white line representing the driving lane and the characteristics of the preceding vehicle ahead in the captured road surface image. White line candidate point detection unit 43
Sets some small areas (windows) for straight line detection in the screen of the road surface image processed by the image processing unit 42, detects the line segment most likely to be a white line on the road surface in each area, The coordinates of the end points and the certainty of the white line candidate points are obtained. The road parameter estimation unit 44 uses the position information of the white line candidate points detected by the white line candidate point detection unit 43,
Calculate the parameters of the road model. It also calculates and outputs road parameters that describe the three-dimensional shape of the road.
The host vehicle deviation determination unit 45 determines which position in the travel lane the host vehicle is traveling from the parameter calculated by the road parameter estimation unit 44 and a known constant. The white line detection number setting unit 46 sets the number of white lines to be detected in the white line detection on the next screen from the traveling position of the own vehicle detected by the own vehicle deviation determination unit 45. The white line candidate point detection area setting unit 47 includes the road parameters calculated by the road parameter estimation unit 44 and the white line detection number setting unit 4.
From the number of white line detection lines set by 6, the number and position of small areas (windows) for detecting white line candidate points on the next screen are set.

【0065】図11に白線検出本数切り替えのフローチ
ャートを示す。第1実施例の場合と同様に、図10の各
機能は、1個の演算装置を時分割して順番に実行され
る。以下、図11のフローチャートに従って説明する。
FIG. 11 shows a flowchart for switching the number of white line detection lines. Similar to the case of the first embodiment, each function of FIG. 10 is sequentially executed by time-sharing one arithmetic unit. Hereinafter, description will be given according to the flowchart of FIG.

【0066】図12の(a)は、前方走行風景の路面画
像から自車両走行レーンを表す2本の白線25A、25
Bを検出している例である。ステップ401は、図10
の撮像部41に対応する。ステップ401では、CCD
カメラ等の撮像装置によって撮影された入力画像が演算
装置のメモリに取り込まれる。ステップ402は図10
の画像処理部42に対応する。ステップ402では、入
力画像データに対して例えば「sobelオペレータ」
等による縦横エッジ検出の画像加工を実行し、白線や先
行車両の特徴を強調するような処理が施される。ステッ
プ403は、図10の白線候補点検出領域設定部47に
含まれる。ステップ403では、前画面での処理結果に
基づいて、図12の(a)または(b)に示すように、
白線検出の小領域(以下ウインドウ21A、21Bとす
る)を設定する。ステップ404、405は、図10の
白線候補点検出部43に対応する。ステップ404でそ
れぞれのウインドウ21A、21Bについて直線検出を
実行し、ステップ405で最も白線らしい線分の端点の
座標(図2のx1ij、x2ij)と、その白線としての確
からしさ(図8のPmax )とを検出する。
FIG. 12 (a) shows two white lines 25A, 25 representing the traveling lane of the own vehicle from the road surface image of the forward traveling scenery.
This is an example in which B is detected. Step 401 is shown in FIG.
Corresponding to the image pickup unit 41. In step 401, the CCD
An input image taken by an imaging device such as a camera is taken into the memory of the arithmetic device. Step 402 is shown in FIG.
Of the image processing unit 42. In step 402, for example, "sobel operator" is applied to the input image data.
Image processing for vertical / horizontal edge detection is performed by such as, and processing for emphasizing the features of the white line and the preceding vehicle is performed. Step 403 is included in the white line candidate point detection area setting unit 47 in FIG. In step 403, based on the processing result on the previous screen, as shown in (a) or (b) of FIG.
A small area for white line detection (hereinafter referred to as windows 21A and 21B) is set. Steps 404 and 405 correspond to the white line candidate point detection unit 43 in FIG. In step 404, straight line detection is executed for each of the windows 21A and 21B, and in step 405, the coordinates of the end points of the line segment that are most likely to be a white line (x1ij and x2ij in FIG. 2) and their certainty as a white line (Pmax in FIG. 8). Detect and.

【0067】ステップ404における各ウインドウ内の
直線検出は、図8を用いて説明した第1実施例の場合と
同様な手順で実行される。図8の(a)に示すように、
ウインドウ21の形状として台形を設定し、上底の一点
と下底の一点とを結んでできるすべての線分について、
図8の(b)に示す手順で、線分上の画素のエッジ画像
での濃度値の和を算出する。そして、その和が最も大き
い線分をそのウインドウ内の検出直線とする。なお、こ
こでは、濃度値の和が最も小さい線分を検出直線として
も白線候補点の位置情報を求めることが可能である。そ
して、次のステップ405では、この線分の端点の座標
と、濃度値の和(図8のPmax )を検出結果として保持
する。濃度値の和は、白線としての確からしさのパラメ
ータとなる。
The straight line detection in each window in step 404 is executed by the same procedure as in the case of the first embodiment described with reference to FIG. As shown in (a) of FIG.
A trapezoid is set as the shape of the window 21, and for all line segments formed by connecting one point on the upper bottom to one point on the lower bottom,
By the procedure shown in FIG. 8B, the sum of the density values in the edge image of the pixels on the line segment is calculated. Then, the line segment having the largest sum is set as the detection straight line in the window. Here, the position information of the white line candidate points can be obtained even if the line segment having the smallest sum of the density values is used as the detection straight line. Then, in the next step 405, the sum of the coordinates of the end points of this line segment and the density value (Pmax in FIG. 8) is held as the detection result. The sum of the density values serves as a parameter of certainty as a white line.

【0068】ステップ406、407は、図10の道路
パラメータ推定部44に対応する。図12の(a)のす
べてのウインドウ21A、21Bについて検出結果が求
められたら、ステップ406において、これらをもとに
道路モデルのパラメータa〜eの変動量Δa〜Δeを最
小二乗法により算出する。そして、ステップ407で
は、求められた変動量Δa〜Δeにより、パラメータa
〜eを前述の(10)式のように更新する。このよう
に、道路パラメータを更新することで道路白線を追従検
出できる。また、図2に示すように、更新するパラメー
タは、すべての検出白線に共通なパラメータであるの
で、白線検出本数mが増えても白線候補点の個数が変化
しなければ、処理速度は変化しない。
Steps 406 and 407 correspond to the road parameter estimating section 44 of FIG. When the detection results have been obtained for all the windows 21A and 21B in FIG. 12A, in step 406, the fluctuation amounts Δa to Δe of the parameters a to e of the road model are calculated by the least square method based on these. . Then, in step 407, the parameter a is calculated according to the calculated fluctuation amounts Δa to Δe.
~ E are updated as in the above equation (10). In this way, by updating the road parameter, the road white line can be detected following. Further, as shown in FIG. 2, since the parameters to be updated are common to all the detected white lines, the processing speed does not change unless the number of white line candidate points changes even if the white line detection number m increases. .

【0069】このとき、パラメータaとeの値に注目す
る。前述したように、パラメータaは走行中の車線の左
端から自車両までの距離、パラメータeは車線幅に関連
付けられているので、両者の和(a+e)は、自車両が
走行レーンのどの位置を走行しているかを示す。そし
て、自車両が車線中央を走行していれば図12の(a)
のように2本の白線25A、25Bを検知するが、自車
両が車線の端を走行していれば、図12の(b)のよう
に3本の白線25A、25B、25Cを検知させる。具
体的には、ステップ408で現在の白線検出本数mを判
別し、2本の場合にはステップ409で次の(13)式
のようなしきい値th1、th2を設定し、このしきい
値を越えたらステップ410で、図12の(b)に示す
ように、白線検出本数mを3本に改める。ステップ40
9、410は、図10の自車偏位判断部45および白線
検出本数設定部46に含まれる。
At this time, pay attention to the values of the parameters a and e. As described above, the parameter a is associated with the distance from the left end of the running lane to the host vehicle, and the parameter e is associated with the lane width. Indicates whether you are driving. If the vehicle is traveling in the center of the lane, (a) in FIG.
The two white lines 25A, 25B are detected as described above, but if the host vehicle is traveling at the edge of the lane, the three white lines 25A, 25B, 25C are detected as shown in FIG. 12B. Specifically, in step 408, the current white line detection number m is determined. In the case of two lines, in step 409, thresholds th1 and th2 as in the following equation (13) are set, and this threshold value is set. When it exceeds, in step 410, the white line detection number m is changed to 3 as shown in FIG. Step 40
9, 410 are included in the own vehicle deviation determination unit 45 and the white line detection number setting unit 46 of FIG.

【数10】 ここで、しきい値th1、th2に制限を設けたのは、
この値を越えると撮像位置が車線を越えてしまい、自車
両の一部が隣のレーンに入ってから3本検出に切り替わ
るようになってしまうからである。このように、0より
大きくeより小さいしきい値を用いることで、自車両の
一部が隣のレーンに入る前に3本検出に切り替えられ、
自車両走行レーンと車線変更後の走行レーンの2つの領
域を認識することができる。
[Equation 10] Here, the thresholds th1 and th2 are limited as follows.
If this value is exceeded, the imaging position will cross the lane, and a part of the vehicle will switch to three-line detection after entering the adjacent lane. As described above, by using the threshold value larger than 0 and smaller than e, the detection of three vehicles is switched before a part of the own vehicle enters the adjacent lane,
It is possible to recognize two regions, the own vehicle traveling lane and the traveling lane after the lane change.

【0070】ステップ411、412は、図10の自車
偏位判断部45および白線検出本数設定部46に含まれ
る。図12の(b)のように白線検出本数mを3本とし
ている場合に、ステップ411で次の(14)式のよう
なしきい値th3、th4を設定し、このしきい値を越
えたら、ステップ412で、図12の(a)のように白
線検出本数mを2本にする。
Steps 411 and 412 are included in the own vehicle deviation determining section 45 and the white line detection number setting section 46 of FIG. When the number of white line detections m is 3 as shown in FIG. 12B, thresholds th3 and th4 as shown in the following equation (14) are set in step 411, and when the thresholds are exceeded, In step 412, the white line detection number m is set to 2 as shown in FIG.

【数11】 ここで、th3、th4に制限を設けたのは、少なくと
もこの値を越えると自車両は完全に車線変更を完了して
いるからである。以上の設定により、自車両が車線を変
更しようとした際に、自車両が走行レーンの片側に寄っ
た時点で変更先の車線領域を認識するようになるので、
例えば、前方障害物の検出等を行う場合に、危険度の判
定に遅れを生じることがなくなる。ステップ413は、
図10の白線候補点検出領域設定部47に対応する。最
後に、ステップ413では、今回の検出結果をもとに次
回の画面に対するウインドウの数、位置、大きさを決定
し、ウインドウ設定を更新する。
[Equation 11] Here, the reason that the limits are set for th3 and th4 is that the own vehicle has completed the lane change at least when this value is exceeded. With the above settings, when the own vehicle tries to change the lane, the lane area of the change destination will be recognized when the own vehicle approaches one side of the driving lane.
For example, when a front obstacle is detected, there is no delay in determining the risk level. Step 413 is
This corresponds to the white line candidate point detection area setting unit 47 in FIG. Finally, in step 413, the number, position, and size of windows for the next screen are determined based on the detection result of this time, and the window settings are updated.

【0071】次に、ウインドウの大きさや位置の設定方
法について説明する。図13の(a)は白線検出本数m
が2本のときのウインドウ設定方法の説明図である。路
面画像の画面における消失点50の近くは画素による量
子化誤差が大きくなるので、道路モデルより求められた
消失点のy座標より数画素(例えば6画素)下の領域か
らウインドウ51を設定する。また、消失点から遠ざか
る位置にウインドウ51を設定するに従って、ウインド
ウ51のy方向の長さが長くなるように設定する。これ
は、画面の下側ほど自車両の近くの画像になるので明瞭
に映っているからである。前述したように、ウインドウ
51内の直線検出において、線分上のエッジ画像の画素
の濃度和がその端点の白線候補点の確からしさとして用
いられるので、ウインドウ51を長くすれば線分も長く
なり、長いウインドウ51で検出したほうが短いウイン
ドウ51で検出するよりも白線候補点の確からしさは大
きくなる。従って、明瞭に映っている部分の白線候補点
の確からしさを大きくするために、このようなウインド
ウ設定を行う。
Next, a method of setting the size and position of the window will be described. 13A shows the number of white lines detected m
It is explanatory drawing of the window setting method when there are two. Since the quantization error due to pixels becomes large near the vanishing point 50 on the screen of the road surface image, the window 51 is set from a region several pixels (for example, 6 pixels) below the y coordinate of the vanishing point obtained from the road model. Further, as the window 51 is set at a position away from the vanishing point, the length of the window 51 in the y direction is set longer. This is because the lower the screen is, the closer the image is to the own vehicle, and the clearer the image is. As described above, in the straight line detection in the window 51, the sum of the densities of the pixels of the edge image on the line segment is used as the certainty of the white line candidate point at the end point. Therefore, if the window 51 is made longer, the line segment also becomes longer. The probability of white line candidate points is greater when detected in the long window 51 than when detected in the short window 51. Therefore, in order to increase the certainty of the white line candidate points in the clearly reflected portion, such window setting is performed.

【0072】同様に、図13の(b)は、白線検出本数
mが3本のときのウインドウ設定の説明図である。路面
画像の画面における消失点50の近くは図13の場合と
同じ理由でウインドウを設定せず、数画素下から設定す
る。3本の白線を検出対象とする場合は、両側の2本の
白線は水平に近くなり、自車両から見て遠くの地点の白
線を検出することになるので、ウインドウ52のy方向
の長さを短くする。反対に、中央の1本は自車両近くの
地点の白線であるので、ウインドウ53のy方向も長く
とって中央の白線の白線候補点の重み付けを大きくす
る。以上のようにウインドウ52、53の大きさと位置
を設定することで、より確からしい道路形状推定が行え
るようになる。
Similarly, FIG. 13B is an explanatory diagram of the window setting when the number of white line detection lines m is three. For the same reason as in the case of FIG. 13, a window is not set near the vanishing point 50 on the screen of the road surface image, but is set from several pixels below. When three white lines are to be detected, the two white lines on both sides are close to horizontal, and the white line at a point far from the own vehicle is detected. Therefore, the length of the window 52 in the y direction is long. Shorten. On the contrary, since the center line is the white line near the host vehicle, the y-direction of the window 53 is set to be long and the weight of the white line candidate point of the center white line is increased. By setting the sizes and positions of the windows 52 and 53 as described above, a more reliable road shape estimation can be performed.

【0073】次に、ウインドウの設定数について説明す
る。前述したように、道路モデルのパラメータとしてす
べての検出白線に共通な道路曲率や車線幅、自車両の姿
勢等に相当するものを用いているので、道路モデル算出
の処理速度は白線検出本数ではなく、白線候補点の数に
依存する。従って、白線検出本数が増えても1画面中の
ウインドウ設定数が大きく変化しなければ、処理速度は
影響を受けない。図13の(a)と(b)を比較する
と、(a)の画面ではウインドウの数が白線1本につき
6つであるのに対し、(b)の画面では白線1本につき
4つである。従って、検出すべき白線の本数は3/2倍
になっているが、1画面あたりの合計のウインドウ数は
変化していないので、両者の処理時間は等しくなる。
Next, the set number of windows will be described. As described above, the road model parameters used are those that are common to all detected white lines, such as road curvature, lane width, and the posture of the host vehicle. , White line depends on the number of candidate points. Therefore, even if the number of white line detections increases, the processing speed is not affected unless the number of windows set in one screen changes significantly. Comparing (a) and (b) of FIG. 13, the number of windows is 6 per white line on the screen of (a), whereas it is 4 per white line on the screen of (b). . Therefore, the number of white lines to be detected is 3/2 times, but the total number of windows per screen has not changed, so that the processing times of both are equal.

【0074】図11のフローチャートにおいて、発明の
撮像入力手段はステップ401〜402に、道路パラメ
ータ推定手段はステップ406〜407に、発明の白線
候補点検出手段はステップ403〜405に、発明の白
線候補点検出領域設定手段はステップ403に、発明の
自車偏位判断手段はステップ409、411に、発明の
白線候補点検出領域設定手段はステップ413にそれぞ
れ対応する。以上説明した第2実施例の走行路検出装置
では、車線幅内の自車両位置に応じて白線検出本数を切
り替え、さらに、3本の場合には中央の白線を重視した
ウインドウ設定を行うから、遠ざかる側の白線に設定し
たウインドウから得た「精度の低い検出データ」が道路
パラメータの推定結果に悪影響を及ぼさない。これによ
り、出力される道路パラメータの精度が高く維持され
る。また、白線検出本数が増しても画面中のウインドウ
数が変化しないように1本の白線ごとのウインドウを設
定することで、演算装置の処理速度に影響を与えない。
In the flowchart of FIG. 11, the image capturing input means of the invention is steps 401 to 402, the road parameter estimating means is steps 406 to 407, the white line candidate point detecting means of the invention is steps 403 to 405, and the white line candidates of the invention. The point detection area setting means corresponds to step 403, the vehicle deviation determination means of the invention corresponds to steps 409 and 411, and the white line candidate point detection area setting means of the invention corresponds to step 413. In the traveling road detection device of the second embodiment described above, the number of white line detection lines is switched according to the position of the vehicle within the lane width, and in the case of three, the window setting with emphasis on the central white line is performed. The “inaccurate detection data” obtained from the window set on the white line on the far side does not adversely affect the road parameter estimation result. As a result, the accuracy of the output road parameter is maintained high. Further, by setting the window for each white line so that the number of windows in the screen does not change even if the number of white lines detected increases, the processing speed of the arithmetic unit is not affected.

【0075】図14〜図16を用いて第3実施例を説明
する。図14は第3実施例の構成を示すブロック図、図
15は第3実施例の作用、図16は車線逸脱の警報の説
明図である。ここでは、第2実施例と同等の機能に2つ
の警報機能が付加される。1つは車線変更時の運転者の
不注意に対する警報であり、他の1つは車線変更しよう
とする隣接車線の前方障害物に対する衝突の可能性の警
報である。
A third embodiment will be described with reference to FIGS. FIG. 14 is a block diagram showing the configuration of the third embodiment, FIG. 15 is an operation of the third embodiment, and FIG. 16 is an explanatory diagram of a lane departure warning. Here, two alarm functions are added to the function equivalent to that of the second embodiment. One is a warning for the driver's carelessness when changing lanes, and the other is a warning for the possibility of a collision with an obstacle ahead of an adjacent lane to change lanes.

【0076】図14において、画像入力部61は、図示
しないCCDカメラが撮影した路面画像を取り込む。エ
ッジ抽出部62は、路面画像をエッジ画面に変換して白
線や先行車両の特徴を際立たせる。直線検出領域設定部
63は、前画面の処理結果による道路パラメータと白線
検出本数設定に基づいて、エッジ画面上に複数のウイン
ドウを設定する。白線候補点検出部64は、それぞれの
ウインドウについて直線検出を実行して、複数の白線候
補点の座標値と確からしさのパラメータを保持する。道
路パラメータ算出部65では、白線候補点のデータから
道路モデルのパラメータを更新し、更新されたパラメー
タは、直ちに直線検出領域設定部63、車線変更判断部
66、車線領域認識部69へと送出される。
In FIG. 14, the image input unit 61 takes in a road surface image taken by a CCD camera (not shown). The edge extraction unit 62 converts the road surface image into an edge screen to highlight the white line and the characteristics of the preceding vehicle. The straight line detection area setting unit 63 sets a plurality of windows on the edge screen based on the road parameters and the number of white line detection lines set based on the processing result of the previous screen. The white line candidate point detection unit 64 executes straight line detection for each window, and holds the coordinate values of a plurality of white line candidate points and the parameter of the certainty. The road parameter calculation unit 65 updates the parameters of the road model from the data of the white line candidate points, and the updated parameters are immediately sent to the straight line detection region setting unit 63, the lane change determination unit 66, and the lane region recognition unit 69. It

【0077】車線変更判断部66では、道路パラメータ
のうち車線幅に相当するものと自車両の偏位に相当する
ものとを用いて、自車両が車線変更の動作をしている否
かを判断する。このとき、方向指示判断部73はドライ
バーが方向指示器を操作しているか否かを判断し、自車
両が方向指示器を出さずに白線を跨ごうとしている場合
には、警報発生部75を起動してドライバーに対して警
報を出力させる。
The lane change judging section 66 judges whether or not the own vehicle is in the lane change operation by using the road parameters corresponding to the lane width and those corresponding to the deviation of the own vehicle. To do. At this time, the direction indicator determining unit 73 determines whether or not the driver is operating the direction indicator, and when the host vehicle is trying to cross the white line without displaying the direction indicator, the alarm generator 75 It activates and outputs an alarm to the driver.

【0078】また、車線変更判断部66の判断結果によ
り、白線検出本数設定部67は、第2実施例の場合と同
様に、次画面での白線の検出本数を設定し、設定値を直
線検出領域設定部63に送る。さらに、白線検出本数設
定部67における白線の検出本数の設定値に応じて、認
識車線数判断部68は、車線領域認識部69が次画面の
車線認識において認識すべき車線領域の数を判断する。
白線の検出本数が2本の場合には、認識すべき車線は自
車線の1本のみであるが、白線の検出本数が3本の場合
には、認識すべき車線は自車線と隣接車線の2本とされ
る。この判断結果が車線領域認識部69に送出される。
Further, according to the judgment result of the lane change judging section 66, the white line detection number setting section 67 sets the number of white lines detected on the next screen and detects the set value by a straight line, as in the case of the second embodiment. It is sent to the area setting unit 63. Further, according to the set value of the number of white lines detected in the white line detection line number setting unit 67, the recognized lane number determination unit 68 determines the number of lane regions that the lane region recognition unit 69 should recognize in the lane recognition on the next screen. .
When the number of white lines detected is two, the lane to be recognized is only one of the own lanes, but when the number of white lines detected is three, the lanes to be recognized are the own lane and the adjacent lane. There are two. This determination result is sent to the lane area recognition unit 69.

【0079】車線領域認識部69は、画面上の自車線
と、認識車線数が2車線であれば設定された隣接車線の
領域とをエッジ画面上で認識する。そして、各々の領域
について、自車線については自車線上障害物検出部70
が、隣接車線については隣車線上障害物検出部71がそ
れぞれ先行車両等の障害物を検出する。自車線上障害物
検出部70で障害物が検出された場合、衝突可能性判断
部74において、自車両が検出された障害物と衝突する
かどうかを判断し、衝突する可能性が高いと判断したと
きは、警報発生部75からドライバーに対して警報を出
力させる。
The lane area recognizing section 69 recognizes the own lane on the screen and the area of the adjacent lane set when the number of recognized lanes is two on the edge screen. For each area, the obstacle detection unit 70 on the own lane
However, for adjacent lanes, the obstacle detection unit 71 on the adjacent lane detects an obstacle such as a preceding vehicle. When an obstacle is detected by the on-lane obstacle detection unit 70, the collision possibility determination unit 74 determines whether the own vehicle collides with the detected obstacle and determines that there is a high possibility of collision. In this case, the alarm generator 75 outputs an alarm to the driver.

【0080】一方、自車両が隣接車線側の白線に接近す
ると、白線検出本数が3本となるとともに、隣車線上障
害物検出部71によって、車線変更しようとする隣接車
線の前方の障害物が検出されるようになる。隣接車線に
先行車両等の障害物が検出された場合、車線変更可否判
断部72において、車間距離、自車両および先行車両の
相対速度等を加味して、自車両が検出された障害物と衝
突するかどうかを判断する。そして、衝突する可能性が
高いと判断したときは警報発生部75に警報を出力させ
る。なお、警報発生部75では、(1)方向指示の無い
車線変更、(2)自車線の先行車両との衝突可能性の増
大、(3)車線変更の不可能、という警報すべき3つの
状態のいずれに相当するかによって警報内容を変えてお
り、どの状態の警報が発生しているかをドライバーが瞬
時に判別できる。
On the other hand, when the host vehicle approaches a white line on the adjacent lane side, the number of white lines detected becomes three, and the obstacle detection unit 71 on the adjacent lane detects an obstacle ahead of the adjacent lane to be changed lanes. It will be detected. When an obstacle such as a preceding vehicle is detected in an adjacent lane, the lane change permission / inhibition determination unit 72 considers the inter-vehicle distance, the relative speed of the own vehicle and the preceding vehicle, and the like, and the own vehicle collides with the detected obstacle. Decide whether to do it. Then, when it is determined that the possibility of collision is high, the alarm generation unit 75 is caused to output an alarm. In the alarm generation unit 75, there are three states to be alarmed: (1) lane change without direction indication, (2) increased possibility of collision with preceding vehicle in own lane, and (3) lane change impossible. The content of the alarm is changed depending on which one corresponds to, and the driver can instantly determine in which state the alarm is generated.

【0081】なお、発明の撮像入力手段は、画像入力部
61およびエッジ抽出部62に対応し、発明のパラメー
タ推定手段は道路パラメータ算出部65に対応する。発
明の白線候補点検出手段は白線候補点検出部64、発明
の白線候補点検出領域設定手段は白線検出本数設定部6
7および直線検出領域設定部、発明の自車偏位判断手段
は車線変更判断部66に対応する。発明の方向指示判断
手段は方向指示判断部73、発明の警報発生手段は警報
発生部75に対応する。発明の車線領域認識手段は車線
領域認識部69、発明の自車線障害物検出手段は自車線
上障害物検出部70、発明の衝突可能性判断手段は衝突
可能性判断部74に対応する。発明の隣接車線障害物検
出手段は隣接車線上障害物検出部71、発明の車線変更
可否判断手段は、車線変更可否判断部72に対応する。
The imaging input means of the invention corresponds to the image input section 61 and the edge extraction section 62, and the parameter estimation means of the invention corresponds to the road parameter calculation section 65. The white line candidate point detection means of the invention is a white line candidate point detection section 64, and the white line candidate point detection area setting means of the invention is a white line detection number setting section 6.
7, the straight line detection area setting unit, and the own vehicle deviation determination means of the invention correspond to the lane change determination unit 66. The direction instruction determining unit of the invention corresponds to the direction instruction determining unit 73, and the alarm generating unit of the invention corresponds to the alarm generating unit 75. The lane area recognition unit of the invention corresponds to the lane area recognition unit 69, the own lane obstacle detection unit of the invention corresponds to the on-lane obstacle detection unit 70, and the collision possibility judgment unit of the invention corresponds to the collision possibility judgment unit 74. The adjacent lane obstacle detection unit of the invention corresponds to the adjacent lane obstacle detection unit 71, and the lane change availability determination unit of the invention corresponds to the lane change availability determination unit 72.

【0082】以上の構成により、第3実施例では、ドラ
イバーの意思によらない車線逸脱の警報と、車線変更に
も対応した前方障害物警報が実現できる。図15の
(a)は自車両が走行レーンL1のほぼ中央を走行して
いる場合の前方風景であり、自車両の走行レーンL1を
表わす2本の白線を検出対象としている。ここで、走行
レーンL1領域のみ認識している場合には、車両76が
走行レーンL1の前方を走行している車両であることは
認識できる。しかし、他の車両77については、走行レ
ーンL1にいないことは判るが、図15の(b)に示す
ように隣のレーンL2を走行しているのか、図15の
(c)に示すようにさらに外側のレーンL3を走行して
いるのかは判別できない。しかし、この第3実施例にお
いては、隣の走行レーンL2へ車線変更しようとした場
合、自車両が走行レーンL1の右側白線にある程度寄っ
た時点で隣のレーンL2を認識できるので、自車両の一
部が隣のレーンL2に入る前に車両77が隣のレーンL
2に存在しているかどうかが判断できる。従って、車線
変更やレーン逸脱の危険度を早期に判定できる。
With the above configuration, in the third embodiment, it is possible to realize a lane departure warning that does not depend on the driver's intention and a front obstacle warning that also corresponds to a lane change. FIG. 15 (a) is a front view when the host vehicle is traveling in substantially the center of the travel lane L1, and two white lines representing the travel lane L1 of the host vehicle are detection targets. Here, when only the traveling lane L1 region is recognized, it can be recognized that the vehicle 76 is a vehicle traveling in front of the traveling lane L1. However, although it is understood that the other vehicle 77 is not in the traveling lane L1, it is traveling in the adjacent lane L2 as shown in FIG. 15B, or as shown in FIG. 15C. Further, it cannot be determined whether the vehicle is traveling in the outer lane L3. However, in the third embodiment, when an attempt is made to change the lane to the adjacent traveling lane L2, the adjacent lane L2 can be recognized when the own vehicle approaches the right white line of the traveling lane L1 to some extent. Vehicle 77 is next to lane L before part of it enters the next lane L2.
It is possible to judge whether or not it exists in 2. Therefore, the risk of lane change or lane departure can be determined early.

【0083】図16は車線逸脱の警報の説明図である。
ここでは、自車両が車線を逸脱しそうになった場合の路
面画像の状態が示される。運転者の異常(例えば居眠り
等)を検出した場合で、なおかつ車線を逸脱しそうな場
合に警報を発生させる。図16の(a)は自車両が走行
車線の中央を走行している場合、(b)は自車両が走行
車両の左端をはみ出しかかった状態である。(a)の状
態から自車両が矢印のように移動して、(b)の状態に
移行し、自車両の走行位置が白線に所定の限度を越えて
接近したと判断された場合、自動的に警報が出力され
る。この左側の白線については、白線モデルのパラメー
タaと、車線幅W、カメラ搭載位置(高さH0 、車体中
心)によって、次の(15)式の(W/2)+aH0 >
0の関係が成り立つときに車線を逸脱したと判断する。
これにより、運転者の不注意や居眠りに起因する事故発
生を予防できる。
FIG. 16 is an explanatory diagram of a lane departure warning.
Here, the state of the road surface image when the host vehicle is about to depart from the lane is shown. When a driver's abnormality (for example, dozing etc.) is detected and the driver is about to depart from the lane, an alarm is issued. 16A shows a state where the vehicle is traveling in the center of the traveling lane, and FIG. 16B shows a state where the vehicle is protruding from the left end of the traveling vehicle. If it is determined that the host vehicle has moved from the state shown in (a) as indicated by the arrow and has moved to the state shown in (b), and the traveling position of the host vehicle has approached the white line beyond a predetermined limit, then automatically. An alarm is output to. Regarding the white line on the left side, depending on the parameter a of the white line model, the lane width W, and the camera mounting position (height H0, center of vehicle body), (W / 2) + aH0 in the following equation (15)>
When the relationship of 0 is established, it is judged that the vehicle has deviated from the lane.
As a result, it is possible to prevent an accident from occurring due to the driver's carelessness or dozing.

【数12】 [Equation 12]

【0084】図17は第3実施例の変形例の説明図であ
る。ここでは、画像処理システムとマルチビーム型距離
センサを組み合わせて、図14の自車線上障害物検出部
70および隣接車線上障害物検出部71を構成する。画
像処理システムによって検出された路面画像上の複数の
車両位置に対して、マルチビームが計測した複数の車間
距離をそれぞれ対応させる。
FIG. 17 is an explanatory diagram of a modification of the third embodiment. Here, the image processing system and the multi-beam type distance sensor are combined to configure the on-lane obstacle detection unit 70 and the adjacent-lane obstacle detection unit 71 in FIG. A plurality of inter-vehicle distances measured by the multi-beam are made to correspond to a plurality of vehicle positions on the road surface image detected by the image processing system.

【0085】画像処理システムとレーザーレーダー等の
マルチビーム型距離センサを搭載して追突警報装置を構
成した車両において、自車両の車線変更時に前方車両と
の車間距離を計測した場合、自車両の車線に対するヨー
角が変化するので自車線の先行車両が自車両の正面前方
に存在しなくなり、左右どちらかのビームで計測される
距離が前方車両との車間距離になる可能性がある。この
とき、図17の(a)のように計測されている測距範囲
(エリア)A1の隣のレーンL1、L3にも車両76、
78が存在すると、測距データがどちらの車両を検出し
たものか判らなくなる。このような場合、測距センサの
受光部と撮像装置が車両に固定されていれば、図17の
(b)に示すように、画面上で測距センサの測距範囲A
1、A2、A3はそれぞれ限定できる。そして、この限
定関係に基づいて、自車両が自車線から隣接車線に車線
変更しようとする場合には、入力画面上の自車線と車線
変更先の隣接車線とを同時に認識して、入力画面上のど
の測距範囲に隣接車線の先行車両が属するかを識別す
る。そして、マルチビーム型距離センサによる複数の測
距データから必要な隣接車線の先行車両の測距データが
自動的に選択される。
In a vehicle having a rear-end collision warning device equipped with an image processing system and a multi-beam type distance sensor such as a laser radar, when the inter-vehicle distance to the preceding vehicle is measured when the lane of the own vehicle is changed, the lane of the own vehicle is measured. Since the yaw angle with respect to the vehicle changes, the preceding vehicle in the own lane may not exist in front of the front of the own vehicle, and the distance measured by either the left or right beam may be the inter-vehicle distance to the preceding vehicle. At this time, the vehicle 76 also appears in the lanes L1 and L3 adjacent to the distance measuring range (area) A1 measured as shown in FIG.
When 78 is present, it is impossible to know which vehicle is detected by the distance measurement data. In such a case, if the light receiving unit of the distance measuring sensor and the image pickup device are fixed to the vehicle, as shown in FIG. 17B, the distance measuring range A of the distance measuring sensor is displayed on the screen.
1, A2 and A3 can be limited respectively. Then, based on this limited relationship, when the own vehicle tries to change the lane from the own lane to the adjacent lane, the own lane on the input screen and the adjacent lane to which the lane is changed are recognized at the same time and the input screen is displayed. In which distance measuring range the preceding vehicle in the adjacent lane belongs is identified. Then, the required distance measurement data of the preceding vehicle in the adjacent lane is automatically selected from the plurality of distance measurement data obtained by the multi-beam type distance sensor.

【0086】図17の場合、車線変更時、測距範囲A2
による先行車両77の測距データが選択され、第3実施
例と同様な車線変更可否の判断と警報の処理が実行され
る。第3実施例の変形例によれば、路面画像から車間距
離を割り出す場合に比較して、はるかに正確な車間距離
の計測を実行でき、警報の信頼性が向上する。また、路
面画像から車間距離を割り出すプログラムを省略できる
から、演算装置の演算負荷が軽くなる。
In the case of FIG. 17, when the lane is changed, the distance measuring range A2
The distance measurement data of the preceding vehicle 77 is selected, and the same lane change determination and warning processing as in the third embodiment are executed. According to the modification of the third embodiment, the inter-vehicle distance can be measured much more accurately as compared with the case where the inter-vehicle distance is calculated from the road surface image, and the reliability of the alarm is improved. Further, since the program for calculating the inter-vehicle distance from the road image can be omitted, the calculation load of the calculation device can be reduced.

【0087】ところで、図38は第1実施例による白線
の近似状態の説明図である。(a)は路面画像、(b)
は、白線モデルの式(3)において、曲線か直線かを規
定するパラメータbを約300Rのときと、直線のとき
すなわちb=0のときの各y座標における差δxを描い
た線図である。図38の(a)において、第1実施例で
は、画像座標系上で複数のパラメータによって記述され
る白線モデル(曲線式)と入力された白線画像との差が
最小となるようなパラメータ変動量を推定することで、
モデルを更新しつつ(白線を追従しつつ)道路構造を推
定し続ける。ところが、自車線の先行車両との車間距離
が短くなって白線可視範囲が狭まると、先行車両に遮蔽
された遠方部分の白線を捕捉できなくなる。そして、白
線可視範囲内の白線候補点のデータだけでは、同じ前述
の(3)式のパラメータ記述式を用いてパラメータの推
定を実行しても、現在進行中の道路が直線であるのか曲
線であるのか識別が困難になる。そして、図38の
(b)に示すように、曲率の推定結果が著しく信頼性に
欠けるものとなり、推定結果を採用できないため曲率推
定に費やす時間が無駄になる。
By the way, FIG. 38 is an explanatory diagram of a white line approximation state according to the first embodiment. (A) is a road surface image, (b)
In the equation (3) of the white line model, is a diagram illustrating a difference δx at each y coordinate when the parameter b that defines a curve or a straight line is about 300R and when the parameter is a straight line, that is, when b = 0. . In FIG. 38 (a), in the first embodiment, the parameter variation amount that minimizes the difference between the white line model (curve formula) described by a plurality of parameters on the image coordinate system and the input white line image. By estimating
Continue to estimate the road structure while updating the model (following the white line). However, if the distance between the preceding lane and the preceding vehicle in the own lane is shortened and the visible range of the white line is narrowed, it is not possible to capture the white line in the distant portion shielded by the preceding vehicle. Then, with only the data of the white line candidate points within the visible range of the white line, even if the parameter estimation is executed using the same parameter description formula of the above-mentioned formula (3), whether the road currently in progress is a straight line or a curved line. It becomes difficult to identify if there is any. Then, as shown in (b) of FIG. 38, the curvature estimation result becomes extremely unreliable, and since the estimation result cannot be adopted, the time spent for curvature estimation is wasted.

【0088】そこで、次の第4実施例では、上記に対処
して白線モデルを切り換えることとした。図18〜図2
0を用いて第4実施例を説明する。図18は第4実施例
の全体の構成を示し、図19は全体処理のフローチャー
ト、図20はウインドウ更新のフローチャートである。
ここでは、図1に示した第1実施例の構成に複数の白線
モデルを切り換えて使用する部分が付加され、先行車両
によって白線が大きく遮蔽された場合には、第1実施例
の白線モデルをさらに簡略化した白線モデルを用いて道
路パラメータの推定を行う。なお、第1実施例の構成と
共通する部分には同一の参照番号を付して詳細な説明を
省略している。
Therefore, in the following fourth embodiment, the white line model is switched in response to the above. 18 to 2
The fourth embodiment will be described using 0. FIG. 18 shows the overall construction of the fourth embodiment, FIG. 19 is a flowchart of the overall processing, and FIG. 20 is a flowchart of window updating.
Here, when a part for switching and using a plurality of white line models is added to the configuration of the first embodiment shown in FIG. 1 and the white line is largely shielded by the preceding vehicle, the white line model of the first embodiment is used. Road parameters are estimated using a simplified white line model. The same parts as those of the first embodiment are designated by the same reference numerals and detailed description thereof is omitted.

【0089】図18において、撮像部11は、車両前方
の路面を撮像して、入力画像を取り込む。入力画像に対
しては、前処理として縦エッジ検出が実行され、白線や
先行車両の特徴が際立たせられる。白線候補点検出部1
2は、路面画像上の白線想定位置に設定した複数のウイ
ンドウのそれぞれについて、路面画像の座標系で記述さ
れた白線候補点のデータを検出する。前回の白線モデル
(曲線式)上の点列を計算する計算部17は、前回のパ
ラメータに基づいて白線想定位置を求める。白線候補点
と白線モデル点列とのずれ量算出部13は、白線候補点
検出部12による最新の白線候補点の位置情報と、前回
の白線モデル(曲線式)上の点列を計算する計算部17
による白線想定位置とを比較して、白線候補点のずれ量
を演算する。パラメータ移動量算出部14は、白線候補
点と白線モデル点列とのずれ量算出部13による比較の
結果から、白線モデルのパラメータ変動分を最小二乗法
により推定する。変動量に基づいて前回のパラメータを
補正する補正部15は、パラメータ変動量算出部14で
求めたパラメータ変動分を用いて最新のパラメータを計
算し、前回のパラメータを更新する。検出パラメータ保
持部16は、変動量に基づいて前回のパラメータを補正
する補正部15で更新されたパラメータを次画面の処理
まで保持する。
In FIG. 18, the image pickup section 11 picks up an input image by picking up an image of the road surface in front of the vehicle. Vertical edge detection is executed as pre-processing on the input image to highlight the white line and the characteristics of the preceding vehicle. White line candidate point detection unit 1
2 detects the white line candidate point data described in the coordinate system of the road surface image for each of the plurality of windows set at the assumed white line positions on the road surface image. The calculation unit 17 that calculates the point sequence on the previous white line model (curve formula) determines the assumed white line position based on the previous parameters. The deviation amount calculation unit 13 between the white line candidate points and the white line model point sequence calculates the latest position information of the white line candidate points by the white line candidate point detection unit 12 and the point sequence on the previous white line model (curve formula). Part 17
The calculated amount of deviation of the white line candidate points is calculated by comparing with the assumed white line position. The parameter movement amount calculation unit 14 estimates the parameter fluctuation amount of the white line model by the least square method from the result of comparison by the deviation amount calculation unit 13 between the white line candidate points and the white line model point sequence. The correction unit 15 that corrects the previous parameter based on the variation amount calculates the latest parameter using the parameter variation amount calculated by the parameter variation amount calculation unit 14 and updates the previous parameter. The detection parameter holding unit 16 holds the parameter updated by the correction unit 15 that corrects the previous parameter based on the variation amount until the processing of the next screen.

【0090】白線遮蔽位置検出部18は、画像処理され
た入力画像から先行車両の特徴を抽出して「先行車両が
路面画像上で白線を遮蔽する範囲」を計測する。複数の
白線モデル記憶部19は、先行車両によって白線が遮蔽
される範囲に応じて選択される「複数のパラメータ記述
式」を保持している。白線モデル切り換え部20は、白
線遮蔽位置検出部18が求めた白線遮蔽範囲に応じて、
複数の白線モデル記憶部19に保持された「複数のパラ
メータ記述式」から適当な1つを選択して、白線候補点
と白線モデル点列とのずれ量算出部13に送出する。白
線候補点と白線モデル点列とのずれ量算出部13は、白
線モデル切り換え部20によって選択されたパラメータ
記述式を用いて上述の演算を実行する。
The white line shielding position detecting section 18 extracts the characteristic of the preceding vehicle from the image-processed input image and measures the "range in which the preceding vehicle shields the white line on the road surface image". The plurality of white line model storage units 19 hold “a plurality of parameter description expressions” selected according to the range in which the white line is shielded by the preceding vehicle. The white line model switching unit 20 determines, according to the white line occlusion range obtained by the white line occlusion position detection unit 18,
An appropriate one is selected from the “plurality of parameter description expressions” stored in the plurality of white line model storage units 19 and sent to the deviation amount calculation unit 13 between the white line candidate points and the white line model point sequence. The deviation amount calculation unit 13 between the white line candidate points and the white line model point sequence executes the above calculation using the parameter description formula selected by the white line model switching unit 20.

【0091】図19において、ステップ111でパラメ
ータa〜eの初期値が設定され、ステップ112で路面
画像上で検知すべき白線の本数mが設定される。ステッ
プ113〜115を通じて、パラメータa〜eをパラメ
ータ記述式に代入して路面画像上の白線位置が推定さ
れ、路面画像上のm本の白線に対して初回分の白線検出
ウインドウが設定される。ステップ116では、図9に
示す白線検出プログラムに従って、それぞれの白線候補
点の位置情報が検出される。ステップ117Bでは、白
線候補点の検出結果から(11)式または後述する(1
8)式のマトリクスによる演算がなされ、Δa〜Δeの
演算結果から(10)式による最新のパラメータa〜e
を確定させる。ステップ121では古いパラメータa〜
eを最新のパラメータに置き換える。
In FIG. 19, the initial values of the parameters a to e are set in step 111, and the number m of white lines to be detected on the road surface image is set in step 112. Through steps 113 to 115, the parameters a to e are substituted into the parameter description expressions to estimate the white line positions on the road surface image, and white line detection windows for the first time are set for m white lines on the road surface image. In step 116, the position information of each white line candidate point is detected according to the white line detection program shown in FIG. In step 117B, from the detection result of the white line candidate points, expression (11) or (1) will be described later.
The calculation is performed by the matrix of the equation (8), and the latest parameters a to e of the equation (10) are calculated from the calculation results of Δa to Δe.
To confirm. In step 121, the old parameter a ~
Replace e with the latest parameters.

【0092】ステップ121とステップ122の間に挿
入されたステップ127は、図18の白線遮蔽位置検出
部18、複数の白線モデル記憶部19、および白線モデ
ル切り換え部20に相当する。ステップ127では、
「白線の遮蔽範囲を検出して、2種類のパラメータ記述
式から1つを選択する曲線/直線モデル選択処理」が実
行される。この処理は、路面画像と路面画像の2種類の
エッジ強調画像とから先行車両の位置を求め、先行車両
によってほどんど白線が遮蔽されていない場合には、第
1実施例と同様な二次曲線式のパラメータ記述式を選択
するが、先行車両によって白線が大きく遮蔽されている
場合には、二次曲線式のパラメータ記述式に代えて一次
直線式のパラメータ記述式を選択する処理である。ここ
で選択されたパラメータ記述式が、次の変更まで、ウイ
ンドウ設定やパラメータ推定の演算に供される。この処
理については、図23、図24を参照して後で詳しく説
明する。ステップ122では、次の路面画像上でウイン
ドウを設定すべき位置を求める。ステップ123では、
最新のパラメータから道路の三次元形状と自車両姿勢と
を記述する道路パラメータの各値を求めて出力する。ス
テップ124では次の路面画像とその2種類のエッジ強
調画面とが取り込まれる。ステップ125では縦横エッ
ジ検出による先行車両の検出が実行される。
The step 127 inserted between the step 121 and the step 122 corresponds to the white line occlusion position detection section 18, the plurality of white line model storage sections 19, and the white line model switching section 20 of FIG. In step 127,
“Curve / straight line model selection processing of detecting a white line shielding range and selecting one from two types of parameter description expressions” is executed. In this processing, the position of the preceding vehicle is obtained from the road surface image and the two types of edge-enhanced images of the road surface image, and when the white line is not almost shielded by the preceding vehicle, a quadratic curve similar to that of the first embodiment The parameter description formula of the formula is selected, but when the white line is largely shielded by the preceding vehicle, the parameter description formula of the linear linear formula is selected instead of the parameter description formula of the quadratic curve formula. The parameter description expression selected here is used for calculation of window setting and parameter estimation until the next change. This processing will be described later in detail with reference to FIGS. 23 and 24. In step 122, the position where the window should be set on the next road surface image is obtained. In step 123,
Values of road parameters describing the three-dimensional shape of the road and the vehicle attitude are obtained from the latest parameters and output. In step 124, the next road surface image and its two types of edge enhancement screens are captured. In step 125, the detection of the preceding vehicle is executed by the vertical and horizontal edge detection.

【0093】図20はステップ122における処理の詳
細を示す。図20のステップ131Bでは、自車線を挟
むi=0、1の白線における路面画像上で最も高い位置
(自車両から最も遠い位置)の白線候補点を検出するj
=0のウインドウについて、ウインドウを設定すべき高
さ位置yが設定される。先行車両によって白線が遮蔽さ
れている場合、画面上の遮蔽位置より低い高さyieが選
択されるが、遮蔽されていない場合は第1実施例と同様
である。ステップ132で処理の初期化が行われた後、
ステップ133〜136Bでは、選択された一方のパラ
メータ記述式を用いて、路面画像上の2つの高さ位置y
1ij、y2ijで白線が通過すべきx座標x1wij、x2
wijが計算される。ステップ133〜137を繰り返し
て、検出すべきm本の白線に対する同じ高さ位置yのウ
インドウの設定位置を定め、その後、ステップ137を
通過して路面画像上で一段低い隣接位置のウインドウの
設定が実行される。ステップ133〜139を通じて、
m本の白線のそれぞれにn個づつのウインドウが設定さ
れる。
FIG. 20 shows details of the processing in step 122. In step 131B of FIG. 20, the white line candidate point at the highest position (the position farthest from the own vehicle) on the road surface image in the white line of i = 0, 1 that sandwiches the own lane is detected j
For a window of = 0, the height position y at which the window should be set is set. When the white line is shielded by the preceding vehicle, a height yie lower than the shield position on the screen is selected, but when it is not shielded, the same as in the first embodiment. After the process is initialized in step 132,
In steps 133 to 136B, two height positions y on the road surface image are selected using one selected parameter description expression.
X-coordinates x1wij, x2 at which the white line should pass at 1ij, y2ij
wij is calculated. Steps 133 to 137 are repeated to determine the setting position of the window at the same height position y with respect to the m white lines to be detected, and then, passing through step 137, the setting of the window at the next lower position on the road surface image is performed. To be executed. Through steps 133-139,
n windows are set for each of the m white lines.

【0094】図19のフローチャートにおいて、発明の
撮像入力手段はステップ124〜125に、発明の検出
パラメータ保持手段はステップ121に、発明の白線候
補点検出手段はステップ116に、発明のパラメータ補
正手段はステップ117Bにそれぞれ対応する。発明の
白線遮蔽位置検出手段、複数の白線モデル記憶手段、お
よび白線モデル切り換え手段は、ステップ127の処理
に含まれる。以上説明した第4実施例によれば、検出す
べき白線が先行車両によって遮蔽されている場合には、
遮蔽範囲を避けてウインドウが設定されるから、先行車
両の画像上にウインドウを設定して、間違いデータを検
出する心配が無い。ウインドウ内で白線と無関係な直線
検出を実行してパラメータ推定結果に悪影響を及ぼす心
配が無い。また、路面画像上で白線が明白な近接部分だ
けで白線候補点のデータ蓄積を実行するから、近接部分
について、道路形状と車両姿勢のパラメータを正確に推
定できる。そして、白線が遮蔽された場合には、簡単な
パラメータ記述式を採用して最小二乗法等の演算負荷を
軽減するから、先行車両の位置検出等の処理が追加され
ているにもかかわらず、第1実施例並みの高い処理速度
を実現できる。
In the flow chart of FIG. 19, the imaging input means of the invention is steps 124 to 125, the detection parameter holding means of the invention is step 121, the white line candidate point detection means of the invention is step 116, and the parameter correction means of the invention is Each corresponds to step 117B. The white line shielding position detection means, the plurality of white line model storage means, and the white line model switching means of the invention are included in the processing of step 127. According to the fourth embodiment described above, when the white line to be detected is blocked by the preceding vehicle,
Since the window is set while avoiding the shielded area, there is no need to set the window on the image of the preceding vehicle to detect erroneous data. There is no fear of adversely affecting the parameter estimation result by executing straight line detection unrelated to the white line in the window. Further, since the data of white line candidate points is stored only in the proximity portion where the white line is apparent on the road surface image, the parameters of the road shape and the vehicle attitude can be accurately estimated for the proximity portion. Then, when the white line is shielded, the calculation load such as the least squares method is reduced by adopting a simple parameter description expression, so that the processing such as the position detection of the preceding vehicle is added. A high processing speed comparable to that of the first embodiment can be realized.

【0095】図21〜図29を用いて第5実施例を説明
する。図21は白線モデル選択のための基本構成の説明
図、図22は選択モデルの説明図、図23、図24はモ
デル選択のためのフローチャート、図25、図26は車
両候補検出(下影検出)方法の説明図、図27は車両候
補検出(車両幅検出)方法の説明図、図28はモデル選
択のしきい値決定方法の説明図、図29は選択モデル
(直線検出のみの場合)の説明図である。ここでは、路
面画像の原画像とその2種類のエッジ強調画面から先行
車両の位置を見積もる手順を詳しく説明する。
A fifth embodiment will be described with reference to FIGS. 21 to 29. FIG. 21 is an explanatory diagram of a basic configuration for selecting a white line model, FIG. 22 is an explanatory diagram of a selection model, FIGS. 23 and 24 are flowcharts for model selection, and FIGS. 25 and 26 are vehicle candidate detection (lower shadow detection). ) FIG. 27 is an explanatory diagram of a vehicle candidate detection (vehicle width detection) method, FIG. 28 is an explanatory diagram of a model selection threshold value determination method, and FIG. 29 is a selection model (only in the case of straight line detection). FIG. Here, the procedure of estimating the position of the preceding vehicle from the original image of the road surface image and the two types of edge enhancement screens will be described in detail.

【0096】高速道路等の自動車専用道路において自車
両前方の白線が遮蔽される場合は、先行車両による場合
がほとんどである。従って、第5実施例では、 (1)自車走行レーンを第1実施例の手法によって認識
した後、車両検出を施すことによって、車両位置に基づ
いて白線遮蔽開始座標(yie、i=0、1)を推定す
る。 (2)該推定座標によって白線モデルの切り換えを行
う。という考え方を採用している。図21において、番
号11〜20を付した構成部分については、図18の第
4実施例の場合と同一であるから、詳細な説明を省略す
る。車両検出部10は、路面画像から先行車両位置を割
り出して、白線遮蔽位置検出部におけるウインドウ設定
の状態を調整する。
When the white line in front of the host vehicle is blocked on a motorway such as an expressway, it is almost always caused by the preceding vehicle. Therefore, in the fifth embodiment, (1) after the own vehicle traveling lane is recognized by the method of the first embodiment, the vehicle detection is performed so that the white line blocking start coordinates (yie, i = 0, based on the vehicle position). Estimate 1). (2) The white line model is switched according to the estimated coordinates. The idea is adopted. In FIG. 21, the components denoted by the numbers 11 to 20 are the same as in the case of the fourth embodiment of FIG. 18, so detailed description will be omitted. The vehicle detection unit 10 determines the preceding vehicle position from the road surface image, and adjusts the window setting state in the white line blocking position detection unit.

【0097】図23、図24は第5実施例のフローチャ
ートである。図19のフローチャートのステップ127
における処理の詳細が図23に示され、図23のフロー
チャートのB1−B2間の処理が図24に示される。図
19のフローチャートのステップ121のモデルパラメ
ータ更新の後、図23のフローチャートのステップ60
1に移行する。ステップ601で初期値y=y0が設定
された後に、ステップ602では、図26に示す横エッ
ジ画像が格納された横エッジ画像メモリデータを用い
て、両側の白線モデルの間の線分x1(y)−x0
(y)のエッジ強度分布を作成する。この処理をステッ
プ601〜603、609、610のループで初期値y
=y0から順次下方に移動して繰り返す。すなわち、ス
テップ602で作成されたエッジ強度分布において、し
きい値Ih-t を越える画素数nhがエッジ強度分布作成
範囲x1 −x0 の実定数倍nk(<1)を越えるか否か
をステップ603で判断する。越えた場合には、ステッ
プ604においてそのy座標値を車両下影候補座標ys
として格納し、次へ進む。越えない場合は、ステップ6
09〜610を通じて以上の作業をy=ymin まで繰り
返し行う。これにより、下影候補座標をサーチする(車
両判定条件1)。自車両から十分に遠い位置に該当する
路面画像上の高さymin までの範囲について、車線幅の
一定割合以上の長い横エッジのうちで最も低い位置にあ
るものを下影とみなしている。演算装置に付設されたメ
モリ素子には、そのフレームの原画像、原画像の縦エッ
ジ強調画像、同横エッジ強調画像の画素データが一時的
に蓄積されている。メモリ素子に格納された、原画像、
縦エッジ強調画像、横エッジ強調画像のそれぞれの画素
データ群を、ここでは、原画像メモリ、縦エッジ強調画
像メモリ、横エッジ強調画像メモリと呼んでいる。
23 and 24 are flowcharts of the fifth embodiment. Step 127 of the flowchart in FIG.
23 shows the details of the process in FIG. 23, and FIG. 24 shows the process between B1 and B2 in the flowchart of FIG. After updating the model parameters in step 121 of the flowchart of FIG. 19, step 60 of the flowchart of FIG.
Move to 1. After the initial value y = y0 is set in step 601, in step 602, using the horizontal edge image memory data in which the horizontal edge image shown in FIG. 26 is stored, the line segment x1 (y ) -X0
The edge intensity distribution of (y) is created. This process is performed in the loop of steps 601 to 603, 609, and 610, and the initial value y
= Y0, the sequence is sequentially moved downward and repeated. That is, in the edge intensity distribution created in step 602, it is checked in step 603 whether the number nh of pixels exceeding the threshold value Ih-t exceeds the real constant multiple nk (<1) of the edge intensity distribution creation range x1 -x0. To judge. If it exceeds, the y coordinate value is set to the vehicle lower shadow candidate coordinate ys in step 604.
And then proceed to the next. If not, step 6
The above operations are repeated until y = ymin through 09-610. As a result, the lower shadow candidate coordinates are searched (vehicle determination condition 1). In the range up to the height ymin on the road surface image, which corresponds to a position sufficiently far from the host vehicle, the lowest lateral edge that is longer than a certain proportion of the lane width is regarded as the lower shadow. The memory device attached to the arithmetic unit temporarily stores pixel data of the original image of the frame, the vertical edge-enhanced image of the original image, and the horizontal edge-enhanced image of the original image. The original image stored in the memory element,
The pixel data groups of the vertical edge-emphasized image and the horizontal edge-emphasized image are referred to as an original image memory, a vertical edge-emphasized image memory, and a lateral edge-emphasized image memory, respectively.

【0098】次に、ステップ605〜606では、図2
5に示す原画像を格納した原画像メモリをもとに、y=
ys-Δh における線分x1 (ys-δh )−x0 (ys-δ
h)上の最小輝度値dmin を求める。該dmin がしきい
値d-tより暗い画素のとき、ys を自車走行レーン上の
先行車両の下影y座標として認識する(車両判定条件
2)。下影はy方向に厚みを持つから、この処理によっ
て横エッジ画像における下影の下境界の線分が識別され
る。
Next, in steps 605 to 606, FIG.
Based on the original image memory storing the original image shown in 5, y =
Line segment x1 (ys-δh) -x0 (ys-δ at ys-Δh
h) Obtain the minimum luminance value dmin above. When the dmin is a pixel darker than the threshold value d-t, ys is recognized as the y coordinate of the shadow of the preceding vehicle on the vehicle traveling lane (vehicle determination condition 2). Since the lower shadow has a thickness in the y direction, the line segment of the lower boundary of the lower shadow in the lateral edge image is identified by this processing.

【0099】最後にステップ607〜608では、図2
7に示す縦エッジ画像を格納した縦エッジ画像メモリを
用いて、縦エッジ画像上の高さy=ys-δvにおける線
分x1 (y)−x0 (y)上のエッジ強度分布を作成す
る。該強度分布において、左右両側からしきい値Iv-t
とのエッジ強度比較を行ったとき、最初にしきい値を越
えるx座標をxie(i=0、1)として検出する。得ら
れた2つのx座標の差ΔXc 、高さys における線分x
1 (ys )−x0 (ys )の長さΔX、および道幅Eか
ら、車両幅相当量Wは、次の(16)式で推定される。
Finally, in steps 607 to 608, as shown in FIG.
Using the vertical edge image memory storing the vertical edge image shown in FIG. 7, the edge intensity distribution on the line segment x1 (y) -x0 (y) at the height y = ys-δv on the vertical edge image is created. In the intensity distribution, the threshold value Iv-t is applied from both left and right sides.
When the edge strength is compared with, the x coordinate exceeding the threshold value is first detected as xie (i = 0, 1). A line segment x at the difference ΔXc between the two obtained x coordinates and the height ys
From the length ΔX of 1 (ys) -x0 (ys) and the road width E, the vehicle width equivalent amount W is estimated by the following equation (16).

【数13】 自動車の車幅はある範囲に規定できるので、ステップ6
08において、条件W-t0 <W<Wt1を車両判定条件3
として、前方に車両が存在するかしないかの最終判定を
行う。車両が存在すると判断された場合はステップ62
1に進む。
[Equation 13] Since the width of the car can be specified within a certain range, step 6
08, the condition W-t0 <W <Wt1 is set to the vehicle determination condition 3
As a final decision, whether or not there is a vehicle ahead is performed. If it is determined that a vehicle exists, step 62
Go to 1.

【0100】ステップ621で処理の初期化がなされ、
ステップ622のy=ys からスタートして、i=0の
白線について、ステップ625の条件が満たされる高さ
y0kを求めて、この値をステップ626でy0eとして保
持する。次にi=1の白線について、同様の処理を行っ
てy1eとして保持する。i=0、1の2本の白線の処理
を終えるとステップ629を抜け出し、ステップ631
で白線モデルを切り替えるか否かを判断する。すなわ
ち、ステップ623ではパラメータ記述式から白線上の
xi を求め、ステップ624では既に検出されている車
両エッジ位置xie(i=0、1)とxi (y)との差d
xi を求める。そして、ステップ625において該差d
xi がしきい値dx-tより小さくなるとき、ステップ6
26でそのy座標をyie(i=0、1)として格納す
る。この処理を図28の(a)に模式的に示す。また、
モデル切り換えの判定は、数値yieと図28の(b)に
示すマップを用いて行う。図28の(a)において、y
=ys から始めて、順次高い位置yで距離dxを求め
る。距離dxは、パラメータ記述式にyを代入して得た
xik(i=0、1)から車両エッジxie(i=0、1)
までの距離である。距離dxがしきい値δx-tを割り込
む高さ位置yie(i=0、1)までが白線可視距離に相
当する。
At step 621, the process is initialized,
Starting from y = ys in step 622, the height y0k that satisfies the condition of step 625 is obtained for the white line with i = 0, and this value is held as y0e in step 626. Next, the same processing is performed for the white line of i = 1 and the result is held as y1e. When the processing of the two white lines with i = 0 and 1 is completed, the process exits from step 629 and proceeds to step 631.
Determine whether to switch the white line model with. That is, in step 623, xi on the white line is obtained from the parameter description expression, and in step 624, the difference d between the already detected vehicle edge position xie (i = 0, 1) and xi (y).
Find xi. Then, in step 625, the difference d
When xi becomes smaller than the threshold value dx-t, step 6
At 26, the y coordinate is stored as yie (i = 0, 1). This processing is schematically shown in FIG. Also,
The determination of model switching is made using the numerical value yie and the map shown in FIG. In FIG. 28A, y
Starting from = ys, the distance dx is obtained at successively higher positions y. The distance dx is calculated from xik (i = 0, 1) obtained by substituting y into the parameter description expression and vehicle edge xie (i = 0, 1).
Is the distance to. The white line visible distance corresponds to the height position yie (i = 0, 1) where the distance dx falls below the threshold value δx-t.

【0101】図28の(b)に示す曲線は、図38の
(a)にも示されるように、白線モデルの式(3)にお
いて、曲線か直線かを規定するパラメータbを約300
Rのときと、直線のときすなわちb=0のときの各y座
標における差δxを描いたものである。このマップか
ら、例えば、該差がδx-t より小となり始めるy-tをモ
デル切り換えの判断基準とすればよい。すなわち、yie
>y-tを曲線−直線モデル切り換えの判断基準とする。
直線モデルとして次の(17)式を用いた場合、前述の
曲線モデルの式(10)は、次の式(18)のように変
更されて計算負荷が軽減される。
As shown in FIG. 38 (a), the curve shown in FIG. 28 (b) has a parameter b for defining a curve or a straight line in formula (3) of the white line model of about 300.
The difference δx is plotted at each y coordinate when R and when a straight line, that is, when b = 0. From this map, for example, y-t at which the difference starts to become smaller than δx-t may be used as the criterion for model switching. I.e. yie
> Y-t is used as the criterion for switching the curve-linear model.
When the following equation (17) is used as the straight line model, the equation (10) of the above curve model is changed to the following equation (18) to reduce the calculation load.

【数14】 [Equation 14]

【0102】すなわち、第5実施例では、図22の
(a)に示すように、先行車両がいないか遠くにいて、
数値ys がしきい値y-tよりも小さい(高い位置にあ
る)場合には、第1実施例と同一の二次曲線式のパラメ
ータ記述式を選択するが、図22の(b)に示すよう
に、先行車両が近くにいて、数値ys がしきい値y-tよ
りも大きい(低い位置にある)場合には、一次直線式の
(17)式を選択する。
That is, in the fifth embodiment, as shown in FIG. 22 (a), the preceding vehicle is not present or is distant,
When the numerical value ys is smaller than the threshold value y-t (at a higher position), the same quadratic curve parameter description expression as that in the first embodiment is selected, but shown in FIG. As described above, when the preceding vehicle is close and the numerical value ys is larger than the threshold value y-t (at the lower position), the linear equation (17) is selected.

【0103】また、さらに車間距離が接近するようなケ
ースでは、複数のウインドウによる白線候補点検出を行
わなくてもよい。この場合は、図29に示されるよう
に、左右のウインドウ内で検出された2直線をそのまま
白線として認識する。i=0の白線の一次直線式をx0
=a1 y+b1 、i=1の白線の一次直線式をx1 =a
2 y+b2 と置いて、係数a1 、b1 、a2 、b2 をウ
インドウ演算処理で直接に求めれば、車両姿勢を示すヨ
ー角およびピッチ角は、次の(19)式から算出される
c、dの値より、(4)式によって求めることができ
る。
Further, in the case where the vehicle-to-vehicle distance becomes shorter, the white line candidate points need not be detected by a plurality of windows. In this case, as shown in FIG. 29, the two straight lines detected in the left and right windows are directly recognized as white lines. The linear equation of the white line with i = 0 is x0
= A1 y + b1, the linear linear expression of the white line of i = 1 is x1 = a
2 y + b2, if the coefficients a1, b1, a2, b2 are directly obtained by the window calculation processing, the yaw angle and pitch angle indicating the vehicle attitude are the values of c and d calculated from the following equation (19). Therefore, it can be obtained by the equation (4).

【数15】 [Equation 15]

【0104】図30を用いて第6実施例を説明する。図
30は白線モデル選択のための基本構成の説明図であ
る。ここでは、マルチビーム型レーダー車間距離センサ
を使用して白線遮蔽範囲を計測している。
A sixth embodiment will be described with reference to FIG. FIG. 30 is an explanatory diagram of a basic configuration for selecting a white line model. Here, the white line shielding range is measured using a multi-beam type radar inter-vehicle distance sensor.

【0105】車両の下影は晴天時にはくっきりと路面上
に投影されるが、曇天時あるいは夜間等、現れないケー
スがある。このようなケースでは、レーダ等、外光に頼
らないで車間距離を認識する手段を用いることによっ
て、第4、第5実施例のような白線モデル切り換え判断
を行うことができる。図30の構成に示される構成部分
のうちで、第4実施例の構成中の部と機能を共通にする
構成部分については、図18の場合と同一の符号を付し
て詳しい説明を省略する。
The lower shadow of the vehicle is clearly projected on the road surface in fine weather, but it may not appear in cloudy weather or at night. In such a case, the white line model switching judgment as in the fourth and fifth embodiments can be performed by using a means such as a radar that recognizes the inter-vehicle distance without depending on the external light. Of the components shown in the configuration of FIG. 30, components having the same functions as those of the components of the fourth embodiment are designated by the same reference numerals as those in FIG. 18, and detailed description thereof will be omitted. .

【0106】第4実施例の構成に新たに付加された走行
レーン認識部81は、算出されたパラメータに基づいて
路面画像上の走行レーンを区別して認識する。車間距離
検出部82は、車両前方に放射したレーダービームを用
いて、複数の指向性で前方の障害物(先行車両)までの
距離を計測する。レーダー距離値選択部84は、車間距
離検出部82が複数の指向性でそれぞれ計測した距離値
の中から、走行レーン認識部81による認識結果に基づ
いた1つを選択する。画像座標系における車両y座標値
推定部83は、レーダ距離値選択部84で選択された距
離値Lを、次の(20)式を用いて画像座標系のy座標
(ys )に変換する。白線モデル切り換え部20Bは、
第4実施例の場合とは異なり、この座標変換された座標
値ys を直接モデル切り換えの判定に用いる。
The running lane recognition unit 81, which is newly added to the configuration of the fourth embodiment, distinguishes and recognizes the running lane on the road surface image based on the calculated parameters. The inter-vehicle distance detecting unit 82 uses a radar beam emitted in front of the vehicle to measure the distance to an obstacle (leading vehicle) in front with a plurality of directivities. The radar distance value selection unit 84 selects one of the distance values measured by the inter-vehicle distance detection unit 82 with a plurality of directivities, based on the recognition result by the traveling lane recognition unit 81. The vehicle y coordinate value estimation unit 83 in the image coordinate system converts the distance value L selected by the radar distance value selection unit 84 into the y coordinate (ys) of the image coordinate system using the following equation (20). The white line model switching unit 20B
Unlike the case of the fourth embodiment, this coordinate-converted coordinate value ys is directly used for the model switching determination.

【数16】 白線候補点検出部12Bは、ウインドウ内の白線検出と
検出データの演算処理を通じて白線候補点の位置情報を
抽出する。白線モデル切り換え部20Bの出力が白線候
補点検出部12と撮像部11の間に図示される理由は、
白線候補点検出部12では、切り換えられた白線モデル
を用いてウインドウ設定を行うからである。第7実施例
によれば、曇天時あるいは夜間等で車両の影が明白に現
れないケースでも車間距離を認識して、白線遮蔽範囲を
正確に見積もり、白線モデルの切り換えを実行できる。
[Equation 16] The white line candidate point detection unit 12B extracts the position information of the white line candidate points through white line detection in the window and calculation processing of the detected data. The reason why the output of the white line model switching unit 20B is shown between the white line candidate point detection unit 12 and the imaging unit 11 is as follows.
This is because the white line candidate point detection unit 12 performs window setting using the switched white line model. According to the seventh embodiment, the white line shielding range can be accurately estimated and the white line model can be switched by recognizing the inter-vehicle distance even in the case where the shadow of the vehicle does not appear clearly in cloudy weather or at night.

【0107】図31〜図33を用いて第7実施例を説明
する。図31は第7実施例の車両検出結果の説明図、図
32はレーザビーム到達位置ベクトルの説明図、図33
はレーダ距離値選択のためのフローチャートである。マ
ルチビーム型レーザレーダ装置を用いた従来の追突警報
装置にあっては、カーブ路において外側の路側帯に存在
する反射板の距離値を先行車両の距離値と誤認し、誤っ
た警報を発する場合があった。そこで、第7実施例で
は、路面画像上の複数の車線上の先行車両をそれぞれ区
別して検出することによって追突警報装置の警報の信頼
性を向上させている。
The seventh embodiment will be described with reference to FIGS. 31 is an explanatory diagram of the vehicle detection result of the seventh embodiment, FIG. 32 is an explanatory diagram of the laser beam arrival position vector, and FIG.
Is a flowchart for selecting a radar distance value. In a conventional rear-end collision warning device using a multi-beam type laser radar device, when the distance value of the reflector existing on the outside roadside zone on a curved road is erroneously recognized as the distance value of the preceding vehicle and a false alarm is issued. was there. Therefore, in the seventh embodiment, the reliability of the warning of the rear-end collision warning device is improved by separately detecting the preceding vehicles on the plurality of lanes on the road surface image.

【0108】図32の(b)に示すように、自車両86
の前端部に3本のレーザー距離計が矢印で示す所定の指
向性を与えて設置される。3本のレーザー距離計を用い
て追突警報装置を構成した車両に、第6実施例の走行路
検出装置を組み合わせて第7実施例が構成される。図3
2の(b)において、右側の指向性を担当するレーザー
距離計からは先行車両87の車間距離dRが出力され
る。一方、中央および左側の指向性を担当するレーザー
距離計からは、路側帯の反射板88までの距離dL、d
Cが出力されている。このとき路面画像は図32の
(a)に示す状態であり、楕円で示す範囲が3本のレー
ザー距離計のそれぞれの測距エリア断面に相当してい
る。
As shown in FIG. 32B, the own vehicle 86
Three laser rangefinders are installed at the front end of the so as to give a predetermined directivity indicated by an arrow. A seventh embodiment is constructed by combining a vehicle having a rear-end collision warning device using three laser rangefinders with the traveling road detection device of the sixth embodiment. Figure 3
In (b) of FIG. 2, the inter-vehicle distance dR of the preceding vehicle 87 is output from the laser range finder in charge of the directivity on the right side. On the other hand, the distances dL and d from the laser rangefinders in charge of the directivity on the center side and the left side to the reflector 88 on the roadside belt.
C is output. At this time, the road surface image is in the state shown in (a) of FIG. 32, and the range indicated by an ellipse corresponds to each of the distance measuring area cross sections of the three laser distance meters.

【0109】図31において、第5実施例と同様な路面
画像を用いた車両検出を行うことにより、車両存在範囲
x0e−X1eが求まる。ここでは、路面画像を撮像するカ
メラと3本のレーザー距離計の位置関係が固定されてい
るため、路面画像の中で3本のレーザー距離計の測距方
向のベクトルは一定である。3本のレーザから得られた
図32の距離(dL、dC、dR)と画像上のレーザ中
心座標位置(G0 、G1 、G2 :ベクトル)との関係
は、予めメモリデータとして記憶しておく。先行車両8
7の存在範囲の中心x座標をxc とすれば、レーザー距
離計の測定値から求めた車両候補座標と座標xc との画
像座標系上の距離が最小となるような距離値dX(X=
L、C、R)を、自車線上の車両までの距離として認識
することによって、より精度の高い自車線上の障害物ま
での距離計測が可能となる。この一連の処理を図33の
フローチャートに示す。
In FIG. 31, the vehicle existence range x0e-X1e is obtained by performing vehicle detection using the road surface image similar to that of the fifth embodiment. Here, since the positional relationship between the camera for capturing the road surface image and the three laser rangefinders is fixed, the vector in the distance measuring direction of the three laser rangefinders in the road surface image is constant. The relationship between the distances (dL, dC, dR) of FIG. 32 obtained from the three lasers and the laser center coordinate positions (G0, G1, G2: vector) on the image is stored in advance as memory data. Preceding vehicle 8
If the center x-coordinate of the existence range of 7 is xc, the distance value dX (X = X) that minimizes the distance on the image coordinate system between the vehicle candidate coordinate obtained from the measurement value of the laser rangefinder and the coordinate xc.
By recognizing L, C, and R) as the distance to the vehicle on the own lane, the distance to the obstacle on the own lane can be measured with higher accuracy. This series of processing is shown in the flowchart of FIG.

【0110】ステップ701で路面画像が、ステップ7
02でレーザ距離値がそれぞれメモリに取り込まれる。
ステップ703では白線遮蔽範囲に応じた白線モデルの
切り換えが実行され、この白線モデルを用いてステップ
704で道路パラメータが求められ白線モデルが更新さ
れる。ステップ705では路面画像から先行車両の有無
および存在位置が求められ、先行車両がいない場合はス
テップ710でレーダ距離値を無視する。一方、先行車
両が存在する場合は、ステップ707〜709を通じて
先行車両を捕捉しているレーザー距離計を特定し、その
出力値を車間距離として出力させる。第7実施例によれ
ば、カーブ路において路側帯に存在する反射板の距離値
を先行車両の距離値と誤認する心配が無く、誤った警報
を発することが無い。従って、追突警報装置の精度と信
頼性が向上する。
In step 701, the road surface image is changed to step 7
At 02, the laser distance values are loaded into the memory.
In step 703, switching of the white line model according to the white line shielding range is executed, the road parameter is obtained in step 704 using this white line model, and the white line model is updated. In step 705, the presence / absence and presence position of the preceding vehicle are obtained from the road surface image, and if there is no preceding vehicle, the radar distance value is ignored in step 710. On the other hand, when there is a preceding vehicle, the laser range finder capturing the preceding vehicle is specified through steps 707 to 709, and the output value thereof is output as the inter-vehicle distance. According to the seventh embodiment, there is no concern that the distance value of the reflector existing on the roadside belt on the curved road is mistaken for the distance value of the preceding vehicle, and an erroneous warning is not issued. Therefore, the accuracy and reliability of the rear-end collision warning device are improved.

【0111】図34〜図36を用いて第7実施例の変形
例を説明する。図34は画像処理による先行車両検出の
説明図、図35は全体処理のフローチャート、図36は
レーダ距離測定値の選択のフローチャートである。ここ
では、第7実施例と同様に3本のレーザー距離計から得
られた距離L0 、L1 、L2 の中から、自車線上の先行
車両に相当する1つを選択する。ただし、第7実施例と
は別の手順を用いてレーザー距離計を特定する。また、
第5実施例では、車線幅に占める横エッジ長さの割合が
一定以上の場合を先行車両と判断して車両候補点の位置
を求めたが、ここでは、路面画像のy方向輝度分布から
車両候補点位置を割り出す。
A modification of the seventh embodiment will be described with reference to FIGS. 34 to 36. 34 is an explanatory diagram of the detection of the preceding vehicle by the image processing, FIG. 35 is a flowchart of the entire process, and FIG. 36 is a flowchart of the selection of the radar distance measurement value. Here, similarly to the seventh embodiment, one corresponding to the preceding vehicle on the own lane is selected from the distances L0, L1 and L2 obtained from the three laser rangefinders. However, the laser rangefinder is specified using a procedure different from that of the seventh embodiment. Also,
In the fifth embodiment, when the ratio of the lateral edge length to the lane width is equal to or greater than a certain value, the position of the vehicle candidate point is obtained by determining that the vehicle is a preceding vehicle. Figure out candidate point positions.

【0112】図34の(a)において、自車線上の先行
車両87には高さがあるため、自車線上に影が投影され
ている。検出された白線モデルから自車線の中心線(x
m 、ym )を求めて、中心線上の画素の輝度データを原
画像メモリから抽出することにより、高さy=ys 〜y
e の範囲の輝度分布を図34の(b)のように作成す
る。影に相当する最も暗い輝度pc を検知し、その位置
(xc 、yc )を車両候補点座標として出力する。図3
2の(a)に示される「路面画像上のレーザ中心座標位
置(図中の×印)から車両候補点座標(xc 、yc )ま
での距離」が最小となるようなレーダ距離値が、自車線
上の先行車両87までの距離として認識される。
In FIG. 34 (a), since the preceding vehicle 87 on the own lane has a height, a shadow is projected on the own lane. From the detected white line model, the center line (x
m, ym) and the luminance data of the pixels on the center line are extracted from the original image memory to obtain the height y = ys to y.
A luminance distribution in the range of e is created as shown in FIG. The darkest brightness pc corresponding to the shadow is detected, and its position (xc, yc) is output as vehicle candidate point coordinates. Figure 3
The radar distance value that minimizes the “distance from the laser center coordinate position on the road image (marked by X in the figure) to the vehicle candidate point coordinates (xc, yc)” shown in (a) of 2 is It is recognized as the distance to the preceding vehicle 87 on the lane.

【0113】第7実施例の場合と同様に、演算装置のメ
モリには、3本のレーザー距離計から得られた距離L0
、L1 、L2 と画像上のレーザ中心座標位置(G0 、
G1 、G2 :ベクトル)との関係が予め記憶されてい
る。図35において、ステップ721で1フレーム分の
原画像やエッジ強調画像のデータが演算装置に取り込ま
れる。ステップ722では、ウインドウ処理を通じて得
られた白線候補点の検出データに基づいて白線モデル補
正量が計算される。ステップ723では、この白線モデ
ル補正量を用いて前画面で求めた白線モデルが更新され
る。ステップ724では、最新の白線モデルに基づいて
中心線モデルXm (y)を作成する。ステップ725で
は、上述のように高さy=ys 〜ye の範囲でxm 上の
輝度分布を作成する。ステップ726では、最小輝度値
pc および車両候補点高さyc を抽出して出力する。ス
テップ727では車両候補点高さyc を中心線モデルX
m (y)に代入して車両候補点位置xc を計算する。ス
テップ728では、最小輝度値pc が所定のしきい値p
-t以下であるか否かを判定する。真であるならば、座標
位置(xc 、yc )を路面画像の座標系における車両候
補点座標として認識し、図36のステップ731へ進
む。
As in the case of the seventh embodiment, the distance L0 obtained from the three laser rangefinders is stored in the memory of the arithmetic unit.
, L1, L2 and the laser center coordinate position (G0,
The relationship with G1 and G2: vector) is stored in advance. In FIG. 35, in step 721, the data of one frame of the original image or the edge-enhanced image is loaded into the arithmetic unit. In step 722, the white line model correction amount is calculated based on the detection data of the white line candidate points obtained through the window processing. In step 723, the white line model obtained on the previous screen is updated using this white line model correction amount. In step 724, the center line model Xm (y) is created based on the latest white line model. In step 725, a luminance distribution on xm is created within the range of height y = ys to ye as described above. In step 726, the minimum brightness value pc and the vehicle candidate point height yc are extracted and output. In step 727, the candidate vehicle height yc is set to the centerline model X.
Substituting into m (y), the vehicle candidate point position xc is calculated. At step 728, the minimum brightness value pc is equal to the predetermined threshold value p.
-It is determined whether it is less than or equal to t. If it is true, the coordinate position (xc, yc) is recognized as the vehicle candidate point coordinate in the coordinate system of the road surface image, and the process proceeds to step 731 in FIG.

【0114】図36において、ステップ731では、3
本のレーザー距離計による最新の距離計測値を取り込
む。ステップ732では、予め記憶されたメモリテーブ
ルからレーザの中心座標ベクトル(G0 、G1 、G2 )
を読み出す。ステップ733では、中心座標ベクトル
(G0 、G1 、G2 )にそれぞれの距離計測値をかけ合
わせて路面画像上の参照範囲の重心位置を求め、それぞ
れの重心位置から車両候補点座標(xc 、yc )までの
距離Lgi(i=0〜2)を算出する。ステップ734〜
738で距離Lgiが最小となるjの値を求める。ステッ
プ739では、jに相当するレーザレーダ距離値Lgi
(j)を、自車線上の先行車両87までの距離値と判断
して出力する。第7実施例の変形例によれば、より確度
の高い自車線上の障害物までの距離計測が可能となる。
In FIG. 36, in step 731, 3
Capture the latest distance measurements from a laser rangefinder in your book. In step 732, the laser center coordinate vector (G0, G1, G2) is read from the memory table stored in advance.
Read out. In step 733, the center coordinate vector (G0, G1, G2) is multiplied by each distance measurement value to obtain the barycentric position of the reference range on the road surface image, and the vehicle candidate point coordinates (xc, yc) are calculated from each barycentric position. To calculate the distance Lgi (i = 0 to 2). Step 734-
At 738, the value of j that minimizes the distance Lgi is obtained. In step 739, the laser radar distance value Lgi corresponding to j
(J) is determined as the distance value to the preceding vehicle 87 on the own lane and is output. According to the modified example of the seventh embodiment, it is possible to measure the distance to the obstacle on the own lane with higher accuracy.

【0115】[0115]

【発明の効果】本発明の走行路検出装置によれば、路面
画像から白線を検出して道路パラメータを推定するまで
の処理を通じて、データを座標変換する演算処理が不必
要であるから、従来例の走行路検出装置に比較して演算
量が大幅に削減され、一般的な演算装置を使用した場合
でも、毎秒10〜100画面の路面画像を余裕を持って
処理できる。これにより、刻々の白線状態を細かい時間
間隔で補足しても、道路の三次元形状や自車両の姿勢を
リアルタイムに出力できる。従って、種々の警報や自動
運転に対する応用が可能となる等、走行路検出装置の精
度と信頼性と実用性が共に高められた。
According to the traveling road detecting apparatus of the present invention, it is not necessary to perform arithmetic processing for coordinate conversion of data through the processing of detecting a white line from a road surface image and estimating a road parameter. The amount of calculation is greatly reduced as compared with the traveling road detection device described above, and even when a general arithmetic device is used, a road surface image of 10 to 100 screens per second can be processed with a margin. As a result, the three-dimensional shape of the road and the posture of the host vehicle can be output in real time even if the white line status is supplemented at fine time intervals. Therefore, the accuracy, reliability, and practicability of the traveling road detection device are improved, such as the application to various alarms and automatic driving.

【0116】路面画像上の小領域の設定を切り換える場
合、路面画像上で精度高く検出できる部分に小領域を設
定するから、車線内の自車両位置にかかわらず、精度の
高い道路パラメータを出力し続けることができる。この
とき、小領域の合計の設定数を変化させなければ、これ
によって処理時間が増大することもない。また、方向指
示なく車線変更を実行しようとした場合に警報を出力さ
せる場合、運転者の不注意や居眠りに起因する事故発生
を予防できる。さらに、隣接車線に車線変更しようとす
る際に隣接車線の先行車両を検知し、衝突の可能性を判
断して警報を出力させる場合、車線変更に伴う事故発生
を予防できる。
When the setting of the small area on the road surface image is switched, the small area is set at a portion that can be detected with high accuracy on the road surface image. Therefore, the road parameter with high accuracy is output regardless of the position of the own vehicle in the lane. I can continue. At this time, unless the total set number of small areas is changed, the processing time does not increase. Further, when an alarm is output when an attempt is made to change lanes without indicating a direction, it is possible to prevent an accident from occurring due to the driver's carelessness or drowsiness. Furthermore, when a preceding vehicle in an adjacent lane is detected when an attempt is made to change lanes to an adjacent lane, a possibility of a collision is determined and an alarm is output, an accident accompanying the lane change can be prevented.

【0117】すなわち、道路形状推定のための道路モデ
ルを、道路曲率や自車両の位置等、すべてのレーンマー
カーとなる白線に対して共通のパラメータに相当する量
で表し、これらパラメータの算出結果や既知の定数をも
とに走行レーン内の車両の走行位置を算出して、その結
果によって道路白線の検出本数を切り換えられる構成と
したため、自車両の一部が隣のレーンに入る前に隣の走
行レーン領域を認識でき、また、他のレーダ等の測距セ
ンサのデータの測距対象を判別できるという効果が得ら
れる。
That is, the road model for estimating the road shape is represented by an amount equivalent to a parameter common to all the lane markers such as the road curvature and the position of the vehicle, and the calculation results of these parameters and The driving position of the vehicle in the driving lane is calculated based on a known constant, and the number of road white lines detected can be switched according to the result. It is possible to obtain the effect that the traveling lane area can be recognized, and the distance measurement target of the data of the distance measurement sensor such as another radar can be determined.

【0118】白線の遮蔽範囲に応じてパラメータ記述式
を切り換える場合、路面画像上で捕捉できる白線部分か
ら最大限の精度で道路パラメータを求められる。また、
パラメータ記述式を簡略化することで演算負荷をさらに
軽減し、余った演算余力を他の処理、例えば、先行車両
の認識等に割り当てることも可能になる。すなわち、効
率的な道路パラメータ推定が可能となった。
When the parameter description formula is switched according to the white line shielding range, the road parameter can be obtained with the maximum accuracy from the white line portion that can be captured on the road surface image. Also,
By simplifying the parameter description formula, the calculation load can be further reduced, and the surplus calculation reserve can be assigned to other processing, for example, recognition of the preceding vehicle. That is, it is possible to estimate road parameters efficiently.

【図面の簡単な説明】[Brief description of drawings]

【図1】設定座標系の説明図である。FIG. 1 is an explanatory diagram of a set coordinate system.

【図2】カメラ座標系における白線モデルの説明図であ
る。
FIG. 2 is an explanatory diagram of a white line model in a camera coordinate system.

【図3】画像座標系における新旧白線対応点の説明図で
ある。
FIG. 3 is an explanatory diagram of new and old white line corresponding points in the image coordinate system.

【図4】構成の説明図である。FIG. 4 is an explanatory diagram of a configuration.

【図5】処理全体のフローチャートである。FIG. 5 is a flowchart of the entire processing.

【図6】ウインドウ更新のためのフローチャートであ
る。
FIG. 6 is a flowchart for updating a window.

【図7】白線候補点の検出のフローチャートである。FIG. 7 is a flowchart of detecting white line candidate points.

【図8】白線候補点の検出方法の説明図である。FIG. 8 is an explanatory diagram of a method of detecting white line candidate points.

【図9】ウインドウ設定位置の説明図である。FIG. 9 is an explanatory diagram of window setting positions.

【図10】構成の説明図である。FIG. 10 is an explanatory diagram of a configuration.

【図11】白線検出本数切り替えのフローチャートであ
る。
FIG. 11 is a flowchart for switching the number of white line detection lines.

【図12】道路白線検出の例を示した説明図である。FIG. 12 is an explanatory diagram showing an example of road white line detection.

【図13】ウインドウの設定を示した説明図である。FIG. 13 is an explanatory diagram showing window settings.

【図14】第3実施例の構成を示すブロック図であ
る。、
FIG. 14 is a block diagram showing a configuration of a third embodiment. ,

【図15】第3実施例の作用の説明図である。FIG. 15 is an explanatory diagram of the operation of the third embodiment.

【図16】車線逸脱の警報の説明図である。FIG. 16 is an explanatory diagram of a lane departure warning.

【図17】第3実施例の変形例の説明図である。FIG. 17 is an explanatory diagram of a modified example of the third embodiment.

【図18】第4実施例の全体の構成の説明図である。FIG. 18 is an explanatory diagram of the overall configuration of the fourth embodiment.

【図19】全体処理のフローチャートである。FIG. 19 is a flowchart of overall processing.

【図20】ウインドウ更新のフローチャートである。FIG. 20 is a flowchart of window update.

【図21】白線モデル選択のための基本構成の説明図で
ある。
FIG. 21 is an explanatory diagram of a basic configuration for selecting a white line model.

【図22】選択モデルの説明図である。FIG. 22 is an explanatory diagram of a selection model.

【図23】モデル選択のためのフローチャートである。FIG. 23 is a flowchart for model selection.

【図24】モデル選択のためのフローチャートである。FIG. 24 is a flowchart for model selection.

【図25】車両候補検出(下影検出)方法の説明図であ
る。
FIG. 25 is an explanatory diagram of a vehicle candidate detection (lower shadow detection) method.

【図26】車両候補検出(下影検出)方法の説明図であ
る。
FIG. 26 is an explanatory diagram of a vehicle candidate detection (lower shadow detection) method.

【図27】車両候補検出(車両幅検出)方法の説明図で
ある。
FIG. 27 is an explanatory diagram of a vehicle candidate detection (vehicle width detection) method.

【図28】モデル選択のしきい値決定方法の説明図であ
る。
FIG. 28 is an explanatory diagram of a threshold value selection method for model selection.

【図29】選択モデル(直線検出のみの場合)の説明図
である。
FIG. 29 is an explanatory diagram of a selection model (in the case of only straight line detection).

【図30】白線モデル選択のための基本構成の説明図で
ある。
FIG. 30 is an explanatory diagram of a basic configuration for selecting a white line model.

【図31】第7実施例の車両検出結果の説明図である。FIG. 31 is an explanatory diagram of vehicle detection results of the seventh embodiment.

【図32】レーダビーム到達位置ベクトルの説明図であ
る。
FIG. 32 is an explanatory diagram of a radar beam arrival position vector.

【図33】レーダ距離値選択のためのフローチャートで
ある。
FIG. 33 is a flowchart for selecting a radar distance value.

【図34】画像処理による先行車両検出の説明図であ
る。
FIG. 34 is an explanatory diagram of detection of a preceding vehicle by image processing.

【図35】全体処理のフローチャートである。FIG. 35 is a flowchart of overall processing.

【図36】レーダ距離測定値の選択のフローチャートで
ある。
FIG. 36 is a flowchart of selecting a radar distance measurement value.

【図37】従来例の走行路検出装置の説明図である。FIG. 37 is an explanatory diagram of a traveling road detection device of a conventional example.

【図38】二次曲線近似の精度の説明図である。FIG. 38 is an explanatory diagram of the accuracy of quadratic curve approximation.

【符号の説明】[Explanation of symbols]

11 撮像部 12 白線候補点検出部 13 白線候補点と白線モデル点列とのずれ量算出部 14 パラメータ変動量算出部 15 変動量の基づいて前回のパラメータを補正する補
正部 16 検出パラメータ保持部 17 前回の白線モデル(曲線式)上の点列を計算する
算出部 21 ウインドウ 22、23 座標系 24、24G 道路 25、25G 白線 26 路面画像 41 撮像部 42 画像処理部 43 白線検出部 44 道路パラメータ推定部 45 自車偏位判断部 46 白線検出本数設定部 47 白線候補点検出領域設定部 50 消失点 51、52、53 ウインドウ 61 画像入力部 62 エッジ抽出部 63 直線検出領域設定部 64 白線候補点検出部 65 道路パラメータ算出部 66 車線変更判断部 67 白線検出本数設定部 68 認識車線数判断部 69 車線領域認識部 70 自車線上障害物検出部 71 隣接車線上障害物検出部 72 車線変更可否判断部 73 方向指示判断部 74 衝突可能性判断部 75 警報発生部 76、77、78 先行車両 81 走行レーン認識部 82 車間距離検出部 83 画像座標系における車両y座標値推定部 84 レーダ距離値選択部 87 先行車両 A1、A2、A3 検出エリア L1、L2、L3 車線
11 Image capturing unit 12 White line candidate point detection unit 13 Deviation amount calculation unit between white line candidate points and white line model point sequence 14 Parameter variation amount calculation unit 15 Correction unit 16 that corrects the previous parameter based on the variation amount Detection parameter holding unit 17 Calculating unit 21 for calculating the point sequence on the previous white line model (curve formula) 21 Window 22, 23 Coordinate system 24, 24G Road 25, 25G White line 26 Road surface image 41 Imaging unit 42 Image processing unit 43 White line detecting unit 44 Road parameter estimation Part 45 Vehicle deviation judgment part 46 White line detection number setting part 47 White line candidate point detection area setting part 50 Vanishing points 51, 52, 53 Window 61 Image input part 62 Edge extraction part 63 Straight line detection area setting part 64 White line candidate point detection Section 65 Road parameter calculation section 66 Lane change determination section 67 White line detection number setting section 68 Recognized lane number determination section 69 Lane area recognition section 0 Obstacle detecting part 71 on own lane Obstacle detecting part 72 on adjacent lane Change lane judging part 73 Direction instruction judging part 74 Collision possibility judging part 75 Warning generating parts 76, 77, 78 Preceding vehicle 81 Driving lane recognizing part 82 Inter-vehicle distance detection unit 83 Vehicle y-coordinate value estimation unit 84 in the image coordinate system Radar distance value selection unit 87 Preceding vehicle A1, A2, A3 Detection area L1, L2, L3 Lane

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI // G05D 1/02 G05D 1/02 K (56)参考文献 特開 平5−151341(JP,A) 特開 平4−311211(JP,A) 特開 平4−293109(JP,A) 特開 平4−291405(JP,A) 特開 平6−124398(JP,A) 特開 平4−36878(JP,A) (58)調査した分野(Int.Cl.7,DB名) G08G 1/00 - 1/16 B60R 21/00 G06T 1/00 G06T 7/60 G05D 1/02 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI // G05D 1/02 G05D 1/02 K (56) References JP-A 5-151341 (JP, A) JP-A 4- 311211 (JP, A) JP 4-293109 (JP, A) JP 4-291405 (JP, A) JP 6-124398 (JP, A) JP 4-36878 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G08G 1/00-1/16 B60R 21/00 G06T 1/00 G06T 7/60 G05D 1/02

Claims (23)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 車両前方の路面画像を採取し、画像処理
して路面の白線を抽出する撮像入力手段を有し、前記路
面画像上の白線を検出して、路面の三次元形状と路面に
対する車両の相対位置関係とを識別する走行路検出装置
において、 前記白線の二次曲線近似式を路面画像の座標系に変換し
たパラメータ記述式における、走行車線内の車両位置、
道路の平面曲率、車線に対する車両の傾き、道路の傾
斜、道路幅にそれぞれ関連付けた複数のパラメータを保
持する検出パラメータ保持手段と、 路面画像上の前記白線に沿った複数の白線候補点につい
て、路面画像の座標系を用いた位置情報を求める白線候
補点検出手段と、 前記検出パラメータ保持手段に保持した過去の複数のパ
ラメータから演算した仮想的な白線候補点に対して、路
面画像から求めた最新の白線候補点の前記位置情報を比
較して、前記複数のパラメータの最新値を求めて、前記
検出パラメータ保持手段の前記複数のパラメータを更新
させるパラメータ補正手段と、を有することを特徴とす
る走行路検出装置。
1. A road surface image in front of the vehicle is sampled, and image pickup processing is performed to extract a white line on the road surface by image processing. The white line on the road surface image is detected to detect the three-dimensional shape of the road surface and the road surface. In a traveling road detecting device for identifying the relative positional relationship of the vehicle, in the parameter description formula in which the quadratic curve approximation formula of the white line is converted into the coordinate system of the road surface image, the vehicle position in the traveling lane,
A detection parameter holding unit that holds a plurality of parameters respectively associated with the plane curvature of the road, the inclination of the vehicle with respect to the lane, the inclination of the road, and the width of the road, and the road surface with respect to the plurality of white line candidate points along the white line on the road surface image. The white line candidate point detecting means for obtaining position information using the coordinate system of the image, and the virtual white line candidate points calculated from a plurality of past parameters held in the detection parameter holding means, the latest obtained from the road surface image The position information of the white line candidate points is compared to obtain the latest values of the plurality of parameters, and the parameter correction unit that updates the plurality of parameters of the detection parameter holding unit is included. Road detection device.
【請求項2】 前記パラメータ補正手段は、前記仮想的
な白線候補点と最新の白線候補点とのずれ量を算出する
ずれ量算出手段と、 前記ずれ量に基づいて前記複数のパラメータの変動量を
算出するパラメータ変動量算出手段と、を含み、かつ、 前記パラメータ変動量算出手段は、最小二乗法を用いて
前記パラメータ変動量を算出することを特徴とする請求
項1記載の走行路検出装置。
2. The parameter correction means calculates a deviation amount between the virtual white line candidate point and the latest white line candidate point, and a deviation amount of the plurality of parameters based on the deviation amount. And a parameter variation calculating means for calculating the parameter variation calculating means, wherein the parameter variation calculating means calculates the parameter variation using a least square method. .
【請求項3】 前記パラメータ補正手段は、更新した最
新の前記複数のパラメータに基づいて、道路の平面曲
率、車線に対する車輌の傾き、道路の傾斜を算出して出
力する道路形状出力手段を含むことを特徴とする請求項
1または2記載の走行路検出装置。
3. The parameter correction means includes road shape output means for calculating and outputting a plane curvature of a road, a vehicle inclination with respect to a lane, and a road inclination based on the updated latest plurality of parameters. The traveling road detection device according to claim 1 or 2.
【請求項4】 前記パラメータ記述式は、走行車線内の
車両位置、道路の平面曲率、車線に対する車両の傾き、
道路の傾斜、道路幅に関連付けた複数のパラメータをそ
れぞれa、b、c、d、eとし、路面画像の座標系を
x、yとし、kを整数として、 x=(a+ke)(y−d)+b/(y−d)+c であることを特徴とする請求項1、2、または3記載の
走行路検出装置。
4. The parameter description expression is a vehicle position in a traveling lane, a plane curvature of a road, a vehicle inclination with respect to a lane,
Let a, b, c, d, and e be a plurality of parameters associated with the road slope and the road width, respectively, and let x and y be the coordinate system of the road surface image, and k be an integer: x = (a + ke) (yd ) + B / (y-d) + c, The traveling road detection device according to claim 1, 2, or 3.
【請求項5】 車両前方の路面画像を採取し、画像処理
して路面の白線を抽出する撮像入力手段と、前記白線の
検出結果に基づいて、少なくとも走行車線の幅と自車線
内の自車両位置とにそれぞれ関連付けられた2つの道路
パラメータを刻々の前記路面画像について算出する道路
パラメータ推定手段と、を有する走行路検出装置におい
て、 前記白線の推定位置に沿って前記路面画像上に設定した
複数の小領域のそれぞれについて、前記画像処理手段が
抽出した白線の通過位置座標を求める白線候補点検出手
段と、 前記路面画像上で前記小領域を設定すべき前記白線の本
数と、それぞれの前記白線に対する小領域の割り当て数
とを決定して、前記白線候補点検出手段に設定する白線
候補点検出領域設定手段と、 前記道路パラメータに基づいて自車線内の自車両位置を
識別する自車偏位判断手段と、を有し、かつ、 前記白線候補点検出領域設定手段は、前記自車両位置に
基づいて、前記小領域を設定すべき白線の本数と、それ
ぞれの白線に対する前記小領域の割り当て数とを変更
し、車両が一方の白線に接近した際には、接近方向の別
の1本の白線にも前記小領域を割り当てることを特徴と
する走行路検出装置。
5. An image pickup input means for collecting a road surface image in front of the vehicle and performing image processing to extract a white line on the road surface, and at least the width of the traveling lane and the own vehicle within the own lane based on the detection result of the white line. A road parameter estimating unit that calculates two road parameters associated with each position with respect to the road image every moment, and a plurality of road parameters set on the road image along the estimated position of the white line. For each of the small areas, the white line candidate point detecting means for obtaining the passing position coordinates of the white line extracted by the image processing means, the number of the white lines for setting the small areas on the road surface image, and the respective white lines The number of small areas to be allocated to the white line candidate point detection area is determined and the white line candidate point detection area setting means is set in the white line candidate point detection means. Own vehicle deviation determination means for identifying the own vehicle position in the lane, and the white line candidate point detection area setting means, based on the own vehicle position, of the white line to set the small area The number of lines and the number of small regions assigned to each white line are changed, and when the vehicle approaches one white line, the small region is also assigned to another white line in the approach direction. Road detection device.
【請求項6】 前記白線候補点検出領域設定手段は、走
行車線の幅と自車線内の自車両位置との差を検知し、車
両が一方の白線に接近して前記差が所定の判定基準値範
囲をはみだした場合には、その白線と両側の2本の白線
を含む3本の白線に対して前記小領域を割り当てること
を特徴とする請求項5記載の走行路検出装置。
6. The white line candidate point detection area setting means detects a difference between the width of the traveling lane and the position of the own vehicle in the own lane, the vehicle approaches one of the white lines, and the difference is a predetermined criterion. The traveling path detection device according to claim 5, wherein when the value range is exceeded, the small area is assigned to three white lines including the white line and two white lines on both sides.
【請求項7】 前記白線候補点検出領域設定手段は、走
行車線の幅と自車線内の自車両位置との差を検知し、車
両が一方の白線を越えた後に前記差が所定の判定基準値
範囲の中に入った場合には、新しい自車線の両側の2本
の白線のみに対して前記小領域を割り当てることを特徴
とする請求項5記載の走行路検出装置。
7. The white line candidate point detection area setting means detects a difference between the width of the traveling lane and the position of the vehicle in the own lane, and the difference is a predetermined criterion after the vehicle crosses one of the white lines. 6. The traveling road detecting device according to claim 5, wherein when the vehicle enters the value range, only the two white lines on both sides of the new own lane are assigned the small areas.
【請求項8】 前記白線候補点検出領域設定手段は、走
行車線の幅に関連付けて予め設定した定数を保持してお
り、前記走行車線の幅については、前記パラメータ推定
手段と無関係に、一定の値を用いて前記差の検知を行う
ことを特徴とする請求項5、6、または7記載の走行路
検出装置。
8. The white line candidate point detection area setting means holds a constant set in advance in association with the width of the traveling lane, and the width of the traveling lane is constant regardless of the parameter estimating means. 8. The traveling road detection device according to claim 5, wherein the difference is detected using a value.
【請求項9】 前記白線候補点検出領域設定手段は、前
記小領域を設定すべき白線の本数が変化しても、前記小
領域の割り当ての合計数を変化させずに小領域を設定す
ることを特徴とする請求項5、6、7、または8記載の
走行路検出装置。
9. The white line candidate point detection area setting means sets a small area without changing the total number of allocations of the small areas even if the number of white lines for setting the small area changes. The traveling road detecting device according to claim 5, 6, 7, or 8.
【請求項10】 前記白線候補点検出領域設定手段は、
3本の白線に対して前記小領域を割り当てる際に、接近
した白線に対して、両側の他の2本の白線のいずれに割
り当てるよりも多くの前記小領域を割り当てることを特
徴とする請求項5、6、7、8、または9記載の走行路
検出装置。
10. The white line candidate point detection area setting means comprises:
When allocating the said small area with respect to three white lines, the said small area is allocated with respect to the white line which approached more than any of the other two white lines on both sides. The traveling road detection device according to 5, 6, 7, 8 or 9.
【請求項11】 車両前方の路面画像を採取し、画像処
理して路面の白線を抽出する撮像入力手段と、前記白線
の検出結果に基づいて、少なくとも走行車線の幅と自車
線内の自車両位置とにそれぞれ関連付けられた2つの道
路パラメータを刻々の前記路面画像について算出する道
路パラメータ推定手段と、を有する走行路検出装置にお
いて、 前記白線の推定位置に沿って前記路面画像上に設定した
複数の小領域のそれぞれについて、前記画像処理手段が
抽出した白線の通過位置座標を求める白線候補点検出手
段と、 前記路面画像上で前記小領域を設定すべき前記白線の本
数と、それぞれの前記白線に対する小領域の割り当て数
とを決定して、前記白線候補点検出手段に設定する白線
候補点検出領域設定手段と、 前記道路パラメータに基づいて自車線内の自車両位置を
識別する自車偏位判断手段と、を有し、かつ、 前記白線候補点検出領域設定手段は、前記自車両位置に
基づいて、前記小領域を設定すべき白線の本数と、それ
ぞれの白線に対する前記小領域の割り当て数とを変更
し、車両が一方の白線に接近した際には、接近方向の別
の1本の白線にも前記小領域を割り当て、かつ、 自車両の方向指示器が操作されているか否かを識別する
方向指示判別手段と、 自車両が一方の前記白線に接近した際に、方向指示判別
手段によって方向指示器の非操作が識別された場合に
は、運転者に対して警報を出力する警報発生手段と、を
設けたことを特徴とする走行路検出装置。
11. An image capturing and inputting means for collecting a road surface image in front of the vehicle and performing image processing to extract a white line on the road surface, and at least the width of the traveling lane and the own vehicle within the own lane based on the detection result of the white line. A road parameter estimating unit that calculates two road parameters associated with each position with respect to the road image every moment, and a plurality of road parameters set on the road image along the estimated position of the white line. For each of the small areas, the white line candidate point detecting means for obtaining the passing position coordinates of the white line extracted by the image processing means, the number of the white lines for setting the small areas on the road surface image, and the respective white lines The number of small areas allocated to the white line candidate point detection area setting means to set the white line candidate point detection means, based on the road parameters Own vehicle deviation determination means for identifying the own vehicle position in the own lane, and the white line candidate point detection area setting means, based on the own vehicle position, the white line to set the small area And the number of small areas allocated to each white line are changed, and when the vehicle approaches one white line, the small area is also allocated to another white line in the approach direction, and When the vehicle approaches one of the white lines, the direction indicator discriminating means discriminates whether the direction indicator of the own vehicle is operated or not. In some cases, an alarm generation unit that outputs an alarm to the driver is provided, and the traveling road detection device.
【請求項12】 車両前方の路面画像を採取し、画像処
理して路面の白線を抽出する撮像入力手段と、前記白線
の検出結果に基づいて、少なくとも走行車線の幅と自車
線内の自車両位置とにそれぞれ関連付けられた2つの道
路パラメータを刻々の前記路面画像について算出する道
路パラメータ推定手段と、を有する走行路検出装置にお
いて、 前記白線の推定位置に沿って前記路面画像上に設定した
複数の小領域のそれぞれについて、前記画像処理手段が
抽出した白線の通過位置座標を求める白線候補点検出手
段と、 前記路面画像上で前記小領域を設定すべき前記白線の本
数と、それぞれの前記白線に対する小領域の割り当て数
とを決定して、前記白線候補点検出手段に設定する白線
候補点検出領域設定手段と、 前記道路パラメータに基づいて自車線内の自車両位置を
識別する自車偏位判断手段と、を有し、かつ、 前記白線候補点検出領域設定手段は、前記自車両位置に
基づいて、前記小領域を設定すべき白線の本数と、それ
ぞれの白線に対する前記小領域の割り当て数とを変更
し、車両が一方の白線に接近した際には、接近方向の別
の1本の白線にも前記小領域を割り当て、かつ、 前記路面画像上の自車線領域を認識する車線領域認識手
段と、 前記車線領域認識手段で認識される車線領域について前
方の障害物を検出する障害物検出手段と、 前記障害物検出手段で検出される障害物と車両との衝突
の可能性を判断する衝突可能性判断手段と、 衝突の可能性が肯定された場合に運転者に対して警報を
出力する警報発生手段と、を有することを特徴とする走
行路検出装置。
12. An image pickup input means for collecting a road surface image in front of the vehicle and performing image processing to extract a white line on the road surface, and at least the width of the traveling lane and the own vehicle within the own lane based on the detection result of the white line. A road parameter estimating unit that calculates two road parameters associated with each position with respect to the road image every moment, and a plurality of road parameters set on the road image along the estimated position of the white line. For each of the small areas, the white line candidate point detecting means for obtaining the passing position coordinates of the white line extracted by the image processing means, the number of the white lines for setting the small areas on the road surface image, and the respective white lines The number of small areas allocated to the white line candidate point detection area setting means to set the white line candidate point detection means, based on the road parameters Own vehicle deviation determination means for identifying the own vehicle position in the own lane, and the white line candidate point detection area setting means, based on the own vehicle position, the white line to set the small area And the number of small areas allocated to each white line are changed, and when the vehicle approaches one white line, the small area is also allocated to another white line in the approach direction, and Lane area recognition means for recognizing the own lane area on the road surface image, obstacle detection means for detecting an obstacle ahead of the lane area recognized by the lane area recognition means, and obstacle detection means for detecting the lane area. A collision possibility determining means for determining the possibility of a collision between the obstacle and the vehicle, and an alarm generating means for outputting an alarm to the driver when the possibility of the collision is affirmed. And a road detection device.
【請求項13】 車両前方の路面画像を採取し、画像処
理して路面の白線を抽出する撮像入力手段と、前記白線
の検出結果に基づいて、少なくとも走行車線の幅と自車
線内の自車両位置とにそれぞれ関連付けられた2つの道
路パラメータを刻々の前記路面画像について算出する道
路パラメータ推定手段と、を有する走行路検出装置にお
いて、 前記白線の推定位置に沿って前記路面画像上に設定した
複数の小領域のそれぞれについて、前記画像処理手段が
抽出した白線の通過位置座標を求める白線候補点検出手
段と、 前記路面画像上で前記小領域を設定すべき前記白線の本
数と、それぞれの前記白線に対する小領域の割り当て数
とを決定して、前記白線候補点検出手段に設定する白線
候補点検出領域設定手段と、 前記道路パラメータに基づいて自車線内の自車両位置を
識別する自車偏位判断手段と、を有し、かつ、 前記白線候補点検出領域設定手段は、前記自車両位置に
基づいて、前記小領域を設定すべき白線の本数と、それ
ぞれの白線に対する前記小領域の割り当て数とを変更
し、車両が一方の白線に接近した際には、接近方向の別
の1本の白線にも前記小領域を割り当て、かつ、 前記白線候補点検出領域設定手段が定めた白線の検出本
数によって認識する領域を変化させる車線領域認識手段
と、 車両が白線に接近して外側の白線に前記小領域が割り当
てられた際に隣接車線領域の障害物の有無を識別する隣
接車線障害物検出手段と、 前記障害物が存在する場合に、その障害物に衝突するこ
となく車線変更が可能か否かを判断する車線変更可否判
断手段と、を有することを特徴とする走行路検出装置。
13. An image pickup input means for collecting a road surface image in front of the vehicle and performing image processing to extract a white line of the road surface, and at least the width of the traveling lane and the own vehicle within the own lane based on the detection result of the white line. A road parameter estimating unit that calculates two road parameters associated with each position with respect to the road image every moment, and a plurality of road parameters set on the road image along the estimated position of the white line. For each of the small areas, the white line candidate point detecting means for obtaining the passing position coordinates of the white line extracted by the image processing means, the number of the white lines for setting the small areas on the road surface image, and the respective white lines The number of small areas allocated to the white line candidate point detection area setting means to set the white line candidate point detection means, based on the road parameters Own vehicle deviation determination means for identifying the own vehicle position in the own lane, and the white line candidate point detection area setting means, based on the own vehicle position, the white line to set the small area And the number of small areas allocated to each white line are changed, and when the vehicle approaches one white line, the small area is also allocated to another white line in the approach direction, and Lane area recognition means for changing the area to be recognized depending on the number of white lines detected by the white line candidate point detection area setting means, and an adjacent lane when the vehicle approaches the white line and the small area is assigned to the outer white line An adjacent lane obstacle detecting means for identifying the presence or absence of an obstacle in the area, and a lane change possibility determining means for determining whether or not the lane can be changed without colliding with the obstacle when the obstacle exists. Characterized by having Road detection device.
【請求項14】 車両前方の路面画像を採取し、画像処
理して路面の白線を抽出する撮像入力手段を有し、前記
路面画像上の白線を検出して、路面の三次元形状と路面
に対する車両の相対位置関係とを識別する走行路検出装
置において、 前記白線の近似式を路面画像の座標系に変換したパラメ
ータ記述式における複数のパラメータを保持する検出パ
ラメータ保持手段と、 路面画像上の前記白線に沿った複数の白線候補点につい
て、路面画像の座標系を用いた位置情報を求める白線候
補点検出手段と、 前記検出パラメータ保持手段に保持した過去の複数のパ
ラメータから演算した仮想的な白線候補点に対して、路
面画像から求めた最新の白線候補点の前記位置情報を比
較して、前記複数のパラメータの最新値を求めて、前記
検出パラメータ保持手段の前記複数のパラメータを更新
させるパラメータ補正手段と、を有するとともに、 自車線の先行車両によって前記白線が遮断される範囲を
求める白線遮蔽範囲検出手段と、 前記パラメータ記述式として、白線を二次曲線で近似し
た第1パラメータ記述式と、前記白線が遮蔽された場合
に適合させて第1パラメータ記述式を簡略化した第2パ
ラメータ記述式とを記憶させた複数の白線モデル記憶手
段と、 前記白線遮蔽範囲検出手段の検出状態に応じて前記複数
の白線モデル記憶手段における複数のパラメータ記述式
を選択し、前記白線が遮蔽された場合には、前記パラメ
ータ補正手段に第2パラメータ記述式による処理を実行
させる白線モデル切り換え手段と、を設けたことを特徴
とする走行路検出装置。
14. A road surface image in front of the vehicle is sampled, and image pickup means is provided for image processing to extract a white line on the road surface. The white line on the road surface image is detected to detect the three-dimensional shape of the road surface and the road surface. In a traveling road detection device for identifying a relative positional relationship between vehicles, a detection parameter holding unit that holds a plurality of parameters in a parameter description expression obtained by converting the approximate expression of the white line into a coordinate system of a road surface image, and the above-mentioned on the road surface image For a plurality of white line candidate points along the white line, a white line candidate point detection means for obtaining position information using the coordinate system of the road surface image, and a virtual white line calculated from a plurality of past parameters held in the detection parameter holding means. For the candidate point, the position information of the latest white line candidate point obtained from the road surface image is compared, the latest value of the plurality of parameters is obtained, and the detected parameter is held. A parameter correction means for updating the plurality of parameters of the means, a white line shielding range detection means for obtaining a range in which the white line is blocked by a preceding vehicle in the own lane, and a white line as a secondary expression for the parameter description expression. A plurality of white line model storage means for storing a first parameter description expression approximated by a curve and a second parameter description expression adapted to simplify the first parameter description expression when the white line is shielded; A plurality of parameter description expressions in the plurality of white line model storage means are selected according to the detection state of the white line occlusion range detection means, and when the white line is shielded, the parameter correction means performs processing by the second parameter description expression. And a white line model switching means for executing.
【請求項15】 前記白線遮蔽範囲検出手段は、前記路
面画像から自車線上の先行車両を識別して先行車両の位
置を求める車両位置検出手段と、求められた車両位置に
基づいて白線が遮蔽される範囲を推定する遮蔽範囲推定
手段と、を有することを特徴とする請求項14記載の走
行路検出装置。
15. The white line shielding range detecting means detects a preceding vehicle on the own lane from the road surface image to obtain a position of the preceding vehicle, and a white line is shielded based on the obtained vehicle position. 15. The traveling road detecting device according to claim 14, further comprising: a shielding range estimating unit that estimates a range to be covered.
【請求項16】 前記車両位置検出手段は、前記路面画
像から先行車両の両側端座標を求めて先行車両の位置を
計算することを特徴とする請求項15記載の走行路検出
装置。
16. The traveling road detecting apparatus according to claim 15, wherein the vehicle position detecting means calculates the position of the preceding vehicle by obtaining the side edge coordinates of the preceding vehicle from the road surface image.
【請求項17】 前記車両位置検出手段は、前記路面画
像から先行車両の下端座標を求めて先行車両の位置を計
算することを特徴とする請求項15記載の走行路検出装
置。
17. The traveling road detecting apparatus according to claim 15, wherein the vehicle position detecting means calculates the position of the preceding vehicle by obtaining the lower end coordinates of the preceding vehicle from the road surface image.
【請求項18】 前記白線遮蔽範囲検出手段は、 複数の指向性方向で先行車両を検知して、それぞれの方
向で障害物までの距離を計測可能な車間距離検出手段
と、 前記パラメータに基づいて自車線の先行車両が前記複数
の指向性のいずれに相当しているかを識別する自車走行
レーン認識手段と、 自車走行レーン認識手段の識別結果に基づいて、前記車
間距離検出手段が求めた複数の車間距離から自車線上の
先行車両の車間距離を選択する車間距離値選択手段と、
を含むことを特徴とする請求項14記載の走行路検出装
置。
18. The inter-vehicle distance detection means capable of detecting a preceding vehicle in a plurality of directivity directions and measuring the distance to an obstacle in each direction, based on the parameter. The inter-vehicle distance detection means obtains based on the own vehicle traveling lane recognition means for identifying which of the plurality of directivities the preceding vehicle in the own lane corresponds to, and the identification result of the own vehicle traveling lane recognition means. An inter-vehicle distance value selecting means for selecting an inter-vehicle distance of a preceding vehicle on the own lane from a plurality of inter-vehicle distances,
The traveling road detection device according to claim 14, further comprising:
【請求項19】 第1パラメータ記述式は、走行車線内
の車両位置、道路の平面曲率、車線に対する車両の傾
き、道路の傾斜、道路幅にそれぞれ関連付けた5つのパ
ラメータを含み、一方、第2パラメータ記述式は、道路
の平面曲率に関連つけた1つを除く4つのパラメータを
含むことを特徴とする請求項14、15、16、17、
または18記載の走行路検出装置。
19. The first parameter descriptive expression includes five parameters respectively associated with a vehicle position in a driving lane, a plane curvature of a road, a vehicle inclination with respect to a lane, a road inclination, and a road width, while a second parameter is included. 18. The parameter description formula includes four parameters other than one associated with the plane curvature of the road, 14, 15, 16, 17,
Or the traveling road detection device according to item 18.
【請求項20】 第1パラメータ記述式は二次曲線式、
第2パラメータ記述式は一次直線式であることを特徴と
する請求項14、15、16、17、18、または19
記載の走行路検出装置。
20. The first parameter description formula is a quadratic curve formula,
20. The second parameter description expression is a linear linear expression, 14, 15, 16, 17, 18, or 19.
The traveling road detection device described.
【請求項21】 前記パラメータ補正手段は、選択され
たパラメータ記述式による仮想的な白線候補点と前記路
面画像から求めた最新の白線候補点とのずれ量を算出す
るずれ量算出手段と、 前記ずれ量に基づいて前記複数のパラメータの変動量を
算出するパラメータ変動量算出手段と、を含み、かつ、 前記パラメータ変動量算出手段は、最小二乗法を用いて
前記パラメータ変動量を算出することを特徴とする請求
項14、15、16、17、18、19、または20記
載の走行路検出装置。
21. The shift amount calculating unit calculates the shift amount between a virtual white line candidate point based on a selected parameter description expression and a latest white line candidate point obtained from the road surface image, A parameter fluctuation amount calculating means for calculating a fluctuation amount of the plurality of parameters based on a deviation amount; and, the parameter fluctuation amount calculating means calculates the parameter fluctuation amount using a least square method. 21. The traveling road detecting device according to claim 14, 15, 16, 17, 18, 19, or 20.
【請求項22】 前記パラメータ補正手段は、更新した
前記複数のパラメータに基づいて道路の三次元形状を算
出し、直ちに出力する道路形状出力手段を含むことを特
徴とする請求項14、15、16、17、18、19、
20、または21記載の走行路検出装置。
22. The parameter correction means includes a road shape output means for calculating a three-dimensional shape of a road based on the updated plurality of parameters and immediately outputting it. , 17, 18, 19,
20. The traveling road detection device according to 20 or 21.
【請求項23】 走行車線内の車両位置、道路の平面曲
率、車線に対する車両の傾き、道路の傾斜、道路幅にそ
れぞれ関連付けたパラメータをa、b、c、d、eと
し、前記路面画像の座標系をx、yとし、iを整数とす
るとき、第1パラメータ記述式は、 x=(a+ie)(y−d)+b/(y−d)+c であり、一方、第2パラメータ記述式は、 x=(a+ie)(y−d)+c であることを特徴とする請求項14、15、16、1
7、18、19、20、21、または22記載の走行路
検出装置。
23. Parameters a, b, c, d, and e respectively associated with the vehicle position in the traveling lane, the plane curvature of the road, the inclination of the vehicle with respect to the lane, the inclination of the road, and the width of the road are defined as a, b, c, d, e. When the coordinate system is x, y and i is an integer, the first parameter description expression is x = (a + ie) (yd) + b / (yd) + c, while the second parameter description expression is Is x = (a + ie) (y−d) + c.
7. The traveling road detection device according to 7, 18, 19, 20, 21, or 22.
JP16305294A 1994-06-21 1994-06-21 Roadway detection device Expired - Fee Related JP3424334B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16305294A JP3424334B2 (en) 1994-06-21 1994-06-21 Roadway detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16305294A JP3424334B2 (en) 1994-06-21 1994-06-21 Roadway detection device

Publications (2)

Publication Number Publication Date
JPH085388A JPH085388A (en) 1996-01-12
JP3424334B2 true JP3424334B2 (en) 2003-07-07

Family

ID=15766264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16305294A Expired - Fee Related JP3424334B2 (en) 1994-06-21 1994-06-21 Roadway detection device

Country Status (1)

Country Link
JP (1) JP3424334B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9969399B2 (en) 2015-10-22 2018-05-15 Hyundai Motor Company Vehicle and method of controlling the vehicle

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3022330B2 (en) * 1996-07-09 2000-03-21 日本電気株式会社 Moving image recognition device and moving image recognition method
JPH1031799A (en) * 1996-07-15 1998-02-03 Toyota Motor Corp Automatic traveling controller
JP3603768B2 (en) 2000-09-06 2004-12-22 日産自動車株式会社 Lane departure judgment device
JP3521860B2 (en) 2000-10-02 2004-04-26 日産自動車株式会社 Vehicle travel path recognition device
JP3736346B2 (en) 2000-12-26 2006-01-18 日産自動車株式会社 Lane detection device
JP3780922B2 (en) 2001-11-30 2006-05-31 日産自動車株式会社 Road white line recognition device
JP3922194B2 (en) 2003-03-11 2007-05-30 日産自動車株式会社 Lane departure warning device
JP4355535B2 (en) * 2003-08-07 2009-11-04 株式会社岩根研究所 360 degree image conversion processing device
JP3856798B2 (en) * 2004-04-09 2006-12-13 松下電器産業株式会社 Navigation device
JP4739699B2 (en) * 2004-06-30 2011-08-03 株式会社日立製作所 License plate recognition apparatus and method
JP5109296B2 (en) * 2006-07-04 2012-12-26 トヨタ自動車株式会社 Driving support device
JP5055933B2 (en) * 2006-10-05 2012-10-24 トヨタ自動車株式会社 Driving support device
JP4900211B2 (en) * 2007-11-29 2012-03-21 トヨタ自動車株式会社 Driving support device, inter-vehicle distance setting method
JP4744537B2 (en) * 2008-02-05 2011-08-10 日立オートモティブシステムズ株式会社 Driving lane detector
JP4622001B2 (en) 2008-05-27 2011-02-02 トヨタ自動車株式会社 Road lane marking detection apparatus and road lane marking detection method
JP5430213B2 (en) * 2009-04-24 2014-02-26 本田技研工業株式会社 Vehicle periphery monitoring device
JP5464054B2 (en) * 2010-05-27 2014-04-09 日産自動車株式会社 Road environment information acquisition apparatus and method
WO2012104918A1 (en) * 2011-02-03 2012-08-09 トヨタ自動車株式会社 Road shape estimation device
KR101578434B1 (en) * 2011-08-04 2015-12-17 엘지전자 주식회사 Apparatus for detecting lane and method thereof
JP5823251B2 (en) * 2011-10-20 2015-11-25 アルパイン株式会社 Lane monitoring system and lane monitoring method
US20130141520A1 (en) * 2011-12-02 2013-06-06 GM Global Technology Operations LLC Lane tracking system
JP6044158B2 (en) * 2012-07-31 2016-12-14 日産自動車株式会社 Vehicle travel support device and vehicle travel support method
JP5754470B2 (en) 2012-12-20 2015-07-29 株式会社デンソー Road surface shape estimation device
JP6032017B2 (en) * 2013-01-10 2016-11-24 トヨタ自動車株式会社 Operation control apparatus and operation control method
JP6260233B2 (en) * 2013-12-02 2018-01-17 富士通株式会社 Information processing apparatus, camera mounting angle estimation method, and program
JP6483446B2 (en) 2015-01-15 2019-03-13 トヨタ自動車株式会社 Composite line determination apparatus and composite line determination method
JP5971369B2 (en) * 2015-03-11 2016-08-17 日本電気株式会社 Driving support device, driving support method, and program
JP6774297B2 (en) * 2016-10-17 2020-10-21 株式会社デンソー Vehicle recognition device and vehicle recognition method
KR101979422B1 (en) * 2017-02-01 2019-05-16 주식회사 만도 Camera system and camera system included calibration adjusting method
CN111615477B (en) * 2018-12-26 2023-10-27 百度时代网络技术(北京)有限公司 Method for filtering obstacles of non-avoidance planning system in automatic driving vehicle
CN113075716A (en) * 2021-03-19 2021-07-06 地平线(上海)人工智能技术有限公司 Image-based vehicle positioning method and device, storage medium and electronic equipment
KR102487341B1 (en) * 2021-05-27 2023-01-11 주식회사 로드텍 Apparatus and method for vehicle type lane luminance measurement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9969399B2 (en) 2015-10-22 2018-05-15 Hyundai Motor Company Vehicle and method of controlling the vehicle

Also Published As

Publication number Publication date
JPH085388A (en) 1996-01-12

Similar Documents

Publication Publication Date Title
JP3424334B2 (en) Roadway detection device
US20110001615A1 (en) Obstacle detection procedure for motor vehicle
US8605947B2 (en) Method for detecting a clear path of travel for a vehicle enhanced by object detection
JP3349060B2 (en) Outside monitoring device
US8452054B2 (en) Obstacle detection procedure for motor vehicle
KR102029850B1 (en) Object detecting apparatus using camera and lidar sensor and method thereof
CN110246183B (en) Wheel grounding point detection method, device and storage medium
CN110794406B (en) Multi-source sensor data fusion system and method
KR102269750B1 (en) Method for Real-time Object Detection Based on Lidar Sensor and Camera Using CNN
JP2000357233A (en) Body recognition device
EP2642364B1 (en) Method for warning the driver of a motor vehicle about the presence of an object in the surroundings of the motor vehicle, camera system and motor vehicle
JP4510554B2 (en) Three-dimensional object monitoring device
JP4102885B2 (en) Parked vehicle detection method and parked vehicle detection system
JP2008304344A (en) Target detector
JP4407920B2 (en) Obstacle recognition method and obstacle recognition device
US11151395B2 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
JP2001052171A (en) Surrounding environment recognizing device
JPH08156723A (en) Vehicle obstruction detecting device
CN115469312A (en) Method and device for detecting passable area of vehicle, electronic device and storage medium
JP2002334330A (en) Vehicle recognition device
JPH0844999A (en) Approach prediction device
EP3428876A1 (en) Image processing device, apparatus control system, imaging device, image processing method, and program
EP4024330A1 (en) Object recognition method and object recognition device
JP3463397B2 (en) Roadway detection device
JP3726309B2 (en) Vehicle recognition device and vehicle approach notification device using the same

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030401

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090502

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100502

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130502

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140502

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees