JPH0843083A - Preceding vehicle detection device and access alarming device - Google Patents

Preceding vehicle detection device and access alarming device

Info

Publication number
JPH0843083A
JPH0843083A JP6194974A JP19497494A JPH0843083A JP H0843083 A JPH0843083 A JP H0843083A JP 6194974 A JP6194974 A JP 6194974A JP 19497494 A JP19497494 A JP 19497494A JP H0843083 A JPH0843083 A JP H0843083A
Authority
JP
Japan
Prior art keywords
vehicle
horizontal edge
preceding vehicle
image
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6194974A
Other languages
Japanese (ja)
Other versions
JP3399104B2 (en
Inventor
Kazuhiko Kanehara
和彦 金原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP19497494A priority Critical patent/JP3399104B2/en
Publication of JPH0843083A publication Critical patent/JPH0843083A/en
Application granted granted Critical
Publication of JP3399104B2 publication Critical patent/JP3399104B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To eliminate erroneous detection and to speedily detect a preceding vehicle. CONSTITUTION:A horizontal edge image (a) is created by performing filter treatment to a forward road image (b). A horizontal edge intensity where the change in the density value of an original image from brightness to darkness direction from the lower portion of the horizontal edge image is reflected is evaluated by Ne(y)/Nw(y) function, a horizontal edge which is regarded as the lower-edge candidate of a preceding vehicle according to whether a function value smaller than a threshold Rt exists or not is extracted, and an upper direction is retrieved from a position coordinate yo of the horizontal edge and a coordinate position ys where the absolute value of the intensity of the horizontal edge is minimized for the first time is detected. Then, it is judged whether the detected edge belongs to the preceding vehicle or not according to the ratio of a horizontal edge width at the upper part of the coordinate position ys of the edge to the road width at the coordinate ys, thus surely detecting the preceding vehicle with less erroneous detection.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理によって先行
車検出を行なう先行車検出装置に関し、とくに高速道路
における先行車の検出及びそれを用いて車間距離を計
り、先行車に異常接近が発生したとき警報する接近警報
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a preceding vehicle detecting device for detecting a preceding vehicle by image processing, and particularly detecting a preceding vehicle on an expressway and measuring an inter-vehicle distance using the preceding vehicle to cause an abnormal approach to the preceding vehicle. The present invention relates to an approach warning device that warns when a user does.

【0002】[0002]

【従来の技術】従来の先行車検出装置に関しては、例え
ば、特開平3−273500号公報に開示されているも
のがある。このものは、撮像手段によって得られた前方
画像より、自車走行領域を認識し、該走行領域におい
て、車両の水平エッジ成分を利用して、水平エッジを探
すことを以て車両検出を行なう。また、取付位置の既知
のビデオカメラと、その画像内の車両最下端部水平エッ
ジ位置より、車間距離を算出して、自車速によって対先
行車間で危険度判断を行ない、そして危険と判定された
場合は警報により運転者に注意を促すというシステムで
ある。
2. Description of the Related Art A conventional preceding vehicle detection device is disclosed in, for example, Japanese Patent Application Laid-Open No. 3-273500. This device recognizes the vehicle traveling area from the front image obtained by the image pickup means, and detects the horizontal edge in the traveling area by searching for the horizontal edge by utilizing the horizontal edge component of the vehicle. In addition, the inter-vehicle distance is calculated from the video camera with the known attachment position and the horizontal edge position of the vehicle bottom end in the image, and the risk is judged between the preceding vehicle and the preceding vehicle based on the own vehicle speed, and it is judged as dangerous. In this case, the system alerts the driver with an alarm.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の先行車検出装置にあっては、先行車の検出は
水平エッジの検出に基づいて行なわれるため、路面上に
は車両のほかに水平エッジが検出される物標が多数存在
し、例えば跨道橋の影や、車間距離確認用白線や、道路
継ぎ目など暗ー明ー暗、あるいは、明ー暗ー明等濃度差
が存在し、且つ走行路進行方向に対して略垂直方向に分
布してあるから、誤検出が多い。
However, in such a conventional preceding vehicle detection device, the detection of the preceding vehicle is performed based on the detection of the horizontal edge. There are many targets whose edges are detected, such as shadows of overpasses, white lines for checking the distance between vehicles, dark / light-dark such as road joints, or light-dark-light density differences, etc. In addition, since it is distributed in a direction substantially perpendicular to the traveling direction of the road, there are many false detections.

【0004】そして車間距離は車両最下部水平エッジの
画像内位置によって検出するとしているが、車両は、図
16の(a)で示すように路面上に影253を伴ない、
その車両影には濃度諧調が存在するために(b)のよう
に車両下部近傍においては影253による複数水平エッ
ジが存在することになり、水平エッジが検出されても、
車両最下部水平エッジの特定が困難である。従って、図
17で示すように仮に車両近傍の下端水平エッジから車
間距離を演算すると実際の車間距離より短い距離値を出
力ことになり、例えば接近警報装置に適用した場合、頻
繁に警報が発生することにより運転者に違和感を与えか
ねない。
Although it is stated that the inter-vehicle distance is detected by the position in the image of the lowermost horizontal edge of the vehicle, the vehicle has a shadow 253 on the road surface as shown in FIG.
Since the vehicle shadow has a density gradation, a plurality of horizontal edges due to the shadow 253 exist in the vicinity of the lower portion of the vehicle as shown in (b), and even if the horizontal edge is detected,
It is difficult to identify the bottom horizontal edge of the vehicle. Therefore, as shown in FIG. 17, if the inter-vehicle distance is calculated from the lower horizontal edge near the vehicle, a distance value shorter than the actual inter-vehicle distance is output. For example, when applied to an approach warning device, a warning is frequently issued. This may give the driver a feeling of strangeness.

【0005】上記問題に対する1つの対策としては、橋
影、道路標識、道路継ぎ目などの水平エッジは道幅いっ
ぱいに分布し、また電柱などの路肩静止物の場合は影の
水平エッジに静止物の最下部上方のエッジが走行レーン
外から分布するという特徴を持っていることから、例え
ば車両下端部より上方で検出される水平エッジの幅が所
定範囲内であること利用しての誤検出防止方法が考えら
れる。しかしこの場合、水平エッジ幅を実際の車幅に変
換する際、車両下端座標における道幅が必要となるが、
車両近傍の水平エッジ最下端の座標がすなわち車両下端
座標たりえないので、新たなに車両下端を特定する手段
が必要となるという問題があった。
As one countermeasure against the above-mentioned problem, horizontal edges such as bridge shadows, road signs, and road joints are distributed over the entire width of the road, and in the case of a road shoulder stationary object such as a utility pole, the maximum of the stationary object is located on the horizontal edge of the shadow. Since the upper edge of the lower part is distributed from outside the driving lane, there is a method of preventing erroneous detection using, for example, that the width of the horizontal edge detected above the lower end of the vehicle is within a predetermined range. Conceivable. However, in this case, when converting the horizontal edge width to the actual vehicle width, the road width at the vehicle bottom coordinate is necessary,
Since the coordinates of the lowermost end of the horizontal edge near the vehicle cannot be the coordinates of the lower end of the vehicle, there is a problem that a new means for specifying the lower end of the vehicle is required.

【0006】また、画像の下端の水平エッジの周辺にお
いて原画像内で車線内濃度値が車両影として認識し得る
低い濃度値を有することから、濃度値で道路標識、継ぎ
目等による誤検出を防止するというアルゴリズムを考え
た場合、車線内のどこを参照したらよいのかが分からな
いため、効率が非常に低い。従ってこの場合は影として
十分低い濃度値が得られるのかが特定されないという問
題もあった。この発明は、上記問題点に鑑み、誤検出を
無くし、より精度の高い先行車検出装置を提供し、また
これを用いて接近警報装置を提供することを目的として
いる。
Further, since the density value in the lane has a low density value that can be recognized as a vehicle shadow in the original image around the lower horizontal edge of the image, the density value prevents erroneous detection due to road signs, seams, and the like. Considering the algorithm to do, the efficiency is very low because it is not known where to look in the lane. Therefore, in this case, there is a problem that it is not specified whether a sufficiently low density value is obtained as a shadow. In view of the above problems, an object of the present invention is to provide a more accurate preceding vehicle detection device that eliminates erroneous detection, and an approach warning device using the same.

【0007】[0007]

【課題を解決するための手段】このため請求項1記載の
本発明は、図1で示すように、車両に装着され前方道路
を撮像する撮像手段1と、前方道路原画像にフィルタ処
理を施して水平エッジを検出してエッジ画像を生成する
水平エッジ検出手段2と、上記水平エッジ画像、原画像
を保持する記憶手段3と、自車走行レーン検出手段4
と、該自車走行レーンにおいて、原画像の濃度値が変化
することを反映した水平エッジ強度を縦方向の画像座標
yの所定の関数R(y)で評価する評価手段5と、該評
価結果に基づき上記自車走行レーン内の先行車候補とみ
なせる水平エッジ位置yoを検出する先行車候補検出手
段6と、該yoを起点として画面上方にて初めてエッジ
強度が極小となる座標ysを検出する先行車下端位置検
出手段7と、上記自車走行レーン内に前記座標ys上の
原画像濃度値が所定範囲内にあるか否かを判定する濃度
判定手段8とを備え、該原画像濃度値が所定範囲内であ
るときに先行車の検出信号を出力するものとした。
Therefore, according to the present invention as set forth in claim 1, as shown in FIG. 1, an image pickup means 1 which is mounted on a vehicle and picks up an image of a front road, and an original image of the front road is filtered. A horizontal edge detecting means 2 for detecting a horizontal edge to generate an edge image, a storage means 3 for holding the horizontal edge image and the original image, and a vehicle running lane detecting means 4
And an evaluation means 5 for evaluating the horizontal edge strength reflecting the change of the density value of the original image in the vehicle traveling lane by a predetermined function R (y) of the image coordinate y in the vertical direction, and the evaluation result. Based on the above, the preceding vehicle candidate detecting means 6 for detecting the horizontal edge position yo that can be regarded as a preceding vehicle candidate in the vehicle traveling lane, and the coordinate ys at which the edge strength becomes the minimum for the first time at the upper part of the screen starting from the yo. The preceding vehicle lower end position detecting means 7 and the density determining means 8 for determining whether or not the original image density value on the coordinate ys is within a predetermined range in the vehicle traveling lane are provided, and the original image density value is predetermined. The detection signal of the preceding vehicle is output when it is within the range.

【0008】請求項2記載の発明は、車両に装着され前
方道路を撮像する撮像手段1と、前方道路原画像にフィ
ルタ処理を施して水平エッジを検出してエッジ画像を生
成する水平エッジ検出手段2と、上記水平エッジ画像、
原画像を保持する記憶手段3と、自車走行レーン検出手
段4と、該自車走行レーンにおいて、原画像の濃度値が
変化することを反映した水平エッジ強度を縦方向の画像
座標yの所定の関数R(y)で評価する評価手段5と、
該評価結果に基づき上記自車走行レーン内の先行車候補
とみなせる水平エッジ位置yoを検出する先行車候補検
出手段6と、該yoを起点として画面上方にて初めてエ
ッジ強度が極小となる座標ysを検出する先行車下端位
置検出手段7と、上記自車走行レーン内に前記座標ys
上の原画像濃度値が所定範囲内にあるか否かを判定する
濃度判定手段8と、前記座標ysより上方に、幅が所定
範囲にある水平エッジの有無を判定する幅判定手段9と
を備え、上記原画像濃度値が所定範囲内、かつ水平エッ
ジの幅が所定範囲内であるときに先行車の検出信号を出
力するものとした。
According to a second aspect of the present invention, an image pickup means 1 mounted on a vehicle for picking up an image of a front road, and a horizontal edge detecting means for detecting a horizontal edge by subjecting an original image of the front road to a horizontal edge and generating an edge image. 2 and the horizontal edge image,
The storage means 3 for holding the original image, the own vehicle traveling lane detecting means 4, and the horizontal edge strength reflecting the change of the density value of the original image in the own vehicle traveling lane are predetermined at the vertical image coordinate y. Evaluating means 5 for evaluating with the function R (y) of
Based on the evaluation result, a preceding vehicle candidate detecting means 6 for detecting a horizontal edge position yo that can be regarded as a preceding vehicle candidate in the vehicle traveling lane, and a coordinate ys at which the edge strength becomes minimum for the first time at the upper part of the screen starting from the yo. Detecting means 7 for detecting the lower end position of the preceding vehicle, and the coordinate ys in the traveling lane of the own vehicle.
A density determination means 8 for determining whether the upper original image density value is within a predetermined range, and a width determination means 9 for determining the presence or absence of a horizontal edge having a width within a predetermined range above the coordinate ys are provided. The detection signal of the preceding vehicle is output when the original image density value is within the predetermined range and the width of the horizontal edge is within the predetermined range.

【0009】請求項3記載の発明は、上記関数R(y)
は、yにより定まる道幅相当画素数と、道該幅内におけ
る所定範囲の強度を有する水平エッジ点の個数との比と
されるものとした。請求項4記載の発明は、上記関数R
(y)は、レーンマーカに平行するサーチラインを画像
座標系に変換したサーチライン上の水平エッジ強度とさ
れるものとした。請求項5記載の発明は、上記先行車下
端位置検出手段によるエッジ強度極小値の検出は、ある
水平エッジの強度値と、当該水平エッジのy座標前後の
水平エッジ強度値との差及び積によって行なうものとし
た。請求項6記載の発明は、上記先行車下端位置検出手
段によるエッジ強度極小値の検出は、前記関数R(y)
の値が所定値以下であるか否かを判断することによって
検出するものとした。請求項7記載の発明は、上記先行
車下端位置検出手段によるエッジ位置ysの検出は、過
去の先行車候補yo及びyoに対する座標ysの位置を
メモリテーブルに記憶し、検出されたyoによって該メ
モリテーブルを参照して検出を行なうものとした。
According to a third aspect of the present invention, the above function R (y)
Is the ratio of the number of pixels corresponding to the road width determined by y to the number of horizontal edge points having a predetermined range of intensity within the road width. The invention according to claim 4 is the above-mentioned function R
(Y) is the horizontal edge strength on the search line obtained by converting the search line parallel to the lane marker into the image coordinate system. In the invention according to claim 5, the detection of the edge strength minimum value by the preceding vehicle lower end position detection means is based on the difference and product between the strength value of a certain horizontal edge and the horizontal edge strength values before and after the y coordinate of the horizontal edge. I decided to do it. According to a sixth aspect of the present invention, the edge strength minimum value is detected by the preceding vehicle lower end position detecting means by the function R (y).
The value is detected by determining whether or not the value is less than or equal to a predetermined value. According to the invention of claim 7, the detection of the edge position ys by the preceding vehicle lower end position detecting means stores the past preceding vehicle candidate yo and the position of the coordinate ys with respect to yo in the memory table, and the memory is detected by the detected yo. The detection is performed by referring to the table.

【0010】請求項8記載の発明は、上記自車走行レー
ン検出手段5は、上記原画像上で白線候補点を検出し、
該候補点により決定される白線を所定のパラメータによ
って記述される近似曲線で近似し自車走行レーンを検出
するものとした。請求項9記載の発明は、上記近似曲線
の記述式は、少なくともa(白線からの距離に相当)、
b(道路曲率に相当)、c(対道路ヨー角に相当)、d
(道路とカメラのなす角に相当するピッチ角)、e(道
路幅に相当)という5つのパラメータを含むものとし
た。請求項10記載の発明は、上記近似曲線の記述式
は、二次式とされるものとした。請求項11記載の発明
は、上記二次式は、x=(a+ie)(y−d)+b/
(y−d)+c (但し、iは整数とする。)とされる
ものとした。請求項12記載の発明は、上記近似は、最
小二乗法で近似するものとした。
According to an eighth aspect of the present invention, the vehicle lane detecting means 5 detects a white line candidate point on the original image,
The white line determined by the candidate points is approximated by an approximate curve described by a predetermined parameter to detect the vehicle traveling lane. In the invention according to claim 9, the descriptive expression of the approximate curve is at least a (corresponding to the distance from the white line),
b (corresponding to road curvature), c (corresponding to road yaw angle), d
It is assumed to include five parameters (pitch angle corresponding to the angle formed by the road and the camera) and e (corresponding to the road width). In the invention according to claim 10, the descriptive expression of the approximate curve is a quadratic expression. In the invention according to claim 11, the quadratic expression is x = (a + ie) (yd) + b /
(Y−d) + c (where i is an integer). In the invention described in claim 12, the approximation is performed by the least square method.

【0011】請求項13記載の発明は、図2で示すよう
に、車両前方に装着され前方道路を撮像する撮像手段1
と、前方道路原画像にフィルタ処理を施して水平エッジ
を検出してエッジ画像を生成する水平エッジ検出手段2
と、上記原画像、水平エッジ画像を保持する記憶手段3
と、自車走行レーン検出手段4と、該自車走行レーン上
において、原画像の濃度値が変化することを反映した水
平エッジ強度を縦方向の画像座標yの所定の関数R
(y)で評価する評価手段5と、該評価結果に基づき上
記自車走行レーン内の先行車候補とみなせる水平エッジ
位置yoを検出する先行車候補検出手段6と、該yoを
起点として画面上方にて初めてエッジ強度が極小となる
座標ysを検出する先行車下端位置検出手段7と、上記
自車走行レーン内に前記座標ys上の原画像濃度値が所
定範囲内にあるか否かを判定する濃度判定手段8と、前
記座標ysをもとに先行車との概略車間距を算出する距
離算出手段10と、車両に装着され先行車との車間距離
を測定する測距手段11と、自車速を検出する速度検出
手段12と、上記概略車間距離値、測距手段の測定値、
自車速度により先行車への接近状況を判断し警報を発す
る警報手段13とを備えるものとした。
According to a thirteenth aspect of the present invention, as shown in FIG. 2, an image pickup means 1 attached to the front of the vehicle for picking up an image of the road ahead.
And a horizontal edge detecting means 2 for generating an edge image by detecting horizontal edges by filtering the original image of the road ahead.
And a storage means 3 for holding the original image and the horizontal edge image.
, The vehicle running lane detecting means 4, and the horizontal edge strength reflecting the change of the density value of the original image on the vehicle running lane, the predetermined function R of the vertical image coordinate y.
(Y) Evaluation means 5 for evaluating, a preceding vehicle candidate detecting means 6 for detecting a horizontal edge position yo that can be regarded as a preceding vehicle candidate in the vehicle traveling lane based on the evaluation result, and an upper part of the screen with the yo as a starting point. At first, the leading vehicle lower end position detecting means 7 for detecting the coordinate ys at which the edge strength becomes the minimum, and the density for judging whether or not the original image density value on the coordinate ys is within a predetermined range in the own vehicle traveling lane. The determining means 8, the distance calculating means 10 for calculating the approximate inter-vehicle distance based on the coordinate ys, the distance measuring means 11 mounted on the vehicle for measuring the inter-vehicle distance, and the own vehicle speed The speed detecting means 12 for detecting, the above-mentioned approximate inter-vehicle distance value, the measured value of the distance measuring means,
The alarm means 13 is provided for judging the approaching situation to the preceding vehicle based on the own vehicle speed and issuing an alarm.

【0012】[0012]

【作用】請求項1の発明では、前方道路原画像にフィル
タ処理を施して水平エッジ画像を作成する。そして水平
エッジ画像の下から明→暗方向に原画像の濃度値が変化
することを反映した水平エッジ強度を所定の関数R
(y)で評価し、その評価結果によって先行車の下端候
補とみなせる水平エッジを抽出し、該水平エッジの位置
座標yoから、さらに上方向を探索し初めて水平エッジ
の強度の絶対値が極小となる座標位置ysを検出する。
そして該エッジの座標位置ysから原画像上で所定範囲
内に所定濃度値以下の画素の有無によって、検出された
エッジは先行車のものであるかを判定する。これにより
誤検出が少なく、先行車が確実に検出される。
According to the first aspect of the invention, the original image of the road ahead is subjected to the filter processing to create the horizontal edge image. Then, the horizontal edge intensity reflecting that the density value of the original image changes from the bottom to the light → dark direction of the horizontal edge image is determined by a predetermined function R.
The horizontal edge that can be regarded as the lower end candidate of the preceding vehicle is extracted based on the evaluation result in (y), and the absolute value of the horizontal edge strength is determined to be minimum for the first time after searching further upward from the position coordinate yo of the horizontal edge. The coordinate position ys is detected.
Then, it is determined whether or not the detected edge belongs to the preceding vehicle based on the presence / absence of a pixel having a predetermined density value or less within a predetermined range on the original image from the coordinate position ys of the edge. As a result, the number of erroneous detections is small, and the preceding vehicle is reliably detected.

【0013】請求項2の発明では、請求項1の発明に加
えて、さらに検出された水平エッジの位置座標ysか
ら、原画像上で所定範囲内に水平エッジの有無によっ
て、検出されたエッジは先行車のものであるかを重ねて
判定する。先行車の検出がより確実に行なわれる。請求
項3の発明では、関数R(y)は道幅に相当する画素数
と、該道幅内における所定範囲内の強度を有する水平エ
ッジ点の個数との比として設定される。これにより跨道
橋、道路の継ぎ目などによる誤検出が防げる。請求項4
の発明では、関数R(y)はレーンマーカに平行するサ
ーチラインを画像座標系に変換したサーチライン上の水
平エッジ強度で設定される。これにより水平エッジと垂
直方向から水平エッジを探索することができる。
According to the invention of claim 2, in addition to the invention of claim 1, the detected edge is determined by the presence or absence of a horizontal edge within a predetermined range on the original image from the position coordinate ys of the detected horizontal edge. It is repeatedly judged whether it belongs to the preceding vehicle. The leading vehicle can be detected more reliably. In the invention of claim 3, the function R (y) is set as a ratio between the number of pixels corresponding to the road width and the number of horizontal edge points having the intensity within a predetermined range within the road width. This prevents false detections due to overpasses and road joints. Claim 4
In the invention, the function R (y) is set by the horizontal edge strength on the search line obtained by converting the search line parallel to the lane marker into the image coordinate system. Thus, the horizontal edge can be searched from the horizontal edge and the vertical direction.

【0014】請求項5の発明では、上記先行車下端位置
検出手段は、あるy座標前後の水平エッジ強度値と、該
座標における強度値との差及び積によってエッジ強度極
小値の検出を行なう。これにより検出値に信頼性が高
く、先行車量の検出精度を向上する。請求項6の発明で
は、上記先行車下端位置検出手段は、所定値と前記関数
R(y)の値との比較によってエッジ強度極小値を検出
する。これにより画像処理装置の負担が軽減する。請求
項7の発明では、過去の検出値yo及びysをテブルメ
モリに記憶し、検出されたyoによりそれを参照するこ
とで座標ysを検出する。これによりysの検出速度が
向上する。請求項8の発明では、自車走行レーンの検出
は、原画像上の白線候補点を所定のパラメータによって
記述される近似曲線で近似することによって検出する。
これにより検出速度が向上する。
According to the fifth aspect of the invention, the preceding vehicle lower end position detecting means detects the minimum edge strength value by the difference and product of the horizontal edge strength value before and after a certain y coordinate and the strength value at the coordinate. As a result, the detection value is highly reliable and the detection accuracy of the preceding vehicle amount is improved. In the invention of claim 6, the preceding vehicle lower end position detecting means detects the edge strength minimum value by comparing a predetermined value with the value of the function R (y). This reduces the load on the image processing apparatus. In the invention of claim 7, the past detection values yo and ys are stored in the table memory, and the coordinate ys is detected by referring to the detected yo. This improves the detection speed of ys. In the eighth aspect of the present invention, the vehicle traveling lane is detected by approximating the white line candidate points on the original image with an approximate curve described by a predetermined parameter.
This improves the detection speed.

【0015】請求項9記載の発明では、上記近似曲線の
記述式は、少なくともa(白線からの距離に相当)、b
(道路曲率に相当)、c(対道路ヨー角に相当)、d
(道路とカメラのなす角に相当するピッチ角)、e(道
路幅に相当)という5つのパラメータを含むから、各レ
ーンマーカの位置を認識することができる。請求項10
の発明では、、二次式を用いて近似曲線を構成する。高
速な近似ができる。請求項11の発明では、近似曲線を
x=(a+ie)(y−d)+b/(y−d)+c
(但し、iは整数とする。)で表現する。高速かつ誤差
の少ない近似ができる。請求項12記載の発明は、近似
曲線を最小二乗法で近似する。近似誤差が最小となる。
請求項13の発明では、先行車を検出し、その画像上位
置から概略車間距離を算出する。その概略車間距離をも
とに測距手段から正確な測定値を抽出し、自車速とによ
り、先行車への接近状況を判断して、警報装置を作動さ
せる。これにより正確な位置測定ができる。
According to a ninth aspect of the invention, the descriptive expression for the approximate curve is at least a (corresponding to the distance from the white line) and b.
(Corresponding to road curvature), c (corresponding to road yaw angle), d
The position of each lane marker can be recognized because it includes five parameters (pitch angle corresponding to the angle formed by the road and the camera) and e (corresponding to the road width). Claim 10
In the invention, the approximation curve is constructed by using a quadratic equation. Fast approximation is possible. In the eleventh aspect of the present invention, the approximated curve is x = (a + ie) (yd) + b / (yd) + c.
(However, i is an integer.) High-speed and error-free approximation is possible. According to the twelfth aspect of the present invention, the approximation curve is approximated by the least square method. The approximation error is the minimum.
In the invention of claim 13, the preceding vehicle is detected, and the approximate inter-vehicle distance is calculated from the position on the image. An accurate measurement value is extracted from the distance measuring means based on the approximate inter-vehicle distance, and the approach situation to the preceding vehicle is judged based on the own vehicle speed to activate the alarm device. This enables accurate position measurement.

【0016】[0016]

【実施例】図3は、この実施例の構成を示す。 まず車
両20のフロントウインドウ上部に前方に向けてビデオ
カメラ21が設けられている。このビデオカメラ21で
車両20の前方道路を撮像し、その路面画像はコントロ
ーラ22に入力され、ここでこの路面画像に画像処理を
施して自車走行レーンを検出する。そしてその自車走行
レーン内でさらに先行車を検出し、概略車間距離を算出
する。
EXAMPLE FIG. 3 shows the structure of this example. First, a video camera 21 is provided in the upper part of the front window of the vehicle 20 toward the front. The video camera 21 captures the road ahead of the vehicle 20, and the road surface image is input to the controller 22. Here, the road surface image is subjected to image processing to detect the vehicle traveling lane. Then, the preceding vehicle is further detected in the own vehicle traveling lane, and the approximate inter-vehicle distance is calculated.

【0017】コントローラ21にはさらに車両20の前
端に設けられたレーザレーダ距離計23と前車輪に設け
られた車速センサ24が接続され、検出値が入力され
る。レーザレーダ距離計23は3つのヘッドを有して、
それぞれ左(L)、中央(C)、右(R)の3方向に所
定の指向角を付けられて設置される。各ヘッドはそれぞ
れの方向にビームを発して先行車を含む物体の距離を検
出する。
A laser radar range finder 23 provided at the front end of the vehicle 20 and a vehicle speed sensor 24 provided at the front wheels are further connected to the controller 21, and the detected value is input. The laser radar rangefinder 23 has three heads,
Each of them is installed with a predetermined directivity angle in three directions of left (L), center (C), and right (R). Each head emits a beam in each direction to detect the distance of an object including a preceding vehicle.

【0018】コントローラ21では、上記概略車間距離
をもとにレーザレーダ距離計23による3つの距離検出
値の中から車間距離とされる検出値を選出して採用す
る。そしてその車間距離と車速センサ24の入力値とに
基づいて、先行車への接近状況が判断される。その判断
結果を受けてそれに接続されている表示装置25が相応
の警報表示をし運転者に注意を促す。
The controller 21 selects and adopts a detection value as the inter-vehicle distance from the three distance detection values by the laser radar range finder 23 based on the above-mentioned approximate inter-vehicle distance. Then, the approach situation to the preceding vehicle is determined based on the inter-vehicle distance and the input value of the vehicle speed sensor 24. In response to the judgment result, the display device 25 connected to the judgment device displays a corresponding alarm and warns the driver.

【0019】次に、この実施例における先行車の検出に
ついて説明する。 図4は、先行車を含む路面画像及び
その画像特徴を示す。図4において、車両下部には濃度
階調を有する車両影が存在する。この車両影に起因しそ
の濃度値の変化を反映した水平エッジ強度は、y座標の
変化に従い変化し、低い濃度値を示した車両の底部では
極小値となる。従って、水平エッジ画像上ではその水平
エッジ強度が画面下から初めて極小となる位置が車両の
最下端部とみなすことができ、かつ原画像上では濃度値
の最も低い位置である。
Next, the detection of the preceding vehicle in this embodiment will be described. FIG. 4 shows a road surface image including a preceding vehicle and image characteristics thereof. In FIG. 4, a vehicle shadow having a density gradation exists at the bottom of the vehicle. The horizontal edge strength caused by the shadow of the vehicle and reflecting the change of the density value thereof changes according to the change of the y coordinate, and becomes a minimum value at the bottom of the vehicle showing the low density value. Therefore, on the horizontal edge image, the position where the horizontal edge intensity becomes minimum for the first time from the bottom of the screen can be regarded as the lowermost end portion of the vehicle, and is the position where the density value is the lowest on the original image.

【0020】走行レーンにおいて、車両近傍の水平エッ
ジの長さの最大値は車両幅を反映した長さとなるため、
例えば軽自動車の場合車幅1.4mに対し道幅を高速道
路を想定して3.5mとすれば、水平エッジの長さと水
平エッジが所在の道幅の比Ne/Nwの比によって、影
が車両のものであるかどうかが分かる。
In the traveling lane, the maximum value of the length of the horizontal edge near the vehicle is the length reflecting the vehicle width,
For example, in the case of a light vehicle, if the road width is 3.5 m assuming a highway with respect to the vehicle width of 1.4 m, the shadow is shaded by the horizontal edge length and the road width ratio Ne / Nw where the horizontal edge is located. I know if it is a thing.

【0021】従って水平エッジ画像上では、水平エッジ
画像の下からエッジ強度を画像座標系上のyのNe
(y)/Nw(y)で評価し、該評価結果に基づいて該
走行レーン上で車両候補と考えられる水平エッジを検出
することができる。そして検出されるy座標を起点とし
て画面上方にて初めてR(y)が極小となる座標を検出
することによって先行車を検出することが可能である。
Therefore, on the horizontal edge image, the edge strength from the bottom of the horizontal edge image is Ne of y on the image coordinate system.
It is possible to evaluate (y) / Nw (y) and detect a horizontal edge that is considered as a vehicle candidate on the traveling lane based on the evaluation result. Then, the preceding vehicle can be detected by detecting the coordinate where R (y) becomes the minimum at the upper part of the screen with the detected y coordinate as the starting point.

【0022】図5はコントローラ21における処理の流
れを示す。 すなわち、まずステップ100において、
レーダ距離計23から3つの距離測定値LL、LC、L
Rを取り込む。ステップ101で、ビデオカメラ21か
ら路面画像信号を取り込む。ステップ102で、速度セ
ンサ24から自車速を取り込む。続いてステップ103
において、上記の各検出値を画像信号とともにRAMメ
モリに記憶させる。RAMメモリは画像信号の走査と同
期して各信号を次のフレームが来るまで保持する。
FIG. 5 shows the flow of processing in the controller 21. That is, first in step 100,
Three distance measurement values LL, LC, L from the radar range finder 23
Take in R. In step 101, a road surface image signal is captured from the video camera 21. In step 102, the vehicle speed is fetched from the speed sensor 24. Then step 103
In the above, the above detection values are stored in the RAM memory together with the image signal. The RAM memory holds each signal in synchronization with the scanning of the image signal until the next frame comes.

【0023】ステップ104において、RAMメモリ内
に保持された画像信号に対し画像処理を施して、水平エ
ッジを検出する。そしてステップ105で、水平エッジ
画像をRAMメモリに記憶させる。これも上記と同様に
フレーム毎に更新する。なお上記ステップ103〜10
5はパイプライン構造を有する画像処理装置を用いるこ
とにより同時に行なうことも可能である。
In step 104, the image signal held in the RAM memory is subjected to image processing to detect a horizontal edge. Then, in step 105, the horizontal edge image is stored in the RAM memory. This is also updated for each frame similarly to the above. Note that steps 103 to 10 above
5 can be performed simultaneously by using an image processing device having a pipeline structure.

【0024】続いてステップ106において、路面画像
上でレーンマーカ検出を行なって、各レーンマーカに図
6で示すようにNo数を与えて、それぞれの座標位置を
認識する。これには、例えば次式のような自車位置、方
位と関連づけたパラメータを含む白線モデル式で路面画
像におけるレーンマーカの近似を行なって認識すること
ができる。 xi =(a+ie)(y−d)+b/(y−d)+c ここで、a: 左側の白線からの距離に相当 b: 道路曲率に相当 c: 対角路ヨー角に相当 d: ピッチ角、道路とビデオカメラのなす角に相当 e: 道路幅に相当 、 i: 整数、左側から数えるレーンマーカN
o数 である。すなわち原画像上で、いくつかの白線候補を検
出して、白線モデルとなる上式を例えば最小二乗法でカ
ーブフィットすることによって、パラメータa〜eを求
めて、レーンマーカNo数で走行レーンが認識される。
Subsequently, at step 106, lane marker detection is performed on the road surface image, and a No number is given to each lane marker as shown in FIG. 6 to recognize each coordinate position. For this purpose, for example, the lane marker in the road surface image can be approximated and recognized by a white line model formula including parameters associated with the vehicle position and azimuth, such as the following formula. xi = (a + ie) (y−d) + b / (y−d) + c where a: corresponds to the distance from the white line on the left side b: corresponds to road curvature c: corresponds to diagonal road yaw angle d: pitch angle , Equivalent to the angle formed by the road and the video camera e: Equivalent to the road width, i: Integer, lane marker N counting from the left side
o is the number. That is, some white line candidates are detected on the original image, and the parameters a to e are obtained by curve fitting the above white line model, for example, by the least squares method, and the running lane is recognized by the number of lane marker Nos. To be done.

【0025】以下検出されたレーンマーカの座標位置は
白線モデル表示として次の処理を説明していく。ステッ
プ107において、白線モデルのパラメータa〜eによ
り自車のレーンマーカを検出し、そのレーンマーカNo
が求められて、自車走行レーンを認識する。ステップ1
08で、RAMメモリに保持された水平エッジ画像上
で、画面の下から一定の強度を有し、かつ道幅との比が
所定範囲内の水平エッジを車両下端候補として検出す
る。
The following processing will be described below assuming that the coordinate position of the detected lane marker is a white line model display. In step 107, the lane marker of the own vehicle is detected by the parameters a to e of the white line model, and the lane marker No.
Is required to recognize the vehicle driving lane. Step 1
At 08, on the horizontal edge image held in the RAM memory, a horizontal edge having a constant intensity from the bottom of the screen and having a ratio with the road width within a predetermined range is detected as a vehicle lower end candidate.

【0026】これには、まず図7の(a)に示す矢印A
のように画面の下からy軸に沿って走行レーンを探索し
て、各水平エッジ点の個数を検出するとともに該水平エ
ッジのy座標における道幅の画素数を検出する。次式
で、水平エッジのy軸座標を検出する。 if R(y)>Rt then yo=y ここで、R(y)は〔Ne/Nw〕×100%とし、N
eは水平エッジ点の個数、Nwは該水平エッジにおける
道幅の画素数、Rtは水平エッジの強度下限値を定める
しきい値でる。その水平エッジの検出ができたら、次の
ステップへ進む。検出ができなければステップ100に
戻る。
First, the arrow A shown in FIG.
As described above, the traveling lane is searched from the bottom of the screen along the y axis to detect the number of each horizontal edge point and the number of pixels of the road width at the y coordinate of the horizontal edge. The y-axis coordinate of the horizontal edge is detected by the following formula. if R (y)> Rt then yo = y Here, R (y) is [Ne / Nw] × 100%, and N
e is the number of horizontal edge points, Nw is the number of pixels of the road width at the horizontal edge, and Rt is a threshold value that defines the lower limit strength of the horizontal edge. When the horizontal edge is detected, the process proceeds to the next step. If it cannot be detected, the process returns to step 100.

【0027】上記車両下端候補が検出されると、ステッ
プ109において、次式の計算を行なって、図7の
(a)のように座標yoより画面上方からR(y)が初
めて極小となる座標値を検出し、その検出値ysを車両
下端座標として認識される。
When the vehicle lower end candidate is detected, the following equation is calculated in step 109, and as shown in FIG. 7A, the coordinates at which R (y) becomes the minimum for the first time from the upper side of the screen from the coordinate yo. The value is detected, and the detected value ys is recognized as the vehicle lower end coordinate.

【数1】 ここに、Δyは先行車下端位置検索範囲のy方向に制限
を与える定数である。添え字jは3つのy座標の直前後
関係を示すもので、−1は画面上で1画素下方を、+1
は画面上で1画素上方をそれぞれ表わす。図8はそのy
s座標の検出過程を示している。すなわち、矢印Cが示
す方向に評価関数R(y)の前後差に基づいて符号が変
わるところでそれを最小値と認識し座標ysが検出され
る。
[Equation 1] Here, Δy is a constant that limits the search range of the lower end position of the preceding vehicle in the y direction. The subscript j indicates the immediately preceding / posterior relationship of the three y coordinates, and -1 is one pixel below on the screen and +1.
Indicates one pixel above the screen. Figure 8 shows y
The detection process of the s coordinate is shown. That is, when the sign changes in the direction indicated by the arrow C based on the front-back difference of the evaluation function R (y), it is recognized as the minimum value and the coordinate ys is detected.

【0028】ステップ110において、さらに原画像上
で、ys座標と道幅で規定される領域内で所定濃度以下
の画素が存在するかを調べる。存在するならば、次のス
テップへ進む。存在しないならばステップ100に戻
る。これにより、車両影ではない図9の(a)、(b)
のような車間距離確認用白線113、道路継ぎ目114
などの誤検出を防ぐことが出来る。ステップ111にお
いて、図7の(c)のように水平エッジ画像上で矢印B
が示す方向にysより上方の自車走行レーン領域内で、
各水平エッジの点の個数Neとys座標における道幅の
画素数Nw(ys)との比Ne/Nw(ys)で評価関
数G(y)を作成する。なお評価関数G(y)の作成に
は例えば水平エッジのy座標毎に該当する道幅の画素数
を計数することによって求めることができる。
In step 110, it is further checked on the original image whether or not there are pixels having a predetermined density or less within the area defined by the ys coordinates and the road width. If so, go to the next step. If it does not exist, the process returns to step 100. As a result, it is not the vehicle shadow (a), (b) in FIG.
Inter-vehicle distance confirmation white line 113, road joint 114
It is possible to prevent erroneous detection such as. In step 111, the arrow B is displayed on the horizontal edge image as shown in FIG.
Within the vehicle lane area above ys in the direction indicated by
An evaluation function G (y) is created with a ratio Ne / Nw (ys) of the number Ne of points of each horizontal edge and the number Nw (ys) of road width pixels in the ys coordinate. The evaluation function G (y) can be created, for example, by counting the number of pixels of the corresponding road width for each y coordinate of the horizontal edge.

【0029】ステップ112において、上記G(y)よ
り、次式を満足する水平エッジがあるかを調べる。 1.4/3.5≦G(y)≦2.5/3.5 なお、2.5は大型トラックの車幅である。そして上式
を満足する水平エッジの両端の座標xc0、xc1とy
sにおける自車走行レーンマーカ座標x0(ys)、x
1(ys)により、次式で、その水平エッジが車線内に
収まっているかを検出する。 [x0(ys)<xc0]and[x1(ys)>xc
1] 上記何れの条件とも満たされるなら、次のステップへ進
む。満たされなかったら、ステップ100に戻る。これ
により、ysは車両下端と認識することが出来、図10
のような同じ影である跨道橋の影111、および図11
のような路肩静止物の影112は車両の影と区別され
る。
In step 112, it is checked from G (y) above whether there is a horizontal edge satisfying the following expression. 1.4 / 3.5 ≦ G (y) ≦ 2.5 / 3.5 Note that 2.5 is the vehicle width of a large truck. Then, the coordinates xc0, xc1 and y of both ends of the horizontal edge satisfying the above expression
own vehicle running lane marker coordinate x0 (ys), x
From 1 (ys), it is detected by the following equation whether the horizontal edge is within the lane. [X0 (ys) <xc0] and [x1 (ys)> xc
1] If all of the above conditions are satisfied, proceed to the next step. If not satisfied, return to step 100. As a result, ys can be recognized as the lower end of the vehicle, and FIG.
11 is the same shadow as the overpass bridge, and FIG.
The shadow 112 of the roadside stationary object such as is distinguished from the shadow of the vehicle.

【0030】上記の処理によって先行車が検出される
と、続いて概略車間距離と自車との接近状況を検出す
る。ステップ113において、道路の勾配を無視して、
前記白線モデルの近似によって求められたピッチ角d及
び上記のysを用いて、次式で先行車までの概略距離を
算出する。 L_IMG=F・H0/(ys−d) ここで、Fは焦点距離に対応した定数、H0はビデオカ
メラ取り付け高さを表わす。ステップ114で、RAM
メモリからレーザレーダの3つの測定値を読み込み、上
記概略距離との差の絶対値ΔLL、ΔLC、ΔLRを求
める。ステップ115で、上記ΔLL〜ΔLR内の最小
値を求め、該最小値をもたらすレーダ距離値を先行車ま
での距離として採用する。
When the preceding vehicle is detected by the above processing, the approximate inter-vehicle distance and the approaching condition with the host vehicle are subsequently detected. In step 113, ignoring the road slope,
Using the pitch angle d obtained by the approximation of the white line model and the above ys, the approximate distance to the preceding vehicle is calculated by the following equation. L_IMG = F · H0 / (ys-d) Here, F is a constant corresponding to the focal length, and H0 is the mounting height of the video camera. RAM in step 114
The three measured values of the laser radar are read from the memory, and the absolute values ΔLL, ΔLC, and ΔLR of the differences from the above-mentioned approximate distance are obtained. In step 115, the minimum value within the above ΔLL to ΔLR is obtained, and the radar distance value that brings the minimum value is adopted as the distance to the preceding vehicle.

【0031】ステップ116において、RAMメモリか
ら自車速度の検出値を読み込んで、上記で得られた車間
距離を時間に対し微分計算をし、その相対速度と、自車
速とによって、接近し過ぎか否かの判断を行ない、もし
接近し過ぎと判断されなければステップ100に戻る。
接近し過ぎと判断されれば表示装置25へ警報指令を出
力する。その後ステップ100に戻り上記のフローを繰
り返し、連続的に検出が行なわれる。本実施例は以上の
ように構成され、その結果、車両の影でない車間距離確
認白線や、道路継ぎ目などの水平エッジによる誤検出が
防げられるとともに、跨道橋および路肩静止物の影が先
行車量の影と区別され、その誤検出も防止され、確実に
先行車を検出できる。
In step 116, the detected value of the vehicle speed is read from the RAM memory, the inter-vehicle distance obtained above is differentially calculated with respect to time, and whether the vehicle speed is too close by the relative speed and the vehicle speed. It is determined whether or not it is determined that the distance is too close, and the process returns to step 100.
If it is determined that they are too close to each other, an alarm command is output to the display device 25. After that, the process returns to step 100, and the above flow is repeated to continuously detect. This embodiment is configured as described above, and as a result, it is possible to prevent erroneous detection due to the white line for checking the inter-vehicle distance that is not the shadow of the vehicle and horizontal edges such as road joints, and the shadow of the overpass and the stationary object on the shoulder of the preceding vehicle. It is distinguished from the shadow of the quantity, its erroneous detection is prevented, and the preceding vehicle can be surely detected.

【0032】図12は、本発明の第2の実施例として、
第1の実施例で示した車両下端の検出の変形例を示す。
すなわち、予めしきい値Rtを設定し、関数R(y)を
それと比較することによって、極小値を検出する。そし
てその極小値の座標を先行車下端位置として検出する。
そのほかの構成は第1の実施例と同様である。
FIG. 12 shows a second embodiment of the present invention.
The modification of the detection of the vehicle lower end shown in the first embodiment is shown.
That is, the threshold value Rt is set in advance, and the minimum value is detected by comparing the function R (y) with it. Then, the coordinates of the minimum value are detected as the lower end position of the preceding vehicle.
Other configurations are similar to those of the first embodiment.

【0033】次に、本発明の第3の実施例として、第1
の実施例で示した車両下端の検出の変形例を示す。本実
施例では、図13で示すように原画像上で検出されたレ
ーンマーカに平行した5つのサーチラインを作成し、サ
ーチライン上の水平エッジ強度分布を図14のように各
ラインごとに作成する。その強度に対してしきい値eh
_tを設けて、それ以上のピークが存在するラインを選
出し、一定の個数以上存在するという条件のもと、図1
4の例ではそのピーク位置y2〜y4の平均値をyo=
(y2+y3+y4)/3でとることにより先行車下端
候補yo及びysを算出する。そのほかの構成は第1の
実施例と同様である。
Next, as a third embodiment of the present invention, the first
The modification of the detection of the lower end of the vehicle shown in the embodiment of FIG. In this embodiment, as shown in FIG. 13, five search lines parallel to the lane marker detected on the original image are created, and horizontal edge intensity distribution on the search line is created for each line as shown in FIG. . Threshold value eh for that intensity
_T is provided, a line having more peaks is selected, and under the condition that a certain number or more exist,
In the example of No. 4, the average value of the peak positions y2 to y4 is yo =
By taking (y2 + y3 + y4) / 3, the preceding vehicle lower end candidates yo and ys are calculated. Other configurations are similar to those of the first embodiment.

【0034】次に第4実施例として、さらに簡略化した
検出方法について説明する。すなわち、過去検出された
車両下端候補座標yoと車両下端座標ys及びその差Δ
yを図15のようにテーブルメモりに格納し、以後該テ
ーブルを参照することによって、先行車下端位置を検出
するものである。上記実施例では、接近警報装置を応用
した例を中心に説明してきたが、これに限らず、例えば
先行車に自動的に追従する自律走行車などにも応用する
ことが可能である。
Next, a further simplified detection method will be described as a fourth embodiment. That is, the vehicle lower end candidate coordinates yo detected in the past, the vehicle lower end coordinates ys, and the difference Δ between them.
The y is stored in the table memory as shown in FIG. 15, and the lower end position of the preceding vehicle is detected by referring to the table thereafter. In the above-described embodiment, the example in which the approach warning device is applied has been mainly described, but the present invention is not limited to this, and may be applied to, for example, an autonomous vehicle that automatically follows a preceding vehicle.

【0035】[0035]

【発明の効果】以上説明した通り、水平エッジの画像下
から明→暗方向に原画像の濃度値が変化することを反映
した水平エッジ強度を所定の関数R(y)で評価し、そ
の評価結果によって先行車の下端候補とみなせる水平エ
ッジを抽出して、該水平エッジが抽出された位置座標か
ら上方向に初めて該水平エッジの強度の絶対値が極小と
なる座標位置を検出する。そして該水平エッジの座標位
置から所定範囲内に所定濃度値以下の画素が有無によっ
て、先行車の下端位置座標を検出するから、誤検出が少
なく、確実に先行車が検出される。そして検出された先
行車の下端位置座標から、画像の上方の所定範囲内に水
平エッジが有ることによって、先行車の存在を判定する
ようにしたときには、先行車の検出がより確実に行なわ
れる。また関数R(y)は道幅に相当する画素数と、該
道幅内における所定範囲内の強度を有する水平エッジ点
の個数との比として設定すると、跨道橋、道路の継ぎ目
などによる誤検出が防げる。さらにまた関数R(y)は
レーンマーカに平行するサーチラインを画像座標系に変
換したサーチライン上の水平エッジ強度の平均値で設定
するときには、検出値の信頼性が向上する。これによ
り、信頼性の高い先行車検出が可能となり、画像による
車間距離算出をより正確に行なえる
As described above, the horizontal edge strength reflecting the change of the density value of the original image from the bottom of the horizontal edge image to the light → dark direction is evaluated by a predetermined function R (y), and the evaluation is performed. Based on the result, the horizontal edge that can be regarded as the lower end candidate of the preceding vehicle is extracted, and the coordinate position where the absolute value of the intensity of the horizontal edge becomes minimum for the first time is detected from the position coordinates where the horizontal edge is extracted. Then, the lower end position coordinates of the preceding vehicle are detected depending on the presence or absence of a pixel having a predetermined density value or less within a predetermined range from the coordinate position of the horizontal edge. When the presence of the preceding vehicle is determined by the presence of the horizontal edge within the predetermined range above the image from the detected lower end position coordinates of the preceding vehicle, the preceding vehicle is detected more reliably. Further, when the function R (y) is set as a ratio of the number of pixels corresponding to the road width to the number of horizontal edge points having the intensity within a predetermined range within the road width, erroneous detection due to an overpass, a road joint, or the like will occur. Can be prevented. Furthermore, when the function R (y) is set by the average value of horizontal edge intensities on the search line obtained by converting the search line parallel to the lane marker into the image coordinate system, the reliability of the detected value is improved. As a result, it is possible to detect a preceding vehicle with high reliability, and the inter-vehicle distance can be calculated more accurately using images.

【図面の簡単な説明】[Brief description of drawings]

【図1】クレームの対応図である。FIG. 1 is a correspondence diagram of a claim.

【図2】クレームの対応図である。FIG. 2 is a correspondence diagram of claims.

【図3】第1の実施例の構成を示す図である。FIG. 3 is a diagram showing a configuration of a first exemplary embodiment.

【図4】先行車を含む路面画像及びその濃度、水平エッ
ジ強度を示す図である。
FIG. 4 is a diagram showing a road surface image including a preceding vehicle, its density, and horizontal edge strength.

【図5】コントローラにおける処理の流れを示すフロー
チャートである。
FIG. 5 is a flowchart showing a flow of processing in a controller.

【図6】白線モデルの説明図である。FIG. 6 is an explanatory diagram of a white line model.

【図7】水平エッジ画像における水平エッジとy座標の
関係及びその原画像を示す図である。
FIG. 7 is a diagram showing a relationship between a horizontal edge and ay coordinate in a horizontal edge image and an original image thereof.

【図8】車両下影部水平エッジの検出過程を示す図であ
る。
FIG. 8 is a diagram showing a process of detecting a horizontal edge of a vehicle lower shadow portion.

【図9】水平エッジの有する画像である。FIG. 9 is an image having horizontal edges.

【図10】影の有する画像である。FIG. 10 is an image having a shadow.

【図11】影の有する画像である。FIG. 11 is an image having a shadow.

【図12】車両下影部水平エッジの検出を示す図であ
る。
FIG. 12 is a diagram showing detection of a horizontal edge of a vehicle lower shadow portion.

【図13】サーチラインを有する路面画像である。FIG. 13 is a road surface image having a search line.

【図14】サーチライン上で検出した水平エッジ強度を
示す図である。
FIG. 14 is a diagram showing horizontal edge strength detected on a search line.

【図15】テブルメモリの例を示す図である。FIG. 15 is a diagram showing an example of a table memory.

【図16】原画像とその水平エッジ画像を示す図であ
る。
FIG. 16 is a diagram showing an original image and its horizontal edge image.

【図17】原画像とその水平エッジ強度の変化を示す図
である。
FIG. 17 is a diagram showing changes in an original image and its horizontal edge strength.

【符号の説明】[Explanation of symbols]

1 撮像手段 2 水平エッジ検出手段 3 記憶手段 4 自車走行レーン検出手段 5 評価手段 6 先行車候補検出手段 7 先行車下端位置検出手段 8 濃度判定手段 9 幅判定手段 10 距離算出手段 11 速度手段 12 測距手段 13 警報手段 20 自車両 21 ビデオカメラ 22 コントローラ 23 レーザレーダ 24 速度センサ 25 警報表示器 DESCRIPTION OF SYMBOLS 1 Imaging means 2 Horizontal edge detection means 3 Storage means 4 Own vehicle traveling lane detection means 5 Evaluation means 6 Preceding vehicle candidate detection means 7 Preceding vehicle lower end position detection means 8 Density determination means 9 Width determination means 10 Distance calculation means 11 Speed means 12 Distance measuring means 13 Warning means 20 Own vehicle 21 Video camera 22 Controller 23 Laser radar 24 Speed sensor 25 Warning indicator

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 9/20 G08G 1/16 A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 9/20 G08G 1/16 A

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 車両に装着され前方道路を撮像する撮像
手段と、前方道路原画像にフィルタ処理を施して水平エ
ッジを検出してエッジ画像を生成する水平エッジ検出手
段と、上記水平エッジ画像、原画像を保持する記憶手段
と、自車走行レーン検出手段と、該自車走行レーンにお
いて、原画像の濃度値が変化することを反映した水平エ
ッジ強度を縦方向の画像座標yの所定の関数R(y)で
評価する評価手段と、該評価結果に基づき上記自車走行
レーン内の先行車候補とみなせる水平エッジ位置yoを
検出する先行車候補検出手段と、該yoを起点として画
面上方にて初めてエッジ強度が極小となる座標ysを検
出する先行車下端位置検出手段と、上記自車走行レーン
内に前記座標ys上の原画像濃度値が所定範囲内にある
か否かを判定する濃度判定手段とを備え、該原画像濃度
値が所定範囲内であるときに先行車の検出信号を出力す
ることを特徴とする先行車検出装置。
1. An image pickup means mounted on a vehicle for picking up an image of a front road, a horizontal edge detecting means for detecting a horizontal edge by subjecting an original image of the front road to a horizontal edge and generating an edge image, the horizontal edge image, A storage means for holding the original image, a vehicle running lane detection means, and a horizontal edge strength reflecting a change in the density value of the original image in the vehicle running lane is a predetermined function of the image coordinate y in the vertical direction. Evaluating means for evaluating with R (y), preceding vehicle candidate detecting means for detecting a horizontal edge position yo that can be regarded as a preceding vehicle candidate in the vehicle traveling lane based on the evaluation result, and upward of the screen starting from the yo. For the first time, the leading vehicle lower end position detecting means for detecting the coordinate ys at which the edge strength becomes the minimum, and the darkness for judging whether or not the original image density value on the coordinate ys is within a predetermined range in the vehicle traveling lane. A preceding vehicle detection device for outputting a detection signal of a preceding vehicle when the original image density value is within a predetermined range.
【請求項2】 車両に装着され前方道路を撮像する撮像
手段と、前方道路原画像にフィルタ処理を施して水平エ
ッジを検出してエッジ画像を生成する水平エッジ検出手
段と、上記水平エッジ画像、原画像を保持する記憶手段
と、自車走行レーン検出手段と、該自車走行レーンにお
いて、原画像の濃度値が変化することを反映した水平エ
ッジ強度を縦方向の画像座標yの所定の関数R(y)で
評価する評価手段と、該評価結果に基づき上記自車走行
レーン内の先行車候補とみなせる水平エッジ位置yoを
検出する先行車候補検出手段と、該yoを起点として画
面上方にて初めてエッジ強度が極小となる座標ysを検
出する先行車下端位置検出手段と、上記自車走行レーン
内に前記座標ys上の原画像濃度値が所定範囲内にある
か否かを判定する濃度判定手段と、前記座標ysより上
方に、幅が所定範囲にある水平エッジの有無を判定する
幅判定手段とを備え、上記原画像濃度値が所定範囲内、
かつ水平エッジの幅が所定範囲内であるときに先行車の
検出信号を出力することを特徴とする先行車検出装置。
2. An image pickup means mounted on a vehicle for picking up an image of a road ahead, a horizontal edge detecting means for detecting a horizontal edge by applying a filtering process to an original image of the road ahead and generating an edge image, the horizontal edge image, A storage means for holding the original image, a vehicle running lane detection means, and a horizontal edge strength reflecting a change in the density value of the original image in the vehicle running lane is a predetermined function of the image coordinate y in the vertical direction. Evaluating means for evaluating with R (y), preceding vehicle candidate detecting means for detecting a horizontal edge position yo that can be regarded as a preceding vehicle candidate in the vehicle traveling lane based on the evaluation result, and upward of the screen starting from the yo. For the first time, the leading vehicle lower end position detecting means for detecting the coordinate ys at which the edge strength becomes the minimum, and the darkness for judging whether or not the original image density value on the coordinate ys is within a predetermined range in the vehicle traveling lane. A degree determining unit and a width determining unit above the coordinate ys for determining the presence or absence of a horizontal edge having a width within a predetermined range, and the original image density value is within the predetermined range,
A preceding vehicle detection device, which outputs a preceding vehicle detection signal when the width of the horizontal edge is within a predetermined range.
【請求項3】 上記関数R(y)は、yにより定まる道
幅相当画素数と、該道幅内における所定範囲の強度を有
する水平エッジ点の個数との比とされることを特徴とす
る請求項1または2記載の先行車検出装置。
3. The function R (y) is a ratio between the number of pixels corresponding to a road width determined by y and the number of horizontal edge points having an intensity in a predetermined range within the road width. The preceding vehicle detection device according to 1 or 2.
【請求項4】 上記関数R(y)は、レーンマーカに平
行するサーチラインを画像座標系に変換したサーチライ
ン上の水平エッジ強度とされることを特徴とする請求項
1または2記載の先行車検出装置。
4. The preceding vehicle inspection according to claim 1 or 2, wherein the function R (y) is a horizontal edge strength on a search line obtained by converting a search line parallel to the lane marker into an image coordinate system. Output device.
【請求項5】 上記先行車下端位置検出手段によるエッ
ジ強度極小値の検出は、ある水平エッジの強度値と、当
該水平エッジのy座標前後の水平エッジ強度値との差及
び積によって行なうことを特徴とする請求項1または2
記載の先行車検出装置。
5. The edge strength minimum value detected by the preceding vehicle lower end position detecting means is performed by the difference and product between the strength value of a certain horizontal edge and the horizontal edge strength values before and after the y coordinate of the horizontal edge. Claim 1 or 2 characterized
The preceding vehicle detection device described.
【請求項6】 上記先行車下端位置検出手段によるエッ
ジ強度極小値の検出は、前記関数R(y)の値が所定値
以下であるか否かを判断することによって検出すること
を特徴とする請求項1、2、3または4記載の先行車検
出装置。
6. The minimum edge strength value detected by the preceding vehicle lower end position detecting means is detected by determining whether or not the value of the function R (y) is less than or equal to a predetermined value. The preceding vehicle detection device according to claim 1, 2, 3, or 4.
【請求項7】 上記先行車下端位置検出手段によるエッ
ジ位置ysの検出は、過去の先行車候補yo及びyoに
対する座標ysの位置をメモリテーブルに記憶し、検出
されたyoによって該メモリテーブルを参照して検出を
行なうことを特徴とする請求項1または2記載の先行車
検出装置。
7. The detection of the edge position ys by the preceding vehicle lower end position detecting means stores a past coordinate position ys for the preceding vehicle candidates yo and yo in a memory table, and refers to the memory table by the detected yo. The preceding vehicle detection device according to claim 1 or 2, wherein the detection is performed by performing the detection.
【請求項8】 上記自車走行レーン検出手段は、上記原
画像上で白線候補点を検出し、該候補点により決定され
る白線を所定のパラメータによって記述される近似曲線
で近似して自車走行レーンを検出することを特徴とする
請求項1または2記載の先行車検出装置。
8. The own vehicle traveling lane detecting means detects a white line candidate point on the original image, approximates the white line determined by the candidate point with an approximate curve described by a predetermined parameter, and obtains the own vehicle. The preceding vehicle detection device according to claim 1 or 2, which detects a traveling lane.
【請求項9】 上記近似曲線の記述式は、少なくともa
(白線からの距離に相当)、b(道路曲率に相当)、c
(対道路ヨー角に相当)、d(道路とカメラのなす角に
相当するピッチ角)、e(道路幅に相当)という5つの
パラメータを含むことを特徴とする請求項8記載の先行
車検出装置。
9. The descriptive expression of the approximate curve is at least a
(Corresponding to the distance from the white line), b (corresponding to the road curvature), c
9. The preceding vehicle detection according to claim 8, further comprising five parameters (equivalent to road yaw angle), d (pitch angle corresponding to angle formed by road and camera), and e (equivalent to road width). apparatus.
【請求項10】 上記近似曲線の記述式は、二次式とさ
れることを特徴とする請求項8または9記載の先行車検
出装置。
10. The preceding vehicle detection device according to claim 8, wherein the descriptive expression of the approximate curve is a quadratic expression.
【請求項11】 上記二次式は、x=(a+ie)(y
−d)+b/(y−d)+c (但し、iは整数とす
る。)とされることを特徴とする請求項10記載の先行
車検出装置。
11. The quadratic formula is x = (a + ie) (y
11. The preceding vehicle detection device according to claim 10, wherein -d) + b / (yd) + c (where i is an integer).
【請求項12】 上記近似は、最小二乗法で近似するこ
とを特徴とする請求項8記載の先行車検出装置。
12. The preceding vehicle detection device according to claim 8, wherein the approximation is performed by a least square method.
【請求項13】 車両に装着され前方道路を撮像する撮
像手段と、前方道路原画像にフィルタ処理を施して水平
エッジを検出してエッジ画像を生成する水平エッジ検出
手段と、上記水平エッジ画像、原画像を保持する記憶手
段と、自車走行レーン検出手段と、該自車走行レーンに
おいて、原画像の濃度値が変化することを反映した水平
エッジ強度を縦方向の画像座標yの所定の関数R(y)
で評価する評価手段と、該評価結果に基づき上記自車走
行レーン内の先行車候補とみなせる水平エッジ位置yo
を検出する先行車候補検出手段と、該yoを起点として
画面上方にて初めてエッジ強度が極小となる座標ysを
検出する先行車下端位置検出手段と、上記自車走行レー
ン内に前記座標ys上の原画像濃度値が所定範囲内にあ
るか否かを判定する濃度判定手段と、前記座標ysをも
とに先行車との概略車間距を算出する距離算出手段と、
車両に装着され先行車との車間距離を測定する測距手段
と、自車速を検出する速度検出手段と、上記概略車間距
離値、測距手段の測定値、自車速度により先行車への接
近状況を判断し警報を発する警報手段とを備えることを
特徴とする接近警報装置。
13. An image pickup means mounted on a vehicle for picking up an image of a front road, a horizontal edge detection means for filtering a front road original image to detect a horizontal edge and generating an edge image, the horizontal edge image, A storage means for holding the original image, a vehicle running lane detection means, and a horizontal edge strength reflecting a change in the density value of the original image in the vehicle running lane is a predetermined function of the image coordinate y in the vertical direction. R (y)
And the horizontal edge position yo that can be regarded as a preceding vehicle candidate in the own vehicle traveling lane based on the evaluation result.
A preceding vehicle candidate detecting means for detecting the above, a preceding vehicle lower end position detecting means for detecting a coordinate ys at which the edge strength becomes minimum for the first time in the upper part of the screen starting from the yo, and an original on the coordinate ys in the vehicle running lane. Density determination means for determining whether or not the image density value is within a predetermined range; distance calculation means for calculating a rough inter-vehicle distance to the preceding vehicle based on the coordinates ys;
Distance measuring means mounted on the vehicle for measuring the distance between the preceding vehicle and the preceding vehicle, speed detecting means for detecting the own vehicle speed, the approximate vehicle distance value, the measured value of the distance measuring means, and approaching the preceding vehicle according to the own vehicle speed. An approach warning device comprising: a warning means for judging a situation and issuing a warning.
JP19497494A 1994-07-27 1994-07-27 Leading vehicle detection device and approach warning device Expired - Fee Related JP3399104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19497494A JP3399104B2 (en) 1994-07-27 1994-07-27 Leading vehicle detection device and approach warning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19497494A JP3399104B2 (en) 1994-07-27 1994-07-27 Leading vehicle detection device and approach warning device

Publications (2)

Publication Number Publication Date
JPH0843083A true JPH0843083A (en) 1996-02-16
JP3399104B2 JP3399104B2 (en) 2003-04-21

Family

ID=16333446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19497494A Expired - Fee Related JP3399104B2 (en) 1994-07-27 1994-07-27 Leading vehicle detection device and approach warning device

Country Status (1)

Country Link
JP (1) JP3399104B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134772A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2001134771A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2001175845A (en) * 1999-12-16 2001-06-29 Nec Corp Vehicle end detecting device
US6990216B2 (en) 2000-09-22 2006-01-24 Nissan Motor Co., Ltd. Method and apparatus for estimating inter-vehicle distance using radar and camera
JP2008054171A (en) * 2006-08-28 2008-03-06 Daihatsu Motor Co Ltd In-vehicle image processor
JP2008293504A (en) * 2008-05-30 2008-12-04 Honda Motor Co Ltd Object recognition device
CN103900525A (en) * 2012-12-25 2014-07-02 遵义市亿易通科技网络有限责任公司 Bionic human eye distance alarm system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156979B (en) * 2010-12-31 2012-07-04 上海电机学院 Method and system for rapid traffic lane detection based on GrowCut

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134772A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2001134771A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2001175845A (en) * 1999-12-16 2001-06-29 Nec Corp Vehicle end detecting device
US6990216B2 (en) 2000-09-22 2006-01-24 Nissan Motor Co., Ltd. Method and apparatus for estimating inter-vehicle distance using radar and camera
JP2008054171A (en) * 2006-08-28 2008-03-06 Daihatsu Motor Co Ltd In-vehicle image processor
JP2008293504A (en) * 2008-05-30 2008-12-04 Honda Motor Co Ltd Object recognition device
CN103900525A (en) * 2012-12-25 2014-07-02 遵义市亿易通科技网络有限责任公司 Bionic human eye distance alarm system

Also Published As

Publication number Publication date
JP3399104B2 (en) 2003-04-21

Similar Documents

Publication Publication Date Title
JP3756452B2 (en) Infrared image processing device
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
JP4981808B2 (en) Vehicle start control method and driver support system based on sensor
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
JP3503230B2 (en) Nighttime vehicle recognition device
JP3424334B2 (en) Roadway detection device
US20060115113A1 (en) Method for the recognition and tracking of objects
US6205242B1 (en) Image monitor apparatus and a method
US20070211919A1 (en) Vehicle surroundings monitoring apparatus
US20060115119A1 (en) Vehicle surroundings monitoring apparatus
JPH06293236A (en) Travel environment monitoring device
JP2000357233A (en) Body recognition device
JP2002197469A (en) Device for detecting traffic lane
KR102536037B1 (en) Method and processing unit for determining information related to an object in the surrounding environment of a vehicle
CN109871732B (en) Parking grid identification system and method thereof
US5835880A (en) Apparatus and method for vehicle following with dynamic feature recognition
JPH08329393A (en) Preceding vehicle detector
JP4296287B2 (en) Vehicle recognition device
Hautière et al. Estimation of the visibility distance by stereovision: A generic approach
JPH08156723A (en) Vehicle obstruction detecting device
JP3399104B2 (en) Leading vehicle detection device and approach warning device
JP2002334330A (en) Vehicle recognition device
JP2008056163A (en) Obstacle detecting device for vehicle
JPH07244717A (en) Travel environment recognition device for vehicle
JP2940366B2 (en) Object tracking recognition device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090221

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees