JPH07160846A - Forward object recognizing device - Google Patents

Forward object recognizing device

Info

Publication number
JPH07160846A
JPH07160846A JP5305637A JP30563793A JPH07160846A JP H07160846 A JPH07160846 A JP H07160846A JP 5305637 A JP5305637 A JP 5305637A JP 30563793 A JP30563793 A JP 30563793A JP H07160846 A JPH07160846 A JP H07160846A
Authority
JP
Japan
Prior art keywords
edge
reliability
front object
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5305637A
Other languages
Japanese (ja)
Inventor
Hisashi Satonaka
久志 里中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP5305637A priority Critical patent/JPH07160846A/en
Publication of JPH07160846A publication Critical patent/JPH07160846A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To detect the reliability of the edge detected from the sharpness of the edge, regarding a forward object recognizing device judging the presence or absence of a forward object on the basis of the existence or absence of the edge which is estimated as the forward object within the image picked up by an image sensor. CONSTITUTION:The front of a vehicle is picked up by a camera (A). Within a picked up image, an edge point (. in a figure) to be estimated as the edge of a preceding vehicle is specified. The edge points are counted in the horizontal direction, a frequency distribution is formed (B) and a peak frequency IYp is determined. The edge points are counted in the vertical direction and peak points XPL and XPR are determined. Reliability Re=IYp/ (XPR-XPL+1) is determined from the length of edge in a horizontal direction and IYp. Re corresponds to the density of the edge point within the edge, that is, the sharpness of the edge and can be recognized as the reliability for the truth of the detected edge to be the preceding vehicle.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、前方物体認識装置に係
り、特に画像センサによって前方領域を撮像して得られ
た撮像画像内に、前方物体のエッジと推定されるエッジ
が存在するか否かを基準に前方物体の有無を判断する前
方物体認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a front object recognizing device, and more particularly to whether or not an edge estimated to be an edge of a front object exists in a picked-up image obtained by picking up an image of a front area by an image sensor. The present invention relates to a front object recognition device that determines the presence or absence of a front object on the basis of the above.

【0002】[0002]

【従来の技術】従来より、画像センサを用いて前方物体
の有無を判定する装置が知られている。例えば特開昭6
3−9813号公報は、車両前方をカメラで撮像し、得
られた撮像画像内に車両の幅と同等の水平方向エッジが
検出されているか否かを基準に前方物体たる先行車の有
無を判定する装置を開示している。
2. Description of the Related Art Conventionally, there is known a device for determining the presence or absence of a front object using an image sensor. For example, JP-A-6
Japanese Patent Laid-Open No. 3-9813 determines the presence or absence of a preceding vehicle as a front object based on whether or not a horizontal edge equivalent to the width of the vehicle is detected in the obtained captured image by capturing an image of the front of the vehicle with a camera. A device for doing so is disclosed.

【0003】車両において先行車との関係が問題となる
のは、車間距離が適当な距離に保たれている場合であ
り、かかる状況で先行車を撮像した場合、撮像画像内に
おける先行車両の幅は適当な範囲内に納まるはずであ
り、従って、撮像画像内に適当な長さの水平方向エッジ
が検出できれ先行車が存在し、なければ先行車は存在し
ないと推定することができることに鑑みたものである。
The relationship between the preceding vehicle and the preceding vehicle becomes a problem in the vehicle when the inter-vehicle distance is kept at an appropriate distance. When the preceding vehicle is imaged in such a situation, the width of the preceding vehicle in the captured image Should be within an appropriate range, and therefore, it is possible to detect that a horizontal edge of an appropriate length can be detected in the captured image and there is a preceding vehicle, and it can be estimated that there is no preceding vehicle. It is a thing.

【0004】[0004]

【発明が解決しようとする課題】しかし、カメラによる
撮像画像の様相は、周囲の明るさ等によって大きく変化
する。従って、かかる撮像画像を基に実行するエッジ検
出の精度も、車両の置かれる環境により一定ではない。
特に前方物体として車両を想定する上記従来の装置にお
いては、昼間は主に車体の外形がエッジ検出の対象とな
るのに対して、夜間は主にテールランプがエッジ検出の
対象となり、検出の対象までが変化する。
However, the appearance of the image picked up by the camera greatly changes depending on the ambient brightness and the like. Therefore, the accuracy of the edge detection executed based on the captured image is not constant depending on the environment in which the vehicle is placed.
In particular, in the above-mentioned conventional device that assumes a vehicle as a front object, the outer shape of the vehicle body is mainly targeted for edge detection during the daytime, while the tail lamp is mainly targeted for edge detection during nighttime. Changes.

【0005】このため、上記従来の装置は、予め想定し
た環境下においては有効に機能するものの、環境が変化
することにより撮像画像の明るさ、鮮明度等が変化する
と、前方物体の有無を誤検出する場合があり実用上信頼
性に欠けるという問題があった。
For this reason, the above-mentioned conventional device functions effectively in an environment assumed in advance, but if the brightness, definition, etc. of the captured image changes due to the change in the environment, the presence or absence of a front object is erroneously detected. There is a problem in that it may be detected and lacks practical reliability.

【0006】この場合、エッジ検出に先立って撮像画像
の明度を平均化する処理を施すことで検出精度の向上を
図ることは可能であるが、かかる処理を施すには、ソフ
トウェア上複雑な構成を必要とすると共に、画像明度の
平均化に長期を要することから迅速な処理が実現できな
いという弊害が生ずることになり好ましくない。
In this case, it is possible to improve the detection accuracy by performing the process of averaging the brightness of the picked-up image prior to the edge detection. However, such a process requires a complicated configuration in software. In addition to the above, it is not preferable because it takes a long time to average the image brightness, which causes a problem that rapid processing cannot be realized.

【0007】本発明は、上述の点に鑑みてなされたもの
であり、前方物体のエッジと推定されるエッジの幅と、
撮像画像内においてエッジ幅の中で現実にエッジ点とし
て検出された点との比に基づいて撮像画像の信頼度を演
算することで上記の課題を解決する前方物体認識装置を
提供することを目的とする。
The present invention has been made in view of the above points, and the width of the edge estimated to be the edge of the front object,
An object of the present invention is to provide a front object recognition device that solves the above problems by calculating the reliability of a captured image based on the ratio of the edge width in the captured image to the point actually detected as an edge point. And

【0008】[0008]

【課題を解決するための手段】図1は、上記の目的を達
成する前方物体認識装置の原理構成図を示す。すなわち
上記の目的は、図1に示すように、前方物体を撮像する
画像センサM1と、該画像センサM2が撮像した画像内
において、前方物体のエッジと推定される所定方向エッ
ジを検出するエッジ検出手段M2と、検出された該所定
方向エッジ内で、現実にエッジ点として検出された画素
数Oを計数するエッジ点計数手段M3と、実質的に前記
所定方向エッジの長さを検出するエッジ長検出手段M4
と、該エッジ長検出手段M4が検出した前記所定方向エ
ッジの長さと、前記エッジ点計数手段M3が計数したエ
ッジ点との比に基づいて、前記所定方向エッジが前方物
体のエッジであることに対する信頼度を演算する信頼度
演算手段M5とを備える前方物体認識装置により達成さ
れる。
FIG. 1 is a block diagram showing the principle of a front object recognition apparatus which achieves the above object. That is, the above-mentioned object is, as shown in FIG. 1, an image sensor M1 for imaging a front object, and an edge detection for detecting a predetermined direction edge estimated to be an edge of the front object in an image captured by the image sensor M2. Means M2, edge point counting means M3 for counting the number of pixels O actually detected as edge points in the detected predetermined direction edges, and edge length for substantially detecting the length of the predetermined direction edges. Detection means M4
And that the predetermined direction edge is the edge of the front object based on the ratio between the length of the predetermined direction edge detected by the edge length detection means M4 and the edge point counted by the edge point counting means M3. This is achieved by a front object recognition device including a reliability calculation means M5 for calculating the reliability.

【0009】また、上記構成の前方物体認識装置におい
て、前記画像センサM1が撮像した画像の明るさを検出
する明度検出手段M6と、該明度検出手段M6の検出結
果に基づいて前記信頼度演算手段M5の演算結果を補正
する信頼度補正手段M6とを備える前方物体認識装置も
有効である。
Further, in the front object recognizing device having the above structure, the brightness detecting means M6 for detecting the brightness of the image picked up by the image sensor M1 and the reliability calculating means based on the detection result of the brightness detecting means M6. The front object recognition device provided with the reliability correction means M6 for correcting the calculation result of M5 is also effective.

【0010】[0010]

【作用】本発明に係る前方物体認識装置において前記画
像センサM1は、所定の監視領域を撮像する。従って、
監視領域内に前方物体が存在すると、前記画像センサM
1により背景と共に前方物体が撮像される。
In the front object recognizing device according to the present invention, the image sensor M1 images a predetermined monitoring area. Therefore,
When a front object exists in the monitoring area, the image sensor M
1, the front object is imaged together with the background.

【0011】前記エッジ検出手段M2は、撮像画像内で
前方物体のエッジに相当すると推定される画素をエッジ
点として検出し、所定方向に並んで検出されたエッジ点
を結ぶことで所定方向エッジを検出する。
The edge detecting means M2 detects a pixel estimated to correspond to the edge of the front object in the captured image as an edge point and connects the detected edge points in a predetermined direction to form a predetermined direction edge. To detect.

【0012】そして、前記エッジ点計数手段M3は、こ
のようにして検出された所定方向エッジ内において実際
にエッジ点として検出された点を計数する。この場合、
前方物体のエッジが鮮明に撮像されているほど前記エッ
ジ点計数手段M3では単位長当たりに多くのエッジ点が
計数される。
Then, the edge point counting means M3 counts the points actually detected as edge points in the thus detected edges in the predetermined direction. in this case,
As the edge of the front object is imaged more clearly, the edge point counting means M3 counts more edge points per unit length.

【0013】一方、前記エッジ長検出手段M4は、前記
所定方向エッジの長さを検出する。また、前記信頼度演
算手段M5は、前記エッジ点計数手段M3の検出結果と
前記エッジ長検出手段M4との比を取ることで、所定方
向エッジ内における単位長当たりのエッジ点の演算を行
う。
On the other hand, the edge length detecting means M4 detects the length of the edge in the predetermined direction. The reliability calculation means M5 calculates the ratio of the detection result of the edge point counting means M3 and the edge length detection means M4 to calculate the edge point per unit length within the predetermined direction edge.

【0014】この意味で、前記信頼度演算手段M5の演
算結果は、前記画像センサM1によって撮像された画像
内における所定方向エッジの鮮明度に応じた値となり、
その値が大きいほど前方物体が撮像されている可能性が
高いことになる。
In this sense, the calculation result of the reliability calculation means M5 becomes a value corresponding to the sharpness of the edge in the predetermined direction in the image picked up by the image sensor M1,
The larger the value, the higher the possibility that the front object is imaged.

【0015】また、前記明度検出手段M6は、撮像画像
の明るさを基に、当該前方物体認識装置の置かれている
環境の明度を検出する。そして、前記信頼度補正手段M
7は、撮像される所定方向エッジ内におけるエッジ点の
密度が、撮像時の明るさに応じて変化することに鑑み、
その影響を排除すべく前記信頼度演算手段M5の演算結
果に補正を施す。
The brightness detecting means M6 detects the brightness of the environment in which the front object recognizing device is placed, based on the brightness of the captured image. Then, the reliability correction means M
In consideration of the fact that the density of the edge points in the imaged predetermined direction edge changes according to the brightness at the time of image capturing,
In order to eliminate the influence, the calculation result of the reliability calculation means M5 is corrected.

【0016】[0016]

【実施例】図2は、本発明の一実施例である前方物体認
識装置10のブロック構成図を示す。ここで、本実施例
の前方物体認識装置10は、車両に搭載して車両前方を
走行中の先行車両等を認識するための装置である。
2 is a block diagram of a front object recognition apparatus 10 according to an embodiment of the present invention. Here, the front object recognition device 10 of the present embodiment is a device mounted on a vehicle for recognizing a preceding vehicle traveling in front of the vehicle.

【0017】図2においてカメラ12は、前記した画像
センサM1に相当し、車両前方を監視領域として撮像を
行う。画像処理ECU14は、中央処理装置(CPU)
16を中心に構成され、前記したエッジ検出手段M2,
エッジ点計数手段M3,エッジ長検出手段M4,信頼度
演算手段M5,明度検出手段M6,信頼度補正手段M7
を実現する本実施例の要部である。
In FIG. 2, the camera 12 corresponds to the above-mentioned image sensor M1 and picks up an image in front of the vehicle as a monitoring area. The image processing ECU 14 is a central processing unit (CPU)
16. The edge detection means M2, which is mainly composed of 16
Edge point counting means M3, edge length detection means M4, reliability calculation means M5, brightness detection means M6, reliability correction means M7
This is a main part of the present embodiment for realizing the above.

【0018】画像処理ECU14は、カメラ12から供
給されるアナログ信号をディジタル信号に変換するA/
D変換器18、ランダムアクセスメモリ(RAM)2
0、リードオンリメモリ(ROM)22とCPU16と
を共通バス24で接続して構成され、CPU16がRO
M22内に格納されている後述のプログラムを実行する
ことで上記の機能を実現する。
The image processing ECU 14 converts the analog signal supplied from the camera 12 into a digital signal A /
D converter 18, random access memory (RAM) 2
0, a read only memory (ROM) 22 and the CPU 16 are connected by a common bus 24.
The above function is realized by executing a program, which will be described later, stored in M22.

【0019】図3は、画像処理ECU14が本発明に係
る前方物体認識装置を実現すべく実行する制御ルーチン
の一例のフローチャートを示す。
FIG. 3 shows a flow chart of an example of a control routine executed by the image processing ECU 14 to realize the front object recognizing apparatus according to the present invention.

【0020】同図に示すルーチンが起動すると、先ずス
テップ100においてカメラ12から画像を入力する処
理を行う。本実施例の前方物体認識装置10は、上記し
たように車載用であり、撮像画像には図4(A)に示す
ように路面30、及び存在する場合には前方物体たる先
行車が撮像される。
When the routine shown in the figure is activated, first, at step 100, a process of inputting an image from the camera 12 is performed. The front object recognition device 10 of the present embodiment is mounted on a vehicle as described above, and the captured image captures the road surface 30 as shown in FIG. It

【0021】この場合、撮像画像内に先行車両の存在を
認識する手法としては、画像内に先行車両と背景との境
界と推定されるエッジを検出する手法が公知である。す
なわち、撮像画像内に先行車両が撮像されていれば、必
然的に先行車両と背景との間に境界線が生じ、先行車両
の車体側と背景側とで輝度差が生ずる。
In this case, as a method of recognizing the presence of the preceding vehicle in the captured image, a method of detecting an edge estimated to be a boundary between the preceding vehicle and the background in the image is known. That is, if the preceding vehicle is captured in the captured image, a boundary line is inevitably formed between the preceding vehicle and the background, and a brightness difference occurs between the vehicle body side and the background side of the preceding vehicle.

【0022】従って、撮像画像を垂直方向、或いは水平
方向に走査して、輝度が急変する画素をエッジ点として
検出すれば、図4(A)に示すように先行車両の輪郭を
なぞらえるように複数のエッジ点が検出されるはずであ
り、先行車両の輪郭と推定し得るエッジ点が検出される
か否かを判断すれば、それにより先行車両の存在を判断
することが可能である。
Therefore, if the picked-up image is scanned in the vertical direction or in the horizontal direction and a pixel whose brightness changes abruptly is detected as an edge point, a plurality of contours of the preceding vehicle can be traced as shown in FIG. 4A. Should be detected, and if it is determined whether an edge point that can be estimated as the contour of the preceding vehicle is detected, the presence of the preceding vehicle can be determined accordingly.

【0023】かかる観点より、本実施例においては上記
ステップ100の後、ステップ102において、撮像画
像中におけるエッジ点の検出を行い、検出されたエッジ
点の集合として垂直方向、及び水平方向のエッジを特定
する処理を行う。この意味で、本ステップ102は、前
記したエッジ検出手段M2に相当する。
From this point of view, in the present embodiment, after the above step 100, in step 102, the edge points in the captured image are detected, and the vertical and horizontal edges are detected as a set of the detected edge points. Perform specified processing. In this sense, this step 102 corresponds to the above-mentioned edge detecting means M2.

【0024】ところで、図4(A)中に示すエッジ点
(図中、・で示す点)は、先行車両の下端及び両側端が
エッジとして検出された例を示している。この場合、先
行車両と自車との間に適当な車間距離が保たれているこ
とを前提とすると、これらのエッジはほぼ直線と見做す
ことができ、撮像画像中に同図に示す如く(X,Y)座
標を設定した場合、先行車両下端を表すエッジを構成す
るエッジ点のY座標値は特定値YP 付近に、先行車両の
左右端を表すエッジを構成するエッジ点のX座標値は、
特定値XPL,XPR付近にそれぞれ集中する。
The edge points shown in FIG. 4 (A) (points indicated by ・ in the figure) are examples in which the lower end and both side ends of the preceding vehicle are detected as edges. In this case, assuming that an appropriate inter-vehicle distance is maintained between the preceding vehicle and the own vehicle, these edges can be regarded as almost straight lines, and as shown in the same figure in the captured image. When the (X, Y) coordinate is set, the Y coordinate value of the edge point forming the edge representing the lower end of the preceding vehicle is near the specific value Y P , and the X coordinate of the edge point forming the edge representing the left and right ends of the preceding vehicle. value is,
Concentrate around specific values X PL and X PR , respectively.

【0025】従って、撮像画像中に先行車両が撮像され
ている場合、水平方向にエッジ点を計数して度数分布を
作成すると、図4(B)に示すようにYP をピークとす
る度数分布が形成され、また垂直方向にエッジ点を計数
して度数分布を作成すると、4(C)に示しように
PL,XPRをピークとする度数分布が形成されることに
なる。
Therefore, when the preceding vehicle is picked up in the picked-up image and the frequency distribution is created by counting the edge points in the horizontal direction, the frequency distribution having a peak at Y P as shown in FIG. 4B. Is formed, and when a frequency distribution is created by counting the edge points in the vertical direction, a frequency distribution having peaks at X PL and X PR is formed as shown in 4 (C).

【0026】この際、これら各エッジを構成するエッジ
点は、エッジが鮮明に撮像されているほど高密度に検出
されるはずであり、従って、このエッジが鮮明に撮像さ
れているほど上記した度数分布のピーク値IYP 、IX
P は大きな値となるはずである。言い換えれば、これら
IYP ,IXP の値が大きいほど、撮像されたエッジが
鮮明であることになる。
At this time, the edge points constituting each of these edges should be detected with higher density as the edges are imaged more clearly, and therefore, the more clearly the edges are imaged, the above-mentioned frequency. Distribution peak values IY P , IX
P should be a large value. In other words, the larger the values of IY P and IX P , the clearer the imaged edge.

【0027】この場合、撮像されたエッジの鮮明度は、
そのエッジが先行車両の車体外形を表すものであること
に対する信頼度を表しており、鮮明度が高いほど先行車
両である可能性が高く、鮮明度が低いほど何らかのノイ
ズによる可能性が高いと判断できる。そして、かかる判
断が可能となれば、カメラ12の監視領域内に先行車両
が存在するか否かを高い精度で判断することが可能とな
る。
In this case, the sharpness of the imaged edge is
It represents the degree of reliability that the edge represents the outer shape of the vehicle ahead, and the higher the sharpness, the higher the possibility of being the leading vehicle. The lower the sharpness, the higher the possibility of noise. it can. Then, if such a determination is possible, it is possible to determine with high accuracy whether or not the preceding vehicle exists within the monitoring area of the camera 12.

【0028】そこで、本実施例においては、上記ステッ
プ102においてエッジ検出を終了したら、ステップ1
04〜112において、水平方向エッジの鮮明度に相当
する信頼度Reを算出する処理を行い、その信頼度Re
に基づいて前方物体の存在を判定する構成を採用した。
Therefore, in the present embodiment, when the edge detection is completed in step 102, step 1
04 to 112, a process of calculating the reliability Re corresponding to the sharpness of the horizontal direction edge is performed, and the reliability Re
The structure that determines the presence of a front object based on

【0029】すなわちステップ104では、上記図4
(B)に示す如き水平方向の度数分布を作成すべく、検
出したエッジ点の横方向への積分を行う。次いでステッ
プ106では、度数分布中ピーク点YP における度数I
P を検出する。そして、ステップ108で上記図4
(C)に示す如き垂直方向の度数分布を作成すべく、検
出したエッジ点の縦方向への積分を行い、ステップ11
0で縦方向度数分布のピーク点XPL,XPRの検出を行
う。
That is, in step 104, the process shown in FIG.
In order to create a horizontal frequency distribution as shown in (B), the detected edge points are integrated in the horizontal direction. Next, at step 106, the frequency I at the peak point Y P in the frequency distribution.
Detect Y P. Then, in step 108, as shown in FIG.
In order to create a vertical frequency distribution as shown in (C), the detected edge points are integrated in the vertical direction, and step 11
At 0, the peak points X PL and X PR of the vertical frequency distribution are detected.

【0030】この場合、上記ステップ106で検出した
IYP は、エッジ内におけるエッジ点の数であり、ま
た、上記ステップ110で検出したXPL,XPRは、エッ
ジの両端を表す座標であり、両者の間隔はエッジの長さ
に相当する。この意味で、上記ステップ106は前記し
たエッジ点計数手段M3を、ステップ108、110は
前記したエッジ長検出手段M4に相当することになる。
In this case, IY P detected in the above step 106 is the number of edge points in the edge, and X PL and X PR detected in the above step 110 are coordinates representing both ends of the edge. The distance between the two corresponds to the length of the edge. In this sense, the step 106 corresponds to the edge point counting means M3, and the steps 108 and 110 correspond to the edge length detecting means M4.

【0031】ステップ112は、前記した信頼度演算手
段M5を実現ステップであり、上記ステップ108、1
10で検出したIYP 、及びXPL,XPRを用いて以下の
如く信頼度Reの演算を行う。
Step 112 is a step of realizing the above-mentioned reliability calculation means M5, and the steps 108, 1 are executed.
The reliability Re is calculated as follows using IY P and X PL , X PR detected in 10.

【0032】 Re=IYP /(XPR−XPL+1) ・・・(1) ここで、本実施例においては、撮像画像の画素位置をそ
のまま座標値として用いることとしている。従って、上
記(1)式中“XPR−XPL+1”は、水平方向エッジの
長さに対応し、Y=YP の位置でXPL〜XPRにおける全
ての画素がエッジ点として検出されているとすれば、上
記Reは“1.0”となるはずである。
Re = IY P / (X PR −X PL +1) (1) Here, in this embodiment, the pixel position of the captured image is used as it is as the coordinate value. Therefore, “X PR −X PL +1” in the equation (1) corresponds to the length of the horizontal edge, and all the pixels in X PL to X PR are detected as edge points at the position of Y = Y P. If so, the above Re should be “1.0”.

【0033】つまり、上記信頼度Reは、“1.0”を
上限として、水平方向エッジ内におけるエッジ点密度が
低下するに従ってその値を低下させる特性値である。
尚、本実施例においては、上記ステップ112が前記し
た信頼度演算手段M5に相当することになる。
That is, the reliability Re is a characteristic value in which the upper limit is "1.0" and the value decreases as the edge point density in the horizontal edge decreases.
In this embodiment, the step 112 corresponds to the reliability calculation means M5 described above.

【0034】尚、本ルーチンにおいては、一般に車両形
状は車幅が車高に勝ること等の理由により、水平方向エ
ッジを用いて信頼度Reを演算する構成を採用している
が、これに限るものではなく、垂直方向エッジの長さ、
及びその中におけるエッジ点の数に基づいて信頼度Re
を演算する構成としてもよい。
In this routine, the vehicle shape is generally configured to calculate the reliability Re using the horizontal edge because the vehicle width exceeds the vehicle height. The length of the vertical edge, not the one
And the reliability Re based on the number of edge points in the
May be calculated.

【0035】ところで、図5は、代表的な環境例として
昼間(図5中、実線で示す曲線)及び夜間(図5中、破
線で示す曲線)を想定して、先行車両との距離Lとの関
係で信頼度Reを演算した結果を信頼度曲線として示し
たものである。
By the way, in FIG. 5, assuming typical daytime (curve indicated by solid line in FIG. 5) and nighttime (curve indicated by broken line in FIG. 5) as a typical environment, the distance L to the preceding vehicle is shown. The result of calculating the reliability Re in the relationship is shown as a reliability curve.

【0036】この場合、個々の環境に対応する信頼度曲
線を越える領域においては、自車の前方に先行車が存在
する可能性が高く、また信頼度曲線に満たない領域にお
いては、先行車両が存在しない可能性が高いはずであ
る。従って、予め図5に示す信頼度曲線を特性マップと
して記憶しておけば、実測した信頼度Reを同マップに
照らし合わせることにより、先行車の存在を精度良く判
断することが可能である。
In this case, there is a high possibility that a preceding vehicle is present in front of the own vehicle in the area exceeding the reliability curve corresponding to each environment, and the preceding vehicle is in the area less than the reliability curve. It should most likely not exist. Therefore, if the reliability curve shown in FIG. 5 is stored in advance as a characteristic map, it is possible to accurately determine the presence of a preceding vehicle by comparing the measured reliability Re with the map.

【0037】この際、図5に示す信頼度曲線は、信頼度
Reが、先行車両との距離Lの関数であることを表して
いる。この現象は、検出精度との関係で車間距離が10
0mを越ええる領域では距離が伸びるに従って信頼度R
eが低下する一方、車間距離が50mに満たない領域に
おいては、先行車両のエッジが撮像画像中で直線と見做
せなくなるためと考えられる。
At this time, the reliability curve shown in FIG. 5 indicates that the reliability Re is a function of the distance L from the preceding vehicle. This phenomenon occurs when the inter-vehicle distance is 10
In the area that can exceed 0 m, the reliability R increases as the distance increases.
It is considered that, while e decreases, the edge of the preceding vehicle cannot be regarded as a straight line in the captured image in the region where the inter-vehicle distance is less than 50 m.

【0038】また、図5に示す信頼度曲線は、信頼度R
eが距離Lの他、外部環境の明るさの影響を受けること
も表している。この現象は、昼間は主に先行車の車体外
形がエッジとして撮像されるのに対して、夜間は主に先
行車の尾灯がエッジとして撮像されることとなり、必然
的に水平方向エッジに対するエッジ点密度が低下するた
めと考えられる。
Further, the reliability curve shown in FIG.
It also indicates that e is affected by the brightness of the external environment in addition to the distance L. This phenomenon means that the body shape of the preceding vehicle is mainly imaged as an edge in the daytime, while the taillight of the preceding vehicle is mainly imaged as an edge in the nighttime, and the edge point with respect to the horizontal edge is inevitably taken. It is considered that the density is reduced.

【0039】従って、実測した信頼度Reを図5に示す
如き特性マップに照らし合わせるためには、信頼度Re
の他、自車と先行車両との距離Lを実測する必要がある
と共に、外部環境が昼間か夜間かの区別を行う必要があ
る。
Therefore, in order to compare the actually measured reliability Re with the characteristic map as shown in FIG.
In addition, it is necessary to measure the distance L between the own vehicle and the preceding vehicle, and to distinguish whether the external environment is daytime or nighttime.

【0040】このため、本ルーチンにおいては、上記ス
テップ112において信頼度Reの演算を終えたら、ス
テップ114へ進んで車間距離Lの算出を行う。車間距
離Lの算出については、カメラ12の撮像画像を処理す
る公知の手法で実行することができる。本実施例におい
ては、カメラ12の仰角、及び先行車両の下端部の地上
高がほぼ一定であることを前提として、上記ステップ1
06で求めたYP より車間距離Lを演算することとして
いる。
Therefore, in this routine, after the calculation of the reliability Re is completed in step 112, the process proceeds to step 114 to calculate the inter-vehicle distance L. The calculation of the inter-vehicle distance L can be performed by a known method of processing a captured image of the camera 12. In this embodiment, assuming that the elevation angle of the camera 12 and the ground clearance at the lower end of the preceding vehicle are substantially constant, the above step 1 is performed.
The inter-vehicle distance L is calculated from Y P obtained in 06.

【0041】このようにして車間距離Lの算出を終えた
ら、ステップ116へ進んで入力画像の明るさIMBの
演算を行う。信頼度Reに影響を与える外部環境の明る
さは、撮像画像の明るさに反映されるはずであり、撮像
画像中の適当な領域における明度を検出すれば、外部の
明るさの代用特性値として把握することが可能だからで
ある。この意味で、本ステップ116は前記した明度検
出手段M6に相当する。
When the calculation of the inter-vehicle distance L is completed in this way, the routine proceeds to step 116, where the brightness IMB of the input image is calculated. The brightness of the external environment that affects the reliability Re should be reflected in the brightness of the captured image, and if the brightness in an appropriate area in the captured image is detected, it is used as a substitute characteristic value of the external brightness. Because it is possible to grasp. In this sense, this step 116 corresponds to the lightness detecting means M6 described above.

【0042】尚、この場合、明度を検出すべく抽出する
領域としては、図6(A)に示す如く先行車両が存在す
るとすればその全体が含まれるであろう撮像画像中央の
領域、又は図6(B)に示す如く先行車両の有無に関わ
らずその影響を受けない撮像画像上下の領域が適当であ
る。
In this case, as the area to be extracted for detecting the lightness, if the preceding vehicle exists as shown in FIG. As shown in FIG. 6B, the upper and lower areas of the captured image that are not affected by the presence or absence of the preceding vehicle are suitable.

【0043】上記ステップ116において明るさIMB
の演算を終えたら、ステップ118においてIMBが所
定の判定値Cより大きいかを判別する。この判定値C
は、昼間と夜間とを区別するための判定値であり、車両
の特性に応じて実験的に設定した値である。
In step 116, the brightness IMB
When the calculation of is completed, it is determined in step 118 whether IMB is larger than a predetermined determination value C. This judgment value C
Is a determination value for distinguishing between daytime and nighttime, and is a value set experimentally according to the characteristics of the vehicle.

【0044】そして、IMB>Cが成立する、すなわち
外部環境が十分に明るいと判別された場合は、現在は昼
間であると判断してステップ120へ進む。このステッ
プ120は、昼間を想定して設定した特性マップ(上記
図5中、実線で示す曲線)を実測車間距離Lで検索して
特定した判定値gd(L)と、実測した信頼度Reとを
比較するステップである。
When IMB> C is satisfied, that is, when it is determined that the external environment is sufficiently bright, it is determined that it is daytime at present, and the process proceeds to step 120. In this step 120, the characteristic map (curve shown by a solid line in FIG. 5) set assuming the daytime is searched for by the actually measured inter-vehicle distance L, and the determined value gd (L) and the actually measured reliability Re are set. Is the step of comparing.

【0045】一方、上記ステップ118においてIMB
>Cが不成立であると判別された場合は、現在は夜間で
あると判断してステップ122へ進む。このステップ1
22は、夜間を想定して設定した特性マップ(上記図5
中、破線で示す曲線)を実測車間距離Lで検索して特定
した判定値gn(L)と、実測した信頼度Reとを比較
するステップである。
On the other hand, in step 118, the IMB
When it is determined that> C is not satisfied, it is determined that it is currently nighttime, and the process proceeds to step 122. This step 1
22 is a characteristic map set assuming night (see FIG. 5 above).
This is a step of comparing the determined reliability value Re with the determination value gn (L) specified by searching for the actually measured inter-vehicle distance L (curve indicated by the broken line).

【0046】上記ステップ120においてRe>gd
(L)が成立すると判別された場合、又はステップ12
2においてRe>gn(L)が成立すると判別された場
合は、共にステップ124へ進んで車両有りとする判断
を下し、また上記条件が不成立と判別された場合はステ
ップ126へ進んで車両なしと判断を下す。
In step 120, Re> gd
If it is determined that (L) holds, or step 12
If it is determined that Re> gn (L) is satisfied in step 2, the process proceeds to step 124 and it is determined that there is a vehicle, and if it is determined that the above condition is not satisfied, the process proceeds to step 126 and there is no vehicle. And make a decision.

【0047】この場合、上記ステップ118〜122
は、実質的には信頼度Reが先行車両の存在を裏付ける
度合いを補正しており、この意味で前記した信頼度補正
手段M7に相当することになる。
In this case, the above steps 118 to 122
Substantially corrects the degree to which the reliability Re confirms the existence of the preceding vehicle, and in this sense corresponds to the reliability correction means M7.

【0048】尚、本実施例においては、上記ステップ1
24において先行車両の存在が認識された場合に限り、
ステップ128へ進んで警報・自動ブレーキについての
サブルーチンを実行し、先行車両との車間距離Lが不当
に短いことが検出された場合等においては、運転者に対
する警報、自動ブレーキの作動等の処理を行うこととし
ている。
In the present embodiment, the above step 1
Only when the presence of the preceding vehicle is recognized in 24
When the routine proceeds to step 128 and the subroutine for alarm / automatic braking is executed, and when it is detected that the inter-vehicle distance L with the preceding vehicle is unduly short, the driver is warned and the automatic braking operation is performed. I am going to do it.

【0049】このように、本実施例の前方物体認識装置
10によれば、外部環境の明るさ、先行車両との距離L
等に基づいて、先行車両が存在するとした場合に本来検
出されるべき鮮明さで水平方向エッジが検出された場合
に限って車両の存在が検出される。このため、環境の変
化、車間距離Lの変化等に起因して撮像画像内における
エッジの検出精度が変動するにも関わらず、その変動を
相殺した状態で、常に高い精度で先行車両の存在を認識
することができる。
As described above, according to the front object recognition apparatus 10 of the present embodiment, the brightness of the external environment and the distance L to the preceding vehicle.
Based on the above, the presence of the vehicle is detected only when the horizontal edge is detected with the sharpness that should be originally detected when the preceding vehicle is present. Therefore, even if the detection accuracy of the edge in the captured image changes due to a change in the environment, a change in the inter-vehicle distance L, or the like, the presence of the preceding vehicle can always be detected with high accuracy while canceling the change. Can be recognized.

【0050】ところで、本実施例の前方物体認識装置1
0は、水平方向エッジの鮮明度に相当する信頼度Reを
演算し、その値に基づいて先行車両の存在を判断するこ
とで誤検出を防止する構成と、その判断に外部環境の明
るさを反映させる構成とを共に実現しているが、これに
限るものではなく、何れか一方のみを採用する場合にも
有効に機能するものである。
By the way, the front object recognition apparatus 1 of the present embodiment
A value of 0 calculates the reliability Re corresponding to the sharpness of the horizontal edge, and determines the presence of the preceding vehicle based on the value to prevent erroneous detection, and the brightness of the external environment is used for the determination. Although it is realized with the configuration to be reflected, it is not limited to this, and it is effective even when only one of them is adopted.

【0051】[0051]

【発明の効果】上述の如く、請求項1記載の発明によれ
ば、画像センサによって撮像された画像内における所定
方向エッジ内におけるエッジ点密度を演算することによ
り、当該所定方向エッジの鮮明度に相当する特性値を信
頼度として演算することができる。
As described above, according to the first aspect of the present invention, by calculating the edge point density in the predetermined direction edge in the image picked up by the image sensor, the sharpness of the predetermined direction edge can be improved. A corresponding characteristic value can be calculated as the reliability.

【0052】この場合、信頼度が高いほど、すなわちエ
ッジが鮮明であるほど現実に前方物体が存在する可能性
が高く、一方、信頼度が低い場合には前方物体が存在す
る可能性が低いと判断することができ、かかる可能性を
反映させて誤検出のない前方物体認識処理を実現するこ
とが可能となる。
In this case, the higher the reliability is, that is, the sharper the edge is, the higher the possibility that the front object actually exists, and the lower the reliability, the lower the possibility that the front object exists. It is possible to make a judgment, and it is possible to realize a front object recognition process without erroneous detection by reflecting such possibility.

【0053】また、請求項2記載の発明によれば、当該
前方物体認識装置の置かれる環境の明るさに応じて前方
物体の認識結果に関する信頼度を補正することができ
る。この場合、補正後の信頼度には、環境の明るさを反
映させることができることから、環境の明るさをも考慮
したうえで前方物体の有無を判断することが可能とな
る。従って、本発明に係る前方物体認識装置によれば、
上記請求項1記載の発明に比べて、更に広い環境下で有
効な認識処理を行うことができるという特長を有してい
る。
According to the second aspect of the present invention, the reliability of the recognition result of the front object can be corrected according to the brightness of the environment in which the front object recognition device is placed. In this case, since the brightness of the environment can be reflected in the corrected reliability, it is possible to determine the presence or absence of the front object in consideration of the brightness of the environment. Therefore, according to the front object recognition device of the present invention,
Compared with the invention described in claim 1, it has a feature that effective recognition processing can be performed in a wider environment.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る前方物体認識装置の原理構成図で
ある。
FIG. 1 is a principle configuration diagram of a front object recognition device according to the present invention.

【図2】本発明の一実施例である前方物体認識装置のブ
ロック構成図である。
FIG. 2 is a block configuration diagram of a front object recognition apparatus that is an embodiment of the present invention.

【図3】画像処理ECUが実行する制御ルーチンの一例
のフローチャートである。
FIG. 3 is a flowchart of an example of a control routine executed by the image processing ECU.

【図4】本実施例の前方物体認識装置による前方物体認
識手法を説明するための図である。
FIG. 4 is a diagram for explaining a front object recognition method by the front object recognition device of the present embodiment.

【図5】本実施例の前方物体認識装置で用いる特性マッ
プの一例である。
FIG. 5 is an example of a characteristic map used in the front object recognition device in the present embodiment.

【図6】撮像画像から明るさを検出する際に抽出するの
に好適な領域を表す図である。
FIG. 6 is a diagram showing a region suitable for extraction when detecting brightness from a captured image.

【符号の説明】[Explanation of symbols]

M1 画像センサ M2 エッジ検出手段 M3 エッジ点計数手段 M4 エッジ長検出手段 M5 信頼度演算手段 M6 明度検出手段 M7 信頼度補正手段 10 前方物体認識装置 12 カメラ 14 画像処理ECU 16 中央処理装置(CPU) 18 A/D変換器 20 ランダムアクセスメモリ(RAM) 22 リードオンリメモリ(ROM) M1 image sensor M2 edge detection means M3 edge point counting means M4 edge length detection means M5 reliability calculation means M6 brightness detection means M7 reliability correction means 10 front object recognition device 12 camera 14 image processing ECU 16 central processing unit (CPU) 18 A / D converter 20 Random access memory (RAM) 22 Read only memory (ROM)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 9/20 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G06T 9/20

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 前方物体を撮像する画像センサと、 該画像センサが撮像した画像内において、前方物体のエ
ッジと推定される所定方向エッジを検出するエッジ検出
手段と、 検出された該所定方向エッジ内で、現実にエッジ点とし
て検出された画素数を計数するエッジ点計数手段と、 実質的に前記所定方向エッジの長さを検出するエッジ長
検出手段と、 該エッジ長検出手段が検出した前記所定方向エッジの長
さと、前記エッジ点計数手段が計数したエッジ点との比
に基づいて、前記所定方向エッジが前方物体のエッジで
あることに対する信頼度を演算する信頼度演算手段とを
備えることを特徴とする前方物体認識装置。
1. An image sensor for picking up an image of a front object, edge detecting means for detecting a predetermined direction edge estimated to be an edge of the front object in an image picked up by the image sensor, and the detected predetermined direction edge. An edge point counting means for counting the number of pixels actually detected as an edge point, an edge length detecting means for substantially detecting the length of the edge in the predetermined direction, and an edge length detecting means for detecting the edge length. Reliability calculating means for calculating the reliability of the predetermined direction edge being the edge of the front object based on the ratio of the length of the predetermined direction edge and the edge point counted by the edge point counting means. A front object recognition device.
【請求項2】 請求項1記載の前方物体認識装置におい
て、 前記画像センサが撮像した画像の明るさを検出する明度
検出手段と、 該明度検出手段の検出結果に基づいて前記信頼度演算手
段の演算結果を補正する信頼度補正手段とを備えること
を特徴とする前方物体認識装置。
2. The front object recognizing device according to claim 1, wherein the brightness detecting means for detecting the brightness of the image captured by the image sensor, and the reliability calculating means based on the detection result of the brightness detecting means. A front object recognition device comprising: a reliability correction unit that corrects a calculation result.
JP5305637A 1993-12-06 1993-12-06 Forward object recognizing device Pending JPH07160846A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5305637A JPH07160846A (en) 1993-12-06 1993-12-06 Forward object recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5305637A JPH07160846A (en) 1993-12-06 1993-12-06 Forward object recognizing device

Publications (1)

Publication Number Publication Date
JPH07160846A true JPH07160846A (en) 1995-06-23

Family

ID=17947532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5305637A Pending JPH07160846A (en) 1993-12-06 1993-12-06 Forward object recognizing device

Country Status (1)

Country Link
JP (1) JPH07160846A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250910A (en) * 2004-03-04 2005-09-15 Keio Gijuku Mobile object detection method and mobile object detection system
JP2015231179A (en) * 2014-06-06 2015-12-21 富士重工業株式会社 Outside of vehicle environment recognition device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250910A (en) * 2004-03-04 2005-09-15 Keio Gijuku Mobile object detection method and mobile object detection system
JP4500563B2 (en) * 2004-03-04 2010-07-14 学校法人慶應義塾 Vehicle detection method and vehicle detection system
JP2015231179A (en) * 2014-06-06 2015-12-21 富士重工業株式会社 Outside of vehicle environment recognition device

Similar Documents

Publication Publication Date Title
US7209832B2 (en) Lane recognition image processing apparatus
US6658150B2 (en) Image recognition system
JP3503230B2 (en) Nighttime vehicle recognition device
US7152000B2 (en) Vehicle traveling state determining apparatus
JP2001092970A (en) Lane recognizing device
JP2000039306A (en) Device and method for vehicle system area detection
EP1283498A2 (en) White line detection apparatus and white line detection method
JP2007179386A (en) Method and apparatus for recognizing white line
JPH08329393A (en) Preceding vehicle detector
JP3993259B2 (en) Image processing device
JPH1173514A (en) Recognition device for vehicle
US7003137B2 (en) Target recognition apparatus
JP3807651B2 (en) White line recognition device
JPH09113221A (en) On-vehicle device and method for processing picture
JP4198542B2 (en) Face presence / absence determination device and face presence / absence determination program
JP2000353300A (en) Object recognizing device
JP2004185425A (en) Lane mark recognition method and device
JP3272694B2 (en) Outside monitoring device with fail-safe function
JPH07160846A (en) Forward object recognizing device
JPH07114689A (en) Method for recognizing vehicle registered number
JP2798349B2 (en) Vehicle position detection device
JP3196559B2 (en) Line recognition method
JPH04137014A (en) Traveling path terminal detector for mobile vehicle
JP4532089B2 (en) Outside monitoring device
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method