JPH0933216A - Image processor carried on vehicle - Google Patents

Image processor carried on vehicle

Info

Publication number
JPH0933216A
JPH0933216A JP7187408A JP18740895A JPH0933216A JP H0933216 A JPH0933216 A JP H0933216A JP 7187408 A JP7187408 A JP 7187408A JP 18740895 A JP18740895 A JP 18740895A JP H0933216 A JPH0933216 A JP H0933216A
Authority
JP
Japan
Prior art keywords
vehicle
white line
lane width
image processing
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7187408A
Other languages
Japanese (ja)
Inventor
Koichi Sato
公一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP7187408A priority Critical patent/JPH0933216A/en
Publication of JPH0933216A publication Critical patent/JPH0933216A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image processor by which a white line can be recognized stably without being subjected to the influence of a noise which is stable in a time-series manner by deciding the white line on the basis of traffic-lane-width information from an extracted white-line candidate point. SOLUTION: In a preprocessing means 28, an image in which a contour has been extracted and which has been binalized, is subjected to time quadrature by using integration device, and an output signal by a time-quardrature means 29 is input to a region division means 30. This is performed by using a comparison means. When the signal is larger than a specific threshold, a region I is divided into two regions on a screen, and, when the signal is small, a region O is divided into two regions. Then, a deletion processing operation such as a white-line recognition operation or a vehicle recognition operation is limited to the region I. Thereby, a processing speed can be increased as a whole. Then, by using the region I, a white line is recognized by a white-line recognition means 3. When the white line is recognized, the white line inside the region I is found from its contour. In this manner, a designated region is selected as a white-line candidate point, and the white line is decided according to every region.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、車載用画像処理
装置に関し、特に白線認識を行うための車載用画像処理
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle-mounted image processing apparatus, and more particularly to a vehicle-mounted image processing apparatus for performing white line recognition.

【0002】[0002]

【従来の技術】従来、車載用画像処理装置として知られ
る、自動車用白線認識装置としては、図10に示すよう
に、CCDカメラ1から入力した画像情報からA/D変
換手段2により画像信号をディジタル信号に変換し、該
ディジタル変換された信号から白線認識手段3により白
線認識を行うものが知られている。
2. Description of the Related Art Conventionally, as an automotive white line recognition device known as an in-vehicle image processing device, as shown in FIG. 10, an image signal is input from an image information input from a CCD camera 1 by an A / D conversion means 2. It is known that a white signal is converted into a digital signal and white line recognition is performed by the white line recognition means 3 from the digitally converted signal.

【0003】かかる従来技術において、ディジタル信号
から白線認識により白線位置を求める白線認識手段につ
いては種々のものが提案されており、例えば、白線と道
路面との輝度差を利用して、画像を所定の閾値で二値化
して白線候補点を求める方式、或いは、特開平3−27
3498号公報のように、白線と道路面との輝度差の変
化率、すなわち輝度信号を空間的に微分する等の処理を
実行して白線候補点を求める方式が知られている。
In the prior art, various white line recognizing means for obtaining a white line position by recognizing a white line from a digital signal have been proposed. For example, an image is predetermined by utilizing a brightness difference between the white line and a road surface. Method for obtaining white line candidate points by binarizing with a threshold of
As in Japanese Patent No. 3498, there is known a method of obtaining a white line candidate point by executing a rate of change of a brightness difference between a white line and a road surface, that is, a process of spatially differentiating a brightness signal.

【0004】また更には、画像信号に前例の二値化等既
存の前処理を行った信号、もしくは画像信号そのものを
時間積分し、候補点を求める方式も考えられている。以
下にこのような時間積分から候補点を求めるようにした
白線認識手段について説明する。
Furthermore, there has been considered a method of obtaining a candidate point by time-integrating a signal obtained by subjecting an image signal to existing preprocessing such as binarization of the previous example or the image signal itself. The white line recognizing means for obtaining candidate points from such time integration will be described below.

【0005】図11はCCDカメラである撮影手段1に
よって車両前方を撮影したときの画像の一例であり、4
は道路上の白線、5は道路、6は道路上の文字等であ
る。ここで、白線4の認識は走査線毎に行い、左右それ
ぞれ1点ずつ白線位置を出力することで行われる。
FIG. 11 shows an example of an image when the front of the vehicle is photographed by the photographing means 1 which is a CCD camera.
Is a white line on the road, 5 is a road, and 6 is a character on the road. Here, the white line 4 is recognized for each scanning line, and the white line position is output for each of the left and right sides.

【0006】以下に、1走査線上において、入力画面か
ら白線認識を行うための構成および動作について説明す
る。図12は、ある1走査線(図11のa線)を抜き出
し、処理を行った時のフロー(a)、及びそのときのデ
ータ(b)を横軸を画面上の横位置にとって表したもの
である。
The configuration and operation for recognizing the white line from the input screen on one scanning line will be described below. FIG. 12 shows a flow (a) when a certain one scanning line (a line in FIG. 11) is extracted and processed, and the data (b) at that time is represented by the horizontal position on the screen. Is.

【0007】図12(b)の8は縦軸を輝度値に取った
ときの入力画像データを示す。このように、白線4や道
路上の文字6等は輝度値が大きく道路5等は輝度値が小
さく現れている。まず、入力画面(入力画像データ)に
対して輪郭線検出手段9による検出を行う。輪郭線検出
手段9により、輪郭線は入力画像データの変化分絶対値
で求められる。入力画像データ8が入力された輪郭線検
出手段9の出力データ(輪郭線検出データ)は、10の
ようなグラフで示される。
Reference numeral 8 in FIG. 12 (b) shows input image data when the vertical axis represents the luminance value. In this way, the white line 4, the characters 6 on the road, and the like have large luminance values, and the road 5 and the like have small luminance values. First, the contour line detection means 9 detects the input screen (input image data). The contour line detecting unit 9 obtains the contour line by the absolute value of the change amount of the input image data. The output data (contour detection data) of the contour detection unit 9 to which the input image data 8 is input is shown by a graph such as 10.

【0008】次に、特定の閾値により二値化手段11に
よる二値化を行う。輪郭線検出データ10に特定閾値に
よる二値化を施すと、12で示すような二値化データが
得られる。次に二値化データ12を時間積分手段13に
より時間積分する。
Next, the binarization means 11 performs binarization with a specific threshold value. When the contour detection data 10 is binarized with a specific threshold value, binarized data as shown by 12 is obtained. Next, the binarized data 12 is time-integrated by the time integration means 13.

【0009】時間積分は例えば、画面上の1画素に注目
し、図13の様に1画面遅延手段23と内分手段24に
より構成される。内分手段24は、ある時定数である内
分比率を定めるτ25が与えられたとき、2入力のτ−
1:1内分値を出力するものである。ある時点でのその
画素の輝度値をP(n)、同時刻の同じ画素の時間積分
値をI(n)、その前フレームの同じ画素の時間積分値
をI(n−1)、ある所定の時定数をτとすると、時間
積分値は次の式で与えられる。
For example, attention is paid to one pixel on the screen, and the time integration is constituted by a one-screen delay means 23 and an internal division means 24 as shown in FIG. The internal division means 24 receives two input τ− when given τ25 which defines an internal division ratio which is a certain time constant.
It outputs a 1: 1 internally divided value. The luminance value of the pixel at a certain time point is P (n), the time integrated value of the same pixel at the same time is I (n), and the time integrated value of the same pixel in the previous frame is I (n-1), which is a predetermined value. If the time constant of is τ, the time integration value is given by the following equation.

【0010】 I(n)=(1−1/τ)×I(n−1)+1/τ×P(n) (式1)I (n) = (1-1 / τ) × I (n−1) + 1 / τ × P (n) (Equation 1)

【0011】ここで時定数τを大きくとると長い時間積
分となり、小さくとると短い時間積分となる。これによ
り、時間的に安定して同じ位置に現れる輪郭線が強く現
れるため、道路上の文字等の時間的に不安定の輪郭線は
小さい値となる。
Here, if the time constant τ is large, the time integration is long, and if it is small, the time integration is short. As a result, a contour line that is stable in time and appears at the same position strongly appears, and thus a contour line that is unstable in time such as a character on the road has a small value.

【0012】二値化データ12を時間積分したグラフは
14の様になる。このように、白線4の位置に対応する
データは大きな値となり、一方、道路の文字等6の位置
に対応するデータは小さな値となる。
A graph obtained by time-integrating the binarized data 12 is as shown in FIG. In this way, the data corresponding to the position of the white line 4 has a large value, while the data corresponding to the position of the road character 6 has a small value.

【0013】次に積分手段13により得られたデータ1
4を変化分検出手段15によって変化分データ16を求
める。変化分検出手段15は輪郭線検出手段9と同じく
変化分を変化分絶対値で求める。
Next, the data 1 obtained by the integrating means 13
4, the change amount detecting means 15 obtains change amount data 16. The change amount detecting means 15 obtains the change amount by the change amount absolute value similarly to the contour line detecting means 9.

【0014】次に、走査開始点設定手段17は、ライン
上の中心点を特定基準点18とし、これを走査開始点と
して設定する。走査手段19は、この特定基準点18よ
り左右方向に変化分データ16を走査する。また、走査
手段19と平行して変化分検出手段20により変化分デ
ータ16に対し変化分検出を行い、白線候補点21を検
出する。変化分検出手段20は、例えば、データの変化
分を計算し、この変化分データが所定の閾値以上である
ものを検出する。
Next, the scanning start point setting means 17 sets the center point on the line as the specific reference point 18 and sets it as the scanning start point. The scanning means 19 scans the variation data 16 in the left-right direction from the specific reference point 18. Further, in parallel with the scanning means 19, a change amount detecting means 20 detects a change amount in the change amount data 16 to detect a white line candidate point 21. The change amount detecting means 20 calculates, for example, a change amount of data and detects that the change amount data is equal to or more than a predetermined threshold value.

【0015】変化分検出手段20により検出された白線
候補点21は判断手段22により、白線候補点が時系列
的に安定していればこれを白線位置と決定し、そうでな
ければ前回の白線位置を白線と決定する。
The white line candidate point 21 detected by the change amount detecting means 20 is determined by the judging means 22 as a white line position if the white line candidate point is stable in time series. Determine the position as the white line.

【0016】以上に、この発明の一つの従来技術におけ
る白線位置検出手段について説明したが、この発明の他
の従来技術における白線認識手段としては、特公平6−
24035号公報に示されるように、撮像画像から輪郭
線を抽出し、Hough変換を施して画像上で近似する
直線群を抽出する直線群抽出手段が知られている。
The white line position detecting means in one prior art of the present invention has been described above, but as a white line recognizing means in another prior art of the present invention, Japanese Patent Publication No.
As shown in Japanese Unexamined Patent Publication No. 24035, there is known a straight line group extraction unit that extracts a contour line from a captured image, performs Hough transformation, and extracts a straight line group that is approximate on the image.

【0017】[0017]

【発明が解決しようとする課題】しかしながら、かかる
従来の車載用画像処理装置においては、例えば、自車両
と相対速度の小さい車両や、道路上に道路と平行して設
けられる影等は時系列的に安定しているため白線と誤認
識する恐れがある。
However, in such a conventional vehicle-mounted image processing apparatus, for example, a vehicle having a small relative speed to the host vehicle, a shadow provided on the road in parallel with the road, and the like are time-series. Since it is stable, it may be mistaken for a white line.

【0018】本発明はかかる問題点を解決すべく為され
たものであり、時系列的に安定しているノイズの影響を
受けず安定した白線認識を行うことができる車載用画像
処理装置を得ることを目的とする。
The present invention has been made to solve the above problems, and provides a vehicle-mounted image processing apparatus capable of performing stable white line recognition without being affected by noise which is stable in time series. The purpose is to

【0019】[0019]

【課題を解決するための手段】この発明の請求項1に係
る車載用画像処理装置は、車両周辺を撮影する撮影手段
と、撮影手段により出力される画像信号を入力する入力
手段と、上記画像信号に基づいて白線候補点を抽出する
白線候補点抽出手段と、抽出された白線候補点から車線
幅情報に基づいて白線を決定する決定手段とを備えたも
のである。
According to a first aspect of the present invention, there is provided a vehicle-mounted image processing apparatus, a photographing means for photographing the periphery of a vehicle, an input means for inputting an image signal output by the photographing means, and the above-mentioned image. It is provided with a white line candidate point extracting means for extracting a white line candidate point based on a signal and a determining means for determining a white line from the extracted white line candidate points based on lane width information.

【0020】この発明の請求項2に係る車載用画像処理
装置は、請求項1の車載用画像処理装置において、さら
に、抽出された白線候補点に基づいて車線幅を学習する
車線幅学習手段を備えたものである。
According to a second aspect of the present invention, there is provided an in-vehicle image processing device according to the first aspect, further comprising lane width learning means for learning the lane width based on the extracted white line candidate points. Be prepared.

【0021】この発明の請求項3に係る車載用画像処理
装置は、請求項2の車載用画像処理装置において、さら
に、所定の条件で上記車線幅を学習させる車線幅学習条
件設定手段を備えたものである。
An on-vehicle image processing apparatus according to a third aspect of the present invention is the vehicle-mounted image processing apparatus according to the second aspect, further comprising lane width learning condition setting means for learning the lane width under a predetermined condition. It is a thing.

【0022】この発明の請求項4に係る車載用画像処理
装置は、請求項2または請求項3の車載用画像処理装置
において、さらに、車線幅の学習に車線幅の変化量を限
定させる限定手段を備えたものである。
A vehicle-mounted image processing device according to a fourth aspect of the present invention is the vehicle-mounted image processing device according to the second or third aspect, further comprising limiting means for limiting the amount of change in the lane width in learning the lane width. It is equipped with.

【0023】この発明の請求項5に係る車載用画像処理
装置は、請求項1乃至請求項4のいずれかの車載用画像
処理装置において、さらに、抽出された白線候補点に関
するデータに時間積分処理を行う時間積分手段を備えた
ものである。
An on-vehicle image processing device according to a fifth aspect of the present invention is the on-vehicle image processing device according to any one of the first to fourth aspects, wherein time-integration processing is further performed on the extracted white line candidate point data. It is provided with a time integration means for performing.

【0024】この発明の請求項6に係る車載用画像処理
装置は、請求項1乃至請求項5のいずれかの車載用画像
処理装置において、さらに、抽出された白線候補点によ
る白線位置の変化量を限定する変化量限定手段を備えた
ものである。
An on-vehicle image processing device according to a sixth aspect of the present invention is the on-vehicle image processing device according to any one of the first to fifth aspects, further, the change amount of the white line position by the extracted white line candidate point. Is provided with a change amount limiting means for limiting.

【0025】この発明の請求項7に係る車載用画像処理
装置は、請求項1乃至請求項6のいずれかの車載用画像
処理装置において、さらに、得られた車線幅を用いて、
道路種別を判別する道路種別判別手段を備えたものであ
る。
An on-vehicle image processing device according to claim 7 of the present invention is the vehicle-mounted image processing device according to any one of claims 1 to 6, further using the obtained lane width,
A road type discriminating means for discriminating the road type is provided.

【0026】この発明の請求項8に係る車載用画像処理
装置は、請求項1乃至請求項7のいずれかの車載用画像
処理装置において、さらに、得られた車線幅を用いて、
車体状態を判別する車体状態判別手段を備えたものであ
る。
An on-vehicle image processing apparatus according to claim 8 of the present invention is the vehicle-mounted image processing apparatus according to any one of claims 1 to 7, further using the obtained lane width,
The vehicle body state determination means for determining the vehicle body state is provided.

【0027】この発明の請求項9に係る車載用画像処理
装置は、請求項1乃至請求項8のいずれかの車載用画像
処理装置において、さらに、得られた車線幅を用いて、
道路の曲がりを検出する道路曲率検出手段を備えたもの
である。
An on-vehicle image processing apparatus according to claim 9 of the present invention is the vehicle-mounted image processing apparatus according to any one of claims 1 to 8, further using the obtained lane width,
It is provided with a road curvature detecting means for detecting a bend in the road.

【0028】[0028]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

実施の形態1.図1は、この発明の実施の形態の全体構
成を示す図である。図1において、1は画像撮影手段
(CCDカメラ)、2はA/D変換手段、28は輪郭線
検出等の前処理手段、29は時間積分手段、30は領域
分割手段、3は白線認識手段、45は安定化処理手段、
46は車線幅学習手段である。
Embodiment 1. FIG. 1 is a diagram showing an overall configuration of an embodiment of the present invention. In FIG. 1, 1 is an image capturing means (CCD camera), 2 is an A / D conversion means, 28 is a pre-processing means such as contour line detection, 29 is a time integration means, 30 is an area dividing means, 3 is a white line recognition means. , 45 is stabilization processing means,
Reference numeral 46 is a lane width learning means.

【0029】図2は、画像撮影手段1によって車両前方
を撮影したときの画像の一例であり、これは、図11に
対して、郭線検出、二値化処理等の前処理を行ったもの
である。図3は図2の画像に対し時間積分を行い領域分
割したときの図である。図3において、27は領域I、
26は領域Oをそれぞれ示している。ここで、上述した
図2は前処理手段28の出力図、図3は領域分割手段3
0の出力図をそれぞれ示している。
FIG. 2 shows an example of an image when the front of the vehicle is photographed by the image photographing means 1. This is an image obtained by performing preprocessing such as contour line detection and binarization processing on FIG. Is. FIG. 3 is a diagram when the image of FIG. 2 is time-integrated and divided into regions. In FIG. 3, 27 is a region I,
Reference numerals 26 denote areas O, respectively. Here, FIG. 2 described above is an output diagram of the preprocessing means 28, and FIG. 3 is the area dividing means 3
Output diagrams of 0 are shown respectively.

【0030】図4は前処理手段の一例を表したものであ
る。31は1走査線遅延手段、32は1画素遅延手段、
33、34は差分手段、35、36は絶対値手段、37
は特定閾値、38、39は比較手段、40はOR演算子
である。ここで、差分手段33でカメラに対し水平方向
の変化分を求め、絶対値手段35でそれの絶対値を求
め、比較手段38で二値化して、カメラに対し水平方向
の輪郭線を得る。一方、差分手段34で同様にカメラの
垂直方向変化分を求め、絶対値手段36でそれの絶対値
を求め、比較手段39で二値化を行いカメラに対して垂
直方向の輪郭線を求める。さらにOR演算子40で水平
方向輪郭線と垂直方向輪郭線の論理和を求め、輪郭線を
検出している。
FIG. 4 shows an example of the preprocessing means. 31 is one scanning line delay means, 32 is one pixel delay means,
33 and 34 are difference means, 35 and 36 are absolute value means, 37
Is a specific threshold value, 38 and 39 are comparing means, and 40 is an OR operator. Here, the difference means 33 finds the change in the horizontal direction with respect to the camera, the absolute value means 35 finds the absolute value, and the comparison means 38 binarizes it to obtain the contour line in the horizontal direction with respect to the camera. On the other hand, the difference means 34 similarly obtains the vertical variation of the camera, the absolute value means 36 obtains the absolute value thereof, and the comparison means 39 performs binarization to obtain the contour line in the vertical direction with respect to the camera. Further, the OR operator 40 calculates the logical sum of the horizontal contour line and the vertical contour line to detect the contour line.

【0031】輪郭線検出及び二値化を施した画像は、図
13に示した積分装置を使って時間積分を行う。これは
(式1)における時定数τを大きくすることにより長い
時間積分を求めることができ、時定数τを小さくするこ
とにより短い時間積分を求めることができるものであ
る。従って、例えば、道路の前方近距離に当たる部分は
比較的安定しているため時定数τを大きくとり、道路の
前方遠距離に当たる部分は比較的安定していないので時
定数τを小さくとるというように、場所によって時定数
を使い分ける等の操作を行ってもよい。
The contour-detected and binarized image is time-integrated by using the integrator shown in FIG. In this, a long time integration can be obtained by increasing the time constant τ in (Equation 1), and a short time integration can be obtained by decreasing the time constant τ. Therefore, for example, the part that corresponds to the short distance ahead of the road is relatively stable, so the time constant τ is set large, and the part that corresponds to the long distance ahead of the road is relatively stable, so the time constant τ is set small. The time constant may be properly used depending on the location.

【0032】時間積分手段29による出力信号は領域分
割手段30に入力される。これは、図5のように比較手
段42を用いて行われ、比較手段42により特定閾値4
1より信号が大きい場合は領域I(27)、特定閾値4
1より小さければ領域O(26)に画面を2つの領域に
分割するものである。
The output signal from the time integrating means 29 is input to the area dividing means 30. This is performed by using the comparing means 42 as shown in FIG.
When the signal is larger than 1, the region I (27), the specific threshold 4
If it is smaller than 1, the screen is divided into two areas in the area O (26).

【0033】ここで、特定閾値41は例えば、時間積分
された信号の全画面分もしくは一走査線分の平均をもと
に特定の値を加えたものを用いる。例えば、道路の手前
部分(近距離部分)と奥部分(遠距離部分)の時定数τ
の値を変えた場合などは、閾値は走査線ごとの平均を基
に決めるものとする。
Here, as the specific threshold 41, for example, a value obtained by adding a specific value on the basis of the average of the entire screen or one scanning line of the signal integrated in time is used. For example, the time constant τ of the front part (short distance part) and the back part (long distance part) of the road
When the value of is changed, the threshold value is determined based on the average for each scanning line.

【0034】前段により分けられた領域のうち領域I
は、画面上での動きが少ない輪郭線の存在する領域であ
り、領域Oは画面上で動きの大きい輪郭線もしくは、輪
郭線そのものが無い領域である。
Area I of the areas divided by the preceding stage
Is an area where there is a contour line with little movement on the screen, and area O is an area where there is no movement of the contour line on the screen or the contour line itself.

【0035】例えば白線や車両等のように、画面上で時
間的にある程度同じ位置に存在するものは領域付近は領
域Iとなり、それ以外の領域、例えば道路に描かれた文
字、横断歩道等のように、車両が動いている場合に、画
面の同じ場所に時間的に存在していないものの付近は、
領域Oとなる。
For example, a white line, a vehicle, or the like that exists at the same position on the screen to some extent temporally becomes an area I near the area, and other areas, such as characters drawn on a road and a pedestrian crossing. Thus, when the vehicle is moving, the vicinity of what is not temporally present at the same place on the screen is
It becomes the area O.

【0036】このようにして、白線認識もしくは車両認
識等の検出処理を該領域Iに限定することにより、全体
的に処理速度を上げることができ、さらに装置のを安定
性を上げることができる。次に、この領域を用いて白線
認識手段3による白線認識を行う。この白線認識は、領
域I内における白線をその輪郭から求めるものである。
In this way, by limiting the detection processing such as white line recognition or vehicle recognition to the region I, the processing speed can be increased as a whole and the stability of the apparatus can be improved. Next, the white line recognition means 3 performs white line recognition using this area. In this white line recognition, the white line in the area I is obtained from its contour.

【0037】図6は白線認識のフローチャートである。
白線認識処理は走査線ごとに行い、さらに画面中心(特
定基準点)から左右2つに分けて2回、それぞれ別々に
処理される。まず、例えば基準点より右側について、図
6のフローチャートを実行する。まず、領域Iが存在す
るか調べ(ステップS1)、領域Iが存在しない場合
は、前回の白線認識値を候補点の1つとする(ステップ
S2)。領域Iが存在する場合は、領域Iのうち中心に
近い方から順番に走査を行い(ステップS3)、輪郭線
の存在を判断する(ステップS4)。輪郭線が存在する
と判断された場合は、内側から最大2つまでを白線認識
値の候補点とし(ステップS5)、ステップS7に進
む。ステップS7については後述する。ステップS2の
処理後、あるいはステップS5において領域Iに白線が
存在しない場合は、前回白線位置(積分値の極大値)を
白線認識の候補点とし(ステップS6)、ステップS7
に進む。ステップS7の処理後は、基準点の左側につい
て、同様の処理がなされる。
FIG. 6 is a flowchart of white line recognition.
The white line recognition processing is performed for each scanning line, and further divided into two left and right from the center of the screen (specific reference point) and separately processed twice. First, for example, for the right side of the reference point, the flowchart of FIG. 6 is executed. First, it is checked whether or not the area I exists (step S1). If the area I does not exist, the previous white line recognition value is set as one of the candidate points (step S2). If the region I exists, scanning is performed in order from the region I closest to the center (step S3), and the presence of the contour line is determined (step S4). If it is determined that there is a contour line, up to two from the inside are set as candidate points for the white line recognition value (step S5), and the process proceeds to step S7. Step S7 will be described later. After the processing of step S2, or if there is no white line in the region I in step S5, the previous white line position (maximum value of the integrated value) is set as a candidate point for white line recognition (step S6), and step S7 is performed.
Proceed to. After the processing of step S7, the same processing is performed on the left side of the reference point.

【0038】次に、ステップS7の処理について説明す
る。ステップS7では、例えばまず右側における処理結
果について、ステップS5により輪郭線候補点があった
場合は、図に示されるように、領域(1)と(3)が指
定(付勢)される。一方、ステップS2、ステップS6
により前回白線位置が候補点とされた場合は、領域
(2)と(4)が指定される。次に、左側における処理
結果について、ステップS5により輪郭線候補点があっ
た場合は、領域(1)と(2)が指定され、一方、ステ
ップS2、ステップS6により前回白線位置が候補点と
された場合は、領域(3)と(4)が指定される。
Next, the process of step S7 will be described. In step S7, for example, with respect to the processing result on the right side, if there are contour line candidate points in step S5, regions (1) and (3) are designated (biased) as shown in the figure. On the other hand, steps S2 and S6
When the white line position is selected as the candidate point last time, the areas (2) and (4) are designated. Next, regarding the processing result on the left side, if there are contour line candidate points in step S5, areas (1) and (2) are designated, while the previous white line positions are set as candidate points in steps S2 and S6. If it does, areas (3) and (4) are designated.

【0039】こうして、ステップS7において、左側、
右側でのそれぞれの指定が終了すると、左右で共に指定
された領域が左右白線候補点として選択され、各領域
(1)〜(4)に応じて、次のように白線が決定され
る。
Thus, in step S7, the left side,
When the respective designations on the right side are completed, the regions designated together on the left and right are selected as left and right white line candidate points, and white lines are determined as follows according to the regions (1) to (4).

【0040】領域(1)は、左右両方とも領域Iが存在
し、さらにその領域I内に輪郭線が存在する場合であ
る。この場合は、候補点のうち、左右の候補点の距離が
最も車線幅に近いものを白線認識点と決定する。
The area (1) is a case where the area I exists on both the left and right sides and the contour line exists in the area I. In this case, of the candidate points, the one with the distance between the left and right candidate points closest to the lane width is determined as the white line recognition point.

【0041】領域(2)は、左側に領域Iが存在し、さ
らに領域I内に輪郭線が存在し、右側には領域Iが存在
しないか、または存在しても領域I内に輪郭線が存在し
ない場合である。この場合は、左側候補点は前回右側候
補点との距離が最も車線幅に近いものを選択し、右側候
補点は該選択された左側認識点から距離が車線幅になる
ように決定する。
In the area (2), the area I exists on the left side, and the contour line exists in the area I, and the area I does not exist on the right side, or even if it exists, the outline line exists in the area I. This is the case when it does not exist. In this case, the left candidate point is selected so that the distance from the previous right candidate point is closest to the lane width, and the right candidate point is determined so that the distance from the selected left recognition point is the lane width.

【0042】右側認識点=左側認識点+車線幅(右側の
座標が左側の座標より大きい場合)
Right recognition point = left recognition point + lane width (when the right coordinate is larger than the left coordinate)

【0043】領域(3)は、右側に領域Iが存在し、さ
らに領域I内に輪郭線が存在し、左側には領域Iが存在
しないか、または存在しても領域I内に輪郭線が存在し
ない場合である。この場合は、右側候補点は前回左側候
補点との距離が最も車線幅に近いものを選択し、左側候
補点は選択された右側認識点から距離が車線幅になるよ
うに決定する。
In the area (3), the area I exists on the right side, and the contour line exists in the area I, and the area I does not exist on the left side, or even if it exists, the outline line exists in the area I. This is the case when it does not exist. In this case, the right candidate point is selected so that the distance from the previous left candidate point is closest to the lane width, and the left candidate point is determined so that the distance from the selected right recognition point is the lane width.

【0044】左側認識点=右側認識点−車線幅(右側の
座標が左側の座標より大きい場合)
Left recognition point = right recognition point-lane width (when the right coordinate is larger than the left coordinate)

【0045】領域(4)は、左右両方とも領域Iが存在
しないかもしくは、存在しても領域I内に輪郭線が存在
しない場合である。この場合は、左右それぞれの候補点
のうち左右の距離が最も車線幅に近いものを決定する。
ここで、車線幅は学習した車線幅を用いるものとする。
(車線幅学習は後述)。
The area (4) is the case where the area I does not exist on both the left and right, or the contour line does not exist in the area I even if it exists. In this case, of the left and right candidate points, the one having the closest left and right distance to the lane width is determined.
Here, the learned lane width is used as the lane width.
(Lane width learning will be described later).

【0046】次に安定化処理手段45による認識点に対
する安定化処理を行う。安定化処理は認識点に対し積分
手段、変化量限定手段を用いて行われる。ここで、積分
手段は従来装置の積分手段(図13)と同じ方式で求め
る。変化量限定手段は、ある値a(n)の前回の値をa
(n−1)とし、最大変化量をδ(>0)とすると、
Next, the stabilization processing means 45 performs stabilization processing on the recognition points. The stabilizing process is performed on the recognition point by using an integrating means and a variation limiting means. Here, the integrating means is obtained by the same method as the integrating means (FIG. 13) of the conventional device. The change amount limiting means sets the previous value of a certain value a (n) to a
(N-1) and the maximum change amount is δ (> 0),

【0047】a(n)−a(n−1)>δの時 a(n)=a(n−1)+δWhen a (n) -a (n-1)> δ: a (n) = a (n-1) + δ

【0048】−δ<a(n)−a(n−1)<δの時 a(n)はそのまま。When -δ <a (n) -a (n-1) <δ: a (n) remains unchanged.

【0049】−δ<a(n)−a(n−1)の時 a(n)=a(n−1)−δWhen -δ <a (n) -a (n-1) a (n) = a (n-1) -δ

【0050】の処理を行うものである。The processing of is performed.

【0051】図7に積分処理と変化量限定処理のグラフ
を示す。図において、(a)が入力データ、(b)が入
力データに対し積分処理を行った時の一例、(c)が入
力データに対し変化量限定処理を行った時の一例であ
る。時間積分処理は微少のノイズを安定させる働きがあ
るのに対し、大きな変化量のノイズには効果が少ない。
一方、変化量限定処理は大きな変化量のノイズを安定さ
せる働きがあるのに対し、小さなノイズには効果が少な
い。
FIG. 7 shows a graph of the integration process and the change amount limiting process. In the figure, (a) shows an example when the integration processing is performed on the input data, (b) is an example when the variation limiting processing is performed on the input data. The time integration process has a function of stabilizing a small amount of noise, but has little effect on a large amount of noise.
On the other hand, the change amount limiting process has a function of stabilizing a large change amount of noise, but has a small effect on a small noise.

【0052】以下に車線幅学習手段46について説明す
る。車線幅学習は安定化処理後に行われ、下記の4つの
条件(a)〜(d)を全て満たしたときのみ、左右白線
認識点距離を基に学習する。ここで、学習とは車線幅を
認識し、かつ記憶することをいう。
The lane width learning means 46 will be described below. Lane width learning is performed after the stabilization process, and learning is performed based on the left and right white line recognition point distances only when all of the following four conditions (a) to (d) are satisfied. Here, learning means recognizing and storing the lane width.

【0053】(a)上記領域(1)の場合。 (b)左右認識点距離が標準車線幅(画面上)±10%
以内。 (c)左右認識点距離が前回車線幅±10%以内。 (d)左右認識点距離が画面におけるより下側の走査線
で検出された車線幅(実際の位置関係は手前)以下。
(A) In the case of the above area (1). (B) Left and right recognition point distance is ± 10% of standard lane width (on screen)
Within. (C) The distance between left and right recognition points is within ± 10% of the previous lane width. (D) The distance between the left and right recognition points is less than or equal to the lane width detected by the scanning line on the lower side of the screen (the actual positional relationship is in front).

【0054】これにより上記の条件に合うもののみが車
線幅に反映されるため常に正しい車線幅を得ることがで
きる。学習操作は、左右認識点の時間積分によって行わ
れる。これにより、車線幅を時間的に安定させることが
できる。また、安定化操作として、上述したような変化
量限定を行うこともできる。なお、上述した実施の形態
において、A/D変換手段2、前処理手段28、時間積
分手段29、領域分割手段30、および、白線認識手段
3におけるフローチャートのステップS1〜S6はこの
発明の白線候補点抽出手段を構成し、白線認識手段3に
おけるフローチャートのステップS7はこの発明の白線
決定手段を構成する。
As a result, only the lane width that meets the above conditions is reflected in the lane width, so that the correct lane width can always be obtained. The learning operation is performed by time integration of left and right recognition points. Thereby, the lane width can be stabilized in time. In addition, as the stabilizing operation, it is also possible to limit the amount of change as described above. In the above-described embodiment, steps A1 to S6 in the flowchart in the A / D conversion unit 2, the preprocessing unit 28, the time integration unit 29, the area dividing unit 30, and the white line recognition unit 3 are white line candidates of the present invention. Step S7 of the flow chart of the white line recognition means 3 constitutes the point extraction means, and constitutes the white line determination means of the present invention.

【0055】実施の形態2.上述した実施の形態により
得られた車線幅から、走行道路の種別を判別することが
できる一例をこの発明の他の実施の形態2として以下に
示す。例えば、次の条件により、画像上の道路が一般道
路か高速道路かを判別する。
Embodiment 2 An example in which the type of traveling road can be determined from the lane width obtained by the above-described embodiment is shown below as another embodiment 2 of the present invention. For example, it is determined whether the road on the image is a general road or a highway based on the following conditions.

【0056】車線幅>3.8mの場合高速道路 車線幅≦3.8mの場合一般道路When lane width> 3.8 m Expressway When lane width ≤ 3.8 m General road

【0057】この場合、時系列に安定させるために積分
処理、変化量限定処理を行ってもよい。このようにし
て、得られた情報は、例えばナビゲーション等に入力す
ることにより画像から自車両位置を確認することができ
る。
In this case, an integration process and a variation limiting process may be performed in order to stabilize the time series. In this way, the obtained information can be used to confirm the position of the own vehicle from the image by inputting it to the navigation or the like.

【0058】実施の形態3.次に、上述の実施の形態に
より得られた車線幅から、車体の状態を判別するときの
一例を実施の形態3として以下に示す。図8は道路を走
行する車体を上方から見たときの図であり、図中、53
は白線、54は車体56と白線53とのなす角、55は
画面での1走査線を地面に投影したときの線である。
Embodiment 3 FIG. Next, an example of determining the state of the vehicle body from the lane width obtained by the above-described embodiment will be described below as a third embodiment. FIG. 8 is a view of the vehicle body traveling on the road as seen from above, and in FIG.
Is a white line, 54 is an angle formed by the vehicle body 56 and the white line 53, and 55 is a line when one scanning line on the screen is projected on the ground.

【0059】図8のように、車体56と白線53とのな
す角がθの時、認識される車線幅は実際の車線幅のcose
cθ倍になる。学習した車線幅をWgakushu、認識した車
線幅をWninshikiとおくと、車両は通常は白線と平行し
て走るため、Wgakushuは実際の車線幅の値を示す。こ
こで、今、突然車両が図8のように白線となす角θにな
ったとき、Wninshikiは、Wgakushu の cosecθ倍にな
ると考えられるので、
As shown in FIG. 8, when the angle between the vehicle body 56 and the white line 53 is θ, the recognized lane width is cose of the actual lane width.
cθ times. If the learned lane width is Wgakushu and the recognized lane width is Wninshiki, the vehicle normally runs parallel to the white line, and Wgakushu indicates the actual lane width value. Now, when the vehicle suddenly reaches an angle θ with the white line as shown in FIG. 8, Wninshiki is considered to be cosec θ times Wgakushu.

【0060】cos-1(Wgakushu/Wninshiki)Cos -1 (Wgakushu / Wninshiki)

【0061】を求めることにより、車体と白線とのなす
角を求めることができる。また、車線幅認識点を増やす
ことにより、安定性を上げることもできる。
The angle between the vehicle body and the white line can be obtained by obtaining In addition, stability can be improved by increasing the number of lane width recognition points.

【0062】実施の形態4.次に、車線幅から道路の曲
がり具合を判別するときの一例を実施の形態4として示
す。図9は車体を上方から見たときの図であり、56は
自車両である車体、57は道路の白線、58は道路の曲
率円の中心、59は道路上の点A、60は道路上の点
B、61はA点59と自車両56とのなす角α、62は
B点60と自車両56とのなす角β、63は曲率半径
L、64はA点59とB点60の自車両方向の距離差L
1である。
Embodiment 4 Next, an example in which the degree of bend of a road is determined from the lane width will be shown as a fourth embodiment. FIG. 9 is a view when the vehicle body is viewed from above. 56 is the vehicle body which is the own vehicle, 57 is the white line of the road, 58 is the center of the curvature circle of the road, 59 is the point A on the road, and 60 is on the road. Points B and 61 are an angle α formed between the A point 59 and the host vehicle 56, 62 is an angle β formed between the B point 60 and the host vehicle 56, 63 is a radius of curvature L, and 64 is between the A point 59 and the B point 60. Distance difference L in the direction of own vehicle
It is one.

【0063】ここで、上述の実施の形態3でθを求めた
のと同様にして、A点、B点での車線幅から、A点、B
点の自車両と白線とのなす角α,βを求めることができ
る。また、カメラの取り付け位置関係から、自車両との
自車両方向距離差L1が分かる。従って、道路の曲率半
径をLとすると、
Here, similarly to the case where θ is obtained in the above-described third embodiment, from the lane widths at the points A and B, the points A and B are obtained.
The angles α and β formed by the vehicle at the point and the white line can be obtained. Further, the distance difference L1 between the host vehicle and the host vehicle in the vehicle direction is known from the positional relationship of the cameras. Therefore, if the radius of curvature of the road is L,

【0064】Lsinβ−Lsinα=L1Lsinβ-Lsinα = L1

【0065】の関係が成り立つので、Since the relationship of

【0066】L=L1/(sinβ−sinα)L = L1 / (sin β-sin α)

【0067】となり曲率半径が求められる。Then, the radius of curvature is obtained.

【0068】この発明の請求項1に係る車載用画像処理
装置は、車両周辺を撮影する撮影手段と、撮影手段によ
り出力される画像信号を入力する入力手段と、上記画像
信号に基づいて白線候補点を抽出する白線候補点抽出手
段と、抽出された白線候補点から車線幅情報に基づいて
白線を決定する決定手段とを備えたため、時系列的に安
定しているノイズの影響を受けず信頼性の高い白線認識
を行うことができるという効果を奏する。
An on-vehicle image processing apparatus according to claim 1 of the present invention is a photographing means for photographing the periphery of a vehicle, an input means for inputting an image signal output by the photographing means, and a white line candidate based on the image signal. Since the white line candidate point extracting means for extracting points and the determining means for determining the white line from the extracted white line candidate points based on the lane width information are provided, the time series is stable and reliable without being affected by noise. This has the effect of enabling highly recognizable white line recognition.

【0069】この発明の請求項2に係る車載用画像処理
装置は、請求項1の車載用画像処理装置において、さら
に、抽出された白線候補点に基づいて車線幅を学習する
車線幅学習手段を備えたため、請求項1の効果をより高
めることができ、信頼性の高い白線認識を行うことがで
きるという効果を奏する。
A vehicle-mounted image processing apparatus according to a second aspect of the present invention is the vehicle-mounted image processing apparatus according to the first aspect, further comprising lane width learning means for learning the lane width based on the extracted white line candidate points. Since it is provided, the effect of claim 1 can be further enhanced, and the white line can be recognized with high reliability.

【0070】この発明の請求項3に係る車載用画像処理
装置は、請求項2の車載用画像処理装置において、さら
に、所定の条件で上記車線幅を学習させる車線幅学習条
件設定手段を備えたため、請求項2の効果をより高める
ことができ、信頼性の高い白線認識を行うことができる
という効果を奏する。
The vehicle-mounted image processing apparatus according to claim 3 of the present invention is the vehicle-mounted image processing apparatus according to claim 2, further comprising lane width learning condition setting means for learning the lane width under a predetermined condition. The effect of claim 2 can be further enhanced, and the white line can be recognized with high reliability.

【0071】この発明の請求項4に係る車載用画像処理
装置は、請求項2または請求項3の車載用画像処理装置
において、さらに、車線幅の学習に車線幅の変化量を限
定させる限定手段を備えたため、請求項2または請求項
3の効果をより高めることができ、信頼性の高い白線認
識を行うことができるという効果を奏する。
A vehicle-mounted image processing device according to a fourth aspect of the present invention is the vehicle-mounted image processing device according to the second or third aspect, further comprising limiting means for limiting the amount of change in the lane width for learning the lane width. Since it is provided, the effect of claim 2 or claim 3 can be further enhanced, and the white line recognition with high reliability can be performed.

【0072】この発明の請求項5に係る車載用画像処理
装置は、請求項1乃至請求項4のいずれかの車載用画像
処理装置において、さらに、抽出された白線候補点に関
するデータに時間積分処理を行う時間積分手段を備えた
ため、これらの信頼性をより高めることができるという
効果を奏する。
An on-vehicle image processing device according to a fifth aspect of the present invention is the vehicle-mounted image processing device according to any one of the first to fourth aspects, further comprising time integration processing on the extracted data regarding the white line candidate points. Since the time integration means for performing the above is provided, there is an effect that these reliability can be further enhanced.

【0073】この発明の請求項6に係る車載用画像処理
装置は、請求項1乃至請求項5のいずれかの車載用画像
処理装置において、さらに、抽出された白線候補点によ
る白線位置の変化量を限定する変化量限定手段を備えた
ため、これらの信頼性をより高めることができるという
効果を奏する。
An on-vehicle image processing device according to claim 6 of the present invention is the on-vehicle image processing device according to any one of claims 1 to 5, further comprising a change amount of the white line position due to the extracted white line candidate point. Since the change amount limiting means for limiting the above is provided, there is an effect that the reliability of these can be further enhanced.

【0074】この発明の請求項7に係る車載用画像処理
装置は、請求項1乃至請求項6のいずれかの車載用画像
処理装置において、さらに、得られた車線幅を用いて、
道路種別を判別する道路種別判別手段を備えたため、信
頼性の高い道路種別判別を行うことができるという効果
を奏する。
An on-vehicle image processing device according to claim 7 of the present invention is the vehicle-mounted image processing device according to any one of claims 1 to 6, further using the obtained lane width,
Since the road type discriminating means for discriminating the road type is provided, it is possible to perform the highly reliable road type discrimination.

【0075】この発明の請求項8に係る車載用画像処理
装置は、請求項1乃至請求項7のいずれかの車載用画像
処理装置において、さらに、得られた車線幅を用いて、
車体状態を判別する車体状態判別手段を備えたため、信
頼性の高い車体状態判別を行うことができるという効果
を奏する。
An on-vehicle image processing device according to claim 8 of the present invention is the vehicle-mounted image processing device according to any one of claims 1 to 7, further using the obtained lane width,
Since the vehicle body state determination means for determining the vehicle body state is provided, it is possible to perform the vehicle body state determination with high reliability.

【0076】この発明の請求項9に係る車載用画像処理
装置は、請求項1乃至請求項8のいずれかの車載用画像
処理装置において、さらに、得られた車線幅を用いて、
道路の曲がりを検出する道路曲率検出手段を備えたた
め、道路曲がりの検出の信頼性を高めることができると
いう効果を奏する。
An on-vehicle image processing apparatus according to claim 9 of the present invention is the vehicle-mounted image processing apparatus according to any one of claims 1 to 8, further using the obtained lane width,
Since the road curvature detecting means for detecting the curve of the road is provided, the reliability of the detection of the curve of the road can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の実施の形態1における本発明のブ
ロック図である。
FIG. 1 is a block diagram of the present invention in a first embodiment of the present invention.

【図2】 この発明の実施の形態1における車両前方を
撮影した画像に輪郭線検出等の前処理を施した時の一例
を示す図である。
FIG. 2 is a diagram showing an example when an image of the front of the vehicle is subjected to preprocessing such as contour line detection in the first embodiment of the present invention.

【図3】 この発明の実施の形態1において、図2の画
像を時間積分処理を施し領域分割したときの一例を示す
図である。
FIG. 3 is a diagram showing an example when the image of FIG. 2 is subjected to time integration processing and divided into regions in the first embodiment of the present invention.

【図4】 この発明の実施の形態1における輪郭線検出
等の前処理の一例を示す図である。
FIG. 4 is a diagram showing an example of preprocessing such as contour line detection in the first embodiment of the present invention.

【図5】 この発明の実施の形態1における領域分割の
ブロック図である。
FIG. 5 is a block diagram of area division according to the first embodiment of the present invention.

【図6】 この発明の実施の形態1における白線認識処
理の流れを示したフローチャートである。
FIG. 6 is a flowchart showing a flow of white line recognition processing according to the first embodiment of the present invention.

【図7】 時間積分処理、変化量限定処理を行った時の
グラフである。
FIG. 7 is a graph when time integration processing and change amount limiting processing are performed.

【図8】 この発明の実施の形態3における説明図であ
る。
FIG. 8 is an explanatory diagram according to the third embodiment of the present invention.

【図9】 この発明の実施の形態4における説明図であ
る。
FIG. 9 is an explanatory diagram according to the fourth embodiment of the present invention.

【図10】 従来技術のブロック図である。FIG. 10 is a block diagram of a conventional technique.

【図11】 従来技術における車両前方を撮像した画像
の一例を示す図である。
FIG. 11 is a diagram showing an example of an image obtained by capturing an image of the front of the vehicle in the related art.

【図12】 従来技術における認識処理の流れを示した
図である。
FIG. 12 is a diagram showing a flow of recognition processing in a conventional technique.

【図13】 時間積分処理の構成を示すブロック図であ
る。
FIG. 13 is a block diagram showing a configuration of time integration processing.

【符号の説明】[Explanation of symbols]

1 画像撮影手段(CCDカメラ)、2 A/D変換手
段、3 白線認識手段、4 白線、5 道路、6 道路
上の文字、7 背景、23 一画面遅延手段、24 内
分手段、25 時定数τ、26 領域O、27 領域
I、28 前処理手段、29 時間積分手段、30 領
域分割手段、31 一走査線遅延手段、32 一画素遅
延手段、33、34 差分手段、35、36 絶対値手
段、37特定閾値、38、39 比較手段、40 OR
演算子、41 特定閾値、42比較手段、53 白線、
54 車両方向と白線とのなす角、55 画面での1走
査線を地面に投射した線、56 自車両、57 白線、
58 道路の曲率円の中心、59 道路上の点A、60
道路上の点B、61 A点と自車両とのなす角α、6
2 B点と自車両とのなす角β、63 曲率半径L、6
4 A点とB点との自車両方向距離。
1 image capturing means (CCD camera), 2 A / D conversion means, 3 white line recognition means, 4 white lines, 5 roads, 6 road characters, 7 background, 23 one screen delay means, 24 internal division means, 25 time constant τ, 26 area O, 27 area I, 28 preprocessing means, 29 time integration means, 30 area dividing means, 31 one scanning line delay means, 32 one pixel delay means, 33, 34 difference means, 35, 36 absolute value means , 37 specific threshold value, 38, 39 comparison means, 40 OR
Operator, 41 specific threshold, 42 comparison means, 53 white line,
54 an angle between the vehicle direction and the white line, 55 a line obtained by projecting one scanning line on the screen on the ground, 56 own vehicle, 57 white line,
58 Center of curvature circle of road, 59 Point A on road 60
Angle B between the point B and 61 A on the road and the vehicle α, 6
2 An angle β between the point B and the vehicle, 63, a radius of curvature L, 6
4 Distance in the host vehicle direction between points A and B.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 9061−5H G06F 15/70 330G ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 7/00 9061-5H G06F 15/70 330G

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 車両周辺を撮影する撮影手段と、上記撮
影手段により出力される画像信号を入力する入力手段
と、上記画像信号に基づいて白線候補点を抽出する白線
候補点抽出手段と、抽出された白線候補点から車線幅情
報に基づいて白線を決定する決定手段とを備えた車載用
画像処理装置。
1. A photographing means for photographing the periphery of a vehicle, an input means for inputting an image signal output by the photographing means, a white line candidate point extracting means for extracting a white line candidate point based on the image signal, and an extraction. An image processing apparatus for a vehicle, comprising: a deciding unit that decides a white line based on the lane width information from the selected white line candidate points.
【請求項2】 請求項1の車載用画像処理装置におい
て、さらに、抽出された白線候補点に基づいて車線幅を
学習する車線幅学習手段を備えた車載用画像処理装置。
2. The in-vehicle image processing device according to claim 1, further comprising lane width learning means for learning the lane width based on the extracted white line candidate points.
【請求項3】 請求項2の車載用画像処理装置におい
て、さらに、所定の条件で上記車線幅を学習させる車線
幅学習条件設定手段を備えた車載用画像処理装置。
3. The vehicle-mounted image processing apparatus according to claim 2, further comprising lane width learning condition setting means for learning the lane width under a predetermined condition.
【請求項4】 請求項2または請求項3の車載用画像処
理装置において、さらに、車線幅の学習に車線幅の変化
量を限定させる限定手段を備えた車載用画像処理装置。
4. The in-vehicle image processing device according to claim 2, further comprising a limiting means for limiting a variation amount of the lane width in learning the lane width.
【請求項5】 請求項1乃至請求項4のいずれかの車載
用画像処理装置において、さらに、抽出された白線候補
点に関するデータに時間積分処理を行う時間積分手段を
備えた車載用画像処理装置。
5. The vehicle-mounted image processing apparatus according to claim 1, further comprising a time integration unit that performs time integration processing on the extracted white line candidate point data. .
【請求項6】 請求項1乃至請求項5のいずれかの車載
用画像処理装置において、抽出された白線候補点による
白線位置の変化量を限定する変化量限定手段を備えた車
載用画像処理装置。
6. The in-vehicle image processing device according to claim 1, further comprising a change amount limiting unit that limits an amount of change in the white line position due to the extracted white line candidate points. .
【請求項7】 請求項1乃至請求項6のいずれかの車載
用画像処理装置において、さらに、得られた車線幅を用
いて、道路種別を判別する道路種別判別手段を備えた車
載用画像処理装置。
7. The in-vehicle image processing apparatus according to claim 1, further comprising a road type determining unit that determines a road type by using the obtained lane width. apparatus.
【請求項8】 請求項1乃至請求項7のいずれかの車載
用画像処理装置において、さらに、得られた車線幅を用
いて、車体状態を判別する車体状態判別手段を備えた車
載用画像処理装置。
8. The in-vehicle image processing apparatus according to claim 1, further comprising a vehicle body state determination means for determining a vehicle body state using the obtained lane width. apparatus.
【請求項9】 請求項1乃至請求項8のいずれかの車載
用画像処理装置において、さらに、得られた車線幅を用
いて、道路の曲がりを検出する道路曲率検出手段を備え
た車載用画像処理装置。
9. The vehicle-mounted image processing apparatus according to claim 1, further comprising a road curvature detection unit that detects a bend in the road using the obtained lane width. Processing equipment.
JP7187408A 1995-07-24 1995-07-24 Image processor carried on vehicle Pending JPH0933216A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7187408A JPH0933216A (en) 1995-07-24 1995-07-24 Image processor carried on vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7187408A JPH0933216A (en) 1995-07-24 1995-07-24 Image processor carried on vehicle

Publications (1)

Publication Number Publication Date
JPH0933216A true JPH0933216A (en) 1997-02-07

Family

ID=16205518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7187408A Pending JPH0933216A (en) 1995-07-24 1995-07-24 Image processor carried on vehicle

Country Status (1)

Country Link
JP (1) JPH0933216A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003080970A (en) * 2001-09-17 2003-03-19 Mitsubishi Motors Corp Vehicle speed control device
JP2007018248A (en) * 2005-07-07 2007-01-25 Sony Corp Image processor, image processing method, and program
JP2011258131A (en) * 2010-06-11 2011-12-22 Fuji Heavy Ind Ltd White line recognition apparatus for vehicle
JP2022069527A (en) * 2018-04-18 2022-05-11 モービルアイ ヴィジョン テクノロジーズ リミテッド Vehicle environment modeling using camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003080970A (en) * 2001-09-17 2003-03-19 Mitsubishi Motors Corp Vehicle speed control device
JP4513247B2 (en) * 2001-09-17 2010-07-28 三菱自動車工業株式会社 Vehicle speed control device
JP2007018248A (en) * 2005-07-07 2007-01-25 Sony Corp Image processor, image processing method, and program
JP2011258131A (en) * 2010-06-11 2011-12-22 Fuji Heavy Ind Ltd White line recognition apparatus for vehicle
JP2022069527A (en) * 2018-04-18 2022-05-11 モービルアイ ヴィジョン テクノロジーズ リミテッド Vehicle environment modeling using camera
US11816991B2 (en) 2018-04-18 2023-11-14 Mobileye Vision Technologies Ltd. Vehicle environment modeling with a camera

Similar Documents

Publication Publication Date Title
EP0827127B1 (en) Local positioning apparatus, and method therefor
US7362883B2 (en) Lane marker recognition method
JP3169483B2 (en) Road environment recognition device
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2007179386A (en) Method and apparatus for recognizing white line
JP2000357233A (en) Body recognition device
JP2002228423A (en) Tire detecting method and device
JPH1173514A (en) Recognition device for vehicle
JPH11195127A (en) Method for recognizing white line and device therefor
JP5316337B2 (en) Image recognition system, method, and program
JP4631197B2 (en) Branch determination device, program, and recording medium
EP3522073A1 (en) Method and apparatus for detecting road surface marking
JPH0935198A (en) Traveling road detector for vehicle
JPH05314396A (en) Continuous line tracking device
JPH0973545A (en) White line recognition device
JPH11213284A (en) Vehicle kind discrimination device
JP3319401B2 (en) Roadway recognition device
JPH10320559A (en) Traveling path detector for vehicle
JPH07244717A (en) Travel environment recognition device for vehicle
JPH0933216A (en) Image processor carried on vehicle
JP2893814B2 (en) Plate cutout device for automatic car number reader
JPH0725286A (en) Preceding vehicle recognizing method
JP3331095B2 (en) In-vehicle image processing device
JP3287166B2 (en) Distance measuring device
JP2883131B2 (en) Driving lane identification method