JPH03158976A - Traffic lane discriminating method - Google Patents

Traffic lane discriminating method

Info

Publication number
JPH03158976A
JPH03158976A JP29883789A JP29883789A JPH03158976A JP H03158976 A JPH03158976 A JP H03158976A JP 29883789 A JP29883789 A JP 29883789A JP 29883789 A JP29883789 A JP 29883789A JP H03158976 A JPH03158976 A JP H03158976A
Authority
JP
Japan
Prior art keywords
straight line
lane
line
determining
straight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP29883789A
Other languages
Japanese (ja)
Other versions
JP2883131B2 (en
Inventor
Shigeto Nakayama
仲山 茂人
Tomohiko Masutani
知彦 桝谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP29883789A priority Critical patent/JP2883131B2/en
Publication of JPH03158976A publication Critical patent/JPH03158976A/en
Application granted granted Critical
Publication of JP2883131B2 publication Critical patent/JP2883131B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To discriminate the traffic lane of a traveling road by extracting a straight line corresponding to a traffic lane sectioning strip plotted on the traveling road from among a straight line group approximate to the align of feature points, and identifying a short dashed line from the length of an interrupted part, and judging the positional relation of each traffic lane sectioning strip on the basis of the short dashed line. CONSTITUTION:An original picture in a figure (a) is differentiated and converted into an edge picture, and this edge picture is Huff-transformed, and the straight line group approximate to the align of the feature point is obtained. The straight line corresponding to the traffic lane sectioning strip is selected from among this straight line group on the basis of the road width of the traveling road. As the result, these straight lines shown in the figure (b) are obtained. Then, the straight line 6 corresponds to the short dashed line 2, and the straight line 7 to the traffic lane sectioning stripe 3, and the straight line 8 to the traffic lane sectioning stripe 4, and the straight line 6 corresponding to the short dashed line 2 is discriminated from among these straight lines 6 to 8, and the positional relation of every detected straight line 6 to 8 is discriminated. Thus, as shown in the figure (d), the straight line 6 is judged to be a center line, and the straight line 7 is decided to be the traffic lane sectioning stripe 3 to show the end part of a left side traffic lane, and the straight line 8 is decided to be the traffic lane sectioning stripe 4 to show the end part of a right side traffic lane.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は走行路に描かれた車線区分線を画像処理によっ
て認識し、走行路の車線を判別する走行車線判別方法に
関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a driving lane discrimination method for recognizing lane markings drawn on a driving road by image processing and determining the lanes of the driving road.

〔従来の技術〕[Conventional technology]

走行路の車線を認識するためには、車線区分線を判別す
ることが必要である。このためには、TV左カメラどに
よって得られたデータを画像処理し、車線区分線に対応
した線分を抽出することが必要になる。この一方法とし
て、特開昭6224310号公報や特開昭62−709
61号公報に開示されたハフ(Hough)変換を用い
たものがある。これによれば、画像データとして得られ
た画像上の各特徴点に対してハフ変換を行うことにより
、特徴点の分布に対応した直線群を求めることが出来る
In order to recognize the lanes on a driving road, it is necessary to identify lane markings. For this purpose, it is necessary to perform image processing on data obtained by a TV left camera, etc., and extract line segments corresponding to lane markings. As one method for this, Japanese Patent Application Laid-Open No. 6224310 and
There is a method using the Hough transform disclosed in Japanese Patent No. 61. According to this, by performing Hough transform on each feature point on an image obtained as image data, it is possible to obtain a group of straight lines corresponding to the distribution of feature points.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

車線区分線には破線が用いられる場合があり、この破線
を識別することにより破線が持つ道路標識としての記号
的意味を理解することが出来る。
Broken lines are sometimes used as lane markings, and by identifying the broken lines, it is possible to understand the symbolic meaning of the broken lines as road signs.

つまり、車線区分線が破線であれば、その車線区分線は
道路の中央線を意味したり、また、前方を走行する車両
を追い越すために走行中の車線からはみだすことが可能
であることを意味したり、また、走行車線を変更するこ
とが可能であることを意味したりする。しかしながら、
上記従来の走行車線判別方法は、車線区分線の有無を判
断することは出来るが、車線区分線の種類を判別するこ
とは困難であり、カメラに撮像された画像情報は有効に
利用されていなかった。
In other words, if the lane marking is a dashed line, it means that the lane marking is the center line of the road, or that it is possible to veer out of the lane you are driving in order to overtake the vehicle in front of you. It also means that it is possible to change lanes. however,
The conventional driving lane determination method described above can determine the presence or absence of lane markings, but it is difficult to determine the type of lane markings, and the image information captured by the camera is not effectively used. Ta.

一方、車線区分線の破線を判断するために、車線区分線
が連続していなければ破線、または車線区分線の途切れ
が規則的にあれば破線であると法則付けることも考えら
れる。しかし、実際の走行路における実線であるべき車
線区分線はかすれたり途切れたりしており、また、カメ
ラに写される長さも走行状況により変化するため、上記
のような法則付けは絶対的には成立せず、車線区分線の
種類の判別は困難である。
On the other hand, in order to determine whether a lane marking is a broken line, it is conceivable to rule that if the lane marking is not continuous, it is a broken line, or if the lane markings are regularly interrupted, it is a broken line. However, on actual driving roads, lane markings that should be solid lines are blurred or broken, and the length captured by the camera changes depending on the driving conditions, so the above rules cannot be applied in absolute terms. This is not true, and it is difficult to determine the type of lane marking.

〔課題を解決するための手段〕[Means to solve the problem]

本発明はこのような課題を解消するためになされたもの
で、上記の方法により検出された少なくとも2本以上の
直線に着目し、その区分線毎に特徴点列の途切れ部分の
最大長さを求め、これら最大長さのうちさらに一番長い
途切れ部分を有する車線区分線は破線とするステップと
、この破線を基にして各車線区分線の位置関係を判断す
るステップとを備えたものである。
The present invention has been made to solve these problems, and focuses on at least two or more straight lines detected by the above method, and calculates the maximum length of the discontinuous part of the feature point sequence for each dividing line. The method comprises the steps of determining the lane markings having the longest discontinuous portion among these maximum lengths as a broken line, and determining the positional relationship of each lane marking based on the broken lines. .

また、上記の方法により検出された少なくとも2本以上
の直線毎に特徴点列の途切れ部分の長さの和を求め、こ
れら長さの和のうち最大の和を有する車線区分線は破線
と識別するステップと、この破線を基にして各車線区分
線の位置関係を判断するステップとを備えたものである
In addition, the sum of the lengths of the discontinuous parts of the feature point sequence is calculated for each of at least two or more straight lines detected by the above method, and the lane marking line with the largest sum of these lengths is identified as a broken line. and a step of determining the positional relationship of each lane marking based on this broken line.

〔作用〕[Effect]

途切れ部分の長さが最大の車線区分線、または、途切れ
部分の長さの和が最大の車線区分線は破線と識別され、
この破線を基準に各走行車線の意味付けがなされる。
The lane marking with the maximum length of the broken part or the lane marking with the largest sum of the lengths of the broken parts is identified as a broken line,
The meaning of each driving lane is determined based on this broken line.

〔実施例〕〔Example〕

第1図は、本発明を自動車の走行東線判別方法に適用し
た場合における一実施例の基本概念を示す図である。
FIG. 1 is a diagram illustrating the basic concept of an embodiment in which the present invention is applied to a method for determining the east line on which an automobile is traveling.

走行車両に搭載されたカメラにより撮像された情景が、
例えば、第1図(a)のようになっているとする。すな
わち、走行路1は2つの車線に区分されており、各車線
の中央部には破線2が描かれている。また、左側車線の
端部は車線区分線3、右側車線の端部は車線区分線4で
示されており、各区分線は地平線5まで続いているもの
とする。
The scene captured by the camera mounted on the moving vehicle is
For example, suppose that it is as shown in FIG. 1(a). That is, the driving path 1 is divided into two lanes, and a broken line 2 is drawn in the center of each lane. Further, it is assumed that the end of the left lane is indicated by a lane marking 3 and the end of the right lane is indicated by a lane marking 4, and each marking continues to the horizon 5.

このような情景の原画像は微分されてエツジ画像に変換
され、図示しないドツト表示により現わされる。そして
、このエツジ画像についてハフ変換が行われ、特徴点の
並びに近似した直線群が得られる。
The original image of such a scene is differentiated and converted into an edge image, which is represented by a dot display (not shown). Then, a Hough transform is performed on this edge image to obtain an array of feature points and a group of approximate straight lines.

この直線群の中から走行路の道幅に基づいて車線区分線
に対応する直線を選定する。この結果、同図(b)に示
される3本の直線が得られる。直線6は破線2、直線7
は車線区分線3、直線8は車線区分線4に相当しており
、これら直線6〜8の中から破線2に相当する直線6が
後述するように識別される。この際の概念は同図(C)
に示される。そして、各検出直線6〜8の位置関係が後
述するように判別され、同図(d)に示されるように直
線6は中央線、直線7は左側車線の端部を示す車線区分
線3、直線8は右側車線の端部を示す車線区分線4と判
断される。この判断結果は、走行路1を走行する車両の
進行方向の決定に供される。
From this group of straight lines, a straight line corresponding to the lane marking is selected based on the width of the road. As a result, three straight lines shown in FIG. 3(b) are obtained. Straight line 6 is broken line 2, straight line 7
corresponds to the lane marking 3, and the straight line 8 corresponds to the lane marking 4, and among these straight lines 6 to 8, the straight line 6 corresponding to the broken line 2 is identified as described later. The concept in this case is shown in the same diagram (C).
is shown. Then, the positional relationship between the detected straight lines 6 to 8 is determined as will be described later, and as shown in FIG. The straight line 8 is determined to be the lane marking 4 indicating the end of the right lane. This determination result is used to determine the direction of travel of the vehicle traveling on the road 1.

上述した基本概念における主要な演算方法について以下
に詳述する。
The main calculation methods based on the above-mentioned basic concept will be explained in detail below.

第1図(b)に示される各検出直線6〜8の中から、同
図(C)に示されるように直線6が破線2に相当するも
のであるとの識別は次のように行われる。ここで、識別
の対象として第2図に示される検出直線りを想定し、そ
の始点のx+Y座標を(XS、YS)、終点のx、y座
標を(XE 。
Among the detected straight lines 6 to 8 shown in FIG. 1(b), identification of the straight line 6 corresponding to the broken line 2 as shown in FIG. 1(C) is performed as follows. . Here, assuming the detection straight line shown in FIG. 2 as the object of identification, the x+Y coordinates of the starting point are (XS, YS), and the x, y coordinates of the ending point are (XE).

YE)とする。また、この検出直線りは、X軸に対する
傾きが45″以上135°未満とする。
YE). Further, this detection straight line has an inclination of 45'' or more and less than 135° with respect to the X axis.

識別の大要を述べる。まず、検出直線りに沿ってエツジ
画像を図示の矢印のように一定の幅Wドツトだけ走査す
る。そして、走査した各エツジ点の強度を所定のしきい
値と比較し、直線の途切れ部分、つまり、エツジ点列の
途切れ部分を検出することにより、検出直線りの最大の
途切れ部分の長さを求める。この処理を各検出直線につ
いて行い、各検出直線毎に途切れ部分の最大長さを求め
る。さらに途切れ部分の最大長さの中から一番長い途切
れ部分を求め、この一番長い途切れ部分を有する車線区
分線を破線とする。
I will give an overview of identification. First, the edge image is scanned along a detection straight line by a fixed width W dot as shown by the arrow in the figure. Then, by comparing the intensity of each scanned edge point with a predetermined threshold and detecting the discontinuous part of the straight line, that is, the discontinuous part of the edge point sequence, the length of the maximum discontinuous part of the detected straight line is calculated. demand. This process is performed for each detected straight line, and the maximum length of the interrupted portion is determined for each detected straight line. Furthermore, the longest broken part is determined from among the maximum lengths of broken parts, and the lane marking line having this longest broken part is set as a broken line.

第3図はこの識別処理の詳細を示すフローチャートであ
る。
FIG. 3 is a flowchart showing details of this identification process.

まず、直線りに沿ったドツト点列のスタートポイントを
設定する。各ドツトのX、Y座標を(x。
First, set the starting point of the dot series along the straight line. The X and Y coordinates of each dot are (x.

y)とすると、スタートポイントの座標(x、y)はx
−XS −W/2.  y””YSである。また、直線
の途切れ部分の最大長さを記憶するためのメモリMAX
をクリアする(ステップ101)。次に、各座標(x、
y)に位置するエツジ点の強度データを検出直線りに沿
ってエツジ画像から読み取る(ステップ102)。そし
て、読み取った強度データが予め定められたしきい値T
HLより大きいか否かを判断する(ステップ103)。
y), the coordinates (x, y) of the starting point are x
-XS -W/2. y””YS. In addition, the memory MAX is used to store the maximum length of the interrupted part of a straight line.
is cleared (step 101). Next, each coordinate (x,
y) is read from the edge image along the detection straight line (step 102). Then, the read intensity data is set to a predetermined threshold T
It is determined whether it is larger than HL (step 103).

このしきい値THLはハフ変換を行う際に主成分分析法
により求まる値である。
This threshold value THL is a value determined by principal component analysis when performing the Hough transform.

読み取ったエツジ強度がしきい値よりも小さい場合には
、そのエツジ点は直線の途切れ部分に相当するものとし
てカウンタBreakをカウントアツプする(ステップ
104)。このカウンタBreakは強度データが所定
のしきい値以下のエツジ点数を計数するものであり、こ
れにより直線の途切れ部分の長さが測定される。そして
、次に、読み取ったエツジ点のX座標がXn+W/2で
あるか否かを判断する(ステップ105)。ここで、X
nは、検出直線りに沿って幅Wで走査される際の各走査
の始点のX座標であり、第2図の検出直線りに沿った各
矢印の始点のX座標に相当する。このX座標がXn+W
/2であるか否かの判断は、矢印に沿った走査の終点に
達したか否かを判断するものである。
If the read edge strength is smaller than the threshold value, the edge point is assumed to correspond to a discontinuous part of the straight line, and a counter Break is incremented (step 104). This counter Break counts the number of edge points where the intensity data is less than a predetermined threshold value, and thereby measures the length of the broken part of the straight line. Then, it is determined whether the X coordinate of the read edge point is Xn+W/2 (step 105). Here, X
n is the X coordinate of the starting point of each scan when scanning with width W along the detection straight line, and corresponds to the X coordinate of the starting point of each arrow along the detection straight line in FIG. This X coordinate is Xn+W
/2 is determined by determining whether the end point of the scan along the arrow has been reached.

矢印の終点に達していない場合には走査するエツジ点の
X座標値に1を加算し、矢印に沿った走査を進める(ス
テップ106)。また、矢印の終 0 点に達した場合には、走査するエツジ点のy座標から1
を減算し、次の矢印に沿った走査に備える(ステップ1
07)。次に、この減算結果のX座標値が検出直線りの
終点に相当するy座標値YEより小さいか否かを判断し
、検出直線りに沿った走査の終了であるか否かを判断す
る(ステップ108)。減算結果のX座標値がYEに等
しいかYEより大きい場合には、検出直線りのチエツク
が終了したものとして次の他の検出直線のチエツクを行
う(ステップ109)。減算結果のX座標値がYEより
小さい場合には、走査するエツジ点のX座標値をXn−
W/2とし、次に走査するエツジ点の座標を次の矢印の
始点に合わせる(ステップ110)。
If the end point of the arrow has not been reached, 1 is added to the X coordinate value of the edge point to be scanned, and scanning is continued along the arrow (step 106). Also, when the end point of the arrow is reached, 1 from the y coordinate of the edge point to be scanned.
and prepare for the next scan along the arrow (step 1
07). Next, it is determined whether the X coordinate value of this subtraction result is smaller than the y coordinate value YE corresponding to the end point of the detection straight line, and it is determined whether scanning along the detection straight line has ended ( Step 108). If the X coordinate value of the subtraction result is equal to or larger than YE, it is assumed that the checking of the detected straight line has been completed, and the next other detected straight line is checked (step 109). If the X coordinate value of the subtraction result is smaller than YE, the X coordinate value of the edge point to be scanned is
W/2, and the coordinates of the next edge point to be scanned are adjusted to the starting point of the next arrow (step 110).

ステップ1.06またはステップ110の処理が終了し
た次には、読み取ったエツジ点の座標値がハフ変換領域
H(第2図参照)内に存在するか否かを判断する(ステ
ップ111)。ハフ変換領域Hの外部であればステップ
105に戻って一旦設定した走査すべきエツジ点の座標
値を再度設定しなおす。ハフ変換領域Hの内部であれば
、ステップ]02に戻って検出直線りについて矢印に沿
った走査を進め、途切れ部分の長さをカウンタBrea
kのカウント値によって測定する。
After the processing of step 1.06 or step 110 is completed, it is determined whether or not the read coordinate value of the edge point exists within the Hough transform area H (see FIG. 2) (step 111). If it is outside the Hough transform area H, the process returns to step 105 and the once set coordinate values of the edge point to be scanned are reset. If it is inside the Hough transform area H, return to step 02, proceed with scanning along the arrow about the detected straight line, and measure the length of the interrupted part by counter Brea.
It is measured by the count value of k.

一方、ステップ103において読み取ったエツジ点の強
度データがしきい値THLよりも大きい場合には、読み
取ったデータに相当するエツジ点は直線の連続部分てあ
り、途切れ部分が終了したものと判断する。そして、カ
ウンタBreakのカウント数かメモリMAXに記憶さ
れた直線の途切れ部分の長さに相当する数値よりも大き
いか否かを判断する(ステップ112)。カウンタBr
eakのカウント数の方かメモリMAXの記憶数よりも
大きい場合には、メモリMAXの記憶数をカウンタBr
eakのカウント数に書き替え、新たな直線の途切れ部
分長さデータとする(ステップ113)。処理の初期時
にはメモリMAXにはデータが記憶されていないから、
カウンタBreakのカウント数の方がメモリMAXの
記憶数よりも大きくなる。また、メモリMAXにデ] 
1 2 −タが記憶されている場合には、メモリMAXにはその
処理時点までの最大の途切れ部分長さデータが記憶され
ることになる。
On the other hand, if the intensity data of the edge point read in step 103 is larger than the threshold value THL, it is determined that the edge point corresponding to the read data is a continuous part of the straight line and that the interrupted part has ended. Then, it is determined whether or not the count number of the counter Break is larger than a value corresponding to the length of the broken part of the straight line stored in the memory MAX (step 112). Counter Br
If the count number of eak is larger than the number of memories stored in the memory MAX, the number of memories stored in the memory MAX is added to the counter Br.
It is rewritten to the count number of eak and used as new straight line discontinuation portion length data (step 113). Since no data is stored in memory MAX at the beginning of processing,
The count number of the counter Break is larger than the number stored in the memory MAX. In addition, memory MAX
1 2 - data is stored, the maximum discontinuous portion length data up to the processing time is stored in the memory MAX.

ステップ112の判断結果がカウンタ B r e a kのカウント数の方がメモリMAXの
記憶数よりも小さいことを示す場合には、検出された途
切れ部分の長さはその処理時点までに検出された最大の
とぎれ部分の長さよりも短いことを意味する。このため
、カウンタBreakのカウント数をOとし、今回検出
された途切れ部分の長さデータをクリアして次回の途切
れ部分長さの検出に備える(ステップ114)。
If the judgment result in step 112 indicates that the count number of the counter B r e a k is smaller than the number stored in the memory MAX, the length of the detected discontinuous portion is determined by the length of the detected discontinuous portion up to the processing point. This means that it is shorter than the length of the largest broken part. Therefore, the count number of the counter Break is set to O, and the length data of the currently detected broken part is cleared in preparation for the next detection of the broken part length (step 114).

第1図(d)の基本概念の説明における各検出直線の位
置関係の判断は次のように行われ、各直線の意味付けが
なされる。
In the explanation of the basic concept in FIG. 1(d), the positional relationship of each detected straight line is determined as follows, and the meaning of each straight line is assigned.

例えば、第4図に示される3本の検出直線g1゜β2.
ρ3が得られた場合を想定する。この場合、直線Ωn]
(m−1〜3)が破線の車線区分線であると識別された
とし、この時の他の検出直線ρ1(i−1〜3)の意味
付け、つまり、直線pmに対する他の直線Ωlの位置関
係の判断は以下のように行われる。ここで、各検出直線
g1〜3は第5図に示されるρ、θを用いて表現される
。ρはハフ変換座標であるX、Y座標の原点から検出直
線に降ろした垂線の長さてあり、θはX軸からの回転角
である。
For example, the three detection straight lines g1°β2. shown in FIG.
Assume that ρ3 is obtained. In this case, the straight line Ωn]
Suppose that (m-1 to 3) are identified as broken lane markings, and the meaning of the other detected straight line ρ1 (i-1 to 3) at this time is determined, that is, the other straight line Ωl with respect to the straight line pm. The positional relationship is determined as follows. Here, each of the detection straight lines g1 to g3 is expressed using ρ and θ shown in FIG. ρ is the length of a perpendicular line drawn from the origin of the X, Y coordinates, which are Hough transform coordinates, to the detection straight line, and θ is the rotation angle from the X axis.

第6図は各検出直線の意味付けの処理を示すフローチャ
ートである。
FIG. 6 is a flowchart showing the process of assigning meaning to each detected straight line.

まず、破線と識別された直線Dmを2車線の中央区分線
とする。直線Ωmは上記の表現方法に従って、ρ−ρm
、θ−θmによって表現する(ステップ201)。第4
図に例示された検出直線Ω1〜3では、直線fI3が直
線Ωmに相当する。
First, the straight line Dm identified as a broken line is assumed to be the center dividing line of two lanes. According to the above expression method, the straight line Ωm is expressed as ρ−ρm
, θ−θm (step 201). Fourth
Among the detection straight lines Ω1 to Ω3 illustrated in the figure, the straight line fI3 corresponds to the straight line Ωm.

次に、θmの大きさが0″以上90°未満(0゜50m
く90°)か否かを判断する(ステップ202)。この
条件を満たす場合には、ざらにθiがθmを越え90°
未満(θmくθiく90°)か否かを判断する(ステッ
プ203)。
Next, the magnitude of θm is 0″ or more and less than 90° (0°50m
90°) (step 202). When this condition is met, θi roughly exceeds θm and becomes 90°.
It is determined whether the angle is less than (θm × θi × 90°) (step 203).

この条件を満たす場合には、直線Ωiは中央区分線1 
rnの右側車線の端部を示す境界線であると判 3 4 断する(ステップ204)。
If this condition is satisfied, the straight line Ωi is the center dividing line 1
It is determined that the boundary line indicates the edge of the right lane of rn (step 204).

この時の直線(1m、直線11iの位置の相対関係は第
7図(a)に示される。つまり、θmは0゜〜90°の
範囲内にあり、かつ、giはθmよりも大きく90°未
満である。なお、第7図における点線は地平線を示して
いる。また、ステップ203において、giが条件式θ
mくgiく90″を満たさない場合には、直線giは中
央区分線j?mの左側車線の端部を示す境界線であると
判断する(ステップ205)。この時の直線ρm。
The relative relationship between the positions of the straight line (1 m, straight line 11i) at this time is shown in Figure 7 (a). That is, θm is within the range of 0° to 90°, and gi is larger than θm and 90° The dotted line in FIG. 7 indicates the horizon. Also, in step 203, gi is
If m x gi >90'' is not satisfied, the straight line gi is determined to be the boundary line indicating the end of the left lane of the center dividing line j?m (step 205).The straight line ρm at this time.

giの位置の相対関係は第7図(b)に示される。The relative relationship of the positions of gi is shown in FIG. 7(b).

つまり、θmは06〜90°の範囲内にあるが、giは
90″よりも大きい。
That is, θm is within the range of 06 to 90°, but gi is greater than 90″.

また、ステップ202においてθmが条件式0@≦θm
く90°を満たさない場合には、次にgiが90°を越
え6m未満(90’<giくθm)であるか否かを判断
する(ステップ206)。この条件を満たす場合には、
直線11iは中央区分線、Qmの左側車線の端部を示す
境界線であると判断する(ステップ207)。この時の
直線Nm、jliの位置の相対関係は第7図(C)に示
される。つまり、θmは90°を越え、かつ、giは9
0°を越えθmよりも小さい。また、ステップ206に
おいて、giが条件式90°くgiくθmを満たさない
場合には、直線ρiは中央区分線IImの右側車線の端
部を示す境界線であると甥断する(ステップ208)。
Also, in step 202, θm is the conditional expression 0@≦θm
If gi does not satisfy 90°, then it is determined whether gi exceeds 90° and is less than 6 m (90'<gi x θm) (step 206). If this condition is met,
The straight line 11i is determined to be the center dividing line, a boundary line indicating the end of the left lane of Qm (step 207). The relative relationship between the positions of the straight lines Nm and jli at this time is shown in FIG. 7(C). In other words, θm exceeds 90° and gi is 9
It exceeds 0° and is smaller than θm. Further, in step 206, if gi does not satisfy the conditional expression 90° and θm, it is determined that the straight line ρi is a boundary line indicating the end of the right lane of the center marking line IIm (step 208). .

この時の直線ρm、 、17 iの位置の相対関係は第
7図(d)に示される。つまり、θmは90°を越える
がgiは90°よりも小さい。
The relative relationship between the positions of the straight lines ρm, , 17i at this time is shown in FIG. 7(d). In other words, θm exceeds 90°, but gi is smaller than 90°.

なお、以上の説明は検出直線が3本の場合について説明
したが、この本数に限定される必要は無く、例えば2本
であっても良い。
Note that although the above description has been made regarding the case where there are three detection straight lines, it is not necessary to be limited to this number, and the number may be two, for example.

本実施例によれば、第1図(a)に示されるような走行
路の車線を判別できるばかりではなく、次のような利点
をも有する。つまり、第8図に示される走行路1全体が
画像に写っていない場合でも、破線2を識別することに
より、自軍が走行路1のどの位置にいるのかを判定する
ことができる。
According to this embodiment, it is not only possible to determine the lanes of a traveling road as shown in FIG. 1(a), but also has the following advantages. That is, even if the entire traveling route 1 shown in FIG. 8 is not shown in the image, by identifying the broken line 2, it is possible to determine where the own army is located on the traveling route 1.

なお、同図において第1図(a)と同一部分にっ 5 6 いては同符号を用いである。In addition, in the figure, the same part as in Figure 1 (a) is 5. 6 The same symbols are used for all cases.

限られた条件下(工場内等)で走行路に描かれた白線を
認識し、車両もしくはロボットが自立走行する技術は多
数提供されているが、厳しい条件下(一般道路等)で走
行路帯を正確に認識し、自立走行する技術はほとんど紹
介されていない。従って、本実施例によれば、破線があ
り、しかも連続線がかすれたり、途切れたりしている現
実的な走行路帯を自立走行するうえで有効な技術となる
Many technologies have been provided that allow vehicles or robots to run independently by recognizing white lines drawn on the road under limited conditions (such as inside a factory). There has been little introduction of technology to accurately recognize and run autonomously. Therefore, according to this embodiment, it is an effective technique for self-driving on a realistic driving road where there are broken lines and continuous lines are blurred or interrupted.

なお、上記実施例の説明においては、各検出直線毎に直
線の最大途切れ部分の長さを求め、さらにこの最大長さ
のうち一番長い途切れ部分を求めることにより破線を識
別したが、次のような処理を上記実施例に準じて行うこ
とにより、上記実施例と同様に破線を識別することがで
きる。つまり、各検出直線毎に直線の途切れ部分の長さ
の和を求め、この和のうち最大の和を有する検出直線を
破線とすることができる。この際においても、各検出直
線に沿ってエツジ画像を走査し、各エツジ点の強度デー
タを所定のしきい値と比較判断することにより途切れ部
分の長さの和を求めることができる。
In addition, in the explanation of the above embodiment, broken lines were identified by finding the length of the maximum broken part of each detected straight line, and then finding the longest broken part of this maximum length. By performing such processing in accordance with the above embodiment, broken lines can be identified in the same manner as in the above embodiment. In other words, the sum of the lengths of the discontinuous portions of the straight lines is calculated for each detected straight line, and the detected straight line having the maximum sum among these sums can be set as a broken line. Even in this case, the sum of the lengths of the discontinuous portions can be determined by scanning the edge image along each detected straight line and comparing the intensity data of each edge point with a predetermined threshold.

また、直線の途切れ部分の長さではなく、直線の連続部
分の長さを求め、上記実施例と同様にして連続部分の長
さを基にして車線区分線が破線であるか否かを判断する
ことができる。この場合においては、検出直線に沿う各
エツジ点の強度データが所定のしきい値よりも大きい場
合に連続部分であると判定する。
Also, instead of finding the length of the broken part of the straight line, find the length of the continuous part of the straight line, and use the same method as in the above example to determine whether the lane marking is a broken line or not based on the length of the continuous part. can do. In this case, if the intensity data of each edge point along the detected straight line is larger than a predetermined threshold value, it is determined that it is a continuous portion.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明によれば、途切れ部分の長さ
が最大の車線区分線、または、途切れ部分の長さの和が
最大の車線区分線は破線と識別され、この破線を基準に
各走行車線の意味付けがなされる。
As explained above, according to the present invention, the lane marking with the maximum length of the broken part or the lane marking with the largest sum of the lengths of the broken parts is identified as a broken line, and each lane marking is determined based on this broken line. A meaning is given to the driving lane.

このため、本発明によれば車線区分線の有無を判断する
ことが可能なうえに、車線区分線の種類をも判別するこ
とが可能になり、カメラに撮像された画像情報を有効に
利用できる。
Therefore, according to the present invention, it is not only possible to determine the presence or absence of lane markings, but also the type of lane markings, and the image information captured by the camera can be effectively used. .

 7 87 8

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例の基本概念を説明するための
図、第2図はこの実施例における検出直線とエツジ化デ
ータ画像との照合を説明するためのグラフ、第3図はこ
の実施例において破線の識別処理を示すフローチャート
、第4図はこの実施例において検出された直線の例を説
明するための画像図、第5図は検出直線の表現方法を説
明するためのグラフ、第6図はこの実施例における各検
出直線の意味(=Iけの処理を示すフローチャート、第
7図は第6図の処理結果から得られる各検出直線の位置
の相対関係を示すグラフ、第8図はカメラに撮像された
他の原画像図である。 1・・・走行路、2・・・破線、3・・左側車線の端部
を示す境界線、4・・・右側車線の端部を示す境界線、
5・・・地平線、6,7.8・・・検出直線。
Fig. 1 is a diagram for explaining the basic concept of an embodiment of the present invention, Fig. 2 is a graph for explaining the comparison between a detected straight line and an edged data image in this embodiment, and Fig. 3 is a graph for explaining the basic concept of an embodiment of the present invention. FIG. 4 is an image diagram for explaining an example of a straight line detected in this embodiment; FIG. 5 is a graph for explaining a method of expressing detected straight lines; FIG. FIG. 6 is a flowchart showing the meaning of each detected straight line in this embodiment (=I), FIG. 7 is a graph showing the relative relationship of the positions of each detected straight line obtained from the processing results of FIG. 6, and FIG. are other original images taken by the camera. 1... Driving path, 2... Broken line, 3... Boundary line indicating the edge of the left lane, 4... Indicating the edge of the right lane. border line,
5...Horizon, 6,7.8...Detection straight line.

Claims (1)

【特許請求の範囲】 1、走行路を撮像して原画像データを得る第1のステッ
プと、該原画像データに含まれる特徴点を求める第2の
ステップと、該特徴点の並びに近似した直線群を求める
第3のステップと、該直線群の中から走行路に描かれた
車線区分線に対応する直線を抽出する第4のステップと
、抽出された前記各直線毎に直線の途切れ部分の長さを
求めて該長さを基にして破線を識別する第5のステップ
と、該破線を基にして前記各車線区分線の位置関係を判
断する第6のステップとを備え、前記走行路の車線を判
別することを特徴とする走行車線判別方法。 2、第5のステップにおいて、第4のステップで抽出さ
れた各直線毎に直線の途切れ部分の最大長さを求め、該
最大長さを基にして破線を識別することを特徴とする請
求項1記載の走行車線判別方法。 3、第5のステップにおいて、求めた途切れ部分の最大
長さのうちさらに一番長い途切れ部分を有する直線を破
線と識別することを特徴とする請求項2記載の走行車線
判別方法。 4、第5のステップにおいて、第4のステップで抽出さ
れた各直線毎に直線の途切れ部分の長さの和を求め、該
長さの和が最大となる直線を破線と識別することを特徴
とする請求項1記載の走行車線判別方法。 5、第5のステップにおいて、第4のステップで抽出さ
れた各直線と第2のステップで求まった特徴点とを照合
し、該特徴点の強度が所定レベル以下の場合に途切れ部
分とすることを特徴とする請求項1または請求項2また
は請求項3または請求項4記載の走行車線判別方法。 6、第6のステップにおいて、破線の角度と他の各車線
区分線の角度との大小関係から各車線区分線の位置関係
を判断することを特徴とする請求項1または請求項2ま
たは請求項3または請求項4または請求項5記載の走行
車線判別方法。 7、走行路を撮像して原画像データを得る第1のステッ
プと、該原画像データに含まれる特徴点を求める第2の
ステップと、該特徴点の並びに近似した直線群を求める
第3のステップと、該直線群の中から走行路に描かれた
車線区分線に対応する直線を抽出する第4のステップと
、抽出された前記各直線毎に直線の連続部分の長さを求
めて該長さを基にして破線を識別する第5のステップと
、該破線を基にして前記各車線区分線の位置関係を判断
する第6のステップとを備え、前記走行路の車線を判別
することを特徴とする走行車線判別方法。
[Claims] 1. A first step of capturing an image of a driving route to obtain original image data, a second step of obtaining feature points included in the original image data, and a straight line that approximates the arrangement of the feature points. a third step of determining a group of straight lines; a fourth step of extracting a straight line corresponding to a lane marking drawn on the driving route from the group of straight lines; a fifth step of determining the length and identifying a broken line based on the length; and a sixth step of determining the positional relationship of the respective lane markings based on the broken line, A driving lane determination method characterized by determining a driving lane. 2. A claim characterized in that in the fifth step, the maximum length of the interrupted portion of the straight line is determined for each straight line extracted in the fourth step, and broken lines are identified based on the maximum length. The driving lane determination method described in 1. 3. The driving lane determining method according to claim 2, wherein in the fifth step, a straight line having the longest interrupted portion among the determined maximum lengths of interrupted portions is identified as a broken line. 4. In the fifth step, the sum of the lengths of the broken parts of each straight line extracted in the fourth step is calculated, and the straight line with the maximum sum of lengths is identified as a broken line. The method for determining a driving lane according to claim 1. 5. In the fifth step, each straight line extracted in the fourth step is compared with the feature point found in the second step, and if the intensity of the feature point is below a predetermined level, it is determined as an interrupted part. The driving lane discrimination method according to claim 1, claim 2, claim 3, or claim 4, characterized in that: 6. In the sixth step, the positional relationship of each lane marking is determined from the magnitude relationship between the angle of the broken line and the angle of each other lane marking. 3. The driving lane determining method according to claim 4 or claim 5. 7. A first step of imaging the driving route to obtain original image data, a second step of finding feature points included in the original image data, and a third step of finding a group of straight lines that approximate the arrangement of the feature points. a fourth step of extracting a straight line corresponding to a lane marking drawn on the driving route from the group of straight lines; and determining the length of a continuous portion of the straight line for each of the extracted straight lines. A fifth step of identifying a broken line based on the length, and a sixth step of determining a positional relationship between the respective lane markings based on the broken line, and determining the lane of the traveling road. A driving lane determination method characterized by:
JP29883789A 1989-11-17 1989-11-17 Driving lane identification method Expired - Fee Related JP2883131B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29883789A JP2883131B2 (en) 1989-11-17 1989-11-17 Driving lane identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29883789A JP2883131B2 (en) 1989-11-17 1989-11-17 Driving lane identification method

Publications (2)

Publication Number Publication Date
JPH03158976A true JPH03158976A (en) 1991-07-08
JP2883131B2 JP2883131B2 (en) 1999-04-19

Family

ID=17864864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29883789A Expired - Fee Related JP2883131B2 (en) 1989-11-17 1989-11-17 Driving lane identification method

Country Status (1)

Country Link
JP (1) JP2883131B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0697641A2 (en) 1994-07-12 1996-02-21 Honda Giken Kogyo Kabushiki Kaisha Lane image processing system for vehicle
US5517412A (en) * 1993-09-17 1996-05-14 Honda Giken Kogyo Kabushiki Kaisha Self-navigating vehicle equipped with lane boundary recognition system
JPH09218937A (en) * 1996-02-08 1997-08-19 Nippon Soken Inc Compartment line detector
DE102004043794B4 (en) * 2004-01-29 2007-08-16 Fujitsu Ltd., Kawasaki Method and apparatus for determining the lane of a vehicle, and a computer product
US7295683B2 (en) 2003-12-17 2007-11-13 Mitsubishi Denki Kabushiki Kaisha Lane recognizing image processing system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517412A (en) * 1993-09-17 1996-05-14 Honda Giken Kogyo Kabushiki Kaisha Self-navigating vehicle equipped with lane boundary recognition system
EP0697641A2 (en) 1994-07-12 1996-02-21 Honda Giken Kogyo Kabushiki Kaisha Lane image processing system for vehicle
US5790403A (en) * 1994-07-12 1998-08-04 Honda Giken Kogyo Kabushiki Kaisha Lane image processing system for vehicle
JPH09218937A (en) * 1996-02-08 1997-08-19 Nippon Soken Inc Compartment line detector
US7295683B2 (en) 2003-12-17 2007-11-13 Mitsubishi Denki Kabushiki Kaisha Lane recognizing image processing system
DE102004043794B4 (en) * 2004-01-29 2007-08-16 Fujitsu Ltd., Kawasaki Method and apparatus for determining the lane of a vehicle, and a computer product

Also Published As

Publication number Publication date
JP2883131B2 (en) 1999-04-19

Similar Documents

Publication Publication Date Title
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP3630100B2 (en) Lane detection device
US8406472B2 (en) Method and system for processing image data
JPH0728975A (en) Road environment recognizing device
JP5716443B2 (en) Lane boundary detection device and lane boundary detection method
JP2000357233A (en) Body recognition device
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JPH07129898A (en) Obstacle detecting device
JP3562751B2 (en) Forward vehicle detection method and device
JP2005346385A (en) Line graphic processing device
JPH11252587A (en) Object tracking device
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
JP3961584B2 (en) Lane marking detector
JPH11195127A (en) Method for recognizing white line and device therefor
KR20140024681A (en) Apparatus and method for detecting lane
JP4936045B2 (en) Vehicle color discrimination device, method and program
JPH03158976A (en) Traffic lane discriminating method
JP2006201817A (en) Method and device for discriminating vehicle body color
JPH07244717A (en) Travel environment recognition device for vehicle
JPH07294251A (en) Obstacle detector
JPH10320559A (en) Traveling path detector for vehicle
JPH11345336A (en) Obstacle detecting device
JP2005170290A (en) Obstacle detecting device
JP4106163B2 (en) Obstacle detection apparatus and method
WO2014050285A1 (en) Stereo camera device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees