JP2007299414A - Lane marker recognition method - Google Patents

Lane marker recognition method Download PDF

Info

Publication number
JP2007299414A
JP2007299414A JP2007153471A JP2007153471A JP2007299414A JP 2007299414 A JP2007299414 A JP 2007299414A JP 2007153471 A JP2007153471 A JP 2007153471A JP 2007153471 A JP2007153471 A JP 2007153471A JP 2007299414 A JP2007299414 A JP 2007299414A
Authority
JP
Japan
Prior art keywords
lane mark
edge
angle
lane
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007153471A
Other languages
Japanese (ja)
Other versions
JP4671991B2 (en
Inventor
Yasushi Otsuka
裕史 大塚
Shoji Muramatsu
彰二 村松
Hiroshi Takenaga
寛 武長
Jiro Takezaki
次郎 竹崎
Tatsuhiko Moji
竜彦 門司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007153471A priority Critical patent/JP4671991B2/en
Publication of JP2007299414A publication Critical patent/JP2007299414A/en
Application granted granted Critical
Publication of JP4671991B2 publication Critical patent/JP4671991B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an algorithm capable of stably recognizing a lane marker composed of white lines or road studs without distinguishing the type of the lane marker. <P>SOLUTION: In a lane marker recognition method comprising an image input process for inputting an image including a lane marker, an edge extracting process for extracting a luminance change point in the input image input in the image input process, and a lane marker estimating method for estimating the position of the lane marker by using edge points extracted in the edge extracting process, the edge extracting process includes a means for calculating the angle of orientation of each of the edges, and the lane marker position estimating process includes a means for extracting edge points that are oriented toward a vanishing point of a road from among the edge points extracted in the edge extracting process. Consequently, since the lane marker can stably be recognized without distinguishing the type of the lane marker, there is no need of replacing an algorithm and even the unknown shape of a lane marker can be made to correspond to. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、カメラ等の入力手段により得られた路面情報から画像処理によって車両走行レーンマークを認識するレーンマーク認識方法及びそれを用いた装置に関する。   The present invention relates to a lane mark recognition method for recognizing a vehicle traveling lane mark by image processing from road surface information obtained by an input means such as a camera, and an apparatus using the same.

従来から、道路に敷設された白線等のレーンマークを画像処理により認識し、ドライバーに対して走行車線を逸脱している場合の警報を行ったり、レーンマークの認識結果を用いて車両のステアリング制御を行う手法が提案されている。   Conventionally, lane marks such as white lines laid on the road are recognized by image processing, and a warning is given to the driver when the vehicle deviates from the driving lane, and vehicle steering control is performed using the lane mark recognition results. A method for performing the above has been proposed.

画像処理により白線を認識するには、従来の一般的な手法では、画像の輝度に対して閾値を設定し、画像を二値化することで、輝度の高い部分を白線と認識していた。これは、白線は周囲の道路に比べて明度が高いため、画像上では道路領域と比較して高い輝度となることを利用したものである。この道路領域と白線領域の輝度の間に閾値を設定すれば、二値化により白線領域だけを検出することができる。   In order to recognize a white line by image processing, in a conventional general method, a threshold value is set for the luminance of the image and the image is binarized to recognize a portion with high luminance as a white line. This utilizes the fact that white lines have higher brightness than surrounding roads, and thus have higher brightness than road areas on the image. If a threshold is set between the brightness of the road area and the white line area, only the white line area can be detected by binarization.

しかし、白線の上に影がかかっている画像の場合、影のかかった白線領域では、そうでない領域に比べて輝度が低くなり、影のかかった領域の検出を良好に行うことができない、という不都合があった。また、影のかかった白線領域を検出できる輝度値を閾値とすると、この閾値では白線以外の部分も検出してしまう。   However, in the case of an image with a shadow on the white line, the brightness of the shadowed white line area is lower than that of the non-shadowed area, and the shadowed area cannot be detected well. There was an inconvenience. Further, if a luminance value that can detect a shaded white line region is set as a threshold, a portion other than the white line is also detected with this threshold.

特開平4−152406号公報によると、画像全体の輝度の平均値と最大値とに基づいて、閾値を設定する手法が開示されている。この手法により、画像の状況によって閾値を変更することができるため、より安定した白線認識が可能となる。   Japanese Patent Laid-Open No. 4-152406 discloses a method for setting a threshold based on the average value and the maximum value of the luminance of the entire image. With this method, the threshold value can be changed depending on the state of the image, so that more stable white line recognition is possible.

しかしながら、この手法では、天候や影により画像の状態が変化すると、白線を良好に検出できなくなる、という不都合があった。   However, this method has a disadvantage that the white line cannot be detected satisfactorily when the state of the image changes due to weather or shadow.

また、輝度による二値化ではなく、エッジ抽出処理を行い、白線の輪郭線を検出することで白線を認識する手法がある。このエッジ抽出処理は、画像の輝度が変化している部分を抽出する。すなわち、この手法では、道路上の白線は周囲の道路が暗く、白線の端部に明るさの変化があることを利用して、この変化が生じている部分を白線の端部と認識する。このエッジ抽出処理は、明るさの変化を検出する処理であるため、天候の変化により画像の広い領域の明るさが変化しても、白線の端部分に輝度変化があれば白線を検出できるという利点がある。ただし、エッジ抽出処理を行う方法は、白線の端部分のエッジを安定して抽出できる反面、先行車両や轍など、道路内の余分なエッジ成分まで抽出する可能性が高い。   Further, there is a method of recognizing a white line by performing edge extraction processing instead of binarization by luminance and detecting a white line outline. In this edge extraction process, a portion where the luminance of the image is changed is extracted. That is, in this method, the white line on the road is recognized as the end of the white line by utilizing the fact that the surrounding road is dark and there is a change in brightness at the end of the white line. Since this edge extraction process is a process for detecting a change in brightness, even if the brightness of a wide area of an image changes due to a change in weather, a white line can be detected if there is a change in brightness at the end of the white line. There are advantages. However, the method of performing the edge extraction process can stably extract the edge of the end portion of the white line, but has a high possibility of extracting an extra edge component in the road such as a preceding vehicle or a fence.

そのため、白線のエッジであるか否かを判別する手法が重要となる。   Therefore, a method for determining whether or not the edge is a white line is important.

特開平11−195127号公報によると、エッジ点を求めるときに得られるエッジの角度情報を利用し、角度対となるエッジ点で囲まれた領域を白線と判定する手法が開示されている。これは、白線の場合、白線の左端と右端の部分とで対でエッジが抽出され、その角度差はおよそ180度となることを利用したもので、角度の対となるエッジ点がない場合、そのエッジ点は白線のものではないとして除外できる。   According to Japanese Patent Laid-Open No. 11-195127, a method is disclosed in which edge angle information obtained when an edge point is obtained is used to determine a region surrounded by an edge point forming an angle pair as a white line. In the case of the white line, the edge is extracted in pairs at the left end and the right end of the white line, and the angle difference is about 180 degrees. When there is no edge point to be an angle pair, The edge point can be excluded as not being a white line.

特開平4−152406号公報JP-A-4-152406 特開平11−195127号公報JP 11-195127 A

レーンマークの中でも、エッジ点分布が線状に連なる白線が認識対象である場合、特開平11−195127号公報のようにエッジ点の位置角度情報から白線部分の推定が可能となる。ところが、上記従来例ではレーンマークとして道路鋲が敷設された路線までは考慮されていないため、道路鋲の認識までは不可能である。   Among the lane marks, when a white line whose edge point distribution is linearly connected is a recognition target, the white line portion can be estimated from the position angle information of the edge point as disclosed in JP-A-11-195127. However, in the above-mentioned conventional example, the route where the road fence is laid as a lane mark is not taken into consideration, and therefore it is impossible to recognize the road fence.

道路鋲を認識する場合、道路鋲パターンをテンプレートとして登録しておき、テンプレートマッチングによって道路鋲の位置を検出する方法もある。ところが、一般に画像上における道路鋲の大きさは小さく、ノイズによる影響を受けやすいことから、認識率を安定させることが難しい。   When recognizing a roadway, there is a method of registering a roadway pattern as a template and detecting the position of the roadway by template matching. However, in general, the size of the road fence on the image is small and easily affected by noise, so it is difficult to stabilize the recognition rate.

また、白線用のアルゴリズムと道路鋲用のアルゴリズムが異なる場合、白線と道路鋲が混在した路線のレーンマークを認識するためには、正しくレーンマークの種別を判断する必要がある。このことより、個々のアルゴリズムが優れていてもレーンマーク種別の判断を誤ると認識できないため、総合的な認識率が低下する。   In addition, when the white line algorithm and the road fence algorithm are different, it is necessary to correctly determine the type of the lane mark in order to recognize the lane mark of the road in which the white line and the road fence are mixed. As a result, even if each algorithm is excellent, it cannot be recognized if the lane mark type is wrongly determined, so the overall recognition rate decreases.

本発明では、白線もしくは道路鋲で構成されたレーンマークを、レーンマークの種別で区別することなく安定して認識可能なアルゴリズムを提供することを目的とする。   An object of the present invention is to provide an algorithm capable of stably recognizing a lane mark composed of a white line or a roadside without distinguishing between lane mark types.

上記の目的を達成するため本発明のレーンマーク認識方法では、レーンマークを含む画像を入力する画像入力工程と、その画像入力工程で入力された入力画像における輝度変化部分であるエッジ点を抽出し、抽出された各エッジ点の方向を表す角度を算出するエッジ抽出工程と、エッジ抽出工程で抽出した前記エッジ点のうち、エッジ点の角度が所定の角度もしくは所定の角度範囲内であるものを抽出してレーンマークの位置推定を行うレーンマーク位置推定工程を備えている。   In order to achieve the above object, in the lane mark recognition method of the present invention, an image input step for inputting an image including a lane mark, and an edge point that is a luminance change portion in the input image input in the image input step are extracted. An edge extraction step for calculating an angle representing the direction of each extracted edge point, and among the edge points extracted in the edge extraction step, the edge point angle is within a predetermined angle or a predetermined angle range. A lane mark position estimation step for extracting and estimating the lane mark position is provided.

また、エッジ抽出工程は、消失点からの距離が離れたエッジ点を抽出する工程を備えている。   The edge extraction step includes a step of extracting edge points that are separated from the vanishing point.

また、レーンマーク位置推定工程は、消失点からの距離が離れたエッジ点のうち、消失点に向いている角度を持つエッジ点から角度別のヒストグラムを作成し、出現頻度の高い角度をレーンマークの角度としている。   The lane mark position estimation process creates a histogram for each angle from the edge points that are at an angle toward the vanishing point among the edge points that are far from the vanishing point. And the angle.

また、レーンマーク位置推定工程は、レーンマークの角度をもつエッジ点の分布からレーンマーク位置を直線推定している。   In the lane mark position estimation step, the lane mark position is linearly estimated from the distribution of edge points having the lane mark angle.

本願発明のレーンマーク認識方法では、白線だけではなく道路鋲で構成されたレーンマークであってもレーンマーク位置にエッジがあれば検出可能となるため、レーンマークの種別で区別することなく安定して認識可能なアルゴリズムを提供できる。   In the lane mark recognition method of the present invention, even if the lane mark is not only a white line but also a lane mark, it can be detected if there is an edge at the lane mark position, so it is stable without being distinguished by the type of lane mark. Can provide a recognizable algorithm.

図1は、本発明であるレーンマーク認識方法の処理フローである。   FIG. 1 is a processing flow of a lane mark recognition method according to the present invention.

本発明の一つの実施形態におけるレーンマーク認識方法は、レーンマークを含む画像を入力する画像入力工程である車両前方画像取得工程(ステップS1)と、この車両前方画像取得工程S1で入力された入力画像の輝度変化部分をエッジとし、このエッジの方向角を算出する角度情報付きエッジ抽出工程(ステップS2)と、エッジ点の位置と方向角から道路の消失点に向かっているエッジ点を選出するエッジ選出工程(ステップS3)と、消失点に向かって並んでいるエッジ点の位置分布を解析し、レーンマークのエッジ点と判定するレーンマーク位置推定工程(ステップS4〜S5)と、消失点等の情報を更新する工程(ステップS6)および、認識結果を出力する結果出力工程(ステップS7)によって構成される。   In one embodiment of the present invention, a lane mark recognition method includes a vehicle front image acquisition step (step S1), which is an image input step for inputting an image including a lane mark, and an input input in the vehicle front image acquisition step S1. An edge extraction step with angle information (step S2) for calculating the direction angle of the edge using the luminance change portion of the image as an edge, and an edge point from the position and direction angle of the edge point toward the vanishing point of the road is selected. Edge selection step (step S3), lane mark position estimation step (steps S4 to S5) for determining the edge point of the lane mark by analyzing the position distribution of the edge points lined up toward the vanishing point, the vanishing point, etc. The process of updating the information (step S6) and the result output process (step S7) of outputting the recognition result.

ここで、消失点とは、自車両の左右にあるレーンマークが交差する無限遠点とする。   Here, the vanishing point is an infinite point where lane marks on the left and right of the host vehicle intersect.

以下、本実施例におけるレーンマーク認識方法の応用システム全体の構成を説明した後に、本実施例のレーンマーク認識方法における各ステップの詳細について説明する。   Hereinafter, after describing the configuration of the entire application system of the lane mark recognition method in the present embodiment, details of each step in the lane mark recognition method of the present embodiment will be described.

本実施例のシステムを図10に示す。まずレーン認識部101において、車両前方に向けられたカメラ104等の入力手段から得られた車両前方画像を、画像処理手段105に転送する。画像処理手段105は本発明のレーンマーク認識方法によって、画像上のレーンマークの位置を認識し、自車両がレーンに対してどれだけずれているのかを算出する。ずれ量に関しては図7で説明する。ずれ量Sは、自車両71がレーンの中心にあれば0、右側に寄っていれば正の値、左側に寄っていれば負の値とし、−1から1までの値をとるものとする。算出されたずれ量Sはレーンキープ制御部102に転送する。レーンキープ制御部102は、転送されたずれ量Sから、必要であれば車両をレーンの中心に戻すようにステアリングアクチュエータ106の制御を行ったり、レーン逸脱警報107を鳴らしたりする。すなわち、本レーンマーク認識方法では、カメラの映像を解析して、白線あるいは道路鋲で構成されるレーンマークの位置を検出し、レーンに対する自車両のずれ量を算出するものである。   The system of the present embodiment is shown in FIG. First, the lane recognition unit 101 transfers a vehicle front image obtained from an input unit such as the camera 104 directed to the front of the vehicle to the image processing unit 105. The image processing means 105 recognizes the position of the lane mark on the image by the lane mark recognition method of the present invention, and calculates how much the host vehicle is deviated from the lane. The amount of deviation will be described with reference to FIG. The deviation amount S is 0 when the host vehicle 71 is at the center of the lane, a positive value when the vehicle 71 is on the right side, a negative value when the vehicle 71 is on the left side, and a value from −1 to 1. . The calculated shift amount S is transferred to the lane keep control unit 102. The lane keep control unit 102 controls the steering actuator 106 so as to return the vehicle to the center of the lane, if necessary, or sounds the lane departure alarm 107 from the transferred deviation amount S. That is, in the present lane mark recognition method, the video of the camera is analyzed, the position of the lane mark composed of a white line or a roadside is detected, and the deviation amount of the own vehicle with respect to the lane is calculated.

以下、図1に従って本レーンマーク認識方法の詳細な説明を行う。   Hereinafter, the lane mark recognition method will be described in detail with reference to FIG.

まず、ステップS1では、入力手段であるカメラによって得られた車両前方の画像を取り込み、画像処理装置内の画像メモリに格納する。画像には白線もしくは道路鋲で構成されたレーンマークを含んでいることが絶対条件で、図2のようになる。図2(a)は白線、図2(b)は道路鋲の例を示している。   First, in step S1, an image ahead of the vehicle obtained by a camera as input means is captured and stored in an image memory in the image processing apparatus. The absolute condition is that the image includes a lane mark composed of a white line or a road fence as shown in FIG. FIG. 2A shows an example of a white line, and FIG. 2B shows an example of a roadway.

ステップS2では、画像メモリに格納された入力画像の輝度変化部分をエッジとして抽出し、このエッジの角度情報を付加したデータとして算出する。このデータは、各エッジ点について位置情報x,yおよび、角度情報θを含んでいる。   In step S2, the brightness change portion of the input image stored in the image memory is extracted as an edge, and is calculated as data to which angle information of the edge is added. This data includes position information x, y and angle information θ for each edge point.

ここで、位置情報は画面上での値で単位はピクセル、角度情報θは画面上でのエッジの方向を表し、0度から360度の値をとる。本実施例では、エッジの方向は、輝度の高い方向に対して90度左に傾けた方向になるように定義する。輝度の高い方向に対して90度傾けているのは、エッジによる輪郭線の向きにあわせるためであり、傾ける方向に関しては右でも構わない。一般に、白線1,道路鋲2とも周囲の路面3と比較して輝度が高くなるため、本実施例の定義によるとエッジの方向は図3のようになる。   Here, the position information is a value on the screen, the unit is a pixel, and the angle information θ represents the direction of the edge on the screen, and takes a value from 0 degrees to 360 degrees. In this embodiment, the direction of the edge is defined to be inclined 90 degrees to the left with respect to the direction with high luminance. The reason for tilting 90 degrees with respect to the direction of high brightness is to match the direction of the contour line by the edge, and the tilting direction may be right. In general, since the brightness of both the white line 1 and the roadside 2 is higher than that of the surrounding road surface 3, the edge direction is as shown in FIG. 3 according to the definition of this embodiment.

図3は白線1および道路鋲2を拡大したもので、図3中の白丸は得られたエッジ点4、矢印がエッジ点の方向5となる。輝度の高い方向に対して90度左に傾けているため、エッジの方向に向かって右側の輝度が高く、左側の輝度が低くなる。図3では道路鋲2が円形の場合について示しているが、方形など他の形についても同様である。エッジ点の抽出方法の詳細は後述する。実際には路面にはレーンマーク以外にも、先行車,スリップ痕などの汚れ,模様,街路樹等の陰などエッジとして出てくる要素が多い。これらのエッジはすべてレーンマーク認識に不要なノイズとなる。そのため、ステップS3以降でノイズの分離を行う。   FIG. 3 is an enlarged view of the white line 1 and the road fence 2. The white circle in FIG. 3 is the obtained edge point 4 and the arrow is the edge point direction 5. Since it is inclined 90 degrees to the left with respect to the direction of high luminance, the luminance on the right side increases toward the edge, and the luminance on the left side decreases. Although FIG. 3 shows the case where the road fence 2 is circular, the same applies to other shapes such as a square. Details of the edge point extraction method will be described later. In fact, in addition to the lane mark, there are many elements that appear as edges, such as preceding cars, dirt such as slip marks, patterns, and shadows of street trees. All of these edges become unnecessary noise for lane mark recognition. Therefore, noise separation is performed after step S3.

ステップS3では、レーンマークのエッジ点をできるだけ残しつつ、ノイズとなるエッジ点を除外する。そのために、レーンマークが消失点に向かっている事を利用し、消失点に向かっているエッジ点のみを選別する。つまり消失点に向かっていないエッジ点を除外する。選別方法は、まずエッジ点の情報x,y,θから、x,yを通りθの角度を持つ直線の方程式を求める。その直線と消失点との距離を求めその距離があらかじめ設定しておいた所定の閾値よりも小さければ消失点に向かっていると判断しレーンマーク候補として残す。所定の閾値を設けることで、抽出されるエッジ点の角度は幅を持つことになり、ノイズによる角度ずれの影響を軽減する効果がある。次に、もともと消失点に近いエッジ点はθに関係なく除去する。消失点に近いエッジ点は、実空間上では遠くの離れた物体のエッジ点であることから、レーンマークは、画面上の消失点近辺において非常に小さく投影されることになる。その結果、消失点近辺ではレーンマークのエッジ点はわずかとなり、ノイズとなるレーンマーク以外のエッジ点の比率が高くなる。   In step S3, edge points that cause noise are excluded while leaving as many edge points as possible. For this purpose, using the fact that the lane mark is toward the vanishing point, only the edge point toward the vanishing point is selected. That is, an edge point that is not directed to the vanishing point is excluded. In the selection method, first, an equation of a straight line passing through x and y and having an angle of θ is obtained from the edge point information x, y, and θ. A distance between the straight line and the vanishing point is obtained, and if the distance is smaller than a predetermined threshold set in advance, it is determined that the vehicle is moving toward the vanishing point and is left as a lane mark candidate. By providing a predetermined threshold value, the angle of the extracted edge point has a width, and there is an effect of reducing the influence of the angle shift due to noise. Next, edge points that are originally close to the vanishing point are removed regardless of θ. Since the edge point close to the vanishing point is an edge point of a distant object in real space, the lane mark is projected very small in the vicinity of the vanishing point on the screen. As a result, the edge points of the lane mark are few in the vicinity of the vanishing point, and the ratio of edge points other than the lane mark that causes noise increases.

消失点の近傍であるかどうかを判定する手段としては、単純に画面上での消失点とエッジ点との距離を計算して判断する方法がある。すなわち、消失点を中心とした半径が一定の円もしくは楕円内にあるエッジ点をすべて除去する。また、計算コストを考慮して、y座標の差から判断する方法もある。こちらの方法は、消失点のy座標とエッジ点のy座標の差を求め、ある一定のしきい値以下であれば近傍と判断し除去する。道路平面上にあるレーンマークは画面上のy座標位置によってカメラからの俯角が得られるため、カメラの設置高と合わせて実際の距離が求まる。このことがy座標のみを用いる理由である。   As a means for determining whether or not it is in the vicinity of the vanishing point, there is a method of determining by simply calculating the distance between the vanishing point and the edge point on the screen. That is, all edge points within a circle or ellipse with a constant radius centered on the vanishing point are removed. In addition, there is a method of determining from the difference of the y coordinate in consideration of the calculation cost. In this method, the difference between the y-coordinate of the vanishing point and the y-coordinate of the edge point is obtained. The lane mark on the road plane can obtain the depression angle from the camera based on the y-coordinate position on the screen. Therefore, the actual distance can be obtained together with the installation height of the camera. This is the reason for using only the y coordinate.

消失点近傍のエッジ点はあらかじめ除去することで、ノイズを軽減する効果がある。以上述べたエッジ点の選別によって、消失点から離れた手前側のエッジ点のうち、消失点に向かっているエッジ点のみが選出されることになる。図4は、白線1および道路鋲2において、消失点が右上にある場合のエッジ点選出結果である。白線1のエッジ点4はほぼそのまま残るが、道路鋲2のエッジ点4はほとんどのエッジ点が除外されている。ただし、白線1と同様の方向成分を持つ左端と右端のエッジ点は残るため、以降の処理で白線と同様の処理が可能となる。この選別処理によってレーンマーク以外のノイズとなるエッジ点のうち大部分は除去されるが、レーンマークに平行なエッジ点は残るため、ステップS4以降の解析で判定する。また、消失点の位置は一定ではなく、自車のレーンに対する傾き等で変化することから毎回計算しなければならないが、本ステップでは前フレームで求まった消失点位置を使用する。これは消失点の位置が短時間で極端に変わらない性質を利用している。開始時には、あらかじめカメラの設置位置からデフォルトの消失点位置を決めておきその値を使用する。消失点の求め方についてはステップS6で説明する。   Removing the edge points near the vanishing point in advance has the effect of reducing noise. By selecting the edge points as described above, only the edge points toward the vanishing point are selected from the near edge points away from the vanishing point. FIG. 4 is an edge point selection result when the vanishing point is on the upper right in the white line 1 and the roadway 2. The edge point 4 of the white line 1 remains almost as it is, but most of the edge points 4 of the road fence 2 are excluded. However, since the left end and right end edge points having the same direction component as the white line 1 remain, processing similar to the white line can be performed in the subsequent processing. Most of the edge points that become noise other than the lane mark are removed by this selection process, but the edge points parallel to the lane mark remain, so the determination is made in the analysis after step S4. Further, the vanishing point position is not constant and must be calculated every time because it changes depending on the inclination of the vehicle with respect to the lane, but in this step, the vanishing point position obtained in the previous frame is used. This utilizes the property that the position of the vanishing point does not change extremely in a short time. At the start, a default vanishing point position is determined in advance from the camera installation position and the value is used. How to find the vanishing point will be described in step S6.

ステップS4では、ステップS3で抽出されたエッジ点の角度情報から自車両の左右のレーンマークの角度を推定する。解析のために、本実施例ではエッジ角度ヒストグラムを利用する。すなわち、エッジを構成するすべての画素について、角度毎のヒストグラムを作成する。このエッジ角度ヒストグラムでは、ある方向のエッジ角度の画素が多いと、これがピークとして現れる。たとえば、画像中に1本の真っ直ぐな白線のみが存在すると仮定した場合、ある特定のエッジ角度についてピークが現れる。そこで、図5(b)のようにヒストグラムを作成してピークを形成する角度の中から、左右のレーンマークの角度θl とθr を推定する。図5(a)(b)の例では、180度のずれは無視し、180度以上の角度は180度引いた値でヒストグラムを作成している。これは、白線1や道路鋲2は、図4(a)(b)のように左端と右端にほぼ180度違いのエッジがセットで現れるため、これらを合わせ込むことでよりピークを出しやすくする効果がある。ただし実際にはノイズ成分がピークを形成することも多く、これと区別するために、レーンの幅情報を利用して推定を行う。レーンの幅はほぼ一定であるため、左右のレーンマークの角度θl とθr の組み合わせを限定できる。図5(a)の例のように車線数が多い場合は、隣のレーンマークの角度θnlやθnrを利用することで、θl とθr を推定することも可能である。この場合もレーン幅がほぼ一定であることを利用している。 In step S4, the angles of the left and right lane marks of the host vehicle are estimated from the angle information of the edge points extracted in step S3. For analysis, an edge angle histogram is used in this embodiment. That is, a histogram for each angle is created for all the pixels constituting the edge. In this edge angle histogram, if there are many pixels having an edge angle in a certain direction, this appears as a peak. For example, assuming that there is only one straight white line in the image, a peak appears for a particular edge angle. Therefore, the angles θ l and θ r of the left and right lane marks are estimated from the angles at which peaks are formed by creating a histogram as shown in FIG. In the example shown in FIGS. 5A and 5B, a 180 ° shift is ignored, and a histogram is created with a value obtained by subtracting 180 ° from an angle of 180 ° or more. This is because the white line 1 and the road ridge 2 appear with a set of edges that differ by about 180 degrees at the left end and the right end as shown in FIGS. 4 (a) and 4 (b). effective. However, in practice, the noise component often forms a peak, and in order to distinguish it from this, estimation is performed using lane width information. Since the lane width is substantially constant, the combination of the angles θ l and θ r of the left and right lane marks can be limited. When the number of lanes is large as in the example of FIG. 5A, it is possible to estimate θ l and θ r by using the angles θ nl and θ nr of the adjacent lane mark. In this case, the fact that the lane width is almost constant is used.

ステップS5では、θl とθr の角度を持つエッジ点の分布から、左右レーンマークの直線を推定する。ここで、カーブなどでレーンマークが曲がっていることも考えられるが、この曲がりによる影響はほぼ無視することができる。これは、ステップS3で消失点近辺のエッジ点をすべて除外して、自車両に近い手前のレーンマークのエッジ点のみを用いることによって、カーブであっても部分的には直線近似が可能であるという性質が利用可能となるためである。レーンマークの直線推定にはハフ変換を使用する。ハフ変換とは、いくつかの点の配置から最も多くの点を通る直線を導き出す手法であり、画像処理では一般的な手法のため説明は割愛する。以下図6を用いてレーンマークの直線推定までの説明を行う。 In step S5, the straight line of the left and right lane marks is estimated from the distribution of edge points having the angles θ l and θ r . Here, it is conceivable that the lane mark is bent due to a curve or the like, but the influence of this bend can be almost ignored. In step S3, all the edge points near the vanishing point are excluded, and only the edge point of the lane mark in front of the own vehicle is used, so that even a curve can be partially linearly approximated. This is because the property is available. The Hough transform is used for the straight line estimation of the lane mark. The Hough transform is a technique for deriving a straight line that passes through the most points from the arrangement of several points, and is not described because it is a general technique in image processing. Hereinafter, description will be given to the straight line estimation of the lane mark with reference to FIG.

図6は自車両の左側の白線の例を示している。白線には左右の両端でエッジが出てくるため、左端のエッジ点と右端のエッジ点に分けてハフ変換を行う。ステップS4で求まった左の白線の角度がθl とすると、右端のエッジ点の方向角はθl 、左端のエッジ点の方向角は反対向きなのでθl+180 と推定できる。そこで、θl に近い角度を持つエッジ点の分布からハフ変換を行い、求まった直線を白線の右端の線62とする。同様に、θl+180 に近い角度を持つエッジ点の分布からハフ変換を行い、求まった直線を白線の左端の線61とする。このようにして求まった2本の直線から、中心線63を求め、左の白線とする。以上、白線で説明したがこれは道路鋲の場合でも同様である。また直線推定に用いたハフ変換は、最小二乗近似法などでも代用できる。 FIG. 6 shows an example of a white line on the left side of the host vehicle. Since edges appear at both the left and right edges of the white line, the Hough transform is performed separately for the left edge point and the right edge point. If the angle of the white line on the left that Motoma' in step S4 is to theta l, direction angles of the right end of the edge points can be estimated theta l, direction angles of the left end of the edge point in the opposite direction of so theta l +180. Therefore, Hough transform is performed from the distribution of edge points having an angle close to θ l , and the obtained straight line is defined as the rightmost line 62 of the white line. Similarly, the Hough transform is performed from the distribution of edge points having an angle close to θ l +180, and the obtained straight line is defined as the leftmost line 61 of the white line. The center line 63 is obtained from the two straight lines obtained in this way, and is set as the left white line. The white lines have been described above, but the same applies to roadsides. The Hough transform used for the straight line estimation can be substituted by a least square approximation method.

ステップS6では消失点を算出する。消失点はステップS5で算出された左右のレーンマークの直線同士の交点として算出できる。一般に、消失点はカーブなどでレーンマークが曲がっている場合は、消失点は曲がっている方向になる。しかし、本実施例では遠方のエッジ点は無視しているため、手前のレーンマークを直線近似した交点を消失点としている。このようにして得られる消失点は、カーブによる変動が少ないことから変動範囲を限定することができ、消失点位置の予測解析が行いやすい。   In step S6, the vanishing point is calculated. The vanishing point can be calculated as the intersection of the straight lines of the left and right lane marks calculated in step S5. In general, when the vanishing point is a curve or the like and the lane mark is bent, the vanishing point is in a bent direction. However, in this embodiment, distant edge points are ignored, and the intersection point obtained by linearly approximating the lane mark in front is used as the vanishing point. The vanishing point obtained in this way has a small variation due to the curve, so the variation range can be limited, and the vanishing point position can be easily predicted and analyzed.

ステップS7では、認識結果を出力する。出力する情報はレーンに対する自車両の位置ずれ量Sとする(図7)。位置ずれ量Sは、自車両71がレーンの中央を走行している場合は0(図7(a))、右側のレーンマーク上にいる場合は1(図7(b))、左側のレーンマーク上にいる場合は−1(図7(c))とし、−1から1の間をとる。Sは、図8中の直線近似線81の2本の角度から式(1)で求められる。   In step S7, the recognition result is output. The information to be output is the positional deviation amount S of the own vehicle with respect to the lane (FIG. 7). The displacement S is 0 when the host vehicle 71 is traveling in the center of the lane (FIG. 7A), 1 when the vehicle 71 is on the right lane mark (FIG. 7B), and the left lane. When it is on the mark, it is set to -1 (FIG. 7C), and it is between -1 and 1. S is obtained from the two angles of the straight line approximation line 81 in FIG.

Figure 2007299414
Figure 2007299414

ここで、   here,

Figure 2007299414
Figure 2007299414

以上述べた各ステップの工程を図示したものが図9である。図9を用いて、本レーンマーク認識方法の処理を再度説明する。まず、図9(a)は、カメラから得られた画像から、ステップS2でエッジ点を抽出した結果を示している。図9では、各エッジ点の方向が分かりやすいように線分でエッジ点を示している。図9(b)は、ステップS3の途中段階で、前フレームで算出された消失点10の近辺領域91に含まれるエッジ点をすべて除去したものである。図9(c)では、さらに、消失点10に向かっていないエッジ点を除去している。図9(d)は、ステップS4で、角度のヒストグラムを解析し、出現頻度の高い角度でかつ、レーン幅条件を満たしている角度のエッジのみを抽出したものである。この例では、となりのレーンマークの角度となるθnlやθnrまで残しているが、θl とθr のみでもかまわない。図9(e)は、角度毎にハフ変換を行い直線近似線81を求めたものである。消失点10は直線近似線81の交点に更新される。図9で説明したように、本レーン認識方式では、白線と道路鋲を特に区別することなく認識処理を行っているため、白線と道路鋲が混在した路線に有効である。ただし、白線であっても道路鋲であってもレーンマークのエッジ点が検出できることが大前提であるため、道路鋲でも輝度差が出るように画像を取得し、エッジの検出閾値を十分下げることが重要である。 FIG. 9 illustrates the process of each step described above. The processing of this lane mark recognition method will be described again using FIG. First, FIG. 9A shows a result of extracting edge points in step S2 from an image obtained from a camera. In FIG. 9, the edge points are indicated by line segments so that the direction of each edge point can be easily understood. FIG. 9B is a diagram in which all the edge points included in the vicinity region 91 of the vanishing point 10 calculated in the previous frame are removed in the middle of step S3. In FIG. 9C, an edge point that is not directed toward the vanishing point 10 is further removed. FIG. 9D shows a result of analyzing the angle histogram in step S4 and extracting only edges having an angle with a high appearance frequency and satisfying the lane width condition. In this example, θ nl and θ nr that are the angles of the adjacent lane marks are left, but only θ l and θ r may be used. FIG. 9E shows a line approximation line 81 obtained by performing Hough transform for each angle. The vanishing point 10 is updated to the intersection of the straight line approximation line 81. As described with reference to FIG. 9, in the present lane recognition method, the recognition process is performed without particularly distinguishing the white line and the road fence, and therefore, it is effective for a route in which the white line and the road fence are mixed. However, since it is a basic premise that the edge point of the lane mark can be detected whether it is a white line or a road fence, acquire an image so that a luminance difference appears even on the road fence, and reduce the edge detection threshold sufficiently. is important.

最後に、エッジの検出手法について説明する。エッジの位置のみの検出手法については様々な方法があるが、エッジの方向成分まで含めて算出する方法としては、ソーベルフィルタによる方法や、二次元ゼロクロス法等が挙げられる。本実施例では、3×3のソーベルフィルタによる方法について説明する。   Finally, an edge detection method will be described. There are various methods for detecting only the position of the edge. Examples of the calculation method including the edge direction component include a Sobel filter method and a two-dimensional zero-cross method. In this embodiment, a method using a 3 × 3 Sobel filter will be described.

3×3のソーベルフィルタでは、ある注目画素を中心とした上下左右の9つの画素値に対して、図11に示すような係数をそれぞれ乗算し、結果を合計することでエッジの強度を算出する。垂直方向,水平方向の二つの係数行列を用いてこの処理を行う。   The 3 × 3 Sobel filter multiplies nine pixel values (up, down, left, and right) centered on a certain target pixel by coefficients as shown in FIG. 11 and sums the results to calculate the edge strength. To do. This processing is performed using two coefficient matrices in the vertical direction and the horizontal direction.

垂直方向の合計値をGx 、水平方向の合計値をGy とすると、注目画素の画素値Gは式(3)のようになる。 If the total value in the vertical direction is G x and the total value in the horizontal direction is G y , the pixel value G of the target pixel is expressed by Equation (3).

Figure 2007299414
Figure 2007299414

この画素値Gはエッジの強度を表し、大きいほどその地点の近傍で輝度差が大きいことを示す。このGの値があらかじめ設定したエッジ抽出閾値よりも大きければ、その部分の画素はエッジ点として抽出することになる。白線1の場合は一般に路面3との輝度差が大きいため、エッジ抽出閾値を適当に設定しておいても問題ない。しかし道路鋲2の場合、路面3との輝度差が小さいことが多い。抽出漏れを防ぐため、エッジ抽出閾値は十分に下げておくことが必要である。   This pixel value G represents the intensity of the edge, and the larger the value, the greater the difference in brightness near that point. If the value of G is larger than a preset edge extraction threshold, the pixel in that portion is extracted as an edge point. In the case of the white line 1, since the luminance difference with the road surface 3 is generally large, there is no problem even if the edge extraction threshold is set appropriately. However, in the case of the road fence 2, the brightness difference with the road surface 3 is often small. In order to prevent extraction omission, it is necessary to sufficiently reduce the edge extraction threshold.

エッジの角度θは、エッジ強度の各方向成分Gx とGy から、下記の式(4)で求まる。 The angle θ of the edge can be obtained by the following formula (4) from the directional components G x and G y of the edge strength.

Figure 2007299414
Figure 2007299414

前述したように、角度θは画面上でのエッジの方向を表し、0度以上360度未満の値をとる。エッジの方向は、輝度の高い方向に対して90度左にずらした方向である。   As described above, the angle θ represents the direction of the edge on the screen, and takes a value of 0 degree or more and less than 360 degree. The direction of the edge is a direction shifted to the left by 90 degrees with respect to the high luminance direction.

最後に、認識率を向上させるために入力画像に施す前処理の説明を行う。画像を入力する手段であるカメラは、周囲が見えやすいようにできるだけ高い位置に設置するのが望ましい。しかし車高の低い車等で、高い位置に設置できない場合も考えられる。この場合、カメラの設置高が低くなるため、図12(a)のように画面上の走行レーンの左右のレーンマークのエッジ成分121同士がなす角度は広がって、レーンマークのエッジ成分121は水平に近い状態になる。このとき、隣のレーンマークやガードレール、さらに隣のレーンを走行する他車両等のノイズのエッジ成分122のエッジ点も同時に水平に近づくため、これらノイズのエッジ成分122のエッジ角度とレーンマークのエッジ成分121のエッジ角度の差が出にくくなる。この状態では、本願発明のレーンマーク認識方法によると、エッジ点の角度情報を用いたノイズの除去が難しくなり認識率が低下する可能性がある。   Finally, a description will be given of preprocessing applied to the input image in order to improve the recognition rate. It is desirable to install a camera as a means for inputting an image at a position as high as possible so that the surroundings can be easily seen. However, it may be possible that the vehicle cannot be installed at a high position, such as a vehicle with a low vehicle height. In this case, since the installation height of the camera is lowered, the angle formed by the edge components 121 of the left and right lane marks of the traveling lane on the screen is widened as shown in FIG. 12A, and the edge component 121 of the lane mark is horizontal. It becomes a state close to. At this time, the edge points of the noise edge component 122 of the adjacent lane mark, guardrail, and other vehicles traveling on the adjacent lane also approach the horizontal simultaneously, so the edge angle of the noise edge component 122 and the edge of the lane mark The difference in edge angle of the component 121 becomes difficult to appear. In this state, according to the lane mark recognition method of the present invention, it is difficult to remove noise using the angle information of the edge points, and the recognition rate may be reduced.

そこで、このような場合に認識率を向上させるための手段として、入力画像の縦横の比率を変更する前処理を行う。具体的には、入力画像を横方向に圧縮するか縦方向に伸張するなどして、図12(b)のように元の入力画像よりも縦横比が縦長となる画像を生成する。この処理はアフィン変換で実現できる。この処理によってレーンマークのエッジ成分121のエッジ角度と、それ以外のノイズのエッジ成分122のエッジ角度との差は大きくなる。   Therefore, as a means for improving the recognition rate in such a case, preprocessing for changing the aspect ratio of the input image is performed. Specifically, by compressing the input image in the horizontal direction or expanding it in the vertical direction, an image having an aspect ratio that is longer than that of the original input image is generated as shown in FIG. This process can be realized by affine transformation. By this processing, the difference between the edge angle of the edge component 121 of the lane mark and the edge angle of the other edge component 122 of noise becomes large.

このため、エッジ点の角度情報を用いたノイズの除去精度が向上し、本願発明のレーンマーク認識方法における認識率の向上に繋がる。また、前記前処理と同様の効果を狙うため、光学系、すなわちカメラのレンズやCCD等の受光部の形状を変更することによってあらかじめ縦長の画像を得るようにしても良い。   For this reason, the noise removal accuracy using the angle information of the edge point is improved, and the recognition rate in the lane mark recognition method of the present invention is improved. In order to achieve the same effect as the pre-processing, a vertically long image may be obtained in advance by changing the shape of the optical system, that is, the light receiving unit such as a camera lens or CCD.

本実施例に係わるレーンマーク認識方法の処理フローを示した図である。It is the figure which showed the processing flow of the lane mark recognition method concerning a present Example. 本実施例の画像入力工程で得られたレーンマークを含む車両前方を示した図である。It is the figure which showed the vehicle front containing the lane mark obtained at the image input process of a present Example. 本実施例に係わるレーンマーク認識方法のレーンマークのエッジ点の方向を示した図である。It is the figure which showed the direction of the edge point of the lane mark of the lane mark recognition method concerning a present Example. 本実施例に係わるレーンマーク認識方法における右上に消失点があるとした場合の消失点に向かっているエッジ点の説明図である。It is explanatory drawing of the edge point which is approaching a vanishing point when there exists a vanishing point in the upper right in the lane mark recognition method concerning a present Example. 本実施例に係わるレーンマーク認識方法のエッジ角度ヒストグラムを説明する図である。It is a figure explaining the edge angle histogram of the lane mark recognition method concerning a present Example. 本実施例に係わるレーンマーク認識方法の直線推定を説明する図である。It is a figure explaining the straight line estimation of the lane mark recognition method concerning a present Example. 本実施例に係わるレーンマーク認識方法における自車両のレーンに対するずれ量Sを説明する図である。It is a figure explaining the deviation | shift amount S with respect to the lane of the own vehicle in the lane mark recognition method concerning a present Example. 本実施例に係わるレーンマーク認識方法における自車両のレーンに対するずれ量Sを求める方法を説明する図である。It is a figure explaining the method of calculating | requiring the deviation | shift amount S with respect to the lane of the own vehicle in the lane mark recognition method concerning a present Example. 本実施例に係わるレーンマーク認識方法の処理フローの過程を示した図である。It is the figure which showed the process of the process flow of the lane mark recognition method concerning a present Example. 本実施例に係わるレーンマーク認識方法を用いたシステム構成ブロック図である。It is a system configuration block diagram using the lane mark recognition method according to the present embodiment. エッジ位置を検出する一手法である3×3ソーベルフィルタ方法の係数行列を示した図である。It is the figure which showed the coefficient matrix of the 3x3 Sobel filter method which is one method of detecting an edge position. 本実施例に係わるレーンマーク認識方法における入力画像に対する前処理を説明する図である。It is a figure explaining the pre-processing with respect to the input image in the lane mark recognition method concerning a present Example.

符号の説明Explanation of symbols

1…白線、2…道路鋲、3…路面、4…エッジ点、5…エッジ点の方向、10…消失点、61…白線の左端、62…白線の右端、63…白線の中心線、71…自車両、81…直線近似線、91…近辺領域、101…レーン認識部、102…レーンキープ制御部、103…レーンキープ実行部、104…カメラ、105…画像処理手段、106…ステアリングアクチュエータ、107…レーン逸脱警報、121…レーンマークのエッジ成分、122…ノイズのエッジ成分。   DESCRIPTION OF SYMBOLS 1 ... White line, 2 ... Road fence, 3 ... Road surface, 4 ... Edge point, 5 ... Edge point direction, 10 ... Vanishing point, 61 ... White line left end, 62 ... White line right end, 63 ... White line centerline, 71 DESCRIPTION OF SYMBOLS: Self-vehicle, 81 ... Linear approximation line, 91 ... Neighborhood area, 101 ... Lane recognition part, 102 ... Lane keep control part, 103 ... Lane keep execution part, 104 ... Camera, 105 ... Image processing means, 106 ... Steering actuator, 107 ... Lane departure warning, 121 ... Lane mark edge component, 122 ... Noise edge component.

Claims (8)

レーンマークを含む画像を入力する画像入力手段と、
前記画像入力工程で入力された入力画像における輝度変化部分であるエッジ点を抽出し、抽出された各エッジ点の方向を表す角度を算出するエッジ抽出手段と、
前記エッジ抽出工程で抽出した前記エッジ点のうち、前記エッジ点の角度が所定の角度もしくは所定の角度範囲内であるものを抽出してレーンマークの位置推定を行うレーンマーク位置推定手段とを有するレーンマーク認識装置。
An image input means for inputting an image including a lane mark;
Edge extraction means for extracting an edge point that is a luminance change portion in the input image input in the image input step, and calculating an angle representing the direction of each extracted edge point;
Lane mark position estimating means for extracting the edge point whose angle is within a predetermined angle or a predetermined angle range from the edge points extracted in the edge extracting step and estimating a lane mark position. Lane mark recognition device.
請求項1記載のレーンマーク認識装置において、
前記レーンマーク位置推定手段において抽出するエッジ点の所定の角度もしくは所定の角度範囲は、各エッジ点の位置に応じて変化することを特徴とするレーンマーク認識装置。
The lane mark recognition apparatus according to claim 1,
The lane mark recognition apparatus according to claim 1, wherein a predetermined angle or a predetermined angle range of the edge point extracted by the lane mark position estimating means changes according to the position of each edge point.
請求項1または請求項2記載のレーンマーク認識装置において、
前記レーンマーク位置推定手段において抽出するエッジ点の所定の角度もしくは所定の角度範囲とは、前記エッジ点と道路の消失点とを結ぶ直線の角度もしくは前記直線の角度から180度ずらした範囲のものであることを特徴とするレーンマーク認識装置。
In the lane mark recognition apparatus according to claim 1 or 2,
The predetermined angle or predetermined angle range of the edge point extracted by the lane mark position estimating means is a straight line connecting the edge point and the vanishing point of the road or a range shifted by 180 degrees from the straight line angle. A lane mark recognition apparatus characterized by
請求項3記載のレーンマーク認識装置において、
前記レーンマーク位置推定手段は、前記消失点から所定の範囲内にあるエッジ点を除外することを特徴とするレーンマーク認識装置。
In the lane mark recognition apparatus according to claim 3,
The lane mark recognition apparatus according to claim 1, wherein the lane mark position estimating means excludes edge points that are within a predetermined range from the vanishing point.
請求項3記載のレーンマーク認識装置において、
前記レーンマーク位置推定手段は、前記消失点に向いている角度を持つエッジ点から角度別のヒストグラムを作成し、出現頻度が所定値以上の角度をもつエッジ点からレーンマークを推定することを特徴とするレーンマーク認識装置。
In the lane mark recognition apparatus according to claim 3,
The lane mark position estimating means creates a histogram for each angle from an edge point having an angle facing the vanishing point, and estimates a lane mark from an edge point having an angle of appearance frequency equal to or greater than a predetermined value. Lane mark recognition device.
請求項4記載のレーンマーク認識装置において、
前記レーンマーク位置推定手段は、前記消失点から所定の範囲外にあるエッジ点のうち、前記消失点に向いている角度を持つエッジ点から角度別のヒストグラムを作成し、出現頻度が所定値以上の角度をもつエッジ点からレーンマークを推定することを特徴とするレーンマーク認識装置。
In the lane mark recognition apparatus according to claim 4,
The lane mark position estimating means creates a histogram for each angle from edge points having an angle facing the vanishing point among edge points outside the predetermined range from the vanishing point, and the appearance frequency is a predetermined value or more. A lane mark recognition apparatus, wherein a lane mark is estimated from edge points having an angle of.
請求項5または請求項6記載のレーンマーク認識装置において、
前記レーンマーク位置推定手段は、前記ヒストグラムから得られた頻度の高い角度のうち、レーン幅から左右のレーンマークの角度を限定することを特徴とするレーンマーク認識装置。
In the lane mark recognition device according to claim 5 or 6,
The lane mark position estimation means limits the angle of the left and right lane marks from the lane width among the high-frequency angles obtained from the histogram.
請求項7記載のレーンマーク認識装置において、
前記レーンマーク位置推定手段は、前記レーンマークの角度をもつエッジ点の分布からレーンマーク位置を直線推定することを特徴とするレーンマーク認識装置。
In the lane mark recognition device according to claim 7,
The lane mark position estimation means linearly estimates a lane mark position from a distribution of edge points having an angle of the lane mark.
JP2007153471A 2001-11-30 2007-06-11 Lane mark recognition device Expired - Lifetime JP4671991B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007153471A JP4671991B2 (en) 2001-11-30 2007-06-11 Lane mark recognition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001365493 2001-11-30
JP2007153471A JP4671991B2 (en) 2001-11-30 2007-06-11 Lane mark recognition device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002173569A Division JP4016735B2 (en) 2001-11-30 2002-06-14 Lane mark recognition method

Publications (2)

Publication Number Publication Date
JP2007299414A true JP2007299414A (en) 2007-11-15
JP4671991B2 JP4671991B2 (en) 2011-04-20

Family

ID=38768792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007153471A Expired - Lifetime JP4671991B2 (en) 2001-11-30 2007-06-11 Lane mark recognition device

Country Status (1)

Country Link
JP (1) JP4671991B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010225125A (en) * 2009-03-25 2010-10-07 Ihi Corp Passage detecting program, and passage detection device and method
US8867845B2 (en) 2009-11-25 2014-10-21 Nec Corporation Path recognition device, vehicle, path recognition method, and path recognition program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149359A (en) * 1992-11-02 1994-05-27 Matsushita Electric Ind Co Ltd Traveling lane detector
JPH0777431A (en) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd Camera attitude parameter calculating method
JPH08159716A (en) * 1994-12-09 1996-06-21 Sumitomo Electric Ind Ltd Calculation method of vanishing point of road, and position/attitude measuring apparatus for vehicle
JPH11195127A (en) * 1998-01-06 1999-07-21 Suzuki Motor Corp Method for recognizing white line and device therefor
JPH11203445A (en) * 1998-01-12 1999-07-30 Matsushita Electric Ind Co Ltd Image processor for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149359A (en) * 1992-11-02 1994-05-27 Matsushita Electric Ind Co Ltd Traveling lane detector
JPH0777431A (en) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd Camera attitude parameter calculating method
JPH08159716A (en) * 1994-12-09 1996-06-21 Sumitomo Electric Ind Ltd Calculation method of vanishing point of road, and position/attitude measuring apparatus for vehicle
JPH11195127A (en) * 1998-01-06 1999-07-21 Suzuki Motor Corp Method for recognizing white line and device therefor
JPH11203445A (en) * 1998-01-12 1999-07-30 Matsushita Electric Ind Co Ltd Image processor for vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010225125A (en) * 2009-03-25 2010-10-07 Ihi Corp Passage detecting program, and passage detection device and method
US8867845B2 (en) 2009-11-25 2014-10-21 Nec Corporation Path recognition device, vehicle, path recognition method, and path recognition program

Also Published As

Publication number Publication date
JP4671991B2 (en) 2011-04-20

Similar Documents

Publication Publication Date Title
JP4016735B2 (en) Lane mark recognition method
EP0827127B1 (en) Local positioning apparatus, and method therefor
KR101864066B1 (en) Lane marking detection device, Lane departure determination device, Lane marking detection method and Lane departure determination method
CN110555361B (en) Image processing method for lane classification
JP3169483B2 (en) Road environment recognition device
Berriel et al. Ego-lane analysis system (elas): Dataset and algorithms
Jung et al. A lane departure warning system using lateral offset with uncalibrated camera
US8670592B2 (en) Clear path detection using segmentation-based method
JP2003296736A (en) Device for detecting obstacle and method thereof
JP2002197444A (en) Run lane recognition device for vehicle
JP2008242571A (en) Object detection device
KR20110001427A (en) High speed road lane detection method based on extraction of roi-lb
KR20090098167A (en) Method and system for detecting lane by using distance sensor
Sultana et al. Vision-based robust lane detection and tracking in challenging conditions
JP3192616B2 (en) Local position grasping apparatus and method
JP4671991B2 (en) Lane mark recognition device
JP2002150302A (en) Road surface recognition device
JP2007293892A (en) Lane marker recognition method
JP2003317106A (en) Travel path recognition device
JP3285575B2 (en) Road region extraction device and method
JP2000048183A (en) Traveling lane recognizing device
Khalifa et al. Vision based road lane detection system for vehicles guidance
Yu et al. An efficient extraction of on-road object and lane information using representation method
JP3120648B2 (en) Environment recognition device for vehicles
Uchimura et al. Recognition of shape models for general roads

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100628

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101117

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110118

R150 Certificate of patent or registration of utility model

Ref document number: 4671991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term