JPH1186199A - Method and device for detecting traffic lane - Google Patents
Method and device for detecting traffic laneInfo
- Publication number
- JPH1186199A JPH1186199A JP9245292A JP24529297A JPH1186199A JP H1186199 A JPH1186199 A JP H1186199A JP 9245292 A JP9245292 A JP 9245292A JP 24529297 A JP24529297 A JP 24529297A JP H1186199 A JPH1186199 A JP H1186199A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- point
- detected
- time
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は走行車線検出方法及
びその装置に関し、特に走行中の自車両の左右両側にあ
る車線を検出する場合に適用し得る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a traveling lane detecting method and apparatus, and more particularly, to a method for detecting lanes on both the left and right sides of a running vehicle.
【0002】[0002]
【従来の技術】従来、自車両の両側にある車線を検出
し、検出した車線に対して自車両がどのような位置を走
行しているかを検出することで、例えば車両の蛇行量や
車線からのはみ出しを検出するような車両走行監視装置
が提案されている。そして蛇行走行や車線からのはみ出
しが検出された場合に運転者に警報を与えることで、運
転者に安全走行を喚起する。2. Description of the Related Art Conventionally, lanes on both sides of a host vehicle are detected, and the position of the host vehicle with respect to the detected lane is detected. There has been proposed a vehicle running monitoring device that detects the protrusion. Then, when a meandering running or a run-out from the lane is detected, a warning is given to the driver to urge the driver to drive safely.
【0003】このとき走行車線を正しく検出することが
重要となる。従来、道路の車線を検出する方法として数
多くの提案がされている。例えば図6に示すようなビデ
オカメラで得た画像の特定領域についてエッジ点Pを探
すことにより図7に示すようなエッジ点画像を得、次に
抽出したエッジ点群をHough変換することにより図
8に示すような直線を求めて目的の車線を検出するよう
になっている(特開昭63−142478号参照)。At this time, it is important to correctly detect the traveling lane. Conventionally, many methods have been proposed as a method for detecting a lane on a road. For example, an edge point image as shown in FIG. 7 is obtained by searching for an edge point P in a specific area of an image obtained by a video camera as shown in FIG. 6, and then a group of extracted edge points is subjected to Hough transform. The target lane is detected by obtaining a straight line as shown in FIG. 8 (see Japanese Patent Application Laid-Open No. 63-142478).
【0004】[0004]
【発明が解決しようとする課題】しかしながら上述した
従来の車線検出方法では、抽出された多数のエッジ点を
Hough変換するので、車線検出までに時間がかかっ
てしまう欠点があった。またHough変換によって抽
出される直線は目的の車線だけでなく、路面の影などに
よる直線(以下、これを背景雑音と呼ぶ)も含むものと
なるため、車線とは異なる直線を車線として検出してし
まうおそれがある。However, in the above-described conventional lane detection method, since a large number of extracted edge points are Hough-transformed, there is a disadvantage that it takes time to detect the lane. Further, since the straight line extracted by the Hough transform includes not only the target lane but also a straight line due to the shadow of the road surface (hereinafter referred to as background noise), a straight line different from the lane is detected as a lane. There is a possibility that it will.
【0005】本発明は以上の点を考慮してなされたもの
で、比較的少ない計算量で車線を的確に検出し得る走行
車線検出方法及びその装置を提案しようとするものであ
る。The present invention has been made in view of the above points, and it is an object of the present invention to propose a traveling lane detecting method and apparatus capable of accurately detecting a lane with a relatively small amount of calculation.
【0006】[0006]
【課題を解決するための手段】かかる課題を解決するた
め本発明により成された請求項1に記載の走行車線検出
方法は、走行している自車両から後側景を撮像し、ある
時点の撮像画像のエッジ点を抽出し、ある時点の撮像画
像において、ある時点の撮像画像に対し所定時間前に撮
像した画像を用いて検出した無限遠点(FOE)を通る
仮想的な2つの直線に挟まれた領域を設定すると共に、
当該設定領域を無限遠点を中心として所定角度ずつ回転
させたときの各設定領域内に存在するエッジ点の個数を
算出し、複数の設定領域の中からエッジ点の個数が所定
の閾値よりも多かった設定領域を車線を検出するための
候補範囲として選択し、選択された各候補範囲毎に候補
範囲内に存在するエッジ点を結ぶ直線を求めることによ
り車線を検出するようにした。According to a first aspect of the present invention, there is provided a method for detecting a traveling lane, comprising the steps of: An edge point of a captured image is extracted, and in a captured image at a certain time point, two virtual straight lines passing through an infinity point (FOE) detected using an image captured a predetermined time before the captured image at a certain time point While setting the sandwiched area,
The number of edge points present in each setting area when the setting area is rotated by a predetermined angle around the point at infinity is calculated, and the number of edge points from a plurality of setting areas is smaller than a predetermined threshold. The lane detection is performed by selecting a large number of setting regions as candidate ranges for detecting a lane, and obtaining a straight line connecting edge points existing in the candidate range for each of the selected candidate ranges.
【0007】また本発明により成された請求項5に記載
の走行車線検出装置は、図1に示すように、走行してい
る自車両の後側景を撮像する撮像手段2と、撮像手段2
により得られた画像を記憶する画像記憶手段4と、ある
時点の撮像画像S1中のエッジ点を抽出するエッジ点抽
出手段3と、ある時点の撮像画像S2において、無限遠
点を通る仮想的な2つの直線に挟まれた領域を設定する
と共に当該設定領域を無限遠点を中心として所定角度ず
つ回転させたときの各設定領域内に存在するエッジ点の
個数を算出するエッジ点個数算出手段6と、複数の設定
領域の中からエッジ点の個数が所定の閾値よりも多かっ
た設定領域を車線を検出するための候補範囲として選択
する候補範囲選択手段7と、選択された各候補範囲毎に
候補範囲内に存在するエッジ点を結ぶ直線を求めること
により車線を検出する直線化手段8とを備えるようにし
た。According to a fifth aspect of the present invention, there is provided a driving lane detecting apparatus according to the present invention, comprising: an image pickup means for picking up an image of a rear view of a running vehicle;
, An edge point extracting means 3 for extracting an edge point in the captured image S1 at a certain time, and a virtual image passing through an infinite point in the captured image S2 at a certain time. Edge point number calculating means 6 for setting an area sandwiched between two straight lines and calculating the number of edge points existing in each set area when the set area is rotated by a predetermined angle around an infinity point. And a candidate range selecting means 7 for selecting, as a candidate range for detecting a lane, a setting region in which the number of edge points is larger than a predetermined threshold from a plurality of setting regions; There is provided a straightening means 8 for detecting a lane by obtaining a straight line connecting the edge points existing in the candidate range.
【0008】以上の構成において、候補範囲選択手段7
により選択される候補範囲は車線のような無限遠点FO
Eから放射状に連続したエッジ点が存在する設定領域に
限られるので、その他のエッジ点はこの時点で有効に処
理対象から削除される。従ってこの候補範囲内のエッジ
点のみで直線を作成し、それを検出車線とすることによ
り、比較的少ない計算量で車線を的確に検出できるよう
になる。In the above arrangement, the candidate range selecting means 7
Is an infinite point FO such as a lane
Since it is limited to the set area in which the edge points radially continuous from E exist, other edge points are effectively deleted from the processing target at this time. Therefore, by forming a straight line only from the edge points within this candidate range and using it as a detected lane, the lane can be accurately detected with a relatively small amount of calculation.
【0009】また本発明により成された請求項2に記載
の走行車線検出方法は、請求項1の方法により前記ある
時点の撮像画像に基づいて検出された2つの検出車線の
なす角度と、ある時点と時間的に異なる時点の撮像画像
に基づいて検出された2つの検出車線のなす角度との差
を求め、当該角度の差が所定の範囲内にあるとき車線が
正しく検出されたと判断するようにした。According to a second aspect of the present invention, there is provided a traveling lane detecting method comprising the steps of: forming an angle between two detected lanes detected based on a captured image at a certain point in time by the method of the first aspect. A difference between an angle formed by two detected lanes detected based on a captured image at a time different from the time and a detected lane is determined, and when the difference between the angles is within a predetermined range, it is determined that the lane is correctly detected. I made it.
【0010】また本発明により成された請求項6に記載
の走行車線検出装置は、図1に示すように、エッジ点抽
出手段3はある時点の撮像画像S2中のエッジ点を抽出
し、エッジ点個数算出手段6はある時点のエッジ点抽出
画像S3について、無限遠点を通る仮想的な2つの直線
に挟まれた領域を設定すると共に当該設定領域を無限遠
点を中心として所定角度ずつ回転させたときの各設定領
域内に存在するエッジ点の個数S4を算出し、候補範囲
選択手段7はある時点のエッジ点抽出画像S3につい
て、複数の設定領域の中からエッジ点の個数S4が所定
の閾値よりも多かった設定領域を車線を検出するための
候補範囲S5として選択し、直線化手段8はある時点の
エッジ点抽出画像S3について、選択された各候補範囲
毎S5に候補範囲内に存在するエッジ点を結ぶ直線S6
を求めることにより車線を検出し、走行車線検出装置1
は、さらに、ある時点の撮像画像S2に基づいて検出さ
れた2つの検出車線S6のなす角度S7Bとある時点よ
りも過去の撮像画像S2に基づいて検出された2つの検
出車線S6のなす角度S7Aとの差を求め、当該角度の
差が所定の範囲内にあるとき車線が正しく検出されたと
判断する妥当性判断手段10を備えるようにした。Further, in the traveling lane detecting device according to the present invention, as shown in FIG. 1, the edge point extracting means 3 extracts an edge point in the captured image S2 at a certain time, and The point number calculation means 6 sets an area between two virtual straight lines passing through the point at infinity, and rotates the set area by a predetermined angle around the point at infinity with respect to the edge point extraction image S3 at a certain point in time. The candidate range selection means 7 calculates the number S4 of edge points existing in each set area when the setting is made, and the candidate range selection unit 7 determines the number S4 of edge points from the plurality of set areas for the edge point extracted image S3 at a certain time. Is selected as a candidate range S5 for detecting a lane, and the straightening means 8 determines whether or not the edge point extracted image S3 at a certain point in time is within the candidate range for each selected candidate range S5. Straight S6 connecting the edge points present
, The lane is detected, and the traveling lane detecting device 1
Is an angle S7B between two detection lanes S6 detected based on the captured image S2 at a certain time and an angle S7A between two detection lanes S6 detected based on the captured image S2 before a certain time. And a validity judging means 10 for judging that the lane has been correctly detected when the angle difference is within a predetermined range.
【0011】以上の構成において、無限遠点FOEから
放射状に連続したエッジ点として、車線以外に路面に映
った影や汚れ等が存在した場合に、妥当性判断手段10
がこれらの背景雑音によるエッジ点と車線によるエッジ
点とを有効に識別して検出車線の妥当性を判断するの
で、車線検出の信頼性を向上させることができるように
なる。In the above configuration, if there is a shadow or dirt reflected on the road surface other than the lane as an edge point radially continuous from the point FOE at infinity, the validity judging means 10
Effectively discriminates between the edge points due to the background noise and the edge points due to the lane to determine the validity of the detected lane, so that the reliability of the lane detection can be improved.
【0012】また本発明により成された請求項3に記載
の走行車線検出方法は、請求項1において、ある時点の
撮像画像に基づいて検出された2つの検出車線のなす角
度が第1の閾値よりも大きくかつ第2の閾値よりも小さ
かったとき車線が正しく検出されたと判断するようにし
た。According to a third aspect of the present invention, there is provided a driving lane detecting method according to the first aspect, wherein the angle between two detected lanes detected based on a captured image at a certain point in time is equal to a first threshold value. When the value is larger than the second threshold value and smaller than the second threshold value, it is determined that the lane is correctly detected.
【0013】また本発明により成された請求項7に記載
の走行車線検出装置は、図1に示すように、請求項5の
構成に加えて、直線化手段8に基づいて検出された2つ
の検出車線S6のなす角度S7Bが第1の閾値よりも大
きくかつ第2の閾値よりも小さかったとき車線が正しく
検出されたと判断する妥当性判断手段11を備えるよう
にした。A traveling lane detecting device according to a seventh aspect of the present invention, as shown in FIG. 1, has two components detected based on the linearizing means 8 in addition to the configuration of the fifth aspect. When the angle S7B formed by the detected lane S6 is larger than the first threshold value and smaller than the second threshold value, a validity judging means 11 is provided for judging that the lane has been correctly detected.
【0014】以上の構成において、無限遠点FOEから
放射状に連続したエッジ点として、車線以外に路面に映
った影や汚れ等が存在した場合に、妥当性判断手段11
がこれらの背景雑音によるエッジ点と車線によるエッジ
点とを有効に識別して検出車線の妥当性を判断するの
で、車線検出の信頼性を向上させることができるように
なる。In the above configuration, if there is a shadow or dirt reflected on the road surface other than the lane as an edge point radially continuous from the point FOE at infinity, the validity judging means 11
Effectively discriminates between the edge points due to the background noise and the edge points due to the lane to determine the validity of the detected lane, so that the reliability of the lane detection can be improved.
【0015】また本発明により成された請求項4に記載
の走行車線検出方法は、請求項1の方法によりある時点
の撮像画像に基づいて検出された2つの検出車線のなす
角度と、前記ある時点と時間的に異なる時点の撮像画像
に基づいて検出された2つの検出車線のなす角度との差
を求め、当該角度の差が所定の範囲内にあり、かつある
時点の撮像画像に基づいて検出された2つの検出車線の
なす角度が第1の閾値よりも大きくかつ第2の閾値より
も小さかったとき、車線が正しく検出されたと判断する
ようにした。According to a fourth aspect of the present invention, there is provided a traveling lane detecting method according to the first aspect, wherein the angle between two detected lanes detected based on a captured image at a certain point in time by the method according to the first aspect is provided. The difference between the detected lane and the angle between the two detected lanes detected based on the captured images at different points in time is determined, and the difference between the angles is within a predetermined range, and based on the captured image at a certain point in time. When the angle between the two detected lanes is larger than the first threshold and smaller than the second threshold, it is determined that the lane has been correctly detected.
【0016】さらに本発明により成された請求項8に記
載の走行車線検出装置は、図1に示すように、エッジ点
抽出手段3はある時点の撮像画像S2中のエッジ点を抽
出し、エッジ点個数算出手段6はある時点のエッジ点抽
出画像S3について、無限遠点を通る仮想的な2つの直
線に挟まれた領域を設定すると共に当該設定領域を無限
遠点を中心として所定角度ずつ回転させたときの各設定
領域内に存在するエッジ点の個数S4を算出し、候補範
囲選択手段7はある時点のエッジ点抽出画像S3につい
て、複数の設定領域の中からエッジ点の個数S4が所定
の閾値よりも多かった設定領域を車線を検出するための
候補範囲S5として選択し、直線化手段8はある時点の
エッジ点抽出画像S3について、選択された各候補範囲
S5毎に候補範囲内に存在するエッジ点を結ぶ直線S6
を求めることにより車線を検出し、走行車線検出装置1
は、さらに、ある時点の撮像画像S2に基づいて検出さ
れた2つの検出車線S6のなす角度S7Bとある時点よ
りも過去の撮像画像S2に基づいて検出された2つの検
出車線S6のなす角度S7Aとの差を求め、当該角度の
差が所定の範囲内にあるとき車線が正しく検出されたと
判断する第1の妥当性判断手段10と、直線化手段8に
基づいて検出された2つの検出車線S6のなす角度S7
Bが第1の閾値よりも大きくかつ第2の閾値よりも小さ
かったとき車線が正しく検出されたと判断する第2の妥
当性判断手段11とを備え、第1及び第2の妥当性判断
手段10、11により共に車線が正しく検出されたこと
を表す判断結果が得られたとき車線が正しく検出された
と判断するようにした。Further, in the driving lane detecting apparatus according to the present invention, as shown in FIG. 1, the edge point extracting means 3 extracts an edge point in the picked-up image S2 at a certain point in time, and The point number calculation means 6 sets an area between two virtual straight lines passing through the point at infinity, and rotates the set area by a predetermined angle around the point at infinity with respect to the edge point extraction image S3 at a certain point in time. The candidate range selection means 7 calculates the number S4 of edge points existing in each set area when the setting is made, and the candidate range selection unit 7 determines the number S4 of edge points from the plurality of set areas for the edge point extracted image S3 at a certain time. Is selected as a candidate range S5 for detecting a lane, and the straightening means 8 determines a candidate range for each of the selected candidate ranges S5 for the edge point extracted image S3 at a certain point in time. Straight S6 connecting the edge points present
, The lane is detected, and the traveling lane detecting device 1
Is an angle S7B between two detection lanes S6 detected based on the captured image S2 at a certain time and an angle S7A between two detection lanes S6 detected based on the captured image S2 before a certain time. First validity determining means 10 for determining that the lane has been correctly detected when the angle difference is within a predetermined range, and two detected lanes detected based on the linearizing means 8. Angle S7 made by S6
A second validity judging means 11 for judging that the lane has been correctly detected when B is larger than the first threshold value and smaller than the second threshold value, and the first and second validity judging means 10 , 11 when it is determined that the lane has been correctly detected, it is determined that the lane has been correctly detected.
【0017】以上の構成において、無限遠点FOEから
放射状に連続したエッジ点として、車線以外に路面に映
った影や汚れ等が存在した場合に、第1及び第2の妥当
性判断手段10、11によりこれらの背景雑音によるエ
ッジ点と車線によるエッジ点とを一段と的確に識別でき
るようになるので、車線検出の信頼性をさらに一段と向
上させることができるようになる。In the above configuration, if there is a shadow or dirt reflected on the road surface other than the lane as an edge point radially continuous from the point FOE at infinity, the first and second validity determination means 10, 11, the edge points due to the background noise and the edge points due to the lane can be more accurately identified, so that the reliability of the lane detection can be further improved.
【0018】[0018]
【発明の実施の形態】以下、図面に基づき本発明の一実
施形態を説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.
【0019】図1において、1は全体として走行車線検
出装置を示し、自車両後方に後ろ向きに取り付けられた
ビデオカメラ2により撮像された撮像信号S1が一旦フ
レームメモリ4に格納された後、撮像画像信号S2とし
てエッジ点抽出回路3に出力される。In FIG. 1, reference numeral 1 denotes a traveling lane detecting device as a whole. An image pickup signal S1 picked up by a video camera 2 mounted rearward behind the host vehicle is temporarily stored in a frame memory 4, and then a picked-up image is obtained. The signal is output to the edge point extraction circuit 3 as a signal S2.
【0020】エッジ点抽出回路3は例えば微分回路でな
り、撮像画像信号S2に基づくある時点のフレーム画像
についてエッジ点を抽出し、これにより得られたエッジ
点画像信号S3をエッジ点個数算出回路6に送出する。The edge point extracting circuit 3 is, for example, a differentiating circuit. The edge point extracting circuit 3 extracts an edge point from a frame image at a certain time point based on the picked-up image signal S2, and converts the obtained edge point image signal S3 into an edge point number calculating circuit 6. To send to.
【0021】またエッジ点個数算出回路6は、エッジ点
画像信号S3と、後述する無限遠点(FOE(Focus Of
Expansion))検出回路5により検出された無限遠点座
標情報S10とを用いて、ある設定領域内のエッジ点の
個数を算出する。ここで無限遠点とは、撮像画像の各点
が全体として収束するような点である。The edge point number calculation circuit 6 outputs the edge point image signal S3 and an infinity point (FOE (Focus Of Focus) described later).
Expansion)) The number of edge points in a certain set area is calculated using the infinite point coordinate information S10 detected by the detection circuit 5. Here, the point at infinity is a point at which each point of the captured image converges as a whole.
【0022】実際上、エッジ点個数算出回路6は、エッ
ジ点画像について、無限遠点を通る仮想的な2つの直線
に挟まれた領域を設定すると共に、当該設定領域を無限
遠点を中心として所定角度ずつ回転させたときの各設定
領域内に存在するエッジ点の個数を算出する。In practice, the edge point number calculation circuit 6 sets an area between two virtual straight lines passing through the point at infinity and sets the set area around the point at infinity in the edge point image. The number of edge points existing in each set area when rotated by a predetermined angle is calculated.
【0023】具体的に説明すると、先ず図2に示すよう
に、エッジ点画像内で所定の探索範囲AR1を定める。
因みに、図2におけるH1及びH2は自車が走行してい
る走行レーンの左右の白線である。なおこの図では白線
H1、H2以外のエッジは示していないが実際には白線
H1、H2のエッジ点以外にも路面に移った影や路面の
汚れ等の多数のエッジ点が存在する。More specifically, as shown in FIG. 2, first, a predetermined search range AR1 is determined in the edge point image.
Incidentally, H1 and H2 in FIG. 2 are white lines on the left and right of the traveling lane in which the vehicle is traveling. In this figure, edges other than the white lines H1 and H2 are not shown, but actually there are many edge points other than the edge points of the white lines H1 and H2 such as shadows transferred to the road surface and road surface dirt.
【0024】次にエッジ点個数算出回路6は、図3に示
すように、無限遠点FOEを通る仮想的な2つの直線に
挟まれた領域AR2を設定する。この実施形態の場合、
この2つの直線の頂角を2[°]として領域AR2を設
定するようになっている。そしてエッジ点個数算出回路
6は、この設定領域AR2を無限遠点FOEを中心とし
て所定角度ずつ回転させ、各回転状態で探索範囲AR1
内でかつ設定領域AR2内に存在するエッジ点の個数を
算出する。この実施形態の場合、設定領域AR2を1
[°]ずつ回転させるようになされている。Next, as shown in FIG. 3, the edge point number calculation circuit 6 sets an area AR2 sandwiched between two virtual straight lines passing through the point FOE at infinity. In this embodiment,
The area AR2 is set with the vertical angle of these two straight lines being 2 [°]. Then, the edge point number calculation circuit 6 rotates the set area AR2 by a predetermined angle around the point FOE at infinity, and in each rotation state, the search range AR1
And the number of edge points existing in the set area AR2. In the case of this embodiment, the setting area AR2 is set to 1
It is made to rotate by [°].
【0025】このとき図3からも明らかなように、エッ
ジ点数が最も多くなるのは無限遠点FOEから放射状に
連続したエッジが存在する場合であり、設定領域AR2
が白線H1や白線H2を含む位置に回転したときに他な
らない。これに対して、無限遠点FOEから放射状に連
続しないようなエッジ点は、エッジ点個数算出回路6の
各回転角度での算出結果にはあまり影響を与えない。At this time, as is apparent from FIG. 3, the number of edge points is largest when there are radially continuous edges from the point FOE at infinity, and the setting area AR2
Is rotated to a position including the white line H1 and the white line H2. On the other hand, an edge point that does not continue radially from the point FOE at infinity does not significantly affect the calculation result of the edge point number calculation circuit 6 at each rotation angle.
【0026】候補範囲選択回路7はエッジ点個数算出回
路6からの各設定領域AR2のエッジ点個数情報S4を
受け、各回転角度の複数の設定領域AR2をエッジ点数
の多かった順に並べ、上位の設定領域AR2を車線を検
出するための候補範囲として選択する。これはエッジ点
の個数が所定の閾値よりも多かった設定領域AR2を車
線を検出するための候補範囲として選択することに相当
する。The candidate range selection circuit 7 receives the edge point number information S4 of each setting area AR2 from the edge point number calculation circuit 6, arranges a plurality of setting areas AR2 of each rotation angle in the order of the number of edge points, and The setting area AR2 is selected as a candidate range for detecting a lane. This corresponds to selecting a setting area AR2 in which the number of edge points is larger than a predetermined threshold value as a candidate range for detecting a lane.
【0027】直線化回路8は候補範囲選択回路7からの
候補範囲選択情報S5を受け、候補範囲として選択され
た設定領域AR2毎に、各設定領域AR2内のエッジ点
群から最小二乗法によって直線を求める。The linearization circuit 8 receives the candidate range selection information S5 from the candidate range selection circuit 7 and, for each set area AR2 selected as a candidate range, calculates a straight line from the edge point group in each set area AR2 by the least square method. Ask for.
【0028】この結果走行車線検出装置1においては、
無限遠点FOEを通る仮想的な2つの直線に挟まれた領
域AR2を設定すると共に、当該設定領域AR2を無限
遠点FOEを中心として所定角度ずつ回転させたときの
各設定領域AR2内に存在するエッジ点の個数を算出
し、複数の設定領域AR2の中からエッジ点の個数が所
定の閾値よりも多かった設定領域AR2を車線を検出す
るための候補範囲として選択し、選択された各候補範囲
AR2毎に候補範囲AR2内に存在するエッジ点を結ぶ
直線を求めることで車線を検出するようにしたことによ
り、比較的少ない計算量で車線を的確に検出できる。As a result, in the traveling lane detecting device 1,
An area AR2 sandwiched between two virtual straight lines passing through the point at infinity FOE is set, and the area AR2 is present in each setting area AR2 when the area AR2 is rotated by a predetermined angle around the point at infinity FOE. The number of edge points to be calculated is calculated, and a setting area AR2 in which the number of edge points is larger than a predetermined threshold value is selected from a plurality of setting areas AR2 as a candidate range for detecting a lane. Since the lane is detected by obtaining a straight line connecting the edge points existing in the candidate range AR2 for each range AR2, the lane can be accurately detected with a relatively small amount of calculation.
【0029】このようにして直線化回路8によって求め
られたエッジ点画像S3についての直線情報(候補車線
情報)S6は角度算出回路9に送出される。角度算出回
路9は直線情報S6により表される直線間のなす角度を
求める。The straight line information (candidate lane information) S6 for the edge point image S3 obtained by the straightening circuit 8 in this manner is sent to the angle calculating circuit 9. The angle calculation circuit 9 calculates the angle between the straight lines represented by the straight line information S6.
【0030】ここで走行車線検出装置1は、上述したよ
うなエッジ点抽出処理、エッジ点個数算出処理、候補範
囲選択処理、直線化処理及び角度算出処理を、所定の計
測インターバル毎に行うようになされている。この実施
形態の場合、1秒のインターバル毎(すなわち30フレ
ーム間隔の撮像画像毎)に行う。Here, the traveling lane detecting device 1 performs the above-described edge point extraction processing, edge point number calculation processing, candidate range selection processing, linearization processing, and angle calculation processing at predetermined measurement intervals. It has been done. In the case of this embodiment, the processing is performed at intervals of one second (that is, at each captured image at intervals of 30 frames).
【0031】この結果、直線化回路8からは現時点の撮
像画像に基づいて検出した車線候補情報と、既に1つ前
の計測インターバルで検出した車線候補情報が順次出力
され、角度算出回路9は現時点の撮像画像に基づいて検
出された2つの候補検出車線のなす角度、及び1つ前の
計測計測インターバルで検出した2つの候補検出車線の
なす角度をそれぞれ求める。すなわち図4(A)に示す
ように過去の撮像画像に基づいて検出された2つの検出
車線L1A、L1Bのなす角度θt-1を求めると共に、
現時点の撮像画像に基づいて検出された2つの検出車線
L2A、L2Bのなす角度θtを求める。As a result, the lane candidate information detected based on the current captured image and the lane candidate information already detected in the immediately preceding measurement interval are sequentially output from the linearization circuit 8, and the angle calculation circuit 9 outputs the current lane candidate information. An angle formed by two candidate detection lanes detected based on the captured image and an angle formed by two candidate detection lanes detected in the immediately preceding measurement measurement interval are obtained. That is, as shown in FIG. 4A, an angle θ t-1 between two detected lanes L1A and L1B detected based on a past captured image is obtained, and
Two detection lanes L2A detected based on the captured image of the current, determining the angle theta t of L2B.
【0032】因みに、図4(B)における現時点の撮像
画像からは、2つの検出車線L2A、L2Bに加えて、
無限遠点FOEから放射状に並んだ路面上の影や汚れ等
でなる雑音エッジ20も検出車線L2Cとして検出され
る。そのため角度算出回路9は検出車線L2Aと検出車
線L2Cのなす角度θt′も算出する。By the way, from the captured image at the present time in FIG. 4B, in addition to the two detected lanes L2A and L2B,
The noise edge 20 composed of shadows, dirt, and the like on the road surface radially arranged from the infinite point FOE is also detected as the detection lane L2C. Therefore, the angle calculation circuit 9 also calculates the angle θ t ′ between the detected lane L2A and the detected lane L2C.
【0033】ここで角度算出回路9により求められた現
時点の撮像画像に関する角度情報S7B(すなわち角度
θt及びθt′)と、過去の撮像画像に関する角度情報S
7A(すなわち角度θt-1)は第1の妥当性判断回路1
0に送出される。[0033] and wherein angle information about the current captured image obtained by the angle calculating circuit 9 S7B (i.e. angle theta t and θ t '), the angle information S about past captured image
7A (that is, the angle θ t-1 ) is the first validity judgment circuit 1
Sent to 0.
【0034】また角度算出回路9により求められた現時
点の撮像画像に関する角度情報S7B(すなわち角度θ
t及びθt′)は、第2の妥当性判断回路11に送出され
る。The angle information S7B (that is, the angle θ) of the current captured image obtained by the angle calculation circuit 9 is obtained.
t and θ t ′) are sent to the second validity judgment circuit 11.
【0035】第1の妥当性判断回路10は、角度θt-1
と角度θtの差(θt-1−θt)、角度θt-1と角度θt′
の差(θt-1−θt′)が所定の範囲内にあるとき車線が
正しく検出されたと判断する。すなわち直線化回路8で
検出された車線が実際の車線であれば、ある程度時間が
経過しても検出された車線のなす角度はそれ程変化しな
いはずであり、大きく変化するものであればそれは車線
以外の直線が検出されたと判断してよいことになる。The first validity judgment circuit 10 calculates the angle θ t-1
The difference between the angle θ t (θ t-1 -θ t), the angle theta t-1 and the angle theta t '
When the difference (θ t−1 −θ t ′) is within a predetermined range, it is determined that the lane has been correctly detected. That is, if the lane detected by the linearization circuit 8 is an actual lane, the angle formed by the detected lane should not change much after a certain period of time. It can be determined that the straight line has been detected.
【0036】因みに、図4からも明らかなように、角度
θt-1と角度θtの差(θt-1−θt)は所定の範囲内に収
まるのでこれらの角度を形成する検出車線L1A、L1
B、L2A、L2Bは正しい検出車線であると判断さ
れ、角度θt-1と角度θt′の差(θt-1−θt′)は所定
の範囲内に収まらないので検出車線L2Cは誤って検出
された雑音エッジであると判断される。[0036] Incidentally, as is apparent from FIG. 4, the difference in the angle theta t-1 and the angle θ t (θ t-1 -θ t) falls within a predetermined range detecting forming these angles lane L1A, L1
B, L2A, L2B will be judged as a correct detection lane, 'the difference (θ t-1 -θ t' angle theta t-1 and the angle theta t) is detected lane L2C does not fall within a predetermined range It is determined that the noise edge is erroneously detected.
【0037】この結果、このような第1の妥当性判断処
理を行うことにより、車線検出の信頼性を向上させるこ
とができる。As a result, the reliability of lane detection can be improved by performing such first validity determination processing.
【0038】第2の妥当性判断回路11は角度θt及び
角度θt′それぞれが、第1の閾値θ 1よりも大きくかつ
第2の閾値θ2よりも小さいか否かを判断する。すなわ
ちθ1<θt<θ2か否かの判断処理を行うと共に、θ1<
θt′<θ2か否かの判断処理を行う。なお第1の閾値θ
1及び第2の閾値θ2は画像上で車線が撮像された場合に
取り得る角度であり、ビデオカメラ2の画角や取付角度
等から定まる値である。図4(B)の例では、角度
θt′はθ1<θt′<θ2を満たさないので検出車線L2
Cは誤って検出された雑音エッジであると判断される。The second validity determination circuit 11 determines the angle θtas well as
Angle θt′ Each have a first threshold θ 1Greater than and
Second threshold θTwoIt is determined whether it is smaller than. Sand
Chi θ1<Θt<ΘTwoIs determined, and θ1<
θt'<ΘTwoA determination is made as to whether or not this is the case. Note that the first threshold θ
1And the second threshold θTwoIs when the lane is captured on the image
This is the angle that can be taken, and the angle of view and mounting angle of the video camera 2.
It is a value determined from the above. In the example of FIG.
θt′ Is θ1<Θt'<ΘTwoIs not satisfied, the detection lane L2
C is determined to be an erroneously detected noise edge.
【0039】この結果、このような第2の妥当性判断処
理を行うことにより、車線検出の信頼性を一段と向上さ
せることができる。As a result, the reliability of lane detection can be further improved by performing the second validity determination process.
【0040】FOE検出回路5は、直線化回路8により
形成された候補車線情報S6を入力すると共に、第1の
妥当性判断回路10から出力される判断結果信号S8及
び第2の妥当性判断回路11から出力される判断結果信
号S9を入力し、候補車線のうち第1及び第2の妥当性
判断回路10、11によって正しい車線であると判断さ
れた左右2本の車線の交点を無限遠点として求める。こ
れにより、少ない計算量で容易に無限遠点を求める求め
ることができる。The FOE detection circuit 5 receives the candidate lane information S6 formed by the linearization circuit 8, inputs the judgment result signal S8 output from the first validity judgment circuit 10, and the second validity judgment circuit. The determination result signal S9 output from the first lane 11 is input, and the intersection of the two left and right lanes determined to be correct lanes by the first and second validity determination circuits 10 and 11 among the candidate lanes is set to an infinity point. Asking. Thus, the point at infinity can be easily obtained with a small amount of calculation.
【0041】従って、エッジ点個数算出回路6で用いら
れる無限遠点は、ある時点tよりも前の時点t−1で撮
像した画像から検出した車線を使って求められたものと
なる。すなわち、ある時点tの撮像画像中で使用する無
限遠点は、t−1の時点で求めたものとなる。なお一番
最初の無限遠点は、従来の一般的な方法と同様に2コマ
の撮像画像を用い、各点が時間と共に収束する点を求め
ることで検出すればよく、2回目以降は、1つ前の無限
遠点を使いながら上述したような方法で車線を検出して
いく。Accordingly, the point at infinity used in the edge point number calculation circuit 6 is obtained using the lane detected from the image captured at the time point t-1 before the certain time point t. That is, the point at infinity used in the captured image at a certain time point t is obtained at the time point t-1. Note that the first point at infinity can be detected by using two frames of captured images in the same manner as in a conventional general method and finding a point at which each point converges with time. The lane is detected by the method described above while using the point at infinity immediately before.
【0042】以上の構成において、走行車線検出装置1
は、図5に示すような動作を行うことにより、比較的少
ない計算量で走行車線を的確に検出する。すなわち先ず
ステップSP1においてビデオカメラ2によって道路走
行画像St(ここでStは時点tにおける道路走行画像を
表す)を取得し、続くステップSP2においてエッジ点
抽出回路3によってこの道路走行画像Stのエッジ点を
抽出する。In the above configuration, the traveling lane detecting device 1
Performs the operation shown in FIG. 5 to accurately detect the traveling lane with a relatively small amount of calculation. That is, first by the video camera 2 road running image S t (where S t represents the road-image at time t) acquires at step SP1, the edge point extraction circuit 3 in the subsequent step SP2 of the road-image S t Extract edge points.
【0043】次にステップSP3において、エッジ点個
数算出回路6が、FOE検出回路5によって検出された
時点t−1での無限遠点FOE(St-1)を用いて、こ
の無限遠点FOE(St-1)を通る仮想的な2つの直線
に挟まれた領域AR2を設定すると共に、当該設定領域
AR2を無限遠点FOE(St-1)を中心として所定角
度ずつ回転させたときの各設定領域AR2内に存在する
エッジ点の個数を算出する。Next, in step SP3, the edge point number calculation circuit 6 uses the infinity point FOE (St -1 ) at the time point t-1 detected by the FOE detection circuit 5 to calculate the infinity point FOE. When an area AR2 sandwiched between two virtual straight lines passing through ( St-1 ) is set, and the set area AR2 is rotated by a predetermined angle around an infinite point FOE (St -1 ). The number of edge points existing in each set area AR2 is calculated.
【0044】次にステップSP4において、候補範囲選
択回路7によってエッジ点の個数が所定の閾値よりも多
かった設定領域AR2を車線を検出するための候補範囲
として選択し、続くステップSP5において直線化回路
8によって候補範囲として選択された設定領域AR2毎
に各設定領域AR2内のエッジ点群から最小二乗法によ
って直線を求める。Next, in step SP4, the candidate area selection circuit 7 selects the set area AR2 in which the number of edge points is larger than a predetermined threshold value as a candidate area for detecting a lane. 8, a straight line is obtained from the edge point group in each setting area AR2 by the least square method.
【0045】次にステップSP6において、第1及び第
2の妥当性判断回路10及び11によって検出した車線
の妥当性を判断する。ステップSP7では、FOE検出
回路5が第1及び第2の妥当性判断回路10、11によ
って正しい車線であると判断された左右2本の車線の交
点を無限遠点FOE(St)として求め、この無限遠点
FOE(St)が次の時点t+1での車線検出に用いら
れる。Next, in step SP6, the validity of the lane detected by the first and second validity determination circuits 10 and 11 is determined. In step SP7, obtain the intersection of the determined left and right two lanes and FOE detecting circuit 5 is the correct lane by the first and second validity judgment circuits 10 and 11 as the point at infinity FOE (S t), the infinity point FOE (S t) is used for lane detection in next time t + 1.
【0046】かくして以上の構成によれば、無限遠点F
OEを通る仮想的な2つの直線に挟まれた領域AR2を
設定すると共に、当該設定領域AR2を無限遠点FOE
を中心として所定角度ずつ回転させたときの各設定領域
AR2内に存在するエッジ点の個数を算出し、複数の設
定領域AR2の中からエッジ点の個数が所定の閾値より
も多かった設定領域AR2を車線を検出するための候補
範囲として選択し、選択された各候補範囲AR2毎に候
補範囲AR2内に存在するエッジ点を結ぶ直線を求める
ことで車線を検出するようにしたことにより、比較的少
ない計算量で車線を的確に検出することができる。Thus, according to the above configuration, the point at infinity F
An area AR2 sandwiched between two virtual straight lines passing through the OE is set, and the set area AR2 is set to an infinite point FOE.
, The number of edge points existing in each setting area AR2 when rotated by a predetermined angle around the center is calculated, and the setting area AR2 in which the number of edge points is larger than a predetermined threshold value from among the plurality of setting areas AR2 Is selected as a candidate range for detecting a lane, and a lane is detected by obtaining a straight line connecting edge points existing in the candidate range AR2 for each of the selected candidate ranges AR2. The lane can be accurately detected with a small amount of calculation.
【0047】また第1及び第2の妥当性判断回路10及
び11を設け、直線化回路8までで検出した車線の妥当
性を判断したことにより、車線検出の信頼性を一段と向
上させることができる。Further, the first and second validity judgment circuits 10 and 11 are provided, and the validity of the lane detected by the straightening circuit 8 is judged, so that the reliability of the lane detection can be further improved. .
【0048】なお上述の実施形態においては、第1及び
第2の妥当性判断回路10及び11を設けた場合につい
て述べたが、本発明はこれに限らず、これらのうち一方
のみを設けるようにしても、上述の実施形態とほぼ同様
の効果を得ることができる。In the above embodiment, the case where the first and second validity judgment circuits 10 and 11 are provided has been described. However, the present invention is not limited to this, and only one of them is provided. However, almost the same effects as those of the above embodiment can be obtained.
【0049】ここで第2の妥当性判断回路11のみを設
ける場合には、エッジ点抽出回路6、候補範囲選択回路
7、直線化回路8及び角度算出回路9において2つの時
点の撮像画像についての処理を行わずに、ある一つの時
点の処理を順次行うだけで済むようになる。When only the second validity judging circuit 11 is provided, the edge point extracting circuit 6, the candidate range selecting circuit 7, the linearizing circuit 8 and the angle calculating circuit 9 perform the processing for the picked-up images at two time points. Instead of performing the processing, it is only necessary to sequentially perform the processing at a certain point in time.
【0050】[0050]
【発明の効果】上述のように請求項1及び請求項5に記
載の発明によれば、無限遠点を通る仮想的な2つの直線
に挟まれた領域を設定すると共に、当該設定領域を無限
遠点を中心として所定角度ずつ回転させたときの各設定
領域内に存在するエッジ点の個数を算出し、複数の設定
領域の中からエッジ点の個数が所定の閾値よりも多かっ
た設定領域を車線を検出するための候補範囲として選択
し、選択された各候補範囲毎に候補範囲内に存在するエ
ッジ点を結ぶ直線を求めることで車線を検出するように
したことにより、比較的少ない計算量で車線を的確に検
出し得る走行車線検出方法及びその装置を実現できる。As described above, according to the first and fifth aspects of the present invention, an area between two virtual straight lines passing through the point at infinity is set, and the set area is set to infinity. Calculate the number of edge points present in each setting area when rotated by a predetermined angle around the far point, and set the setting area in which the number of edge points is larger than a predetermined threshold among a plurality of setting areas. A relatively small amount of calculation is performed by selecting as a candidate range for detecting a lane and detecting a lane by obtaining a straight line connecting edge points existing in the candidate range for each of the selected candidate ranges. Thus, it is possible to realize a traveling lane detecting method and device capable of accurately detecting a lane.
【0051】また請求項2及び請求項6に記載の発明に
よれば、ある時点の撮像画像に基づいて検出された2つ
の検出車線のなす角度と、ある時点と時間的に異なる時
点の撮像画像に基づいて検出された2つの検出車線のな
す角度との差を求め、当該角度の差が所定の範囲内にあ
るとき車線が正しく検出されたと判断するようにしたこ
とにより、車線検出の信頼性を向上させることができる
走行車線検出方法及びその装置を実現できる。According to the second and sixth aspects of the present invention, the angle between two detected lanes detected based on the captured image at a certain point in time and the captured image at a point in time different from the certain point in time. The difference between the two detected lanes detected based on the detected lane, and when the difference between the angles is within a predetermined range, it is determined that the lane has been correctly detected. Traffic lane detection method and device capable of improving the driving lane can be realized.
【0052】また請求項3及び請求項7に記載の発明に
よれば、ある時点の撮像画像に基づいて検出された2つ
の検出車線のなす角度が第1の閾値よりも大きくかつ第
2の閾値よりも小さかったとき車線が正しく検出された
と判断するようにしたことにより、車線検出の信頼性を
向上させることができる走行車線検出方法及びその装置
を実現できる。According to the third and seventh aspects of the present invention, the angle between two detected lanes detected based on a captured image at a certain point in time is larger than the first threshold value and the second threshold value. By determining that the lane has been correctly detected when the lane is smaller than the above, it is possible to realize a traveling lane detecting method and apparatus capable of improving the reliability of lane detection.
【0053】さらに請求項4及び請求項8に記載の発明
によれば、ある時点の撮像画像に基づいて検出された2
つの検出車線のなす角度と、前記ある時点と時間的に異
なる時点の撮像画像に基づいて検出された2つの検出車
線のなす角度との差を求め、当該角度の差が所定の範囲
内にあり、かつある時点の撮像画像に基づいて検出され
た2つの検出車線のなす角度が第1の閾値よりも大きく
かつ第2の閾値よりも小さかったとき、車線が正しく検
出されたと判断するようにしたことにより、車線検出の
信頼性をさらに一段と向上させることができる走行車線
検出方法及びその装置を実現できる。Further, according to the invention described in claim 4 and claim 8, the second detection based on the picked-up image at a certain point in time is performed.
The difference between the angle between the two detected lanes and the angle between the two detected lanes detected based on the captured image at a point in time different from the certain point in time is determined, and the difference between the angles is within a predetermined range. When the angle between two detected lanes detected based on a captured image at a certain time is larger than the first threshold and smaller than the second threshold, it is determined that the lane has been correctly detected. Thus, it is possible to realize a traveling lane detection method and a traveling lane detection method that can further improve the reliability of lane detection.
【図1】本発明による走行車線検出装置の全体構成を示
すブロック図である。FIG. 1 is a block diagram showing an entire configuration of a traveling lane detecting device according to the present invention.
【図2】エッジ点個数の探索範囲を示す略線図である。FIG. 2 is a schematic diagram illustrating a search range of the number of edge points.
【図3】エッジ点個数算出回路がエッジ点を検出する設
定領域を示す略線図である。FIG. 3 is a schematic diagram illustrating a setting area in which an edge point number calculation circuit detects an edge point;
【図4】検出車線の妥当性判断処理の説明に供する略線
図である。FIG. 4 is a schematic diagram for explaining a process of determining the validity of a detected lane.
【図5】走行車線検出装置の動作の説明に供するフロー
チャートである。FIG. 5 is a flowchart for explaining the operation of the traveling lane detecting device.
【図6】従来の車線検出用のビデオカメラで撮像された
画像を示す図である。FIG. 6 is a diagram showing an image captured by a conventional lane detection video camera.
【図7】エッジ点画像を示す略線図である。FIG. 7 is a schematic diagram illustrating an edge point image.
【図8】Hough変換により得られる直線を示す略線
図である。FIG. 8 is a schematic diagram illustrating a straight line obtained by the Hough transform.
1 …… 走行車線検出装置 2 …… ビデオカメラ(撮像手段) 3 …… エッジ抽出回路(エッジ点抽出手段) 4 …… フレームメモリ(画像記憶手段) 5 …… FOE検出回路(FOE検出手段) 6 …… エッジ点個数算出回路(エッジ点個数算出手
段) 7 …… 候補範囲選択回路(候補範囲選択手段) 8 …… 直線化回路(直線化手段) 9、10、11 …… 角度算出回路、第1の妥当性判
断回路、第2の妥当性判断回路(妥当性判断手段)DESCRIPTION OF SYMBOLS 1 ... Lane detecting device 2 ... Video camera (imaging means) 3 ... Edge extraction circuit (edge point extraction means) 4 ... Frame memory (image storage means) 5 ... FOE detection circuit (FOE detection means) 6 ... Edge point number calculation circuit (edge point number calculation means) 7... Candidate range selection circuit (candidate range selection means) 8... Linearization circuit (linearization means) 9, 10, 11. 1st validity judgment circuit, 2nd validity judgment circuit (validity judgment means)
Claims (8)
し、 ある時点の撮像画像のエッジ点を抽出し、 前記ある時点の撮像画像において、前記ある時点の撮像
画像に対し所定時間前に撮像した画像を用いて検出した
無限遠点(FOE)を通る仮想的な2つの直線に挟まれ
た領域を設定すると共に、当該設定領域を前記無限遠点
を中心として所定角度ずつ回転させたときの各設定領域
内に存在する前記エッジ点の個数を算出し、 複数の前記設定領域の中から、エッジ点の個数が所定の
閾値よりも多かった設定領域を車線を検出するための候
補範囲として選択し、 選択された各候補範囲毎に、候補範囲内に存在するエッ
ジ点を結ぶ直線を求めることにより車線を検出すること
を特徴とする走行車線検出方法。1. An image of a rear side view is taken from a running own vehicle, and an edge point of a captured image at a certain point in time is extracted. The region between two virtual straight lines passing through the point at infinity (FOE) detected using the captured image is set, and the set region is rotated by a predetermined angle around the point at infinity. The number of the edge points present in each set area at the time of calculating the candidate area for detecting the lane in the set area in which the number of the edge points is larger than the predetermined threshold from among the plurality of set areas And detecting a lane by obtaining a straight line connecting the edge points existing in the candidate range for each of the selected candidate ranges.
像画像に基づいて検出された2つの検出車線のなす角度
と、ある時点と時間的に異なる時点の撮像画像に基づい
て検出された2つの検出車線のなす角度との差を求め、 前記角度の差が所定の範囲内にあるとき、車線が正しく
検出されたと判断することを特徴とする請求項1に記載
の走行車線検出方法。2. An angle between two detected lanes detected based on the captured image at a certain point in time according to the method of claim 1, and two angles detected based on the captured image at a point in time different from a certain point in time. The traveling lane detecting method according to claim 1, wherein a difference between the detected lane and an angle between the detected lanes is determined, and when the difference between the angles is within a predetermined range, it is determined that the lane is correctly detected.
された2つの検出車線のなす角度が第1の閾値よりも大
きくかつ第2の閾値よりも小さかったとき、車線が正し
く検出されたと判断することを特徴とする請求項1に記
載の走行車線検出方法。3. When the angle between two detected lanes detected based on the captured image at a certain point in time is larger than a first threshold and smaller than a second threshold, it is determined that the lane has been correctly detected. The driving lane detecting method according to claim 1, wherein
像に基づいて検出された2つの検出車線のなす角度と、
前記ある時点と時間的に異なる時点の撮像画像に基づい
て検出された2つの検出車線のなす角度との差を求め、 前記角度の差が所定の範囲内にあり、かつ前記ある時点
の撮像画像に基づいて検出された2つの検出車線のなす
角度が第1の閾値よりも大きくかつ第2の閾値よりも小
さかったとき、車線が正しく検出されたと判断すること
を特徴とする請求項1に記載の走行車線検出方法。4. An angle between two detected lanes detected based on a captured image at a certain time according to the method of claim 1,
The difference between the angle formed by the two detected lanes detected based on the captured images at different times in time and the certain time is obtained, and the difference between the angles is within a predetermined range, and the captured image at the certain time is obtained. The lane is determined to be correctly detected when an angle between two detected lanes detected based on the threshold value is larger than a first threshold value and smaller than a second threshold value. Traffic lane detection method.
撮像手段と、 前記撮像手段により得られた画像を記憶する画像記憶手
段と、 ある時点の撮像画像中のエッジ点を抽出するエッジ点抽
出手段と、 前記ある時点の撮像画像において、無限遠点(FOE)
を通る仮想的な2つの直線に挟まれた領域を設定すると
共に、当該設定領域を前記無限遠点を中心として所定角
度ずつ回転させたときの各設定領域内に存在する前記エ
ッジ点の個数を算出するエッジ点個数算出手段と、 複数の前記設定領域の中から、エッジ点の個数が所定の
閾値よりも多かった設定領域を車線を検出するための候
補範囲として選択する候補範囲選択手段と、 選択された各候補範囲毎に、候補範囲内に存在するエッ
ジ点を結ぶ直線を求めることにより車線を検出する直線
化手段とを具えることを特徴とする走行車線検出装置。5. An image pickup means for picking up an image of a rear side view of a running vehicle, an image storage means for storing an image obtained by the image pickup means, and an edge point in a picked-up image at a certain point in time is extracted. An edge point extracting means, and a point at infinity (FOE) in the captured image at a certain point in time.
Is set between two virtual straight lines passing through, and the number of the edge points present in each setting area when the setting area is rotated by a predetermined angle around the point at infinity. Edge point number calculating means to be calculated; and, from a plurality of the setting areas, a candidate range selecting means for selecting a setting area in which the number of edge points is larger than a predetermined threshold value as a candidate range for detecting a lane; A travel lane detecting device comprising: a straightening means for detecting a lane by obtaining a straight line connecting edge points existing in the candidate range for each of the selected candidate ranges.
の撮像画像中のエッジ点を抽出し、 前記エッジ点個数算出手段は、ある時点のエッジ点抽出
画像について、前記無限遠点を通る仮想的な2つの直線
に挟まれた領域を設定すると共に当該設定領域を前記無
限遠点を中心として所定角度ずつ回転させたときの各設
定領域内に存在する前記エッジ点の個数を算出し、 前記候補範囲選択手段は、ある時点のエッジ点抽出画像
について、複数の前記設定領域の中からエッジ点の個数
が所定の閾値よりも多かった設定領域を車線を検出する
ための候補範囲として選択し、 前記直線化手段は、ある時点のエッジ点抽出画像につい
て、選択された各候補範囲毎に候補範囲内に存在するエ
ッジ点を結ぶ直線を求めることにより車線を検出し、 さらに、 前記ある時点の撮像画像に基づいて検出された2つの検
出車線のなす角度と、前記ある時点よりも過去の撮像画
像に基づいて検出された2つの検出車線のなす角度との
差を求め、当該角度の差が所定の範囲内にあるとき車線
が正しく検出されたと判断する妥当性判断手段を具える
ことを特徴とする請求項5に記載の走行車線検出装置。6. The edge point extracting means extracts an edge point in the captured image at a certain point in time, and the edge point number calculating means determines a virtual point passing through the point at infinity for the edge point extracted image at a certain point in time. Calculating the number of the edge points present in each setting area when the setting area is rotated by a predetermined angle around the infinity point at the same time as setting the area between the two straight lines, The candidate range selecting means selects, as a candidate range for detecting a lane, a setting region in which the number of edge points is larger than a predetermined threshold from a plurality of the setting regions, for an edge point extraction image at a certain time, The straightening means detects a lane by obtaining a straight line connecting the edge points existing in the candidate range for each of the selected candidate ranges with respect to the edge point extracted image at a certain point in time. A difference between an angle formed by two detection lanes detected based on a captured image at a certain time and an angle formed by two detection lanes detected based on a captured image earlier than the certain time is calculated. 6. The travel lane detecting device according to claim 5, further comprising a validity determining means for determining that the lane is correctly detected when the difference between the two is within a predetermined range.
つの検出車線のなす角度が第1の閾値よりも大きくかつ
第2の閾値よりも小さかったとき、車線が正しく検出さ
れたと判断する妥当性判断手段を具えることを特徴とす
る請求項5に記載の走行車線検出装置。7. A method according to claim 1, wherein said second detection means detects the second detection based on said linearization means.
6. The apparatus according to claim 5, further comprising a validity judging means for judging that the lane has been correctly detected when the angle between the two detected lanes is larger than the first threshold value and smaller than the second threshold value. Traffic lane detection device.
の撮像画像中のエッジ点を抽出し、 前記エッジ点個数算出手段は、ある時点のエッジ点抽出
画像について、前記無限遠点を通る仮想的な2つの直線
に挟まれた領域を設定すると共に当該設定領域を前記無
限遠点を中心として所定角度ずつ回転させたときの各設
定領域内に存在する前記エッジ点の個数を算出し、 前記候補範囲選択手段は、ある時点のエッジ点抽出画像
について、複数の前記設定領域の中からエッジ点の個数
が所定の閾値よりも多かった設定領域を車線を検出する
ための候補範囲として選択し、 前記直線化手段は、ある時点のエッジ点抽出画像につい
て、選択された各候補範囲毎に候補範囲内に存在するエ
ッジ点を結ぶ直線を求めることにより車線を検出し、 さらに、 前記ある時点の撮像画像に基づいて検出された2つの検
出車線のなす角度と、前記ある時点よりも過去の撮像画
像に基づいて検出された2つの検出車線のなす角度との
差を求め、当該角度の差が所定の範囲内にあるとき車線
が正しく検出されたと判断する第1の妥当性判断手段
と、 前記直線化手段に基づいて検出された2つの検出車線の
なす角度が第1の閾値よりも大きくかつ第2の閾値より
も小さかったとき、車線が正しく検出されたと判断する
第2の妥当性判断手段と、 を具え、前記第1及び第2の妥当性判断手段により共に
車線が正しく検出されたことを表す判断結果が得られた
とき、車線が正しく検出されたと判断することを特徴と
する請求項5に記載の走行車線検出装置。8. The edge point extracting means extracts an edge point in the captured image at a certain point in time, and the edge point number calculating means calculates a virtual point passing through the point at infinity for the edge point extracted image at a certain point in time. Calculating the number of the edge points present in each setting area when the setting area is rotated by a predetermined angle around the infinity point at the same time as setting the area between the two straight lines, The candidate range selecting means selects, as a candidate range for detecting a lane, a setting region in which the number of edge points is larger than a predetermined threshold from a plurality of the setting regions, for an edge point extraction image at a certain time, The straightening means detects a lane by obtaining a straight line connecting the edge points present in the candidate range for each of the selected candidate ranges with respect to the edge point extracted image at a certain point in time. A difference between an angle formed by two detected lanes detected based on a captured image at a certain point in time and an angle formed by two detected lanes detected based on a captured image earlier than the certain point in time is calculated. A first validity determining unit that determines that the lane has been correctly detected when the difference between the two is within a predetermined range; and an angle formed by the two detected lanes detected based on the linearization unit is smaller than a first threshold. And a second validity judging means for judging that the lane is correctly detected when the lane is larger than the second threshold value, and the lane is correctly detected by both the first and second validity judging means. The travel lane detecting device according to claim 5, wherein when a determination result indicating that the lane has been obtained is obtained, it is determined that the lane has been correctly detected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24529297A JP3760426B2 (en) | 1997-09-10 | 1997-09-10 | Traveling lane detection method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24529297A JP3760426B2 (en) | 1997-09-10 | 1997-09-10 | Traveling lane detection method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1186199A true JPH1186199A (en) | 1999-03-30 |
JP3760426B2 JP3760426B2 (en) | 2006-03-29 |
Family
ID=17131504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24529297A Expired - Lifetime JP3760426B2 (en) | 1997-09-10 | 1997-09-10 | Traveling lane detection method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3760426B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003228711A (en) * | 2001-11-30 | 2003-08-15 | Hitachi Ltd | Lane mark recognition method |
JP2009169618A (en) * | 2008-01-15 | 2009-07-30 | Toyota Central R&D Labs Inc | Roadside interface detection device |
JP2011198002A (en) * | 2010-03-19 | 2011-10-06 | Aisin Aw Co Ltd | Object image recognition apparatus for vehicle, object image recognition method for vehicle, and computer program |
JP2012164288A (en) * | 2011-02-09 | 2012-08-30 | Fuji Heavy Ind Ltd | White line recognizing device for vehicle |
US8520954B2 (en) | 2010-03-03 | 2013-08-27 | Denso Corporation | Apparatus for detecting lane-marking on road |
JP2020017001A (en) * | 2018-07-24 | 2020-01-30 | スタンレー電気株式会社 | Vehicle system |
CN111241894A (en) * | 2018-11-28 | 2020-06-05 | 海信集团有限公司 | Method for detecting lane line and vehicle-mounted equipment |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102650906B1 (en) * | 2022-11-11 | 2024-03-27 | 이인텔리전스 주식회사 | Detecting traffic lane apparatus and method |
-
1997
- 1997-09-10 JP JP24529297A patent/JP3760426B2/en not_active Expired - Lifetime
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003228711A (en) * | 2001-11-30 | 2003-08-15 | Hitachi Ltd | Lane mark recognition method |
JP2009169618A (en) * | 2008-01-15 | 2009-07-30 | Toyota Central R&D Labs Inc | Roadside interface detection device |
US8520954B2 (en) | 2010-03-03 | 2013-08-27 | Denso Corporation | Apparatus for detecting lane-marking on road |
JP2011198002A (en) * | 2010-03-19 | 2011-10-06 | Aisin Aw Co Ltd | Object image recognition apparatus for vehicle, object image recognition method for vehicle, and computer program |
JP2012164288A (en) * | 2011-02-09 | 2012-08-30 | Fuji Heavy Ind Ltd | White line recognizing device for vehicle |
JP2020017001A (en) * | 2018-07-24 | 2020-01-30 | スタンレー電気株式会社 | Vehicle system |
CN111241894A (en) * | 2018-11-28 | 2020-06-05 | 海信集团有限公司 | Method for detecting lane line and vehicle-mounted equipment |
Also Published As
Publication number | Publication date |
---|---|
JP3760426B2 (en) | 2006-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022078463A1 (en) | Vehicle-based obstacle detection method and device | |
JP4157620B2 (en) | Moving object detection apparatus and method | |
JP2020052694A (en) | Object detection apparatus, object detection method, and computer program for object detection | |
US11157753B2 (en) | Road line detection device and road line detection method | |
CN112598743B (en) | Pose estimation method and related device for monocular vision image | |
JP2003098424A (en) | Range finder based on image processing | |
CN111967396A (en) | Processing method, device and equipment for obstacle detection and storage medium | |
JP2001091247A (en) | Inspection method for distance data and inspecting device for them | |
JP3656056B2 (en) | Interrupting vehicle detection device and method | |
JPH1186199A (en) | Method and device for detecting traffic lane | |
JPH11195127A (en) | Method for recognizing white line and device therefor | |
WO2022179016A1 (en) | Lane detection method and apparatus, device, and storage medium | |
JP2002104113A (en) | Rear monitoring device | |
JPH10320559A (en) | Traveling path detector for vehicle | |
JP2001180404A (en) | Rear monitor for vehicle | |
JP2004258981A (en) | Vehicle monitoring method and device | |
JP2002027480A (en) | Dynamic image processing method and apparatus thereof | |
JPH0757200A (en) | Method and device for recognizing travel course | |
JP2000242900A (en) | Device for detecting interruption vehicle | |
JP7062959B2 (en) | Vehicle detectors, vehicle detection methods, and vehicle detection programs | |
JPH07114688A (en) | Method for recognizing vehicle registered number | |
JPH1153698A (en) | Travel lane track recognition device | |
JP2002042140A (en) | Moving object measuring device and traffic flow measured image processing device | |
JPH0883392A (en) | Method and device for detecting vehicle | |
JP2006078261A (en) | Object detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20031209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051220 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20051228 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20051228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051228 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100120 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100120 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110120 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110120 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120120 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120120 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130120 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140120 Year of fee payment: 8 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140120 Year of fee payment: 8 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |