JP2013120458A - Road shape estimating device and program - Google Patents

Road shape estimating device and program Download PDF

Info

Publication number
JP2013120458A
JP2013120458A JP2011267388A JP2011267388A JP2013120458A JP 2013120458 A JP2013120458 A JP 2013120458A JP 2011267388 A JP2011267388 A JP 2011267388A JP 2011267388 A JP2011267388 A JP 2011267388A JP 2013120458 A JP2013120458 A JP 2013120458A
Authority
JP
Japan
Prior art keywords
line
road
edge line
road shape
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011267388A
Other languages
Japanese (ja)
Other versions
JP5799784B2 (en
Inventor
Kazufumi Nakayama
收文 中山
Munehisa Agari
宗久 上利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011267388A priority Critical patent/JP5799784B2/en
Publication of JP2013120458A publication Critical patent/JP2013120458A/en
Application granted granted Critical
Publication of JP5799784B2 publication Critical patent/JP5799784B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely estimate a road shape from a photographed image of a road surface, without being affected by auxiliary lines due to degradation in resolution, even in the case of a multiple-lane road having the auxiliary lines painted in parallel with lane division lines.SOLUTION: A road shape estimating device includes: an edge detecting section 911 for detecting a plurality of edge lines from a photographed image of a road surface of a road to generate composite edge lines by combining one or more edge lines out of the detected edge lines; a road shape estimating section 912 for obtaining road shape parameters of the road, including a crosswise offset of a camera having photographed the road surface, and a road width, on the basis of information on the inner side composite edge lines that are closest to a center of the road; a correction amount estimating section 914 for obtaining a correction amount on the basis of a distance between the inner side composite edge lines and the outer side composite edge lines positioned on the outer side of the inner side composite edge lines, and storing the correction amount in a storage section 915; and a correcting section 913 for correcting the crosswise offset and the road width by employing the correction amount.

Description

本発明は、道路形状推定装置及びプログラムに関する。   The present invention relates to a road shape estimation device and a program.

カメラを車両の進行方向又は進行方向と逆向きに取り付け、撮影された映像に含まれる車線区分線を検出して、車線区分線の情報から走行車線と車両との位置関係を求め、道路形状を推定する方法は古くから研究・開発されている。   Mount the camera in the direction of travel of the vehicle or in the direction opposite to the direction of travel, detect the lane markings included in the captured image, determine the positional relationship between the driving lane and the vehicle from the lane marking information, and determine the road shape The estimation method has been researched and developed for a long time.

例えば、カメラで撮影した車両前方の路面画像から、縦方向に複数個所で横方向に画像を走査し、輝度(濃淡)の変化箇所として車線区分線のエッジを検出し、エッジ情報に基づいて走行車線と車両との位置関係を推定する方法が知られている。この方法では、画像から検出されたエッジ点を縦方向に繋ぐことで車線区分線を識別し、道路形状モデルと車線区分線の位置とを照合して路面上の車線区分線の位置が決定される。   For example, from a road surface image taken in front of a vehicle photographed by a camera, images are scanned in a plurality of places in the vertical direction in the horizontal direction, the edges of the lane markings are detected as luminance (shading) change points, and the vehicle travels based on the edge information. A method for estimating the positional relationship between a lane and a vehicle is known. In this method, the lane markings are identified by connecting the edge points detected from the image in the vertical direction, and the position of the lane markings on the road surface is determined by comparing the road shape model with the position of the lane markings. The

カーブ路の路面上には、車線区分線と平行に減速を促すための補助線(減速補助マーカ)がペイントされている場合がある。この補助線としては、例えば、車線区分線に用いられる破線より短い破線ブロックの列が用いられる。   On the road surface of the curved road, an auxiliary line (deceleration auxiliary marker) for promoting deceleration may be painted in parallel with the lane line. As this auxiliary line, for example, a row of broken line blocks shorter than the broken line used for the lane line is used.

このような多重線路の路面画像における走行車線の左右いずれか一方の側から、エッジ検出により複数の区分線候補のエッジが検出された場合に、エッジ周期を比較して最も連続線に近い候補を車線区分線と判定する方法が知られている。この方法では、車両が走行している車線に車線区分線と補助線がペイントされていても、補助線は短い破線ブロックのエッジからなる不連続線として認識されるので、検出された複数の区分線候補のうち最も連続線に近い候補を選択することで、本来の車線区分線を認識することができる。   When edges of multiple lane marking candidates are detected by edge detection from the left or right side of the traveling lane in the road image of such a multiple track, the edge period is compared and the candidate closest to the continuous line is determined. A method for determining a lane marking is known. In this method, even if a lane division line and an auxiliary line are painted on the lane in which the vehicle is traveling, the auxiliary line is recognized as a discontinuous line consisting of the edges of a short broken line block. By selecting the candidate closest to the continuous line among the line candidates, the original lane marking can be recognized.

特開2004−310522号公報JP 2004-310522 A

高橋新,二宮芳樹,「走行レーン認識におけるロバストなレーンマーキング候補選択の一手法」,電子情報通信学会論文誌 D−II Vol.J81−D−II No.8 pp.1904−1911,1998年8月Shin Takahashi and Yoshiki Ninomiya, “A Robust Lane Marking Candidate Selection Method for Driving Lane Recognition”, IEICE Transactions D-II Vol. J81-D-II No. 8 pp. 1904-1911, August 1998

上述した従来の車線区分線認識技術には、以下のような問題がある。
従来の車線区分線認識技術では、図1に示すように、路面画像における車両の近傍(画像の下側)から遠方(画像の上側)までのすべての領域において、車線区分線101及び102と補助線103及び104とが区別できることが必要である。さらに、縦方向に隣接する補助線同士が画像中で分離されていることも必要である。
The conventional lane marking recognition technology described above has the following problems.
In the conventional lane marking recognition technology, as shown in FIG. 1, the lane markings 101 and 102 and the auxiliary are shown in all areas from the vicinity of the vehicle (the lower side of the image) to the far side (the upper side of the image). It is necessary that lines 103 and 104 can be distinguished. Further, it is necessary that auxiliary lines adjacent in the vertical direction are separated in the image.

しかしながら、路面画像の解像度には限界があるため、遠方に映る物体は分解能が低下し、遠方では車線区分線と補助線の融合や、縦方向に隣接する補助線同士の融合が生じることがある。   However, because the resolution of the road surface image is limited, the resolution of an object reflected in the distance may be reduced, and in the distance, lane markings and auxiliary lines may be merged or auxiliary lines adjacent in the vertical direction may be merged. .

図2は、車線区分線と補助線の融合が生じる第1の例を示している。第1の例では、車線区分線201及び202は実線であり、補助線203及び204は破線であるが、遠方では解像度の低下により、車線区分線201と補助線203の融合及び車線区分線202と補助線204の融合が生じている。さらに、補助線203の破線ブロック同士の融合及び補助線204の破線ブロック同士の融合も生じている。この場合、最も連続線に近い候補は、融合したブロックのエッジ線205及び206であるため、これらの誤った形状特徴を持つエッジ線に基づいて道路形状が推定されることになる。   FIG. 2 shows a first example in which lane markings and auxiliary lines are fused. In the first example, the lane markings 201 and 202 are solid lines, and the auxiliary lines 203 and 204 are broken lines. However, at a distance, due to a decrease in resolution, the lane markings 201 and 203 are merged and the lane markings 202. And the auxiliary line 204 are fused. Furthermore, fusion of broken line blocks of the auxiliary line 203 and fusion of broken line blocks of the auxiliary line 204 also occur. In this case, since the candidates closest to the continuous line are the edge lines 205 and 206 of the merged block, the road shape is estimated based on the edge lines having these erroneous shape characteristics.

図3は、車線区分線と補助線の融合が生じる第2の例を示している。第2の例では、車線区分線301及び302は破線であり、補助線303及び304も破線であるが、補助線303及び304の方が破線ブロックの長さが短い。遠方では解像度の低下により、車線区分線301と補助線303の融合及び車線区分線302と補助線304の融合が生じ、補助線303の破線ブロック同士の融合及び補助線304の破線ブロック同士の融合も生じている。この場合、最も連続線に近い候補は、融合したブロックのエッジ線305及び306であるため、図2の場合と同様に、誤った形状特徴を持つエッジ線に基づいて道路形状が推定されることになる。   FIG. 3 shows a second example in which lane markings and auxiliary lines are fused. In the second example, the lane markings 301 and 302 are broken lines, and the auxiliary lines 303 and 304 are also broken lines, but the auxiliary lines 303 and 304 have shorter broken line lengths. In the distance, due to a decrease in resolution, the lane division line 301 and the auxiliary line 303 are merged and the lane division line 302 and the auxiliary line 304 are merged. The broken line blocks of the auxiliary line 303 and the broken line blocks of the auxiliary line 304 are merged. Has also occurred. In this case, since the candidate closest to the continuous line is the edge lines 305 and 306 of the merged block, as in the case of FIG. 2, the road shape is estimated based on the edge line having an incorrect shape characteristic. become.

本発明の課題は、車線区分線と平行に補助線がペイントされているような多重線路であっても、解像度の低下による補助線からの影響を受けずに、道路の路面を撮影した画像から精度良く道路形状を推定することである。   The problem of the present invention is that an image obtained by photographing the road surface of a road without being affected by the auxiliary line due to a decrease in resolution, even if the auxiliary line is painted in parallel with the lane marking. It is to estimate the road shape with high accuracy.

道路形状推定装置は、エッジ検出部、道路形状推定部、補正量推定部、格納部、及び補正部を含む。
エッジ検出部は、道路の路面を撮影した画像から複数のエッジ線を検出し、それらのエッジ線のうち1つ以上のエッジ線を連結して複合エッジ線を生成する。道路形状推定部は、道路の中央に最も近い内側複合エッジ線の情報に基づいて、路面を撮影したカメラの横方向オフセットと道路幅とを含む、道路の道路形状パラメータを求める。
The road shape estimation device includes an edge detection unit, a road shape estimation unit, a correction amount estimation unit, a storage unit, and a correction unit.
The edge detection unit detects a plurality of edge lines from an image obtained by photographing a road surface of a road, and generates a composite edge line by connecting one or more edge lines among the edge lines. The road shape estimation unit obtains road shape parameters of the road including the lateral offset of the camera that captured the road surface and the road width based on the information of the inner composite edge line closest to the center of the road.

補正量推定部は、内側複合エッジ線と内側複合エッジ線の外側に位置する外側複合エッジ線との距離に基づいて補正量を求め、格納部は、その補正量を格納する。補正部は、横方向オフセット及び道路幅を補正量を用いて補正し、補正された横方向オフセット及び道路幅を含む道路形状パラメータを出力する。   The correction amount estimation unit obtains a correction amount based on the distance between the inner composite edge line and the outer composite edge line located outside the inner composite edge line, and the storage unit stores the correction amount. The correction unit corrects the lateral offset and the road width using the correction amount, and outputs a road shape parameter including the corrected lateral offset and the road width.

上述した道路形状推定装置によれば、車線区分線と平行に補助線がペイントされているような多重線路であっても、解像度の低下による補助線からの影響を受けずに、道路の路面を撮影した画像から精度良く道路形状を推定することができる。   According to the road shape estimation device described above, even in a multiple track where an auxiliary line is painted in parallel with the lane marking, the road surface of the road is not affected by the auxiliary line due to a decrease in resolution. The road shape can be accurately estimated from the captured image.

車線区分線と補助線を示す図である。It is a figure which shows a lane division line and an auxiliary line. 車線区分線と補助線の融合が生じる第1の例を示す図である。It is a figure which shows the 1st example which fusion of a lane division line and an auxiliary line arises. 車線区分線と補助線の融合が生じる第2の例を示す図である。It is a figure which shows the 2nd example which fusion of a lane division line and an auxiliary line arises. 道路形状モデルを示す図である。It is a figure which shows a road shape model. カメラの観測系モデルを示す図である。It is a figure which shows the observation system model of a camera. 補助線の内側境界線を示す図である。It is a figure which shows the inner boundary line of an auxiliary line. シフト量を示す図である。It is a figure which shows the shift amount. 道路幅及びオフセットの補正方法を示す図である。It is a figure which shows the correction method of road width and offset. 第1の道路形状推定装置の機能的構成図である。It is a functional block diagram of a 1st road shape estimation apparatus. 第1の道路形状推定処理のフローチャートである。It is a flowchart of a 1st road shape estimation process. 第2の道路形状推定装置の機能的構成図である。It is a functional block diagram of the 2nd road shape estimation apparatus. 第2の道路形状推定処理のフローチャートである。It is a flowchart of a 2nd road shape estimation process. エッジ検出処理のフローチャートである。It is a flowchart of an edge detection process. デジタル画像を示す図である。It is a figure which shows a digital image. エッジ点を示す図である。It is a figure which shows an edge point. エッジ線を示す図である。It is a figure which shows an edge line. 車線区分線を含む左右の領域を示す図である。It is a figure which shows the area | region on either side containing a lane marking. 内側のエッジ線を示す図である。It is a figure which shows an inner edge line. 複合エッジ線生成処理のフローチャート(その1)である。It is a flowchart (the 1) of a composite edge line production | generation process. 複合エッジ線生成処理のフローチャート(その2)である。It is a flowchart (the 2) of a composite edge line production | generation process. 複合エッジ線を示す図である。It is a figure which shows a composite edge line. 候補線決定処理のフローチャートである。It is a flowchart of a candidate line determination process. 補助線判定処理のフローチャートである。It is a flowchart of an auxiliary line determination process. 補正量推定処理のフローチャート(その1)である。It is a flowchart (the 1) of a correction amount estimation process. 補正量推定処理のフローチャート(その2)である。It is a flowchart (the 2) of a correction amount estimation process. 車線逸脱警報システムの構成図である。It is a block diagram of a lane departure warning system. 車両操舵システムの構成図である。It is a block diagram of a vehicle steering system. 情報処理装置の構成図である。It is a block diagram of information processing apparatus.

以下、図面を参照しながら、実施形態を詳細に説明する。
図4は、道路形状モデルの例を示している。ここでは、車線の中央線Lcにおける曲率半径をRとし、車線の各位置で水平方向(X軸方向)に測って道路幅(車線幅)が常にWとなるモデルを考える。このモデルでは、中央線Lcに直交する方向での車線幅がWとならないため、実際の車線とは異なるが、カメラによる観測点から比較的近い範囲では誤差が小さく、解析的な取り扱いが簡単になる。
Hereinafter, embodiments will be described in detail with reference to the drawings.
FIG. 4 shows an example of a road shape model. Here, let us consider a model in which the radius of curvature of the lane center line Lc is R, and the road width (lane width) is always W measured in the horizontal direction (X-axis direction) at each position of the lane. In this model, the lane width in the direction orthogonal to the center line Lc is not W, so it is different from the actual lane, but the error is small in the range relatively close to the observation point by the camera, and analytical handling is easy. Become.

図5に示すように、カメラの中心を原点Oとして、原点Oから横方向に路面座標系のX軸をとり、縦方向に路面座標系のZ軸をとる。この場合、XZ平面に垂直な方向が路面座標のY軸となる。そして、原点Oを路面上に垂直に投影した点をROとする。図4の道路形状モデルにおける各記号の意味は以下の通りである。   As shown in FIG. 5, the center of the camera is the origin O, the X axis of the road surface coordinate system is taken from the origin O in the horizontal direction, and the Z axis of the road surface coordinate system is taken in the vertical direction. In this case, the direction perpendicular to the XZ plane is the Y axis of the road surface coordinates. A point where the origin O is vertically projected on the road surface is defined as RO. The meaning of each symbol in the road shape model of FIG. 4 is as follows.

Lc:車線の中央線
Lr:車線の右側の車線区分線
Ll:車線の左側の車線区分線
W:道路幅
R:曲率半径
e:点ROから中央線Lcまでの距離
P:車線区分線Lr又はLl上の着目点
A:車線区分線LrとXY平面の交点
B:着目点PをXY平面に垂直に投影した点
C:曲率中心
D:XY平面から着目点Pまでの距離
Lc: lane center line Lr: lane line on the right side of lane Ll: lane line on the left side of lane W: road width R: radius of curvature e: distance from point RO to center line Lc P: lane line Lr or Point of interest on L1 A: Intersection of lane marking Lr and XY plane B: Point of interest point P projected perpendicularly to XY plane C: Center of curvature D: Distance from XY plane to point of interest P

距離eは、カメラから道路中央までの距離(カメラの横方向オフセット)を表し、距離Dは、カメラから着目点Pまでの奥行き方向の距離を表す。このとき、着目点P(X,Z)のX座標Px及びZ座標Pzは、次式で与えられる。   The distance e represents the distance from the camera to the center of the road (the lateral offset of the camera), and the distance D represents the distance in the depth direction from the camera to the point of interest P. At this time, the X coordinate Px and the Z coordinate Pz of the point of interest P (X, Z) are given by the following equations.

式(1)が車線の路面上での位置を与える基礎式である。ただし、kは車線区分線Lr及びLlを区別するための定数で、着目点Pが右側の車線区分線Lr上にあるときはk=1、左側の車線区分線Ll上にあるときはk=−1である。曲率半径Rは、右カーブ、すなわち曲率中心CがX軸の正区間にある場合は正値とし、左カーブ、すなわち曲率中心CがX軸の負区間にある場合は負値とする。   Formula (1) is a basic formula that gives the position of the lane on the road surface. However, k is a constant for distinguishing the lane markings Lr and Ll. When the point of interest P is on the right lane marking Lr, k = 1, and when it is on the left lane marking Ll, k = -1. The radius of curvature R is a positive value when the right curve, that is, the center of curvature C is in the positive section of the X axis, and is a negative value when the left curve, that is, the center of curvature C is in the negative section of the X axis.

基礎式(1)は、平方根を含んでいるため、解析的な取り扱いが難しい。そこで、曲率半径Rが極端に小さくない通常の走行時を想定して、基礎式(1)の近似化を行う。例えば、平方根の1次近似として、テーラー展開の第1項までを用いると、次式のようになる。   Since the basic formula (1) includes a square root, it is difficult to handle analytically. Therefore, the basic equation (1) is approximated assuming a normal traveling time in which the radius of curvature R is not extremely small. For example, if up to the first term of the Taylor expansion is used as the first order approximation of the square root, the following equation is obtained.

式(2)を用いると、基礎式(1)は以下のように書き改められる。   Using equation (2), basic equation (1) is rewritten as follows.

式(3)が1次近似での基礎式となる。   Equation (3) is the basic equation in the first order approximation.

次に、路面上の車線区分線をカメラで観測したときの車線区分線の位置のモデルを導出する。   Next, a model of the position of the lane marking when the lane marking on the road surface is observed with a camera is derived.

図5は、カメラの観測系モデルの例を示している。カメラの中心は路面から高さHの位置にあり、カメラは車両の進行方向に対して、ピッチ角φ、ヨー角θ、ロール角0で設置されているとする。ピッチ角φ及びヨー角θは、カメラ座標系から路面座標系への座標系の変換を正の回転方向に取る。したがって、路面座標系からカメラ座標系へは、座標点の変換が回転の正方向となる。また、カメラの焦点距離はfとする。このとき、路面座標(X,Y,Z)からカメラ座標(xc、yc、zc)への座標変換を考える。   FIG. 5 shows an example of a camera observation system model. The center of the camera is located at a height H from the road surface, and the camera is installed at a pitch angle φ, a yaw angle θ, and a roll angle 0 with respect to the traveling direction of the vehicle. The pitch angle φ and the yaw angle θ take the transformation of the coordinate system from the camera coordinate system to the road surface coordinate system in the positive rotation direction. Therefore, from the road surface coordinate system to the camera coordinate system, the transformation of the coordinate points becomes the positive direction of rotation. The focal length of the camera is f. At this time, coordinate conversion from road surface coordinates (X, Y, Z) to camera coordinates (xc, yc, zc) is considered.

路面座標系での点Pの座標(X,Y,Z)をピッチ角φとヨー角θを持つカメラ座標系での座標(xc,yc,zc)で表すと、次式のようになる。   When the coordinates (X, Y, Z) of the point P in the road surface coordinate system are expressed by the coordinates (xc, yc, zc) in the camera coordinate system having the pitch angle φ and the yaw angle θ, the following expression is obtained.

この点をカメラで観測した画像の中央からx軸を右向きに、y軸を下向きに取り、画像座標を(x,y)とすると、着目点Pの画像座標(px,py)は次式で与えられる。   If this point is taken from the center of the image observed by the camera, the x-axis is directed to the right, the y-axis is directed downward, and the image coordinates are (x, y), the image coordinates (px, py) of the point of interest P are as follows: Given.

式(5)のX及びZに近似基礎式(3)の(Px,Pz)を代入し、YにHを代入すると、画像上での車線区分線の位置関係として次式が得られる。   Substituting (Px, Pz) in the approximate basic equation (3) into X and Z in Equation (5) and substituting H into Y, the following equation is obtained as the positional relationship of the lane markings on the image.

式(6)から媒介変数であるDを除けば、pxとpyの関係式が求められる。実際には、式(6)の形のままではDについて容易に解けないため、関係式の導出が困難である。そこで、式(6)中の各項のオーダーを考慮して、式(6)の近似化を行う。   If the parameter D is removed from the equation (6), a relational expression between px and py is obtained. Actually, it is difficult to derive a relational expression because D cannot be easily solved in the form of Expression (6). Therefore, approximation of equation (6) is performed in consideration of the order of each term in equation (6).

具体的には、各回転角φ及びθは大きくても20度程度であり、それほど大きくないため、sin系の値は0.1程度である。D、R、W、H、及びeの単位をメートルとすると、式(6)中のpx及びpyの分母において、第1項のcos(φ)sin(θ)に乗算される数値は2程度であるから、第1項は0.2程度の値を持つ。また、第2項のHの値も2程度であるから、第2項も0.2程度の値を持つ。これに対して、第3項のDの値は30程度であり、第3項はcos系の積なので30程度の値を持つ。したがって、分母では第3項が支配的で第1項及び第2項はほとんど影響を与えない。pyの分子についても同様である。したがって、最初の近似式として、次式が得られる。   Specifically, each rotation angle φ and θ is about 20 degrees at most, and is not so large, so the value of the sin system is about 0.1. Assuming that the unit of D, R, W, H, and e is meters, in the denominator of px and py in equation (6), the value multiplied by cos (φ) sin (θ) of the first term is about 2 Therefore, the first term has a value of about 0.2. Also, since the value of H in the second term is about 2, the second term also has a value of about 0.2. On the other hand, the value of D in the third term is about 30, and since the third term is a cosine product, it has a value of about 30. Therefore, in the denominator, the third term is dominant and the first and second terms have little influence. The same applies to the py molecule. Therefore, the following equation is obtained as the first approximate equation.

式(7)のpyの式からDを求めて、pxの式に代入し、(px,py)を(x,y)と書き改めると、次式が得られる。   When D is obtained from the py expression of Expression (7), is substituted into the px expression, and (px, py) is rewritten as (x, y), the following expression is obtained.

式(8)が、画像中の車線区分線上の点のx座標とy座標の関係式であり、画像座標系における基礎式となる。ここで、回転角φ及びθを微小とみなして、sinφ=φ、cosφ=1、sinθ=θ、cosθ=1とすると、次式が得られる。   Expression (8) is a relational expression between the x-coordinate and the y-coordinate of the point on the lane marking line in the image, and is a basic expression in the image coordinate system. Here, assuming that the rotation angles φ and θ are very small and sin φ = φ, cos φ = 1, sin θ = θ, cos θ = 1, the following equation is obtained.

式(9)が、道路形状モデルを表す最終的な近似式である。式(9)の道路曲率ρは、曲率半径Rの逆数に相当する。なお、カメラの横方向オフセットeとして、カメラと道路上の基準位置との横方向の相対距離を表す別のパラメータを用いることも可能である。   Expression (9) is a final approximation expression representing the road shape model. The road curvature ρ in equation (9) corresponds to the reciprocal of the curvature radius R. It is also possible to use another parameter representing the relative distance in the lateral direction between the camera and the reference position on the road as the lateral offset e of the camera.

映像中の各時刻における画像(フレーム)から車線区分線の位置(x,y)が検出できれば、式(9)を用いて道路形状パラメータ(ρ,W,e,φ,θ)を推定することができる。これにより、路面上の車線区分線の形状と車両の位置及び方向との関係を求めて、道路形状を推定することができる。   If the position (x, y) of the lane marking is detected from the image (frame) at each time in the video, the road shape parameters (ρ, W, e, φ, θ) are estimated using equation (9). Can do. Thereby, the road shape can be estimated by obtaining the relationship between the shape of the lane marking on the road surface and the position and direction of the vehicle.

以下の説明では、画像座標系の原点を画像の中央から画像の左上の点に平行移動して、車線区分線の位置(x,y)を記述する。   In the following description, the origin of the image coordinate system is translated from the center of the image to the upper left point of the image, and the position (x, y) of the lane marking is described.

走行車線の左右の車線区分線の内側に補助線がペイントされている場合、補助線の影響を受けずに車線区分線が形成する道路形状を正しく推定するために、以下の点に着目する。
(1)補助線は、車線区分線と平行して存在する。
(2)補助線は、道路中央に近い側(車線区分線の内側)に存在する。
(3)補助線は破線であり、連続的に並んでいる破線ブロックの長さ及び間隔は、車線区分線で用いられる破線ブロックの長さ及び間隔より短い。
When auxiliary lines are painted inside the left and right lane markings of the driving lane, the following points are focused on in order to correctly estimate the road shape formed by the lane markings without being affected by the auxiliary lines.
(1) The auxiliary line exists in parallel with the lane marking.
(2) The auxiliary line exists on the side close to the center of the road (inside the lane marking).
(3) The auxiliary lines are broken lines, and the lengths and intervals of the broken line blocks that are continuously arranged are shorter than the lengths and intervals of the broken line blocks used in the lane markings.

上記(2)及び(3)を考慮すると、車線区分線と補助線が融合したり、補助線同士が道路の奥行方向に融合したりしても、図6に示すように、補助線の内側境界線601〜606は損なわれることなく、常に安定して観測できることが分かる。   Considering the above (2) and (3), even if the lane markings and auxiliary lines merge, or even if the auxiliary lines merge in the depth direction of the road, as shown in FIG. It can be seen that the boundary lines 601 to 606 are always observed stably without being damaged.

また、上記(1)を考慮すると、補助線の内側境界線601〜606を用いて道路形状パラメータを推定した場合、道路曲率ρ、ピッチ角φ、及びヨー角θについては正しい値が求められることが分かる。そこで、実施形態では、車線区分線や補助線の融合の有無に関わらず、補助線がある場合は補助線の内側境界線を用いて道路形状を推定する。   In consideration of the above (1), when the road shape parameters are estimated using the inner boundary lines 601 to 606 of the auxiliary line, correct values are required for the road curvature ρ, the pitch angle φ, and the yaw angle θ. I understand. Therefore, in the embodiment, when there is an auxiliary line, the road shape is estimated using the inner boundary line of the auxiliary line regardless of whether or not the lane division line and the auxiliary line are merged.

ただし、道路幅W及びオフセットeについては、内側境界線601〜606を道路端とみなした場合の誤った値が求められる。道路幅W及びオフセットeの誤差は、補助線の内側境界線の位置から車線区分線の位置までの距離に起因した値となる。   However, for the road width W and the offset e, incorrect values are obtained when the inner boundary lines 601 to 606 are regarded as road ends. The error of the road width W and the offset e is a value resulting from the distance from the position of the inner boundary line of the auxiliary line to the position of the lane line.

続いて、車線区分線や補助線の融合について考察する。図7に示すように、車線区分線711及び712や補助線721及び722が遠方にある領域701では、解像度が不足して融合した線分を分離することはできない。一方、線分が車両の近傍にある領域702では、各線分が大きく詳細に映るので、車線区分線711及び712や補助線721及び722の融合は発生しない。したがって、画像の下端に近い領域702に着目して検出した線分の位置関係を調べれば、補助線721及び722と車線区分線711及び712の位置的な誤差を求めることができる。   Next, we consider the fusion of lane markings and auxiliary lines. As shown in FIG. 7, in a region 701 where the lane markings 711 and 712 and the auxiliary lines 721 and 722 are in the distance, it is not possible to separate the fused line segments due to insufficient resolution. On the other hand, in the area 702 in which the line segments are in the vicinity of the vehicle, each line segment is shown in large detail in detail, so that the lane division lines 711 and 712 and the auxiliary lines 721 and 722 are not merged. Therefore, if the positional relationship of the detected line segments is examined focusing on the area 702 near the lower end of the image, the positional errors between the auxiliary lines 721 and 722 and the lane marking lines 711 and 712 can be obtained.

図7のシフト量DXは、左側の補助線721の内側境界線741から、補助線の幅だけ外側に離れた車線区分線711の内側境界線731までの距離を表す。また、シフト量DXは、右側の補助線722の内側境界線742から、補助線の幅だけ外側に離れた車線区分線712の内側境界線732までの距離を表す。シフト量DX及びDXが求められれば、それらを用いて道路幅W及びオフセットeの誤差を補正し、車線区分線に基づく正しい道路形状を推定することができる。 The shift amount DX L in FIG. 7 represents the distance from the inner boundary line 741 of the left auxiliary line 721 to the inner boundary line 731 of the lane line 711 that is spaced outward by the width of the auxiliary line. The shift amount DX R represents the distance from the inner boundary 742 of the right auxiliary line 722, to the inner boundary 732 of the lane marker 712 by the width of the auxiliary line spaced outwardly. As long sought shift amount DX L and DX R, using them to correct the error of the road width W and the offset e, we are possible to estimate the correct road shape based on the lane dividing line.

図8は、道路幅W及びオフセットeの補正方法を示している。補正前の道路幅W1は、内側境界線741の位置801と内側境界線742の位置803との距離を表し、補正前のオフセットe1は、カメラの位置804から補正前の道路中央の位置802までの距離を表す。補正後の道路幅W2は、内側境界線731の位置811と内側境界線732の位置813との距離を表し、補正後のオフセットe2は、カメラの位置804から補正後の道路中央の位置812までの距離を表す。このとき、補正後の道路幅W2及びオフセットe2は、次式により求められる。
W2=W1+(DX+DX
e2=e1+(−DX+DX)/2 (21)
FIG. 8 shows a method for correcting the road width W and the offset e. The road width W1 before correction represents the distance between the position 801 of the inner boundary line 741 and the position 803 of the inner boundary line 742, and the offset e1 before correction is from the camera position 804 to the position 802 of the road center before correction. Represents the distance. The corrected road width W2 represents the distance between the position 811 of the inner boundary line 731 and the position 813 of the inner boundary line 732, and the corrected offset e2 is from the camera position 804 to the corrected center position 812 of the road. Represents the distance. At this time, the corrected road width W2 and offset e2 are obtained by the following equations.
W2 = W1 + (DX L + DX R )
e2 = e1 + (− DX L + DX R ) / 2 (21)

ただし、車線区分線が破線である場合、破線ブロック間には相応のペイントが無い間隙があるため、画像の下端に近い領域702に着目した場合に、常に補助線と車線区分線からなる複数の線分が存在するとは限らない。例えば、一般的な高速道路では、破線ブロック(白線部分)の長さは8mで、破線ブロック間の間隙(非白線部分)の長さは12mである。   However, when the lane line is a broken line, there is a gap with no corresponding paint between the broken line blocks. Therefore, when attention is paid to the area 702 near the lower end of the image, a plurality of auxiliary lines and lane line are always formed. A line segment does not always exist. For example, on a general highway, the length of a broken line block (white line portion) is 8 m, and the length of a gap (non-white line portion) between broken line blocks is 12 m.

そこで、画像の下端に近い領域702を常に監視して複数の線分が存在するか否かを判定し、複数の線分が存在する時を見計らって補助線と車線区分線の位置的なシフト量を算出する。また、複数の線分が存在する場合には毎回シフト量を検出することで、補助線と車線区分線の間隔の変動に対応することができる。   Therefore, the region 702 near the lower end of the image is always monitored to determine whether or not there are a plurality of line segments, and the positional shift between the auxiliary line and the lane division line is performed in consideration of the presence of the plurality of line segments. Calculate the amount. Further, when there are a plurality of line segments, the shift amount is detected every time, so that it is possible to cope with a change in the interval between the auxiliary line and the lane marking line.

図9は、道路形状推定装置の機能的構成例を示している。図9の道路形状推定装置901は、エッジ検出部911、道路形状推定部912、補正部913、補正量推定部914、及び格納部915を含む。   FIG. 9 shows a functional configuration example of the road shape estimation apparatus. The road shape estimation apparatus 901 in FIG. 9 includes an edge detection unit 911, a road shape estimation unit 912, a correction unit 913, a correction amount estimation unit 914, and a storage unit 915.

図10は、図9の道路形状推定装置901による道路形状推定処理の例を示すフローチャートである。まず、エッジ検出部911は、道路の路面を撮影した画像から複数のエッジ線を検出し(ステップ1001)、それらのエッジ線のうち1つ以上のエッジ線を連結して複合エッジ線を生成する(ステップ1002)。   FIG. 10 is a flowchart showing an example of road shape estimation processing by the road shape estimation apparatus 901 of FIG. First, the edge detection unit 911 detects a plurality of edge lines from an image obtained by photographing a road surface of a road (step 1001), and generates a composite edge line by connecting one or more of the edge lines. (Step 1002).

次に、道路形状推定部912は、道路の中央に最も近い内側複合エッジ線の情報に基づいて、道路幅及びオフセットを含む、道路の道路形状パラメータを求める(ステップ1003)。また、補正量推定部914は、内側複合エッジ線と内側複合エッジ線の外側に位置する外側複合エッジ線との距離に基づいて補正量を求め、その補正量を格納部915に格納する(ステップ1004)。ステップ1003及び1004の処理は順番に行ってもよく、並行して行ってもよい。   Next, the road shape estimation unit 912 obtains road shape parameters including the road width and offset based on the information of the inner composite edge line closest to the center of the road (step 1003). In addition, the correction amount estimation unit 914 obtains a correction amount based on the distance between the inner composite edge line and the outer composite edge line located outside the inner composite edge line, and stores the correction amount in the storage unit 915 (step 915). 1004). Steps 1003 and 1004 may be performed in order or in parallel.

次に、補正部913は、道路幅及びオフセットを補正量を用いて補正し(ステップ1005)、補正された道路幅及びオフセットを含む道路形状パラメータを出力する(ステップ1006)。   Next, the correction unit 913 corrects the road width and offset using the correction amount (step 1005), and outputs a road shape parameter including the corrected road width and offset (step 1006).

このような道路形状推定装置によれば、車線区分線と平行に補助線がペイントされているような多重線路であっても、解像度の低下による補助線からの影響を受けずに、道路の路面を撮影した画像から精度良く道路形状を推定することができる。   According to such a road shape estimation device, even if it is a multiple track in which an auxiliary line is painted in parallel with the lane marking, the road surface of the road is not affected by the auxiliary line due to a decrease in resolution. The road shape can be estimated with high accuracy from the image obtained by capturing the image.

図11は、道路形状推定装置の別の機能的構成例を示している。図11の道路形状推定装置は、映像入力部1101、エッジ検出部1102、候補線決定部1103、道路形状推定部1104、補正部1105、補助線判定部1106、補正量推定部1107、及び格納部1108を含む。映像入力部1101に接続されたカメラ1100は、車両の前方又は後方に路面を撮影できるように取り付けられている。   FIG. 11 shows another functional configuration example of the road shape estimation apparatus. 11 includes a video input unit 1101, an edge detection unit 1102, a candidate line determination unit 1103, a road shape estimation unit 1104, a correction unit 1105, an auxiliary line determination unit 1106, a correction amount estimation unit 1107, and a storage unit. 1108 is included. A camera 1100 connected to the video input unit 1101 is attached so that a road surface can be photographed in front of or behind the vehicle.

図12は、図11の道路形状推定装置による道路形状推定処理の例を示すフローチャートである。まず、映像入力部1101は映像入力処理を行い(ステップ1201)、エッジ検出部1102はエッジ検出処理を行い(ステップ1202)、候補線決定部1103は候補線決定処理を行う(ステップ1203)。次に、補助線判定部1106は補助線判定処理を行い(ステップ1204)、補正量推定部1107は補正量推定処理を行う(ステップ1205)。また、道路形状推定部1104は道路形状推定処理を行う(ステップ1206)。そして、補正部1105は道路形状補正処理を行う(ステップ1207)。   FIG. 12 is a flowchart illustrating an example of road shape estimation processing by the road shape estimation apparatus of FIG. 11. First, the video input unit 1101 performs video input processing (step 1201), the edge detection unit 1102 performs edge detection processing (step 1202), and the candidate line determination unit 1103 performs candidate line determination processing (step 1203). Next, the auxiliary line determination unit 1106 performs auxiliary line determination processing (step 1204), and the correction amount estimation unit 1107 performs correction amount estimation processing (step 1205). The road shape estimation unit 1104 performs road shape estimation processing (step 1206). Then, the correction unit 1105 performs road shape correction processing (step 1207).

ステップ1201の映像入力処理において、映像入力部1101は、外部のカメラ1100により撮影された映像を受け取り、エッジ検出部1102に出力する。このとき、入力された映像がアナログ映像であればデジタル画像に変換し、カラー映像であればモノクロ濃淡画像に変換してから、エッジ検出部1102に出力する。出力されるデジタル画像は、例えば、縦横にあらかじめ決められた大きさの2次元配列情報である。   In the video input process of step 1201, the video input unit 1101 receives a video shot by the external camera 1100 and outputs it to the edge detection unit 1102. At this time, if the input video is an analog video, it is converted to a digital image, and if it is a color video, it is converted to a monochrome grayscale image before being output to the edge detection unit 1102. The output digital image is, for example, two-dimensional array information having a predetermined size vertically and horizontally.

ステップ1202のエッジ検出処理において、エッジ検出部1102は、入力されるデジタル画像中の左右の車線区分線を含むそれぞれの部分から、領域の境界線を構成するエッジ点群を検出する。次に、エッジ点を画像の縦方向に連結して、エッジ線を検出する。検出されたエッジ線は、実線の車線区分線の全体、破線の車線区分線の1つの破線ブロック、補助線の1つの破線ブロック等のエッジ線に対応する。   In the edge detection process of step 1202, the edge detection unit 1102 detects edge point groups that constitute the boundary line of the region from each portion including the left and right lane marking lines in the input digital image. Next, edge points are detected by connecting edge points in the vertical direction of the image. The detected edge lines correspond to edge lines such as the whole solid lane line, one broken line block of the broken lane line, and one broken line block of the auxiliary line.

そして、エッジ線同士を画像の縦方向に連結して複合エッジ線を生成し、候補線決定部1103及び補正量推定部1107に出力する。生成された複合エッジ線は、実線の車線区分線の全体、破線の車線区分線の全体、補助線の全体等のエッジ線に対応する。   Then, the edge lines are connected in the vertical direction of the image to generate a composite edge line, which is output to the candidate line determination unit 1103 and the correction amount estimation unit 1107. The generated composite edge line corresponds to edge lines such as the whole solid lane line, the whole broken lane line, the whole auxiliary line, and the like.

ステップ1203の候補線決定処理において、候補線決定部1103は、入力される複合エッジ線の中から、左右それぞれの部分について、道路の中央に最も近い(最も内側にある)複合エッジ線を、道路形状の推定に用いる候補線に決定する。そして、その複合エッジ線を道路形状推定部1104、補助線判定部1106、及び補正量推定部1107に出力する。   In the candidate line determination process in step 1203, the candidate line determination unit 1103 selects the composite edge line closest to the center of the road (innermost) from the input composite edge lines for the left and right portions. The candidate line used for shape estimation is determined. Then, the composite edge line is output to the road shape estimation unit 1104, the auxiliary line determination unit 1106, and the correction amount estimation unit 1107.

ステップ1204の補助線判定処理において、補助線判定部1106は、入力される候補線の複合エッジ線について、その複合エッジ線に含まれるエッジ線の路面上での長さを元に、複合エッジ線が補助線に該当するか否かを判定する。そして、判定結果を補正量推定部1107に出力する。   In the auxiliary line determination processing in step 1204, the auxiliary line determination unit 1106, for the composite edge line of the input candidate line, based on the length of the edge line included in the composite edge line on the road surface, Is determined to correspond to the auxiliary line. Then, the determination result is output to the correction amount estimation unit 1107.

ステップ1205の補正量推定処理において、補正量推定部1107は、左右それぞれの部分について、入力される判定結果が補助線を示す場合は、候補線から補助線の幅だけ外側に位置する複合エッジ線の有無をチェックする。このとき、エッジ検出部1102から入力される複合エッジ線がチェック対象として用いられる。   In the correction amount estimation processing in step 1205, the correction amount estimation unit 1107, for each of the left and right portions, when the input determination result indicates an auxiliary line, the composite edge line positioned outside the candidate line by the width of the auxiliary line Check for the presence or absence. At this time, the composite edge line input from the edge detection unit 1102 is used as a check target.

該当する外側複合エッジ線が存在すれば、候補線からその外側複合エッジ線までの距離を求め、補正量として格納部1108に格納する。補正量としては、例えば、路面上での進行方向と直交する方向における、候補線と外側複合エッジ線の距離が用いられる。一方、該当する外側複合エッジ線が存在しなければ、格納部1108に格納された補正量は更新しない。   If there is a corresponding outer composite edge line, the distance from the candidate line to the outer composite edge line is obtained and stored in the storage unit 1108 as a correction amount. As the correction amount, for example, the distance between the candidate line and the outer composite edge line in the direction orthogonal to the traveling direction on the road surface is used. On the other hand, if the corresponding outer composite edge line does not exist, the correction amount stored in the storage unit 1108 is not updated.

入力される判定結果が補助線ではないことを示す場合は、補正量として0を格納部1108に格納する。
例えば、図3に示したように、破線の車線区分線301と補助線303が融合している場合は、補助線303から補助線の幅だけ外側には複合エッジ線が存在しないので、補正量は更新されない。その後、数フレーム分の時間が経過して遠方の車線区分線301が車両に近づいたときに、画像の解像度が確保され、車線区分線301と補助線303とが分離されるため、補正量が求められる。
When the input determination result indicates that it is not an auxiliary line, 0 is stored in the storage unit 1108 as the correction amount.
For example, as shown in FIG. 3, when the broken lane line 301 and the auxiliary line 303 are merged, there is no composite edge line outside the auxiliary line 303 by the width of the auxiliary line. Will not be updated. Thereafter, when the distant lane line 301 approaches the vehicle after several frames, the image resolution is ensured and the lane line 301 and the auxiliary line 303 are separated. Desired.

ステップ1206の道路形状推定処理において、道路形状推定部1104は、入力される候補線の複合エッジ線に含まれるエッジ点の画像座標(x、y)を用いて、道路形状パラメータを求め、補正部1105に出力する。   In the road shape estimation processing in step 1206, the road shape estimation unit 1104 obtains road shape parameters using the image coordinates (x, y) of the edge points included in the composite edge line of the input candidate lines, and the correction unit 1105 is output.

ステップ1207の道路形状補正処理において、補正部1105は、入力される道路形状パラメータのうち道路幅及びオフセットを、格納部に格納された補正量を用いて補正し、補正された道路幅及びオフセットとその他の道路形状パラメータを外部に出力する。候補線が補助線の場合は、補助線から車線区分線までのシフト量に対応する補正量を推定された道路幅及びオフセットに適宜加算することにより、実際の車線区分線の位置に対応する道路幅及びオフセットが得られる。一方、候補線が補助線でない場合は、補正量が0であるため、推定された道路幅及びオフセットは変更されない。   In the road shape correction process in step 1207, the correction unit 1105 corrects the road width and offset of the input road shape parameters using the correction amount stored in the storage unit, and the corrected road width and offset Other road shape parameters are output to the outside. When the candidate line is an auxiliary line, the road corresponding to the actual position of the lane marking line is added by appropriately adding the correction amount corresponding to the shift amount from the auxiliary line to the lane marking line to the estimated road width and offset. Width and offset are obtained. On the other hand, when the candidate line is not an auxiliary line, since the correction amount is 0, the estimated road width and offset are not changed.

このように、左右それぞれの車線区分線の周辺について、最も内側に位置する複合エッジ線を候補線として用いることで、補助線が存在しない場合は、車線区分線のエッジ線が候補線として抽出される。また、内側に補助線が存在する場合は、その補助線のエッジ線が候補線として抽出される。いずれの場合も、候補線より内側にエッジ線は存在せず、候補線の内側の境界が他の線分と融合して形状が崩れることがないため、道路形状を安定して推定することができる。   In this way, by using the innermost composite edge line as a candidate line around each of the left and right lane marking lines, if there is no auxiliary line, the edge line of the lane marking line is extracted as a candidate line. The If an auxiliary line exists inside, an edge line of the auxiliary line is extracted as a candidate line. In either case, there is no edge line inside the candidate line, and the inner boundary of the candidate line does not merge with other line segments, so the shape of the road can be estimated stably. it can.

ただし、候補線が補助線の場合は、推定される道路幅及びオフセットに誤差が含まれるため、別途算出した補助線から車線区分線までの補正量を加算することで誤差を補正し、常に正しい道路形状を推定することができる。車線区分線と補助線が分離される時点、つまり、車線区分線が車両の近傍に存在し解像度が高くなる時点で補正量を算出することで、安定して補正量を求めることができる。   However, if the candidate line is an auxiliary line, an error is included in the estimated road width and offset. Therefore, the error is corrected by adding the correction amount from the auxiliary line calculated separately to the lane marking, and always correct. The road shape can be estimated. By calculating the correction amount when the lane line and the auxiliary line are separated, that is, when the lane line exists in the vicinity of the vehicle and the resolution becomes high, the correction amount can be obtained stably.

したがって、車線区分線と平行に補助線がペイントされているような多重線路であっても、解像度の低下による補助線からの影響を受けずに、道路の路面を撮影した画像から精度良く道路形状を推定することができる。   Therefore, even for multiple tracks where auxiliary lines are painted in parallel with the lane markings, the road shape is accurately obtained from an image of the road surface without being affected by the auxiliary lines due to a decrease in resolution. Can be estimated.

図13は、図12のエッジ検出処理の例を示すフローチャートである。まず、エッジ検出部1102は、入力されるデジタル画像に対してソベルオペレータ等の微分オペレータを適用して横方向の微分処理を行い、輝度の変化が閾値以上であるようなエッジ点を検出する(ステップ1301)。   FIG. 13 is a flowchart illustrating an example of the edge detection process of FIG. First, the edge detection unit 1102 applies a differential operator such as a Sobel operator to the input digital image to perform a differential process in the horizontal direction, and detects an edge point whose luminance change is equal to or greater than a threshold ( Step 1301).

例えば、図14のようなデジタル画像からは、図15のような縦方向に並んだエッジ点の列が得られる。図15では、検出されたエッジ点の位置が模式的に表されているが、実際には図14の画像の各行の画素について微分処理が行われ、各行からエッジ点が検出される。   For example, a sequence of edge points arranged in the vertical direction as shown in FIG. 15 is obtained from a digital image as shown in FIG. In FIG. 15, the position of the detected edge point is schematically shown. In practice, differentiation processing is performed on the pixels in each row of the image in FIG. 14, and the edge point is detected from each row.

次に、検出されたエッジ点について、周囲画素の連結性を用いたラベル付け処理を行い、複数のエッジ点を統合してエッジ線を検出する(ステップ1302)。これにより、実線の車線区分線の全体、破線の車線区分線の1つの破線ブロック、補助線の1つの破線ブロック等の外形に対応するエッジ線が得られる。例えば、図15のエッジ点からは、図16のようなエッジ線が検出される。   Next, the detected edge point is subjected to a labeling process using connectivity of surrounding pixels, and an edge line is detected by integrating a plurality of edge points (step 1302). Thereby, edge lines corresponding to the outer shape of the entire solid lane line, one broken line block of the broken lane line, one broken line block of the auxiliary line, and the like are obtained. For example, an edge line as shown in FIG. 16 is detected from the edge points in FIG.

次に、エッジ線の絞り込みを行う(ステップ1303)。この絞り込み処理では、まず、図17に示すように、デジタル画像中に車線区分線を含む左右それぞれの領域RL及びRRを設けて、各領域の外に存在するエッジ線を除外する。   Next, the edge line is narrowed down (step 1303). In this narrowing-down process, first, as shown in FIG. 17, left and right regions RL and RR including lane markings are provided in the digital image, and edge lines that exist outside each region are excluded.

次に、領域RL及びRR内の各エッジ線を挟む左右の画素の輝度値を調べる。左側の領域RL内のエッジ線は、左側の車線区分線に関係するので、その左側画素の輝度値が大きく右側画素の輝度値が小さい場合にそのエッジ線を残し、それ以外の場合にエッジ線を除外する。また、右側の領域RR内のエッジ線は、右側の車線区分線に関係するので、その左側画素の輝度値が小さく右側画素の輝度値が大きい場合にそのエッジ線を残し、それ以外の場合にエッジ線を除外する。   Next, the luminance values of the left and right pixels sandwiching each edge line in the regions RL and RR are examined. Since the edge line in the left region RL is related to the left lane line, the edge line is left when the luminance value of the left pixel is large and the luminance value of the right pixel is small, and the edge line is otherwise Is excluded. Also, since the edge line in the right region RR is related to the right lane line, the edge line is left when the luminance value of the left pixel is small and the luminance value of the right pixel is large, and otherwise. Exclude edge lines.

これにより、実線の車線区分線の全体、破線の車線区分線の1つの破線ブロック、補助線の1つの破線ブロック等のエッジ線のうち、内側のエッジ線のみが残され、外側のエッジ線は除外される。例えば、図17のエッジ線のうち外側のエッジ線を除外すると、図18に示すように、内側のエッジ線のみが残される。   As a result, only the inner edge line is left among the edge lines of the entire solid lane line, one broken line block of the broken lane line, one broken line block of the auxiliary line, and the outer edge line is Excluded. For example, when the outer edge line is excluded from the edge lines in FIG. 17, only the inner edge line is left as shown in FIG.

次に、各エッジ線の路面上での長さを調べ、長いものから順に実線、破線、補助線、及びノイズの各線種に分類し、ノイズに分類された非常に短いエッジ線を除外する。エッジ線の上側端点の画像座標を(x1、y1)、下側端点の画像座標を(x2、y2)、画像中心の座標を(cx、cy)とすると、エッジ線の長さLLは、次式により与えられる。
LL=Z2−Z1
Z2=f・H/(f・φ+y2−cy)
Z1=f・H/(f・φ+y1−cy) (31)
Next, the length of each edge line on the road surface is examined, and the line types are classified into a solid line, a broken line, an auxiliary line, and a noise line type in order from the longest, and very short edge lines classified as noise are excluded. When the image coordinates of the upper end point of the edge line are (x1, y1), the image coordinates of the lower end point are (x2, y2), and the coordinates of the image center are (cx, cy), the length LL of the edge line is Is given by:
LL = Z2-Z1
Z2 = f.H / (f..phi. + Y2-cy)
Z1 = f.H / (f..phi. + Y1-cy) (31)

ただし、図5とは異なり、(x1、y1)、(x2、y2)、及び(cx、cy)は、画像の左上の点を画像座標系の原点として記述されている。式(31)のLLと閾値ThL1〜ThL3を用いて、以下のように線種を分類することができる。
(1)LLがThL1以上:実線の車線区分線
(2)LLがThL1未満でThL2以上:破線の車線区分線
(3)LLがThL2未満でThL3以上:破線の補助線
(4)LLがThL3未満:ノイズ
However, unlike FIG. 5, (x1, y1), (x2, y2), and (cx, cy) are described with the upper left point of the image as the origin of the image coordinate system. Line types can be classified as follows using the LL of the formula (31) and the threshold values ThL1 to ThL3.
(1) LL is greater than or equal to ThL1: solid line lane marking (2) LL is less than ThL1 and greater than or equal to ThL2: dashed lane segmentation line (3) LL is less than ThL2 and greater than or equal to ThL3: dashed auxiliary line (4) LL is equal to ThL3 Less than: Noise

ここでは、補助線の破線ブロックの長さが車線区分線の破線ブロックの長さより短いことを前提としている。ノイズに分類されたエッジ線を除外し、残されたエッジ線のうち左側の領域RL内のエッジ線の数をNL、右側の領域RR内のエッジ線の数をNLとする。そして、領域RL内のエッジ線をL (i=1,2,...,NL)と記述し、領域RR内のエッジ線をL (i=1,2,...,NL)と記述する。 Here, it is assumed that the length of the broken line block of the auxiliary line is shorter than the length of the broken line block of the lane marking line. Exclude sorted edge line noise, remaining NL L number of edge lines in the left region RL of the edge line, the number of edge line in the right region RR and NL R. Then, the edge line in the region RL is described as L L i (i = 1, 2,..., NL L ), and the edge line in the region RR is described as L R i (i = 1, 2,. , NL R ).

次に、エッジ線同士を画像の縦方向に連結して複合エッジ線を生成する(ステップ1304)。この複合エッジ線生成処理では、領域RL及びRRのそれぞれについて、エッジ線同士のすべての組み合わせを調べる。そして、2つのエッジ線の近い側の端点間のX方向の距離及びZ方向の距離の双方が閾値以内であれば、それらのエッジ線を統合する。   Next, the edge lines are connected in the vertical direction of the image to generate a composite edge line (step 1304). In this composite edge line generation process, all combinations of edge lines are examined for each of the regions RL and RR. If both the distance in the X direction and the distance in the Z direction between the end points on the near side of the two edge lines are within the threshold value, the edge lines are integrated.

図19及び図20は、左側の領域RLにおける複合エッジ線生成処理の例を示すフローチャートである。まず、エッジ検出部1102は、処理済みのエッジ線を示すリストFを{0,0,...,0}に初期化する(ステップ1901)。リストFの要素数はNLであり、i番目の要素F[i]が1のとき、i番目のエッジ線の処理が終了したことを表す。 19 and 20 are flowcharts illustrating an example of the composite edge line generation process in the left region RL. First, the edge detection unit 1102 creates a list F indicating processed edge lines {0, 0,. . . , 0} (step 1901). The number of elements in the list F is NL L , and when the i-th element F [i] is 1, this indicates that the processing of the i-th edge line has ended.

次に、領域RL内のi番目のエッジ線を示す変数iに0を設定し(ステップ1902)、生成された複合エッジ線の数を示す変数mに0を設定する(ステップ1903)。そして、iを1だけインクリメントし(ステップ1904)、iをNLと比較する(ステップ1905)。 Next, 0 is set to the variable i indicating the i-th edge line in the region RL (step 1902), and 0 is set to the variable m indicating the number of generated composite edge lines (step 1903). Then, i is incremented by 1 (step 1904), and i is compared with NL L (step 1905).

iがNL以下であれば(ステップ1905,NO)、次に、F[i]の値をチェックする(ステップ1906)。F[i]が1であれば(ステップ1906,YES)、ステップ1904以降の処理を繰り返す。F[i]が1でなければ(ステップ1906,NO)、F[i]に1を設定し(ステップ1907)、mを1だけインクリメントする(ステップ1908)。 If i is equal to or less than NL L (step 1905, NO), then the value of F [i] is checked (step 1906). If F [i] is 1 (step 1906, YES), the processing after step 1904 is repeated. If F [i] is not 1 (step 1906, NO), 1 is set to F [i] (step 1907), and m is incremented by 1 (step 1908).

次に、m番目の複合エッジ線に含まれるエッジ線の集合を表す統合リストCL に、エッジ線L を加える(ステップ1909)。そして、m番目の複合エッジ線の線種T として、エッジ線L の線種を設定する(ステップ1910)。 Next, the edge line L L i is added to the integrated list CL L m representing the set of edge lines included in the mth composite edge line (step 1909). Then, the line type of the edge line L L i is set as the line type T L m of the m-th composite edge line (step 1910).

次に、領域RL内のn番目のエッジ線を示す変数nにiを設定し(ステップ2001)、nを1だけインクリメントして(ステップ2002)、nとNLを比較する(ステップ2003)。nがNL以下であれば(ステップ2003,NO)、エッジ線同士の組み合わせに含まれる一方のエッジ線c1として、エッジ線L を選択する(ステップ2004)。また、もう一方のエッジ線c2として、統合リストCL 内のエッジ線のうち、エッジ線c1の近い側の端点までの距離が最も近いエッジ線を選択する(ステップ2005)。 Then, set the i variable n indicating the n-th edge line in the region RL (step 2001), n is incremented by 1 (step 2002), comparing the n and NL L (step 2003). If n is equal to or less than NL L (step 2003, NO), the edge line L L n is selected as one edge line c1 included in the combination of edge lines (step 2004). As the other edge line c2, an edge line closest to the end point on the side closer to the edge line c1 is selected from the edge lines in the integrated list CL L m (step 2005).

次に、エッジ線c1とエッジ線c2の互いに近い側の端点の間で、Z軸方向(奥行き方向)の距離DZと、X軸方向(奥行き方向と直交する方向)の距離DXとを、次式により算出する(ステップ2006)。
DZ=|Z2−Z1|
Z1=f・H/(f・φ+y1−cy)
Z2=f・H/(f・φ+y2−cy) (41)
DX=|X2−X1|
Next, a distance DZ in the Z-axis direction (depth direction) and a distance DX in the X-axis direction (direction perpendicular to the depth direction) between the end points of the edge line c1 and the edge line c2 that are close to each other are Calculation is performed using an equation (step 2006).
DZ = | Z2-Z1 |
Z1 = f.H / (f..phi. + Y1-cy)
Z2 = f.H / (f..phi. + Y2-cy) (41)
DX = | X2-X1 |

(x1、y1)は、画像の上側に存在するエッジ線の端点の画像座標を表し、(x2、y2)は、下側に存在するエッジ線の端点の画像座標を表す。式(41)及び(42)は、路面座標系と画像座標系の幾何学的関係から求められる。   (X1, y1) represents the image coordinate of the end point of the edge line existing on the upper side of the image, and (x2, y2) represents the image coordinate of the end point of the edge line existing on the lower side. Expressions (41) and (42) are obtained from the geometric relationship between the road surface coordinate system and the image coordinate system.

次に、DXを閾値ThDXと比較し(ステップ2007)、DZを閾値ThDZと比較する(ステップ2008)。DXがThDX以下であり(ステップ2007,YES)、DZがThDZ以下であれば(ステップ2008,YES)、エッジ線c1及びc2の線種を決定する(ステップ2009)。ここでは、エッジ線c1及びc2のうち画像の下側に存在する方の線種をt1とし、画像の上側に存在する方の線種をt2とする。   Next, DX is compared with a threshold ThDX (step 2007), and DZ is compared with a threshold ThDZ (step 2008). If DX is equal to or less than ThDX (step 2007, YES) and DZ is equal to or less than ThDZ (step 2008, YES), the line types of the edge lines c1 and c2 are determined (step 2009). Here, of the edge lines c1 and c2, the line type that exists on the lower side of the image is t1, and the line type that exists on the upper side of the image is t2.

次に、線種t1が補助線であるか否かをチェックする(ステップ2010)。線種t1が補助線でない場合(ステップ2010,NO)、t1とt2を比較する(ステップ2011)。そして、t1とt2が一致していれば(ステップ2011,YES)、統合リストCL にエッジ線c1を追加し(ステップ2012)、F[n]に1を設定して(ステップ2013)、ステップ2002以降の処理を繰り返す。 Next, it is checked whether or not the line type t1 is an auxiliary line (step 2010). If the line type t1 is not an auxiliary line (step 2010, NO), t1 and t2 are compared (step 2011). If t1 and t2 match (step 2011, YES), the edge line c1 is added to the integrated list CL L m (step 2012), and 1 is set to F [n] (step 2013). The processes after step 2002 are repeated.

一方、線種t1が補助線である場合は(ステップ2010,YES)、ステップ2012以降の処理を行う。また、DXがThDXより大きい場合(ステップ2007,NO)、DZがThDZより大きい場合(ステップ2008,NO)、又はt1とt2が一致しない場合(ステップ2011,NO)は、ステップ2002以降の処理を繰り返す。   On the other hand, when the line type t1 is an auxiliary line (step 2010, YES), the processing after step 2012 is performed. If DX is larger than ThDX (step 2007, NO), if DZ is larger than ThDZ (step 2008, NO), or if t1 and t2 do not match (step 2011, NO), the processing after step 2002 is performed. repeat.

次に、nがNLを超えると(ステップ2003,YES)、ステップ1904以降の処理を繰り返す。そして、iがNLを超えると(ステップ1905,YES)、生成された複合エッジ線の数NCにmを設定して(ステップ1911)、処理を終了する。 Next, when n exceeds NL L (step 2003, YES), the processing after step 1904 is repeated. When i is greater than NL L (step 1905, YES), by setting m to the number NC L of generated composite edge line (step 1911), the process ends.

こうして得られた統合リストCL (m=1,2,...,NC)には、左側のm番目の複合エッジ線に含まれる1つ以上のエッジ線が記録され、線種T には、左側のm番目の複合エッジ線の線種が記録される。生成された複合エッジ線は、実線の車線区分線の全体、破線の車線区分線の全体、補助線の全体等のエッジ線に対応する。 In the integrated list CL L m (m = 1, 2,..., NC L ) obtained in this way, one or more edge lines included in the left m-th composite edge line are recorded, and the line type T In L m , the line type of the m-th composite edge line on the left is recorded. The generated composite edge line corresponds to edge lines such as the whole solid lane line, the whole broken lane line, the whole auxiliary line, and the like.

図19及び図20において添え字LをRに置き換えれば、右側の領域RRにおける複合エッジ線を生成する処理のフローチャートが得られる。統合リストCL (m=1,2,...,NC)には、右側のm番目の複合エッジ線に含まれる1つ以上のエッジ線が記録され、線種T には、右側のm番目の複合エッジ線の線種が記録される。 In FIG. 19 and FIG. 20, when the subscript L is replaced with R, a flowchart of a process for generating a composite edge line in the right region RR is obtained. Consolidated list CL R m (m = 1,2, ..., NC R) , the one or more edge lines included in the right side of the m-th composite edge line is recorded, the line type T R m The line type of the m-th composite edge line on the right side is recorded.

例えば、図18の複数のエッジ線からは、図21に示すように、左側の2つの複合エッジ線2101及び2102と右側の2つの複合エッジ線2103及び2104が生成される。   For example, as shown in FIG. 21, two composite edge lines 2101 and 2102 on the left side and two composite edge lines 2103 and 2104 on the right side are generated from the plurality of edge lines in FIG.

図22は、図12の候補線決定処理1203において左側の複合エッジ線から候補線を決定する処理の例を示すフローチャートである。まず、候補線決定部1103は、統合リストCL に対応する複合エッジ線を示す変数mに0を設定する(ステップ2201)。そして、候補線に決定される複合エッジ線を示す変数Sに−1を設定し(ステップ2202)、路面座標系のX座標の最小値を表す変数Xminに十分大きな値XGを設定する(ステップ2203)。路面上での距離の単位をメートルとすると、例えば、XGとして100000程度の値を用いることができる。 FIG. 22 is a flowchart illustrating an example of processing for determining a candidate line from the left composite edge line in the candidate line determination processing 1203 of FIG. First, the candidate line determination unit 1103 sets 0 to a variable m indicating a composite edge line corresponding to the integrated list CL L m (step 2201). Then, it sets the -1 to a variable S L showing the composite edge line that is determined candidate line (step 2202) and sets a sufficiently large value XG variable Xmin represents the minimum X-coordinate of the road surface coordinate system (Step 2203). When the unit of distance on the road surface is meters, for example, a value of about 100,000 can be used as XG.

次に、mを1だけインクリメントし(ステップ2204)、mをNCと比較する(ステップ2205)。mがNC以下であれば(ステップ2205,NO)、統合リストCL に含まれるエッジ線の端点のうち最も車両に近い端点p(画像中で最も下側にある端点)の画像座標を(x,y)に設定する(ステップ2206)。そして、端点pの路面座標系におけるX座標を次式により算出する(ステップ2207)。 Then, m is incremented by 1 (step 2204), it is compared with the NC L m (step 2205). If m is less than NC L image coordinates (step 2205, NO), (endpoint most on the lower side in the image) close endpoints p most vehicles of end points of the edge line included in the integrated list CL L m It is set to (x, y) (step 2206). Then, the X coordinate of the end point p in the road surface coordinate system is calculated by the following equation (step 2207).

次に、Xの絶対値|X|をXminと比較し(ステップ2208)、|X|がXminより小さければ(ステップ2208,YES)、Xminに|X|を設定する(ステップ2209)。そして、Sにmを設定して(ステップ2210)、ステップ2204以降の処理を繰り返す。 Next, the absolute value | X | of X is compared with Xmin (step 2208). If | X | is smaller than Xmin (step 2208, YES), | X | is set to Xmin (step 2209). Then, by setting m to S L (step 2210) and repeats the step 2204 and subsequent steps.

一方、|X|がXmin以上であれば(ステップ2208,NO)は、ステップ2204以降の処理を繰り返す。そして、mがNCを超えると(ステップ2205,YES)、処理を終了する。こうして、左側の候補線となる複合エッジ線の番号がSに記録される。 On the other hand, if | X | is equal to or greater than Xmin (step 2208, NO), the processing after step 2204 is repeated. When m exceeds NC L (step 2205, YES), the process ends. Thus, the number of composite edge line as a left candidate lines is recorded on S L.

図22において添え字LをRに置き換えれば、右側の複合エッジ線から候補線を決定する処理のフローチャートが得られる。そして、右側の候補線となる複合エッジ線の番号がSに記録される。 If the subscript L is replaced with R in FIG. 22, a flowchart of processing for determining a candidate line from the composite edge line on the right side can be obtained. The number of composite edge line on the right side of the candidate lines is recorded in S R.

図23は、図12の補助線判定処理1204において左側の候補線の線種を判定する処理の例を示すフローチャートである。まず、補助線判定部1106は、左側のS番目の複合エッジ線の線種T (m=S)が補助線であるか否かを判定する(ステップ2301)。線種T (m=S)が補助線であれば(ステップ2301,YES)、左側の候補線の線種を示すフラグQに1を設定し(ステップ2302)、線種T (m=S)が補助線以外であれば(ステップ2301,NO)、フラグQに0を設定する(ステップ2303)。 FIG. 23 is a flowchart illustrating an example of processing for determining the line type of the left candidate line in the auxiliary line determination processing 1204 of FIG. First, the auxiliary line determination unit 1106 determines whether or not the line type T L m (m = S L ) of the left S L- th composite edge line is an auxiliary line (step 2301). If the line type T L m (m = S L ) is an auxiliary line (step 2301, YES), a flag Q L indicating the line type of the left candidate line is set to 1 (step 2302), and the line type T L If m (m = S L ) is not an auxiliary line (step 2301, NO), the flag Q L is set to 0 (step 2303).

図23において添え字LをRに置き換えれば、右側の候補線の線種を判定する処理のフローチャートが得られる。そして、右側の候補線の線種を示すフラグQに1又は0が設定される。 If the subscript L is replaced with R in FIG. 23, a flowchart of the process for determining the line type of the right candidate line is obtained. Then, 1 or 0 is set in the flag Q R indicating the line type of the right candidate lines.

図24及び図25は、図12の補正量推定処理1205において左側の候補線に対する補正量を求める処理の例を示すフローチャートである。まず、補正量推定部1107は、フラグQをチェックする(ステップ2401)。Q=0であれば(ステップ2401,YES)、候補線は補助線ではなく、車線区分線に該当すると判断できるため、補正量DXを0に設定して(ステップ2413)、処理を終了する。 24 and 25 are flowcharts showing an example of processing for obtaining the correction amount for the left candidate line in the correction amount estimation processing 1205 of FIG. First, the correction amount estimation unit 1107 checks the flag Q L (step 2401). If Q L = 0 (step 2401, YES), it can be determined that the candidate line is not an auxiliary line but a lane line, so the correction amount DX L is set to 0 (step 2413), and the process ends. To do.

一方、Q=1であれば(ステップ2401,NO)、候補線は補助線であるため、候補線から補助線の幅だけ外側に位置する複合エッジ線の有無を調べる。そこで、そのような条件を満たす外側複合エッジ線の有無を示すフラグUに−1を設定する(ステップ2402)。フラグUの値が−1のとき、条件を満たす外側複合エッジ線が存在しないことを表し、フラグUの値が1以上のとき、条件を満たす外側複合エッジ線が存在することを表す。 On the other hand, if Q L = 1 (step 2401, NO), since the candidate line is an auxiliary line, the presence / absence of a composite edge line located outside the candidate line by the width of the auxiliary line is checked. Therefore, to set the -1 flag U L indicating the presence or absence of such a condition is satisfied outside the composite edge line (step 2402). When the value of the flag U L is -1, satisfy represents that the outer composite edge line is not present, when the value of the flag U L is 1 or more, indicating that there is satisfies outer composite edge line.

次に、候補線であるS番目の複合エッジ線に含まれるエッジ線の端点のうち、最も車両に近い端点の画像座標を(xs,ys)に設定する(ステップ2403)。そして、その端点の路面座標系におけるX座標Xsを次式により算出する(ステップ2404)。 Next, among the end points of the edge line included in the S L th composite edge line is a candidate line, sets the image coordinates of the closest to the vehicle end point to (xs, ys) (step 2403). Then, the X coordinate Xs in the road surface coordinate system of the end point is calculated by the following equation (step 2404).

次に、条件を満たす外側複合エッジ線のX座標の範囲を示す最小値Xminを次式により算出する(ステップ2405)。
Xmin=|Xs|+Mmin (62)
Next, the minimum value Xmin indicating the range of the X coordinate of the outer composite edge line that satisfies the condition is calculated by the following equation (step 2405).
Xmin = | Xs | + Mmin (62)

また、その範囲の最大値Xmaxを次式により算出する(ステップ2406)。
Xmax=|Xs|+Mmax (63)
Further, the maximum value Xmax of the range is calculated by the following equation (step 2406).
Xmax = | Xs | + Mmax (63)

Mmin及びMmaxは、補助線の幅に基づいて決められる閾値であり、MmaxはMminより大きい。XminからXmaxの範囲に複合エッジ線が存在すれば、その複合エッジ線が条件を満たす外側複合エッジ線に該当する。   Mmin and Mmax are threshold values determined based on the width of the auxiliary line, and Mmax is larger than Mmin. If a composite edge line exists in the range from Xmin to Xmax, the composite edge line corresponds to the outer composite edge line that satisfies the condition.

次に、左側のm番目の複合エッジ線を示す変数mに0を設定し(ステップ2407)、mを1だけインクリメントして(ステップ2408)、mをNCと比較する(ステップ2409)。mがNC以下であれば(ステップ2409,NO)、次に、mをSと比較する(ステップ2410)。m=Sであれば(ステップ2410,YES)、m番目の複合エッジ線は候補線と一致するため、ステップ2408の処理に戻って次の複合エッジ線を処理対象に選択する。 Then, 0 is set to the variable m indicating the m-th composite edge line of the left (step 2407), it is incremented by 1 m (step 2408) and compares m with NC L (step 2409). If m is less than NC L (step 2409, NO), then, the m is compared with S L (step 2410). If m = S L (step 2410, YES), the m-th composite edge line matches the candidate line, so the process returns to step 2408 to select the next composite edge line as a processing target.

一方、mがSでなければ(ステップ2410,NO)、m番目の複合エッジ線に含まれるエッジ線の端点のうち、最も車両に近い端点の画像座標を(xc,yc)に設定する(ステップ2411)。そして、その端点の路面座標系におけるX座標Xc及びZ座標Zcを次式により算出する(ステップ2412)。 On the other hand, m is S L unless (step 2410, NO), among the end points of the edge line included in the m-th composite edge line, sets the image coordinates of the closest to the vehicle end point to (xc, yc) ( Step 2411). Then, the X coordinate Xc and the Z coordinate Zc in the road surface coordinate system of the end point are calculated by the following equations (step 2412).

次に、Xcの絶対値|Xc|をXminと比較し(ステップ2501)、|Xc|がXmin以上であれば(ステップ2501,YES)、|Xc|をXmaxと比較する(ステップ2502)。|Xc|がXmax以下であれば(ステップ2502,YES)、次に、Uをチェックする(ステップ2503)。U=−1であれば(ステップ2503,YES)、条件を満たす外側複合エッジ線が初めて検出されたことになるので、Uにmを設定する(ステップ2504)。 Next, the absolute value | Xc | of Xc is compared with Xmin (step 2501). If | Xc | is equal to or greater than Xmin (step 2501, YES), | Xc | is compared with Xmax (step 2502). | Xc | if is less than Xmax (step 2502, YES), then, to check the U L (step 2503). If U L = -1 (step 2503, YES), satisfies the condition outside the composite edge line so that the first time is detected, setting the m to U L (step 2504).

次に、Xuの絶対値|Xu|に|Xc|を設定し(ステップ2505)、ZuにZcを設定して(ステップ2506)、ステップ2408以降の処理を繰り返す。Xu及びZuは、条件を満たす外側複合エッジ線に含まれるエッジ線の端点のうち、最も車両に近い端点のX座標及びZ座標を表す。   Next, | Xc | is set to the absolute value | Xu | of Xu (step 2505), Zc is set to Zu (step 2506), and the processing after step 2408 is repeated. Xu and Zu represent the X coordinate and the Z coordinate of the end point closest to the vehicle among the end points of the edge line included in the outer composite edge line that satisfies the condition.

一方、Uが−1でなければ(ステップ2503,NO)、条件を満たす別の外側複合エッジ線が新たに検出されたことになるので、Zcを既に算出されているZuと比較する(ステップ2507)。ZcがZuより小さければ(ステップ2507,YES)、新たに検出された外側複合エッジ線が、以前に検出された外側複合エッジ線よりも車両に近い位置に存在することが分かる。そこで、ステップ2504以降の処理を行って、条件を満たす外側複合エッジ線の情報U、|Xu|、及びZuを更新する。 On the other hand, unless U L -1 (step 2503, NO), satisfies the condition by an outer composite edge line so that the newly detected and compared with Zu that has already been calculated Zc (step 2507). If Zc is smaller than Zu (step 2507, YES), it can be seen that the newly detected outer composite edge line is located closer to the vehicle than the previously detected outer composite edge line. Therefore, the processing after step 2504 is performed to update the information U L , | Xu |, and Zu of the outer composite edge line that satisfies the condition.

一方、ZcがZu以上であれば(ステップ2507,NO)、新たに検出された外側複合エッジ線が、以前に検出された外側複合エッジ線よりも車両から遠い位置、又は以前に検出された外側複合エッジ線と同じ距離の位置に存在することが分かる。この場合、条件を満たす外側複合エッジ線の情報を更新することなく、ステップ2408以降の処理を繰り返す。   On the other hand, if Zc is equal to or greater than Zu (step 2507, NO), the newly detected outer composite edge line is located farther from the vehicle than the previously detected outer composite edge line, or the previously detected outer composite edge line. It can be seen that it exists at the same distance as the composite edge line. In this case, the processing after step 2408 is repeated without updating the information of the outer composite edge line that satisfies the condition.

また、|Xc|がXminより小さい場合(ステップ2501,NO)、又は|Xc|がXmaxより大きい場合(ステップ2502,NO)は、m番目の複合エッジ線が条件を満たさないことが分かる。そこで、ステップ2408の処理に戻って次の複合エッジ線を処理対象に選択する。   In addition, when | Xc | is smaller than Xmin (step 2501, NO) or | Xc | is larger than Xmax (step 2502, NO), it can be seen that the m-th composite edge line does not satisfy the condition. Therefore, returning to the processing of step 2408, the next composite edge line is selected as a processing target.

そして、mがNCを超えると(ステップ2409,YES)、Uをチェックする(ステップ2414)。U=−1であれば(ステップ2414,YES)、条件を満たす外側複合エッジ線が検出されなかったため、処理を終了する。Uが−1でなければ(ステップ2414,NO)、条件を満たす外側複合エッジ線が検出されたため、補正量DXを次式により算出する(ステップ2415)。
DX=|Xu|−|Xs| (66)
When m exceeds NC L (step 2409, YES), checks the U L (step 2414). If U L = −1 (step 2414, YES), the outer composite edge line that satisfies the condition has not been detected, and the process ends. Otherwise U L -1 (step 2414, NO), because the condition is satisfied outside the composite edge line is detected, the correction amount DX L is calculated by the following equation (step 2415).
DX L = | Xu | − | Xs | (66)

図24及び図25において添え字LをRに置き換えれば、右側の候補線に対する補正量を求める処理のフローチャートが得られ、補正量DXが求められる。求められた補正量DX及びDXは、格納部1108に格納される。これらの補正量は、道路中央から外側への向きを正の向きとするシフト量を表している。 By replacing accompanied by letter L in FIGS. 24 and 25 to R, to obtain a flowchart of processing for obtaining the correction amount for the right of candidate lines, the correction amount DX R is obtained. Correction amount DX L and DX R obtained is stored in the storage unit 1108. These correction amounts represent shift amounts in which the direction from the road center to the outside is a positive direction.

図12の道路形状推定処理1206において、道路形状推定部1104は、左側の候補線であるS番目の複合エッジ線と、右側の候補線であるS番目の複合エッジ線に基づいて、道路形状パラメータを推定する。道路形状パラメータは、例えば、上述した式(9)を用いて推定することができる。画像の左上の点を画像座標系の原点として式(9)を書き改めると、次式が得られる。 In the road shape estimation processing 1206 in FIG. 12, the road shape estimation unit 1104, and S L th composite edge line is a left candidate lines, on the basis of the S R th composite edge line is a right candidate lines, roads Estimate shape parameters. The road shape parameter can be estimated using, for example, the above equation (9). When the equation (9) is rewritten with the upper left point of the image as the origin of the image coordinate system, the following equation is obtained.

式(71)は非線形式であるため、これを道路形状パラメータ(W,ρ,e,θ,φ)に関して線形式になるように近似し、線形近似式を用いて最小二乗法で各パラメータを求める計算方法が考えられる。この計算方法では、誤差が閾値以下になるまで演算を繰り返す、いわゆる繰り返し演算によって、道路形状パラメータの推定値(Wr,ρr,er,θr,φr)が求められる。   Since the equation (71) is a nonlinear equation, it is approximated so as to be in a linear form with respect to the road shape parameters (W, ρ, e, θ, φ), and each parameter is determined by the least square method using a linear approximation equation. The calculation method to obtain can be considered. In this calculation method, the estimated values (Wr, ρr, er, θr, φr) of the road shape parameters are obtained by so-called repetitive calculation that repeats the calculation until the error becomes equal to or less than the threshold value.

左側又は右側の候補線に含まれるj番目のエッジ点(j=1,2,...,NE)の画像座標を(x,y)とし、式(71)の右辺をF(W,ρ,e,θ,φ)と記し、各パラメータを以下のように記す。
W=W0+ΔW
ρ=ρ0+Δρ
e=e0+Δe
θ=θ0+Δθ
φ=φ0+Δφ (72)
The image coordinates of the j-th edge point (j = 1, 2,..., NE) included in the left or right candidate line are set to (x j , y j ), and the right side of equation (71) is F (W , Ρ, e, θ, φ), and each parameter is described as follows.
W = W0 + ΔW
ρ = ρ0 + Δρ
e = e0 + Δe
θ = θ0 + Δθ
φ = φ0 + Δφ (72)

NEは、候補線に含まれるエッジ点の数を表し、(W0,ρ0,e0,θ0,φ0)は各パラメータの初期値を表し、(ΔW,Δρ,Δe,Δθ,Δφ)は各パラメータの微小変化量を表す。F(W,ρ,e,θ,φ)は非線形関数であるが、これを式(72)を用いて線形化した関数Jは、次式で与えられる。   NE represents the number of edge points included in the candidate line, (W0, ρ0, e0, θ0, φ0) represents an initial value of each parameter, and (ΔW, Δρ, Δe, Δθ, Δφ) represents each parameter. Represents a small amount of change. F (W, ρ, e, θ, φ) is a non-linear function. A function J obtained by linearizing the function using the equation (72) is given by the following equation.

ここで、残差sを次式のように定義する。 Here, the residual s j is defined as follows.

残差sの二乗値を、フレーム内のすべての車線区分線上のエッジ点(j=1,2,...,NE)で積分した結果の1/2を総残差Sとする。 Let ½ of the result obtained by integrating the square value of the residual s j at the edge points (j = 1, 2,..., NE) on all lane markings in the frame be the total residual S.

最適パラメータはSを最小にする値なので、Sを各パラメータで偏微分した結果を0と置く。例えば、SをWで偏微分した結果を0と置くと、次式が得られる。   Since the optimum parameter is a value that minimizes S, the result of partial differentiation of S with respect to each parameter is set to 0. For example, if the result of partial differentiation of S with W is set to 0, the following equation is obtained.

他のパラメータについても同様の偏微分操作を行うことで、次式が得られる。   By performing the same partial differential operation for other parameters, the following equation is obtained.

式(77)及び(78)の連立方程式は、次式のように記述することができる。   The simultaneous equations of equations (77) and (78) can be described as the following equations.

この連立一次方程式を解くことで、(ΔW,Δρ,Δe,Δθ,Δφ)が求められる。そして、各パラメータの値が十分小さくなるまで、次式の代入操作を行って演算を繰り返す。   By solving this simultaneous linear equation, (ΔW, Δρ, Δe, Δθ, Δφ) is obtained. Then, until the value of each parameter becomes sufficiently small, the calculation is repeated by performing the following substituting operation.

このような繰り返し演算により、最終的な道路形状パラメータ(Wr,ρr,er,θr,φr)が求められる。   The final road shape parameters (Wr, ρr, er, θr, φr) are obtained by such repeated calculation.

ここで、左側のS番目の複合エッジ線に含まれるエッジ点e (j=1,2,...,NEL)の画像座標を(x ,y )とし、右側のS番目の複合エッジ線に含まれるエッジ点e (j=1,2,...,NER)の画像座標を(x ,y )とする。NELは、S番目の複合エッジ線に含まれるエッジ点の数を表し、NERは、S番目の複合エッジ線に含まれるエッジ点の数を表す。 Here, the image coordinates of the edge point e L j (j = 1, 2,..., NEL) included in the left S L- th compound edge line are (x L j , y L j ), and the right side edge point contained in S R th composite edge line e R j (j = 1,2, ..., NER) is the image coordinates of the (x R j, y R j ). NEL represents the number of edge points included in the S L th composite edge line, NER represents the number of edge points included in the S R th composite edge line.

番目の複合エッジ線に含まれるエッジ点の集合Eは{e ,e ,...,e NEL}と記述され、S番目の複合エッジ線に含まれるエッジ点の集合Eは{e ,e ,...,e NER}と記述される。このとき、道路形状推定処理の手順は、以下のようになる。 The set of edge points E L included in the S L th composite edge line is {e L 1 , e L 2 ,. . . , E L NEL} and is described, the set E R of the edge points included in the S R th composite edge line is {e R 1, e R 2 ,. . . , E R NER }. At this time, the procedure of the road shape estimation process is as follows.

1.(W0,ρ0,e0,θ0,φ0)を現在の値に初期化する。
2.R11=R12=R13=R14=R15=R16=0
R21=R22=R23=R24=R25=R26=0
R31=R32=R33=R34=R35=R36=0
R41=R42=R43=R44=R45=R46=0
R51=R52=R53=R54=R55=R56=0
3.tgt=−1
4.tgt=tgt+1
5.if tgt==0 then
エッジ集合E=E,NE=NEL,k=−1
else if tgt==1 then
エッジ集合E=E,NE=NER,k=1
else goto 13 endif
6.j=0
7.j=j+1
8.if j>=NE then goto 4 endif
9.エッジ集合Eからj番目の要素であるエッジ点の位置(x,y)を取得する。
10.式(73)及び(75)から(a,b,c,d,e,f)を算出する。
11.R11+=a,R12+=a,R13+=a,R14+=a
R15+=a,R16+=a
R21+=b,R22+=b,R23+=b,R24+=b
R25+=b,R26+=b
R31+=c,R32+=c,R33+=c,R34+=c
R35+=c,R36+=c
R41+=d,R42+=d,R43+=d,R44+=d
R45+=d,R46+=d
R51+=e,R52+=e,R53+=e,R54+=e
R55+=e,R56+=e
12.goto 7
13.連立方程式(79)の解を数値計算により求める。
14.解の収束性を検査する。
if |ΔW|>ThR or |Δρ|>ThR or
|Δe|>ThR or |Δθ|>ThR or |Δφ|>ThR
then
goto 2
else
Wr=W0,ρr=ρ0,er=e0,θr=θ0,φr=φ0
endif
15.終了
1. (W0, ρ0, e0, θ0, φ0) is initialized to the current value.
2. R11 = R12 = R13 = R14 = R15 = R16 = 0
R21 = R22 = R23 = R24 = R25 = R26 = 0
R31 = R32 = R33 = R34 = R35 = R36 = 0
R41 = R42 = R43 = R44 = R45 = R46 = 0
R51 = R52 = R53 = R54 = R55 = R56 = 0
3. tgt = -1
4). tgt = tgt + 1
5. if tgt == 0 then
Edge set E = E L , NE = NEL, k = −1
else if tgt == 1 then
Edge set E = E R , NE = NER, k = 1
else goto 13 endif
6). j = 0
7). j = j + 1
8). if j> = NE then goto 4 endif
9. The position (x j , y j ) of the edge point that is the j-th element is acquired from the edge set E.
10. From (73) and (75), (a j , b j , c j , d j , e j , f j ) is calculated.
11. R11 + = a j a j, R12 + = a j b j, R13 + = a j c j, R14 + = a j d j,
R15 + = a j e j, R16 + = a j f j,
R21 + = b j a j, R22 + = b j b j, R23 + = b j c j, R24 + = b j d j,
R25 + = b j e j, R26 + = b j f j,
R31 + = c j a j, R32 + = c j b j, R33 + = c j c j, R34 + = c j d j,
R35 + = c j e j , R36 + = c j f j ,
R41 + = d j a j , R42 + = d j b j , R43 + = d j c j , R44 + = d j d j ,
R45 + = d j e j , R46 + = d j f j ,
R51 + = e j a j, R52 + = e j b j, R53 + = e j c j, R54 + = e j d j,
R55 + = e j e j , R56 + = e j f j
12 goto 7
13. The solution of the simultaneous equations (79) is obtained by numerical calculation.
14 Check the convergence of the solution.
if | ΔW |> ThR or | Δρ |> ThR or
| Δe |> ThR or | Δθ |> ThR or | Δφ |> ThR
then
goto 2
else
Wr = W0, ρr = ρ0, er = e0, θr = θ0, φr = φ0
endif
15. Finish

ThRは解の収束性を評価するための微小な閾値である。このような道路形状推定処理により、道路形状パラメータ(Wr,ρr,er,θr,φr)が求められる。   ThR is a minute threshold for evaluating the convergence of the solution. By such road shape estimation processing, road shape parameters (Wr, ρr, er, θr, φr) are obtained.

図12の道路形状補正処理1207において、補正部1105は、格納部1108に格納された補正量DX及びDXを用いて、次式により道路形状パラメータ(Wr,ρr,er,θr,φr)を補正する。
Wr=Wr+(DX+DX
er=er+(−DX+DX)/2 (91)
In the road shape correction process 1207 in FIG. 12, the correction unit 1105, by using the correction amount DX L and DX R stored in the storage unit 1108, a road shape parameter according to the following equation (Wr, ρr, er, θr , φr) Correct.
Wr = Wr + (DX L + DX R )
er = er + (− DX L + DX R ) / 2 (91)

以上説明した道路形状パラメータの計算式(1)〜(91)は一例に過ぎず、別の座標系、別の前提条件等に基づいて異なる定式化を行っても構わない。また、図10、図12、図13、図19、図20、及び図22−図25に示した各フローチャートは一例に過ぎず、道路形状推定装置の構成や条件に応じて一部の処理を省略又は変更してもよい。   The road shape parameter calculation formulas (1) to (91) described above are merely examples, and different formulations may be performed based on different coordinate systems, different preconditions, and the like. Further, the flowcharts shown in FIGS. 10, 12, 13, 19, 20, and 22 to 25 are merely examples, and some processes are performed depending on the configuration and conditions of the road shape estimation device. It may be omitted or changed.

図26は、道路形状推定装置を用いた車線逸脱警報システムの構成例を示している。図26の車線逸脱警報システムは、カメラ1201、道路形状推定装置2601、距離計算装置2602、逸脱判定装置2603、及び逸脱警報装置2604を含む。道路形状推定装置2601の動作は上述した通りである。   FIG. 26 shows a configuration example of a lane departure warning system using a road shape estimation device. The lane departure warning system of FIG. 26 includes a camera 1201, a road shape estimation device 2601, a distance calculation device 2602, a departure determination device 2603, and a departure warning device 2604. The operation of the road shape estimation apparatus 2601 is as described above.

距離計算装置2602は、道路形状推定装置2601から出力される道路形状パラメータに基づいて、車両と左右の車線区分線との距離を計算する。逸脱判定装置2603は、計算された距離を閾値と比較して、車両が車線を逸脱したか否かを判定する。逸脱警報装置2604は、車両が車線を逸脱した場合に警報を出力する。これにより、運転者は、直ちに車両を操舵して車線に戻すことが可能になる。   The distance calculation device 2602 calculates the distance between the vehicle and the left and right lane markings based on the road shape parameter output from the road shape estimation device 2601. The departure determination device 2603 compares the calculated distance with a threshold value to determine whether or not the vehicle has deviated from the lane. The departure warning device 2604 outputs a warning when the vehicle departs from the lane. As a result, the driver can immediately steer the vehicle and return it to the lane.

図27は、道路形状推定装置を用いた車両操舵システムの構成例を示している。図27の車両操舵システムは、カメラ1201、道路形状推定装置2601、距離計算装置2602、ふらつき判定装置2701、及び車両操舵装置2702を含む。   FIG. 27 shows a configuration example of a vehicle steering system using the road shape estimation device. The vehicle steering system in FIG. 27 includes a camera 1201, a road shape estimation device 2601, a distance calculation device 2602, a wobble determination device 2701, and a vehicle steering device 2702.

ふらつき判定装置2701は、距離計算装置2602により計算された距離を閾値と比較して、車両がふらついているか否かを判定する。車両操舵装置2702は、車両がふらついている場合に、車線上での走行を維持するように車両を自動操舵して、車両のふらつきを解消する。これにより、車線からの逸脱を未然に防止することが可能になる。   The wobble determination device 2701 compares the distance calculated by the distance calculation device 2602 with a threshold value and determines whether or not the vehicle is wobbling. When the vehicle is wobbling, the vehicle steering device 2702 automatically steers the vehicle so as to maintain traveling on the lane, thereby eliminating the vehicle wobble. This makes it possible to prevent deviation from the lane.

図9、図11、図26、及び図27の道路形状推定装置は、例えば、図28に示すような情報処理装置(コンピュータ)を用いて実現可能である。
図28の情報処理装置は、映像入力部1101、Central Processing Unit (CPU)2801、メモリ2802、出力部2803、外部記憶装置2804、媒体駆動装置2805、及びネットワーク接続装置2806を備える。これらはバス2807により互いに接続されている。
The road shape estimation apparatus shown in FIGS. 9, 11, 26, and 27 can be realized using, for example, an information processing apparatus (computer) as shown in FIG.
28 includes a video input unit 1101, a central processing unit (CPU) 2801, a memory 2802, an output unit 2803, an external storage device 2804, a medium drive device 2805, and a network connection device 2806. These are connected to each other by a bus 2807.

メモリ2802は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。例えば、CPU2801は、メモリ2802を利用してプログラムを実行することにより、道路形状推定装置の処理を行う。メモリ2802は、図9の格納部915又は図11の格納部1108としても使用できる。   The memory 2802 is a semiconductor memory such as a read only memory (ROM), a random access memory (RAM), or a flash memory, and stores programs and data used for processing. For example, the CPU 2801 performs processing of the road shape estimation device by executing a program using the memory 2802. The memory 2802 can also be used as the storage unit 915 in FIG. 9 or the storage unit 1108 in FIG.

映像入力部1101は、カメラからの映像信号を取り込み、時系列な画像としてメモリ2802に格納する。出力部2803は、例えば、外部装置とのインタフェースであり、道路形状パラメータを含む処理結果の出力に用いられる。   The video input unit 1101 takes in a video signal from the camera and stores it in the memory 2802 as a time-series image. The output unit 2803 is, for example, an interface with an external device, and is used for outputting a processing result including a road shape parameter.

外部記憶装置2804は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。この外部記憶装置2804には、ハードディスクドライブも含まれる。情報処理装置は、外部記憶装置2804にプログラム及びデータを格納しておき、それらをメモリ2802にロードして使用することができる。   The external storage device 2804 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, a tape device, or the like. The external storage device 2804 includes a hard disk drive. The information processing apparatus can store programs and data in the external storage device 2804 and load them into the memory 2802 for use.

媒体駆動装置2805は、可搬型記録媒体2808を駆動し、その記録内容にアクセスする。可搬型記録媒体2808は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。この可搬型記録媒体2808には、Compact Disk Read Only Memory (CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等も含まれる。ユーザ又はオペレータは、この可搬型記録媒体2808にプログラム及びデータを格納しておき、それらをメモリ2802にロードして使用することができる。   The medium driving device 2805 drives the portable recording medium 2808 and accesses the recorded contents. The portable recording medium 2808 is a memory device, a flexible disk, an optical disk, a magneto-optical disk, or the like. The portable recording medium 2808 includes a compact disk read only memory (CD-ROM), a digital versatile disk (DVD), a universal serial bus (USB) memory, and the like. A user or an operator can store programs and data in the portable recording medium 2808 and load them into the memory 2802 for use.

このように、各種処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体には、メモリ2802、外部記憶装置2804、及び可搬型記録媒体2808のような、物理的な(非一時的な)記録媒体が含まれる。   As described above, computer-readable recording media for storing programs and data used in various processes include physical (non-temporary) such as the memory 2802, the external storage device 2804, and the portable recording medium 2808. ) A recording medium is included.

ネットワーク接続装置2805は、通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェースである。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置2805を介して受け取り、それらをメモリ2802にロードして使用することもできる。   The network connection device 2805 is a communication interface that is connected to a communication network and performs data conversion accompanying communication. The information processing apparatus can also receive a program and data from an external apparatus via the network connection apparatus 2805 and load them into the memory 2802 for use.

なお、情報処理装置が図28のすべての構成要素を含む必要はなく、用途や条件に応じて一部の構成要素を省略することも可能である。例えば、情報処理装置が可搬型記録媒体2808にアクセスしない場合は、媒体駆動装置2805を省略してもよく、情報処理装置が通信ネットワークに接続されない場合は、ネットワーク接続装置2805を省略してもよい。   Note that the information processing apparatus does not have to include all the components illustrated in FIG. 28, and some of the components may be omitted depending on applications and conditions. For example, when the information processing apparatus does not access the portable recording medium 2808, the medium driving apparatus 2805 may be omitted, and when the information processing apparatus is not connected to the communication network, the network connection apparatus 2805 may be omitted. .

開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。   Although the disclosed embodiments and their advantages have been described in detail, those skilled in the art can make various modifications, additions and omissions without departing from the scope of the present invention as explicitly set forth in the claims. Let's go.

101、102、201、202、301、302、711、712 車線区分線
103、104、203、204、303、304、721、722 補助線
205、206、305、306 エッジ線
601〜606、731、732、741、742 内側境界線
701、702 領域
801〜804、811〜813 位置
901、2601 道路形状推定装置
911、1102 エッジ検出部
912、1104 道路形状推定部
913、1105 補正部
914、1107 補正量推定部
915、1108 格納部
1100 カメラ
1101 映像入力部
1103 候補線決定部
1106 補助線判定部
2101、2102、2103、2104 複合エッジ線
2602 距離計算装置
2603 逸脱判定装置
2604 逸脱警報装置
2701 ふらつき判定装置
2702 車両操舵装置
2801 CPU
2802 メモリ
2803 出力部
2804 外部記憶装置
2805 媒体駆動装置
2806 ネットワーク接続装置
2807 バス
2808 可搬型記録媒体
101, 102, 201, 202, 301, 302, 711, 712 Lane lane markings 103, 104, 203, 204, 303, 304, 721, 722 Auxiliary lines 205, 206, 305, 306 Edge lines 601-606, 731, 732, 741, 742 Inner boundary lines 701, 702 Regions 801-804, 811-813 Positions 901, 2601 Road shape estimation device 911, 1102 Edge detection unit 912, 1104 Road shape estimation unit 913, 1105 Correction unit 914, 1107 Correction amount Estimating unit 915, 1108 Storage unit 1100 Camera 1101 Video input unit 1103 Candidate line determination unit 1106 Auxiliary line determination unit 2101, 1022, 2103, 2104 Compound edge line 2602 Distance calculation device 2603 Deviation determination device 2604 Deviation warning device 2701 Variability determination device 2702 Steering system 2801 CPU
2802 Memory 2803 Output unit 2804 External storage device 2805 Medium drive device 2806 Network connection device 2807 Bus 2808 Portable recording medium

Claims (6)

道路の路面を撮影した画像から複数のエッジ線を検出し、該複数のエッジ線のうち1つ以上のエッジ線を連結して複合エッジ線を生成するエッジ検出部と、
前記道路の中央に最も近い内側複合エッジ線の情報に基づいて、前記路面を撮影したカメラの横方向オフセットと道路幅とを含む、前記道路の道路形状パラメータを求める道路形状推定部と、
前記内側複合エッジ線と該内側複合エッジ線の外側に位置する外側複合エッジ線との距離に基づいて補正量を求める補正量推定部と、
前記補正量を格納する格納部と、
前記横方向オフセット及び前記道路幅を前記補正量を用いて補正し、補正された横方向オフセット及び道路幅を含む道路形状パラメータを出力する補正部と
を備えることを特徴とする道路形状推定装置。
An edge detection unit that detects a plurality of edge lines from an image of a road surface of a road and generates a composite edge line by connecting one or more of the plurality of edge lines;
Based on the information of the inner composite edge line closest to the center of the road, including a lateral offset of the camera that captured the road surface and the road width, a road shape estimation unit for obtaining road shape parameters of the road;
A correction amount estimation unit for obtaining a correction amount based on a distance between the inner composite edge line and an outer composite edge line located outside the inner composite edge line;
A storage unit for storing the correction amount;
A road shape estimation apparatus comprising: a correction unit that corrects the lateral offset and the road width using the correction amount, and outputs a road shape parameter including the corrected lateral offset and road width.
前記補正量推定部は、前記内側複合エッジ線に含まれるエッジ線のうち前記画像内で前記カメラの近傍に存在する第1のエッジ線と、前記外側複合エッジ線に含まれるエッジ線のうち前記画像内で前記カメラの近傍に存在する第2のエッジ線との距離に基づいて、前記補正量を求めることを特徴とする請求項1記載の道路形状推定装置。   The correction amount estimation unit includes a first edge line that is present in the vicinity of the camera in the image among edge lines included in the inner composite edge line, and the edge line included in the outer composite edge line. The road shape estimation apparatus according to claim 1, wherein the correction amount is obtained based on a distance from a second edge line existing in the vicinity of the camera in an image. 前記補正量推定部は、前記内側複合エッジ線に含まれるエッジ線の長さが閾値より小さいとき、該内側複合エッジ線の外側に前記外側複合エッジ線が存在するか否かをチェックし、該外側複合エッジ線が存在するとき、該内側複合エッジ線と該外側複合エッジ線との距離に基づいて前記補正量を求め、該内側複合エッジ線に含まれるエッジ線の長さが該閾値より大きいとき、前記補正量を0に設定することを特徴とする請求項1又は2記載の道路形状推定装置。   The correction amount estimation unit checks whether the outer composite edge line exists outside the inner composite edge line when the length of the edge line included in the inner composite edge line is smaller than a threshold, When the outer composite edge line exists, the correction amount is obtained based on the distance between the inner composite edge line and the outer composite edge line, and the length of the edge line included in the inner composite edge line is larger than the threshold value. The road shape estimation apparatus according to claim 1, wherein the correction amount is set to zero. 請求項1乃至3のいずれか1項に記載の道路形状推定装置と、
前記道路形状推定装置から出力される道路形状パラメータに基づいて、車両が車線を逸脱したか否かを判定する逸脱判定装置と、
前記車両が前記車線を逸脱した場合に警報を出力する逸脱警報装置と
を備えることを特徴とする車線逸脱警報システム。
The road shape estimation device according to any one of claims 1 to 3,
A departure determination device that determines whether the vehicle has deviated from the lane based on the road shape parameter output from the road shape estimation device;
A lane departure warning system comprising a departure warning device that outputs a warning when the vehicle departs from the lane.
請求項1乃至3のいずれか1項に記載の道路形状推定装置と、
前記道路形状推定装置から出力される道路形状パラメータに基づいて、車両がふらついているか否かを判定するふらつき判定装置と、
前記車両がふらついている場合に、車線上での走行を維持するように該車両を操舵する車両操舵装置と
を備えることを特徴とする車両操舵システム。
The road shape estimation device according to any one of claims 1 to 3,
Based on the road shape parameter output from the road shape estimation device, a stagger determination device that determines whether the vehicle is staggered,
A vehicle steering system comprising: a vehicle steering device that steers the vehicle so as to maintain traveling on a lane when the vehicle is staggered.
道路の路面を撮影した画像から複数のエッジ線を検出し、
前記複数のエッジ線のうち1つ以上のエッジ線を連結して複合エッジ線を生成し、
前記道路の中央に最も近い内側複合エッジ線の情報に基づいて、前記路面を撮影したカメラの横方向オフセットと道路幅とを含む、前記道路の道路形状パラメータを求め、
前記内側複合エッジ線と該内側複合エッジ線の外側に位置する外側複合エッジ線との距離に基づいて補正量を求め、
前記の横方向オフセット及び前記道路幅を前記補正量を用いて補正し、
補正された横方向オフセット及び道路幅を含む道路形状パラメータを出力する
処理をコンピュータに実行させるプログラム。
Detect multiple edge lines from the image of the road surface,
Connecting one or more edge lines of the plurality of edge lines to generate a composite edge line;
Based on the information of the inner composite edge line closest to the center of the road, including the lateral offset of the camera that captured the road surface and the road width, to determine the road shape parameters of the road,
Obtaining a correction amount based on the distance between the inner composite edge line and the outer composite edge line located outside the inner composite edge line,
Correcting the lateral offset and the road width using the correction amount;
A program for causing a computer to execute a process of outputting road shape parameters including a corrected lateral offset and road width.
JP2011267388A 2011-12-06 2011-12-06 Road shape estimation apparatus and program Active JP5799784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011267388A JP5799784B2 (en) 2011-12-06 2011-12-06 Road shape estimation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011267388A JP5799784B2 (en) 2011-12-06 2011-12-06 Road shape estimation apparatus and program

Publications (2)

Publication Number Publication Date
JP2013120458A true JP2013120458A (en) 2013-06-17
JP5799784B2 JP5799784B2 (en) 2015-10-28

Family

ID=48773077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011267388A Active JP5799784B2 (en) 2011-12-06 2011-12-06 Road shape estimation apparatus and program

Country Status (1)

Country Link
JP (1) JP5799784B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069339A (en) * 2013-09-27 2015-04-13 富士重工業株式会社 Vehicular white-line recognition apparatus
JP2015069340A (en) * 2013-09-27 2015-04-13 富士重工業株式会社 Vehicular white-line recognition apparatus
CN104634321A (en) * 2013-11-14 2015-05-20 现代自动车株式会社 Inspection device of vehicle driver assistance systems
EP2905723A1 (en) 2014-02-07 2015-08-12 Toyota Jidosha Kabushiki Kaisha Travel lane boundary line detection apparatus
JP2015197829A (en) * 2014-04-01 2015-11-09 本田技研工業株式会社 Lane marker recognition device
JP2017010464A (en) * 2015-06-25 2017-01-12 富士通株式会社 Lane detection device and lane detection method
CN112710301A (en) * 2020-12-09 2021-04-27 上汽大众汽车有限公司 High-precision positioning method and system for automatic driving vehicle
JP2021124996A (en) * 2020-02-06 2021-08-30 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method
JP7149385B1 (en) 2021-07-12 2022-10-06 株式会社デンソーテン Lane detection device, lane detection method, and lane detection program
CN115427759A (en) * 2020-04-08 2022-12-02 日产自动车株式会社 Map information correction method, driving support method, and map information correction device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102042315B1 (en) * 2017-11-15 2019-11-07 전자부품연구원 Road profile estimation apparatus and road profile estimation method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352226A (en) * 2001-05-25 2002-12-06 Nissan Motor Co Ltd Traveling course detector
JP2003178399A (en) * 2001-12-12 2003-06-27 Aisin Seiki Co Ltd Lane boundary detecting device
JP2004310522A (en) * 2003-04-08 2004-11-04 Toyota Motor Corp Vehicular image processor
JP2007220013A (en) * 2006-02-20 2007-08-30 Mazda Motor Corp Device for detecting white line for vehicle
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device
JP2009166691A (en) * 2008-01-16 2009-07-30 Mazda Motor Corp Vehicle traveling control device
JP2011059855A (en) * 2009-09-08 2011-03-24 Nissan Motor Co Ltd Driving status detection device for vehicle, driving status detection method for vehicle, and motor vehicle
JP2011243161A (en) * 2010-05-21 2011-12-01 Denso Corp Lane boundary detection apparatus and lane boundary detection program
JP2012058983A (en) * 2010-09-08 2012-03-22 Fuji Heavy Ind Ltd Lane estimating device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352226A (en) * 2001-05-25 2002-12-06 Nissan Motor Co Ltd Traveling course detector
JP2003178399A (en) * 2001-12-12 2003-06-27 Aisin Seiki Co Ltd Lane boundary detecting device
JP2004310522A (en) * 2003-04-08 2004-11-04 Toyota Motor Corp Vehicular image processor
JP2007220013A (en) * 2006-02-20 2007-08-30 Mazda Motor Corp Device for detecting white line for vehicle
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device
JP2009166691A (en) * 2008-01-16 2009-07-30 Mazda Motor Corp Vehicle traveling control device
JP2011059855A (en) * 2009-09-08 2011-03-24 Nissan Motor Co Ltd Driving status detection device for vehicle, driving status detection method for vehicle, and motor vehicle
JP2011243161A (en) * 2010-05-21 2011-12-01 Denso Corp Lane boundary detection apparatus and lane boundary detection program
JP2012058983A (en) * 2010-09-08 2012-03-22 Fuji Heavy Ind Ltd Lane estimating device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069339A (en) * 2013-09-27 2015-04-13 富士重工業株式会社 Vehicular white-line recognition apparatus
JP2015069340A (en) * 2013-09-27 2015-04-13 富士重工業株式会社 Vehicular white-line recognition apparatus
CN104634321A (en) * 2013-11-14 2015-05-20 现代自动车株式会社 Inspection device of vehicle driver assistance systems
EP2905723A1 (en) 2014-02-07 2015-08-12 Toyota Jidosha Kabushiki Kaisha Travel lane boundary line detection apparatus
CN104835139A (en) * 2014-02-07 2015-08-12 丰田自动车株式会社 Travel lane boundary line detection apparatus
JP2015149029A (en) * 2014-02-07 2015-08-20 トヨタ自動車株式会社 lane boundary detection apparatus
US9317755B2 (en) 2014-02-07 2016-04-19 Toyota Jidosha Kabushiki Kaisha Travel lane boundary line detection apparatus
JP2015197829A (en) * 2014-04-01 2015-11-09 本田技研工業株式会社 Lane marker recognition device
JP2017010464A (en) * 2015-06-25 2017-01-12 富士通株式会社 Lane detection device and lane detection method
JP2021124996A (en) * 2020-02-06 2021-08-30 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method
JP7453008B2 (en) 2020-02-06 2024-03-19 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method
CN115427759A (en) * 2020-04-08 2022-12-02 日产自动车株式会社 Map information correction method, driving support method, and map information correction device
CN115427759B (en) * 2020-04-08 2023-08-29 日产自动车株式会社 Map information correction method, driving assistance method, and map information correction device
CN112710301A (en) * 2020-12-09 2021-04-27 上汽大众汽车有限公司 High-precision positioning method and system for automatic driving vehicle
JP7149385B1 (en) 2021-07-12 2022-10-06 株式会社デンソーテン Lane detection device, lane detection method, and lane detection program
JP2023011400A (en) * 2021-07-12 2023-01-24 株式会社デンソーテン Lane detection apparatus, lane detection method, and lane detection program

Also Published As

Publication number Publication date
JP5799784B2 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP5799784B2 (en) Road shape estimation apparatus and program
US10424081B2 (en) Method and apparatus for calibrating a camera system of a motor vehicle
JP4297501B2 (en) Moving object periphery monitoring device
JP4367475B2 (en) Moving object recognition apparatus, moving object recognition method, and computer program
JP3937414B2 (en) Planar detection apparatus and detection method
JP6670071B2 (en) Vehicle image recognition system and corresponding method
EP2757524B1 (en) Depth sensing method and system for autonomous vehicles
CN112037159B (en) Cross-camera road space fusion and vehicle target detection tracking method and system
JP2006053756A (en) Object detector
EP2960886A1 (en) Moving object recognition systems, moving object recognition programs, and moving object recognition methods
JP4793324B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
CN106020182B (en) Vehicle and vehicle parking system
JP6515704B2 (en) Lane detection device and lane detection method
KR101549165B1 (en) Apparatus and method for estimating pose of vehicle
JP7145770B2 (en) Inter-Vehicle Distance Measuring Device, Error Model Generating Device, Learning Model Generating Device, Methods and Programs Therefor
KR101723536B1 (en) Method and Apparatus for detecting lane of road
JP4734568B2 (en) Method and apparatus for determining moving object measurement point on image
CN113643355B (en) Target vehicle position and orientation detection method, system and storage medium
JP2006053754A (en) Plane detection apparatus and detection method
JP4270386B2 (en) Moving body moving amount calculation device
JP5780140B2 (en) Road shape estimation apparatus and program
KR20160063039A (en) Method of Road Recognition using 3D Data
US7899212B2 (en) Image processing apparatus and image processing method
JP4714872B2 (en) Method and apparatus for dividing moving object superimposed on image
JP7127607B2 (en) Rail curvature estimator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150810

R150 Certificate of patent or registration of utility model

Ref document number: 5799784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150