JP5310027B2 - Lane recognition device and lane recognition method - Google Patents

Lane recognition device and lane recognition method Download PDF

Info

Publication number
JP5310027B2
JP5310027B2 JP2009014550A JP2009014550A JP5310027B2 JP 5310027 B2 JP5310027 B2 JP 5310027B2 JP 2009014550 A JP2009014550 A JP 2009014550A JP 2009014550 A JP2009014550 A JP 2009014550A JP 5310027 B2 JP5310027 B2 JP 5310027B2
Authority
JP
Japan
Prior art keywords
edge point
road model
road
angle
lane recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009014550A
Other languages
Japanese (ja)
Other versions
JP2010170488A (en
Inventor
千加夫 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2009014550A priority Critical patent/JP5310027B2/en
Publication of JP2010170488A publication Critical patent/JP2010170488A/en
Application granted granted Critical
Publication of JP5310027B2 publication Critical patent/JP5310027B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、車線認識装置、及び車線認識方法に関する。   The present invention relates to a lane recognition device and a lane recognition method.

車線(レーンマーク)を含む画像における輝度変化部分をエッジ点として抽出し、抽出したエッジ点の方向角を算出して、この方向角の出願頻度が所定値以上である輝度変化部分を車線と推定する車線認識方法があった(特許文献1参照)。   The brightness change part in the image including the lane (lane mark) is extracted as an edge point, the direction angle of the extracted edge point is calculated, and the brightness change part whose filing frequency of the direction angle is a predetermined value or more is estimated as the lane. There was a lane recognition method to perform (see Patent Document 1).

特許第4016735号公報Japanese Patent No. 4016735

ところで、路面には、二重に引かれた白線、タイヤのスリップ痕、水膜などが存在することがある。すなわち、画像データから抽出したエッジ点には、通行区分線(白線)以外のエッジ点が含まれる可能性があるので、誤って検出したエッジ点のみに基づいて車線を認識すると、車線認識の精度が低下することになる。
本発明の課題は、車線認識の精度を向上させることである。
By the way, double white lines, tire slip marks, water films, and the like may exist on the road surface. That is, the edge points extracted from the image data may include edge points other than the traffic line (white line). Therefore, if the lane is recognized based only on the edge points detected in error, the lane recognition accuracy is improved. Will drop.
An object of the present invention is to improve the accuracy of lane recognition.

本発明に係る車線認識装置は、走行路を撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出すると共に、走行路の道路モデルを生成し、検出したエッジ点を生成した道路モデルと比較することで有効エッジ点を選別し、選別した有効エッジ点に基づいて前記道路モデルを更新する。有効エッジ点の選別は、エッジ点と道路モデルとの、座標偏差及び角度偏差のうち少なくとも角度偏差に基づいて行う。角度偏差に基づいて有効エッジ点を選別する際には、エッジ点を通り且つ道路モデルに直交する直線を引き、この直線と道路モデルとの交点における接線角度、及びエッジ点におけるベクトル角度の角度偏差が角度用の閾値より小さいときに、そのエッジ点を有効エッジ点として選別する。 The lane recognition device according to the present invention detects an edge point whose density change is equal to or greater than a threshold in an image obtained by imaging a traveling road, generates a road model of the traveling road, and generates the detected edge point. The effective edge point is selected by comparing with, and the road model is updated based on the selected effective edge point. The selection of the effective edge point is performed based on at least the angular deviation among the coordinate deviation and the angular deviation between the edge point and the road model. When selecting an effective edge point based on the angle deviation, a straight line passing through the edge point and orthogonal to the road model is drawn, and the tangent angle at the intersection of this line and the road model, and the angle deviation of the vector angle at the edge point Is smaller than the angle threshold, the edge point is selected as an effective edge point.

本発明に係る車線認識装置によれば、検出したエッジ点と道路モデルとの比較、つまりエッジ点と道路モデルとの、座標偏差及び角度偏差の少なくとも一方に基づいて有効エッジ点を選別し、選別した有効エッジ点に基づいて道路モデルを更新することで、車線認識の精度を向上させることができる。   According to the lane recognition device of the present invention, the effective edge point is selected based on the comparison between the detected edge point and the road model, that is, based on at least one of the coordinate deviation and the angle deviation between the edge point and the road model. By updating the road model based on the effective edge points, the accuracy of lane recognition can be improved.

車線認識装置の概略構成である。It is a schematic structure of a lane recognition device. カメラ位置を示す。Indicates the camera position. 道路モデルである。It is a road model. 画像処理プログラムのフローチャートである。It is a flowchart of an image processing program. エッジ点の検出に用いるSobelオペレータの係数を示す。The coefficient of Sobel operator used for edge point detection is shown. エッジ点の角度を示す。Indicates the angle of the edge point. スクリーン座標系、及び道路座標系である。A screen coordinate system and a road coordinate system. エッジフィルタリング処理の概略を示す。The outline of an edge filtering process is shown. 第二実施形態を示す車線認識装置の概略構成である。It is a schematic structure of the lane recognition apparatus which shows 2nd embodiment. 第二実施形態を示す画像処理プログラムのフローチャートである。It is a flowchart of the image processing program which shows 2nd embodiment. 第三実施形態を示す車線認識装置の概略構成である。It is a schematic structure of the lane recognition apparatus which shows 3rd embodiment. 第三実施形態を示す画像処理プログラムのフローチャートである。It is a flowchart of the image processing program which shows 3rd embodiment.

以下、本発明の実施形態を図面に基づいて説明する。
《第1実施形態》
《構成》
図1は、車線認識装置の概略構成である。
車線認識装置102は、車両に搭載したカメラ100により取得した車両前方の道路画像を格納する画像メモリ103と、舵角検出手段104および車速検出手段とに基づいて道路形状を表す道路モデル108のパラメータを更新する例えばマイクロプロセッサを使用したプロセッサ106と、を備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<< First Embodiment >>
"Constitution"
FIG. 1 is a schematic configuration of a lane recognition device.
The lane recognition device 102 is a parameter of the road model 108 that represents the road shape based on the image memory 103 that stores the road image ahead of the vehicle acquired by the camera 100 mounted on the vehicle, the steering angle detection means 104, and the vehicle speed detection means. For example, a processor 106 using a microprocessor.

プロセッサ106は、画像メモリ103に格納された道路画像を処理して白線の濃淡エッジ点の座標と角度を検出するエッジ点座標・角度検出部109と、検出されたエッジ点の座標と角度を、車両進行方向を一軸とする道路上の座標系(道路座標系)に変換する座標変換部110と、座標変換された濃淡エッジ点の座標と角度を道路モデル108と比較することで有効な走行車線の車両区分線のエッジ点のみを選別するエッジフィルタリング部111と、選別された有効エッジ点に基づいて道路モデル108を更新する道路モデル更新部112と、を備える。さらに、舵角センサ104と車速センサ105から車線認識開始時に初期道路モデルを生成する道路モデル生成部107を備える。プロセッサ106は、上記の各部をプログラムにより実現している。   The processor 106 processes the road image stored in the image memory 103 to detect the coordinates and angle of the white line shading edge point, and detects the coordinates and angle of the detected edge point. A coordinate conversion unit 110 that converts to a coordinate system on the road with the vehicle traveling direction as one axis (road coordinate system), and the coordinates and angles of the shaded edge points that have been coordinate-converted are compared with the road model 108, and an effective travel lane An edge filtering unit 111 that selects only the edge points of the vehicle dividing line, and a road model update unit 112 that updates the road model 108 based on the selected effective edge points. Furthermore, a road model generation unit 107 that generates an initial road model from the rudder angle sensor 104 and the vehicle speed sensor 105 at the start of lane recognition is provided. The processor 106 implements the above-described units by a program.

図2は、カメラ位置を示す。
車両200には、車両前方の路面を撮影するカメラ100と、舵角センサ104と、車速センサ105と、それらに基づいて車線を認識する車線認識装置102と、が設置される。カメラ100は、車両中央のできるだけ高い位置に設置されるのが望ましく、水平線および広い範囲の通行区分線を撮影できるように水平よりも若干下向きに設置される。
FIG. 2 shows the camera position.
The vehicle 200 is provided with a camera 100 that captures a road surface ahead of the vehicle, a steering angle sensor 104, a vehicle speed sensor 105, and a lane recognition device 102 that recognizes the lane based on them. The camera 100 is preferably installed at a position as high as possible in the center of the vehicle, and is installed slightly downward from the horizontal so that a horizontal line and a wide range of traffic dividing lines can be photographed.

図3は、道路モデルである。
道路モデルは、車線形状を数式で表したものであり、そのパラメータとして少なくとも道路の曲率半径と、車線の幅と、車線中心線に対する車両のヨー角とを含み、例えば道路座標系においては円の方程式である。
車両200は、車線の中心線1201に対してYw軸周りにφだけ回転した方向を向いている。このとき、右側の通行区分線は、次式で表される。
FIG. 3 shows a road model.
The road model is a mathematical expression of the lane shape, and includes at least the radius of curvature of the road, the width of the lane, and the yaw angle of the vehicle with respect to the lane centerline as its parameters. It is an equation.
The vehicle 200 faces a direction rotated by φ around the Yw axis with respect to the center line 1201 of the lane. At this time, the right traffic dividing line is expressed by the following equation.

Figure 0005310027
一方、左側の通行区分線は、次式で表される。
Figure 0005310027
On the other hand, the left traffic dividing line is expressed by the following equation.

Figure 0005310027
Figure 0005310027

ここで、Rは道路の曲率半径、φは車線延伸方向に対する車両のヨー角、Wは車線幅である。なお、上記の各式では、路面勾配が水平であると仮定し、Yw=0としている。
図4は、画像処理プログラムのフローチャートである。
先ずステップS1では、舵角を読込む。
続くステップS2では、車速を読込む。
続くステップS3では、車両がこれから走行する軌道を舵角及び車速に応じて算出することで、初期の道路モデルを生成する。
続くステップS4では、カメラ100で撮像された画像を画像メモリ103に読込む。
続くステップS5では、Sobelオペレータにより、撮像した画像内で濃度変化が閾値以上となるエッジ点を検出する。
Here, R is the curvature radius of the road, φ is the vehicle yaw angle with respect to the lane extending direction, and W is the lane width. In each of the above equations, it is assumed that the road gradient is horizontal, and Yw = 0.
FIG. 4 is a flowchart of the image processing program.
First, in step S1, the rudder angle is read.
In subsequent step S2, the vehicle speed is read.
In the subsequent step S3, an initial road model is generated by calculating a trajectory from which the vehicle will travel in accordance with the steering angle and the vehicle speed.
In a succeeding step S4, an image captured by the camera 100 is read into the image memory 103.
In subsequent step S5, the Sobel operator detects an edge point where the density change is equal to or greater than a threshold in the captured image.

図5は、エッジ点の検出に用いるSobelオペレータの係数を示す。
エッジ点の検出は、撮像した画像に対して、Sobelオペレータ400及び401によって水平および垂直方向の微分画像を得る。なお、Sobelオペレータでなくとも、水平および垂直方向の濃度変化を抽出できれば任意の処理に替えてもよい。
先ず注目する画素(x、y)における水平および垂直方向の微分値を夫々Gx、Gyとし、エッジ強度Gを下記の式に従って算出する。そして、エッジ強度Gが少なくとも0より大きい所定の閾値を越えているとき、その画素をエッジ点と判断する。
G=√(Gx2+Gy2
FIG. 5 shows the coefficients of the Sobel operator used for edge point detection.
In the detection of edge points, differential images in the horizontal and vertical directions are obtained by Sobel operators 400 and 401 with respect to the captured image. In addition, even if it is not a Sobel operator, it may replace with arbitrary processes, if the density change of a horizontal and vertical direction can be extracted.
First, the horizontal and vertical differential values of the pixel of interest (x, y) are Gx and Gy, respectively, and the edge strength G is calculated according to the following equation. When the edge strength G exceeds a predetermined threshold value greater than at least 0, the pixel is determined to be an edge point.
G = √ (Gx 2 + Gy 2 )

図6は、エッジ点の角度を示す。
通行区分線500は、路面501よりも輝度値が大きい白色等で記されており、エッジ点502の角度θは画像の下向きの軸を基準に反時計回りとし、その値域は0rad以上2πrad未満とする。エッジ点の角度θは、Gx及びGyの大きさに応じて、下記の式で定義される。なお、Gx=0且つGy=0のときはエッジ強度Gが閾値未満となり、エッジ点とは判断されないため、エッジの角度θは算出されない。
Gx>0のとき
θ=π−tan-1(Gy/Gx)
Gx<0、且つGy≧0のとき
θ=tan-1(−Gy/Gx)
Gx<0、且つGy<0のとき
θ=tan-1(−Gy/Gx)+2π
Gx=0、且つGy>0のとき
θ=π/2
Gx=0、且つGy<0のとき
θ=3π/2
このようにして算出されたエッジ点の角度は、図6に示されるように通行区分線の左右のエッジでは互いに向きが反対となる。
FIG. 6 shows the angle of the edge point.
The traffic dividing line 500 is written in white or the like having a luminance value larger than that of the road surface 501, and the angle θ of the edge point 502 is counterclockwise with respect to the downward axis of the image, and its value range is 0 rad or more and less than 2π rad. To do. The angle θ of the edge point is defined by the following equation according to the magnitudes of Gx and Gy. Note that when Gx = 0 and Gy = 0, the edge strength G is less than the threshold and is not determined as an edge point, so the edge angle θ is not calculated.
When Gx> 0 θ = π−tan −1 (Gy / Gx)
When Gx <0 and Gy ≧ 0, θ = tan −1 (−Gy / Gx)
When Gx <0 and Gy <0, θ = tan −1 (−Gy / Gx) + 2π
When Gx = 0 and Gy> 0, θ = π / 2
When Gx = 0 and Gy <0, θ = 3π / 2
The angles of the edge points calculated in this way are opposite to each other at the left and right edges of the traffic dividing line as shown in FIG.

続くステップS6では、エッジ点の座標と角度を、道路座標系に変換する。
図7は、スクリーン座標系、及び道路座標系である。
スクリーン座標系は、図7(a)に示すように、撮像面600の右向きをXs軸、下向きをYs軸、撮像面の左上隅を原点とする。また、カメラの水平・垂直解像度を夫々Sx、Sv、カメラのレンズ中心を撮像面の中心(Sx/2、Sy/2)とする。道路座標系は、図7(b)に示すように、車両200に取り付けられたカメラ100のレンズ中心を原点、車両進行方向をZw軸、車両左方向をXw軸、鉛直方向をYw軸とする。路面が水平であると仮定すると、道路座標系におけるエッジ点のYw座標成分は常に0となる。したがって、下記の式に従ってスクリーン座標系におけるエッジ点の座標を道路座標系に変換することができる。
In the subsequent step S6, the coordinates and angles of the edge points are converted into a road coordinate system.
FIG. 7 shows a screen coordinate system and a road coordinate system.
In the screen coordinate system, as shown in FIG. 7A, the right direction of the imaging surface 600 is the Xs axis, the downward direction is the Ys axis, and the upper left corner of the imaging surface is the origin. The horizontal and vertical resolutions of the camera are Sx and Sv, respectively, and the center of the camera lens is the center of the imaging surface (Sx / 2, Sy / 2). In the road coordinate system, as shown in FIG. 7B, the lens center of the camera 100 attached to the vehicle 200 is the origin, the vehicle traveling direction is the Zw axis, the vehicle left direction is the Xw axis, and the vertical direction is the Yw axis. . Assuming that the road surface is horizontal, the Yw coordinate component of the edge point in the road coordinate system is always zero. Therefore, the coordinates of the edge point in the screen coordinate system can be converted into the road coordinate system according to the following formula.

Figure 0005310027
Figure 0005310027

ここで、α、β、γはカメラのピッチ角、ヨー角、ロール角であり、夫々、Xw軸、Yw軸、Zw軸周りの回転角である。tx、ty、tzは道路座標系におけるカメラのレンズ中心の座標である。fh、fvは透視変換のパラメータであり、カメラの特性によって決まる定数である。
続くステップS7では、道路座標系においてエッジ点の座標と角度を道路座標系において記述される道路モデルと比較することで、道路モデルから乖離したエッジ点を無効エッジ点として除外し、通行区分線のエッジ点のみを有効エッジ点として選別する。
Here, α, β, and γ are the pitch angle, yaw angle, and roll angle of the camera, and are rotation angles around the Xw axis, the Yw axis, and the Zw axis, respectively. tx, ty, and tz are coordinates of the lens center of the camera in the road coordinate system. fh and fv are parameters for perspective transformation, and are constants determined by the characteristics of the camera.
In subsequent step S7, by comparing the coordinates and angles of the edge points in the road coordinate system with the road model described in the road coordinate system, the edge points deviating from the road model are excluded as invalid edge points, and Only edge points are selected as effective edge points.

図8は、エッジフィルタリング処理の概略を示す。
ここでは、エッジフィルタリングする二つの方法について説明する。
一つ目は、エッジ点700を通り道路モデル701に直交する直線を引き、エッジ点700から道路モデル701との交点Pまでの距離dを求め、この距離dが座標用閾値以上である場合には、このエッジ点700を無効エッジ点として除外するという方法である。そして、距離dが座標用閾値Dthより小さい場合には、このエッジ点700を有効エッジ点として選別する。
FIG. 8 shows an outline of the edge filtering process.
Here, two methods for edge filtering will be described.
First, when a straight line that passes through the edge point 700 and is orthogonal to the road model 701 is drawn, a distance d from the edge point 700 to the intersection point P with the road model 701 is obtained. Is a method of excluding this edge point 700 as an invalid edge point. When the distance d is smaller than the coordinate threshold value Dth, the edge point 700 is selected as an effective edge point.

二つ目は、前述した交点Pにおける道路モデルの接線ベクトル703と、エッジ点700のベクトル702とのなす角度θdを求め、この角度θdが角度用閾値θth以上である場合には、このエッジ点700を無効エッジ点として除外するという方法である。そして、角度θdが角度用閾値より小さい場合には、このエッジ点700を有効エッジ点として選別する。   Second, an angle θd formed between the tangent vector 703 of the road model at the intersection P and the vector 702 of the edge point 700 is obtained. If this angle θd is equal to or larger than the angle threshold θth, this edge point In this method, 700 is excluded as an invalid edge point. When the angle θd is smaller than the angle threshold, the edge point 700 is selected as an effective edge point.

なお、ある幅を持つ通行区分線の左右のエッジのうち、車両が走行している車線側のエッジを抽出対象とするため、走行車線の左側の境界を表す道路モデルの接線ベクトル703は、Zw軸の負の向きにとり、走行車線の右側の境界を表す道路モデルの接線ベクトル704は、Zw軸の正の向きにとる。以上のエッジフィルタリング処理により、除外されずに残ったエッジ点が有効なエッジ点となる。   Note that the tangent vector 703 of the road model representing the boundary on the left side of the traveling lane is Zw in order to extract the edge on the lane side in which the vehicle is traveling among the left and right edges of the traffic dividing line having a certain width. The tangent vector 704 of the road model representing the right boundary of the traveling lane in the negative direction of the axis is in the positive direction of the Zw axis. By the above edge filtering processing, the edge points that remain without being excluded become effective edge points.

続くステップS8では、有効エッジ点群を、前述した円の方程式を最小二乗法によってフィッティングさせ、その方程式を新たな道路モデルとして更新する。
続くステップS9では、終了判定を行い、処理を続行する場合には前記ステップS4に戻り、処理を終了する場合には所定のメインプログラムに復帰する。
なお、前記ステップS4〜S9の処理は、カメラ100の撮像周期に合わせて繰り返し実行される。
In the subsequent step S8, the effective edge point group is fitted to the aforementioned circle equation by the least square method, and the equation is updated as a new road model.
In the subsequent step S9, an end determination is made. When the process is continued, the process returns to step S4, and when the process is ended, the process returns to a predetermined main program.
Note that the processes in steps S4 to S9 are repeatedly executed in accordance with the imaging cycle of the camera 100.

《作用》
カメラ100で車両前方の走行路を撮像し、撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出し(ステップS5)、これを道路モデルと比較することで、車線(通行区分線)を認識すると共に、この道路モデルを更新する(ステップS8)。
ところで、路面には、二重に引かれた白線、タイヤのスリップ痕、水膜などが存在することがある。すなわち、画像データから抽出したエッジ点には、通行区分線以外のエッジ点が含まれる可能性があるで、誤って検出したエッジ点に基づいて道路モデルを更新してしまうと、車線認識の精度が低下することになる。
<Action>
The camera 100 captures the traveling road ahead of the vehicle, detects an edge point where the density change is greater than or equal to the threshold value in the captured image (step S5), and compares this with the road model to determine the lane (traffic division line) ) And the road model is updated (step S8).
By the way, double white lines, tire slip marks, water films, and the like may exist on the road surface. That is, the edge points extracted from the image data may include edge points other than the traffic lane marking lines, and if the road model is updated based on the edge points detected in error, the accuracy of lane recognition Will drop.

本実施形態では、検出したエッジ点を道路モデルと比較する際に、有効エッジ点だけを選別し(ステップS7)、選別した有効エッジ点に基づいて道路モデルを更新する。これにより、車線認識の精度を向上させることができる。
有効エッジ点の選別は、検出したエッジ点と道路モデルとの、座標偏差及び角度偏差の何れか一方に基づいて行う(図8)。
In this embodiment, when comparing the detected edge point with the road model, only the effective edge point is selected (step S7), and the road model is updated based on the selected effective edge point. Thereby, the precision of lane recognition can be improved.
The selection of the effective edge point is performed based on one of the coordinate deviation and the angle deviation between the detected edge point and the road model (FIG. 8).

先ず、エッジ点を通り道路モデルに直交する直線を引き、エッジ点から道路モデルとの交点Pまでの距離dを求め、この距離dが座標用閾値Dthより小さいものを、有効エッジ点として選別する。又は、交点Pにおける道路モデルの接線ベクトルと、エッジ点のベクトルとのなす角度θdを求め、この角度θdが角度用閾値θthより小さいものを、有効エッジ点として選別する。すなわち、道路モデルから乖離したエッジ点をノイズ(無効エッジ点)として除外することで、有効エッジ点のみを正確にフィルタリングすることができる。
一方、道路モデルの生成は、自車両の舵角及び車速に基づいて行う(ステップS3)。これにより、高精度な道路モデルを容易に生成することができる。
First, a straight line that passes through the edge point and is orthogonal to the road model is drawn to obtain a distance d from the edge point to the intersection point P with the road model, and a distance d smaller than the coordinate threshold Dth is selected as an effective edge point. . Alternatively, the angle θd formed by the tangent vector of the road model at the intersection P and the vector of the edge point is obtained, and the one having the angle θd smaller than the angle threshold θth is selected as an effective edge point. That is, by excluding edge points that deviate from the road model as noise (invalid edge points), only effective edge points can be accurately filtered.
On the other hand, the road model is generated based on the steering angle and vehicle speed of the host vehicle (step S3). Thereby, a highly accurate road model can be easily generated.

《応用例》
本実施形態では、エッジ点と道路モデルとの座標偏差及び角度偏差の何れか一方に基づいて有効エッジ点を選別しているが、これに限定されるものではなく、座標偏差及び角度偏差の双方に基づいてエッジフィルタリングを行ってもよい。
《Application example》
In this embodiment, the effective edge point is selected based on one of the coordinate deviation and the angle deviation between the edge point and the road model. However, the present invention is not limited to this, and both the coordinate deviation and the angle deviation are selected. Edge filtering may be performed based on the above.

《効果》
以上より、カメラ100が「撮像手段」に対応し、エッジ座標・角度検出部109、及びステップS5の処理が「検出手段」に対応し、道路モデル生成部107、及びステップS1〜S3の処理が「生成手段」に対応し、エッジフィルタリング処理部111、及びステップS7の処理が「選別手段」に対応し、道路モデル更新部112、及びステップS8の処理が「更新手段」に対応する。
"effect"
As described above, the camera 100 corresponds to the “imaging unit”, the edge coordinate / angle detection unit 109 and the process in step S5 correspond to the “detection unit”, and the road model generation unit 107 and the processes in steps S1 to S3 are performed. Corresponding to “generating means”, the edge filtering processing unit 111 and the process in step S7 correspond to “selecting means”, and the road model updating unit 112 and the process in step S8 correspond to “updating means”.

(1)走行路を撮像する撮像手段と、該撮像手段が撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出する検出手段と、走行路の道路モデルを生成する生成手段と、前記検出手段が検出したエッジ点を前記生成手段が生成した道路モデルと比較することで有効エッジ点を選別する選別手段と、該選別手段が選別した有効エッジ点に基づいて前記道路モデルを更新する更新手段と、を備え、前記選別手段は、前記検出手段が検出したエッジ点と前記生成手段が生成した道路モデルとの、座標偏差及び角度偏差の少なくとも一方に基づいて前記有効エッジ点を選別する。
このように、検出したエッジ点と道路モデルとの比較によって有効エッジ点を選別し、選別した有効エッジ点に基づいて道路モデルを更新することで、車線認識の精度を向上させることができる。また、有効エッジ点のみを正確にフィルタリングすることができる。
(1) An imaging unit that images a traveling road, a detection unit that detects an edge point where a density change is equal to or greater than a threshold in an image captured by the imaging unit, a generation unit that generates a road model of the traveling road, A selection unit that selects an effective edge point by comparing an edge point detected by the detection unit with a road model generated by the generation unit, and updates the road model based on the effective edge point selected by the selection unit. Updating means, and the sorting means sorts the effective edge points based on at least one of a coordinate deviation and an angle deviation between the edge point detected by the detecting means and the road model generated by the generating means. .
As described above, the effective edge point is selected by comparing the detected edge point with the road model, and the road model is updated based on the selected effective edge point, thereby improving the accuracy of the lane recognition. Also, only effective edge points can be accurately filtered.

(2)前記選別手段は、前記エッジ点を通り且つ前記道路モデルに直交する直線を引き、当該直線と前記道路モデルとの交点から前記エッジ点までの距離が座標用の閾値より小さいときに、当該エッジ点を前記有効エッジ点として選別する。
これにより、道路モデルから乖離したエッジ点をノイズとして除外し、有効エッジ点のみを正確にフィルタリングすることができる。
(2) The selecting means draws a straight line passing through the edge point and orthogonal to the road model, and when the distance from the intersection of the straight line and the road model to the edge point is smaller than a coordinate threshold value, The edge point is selected as the effective edge point.
As a result, edge points that deviate from the road model can be excluded as noise, and only effective edge points can be accurately filtered.

(3)前記選別手段は、前記エッジ点を通り且つ前記道路モデルに直交する直線を引き、当該直線と前記道路モデルとの交点における接線角度、及び前記エッジ点におけるベクトル角度の角度偏差が角度用の閾値より小さいときに、当該エッジ点を前記有効エッジ点として選別する。
これにより、道路モデルから乖離したエッジ点をノイズとして除外し、有効エッジ点のみを正確にフィルタリングすることができる。
(3) The selecting means draws a straight line that passes through the edge point and is orthogonal to the road model, and the angle deviation of the tangent angle at the intersection of the straight line and the road model, and the vector angle at the edge point is used for the angle. When the value is smaller than the threshold value, the edge point is selected as the effective edge point.
As a result, edge points that deviate from the road model can be excluded as noise, and only effective edge points can be accurately filtered.

(4)前記生成手段は、自車両の舵角及び車速に基づいて前記道路モデルを生成する。
これにより、高精度な道路モデルを容易に生成することができる。
(5)走行路を撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出すると共に、走行路の道路モデルを生成し、検出したエッジ点を生成した道路モデルと比較することで有効エッジ点を選別し、選別した有効エッジ点に基づいて前記道路モデルを更新する。
このように、検出したエッジ点と道路モデルとの比較によって有効エッジ点を選別し、選別した有効エッジ点に基づいて道路モデルを更新することで、車線認識の精度を向上させることができる。
(4) The generation unit generates the road model based on a steering angle and a vehicle speed of the host vehicle.
Thereby, a highly accurate road model can be easily generated.
(5) It is effective to detect an edge point whose density change is greater than or equal to a threshold value in an image obtained by capturing a road and to generate a road model of the road and compare it with the road model that generated the detected edge point. Edge points are selected, and the road model is updated based on the selected effective edge points.
As described above, the effective edge point is selected by comparing the detected edge point with the road model, and the road model is updated based on the selected effective edge point, thereby improving the accuracy of the lane recognition.

《第二実施形態》
《構成》
第二実施形態は、自車両の現在位置及び道路地図情報に基づいて、初期の道路モデルを生成すると共に、カメラ100の分解能に応じて前述した座標用閾値や角度用閾値を設定するものである。
図9は、車線認識装置の概略構成である。
車線認識装置102は、舵角センサ104及び車速センサ105を省略する代わりに、現在位置を取得するGPS114と、道路形状を納めた道路地図情報115とを備える。道路モデル生成部807は、GPS114から得られる現在位置の前方の道路形状を、道路地図情報115から取得し、走行路の道路形状から初期の道路モデルを生成する。
<< Second Embodiment >>
"Constitution"
In the second embodiment, an initial road model is generated based on the current position of the host vehicle and road map information, and the above-described coordinate threshold value and angle threshold value are set according to the resolution of the camera 100. .
FIG. 9 is a schematic configuration of the lane recognition device.
Instead of omitting the steering angle sensor 104 and the vehicle speed sensor 105, the lane recognition device 102 includes a GPS 114 that acquires a current position and road map information 115 that stores a road shape. The road model generation unit 807 acquires the road shape ahead of the current position obtained from the GPS 114 from the road map information 115, and generates an initial road model from the road shape of the travel path.

図10は、画像処理プログラムのフローチャートである。
本実施形態では、前記ステップS1〜S3の代わりに新たなステップS21〜S23の処理を実行し、前記ステップS7の代わりに新たなステップS27の処理を実行することを除いては、前述した第一実施形態と同様の処理を実行する。
ステップS21では、GPS114より現時位置を取得する。
ステップS22では、現在位置の前方にある道路形状を道路地図情報115より取得する。
FIG. 10 is a flowchart of the image processing program.
In the present embodiment, the first step described above is performed except that the process of new steps S21 to S23 is executed instead of the steps S1 to S3, and the process of new step S27 is executed instead of the step S7. The same processing as in the embodiment is executed.
In step S21, the current position is acquired from the GPS 114.
In step S22, the road shape in front of the current position is acquired from the road map information 115.

ステップS23では、道路形状に対して、前述した円の方程式を最小二乗法によってフィッティングさせ、その方程式を道路モデルとして生成する。
ステップS27では、カメラの分解能に応じて座標用閾値や角度用閾値を設定し、エッジ点のフィルタリングを行う。
遠方のエッジ点ほどカメラの分解能が不足し、座標値に誤差が生じる。この誤差は、車両から見たエッジ点の距離、つまり道路座標系のZw座標成分に比例する。したがって、画一的な閾値によってエッジ点のフィルタリングを行うと、フィルタリングの精度が低下してしまう。
In step S23, the above-described circle equation is fitted to the road shape by the least square method, and the equation is generated as a road model.
In step S27, a coordinate threshold and an angle threshold are set according to the resolution of the camera, and edge points are filtered.
The farther the edge point is, the less the resolution of the camera becomes, and an error occurs in the coordinate value. This error is proportional to the distance of the edge point seen from the vehicle, that is, the Zw coordinate component of the road coordinate system. Therefore, if the edge point is filtered with a uniform threshold, the filtering accuracy is lowered.

そこで、道路座標系のZw座標成分に比例するように、下記の式に従って座標用閾値Dthを設定する。ここで、hは比例係数、D0は閾値Dthの最小値であり、事前に決定される定数である。
Dth=h×|Zw|+D0
同様に、下記の式に従って、角度用閾値θthを設定する。ここで、kは比例係数、θ0は角度用閾値θthの最小値であり、事前に決定される定数である。
θth=k×|Zw|+θ0
上記のように、座標用閾値Dthや角度用閾値θthを設定すること以外は、前記ステップS7と同様の処理を実行する。
Therefore, the coordinate threshold value Dth is set according to the following equation so as to be proportional to the Zw coordinate component of the road coordinate system. Here, h is a proportionality coefficient, D0 is the minimum value of the threshold value Dth, and is a constant determined in advance.
Dth = h × | Zw | + D0
Similarly, the angle threshold θth is set according to the following equation. Here, k is a proportional coefficient, θ0 is the minimum value of the angle threshold θth, and is a constant determined in advance.
θth = k × | Zw | + θ0
As described above, the same process as step S7 is executed except that the coordinate threshold value Dth and the angle threshold value θth are set.

《作用》
本実施形態では、GPS114で現在位置を検出し(ステップS21)、現在位置における車両前方の道路地図情報115を参照することで、走行路の道路形状を取得し(ステップS22)、これに基づいて道路モデルを生成する(ステップS23)。これにより、車線認識の初期から妥当な道路モデルを生成することができる。
また、遠方のエッジ点ほどカメラの分解能が不足し、座標値に誤差が生じる。この誤差は、車両から見たエッジ点の距離、つまり道路座標系のZw座標成分に比例する。したがって、画一的な閾値によってエッジ点のフィルタリングを行うと、フィルタリングの精度が低下してしまう。
<Action>
In this embodiment, the current position is detected by the GPS 114 (step S21), and the road shape of the traveling road is acquired by referring to the road map information 115 ahead of the vehicle at the current position (step S22). A road model is generated (step S23). Thereby, an appropriate road model can be generated from the initial stage of lane recognition.
Further, the farther the edge point, the less the resolution of the camera, and the error occurs in the coordinate value. This error is proportional to the distance of the edge point seen from the vehicle, that is, the Zw coordinate component of the road coordinate system. Therefore, if the edge point is filtered with a uniform threshold, the filtering accuracy is lowered.

そこで、道路座標系のZw座標成分に応じて、座標用閾値Dthや角度用閾値θthを設定する。すなわち、Zw座標成分が大きいほど、つまり遠方のエッジ点になるほど、座標用閾値Dthや角度用閾値θthを大きくする(ステップS27)。これにより、遠方のエッジ点になるほど、無効エッジ点として除外されにくくなるので、カメラ100の分解能に起因した誤ったエッジフィルタリングを防ぐことができる。   Therefore, the coordinate threshold Dth and the angle threshold θth are set according to the Zw coordinate component of the road coordinate system. That is, the larger the Zw coordinate component, that is, the farther the edge point, the larger the coordinate threshold value Dth and the angle threshold value θth (step S27). As a result, the far edge points are less likely to be excluded as invalid edge points, so that erroneous edge filtering due to the resolution of the camera 100 can be prevented.

《効果》
以上より、ステップS21〜S23の処理が「生成手段」に対応し、ステップS27の処理が「選別手段」に対応する。
(1)前記選別手段は、前記撮像手段の分解能に応じて、前記閾値を設定する。
これにより、車線認識の初期から妥当な道路モデルを生成することができる。
(2)前記生成手段は、自車両の現在位置及び道路地図情報に基づいて前記道路モデルを生成する。
これにより、撮像手段の分解能に起因した誤った選別を防ぐことができる。
"effect"
From the above, the processing of steps S21 to S23 corresponds to “generating means”, and the processing of step S27 corresponds to “selecting means”.
(1) The selection unit sets the threshold according to the resolution of the imaging unit.
Thereby, an appropriate road model can be generated from the initial stage of lane recognition.
(2) The generation unit generates the road model based on a current position of the host vehicle and road map information.
As a result, erroneous sorting due to the resolution of the imaging means can be prevented.

《第三実施形態》
《構成》
第三実施形態は、車両の姿勢変化に応じて座標用閾値や角度用閾値を設定すると共に、道路モデルが妥当であるか否かを判断し、適宜、道路モデルを更新するものである。
図11は、車線認識装置の概略構成である。
車線認識装置102は、車両の姿勢変化を検出する加速度センサ116と、現在の道路モデルが妥当であるか否かを判断する道路モデル検証部117と、を備える。
図12は、画像処理プログラムのフローチャートである。
本実施形態では、前記ステップS7の代わりに新たなステップS31、S32の処理を実行し、新たに追加したステップS33、S34の処理を実行することを除いては、前述した第一実施形態と同様の処理を実行する。
<< Third embodiment >>
"Constitution"
In the third embodiment, a coordinate threshold value and an angle threshold value are set according to a change in the posture of the vehicle, it is determined whether or not the road model is appropriate, and the road model is updated as appropriate.
FIG. 11 is a schematic configuration of a lane recognition device.
The lane recognition device 102 includes an acceleration sensor 116 that detects a change in the attitude of the vehicle, and a road model verification unit 117 that determines whether or not the current road model is valid.
FIG. 12 is a flowchart of the image processing program.
The present embodiment is the same as the first embodiment described above except that the processes of new steps S31 and S32 are executed instead of step S7, and the newly added processes of steps S33 and S34 are executed. Execute the process.

ステップS31では、加速度センサ116で検出した少なくとも鉛直方向(ピッチング方向やバウンド方向を含む)の加速度を読込む。
ステップS32では、加速度Gが所定値Gth以上である場合に、座標用閾値Dthや角度用閾値θthを所定量だけ大きく設定する。このように、座標用閾値Dthや角度用閾値θthを設定すること以外は、前記ステップS7と同様の処理を実行する。
In step S31, at least the acceleration in the vertical direction (including the pitching direction and the bound direction) detected by the acceleration sensor 116 is read.
In step S32, when the acceleration G is equal to or greater than the predetermined value Gth, the coordinate threshold Dth and the angle threshold θth are set larger by a predetermined amount. In this way, the same process as in step S7 is executed except that the coordinate threshold value Dth and the angle threshold value θth are set.

続くステップS33では、有効エッジ点の数が所定値より少ないか否かを判定する。有効エッジ点の数が所定値より多いときには、現在の道路モデルが妥当であると判断して前記ステップS8に移行する。一方、有効エッジ点の数が所定値より少ないときには、現在の道路モデルが妥当ではないと判断してステップS34に移行する。
ステップS34では、現在の道路モデルを初期化してから前記ステップS4に戻る。
In a succeeding step S33, it is determined whether or not the number of valid edge points is less than a predetermined value. If the number of valid edge points is greater than the predetermined value, it is determined that the current road model is valid, and the process proceeds to step S8. On the other hand, when the number of valid edge points is less than the predetermined value, it is determined that the current road model is not valid, and the process proceeds to step S34.
In step S34, the current road model is initialized, and then the process returns to step S4.

《作用》
本実施形態では、加速度センサ116で鉛直方向の加速度Gを検出し(ステップS31)、この加速度Gが所定値Gth以上であれば、車両の姿勢変化が大きいと判断して、座標用閾値Dthや角度用閾値θthを大きく設定する(ステップS32)。これにより、無効エッジ点として除外されにくくなるので、車両の姿勢変化に起因した誤ったエッジフィルタリングを防ぐことができる。
<Action>
In the present embodiment, the acceleration sensor 116 detects the acceleration G in the vertical direction (step S31), and if the acceleration G is equal to or greater than the predetermined value Gth, it is determined that the vehicle attitude change is large, and the coordinate threshold value Dth or The angle threshold value θth is set large (step S32). Thereby, since it becomes difficult to be excluded as an invalid edge point, it is possible to prevent erroneous edge filtering due to a change in the attitude of the vehicle.

また、エッジフィルタリングの結果、大部分が無効エッジ点として除外された場合は、道路モデルが適切でない可能性がある。そこで、有効エッジ点の数をカウントし、その数量が所定値よりも少ないときには、道路モデルが妥当ではないと判断して、一旦、道路モデルを初期化(リセット)し、道路モデルの再構築を図る(ステップS33、S34)。これにより、車線認識の精度が低下することを防ぐことができる。   Also, if most of the edges are excluded as invalid edge points as a result of edge filtering, the road model may not be appropriate. Therefore, the number of valid edge points is counted, and when the quantity is less than the predetermined value, it is determined that the road model is not valid, and the road model is initialized (reset) and the road model is reconstructed. (Steps S33, S34). Thereby, it can prevent that the precision of lane recognition falls.

《効果》
以上より、ステップS31、S32の処理が「選別手段」に対応し、ステップS33、S34の処理が「更新手段」に対応する。
(1)前記選別手段は、車両の姿勢変化に応じて、前記閾値を設定する。
これにより、車両の姿勢変化に起因した誤った選別を防ぐことができる。
(2)前記更新手段は、前記選別手段が選別した有効エッジ点の数に応じて、前記道路モデルが妥当であるか否かを判断し、妥当ではないと判断したときに、当該道路モデルを初期化する。
これにより、車線認識の精度が低下することを防ぐことができる。
"effect"
As described above, the processes in steps S31 and S32 correspond to “selecting means”, and the processes in steps S33 and S34 correspond to “update means”.
(1) The selection means sets the threshold according to a change in the posture of the vehicle.
As a result, it is possible to prevent erroneous sorting due to a change in the attitude of the vehicle.
(2) The updating means determines whether or not the road model is appropriate according to the number of effective edge points selected by the selecting means. initialize.
Thereby, it can prevent that the precision of lane recognition falls.

100 カメラ
104 舵角センサ
105 車速センサ
107 道路モデル生成部
109 エッジ座標・角度検出部
111 エッジフィルタリング処理部
112 道路モデル更新部
DESCRIPTION OF SYMBOLS 100 Camera 104 Rudder angle sensor 105 Vehicle speed sensor 107 Road model production | generation part 109 Edge coordinate and angle detection part 111 Edge filtering process part 112 Road model update part

Claims (8)

走行路を撮像する撮像手段と、該撮像手段が撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出する検出手段と、走行路の道路モデルを生成する生成手段と、前記検出手段が検出したエッジ点を前記生成手段が生成した道路モデルと比較することで有効エッジ点を選別する選別手段と、該選別手段が選別した有効エッジ点に基づいて前記道路モデルを更新する更新手段と、を備え、
前記選別手段は、前記検出手段が検出したエッジ点と前記生成手段が生成した道路モデルとの、座標偏差及び角度偏差のうち少なくとも角度偏差に基づいて前記有効エッジ点を選別するものであり、前記角度偏差に基づいて前記有効エッジ点を選別する際には、前記エッジ点を通り且つ前記道路モデルに直交する直線を引き、当該直線と前記道路モデルとの交点における接線角度、及び前記エッジ点におけるベクトル角度の角度偏差が角度用の閾値より小さいときに、当該エッジ点を前記有効エッジ点として選別することを特徴とする車線認識装置。
Image pickup means for picking up an image of the road, detection means for detecting an edge point whose density change is greater than or equal to a threshold in an image picked up by the image pickup means, generation means for generating a road model of the road, and the detection means Selecting means for selecting effective edge points by comparing the edge points detected by the generating means with the road model generated by the generating means; and updating means for updating the road model based on the effective edge points selected by the selecting means; With
The selecting means is for selecting the effective edge point based on at least an angular deviation among a coordinate deviation and an angular deviation between the edge point detected by the detecting means and the road model generated by the generating means, When selecting the effective edge point based on the angle deviation, a straight line passing through the edge point and orthogonal to the road model is drawn, a tangent angle at the intersection of the straight line and the road model, and the edge point A lane recognition device, wherein an edge point is selected as the effective edge point when an angle deviation of a vector angle is smaller than an angle threshold value.
前記選別手段は、前記エッジ点を通り且つ前記道路モデルに直交する直線を引き、当該直線と前記道路モデルとの交点から前記エッジ点までの距離が座標用の閾値より小さいときに、当該エッジ点を前記有効エッジ点として選別することを特徴とする請求項1に記載の車線認識装置。   The selecting means draws a straight line passing through the edge point and orthogonal to the road model, and when the distance from the intersection of the straight line and the road model to the edge point is smaller than a coordinate threshold value, the edge point The lane recognition device according to claim 1, wherein the lane recognition device is selected as the effective edge point. 前記選別手段は、前記撮像手段の分解能に応じて、前記閾値を設定することを特徴とする請求項1又は2に記載の車線認識装置。 It said sorting means, according to the resolution of the imaging means, the lane recognition device according to claim 1 or 2, characterized in that setting the threshold value. 前記選別手段は、車両の姿勢変化に応じて、前記閾値を設定することを特徴とする請求項1〜3の何れか一項に記載の車線認識装置。 The lane recognition device according to any one of claims 1 to 3 , wherein the selection unit sets the threshold according to a change in posture of the vehicle. 前記生成手段は、自車両の舵角及び車速に基づいて前記道路モデルを生成することを特徴とする請求項1〜の何れか一項に記載の車線認識装置。 It said generating means, the lane recognition device according to any one of claim 1 to 4, characterized in that to generate the road model based on the steering angle and the speed of the vehicle. 前記生成手段は、自車両の現在位置及び道路地図情報に基づいて前記道路モデルを生成することを特徴とする請求項1〜の何れか一項に記載の車線認識装置。 It said generating means, the lane recognition device according to any one of claim 1 to 5, characterized in that to generate the road model based on the current position and the road map information of the vehicle. 前記更新手段は、前記選別手段が選別した有効エッジ点の数に応じて、前記道路モデルが妥当であるか否かを判断し、妥当ではないと判断したときに、当該道路モデルを初期化することを特徴とする請求項1〜の何れか一項に記載の車線認識装置。 The updating means determines whether or not the road model is appropriate according to the number of effective edge points selected by the selecting means, and initializes the road model when determining that the road model is not appropriate. The lane recognition device according to any one of claims 1 to 6 , wherein: 走行路を撮像した画像内で、濃度変化が閾値以上となるエッジ点を検出すると共に、走行路の道路モデルを生成し、検出したエッジ点と生成した道路モデルとの、座標偏差及び角度偏差のうち少なくとも角度偏差に基づいて有効エッジ点を選別し、選別した有効エッジ点に基づいて前記道路モデルを更新するものであり、
前記角度偏差に基づいて前記有効エッジ点を選別する際には、前記エッジ点を通り且つ前記道路モデルに直交する直線を引き、当該直線と前記道路モデルとの交点における接線角度、及び前記エッジ点におけるベクトル角度の角度偏差が角度用の閾値より小さいときに、当該エッジ点を前記有効エッジ点として選別することを特徴とする車線認識方法。
In the image of the travel road, an edge point whose density change is equal to or greater than a threshold value is detected, a road model of the travel road is generated, and a coordinate deviation and an angle deviation between the detected edge point and the generated road model are detected. Among them, the effective edge point is selected based on at least the angular deviation, and the road model is updated based on the selected effective edge point.
When selecting the effective edge point based on the angular deviation, a straight line passing through the edge point and orthogonal to the road model is drawn, a tangent angle at the intersection of the straight line and the road model, and the edge point A lane recognition method comprising: selecting an edge point as the effective edge point when an angle deviation of a vector angle at is smaller than an angle threshold value.
JP2009014550A 2009-01-26 2009-01-26 Lane recognition device and lane recognition method Expired - Fee Related JP5310027B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009014550A JP5310027B2 (en) 2009-01-26 2009-01-26 Lane recognition device and lane recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009014550A JP5310027B2 (en) 2009-01-26 2009-01-26 Lane recognition device and lane recognition method

Publications (2)

Publication Number Publication Date
JP2010170488A JP2010170488A (en) 2010-08-05
JP5310027B2 true JP5310027B2 (en) 2013-10-09

Family

ID=42702568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009014550A Expired - Fee Related JP5310027B2 (en) 2009-01-26 2009-01-26 Lane recognition device and lane recognition method

Country Status (1)

Country Link
JP (1) JP5310027B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5957182B2 (en) * 2011-03-01 2016-07-27 矢崎エナジーシステム株式会社 Road surface pattern recognition method and vehicle information recording apparatus
KR101912085B1 (en) * 2012-07-02 2018-10-26 현대모비스 주식회사 Reliability calaulation method of lane detection and Apparatus for calcaulating for performing thereof
CN103206957B (en) * 2012-12-26 2016-03-02 辽宁师范大学 The lane detection and tracking method of vehicular autonomous navigation
JP7085435B2 (en) * 2018-07-24 2022-06-16 スタンレー電気株式会社 Vehicle system
CN109737976A (en) * 2019-01-07 2019-05-10 上海极奥网络科技有限公司 Map road section and lane line automatic Generation
JP7063303B2 (en) * 2019-04-23 2022-05-09 株式会社デンソー Vehicle equipment, vehicle programs and storage media
CN112766113B (en) * 2021-01-08 2023-09-15 广州小鹏自动驾驶科技有限公司 Intersection detection method, device, equipment and storage medium
CN115082701B (en) * 2022-08-16 2022-11-08 山东高速集团有限公司创新研究院 Multi-water-line cross identification positioning method based on double cameras

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3525733B2 (en) * 1998-04-15 2004-05-10 日産自動車株式会社 Road white line detector
JP2007011994A (en) * 2005-07-04 2007-01-18 Toyota Motor Corp Road recognition device
JP4687563B2 (en) * 2006-05-23 2011-05-25 株式会社デンソー Lane mark recognition device for vehicles

Also Published As

Publication number Publication date
JP2010170488A (en) 2010-08-05

Similar Documents

Publication Publication Date Title
JP5310027B2 (en) Lane recognition device and lane recognition method
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
EP3032818B1 (en) Image processing device
JP6201148B2 (en) CALIBRATION APPARATUS, CALIBRATION METHOD, MOBILE BODY CAMERA HAVING CALIBRATION FUNCTION, AND PROGRAM
EP1783684A1 (en) Plane detector and detecting method
EP1783683A1 (en) Mobile peripheral monitor
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
JP5631581B2 (en) Road recognition device
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP6756101B2 (en) Object recognition device
CN112017249A (en) Vehicle-mounted camera roll angle obtaining and mounting angle correcting method and device
CN112489106A (en) Video-based vehicle size measuring method and device, terminal and storage medium
JP2012159469A (en) Vehicle image recognition device
JP2019003606A (en) Map change point detection device
CN112184792A (en) Road slope calculation method and device based on vision
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP5501084B2 (en) Planar area detection apparatus and stereo camera system
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method
JP2012159470A (en) Vehicle image recognition device
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
CN111881878A (en) Lane line identification method for look-around multiplexing
WO2014054124A1 (en) Road surface markings detection device and road surface markings detection method
JP2015215299A (en) Object position estimation device
JP4978938B2 (en) Distance measuring apparatus and method, and computer program
JP5760523B2 (en) Runway estimation apparatus and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130617

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5310027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees