JP2010191661A - Traveling path recognition device, automobile, and traveling path recognition method - Google Patents
Traveling path recognition device, automobile, and traveling path recognition method Download PDFInfo
- Publication number
- JP2010191661A JP2010191661A JP2009035041A JP2009035041A JP2010191661A JP 2010191661 A JP2010191661 A JP 2010191661A JP 2009035041 A JP2009035041 A JP 2009035041A JP 2009035041 A JP2009035041 A JP 2009035041A JP 2010191661 A JP2010191661 A JP 2010191661A
- Authority
- JP
- Japan
- Prior art keywords
- lane marker
- road
- reference point
- curvature
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両前方の道路画像から道路形状を認識する走行路認識装置、それを備えた自動車及び走行路認識方法に関するものである。 The present invention relates to a travel path recognition device that recognizes a road shape from a road image in front of a vehicle, an automobile equipped with the travel path recognition method, and a travel path recognition method.
従来の走行路認識装置は、車両に搭載したカメラで撮像した車両前方の道路画像に、所謂最適フィルタ処理を施して道路モデルを推定する(例えば、特許文献1参照)。最適フィルタ処理の状態空間フィルタには、一般にカルマンフィルタ(拡張カルマンフィルタ)を用いる。
ここでは、走行中の道路のレーン幅や道路曲率などの道路パラメータ及び車両の横変位、ヨー角、ピッチ角などの車両状態量を導出して、道路モデルを推定する。
A conventional travel path recognition apparatus estimates a road model by performing so-called optimal filter processing on a road image in front of the vehicle imaged by a camera mounted on the vehicle (see, for example, Patent Document 1). A Kalman filter (extended Kalman filter) is generally used as the state space filter for the optimum filter processing.
Here, a road model is estimated by deriving road parameters such as the lane width and road curvature of the road that is running and vehicle state quantities such as lateral displacement, yaw angle, and pitch angle of the vehicle.
ところで、カルマンフィルタ等の状態推定器では、全パラメータ(車両状態量、道路パラメータ)でバランスを取りながら推定を行う。このような性質上、状態推定器で取得する道路曲率は、その他の道路パラメータや車両状態量の誤差の影響を受ける。
したがって、道路曲率を取得するにあたり、状態推定器で取得した道路曲率の値をそのまま用いると精度が悪い。
そこで、本発明は、曲率を高精度に取得することができる走行路認識装置、自動車及び走行路認識方法を提供することを課題としている。
By the way, in a state estimator such as a Kalman filter, estimation is performed while maintaining a balance with all parameters (vehicle state quantity, road parameter). Due to this property, the road curvature acquired by the state estimator is affected by errors in other road parameters and vehicle state quantities.
Therefore, when the road curvature is acquired, the accuracy is poor if the road curvature value acquired by the state estimator is used as it is.
Then, this invention makes it a subject to provide the traveling path recognition apparatus, the motor vehicle, and the traveling path recognition method which can acquire a curvature with high precision.
上記課題を解決するために、本発明に係る走行路認識装置は、車両周辺の撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出する。検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する。取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出し、算出した基準点と取得した道路モデルとに基づいて、曲率を算出する。 In order to solve the above-described problem, the travel path recognition apparatus according to the present invention detects a plurality of coordinate values of lane marker candidate points constituting an image corresponding to a lane marker from captured images around the vehicle. Based on the detected coordinate value of the lane marker candidate point, the road parameter of the road model and the vehicle state quantity are estimated, and an approximate line for tracing the image corresponding to the lane marker on the captured image is acquired. At least one reference point on the captured image is calculated based on the acquired approximate line, and the curvature is calculated based on the calculated reference point and the acquired road model.
本発明によれば、曲率を取得するにあたり、状態推定器で推定したパラメータをそのまま用いず、精度が信頼できるパラメータを用いて曲率を再計算する。そのため、安定かつ高精度に曲率を取得することができる。 According to the present invention, when acquiring the curvature, the parameter estimated by the state estimator is not used as it is, and the curvature is recalculated using a parameter whose accuracy is reliable. Therefore, the curvature can be acquired stably and with high accuracy.
以下、本発明の実施の形態を図面に基づいて説明する。
《第1の実施の形態》
《構成》
図1は、本実施形態における走行路認識装置を搭載した車両を示す概略構成図である。
自動車1には、車両周辺(車両前方)の道路画像を取得するための前方認識センサ10を設ける。前方認識センサ10は、高感度撮像が可能なCCDカメラである。この前方認識センサ(以下、CCDカメラという)10は、車室内天井1aの前方中央部に、前方下方を指向して取り付ける。そして、カメラ10は、フロントガラス1bを通して車両前方の走行路Rの画像を取得する。CCDカメラ10が捉えた撮像画像は、コントロールユニット20に入力する。
コントロールユニット20は、CCDカメラ10が捉えた撮像画像に対して、エッジ検出等により、レーンマークを検出して走行車線を検出する。そして、後述する道路曲率算出処理を実行し、道路曲率を算出する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<< First Embodiment >>
"Constitution"
FIG. 1 is a schematic configuration diagram showing a vehicle equipped with a travel path recognition device in the present embodiment.
The
The
(コントロールユニットの構成)
図2は、コントロールユニット20の具体的構成を示す制御ブロック図である。
コントロールユニット20は、画像取得部21と、レーンマーカ候補点検出部22と、走行路推定部23と、基準点算出部24と、曲率算出部25と、車両制御ECU26と、を備える。
画像取得部21は、CCDカメラ10で捉えた撮像画像を取得する。
レーンマーカ候補点検出部22は、画像取得部21で取得した撮像画像に対して画像処理を行う。そして、自車両が走行する走行路における左右レーンマーカの候補点座標を複数検出する。
(Configuration of control unit)
FIG. 2 is a control block diagram showing a specific configuration of the
The
The
The lane marker candidate
走行路推定部23は、レーンマーカ候補点検出部22で検出した左右レーンマーカの候補点座標に基づいて、道路モデルと車両モデルとに従って道路パラメータ及び車両状態量を推定する。そして、推定した道路パラメータ及び車両状態量に基づいて、走行路のレーンマーカをトレースする近似線を算出する。
基準点算出部24は、走行路推定部23で算出した近似線に基づいて、道路曲率を算出する際に用いる基準点を算出する。
Based on the candidate point coordinates of the left and right lane markers detected by the lane marker candidate
The reference
曲率算出部25は、走行路推定部23で算出した道路パラメータ及び車両状態量、基準点算出部24で算出した基準点を用いて、道路曲率を算出する。このとき、道路曲率の算出に際し、道路パラメータ及び車両状態量に対して個々に補正を行う。
車両制御ECU26は、曲率算出部25で算出した道路曲率を用いて、自動操舵制御や制駆動力制御等、車両の走行制御を行う。
The
The vehicle control ECU 26 uses the road curvature calculated by the
(道路曲率算出処理手順)
図3は、コントロールユニット20で実行する曲率算出処理手順を示すフローチャートである。この道路曲率算出処理は、CCDカメラ10の画像取得周期に同期して実行する。
先ずステップS1で、コントロールユニット20は、CCDカメラ10から撮像画像を読み込む。そして、読み込んだ撮像画像に対して前処理を行う。この前処理は、左右レーンマーカと路面との境界(エッジ)をそれぞれ強調するための処理である。ここでは、例えばSobelフィルタによる一次空間微分を行う。レーンマーカ検出では、この境界のうち、自車両が走行している走行車線内側の境界を検出対象とする。
(Road curvature calculation processing procedure)
FIG. 3 is a flowchart showing a curvature calculation processing procedure executed by the
First, in step S <b> 1, the
なお、レーンマーカと路面との境界を強調するために、他のエッジ強調フィルタを用いることもできる。その他にも、レーンマーカを特徴的に抽出するための手段であれば適用可能である。
ステップS2では、コントロールユニット20は、前記ステップS1で前処理を施した撮像画像を用いて、走行路左側のレーンマーカの候補点座標を検出する。ここでは、検出対象である左レーンマーカの境界線上において、自車両から所定距離ずつ離れた計5箇所をレーンマーカ候補点とする。そして、これらレーンマーカ候補点の座標値を取得する。
In addition, in order to emphasize the boundary between a lane marker and a road surface, another edge enhancement filter can be used. In addition, any means for characteristically extracting the lane marker can be applied.
In step S2, the
ステップS3では、コントロールユニット20は、前記ステップS1で前処理を施した撮像画像を用いて、走行路右側のレーンマーカの候補点座標を検出する。ここでは、検出対象である右レーンマーカの境界線上において、自車両から所定距離ずつ離れた計5箇所をレーンマーカ候補点とする。そして、これらレーンマーカ候補点の座標値を取得する。
次にステップS4では、コントロールユニット20は、前記ステップS2及びS3で検出したレーンマーカ候補点の座標値を用いて、走行路の推定を行う。ここでは、レーンマーカ候補点の位置より、道路モデルのパラメータ(道路パラメータ、車両状態量)を算出する。
In step S3, the
Next, in step S4, the
(パラメータの定義)
道路モデルのパラメータは以下の手順で定義する。
図4は、道路座標系と平面座標系との関係を示す図である。
道路座標系は、CCDカメラ10の撮像レンズの中心を原点として、車両進行方向に向かって右→左上方にX軸、車両の高さ方向へ上向きにY軸、レンズ光軸を車両進行方向にZ軸とするXYZ系で定義する。一方、画像処理画面の平面座標系は、NTSC等のテレビジョン通信方式の画面操作方向にしたがい、画面左上を原点として左から右へ水平方向にx軸、上から下へ垂直方向にy軸と定義する。
簡略化するために、図4に示すように平面座標系の原点が道路座標系のZ軸上にあるとすると、道路座標系から平面座標系への座標変換は下記(1),(2)式のようになる。
x=−f・X/Z ………(1)
y=−f・Y/Z ………(2)
ここで、fはレンズの焦点距離を表すパラメータである。
(Parameter definition)
The road model parameters are defined by the following procedure.
FIG. 4 is a diagram illustrating the relationship between the road coordinate system and the planar coordinate system.
The road coordinate system uses the center of the imaging lens of the
For simplification, assuming that the origin of the plane coordinate system is on the Z axis of the road coordinate system as shown in FIG. 4, the coordinate conversion from the road coordinate system to the plane coordinate system is as follows (1), (2) It becomes like the formula.
x = −f · X / Z (1)
y = −f · Y / Z (2)
Here, f is a parameter representing the focal length of the lens.
図5は、道路モデルを示す図である。
道路平面構造については、図5(a)に示すように車線区分線(レーンマーカ)の形状を定式化する。また、縦断構造ついては、図5(b)に示すように定式化する。これら定式化したものをそれぞれ下記(3),(4)式に示す。
X=(ρ/2)Z2+φZ+yc−iW ………(3)
Y=ηZ−H ………(4)
ここで、各記号は以下のパラメータを表している。
ρ:道路曲率,
φ:道路に対する車両のヨー角,
yc:左レーンマーカに対する車両の横変位,
W:車両幅(左右レーンマーカの内側間の距離),
i:左右レーンマーカを区別するパラメータ(0:左、1:右)
η:レンズ光軸の路面に対するピッチ角,
H:カメラの地上高
FIG. 5 is a diagram illustrating a road model.
As for the road plane structure, the shape of the lane marking (lane marker) is formulated as shown in FIG. Further, the longitudinal structure is formulated as shown in FIG. These formulations are shown in the following equations (3) and (4), respectively.
X = (ρ / 2) Z 2 + φZ + y c −iW (3)
Y = ηZ−H (4)
Here, each symbol represents the following parameters.
ρ: road curvature,
φ: Yaw angle of vehicle relative to road
y c : lateral displacement of the vehicle with respect to the left lane marker,
W: Vehicle width (distance between the inside of the left and right lane markers),
i: Parameters for distinguishing left and right lane markers (0: left, 1: right)
η: pitch angle of the lens optical axis with respect to the road surface,
H: Ground clearance of the camera
上記(1)〜(4)式より、画像処理画面の平面座標系に投影するレーンマーカの形状を定式化することができる。上記(1)〜(4)式より、X,Y,Zを消去して整理すると下記(5)〜(10)式が得られる。
X=(a+ie)(y−d)−b/(y−d)+c ………(5)
但し、
a=−yc/H ………(6)
b=−f2Hρ/2 ………(7)
c=−fφ+c0 ………(8)
d=−fη+d0 ………(9)
e=W/H ………(10)
である。
From the above formulas (1) to (4), the shape of the lane marker projected onto the plane coordinate system of the image processing screen can be formulated. From the above formulas (1) to (4), the following formulas (5) to (10) are obtained when X, Y and Z are deleted and arranged.
X = (a + ie) (y−d) −b / (y−d) + c (5)
However,
a = −y c / H (6)
b = −f 2 Hρ / 2 (7)
c = −fφ + c 0 (8)
d = −fη + d 0 (9)
e = W / H (10)
It is.
ここで、c0,d0は、図4において平面座標系の原点を道路座標系のZ軸上としているのに対し、実際には画像処理画面の左上を原点としているため、その分を補正する値である。
以上より、画像処理によって検出したレーンマーカ候補点が満たす上記(5)式のパラメータa〜eの値を求めることで、道路曲率、車両のピッチ角・ヨー角、車線内での車両の横変位を推定することができる。
Here, c 0 and d 0 are corrected for the origin because the origin of the plane coordinate system is the Z axis of the road coordinate system in FIG. 4, but the upper left of the image processing screen is actually the origin. The value to be
As described above, the road curvature, the pitch angle / yaw angle of the vehicle, and the lateral displacement of the vehicle in the lane are obtained by obtaining the values of the parameters a to e in the above formula (5) satisfied by the lane marker candidate points detected by the image processing. Can be estimated.
(パラメータの算出)
次に、レーンマーカ候補点の位置より道路モデルのパラメータを算出する方法について説明する。
レーンマーカ候補点の検出結果に基づいて二次元道路モデル式を推定する方法として、ここでは拡張カルマンフィルタを用いる。
前記(1)〜(4)式から下記(11)式が得られる。この式は、拡張カルマンフィルタを構成する際の出力方程式として用いられ、これにより道路曲率と車両状態量とから画像処理平面上に定義したy座標値におけるx座標値が算出できる。
(Calculation of parameters)
Next, a method for calculating road model parameters from the positions of lane marker candidate points will be described.
Here, an extended Kalman filter is used as a method of estimating the two-dimensional road model expression based on the detection result of the lane marker candidate point.
The following equation (11) is obtained from the equations (1) to (4). This equation is used as an output equation when configuring the extended Kalman filter, whereby the x coordinate value in the y coordinate value defined on the image processing plane can be calculated from the road curvature and the vehicle state quantity.
拡張カルマンフィルタによる推定状態量は、車両の横変位yc、道路曲率ρ、車両のヨー角φ、ピッチ角η、CCDカメラ10の高さHである。レンズの焦点距離fおよび車線幅Wは一定値として扱う。各推定状態量の変化は、確率的な振る舞いをするものとして、白色ガウス雑音νによって駆動される離散系のランダムウォークモデルとして定義すると、状態方程式は下記(12)式のようになる。
The estimated state quantities by the extended Kalman filter are the lateral displacement y c of the vehicle, the road curvature ρ, the yaw angle φ, the pitch angle η of the vehicle, and the height H of the
状態方程式(12)式と出力方程式(11)式とをそれぞれ下記(13),(14)式のように簡略化して表記すると、拡張カルマンフィルタは(15)〜(18)式で構成される。 When the state equation (12) and the output equation (11) are simplified and expressed as the following equations (13) and (14), the extended Kalman filter is composed of equations (15) to (18).
このようにして、レーンマーカ候補点の位置から走行路推定を行い、CCDカメラ10で撮像した道路画像上のレーンマーカをトレースする近似線を算出する。道路画像上に左右のレーンマーカが存在する場合には、左レーンマーカをトレースする左側近似線と、右レーンマーカをトレースする右側近似線とをそれぞれ算出することになる。
なお、上述した道路モデル式は一般例であり、走行路(道路パラメータ及び車両状態量)の推定に用いる道路モデル式は適宜定義可能である。
In this way, the travel route is estimated from the position of the lane marker candidate point, and an approximate line for tracing the lane marker on the road image captured by the
Note that the above-described road model formula is a general example, and the road model formula used for estimating the travel path (road parameters and vehicle state quantities) can be appropriately defined.
図3に戻って、ステップS5では、コントロールユニット20は、算出した近似線に基づいて、道路曲率ρを算出する際に用いる基準点を算出する。ここでは、自車両から所定距離D(固定値)だけ離れた地点(最遠方地点)における走行路の中央点を基準点とする。すなわち、上記最遠方地点における左右レーンマーカ(左右の近似線)の中央位置を、基準点とする。
Returning to FIG. 3, in step S <b> 5, the
次にステップS6では、コントロールユニット20は、前記ステップS4で取得した道路パラメータ及び車両状態量に対して、個別に補正を行う。具体的には、前記ステップS4で取得した自車両ヨー角φを、車両挙動情報に基づいて補正する。ここでは、図6に示すように、前記ステップS4で取得した自車両ヨー角φを、自車両横速度Vyと自車速度Vとに基づいて算出したヨー角値に置き換えることで補正を行う。自車両横速度Vyは、前記ステップS4で取得した車両状態量である横変位ycを時間微分するなどにより算出する。また、自車速度Vは、車輪パルス等から算出する。
Next, in step S6, the
そして、ステップS7では、コントロールユニット20は、前記ステップS4で取得した道路パラメータ及び車両状態量、前記ステップS5で取得した基準点及び前記ステップS6で取得した補正後の自車両ヨー角φに基づいて、道路曲率ρを算出する。ここでは、ワールド座標におけるCCDカメラ10の位置での走行路中央点と上記基準点とを結ぶ曲線の曲率を、道路曲率ρとして算出する。
In step S7, the
《動作》
次に、第1の実施形態の動作について説明する。
図7は、第1の実施形態の動作を説明する図である。
今、自車両がカーブ路を走行しているものとすると、CCDカメラ10は、図7(a)に示すように、車両前方に左右レーンマーカ(白線)LR,LLを検出する。このCCDカメラ10で撮像した道路画像は、コントロールユニット20の画像取得部21に入力する。
画像取得部21は、入力した道路画像に対して前処理を行い、左右レーンマーカLR,LLと路面との境界をそれぞれ強調する。このとき、左右レーンマーカLR,LLにおいて、走行路内側の境界を検出対象として設定する(ステップS1)。
<Operation>
Next, the operation of the first embodiment will be described.
FIG. 7 is a diagram for explaining the operation of the first embodiment.
Assuming that the host vehicle is traveling on a curved road, the
The
この前処理を施した道路画像は、レーンマーカ候補点検出部22に入力する。そして、レーンマーカ候補点検出部22は、検出対象である左右レーンマーカLR,LLの境界線上から、レーンマーカ候補点を検出する。このとき、自車両から所定距離ずつ離れた5つの地点Ar1〜Ar5において、レーンマーカ候補点を検出する。
すなわち、Ar1地点における左レーンマーカLLの境界線上の点を、左レーンマーカ候補点CL1とする。同様にAr2,…,Ar5地点における左レーンマーカLLの境界線上の点を、左レーンマーカ候補点CL2,…,CL5とする(ステップS2)。図7に示す例では、レーンマーカの線種が破線であり、Ar3地点における左レーンマーカLLの境界線が存在しない。したがって、この場合には左レーンマーカ候補点CL3は存在しない。
The road image subjected to this preprocessing is input to the lane marker candidate
That is, the point on the boundary line of the left lane marker LL at the Ar1 point is set as the left lane marker
また、Ar1,…,Ar5地点における右レーンマーカLRの境界線上の点を、右レーンマーカ候補点CR1,…,CR5とする(ステップS3)。左レーンマーカ候補点と同様に、右レーンマーカ候補点についてもCR3は存在しない。
このようにして、画像処理によるレーンマーカ位置の検出を行い、レーンマーカ内側の座標点を左右両側で各5個ずつ(この場合は4個ずつ)、計10個(この場合は計8個)取得する。
Further, the points on the boundary line of the right lane marker LR at the points Ar1,..., Ar5 are set as the right lane marker candidate points
In this way, the lane marker position is detected by image processing, and five coordinate points inside the lane marker are obtained on each of the left and right sides (four in this case), for a total of ten (in this case, eight in total). .
次に、走行路推定部23は、レーンマーカ候補点検出部22で検出した左右レーンマーカ候補点CR1〜CR5,CL1〜CL5の位置より道路モデルを取得する。ここでは、状態推定器としてカルマンフィルタを採用し、道路パラメータ(道路曲率ρ)及び車両状態量(横変位yc、ヨー角φ、ピッチ角η)を推定する(ステップS4)。
これにより、図7(b)に示すように、最も左右レーンマーカにトレースする道路モデル(近似線)MR,MLを取得することができる。
Then, the
As a result, as shown in FIG. 7B, the road models (approximate lines) MR and ML most traced to the left and right lane markers can be acquired.
取得した近似線MR,MLは、基準点算出部24に入力する。基準点算出部24は、自車両から所定距離D遠方の位置における近似線MR,ML上の点PR,PLを算出する。そして、点PRと点PLとを結ぶ直線の中央点を、道路曲率ρを算出する際に用いる基準点Pとし、その座標値を算出する(ステップS5)。すなわち、基準点Pは、図7(c)に示すように、自車両から所定距離D離れた位置における、走行路の幅方向中央位置に設定する。
The acquired approximate lines MR and ML are input to the reference
次に、曲率算出部25は、横速度Vy及び自車速Vに基づいて、図6に示す手法により自車両ヨー角φを算出する。そして、走行路推定部23で取得した車両状態量の自車両ヨー角φを、算出した自車両ヨー角φに置き換える(ステップS6)。このようにして、車両状態量を個別に補正する。
また、曲率算出部25は、上記補正を行った後、基準点算出部24で算出した基準点Pを用いて、道路モデルから道路曲率ρを再計算する(ステップS7)。ここでは、図7(d)に示すように、道路モデルに従って、CCDカメラ10の位置(y軸原点)の基準点から遠方の基準点Pまでを結ぶ曲線Mの曲率を算出する。
Next, the
Further, after performing the above correction, the
算出した道路曲率ρは、車両制御ECU26に入力する。そして、この車両制御ECU26で、道路曲率ρを用いた車両制御を行う。
このように、本実施形態では、走行路推定部23で取得した道路パラメータの値をそのまま用いず、道路曲率ρを再計算して車両制御に用いる。すなわち、状態推定器で取得した、他パラメータの誤差の影響を受けた道路曲率ρを用いない。したがって、高精度に取得した道路曲率ρを用いて車両制御を行うことができる。
The calculated road curvature ρ is input to the
As described above, in this embodiment, the road parameter value acquired by the travel
また、基準点Pを用いて道路モデルから道路曲率ρの再計算を行う。これにより、精度が信頼できるパラメータを用いて、高精度に道路曲率ρを算出することができる。
さらに、基準点Pを走行路の中央点に設定するので、自車両が走行している走行路の道路曲率ρを真値に近い形で算出することができる。
また、道路曲率ρの再計算にあたり、走行路推定部23で取得した道路モデルの車両状態量を個別に補正する。その結果、より真値に近い値を用いて道路曲率ρを算出することができる。このとき、上記車両状態量として自車両ヨー角を補正する。走行路推定部23で取得するヨー角は誤差を含んでいるため、これを別手段により算出し補正することで、高精度に道路曲率ρを算出することができる。
Further, the road curvature ρ is recalculated from the road model using the reference point P. As a result, the road curvature ρ can be calculated with high accuracy using a parameter whose reliability is reliable.
Furthermore, since the reference point P is set to the center point of the traveling road, the road curvature ρ of the traveling road on which the host vehicle is traveling can be calculated in a form close to the true value.
Further, when the road curvature ρ is recalculated, the vehicle state quantity of the road model acquired by the travel
なお、図1において、CCDカメラ10が撮像手段を構成している。また、図2において、レーンマーカ候補点検出部22がレーンマーカ候補点検出手段を構成し、走行路推定部23が道路モデルパラメータ推定手段を構成している。さらに、基準点算出部24が基準点算出手段を構成し、曲率算出部25が曲率算出手段を構成している。また、車両制御ECU26が車両制御手段を構成している。さらに、図3のステップS6が補正手段を構成している。
In FIG. 1, the
《効果》
(1)撮像手段は、車両周辺を撮像する。レーンマーカ候補点検出手段は、撮像手段で撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出する。道路モデルパラメータ推定手段は、レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する。
"effect"
(1) The imaging unit images the periphery of the vehicle. The lane marker candidate point detection means detects a plurality of coordinate values of the lane marker candidate points constituting the image corresponding to the lane marker from the captured image captured by the imaging means. The road model parameter estimation means estimates the road parameters and vehicle state quantities of the road model based on the coordinate values of the lane marker candidate points detected by the lane marker candidate point detection means, and traces an image corresponding to the lane marker on the captured image. Get approximate line.
基準点算出手段は、道路モデルパラメータ推定手段で取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出する。曲率算出手段は、基準点算出手段で算出した基準点と道路モデルパラメータ推定手段で取得した道路モデルとに基づいて、曲率を算出する。
したがって、精度が信頼できるパラメータを用いて曲率を算出することができる。これにより、状態推定器の安定性を備えつつ、状態推定器で推定した道路パラメータの1つである曲率よりも高精度な曲率を算出することができる。
The reference point calculation means calculates at least one reference point on the captured image based on the approximate line acquired by the road model parameter estimation means. The curvature calculating means calculates the curvature based on the reference point calculated by the reference point calculating means and the road model acquired by the road model parameter estimating means.
Therefore, the curvature can be calculated using a parameter whose accuracy is reliable. As a result, it is possible to calculate a curvature with higher accuracy than the curvature that is one of the road parameters estimated by the state estimator while having the stability of the state estimator.
(2)補正手段は、道路モデルパラメータ推定手段で取得した道路モデルの道路パラメータ及び車両状態量を個別に補正する。そして、曲率算出手段は、基準点算出手段で算出した基準点と補正手段で補正した道路モデルとに基づいて、曲率を算出する。
したがって、誤差を含んでいる道路パラメータや車両状態量に対して補正を行った後に、補正後の値を用いて曲率を算出することができる。すなわち、より真値に近い値を用いて曲率を算出することができる。その結果、より高精度に曲率を算出することができる。
(2) The correcting means individually corrects the road parameter and the vehicle state quantity of the road model acquired by the road model parameter estimating means. Then, the curvature calculation unit calculates the curvature based on the reference point calculated by the reference point calculation unit and the road model corrected by the correction unit.
Therefore, the curvature can be calculated using the corrected value after correcting the road parameter or the vehicle state quantity including the error. That is, the curvature can be calculated using a value closer to the true value. As a result, the curvature can be calculated with higher accuracy.
(3)補正手段は、走行路に対する車両のヨー角を、車両挙動情報に基づいて補正する。
このように、走行路推定により誤差を含んでいる車両のヨー角に対しては、別手段により真値に近い値を算出し補正する。これにより、より高精度に曲率を算出することができる。
(3) The correction means corrects the yaw angle of the vehicle with respect to the travel path based on the vehicle behavior information.
In this way, a value close to the true value is calculated and corrected by another means for the yaw angle of the vehicle that includes an error due to the travel path estimation. Thereby, the curvature can be calculated with higher accuracy.
(4)道路モデルパラメータ推定手段は、左レーンマーカに相当する画像をトレースする左側近似線と、右レーンマーカに相当する画像をトレースする右側近似線とを取得することで走行路を取得する。基準点算出手段は、基準点を、走行路の幅方向における中央位置に設定する。
したがって、自車両が走行する走行路の道路曲率を、真値に近い値に算出することができる。
(4) The road model parameter estimation means acquires the traveling path by acquiring a left approximate line that traces an image corresponding to the left lane marker and a right approximate line that traces an image corresponding to the right lane marker. The reference point calculation means sets the reference point at the center position in the width direction of the travel path.
Therefore, the road curvature of the travel path on which the host vehicle travels can be calculated to a value close to the true value.
(5)撮像手段は、車体に搭載し車両周辺を撮像する。レーンマーカ候補点検出手段は、撮像手段で撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出する。道路モデルパラメータ推定手段は、レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する。 (5) The imaging means is mounted on the vehicle body and images the periphery of the vehicle. The lane marker candidate point detection means detects a plurality of coordinate values of the lane marker candidate points constituting the image corresponding to the lane marker from the captured image captured by the imaging means. The road model parameter estimation means estimates the road parameters and vehicle state quantities of the road model based on the coordinate values of the lane marker candidate points detected by the lane marker candidate point detection means, and traces an image corresponding to the lane marker on the captured image. Get approximate line.
基準点算出手段は、道路モデルパラメータ推定手段で取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出する。曲率算出手段は、基準点算出手段で算出した基準点と道路モデルパラメータ推定手段で取得した道路モデルとに基づいて、曲率を算出する。車両制御手段は、曲率算出手段で算出した曲率に基づいて車両の制御を行う。
これにより、安定かつ高精度に曲率を算出することができる。そして、その高精度に算出した曲率を用いて車両の制御を行う自動車とすることができる。
The reference point calculation means calculates at least one reference point on the captured image based on the approximate line acquired by the road model parameter estimation means. The curvature calculating means calculates the curvature based on the reference point calculated by the reference point calculating means and the road model acquired by the road model parameter estimating means. The vehicle control means controls the vehicle based on the curvature calculated by the curvature calculation means.
Thereby, the curvature can be calculated stably and with high accuracy. And it can be set as the motor vehicle which controls a vehicle using the curvature calculated with the high precision.
(6)車両周辺を撮像し、撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出する。検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定して、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する。すると、取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出し、算出した基準点と取得した道路モデルとに基づいて、曲率を算出する。
これにより、安定かつ高精度に曲率を算出することができる。
(6) The periphery of the vehicle is imaged, and a plurality of coordinate values of the lane marker candidate points constituting the image corresponding to the lane marker are detected from the captured image. Based on the detected coordinate value of the lane marker candidate point, the road parameter of the road model and the vehicle state quantity are estimated, and an approximate line for tracing the image corresponding to the lane marker on the captured image is acquired. Then, at least one reference point on the captured image is calculated based on the acquired approximate line, and the curvature is calculated based on the calculated reference point and the acquired road model.
Thereby, the curvature can be calculated stably and with high accuracy.
《第2の実施の形態》
次に、本発明の第2の実施形態について説明する。
この第2の実施形態は、自車両から所定距離だけ離れた地点における、走行路内の任意の位置を基準点Pとして算出するものである。
《構成》
第2の実施形態におけるコントロールユニット20の構成は、図2に示す前述した第1の実施形態と同様である。
(道路曲率算出処理手順)
第2の実施形態のコントロールユニット20で実行する道路曲率算出処理手順について説明する。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described.
In the second embodiment, an arbitrary position in the traveling path at a point away from the host vehicle by a predetermined distance is calculated as the reference point P.
"Constitution"
The configuration of the
(Road curvature calculation processing procedure)
A road curvature calculation processing procedure executed by the
図8は、第2の実施形態のコントロールユニット20で実行する道路曲率算出処理手順を示すフローチャートである。
この道路曲率算出処理は、図3に示す道路曲率算出処理において、ステップS5をステップS11に置換し、ステップS7をステップS12に置換したことを除いては、図3と同様の処理を行う。したがって、図3との対応部分には同一符号を付し、処理の異なる部分を中心に説明する。
FIG. 8 is a flowchart showing a road curvature calculation processing procedure executed by the
This road curvature calculation process is the same as that in FIG. 3 except that step S5 is replaced with step S11 and step S7 is replaced with step S12 in the road curvature calculation process shown in FIG. Accordingly, parts corresponding to those in FIG.
ステップS11では、コントロールユニット20は、前記ステップS4で算出した近似線に基づいて、道路曲率ρを算出する際に用いる基準点を算出する。ここでは、自車両から所定距離D(固定値)だけ離れた地点(最遠方地点)における自車両を通過させたい位置を基準点とする。例えば、上記最遠方地点における左レーンマーカ(左の近似線)から所定距離(任意)の位置を、基準点とする。
In step S11, the
また、ステップS12では、コントロールユニット20は、前記ステップS4で取得した道路パラメータ及び車両状態量、前記ステップS11で取得した基準点及び前記ステップS6で取得した補正後の自車両ヨー角φに基づいて、道路曲率ρを算出する。ここでは、ワールド座標におけるCCDカメラ10の位置での走行路に対する自車両横変位ycと上記基準点とを結ぶ曲線の曲率を、道路曲率ρとして算出する。
In step S12, the
《動作》
次に、第2の実施形態の動作について説明する。
今、自車両がカーブ路を走行しており、CCDカメラ10が、図7(a)に示すように、車両前方に左右レーンマーカ(白線)LR,LLを検出しているものとする。
この場合、前述した第1の実施形態と同様に、コントロールユニット20の画像取得部21で、CCDカメラ10で撮像した道路画像に対して前処理を行う(ステップS1)。そして、レーンマーカ候補点検出部22は、左右レーンマーカ候補点CR1〜CR5,CL1〜CL5を取得する(ステップS2,S3)。
<Operation>
Next, the operation of the second embodiment will be described.
Now, it is assumed that the host vehicle is traveling on a curved road, and the
In this case, as in the first embodiment described above, the
次に、走行路推定部23は、レーンマーカ候補点検出部22で検出した左右レーンマーカ候補点CR1〜CR5,CL1〜CL5の位置より道路モデルを取得する(ステップS4)。これにより、図7(b)に示すように、最も左右レーンマーカにトレースする道路モデル(近似線)MR,MLを取得する。
そして、基準点算出部24は、自車両から所定距離D遠方の地点における走行路内の任意の位置を基準点Pとし、その座標値を算出する(ステップS11)。
Then, the
Then, the reference
このとき、自車両が走行路中央位置を走行しており、上記任意の位置として走行路中央点を選定したものとする。この場合には、曲率算出部25は、図7(d)に示すように、CCDカメラ10の位置での走行路中央点から遠方の走行路中央点(基準点P)までを結ぶ曲線Mの曲率を算出することになる。
したがって、この場合には前述した第1の実施形態と同様に、自車両が走行している走行路の道路曲率ρを算出することができる。
At this time, it is assumed that the host vehicle is traveling in the center position of the travel path and the travel path center point is selected as the arbitrary position. In this case, as shown in FIG. 7 (d), the
Therefore, in this case, the road curvature ρ of the traveling road on which the host vehicle is traveling can be calculated as in the first embodiment described above.
一方、基準点算出部24で、自車両から所定距離D遠方の地点における、走行路中央位置から所定距離ずれた位置を基準点Pとしたものとする。この場合、曲率算出部25は、CCDカメラ10の位置での自車両の位置(横位置yc)と、遠方の走行路中央点から所定距離ずれた基準点Pとを結ぶ曲線の曲率を算出することになる。
したがって、この場合には、自車両が走行している走行路の道路曲率ではなく、自車両をトレースさせたい走行軌跡の曲率ρを算出することができる。
このように、本実施形態では、自車両が走行している走行路の道路曲率に加えて、自車両の予想走行軌跡の曲率についても算出することができる。
On the other hand, it is assumed that the reference
Therefore, in this case, it is possible to calculate the curvature ρ of the travel locus desired to be traced by the host vehicle, not the road curvature of the travel path on which the host vehicle is traveling.
Thus, in this embodiment, in addition to the road curvature of the traveling path on which the host vehicle is traveling, the curvature of the predicted traveling locus of the host vehicle can also be calculated.
《効果》
(7)道路モデルパラメータ推定手段は、左レーンマーカに相当する画像をトレースする左側近似線と、右レーンマーカに相当する画像をトレースする右側近似線とを取得することで走行路を取得する。基準点算出手段は、基準点を、走行路の幅方向における任意の位置に設定する。
これにより、基準点を、自車両が通過したい位置に設定することができる。したがって、自車両が走行している走行路の道路曲率に加えて、自車両をトレースさせたい走行軌跡の曲率を算出することができる。
"effect"
(7) The road model parameter estimation means obtains the traveling path by obtaining a left approximate line that traces an image corresponding to the left lane marker and a right approximate line that traces an image corresponding to the right lane marker. The reference point calculation means sets the reference point at an arbitrary position in the width direction of the travel path.
Thereby, the reference point can be set at a position where the host vehicle wants to pass. Therefore, in addition to the road curvature of the travel path on which the host vehicle is traveling, the curvature of the travel locus on which the host vehicle is desired to be traced can be calculated.
《第3の実施の形態》
次に、本発明の第3の実施形態について説明する。
この第3の実施形態は、レーンマーカのトレースが確立している近似線部分から基準点Pを算出するものである。
《構成》
第3の実施形態におけるコントロールユニット20の構成は、図2に示す前述した第1の実施形態と同様である。
(道路曲率算出処理手順)
第3の実施形態のコントロールユニット20で実行する道路曲率算出処理手順について説明する。
図9は、第3の実施形態のコントロールユニット20で実行する道路曲率算出処理手順を示すフローチャートである。
この道路曲率算出処理は、図3に示す道路曲率算出処理において、ステップS5をステップS21〜S23に置換したことを除いては、図3と同様の処理を行う。したがって、図3との対応部分には同一符号を付し、処理の異なる部分を中心に説明する。
<< Third Embodiment >>
Next, a third embodiment of the present invention will be described.
In the third embodiment, the reference point P is calculated from the approximate line portion where the trace of the lane marker is established.
"Constitution"
The configuration of the
(Road curvature calculation processing procedure)
A road curvature calculation processing procedure executed by the
FIG. 9 is a flowchart illustrating a road curvature calculation processing procedure executed by the
This road curvature calculation process is the same as that of FIG. 3 except that step S5 is replaced with steps S21 to S23 in the road curvature calculation process shown in FIG. Accordingly, parts corresponding to those in FIG.
ステップS21では、コントロールユニット20は、前記ステップS4で算出した近似線に基づいて、道路曲率ρを算出する際に用いる基準点を算出する。ここでは、自車両から所定距離だけ離れた地点における走行路の中央点を基準点とし、距離を変更して基準点を複数算出する。
ステップS22では、コントロールユニット20は、カーブトレースの信頼性を判定する。ここでは、前記ステップS4で算出した近似線が、道路画像上のレーンマーカを誤差なくトレースできている(カーブトレースできている)か否かを判定する。そして、カーブトレースできている自車両から最遠方の地点を検出する。
In step S21, the
In step S22, the
具体的には、先ず、前記ステップS2及びS3で検出したレーンマーカ候補点の座標値と、前記ステップS4で算出した近似線の座標値とをそれぞれ比較する。2つの座標値の誤差が許容範囲内となっている場合には、その地点においてカーブトレースできていると判断する。そして、カーブトレースできていると判断したレーンマーカ候補点の検出位置のうち、最遠方の地点を検出する。
次にステップS23では、コントロールユニット20は、前記ステップS21で算出した複数の基準点から、道路曲率ρの算出に用いる基準点を選定する。ここでは、前記ステップS22で検出した最遠方の地点に最も近く、且つその地点より手前(自車両側)にある基準点を選定する。
Specifically, first, the coordinate value of the lane marker candidate point detected in the steps S2 and S3 is compared with the coordinate value of the approximate line calculated in the step S4. If the error between the two coordinate values is within the allowable range, it is determined that a curve trace can be made at that point. Then, the farthest point is detected from the detection positions of the lane marker candidate points determined to be curve traced.
Next, in step S23, the
《動作》
次に、第3の実施形態の動作について説明する。
図10は、第3の実施形態の動作を説明する図である。
前述した第1の実施形態と同様に、コントロールユニット20の画像取得部21は、CCDカメラ10で撮像した道路画像に対して前処理を行う(ステップS1)。そして、レーンマーカ候補点検出部22は、左右レーンマーカ候補点を取得する(ステップS2,S3)。また、走行路推定部23は、レーンマーカ候補点検出部22で検出した左右レーンマーカ候補点の位置より道路モデルを取得する(ステップS4)。これにより、最も左右レーンマーカにトレースする道路モデル(近似線)MR,MLを取得する。
<Operation>
Next, the operation of the third embodiment will be described.
FIG. 10 is a diagram for explaining the operation of the third embodiment.
Similar to the first embodiment described above, the
そして、基準点算出部24は、自車両から所定距離ずつ離れた地点における走行路の中央点を基準点として算出する(ステップS21)。なお、図10では、基準点を4つ算出する場合について図示している(P1〜P4)。ここで、各基準点の算出位置は、各レーンマーカ候補点の検出位置と同じ位置に設定している。
次に、基準点算出部24は、各レーンマーカ候補点の座標値と、近似線MR,MLの座標値とを比較する。図10において、近似線MR,MLに沿って配置している矩形印a〜hは、それぞれ座標値の比較を行っている位置、即ち各レーンマーカ候補点の検出位置である。
Then, the reference
Next, the reference
右側カーブトレースについて着目すると、座標比較位置a〜cでは、近似線MRがレーンマーカLRに誤差なくトレースできている。これに対して、座標比較位置dでは、レーンマーカ候補点の座標値と近似線MRの座標値との差異が許容範囲を超える。すなわち、座標比較位置dでは、カーブトレースできていない。
一方、左側については、座標比較位置e〜hにおいてカーブトレースできている。
Focusing on the right curve trace, the approximate line MR can be traced to the lane marker LR without any error at the coordinate comparison positions a to c. On the other hand, at the coordinate comparison position d, the difference between the coordinate value of the lane marker candidate point and the coordinate value of the approximate line MR exceeds the allowable range. That is, the curve trace cannot be performed at the coordinate comparison position d.
On the other hand, for the left side, a curve trace can be performed at the coordinate comparison positions e to h.
したがって、基準点算出部24は、座標比較位置c,gを、カーブトレースできている最遠方の地点として検出する(ステップS22)。そのため、この位置で設定した基準点P3が、曲率ρの算出に用いる基準点となる(ステップS23)。
そして、曲率算出部25は、CCDカメラ10の位置での走行路中央点から基準点P3までを結ぶ曲線の曲率ρを算出する。
これにより、走行路推定により得た近似線のレーンマーカに対するトレースが一部出来ていない場合においても、高精度に自車両が走行している走行路の道路曲率を算出することができる。
Therefore, the reference
Then, the
Thereby, even when the trace with respect to the lane marker of the approximate line obtained by the travel route estimation is not made, the road curvature of the travel route on which the host vehicle is traveling can be calculated with high accuracy.
上記の動作例では、各基準点の算出位置と各レーンマーカ候補点の検出位置とを同じ位置に設定している。これに対して、各基準点の算出位置を、各レーンマーカ候補点の検出位置とは異なる位置に設定した場合には、先ず、カーブトレースできている最遠方の地点(レーンマーカ候補点の検出位置)を検出する。次に、この最遠方の地点に最も近く、且つ最遠方の地点より手前(自車両側)にある基準点を、道路曲率ρの算出に用いる基準点として選定する。
この場合にも、レーンマーカのトレースが確立している近似線部分から基準点を算出することができる。そのため、高精度に自車両が走行している走行路の道路曲率を算出することができる。
In the above operation example, the calculation position of each reference point and the detection position of each lane marker candidate point are set to the same position. On the other hand, when the calculation position of each reference point is set to a position different from the detection position of each lane marker candidate point, first, the farthest point where the curve trace is possible (the detection position of the lane marker candidate point) Is detected. Next, a reference point closest to the farthest point and in front of the farthest point (on the vehicle side) is selected as a reference point used for calculating the road curvature ρ.
Also in this case, the reference point can be calculated from the approximate line portion where the lane marker trace is established. Therefore, the road curvature of the travel path on which the host vehicle is traveling can be calculated with high accuracy.
《効果》
(8)基準点算出手段は、レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値と、道路モデルパラメータ推定手段で取得した近似線の座標値とを比較し、両者の差が許容範囲内となる位置で、基準点を設定する。
したがって、レーンマーカのトレースが確立している近似線部分から基準点を算出することができる。そのため、この基準点を用いて曲率を算出することで、走行路推定による近似線の誤差を抑えることができる。
(9)基準点算出手段は、レーンマーカ候補点の座標値と近似線の座標値と差が許容範囲内となる撮像手段から最遠方の位置で、基準点を設定する。このように、可能な限り遠方において基準点を算出するので、安定かつ高精度に曲率を算出することができる。
"effect"
(8) The reference point calculation means compares the coordinate value of the lane marker candidate point detected by the lane marker candidate point detection means with the coordinate value of the approximate line acquired by the road model parameter estimation means, and the difference between the two is within an allowable range. Set the reference point at the position.
Therefore, the reference point can be calculated from the approximate line portion where the lane marker trace is established. Therefore, by calculating the curvature using this reference point, it is possible to suppress the error of the approximate line due to the travel path estimation.
(9) The reference point calculation means sets the reference point at a position farthest from the imaging means where the difference between the coordinate value of the lane marker candidate point and the coordinate value of the approximate line is within the allowable range. Thus, since the reference point is calculated as far as possible, the curvature can be calculated stably and with high accuracy.
《変形例》
(1)上記第3の実施形態においては、図9のステップS21で、複数の基準値をそれぞれ走行路の幅方向における中央位置に設定する場合について説明したが、第2の実施形態と同様に、走行路の幅方向における任意の位置に設定することもできる。この場合、曲率算出部25で道路曲率を算出する際には、第2の実施形態と同様に、自車両横変位ycと基準点とを結ぶ曲線の曲率を算出する。これにより、自車両が走行している走行路の道路曲率に加えて、自車両の予想走行軌跡の曲率についても、安定かつ高精度に算出することができる。
<Modification>
(1) In the third embodiment, the case has been described in which the plurality of reference values are respectively set at the center positions in the width direction of the travel path in step S21 of FIG. 9, but as in the second embodiment. It can also be set at an arbitrary position in the width direction of the travel path. In this case, when the road curvature is calculated by the
(2)上記第3の実施形態においては、複数の基準点の中から道路曲率の算出に用いる基準点を選出する場合について説明したが、以下のようにすることもできる。
先ず、各レーンマーカ候補点の検出位置にて、レーンマーカ候補点の座標値と走行路推定部23で取得した近似線の座標値とを比較する。そして、近似線がレーンマーカに誤差なくトレースできている最遠方の位置を検出する。その後、検出した最遠方の位置で、道路曲率の算出に用いる基準点を算出する。
これにより、予め複数の基準点を算出する必要がなくなり、処理工数を削減することができる。但し、この場合、レーンマーカ候補点の検出位置と座標比較位置とは同じ位置になる。
(2) In the third embodiment, a case has been described in which a reference point used for calculation of road curvature is selected from a plurality of reference points. However, the following may be employed.
First, at the detection position of each lane marker candidate point, the coordinate value of the lane marker candidate point is compared with the coordinate value of the approximate line acquired by the traveling
Thereby, it is not necessary to calculate a plurality of reference points in advance, and the number of processing steps can be reduced. However, in this case, the detection position of the lane marker candidate point and the coordinate comparison position are the same position.
(3)上記各実施形態においては、図3、図8及び図9のステップS6で、自車両ヨー角φを補正する場合について説明したが、走行路推定部23で取得した道路パラメーラ及び車両状態量のうち他のパラメータを補正することもできる。このとき、状態推定器による推定と比較して、より真値に近い値を算出できる手法を用いて補正することができれば、高精度に曲率算出部25における道路曲率ρの算出を行うことができる。
(3) In each of the embodiments described above, the case where the host vehicle yaw angle φ is corrected in step S6 of FIGS. 3, 8, and 9 has been described. Other parameters of the quantity can be corrected. At this time, if the correction can be performed using a method that can calculate a value closer to the true value as compared with the estimation by the state estimator, the road curvature ρ can be calculated in the
1 自動車
1a 車室内天井
1b フロントガラス
10 CCDカメラ
20 コントロールユニット
21 画像取得部
22 レーンマーカ候補点検出部
23 走行路推定部
24 基準点算出部
25 曲率算出部
26 車両制御ECU
R 走行路
DESCRIPTION OF
R road
Claims (9)
前記撮像手段で撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出するレーンマーカ候補点検出手段と、
前記レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する道路モデルパラメータ推定手段と、
前記道路モデルパラメータ推定手段で取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出する基準点算出手段と、
前記基準点算出手段で算出した基準点と前記道路モデルパラメータ推定手段で取得した道路モデルとに基づいて、曲率を算出する曲率算出手段と、を備えることを特徴とする走行路認識装置。 Imaging means for imaging the periphery of the vehicle;
Lane marker candidate point detection means for detecting a plurality of coordinate values of lane marker candidate points constituting an image corresponding to a lane marker from a captured image captured by the imaging means;
A road that estimates road parameters and vehicle state quantities of the road model based on the coordinate values of the lane marker candidate points detected by the lane marker candidate point detection means, and obtains an approximate line that traces an image corresponding to the lane marker on the captured image Model parameter estimation means;
Reference point calculating means for calculating at least one reference point on the captured image based on the approximate line acquired by the road model parameter estimating means;
A travel path recognition apparatus comprising: curvature calculation means for calculating curvature based on the reference point calculated by the reference point calculation means and the road model acquired by the road model parameter estimation means.
前記曲率算出手段は、前記基準点算出手段で算出した基準点と前記補正手段で補正した道路モデルとに基づいて、曲率を算出することを特徴とする請求項1に記載の走行路認識装置。 Correction means for individually correcting the road parameters and vehicle state quantities of the road model acquired by the road model parameter estimation means;
2. The travel path recognition apparatus according to claim 1, wherein the curvature calculation unit calculates a curvature based on the reference point calculated by the reference point calculation unit and the road model corrected by the correction unit.
前記基準点算出手段は、前記基準点を、前記走行路の幅方向における中央位置に設定することを特徴とする請求項1〜3の何れか1項に記載の走行路認識装置。 The road model parameter estimating means obtains a traveling road by obtaining a left approximate line that traces an image corresponding to a left lane marker and a right approximate line that traces an image corresponding to a right lane marker,
The travel path recognition apparatus according to claim 1, wherein the reference point calculation unit sets the reference point at a center position in a width direction of the travel path.
前記基準点算出手段は、前記基準点を、前記走行路の幅方向における任意の位置に設定することを特徴とする請求項1〜3の何れか1項に記載の走行路認識装置。 The road model parameter estimating means obtains a traveling road by obtaining a left approximate line that traces an image corresponding to a left lane marker and a right approximate line that traces an image corresponding to a right lane marker,
The travel path recognition apparatus according to claim 1, wherein the reference point calculation unit sets the reference point at an arbitrary position in a width direction of the travel path.
前記撮像手段で撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出するレーンマーカ候補点検出手段と、
前記レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する道路モデルパラメータ推定手段と、
前記道路モデルパラメータ推定手段で取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出する基準点算出手段と、
前記基準点算出手段で算出した基準点と前記道路モデルパラメータ推定手段で取得した道路モデルとに基づいて、曲率を算出する曲率算出手段と、
前記曲率算出手段で算出した曲率に基づいて車両の制御を行う車両制御手段と、を備えることを特徴とする自動車。 A vehicle body and an imaging means mounted on the vehicle body for imaging the vehicle periphery;
Lane marker candidate point detection means for detecting a plurality of coordinate values of lane marker candidate points constituting an image corresponding to a lane marker from a captured image captured by the imaging means;
A road that estimates road parameters and vehicle state quantities of the road model based on the coordinate values of the lane marker candidate points detected by the lane marker candidate point detection means, and obtains an approximate line that traces an image corresponding to the lane marker on the captured image Model parameter estimation means;
Reference point calculating means for calculating at least one reference point on the captured image based on the approximate line acquired by the road model parameter estimating means;
Curvature calculating means for calculating a curvature based on the reference point calculated by the reference point calculating means and the road model acquired by the road model parameter estimating means;
An automobile comprising: vehicle control means for controlling the vehicle based on the curvature calculated by the curvature calculation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009035041A JP2010191661A (en) | 2009-02-18 | 2009-02-18 | Traveling path recognition device, automobile, and traveling path recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009035041A JP2010191661A (en) | 2009-02-18 | 2009-02-18 | Traveling path recognition device, automobile, and traveling path recognition method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010191661A true JP2010191661A (en) | 2010-09-02 |
Family
ID=42817646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009035041A Pending JP2010191661A (en) | 2009-02-18 | 2009-02-18 | Traveling path recognition device, automobile, and traveling path recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010191661A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013089110A (en) * | 2011-10-20 | 2013-05-13 | Alpine Electronics Inc | Lane monitoring system and lane monitoring method |
JP2013112067A (en) * | 2011-11-25 | 2013-06-10 | Toyota Motor Corp | Traveling course generation device and traveling control device |
JP2013129289A (en) * | 2011-12-21 | 2013-07-04 | Toyota Motor Corp | Vehicle state quantity estimating device and vehicle steering control apparatus |
EP2620930A4 (en) * | 2010-09-24 | 2015-09-16 | Toyota Motor Co Ltd | Track estimation device and program |
JP2016057750A (en) * | 2014-09-08 | 2016-04-21 | 株式会社豊田中央研究所 | Estimation device and program of own vehicle travel lane |
KR20170021090A (en) * | 2015-08-17 | 2017-02-27 | 엘지이노텍 주식회사 | Apparatus for recognizing lane conditions and moethod thereof |
JP2018013955A (en) * | 2016-07-21 | 2018-01-25 | いすゞ自動車株式会社 | Image processing apparatus and image processing method |
KR20180048094A (en) * | 2016-11-02 | 2018-05-10 | 현대자동차주식회사 | Apparatus and method for estimating inter-vehicle distance |
JP2021103525A (en) * | 2015-02-10 | 2021-07-15 | モービルアイ ビジョン テクノロジーズ リミテッド | Method for processing navigation information, map server computer program for processing navigation information, vehicle system for supporting autonomous vehicle navigation, and autonomous vehicle |
US11120277B2 (en) | 2018-10-10 | 2021-09-14 | Denso Corporation | Apparatus and method for recognizing road shapes |
CN114782549A (en) * | 2022-04-22 | 2022-07-22 | 南京新远见智能科技有限公司 | Camera calibration method and system based on fixed point identification |
CN114889606A (en) * | 2022-04-28 | 2022-08-12 | 吉林大学 | Low-cost high-precision positioning method based on multi-sensor fusion |
CN116118751A (en) * | 2023-04-19 | 2023-05-16 | 深圳佑驾创新科技有限公司 | Control method and device for vehicle, vehicle and storage medium |
-
2009
- 2009-02-18 JP JP2009035041A patent/JP2010191661A/en active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2620930A4 (en) * | 2010-09-24 | 2015-09-16 | Toyota Motor Co Ltd | Track estimation device and program |
JP2013089110A (en) * | 2011-10-20 | 2013-05-13 | Alpine Electronics Inc | Lane monitoring system and lane monitoring method |
JP2013112067A (en) * | 2011-11-25 | 2013-06-10 | Toyota Motor Corp | Traveling course generation device and traveling control device |
JP2013129289A (en) * | 2011-12-21 | 2013-07-04 | Toyota Motor Corp | Vehicle state quantity estimating device and vehicle steering control apparatus |
JP2016057750A (en) * | 2014-09-08 | 2016-04-21 | 株式会社豊田中央研究所 | Estimation device and program of own vehicle travel lane |
JP2021103525A (en) * | 2015-02-10 | 2021-07-15 | モービルアイ ビジョン テクノロジーズ リミテッド | Method for processing navigation information, map server computer program for processing navigation information, vehicle system for supporting autonomous vehicle navigation, and autonomous vehicle |
JP7280465B2 (en) | 2015-02-10 | 2023-05-24 | モービルアイ ビジョン テクノロジーズ リミテッド | Method for processing navigation information, map server computer program for processing navigation information, vehicle system for assisting navigation of autonomous vehicle, and autonomous vehicle |
KR102384580B1 (en) | 2015-08-17 | 2022-04-08 | 엘지이노텍 주식회사 | Apparatus for recognizing lane conditions and moethod thereof |
KR20170021090A (en) * | 2015-08-17 | 2017-02-27 | 엘지이노텍 주식회사 | Apparatus for recognizing lane conditions and moethod thereof |
WO2018016507A1 (en) * | 2016-07-21 | 2018-01-25 | いすゞ自動車株式会社 | Image processing device and image processing method |
JP2018013955A (en) * | 2016-07-21 | 2018-01-25 | いすゞ自動車株式会社 | Image processing apparatus and image processing method |
KR20180048094A (en) * | 2016-11-02 | 2018-05-10 | 현대자동차주식회사 | Apparatus and method for estimating inter-vehicle distance |
KR102371592B1 (en) | 2016-11-02 | 2022-03-07 | 현대자동차주식회사 | Apparatus and method for estimating inter-vehicle distance |
US11120277B2 (en) | 2018-10-10 | 2021-09-14 | Denso Corporation | Apparatus and method for recognizing road shapes |
CN114782549A (en) * | 2022-04-22 | 2022-07-22 | 南京新远见智能科技有限公司 | Camera calibration method and system based on fixed point identification |
CN114782549B (en) * | 2022-04-22 | 2023-11-24 | 南京新远见智能科技有限公司 | Camera calibration method and system based on fixed point identification |
CN114889606A (en) * | 2022-04-28 | 2022-08-12 | 吉林大学 | Low-cost high-precision positioning method based on multi-sensor fusion |
CN116118751A (en) * | 2023-04-19 | 2023-05-16 | 深圳佑驾创新科技有限公司 | Control method and device for vehicle, vehicle and storage medium |
CN116118751B (en) * | 2023-04-19 | 2023-08-29 | 深圳佑驾创新科技有限公司 | Control method and device for vehicle, vehicle and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010191661A (en) | Traveling path recognition device, automobile, and traveling path recognition method | |
JP5276637B2 (en) | Lane estimation device | |
JP4788798B2 (en) | Object detection device | |
JP5962771B2 (en) | Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method | |
JP5966747B2 (en) | Vehicle travel control apparatus and method | |
US10030969B2 (en) | Road curvature detection device | |
JP5796947B2 (en) | Autonomous traveling control device and autonomous traveling vehicle equipped with the same | |
CN111164648B (en) | Position estimating device and position estimating method for mobile body | |
KR20190097326A (en) | Traffic light recognition device and traffic light recognition method | |
JP4670528B2 (en) | Imaging device deviation detection method, imaging device deviation correction method, and imaging device | |
US20190297314A1 (en) | Method and Apparatus for the Autocalibration of a Vehicle Camera System | |
JP6189816B2 (en) | Traveling line recognition device | |
JP5310027B2 (en) | Lane recognition device and lane recognition method | |
WO2019031137A1 (en) | Roadside object detection device, roadside object detection method, and roadside object detection system | |
JP2017111632A (en) | Information arithmetic processor | |
JP2005214914A (en) | Traveling speed detecting device and traveling speed detection method | |
JP6044084B2 (en) | Moving object position and orientation estimation apparatus and method | |
JP6768554B2 (en) | Calibration device | |
JP7303064B2 (en) | Image processing device and image processing method | |
US10536646B2 (en) | Imaging control device and imaging control method | |
CN113903103B (en) | Partial image generation device, partial image generation method, and storage medium | |
JP6489645B2 (en) | Image processing device | |
JP6619589B2 (en) | Image processing device | |
JP2013183311A (en) | Estimation device and detection system of attitude angle in on-vehicle camera | |
JP5330341B2 (en) | Ranging device using in-vehicle camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100917 |