JP2010191661A - Traveling path recognition device, automobile, and traveling path recognition method - Google Patents

Traveling path recognition device, automobile, and traveling path recognition method Download PDF

Info

Publication number
JP2010191661A
JP2010191661A JP2009035041A JP2009035041A JP2010191661A JP 2010191661 A JP2010191661 A JP 2010191661A JP 2009035041 A JP2009035041 A JP 2009035041A JP 2009035041 A JP2009035041 A JP 2009035041A JP 2010191661 A JP2010191661 A JP 2010191661A
Authority
JP
Japan
Prior art keywords
lane marker
road
reference point
curvature
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009035041A
Other languages
Japanese (ja)
Inventor
Fuminori Takeda
文紀 武田
Migaku Takahama
琢 高浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2009035041A priority Critical patent/JP2010191661A/en
Publication of JP2010191661A publication Critical patent/JP2010191661A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a traveling path recognition device, an automobile, and a traveling path recognition method for highly precisely obtaining a curvature. <P>SOLUTION: A lane marker candidate point detection part 22 detects a plurality of coordinate values of lane marker candidate points from an picked-up image picked up by a CCD camera 10. A traveling path estimation part 23 estimates the road parameter and vehicle state amounts of a road model on the basis of the coordinate values of the lane marker candidate points, and obtains an approximate line for tracing a lane marker. A reference point calculation part 24 calculates a reference point to be used for curvature calculation on the basis of the obtained approximate line. Then, a curvature calculation part 25 recalculates curvature on the basis of the reference point and the road model. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両前方の道路画像から道路形状を認識する走行路認識装置、それを備えた自動車及び走行路認識方法に関するものである。   The present invention relates to a travel path recognition device that recognizes a road shape from a road image in front of a vehicle, an automobile equipped with the travel path recognition method, and a travel path recognition method.

従来の走行路認識装置は、車両に搭載したカメラで撮像した車両前方の道路画像に、所謂最適フィルタ処理を施して道路モデルを推定する(例えば、特許文献1参照)。最適フィルタ処理の状態空間フィルタには、一般にカルマンフィルタ(拡張カルマンフィルタ)を用いる。
ここでは、走行中の道路のレーン幅や道路曲率などの道路パラメータ及び車両の横変位、ヨー角、ピッチ角などの車両状態量を導出して、道路モデルを推定する。
A conventional travel path recognition apparatus estimates a road model by performing so-called optimal filter processing on a road image in front of the vehicle imaged by a camera mounted on the vehicle (see, for example, Patent Document 1). A Kalman filter (extended Kalman filter) is generally used as the state space filter for the optimum filter processing.
Here, a road model is estimated by deriving road parameters such as the lane width and road curvature of the road that is running and vehicle state quantities such as lateral displacement, yaw angle, and pitch angle of the vehicle.

特開2006−285493号公報JP 2006-285493 A

ところで、カルマンフィルタ等の状態推定器では、全パラメータ(車両状態量、道路パラメータ)でバランスを取りながら推定を行う。このような性質上、状態推定器で取得する道路曲率は、その他の道路パラメータや車両状態量の誤差の影響を受ける。
したがって、道路曲率を取得するにあたり、状態推定器で取得した道路曲率の値をそのまま用いると精度が悪い。
そこで、本発明は、曲率を高精度に取得することができる走行路認識装置、自動車及び走行路認識方法を提供することを課題としている。
By the way, in a state estimator such as a Kalman filter, estimation is performed while maintaining a balance with all parameters (vehicle state quantity, road parameter). Due to this property, the road curvature acquired by the state estimator is affected by errors in other road parameters and vehicle state quantities.
Therefore, when the road curvature is acquired, the accuracy is poor if the road curvature value acquired by the state estimator is used as it is.
Then, this invention makes it a subject to provide the traveling path recognition apparatus, the motor vehicle, and the traveling path recognition method which can acquire a curvature with high precision.

上記課題を解決するために、本発明に係る走行路認識装置は、車両周辺の撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出する。検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する。取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出し、算出した基準点と取得した道路モデルとに基づいて、曲率を算出する。   In order to solve the above-described problem, the travel path recognition apparatus according to the present invention detects a plurality of coordinate values of lane marker candidate points constituting an image corresponding to a lane marker from captured images around the vehicle. Based on the detected coordinate value of the lane marker candidate point, the road parameter of the road model and the vehicle state quantity are estimated, and an approximate line for tracing the image corresponding to the lane marker on the captured image is acquired. At least one reference point on the captured image is calculated based on the acquired approximate line, and the curvature is calculated based on the calculated reference point and the acquired road model.

本発明によれば、曲率を取得するにあたり、状態推定器で推定したパラメータをそのまま用いず、精度が信頼できるパラメータを用いて曲率を再計算する。そのため、安定かつ高精度に曲率を取得することができる。   According to the present invention, when acquiring the curvature, the parameter estimated by the state estimator is not used as it is, and the curvature is recalculated using a parameter whose accuracy is reliable. Therefore, the curvature can be acquired stably and with high accuracy.

本実施形態における走行路認識装置を搭載した車両を示す概略構成図である。It is a schematic block diagram which shows the vehicle carrying the traveling path recognition apparatus in this embodiment. コントロールユニットの具体的構成を示す制御ブロック図である。It is a control block diagram which shows the specific structure of a control unit. 第1の実施形態におけるコントロールユニットで実行する曲率算出処理手順を示すフローチャートである。It is a flowchart which shows the curvature calculation process procedure performed with the control unit in 1st Embodiment. 道路座標系と平面座標系との関係を示す図である。It is a figure which shows the relationship between a road coordinate system and a plane coordinate system. 道路モデルを示す図である。It is a figure which shows a road model. ヨー角の補正方法を説明する図である。It is a figure explaining the correction method of a yaw angle. 第1及び第2の実施形態の動作を説明する図である。It is a figure explaining operation | movement of 1st and 2nd embodiment. 第2の実施形態におけるコントロールユニットで実行する曲率算出処理手順を示すフローチャートである。It is a flowchart which shows the curvature calculation processing procedure performed with the control unit in 2nd Embodiment. 第3の実施形態におけるコントロールユニットで実行する曲率算出処理手順を示すフローチャートである。It is a flowchart which shows the curvature calculation processing procedure performed with the control unit in 3rd Embodiment. 第3の実施形態の動作を説明する図である。It is a figure explaining operation | movement of 3rd Embodiment.

以下、本発明の実施の形態を図面に基づいて説明する。
《第1の実施の形態》
《構成》
図1は、本実施形態における走行路認識装置を搭載した車両を示す概略構成図である。
自動車1には、車両周辺(車両前方)の道路画像を取得するための前方認識センサ10を設ける。前方認識センサ10は、高感度撮像が可能なCCDカメラである。この前方認識センサ(以下、CCDカメラという)10は、車室内天井1aの前方中央部に、前方下方を指向して取り付ける。そして、カメラ10は、フロントガラス1bを通して車両前方の走行路Rの画像を取得する。CCDカメラ10が捉えた撮像画像は、コントロールユニット20に入力する。
コントロールユニット20は、CCDカメラ10が捉えた撮像画像に対して、エッジ検出等により、レーンマークを検出して走行車線を検出する。そして、後述する道路曲率算出処理を実行し、道路曲率を算出する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<< First Embodiment >>
"Constitution"
FIG. 1 is a schematic configuration diagram showing a vehicle equipped with a travel path recognition device in the present embodiment.
The automobile 1 is provided with a forward recognition sensor 10 for acquiring a road image around the vehicle (front of the vehicle). The front recognition sensor 10 is a CCD camera capable of high-sensitivity imaging. The front recognition sensor (hereinafter referred to as a CCD camera) 10 is attached to the front center portion of the vehicle interior ceiling 1a so as to face the front lower side. And the camera 10 acquires the image of the traveling path R ahead of a vehicle through the windshield 1b. The captured image captured by the CCD camera 10 is input to the control unit 20.
The control unit 20 detects a lane by detecting a lane mark on the captured image captured by the CCD camera 10 by edge detection or the like. And the road curvature calculation process mentioned later is performed and a road curvature is calculated.

(コントロールユニットの構成)
図2は、コントロールユニット20の具体的構成を示す制御ブロック図である。
コントロールユニット20は、画像取得部21と、レーンマーカ候補点検出部22と、走行路推定部23と、基準点算出部24と、曲率算出部25と、車両制御ECU26と、を備える。
画像取得部21は、CCDカメラ10で捉えた撮像画像を取得する。
レーンマーカ候補点検出部22は、画像取得部21で取得した撮像画像に対して画像処理を行う。そして、自車両が走行する走行路における左右レーンマーカの候補点座標を複数検出する。
(Configuration of control unit)
FIG. 2 is a control block diagram showing a specific configuration of the control unit 20.
The control unit 20 includes an image acquisition unit 21, a lane marker candidate point detection unit 22, a traveling path estimation unit 23, a reference point calculation unit 24, a curvature calculation unit 25, and a vehicle control ECU 26.
The image acquisition unit 21 acquires a captured image captured by the CCD camera 10.
The lane marker candidate point detection unit 22 performs image processing on the captured image acquired by the image acquisition unit 21. Then, a plurality of candidate point coordinates of the left and right lane markers on the travel path on which the host vehicle travels are detected.

走行路推定部23は、レーンマーカ候補点検出部22で検出した左右レーンマーカの候補点座標に基づいて、道路モデルと車両モデルとに従って道路パラメータ及び車両状態量を推定する。そして、推定した道路パラメータ及び車両状態量に基づいて、走行路のレーンマーカをトレースする近似線を算出する。
基準点算出部24は、走行路推定部23で算出した近似線に基づいて、道路曲率を算出する際に用いる基準点を算出する。
Based on the candidate point coordinates of the left and right lane markers detected by the lane marker candidate point detection unit 22, the traveling path estimation unit 23 estimates road parameters and vehicle state quantities according to the road model and the vehicle model. Then, based on the estimated road parameter and the vehicle state quantity, an approximate line that traces the lane marker of the traveling road is calculated.
The reference point calculation unit 24 calculates a reference point used when calculating the road curvature based on the approximate line calculated by the travel path estimation unit 23.

曲率算出部25は、走行路推定部23で算出した道路パラメータ及び車両状態量、基準点算出部24で算出した基準点を用いて、道路曲率を算出する。このとき、道路曲率の算出に際し、道路パラメータ及び車両状態量に対して個々に補正を行う。
車両制御ECU26は、曲率算出部25で算出した道路曲率を用いて、自動操舵制御や制駆動力制御等、車両の走行制御を行う。
The curvature calculation unit 25 calculates the road curvature using the road parameters and vehicle state quantities calculated by the travel path estimation unit 23 and the reference points calculated by the reference point calculation unit 24. At this time, when the road curvature is calculated, the road parameter and the vehicle state quantity are individually corrected.
The vehicle control ECU 26 uses the road curvature calculated by the curvature calculation unit 25 to perform vehicle travel control such as automatic steering control and braking / driving force control.

(道路曲率算出処理手順)
図3は、コントロールユニット20で実行する曲率算出処理手順を示すフローチャートである。この道路曲率算出処理は、CCDカメラ10の画像取得周期に同期して実行する。
先ずステップS1で、コントロールユニット20は、CCDカメラ10から撮像画像を読み込む。そして、読み込んだ撮像画像に対して前処理を行う。この前処理は、左右レーンマーカと路面との境界(エッジ)をそれぞれ強調するための処理である。ここでは、例えばSobelフィルタによる一次空間微分を行う。レーンマーカ検出では、この境界のうち、自車両が走行している走行車線内側の境界を検出対象とする。
(Road curvature calculation processing procedure)
FIG. 3 is a flowchart showing a curvature calculation processing procedure executed by the control unit 20. This road curvature calculation process is executed in synchronization with the image acquisition cycle of the CCD camera 10.
First, in step S <b> 1, the control unit 20 reads a captured image from the CCD camera 10. Then, preprocessing is performed on the read captured image. This preprocessing is a process for emphasizing the boundary (edge) between the left and right lane markers and the road surface. Here, for example, first-order spatial differentiation is performed using a Sobel filter. In the lane marker detection, a boundary on the inner side of the traveling lane in which the host vehicle is traveling is set as a detection target.

なお、レーンマーカと路面との境界を強調するために、他のエッジ強調フィルタを用いることもできる。その他にも、レーンマーカを特徴的に抽出するための手段であれば適用可能である。
ステップS2では、コントロールユニット20は、前記ステップS1で前処理を施した撮像画像を用いて、走行路左側のレーンマーカの候補点座標を検出する。ここでは、検出対象である左レーンマーカの境界線上において、自車両から所定距離ずつ離れた計5箇所をレーンマーカ候補点とする。そして、これらレーンマーカ候補点の座標値を取得する。
In addition, in order to emphasize the boundary between a lane marker and a road surface, another edge enhancement filter can be used. In addition, any means for characteristically extracting the lane marker can be applied.
In step S2, the control unit 20 detects the candidate point coordinates of the lane marker on the left side of the road using the captured image that has been preprocessed in step S1. Here, on the boundary line of the left lane marker that is the detection target, a total of five locations that are separated from the host vehicle by a predetermined distance are set as lane marker candidate points. And the coordinate value of these lane marker candidate points is acquired.

ステップS3では、コントロールユニット20は、前記ステップS1で前処理を施した撮像画像を用いて、走行路右側のレーンマーカの候補点座標を検出する。ここでは、検出対象である右レーンマーカの境界線上において、自車両から所定距離ずつ離れた計5箇所をレーンマーカ候補点とする。そして、これらレーンマーカ候補点の座標値を取得する。
次にステップS4では、コントロールユニット20は、前記ステップS2及びS3で検出したレーンマーカ候補点の座標値を用いて、走行路の推定を行う。ここでは、レーンマーカ候補点の位置より、道路モデルのパラメータ(道路パラメータ、車両状態量)を算出する。
In step S3, the control unit 20 detects the candidate point coordinates of the lane marker on the right side of the road using the captured image that has been pre-processed in step S1. Here, on the boundary line of the right lane marker that is the detection target, a total of five locations that are separated from the host vehicle by a predetermined distance are set as lane marker candidate points. And the coordinate value of these lane marker candidate points is acquired.
Next, in step S4, the control unit 20 estimates the travel path using the coordinate values of the lane marker candidate points detected in steps S2 and S3. Here, parameters of the road model (road parameters, vehicle state quantities) are calculated from the positions of the lane marker candidate points.

(パラメータの定義)
道路モデルのパラメータは以下の手順で定義する。
図4は、道路座標系と平面座標系との関係を示す図である。
道路座標系は、CCDカメラ10の撮像レンズの中心を原点として、車両進行方向に向かって右→左上方にX軸、車両の高さ方向へ上向きにY軸、レンズ光軸を車両進行方向にZ軸とするXYZ系で定義する。一方、画像処理画面の平面座標系は、NTSC等のテレビジョン通信方式の画面操作方向にしたがい、画面左上を原点として左から右へ水平方向にx軸、上から下へ垂直方向にy軸と定義する。
簡略化するために、図4に示すように平面座標系の原点が道路座標系のZ軸上にあるとすると、道路座標系から平面座標系への座標変換は下記(1),(2)式のようになる。
x=−f・X/Z ………(1)
y=−f・Y/Z ………(2)
ここで、fはレンズの焦点距離を表すパラメータである。
(Parameter definition)
The road model parameters are defined by the following procedure.
FIG. 4 is a diagram illustrating the relationship between the road coordinate system and the planar coordinate system.
The road coordinate system uses the center of the imaging lens of the CCD camera 10 as the origin, the X axis from right to upper left in the vehicle traveling direction, the Y axis upward in the vehicle height direction, and the lens optical axis in the vehicle traveling direction. The XYZ system is defined as the Z axis. On the other hand, the plane coordinate system of the image processing screen is based on the screen operation direction of the television communication system such as NTSC, and the horizontal axis is x-axis from left to right and x-axis from top to bottom and y-axis from top to bottom. Define.
For simplification, assuming that the origin of the plane coordinate system is on the Z axis of the road coordinate system as shown in FIG. 4, the coordinate conversion from the road coordinate system to the plane coordinate system is as follows (1), (2) It becomes like the formula.
x = −f · X / Z (1)
y = −f · Y / Z (2)
Here, f is a parameter representing the focal length of the lens.

図5は、道路モデルを示す図である。
道路平面構造については、図5(a)に示すように車線区分線(レーンマーカ)の形状を定式化する。また、縦断構造ついては、図5(b)に示すように定式化する。これら定式化したものをそれぞれ下記(3),(4)式に示す。
X=(ρ/2)Z2+φZ+yc−iW ………(3)
Y=ηZ−H ………(4)
ここで、各記号は以下のパラメータを表している。
ρ:道路曲率,
φ:道路に対する車両のヨー角,
c:左レーンマーカに対する車両の横変位,
W:車両幅(左右レーンマーカの内側間の距離),
i:左右レーンマーカを区別するパラメータ(0:左、1:右)
η:レンズ光軸の路面に対するピッチ角,
H:カメラの地上高
FIG. 5 is a diagram illustrating a road model.
As for the road plane structure, the shape of the lane marking (lane marker) is formulated as shown in FIG. Further, the longitudinal structure is formulated as shown in FIG. These formulations are shown in the following equations (3) and (4), respectively.
X = (ρ / 2) Z 2 + φZ + y c −iW (3)
Y = ηZ−H (4)
Here, each symbol represents the following parameters.
ρ: road curvature,
φ: Yaw angle of vehicle relative to road
y c : lateral displacement of the vehicle with respect to the left lane marker,
W: Vehicle width (distance between the inside of the left and right lane markers),
i: Parameters for distinguishing left and right lane markers (0: left, 1: right)
η: pitch angle of the lens optical axis with respect to the road surface,
H: Ground clearance of the camera

上記(1)〜(4)式より、画像処理画面の平面座標系に投影するレーンマーカの形状を定式化することができる。上記(1)〜(4)式より、X,Y,Zを消去して整理すると下記(5)〜(10)式が得られる。
X=(a+ie)(y−d)−b/(y−d)+c ………(5)
但し、
a=−yc/H ………(6)
b=−f2Hρ/2 ………(7)
c=−fφ+c0 ………(8)
d=−fη+d0 ………(9)
e=W/H ………(10)
である。
From the above formulas (1) to (4), the shape of the lane marker projected onto the plane coordinate system of the image processing screen can be formulated. From the above formulas (1) to (4), the following formulas (5) to (10) are obtained when X, Y and Z are deleted and arranged.
X = (a + ie) (y−d) −b / (y−d) + c (5)
However,
a = −y c / H (6)
b = −f 2 Hρ / 2 (7)
c = −fφ + c 0 (8)
d = −fη + d 0 (9)
e = W / H (10)
It is.

ここで、c0,d0は、図4において平面座標系の原点を道路座標系のZ軸上としているのに対し、実際には画像処理画面の左上を原点としているため、その分を補正する値である。
以上より、画像処理によって検出したレーンマーカ候補点が満たす上記(5)式のパラメータa〜eの値を求めることで、道路曲率、車両のピッチ角・ヨー角、車線内での車両の横変位を推定することができる。
Here, c 0 and d 0 are corrected for the origin because the origin of the plane coordinate system is the Z axis of the road coordinate system in FIG. 4, but the upper left of the image processing screen is actually the origin. The value to be
As described above, the road curvature, the pitch angle / yaw angle of the vehicle, and the lateral displacement of the vehicle in the lane are obtained by obtaining the values of the parameters a to e in the above formula (5) satisfied by the lane marker candidate points detected by the image processing. Can be estimated.

(パラメータの算出)
次に、レーンマーカ候補点の位置より道路モデルのパラメータを算出する方法について説明する。
レーンマーカ候補点の検出結果に基づいて二次元道路モデル式を推定する方法として、ここでは拡張カルマンフィルタを用いる。
前記(1)〜(4)式から下記(11)式が得られる。この式は、拡張カルマンフィルタを構成する際の出力方程式として用いられ、これにより道路曲率と車両状態量とから画像処理平面上に定義したy座標値におけるx座標値が算出できる。
(Calculation of parameters)
Next, a method for calculating road model parameters from the positions of lane marker candidate points will be described.
Here, an extended Kalman filter is used as a method of estimating the two-dimensional road model expression based on the detection result of the lane marker candidate point.
The following equation (11) is obtained from the equations (1) to (4). This equation is used as an output equation when configuring the extended Kalman filter, whereby the x coordinate value in the y coordinate value defined on the image processing plane can be calculated from the road curvature and the vehicle state quantity.

Figure 2010191661
Figure 2010191661

拡張カルマンフィルタによる推定状態量は、車両の横変位yc、道路曲率ρ、車両のヨー角φ、ピッチ角η、CCDカメラ10の高さHである。レンズの焦点距離fおよび車線幅Wは一定値として扱う。各推定状態量の変化は、確率的な振る舞いをするものとして、白色ガウス雑音νによって駆動される離散系のランダムウォークモデルとして定義すると、状態方程式は下記(12)式のようになる。 The estimated state quantities by the extended Kalman filter are the lateral displacement y c of the vehicle, the road curvature ρ, the yaw angle φ, the pitch angle η of the vehicle, and the height H of the CCD camera 10. The focal length f and lane width W of the lens are treated as constant values. When each estimated state quantity change behaves stochastically and is defined as a discrete random walk model driven by white Gaussian noise ν, the state equation is as shown in the following equation (12).

Figure 2010191661
Figure 2010191661

状態方程式(12)式と出力方程式(11)式とをそれぞれ下記(13),(14)式のように簡略化して表記すると、拡張カルマンフィルタは(15)〜(18)式で構成される。   When the state equation (12) and the output equation (11) are simplified and expressed as the following equations (13) and (14), the extended Kalman filter is composed of equations (15) to (18).

Figure 2010191661
Figure 2010191661

このようにして、レーンマーカ候補点の位置から走行路推定を行い、CCDカメラ10で撮像した道路画像上のレーンマーカをトレースする近似線を算出する。道路画像上に左右のレーンマーカが存在する場合には、左レーンマーカをトレースする左側近似線と、右レーンマーカをトレースする右側近似線とをそれぞれ算出することになる。
なお、上述した道路モデル式は一般例であり、走行路(道路パラメータ及び車両状態量)の推定に用いる道路モデル式は適宜定義可能である。
In this way, the travel route is estimated from the position of the lane marker candidate point, and an approximate line for tracing the lane marker on the road image captured by the CCD camera 10 is calculated. When left and right lane markers are present on the road image, a left approximate line for tracing the left lane marker and a right approximate line for tracing the right lane marker are calculated.
Note that the above-described road model formula is a general example, and the road model formula used for estimating the travel path (road parameters and vehicle state quantities) can be appropriately defined.

図3に戻って、ステップS5では、コントロールユニット20は、算出した近似線に基づいて、道路曲率ρを算出する際に用いる基準点を算出する。ここでは、自車両から所定距離D(固定値)だけ離れた地点(最遠方地点)における走行路の中央点を基準点とする。すなわち、上記最遠方地点における左右レーンマーカ(左右の近似線)の中央位置を、基準点とする。   Returning to FIG. 3, in step S <b> 5, the control unit 20 calculates a reference point used when calculating the road curvature ρ based on the calculated approximate line. Here, the center point of the travel path at a point (farthest point) that is a predetermined distance D (fixed value) from the host vehicle is used as a reference point. That is, the center position of the left and right lane markers (left and right approximate lines) at the farthest point is set as the reference point.

次にステップS6では、コントロールユニット20は、前記ステップS4で取得した道路パラメータ及び車両状態量に対して、個別に補正を行う。具体的には、前記ステップS4で取得した自車両ヨー角φを、車両挙動情報に基づいて補正する。ここでは、図6に示すように、前記ステップS4で取得した自車両ヨー角φを、自車両横速度Vyと自車速度Vとに基づいて算出したヨー角値に置き換えることで補正を行う。自車両横速度Vyは、前記ステップS4で取得した車両状態量である横変位ycを時間微分するなどにより算出する。また、自車速度Vは、車輪パルス等から算出する。 Next, in step S6, the control unit 20 individually corrects the road parameter and the vehicle state quantity acquired in step S4. Specifically, the host vehicle yaw angle φ acquired in step S4 is corrected based on the vehicle behavior information. Here, as shown in FIG. 6, the correction is performed by replacing the own vehicle yaw angle φ acquired in step S4 with the yaw angle value calculated based on the own vehicle lateral speed V y and the own vehicle speed V. . The vehicle lateral speed V y is calculated such as by differentiating the lateral displacement y c is a vehicle state quantity acquired in step S4 time. The own vehicle speed V is calculated from wheel pulses or the like.

そして、ステップS7では、コントロールユニット20は、前記ステップS4で取得した道路パラメータ及び車両状態量、前記ステップS5で取得した基準点及び前記ステップS6で取得した補正後の自車両ヨー角φに基づいて、道路曲率ρを算出する。ここでは、ワールド座標におけるCCDカメラ10の位置での走行路中央点と上記基準点とを結ぶ曲線の曲率を、道路曲率ρとして算出する。   In step S7, the control unit 20 is based on the road parameter and vehicle state quantity acquired in step S4, the reference point acquired in step S5, and the corrected vehicle yaw angle φ acquired in step S6. The road curvature ρ is calculated. Here, the curvature of the curve connecting the center point of the road at the position of the CCD camera 10 in the world coordinates and the reference point is calculated as the road curvature ρ.

《動作》
次に、第1の実施形態の動作について説明する。
図7は、第1の実施形態の動作を説明する図である。
今、自車両がカーブ路を走行しているものとすると、CCDカメラ10は、図7(a)に示すように、車両前方に左右レーンマーカ(白線)LR,LLを検出する。このCCDカメラ10で撮像した道路画像は、コントロールユニット20の画像取得部21に入力する。
画像取得部21は、入力した道路画像に対して前処理を行い、左右レーンマーカLR,LLと路面との境界をそれぞれ強調する。このとき、左右レーンマーカLR,LLにおいて、走行路内側の境界を検出対象として設定する(ステップS1)。
<Operation>
Next, the operation of the first embodiment will be described.
FIG. 7 is a diagram for explaining the operation of the first embodiment.
Assuming that the host vehicle is traveling on a curved road, the CCD camera 10 detects left and right lane markers (white lines) LR and LL in front of the vehicle as shown in FIG. The road image captured by the CCD camera 10 is input to the image acquisition unit 21 of the control unit 20.
The image acquisition unit 21 performs preprocessing on the input road image and emphasizes the boundaries between the left and right lane markers LR and LL and the road surface. At this time, in the left and right lane markers LR and LL, a boundary on the inner side of the traveling path is set as a detection target (step S1).

この前処理を施した道路画像は、レーンマーカ候補点検出部22に入力する。そして、レーンマーカ候補点検出部22は、検出対象である左右レーンマーカLR,LLの境界線上から、レーンマーカ候補点を検出する。このとき、自車両から所定距離ずつ離れた5つの地点Ar1〜Ar5において、レーンマーカ候補点を検出する。
すなわち、Ar1地点における左レーンマーカLLの境界線上の点を、左レーンマーカ候補点CL1とする。同様にAr2,…,Ar5地点における左レーンマーカLLの境界線上の点を、左レーンマーカ候補点CL2,…,CL5とする(ステップS2)。図7に示す例では、レーンマーカの線種が破線であり、Ar3地点における左レーンマーカLLの境界線が存在しない。したがって、この場合には左レーンマーカ候補点CL3は存在しない。
The road image subjected to this preprocessing is input to the lane marker candidate point detection unit 22. And the lane marker candidate point detection part 22 detects a lane marker candidate point from the boundary line of the right-and-left lane markers LR and LL which are detection objects. At this time, lane marker candidate points are detected at five points Ar1 to Ar5 that are separated from the host vehicle by a predetermined distance.
That is, the point on the boundary line of the left lane marker LL at the Ar1 point is set as the left lane marker candidate point C L 1. Similarly Ar @ 2, ..., a point on the boundary of the left lane marker LL in Ar5 point, the left lane marker candidate points C L 2, ..., and C L 5 (step S2). In the example shown in FIG. 7, the line type of the lane marker is a broken line, and there is no boundary line of the left lane marker LL at the Ar3 point. Therefore, in this case, the left lane marker candidate point C L 3 does not exist.

また、Ar1,…,Ar5地点における右レーンマーカLRの境界線上の点を、右レーンマーカ候補点CR1,…,CR5とする(ステップS3)。左レーンマーカ候補点と同様に、右レーンマーカ候補点についてもCR3は存在しない。
このようにして、画像処理によるレーンマーカ位置の検出を行い、レーンマーカ内側の座標点を左右両側で各5個ずつ(この場合は4個ずつ)、計10個(この場合は計8個)取得する。
Further, the points on the boundary line of the right lane marker LR at the points Ar1,..., Ar5 are set as the right lane marker candidate points C R 1,..., C R 5 (step S3). Similar to the left lane marker candidate point, C R 3 does not exist for the right lane marker candidate point.
In this way, the lane marker position is detected by image processing, and five coordinate points inside the lane marker are obtained on each of the left and right sides (four in this case), for a total of ten (in this case, eight in total). .

次に、走行路推定部23は、レーンマーカ候補点検出部22で検出した左右レーンマーカ候補点CR1〜CR5,CL1〜CL5の位置より道路モデルを取得する。ここでは、状態推定器としてカルマンフィルタを採用し、道路パラメータ(道路曲率ρ)及び車両状態量(横変位yc、ヨー角φ、ピッチ角η)を推定する(ステップS4)。
これにより、図7(b)に示すように、最も左右レーンマーカにトレースする道路モデル(近似線)MR,MLを取得することができる。
Then, the travel path estimator 23 obtains the road model from the positions of the left and right lane marker candidate point C R 1~C R 5, C L 1~C L 5 detected by the lane marker candidate point detecting section 22. Here, a Kalman filter is employed as a state estimator, and road parameters (road curvature ρ) and vehicle state quantities (lateral displacement y c , yaw angle φ, pitch angle η) are estimated (step S4).
As a result, as shown in FIG. 7B, the road models (approximate lines) MR and ML most traced to the left and right lane markers can be acquired.

取得した近似線MR,MLは、基準点算出部24に入力する。基準点算出部24は、自車両から所定距離D遠方の位置における近似線MR,ML上の点PR,PLを算出する。そして、点PRと点PLとを結ぶ直線の中央点を、道路曲率ρを算出する際に用いる基準点Pとし、その座標値を算出する(ステップS5)。すなわち、基準点Pは、図7(c)に示すように、自車両から所定距離D離れた位置における、走行路の幅方向中央位置に設定する。   The acquired approximate lines MR and ML are input to the reference point calculation unit 24. The reference point calculation unit 24 calculates points PR and PL on the approximate lines MR and ML at a position a predetermined distance D away from the host vehicle. Then, the central point of the straight line connecting the points PR and PL is set as the reference point P used when calculating the road curvature ρ, and the coordinate value is calculated (step S5). That is, as shown in FIG. 7C, the reference point P is set at the center position in the width direction of the travel path at a position away from the host vehicle by a predetermined distance D.

次に、曲率算出部25は、横速度Vy及び自車速Vに基づいて、図6に示す手法により自車両ヨー角φを算出する。そして、走行路推定部23で取得した車両状態量の自車両ヨー角φを、算出した自車両ヨー角φに置き換える(ステップS6)。このようにして、車両状態量を個別に補正する。
また、曲率算出部25は、上記補正を行った後、基準点算出部24で算出した基準点Pを用いて、道路モデルから道路曲率ρを再計算する(ステップS7)。ここでは、図7(d)に示すように、道路モデルに従って、CCDカメラ10の位置(y軸原点)の基準点から遠方の基準点Pまでを結ぶ曲線Mの曲率を算出する。
Next, the curvature calculation unit 25 calculates the host vehicle yaw angle φ by the method shown in FIG. 6 based on the lateral speed V y and the host vehicle speed V. Then, the host vehicle yaw angle φ of the vehicle state quantity acquired by the travel path estimation unit 23 is replaced with the calculated host vehicle yaw angle φ (step S6). In this way, the vehicle state quantities are individually corrected.
Further, after performing the above correction, the curvature calculation unit 25 recalculates the road curvature ρ from the road model using the reference point P calculated by the reference point calculation unit 24 (step S7). Here, as shown in FIG. 7D, the curvature of the curve M connecting the reference point at the position of the CCD camera 10 (y-axis origin) to the distant reference point P is calculated according to the road model.

算出した道路曲率ρは、車両制御ECU26に入力する。そして、この車両制御ECU26で、道路曲率ρを用いた車両制御を行う。
このように、本実施形態では、走行路推定部23で取得した道路パラメータの値をそのまま用いず、道路曲率ρを再計算して車両制御に用いる。すなわち、状態推定器で取得した、他パラメータの誤差の影響を受けた道路曲率ρを用いない。したがって、高精度に取得した道路曲率ρを用いて車両制御を行うことができる。
The calculated road curvature ρ is input to the vehicle control ECU 26. The vehicle control ECU 26 performs vehicle control using the road curvature ρ.
As described above, in this embodiment, the road parameter value acquired by the travel path estimation unit 23 is not used as it is, but the road curvature ρ is recalculated and used for vehicle control. That is, the road curvature ρ obtained by the state estimator and affected by the error of other parameters is not used. Therefore, vehicle control can be performed using the road curvature ρ acquired with high accuracy.

また、基準点Pを用いて道路モデルから道路曲率ρの再計算を行う。これにより、精度が信頼できるパラメータを用いて、高精度に道路曲率ρを算出することができる。
さらに、基準点Pを走行路の中央点に設定するので、自車両が走行している走行路の道路曲率ρを真値に近い形で算出することができる。
また、道路曲率ρの再計算にあたり、走行路推定部23で取得した道路モデルの車両状態量を個別に補正する。その結果、より真値に近い値を用いて道路曲率ρを算出することができる。このとき、上記車両状態量として自車両ヨー角を補正する。走行路推定部23で取得するヨー角は誤差を含んでいるため、これを別手段により算出し補正することで、高精度に道路曲率ρを算出することができる。
Further, the road curvature ρ is recalculated from the road model using the reference point P. As a result, the road curvature ρ can be calculated with high accuracy using a parameter whose reliability is reliable.
Furthermore, since the reference point P is set to the center point of the traveling road, the road curvature ρ of the traveling road on which the host vehicle is traveling can be calculated in a form close to the true value.
Further, when the road curvature ρ is recalculated, the vehicle state quantity of the road model acquired by the travel path estimation unit 23 is individually corrected. As a result, the road curvature ρ can be calculated using a value closer to the true value. At this time, the host vehicle yaw angle is corrected as the vehicle state quantity. Since the yaw angle acquired by the travel path estimation unit 23 includes an error, the road curvature ρ can be calculated with high accuracy by calculating and correcting this by another means.

なお、図1において、CCDカメラ10が撮像手段を構成している。また、図2において、レーンマーカ候補点検出部22がレーンマーカ候補点検出手段を構成し、走行路推定部23が道路モデルパラメータ推定手段を構成している。さらに、基準点算出部24が基準点算出手段を構成し、曲率算出部25が曲率算出手段を構成している。また、車両制御ECU26が車両制御手段を構成している。さらに、図3のステップS6が補正手段を構成している。   In FIG. 1, the CCD camera 10 constitutes an imaging means. In FIG. 2, the lane marker candidate point detection unit 22 constitutes a lane marker candidate point detection unit, and the traveling road estimation unit 23 constitutes a road model parameter estimation unit. Further, the reference point calculation unit 24 constitutes a reference point calculation unit, and the curvature calculation unit 25 constitutes a curvature calculation unit. The vehicle control ECU 26 constitutes a vehicle control means. Further, step S6 in FIG. 3 constitutes a correcting means.

《効果》
(1)撮像手段は、車両周辺を撮像する。レーンマーカ候補点検出手段は、撮像手段で撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出する。道路モデルパラメータ推定手段は、レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する。
"effect"
(1) The imaging unit images the periphery of the vehicle. The lane marker candidate point detection means detects a plurality of coordinate values of the lane marker candidate points constituting the image corresponding to the lane marker from the captured image captured by the imaging means. The road model parameter estimation means estimates the road parameters and vehicle state quantities of the road model based on the coordinate values of the lane marker candidate points detected by the lane marker candidate point detection means, and traces an image corresponding to the lane marker on the captured image. Get approximate line.

基準点算出手段は、道路モデルパラメータ推定手段で取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出する。曲率算出手段は、基準点算出手段で算出した基準点と道路モデルパラメータ推定手段で取得した道路モデルとに基づいて、曲率を算出する。
したがって、精度が信頼できるパラメータを用いて曲率を算出することができる。これにより、状態推定器の安定性を備えつつ、状態推定器で推定した道路パラメータの1つである曲率よりも高精度な曲率を算出することができる。
The reference point calculation means calculates at least one reference point on the captured image based on the approximate line acquired by the road model parameter estimation means. The curvature calculating means calculates the curvature based on the reference point calculated by the reference point calculating means and the road model acquired by the road model parameter estimating means.
Therefore, the curvature can be calculated using a parameter whose accuracy is reliable. As a result, it is possible to calculate a curvature with higher accuracy than the curvature that is one of the road parameters estimated by the state estimator while having the stability of the state estimator.

(2)補正手段は、道路モデルパラメータ推定手段で取得した道路モデルの道路パラメータ及び車両状態量を個別に補正する。そして、曲率算出手段は、基準点算出手段で算出した基準点と補正手段で補正した道路モデルとに基づいて、曲率を算出する。
したがって、誤差を含んでいる道路パラメータや車両状態量に対して補正を行った後に、補正後の値を用いて曲率を算出することができる。すなわち、より真値に近い値を用いて曲率を算出することができる。その結果、より高精度に曲率を算出することができる。
(2) The correcting means individually corrects the road parameter and the vehicle state quantity of the road model acquired by the road model parameter estimating means. Then, the curvature calculation unit calculates the curvature based on the reference point calculated by the reference point calculation unit and the road model corrected by the correction unit.
Therefore, the curvature can be calculated using the corrected value after correcting the road parameter or the vehicle state quantity including the error. That is, the curvature can be calculated using a value closer to the true value. As a result, the curvature can be calculated with higher accuracy.

(3)補正手段は、走行路に対する車両のヨー角を、車両挙動情報に基づいて補正する。
このように、走行路推定により誤差を含んでいる車両のヨー角に対しては、別手段により真値に近い値を算出し補正する。これにより、より高精度に曲率を算出することができる。
(3) The correction means corrects the yaw angle of the vehicle with respect to the travel path based on the vehicle behavior information.
In this way, a value close to the true value is calculated and corrected by another means for the yaw angle of the vehicle that includes an error due to the travel path estimation. Thereby, the curvature can be calculated with higher accuracy.

(4)道路モデルパラメータ推定手段は、左レーンマーカに相当する画像をトレースする左側近似線と、右レーンマーカに相当する画像をトレースする右側近似線とを取得することで走行路を取得する。基準点算出手段は、基準点を、走行路の幅方向における中央位置に設定する。
したがって、自車両が走行する走行路の道路曲率を、真値に近い値に算出することができる。
(4) The road model parameter estimation means acquires the traveling path by acquiring a left approximate line that traces an image corresponding to the left lane marker and a right approximate line that traces an image corresponding to the right lane marker. The reference point calculation means sets the reference point at the center position in the width direction of the travel path.
Therefore, the road curvature of the travel path on which the host vehicle travels can be calculated to a value close to the true value.

(5)撮像手段は、車体に搭載し車両周辺を撮像する。レーンマーカ候補点検出手段は、撮像手段で撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出する。道路モデルパラメータ推定手段は、レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する。   (5) The imaging means is mounted on the vehicle body and images the periphery of the vehicle. The lane marker candidate point detection means detects a plurality of coordinate values of the lane marker candidate points constituting the image corresponding to the lane marker from the captured image captured by the imaging means. The road model parameter estimation means estimates the road parameters and vehicle state quantities of the road model based on the coordinate values of the lane marker candidate points detected by the lane marker candidate point detection means, and traces an image corresponding to the lane marker on the captured image. Get approximate line.

基準点算出手段は、道路モデルパラメータ推定手段で取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出する。曲率算出手段は、基準点算出手段で算出した基準点と道路モデルパラメータ推定手段で取得した道路モデルとに基づいて、曲率を算出する。車両制御手段は、曲率算出手段で算出した曲率に基づいて車両の制御を行う。
これにより、安定かつ高精度に曲率を算出することができる。そして、その高精度に算出した曲率を用いて車両の制御を行う自動車とすることができる。
The reference point calculation means calculates at least one reference point on the captured image based on the approximate line acquired by the road model parameter estimation means. The curvature calculating means calculates the curvature based on the reference point calculated by the reference point calculating means and the road model acquired by the road model parameter estimating means. The vehicle control means controls the vehicle based on the curvature calculated by the curvature calculation means.
Thereby, the curvature can be calculated stably and with high accuracy. And it can be set as the motor vehicle which controls a vehicle using the curvature calculated with the high precision.

(6)車両周辺を撮像し、撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出する。検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定して、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する。すると、取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出し、算出した基準点と取得した道路モデルとに基づいて、曲率を算出する。
これにより、安定かつ高精度に曲率を算出することができる。
(6) The periphery of the vehicle is imaged, and a plurality of coordinate values of the lane marker candidate points constituting the image corresponding to the lane marker are detected from the captured image. Based on the detected coordinate value of the lane marker candidate point, the road parameter of the road model and the vehicle state quantity are estimated, and an approximate line for tracing the image corresponding to the lane marker on the captured image is acquired. Then, at least one reference point on the captured image is calculated based on the acquired approximate line, and the curvature is calculated based on the calculated reference point and the acquired road model.
Thereby, the curvature can be calculated stably and with high accuracy.

《第2の実施の形態》
次に、本発明の第2の実施形態について説明する。
この第2の実施形態は、自車両から所定距離だけ離れた地点における、走行路内の任意の位置を基準点Pとして算出するものである。
《構成》
第2の実施形態におけるコントロールユニット20の構成は、図2に示す前述した第1の実施形態と同様である。
(道路曲率算出処理手順)
第2の実施形態のコントロールユニット20で実行する道路曲率算出処理手順について説明する。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described.
In the second embodiment, an arbitrary position in the traveling path at a point away from the host vehicle by a predetermined distance is calculated as the reference point P.
"Constitution"
The configuration of the control unit 20 in the second embodiment is the same as that of the first embodiment described above shown in FIG.
(Road curvature calculation processing procedure)
A road curvature calculation processing procedure executed by the control unit 20 of the second embodiment will be described.

図8は、第2の実施形態のコントロールユニット20で実行する道路曲率算出処理手順を示すフローチャートである。
この道路曲率算出処理は、図3に示す道路曲率算出処理において、ステップS5をステップS11に置換し、ステップS7をステップS12に置換したことを除いては、図3と同様の処理を行う。したがって、図3との対応部分には同一符号を付し、処理の異なる部分を中心に説明する。
FIG. 8 is a flowchart showing a road curvature calculation processing procedure executed by the control unit 20 of the second embodiment.
This road curvature calculation process is the same as that in FIG. 3 except that step S5 is replaced with step S11 and step S7 is replaced with step S12 in the road curvature calculation process shown in FIG. Accordingly, parts corresponding to those in FIG.

ステップS11では、コントロールユニット20は、前記ステップS4で算出した近似線に基づいて、道路曲率ρを算出する際に用いる基準点を算出する。ここでは、自車両から所定距離D(固定値)だけ離れた地点(最遠方地点)における自車両を通過させたい位置を基準点とする。例えば、上記最遠方地点における左レーンマーカ(左の近似線)から所定距離(任意)の位置を、基準点とする。   In step S11, the control unit 20 calculates a reference point used when calculating the road curvature ρ based on the approximate line calculated in step S4. Here, a position at which the host vehicle is desired to pass at a point (farthest point) that is a predetermined distance D (fixed value) from the host vehicle is used as a reference point. For example, a position at a predetermined distance (arbitrary) from the left lane marker (left approximate line) at the farthest point is set as the reference point.

また、ステップS12では、コントロールユニット20は、前記ステップS4で取得した道路パラメータ及び車両状態量、前記ステップS11で取得した基準点及び前記ステップS6で取得した補正後の自車両ヨー角φに基づいて、道路曲率ρを算出する。ここでは、ワールド座標におけるCCDカメラ10の位置での走行路に対する自車両横変位ycと上記基準点とを結ぶ曲線の曲率を、道路曲率ρとして算出する。 In step S12, the control unit 20 is based on the road parameter and vehicle state quantity acquired in step S4, the reference point acquired in step S11, and the corrected vehicle yaw angle φ acquired in step S6. The road curvature ρ is calculated. Here, the curvature of a curve connecting the vehicle's lateral displacement y c with respect to the travel path at the position of the CCD camera 10 in world coordinates and the reference point is calculated as the road curvature ρ.

《動作》
次に、第2の実施形態の動作について説明する。
今、自車両がカーブ路を走行しており、CCDカメラ10が、図7(a)に示すように、車両前方に左右レーンマーカ(白線)LR,LLを検出しているものとする。
この場合、前述した第1の実施形態と同様に、コントロールユニット20の画像取得部21で、CCDカメラ10で撮像した道路画像に対して前処理を行う(ステップS1)。そして、レーンマーカ候補点検出部22は、左右レーンマーカ候補点CR1〜CR5,CL1〜CL5を取得する(ステップS2,S3)。
<Operation>
Next, the operation of the second embodiment will be described.
Now, it is assumed that the host vehicle is traveling on a curved road, and the CCD camera 10 detects left and right lane markers (white lines) LR and LL in front of the vehicle as shown in FIG.
In this case, as in the first embodiment described above, the image acquisition unit 21 of the control unit 20 performs preprocessing on the road image captured by the CCD camera 10 (step S1). Then, the lane marker candidate point detection unit 22 acquires the left and right lane marker candidate points C R 1 to C R 5, C L 1 to C L 5 (steps S2 and S3).

次に、走行路推定部23は、レーンマーカ候補点検出部22で検出した左右レーンマーカ候補点CR1〜CR5,CL1〜CL5の位置より道路モデルを取得する(ステップS4)。これにより、図7(b)に示すように、最も左右レーンマーカにトレースする道路モデル(近似線)MR,MLを取得する。
そして、基準点算出部24は、自車両から所定距離D遠方の地点における走行路内の任意の位置を基準点Pとし、その座標値を算出する(ステップS11)。
Then, the travel path estimator 23 obtains the road model from the positions of the left and right lane marker candidate point C R 1~C R 5, C L 1~C L 5 detected by the lane marker candidate point detecting section 22 (Step S4) . Thereby, as shown in FIG. 7B, the road models (approximate lines) MR and ML that are most traced to the left and right lane markers are acquired.
Then, the reference point calculation unit 24 calculates a coordinate value by using an arbitrary position in the travel path at a point distant by the predetermined distance D from the host vehicle as the reference point P (step S11).

このとき、自車両が走行路中央位置を走行しており、上記任意の位置として走行路中央点を選定したものとする。この場合には、曲率算出部25は、図7(d)に示すように、CCDカメラ10の位置での走行路中央点から遠方の走行路中央点(基準点P)までを結ぶ曲線Mの曲率を算出することになる。
したがって、この場合には前述した第1の実施形態と同様に、自車両が走行している走行路の道路曲率ρを算出することができる。
At this time, it is assumed that the host vehicle is traveling in the center position of the travel path and the travel path center point is selected as the arbitrary position. In this case, as shown in FIG. 7 (d), the curvature calculation unit 25 has a curve M that connects the center of the road at the position of the CCD camera 10 to the center of the far road (reference point P). The curvature will be calculated.
Therefore, in this case, the road curvature ρ of the traveling road on which the host vehicle is traveling can be calculated as in the first embodiment described above.

一方、基準点算出部24で、自車両から所定距離D遠方の地点における、走行路中央位置から所定距離ずれた位置を基準点Pとしたものとする。この場合、曲率算出部25は、CCDカメラ10の位置での自車両の位置(横位置yc)と、遠方の走行路中央点から所定距離ずれた基準点Pとを結ぶ曲線の曲率を算出することになる。
したがって、この場合には、自車両が走行している走行路の道路曲率ではなく、自車両をトレースさせたい走行軌跡の曲率ρを算出することができる。
このように、本実施形態では、自車両が走行している走行路の道路曲率に加えて、自車両の予想走行軌跡の曲率についても算出することができる。
On the other hand, it is assumed that the reference point calculation unit 24 sets a reference point P at a position that is a predetermined distance D away from the host vehicle and deviated by a predetermined distance from the center of the traveling road. In this case, the curvature calculation unit 25 calculates the curvature of a curve connecting the position of the host vehicle (lateral position y c ) at the position of the CCD camera 10 and the reference point P deviated by a predetermined distance from the center point of the far road. Will do.
Therefore, in this case, it is possible to calculate the curvature ρ of the travel locus desired to be traced by the host vehicle, not the road curvature of the travel path on which the host vehicle is traveling.
Thus, in this embodiment, in addition to the road curvature of the traveling path on which the host vehicle is traveling, the curvature of the predicted traveling locus of the host vehicle can also be calculated.

《効果》
(7)道路モデルパラメータ推定手段は、左レーンマーカに相当する画像をトレースする左側近似線と、右レーンマーカに相当する画像をトレースする右側近似線とを取得することで走行路を取得する。基準点算出手段は、基準点を、走行路の幅方向における任意の位置に設定する。
これにより、基準点を、自車両が通過したい位置に設定することができる。したがって、自車両が走行している走行路の道路曲率に加えて、自車両をトレースさせたい走行軌跡の曲率を算出することができる。
"effect"
(7) The road model parameter estimation means obtains the traveling path by obtaining a left approximate line that traces an image corresponding to the left lane marker and a right approximate line that traces an image corresponding to the right lane marker. The reference point calculation means sets the reference point at an arbitrary position in the width direction of the travel path.
Thereby, the reference point can be set at a position where the host vehicle wants to pass. Therefore, in addition to the road curvature of the travel path on which the host vehicle is traveling, the curvature of the travel locus on which the host vehicle is desired to be traced can be calculated.

《第3の実施の形態》
次に、本発明の第3の実施形態について説明する。
この第3の実施形態は、レーンマーカのトレースが確立している近似線部分から基準点Pを算出するものである。
《構成》
第3の実施形態におけるコントロールユニット20の構成は、図2に示す前述した第1の実施形態と同様である。
(道路曲率算出処理手順)
第3の実施形態のコントロールユニット20で実行する道路曲率算出処理手順について説明する。
図9は、第3の実施形態のコントロールユニット20で実行する道路曲率算出処理手順を示すフローチャートである。
この道路曲率算出処理は、図3に示す道路曲率算出処理において、ステップS5をステップS21〜S23に置換したことを除いては、図3と同様の処理を行う。したがって、図3との対応部分には同一符号を付し、処理の異なる部分を中心に説明する。
<< Third Embodiment >>
Next, a third embodiment of the present invention will be described.
In the third embodiment, the reference point P is calculated from the approximate line portion where the trace of the lane marker is established.
"Constitution"
The configuration of the control unit 20 in the third embodiment is the same as that of the first embodiment shown in FIG.
(Road curvature calculation processing procedure)
A road curvature calculation processing procedure executed by the control unit 20 of the third embodiment will be described.
FIG. 9 is a flowchart illustrating a road curvature calculation processing procedure executed by the control unit 20 of the third embodiment.
This road curvature calculation process is the same as that of FIG. 3 except that step S5 is replaced with steps S21 to S23 in the road curvature calculation process shown in FIG. Accordingly, parts corresponding to those in FIG.

ステップS21では、コントロールユニット20は、前記ステップS4で算出した近似線に基づいて、道路曲率ρを算出する際に用いる基準点を算出する。ここでは、自車両から所定距離だけ離れた地点における走行路の中央点を基準点とし、距離を変更して基準点を複数算出する。
ステップS22では、コントロールユニット20は、カーブトレースの信頼性を判定する。ここでは、前記ステップS4で算出した近似線が、道路画像上のレーンマーカを誤差なくトレースできている(カーブトレースできている)か否かを判定する。そして、カーブトレースできている自車両から最遠方の地点を検出する。
In step S21, the control unit 20 calculates a reference point used when calculating the road curvature ρ based on the approximate line calculated in step S4. Here, the central point of the traveling road at a point away from the host vehicle by a predetermined distance is used as a reference point, and a plurality of reference points are calculated by changing the distance.
In step S22, the control unit 20 determines the reliability of the curve trace. Here, it is determined whether or not the approximate line calculated in step S4 can trace the lane marker on the road image without error (curve tracing is possible). Then, the farthest point from the own vehicle that is capable of curve tracing is detected.

具体的には、先ず、前記ステップS2及びS3で検出したレーンマーカ候補点の座標値と、前記ステップS4で算出した近似線の座標値とをそれぞれ比較する。2つの座標値の誤差が許容範囲内となっている場合には、その地点においてカーブトレースできていると判断する。そして、カーブトレースできていると判断したレーンマーカ候補点の検出位置のうち、最遠方の地点を検出する。
次にステップS23では、コントロールユニット20は、前記ステップS21で算出した複数の基準点から、道路曲率ρの算出に用いる基準点を選定する。ここでは、前記ステップS22で検出した最遠方の地点に最も近く、且つその地点より手前(自車両側)にある基準点を選定する。
Specifically, first, the coordinate value of the lane marker candidate point detected in the steps S2 and S3 is compared with the coordinate value of the approximate line calculated in the step S4. If the error between the two coordinate values is within the allowable range, it is determined that a curve trace can be made at that point. Then, the farthest point is detected from the detection positions of the lane marker candidate points determined to be curve traced.
Next, in step S23, the control unit 20 selects a reference point used for calculating the road curvature ρ from the plurality of reference points calculated in step S21. Here, a reference point that is closest to the farthest point detected in step S22 and is in front of that point (the vehicle side) is selected.

《動作》
次に、第3の実施形態の動作について説明する。
図10は、第3の実施形態の動作を説明する図である。
前述した第1の実施形態と同様に、コントロールユニット20の画像取得部21は、CCDカメラ10で撮像した道路画像に対して前処理を行う(ステップS1)。そして、レーンマーカ候補点検出部22は、左右レーンマーカ候補点を取得する(ステップS2,S3)。また、走行路推定部23は、レーンマーカ候補点検出部22で検出した左右レーンマーカ候補点の位置より道路モデルを取得する(ステップS4)。これにより、最も左右レーンマーカにトレースする道路モデル(近似線)MR,MLを取得する。
<Operation>
Next, the operation of the third embodiment will be described.
FIG. 10 is a diagram for explaining the operation of the third embodiment.
Similar to the first embodiment described above, the image acquisition unit 21 of the control unit 20 performs preprocessing on the road image captured by the CCD camera 10 (step S1). And the lane marker candidate point detection part 22 acquires a right-and-left lane marker candidate point (step S2, S3). Moreover, the traveling path estimation unit 23 acquires a road model from the positions of the left and right lane marker candidate points detected by the lane marker candidate point detection unit 22 (step S4). As a result, road models (approximate lines) MR and ML that are most traced to the left and right lane markers are acquired.

そして、基準点算出部24は、自車両から所定距離ずつ離れた地点における走行路の中央点を基準点として算出する(ステップS21)。なお、図10では、基準点を4つ算出する場合について図示している(P1〜P4)。ここで、各基準点の算出位置は、各レーンマーカ候補点の検出位置と同じ位置に設定している。
次に、基準点算出部24は、各レーンマーカ候補点の座標値と、近似線MR,MLの座標値とを比較する。図10において、近似線MR,MLに沿って配置している矩形印a〜hは、それぞれ座標値の比較を行っている位置、即ち各レーンマーカ候補点の検出位置である。
Then, the reference point calculation unit 24 calculates, as a reference point, the center point of the travel path at a point away from the host vehicle by a predetermined distance (step S21). Note that FIG. 10 illustrates the case where four reference points are calculated (P1 to P4). Here, the calculation position of each reference point is set to the same position as the detection position of each lane marker candidate point.
Next, the reference point calculation unit 24 compares the coordinate values of each lane marker candidate point with the coordinate values of the approximate lines MR and ML. In FIG. 10, rectangular marks a to h arranged along the approximate lines MR and ML are positions at which coordinate values are compared, that is, detection positions of the respective lane marker candidate points.

右側カーブトレースについて着目すると、座標比較位置a〜cでは、近似線MRがレーンマーカLRに誤差なくトレースできている。これに対して、座標比較位置dでは、レーンマーカ候補点の座標値と近似線MRの座標値との差異が許容範囲を超える。すなわち、座標比較位置dでは、カーブトレースできていない。
一方、左側については、座標比較位置e〜hにおいてカーブトレースできている。
Focusing on the right curve trace, the approximate line MR can be traced to the lane marker LR without any error at the coordinate comparison positions a to c. On the other hand, at the coordinate comparison position d, the difference between the coordinate value of the lane marker candidate point and the coordinate value of the approximate line MR exceeds the allowable range. That is, the curve trace cannot be performed at the coordinate comparison position d.
On the other hand, for the left side, a curve trace can be performed at the coordinate comparison positions e to h.

したがって、基準点算出部24は、座標比較位置c,gを、カーブトレースできている最遠方の地点として検出する(ステップS22)。そのため、この位置で設定した基準点P3が、曲率ρの算出に用いる基準点となる(ステップS23)。
そして、曲率算出部25は、CCDカメラ10の位置での走行路中央点から基準点P3までを結ぶ曲線の曲率ρを算出する。
これにより、走行路推定により得た近似線のレーンマーカに対するトレースが一部出来ていない場合においても、高精度に自車両が走行している走行路の道路曲率を算出することができる。
Therefore, the reference point calculation unit 24 detects the coordinate comparison positions c and g as the farthest point where the curve trace is possible (step S22). Therefore, the reference point P3 set at this position is a reference point used for calculating the curvature ρ (step S23).
Then, the curvature calculation unit 25 calculates the curvature ρ of a curve connecting the center point of the traveling path to the reference point P3 at the position of the CCD camera 10.
Thereby, even when the trace with respect to the lane marker of the approximate line obtained by the travel route estimation is not made, the road curvature of the travel route on which the host vehicle is traveling can be calculated with high accuracy.

上記の動作例では、各基準点の算出位置と各レーンマーカ候補点の検出位置とを同じ位置に設定している。これに対して、各基準点の算出位置を、各レーンマーカ候補点の検出位置とは異なる位置に設定した場合には、先ず、カーブトレースできている最遠方の地点(レーンマーカ候補点の検出位置)を検出する。次に、この最遠方の地点に最も近く、且つ最遠方の地点より手前(自車両側)にある基準点を、道路曲率ρの算出に用いる基準点として選定する。
この場合にも、レーンマーカのトレースが確立している近似線部分から基準点を算出することができる。そのため、高精度に自車両が走行している走行路の道路曲率を算出することができる。
In the above operation example, the calculation position of each reference point and the detection position of each lane marker candidate point are set to the same position. On the other hand, when the calculation position of each reference point is set to a position different from the detection position of each lane marker candidate point, first, the farthest point where the curve trace is possible (the detection position of the lane marker candidate point) Is detected. Next, a reference point closest to the farthest point and in front of the farthest point (on the vehicle side) is selected as a reference point used for calculating the road curvature ρ.
Also in this case, the reference point can be calculated from the approximate line portion where the lane marker trace is established. Therefore, the road curvature of the travel path on which the host vehicle is traveling can be calculated with high accuracy.

《効果》
(8)基準点算出手段は、レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値と、道路モデルパラメータ推定手段で取得した近似線の座標値とを比較し、両者の差が許容範囲内となる位置で、基準点を設定する。
したがって、レーンマーカのトレースが確立している近似線部分から基準点を算出することができる。そのため、この基準点を用いて曲率を算出することで、走行路推定による近似線の誤差を抑えることができる。
(9)基準点算出手段は、レーンマーカ候補点の座標値と近似線の座標値と差が許容範囲内となる撮像手段から最遠方の位置で、基準点を設定する。このように、可能な限り遠方において基準点を算出するので、安定かつ高精度に曲率を算出することができる。
"effect"
(8) The reference point calculation means compares the coordinate value of the lane marker candidate point detected by the lane marker candidate point detection means with the coordinate value of the approximate line acquired by the road model parameter estimation means, and the difference between the two is within an allowable range. Set the reference point at the position.
Therefore, the reference point can be calculated from the approximate line portion where the lane marker trace is established. Therefore, by calculating the curvature using this reference point, it is possible to suppress the error of the approximate line due to the travel path estimation.
(9) The reference point calculation means sets the reference point at a position farthest from the imaging means where the difference between the coordinate value of the lane marker candidate point and the coordinate value of the approximate line is within the allowable range. Thus, since the reference point is calculated as far as possible, the curvature can be calculated stably and with high accuracy.

《変形例》
(1)上記第3の実施形態においては、図9のステップS21で、複数の基準値をそれぞれ走行路の幅方向における中央位置に設定する場合について説明したが、第2の実施形態と同様に、走行路の幅方向における任意の位置に設定することもできる。この場合、曲率算出部25で道路曲率を算出する際には、第2の実施形態と同様に、自車両横変位ycと基準点とを結ぶ曲線の曲率を算出する。これにより、自車両が走行している走行路の道路曲率に加えて、自車両の予想走行軌跡の曲率についても、安定かつ高精度に算出することができる。
<Modification>
(1) In the third embodiment, the case has been described in which the plurality of reference values are respectively set at the center positions in the width direction of the travel path in step S21 of FIG. 9, but as in the second embodiment. It can also be set at an arbitrary position in the width direction of the travel path. In this case, when the road curvature is calculated by the curvature calculation unit 25, the curvature of the curve connecting the own vehicle lateral displacement y c and the reference point is calculated as in the second embodiment. Thereby, in addition to the road curvature of the traveling path on which the host vehicle is traveling, the curvature of the predicted traveling locus of the host vehicle can be calculated stably and with high accuracy.

(2)上記第3の実施形態においては、複数の基準点の中から道路曲率の算出に用いる基準点を選出する場合について説明したが、以下のようにすることもできる。
先ず、各レーンマーカ候補点の検出位置にて、レーンマーカ候補点の座標値と走行路推定部23で取得した近似線の座標値とを比較する。そして、近似線がレーンマーカに誤差なくトレースできている最遠方の位置を検出する。その後、検出した最遠方の位置で、道路曲率の算出に用いる基準点を算出する。
これにより、予め複数の基準点を算出する必要がなくなり、処理工数を削減することができる。但し、この場合、レーンマーカ候補点の検出位置と座標比較位置とは同じ位置になる。
(2) In the third embodiment, a case has been described in which a reference point used for calculation of road curvature is selected from a plurality of reference points. However, the following may be employed.
First, at the detection position of each lane marker candidate point, the coordinate value of the lane marker candidate point is compared with the coordinate value of the approximate line acquired by the traveling path estimation unit 23. Then, the farthest position where the approximate line can be traced to the lane marker without error is detected. Thereafter, a reference point used for calculating the road curvature is calculated at the farthest detected position.
Thereby, it is not necessary to calculate a plurality of reference points in advance, and the number of processing steps can be reduced. However, in this case, the detection position of the lane marker candidate point and the coordinate comparison position are the same position.

(3)上記各実施形態においては、図3、図8及び図9のステップS6で、自車両ヨー角φを補正する場合について説明したが、走行路推定部23で取得した道路パラメーラ及び車両状態量のうち他のパラメータを補正することもできる。このとき、状態推定器による推定と比較して、より真値に近い値を算出できる手法を用いて補正することができれば、高精度に曲率算出部25における道路曲率ρの算出を行うことができる。   (3) In each of the embodiments described above, the case where the host vehicle yaw angle φ is corrected in step S6 of FIGS. 3, 8, and 9 has been described. Other parameters of the quantity can be corrected. At this time, if the correction can be performed using a method that can calculate a value closer to the true value as compared with the estimation by the state estimator, the road curvature ρ can be calculated in the curvature calculation unit 25 with high accuracy. .

1 自動車
1a 車室内天井
1b フロントガラス
10 CCDカメラ
20 コントロールユニット
21 画像取得部
22 レーンマーカ候補点検出部
23 走行路推定部
24 基準点算出部
25 曲率算出部
26 車両制御ECU
R 走行路
DESCRIPTION OF SYMBOLS 1 Car 1a Car interior ceiling 1b Windshield 10 CCD camera 20 Control unit 21 Image acquisition part 22 Lane marker candidate point detection part 23 Traveling path estimation part 24 Reference point calculation part 25 Curvature calculation part 26 Vehicle control ECU
R road

Claims (9)

車両周辺を撮像する撮像手段と、
前記撮像手段で撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出するレーンマーカ候補点検出手段と、
前記レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する道路モデルパラメータ推定手段と、
前記道路モデルパラメータ推定手段で取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出する基準点算出手段と、
前記基準点算出手段で算出した基準点と前記道路モデルパラメータ推定手段で取得した道路モデルとに基づいて、曲率を算出する曲率算出手段と、を備えることを特徴とする走行路認識装置。
Imaging means for imaging the periphery of the vehicle;
Lane marker candidate point detection means for detecting a plurality of coordinate values of lane marker candidate points constituting an image corresponding to a lane marker from a captured image captured by the imaging means;
A road that estimates road parameters and vehicle state quantities of the road model based on the coordinate values of the lane marker candidate points detected by the lane marker candidate point detection means, and obtains an approximate line that traces an image corresponding to the lane marker on the captured image Model parameter estimation means;
Reference point calculating means for calculating at least one reference point on the captured image based on the approximate line acquired by the road model parameter estimating means;
A travel path recognition apparatus comprising: curvature calculation means for calculating curvature based on the reference point calculated by the reference point calculation means and the road model acquired by the road model parameter estimation means.
前記道路モデルパラメータ推定手段で取得した道路モデルの道路パラメータ及び車両状態量を個別に補正する補正手段をさらに備え、
前記曲率算出手段は、前記基準点算出手段で算出した基準点と前記補正手段で補正した道路モデルとに基づいて、曲率を算出することを特徴とする請求項1に記載の走行路認識装置。
Correction means for individually correcting the road parameters and vehicle state quantities of the road model acquired by the road model parameter estimation means;
2. The travel path recognition apparatus according to claim 1, wherein the curvature calculation unit calculates a curvature based on the reference point calculated by the reference point calculation unit and the road model corrected by the correction unit.
前記補正手段は、走行路に対する車両のヨー角を、車両挙動情報に基づいて補正することを特徴とする請求項2に記載の走行路認識装置。   The travel path recognition apparatus according to claim 2, wherein the correction unit corrects the yaw angle of the vehicle with respect to the travel path based on the vehicle behavior information. 前記道路モデルパラメータ推定手段は、左レーンマーカに相当する画像をトレースする左側近似線と、右レーンマーカに相当する画像をトレースする右側近似線とを取得することで走行路を取得し、
前記基準点算出手段は、前記基準点を、前記走行路の幅方向における中央位置に設定することを特徴とする請求項1〜3の何れか1項に記載の走行路認識装置。
The road model parameter estimating means obtains a traveling road by obtaining a left approximate line that traces an image corresponding to a left lane marker and a right approximate line that traces an image corresponding to a right lane marker,
The travel path recognition apparatus according to claim 1, wherein the reference point calculation unit sets the reference point at a center position in a width direction of the travel path.
前記道路モデルパラメータ推定手段は、左レーンマーカに相当する画像をトレースする左側近似線と、右レーンマーカに相当する画像をトレースする右側近似線とを取得することで走行路を取得し、
前記基準点算出手段は、前記基準点を、前記走行路の幅方向における任意の位置に設定することを特徴とする請求項1〜3の何れか1項に記載の走行路認識装置。
The road model parameter estimating means obtains a traveling road by obtaining a left approximate line that traces an image corresponding to a left lane marker and a right approximate line that traces an image corresponding to a right lane marker,
The travel path recognition apparatus according to claim 1, wherein the reference point calculation unit sets the reference point at an arbitrary position in a width direction of the travel path.
前記基準点算出手段は、前記レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値と、前記道路モデルパラメータ推定手段で取得した近似線の座標値とを比較し、両者の差が許容範囲内となる位置で、基準点を設定することを特徴とする請求項1〜5の何れか1項に記載の走行路認識装置。   The reference point calculation means compares the coordinate value of the lane marker candidate point detected by the lane marker candidate point detection means with the coordinate value of the approximate line acquired by the road model parameter estimation means, and the difference between the two is within an allowable range. The travel path recognition device according to any one of claims 1 to 5, wherein a reference point is set at a position where 前記基準点算出手段は、前記差が前記許容範囲内となる前記撮像手段から最遠方の位置で、基準点を設定することを特徴とする請求項6に記載の走行路認識装置。   The travel path recognition apparatus according to claim 6, wherein the reference point calculation unit sets a reference point at a position farthest from the imaging unit in which the difference is within the allowable range. 車体と、車体に搭載し車両周辺を撮像する撮像手段と、
前記撮像手段で撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出するレーンマーカ候補点検出手段と、
前記レーンマーカ候補点検出手段で検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定し、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得する道路モデルパラメータ推定手段と、
前記道路モデルパラメータ推定手段で取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出する基準点算出手段と、
前記基準点算出手段で算出した基準点と前記道路モデルパラメータ推定手段で取得した道路モデルとに基づいて、曲率を算出する曲率算出手段と、
前記曲率算出手段で算出した曲率に基づいて車両の制御を行う車両制御手段と、を備えることを特徴とする自動車。
A vehicle body and an imaging means mounted on the vehicle body for imaging the vehicle periphery;
Lane marker candidate point detection means for detecting a plurality of coordinate values of lane marker candidate points constituting an image corresponding to a lane marker from a captured image captured by the imaging means;
A road that estimates road parameters and vehicle state quantities of the road model based on the coordinate values of the lane marker candidate points detected by the lane marker candidate point detection means, and obtains an approximate line that traces an image corresponding to the lane marker on the captured image Model parameter estimation means;
Reference point calculating means for calculating at least one reference point on the captured image based on the approximate line acquired by the road model parameter estimating means;
Curvature calculating means for calculating a curvature based on the reference point calculated by the reference point calculating means and the road model acquired by the road model parameter estimating means;
An automobile comprising: vehicle control means for controlling the vehicle based on the curvature calculated by the curvature calculation means.
車両周辺を撮像し、撮像した撮像画像から、レーンマーカに相当する画像を構成するレーンマーカ候補点の座標値を複数検出し、検出したレーンマーカ候補点の座標値に基づいて、道路モデルの道路パラメータ及び車両状態量を推定して、撮像画像上のレーンマーカに相当する画像をトレースする近似線を取得したら、取得した近似線に基づいて、撮像画像上における基準点を少なくとも1つ算出し、算出した基準点と取得した道路モデルとに基づいて、曲率を算出することを特徴とする走行路認識方法。   A vehicle periphery is imaged, and a plurality of coordinate values of lane marker candidate points constituting an image corresponding to a lane marker are detected from the captured image. Based on the detected coordinate values of the lane marker candidate points, the road parameters of the road model and the vehicle After estimating the state quantity and obtaining an approximate line that traces the image corresponding to the lane marker on the captured image, at least one reference point on the captured image is calculated based on the acquired approximate line, and the calculated reference point And a driving path recognition method, wherein curvature is calculated based on the acquired road model.
JP2009035041A 2009-02-18 2009-02-18 Traveling path recognition device, automobile, and traveling path recognition method Pending JP2010191661A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009035041A JP2010191661A (en) 2009-02-18 2009-02-18 Traveling path recognition device, automobile, and traveling path recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009035041A JP2010191661A (en) 2009-02-18 2009-02-18 Traveling path recognition device, automobile, and traveling path recognition method

Publications (1)

Publication Number Publication Date
JP2010191661A true JP2010191661A (en) 2010-09-02

Family

ID=42817646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009035041A Pending JP2010191661A (en) 2009-02-18 2009-02-18 Traveling path recognition device, automobile, and traveling path recognition method

Country Status (1)

Country Link
JP (1) JP2010191661A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013089110A (en) * 2011-10-20 2013-05-13 Alpine Electronics Inc Lane monitoring system and lane monitoring method
JP2013112067A (en) * 2011-11-25 2013-06-10 Toyota Motor Corp Traveling course generation device and traveling control device
JP2013129289A (en) * 2011-12-21 2013-07-04 Toyota Motor Corp Vehicle state quantity estimating device and vehicle steering control apparatus
EP2620930A4 (en) * 2010-09-24 2015-09-16 Toyota Motor Co Ltd Track estimation device and program
JP2016057750A (en) * 2014-09-08 2016-04-21 株式会社豊田中央研究所 Estimation device and program of own vehicle travel lane
KR20170021090A (en) * 2015-08-17 2017-02-27 엘지이노텍 주식회사 Apparatus for recognizing lane conditions and moethod thereof
JP2018013955A (en) * 2016-07-21 2018-01-25 いすゞ自動車株式会社 Image processing apparatus and image processing method
KR20180048094A (en) * 2016-11-02 2018-05-10 현대자동차주식회사 Apparatus and method for estimating inter-vehicle distance
JP2021103525A (en) * 2015-02-10 2021-07-15 モービルアイ ビジョン テクノロジーズ リミテッド Method for processing navigation information, map server computer program for processing navigation information, vehicle system for supporting autonomous vehicle navigation, and autonomous vehicle
US11120277B2 (en) 2018-10-10 2021-09-14 Denso Corporation Apparatus and method for recognizing road shapes
CN114782549A (en) * 2022-04-22 2022-07-22 南京新远见智能科技有限公司 Camera calibration method and system based on fixed point identification
CN114889606A (en) * 2022-04-28 2022-08-12 吉林大学 Low-cost high-precision positioning method based on multi-sensor fusion
CN116118751A (en) * 2023-04-19 2023-05-16 深圳佑驾创新科技有限公司 Control method and device for vehicle, vehicle and storage medium

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2620930A4 (en) * 2010-09-24 2015-09-16 Toyota Motor Co Ltd Track estimation device and program
JP2013089110A (en) * 2011-10-20 2013-05-13 Alpine Electronics Inc Lane monitoring system and lane monitoring method
JP2013112067A (en) * 2011-11-25 2013-06-10 Toyota Motor Corp Traveling course generation device and traveling control device
JP2013129289A (en) * 2011-12-21 2013-07-04 Toyota Motor Corp Vehicle state quantity estimating device and vehicle steering control apparatus
JP2016057750A (en) * 2014-09-08 2016-04-21 株式会社豊田中央研究所 Estimation device and program of own vehicle travel lane
JP2021103525A (en) * 2015-02-10 2021-07-15 モービルアイ ビジョン テクノロジーズ リミテッド Method for processing navigation information, map server computer program for processing navigation information, vehicle system for supporting autonomous vehicle navigation, and autonomous vehicle
JP7280465B2 (en) 2015-02-10 2023-05-24 モービルアイ ビジョン テクノロジーズ リミテッド Method for processing navigation information, map server computer program for processing navigation information, vehicle system for assisting navigation of autonomous vehicle, and autonomous vehicle
KR102384580B1 (en) 2015-08-17 2022-04-08 엘지이노텍 주식회사 Apparatus for recognizing lane conditions and moethod thereof
KR20170021090A (en) * 2015-08-17 2017-02-27 엘지이노텍 주식회사 Apparatus for recognizing lane conditions and moethod thereof
WO2018016507A1 (en) * 2016-07-21 2018-01-25 いすゞ自動車株式会社 Image processing device and image processing method
JP2018013955A (en) * 2016-07-21 2018-01-25 いすゞ自動車株式会社 Image processing apparatus and image processing method
KR20180048094A (en) * 2016-11-02 2018-05-10 현대자동차주식회사 Apparatus and method for estimating inter-vehicle distance
KR102371592B1 (en) 2016-11-02 2022-03-07 현대자동차주식회사 Apparatus and method for estimating inter-vehicle distance
US11120277B2 (en) 2018-10-10 2021-09-14 Denso Corporation Apparatus and method for recognizing road shapes
CN114782549A (en) * 2022-04-22 2022-07-22 南京新远见智能科技有限公司 Camera calibration method and system based on fixed point identification
CN114782549B (en) * 2022-04-22 2023-11-24 南京新远见智能科技有限公司 Camera calibration method and system based on fixed point identification
CN114889606A (en) * 2022-04-28 2022-08-12 吉林大学 Low-cost high-precision positioning method based on multi-sensor fusion
CN116118751A (en) * 2023-04-19 2023-05-16 深圳佑驾创新科技有限公司 Control method and device for vehicle, vehicle and storage medium
CN116118751B (en) * 2023-04-19 2023-08-29 深圳佑驾创新科技有限公司 Control method and device for vehicle, vehicle and storage medium

Similar Documents

Publication Publication Date Title
JP2010191661A (en) Traveling path recognition device, automobile, and traveling path recognition method
JP5276637B2 (en) Lane estimation device
JP4788798B2 (en) Object detection device
JP5962771B2 (en) Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
JP5966747B2 (en) Vehicle travel control apparatus and method
US10030969B2 (en) Road curvature detection device
JP5796947B2 (en) Autonomous traveling control device and autonomous traveling vehicle equipped with the same
CN111164648B (en) Position estimating device and position estimating method for mobile body
KR20190097326A (en) Traffic light recognition device and traffic light recognition method
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
US20190297314A1 (en) Method and Apparatus for the Autocalibration of a Vehicle Camera System
JP6189816B2 (en) Traveling line recognition device
JP5310027B2 (en) Lane recognition device and lane recognition method
WO2019031137A1 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
JP2017111632A (en) Information arithmetic processor
JP2005214914A (en) Traveling speed detecting device and traveling speed detection method
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method
JP6768554B2 (en) Calibration device
JP7303064B2 (en) Image processing device and image processing method
US10536646B2 (en) Imaging control device and imaging control method
CN113903103B (en) Partial image generation device, partial image generation method, and storage medium
JP6489645B2 (en) Image processing device
JP6619589B2 (en) Image processing device
JP2013183311A (en) Estimation device and detection system of attitude angle in on-vehicle camera
JP5330341B2 (en) Ranging device using in-vehicle camera

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100917