JP2018021777A - Own vehicle position estimation device - Google Patents
Own vehicle position estimation device Download PDFInfo
- Publication number
- JP2018021777A JP2018021777A JP2016151777A JP2016151777A JP2018021777A JP 2018021777 A JP2018021777 A JP 2018021777A JP 2016151777 A JP2016151777 A JP 2016151777A JP 2016151777 A JP2016151777 A JP 2016151777A JP 2018021777 A JP2018021777 A JP 2018021777A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- host vehicle
- road surface
- unit
- vertical position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 abstract description 17
- 230000014509 gene expression Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、自車位置推定装置に関する。 The present invention relates to a host vehicle position estimation device.
従来、自車位置推定装置に関する技術文献として、特開2001−331787号公報が知られている。この公報には、車載カメラの撮像した画像データから自車両の走行する道路の第1形状候補を抽出すると共に、地図データから前記道路の第2形状候補を抽出し、第1形状候補と第2形状候補との重なり状態に基づいて、道路上の自車両の位置を推定する装置が記載されている。この装置は、重なり状態の照合にカルマンフィルタを用いている。 Conventionally, JP-A-2001-331787 is known as a technical document related to the vehicle position estimation apparatus. In this publication, a first shape candidate of a road on which the vehicle travels is extracted from image data captured by an in-vehicle camera, a second shape candidate of the road is extracted from map data, and a first shape candidate and a second shape candidate are extracted. An apparatus for estimating the position of the host vehicle on the road based on the overlapping state with the shape candidate is described. This apparatus uses a Kalman filter for collation of overlapping states.
ところで、自車両の位置を精度良く推定するため、車載カメラの姿勢(ヨー角など)を更に考慮する手法が知られている。しかしながら、車両のカーブ走行中などにはヨー角の誤差が累積して、自車両の位置の推定精度の低下を招くと言う問題があった。 By the way, in order to estimate the position of the own vehicle with high accuracy, a method for further considering the posture (yaw angle or the like) of the in-vehicle camera is known. However, there is a problem that the yaw angle error accumulates while the vehicle is traveling on a curve and the like, leading to a decrease in the estimation accuracy of the position of the host vehicle.
そこで、本技術分野では、自車両の地図上の位置の推定精度を向上させることができる自車位置推定装置を提供することが望まれている。 Therefore, in the present technical field, it is desired to provide an own vehicle position estimation device that can improve the estimation accuracy of the position of the own vehicle on the map.
上記課題を解決するため、本発明に係る自車位置推定装置は、車載の測位部から得られた自車両の地図上の位置である第1自車位置に基づいて、地図情報から自車両の周囲の疑似路面画像を生成し、自車両のカメラの撮像画像から得られた路面画像と疑似路面画像との照合により第2自車位置を推定する自車位置推定装置であって、路面画像と疑似路面画像との照合度合を算出する照合度合算出部と、第1自車位置又は第2自車位置と地図情報とに基づいて、自車両の走行する走行道路の曲率を取得する曲率取得部と、地図上のランドマークの位置情報を記憶するランドマーク記憶部と、自車両のカメラの撮像した撮像画像に基づいて、撮像画像に含まれるランドマークの画像位置座標を認識するランドマーク認識部と、地図上のランドマークの位置情報と、撮像画像に含まれるランドマークの画像位置座標とに基づいて、走行道路の延在方向における自車両の位置である縦位置を認識する縦位置認識部と、縦位置認識部の認識した縦位置と第2自車位置から得た自車両の縦位置との差である縦位置誤差を認識する縦位置誤差認識部と、自車両のヨー角を認識するヨー角認識部と、自車両の車速を認識する車速認識部と、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって、自車両の地図上の位置である第3自車位置を推定する第3自車位置推定部と、を備える。 In order to solve the above-described problem, an own vehicle position estimation device according to the present invention is based on map information and is based on a first own vehicle position, which is a position on a map of the own vehicle obtained from an in-vehicle positioning unit. A host vehicle position estimation device that generates a surrounding pseudo road surface image and estimates a second host vehicle position by comparing a road surface image obtained from a captured image of a camera of the host vehicle and a pseudo road surface image, A matching degree calculation unit that calculates a matching degree with the pseudo road surface image, and a curvature acquisition unit that acquires the curvature of the traveling road on which the host vehicle travels based on the first host vehicle position or the second host vehicle position and the map information. A landmark storage unit that stores position information of landmarks on the map, and a landmark recognition unit that recognizes image position coordinates of the landmarks included in the captured image based on the captured image captured by the camera of the host vehicle And the lander on the map Based on the position information and the image position coordinates of the landmark included in the captured image, the vertical position recognition unit that recognizes the vertical position that is the position of the vehicle in the extending direction of the traveling road, and the vertical position recognition unit A vertical position error recognition unit that recognizes a vertical position error that is a difference between the recognized vertical position and the vertical position of the host vehicle obtained from the second host vehicle position, and a yaw angle recognition unit that recognizes the yaw angle of the host vehicle; Based on the vehicle speed recognition unit that recognizes the vehicle speed of the host vehicle, the second host vehicle position, the matching degree, the curvature of the traveling road, the vertical position error, the yaw angle, and the vehicle speed, a map of the host vehicle is set by a preset Kalman filter process. A third host vehicle position estimating unit that estimates a third host vehicle position that is an upper position.
以上説明したように、本発明に係る自車位置推定装置によれば、自車両の地図上の位置の推定精度を向上させることができる。 As described above, according to the own vehicle position estimation device according to the present invention, it is possible to improve the estimation accuracy of the position of the own vehicle on the map.
以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1に示す本実施形態に係る自車位置推定装置100は、車両(自車両)に搭載され、自車両の地図上の位置を推定する装置である。自車位置推定装置100は、地図情報から生成した疑似路面画像と車載のカメラで撮像した路面画像との照合結果及びカルマンフィルタを利用することで、精度の高い自車両の位置を推定する。
A host vehicle
[自車位置推定装置の構成]
図1に示すように、本実施形態に係る自車位置推定装置100は、装置を統括的に制御する [Electronic Control Unit]10を備えている。ECU10は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]、CAN[Controller Area Network]通信回路等を有する電子制御ユニットである。ECU10では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子制御ユニットから構成されていてもよい。
[Configuration of the vehicle position estimation device]
As shown in FIG. 1, a host vehicle
ECU10は、GPS[Global Positioning System]受信部1、カメラ2、車速センサ3、IMU[Inertial Measurement Unit]4、地図データベース5、及びランドマークデータベース6と接続されている。
The ECU 10 is connected to a GPS [Global Positioning System] receiving
GPS受信部1は、3個以上のGPS衛星から信号を受信することにより、自車両の位置(例えば車両の緯度及び経度)を測定する車載の測位部として機能する。GPS受信部1は、測定した自車両の位置情報をECU10へ送信する。なお、車載の測位部は、GPS受信部1に限られない。
The
カメラ2は、自車両の周囲を撮像する撮像機器である。カメラ2は、例えば車両のフロントガラスの裏側に設けられて自車両の前方の路面を撮像する。カメラ2は、単眼カメラであってもよく、ステレオカメラであってもよい。カメラ2は、撮像画像の情報をECU10に送信する。カメラ2は複数のカメラから構成されていてもよい。
The
車速センサ3は、自車両の速度を検出する検出器である。車速センサ3としては、自車両の車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車速センサ3は、検出した車速情報をECU10に送信する。
The vehicle speed sensor 3 is a detector that detects the speed of the host vehicle. As the vehicle speed sensor 3, a wheel speed sensor that is provided for a wheel of the host vehicle or a drive shaft that rotates integrally with the wheel and detects the rotation speed of the wheel is used. The vehicle speed sensor 3 transmits the detected vehicle speed information to the
IMU4は、自車両のロール角、ピッチ角、ヨー角を計測する慣性計測ユニットである。IMU4は、例えばジャイロセンサと加速度センサを含めて構成されている。IMU4は、検出した自車両の角度をECU10に送信する。なお、IMU4に代えてヨー角センサを採用してもよい。また、IMU4の代わりに、地図情報から生成した疑似路面画像と車載のカメラで撮像した路面画像との照合結果からヨー角を求めてもよい。
The IMU 4 is an inertial measurement unit that measures the roll angle, pitch angle, and yaw angle of the host vehicle. For example, the IMU 4 includes a gyro sensor and an acceleration sensor. The IMU 4 transmits the detected angle of the own vehicle to the
地図データベース5は、地図情報を記憶するデータベースである。地図データベース5は、例えば、自車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、白線の位置情報、交差点及び分岐点の位置情報、及び建物の位置情報等が含まれる。なお、地図データベース5は、自車両と通信可能な管理センター等の施設のコンピュータに記憶されていてもよい。 The map database 5 is a database that stores map information. The map database 5 is formed in, for example, an HDD [Hard Disk Drive] mounted on the host vehicle. Map information includes road position information, road shape information (eg, curves, straight line types, curve curvature, etc.), white line position information, intersection and branch point position information, and building position information. It is. The map database 5 may be stored in a computer of a facility such as a management center that can communicate with the host vehicle.
ランドマークデータベース6は、ランドマークの情報を備えたランドマーク記憶部である。ランドマークデータベース6は、例えば、自車両に搭載されたHDD内に形成されている。ランドマークとは、道路面上(車両通行帯以外の路面上も含む)で位置が固定され、物体の位置の算出の基準となるものである。ランドマークには、道路標識、及び道路標示が含まれる。道路標識には、案内標識、警戒標識、規制標識、指示標識等がある。道路標示には、規制標示と指示標示が含まれる。規制標示には、転回禁止マーク、最高速度マーク等がある。指示標示には、白線(車道中央線、車道外側線、車線境界線等)、前方に横断歩道があることを示す菱形マーク、前方に優先道路があることを示す三角マーク、進行方向マーク、信号機、デニレータ、トンネルの出入口、ETCゲートの出入口等がある。 The landmark database 6 is a landmark storage unit having landmark information. The landmark database 6 is formed in, for example, an HDD mounted on the host vehicle. A landmark has a fixed position on a road surface (including a road surface other than a vehicle lane) and serves as a reference for calculating an object position. The landmark includes a road sign and a road sign. Road signs include guide signs, warning signs, regulatory signs, instruction signs, and the like. The road marking includes a regulation sign and an instruction sign. The regulation marking includes a turn prohibition mark, a maximum speed mark, and the like. There are white lines (roadway center line, roadway outside line, lane boundary line, etc.), a rhombus mark indicating that there is a pedestrian crossing ahead, a triangle mark indicating that there is a priority road ahead, a traveling direction mark, a traffic light , Denilators, tunnel entrances, ETC gate entrances, etc.
ランドマークデータベース6は、ランドマークの地図上の位置情報を記憶している。すなわち、ランドマークデータベース6は、地図データベース5の記憶している地図情報に関連付けられたランドマークの位置情報を記憶している。また、ランドマークデータベース6は、カメラ2の撮像画像からランドマークを認識するためのランドマークの画像情報を記憶している。なお、地図データベース5がランドマークデータベース6の機能を兼ねていてもよい。
The landmark database 6 stores location information of landmarks on the map. That is, the landmark database 6 stores landmark position information associated with the map information stored in the map database 5. The landmark database 6 stores landmark image information for recognizing landmarks from images captured by the
次に、ECU10の機能的構成について説明する。ECU10は、第1自車位置推定部11、疑似路面画像生成部12、路面画像変換部13、照合度合算出部14、第2自車位置推定部15、曲率取得部16を有している。また、ECU10は、ランドマーク認識部17、縦位置認識部18、縦位置誤差認識部19、ヨー角認識部20、車速認識部21、及び第3自車位置推定部22を有している。
Next, a functional configuration of the
第1自車位置推定部11は、GPS受信部1などの車載の測位部の測位結果と地図データベース5の地図情報に基づいて、自車両の地図上の位置である第1自車位置を推定する。第1自車位置推定部11は、車載の測位部の測位結果から周知の手法により第1自車位置(緯度、経度)を推定する。
The first vehicle
疑似路面画像生成部12は、第1自車位置と地図情報(白線の位置情報)に基づいて、第1自車位置の周囲の疑似路面画像を生成する。疑似路面画像とは、地図情報に含まれる白線の位置情報などから擬似的に生成された道路の路面の画像である。疑似路面画像は、例えば、平面視の路面の画像に対応するように生成される。疑似路面画像生成部12は、第1自車位置と地図情報から、周知の手法により疑似路面画像を生成する。
The simulated road surface
路面画像変換部13は、カメラ2の撮像画像(路面を含む画像)を平面視の路面画像に変換する。路面画像変換部13は、疑似路面画像と照合可能にするため、周知の手法(例えば視点変換処理)によりカメラ2の撮像画像を路面画像に変換する。なお、疑似路面画像と照合可能であれば平面視の路面画像に変換する必要はない。
The road surface
照合度合算出部14は、疑似路面画像と路面画像との照合度合を算出する。照合度合とは、地図情報から生成された疑似路面画像とカメラ2の撮像画像から得られた路面画像との一致の度合いに相当する。照合度合が高いほど、疑似路面画像と路面画像とは一致している。照合度合算出部14は、例えば、疑似路面画像と路面画像との照合度合として、道路の白線の照合度合を算出する。照合度合算出部14は、周知の手法により疑似路面画像と路面画像との照合度合を算出する。
The matching
第2自車位置推定部15は、疑似路面画像と路面画像に基づいて、自車両の地図上の位置である第2自車位置を推定する。第2自車位置推定部15は、疑似路面画像及び路面画像から周知の手法により第2自車位置(緯度、経度)を推定する。
The second host vehicle
第2自車位置推定部15は、照合度合算出部14の算出した照合度合を用いてもよい。第2自車位置推定部15は、例えば、車載のカメラ2の撮像画像から得られた路面画像との照合度合が所定の閾値以上の疑似路面画像のうち、最も照合度合が高い疑似路面画像を特定する。第2自車位置推定部15は、特定した疑似路面画像が生成された地図における位置情報を利用して、第2自車位置を推定する。第2自車位置推定部15は、周知の手法により疑似路面画像と路面画像との照合を用いた第2自車位置の推定を行う。
The second vehicle
曲率取得部16は、第2自車位置及び地図情報に基づいて、自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置から自車両が走行する走行道路を特定し、地図情報に含まれる道路曲率の情報に基づいて走行道路の曲率を取得する。なお、曲率取得部16は、第2自車位置ではなく、第1自車位置を用いて自車両の走行道路の曲率を取得してもよい。
The
ランドマーク認識部17は、カメラ2の撮像画像とランドマークデータベース6に記憶されたランドマークの情報に基づいて、撮像画像に含まれるランドマークを認識する。ランドマーク認識部17は、例えばパターン認識又はエッジ抽出により画像中のランドマークを認識する。
The
ランドマーク認識部17は、撮像画像に含まれるランドマークを認識した場合、周知の画像処理によって撮像画像におけるランドマークの画像位置座標を認識する。ランドマークの画像位置座標とは、撮像画像中におけるランドマークの画像の位置の座標である。例えば、路面上の道路標示である菱形マークの画像位置座標は、撮像画像における菱形マークの中心の座標とすることができる。ランドマーク認識部17は、周知の手法によりランドマークの画像位置座標を認識する。
When the
縦位置認識部18は、ランドマーク認識部17がランドマークの画像位置座標を認識した場合、撮像画像におけるランドマークの画像位置座標と地図上のランドマークの位置情報とに基づいて、自車両の縦位置を認識する。自車両の縦位置とは、自車両の走行する走行道路の延在方向における自車両の位置である。縦位置認識部18は、周知の手法によりランドマークを用いた自車両の縦位置の認識を行う。
When the
縦位置誤差認識部19は、縦位置認識部18が自車両の縦位置を認識した場合、縦位置誤差を算出する。縦位置誤差とは、縦位置認識部18の認識した自車両の縦位置と第2自車位置から得られる自車両の縦位置との差である。縦位置誤差認識部19は、例えば、走行道路の延在方向を基準として第2自車位置と縦位置認識部18の認識した自車両の縦位置との差を取ることで、縦位置誤差を算出する。縦位置誤差認識部19は、周知の手法により縦位置誤差を算出する。
The vertical position
ヨー角認識部20は、IMU4の計測したヨー角に基づいて、自車両のヨー角を認識する。車速認識部21は、車速センサ3の検出した車速に基づいて、自車両の車速を認識する。
The yaw
第3自車位置推定部22は、縦位置誤差認識部19が自車両の縦位置誤差を認識した場合、自車両の地図上の位置である第3自車位置を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって第3自車位置を推定する。また、第3自車位置推定部22は、上記カルマンフィルタ処理の出力結果として第3自車位置の他に自車両のヨー角を出力する。以後、カルマンフィルタ処理により推定されたヨー角を第2ヨー角と称する。
When the vertical position
以下、本実施形態に係るカルマンフィルタ処理について説明する。下記の式(1)は、カルマンフィルタ処理における状態量uを示す式である。式(1)において、Eは自車両の緯度、Nは自車両の経度、φは自車両のヨー角、Vは自車両の車速、φ′(φにドット)は自車両のヨーレートである。Tは行列の転置を表わしている。式(2)は、カルマンフィルタ処理における観測量vを示す式である。式(2)において、Ecは第2自車位置における緯度、Ncは第2自車位置における経度、φcはヨー角認識部20の認識したヨー角、Vcは車速認識部21の認識した車速、φ′cはφcを微分したヨーレートである。
続いて、観測方程式について説明する。カルマンフィルタ処理の観測方程式を下記の式(3)として示す。式(3)においてHは単位行列である。Rnは観測ノイズである。kは時系列を表わしている。式(4)では、式(3)を行列式で表わしている。
下記の式(5)は、観測ノイズRnを示す行列式である。式(5)において、ccは、照合度合算出部14の算出した照合度合である。err_lonは、縦位置誤差認識部19の認識した縦位置誤差である。A1、A2、A3は定数である。GE(cc,err_lon)、GR(cc,err_lon)、GYR(R)は関数である。式(6)は、関数GYRを示す式である。式(6)において、Rは自車両の走行道路の曲率である。A4、A5、A6は定数である。式(6)には、曲率Rが小さいときに、ヨーレートの観測ノイズが大きくなりやすい特性が反映されている。
ここで、図2は、式(5)におけるGE(cc,err_lon)を求めるためのデータテーブルの例である。図2に示すaは定数である。図2のデータテーブルは、照合度合ccが大きいとき、また、縦位置誤差err_lonが小さいときに観測ノイズが小さくなるように設定されている。図2に示すように、照合度合ccと縦位置誤差err_lonが決まれば予め設定されたデータテーブルなどを利用して、GE(cc,err_lon)の値を求めることができる。GR(cc,err_lon)についても、同様のデータテーブルを用いて値を求めることができる。例えば、図2における定数aを適切な定数bに置き換えることで、GR(cc,err_lon)のデータテーブルとすることができる。 Here, FIG. 2 is an example of a data table for obtaining GE (cc, err_lon) in Expression (5). “A” shown in FIG. 2 is a constant. The data table in FIG. 2 is set so that the observation noise is small when the matching degree cc is large and when the vertical position error err_lon is small. As shown in FIG. 2, if the matching degree cc and the vertical position error err_lon are determined, the value of GE (cc, err_lon) can be obtained using a preset data table or the like. G R (cc, err_lon) for also, it is possible to obtain the value by using the same data table. For example, by replacing the constant a in FIG. 2 to the appropriate constant b, it can be a data table G R (cc, err_lon).
次に、状態方程式について説明する。カルマンフィルタ処理の状態方程式を下記の式(7)として示す。式(7)において、Fは偏微分可能な行列である。Qnは状態ノイズ(システムノイズ)である。k+1は、離散時刻kの直後の離散時刻であることを意味している。式(7)から状態ノイズQnを省略して展開した式として、式(8)〜式(12)を以下に示す。なお、式(8)〜式(10)に示すdtは離散時刻kから離散時刻k+1への遷移時間を意味している。
下記の式(13)は、状態ノイズQnを示す行列式である。式(13)において、B1、B2、B3、B4は定数である。Fpos(R)は曲率Rの関数である。Fyaw(φ)はヨー角φの関数である。式(14)は、関数Fpos(R)を示す式である。式(14)において、B5、B6,B7は定数である。関数Fyaw(R)を示す式である。式(15)において、B8、B9,B10は定数である。
第3自車位置推定部22は、以上説明した式(1)〜式(15)を利用したカルマンフィルタ処理により、第3自車位置及びヨー角を推定することができる。このカルマンフィルタ処理によれば、観測ノイズRnにおいて照合度合cc、縦位置誤差err_lon、及び曲率Rを考慮することにより、これらを考慮しない場合と比べて、第3自車位置の推定精度を向上させることができる。また、状態ノイズQnにおいて、縦位置誤差err_lon及び曲率Rを考慮することにより、これらを考慮しない場合と比べて、第3自車位置の推定精度を向上させることができる。
The third host vehicle
[自車位置推定装置における自車位置推定処理]
以下、本実施形態に係る自車位置推定装置100における自車位置推定処理について図面を参照して説明する。図3は、一回目の自車位置推定処理を示すフローチャートである。図3のフローチャートは、例えば、自車両が走行を開始した場合に実施される。
[Vehicle position estimation processing in the vehicle position estimation apparatus]
Hereinafter, the vehicle position estimation process in the vehicle
図3に示すように、自車位置推定装置100のECU10は、S10として、第1自車位置推定部11による第1自車位置の推定を行う。第1自車位置推定部11は、車載の測位部(例えばGPS受信部1)の測位結果に基づいて、第1自車位置を推定する。
As shown in FIG. 3, the
S12において、ECU10は、疑似路面画像生成部12により疑似路面画像を生成する。疑似路面画像生成部12は、第1自車位置と地図情報(白線の位置情報)に基づいて、第1自車位置の周囲の疑似路面画像を生成する。また、ECU10は、路面画像変換部13によりカメラ2の撮像画像を平面視の路面画像(疑似路面画像と対比できる路面画像)に変換する。
In S12, the
S14において、ECU10は、照合度合算出部14により疑似路面画像と路面画像との照合度合を算出する。照合度合が高いほど、疑似路面画像と路面画像の一致度が高い。
In S14, the
S16において、ECU10は、第2自車位置推定部15により第2自車位置を推定する。第2自車位置推定部15は、疑似路面画像と路面画像に基づいて、第2自車位置を推定する。第2自車位置推定部15は、例えば、車載のカメラ2の撮像画像から得られた路面画像との照合度合が所定の閾値以上の疑似路面画像のうち、最も照合度合が高い疑似路面画像を特定し、特定した疑似路面画像が生成された地図の位置情報を利用して第2自車位置を推定する。
In S <b> 16, the
S18において、ECU10は、曲率取得部16により自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置及び地図情報に基づいて、第2自車位置から自車両が走行する走行道路を特定し、地図情報から走行道路の曲率を取得する。
In S <b> 18, the
S20において、ECU10は、ランドマーク認識部17によりカメラ2の撮像画像に含まれるランドマークを認識したか否かを判定する。ランドマーク認識部17は、カメラ2の撮像画像とランドマークデータベース6に記憶されたランドマークの情報に基づいて、撮像画像に含まれるランドマークを認識する。ECU10は、撮像画像に含まれるランドマークを認識したと判定した場合(S20:YES)、S22に移行する。
In S <b> 20, the
一方、ECU10は、撮像画像に含まれるランドマークを認識しない(撮像画像中にランドマークが存在しない)と判定した場合(S20:NO)、S28に移行する。
On the other hand, if the
S22において、ECU10は、ランドマーク認識部17により撮像画像におけるランドマークの画像位置座標を認識する。ランドマーク認識部17は、例えば、道路標示である菱形マークの画像位置座標として、撮像画像内における菱形マークの中心の座標を認識することができる。
In S <b> 22, the
S24において、ECU10は、縦位置認識部18により自車両の縦位置を認識する。縦位置認識部18は、撮像画像におけるランドマークの画像位置座標と地図上のランドマークの位置情報とに基づいて、自車両の縦位置を認識する。
In S <b> 24, the
S26において、ECU10は、縦位置誤差認識部19により縦位置誤差を算出する。縦位置誤差認識部19は、縦位置認識部18の認識した自車両の縦位置と第2自車位置から得た自車両の縦位置との差として、縦位置誤差を算出する。
In S <b> 26, the
S28において、ECU10は、第3自車位置推定部22により第3自車位置及び第2ヨー角を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって第3自車位置及び第2ヨー角を推定する。第3自車位置推定部22は、例えば、上述した式(1)〜式(15)を利用したカルマンフィルタ処理により、第3自車位置及び第2ヨー角を推定することができる。ECU10は、推定した第3自車位置を自車両の地図上の位置として外部(例えば、ナビゲーションシステム、運転支援装置、自動運転装置)に出力する。ここで、S20でNOの場合(ランドマークを認識しない場合)には、縦位置誤差を予め設定された最大値と仮定してカルマンフィルタ処理を実行する。この場合、図2の表においては最大値となる「2≦err_lon」の欄の値が照合度合ccとの関係で用いられることになる。
In S28, the
なお、図3のフローチャートとは別に、ヨー角認識部20による自車両のヨー角の認識と車速認識部21による自車両の車速の認識は、センサ側の性能に応じて所定間隔で実行されている。
In addition to the flowchart of FIG. 3, the yaw
図4は、二回目以降の自車位置推定処理を示すフローチャートである。図4に示すフローチャートは、例えば、自車両が走行を開始してから一回目のカルマンフィルタ処理により第3自車位置及びヨー角を得られた場合に実行される。 FIG. 4 is a flowchart showing the vehicle position estimation process for the second and subsequent times. The flowchart shown in FIG. 4 is executed, for example, when the third host vehicle position and the yaw angle are obtained by the first Kalman filter process after the host vehicle starts running.
図4に示すように、ECU10は、S30として、疑似路面画像生成部12により疑似路面画像を生成する。疑似路面画像生成部12は、第3自車位置が一度推定された場合、推定精度の高い第3自車位置と地図情報(白線の位置情報)に基づいて、第3自車位置の周囲の疑似路面画像を生成する。また、ECU10は、路面画像変換部13によりカメラ2の撮像画像を平面視の路面画像(疑似路面画像と対比できる路面画像)に変換する。
As shown in FIG. 4, ECU10 produces | generates a pseudo road surface image by the pseudo road surface
S32において、ECU10は、照合度合算出部14により疑似路面画像と路面画像との照合度合を算出する。この疑似路面画像は、第3自車位置の周囲の疑似路面画像である。
In S32, the
S34において、ECU10は、第2自車位置推定部15により第2自車位置を推定する。第2自車位置推定部15は、第3自車位置の周囲の疑似路面画像と路面画像に基づいて、今回の第2自車位置を推定する。
In S <b> 34, the
S36において、ECU10は、曲率取得部16により自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置及び地図情報に基づいて走行道路の曲率を取得する。
In S <b> 36, the
S38において、ECU10は、ランドマーク認識部17によりカメラ2の撮像画像に含まれるランドマークを認識したか否かを判定する。ECU10は、撮像画像に含まれるランドマークを認識したと判定した場合(S38:YES)、S40に移行する。
In S <b> 38, the
一方、ECU10は、撮像画像に含まれるランドマークを認識しないと判定した場合(S38:NO)、S46に移行する。
On the other hand, when the
S40〜S44は、図3に示すS22〜S26と同じ処理であるため説明は簡潔にする。S40において、ECU10は、ランドマーク認識部17により撮像画像におけるランドマークの画像位置座標を認識する。S42において、ECU10は、縦位置認識部18により自車両の縦位置を認識する。S44において、ECU10は、縦位置誤差認識部19により縦位置誤差を算出する。
Since S40 to S44 are the same processes as S22 to S26 shown in FIG. In S <b> 40, the
S46において、ECU10は、第3自車位置推定部22により今回の第3自車位置及び今回の第2ヨー角を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、前回の第2ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって今回の第3自車位置及び今回の第2ヨー角を推定する。
In S <b> 46, the
第3自車位置推定部22は、例えば、上述した式(1)〜式(15)を利用したカルマンフィルタ処理により、今回の第3自車位置及び今回の第2ヨー角を推定することができる。この場合には、式(1)のヨー角φとして前回の第2ヨー角(前回のカルマンフィルタ処理で推定されたヨー角)が用いられる。
The third vehicle
なお、必ずしも前回の第2ヨー角を用いる必要はなく、ヨー角認識部20の認識した自車両のヨー角を用いてカルマンフィルタ処理を実行してもよい。また、S38でNOの場合(ランドマークを認識しない場合)には、前回の処理で用いた縦位置誤差を利用してカルマンフィルタ処理を行う。ECU10は、推定した今回の第3自車位置を自車両の地図上の位置として外部に出力する。その後、ECU10は、所定時間の経過後、今回の第3自車位置を用いて再びS30から処理を繰り返す。
The previous second yaw angle is not necessarily used, and the Kalman filter process may be executed using the yaw angle of the host vehicle recognized by the yaw
[自車位置推定装置の作用効果]
以上説明した本実施形態に係る自車位置推定装置100によれば、地図情報から生成した疑似路面画像と車載カメラの撮像した路面画像の照合により推定した第2自車位置、ヨー角、車速を入力として、走行道路の曲率、縦位置誤差を考慮したカルマンフィルタ処理を行うことにより、道路曲率や縦位置誤差を考慮しない場合と比べて道路曲率を踏まえたヨー角の補正なども可能となり、自車両の地図上の位置の推定精度を向上させることができる。
[Operational effect of own vehicle position estimation device]
According to the vehicle
また、自車位置推定装置100によれば、図4に示すように、第3自車位置を一回推定した後は、第3自車位置を利用して次の自車位置推定処理を行うことができるので、毎回GPS受信部1のような車載の測位部を用いる必要がなく、自車両の地図上の位置について高い推定精度を維持することができる。
Moreover, according to the own vehicle
以上、本発明の好適な実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。 As mentioned above, although preferred embodiment of this invention was described, this invention is not limited to embodiment mentioned above. The present invention can be implemented in various forms including various modifications and improvements based on the knowledge of those skilled in the art including the above-described embodiments.
例えば、第2自車位置推定部15は、第2自車位置の推定において照合度合を用いる必要はない。この場合、照合度合算出部14は、第2自車位置の推定後に、疑似路面画像と路面画像との照合度合を算出してもよい。すなわち、図3のS14はS16の後に行われてもよい。また、S10〜S16と、S18の走行道路の曲率の取得は、S28のカルマンフィルタ処理より前に完了していればよく順番は限定されない。同様に、図4のS32は、S34の後に行われてもよい。S30〜S34と、S36の走行道路の曲率の取得は、S46のカルマンフィルタ処理の前に完了していればよく順番は限定されない。なお、図3に示す一回目の自車位置推定処理を示すフローチャートにおいて、S20でNOの場合(ランドマークを認識しない場合)にはS28のカルマンフィルタ処理を行わず、S20でYESの場合にのみS28のカルマンフィルタ処理を実行する態様であってもよい。
For example, the second vehicle
100…自車位置推定装置、10…ECU、1…GPS受信部(測位部)、2…カメラ、3…車速センサ、4…IMU、5…地図データベース、6…ランドマークデータベース(ランドマーク記憶部)、11…第1自車位置推定部、12…疑似路面画像生成部、13…路面画像変換部、14…照合度合算出部、15…第2自車位置推定部、16…曲率取得部、17…ランドマーク認識部、18…縦位置認識部、19…縦位置誤差認識部、20…ヨー角認識部、21…車速認識部、22…第3自車位置推定部。
DESCRIPTION OF
Claims (1)
前記路面画像と前記疑似路面画像との照合度合を算出する照合度合算出部と、
前記第1自車位置又は前記第2自車位置と前記地図情報とに基づいて、前記自車両の走行する走行道路の曲率を取得する曲率取得部と、
前記地図上のランドマークの位置情報を記憶するランドマーク記憶部と、
前記自車両のカメラの撮像した撮像画像に基づいて、前記撮像画像に含まれる前記ランドマークの画像位置座標を認識するランドマーク認識部と、
前記地図上の前記ランドマークの位置情報と、前記撮像画像に含まれる前記ランドマークの画像位置座標とに基づいて、前記走行道路の延在方向における前記自車両の位置である縦位置を認識する縦位置認識部と、
前記縦位置認識部の認識した前記縦位置と前記第2自車位置から得た前記自車両の縦位置との差である縦位置誤差を認識する縦位置誤差認識部と、
前記自車両のヨー角を認識するヨー角認識部と、
前記自車両の車速を認識する車速認識部と、
前記第2自車位置、前記照合度合、前記走行道路の曲率、前記縦位置誤差、前記ヨー角、及び前記車速に基づき、予め設定されたカルマンフィルタ処理によって、前記自車両の地図上の位置である第3自車位置を推定する第3自車位置推定部と、
を備える、自車位置推定装置。 Based on the first vehicle position, which is the position of the host vehicle on the map obtained from the on-vehicle positioning unit, a pseudo road surface image around the host vehicle is generated from the map information, and the captured image of the camera of the host vehicle A vehicle position estimation device that estimates a second vehicle position by comparing the road surface image obtained from the pseudo road surface image,
A matching degree calculation unit for calculating a matching degree between the road surface image and the pseudo road surface image;
A curvature acquisition unit that acquires a curvature of a traveling road on which the vehicle travels based on the first vehicle position or the second vehicle position and the map information;
A landmark storage unit for storing location information of landmarks on the map;
A landmark recognition unit that recognizes image position coordinates of the landmark included in the captured image based on a captured image captured by the camera of the host vehicle;
Based on position information of the landmark on the map and image position coordinates of the landmark included in the captured image, a vertical position that is the position of the host vehicle in the extending direction of the traveling road is recognized. A vertical position recognition unit;
A vertical position error recognizing unit for recognizing a vertical position error which is a difference between the vertical position recognized by the vertical position recognizing unit and the vertical position of the own vehicle obtained from the second own vehicle position;
A yaw angle recognition unit for recognizing the yaw angle of the host vehicle;
A vehicle speed recognition unit for recognizing the vehicle speed of the host vehicle;
Based on the second own vehicle position, the collation degree, the curvature of the traveling road, the vertical position error, the yaw angle, and the vehicle speed, a position on the map of the own vehicle by a preset Kalman filter process. A third vehicle position estimation unit for estimating a third vehicle position;
A vehicle position estimation device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016151777A JP6776707B2 (en) | 2016-08-02 | 2016-08-02 | Own vehicle position estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016151777A JP6776707B2 (en) | 2016-08-02 | 2016-08-02 | Own vehicle position estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018021777A true JP2018021777A (en) | 2018-02-08 |
JP6776707B2 JP6776707B2 (en) | 2020-10-28 |
Family
ID=61165406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016151777A Expired - Fee Related JP6776707B2 (en) | 2016-08-02 | 2016-08-02 | Own vehicle position estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6776707B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109752008A (en) * | 2019-03-05 | 2019-05-14 | 长安大学 | Intelligent vehicle multi-mode co-located system, method and intelligent vehicle |
JP2019196970A (en) * | 2018-05-09 | 2019-11-14 | トヨタ自動車株式会社 | Own vehicle position estimating device |
JP2019200160A (en) * | 2018-05-17 | 2019-11-21 | 株式会社Soken | Self-location estimation device |
JP2020008462A (en) * | 2018-07-10 | 2020-01-16 | トヨタ自動車株式会社 | Own vehicle location estimation device |
US10953886B2 (en) | 2018-10-31 | 2021-03-23 | Toyota Jidosha Kabushiki Kaisha | Vehicle localization system |
US20210278217A1 (en) * | 2018-10-24 | 2021-09-09 | Pioneer Corporation | Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium |
US11628830B2 (en) | 2019-12-06 | 2023-04-18 | Toyota Jidosha Kabushiki Kaisha | Automated valet parking system |
US11840215B2 (en) | 2019-12-06 | 2023-12-12 | Toyota Jidosha Kabushiki Kaisha | Automated valet parking system |
DE112021007310T5 (en) | 2021-03-18 | 2024-01-04 | Mitsubishi Electric Corporation | Own vehicle position integration processing apparatus and own vehicle position integration processing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331787A (en) * | 2000-05-19 | 2001-11-30 | Toyota Central Res & Dev Lab Inc | Road shape estimating device |
JP2006138834A (en) * | 2004-11-12 | 2006-06-01 | Mitsubishi Electric Corp | Navigation device, navigation system, navigation positioning method, and vehicle |
-
2016
- 2016-08-02 JP JP2016151777A patent/JP6776707B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331787A (en) * | 2000-05-19 | 2001-11-30 | Toyota Central Res & Dev Lab Inc | Road shape estimating device |
JP2006138834A (en) * | 2004-11-12 | 2006-06-01 | Mitsubishi Electric Corp | Navigation device, navigation system, navigation positioning method, and vehicle |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7052543B2 (en) | 2018-05-09 | 2022-04-12 | トヨタ自動車株式会社 | Vehicle position estimation device |
JP2019196970A (en) * | 2018-05-09 | 2019-11-14 | トヨタ自動車株式会社 | Own vehicle position estimating device |
CN110470309A (en) * | 2018-05-09 | 2019-11-19 | 丰田自动车株式会社 | This truck position apparatus for predicting |
JP2019200160A (en) * | 2018-05-17 | 2019-11-21 | 株式会社Soken | Self-location estimation device |
WO2019220765A1 (en) * | 2018-05-17 | 2019-11-21 | 株式会社Soken | Self-position estimation device |
JP2020008462A (en) * | 2018-07-10 | 2020-01-16 | トヨタ自動車株式会社 | Own vehicle location estimation device |
JP7025293B2 (en) | 2018-07-10 | 2022-02-24 | トヨタ自動車株式会社 | Vehicle position estimation device |
US20210278217A1 (en) * | 2018-10-24 | 2021-09-09 | Pioneer Corporation | Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium |
US10953886B2 (en) | 2018-10-31 | 2021-03-23 | Toyota Jidosha Kabushiki Kaisha | Vehicle localization system |
CN109752008A (en) * | 2019-03-05 | 2019-05-14 | 长安大学 | Intelligent vehicle multi-mode co-located system, method and intelligent vehicle |
US11628830B2 (en) | 2019-12-06 | 2023-04-18 | Toyota Jidosha Kabushiki Kaisha | Automated valet parking system |
US11840215B2 (en) | 2019-12-06 | 2023-12-12 | Toyota Jidosha Kabushiki Kaisha | Automated valet parking system |
DE112021007310T5 (en) | 2021-03-18 | 2024-01-04 | Mitsubishi Electric Corporation | Own vehicle position integration processing apparatus and own vehicle position integration processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6776707B2 (en) | 2020-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6776707B2 (en) | Own vehicle position estimation device | |
US9933268B2 (en) | Method and system for improving accuracy of digital map data utilized by a vehicle | |
JP4392389B2 (en) | Vehicle and lane recognition device | |
US11845471B2 (en) | Travel assistance method and travel assistance device | |
JP2022103164A (en) | Information processing device | |
JP7143722B2 (en) | Vehicle position estimation device | |
KR102441073B1 (en) | Apparatus for compensating sensing value of gyroscope sensor, system having the same and method thereof | |
WO2007132860A1 (en) | Object recognition device | |
JP4902575B2 (en) | Road sign recognition device and road sign recognition method | |
JP2007278813A (en) | Vehicle-position positioning device | |
JP2013036856A (en) | Driving support apparatus | |
JP2023054314A (en) | Information processing device, control method, program, and storage medium | |
JP6836446B2 (en) | Vehicle lane estimation device | |
JP2020003463A (en) | Vehicle's self-position estimating device | |
JP2020087191A (en) | Lane boundary setting apparatus and lane boundary setting method | |
EP4001844A1 (en) | Method and apparatus with localization | |
JP7025293B2 (en) | Vehicle position estimation device | |
JP7234840B2 (en) | position estimator | |
WO2019220765A1 (en) | Self-position estimation device | |
JP2019132762A (en) | Vehicle position estimating device | |
JP7051416B2 (en) | Self-position estimation device | |
JP5549468B2 (en) | Feature position acquisition apparatus, method and program | |
JP7136050B2 (en) | Vehicle position estimation device | |
JP7321034B2 (en) | Driving support method and driving support device | |
JP2021515183A (en) | How to choose a limited or empty set of hypotheses of possible positions of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200921 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6776707 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |