JP6776707B2 - Own vehicle position estimation device - Google Patents
Own vehicle position estimation device Download PDFInfo
- Publication number
- JP6776707B2 JP6776707B2 JP2016151777A JP2016151777A JP6776707B2 JP 6776707 B2 JP6776707 B2 JP 6776707B2 JP 2016151777 A JP2016151777 A JP 2016151777A JP 2016151777 A JP2016151777 A JP 2016151777A JP 6776707 B2 JP6776707 B2 JP 6776707B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- road surface
- unit
- landmark
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 229910003460 diamond Inorganic materials 0.000 description 3
- 239000010432 diamond Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000001105 regulatory effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、自車位置推定装置に関する。 The present invention relates to a vehicle position estimation device.
従来、自車位置推定装置に関する技術文献として、特開2001−331787号公報が知られている。この公報には、車載カメラの撮像した画像データから自車両の走行する道路の第1形状候補を抽出すると共に、地図データから前記道路の第2形状候補を抽出し、第1形状候補と第2形状候補との重なり状態に基づいて、道路上の自車両の位置を推定する装置が記載されている。この装置は、重なり状態の照合にカルマンフィルタを用いている。 Conventionally, Japanese Patent Application Laid-Open No. 2001-331787 is known as a technical document relating to a vehicle position estimation device. In this publication, the first shape candidate of the road on which the own vehicle travels is extracted from the image data captured by the in-vehicle camera, and the second shape candidate of the road is extracted from the map data, and the first shape candidate and the second shape candidate are extracted. A device for estimating the position of the own vehicle on the road based on the overlapping state with the shape candidate is described. This device uses a Kalman filter to collate the overlapping state.
ところで、自車両の位置を精度良く推定するため、車載カメラの姿勢(ヨー角など)を更に考慮する手法が知られている。しかしながら、車両のカーブ走行中などにはヨー角の誤差が累積して、自車両の位置の推定精度の低下を招くと言う問題があった。 By the way, in order to estimate the position of the own vehicle with high accuracy, a method of further considering the posture (yaw angle, etc.) of the in-vehicle camera is known. However, there is a problem that the yaw angle error accumulates during the curve running of the vehicle, which causes a decrease in the estimation accuracy of the position of the own vehicle.
そこで、本技術分野では、自車両の地図上の位置の推定精度を向上させることができる自車位置推定装置を提供することが望まれている。 Therefore, in the present technical field, it is desired to provide an own vehicle position estimation device capable of improving the estimation accuracy of the position of the own vehicle on the map.
上記課題を解決するため、本発明に係る自車位置推定装置は、車載の測位部から得られた自車両の地図上の位置である第1自車位置に基づいて、地図情報から自車両の周囲の疑似路面画像を生成し、自車両のカメラの撮像画像から得られた路面画像と疑似路面画像との照合により第2自車位置を推定する自車位置推定装置であって、路面画像と疑似路面画像との照合度合を算出する照合度合算出部と、 第1自車位置又は第2自車位置と地図情報とに基づいて、自車両の走行する走行道路の曲率を取得する曲率取得部と、地図上のランドマークの位置情報を記憶するランドマーク記憶部と、自車両のカメラの撮像した撮像画像に基づいて、撮像画像に含まれるランドマークの画像位置座標を認識するランドマーク認識部と、地図上のランドマークの位置情報と、撮像画像に含まれるランドマークの画像位置座標とに基づいて、走行道路の延在方向における自車両の位置である縦位置を認識する縦位置認識部と、縦位置認識部の認識した縦位置と第2自車位置から得た自車両の縦位置との差である縦位置誤差を認識する縦位置誤差認識部と、自車両のヨー角を認識するヨー角認識部と、自車両の車速を認識する車速認識部と、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、走行道路の曲率が小さいほどヨー角の時間微分であるヨーレートの観測ノイズが大きくなるように予め設定されたカルマンフィルタ処理によって、自車両の地図上の位置である第3自車位置を推定する第3自車位置推定部と、を備える。 In order to solve the above problem, the own vehicle position estimation device according to the present invention is based on the first own vehicle position which is the position on the map of the own vehicle obtained from the in-vehicle positioning unit, and is based on the map information of the own vehicle. It is a vehicle position estimation device that generates a pseudo road surface image of the surroundings and estimates the position of the second vehicle by collating the road surface image obtained from the image captured by the camera of the vehicle with the pseudo road surface image. A collation degree calculation unit that calculates the collation degree with a pseudo road surface image, and a curvature acquisition unit that acquires the curvature of the traveling road on which the own vehicle travels based on the first own vehicle position or the second own vehicle position and map information. A landmark storage unit that stores the position information of the landmarks on the map, and a landmark recognition unit that recognizes the image position coordinates of the landmarks included in the captured image based on the captured image captured by the camera of the own vehicle. A vertical position recognition unit that recognizes the vertical position of the own vehicle in the extending direction of the traveling road based on the position information of the landmark on the map and the image position coordinates of the landmark included in the captured image. The vertical position error recognition unit that recognizes the vertical position error, which is the difference between the vertical position recognized by the vertical position recognition unit and the vertical position of the own vehicle obtained from the second own vehicle position, and the yaw angle of the own vehicle are recognized. The yaw angle recognition unit, the vehicle speed recognition unit that recognizes the vehicle speed of the own vehicle, and the curvature of the traveling road based on the second own vehicle position, the degree of matching, the curvature of the driving road, the vertical position error, the yaw angle, and the vehicle speed. The third vehicle position estimation unit that estimates the position of the third vehicle, which is the position on the map of the vehicle, by the Kalman filter processing set in advance so that the smaller the value is, the larger the observation noise of the yaw rate, which is the time differential of the yaw angle. And.
以上説明したように、本発明に係る自車位置推定装置によれば、自車両の地図上の位置の推定精度を向上させることができる。 As described above, according to the own vehicle position estimation device according to the present invention, it is possible to improve the estimation accuracy of the position of the own vehicle on the map.
以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1に示す本実施形態に係る自車位置推定装置100は、車両(自車両)に搭載され、自車両の地図上の位置を推定する装置である。自車位置推定装置100は、地図情報から生成した疑似路面画像と車載のカメラで撮像した路面画像との照合結果及びカルマンフィルタを利用することで、精度の高い自車両の位置を推定する。
The own vehicle
[自車位置推定装置の構成]
図1に示すように、本実施形態に係る自車位置推定装置100は、装置を統括的に制御する [Electronic Control Unit]10を備えている。ECU10は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]、CAN[Controller Area Network]通信回路等を有する電子制御ユニットである。ECU10では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子制御ユニットから構成されていてもよい。
[Configuration of own vehicle position estimation device]
As shown in FIG. 1, the own vehicle
ECU10は、GPS[Global Positioning System]受信部1、カメラ2、車速センサ3、IMU[Inertial Measurement Unit]4、地図データベース5、及びランドマークデータベース6と接続されている。
The ECU 10 is connected to a GPS [Global Positioning System]
GPS受信部1は、3個以上のGPS衛星から信号を受信することにより、自車両の位置(例えば車両の緯度及び経度)を測定する車載の測位部として機能する。GPS受信部1は、測定した自車両の位置情報をECU10へ送信する。なお、車載の測位部は、GPS受信部1に限られない。
The
カメラ2は、自車両の周囲を撮像する撮像機器である。カメラ2は、例えば車両のフロントガラスの裏側に設けられて自車両の前方の路面を撮像する。カメラ2は、単眼カメラであってもよく、ステレオカメラであってもよい。カメラ2は、撮像画像の情報をECU10に送信する。カメラ2は複数のカメラから構成されていてもよい。
The
車速センサ3は、自車両の速度を検出する検出器である。車速センサ3としては、自車両の車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車速センサ3は、検出した車速情報をECU10に送信する。
The
IMU4は、自車両のロール角、ピッチ角、ヨー角を計測する慣性計測ユニットである。IMU4は、例えばジャイロセンサと加速度センサを含めて構成されている。IMU4は、検出した自車両の角度をECU10に送信する。なお、IMU4に代えてヨー角センサを採用してもよい。また、IMU4の代わりに、地図情報から生成した疑似路面画像と車載のカメラで撮像した路面画像との照合結果からヨー角を求めてもよい。
The IMU4 is an inertial measurement unit that measures the roll angle, pitch angle, and yaw angle of the own vehicle. The IMU4 is configured to include, for example, a gyro sensor and an acceleration sensor. The IMU4 transmits the detected angle of the own vehicle to the
地図データベース5は、地図情報を記憶するデータベースである。地図データベース5は、例えば、自車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、白線の位置情報、交差点及び分岐点の位置情報、及び建物の位置情報等が含まれる。なお、地図データベース5は、自車両と通信可能な管理センター等の施設のコンピュータに記憶されていてもよい。
The
ランドマークデータベース6は、ランドマークの情報を備えたランドマーク記憶部である。ランドマークデータベース6は、例えば、自車両に搭載されたHDD内に形成されている。ランドマークとは、道路面上(車両通行帯以外の路面上も含む)で位置が固定され、物体の位置の算出の基準となるものである。ランドマークには、道路標識、及び道路標示が含まれる。道路標識には、案内標識、警戒標識、規制標識、指示標識等がある。道路標示には、規制標示と指示標示が含まれる。規制標示には、転回禁止マーク、最高速度マーク等がある。指示標示には、白線(車道中央線、車道外側線、車線境界線等)、前方に横断歩道があることを示す菱形マーク、前方に優先道路があることを示す三角マーク、進行方向マーク、信号機、デニレータ、トンネルの出入口、ETCゲートの出入口等がある。
The
ランドマークデータベース6は、ランドマークの地図上の位置情報を記憶している。すなわち、ランドマークデータベース6は、地図データベース5の記憶している地図情報に関連付けられたランドマークの位置情報を記憶している。また、ランドマークデータベース6は、カメラ2の撮像画像からランドマークを認識するためのランドマークの画像情報を記憶している。なお、地図データベース5がランドマークデータベース6の機能を兼ねていてもよい。
The
次に、ECU10の機能的構成について説明する。ECU10は、第1自車位置推定部11、疑似路面画像生成部12、路面画像変換部13、照合度合算出部14、第2自車位置推定部15、曲率取得部16を有している。また、ECU10は、ランドマーク認識部17、縦位置認識部18、縦位置誤差認識部19、ヨー角認識部20、車速認識部21、及び第3自車位置推定部22を有している。
Next, the functional configuration of the
第1自車位置推定部11は、GPS受信部1などの車載の測位部の測位結果と地図データベース5の地図情報に基づいて、自車両の地図上の位置である第1自車位置を推定する。第1自車位置推定部11は、車載の測位部の測位結果から周知の手法により第1自車位置(緯度、経度)を推定する。
The first vehicle
疑似路面画像生成部12は、第1自車位置と地図情報(白線の位置情報)に基づいて、第1自車位置の周囲の疑似路面画像を生成する。疑似路面画像とは、地図情報に含まれる白線の位置情報などから擬似的に生成された道路の路面の画像である。疑似路面画像は、例えば、平面視の路面の画像に対応するように生成される。疑似路面画像生成部12は、第1自車位置と地図情報から、周知の手法により疑似路面画像を生成する。
The pseudo road surface
路面画像変換部13は、カメラ2の撮像画像(路面を含む画像)を平面視の路面画像に変換する。路面画像変換部13は、疑似路面画像と照合可能にするため、周知の手法(例えば視点変換処理)によりカメラ2の撮像画像を路面画像に変換する。なお、疑似路面画像と照合可能であれば平面視の路面画像に変換する必要はない。
The road surface
照合度合算出部14は、疑似路面画像と路面画像との照合度合を算出する。照合度合とは、地図情報から生成された疑似路面画像とカメラ2の撮像画像から得られた路面画像との一致の度合いに相当する。照合度合が高いほど、疑似路面画像と路面画像とは一致している。照合度合算出部14は、例えば、疑似路面画像と路面画像との照合度合として、道路の白線の照合度合を算出する。照合度合算出部14は、周知の手法により疑似路面画像と路面画像との照合度合を算出する。
The collation
第2自車位置推定部15は、疑似路面画像と路面画像に基づいて、自車両の地図上の位置である第2自車位置を推定する。第2自車位置推定部15は、疑似路面画像及び路面画像から周知の手法により第2自車位置(緯度、経度)を推定する。
The second vehicle
第2自車位置推定部15は、照合度合算出部14の算出した照合度合を用いてもよい。第2自車位置推定部15は、例えば、車載のカメラ2の撮像画像から得られた路面画像との照合度合が所定の閾値以上の疑似路面画像のうち、最も照合度合が高い疑似路面画像を特定する。第2自車位置推定部15は、特定した疑似路面画像が生成された地図における位置情報を利用して、第2自車位置を推定する。第2自車位置推定部15は、周知の手法により疑似路面画像と路面画像との照合を用いた第2自車位置の推定を行う。
The second own vehicle
曲率取得部16は、第2自車位置及び地図情報に基づいて、自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置から自車両が走行する走行道路を特定し、地図情報に含まれる道路曲率の情報に基づいて走行道路の曲率を取得する。なお、曲率取得部16は、第2自車位置ではなく、第1自車位置を用いて自車両の走行道路の曲率を取得してもよい。
The
ランドマーク認識部17は、カメラ2の撮像画像とランドマークデータベース6に記憶されたランドマークの情報に基づいて、撮像画像に含まれるランドマークを認識する。ランドマーク認識部17は、例えばパターン認識又はエッジ抽出により画像中のランドマークを認識する。
The
ランドマーク認識部17は、撮像画像に含まれるランドマークを認識した場合、周知の画像処理によって撮像画像におけるランドマークの画像位置座標を認識する。ランドマークの画像位置座標とは、撮像画像中におけるランドマークの画像の位置の座標である。例えば、路面上の道路標示である菱形マークの画像位置座標は、撮像画像における菱形マークの中心の座標とすることができる。ランドマーク認識部17は、周知の手法によりランドマークの画像位置座標を認識する。
When the
縦位置認識部18は、ランドマーク認識部17がランドマークの画像位置座標を認識した場合、撮像画像におけるランドマークの画像位置座標と地図上のランドマークの位置情報とに基づいて、自車両の縦位置を認識する。自車両の縦位置とは、自車両の走行する走行道路の延在方向における自車両の位置である。縦位置認識部18は、周知の手法によりランドマークを用いた自車両の縦位置の認識を行う。
When the
縦位置誤差認識部19は、縦位置認識部18が自車両の縦位置を認識した場合、縦位置誤差を算出する。縦位置誤差とは、縦位置認識部18の認識した自車両の縦位置と第2自車位置から得られる自車両の縦位置との差である。縦位置誤差認識部19は、例えば、走行道路の延在方向を基準として第2自車位置と縦位置認識部18の認識した自車両の縦位置との差を取ることで、縦位置誤差を算出する。縦位置誤差認識部19は、周知の手法により縦位置誤差を算出する。
The vertical position
ヨー角認識部20は、IMU4の計測したヨー角に基づいて、自車両のヨー角を認識する。車速認識部21は、車速センサ3の検出した車速に基づいて、自車両の車速を認識する。
The yaw
第3自車位置推定部22は、縦位置誤差認識部19が自車両の縦位置誤差を認識した場合、自車両の地図上の位置である第3自車位置を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって第3自車位置を推定する。また、第3自車位置推定部22は、上記カルマンフィルタ処理の出力結果として第3自車位置の他に自車両のヨー角を出力する。以後、カルマンフィルタ処理により推定されたヨー角を第2ヨー角と称する。
When the vertical position
以下、本実施形態に係るカルマンフィルタ処理について説明する。下記の式(1)は、カルマンフィルタ処理における状態量uを示す式である。式(1)において、Eは自車両の緯度、Nは自車両の経度、φは自車両のヨー角、Vは自車両の車速、φ′(φにドット)は自車両のヨーレートである。Tは行列の転置を表わしている。式(2)は、カルマンフィルタ処理における観測量vを示す式である。式(2)において、Ecは第2自車位置における緯度、Ncは第2自車位置における経度、φcはヨー角認識部20の認識したヨー角、Vcは車速認識部21の認識した車速、φ′cはφcを微分したヨーレートである。
続いて、観測方程式について説明する。カルマンフィルタ処理の観測方程式を下記の式(3)として示す。式(3)においてHは単位行列である。Rnは観測ノイズである。kは時系列を表わしている。式(4)では、式(3)を行列式で表わしている。
下記の式(5)は、観測ノイズRnを示す行列式である。式(5)において、ccは、照合度合算出部14の算出した照合度合である。err_lonは、縦位置誤差認識部19の認識した縦位置誤差である。A1、A2、A3は定数である。GE(cc,err_lon)、GR(cc,err_lon)、GYR(R)は関数である。式(6)は、関数GYRを示す式である。式(6)において、Rは自車両の走行道路の曲率である。A4、A5、A6は定数である。式(6)には、曲率Rが小さいときに、ヨーレートの観測ノイズが大きくなりやすい特性が反映されている。
ここで、図2は、式(5)におけるGE(cc,err_lon)を求めるためのデータテーブルの例である。図2に示すaは定数である。図2のデータテーブルは、照合度合ccが大きいとき、また、縦位置誤差err_lonが小さいときに観測ノイズが小さくなるように設定されている。図2に示すように、照合度合ccと縦位置誤差err_lonが決まれば予め設定されたデータテーブルなどを利用して、GE(cc,err_lon)の値を求めることができる。GR(cc,err_lon)についても、同様のデータテーブルを用いて値を求めることができる。例えば、図2における定数aを適切な定数bに置き換えることで、GR(cc,err_lon)のデータテーブルとすることができる。 Here, FIG. 2 is an example of a data table for obtaining GE (cc, err_lon) in the equation (5). A shown in FIG. 2 is a constant. The data table of FIG. 2 is set so that the observed noise becomes small when the collation degree cc is large and when the vertical position error err_lon is small. As shown in FIG. 2, if the degree of collation cc and the vertical position error err_lon are determined, the value of GE (cc, err_lon) can be obtained by using a preset data table or the like. G R (cc, err_lon) for also, it is possible to obtain the value by using the same data table. For example, by replacing the constant a in FIG. 2 to the appropriate constant b, it can be a data table G R (cc, err_lon).
次に、状態方程式について説明する。カルマンフィルタ処理の状態方程式を下記の式(7)として示す。式(7)において、Fは偏微分可能な行列である。Qnは状態ノイズ(システムノイズ)である。k+1は、離散時刻kの直後の離散時刻であることを意味している。式(7)から状態ノイズQnを省略して展開した式として、式(8)〜式(12)を以下に示す。なお、式(8)〜式(10)に示すdtは離散時刻kから離散時刻k+1への遷移時間を意味している。
下記の式(13)は、状態ノイズQnを示す行列式である。式(13)において、B1、B2、B3、B4は定数である。Fpos(R)は曲率Rの関数である。Fyaw(φ)はヨー角φの関数である。式(14)は、関数Fpos(R)を示す式である。式(14)において、B5、B6,B7は定数である。関数Fyaw(R)を示す式である。式(15)において、B8、B9,B10は定数である。
第3自車位置推定部22は、以上説明した式(1)〜式(15)を利用したカルマンフィルタ処理により、第3自車位置及びヨー角を推定することができる。このカルマンフィルタ処理によれば、観測ノイズRnにおいて照合度合cc、縦位置誤差err_lon、及び曲率Rを考慮することにより、これらを考慮しない場合と比べて、第3自車位置の推定精度を向上させることができる。また、状態ノイズQnにおいて、縦位置誤差err_lon及び曲率Rを考慮することにより、これらを考慮しない場合と比べて、第3自車位置の推定精度を向上させることができる。
The third vehicle
[自車位置推定装置における自車位置推定処理]
以下、本実施形態に係る自車位置推定装置100における自車位置推定処理について図面を参照して説明する。図3は、一回目の自車位置推定処理を示すフローチャートである。図3のフローチャートは、例えば、自車両が走行を開始した場合に実施される。
[Own vehicle position estimation process in own vehicle position estimation device]
Hereinafter, the own vehicle position estimation process in the own vehicle
図3に示すように、自車位置推定装置100のECU10は、S10として、第1自車位置推定部11による第1自車位置の推定を行う。第1自車位置推定部11は、車載の測位部(例えばGPS受信部1)の測位結果に基づいて、第1自車位置を推定する。
As shown in FIG. 3, the
S12において、ECU10は、疑似路面画像生成部12により疑似路面画像を生成する。疑似路面画像生成部12は、第1自車位置と地図情報(白線の位置情報)に基づいて、第1自車位置の周囲の疑似路面画像を生成する。また、ECU10は、路面画像変換部13によりカメラ2の撮像画像を平面視の路面画像(疑似路面画像と対比できる路面画像)に変換する。
In S12, the
S14において、ECU10は、照合度合算出部14により疑似路面画像と路面画像との照合度合を算出する。照合度合が高いほど、疑似路面画像と路面画像の一致度が高い。
In S14, the
S16において、ECU10は、第2自車位置推定部15により第2自車位置を推定する。第2自車位置推定部15は、疑似路面画像と路面画像に基づいて、第2自車位置を推定する。第2自車位置推定部15は、例えば、車載のカメラ2の撮像画像から得られた路面画像との照合度合が所定の閾値以上の疑似路面画像のうち、最も照合度合が高い疑似路面画像を特定し、特定した疑似路面画像が生成された地図の位置情報を利用して第2自車位置を推定する。
In S16, the
S18において、ECU10は、曲率取得部16により自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置及び地図情報に基づいて、第2自車位置から自車両が走行する走行道路を特定し、地図情報から走行道路の曲率を取得する。
In S18, the
S20において、ECU10は、ランドマーク認識部17によりカメラ2の撮像画像に含まれるランドマークを認識したか否かを判定する。ランドマーク認識部17は、カメラ2の撮像画像とランドマークデータベース6に記憶されたランドマークの情報に基づいて、撮像画像に含まれるランドマークを認識する。ECU10は、撮像画像に含まれるランドマークを認識したと判定した場合(S20:YES)、S22に移行する。
In S20, the
一方、ECU10は、撮像画像に含まれるランドマークを認識しない(撮像画像中にランドマークが存在しない)と判定した場合(S20:NO)、S28に移行する。
On the other hand, when the
S22において、ECU10は、ランドマーク認識部17により撮像画像におけるランドマークの画像位置座標を認識する。ランドマーク認識部17は、例えば、道路標示である菱形マークの画像位置座標として、撮像画像内における菱形マークの中心の座標を認識することができる。
In S22, the
S24において、ECU10は、縦位置認識部18により自車両の縦位置を認識する。縦位置認識部18は、撮像画像におけるランドマークの画像位置座標と地図上のランドマークの位置情報とに基づいて、自車両の縦位置を認識する。
In S24, the
S26において、ECU10は、縦位置誤差認識部19により縦位置誤差を算出する。縦位置誤差認識部19は、縦位置認識部18の認識した自車両の縦位置と第2自車位置から得た自車両の縦位置との差として、縦位置誤差を算出する。
In S26, the
S28において、ECU10は、第3自車位置推定部22により第3自車位置及び第2ヨー角を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって第3自車位置及び第2ヨー角を推定する。第3自車位置推定部22は、例えば、上述した式(1)〜式(15)を利用したカルマンフィルタ処理により、第3自車位置及び第2ヨー角を推定することができる。ECU10は、推定した第3自車位置を自車両の地図上の位置として外部(例えば、ナビゲーションシステム、運転支援装置、自動運転装置)に出力する。ここで、S20でNOの場合(ランドマークを認識しない場合)には、縦位置誤差を予め設定された最大値と仮定してカルマンフィルタ処理を実行する。この場合、図2の表においては最大値となる「2≦err_lon」の欄の値が照合度合ccとの関係で用いられることになる。
In S28, the
なお、図3のフローチャートとは別に、ヨー角認識部20による自車両のヨー角の認識と車速認識部21による自車両の車速の認識は、センサ側の性能に応じて所定間隔で実行されている。
In addition to the flowchart of FIG. 3, the yaw
図4は、二回目以降の自車位置推定処理を示すフローチャートである。図4に示すフローチャートは、例えば、自車両が走行を開始してから一回目のカルマンフィルタ処理により第3自車位置及びヨー角を得られた場合に実行される。 FIG. 4 is a flowchart showing the own vehicle position estimation process from the second time onward. The flowchart shown in FIG. 4 is executed, for example, when the third own vehicle position and yaw angle are obtained by the first Kalman filter processing after the own vehicle starts traveling.
図4に示すように、ECU10は、S30として、疑似路面画像生成部12により疑似路面画像を生成する。疑似路面画像生成部12は、第3自車位置が一度推定された場合、推定精度の高い第3自車位置と地図情報(白線の位置情報)に基づいて、第3自車位置の周囲の疑似路面画像を生成する。また、ECU10は、路面画像変換部13によりカメラ2の撮像画像を平面視の路面画像(疑似路面画像と対比できる路面画像)に変換する。
As shown in FIG. 4, the
S32において、ECU10は、照合度合算出部14により疑似路面画像と路面画像との照合度合を算出する。この疑似路面画像は、第3自車位置の周囲の疑似路面画像である。
In S32, the
S34において、ECU10は、第2自車位置推定部15により第2自車位置を推定する。第2自車位置推定部15は、第3自車位置の周囲の疑似路面画像と路面画像に基づいて、今回の第2自車位置を推定する。
In S34, the
S36において、ECU10は、曲率取得部16により自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置及び地図情報に基づいて走行道路の曲率を取得する。
In S36, the
S38において、ECU10は、ランドマーク認識部17によりカメラ2の撮像画像に含まれるランドマークを認識したか否かを判定する。ECU10は、撮像画像に含まれるランドマークを認識したと判定した場合(S38:YES)、S40に移行する。
In S38, the
一方、ECU10は、撮像画像に含まれるランドマークを認識しないと判定した場合(S38:NO)、S46に移行する。
On the other hand, when the
S40〜S44は、図3に示すS22〜S26と同じ処理であるため説明は簡潔にする。S40において、ECU10は、ランドマーク認識部17により撮像画像におけるランドマークの画像位置座標を認識する。S42において、ECU10は、縦位置認識部18により自車両の縦位置を認識する。S44において、ECU10は、縦位置誤差認識部19により縦位置誤差を算出する。
Since S40 to S44 are the same processes as S22 to S26 shown in FIG. 3, the description will be simplified. In S40, the
S46において、ECU10は、第3自車位置推定部22により今回の第3自車位置及び今回の第2ヨー角を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、前回の第2ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって今回の第3自車位置及び今回の第2ヨー角を推定する。
In S46, the
第3自車位置推定部22は、例えば、上述した式(1)〜式(15)を利用したカルマンフィルタ処理により、今回の第3自車位置及び今回の第2ヨー角を推定することができる。この場合には、式(1)のヨー角φとして前回の第2ヨー角(前回のカルマンフィルタ処理で推定されたヨー角)が用いられる。
The third vehicle
なお、必ずしも前回の第2ヨー角を用いる必要はなく、ヨー角認識部20の認識した自車両のヨー角を用いてカルマンフィルタ処理を実行してもよい。また、S38でNOの場合(ランドマークを認識しない場合)には、前回の処理で用いた縦位置誤差を利用してカルマンフィルタ処理を行う。ECU10は、推定した今回の第3自車位置を自車両の地図上の位置として外部に出力する。その後、ECU10は、所定時間の経過後、今回の第3自車位置を用いて再びS30から処理を繰り返す。
It is not always necessary to use the previous second yaw angle, and the Kalman filter process may be executed using the yaw angle of the own vehicle recognized by the yaw
[自車位置推定装置の作用効果]
以上説明した本実施形態に係る自車位置推定装置100によれば、地図情報から生成した疑似路面画像と車載カメラの撮像した路面画像の照合により推定した第2自車位置、ヨー角、車速を入力として、走行道路の曲率、縦位置誤差を考慮したカルマンフィルタ処理を行うことにより、道路曲率や縦位置誤差を考慮しない場合と比べて道路曲率を踏まえたヨー角の補正なども可能となり、自車両の地図上の位置の推定精度を向上させることができる。
[Effect of own vehicle position estimation device]
According to the own vehicle
また、自車位置推定装置100によれば、図4に示すように、第3自車位置を一回推定した後は、第3自車位置を利用して次の自車位置推定処理を行うことができるので、毎回GPS受信部1のような車載の測位部を用いる必要がなく、自車両の地図上の位置について高い推定精度を維持することができる。
Further, according to the own vehicle
以上、本発明の好適な実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。 Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment. The present invention can be carried out in various forms having various modifications and improvements based on the knowledge of those skilled in the art, including the above-described embodiment.
例えば、第2自車位置推定部15は、第2自車位置の推定において照合度合を用いる必要はない。この場合、照合度合算出部14は、第2自車位置の推定後に、疑似路面画像と路面画像との照合度合を算出してもよい。すなわち、図3のS14はS16の後に行われてもよい。また、S10〜S16と、S18の走行道路の曲率の取得は、S28のカルマンフィルタ処理より前に完了していればよく順番は限定されない。同様に、図4のS32は、S34の後に行われてもよい。S30〜S34と、S36の走行道路の曲率の取得は、S46のカルマンフィルタ処理の前に完了していればよく順番は限定されない。なお、図3に示す一回目の自車位置推定処理を示すフローチャートにおいて、S20でNOの場合(ランドマークを認識しない場合)にはS28のカルマンフィルタ処理を行わず、S20でYESの場合にのみS28のカルマンフィルタ処理を実行する態様であってもよい。
For example, the second vehicle
100…自車位置推定装置、10…ECU、1…GPS受信部(測位部)、2…カメラ、3…車速センサ、4…IMU、5…地図データベース、6…ランドマークデータベース(ランドマーク記憶部)、11…第1自車位置推定部、12…疑似路面画像生成部、13…路面画像変換部、14…照合度合算出部、15…第2自車位置推定部、16…曲率取得部、17…ランドマーク認識部、18…縦位置認識部、19…縦位置誤差認識部、20…ヨー角認識部、21…車速認識部、22…第3自車位置推定部。 100 ... Vehicle position estimation device, 10 ... ECU, 1 ... GPS receiver (positioning unit), 2 ... Camera, 3 ... Vehicle speed sensor, 4 ... IMU, 5 ... Map database, 6 ... Landmark database (landmark storage unit) ), 11 ... 1st vehicle position estimation unit, 12 ... pseudo road surface image generation unit, 13 ... road surface image conversion unit, 14 ... collation degree calculation unit, 15 ... second vehicle position estimation unit, 16 ... curvature acquisition unit, 17 ... Landmark recognition unit, 18 ... Vertical position recognition unit, 19 ... Vertical position error recognition unit, 20 ... Yaw angle recognition unit, 21 ... Vehicle speed recognition unit, 22 ... Third vehicle position estimation unit.
Claims (1)
前記路面画像と前記疑似路面画像との照合度合を算出する照合度合算出部と、
前記第1自車位置又は前記第2自車位置と前記地図情報とに基づいて、前記自車両の走行する走行道路の曲率を取得する曲率取得部と、
前記地図上のランドマークの位置情報を記憶するランドマーク記憶部と、
前記自車両のカメラの撮像した撮像画像に基づいて、前記撮像画像に含まれる前記ランドマークの画像位置座標を認識するランドマーク認識部と、
前記地図上の前記ランドマークの位置情報と、前記撮像画像に含まれる前記ランドマークの画像位置座標とに基づいて、前記走行道路の延在方向における前記自車両の位置である縦位置を認識する縦位置認識部と、
前記縦位置認識部の認識した前記縦位置と前記第2自車位置から得た前記自車両の縦位置との差である縦位置誤差を認識する縦位置誤差認識部と、
前記自車両のヨー角を認識するヨー角認識部と、
前記自車両の車速を認識する車速認識部と、
前記第2自車位置、前記照合度合、前記走行道路の曲率、前記縦位置誤差、前記ヨー角、及び前記車速に基づき、前記走行道路の曲率が小さいほど前記ヨー角の時間微分であるヨーレートの観測ノイズが大きくなるように予め設定されたカルマンフィルタ処理によって、前記自車両の地図上の位置である第3自車位置を推定する第3自車位置推定部と、
を備える、自車位置推定装置。 Based on the position of the first own vehicle, which is the position on the map of the own vehicle obtained from the in-vehicle positioning unit, a pseudo road surface image around the own vehicle is generated from the map information, and the captured image of the camera of the own vehicle is generated. This is a vehicle position estimation device that estimates the position of the second vehicle by collating the road surface image obtained from the above with the pseudo road surface image.
A collation degree calculation unit that calculates a collation degree between the road surface image and the pseudo road surface image,
A curvature acquisition unit that acquires the curvature of the traveling road on which the own vehicle travels based on the first own vehicle position or the second own vehicle position and the map information.
A landmark storage unit that stores the location information of landmarks on the map,
A landmark recognition unit that recognizes the image position coordinates of the landmark included in the captured image based on the captured image captured by the camera of the own vehicle.
Based on the position information of the landmark on the map and the image position coordinates of the landmark included in the captured image, the vertical position which is the position of the own vehicle in the extending direction of the traveling road is recognized. Vertical position recognition unit and
A vertical position error recognition unit that recognizes a vertical position error that is a difference between the vertical position recognized by the vertical position recognition unit and the vertical position of the own vehicle obtained from the second own vehicle position.
The yaw angle recognition unit that recognizes the yaw angle of the own vehicle and
The vehicle speed recognition unit that recognizes the vehicle speed of the own vehicle and
Based on the second vehicle position, the degree of collation, the curvature of the traveling road, the vertical position error, the yaw angle, and the vehicle speed, the smaller the curvature of the traveling road, the more the yaw rate is the time derivative of the yaw angle. A third vehicle position estimation unit that estimates the position of the third vehicle, which is the position on the map of the vehicle, by Kalman filter processing preset so as to increase the observation noise .
A vehicle position estimation device equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016151777A JP6776707B2 (en) | 2016-08-02 | 2016-08-02 | Own vehicle position estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016151777A JP6776707B2 (en) | 2016-08-02 | 2016-08-02 | Own vehicle position estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018021777A JP2018021777A (en) | 2018-02-08 |
JP6776707B2 true JP6776707B2 (en) | 2020-10-28 |
Family
ID=61165406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016151777A Expired - Fee Related JP6776707B2 (en) | 2016-08-02 | 2016-08-02 | Own vehicle position estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6776707B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7052543B2 (en) * | 2018-05-09 | 2022-04-12 | トヨタ自動車株式会社 | Vehicle position estimation device |
JP6766843B2 (en) * | 2018-05-17 | 2020-10-14 | 株式会社Soken | Self-position estimator |
JP7025293B2 (en) * | 2018-07-10 | 2022-02-24 | トヨタ自動車株式会社 | Vehicle position estimation device |
EP3872454A4 (en) * | 2018-10-24 | 2022-08-10 | Pioneer Corporation | Measurement accuracy calculation device, host position estimation device, control method, program, and storage medium |
JP7143722B2 (en) | 2018-10-31 | 2022-09-29 | トヨタ自動車株式会社 | Vehicle position estimation device |
CN109752008B (en) * | 2019-03-05 | 2021-04-13 | 长安大学 | Intelligent vehicle multi-mode cooperative positioning system and method and intelligent vehicle |
JP7172973B2 (en) | 2019-12-06 | 2022-11-16 | トヨタ自動車株式会社 | automatic parking system |
JP7188372B2 (en) | 2019-12-06 | 2022-12-13 | トヨタ自動車株式会社 | automatic parking system |
CN116964415A (en) | 2021-03-18 | 2023-10-27 | 三菱电机株式会社 | Vehicle position comprehensive treatment device and vehicle position comprehensive treatment method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331787A (en) * | 2000-05-19 | 2001-11-30 | Toyota Central Res & Dev Lab Inc | Road shape estimating device |
US7228230B2 (en) * | 2004-11-12 | 2007-06-05 | Mitsubishi Denki Kabushiki Kaisha | System for autonomous vehicle navigation with carrier phase DGPS and laser-scanner augmentation |
-
2016
- 2016-08-02 JP JP2016151777A patent/JP6776707B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2018021777A (en) | 2018-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6776707B2 (en) | Own vehicle position estimation device | |
JP6870604B2 (en) | Self-position estimator | |
JP4724043B2 (en) | Object recognition device | |
JP6859927B2 (en) | Vehicle position estimation device | |
JP4680131B2 (en) | Own vehicle position measuring device | |
JP7143722B2 (en) | Vehicle position estimation device | |
JP7013727B2 (en) | Vehicle control device | |
KR102441073B1 (en) | Apparatus for compensating sensing value of gyroscope sensor, system having the same and method thereof | |
KR20180080828A (en) | Method for recognizing lane-level vehicle positioning information based on lidar map matching, recording medium and device for performing the method | |
JP6828655B2 (en) | Own vehicle position estimation device | |
JP6836446B2 (en) | Vehicle lane estimation device | |
JP2013036856A (en) | Driving support apparatus | |
JP6943127B2 (en) | Position correction method, vehicle control method and position correction device | |
CN114518119A (en) | Positioning method and device | |
JP2020003463A (en) | Vehicle's self-position estimating device | |
JP2019060814A (en) | Self-driving own vehicle location detection device | |
JP4924270B2 (en) | Road information acquisition device, road information acquisition method, and road information acquisition program | |
JP7025293B2 (en) | Vehicle position estimation device | |
JP2019132762A (en) | Vehicle position estimating device | |
WO2021045096A1 (en) | Position specification device for vehicle and position specification method for vehicle | |
JP6790951B2 (en) | Map information learning method and map information learning device | |
JP6784629B2 (en) | Vehicle steering support device | |
JP7234840B2 (en) | position estimator | |
US11131552B2 (en) | Map generation system | |
JP5549468B2 (en) | Feature position acquisition apparatus, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200921 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6776707 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |