JP2018021777A - Own vehicle position estimation device - Google Patents

Own vehicle position estimation device Download PDF

Info

Publication number
JP2018021777A
JP2018021777A JP2016151777A JP2016151777A JP2018021777A JP 2018021777 A JP2018021777 A JP 2018021777A JP 2016151777 A JP2016151777 A JP 2016151777A JP 2016151777 A JP2016151777 A JP 2016151777A JP 2018021777 A JP2018021777 A JP 2018021777A
Authority
JP
Japan
Prior art keywords
vehicle
host vehicle
road surface
unit
vertical position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016151777A
Other languages
Japanese (ja)
Other versions
JP6776707B2 (en
Inventor
国狭 亜輝臣
Akiomi Kokusa
亜輝臣 国狭
皓之 石田
Hiroyuki Ishida
皓之 石田
淳一 目黒
Junichi Meguro
淳一 目黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016151777A priority Critical patent/JP6776707B2/en
Publication of JP2018021777A publication Critical patent/JP2018021777A/en
Application granted granted Critical
Publication of JP6776707B2 publication Critical patent/JP6776707B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the estimation accuracy of a position of an own vehicle in a map.SOLUTION: An own vehicle position estimation device includes: a vertical position recognition part for recognizing a vertical position which is a position of an own vehicle in an extention direction of a travel road on the basis of position information of a land mark in a map based on a first own vehicle position which is a position of the own vehicle in the map acquired by an on-vehicle positioning part and image position coordinates of the land mark included in a picked-up image; a vertical position error recognition part for recognizing a vertical position error which is a difference between the vertical position recognized by the vertical position recognition part and a vertical position of the own vehicle acquired from a second own vehicle position; and a third own vehicle position estimation part for estimating a third own vehicle position which is a position of the own vehicle in the map by preset Kalman filter processing on the basis of the second own vehicle position, the degree of collation between a road surface image and a pseudo road surface image, the curvature of the travel road, the vertical position error, the yaw-angle and the vehicle speed.SELECTED DRAWING: Figure 3

Description

本発明は、自車位置推定装置に関する。   The present invention relates to a host vehicle position estimation device.

従来、自車位置推定装置に関する技術文献として、特開2001−331787号公報が知られている。この公報には、車載カメラの撮像した画像データから自車両の走行する道路の第1形状候補を抽出すると共に、地図データから前記道路の第2形状候補を抽出し、第1形状候補と第2形状候補との重なり状態に基づいて、道路上の自車両の位置を推定する装置が記載されている。この装置は、重なり状態の照合にカルマンフィルタを用いている。   Conventionally, JP-A-2001-331787 is known as a technical document related to the vehicle position estimation apparatus. In this publication, a first shape candidate of a road on which the vehicle travels is extracted from image data captured by an in-vehicle camera, a second shape candidate of the road is extracted from map data, and a first shape candidate and a second shape candidate are extracted. An apparatus for estimating the position of the host vehicle on the road based on the overlapping state with the shape candidate is described. This apparatus uses a Kalman filter for collation of overlapping states.

特開2001−331787号公報JP 2001-331787 A

ところで、自車両の位置を精度良く推定するため、車載カメラの姿勢(ヨー角など)を更に考慮する手法が知られている。しかしながら、車両のカーブ走行中などにはヨー角の誤差が累積して、自車両の位置の推定精度の低下を招くと言う問題があった。   By the way, in order to estimate the position of the own vehicle with high accuracy, a method for further considering the posture (yaw angle or the like) of the in-vehicle camera is known. However, there is a problem that the yaw angle error accumulates while the vehicle is traveling on a curve and the like, leading to a decrease in the estimation accuracy of the position of the host vehicle.

そこで、本技術分野では、自車両の地図上の位置の推定精度を向上させることができる自車位置推定装置を提供することが望まれている。   Therefore, in the present technical field, it is desired to provide an own vehicle position estimation device that can improve the estimation accuracy of the position of the own vehicle on the map.

上記課題を解決するため、本発明に係る自車位置推定装置は、車載の測位部から得られた自車両の地図上の位置である第1自車位置に基づいて、地図情報から自車両の周囲の疑似路面画像を生成し、自車両のカメラの撮像画像から得られた路面画像と疑似路面画像との照合により第2自車位置を推定する自車位置推定装置であって、路面画像と疑似路面画像との照合度合を算出する照合度合算出部と、第1自車位置又は第2自車位置と地図情報とに基づいて、自車両の走行する走行道路の曲率を取得する曲率取得部と、地図上のランドマークの位置情報を記憶するランドマーク記憶部と、自車両のカメラの撮像した撮像画像に基づいて、撮像画像に含まれるランドマークの画像位置座標を認識するランドマーク認識部と、地図上のランドマークの位置情報と、撮像画像に含まれるランドマークの画像位置座標とに基づいて、走行道路の延在方向における自車両の位置である縦位置を認識する縦位置認識部と、縦位置認識部の認識した縦位置と第2自車位置から得た自車両の縦位置との差である縦位置誤差を認識する縦位置誤差認識部と、自車両のヨー角を認識するヨー角認識部と、自車両の車速を認識する車速認識部と、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって、自車両の地図上の位置である第3自車位置を推定する第3自車位置推定部と、を備える。   In order to solve the above-described problem, an own vehicle position estimation device according to the present invention is based on map information and is based on a first own vehicle position, which is a position on a map of the own vehicle obtained from an in-vehicle positioning unit. A host vehicle position estimation device that generates a surrounding pseudo road surface image and estimates a second host vehicle position by comparing a road surface image obtained from a captured image of a camera of the host vehicle and a pseudo road surface image, A matching degree calculation unit that calculates a matching degree with the pseudo road surface image, and a curvature acquisition unit that acquires the curvature of the traveling road on which the host vehicle travels based on the first host vehicle position or the second host vehicle position and the map information. A landmark storage unit that stores position information of landmarks on the map, and a landmark recognition unit that recognizes image position coordinates of the landmarks included in the captured image based on the captured image captured by the camera of the host vehicle And the lander on the map Based on the position information and the image position coordinates of the landmark included in the captured image, the vertical position recognition unit that recognizes the vertical position that is the position of the vehicle in the extending direction of the traveling road, and the vertical position recognition unit A vertical position error recognition unit that recognizes a vertical position error that is a difference between the recognized vertical position and the vertical position of the host vehicle obtained from the second host vehicle position, and a yaw angle recognition unit that recognizes the yaw angle of the host vehicle; Based on the vehicle speed recognition unit that recognizes the vehicle speed of the host vehicle, the second host vehicle position, the matching degree, the curvature of the traveling road, the vertical position error, the yaw angle, and the vehicle speed, a map of the host vehicle is set by a preset Kalman filter process. A third host vehicle position estimating unit that estimates a third host vehicle position that is an upper position.

以上説明したように、本発明に係る自車位置推定装置によれば、自車両の地図上の位置の推定精度を向上させることができる。   As described above, according to the own vehicle position estimation device according to the present invention, it is possible to improve the estimation accuracy of the position of the own vehicle on the map.

本実施形態に係る自車位置推定装置を示すブロック図である。It is a block diagram which shows the own vehicle position estimation apparatus which concerns on this embodiment. 式(5)におけるGE(cc,err_lon)の値を求めるためのデータテーブルの例である。It is an example of the data table for calculating | requiring the value of GE (cc, err_lon) in Formula (5). 一回目の自車位置推定処理を示すフローチャートである。It is a flowchart which shows the first own vehicle position estimation process. 二回目以降の自車位置推定処理を示すフローチャートである。It is a flowchart which shows the own vehicle position estimation process after the 2nd time.

以下、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1に示す本実施形態に係る自車位置推定装置100は、車両(自車両)に搭載され、自車両の地図上の位置を推定する装置である。自車位置推定装置100は、地図情報から生成した疑似路面画像と車載のカメラで撮像した路面画像との照合結果及びカルマンフィルタを利用することで、精度の高い自車両の位置を推定する。   A host vehicle position estimation apparatus 100 according to this embodiment shown in FIG. 1 is an apparatus that is mounted on a vehicle (host vehicle) and estimates the position of the host vehicle on a map. The own vehicle position estimation device 100 estimates the position of the own vehicle with high accuracy by using a collation result between a pseudo road surface image generated from map information and a road surface image captured by an in-vehicle camera and a Kalman filter.

[自車位置推定装置の構成]
図1に示すように、本実施形態に係る自車位置推定装置100は、装置を統括的に制御する [Electronic Control Unit]10を備えている。ECU10は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]、CAN[Controller Area Network]通信回路等を有する電子制御ユニットである。ECU10では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子制御ユニットから構成されていてもよい。
[Configuration of the vehicle position estimation device]
As shown in FIG. 1, a host vehicle position estimation apparatus 100 according to the present embodiment includes an [Electronic Control Unit] 10 that comprehensively controls the apparatus. The ECU 10 is an electronic control unit having a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], a CAN [Controller Area Network] communication circuit, and the like. In the ECU 10, for example, various functions are realized by loading a program stored in the ROM into the RAM and executing the program loaded in the RAM by the CPU. The ECU 10 may be composed of a plurality of electronic control units.

ECU10は、GPS[Global Positioning System]受信部1、カメラ2、車速センサ3、IMU[Inertial Measurement Unit]4、地図データベース5、及びランドマークデータベース6と接続されている。   The ECU 10 is connected to a GPS [Global Positioning System] receiving unit 1, a camera 2, a vehicle speed sensor 3, an IMU [Inertial Measurement Unit] 4, a map database 5, and a landmark database 6.

GPS受信部1は、3個以上のGPS衛星から信号を受信することにより、自車両の位置(例えば車両の緯度及び経度)を測定する車載の測位部として機能する。GPS受信部1は、測定した自車両の位置情報をECU10へ送信する。なお、車載の測位部は、GPS受信部1に限られない。   The GPS receiving unit 1 functions as an in-vehicle positioning unit that measures the position of the host vehicle (for example, the latitude and longitude of the vehicle) by receiving signals from three or more GPS satellites. The GPS receiver 1 transmits the measured position information of the host vehicle to the ECU 10. The on-vehicle positioning unit is not limited to the GPS receiving unit 1.

カメラ2は、自車両の周囲を撮像する撮像機器である。カメラ2は、例えば車両のフロントガラスの裏側に設けられて自車両の前方の路面を撮像する。カメラ2は、単眼カメラであってもよく、ステレオカメラであってもよい。カメラ2は、撮像画像の情報をECU10に送信する。カメラ2は複数のカメラから構成されていてもよい。   The camera 2 is an imaging device that images the surroundings of the host vehicle. For example, the camera 2 is provided on the back side of the windshield of the vehicle and images the road surface ahead of the host vehicle. The camera 2 may be a monocular camera or a stereo camera. The camera 2 transmits captured image information to the ECU 10. The camera 2 may be composed of a plurality of cameras.

車速センサ3は、自車両の速度を検出する検出器である。車速センサ3としては、自車両の車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車速センサ3は、検出した車速情報をECU10に送信する。   The vehicle speed sensor 3 is a detector that detects the speed of the host vehicle. As the vehicle speed sensor 3, a wheel speed sensor that is provided for a wheel of the host vehicle or a drive shaft that rotates integrally with the wheel and detects the rotation speed of the wheel is used. The vehicle speed sensor 3 transmits the detected vehicle speed information to the ECU 10.

IMU4は、自車両のロール角、ピッチ角、ヨー角を計測する慣性計測ユニットである。IMU4は、例えばジャイロセンサと加速度センサを含めて構成されている。IMU4は、検出した自車両の角度をECU10に送信する。なお、IMU4に代えてヨー角センサを採用してもよい。また、IMU4の代わりに、地図情報から生成した疑似路面画像と車載のカメラで撮像した路面画像との照合結果からヨー角を求めてもよい。   The IMU 4 is an inertial measurement unit that measures the roll angle, pitch angle, and yaw angle of the host vehicle. For example, the IMU 4 includes a gyro sensor and an acceleration sensor. The IMU 4 transmits the detected angle of the own vehicle to the ECU 10. Note that a yaw angle sensor may be employed instead of the IMU 4. Further, instead of the IMU 4, the yaw angle may be obtained from a collation result between a pseudo road surface image generated from map information and a road surface image captured by an in-vehicle camera.

地図データベース5は、地図情報を記憶するデータベースである。地図データベース5は、例えば、自車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、白線の位置情報、交差点及び分岐点の位置情報、及び建物の位置情報等が含まれる。なお、地図データベース5は、自車両と通信可能な管理センター等の施設のコンピュータに記憶されていてもよい。   The map database 5 is a database that stores map information. The map database 5 is formed in, for example, an HDD [Hard Disk Drive] mounted on the host vehicle. Map information includes road position information, road shape information (eg, curves, straight line types, curve curvature, etc.), white line position information, intersection and branch point position information, and building position information. It is. The map database 5 may be stored in a computer of a facility such as a management center that can communicate with the host vehicle.

ランドマークデータベース6は、ランドマークの情報を備えたランドマーク記憶部である。ランドマークデータベース6は、例えば、自車両に搭載されたHDD内に形成されている。ランドマークとは、道路面上(車両通行帯以外の路面上も含む)で位置が固定され、物体の位置の算出の基準となるものである。ランドマークには、道路標識、及び道路標示が含まれる。道路標識には、案内標識、警戒標識、規制標識、指示標識等がある。道路標示には、規制標示と指示標示が含まれる。規制標示には、転回禁止マーク、最高速度マーク等がある。指示標示には、白線(車道中央線、車道外側線、車線境界線等)、前方に横断歩道があることを示す菱形マーク、前方に優先道路があることを示す三角マーク、進行方向マーク、信号機、デニレータ、トンネルの出入口、ETCゲートの出入口等がある。   The landmark database 6 is a landmark storage unit having landmark information. The landmark database 6 is formed in, for example, an HDD mounted on the host vehicle. A landmark has a fixed position on a road surface (including a road surface other than a vehicle lane) and serves as a reference for calculating an object position. The landmark includes a road sign and a road sign. Road signs include guide signs, warning signs, regulatory signs, instruction signs, and the like. The road marking includes a regulation sign and an instruction sign. The regulation marking includes a turn prohibition mark, a maximum speed mark, and the like. There are white lines (roadway center line, roadway outside line, lane boundary line, etc.), a rhombus mark indicating that there is a pedestrian crossing ahead, a triangle mark indicating that there is a priority road ahead, a traveling direction mark, a traffic light , Denilators, tunnel entrances, ETC gate entrances, etc.

ランドマークデータベース6は、ランドマークの地図上の位置情報を記憶している。すなわち、ランドマークデータベース6は、地図データベース5の記憶している地図情報に関連付けられたランドマークの位置情報を記憶している。また、ランドマークデータベース6は、カメラ2の撮像画像からランドマークを認識するためのランドマークの画像情報を記憶している。なお、地図データベース5がランドマークデータベース6の機能を兼ねていてもよい。   The landmark database 6 stores location information of landmarks on the map. That is, the landmark database 6 stores landmark position information associated with the map information stored in the map database 5. The landmark database 6 stores landmark image information for recognizing landmarks from images captured by the camera 2. Note that the map database 5 may also function as the landmark database 6.

次に、ECU10の機能的構成について説明する。ECU10は、第1自車位置推定部11、疑似路面画像生成部12、路面画像変換部13、照合度合算出部14、第2自車位置推定部15、曲率取得部16を有している。また、ECU10は、ランドマーク認識部17、縦位置認識部18、縦位置誤差認識部19、ヨー角認識部20、車速認識部21、及び第3自車位置推定部22を有している。   Next, a functional configuration of the ECU 10 will be described. The ECU 10 includes a first vehicle position estimation unit 11, a pseudo road surface image generation unit 12, a road surface image conversion unit 13, a matching degree calculation unit 14, a second vehicle position estimation unit 15, and a curvature acquisition unit 16. The ECU 10 also includes a landmark recognition unit 17, a vertical position recognition unit 18, a vertical position error recognition unit 19, a yaw angle recognition unit 20, a vehicle speed recognition unit 21, and a third own vehicle position estimation unit 22.

第1自車位置推定部11は、GPS受信部1などの車載の測位部の測位結果と地図データベース5の地図情報に基づいて、自車両の地図上の位置である第1自車位置を推定する。第1自車位置推定部11は、車載の測位部の測位結果から周知の手法により第1自車位置(緯度、経度)を推定する。   The first vehicle position estimation unit 11 estimates the first vehicle position, which is the position of the vehicle on the map, based on the positioning result of the on-vehicle positioning unit such as the GPS reception unit 1 and the map information of the map database 5. To do. The first host vehicle position estimation unit 11 estimates the first host vehicle position (latitude and longitude) from the positioning result of the in-vehicle positioning unit by a known method.

疑似路面画像生成部12は、第1自車位置と地図情報(白線の位置情報)に基づいて、第1自車位置の周囲の疑似路面画像を生成する。疑似路面画像とは、地図情報に含まれる白線の位置情報などから擬似的に生成された道路の路面の画像である。疑似路面画像は、例えば、平面視の路面の画像に対応するように生成される。疑似路面画像生成部12は、第1自車位置と地図情報から、周知の手法により疑似路面画像を生成する。   The simulated road surface image generation unit 12 generates a simulated road surface image around the first host vehicle position based on the first host vehicle position and map information (position information on the white line). A pseudo road surface image is an image of a road surface of a road that is generated in a pseudo manner from position information of a white line included in map information. The pseudo road surface image is generated, for example, so as to correspond to a road surface image in plan view. The pseudo road surface image generation unit 12 generates a pseudo road surface image from the first vehicle position and map information by a known method.

路面画像変換部13は、カメラ2の撮像画像(路面を含む画像)を平面視の路面画像に変換する。路面画像変換部13は、疑似路面画像と照合可能にするため、周知の手法(例えば視点変換処理)によりカメラ2の撮像画像を路面画像に変換する。なお、疑似路面画像と照合可能であれば平面視の路面画像に変換する必要はない。   The road surface image conversion unit 13 converts a captured image (an image including a road surface) of the camera 2 into a road surface image in plan view. The road surface image conversion unit 13 converts the captured image of the camera 2 into a road surface image by a known method (for example, viewpoint conversion processing) in order to be able to collate with the pseudo road surface image. Note that it is not necessary to convert the road image into a planar view as long as it can be collated with the pseudo road image.

照合度合算出部14は、疑似路面画像と路面画像との照合度合を算出する。照合度合とは、地図情報から生成された疑似路面画像とカメラ2の撮像画像から得られた路面画像との一致の度合いに相当する。照合度合が高いほど、疑似路面画像と路面画像とは一致している。照合度合算出部14は、例えば、疑似路面画像と路面画像との照合度合として、道路の白線の照合度合を算出する。照合度合算出部14は、周知の手法により疑似路面画像と路面画像との照合度合を算出する。   The matching degree calculation unit 14 calculates the matching degree between the pseudo road surface image and the road surface image. The matching degree corresponds to the degree of coincidence between the pseudo road surface image generated from the map information and the road surface image obtained from the captured image of the camera 2. The higher the matching degree is, the more the pseudo road image matches the road image. The matching degree calculation unit 14 calculates, for example, the matching degree of the road white line as the matching degree between the pseudo road surface image and the road surface image. The matching degree calculation unit 14 calculates the matching degree between the pseudo road surface image and the road surface image by a known method.

第2自車位置推定部15は、疑似路面画像と路面画像に基づいて、自車両の地図上の位置である第2自車位置を推定する。第2自車位置推定部15は、疑似路面画像及び路面画像から周知の手法により第2自車位置(緯度、経度)を推定する。   The second host vehicle position estimation unit 15 estimates the second host vehicle position, which is the position on the map of the host vehicle, based on the pseudo road surface image and the road surface image. The second own vehicle position estimating unit 15 estimates the second own vehicle position (latitude and longitude) from the pseudo road surface image and the road surface image by a known method.

第2自車位置推定部15は、照合度合算出部14の算出した照合度合を用いてもよい。第2自車位置推定部15は、例えば、車載のカメラ2の撮像画像から得られた路面画像との照合度合が所定の閾値以上の疑似路面画像のうち、最も照合度合が高い疑似路面画像を特定する。第2自車位置推定部15は、特定した疑似路面画像が生成された地図における位置情報を利用して、第2自車位置を推定する。第2自車位置推定部15は、周知の手法により疑似路面画像と路面画像との照合を用いた第2自車位置の推定を行う。   The second vehicle position estimation unit 15 may use the matching degree calculated by the matching degree calculation unit 14. For example, the second vehicle position estimation unit 15 selects a pseudo road surface image having the highest matching degree among the pseudo road surface images whose matching degree with the road surface image obtained from the captured image of the in-vehicle camera 2 is a predetermined threshold value or more. Identify. The second host vehicle position estimation unit 15 estimates the second host vehicle position using position information on the map on which the identified pseudo road surface image is generated. The second host vehicle position estimation unit 15 estimates the second host vehicle position using the matching between the pseudo road surface image and the road surface image by a known method.

曲率取得部16は、第2自車位置及び地図情報に基づいて、自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置から自車両が走行する走行道路を特定し、地図情報に含まれる道路曲率の情報に基づいて走行道路の曲率を取得する。なお、曲率取得部16は、第2自車位置ではなく、第1自車位置を用いて自車両の走行道路の曲率を取得してもよい。   The curvature acquisition unit 16 acquires the curvature of the traveling road on which the host vehicle travels based on the second host vehicle position and the map information. The curvature acquisition unit 16 specifies the traveling road on which the host vehicle travels from the second host vehicle position, and acquires the curvature of the traveling road based on the road curvature information included in the map information. The curvature acquisition unit 16 may acquire the curvature of the traveling road of the host vehicle using the first host vehicle position instead of the second host vehicle position.

ランドマーク認識部17は、カメラ2の撮像画像とランドマークデータベース6に記憶されたランドマークの情報に基づいて、撮像画像に含まれるランドマークを認識する。ランドマーク認識部17は、例えばパターン認識又はエッジ抽出により画像中のランドマークを認識する。   The landmark recognition unit 17 recognizes the landmark included in the captured image based on the captured image of the camera 2 and the landmark information stored in the landmark database 6. The landmark recognition unit 17 recognizes a landmark in the image by pattern recognition or edge extraction, for example.

ランドマーク認識部17は、撮像画像に含まれるランドマークを認識した場合、周知の画像処理によって撮像画像におけるランドマークの画像位置座標を認識する。ランドマークの画像位置座標とは、撮像画像中におけるランドマークの画像の位置の座標である。例えば、路面上の道路標示である菱形マークの画像位置座標は、撮像画像における菱形マークの中心の座標とすることができる。ランドマーク認識部17は、周知の手法によりランドマークの画像位置座標を認識する。   When the landmark recognition unit 17 recognizes a landmark included in the captured image, the landmark recognition unit 17 recognizes the image position coordinates of the landmark in the captured image by known image processing. The landmark image position coordinates are the coordinates of the position of the landmark image in the captured image. For example, the image position coordinates of a rhombus mark that is a road marking on the road surface can be the coordinates of the center of the rhombus mark in the captured image. The landmark recognition unit 17 recognizes the image position coordinates of the landmark by a known method.

縦位置認識部18は、ランドマーク認識部17がランドマークの画像位置座標を認識した場合、撮像画像におけるランドマークの画像位置座標と地図上のランドマークの位置情報とに基づいて、自車両の縦位置を認識する。自車両の縦位置とは、自車両の走行する走行道路の延在方向における自車両の位置である。縦位置認識部18は、周知の手法によりランドマークを用いた自車両の縦位置の認識を行う。   When the landmark recognizing unit 17 recognizes the image position coordinates of the landmark, the vertical position recognizing unit 18 recognizes the vehicle based on the image position coordinates of the landmark in the captured image and the position information of the landmark on the map. Recognize the vertical position. The vertical position of the host vehicle is the position of the host vehicle in the extending direction of the traveling road on which the host vehicle travels. The vertical position recognition unit 18 recognizes the vertical position of the host vehicle using landmarks by a known method.

縦位置誤差認識部19は、縦位置認識部18が自車両の縦位置を認識した場合、縦位置誤差を算出する。縦位置誤差とは、縦位置認識部18の認識した自車両の縦位置と第2自車位置から得られる自車両の縦位置との差である。縦位置誤差認識部19は、例えば、走行道路の延在方向を基準として第2自車位置と縦位置認識部18の認識した自車両の縦位置との差を取ることで、縦位置誤差を算出する。縦位置誤差認識部19は、周知の手法により縦位置誤差を算出する。   The vertical position error recognition unit 19 calculates a vertical position error when the vertical position recognition unit 18 recognizes the vertical position of the host vehicle. The vertical position error is a difference between the vertical position of the host vehicle recognized by the vertical position recognition unit 18 and the vertical position of the host vehicle obtained from the second host vehicle position. For example, the vertical position error recognizing unit 19 calculates the vertical position error by taking the difference between the second vehicle position and the vertical position of the own vehicle recognized by the vertical position recognizing unit 18 based on the extending direction of the traveling road. calculate. The vertical position error recognition unit 19 calculates the vertical position error by a known method.

ヨー角認識部20は、IMU4の計測したヨー角に基づいて、自車両のヨー角を認識する。車速認識部21は、車速センサ3の検出した車速に基づいて、自車両の車速を認識する。   The yaw angle recognizing unit 20 recognizes the yaw angle of the host vehicle based on the yaw angle measured by the IMU 4. The vehicle speed recognition unit 21 recognizes the vehicle speed of the host vehicle based on the vehicle speed detected by the vehicle speed sensor 3.

第3自車位置推定部22は、縦位置誤差認識部19が自車両の縦位置誤差を認識した場合、自車両の地図上の位置である第3自車位置を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって第3自車位置を推定する。また、第3自車位置推定部22は、上記カルマンフィルタ処理の出力結果として第3自車位置の他に自車両のヨー角を出力する。以後、カルマンフィルタ処理により推定されたヨー角を第2ヨー角と称する。   When the vertical position error recognition unit 19 recognizes the vertical position error of the host vehicle, the third host vehicle position estimation unit 22 estimates the third host vehicle position that is the position on the map of the host vehicle. The third host vehicle position estimation unit 22 estimates the third host vehicle position by a preset Kalman filter process based on the second host vehicle position, the matching degree, the curvature of the traveling road, the vertical position error, the yaw angle, and the vehicle speed. To do. Further, the third host vehicle position estimation unit 22 outputs the yaw angle of the host vehicle in addition to the third host vehicle position as the output result of the Kalman filter process. Hereinafter, the yaw angle estimated by the Kalman filter process is referred to as a second yaw angle.

以下、本実施形態に係るカルマンフィルタ処理について説明する。下記の式(1)は、カルマンフィルタ処理における状態量uを示す式である。式(1)において、Eは自車両の緯度、Nは自車両の経度、φは自車両のヨー角、Vは自車両の車速、φ(φにドット)は自車両のヨーレートである。Tは行列の転置を表わしている。式(2)は、カルマンフィルタ処理における観測量vを示す式である。式(2)において、Ecは第2自車位置における緯度、Ncは第2自車位置における経度、φcはヨー角認識部20の認識したヨー角、Vcは車速認識部21の認識した車速、φcはφcを微分したヨーレートである。

Figure 2018021777
Hereinafter, the Kalman filter processing according to the present embodiment will be described. The following expression (1) is an expression indicating the state quantity u in the Kalman filter processing. In Equation (1), E is the latitude of the host vehicle, N is the longitude of the host vehicle, φ is the yaw angle of the host vehicle, V is the vehicle speed of the host vehicle, and φ (dot in φ) is the yaw rate of the host vehicle. T represents the transpose of the matrix. Expression (2) is an expression indicating the observation amount v in the Kalman filter processing. In Equation (2), Ec is the latitude at the second vehicle position, Nc is the longitude at the second vehicle position, φc is the yaw angle recognized by the yaw angle recognition unit 20, Vc is the vehicle speed recognized by the vehicle speed recognition unit 21, and φ c is a yaw rate obtained by differentiating φc.
Figure 2018021777

続いて、観測方程式について説明する。カルマンフィルタ処理の観測方程式を下記の式(3)として示す。式(3)においてHは単位行列である。Rnは観測ノイズである。kは時系列を表わしている。式(4)では、式(3)を行列式で表わしている。

Figure 2018021777
Next, the observation equation will be described. The observation equation for Kalman filter processing is shown as the following equation (3). In Expression (3), H is a unit matrix. Rn is observation noise. k represents a time series. In Expression (4), Expression (3) is represented by a determinant.
Figure 2018021777

下記の式(5)は、観測ノイズRnを示す行列式である。式(5)において、ccは、照合度合算出部14の算出した照合度合である。err_lonは、縦位置誤差認識部19の認識した縦位置誤差である。A、A、Aは定数である。G(cc,err_lon)、G(cc,err_lon)、GYR(R)は関数である。式(6)は、関数GYRを示す式である。式(6)において、Rは自車両の走行道路の曲率である。A、A、Aは定数である。式(6)には、曲率Rが小さいときに、ヨーレートの観測ノイズが大きくなりやすい特性が反映されている。

Figure 2018021777
The following equation (5) is a determinant representing the observation noise Rn. In equation (5), cc is the matching degree calculated by the matching degree calculation unit 14. err_lon is a vertical position error recognized by the vertical position error recognition unit 19. A 1 , A 2 , and A 3 are constants. G E (cc, err_lon), G R (cc, err_lon), and G YR (R) are functions. Expression (6) is an expression indicating the function G YR . In Expression (6), R is the curvature of the traveling road of the host vehicle. A 4 , A 5 , and A 6 are constants. Equation (6) reflects the characteristic that the observation noise of the yaw rate tends to increase when the curvature R is small.
Figure 2018021777

ここで、図2は、式(5)におけるGE(cc,err_lon)を求めるためのデータテーブルの例である。図2に示すaは定数である。図2のデータテーブルは、照合度合ccが大きいとき、また、縦位置誤差err_lonが小さいときに観測ノイズが小さくなるように設定されている。図2に示すように、照合度合ccと縦位置誤差err_lonが決まれば予め設定されたデータテーブルなどを利用して、GE(cc,err_lon)の値を求めることができる。G(cc,err_lon)についても、同様のデータテーブルを用いて値を求めることができる。例えば、図2における定数aを適切な定数bに置き換えることで、G(cc,err_lon)のデータテーブルとすることができる。 Here, FIG. 2 is an example of a data table for obtaining GE (cc, err_lon) in Expression (5). “A” shown in FIG. 2 is a constant. The data table in FIG. 2 is set so that the observation noise is small when the matching degree cc is large and when the vertical position error err_lon is small. As shown in FIG. 2, if the matching degree cc and the vertical position error err_lon are determined, the value of GE (cc, err_lon) can be obtained using a preset data table or the like. G R (cc, err_lon) for also, it is possible to obtain the value by using the same data table. For example, by replacing the constant a in FIG. 2 to the appropriate constant b, it can be a data table G R (cc, err_lon).

次に、状態方程式について説明する。カルマンフィルタ処理の状態方程式を下記の式(7)として示す。式(7)において、Fは偏微分可能な行列である。Qnは状態ノイズ(システムノイズ)である。k+1は、離散時刻kの直後の離散時刻であることを意味している。式(7)から状態ノイズQnを省略して展開した式として、式(8)〜式(12)を以下に示す。なお、式(8)〜式(10)に示すdtは離散時刻kから離散時刻k+1への遷移時間を意味している。

Figure 2018021777
Next, the state equation will be described. A state equation of Kalman filter processing is shown as the following equation (7). In Expression (7), F is a matrix that can be partially differentiated. Qn is state noise (system noise). k + 1 means that it is a discrete time immediately after the discrete time k. Expressions (8) to (12) are shown below as expressions developed by omitting the state noise Qn from Expression (7). In addition, dt shown in the equations (8) to (10) means a transition time from the discrete time k to the discrete time k + 1.
Figure 2018021777

下記の式(13)は、状態ノイズQnを示す行列式である。式(13)において、B1、B2、B3、B4は定数である。Fpos(R)は曲率Rの関数である。Fyaw(φ)はヨー角φの関数である。式(14)は、関数Fpos(R)を示す式である。式(14)において、B、B,Bは定数である。関数Fyaw(R)を示す式である。式(15)において、B、B,B10は定数である。

Figure 2018021777
The following equation (13) is a determinant representing the state noise Qn. In Expression (13), B1, B2, B3, and B4 are constants. Fpos (R) is a function of curvature R. Fyaw (φ) is a function of the yaw angle φ. Expression (14) is an expression indicating the function Fpos (R). In Formula (14), B 5 , B 6 , and B 7 are constants. It is a formula which shows a function Fyaw (R). In the formula (15), B 8 , B 9 and B 10 are constants.
Figure 2018021777

第3自車位置推定部22は、以上説明した式(1)〜式(15)を利用したカルマンフィルタ処理により、第3自車位置及びヨー角を推定することができる。このカルマンフィルタ処理によれば、観測ノイズRnにおいて照合度合cc、縦位置誤差err_lon、及び曲率Rを考慮することにより、これらを考慮しない場合と比べて、第3自車位置の推定精度を向上させることができる。また、状態ノイズQnにおいて、縦位置誤差err_lon及び曲率Rを考慮することにより、これらを考慮しない場合と比べて、第3自車位置の推定精度を向上させることができる。   The third host vehicle position estimation unit 22 can estimate the third host vehicle position and the yaw angle by the Kalman filter process using the equations (1) to (15) described above. According to this Kalman filter process, the accuracy of estimation of the third vehicle position can be improved by considering the matching degree cc, the vertical position error err_lon, and the curvature R in the observation noise Rn as compared with the case where these are not taken into consideration. Can do. In addition, in the state noise Qn, by considering the vertical position error err_lon and the curvature R, it is possible to improve the estimation accuracy of the third host vehicle position compared to the case where these are not considered.

[自車位置推定装置における自車位置推定処理]
以下、本実施形態に係る自車位置推定装置100における自車位置推定処理について図面を参照して説明する。図3は、一回目の自車位置推定処理を示すフローチャートである。図3のフローチャートは、例えば、自車両が走行を開始した場合に実施される。
[Vehicle position estimation processing in the vehicle position estimation apparatus]
Hereinafter, the vehicle position estimation process in the vehicle position estimation apparatus 100 according to the present embodiment will be described with reference to the drawings. FIG. 3 is a flowchart showing a first vehicle position estimation process. The flowchart of FIG. 3 is implemented, for example, when the host vehicle starts traveling.

図3に示すように、自車位置推定装置100のECU10は、S10として、第1自車位置推定部11による第1自車位置の推定を行う。第1自車位置推定部11は、車載の測位部(例えばGPS受信部1)の測位結果に基づいて、第1自車位置を推定する。   As shown in FIG. 3, the ECU 10 of the host vehicle position estimation apparatus 100 estimates the first host vehicle position by the first host vehicle position estimation unit 11 as S10. The first own vehicle position estimating unit 11 estimates the first own vehicle position based on the positioning result of the on-vehicle positioning unit (for example, the GPS receiving unit 1).

S12において、ECU10は、疑似路面画像生成部12により疑似路面画像を生成する。疑似路面画像生成部12は、第1自車位置と地図情報(白線の位置情報)に基づいて、第1自車位置の周囲の疑似路面画像を生成する。また、ECU10は、路面画像変換部13によりカメラ2の撮像画像を平面視の路面画像(疑似路面画像と対比できる路面画像)に変換する。   In S12, the ECU 10 causes the pseudo road surface image generation unit 12 to generate a pseudo road surface image. The simulated road surface image generation unit 12 generates a simulated road surface image around the first host vehicle position based on the first host vehicle position and map information (position information on the white line). Further, the ECU 10 converts the captured image of the camera 2 into a planar road surface image (a road surface image that can be compared with the pseudo road surface image) by the road surface image conversion unit 13.

S14において、ECU10は、照合度合算出部14により疑似路面画像と路面画像との照合度合を算出する。照合度合が高いほど、疑似路面画像と路面画像の一致度が高い。   In S14, the ECU 10 calculates the matching degree between the pseudo road surface image and the road surface image by the matching degree calculation unit 14. The higher the matching degree, the higher the coincidence degree between the pseudo road surface image and the road surface image.

S16において、ECU10は、第2自車位置推定部15により第2自車位置を推定する。第2自車位置推定部15は、疑似路面画像と路面画像に基づいて、第2自車位置を推定する。第2自車位置推定部15は、例えば、車載のカメラ2の撮像画像から得られた路面画像との照合度合が所定の閾値以上の疑似路面画像のうち、最も照合度合が高い疑似路面画像を特定し、特定した疑似路面画像が生成された地図の位置情報を利用して第2自車位置を推定する。   In S <b> 16, the ECU 10 estimates the second vehicle position by the second vehicle position estimation unit 15. The second host vehicle position estimation unit 15 estimates the second host vehicle position based on the pseudo road surface image and the road surface image. For example, the second vehicle position estimation unit 15 selects a pseudo road surface image having the highest matching degree among the pseudo road surface images whose matching degree with the road surface image obtained from the captured image of the in-vehicle camera 2 is a predetermined threshold value or more. The second vehicle position is estimated using the position information of the map on which the identified pseudo road surface image is identified.

S18において、ECU10は、曲率取得部16により自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置及び地図情報に基づいて、第2自車位置から自車両が走行する走行道路を特定し、地図情報から走行道路の曲率を取得する。   In S <b> 18, the ECU 10 acquires the curvature of the traveling road on which the host vehicle travels by the curvature acquisition unit 16. The curvature acquisition unit 16 specifies a traveling road on which the host vehicle travels from the second host vehicle position based on the second host vehicle position and map information, and acquires the curvature of the traveling road from the map information.

S20において、ECU10は、ランドマーク認識部17によりカメラ2の撮像画像に含まれるランドマークを認識したか否かを判定する。ランドマーク認識部17は、カメラ2の撮像画像とランドマークデータベース6に記憶されたランドマークの情報に基づいて、撮像画像に含まれるランドマークを認識する。ECU10は、撮像画像に含まれるランドマークを認識したと判定した場合(S20:YES)、S22に移行する。   In S <b> 20, the ECU 10 determines whether or not the landmark recognition unit 17 has recognized a landmark included in the captured image of the camera 2. The landmark recognition unit 17 recognizes the landmark included in the captured image based on the captured image of the camera 2 and the landmark information stored in the landmark database 6. When it is determined that the landmark included in the captured image is recognized (S20: YES), the ECU 10 proceeds to S22.

一方、ECU10は、撮像画像に含まれるランドマークを認識しない(撮像画像中にランドマークが存在しない)と判定した場合(S20:NO)、S28に移行する。   On the other hand, if the ECU 10 determines that the landmark included in the captured image is not recognized (the landmark is not present in the captured image) (S20: NO), the ECU 10 proceeds to S28.

S22において、ECU10は、ランドマーク認識部17により撮像画像におけるランドマークの画像位置座標を認識する。ランドマーク認識部17は、例えば、道路標示である菱形マークの画像位置座標として、撮像画像内における菱形マークの中心の座標を認識することができる。   In S <b> 22, the ECU 10 recognizes the image position coordinates of the landmark in the captured image by the landmark recognition unit 17. For example, the landmark recognition unit 17 can recognize the coordinates of the center of the rhombus mark in the captured image as the image position coordinates of the rhombus mark that is a road marking.

S24において、ECU10は、縦位置認識部18により自車両の縦位置を認識する。縦位置認識部18は、撮像画像におけるランドマークの画像位置座標と地図上のランドマークの位置情報とに基づいて、自車両の縦位置を認識する。   In S <b> 24, the ECU 10 recognizes the vertical position of the host vehicle by the vertical position recognition unit 18. The vertical position recognition unit 18 recognizes the vertical position of the host vehicle based on the image position coordinates of the landmark in the captured image and the position information of the landmark on the map.

S26において、ECU10は、縦位置誤差認識部19により縦位置誤差を算出する。縦位置誤差認識部19は、縦位置認識部18の認識した自車両の縦位置と第2自車位置から得た自車両の縦位置との差として、縦位置誤差を算出する。   In S <b> 26, the ECU 10 calculates the vertical position error by the vertical position error recognition unit 19. The vertical position error recognition unit 19 calculates a vertical position error as a difference between the vertical position of the host vehicle recognized by the vertical position recognition unit 18 and the vertical position of the host vehicle obtained from the second host vehicle position.

S28において、ECU10は、第3自車位置推定部22により第3自車位置及び第2ヨー角を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって第3自車位置及び第2ヨー角を推定する。第3自車位置推定部22は、例えば、上述した式(1)〜式(15)を利用したカルマンフィルタ処理により、第3自車位置及び第2ヨー角を推定することができる。ECU10は、推定した第3自車位置を自車両の地図上の位置として外部(例えば、ナビゲーションシステム、運転支援装置、自動運転装置)に出力する。ここで、S20でNOの場合(ランドマークを認識しない場合)には、縦位置誤差を予め設定された最大値と仮定してカルマンフィルタ処理を実行する。この場合、図2の表においては最大値となる「2≦err_lon」の欄の値が照合度合ccとの関係で用いられることになる。   In S28, the ECU 10 estimates the third vehicle position and the second yaw angle by the third vehicle position estimation unit 22. The third vehicle position estimation unit 22 performs the third vehicle position and the second vehicle position by a preset Kalman filter process based on the second vehicle position, the matching degree, the curvature of the traveling road, the vertical position error, the yaw angle, and the vehicle speed. Estimate the 2 yaw angle. The third host vehicle position estimation unit 22 can estimate the third host vehicle position and the second yaw angle by, for example, Kalman filter processing using the above-described formulas (1) to (15). The ECU 10 outputs the estimated third host vehicle position to the outside (for example, a navigation system, a driving support device, an automatic driving device) as a position on the map of the host vehicle. Here, if NO in S20 (when the landmark is not recognized), the Kalman filter process is executed assuming that the vertical position error is a preset maximum value. In this case, in the table of FIG. 2, the value in the column “2 ≦ err_lon” that is the maximum value is used in relation to the matching degree cc.

なお、図3のフローチャートとは別に、ヨー角認識部20による自車両のヨー角の認識と車速認識部21による自車両の車速の認識は、センサ側の性能に応じて所定間隔で実行されている。   In addition to the flowchart of FIG. 3, the yaw angle recognition unit 20 recognizes the yaw angle of the host vehicle and the vehicle speed recognition unit 21 recognizes the host vehicle speed at predetermined intervals according to the performance on the sensor side. Yes.

図4は、二回目以降の自車位置推定処理を示すフローチャートである。図4に示すフローチャートは、例えば、自車両が走行を開始してから一回目のカルマンフィルタ処理により第3自車位置及びヨー角を得られた場合に実行される。   FIG. 4 is a flowchart showing the vehicle position estimation process for the second and subsequent times. The flowchart shown in FIG. 4 is executed, for example, when the third host vehicle position and the yaw angle are obtained by the first Kalman filter process after the host vehicle starts running.

図4に示すように、ECU10は、S30として、疑似路面画像生成部12により疑似路面画像を生成する。疑似路面画像生成部12は、第3自車位置が一度推定された場合、推定精度の高い第3自車位置と地図情報(白線の位置情報)に基づいて、第3自車位置の周囲の疑似路面画像を生成する。また、ECU10は、路面画像変換部13によりカメラ2の撮像画像を平面視の路面画像(疑似路面画像と対比できる路面画像)に変換する。   As shown in FIG. 4, ECU10 produces | generates a pseudo road surface image by the pseudo road surface image generation part 12 as S30. When the third vehicle position is estimated once, the pseudo road surface image generation unit 12 is based on the third vehicle position and map information (position information on the white line) with high estimation accuracy. A pseudo road surface image is generated. Further, the ECU 10 converts the captured image of the camera 2 into a planar road surface image (a road surface image that can be compared with the pseudo road surface image) by the road surface image conversion unit 13.

S32において、ECU10は、照合度合算出部14により疑似路面画像と路面画像との照合度合を算出する。この疑似路面画像は、第3自車位置の周囲の疑似路面画像である。   In S32, the ECU 10 calculates the matching degree between the pseudo road surface image and the road surface image by the matching degree calculation unit 14. This pseudo road surface image is a pseudo road surface image around the third vehicle position.

S34において、ECU10は、第2自車位置推定部15により第2自車位置を推定する。第2自車位置推定部15は、第3自車位置の周囲の疑似路面画像と路面画像に基づいて、今回の第2自車位置を推定する。   In S <b> 34, the ECU 10 estimates the second vehicle position by the second vehicle position estimation unit 15. The second vehicle position estimation unit 15 estimates the current second vehicle position based on the pseudo road surface image and the road surface image around the third vehicle position.

S36において、ECU10は、曲率取得部16により自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置及び地図情報に基づいて走行道路の曲率を取得する。   In S <b> 36, the ECU 10 acquires the curvature of the traveling road on which the host vehicle travels by the curvature acquisition unit 16. The curvature acquisition unit 16 acquires the curvature of the traveling road based on the second host vehicle position and the map information.

S38において、ECU10は、ランドマーク認識部17によりカメラ2の撮像画像に含まれるランドマークを認識したか否かを判定する。ECU10は、撮像画像に含まれるランドマークを認識したと判定した場合(S38:YES)、S40に移行する。   In S <b> 38, the ECU 10 determines whether or not the landmark recognition unit 17 has recognized a landmark included in the captured image of the camera 2. When it is determined that the landmark included in the captured image is recognized (S38: YES), the ECU 10 proceeds to S40.

一方、ECU10は、撮像画像に含まれるランドマークを認識しないと判定した場合(S38:NO)、S46に移行する。   On the other hand, when the ECU 10 determines not to recognize the landmark included in the captured image (S38: NO), the ECU 10 proceeds to S46.

S40〜S44は、図3に示すS22〜S26と同じ処理であるため説明は簡潔にする。S40において、ECU10は、ランドマーク認識部17により撮像画像におけるランドマークの画像位置座標を認識する。S42において、ECU10は、縦位置認識部18により自車両の縦位置を認識する。S44において、ECU10は、縦位置誤差認識部19により縦位置誤差を算出する。   Since S40 to S44 are the same processes as S22 to S26 shown in FIG. In S <b> 40, the ECU 10 recognizes the image position coordinates of the landmark in the captured image by the landmark recognition unit 17. In S <b> 42, the ECU 10 recognizes the vertical position of the host vehicle by the vertical position recognition unit 18. In S <b> 44, the ECU 10 calculates the vertical position error by the vertical position error recognition unit 19.

S46において、ECU10は、第3自車位置推定部22により今回の第3自車位置及び今回の第2ヨー角を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、前回の第2ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって今回の第3自車位置及び今回の第2ヨー角を推定する。   In S <b> 46, the ECU 10 estimates the current third vehicle position and the current second yaw angle by the third vehicle position estimation unit 22. The third host vehicle position estimation unit 22 performs the current first vehicle position by a preset Kalman filter process based on the second host vehicle position, the matching degree, the curvature of the traveling road, the vertical position error, the previous second yaw angle, and the vehicle speed. 3 Estimate the vehicle position and the current second yaw angle.

第3自車位置推定部22は、例えば、上述した式(1)〜式(15)を利用したカルマンフィルタ処理により、今回の第3自車位置及び今回の第2ヨー角を推定することができる。この場合には、式(1)のヨー角φとして前回の第2ヨー角(前回のカルマンフィルタ処理で推定されたヨー角)が用いられる。   The third vehicle position estimation unit 22 can estimate the current third vehicle position and the current second yaw angle by, for example, the Kalman filter process using the above-described equations (1) to (15). . In this case, the previous second yaw angle (the yaw angle estimated by the previous Kalman filter process) is used as the yaw angle φ in equation (1).

なお、必ずしも前回の第2ヨー角を用いる必要はなく、ヨー角認識部20の認識した自車両のヨー角を用いてカルマンフィルタ処理を実行してもよい。また、S38でNOの場合(ランドマークを認識しない場合)には、前回の処理で用いた縦位置誤差を利用してカルマンフィルタ処理を行う。ECU10は、推定した今回の第3自車位置を自車両の地図上の位置として外部に出力する。その後、ECU10は、所定時間の経過後、今回の第3自車位置を用いて再びS30から処理を繰り返す。   The previous second yaw angle is not necessarily used, and the Kalman filter process may be executed using the yaw angle of the host vehicle recognized by the yaw angle recognition unit 20. If NO in S38 (when no landmark is recognized), Kalman filter processing is performed using the vertical position error used in the previous processing. The ECU 10 outputs the estimated current third vehicle position to the outside as a position on the map of the own vehicle. Thereafter, the ECU 10 repeats the process from S30 again using the current third host vehicle position after the elapse of a predetermined time.

[自車位置推定装置の作用効果]
以上説明した本実施形態に係る自車位置推定装置100によれば、地図情報から生成した疑似路面画像と車載カメラの撮像した路面画像の照合により推定した第2自車位置、ヨー角、車速を入力として、走行道路の曲率、縦位置誤差を考慮したカルマンフィルタ処理を行うことにより、道路曲率や縦位置誤差を考慮しない場合と比べて道路曲率を踏まえたヨー角の補正なども可能となり、自車両の地図上の位置の推定精度を向上させることができる。
[Operational effect of own vehicle position estimation device]
According to the vehicle position estimation device 100 according to the present embodiment described above, the second vehicle position, yaw angle, and vehicle speed estimated by collating the pseudo road surface image generated from the map information with the road surface image captured by the in-vehicle camera are calculated. By performing Kalman filter processing considering the curvature and vertical position error of the driving road as input, it becomes possible to correct the yaw angle based on the road curvature compared to the case where the road curvature and vertical position error are not considered. The estimation accuracy of the position on the map can be improved.

また、自車位置推定装置100によれば、図4に示すように、第3自車位置を一回推定した後は、第3自車位置を利用して次の自車位置推定処理を行うことができるので、毎回GPS受信部1のような車載の測位部を用いる必要がなく、自車両の地図上の位置について高い推定精度を維持することができる。   Moreover, according to the own vehicle position estimation apparatus 100, as shown in FIG. 4, after estimating the third own vehicle position once, the next own vehicle position estimation process is performed using the third own vehicle position. Therefore, it is not necessary to use an in-vehicle positioning unit such as the GPS receiving unit 1 every time, and high estimation accuracy can be maintained for the position of the host vehicle on the map.

以上、本発明の好適な実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。   As mentioned above, although preferred embodiment of this invention was described, this invention is not limited to embodiment mentioned above. The present invention can be implemented in various forms including various modifications and improvements based on the knowledge of those skilled in the art including the above-described embodiments.

例えば、第2自車位置推定部15は、第2自車位置の推定において照合度合を用いる必要はない。この場合、照合度合算出部14は、第2自車位置の推定後に、疑似路面画像と路面画像との照合度合を算出してもよい。すなわち、図3のS14はS16の後に行われてもよい。また、S10〜S16と、S18の走行道路の曲率の取得は、S28のカルマンフィルタ処理より前に完了していればよく順番は限定されない。同様に、図4のS32は、S34の後に行われてもよい。S30〜S34と、S36の走行道路の曲率の取得は、S46のカルマンフィルタ処理の前に完了していればよく順番は限定されない。なお、図3に示す一回目の自車位置推定処理を示すフローチャートにおいて、S20でNOの場合(ランドマークを認識しない場合)にはS28のカルマンフィルタ処理を行わず、S20でYESの場合にのみS28のカルマンフィルタ処理を実行する態様であってもよい。   For example, the second vehicle position estimation unit 15 does not need to use the matching degree in the estimation of the second vehicle position. In this case, the matching degree calculation unit 14 may calculate the matching degree between the pseudo road surface image and the road surface image after the estimation of the second vehicle position. That is, S14 in FIG. 3 may be performed after S16. Further, the order of acquisition of the curvature of the traveling road in S10 to S16 and S18 is not limited as long as it is completed before the Kalman filter processing in S28. Similarly, S32 of FIG. 4 may be performed after S34. The order of acquisition of the curvature of the traveling road of S30 to S34 and S36 is not limited as long as it is completed before the Kalman filter processing of S46. In the flowchart of the first vehicle position estimation process shown in FIG. 3, when NO in S20 (when no landmark is recognized), the Kalman filter process of S28 is not performed, and only when S20 is YES, S28. It may be an aspect in which the Kalman filter processing is executed.

100…自車位置推定装置、10…ECU、1…GPS受信部(測位部)、2…カメラ、3…車速センサ、4…IMU、5…地図データベース、6…ランドマークデータベース(ランドマーク記憶部)、11…第1自車位置推定部、12…疑似路面画像生成部、13…路面画像変換部、14…照合度合算出部、15…第2自車位置推定部、16…曲率取得部、17…ランドマーク認識部、18…縦位置認識部、19…縦位置誤差認識部、20…ヨー角認識部、21…車速認識部、22…第3自車位置推定部。   DESCRIPTION OF SYMBOLS 100 ... Own vehicle position estimation apparatus, 10 ... ECU, 1 ... GPS receiving part (positioning part), 2 ... Camera, 3 ... Vehicle speed sensor, 4 ... IMU, 5 ... Map database, 6 ... Landmark database (landmark memory | storage part) ), 11... First vehicle position estimation unit, 12... Pseudo road surface image generation unit, 13... Road surface image conversion unit, 14 .. matching degree calculation unit, 15 ... second vehicle position estimation unit, 16. DESCRIPTION OF SYMBOLS 17 ... Landmark recognition part, 18 ... Vertical position recognition part, 19 ... Vertical position error recognition part, 20 ... Yaw angle recognition part, 21 ... Vehicle speed recognition part, 22 ... 3rd own vehicle position estimation part

Claims (1)

車載の測位部から得られた自車両の地図上の位置である第1自車位置に基づいて、地図情報から前記自車両の周囲の疑似路面画像を生成し、前記自車両のカメラの撮像画像から得られた路面画像と前記疑似路面画像との照合により第2自車位置を推定する自車位置推定装置であって、
前記路面画像と前記疑似路面画像との照合度合を算出する照合度合算出部と、
前記第1自車位置又は前記第2自車位置と前記地図情報とに基づいて、前記自車両の走行する走行道路の曲率を取得する曲率取得部と、
前記地図上のランドマークの位置情報を記憶するランドマーク記憶部と、
前記自車両のカメラの撮像した撮像画像に基づいて、前記撮像画像に含まれる前記ランドマークの画像位置座標を認識するランドマーク認識部と、
前記地図上の前記ランドマークの位置情報と、前記撮像画像に含まれる前記ランドマークの画像位置座標とに基づいて、前記走行道路の延在方向における前記自車両の位置である縦位置を認識する縦位置認識部と、
前記縦位置認識部の認識した前記縦位置と前記第2自車位置から得た前記自車両の縦位置との差である縦位置誤差を認識する縦位置誤差認識部と、
前記自車両のヨー角を認識するヨー角認識部と、
前記自車両の車速を認識する車速認識部と、
前記第2自車位置、前記照合度合、前記走行道路の曲率、前記縦位置誤差、前記ヨー角、及び前記車速に基づき、予め設定されたカルマンフィルタ処理によって、前記自車両の地図上の位置である第3自車位置を推定する第3自車位置推定部と、
を備える、自車位置推定装置。
Based on the first vehicle position, which is the position of the host vehicle on the map obtained from the on-vehicle positioning unit, a pseudo road surface image around the host vehicle is generated from the map information, and the captured image of the camera of the host vehicle A vehicle position estimation device that estimates a second vehicle position by comparing the road surface image obtained from the pseudo road surface image,
A matching degree calculation unit for calculating a matching degree between the road surface image and the pseudo road surface image;
A curvature acquisition unit that acquires a curvature of a traveling road on which the vehicle travels based on the first vehicle position or the second vehicle position and the map information;
A landmark storage unit for storing location information of landmarks on the map;
A landmark recognition unit that recognizes image position coordinates of the landmark included in the captured image based on a captured image captured by the camera of the host vehicle;
Based on position information of the landmark on the map and image position coordinates of the landmark included in the captured image, a vertical position that is the position of the host vehicle in the extending direction of the traveling road is recognized. A vertical position recognition unit;
A vertical position error recognizing unit for recognizing a vertical position error which is a difference between the vertical position recognized by the vertical position recognizing unit and the vertical position of the own vehicle obtained from the second own vehicle position;
A yaw angle recognition unit for recognizing the yaw angle of the host vehicle;
A vehicle speed recognition unit for recognizing the vehicle speed of the host vehicle;
Based on the second own vehicle position, the collation degree, the curvature of the traveling road, the vertical position error, the yaw angle, and the vehicle speed, a position on the map of the own vehicle by a preset Kalman filter process. A third vehicle position estimation unit for estimating a third vehicle position;
A vehicle position estimation device comprising:
JP2016151777A 2016-08-02 2016-08-02 Own vehicle position estimation device Expired - Fee Related JP6776707B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016151777A JP6776707B2 (en) 2016-08-02 2016-08-02 Own vehicle position estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016151777A JP6776707B2 (en) 2016-08-02 2016-08-02 Own vehicle position estimation device

Publications (2)

Publication Number Publication Date
JP2018021777A true JP2018021777A (en) 2018-02-08
JP6776707B2 JP6776707B2 (en) 2020-10-28

Family

ID=61165406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016151777A Expired - Fee Related JP6776707B2 (en) 2016-08-02 2016-08-02 Own vehicle position estimation device

Country Status (1)

Country Link
JP (1) JP6776707B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109752008A (en) * 2019-03-05 2019-05-14 长安大学 Intelligent vehicle multi-mode co-located system, method and intelligent vehicle
JP2019196970A (en) * 2018-05-09 2019-11-14 トヨタ自動車株式会社 Own vehicle position estimating device
JP2019200160A (en) * 2018-05-17 2019-11-21 株式会社Soken Self-location estimation device
JP2020008462A (en) * 2018-07-10 2020-01-16 トヨタ自動車株式会社 Own vehicle location estimation device
US10953886B2 (en) 2018-10-31 2021-03-23 Toyota Jidosha Kabushiki Kaisha Vehicle localization system
US20210278217A1 (en) * 2018-10-24 2021-09-09 Pioneer Corporation Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
US11628830B2 (en) 2019-12-06 2023-04-18 Toyota Jidosha Kabushiki Kaisha Automated valet parking system
US11840215B2 (en) 2019-12-06 2023-12-12 Toyota Jidosha Kabushiki Kaisha Automated valet parking system
DE112021007310T5 (en) 2021-03-18 2024-01-04 Mitsubishi Electric Corporation Own vehicle position integration processing apparatus and own vehicle position integration processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP2006138834A (en) * 2004-11-12 2006-06-01 Mitsubishi Electric Corp Navigation device, navigation system, navigation positioning method, and vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP2006138834A (en) * 2004-11-12 2006-06-01 Mitsubishi Electric Corp Navigation device, navigation system, navigation positioning method, and vehicle

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7052543B2 (en) 2018-05-09 2022-04-12 トヨタ自動車株式会社 Vehicle position estimation device
JP2019196970A (en) * 2018-05-09 2019-11-14 トヨタ自動車株式会社 Own vehicle position estimating device
CN110470309A (en) * 2018-05-09 2019-11-19 丰田自动车株式会社 This truck position apparatus for predicting
JP2019200160A (en) * 2018-05-17 2019-11-21 株式会社Soken Self-location estimation device
WO2019220765A1 (en) * 2018-05-17 2019-11-21 株式会社Soken Self-position estimation device
JP2020008462A (en) * 2018-07-10 2020-01-16 トヨタ自動車株式会社 Own vehicle location estimation device
JP7025293B2 (en) 2018-07-10 2022-02-24 トヨタ自動車株式会社 Vehicle position estimation device
US20210278217A1 (en) * 2018-10-24 2021-09-09 Pioneer Corporation Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
US10953886B2 (en) 2018-10-31 2021-03-23 Toyota Jidosha Kabushiki Kaisha Vehicle localization system
CN109752008A (en) * 2019-03-05 2019-05-14 长安大学 Intelligent vehicle multi-mode co-located system, method and intelligent vehicle
US11628830B2 (en) 2019-12-06 2023-04-18 Toyota Jidosha Kabushiki Kaisha Automated valet parking system
US11840215B2 (en) 2019-12-06 2023-12-12 Toyota Jidosha Kabushiki Kaisha Automated valet parking system
DE112021007310T5 (en) 2021-03-18 2024-01-04 Mitsubishi Electric Corporation Own vehicle position integration processing apparatus and own vehicle position integration processing method

Also Published As

Publication number Publication date
JP6776707B2 (en) 2020-10-28

Similar Documents

Publication Publication Date Title
JP6776707B2 (en) Own vehicle position estimation device
US9933268B2 (en) Method and system for improving accuracy of digital map data utilized by a vehicle
JP4392389B2 (en) Vehicle and lane recognition device
US11845471B2 (en) Travel assistance method and travel assistance device
JP2022103164A (en) Information processing device
JP7143722B2 (en) Vehicle position estimation device
KR102441073B1 (en) Apparatus for compensating sensing value of gyroscope sensor, system having the same and method thereof
WO2007132860A1 (en) Object recognition device
JP4902575B2 (en) Road sign recognition device and road sign recognition method
JP2007278813A (en) Vehicle-position positioning device
JP2013036856A (en) Driving support apparatus
JP2023054314A (en) Information processing device, control method, program, and storage medium
JP6836446B2 (en) Vehicle lane estimation device
JP2020003463A (en) Vehicle&#39;s self-position estimating device
JP2020087191A (en) Lane boundary setting apparatus and lane boundary setting method
EP4001844A1 (en) Method and apparatus with localization
JP7025293B2 (en) Vehicle position estimation device
JP7234840B2 (en) position estimator
WO2019220765A1 (en) Self-position estimation device
JP2019132762A (en) Vehicle position estimating device
JP7051416B2 (en) Self-position estimation device
JP5549468B2 (en) Feature position acquisition apparatus, method and program
JP7136050B2 (en) Vehicle position estimation device
JP7321034B2 (en) Driving support method and driving support device
JP2021515183A (en) How to choose a limited or empty set of hypotheses of possible positions of a vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200921

R151 Written notification of patent or utility model registration

Ref document number: 6776707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees