JP6776707B2 - Own vehicle position estimation device - Google Patents

Own vehicle position estimation device Download PDF

Info

Publication number
JP6776707B2
JP6776707B2 JP2016151777A JP2016151777A JP6776707B2 JP 6776707 B2 JP6776707 B2 JP 6776707B2 JP 2016151777 A JP2016151777 A JP 2016151777A JP 2016151777 A JP2016151777 A JP 2016151777A JP 6776707 B2 JP6776707 B2 JP 6776707B2
Authority
JP
Japan
Prior art keywords
vehicle
road surface
unit
landmark
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016151777A
Other languages
Japanese (ja)
Other versions
JP2018021777A (en
Inventor
国狭 亜輝臣
亜輝臣 国狭
皓之 石田
皓之 石田
淳一 目黒
淳一 目黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016151777A priority Critical patent/JP6776707B2/en
Publication of JP2018021777A publication Critical patent/JP2018021777A/en
Application granted granted Critical
Publication of JP6776707B2 publication Critical patent/JP6776707B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車位置推定装置に関する。 The present invention relates to a vehicle position estimation device.

従来、自車位置推定装置に関する技術文献として、特開2001−331787号公報が知られている。この公報には、車載カメラの撮像した画像データから自車両の走行する道路の第1形状候補を抽出すると共に、地図データから前記道路の第2形状候補を抽出し、第1形状候補と第2形状候補との重なり状態に基づいて、道路上の自車両の位置を推定する装置が記載されている。この装置は、重なり状態の照合にカルマンフィルタを用いている。 Conventionally, Japanese Patent Application Laid-Open No. 2001-331787 is known as a technical document relating to a vehicle position estimation device. In this publication, the first shape candidate of the road on which the own vehicle travels is extracted from the image data captured by the in-vehicle camera, and the second shape candidate of the road is extracted from the map data, and the first shape candidate and the second shape candidate are extracted. A device for estimating the position of the own vehicle on the road based on the overlapping state with the shape candidate is described. This device uses a Kalman filter to collate the overlapping state.

特開2001−331787号公報Japanese Unexamined Patent Publication No. 2001-331787

ところで、自車両の位置を精度良く推定するため、車載カメラの姿勢(ヨー角など)を更に考慮する手法が知られている。しかしながら、車両のカーブ走行中などにはヨー角の誤差が累積して、自車両の位置の推定精度の低下を招くと言う問題があった。 By the way, in order to estimate the position of the own vehicle with high accuracy, a method of further considering the posture (yaw angle, etc.) of the in-vehicle camera is known. However, there is a problem that the yaw angle error accumulates during the curve running of the vehicle, which causes a decrease in the estimation accuracy of the position of the own vehicle.

そこで、本技術分野では、自車両の地図上の位置の推定精度を向上させることができる自車位置推定装置を提供することが望まれている。 Therefore, in the present technical field, it is desired to provide an own vehicle position estimation device capable of improving the estimation accuracy of the position of the own vehicle on the map.

上記課題を解決するため、本発明に係る自車位置推定装置は、車載の測位部から得られた自車両の地図上の位置である第1自車位置に基づいて、地図情報から自車両の周囲の疑似路面画像を生成し、自車両のカメラの撮像画像から得られた路面画像と疑似路面画像との照合により第2自車位置を推定する自車位置推定装置であって、路面画像と疑似路面画像との照合度合を算出する照合度合算出部と、 第1自車位置又は第2自車位置と地図情報とに基づいて、自車両の走行する走行道路の曲率を取得する曲率取得部と、地図上のランドマークの位置情報を記憶するランドマーク記憶部と、自車両のカメラの撮像した撮像画像に基づいて、撮像画像に含まれるランドマークの画像位置座標を認識するランドマーク認識部と、地図上のランドマークの位置情報と、撮像画像に含まれるランドマークの画像位置座標とに基づいて、走行道路の延在方向における自車両の位置である縦位置を認識する縦位置認識部と、縦位置認識部の認識した縦位置と第2自車位置から得た自車両の縦位置との差である縦位置誤差を認識する縦位置誤差認識部と、自車両のヨー角を認識するヨー角認識部と、自車両の車速を認識する車速認識部と、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、走行道路の曲率が小さいほどヨー角の時間微分であるヨーレートの観測ノイズが大きくなるように予め設定されたカルマンフィルタ処理によって、自車両の地図上の位置である第3自車位置を推定する第3自車位置推定部と、を備える。 In order to solve the above problem, the own vehicle position estimation device according to the present invention is based on the first own vehicle position which is the position on the map of the own vehicle obtained from the in-vehicle positioning unit, and is based on the map information of the own vehicle. It is a vehicle position estimation device that generates a pseudo road surface image of the surroundings and estimates the position of the second vehicle by collating the road surface image obtained from the image captured by the camera of the vehicle with the pseudo road surface image. A collation degree calculation unit that calculates the collation degree with a pseudo road surface image, and a curvature acquisition unit that acquires the curvature of the traveling road on which the own vehicle travels based on the first own vehicle position or the second own vehicle position and map information. A landmark storage unit that stores the position information of the landmarks on the map, and a landmark recognition unit that recognizes the image position coordinates of the landmarks included in the captured image based on the captured image captured by the camera of the own vehicle. A vertical position recognition unit that recognizes the vertical position of the own vehicle in the extending direction of the traveling road based on the position information of the landmark on the map and the image position coordinates of the landmark included in the captured image. The vertical position error recognition unit that recognizes the vertical position error, which is the difference between the vertical position recognized by the vertical position recognition unit and the vertical position of the own vehicle obtained from the second own vehicle position, and the yaw angle of the own vehicle are recognized. The yaw angle recognition unit, the vehicle speed recognition unit that recognizes the vehicle speed of the own vehicle, and the curvature of the traveling road based on the second own vehicle position, the degree of matching, the curvature of the driving road, the vertical position error, the yaw angle, and the vehicle speed. The third vehicle position estimation unit that estimates the position of the third vehicle, which is the position on the map of the vehicle, by the Kalman filter processing set in advance so that the smaller the value is, the larger the observation noise of the yaw rate, which is the time differential of the yaw angle. And.

以上説明したように、本発明に係る自車位置推定装置によれば、自車両の地図上の位置の推定精度を向上させることができる。 As described above, according to the own vehicle position estimation device according to the present invention, it is possible to improve the estimation accuracy of the position of the own vehicle on the map.

本実施形態に係る自車位置推定装置を示すブロック図である。It is a block diagram which shows the own vehicle position estimation apparatus which concerns on this embodiment. 式(5)におけるGE(cc,err_lon)の値を求めるためのデータテーブルの例である。This is an example of a data table for obtaining the value of GE (cc, err_lon) in the formula (5). 一回目の自車位置推定処理を示すフローチャートである。It is a flowchart which shows the 1st own vehicle position estimation processing. 二回目以降の自車位置推定処理を示すフローチャートである。It is a flowchart which shows the own vehicle position estimation process from the second time onward.

以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1に示す本実施形態に係る自車位置推定装置100は、車両(自車両)に搭載され、自車両の地図上の位置を推定する装置である。自車位置推定装置100は、地図情報から生成した疑似路面画像と車載のカメラで撮像した路面画像との照合結果及びカルマンフィルタを利用することで、精度の高い自車両の位置を推定する。 The own vehicle position estimation device 100 according to the present embodiment shown in FIG. 1 is a device mounted on a vehicle (own vehicle) and estimates the position of the own vehicle on a map. The own vehicle position estimation device 100 estimates the position of the own vehicle with high accuracy by using the collation result of the pseudo road surface image generated from the map information and the road surface image captured by the in-vehicle camera and the Kalman filter.

[自車位置推定装置の構成]
図1に示すように、本実施形態に係る自車位置推定装置100は、装置を統括的に制御する [Electronic Control Unit]10を備えている。ECU10は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]、CAN[Controller Area Network]通信回路等を有する電子制御ユニットである。ECU10では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子制御ユニットから構成されていてもよい。
[Configuration of own vehicle position estimation device]
As shown in FIG. 1, the own vehicle position estimation device 100 according to the present embodiment includes an [Electronic Control Unit] 10 that collectively controls the device. The ECU 10 is an electronic control unit having a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], a CAN [Controller Area Network] communication circuit, and the like. In the ECU 10, for example, various functions are realized by loading the program stored in the ROM into the RAM and executing the program loaded in the RAM in the CPU. The ECU 10 may be composed of a plurality of electronic control units.

ECU10は、GPS[Global Positioning System]受信部1、カメラ2、車速センサ3、IMU[Inertial Measurement Unit]4、地図データベース5、及びランドマークデータベース6と接続されている。 The ECU 10 is connected to a GPS [Global Positioning System] receiver 1, a camera 2, a vehicle speed sensor 3, an IMU [Inertial Measurement Unit] 4, a map database 5, and a landmark database 6.

GPS受信部1は、3個以上のGPS衛星から信号を受信することにより、自車両の位置(例えば車両の緯度及び経度)を測定する車載の測位部として機能する。GPS受信部1は、測定した自車両の位置情報をECU10へ送信する。なお、車載の測位部は、GPS受信部1に限られない。 The GPS receiving unit 1 functions as an in-vehicle positioning unit that measures the position of its own vehicle (for example, the latitude and longitude of the vehicle) by receiving signals from three or more GPS satellites. The GPS receiving unit 1 transmits the measured position information of the own vehicle to the ECU 10. The in-vehicle positioning unit is not limited to the GPS receiving unit 1.

カメラ2は、自車両の周囲を撮像する撮像機器である。カメラ2は、例えば車両のフロントガラスの裏側に設けられて自車両の前方の路面を撮像する。カメラ2は、単眼カメラであってもよく、ステレオカメラであってもよい。カメラ2は、撮像画像の情報をECU10に送信する。カメラ2は複数のカメラから構成されていてもよい。 The camera 2 is an imaging device that images the surroundings of the own vehicle. The camera 2 is provided on the back side of the windshield of the vehicle, for example, and images the road surface in front of the vehicle. The camera 2 may be a monocular camera or a stereo camera. The camera 2 transmits the information of the captured image to the ECU 10. The camera 2 may be composed of a plurality of cameras.

車速センサ3は、自車両の速度を検出する検出器である。車速センサ3としては、自車両の車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車速センサ3は、検出した車速情報をECU10に送信する。 The vehicle speed sensor 3 is a detector that detects the speed of the own vehicle. As the vehicle speed sensor 3, a wheel speed sensor that is provided on a wheel of the own vehicle or a drive shaft that rotates integrally with the wheel and detects the rotation speed of the wheel is used. The vehicle speed sensor 3 transmits the detected vehicle speed information to the ECU 10.

IMU4は、自車両のロール角、ピッチ角、ヨー角を計測する慣性計測ユニットである。IMU4は、例えばジャイロセンサと加速度センサを含めて構成されている。IMU4は、検出した自車両の角度をECU10に送信する。なお、IMU4に代えてヨー角センサを採用してもよい。また、IMU4の代わりに、地図情報から生成した疑似路面画像と車載のカメラで撮像した路面画像との照合結果からヨー角を求めてもよい。 The IMU4 is an inertial measurement unit that measures the roll angle, pitch angle, and yaw angle of the own vehicle. The IMU4 is configured to include, for example, a gyro sensor and an acceleration sensor. The IMU4 transmits the detected angle of the own vehicle to the ECU 10. A yaw angle sensor may be used instead of the IMU4. Further, instead of the IMU4, the yaw angle may be obtained from the collation result of the pseudo road surface image generated from the map information and the road surface image captured by the in-vehicle camera.

地図データベース5は、地図情報を記憶するデータベースである。地図データベース5は、例えば、自車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、白線の位置情報、交差点及び分岐点の位置情報、及び建物の位置情報等が含まれる。なお、地図データベース5は、自車両と通信可能な管理センター等の施設のコンピュータに記憶されていてもよい。 The map database 5 is a database that stores map information. The map database 5 is formed in, for example, an HDD [Hard Disk Drive] mounted on the own vehicle. Map information includes road position information, road shape information (for example, curve, straight line type, curve curvature, etc.), white line position information, intersection and branch point position information, and building position information. Is done. The map database 5 may be stored in a computer of a facility such as a management center capable of communicating with the own vehicle.

ランドマークデータベース6は、ランドマークの情報を備えたランドマーク記憶部である。ランドマークデータベース6は、例えば、自車両に搭載されたHDD内に形成されている。ランドマークとは、道路面上(車両通行帯以外の路面上も含む)で位置が固定され、物体の位置の算出の基準となるものである。ランドマークには、道路標識、及び道路標示が含まれる。道路標識には、案内標識、警戒標識、規制標識、指示標識等がある。道路標示には、規制標示と指示標示が含まれる。規制標示には、転回禁止マーク、最高速度マーク等がある。指示標示には、白線(車道中央線、車道外側線、車線境界線等)、前方に横断歩道があることを示す菱形マーク、前方に優先道路があることを示す三角マーク、進行方向マーク、信号機、デニレータ、トンネルの出入口、ETCゲートの出入口等がある。 The landmark database 6 is a landmark storage unit provided with landmark information. The landmark database 6 is formed in, for example, an HDD mounted on the own vehicle. A landmark is a fixed position on the road surface (including on a road surface other than the vehicle lane) and serves as a reference for calculating the position of an object. Landmarks include road signs and road markings. Road signs include guide signs, warning signs, regulatory signs, instruction signs, and the like. Road markings include regulatory markings and instruction markings. Regulatory signs include a turn prohibition mark, a maximum speed mark, and the like. The instruction signs include a white line (center line of the road, outside line of the road, lane boundary line, etc.), a diamond mark indicating that there is a pedestrian crossing in front, a triangular mark indicating that there is a priority road ahead, a direction mark, and a traffic light. , Denirator, tunnel entrance / exit, ETC gate entrance / exit, etc.

ランドマークデータベース6は、ランドマークの地図上の位置情報を記憶している。すなわち、ランドマークデータベース6は、地図データベース5の記憶している地図情報に関連付けられたランドマークの位置情報を記憶している。また、ランドマークデータベース6は、カメラ2の撮像画像からランドマークを認識するためのランドマークの画像情報を記憶している。なお、地図データベース5がランドマークデータベース6の機能を兼ねていてもよい。 The landmark database 6 stores the location information of the landmark on the map. That is, the landmark database 6 stores the location information of the landmarks associated with the map information stored in the map database 5. Further, the landmark database 6 stores the image information of the landmark for recognizing the landmark from the image captured by the camera 2. The map database 5 may also serve as the landmark database 6.

次に、ECU10の機能的構成について説明する。ECU10は、第1自車位置推定部11、疑似路面画像生成部12、路面画像変換部13、照合度合算出部14、第2自車位置推定部15、曲率取得部16を有している。また、ECU10は、ランドマーク認識部17、縦位置認識部18、縦位置誤差認識部19、ヨー角認識部20、車速認識部21、及び第3自車位置推定部22を有している。 Next, the functional configuration of the ECU 10 will be described. The ECU 10 includes a first vehicle position estimation unit 11, a pseudo road surface image generation unit 12, a road surface image conversion unit 13, a collation degree calculation unit 14, a second vehicle position estimation unit 15, and a curvature acquisition unit 16. Further, the ECU 10 has a landmark recognition unit 17, a vertical position recognition unit 18, a vertical position error recognition unit 19, a yaw angle recognition unit 20, a vehicle speed recognition unit 21, and a third own vehicle position estimation unit 22.

第1自車位置推定部11は、GPS受信部1などの車載の測位部の測位結果と地図データベース5の地図情報に基づいて、自車両の地図上の位置である第1自車位置を推定する。第1自車位置推定部11は、車載の測位部の測位結果から周知の手法により第1自車位置(緯度、経度)を推定する。 The first vehicle position estimation unit 11 estimates the position of the first vehicle, which is the position on the map of the vehicle, based on the positioning result of the vehicle-mounted positioning unit such as the GPS receiver 1 and the map information of the map database 5. To do. The first vehicle position estimation unit 11 estimates the first vehicle position (latitude, longitude) from the positioning results of the vehicle-mounted positioning unit by a well-known method.

疑似路面画像生成部12は、第1自車位置と地図情報(白線の位置情報)に基づいて、第1自車位置の周囲の疑似路面画像を生成する。疑似路面画像とは、地図情報に含まれる白線の位置情報などから擬似的に生成された道路の路面の画像である。疑似路面画像は、例えば、平面視の路面の画像に対応するように生成される。疑似路面画像生成部12は、第1自車位置と地図情報から、周知の手法により疑似路面画像を生成する。 The pseudo road surface image generation unit 12 generates a pseudo road surface image around the first vehicle position based on the first vehicle position and map information (position information of the white line). The pseudo road surface image is an image of the road surface of the road simulated from the position information of the white line included in the map information. The pseudo road surface image is generated, for example, so as to correspond to the image of the road surface in a plan view. The pseudo road surface image generation unit 12 generates a pseudo road surface image from the position of the first own vehicle and the map information by a well-known method.

路面画像変換部13は、カメラ2の撮像画像(路面を含む画像)を平面視の路面画像に変換する。路面画像変換部13は、疑似路面画像と照合可能にするため、周知の手法(例えば視点変換処理)によりカメラ2の撮像画像を路面画像に変換する。なお、疑似路面画像と照合可能であれば平面視の路面画像に変換する必要はない。 The road surface image conversion unit 13 converts the captured image (image including the road surface) of the camera 2 into a road surface image in a plan view. The road surface image conversion unit 13 converts the captured image of the camera 2 into a road surface image by a well-known method (for example, viewpoint conversion processing) so that the image can be collated with the pseudo road surface image. It is not necessary to convert the road surface image into a plan view if it can be collated with the pseudo road surface image.

照合度合算出部14は、疑似路面画像と路面画像との照合度合を算出する。照合度合とは、地図情報から生成された疑似路面画像とカメラ2の撮像画像から得られた路面画像との一致の度合いに相当する。照合度合が高いほど、疑似路面画像と路面画像とは一致している。照合度合算出部14は、例えば、疑似路面画像と路面画像との照合度合として、道路の白線の照合度合を算出する。照合度合算出部14は、周知の手法により疑似路面画像と路面画像との照合度合を算出する。 The collation degree calculation unit 14 calculates the collation degree between the pseudo road surface image and the road surface image. The degree of collation corresponds to the degree of matching between the pseudo road surface image generated from the map information and the road surface image obtained from the image captured by the camera 2. The higher the degree of collation, the more the pseudo road surface image and the road surface image match. The collation degree calculation unit 14 calculates, for example, the collation degree of the white line of the road as the collation degree between the pseudo road surface image and the road surface image. The collation degree calculation unit 14 calculates the collation degree between the pseudo road surface image and the road surface image by a well-known method.

第2自車位置推定部15は、疑似路面画像と路面画像に基づいて、自車両の地図上の位置である第2自車位置を推定する。第2自車位置推定部15は、疑似路面画像及び路面画像から周知の手法により第2自車位置(緯度、経度)を推定する。 The second vehicle position estimation unit 15 estimates the position of the second vehicle, which is the position on the map of the vehicle, based on the pseudo road surface image and the road surface image. The second vehicle position estimation unit 15 estimates the second vehicle position (latitude, longitude) from the pseudo road surface image and the road surface image by a well-known method.

第2自車位置推定部15は、照合度合算出部14の算出した照合度合を用いてもよい。第2自車位置推定部15は、例えば、車載のカメラ2の撮像画像から得られた路面画像との照合度合が所定の閾値以上の疑似路面画像のうち、最も照合度合が高い疑似路面画像を特定する。第2自車位置推定部15は、特定した疑似路面画像が生成された地図における位置情報を利用して、第2自車位置を推定する。第2自車位置推定部15は、周知の手法により疑似路面画像と路面画像との照合を用いた第2自車位置の推定を行う。 The second own vehicle position estimation unit 15 may use the collation degree calculated by the collation degree calculation unit 14. For example, the second vehicle position estimation unit 15 selects a pseudo road surface image having the highest degree of collation among the pseudo road surface images having a degree of collation with the road surface image obtained from the image captured by the in-vehicle camera 2 of a predetermined threshold value or more. Identify. The second vehicle position estimation unit 15 estimates the position of the second vehicle by using the position information on the map on which the specified pseudo road surface image is generated. The second own vehicle position estimation unit 15 estimates the second own vehicle position by collating the pseudo road surface image with the road surface image by a well-known method.

曲率取得部16は、第2自車位置及び地図情報に基づいて、自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置から自車両が走行する走行道路を特定し、地図情報に含まれる道路曲率の情報に基づいて走行道路の曲率を取得する。なお、曲率取得部16は、第2自車位置ではなく、第1自車位置を用いて自車両の走行道路の曲率を取得してもよい。 The curvature acquisition unit 16 acquires the curvature of the traveling road on which the own vehicle travels based on the position of the second own vehicle and the map information. The curvature acquisition unit 16 identifies the traveling road on which the own vehicle travels from the position of the second own vehicle, and acquires the curvature of the traveling road based on the information of the road curvature included in the map information. The curvature acquisition unit 16 may acquire the curvature of the traveling road of the own vehicle by using the first own vehicle position instead of the second own vehicle position.

ランドマーク認識部17は、カメラ2の撮像画像とランドマークデータベース6に記憶されたランドマークの情報に基づいて、撮像画像に含まれるランドマークを認識する。ランドマーク認識部17は、例えばパターン認識又はエッジ抽出により画像中のランドマークを認識する。 The landmark recognition unit 17 recognizes the landmarks included in the captured image based on the captured image of the camera 2 and the landmark information stored in the landmark database 6. The landmark recognition unit 17 recognizes landmarks in an image by, for example, pattern recognition or edge extraction.

ランドマーク認識部17は、撮像画像に含まれるランドマークを認識した場合、周知の画像処理によって撮像画像におけるランドマークの画像位置座標を認識する。ランドマークの画像位置座標とは、撮像画像中におけるランドマークの画像の位置の座標である。例えば、路面上の道路標示である菱形マークの画像位置座標は、撮像画像における菱形マークの中心の座標とすることができる。ランドマーク認識部17は、周知の手法によりランドマークの画像位置座標を認識する。 When the landmark recognition unit 17 recognizes the landmark included in the captured image, the landmark recognition unit 17 recognizes the image position coordinates of the landmark in the captured image by well-known image processing. The image position coordinates of the landmark are the coordinates of the position of the image of the landmark in the captured image. For example, the image position coordinates of the diamond mark, which is a road marking on the road surface, can be the coordinates of the center of the diamond mark in the captured image. The landmark recognition unit 17 recognizes the image position coordinates of the landmark by a well-known method.

縦位置認識部18は、ランドマーク認識部17がランドマークの画像位置座標を認識した場合、撮像画像におけるランドマークの画像位置座標と地図上のランドマークの位置情報とに基づいて、自車両の縦位置を認識する。自車両の縦位置とは、自車両の走行する走行道路の延在方向における自車両の位置である。縦位置認識部18は、周知の手法によりランドマークを用いた自車両の縦位置の認識を行う。 When the landmark recognition unit 17 recognizes the image position coordinates of the landmark, the vertical position recognition unit 18 of the own vehicle is based on the image position coordinates of the landmark in the captured image and the position information of the landmark on the map. Recognize the vertical position. The vertical position of the own vehicle is the position of the own vehicle in the extending direction of the traveling road on which the own vehicle travels. The vertical position recognition unit 18 recognizes the vertical position of the own vehicle using landmarks by a well-known method.

縦位置誤差認識部19は、縦位置認識部18が自車両の縦位置を認識した場合、縦位置誤差を算出する。縦位置誤差とは、縦位置認識部18の認識した自車両の縦位置と第2自車位置から得られる自車両の縦位置との差である。縦位置誤差認識部19は、例えば、走行道路の延在方向を基準として第2自車位置と縦位置認識部18の認識した自車両の縦位置との差を取ることで、縦位置誤差を算出する。縦位置誤差認識部19は、周知の手法により縦位置誤差を算出する。 The vertical position error recognition unit 19 calculates the vertical position error when the vertical position recognition unit 18 recognizes the vertical position of the own vehicle. The vertical position error is the difference between the vertical position of the own vehicle recognized by the vertical position recognition unit 18 and the vertical position of the own vehicle obtained from the second own vehicle position. The vertical position error recognition unit 19 determines the vertical position error by, for example, taking the difference between the second own vehicle position and the vertical position of the own vehicle recognized by the vertical position recognition unit 18 with reference to the extending direction of the traveling road. calculate. The vertical position error recognition unit 19 calculates the vertical position error by a well-known method.

ヨー角認識部20は、IMU4の計測したヨー角に基づいて、自車両のヨー角を認識する。車速認識部21は、車速センサ3の検出した車速に基づいて、自車両の車速を認識する。 The yaw angle recognition unit 20 recognizes the yaw angle of its own vehicle based on the yaw angle measured by the IMU4. The vehicle speed recognition unit 21 recognizes the vehicle speed of the own vehicle based on the vehicle speed detected by the vehicle speed sensor 3.

第3自車位置推定部22は、縦位置誤差認識部19が自車両の縦位置誤差を認識した場合、自車両の地図上の位置である第3自車位置を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって第3自車位置を推定する。また、第3自車位置推定部22は、上記カルマンフィルタ処理の出力結果として第3自車位置の他に自車両のヨー角を出力する。以後、カルマンフィルタ処理により推定されたヨー角を第2ヨー角と称する。 When the vertical position error recognition unit 19 recognizes the vertical position error of the own vehicle, the third own vehicle position estimation unit 22 estimates the third own vehicle position, which is the position on the map of the own vehicle. The third vehicle position estimation unit 22 estimates the third vehicle position by preset Kalman filter processing based on the second vehicle position, the degree of collation, the curvature of the road, the vertical position error, the yaw angle, and the vehicle speed. To do. Further, the third own vehicle position estimation unit 22 outputs the yaw angle of the own vehicle in addition to the third own vehicle position as the output result of the Kalman filter processing. Hereinafter, the yaw angle estimated by the Kalman filter processing will be referred to as a second yaw angle.

以下、本実施形態に係るカルマンフィルタ処理について説明する。下記の式(1)は、カルマンフィルタ処理における状態量uを示す式である。式(1)において、Eは自車両の緯度、Nは自車両の経度、φは自車両のヨー角、Vは自車両の車速、φ(φにドット)は自車両のヨーレートである。Tは行列の転置を表わしている。式(2)は、カルマンフィルタ処理における観測量vを示す式である。式(2)において、Ecは第2自車位置における緯度、Ncは第2自車位置における経度、φcはヨー角認識部20の認識したヨー角、Vcは車速認識部21の認識した車速、φcはφcを微分したヨーレートである。

Figure 0006776707
Hereinafter, the Kalman filter processing according to the present embodiment will be described. The following equation (1) is an equation showing the state quantity u in the Kalman filter processing. In equation (1), E is the latitude of the own vehicle, N is the longitude of the own vehicle, φ is the yaw angle of the own vehicle, V is the vehicle speed of the own vehicle, and φ (dot in φ) is the yaw rate of the own vehicle. T represents the transpose of the matrix. Equation (2) is an equation showing the observed amount v in the Kalman filter processing. In equation (2), Ec is the latitude at the second vehicle position, Nc is the longitude at the second vehicle position, φc is the yaw angle recognized by the yaw angle recognition unit 20, and Vc is the vehicle speed recognized by the vehicle speed recognition unit 21. φ c is the yaw rate obtained by differentiating φc.
Figure 0006776707

続いて、観測方程式について説明する。カルマンフィルタ処理の観測方程式を下記の式(3)として示す。式(3)においてHは単位行列である。Rnは観測ノイズである。kは時系列を表わしている。式(4)では、式(3)を行列式で表わしている。

Figure 0006776707
Next, the observation equation will be described. The observation equation of the Kalman filter processing is shown as the following equation (3). In equation (3), H is an identity matrix. Rn is the observed noise. k represents a time series. In equation (4), equation (3) is represented by a determinant.
Figure 0006776707

下記の式(5)は、観測ノイズRnを示す行列式である。式(5)において、ccは、照合度合算出部14の算出した照合度合である。err_lonは、縦位置誤差認識部19の認識した縦位置誤差である。A、A、Aは定数である。G(cc,err_lon)、G(cc,err_lon)、GYR(R)は関数である。式(6)は、関数GYRを示す式である。式(6)において、Rは自車両の走行道路の曲率である。A、A、Aは定数である。式(6)には、曲率Rが小さいときに、ヨーレートの観測ノイズが大きくなりやすい特性が反映されている。

Figure 0006776707
The following equation (5) is a determinant showing the observed noise Rn. In the formula (5), cc is the degree of collation calculated by the degree of collation calculation unit 14. err_lon is the vertical position error recognized by the vertical position error recognition unit 19. A 1 , A 2 , and A 3 are constants. G E (cc, err_lon), G R (cc, err_lon), G YR (R) is a function. Equation (6) is an equation showing the function G YR . In equation (6), R is the curvature of the driving road of the own vehicle. A 4 , A 5 , and A 6 are constants. Equation (6) reflects the characteristic that the observed noise of yaw rate tends to increase when the curvature R is small.
Figure 0006776707

ここで、図2は、式(5)におけるGE(cc,err_lon)を求めるためのデータテーブルの例である。図2に示すaは定数である。図2のデータテーブルは、照合度合ccが大きいとき、また、縦位置誤差err_lonが小さいときに観測ノイズが小さくなるように設定されている。図2に示すように、照合度合ccと縦位置誤差err_lonが決まれば予め設定されたデータテーブルなどを利用して、GE(cc,err_lon)の値を求めることができる。G(cc,err_lon)についても、同様のデータテーブルを用いて値を求めることができる。例えば、図2における定数aを適切な定数bに置き換えることで、G(cc,err_lon)のデータテーブルとすることができる。 Here, FIG. 2 is an example of a data table for obtaining GE (cc, err_lon) in the equation (5). A shown in FIG. 2 is a constant. The data table of FIG. 2 is set so that the observed noise becomes small when the collation degree cc is large and when the vertical position error err_lon is small. As shown in FIG. 2, if the degree of collation cc and the vertical position error err_lon are determined, the value of GE (cc, err_lon) can be obtained by using a preset data table or the like. G R (cc, err_lon) for also, it is possible to obtain the value by using the same data table. For example, by replacing the constant a in FIG. 2 to the appropriate constant b, it can be a data table G R (cc, err_lon).

次に、状態方程式について説明する。カルマンフィルタ処理の状態方程式を下記の式(7)として示す。式(7)において、Fは偏微分可能な行列である。Qnは状態ノイズ(システムノイズ)である。k+1は、離散時刻kの直後の離散時刻であることを意味している。式(7)から状態ノイズQnを省略して展開した式として、式(8)〜式(12)を以下に示す。なお、式(8)〜式(10)に示すdtは離散時刻kから離散時刻k+1への遷移時間を意味している。

Figure 0006776707
Next, the equation of state will be described. The equation of state of Kalman filtering is shown as the following equation (7). In equation (7), F is a partially differentiable matrix. Qn is state noise (system noise). k + 1 means that it is the discrete time immediately after the discrete time k. Equations (8) to (12) are shown below as equations expanded from the equation (7) by omitting the state noise Qn. The dt shown in the equations (8) to (10) means the transition time from the discrete time k to the discrete time k + 1.
Figure 0006776707

下記の式(13)は、状態ノイズQnを示す行列式である。式(13)において、B1、B2、B3、B4は定数である。Fpos(R)は曲率Rの関数である。Fyaw(φ)はヨー角φの関数である。式(14)は、関数Fpos(R)を示す式である。式(14)において、B、B,Bは定数である。関数Fyaw(R)を示す式である。式(15)において、B、B,B10は定数である。

Figure 0006776707
The following equation (13) is a determinant showing the state noise Qn. In equation (13), B1, B2, B3, and B4 are constants. Fpos (R) is a function of curvature R. Fyaw (φ) is a function of the yaw angle φ. Equation (14) is an equation showing the function Fpos (R). In equation (14), B 5 , B 6 , and B 7 are constants. It is an expression which shows the function Fyaw (R). In equation (15), B 8 , B 9 , and B 10 are constants.
Figure 0006776707

第3自車位置推定部22は、以上説明した式(1)〜式(15)を利用したカルマンフィルタ処理により、第3自車位置及びヨー角を推定することができる。このカルマンフィルタ処理によれば、観測ノイズRnにおいて照合度合cc、縦位置誤差err_lon、及び曲率Rを考慮することにより、これらを考慮しない場合と比べて、第3自車位置の推定精度を向上させることができる。また、状態ノイズQnにおいて、縦位置誤差err_lon及び曲率Rを考慮することにより、これらを考慮しない場合と比べて、第3自車位置の推定精度を向上させることができる。 The third vehicle position estimation unit 22 can estimate the third vehicle position and the yaw angle by the Kalman filter processing using the equations (1) to (15) described above. According to this Kalman filter processing, by considering the collation degree cc, the vertical position error err_lon, and the curvature R in the observation noise Rn, the estimation accuracy of the third own vehicle position can be improved as compared with the case where these are not taken into consideration. Can be done. Further, by considering the vertical position error err_lon and the curvature R in the state noise Qn, it is possible to improve the estimation accuracy of the third own vehicle position as compared with the case where these are not taken into consideration.

[自車位置推定装置における自車位置推定処理]
以下、本実施形態に係る自車位置推定装置100における自車位置推定処理について図面を参照して説明する。図3は、一回目の自車位置推定処理を示すフローチャートである。図3のフローチャートは、例えば、自車両が走行を開始した場合に実施される。
[Own vehicle position estimation process in own vehicle position estimation device]
Hereinafter, the own vehicle position estimation process in the own vehicle position estimation device 100 according to the present embodiment will be described with reference to the drawings. FIG. 3 is a flowchart showing the first vehicle position estimation process. The flowchart of FIG. 3 is implemented, for example, when the own vehicle starts traveling.

図3に示すように、自車位置推定装置100のECU10は、S10として、第1自車位置推定部11による第1自車位置の推定を行う。第1自車位置推定部11は、車載の測位部(例えばGPS受信部1)の測位結果に基づいて、第1自車位置を推定する。 As shown in FIG. 3, the ECU 10 of the own vehicle position estimation device 100 estimates the position of the first own vehicle by the first own vehicle position estimation unit 11 as S10. The first vehicle position estimation unit 11 estimates the position of the first vehicle based on the positioning result of the vehicle-mounted positioning unit (for example, GPS receiving unit 1).

S12において、ECU10は、疑似路面画像生成部12により疑似路面画像を生成する。疑似路面画像生成部12は、第1自車位置と地図情報(白線の位置情報)に基づいて、第1自車位置の周囲の疑似路面画像を生成する。また、ECU10は、路面画像変換部13によりカメラ2の撮像画像を平面視の路面画像(疑似路面画像と対比できる路面画像)に変換する。 In S12, the ECU 10 generates a pseudo road surface image by the pseudo road surface image generation unit 12. The pseudo road surface image generation unit 12 generates a pseudo road surface image around the first vehicle position based on the first vehicle position and map information (position information of the white line). Further, the ECU 10 converts the captured image of the camera 2 into a plan view road surface image (a road surface image that can be compared with a pseudo road surface image) by the road surface image conversion unit 13.

S14において、ECU10は、照合度合算出部14により疑似路面画像と路面画像との照合度合を算出する。照合度合が高いほど、疑似路面画像と路面画像の一致度が高い。 In S14, the ECU 10 calculates the degree of collation between the pseudo road surface image and the road surface image by the collation degree calculation unit 14. The higher the degree of collation, the higher the degree of matching between the pseudo road surface image and the road surface image.

S16において、ECU10は、第2自車位置推定部15により第2自車位置を推定する。第2自車位置推定部15は、疑似路面画像と路面画像に基づいて、第2自車位置を推定する。第2自車位置推定部15は、例えば、車載のカメラ2の撮像画像から得られた路面画像との照合度合が所定の閾値以上の疑似路面画像のうち、最も照合度合が高い疑似路面画像を特定し、特定した疑似路面画像が生成された地図の位置情報を利用して第2自車位置を推定する。 In S16, the ECU 10 estimates the position of the second vehicle by the second vehicle position estimation unit 15. The second vehicle position estimation unit 15 estimates the position of the second vehicle based on the pseudo road surface image and the road surface image. The second vehicle position estimation unit 15 obtains, for example, a pseudo road surface image having the highest degree of matching among pseudo road surface images having a degree of matching with the road surface image obtained from the image captured by the in-vehicle camera 2 of a predetermined threshold value or more. The position of the second own vehicle is estimated by using the position information of the map on which the specified pseudo road surface image is generated.

S18において、ECU10は、曲率取得部16により自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置及び地図情報に基づいて、第2自車位置から自車両が走行する走行道路を特定し、地図情報から走行道路の曲率を取得する。 In S18, the ECU 10 acquires the curvature of the traveling road on which the own vehicle travels by the curvature acquisition unit 16. The curvature acquisition unit 16 identifies the traveling road on which the own vehicle travels from the second own vehicle position based on the second own vehicle position and the map information, and acquires the curvature of the traveling road from the map information.

S20において、ECU10は、ランドマーク認識部17によりカメラ2の撮像画像に含まれるランドマークを認識したか否かを判定する。ランドマーク認識部17は、カメラ2の撮像画像とランドマークデータベース6に記憶されたランドマークの情報に基づいて、撮像画像に含まれるランドマークを認識する。ECU10は、撮像画像に含まれるランドマークを認識したと判定した場合(S20:YES)、S22に移行する。 In S20, the ECU 10 determines whether or not the landmark recognition unit 17 has recognized the landmark included in the image captured by the camera 2. The landmark recognition unit 17 recognizes the landmarks included in the captured image based on the captured image of the camera 2 and the landmark information stored in the landmark database 6. When the ECU 10 determines that the landmark included in the captured image has been recognized (S20: YES), the process proceeds to S22.

一方、ECU10は、撮像画像に含まれるランドマークを認識しない(撮像画像中にランドマークが存在しない)と判定した場合(S20:NO)、S28に移行する。 On the other hand, when the ECU 10 determines that the landmark included in the captured image is not recognized (the landmark does not exist in the captured image) (S20: NO), the process proceeds to S28.

S22において、ECU10は、ランドマーク認識部17により撮像画像におけるランドマークの画像位置座標を認識する。ランドマーク認識部17は、例えば、道路標示である菱形マークの画像位置座標として、撮像画像内における菱形マークの中心の座標を認識することができる。 In S22, the ECU 10 recognizes the image position coordinates of the landmark in the captured image by the landmark recognition unit 17. The landmark recognition unit 17 can recognize the coordinates of the center of the rhombus mark in the captured image as, for example, the image position coordinates of the rhombus mark which is a road marking.

S24において、ECU10は、縦位置認識部18により自車両の縦位置を認識する。縦位置認識部18は、撮像画像におけるランドマークの画像位置座標と地図上のランドマークの位置情報とに基づいて、自車両の縦位置を認識する。 In S24, the ECU 10 recognizes the vertical position of the own vehicle by the vertical position recognition unit 18. The vertical position recognition unit 18 recognizes the vertical position of the own vehicle based on the image position coordinates of the landmark in the captured image and the position information of the landmark on the map.

S26において、ECU10は、縦位置誤差認識部19により縦位置誤差を算出する。縦位置誤差認識部19は、縦位置認識部18の認識した自車両の縦位置と第2自車位置から得た自車両の縦位置との差として、縦位置誤差を算出する。 In S26, the ECU 10 calculates the vertical position error by the vertical position error recognition unit 19. The vertical position error recognition unit 19 calculates the vertical position error as the difference between the vertical position of the own vehicle recognized by the vertical position recognition unit 18 and the vertical position of the own vehicle obtained from the second own vehicle position.

S28において、ECU10は、第3自車位置推定部22により第3自車位置及び第2ヨー角を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって第3自車位置及び第2ヨー角を推定する。第3自車位置推定部22は、例えば、上述した式(1)〜式(15)を利用したカルマンフィルタ処理により、第3自車位置及び第2ヨー角を推定することができる。ECU10は、推定した第3自車位置を自車両の地図上の位置として外部(例えば、ナビゲーションシステム、運転支援装置、自動運転装置)に出力する。ここで、S20でNOの場合(ランドマークを認識しない場合)には、縦位置誤差を予め設定された最大値と仮定してカルマンフィルタ処理を実行する。この場合、図2の表においては最大値となる「2≦err_lon」の欄の値が照合度合ccとの関係で用いられることになる。 In S28, the ECU 10 estimates the third vehicle position and the second yaw angle by the third vehicle position estimation unit 22. The third vehicle position estimation unit 22 uses a preset Kalman filter process based on the second vehicle position, the degree of matching, the curvature of the road, the vertical position error, the yaw angle, and the vehicle speed, and the third vehicle position and the third vehicle position. 2 Estimate the yaw angle. The third vehicle position estimation unit 22 can estimate the third vehicle position and the second yaw angle by, for example, Kalman filter processing using the above equations (1) to (15). The ECU 10 outputs the estimated third vehicle position as a position on the map of the vehicle to the outside (for example, a navigation system, a driving support device, an automatic driving device). Here, in the case of NO in S20 (when the landmark is not recognized), the Kalman filter processing is executed assuming that the vertical position error is the maximum value set in advance. In this case, in the table of FIG. 2, the value in the column of "2 ≦ err_lon", which is the maximum value, is used in relation to the degree of collation cc.

なお、図3のフローチャートとは別に、ヨー角認識部20による自車両のヨー角の認識と車速認識部21による自車両の車速の認識は、センサ側の性能に応じて所定間隔で実行されている。 In addition to the flowchart of FIG. 3, the yaw angle recognition unit 20 recognizes the yaw angle of the own vehicle and the vehicle speed recognition unit 21 recognizes the vehicle speed of the own vehicle at predetermined intervals according to the performance of the sensor. There is.

図4は、二回目以降の自車位置推定処理を示すフローチャートである。図4に示すフローチャートは、例えば、自車両が走行を開始してから一回目のカルマンフィルタ処理により第3自車位置及びヨー角を得られた場合に実行される。 FIG. 4 is a flowchart showing the own vehicle position estimation process from the second time onward. The flowchart shown in FIG. 4 is executed, for example, when the third own vehicle position and yaw angle are obtained by the first Kalman filter processing after the own vehicle starts traveling.

図4に示すように、ECU10は、S30として、疑似路面画像生成部12により疑似路面画像を生成する。疑似路面画像生成部12は、第3自車位置が一度推定された場合、推定精度の高い第3自車位置と地図情報(白線の位置情報)に基づいて、第3自車位置の周囲の疑似路面画像を生成する。また、ECU10は、路面画像変換部13によりカメラ2の撮像画像を平面視の路面画像(疑似路面画像と対比できる路面画像)に変換する。 As shown in FIG. 4, the ECU 10 generates a pseudo road surface image by the pseudo road surface image generation unit 12 as S30. When the position of the third vehicle is estimated once, the pseudo road surface image generation unit 12 is around the position of the third vehicle based on the position of the third vehicle and the map information (position information of the white line) with high estimation accuracy. Generate a pseudo road surface image. Further, the ECU 10 converts the captured image of the camera 2 into a plan view road surface image (a road surface image that can be compared with a pseudo road surface image) by the road surface image conversion unit 13.

S32において、ECU10は、照合度合算出部14により疑似路面画像と路面画像との照合度合を算出する。この疑似路面画像は、第3自車位置の周囲の疑似路面画像である。 In S32, the ECU 10 calculates the degree of collation between the pseudo road surface image and the road surface image by the collation degree calculation unit 14. This pseudo road surface image is a pseudo road surface image around the position of the third vehicle.

S34において、ECU10は、第2自車位置推定部15により第2自車位置を推定する。第2自車位置推定部15は、第3自車位置の周囲の疑似路面画像と路面画像に基づいて、今回の第2自車位置を推定する。 In S34, the ECU 10 estimates the position of the second vehicle by the second vehicle position estimation unit 15. The second vehicle position estimation unit 15 estimates the position of the second vehicle this time based on the pseudo road surface image and the road surface image around the third vehicle position.

S36において、ECU10は、曲率取得部16により自車両の走行する走行道路の曲率を取得する。曲率取得部16は、第2自車位置及び地図情報に基づいて走行道路の曲率を取得する。 In S36, the ECU 10 acquires the curvature of the traveling road on which the own vehicle travels by the curvature acquisition unit 16. The curvature acquisition unit 16 acquires the curvature of the traveling road based on the position of the second vehicle and the map information.

S38において、ECU10は、ランドマーク認識部17によりカメラ2の撮像画像に含まれるランドマークを認識したか否かを判定する。ECU10は、撮像画像に含まれるランドマークを認識したと判定した場合(S38:YES)、S40に移行する。 In S38, the ECU 10 determines whether or not the landmark recognition unit 17 has recognized the landmark included in the image captured by the camera 2. When the ECU 10 determines that the landmark included in the captured image has been recognized (S38: YES), the process proceeds to S40.

一方、ECU10は、撮像画像に含まれるランドマークを認識しないと判定した場合(S38:NO)、S46に移行する。 On the other hand, when the ECU 10 determines that the landmark included in the captured image is not recognized (S38: NO), the process proceeds to S46.

S40〜S44は、図3に示すS22〜S26と同じ処理であるため説明は簡潔にする。S40において、ECU10は、ランドマーク認識部17により撮像画像におけるランドマークの画像位置座標を認識する。S42において、ECU10は、縦位置認識部18により自車両の縦位置を認識する。S44において、ECU10は、縦位置誤差認識部19により縦位置誤差を算出する。 Since S40 to S44 are the same processes as S22 to S26 shown in FIG. 3, the description will be simplified. In S40, the ECU 10 recognizes the image position coordinates of the landmark in the captured image by the landmark recognition unit 17. In S42, the ECU 10 recognizes the vertical position of the own vehicle by the vertical position recognition unit 18. In S44, the ECU 10 calculates the vertical position error by the vertical position error recognition unit 19.

S46において、ECU10は、第3自車位置推定部22により今回の第3自車位置及び今回の第2ヨー角を推定する。第3自車位置推定部22は、第2自車位置、照合度合、走行道路の曲率、縦位置誤差、前回の第2ヨー角、及び車速に基づき、予め設定されたカルマンフィルタ処理によって今回の第3自車位置及び今回の第2ヨー角を推定する。 In S46, the ECU 10 estimates the current third vehicle position and the current second yaw angle by the third vehicle position estimation unit 22. The third vehicle position estimation unit 22 uses a preset Kalman filter process based on the second vehicle position, the degree of collation, the curvature of the driving road, the vertical position error, the previous second yaw angle, and the vehicle speed. 3 Estimate the position of the vehicle and the second yaw angle this time.

第3自車位置推定部22は、例えば、上述した式(1)〜式(15)を利用したカルマンフィルタ処理により、今回の第3自車位置及び今回の第2ヨー角を推定することができる。この場合には、式(1)のヨー角φとして前回の第2ヨー角(前回のカルマンフィルタ処理で推定されたヨー角)が用いられる。 The third vehicle position estimation unit 22 can estimate the current third vehicle position and the current second yaw angle by, for example, Kalman filter processing using the above equations (1) to (15). .. In this case, the previous second yaw angle (yaw angle estimated by the previous Kalman filter processing) is used as the yaw angle φ in the equation (1).

なお、必ずしも前回の第2ヨー角を用いる必要はなく、ヨー角認識部20の認識した自車両のヨー角を用いてカルマンフィルタ処理を実行してもよい。また、S38でNOの場合(ランドマークを認識しない場合)には、前回の処理で用いた縦位置誤差を利用してカルマンフィルタ処理を行う。ECU10は、推定した今回の第3自車位置を自車両の地図上の位置として外部に出力する。その後、ECU10は、所定時間の経過後、今回の第3自車位置を用いて再びS30から処理を繰り返す。 It is not always necessary to use the previous second yaw angle, and the Kalman filter process may be executed using the yaw angle of the own vehicle recognized by the yaw angle recognition unit 20. Further, in the case of NO in S38 (when the landmark is not recognized), the Kalman filter processing is performed by utilizing the vertical position error used in the previous processing. The ECU 10 outputs the estimated position of the third own vehicle to the outside as a position on the map of the own vehicle. Then, after the elapse of a predetermined time, the ECU 10 repeats the process from S30 again using the position of the third own vehicle this time.

[自車位置推定装置の作用効果]
以上説明した本実施形態に係る自車位置推定装置100によれば、地図情報から生成した疑似路面画像と車載カメラの撮像した路面画像の照合により推定した第2自車位置、ヨー角、車速を入力として、走行道路の曲率、縦位置誤差を考慮したカルマンフィルタ処理を行うことにより、道路曲率や縦位置誤差を考慮しない場合と比べて道路曲率を踏まえたヨー角の補正なども可能となり、自車両の地図上の位置の推定精度を向上させることができる。
[Effect of own vehicle position estimation device]
According to the own vehicle position estimation device 100 according to the present embodiment described above, the second own vehicle position, yaw angle, and vehicle speed estimated by collating the pseudo road surface image generated from the map information with the road surface image captured by the in-vehicle camera can be obtained. By performing Kalman filter processing that takes into account the curvature of the driving road and vertical position error as input, it is possible to correct the yaw angle based on the road curvature as compared to the case where the road curvature and vertical position error are not taken into consideration. It is possible to improve the estimation accuracy of the position on the map.

また、自車位置推定装置100によれば、図4に示すように、第3自車位置を一回推定した後は、第3自車位置を利用して次の自車位置推定処理を行うことができるので、毎回GPS受信部1のような車載の測位部を用いる必要がなく、自車両の地図上の位置について高い推定精度を維持することができる。 Further, according to the own vehicle position estimation device 100, as shown in FIG. 4, after estimating the third own vehicle position once, the next own vehicle position estimation process is performed using the third own vehicle position. Therefore, it is not necessary to use an in-vehicle positioning unit such as the GPS receiving unit 1 every time, and high estimation accuracy can be maintained for the position of the own vehicle on the map.

以上、本発明の好適な実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。本発明は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。 Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment. The present invention can be carried out in various forms having various modifications and improvements based on the knowledge of those skilled in the art, including the above-described embodiment.

例えば、第2自車位置推定部15は、第2自車位置の推定において照合度合を用いる必要はない。この場合、照合度合算出部14は、第2自車位置の推定後に、疑似路面画像と路面画像との照合度合を算出してもよい。すなわち、図3のS14はS16の後に行われてもよい。また、S10〜S16と、S18の走行道路の曲率の取得は、S28のカルマンフィルタ処理より前に完了していればよく順番は限定されない。同様に、図4のS32は、S34の後に行われてもよい。S30〜S34と、S36の走行道路の曲率の取得は、S46のカルマンフィルタ処理の前に完了していればよく順番は限定されない。なお、図3に示す一回目の自車位置推定処理を示すフローチャートにおいて、S20でNOの場合(ランドマークを認識しない場合)にはS28のカルマンフィルタ処理を行わず、S20でYESの場合にのみS28のカルマンフィルタ処理を実行する態様であってもよい。 For example, the second vehicle position estimation unit 15 does not need to use the collation degree in estimating the second vehicle position. In this case, the collation degree calculation unit 14 may calculate the collation degree between the pseudo road surface image and the road surface image after estimating the position of the second own vehicle. That is, S14 in FIG. 3 may be performed after S16. Further, the acquisition of the curvatures of the traveling roads of S10 to S16 and S18 may be completed before the Kalman filter processing of S28, and the order is not limited. Similarly, S32 in FIG. 4 may be performed after S34. The acquisition of the curvatures of the roads of S30 to S34 and S36 may be completed before the Kalman filter processing of S46, and the order is not limited. In the flowchart showing the first vehicle position estimation process shown in FIG. 3, if NO in S20 (when the landmark is not recognized), the Kalman filter process in S28 is not performed, and only in the case of YES in S20, S28. The Kalman filter process may be executed.

100…自車位置推定装置、10…ECU、1…GPS受信部(測位部)、2…カメラ、3…車速センサ、4…IMU、5…地図データベース、6…ランドマークデータベース(ランドマーク記憶部)、11…第1自車位置推定部、12…疑似路面画像生成部、13…路面画像変換部、14…照合度合算出部、15…第2自車位置推定部、16…曲率取得部、17…ランドマーク認識部、18…縦位置認識部、19…縦位置誤差認識部、20…ヨー角認識部、21…車速認識部、22…第3自車位置推定部。 100 ... Vehicle position estimation device, 10 ... ECU, 1 ... GPS receiver (positioning unit), 2 ... Camera, 3 ... Vehicle speed sensor, 4 ... IMU, 5 ... Map database, 6 ... Landmark database (landmark storage unit) ), 11 ... 1st vehicle position estimation unit, 12 ... pseudo road surface image generation unit, 13 ... road surface image conversion unit, 14 ... collation degree calculation unit, 15 ... second vehicle position estimation unit, 16 ... curvature acquisition unit, 17 ... Landmark recognition unit, 18 ... Vertical position recognition unit, 19 ... Vertical position error recognition unit, 20 ... Yaw angle recognition unit, 21 ... Vehicle speed recognition unit, 22 ... Third vehicle position estimation unit.

Claims (1)

車載の測位部から得られた自車両の地図上の位置である第1自車位置に基づいて、地図情報から前記自車両の周囲の疑似路面画像を生成し、前記自車両のカメラの撮像画像から得られた路面画像と前記疑似路面画像との照合により第2自車位置を推定する自車位置推定装置であって、
前記路面画像と前記疑似路面画像との照合度合を算出する照合度合算出部と、
前記第1自車位置又は前記第2自車位置と前記地図情報とに基づいて、前記自車両の走行する走行道路の曲率を取得する曲率取得部と、
前記地図上のランドマークの位置情報を記憶するランドマーク記憶部と、
前記自車両のカメラの撮像した撮像画像に基づいて、前記撮像画像に含まれる前記ランドマークの画像位置座標を認識するランドマーク認識部と、
前記地図上の前記ランドマークの位置情報と、前記撮像画像に含まれる前記ランドマークの画像位置座標とに基づいて、前記走行道路の延在方向における前記自車両の位置である縦位置を認識する縦位置認識部と、
前記縦位置認識部の認識した前記縦位置と前記第2自車位置から得た前記自車両の縦位置との差である縦位置誤差を認識する縦位置誤差認識部と、
前記自車両のヨー角を認識するヨー角認識部と、
前記自車両の車速を認識する車速認識部と、
前記第2自車位置、前記照合度合、前記走行道路の曲率、前記縦位置誤差、前記ヨー角、及び前記車速に基づき、前記走行道路の曲率が小さいほど前記ヨー角の時間微分であるヨーレートの観測ノイズが大きくなるように予め設定されたカルマンフィルタ処理によって、前記自車両の地図上の位置である第3自車位置を推定する第3自車位置推定部と、
を備える、自車位置推定装置。
Based on the position of the first own vehicle, which is the position on the map of the own vehicle obtained from the in-vehicle positioning unit, a pseudo road surface image around the own vehicle is generated from the map information, and the captured image of the camera of the own vehicle is generated. This is a vehicle position estimation device that estimates the position of the second vehicle by collating the road surface image obtained from the above with the pseudo road surface image.
A collation degree calculation unit that calculates a collation degree between the road surface image and the pseudo road surface image,
A curvature acquisition unit that acquires the curvature of the traveling road on which the own vehicle travels based on the first own vehicle position or the second own vehicle position and the map information.
A landmark storage unit that stores the location information of landmarks on the map,
A landmark recognition unit that recognizes the image position coordinates of the landmark included in the captured image based on the captured image captured by the camera of the own vehicle.
Based on the position information of the landmark on the map and the image position coordinates of the landmark included in the captured image, the vertical position which is the position of the own vehicle in the extending direction of the traveling road is recognized. Vertical position recognition unit and
A vertical position error recognition unit that recognizes a vertical position error that is a difference between the vertical position recognized by the vertical position recognition unit and the vertical position of the own vehicle obtained from the second own vehicle position.
The yaw angle recognition unit that recognizes the yaw angle of the own vehicle and
The vehicle speed recognition unit that recognizes the vehicle speed of the own vehicle and
Based on the second vehicle position, the degree of collation, the curvature of the traveling road, the vertical position error, the yaw angle, and the vehicle speed, the smaller the curvature of the traveling road, the more the yaw rate is the time derivative of the yaw angle. A third vehicle position estimation unit that estimates the position of the third vehicle, which is the position on the map of the vehicle, by Kalman filter processing preset so as to increase the observation noise .
A vehicle position estimation device equipped with.
JP2016151777A 2016-08-02 2016-08-02 Own vehicle position estimation device Expired - Fee Related JP6776707B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016151777A JP6776707B2 (en) 2016-08-02 2016-08-02 Own vehicle position estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016151777A JP6776707B2 (en) 2016-08-02 2016-08-02 Own vehicle position estimation device

Publications (2)

Publication Number Publication Date
JP2018021777A JP2018021777A (en) 2018-02-08
JP6776707B2 true JP6776707B2 (en) 2020-10-28

Family

ID=61165406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016151777A Expired - Fee Related JP6776707B2 (en) 2016-08-02 2016-08-02 Own vehicle position estimation device

Country Status (1)

Country Link
JP (1) JP6776707B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7052543B2 (en) * 2018-05-09 2022-04-12 トヨタ自動車株式会社 Vehicle position estimation device
JP6766843B2 (en) * 2018-05-17 2020-10-14 株式会社Soken Self-position estimator
JP7025293B2 (en) * 2018-07-10 2022-02-24 トヨタ自動車株式会社 Vehicle position estimation device
EP3872454A4 (en) * 2018-10-24 2022-08-10 Pioneer Corporation Measurement accuracy calculation device, host position estimation device, control method, program, and storage medium
JP7143722B2 (en) 2018-10-31 2022-09-29 トヨタ自動車株式会社 Vehicle position estimation device
CN109752008B (en) * 2019-03-05 2021-04-13 长安大学 Intelligent vehicle multi-mode cooperative positioning system and method and intelligent vehicle
JP7172973B2 (en) 2019-12-06 2022-11-16 トヨタ自動車株式会社 automatic parking system
JP7188372B2 (en) 2019-12-06 2022-12-13 トヨタ自動車株式会社 automatic parking system
CN116964415A (en) 2021-03-18 2023-10-27 三菱电机株式会社 Vehicle position comprehensive treatment device and vehicle position comprehensive treatment method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
US7228230B2 (en) * 2004-11-12 2007-06-05 Mitsubishi Denki Kabushiki Kaisha System for autonomous vehicle navigation with carrier phase DGPS and laser-scanner augmentation

Also Published As

Publication number Publication date
JP2018021777A (en) 2018-02-08

Similar Documents

Publication Publication Date Title
JP6776707B2 (en) Own vehicle position estimation device
JP6870604B2 (en) Self-position estimator
JP4724043B2 (en) Object recognition device
JP6859927B2 (en) Vehicle position estimation device
JP4680131B2 (en) Own vehicle position measuring device
JP7143722B2 (en) Vehicle position estimation device
JP7013727B2 (en) Vehicle control device
KR102441073B1 (en) Apparatus for compensating sensing value of gyroscope sensor, system having the same and method thereof
KR20180080828A (en) Method for recognizing lane-level vehicle positioning information based on lidar map matching, recording medium and device for performing the method
JP6828655B2 (en) Own vehicle position estimation device
JP6836446B2 (en) Vehicle lane estimation device
JP2013036856A (en) Driving support apparatus
JP6943127B2 (en) Position correction method, vehicle control method and position correction device
CN114518119A (en) Positioning method and device
JP2020003463A (en) Vehicle's self-position estimating device
JP2019060814A (en) Self-driving own vehicle location detection device
JP4924270B2 (en) Road information acquisition device, road information acquisition method, and road information acquisition program
JP7025293B2 (en) Vehicle position estimation device
JP2019132762A (en) Vehicle position estimating device
WO2021045096A1 (en) Position specification device for vehicle and position specification method for vehicle
JP6790951B2 (en) Map information learning method and map information learning device
JP6784629B2 (en) Vehicle steering support device
JP7234840B2 (en) position estimator
US11131552B2 (en) Map generation system
JP5549468B2 (en) Feature position acquisition apparatus, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200921

R151 Written notification of patent or utility model registration

Ref document number: 6776707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees