JP2019190994A - Method and device for estimating self-position - Google Patents

Method and device for estimating self-position Download PDF

Info

Publication number
JP2019190994A
JP2019190994A JP2018084147A JP2018084147A JP2019190994A JP 2019190994 A JP2019190994 A JP 2019190994A JP 2018084147 A JP2018084147 A JP 2018084147A JP 2018084147 A JP2018084147 A JP 2018084147A JP 2019190994 A JP2019190994 A JP 2019190994A
Authority
JP
Japan
Prior art keywords
target
model
error
travel locus
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018084147A
Other languages
Japanese (ja)
Inventor
博幸 ▲高▼野
博幸 ▲高▼野
Hiroyuki Takano
祐一 武田
Yuichi Takeda
祐一 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2018084147A priority Critical patent/JP2019190994A/en
Publication of JP2019190994A publication Critical patent/JP2019190994A/en
Pending legal-status Critical Current

Links

Abstract

To estimate the self-position of a vehicle precisely when there are errors of a traveling path or the position of a target.SOLUTION: The method for estimating a self-position according to the present invention is for estimating the self-position of an own vehicle using a traveling path model and a target model. The method includes: calculating an error of the travel path model and an error of the target model; and determining which of the result of calculation output from a travel path model and the result of calculation output from the target model to use for starting the estimation of the target position according to the size of the error of the travel path model and the error of the target model.SELECTED DRAWING: Figure 10

Description

本発明は、走行軌跡モデルと物標モデルとを用いて自車両の自己位置を推定する自己位置推定方法及び自己位置推定装置に関する。   The present invention relates to a self-position estimation method and a self-position estimation apparatus that estimate a self-position of a host vehicle using a travel locus model and a target model.

従来より、カーナビゲーション装置などに格納される地図データを補正する方法が知られている。特許文献1に記載された発明は、GPSを用いた走行軌跡データと、地図データとを比較し、走行軌跡データに対する地図データのずれを補正する。これにより、地図上の物標の位置などが補正され、補正された物標の位置を用いて、車両の自己位置を算出している。   Conventionally, a method for correcting map data stored in a car navigation device or the like is known. The invention described in Patent Document 1 compares travel locus data using GPS with map data, and corrects a shift in map data with respect to the travel locus data. Thereby, the position of the target on the map is corrected, and the self position of the vehicle is calculated using the corrected position of the target.

特開2007−310198号公報JP 2007-310198 A

ここで、上述した従来の装置では、走行軌跡データに対して地図データを補正しており、走行軌跡データに誤差がないことを前提としている。しかしながら、実際には走行軌跡データにも誤差が含まれているため、自車両の自己位置を精度よく推定することができないという問題点があった。   Here, in the conventional apparatus mentioned above, map data is correct | amended with respect to travel locus data, and it is assumed that there is no error in travel locus data. However, there is a problem that the own position of the own vehicle cannot be accurately estimated because the travel locus data actually includes an error.

そこで、本発明は、上記課題に鑑みて成されたものであり、自車両の自己位置を精度よく推定することのできる自己位置推定方法及び自己位置推定装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a self-position estimation method and a self-position estimation apparatus that can accurately estimate the self-position of the host vehicle.

本発明の一態様に係る自己位置推定方法及びその装置は、走行軌跡モデルの誤差と物標モデルの誤差を算出する。そして、走行軌跡モデルの誤差と物標モデルの誤差の大きさに応じて、走行軌跡モデルから出力された算出結果と物標モデルから出力された算出結果のどちらを用いて、自車の周囲の物標情報の推定を開始するか決定する。   A self-position estimation method and apparatus according to an aspect of the present invention calculate an error of a travel locus model and an error of a target model. Then, depending on the magnitude of the error in the travel trajectory model and the target model, either the calculation result output from the travel trajectory model or the calculation result output from the target model is used. Decide whether to start estimating target information.

本発明によれば、自車両の自己位置を精度よく推定することができる。   According to the present invention, it is possible to accurately estimate the own position of the host vehicle.

図1は、本発明の第1実施形態に係る自己位置推定装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of the self-position estimation apparatus according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係る自己位置推定装置で用いる走行軌跡モデルを説明するための図である。FIG. 2 is a diagram for explaining a travel locus model used in the self-position estimation apparatus according to the first embodiment of the present invention. 図3は、本発明の第1実施形態に係る自己位置推定装置で用いる物標モデルを説明するための図である。FIG. 3 is a diagram for explaining a target model used in the self-position estimation apparatus according to the first embodiment of the present invention. 図4は、本発明の第1実施形態に係る自己位置推定装置によるトラジェクトリの補正処理の処理手順を示すフローチャートである。FIG. 4 is a flowchart showing a processing procedure of trajectory correction processing by the self-position estimation apparatus according to the first embodiment of the present invention. 図5は、本発明の第1実施形態に係る自己位置推定装置によるトラジェクトリの補正方法を説明するための図である。FIG. 5 is a diagram for explaining a trajectory correction method by the self-position estimation apparatus according to the first embodiment of the present invention. 図6は、本発明の第1実施形態に係る自己位置推定装置によるトラジェクトリの補正方法を説明するための図である。FIG. 6 is a diagram for explaining a trajectory correction method by the self-position estimation apparatus according to the first embodiment of the present invention. 図7は、本発明の第1実施形態に係る自己位置推定装置による物標位置の補正処理の処理手順を示すフローチャートである。FIG. 7 is a flowchart showing a processing procedure of target position correction processing by the self-position estimation apparatus according to the first embodiment of the present invention. 図8は、本発明の第1実施形態に係る自己位置推定装置による物標位置の補正方法を説明するための図である。FIG. 8 is a diagram for explaining a method for correcting a target position by the self-position estimation apparatus according to the first embodiment of the present invention. 図9は、本発明の第1実施形態に係る自己位置推定装置による物標位置の補正方法を説明するための図である。FIG. 9 is a diagram for explaining a method for correcting a target position by the self-position estimation apparatus according to the first embodiment of the present invention. 図10は、本発明の第1実施形態に係る自己位置推定装置による自己位置推定処理の処理手順を示すフローチャートである。FIG. 10 is a flowchart showing a processing procedure of self-position estimation processing by the self-position estimation apparatus according to the first embodiment of the present invention. 図11は、従来の地図情報に記録された白線の誤差を説明するための図である。FIG. 11 is a diagram for explaining an error of a white line recorded in conventional map information. 図12は、本発明の第2実施形態に係る自己位置推定装置による自己位置の推定を開始するときに用いるモデルの決定方法を説明するための図である。FIG. 12 is a diagram for explaining a model determination method used when starting self-position estimation by the self-position estimation apparatus according to the second embodiment of the present invention. 図13は、本発明の第2実施形態に係る自己位置推定装置による自己位置推定処理の処理手順を示すフローチャートである。FIG. 13 is a flowchart showing a processing procedure of self-position estimation processing by the self-position estimation apparatus according to the second embodiment of the present invention.

[第1実施形態]
以下、本発明の第1実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In the description of the drawings, the same portions are denoted by the same reference numerals, and description thereof is omitted.

[自己位置推定装置の構成]
図1を参照して、本実施形態に係る自己位置推定装置の構成を説明する。図1に示すように、自己位置推定装置1は、カメラ2と、レーザレンジファインダー3と、GPS受信機4と、ジャイロセンサ5と、地図データベース6と、コントローラ10と、通信機7を備える。また、自己位置推定装置1は車両に搭載されており、搭載される車両は自動運転機能を備え、走行支援を行う車両である。
[Configuration of self-position estimation device]
With reference to FIG. 1, the structure of the self-position estimation apparatus which concerns on this embodiment is demonstrated. As shown in FIG. 1, the self-position estimation device 1 includes a camera 2, a laser range finder 3, a GPS receiver 4, a gyro sensor 5, a map database 6, a controller 10, and a communication device 7. The self-position estimation apparatus 1 is mounted on a vehicle, and the mounted vehicle is a vehicle that has an automatic driving function and performs driving support.

カメラ2は、CCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ2は、自車両に搭載され、自車両の周囲を撮影する。カメラ2は、画像処理機能を有しており、撮影した画像から物標などを検出する。物標とは、道路や歩道に設けられた物体であり、例えば信号機や電柱、交通標識等である。また、物標には道路構造が含まれている。道路構造とは、道路の構成物であり、例えば白線や黄色線等の道路の区画線や停止線の他に道路端部や縁石、中央分離帯等である。カメラ2は、検出したデータをコントローラ10に出力する。尚、物標は、静止している物体であればよく、例えば、建物、建物の特徴部位などでもよい。   The camera 2 includes an image sensor such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The camera 2 is mounted on the host vehicle and photographs the surroundings of the host vehicle. The camera 2 has an image processing function and detects a target or the like from the photographed image. A target is an object provided on a road or a sidewalk, such as a traffic light, a utility pole, a traffic sign, or the like. The target also includes a road structure. The road structure is a component of the road, and includes, for example, a road edge, a curb, a median strip, and the like in addition to a road dividing line and a stop line such as a white line and a yellow line. The camera 2 outputs the detected data to the controller 10. The target may be any object that is stationary, and may be, for example, a building or a characteristic part of a building.

レーザレンジファインダー3は、自車両の周囲の物標を検出するセンサである。具体的に、レーザレンジファインダー3は、レーザ光をある角度範囲内で走査し、その時の反射光を受光して、レーザ発射時点と反射光の受光時点との間の時間差を検出する。レーザレンジファインダー3は、自車両に対する物標の相対距離や方向などを検出し、検出したデータをコントローラ10に出力する。レーザレンジファインダー3は、ボンネット、バンパー、ナンバープレート、ヘッドライト、サイドミラー等の周辺に設置される。   The laser range finder 3 is a sensor that detects a target around the host vehicle. Specifically, the laser range finder 3 scans the laser beam within a certain angle range, receives the reflected light at that time, and detects the time difference between the time of laser emission and the time of receiving the reflected light. The laser range finder 3 detects the relative distance and direction of the target with respect to the host vehicle, and outputs the detected data to the controller 10. The laser range finder 3 is installed around a bonnet, a bumper, a license plate, a headlight, a side mirror, and the like.

GPS受信機4は、人工衛星からの電波を受信することにより、地上における自車両の現在地を検出する。GPS受信機4は、検出したデータをコントローラ10に出力する。   The GPS receiver 4 detects the current location of the vehicle on the ground by receiving radio waves from an artificial satellite. The GPS receiver 4 outputs the detected data to the controller 10.

ジャイロセンサ5は、自車両の重心の鉛直軸周りのヨーレート(回転角速度)を検出し、検出したデータをコントローラ10に出力する。   The gyro sensor 5 detects the yaw rate (rotational angular velocity) around the vertical axis of the center of gravity of the host vehicle, and outputs the detected data to the controller 10.

また、自己位置推定装置1は、車両に搭載されたセンサ群(図示せず)に接続されている。例えば、アクセルセンサ、ステアリングセンサ、ブレーキセンサ、車速センサ、加速度センサ、車輪速センサ等に接続されて、これらのセンサ群から出力されるセンサ値を取得することができる。   The self-position estimation device 1 is connected to a sensor group (not shown) mounted on the vehicle. For example, it is connected to an accelerator sensor, a steering sensor, a brake sensor, a vehicle speed sensor, an acceleration sensor, a wheel speed sensor, etc., and sensor values output from these sensor groups can be acquired.

地図データベース6は、カーナビゲーション装置等に記憶されているデータベースであり、物標情報や施設情報など経路案内に必要となる各種データを記憶している。地図データベース6は、高精度な地図であり、道路の車線数、道路境界線等の道路構造情報を含む物標情報を記憶している。地図データベース6は、コントローラ10の要求に応じて地図情報をコントローラ10に出力する。また、物標データや走行軌跡データ、トラジェクトリデータ等の情報も記憶している。   The map database 6 is a database stored in a car navigation device or the like, and stores various data necessary for route guidance such as target information and facility information. The map database 6 is a high-precision map, and stores target information including road structure information such as the number of road lanes and road boundaries. The map database 6 outputs map information to the controller 10 in response to a request from the controller 10. Information such as target data, travel locus data, trajectory data, and the like is also stored.

尚、物標データ等の各種データは必ずしも地図データベース6から取得するものに限定する必要はなく、自車両が備えるセンサによって取得したものでもよい。また、車車間通信、路車間通信を用いて取得してもよい。例えば、物標データなどの各種データがサーバ25に記憶されている場合には、コントローラ10は、通信により随時これらのデータを取得することができる。また、コントローラ10は、サーバ25から定期的に最新の地図情報を入手して、保有する地図情報を更新することができる。尚、本実施形態では、地図データベース6として第一地図(高精度地図、車両のルート案内に用いる地図)を備えており、第一地図を補足するものとして、第二地図を備えていてもよい。この第二地図は、第一地図だけでは不完全な場合や、より詳細な地図情報が必要な場合に、車両や外部のサーバ25で作成される。   The various data such as the target data are not necessarily limited to those acquired from the map database 6, and may be acquired by a sensor included in the own vehicle. Moreover, you may acquire using vehicle-to-vehicle communication and road-to-vehicle communication. For example, when various types of data such as target data are stored in the server 25, the controller 10 can acquire these data at any time by communication. Further, the controller 10 can periodically obtain the latest map information from the server 25 and update the held map information. In the present embodiment, the map database 6 includes a first map (a high-precision map, a map used for vehicle route guidance), and a second map may be included to supplement the first map. . This second map is created by the vehicle or the external server 25 when the first map alone is incomplete or when more detailed map information is required.

コントローラ10は、カメラ2、レーザレンジファインダー3、GPS受信機4、ジャイロセンサ5、地図データベース6から取得したデータを処理する回路であり、例えばIC、LSI等によって構成される。コントローラ10は、これを機能的に捉えた場合、走行軌跡モデル作成部11と、物標モデル作成部12と、トラジェクトリ算出部13と、物標位置算出部14と、トラジェクトリ補正部15に分類することができる。さらに、コントローラ10は、物標算出部16と、物標位置補正部17と、モデル誤差判定部18と、マッチング部19と、自己位置推定部20に分類することができる。   The controller 10 is a circuit that processes data acquired from the camera 2, the laser range finder 3, the GPS receiver 4, the gyro sensor 5, and the map database 6, and is configured by, for example, an IC or an LSI. When the controller 10 grasps this functionally, the controller 10 classifies the travel locus model creation unit 11, the target model creation unit 12, the trajectory calculation unit 13, the target position calculation unit 14, and the trajectory correction unit 15. be able to. Further, the controller 10 can be classified into a target calculation unit 16, a target position correction unit 17, a model error determination unit 18, a matching unit 19, and a self-position estimation unit 20.

尚、コントローラ10は、マイクロコンピュータ、マイクロプロセッサ、CPUを含む汎用の電子回路とメモリ等の周辺機器から構成されている。そして、特定のプログラムを実行することにより、自己位置推定装置1として動作する。このようなコントローラ10の各機能は、1または複数の処理回路によって実装することができる。処理回路は、例えば電気回路を含む処理装置等のプログラムされた処理装置を含み、また実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置も含んでいる。   The controller 10 includes a general-purpose electronic circuit including a microcomputer, a microprocessor, and a CPU, and peripheral devices such as a memory. And it operates as the self-position estimation apparatus 1 by executing a specific program. Each function of the controller 10 can be implemented by one or a plurality of processing circuits. The processing circuit includes a programmed processing device such as, for example, a processing device including an electrical circuit, and an application specific integrated circuit (ASIC) or conventional circuit arranged to perform the functions described in the embodiments. It also includes devices such as parts.

走行軌跡モデル作成部11は、自車両の走行データを用いて走行軌跡モデルを作成する。走行軌跡モデルは、自車両のオドメトリにより得られた走行軌跡データが入力されると、オドメトリにより得られた走行軌跡データを予め定めたモデルにより調整し、調整した結果を自車両のトラジェクトリデータとして出力する。オドメトリは、車両の単位時間当たりの移動量であり、車両に搭載されたセンサ群から得られる各種センサ値を用いて算出することができる。また、走行軌跡モデルは、図2に示すように、所定区間(図2に示す1点鎖線で囲まれた区間)における走行軌跡上の複数の点Xi(i=1〜n)で構成される。各点Xiは、座標(x,y)と車両の向きθ(進行方向)とから成る。   The travel locus model creation unit 11 creates a travel locus model using the travel data of the host vehicle. When the travel trajectory data obtained from the odometry of the host vehicle is input, the travel trajectory model adjusts the travel trajectory data obtained from the odometry using a predetermined model and outputs the adjusted result as trajectory data of the host vehicle. To do. The odometry is the amount of movement per unit time of the vehicle, and can be calculated using various sensor values obtained from a sensor group mounted on the vehicle. In addition, as shown in FIG. 2, the travel locus model is composed of a plurality of points Xi (i = 1 to n) on the travel locus in a predetermined section (section surrounded by a one-dot chain line shown in FIG. 2). . Each point Xi is composed of coordinates (x, y) and a vehicle direction θ (traveling direction).

走行軌跡モデル作成部11は、自車両の走行軌跡から座標(x,y)と車両の向きθを多数取得し、取得した走行データを用いて各点Xiの走行軌跡を学習してモデル化し、走行軌跡が再現可能となるように走行軌跡モデルを作成する。また、走行軌跡モデルは、自車両の走行支援を実行する前に自車両の走行軌跡を学習して生成される。尚、所定区間は、所定の走行時間や走行シーンで区切られる区間である。走行時間は、例えば3〜4秒である。また、走行シーンは、例えば交差点の入口から出口までのシーン、右折または左折のシーンである。このように走行時間または走行シーンで区切る理由は、走行時間が長い場合や走行シーンが複雑な場合には、様々なデータが入り込むため走行軌跡モデルの精度が低下するおそれがあるためである。   The traveling locus model creation unit 11 acquires a large number of coordinates (x, y) and vehicle orientation θ from the traveling locus of the host vehicle, learns and models the traveling locus of each point Xi using the acquired traveling data, A travel locus model is created so that the travel locus can be reproduced. In addition, the travel locus model is generated by learning the travel locus of the host vehicle before executing the traveling support of the host vehicle. The predetermined section is a section divided by a predetermined traveling time or traveling scene. The travel time is, for example, 3 to 4 seconds. The traveling scene is, for example, a scene from the entrance to the exit of the intersection, a right turn or a left turn scene. The reason for dividing by the travel time or the travel scene in this way is that when the travel time is long or the travel scene is complicated, various data enters and the accuracy of the travel locus model may be lowered.

走行軌跡モデル作成部11は、所定の走行時間や走行シーンで区切られた区間の走行軌跡モデルを作成することで、高精度な走行軌跡モデルを生成することができる。尚、走行軌跡モデル作成部11は、必ずしも自車両の走行データを用いる必要はなく、サーバ25に集められた自車両以外の他車両の走行データを用いてもよく、走行データを使わずに予め作成されたモデルを用いてもよい。また、走行軌跡モデル作成部11は、自車両の走行支援を実行する前にモデルを作成してもよく、また、自車両の走行支援を実行している過程で得られた走行データを用いてモデルを作成してもよい。さらに、走行軌跡モデル作成部11は、走行している過程で得られた走行データを用いてリアルタイムにモデルを更新してもよい。   The traveling locus model creation unit 11 can create a traveling locus model with high accuracy by creating a traveling locus model in a section divided by a predetermined traveling time or traveling scene. The travel locus model creation unit 11 does not necessarily need to use the travel data of the host vehicle, and may use travel data of other vehicles other than the host vehicle collected in the server 25 without using the travel data in advance. A created model may be used. In addition, the travel locus model creation unit 11 may create a model before executing the travel support of the host vehicle, and use travel data obtained in the process of executing the travel support of the host vehicle. A model may be created. Furthermore, the traveling locus model creation unit 11 may update the model in real time using traveling data obtained in the traveling process.

具体的に、走行軌跡モデル作成部11は、取得したデータから所定区間の各点Xi毎の平均位置を求める。次に、走行軌跡モデル作成部11は、取得した走行データから分散共分散行列を計算し、主成分ベクトルを求める。このとき、走行軌跡モデル作成部11は、主成分ベクトルの本数として走行軌跡を十分に表現できるだけの本数を求める。次に、走行軌跡モデル作成部11は、主成分ベクトルを列に並べ、行列Aを作成する。行列Aは、軌跡制御係数である。走行軌跡モデル作成部11は、モデル各点の平均位置と、行列A及び行列Aの制御パラメータであるqとを足し合わせて走行軌跡モデルXを作成する。走行軌跡モデルXは、式(1)、(2)を用いて次のように表される。   Specifically, the travel locus model creation unit 11 obtains an average position for each point Xi in a predetermined section from the acquired data. Next, the travel locus model creation unit 11 calculates a variance-covariance matrix from the acquired travel data, and obtains a principal component vector. At this time, the traveling locus model creation unit 11 obtains the number that can sufficiently represent the traveling locus as the number of principal component vectors. Next, the traveling locus model creation unit 11 arranges the principal component vectors in a column and creates a matrix A. The matrix A is a trajectory control coefficient. The travel locus model creation unit 11 creates a travel locus model X by adding the average position of each point of the model and the matrix A and the control parameter q of the matrix A. The travel locus model X is expressed as follows using the equations (1) and (2).

走行軌跡モデル作成部11は、作成した走行軌跡モデルXをサーバ25に保存してもよいし、自車両に保存してもよい。尚、走行軌跡モデルXは、一つだけ生成してもよいし、複数生成してもよい。また、所定区間は、5秒間、10秒間などの時間で区切ってもよいし、動作で区切ってもよい。動作で区切る場合の例としては、交差点に進入してから出るまでを1つの区間とする。尚、走行軌跡モデル作成部11は、車車間通信を使って他車両に走行軌跡モデルXを保存してもよい。   The traveling locus model creation unit 11 may store the created traveling locus model X in the server 25 or may be stored in the host vehicle. Note that only one traveling locus model X or a plurality of traveling locus models X may be generated. The predetermined section may be divided by a time such as 5 seconds or 10 seconds, or may be divided by an operation. As an example in the case of dividing by operation, a period from entering the intersection to exiting is defined as one section. The traveling locus model creation unit 11 may store the traveling locus model X in another vehicle using inter-vehicle communication.

物標モデル作成部12は、自車両の周囲の物標を検出した物標データを用いて物標モデルを作成する。物標モデルは、自車両のセンサにより得られた物標に関する物標データが入力されると、センサにより得られた物標データを予め定めたモデルにより調整し、調整した結果を自車両の周囲の物標データとして出力する。また、物標モデルは、図3に示すように、所定区間(図3に示す1点鎖線で囲まれた区間)における白線上の複数の点Li(i=1〜n)で構成される。尚、図3では物標の一例として白線を用いている。各点Liは、座標(x,y)と白線の方向φとから成る。   The target model creation unit 12 creates a target model using target data obtained by detecting targets around the host vehicle. When target data related to a target obtained by a sensor of the host vehicle is input, the target model adjusts the target data obtained by the sensor using a predetermined model, and the adjusted result is displayed around the subject vehicle. Output as target data. As shown in FIG. 3, the target model is composed of a plurality of points Li (i = 1 to n) on a white line in a predetermined section (a section surrounded by a one-dot chain line shown in FIG. 3). In FIG. 3, a white line is used as an example of the target. Each point Li is composed of coordinates (x, y) and a white line direction φ.

物標モデル作成部12は、物標データから座標(x,y)と白線の方向φを多数取得し、取得したデータを用いて各点Liの白線を学習してモデル化し、白線が再現可能となるように物標モデルを作成する。また、物標モデルは、自車両の走行支援を実行する前に自車両周囲の物標を学習して生成される。尚、点Li=(x,y)は、一定区間の白線を、例えば10cm間隔で分割したi番目の白線の位置である。   The target model creation unit 12 acquires a large number of coordinates (x, y) and white line direction φ from the target data, learns and models the white line of each point Li using the acquired data, and can reproduce the white line. A target model is created so that In addition, the target model is generated by learning the target around the host vehicle before executing driving support of the host vehicle. Note that the point Li = (x, y) is the position of the i-th white line obtained by dividing the white line in a certain section at intervals of 10 cm, for example.

具体的に、物標モデル作成部12は、取得したデータから所定区間の各点Li毎の平均位置を求める。次に、物標モデル作成部12は、取得したデータから分散共分散行列を計算し、主成分ベクトルを求める。このとき、物標モデル作成部12は、主成分ベクトルの本数として物標を十分に表現できるだけの本数を求める。次に、物標モデル作成部12は、主成分ベクトルを列に並べ、行列Bを作成する。行列Bは、軌跡制御係数である。物標モデル作成部12は、モデル各点の平均位置と、行列B及び行列Bの制御パラメータであるpとを足し合わせて物標モデルLを作成する。物標モデルLは、式(1)、(2)の走行軌跡モデルと同様に、式(3)、(4)を用いて次のように表される。   Specifically, the target model creation unit 12 obtains an average position for each point Li in a predetermined section from the acquired data. Next, the target model creation unit 12 calculates a variance-covariance matrix from the acquired data to obtain a principal component vector. At this time, the target model creation unit 12 obtains the number that can sufficiently express the target as the number of principal component vectors. Next, the target model creating unit 12 creates a matrix B by arranging the principal component vectors in a column. The matrix B is a trajectory control coefficient. The target model creation unit 12 creates the target model L by adding the average position of each point of the model and the control parameter p of the matrix B and the matrix B. The target model L is expressed as follows using the equations (3) and (4), similarly to the traveling locus models of the equations (1) and (2).

物標モデル作成部12は、作成した物標モデルLをサーバ25に保存してもよいし、自車両に保存してもよい。尚、物標モデルLは、一つだけ生成してもよく、複数生成してもよい。また、所定区間は、5秒間、10秒間などの時間で区切ってもよい。尚、物標モデル作成部12は、車車間通信を使って他車両に物標モデルLを保存してもよい。また、物標モデル作成部12は、自車両の走行支援を実行する前にモデルを作成してもよく、また、自車両の走行支援を実行している過程で得られた物標データを用いてモデルを作成してもよい。さらに、物標モデル作成部12は、走行している過程で得られた物標データを用いてリアルタイムにモデルを更新してもよい。   The target model creation unit 12 may store the created target model L in the server 25 or in the host vehicle. Only one target model L or a plurality of target models L may be generated. Further, the predetermined section may be divided by a time such as 5 seconds or 10 seconds. The target model creation unit 12 may store the target model L in another vehicle using inter-vehicle communication. In addition, the target model creation unit 12 may create a model before executing the driving support of the host vehicle, and uses target data obtained in the process of executing the driving support of the host vehicle. You may create a model. Furthermore, the target model creation unit 12 may update the model in real time using target data obtained in the course of traveling.

ここで、車両は道路上の白線に沿って走行するので、走行軌跡と白線の形状との間には相関があり、近似したものとなる。したがって、走行軌跡モデルと物標モデルとの間にも相関があり、近似したものとなる。そのため、走行軌跡モデルの制御係数Aと物標モデルの制御係数Bとの間には相関があり、走行軌跡モデルの制御パラメータqと物標モデルの制御パラメータpとの間にも相関がある。   Here, since the vehicle travels along the white line on the road, there is a correlation between the travel locus and the shape of the white line, which is an approximation. Therefore, there is also a correlation between the travel locus model and the target model, which is an approximation. Therefore, there is a correlation between the control coefficient A of the travel locus model and the control coefficient B of the target model, and there is also a correlation between the control parameter q of the travel locus model and the control parameter p of the target model.

トラジェクトリ算出部13は、サーバ25に記憶されている走行軌跡モデルXを用いてトラジェクトリデータを算出する。トラジェクトリとは、走行軌跡モデルXを用いて算出される自車両の走行軌跡である。トラジェクトリ算出部13は、車両の向きθと制御パラメータqを所定値(例えば、0)で初期化し、走行軌跡モデルXに入力してトラジェクトリを算出する。また、制御パラメータqについては、オドメトリの軌跡から逆算した値で初期化してもよい。自車両の走行軌跡は、オドメトリを使用して取得することも可能である。オドメトリとはタイヤの回転角と回転角速度に応じて移動体の移動距離と方向を求める方法である。しかし、オドメトリを使用した場合、タイヤスリップなどによる誤差を回避できない可能性があり、走行軌跡の推定精度が低下するおそれがある。本実施形態では走行軌跡モデルXを用いたトラジェクトリを使用するので、走行軌跡の推定精度が低下することを抑制することができる。   The trajectory calculation unit 13 calculates trajectory data using the travel locus model X stored in the server 25. The trajectory is a travel locus of the host vehicle calculated using the travel locus model X. The trajectory calculation unit 13 initializes the vehicle orientation θ and the control parameter q with predetermined values (for example, 0), and inputs them to the travel locus model X to calculate the trajectory. The control parameter q may be initialized with a value calculated backward from the odometry trajectory. The traveling locus of the host vehicle can also be obtained using odometry. Odometry is a method for determining the moving distance and direction of a moving body according to the rotation angle and rotation angular velocity of a tire. However, when odometry is used, there is a possibility that an error due to tire slip or the like cannot be avoided, and there is a possibility that the estimation accuracy of the travel locus is lowered. In the present embodiment, since a trajectory using the travel locus model X is used, it is possible to suppress a decrease in the estimation accuracy of the travel locus.

尚、トラジェクトリ算出部13は、物標を取得する前のトラジェクトリについて、オドメトリを用いて算出してもよい。すなわち、自車両のオドメトリにより得られた走行軌跡データに基づいてトラジェクトリデータを算出してもよい。また、トラジェクトリ算出部13は、オドメトリから算出したトラジェクトリを用いて物標を取得してもよく、物標を取得した後のトラジェクトリを、走行軌跡モデルを用いて算出してもよい。   The trajectory calculation unit 13 may calculate the trajectory before acquiring the target using odometry. That is, the trajectory data may be calculated based on the travel locus data obtained by odometry of the host vehicle. Further, the trajectory calculation unit 13 may acquire a target using a trajectory calculated from odometry, or may calculate a trajectory after acquiring a target using a travel locus model.

物標位置算出部14は、トラジェクトリ算出部13によって算出されたトラジェクトリを用いて地図上における物標の位置を算出する。物標位置算出部14は、トラジェクトリ上の各点から物標までの距離を取得し、この距離を取得した時の自車両の向きθを取得する。この各点とは、複数の位置であればよく、同じ位置であっても複数回、物標までの距離及び車両の向きを取得できればよい。物標位置算出部14は、物標までの距離、及び車両の向きθを用いて物標の位置を算出する。   The target position calculation unit 14 calculates the position of the target on the map using the trajectory calculated by the trajectory calculation unit 13. The target position calculation unit 14 acquires the distance from each point on the trajectory to the target, and acquires the direction θ of the host vehicle when the distance is acquired. Each point may be a plurality of positions, and it is only necessary to acquire the distance to the target and the direction of the vehicle a plurality of times even at the same position. The target position calculation unit 14 calculates the position of the target using the distance to the target and the vehicle orientation θ.

トラジェクトリ補正部15は、物標位置算出部14によって算出された物標の位置と地図情報に記録されている物標の位置の差分を求め、この差分を走行軌跡モデルの誤差として推定する。そして、トラジェクトリ補正部15は、物標位置算出部14によって算出された物標の位置と地図情報に記録されている物標の位置が一致するようにトラジェクトリを補正する。例えば、ガウスニュートン法等の最適化手法を使用して、車両の向きθと制御パラメータqを調整しながら繰り返し計算の中で徐々に真値に近づけていく方法を用いて、トラジェクトリを補正する。   The trajectory correction unit 15 obtains a difference between the position of the target calculated by the target position calculation unit 14 and the position of the target recorded in the map information, and estimates this difference as an error of the travel locus model. Then, the trajectory correction unit 15 corrects the trajectory so that the position of the target calculated by the target position calculation unit 14 matches the position of the target recorded in the map information. For example, the trajectory is corrected by using an optimization method such as the Gauss-Newton method and a method in which the vehicle orientation θ and the control parameter q are adjusted and gradually approached to the true value in the repeated calculation.

トラジェクトリ補正部15は、算出された物標の位置から、各点で取得した物標までの距離及び車両の向きを拘束条件として与え、走行軌跡モデルXを用いて、トラジェクトリを補正する。これにより、物標までの距離及び車両の向きを取得した各点の位置に誤差が生じていたとしても(例えば、GPS誤差やオドメトリ誤差)、トラジェクトリ補正部15はトラジェクトリを正確に算出することができる。そのため、ひいては車両の自己位置を正確に算出できるようになる。さらに、トラジェクトリ補正部15は、この処理を繰り返すことによって、さらにトラジェクトリを正確に算出することができる。   The trajectory correction unit 15 gives the distance from the calculated target position to the target acquired at each point and the direction of the vehicle as constraint conditions, and corrects the trajectory using the travel locus model X. Thereby, even if there is an error in the position of each point where the distance to the target and the direction of the vehicle are acquired (for example, GPS error or odometry error), the trajectory correction unit 15 can accurately calculate the trajectory. it can. As a result, the self-position of the vehicle can be accurately calculated. Further, the trajectory correction unit 15 can calculate the trajectory more accurately by repeating this process.

また、トラジェクトリ補正部15は、トラジェクトリ上の各点から算出した物標の位置の分散を求め、分散が閾値よりも大きい場合に車両の向きθと制御パラメータqを調整してトラジェクトリを補正してもよい。分散とは、散らばり具合を示す指標であり、一般的な手法を用いて求めることができる。分散が閾値より大きい場合には、平均値から遠く離れたデータが多く、散らばりが大きいことを意味する。一方、分散が閾値以下の場合には、平均値に近いデータが多く、散らばりが小さいことを意味する。換言すれば、分散が閾値以下の場合、物標の位置を精度よく推定できたことを意味する。一方、分散が閾値より大きい場合には、物標の位置を精度よく推定できていないことを意味する。尚、閾値は、実験やシミュレーションを通じて求めてもよく、また任意に設定してもよい。そして、トラジェクトリ補正部15は、分散が閾値以下になるまで車両の向きθと制御パラメータqを繰り返し調整してトラジェクトリを補正する。   Further, the trajectory correction unit 15 obtains the variance of the target position calculated from each point on the trajectory, and corrects the trajectory by adjusting the vehicle orientation θ and the control parameter q when the variance is larger than the threshold. Also good. The variance is an index indicating the degree of dispersion and can be obtained using a general method. If the variance is larger than the threshold value, it means that there is a lot of data far from the average value, and the variance is large. On the other hand, when the variance is less than or equal to the threshold value, it means that there is a lot of data close to the average value and the variance is small. In other words, when the variance is equal to or less than the threshold value, it means that the position of the target can be estimated with high accuracy. On the other hand, if the variance is larger than the threshold value, it means that the position of the target has not been accurately estimated. The threshold value may be obtained through experiments or simulations, or may be set arbitrarily. Then, the trajectory correction unit 15 corrects the trajectory by repeatedly adjusting the vehicle orientation θ and the control parameter q until the variance becomes equal to or less than the threshold value.

そして、トラジェクトリ補正部15は、上述したトラジェクトリの補正を行った結果、算出された物標の位置と、地図情報に記録された物標の位置が一致したと判定すると、トラジェクトリの補正を終了する。一致したか否かの判定方法としては、ガウスニュートン法等の最適化手法を用いる場合には、収束して真値に近づいたと判定した場合に、算出された物標の位置と地図情報に記録された物標の位置が一致したと判定する。また、分散を用いる場合には、分散が閾値以下となった場合に、算出された物標の位置と地図情報に記録された物標の位置が一致したと判定する。   When the trajectory correction unit 15 determines that the calculated position of the target coincides with the position of the target recorded in the map information as a result of performing the trajectory correction described above, the trajectory correction ends. . When using an optimization method such as the Gauss-Newton method as a method for determining whether or not they match, if it is determined that the value has converged and approached the true value, it is recorded in the calculated target position and map information. It is determined that the position of the target has been matched. In the case of using variance, when the variance is equal to or smaller than the threshold value, it is determined that the calculated target position matches the target position recorded in the map information.

物標算出部16は、サーバ25に記憶されている物標モデルLを用いて道路構造を含む物標を算出する。物標算出部16は、車両の向きθと制御パラメータpを所定値(例えば、0)で初期化し、物標モデルLに入力して物標を算出する。また、物標算出部16は、自車両のセンサにより得られた物標データに基づいて自車両の周囲の物標データを算出してもよい。そして、物標算出部16は、算出された物標データを、自車両のオドメトリにより得られた走行軌跡データを基準にして地図上に配置して、物標の位置を算出する。   The target calculation unit 16 calculates a target including a road structure using the target model L stored in the server 25. The target calculation unit 16 initializes the vehicle orientation θ and the control parameter p with predetermined values (for example, 0), and inputs them to the target model L to calculate the target. Further, the target calculation unit 16 may calculate target data around the host vehicle based on the target data obtained by the sensor of the host vehicle. Then, the target calculation unit 16 arranges the calculated target data on the map on the basis of the travel locus data obtained by the odometry of the host vehicle, and calculates the position of the target.

物標位置補正部17は、物標算出部16によって算出された物標の位置と地図情報に記録されている物標の位置の差分を求め、この差分を物標モデルの誤差として推定する。そして、物標位置補正部17は、物標算出部16によって算出された物標の位置と地図情報に記録されている物標の位置が一致するように、物標データを補正する。例えば、ガウスニュートン法等の最適化手法を使用して、車両の向きθと制御パラメータpを調整しながら繰り返し計算の中で徐々に真値に近づけていく方法を用いて、物標データを補正する。物標位置補正部17は、トラジェクトリを拘束条件として与え、物標モデルLを用いて、物標データを補正する。   The target position correction unit 17 obtains a difference between the position of the target calculated by the target calculation unit 16 and the position of the target recorded in the map information, and estimates this difference as an error of the target model. The target position correcting unit 17 corrects the target data so that the target position calculated by the target calculating unit 16 matches the target position recorded in the map information. For example, by using an optimization method such as the Gauss-Newton method, the target data is corrected using a method of gradually approaching the true value in the repeated calculation while adjusting the vehicle orientation θ and the control parameter p. To do. The target position correcting unit 17 gives the trajectory as a constraint condition and corrects the target data using the target model L.

また、物標位置補正部17は、物標の位置の分散を求め、分散が閾値よりも大きい場合に制御パラメータpを調整して物標の位置を補正してもよい。なお、閾値は、実験やシミュレーションを通じて求めてもよく、また任意に設定してもよい。そして、物標位置補正部17は、分散が閾値以下になるまで制御パラメータpを繰り返し調整して物標の位置を補正する。また、車両の向きθと制御パラメータpの両方を調整して物標の位置を補正してもよい。   Further, the target position correcting unit 17 may obtain the variance of the target position, and correct the target position by adjusting the control parameter p when the variance is larger than the threshold value. The threshold value may be obtained through experiments or simulations, or may be set arbitrarily. Then, the target position correcting unit 17 corrects the position of the target by repeatedly adjusting the control parameter p until the variance becomes equal to or less than the threshold value. Further, the position of the target may be corrected by adjusting both the vehicle orientation θ and the control parameter p.

そして、物標位置補正部17は、上述した物標の位置の補正を行った結果、算出された物標の位置と、地図情報に記録された物標の位置が一致したと判定すると、物標の位置の補正を終了する。一致したか否かの判定方法としては、ガウスニュートン法等の最適化手法を用いる場合には、収束して真値に近づいたと判定した場合に、算出された物標の位置と地図情報に記録された物標の位置が一致したと判定する。また、分散を用いる場合には、分散が閾値以下となった場合に、算出された物標の位置と地図情報に記録された物標の位置が一致したと判定する。   When the target position correction unit 17 determines that the calculated target position matches the target position recorded in the map information as a result of correcting the target position described above, The correction of the target position is completed. When using an optimization method such as the Gauss-Newton method as a method for determining whether or not they match, if it is determined that the value has converged and approached the true value, it is recorded in the calculated target position and map information. It is determined that the position of the target has been matched. In the case of using variance, when the variance is equal to or smaller than the threshold value, it is determined that the calculated target position matches the target position recorded in the map information.

モデル誤差判定部18は、走行軌跡モデルの誤差と物標モデルの誤差の大きさに応じて、走行軌跡モデルから出力された算出結果と物標モデルから出力された算出結果のどちらを用いて、物標位置の推定を開始するか決定する。特に、本実施形態では、走行軌跡モデルと物標モデルのうち誤差の小さいほうのモデルから出力された算出結果を、走行軌跡モデルと物標モデルのもう一方の入力として物標位置の推定を開始する。   The model error determination unit 18 uses either the calculation result output from the travel trajectory model or the calculation result output from the target model according to the magnitude of the error of the travel trajectory model and the error of the target model. Decide whether to start estimating the target position. In particular, in this embodiment, estimation of the target position is started by using the calculation result output from the model with the smaller error of the traveling locus model and the target model as the other input of the traveling locus model and the target model. To do.

例えば、モデル誤差判定部18は、走行軌跡モデルの誤差と物標モデルの誤差を比較して、走行軌跡モデルの誤差が物標モデルの誤差より小さい場合には、走行軌跡モデルから出力された算出結果を、物標モデルの入力として物標位置の推定を開始する。また、物標モデルの誤差が走行軌跡モデルの誤差より小さい場合には、物標モデルから出力された算出結果を、走行軌跡モデルの入力として物標位置の推定を開始する。   For example, the model error determination unit 18 compares the error of the travel locus model with the error of the target model, and when the error of the travel locus model is smaller than the error of the target model, the calculation output from the travel locus model The estimation of the target position is started using the result as an input of the target model. Further, when the error of the target model is smaller than the error of the traveling locus model, estimation of the target position is started using the calculation result output from the target model as an input of the traveling locus model.

マッチング部19は、物標の位置の補正が終了すると、物標位置補正部17によって補正された物標の位置を地図情報とマッチングし、マッチング度合いが所定値以上となるまでトラジェクトリの補正と物標の位置の補正を繰り返し行うように制御する。このとき、補正された物標の位置だけではなく、補正されたトラジェクトリについても地図情報とのマッチングを行ってもよい。   When the correction of the target position is completed, the matching unit 19 matches the target position corrected by the target position correcting unit 17 with the map information, and corrects the trajectory and the target until the matching degree becomes a predetermined value or more. Control is performed so as to repeatedly correct the position of the mark. At this time, not only the corrected target position but also the corrected trajectory may be matched with the map information.

具体的に、マッチング部19は、補正された物標の位置を地図情報と重ね合わせて、照合して、地図情報に記録されている物標の位置と一致するか否かをマップマッチングによって判定する。例えば、補正された白線の位置の座標と地図情報に記録されている白線の位置の座標の差分を求め、その差分が所定値以下となるか否かによって判定する。そして、マッチング部19は、補正された物標の位置と、地図情報に記録されている物標の位置が一致せずにマッチング度合いが所定値未満であると判定した場合には、トラジェクトリの補正と物標の位置の補正が繰り返し行われるように制御する。一方、補正された物標の位置と、地図情報に記録されている物標の位置が一致してマッチング度合いが所定値以上であると判定した場合には、地図情報とのマッチングを終了する。マッチングを終了すると、マッチング部19は、地図データベース6へリンクして、補正後の物標の位置を地図データベース6へ記録する。   Specifically, the matching unit 19 superimposes the position of the corrected target with the map information, collates, and determines whether or not the target position matches the position of the target recorded in the map information by map matching. To do. For example, a difference between the corrected coordinates of the position of the white line and the coordinates of the position of the white line recorded in the map information is obtained, and the determination is made based on whether or not the difference is a predetermined value or less. When the matching unit 19 determines that the corrected target position does not match the target position recorded in the map information and the matching degree is less than a predetermined value, the trajectory correction is performed. And control so that the correction of the position of the target is repeatedly performed. On the other hand, when the corrected position of the target and the position of the target recorded in the map information match and it is determined that the matching degree is equal to or greater than a predetermined value, the matching with the map information is terminated. When the matching is completed, the matching unit 19 links to the map database 6 and records the corrected target position in the map database 6.

自己位置推定部20は、マッチング部19によって地図データベース6に記録された物標の位置を用いて自己位置を推定する。本実施形態において地図上の物標の位置は精度よく推定されているため、自車両から物標までの距離と方向を用いることにより、自己位置推定部20は自己位置を精度よく推定することができる。尚、物標の位置を用いて車両の自己位置を推定する場合とは、物標の周辺を走行した場合に、物標までの距離と方向をセンサにより検出し、検出した距離と方向、及び取得していた物標の位置から、地図上の自車両の位置を推定することを意味する。   The self-position estimating unit 20 estimates the self-position using the position of the target recorded in the map database 6 by the matching unit 19. In this embodiment, since the position of the target on the map is estimated with high accuracy, the self-position estimation unit 20 can estimate the self-position with high accuracy by using the distance and direction from the host vehicle to the target. it can. When the vehicle's own position is estimated using the position of the target, when the vehicle travels around the target, the distance and direction to the target are detected by a sensor, the detected distance and direction, and This means that the position of the host vehicle on the map is estimated from the acquired position of the target.

通信機7は、サーバ25と通信するための装置である。   The communication device 7 is a device for communicating with the server 25.

[トラジェクトリの補正処理]
次に、図4〜6を参照してトラジェクトリの補正方法を説明する。図4は、トラジェクトリの補正処理を示すフローチャートである。
[Trajectory correction]
Next, a trajectory correction method will be described with reference to FIGS. FIG. 4 is a flowchart showing trajectory correction processing.

図4に示すように、ステップS1において、トラジェクトリ算出部13は、物標までの距離Lと物標の方向φとオドメトリを取得する。   As shown in FIG. 4, in step S1, the trajectory calculation unit 13 acquires the distance L to the target, the direction φ of the target, and the odometry.

ステップS2において、トラジェクトリ算出部13は、車両の向きθと制御パラメータqを所定値(例えば、0)で初期化する。   In step S2, the trajectory calculation unit 13 initializes the vehicle orientation θ and the control parameter q with predetermined values (for example, 0).

ステップS3において、トラジェクトリ算出部13は、初期化された車両の向きθと制御パラメータqを、走行軌跡モデルXに入力してトラジェクトリを算出する。図5に示すトラジェクトリ21は、初期のトラジェクトリである。また、トラジェクトリ算出部13は、物標モデルにより出力された物標データを、走行軌跡モデルの入力としてもよい。   In step S <b> 3, the trajectory calculation unit 13 inputs the initialized vehicle orientation θ and the control parameter q to the travel locus model X, and calculates a trajectory. A trajectory 21 shown in FIG. 5 is an initial trajectory. Further, the trajectory calculation unit 13 may use the target data output from the target model as an input of the travel locus model.

図5において点線で示す座標はマップ座標系であり、実線で示す座標は車両座標系である。車両座標系におけるy軸は自車両の進行方向を示し、x軸は進行方向に直交する横方向を示す。図5に示す座標(x1,y1)〜座標(x5,y5)は、トラジェクトリ21上の自己位置である。図5に示す車両の向きθ1〜θ5は、マップ座標系からのヨー角を示す。角度Φ1〜Φ5は、車両座標系から見た自車両の進行方向に対する物標30の方向を示す角度である。距離L1〜L5は、車両座標系から見た自車両から物標30までの距離である。尚、本実施形態では、所定の座標系を用いて説明しているが、マップ座標系や車両座標系に限定する必要はなく、その他の座標系を用いてもよく、また一つの座標系を用いてもよい。   In FIG. 5, coordinates indicated by dotted lines are map coordinate systems, and coordinates indicated by solid lines are vehicle coordinate systems. The y-axis in the vehicle coordinate system indicates the traveling direction of the host vehicle, and the x-axis indicates the lateral direction orthogonal to the traveling direction. Coordinates (x1, y1) to coordinates (x5, y5) shown in FIG. 5 are self-positions on the trajectory 21. The vehicle orientations θ1 to θ5 shown in FIG. 5 indicate yaw angles from the map coordinate system. The angles Φ1 to Φ5 are angles indicating the direction of the target 30 with respect to the traveling direction of the host vehicle as viewed from the vehicle coordinate system. The distances L1 to L5 are distances from the host vehicle to the target 30 as viewed from the vehicle coordinate system. In the present embodiment, the description has been given using a predetermined coordinate system. However, the present invention is not limited to the map coordinate system or the vehicle coordinate system, and other coordinate systems may be used, or one coordinate system may be used. It may be used.

図5に示すように、自車両は、座標(x1,y1)〜座標(x5,y5)の区間を走行中にカメラ2やレーザレンジファインダー3を用いて自車両から物標30までの距離L1〜L5を計測する。自車両は、距離L1〜L5を計測した時刻と同時刻にジャイロセンサ5を用いて車両の向きθ1〜θ5を検出する。図5に示す例では、異なる5つの走行地点から物標30までの距離と物標30の方向を取得する様子を示しているが、5点に限定する必要はない。尚、角度Φ1〜Φ5についてもジャイロセンサ5を用いて取得することができる。   As shown in FIG. 5, the host vehicle uses a camera 2 or a laser range finder 3 while traveling in a section of coordinates (x1, y1) to coordinates (x5, y5). ~ L5 is measured. The own vehicle detects the orientations θ1 to θ5 of the vehicle using the gyro sensor 5 at the same time as the time when the distances L1 to L5 are measured. In the example illustrated in FIG. 5, a state in which the distances from five different travel points to the target 30 and the direction of the target 30 are acquired is shown, but it is not necessary to limit to five points. The angles Φ1 to Φ5 can also be obtained using the gyro sensor 5.

ステップS4において、物標位置算出部14は、ステップS3で算出されたトラジェクトリデータを基準にして物標データを地図上に配置して、物標の位置を算出する。このとき、物標データとして、物標モデルにより出力された物標データを用いてもよい。トラジェクトリ21上において、i番目の時刻の自己位置をXiとすると、自己位置Xiは、式(5)を用いて次のように表される。   In step S4, the target position calculation unit 14 arranges the target data on the map based on the trajectory data calculated in step S3, and calculates the position of the target. At this time, target data output by the target model may be used as the target data. On the trajectory 21, if the self position at the i-th time is Xi, the self position Xi is expressed as follows using equation (5).

物標30の位置を(Cx,Cy)とすると、物標30の位置(Cx,Cy)は、式(6)を用いて次のように表される。 The position of the target 30 (Cx i, Cy i) When the position of the target 30 (Cx i, Cy i), using equation (6) is expressed as follows.

式(6)における(Lx,Ly)は、i番目の時刻における自車両から物標30までの距離であり、角度Φの要素を含む。式(6)に示すように物標位置算出部14は、自車両から物標30までの距離(Lx,Ly)を、車両の向きθだけ回転させる。そして、物標位置算出部14は、トラジェクトリ21上の座標(x,y)に距離を加算し、座標(x,y)分平行移動してマップ座標系に変換することで各点毎に物標30の位置を算出する。 (Lx i , Ly i ) in Equation (6) is the distance from the host vehicle to the target 30 at the i-th time, and includes an element of the angle Φ. As shown in Expression (6), the target position calculation unit 14 rotates the distance (Lx i , Ly i ) from the host vehicle to the target 30 by the vehicle orientation θ i . Then, the target position calculation unit 14 adds the distance to the coordinates (x i , y i ) on the trajectory 21, translates the coordinates (x i , y i ), and converts them into a map coordinate system. The position of the target 30 is calculated for each point.

ステップS5において、トラジェクトリ補正部15は、ステップ4で算出された物標の位置と地図情報に記録されている物標の位置の差分を求める。すなわち、ステップS4でトラジェクトリデータを基準にして配置された物標データと地図情報との差分を算出する。尚、差分ではなく、物標の位置の分散を求めてもよい。また、ここで算出された差分は、走行軌跡モデルの誤差として推定される。   In step S5, the trajectory correction unit 15 obtains a difference between the target position calculated in step 4 and the target position recorded in the map information. That is, in step S4, the difference between the target data arranged on the basis of the trajectory data and the map information is calculated. In addition, you may obtain | require dispersion | distribution of the position of a target instead of a difference. Further, the difference calculated here is estimated as an error of the travel locus model.

ステップS6において、トラジェクトリ補正部15は、ステップS5で算出された差分が所定値以下であるか否かを判定する。差分が所定値以下である場合にはトラジェクトリの補正処理は終了し、トラジェクトリデータを出力する。一方、差分が所定値より大きい場合にはステップS7に進む。   In step S6, the trajectory correction unit 15 determines whether or not the difference calculated in step S5 is equal to or less than a predetermined value. If the difference is less than or equal to the predetermined value, the trajectory correction process ends and trajectory data is output. On the other hand, if the difference is greater than the predetermined value, the process proceeds to step S7.

ステップS7において、トラジェクトリ補正部15は、差分が小さくなるようにトラジェクトリデータを予め定めたモデルによって調整し、差分が所定値より小さくなるまでトラジェクトリデータの調整を繰り返し行う。すなわち、ステップS4で算出された物標の位置と地図情報に記録されている物標の位置が一致するようにトラジェクトリの補正を繰り返し行う。例えば、ガウスニュートン法等の最適化手法を使用して、車両の向きθと制御パラメータqを調整しながら繰り返し計算の中で徐々に真値に近づけていく方法でトラジェクトリ21を補正する。その結果、図5に示すトラジェクトリ21は、図6に示すように補正される。図5ではトラジェクトリ21が左右にずれて算出されていたが、図6ではトラジェクトリ21が滑らかな線に補正されている。   In step S7, the trajectory correction unit 15 adjusts the trajectory data with a predetermined model so that the difference becomes small, and repeatedly adjusts the trajectory data until the difference becomes smaller than a predetermined value. That is, trajectory correction is repeatedly performed so that the position of the target calculated in step S4 matches the position of the target recorded in the map information. For example, the trajectory 21 is corrected by using an optimization method such as the Gauss-Newton method, gradually adjusting the vehicle orientation θ and the control parameter q to gradually approach the true value in the repeated calculation. As a result, the trajectory 21 shown in FIG. 5 is corrected as shown in FIG. In FIG. 5, the trajectory 21 is calculated so as to be shifted left and right, but in FIG. 6, the trajectory 21 is corrected to a smooth line.

ここで、制御パラメータqを調整する際に、制御パラメータqは制御パラメータpと相関があるため、制御パラメータpの値に基づいて制御パラメータqの値を設定し、調整していくようにする。これにより、トラジェクトリを補正する処理に要する時間を短縮することができる。さらに、制御パラメータqを調整する範囲を絞ることができるので、ロバスト性を高めることができる。   Here, since the control parameter q is correlated with the control parameter p when adjusting the control parameter q, the value of the control parameter q is set and adjusted based on the value of the control parameter p. Thereby, the time required for the process of correcting the trajectory can be shortened. Furthermore, since the range for adjusting the control parameter q can be narrowed, robustness can be improved.

[物標位置の補正処理]
次に、図7〜9を参照して物標位置の補正方法を説明する。図7は、物標位置の補正処理を示すフローチャートである。
[Target position correction]
Next, a target position correction method will be described with reference to FIGS. FIG. 7 is a flowchart showing target position correction processing.

図7に示すように、ステップS10において、物標算出部16は、自車両のセンサにより得られた物標までの距離Lと物標の方向φと、トラジェクトリを取得する。トラジェクトリは、トラジェクトリ補正部15によって補正されたものであっても、その他のトラジェクトリであってもよい。   As shown in FIG. 7, in step S <b> 10, the target calculation unit 16 acquires the distance L to the target obtained by the sensor of the host vehicle, the direction φ of the target, and the trajectory. The trajectory may be one corrected by the trajectory correction unit 15 or another trajectory.

ステップS20において、物標算出部16は、車両の向きθと制御パラメータpを所定値(例えば、0)で初期化する。   In step S20, the target calculation unit 16 initializes the vehicle orientation θ and the control parameter p with predetermined values (for example, 0).

ステップS30において、物標算出部16は、初期化された車両の向きθと制御パラメータpを、物標モデルLに入力して物標を算出する。図8では、物標の一例として白線40を示しており、白線40は初期の白線である。また、物標算出部16は、走行軌跡モデルにより出力されたトラジェクトリデータを、物標モデルLの入力としてもよい。   In step S <b> 30, the target calculation unit 16 calculates the target by inputting the initialized vehicle orientation θ and the control parameter p into the target model L. In FIG. 8, the white line 40 is shown as an example of the target, and the white line 40 is an initial white line. Further, the target calculation unit 16 may use the trajectory data output from the travel locus model as an input of the target model L.

図8に示すように、自車両は、座標(x1,y1)〜座標(x5,y5)の区間を走行中にカメラ2やレーザレンジファインダー3を用いて自車両から白線40までの距離L1〜L5を計測する。自車両は、距離L1〜L5を計測した時刻と同時刻にジャイロセンサ5を用いて車両の向きθ1〜θ5を検出する。図8に示す例では、異なる5つの走行地点から白線40までの距離と白線40の方向を取得する様子を示しているが、5点に限定する必要はない。尚、角度Φ1〜Φ5についてもジャイロセンサ5を用いて取得することができる。   As shown in FIG. 8, the host vehicle uses a camera 2 or a laser range finder 3 while traveling in a section of coordinates (x1, y1) to coordinates (x5, y5), and distances L1 to L1 from the host vehicle to the white line 40. L5 is measured. The own vehicle detects the orientations θ1 to θ5 of the vehicle using the gyro sensor 5 at the same time as the time when the distances L1 to L5 are measured. In the example illustrated in FIG. 8, a state in which the distance from the five different traveling points to the white line 40 and the direction of the white line 40 are obtained is shown, but it is not necessary to limit to five points. The angles Φ1 to Φ5 can also be obtained using the gyro sensor 5.

ステップS40において、物標算出部16は、自車両のオドメトリにより得られた走行軌跡データを基準にして物標データを地図上に配置して、物標の位置を算出する。このとき、走行軌跡データとして、走行軌跡モデルにより出力されたトラジェクトリデータを用いてもよい。白線40上において、i番目の時刻の白線の位置をLiとすると、白線の位置Liは、式(7)を用いて次のように表される。   In step S40, the target calculation unit 16 calculates the position of the target by arranging the target data on the map with reference to the travel locus data obtained by the odometry of the host vehicle. At this time, trajectory data output by the travel locus model may be used as the travel locus data. On the white line 40, assuming that the position of the white line at the i-th time is Li, the position Li of the white line is expressed as follows using equation (7).

白線40の位置を(Cx,Cy)とすると、白線40の位置(Cx,Cy)は、式(8)を用いて次のように表される。 When the position of the white line 40 is (Cx i , Cy i ), the position (Cx i , Cy i ) of the white line 40 is expressed as follows using the equation (8).

式(8)における(Lx,Ly)は、i番目の時刻における自車両から白線40までの距離であり、角度Φの要素を含む。式(8)に示すように物標算出部16は、自車両から白線40までの距離(Lx,Ly)を、車両の向きθだけ回転させる。そして、物標算出部16は、トラジェクトリ21上の座標(x,y)に距離を加算し、座標(x,y)分平行移動してマップ座標系に変換することで各点毎に白線40の位置を算出する。 (Lx i , Ly i ) in Expression (8) is the distance from the host vehicle to the white line 40 at the i-th time, and includes an element of the angle Φ. As shown in Expression (8), the target calculation unit 16 rotates the distance (Lx i , Ly i ) from the host vehicle to the white line 40 by the vehicle orientation θ i . Then, the target calculation unit 16 adds the distance to the coordinates (x i , y i ) on the trajectory 21, translates the coordinates (x i , y i ), and converts them into a map coordinate system. The position of the white line 40 is calculated every time.

ステップS50において、物標位置補正部17は、ステップS40で算出された物標の位置と地図情報に記録されている物標の位置の差分を求める。すなわち、ステップS40で走行軌跡データを基準にして配置された物標データと地図情報との差分を算出する。尚、差分ではなく、物標の位置の分散を求めてもよい。また、ここで算出された差分は、物標モデルの誤差として推定される。   In step S50, the target position correcting unit 17 obtains a difference between the position of the target calculated in step S40 and the position of the target recorded in the map information. That is, the difference between the target data arranged on the basis of the travel locus data and the map information is calculated in step S40. In addition, you may obtain | require dispersion | distribution of the position of a target instead of a difference. Further, the difference calculated here is estimated as an error of the target model.

ステップS60において、物標位置補正部17は、ステップS50で算出された差分が所定値以下であるか否かを判定する。差分が所定値以下である場合には物標の補正処理は終了し、物標データを出力する。一方、差分が所定値より大きい場合にはステップS70に進む。   In step S60, the target position correcting unit 17 determines whether or not the difference calculated in step S50 is equal to or less than a predetermined value. If the difference is less than or equal to the predetermined value, the target correction process is terminated and the target data is output. On the other hand, if the difference is greater than the predetermined value, the process proceeds to step S70.

ステップS70において、物標位置補正部17は、差分が小さくなるように物標データを予め定めたモデルによって調整し、差分が所定値より小さくなるまで物標データの調整を繰り返し行う。すなわち、ステップS40で算出された物標の位置と地図情報に記録されている物標の位置が一致するように物標の補正を繰り返し行う。例えば、ガウスニュートン法等の最適化手法を使用して、車両の向きθと制御パラメータpを調整しながら繰り返し計算の中で徐々に真値に近づけていく方法で白線40を補正する。その結果、図8に示す白線は、図9に示すように補正される。図8では白線40が左右にずれて算出されていたが、図9では白線40が滑らかな線に補正されている。   In step S70, the target position correcting unit 17 adjusts the target data with a predetermined model so that the difference becomes small, and repeatedly adjusts the target data until the difference becomes smaller than a predetermined value. That is, the correction of the target is repeatedly performed so that the position of the target calculated in step S40 matches the position of the target recorded in the map information. For example, the white line 40 is corrected by using an optimization method such as the Gauss-Newton method and gradually adjusting the vehicle orientation θ and the control parameter p to gradually approach the true value in the repeated calculation. As a result, the white line shown in FIG. 8 is corrected as shown in FIG. In FIG. 8, the white line 40 is calculated so as to be shifted left and right, but in FIG. 9, the white line 40 is corrected to a smooth line.

ここで、制御パラメータpを調整する際に、制御パラメータpは制御パラメータqと相関があるため、制御パラメータqの値に基づいて制御パラメータpの値を設定し、調整していくようにする。これにより、物標の位置を補正する処理に要する時間を短縮することができる。さらに、制御パラメータpを調整する範囲を絞ることができるので、ロバスト性を高めることができる。   Here, since the control parameter p is correlated with the control parameter q when the control parameter p is adjusted, the value of the control parameter p is set and adjusted based on the value of the control parameter q. Thereby, the time required for the process of correcting the position of the target can be shortened. Furthermore, since the range for adjusting the control parameter p can be narrowed, robustness can be improved.

[自己位置推定処理の手順]
次に、図10のフローチャートを参照して、本実施形態に係る自己位置推定装置1による自己位置推定処理の処理手順を説明する。
[Self-position estimation process]
Next, with reference to the flowchart of FIG. 10, a processing procedure of the self-position estimation process by the self-position estimation apparatus 1 according to the present embodiment will be described.

ステップS101において、カメラ2及びレーザレンジファインダー3は、図5に示すようにそれぞれ異なる走行地点から物標30までの距離Lと車両の向きθを取得する。本実施形態において、iは時刻を示し、その値は1〜5である。 In step S101, the camera 2 and laser range finder 3 obtains the distance L i and orientation theta i of the vehicle from a different travel points as shown in FIG. 5 to the target 30. In the present embodiment, i indicates time and its value is 1-5.

ステップS102において、トラジェクトリ算出部13は、車両の向きθと制御パラメータqを所定値で初期化する。   In step S102, the trajectory calculation unit 13 initializes the vehicle orientation θ and the control parameter q with predetermined values.

ステップS103において、トラジェクトリ算出部13は、ステップS102で設定した初期値を走行軌跡モデルXに入力し、図5に示すような初期のトラジェクトリ21を算出する。そして、物標位置算出部14は、算出されたトラジェクトリ21を用いて地図上の物標30の位置を算出する。すなわち、トラジェクトリデータを基準にして物標データを地図上に配置して物標30の位置を算出する。物標の位置が算出されると、トラジェクトリ補正部15は、算出された物標の位置と地図情報に記録されている物標の位置との差分を求め、この差分を走行軌跡モデルの誤差として算出する。   In step S103, the trajectory calculation unit 13 inputs the initial value set in step S102 to the travel locus model X, and calculates the initial trajectory 21 as shown in FIG. Then, the target position calculation unit 14 uses the calculated trajectory 21 to calculate the position of the target 30 on the map. That is, the target data is arranged on the map on the basis of the trajectory data, and the position of the target 30 is calculated. When the position of the target is calculated, the trajectory correction unit 15 obtains a difference between the calculated position of the target and the position of the target recorded in the map information, and uses this difference as an error in the travel locus model. calculate.

ステップS104において、物標算出部16は、自車両のセンサにより得られた物標データを物標モデルLに入力して自車両の周囲の物標データを算出する。そして、算出した物標データを、自車両のオドメトリにより得られた走行軌跡データを基準にして地図上に配置して物標の位置を算出する。例えば、図8に示すように、トラジェクトリ21を基準にして地図上に白線40を配置し、白線40の位置を算出する。物標の位置が算出されると、物標位置補正部17は、算出された物標の位置と地図情報に記録されている物標の位置との差分を求め、この差分を物標モデルの誤差として算出する。尚、ステップS103では物標30を例にして説明し、ステップS104では白線40を例にして説明したが、これはあくまで一例であり、ステップS103、104では異なる物標に対して誤差を算出するのではなく、同一の物標に対して誤差を算出する。   In step S104, the target calculation unit 16 calculates the target data around the host vehicle by inputting the target data obtained by the sensor of the host vehicle into the target model L. Then, the calculated target data is arranged on a map on the basis of the travel locus data obtained by odometry of the host vehicle, and the position of the target is calculated. For example, as shown in FIG. 8, the white line 40 is arranged on the map with the trajectory 21 as a reference, and the position of the white line 40 is calculated. When the position of the target is calculated, the target position correcting unit 17 obtains a difference between the calculated position of the target and the position of the target recorded in the map information, and uses this difference of the target model. Calculate as error. In step S103, the target 30 is described as an example. In step S104, the white line 40 is described as an example. However, this is only an example, and steps S103 and 104 calculate an error for different targets. Instead of calculating the error for the same target.

ステップS105において、モデル誤差判定部18は、ステップS103で算出された走行軌跡モデルの誤差と、ステップS104で算出された物標モデルの誤差とを比較し、物標モデルの誤差が走行軌跡モデルの誤差より小さいか否かを判定する。判定した結果、物標モデルの誤差が走行軌跡モデルの誤差より小さい場合には、ステップS106に進んで、物標モデルから出力された算出結果を走行軌跡モデルの入力として物標位置の推定を開始する。一方、物標モデルの誤差が走行軌跡モデルの誤差以上である場合には、ステップS110に進んで、走行軌跡モデルから出力された算出結果を物標モデルの入力として物標位置の推定を開始する。   In step S105, the model error determination unit 18 compares the error of the travel locus model calculated in step S103 with the error of the target model calculated in step S104. It is determined whether it is smaller than the error. As a result of the determination, if the error of the target model is smaller than the error of the travel locus model, the process proceeds to step S106, and estimation of the target position is started using the calculation result output from the target model as the input of the travel locus model. To do. On the other hand, if the error of the target model is greater than or equal to the error of the travel locus model, the process proceeds to step S110, and the estimation of the target position is started using the calculation result output from the travel locus model as the input of the target model. .

ステップS106において、トラジェクトリ算出部13は、走行軌跡モデルXを用いてトラジェクトリを算出する。具体的に、トラジェクトリ算出部13は、物標モデルから出力された物標データを、走行軌跡モデルの入力としてトラジェクトリを算出する。例えば、ステップS104や後述するステップS111で算出された物標の位置を走行軌跡モデルに入力してトラジェクトリを算出する。この場合、トラジェクトリ算出部13は、物標の位置から逆算してトラジェクトリを算出する。また、トラジェクトリ算出部13は、ステップS102で設定した初期値を走行軌跡モデルXに入力し、図5に示すような初期のトラジェクトリ21を算出してもよい。さらに、自車両のオドメトリにより得られた走行軌跡データに基づいてトラジェクトリデータを算出してもよい。   In step S <b> 106, the trajectory calculation unit 13 calculates a trajectory using the travel locus model X. Specifically, the trajectory calculation unit 13 calculates a trajectory using the target data output from the target model as an input of the travel locus model. For example, the trajectory is calculated by inputting the position of the target calculated in step S104 or step S111 described later to the travel locus model. In this case, the trajectory calculation unit 13 calculates the trajectory by calculating backward from the position of the target. Further, the trajectory calculation unit 13 may input the initial value set in step S102 to the travel locus model X and calculate the initial trajectory 21 as shown in FIG. Further, the trajectory data may be calculated based on the travel locus data obtained by the odometry of the host vehicle.

ステップS107において、物標位置算出部14は、ステップS106で算出されたトラジェクトリを用いて地図上の物標の位置を算出する。まず、物標位置算出部14は、トラジェクトリ21上の各点から物標30までの距離Lを取得し、この距離を取得した時の車両の向きθを取得する。そして、物標位置算出部14は、物標30までの距離L及び車両の向きθを用いて各点毎に物標30の位置を算出する。すなわち、トラジェクトリデータを基準にして物標データを地図上に配置して物標30の位置を算出する。このとき、後述する物標モデルにより出力された物標データを、地図上に配置する物標データとして用いてもよい。 In step S107, the target position calculation unit 14 calculates the position of the target on the map using the trajectory calculated in step S106. First, the target position calculation unit 14 acquires a distance L i from each point on the trajectory 21 to the target 30 and acquires a vehicle orientation θ i when the distance is acquired. Then, the target position calculation unit 14 calculates the position of the target 30 for each point using the distance L i to the target 30 and the direction θ i of the vehicle. That is, the target data is arranged on the map on the basis of the trajectory data, and the position of the target 30 is calculated. At this time, target data output by a target model described later may be used as target data to be arranged on the map.

ステップS108において、トラジェクトリ補正部15は、ステップS107で算出された物標30の位置と地図情報に記録されている物標の位置が一致しているか否かを判定する。判定方法としては、算出された物標30の位置と地図情報に記録されている物標の位置の差分を求め、その差分が所定の閾値以下であるか否かによって判定すればよい。また、算出された物標30の位置の分散を算出し、分散が所定の閾値以下であるか否かによって判定してもよい。トラジェクトリ補正部15は、算出された物標30の位置と地図情報に記録されている物標の位置が一致していないと判定した場合にはステップS109へ進む。一方、算出された物標30の位置と地図情報に記録されている物標の位置が一致していると判定された場合にはトラジェクトリの補正を終了してステップS110へ進む。   In step S108, the trajectory correction unit 15 determines whether or not the position of the target 30 calculated in step S107 matches the position of the target recorded in the map information. As a determination method, a difference between the calculated position of the target 30 and the position of the target recorded in the map information may be obtained, and the determination may be made based on whether the difference is equal to or less than a predetermined threshold value. Alternatively, the variance of the calculated position of the target 30 may be calculated, and determination may be made based on whether or not the variance is equal to or less than a predetermined threshold. If the trajectory correction unit 15 determines that the calculated position of the target 30 does not match the position of the target recorded in the map information, the process proceeds to step S109. On the other hand, when it is determined that the calculated position of the target 30 matches the position of the target recorded in the map information, the trajectory correction is terminated, and the process proceeds to step S110.

ステップS109において、トラジェクトリ補正部15は、車両の向きθと制御パラメータqを調整してトラジェクトリ21を補正する。以後、ステップS106〜S109において、トラジェクトリ補正部15は、ガウスニュートン法等の最適化手法を使用して、車両の向きθと制御パラメータqを調整しながら繰り返し計算の中で徐々に真値に近づけていく方法を用いてトラジェクトリを補正する。例えば、物標30の位置と地図情報に記録されている物標の位置の差分が小さくなるように、予め定めたモデルによってトラジェクトリデータを調整する。   In step S109, the trajectory correction unit 15 corrects the trajectory 21 by adjusting the vehicle orientation θ and the control parameter q. Thereafter, in steps S106 to S109, the trajectory correction unit 15 uses an optimization method such as the Gauss-Newton method to gradually approach the true value in the repeated calculation while adjusting the vehicle orientation θ and the control parameter q. The trajectory is corrected using a method that goes on. For example, the trajectory data is adjusted by a predetermined model so that the difference between the position of the target 30 and the position of the target recorded in the map information becomes small.

ステップS110において、物標算出部16は、物標モデルLを用いて物標データを算出する。具体的に、物標算出部16は、走行軌跡モデルから出力された算出結果を、物標モデルの入力として物標データを算出する。例えば、ステップS103、107で走行軌跡モデルにより出力された物標の位置を、物標モデルLの入力として物標データを算出する。また、物標算出部16は、車両の向きθと制御パラメータpを物標モデルLに入力して物標データを算出してもよい。さらに、物標算出部16は、自車両のセンサにより得られた物標データを物標モデルLに入力して、自車両の周囲の物標データを算出してもよい。   In step S110, the target calculation unit 16 calculates target data using the target model L. Specifically, the target calculation unit 16 calculates target data using the calculation result output from the travel locus model as an input of the target model. For example, the target data output by the travel locus model in steps S103 and 107 is used as the input of the target model L to calculate target data. The target calculation unit 16 may calculate target data by inputting the vehicle orientation θ and the control parameter p to the target model L. Furthermore, the target calculation unit 16 may input target data obtained by a sensor of the host vehicle to the target model L to calculate target data around the host vehicle.

ステップS111において、物標算出部16は、自車両のオドメトリにより得られた走行軌跡データを基準にして物標データを地図上に配置して、物標の位置を算出する。このとき、走行軌跡データとして、ステップS103、106で走行軌跡モデルにより出力されたトラジェクトリデータを用いてもよい。例えば、図8に示すように、トラジェクトリ21を基準にして地図上に白線40を配置し、白線40の位置を算出してもよい。   In step S111, the target calculation unit 16 calculates the position of the target by arranging the target data on the map with reference to the travel locus data obtained by the odometry of the host vehicle. At this time, the trajectory data output from the travel trajectory model in steps S103 and S106 may be used as the travel trajectory data. For example, as shown in FIG. 8, the white line 40 may be arranged on the map with the trajectory 21 as a reference, and the position of the white line 40 may be calculated.

ステップS112において、物標位置補正部17は、ステップS111で算出された白線40の位置と地図情報に記録されている白線の位置が一致しているか否かを判定する。判定方法としては、算出された白線40の位置と地図情報に記録されている白線の位置の差分を求め、その差分が所定値以下であるか否かによって判定する。また、算出された白線40の位置の分散を算出し、分散が所定の閾値以下であるか否かによって判定してもよい。物標位置補正部17は、算出された白線40の位置と地図情報に記録されている白線の位置が一致していないと判定した場合にはステップS113へ進む。一方、算出された白線40の位置と地図情報に記録されている白線の位置が一致していると判定された場合には白線の位置の補正を終了してステップS114へ進む。   In step S112, the target position correcting unit 17 determines whether or not the position of the white line 40 calculated in step S111 matches the position of the white line recorded in the map information. As a determination method, a difference between the calculated position of the white line 40 and the position of the white line recorded in the map information is obtained, and the determination is made based on whether the difference is equal to or less than a predetermined value. Alternatively, the variance of the calculated position of the white line 40 may be calculated, and determination may be made based on whether the variance is equal to or less than a predetermined threshold. If the target position correction unit 17 determines that the calculated position of the white line 40 does not match the position of the white line recorded in the map information, the process proceeds to step S113. On the other hand, when it is determined that the calculated position of the white line 40 matches the position of the white line recorded in the map information, the correction of the position of the white line is finished and the process proceeds to step S114.

ステップS113において、物標位置補正部17は、制御パラメータpを調整して白線40を補正する。以後、ステップS110〜ステップS113において、物標位置補正部17は、ガウスニュートン法等の最適化手法を使用して、制御パラメータpを調整しながら繰り返し計算の中で徐々に真値に近づけていく方法を用いて白線40の位置を補正する。例えば、白線40の位置と地図情報に記録されている白線の位置の差分が小さくなるように、予め定めたモデルによって物標データを調整する。   In step S113, the target position correction unit 17 corrects the white line 40 by adjusting the control parameter p. Thereafter, in step S110 to step S113, the target position correcting unit 17 uses an optimization method such as the Gauss-Newton method and gradually approaches the true value in the repeated calculation while adjusting the control parameter p. The position of the white line 40 is corrected using a method. For example, the target data is adjusted by a predetermined model so that the difference between the position of the white line 40 and the position of the white line recorded in the map information becomes small.

ステップS114において、マッチング部19は、補正された白線の位置を地図情報とマッチングし、マッチング度合いが所定値以上であるか否かを判定する。具体的に、マッチング部19は、補正された白線の位置を地図情報と重ね合わせて、照合して、地図情報に記録されている白線と一致するか否かを判定する。そして、補正された白線が地図情報と一致せずにマッチング度合いが所定値未満であると判定された場合には、ステップS106に戻ってトラジェクトリの補正と白線の位置の補正を繰り返し行う。尚、ステップS114からステップS106に戻った場合には、補正された物標の位置に基づいてトラジェクトリを算出し、物標の位置を算出する。一方、補正された白線が地図情報と一致してマッチング度合いが所定値以上であると判定された場合には、地図情報とのマッチングを終了してステップS115に進む。   In step S114, the matching unit 19 matches the corrected position of the white line with the map information, and determines whether or not the matching degree is a predetermined value or more. Specifically, the matching unit 19 overlaps the position of the corrected white line with the map information and collates it to determine whether or not it matches the white line recorded in the map information. If it is determined that the corrected white line does not match the map information and the degree of matching is less than a predetermined value, the process returns to step S106, and trajectory correction and white line position correction are repeated. When the process returns from step S114 to step S106, a trajectory is calculated based on the corrected target position, and the target position is calculated. On the other hand, if the corrected white line matches the map information and it is determined that the matching degree is greater than or equal to a predetermined value, the matching with the map information is terminated and the process proceeds to step S115.

このように、本実施形態では、ステップS106、107の走行軌跡モデルによって出力された算出結果を、ステップS110、111の物標モデルの入力としている。また、ステップS110、111の物標モデルによって出力された算出結果を、ステップS106、107の走行軌跡モデルの入力としている。したがって、本実施形態に係る自己位置推定装置1では、走行軌跡モデルと物標モデルのいずれか一方により出力された算出結果を、走行軌跡モデルと物標モデルのもう一方の入力としている。   As described above, in the present embodiment, the calculation result output by the travel locus model in steps S106 and 107 is used as the input of the target model in steps S110 and 111. Moreover, the calculation result output by the target model of steps S110 and 111 is used as the input of the travel locus model of steps S106 and 107. Therefore, in the self-position estimation apparatus 1 according to the present embodiment, the calculation result output from one of the travel locus model and the target model is used as the other input of the travel locus model and the target model.

ステップS115において、マッチング部19は、地図データベース6へリンクして、補正後の白線の位置を地図データベース6へ記録する。また、白線の位置が補正されたことにより、その他の道路構造や物標の位置を補正する必要がある場合には、それらの位置についても補正して記録する。   In step S115, the matching unit 19 links to the map database 6 and records the corrected position of the white line in the map database 6. If the position of the white line is corrected and the position of other road structures or targets needs to be corrected, those positions are also corrected and recorded.

ステップS116において、自己位置推定部20は、ステップS115で地図データベース6に記録された白線40の位置を用いて自己位置を推定し、本実施形態に係る自己位置の推定処理を終了する。本実施形態の自己位置の推定処理では、地図上の白線40の位置を精度よく推定しているので、自車両から白線40までの距離と方向を用いることにより、自己位置推定部20は自己位置を精度よく推定することができる。   In step S116, the self-position estimation unit 20 estimates the self-position using the position of the white line 40 recorded in the map database 6 in step S115, and ends the self-position estimation process according to the present embodiment. Since the position of the white line 40 on the map is accurately estimated in the self-position estimation process of the present embodiment, the self-position estimation unit 20 uses the distance and direction from the host vehicle to the white line 40 to determine the self-position estimation unit 20. Can be estimated with high accuracy.

[第1実施形態の効果]
以上詳細に説明したように、本実施形態に係る自己位置推定装置1では、走行軌跡モデルの誤差と物標モデルの誤差を算出する。そして、走行軌跡モデルの誤差と物標モデルの誤差の大きさに応じて、走行軌跡モデルから出力された算出結果と物標モデルから出力された算出結果のどちらを用いて、物標位置の推定を開始するか決定する。これにより、走行軌跡モデルの誤差と物標モデルの誤差を考慮して物標位置の推定を開始できるので、自車両の自己位置を精度よく推定することができる。
[Effect of the first embodiment]
As described above in detail, the self-position estimation apparatus 1 according to the present embodiment calculates the error of the travel locus model and the error of the target model. The target position is estimated using either the calculation result output from the travel trajectory model or the calculation result output from the target model, depending on the error of the travel trajectory model and the error of the target model. Decide to start. Thereby, since the estimation of the target position can be started in consideration of the error of the travel locus model and the error of the target model, the self position of the host vehicle can be estimated with high accuracy.

例えば、図11に示すように、実際の道路上の白線91と地図情報に記録された白線93との間には数cm、例えば10cm程度の位置ずれが存在する場合がある。したがって、実際の道路環境において、地図情報をそのまま適用して白線の位置を推定し、車両の自己位置を算出すると、自己位置と実際の道路との間には誤差が発生することになる。加えて、地図によっては、物標情報が不足しており、白線等の物標との相対的な位置関係が分からず、自車両の位置を正確に推定することができない場合がある。   For example, as shown in FIG. 11, there may be a positional shift of several centimeters, for example, about 10 cm between the white line 91 on the actual road and the white line 93 recorded in the map information. Therefore, if the map information is applied as it is in the actual road environment to estimate the position of the white line and calculate the self-position of the vehicle, an error occurs between the self-position and the actual road. In addition, depending on the map, the target information may be insufficient, the relative positional relationship with the target such as a white line may not be known, and the position of the host vehicle may not be accurately estimated.

しかしながら、本実施形態に係る自己位置推定装置1では、走行軌跡モデルの誤差と物標モデルの誤差を考慮して物標位置の推定を開始するので、地図情報に誤差がある場合や地図情報が不足している場合でも、自車両の自己位置を正確に推定することができる。   However, in the self-position estimation apparatus 1 according to the present embodiment, estimation of the target position is started in consideration of the error of the travel locus model and the error of the target model. Even if it is insufficient, the self position of the host vehicle can be accurately estimated.

また、本実施形態に係る自己位置推定装置1では、走行軌跡モデルと物標モデルのうち誤差の小さいほうのモデルから出力された算出結果を、走行軌跡モデルと物標モデルのもう一方の入力として物標位置の推定を開始する。これにより、誤差の小さいほうのモデルから出力された算出結果に基づいて物標位置の推定を開始できるので、自車両の自己位置を精度よく推定できるとともに、より早く自己位置を推定することが可能となる。   In the self-position estimation apparatus 1 according to the present embodiment, the calculation result output from the model with the smaller error of the traveling locus model and the target model is used as the other input of the traveling locus model and the target model. Start estimating the target position. As a result, estimation of the target position can be started based on the calculation result output from the model with the smaller error, so that the self-position of the host vehicle can be estimated accurately and the self-position can be estimated earlier. It becomes.

さらに、自己位置を精度よく推定できることにより、例えば、自動運転制御や運転支援制御を実行する場合に、車両の位置を正確に制御できるので、実際の物標に合った適切な位置制御を実行できるようになる。また、実際の物標に合った適切な走行支援を実行できるので、乗員に与える違和感を抑制した自動運転制御や運転支援制御を実行することができる。   Furthermore, since the self-position can be accurately estimated, for example, when automatic driving control or driving support control is executed, the position of the vehicle can be accurately controlled, so that appropriate position control that matches the actual target can be executed. It becomes like this. In addition, since it is possible to execute appropriate driving support that matches the actual target, it is possible to execute automatic driving control or driving support control that suppresses a sense of discomfort given to the occupant.

[第2実施形態]
以下、本発明の第2実施形態について、図面を参照して説明する。図面の記載において、第1実施形態と同一の部分には同一符号を付して説明を省略する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

[自己位置推定装置の構成]
本実施形態に係る自己位置推定装置では、モデル誤差判定部18によって行われる処理が第1実施形態と相違しているだけで、自己位置推定装置のその他の構成は図1に示す第1実施形態と同一である。
[Configuration of self-position estimation device]
In the self-position estimation apparatus according to the present embodiment, only the processing performed by the model error determination unit 18 is different from that of the first embodiment, and other configurations of the self-position estimation apparatus are shown in FIG. Is the same.

モデル誤差判定部18は、走行軌跡モデルの誤差と物標モデルの誤差の大きさに応じて、走行軌跡モデルから出力された算出結果と物標モデルから出力された算出結果のどちらを用いて、物標位置の推定を開始するか決定する。特に、本実施形態では、走行軌跡モデルの誤差と物標モデルの誤差に対して、それぞれ所定の閾値を設定する。そして、走行軌跡モデルの誤差と物標モデルの誤差が所定の閾値より大きいか否かによって、走行軌跡モデルから出力された算出結果と物標モデルから出力された算出結果のどちらを用いて、物標位置の推定を開始するか決定する。   The model error determination unit 18 uses either the calculation result output from the travel trajectory model or the calculation result output from the target model according to the magnitude of the error of the travel trajectory model and the error of the target model. Decide whether to start estimating the target position. In particular, in the present embodiment, predetermined thresholds are set for the error of the travel locus model and the error of the target model, respectively. Then, depending on whether the error of the travel trajectory model and the error of the target model are larger than a predetermined threshold, the calculation result output from the travel trajectory model or the calculation result output from the target model is used. Determine whether to start estimating the target position.

尚、設定される閾値は、算出された物標の位置の補正が不要であるか否かを判定するための閾値であり、実験やシミュレーションを通じて設定してもよく、また任意に設定してもよい。   The threshold value to be set is a threshold value for determining whether or not correction of the calculated target position is unnecessary, and may be set through experiments or simulations, or may be set arbitrarily. Good.

ここで、図12を参照して、走行軌跡モデルの算出結果と物標モデルの算出結果のどちらを用いて物標位置の推定を開始するか決定する方法を説明する。モデル誤差判定部18は、図12のAに示すように、走行軌跡モデルの誤差と物標モデルの誤差がいずれも所定の閾値以下である場合には、算出された物標の位置の補正は不要であると判定する。   Here, with reference to FIG. 12, a method for determining which of the calculation result of the travel locus model and the calculation result of the target model is used to start the estimation of the target position will be described. As shown in FIG. 12A, the model error determination unit 18 corrects the calculated position of the target when the error of the travel locus model and the error of the target model are both below a predetermined threshold. It is determined that it is unnecessary.

また、図12のBに示すように、モデル誤差判定部18は、物標モデルの誤差が所定の閾値より大きい場合には、走行軌跡モデルから出力された算出結果を、物標モデルの入力として物標位置の推定を開始すると判定する。また、図12のCに示すように、走行軌跡モデルの誤差が所定の閾値より大きい場合には、物標モデルから出力された算出結果を、走行軌跡モデルの入力として物標位置の推定を開始すると判定する。   As shown in FIG. 12B, the model error determination unit 18 uses the calculation result output from the travel locus model as the input of the target model when the error of the target model is larger than a predetermined threshold. It is determined that estimation of the target position is started. In addition, as shown in FIG. 12C, when the error of the travel trajectory model is larger than a predetermined threshold, estimation of the target position is started using the calculation result output from the target model as the input of the travel trajectory model. Judge that.

さらに、図12のDに示すように、走行軌跡モデルの誤差と物標モデルの誤差がいずれも所定の閾値より大きい場合には、走行軌跡モデルから出力された算出結果を、物標モデルの入力として物標位置の推定を開始すると判定する。一般的に、物標の位置ずれよりもオドメトリの誤差のほうが小さくなる。そこで、走行軌跡モデルの誤差と物標モデルの誤差がいずれも所定の閾値より大きい場合には、走行軌跡モデルを優先させて、走行軌跡モデルから出力された算出結果を用いて物標位置の推定を開始する。   Further, as shown in FIG. 12D, when both the error of the travel locus model and the error of the target model are larger than a predetermined threshold, the calculation result output from the travel locus model is input to the target model. It is determined that estimation of the target position is started. In general, the error of odometry is smaller than the displacement of the target. Therefore, if both the error in the travel trajectory model and the error in the target model are larger than the predetermined threshold, the travel trajectory model is prioritized and the target position is estimated using the calculation result output from the travel trajectory model. To start.

尚、モデル誤差判定部18は、自車両の車速が所定値未満である場合には、物標モデルから出力された算出結果を、走行軌跡モデルの入力として物標位置の推定を開始してもよい。車速が極めて低速になると、トラジェクトリの誤差が大きくなる傾向があるため、自車両の車速が所定値未満となった場合には、物標モデルを優先させて、物標モデルから出力された算出結果を用いて物標位置の推定を開始する。所定値については、トラジェクトリの誤差が大きくなる車速を予め実験やシミュレーションを通じて求めておき、その値に設定すればよい。   If the vehicle speed of the host vehicle is less than the predetermined value, the model error determination unit 18 may start estimation of the target position using the calculation result output from the target model as an input of the travel locus model. Good. Since the trajectory error tends to increase when the vehicle speed becomes extremely low, if the vehicle speed of the host vehicle falls below the specified value, the target model is prioritized and the calculation result output from the target model The target position estimation is started using. As for the predetermined value, a vehicle speed at which a trajectory error increases may be obtained in advance through experiments and simulations, and set to that value.

また、車速だけではなく、自車両が走行している道路がカーブしている場合にも、トラジェクトリの誤差が大きくなる傾向がある。そこで、自車両がカーブを走行している場合にも、物標モデルを優先させて、物標モデルから出力された算出結果を用いて物標位置の推定を開始するようにしてもよい。   Further, not only the vehicle speed but also the trajectory error tends to increase when the road on which the vehicle is traveling is curved. Therefore, even when the host vehicle is traveling on a curve, the target model may be prioritized and estimation of the target position may be started using the calculation result output from the target model.

[自己位置推定処理の手順]
次に、図13のフローチャートを参照して、本実施形態に係る自己位置推定装置1による自己位置推定処理の処理手順を説明する。ただし、本実施形態に係る自己位置推定処理では、図10のステップS105を、図13のステップS205、206に変更したことが相違しているだけで、その他の処理は第1実施形態と同一である。そのため、その他のステップの詳細な説明は省略する。
[Self-position estimation process]
Next, with reference to the flowchart of FIG. 13, a processing procedure of self-position estimation processing by the self-position estimation apparatus 1 according to the present embodiment will be described. However, the self-position estimation process according to the present embodiment is the same as the first embodiment except that step S105 in FIG. 10 is changed to steps S205 and 206 in FIG. is there. Therefore, detailed description of other steps is omitted.

図13に示すように、ステップS201〜204の処理が実行されて、走行軌跡モデルの誤差と物標モデルの誤差がそれぞれ算出される。そして、ステップS205において、モデル誤差判定部18は、補正が必要であるか否かを判定する。すなわち、ステップS203で算出された走行軌跡モデルの誤差と、ステップS204で算出された物標モデルの誤差の少なくとも1つが所定の閾値より大きいか否かを判定する。   As shown in FIG. 13, the processing of steps S201 to S204 is executed, and the error of the travel locus model and the error of the target model are calculated. In step S205, the model error determination unit 18 determines whether correction is necessary. That is, it is determined whether at least one of the error of the travel locus model calculated in step S203 and the error of the target model calculated in step S204 is larger than a predetermined threshold value.

図12のAに示すように、モデル誤差判定部18は、走行軌跡モデルの誤差と物標モデルの誤差がいずれも所定の閾値以下である場合には、補正は不要であると判定して、ステップS215に進む。一方、走行軌跡モデルの誤差と物標モデルの誤差のいずれか、または両方が所定の閾値より大きい場合、すなわち図12のB、C、Dの場合には、補正が必要であると判定して、ステップS206に進む。   As shown in FIG. 12A, the model error determination unit 18 determines that the correction is unnecessary when both the error of the travel locus model and the error of the target model are equal to or less than a predetermined threshold value. Proceed to step S215. On the other hand, if one or both of the error of the travel locus model and the target model is larger than the predetermined threshold, that is, in the case of B, C, and D in FIG. 12, it is determined that correction is necessary. The process proceeds to step S206.

ステップS206において、モデル誤差判定部18は、物標モデルから出力された算出結果を用いて自己位置の推定を開始するか否かを判定する。モデル誤差判定部18は、走行軌跡モデルの誤差が所定の閾値より大きい場合、すなわち図12のCの場合には、物標モデルから出力された算出結果を用いて物標位置の推定を開始すると判定してステップS207へ進む。   In step S206, the model error determination unit 18 determines whether or not to start the estimation of the self position using the calculation result output from the target model. When the error of the travel locus model is larger than the predetermined threshold, that is, in the case of C in FIG. 12, the model error determination unit 18 starts estimating the target position using the calculation result output from the target model. Determine and proceed to step S207.

一方、モデル誤差判定部18は、物標モデルの誤差が所定の閾値より大きい場合、すなわち図12のBの場合には、走行軌跡モデルから出力された算出結果を用いて物標位置の推定を開始すると判定してステップS211へ進む。また、走行軌跡モデルの誤差と物標モデルの誤差がいずれも所定の閾値より大きい場合、すなわち図12のDの場合にも、走行軌跡モデルから出力された算出結果を用いて物標位置の推定を開始すると判定してステップS211へ進む。この後、ステップS207〜217の処理が実行されて、自己位置が推定されると、本実施形態に係る自己位置の推定処理は終了する。   On the other hand, when the error of the target model is larger than the predetermined threshold, that is, in the case of B in FIG. 12, the model error determination unit 18 estimates the target position using the calculation result output from the traveling locus model. It determines with starting, and progresses to step S211. Further, even when the error of the travel locus model and the error of the target model are both larger than a predetermined threshold, that is, in the case of D in FIG. 12, the target position is estimated using the calculation result output from the travel locus model. The process proceeds to step S211. Thereafter, when the processes of steps S207 to 217 are executed and the self-position is estimated, the self-position estimation process according to the present embodiment is ended.

[第2実施形態の効果]
以上詳細に説明したように、本実施形態に係る自己位置推定装置1では、走行軌跡モデルの誤差と物標モデルの誤差に対して、それぞれ所定の閾値を設定する。そして、走行軌跡モデルの誤差と物標モデルの誤差が所定の閾値より大きいか否かによって、走行軌跡モデルから出力された算出結果と物標モデルから出力された算出結果のどちらを用いて、物標位置の推定を開始するか決定する。これにより、走行軌跡モデルの誤差と物標モデルの誤差を考慮して物標位置の推定を開始できるので、自車両の自己位置を精度よく推定することができる。
[Effects of Second Embodiment]
As described above in detail, in the self-position estimation apparatus 1 according to the present embodiment, predetermined thresholds are set for the error of the travel locus model and the error of the target model, respectively. Then, depending on whether the error of the travel trajectory model and the error of the target model are larger than a predetermined threshold, the calculation result output from the travel trajectory model or the calculation result output from the target model is used. Determine whether to start estimating the target position. Thereby, since the estimation of the target position can be started in consideration of the error of the travel locus model and the error of the target model, the self position of the host vehicle can be estimated with high accuracy.

また、本実施形態に係る自己位置推定装置1では、物標モデルの誤差が所定の閾値より大きい場合には、走行軌跡モデルから出力された算出結果を、物標モデルの入力として物標位置の推定を開始する。これにより、物標モデルの誤差が大きい場合でも、走行軌跡モデルから出力された算出結果を用いて物標位置の推定を開始できるので、自車両の自己位置を精度よく推定することができる。   Further, in the self-position estimation apparatus 1 according to the present embodiment, when the error of the target model is larger than a predetermined threshold, the calculation result output from the travel locus model is used as the target model input as the target position. Start estimation. Thereby, even when the error of the target model is large, the estimation of the target position can be started using the calculation result output from the traveling locus model, so that the self position of the host vehicle can be estimated with high accuracy.

さらに、本実施形態に係る自己位置推定装置1では、走行軌跡モデルの誤差が所定の閾値より大きい場合には、物標モデルから出力された算出結果を、走行軌跡モデルの入力として物標位置の推定を開始する。これにより、走行軌跡モデルの誤差が大きい場合でも、物標モデルから出力された算出結果を用いて物標位置の推定を開始できるので、自車両の自己位置を精度よく推定することができる。   Furthermore, in the self-position estimation apparatus 1 according to the present embodiment, when the error of the travel locus model is larger than a predetermined threshold, the calculation result output from the target model is used as the input of the travel locus model as the target position. Start estimation. Thereby, even when the error of the travel locus model is large, the estimation of the target position can be started using the calculation result output from the target model, so that the self position of the host vehicle can be estimated with high accuracy.

また、本実施形態に係る自己位置推定装置1では、走行軌跡モデルの誤差と物標モデルの誤差が所定の閾値より大きい場合には、走行軌跡モデルから出力された算出結果を、物標モデルの入力として物標位置の推定を開始する。これにより、走行軌跡モデルと物標モデルの両方の誤差が大きい場合には、より誤差が小さいと考えられる走行軌跡モデルから出力された算出結果を用いて物標位置の推定を開始できるので、自車両の自己位置を精度よく推定することができる。   Further, in the self-position estimation apparatus 1 according to the present embodiment, when the error of the travel locus model and the error of the target model are larger than a predetermined threshold, the calculation result output from the travel locus model is displayed on the target model. Start estimation of target position as input. As a result, when the error between both the travel trajectory model and the target model is large, the estimation of the target position can be started using the calculation result output from the travel trajectory model considered to have a smaller error. It is possible to accurately estimate the self-position of the vehicle.

また、本実施形態に係る自己位置推定装置1では、自車両の車速が所定値未満である場合には、物標モデルから出力された算出結果を、走行軌跡モデルの入力として物標位置の推定を開始する。これにより、自車両の車速が低くてトラジェクトリの誤差が大きくなる可能性が高い場合に、物標モデルから出力された算出結果を用いて物標位置の推定を開始できるので、自車両の自己位置を精度よく推定することができる。   Moreover, in the self-position estimation apparatus 1 according to the present embodiment, when the vehicle speed of the host vehicle is less than a predetermined value, the calculation result output from the target model is used as the input of the travel locus model to estimate the target position. To start. This makes it possible to start estimating the target position using the calculation result output from the target model when the vehicle speed of the host vehicle is low and there is a high possibility that the trajectory error will increase. Can be estimated with high accuracy.

尚、補正した物標を記録して、次回もしくは次回以降の走行支援に用いることも可能である。これにより、補正した物標データを用いて走行支援を実行できるので、次回もしくは次回以降の走行支援を実行したときに、実際の物標に合った適切な走行支援を実行することができる。また、補正した物標データを記録することにより、同じ道路を走行した時の物標推定が不要になるため、計算負荷を低減することができる。   It is also possible to record the corrected target and use it for the next or subsequent driving support. As a result, the travel support can be executed using the corrected target data, so that the appropriate travel support suitable for the actual target can be executed when the next or subsequent travel support is executed. In addition, by recording the corrected target data, it is not necessary to estimate the target when traveling on the same road, so that the calculation load can be reduced.

尚、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and even if it is a form other than this embodiment, as long as it does not depart from the technical idea of the present invention, it depends on the design. Of course, various modifications are possible.

1 自己位置推定装置
2 カメラ
3 レーザレンジファインダー
4 GPS受信機
5 ジャイロセンサ
6 地図データベース
7 通信機
10 コントローラ
11 走行軌跡モデル作成部
12 物標モデル作成部
13 トラジェクトリ算出部
14 物標位置算出部
15 トラジェクトリ補正部
16 物標算出部
17 物標位置補正部
18 モデル誤差判定部
19 マッチング部
20 自己位置推定部
25 サーバ
30 物標
40 白線
DESCRIPTION OF SYMBOLS 1 Self-position estimation apparatus 2 Camera 3 Laser range finder 4 GPS receiver 5 Gyro sensor 6 Map database 7 Communication apparatus 10 Controller 11 Traveling track model creation part 12 Target model creation part 13 Trajectory calculation part 14 Target position calculation part 15 Trajectory Correction unit 16 Target calculation unit 17 Target position correction unit 18 Model error determination unit 19 Matching unit 20 Self-position estimation unit 25 Server 30 Target 40 White line

Claims (8)

自車両のオドメトリにより得られた走行軌跡データを入力し、前記オドメトリにより得られた走行軌跡データを予め定めたモデルにより調整し、調整した結果を自車両のトラジェクトリデータとして出力する走行軌跡モデルと、
自車両のセンサにより得られた物標データを入力し、前記センサにより得られた物標データを予め定めたモデルにより調整し、調整した結果を自車両の周囲の物標データとして出力する物標モデルと
を用いて自車両の周囲の物標位置を推定し、前記物標位置と地図情報とを照合することによって自車両の自己位置を推定する自己位置推定装置の自己位置推定方法において、
前記走行軌跡モデルの誤差と前記物標モデルの誤差を算出し、
前記走行軌跡モデルの誤差と前記物標モデルの誤差の大きさに応じて、前記走行軌跡モデルから出力された算出結果と前記物標モデルから出力された算出結果のどちらを用いて、前記物標位置の推定を開始するか決定することを特徴とする自己位置推定方法。
A travel locus model obtained by inputting travel locus data obtained by odometry of the own vehicle, adjusting the travel locus data obtained by the odometry by a predetermined model, and outputting the adjusted result as trajectory data of the own vehicle;
The target data obtained by the sensor of the host vehicle is input, the target data obtained by the sensor is adjusted by a predetermined model, and the adjusted result is output as the target data around the host vehicle. In a self-position estimation method of a self-position estimation device that estimates a target position around the host vehicle using a model and estimates the self-position of the host vehicle by comparing the target position and map information,
Calculate the error of the travel locus model and the error of the target model,
Depending on the error of the travel locus model and the error of the target model, either the calculation result output from the travel locus model or the calculation result output from the target model is used. A self-position estimation method characterized by determining whether to start position estimation.
前記走行軌跡モデルと前記物標モデルのうち誤差の小さいほうのモデルから出力された算出結果を、前記走行軌跡モデルと前記物標モデルのもう一方の入力として前記物標位置の推定を開始することを特徴とする請求項1に記載の自己位置推定方法。   Starting estimation of the target position using the calculation result output from the model with the smaller error of the traveling locus model and the target model as the other input of the traveling locus model and the target model. The self-position estimation method according to claim 1. 前記走行軌跡モデルの誤差と前記物標モデルの誤差に対して、それぞれ所定の閾値を設定し、
前記走行軌跡モデルの誤差と前記物標モデルの誤差が前記所定の閾値より大きいか否かによって、前記走行軌跡モデルから出力された算出結果と前記物標モデルから出力された算出結果のどちらを用いて、前記物標位置の推定を開始するか決定することを特徴とする請求項1に記載の自己位置推定方法。
A predetermined threshold is set for each of the error of the travel locus model and the error of the target model,
Depending on whether the error of the travel locus model and the error of the target model are larger than the predetermined threshold, either the calculation result output from the travel locus model or the calculation result output from the target model is used. The method of claim 1, further comprising determining whether to start estimating the target position.
前記物標モデルの誤差が前記所定の閾値より大きい場合には、前記走行軌跡モデルから出力された算出結果を、前記物標モデルの入力として前記物標位置の推定を開始することを特徴とする請求項3に記載の自己位置推定方法。   When the error of the target model is larger than the predetermined threshold value, estimation of the target position is started by using the calculation result output from the traveling locus model as an input of the target model. The self-position estimation method according to claim 3. 前記走行軌跡モデルの誤差が前記所定の閾値より大きい場合には、前記物標モデルから出力された算出結果を、前記走行軌跡モデルの入力として前記物標位置の推定を開始することを特徴とする請求項3または4に記載の自己位置推定方法。   When the error of the travel locus model is larger than the predetermined threshold, the estimation of the target position is started using the calculation result output from the target model as an input of the travel locus model. The self-position estimation method according to claim 3 or 4. 前記走行軌跡モデルの誤差と前記物標モデルの誤差が前記所定の閾値より大きい場合には、前記走行軌跡モデルから出力された算出結果を、前記物標モデルの入力として物標位置の推定を開始することを特徴とする請求項3〜5のいずれか1項に記載の自己位置推定方法。   When the error of the travel locus model and the error of the target model are larger than the predetermined threshold, estimation of the target position is started using the calculation result output from the travel locus model as an input of the target model. The self-position estimation method according to any one of claims 3 to 5, wherein: 自車両の車速が所定値未満である場合には、前記物標モデルから出力された算出結果を、前記走行軌跡モデルの入力として物標位置の推定を開始することを特徴とする請求項3〜6のいずれか1項に記載の自己位置推定方法。   The target position estimation is started by using the calculation result output from the target model as an input of the travel locus model when the vehicle speed of the host vehicle is less than a predetermined value. 7. The self-position estimation method according to any one of 6 above. 自車両のオドメトリにより得られた走行軌跡データを入力し、前記オドメトリにより得られた走行軌跡データを予め定めたモデルにより調整し、調整した結果を自車両のトラジェクトリデータとして出力する走行軌跡モデルと、
自車両のセンサにより得られた物標データを入力し、前記センサにより得られた物標データを予め定めたモデルにより調整し、調整した結果を自車両の周囲の物標データとして出力する物標モデルと
を用いて自車両の周囲の物標位置を推定し、前記物標位置と地図情報とを照合することによって自車両の自己位置を推定する自己位置推定装置において、
前記自己位置推定装置は、
前記走行軌跡モデルの誤差と前記物標モデルの誤差を算出し、
前記走行軌跡モデルの誤差と前記物標モデルの誤差の大きさに応じて、前記走行軌跡モデルから出力された算出結果と前記物標モデルから出力された算出結果のどちらを用いて、前記物標位置の推定を開始するか決定することを特徴とする自己位置推定装置。
A travel locus model obtained by inputting travel locus data obtained by odometry of the own vehicle, adjusting the travel locus data obtained by the odometry by a predetermined model, and outputting the adjusted result as trajectory data of the own vehicle;
The target data obtained by the sensor of the host vehicle is input, the target data obtained by the sensor is adjusted by a predetermined model, and the adjusted result is output as the target data around the host vehicle. In a self-position estimation device that estimates a target position around a host vehicle using a model and estimates the self-position of the host vehicle by comparing the target position with map information,
The self-position estimation device
Calculate the error of the travel locus model and the error of the target model,
Depending on the error of the travel locus model and the error of the target model, either the calculation result output from the travel locus model or the calculation result output from the target model is used. A self-position estimation apparatus that determines whether to start position estimation.
JP2018084147A 2018-04-25 2018-04-25 Method and device for estimating self-position Pending JP2019190994A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018084147A JP2019190994A (en) 2018-04-25 2018-04-25 Method and device for estimating self-position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018084147A JP2019190994A (en) 2018-04-25 2018-04-25 Method and device for estimating self-position

Publications (1)

Publication Number Publication Date
JP2019190994A true JP2019190994A (en) 2019-10-31

Family

ID=68389878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018084147A Pending JP2019190994A (en) 2018-04-25 2018-04-25 Method and device for estimating self-position

Country Status (1)

Country Link
JP (1) JP2019190994A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021076605A (en) * 2019-11-12 2021-05-20 ネイバーラボス コーポレーション Method and system for tracking trajectory based on visual localization and odometry
JP7105819B2 (en) 2019-01-28 2022-07-25 ネイバーラボス コーポレーション Graph structure-based mobile object position estimation method and mobile object using it

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7105819B2 (en) 2019-01-28 2022-07-25 ネイバーラボス コーポレーション Graph structure-based mobile object position estimation method and mobile object using it
JP2021076605A (en) * 2019-11-12 2021-05-20 ネイバーラボス コーポレーション Method and system for tracking trajectory based on visual localization and odometry
JP7197550B2 (en) 2019-11-12 2022-12-27 ネイバーラボス コーポレーション Route tracking method and system based on visual localization and odometry
US11620755B2 (en) 2019-11-12 2023-04-04 Naver Labs Corporation Method and system for tracking trajectory based on visual localization and odometry

Similar Documents

Publication Publication Date Title
CN108688660B (en) Operating range determining device
KR102086270B1 (en) Control method and traveling control device of the traveling control device
KR20200119920A (en) Appratus and method for estimating the position of an automated valet parking system
JP6809531B2 (en) Vehicle determination method, travel route correction method, vehicle determination device, and travel route correction device
CN115427759B (en) Map information correction method, driving assistance method, and map information correction device
JPWO2020025991A1 (en) Travel locus correction method, travel control method, and travel locus correction device
JP7198687B2 (en) Ambient environment information generation method and ambient environment information generation device
JP7418196B2 (en) Travel trajectory estimation method and travel trajectory estimation device
JP6943127B2 (en) Position correction method, vehicle control method and position correction device
JP2019190994A (en) Method and device for estimating self-position
CN114694111A (en) Vehicle positioning
JP6790951B2 (en) Map information learning method and map information learning device
JP6848531B2 (en) Target position estimation method and target position estimation device
US11754403B2 (en) Self-position correction method and self-position correction device
JP7234840B2 (en) position estimator
JP6819441B2 (en) Target position estimation method and target position estimation device
JP7020957B2 (en) Road structure estimation method and road structure estimation device
JP7257158B2 (en) Ambient environment information generation method and ambient environment information generation device
JP7084792B2 (en) Travel locus estimation method and travel locus estimation device
JP2020008376A (en) Travel trajectory estimating method and travel trajectory estimating device
JP7321034B2 (en) Driving support method and driving support device
CN115050205B (en) Map generation device and position recognition device
US11867526B2 (en) Map generation apparatus
RU2781373C1 (en) Method for correcting one&#39;s location and a device for correcting one&#39;s location
CN116892920A (en) map generation device