JP2023105152A - Estimation device, control method, program, and storage medium - Google Patents

Estimation device, control method, program, and storage medium Download PDF

Info

Publication number
JP2023105152A
JP2023105152A JP2023093862A JP2023093862A JP2023105152A JP 2023105152 A JP2023105152 A JP 2023105152A JP 2023093862 A JP2023093862 A JP 2023093862A JP 2023093862 A JP2023093862 A JP 2023093862A JP 2023105152 A JP2023105152 A JP 2023105152A
Authority
JP
Japan
Prior art keywords
vehicle
block
landmark
value
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023093862A
Other languages
Japanese (ja)
Inventor
雅美 鈴木
Masami Suzuki
研司 水戸
Kenji Mito
一嗣 金子
Kazutsugu Kaneko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021178857A external-priority patent/JP2022025118A/en
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2023093862A priority Critical patent/JP2023105152A/en
Publication of JP2023105152A publication Critical patent/JP2023105152A/en
Pending legal-status Critical Current

Links

Abstract

To provide an estimation device with which it is possible to estimate the current position with high accuracy.SOLUTION: A driving assistance system comprises: an onboard device 1 mounted in a vehicle, for exercising control that pertains to assistance in driving the vehicle; a lidar 2; a gyro sensor 3; and a vehicle speed sensor 4. The onboard device 1 acquires a measured value ztk from the lidar 2 that indicates a positional relationship between a reference landmark Lk of an index k and the host vehicle. The onboard device 1 corrects a pre-estimate value x-t having been estimated from the movement speed measured by the vehicle speed sensor 4 and the angular speed measured by the gyro sensor 3, on the basis of a position vector mk of the reference landmark Lk included in a map database 10 and the measured value ztk, and thereby calculates a post-estimate value x^t.SELECTED DRAWING: Figure 5

Description

本発明は、現在位置を高精度に推定する技術に関する。 The present invention relates to technology for estimating a current position with high accuracy.

従来から、周辺に存在する物体との距離を測定する技術が知られている。例えば、特許文献1には、レーザ光を間欠的に発光させつつ水平方向を走査し、その反射光(散乱光)を受信することで、物体表面の点群を検出するライダを車両に搭載した例が開示されている。また、特許文献2には、検索対象となる複数の地点の緯度経度情報を含む地図データベースを有する地点検索装置が開示されている。 Conventionally, techniques for measuring distances to objects existing in the vicinity have been known. For example, in Patent Document 1, a vehicle is equipped with a lidar that scans in the horizontal direction while intermittently emitting laser light and receives the reflected light (scattered light) to detect point groups on the surface of an object. Examples are disclosed. Further, Patent Literature 2 discloses a point search device having a map database containing latitude and longitude information of a plurality of points to be searched.

特開2014-089691号公報JP 2014-089691 A 特開2015-135695号公報JP 2015-135695 A

自動運転などの分野では、高精度な現在位置の推定を行うことが必要となっているのに対し、従来のような車両の状態を検知する内界センサの出力を主とした現在位置の推定方法では十分でない場合がある。特許文献1-2には、車両の絶対位置を高精度に算出する方法については何ら開示がない。 In fields such as autonomous driving, it is necessary to estimate the current position with high accuracy. Methods may not be enough. Patent Documents 1 and 2 do not disclose any method for calculating the absolute position of the vehicle with high accuracy.

本発明は、上記のような課題を解決するためになされたものであり、現在位置を高精度に推定することが可能な推定装置を提供することを主な目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the problems described above, and a main object of the present invention is to provide an estimation device capable of estimating a current position with high accuracy.

請求項1に記載の発明は、推定装置であって、地図情報を取得する取得部と、第1範囲に存在する対象物までの距離及び角度を示す第1情報を取得する第1取得部と、前記地図情報に含まれる前記対象物の位置情報及び前記第1情報に基づいて、前記移動体の位置を推定する第1推定部と、を備えることを特徴とする。 The invention according to claim 1 is an estimating device comprising: an acquisition unit that acquires map information; and a first estimation unit for estimating the position of the moving object based on the position information of the object and the first information included in the map information.

また、請求項9に記載の発明は、推定装置が実行する制御方法であって、地図情報を取得する取得工程と、第1範囲に存在する対象物までの距離及び角度を示す第1情報を取得する第1取得工程と、前記地図情報に含まれる前記対象物の位置情報及び前記第1情報に基づいて、前記移動体の位置を推定する第1推定工程と、を有することを特徴とする。 Further, the invention according to claim 9 is a control method executed by an estimation device, in which an acquisition step of acquiring map information and first information indicating a distance and an angle to an object existing in a first range are obtained. and a first estimation step of estimating the position of the moving object based on the position information of the object and the first information included in the map information. .

また、請求項10に記載の発明は、コンピュータが実行するプログラムであって、地図情報を取得する取得部と、第1範囲に存在する対象物までの距離及び角度を示す第1情報を取得する第1取得部と、前記地図情報に含まれる前記対象物の位置情報及び前記第1情報に基づいて、前記移動体の位置を推定する第1推定部として前記コンピュータを機能させることを特徴とする。 Further, the invention according to claim 10 is a program executed by a computer, and includes an acquisition unit that acquires map information, and acquires first information that indicates the distance and angle to an object existing in the first range. The computer is caused to function as a first acquisition unit and a first estimation unit that estimates the position of the moving object based on the position information of the object and the first information included in the map information. .

第1実施例に係る運転支援システムの概略構成図である。1 is a schematic configuration diagram of a driving support system according to a first embodiment; FIG. 車載機の機能的構成を示すブロック図である。3 is a block diagram showing a functional configuration of an in-vehicle device; FIG. 自車位置を2次元直交座標上で表した図である。It is the figure which represented the own vehicle position on the two-dimensional rectangular coordinate. 予測ステップと計測更新ステップとの概略的な関係を示す図である。FIG. 5 is a diagram showing a schematic relationship between a prediction step and a measurement update step; 第1実施例における自車位置推定部の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the own vehicle position estimation part in 1st Example. 円運動を行ったと仮定した場合の移動前後での自車位置を各変数により表した図である。FIG. 10 is a diagram showing the position of the vehicle before and after the movement assuming circular motion by using each variable; ランドマークの位置と自車位置との関係を示す図である。It is a figure which shows the relationship between the position of a landmark, and a self-vehicle position. ランドマーク抽出ブロックの機能的構成を示す図である。FIG. 4 is a diagram showing a functional configuration of a landmark extraction block; FIG. ライダのスキャン範囲とランドマークの探索範囲との関係を示す図である。FIG. 4 is a diagram showing the relationship between a lidar scan range and a landmark search range; 第1実施例において自車位置推定部が実行する処理の手順を示すフローチャートである。4 is a flow chart showing a procedure of processing executed by a vehicle position estimator in the first embodiment; ランドマーク抽出処理の詳細を示すフローチャートである。9 is a flowchart showing details of landmark extraction processing; 第2実施例に係る運転支援システムの概略構成図である。FIG. 11 is a schematic configuration diagram of a driving support system according to a second embodiment; 第2実施例における自車位置推定部の機能的な構成を示すブロック図である。FIG. 11 is a block diagram showing a functional configuration of a vehicle position estimator in the second embodiment; FIG. ランドマークの位置と自車位置との関係を示す図である。It is a figure which shows the relationship between the position of a landmark, and a self-vehicle position.

本発明の好適な実施形態によれば、推定装置は、地図情報を取得する取得部と、第1範囲に存在する対象物までの距離及び角度を示す第1情報を取得する第1取得部と、前記地図情報に含まれる前記対象物の位置情報及び前記第1情報に基づいて、前記移動体の位置を推定する第1推定部と、を備える。 According to a preferred embodiment of the present invention, the estimating device includes an acquisition unit that acquires map information, and a first acquisition unit that acquires first information indicating the distance and angle to an object existing in the first range. and a first estimation unit for estimating the position of the moving object based on the position information of the object and the first information included in the map information.

上記推定装置は、取得部と、第1取得部と、第1推定部とを有する。取得部は、地図情報を取得する。第1取得部は、第1範囲に存在する対象物までの距離及び角度(即ち、移動体と第1範囲に存在する地物との位置関係)を示す第1情報を取得する。第1推定部は、地図情報に含まれる対象物の位置情報及び第1情報に基づいて、移動体の位置を推定する。この態様では、推定装置は、地図情報に登録された地物の位置情報を利用することで、的確に移動体の位置を推定することができる。 The estimation device includes an acquisition unit, a first acquisition unit, and a first estimation unit. The acquisition unit acquires map information. The first acquisition unit acquires first information indicating a distance and an angle to an object existing in the first range (that is, the positional relationship between the moving body and the feature existing in the first range). The first estimation unit estimates the position of the moving object based on the position information of the object and the first information included in the map information. In this aspect, the estimation device can accurately estimate the position of the moving object by using the position information of the feature registered in the map information.

上記推定装置の一態様では、推定装置は、前記移動体の現在位置の推定位置である第1推定位置を算出する第2推定部をさらに備え、前記第1推定部は、前記対象物と前記第1推定位置との位置関係を示す第2情報と前記第1情報との差分及び前記第1推定位置に基づいて、前記移動体の位置を推定する。この態様により、推定装置は、第2推定部で算出した第1推定位置と、第2情報と前記第1情報との差分とに基づき、高精度な移動体の位置推定を行うことができる。 In one aspect of the estimating device, the estimating device further includes a second estimating unit that calculates a first estimated position that is an estimated position of the current position of the moving object, and the first estimating unit includes the object and the The position of the moving object is estimated based on the first estimated position and the difference between second information indicating the positional relationship with the first estimated position and the first information. According to this aspect, the estimating device can highly accurately estimate the position of the moving object based on the first estimated position calculated by the second estimating section and the difference between the second information and the first information.

上記推定装置の他の一態様では、前記第2推定部は、少なくとも所定時間前の移動体の推定位置に基づいて、前記第1推定位置を算出する。これにより、推定装置は、所定時間前の移動体の推定位置を勘案して好適に現在の移動体の位置を推定することができる。 In another aspect of the estimating device, the second estimating section calculates the first estimated position based on at least the estimated position of the moving object a predetermined time ago. As a result, the estimation device can suitably estimate the current position of the mobile object by taking into account the estimated position of the mobile object a predetermined time ago.

上記推定装置の他の一態様では、推定装置は、前記移動体の制御情報を取得する第2取得部をさらに備え、前記第2推定部は、所定時間前の移動体の推定位置と前記移動体の制御情報とに基づいて、前記第1推定位置を算出する。この態様により、推定装置は、所定時間前の移動体の推定位置から、高精度かつ低計算負荷により、第1推定位置を算出することができる。 In another aspect of the estimating device, the estimating device further includes a second acquiring unit that acquires the control information of the moving object, and the second estimating unit includes the estimated position of the moving object a predetermined time ago and the moving object. The first estimated position is calculated based on the body control information. According to this aspect, the estimating device can calculate the first estimated position with high accuracy and low computational load from the estimated position of the moving object a predetermined time ago.

上記推定装置の他の一態様では、前記第2推定部が前記第1推定位置を算出する予測ステップと、前記第1情報と前記第2情報との差分に基づいて、直前の予測ステップで算出された第1推定位置を前記第1推定部が補正する更新ステップと、を交互に実行し、前記予測ステップでは、当該予測ステップの直前の更新ステップで補正した第1推定位置に基づき、現時刻に対応する前記第1推定位置を前記第2推定部が算出する。この態様では、推定装置は、更新ステップと予測ステップとを交互に実行することで、前に算出した第1推定位置を補正しつつ、現在時刻に対応する第1推定位置を高精度かつ低計算負荷により算出することができる。 In another aspect of the estimating device, the second estimating unit calculates the first estimated position in a prediction step, and calculates in the previous prediction step based on the difference between the first information and the second information. and an updating step in which the first estimating unit corrects the first estimated position obtained by the prediction step alternately, and in the predicting step, the current time The second estimation unit calculates the first estimated position corresponding to . In this aspect, the estimating device performs the update step and the prediction step alternately to correct the previously calculated first estimated position, while calculating the first estimated position corresponding to the current time with high accuracy and low accuracy. It can be calculated according to the load.

上記推定装置の他の一態様では、前記第1取得部は、照射方向を変えながらレーザ光を照射する照射部と、前記対象物にて反射された前記レーザ光を受光する受光部と、前記受光部が出力する受光信号と、前記受光部が受光したレーザ光に対応する前記照射方向と、当該レーザ光の応答遅延時間と、に基づく前記第1情報を出力する出力部と、を有する測定装置から前記第1情報を取得する。この態様により、第1取得部は、第1範囲に存在する対象物までの距離及び角度を示す第1情報を好適に生成して出力することができる。また、この態様では、地図情報に登録された3次元形状の地物を対象に計測を行うため、積雪などによる路面上の白線消失、夜間などの種々の状況であっても好適に基準となる地物までの距離及び方位を測定して第1情報を生成することができる。 In another aspect of the estimation device, the first acquisition unit includes an irradiation unit that emits laser light while changing the irradiation direction, a light receiving unit that receives the laser light reflected by the object, and the Measurement comprising: an output unit configured to output the first information based on a received light signal output by a light receiving unit, the irradiation direction corresponding to the laser light received by the light receiving unit, and a response delay time of the laser light. Obtaining the first information from the device. According to this aspect, the first acquisition unit can suitably generate and output the first information indicating the distance and angle to the object existing in the first range. In addition, in this aspect, since the three-dimensional features registered in the map information are measured, even in various situations such as the disappearance of white lines on the road surface due to snow accumulation, nighttime, etc., it can be used as a suitable reference. The first information can be generated by measuring the distance and bearing to the feature.

上記推定装置の他の一態様では、前記地物は、人工物である。これにより、第1取得部は、自然物を対象とする場合と比較して、より安定的に第1情報を生成することができる。 In another aspect of the estimation device, the feature is an artificial object. As a result, the first acquisition unit can generate the first information more stably than when targeting natural objects.

上記推定装置の他の一態様では、前記地物は、周期的に配置された人工物である。これにより、推定装置は、定期的に移動体の位置を推定することができる。 In another aspect of the estimation device, the feature is an artificial object arranged periodically. This allows the estimation device to periodically estimate the position of the mobile object.

本発明の他の好適な実施形態によれば、推定装置が実行する制御方法であって、地図情報を取得する取得工程と、第1範囲に存在する対象物までの距離及び角度を示す第1情報を取得する第1取得工程と、前記地図情報に含まれる前記対象物の位置情報及び前記第1情報に基づいて、前記移動体の位置を推定する第1推定工程と、を有する。推定装置は、この制御方法を実行することで、地図情報に登録された地物の位置情報を利用して的確に移動体の位置を推定することができる。 According to another preferred embodiment of the present invention, there is provided a control method executed by an estimating device, comprising: an acquiring step of acquiring map information; The method includes a first obtaining step of obtaining information, and a first estimating step of estimating the position of the moving object based on the first information and the positional information of the object included in the map information. By executing this control method, the estimating device can accurately estimate the position of the moving object using the position information of the feature registered in the map information.

本発明の他の好適な実施形態によれば、コンピュータが実行するプログラムであって、地図情報を取得する取得部と、第1範囲に存在する対象物までの距離及び角度を示す第1情報を取得する第1取得部と、前記地図情報に含まれる前記対象物の位置情報及び前記第1情報に基づいて、前記移動体の位置を推定する第1推定部として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、地図情報に登録された地物の位置情報を利用して的確に移動体の位置を推定することができる。好適には、上記プログラムは、記憶媒体に記憶される。 According to another preferred embodiment of the present invention, there is provided a program executed by a computer, which acquires map information, and first information indicating the distance and angle to an object existing in a first range. The computer is caused to function as a first acquisition unit that acquires and a first estimation unit that estimates the position of the moving object based on the position information of the object and the first information included in the map information. By executing this program, the computer can accurately estimate the position of the moving object using the position information of the feature registered in the map information. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な各実施例について説明する。 Preferred embodiments of the present invention will be described below with reference to the drawings.

<第1実施例>
(1)概略構成
図1は、第1実施例に係る運転支援システムの概略構成図である。図1に示す運転支援システムは、車両に搭載され、車両の運転支援に関する制御を行う車載機1と、ライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)2と、ジャイロセンサ3と、車速センサ4とを有する。
<First embodiment>
(1) Schematic Configuration FIG. 1 is a schematic configuration diagram of the driving support system according to the first embodiment. The driving support system shown in FIG. 1 is mounted on a vehicle and includes an in-vehicle device 1 that performs control related to driving support of the vehicle, a lidar (Light Detection and Ranging, or Laser Illuminated Detection And Ranging) 2, and a gyro sensor 3. and a vehicle speed sensor 4 .

車載機1は、ライダ2、ジャイロセンサ3、及び車速センサ4と電気的に接続し、これらの出力に基づき、車載機1が搭載される車両の位置(「自車位置」とも呼ぶ。)の推定を行う。そして、車載機1は、自車位置の推定結果に基づき、設定されたルートに沿って走行するように、車両の自動運転制御などを行う。車載機1は、道路データ及び道路付近に設けられた目印となるランドマークに関する情報(「ランドマーク情報」とも呼ぶ。)を記憶した地図データベース(DB:DataBase)10を記憶する。ランドマーク情報は、各ランドマークに割り当てられたインデックスと、ランドマークの位置情報とが少なくとも関連付けられた情報である。そして、車載機1は、このランドマーク情報に基づき、ライダ2によるランドマークの探索範囲を限定したり、ライダ2等の出力と照合させて自車位置の推定を行ったりする。以後では、車載機1が自車位置推定のために基準とするランドマークを「基準ランドマークLk」と呼び、基準ランドマークLkのインデックスを「k」とする。基準ランドマークLkは、本発明における「対象物」の一例である。 The in-vehicle device 1 is electrically connected to the rider 2, the gyro sensor 3, and the vehicle speed sensor 4, and based on the outputs of these, the position of the vehicle in which the in-vehicle device 1 is mounted (also referred to as "vehicle position"). make an estimate. Based on the estimation result of the position of the vehicle, the vehicle-mounted device 1 performs automatic operation control of the vehicle so that the vehicle travels along the set route. The in-vehicle device 1 stores a map database (DB: DataBase) 10 that stores road data and information (also referred to as "landmark information") on landmarks that serve as landmarks provided near roads. Landmark information is information in which at least an index assigned to each landmark is associated with landmark position information. Based on this landmark information, the in-vehicle device 1 limits the search range for landmarks by the rider 2, compares the output with the output of the rider 2, etc., and estimates the position of the vehicle. Hereinafter, a landmark that the vehicle-mounted device 1 uses as a reference for estimating the position of the vehicle will be referred to as a "reference landmark Lk", and the index of the reference landmark Lk will be "k". The reference landmark Lk is an example of the "object" in the present invention.

基準ランドマークLkの候補となるランドマークは、例えば、道路脇に周期的に並んでいるキロポスト、100mポスト、デリニエータ、交通インフラ設備(例えば標識、方面看板、信号)、電柱、街灯などの地物である。好適には、上述のランドマークは、安定した計測を可能とするため、人工物であることが好ましく、定期的に自車位置を補正できるように、周期的に設けられた地物であることがより好ましい。なお,その間隔は厳格に一定周期である必要はなく,ある程度の周期性を持って存在するものであれば良い(例えば電柱や街灯など)。また走行エリアごとに異なる間隔となっているものでも良い。 Landmarks that are candidates for the reference landmark Lk are, for example, features such as kilometer posts, 100m posts, delineators, traffic infrastructure facilities (e.g., signs, direction signs, traffic lights), telephone poles, and streetlights that are periodically arranged along the road. is. Preferably, the above-mentioned landmarks are preferably artificial objects in order to enable stable measurement, and are periodically provided features so as to be able to periodically correct the position of the vehicle. is more preferred. It should be noted that the intervals do not have to be strictly constant, but may be present with a certain degree of periodicity (for example, utility poles, streetlights, etc.). Alternatively, the intervals may be different for each travel area.

ライダ2は、水平方向および垂直方向の所定の角度範囲に対してパルスレーザを出射することで、外界に存在する物体までの距離を離散的に測定し、当該物体の位置を示す3次元の点群情報を生成する。この場合、ライダ2は、照射方向を変えながらレーザ光を照射する照射部と、照射したレーザ光の反射光(散乱光)を受光する受光部と、受光部が出力する受光信号に基づくスキャンデータを出力する出力部とを有する。スキャンデータは、受光部が受光したレーザ光に対応する照射方向と、上述の受光信号に基づき特定される当該レーザ光の応答遅延時間とに基づき生成される。本実施例では、ライダ2は、少なくとも車両の前方をスキャンするように車両の進行方向を向いて設置されているものとする。ライダ2、ジャイロセンサ3、車速センサ4は、それぞれ、出力データを車載機1へ供給する。なお、車載機1は、本発明における「推定装置」の一例であり、ライダ2は、本発明における「測定装置」の一例である。 The lidar 2 discretely measures the distance to an object existing in the outside world by emitting a pulsed laser over a predetermined angular range in the horizontal and vertical directions, and generates a three-dimensional point indicating the position of the object. Generate group information. In this case, the lidar 2 includes an irradiation unit that irradiates laser light while changing the direction of irradiation, a light receiving unit that receives reflected light (scattered light) of the irradiated laser light, and scan data based on light receiving signals output by the light receiving unit. and an output unit for outputting The scan data is generated based on the irradiation direction corresponding to the laser light received by the light receiving unit and the response delay time of the laser light specified based on the light reception signal described above. In this embodiment, it is assumed that the rider 2 is installed facing the traveling direction of the vehicle so as to scan at least the front of the vehicle. The rider 2, the gyro sensor 3, and the vehicle speed sensor 4 each supply output data to the onboard device 1. FIG. The vehicle-mounted device 1 is an example of the "estimating device" in the present invention, and the rider 2 is an example of the "measuring device" in the present invention.

図2は、車載機2の機能的構成を示すブロック図である。車載機2は、主に、インターフェース11と、記憶部12と、入力部14と、制御部15と、出力部16とを有する。これらの各要素は、バスラインを介して相互に接続されている。 FIG. 2 is a block diagram showing the functional configuration of the vehicle-mounted device 2. As shown in FIG. The in-vehicle device 2 mainly has an interface 11 , a storage section 12 , an input section 14 , a control section 15 and an output section 16 . These elements are interconnected via bus lines.

インターフェース11は、ライダ2、ジャイロセンサ3、及び車速センサ4などのセンサから出力データを取得し、制御部15へ供給する。 The interface 11 acquires output data from sensors such as the rider 2 , the gyro sensor 3 , and the vehicle speed sensor 4 and supplies the output data to the control unit 15 .

記憶部12は、制御部15が実行するプログラムや、制御部15が所定の処理を実行するのに必要な情報を記憶する。本実施例では、記憶部12は、ランドマーク情報を含む地図DB10を記憶する。なお、地図DB10は、定期的に更新されてもよい。この場合、例えば、制御部15は、図示しない通信部を介し、地図情報を管理するサーバ装置から、自車位置が属するエリアに関する部分地図情報を受信し、地図DB10に反映させる。 The storage unit 12 stores programs executed by the control unit 15 and information necessary for the control unit 15 to execute predetermined processing. In this embodiment, the storage unit 12 stores a map DB 10 including landmark information. Note that the map DB 10 may be updated periodically. In this case, for example, the control unit 15 receives partial map information related to the area to which the vehicle position belongs from a server device that manages map information via a communication unit (not shown), and reflects it in the map DB 10 .

入力部14は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等であり、経路探索のための目的地を指定する入力、自動運転のオン及びオフを指定する入力などを受け付ける。出力部16は、例えば、制御部15の制御に基づき出力を行うディスプレイやスピーカ等である。 The input unit 14 is a button, a touch panel, a remote controller, a voice input device, etc. for user operation, and accepts input specifying a destination for route search, input specifying ON and OFF of automatic driving, etc. . The output unit 16 is, for example, a display, a speaker, or the like that outputs based on the control of the control unit 15 .

制御部15は、プログラムを実行するCPUなどを含み、車載機1の全体を制御する。本実施例では、制御部15は、自車位置推定部17と、自動運転制御部18とを有する。 The control unit 15 includes a CPU that executes programs and the like, and controls the entire in-vehicle device 1 . In this embodiment, the control unit 15 has an own vehicle position estimation unit 17 and an automatic driving control unit 18 .

自車位置推定部17は、基準ランドマークLkに対するライダ2による距離及び角度の計測値と、地図DB10から抽出した基準ランドマークLkの位置情報とに基づき、ジャイロセンサ3及び車速センサ4の出力データから推定した自車位置を補正する。このとき、自車位置推定部17は、ベイズ推定に基づく状態推定手法に基づき、ジャイロセンサ3及び車速センサ4の出力データから自車位置を推定する予測ステップと、直前の予測ステップで算出した自車位置の推定値を補正する計測更新ステップとを交互に実行する。第1実施例では、ベイズ推定に基づく状態推定手法の一例として、拡張カルマンフィルタを用いた例について後述する。自車位置推定部17は、本発明における「取得部」、「第1取得部」、「第1推定部」、「第2推定部」、「第2取得部」、及びプログラムを実行するコンピュータの一例である。 The vehicle position estimator 17 calculates the output data of the gyro sensor 3 and the vehicle speed sensor 4 based on the measured values of the distance and angle of the rider 2 with respect to the reference landmark Lk and the position information of the reference landmark Lk extracted from the map DB 10. Correct the vehicle position estimated from At this time, the vehicle position estimator 17 estimates the vehicle position from the output data of the gyro sensor 3 and the vehicle speed sensor 4 based on a state estimation method based on Bayesian estimation, and the vehicle position calculated in the previous prediction step. A measurement update step for correcting the estimated vehicle position is alternately performed. In the first embodiment, an example using an extended Kalman filter will be described later as an example of a state estimation method based on Bayesian estimation. The vehicle position estimation unit 17 is the "acquisition unit", the "first acquisition unit", the "first estimation unit", the "second estimation unit", and the "second acquisition unit" in the present invention, and a computer that executes a program. is an example.

自動運転制御部18は、地図DB10を参照し、設定された経路と、自車位置推定部17が推定した自車位置とに基づき、車両の自動運転を行う。自動運転制御部18は、設定された経路に基づき、目標軌道を設定し、自車位置推定部17が推定した自車位置が目標軌道から所定幅以内のずれ幅となるように、車両に対してガイド信号を送信して車両の位置を制御する。 The automatic driving control unit 18 refers to the map DB 10 and automatically drives the vehicle based on the set route and the vehicle position estimated by the vehicle position estimation unit 17 . The automatic driving control unit 18 sets the target trajectory based on the set route, and controls the vehicle so that the vehicle position estimated by the vehicle position estimating unit 17 has a deviation within a predetermined width from the target trajectory. to control the position of the vehicle by transmitting guidance signals.

(2)拡張カルマンフィルタを用いた自車位置推定
次に、自車位置推定部17による自車位置の推定処理について説明する。
(2) Vehicle Position Estimation Using Extended Kalman Filter Next, vehicle position estimation processing by the vehicle position estimator 17 will be described.

(2-1)基本説明
以下では、自車位置推定部17が実行する処理の前提となる基本事項について説明する。以後の説明では、自車位置を状態変数ベクトル「x=(x、y、θ)」で表わす。また、予測ステップで推定された暫定的な推定値には当該推定値を表す文字の上に「」を付し、計測更新ステップで更新された,より精度の高い推定値には当該値を表す文字の上に「」を付す。なお、任意の記号の上に「^」または「-」が付された文字を、本明細書では便宜上、「A」または「A」(「A」は任意の文字)と表す。
(2-1) Basic Description Below, the basic items that are prerequisites for the processing executed by the vehicle position estimation unit 17 will be described. In the following description, the vehicle position is represented by a state variable vector "x=(x, y, θ)". In addition, the tentative estimated value estimated in the prediction step is marked with “ - ” above the character representing the estimated value, and the more accurate estimated value updated in the measurement update step is indicated by the value. Add " ^ " above the character to represent. In this specification, for the sake of convenience, a character with "^" or "-" above any symbol is represented as "A ^ " or " A- " (where "A" is an arbitrary character).

図3は、状態変数ベクトルxを2次元直交座標で表した図である。図3に示すように、xyの2次元直交座標上で定義された平面での自車位置は、座標「(x、y)」、自車の方位「θ」により表される。ここでは、方位θは、車の進行方向とx軸とのなす角として定義されている。座標(x、y)は、例えば緯度及び経度の組合せに相当する絶対位置を示す。 FIG. 3 is a diagram showing the state variable vector x in two-dimensional rectangular coordinates. As shown in FIG. 3, the vehicle position on the plane defined on the xy two-dimensional orthogonal coordinates is represented by the coordinates "(x, y)" and the vehicle azimuth "θ". Here, the azimuth .theta. is defined as the angle formed by the traveling direction of the vehicle and the x-axis. The coordinates (x, y) indicate an absolute position, for example a combination of latitude and longitude.

図4は、予測ステップと計測更新ステップとの概略的な関係を示す図である。カルマンフィルタのようなベイズ推定に基づく状態推定手法では、上述したように、予測ステップと、計測更新ステップとを交互に実行する2ステップ処理によって推定値の算出及び更新を逐次的に実行する。よって、本実施例では、予測ステップと計測更新ステップとを繰り返すことで状態変数ベクトルxの推定値の算出及び更新を逐次的に実行する。以後では、計算対象となる基準時刻(即ち現在時刻)「t」の状態変数ベクトルを、「x 」または「x 」と表記する。 FIG. 4 is a diagram showing a schematic relationship between the prediction step and the measurement update step. In the state estimation method based on Bayesian estimation such as the Kalman filter, as described above, estimation values are sequentially calculated and updated by two-step processing in which a prediction step and a measurement update step are alternately performed. Therefore, in this embodiment, the prediction step and the measurement update step are repeated to sequentially calculate and update the estimated value of the state variable vector x. Hereinafter, the state variable vector of the reference time (that is, the current time) “t” to be calculated is expressed as “x t ” or “x ^ t ”.

予測ステップでは、自車位置推定部17は、直前の計測更新ステップで算出された時刻t-1の状態変数ベクトルx t-1に対し、車両の移動速度「v」と角速度「ω」(これらをまとめて「制御値u=(v、ω」と表記する。)を作用させることで、時刻tの自車位置の推定値(「事前推定値」とも呼ぶ。)x を算出する。制御値uは本発明における「制御情報」の一例であり、事前推定値x 及び事後推定値x は本発明における「第1推定位置」の一例である。また、これと同時に、自車位置推定部17は、事前推定値x の誤差分布に相当する共分散行列(「事前共分散行列」とも呼ぶ。)「Σ 」を、直前の計測更新ステップで算出された時刻t-1での共分散行列「Σ t-1」から算出する。 In the prediction step, the vehicle position estimator 17 calculates the moving speed “ v and the angular velocity “ω” ( These are collectively expressed as “control value u t =(v t , ω t ) T ”), the estimated value of the vehicle position at time t (also referred to as “preliminary estimated value”) x - Calculate t . The control value u t is an example of "control information" in the present invention, and the pre-estimated value x t and the post-estimated value x ̂ t are examples of the "first estimated position" in the present invention. At the same time, the vehicle position estimating unit 17 calculates the covariance matrix (also referred to as the “prior covariance matrix”) “Σ t ” corresponding to the error distribution of the prior estimation value x t from the previous measurement. It is calculated from the covariance matrix “Σ ̂ t−1 ” at time t−1 calculated in the update step.

また、計測更新ステップでは、自車位置推定部17は、基準ランドマークLkのライダ2による計測値「z」と、ライダ2による計測処理を事前推定値x からモデル化して求めた上述の基準ランドマークLkの計測推定値「z 」とをそれぞれ取得する。計測値zは、後述するように、時刻tにライダ2が計測した基準ランドマークLkの距離及びスキャン角度を表す2次元ベクトルである。そして、自車位置推定部17は、以下の式(1)に示すように、計測値zと計測推定値z との差分に別途求めるカルマンゲイン「K」を乗算し、これを事前推定値x に加えることで、更新された状態変数ベクトル(「事後推定値」とも呼ぶ。)x を算出する。 In the measurement update step, the vehicle position estimating unit 17 obtains the measurement value “z t ” of the reference landmark Lk by the rider 2 and the measurement process by the rider 2 by modeling from the pre-estimated value x t . , respectively, of the reference landmark Lk . The measured value zt is a two-dimensional vector representing the distance and scan angle of the reference landmark Lk measured by the rider 2 at time t, as will be described later. Then, the vehicle position estimator 17 multiplies the difference between the measured value zt and the measured estimated value z ^ t by the Kalman gain " Kt ", which is obtained separately, as shown in the following equation (1), and calculates Add to the a priori estimate x t to compute an updated state variable vector (also called “posterior estimate”) x̂t .

また、計測更新ステップでは、自車位置推定部17は、予測ステップと同様、事後推定値xの誤差分布に相当する共分散行列(「事後共分散行列」とも呼ぶ。)Σ を事前共分散行列Σ から求める。 Further, in the measurement update step, the vehicle position estimation unit 17 updates the covariance matrix (also referred to as a “posterior covariance matrix”) Σ ^ t corresponding to the error distribution of the posterior estimated value x ^ in the same manner as in the prediction step. It is obtained from the covariance matrix Σ - t .

(2-2)処理概要
図5は、自車位置推定部17の機能的な構成を示すブロック図である。自車位置推定部17は、主に、状態遷移モデルブロック20と、共分散計算ブロック21と、ランドマーク抽出ブロック22と、計測モデルブロック23と、共分散計算ブロック24と、カルマンゲイン計算ブロック25と、共分散更新ブロック26と、演算ブロック31~33と、単位遅延ブロック34,35と、を有する。
(2-2) Processing Overview FIG. 5 is a block diagram showing the functional configuration of the vehicle position estimation unit 17. As shown in FIG. The vehicle position estimation unit 17 mainly includes a state transition model block 20, a covariance calculation block 21, a landmark extraction block 22, a measurement model block 23, a covariance calculation block 24, and a Kalman gain calculation block 25. , a covariance update block 26 , operation blocks 31 to 33 , and unit delay blocks 34 and 35 .

状態遷移モデル(速度動作モデル)ブロック20は、時刻t-1での事後推定値x t-1から、制御値u=(v、ωに基づき、事前推定値x =(x 、y 、θ を算出する。図6は、基準時刻tでの事前推定値「x 」、「y 」、「θ 」と時刻t-1での事後推定値「x t-1」、「y t-1」、「θ t-1」との関係を示す図である。図6に示す幾何学的関係によれば、事前推定値x =(x 、y 、θ は、以下の式(2)により表される。なお、「Δt」は、時刻tと時刻t-1との時間差を表す。 A state transition model ( velocity behavior model ) block 20 obtains an a priori estimated value x t =(x t , y t , θ t ) T is calculated. FIG. 6 shows the pre-estimated values “x t ”, “y t ”, and “θ t ” at the reference time t and the posterior estimated values “x ^ t-1 ”, “y ^ t−1 ” and “θ ̂ t−1 ”. According to the geometric relationship shown in FIG. 6, the pre-estimated value x t = (x t , y t , θ t ) T is represented by the following equation (2). Note that “Δt” represents the time difference between time t and time t−1.

よって、状態遷移モデルブロック20は、時刻t-1での事後推定値x t-1と、制御値u=(v、ωとから、式(2)に基づき、事前推定値x を算出する。 Therefore, the state transition model block 20 uses the posterior estimated value x ̂ t− 1 at time t−1 and the control value u t =(v t , ω t ) T based on equation (2) to perform the prior estimation Calculate the value x t .

共分散計算ブロック21は、制御値uの誤差分布を状態変数ベクトル(x、y、θ)の3次元空間に変換した誤差分布を示す行列「Rt」と、式(2)に示される状態遷移モデルをx t-1のまわりで線形化したヤコビ行列「Gt」を用いて、式(3)に基づき事前共分散行列Σ を算出する。 The covariance calculation block 21 calculates the matrix “Rt” representing the error distribution obtained by transforming the error distribution of the control value u t into the three-dimensional space of the state variable vector (x, y, θ), and the state shown in equation (2). The prior covariance matrix Σ t is calculated based on equation (3) using the Jacobian matrix “Gt”, which is the linearized transition model around x̂t −1 .

ここで、ヤコビ行列Gtは、以下の式(4)により表される。 Here, the Jacobian matrix Gt is represented by the following equation (4).

ランドマーク抽出ブロック22は、ライダ2の出力及び事前推定値x から、基準ランドマークLkの地図DB10内でのxy座標での位置ベクトル「m=(mk,x、mk,y)」を抽出する。また、ランドマーク抽出ブロック22は、抽出したインデックスkの基準ランドマークLkに対応するライダ2の計測値「z =(r 、φ 」を、演算ブロック31へ供給する。ここで、計測値z は、インデックスkのランドマークに対する距離「r 」と、車両の正面方向を0度としたときのインデックスkのランドマークに対するスキャン角度「φ 」とを要素とするベクトル値である。計測値z は、本発明における「第1情報」の一例である。ランドマーク抽出ブロック22が実行する基準ランドマークLkの特定方法等については後述する。 The landmark extraction block 22 uses the output of the lidar 2 and the pre-estimated value x t to extract a position vector “m k = (m k, x , m k, y )”. In addition, the landmark extraction block 22 supplies the measured value “z t k =(r t kt k ) T ” of the rider 2 corresponding to the extracted reference landmark Lk of the index k to the calculation block 31. . Here, the measured value z t k is the distance “r t k ” to the landmark of index k and the scan angle “φ t k ” to the landmark of index k when the front direction of the vehicle is 0 degrees. A vector value to be an element. The measured value ztk is an example of "first information" in the present invention. A method of identifying the reference landmark Lk executed by the landmark extraction block 22 will be described later.

計測モデルブロック23は、インデックスkの基準ランドマークLkの位置ベクトルm及び事前推定値x から、計測値z の推定値「z =(r 、φ 」を算出し、演算ブロック31へ供給する。ここで、「r 」は、事前推定値x を基準とした場合のインデックスkのランドマークに対する距離を示し、「φ 」は、事前推定値x を基準とした場合のインデックスkのランドマークに対するスキャン角度を示す。図7は、基準ランドマークLkの位置と自車位置との関係を示す図である。図7に示す幾何学的関係に基づき、距離r は以下の式(5)のように表される。 The measurement model block 23 calculates the estimated value of the measured value z t k from the position vector m k of the reference landmark L k with index k and the pre-estimated value x t , “z ^ t k = (r ^ t k , φ ^ t k ) T '' is calculated and supplied to the calculation block 31 . where “r ^ t k ” denotes the distance to the landmark with index k relative to the prior estimate x t , and “φ ^ t k ” is the distance relative to the prior estimate x t . 4 shows the scan angle for the landmark of index k when FIG. 7 is a diagram showing the relationship between the position of the reference landmark Lk and the position of the vehicle. Based on the geometrical relationship shown in FIG. 7, the distance r ^ t k is represented by Equation (5) below.

また、図7に示す関係に基づき、以下の式(6)が成立する。 Moreover, the following formula (6) is established based on the relationship shown in FIG.

よって、スキャン角度φ は以下の式(7)のように表される。 Therefore, the scan angle φ ̂ t k is expressed as in Equation (7) below.

従って、計測モデルブロック23は、式(5)及び式(7)を参照し、計測値z の推定値z =(r 、φ を算出し、演算ブロック31へ供給する。推定値z =(r 、φ は、本発明における「第2情報」の一例である。 Therefore, the measurement model block 23 refers to the equations (5) and (7) to calculate the estimated value z ^ tk = (r ^ tk , φ ^ tk ) T of the measured value ztk , It is supplied to the calculation block 31 . The estimated value z ^ tk =(r ^ tk , φ ^ tk ) T is an example of the "second information" in the present invention.

さらに、計測モデルブロック23は、式(5)及び式(7)に示される計測モデルを事前推定値x のまわりで線形化したヤコビ行列「H 」を算出する。ここで、ヤコビ行列H は、以下の式(8)により表される。 Furthermore, the measurement model block 23 calculates the Jacobian matrix “H t k ” by linearizing the measurement model shown in equations (5) and (7) around the pre-estimated value x t . Here, the Jacobian matrix H t k is represented by the following equation (8).

計測モデルブロック23は、ヤコビ行列H を、共分散計算ブロック24、カルマンゲイン計算ブロック25、及び共分散更新ブロック26へそれぞれ供給する。 The measurement model block 23 supplies the Jacobian matrix H t k to the covariance calculation block 24, the Kalman gain calculation block 25 and the covariance update block 26 respectively.

共分散計算ブロック24は、カルマンゲインK の算出に必要な共分散行列「S 」を、以下の式(9)に基づき算出する。 The covariance calculation block 24 calculates a covariance matrix “St k necessary for calculating the Kalman gain K t k based on the following equation (9).

共分散計算ブロック24は、算出した共分散行列S をカルマンゲイン計算ブロック25へ供給する。 The covariance calculation block 24 supplies the calculated covariance matrix S t k to the Kalman gain calculation block 25 .

カルマンゲイン計算ブロック25は、カルマンゲインK を、以下の式(10)に基づき算出する。 The Kalman gain calculation block 25 calculates the Kalman gain K t k based on the following equation (10).

共分散更新ブロック26は、共分散計算ブロック21から供給される事前共分散行列Σ と、計測モデルブロック23から供給されるヤコビ行列H と、カルマンゲイン計算ブロック25から供給されるカルマンゲインK とに基づき、事後共分散行列Σ を、単位行列「I」を用いて以下の式(11)に基づき算出する。 The covariance update block 26 updates the prior covariance matrix Σ t supplied from the covariance calculation block 21 , the Jacobian matrix H t k supplied from the measurement model block 23 , and the Kalman gain calculation block 25 . Based on the gain K t k , the posterior covariance matrix Σ ̂ t is calculated based on the following equation (11) using the identity matrix "I".

演算ブロック31は、ランドマーク抽出ブロック22から供給される計測値z と計測モデルブロック23から供給される推定値z との差分(即ち「z -z 」)を算出する。演算ブロック32は、演算ブロック31が算出した値にカルマンゲイン計算ブロック25から供給されたカルマンゲインK を乗じる。演算ブロック33は、以下の式(12)に示すように、事前推定値x に対して演算ブロック32が算出した値を加算することで、事後推定値xを算出する。 The calculation block 31 calculates the difference between the measured value z t k supplied from the landmark extraction block 22 and the estimated value z ^ t k supplied from the measurement model block 23 (that is, "z t k −z ^ t k "). Calculate The calculation block 32 multiplies the value calculated by the calculation block 31 by the Kalman gain K t k supplied from the Kalman gain calculation block 25 . The calculation block 33 adds the value calculated by the calculation block 32 to the pre-estimation value x t as shown in the following equation (12) to calculate the posterior estimate value x ̂ .

以上のように,自車位置推定部17は、予測ステップと計測更新ステップを逐次的に繰返すことにより,高精度に状態推定を行うことが可能である。これらのステップで用いる状態推定フィルタには、拡張カルマンフィルタの他、ベイズ推定を行うように開発された様々のフィルタが利用可能である。例えば、拡張カルマンフィルタに代えて、アンセンテッドカルマンフィルタやパーティクルフィルタなどを利用してもよい。 As described above, the vehicle position estimation unit 17 can perform state estimation with high accuracy by sequentially repeating the prediction step and the measurement update step. Various filters developed for Bayesian estimation can be used as the state estimation filter used in these steps, in addition to the extended Kalman filter. For example, an unscented Kalman filter, a particle filter, or the like may be used instead of the extended Kalman filter.

(2-3)ランドマーク抽出ブロックの詳細
図8は、ランドマーク抽出ブロック22の機能的構成を示す図である。図8に示すように、ランドマーク抽出ブロック22は、探索候補選定ブロック41と、計測推定値計算ブロック42と、探索範囲絞込みブロック43と、抽出ブロック44とを有する。
(2-3) Details of Landmark Extraction Block FIG. 8 is a diagram showing the functional configuration of the landmark extraction block 22. As shown in FIG. As shown in FIG. 8 , the landmark extraction block 22 has a search candidate selection block 41 , a measurement estimated value calculation block 42 , a search range narrowing block 43 and an extraction block 44 .

探索候補選定ブロック41は、事前推定値x に基づきライダ2によるスキャン範囲(「スキャン範囲Rsc」とも呼ぶ。)を認識し、認識したスキャン範囲Rsc内に存在するランドマークを、地図DB10から選定する。この場合、探索候補選定ブロック41は、方位θ から±90°であって、位置(x 、y )からライダ2の測距可能距離以内となるエリアを、スキャン範囲Rscとして設定する。そして、探索候補選定ブロック41は、インデックスkに対応する位置ベクトルm=(mk,x、mk,y)を地図DB10から抽出する。スキャン範囲Rscは、本発明における「第1範囲」の一例である。 The search candidate selection block 41 recognizes the scan range (also referred to as “scan range Rsc”) by the rider 2 based on the pre-estimated value x t , and stores the landmarks existing within the recognized scan range Rsc in the map DB 10. Select from In this case, the search candidate selection block 41 defines an area that is ±90° from the azimuth θ t and is within the measurable distance of the rider 2 from the position (x t , y t ) as the scan range Rsc. set. Then, the search candidate selection block 41 extracts the position vector m k =(m k, x , m k, y ) corresponding to the index k from the map DB 10 . Scan range Rsc is an example of the "first range" in the present invention.

計測推定値計算ブロック42は、事前推定値x と、地図DB10から抽出したインデックスkに対応する位置ベクトルmとに基づき、計測値z の推定値z =(r 、φ を算出する。具体的には、計測推定値計算ブロック42は、上述した式(5)及び式(7)に基づき、推定値z =(r 、φ を算出する。 The measurement estimated value calculation block 42 calculates an estimated value z ^ tk = (r ^ Calculate t k , φ ^ t k ) T . Specifically, the measurement estimated value calculation block 42 calculates the estimated value z ̂ t k = (r ̂ t k , φ ̂ t k ) T based on Equations (5) and (7) described above.

探索範囲絞込みブロック43は、スキャン範囲Rscから、スキャン角度が角度φ から所定の探索角度幅「Δφ」以内の差であって、測距範囲が距離r から探索距離幅「Δ」となる範囲(「探索範囲Rtag」とも呼ぶ。)を設定する。探索角度幅Δφ及び探索距離幅Δは、それぞれ、想定される計測値z と推定値z との誤差を勘案して実験等に基づき予め設定される。上述の誤差は、推定値z =(r 、φ の算出(式5及び7参照)に必要な事前推定値x =(x 、y 、θ の推定精度と、計測値z に相当するスキャンデータを出力するライダ2の精度とに依存する。よって、好適には、探索角度幅Δφ及び探索距離幅Δは、事前推定値x の推定精度と、ライダ2の精度との少なくとも一方を勘案して設定される。具体的には、探索角度幅Δφ及び探索距離幅Δは、事前推定値x の推定精度が高いほど短くなり、かつ、ライダ2の精度が高いほど短くなる。 The search range narrowing block 43 determines that the scan angle is within a predetermined search angle width " Δφ " from the angle φ ̂ t k from the scan range Rsc, and the distance measurement range is from the distance r ̂ t k to the search distance width. A range of "Δ r " (also called "search range Rtag") is set. The search angle width Δφ and the search distance width Δr are set in advance based on experiments and the like, taking into consideration the possible error between the measured value ztk and the estimated value ẑtk . The above error is the prior estimate x t = ( x t , y t , θ t ) depends on the accuracy of the estimation of T and the accuracy of the lidar 2 outputting the scan data corresponding to the measurements z t k . Therefore, preferably, the search angle width Δφ and the search distance width Δr are set in consideration of at least one of the estimation accuracy of the pre-estimated value x t and the accuracy of the rider 2 . Specifically, the search angle width Δ φ and the search distance width Δ r become shorter as the pre-estimated value x t has a higher estimation accuracy and as the rider 2 has a higher accuracy.

抽出ブロック44は、探索範囲絞込みブロック43が設定した探索範囲Rtagに基づき、基準ランドマークLkの点群に相当する計測値z を、ライダ2の時刻tにおける全スキャンデータから抽出する。具体的には、抽出ブロック44は、以下の式(13)及び式(14)を満たす計測値z (「i」はライダ2が1回のスキャンで出射する各ビームのインデックス)が存在するか否か判定する。 The extraction block 44 extracts the measured value z t k corresponding to the point group of the reference landmark Lk from all the scan data of the rider 2 at the time t based on the search range Rtag set by the search range narrowing block 43 . Specifically, the extraction block 44 determines that there exists a measured value z t i (“i” is the index of each beam emitted by the lidar 2 in one scan) that satisfies the following equations (13) and (14). determine whether or not to

そして、抽出ブロック44は、式(13)及び式(14)を満たす(r 、φ )の組となる計測値z が存在する場合に、探索候補選定ブロック41が選定したランドマークが実際に存在すると判断する。そして、抽出ブロック44は、インデックスkに対応する位置ベクトルmを計測モデルブロック23へ供給すると共に、式(13)及び式(14)を満たす(r 、φ )の組となる計測値z を、基準ランドマークLkの点群に相当する計測値z として演算ブロック31へ供給する。 Then, the extraction block 44 determines that the search candidate selection block 41 selects Determine that the landmark actually exists. Then, the extraction block 44 supplies the position vector m k corresponding to the index k to the measurement model block 23, resulting in a set of (r t i , φ t i ) that satisfies the equations (13) and (14). The measured value z t i is supplied to the calculation block 31 as the measured value z t k corresponding to the point group of the reference landmark Lk.

この場合、好適には、抽出ブロック44は、探索範囲Rtag内のスキャンデータから、基準ランドマークLkに対応するスキャンデータを選定する処理をさらに実行し、演算ブロック31へ供給すべき計測値z を決定するとよい。 In this case, preferably, the extraction block 44 further performs a process of selecting scan data corresponding to the reference landmark Lk from the scan data within the search range Rtag, and the measured value zt to be supplied to the calculation block 31. k should be determined.

例えば、抽出ブロック44は、探索候補選定ブロック41が選定したランドマークの形状情報を地図DB10から取得し、探索範囲Rtag内のスキャンデータの点群が構成する3次元形状とのマッチング処理を行うことで、基準ランドマークLkの点群に相当する計測値z を選定する。他の例では、抽出ブロック44は、探索範囲Rtag内のスキャンデータに対応する受光強度の大きさを調べ,予め設定された閾値情報と比較することで、基準ランドマークLkの点群に相当する計測値z を選定する。なお、抽出ブロック44は、選定した計測値z が複数存在する場合には、任意の1つの計測値z を演算ブロック31へ供給してもよく、これらの計測値z から統計処理により算出又は選定した代表値を演算ブロック31へ供給してもよい。 For example, the extraction block 44 acquires the shape information of the landmark selected by the search candidate selection block 41 from the map DB 10, and performs matching processing with the three-dimensional shape formed by the point cloud of the scan data within the search range Rtag. , a measured value z t k corresponding to the point group of the reference landmark Lk is selected. In another example, the extraction block 44 examines the magnitude of the received light intensity corresponding to the scan data within the search range Rtag and compares it with preset threshold information. Choose a measurement z t k . In addition, the extraction block 44 may supply any one measured value ztk to the operation block 31 when there are a plurality of selected measured values ztk , and from these measured values ztk A representative value calculated or selected by statistical processing may be supplied to the calculation block 31 .

図9は、スキャン範囲Rscと探索範囲Rtagとの関係を示す図である。図9の例では、スキャン範囲Rscは、車両の正面から左右90°の範囲であって車両から測距可能距離以内となる半円エリアとなっている。なお、図9の矢印70はスキャン方向を示す。 FIG. 9 is a diagram showing the relationship between the scan range Rsc and the search range Rtag. In the example of FIG. 9, the scan range Rsc is a semi-circular area within the measurable distance from the vehicle within the range of 90° left and right from the front of the vehicle. An arrow 70 in FIG. 9 indicates the scanning direction.

図9の例では、まず、探索候補選定ブロック41は、事前推定値x に基づきスキャン範囲Rscを特定すると共に、スキャン範囲Rsc内に存在するランドマークを基準ランドマークLkとみなし、対応する位置ベクトルmを選定する。そして、計測推定値計算ブロック42は、基準ランドマークLkの位置ベクトルm及び事前推定値x から、計測値z の推定値z =(r 、φ を算出する。探索範囲絞込みブロック43は、式(13)及び式(14)に基づき探索範囲Rtagを設定する。抽出ブロック44は、設定された探索範囲Rtag内にスキャンデータが存在する場合、位置ベクトルmを計測モデルブロック23へ供給すると共に、探索範囲Rtag内のスキャンデータに基づく計測値z を演算ブロック31へ供給する。なお、設定された探索範囲Rtag内にスキャンデータが存在しない場合には、自車位置推定部17は、基準ランドマークLkがライダ2により検出できなかったと判断し、事前推定値x を事後推定値x に設定すると共に、事前共分散行列Σ を事後共分散行列Σ に設定する。 In the example of FIG. 9, first, the search candidate selection block 41 identifies the scanning range Rsc based on the pre-estimated value x t , considers the landmarks existing within the scanning range Rsc as the reference landmarks Lk, and determines the corresponding Choose a position vector mk . Then, the measurement estimated value calculation block 42 calculates an estimated value z t k = (r t k , φ t k ) Calculate T. The search range narrowing block 43 sets the search range Rtag based on equations (13) and (14). When the scan data exists within the set search range Rtag, the extraction block 44 supplies the position vector mk to the measurement model block 23 and calculates the measured value ztk based on the scan data within the search range Rtag. It feeds into block 31 . Note that when scan data does not exist within the set search range Rtag, the vehicle position estimation unit 17 determines that the reference landmark Lk could not be detected by the rider 2, and calculates the pre-estimated value x t Set the estimate x ̂ t and set the prior covariance matrix Σ t to the posterior covariance matrix Σ ̂ t .

(3)処理フロー
(3-1)処理概要
図10は、第1実施例において自車位置推定部17が実行する処理の手順を示すフローチャートである。自車位置推定部17は、図10のフローチャートを繰り返し実行する。
(3) Processing Flow (3-1) Processing Outline FIG. 10 is a flow chart showing the procedure of processing executed by the vehicle position estimation unit 17 in the first embodiment. The own vehicle position estimation unit 17 repeatedly executes the flowchart of FIG. 10 .

まず、自車位置推定部17は、時刻t-1での事後推定値x t-1と事後共分散行列Σ t-1とを取り込むと共に、ジャイロセンサ3及び車速センサ4から時刻tにおける制御値uを取得する(ステップS101)。次に、自車位置推定部17の状態遷移モデルブロック20は、式(2)に基づき、事前推定値x を計算する(ステップS102)。そして、自車位置推定部17の共分散計算ブロック21は、式(3)に基づき、事前共分散行列Σ を計算する(ステップS103)。 First, the vehicle position estimator 17 takes in the posterior estimated value x ^ t-1 and the posterior covariance matrix Σ ^ t-1 at time t-1, and obtains from the gyro sensor 3 and the vehicle speed sensor 4 at time t A control value u t is obtained (step S101). Next, the state transition model block 20 of the vehicle position estimator 17 calculates the pre-estimated value x t based on Equation (2) (step S102). Then, the covariance calculation block 21 of the vehicle position estimation unit 17 calculates the prior covariance matrix Σ - t based on the equation (3) (step S103).

次に、自車位置推定部17のランドマーク抽出ブロック22は、地図DB10を参照し、後述する図11に示すランドマーク抽出処理を実行する(ステップS104)。そして、自車位置推定部17は、地図DB10に登録されたランドマークの位置ベクトルmとライダ2のスキャンデータとの対応付けができたか否か判定する(ステップS105)。この場合、自車位置推定部17は、図11に示すランドマーク抽出処理に基づき、上述の対応付けができたことを示す所定のフラグが設定されたか否か判定する。 Next, the landmark extraction block 22 of the vehicle position estimation unit 17 refers to the map DB 10 and executes landmark extraction processing shown in FIG. 11 (step S104). Then, the vehicle position estimating unit 17 determines whether the position vector mk of the landmark registered in the map DB 10 and the scan data of the rider 2 are associated with each other (step S105). In this case, the vehicle position estimation unit 17 determines whether or not a predetermined flag indicating that the above-described association has been established has been set, based on the landmark extraction processing shown in FIG. 11 .

そして、上述の対応付けができた場合(ステップS105;Yes)、共分散計算ブロック24は、上述の式(9)に基づき、共分散行列S を計算する(ステップS106)。次に、カルマンゲイン計算ブロック25は、カルマンゲインK を、上述の式(10)に基づき算出する(ステップS107)。そして、演算ブロック33は、式(12)に示すように、事前推定値x に対し、ランドマーク抽出ブロック22から供給される計測値z と計測モデルブロック23から供給される推定値z との差分(即ち「z -z 」)にカルマンゲインK を乗じた値を加算することで、事後推定値x を計算する(ステップS108)。また、共分散更新ブロック26は、共分散計算ブロック21から供給される事前共分散行列Σ と、計測モデルブロック23から供給されるヤコビ行列H と、カルマンゲイン計算ブロック25から供給されるカルマンゲインK とに基づき、事後共分散行列Σ を、上述の式(11)に基づき計算する(ステップS109)。その後、単位遅延ブロック34は、事後推定値x を事後推定値x t-1として状態遷移モデルブロック20に供給し、単位遅延ブロック35は、事後共分散行列Σ を事後共分散行列Σ t-1として共分散計算ブロック21に供給する。 Then, when the above-mentioned correspondence is established (step S105; Yes), the covariance calculation block 24 calculates the covariance matrix S t k based on the above equation (9) (step S106). Next, the Kalman gain calculation block 25 calculates the Kalman gain K t k based on the above equation (10) (step S107). Then , the calculation block 33 calculates the measured value z t k supplied from the landmark extraction block 22 and the estimated value The posterior estimated value x̂t is calculated by adding a value obtained by multiplying the difference from ẑtk (that is, "ztk−ẑtk " ) by the Kalman gain Ktk ( step S108). Also, the covariance update block 26 receives the prior covariance matrix Σ t supplied from the covariance calculation block 21 , the Jacobian matrix H t k supplied from the measurement model block 23 , and the Kalman gain calculation block 25 . The posterior covariance matrix Σ ̂ t is calculated based on the Kalman gain K t k and the above equation (11) (step S109). Thereafter, the unit delay block 34 supplies the posterior estimate x ^ t as the posterior estimate x ^ t-1 to the state transition model block 20, and the unit delay block 35 converts the posterior covariance matrix Σ ^ t to the posterior covariance It is supplied to covariance calculation block 21 as matrix Σ ̂ t−1 .

一方、上述の対応付けができなかった場合(ステップS105;No)、自車位置推定部17は、事前推定値x を事後推定値x に設定すると共に、事前共分散行列Σ を事後共分散行列Σ に設定する(ステップS110)。 On the other hand, if the above-mentioned association cannot be made (step S105; No), the vehicle position estimation unit 17 sets the prior estimated value x t to the posterior estimated value x ̂ t , and the prior covariance matrix Σ Set t to the posterior covariance matrix Σ̂t (step S110).

(3-2)ランドマーク抽出処理
図11は、図10のステップS104のランドマーク抽出処理の詳細を示すフローチャートである。
(3-2) Landmark Extraction Processing FIG. 11 is a flowchart showing details of the landmark extraction processing in step S104 of FIG.

まず、ランドマーク抽出ブロック22の探索範囲絞込みブロック43は、ライダ2のスキャンデータを取り込む(ステップS201)。ここでは、ライダ2は、1周期分のスキャンにより出射角度を徐々に変化させた「n」本のビームを出射するものとし、各ビームの反射光の受光強度及び応答時間を計測することで、それぞれ計測値z ~z を出力するものとする。 First, the search range narrowing block 43 of the landmark extraction block 22 takes in scan data of the rider 2 (step S201). Here, it is assumed that the lidar 2 emits "n" beams whose emission angles are gradually changed by scanning for one cycle, and by measuring the received light intensity and the response time of the reflected light of each beam, Assume that measured values z t 1 to z t n are output respectively.

次に、探索候補選定ブロック41は、ライダ2のスキャン範囲Rscに存在するランドマークの位置ベクトルmを地図DB10から選定する(ステップS202)。この場合、探索候補選定ブロック41は、スキャン範囲Rscとして、方位θ から±90°であって位置(x 、y )からライダ2の測距可能距離以内となるエリアを特定し、特定したエリア内の位置を示す位置ベクトルmを、地図DB10から抽出する。 Next, the search candidate selection block 41 selects the position vector mk of the landmark existing in the scanning range Rsc of the rider 2 from the map DB 10 (step S202). In this case, the search candidate selection block 41 specifies, as the scan range Rsc, an area that is ±90° from the direction θ t and is within the measurable distance of the rider 2 from the position (x t , y t ). and extracts from the map DB 10 a position vector mk indicating a position within the identified area.

その後、計測推定値計算ブロック42は、事前推定値x から位置ベクトルmを計測した場合の計測値z の推定値z =(r 、φ を算出する(ステップS203)。具体的には、計測推定値計算ブロック42は、上述した式(5)及び式(7)に基づき、推定値z =(r 、φ を算出する。 After that, the measurement estimated value calculation block 42 calculates the estimated value z t k = (r t k , φ t k ) of the measured value z t k when the position vector m k is measured from the prior estimated value x t . T is calculated (step S203). Specifically, the measurement estimated value calculation block 42 calculates the estimated value z ̂ t k = (r ̂ t k , φ ̂ t k ) T based on Equations (5) and (7) described above.

次に、探索範囲絞込みブロック43は、式(13)を満たすスキャン角度φ (i=1~n)を絞り込む(ステップS204)。抽出ブロック44は、式(13)を満たすスキャン角度φ となる計測値z のうち、距離r が式(14)に示す範囲となるものが存在するか否か判定する(ステップS205)。そして、式(13)を満たすスキャン角度φ となる計測値z のうち、距離r が式(14)に示す範囲となるものが存在する場合(ステップS205;Yes)、抽出ブロック44は、この探索範囲に含まれる計測値z の中から、基準ランドマークLkに対応する計測値を特定する処理(公知の形状・特徴抽出処理,受光強度の利用など)をさらに実行し,最終的に選定された計測値をz とみなして抽出する(ステップS206)。そして、抽出ブロック44は、抽出した位置ベクトルm及び当該位置ベクトルmに対応するスキャンデータである計測値z を出力すると共に、対応付けができた旨を示すフラグをセットする(ステップS207)。このフラグは、前述した図10のステップS105の判定処理において参照される。 Next, the search range narrowing block 43 narrows down the scan angles φ t i (i=1 to n) that satisfy equation (13) (step S204). The extraction block 44 determines whether or not there is a measured value z t i having the scan angle φ t i that satisfies the equation (13) and the distance r ^ t i is within the range shown in the equation (14). (Step S205). Then, among the measured values z t i having the scan angle φ t i that satisfies the equation (13), if there is a value whose distance r t i is within the range shown by the equation (14) (step S205; Yes), extraction The block 44 further executes processing (known shape/feature extraction processing, use of received light intensity, etc.) to identify the measured value corresponding to the reference landmark Lk from the measured values z t i included in this search range. Then, the finally selected measured value is regarded as z t k and extracted (step S206). Then, the extraction block 44 outputs the extracted position vector mk and the measured value ztk , which is the scan data corresponding to the position vector mk , and sets a flag indicating that the association is completed ( step S207). This flag is referenced in the determination process of step S105 of FIG. 10 described above.

一方、抽出ブロック44は、式(13)を満たすスキャン角度φ となる計測値z のうち、距離r が式(14)に示す範囲となるものが存在しない場合(ステップS205;No)、対応付けができた旨のフラグをセットしない(ステップS208)。 On the other hand , the extraction block 44 determines if there is no measured value z t i that satisfies the formula ( 13 ) and the distance r ^ t i is within the range shown in the formula (14) (step S205; No), the flag indicating that the association is established is not set (step S208).

<第2実施例>
図12は、第2実施例に係る運転支援システムのブロック構成図である。図12の例では、車載機1は、方位センサ5と電気的に接続されている。方位センサ5は、例えば地磁気センサ、方位磁石、又はGPSコンパス等であって、車両の進行方向に対応する方位の情報を車載機1へ供給する。車載機1は、第1実施例と同様に図2に示す構成を有し、地図DB10に登録されたランドマーク情報と、ライダ2、ジャイロセンサ3、車速センサ4、及び方位センサ5の各出力データとに基づき、自車位置の推定を行う。以後では、第1実施例と同一の構成要素については、適宜同一の符号を付し、その説明を省略する。
<Second embodiment>
FIG. 12 is a block configuration diagram of a driving support system according to the second embodiment. In the example of FIG. 12 , the vehicle-mounted device 1 is electrically connected to the orientation sensor 5 . The azimuth sensor 5 is, for example, a geomagnetic sensor, a compass, or a GPS compass, and supplies azimuth information corresponding to the traveling direction of the vehicle to the in-vehicle device 1 . The in-vehicle device 1 has the configuration shown in FIG. 2 as in the first embodiment, and includes landmark information registered in the map DB 10 and outputs from the rider 2, the gyro sensor 3, the vehicle speed sensor 4, and the direction sensor 5. Based on the data, the position of the vehicle is estimated. Hereinafter, the same reference numerals are given to the same components as in the first embodiment, and the description thereof will be omitted.

図13は、第2実施例における車載機1の自車位置推定部17Aの概略構成を示す。図13の例では、自車位置推定部17Aは、ランドマーク抽出ブロック22と、位置推定ブロック28とを有する。以後において、方位センサ5が出力する基準時刻tでの車両の方位を「θ」と表記し、位置推定ブロック28が出力する基準時刻tでの自車位置の推定値を「x =(x 、y )」と表記する。 FIG. 13 shows a schematic configuration of the vehicle position estimating section 17A of the vehicle-mounted device 1 in the second embodiment. In the example of FIG. 13 , the vehicle position estimator 17A has a landmark extraction block 22 and a position estimation block 28 . Hereinafter, the direction of the vehicle at the reference time t output by the direction sensor 5 will be denoted as “θ t ”, and the estimated value of the vehicle position at the reference time t output by the position estimation block 28 will be denoted as “x t = (x t , y t )”.

ランドマーク抽出ブロック22は、探索候補選定ブロック41、計測推定値計算ブロック42、探索範囲絞込みブロック43、抽出ブロック44を有し、基準ランドマークLkの位置ベクトルmと、基準ランドマークLkに対するライダ2のスキャンデータである計測値z とを出力する。 The landmark extraction block 22 has a search candidate selection block 41, a measurement estimated value calculation block 42, a search range narrowing block 43, and an extraction block 44, and includes a position vector mk of the reference landmark Lk and a lidar 2, and outputs the measured values z t k which are the scan data of 2.

具体的には、探索候補選定ブロック41は、第1実施例では、状態遷移モデルブロック20から供給される事前推定値x に基づきスキャン範囲Rscを特定していた。これに代えて、第2実施例では、探索候補選定ブロック41は、まず、第1実施例の状態遷移モデルブロック20と同様に、図6に示す幾何学的関係に基づき、自車位置のxy座標の仮の推定値を算出する。具体的には、探索候補選定ブロック41は、一時刻前に位置推定ブロック28が推定した自車位置の推定値x t-1及び一時刻前に測定された方位θt-1と、制御値u=(v、ωとに基づき、式(2)に従い、自車位置のxy座標の仮の推定値を算出する。そして、探索候補選定ブロック41は、算出した自車位置のxy座標の仮の推定値と方位θに基づき、スキャン範囲Rscを特定する。具体的には、探索候補選定ブロック41は、方位θから±90°であって、算出した自車位置のxy座標からライダ2の測距可能距離以内となるエリアをスキャン範囲Rscとして特定する。そして、探索候補選定ブロック41は、特定したエリア内の位置を示すランドマークの位置ベクトルmを、地図DB10から抽出する。 Specifically, in the first embodiment, the search candidate selection block 41 specifies the scan range Rsc based on the pre-estimated value x t supplied from the state transition model block 20 . Instead of this, in the second embodiment, the search candidate selection block 41 first determines the xy position of the vehicle based on the geometrical relationship shown in FIG. 6, as in the state transition model block 20 of the first embodiment. Compute a tentative estimate of the coordinates. Specifically, the search candidate selection block 41 uses the estimated value x t−1 of the vehicle position estimated by the position estimation block 28 one time ago, the direction θ t−1 measured one time ago, and the control Based on the value u t =(v t , ω t ) T , a provisional estimate of the xy coordinates of the vehicle position is calculated according to equation (2). Then, the search candidate selection block 41 specifies the scan range Rsc based on the calculated provisional estimated values of the xy coordinates of the vehicle position and the azimuth θt . Specifically, the search candidate selection block 41 specifies, as the scan range Rsc, an area that is ±90° from the azimuth θ t and is within the measurable range of the rider 2 from the calculated xy coordinates of the vehicle position. . Then, the search candidate selection block 41 extracts from the map DB 10 the position vector mk of the landmark indicating the position within the identified area.

計測推定値計算ブロック42は、探索候補選定ブロック41が算出した自車位置のxy座標の仮の推定値(第1実施例の事前推定値x に相当)と、地図DB10から抽出した位置ベクトルmとに基づき、式(5)及び式(7)を参照し、計測値z の推定値z =(r 、φ を算出する。なお、計測推定値計算ブロック42は、式(5)及び式(7)を参照する場合、事前推定値x =(x 、y )の代わりに、探索候補選定ブロック41が算出した自車位置のxy座標の仮の推定値を用い、方位θ の代わりに方位θを用いる。そして、探索範囲絞込みブロック43は、式(13)及び式(14)に示す探索範囲Rtagを設定し、抽出ブロック44は、式(13)及び式(14)を満たす(r 、φ )の組となる計測値z (ここではz とする)が存在する場合に、当該計測値と位置ベクトルmを位置推定ブロック28に供給する。この場合、好適には、抽出ブロック44は、第1実施例と同様に、探索範囲Rtag内のスキャンデータから、基準ランドマークLkに対応するスキャンデータを選定する処理をさらに実行し、供給すべき計測値z を決定してもよい。 A measurement estimated value calculation block 42 calculates the temporary estimated values of the xy coordinates of the vehicle position calculated by the search candidate selection block 41 (corresponding to the pre-estimated values x t in the first embodiment) and the position extracted from the map DB 10. Based on vector mk and with reference to equations (5 ) and (7), an estimated value z ^ tk = (r ^ tk , φ ^ tk ) T of the measured value ztk is calculated. Note that the measurement estimated value calculation block 42, when referring to equations (5) and (7), instead of the prior estimated value x t = (x t , y t ), the search candidate selection block 41 A tentative estimate of the calculated xy coordinates of the vehicle position is used, and the direction θ t is used instead of the direction θ t . Then, the search range narrowing block 43 sets the search range Rtag shown in equations (13) and (14), and the extraction block 44 satisfies the equations (13) and (14) (r t i , φ t If there is a set of measurements z t i (here z t k ) for i ), then the measurements and the position vector m k are provided to the position estimation block 28 . In this case, preferably, the extraction block 44 should further execute a process of selecting scan data corresponding to the reference landmark Lk from the scan data within the search range Rtag and supply it, as in the first embodiment. A metric z t k may be determined.

位置推定ブロック28は、抽出ブロック44から供給される位置ベクトルm及び計測値z =(r 、φ と、方位センサ5が出力する方位θとから、自車位置の推定値x =(x 、y )を算出する。具体的には、位置推定ブロック28は、絶対値|θ+φ |が90°未満の場合には、以下の式(15)及び式(16)に基づき、推定値x =(x 、y )を算出する。 The position estimation block 28 uses the position vector mk and the measured value ztk = ( rtk , φtk ) T supplied from the extraction block 44 and the direction θt output by the direction sensor 5 to Compute the position estimate x t = (x t , y t ). Specifically, when the absolute value |θ tt k | is less than 90°, the position estimation block 28 calculates the estimated value x t = ( x t , y t ).

一方、位置推定ブロック28は、絶対値|θ+φ |が90°より大きい場合には、以下の式(17)と上述の式(16)とに基づき、推定値x =(x 、y )を算出する。 On the other hand, if the absolute value |θ tt k | is greater than 90°, the position estimation block 28 calculates the estimated value x t = ( x t , y t ).

また、位置推定ブロック28は、絶対値|θ+φ |が90°の場合には、以下の式(18)と上述の式(16)とに基づき、推定値x =(x 、y )を算出する。 Further, when the absolute value |θ tt k | is 90°, the position estimation block 28 calculates the estimated value x t = (x t , y t ).

ここで、式(15)~式(18)の導出方法について説明する。 Here, a method of deriving equations (15) to (18) will be described.

まず、距離r 及びスキャン角度φ は、距離r 及びスキャン角度φ と同様に、前述した図7に示す幾何学的関係を有することから、推定値x =(x 、y )と方位θとの間で、それぞれ上述した式(5)及び式(6)と同様の関係が成立する。ここで、以下の式(19)は式(6)を変形した式に相当し、式(20)は式(5)を変形した式に相当する。 First , since the distance r t k and the scan angle φ t k have the geometrical relationship shown in FIG . =(x t , y t ) and the orientation θ t have the same relationships as the above equations (5) and (6) respectively. Here, the following formula (19) corresponds to a modified formula of formula (6), and formula (20) corresponds to a modified formula of formula (5).

そして、式(19)を式(20)に代入して整理すると、以下の式(21)が得られる。 Then, by substituting equation (19) into equation (20) and arranging it, the following equation (21) is obtained.

式(21)には、符号「±」が含まれるため、推定値x のx座標値「x t」と位置ベクトルmのx座標値「mk、x」との大小関係に基づき場合分けする必要がある。図14(A)~(C)は、推定値x のx座標値「x 」と位置ベクトルmのx座標値「mk、x」との大小関係を示す図である。具体的には、図14(A)は、推定値x のx座標値「x 」よりも位置ベクトルmのx座標値「mk、x」が大きい場合を示す。また、図14(B)は、推定値x のx座標値「x 」と位置ベクトルmのx座標値「mk、x」とが等しい場合を示し、図14(C)は、推定値x のx座標値「x 」よりも位置ベクトルmのx座標値「mk、x」が小さい場合を示す。 Since the sign “±” is included in equation (21), the magnitude relationship between the x-coordinate value “x t of the estimated value x t and the x-coordinate value “m k,x ” of the position vector m k is It is necessary to divide cases based on FIGS. 14A to 14C are diagrams showing the magnitude relationship between the x-coordinate value “x t ” of the estimated value x t and the x-coordinate value “m k, x ” of the position vector m k . Specifically, FIG. 14A shows a case where the x-coordinate value “m k, x ” of the position vector m k is larger than the x-coordinate value “x t ” of the estimated value x t . FIG. 14(B) shows a case where the x-coordinate value “x t ” of the estimated value x t and the x-coordinate value “m k,x ” of the position vector m k are equal, and FIG. 14(C) indicates the case where the x - coordinate value “m k , x ” of the position vector m k is smaller than the x-coordinate value “x t ” of the estimated value x − t.

図14(A)に示すように、「θ+φ 」が90°未満の場合には、「x <mk、x」が成立する。また、図14(B)に示すように、「θ+φ 」が90°の場合には、「x =mk、x」が成立する。さらに、図14(C)に示すように、「θ+φ 」が90°より大きい場合には、「x >mk、x」が成立する。 As shown in FIG. 14A, when “θ tt k ” is less than 90°, “x t <m k,x ” holds. Also, as shown in FIG. 14B, when "θ tt k " is 90°, "x t =m k,x " is established. Furthermore, as shown in FIG. 14(C), when “θ tt k ” is greater than 90°, “x t >m k, x ” holds.

従って、「θ+φ 」が負値になる場合を含めると、
(a)|θ+φ |<90° → x <mk、x
(b)|θ+φ |=90° → x =mk、x
(c)|θ+φ |>90° → x >mk、x
となる。そして、上記(a)の場合には、式(21)の左辺は正値になることから、右辺の符号は「+」となるため、上述の式(15)が導出される。また、上記(b)の場合には、式(18)に示す関係「x =mk、x」が成立する。さらに、上記(c)の場合には、式(21)の左辺は負値になることから、右辺の符号は「-」となるため、上述の式(17)が導出される。また、推定値x のy座標値「y 」は、式(19)を変形することで、式(16)のように表される。
Therefore, including the case where "θ tt k " becomes a negative value,
(a) |θ tt k |<90° → x t < m k, x
(b) |θ tt k |=90° → x t = m k, x
(c) |θ tt k |>90° → x t > m k, x
becomes. In the case of (a) above, since the left side of the equation (21) is a positive value, the sign of the right side is "+", so the above equation (15) is derived. In the case of (b) above, the relationship “x t =m k,x ” shown in Equation (18) holds. Furthermore, in the case of (c) above, since the left side of the equation (21) is a negative value, the sign of the right side is "-", so the above equation (17) is derived. Also, the y-coordinate value “y t ” of the estimated value x t is represented by Equation (16) by transforming Equation (19).

以上のように、第2実施例によれば、自車位置推定部17Aは、方位センサ5から得られる方位θを利用することで、地図DB10に登録されているランドマークの位置ベクトルm及び計測値z =(r 、φ から、自車位置の推定値x =(x 、y )を好適に算出することができる。 As described above, according to the second embodiment, the vehicle position estimator 17A uses the direction θ t obtained from the direction sensor 5 to calculate the position vector mk of the landmark registered in the map DB 10. and the measured value ztk =(r ^ tk , φ ^ tk ) T , the estimated value xt =( xt , yt ) of the vehicle position can be calculated favorably.

なお、地図DB10に登録されたランドマークの位置ベクトルmとライダ2のスキャンデータとの対応付けができなかった場合には、自車位置推定部17Aは、探索候補選定ブロック41が算出した自車位置のxy座標の仮の推定値を、自車位置の推定値x =(x 、y )として設定する。即ち、この場合、自車位置の推定値x =(x 、y )は、一時刻前に位置推定ブロック28が推定した自車位置の推定値x t-1と、車速センサ4及びジャイロセンサ5が基準時刻tに測定した制御値uと、一時刻前に測定された方位θt-1とに基づき算出された推定値となる。 Note that if the position vector mk of the landmark registered in the map DB 10 and the scan data of the rider 2 cannot be associated with each other, the vehicle position estimation unit 17A determines the vehicle position calculated by the search candidate selection block 41. A tentative estimate of the xy coordinates of the vehicle position is set as the estimate of the own vehicle position x t = (x t , y t ). That is, in this case, the estimated vehicle position x t = (x t , y t ) is the estimated vehicle position x t−1 estimated by the position estimation block 28 one time earlier, It is an estimated value calculated based on the control value u t measured by the vehicle speed sensor 4 and the gyro sensor 5 at the reference time t and the heading θ t−1 measured one time before.

<変形例>
以下では、第1及び第2実施例に好適な変形例について説明する。
<Modification>
Modifications suitable for the first and second embodiments will be described below.

(変形例1)
第1及び第2実施例において、探索候補選定ブロック41は、スキャン範囲Rsc内に存在する複数のランドマークの位置ベクトルを地図DB10から抽出し、ライダ2のスキャンデータとの照合処理を行ってもよい。
(Modification 1)
In the first and second embodiments, the search candidate selection block 41 extracts position vectors of a plurality of landmarks existing within the scan range Rsc from the map DB 10, and performs matching processing with the scan data of the rider 2. good.

一般に、車両の走行時には、自車前方や側方に他の車両などの障害物が存在するため、地図DB10から選定した基準ランドマークLkのスキャンデータがライダ2から得られない状況(即ちオクルージョン)が発生する。以上を勘案し、本変形例では、探索候補選定ブロック41は、スキャン範囲Rsc内に存在する複数のランドマークの位置ベクトルを地図DB10から抽出することで、いずれかのランドマークに対してオクルージョンが発生した場合であっても、オクルージョンが発生していないランドマークを基準として自車位置推定を行う。これにより、自車位置推定に必要な基準ランドマークLkをより高確率で検出することができる。また,複数のランドマークを抽出することができて,それらの全てを利用できる場合は,計測更新ステップを複数回行うことができる(複数のランドマークを使って事前推定値の補正を行うことができる)。この場合,自車位置の推定精度を統計的に向上させることが出来る。 In general, when a vehicle is running, there are obstacles such as other vehicles in front of and to the side of the vehicle, so that the scan data of the reference landmark Lk selected from the map DB 10 cannot be obtained from the rider 2 (i.e., occlusion). occurs. Considering the above, in this modification, the search candidate selection block 41 extracts the position vectors of a plurality of landmarks existing within the scan range Rsc from the map DB 10, so that occlusion is detected for any of the landmarks. Even if occlusion occurs, the vehicle position is estimated based on landmarks where occlusion does not occur. As a result, the reference landmark Lk required for estimating the position of the vehicle can be detected with a higher probability. Also, if multiple landmarks can be extracted and all of them are available, the measurement update step can be performed multiple times (multiple landmarks can be used to correct the pre-estimation). can). In this case, the accuracy of estimating the position of the vehicle can be improved statistically.

本変形例の処理を、図11を参照して補足説明する。ランドマーク抽出ブロック22は、ステップS202において、地図DB10を参照し、スキャン範囲Rsc内に複数のランドマークが存在すると判断した場合には、少なくとも2つ以上のランドマークの位置ベクトルを地図DB10から選定する。そして、S203では、ランドマーク抽出ブロック22は、選定した位置ベクトルに対し、計測推定値を計算する。そして、ランドマーク抽出ブロック22は、ステップS204及びS205において、計算した各計測推定値に対して式(13)及び式(14)に示す探索範囲Rtagを設定し、それぞれの探索範囲の中で先に選定したランドマークに対応するスキャンデータの抽出を試みる。この対応付けが成功した場合,当該スキャンデータに相当する計測値と位置ベクトルをステップS207で出力する。 A supplementary description of the processing of this modified example will be given with reference to FIG. 11 . In step S202, the landmark extraction block 22 refers to the map DB 10, and if it determines that a plurality of landmarks exist within the scan range Rsc, selects position vectors of at least two landmarks from the map DB 10. do. Then, at S203, the landmark extraction block 22 computes a measurement estimate for the selected position vector. Then, in steps S204 and S205, the landmark extraction block 22 sets a search range Rtag shown in equations (13) and (14) for each calculated measurement estimated value, and Attempt to extract scan data corresponding to the landmarks selected in If this association is successful, the measured value and position vector corresponding to the scan data are output in step S207.

また,複数のランドマークの抽出がなされ,それらの全ての利用できる場合の処理を図10を参照して補足説明する。この場合は,S104に示すランドマーク抽出処理で複数のランドマークが抽出されており,ステップS105がYesと判断された状態になっている。その先で行われるS106からS109の一連の処理が,抽出された個々のランドマークに対して行われるべき処理であり,個々のランドマークに対応するデータ(ステップS207の出力に対応)を入力として,これら一連の処理が抽出されたランドマークの数の分,ループ的に処理される。 A supplementary explanation will be given of the processing when a plurality of landmarks are extracted and all of them can be used, with reference to FIG. In this case, a plurality of landmarks have been extracted in the landmark extraction process shown in S104, and it is determined as Yes in step S105. A series of processing from S106 to S109 that follows is processing to be performed on each extracted landmark. , this series of processes is processed in a loop for the number of extracted landmarks.

(変形例2)
第2実施例において、自車位置推定部17Aは、方位センサ5の出力に基づき方位θを特定する代わりに、ジャイロセンサ3の出力に基づき方位θを推定してもよい。
(Modification 2)
In the second embodiment, the vehicle position estimator 17A may estimate the direction θ t based on the output of the gyro sensor 3 instead of specifying the direction θ t based on the output of the direction sensor 5 .

この場合、自車位置推定部17Aは、図6及び式(2)と同様に、一時刻前に算出した方位θt-1に対し、角速度ωに時刻t-1と時刻tとの時間幅Δtを乗じた値(ωΔt)を加算することで、基準時刻における方位θの推定値を算出する。この例によっても、第2実施例と同様に、拡張カルマンフィルタなどのベイズ推定によらずに自車位置の推定値x を好適に算出することができる。 In this case, the vehicle position estimating unit 17A, similarly to FIG. 6 and Equation (2), calculates the direction θ t−1 calculated one time before, the angular velocity ω t and the time between time t−1 and time t. By adding the value (ω t Δt) multiplied by the width Δt, the estimated value of the azimuth θ t at the reference time is calculated. Also according to this example, similarly to the second embodiment, the estimated value x t of the vehicle position can be preferably calculated without using Bayesian estimation such as an extended Kalman filter.

(変形例3)
ライダ2によるインデックスkのランドマークに対する計測値z は,距離「r 」と、車両の正面方向を0度としたときのインデックスkのランドマークに対するスキャン角度「φ 」とを要素とするベクトル値であるとして上記の説明を記載したが,ライダ製品によっては,ターゲットまでの距離と角度を3次元空間上の座標値に変換した上で出力がなされるものもある。例えば2次元でスキャンを行うライダの場合,r とφ と用いて,x =r cosφ ,y =r sinφ という直行座標形式で出力がなされる。このような出力が得られるライダ製品については,例えば,単純にx ,y の値からr ,φ の値を逆算した上で,本発明で説明した手法を適用すれば良い。
(Modification 3)
The measured value z t k for the landmark with index k by the rider 2 is obtained by combining the distance “ rt k ” and the scan angle “φ t k ” with respect to the landmark with index k when the front direction of the vehicle is 0 degrees. Although the above explanation is given assuming that the vector values are the elements, some lidar products convert the distance and angle to the target into coordinate values in a three-dimensional space before outputting them. For example, in the case of a lidar that scans in two dimensions, using r t k and φ t k , the output is in the form of rectangular coordinates x t k = r t k cos φ t k and y t k = r t k sin φ t k . done. For a lidar product capable of obtaining such an output, for example, the values of r t k and φ t k are simply back-calculated from the values of x t k and y t k , and then the method described in the present invention is applied. Good luck.

(変形例4)
車載機1は、地図DB10を記憶部12に記憶する構成に代えて、図示しないサーバ装置が地図DB10を有してもよい。この場合、車載機1は、図示しない通信部でサーバ装置と通信することにより、必要なランドマーク情報を取得する。
(Modification 4)
In the in-vehicle device 1 , instead of storing the map DB 10 in the storage unit 12 , a server device (not shown) may have the map DB 10 . In this case, the vehicle-mounted device 1 acquires the necessary landmark information by communicating with the server device through a communication unit (not shown).

1 車載機
2 ライダ
3 ジャイロセンサ
4 車速センサ
5 方位センサ
10 地図DB
1 vehicle-mounted device 2 rider 3 gyro sensor 4 vehicle speed sensor 5 direction sensor 10 map DB

Claims (1)

地図情報を取得する取得部と、
第1範囲に存在する対象物までの距離及び角度を示す第1情報を取得する第1取得部と、
前記地図情報に含まれる前記対象物の位置情報及び前記第1情報に基づいて、前記移動体の位置を推定する第1推定部と、
を備える推定装置。
an acquisition unit that acquires map information;
a first acquisition unit that acquires first information indicating the distance and angle to an object existing in the first range;
a first estimating unit that estimates the position of the mobile object based on the position information of the object and the first information included in the map information;
An estimating device comprising:
JP2023093862A 2021-11-01 2023-06-07 Estimation device, control method, program, and storage medium Pending JP2023105152A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023093862A JP2023105152A (en) 2021-11-01 2023-06-07 Estimation device, control method, program, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021178857A JP2022025118A (en) 2019-10-23 2021-11-01 Estimation device, control method, program, and storage medium
JP2023093862A JP2023105152A (en) 2021-11-01 2023-06-07 Estimation device, control method, program, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021178857A Division JP2022025118A (en) 2019-10-23 2021-11-01 Estimation device, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2023105152A true JP2023105152A (en) 2023-07-28

Family

ID=80265744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023093862A Pending JP2023105152A (en) 2021-11-01 2023-06-07 Estimation device, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2023105152A (en)

Similar Documents

Publication Publication Date Title
JP6608456B2 (en) Estimation apparatus, control method, program, and storage medium
JP2017072422A (en) Information processing device, control method, program, and storage medium
JP2024050990A (en) Judging device
JP7155284B2 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
JP2017072423A (en) Estimation device, control method, program, and storage medium
JP2023075184A (en) Output device, control method, program, and storage medium
JP2022176322A (en) Self-position estimation device, control method, program, and storage medium
JP2023054314A (en) Information processing device, control method, program, and storage medium
JP2023164553A (en) Position estimation device, estimation device, control method, program and storage medium
JP2023078138A (en) Output device, control method, program, and storage medium
JP2020098196A (en) Estimation device, control method, program, and storage medium
WO2018212302A1 (en) Self-position estimation device, control method, program, and storage medium
JP2023174739A (en) Data structure, information processing device, and map data generator
JP2019174191A (en) Data structure, information transmitting device, control method, program, and storage medium
JP2023105152A (en) Estimation device, control method, program, and storage medium
JP2022025118A (en) Estimation device, control method, program, and storage medium
WO2019188877A1 (en) Information transmission device, data structure, control method, program, and storage medium
WO2019188874A1 (en) Data structure, information processing device, and map data generation device
US20230003521A1 (en) Information processing device, control method, program and storage medium
US11822009B2 (en) Self-position estimation device, self-position estimation method, program, and recording medium
US20240053440A1 (en) Self-position estimation device, self-position estimation method, program, and recording medium
US20220413150A1 (en) Information processing device, control method, program and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205