JP7408236B2 - Position estimation method and position estimation device - Google Patents

Position estimation method and position estimation device Download PDF

Info

Publication number
JP7408236B2
JP7408236B2 JP2019237812A JP2019237812A JP7408236B2 JP 7408236 B2 JP7408236 B2 JP 7408236B2 JP 2019237812 A JP2019237812 A JP 2019237812A JP 2019237812 A JP2019237812 A JP 2019237812A JP 7408236 B2 JP7408236 B2 JP 7408236B2
Authority
JP
Japan
Prior art keywords
vehicle
position information
information
point cloud
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019237812A
Other languages
Japanese (ja)
Other versions
JP2021105584A (en
Inventor
祐一 武田
千加夫 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019237812A priority Critical patent/JP7408236B2/en
Publication of JP2021105584A publication Critical patent/JP2021105584A/en
Application granted granted Critical
Publication of JP7408236B2 publication Critical patent/JP7408236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、位置推定方法及び位置推定装置に関する。 The present invention relates to a position estimation method and a position estimation device.

下記特許文献1には、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)等のセンサを自車両に搭載し、センサにより検出された情報と地図情報とを比較して、自車両の現在位置の推定を行う技術が記載されている。 Patent Document 1 below discloses that a sensor such as LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) is mounted on the own vehicle, and information detected by the sensor is compared with map information to determine the current position of the own vehicle. A technique for estimating this is described.

国際公開第2018/180096号パンフレットInternational Publication No. 2018/180096 pamphlet

しかしながら、センサにより取得した自車両の周囲の物体の3次元位置情報が十分でないと、鉛直方向の自車両の位置の推定精度や、ロール角、ピッチ角の推定精度が低下するおそれがある。この結果、水平方向の自車両の位置の推定精度にも影響を及ぼす恐れがある。
本発明は、センサにより取得した自車両の周囲の物体の3次元位置情報が十分でない場合の自車両の位置の推定精度の低下を軽減することを目的とする。
However, if the three-dimensional position information of objects around the host vehicle acquired by the sensor is not sufficient, the accuracy of estimating the position of the host vehicle in the vertical direction and the accuracy of estimating the roll angle and pitch angle may decrease. As a result, the accuracy of estimating the position of the host vehicle in the horizontal direction may also be affected.
An object of the present invention is to reduce the decrease in the accuracy of estimating the position of the own vehicle when the three-dimensional position information of objects around the own vehicle obtained by a sensor is insufficient.

本発明の一態様による位置推定方法では、自車両に搭載されたセンサにより自車両の周囲の物体の自車両に対する3次元位置情報である第1位置情報を取得し、自車両へのセンサの取付位置に基づいて、自車両が走行する路面の自車両に対する3次元位置情報である第2位置情報を生成し、自車両の周囲の物体及び自車両が走行する路面の既知の3次元位置情報を有する地図情報と、第1位置情報及び第2位置情報とを比較して自車両の位置を推定する。 In the position estimation method according to one aspect of the present invention, first position information, which is three-dimensional position information of objects around the own vehicle relative to the own vehicle, is acquired by a sensor mounted on the own vehicle, and the sensor is attached to the own vehicle. Based on the position, second position information is generated that is three-dimensional position information for the own vehicle on the road surface on which the own vehicle is traveling, and known three-dimensional position information on objects around the own vehicle and the road surface on which the own vehicle is traveling is generated. The location of the host vehicle is estimated by comparing the map information, the first location information, and the second location information.

本発明の一形態によれば、センサにより取得した自車両の周囲の物体の3次元位置情報が十分でない場合の自車両の位置の推定精度の低下を軽減できる。 According to one embodiment of the present invention, it is possible to reduce the decrease in the accuracy of estimating the position of the own vehicle when the three-dimensional position information of objects around the own vehicle obtained by the sensor is insufficient.

実施形態の位置推定装置を搭載した車両の概略構成の一例のブロック図である。FIG. 1 is a block diagram of an example of a schematic configuration of a vehicle equipped with a position estimating device according to an embodiment. センサによる3次元位置情報を用いた位置推定において鉛直方向の推定精度が低下する理由の説明図である。FIG. 3 is an explanatory diagram of the reason why vertical estimation accuracy decreases in position estimation using three-dimensional position information from a sensor. センサによる3次元位置情報を用いた位置推定において鉛直方向の推定精度が低下する理由の説明図である。FIG. 3 is an explanatory diagram of the reason why vertical estimation accuracy decreases in position estimation using three-dimensional position information from a sensor. センサによる3次元位置情報を用いた位置推定において水平方向の推定精度が低下する理由の説明図である。FIG. 3 is an explanatory diagram of the reason why estimation accuracy in the horizontal direction decreases in position estimation using three-dimensional position information from a sensor. 実施形態の位置推定方法の一例の説明図である。It is an explanatory diagram of an example of the position estimation method of an embodiment. 位置推定装置の概略構成の一例のブロック図である。FIG. 1 is a block diagram of an example of a schematic configuration of a position estimation device. 自車両の移動量に基づく点群データの補正の説明図である。FIG. 3 is an explanatory diagram of correction of point cloud data based on the amount of movement of the host vehicle. 仮想点群の設定範囲の第1例の説明図である。FIG. 3 is an explanatory diagram of a first example of a setting range of a virtual point group. 仮想点群の設定範囲の第2例の説明図である。FIG. 7 is an explanatory diagram of a second example of a setting range of a virtual point group. 仮想点群の設定範囲の第3例の説明図である。FIG. 7 is an explanatory diagram of a third example of a setting range of a virtual point group. 仮想点群の設定範囲の第4例の説明図である。FIG. 7 is an explanatory diagram of a fourth example of a setting range of a virtual point group. 仮想点群の設定範囲の第5例の説明図である。FIG. 7 is an explanatory diagram of a fifth example of a setting range of a virtual point group. 点群データ及び仮想点群データと地図点群データとを比較して自車両の位置を推定する処理の一例の説明図である。FIG. 3 is an explanatory diagram of an example of a process of estimating the position of the host vehicle by comparing point cloud data, virtual point cloud data, and map point cloud data. 実施形態の位置推定方法の一例のフローチャートである。It is a flow chart of an example of a position estimation method of an embodiment.

以下、図面を参照して、本発明の実施形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。各図面は模式的なものであり、現実のものとは異なる場合が含まれる。以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、下記の実施形態に例示した装置や方法に特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。 Embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, the same or similar parts are given the same or similar symbols, and overlapping explanations are omitted. Each drawing is schematic and may differ from the actual drawing. The embodiments shown below illustrate devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is specific to the devices and methods illustrated in the embodiments below. It's not something you do. The technical idea of the present invention can be modified in various ways within the technical scope described in the claims.

(構成)
図1を参照する。以下、移動体の一例として車両の現在位置を推定する場合について説明するが、本発明は車両に限らず様々な移動体の現在位置の推定に広く適用することができる。
自車両1には、位置推定装置10が搭載される。位置推定装置10は、物体センサ11と、地図データベース12と、測位装置13と、車両センサ14と、コントローラ15を備える。図1において地図データベースを「地図DB」と表記する。図4においても同様である。
(composition)
Please refer to FIG. Hereinafter, a case will be described in which the current position of a vehicle is estimated as an example of a moving object, but the present invention can be widely applied to estimating the current position of various moving objects, not just vehicles.
The own vehicle 1 is equipped with a position estimation device 10 . The position estimation device 10 includes an object sensor 11, a map database 12, a positioning device 13, a vehicle sensor 14, and a controller 15. In FIG. 1, the map database is expressed as "map DB". The same applies to FIG.

物体センサ11は、自車両1の周囲の物体表面の位置を検出して、検出位置の3次元位置情報を出力するセンサである。
例えば物体センサ11は、LIDARや、レーザレーダ、ミリ波レーダ、ソナーなどの測距センサを備えてもよい。また、物体センサ11は、自車両1に搭載されたカメラであってもよい。例えば物体センサ11として、自車両1の周囲の物体を水平方向に走査して物体の3次元位置情報を取得するセンサを使用してもよい。
The object sensor 11 is a sensor that detects the position of an object surface around the own vehicle 1 and outputs three-dimensional position information of the detected position.
For example, the object sensor 11 may include a distance measurement sensor such as LIDAR, laser radar, millimeter wave radar, or sonar. Further, the object sensor 11 may be a camera mounted on the own vehicle 1. For example, as the object sensor 11, a sensor that scans objects around the own vehicle 1 in the horizontal direction to obtain three-dimensional position information of the objects may be used.

例えば物体センサ11は、取得した自車両1の周囲の物体表面の自車両に対する3次元位置情報を、3次元の点群データとしてコントローラ15へ出力する。物体センサ11により取得される3次元位置情報は、特許請求の範囲に記載の「第1位置情報」の一例である。なお、物体センサ11により取得される3次元位置情報は、物体センサ11の位置(すなわち自車両1の位置)を基準とする相対位置情報であり、自車両1の位置を中心とする車両座標系で表現される。
なお、物体センサ11による3次元位置情報は、必ずしも点群データに限定される必要はなく、例えば画像特徴点や明示的なランドマークの位置情報であってもよい。
For example, the object sensor 11 outputs the acquired three-dimensional position information of the object surface around the own vehicle 1 relative to the own vehicle to the controller 15 as three-dimensional point group data. The three-dimensional position information acquired by the object sensor 11 is an example of "first position information" described in the claims. Note that the three-dimensional position information acquired by the object sensor 11 is relative position information based on the position of the object sensor 11 (that is, the position of the own vehicle 1), and is based on the vehicle coordinate system centered on the position of the own vehicle 1. It is expressed as
Note that the three-dimensional position information provided by the object sensor 11 is not necessarily limited to point cloud data, and may be, for example, position information of image feature points or explicit landmarks.

地図データベース12は、カメラ、LIDARや、レーザレーダ、ミリ波レーダ、ソナーなどセンサを用いて取得された道路及びその周辺に存在する既知の物体や道路の路面の位置を示す3次元位置情報により構成される地図情報のデータベースである。地図データベース12は、フラッシュメモリ、ハードディスクドライブなどの所定の記憶装置に記憶される。地図データベース12を構成する3次元位置情報は、例えば3次元点群データや、3次元点群データから位置推定のために抽出された各種形態の情報(特徴点、物標、ランドマーク、統計による近似値)であってよい。 The map database 12 is composed of three-dimensional position information indicating the positions of roads, known objects existing in the vicinity, and the road surface acquired using sensors such as cameras, LIDAR, laser radar, millimeter wave radar, and sonar. This is a database of map information. The map database 12 is stored in a predetermined storage device such as a flash memory or a hard disk drive. The 3D position information that constitutes the map database 12 includes, for example, 3D point cloud data and various forms of information extracted from the 3D point cloud data for position estimation (feature points, targets, landmarks, statistical data, etc.). approximate value).

地図データベース12に格納される3次元位置情報は、所定の処理座標系(例えば、地図座標系や世界座標系)で表現されており、地図上の位置を示す。一方で、物体センサ11により取得される3次元位置情報は、物体センサ11の位置(すなわち自車両1の位置)を基準とする相対位置情報であり、自車両1の位置を中心とする車両座標系で表現される。
以下、地図情報を構成する点群データを「地図点群データ」と表記し、物体センサ11により取得される点群データを「センサ点群データ」と表記する。
The three-dimensional position information stored in the map database 12 is expressed in a predetermined processing coordinate system (for example, a map coordinate system or a world coordinate system), and indicates a position on a map. On the other hand, the three-dimensional position information acquired by the object sensor 11 is relative position information based on the position of the object sensor 11 (that is, the position of the own vehicle 1), and is the vehicle coordinate information centered on the position of the own vehicle 1. It is expressed as a system.
Hereinafter, point cloud data that constitutes map information will be referred to as "map point cloud data," and point cloud data acquired by the object sensor 11 will be referred to as "sensor point cloud data."

測位装置13は、自車両1の現在位置を測定する。測位装置13は、例えば全地球型測位システム(GNSS)受信機を備えてよい。GNSS受信機は、例えば地球測位システム(GPS)受信機等であり、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。 The positioning device 13 measures the current position of the own vehicle 1. The positioning device 13 may include, for example, a Global Positioning System (GNSS) receiver. The GNSS receiver is, for example, a global positioning system (GPS) receiver or the like, and measures the current position of the host vehicle 1 by receiving radio waves from a plurality of navigation satellites.

車両センサ14は、自車両1に搭載され、自車両1から得られる様々な情報(車両信号)を検出する。車両センサ14には、例えば、自車両1の走行速度(車速)を検出する車速センサ、自車両1が備える各タイヤの回転速度を検出する車輪速センサ、自車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、自車両1に生じる角速度を検出するジャイロセンサ、ヨーレートを検出するヨーレートセンサ、自車両1のアクセル開度を検出するアクセルセンサと、運転者によるブレーキ操作量を検出するブレーキセンサが含まれる。 The vehicle sensor 14 is mounted on the own vehicle 1 and detects various information (vehicle signals) obtained from the own vehicle 1. The vehicle sensor 14 includes, for example, a vehicle speed sensor that detects the running speed (vehicle speed) of the own vehicle 1, a wheel speed sensor that detects the rotational speed of each tire included in the own vehicle 1, and an acceleration ( A 3-axis acceleration sensor (G sensor) that detects the steering angle (including deceleration), a steering angle sensor that detects the steering angle (including the turning angle), a gyro sensor that detects the angular velocity generated in the own vehicle 1, and a yaw rate that detects the yaw rate. The sensor includes an accelerator sensor that detects the accelerator opening of the host vehicle 1, and a brake sensor that detects the amount of brake operation by the driver.

コントローラ15は、物体センサ11によるセンサ点群データと地図データベース12に格納される地図点群データとに基づいて、自車両1の現在の3次元位置と3軸方向の向き(すなわち6自由度の位置及び姿勢)を推定する電子制御ユニット(ECU:Electronic Control Unit)である。
以下、コントローラ15による自車両1の現在の3次元位置と3軸方向の向きの推定を、単に「位置推定」と表記することがある。
The controller 15 determines the current three-dimensional position and three-axis orientation (i.e., six degrees of freedom) of the own vehicle 1 based on the sensor point cloud data from the object sensor 11 and the map point cloud data stored in the map database 12. This is an electronic control unit (ECU) that estimates the position and orientation.
Hereinafter, the estimation of the current three-dimensional position and three-axis orientation of the own vehicle 1 by the controller 15 may be simply referred to as "position estimation".

コントローラ15は、プロセッサ16と、記憶装置17等の周辺部品とを含む。プロセッサ16は、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置17は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置17は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
以下に説明するコントローラ15の機能は、例えばプロセッサ16が、記憶装置17に格納されたコンピュータプログラムを実行することにより実現される。
The controller 15 includes a processor 16 and peripheral components such as a storage device 17. The processor 16 may be, for example, a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit).
The storage device 17 may include a semiconductor storage device, a magnetic storage device, an optical storage device, or the like. The storage device 17 may include memories such as a register, a cache memory, a ROM (Read Only Memory) used as a main storage device, and a RAM (Random Access Memory).
The functions of the controller 15 described below are realized, for example, by the processor 16 executing a computer program stored in the storage device 17.

なお、コントローラ15を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ15は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ15はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
Note that the controller 15 may be formed of dedicated hardware for executing each information process described below.
For example, the controller 15 may include a functional logic circuit set in a general-purpose semiconductor integrated circuit. For example, the controller 15 may include a programmable logic device (PLD) such as a field-programmable gate array (FPGA).

次に、コントローラ15による位置推定の一例を説明する。
図2A及び図2Bを参照する。物体センサ11により取得されるセンサ点群データ21と地図点群データとを照合して自車両1の位置推定を行う場合に、取得したセンサ点群データ21が十分でないことにより、自車両1の鉛直方向位置が不明になるおそれがある。
例えば、LIDARには、視野角が狭いセンサ(いわゆるラインスキャナ)などがあり、このセンサで得られる情報は平面状に分布する点群情報となり、例えば鉛直方向に関する情報が縮退する。
Next, an example of position estimation by the controller 15 will be described.
See FIGS. 2A and 2B. When estimating the position of the own vehicle 1 by comparing the sensor point cloud data 21 acquired by the object sensor 11 and the map point cloud data, the acquired sensor point cloud data 21 is insufficient. The vertical position may become unclear.
For example, LIDAR includes a sensor with a narrow viewing angle (so-called line scanner), and the information obtained by this sensor is point group information distributed in a plane, and information regarding the vertical direction, for example, is degenerated.

すると、例えば図2A及び図2Bに示すように、鉛直方向に沿った形状変化が少ない物体20のセンサ点群データ21が得られた場合に、このセンサ点群データ21と地図点群データとを比較しても自車両1の鉛直方向位置が不明になり、鉛直方向の自車両1の位置の推定精度が低下するおそれがある。 Then, for example, as shown in FIGS. 2A and 2B, when sensor point cloud data 21 of an object 20 whose shape changes little in the vertical direction is obtained, this sensor point cloud data 21 and map point cloud data are combined. Even if the comparison is made, the vertical position of the host vehicle 1 becomes unknown, and there is a possibility that the estimation accuracy of the position of the host vehicle 1 in the vertical direction decreases.

このように、自車両1の鉛直方向位置の精度が低下すると、水平方向位置の推定精度の低下を招く恐れがある。図2Cを参照してその理由の一例を説明する。
例えば、鉛直方向位置が異なる物体表面22及び23は、物体センサ11による測距方向における位置が異なる。このため、自車両1の鉛直方向位置の精度が低下したことにより、誤って物体表面22のセンサ点群データ21と物体表面23の地図点群データとを比較して自車両1の位置を推定すると、水平方向位置の推定精度も低下する。
As described above, if the accuracy of the vertical position of the own vehicle 1 decreases, there is a risk that the estimation accuracy of the horizontal position will decrease. An example of the reason will be explained with reference to FIG. 2C.
For example, the object surfaces 22 and 23 having different vertical positions have different positions in the distance measurement direction by the object sensor 11. As a result, the accuracy of the vertical position of the vehicle 1 has decreased, and the position of the vehicle 1 is estimated by erroneously comparing the sensor point cloud data 21 on the object surface 22 and the map point cloud data on the object surface 23. Then, the accuracy of estimating the horizontal position also decreases.

そこで、実施形態の位置推定方法では、自車両1の下には必ず路面があり、路面の位置は自車両1への物体センサ11の取付位置に基づいて推定できることに着目する。
図3を参照する。コントローラ15は、自車両1への物体センサ11の取付位置に基づいて、自車両1が走行する路面24の3次元位置情報25a、25b、25c及び25dを仮想的に生成する。3次元位置情報25a~25dは、特許請求の範囲に記載の「第2位置情報」の一例である。
3次元位置情報25a~25dは、物体センサ11により取得される3次元位置情報と同様に、物体センサ11の位置(すなわち自車両1の位置)を基準とする相対位置情報であり、自車両1の位置を中心とする車両座標系で表現される。
Therefore, in the position estimation method of the embodiment, attention is paid to the fact that there is always a road surface below the host vehicle 1 and that the position of the road surface can be estimated based on the attachment position of the object sensor 11 to the host vehicle 1.
See FIG. 3. The controller 15 virtually generates three-dimensional position information 25a, 25b, 25c, and 25d of the road surface 24 on which the host vehicle 1 travels, based on the attachment position of the object sensor 11 to the host vehicle 1. The three-dimensional position information 25a to 25d is an example of "second position information" described in the claims.
Similar to the three-dimensional position information acquired by the object sensor 11, the three-dimensional position information 25a to 25d is relative position information based on the position of the object sensor 11 (that is, the position of the own vehicle 1), and It is expressed in the vehicle coordinate system centered at the location of .

例えばコントローラ15は、路面24への自車両1の接地点から物体センサ11までの高さHに基づいて、3次元位置情報25a~25dを生成してよい。
例えばコントローラ15は、3次元位置情報25a~25dを、路面24の3次元位置を表す3次元点群データとして生成する。以下、コントローラ15によって生成された路面24の点群データを「仮想点群データ」と表記する。
For example, the controller 15 may generate the three-dimensional position information 25a to 25d based on the height H from the grounding point of the own vehicle 1 on the road surface 24 to the object sensor 11.
For example, the controller 15 generates the three-dimensional position information 25a to 25d as three-dimensional point group data representing the three-dimensional position of the road surface 24. Hereinafter, the point cloud data of the road surface 24 generated by the controller 15 will be referred to as "virtual point cloud data."

コントローラ15は、物体センサ11により取得される3次元位置情報及びコントローラ15が生成した路面24の3次元位置情報と地図情報とを比較して、自車両1の位置を推定する。
例えばコントローラ15は、センサ点群データ及び仮想点群データと、地図点群データ
と、を比較して自車両1の位置を推定する。
The controller 15 estimates the position of the own vehicle 1 by comparing the three-dimensional position information acquired by the object sensor 11 and the three-dimensional position information of the road surface 24 generated by the controller 15 with the map information.
For example, the controller 15 estimates the position of the host vehicle 1 by comparing the sensor point cloud data, the virtual point cloud data, and the map point cloud data.

このように、実施形態の位置推定方法では、物体センサ11により取得される3次元位置情報21と地図情報との比較に加えて、物体センサ11の取付位置に基づいて仮想的に生成した路面24の3次元位置情報と25a~25d地図情報とを比較して自車両1の位置を推定する。これにより地図情報と比較する鉛直方向に関する位置情報を増加できる。
この結果、物体センサ11による3次元位置情報が十分でなくても、鉛直方向の自車両1の位置の推定精度や、ロール角、ピッチ角の推定精度の低下を軽減できる。また、鉛直方向の位置精度の低下に伴う水平方向の位置精度の低下も軽減できる。
In this way, in the position estimation method of the embodiment, in addition to comparing the three-dimensional position information 21 acquired by the object sensor 11 with map information, the road surface 24 virtually generated based on the mounting position of the object sensor 11 is compared. The position of the own vehicle 1 is estimated by comparing the three-dimensional position information of 25a to 25d with the map information 25a to 25d. This makes it possible to increase the vertical position information to be compared with the map information.
As a result, even if the three-dimensional position information provided by the object sensor 11 is insufficient, it is possible to reduce the decrease in the accuracy of estimating the position of the vehicle 1 in the vertical direction and the accuracy of estimating the roll angle and pitch angle. Further, the decrease in positional accuracy in the horizontal direction due to the decrease in positional accuracy in the vertical direction can also be reduced.

以下、位置推定装置10の機能の一例を詳しく説明する。以下、物体センサ11により得られる3次元位置情報や地図データベース12を構成する3次元位置情報が3次元点群データである例について説明する。しかしながら本発明はこのような形態に限定されるものではなく、上記の通り3次元位置情報として画像特徴点、物標、ランドマーク、統計による近似値を用いることができる。
図4を参照する。コントローラ15は、点群データ取得部30と、点群データ格納部31と、移動量演算部32と、点群データ補正部33と、仮想点群追加部34と、位置推定部35を備える。
Hereinafter, an example of the function of the position estimation device 10 will be explained in detail. Hereinafter, an example will be described in which the three-dimensional position information obtained by the object sensor 11 and the three-dimensional position information forming the map database 12 are three-dimensional point group data. However, the present invention is not limited to such a form, and as described above, image feature points, targets, landmarks, and statistical approximations can be used as the three-dimensional position information.
See FIG. 4. The controller 15 includes a point cloud data acquisition section 30, a point cloud data storage section 31, a movement amount calculation section 32, a point cloud data correction section 33, a virtual point cloud addition section 34, and a position estimation section 35.

点群データ取得部30は、物体センサ11からセンサ点群データ21を取得する。点群データ取得部30は、取得したセンサ点群データ21を点群データ格納部31に格納する。例えば点群データ格納部31は、図1に示す記憶装置17に確保された記憶領域であってよい。地図データベース12が記憶される記憶装置に、点群データ格納部31のための記憶領域を確保してもよい。
移動量演算部32は、前回の処理サイクルでセンサ点群データ21を取得した時点tpから今回の処理サイクルでセンサ点群データ21を取得する時点tcまでの自車両1の移動量を演算する。例えば移動量演算部32は、時点tpから時点tcまでの自車両1の位置と姿勢(方向)の変化を自車両1の移動量として演算する。
例えば、移動量演算部32は、測位装置13による測位結果や、車両センサ14からの車両信号によるオドメトリに基づいて自車両1の移動量を演算する。
The point cloud data acquisition unit 30 acquires sensor point cloud data 21 from the object sensor 11 . The point cloud data acquisition unit 30 stores the acquired sensor point cloud data 21 in the point cloud data storage unit 31. For example, the point cloud data storage section 31 may be a storage area secured in the storage device 17 shown in FIG. 1. A storage area for the point cloud data storage section 31 may be secured in the storage device in which the map database 12 is stored.
The movement amount calculation unit 32 calculates the movement amount of the host vehicle 1 from the time point tp at which the sensor point group data 21 was acquired in the previous processing cycle to the time point tc at which the sensor point group data 21 was acquired in the current processing cycle. For example, the movement amount calculation unit 32 calculates changes in the position and attitude (direction) of the host vehicle 1 from time tp to time tc as the movement amount of the host vehicle 1.
For example, the movement amount calculation unit 32 calculates the movement amount of the host vehicle 1 based on the positioning result by the positioning device 13 and the odometry based on the vehicle signal from the vehicle sensor 14.

点群データ補正部33は、前回の処理サイクル及びそれ以前に(すなわち今回の処理サイクルでセンサ点群データ21を取得する時点tcよりも前に)取得され点群データ格納部31に格納されたセンサ点群データ21を、移動量演算部32が演算した移動量で補正して、点群データ格納部31に蓄積する。
図5を参照して点群データ補正部33によるセンサ点群データ21の補正処理の一例を説明する。参照符号1は、今回の処理サイクルでセンサ点群データ21を取得する時点tcにおける自車両の位置を示す。
The point cloud data correction unit 33 stores the data acquired in the previous processing cycle and before that (that is, before the time tc at which the sensor point cloud data 21 is acquired in the current processing cycle) and stored in the point cloud data storage unit 31. The sensor point group data 21 is corrected by the movement amount calculated by the movement amount calculation section 32 and stored in the point group data storage section 31.
An example of the correction process of the sensor point cloud data 21 by the point cloud data correction section 33 will be described with reference to FIG. Reference numeral 1 indicates the position of the host vehicle at time tc when sensor point cloud data 21 is acquired in the current processing cycle.

一方で、破線40は前回の処理サイクルでセンサ点群データ21を取得した時点tpにおける自車両1の位置を示す。丸プロット21は、時点tpにおいてセンサ点群データが示す位置を示す。
上記の通り、センサ点群データは車両座標系上の座標、すなわち自車両1を基準とする相対位置で表現されている。このため、時点tpから時点tcまでの間に参照符号1で示す位置へ自車両1が移動すると、センサ点群データ21が示す位置は、四角プロット41で示す位置へ変化する。時点tcの自車両1の位置を基準とする相対位置41は、時点tpの位置40を基準とする相対位置21と同一である。
点群データ補正部33は、四角プロット41で示す相対位置を表すセンサ点群データ21を、時点tcにおける自車両1の位置を基準にして丸プロット21で示す相対位置を示す点群データへ補正する。
On the other hand, a broken line 40 indicates the position of the own vehicle 1 at the time point tp when the sensor point cloud data 21 was acquired in the previous processing cycle. A circle plot 21 indicates the position indicated by the sensor point cloud data at time tp.
As described above, the sensor point group data is expressed as coordinates on the vehicle coordinate system, that is, relative positions with respect to the own vehicle 1. Therefore, when the host vehicle 1 moves to the position indicated by reference numeral 1 between time tp and time tc, the position indicated by the sensor point group data 21 changes to the position indicated by the rectangular plot 41. The relative position 41 based on the position of the own vehicle 1 at time tc is the same as the relative position 21 based on the position 40 at time tp.
The point cloud data correction unit 33 corrects the sensor point cloud data 21 representing the relative position shown by the square plot 41 into point cloud data representing the relative position shown by the circular plot 21 based on the position of the own vehicle 1 at time tc. do.

図4を参照する。仮想点群追加部34は、自車両1への物体センサ11の取付位置に基づいて、自車両1が走行する路面24の位置を示す仮想点群データ25a~25dを仮想的に生成する。仮想点群データ25a~25dは、自車両1の位置推定において地図点群データと比較する点群データに追加される。仮想点群データ25a~25dを総称して「仮想点群データ25」と表記すことがある。
仮想点群追加部34は、仮想点群データ25の鉛直方向の座標を、路面24への自車両1の接地点から物体センサ11までの高さHに基づいて演算する。
See FIG. 4. The virtual point cloud adding unit 34 virtually generates virtual point group data 25a to 25d indicating the position of the road surface 24 on which the host vehicle 1 travels, based on the attachment position of the object sensor 11 to the host vehicle 1. The virtual point cloud data 25a to 25d are added to the point cloud data to be compared with the map point cloud data in estimating the position of the host vehicle 1. The virtual point group data 25a to 25d may be collectively referred to as "virtual point group data 25."
The virtual point group addition unit 34 calculates the vertical coordinates of the virtual point group data 25 based on the height H from the grounding point of the own vehicle 1 on the road surface 24 to the object sensor 11.

仮想点群追加部34は、例えば図6A~6C及び図7Bに示す水平面内範囲42に1つ以上の仮想点群データ25を生成る。例えば仮想点群追加部34は、これらの範囲42に分布するように、仮想点群データ25を生成してよい。
例えば、仮想点群追加部34は、仮想点群データ25の水平面内位置を範囲42内に位置するように適宜決定し、高さHに基づいて鉛直方向位置を演算してよい。
The virtual point group adding unit 34 generates one or more virtual point group data 25 in the horizontal plane range 42 shown in FIGS. 6A to 6C and FIG. 7B, for example. For example, the virtual point cloud adding unit 34 may generate the virtual point cloud data 25 so as to be distributed in these ranges 42.
For example, the virtual point group addition unit 34 may appropriately determine the position of the virtual point group data 25 in the horizontal plane to be located within the range 42, and calculate the vertical position based on the height H.

図6Aを参照する。例えば仮想点群追加部34は、自車両1の下の路面24はほぼ平面であると仮定して、自車両1の直下の範囲42を、仮想点群データ25の生成範囲として設定してよい。この場合、例えば仮想点群追加部34は、自車両1の直下の範囲42に等間隔に分布するように仮想点群データ25を配置してもよく、不均等に仮想点群データ25を配置してもよい。例えば、自車両1の接地部位の位置に近いほど密に、遠くなるほど疎らになるように仮想点群データ25を配置してもよい。
また、例えば仮想点群追加部34は、図6Bに示すように、自車両1の直下の範囲に所定のマージンを加えた範囲42を、仮想点群データ25の生成範囲として設定してよい。
この場合、例えば仮想点群追加部34は、マージンが加えられた範囲42に等間隔に分布するように仮想点群データ25を配置してもよく、不均等に仮想点群データ25を配置してもよい。例えば、自車両1の直下の位置に近いほど密に、遠くなるほど疎らになるように仮想点群データ25を配置してもよい。また、自車両1の接地部位の位置に近いほど密に、遠くなるほど疎らになるように仮想点群データ25を配置してもよい。
See FIG. 6A. For example, the virtual point cloud adding unit 34 may assume that the road surface 24 under the host vehicle 1 is substantially flat, and may set the range 42 immediately below the host vehicle 1 as the generation range of the virtual point cloud data 25. . In this case, for example, the virtual point cloud adding unit 34 may arrange the virtual point cloud data 25 so as to be distributed at equal intervals in the range 42 directly below the own vehicle 1, or may arrange the virtual point cloud data 25 unevenly. You may. For example, the virtual point group data 25 may be arranged so that the closer it is to the position of the ground contact point of the own vehicle 1, the more dense it is, and the farther away it is, the more sparse it is.
Further, for example, the virtual point cloud adding unit 34 may set a range 42, which is the range immediately below the own vehicle 1 plus a predetermined margin, as the generation range of the virtual point cloud data 25, as shown in FIG. 6B.
In this case, for example, the virtual point cloud adding unit 34 may arrange the virtual point cloud data 25 so as to be distributed at equal intervals in the range 42 to which the margin has been added, or may arrange the virtual point cloud data 25 unevenly. It's okay. For example, the virtual point group data 25 may be arranged so that the closer it is to the position directly below the own vehicle 1, the more dense it is, and the farther away it is, the more sparse it is. Alternatively, the virtual point group data 25 may be arranged so that the closer it is to the ground contact point of the own vehicle 1, the more dense it is, and the farther away it is, the more sparse it is.

また図6Cに示すように、例えば自車両1が占める車幅方向の位置範囲に亘って延在し、自車両1の現在位置から後方に延びる範囲42に分布するように、仮想点群データ25を生成してよい。
この場合、例えば仮想点群追加部34は、後方に延びる範囲42に等間隔に分布するように仮想点群データ25を配置してもよく、不均等に仮想点群データ25を配置してもよい。例えば、自車両1の直下の位置に近いほど密に、遠くなるほど疎らになるように仮想点群データ25を配置してもよい。また、自車両1の接地部位の位置に近いほど密に、遠くなるほど疎らになるように仮想点群データ25を配置してもよい。
また例えば、仮想点群追加部34が、自車両1の直下の範囲42に仮想点群データ25を生成し、点群データ補正部33が、自車両1の移動量で仮想点群データ25を補正して蓄積することにより、図6Cに示す範囲42に分布する仮想点群データ25を生成してもよい。
Further, as shown in FIG. 6C, the virtual point group data 25 is distributed in a range 42 that extends over the widthwise position range occupied by the host vehicle 1 and extends rearward from the current position of the host vehicle 1, for example. may be generated.
In this case, for example, the virtual point cloud adding unit 34 may arrange the virtual point cloud data 25 so as to be distributed at equal intervals in the range 42 extending backward, or may arrange the virtual point cloud data 25 unevenly. good. For example, the virtual point group data 25 may be arranged so that the closer it is to the position directly below the own vehicle 1, the more dense it is, and the farther away it is, the more sparse it is. Alternatively, the virtual point group data 25 may be arranged so that the closer it is to the ground contact point of the own vehicle 1, the more dense it is, and the farther away it is, the more sparse it is.
Further, for example, the virtual point cloud adding unit 34 generates the virtual point cloud data 25 in the range 42 directly below the own vehicle 1, and the point cloud data correction unit 33 generates the virtual point cloud data 25 based on the amount of movement of the own vehicle 1. By correcting and accumulating, virtual point group data 25 distributed in a range 42 shown in FIG. 6C may be generated.

また仮想点群追加部34は、図7Aに示すように路面24に対する自車両1の接地部位の位置に、仮想点群データ25a及び25bを生成してよい。仮想点群追加部34は、自車両1への物体センサ11の取付位置に基づいて自車両1の接地部位の位置を算出する。
また仮想点群追加部34は、図7Bに示すように路面24に対する自車両1の接地部位の位置の軌跡が占める範囲42に分布するように、仮想点群データ25を生成してよい。
例えば、仮想点群追加部34が、自車両1の接地部位の位置に仮想点群データ25を生成し、点群データ補正部33が、自車両1の移動量で仮想点群データ25を補正して蓄積することにより、図7Bに示す範囲42に分布する仮想点群データ25を生成してよい。
Further, the virtual point group adding unit 34 may generate virtual point group data 25a and 25b at the position of the contact point of the own vehicle 1 with respect to the road surface 24, as shown in FIG. 7A. The virtual point group adding unit 34 calculates the position of the ground contact portion of the own vehicle 1 based on the attachment position of the object sensor 11 to the own vehicle 1.
Further, the virtual point group adding unit 34 may generate the virtual point group data 25 so that the virtual point group data 25 is distributed in a range 42 occupied by the locus of the position of the contact point of the host vehicle 1 with respect to the road surface 24, as shown in FIG. 7B.
For example, the virtual point cloud addition unit 34 generates virtual point cloud data 25 at the position of the ground contact area of the own vehicle 1, and the point cloud data correction unit 33 corrects the virtual point cloud data 25 based on the amount of movement of the own vehicle 1. The virtual point group data 25 distributed in the range 42 shown in FIG. 7B may be generated by accumulating the virtual point group data 25.

なお、仮想点群追加部34は、仮想点群データ25を生成する際に、点群データ取得部30が取得したセンサ点群データ21や、点群データ格納部31に蓄積されたセンサ点群データ21に、自車両1の位置推定に十分な路面24の点群データが含まれているか否かを判定してよい。
仮想点群追加部34は、十分な路面24の点群データがセンサ点群データ21に含まれていない場合に仮想点群データ25を生成(追加)し、十分な路面24の点群データがセンサ点群データ21に含まれている場合には、仮想点群データ25を生成(追加)しないか、または、生成する仮想点群データ25を低減してもよい。これにより、地図点群データと比較される仮想点群データ25が低減される。この結果、計算負荷を軽減できる。
Note that when generating the virtual point cloud data 25, the virtual point cloud adding unit 34 uses the sensor point cloud data 21 acquired by the point cloud data acquisition unit 30 and the sensor point cloud accumulated in the point cloud data storage unit 31. It may be determined whether the data 21 includes point cloud data of the road surface 24 sufficient for estimating the position of the own vehicle 1.
The virtual point cloud addition unit 34 generates (adds) virtual point cloud data 25 when sufficient point cloud data of the road surface 24 is not included in the sensor point cloud data 21, and adds sufficient point cloud data of the road surface 24 to the sensor point cloud data 21. If it is included in the sensor point group data 21, the virtual point group data 25 may not be generated (added), or the virtual point group data 25 to be generated may be reduced. This reduces the virtual point cloud data 25 to be compared with the map point cloud data. As a result, the calculation load can be reduced.

具体的には、仮想点群追加部34は、物体センサ11の取付位置から路面24までの高さHを求め,高さHとの高低差が一定値以下のセンサ点群データ21が所定数以上ある場合に、十分な路面24のセンサ点群データ21があると判定してよい。
または、センサ点群データ21を取得した範囲を等間隔の複数セルに分割し、各セルにおいてセンサ点群データ21が示す形状が水平面と平行か否かを判定し、センサ点群データ21が示す形状が水平面と平行であるセルが一定数以上ある場合に、十分な路面24のセンサ点群データ21があると判定してもよい。
Specifically, the virtual point cloud addition unit 34 calculates the height H from the mounting position of the object sensor 11 to the road surface 24, and selects a predetermined number of sensor point cloud data 21 whose height difference from the height H is less than or equal to a certain value. In the above cases, it may be determined that there is sufficient sensor point group data 21 of the road surface 24.
Alternatively, the range in which the sensor point cloud data 21 has been acquired is divided into a plurality of equally spaced cells, and in each cell it is determined whether the shape indicated by the sensor point cloud data 21 is parallel to the horizontal plane, and the shape indicated by the sensor point cloud data 21 is determined. If there is a certain number or more of cells whose shape is parallel to the horizontal plane, it may be determined that there is sufficient sensor point cloud data 21 of the road surface 24.

また、仮想点群追加部34は、仮想点群データ25を生成する際に、自車両1の直下の路面24の平面度を推定してよい。
仮想点群追加部34は、平面度が許容範囲にある場合(例えば平面度が閾値以上の場合)に仮想点群データ25を生成(追加)し、平面度が許容範囲にない場合(例えば平面度が閾値未満の場合)には、仮想点群データ25を生成(追加)しないか、または、生成する仮想点群データ25を低減してもよい。これにより、地図点群データと比較される仮想点群データ25が低減される。
このため、路面24が平坦であるとの仮定が成立しない個所で仮想点群データ25を生成することによる、位置推定の精度低下を防止できる。
Further, the virtual point cloud adding unit 34 may estimate the flatness of the road surface 24 directly below the host vehicle 1 when generating the virtual point cloud data 25.
The virtual point cloud adding unit 34 generates (adds) virtual point cloud data 25 when the flatness is within the allowable range (for example, when the flatness is equal to or higher than a threshold value), and when the flatness is not within the allowable range (for example, when the flatness is (if the degree is less than a threshold value), the virtual point group data 25 may not be generated (added), or the virtual point group data 25 to be generated may be reduced. This reduces the virtual point cloud data 25 to be compared with the map point cloud data.
Therefore, it is possible to prevent the accuracy of position estimation from decreasing due to generation of the virtual point group data 25 at a location where the assumption that the road surface 24 is flat does not hold.

例えば、仮想点群追加部34は、自車両1の直下の路面24の形状が平面近似できるかどうかを判断し、平面近似できないと判断した場合は、仮想点群データ25を生成しない、又は仮想点群データ25を低減してよい。
具体的には、仮想点群追加部34は、段差を乗り越えたか、近傍の路面24の曲率が十分小さいかに基づいて、平面近似できるか否かを判定してよい。仮想点群追加部34は、加速度センサなどにより鉛直方向に大きな加速度変化が生じたか否かによって段差の乗り越えを判断してよい。仮想点群追加部34は、鉛直方向加速度やピッチ角の時系列に基づいて路面24の曲率を推定してよい。
For example, the virtual point cloud addition unit 34 determines whether or not the shape of the road surface 24 directly below the own vehicle 1 can be approximated in a plane, and if it is determined that the shape cannot be approximated in a plane, it does not generate the virtual point cloud data 25 or The point cloud data 25 may be reduced.
Specifically, the virtual point group addition unit 34 may determine whether plane approximation is possible based on whether the step has been climbed over or whether the curvature of the nearby road surface 24 is sufficiently small. The virtual point group addition unit 34 may determine whether or not the step has been climbed based on whether a large change in acceleration has occurred in the vertical direction using an acceleration sensor or the like. The virtual point group addition unit 34 may estimate the curvature of the road surface 24 based on the time series of vertical acceleration and pitch angle.

位置推定部35は、センサ点群データ及び仮想点群データと、地図点群データと、を比較して自車両1の位置を推定する。以下、位置推定部35による位置推定の一例を説明する。
位置推定部35は、前回の処理サイクルで推定した自車両1の処理座標系上の位置(すなわち地図上の位置)を、移動量演算部32が演算した移動量で補正して自車両1の現在の仮位置を決定する。
The position estimation unit 35 estimates the position of the own vehicle 1 by comparing the sensor point cloud data, the virtual point cloud data, and the map point cloud data. An example of position estimation by the position estimation unit 35 will be described below.
The position estimating unit 35 corrects the position of the own vehicle 1 on the processing coordinate system estimated in the previous processing cycle (that is, the position on the map) by the movement amount calculated by the movement amount calculation unit 32, and calculates the position of the own vehicle 1. Determine the current temporary position.

位置推定部35は、自車両1の処理座標系上の位置が仮位置であると仮定して、センサ点群データ及び仮想点群データが示す相対位置情報を、処理座標系上の絶対位置情報に変換する。
図8に、処理座標系におけるセンサ点群データ21a、21b、…及び仮想点群データ25…の位置を示す。
位置推定部35は、センサ点群データ21a、21b、…及び仮想点群データ25…の各々に対応する地図点群データM1、M2、M3…の組合せを選択する。
The position estimation unit 35 assumes that the position of the host vehicle 1 on the processing coordinate system is a temporary position, and converts the relative position information indicated by the sensor point group data and the virtual point group data into absolute position information on the processing coordinate system. Convert to
FIG. 8 shows the positions of the sensor point group data 21a, 21b,... and the virtual point group data 25... in the processing coordinate system.
The position estimating unit 35 selects a combination of map point cloud data M1, M2, M3, . . . corresponding to each of the sensor point cloud data 21a, 21b, .

位置推定部35は、センサ点群データ21a、21b、…及び仮想点群データ25…と、地図点群データM1、M2、M3…との間の誤差の大きさ(距離)D1、D2、D3…を算出し、誤差の総和S=D1+D2+D3+…を算出する。
位置推定部35は、数値解析により、総和Sが最小となる地図点群データM1、M2、M3…の組合せと自車両1の位置及び姿勢を算出して、自車両1の現在位置(地図上の位置)の推定値として決定する。
The position estimating unit 35 calculates the error size (distance) D1, D2, D3 between the sensor point cloud data 21a, 21b,... and the virtual point cloud data 25... and the map point cloud data M1, M2, M3... ... is calculated, and the total error S=D1+D2+D3+... is calculated.
The position estimating unit 35 uses numerical analysis to calculate the combination of the map point cloud data M1, M2, M3, etc. that minimizes the sum S, and the position and orientation of the own vehicle 1, and determines the current position of the own vehicle 1 (on the map). position).

また、位置推定部35は、センサ点群データ21a、21b、…及び仮想点群データ25…と、地図点群データM1、M2、M3…との間の合致度(マッチング度)Dmを算出する。
例えば、位置推定部35は、最小の総和Sが小さいほど高い合致度Dmを算出してよい。例えば、位置推定部35は、最小の総和Sの減少関数に基づいて合致度Dmを算出してよい。また例えば位置推定部35は、最小の総和Sの増加関数の逆数(例えば最小の総和Sの逆数)を合致度Dmとして算出してよい。
Furthermore, the position estimation unit 35 calculates the matching degree Dm between the sensor point cloud data 21a, 21b, ... and the virtual point cloud data 25... and the map point cloud data M1, M2, M3... .
For example, the position estimation unit 35 may calculate a matching degree Dm that is higher as the minimum sum S is smaller. For example, the position estimation unit 35 may calculate the matching degree Dm based on a decreasing function of the minimum sum S. For example, the position estimation unit 35 may calculate the reciprocal of the increasing function of the minimum sum S (for example, the reciprocal of the minimum sum S) as the matching degree Dm.

実際には、位置推定部35は、既存のICP(iterative closest point)、NDT(Normal Distribution Transform)、やカルマンフィルタ、拡張カルマンフィルタ、粒子フィルタ、情報フィルタ、あるいは、ニュートン法、レーベンバーク・マルカート法などに基づいて、自車両1の現在位置の推定値と合致度Dmとを算出してよい。 In reality, the position estimation unit 35 uses existing ICP (iterative closest point), NDT (Normal Distribution Transform), Kalman filter, extended Kalman filter, particle filter, information filter, Newton method, Levenburg-Marquardt method, etc. Based on this, the estimated value of the current position of the own vehicle 1 and the matching degree Dm may be calculated.

仮想点群追加部34は、合致度Dmに応じて生成する仮想点群データ25の密度を調整して(変化させて)もよく、合致度Dmに応じて仮想点群データ25を生成する水平方向範囲の広さを調整して(変化させて)もよい。
例えば仮想点群追加部34は、合致度Dmが低いほど、生成する仮想点群データ25の密度を下げてよい。また、合致度Dmが低いほど、仮想点群データ25を生成する水平方向範囲を狭くしてもよい。
The virtual point cloud adding unit 34 may adjust (change) the density of the virtual point cloud data 25 to be generated according to the matching degree Dm, and may adjust (change) the density of the virtual point cloud data 25 to be generated according to the matching degree Dm. The width of the direction range may be adjusted (changed).
For example, the virtual point cloud adding unit 34 may lower the density of the generated virtual point cloud data 25 as the matching degree Dm is lower. Further, the lower the matching degree Dm, the narrower the horizontal range in which the virtual point group data 25 is generated.

合致度Dmが低い仮想点群データ25を多数生成すると、このような仮想点群データ25に過度にマッチングし、正しい推定を行うことができなくなるからである。また、仮想点群追加部34は、合致度Dmが所定値より低い場合に仮想点群データ25にノイズを加え、合致度Dmが引くほどノイズを増やしてもよい。このような方法によっても、合致度Dmが低い仮想点群データ25との過度のマッチングを抑制できる。
仮想点群データ25を生成する水平方向範囲を狭くする場合には、例えば車幅方向範囲を狭くしてよい。一般的な路面は、水はけのために路端に向かって表面高さが低くなるように形成されており、車幅方向に向かって自車両1の接地位置から離れるにつれて接地位置との高低差が増加するからである。
This is because if a large number of virtual point group data 25 with a low degree of matching Dm are generated, excessive matching will occur with such virtual point group data 25, making it impossible to perform accurate estimation. Further, the virtual point cloud adding unit 34 may add noise to the virtual point cloud data 25 when the matching degree Dm is lower than a predetermined value, and may increase the noise as the matching degree Dm decreases. Such a method can also suppress excessive matching with the virtual point group data 25 with a low matching degree Dm.
When narrowing the horizontal range in which the virtual point group data 25 is generated, for example, the vehicle width direction range may be narrowed. A typical road surface is formed so that the surface height decreases toward the road edge for water drainage, and the difference in height from the ground contact point increases as you move away from the ground contact point of your vehicle 1 in the vehicle width direction. This is because it increases.

仮想点群追加部34は、今回の処理サイクルで算出した合致度Dmに応じて、次回以降の処理サイクルで生成する仮想点群データ25の密度及び/又は水平方向範囲を調整しても(変化させても)よい。
または、仮想点群追加部34は、密度及び/又は水平方向範囲を調整して(変化させて)今回の処理サイクルで用いる仮想点群データ25を再度生成し、位置推定部35が位置推定をやり直してもよい。
また、合致度Dmに応じて仮想点群データ25の密度及び/又は水平方向範囲を小さくする場合には、位置推定部35は、生成済みの仮想点群データ25の中から位置推定に用いる仮想点群データ25を選択して、より小さな密度及び/又は水平方向範囲の仮想点群データ25を用いて位置推定をやり直してもよい。
The virtual point cloud addition unit 34 adjusts the density and/or horizontal range of the virtual point cloud data 25 to be generated in the next and subsequent processing cycles according to the matching degree Dm calculated in the current processing cycle (changes in You can let them do it).
Alternatively, the virtual point cloud addition unit 34 adjusts (changes) the density and/or horizontal range to generate the virtual point cloud data 25 again to be used in the current processing cycle, and the position estimation unit 35 performs position estimation. You can try again.
In addition, when reducing the density and/or horizontal range of the virtual point cloud data 25 according to the matching degree Dm, the position estimation unit 35 selects a virtual point cloud used for position estimation from among the generated virtual point cloud data 25. The point cloud data 25 may be selected and the position estimation redone using virtual point cloud data 25 with a smaller density and/or horizontal extent.

(動作)
次に図9を参照して、実施形態の位置推定方法の一例を説明する。
ステップS1において移動量演算部32は、前回の処理サイクルでセンサ点群データ21を取得した時点tpから今回の処理サイクルでセンサ点群データ21を取得する時点tcまでの自車両1の移動量を演算する。
(motion)
Next, an example of the position estimation method according to the embodiment will be described with reference to FIG.
In step S1, the movement amount calculation unit 32 calculates the movement amount of the host vehicle 1 from the time point tp at which the sensor point cloud data 21 was acquired in the previous processing cycle to the time point tc at which the sensor point cloud data 21 was acquired in the current processing cycle. calculate.

ステップS2において点群データ補正部33は、前回の処理サイクル及びそれ以前に(すなわち今回の処理サイクルでセンサ点群データ21を取得する時点tcよりも前に)取得され点群データ格納部31に格納されたセンサ点群データ21を、移動量演算部32が演算した移動量で補正して、点群データ格納部31に蓄積する。
ステップS3において点群データ取得部30は、物体センサ11からセンサ点群データ21を取得して、点群データ格納部31に格納する。
In step S2, the point cloud data correction unit 33 stores the data acquired in the previous processing cycle and before that (that is, before the time tc at which the sensor point cloud data 21 is acquired in the current processing cycle) into the point cloud data storage unit 31. The stored sensor point group data 21 is corrected by the movement amount calculated by the movement amount calculation section 32 and is stored in the point group data storage section 31.
In step S<b>3 , the point cloud data acquisition unit 30 acquires the sensor point cloud data 21 from the object sensor 11 and stores it in the point cloud data storage unit 31 .

ステップS4において点群データ補正部33は、点群データ格納部31に蓄積されたセンサ点群データ21に、自車両1の位置推定に十分な路面24の点群データが含まれているか否かを判定する。十分な路面24のセンサ点群データ21がある場合(ステップS4:Y)には、点群データ補正部33が仮想点群データ25を生成せずに、処理はステップS5へ進む。
ステップS5において位置推定部35は、センサ点群データ21と地図点群データとを比較して自車両1の位置を推定する。その後に処理はステップS10へ進む。
In step S4, the point cloud data correction unit 33 determines whether the sensor point cloud data 21 stored in the point cloud data storage unit 31 includes point cloud data of the road surface 24 sufficient for estimating the position of the host vehicle 1. Determine. If there is sufficient sensor point group data 21 of the road surface 24 (step S4: Y), the process proceeds to step S5 without the point group data correction unit 33 generating virtual point group data 25.
In step S5, the position estimation unit 35 compares the sensor point cloud data 21 and the map point cloud data to estimate the position of the own vehicle 1. Thereafter, the process proceeds to step S10.

一方で、ステップS4において十分な路面24のセンサ点群データ21がない場合(ステップS4:N)に処理はステップS6へ進む。
ステップS6において仮想点群追加部34は、自車両1の直下の路面24の平面度を推定し、平面度が許容範囲にあるか否かを判定する。平面度が許容範囲にない場合(ステップS6:N)に、点群データ補正部33が仮想点群データ25を生成せずに、処理はステップS5へ進む。
ステップS5において位置推定部35は、センサ点群データ21と地図点群データとを比較して自車両1の位置を推定する。その後に処理はステップS10へ進む。
On the other hand, if there is not enough sensor point cloud data 21 of the road surface 24 in step S4 (step S4: N), the process proceeds to step S6.
In step S6, the virtual point group addition unit 34 estimates the flatness of the road surface 24 directly below the host vehicle 1, and determines whether the flatness is within an allowable range. If the flatness is not within the allowable range (step S6: N), the point cloud data correction unit 33 does not generate the virtual point group data 25, and the process proceeds to step S5.
In step S5, the position estimation unit 35 compares the sensor point cloud data 21 and the map point cloud data to estimate the position of the own vehicle 1. Thereafter, the process proceeds to step S10.

一方で、ステップS6において平面度が許容範囲にある場合(ステップS6:Y)に処理はステップS7へ進む。
ステップS7において仮想点群追加部34は、自車両1への物体センサ11の取付位置に基づいて、自車両1が走行する路面24の位置を示す仮想点群データ25を仮想的に生成する。
ステップS8において位置推定部35は、センサ点群データ21及び仮想点群データ25と、地図点群データと、を比較して自車両1の位置を推定する。また、位置推定部35は、センサ点群データ21及び仮想点群データ25と、地図点群データとの間の合致度(マッチング度)Dmを算出する。
On the other hand, if the flatness is within the allowable range in step S6 (step S6: Y), the process proceeds to step S7.
In step S7, the virtual point cloud adding unit 34 virtually generates virtual point cloud data 25 indicating the position of the road surface 24 on which the host vehicle 1 travels, based on the attachment position of the object sensor 11 to the host vehicle 1.
In step S8, the position estimating unit 35 compares the sensor point cloud data 21 and the virtual point cloud data 25 with the map point cloud data to estimate the position of the host vehicle 1. Furthermore, the position estimating unit 35 calculates the degree of coincidence (matching degree) Dm between the sensor point cloud data 21 and the virtual point cloud data 25 and the map point cloud data.

ステップS9において仮想点群追加部34は、合致度Dmに応じて生成する仮想点群データ25の密度を調整する。及び/又は、合致度Dmに応じて仮想点群データ25を生成する水平方向範囲を調整する。その後に処理はステップS10へ進む。
ステップS10において位置推定装置10は、自車両1のイグニッションスイッチ(IGN)がオフになったか否かを判定する。イグニッションスイッチがオフにならない場合(ステップS10:N)に処理はステップS1に戻る。イグニッションスイッチがオフになった場合(ステップS10:Y)に処理は終了する。
In step S9, the virtual point cloud adding unit 34 adjusts the density of the generated virtual point cloud data 25 according to the matching degree Dm. And/or the horizontal range in which the virtual point cloud data 25 is generated is adjusted according to the matching degree Dm. Thereafter, the process proceeds to step S10.
In step S10, the position estimating device 10 determines whether the ignition switch (IGN) of the host vehicle 1 is turned off. If the ignition switch is not turned off (step S10: N), the process returns to step S1. If the ignition switch is turned off (step S10: Y), the process ends.

(実施形態の効果)
(1)点群データ取得部30は、自車両1に搭載された物体センサ11により自車両1の周囲の物体の自車両1に対する3次元位置情報である第1位置情報を取得する。仮想点群追加部34は、自車両1への物体センサ11の取付位置に基づいて、自車両1が走行する路面24の自車両1に対する3次元位置情報である第2位置情報を生成する。位置推定部35は、自車両1の周囲の物体及び自車両1が走行する路面の既知の3次元位置情報を有する地図情報と、第1位置情報及び第2位置情報とを比較して自車両1の位置を推定する。
(Effects of embodiment)
(1) The point cloud data acquisition unit 30 acquires first position information, which is three-dimensional position information of objects around the own vehicle 1 with respect to the own vehicle 1, using the object sensor 11 mounted on the own vehicle 1. The virtual point group addition unit 34 generates second position information that is three-dimensional position information of the road surface 24 on which the own vehicle 1 travels relative to the own vehicle 1 based on the attachment position of the object sensor 11 to the own vehicle 1 . The position estimation unit 35 compares the first position information and the second position information with map information having known three-dimensional position information of objects around the own vehicle 1 and the road surface on which the own vehicle 1 runs, and determines the position of the own vehicle. Estimate the position of 1.

これにより、第1位置情報のみを用いて自車両1の位置推定を行った場合には鉛直方向の自車両の位置や、ロール角、ピッチ角の推定精度が低くなっても、第1位置情報に加えて第2位置情報を用いて自車両1の位置を推定することにより、鉛直方向位置や、ロール角、ピッチ角の推定精度を向上できる。これにより、鉛直方向位置や、ロール角、ピッチ角の推定精度の低下を軽減できる。 As a result, even if the estimation accuracy of the vehicle's vertical position, roll angle, and pitch angle becomes low when the position of the own vehicle 1 is estimated using only the first position information, the first position information By estimating the position of the host vehicle 1 using the second position information in addition to the second position information, the accuracy of estimating the vertical position, roll angle, and pitch angle can be improved. This makes it possible to reduce deterioration in the estimation accuracy of the vertical position, roll angle, and pitch angle.

(2)仮想点群追加部34は、自車両1の接地部位の位置、自車両1の直下の範囲、自車両1の直下の範囲に所定のマージンを加えた範囲、又は自車両1が占める車幅方向の位置範囲の路面24の第2位置情報を生成する。
路面24が平坦である場合には、上記範囲において路面24の第2位置情報を精度良く生成することができる。この結果、鉛直方向位置や、ロール角、ピッチ角の推定精度を向上できる。
(2) The virtual point cloud addition unit 34 stores the position of the ground contact point of the vehicle 1, the range directly below the vehicle 1, the range directly below the vehicle 1 plus a predetermined margin, or the area occupied by the vehicle 1. Second position information of the road surface 24 in the position range in the vehicle width direction is generated.
When the road surface 24 is flat, the second position information of the road surface 24 can be generated with high accuracy within the above range. As a result, the accuracy of estimating the vertical position, roll angle, and pitch angle can be improved.

(3)移動量演算部32は、自車両1の移動量を取得する。点群データ補正部33は、移動量に基づいて第1位置情報を補正して点群データ格納部31に蓄積する。位置推定部35は、点群データ格納部31に蓄積した第1位置情報及び第2位置情報を地図情報と比較して自車両1の位置を推定する。
これにより、複数回の処理サイクルで取得した第1位置情報を用いて自車両1の位置を推定することが可能になるため、自車両1の位置の推定精度を向上できる。
(3) The movement amount calculation unit 32 obtains the movement amount of the own vehicle 1. The point cloud data correction section 33 corrects the first position information based on the amount of movement and stores it in the point cloud data storage section 31. The position estimating unit 35 compares the first position information and the second position information accumulated in the point cloud data storage unit 31 with map information to estimate the position of the own vehicle 1.
This makes it possible to estimate the position of the own vehicle 1 using the first position information acquired in a plurality of processing cycles, so that the accuracy of estimating the position of the own vehicle 1 can be improved.

(4)仮想点群追加部34は、物体センサ11により検出された路面24の第1位置情報が自車両1の位置推定に十分であるか否かを判定し、路面24の第1位置情報が自車両1の位置推定に十分である場合に、地図情報と比較する第2位置情報を低減する。
これにより、第1位置情報によって十分な精度で自車両1の位置を推定できれば、第2位置情報の生成、及び地図情報と第2位置情報との比較を省略して、処理負荷を軽減できる。
(4) The virtual point cloud addition unit 34 determines whether the first position information of the road surface 24 detected by the object sensor 11 is sufficient for estimating the position of the own vehicle 1, and determines whether the first position information of the road surface 24 is is sufficient for estimating the position of the host vehicle 1, the second position information to be compared with the map information is reduced.
Thereby, if the position of the host vehicle 1 can be estimated with sufficient accuracy using the first position information, the generation of the second position information and the comparison between the map information and the second position information can be omitted, thereby reducing the processing load.

(5)仮想点群追加部34は、路面の平面度を推定し、平面度が閾値未満の場合に地図情報と比較する第2位置情報を低減する。
これにより、路面24が平坦であるとの仮定が成立しない個所で生成した第2位置情報による位置推定の精度低下を防止できる。
(5) The virtual point cloud addition unit 34 estimates the flatness of the road surface, and reduces the second position information to be compared with the map information when the flatness is less than a threshold value.
Thereby, it is possible to prevent a decrease in the accuracy of position estimation based on the second position information generated at a location where the assumption that the road surface 24 is flat does not hold.

(6)位置推定部35は、第1位置情報及び第2位置情報と地図情報の合致度を算出する。仮想点群追加部34は、合致度が比較的低い場合には、合致度が比較的高い場合よりも、地図情報と比較する第2位置情報を生成する範囲又は密度を小さくする。
第2位置情報と地図情報の合致度が低い個所は、第2位置情報を生成するのに適していないと考えられる。したがって、このような箇所では地図情報と比較する第2位置情報を低減することで、合致度を向上させて位置測定の精度を向上できる。
(6) The position estimating unit 35 calculates the degree of matching between the first position information, the second position information, and the map information. When the degree of matching is relatively low, the virtual point cloud addition unit 34 makes the range or density of generating the second position information to be compared with the map information smaller than when the degree of matching is relatively high.
It is considered that locations where the degree of matching between the second location information and the map information is low are not suitable for generating the second location information. Therefore, in such locations, by reducing the second location information to be compared with the map information, the degree of matching can be improved and the accuracy of location measurement can be improved.

(7)物体センサ11は、自車両1の周囲の物体を水平方向に走査して第1位置情報を取得する。
本発明によれば、水平方向に走査する物体センサ11を用いて、鉛直方向に関する情報が縮退した第1位置情報を取得しても、鉛直方向の自車両1の位置の推定精度や、ロール角、ピッチ角の推定精度の低下を軽減できる。また、鉛直方向の位置精度等の低下に伴う水平方向の位置精度の低下も軽減できる。
(7) The object sensor 11 scans objects around the host vehicle 1 in the horizontal direction to obtain first position information.
According to the present invention, even if the object sensor 11 that scans in the horizontal direction is used to obtain first position information in which information regarding the vertical direction is degenerated, the accuracy of estimating the position of the own vehicle 1 in the vertical direction and the roll angle , it is possible to reduce the decrease in pitch angle estimation accuracy. Further, it is possible to reduce the decrease in positional accuracy in the horizontal direction due to the decrease in positional accuracy in the vertical direction.

1…自車両、10…位置推定装置、11…物体センサ、12…地図データベース、13…測位装置、14…車両センサ、15…コントローラ、16…プロセッサ、17…記憶装置、30…点群データ取得部、31…点群データ格納部、33…点群データ補正部、34…仮想点群追加部、35…位置推定部 DESCRIPTION OF SYMBOLS 1... Own vehicle, 10... Position estimation device, 11... Object sensor, 12... Map database, 13... Positioning device, 14... Vehicle sensor, 15... Controller, 16... Processor, 17... Storage device, 30... Point cloud data acquisition Section, 31...Point cloud data storage section, 33...Point cloud data correction section, 34...Virtual point cloud addition section, 35...Position estimation section

Claims (8)

自車両に搭載されたセンサにより前記自車両の周囲の物体の自車両に対する3次元位置情報である第1位置情報を取得し、
前記自車両への前記センサの取付位置に基づいて、前記自車両が走行する路面上の点の自車両に対する3次元位置情報である第2位置情報を生成し、
前記自車両の周囲の物体及び前記自車両が走行する路面上の点の既知の3次元位置情報を有する地図情報と、前記第1位置情報及び前記第2位置情報とを比較し
前記地図情報と前記第1位置情報及び前記第2位置情報との間の誤差の総和が小さくなるように前記自車両の位置を算出することにより、前記自車両の位置を推定する、
ことを特徴とする位置推定方法。
acquiring first position information that is three-dimensional position information of objects around the own vehicle with respect to the own vehicle using a sensor mounted on the own vehicle;
generating second position information that is three-dimensional position information of a point on the road surface on which the own vehicle travels relative to the own vehicle, based on the mounting position of the sensor on the own vehicle;
Comparing map information having known three-dimensional position information of objects around the own vehicle and points on the road surface on which the own vehicle travels with the first position information and the second position information ,
estimating the position of the own vehicle by calculating the position of the own vehicle so that the sum of errors between the map information, the first position information, and the second position information is small ;
A position estimation method characterized by:
前記自車両の接地部位の位置、前記自車両の直下の範囲、前記自車両の直下の範囲に所定のマージンを加えた範囲、又は前記自車両が占める車幅方向の位置範囲の路面の前記第2位置情報を生成することを特徴とする請求項1に記載の位置推定方法。 the position of the ground contact point of the host vehicle, the range directly below the host vehicle, the range directly below the host vehicle plus a predetermined margin, or the position range in the vehicle width direction occupied by the host vehicle; 2. The position estimation method according to claim 1, further comprising generating two position information. 前記自車両の移動量を取得し、
前記移動量に基づいて前記第1位置情報を補正して蓄積し、
前記第2位置情報及び蓄積した前記第1位置情報と前記地図情報とを比較して前記自車両の位置を推定する、
ことを特徴とする請求項1又は2に記載の位置推定方法。
Obtaining the amount of movement of the own vehicle;
correcting and accumulating the first position information based on the amount of movement;
estimating the position of the host vehicle by comparing the second position information and the accumulated first position information with the map information;
The position estimation method according to claim 1 or 2, characterized in that:
前記センサにより検出された前記路面の前記第1位置情報が前記自車両の位置推定に十分であるか否かを判定し、
前記路面の前記第1位置情報が前記自車両の位置推定に十分である場合に、前記地図情報と比較する前記第2位置情報を低減する、
ことを特徴とする請求項1~3の何れか一項に記載の位置推定方法。
determining whether the first position information of the road surface detected by the sensor is sufficient for estimating the position of the own vehicle;
reducing the second position information to be compared with the map information when the first position information of the road surface is sufficient for estimating the position of the own vehicle;
The position estimation method according to any one of claims 1 to 3, characterized in that:
前記路面の平面度を推定し、
前記平面度が閾値未満の場合に前記地図情報と比較する前記第2位置情報を低減する、
ことを特徴とする請求項1~4の何れか一項に記載の位置推定方法。
Estimating the flatness of the road surface,
reducing the second location information to be compared with the map information when the flatness is less than a threshold;
The position estimation method according to any one of claims 1 to 4, characterized in that:
前記第1位置情報及び前記第2位置情報と前記地図情報の合致度を算出し、
前記合致度が比較的低い場合には、前記合致度が比較的高い場合よりも、前記地図情報と比較する前記第2位置情報を生成する範囲又は密度を小さくする、
ことを特徴とする請求項1~5の何れか一項に記載の位置推定方法。
Calculating the degree of match between the first location information, the second location information, and the map information;
When the matching degree is relatively low, the range or density of generating the second location information to be compared with the map information is made smaller than when the matching degree is relatively high.
The position estimation method according to any one of claims 1 to 5, characterized in that:
前記センサは、前記自車両の周囲の物体を水平方向に走査して前記第1位置情報を取得することを特徴とする請求項1~6の何れか一項に記載の位置推定方法。 7. The position estimation method according to claim 1, wherein the sensor acquires the first position information by horizontally scanning objects around the host vehicle. 自車両に搭載されて、前記自車両の周囲の物体の自車両に対する3次元位置情報である第1位置情報を取得するセンサと、
前記自車両への前記センサの取付位置に基づいて、前記自車両が走行する路面上の点の自車両に対する3次元位置情報である第2位置情報を生成し、前記自車両の周囲の物体及び前記自車両が走行する路面上の点の既知の3次元位置情報を有する地図情報と、前記第1位置情報及び前記第2位置情報とを比較し、前記地図情報と前記第1位置情報及び前記第2位置情報との間の誤差の総和が小さくなるように前記自車両の位置を算出することにより、前記自車両の位置を推定するコントローラと、
を備えることを特徴とする位置推定装置。
a sensor that is mounted on the host vehicle and acquires first position information that is three-dimensional position information of objects around the host vehicle with respect to the host vehicle;
Based on the mounting position of the sensor on the host vehicle, second position information that is three-dimensional position information of a point on the road surface on which the host vehicle is traveling relative to the host vehicle is generated, and Map information having known three-dimensional position information of a point on the road surface on which the vehicle is traveling is compared with the first position information and the second position information , and the map information, the first position information, and the second position information are compared. a controller that estimates the position of the own vehicle by calculating the position of the own vehicle such that the sum of errors between the second position information and the second position information is small ;
A position estimation device comprising:
JP2019237812A 2019-12-27 2019-12-27 Position estimation method and position estimation device Active JP7408236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019237812A JP7408236B2 (en) 2019-12-27 2019-12-27 Position estimation method and position estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019237812A JP7408236B2 (en) 2019-12-27 2019-12-27 Position estimation method and position estimation device

Publications (2)

Publication Number Publication Date
JP2021105584A JP2021105584A (en) 2021-07-26
JP7408236B2 true JP7408236B2 (en) 2024-01-05

Family

ID=76918751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019237812A Active JP7408236B2 (en) 2019-12-27 2019-12-27 Position estimation method and position estimation device

Country Status (1)

Country Link
JP (1) JP7408236B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7412651B1 (en) 2023-03-01 2024-01-12 三菱電機株式会社 Point cloud joining device, point cloud joining method, point cloud joining program, and measurement vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199333A1 (en) 2016-05-17 2017-11-23 パイオニア株式会社 Information output device, terminal device, control method, program, and storage medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199333A1 (en) 2016-05-17 2017-11-23 パイオニア株式会社 Information output device, terminal device, control method, program, and storage medium

Also Published As

Publication number Publication date
JP2021105584A (en) 2021-07-26

Similar Documents

Publication Publication Date Title
CA3028659C (en) Systems and methods for identifying and positioning objects around a vehicle
US11525682B2 (en) Host vehicle position estimation device
CN107016705B (en) Ground plane estimation in computer vision systems
JP6350374B2 (en) Road surface detection device
CN112415502B (en) Radar apparatus
WO2018061084A1 (en) Self-position estimation method and self-position estimation device
JP7349561B2 (en) Map information correction method, driving support method, and map information correction device
WO2018212292A1 (en) Information processing device, control method, program and storage medium
CN115144825A (en) External parameter calibration method and device for vehicle-mounted radar
WO2021011185A1 (en) Robust localization
KR20180038154A (en) Method for vehicle pose estimation using LiDAR
JP2019096132A (en) Object recognition device
KR20200028648A (en) Method for adjusting an alignment model for sensors and an electronic device performing the method
JP2020071122A (en) Own vehicle position estimation device
KR101487471B1 (en) System of correcting absolute positioning for the vehicle and method thereof
JP2018189463A (en) Vehicle position estimating device and program
US20220205804A1 (en) Vehicle localisation
JP7408236B2 (en) Position estimation method and position estimation device
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
CN115298564A (en) Radar apparatus
WO2022202915A1 (en) Autonomous traveling vehicle, and own-position estimating method for autonomous traveling vehicle
US11477371B2 (en) Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method
WO2022133986A1 (en) Accuracy estimation method and system
JP2018185156A (en) Target position estimation method and target position estimation device
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231219

R150 Certificate of patent or registration of utility model

Ref document number: 7408236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150