JP7448945B2 - 3D map generation method and 3D map generation device - Google Patents

3D map generation method and 3D map generation device Download PDF

Info

Publication number
JP7448945B2
JP7448945B2 JP2020090099A JP2020090099A JP7448945B2 JP 7448945 B2 JP7448945 B2 JP 7448945B2 JP 2020090099 A JP2020090099 A JP 2020090099A JP 2020090099 A JP2020090099 A JP 2020090099A JP 7448945 B2 JP7448945 B2 JP 7448945B2
Authority
JP
Japan
Prior art keywords
plane
map
dimensional
error
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020090099A
Other languages
Japanese (ja)
Other versions
JP2021184069A (en
Inventor
ムハンマド・アムル・アッディバージャ
直樹 菅沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanazawa University NUC
Original Assignee
Kanazawa University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanazawa University NUC filed Critical Kanazawa University NUC
Priority to JP2020090099A priority Critical patent/JP7448945B2/en
Publication of JP2021184069A publication Critical patent/JP2021184069A/en
Application granted granted Critical
Publication of JP7448945B2 publication Critical patent/JP7448945B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 令和1年5月23日に、The 30th IEEE Intelligent Vehicles Symposiumのウェブサイト(https://iv2019.org/program/)にて講演要旨が掲載 令和1年6月8日に、The 30th IEEE Intelligent Vehicles Symposiumにて配布による公開 令和1年6月10日に、The 30th IEEE Intelligent Vehicles Symposiumにて発表Application of Article 30, Paragraph 2 of the Patent Act On May 23, 2020, the abstract of the lecture will be posted on the website of The 30th IEEE Intelligent Vehicles Symposium (https://iv2019.org/program/). Published by distribution at The 30th IEEE Intelligent Vehicles Symposium on June 8th Presented at The 30th IEEE Intelligent Vehicles Symposium on June 10th, 2020

本発明は、3次元マップ生成方法及び3次元マップ生成装置に関し、特に、自律走行車両のための3次元マップを生成する技術に関する。 The present invention relates to a three-dimensional map generation method and a three-dimensional map generation device, and particularly relates to a technique for generating a three-dimensional map for an autonomous vehicle.

車両の安全な自律走行を可能にするためには、精度の高い3次元マップが必要である。GNSS(Global Navigation Satellite System;汎地球測位航法衛星システム)を用いることで、高い精度での測位が可能であるが、高いコストが必要とされるだけでなく、長いトンネル内、木が密集している箇所、高い建物が多い箇所等では、衛星信号が偏向されたり妨げられたりするため、精度の高い地図の生成が困難となる。このような問題を解決しない場合には、多大な時間、データ及びコストを失って、自律走行している車両をドリフトさせて交通事故を招く恐れがある危険なマップを生成してしまうことになり得る。 Highly accurate three-dimensional maps are necessary to enable safe autonomous driving of vehicles. Highly accurate positioning is possible using GNSS (Global Navigation Satellite System), but not only is it expensive, but it can also be used in long tunnels and densely packed trees. In areas where there are many tall buildings, satellite signals may be deflected or obstructed, making it difficult to generate highly accurate maps. If these issues are not resolved, a significant amount of time, data and money will be lost and dangerous maps will be generated that could cause autonomous vehicles to drift and cause accidents. obtain.

そこで、従来、走行する車両に搭載したLiDAR(Light Detection and Ranging)から取得した3次元距離画像を示すポイントクラウド(point clouds)に対してSLAM(Simultaneous Localization And Mapping;同時位置推定と地図生成)を実行することでマップを生成する技術が提案されている(特許文献1参照)。 Therefore, conventionally, SLAM (Simultaneous Localization And Mapping) has been applied to point clouds representing 3D distance images obtained from LiDAR (Light Detection and Ranging) mounted on a moving vehicle. A technique has been proposed that generates a map by executing it (see Patent Document 1).

特開2019-207220号公報JP2019-207220A

しかしながら、特許文献1の技術では、ポイントクラウドを用いた3次元画像を伴うマップを生成するものであり、正確なグローバルポジション(XY面での位置)と正確な標高(Z面での位置)を示す位置精度の高い3次元マップを生成するものではない。 However, the technology of Patent Document 1 generates a map with a three-dimensional image using a point cloud, and it is difficult to determine the accurate global position (position on the XY plane) and accurate elevation (position on the Z plane). It does not generate a three-dimensional map with high positional accuracy.

より詳しくは、特許文献1の技術は、ポイントクラウドを用いてSLAMに基づいてマップを生成しているが、実装に関しては非常に複雑である。これは、ポイントクラウドを用いて環境の3次元形状を表すからである。ポイントクラウドは、データサイズがきわめて大きく、長いコースを処理する際には大きな負荷となる。さらに、ポイントクラウドは、車両やその他の動的オブジェクトをマップで表すため、特にZ方向のトラフィックの流れの影響を受ける。さらに、SLAMで良好な結果を得るための最も重要な解決策として、環境機能を利用して位置誤差を補正しているが、ポイントクラウドは非常にスパースであり、2つポイントクラウドを一致させることによってエラーを補正できる可能性は低い。さらに、ポイントクラウドのスパース性のため、反復マッチング手法を使用する必要があるが、そのような手法は、時間の消費という点で非常にコストのかかるプロセスになる。 More specifically, the technique of Patent Document 1 uses a point cloud to generate a map based on SLAM, but it is very complicated to implement. This is because a point cloud is used to represent the three-dimensional shape of the environment. Point clouds have extremely large data sizes, which creates a heavy load when processing long courses. Additionally, point clouds map vehicles and other dynamic objects and are therefore particularly affected by traffic flow in the Z direction. Moreover, the most important solution to obtain good results in SLAM is to use environmental features to correct the position error, but the point cloud is very sparse, and it is difficult to match two point clouds. It is unlikely that the error can be corrected by Furthermore, due to the sparsity of point clouds, it is necessary to use iterative matching techniques, which becomes a very expensive process in terms of time consumption.

そこで、本発明は、位置精度の高い3次元マップを生成する3次元マップ生成方法及び3次元マップ生成装置を提供することを目的とする。 Therefore, an object of the present invention is to provide a three-dimensional map generation method and a three-dimensional map generation device that generate a three-dimensional map with high positional accuracy.

上記目的を達成するために、本発明の一形態に係る3次元マップ生成方法は、車両に搭載され、道路を含む環境を検出するLiDARから取得したポイントクラウドから、道路を含む地表面を表す強度画像のフレームで構成されるXY面マップ及び前記強度画像を構成する画素の標高を示す標高画像のフレームで構成されるZ面マップを含む3次元データを生成する3次元データ生成ステップと、生成された前記3次元データにおける位置誤差を削減することで、3次元マップを生成するマップ生成ステップとを含み、前記マップ生成ステップは、前記XY面マップに対してグラフSLAM(Simultaneous Localization and Mapping)を実行することで、XY面での位置誤差を削減するXY面誤差削減ステップと、前記XY面誤差削減ステップによって位置誤差が削減された前記XY面マップに対応する前記Z面マップに対してグラフSLAMを実行することで、Z面での位置誤差を削減するZ面誤差削減ステップとを含む。 In order to achieve the above object, a three-dimensional map generation method according to one embodiment of the present invention uses a point cloud obtained from LiDAR that is mounted on a vehicle and detects an environment including roads. a three-dimensional data generation step of generating three-dimensional data including an XY-plane map composed of image frames and a Z-plane map composed of elevation image frames indicating the elevation of pixels constituting the intensity image; a map generation step of generating a three-dimensional map by reducing positional errors in the three-dimensional data, and the map generation step includes performing graph SLAM (Simultaneous Localization and Mapping) on the XY plane map. By doing so, a graph SLAM is applied to the XY plane error reduction step for reducing the positional error in the XY plane and the Z plane map corresponding to the XY plane map whose positional error has been reduced by the XY plane error reduction step. and a Z-plane error reduction step of reducing a positional error in the Z-plane by executing the method.

また、上記目的を達成するために、本発明の一形態に係る3次元マップ生成装置は、車両に搭載され、道路を含む環境を検出するLiDARから取得したポイントクラウドから、道路を含む地表面を表す強度画像のフレームで構成されるXY面マップ及び前記強度画像を構成する画素の標高を示す標高画像のフレームで構成されるZ面マップを含む3次元データを生成する3次元データ生成部と、生成された前記3次元データにおける位置誤差を削減することで、3次元マップを生成するマップ生成部とを備え、前記マップ生成部は、前記XY面マップに対してグラフSLAM(Simultaneous Localization and Mapping)を実行することで、XY面での位置誤差を削減するXY面誤差削減部と、前記XY面誤差削減部によって位置誤差が削減された前記XY面マップに対応する前記Z面マップに対してグラフSLAMを実行することで、Z面での位置誤差を削減するZ面誤差削減部とを有する。 In addition, in order to achieve the above object, a three-dimensional map generation device according to one embodiment of the present invention generates a ground surface including roads from a point cloud obtained from LiDAR that is mounted on a vehicle and detects an environment including roads. a three-dimensional data generation unit that generates three-dimensional data including an XY-plane map composed of a frame of an intensity image representing the intensity image, and a Z-plane map composed of a frame of an elevation image indicating the elevation of pixels constituting the intensity image; a map generation unit that generates a three-dimensional map by reducing positional errors in the generated three-dimensional data, and the map generation unit performs graph SLAM (Simultaneous Localization and Mapping) on the XY plane map. By performing It has a Z-plane error reduction unit that reduces positional errors on the Z-plane by executing SLAM.

本発明により、位置精度の高い3次元マップを生成する3次元マップ生成方法及び3次元マップ生成装置が提供される。 The present invention provides a three-dimensional map generation method and a three-dimensional map generation device that generate a three-dimensional map with high positional accuracy.

図1は、実施の形態に係る3次元マップ生成装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a three-dimensional map generation device according to an embodiment. 図2は、実施の形態に係る3次元マップ生成装置の動作手順を示すフローチャートである。FIG. 2 is a flowchart showing the operation procedure of the three-dimensional map generation device according to the embodiment. 図3は、3次元マップの生成に用いられた車両の外観、及び、車両に搭載されたLiDARから取得されるポイントクラウドの例を示す図である。FIG. 3 is a diagram showing an example of the appearance of a vehicle used to generate a three-dimensional map and a point cloud obtained from LiDAR installed in the vehicle. 図4は、3次元データ生成部が生成する強度画像のフレーム及び標高画像のフレームの例を示す図である。FIG. 4 is a diagram illustrating an example of an intensity image frame and an elevation image frame generated by the three-dimensional data generation unit. 図5は、推測航法によりフレームを蓄積していく3次元データ生成部による処理を説明する図である。FIG. 5 is a diagram illustrating processing by a three-dimensional data generation unit that accumulates frames by dead reckoning. 図6は、3次元データ生成部によって生成されたXY面マップの例を示す図である。FIG. 6 is a diagram showing an example of an XY plane map generated by the three-dimensional data generation section. 図7は、3次元データ生成部によって生成されたZ面マップの例を示す図である。FIG. 7 is a diagram showing an example of a Z-plane map generated by the three-dimensional data generation section. 図8は、3次元データ生成部によって生成される3次元データの例を示す図である。FIG. 8 is a diagram showing an example of three-dimensional data generated by the three-dimensional data generation section. 図9は、3次元データ生成部が行うグラフSLAMのループ閉鎖を説明する図である。FIG. 9 is a diagram illustrating loop closure of graph SLAM performed by the three-dimensional data generation unit. 図10は、XY面誤差削減部による位相相関処理を説明する図である。FIG. 10 is a diagram illustrating phase correlation processing by the XY plane error reduction section. 図11は、コスト関数で評価される一貫性を説明する図である。FIG. 11 is a diagram illustrating consistency evaluated using a cost function. 図12は、コスト関数で評価されるコヒーレンシを説明する図である。FIG. 12 is a diagram illustrating coherency evaluated using a cost function. 図13は、コスト関数で評価される正確性を説明する図である。FIG. 13 is a diagram illustrating accuracy evaluated using a cost function. 図14は、図2のステップS12c及びS13bの処理をまとめた図である。FIG. 14 is a diagram summarizing the processing of steps S12c and S13b in FIG. 2. 図15Aは、図14に示される処理手順によるメリットを説明する図である。FIG. 15A is a diagram illustrating the merits of the processing procedure shown in FIG. 14. 図15Bは、図14に示される処理手順によるメリットを説明する別の図である。FIG. 15B is another diagram illustrating the advantages of the processing procedure shown in FIG. 14. 図16は、実験に用いた車両の走行軌跡を示す図である。FIG. 16 is a diagram showing the traveling trajectory of the vehicle used in the experiment. 図17は、3次元マップ生成装置が生成したXY面マップの位置精度の高さを示す図である。FIG. 17 is a diagram showing the high positional accuracy of the XY plane map generated by the three-dimensional map generation device. 図18は、木が密集している箇所において3次元マップ生成装置が生成したXY面マップとGNSSを用いて生成したXY面マップとの比較を示す図である。FIG. 18 is a diagram showing a comparison between an XY plane map generated by a three-dimensional map generation device and an XY plane map generated using GNSS in a place where trees are densely populated. 図19は、3次元マップ生成装置が生成したZ面マップの位置精度の高さを示す図である。FIG. 19 is a diagram showing the high positional accuracy of the Z-plane map generated by the three-dimensional map generation device. 図20は、図18に示される木が密集している箇所において3次元マップ生成装置が生成したZ面マップとGNSSを用いて生成したZ面マップとの比較を示す図である。FIG. 20 is a diagram showing a comparison between the Z-plane map generated by the three-dimensional map generation device and the Z-plane map generated using GNSS in the area where trees are densely arranged as shown in FIG. 18.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示す。以下の実施の形態で示される数値、形状、手法、構成要素、構成要素の接続形態、ステップ、ステップの順序等は、一例であり、本発明を限定する主旨ではない。また、各図において、実質的に同一の構成については同一の符号を付し、重複する説明は省略又は簡略化する場合がある。また、本明細書において、GNSS及びGPS(Global Positioning System)は、GNSS/INS-RTK(GNSS-aided Inertial Navigation System-Real Time Kinematic)を意味する。 Hereinafter, embodiments of the present invention will be described in detail using the drawings. Note that each of the embodiments described below represents a specific example of the present invention. Numerical values, shapes, methods, components, connection forms of components, steps, order of steps, etc. shown in the following embodiments are merely examples, and do not limit the present invention. Further, in each figure, substantially the same configurations are denoted by the same reference numerals, and overlapping explanations may be omitted or simplified. Furthermore, in this specification, GNSS and GPS (Global Positioning System) mean GNSS/INS-RTK (GNSS-aided Inertial Navigation System-Real Time Kinematic).

図1は、実施の形態に係る3次元マップ生成装置10の構成を示すブロック図である。3次元マップ生成装置10は、道路を走行する車両に搭載されたLiDAR11及びGPS12から、それぞれ、ポイントクラウド及び測位データを取得することで、XY面マップ及びZ面マップを含む3次元データを生成する3次元データ生成部13と、生成された3次元データにおける位置誤差を削減することで3次元マップ15を生成するマップ生成部14とを備える。 FIG. 1 is a block diagram showing the configuration of a three-dimensional map generation device 10 according to an embodiment. The three-dimensional map generation device 10 generates three-dimensional data including an XY-plane map and a Z-plane map by acquiring a point cloud and positioning data from a LiDAR 11 and a GPS 12 mounted on a vehicle running on a road, respectively. It includes a three-dimensional data generation section 13 and a map generation section 14 that generates a three-dimensional map 15 by reducing positional errors in the generated three-dimensional data.

3次元データ生成部13は、LiDARから取得したポイントクラウドから、道路を含む地表面を表す強度画像(つまり、輝度画像)のフレームで構成されるXY面マップ及び強度画像を構成する画素の標高を示す標高画像のフレームで構成されるZ面マップを含む3次元データを生成する。 The three-dimensional data generation unit 13 generates an XY plane map consisting of frames of intensity images (that is, brightness images) representing the ground surface including roads and the elevation of pixels forming the intensity images from the point cloud obtained from LiDAR. Three-dimensional data including a Z-plane map made up of frames of elevation images shown is generated.

マップ生成部14は、3次元データ生成部13で生成された3次元データのXY面マップに対して、グラフをベースとするSLAM(以下、グラフSLAMという)を実行することで、XY面での位置誤差を削減するXY面誤差削減部14aと、XY面誤差削減部14aによって位置誤差が削減されたXY面マップに対応するZ面マップに対して、グラフSLAMを実行することで、Z面での位置誤差を削減するZ面誤差削減部14bとを有する。 The map generation unit 14 executes graph-based SLAM (hereinafter referred to as graph SLAM) on the XY plane map of the three-dimensional data generated by the three-dimensional data generation unit 13, thereby generating a map in the XY plane. By executing graph SLAM on the XY plane error reduction unit 14a that reduces positional errors and the Z plane map corresponding to the XY plane map whose positional error has been reduced by the XY plane error reduction unit 14a, and a Z-plane error reduction unit 14b that reduces positional errors.

なお、3次元データ生成部13及びマップ生成部14は、データ処理を実行する機能ブロックであり、プログラムを格納する不揮発性メモリ、データを一時的に格納する揮発性メモリ、プログラムを実行するプロセッサ、周辺装置との入出力を行う入出力インタフェース等を備えるコンピュータ装置によって実現される。 Note that the three-dimensional data generation unit 13 and the map generation unit 14 are functional blocks that execute data processing, and include a nonvolatile memory that stores a program, a volatile memory that temporarily stores data, a processor that executes the program, This is realized by a computer device equipped with an input/output interface for inputting/outputting data to/from peripheral devices.

図2は、実施の形態に係る3次元マップ生成装置10の動作手順(つまり、3次元マップ生成方法)を示すフローチャートである。 FIG. 2 is a flowchart showing the operation procedure (that is, the three-dimensional map generation method) of the three-dimensional map generation device 10 according to the embodiment.

[図2のステップS10]
まず、3次元データ生成部13は、道路を走行する車両に搭載されたLiDAR11及びGPS12から、それぞれ、ポイントクラウド及び測位データを取得する(S10)。
[Step S10 in FIG. 2]
First, the three-dimensional data generation unit 13 acquires a point cloud and positioning data from the LiDAR 11 and GPS 12 mounted on a vehicle traveling on a road, respectively (S10).

図3は、3次元マップの生成に用いられた車両20の外観(図3の(a))、及び、車両20に搭載されたLiDAR11から取得されるポイントクラウドの例(図3の(b))を示す図である。 FIG. 3 shows an external appearance of the vehicle 20 used to generate the three-dimensional map ((a) in FIG. 3) and an example of a point cloud obtained from the LiDAR 11 mounted on the vehicle 20 ((b) in FIG. 3). ).

[図2のステップS11]
次に、3次元データ生成部13は、LiDAR11及びGPS12から取得したポイントクラウド及び測位データから、ノードの連結からなる3次元データを生成する(図のS11)。より詳しくは、3次元データ生成部13は、LiDAR11から取得したポイントクラウドから、道路を含む地表面を表す強度画像のフレーム及び強度画像を構成する画素の標高を示す標高画像のフレームを生成する。そして、3次元データ生成部13は、所定の矩形領域における強度画像のフレームを連結したものをXY面マップとし、強度画像に対応する標高画像のフレームを連結したものをZ面マップとし、XY面マップとZ面マップとの組をノードとする複数のノードの連結を3次元データとして生成する。このとき、3次元データ生成部13は、複数のノードのそれぞれに対して、対応するXY面マップが示す矩形領域の特定のコーナーのグローバルポジションを識別子として付与する。
[Step S11 in FIG. 2]
Next, the three-dimensional data generation unit 13 generates three-dimensional data consisting of a connection of nodes from the point cloud and positioning data acquired from the LiDAR 11 and the GPS 12 (S11 in the figure). More specifically, the three-dimensional data generation unit 13 generates, from the point cloud obtained from the LiDAR 11, an intensity image frame representing the ground surface including roads and an elevation image frame indicating the altitude of pixels forming the intensity image. The three-dimensional data generation unit 13 then creates an XY-plane map by connecting frames of intensity images in a predetermined rectangular area, a Z-plane map by connecting frames of elevation images corresponding to the intensity images, and generates a Z-plane map by connecting frames of intensity images corresponding to the intensity images. A connection of a plurality of nodes each having a set of a map and a Z-plane map as a node is generated as three-dimensional data. At this time, the three-dimensional data generation unit 13 assigns the global position of a specific corner of the rectangular area indicated by the corresponding XY plane map to each of the plurality of nodes as an identifier.

より詳しくは、3次元データ生成部13は、複数のノードのそれぞれについて、車両20に搭載されたGPS12から初期位置を取得し、取得された初期位置を基準としてフレームを蓄積していく推測航法(Dead-Reckoning)により、当該ノードのXY面マップ及びZ面マップを生成する。 More specifically, the three-dimensional data generation unit 13 acquires the initial position of each of the plurality of nodes from the GPS 12 mounted on the vehicle 20, and performs dead reckoning (dead reckoning) in which frames are accumulated based on the acquired initial position. (Dead-Reckoning) to generate an XY plane map and a Z plane map of the node.

このように、環境を表すために、3次元ポイント分布パターンを用いるのではなく、道路の輝度画像を使用している。輝度画像は、道路のランドマークが静止しており、Z方向の車両表現などの動的オブジェクトの影響を受けずに位置誤差を補正するために利用できる非常に目立つパターンを形成しているからである。そして、グラフSLAMの適用を2つのフェーズに分割している。一つは、XY平面であり、もう一つは、Z平面である。XY平面では、路面とランドマークは、輝度値を用いて、ノード戦略に基づいて広い領域におけるLIDARフレームが蓄積されることから、非常に密(30cmで)にエンコードされる。これは、1つのまばらなポイントクラウドを使用する代わりに、環境機能を活用するという非常に重要な点である。ノードの輝度画像により、XY平面内のノード間の位置誤差を大幅に補正できる。したがって、XY平面にグラフSLAMを適用し、グローバル座標系でのノードの輝度画像の位置を最適化する。その結果、最適化されたノードの標高画像はXY平面で移動される。したがって、一部の領域を共有するノードは、実際の環境と同じ環境を表すため、同じZレベルにある必要があるので、Z平面での位置誤差を補正するために、標高画像にグラフSLAMが適用される。 In this way, instead of using a three-dimensional point distribution pattern, a brightness image of the road is used to represent the environment. Intensity images are useful because road landmarks are stationary and form highly visible patterns that can be used to correct position errors without being influenced by dynamic objects such as vehicle representations in the Z direction. be. Then, the application of graph SLAM is divided into two phases. One is the XY plane and the other is the Z plane. In the XY plane, road surfaces and landmarks are encoded very densely (at 30 cm) using luminance values, since LIDAR frames in large areas are accumulated based on a node strategy. This is a very important point to leverage environmental features instead of using one sparse point cloud. The brightness image of the nodes allows for significant correction of positional errors between nodes in the XY plane. Therefore, graph SLAM is applied on the XY plane to optimize the position of the brightness image of the node in the global coordinate system. As a result, the optimized node elevation image is moved in the XY plane. Therefore, nodes that share some area should be at the same Z level to represent the same environment as the real one, so a graph SLAM is applied to the elevation image to compensate for the position error in the Z plane. Applicable.

図4は、3次元データ生成部13が生成する強度画像のフレーム(図4の(a))及び標高画像のフレーム(図4の(b))の例を示す図である。3次元データ生成部13は、LiDAR11から取得したポイントクラウドに対して地表面から30cmの高さでカットすることで、道路を含む地表面を表す強度画像のフレームを生成する。 FIG. 4 is a diagram showing an example of an intensity image frame (FIG. 4(a)) and an elevation image frame (FIG. 4(b)) generated by the three-dimensional data generation unit 13. The three-dimensional data generation unit 13 generates an intensity image frame representing the ground surface including roads by cutting the point cloud obtained from the LiDAR 11 at a height of 30 cm from the ground surface.

図5は、推測航法によりフレームを蓄積していく3次元データ生成部13による処理を説明する図である。ここには、車両20の位置の例(「Vehicle Position」)、LiDAR11から取得したポイントクラウドが示す道路、道路の端(「Road edge」)、縁石(Curbs)、フレーム(「One LIDAR Frame」、「1st LIDAR Frame in Node」)の例が示されている。 FIG. 5 is a diagram illustrating processing by the three-dimensional data generation unit 13 that accumulates frames by dead reckoning. Here, an example of the position of the vehicle 20 ("Vehicle Position"), the road indicated by the point cloud obtained from LiDAR 11, the edge of the road ("Road edge"), the curb (Curbs), the frame ("One LIDAR Frame", An example of "1 st LIDAR Frame in Node" is shown.

3次元データ生成部13は、下記式1に示されるように、GPS12から得られる位置を初期位置とし、その初期位置に対して差分としてのフレームを蓄積(つまり、連結)していくことで、例えば、約200mの道路を含む矩形領域のノードを構成するXY面マップ及びZ面マップを生成する。 As shown in equation 1 below, the three-dimensional data generation unit 13 takes the position obtained from the GPS 12 as the initial position, and accumulates (that is, concatenates) frames as differences with respect to the initial position. For example, an XY plane map and a Z plane map are generated that constitute nodes of a rectangular area including a road of about 200 m.

Figure 0007448945000001
Figure 0007448945000001

ここで、XYDR は、時刻tにおける車両20のXY面マップでの位置を示し、g(v,xyDR t-1)は、その位置を算出する関数を示し、vは、車両20の速度を示し、xyDR t-1は、時刻(t-1)における車両20のXY面マップでの位置を示し、Δtは、直前の位置からの経過時間を示す。また、ZDR は、時刻tにおける車両20のZ面マップでの位置を示し、g(v,zDR t-1)は、その位置を算出する関数を示し、zDR t-1は、時刻(t-1)における車両20のZ面マップでの位置を示す。 Here, XY DR t indicates the position of the vehicle 20 on the XY plane map at time t, g (v t , xy DR t-1 ) indicates a function for calculating the position, and v t indicates the position of the vehicle 20 on the XY plane map at time t. 20, xy DR t-1 indicates the position of the vehicle 20 on the XY plane map at time (t-1), and Δt indicates the elapsed time from the previous position. Further, Z DR t indicates the position of the vehicle 20 on the Z-plane map at time t, g (v t , z DR t-1 ) indicates a function for calculating the position, and z DR t-1 is , indicates the position of the vehicle 20 on the Z-plane map at time (t-1).

このような矩形領域のノード(XY面マップ及びZ面マップ)の生成は、複数のノード分だけ繰り返される。 The generation of such rectangular area nodes (XY plane map and Z plane map) is repeated for a plurality of nodes.

このように、GNSSを使用して車両の位置を推定する代わりに、衛星信号の精度が低いために生じ得るローカルジャンプを回避するために、推測航法を使用して各ノード内のLIDARフレームを蓄積する。推測航法によって、各ノード内で非常にスムーズな車両軌道が実現される。よって、LIDARフレームはスムーズに蓄積され、各ノード内の道路状況が保持される。 Thus, instead of using GNSS to estimate the vehicle's position, dead reckoning is used to accumulate LIDAR frames within each node to avoid local jumps that can occur due to low accuracy of satellite signals. do. Dead reckoning provides a very smooth vehicle trajectory within each node. Therefore, LIDAR frames are accumulated smoothly and road conditions within each node are maintained.

図6は、3次元データ生成部13によって生成されるXY面マップの例を示す図である。図6の(a)及び(b)に示される2つのノードのXY面マップは、車両20の走行軌跡におけるXYグローバル座標系でのトップレフトコーナーの位置(各図に示される「Xmin」及び「Ymax」)が識別子として用いられて結合されることで、図6の(c)に示されるような全体を示すXY面マップが生成される。 FIG. 6 is a diagram showing an example of an XY plane map generated by the three-dimensional data generation unit 13. The XY plane maps of the two nodes shown in FIGS. 6(a) and 6(b) are based on the position of the top left corner in the XY global coordinate system on the travel trajectory of the vehicle 20 ("Xmin" and " Ymax") is used as an identifier and combined to generate an overall XY plane map as shown in FIG. 6(c).

図7は、3次元データ生成部13によって生成されたZ面マップの例(ここでは、2つのノードのZ面マップの例(図7の(a)及び(b))を示す図である。本図に示されるように、本実施の形態では、各ノードのZ面マップは、車両20の走行軌跡におけるZグローバル座標系での非ゼロの標高の平均値(図7の(a)では153.22m、図7の(b9では154.06m)が識別子として用いられる。 FIG. 7 is a diagram showing an example of a Z-plane map (here, an example of a Z-plane map of two nodes ((a) and (b) in FIG. 7) generated by the three-dimensional data generation unit 13. As shown in this figure, in this embodiment, the Z-plane map of each node is based on the average value of non-zero elevations in the Z global coordinate system in the traveling trajectory of the vehicle 20 (153 in (a) of FIG. 7). .22m in FIG. 7 (154.06m in b9) is used as the identifier.

図8は、3次元データ生成部13によって生成される3次元データの例を示す図である。本図に示されるように、3次元データは、識別子(ここでは、Node1、2、・・、9)で識別される各ノードのXY面マップ及びZ面マップ(ここでは、Node5)が連結されて構成されるLiDARマップである。より詳しくは、本図では、強度マップ(つまり、XY面マップ)と標高マップ(つまり、Z面マップ)の2つの画像が含まれている。つまり、各ノードには2種類の画像(標高と強度)が含まれている。 FIG. 8 is a diagram showing an example of three-dimensional data generated by the three-dimensional data generation unit 13. As shown in this figure, the three-dimensional data is created by connecting the XY plane map and Z plane map (here, Node 5) of each node identified by an identifier (here, Node 1, 2,..., 9). This is a LiDAR map composed of More specifically, this figure includes two images: an intensity map (that is, an XY plane map) and an elevation map (that is, a Z plane map). That is, each node contains two types of images (elevation and intensity).

[図2のステップS12]
次に、マップ生成部14のXY面誤差削減部14aは、3次元データ生成部13が生成したXY面マップに対してグラフSLAMを実行することで、XY面での位置誤差を削減する(図2のS12)。具体的には、以下のようなステップS12a~S12cを行う。
[Step S12 in FIG. 2]
Next, the XY plane error reduction unit 14a of the map generation unit 14 reduces the position error in the XY plane by executing graph SLAM on the XY plane map generated by the three-dimensional data generation unit 13 (Fig. 2 S12). Specifically, the following steps S12a to S12c are performed.

[図2のステップS12a]
XY面誤差削減部14aは、XY面マップに対して、3次元データ生成部13が生成した複数のノードの連結を示すグラフにおけるループを車両20で周回して同じ点を観測することで累積誤差を削減する処理であるグラフSLAMのループ閉鎖を行うことにより、XY面での位置誤差を削減する(図2のS12a)。
[Step S12a in FIG. 2]
The XY-plane error reduction unit 14a reduces the cumulative error in the XY-plane map by driving the vehicle 20 around a loop in the graph showing the connection of a plurality of nodes generated by the three-dimensional data generation unit 13 and observing the same points. The position error in the XY plane is reduced by closing the graph SLAM, which is a process for reducing the position error (S12a in FIG. 2).

図9は、3次元データ生成部13が行うグラフSLAMのループ閉鎖を説明する図である。いま、車両20が位置P0からスタートし、位置P1、P2、・・、P11と順に移動したとする。このようなケースでは、GPS12を用いて計測したスタートの位置P0は、正確であるが、その後、差分としてのフレームが蓄積されることから、スタート位置に近い位置(例えば、P1及びP2)では高い位置精度が維持されるが、車両20の移動が進むにつれて累積誤差が増す。車両は、位置P9では、位置P3のエリアに戻っている。これは、位置P3と位置P9の間の位置が車両の軌道に従ってループを形成するため、XY平面でのループ閉鎖イベント(あるいは、単に、ループ閉鎖)と呼ばれる。ただし、位置P6後の累積誤差のため、位置P3とP位置9との間に相対位置誤差がある。位置P3と位置P9で検知された環境特性を一致させることにより、相対位置誤差が補正され、ループ内の位置全体(位置P4…P8)の精度が向上される。これがグラフSLAMのループ閉鎖を用いたXY面での位置誤差の削減である。 FIG. 9 is a diagram illustrating loop closure of graph SLAM performed by the three-dimensional data generation unit 13. Suppose now that the vehicle 20 starts from position P0 and moves to positions P1, P2, . . . , P11 in order. In such a case, the start position P0 measured using the GPS 12 is accurate, but since frames as differences are subsequently accumulated, the positions close to the start position (for example, P1 and P2) are high. Although positional accuracy is maintained, the cumulative error increases as the vehicle 20 moves further. At position P9, the vehicle has returned to the area at position P3. This is called a loop closure event (or simply loop closure) in the XY plane because the positions between positions P3 and P9 form a loop according to the trajectory of the vehicle. However, due to the cumulative error after position P6, there is a relative position error between position P3 and P position 9. By matching the environmental characteristics detected at positions P3 and P9, the relative position error is corrected and the accuracy of the entire position in the loop (positions P4...P8) is improved. This is the reduction of position error in the XY plane using loop closure in graph SLAM.

本実施の形態では、車両の位置を使用する代わりに、グローバル座標系のトップレフトコーナーの位置を最適化している。これは、推測航法に基づいてLIDARフレームを円滑に蓄積することを保証するノード戦略を用いているからである。 In this embodiment, instead of using the position of the vehicle, the position of the top left corner of the global coordinate system is optimized. This is because it uses a node strategy that ensures smooth accumulation of LIDAR frames based on dead reckoning.

[図2のステップS12b]
上記ループ閉鎖における位置P3と位置P9のケース、あるいは、隣接する2つのノードにおける共通領域のように、2つのノードの強度画像を一致させる場合には、XY面誤差削減部14aは、位相相関によって2つのXY面マップが示す道路を含む地表面のテクスチャ及び形状の一致性を確保する処理(以下、この処理を「位相相関処理」という)を行うことで、位置誤差を削減する(図2のS12b)。位相相関とは、位相限定相関法とも呼ばれる手法であり、フーリエ変換後の位相スペクトルを利用して画像のマッチングを行う方法である。
[Step S12b in FIG. 2]
When matching the intensity images of two nodes, such as the case of positions P3 and P9 in the loop closure, or a common area between two adjacent nodes, the XY plane error reduction unit 14a uses phase correlation to Position errors are reduced by performing a process (hereinafter referred to as "phase correlation process") that ensures the consistency of the texture and shape of the ground surface, including roads, indicated by the two XY plane maps (see Figure 2). S12b). Phase correlation is a method also called a phase-only correlation method, and is a method of performing image matching using a phase spectrum after Fourier transformation.

各ノードは、実際の路面の広い領域をエンコードしたものである。このことから、3次元の疎なポイントクラウドを使用する代わりに、非常に密にランドマークを表現することで、環境の特徴を活用できる。このような密集した表現、広い路面、30cmのランドマークのみの表現により、従来のポイントクラウドでのマッチング手法の代わりに、高レベルの画像処理テクニックを使用して強度画像をマッチングできる。したがって、位相相関を使用して、強度画像に対して、ノード間の相対位置を推定できる。さらに、従来のポイントクラウドでのマッチング手法は、通常、反復検索によって2つのポイントクラウドを位置合わせをする。これは、3次元パターンとポイントクラウドとに希少性が存在することが原因である。したがって、特に走行のコースが長く、多くのループ閉鎖が含まれている場合、ポイントクラウドでのマッチング手法は、時間の消費という点で非常にコストのかかるプロセスになる。一方、本実施の形態における位相相関は、非反復的な手法であり、処理時間が大幅に短縮される。 Each node encodes a large area of the actual road surface. Therefore, instead of using a 3D sparse point cloud, we can take advantage of the characteristics of the environment by representing landmarks very densely. With such a dense representation, wide road surface, and only 30 cm landmark representation, high-level image processing techniques can be used to match intensity images instead of traditional point cloud matching methods. Therefore, phase correlation can be used to estimate relative positions between nodes with respect to the intensity image. Furthermore, traditional point cloud matching techniques typically align two point clouds through an iterative search. This is due to the rarity of three-dimensional patterns and point clouds. Therefore, matching techniques on point clouds become a very expensive process in terms of time consumption, especially if the course of travel is long and contains many loop closures. On the other hand, the phase correlation in this embodiment is a non-iterative method, and the processing time is significantly reduced.

図10は、XY面誤差削減部14aによる位相相関処理を説明する図である。ここでは、隣接する2つのノードA及びBの強度画像(図10の(a)及び(b))、それら2つの強度画像の共通領域(白枠で囲まれた領域)に対して位相相関処理を施して得られた強度画像(図10の(c))、及び、GNSSを用いて得られた正確な画像(図10の(d))の例が示されている。位相相関は、複数のノードにおける相対位置を推定するのにロバストであり、かつ、信頼性が高く、相対位置誤差を削減することができる。 FIG. 10 is a diagram illustrating phase correlation processing by the XY plane error reduction unit 14a. Here, phase correlation processing is performed on the intensity images of two adjacent nodes A and B ((a) and (b) in FIG. 10) and the common area (area surrounded by a white frame) of these two intensity images. An example of an intensity image obtained using GNSS (FIG. 10(c)) and an accurate image obtained using GNSS (FIG. 10(d)) are shown. Phase correlation is robust and reliable for estimating relative positions at multiple nodes, and can reduce relative position errors.

より詳しくは、図10の(a)及び(b)は、それぞれ、2つのノードA及びBを示している。図10の(c)は、位相相関に基づく2つのノードのマッチング結果を示している。図10の(d)は、左上隅を使用したGNSSに基づくノードA及びノードBの単純な組み合わせを示している。ノードA及びノードBは、GNSSが衛星から高品質の信号を受信できるエリア、つまり、非常に正確なオープンスカイのエリアに属している。したがって、GNSSによる図10の(d)の2つのノードの組み合わせは、リファレンス(真実の地面)と見なすことができる。位相相関によれば、ノードAとノードBの左上隅についての情報がなくても、GNSSと同じマップ品質が実現される。これは、位相相関によって、オープンスカイ環境でのノード間の相対位置と同程度のGNSS推定が実現されることになる。さらに、衛星信号が偏向または妨害される可能性のある厳しい環境での相対位置を完全に推定するためにも位相相関が役立っている。位相相関がノードの輝度画像によって広く/密に表される環境の特徴に依存しているからである。そして、環境の特徴は、静的で、固定的で、衛星信号の品質または走行距離に関連しているからである。 More specifically, FIGS. 10(a) and 10(b) show two nodes A and B, respectively. FIG. 10(c) shows the matching result of two nodes based on phase correlation. Figure 10(d) shows a simple combination of Node A and Node B based on GNSS using the top left corner. Node A and Node B belong to an area where the GNSS can receive high quality signals from satellites, ie a highly accurate open sky area. Therefore, the combination of two nodes in FIG. 10(d) by GNSS can be considered as a reference (ground of truth). With phase correlation, the same map quality as GNSS is achieved without information about the upper left corners of nodes A and B. This results in a GNSS estimation comparable to the relative position between nodes in an open sky environment due to phase correlation. In addition, phase correlation helps provide a complete estimate of relative position in harsh environments where satellite signals may be deflected or jammed. This is because the phase correlation depends on the environmental features that are broadly/densely represented by the brightness images of the nodes. and because the environmental characteristics are static, fixed, and related to the quality of the satellite signal or the distance traveled.

[図2のステップS12c]
また、XY面誤差削減部14aは、次の3つを評価するコスト関数を用いて、XY面での位置誤差(相対位置誤差及びグローバル位置誤差)を削減する最適化を行う(図2のS12c)。(1)一貫性、つまり、異なる2つのノードのXY面マップにおいて共通する領域の一致性である。(2)コヒーレンシ、つまり、異なる2つのノードのXY面マップにおける連続性である。(3)正確性、つまり、XY面マップでの位置とGPSで得られる位置との一致性である。
[Step S12c in FIG. 2]
In addition, the XY plane error reduction unit 14a performs optimization to reduce position errors (relative position error and global position error) in the XY plane using a cost function that evaluates the following three things (S12c in FIG. 2). ). (1) Consistency, that is, the consistency of common areas in the XY plane maps of two different nodes. (2) Coherency, that is, continuity in the XY plane map of two different nodes. (3) Accuracy, that is, consistency between the position on the XY plane map and the position obtained by GPS.

図11は、コスト関数で評価される一貫性を説明する図である。本図に示されるように、ループ閉鎖における同じ位置を示す2つのノード(ここでは、ノードN及びNi+2)の強度画像は、それら2つのノードの強度画像間での一致性(差分が小さいこと)が、一貫性として、コスト関数で評価される。具体的には、一貫性の評価は、下記式2で示される画像エッジEImg i,jで示される。なお、エッジとは、評価の数学的表現である。 FIG. 11 is a diagram illustrating consistency evaluated using a cost function. As shown in this figure, the intensity images of two nodes (here, nodes N 1 and N ) is evaluated as consistency using a cost function. Specifically, the consistency evaluation is expressed by the image edge E Img i,j expressed by Equation 2 below. Note that an edge is a mathematical expression of evaluation.

Figure 0007448945000002
Figure 0007448945000002

ここで、EImg i,jは、相対位置を補償してループ閉鎖を構成する2つのノードN及びNの共通領域を評価する画像エッジを示し、f()は、相対位置を計算する関数であり、XNiは、ノードNでのX位置を示し、XNjは、ノードNでのX位置を示し、XImg Ni,jは、強度画像におけるノードN及びNの相対位置を示し、Ω()は、ノードN及びN間の位相相関の信頼性を表す共分散誤差である。この共分散誤差は、位相相関を算出する相関行列から得られる。このような一貫性の評価は、XY面マップでの相対位置誤差の削減に貢献する。 Here, E Img i,j denotes the image edge that evaluates the common area of two nodes N i and N j that compose the loop closure by compensating the relative position, and f() calculates the relative position where X Ni denotes the X position at node N i , X Nj denotes the X position at node N j , and X Img Ni,j is the relative position of nodes N i and N j in the intensity image. Ω() is the covariance error representing the reliability of the phase correlation between nodes N i and N j . This covariance error is obtained from the correlation matrix that calculates the phase correlation. Such consistency evaluation contributes to reducing relative position errors in the XY plane map.

図12は、コスト関数で評価されるコヒーレンシを説明する図である。本図に示されるように、隣接する2つのノード(ここでは、ノードN及びN)における共通領域の強度画像は、それら2つのノードの強度画像間での連続性が、コヒーレンシとして、コスト関数で評価される。連続性は、例えば、道路のコンテキストである。具体的には、コヒーレンシの評価は、下記式3で示される連続性エッジEImg i,i-1で示される。 FIG. 12 is a diagram illustrating coherency evaluated using a cost function. As shown in this figure, the intensity images of the common area of two adjacent nodes (nodes N 0 and N 1 in this case) are determined by the continuity between the intensity images of those two nodes as coherency. Evaluated by a function. Continuity is, for example, a road context. Specifically, the coherency evaluation is expressed by a continuity edge E Img i,i−1 expressed by the following equation 3.

Figure 0007448945000003
Figure 0007448945000003

ここで、EDR i,i-1は、隣接する2つのノードN及びNi-1の共通領域を評価する連続性エッジを示し、f()は、相対位置を計算する関数であり、XNiは、ノードNでのX位置を示し、XNi-1は、ノードNi-1でのX位置を示し、XImg Ni,i-1は、強度画像におけるノードN及びNi-1の相対位置を示し、Σ()は、車両20のノードN及びNi-1内での速度の分散から推定できる共分散誤差を示す。 Here, E DR i,i-1 indicates a continuity edge that evaluates the common area of two adjacent nodes N i and N i-1 , f() is a function that calculates the relative position, X Ni indicates the X position at node N i , X Ni-1 indicates the X position at node N i-1 , and X Img Ni,i-1 indicates the X position at node N i and N i in the intensity image. −1 , and Σ() denotes the covariance error that can be estimated from the variance of the velocity within the nodes N i and N i−1 of the vehicle 20.

このようなコヒーレンシの評価は、2つのノードにおける道路のコンテキストの連続性を維持するのに重要な役割を果たし、XY面マップでの相対位置誤差の削減に貢献する。 Such coherency evaluation plays an important role in maintaining the continuity of the road context in two nodes, and contributes to reducing the relative position error in the XY plane map.

図13は、コスト関数で評価される正確性を説明する図である。本図に示されるように、XY面マップでの位置とGPSで得られる位置の一致性(ここでは、ノードN及びNi+2のそれぞれにおけるXY面マップでの位置とGPS12で得られる位置との一致性)が、正確性として、コスト関数で評価される。具体的には、正確性の評価は、下記式4で示されるアンカリング・エッジXYGPS で示される。 FIG. 13 is a diagram illustrating accuracy evaluated using a cost function. As shown in this figure, the consistency between the position on the XY plane map and the position obtained by GPS (here, the correspondence between the position on the XY plane map and the position obtained by GPS 12 for each of nodes N 1 and N i + 2) consistency) is evaluated as accuracy using a cost function. Specifically, the evaluation of accuracy is expressed by the anchoring edge XY GPS i expressed by Equation 4 below.

Figure 0007448945000004
Figure 0007448945000004

ここで、XYGPS は、ノードNの正確性を評価するアンカリング・エッジを示し、XNiは、ノードNのXY面マップでのX位置を示し、XGPS Niは、ノードNのGPSで得られるX位置を示し、Γ()は、GPS12を用いて得られる共分散誤差を示す。このような正確性の評価は、XY面マップでのグローバル位置誤差の削減に貢献する。3次元マップは、グローバル座標系(絶対座標系)で生成され表現される必要がある。そのために、GNSSに基づくアンカリング・エッジが使用される。 Here, XY GPS i indicates the anchoring edge for evaluating the accuracy of node N i , X Ni indicates the X position of node N i in the XY plane map, and X GPS Ni Γ() indicates the covariance error obtained using GPS12. Such accuracy evaluation contributes to reducing global position errors in the XY plane map. A three-dimensional map needs to be generated and expressed in a global coordinate system (absolute coordinate system). For that purpose, GNSS-based anchoring edges are used.

[図2のステップS13]
次に、マップ生成部14のZ面誤差削減部14bは、XY面誤差削減部14aによって位置誤差が削減されたXY面マップに対応するZ面マップに対して、グラフSLAMを実行することで、Z面での位置誤差を削減する(図2のS13)。具体的には、以下のようなステップS13a~S13bを行う。
[Step S13 in FIG. 2]
Next, the Z-plane error reduction unit 14b of the map generation unit 14 executes graph SLAM on the Z-plane map corresponding to the XY-plane map whose positional error has been reduced by the XY-plane error reduction unit 14a. The position error on the Z plane is reduced (S13 in FIG. 2). Specifically, the following steps S13a to S13b are performed.

[図2のステップS13a]
Z面誤差削減部14bは、XY面誤差削減部14aによって位置誤差が削減されたXY面マップに対応するZ面マップに対して、XY面誤差削減部14aと同様の手法で、グラフSLAMのループ閉鎖を行うことにより、Z面での位置誤差を削減する(図2のS13a)。
[Step S13a in FIG. 2]
The Z-plane error reduction unit 14b performs a graph SLAM loop on the Z-plane map corresponding to the XY-plane map whose position error has been reduced by the XY-plane error reduction unit 14a using the same method as the XY-plane error reduction unit 14a. By performing the closure, the position error on the Z plane is reduced (S13a in FIG. 2).

[図2のステップS13b]
また、Z面誤差削減部14bは、XY面誤差削減部14aによって位置誤差が削減されたXY面マップに対応するZ面マップに対して、XY面誤差削減部14aと同様の手法で、次の3つの少なくとも一つを評価するコスト関数を用いて、Z面での位置誤差(相対位置誤差及びグローバル位置誤差)を削減する最適化を行う(図2のS13b)。(1)一貫性、つまり、異なる2つのノードのZ面マップにおいて共通する領域の一致性である。(2)コヒーレンシ、つまり、異なる2つのノードのZ面マップにおける連続性である。(3)正確性、つまり、Z面マップでの位置とGPSで得られる位置との一致性である。
[Step S13b in FIG. 2]
Further, the Z-plane error reduction unit 14b uses the same method as the XY-plane error reduction unit 14a to perform the following calculation on the Z-plane map corresponding to the XY-plane map whose position error has been reduced by the XY-plane error reduction unit 14a. Optimization is performed to reduce position errors (relative position error and global position error) on the Z plane using a cost function that evaluates at least one of the three (S13b in FIG. 2). (1) Consistency, that is, the consistency of common areas in the Z-plane maps of two different nodes. (2) Coherency, that is, continuity in the Z-plane map of two different nodes. (3) Accuracy, that is, consistency between the position on the Z-plane map and the position obtained by GPS.

なお、Z面での一貫性の評価は、下記式5で示される画像エッジZImg i,jで示されるが、そのための最適化の処理は、XY面誤差削減部14aによるXY面マップに対する一貫性の処理によって、同時に実現される。異なる2つのノードのXY面マップにおいて共通する領域の一致性が確保される処理によって、同時に、それら2つのノードのZ面マップにおいて共通する領域の一致性が確保されるからである。 Note that the consistency evaluation on the Z plane is indicated by the image edge Z Img i,j shown by the following formula 5, and the optimization process for this purpose is based on the consistency evaluation for the XY plane map by the XY plane error reduction unit 14a. It is simultaneously realized through sexual processing. This is because the process of ensuring the consistency of common areas in the XY plane maps of two different nodes simultaneously ensures the consistency of common areas in the Z plane maps of those two nodes.

Figure 0007448945000005
Figure 0007448945000005

この式5における各表記は、式2の表記におけるXをZに置き換えたものに相当する。このような一貫性の評価は、Z面マップでの相対位置誤差の削減に貢献する。 Each notation in this formula 5 corresponds to the notation in formula 2 in which X is replaced with Z. Such consistency evaluation contributes to reducing relative position errors in the Z-plane map.

また、コヒーレンシの評価は、下記式6で示される連続性エッジZDR i,i-1で示される。 Furthermore, the evaluation of coherency is expressed by a continuity edge Z DR i,i−1 expressed by the following equation 6.

Figure 0007448945000006
Figure 0007448945000006

この式6における各表記は、式3の表記におけるXをZに置き換えたものに相当する。このようなコヒーレンシの評価は、2つのノードにおける標高の連続性を維持するのに重要な役割を果たし、Z面マップでの相対位置誤差の削減に貢献する。 Each notation in this formula 6 corresponds to the notation in formula 3 in which X is replaced with Z. Such coherency evaluation plays an important role in maintaining the continuity of elevations at two nodes, and contributes to reducing relative position errors in the Z-plane map.

また、正確性の評価は、下記式7で示されるアンカリング・エッジZGPS で示される。 Furthermore, the accuracy evaluation is expressed by the anchoring edge Z GPS i expressed by the following equation 7.

Figure 0007448945000007
Figure 0007448945000007

この式7における各表記は、式4の表記におけるXをZに置き換えたものに相当する。このような正確性の評価は、Z面マップでのグローバル位置誤差の削減に貢献する。 Each notation in this formula 7 corresponds to the notation in formula 4 in which X is replaced with Z. Such accuracy evaluation contributes to reducing global position errors in the Z-plane map.

[図2のステップS14]
最後に、マップ生成部14は、XY面誤差削減部14a及びZ面誤差削減部14bによって位置誤差が削減された3次元データを、最終的な3次元マップ15として、外部の記憶装置又はディスプレイ等の出力装置へ出力する。
[Step S14 in FIG. 2]
Finally, the map generation unit 14 uses the three-dimensional data whose positional errors have been reduced by the XY-plane error reduction unit 14a and the Z-plane error reduction unit 14b as a final three-dimensional map 15 on an external storage device, display, etc. output to the output device.

図14は、図2のステップS12c及びS13bの処理をまとめた図である。本図に示されるように、3次元データ生成部13で生成された3次元データ(XY面マップ及びZ面マップ)に対して、まず、マップ生成部14のXY面誤差削減部14aにより、XY面マップに対して、コスト関数を用いた最適化を実行することでXY面での位置誤差を削減した後に(図2のS12c)、位置誤差が削減されたXY面マップに対応する(つまり、投影される)Z面マップに対して、Z面誤差削減部14bにより、コスト関数を用いた最適化を実行することで、Z面での位置誤差を削減し(図2のS13b)、最終的な3次元マップ15として出力する。 FIG. 14 is a diagram summarizing the processing of steps S12c and S13b in FIG. 2. As shown in this figure, the three-dimensional data (XY-plane map and Z-plane map) generated by the three-dimensional data generation section 13 is first processed by the XY-plane error reduction section 14a of the map generation section 14. After reducing the position error in the XY plane by performing optimization using a cost function on the surface map (S12c in FIG. 2), the The Z-plane error reduction unit 14b performs optimization using a cost function on the Z-plane map (projected) to reduce the positional error on the Z-plane (S13b in FIG. 2), and finally It is output as a three-dimensional map 15.

図15Aは、図14に示される処理手順によるメリットを説明する図である。ここでは、図14のマップにおいて複数の他のノードと関係性を持つ1つのノードの単純な例が示されている。これらの関係性とは、XY平面にグラフSLAMを適用し、次にZ平面にグラフSLAMを適用することで、ノードの位置に影響を与えるものである。本図に示されるように、本実施の形態に係る3次元マップ生成装置10によれば、まず、XY面マップに対して3種類の評価を行うコスト関数を用いた最適化を実行する(上述した3種類のXY面でのエッジの合計を最小化する)ことで、XY面での位置誤差を削減するためのXYオフセットが得られる(図15Aの(a)の1及び2行目、図15Aの(b))。各ノードには、トップレフトコーナーの座標に追加されるxおよびy方向の2つのオフセットがある。したがって、このようなXYグラフSLAMオフセットに基づいて絶対座標系で路面を移動させることを意味する。その後、ノード全体を組み合わせてマップが生成される。 FIG. 15A is a diagram illustrating the merits of the processing procedure shown in FIG. 14. Here, a simple example of one node having relationships with a plurality of other nodes in the map of FIG. 14 is shown. These relationships affect the positions of nodes by applying graph SLAM to the XY plane and then applying graph SLAM to the Z plane. As shown in this figure, according to the three-dimensional map generation device 10 according to the present embodiment, optimization using a cost function that performs three types of evaluations on the XY plane map (as described above) is first performed. By minimizing the sum of the edges in the three types of XY planes), the XY offset for reducing the position error in the XY plane can be obtained (1st and 2nd rows in (a) of 15A(b)). Each node has two offsets in the x and y directions that are added to the top left corner coordinates. Therefore, it means moving the road surface in an absolute coordinate system based on such an XY graph SLAM offset. A map is then generated by combining the entire nodes.

続いて、位置誤差が削減されたXY面マップに対応する(つまり、投影される)Z面マップに対して3種類の評価を行うコスト関数を用いた最適化を実行する(上述した3種類のZ面でのエッジの合計を最小化する)ことで、Z面での位置誤差を削減するためのZオフセットが得られる(図15Aの(a)の3及び4行目、図15Aの(c))。XYグラフSLAMオフセットに基づいてZ平面でマップを修正する手順は、標高画像にグラフSLAMを適用することによって行われる。したがって、Zオフセットのセットが取得され、各ノードには1つの標高オフセットが得られ、これが標高画像のピクセル全体に追加される。これは、ZグラフSLAMオフセットに基づいて標高画像をZ方向に移動することを意味する。次に、ノード全体を組み合わせてZ面マップを生成する。これらのステップにより、完全なマップが取得される。 Next, optimization is performed using a cost function that performs three types of evaluations on the Z-plane map corresponding to (that is, projected) the XY-plane map with the positional error reduced (the three types described above By minimizing the sum of edges in the Z plane), a Z offset for reducing the position error in the Z plane can be obtained (lines 3 and 4 in (a) of Fig. 15A, (c) of Fig. 15A). )). The procedure for modifying the map in the Z plane based on the XY graph SLAM offset is performed by applying graph SLAM to the elevation image. Therefore, a set of Z offsets is obtained, one elevation offset for each node, which is added to the entire pixel of the elevation image. This means moving the elevation image in the Z direction based on the Z graph SLAM offset. Next, all the nodes are combined to generate a Z-plane map. These steps result in a complete map.

これにより、XY面での誤差がZ面での誤差に累積されるという不具合が抑制され、正確なグローバルポジション(XY面での位置)及び正確な標高(Z面での位置)を示す位置精度の高い3次元マップが生成される。 This prevents the problem that errors in the XY plane are accumulated into errors in the Z plane, and improves positional accuracy that indicates the accurate global position (position in the XY plane) and accurate altitude (position in the Z plane). A three-dimensional map with a high degree of accuracy is generated.

図15Bは、図14に示される処理手順によるメリットを説明する別の図である。ここでは、2つのノード間に着目して、図14に示される手法が説明されている。図15Bの(a)は、2つのノードA及びBの強度画像及び標高画像の例を示す。図15Bの(b)は、XY平面とZ平面におけるノード間の3次元偏差の問題を示している。XY面度マップ内の道路のランドマークの複製が示されるように、2つのノード間においてx方向とy方向(XY平面)に相対位置エラーが生じている。さらに、Z面マップで異なるzレベルの路面が示されるように、z方向の相対位置誤差も示されている。図15Bの(c)は、強度画像のXY平面にグラフSLAMを適用した後の問題を示している。x方向及びy方向の相対位置誤差が補正され、ゴースト効果がマップから除去されている。その結果、図15Bの(d)に示すように、標高画像にグラフSLAMを適用することにより、2つの道路間の高度誤差(z方向の相対位置誤差)をできるだけ小さくすることができる。現実の世界では、2つの道路は同じ環境を表すものであることから、同じZレベルになっている。 FIG. 15B is another diagram illustrating the advantages of the processing procedure shown in FIG. 14. Here, the method shown in FIG. 14 is explained, focusing on the relationship between two nodes. FIG. 15B (a) shows an example of an intensity image and an elevation image of two nodes A and B. FIG. 15B (b) shows the problem of three-dimensional deviation between nodes in the XY plane and the Z plane. There is a relative position error in the x and y directions (XY plane) between the two nodes, as shown by the duplication of the road landmark in the XY plane map. Furthermore, the relative position error in the z-direction is also shown, just as the road surface at different z-levels is shown in the Z-plane map. FIG. 15B(c) shows the problem after applying graph SLAM to the XY plane of the intensity image. Relative position errors in the x and y directions have been corrected and ghost effects have been removed from the map. As a result, as shown in FIG. 15B (d), by applying graph SLAM to the elevation image, the elevation error (relative position error in the z direction) between the two roads can be made as small as possible. In the real world, two roads represent the same environment and are therefore at the same Z level.

次に、本実施の形態に係る3次元マップ生成装置10を用いて3次元マップを生成する実験を行ったので、図を用いて説明する。 Next, an experiment was conducted to generate a three-dimensional map using the three-dimensional map generating device 10 according to the present embodiment, which will be explained using figures.

図16は、実験に用いた車両20の走行軌跡を示す図である。図16の(a)は、走行軌跡と走行軌跡における特徴的な箇所を示し、図16の(b)は、走行軌跡を描いた地図を示す。本実験では、金沢市の香林坊町において、車両20で25kmの総距離を走行することで得られたポイントクラウドから、305個のノード及び286個のループ閉鎖エッジを含む3次元マップを生成した。図16の(a)に示されるように、走行軌跡には、高層ビルが建ち並ぶ箇所、及び、木が密集している箇所が含まれている。 FIG. 16 is a diagram showing the travel trajectory of the vehicle 20 used in the experiment. (a) of FIG. 16 shows a running trajectory and characteristic locations on the running trajectory, and (b) of FIG. 16 shows a map depicting the running trajectory. In this experiment, a three-dimensional map containing 305 nodes and 286 loop closure edges was generated from a point cloud obtained by driving a vehicle 20 over a total distance of 25 km in Korinbo-cho, Kanazawa City. As shown in FIG. 16(a), the travel trajectory includes areas lined with high-rise buildings and areas with dense trees.

図17は、3次元マップ生成装置10が生成したXY面マップの位置精度の高さを示す図である。図17の(a)は、GNSSを用いて生成したXY面マップの各ノードにおけるX方向の標準偏差(m)を示し(つまり、各ノードのトップレフトコーナーのX座標の予測精度を示し)、図17の(b)は、3次元マップ生成装置10が生成したXY面マップの各ノードにおけるX方向のオフセット(m)を示し(つまり、各ノードのトップレフトコーナーのX座標に加算されたグラフSLAMオフセットを示し)、図17の(c)は、GNSSを用いて生成したXY面マップの各ノードにおけるY方向の標準偏差(m)を示し(つまり、各ノードのトップレフトコーナーのY座標の予測精度を示し)、図17の(d)は、3次元マップ生成装置10が生成したXY面マップの各ノードにおけるY方向のオフセット(m)を示す(つまり、各ノードのトップレフトコーナーのY座標に加算されたグラフSLAMオフセットを示す)。 FIG. 17 is a diagram showing the high positional accuracy of the XY plane map generated by the three-dimensional map generation device 10. (a) of FIG. 17 shows the standard deviation (m) in the X direction at each node of the XY plane map generated using GNSS (in other words, it shows the prediction accuracy of the X coordinate of the top left corner of each node), (b) of FIG. 17 shows the offset (m) in the X direction at each node of the XY plane map generated by the three-dimensional map generation device 10 (that is, the graph added to the X coordinate of the top left corner of each node Figure 17(c) shows the standard deviation (m) in the Y direction at each node of the XY plane map generated using GNSS (that is, the Y coordinate of the top left corner of each node). (d) of FIG. 17 shows the offset (m) in the Y direction at each node of the XY plane map generated by the three-dimensional map generation device 10 (that is, the (showing the graph SLAM offset added to the coordinates).

図17の(a)及び(b)を比較して分かるように、3次元マップ生成装置10によれば、グラフSLAMオフセットの加算により、X方向の低精度なノードが検出され、それらのノードに対して、絶対座標系におけるグローバルマップ精度が高められている。Y方向についても、図17の(c)及び(d)を比較して分かるように、絶対座標系におけるグローバルマップ精度が高められている。 As can be seen by comparing (a) and (b) of FIG. 17, according to the three-dimensional map generation device 10, nodes with low accuracy in the X direction are detected by adding the graph SLAM offset, and these nodes are On the other hand, the global map accuracy in the absolute coordinate system is improved. In the Y direction as well, as can be seen by comparing FIGS. 17(c) and 17(d), the global map accuracy in the absolute coordinate system is improved.

図18は、木が密集している箇所において3次元マップ生成装置10が生成したXY面マップとGNSSを用いて生成したXY面マップとの比較を示す図である。図18の(a)は、木が密集している箇所を撮影した画像を示し、図18の(b)は、図18の(a)で示される箇所についてGNSSを用いて生成したXY面マップの例を示し、図18の(c)は、図18の(a)で示される箇所について3次元マップ生成装置10が生成したXY面マップの例を示す。 FIG. 18 is a diagram showing a comparison between an XY plane map generated by the three-dimensional map generation device 10 and an XY plane map generated using GNSS in a place where trees are densely populated. Figure 18 (a) shows an image taken of a place where trees are densely populated, and Figure 18 (b) is an XY plane map generated using GNSS for the place shown in Figure 18 (a). FIG. 18C shows an example of the XY plane map generated by the three-dimensional map generation device 10 for the location shown in FIG. 18A.

図18の(b)から分かるように、GNSSを用いて生成したXY面マップでは、衛星信号が密集している木で妨げられるために、道路の車線の重複やゴースト等の相対位置誤差が生じている。また、道路が現実と異なって2箇所に示されているように、グローバル位置誤差が生じている。これに対して、図18の(c)から分かるように、3次元マップ生成装置10で生成されたXY面マップでは、図18の(b)における相対位置誤差及びグローバル位置誤差が大幅かつ完全に削減される。 As can be seen from Figure 18(b), in the XY plane map generated using GNSS, satellite signals are obstructed by dense trees, resulting in relative position errors such as overlapping road lanes and ghosts. ing. Additionally, a global position error occurs, as shown in two locations where the road differs from reality. On the other hand, as can be seen from FIG. 18(c), in the XY plane map generated by the three-dimensional map generating device 10, the relative position error and global position error in FIG. 18(b) are significantly and completely reduced. reduced.

図19は、3次元マップ生成装置10が生成したZ面マップの位置精度の高さを示す図である。図19の(a)は、GNSSを用いて生成したXY面マップの各ノードにおけるZ方向の標準偏差(m)を示し(つまり、各ノードのトップレフトコーナーのZ座標の予測精度を示し)、図19の(b)は、3次元マップ生成装置10が生成したZ面マップの各ノードにおけるZ方向のオフセット(m)を示す(つまり、各ノードのトップレフトコーナーのZ座標に加算されたグラフSLAMオフセットを示す)。図19の(a)及び(b)を比較して分かるように、3次元マップ生成装置10によれば、グラフSLAMオフセットの加算により、Z方向の低精度なノードが検出され、それらのノードに対して、絶対座標系におけるグローバルマップ精度が高められる。 FIG. 19 is a diagram showing the high positional accuracy of the Z-plane map generated by the three-dimensional map generation device 10. (a) of FIG. 19 shows the standard deviation (m) in the Z direction at each node of the XY plane map generated using GNSS (in other words, it shows the prediction accuracy of the Z coordinate of the top left corner of each node), (b) of FIG. 19 shows the offset (m) in the Z direction at each node of the Z plane map generated by the three-dimensional map generation device 10 (that is, the graph added to the Z coordinate of the top left corner of each node). SLAM offset). As can be seen by comparing FIGS. 19(a) and 19(b), according to the three-dimensional map generation device 10, low-accuracy nodes in the Z direction are detected by adding graph SLAM offsets, and these nodes are On the other hand, the precision of the global map in the absolute coordinate system is improved.

図20は、図18に示される木が密集している箇所において3次元マップ生成装置10が生成したZ面マップとGNSSを用いて生成したZ面マップとの比較を示す図である。図20の(a)は、比較の対象となる2つのノード69及び239の強度画像を示している。点線は、車両の軌跡を示している。ノード69における長方形の枠で囲まれた領域の座標は、XY平面のグラフSLAMオフセットに基づいて、ノード239に投影される。したがって、ノード69における車両の軌道は、投影されたエリア座標に基づいてノード239に投影される。 FIG. 20 is a diagram illustrating a comparison between the Z-plane map generated by the three-dimensional map generation device 10 and the Z-plane map generated using GNSS in the area where trees are densely populated as shown in FIG. 18. FIG. 20(a) shows intensity images of two nodes 69 and 239 to be compared. The dotted line indicates the trajectory of the vehicle. The coordinates of the rectangularly framed area at node 69 are projected to node 239 based on the graph SLAM offset in the XY plane. Therefore, the trajectory of the vehicle at node 69 is projected to node 239 based on the projected area coordinates.

図20の(b)は、同一場所である2つの異なるノード(ノード69及びノード239)について3次元マップ生成装置10が生成したZ面マップの標高プロファイル(車両20の移動に伴う標高の変化)及びGNSSを用いて生成したZ面マップの標高プロファイルを示す。本図において、破線(NodeSlam69)及び点線(NodeSlam239)は、それぞれ、3次元マップ生成装置10が生成したノード69及びノード239のZ面マップの標高プロファイルを示す。実線(NodeGPS69)及び一点鎖線(NodeGPS69)は、それぞれ、GNSSを用いて生成したノード69及びノード239のZ面マップの標高プロファイルを示す。 FIG. 20(b) shows the elevation profile of the Z-plane map generated by the three-dimensional map generation device 10 for two different nodes (node 69 and node 239) at the same location (change in elevation due to movement of the vehicle 20). and the elevation profile of the Z-plane map generated using GNSS. In this figure, a broken line (NodeSlam69) and a dotted line (NodeSlam239) indicate the elevation profiles of the Z-plane map of node 69 and node 239, respectively, generated by the three-dimensional map generation device 10. The solid line (NodeGPS69) and the dashed-dotted line (NodeGPS69) indicate the elevation profiles of the Z-plane map of node 69 and node 239, respectively, generated using GNSS.

図20の(c)は、3次元マップ生成装置10が生成したZ面マップとGNSSを用いて生成したZ面マップについて、移動軌跡の各箇所におけるノード69での標高とノード239での標高との差を示す。本図において、破線(DiffSlam)は、3次元マップ生成装置10が生成したZ面マップでの移動軌跡の各箇所におけるノード69での標高とノード239での標高との差を示し、実線(DiffGPS)は、GNSSを用いて生成したZ面マップでの移動軌跡の各箇所におけるノード69での標高とノード239での標高との差を示す。 (c) of FIG. 20 shows the elevation at node 69 and the elevation at node 239 at each location of the movement trajectory for the Z-plane map generated by the three-dimensional map generation device 10 and the Z-plane map generated using GNSS. shows the difference between In this figure, the broken line (DiffSlam) indicates the difference between the elevation at node 69 and the elevation at node 239 at each location of the movement trajectory on the Z-plane map generated by the three-dimensional map generation device 10, and the solid line (DiffSlam) ) indicates the difference between the elevation at node 69 and the elevation at node 239 at each location of the movement trajectory on the Z-plane map generated using GNSS.

上述したようにノード69とノード239とは同一場所であるから、標高の差はゼロであるべきところ、GNSSを用いて生成したZ面マップでは、大きな値になっているのに対し、3次元マップ生成装置10が生成したZ面マップでは、極めて小さな値となっている。このことから、本実施の形態に係る3次元マップ生成装置10によれば、グラフSLAMを適用したうえでコスト関数による最適化が行われるので、Z面での位置誤差が小さい正確なZ面マップが生成されることが分かる。 As mentioned above, since node 69 and node 239 are in the same location, the difference in elevation should be zero, but in the Z-plane map generated using GNSS, it is a large value, whereas in 3D The Z-plane map generated by the map generation device 10 has an extremely small value. Therefore, according to the three-dimensional map generation device 10 according to the present embodiment, optimization using a cost function is performed after applying graph SLAM, so an accurate Z-plane map with small positional error on the Z-plane is generated. It can be seen that is generated.

なお、図20におけるGNSSを用いて生成したZ面マップでの誤差は、XY面マップにグラフSLAMを適用した後のものであり、GNSSを用いて生成したXY面マップでの誤差が無視されている。よって、もし、GNSSを用いて生成したXY面マップでの誤差を勘案した場合には、GNSSを用いて生成したZ面マップでの誤差は、もっと大きい値となる。 Note that the error in the Z plane map generated using GNSS in Figure 20 is after applying graph SLAM to the XY plane map, and the error in the XY plane map generated using GNSS is ignored. There is. Therefore, if the error in the XY plane map generated using GNSS is taken into account, the error in the Z plane map generated using GNSS will be a larger value.

以上のように、本実施の形態に係る3次元マップ生成方法は、車両20に搭載され、道路を含む環境を検出するLiDAR11から取得したポイントクラウドから、道路を含む地表面を表す強度画像のフレームで構成されるXY面マップ及び強度画像を構成する画素の標高を示す標高画像のフレームで構成されるZ面マップを含む3次元データを生成する3次元データ生成ステップ(S10、S11)と、生成された3次元データにおける位置誤差を削減することで3次元マップを生成するマップ生成ステップ(S12、S13)とを含み、マップ生成ステップは、XY面マップに対してグラフSLAMを実行することで、XY面での位置誤差を削減するXY面誤差削減ステップ(S12)と、XY面誤差削減ステップ(S12)によって位置誤差が削減されたXY面マップに対応するZ面マップに対してグラフSLAMを実行することで、Z面での位置誤差を削減するZ面誤差削減ステップ(S13)とを含む。 As described above, the three-dimensional map generation method according to the present embodiment generates intensity image frames representing the ground surface including roads from a point cloud obtained from the LiDAR 11 mounted on the vehicle 20 and detecting the environment including roads. a three-dimensional data generation step (S10, S11) for generating three-dimensional data including an XY-plane map composed of A map generation step (S12, S13) that generates a three-dimensional map by reducing positional errors in the three-dimensional data obtained, and the map generation step executes graph SLAM on the XY plane map, Graph SLAM is performed on the Z-plane map corresponding to the XY-plane map whose positional error has been reduced by the XY-plane error reduction step (S12) that reduces positional errors in the XY-plane and the XY-plane error reduction step (S12). This includes a Z-plane error reduction step (S13) for reducing positional errors on the Z-plane.

これにより、XY面での位置誤差が削減された後に、位置誤差が削減されたXY面マップに対応するZ面マップに対して位置誤差を削減する処理が行われるので、XY面での誤差がZ面での誤差に累積されるという不具合が抑制され、正確なグローバルポジション(XY面での位置)及び正確な標高(Z面での位置)を示す位置精度の高い3次元マップが生成される。 As a result, after the position error in the XY plane is reduced, the process of reducing the position error is performed on the Z plane map corresponding to the XY plane map with the position error reduced, so the error in the XY plane is reduced. The problem of accumulated errors on the Z plane is suppressed, and a 3D map with high positional accuracy is generated that shows the accurate global position (position on the XY plane) and accurate elevation (position on the Z plane). .

また、3次元データ生成ステップ(S11)では、所定の矩形領域における強度画像をXY面マップとし、強度画像に対応する標高画像をZ面マップとし、XY面マップとZ面マップとの組をノードとする複数のノードの連結を3次元データとして生成し、複数のノードのそれぞれに対して、対応するXY面マップが示す矩形領域の特定のコーナーのグローバルポジションを識別子として付与する。これにより、広域の3次元マップがノードの連結からなるグラフで表現されるので、グラフSLAMを適用した位置誤差の削減が可能になる。 In addition, in the three-dimensional data generation step (S11), the intensity image in a predetermined rectangular area is set as an XY plane map, the elevation image corresponding to the intensity image is set as a Z plane map, and the set of the XY plane map and the Z plane map is set as a node. A connection of a plurality of nodes is generated as three-dimensional data, and the global position of a specific corner of a rectangular area indicated by a corresponding XY plane map is assigned to each of the plurality of nodes as an identifier. As a result, a wide-area three-dimensional map is expressed as a graph made up of connected nodes, making it possible to reduce position errors by applying graph SLAM.

また、3次元データ生成ステップ(S11)では、複数のノードのそれぞれについて、車両20に搭載されたGPSから初期位置を取得し、取得された初期位置を基準としてフレームを蓄積していく推測航法により、当該ノードのXY面マップ及びZ面マップを生成する。これにより、常に衛星信号を必要とするGNSSを用いた地図生成に比べ、長いトンネル内、木が密集している箇所、高い建物が多い箇所等の衛星信号が届きにくい箇所であっても、位置精度の高い3次元マップの生成が可能になる。 In addition, in the three-dimensional data generation step (S11), the initial position of each of the plurality of nodes is acquired from the GPS mounted on the vehicle 20, and frames are accumulated based on the acquired initial position using dead reckoning navigation. , generates an XY plane map and a Z plane map of the node. Compared to map generation using GNSS, which always requires satellite signals, this allows you to locate locations where satellite signals are difficult to reach, such as in long tunnels, areas with dense trees, or areas with many tall buildings. It becomes possible to generate highly accurate three-dimensional maps.

また、XY面誤差削減ステップ(S12)及びZ面誤差削減ステップ(S13)では、それぞれ、XY面マップ及びZ面マップに対して、複数のノードの連結を示すグラフにおけるループを車両20で周回して同じ点を観測することで累積誤差を削減するループ閉鎖を行うことにより、XY面及びZ面での位置誤差を削減する。これにより、XY面及びZ面での累積的な位置誤差が削減され、位置精度の高い3次元マップの生成が可能になる。 In addition, in the XY plane error reduction step (S12) and the Z plane error reduction step (S13), the vehicle 20 moves around a loop in the graph showing the connection of a plurality of nodes for the XY plane map and the Z plane map, respectively. Position errors in the XY and Z planes are reduced by closing a loop that reduces cumulative errors by observing the same point. This reduces cumulative positional errors in the XY plane and the Z plane, making it possible to generate a three-dimensional map with high positional accuracy.

また、XY面誤差削減ステップ(S12)では、位相相関によって2つのXY面マップが示す道路を含む地表面のテクスチャ及び形状の一致性を確保することで、位置誤差を削減する。これにより、複数のノードにおける相対位置の推定にロバストであり、かつ、信頼性が高い位相相関が用いられるので、相対位置誤差が削減された位置精度の高い3次元マップの生成が可能になる。 In addition, in the XY plane error reduction step (S12), the position error is reduced by ensuring the consistency of the texture and shape of the ground surface including roads indicated by the two XY plane maps through phase correlation. As a result, a robust and highly reliable phase correlation is used to estimate the relative positions of a plurality of nodes, making it possible to generate a three-dimensional map with high position accuracy and reduced relative position errors.

また、XY面誤差削減ステップ(S12)及びZ面誤差削減ステップ(S13)では、それぞれ、異なる2つのノードのXY面マップ及びZ面マップにおいて共通する領域の一致性である一貫性と、異なる2つのノードのXY面マップ及びZ面マップにおけるエッジの連続性であるコヒーレンシと、XY面マップ及びZ面マップでの位置とGPSで得られる位置との一致性である正確性との少なくとも一つを評価するコスト関数を用いて、位置誤差を削減する。これにより、XY面及びZ面で、相対位置誤差及びグローバル位置誤差を削減する最適化が行われるので、位置精度の高い3次元マップの生成が可能になる。 In addition, in the XY plane error reduction step (S12) and the Z plane error reduction step (S13), consistency, which is the consistency of a common area in the XY plane map and Z plane map of two different nodes, and consistency, which is the consistency of a common area in the At least one of coherency, which is the continuity of edges in the XY plane map and Z plane map of a node, and accuracy, which is the consistency of the position in the XY plane map and Z plane map, and the position obtained by GPS. The cost function to be evaluated is used to reduce the position error. As a result, optimization is performed to reduce relative position errors and global position errors in the XY plane and Z plane, making it possible to generate a three-dimensional map with high position accuracy.

また、本実施の形態に係る3次元マップ生成装置10は、車両20に搭載され、道路を含む環境を検出するLiDAR11から取得したポイントクラウドから、道路を含む地表面を表す強度画像のフレームで構成されるXY面マップ及び強度画像を構成する画素の標高を示す標高画像のフレームで構成されるZ面マップを含む3次元データを生成する3次元データ生成部13と、生成された3次元データにおける位置誤差を削減することで3次元マップを生成するマップ生成部14とを備え、マップ生成部14は、XY面マップに対してグラフSLAMを実行することで、XY面での位置誤差を削減するXY面誤差削減部14aと、XY面誤差削減部14aによって位置誤差が削減されたXY面マップに対応するZ面マップに対してグラフSLAMを実行することで、Z面での位置誤差を削減するZ面誤差削減部14bとを有する。 Moreover, the three-dimensional map generation device 10 according to the present embodiment is configured with frames of intensity images representing the ground surface including roads from a point cloud obtained from the LiDAR 11 that is mounted on the vehicle 20 and detects the environment including roads. A 3D data generation unit 13 that generates 3D data including an XY plane map to be generated and a Z plane map made up of a frame of an elevation image showing the elevation of pixels constituting the intensity image; The map generation unit 14 generates a three-dimensional map by reducing position errors, and the map generation unit 14 reduces position errors in the XY plane by executing graph SLAM on the XY plane map. The position error on the Z plane is reduced by executing graph SLAM on the XY plane error reduction unit 14a and the Z plane map corresponding to the XY plane map whose position error has been reduced by the XY plane error reduction unit 14a. and a Z-plane error reduction section 14b.

これにより、XY面での位置誤差が削減された後に、位置誤差が削減されたXY面マップに対応するZ面マップに対して位置誤差を削減する処理が行われるので、XY面での誤差がZ面での誤差に累積されるという不具合が抑制され、正確なグローバルポジション(XY面での位置)及び正確な標高(Z面での位置)を示す位置精度の高い3次元マップが生成される。 As a result, after the position error in the XY plane is reduced, the process of reducing the position error is performed on the Z plane map corresponding to the XY plane map with the position error reduced, so the error in the XY plane is reduced. The problem of accumulated errors on the Z plane is suppressed, and a 3D map with high positional accuracy is generated that shows the accurate global position (position on the XY plane) and accurate elevation (position on the Z plane). .

このように、本実施の形態に係る3次元マップ生成装置10及びその方法によれば、道路をノードに分割する手法により、ループ閉鎖の検出、エッジ計算、データの保存などのデータ関連付けを実現するための処理時間が短縮される。さらに、本実施の形態では、最適化処理において、ノードのトップレフトコーナーを処理するため、3次元マップを効率的に再生成できる。したがって、ノードの画像は、膨大な数のポイントクラウドを再蓄積するのではなく、取得したオフセットに基づいてグローバル座標系でのみシフトされる。ノードの画像は、道路についての広い領域と周囲の環境とを相対的にエンコードしている。反射率の値により、描かれたランドマークが目立つマッチングパターンが実現される。これにより、位相相関法の適用が可能になり、ノード間の共通領域の誤検出が減少する。 As described above, according to the three-dimensional map generation device 10 and its method according to the present embodiment, data association such as loop closure detection, edge calculation, and data storage is realized by a method of dividing a road into nodes. processing time is reduced. Furthermore, in this embodiment, the top left corner of the node is processed in the optimization process, so the three-dimensional map can be efficiently regenerated. Therefore, the image of the node is only shifted in the global coordinate system based on the obtained offset, rather than re-accumulating a huge number of point clouds. The image of the node encodes a large area of the road and the surrounding environment relative to each other. The reflectance values provide a matching pattern in which the drawn landmarks stand out. This makes it possible to apply the phase correlation method and reduces false detection of common areas between nodes.

処理時間の短縮については、図16を用いて説明したように、25kmを表す305のノードで構成されるコースは、収集されたLIDARフレームの数が61755個のポイントクラウドで構成されるが、ループ閉鎖エッジの数は286であり、ノード間のループ閉鎖を検出する処理時間は44秒、エッジの計算は約57分、最適化処理の実行時間は30秒で、ノードの画像を再調整して3次元マップを生成する時間は17秒であった。従来の方法によれば、61755のポイントクラウド間の正しい対応を検出するのが困難であり、2つのポイントクラウド間で反復スキャンマッチングテクニックを適用し(2つのポイントクラウドごとに17秒ほど要する)、最適化プロセスを実行し、ポイントクラウドを再蓄積してマップを生成するには、膨大な処理時間を要する。 Regarding the reduction of processing time, as explained using Fig. 16, a course consisting of 305 nodes representing 25 km consists of a point cloud with the number of collected LIDAR frames being 61755, but the loop The number of closed edges is 286, the processing time for detecting loop closure between nodes is 44 seconds, the calculation of edges is about 57 minutes, and the execution time for optimization processing is 30 seconds. The time to generate the three-dimensional map was 17 seconds. According to the traditional method, it is difficult to detect the correct correspondence between 61755 point clouds, and we apply an iterative scan matching technique between two point clouds (which takes about 17 seconds for each two point clouds). Performing the optimization process and re-accumulating the point cloud to generate the map requires significant processing time.

以上、本発明の3次元マップ生成方法及び3次元マップ生成装置10について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の主旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、実施の形態における一部の構成要素を組み合わせて構築される別の形態も、本発明の範囲内に含まれる。 The three-dimensional map generation method and three-dimensional map generation device 10 of the present invention have been described above based on the embodiments, but the present invention is not limited to these embodiments. Without departing from the spirit of the present invention, the scope of the present invention includes various modifications that can be thought of by those skilled in the art to the present embodiment, and other forms constructed by combining some of the constituent elements of the embodiment. contained within.

例えば、車両20に、道路を含む環境を撮影するカメラを搭載し、3次元マップ生成装置10は、LiDAR11から取得したポイントクラウドに対して、カメラから取得した画像を補完的に用いることで、強度画像のフレームを生成してもよい。 For example, the vehicle 20 is equipped with a camera that photographs the environment including the road, and the three-dimensional map generation device 10 uses images obtained from the camera in a complementary manner to the point cloud obtained from the LiDAR 11 to increase the intensity. Frames of images may also be generated.

本発明は、LiDARが搭載された車両で得られたデータから位置精度の高い3次元マップを生成する3次元マップ生成装置として、例えば、自律走行車両に用いられる3次元マップを生成する装置として、利用できる。 The present invention is a 3D map generation device that generates a 3D map with high positional accuracy from data obtained by a vehicle equipped with LiDAR, for example, as a device that generates a 3D map used in an autonomous vehicle. Available.

10 3次元マップ生成装置
11 LiDAR
12 GPS
13 3次元データ生成部
14 マップ生成部
14a XY面誤差削減部
14b Z面誤差削減部
15 3次元マップ
20 車両
10 3D map generation device 11 LiDAR
12 GPS
13 3D data generation section 14 Map generation section 14a XY plane error reduction section 14b Z plane error reduction section 15 3D map 20 Vehicle

Claims (7)

車両に搭載され、道路を含む環境を検出するLiDAR(Light Detection and Ranging)から取得したポイントクラウドから、道路を含む地表面を表す強度画像のフレームで構成されるXY面マップ及び前記強度画像を構成する画素の標高を示す標高画像のフレームで構成されるZ面マップを含む3次元データを生成する3次元データ生成ステップと、
生成された前記3次元データにおける位置誤差を削減することで、3次元マップを生成するマップ生成ステップとを含み、
前記マップ生成ステップは、
前記XY面マップに対してグラフSLAM(Simultaneous Localization and Mapping)を実行することで、XY面での位置誤差を削減するXY面誤差削減ステップと、
前記XY面誤差削減ステップによって位置誤差が削減された前記XY面マップに対応する前記Z面マップに対してグラフSLAMを実行することで、Z面での位置誤差を削減するZ面誤差削減ステップとを含む
3次元マップ生成方法。
The intensity image is constructed from a point cloud obtained from LiDAR (Light Detection and Ranging), which is mounted on a vehicle and detects the environment including roads, and an XY plane map consisting of frames of intensity images representing the ground surface including roads. a three-dimensional data generation step of generating three-dimensional data including a Z-plane map composed of frames of elevation images indicating the elevation of pixels;
a map generation step of generating a three-dimensional map by reducing positional errors in the generated three-dimensional data,
The map generation step includes:
an XY plane error reduction step of reducing a position error in the XY plane by executing graph SLAM (Simultaneous Localization and Mapping) on the XY plane map;
a Z-plane error reduction step of reducing a positional error on the Z-plane by executing graph SLAM on the Z-plane map corresponding to the XY-plane map whose positional error has been reduced in the XY-plane error reduction step; 3D map generation method.
前記3次元データ生成ステップは、所定の矩形領域における前記強度画像を前記XY面マップとし、前記強度画像に対応する前記標高画像を前記Z面マップとし、前記XY面マップと前記Z面マップとの組をノードとする複数のノードの連結を前記3次元データとして生成し、
前記複数のノードのそれぞれに対して、対応する前記XY面マップが示す矩形領域の特定のコーナーのグローバルポジションを識別子として付与する
請求項1記載の3次元マップ生成方法。
In the three-dimensional data generation step, the intensity image in a predetermined rectangular area is set as the XY plane map, the elevation image corresponding to the intensity image is set as the Z plane map, and the XY plane map and the Z plane map are combined. Generating a connection of a plurality of nodes with a set as a node as the three-dimensional data,
2. The three-dimensional map generation method according to claim 1, wherein a global position of a specific corner of a rectangular area indicated by the corresponding XY plane map is assigned as an identifier to each of the plurality of nodes.
前記3次元データ生成ステップは、前記複数のノードのそれぞれについて、前記車両に搭載されたGPS(Global Positioning System)から初期位置を取得し、取得された前記初期位置を基準として前記フレームを蓄積していく推測航法により、当該ノードの前記XY面マップ及び前記Z面マップを生成する
請求項2記載の3次元マップ生成方法。
The three-dimensional data generation step includes acquiring an initial position of each of the plurality of nodes from a GPS (Global Positioning System) mounted on the vehicle, and accumulating the frames based on the acquired initial position. 3. The three-dimensional map generation method according to claim 2, wherein the XY plane map and the Z plane map of the node are generated by dead reckoning.
前記XY面誤差削減ステップ及び前記Z面誤差削減ステップでは、それぞれ、前記XY面マップ及び前記Z面マップに対して、前記複数のノードの連結を示すグラフにおけるループを前記車両で周回して同じ点を観測することで累積誤差を削減するループ閉鎖を行うことにより、前記XY面及び前記Z面での位置誤差を削減する
請求項2又は3記載の3次元マップ生成方法。
In the XY plane error reduction step and the Z plane error reduction step, the vehicle goes around a loop in the graph showing the connection of the plurality of nodes to the same point on the XY plane map and the Z plane map, respectively. 4. The three-dimensional map generation method according to claim 2, wherein position errors in the XY plane and the Z plane are reduced by closing a loop that reduces accumulated errors by observing.
前記XY面誤差削減ステップでは、位相相関によって2つの前記XY面マップが示す道路を含む地表面のテクスチャ及び形状の一致性を確保することで、前記位置誤差を削減する
請求項2~4のいずれか1項に記載の3次元マップ生成方法。
Any one of claims 2 to 4, wherein in the XY plane error reduction step, the position error is reduced by ensuring consistency of texture and shape of the ground surface including roads indicated by the two XY plane maps by phase correlation. The three-dimensional map generation method according to item 1.
前記XY面誤差削減ステップ及び前記Z面誤差削減ステップでは、それぞれ、
異なる2つのノードの前記XY面マップ及び前記Z面マップにおいて共通する領域の一致性である一貫性と、
異なる2つのノードの前記XY面マップ及び前記Z面マップにおけるエッジの連続性であるコヒーレンシと、
前記XY面マップ及び前記Z面マップでの位置とGPSで得られる位置との一致性である正確性と
の少なくとも一つを評価するコスト関数を用いて、前記位置誤差を削減する
請求項2~5のいずれか1項に記載の3次元マップ生成方法。
In the XY plane error reduction step and the Z plane error reduction step, respectively,
Consistency, which is the consistency of common areas in the XY plane map and the Z plane map of two different nodes;
coherency, which is the continuity of edges in the XY plane map and the Z plane map of two different nodes;
The positional error is reduced using a cost function that evaluates at least one of: accuracy, which is the consistency between the position on the XY plane map and the Z plane map, and the position obtained by GPS. 5. The three-dimensional map generation method according to any one of 5.
車両に搭載され、道路を含む環境を検出するLiDAR(Light Detection and Ranging)から取得したポイントクラウドから、道路を含む地表面を表す強度画像のフレームで構成されるXY面マップ及び前記強度画像を構成する画素の標高を示す標高画像のフレームで構成されるZ面マップを含む3次元データを生成する3次元データ生成部と、
生成された前記3次元データにおける位置誤差を削減することで、3次元マップを生成するマップ生成部とを備え、
前記マップ生成部は、
前記XY面マップに対してグラフSLAM(Simultaneous Localization and Mapping)を実行することで、XY面での位置誤差を削減するXY面誤差削減部と、
前記XY面誤差削減部によって位置誤差が削減された前記XY面マップに対応する前記Z面マップに対してグラフSLAMを実行することで、Z面での位置誤差を削減するZ面誤差削減部とを有する
3次元マップ生成装置。
The intensity image is constructed from a point cloud obtained from LiDAR (Light Detection and Ranging), which is mounted on a vehicle and detects the environment including roads, and an XY plane map consisting of frames of intensity images representing the ground surface including roads. a 3-dimensional data generation unit that generates 3-dimensional data including a Z-plane map made up of frames of elevation images indicating the elevation of pixels;
a map generation unit that generates a three-dimensional map by reducing positional errors in the generated three-dimensional data,
The map generation unit includes:
an XY plane error reduction unit that reduces positional errors in the XY plane by executing graph SLAM (Simultaneous Localization and Mapping) on the XY plane map;
a Z-plane error reduction unit that reduces positional errors on the Z-plane by executing graph SLAM on the Z-plane map corresponding to the XY-plane map whose positional error has been reduced by the XY-plane error reduction unit; A three-dimensional map generation device.
JP2020090099A 2020-05-22 2020-05-22 3D map generation method and 3D map generation device Active JP7448945B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020090099A JP7448945B2 (en) 2020-05-22 2020-05-22 3D map generation method and 3D map generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020090099A JP7448945B2 (en) 2020-05-22 2020-05-22 3D map generation method and 3D map generation device

Publications (2)

Publication Number Publication Date
JP2021184069A JP2021184069A (en) 2021-12-02
JP7448945B2 true JP7448945B2 (en) 2024-03-13

Family

ID=78767318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020090099A Active JP7448945B2 (en) 2020-05-22 2020-05-22 3D map generation method and 3D map generation device

Country Status (1)

Country Link
JP (1) JP7448945B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512802A (en) 2016-03-14 2019-05-16 イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ How to handle 3D point cloud
JP2019124808A (en) 2018-01-16 2019-07-25 株式会社豊田中央研究所 Map creation device
JP2019211466A (en) 2018-06-04 2019-12-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and device for reconstructing three-dimensional scene, apparatus, and computer readable storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512802A (en) 2016-03-14 2019-05-16 イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ How to handle 3D point cloud
JP2019124808A (en) 2018-01-16 2019-07-25 株式会社豊田中央研究所 Map creation device
JP2019211466A (en) 2018-06-04 2019-12-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and device for reconstructing three-dimensional scene, apparatus, and computer readable storage medium

Also Published As

Publication number Publication date
JP2021184069A (en) 2021-12-02

Similar Documents

Publication Publication Date Title
CN108765487B (en) Method, device, equipment and computer readable storage medium for reconstructing three-dimensional scene
US11353589B2 (en) Iterative closest point process based on lidar with integrated motion estimation for high definition maps
US11340355B2 (en) Validation of global navigation satellite system location data with other sensor data
Chiang et al. Seamless navigation and mapping using an INS/GNSS/grid-based SLAM semi-tightly coupled integration scheme
US11852729B2 (en) Ground intensity LIDAR localizer
Obst et al. Urban multipath detection and mitigation with dynamic 3D maps for reliable land vehicle localization
US20180188026A1 (en) Visual odometry and pairwise alignment for high definition map creation
JP2009294214A (en) Method and system for navigation based on topographic structure
US20200364883A1 (en) Localization of a mobile unit by means of a multi-hypothesis kalman filter method
EP3588446A2 (en) Point cloud colorization with occlusion detection
WO2020156923A2 (en) Map and method for creating a map
Ab Rahman et al. Volumetric calculation using low cost unmanned aerial vehicle (UAV) approach
CN114248778B (en) Positioning method and positioning device of mobile equipment
Cao et al. A geometry-driven car-following distance estimation algorithm robust to road slopes
de Paula Veronese et al. A single sensor system for mapping in GNSS-denied environments
Wen 3D LiDAR aided GNSS and its tightly coupled integration with INS via factor graph optimization
CN116295457A (en) Vehicle vision positioning method and system based on two-dimensional semantic map
Khoshelham et al. Vehicle positioning in the absence of GNSS signals: Potential of visual-inertial odometry
Tao et al. Automated processing of mobile mapping image sequences
Srinara et al. Performance analysis of 3D NDT scan matching for autonomous vehicles using INS/GNSS/3D LiDAR-SLAM integration scheme
JP7448945B2 (en) 3D map generation method and 3D map generation device
Monnier et al. Registration of terrestrial mobile laser data on 2D or 3D geographic database by use of a non-rigid ICP approach.
CN113227713A (en) Method and system for generating environment model for positioning
Choi et al. Point Cloud-Based Lane Detection for Optimal Local Path Planning
Parente et al. Uncertainty in landslides volume estimation using DEMs generated by airborne laser scanner and photogrammetry data

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230427

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240222

R150 Certificate of patent or registration of utility model

Ref document number: 7448945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150