JP2023164502A - Stationary object data generator, method for control, program, and storage medium - Google Patents

Stationary object data generator, method for control, program, and storage medium Download PDF

Info

Publication number
JP2023164502A
JP2023164502A JP2023143546A JP2023143546A JP2023164502A JP 2023164502 A JP2023164502 A JP 2023164502A JP 2023143546 A JP2023143546 A JP 2023143546A JP 2023143546 A JP2023143546 A JP 2023143546A JP 2023164502 A JP2023164502 A JP 2023164502A
Authority
JP
Japan
Prior art keywords
voxel
vegetation
data
vehicle
measurement point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023143546A
Other languages
Japanese (ja)
Inventor
直人 乘松
Naoto Norimatsu
令司 松本
Reiji Matsumoto
克巳 天野
Katsumi Amano
和紀 小山
Kazunori Koyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2023143546A priority Critical patent/JP2023164502A/en
Publication of JP2023164502A publication Critical patent/JP2023164502A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

To provide a stationary object data generator for generating stationary object data on a stationary object desirably used for detecting a movable object.SOLUTION: A server device 2 executes processing of: detecting a vegetation voxel Bv including a measurement point of vegetation from voxels including a measurement point related to an object measured by such a measurement device as a lidar 30; and generating a stationary obstacle flag showing a region including a stationary obstacle to a voxel from which the vegetation voxel Bv is removed, from the voxel including the measurement point.SELECTED DRAWING: Figure 9

Description

本発明は、動的物体の検知に用いられるデータに関する。 The present invention relates to data used for detecting moving objects.

従来から、レーザスキャナなどの計測装置を用いて計測した周辺物体の形状データを、予め周辺物体の形状が記憶された地図データとマッチングすることで、車両の自己位置を推定する技術が知られている。例えば、特許文献1には、空間を所定の規則で分割したボクセル中における検出物が静止物か移動物かを判定し、静止物が存在するボクセルを対象として地図データと計測データとのマッチングを行う自律移動システムが開示されている。また、特許文献1には、各ボクセルのうち静止物が存在すると設定されたボクセルを示す地図データを記憶する点についても開示されている。また、非特許文献1には、ライダなどから得られた計測点群を解析することで、木などの植生を構成する計測点群を認識する技術が開示されている。 Conventionally, technology has been known to estimate the vehicle's own position by matching the shape data of surrounding objects measured using a measuring device such as a laser scanner with map data in which the shapes of surrounding objects are stored in advance. There is. For example, in Patent Document 1, it is determined whether a detected object is a stationary object or a moving object in voxels where space is divided according to a predetermined rule, and matching between map data and measurement data is performed for voxels where stationary objects exist. An autonomous mobile system is disclosed. Further, Patent Document 1 also discloses that map data indicating a voxel in which a stationary object is set to exist among each voxel is stored. Further, Non-Patent Document 1 discloses a technique for recognizing a measurement point group that constitutes vegetation such as trees by analyzing a measurement point group obtained from a lidar or the like.

国際公開WO2013/076829International publication WO2013/076829

Fabrice Monnier, Bruno Vallet, Bahman Soheilian, TREES DETECTION FROM LASER POINT CLOUDS ACQUIRED IN DENSE URBAN AREAS BY A MOBILE MAPPING SYSTEM, [online], 2012, ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, [平成30年7月14日検索], インターネット〈URL:https://www.isprs-ann-photogramm-remote-sens-spatial-inf-sci.net/I-3/245/2012/isprsannals-I-3-245-2012.pdf〉Fabrice Monnier, Bruno Vallet, Bahman Soheilian, TREES DETECTION FROM LASER POINT CLOUDS ACQUIRED IN DENSE URBAN AREAS BY A MOBILE MAPPING SYSTEM, [online], 2012, ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, [July 2018] [Retrieved on April 14], Internet〈URL: https://www.isprs-ann-photogramm-remote-sens-spatial-inf-sci.net/I-3/245/2012/isprsannals-I-3-245- 2012.pdf〉

動的物体の検知を行う場合には、地図データ上において静止物が存在すると設定された領域については動的物体の検知対象から除外することで、処理負荷の低減や動的物体の検知精度の向上を図ることが可能である。一方、植生は移動物ではないため、特許文献1の地図データでは静止物として扱われる。しかしながら、植生を含むボクセルは、本来動的物体が存在し得る領域であるため、検知すべき動的物体を見落とす可能性がある。 When detecting moving objects, areas where stationary objects are set on the map data are excluded from the moving object detection targets to reduce the processing load and improve the detection accuracy of moving objects. It is possible to improve this. On the other hand, since vegetation is not a moving object, it is treated as a stationary object in the map data of Patent Document 1. However, since voxels containing vegetation are areas where dynamic objects can exist, there is a possibility that dynamic objects to be detected may be overlooked.

本発明は、上記のような課題を解決するためになされたものであり、動的物体の検知において好適に利用可能な静止物に関する静止物データを生成する静止物データ生成装置を提供することを主な目的とする。 The present invention has been made to solve the above problems, and it is an object of the present invention to provide a stationary object data generation device that generates stationary object data regarding stationary objects that can be suitably used in detecting moving objects. Main purpose.

請求項に記載の発明は、静止物データ生成装置は、空間を区切った領域であって、計測装置が計測した物体に関する計測点を含む領域から、植生の計測点を含む領域を検出する検出手段と、前記物体の計測点を含む領域から、前記植生の計測点のみを含む領域を少なくとも除外した領域に対し、静止物が存在する領域であることを示す静止物データを生成する生成手段と、を有する。 In the claimed invention, the stationary object data generation device includes a detection means for detecting an area including a measurement point of vegetation from a partitioned area of space including a measurement point related to an object measured by the measurement device. and generating means for generating stationary object data indicating that a stationary object is present in a region obtained by excluding at least a region including only the measurement point of the vegetation from a region including the measurement point of the object; has.

また、請求項に記載の発明は、静止物データ生成装置が実行する制御方法であって、空間を区切った領域であって、計測装置が計測した物体に関する計測点を含む領域から、植生の計測点を含む領域を検出する検出工程と、前記物体の計測点を含む領域から、前記植生の計測点のみを含む領域を少なくとも除外した領域に対し、静止物が存在する領域であることを示す静止物データを生成する生成工程と、を有する。 Further, the claimed invention is a control method executed by a stationary object data generation device, which measures vegetation from a region partitioned into space that includes measurement points related to objects measured by a measuring device. a detection step of detecting an area including a point, and a stationary area indicating that a stationary object is present in an area obtained by excluding at least an area including only the measurement point of the vegetation from an area including the measurement point of the object; and a generation step of generating object data.

また、請求項に記載の発明は、コンピュータが実行するプログラムであって、空間を区切った領域であって、計測装置が計測した物体に関する計測点を含む領域から、植生の計測点を含む領域を検出する検出手段と、前記物体の計測点を含む領域から、前記植生の計測点のみを含む領域を少なくとも除外した領域に対し、静止物が存在する領域であることを示す静止物データを生成する生成手段として前記コンピュータを機能させる。 Further, the claimed invention is a program executed by a computer, which divides a space into a region including measurement points of vegetation from a region including measurement points related to an object measured by a measuring device. a detection means for detecting, and generating stationary object data indicating that a stationary object is present in an area excluding at least an area including only the measurement point of the vegetation from an area including the measurement point of the object; The computer is made to function as a generating means.

地図更新システムの概略構成である。This is a schematic configuration of the map update system. 車載機及びサーバ装置のブロック構成を示す。The block configuration of the on-vehicle device and server device is shown. ボクセルデータの概略的なデータ構造の一例を示す。An example of a schematic data structure of voxel data is shown. ボクセルデータ生成処理の手順を示すフローチャートである。3 is a flowchart showing the procedure of voxel data generation processing. 植生判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of vegetation determination processing. 位置推定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of position estimation processing. 第1実施例に基づく位置推定と、比較例に基づく位置推定との処理の概要を示す図である。FIG. 3 is a diagram illustrating an overview of processing of position estimation based on the first example and position estimation based on a comparative example. 第2実施例に係るボクセルデータの概略的なデータ構造の一例を示す。An example of a schematic data structure of voxel data according to a second example is shown. 第2実施例に係るボクセルデータ生成処理の手順を示すフローチャートである。7 is a flowchart showing the procedure of voxel data generation processing according to the second embodiment. 第2実施例に係る動的物体検知処理の手順を示すフローチャートである。12 is a flowchart showing the procedure of dynamic object detection processing according to the second embodiment.

本発明の好適な実施形態によれば、静止物データ生成装置は、空間を区切った領域であって、計測装置が計測した物体に関する計測点を含む領域から、植生の計測点を含む領域を検出する検出手段と、前記物体の計測点を含む領域から、前記植生の計測点のみを含む領域を少なくとも除外した領域に対し、静止物が存在する領域であることを示す静止物データを生成する生成手段と、を有する。「空間を区切った領域」とは、空間を所定の規則により分割した領域であり、例えば大きさが一定の直方体又は立方体である。この態様では、静止物データ生成装置は、経時的な位置の変化が生じる植生の領域を、静止物が存在する領域であることを示す静止物データを生成する対象から除外する。これにより、静止物データ生成装置は、動的物体の検知に用いた場合に動的物体の見落としが発生しない静止物データを好適に生成することができる。 According to a preferred embodiment of the present invention, the stationary object data generation device detects an area including a measurement point of vegetation from a partitioned area of space that includes a measurement point related to an object measured by the measurement device. a detection means for generating stationary object data indicating that a stationary object is present in a region obtained by excluding at least a region including only the measurement point of the vegetation from a region including the measurement point of the object; and means. A "region in which space is divided" is a region in which space is divided according to a predetermined rule, and is, for example, a rectangular parallelepiped or a cube having a constant size. In this aspect, the stationary object data generation device excludes a region of vegetation whose position changes over time from targets for generating stationary object data indicating that the stationary object is an area where a stationary object exists. Thereby, the stationary object data generation device can suitably generate stationary object data that does not cause a moving object to be overlooked when used for detecting a moving object.

上記静止物データ生成装置の一態様では、前記検出手段は、前記算出手段の算出結果に基づき、前記計測点が平面を形成する前記領域である第1領域を判定する第1判定手段と、前記算出手段の算出結果に基づき、前記計測点が柱状体を形成する前記領域である第2領域を判定する第2判定手段と、前記物体の計測点を含む領域であって、前記第1領域又は前記第2領域のいずれにも該当しない領域を、前記植生の計測点を含む領域として判定する第3判定手段と、を有する。この態様により、静止物データ生成装置は、植生の計測点を含む領域を的確に検出することができる。 In one aspect of the stationary object data generation device, the detection means includes a first determination means for determining a first region in which the measurement point forms a plane based on the calculation result of the calculation means; a second determination means for determining a second region, which is the region in which the measurement point forms a columnar body, based on the calculation result of the calculation means; and third determining means for determining an area that does not fall under any of the second areas as an area that includes the vegetation measurement point. With this aspect, the stationary object data generation device can accurately detect an area including a vegetation measurement point.

上記静止物データ生成装置の他の一態様では、前記生成手段は、前記物体の計測点を含む領域から、動的物体の計測点を含む領域と、前記植生の計測点のみを含む領域と、を少なくとも除外した領域に対し、静止物が存在する領域であることを示す静止物データを生成する。この態様により、静止物データ生成装置は、静止物データを好適に生成することができる。 In another aspect of the stationary object data generation device, the generation means divides a region including measurement points of the object into a region including measurement points of a dynamic object and a region including only measurement points of the vegetation; Stationary object data indicating that the stationary object is present is generated for the area where at least the stationary object is excluded. With this aspect, the stationary object data generation device can suitably generate stationary object data.

上記静止物データ生成装置の他の一態様では、前記生成手段は、前記物体の計測点を含む領域から、動的物体の計測点を含む領域を少なくとも除外した領域に対し、静止物が存在する領域であることを示す静止物データを生成する。この態様により、静止物データ生成装置は、静止物が存在する領域であることを示す静止物データを生成する対象から、動的物体が現れる可能性がある領域をより確実に除外することができる。 In another aspect of the stationary object data generation device, the generation means detects that a stationary object exists in a region that includes at least a region that includes a measurement point of a moving object from a region that includes a measurement point of the object. Generate stationary object data indicating the area. With this aspect, the stationary object data generation device can more reliably exclude areas where a moving object may appear from the targets for which stationary object data indicating areas where stationary objects exist are generated. .

上記静止物データ生成装置の他の一態様では、静止物データ生成装置は、前記静止物データを、計測部により動的物体の検知を行う情報処理装置へ送信する送信手段をさらに備える。この態様により、静止物データ生成装置は、動的物体の検知に好適な静止物データを情報処理装置(例えば自動運転を行う車両等)に供給することができる。 In another aspect of the stationary object data generation device, the stationary object data generation device further includes a transmitting unit that transmits the stationary object data to an information processing device that detects a moving object using a measurement unit. According to this aspect, the stationary object data generation device can supply stationary object data suitable for detecting a moving object to an information processing device (for example, a vehicle that performs automatic driving).

本発明の他の実施形態によれば、静止物データ生成装置が実行する制御方法であって、空間を区切った領域であって、計測装置が計測した物体に関する計測点を含む領域から、植生の計測点を含む領域を検出する検出工程と、前記物体の計測点を含む領域から、前記植生の計測点のみを含む領域を少なくとも除外した領域に対し、静止物が存在する領域であることを示す静止物データを生成する生成工程と、を有する。静止物データ生成装置は、この制御方法を実行することで、動的物体の検知に用いた場合に動的物体の見落としが発生しない静止物データを好適に生成することができる。 According to another embodiment of the present invention, there is provided a control method executed by a stationary object data generation device, the control method being a control method executed by a stationary object data generation device, in which a vegetation a detection step of detecting an area including the measurement point; and indicating that the area including only the measurement point of the vegetation is excluded from the area including the measurement point of the object as an area where a stationary object exists; and a generation step of generating stationary object data. By executing this control method, the stationary object data generation device can suitably generate stationary object data that will not cause a moving object to be overlooked when used for detecting a moving object.

本発明の他の実施形態によれば、コンピュータが実行するプログラムであって、空間を区切った領域であって、計測装置が計測した物体に関する計測点を含む領域から、植生の計測点を含む領域を検出する検出手段と、前記物体の計測点を含む領域から、前記植生の計測点のみを含む領域を少なくとも除外した領域に対し、静止物が存在する領域であることを示す静止物データを生成する生成手段として前記コンピュータを機能させる。静止物データ生成装置は、このプログラムを実行することで、動的物体の検知に用いた場合に動的物体の見落としが発生しない静止物データを好適に生成することができる。好適には、上記プログラムは、記憶媒体に記憶されるとよい。 According to another embodiment of the present invention, there is provided a program executed by a computer, which is a region in which a space is divided from a region including a measurement point regarding an object measured by a measuring device, and a region including a measurement point of vegetation. and generating stationary object data indicating that a stationary object is present in a region obtained by excluding at least a region including only the measurement point of the vegetation from a region including the measurement point of the object. The computer is made to function as a generating means for generating the information. By executing this program, the stationary object data generation device can suitably generate stationary object data that will not cause a moving object to be overlooked when used for detecting a moving object. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

<第1実施例>
第1実施例は、ボクセルデータに基づく位置推定に関する。
<First example>
The first embodiment relates to position estimation based on voxel data.

(1)地図更新システムの概要
図1は、第1実施例に係る地図更新システムの概略構成である。地図更新システムは、車両と共に移動する車載機1と、地図情報の配信を行うサーバ装置2と、を備える。なお、図1では、サーバ装置2と通信を行う車載機1及び車両が1組のみ表示されているが、実際には、異なる位置に複数の車載機1及び車両の組が存在する。
(1) Overview of map update system
FIG. 1 shows a schematic configuration of a map update system according to a first embodiment. The map update system includes an on-vehicle device 1 that moves with a vehicle, and a server device 2 that distributes map information. Although FIG. 1 shows only one set of the on-vehicle device 1 and vehicle that communicate with the server device 2, in reality, a plurality of sets of the on-vehicle device 1 and the vehicle exist at different positions.

車載機1は、ライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)などの外界センサ、ジャイロセンサや車速センサなどの内界センサと電気的に接続し、これらの出力に基づき、車載機1が搭載される車両の位置(「自車位置」とも呼ぶ。)の推定を行う。そして、車載機1は、自車位置の推定結果に基づき、設定された目的地への経路に沿って走行するように、車両の自動運転制御などを行う。車載機1は、ボクセルデータを含む地図データベース(DB:DataBase)10を記憶する。ボクセルデータは、3次元空間を複数の領域に分割した場合の各領域(「ボクセル」とも呼ぶ。)ごとに静止構造物の位置情報等を記録したデータである。ボクセルデータは、各ボクセル内の静止構造物の計測された計測点の点群データを正規分布により表したデータを含み、後述するように、NDT(Normal Distributions Transform)を用いたスキャンマッチングに用いられる。 The in-vehicle device 1 is electrically connected to external sensors such as lidar (Light Detection and Ranging or Laser Illuminated Detection and Ranging), internal sensors such as a gyro sensor and a vehicle speed sensor, and based on the outputs of these sensors, The position of the vehicle in which the on-vehicle device 1 is mounted (also referred to as "own vehicle position") is estimated. Based on the estimation result of the own vehicle position, the on-vehicle device 1 performs automatic driving control of the vehicle so that the vehicle travels along the route to the set destination. The on-vehicle device 1 stores a map database (DB: DataBase) 10 including voxel data. Voxel data is data in which position information of a stationary structure, etc. is recorded for each region (also referred to as "voxel") when a three-dimensional space is divided into a plurality of regions. The voxel data includes data representing point cloud data of measured measurement points of a stationary structure within each voxel using a normal distribution, and is used for scan matching using NDT (Normal Distributions Transform), as described later. .

車載機1は、ライダが出力する物体の表面の計測点を絶対座標系に変換した点群データと、当該点群データが属するボクセルに対応するボクセルデータとに基づき、NDTに基づくスキャンマッチングを行うことで、自車位置の推定を行う。また、車載機1は、上述の点群データを含む計測データ「D1」を、サーバ装置2へ送信する。また、車載機1は、サーバ装置2から地図DB10に関する更新データ「D2」を受信することで、地図DB10の更新を行う。車載機1は、「情報処理装置」及び「位置推定装置」の一例である。 The on-vehicle device 1 performs scan matching based on NDT based on point cloud data output by the lidar, which is obtained by converting measurement points on the surface of an object into an absolute coordinate system, and voxel data corresponding to voxels to which the point cloud data belongs. This allows the vehicle's position to be estimated. Furthermore, the on-vehicle device 1 transmits measurement data “D1” including the above-mentioned point cloud data to the server device 2. Furthermore, the vehicle-mounted device 1 updates the map DB 10 by receiving update data “D2” regarding the map DB 10 from the server device 2 . The on-vehicle device 1 is an example of an "information processing device" and a "position estimating device."

サーバ装置2は、複数の車両に対応する車載機1とデータ通信を行う。サーバ装置2は、複数の車両に対応する車載機1に配信するための配信地図DB23を記憶し、配信地図DB23には各ボクセルに対応するボクセルデータが含まれている。また、サーバ装置2は、車載機1から受信する計測データD1を蓄積した計測点群DB24を記憶する。そして、サーバ装置2は、計測点群DB24に蓄積した計測データD1に基づきボクセルデータを生成し、生成したボクセルデータに基づき配信地図DB23を更新する。また、サーバ装置2は、生成したボクセルデータを含む更新データD2を車載機1へ送信する。サーバ装置2は、「記憶装置」及び「地図生成装置」の一例である。 The server device 2 performs data communication with the on-vehicle device 1 corresponding to a plurality of vehicles. The server device 2 stores a distribution map DB 23 for distribution to the on-vehicle device 1 corresponding to a plurality of vehicles, and the distribution map DB 23 includes voxel data corresponding to each voxel. Further, the server device 2 stores a measurement point group DB 24 in which measurement data D1 received from the on-vehicle device 1 is accumulated. Then, the server device 2 generates voxel data based on the measurement data D1 accumulated in the measurement point group DB 24, and updates the distribution map DB 23 based on the generated voxel data. Further, the server device 2 transmits update data D2 including the generated voxel data to the vehicle-mounted device 1. The server device 2 is an example of a "storage device" and a "map generation device."

(2)車載機の構成
図2(A)は、車載機1の機能的構成を表すブロック図を示す。図2(A)に示すように、車載機1は、主に、通信部11と、記憶部12と、センサ部13と、入力部14と、制御部15と、出力部16とを有する。通信部11、記憶部12、センサ部13、入力部14、制御部15及び出力部16は、バスラインを介して相互に接続されている。
(2) Configuration of onboard equipment
FIG. 2(A) shows a block diagram showing the functional configuration of the vehicle-mounted device 1. As shown in FIG. 2(A), the on-vehicle device 1 mainly includes a communication section 11, a storage section 12, a sensor section 13, an input section 14, a control section 15, and an output section 16. The communication section 11, the storage section 12, the sensor section 13, the input section 14, the control section 15, and the output section 16 are interconnected via a bus line.

通信部11は、制御部15の制御に基づき、制御部15が生成した計測データD1をサーバ装置2へ送信したり、サーバ装置2から配信される更新データD2を受信したりする。また、通信部11は、車両を制御するための信号を車両に送信したり、車両の状態に関する信号を車両から受信したりする。 The communication unit 11 transmits measurement data D1 generated by the control unit 15 to the server device 2 and receives update data D2 distributed from the server device 2 under the control of the control unit 15. The communication unit 11 also transmits signals for controlling the vehicle to the vehicle, and receives signals regarding the state of the vehicle from the vehicle.

記憶部12は、制御部15が実行するプログラムや、制御部15が所定の処理を実行する為に必要な情報を記憶する。本実施例では、記憶部12は、ボクセルデータを含む地図DB10を記憶する。 The storage unit 12 stores programs executed by the control unit 15 and information necessary for the control unit 15 to execute predetermined processes. In this embodiment, the storage unit 12 stores a map DB 10 including voxel data.

センサ部13は、ライダ30と、カメラ31と、GPS受信機32と、ジャイロセンサ33と、速度センサ34とを含む。ライダ30は、水平方向および垂直方向の所定の角度範囲に対してパルスレーザを出射することで、外界に存在する物体までの距離を離散的に測定し、当該物体の位置を示す3次元の点群データを生成する。この場合、ライダ30は、照射方向を変えながらレーザ光を照射する照射部と、照射したレーザ光の反射光(散乱光)を受光する受光部と、受光部が出力する受光信号に基づくスキャンデータを出力する出力部とを有する。スキャンデータは、受光部が受光したレーザ光に対応する照射方向と、上述の受光信号に基づき特定される当該レーザ光の応答遅延時間とに基づき生成される。ライダ30は、「計測装置」の一例である。 The sensor section 13 includes a lidar 30, a camera 31, a GPS receiver 32, a gyro sensor 33, and a speed sensor 34. The lidar 30 discretely measures the distance to an object in the outside world by emitting a pulsed laser in a predetermined angular range in the horizontal and vertical directions, and generates a three-dimensional point indicating the position of the object. Generate group data. In this case, the lidar 30 includes an irradiation section that irradiates laser light while changing the irradiation direction, a light reception section that receives reflected light (scattered light) of the irradiated laser light, and scan data based on the light reception signal output by the light reception section. and an output section that outputs. The scan data is generated based on the irradiation direction corresponding to the laser light received by the light receiving section and the response delay time of the laser light specified based on the above-mentioned light reception signal. The rider 30 is an example of a "measuring device".

入力部14は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等であり、経路探索のための目的地を指定する入力、自動運転のオン及びオフを指定する入力などを受け付け、生成した入力信号を制御部15へ供給する。出力部16は、例えば、制御部15の制御に基づき出力を行うディスプレイやスピーカ等である。 The input unit 14 is a button, a touch panel, a remote controller, a voice input device, etc. for the user to operate, and accepts inputs such as specifying a destination for route searching, inputs specifying on and off of automatic driving, etc. , supplies the generated input signal to the control section 15. The output unit 16 is, for example, a display, a speaker, or the like that outputs based on the control of the control unit 15.

制御部15は、プログラムを実行するCPUなどを含み、車載機1の全体を制御する。例えば、制御部15は、ライダ30が出力する計測点を絶対座標系に変換した点群データと、当該点群データが属するボクセルに対応するボクセルデータとに基づき、NDTに基づくスキャンマッチングを行うことで、自車位置の推定を行う。また、制御部15は、通信部11がサーバ装置2から受信した更新データD2に基づき、地図DB10の更新を行う。 The control unit 15 includes a CPU that executes programs, and controls the entire vehicle-mounted device 1. For example, the control unit 15 may perform scan matching based on NDT based on point cloud data obtained by converting measurement points output by the lidar 30 into an absolute coordinate system and voxel data corresponding to voxels to which the point cloud data belongs. Then, the vehicle's position is estimated. Further, the control unit 15 updates the map DB 10 based on the update data D2 that the communication unit 11 receives from the server device 2.

また、制御部15は、ライダ30から出力される点群データに基づき生成した計測データD1を、通信部11によりサーバ装置2へ送信する。この場合、制御部15は、例えば、ライダ30から出力される計測点の点群データを、推定した自車位置及び車両に対するライダ30の位置並びに姿勢の情報に基づき絶対座標系に変換し、変換後の点群データを計測データD1に含めて通信部11によりサーバ装置2へ送信する。他の例では、制御部15は、ライダ30から出力される点群データ(所謂生データ)と、当該点群データを絶対座標系に変換するのに必要なデータ(上述の自車位置等)とを計測データD1に含めて通信部11によりサーバ装置2へ送信する。後者の例では、サーバ装置2は、計測データD1に基づき、絶対座標系により表された計測点の点群データを生成する。 Further, the control unit 15 transmits measurement data D1 generated based on the point cloud data output from the lidar 30 to the server device 2 through the communication unit 11. In this case, the control unit 15 converts, for example, point cloud data of measurement points output from the rider 30 into an absolute coordinate system based on the estimated own vehicle position and information on the position and orientation of the rider 30 with respect to the vehicle, and The subsequent point cloud data is included in the measurement data D1 and transmitted to the server device 2 by the communication unit 11. In another example, the control unit 15 outputs point cloud data (so-called raw data) output from the lidar 30 and data necessary to convert the point cloud data into an absolute coordinate system (such as the above-mentioned own vehicle position). is included in the measurement data D1 and transmitted to the server device 2 by the communication unit 11. In the latter example, the server device 2 generates point cloud data of measurement points expressed in an absolute coordinate system based on the measurement data D1.

(3)サーバ装置の構成
図2(B)は、サーバ装置2の概略構成を示す。図2(B)に示すように、サーバ装置2は、通信部21と、記憶部22と、制御部25とを有する。通信部21、記憶部22、及び制御部25は、バスラインを介して相互に接続されている。
(3) Configuration of server device
FIG. 2(B) shows a schematic configuration of the server device 2. As shown in FIG. As shown in FIG. 2(B), the server device 2 includes a communication section 21, a storage section 22, and a control section 25. The communication section 21, the storage section 22, and the control section 25 are interconnected via a bus line.

通信部21は、制御部25の制御に基づき、車載機1と各種データの通信を行う。記憶部22は、サーバ装置2の動作を制御するためのプログラムを保存したり、サーバ装置2の動作に必要な情報を保持したりする。また、記憶部22は、配信地図DB23と、複数の車載機1から送信される計測データD1に基づく物体の計測点の点群データを記録する計測点群DB24とを記憶する。 The communication unit 21 communicates various data with the vehicle-mounted device 1 under the control of the control unit 25 . The storage unit 22 stores programs for controlling the operation of the server device 2 and holds information necessary for the operation of the server device 2. The storage unit 22 also stores a distribution map DB 23 and a measurement point cloud DB 24 that records point cloud data of measurement points of objects based on the measurement data D1 transmitted from the plurality of in-vehicle devices 1.

制御部25は、図示しないCPU、ROM及びRAMなどを備え、サーバ装置2内の各構成要素に対して種々の制御を行う。本実施例では、制御部25は、車載機1から通信部21が受信する計測データD1を計測点群DB24に蓄積し、蓄積した計測データD1に基づきボクセルデータを生成する。この場合、制御部25は、ボクセルごとに、植生を含むボクセルであるか否かを判定し、その判定結果に基づき、後述する重み付け値及び植生フラグを生成してボクセルデータに含める。また、制御部25は、生成したボクセルデータに基づく更新データD2を通信部21により車載機1へ送信する。制御部25は、プログラムを実行する「コンピュータ」の一例である。 The control unit 25 includes a CPU, ROM, RAM, etc. (not shown), and performs various controls on each component within the server device 2. In this embodiment, the control unit 25 stores the measurement data D1 that the communication unit 21 receives from the on-vehicle device 1 in the measurement point group DB 24, and generates voxel data based on the stored measurement data D1. In this case, the control unit 25 determines for each voxel whether or not the voxel includes vegetation, and based on the determination result, generates a weighting value and a vegetation flag, which will be described later, and includes them in the voxel data. Further, the control unit 25 transmits update data D2 based on the generated voxel data to the vehicle-mounted device 1 through the communication unit 21. The control unit 25 is an example of a "computer" that executes a program.

(4)NDTに基づくスキャンマッチング
次に、本実施例におけるNDTに基づくスキャンマッチングについて説明する。
(4) Scan matching based on NDT
Next, scan matching based on NDT in this embodiment will be explained.

まず、NDTに基づくスキャンマッチングに用いるボクセルデータについて説明する。図3は、ボクセルデータの概略的なデータ構造の一例を示す。 First, voxel data used for scan matching based on NDT will be explained. FIG. 3 shows an example of a schematic data structure of voxel data.

ボクセルデータは、ボクセル内の点群を正規分布で表現する場合のパラメータの情報を含み、本実施例では、図3に示すように、ボクセルIDと、ボクセル座標と、平均ベクトルと、共分散行列と、重み付け値と、植生フラグとを含む。ここで、「ボクセル座標」は、各ボクセルの中心位置などの基準となる位置の絶対的な3次元座標を示す。なお、各ボクセルは、空間を格子状に分割した立方体であり、予め形状及び大きさが定められているため、ボクセル座標により各ボクセルの空間を特定することが可能である。ボクセル座標は、ボクセルIDとして用いられてもよい。 Voxel data includes information on parameters when expressing a point group within a voxel with a normal distribution, and in this example, as shown in FIG. , a weighting value, and a vegetation flag. Here, "voxel coordinates" indicates the absolute three-dimensional coordinates of a reference position such as the center position of each voxel. Note that each voxel is a cube obtained by dividing the space into a grid pattern, and has a predetermined shape and size, so it is possible to specify the space of each voxel using voxel coordinates. Voxel coordinates may be used as voxel IDs.

「平均ベクトル」及び「共分散行列」は、対象のボクセル内での点群を正規分布で表現する場合のパラメータに相当する平均ベクトル及び共分散行列を示し、任意のボクセル「n」内の任意の点「i」の座標をX(i)=[x(i)、y(i)、z(i)]と定義し、ボクセルn内での点群数を「N」とすると、ボクセルnでの平均ベクトル「μ」及び共分散行列「V」は、それぞれ以下の式(1)及び式(2)により表される。 "Mean vector" and "covariance matrix" indicate the mean vector and covariance matrix that correspond to the parameters when the point group within the target voxel is represented by a normal distribution, and The coordinates of point “i” in voxel n are defined as “X n (i) = [x n (i), y n (i), z n (i) ] '', the mean vector "μ n " and covariance matrix "V n " at voxel n are expressed by the following equations (1) and (2), respectively.

Figure 2023164502000002
Figure 2023164502000002

Figure 2023164502000003
Figure 2023164502000003

「重み付け値」は、対象のボクセルのボクセルデータ(特に平均ベクトル及び共分散行列)の信頼度に応じた値に設定され、スキャンマッチングにおいて設定される対象のボクセルに対する重みを表す。また、本実施例では、植生を含むボクセルであると判定されたボクセル(「植生ボクセルBv」とも呼ぶ。)に対する重み付け値は、他のボクセルに対する重み付け値よりも低く設定される。「植生フラグ」は、対象のボクセルが植生を含むボクセルであるか否かを示すフラグ情報である。 The "weighting value" is set to a value according to the reliability of voxel data (in particular, the mean vector and covariance matrix) of the target voxel, and represents the weight set for the target voxel in scan matching. Further, in this embodiment, the weighting value for a voxel determined to be a voxel containing vegetation (also referred to as a "vegetation voxel Bv") is set lower than the weighting value for other voxels. The "vegetation flag" is flag information indicating whether or not the target voxel includes vegetation.

次に、ボクセルデータを用いたNDTによるスキャンマッチングについて説明する。本実施例では、後述するように、車載機1は、NDTスキャンマッチングにより得られる評価関数の値(評価値)を、ボクセルデータに含まれる重み付け値を用いて重み付けして算出する。これにより、車載機1は、NDTスキャンマッチングに基づく位置推定精度を好適に向上させる。 Next, scan matching by NDT using voxel data will be explained. In this embodiment, as will be described later, the vehicle-mounted device 1 weights and calculates the value of the evaluation function (evaluation value) obtained by NDT scan matching using the weighting value included in the voxel data. Thereby, the vehicle-mounted device 1 suitably improves the position estimation accuracy based on NDT scan matching.

車両を想定したNDTによるスキャンマッチングは、道路平面(ここではxy座標とする)内の移動量及び車両の向きを要素とした推定パラメータP=[t、t、t、tψを推定することとなる。ここで、「t」は、x方向の移動量を示し、「t」は、y方向の移動量を示し、「t」は、z方向の移動量を示し、「tψ」は、ヨー角(ヨー方向の角度変化量)を示す。なお、ピッチ角、ロール角は、道路勾配や振動によって生じるものの、無視できる程度に小さい。 Scan matching by NDT assuming a vehicle uses an estimated parameter P=[t x , ty , tz , t ψ ] T using the amount of movement in the road plane (here xy coordinates) and the direction of the vehicle as elements. will be estimated. Here, "t x " indicates the amount of movement in the x direction, " ty " indicates the amount of movement in the y direction, " tz " indicates the amount of movement in the z direction, and "t ψ " indicates the amount of movement in the z direction. , indicates the yaw angle (the amount of change in angle in the yaw direction). Although the pitch angle and roll angle are caused by the road slope and vibration, they are small enough to be ignored.

ライダ2により得られた計測点を絶対座標系に変換した点群データに対して、マッチングさせるべきボクセルとの対応付けを行った場合に、対応するボクセルnでの任意の点の座標をX(i)=[x(i)、y(i)、z(i)]とする。そして、上述の推定パラメータPを用い、X(i)=[x(i)、y(i)、z(i)]を座標変換すると、変換後の座標「X′」は、以下の式(3)により表される。 When the point cloud data obtained by converting the measurement points obtained by lidar 2 into an absolute coordinate system is associated with the voxel to be matched, the coordinates of an arbitrary point at the corresponding voxel n are expressed as X L Let (i)=[x n (i), y n (i), z n (i)] T. Then, when the coordinates of X L (i) = [x n (i), y n (i), z n (i)] T are transformed using the estimated parameter P described above, the coordinates after the transformation are "X' n ". is expressed by the following equation (3).

Figure 2023164502000004
そして、本実施例では、車載機1は、座標変換した点群と、ボクセルデータに含まれる平均ベクトルμと共分散行列Vとを用い、以下の式(4)により示されるボクセルnの評価関数値「E」を算出する。
Figure 2023164502000004
In this embodiment, the on-vehicle device 1 uses the coordinate-transformed point group, the mean vector μ n and the covariance matrix V n included in the voxel data, and calculates the value of the voxel n expressed by the following equation (4). An evaluation function value “E n ” is calculated.

Figure 2023164502000005
ここで、「w」は、ボクセルnに対する重み付け値を示す。式(4)により、重み付け値wが大きいほど、評価関数Eは大きい値となる。
Figure 2023164502000005
Here, “w n ” indicates a weighting value for voxel n. According to equation (4), the larger the weighting value w n is, the larger the evaluation function E n becomes.

また、車載機1は、式(4)により示されるボクセルごとの評価関数値(「個別評価関数値」とも呼ぶ。)の算出後、式(5)により示されるマッチングの対象となる全てのボクセルを対象とした総合的な評価関数値「E」(「総合評価関数値」とも呼ぶ。)を算出する。 In addition, after calculating the evaluation function value for each voxel (also referred to as "individual evaluation function value") shown by equation (4), the in-vehicle device 1 calculates all voxels to be matched shown by equation (5). A comprehensive evaluation function value "E" (also referred to as "comprehensive evaluation function value") is calculated.

Figure 2023164502000006
「M」は、マッチングの対象となるボクセルの数を示す。総合評価関数値Eは「評価値」の一例である。
Figure 2023164502000006
"M" indicates the number of voxels to be matched. The comprehensive evaluation function value E is an example of an "evaluation value."

その後、車載機1は、ニュートン法などの任意の求根アルゴリズムにより総合評価関数値Eが最大となるとなる推定パラメータPを算出する。そして、車載機1は、自律測位装置の出力等に基づき予測した自車位置(「予測自車位置」とも呼ぶ。)「X」に対し、推定パラメータPを適用することで、予測自車位置よりも高精度な自車位置(「推定自車位置」とも呼ぶ。)「X」を推定する。 Thereafter, the vehicle-mounted device 1 calculates the estimated parameter P that maximizes the comprehensive evaluation function value E using an arbitrary root-finding algorithm such as Newton's method. Then, the onboard device 1 applies the estimated parameter P to the predicted own vehicle position (also referred to as the "predicted own vehicle position") "X - " based on the output of the autonomous positioning device, etc. The own vehicle position (also referred to as the "estimated own vehicle position") "X ^ " is estimated with higher accuracy than the vehicle position.

このように、車載機1は、各ボクセルに対し、それぞれのボクセルデータ(平均ベクトル、共分散行列)に対して植生ボクセルBvか否かに応じた重み付け値を乗じている。これにより、植生ボクセルBvの評価関数Eが相対的に小さくなり、NDTマッチングによる位置推定精度が好適に向上する。 In this way, the vehicle-mounted device 1 multiplies each voxel data (average vector, covariance matrix) by a weighting value depending on whether the voxel is a vegetation voxel Bv or not. As a result, the evaluation function E n of the vegetation voxel Bv becomes relatively small, and the accuracy of position estimation by NDT matching is suitably improved.

なお、植生ボクセルBvに対する重み付け値は0であってもよい。この場合、植生ボクセルBv以外のボクセルの評価関数Eに基づき推定パラメータPを推定するため、植生の影響を完全に排除した位置推定を行うことができる。 Note that the weighting value for the vegetation voxel Bv may be 0. In this case, since the estimated parameter P is estimated based on the evaluation function E n of voxels other than the vegetation voxel Bv, it is possible to perform position estimation that completely eliminates the influence of vegetation.

(5)ボクセルデータの生成
次に、サーバ装置2がボクセルデータの生成時に実行する植生ボクセルBvの判定処理について説明する。
(5) Generation of voxel data
Next, a description will be given of the vegetation voxel Bv determination process that the server device 2 executes when generating voxel data.

図4は、サーバ装置2が実行するボクセルデータの生成処理に関するフローチャートである。サーバ装置2は、図4に示すフローチャートの処理を、所定のタイミングにおいて実行する。 FIG. 4 is a flowchart regarding the voxel data generation process executed by the server device 2. The server device 2 executes the process of the flowchart shown in FIG. 4 at a predetermined timing.

まず、サーバ装置2は、計測点群DB24に記録された各計測点が属するボクセルを認識し、上述した式(1)及び式(2)に基づき、ボクセルごとに計測点の平均ベクトル及び共分散行列を算出する(ステップS101)。 First, the server device 2 recognizes the voxel to which each measurement point recorded in the measurement point group DB 24 belongs, and calculates the average vector and covariance of the measurement point for each voxel based on the above-mentioned formulas (1) and (2). A matrix is calculated (step S101).

次に、サーバ装置2は、計測点を含む各ボクセルに対し、植生ボクセルBvであるか否かを判定する植生判定処理を実行する(ステップS102)。この植生判定処理の具体例については図5のフローチャートを参照して後述する。 Next, the server device 2 executes a vegetation determination process for determining whether each voxel including the measurement point is a vegetation voxel Bv (step S102). A specific example of this vegetation determination process will be described later with reference to the flowchart of FIG.

そして、サーバ装置2は、ステップS102での判定結果に基づき、ボクセルごとに重み付け値及び植生フラグを設定する(ステップS103)。例えば、サーバ装置2は、植生ボクセルBvとそれ以外のボクセルとに対してそれぞれ付与すべき重み付け値及び植生フラグの値を示す設定情報を予め記憶しておく。そして、サーバ装置2は、上述の設定情報を参照し、ステップS103で植生ボクセルBvと判定されたボクセルと、植生ボクセルBv以外のボクセルとに対し、それぞれ異なる重み付け値及び植生フラグを付与する。この場合、植生ボクセルBvに対する重み付け値は、他のボクセルに対する重み付け値よりも低く設定される。 Then, the server device 2 sets a weighting value and a vegetation flag for each voxel based on the determination result in step S102 (step S103). For example, the server device 2 stores in advance setting information indicating weighting values and vegetation flag values to be assigned to the vegetation voxel Bv and other voxels, respectively. Then, the server device 2 refers to the above-mentioned setting information and assigns different weighting values and vegetation flags to the voxel determined to be the vegetation voxel Bv in step S103 and the voxel other than the vegetation voxel Bv. In this case, the weighting value for the vegetation voxel Bv is set lower than the weighting value for other voxels.

なお、サーバ装置2は、図4のフローチャートの処理の前処理として、計測点群DB24に記録された計測点群から、動的物体を示す計測点群を除外する処理を実行してもよい。例えば、サーバ装置2は、歩行者や車両などの特定の動的物体を形成する計測点群を、形状や大きさ等に基づくパターンマッチングなどの処理に基づき特定し、特定した計測点群を計測点群DB24から削除する。 Note that the server device 2 may perform a process of excluding a measurement point group indicating a dynamic object from the measurement point group recorded in the measurement point group DB 24 as a preprocessing of the process in the flowchart of FIG. For example, the server device 2 identifies a measurement point group forming a specific dynamic object such as a pedestrian or vehicle based on processing such as pattern matching based on shape and size, and measures the identified measurement point group. Delete from the point cloud DB 24.

図5は、図4のステップS102で実行する植生判定処理の一例を示すフローチャートである。図5に示す例では、サーバ装置2は、計測点群DB24に記録された計測点群に対してボクセルごとに主成分分析を行うことで平面又は柱状体の構造物を表すボクセルを判定し、平面又は柱状体のいずれの構造物にも該当しないボクセルを植生ボクセルBvとして判定する。 FIG. 5 is a flowchart showing an example of the vegetation determination process executed in step S102 of FIG. In the example shown in FIG. 5, the server device 2 determines voxels representing a plane or columnar structure by performing principal component analysis for each voxel on the measurement point group recorded in the measurement point group DB 24, Voxels that do not correspond to any planar or columnar structures are determined as vegetation voxels Bv.

まず、サーバ装置2は、計測点群D24に記録された計測点群に対してボクセルごとに主成分分析を実行する(ステップS201)。具体的には、サーバ装置2は、図4のステップS101で算出したボクセルごとの共分散行列から第1~第3主成分に対応する3組の固有値及び固有ベクトルを算出する。ここで、固有値は、各主成分の分散(即ち大きさ)を示し、固有ベクトルは、各主成分の方向を表す。従って、サーバ装置2は、最も大きい固有値及びこれに対応する固有ベクトルが第1主成分に対応し、2番目に大きい固有値及びこれに対応する固有ベクトルが第2主成分に対応し、残りの固有値及び固有ベクトルが第3主成分にそれぞれ対応するとみなす。なお、第1~第3主成分は互いに直交している。 First, the server device 2 performs principal component analysis for each voxel on the measurement point group recorded in the measurement point group D24 (step S201). Specifically, the server device 2 calculates three sets of eigenvalues and eigenvectors corresponding to the first to third principal components from the covariance matrix for each voxel calculated in step S101 of FIG. Here, the eigenvalue indicates the variance (that is, the magnitude) of each principal component, and the eigenvector indicates the direction of each principal component. Therefore, in the server device 2, the largest eigenvalue and its corresponding eigenvector correspond to the first principal component, the second largest eigenvalue and its corresponding eigenvector correspond to the second principal component, and the remaining eigenvalues and eigenvectors correspond to the first principal component. are assumed to correspond to the third principal component, respectively. Note that the first to third principal components are orthogonal to each other.

そして、サーバ装置2は、ステップS201での主成分分析の結果に基づき、平面を形成するボクセル(「平面ボクセルBf」とも呼ぶ。)を抽出する(ステップS202)。例えば、サーバ装置2は、第3主成分の大きさ(即ち第3主成分の固有値が示す分散)が所定値以下のボクセルを、平面ボクセルBfとみなす。これに加え、サーバ装置2は、第3主成分に対応する固有ベクトルが示す向きが鉛直方向又は水平方向と略一致するボクセルを、平面ボクセルBfとみなしてもよい。 Then, the server device 2 extracts voxels forming a plane (also referred to as "plane voxels Bf") based on the result of the principal component analysis in step S201 (step S202). For example, the server device 2 regards a voxel in which the size of the third principal component (that is, the variance indicated by the eigenvalue of the third principal component) is less than or equal to a predetermined value as a planar voxel Bf. In addition, the server device 2 may consider a voxel in which the direction indicated by the eigenvector corresponding to the third principal component substantially coincides with the vertical direction or the horizontal direction to be a planar voxel Bf.

さらに、サーバ装置2は、ステップS201での主成分分析の結果に基づき、柱状体を形成するボクセル(「柱状体ボクセルBp」とも呼ぶ。)を抽出する(ステップS203)。例えば、サーバ装置2は、第1主成分の寄与率が所定値以上であって、かつ、第1主成分の分散が一様分布に近い分散であるボクセルを、柱状体ボクセルBpとして抽出する。これに加え、サーバ装置2は、第1主成分に対応する固有ベクトルが示す向きが鉛直方向又は水平方向と略一致するボクセルを、柱状体ボクセルBpとみなしてもよい。 Further, the server device 2 extracts voxels forming a column (also referred to as "column voxel Bp") based on the result of the principal component analysis in step S201 (step S203). For example, the server device 2 extracts a voxel in which the contribution rate of the first principal component is equal to or greater than a predetermined value and the variance of the first principal component is close to a uniform distribution as a columnar voxel Bp. In addition, the server device 2 may consider a voxel whose direction indicated by the eigenvector corresponding to the first principal component substantially coincides with the vertical direction or the horizontal direction as a columnar voxel Bp.

そして、サーバ装置2は、計測点を含むボクセルのうち、平面ボクセルBfと柱状体ボクセルBpのいずれにも該当しない残余のボクセルを、植生ボクセルBvとして判定する(ステップS204)。ここで、植生ではない静的構造物は、その殆どが平面形状又は柱状体の形状から構成されており、出願人は、実験等においても、平面形状又は柱状体の形状を形成する計測点群のボクセルを除外したボクセルを植生ボクセルBvとみなすことで、植生ボクセルBvに対する良好な認識結果を得ている。 Then, the server device 2 determines the remaining voxels that do not correspond to either the planar voxel Bf or the columnar voxel Bp among the voxels including the measurement points as vegetation voxels Bv (step S204). Here, most of the static structures that are not vegetation are composed of a planar shape or a columnar shape, and the applicant has also found in experiments etc. that a group of measurement points forming a planar shape or a columnar shape By regarding the voxels excluding the voxels as the vegetation voxels Bv, good recognition results for the vegetation voxels Bv have been obtained.

(6)ボクセルデータを用いた位置推定
次に、ボクセルデータを用いた位置推定処理について説明する。図6は、ボクセルデータを用いた位置推定処理の手順を示すフローチャートの一例である。
(6) Position estimation using voxel data
Next, position estimation processing using voxel data will be explained. FIG. 6 is an example of a flowchart showing the procedure of position estimation processing using voxel data.

まず、車載機1は、GPS受信機32等の出力に基づき、自車位置の初期値を設定する(ステップS301)。次に、車載機1は、速度センサ34から車体速度を取得すると共に、ジャイロセンサ33からヨー方向の角速度を取得する(ステップS302)。そして、車載機1は、ステップS302の取得結果に基づき、車両の移動距離と車両の方位変化を計算する(ステップS303)。 First, the vehicle-mounted device 1 sets an initial value of the own vehicle position based on the output of the GPS receiver 32 or the like (step S301). Next, the vehicle-mounted device 1 acquires the vehicle body speed from the speed sensor 34 and the angular velocity in the yaw direction from the gyro sensor 33 (step S302). Then, the vehicle-mounted device 1 calculates the travel distance of the vehicle and the change in the direction of the vehicle based on the obtained result in step S302 (step S303).

その後、車載機1は、1時刻前の推定自車位置に、ステップS303で計算した移動距離と方位変化を加算し、予測自車位置を算出する(ステップS304)。そして、車載機1は、ステップS304で算出した予測自車位置に基づき、地図DB10を参照して、自車位置周辺に存在するボクセルのボクセルデータを取得する(ステップS305)。さらに、車載機1は、ステップS304で算出した予測自車位置に基づき、ライダ30から得られた計測点を絶対座標系に変換した点群データをボクセルごとに分割する(ステップS306)。 After that, the on-vehicle device 1 adds the travel distance and azimuth change calculated in step S303 to the estimated own vehicle position one time ago, and calculates the predicted own vehicle position (step S304). Then, the vehicle-mounted device 1 refers to the map DB 10 and obtains voxel data of voxels existing around the vehicle position based on the predicted vehicle position calculated in step S304 (step S305). Further, the on-vehicle device 1 divides the point cloud data obtained by converting the measurement points obtained from the rider 30 into an absolute coordinate system into voxel units based on the predicted vehicle position calculated in step S304 (step S306).

そして、車載機1は、ステップS305で取得したボクセルデータに含まれる平均、共分散行列、及び重み付け値を用いて、NDTスキャンマッチングの計算を行う(ステップS307)。具体的には、車載機1は、ステップS306において計測点が割り当てられた各ボクセルに対し、対応するボクセルデータに含まれる平均、共分散行列、及び重み付け値を用いて、式(4)に示される個別評価関数値Eを算出する。そして、車載機1は、各ボクセルに対する個別評価関数値Eに基づき、式(5)に示される総合評価関数値Eを算出する。この場合、総合評価関数値Eは、推定パラメータPの各要素の変数を含む非線形方程式となる。 Then, the vehicle-mounted device 1 calculates NDT scan matching using the average, covariance matrix, and weighting value included in the voxel data acquired in step S305 (step S307). Specifically, the in-vehicle device 1 uses the average, covariance matrix, and weighting value included in the corresponding voxel data for each voxel to which a measurement point is assigned in step S306, and calculates the value shown in equation (4). The individual evaluation function value E n is calculated. Then, the vehicle-mounted device 1 calculates the comprehensive evaluation function value E shown in equation (5) based on the individual evaluation function value E n for each voxel. In this case, the comprehensive evaluation function value E becomes a nonlinear equation including variables of each element of the estimated parameter P.

そして、車載機1は、ニュートン法などの非線形方程式の数値解法などを用いて、総合評価関数値が最大となる推定パラメータPを決定する(ステップS308)。その後、車載機1は、ステップS304で算出した予測自車位置に、ステップS308で算出した推定パラメータPを適用することで、推定自車位置を算出する(ステップS309)。 Then, the vehicle-mounted device 1 determines the estimated parameter P that gives the maximum overall evaluation function value, using a numerical solution method of nonlinear equations such as Newton's method (step S308). After that, the vehicle-mounted device 1 calculates the estimated own vehicle position by applying the estimated parameter P calculated in step S308 to the predicted own vehicle position calculated in step S304 (step S309).

ここで、ステップS307での個別評価関数値Eの算出に用いる重み付け値は、植生ボクセルBvの方が他のボクセルよりも低く設定されている。これにより、車載機1は、植生を表わす植生ボクセルBvに対する位置推定への影響度合いを相対的に低下させ、位置推定精度を好適に向上させる。 Here, the weighting value used for calculating the individual evaluation function value En in step S307 is set lower for the vegetation voxel Bv than for other voxels. Thereby, the vehicle-mounted device 1 relatively reduces the degree of influence of the vegetation voxel Bv representing vegetation on position estimation, and suitably improves position estimation accuracy.

図7は、重み付け値を用いた図6のフローチャートに基づく位置推定(「本位置推定」とも呼ぶ。)と、重み付け値を用いる代わりに、植生の計測点群を除去した計測点群に基づき生成したボクセルデータを参照した位置推定(「比較例に基づく位置推定」とも呼ぶ。)との処理の概要を示す図である。ここでは、植生及び構造物の一部をそれぞれ含むボクセルB1と、ボクセルB1に隣接し、構造物の一部を含み植生を含まないボクセルB2とを対象としたNDTスキャンマッチングについて考察する。 Figure 7 shows position estimation based on the flowchart in Figure 6 using weighted values (also referred to as "regular position estimation"), and generation based on a measurement point group from which vegetation measurement points are removed instead of using weighted values. FIG. 2 is a diagram showing an overview of processing for position estimation with reference to voxel data (also referred to as "position estimation based on a comparative example"). Here, consideration will be given to NDT scan matching targeting voxel B1, which includes a portion of vegetation and a structure, respectively, and voxel B2, which is adjacent to voxel B1, includes a portion of the structure, and does not include vegetation.

「重み付け」と表記された矢印A1により指し示されたボクセルB1、B2には、本位置推定において用いるボクセルデータが概略的に示されている。ここで、ハッチング領域50は、ボクセルデータの生成に用いられた植生の計測点群の分布を示し、ハッチング領域51、52は、ボクセルデータの生成に用いられた構造物の計測点群の分布を示す。また、破線枠60は、ボクセルデータとして記録される共分散行列が示すボクセルB1内の点群の分散を示し、破線枠61は、ボクセルデータとして記録される共分散行列が示すボクセルB2内の点群の分散を示す。また、「点群の除去」と表記された矢印A2により指し示されたボクセルB1、B2には、比較例に基づく位置推定において用いるボクセルデータが概略的に示されている。ここで、ハッチング領域54、55は、ボクセルデータの生成に用いられた構造物の計測点群の分布を示す。また、破線枠63は、ボクセルデータとして記録される共分散行列が示すボクセルB1内の点群の分散を示し、破線枠64は、ボクセルデータとして記録される共分散行列が示すボクセルB2内の点群の分散を示す。 Voxel data used in this position estimation is schematically shown in voxels B1 and B2 indicated by an arrow A1 labeled "weighting." Here, the hatched area 50 indicates the distribution of the measurement point group of vegetation used to generate the voxel data, and the hatched areas 51 and 52 indicate the distribution of the measurement point group of the structure used to generate the voxel data. show. Furthermore, a broken line frame 60 indicates the variance of a point group within voxel B1 indicated by a covariance matrix recorded as voxel data, and a broken line frame 61 indicates a point group within voxel B2 indicated by a covariance matrix recorded as voxel data. Shows the group variance. Furthermore, voxel data used in position estimation based on the comparative example is schematically shown in voxels B1 and B2 indicated by an arrow A2 labeled "removal of point group." Here, the hatched areas 54 and 55 indicate the distribution of the measurement point group of the structure used to generate the voxel data. Furthermore, a broken line frame 63 indicates the variance of a point group within voxel B1 indicated by a covariance matrix recorded as voxel data, and a broken line frame 64 indicates a point group within voxel B2 indicated by a covariance matrix recorded as voxel data. Shows the group variance.

ここで、比較例に基づく位置推定では、植生を表わす計測点群を除去してからボクセルデータを生成するため、ボクセルB1内の点群の分散を表わす破線枠63は、ハッチング領域54により示される構造物を中心とする位置に存在する。一方、本位置推定では、ボクセルB1内の点群の分散を表わす破線枠60は、ハッチング領域50により示される植生と、ハッチング領域51により示される構造物とに跨って存在する。また、比較例に基づく位置推定では、ボクセルB1及びボクセルB2は同一の重みにより扱われる。一方、本位置推定では、ボクセルB1を植生ボクセルBvとみなし、ボクセルB1の重み付け値は、植生ボクセルBvでないボクセルB2の重み付け値よりも小さい値に設定される。 Here, in the position estimation based on the comparative example, since voxel data is generated after removing the measurement point group representing vegetation, the broken line frame 63 representing the dispersion of the point group in voxel B1 is indicated by the hatched area 54. It exists at a position centered on the structure. On the other hand, in this position estimation, the dashed line frame 60 representing the dispersion of the point group within the voxel B1 exists across the vegetation indicated by the hatched region 50 and the structure indicated by the hatched region 51. Furthermore, in position estimation based on the comparative example, voxel B1 and voxel B2 are treated with the same weight. On the other hand, in this position estimation, voxel B1 is regarded as a vegetation voxel Bv, and the weighting value of voxel B1 is set to a smaller value than the weighting value of voxel B2, which is not a vegetation voxel Bv.

ここで、車載機1がライダ30によりボクセルB1、B2内の×印により表された計測点群40を取得した場合、本位置推定では、ボクセルB1の重み付け値はボクセルB2の重み付け値よりも低いため、ボクセルB2におけるボクセルデータと計測点群40とを優先的にマッチングする。一方、比較例に基づく位置推定では、ボクセルごとに重み付け値を設定していないため、ボクセルデータと計測点群40とのマッチングを全体(ここではボクセルB1、B2)にわたり均等な重み付けにより行う。 Here, when the on-vehicle device 1 acquires the measurement point group 40 represented by x marks in voxels B1 and B2 by the lidar 30, in this position estimation, the weighting value of voxel B1 is lower than the weighting value of voxel B2. Therefore, the voxel data in voxel B2 and the measurement point group 40 are matched preferentially. On the other hand, in the position estimation based on the comparative example, since no weighting value is set for each voxel, matching between the voxel data and the measurement point group 40 is performed by uniformly weighting the entire voxel data (here, voxels B1 and B2).

本位置推定を実行した場合のマッチング結果は、矢印A3により指し示され、比較例に基づく位置推定を実行した場合のマッチング結果は、矢印A4により指し示されている。ここで、比較例に基づく位置推定では、ボクセルデータの生成時において、ボクセルB1内の植生の計測点群を除外しているため、植生を計測対象として含んだボクセルB1内の計測点群40とボクセルデータとのマッチングが不正確となる。また、比較例に基づく位置推定では、重み付けがなされていないため、ボクセルB1でのボクセルデータと計測点群40との不整合の影響により、全体としてのマッチング精度も低下してしまう。 The matching result obtained when this position estimation is executed is indicated by an arrow A3, and the matching result obtained when the position estimation based on the comparative example is executed is indicated by an arrow A4. Here, in the position estimation based on the comparative example, since the measurement point group of the vegetation in voxel B1 is excluded when generating voxel data, the measurement point group 40 in voxel B1 that includes vegetation as a measurement target is excluded. Matching with voxel data becomes inaccurate. Further, in the position estimation based on the comparative example, since weighting is not performed, the matching accuracy as a whole decreases due to the influence of mismatch between the voxel data at voxel B1 and the measurement point group 40.

一方、本位置推定では、ボクセルデータの生成時において、ボクセルB1内の植生の計測点群を除外していないため、植生を計測対象として含んだボクセルB1内の計測点群40とボクセルデータとのマッチングが好適に実行される。なお、ボクセルB1内の植生は、風の影響等に起因して揺れ動くため、ボクセルB1におけるマッチング精度は、ボクセルB2におけるマッチング精度よりも低くなる。従って、ボクセルごとの重み付けを行わずにNDTマッチングを行った場合、ボクセルB1のマッチング精度の影響を受けて全体としてのマッチング精度も低下してしまう。これに対し、本位置推定では、ボクセルB1の重み付け値が相対的に低く設定されているため、植生の揺れ動きによる影響を好適に低減しつつマッチングを行うことができる。 On the other hand, in this position estimation, since the measurement point group of the vegetation in voxel B1 is not excluded when generating voxel data, the measurement point group 40 in voxel B1 that includes vegetation as a measurement target and the voxel data are Matching is preferably performed. Note that since the vegetation in voxel B1 sways due to the influence of wind, etc., the matching accuracy in voxel B1 is lower than the matching accuracy in voxel B2. Therefore, if NDT matching is performed without weighting each voxel, the matching accuracy as a whole will decrease due to the influence of the matching accuracy of voxel B1. On the other hand, in this position estimation, since the weighting value of voxel B1 is set relatively low, matching can be performed while suitably reducing the influence of the swaying movement of vegetation.

以上説明したように、本実施例に係る地図データのデータ構造は、ボクセルごとに、物体表面の位置に関する平均ベクトル及び共分散行列等と、これらを位置推定に用いる際の重みに関する重み付け値とを含み、植生ボクセルBvに対する重み付け値は、植生を含まないボクセルに対する重み付け値よりも低い値に設定される。そして、このデータ構造を有する地図データは、車両に搭載されたライダ30等の計測装置が計測した物体の計測情報と、ボクセルデータとの照合結果を、ボクセルごとに重み付けを行うことで、車両の位置を推定する車載機1により好適に参照される。 As explained above, the data structure of the map data according to this embodiment includes, for each voxel, the average vector, covariance matrix, etc. related to the position of the object surface, and the weighting value related to the weight when using these for position estimation. The weighting value for a voxel Bv that contains vegetation is set to a lower value than the weighting value for a voxel that does not contain vegetation. The map data having this data structure is created by weighting the measurement information of the object measured by the measuring device such as the lidar 30 mounted on the vehicle and the voxel data for each voxel. It is suitably referred to by the vehicle-mounted device 1 that estimates the position.

また、本実施例に係るサーバ装置2は、ライダ30等の計測装置が計測した物体の計測点を含むボクセルから、植生の計測点を含む植生ボクセルBvを認識する処理と、ボクセルごとの平均ベクトル及び共分散行列等と、これらを位置推定に用いる際の重み付け値とを関連付けた地図データを生成する処理とを実行する。ここで、サーバ装置2は、植生ボクセルBvに対する重み付け値を、植生を含まないボクセルに対する重み付け値よりも小さくする。 Further, the server device 2 according to the present embodiment performs a process of recognizing vegetation voxels Bv including measurement points of vegetation from voxels including measurement points of objects measured by a measurement device such as the lidar 30, and an average vector for each voxel. and a process of generating map data in which covariance matrices and the like are associated with weighting values when these are used for position estimation. Here, the server device 2 makes the weighting value for the vegetation voxel Bv smaller than the weighting value for the voxel that does not include vegetation.

また、本実施例に係る車載機1は、空間を区切ったボクセルごとの平均ベクトル及び共分散行列等と、これらを位置推定に用いる際の重みを決定するための重み付け値とを含むボクセルデータを記憶し、ライダ30等の計測装置が計測した物体に関する計測情報を取得する処理と、ボクセルごとに計測情報とボクセルデータとの照合を行い、当該照合の結果を、重み付け値に基づき重み付けすることで、自車位置を推定する処理とを行う。この場合、植生ボクセルBvの重み付け値は、植生を含まないボクセルの重み付け値よりも小さい。 In addition, the on-vehicle device 1 according to the present embodiment stores voxel data including an average vector, covariance matrix, etc. for each voxel that divides space, and weighting values for determining weights when using these for position estimation. By performing a process of storing and acquiring measurement information regarding an object measured by a measurement device such as the lidar 30, comparing the measurement information and voxel data for each voxel, and weighting the results of the comparison based on a weighting value. , and a process of estimating the vehicle's position. In this case, the weighting value of the vegetation voxel Bv is smaller than the weighting value of a voxel that does not include vegetation.

<第2実施例>
第2実施例では、車載機1は、ボクセルデータに基づく位置推定に代えて、又はこれに加えて、ボクセルデータに基づく動的物体の検知を行う点において、第1実施例と異なる。第2実施例における地図更新システム、車載機1及びサーバ装置2の各構成は、図1及び図2に示す構成と同様のため、その説明を省略する。
<Second example>
The second embodiment differs from the first embodiment in that the vehicle-mounted device 1 detects a moving object based on voxel data instead of or in addition to position estimation based on voxel data. The configurations of the map update system, in-vehicle device 1, and server device 2 in the second embodiment are the same as those shown in FIGS. 1 and 2, and therefore their descriptions will be omitted.

図8は、第2実施例におけるボクセルデータの概略的なデータ構造の一例を示す。 FIG. 8 shows an example of a schematic data structure of voxel data in the second embodiment.

図8に示すボクセルデータは、ボクセルIDと、ボクセル座標と、静止障害物フラグと、植生フラグと、平均ベクトルと、共分散行列と、重み付け値と、を含む。ここで、静止障害物フラグは、対象のボクセルが、主に静止障害物が存在するボクセルであって、動的物体の検知を行う必要がないボクセル(「静止障害物ボクセル」とも呼ぶ。)であるか否かを示すフラグである。静止障害物ボクセルは、対象のボクセルの全体又は大部分が静止障害物により構成されることにより、運転上検知すべき動的物体の検知を行う必要がない(動的物体が含まれる余地がない)領域を示す。従って、車載機1は、ライダ30の出力等に基づき動的物体の検知を行う場合に、静止障害物フラグを参照することで静止障害物ボクセルを特定し、静止障害物ボクセル以外のボクセルを対象として動的物体の検知を行う。このように動的物体の検知対象領域を限定することで、動的物体の検知処理の負荷を好適に低減しつつ、動的物体の検知精度を向上させる。静止障害物フラグは、「静止物データ」の一例である。 The voxel data shown in FIG. 8 includes a voxel ID, voxel coordinates, a stationary obstacle flag, a vegetation flag, an average vector, a covariance matrix, and a weighting value. Here, the stationary obstacle flag indicates that the target voxel is a voxel where stationary obstacles mainly exist and there is no need to detect a moving object (also called a "stationary obstacle voxel"). This is a flag indicating whether or not there is. For stationary obstacle voxels, the entire or most part of the target voxel is composed of stationary obstacles, so there is no need to detect moving objects that should be detected during driving (there is no room for moving objects to be included). ) indicates the area. Therefore, when detecting a moving object based on the output of the lidar 30, the onboard device 1 identifies the stationary obstacle voxel by referring to the stationary obstacle flag, and targets voxels other than the stationary obstacle voxel. Detection of moving objects is performed as follows. By limiting the area to be detected for moving objects in this manner, the load of processing for detecting moving objects is suitably reduced, and the accuracy of detecting moving objects is improved. The stationary obstacle flag is an example of "stationary object data."

また、本実施例では、サーバ装置2は、静止障害物フラグの生成時では、植生ボクセルBvと判定したボクセルについては、少なくとも静止障害物ボクセルと見なさない。これにより、植生付近に現れる動的物体を確実に検知対象とする。サーバ装置2は、「静止物データ生成装置」の一例である。 Furthermore, in the present embodiment, when generating a stationary obstacle flag, the server device 2 does not consider at least a voxel determined to be a vegetation voxel Bv to be a stationary obstacle voxel. This ensures that dynamic objects that appear near vegetation are detected. The server device 2 is an example of a "stationary object data generation device."

図9は、第2実施例に係るボクセルデータの生成処理の手順を示すフローチャートである。サーバ装置2は、図9に示すフローチャートの処理を、所定のタイミングにおいて実行する。 FIG. 9 is a flowchart showing the procedure of voxel data generation processing according to the second embodiment. The server device 2 executes the process of the flowchart shown in FIG. 9 at a predetermined timing.

まず、サーバ装置2は、各車載機1から送信される計測データD1を記録した計測点群DB24を参照し、ボクセルごとに計測点の平均ベクトル及び共分散行列を算出する(ステップS401)。次に、サーバ装置2は、計測点を含む各ボクセルに対し、植生ボクセルBvであるか否かを判定する植生判定処理を実行する(ステップS402)。この植生判定処理は、例えば、前述の図5のフローチャートに基づき実行される。 First, the server device 2 refers to the measurement point group DB 24 in which the measurement data D1 transmitted from each vehicle-mounted device 1 is recorded, and calculates the average vector and covariance matrix of the measurement points for each voxel (step S401). Next, the server device 2 executes a vegetation determination process for determining whether each voxel including the measurement point is a vegetation voxel Bv (step S402). This vegetation determination process is executed, for example, based on the flowchart of FIG. 5 described above.

次に、サーバ装置2は、ステップS402での植生判定結果に基づき、静止障害物フラグを生成する(ステップS403)。このとき、サーバ装置2は、植生ボクセルBvと判定したボクセルについては、静止障害物ボクセルではない旨の静止障害物フラグを生成する。これにより、サーバ装置2は、本来動的物体が存在し得る領域を静止障害物ボクセルとみなすことに起因した動的物体の見落としを好適に抑制する。 Next, the server device 2 generates a stationary obstacle flag based on the vegetation determination result in step S402 (step S403). At this time, the server device 2 generates a stationary obstacle flag indicating that the voxel determined to be a vegetation voxel Bv is not a stationary obstacle voxel. Thereby, the server device 2 suitably suppresses overlooking of a moving object due to regarding a region where a moving object would originally exist as a stationary obstacle voxel.

なお、サーバ装置2は、図9のフローチャートの処理の前処理として、計測点群DB24に記録された計測点群から、動的物体を示す計測点群を除外する処理を実行してもよい。例えば、サーバ装置2は、歩行者や車両などの特定の動的物体を形成する計測点群を、形状や大きさ等に基づくパターンマッチングなどの処理に基づき特定し、特定した計測点群を計測点群DB24から削除する。なお、サーバ装置2は、除外対象となる動的物体を示す計測点を含むボクセルについても、動的物体の検知対象領域に含まれるように、静止障害物ボクセルではない旨の静止障害物フラグを設定するとよい。 Note that the server device 2 may execute a process of excluding a measurement point group indicating a moving object from the measurement point group recorded in the measurement point group DB 24 as a preprocessing of the process in the flowchart of FIG. For example, the server device 2 identifies a measurement point group forming a specific dynamic object such as a pedestrian or vehicle based on processing such as pattern matching based on shape and size, and measures the identified measurement point group. Delete from the point cloud DB 24. Note that the server device 2 also sets a stationary obstacle flag indicating that the voxel including the measurement point indicating the moving object to be excluded is not a stationary obstacle voxel so that it is included in the detection target area of the moving object. It is recommended to set this.

図10は、第2実施例に係る動的物体の検知処理の手順を示すフローチャートである。サーバ装置2は、図10に示すフローチャートの処理を、例えば、車両の走行中において繰り返し実行する。 FIG. 10 is a flowchart showing the procedure of a dynamic object detection process according to the second embodiment. The server device 2 repeatedly executes the process shown in the flowchart shown in FIG. 10, for example, while the vehicle is running.

まず、車載機1は、ライダ30の出力に基づき、車両周辺の物体表面を計測した計測点群を取得する(ステップS501)。次に、車載機1は、自車位置に基づき、地図DB10を参照して、自車位置周辺に存在するボクセルのボクセルデータを取得する(ステップS502)。上述の自車位置は、例えば、図6に示す第1実施例の位置推定処理と同様、1時刻前の推定自車位置に、センサ部13の出力に基づき算出した移動距離と方位変化を加算することで得られる予測自車位置である。そして、車載機1は、各ボクセルのボクセルデータに含まれる静止障害物フラグを参照することで、ステップS501で取得した計測点を含むボクセルから、静止障害物ボクセルを特定する(ステップS503)。そして、車載機1は、静止障害物ボクセルを検知対象領域から除外した動的物体の検知処理を行う(ステップS504)。言い換えると、車載機1は、静止障害物ボクセルについては、動的物体が現れない領域とみなし、動的物体の検知処理をスキップし、残余のボクセルについては、動的物体の検知処理を行う。 First, the vehicle-mounted device 1 acquires a group of measurement points obtained by measuring the surface of an object around the vehicle based on the output of the lidar 30 (step S501). Next, the vehicle-mounted device 1 refers to the map DB 10 based on the vehicle position and obtains voxel data of voxels existing around the vehicle position (step S502). The above-mentioned vehicle position is obtained by adding the travel distance and azimuth change calculated based on the output of the sensor unit 13 to the estimated vehicle position one time ago, for example, similar to the position estimation process of the first embodiment shown in FIG. This is the predicted vehicle position obtained by Then, the vehicle-mounted device 1 identifies stationary obstacle voxels from the voxels including the measurement point acquired in step S501 by referring to the stationary obstacle flag included in the voxel data of each voxel (step S503). Then, the vehicle-mounted device 1 performs a moving object detection process excluding stationary obstacle voxels from the detection target area (step S504). In other words, the vehicle-mounted device 1 regards stationary obstacle voxels as areas where no moving object appears, skips the moving object detection process, and performs the moving object detection process on the remaining voxels.

以上説明したように、第2実施例に係るサーバ装置2は、ライダ30等の計測装置が計測した物体に関する計測点を含むボクセルから、植生の計測点を含む植生ボクセルBvを検出する処理と、計測点を含むボクセルから、植生ボクセルBvを少なくとも除外したボクセルに対し、静止障害物が存在する領域であることを示す静止障害物フラグを生成する処理と、を実行する。 As explained above, the server device 2 according to the second embodiment performs a process of detecting a vegetation voxel Bv including a measurement point of vegetation from voxels including a measurement point related to an object measured by a measurement device such as the lidar 30; A process of generating a stationary obstacle flag indicating that the area includes a stationary obstacle is executed for voxels including the measurement point excluding at least the vegetation voxel Bv.

<変形例>
以下、第1及び第2実施例に好適な変形例について説明する。以下の変形例は、組み合わせて上述の各実施例に適用してもよい。
<Modified example>
Modifications suitable for the first and second embodiments will be described below. The following modifications may be combined and applied to each of the above embodiments.

(変形例1)
ボクセルデータは、図3及び図8に示すように、平均ベクトルと共分散行列とを含むデータ構造に限定されない。例えば、ボクセルデータは、平均ベクトルと共分散行列を算出する際に用いられる計測整備車両の計測データを絶対座標系に変換した点群データをそのまま含んでいてもよい。この場合、車載機1は、NDTによるスキャンマッチングに限定されず、ICP(Iterative Closest Point)などの他のスキャンマッチングを適用して自車位置推定を行ってもよい。
(Modification 1)
Voxel data is not limited to a data structure including an average vector and a covariance matrix, as shown in FIGS. 3 and 8. For example, the voxel data may directly include point cloud data obtained by converting measurement data of a measurement maintenance vehicle into an absolute coordinate system, which is used when calculating the average vector and covariance matrix. In this case, the vehicle-mounted device 1 is not limited to scan matching using NDT, and may apply other scan matching such as ICP (Iterative Closest Point) to estimate the own vehicle position.

(変形例2)
第1実施例において、図3に示されるボクセルデータは、重み付け値と植生フラグの両方を有していたが、いずれか一方のみを有してもよい。
(Modification 2)
In the first example, the voxel data shown in FIG. 3 had both a weighting value and a vegetation flag, but it may have only one of them.

例えば、ボクセルデータが重み付け値を含まないデータ構造である場合、車載機1は、図6に示す位置推定処理のステップS307で使用する重み付け値を、植生フラグの値に応じた所定値に設定する。この場合、車載機1は、植生フラグが植生ボクセルBvであることを示す値である場合に設定する重み付け値を、植生フラグが植生ボクセルBvではないことを示す値である場合に設定する重み付け値よりも小さい値に設定する。これにより、車載機1は、ボクセルデータが重み付け値を有するデータ構造の場合と同様に、植生ボクセルBvに対する位置推定への影響度合いを相対的に低下させ、位置推定精度を好適に向上させる。なお、この場合、植生フラグは、「重みを決定するための情報」の一例である。 For example, if the voxel data has a data structure that does not include a weighting value, the in-vehicle device 1 sets the weighting value used in step S307 of the position estimation process shown in FIG. 6 to a predetermined value according to the value of the vegetation flag. . In this case, the on-vehicle device 1 sets a weighting value to be set when the vegetation flag is a value indicating that the vegetation voxel Bv is a vegetation voxel, and a weighting value to be set when the vegetation flag is a value indicating that the vegetation voxel is not a vegetation voxel Bv. Set to a value smaller than . Thereby, the vehicle-mounted device 1 relatively reduces the degree of influence of the vegetation voxel Bv on the position estimation, and suitably improves the position estimation accuracy, as in the case where the voxel data has a data structure having a weighting value. Note that in this case, the vegetation flag is an example of "information for determining weights."

(変形例3)
車載機1に相当する機能が車両に内蔵されていてもよい。この場合、車両の電子制御装置(ECU:Electronic Control Unit)は、車両のメモリに記憶されたプログラムを実行することで、車載機1の制御部15に相当する処理を実行する。
(Modification 3)
A function corresponding to the on-vehicle device 1 may be built into the vehicle. In this case, the electronic control unit (ECU) of the vehicle executes processing equivalent to the control unit 15 of the on-vehicle device 1 by executing a program stored in the memory of the vehicle.

(変形例4)
第2実施例において、車載機1は、植生ボクセルBv(即ち、植生を含むボクセル)を静止障害物ボクセルから除外する代わりに、植生のみを含むボクセル(即ち、植生を含み、他の静止構造物を含まないボクセル)を静止障害物ボクセルから除外してもよい。この場合、車載機1は、植生の他に静止構造物も含むボクセルについては、動的物体が現れない領域とみなし、動的物体の検知処理をスキップする。
(Modification 4)
In the second embodiment, instead of excluding the vegetation voxel Bv (i.e., the voxel that includes vegetation) from the stationary obstacle voxels, the on-vehicle device 1 excludes the voxel that only includes vegetation (i.e., the voxel that includes vegetation and other stationary structures). ) may be excluded from the stationary obstacle voxels. In this case, the vehicle-mounted device 1 regards voxels that include stationary structures in addition to vegetation as areas where no moving objects appear, and skips the moving object detection process.

(変形例5)
車載機1は、サーバ装置2に代えて、植生判定処理を実行してもよい。この場合、車載機1は、例えば、第1実施例において、ライダ30が出力する計測点を絶対座標系に変換した点群データに対して、図4のステップS101の処理及びステップS102の植生判定処理を実行することで、植生ボクセルBvを判定する。そして、車載機1は、判定した植生ボクセルBvの情報を計測データD1に含めてサーバ装置2へ送信する。この場合、サーバ装置2は、車載機1から受信した計測データD1に基づきボクセルデータの重み付け値や植生フラグの生成及び更新を行う。第2実施例においても同様に、車載機1は、ライダ30が出力する計測点を絶対座標系に変換した点群データに対して、図9のステップS401の処理及びステップS402の植生判定処理を実行することで、植生ボクセルBvを判定する。そして、車載機1は、判定した植生ボクセルBvの情報を計測データD1に含めてサーバ装置2へ送信する。この場合、サーバ装置2は、車載機1から受信した計測データD1に基づき静止障害物フラグを生成する。
(Modification 5)
The on-vehicle device 1 may execute the vegetation determination process instead of the server device 2. In this case, the on-vehicle device 1 performs the processing in step S101 in FIG. 4 and the vegetation determination in step S102 on the point cloud data obtained by converting the measurement points output by the lidar 30 into an absolute coordinate system in the first embodiment, for example. By executing the process, vegetation voxel Bv is determined. Then, the vehicle-mounted device 1 includes the determined vegetation voxel Bv information in the measurement data D1 and transmits it to the server device 2. In this case, the server device 2 generates and updates weighting values of voxel data and vegetation flags based on the measurement data D1 received from the on-vehicle device 1. Similarly, in the second embodiment, the on-vehicle device 1 performs the process of step S401 and the vegetation determination process of step S402 in FIG. By executing this, the vegetation voxel Bv is determined. Then, the vehicle-mounted device 1 includes the determined vegetation voxel Bv information in the measurement data D1 and transmits it to the server device 2. In this case, the server device 2 generates a stationary obstacle flag based on the measurement data D1 received from the on-vehicle device 1.

1 車載機
2 サーバ装置
10 地図DB
23 配信地図DB
24 計測点群DB
11、21 通信部
12、22 記憶部
15、25 制御部
13 センサ部
14 入力部
16 出力部
1 On-vehicle device 2 Server device 10 Map DB
23 Distribution map DB
24 Measurement point group DB
11, 21 communication section 12, 22 storage section 15, 25 control section 13 sensor section 14 input section 16 output section

Claims (1)

空間を区切った領域であって、計測装置が計測した物体に関する計測点を含む領域から、植生の計測点を含む領域を検出する検出手段と、
前記物体の計測点を含む領域から、前記植生の計測点のみを含む領域を少なくとも除外した領域に対し、静止物が存在する領域であることを示す静止物データを生成する生成手段と、
を有する静止物データ生成装置。
a detection means for detecting an area including a measurement point of vegetation from an area that is a partitioned space and includes a measurement point related to an object measured by the measurement device;
generating means for generating stationary object data indicating that a stationary object is present in a region obtained by excluding at least a region including only the measurement point of the vegetation from a region including the measurement point of the object;
A stationary object data generation device having:
JP2023143546A 2018-08-30 2023-09-05 Stationary object data generator, method for control, program, and storage medium Pending JP2023164502A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023143546A JP2023164502A (en) 2018-08-30 2023-09-05 Stationary object data generator, method for control, program, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018162012A JP2020034772A (en) 2018-08-30 2018-08-30 Stationary object data generator, method for control, program, and storage medium
JP2023143546A JP2023164502A (en) 2018-08-30 2023-09-05 Stationary object data generator, method for control, program, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018162012A Division JP2020034772A (en) 2018-08-30 2018-08-30 Stationary object data generator, method for control, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2023164502A true JP2023164502A (en) 2023-11-10

Family

ID=69667973

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018162012A Pending JP2020034772A (en) 2018-08-30 2018-08-30 Stationary object data generator, method for control, program, and storage medium
JP2023143546A Pending JP2023164502A (en) 2018-08-30 2023-09-05 Stationary object data generator, method for control, program, and storage medium

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018162012A Pending JP2020034772A (en) 2018-08-30 2018-08-30 Stationary object data generator, method for control, program, and storage medium

Country Status (1)

Country Link
JP (2) JP2020034772A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7265269B2 (en) * 2020-07-21 2023-04-26 株式会社Zmp Map data correction method and correction program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013076829A1 (en) * 2011-11-22 2013-05-30 株式会社日立製作所 Autonomous mobile system
JP6614178B2 (en) * 2017-02-16 2019-12-04 トヨタ自動車株式会社 Vehicle communication system and vehicle control apparatus

Also Published As

Publication number Publication date
JP2020034772A (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JPWO2018221453A1 (en) Output device, control method, program, and storage medium
JP6721784B2 (en) Information processing device, server device, control method, program, and storage medium
WO2018221455A1 (en) Update device, control method, program, and storage medium
JP2024056032A (en) Data structure, storage medium and storage device
JP2023153955A (en) Map making device, method for control, program, and storage medium
WO2021112074A1 (en) Information processing device, control method, program, and storage medium
US11420632B2 (en) Output device, control method, program and storage medium
JP2023164502A (en) Stationary object data generator, method for control, program, and storage medium
JP2023095904A (en) Self-position estimation device
JP2023164553A (en) Position estimation device, estimation device, control method, program and storage medium
CN112823353A (en) Object localization using machine learning
JP2020034452A (en) Position estimating device, control method, program, and storage medium
JP2022136145A (en) Data structure, information processing device, and map data generator
JP2020034771A (en) Map generator, control method, program, and storage medium
JP2022090373A (en) Information processor, control method, program and storage medium
JP2022176248A (en) Determination apparatus, control method, program, and storage medium
JP2024056099A (en) Determination device, control method, program, and storage medium
JP2020035226A (en) Determination device, control method, program, and storage medium
WO2021112078A1 (en) Information processing device, control method, program, and storage medium
JP2019196941A (en) Own vehicle position estimating device
CN114581615B (en) Data processing method, device, equipment and storage medium
WO2022124115A1 (en) Information processing device, control method, program, and recording medium
WO2021112177A1 (en) Information processing apparatus, control method, program, and storage medium
WO2018221456A1 (en) Route searching device, control method, program, and storage medium
JP2024056033A (en) Information processing device, control method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230905