JP2021179443A - Measuring device, measuring method and program - Google Patents

Measuring device, measuring method and program Download PDF

Info

Publication number
JP2021179443A
JP2021179443A JP2021119424A JP2021119424A JP2021179443A JP 2021179443 A JP2021179443 A JP 2021179443A JP 2021119424 A JP2021119424 A JP 2021119424A JP 2021119424 A JP2021119424 A JP 2021119424A JP 2021179443 A JP2021179443 A JP 2021179443A
Authority
JP
Japan
Prior art keywords
road surface
white line
surface line
moving body
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021119424A
Other languages
Japanese (ja)
Inventor
多史 藤谷
Kazufumi Fujitani
智昭 岩井
Tomoaki Iwai
正浩 加藤
Masahiro Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Publication of JP2021179443A publication Critical patent/JP2021179443A/en
Priority to JP2023098356A priority Critical patent/JP2023118759A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

To appropriately adjust a range of detecting a white line according to a situation, to prevent accuracy deterioration for own vehicle position estimation.SOLUTION: A measuring device acquires output data from a sensor unit for detecting a surrounding road surface line, and determines a predetermined range based on a self-position, position information of the road surface line, and a moving speed of the self-position. Then, from the output data, data corresponding to the detection result in the predetermined range is extracted, and a predetermined process is performed based on the extracted data.SELECTED DRAWING: Figure 4

Description

本発明は、地物の位置に基づいて移動体の位置を推定する技術に関する。 The present invention relates to a technique for estimating the position of a moving body based on the position of a feature.

自動運転車両では、LiDAR(Light Detection and Ranging)などのセンサで計測した地物位置と、自動運転用の地図情報の地物位置をマッチングして高精度に自車位置を推定する必要がある。ここで利用する地物としては、白線、標識、看板などが挙げられる。特許文献1は、LiDARを用いて検出した地物位置と、地図情報の地物位置とを用いて自車位置を推定する手法の一例を記載している。また、特許文献2は、道路面に電磁波を送信し、その反射率に基づいて白線を検出する技術を開示している。 In an autonomous vehicle, it is necessary to match the position of a feature measured by a sensor such as LiDAR (Light Detection and Ringing) with the position of a feature in map information for autonomous driving to estimate the position of the own vehicle with high accuracy. Examples of the features used here include white lines, signs, and signboards. Patent Document 1 describes an example of a method of estimating the position of the own vehicle using the position of the feature detected by using LiDAR and the position of the feature in the map information. Further, Patent Document 2 discloses a technique of transmitting an electromagnetic wave to a road surface and detecting a white line based on its reflectance.

特開2017−72422号公報Japanese Unexamined Patent Publication No. 2017-72422 特開2015−222223号公報JP-A-2015-222223

白線を用いて自車位置を推定する場合、白線の種類(連続線、破線など)や塗装の劣化などによって、LiDARにより計測できるデータ数に差が生じる。このため、白線を用いて自車位置推定を行う際、白線の検出に使用するLiDARのデータ数が少ない場合と多い場合とでは白線の検出精度が変わり、その結果自車位置推定の精度が変わってくる。 When estimating the position of the own vehicle using the white line, the number of data that can be measured by LiDAR differs depending on the type of the white line (continuous line, broken line, etc.) and deterioration of the coating. Therefore, when estimating the position of the own vehicle using the white line, the detection accuracy of the white line changes depending on whether the number of LiDAR data used for detecting the white line is small or large, and as a result, the accuracy of the own vehicle position estimation changes. Come on.

本発明が解決しようとする課題としては、上記のものが例として挙げられる。本発明は、状況に応じて白線を検出する範囲を適切に調整し、自車位置推定の精度低下を防止することを目的とする。 Examples of the problems to be solved by the present invention include the above. It is an object of the present invention to appropriately adjust the range in which the white line is detected according to the situation and prevent the accuracy of the own vehicle position estimation from being lowered.

請求項に記載の発明は、移動体に搭載される測定装置であって、スキャン型の外界センサである第1のセンサから、前記移動体の周囲の路面線を含む出力データを取得する取得部と、前記移動体に搭載された第2のセンサの出力に基づいて前記移動体の予測位置を算出する予測部と、前記予測位置と、地図データに含まれる前記路面線の位置情報と、に基づき前記路面線の予測範囲を算出し、前記算出された前記路面線の予測範囲と、前記移動体の移動速度と、に基づき前記路面線の予測範囲を補正することにより前記路面線の予測範囲を決定する決定部と、前記出力データのうち、前記予測範囲において検出されたデータを抽出する抽出部と、抽出されたデータと、前記地図データに含まれる前記路面線の位置情報とに基づいて、前記移動体の現在位置を推定する推定部と、を備える。 The invention according to the claim is a measuring device mounted on a moving body, and is an acquisition unit that acquires output data including a road surface line around the moving body from a first sensor which is a scan-type external sensor. And the prediction unit that calculates the predicted position of the moving body based on the output of the second sensor mounted on the moving body, the predicted position, and the position information of the road surface line included in the map data. The predicted range of the road surface line is calculated based on the predicted range of the road surface line, and the predicted range of the road surface line is corrected based on the calculated predicted range of the road surface line and the moving speed of the moving body. Based on the determination unit that determines the data, the extraction unit that extracts the data detected in the prediction range from the output data, the extracted data, and the position information of the road surface line included in the map data. , An estimation unit for estimating the current position of the moving body.

請求項に記載の発明は、移動体に搭載される測定装置により実行される測定方法であって、スキャン型の外界センサである第1のセンサから、前記移動体の周囲の路面線を含む出力データを取得する取得工程と、前記移動体に搭載された第2のセンサの出力に基づいて前記移動体の予測位置を算出する予測工程と、前記予測位置と、地図データに含まれる前記路面線の位置情報と、に基づき前記路面線の予測範囲を算出し、前記算出された前記路面線の予測範囲と、前記移動体の移動速度と、に基づき前記路面線の予測範囲を補正することにより前記路面線の予測範囲を決定する決定工程と、前記出力データのうち、前記予測範囲において検出されたデータを抽出する抽出工程と、抽出されたデータと、前記地図データに含まれる前記路面線の位置情報とに基づいて、前記移動体の現在位置を推定する推定工程と、を備える。 The invention according to claim is a measurement method performed by a measuring device mounted on a moving body, and is an output from a first sensor, which is a scan-type external sensor, including a road surface line around the moving body. An acquisition step of acquiring data, a prediction step of calculating a predicted position of the moving body based on the output of a second sensor mounted on the moving body, the predicted position, and the road surface line included in the map data. By calculating the predicted range of the road surface line based on the position information of the above, and correcting the predicted range of the road surface line based on the calculated predicted range of the road surface line and the moving speed of the moving body. A determination step for determining the predicted range of the road surface line, an extraction step for extracting the data detected in the predicted range from the output data, the extracted data, and the road surface line included in the map data. It includes an estimation step of estimating the current position of the moving body based on the position information.

請求項に記載の発明は、移動体に搭載され、コンピュータを備える測定装置により実行されるプログラムであって、スキャン型の外界センサである第1のセンサから、前記移動体の周囲の路面線を含む出力データを取得する取得部、前記移動体に搭載された第2のセンサの出力に基づいて前記移動体の予測位置を算出する予測部、前記予測位置と、地図データに含まれる前記路面線の位置情報と、に基づき前記路面線の予測範囲を算出し、前記算出された前記路面線の予測範囲と、前記移動体の移動速度と、に基づき前記路面線の予測範囲を補正することにより前記路面線の予測範囲を決定する決定部、前記出力データのうち、前記予測範囲において検出されたデータを抽出する抽出部、抽出されたデータと、前記地図データに含まれる前記路面線の位置情報とに基づいて、前記移動体の現在位置を推定する推定部、として前記コンピュータを機能させる。 The invention according to claim is a program mounted on a moving body and executed by a measuring device including a computer, and a road surface line around the moving body is drawn from a first sensor which is a scan type external sensor. An acquisition unit that acquires output data including, a prediction unit that calculates a predicted position of the moving body based on the output of a second sensor mounted on the moving body, the predicted position, and the road surface line included in the map data. By calculating the predicted range of the road surface line based on the position information of the above, and correcting the predicted range of the road surface line based on the calculated predicted range of the road surface line and the moving speed of the moving body. A determination unit that determines the prediction range of the road surface line, an extraction unit that extracts data detected in the prediction range from the output data, the extracted data, and position information of the road surface line included in the map data. Based on the above, the computer functions as an estimation unit that estimates the current position of the moving object.

白線抽出方法を説明する図である。It is a figure explaining the white line extraction method. 白線予測範囲の決定方法を説明する図である。It is a figure explaining the method of determining a white line prediction range. 白線中心位置の算出方法を説明する図である。It is a figure explaining the calculation method of the white line center position. 車両の速度を考慮した白線予測位置の補正方法を説明する図である。It is a figure explaining the correction method of the white line predicted position in consideration of the speed of a vehicle. 車両の速度を考慮した白線予測位置の例を示す。An example of the white line predicted position considering the speed of the vehicle is shown. 測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of a measuring device. 白線を利用した自車位置推定処理のフローチャートである。It is a flowchart of the own vehicle position estimation process using a white line.

本発明の1つの好適な実施形態では、測定装置は、周囲の路面線を検出するためのセンサ部からの出力データを取得する取得部と、自己位置と、路面線の位置情報と、前記自己位置の移動速度とに基づいて、所定範囲を決定する決定部と、前記出力データのうち、前記所定範囲の検出結果に相当するデータを抽出する抽出部と、抽出されたデータに基づいて所定の処理を行う処理部と、を備える。 In one preferred embodiment of the present invention, the measuring device includes an acquisition unit that acquires output data from a sensor unit for detecting a surrounding road surface line, a self-position, position information of the road surface line, and the self. A determination unit that determines a predetermined range based on the movement speed of the position, an extraction unit that extracts data corresponding to the detection result of the predetermined range from the output data, and a predetermined unit based on the extracted data. It is provided with a processing unit that performs processing.

上記の測定装置は、周囲の路面線を検出するためのセンサ部からの出力データを取得し、自己位置と、路面線の位置情報と、前記自己位置の移動速度とに基づいて、所定範囲を決定する。そして、出力データのうち、所定範囲の検出結果に相当するデータを抽出し、抽出されたデータに基づいて所定の処理を行う。これにより、自己位置の移動速度に応じて、データを抽出するための所定範囲を適切に設定することができる。なお、本明細書においての「路面線」とは、測定対象である白線や黄色線などの区画線、および停止線や横断歩道などの線状の道路標示等である。 The above-mentioned measuring device acquires output data from the sensor unit for detecting the surrounding road surface line, and sets a predetermined range based on the self-position, the position information of the road surface line, and the moving speed of the self-position. decide. Then, from the output data, data corresponding to the detection result in a predetermined range is extracted, and a predetermined process is performed based on the extracted data. As a result, a predetermined range for extracting data can be appropriately set according to the moving speed of the self-position. The "road surface line" in the present specification is a lane marking such as a white line or a yellow line to be measured, and a linear road marking such as a stop line or a pedestrian crossing.

上記の測定装置の一態様では、前記決定部は、前記自己位置と、前記路面線の実線部の位置情報とに基づいて前記所定範囲を決定し、当該所定範囲を前記移動速度に応じて前記自己位置の移動方向にシフトする。この態様では、所定範囲が移動速度に応じてシフトされる。 In one aspect of the above-mentioned measuring device, the determination unit determines the predetermined range based on the self-position and the position information of the solid line portion of the road surface line, and the predetermined range is set according to the movement speed. It shifts in the direction of movement of its own position. In this aspect, the predetermined range is shifted according to the moving speed.

上記の測定装置の他の一態様では、前記測定装置は、移動体に搭載され、前記決定部は、前記移動体の位置を基準として複数の所定範囲を決定し、前記センサ部による前記複数の所定範囲のスキャン順序に応じたシフト量だけ前記所定範囲の各々をシフトする。この態様では、複数の所定範囲がセンサ部によるスキャン順序に応じてシフトされる。好適には、前記決定部は、前記センサ部によるスキャン順序が後になる所定範囲ほど大きなシフト量でシフトする。また、好適には、前記決定部は、前記センサ部によるスキャン速度が速いほど、前記シフト量を少なくする。 In another aspect of the above measuring device, the measuring device is mounted on a moving body, the determination unit determines a plurality of predetermined ranges based on the position of the moving body, and the sensor unit determines the plurality of predetermined ranges. Each of the predetermined ranges is shifted by a shift amount according to the scan order of the predetermined range. In this aspect, a plurality of predetermined ranges are shifted according to the scanning order by the sensor unit. Preferably, the determination unit shifts with a larger shift amount by a predetermined range in which the scan order by the sensor unit is later. Further, preferably, the faster the scanning speed by the sensor unit is, the smaller the shift amount of the determination unit is.

好適には、前記決定部は、前記移動体の位置を基準として右前方、右後方、左前方、左後方の4か所に前記所定範囲を設定する。また、好適には、前記処理部は、前記路面線の位置を検出し、当該路面線の位置に基づいて前記測定装置の位置を推定する処理を行う。 Preferably, the determination unit sets the predetermined range at four locations, right front, right rear, left front, and left rear, with reference to the position of the moving body. Further, preferably, the processing unit detects the position of the road surface line and performs a process of estimating the position of the measuring device based on the position of the road surface line.

本発明の他の好適な実施形態では、測定装置により実行される測定方法は、周囲の路面線を検出するためのセンサ部からの出力データを取得する取得工程と、自己位置と、路面線の位置情報と、前記自己位置の移動速度とに基づいて、所定範囲を決定する決定工程と、前記出力データのうち、前記所定範囲の検出結果に相当するデータを抽出する抽出工程と、抽出されたデータに基づいて所定の処理を行う処理工程と、を備える。この方法により、自己位置の移動速度に応じて、データを抽出するための所定範囲を適切に設定することができる。 In another preferred embodiment of the invention, the measurement method performed by the measuring device is an acquisition step of acquiring output data from a sensor unit for detecting the surrounding road surface line, a self-position, and a road surface line. A determination step of determining a predetermined range based on the position information and the movement speed of the self-position, an extraction step of extracting data corresponding to the detection result of the predetermined range from the output data, and extraction. It includes a processing step of performing a predetermined process based on data. According to this method, a predetermined range for extracting data can be appropriately set according to the moving speed of the self-position.

本発明の他の好適な実施形態では、コンピュータを備える測定装置により実行されるプログラムは、周囲の路面線を検出するためのセンサ部からの出力データを取得する取得部、自己位置と、路面線の位置情報と、前記自己位置の移動速度とに基づいて、所定範囲を決定する決定部、前記出力データのうち、前記所定範囲の検出結果に相当するデータを抽出する抽出部、抽出されたデータに基づいて所定の処理を行う処理部、として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記の測定装置を実現することができる。このプログラムは、記憶媒体に記憶して取り扱うことができる。 In another preferred embodiment of the invention, the program executed by the measuring device including the computer is an acquisition unit, self-position, and a road surface line that acquires output data from the sensor unit for detecting the surrounding road surface line. A determination unit that determines a predetermined range based on the position information of the above and the movement speed of the self-position, an extraction unit that extracts data corresponding to the detection result of the predetermined range from the output data, and extracted data. The computer is made to function as a processing unit that performs a predetermined process based on the above. The above measuring device can be realized by executing this program on a computer. This program can be stored and handled in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。
[白線抽出方法]
図1は、白線抽出方法を説明する図である。白線抽出とは、道路面にペイントされた白線を検出し、その所定位置、例えば中心位置を算出することをいう。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[White line extraction method]
FIG. 1 is a diagram illustrating a white line extraction method. White line extraction means to detect a white line painted on a road surface and calculate a predetermined position, for example, a center position thereof.

(白線予測位置の算出)
図示のように、地図座標系(X,Y)に車両5が存在し、車両5の位置を基準として車両座標系(X,Y)が規定される。具体的に、車両5の進行方向を車両座標系のX軸とし、それに垂直な方向を車両座標系のY軸とする。
(Calculation of white line predicted position)
As shown in the figure, the vehicle 5 exists in the map coordinate system (X m , Y m ), and the vehicle coordinate system (X v , Y v ) is defined with reference to the position of the vehicle 5. Specifically, the traveling direction of the vehicle 5 and X v-axis of the vehicle coordinate system, a direction perpendicular to it and Y v axis of the vehicle coordinate system.

車両5の左右の側方には車線境界線である白線が存在する。白線の地図座標系における位置、即ち、白線地図位置は、サーバなどにより管理される高度化地図に含まれており、サーバなどから取得される。本実施例では、白線のデータは座標点列として高度化地図内に記憶されているものとする。また、車両5に搭載されたLiDARはスキャンライン2に沿ってスキャンデータを計測する。なお、スキャンライン2は、LiDARによるスキャンの軌跡を示す。 There are white lines, which are lane boundaries, on the left and right sides of the vehicle 5. The position of the white line in the map coordinate system, that is, the position of the white line map is included in the advanced map managed by the server or the like, and is acquired from the server or the like. In this embodiment, it is assumed that the white line data is stored in the advanced map as a coordinate point sequence. Further, the LiDAR mounted on the vehicle 5 measures scan data along the scan line 2. The scan line 2 shows the trajectory of scanning by LiDAR.

図1では、車両5の左側の白線WL1を構成する点の座標、即ち白線地図位置WLMP1は(mxm1,mym1)であり、車両5の右側の白線WL2を構成する点の座標、即ち白線地図位置WLMP2は(mxm2,mym2)であるとする。また、地図座標系における予測自車位置PVPは(x’,y’)で与えられ、地図座標系における予測自車方位角はΨ’で与えられる。 In FIG. 1, the coordinates of the points constituting the white line WL1 on the left side of the vehicle 5, that is, the white line map position WLMP1 is (mx m1 , my m1 ), and the coordinates of the points constituting the white line WL2 on the right side of the vehicle 5, that is, the white line. It is assumed that the map position WLMP2 is (mx m2 , my m2 ). Further, the predicted vehicle position PVP in the map coordinate system is given by (x 'm, y' m ), the predicted vehicle azimuth in the map coordinate system is given by [psi 'm.

ここで、白線の予測位置を示す白線予測位置WLPP(l’x,l’y)は、白線地図位置WLMP(mx,my)と、予測自車位置PVP(x’,y’)と、予測自車方位角Ψ’とを用いて、以下の式(1)により与えられる。 Here, the white line predicted position WLPP indicating the predicted position of the white line (l'x v, l'y v ) is the white line map position WLMP (mx m, my m) and the predicted vehicle position PVP (x 'm, y 'and m), the predicted vehicle azimuth [psi' by using the m, is given by the following equation (1).

Figure 2021179443
よって、式(1)により、白線WL1について白線予測位置WLPP1(l’xv1,l’yv1)が得られ、白線WL2について白線予測位置WLPP2(l’xv2,l’yv2)が得られる。こうして、白線WL1、WL2のそれぞれについて、白線WL1、WL2に対応する複数の白線予測位置WLPP1、WLPP2が得られる。
Figure 2021179443
Therefore, according to the equation (1), the white line predicted position WLPP1 (l'x v1 , l'y v1 ) is obtained for the white line WL1, and the white line predicted position WLPP2 (l'x v2 , l'y v2 ) is obtained for the white line WL2. Will be. In this way, for each of the white lines WL1 and WL2, a plurality of white line predicted positions WLPP1 and WLPP2 corresponding to the white lines WL1 and WL2 can be obtained.

(白線予測範囲の決定)
次に、白線予測位置WLPPに基づいて、白線予測範囲WLPRが決定される。白線予測範囲WLPRは、予測自車位置PVPを基準として、白線が存在すると考えられる範囲を示す。白線予測範囲WLPRは、最大で車両5の右前方、右後方、左前方及び左後方の4か所に設定される。
(Determining the white line prediction range)
Next, the white line prediction range WLPR is determined based on the white line prediction position WLPP. White line prediction range WLPR indicates a range in which a white line is considered to exist with reference to the predicted own vehicle position PVP. The white line prediction range WLPR is set at a maximum of four locations, right front, right rear, left front, and left rear of the vehicle 5.

図2は、白線予測範囲WLPRの決定方法を示す。図2(A)において、車両5の前方の任意の位置(距離α前方の位置)に前方基準点(α,0)を設定する。そして、前方基準点(α,0)と、白線予測位置WLPPとに基づいて、前方基準点(α,0)から最も近い白線予測位置WLPPを探索する。具体的には、白線WL1については、前方基準点(α,0)と、白線WL1を構成する複数の白線予測位置WLPP1(l’xv1,l’yv1)とに基づいて、以下の式(2)により距離D1を算出し、距離D1が最小値となる白線予測位置WLPP1を予測範囲基準点Pref1とする。

Figure 2021179443
FIG. 2 shows a method for determining the white line prediction range WLPR. In FIG. 2A, a front reference point (α v , 0 v ) is set at an arbitrary position (distance α v front position) in front of the vehicle 5. Then, based on the front reference point (α v , 0 v ) and the white line predicted position WLPP, the nearest white line predicted position WLPP is searched from the front reference point (α v , 0 v). Specifically, the white line WL1 is described below based on the front reference point (α v , 0 v ) and the plurality of white line predicted positions WLPP1 (l'x v1 , l'y v1) constituting the white line WL1. The distance D1 is calculated by the equation (2) of the above equation (2), and the white line predicted position WLPP1 at which the distance D1 is the minimum value is set as the prediction range reference point Pref1.
Figure 2021179443

同様に、白線WL2については、前方基準点(α,0)と、白線WL2を構成する複数の白線予測位置WLPP2(l’xv2,l’yv2)とに基づいて、以下の式(3)により距離D2を算出し、距離D2が最小値となる白線予測位置WLPP2を予測範囲基準点Pref2とする。

Figure 2021179443
Similarly, for the white line WL2, the following equation is obtained based on the front reference point (α v , 0 v ) and the plurality of white line predicted positions WLPP2 (l'x v2 , l'y v2) constituting the white line WL2. The distance D2 is calculated according to (3), and the white line predicted position WLPP2 at which the distance D2 is the minimum value is set as the prediction range reference point Def2.
Figure 2021179443

そして、図2(B)に示すように、予測範囲基準点Prefを基準とした任意の範囲、例えば予測範囲基準点PrefからX軸方向に±ΔX、Y軸方向に±ΔYの範囲を白線予測範囲WLPRと設定する。こうして、図1に示すように、車両5の前方の左右位置に白線予測範囲WLPR1とWLPR2が設定される。同様に、車両5の後方に後方基準点を設定して予測範囲基準点Prefを設定することにより、車両5の後方の左右位置に白線予測範囲WLPR3とWLPR4が設定される。こうして、車両5に対して4つの白線予測範囲WLPR1〜4が設定される。 Then, as shown in FIG. 2 (B), any range based on the expected range reference point Pref, for example ± [Delta] X from the expected range reference point Pref in X v-axis direction, a range of ± [Delta] Y to Y v-axis direction White line prediction range WLPR is set. In this way, as shown in FIG. 1, the white line prediction ranges WLPR1 and WLPR2 are set at the left and right positions in front of the vehicle 5. Similarly, by setting the rear reference point behind the vehicle 5 and setting the prediction range reference point Pref, the white line prediction ranges WLPR3 and WLPR4 are set at the left and right positions behind the vehicle 5. In this way, four white line prediction ranges WLPR1 to 4 are set for the vehicle 5.

(白線中心位置の算出)
次に、白線予測位置WLPPを用いて白線中心位置WLCPを算出する。図3は白線中心位置WLCPの算出方法を示す。図3(A)は、白線WL1が実線である場合を示す。白線中心位置WLCP1は、白線を構成するスキャンデータの位置座標の平均値により算出される。いま、図3(A)に示すように、白線予測範囲WLPR1が設定されると、LiDARから出力されるスキャンデータのうち、白線予測範囲WLPR1内に存在する白線スキャンデータWLSD1(wx’,wy’)が抽出される。白線上は通常の道路上と比較して反射率が高いので、白線上で得られたスキャンデータは、反射強度の高いデータとなる。LiDARから出力されたスキャンデータのうち、白線予測範囲WLPR1内に存在し、路面上、かつ、反射強度が所定以上値であるスキャンデータが白線スキャンデータWLSDとして抽出される。そして、抽出された白線スキャンデータWLSDの数を「n」とすると、以下の式(4)により、白線中心位置WLCP1(sxv1,syv1)の座標が得られる。

Figure 2021179443
また、図3(B)に示すように、白線が破線である場合も同様に白線中心位置WLCP2が算出される。 (Calculation of the center position of the white line)
Next, the white line center position WLCP is calculated using the white line predicted position WLPP. FIG. 3 shows a method of calculating the white line center position WLCP. FIG. 3A shows a case where the white line WL1 is a solid line. The white line center position WLCP1 is calculated from the average value of the position coordinates of the scan data constituting the white line. Now, as shown in FIG. 3 (A), the white line prediction range WLPR1 is set, among the scan data output from LiDAR, white line scan data exists in the white line expected range WLPR1 WLSD1 (wx 'v, wy ' v ) is extracted. Since the reflectance on the white line is higher than that on a normal road, the scan data obtained on the white line is data with high reflection intensity. Among the scan data output from LiDAR, the scan data existing in the white line prediction range WLPR1 on the road surface and having a reflection intensity of a predetermined value or more is extracted as the white line scan data WLSD. Then, assuming that the number of the extracted white line scan data WLSD is "n", the coordinates of the white line center position WLCP1 (sx v1 , sy v1 ) can be obtained by the following equation (4).
Figure 2021179443
Further, as shown in FIG. 3B, when the white line is a broken line, the white line center position WLCP2 is calculated in the same manner.

(車両の速度に応じた白線予測範囲の補正)
次に、車両5の速度に応じて白線予測範囲WLPRを補正する手法について説明する。図4(A)は、車両5が停止している場合に車両5の前方に設定される白線予測範囲WLPR1、WLPR2を示す。ここで、LiDARは、車両5の位置を中心として時計回りに1周(360°)のスキャンを行い、1周分のスキャンデータを蓄積するものとする。車両5が停止している場合、LiDARによるスキャンライン2は車両5の位置を中心とする円となるので、白線予測範囲WLPR1とWLPR2は車両5から等距離にあればよい。即ち、図示のように、白線予測範囲WLPR1と白線予測範囲WLPR2をX軸に対して線対称の位置に配置すれば、LiDARによるスキャンデータを効率的に抽出することができる。
(Correction of white line prediction range according to vehicle speed)
Next, a method of correcting the white line prediction range WLPR according to the speed of the vehicle 5 will be described. FIG. 4A shows the white line prediction ranges WLPR1 and WLPR2 set in front of the vehicle 5 when the vehicle 5 is stopped. Here, it is assumed that LiDAR scans one lap (360 °) clockwise around the position of the vehicle 5 and accumulates scan data for one lap. When the vehicle 5 is stopped, the scan line 2 by LiDAR becomes a circle centered on the position of the vehicle 5, so that the white line prediction ranges WLPR1 and WLPR2 may be equidistant from the vehicle 5. That is, as shown, by arranging a white line estimated range WLPR1 and white expected range WLPR2 a position axisymmetric with respect to the X v axis, it is possible to extract the scan data by LiDAR efficiently.

しかし、図4(B)に示すように、車両5の走行中、特に高速走行している場合には、LiDARによるスキャン中に車両が移動する。この例では、LiDARは時計回りにスキャンを行うので、LiDARが車両5の左前方の白線WL1をスキャンしてから、右前方の白線WL2をスキャンするまでの間に、車両5は前方へ移動する。よって、図4(B)に示すように、LiDARが白線WL2をスキャンする位置は、白線WL1をスキャンする位置よりも前方となる。このため、図4(A)に示す車両の停止時と同じように、車両5の右前方の白線予測範囲WLPR2を左前方の白線予測範囲WLPR1と左右対称の位置に設定すると、白線予測範囲WLPR2に含まれるスキャンライン2の数が減少してしまう。 However, as shown in FIG. 4B, the vehicle moves during the scanning by LiDAR while the vehicle 5 is traveling, particularly when the vehicle is traveling at high speed. In this example, since LiDAR scans clockwise, the vehicle 5 moves forward between the time LiDAR scans the white line WL1 on the left front of the vehicle 5 and the time it scans the white line WL2 on the right front. .. Therefore, as shown in FIG. 4B, the position where LiDAR scans the white line WL2 is ahead of the position where the white line WL1 is scanned. Therefore, when the white line prediction range WLPR2 on the right front side of the vehicle 5 is set to a position symmetrical with the white line prediction range WLPR1 on the left front as in the case of the vehicle stop shown in FIG. 4 (A), the white line prediction range WLPR2 The number of scan lines 2 included in is reduced.

そこで、本実施例では、車両5の速度に応じて、白線予測範囲WLPRの位置を補正する。具体的に、図4(B)の例では、まず図2に示す手法により、図4(A)と同様に白線予測範囲WLPR1とWLPR2を左右対称に設定した後、車両5の速度に応じたシフト量だけ白線予測範囲WLPR2を前方へシフトし、白線予測範囲WLPR2xの位置に設定する。これにより、図4(B)に示すように、車両5の移動により前方へ移動したスキャンライン2を適切に含むように白線予測範囲WLPR2xを設定することができる。 Therefore, in this embodiment, the position of the white line prediction range WLPR is corrected according to the speed of the vehicle 5. Specifically, in the example of FIG. 4B, first, the white line prediction ranges WLPR1 and WLPR2 are set symmetrically in the same manner as in FIG. 4A by the method shown in FIG. 2, and then the speed of the vehicle 5 is adjusted. The white line prediction range WLPR2 is shifted forward by the amount of shift, and is set at the position of the white line prediction range WLPR2x. As a result, as shown in FIG. 4B, the white line prediction range WLPR2x can be set so as to appropriately include the scan line 2 that has moved forward due to the movement of the vehicle 5.

図5は、車両5の位置を基準として、4つの白線予測範囲WLPR1〜4を設定する場合の白線予測範囲の補正方法を示す。図5の例においても、LiDARによるスキャンは時計回りとする。車両5の左前方の白線予測範囲WLPR1をLiDARによるスキャンの基準点と考え、そのスキャン時刻をt0とする。また、LiDARが左前方の白線予測範囲WLPR1をスキャンしてから、右前方の白線予測範囲WLPR2をスキャンするまでの時間差をΔt1とし、右前方の白線予測範囲WLPR2をスキャンしてから右後方の白線予測範囲WLPR3をスキャンするまでの時間差をΔt2とし、右後方の白線予測範囲WLPR3をスキャンしてから左後方の白線予測範囲WLPR4をスキャンするまでの時間差をΔt3とする。 FIG. 5 shows a correction method of the white line prediction range when four white line prediction ranges WLPR1 to 4 are set with reference to the position of the vehicle 5. Also in the example of FIG. 5, the scan by LiDAR is clockwise. The white line prediction range WLPR1 on the left front of the vehicle 5 is considered as a reference point for scanning by LiDAR, and the scanning time is set to t0. Further, the time difference between LiDAR scanning the white line prediction range WLPR1 on the left front and scanning the white line prediction range WLPR2 on the right front is set as Δt1, and the white line on the right rear after scanning the white line prediction range WLPR2 on the right front. The time difference until the prediction range WLPR3 is scanned is Δt2, and the time difference from scanning the white line prediction range WLPR3 on the right rear to scanning the white line prediction range WLPR4 on the left rear is Δt3.

いま、車両5が停止していると仮定する。この場合、右前方の白線予測範囲WLPR2は左前方の白線予測範囲WLPR1とX軸に対して線対称に設定される。また、右後方の白線予測範囲WLPR3は、右前方の白線予測範囲WLPR2とY軸に対して線対称に設定される。また、左後方の白線予測範囲WLPR4は、右後方の白線予測範囲WLPR3とX軸に対して線対称に設定される。 Now, it is assumed that the vehicle 5 is stopped. In this case, the right front of the white line prediction range WLPR2 is set symmetrically with respect to the X v-axis front left white line expected range WLPR1. Also, rear right white line estimated range WLPR3 is set symmetrically with respect to the white line expected range WLPR2 and Y v axes of the right front. Further, the white line expected range WLPR4 left rear is set symmetrically with respect to the white line expected range WLPR3 and X v-axis of the right rear.

次に、車両5が高速走行していると仮定する。この場合、右前方の白線予測範囲WLPR2は、前方(車両の進行方向)へΔd1だけシフトされて白線予測範囲WLPR2xの位置に設定される。右後方の白線予測範囲WLPR3は、前方へΔd2だけシフトされて白線予測範囲WLPR3xの位置に設定される。左後方の白線予測範囲WLPR4は、前方へΔd3だけシフトされて白線予測範囲WLPR4xの位置に設定される。 Next, it is assumed that the vehicle 5 is traveling at high speed. In this case, the white line prediction range WLPR2 on the right front is shifted forward (in the traveling direction of the vehicle) by Δd1 and set at the position of the white line prediction range WLPR2x. The white line prediction range WLPR3 on the right rear side is shifted forward by Δd2 and set at the position of the white line prediction range WLPR3x. The white line prediction range WLPR4 on the left rear side is shifted forward by Δd3 and set at the position of the white line prediction range WLPR4x.

ここで、シフト量Δd1〜Δd3は、車両5の速度に依存する。概略的には、車両5の速度が速いほどシフト量Δd1〜Δd3は大きくなり、車両5の速度が遅いほどシフト量Δd1〜Δd3は小さくなる。より具体的には、車両5の速度を「V」とすると、白線予測範囲WLPR2xのシフト量Δd1は、
Δd1=Δt1×V (5)
となり、白線予測範囲WLPR3xのシフト量Δd2は、
Δd2=(Δt1+Δt2)×V (6)
となり、白線予測範囲WLPR4xのシフト量Δd3は、
Δd3=(Δt1+Δt2+Δt3)×V (7)
となる。
Here, the shift amounts Δd1 to Δd3 depend on the speed of the vehicle 5. Generally, the faster the speed of the vehicle 5, the larger the shift amount Δd1 to Δd3, and the slower the speed of the vehicle 5, the smaller the shift amount Δd1 to Δd3. More specifically, assuming that the speed of the vehicle 5 is "V", the shift amount Δd1 of the white line prediction range WLPR2x is
Δd1 = Δt1 × V (5)
Therefore, the shift amount Δd2 of the white line prediction range WLPR3x is
Δd2 = (Δt1 + Δt2) × V (6)
Therefore, the shift amount Δd3 of the white line prediction range WLPR4x is
Δd3 = (Δt1 + Δt2 + Δt3) × V (7)
Will be.

このように、車両5の周囲の4か所に白線予測範囲を設ける場合、基準となる白線予測範囲からのスキャン順序が後になる白線予測範囲ほどシフト量Δdが大きくなる。図5の例のように、LiDARのスキャン方向が時計回りである場合、シフト量はΔd1<Δd2<Δd3となる。即ち、シフト量は、白線予測範囲WLPR2x<白線予測範囲WLPR3x<白線予測範囲WLPR4xの関係となる。なお、LiDARのスキャン方向が反時計回りである場合、シフト量は、白線予測範囲WLPR4x<白線予測範囲WLPR3x<白線予測範囲WLPR2xの関係となる。 In this way, when the white line prediction ranges are provided at four locations around the vehicle 5, the shift amount Δd becomes larger as the scan order from the reference white line prediction range becomes later. When the scanning direction of LiDAR is clockwise as in the example of FIG. 5, the shift amount is Δd1 <Δd2 <Δd3. That is, the shift amount has a relationship of white line prediction range WLPR2x <white line prediction range WLPR3x <white line prediction range WLPR4x. When the scanning direction of LiDAR is counterclockwise, the shift amount has a relationship of white line prediction range WLPR4x <white line prediction range WLPR3x <white line prediction range WLPR2x.

また、シフト量Δd1〜Δd3は、車両5に搭載されたLiDARのスキャン速度にも依存する。概略的には、LiDARのスキャン速度が速いほどシフト量Δd1〜Δd3は小さくなり、スキャン速度が遅いほどシフト量Δd1〜Δd3は大きくなる。これは、スキャン速度が速いほど、上記の式(5)〜(7)におけるΔt1〜Δt3の値が小さくなるためである。 Further, the shift amounts Δd1 to Δd3 also depend on the scanning speed of the LiDAR mounted on the vehicle 5. Generally, the faster the scan speed of LiDAR, the smaller the shift amount Δd1 to Δd3, and the slower the scan speed, the larger the shift amount Δd1 to Δd3. This is because the faster the scanning speed, the smaller the values of Δt1 to Δt3 in the above equations (5) to (7).

なお、白線予測範囲のスキャン時刻の時間差Δt1〜Δt3は、各白線予測範囲間の距離とLiDARのスキャン速度、又は、各白線予測範囲間の角度とLiDARのスキャン角速度に基づいて算出することができる。 The time difference Δt1 to Δt3 of the scan time in the white line prediction range can be calculated based on the distance between the white line prediction ranges and the LiDAR scan speed, or the angle between the white line prediction ranges and the LiDAR scan angle speed. ..

[装置構成]
図6は、本発明の測定装置を適用した自車位置推定装置の概略構成を示す。自車位置推定装置10は、車両に搭載され、無線通信によりクラウドサーバなどのサーバ7と通信可能に構成されている。サーバ7はデータベース8に接続されており、データベース8は高度化地図を記憶している。データベース8に記憶された高度化地図は、ランドマーク毎にランドマーク地図情報を記憶している。また、白線については、白線を構成する点列の座標を示す白線地図位置WLMPを含む白線地図情報を記憶している。自車位置推定装置10は、サーバ7と通信し、車両の自車位置周辺の白線に関する白線地図情報をダウンロードする。
[Device configuration]
FIG. 6 shows a schematic configuration of a vehicle position estimation device to which the measuring device of the present invention is applied. The own vehicle position estimation device 10 is mounted on a vehicle and is configured to be able to communicate with a server 7 such as a cloud server by wireless communication. The server 7 is connected to the database 8, and the database 8 stores the advanced map. The advanced map stored in the database 8 stores landmark map information for each landmark. Further, for the white line, the white line map information including the white line map position WLMP indicating the coordinates of the point sequence constituting the white line is stored. The own vehicle position estimation device 10 communicates with the server 7 and downloads white line map information regarding the white line around the own vehicle position of the vehicle.

自車位置推定装置10は、内界センサ11と、外界センサ12と、自車位置予測部13と、通信部14と、白線地図情報取得部15と、白線位置予測部16と、スキャンデータ抽出部17と、白線中心位置算出部18と、自車位置推定部19とを備える。なお、自車位置予測部13、白線地図情報取得部15、白線位置予測部16、スキャンデータ抽出部17、白線中心位置算出部18及び自車位置推定部19は、実際には、CPUなどのコンピュータが予め用意されたプログラムを実行することにより実現される。 The vehicle position estimation device 10 includes an internal sensor 11, an external sensor 12, a vehicle position prediction unit 13, a communication unit 14, a white line map information acquisition unit 15, a white line position prediction unit 16, and scan data extraction. A unit 17, a white line center position calculation unit 18, and a vehicle position estimation unit 19 are provided. The own vehicle position prediction unit 13, the white line map information acquisition unit 15, the white line position prediction unit 16, the scan data extraction unit 17, the white line center position calculation unit 18, and the own vehicle position estimation unit 19 are actually CPUs and the like. This is achieved by the computer executing a program prepared in advance.

内界センサ11は、GNSS(Global Navigation Satellite System)/IMU(Inertia Measurement Unit)複合航法システムとして車両の自車位置を測位するものであり、衛星測位センサ(GPS)、ジャイロセンサ、車速センサなどを含む。自車位置予測部13は、内界センサ11の出力に基づいて、GNSS/IMU複合航法により車両の自車位置を予測し、予測自車位置PVPを白線位置予測部16に供給する。 The internal sensor 11 is a GNSS (Global Navigation Satellite System) / IMU (Inertial Measurement Unit) combined navigation system that positions the vehicle's own vehicle position, and includes a satellite positioning sensor (GPS), a gyro sensor, a vehicle speed sensor, and the like. include. The own vehicle position prediction unit 13 predicts the own vehicle position of the vehicle by GNSS / IMU combined navigation based on the output of the internal sensor 11, and supplies the predicted own vehicle position PVP to the white line position prediction unit 16.

外界センサ12は、車両の周辺の物体を検出するセンサであり、ステレオカメラ、LiDARなどを含む。外界センサ12は、計測により得られたスキャンデータSDをスキャンデータ抽出部17へ供給する。 The outside world sensor 12 is a sensor that detects an object around the vehicle, and includes a stereo camera, LiDAR, and the like. The outside world sensor 12 supplies the scan data SD obtained by the measurement to the scan data extraction unit 17.

通信部14は、サーバ7と無線通信するための通信ユニットである。白線地図情報取得部15は、車両の周辺に存在する白線に関する白線地図情報を通信部14を介してサーバ7から受信し、白線地図情報に含まれる白線地図位置WLMPを白線位置予測部16へ供給する。 The communication unit 14 is a communication unit for wireless communication with the server 7. The white line map information acquisition unit 15 receives white line map information regarding white lines existing around the vehicle from the server 7 via the communication unit 14, and supplies the white line map position WLMP included in the white line map information to the white line position prediction unit 16. do.

白線位置予測部16は、白線地図位置WLMPと自車位置予測部13から取得した予測自車位置PVPとに基づいて、前述の式(1)により白線予測位置WLPPを算出する。また、白線位置予測部16は、白線予測位置WLPPに基づいて、前述の式(2)、(3)により白線予測範囲WLPRを決定する。さらに、白線位置予測部16は、車両の速度及びLiDARのスキャン速度、スキャン方向(時計回り又は反時計回り)に応じて、上記のように各白線予測位置WLPR1〜WLPR4を補正する。そして、白線位置予測部16は、補正後の白線予測範囲WLPRをスキャンデータ抽出部17へ供給する。 The white line position prediction unit 16 calculates the white line predicted position WLPP by the above equation (1) based on the white line map position WLMP and the predicted own vehicle position PVP acquired from the own vehicle position prediction unit 13. Further, the white line position prediction unit 16 determines the white line prediction range WLPR by the above equations (2) and (3) based on the white line prediction position WLPP. Further, the white line position prediction unit 16 corrects each white line prediction position WLPR1 to WLPR4 as described above according to the vehicle speed, the LiDAR scan speed, and the scan direction (clockwise or counterclockwise). Then, the white line position prediction unit 16 supplies the corrected white line prediction range WLPR to the scan data extraction unit 17.

スキャンデータ抽出部17は、白線位置予測部16から供給された白線予測範囲WLPRと、外界センサ12から取得したスキャンデータSDとに基づいて白線スキャンデータWLSDを抽出する。具体的には、スキャンデータ抽出部17は、スキャンデータSDのうち、白線予測範囲WLPRに含まれ、路面上、かつ、反射強度が所定値以上であるスキャンデータを、白線スキャンデータWLSDとして抽出し、白線中心位置算出部18へ供給する。 The scan data extraction unit 17 extracts the white line scan data WLSD based on the white line prediction range WLPR supplied from the white line position prediction unit 16 and the scan data SD acquired from the outside world sensor 12. Specifically, the scan data extraction unit 17 extracts scan data among the scan data SD, which is included in the white line prediction range WLPR, is on the road surface, and has a reflection intensity of a predetermined value or more, as white line scan data WLSD. , Supply to the white line center position calculation unit 18.

白線中心位置算出部18は、図3を参照して説明したように、式(4)により白線スキャンデータWLSDから白線中心位置WLCPを算出する。そして、白線中心位置算出部18は、算出された白線中心位置WLCPを自車位置推定部19へ供給する。 As described with reference to FIG. 3, the white line center position calculation unit 18 calculates the white line center position WLCP from the white line scan data WLSD by the equation (4). Then, the white line center position calculation unit 18 supplies the calculated white line center position WLCP to the own vehicle position estimation unit 19.

自車位置推定部19は、高度化地図における白線地図位置WLMPと、外界センサ12による白線の計測データである白線中心位置WLCPとに基づいて、車両の自車位置と自車方位角を推定する。なお、高度化地図のランドマーク位置情報と外界センサによるランドマークの計測位置情報をマッチングすることにより自車位置を推定する方法の一例が特開2017−72422に記載されている。 The own vehicle position estimation unit 19 estimates the own vehicle position and the own vehicle azimuth of the vehicle based on the white line map position WLMP in the advanced map and the white line center position WLCP which is the measurement data of the white line by the outside world sensor 12. .. Japanese Patent Application Laid-Open No. 2017-72422 describes an example of a method of estimating the position of the own vehicle by matching the landmark position information of the advanced map with the landmark measurement position information by the external sensor.

上記の構成において、外界センサ12は本発明のセンサ部の一例であり、スキャンデータ抽出部17は本発明の取得部及び抽出部の一例であり、白線位置予測部16は本発明の決定部の一例であり、自車位置推定部19は本発明の処理部の一例である。 In the above configuration, the external sensor 12 is an example of the sensor unit of the present invention, the scan data extraction unit 17 is an example of the acquisition unit and the extraction unit of the present invention, and the white line position prediction unit 16 is the determination unit of the present invention. As an example, the own vehicle position estimation unit 19 is an example of the processing unit of the present invention.

[自車位置推定処理]
次に、自車位置推定装置10による自車位置推定処理について説明する。図7は、自車位置推定処理のフローチャートである。この処理は、CPUなどのコンピュータが予め用意されたプログラムを実行し、図6に示す各構成要素として機能することにより実現される。なお、自車位置推定装置10は、車速センサなどにより車両5の速度を常に検出しているものとする。また、LiDARのスキャン速度及びスキャン方向は予め決められているものとする。
[Own vehicle position estimation process]
Next, the own vehicle position estimation process by the own vehicle position estimation device 10 will be described. FIG. 7 is a flowchart of the own vehicle position estimation process. This process is realized by executing a program prepared in advance by a computer such as a CPU and functioning as each component shown in FIG. It is assumed that the own vehicle position estimation device 10 always detects the speed of the vehicle 5 by a vehicle speed sensor or the like. Further, it is assumed that the scanning speed and scanning direction of LiDAR are predetermined.

まず、自車位置予測部13は、内界センサ11からの出力に基づいて、予測自車位置PVPを取得する(ステップS11)。次に、白線地図情報取得部15は、通信部14を通じてサーバ7に接続し、データベース8に記憶された高度化地図から白線地図情報を取得する(ステップS12)。なお、ステップS11とS12はいずれが先でもよい。 First, the vehicle position prediction unit 13 acquires the predicted vehicle position PVP based on the output from the internal sensor 11 (step S11). Next, the white line map information acquisition unit 15 connects to the server 7 through the communication unit 14 and acquires the white line map information from the advanced map stored in the database 8 (step S12). Either step S11 or S12 may come first.

次に、白線位置予測部16は、ステップS12で得られた白線位置情報に含まれる白線地図位置WLMPと、ステップS11で得られた予測自車位置PVPに基づいて、白線予測位置WLPPを算出する(ステップS13)。また、白線位置予測部16は、白線予測位置WLPPに基づいて白線予測範囲WLPRを決定する。この際、白線位置予測部16は、上記のように車両5の速度、LiDARのスキャン速度及びスキャン方向に基づいて、各白線予測範囲WLPR1〜WLPR4の位置を補正する。そして、白線位置予測部16は、白線予測範囲WLPRをスキャンデータ抽出部17へ供給する(ステップS14)。 Next, the white line position prediction unit 16 calculates the white line predicted position WLPP based on the white line map position WLMP included in the white line position information obtained in step S12 and the predicted own vehicle position PVP obtained in step S11. (Step S13). Further, the white line position prediction unit 16 determines the white line prediction range WLPR based on the white line prediction position WLPP. At this time, the white line position prediction unit 16 corrects the positions of the white line prediction ranges WLPR1 to WLPR4 based on the speed of the vehicle 5, the scan speed of LiDAR, and the scan direction as described above. Then, the white line position prediction unit 16 supplies the white line prediction range WLPR to the scan data extraction unit 17 (step S14).

次に、スキャンデータ抽出部17は、外界センサ12としてのLiDARから得たスキャンデータSDのうち、白線予測範囲WLPR内に属し、路面上、かつ、反射強度が所定値以上であるスキャンデータを白線スキャンデータWLSDとして抽出し、白線中心位置算出部18へ供給する(ステップS15)。 Next, the scan data extraction unit 17 includes scan data SD obtained from LiDAR as an external sensor 12 that belongs to the white line prediction range WLPR, is on the road surface, and has a reflection intensity of a predetermined value or more. It is extracted as scan data WLSD and supplied to the white line center position calculation unit 18 (step S15).

次に、白線中心位置算出部18は、白線予測範囲WLPRと白線スキャンデータWLSDに基づいて白線中心位置WLCPを算出し、自車位置推定部19へ供給する(ステップS16)。そして、自車位置推定部19は、白線中心位置WLCPを利用して自車位置推定を行い(ステップS17)、自車位置及び自車方位角を出力する(ステップS18)。こうして自車位置推定処理は終了する。 Next, the white line center position calculation unit 18 calculates the white line center position WLCP based on the white line prediction range WLPR and the white line scan data WLSD, and supplies it to the own vehicle position estimation unit 19 (step S16). Then, the own vehicle position estimation unit 19 estimates the own vehicle position using the white line center position WLCP (step S17), and outputs the own vehicle position and the own vehicle azimuth (step S18). In this way, the vehicle position estimation process is completed.

[変形例]
上記の実施例では、車線を示す車線境界線である白線を使用しているが、本発明の適用はこれには限られず、横断歩道、停止線などの線状の道路標示を利用してもよい。また、白線の代わりに、黄色線などを利用しても良い。これら、白線、黄色線などの区画線や、道路標示などは本発明の路面線の一例である。
[Modification example]
In the above embodiment, a white line which is a lane boundary line indicating a lane is used, but the application of the present invention is not limited to this, and even if a linear road marking such as a pedestrian crossing or a stop line is used. good. Further, instead of the white line, a yellow line or the like may be used. These lane markings such as white lines and yellow lines and road markings are examples of road surface lines of the present invention.

5 車両
7 サーバ
8 データベース
10 自車位置推定装置
11 内界センサ
12 外界センサ
13 自車位置予測部
14 通信部
15 白線地図情報取得部
16 白線位置予測部
17 スキャンデータ抽出部
18 白線中心位置算出部
19 自車位置推定部
5 Vehicles 7 Servers 8 Database 10 Own vehicle position estimation device 11 Internal world sensor 12 External world sensor 13 Own vehicle position prediction unit 14 Communication unit 15 White line map information acquisition unit 16 White line position prediction unit 17 Scan data extraction unit 18 White line center position calculation unit 19 Own vehicle position estimation unit

Claims (9)

移動体に搭載される測定装置であって、
スキャン型の外界センサである第1のセンサから、前記移動体の周囲の路面線を含む出力データを取得する取得部と、
前記移動体に搭載された第2のセンサの出力に基づいて前記移動体の予測位置を算出する予測部と、
前記予測位置と、地図データに含まれる前記路面線の位置情報と、に基づき前記路面線の予測範囲を算出し、前記算出された前記路面線の予測範囲と、前記移動体の移動速度と、に基づき前記路面線の予測範囲を補正することにより前記路面線の予測範囲を決定する決定部と、
前記出力データのうち、前記予測範囲において検出されたデータを抽出する抽出部と、
抽出されたデータと、前記地図データに含まれる前記路面線の位置情報とに基づいて、前記移動体の現在位置を推定する推定部と、
を備える測定装置。
It is a measuring device mounted on a moving body.
An acquisition unit that acquires output data including the road surface line around the moving body from the first sensor, which is a scan-type external sensor, and an acquisition unit.
A prediction unit that calculates the predicted position of the moving body based on the output of the second sensor mounted on the moving body, and
The predicted range of the road surface line is calculated based on the predicted position and the position information of the road surface line included in the map data, and the calculated predicted range of the road surface line, the moving speed of the moving body, and A determination unit that determines the predicted range of the road surface line by correcting the predicted range of the road surface line based on
An extraction unit that extracts data detected in the prediction range from the output data,
An estimation unit that estimates the current position of the moving body based on the extracted data and the position information of the road surface line included in the map data.
A measuring device equipped with.
前記決定部は、前記予測位置と、前記路面線の実線部の位置情報とに基づいて前記路面線の予測範囲を決定し、当該予測範囲を前記移動速度に応じて前記予測位置の移動方向にシフトすることを特徴とする請求項1に記載の測定装置。 The determination unit determines the predicted range of the road surface line based on the predicted position and the position information of the solid line portion of the road surface line, and sets the predicted range in the moving direction of the predicted position according to the moving speed. The measuring device according to claim 1, wherein the measuring device is shifted. 前記決定部は、前記移動体の位置を基準として複数の前記予測範囲を決定し、前記外界センサによる前記複数の予測範囲のスキャン順序に応じたシフト量だけ前記予測範囲の各々をシフトすることを特徴とする請求項2に記載の測定装置。 The determination unit determines a plurality of the prediction ranges based on the position of the moving body, and shifts each of the prediction ranges by a shift amount according to the scanning order of the plurality of prediction ranges by the external world sensor. The measuring device according to claim 2. 前記決定部は、前記外界センサによるスキャン順序が後になる予測範囲ほど大きなシフト量でシフトすることを特徴とする請求項3に記載の測定装置。 The measuring device according to claim 3, wherein the determination unit shifts the scan order by the external sensor with a larger shift amount as the prediction range becomes later. 前記決定部は、前記外界センサによるスキャン速度が速いほど、前記シフト量を少なくすることを特徴とする請求項3又は4に記載の測定装置。 The measuring device according to claim 3 or 4, wherein the determination unit reduces the shift amount as the scanning speed by the external sensor increases. 前記決定部は、前記移動体の位置を基準として右前方、右後方、左前方、左後方の4か所に前記予測範囲を設定することを特徴とする請求項3乃至5のいずれか一項に記載の測定装置。 One of claims 3 to 5, wherein the determination unit sets the prediction range at four locations of front right, rear right, front left, and rear left with reference to the position of the moving body. The measuring device described in. 移動体に搭載される測定装置により実行される測定方法であって、
スキャン型の外界センサである第1のセンサから、前記移動体の周囲の路面線を含む出力データを取得する取得工程と、
前記移動体に搭載された第2のセンサの出力に基づいて前記移動体の予測位置を算出する予測工程と、
前記予測位置と、地図データに含まれる前記路面線の位置情報と、に基づき前記路面線の予測範囲を算出し、前記算出された前記路面線の予測範囲と、前記移動体の移動速度と、に基づき前記路面線の予測範囲を補正することにより前記路面線の予測範囲を決定する決定工程と、
前記出力データのうち、前記予測範囲において検出されたデータを抽出する抽出工程と、
抽出されたデータと、前記地図データに含まれる前記路面線の位置情報とに基づいて、前記移動体の現在位置を推定する推定工程と、
を備える測定方法。
A measurement method performed by a measuring device mounted on a moving body.
The acquisition process of acquiring output data including the road surface line around the moving body from the first sensor, which is a scan-type external sensor, and
A prediction step of calculating the predicted position of the moving body based on the output of the second sensor mounted on the moving body, and
The predicted range of the road surface line is calculated based on the predicted position and the position information of the road surface line included in the map data, and the calculated predicted range of the road surface line, the moving speed of the moving body, and A determination step of determining the predicted range of the road surface line by correcting the predicted range of the road surface line based on
An extraction step for extracting data detected in the predicted range from the output data, and
An estimation process for estimating the current position of the moving body based on the extracted data and the position information of the road surface line included in the map data, and an estimation step.
A measurement method that comprises.
移動体に搭載され、コンピュータを備える測定装置により実行されるプログラムであって、
スキャン型の外界センサである第1のセンサから、前記移動体の周囲の路面線を含む出力データを取得する取得部、
前記移動体に搭載された第2のセンサの出力に基づいて前記移動体の予測位置を算出する予測部、
前記予測位置と、地図データに含まれる前記路面線の位置情報と、に基づき前記路面線の予測範囲を算出し、前記算出された前記路面線の予測範囲と、前記移動体の移動速度と、に基づき前記路面線の予測範囲を補正することにより前記路面線の予測範囲を決定する決定部、
前記出力データのうち、前記予測範囲において検出されたデータを抽出する抽出部、
抽出されたデータと、前記地図データに含まれる前記路面線の位置情報とに基づいて、前記移動体の現在位置を推定する推定部、
として前記コンピュータを機能させるプログラム。
A program mounted on a mobile body and executed by a measuring device equipped with a computer.
An acquisition unit that acquires output data including the road surface line around the moving body from the first sensor, which is a scan-type external sensor.
A prediction unit that calculates the predicted position of the moving body based on the output of the second sensor mounted on the moving body.
The predicted range of the road surface line is calculated based on the predicted position and the position information of the road surface line included in the map data, and the calculated predicted range of the road surface line, the moving speed of the moving body, and A determination unit that determines the predicted range of the road surface line by correcting the predicted range of the road surface line based on
An extraction unit that extracts data detected in the prediction range from the output data,
An estimation unit that estimates the current position of the moving body based on the extracted data and the position information of the road surface line included in the map data.
A program that makes the computer function as.
請求項8に記載のプログラムを記憶した記憶媒体。 A storage medium in which the program according to claim 8 is stored.
JP2021119424A 2017-05-19 2021-07-20 Measuring device, measuring method and program Pending JP2021179443A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023098356A JP2023118759A (en) 2017-05-19 2023-06-15 Measuring device, measuring method and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017100145 2017-05-19
JP2017100145 2017-05-19
JP2019518867A JPWO2018212284A1 (en) 2017-05-19 2018-05-17 Measuring device, measuring method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019518867A Division JPWO2018212284A1 (en) 2017-05-19 2018-05-17 Measuring device, measuring method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023098356A Division JP2023118759A (en) 2017-05-19 2023-06-15 Measuring device, measuring method and program

Publications (1)

Publication Number Publication Date
JP2021179443A true JP2021179443A (en) 2021-11-18

Family

ID=64274458

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019518867A Pending JPWO2018212284A1 (en) 2017-05-19 2018-05-17 Measuring device, measuring method and program
JP2021119424A Pending JP2021179443A (en) 2017-05-19 2021-07-20 Measuring device, measuring method and program
JP2023098356A Pending JP2023118759A (en) 2017-05-19 2023-06-15 Measuring device, measuring method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019518867A Pending JPWO2018212284A1 (en) 2017-05-19 2018-05-17 Measuring device, measuring method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023098356A Pending JP2023118759A (en) 2017-05-19 2023-06-15 Measuring device, measuring method and program

Country Status (2)

Country Link
JP (3) JPWO2018212284A1 (en)
WO (1) WO2018212284A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7486556B2 (en) 2022-09-02 2024-05-17 本田技研工業株式会社 Lane marking recognition device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225893A (en) * 1994-02-09 1995-08-22 Fuji Heavy Ind Ltd Inter-vehicle distance controller
JP2011073529A (en) * 2009-09-30 2011-04-14 Hitachi Automotive Systems Ltd Vehicle controller
JP2017004176A (en) * 2015-06-08 2017-01-05 日産自動車株式会社 Road surface marking detection device and road surface marking detection method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device
JP4329088B2 (en) * 1998-02-18 2009-09-09 株式会社エクォス・リサーチ Vehicle control device
JP3352655B2 (en) * 1999-09-22 2002-12-03 富士重工業株式会社 Lane recognition device
JP2017016226A (en) * 2015-06-29 2017-01-19 日立オートモティブシステムズ株式会社 Peripheral environment recognition system and vehicle control system mounting same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225893A (en) * 1994-02-09 1995-08-22 Fuji Heavy Ind Ltd Inter-vehicle distance controller
JP2011073529A (en) * 2009-09-30 2011-04-14 Hitachi Automotive Systems Ltd Vehicle controller
JP2017004176A (en) * 2015-06-08 2017-01-05 日産自動車株式会社 Road surface marking detection device and road surface marking detection method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
堀地恒生、木下哲郎、吉田智哉、小林一行: "ロボットの移動を考慮したLIDARの距離補正アルゴリズムの提案", 第32回ファジィシステムシンポジウム講演論文集, JPN6022039792, 2016, JP, pages 649 - 654, ISSN: 0005017051 *

Also Published As

Publication number Publication date
JPWO2018212284A1 (en) 2020-03-12
WO2018212284A1 (en) 2018-11-22
JP2023118759A (en) 2023-08-25

Similar Documents

Publication Publication Date Title
CN108351216B (en) Estimation device, control method, program, and storage medium
US9767372B2 (en) Target detection apparatus and target detection method
RU2720140C1 (en) Method for self-position estimation and self-position estimation device
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
JP6740470B2 (en) Measuring device, measuring method and program
JP7155284B2 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
US20220113139A1 (en) Object recognition device, object recognition method and program
JP6989284B2 (en) Vehicle position estimation device and program
JP2023118759A (en) Measuring device, measuring method and program
JP2023126399A (en) Measuring device, measuring method and program
JP2023099851A (en) Measurement device, method for measurement, and program
JP2023068009A (en) Map information creation method
JP2018036225A (en) State estimation device
WO2018212290A1 (en) Information processing device, control method, program and storage medium
WO2018212286A1 (en) Measurement device, measurement method and program
RU2781373C1 (en) Method for correcting one&#39;s location and a device for correcting one&#39;s location

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230322