JP2023068009A - Map information creation method - Google Patents

Map information creation method Download PDF

Info

Publication number
JP2023068009A
JP2023068009A JP2023037169A JP2023037169A JP2023068009A JP 2023068009 A JP2023068009 A JP 2023068009A JP 2023037169 A JP2023037169 A JP 2023037169A JP 2023037169 A JP2023037169 A JP 2023037169A JP 2023068009 A JP2023068009 A JP 2023068009A
Authority
JP
Japan
Prior art keywords
information
lane marking
edge
marking
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023037169A
Other languages
Japanese (ja)
Inventor
和紀 小山
Kazunori Koyama
令司 松本
Reiji Matsumoto
克巳 天野
Katsumi Amano
岳 青木
Takeshi Aoki
哲也 高橋
Tetsuya Takahashi
逸平 難波田
Ippei Nanbada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2023037169A priority Critical patent/JP2023068009A/en
Publication of JP2023068009A publication Critical patent/JP2023068009A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a map information creation method and a current position estimation method designed to improve the accuracy of estimating a position in the movement direction of a mobile object.
SOLUTION: A first onboard unit 5 mounted in a measurement vehicle 5 includes a LiDAR 23B. The first onboard unit 5 receives a reflected wave of a laser having been transmitted to a road surface and reflected by the road surface and recognizes edges of a demarcation line formed on the road surface on the basis of the strength of the reflected wave. The first onboard unit 5 transmits road surface information including the recognized edges of the demarcation line to a server device 3 via a network N. The server device 3 adds, on the basis of the road surface information, the edge information indicating the edges of the demarcation line and continuation information indicating that the section exists continuously to the information about the demarcation line included in the map information. A second onboard unit mounted in a vehicle 6 acquires information about the demarcation line from the server device 3, compares the edges of the demarcation line recognized by a LiDAR 41B with information indicating the edges of the demarcation line acquired from the server device 3, and estimates the current position.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、地図情報作成方法、地図情報構造及び現在位置推定方法に関する。 The present invention relates to a map information creation method, a map information structure, and a current position estimation method.

自動運転車両では、LiDAR(Light Detection and Ranging)などのセンサで計測し
た地物位置と、自動運転用の地図情報の地物位置と、をマッチングして高精度に現在位置を推定する必要がある。特許文献1は、LiDARを用いて検出したランドマークとしての地物の位置と、地図情報の地物とを用いて現在位置を推定する手法の一例が記載されている。
In self-driving vehicles, it is necessary to estimate the current position with high accuracy by matching the feature positions measured by sensors such as LiDAR (Light Detection and Ranging) and the feature positions of the map information for self-driving. . Patent Literature 1 describes an example of a method of estimating the current position using the position of a feature as a landmark detected using LiDAR and the feature of map information.

また、特許文献2には、LiDARを用いて白線を検出し、車両に対する白線の横方向の相対位置または白線に対して車両が向いている方向を高精度に検出することが記載されている。 Further, Patent Document 2 describes that LiDAR is used to detect a white line, and the relative position of the white line in the lateral direction with respect to the vehicle or the direction in which the vehicle is facing with respect to the white line is detected with high accuracy.

特開2017-72422号公報JP 2017-72422 A 特開2017-215199号公報JP 2017-215199 A

上述した従来では、白線(区画線)を用いて車両(移動体)の移動方向の位置を推定することができない、という問題が一例として挙げられる。 One example of the conventional technology described above is the problem that the position of a vehicle (moving body) in the moving direction cannot be estimated using white lines (division lines).

本発明は、このような問題点に対処することを課題の一例とするものである。即ち、本発明は、例えば、移動体の移動方向の位置推定精度の向上を図った地図情報作成方法及び現在位置推定方法を提供することを目的としている。 An object of the present invention is to address such problems. That is, it is an object of the present invention to provide, for example, a map information creation method and a current position estimation method that improve the position estimation accuracy in the moving direction of a mobile object.

上述した課題を解決するためになされた請求項1記載の区画線情報作成方法は、複数の点情報により構成される区画線を示す情報の前記点情報のそれぞれに、区画線上の緯度、経度を付与するとともに、前記区画線の端部を示す端部情報と、前記区画線に含まれ前記端部でないことを示す非端部情報と、のうち少なくとも一方を付与することを特徴とする。 According to a first aspect of the present invention, there is provided a lane marking information creation method for solving the above-mentioned problems. At least one of edge information indicating an edge of the marking line and non-edge information included in the marking line and indicating that the marking is not the edge is added.

請求項2記載の現在位置推定方法は、移動体の現在位置を推定する現在位置推定方法であって、周辺地図情報に含まれる緯度、経度が付与された区画線の端部情報を複数取得する工程と、前記移動体に配置されたセンサによって、路面上の区画線の端部を示す情報を複数取得する工程と、取得した前記端部情報同士の位置関係と、前記路面上の区画線の端部を示す情報同士の位置関係と、に基づいて前記現在位置を推定する工程と、を含むことを特徴とする。 A current position estimation method according to claim 2 is a current position estimation method for estimating the current position of a moving body, and obtains a plurality of pieces of edge information of lane markings to which latitudes and longitudes are assigned, which are included in surrounding map information. acquiring a plurality of pieces of information indicating end portions of the lane markings on the road surface using a sensor arranged on the moving object; a positional relationship between the acquired pieces of edge information; and a step of estimating the current position based on a positional relationship between pieces of information indicating end portions.

請求項3記載の区画線情報作成装置は、複数の点情報により構成される区画線を示す情報の前記点情報のそれぞれに、区画線上の緯度、経度を付与するとともに、前記区画線の端部を示す端部情報と、前記区画線に含まれ前記端部でないことを示す非端部情報と、のうち少なくとも一方を付与する付与部を備えることを特徴とする。 In the lane marking information creation device according to claim 3, a latitude and longitude on the lane marking is given to each of the point information indicating the lane marking composed of a plurality of pieces of point information, and the end portion of the lane marking and non-end information that is included in the marking line and indicates that it is not the edge.

請求項4記載の区画線情報作成プログラムは、複数の点情報により構成される区画線を示す情報の前記点情報のそれぞれに、区画線上の緯度、経度を付与するとともに、前記区画線の端部を示す端部情報と、前記区画線に含まれ前記端部でないことを示す非端部情報と、のうち少なくとも一方を付与する付与部として、コンピュータを機能させることを特徴とする。 In the lane marking information creation program according to claim 4, a latitude and a longitude on the lane marking are given to each of the point information indicating the lane marking composed of a plurality of point information, and the end portion of the lane marking is added to the point information. and non-end information that is included in the marking line and indicates that it is not the edge.

請求項5記載の現在位置推定装置は、移動体の現在位置を推定する現在位置推定装置であって、周辺地図情報に含まれる緯度、経度が付与された区画線の端部情報を複数取得する取得部と、前記移動体に配置され、路面上の区画線の端部を示す情報を複数取得するセンサと、取得した前記端部情報同士の位置関係と、前記路面上の区画線の端部を示す情報同士の位置関係と、に基づいて前記現在位置を推定する推定部と、を含むことを特徴とする。 A current position estimating device according to claim 5 is a current position estimating device for estimating the current position of a moving object, and acquires a plurality of end information of lane markings to which latitudes and longitudes are assigned, which are included in surrounding map information. an acquisition unit, a sensor arranged on the moving object to acquire a plurality of pieces of information indicating end portions of the lane markings on the road surface, a positional relationship between the acquired pieces of edge information, and the end portions of the lane markings on the road surface. and an estimating unit for estimating the current position based on the positional relationship between pieces of information indicating .

請求項8記載の記録媒体には、請求項4に記載の区画線情報作成プログラムが記録されていることを特徴とする。 A recording medium according to claim 8 is characterized in that the marking line information creating program according to claim 4 is recorded.

請求項9記載の現在位置推定プログラムは、請求項2に記載の現在位置推定方法を、コンピュータにより実行させることを特徴とする。 According to claim 9, a current position estimation program causes a computer to execute the current position estimation method according to claim 2.

請求項10記載の路面情報取得装置は、路面の情報を取得する路面情報取得装置であって、路面上の区画線を認識する形状認識部と、認識した前記区画線の両端部を認識する端部認識部と、前記両端部の間に点列を内挿する内挿部と、を備えることを特徴とする。 The road surface information acquisition device according to claim 10 is a road surface information acquisition device that acquires road surface information, and includes a shape recognition unit that recognizes a marking line on the road surface, and an end portion that recognizes both ends of the recognized marking line. and an interpolation unit for interpolating a sequence of points between the two ends.

本発明の路面情報取得方法、地図情報作成方法、現在位置推定方法を実施する運転支援システムの一実施形態を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing one embodiment of a driving support system that implements a road surface information acquisition method, a map information creation method, and a current position estimation method of the present invention; 図1に示された第1車載機の機能構成図である。2 is a functional configuration diagram of a first vehicle-mounted device shown in FIG. 1; FIG. 図1に示されたサーバ装置の機能構成図である。2 is a functional configuration diagram of the server device shown in FIG. 1; FIG. 区画線の端部が記録される前の地図情報を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining map information before the end of the lane marking is recorded; 区画線の端部が記録された後の地図情報を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining map information after the end of the lane marking is recorded; 図1に示された第2車載機の機能構成図である。2 is a functional configuration diagram of a second vehicle-mounted device shown in FIG. 1; FIG. 図1に示す第1車載機が実行する路面情報取得処理の手順を示すフローチャートである。2 is a flowchart showing a procedure of road surface information acquisition processing executed by the first vehicle-mounted device shown in FIG. 1; 端部にかすれがないときの区画線にレーザを照射したときの反射強度を示すグラフである。4 is a graph showing reflection intensity when a laser beam is applied to the division line when there is no fading at the edge. 端部にかすれがあるときの区画線にレーザを照射したときの反射強度を示すグラフである。FIG. 10 is a graph showing the reflection intensity when laser is irradiated to the division line when there is blurring at the end. FIG. 端部にかすれがないときの区画線にレーザを照射したときの反射波の強度分布を示すグラフである。4 is a graph showing the intensity distribution of reflected waves when a laser beam is applied to the division line when there is no fading at the edge. 端部にかすれがあるときの区画線にレーザを照射したときの反射波の強度分布を示すグラフである。FIG. 10 is a graph showing intensity distribution of reflected waves when a laser beam is applied to the division line when there is a faint edge. FIG. 図1に示す第2車載機が実行する運転支援処理手順を示すフローチャートである。2 is a flowchart showing a driving support processing procedure executed by a second vehicle-mounted device shown in FIG. 1; 他の実施例における区分線の端部が記録された地図情報を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining map information in which end portions of lane markings are recorded in another embodiment; 他の実施形態における第1車載機の機能構成図である。FIG. 9 is a functional configuration diagram of a first vehicle-mounted device in another embodiment;

以下、本発明の一実施形態にかかる区画線情報作成方法は、路面に形成されている区画線を示す情報に、当該区画線の端部を示す端部情報と、当該区画が連続して存在していることを示す連続情報と、の少なくとも一方を付与することを特徴とする。これにより、区
画線の端部をランドマークとして用い、現在位置の推定に利用することができるため、移動体の移動方向の位置推定精度の向上を図ることができる。
Hereinafter, in the lane marking information creation method according to an embodiment of the present invention, information indicating a lane marking formed on a road surface, edge information indicating the end of the lane marking, and the section continuously exist. and at least one of continuous information indicating that the As a result, the edge of the lane marking can be used as a landmark and can be used to estimate the current position, thereby improving the position estimation accuracy in the moving direction of the moving object.

また、本発明の一実施形態にかかる区画線情報作成方法は、路面に形成されている区画線を示す情報に、当該区画線の端部を示す端部情報と、当該区画線に含まれ前記端部でないことを示す非端部情報と、の少なくとも一方を付与することを特徴とする。これにより、区画線の端部をランドマークとして用い、現在位置の推定に利用することができるため、移動体の移動方向の位置推定精度の向上を図ることができる。 Further, in the lane marking information creation method according to an embodiment of the present invention, the information indicating the lane marking formed on the road surface includes the edge information indicating the edge of the lane marking, and the information included in the lane marking. and at least one of non-edge information indicating that it is not an edge. As a result, the edge of the lane marking can be used as a landmark and can be used to estimate the current position, thereby improving the position estimation accuracy in the moving direction of the moving object.

また、前記区画線を示す情報は、前記区画線上の緯度、経度を示す点情報を含み、前記点情報に前記端部情報及び非端部情報の少なくとも一方を付与してもよい。これにより、簡単に端部情報及び非端部情報を付与できる。 Further, the information indicating the partition line may include point information indicating latitude and longitude on the partition line, and at least one of the edge information and the non-edge information may be added to the point information. This makes it possible to easily assign edge information and non-edge information.

また、前記非端部情報として、前記区画線上の不具合がない部分であることを示す情報と、前記区画線上の不具合がある部分であることを示す情報と、を識別可能に付与してもよい。これにより、区画線上の不具合がある部分を、ランドマークに用いないようにすることができるため、より一層、移動体の移動方向の位置推定精度の向上を図ることができる。 Further, as the non-end portion information, information indicating that there is no defect on the marking line and information indicating that there is a defect on the marking line may be identifiably assigned. . As a result, it is possible to avoid using defective portions on the lane markings as landmarks, thereby further improving the position estimation accuracy in the moving direction of the moving object.

また、本発明の一実施形態にかかる区画線データ構造は、路面に形成されている区画線を示す区画線データのデータ構造であって、前記区画線データに、当該区画線の端部を示す端部情報と、当該区画が連続して存在していることを示す連続情報と、が付与可能なことを特徴とする。これにより、区画線の端部をランドマークとして用い、現在位置の推定に利用することができるため、移動体の移動方向の位置推定精度の向上を図ることができる。 A lane marking data structure according to an embodiment of the present invention is a data structure of lane marking data indicating a lane marking formed on a road surface, wherein the lane marking data indicates an end portion of the lane marking. It is characterized in that end information and continuation information indicating that the sections exist continuously can be added. As a result, the edge of the lane marking can be used as a landmark and can be used to estimate the current position, thereby improving the position estimation accuracy in the moving direction of the moving body.

また、本発明の一実施形態にかかる区画線データ構造は、路面に形成されている区画線を示す区画線データのデータ構造であって、前記区画線データに、当該区画線の端部を示す端部情報と、当該区画線に含まれ前記端部でないことを示す非端部情報と、が付与可能なことを特徴とする。これにより、区画線の端部をランドマークとして用い、現在位置の推定に利用することができるため、移動体の移動方向の位置推定精度の向上を図ることができる。 A lane marking data structure according to an embodiment of the present invention is a data structure of lane marking data indicating a lane marking formed on a road surface, wherein the lane marking data indicates an end portion of the lane marking. It is characterized in that edge information and non-edge information that is included in the marking line and indicates that it is not the edge can be added. As a result, the edge of the lane marking can be used as a landmark and can be used to estimate the current position, thereby improving the position estimation accuracy in the moving direction of the moving body.

また、本発明の一実施形態にかかる記憶装置は、路面に形成されている区画線を示す区画線情報を記憶する記憶装置であって、前記区画線情報には、当該区画線の端部を示す端部情報と、当該区画線に含まれ前記端部でないことを示す非端部情報と、が含まれることを特徴とする。これにより、区画線の端部をランドマークとして用い、現在位置の推定に利用することができるため、移動体の移動方向の位置推定精度の向上を図ることができる。 Further, a storage device according to an embodiment of the present invention is a storage device for storing lane marking information indicating lane markings formed on a road surface, wherein the lane marking information includes end portions of the lane markings. and non-end information included in the marking line and indicating that it is not the end. As a result, the edge of the lane marking can be used as a landmark and can be used to estimate the current position, thereby improving the position estimation accuracy in the moving direction of the moving object.

また、本発明の一実施形態にかかる現在位置推定方法は、区画線に関する情報に基づいて移動体の現在位置を推定する現在位置推定方法であって、外部装置から区画線の端部を示す端部情報を取得する取得工程と、前記移動体に配置されたセンサによって認識された、路面上の区画線の端部を示す情報と、前記取得された端部情報と、に基づいて前記移動体の現在位置を推定する推定工程と、を含むことを特徴とする。これにより、移動体の移動方向の位置推定精度の向上を図ることができる。 Further, a current position estimation method according to an embodiment of the present invention is a current position estimation method for estimating the current position of a mobile object based on information related to lane markings, wherein an end indicating the end of the lane marking is received from an external device. an acquisition step of acquiring section information; information indicating an end of a lane marking on a road surface recognized by a sensor arranged on the moving body; and the acquired end information. and an estimating step of estimating the current position of the . As a result, it is possible to improve the position estimation accuracy in the moving direction of the moving body.

また、本発明の一実施形態にかかる区画線情報作成装置は、路面に形成されている区画線を示す情報に、当該区画線の端部を示す端部情報と、当該区画が連続して存在していることを示す連続情報と、の少なくとも一方を付与する付与部を備えることを特徴とする。
これにより、区画線の端部をランドマークとして用い、現在位置の推定に利用することができるため、移動体の移動方向の位置推定精度の向上を図ることができる。
Further, in the lane marking information creation device according to the embodiment of the present invention, the information indicating the lane marking formed on the road surface includes the end information indicating the end of the lane marking and the section continuously present. The present invention is characterized by comprising an imparting unit that imparts at least one of continuous information indicating that the
As a result, the edge of the lane marking can be used as a landmark and can be used to estimate the current position, thereby improving the position estimation accuracy in the moving direction of the moving object.

また、上述した区画線情報作成方法をコンピュータにより実行させる区画線情報作成プログラムとしてもよい。このようにコンピュータにより実行されるプログラムであるので、専用のハードウェア等が不要となり、汎用の情報処理装置にインストールして機能させることができる。 Further, a marking line information creating program that causes a computer to execute the above-described marking line information creating method may be used. Since the program is executed by a computer in this way, dedicated hardware or the like is not required, and it can be installed and functioned in a general-purpose information processing apparatus.

また、上述した情報処理プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。 Also, the information processing program described above may be stored in a computer-readable recording medium. By doing so, the program can be distributed as a single unit in addition to being incorporated into the device, and version upgrades and the like can be easily performed.

以下、本発明の路面情報取得方法、区画線情報作成方法、現在位置推定方法を実施する運転支援システムについて図1~図6を参照して説明する。 A driving support system that implements the road surface information acquisition method, lane marking information creation method, and current position estimation method of the present invention will be described below with reference to FIGS. 1 to 6. FIG.

運転支援システム1は、路面情報取得装置としての第1車載機2と、外部装置、区画線情報作成装置としてのサーバ装置3と、第2車載機4と、を備えている。第1車載機2は、路面情報を取得して、サーバ装置3に送信する機器であり、例えば、地図情報を作成することを目的として、道路上を走行する移動体としての計測車両5に搭載されている。サーバ装置3は、第1車載機2からの路面情報を取得して、地図情報を作成する。サーバ装置3は、例えば、インターネット等のネットワークNを介して第1車載機2と通信可能になっており、当該ネットワークNを利用して、第1車載機2から路面情報を取得する。なお、サーバ装置3の路面情報の取得については、上述の形態に限定されず、例えば、ネットワークNを利用せずに、オペレータ等が手動で第1車載機2からサーバ装置3に路面情報を移動させるようにしてもよい。以降の説明では、第1車載機2及び第2車載機4と、サーバ装置3との情報の授受は、ネットワークNを介して送受信するものとして説明するが、上述の通りいずれについても本形態に限定されるものではなく、情報の授受はオペレータの手動によるものであってもよい。 The driving support system 1 includes a first vehicle-mounted device 2 as a road surface information acquisition device, an external device, a server device 3 as a lane marking information creation device, and a second vehicle-mounted device 4 . The first vehicle-mounted device 2 is a device that acquires road surface information and transmits it to the server device 3. For example, the first vehicle-mounted device 2 is mounted on a measurement vehicle 5 that is a moving object that travels on the road for the purpose of creating map information. It is The server device 3 acquires road surface information from the first vehicle-mounted device 2 and creates map information. The server device 3 can communicate with the first vehicle-mounted device 2 via a network N such as the Internet, for example, and acquires road surface information from the first vehicle-mounted device 2 using the network N. Acquisition of the road surface information of the server device 3 is not limited to the form described above. You can let it run. In the following description, it is assumed that information is exchanged between the first vehicle-mounted device 2 and the second vehicle-mounted device 4 and the server device 3 via the network N. This is not a limitation, and information may be exchanged manually by an operator.

第2車載機4は、ネットワークNを介してサーバ装置3と通信可能になっている。第2車載機4は、サーバ装置3から地図情報を受信して、運転支援を行う機器であり、例えば、運転支援を受ける移動体としての車両6に搭載されている。また、本実施例では、サーバ装置3と通信可能な端末として車両5、6に搭載された第1、第2車載機2、4を例に挙げて説明するが、スマートフォンなどの移動体に配置可能な携帯端末であってもよい。なお、第2車載機4の地図情報の受信については、上述の形態に限定されず、例えば、ネットワークNを利用せずに、オペレータ等が手動でサーバ装置3から第2車載機4に地図情報を移動させるようにしてもよい。 The second vehicle-mounted device 4 can communicate with the server device 3 via the network N. As shown in FIG. The second vehicle-mounted device 4 is a device that receives map information from the server device 3 and performs driving assistance, and is mounted on a vehicle 6 as a moving body that receives driving assistance, for example. Also, in this embodiment, the first and second vehicle-mounted devices 2 and 4 mounted on the vehicles 5 and 6 are described as examples of terminals capable of communicating with the server device 3. It may be a portable terminal capable of The reception of the map information by the second vehicle-mounted device 4 is not limited to the form described above. may be moved.

第1車載機2の機能的構成を図2に示す。第1車載機2は、制御部21と、入出力部22と、センサ部23と、を備えている。 A functional configuration of the first vehicle-mounted device 2 is shown in FIG. The first vehicle-mounted device 2 includes a control section 21 , an input/output section 22 and a sensor section 23 .

制御部21は、第1車載機2のCPU(Central Processing Unit)等のプロセッサが
機能し、第1車載機2の全体制御を司る。制御部21は、後述するLiDAR23Bを用いて、路面に形成された白線、黄線などの区画線の端部などを認識し、路面情報としてサーバ装置3に送信する。制御部21は、路面情報以外の周辺情報を取得して、サーバ装置3に送信してもよい。
A processor such as a CPU (Central Processing Unit) of the first vehicle-mounted device 2 functions as the control unit 21 , and controls the entire first vehicle-mounted device 2 . The control unit 21 uses the LiDAR 23B, which will be described later, to recognize the ends of lane markings such as white lines and yellow lines formed on the road surface, and transmits them to the server device 3 as road surface information. The control unit 21 may acquire peripheral information other than the road surface information and transmit it to the server device 3 .

入出力部22は、第1車載機2のネットワークインタフェース等が機能し、路面情報を送信する。 The input/output unit 22 functions as a network interface or the like of the first vehicle-mounted device 2 and transmits road surface information.

センサ部23は、GPS(Global Positioning System)受信機23A、送信部、受信部
としてのLiDAR23B等を含む。なお、本実施例では、センサ部23は、電磁波を送信可能なセンサの一例として、LiDAR23Bを含むものとしている。GPS受信機23Aは、計測車両5の現在位置情報を検出する。GPS受信機23Aは、公知であるように複数のGPS衛星から発振される電波を定期的に受信して、現在の位置情報及び時刻を求めて制御部21に出力する。
The sensor unit 23 includes a GPS (Global Positioning System) receiver 23A, a transmitter, a LiDAR 23B as a receiver, and the like. In addition, in the present embodiment, the sensor unit 23 includes the LiDAR 23B as an example of a sensor capable of transmitting electromagnetic waves. The GPS receiver 23A detects current position information of the measurement vehicle 5 . As is well known, the GPS receiver 23A periodically receives radio waves oscillated from a plurality of GPS satellites, obtains current position information and time, and outputs the information to the control unit 21 .

LiDAR23Bは、所定の検知領域において出力方向を変えながらパルス状のレーザを出力し、そのレーザの反射波を受信して点群情報を生成する。LiDAR23Bは、検知領域内に複数パルスのレーザを出力し、この複数パルスのレーザの反射波に基づいて点群情報を生成する。点群情報を構成するそれぞれの情報は、レーザの出力方向と、当該レーザを反射した対象物までの距離と、反射波の強度と、を示す情報である。本実施例では、LiDAR23Bは、レーザを路面に向けて照射し、路面を検知領域としている。このため、点群情報は、対象物としての路面までの距離を示す情報となる。なお、LiDAR23Bは、路面以外にレーザを出射して、路面情報以外の周辺情報を取得するようにしてもよい。 The LiDAR 23B outputs a pulsed laser while changing the output direction in a predetermined detection area, receives the reflected wave of the laser, and generates point cloud information. The LiDAR 23B outputs multiple pulses of laser within the detection area, and generates point group information based on the reflected waves of the multiple pulses of the laser. Each piece of information that constitutes the point group information is information that indicates the output direction of the laser, the distance to the object that reflected the laser, and the intensity of the reflected wave. In this embodiment, the LiDAR 23B irradiates a laser toward the road surface, and uses the road surface as the detection area. Therefore, the point group information becomes information indicating the distance to the road surface as the object. Note that the LiDAR 23B may acquire peripheral information other than the road surface information by emitting a laser to areas other than the road surface.

サーバ装置3は、地図情報を提供する事務所などに設置されている。 The server device 3 is installed in an office or the like that provides map information.

サーバ装置3の機能的構成を図3に示す。サーバ装置3は、記憶装置としての記憶部31と、制御部32と、入出力部33と、を備えている。 A functional configuration of the server device 3 is shown in FIG. The server device 3 includes a storage unit 31 as a storage device, a control unit 32 and an input/output unit 33 .

記憶部31は、サーバ装置3のハードディスク等の記憶装置が機能し、地図情報が記憶されている。本実施例では、地図情報には既に、区画線についての情報が含まれているものとする。区画線についての情報は、図4を用いて説明する。図4に示す例では、区画線を示す点情報P、…、P14から構成される。また、点情報P、…P14には、それぞれ位置情報(緯度、経度)が付与されている。 The storage unit 31 functions as a storage device such as a hard disk of the server device 3 and stores map information. In this embodiment, it is assumed that the map information already includes information about lane markings. Information about the lane markings will be described with reference to FIG. In the example shown in FIG. 4, it is composed of point information P 1 , . Position information (latitude, longitude) is assigned to each of the point information P 1 , . . . P 14 .

制御部32は、サーバ装置3のCPU等のプロセッサが機能し、サーバ装置3の全体制御を司る。制御部32は、第1車載機2から送信される区画線の端部などの路面情報に基づいて、図5に示すように、点情報P、…、P14のうち、端点であると認識されるもの(図中白丸で示す)に区画線の端部を示す端部情報の付与などを行う。このように地図情報に含まれる区画線についての情報に上述の端部情報が付与されることで、当該地図情報を受信した第2車載機4は、当該区画線についての情報から区画線の端部を認識することが可能となる。 A processor such as a CPU of the server device 3 functions as the control unit 32 and controls the entire server device 3 . Based on the road surface information such as the end of the lane marking transmitted from the first vehicle-mounted device 2, the control unit 32 determines that it is an end point among the point information P1 , ..., P14 as shown in FIG. Edge information indicating the edge of the division line is added to the recognized one (indicated by the white circle in the drawing). By adding the above-described end information to the information about the lane markings included in the map information in this way, the second vehicle-mounted device 4 that has received the map information can determine the end of the lane markings based on the information about the lane markings. It becomes possible to recognize the part.

入出力部33は、サーバ装置3のネットワークインタフェース等が機能し、第1車載機2からの路面情報を受信すると共に、第2車載機4へ地図情報を送信する。 The input/output unit 33 functions as a network interface or the like of the server device 3 , receives road surface information from the first vehicle-mounted device 2 , and transmits map information to the second vehicle-mounted device 4 .

第2車載機4の機能的構成を図6に示す。第2車載機4は、センサ部41と、制御部42と、入出力部43と、を備えている。 A functional configuration of the second vehicle-mounted device 4 is shown in FIG. The second vehicle-mounted device 4 includes a sensor section 41 , a control section 42 and an input/output section 43 .

センサ部41は、GPS受信機41A、LiDAR41B等を含む。GPS受信機41Aは上述した第1車載機2のGPS受信機23Aと、LiDAR41Bは第1車載機2のLiDAR23Bと、同様の機能を有する機器であるため、ここでは詳細な説明を省略する。 The sensor unit 41 includes a GPS receiver 41A, LiDAR 41B, and the like. Since the GPS receiver 41A and the LiDAR 41B have the same functions as the GPS receiver 23A of the first vehicle-mounted device 2 and the LiDAR 23B of the first vehicle-mounted device 2, detailed description thereof will be omitted here.

制御部42は、第2車載機4のCPU等のプロセッサが機能し、第2車載機4の全体制御を司る。制御部42は、センサ部41から得た情報や、サーバ装置3から得た地図情報
を用いて運転支援(ハンドル、アクセル、ブレーキなどの制御や運転に関する情報の提示など)を行う。なお、以下では、説明を簡単にするために、走行支援として自動運転制御を行っているとして説明する。制御部42は、自動運転制御を行うために自車両の現在位置を推定する必要がある。本実施例では、制御部42は、LiDAR41Bを用いて認識した区画線の端部を示す情報と、サーバ装置3から得た地図情報に含まれる区画線の端部情報と、に基づいて現在位置を推定している。
A processor such as a CPU of the second vehicle-mounted device 4 functions as the control unit 42 , and controls the entire second vehicle-mounted device 4 . The control unit 42 uses the information obtained from the sensor unit 41 and the map information obtained from the server device 3 to provide driving assistance (control of the steering wheel, accelerator, brake, etc., presentation of information on driving, etc.). In addition, below, in order to simplify description, it demonstrates that automatic driving|operation control is performed as driving|running|working assistance. The control unit 42 needs to estimate the current position of the host vehicle in order to perform automatic driving control. In this embodiment, the control unit 42 detects the current position based on the information indicating the end of the lane marking recognized using the LiDAR 41B and the end information of the lane marking included in the map information obtained from the server device 3. is estimated.

入出力部43は、第2車載機4のネットワークインタフェース等が機能し、地図情報を受信する。 The input/output unit 43 functions as a network interface or the like of the second vehicle-mounted device 4 and receives map information.

次に、本実施例における運転支援システム1の動作について説明する。まず、第1車載機2の制御部21(以下、単に第1車載機2)が実行する路面情報取得処理について図7を参照して以下説明する。第1車載機2が、図7に示すフローチャートをコンピュータプログラムとすることで、路面情報取得方法をコンピュータにより実行させる路面情報取得プログラムとなる。 Next, the operation of the driving support system 1 in this embodiment will be described. First, the road surface information acquisition process executed by the control unit 21 of the first vehicle-mounted device 2 (hereinafter simply referred to as the first vehicle-mounted device 2) will be described below with reference to FIG. By using the flowchart shown in FIG. 7 as a computer program, the first vehicle-mounted device 2 becomes a road surface information acquisition program that causes the computer to execute the road surface information acquisition method.

第1車載機2は、走行中に路面情報取得処理を実行する。路面情報取得処理において、第1車載機2は、LiDAR23Bを制御して、上述した走行中の路面に関する点群情報を取得する(ステップS1)。次に、第1車載機2は、点群情報を基に、区画線セグメントを抽出する。具体的には、取得した点群情報に基づいて点群のオルソ画像を生成する。そして、当該オルソ画像について画像処理を行い、例えば線分(直線)等を検出する。そして、検出した線分(直線)等のグルーピングを行い、一つの区画線の輪郭を形成する区画線セグメントを抽出する(ステップS2)。なお、図8におけるKSが区画線セグメントの一例である。次に、第1車載機2は、図8及び図9に示すように、抽出された区画線セグメントから走行中の路面に形成された区画線の端部、非端部を認識する(ステップS3)。次に、第1車載機2は、当該認識した端部及び非端部間の点列を内挿(すなわち、端部と端部の間の連続部分に点列を内挿)した後(ステップS4)、ステップS1に戻る。 The first vehicle-mounted device 2 executes the road surface information acquisition process while the vehicle is running. In the road surface information acquisition process, the first vehicle-mounted device 2 controls the LiDAR 23B to acquire the above-described point group information regarding the road surface on which the vehicle is traveling (step S1). Next, the first vehicle-mounted device 2 extracts lane marking segments based on the point group information. Specifically, an orthoimage of the point cloud is generated based on the acquired point cloud information. Then, the orthorectified image is subjected to image processing to detect, for example, line segments (straight lines). Then, the detected line segments (straight lines) and the like are grouped, and marking line segments forming the outline of one marking line are extracted (step S2). Note that KS in FIG. 8 is an example of a marking line segment. Next, as shown in FIGS. 8 and 9, the first vehicle-mounted device 2 recognizes the end and non-end portions of the lane markings formed on the road surface on which the vehicle is traveling from the extracted lane marking segments (step S3). ). Next, the first vehicle-mounted device 2 interpolates the sequence of points between the recognized end portion and the non-end portion (that is, interpolates the sequence of points in the continuous portion between the end portions) (step S4), and return to step S1.

ステップS3の詳細について、図8及び図9を用いて説明する。図8は、区画線にかすれ等の不具合がない場合を示しており、図9は、区画線にかすれ等の不具合がある場合を示している。ステップS3の一例としては、図8及び図9に示すように、区画線の長手方向に沿った複数のラインL1~L4上のそれぞれにおける、反射波の強度(以下、「反射強度」と言う)の前記長手方向に沿った方向の変化に基づいて区画線の端部、非端部を認識する方法が挙げられる。なお、非端部は、区画線上にかすれなどの不具合があり精度よく端部を検知できない箇所である。言い換えれば、非端部は、区画線の反射強度が長手方向に沿って変化しているが、当該変化が区画線の端部であるためではなく、かすれ等の不具合によるものと認識される個所である。なお、不具合は、かすれ以外に細り、汚れ、線の重なりなども考えられる。 Details of step S3 will be described with reference to FIGS. 8 and 9. FIG. FIG. 8 shows a case where there is no problem such as blurring of the lane markings, and FIG. 9 shows a case where there is a problem such as blurring of the lane markings. As an example of step S3, as shown in FIGS. 8 and 9, the intensity of the reflected wave (hereinafter referred to as "reflection intensity") on each of a plurality of lines L1 to L4 along the longitudinal direction of the partition line There is a method of recognizing the end and non-end of the marking line based on the change in the direction along the longitudinal direction of the line. The non-end portion is a portion where the end portion cannot be accurately detected due to defects such as fading on the marking line. In other words, the non-end portion is a portion where the reflection intensity of the marking line changes along the longitudinal direction, but the change is not due to the end of the marking line but to a defect such as blurring. is. In addition to faintness, thinning, staining, overlapping of lines, and the like may also be considered as defects.

区画線が形成されている路面でのレーザの反射率は高く、区画線が形成されていない路面のレーザの反射率は低い。したがって、LiDAR23Bでは、区画線が形成されている路面からは、区画線が形成されていない路面よりも高い強度で反射波が受信されることとなる。そこで、第1車載機2は、レーザの反射強度(即ち、LiDAR23Bが受信する反射波の強度)から区画線の位置を推定して、区画線上の長手方向に沿ったラインL1~L4を設定する。 The laser reflectance is high on the road surface on which the marking lines are formed, and the laser reflectance on the road surface on which the marking lines are not formed is low. Therefore, the LiDAR 23B receives a reflected wave from a road surface on which lane markings are formed with a higher intensity than a road surface on which lane markings are not formed. Therefore, the first vehicle-mounted device 2 estimates the position of the marking line from the reflected intensity of the laser (that is, the intensity of the reflected wave received by the LiDAR 23B), and sets lines L1 to L4 along the longitudinal direction on the marking line. .

また、図8に示すように、かすれなどの不具合がない区画線の端部では、区画線の長手方向に沿ったラインL1~L4上のそれぞれにおいて反射強度が急激に変化する。このため、かすれなどの不具合がない区画線の端部は、車両6に搭載されたLiDAR41Bが
区画線の端部を検出する際のばらつきが少なく、ランドマークとして用いることができる。
In addition, as shown in FIG. 8, at the end of the demarcation line where there is no defect such as blurring, the reflection intensity abruptly changes on each of the lines L1 to L4 along the longitudinal direction of the demarcation line. Therefore, the edge of the lane marking without defects such as blurring can be used as a landmark because there is little variation when the LiDAR 41B mounted on the vehicle 6 detects the edge of the lane marking.

一方、図9に示すように、かすれがある区画線の端部では、区画線の長手方向に沿ったラインL1~L4上の全て又は一部で反射強度が緩やかに変化する。このため、かすれがある区画線の端部は、車両6に搭載されたLiDAR41Bが区画線の端部を検出する際に検出位置にばらつきが生じやすく、車両6の進行方向(区画線の長手方向)の自己位置推定のランドマークとして用いるのは適切ではない。 On the other hand, as shown in FIG. 9, at the end of the faint marking line, the reflection intensity gradually changes on all or part of the lines L1 to L4 along the longitudinal direction of the marking line. For this reason, when the LiDAR 41B mounted on the vehicle 6 detects the end of the lane marking, the edge of the lane marking with a blur tends to cause variations in the detection position, and the direction of travel of the vehicle 6 (longitudinal direction of the lane marking) is likely to occur. ) as landmarks for self-localization.

そこで、本実施例では、第1車載機2は、反射強度の変化が急激なラインL1~L4上の位置を区画線の端部T1として認識し、反射強度の変化が緩やかなラインL1~L4上の位置を区画線の非端部T2として認識する。また、図9においては、かすれは左右方向に均一に生じている。しかしながら、実際のかすれは、左右方向に均一に生じないこともあり、区画線の上側だけ、下側だけ、中央だけに生じることもある。そこで、本実施例では、第1車載機2は、全てのラインL1~L4において反射強度の変化が急激であれば、その反射強度が変化する位置を区画線の端部T1として認識し、全てのラインのうち1つでも反射強度の変化が緩やかであれば、その反射強度が変化する位置を区画線の非端部T2として認識する。 Therefore, in this embodiment, the first vehicle-mounted device 2 recognizes positions on the lines L1 to L4 where the reflection intensity changes abruptly as the end T1 of the partition line, and recognizes positions on the lines L1 to L4 where the reflection intensity changes gradually. The upper position is recognized as the non-end T2 of the marking line. Further, in FIG. 9, blurring occurs uniformly in the horizontal direction. However, actual blurring may not occur uniformly in the horizontal direction, and may occur only above, below, or only in the center of the marking line. Therefore, in the present embodiment, if the reflection intensity changes abruptly on all the lines L1 to L4, the first vehicle-mounted device 2 recognizes the position where the reflection intensity changes as the end T1 of the marking line. If even one of the lines has a gradual change in reflection intensity, the position where the reflection intensity changes is recognized as the non-end portion T2 of the marking line.

具体的な処理としては、第1車載機2は、全てのラインL1~L4上の反射強度が区画線上で反射された高い状態から区画線以外の路面で反射された低い状態に変化し、かつ、全てのラインL1~L4上の変化率が第1閾値以上であれば区画線の端部T1として認識する。また、第1車載機2は、全てのラインL1~L4上の反射強度が区画線以外の路面で反射された低い状態から区画線上で反射された高い状態に変化し、かつ、全てのラインL1~L4上の変化率が第1閾値以上であれば区画線の端部T1として認識する。 As a specific process, the first vehicle-mounted device 2 changes from a high state in which the reflection intensity on all the lines L1 to L4 is reflected on the lane markings to a low state in which the reflection intensity is reflected on the road surface other than the lane markings, and , and if the rates of change on all the lines L1 to L4 are equal to or greater than the first threshold, it is recognized as the end T1 of the marking line. In addition, the first on-vehicle device 2 changes the reflection intensity on all the lines L1 to L4 from a low state where the reflection intensity is reflected on the road surface other than the lane marking to a high state where the reflection intensity is reflected on the lane marking, and all the lines L1 to L4 If the rate of change on ˜L4 is equal to or greater than the first threshold, it is recognized as the end T1 of the marking line.

また、第1車載機2は、全てのラインL1~L4上の反射強度が区画線上で反射された高い状態から区画線以外の路面で反射された低い状態に変化し、かつ、全てのラインL1~L4のうち1つでもその変化率が第1閾値未満であれば区画線の非端部T2として認識する。また、第1車載機2は、全てのラインL1~L4のうち1つでも反射強度が区画線以外の路面で反射された低い状態から区画線上で反射された高い状態に変化し、かつ、その変化率が第1閾値未満であれば区画線の非端部T2として認識する。 In addition, the first vehicle-mounted device 2 changes from a high state in which the reflection intensity on all the lines L1 to L4 is reflected on the lane markings to a low state in which the reflection intensity is reflected on the road surface other than the lane markings, and all the lines L1 to L1 ˜L4, if the rate of change is less than the first threshold, it is recognized as the non-end T2 of the marking line. In addition, the first vehicle-mounted device 2 changes the reflection intensity of even one of all the lines L1 to L4 from a low state of being reflected on the road surface other than the lane marking to a high state of being reflected on the lane marking, and If the rate of change is less than the first threshold, it is recognized as the non-end T2 of the marking line.

また、第1車載機2は、認識した端部T1又は非端部T2について、同じ区画線(破線の場合は同じ連続線)上の端部T1又は非端部T2を関連付ける。詳しくは、第1車載機2は、長手方向に沿って隣り合う2つの端部T1間、2つの非端部T2間又は端部T1-非端部T2間の反射率が高ければ、隣り合う2つの端部T1、2つの非端部T2又は隣り合う端部T1-非端部T2を同じ区画線上にあるものとして、関連付けて記憶する。 In addition, the first vehicle-mounted device 2 associates the recognized edge T1 or non-edge T2 with the edge T1 or non-edge T2 on the same demarcation line (the same continuous line in the case of broken lines). Specifically, if the reflectance between two ends T1 adjacent in the longitudinal direction, between two non-ends T2, or between the ends T1 and non-ends T2 is high, the first on-vehicle device 2 Two ends T1, two non-ends T2, or adjacent ends T1-non-ends T2 are stored in association with each other as being on the same division line.

また、ステップS3の他の一例としては、図10及び図11に示すように、区画線の長手方向に沿って走査される反射エリアA1~A4で反射された反射波の強度分布に基づいて区画線の端部を認識する方法が挙げられる。第1車載機2は、レーザの反射強度から区画線の位置を推定して、区画線上の長手方向に沿った反射エリアA1~A4を設定する。 Further, as another example of step S3, as shown in FIGS. 10 and 11, the partitioning is performed based on the intensity distribution of the reflected waves reflected by the reflection areas A1 to A4 scanned along the longitudinal direction of the partitioning line. A method of recognizing the end of a line can be mentioned. The first vehicle-mounted device 2 estimates the position of the marking line from the reflection intensity of the laser, and sets reflection areas A1 to A4 along the longitudinal direction on the marking line.

図10に示すように、かすれなどの不具合がない区画線の端部周辺の強度分布は、分散が小さい状態を保ったまま反射強度が急激に変化する。即ち、図10に示す例では、区画線上の端部に形成された反射エリアA1における強度分布は、分散が小さく反射強度が大きい。この反射エリアA1と隣接する反射エリアA2、反射エリアA2に隣接する反射エリアA3、反射エリアA3に隣接する反射エリアA4は、区画線が形成されていない路面上で反射される。このため、反射エリアA2~A3の強度分布は、分散が小さい状態を保
ったまま反射エリアA1よりも反射強度が急激に小さくなる。
As shown in FIG. 10, in the intensity distribution around the end of the marking line, where there is no problem such as blurring, the reflection intensity changes abruptly while the dispersion remains small. That is, in the example shown in FIG. 10, the intensity distribution in the reflection area A1 formed at the end of the partition line has a small dispersion and a large reflection intensity. A reflective area A2 adjacent to the reflective area A1, a reflective area A3 adjacent to the reflective area A2, and a reflective area A4 adjacent to the reflective area A3 are reflected on a road surface on which no marking line is formed. Therefore, the intensity distribution of the reflection areas A2 to A3 sharply decreases in intensity distribution as compared to the reflection area A1 while maintaining a small dispersion.

一方、図11に示すように、かすれなどの不具合がある区画線の端部周辺の強度分布は、分散が大きくなって反射強度が徐々に変化する。即ち、図11に示す例では、区画線上に形成された反射エリアA1における強度分布は、分散が小さく反射強度が大きい。この反射エリアA1に隣接する反射エリアA2、反射エリアA2に隣接する反射エリアA3は、区画線上のかすれなどの不具合が生じている部分に形成されている。このため、反射エリアA2、A3における強度分布は、分散が大きく反射強度は反射エリアA1よりも小さくなる。さらに、反射エリアA3と隣接する反射エリアA4は、区画線が形成されていない路面上で反射されるためその強度分布は分散が小さく反射強度は反射エリアA2、A3よりも小さい。 On the other hand, as shown in FIG. 11, the intensity distribution around the end of the demarcation line with a defect such as blurring has a large dispersion and the reflection intensity gradually changes. That is, in the example shown in FIG. 11, the intensity distribution in the reflection area A1 formed on the partition line has a small dispersion and a large reflection intensity. A reflective area A2 adjacent to the reflective area A1 and a reflective area A3 adjacent to the reflective area A2 are formed in a portion where a defect such as blurring occurs on the division line. Therefore, the intensity distribution in the reflection areas A2 and A3 has a large dispersion and the reflection intensity is smaller than that in the reflection area A1. Furthermore, since the reflection area A4 adjacent to the reflection area A3 is reflected on the road surface on which the division lines are not formed, its intensity distribution has a small dispersion and the reflection intensity is smaller than those of the reflection areas A2 and A3.

そこで、本実施例では、第1車載機2は、反射エリアA1~A4の強度分布の分散が小さい状態を保ったまま反射強度が変化する位置を区画線の端部T1として認識し、反射エリアA1~A4の強度分布の分散が小さい状態を保てずに反射強度が変化する位置を区画線の非端部T2として認識する。 Therefore, in this embodiment, the first vehicle-mounted device 2 recognizes the position where the reflection intensity changes while the dispersion of the intensity distribution of the reflection areas A1 to A4 is kept small as the edge T1 of the marking line, and The position where the intensity distribution of A1 to A4 cannot be kept small and the reflection intensity changes is recognized as the non-end T2 of the marking line.

具体的な処理としては、第1車載機2は、反射エリアの強度分布の分散が第2閾値未満の状態のまま反射エリアの強度が区画線上で反射された高い状態から区画線以外の路面で反射された低い状態に変化する位置を区画線の端部T1として認識する。また、第1車載機2は、反射エリアの強度分布の分散が第2閾値未満の状態のまま反射エリアの強度が区画線以外の路面で反射された低い状態から区画線で反射された高い状態に変化する位置を区画線の端部T2として認識する。 As a specific process, the first vehicle-mounted device 2 changes the intensity distribution of the reflection area from a state where the intensity distribution of the reflection area is less than the second threshold to a state where the intensity of the reflection area is reflected on the lane marking, and changes the intensity of the reflection area to a road surface other than the lane marking. The position where the reflected state changes to the low state is recognized as the end T1 of the marking line. In addition, the first vehicle-mounted device 2 shifts the intensity of the reflection area from a low state where the intensity is reflected by the road surface other than the lane marking to a high state where the intensity is reflected by the lane while the dispersion of the intensity distribution of the reflection area is less than the second threshold value. , is recognized as the end T2 of the marking line.

また、第1車載機2は、反射エリアの強度分布の分散が第2閾値以上になり反射エリアの強度が区画線上で反射された高い状態から区画線以外の路面で反射された低い状態に変化する位置を区画線の非端部T2として認識する。また、第1車載機2は、反射エリアの強度分布の分散が第2閾値以上になり反射エリアの強度が区画線以外の路面で反射された低い状態から区画線で反射された高い状態に変化する位置を区画線の非端部T2として認識する。 In the first onboard device 2, the dispersion of the intensity distribution of the reflection area becomes equal to or greater than the second threshold, and the intensity of the reflection area changes from a high state reflected on the lane marking to a low state reflected on the road surface other than the lane marking. This position is recognized as the non-end T2 of the marking line. In the first vehicle-mounted device 2, the dispersion of the intensity distribution of the reflection area becomes equal to or greater than the second threshold value, and the intensity of the reflection area changes from a low state reflected by road surfaces other than the lane markings to a high state reflected by the lane markings. This position is recognized as the non-end T2 of the marking line.

第1車載機2は、所定のタイミングで、区画線の端部T1、非端部T2の位置、認識した端部T1、T2に関連付けられた同一の区画線上にある端部T1又は非端部T2についての情報、を含む路面情報をサーバ装置3に送信する。 At a predetermined timing, the first vehicle-mounted device 2 detects the positions of the end T1 and the non-end T2 of the lane marking, the end T1 or the non-end on the same lane line associated with the recognized ends T1 and T2. Information about T2 is transmitted to the server device 3.

次に、サーバ装置3の制御部32(以下、単にサーバ装置3)が行う区画線情報作成処理について図5及び図6を参照して説明する。サーバ装置3が、区画線情報作成処理をコンピュータプログラムとすることで、区画線情報作成方法をコンピュータにより実行させる路面情報取得プログラムとなる。 Next, the lane marking information creation process performed by the control unit 32 of the server device 3 (hereinafter simply referred to as the server device 3) will be described with reference to FIGS. 5 and 6. FIG. By making the lane marking information creation process into a computer program, the server device 3 becomes a road surface information acquisition program that causes a computer to execute the lane marking information creation method.

サーバ装置3は、区画線の端部、非端部の位置を含む路面情報を受信すると、図4に示す区画線についての情報に、区画線の端部を示す端部情報と、区画線に含まれ端部でないことを示す非端部情報(不具合あり)、非端部情報(不具合なし)と、のいずれかを付与する。詳しくは、図5に示すように、サーバ装置3は、区画線についての情報として記憶された点P~P14に、受信した区画線の端部、非端部の位置に対応する点があれば、その点に端部情報、非端部情報(不具合あり)を付与する。図5に示す例では、白丸で示す点P、P、P13に端部情報が付与され、斜線で示す点Pに非端部情報(不具合あり)が付与される。なお、上述のように区画線の端部を示す端部情報と、区画線に含まれ端部でないことを示す非端部情報(不具合あり)、非端部情報(不具合なし)と、のいずれかを付与することに代えて、区画が連続して存在していることを示す連続情報を該当
する点情報に付与するようにしてもよい。すなわち、端部ではないとされる点情報(非端部情報(不具合あり)及び非端部情報(不具合なし))に連続情報を付与し、端部であるとされる点情報には連続情報を付与しないようにしてもよい。
When the server device 3 receives the road surface information including the positions of the edge and non-edge of the lane marking, the information about the lane marking shown in FIG. Either non-end portion information (defective) or non-end portion information (no defect) indicating that it is not an included end portion is added. More specifically, as shown in FIG. 5, the server device 3 stores points P 1 to P 14 stored as information about the lane markings that correspond to the positions of the received end and non-end portions of the lane marking. If there is, the edge information and non-edge information (defective) are added to the point. In the example shown in FIG. 5, edge information is assigned to points P 1 , P 8 , and P 13 indicated by white circles, and non-edge information (defective) is assigned to point P 7 indicated by hatching. As described above, any of the edge information indicating the edge of the lane marking, the non-edge information (defective) indicating that it is not an edge included in the lane marking, or the non-edge information (no defect) Continuity information indicating that the sections are continuously present may be added to the corresponding point information instead of adding the . That is, continuous information is added to point information that is not considered to be an edge (non-edge information (defective) and non-edge information (no defect)), and continuity information is added to point information that is determined to be an edge. may not be given.

また、サーバ装置3は、区画線についての情報として記憶された点P~P14に、受信した区画線の端部、非端部の位置に対応する点がなければ、区画線についての情報に区画線の端部、非端部の位置に対応する点を加え、さらにその点に端部情報、非端部情報(不具合あり)を付与する。図5に示す例では、白丸で示す端部情報が付与された点P15、P16、P18が加えられ、斜線で示す非端部情報(不具合あり)が付与された点P17が加えられる。 If there is no point corresponding to the position of the end or non-end of the received lane marking among the points P 1 to P 14 stored as the information on the lane marking, the server device 3 stores the information on the lane marking. , points corresponding to the positions of the end and non-end portions of the division line are added to the points, and end information and non-end information (defective) are added to the points. In the example shown in FIG. 5, points P 15 , P 16 , and P 18 to which end information indicated by white circles are added, and point P 17 to which non-end information (defective) indicated by diagonal lines is added. be done.

また、サーバ装置3は、同一の区画線上にある端部、非端部間の点に、非端部情報(不具合なし)を付与する。図5に示す例では、黒丸で示す点P~P、P、P11、P14に非端部情報(不具合なし)が付与される。 In addition, the server device 3 gives non-edge information (no problem) to points between the edge and non-edge on the same division line. In the example shown in FIG. 5, the points P 2 to P 6 , P 9 , P 11 , and P 14 indicated by black circles are provided with non-end information (no defect).

次に、第2車載機4が行う運転支援処理について図12のフローチャートを参照して説明する。この運転支援処理をサーバ装置3が、実行することにより現在位置推定方法を実施する。まず、第2車載機4は、LiDAR41Bから点群情報を取得する(ステップS10)。次に、第2車載機4は、点群情報から物体検知を行うと共に、LiDAR41Bからの点群情報に基づいて区画線の端部を検知する(ステップS11)。 Next, the driving assistance processing performed by the second vehicle-mounted device 4 will be described with reference to the flowchart of FIG. 12 . The server device 3 executes the current position estimation method by executing this driving support process. First, the second vehicle-mounted device 4 acquires point cloud information from the LiDAR 41B (step S10). Next, the second vehicle-mounted device 4 performs object detection from the point cloud information, and detects the end of the lane marking based on the point cloud information from the LiDAR 41B (step S11).

具体的には、第2車載機4は、点群情報に基づいて所謂オブジェクト認識処理を実行することで、物体を検知し、その種類(建物か歩行者か他車両かなど)を認識する。これにより、車両周辺に物体の種類とその物体までの距離を認識することができる。また、第2車載機4は、第1車載機2と同様の判定方法を用いて、区画線の端部を検知し、端部までの距離を認識する。 Specifically, the second vehicle-mounted device 4 detects an object and recognizes its type (building, pedestrian, other vehicle, etc.) by executing a so-called object recognition process based on the point cloud information. This makes it possible to recognize the type of object around the vehicle and the distance to the object. In addition, the second vehicle-mounted device 4 uses the same determination method as the first vehicle-mounted device 2 to detect the edge of the lane marking and recognize the distance to the edge.

次に、第2車載機4は、サーバ装置3と通信して、GPS受信機41Aからの信号により検出された現在位置周辺の地図情報を取得する(ステップS12)。その後、第2車載機4は、認識した物体や区画線の端部をランドマークとして現在位置を推定する(ステップS13)。即ち、ステップS13において、第2車載機4は、地図情報に含まれる地物の位置情報とステップS10で認識した物体の位置との位置関係に基づいて現在位置を推定する。また、地図情報に含まれる区画線についての情報とステップS11で認識した区画線の端部の位置との位置関係を比較して、現在位置を推定する。 Next, the second vehicle-mounted device 4 communicates with the server device 3 and acquires map information around the current position detected by the signal from the GPS receiver 41A (step S12). After that, the second vehicle-mounted device 4 estimates the current position using the recognized object or the end of the lane marking as a landmark (step S13). That is, in step S13, the second vehicle-mounted device 4 estimates the current position based on the positional relationship between the position information of the feature included in the map information and the position of the object recognized in step S10. Also, the current position is estimated by comparing the positional relationship between the information about the lane markings included in the map information and the positions of the end portions of the lane markings recognized in step S11.

その後、第2車載機4は、推定した現在位置に基づいて運転支援を実行して(ステップS14)、再びステップS10に戻る。 After that, the second vehicle-mounted device 4 executes driving assistance based on the estimated current position (step S14), and returns to step S10 again.

上述した実施例によれば、路面に対して送信されたレーザが当該路面により反射された反射波を受信し、反射波の強度に基づき、路面に形成された区画線の端部を認識している。これにより、精度良く区画線の端部を認識することができる。また、当該認識した区画線の端部をランドマークとして用い、現在位置の推定に利用することができるため、車両6の移動方向の位置推定精度の向上をも図ることができる。 According to the above-described embodiment, the laser transmitted to the road surface receives the reflected wave reflected by the road surface, and the end of the marking line formed on the road surface is recognized based on the intensity of the reflected wave. there is As a result, the end of the marking line can be recognized with high accuracy. In addition, since the end of the recognized lane marking can be used as a landmark to estimate the current position, it is possible to improve the accuracy of estimating the position of the vehicle 6 in the moving direction.

また、上述した実施例によれば、計測車両5に配置されたLiDAR23Bからレーザが送信されている。このように、計測車両5にLiDAR23Bを搭載することにより、容易に広範囲の区画線の端部を認識することができる。 Further, according to the above-described embodiment, the laser is transmitted from the LiDAR 23B arranged on the measurement vehicle 5. FIG. In this way, by mounting the LiDAR 23B on the measurement vehicle 5, it is possible to easily recognize the ends of lane markings in a wide range.

また、上述した実施例によれば、区画線の長手方向に沿ったラインL1~L4上における反射強度の変化に基づいて区画線の端部を認識している。これにより、区画線の端部の
認識精度の向上を図ることができる。
Further, according to the embodiment described above, the end portions of the marking lines are recognized based on changes in reflection intensity on the lines L1 to L4 along the longitudinal direction of the marking lines. As a result, it is possible to improve the recognition accuracy of the end of the marking line.

また、上述した実施例によれば、長手方向に対して垂直方向に並ぶ複数のラインL1~L4上における、反射強度の長手方向に沿った変化に基づいて区画線の端部を認識している。これにより、より一層、区画線の端部の認識精度の向上を図ることができる。 Further, according to the above-described embodiment, the end of the demarcation line is recognized based on the change along the longitudinal direction of the reflection intensity on the plurality of lines L1 to L4 arranged in the direction perpendicular to the longitudinal direction. . As a result, it is possible to further improve the recognition accuracy of the end of the marking line.

また、上述した実施例によれば、全てのラインL1~L4上で反射波の強度が長手方向に沿って変化し、かつ、その変化率が第1閾値以上となる位置を区画線の端部として認識している。これにより、かすれなどの不具合が生じて端部が精度よく認識できない箇所を区画線の端部として認識することがない。 Further, according to the above-described embodiment, the positions where the intensity of the reflected waves on all the lines L1 to L4 changes along the longitudinal direction and the rate of change is equal to or greater than the first threshold value are the ends of the demarcation lines. recognized as As a result, a portion where an end cannot be accurately recognized due to a problem such as blurring is not recognized as an end of a marking line.

また、上述した実施例によれば、全てのラインL1~L4上において反射波の強度が長手方向に沿って変化し、かつ、その変化率が第1閾値未満の位置を区画線の端部ではない非端部として認識している。これにより、かすれなどの不具合が生じて端部が精度よく認識できない箇所を区画線の非端部として認識することができる。 Further, according to the above-described embodiment, the intensity of the reflected wave changes along the longitudinal direction on all the lines L1 to L4, and the position where the rate of change is less than the first threshold value is at the end of the demarcation line. It is recognized as a non-end. As a result, it is possible to recognize, as a non-end portion of the marking line, a portion where an end portion cannot be accurately recognized due to a defect such as blurring.

また、上述した実施例によれば、区画線の長手方向に沿って走査される反射エリアA1~A4での反射波の強度分布に基づいて区画線の端部を認識している。これにより、区画線の端部の認識精度の向上を図ることができる。 Further, according to the embodiment described above, the end of the marking line is recognized based on the intensity distribution of the reflected waves in the reflection areas A1 to A4 scanned along the longitudinal direction of the marking line. As a result, it is possible to improve the recognition accuracy of the end of the marking line.

また、上述した実施例によれば、反射波の強度分布の分散が第2閾値未満の状態を保ったまま反射波の強度が変化する位置を区画線の端部として認識している。これにより、かすれなどの不具合が生じて端部が精度よく認識できない箇所を区画線の端部として認識することがない。 Further, according to the embodiment described above, the position where the intensity of the reflected wave changes while the dispersion of the intensity distribution of the reflected wave is kept below the second threshold value is recognized as the edge of the marking line. As a result, a portion where an end cannot be accurately recognized due to a problem such as blurring is not recognized as an end of a marking line.

また、上述した実施例によれば、反射波の強度分布の分散が第2閾値以上の状態となり反射波の強度が変化する位置を区画線の非端部として認識している。これにより、かすれなどの不具合が生じて端部が精度よく認識できない箇所を区画線の非端部として認識することができる。 Further, according to the embodiment described above, the position where the dispersion of the intensity distribution of the reflected wave becomes equal to or greater than the second threshold value and the intensity of the reflected wave changes is recognized as the non-end portion of the marking line. As a result, it is possible to recognize, as a non-end portion of the marking line, a portion where an end portion cannot be accurately recognized due to a defect such as blurring.

また、上述した実施例では、地図情報に含まれる区画線についての情報に、当該区画線の端部を示す端部情報と、当該区画が連続して存在していることを示す連続情報と、の少なくとも一方を付与している。これにより、区画線の端部をランドマークとして用い、現在位置の推定に利用することができるため、車両6の移動方向の位置推定精度の向上を図ることができる。 Further, in the above-described embodiment, the information about the division line included in the map information includes end information indicating the end of the division line, continuation information indicating that the division exists continuously, at least one of As a result, the ends of the lane markings can be used as landmarks for estimating the current position, so that the position estimation accuracy in the moving direction of the vehicle 6 can be improved.

また、上述した実施例では、地図情報に含まれる区画線についての情報に、当該区画線の端部を示す端部情報と、当該区画線に含まれ前記端部でないことを示す非端部情報と、を付与している。これにより、区画線の端部をランドマークとして用い、現在位置の推定に利用することができるため、車両6の移動方向の位置推定精度の向上を図ることができる。 In the above-described embodiment, the information about the lane marking included in the map information includes edge information indicating the edge of the lane marking and non-edge information indicating that the lane marking is not the edge. and are given. As a result, the ends of the lane markings can be used as landmarks for estimating the current position, so that the position estimation accuracy in the moving direction of the vehicle 6 can be improved.

また、上述した実施例では、地図情報に含まれる区画線についての情報は、区画線上の緯度、経度を示す点情報であり、点情報に端部情報及び非端部情報に付与している。これにより、簡単に端部情報及び非端部情報を付与できる。 In the above-described embodiment, the information about the division lines included in the map information is point information indicating the latitude and longitude on the division lines, and the point information is added to the edge information and the non-edge information. This makes it possible to easily assign edge information and non-edge information.

また上述した実施例では、非端部情報としては、区画線上の不具合がない部分であることを示す非端部情報(不具合なし)と、区画線上の不具合がある部分であることを示す非端部情報(不具合あり)と、を識別可能に付与している。これにより、区画線上の不具合がある部分を、ランドマークに用いないようにすることができるため、より一層、車両6
の移動方向の位置推定精度の向上を図ることができる。
In the above-described embodiment, the non-edge information includes non-edge information (no defect) indicating that there is no defect on the lane marking and non-edge information indicating that there is a defect on the lane marking. Part information (defective) and , are given so as to be identifiable. As a result, it is possible to avoid using the defective portion on the lane marking as a landmark.
It is possible to improve the accuracy of position estimation in the direction of movement.

また、上述した実施例では、第2車載機2は、外部装置であるサーバ装置3から区画線の端部を示す端部情報を取得し、車両6に配置されたLiDAR41Bによって認識された、路面上の区画線の端部を示す情報と、取得された端部情報と、に基づいて車両6の現在位置を推定している。これにより、車両6の移動方向の位置推定精度の向上を図ることができる。 Further, in the above-described embodiment, the second vehicle-mounted device 2 acquires the edge information indicating the edge of the lane marking from the server device 3, which is an external device, and the road surface recognized by the LiDAR 41B arranged in the vehicle 6. The current position of the vehicle 6 is estimated based on the information indicating the edge of the upper lane marking and the obtained edge information. As a result, it is possible to improve the position estimation accuracy of the moving direction of the vehicle 6 .

なお、上述した実施例では、サーバ装置3の記憶部31にすでに記憶された区画線についての情報を構成する点に、端部情報、非端部情報を付与していたが、これに限ったものではない。サーバ装置3は、第1車載機2から受信した路面情報に基づいて新たに区画線についての情報を作成するようにしてもよい。この場合、サーバ装置3は、例えば、区画線の端部、非端部の位置を含む路面情報を受信すると、図13に示すような区画線についての情報を作成する。 In the above-described embodiment, edge information and non-edge information are given to the points constituting the information about the lane markings already stored in the storage unit 31 of the server device 3. not a thing The server device 3 may create new information about lane markings based on the road surface information received from the first vehicle-mounted device 2 . In this case, for example, when the server device 3 receives the road surface information including the positions of the edge and non-edge of the lane marking, it creates information about the lane marking as shown in FIG.

また、サーバ装置3は、第1車載機2から受信した端部の位置を示す点P20、P27、P30、P31、P34、P37に端部情報を付与する。また、サーバ装置3は、第1車載機2から受信した非端部の位置を示す点P26、P33に非端部情報(不具合あり)を付与する。次に、サーバ装置3は、同一の区画線上にある端部、非端部に相当する点P20-P26間、点P27-P30間、点P31-点P33間、点P34-点P37間の区画線上に沿って等間隔に並べた点P21~P25、点P28~P29、点P32、点P35~P36を付与し、その点P21~P25、点P28~P29、点P32、点P35~P36に非端部情報(不具合なし)を付与する。 The server device 3 also adds edge information to the points P 20 , P 27 , P 30 , P 31 , P 34 , and P 37 indicating the positions of the edges received from the first vehicle-mounted device 2 . In addition, the server device 3 adds non-end information (defective) to the points P 26 and P 33 indicating the positions of the non-ends received from the first vehicle-mounted device 2 . Next, the server device 3 determines points P 20 -P 26 , points P 27 -P 30 , points P 31 -P 33 , point P Points P 21 to P 25 , points P 28 to P 29 , points P 32 , and points P 35 to P 36 are arranged at equal intervals along the division line between 34 and point P 37 , and the points P 21 to Non-end information (no defect) is given to P 25 , points P 28 to P 29 , point P 32 , and points P 35 to P 36 .

なお、サーバ装置3は、第1車載機2から受信した端部の位置を示す点P20、P27、P30、P31、P34、P37以外の点に、区画が連続して存在していることを示す連続情報(言い換えれば、端部ではないという情報)を付与するようにしてもよい。 In addition, the server device 3 receives from the first vehicle-mounted device 2 the points other than the points P 20 , P 27 , P 30 , P 31 , P 34 , and P 37 indicating the positions of the ends, and the partitions exist continuously at points other than the points P 20 , P 27 , P 30 , P 31 , P 34 , and P 37 . Continuity information indicating that the edge is not (in other words, information indicating that it is not the edge) may be added.

また、上述した図13に示す例では、サーバ装置3は、破線についての情報に、点P28~P29、点P32、点P35~P36を付与し、その点P28~P29、点P32、点P35~P36に非端部情報(不具合なし)を付与していたが、これに限ったものではない。 Further, in the example shown in FIG. 13 described above, the server device 3 assigns points P 28 to P 29 , point P 32 , and points P 35 to P 36 to the information about the dashed lines, and points P 28 to P 29 to the points P 28 to P 29 , point P 32 , and points P 35 to P 36 are provided with non-end information (no defect), but the present invention is not limited to this.

また、本実施例では、計測専用の計測車両6に第1車載機2を搭載し、運転支援を受ける車両6に第2車載機4を搭載していたがこれに限ったものではない。運転支援を受ける車両6に搭載された車載機4に、第1車載機2、第2車載機4双方の機能を持たせてもよい。 In the present embodiment, the first vehicle-mounted device 2 is mounted on the measurement vehicle 6 dedicated to measurement, and the second vehicle-mounted device 4 is mounted on the vehicle 6 receiving driving assistance, but the present invention is not limited to this. The vehicle-mounted device 4 mounted on the vehicle 6 receiving driving assistance may have the functions of both the first vehicle-mounted device 2 and the second vehicle-mounted device 4 .

また、上述した実施例では、端部、非端部の認識を第1車載機2が行っていたが、これに限ったものではない。第1車載機2が、点群情報だけをサーバ装置3に送信し、サーバ装置3が端部、非端部の認識を行うようにしてもよい。 Also, in the above-described embodiment, the first vehicle-mounted device 2 recognizes the end portion and the non-end portion, but the present invention is not limited to this. The first in-vehicle device 2 may transmit only the point cloud information to the server device 3, and the server device 3 may recognize the end portion and the non-end portion.

また、上述した実施例では、非端部情報として、非端部情報(不具合あり)と、非端部情報(不具合なし)と、を識別可能にしていたが、これに限ったものではない。区画線上の点のうち、端部に相当する点以外に非端部情報を付与して、不具合のある部分と不具合のない部分とを識別しなくてもよい。 In the above-described embodiment, the non-end information (defective) and the non-end information (no defect) were identifiable as the non-end information, but the present invention is not limited to this. It is not necessary to assign non-end information to points other than points corresponding to ends among the points on the division line so as to distinguish defective portions from non-defective portions.

また、上述した実施例では、かすれなどの不具合が生じている端部を非端部として認識していたが、これに限ったものではない。かすれなどの不具合が生じていても端部として認識するようにしてもよい。 Also, in the above-described embodiment, the end portion where a problem such as blurring has occurred is recognized as a non-end portion, but the present invention is not limited to this. Even if a problem such as blurring occurs, it may be recognized as an edge.

また、上述した実施例では、サーバ装置3が区画線についての情報に、端部情報、非端部情報を付与しているが、これに限ったものではない。例えば、第1車載機2から送信された路面情報を見て、地図メーカのオペレータが、手動で端部情報、非端部情報の付与を行うようにしてもよい。また、上述の実施例においては、区画線についての情報を含む地図情報は、サーバ3(記憶部31)に記憶・保持されていることとしているが、当該サーバ3と適宜通信して、第1車載機2及び第2車載機4も当該地図情報の少なくとも一部を記憶・保持可能である。また、上述した、端部情報、非端部情報を付与する処理は、計測車両側(第1車載機2)で行うこととしてもよい。すなわち、上述した区画線の端部、非端部の認識処理(図7のステップS3)や、端部情報又は非端部情報を付与する処理を含む地図情報の生成処理は、サーバ装置3で実施することとしてもよいし、計測車両側(第1車載機2)で実施することとしてもよい。 In the above-described embodiment, the server device 3 adds edge information and non-edge information to the information about the lane markings, but the present invention is not limited to this. For example, an operator of a map maker may manually add edge information and non-edge information by looking at the road surface information transmitted from the first vehicle-mounted device 2 . In the above-described embodiment, the map information including the information about the lane markings is stored and held in the server 3 (storage unit 31). The vehicle-mounted device 2 and the second vehicle-mounted device 4 can also store/hold at least part of the map information. Further, the process of adding edge information and non-edge information described above may be performed on the measurement vehicle side (first vehicle-mounted device 2). That is, the map information generation processing including the processing for recognizing the end portion and non-end portion of the division line described above (step S3 in FIG. 7) and the processing for adding end portion information or non-end portion information is performed by the server device 3. It may be implemented, or may be implemented by the measurement vehicle side (first vehicle-mounted device 2).

また、上述した実施例では、第1車載機2に搭載されるセンサ部23には一例としてLiDAR23Bが含まれるものとした。これに代えて、又は加えて、第1車載機に搭載されるセンサ部23は、図14に示すように、計測車両5が走行する路面を撮影する撮影部23Cを含むものとしてもよい。この場合、第1車載機2の制御部21は、撮影部23Cによって撮影された路面の画像を撮影部23Cから取得し、当該取得した画像の輝度情報等に基づいて、当該路面に形成された区画線の端部を認識する。撮影部23Cは、例えば、撮影対象となる物体までの距離を検出可能なステレオカメラによって構成されている。 Further, in the above-described embodiment, the sensor unit 23 mounted on the first vehicle-mounted device 2 includes the LiDAR 23B as an example. Instead of or in addition to this, the sensor section 23 mounted on the first vehicle-mounted device may include a photographing section 23C that photographs the road surface on which the measurement vehicle 5 travels, as shown in FIG. In this case, the control unit 21 of the first vehicle-mounted device 2 acquires the image of the road surface captured by the image capturing unit 23C from the image capturing unit 23C, and based on the luminance information of the acquired image, the Recognize the end of the parcel line. The photographing unit 23C is composed of, for example, a stereo camera capable of detecting the distance to an object to be photographed.

具体的には、第1車載機2(制御部21)は、図7に例示した路面情報取得処理を実行する際に、ステップS1の「点群情報を取得する」ことに代えて、又は加えて、撮影部23Cによって撮影された路面の画像を撮影部23Cから取得する。そして、ステップS3と同様に、当該取得した画像から、走行中の路面に形成された区画線の端部、非端部を認識した後(ステップS3)、ステップS1に戻る。より具体的には、第1車載機(制御部21)はステップS3において、取得した撮影画像をオルソ画像に変換し、当該オルソ画像の輝度情報等を用いて、区画線(白線)の端部、非端部を認識する。また、他の例としては、撮影部23Cを単眼カメラで構成するようにして、当該単眼カメラによって撮影された路面の画像を取得し、当該画像をLiDAR23Bから取得した点群情報と対応させることとしてもよい。この場合、LiDAR23Bから取得した点群情報上で(言い換えれば、3Dの情報のまま)、撮影画像における輝度情報等を用いて、区画線(白線)の端部、非端部を認識することができる。 Specifically, when the first vehicle-mounted device 2 (control unit 21) executes the road surface information acquisition process illustrated in FIG. Then, the image of the road surface photographed by the photographing unit 23C is obtained from the photographing unit 23C. Then, as in step S3, after recognizing the end and non-end portions of the lane markings formed on the road surface on which the vehicle is traveling (step S3), the process returns to step S1. More specifically, in step S3, the first vehicle-mounted device (control unit 21) converts the acquired photographed image into an orthoimage, and uses the luminance information and the like of the orthoimage to determine the end portion of the lane marking (white line). , to recognize non-ends. As another example, the photographing unit 23C is configured with a monocular camera, an image of the road surface photographed by the monocular camera is obtained, and the image is associated with the point cloud information obtained from the LiDAR 23B. good too. In this case, on the point cloud information acquired from the LiDAR 23B (in other words, as 3D information), using luminance information etc. in the captured image, it is possible to recognize the end and non-end of the marking line (white line). can.

ここで、撮影された画像における区画線が形成されている路面の部分は輝度が高く、区画線が形成されていない路面の部分は輝度が低い。また、図8に示した、かすれなどの不具合がない区画線の端部では、撮影画像における区画線の長手方向に沿ったラインL1~L4上のそれぞれにおいて輝度強度が急激に変化する。また図9に示した、かすれがある区画線の端部では、撮影画像における区画線の長手方向に沿ったラインL1~L4上のそれぞれで反射強度が緩やかに変化する。 Here, the brightness of the road surface where the marking lines are formed in the photographed image is high, and the brightness of the road surface where the marking lines are not formed is low. Also, at the end of the demarcation line where there is no defect such as blurring shown in FIG. 8, the luminance intensity changes abruptly on each of the lines L1 to L4 along the longitudinal direction of the demarcation line in the captured image. Also, at the end of the demarcation line with blurring shown in FIG. 9, the reflection intensity gradually changes on each of the lines L1 to L4 along the longitudinal direction of the demarcation line in the photographed image.

したがって、第1車載機2(制御部21)は、撮影画像上における区画線の長手方向に沿ったラインL1~L4を設定し、これに沿った輝度の変化を検出・認識した結果に基づき、上述した実施例と同様に、区画線(白線)の端部、非端部を認識することができる。言い換えれば、本変形例の撮影画像における区画線の「輝度情報」は、上述した実施例の区画線における「反射強度」と同等に扱うことが可能となる。なお、この場合において、図8~図11の「反射強度」とあるのは撮影画像における「輝度」と適宜読み替えが可能である。 Therefore, the first vehicle-mounted device 2 (control unit 21) sets lines L1 to L4 along the longitudinal direction of the partition lines on the captured image, and based on the result of detecting and recognizing changes in luminance along these lines, As in the above-described embodiment, the end and non-end of the demarcation line (white line) can be recognized. In other words, the "brightness information" of the marking lines in the photographed image of this modified example can be handled in the same manner as the "reflection intensity" of the marking lines in the above-described embodiment. In this case, "reflection intensity" in FIGS. 8 to 11 can be appropriately read as "luminance" in the photographed image.

また、第2車載機4に搭載されるセンサ部41には、一例としてLiDAR41Bが含
まれるものとしたが、第1車載機2と同様に、これに代えて、又は加えて第2車載機4に搭載されるセンサ部41は車両6が走行する路面を撮影する撮影部41Cを含むものとしてもよい。すなわち、上述した手法によって、第2車載機4が撮影画像から区画線の端部を認識することとし、図12に記載の運転支援処理を実行することとしてもよい。
Further, the sensor unit 41 mounted on the second vehicle-mounted device 4 includes, as an example, the LiDAR 41B, but similarly to the first vehicle-mounted device 2, instead of or in addition to this, the second vehicle-mounted device 4 The sensor unit 41 mounted on the vehicle 6 may include a photographing unit 41C that photographs the road surface on which the vehicle 6 travels. That is, the second vehicle-mounted device 4 may recognize the end of the lane marking from the captured image by the method described above, and may execute the driving support process shown in FIG. 12 .

なお、本発明は上記実施形態に限定されるものではない。即ち、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。 It should be noted that the present invention is not limited to the above embodiments. That is, various modifications can be made without departing from the gist of the present invention.

2 第1車載機(路面情報取得装置)
3 サーバ装置(外部装置、区画線情報作成装置)
5 車両(移動体)
6 計測車両(移動体)
23B LiDAR(センサ、送信部、受信部)
31 記憶部(記憶装置)
41B LiDAR(センサ)
L1~L4 ライン
A1~A4 反射エリア
2 First in-vehicle device (road surface information acquisition device)
3 Server device (external device, lane marking information creation device)
5 Vehicle (moving body)
6 Measurement vehicle (moving object)
23B LiDAR (sensor, transmitter, receiver)
31 storage unit (storage device)
41B LiDAR (sensor)
L1~L4 line A1~A4 reflection area

Claims (10)

複数の点情報により構成される区画線を示す情報の前記点情報のそれぞれに、区画線上の緯度、経度を付与するとともに、前記区画線の端部を示す端部情報と、前記区画線に含まれ前記端部でないことを示す非端部情報と、のうち少なくとも一方を付与することを特徴とする区画線情報作成方法。 Latitude and longitude on the lane marking are given to each of the point information indicating the lane marking composed of a plurality of pieces of point information, and edge information indicating the edge of the lane marking and information included in the lane marking are added. A marking line information creating method, characterized in that at least one of non-end portion information indicating that the line is not the end portion is added. 移動体の現在位置を推定する現在位置推定方法であって、
周辺地図情報に含まれる緯度、経度が付与された区画線の端部情報を複数取得する工程と、
前記移動体に配置されたセンサによって、路面上の区画線の端部を示す情報を複数取得する工程と、
取得した前記端部情報同士の位置関係と、前記路面上の区画線の端部を示す情報同士の位置関係と、に基づいて前記現在位置を推定する工程と、を含むことを特徴とする現在位置推定方法。
A current position estimation method for estimating the current position of a mobile body,
a step of obtaining a plurality of pieces of end information of division lines to which latitudes and longitudes are assigned, which are included in surrounding map information;
a step of obtaining a plurality of pieces of information indicating end portions of lane markings on the road surface using sensors arranged on the moving object;
and estimating the current position based on the positional relationship between the acquired edge information and the positional relationship between information indicating the edge of the lane marking on the road surface. Location estimation method.
複数の点情報により構成される区画線を示す情報の前記点情報のそれぞれに、区画線上の緯度、経度を付与するとともに、前記区画線の端部を示す端部情報と、前記区画線に含まれ前記端部でないことを示す非端部情報と、のうち少なくとも一方を付与する付与部を備えることを特徴とする区画線情報作成装置。 Latitude and longitude on the lane marking are given to each of the point information indicating the lane marking composed of a plurality of pieces of point information, and edge information indicating the edge of the lane marking and information included in the lane marking are added. A marking line information creating apparatus, comprising: a marking unit for adding at least one of non-end information indicating that the line is not the edge. 複数の点情報により構成される区画線を示す情報の前記点情報のそれぞれに、区画線上の緯度、経度を付与するとともに、前記区画線の端部を示す端部情報と、前記区画線に含まれ前記端部でないことを示す非端部情報と、のうち少なくとも一方を付与する付与部として、コンピュータを機能させることを特徴とする区画線情報作成プログラム。 Latitude and longitude on the lane marking are given to each of the point information indicating the lane marking composed of a plurality of pieces of point information, and edge information indicating the edge of the lane marking and information included in the lane marking are added. A marking line information creating program for causing a computer to function as an imparting unit that imparts at least one of non-end portion information indicating that it is not an edge portion. 移動体の現在位置を推定する現在位置推定装置であって、
周辺地図情報に含まれる緯度、経度が付与された区画線の端部情報を複数取得する取得部と、
前記移動体に配置され、路面上の区画線の端部を示す情報を複数取得するセンサと、
取得した前記端部情報同士の位置関係と、前記路面上の区画線の端部を示す情報同士の位置関係と、に基づいて前記現在位置を推定する推定部と、を含むことを特徴とする現在位置推定装置。
A current position estimation device for estimating the current position of a mobile object,
an acquisition unit that acquires a plurality of pieces of end information of the lane markings to which latitudes and longitudes are assigned, which are included in the peripheral map information;
a sensor that is arranged on the moving body and acquires a plurality of pieces of information indicating the end of the lane marking on the road surface;
an estimating unit for estimating the current position based on the obtained positional relationship between the edge information and the positional relationship between the information indicating the edge of the lane marking on the road surface. Current position estimator.
前記非端部情報として、前記区画線上の不具合がない部分であることを示す情報と、前記区画線上の不具合がある部分であることを示す情報と、を識別可能に付与することを特徴とする請求項1に記載の区画線情報作成方法。 As the non-end portion information, information indicating that there is no defect on the lane marking and information indicating that there is a defect on the lane marking are added in an identifiable manner. The marking line information creation method according to claim 1. 前記区画線を示す情報のうち、区画が連続して存在していることを示す連続情報を、前記非端部情報を付与することに代えて前記点情報に付与することを特徴とする請求項1に記載の区画線情報作成方法。 4. The point information, instead of adding the non-end portion information, is added to the point information in place of adding the non-end portion information. 2. The lane marking information creation method according to 1. 請求項4に記載の区画線情報作成プログラムが記録されていることを特徴とする記録媒
体。
5. A recording medium on which the lane marking information creation program according to claim 4 is recorded.
請求項2に記載の現在位置推定方法を、コンピュータにより実行させることを特徴とする現在位置推定プログラム。 A current position estimating program that causes a computer to execute the current position estimating method according to claim 2 . 路面の情報を取得する路面情報取得装置であって、
路面上の区画線を認識する形状認識部と、
認識した前記区画線の両端部を認識する端部認識部と、
前記両端部の間に点列を内挿する内挿部と、を備えることを特徴とする路面情報取得装置。
A road surface information acquisition device for acquiring road surface information,
a shape recognition unit that recognizes lane markings on the road surface;
an edge recognition unit that recognizes both ends of the recognized lane marking;
and an interpolation unit that interpolates a sequence of points between the two ends.
JP2023037169A 2018-01-31 2023-03-10 Map information creation method Pending JP2023068009A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023037169A JP2023068009A (en) 2018-01-31 2023-03-10 Map information creation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018015140A JP2019132701A (en) 2018-01-31 2018-01-31 Map information creation method
JP2023037169A JP2023068009A (en) 2018-01-31 2023-03-10 Map information creation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018015140A Division JP2019132701A (en) 2018-01-31 2018-01-31 Map information creation method

Publications (1)

Publication Number Publication Date
JP2023068009A true JP2023068009A (en) 2023-05-16

Family

ID=67547335

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018015140A Pending JP2019132701A (en) 2018-01-31 2018-01-31 Map information creation method
JP2023037169A Pending JP2023068009A (en) 2018-01-31 2023-03-10 Map information creation method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018015140A Pending JP2019132701A (en) 2018-01-31 2018-01-31 Map information creation method

Country Status (1)

Country Link
JP (2) JP2019132701A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113405558B (en) * 2020-02-29 2024-04-09 华为技术有限公司 Automatic driving map construction method and related device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4211681B2 (en) * 2004-05-20 2009-01-21 トヨタ自動車株式会社 Travel path recognition device
JP2016170708A (en) * 2015-03-13 2016-09-23 株式会社東芝 Road state determination apparatus and road state determination method
JP6432116B2 (en) * 2016-05-23 2018-12-05 本田技研工業株式会社 Vehicle position specifying device, vehicle control system, vehicle position specifying method, and vehicle position specifying program

Also Published As

Publication number Publication date
JP2019132701A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
KR102404155B1 (en) Methods and systems for generating and using localization reference data
CN107850448B (en) Method and system for generating and using positioning reference data
US11250288B2 (en) Information processing apparatus and information processing method using correlation between attributes
EP3137850B1 (en) Method and system for determining a position relative to a digital map
CN108692719B (en) Object detection device
WO2019007263A1 (en) Method and device for calibrating external parameters of vehicle-mounted sensor
CN110795984A (en) Information processing method, information processing apparatus, and program recording medium
US11204610B2 (en) Information processing apparatus, vehicle, and information processing method using correlation between attributes
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP6740470B2 (en) Measuring device, measuring method and program
JP2022068242A (en) Road surface information acquisition method
JP6989284B2 (en) Vehicle position estimation device and program
JP2023068009A (en) Map information creation method
JP2023099851A (en) Measurement device, method for measurement, and program
WO2019151109A1 (en) Road surface information acquisition method
WO2021056185A1 (en) Systems and methods for partially updating high-definition map based on sensor data matching
CN112485807B (en) Object recognition device
JP7325296B2 (en) Object recognition method and object recognition system
JP2023118759A (en) Measuring device, measuring method and program
JP2021170029A (en) Measurement device, measurement method, and program
JP2018096935A (en) Own vehicle position estimation device, program, recording medium, and own vehicle position estimation method
EP3742329A1 (en) Lane tracking in three dimensions using digital terrain model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240304