JP2019012130A - Automatic driving support system, automatic driving support method, and map data structure of data for automatic driving - Google Patents

Automatic driving support system, automatic driving support method, and map data structure of data for automatic driving Download PDF

Info

Publication number
JP2019012130A
JP2019012130A JP2017127604A JP2017127604A JP2019012130A JP 2019012130 A JP2019012130 A JP 2019012130A JP 2017127604 A JP2017127604 A JP 2017127604A JP 2017127604 A JP2017127604 A JP 2017127604A JP 2019012130 A JP2019012130 A JP 2019012130A
Authority
JP
Japan
Prior art keywords
lane
vehicle
map data
data
automatic driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017127604A
Other languages
Japanese (ja)
Other versions
JP6996882B2 (en
Inventor
道郎 竹川
Michiro Takegawa
道郎 竹川
優樹 都丸
Yuki Tomaru
優樹 都丸
中島 務
Tsutomu Nakajima
務 中島
政臣 星
Masaomi Hoshi
政臣 星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Co Ltd
Dynamic Map Platform Co Ltd
Original Assignee
Zenrin Co Ltd
Dynamic Map Platform Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Co Ltd, Dynamic Map Platform Co Ltd filed Critical Zenrin Co Ltd
Priority to JP2017127604A priority Critical patent/JP6996882B2/en
Publication of JP2019012130A publication Critical patent/JP2019012130A/en
Application granted granted Critical
Publication of JP6996882B2 publication Critical patent/JP6996882B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

To enable the provision of map data suitable for automatic driving.SOLUTION: An automatic driving support system includes: a storage device 13 for storing map data including division lines; an external sensor for detecting surround information of a vehicle; and a control unit 11 for controlling traveling of the vehicle while calculating a relative positional relation between the vehicle and a division line on the basis of the surround information detected by the external sensor and map data 130. The map data includes a lane network generated by connecting point sequences passing through the center of a traffic lane, and multiple pieces of division line data associated with the lane network. A standard deviation of a distribution of errors is within 12.5 cm for the errors of distances between positions in a horizontal cross section of arbitrary two pieces of division line data located within a fixed range from an arbitrary reference point on the lane network among the multiple pieces of division line data.SELECTED DRAWING: Figure 1

Description

本発明は、自動運転支援システム、自動運転支援方法、及び自動運転用のデータの地図データ構造等に関する。   The present invention relates to an automatic driving support system, an automatic driving support method, a map data structure of data for automatic driving, and the like.

近年、運転者の運転負荷を軽減することを目的として、車両を自動で運転するシステムが開発されている。   In recent years, a system for automatically driving a vehicle has been developed for the purpose of reducing a driver's driving load.

例えば、特許文献1には、周辺車両と通信して手動運転車両を検出し、手動運転車両が存在する場合には、手動運転車両が存在しない場合よりも、自車両の運転者に対する注意喚起の頻度が高くなるように、自動運転の態様を変更するシステムが記載されている。   For example, Patent Literature 1 detects a manually driven vehicle by communicating with surrounding vehicles, and when a manually driven vehicle is present, alerts the driver of the own vehicle more than when a manually driven vehicle does not exist. A system for changing the mode of automatic driving so as to increase the frequency is described.

特開2017−30748号公報JP 2017-30748 A

ところで、特許文献1に記載されるような自動運転のシステムでは、高精度な地図が必要になる。高精度な地図として、例えば公共測量地図を自動運転のシステムに用いることが考えられるが、公共測量地図は製作コストが高いことに加え、地物間の関連付けがされていないため、自動運転システムに適さない。   By the way, in an automatic driving system as described in Patent Document 1, a highly accurate map is required. As a highly accurate map, for example, a public survey map may be used in an automatic driving system. However, in addition to high production costs, public survey maps are not associated with features. Not suitable.

そこで、本発明は、上記事情に鑑み、自動運転に適した地図データを提供可能にすることを目的とする。   In view of the above circumstances, an object of the present invention is to provide map data suitable for automatic driving.

本発明の一実施形態による、自動運転支援システムは、区画線を含む地図データを記憶した記憶装置と、車両の周辺情報を検出する外部センサと、外部センサが検出した周辺情報と、地図データとに基づいて、車両と区画線との相対的な位置関係を算出しつつ、車両の走行を制御する制御ユニットと、を備え、地図データは、車線の中心をとおる点列を結んで生成されたレーンネットワークと、レーンネットワークに関連付けられた複数の区画線データと、を備え、複数の区画線データのうち、レーンネットワーク上の任意の基準点から一定範囲内に位置する任意の2つの区画線データの水平横断面における位置間の距離の誤差について、当該誤差の分布の標準偏差が12.5cm以内である。   According to an embodiment of the present invention, an automatic driving support system includes a storage device that stores map data including lane markings, an external sensor that detects vehicle peripheral information, peripheral information detected by the external sensor, map data, And a control unit that controls the traveling of the vehicle while calculating the relative positional relationship between the vehicle and the lane marking, and the map data is generated by connecting point sequences that pass through the center of the lane. A lane network and a plurality of lane line data associated with the lane network, and of the plurality of lane line data, any two lane line data located within a certain range from any reference point on the lane network As for the error in the distance between positions in the horizontal cross section, the standard deviation of the error distribution is within 12.5 cm.

なお、本明細書等において、「部」とは、単に物理的構成を意味するものではなく、その構成が有する機能をソフトウェアによって実現する場合も含む。また、1つの構成が有する機能が2つ以上の物理的構成により実現されても、2つ以上の構成の機能が1つの物理的構成により実現されてもよい。   Note that in this specification and the like, the “unit” does not simply mean a physical configuration, but also includes a case where the functions of the configuration are realized by software. In addition, functions of one configuration may be realized by two or more physical configurations, or functions of two or more configurations may be realized by one physical configuration.

本発明によれば、自動運転に適した地図データを提供可能にする。   According to the present invention, it is possible to provide map data suitable for automatic driving.

自動運転支援システムの構成の一例を示す構成図である。It is a block diagram which shows an example of a structure of an automatic driving assistance system. 本発明の一実施形態における地図データの構造を模式的に示す図である。It is a figure which shows typically the structure of the map data in one Embodiment of this invention. MMSの構成の一例を示す図である。It is a figure which shows an example of a structure of MMS. 本発明の一実施形態における地図データが自動運転に利用可能であることを示す模式図である。It is a schematic diagram which shows that the map data in one Embodiment of this invention can be utilized for an automatic driving | operation.

[実施形態]
以下、本発明の実施の形態の1つについて詳細に説明する。なお、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。さらに、当業者であれば、以下に述べる各要素を均等なものに置換した実施の形態を採用することが可能であり、かかる実施の形態も本発明の範囲に含まれる。また、以下においては、理解を容易にするべく、情報処理装置を利用して本発明が実現される実施の形態を例にとって説明するが、上述の如く、本発明はそれに限定されない。
[Embodiment]
Hereinafter, one embodiment of the present invention will be described in detail. The following embodiments are examples for explaining the present invention, and are not intended to limit the present invention only to the embodiments. The present invention can be variously modified without departing from the gist thereof. Furthermore, those skilled in the art can employ embodiments in which the elements described below are replaced with equivalent ones, and such embodiments are also included in the scope of the present invention. In the following, for ease of understanding, an embodiment in which the present invention is realized using an information processing apparatus will be described as an example. However, as described above, the present invention is not limited thereto.

<1.システムの概要>
図1は、本実施形態に係る自動運転支援システム1の構成の一例を示している。図1に示すように、自動運転支援システム1は、運転制御ユニット(ECU)11と、検出部12と、記憶装置13と、アクチュエータ14とが互いに接続されて構成されている。自動運転支援システム1は、例えば自動車や電車等の車両に搭載され、運転者の運転を支援する。このとき、運転制御ユニット11は、ネットワークを介して外部システムと通信し、記憶装置13に記憶された地図データ130を構成することも可能である。なお、記憶装置13は車両に搭載されない構成でもよい。この場合、運転制御ユニット11は、ネットワークを介して記憶装置13と通信を行うことで自動運転を実行する。
<1. System overview>
FIG. 1 shows an example of the configuration of an automatic driving support system 1 according to this embodiment. As shown in FIG. 1, the automatic driving support system 1 is configured by connecting an operation control unit (ECU) 11, a detection unit 12, a storage device 13, and an actuator 14 to each other. The automatic driving support system 1 is mounted on a vehicle such as an automobile or a train, and supports driving of the driver. At this time, the operation control unit 11 can also communicate with an external system via a network and configure the map data 130 stored in the storage device 13. The storage device 13 may not be mounted on the vehicle. In this case, the operation control unit 11 performs automatic operation by communicating with the storage device 13 via the network.

検出部12は、自動運転を行う際に必要な車両周辺の情報を取得する機能を有しており、例えば、車載カメラ121と、GPS測位部122と、センサ123とを含む。   The detection unit 12 has a function of acquiring information around the vehicle necessary for automatic driving, and includes, for example, an in-vehicle camera 121, a GPS positioning unit 122, and a sensor 123.

車載カメラ121は、例えば車両のフロントガラスの裏側等に設けられ、車両の前方を撮影する。車載カメラ121が撮影した画像や動画は運転制御ユニット11へと送信される。   The in-vehicle camera 121 is provided, for example, on the back side of the windshield of the vehicle and photographs the front of the vehicle. Images and moving images taken by the in-vehicle camera 121 are transmitted to the operation control unit 11.

GPS測位部122は、GPS衛星から信号を受信し、それにより自車両の位置情報(例えば緯度、経度の情報)を検出する。GPS測位部122は、検出した位置情報を運転制御ユニット11へと送信する。   The GPS positioning unit 122 receives a signal from a GPS satellite, and thereby detects position information (for example, latitude and longitude information) of the host vehicle. The GPS positioning unit 122 transmits the detected position information to the operation control unit 11.

センサ123は、車両の走行状態を検出するものであり、図には示さないが、例えば車速センサ、加速度センサ、及びヨーレートセンサ等から構成される。車速センサは、車両の速度を検出する検出器である。加速度センサは、例えば、車両の前後方向の加速度を検出する検出器である。ヨーレートセンサは、車両の重心の鉛直軸周りの回転角速度を検出する検出器である。これら車速センサ、加速度センサ、およびヨーレートセンサにより検出された情報は運転制御ユニット11へと送信される。   The sensor 123 detects the running state of the vehicle and is configured from, for example, a vehicle speed sensor, an acceleration sensor, and a yaw rate sensor, although not shown in the drawing. The vehicle speed sensor is a detector that detects the speed of the vehicle. The acceleration sensor is, for example, a detector that detects acceleration in the longitudinal direction of the vehicle. The yaw rate sensor is a detector that detects a rotational angular velocity around the vertical axis of the center of gravity of the vehicle. Information detected by the vehicle speed sensor, the acceleration sensor, and the yaw rate sensor is transmitted to the driving control unit 11.

アクチュエータ14は、車両の走行制御を行うために設けられており、図には示さないが、例えばアクセルアクチュエータ、ブレーキアクチュエータ、及び操舵アクチュエータ等から構成される。アクセルアクチュエータは、運転制御ユニット11からの制御信号に応じてスロットル開度を制御することによって車両の駆動力を制御する。ブレーキアクチュエータは、運転制御ユニット11からの制御信号に応じてブレーキペダルの踏み込み両を制御することにより、車両の車輪に対する制動力の制御を行う。操舵アクチュエータは、運転制御ユニット11からの制御信号に応じて電動パワーステアリングシステムの操舵アシストモータの駆動を制御して、車両の操舵作用の制御を行う。   The actuator 14 is provided to control the traveling of the vehicle, and is composed of, for example, an accelerator actuator, a brake actuator, and a steering actuator, although not shown in the figure. The accelerator actuator controls the driving force of the vehicle by controlling the throttle opening in accordance with a control signal from the operation control unit 11. The brake actuator controls the braking force applied to the wheels of the vehicle by controlling the depression of the brake pedal in accordance with a control signal from the operation control unit 11. The steering actuator controls the steering action of the vehicle by controlling the driving of the steering assist motor of the electric power steering system in accordance with the control signal from the operation control unit 11.

記憶装置13には本実施形態に係る地図データ130が記憶されている。地図データ130には、例えば道路の3次元の位置情報、道路の形状の情報(例えばカーブの曲率等)、交差点及び分岐点の情報、看板や信号機等の地物の3次元の位置に関する情報等が記憶されている。   The storage device 13 stores map data 130 according to the present embodiment. The map data 130 includes, for example, road three-dimensional position information, road shape information (for example, curve curvature), intersection and branch point information, information on the three-dimensional position of features such as signs and traffic lights, etc. Is remembered.

図2を参照して、本実施形態に係る地図データ130のデータ構造について、説明する。図2(A)は地物データA1(図2(A)の例では道路脇に設置された標識である。)、地物データA2(図2(A)の例では道路上の看板である。)、地物データAL、AR(図2(A)の例では区画線である。)と、レーンネットワークA3との関係を模式的に示す図である。図2(A)に示すように、地図データ130において、地物データA1、A2、区画線データAL、ARはいずれもレーンネットワークA3に関連付けられて記憶されている。   With reference to FIG. 2, the data structure of the map data 130 according to the present embodiment will be described. FIG. 2A shows feature data A1 (in the example of FIG. 2A, a sign placed beside the road), and feature data A2 (in the example of FIG. 2A, a signboard on the road). .), And the feature data AL and AR (partition lines in the example of FIG. 2A) and the lane network A3 schematically. As shown in FIG. 2A, in the map data 130, the feature data A1, A2 and the lane marking data AL, AR are all stored in association with the lane network A3.

まず、レーンネットワークA3の生成方法について説明する。レーンネットワークA3は、区画線により車線が定義された区間において生成される。レーンネットワークA3は、道路における区画線データAL、ARよって区切られた位置の中央を示す点(以下、「構成点」という。)列の緯度経度、及び高度を取得することによって生成される。構成点は、数m間隔で取得されることが好ましい。また、車線が定義される区間の始点と終点とは構成点とされることが好ましい。   First, a method for generating the lane network A3 will be described. The lane network A3 is generated in a section in which a lane is defined by a lane marking. The lane network A3 is generated by acquiring the latitude / longitude and altitude of a column (hereinafter referred to as “composition point”) indicating the center of the position delimited by the lane marking data AL and AR on the road. The constituent points are preferably acquired at intervals of several meters. In addition, it is preferable that the start point and the end point of the section in which the lane is defined are configured points.

次に、各地物データA1、A2、AL、ARと、レーンネットワークA3との対応関係について説明する。まず図2(B)を参照して区画線データAL、ARについて説明する。図2(B)に示すように、レーンネットワークA3を構成する構成点のうち、連続する2点から成る線分(図2(B)の例では点P1,P2)の中点から法線方向にある直近の区画線が、当該レーンネットワークA3と関連付けられる。他方で、看板や標識等の地物データA1、A2は、水平横断方向における直近のレーンネットワークA3に関連付けられる。なお、レーンネットワークA3に関連付けられて記憶されている地物として、路肩縁、道路標示、道路標識、信号機、トンネル境界線、交差点領域等が挙げられる。地物データがレーンネットワークA3に関連付けられて記憶されていることによって、レーンネットワークA3上を走行する車両は、地物の存在の有無や、地物の種類、位置を推測することができるため、車載カメラ121が撮影した画像と地物データとの画像マッチング処理の負荷を低減することができ、この結果、自車両の現在位置の推定処理を効率的に行うことができる。また、レーンネットワークA3上を走行する車両は、自車両の進行方向前方に、停止線や交差点, カーブ進入口等の自動運転による制御を行う上で把握が必要な地物の存在の有無や、その地物との相対的な距離を予め把握しておくことが可能となり(いわゆる、地物の先読み処理)、車載カメラ121による地物の把握を効率的に行うことができる。このように、レーンネットワークを基準とした地図データ130を用いることで、より精度の高い自動運転を行うことが可能になる。   Next, the correspondence relationship between the feature data A1, A2, AL, AR and the lane network A3 will be described. First, the lane marking data AL and AR will be described with reference to FIG. As shown in FIG. 2B, the normal direction from the midpoint of a line segment composed of two consecutive points (points P1 and P2 in the example of FIG. 2B) among the constituent points constituting the lane network A3. The latest lane marking at is associated with the lane network A3. On the other hand, the feature data A1 and A2 such as signs and signs are associated with the nearest lane network A3 in the horizontal crossing direction. Note that features stored in association with the lane network A3 include a shoulder edge, a road marking, a road sign, a traffic signal, a tunnel boundary, an intersection area, and the like. Since the feature data is stored in association with the lane network A3, the vehicle traveling on the lane network A3 can estimate the presence of the feature, the type of the feature, and the position. The load of the image matching process between the image captured by the in-vehicle camera 121 and the feature data can be reduced. As a result, the current position estimation process of the host vehicle can be efficiently performed. In addition, the vehicle traveling on the lane network A3 has presence or absence of features that need to be grasped in order to perform control by automatic operation such as stop lines, intersections, and curve entrances in front of the traveling direction of the own vehicle, The relative distance from the feature can be grasped in advance (so-called feature prefetching process), and the feature can be grasped efficiently by the in-vehicle camera 121. As described above, by using the map data 130 based on the lane network, it is possible to perform automatic driving with higher accuracy.

次に、地図データ130の精度について説明する。本実施形態に係る地図データ130の精度は、レーンネットワークA3上の任意の基準点から一定範囲(例えば道路内の前後10mの範囲)に位置する任意の2つの区画線データの水平横断面における、当該区画線データ間の距離の誤差(以下、「相対誤差」ともいう。)で定義されている。具体的には、本実施形態に係る地図データ130は、その相対誤差の分布の4σが50cm(すなわち、標準偏差σが12.5cm)程度以内の精度を有している。この精度は言い換えると、ある区画線A、B間の実際の距離に対する地図データ上の区画線データA,B間の距離の誤差(相対誤差)が、50cm以内である確率が99%以上、12.5cm以内である確率が68%以上であることを意味している。本実施形態に係る地図データ130がこのような相対誤差で規定されることによって、地図データ130を用いる自動運転支援システム1において、より精度の高い自動運転が可能になる。   Next, the accuracy of the map data 130 will be described. The accuracy of the map data 130 according to the present embodiment is the horizontal cross section of any two lane marking data located within a certain range (for example, a range of 10 m before and after the road) from any reference point on the lane network A3. It is defined by an error in the distance between the lane marking data (hereinafter also referred to as “relative error”). Specifically, the map data 130 according to the present embodiment has an accuracy that 4σ of the distribution of the relative error is within 50 cm (that is, the standard deviation σ is about 12.5 cm). In other words, the probability that the error (relative error) of the distance between the lane marking data A and B on the map data with respect to the actual distance between the lane markings A and B is 99% or more, 12 This means that the probability of being within 5 cm is 68% or more. By defining the map data 130 according to the present embodiment with such a relative error, the automatic driving support system 1 using the map data 130 can perform automatic driving with higher accuracy.

図1に戻り、自動運転支援システム1の構成の続きについて説明する。
運転制御ユニット11は、記憶装置13に記憶された地図データ130を参照して自動運転を行う。まず、運転制御ユニット11は、地図データ130上にマップマッチングを行う。このとき運転制御ユニット11は、まずGPS測位部122から送信される位置情報に基づいて自車両の現在位置の緯度及び経度(初期座標)を検出する。
Returning to FIG. 1, the continuation of the configuration of the automatic driving support system 1 will be described.
The operation control unit 11 performs automatic operation with reference to the map data 130 stored in the storage device 13. First, the operation control unit 11 performs map matching on the map data 130. At this time, the operation control unit 11 first detects the latitude and longitude (initial coordinates) of the current position of the host vehicle based on the position information transmitted from the GPS positioning unit 122.

次に、運転制御ユニット11は、センサ123が検出した情報に基づいて、自車両の進行方位などの走行状態を検出して、自車両位置の初期座標からの車両の走行軌跡(推測軌跡)を作成する。運転制御ユニット11は、初期座標と推測軌跡の情報とに基づいてマップマッチングを行う。また、運転制御ユニット11は、車載カメラ121により撮影された画像と地物データとの画像マップマッチングにより、地物データとの相対的な位置関係を算出し、自車両の現在位置の推定処理を行う。   Next, the operation control unit 11 detects the traveling state such as the traveling direction of the host vehicle based on the information detected by the sensor 123, and obtains the traveling locus (estimated locus) of the vehicle from the initial coordinates of the own vehicle position. create. The operation control unit 11 performs map matching based on the information of the initial coordinates and the estimated trajectory. Further, the operation control unit 11 calculates a relative positional relationship with the feature data by image map matching between the image captured by the in-vehicle camera 121 and the feature data, and performs an estimation process of the current position of the host vehicle. Do.

さらに運転制御ユニット11は、上述の画像マップマッチングによって得られた自車両の現在位置から所定の範囲内の地図データについて、記憶装置13から読み出しを行う。そして、運転制御ユニット11は、読み出した地図データを参照して、自車両の進行方向前方に、停止線や交差点, カーブ進入口等の自動運転による制御が必要な地物が存在するときは、測位した自車両の位置と地図データ130に格納されているその目標地物の位置との関係に基づいて、自車両からその目標地物までの距離を算出することで、どのような地物がどれくらい先に存在するかを予め把握することができる(地物の先読み処理)。運転制御ユニット11は、算出した地物までの距離を考慮に入れつつ、実際には車載カメラ121にて撮影した画像に基づいて地物を検出して、アクチュエータ14を制御して、レーンネットワークに沿って両側の区画線(いわゆる、車線)からはみ出ることなく車両が走行するように、自動運転を実行する。
なお、運転制御ユニット11は、種々の従来技術を用いて構成することができる。
Further, the operation control unit 11 reads from the storage device 13 map data within a predetermined range from the current position of the host vehicle obtained by the above-described image map matching. The operation control unit 11 refers to the read map data, and when there is a feature that needs to be controlled by automatic operation such as a stop line, an intersection, or a curve entrance in front of the traveling direction of the own vehicle, By calculating the distance from the vehicle to the target feature based on the relationship between the position of the measured vehicle and the position of the target feature stored in the map data 130, what kind of feature is It is possible to grasp in advance how far ahead (feature pre-reading process). The operation control unit 11 actually detects the feature based on the image photographed by the in-vehicle camera 121 while taking into consideration the calculated distance to the feature, and controls the actuator 14 to make the lane network. An automatic operation is executed so that the vehicle travels without protruding from the lane markings on both sides (so-called lanes).
The operation control unit 11 can be configured using various conventional techniques.

次に、本実施形態に係る地図データ130の作成方法について説明する。
本実施形態に係る地図データ130は、既存のMMS(Mobile Mapping System)を用いて測量を行うことで作成される。MMSは、図3に示す計測車両2で計測地域を走行し、走行した道路周辺の地物の三次元の座標値を計測するシステムである。計測車両2は、図3に示すように、GNSS受信機21と、IMU(Inertial Measurement Unit)22と、レーザスキャナ23と、カメラ24とを備える。これらの機器は、計測車両2の天部に設けられた天板20に取り付けられている。また、計測車両2の車輪には走行距離計25が取り付けられている。
Next, a method for creating the map data 130 according to the present embodiment will be described.
The map data 130 according to the present embodiment is created by surveying using an existing MMS (Mobile Mapping System). The MMS is a system that travels in a measurement area with the measurement vehicle 2 shown in FIG. 3 and measures three-dimensional coordinate values of features around the road that has traveled. As shown in FIG. 3, the measurement vehicle 2 includes a GNSS receiver 21, an IMU (Internal Measurement Unit) 22, a laser scanner 23, and a camera 24. These devices are attached to a top plate 20 provided at the top of the measurement vehicle 2. An odometer 25 is attached to the wheel of the measurement vehicle 2.

GNSS受信機21は、GNSS(Global Navigation Satellite Systems)の衛星から測位信号を受信するアンテナを有している。GNSS受信機21は、アンテナによって受信した測位信号に基づいて衛星との疑似距離、測位信号を搬送した搬送波の位相および三次元の座標値を算出する。   The GNSS receiver 21 has an antenna that receives a positioning signal from a satellite of GNSS (Global Navigation Satellite Systems). The GNSS receiver 21 calculates the pseudorange with the satellite, the phase of the carrier wave carrying the positioning signal, and the three-dimensional coordinate value based on the positioning signal received by the antenna.

IMU22は、3軸方向の角速度を計測するジャイロセンサと、加速度を計測する加速度センサを有している。IMU22は、これらのセンサによって自車両の姿勢データを取得する。   The IMU 22 includes a gyro sensor that measures an angular velocity in three axis directions and an acceleration sensor that measures acceleration. The IMU 22 acquires the attitude data of the own vehicle by using these sensors.

レーザスキャナ23は、計測車両2の幅方向において、放射角度を変更させながらレーザ光を放射し、放射先に位置する地物に反射したレーザ光を受光する。レーザスキャナ23は、レーザ光を放射してから受光するまでの時刻を計測し、地物との距離を算出する。   The laser scanner 23 emits laser light while changing the radiation angle in the width direction of the measurement vehicle 2, and receives the laser light reflected by the feature located at the radiation destination. The laser scanner 23 measures the time from when the laser beam is emitted until it is received, and calculates the distance from the feature.

カメラ24は、計測車両2の前方を撮像する。また、走行距離計25は、計測車両2の走行距離を計測する。   The camera 24 images the front of the measurement vehicle 2. The odometer 25 measures the mileage of the measurement vehicle 2.

従来においては、GNSS受信機21の測位データに基づいてGCP(Ground Control Points)を特定し、計測車両2において計測したデータをそのGCPを用いて位置補正を行うことで、地図データの絶対誤差の精度を向上させ、それを公共測量地図として使用していた。これに対し、自動運転システムにおいては、自車両の現在位置の推定処理にしても、地物の先読み処理にしても、地図データを車両と地物の相対的な位置関係を把握する目的で使用するため、絶対誤差の精度よりも、地図データにおける地物間の相対距離の精度が重要となる。本実施形態に係る地図データ130は、絶対誤差ではなく相対誤差が所定の値(標準偏差σが12.5cm程度以下)に収まるように作成されている。そのため、GNSS受信機21が受信した観測データに基づいて補正を行う処理を省略することができ、これによって、地図データの作成に係るコストを低減しつつ、自動運転が可能な精度を担保している。   Conventionally, the GCP (Ground Control Points) is specified based on the positioning data of the GNSS receiver 21, and the position of the data measured in the measurement vehicle 2 is corrected using the GCP. Improved accuracy and used it as a public survey map. On the other hand, in the automatic driving system, map data is used for the purpose of grasping the relative positional relationship between the vehicle and the feature, regardless of whether the current position of the host vehicle is estimated or whether the feature is prefetched. Therefore, the accuracy of the relative distance between features in the map data is more important than the accuracy of absolute error. The map data 130 according to the present embodiment is created so that the relative error, not the absolute error, falls within a predetermined value (standard deviation σ is about 12.5 cm or less). Therefore, it is possible to omit the process of performing correction based on the observation data received by the GNSS receiver 21, thereby ensuring the accuracy with which automatic driving can be performed while reducing the cost for creating map data. Yes.

次に、図4を参照して地図データの標準偏差σが12.5cm程度以下であれば両側の区画線(すなわち、車線)をはみ出すことなく車両の自動運転が可能である理由について説明する。道路法上において、道路を通行可能な車両の最高限度は、幅W1が2.5m、長さL1が12mとして規格されている。また、道路法(道路構造令)上において、高速道路の幅W2(図4(A)における実際の区画線AL、AR間の距離)の最小値は3.5mとして定められている。   Next, the reason why the vehicle can be automatically driven without protruding the lane markings on both sides (that is, lanes) when the standard deviation σ of the map data is about 12.5 cm or less will be described with reference to FIG. Under the Road Law, the maximum limit of vehicles that can pass through the road is standardized with a width W1 of 2.5 m and a length L1 of 12 m. In addition, under the Road Act (Road Structure Ordinance), the minimum value of the highway width W2 (the actual distance between the lane markings AL and AR in FIG. 4A) is set to 3.5 m.

仮に地図データ上の区画線データAL−AR間の相対誤差が+50cm(レーンネットワークA3を中心として実際より左右に25cm大きい)だった場合について想定する。この場合、地図データ上において、区画線データAL,ARの位置から所定の距離(例えば50cm)をとって内側を走行する車両は、自車両の現在位置の推定処理において誤差が生まれ、その誤差を補正しないまま運転制御ユニット11がアクチュエータ14を制御した場合、実際には片側の区画線(例えば区画線AR側)に25cm寄って走行してしまうおそれがある。しかし、車両が直線道路を走行している場合(図4(A))には、最高限度の車幅W1(2.5m)に対する道路幅W2(3.5m)は左右に50cmずつ余裕がある。したがって、仮に車両が区画線AR側に25cm寄ってしまった場合でも、実際に区画線AL,ARからはみ出すことなく走行できる。他方、車両がカーブに差し掛かっている場合(図4(B))においては、長さ方向における中心(先端から6mの地点)Mは、車両の後端部Bよりも、所定の幅xcm分だけ、カーブの内側に位置する区画線(図4(B)では区画線AR)側に寄ってしまう。この場合でも、車両の側面Nが区画線ARをはみ出すことなくカーブを走行するには、カーブの曲率半径r、と上記のxとが、以下の式(1)を満たす必要がある。   Assume that the relative error between the lane marking data AL-AR on the map data is +50 cm (25 cm larger to the left and right than the actual center of the lane network A3). In this case, on the map data, a vehicle traveling inside at a predetermined distance (for example, 50 cm) from the position of the lane marking data AL and AR generates an error in the process of estimating the current position of the own vehicle, and the error is calculated. When the operation control unit 11 controls the actuator 14 without correction, there is a possibility that the vehicle actually travels 25 cm away from the lane marking on one side (for example, the lane marking AR side). However, when the vehicle is traveling on a straight road (FIG. 4A), the road width W2 (3.5 m) with respect to the maximum vehicle width W1 (2.5 m) has a margin of 50 cm on each side. . Therefore, even if the vehicle has moved 25 cm toward the lane marking AR, the vehicle can travel without actually protruding from the lane markings AL and AR. On the other hand, when the vehicle is approaching a curve (FIG. 4B), the center in the length direction (a point 6 m from the front end) M is a predetermined width xcm from the rear end B of the vehicle. , It approaches the lane marking (the lane marking AR in FIG. 4B) located inside the curve. Even in this case, in order for the side surface N of the vehicle to travel on the curve without protruding from the lane marking AR, the curvature radius r of the curve and the above x must satisfy the following formula (1).

(数1)
6002+(r−x)2=r2・・・式(1)
(Equation 1)
600 2 + (r−x) 2 = r 2 Formula (1)

ここで、出願人が全国の高速道路のカーブの曲率について調査したところによると、高速道路のカーブの曲率半径は89m以上であった。したがって、仮にrを72mとして上記の式(1)をxについて解くと、xは約25.0cmとなる。上述のとおり、最高限度の車幅W1(2.5m)に対する道路幅W2(3.5m)は左右に50cmずつ余裕がある。したがって、余裕分の50cmから、最小曲率のカーブにおいて車両の中心Mがカーブの内側に寄ってしまう幅25.0cmを減じた値である約25cmが、カーブ走行中においても区画線をはみ出すことなく走行するためにレーンネットワークA3を中心とした片側に許容される相対誤差の最大値であることがわかる(両側に換算すると約50cmとなる)。   Here, according to the applicant's investigation of the curvature of the highway curve nationwide, the curvature radius of the highway curve was 89 m or more. Therefore, if r is 72 m and the above equation (1) is solved for x, x is about 25.0 cm. As described above, the road width W2 (3.5 m) with respect to the maximum vehicle width W1 (2.5 m) has a margin of 50 cm on each side. Therefore, about 25 cm, which is a value obtained by subtracting the width 25.0 cm at which the center M of the vehicle approaches the inside of the curve in the curve with the minimum curvature from the margin of 50 cm, does not protrude from the lane marking even during curve driving. It can be seen that this is the maximum value of the relative error allowed on one side centered on the lane network A3 for traveling (when converted to both sides, it is about 50 cm).

本実施形態に係る地図データは、相対誤差の分布の4σが50cm(すなわち、標準偏差σが12.5cm)以内という精度を有しているため、相対誤差の99%以上が上述したレーンネットワークA3を中心とした片側に許容される最大値である25cm以内に収まることになる。このため、本実施形態に係る地図データは、両側の区画線(すなわち、車線)をはみ出すことなく車両を自動的に走行させる上で十分な精度を持っていると判断できる。   The map data according to the present embodiment has an accuracy that 4σ of the relative error distribution is within 50 cm (that is, the standard deviation σ is 12.5 cm), and therefore 99% or more of the relative error is the lane network A3 described above. It will be within 25 cm which is the maximum value allowed on one side centered on. For this reason, it can be determined that the map data according to the present embodiment has sufficient accuracy to automatically drive the vehicle without protruding the lane markings (that is, lanes) on both sides.

このように本実施形態に係る地図データが、相対誤差の分布の標準偏差σが12.5cm以内である場合には、生成コストを低減しつつ、自動運転に必要な精度を担保することができる。   As described above, when the map data according to the present embodiment has the standard deviation σ of the relative error distribution within 12.5 cm, it is possible to ensure the accuracy required for the automatic operation while reducing the generation cost. .

以上説明した各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。また、各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換または組み合わせが可能であることは言うまでもなく、これらも本発明の特徴を含む限り本発明の範囲に包含される。   Each embodiment described above is for facilitating understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed / improved without departing from the spirit thereof, and the present invention includes equivalents thereof. Each embodiment is an exemplification, and it is needless to say that a partial replacement or combination of configurations shown in different embodiments is possible, and these are also included in the scope of the present invention as long as they include the features of the present invention. .

1 システム
11 運転制御ユニット
12 検出部
13 記憶装置
14 アクチュエータ
130 地図データ
1 System 11 Operation Control Unit 12 Detector 13 Storage Device 14 Actuator 130 Map Data

Claims (5)

区画線を含む地図データを記憶した記憶装置と、
車両の周辺情報を検出する外部センサと、
前記外部センサが検出した周辺情報と、前記地図データとに基づいて、前記車両と前記区画線との相対的な位置関係を算出しつつ、前記車両の走行を制御する制御ユニットと、
を備え、
前記地図データは、
車線の中心をとおる点列を結んで生成されたレーンネットワークと、
前記レーンネットワークに関連付けられた複数の区画線データと、
を備え、
前記複数の区画線データのうち、前記レーンネットワーク上の任意の基準点から一定範囲内に位置する任意の2つの区画線データの水平横断面における位置間の距離の誤差について、当該誤差の分布の標準偏差が12.5cm以内である、
自動運転支援システム。
A storage device storing map data including lane markings;
An external sensor for detecting the surrounding information of the vehicle;
A control unit for controlling the traveling of the vehicle while calculating the relative positional relationship between the vehicle and the lane marking based on the peripheral information detected by the external sensor and the map data;
With
The map data is
A lane network generated by connecting points in the center of the lane,
A plurality of lane marking data associated with the lane network;
With
Among the plurality of lane marking data, regarding the error in the distance between the positions on the horizontal cross section of any two lane marking data located within a certain range from any reference point on the lane network, the distribution of the error The standard deviation is within 12.5 cm,
Automated driving support system.
車両が備える外部センサによって、前記車両の周辺情報を検出するステップと、
記憶装置に記憶された区画線を含む地図データと、前記外部センサが検出した周辺情報とに基づいて、前記車両と前記区画線との相対的な位置関係を算出しつつ、前記車両の走行を制御するステップと、
を実行する車両の自動運転支援方法であって、
前記地図データは、
車線の中心をとおる点列を結んで生成されたレーンネットワークと、
前記レーンネットワークに関連付けられた複数の区画線データと、
を備え、
前記複数の区画線データのうち、前記レーンネットワーク上の任意の基準点から一定範囲内に位置する任意の2つの区画線データの水平横断面における位置間の距離の誤差について、当該誤差の分布の標準偏差が12.5cm以内である、
車両の自動運転支援方法。
Detecting the surrounding information of the vehicle by an external sensor provided in the vehicle;
Based on the map data including the lane line stored in the storage device and the peripheral information detected by the external sensor, the vehicle travels while calculating the relative positional relationship between the vehicle and the lane line. Controlling step;
A vehicle automatic driving support method for performing
The map data is
A lane network generated by connecting points in the center of the lane,
A plurality of lane marking data associated with the lane network;
With
Among the plurality of lane marking data, regarding the error in the distance between the positions on the horizontal cross section of any two lane marking data located within a certain range from any reference point on the lane network, the distribution of the error The standard deviation is within 12.5 cm,
An automatic driving support method for a vehicle.
記憶装置に格納され、外部センサと制御ユニットとを備える車両の自動運転に用いられる地図データのデータ構造であって、
車線の中心をとおる点列を結んで生成されたレーンネットワークと、
前記レーンレットワークに関連づけられた複数の区画線データと、
を備え、
前記複数の区画線データのうち、前記レーンネットワーク上の任意の基準点から一定範囲内に位置する任意の2つの区画線データの水平横断面における位置間の距離の誤差について、当該誤差の分布の標準偏差が12.5cm以内であり、
前記車両において、
前記外部センサが、前記車両の周辺情報を検出し、
前記制御ユニットが、前記地図データを前記記憶装置から読み出し、当該地図データ上に前記車両の位置をマッチングさせつつ、前記外部センサが検出した周辺情報に基づいて前記車両の走行を制御する、
地図データのデータ構造。
A data structure of map data stored in a storage device and used for automatic driving of a vehicle including an external sensor and a control unit,
A lane network generated by connecting points in the center of the lane,
A plurality of lane marking data associated with the lanelet work;
With
Among the plurality of lane marking data, regarding the error in the distance between the positions on the horizontal cross section of any two lane marking data located within a certain range from any reference point on the lane network, the distribution of the error The standard deviation is within 12.5 cm,
In the vehicle,
The external sensor detects surrounding information of the vehicle,
The control unit reads the map data from the storage device, and controls the traveling of the vehicle based on the peripheral information detected by the external sensor while matching the position of the vehicle on the map data.
Data structure of map data.
自動運転に用いられる地図データであって、
車線の中心をとおる点列を結んで生成されたレーンネットワークと、
前記レーンネットワークに関連付けられた複数の区画線データと、
を備え、
前記複数の区画線データのうち、前記レーンネットワーク上の任意の基準点から一定範囲内に位置する任意の2つの区画線データの水平横断面における位置間の距離の誤差について、当該誤差の分布の標準偏差が12.5cm以内である、
地図データ。
Map data used for automated driving,
A lane network generated by connecting points in the center of the lane,
A plurality of lane marking data associated with the lane network;
With
Among the plurality of lane marking data, regarding the error in the distance between the positions on the horizontal cross section of any two lane marking data located within a certain range from any reference point on the lane network, the distribution of the error The standard deviation is within 12.5 cm,
Map data.
前記一定範囲は、
前記レーンネットワークに沿った方向において前後10m以内であり前記レーンネットワークに垂直な方向において道路の幅以内である、
請求項4に記載の地図データ。
The certain range is
Within 10 m forward and backward in the direction along the lane network and within the width of the road in the direction perpendicular to the lane network,
The map data according to claim 4.
JP2017127604A 2017-06-29 2017-06-29 Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving Active JP6996882B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017127604A JP6996882B2 (en) 2017-06-29 2017-06-29 Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017127604A JP6996882B2 (en) 2017-06-29 2017-06-29 Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving

Publications (2)

Publication Number Publication Date
JP2019012130A true JP2019012130A (en) 2019-01-24
JP6996882B2 JP6996882B2 (en) 2022-01-17

Family

ID=65226876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017127604A Active JP6996882B2 (en) 2017-06-29 2017-06-29 Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving

Country Status (1)

Country Link
JP (1) JP6996882B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020189056A1 (en) * 2019-03-20 2020-09-24 株式会社デンソー Map data output device
WO2022071612A1 (en) * 2020-10-02 2022-04-07 ダイナミックマップ基盤株式会社 Information processing method, program, and information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045144A (en) * 2014-08-26 2016-04-04 アルパイン株式会社 Traveling lane detection device and driving support system
JP2017090548A (en) * 2015-11-04 2017-05-25 トヨタ自動車株式会社 Map update determination system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045144A (en) * 2014-08-26 2016-04-04 アルパイン株式会社 Traveling lane detection device and driving support system
JP2017090548A (en) * 2015-11-04 2017-05-25 トヨタ自動車株式会社 Map update determination system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
工藤貴宏+ノオト: "3次元データ、誤差は10cm以内−自動運転時代に求められる道路地図とは", GAZOO, JPN6020050310, 13 December 2016 (2016-12-13), JP, pages 1 - 7, ISSN: 0004422469 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020189056A1 (en) * 2019-03-20 2020-09-24 株式会社デンソー Map data output device
JP2020153835A (en) * 2019-03-20 2020-09-24 株式会社デンソー Map data output device
US20220003570A1 (en) * 2019-03-20 2022-01-06 Denso Corporation Map data output device
WO2022071612A1 (en) * 2020-10-02 2022-04-07 ダイナミックマップ基盤株式会社 Information processing method, program, and information processing device
JPWO2022071612A1 (en) * 2020-10-02 2022-04-07

Also Published As

Publication number Publication date
JP6996882B2 (en) 2022-01-17

Similar Documents

Publication Publication Date Title
US10310508B2 (en) Vehicle control apparatus
US11307040B2 (en) Map information provision system
US10437257B2 (en) Autonomous driving system
JP6235528B2 (en) Vehicle control device
US9550496B2 (en) Travel control apparatus
JP7074438B2 (en) Vehicle position estimation device
CN110473416B (en) Vehicle control device
CN108688660B (en) Operating range determining device
JP4370869B2 (en) Map data updating method and map data updating apparatus
US20160272203A1 (en) Vehicle control device
CN102470865B (en) For equipment and the method for supported ground parked vehicle
JP2020506388A (en) Method and apparatus for updating a digital map
JP7470555B2 (en) Traffic sign display device
JP7314874B2 (en) Autonomous driving system, Autonomous driving device, Autonomous driving method
JP2019147459A (en) Vehicle travel control system
JP6598122B2 (en) Vehicle position determination device
JP2020026165A (en) On-vehicle device, parking control method and computer program
CN115123232A (en) Driving support device, driving support method, and storage medium
JP6996882B2 (en) Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving
JP2020053950A (en) Vehicle stereo camera device
KR101544797B1 (en) Apparatus and method for estimating relative position of vehicle to vehicle
JP7031748B2 (en) Self-position estimation method and self-position estimation device
CN111273653A (en) Automatic driving device
US20240059288A1 (en) Vehicle control device, storage medium storing computer program for vehicle control, and method for controlling vehicle
CN111324113B (en) Automatic driving device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211216

R150 Certificate of patent or registration of utility model

Ref document number: 6996882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350