JP6996882B2 - Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving - Google Patents

Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving Download PDF

Info

Publication number
JP6996882B2
JP6996882B2 JP2017127604A JP2017127604A JP6996882B2 JP 6996882 B2 JP6996882 B2 JP 6996882B2 JP 2017127604 A JP2017127604 A JP 2017127604A JP 2017127604 A JP2017127604 A JP 2017127604A JP 6996882 B2 JP6996882 B2 JP 6996882B2
Authority
JP
Japan
Prior art keywords
lane
vehicle
map data
data
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017127604A
Other languages
Japanese (ja)
Other versions
JP2019012130A (en
Inventor
道郎 竹川
優樹 都丸
務 中島
政臣 星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Co Ltd
Dynamic Map Platform Co Ltd
Original Assignee
Zenrin Co Ltd
Dynamic Map Platform Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Co Ltd, Dynamic Map Platform Co Ltd filed Critical Zenrin Co Ltd
Priority to JP2017127604A priority Critical patent/JP6996882B2/en
Publication of JP2019012130A publication Critical patent/JP2019012130A/en
Application granted granted Critical
Publication of JP6996882B2 publication Critical patent/JP6996882B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、自動運転支援システム、自動運転支援方法、及び自動運転用のデータの地図データ構造等に関する。 The present invention relates to an automatic driving support system, an automatic driving support method, a map data structure of data for automatic driving, and the like.

近年、運転者の運転負荷を軽減することを目的として、車両を自動で運転するシステムが開発されている。 In recent years, a system for automatically driving a vehicle has been developed for the purpose of reducing the driving load of the driver.

例えば、特許文献1には、周辺車両と通信して手動運転車両を検出し、手動運転車両が存在する場合には、手動運転車両が存在しない場合よりも、自車両の運転者に対する注意喚起の頻度が高くなるように、自動運転の態様を変更するシステムが記載されている。 For example, in Patent Document 1, a manually driven vehicle is detected by communicating with a peripheral vehicle, and when the manually driven vehicle exists, the driver of the own vehicle is alerted more than when the manually driven vehicle does not exist. A system that changes the mode of automatic operation is described so as to increase the frequency.

特開2017-30748号公報Japanese Unexamined Patent Publication No. 2017-30748

ところで、特許文献1に記載されるような自動運転のシステムでは、高精度な地図が必要になる。高精度な地図として、例えば公共測量地図を自動運転のシステムに用いることが考えられるが、公共測量地図は製作コストが高いことに加え、地物間の関連付けがされていないため、自動運転システムに適さない。 By the way, in the automatic driving system as described in Patent Document 1, a highly accurate map is required. As a highly accurate map, for example, it is conceivable to use a public survey map for an automatic driving system, but since the public survey map has a high production cost and there is no association between features, it can be used for an automatic driving system. Not suitable.

そこで、本発明は、上記事情に鑑み、自動運転に適した地図データを提供可能にすることを目的とする。 Therefore, in view of the above circumstances, it is an object of the present invention to make it possible to provide map data suitable for automatic driving.

本発明の一実施形態による、自動運転支援システムは、区画線を含む地図データを記憶した記憶装置と、車両の周辺情報を検出する外部センサと、外部センサが検出した周辺情報と、地図データとに基づいて、車両と区画線との相対的な位置関係を算出しつつ、車両の走行を制御する制御ユニットと、を備え、地図データは、車線の中心をとおる点列を結んで生成されたレーンネットワークと、レーンネットワークに関連付けられた複数の区画線データと、を備え、複数の区画線データのうち、レーンネットワーク上の任意の基準点から一定範囲内に位置する任意の2つの区画線データの水平横断面における位置間の距離の誤差について、当該誤差の分布の標準偏差が12.5cm以内である。 The automatic driving support system according to one embodiment of the present invention includes a storage device that stores map data including lane markings, an external sensor that detects peripheral information of the vehicle, peripheral information detected by the external sensor, and map data. Based on, it is equipped with a control unit that controls the running of the vehicle while calculating the relative positional relationship between the vehicle and the lane marking, and the map data is generated by connecting a series of dots through the center of the lane. It comprises a lane network and a plurality of lane marking data associated with the lane network, and among the plurality of lane marking data, any two lane marking data located within a certain range from any reference point on the lane network. With respect to the error in the distance between positions in the horizontal cross section of, the standard deviation of the distribution of the error is within 12.5 cm.

なお、本明細書等において、「部」とは、単に物理的構成を意味するものではなく、その構成が有する機能をソフトウェアによって実現する場合も含む。また、1つの構成が有する機能が2つ以上の物理的構成により実現されても、2つ以上の構成の機能が1つの物理的構成により実現されてもよい。 In the present specification and the like, the “part” does not simply mean a physical configuration, but also includes a case where the function of the configuration is realized by software. Further, the function of one configuration may be realized by two or more physical configurations, or the function of two or more configurations may be realized by one physical configuration.

本発明によれば、自動運転に適した地図データを提供可能にする。 According to the present invention, it is possible to provide map data suitable for automatic driving.

自動運転支援システムの構成の一例を示す構成図である。It is a block diagram which shows an example of the structure of an automatic driving support system. 本発明の一実施形態における地図データの構造を模式的に示す図である。It is a figure which shows typically the structure of the map data in one Embodiment of this invention. MMSの構成の一例を示す図である。It is a figure which shows an example of the structure of MMS. 本発明の一実施形態における地図データが自動運転に利用可能であることを示す模式図である。It is a schematic diagram which shows that the map data in one Embodiment of this invention can be used for automatic driving.

[実施形態]
以下、本発明の実施の形態の1つについて詳細に説明する。なお、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。さらに、当業者であれば、以下に述べる各要素を均等なものに置換した実施の形態を採用することが可能であり、かかる実施の形態も本発明の範囲に含まれる。また、以下においては、理解を容易にするべく、情報処理装置を利用して本発明が実現される実施の形態を例にとって説明するが、上述の如く、本発明はそれに限定されない。
[Embodiment]
Hereinafter, one of the embodiments of the present invention will be described in detail. It should be noted that the following embodiments are examples for explaining the present invention, and the present invention is not limited to the embodiments thereof. Further, the present invention can be modified in various ways as long as it does not deviate from the gist thereof. Further, those skilled in the art can adopt an embodiment in which each element described below is replaced with an equal one, and such an embodiment is also included in the scope of the present invention. Further, in the following, in order to facilitate understanding, an embodiment in which the present invention is realized by using an information processing apparatus will be described as an example, but as described above, the present invention is not limited thereto.

<1.システムの概要>
図1は、本実施形態に係る自動運転支援システム1の構成の一例を示している。図1に示すように、自動運転支援システム1は、運転制御ユニット(ECU)11と、検出部12と、記憶装置13と、アクチュエータ14とが互いに接続されて構成されている。自動運転支援システム1は、例えば自動車や電車等の車両に搭載され、運転者の運転を支援する。このとき、運転制御ユニット11は、ネットワークを介して外部システムと通信し、記憶装置13に記憶された地図データ130を構成することも可能である。なお、記憶装置13は車両に搭載されない構成でもよい。この場合、運転制御ユニット11は、ネットワークを介して記憶装置13と通信を行うことで自動運転を実行する。
<1. System overview>
FIG. 1 shows an example of the configuration of the automatic driving support system 1 according to the present embodiment. As shown in FIG. 1, the automatic driving support system 1 is configured by connecting an operation control unit (ECU) 11, a detection unit 12, a storage device 13, and an actuator 14 to each other. The automatic driving support system 1 is mounted on a vehicle such as a car or a train to support the driver's driving. At this time, the operation control unit 11 can communicate with the external system via the network to configure the map data 130 stored in the storage device 13. The storage device 13 may be configured not to be mounted on the vehicle. In this case, the operation control unit 11 executes automatic operation by communicating with the storage device 13 via the network.

検出部12は、自動運転を行う際に必要な車両周辺の情報を取得する機能を有しており、例えば、車載カメラ121と、GPS測位部122と、センサ123とを含む。 The detection unit 12 has a function of acquiring information around the vehicle necessary for automatic driving, and includes, for example, an in-vehicle camera 121, a GPS positioning unit 122, and a sensor 123.

車載カメラ121は、例えば車両のフロントガラスの裏側等に設けられ、車両の前方を撮影する。車載カメラ121が撮影した画像や動画は運転制御ユニット11へと送信される。 The in-vehicle camera 121 is provided on the back side of the windshield of the vehicle, for example, and photographs the front of the vehicle. Images and moving images taken by the vehicle-mounted camera 121 are transmitted to the operation control unit 11.

GPS測位部122は、GPS衛星から信号を受信し、それにより自車両の位置情報(例えば緯度、経度の情報)を検出する。GPS測位部122は、検出した位置情報を運転制御ユニット11へと送信する。 The GPS positioning unit 122 receives a signal from a GPS satellite and thereby detects position information (for example, latitude and longitude information) of its own vehicle. The GPS positioning unit 122 transmits the detected position information to the operation control unit 11.

センサ123は、車両の走行状態を検出するものであり、図には示さないが、例えば車速センサ、加速度センサ、及びヨーレートセンサ等から構成される。車速センサは、車両の速度を検出する検出器である。加速度センサは、例えば、車両の前後方向の加速度を検出する検出器である。ヨーレートセンサは、車両の重心の鉛直軸周りの回転角速度を検出する検出器である。これら車速センサ、加速度センサ、およびヨーレートセンサにより検出された情報は運転制御ユニット11へと送信される。 The sensor 123 detects the traveling state of the vehicle and is not shown in the figure, but is composed of, for example, a vehicle speed sensor, an acceleration sensor, a yaw rate sensor, and the like. The vehicle speed sensor is a detector that detects the speed of the vehicle. The acceleration sensor is, for example, a detector that detects the acceleration of the vehicle in the front-rear direction. The yaw rate sensor is a detector that detects the rotational angular velocity around the vertical axis of the center of gravity of the vehicle. The information detected by these vehicle speed sensors, acceleration sensors, and yaw rate sensors is transmitted to the operation control unit 11.

アクチュエータ14は、車両の走行制御を行うために設けられており、図には示さないが、例えばアクセルアクチュエータ、ブレーキアクチュエータ、及び操舵アクチュエータ等から構成される。アクセルアクチュエータは、運転制御ユニット11からの制御信号に応じてスロットル開度を制御することによって車両の駆動力を制御する。ブレーキアクチュエータは、運転制御ユニット11からの制御信号に応じてブレーキペダルの踏み込み両を制御することにより、車両の車輪に対する制動力の制御を行う。操舵アクチュエータは、運転制御ユニット11からの制御信号に応じて電動パワーステアリングシステムの操舵アシストモータの駆動を制御して、車両の操舵作用の制御を行う。 The actuator 14 is provided for controlling the traveling of the vehicle, and is not shown in the figure, but is composed of, for example, an accelerator actuator, a brake actuator, a steering actuator, and the like. The accelerator actuator controls the driving force of the vehicle by controlling the throttle opening degree according to the control signal from the driving control unit 11. The brake actuator controls the braking force on the wheels of the vehicle by controlling both depressions of the brake pedal in response to a control signal from the operation control unit 11. The steering actuator controls the driving of the steering assist motor of the electric power steering system in response to the control signal from the operation control unit 11 to control the steering action of the vehicle.

記憶装置13には本実施形態に係る地図データ130が記憶されている。地図データ130には、例えば道路の3次元の位置情報、道路の形状の情報(例えばカーブの曲率等)、交差点及び分岐点の情報、看板や信号機等の地物の3次元の位置に関する情報等が記憶されている。 The map data 130 according to the present embodiment is stored in the storage device 13. The map data 130 includes, for example, three-dimensional position information of a road, information on the shape of a road (for example, curvature of a curve), information on intersections and branch points, information on three-dimensional positions of features such as signs and traffic lights, and the like. Is remembered.

図2を参照して、本実施形態に係る地図データ130のデータ構造について、説明する。図2(A)は地物データA1(図2(A)の例では道路脇に設置された標識である。)、地物データA2(図2(A)の例では道路上の看板である。)、地物データAL、AR(図2(A)の例では区画線である。)と、レーンネットワークA3との関係を模式的に示す図である。図2(A)に示すように、地図データ130において、地物データA1、A2、区画線データAL、ARはいずれもレーンネットワークA3に関連付けられて記憶されている。 The data structure of the map data 130 according to the present embodiment will be described with reference to FIG. FIG. 2A is a feature data A1 (in the example of FIG. 2A, it is a sign installed on the side of the road), and FIG. 2A is a feature data A2 (in the example of FIG. 2A, it is a signboard on the road). It is a diagram schematically showing the relationship between the feature data AL and AR (which is a lane marking in the example of FIG. 2A) and the lane network A3. As shown in FIG. 2A, in the map data 130, the feature data A1 and A2, the lane marking data AL, and AR are all stored in association with the lane network A3.

まず、レーンネットワークA3の生成方法について説明する。レーンネットワークA3は、区画線により車線が定義された区間において生成される。レーンネットワークA3は、道路における区画線データAL、ARよって区切られた位置の中央を示す点(以下、「構成点」という。)列の緯度経度、及び高度を取得することによって生成される。構成点は、数m間隔で取得されることが好ましい。また、車線が定義される区間の始点と終点とは構成点とされることが好ましい。 First, a method of generating the lane network A3 will be described. The lane network A3 is generated in the section where the lane is defined by the lane marking. The lane network A3 is generated by acquiring the latitude / longitude and altitude of a row of points (hereinafter referred to as “constituent points”) indicating the center of positions separated by lane marking data AL and AR on the road. It is preferable that the constituent points are acquired at intervals of several meters. Further, it is preferable that the start point and the end point of the section in which the lane is defined are constituent points.

次に、各地物データA1、A2、AL、ARと、レーンネットワークA3との対応関係について説明する。まず図2(B)を参照して区画線データAL、ARについて説明する。図2(B)に示すように、レーンネットワークA3を構成する構成点のうち、連続する2点から成る線分(図2(B)の例では点P1,P2)の中点から法線方向にある直近の区画線が、当該レーンネットワークA3と関連付けられる。他方で、看板や標識等の地物データA1、A2は、水平横断方向における直近のレーンネットワークA3に関連付けられる。なお、レーンネットワークA3に関連付けられて記憶されている地物として、路肩縁、道路標示、道路標識、信号機、トンネル境界線、交差点領域等が挙げられる。地物データがレーンネットワークA3に関連付けられて記憶されていることによって、レーンネットワークA3上を走行する車両は、地物の存在の有無や、地物の種類、位置を推測することができるため、車載カメラ121が撮影した画像と地物データとの画像マッチング処理の負荷を低減することができ、この結果、自車両の現在位置の推定処理を効率的に行うことができる。また、レーンネットワークA3上を走行する車両は、自車両の進行方向前方に、停止線や交差点, カーブ進入口等の自動運転による制御を行う上で把握が必要な地物の存在の有無や、その地物との相対的な距離を予め把握しておくことが可能となり(いわゆる、地物の先読み処理)、車載カメラ121による地物の把握を効率的に行うことができる。このように、レーンネットワークを基準とした地図データ130を用いることで、より精度の高い自動運転を行うことが可能になる。 Next, the correspondence between the local product data A1, A2, AL, AR and the lane network A3 will be described. First, the lane marking data AL and AR will be described with reference to FIG. 2 (B). As shown in FIG. 2B, among the constituent points constituting the lane network A3, a line segment consisting of two consecutive points (points P1 and P2 in the example of FIG. 2B) from the midpoint to the normal direction. The most recent lane marking at is associated with the lane network A3. On the other hand, feature data A1 and A2 such as signboards and signs are associated with the nearest lane network A3 in the horizontal crossing direction. Examples of features associated with the lane network A3 and stored include road shoulder edges, road markings, road signs, traffic lights, tunnel boundaries, intersection areas, and the like. Since the feature data is stored in association with the lane network A3, the vehicle traveling on the lane network A3 can infer the presence or absence of the feature, the type and position of the feature. It is possible to reduce the load of the image matching process between the image taken by the in-vehicle camera 121 and the feature data, and as a result, the process of estimating the current position of the own vehicle can be efficiently performed. In addition, the vehicle traveling on the lane network A3 has the presence or absence of features that need to be grasped in order to control by automatic driving such as stop lines, intersections, and curve entrances in front of the vehicle in the traveling direction. It is possible to grasp the relative distance to the feature in advance (so-called look-ahead processing of the feature), and it is possible to efficiently grasp the feature by the in-vehicle camera 121. In this way, by using the map data 130 based on the lane network, it becomes possible to perform more accurate automatic driving.

次に、地図データ130の精度について説明する。本実施形態に係る地図データ130の精度は、レーンネットワークA3上の任意の基準点から一定範囲(例えば道路内の前後10mの範囲)に位置する任意の2つの区画線データの水平横断面における、当該区画線データ間の距離の誤差(以下、「相対誤差」ともいう。)で定義されている。具体的には、本実施形態に係る地図データ130は、その相対誤差の分布の4σが50cm(すなわち、標準偏差σが12.5cm)程度以内の精度を有している。この精度は言い換えると、ある区画線A、B間の実際の距離に対する地図データ上の区画線データA,B間の距離の誤差(相対誤差)が、50cm以内である確率が99%以上、12.5cm以内である確率が68%以上であることを意味している。本実施形態に係る地図データ130がこのような相対誤差で規定されることによって、地図データ130を用いる自動運転支援システム1において、より精度の高い自動運転が可能になる。 Next, the accuracy of the map data 130 will be described. The accuracy of the map data 130 according to the present embodiment is in the horizontal cross section of any two lane marking data located within a certain range (for example, a range of 10 m before and after in the road) from an arbitrary reference point on the lane network A3. It is defined by the error of the distance between the lane marking data (hereinafter, also referred to as "relative error"). Specifically, the map data 130 according to the present embodiment has an accuracy of 4σ of the relative error distribution within about 50 cm (that is, the standard deviation σ is 12.5 cm). In other words, the probability that the error (relative error) of the distance between the lane marking data A and B on the map data with respect to the actual distance between the lane markings A and B is within 50 cm is 99% or more, 12 It means that the probability of being within .5 cm is 68% or more. By defining the map data 130 according to the present embodiment with such a relative error, more accurate automatic driving becomes possible in the automatic driving support system 1 using the map data 130.

図1に戻り、自動運転支援システム1の構成の続きについて説明する。
運転制御ユニット11は、記憶装置13に記憶された地図データ130を参照して自動運転を行う。まず、運転制御ユニット11は、地図データ130上にマップマッチングを行う。このとき運転制御ユニット11は、まずGPS測位部122から送信される位置情報に基づいて自車両の現在位置の緯度及び経度(初期座標)を検出する。
Returning to FIG. 1, the continuation of the configuration of the automatic driving support system 1 will be described.
The operation control unit 11 performs automatic operation with reference to the map data 130 stored in the storage device 13. First, the operation control unit 11 performs map matching on the map data 130. At this time, the driving control unit 11 first detects the latitude and longitude (initial coordinates) of the current position of the own vehicle based on the position information transmitted from the GPS positioning unit 122.

次に、運転制御ユニット11は、センサ123が検出した情報に基づいて、自車両の進行方位などの走行状態を検出して、自車両位置の初期座標からの車両の走行軌跡(推測軌跡)を作成する。運転制御ユニット11は、初期座標と推測軌跡の情報とに基づいてマップマッチングを行う。また、運転制御ユニット11は、車載カメラ121により撮影された画像と地物データとの画像マップマッチングにより、地物データとの相対的な位置関係を算出し、自車両の現在位置の推定処理を行う。 Next, the driving control unit 11 detects the traveling state such as the traveling direction of the own vehicle based on the information detected by the sensor 123, and obtains the traveling locus (estimated locus) of the vehicle from the initial coordinates of the own vehicle position. create. The operation control unit 11 performs map matching based on the initial coordinates and the information of the estimated locus. Further, the operation control unit 11 calculates the relative positional relationship with the feature data by image map matching between the image taken by the in-vehicle camera 121 and the feature data, and estimates the current position of the own vehicle. conduct.

さらに運転制御ユニット11は、上述の画像マップマッチングによって得られた自車両の現在位置から所定の範囲内の地図データについて、記憶装置13から読み出しを行う。そして、運転制御ユニット11は、読み出した地図データを参照して、自車両の進行方向前方に、停止線や交差点, カーブ進入口等の自動運転による制御が必要な地物が存在するときは、測位した自車両の位置と地図データ130に格納されているその目標地物の位置との関係に基づいて、自車両からその目標地物までの距離を算出することで、どのような地物がどれくらい先に存在するかを予め把握することができる(地物の先読み処理)。運転制御ユニット11は、算出した地物までの距離を考慮に入れつつ、実際には車載カメラ121にて撮影した画像に基づいて地物を検出して、アクチュエータ14を制御して、レーンネットワークに沿って両側の区画線(いわゆる、車線)からはみ出ることなく車両が走行するように、自動運転を実行する。
なお、運転制御ユニット11は、種々の従来技術を用いて構成することができる。
Further, the operation control unit 11 reads out the map data within a predetermined range from the current position of the own vehicle obtained by the above-mentioned image map matching from the storage device 13. Then, the operation control unit 11 refers to the read map data, and when there is a feature such as a stop line, an intersection, a curve entrance, etc. that needs to be controlled by automatic operation in front of the traveling direction of the own vehicle, the operation control unit 11 refers to the read-out map data. By calculating the distance from the own vehicle to the target feature based on the relationship between the positioned position of the own vehicle and the position of the target feature stored in the map data 130, what kind of feature can be obtained. It is possible to know in advance how far ahead it will exist (look-ahead processing of features). The operation control unit 11 actually detects the feature based on the image taken by the in-vehicle camera 121, controls the actuator 14, and sets the lane network in consideration of the calculated distance to the feature. Autonomous driving is executed so that the vehicle runs without protruding from the lane markings (so-called lanes) on both sides along the line.
The operation control unit 11 can be configured by using various conventional techniques.

次に、本実施形態に係る地図データ130の作成方法について説明する。
本実施形態に係る地図データ130は、既存のMMS(Mobile Mapping System)を用いて測量を行うことで作成される。MMSは、図3に示す計測車両2で計測地域を走行し、走行した道路周辺の地物の三次元の座標値を計測するシステムである。計測車両2は、図3に示すように、GNSS受信機21と、IMU(Inertial Measurement Unit)22と、レーザスキャナ23と、カメラ24とを備える。これらの機器は、計測車両2の天部に設けられた天板20に取り付けられている。また、計測車両2の車輪には走行距離計25が取り付けられている。
Next, a method of creating the map data 130 according to the present embodiment will be described.
The map data 130 according to the present embodiment is created by performing a survey using an existing MMS (Mobile Mapping System). The MMS is a system that travels in the measurement area with the measurement vehicle 2 shown in FIG. 3 and measures the three-dimensional coordinate values of the features around the traveled road. As shown in FIG. 3, the measurement vehicle 2 includes a GNSS receiver 21, an IMU (Inertial Measurement Unit) 22, a laser scanner 23, and a camera 24. These devices are attached to a top plate 20 provided on the top of the measuring vehicle 2. Further, an odometer 25 is attached to the wheel of the measuring vehicle 2.

GNSS受信機21は、GNSS(Global Navigation Satellite Systems)の衛星から測位信号を受信するアンテナを有している。GNSS受信機21は、アンテナによって受信した測位信号に基づいて衛星との疑似距離、測位信号を搬送した搬送波の位相および三次元の座標値を算出する。 The GNSS receiver 21 has an antenna that receives a positioning signal from a GNSS (Global Navigation Satellite Systems) satellite. The GNSS receiver 21 calculates the pseudo distance from the satellite, the phase of the carrier wave carrying the positioning signal, and the three-dimensional coordinate value based on the positioning signal received by the antenna.

IMU22は、3軸方向の角速度を計測するジャイロセンサと、加速度を計測する加速度センサを有している。IMU22は、これらのセンサによって自車両の姿勢データを取得する。 The IMU 22 has a gyro sensor that measures the angular velocity in the three axial directions and an acceleration sensor that measures the acceleration. The IMU 22 acquires the attitude data of its own vehicle by these sensors.

レーザスキャナ23は、計測車両2の幅方向において、放射角度を変更させながらレーザ光を放射し、放射先に位置する地物に反射したレーザ光を受光する。レーザスキャナ23は、レーザ光を放射してから受光するまでの時刻を計測し、地物との距離を算出する。 The laser scanner 23 emits laser light while changing the radiation angle in the width direction of the measurement vehicle 2, and receives the laser light reflected by the feature located at the radiation destination. The laser scanner 23 measures the time from when the laser beam is emitted to when the laser beam is received, and calculates the distance to the feature.

カメラ24は、計測車両2の前方を撮像する。また、走行距離計25は、計測車両2の走行距離を計測する。 The camera 24 takes an image of the front of the measuring vehicle 2. Further, the odometer 25 measures the mileage of the measuring vehicle 2.

従来においては、GNSS受信機21の測位データに基づいてGCP(Ground Control Points)を特定し、計測車両2において計測したデータをそのGCPを用いて位置補正を行うことで、地図データの絶対誤差の精度を向上させ、それを公共測量地図として使用していた。これに対し、自動運転システムにおいては、自車両の現在位置の推定処理にしても、地物の先読み処理にしても、地図データを車両と地物の相対的な位置関係を把握する目的で使用するため、絶対誤差の精度よりも、地図データにおける地物間の相対距離の精度が重要となる。本実施形態に係る地図データ130は、絶対誤差ではなく相対誤差が所定の値(標準偏差σが12.5cm程度以下)に収まるように作成されている。そのため、GNSS受信機21が受信した観測データに基づいて補正を行う処理を省略することができ、これによって、地図データの作成に係るコストを低減しつつ、自動運転が可能な精度を担保している。 Conventionally, GCP (Ground Control Points) is specified based on the positioning data of the GNSS receiver 21, and the data measured by the measuring vehicle 2 is corrected by using the GCP to correct the absolute error of the map data. It improved the accuracy and used it as a public survey map. On the other hand, in the automatic driving system, the map data is used for the purpose of grasping the relative positional relationship between the vehicle and the feature, whether it is the estimation process of the current position of the own vehicle or the look-ahead processing of the feature. Therefore, the accuracy of the relative distance between the features in the map data is more important than the accuracy of the absolute error. The map data 130 according to the present embodiment is created so that the relative error, not the absolute error, falls within a predetermined value (standard deviation σ is about 12.5 cm or less). Therefore, it is possible to omit the process of making corrections based on the observation data received by the GNSS receiver 21, thereby ensuring the accuracy of automatic operation while reducing the cost of creating map data. There is.

次に、図4を参照して地図データの標準偏差σが12.5cm程度以下であれば両側の区画線(すなわち、車線)をはみ出すことなく車両の自動運転が可能である理由について説明する。道路法上において、道路を通行可能な車両の最高限度は、幅W1が2.5m、長さL1が12mとして規格されている。また、道路法(道路構造令)上において、高速道路の幅W2(図4(A)における実際の区画線AL、AR間の距離)の最小値は3.5mとして定められている。 Next, with reference to FIG. 4, if the standard deviation σ of the map data is about 12.5 cm or less, the reason why the vehicle can be automatically driven without protruding the lane markings (that is, lanes) on both sides will be described. Under the Road Law, the maximum limit of vehicles that can pass on the road is specified as 2.5 m in width W1 and 12 m in length L1. Further, in the Road Law (Road Structure Ordinance), the minimum value of the width W2 of the expressway (distance between the actual lane markings AL and AR in FIG. 4A) is defined as 3.5 m.

仮に地図データ上の区画線データAL-AR間の相対誤差が+50cm(レーンネットワークA3を中心として実際より左右に25cm大きい)だった場合について想定する。この場合、地図データ上において、区画線データAL,ARの位置から所定の距離(例えば50cm)をとって内側を走行する車両は、自車両の現在位置の推定処理において誤差が生まれ、その誤差を補正しないまま運転制御ユニット11がアクチュエータ14を制御した場合、実際には片側の区画線(例えば区画線AR側)に25cm寄って走行してしまうおそれがある。しかし、車両が直線道路を走行している場合(図4(A))には、最高限度の車幅W1(2.5m)に対する道路幅W2(3.5m)は左右に50cmずつ余裕がある。したがって、仮に車両が区画線AR側に25cm寄ってしまった場合でも、実際に区画線AL,ARからはみ出すことなく走行できる。他方、車両がカーブに差し掛かっている場合(図4(B))においては、長さ方向における中心(先端から6mの地点)Mは、車両の後端部Bよりも、所定の幅xcm分だけ、カーブの内側に位置する区画線(図4(B)では区画線AR)側に寄ってしまう。この場合でも、車両の側面Nが区画線ARをはみ出すことなくカーブを走行するには、カーブの曲率半径r、と上記のxとが、以下の式(1)を満たす必要がある。 It is assumed that the relative error between the lane marking data AL and AR on the map data is +50 cm (25 cm larger to the left and right of the lane network A3 as the center). In this case, on the map data, a vehicle traveling inside at a predetermined distance (for example, 50 cm) from the positions of the lane marking data AL and AR has an error in the estimation process of the current position of the own vehicle, and the error is caused. If the operation control unit 11 controls the actuator 14 without correction, the vehicle may actually travel 25 cm closer to the lane marking line (for example, the lane marking AR side) on one side. However, when the vehicle is traveling on a straight road (FIG. 4 (A)), the road width W2 (3.5 m) has a margin of 50 cm on each side of the maximum vehicle width W1 (2.5 m). .. Therefore, even if the vehicle is 25 cm closer to the lane marking AR side, it can actually travel without protruding from the lane markings AL and AR. On the other hand, when the vehicle is approaching a curve (FIG. 4 (B)), the center (point 6 m from the tip) M in the length direction is only a predetermined width x cm from the rear end portion B of the vehicle. , The lane markings located inside the curve (the lane marking AR in FIG. 4B) will be closer to the side. Even in this case, in order for the side surface N of the vehicle to travel on the curve without protruding from the lane marking AR, the radius of curvature r of the curve and the above x must satisfy the following equation (1).

(数1)
6002+(r-x)2=r2・・・式(1)
(Number 1)
600 2 + (r-x) 2 = r 2 ... Equation (1)

ここで、出願人が全国の高速道路のカーブの曲率について調査したところによると、高速道路のカーブの曲率半径は89m以上であった。したがって、仮にrを72mとして上記の式(1)をxについて解くと、xは約25.0cmとなる。上述のとおり、最高限度の車幅W1(2.5m)に対する道路幅W2(3.5m)は左右に50cmずつ余裕がある。したがって、余裕分の50cmから、最小曲率のカーブにおいて車両の中心Mがカーブの内側に寄ってしまう幅25.0cmを減じた値である約25cmが、カーブ走行中においても区画線をはみ出すことなく走行するためにレーンネットワークA3を中心とした片側に許容される相対誤差の最大値であることがわかる(両側に換算すると約50cmとなる)。 Here, according to the applicant's investigation on the curvature of the curve of the expressway nationwide, the radius of curvature of the curve of the expressway was 89 m or more. Therefore, if r is 72 m and the above equation (1) is solved for x, x becomes about 25.0 cm. As described above, the road width W2 (3.5 m) with respect to the maximum vehicle width W1 (2.5 m) has a margin of 50 cm on each side. Therefore, about 25 cm, which is the value obtained by subtracting the width of 25.0 cm at which the center M of the vehicle moves toward the inside of the curve on the curve with the minimum curvature from the margin of 50 cm, does not protrude from the lane marking even while traveling on the curve. It can be seen that it is the maximum value of the relative error allowed on one side centering on the lane network A3 for traveling (when converted to both sides, it is about 50 cm).

本実施形態に係る地図データは、相対誤差の分布の4σが50cm(すなわち、標準偏差σが12.5cm)以内という精度を有しているため、相対誤差の99%以上が上述したレーンネットワークA3を中心とした片側に許容される最大値である25cm以内に収まることになる。このため、本実施形態に係る地図データは、両側の区画線(すなわち、車線)をはみ出すことなく車両を自動的に走行させる上で十分な精度を持っていると判断できる。 Since the map data according to the present embodiment has an accuracy that the relative error distribution 4σ is within 50 cm (that is, the standard deviation σ is 12.5 cm), 99% or more of the relative error is the above-mentioned lane network A3. It will be within 25 cm, which is the maximum value allowed on one side centered on. Therefore, it can be determined that the map data according to the present embodiment has sufficient accuracy for automatically driving the vehicle without extending the lane markings (that is, lanes) on both sides.

このように本実施形態に係る地図データが、相対誤差の分布の標準偏差σが12.5cm以内である場合には、生成コストを低減しつつ、自動運転に必要な精度を担保することができる。 As described above, when the standard deviation σ of the relative error distribution is within 12.5 cm in the map data according to the present embodiment, the accuracy required for automatic operation can be guaranteed while reducing the generation cost. ..

以上説明した各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。また、各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換または組み合わせが可能であることは言うまでもなく、これらも本発明の特徴を含む限り本発明の範囲に包含される。 Each of the embodiments described above is for facilitating the understanding of the present invention, and is not for limiting the interpretation of the present invention. The present invention can be modified / improved without departing from the spirit thereof, and the present invention also includes an equivalent thereof. Further, each embodiment is an example, and it goes without saying that partial substitutions or combinations of the configurations shown in different embodiments are possible, and these are also included in the scope of the present invention as long as the features of the present invention are included. ..

1 システム
11 運転制御ユニット
12 検出部
13 記憶装置
14 アクチュエータ
130 地図データ
1 System 11 Operation control unit 12 Detection unit 13 Storage device 14 Actuator 130 Map data

Claims (2)

区画線を含む地図データを記憶した記憶装置と、
車両の周辺情報を検出する外部センサと、
前記外部センサが検出した周辺情報と、前記地図データとに基づいて、前記車両と前記区画線との相対的な位置関係を算出しつつ、前記車両の走行を制御する制御ユニットと、
を備え、
前記地図データは、
車線の中心をとおる点列を結んで生成されたレーンネットワークと、
前記レーンネットワークに関連付けられた複数の区画線データと、
を備え、
前記複数の区画線データのうち、前記レーンネットワーク上の任意の基準点から一定範囲内に位置する任意の2つの区画線データの水平横断面における位置間の距離の誤差について、当該誤差の分布の標準偏差が12.5cm以内である、
自動運転支援システム。
A storage device that stores map data including lane markings,
An external sensor that detects information around the vehicle and
A control unit that controls the running of the vehicle while calculating the relative positional relationship between the vehicle and the lane marking based on the peripheral information detected by the external sensor and the map data.
Equipped with
The map data is
A lane network created by connecting a sequence of dots through the center of the lane,
Multiple lane marking data associated with the lane network and
Equipped with
Of the plurality of lane marking data, the error of the distance between the positions in the horizontal cross section of any two lane marking data located within a certain range from the arbitrary reference point on the lane network is the distribution of the error. Standard deviation is within 12.5 cm,
Automatic driving support system.
車両が備える外部センサによって、前記車両の周辺情報を検出するステップと、
記憶装置に記憶された区画線を含む地図データと、前記外部センサが検出した周辺情報とに基づいて、前記車両と前記区画線との相対的な位置関係を算出しつつ、前記車両の走行を制御するステップと、
を実行する車両の自動運転支援方法であって、
前記地図データは、
車線の中心をとおる点列を結んで生成されたレーンネットワークと、
前記レーンネットワークに関連付けられた複数の区画線データと、
を備え、
前記複数の区画線データのうち、前記レーンネットワーク上の任意の基準点から一定範囲内に位置する任意の2つの区画線データの水平横断面における位置間の距離の誤差について、当該誤差の分布の標準偏差が12.5cm以内である、
車両の自動運転支援方法。
A step of detecting peripheral information of the vehicle by an external sensor provided in the vehicle,
Based on the map data including the lane markings stored in the storage device and the peripheral information detected by the external sensor, the vehicle travels while calculating the relative positional relationship between the vehicle and the lane markings. Steps to control and
It is an automatic driving support method for vehicles that execute
The map data is
A lane network created by connecting a sequence of dots through the center of the lane,
Multiple lane marking data associated with the lane network and
Equipped with
Of the plurality of lane marking data, the error of the distance between the positions in the horizontal cross section of any two lane marking data located within a certain range from the arbitrary reference point on the lane network is the distribution of the error. Standard deviation is within 12.5 cm,
How to support automatic driving of vehicles.
JP2017127604A 2017-06-29 2017-06-29 Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving Active JP6996882B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017127604A JP6996882B2 (en) 2017-06-29 2017-06-29 Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017127604A JP6996882B2 (en) 2017-06-29 2017-06-29 Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving

Publications (2)

Publication Number Publication Date
JP2019012130A JP2019012130A (en) 2019-01-24
JP6996882B2 true JP6996882B2 (en) 2022-01-17

Family

ID=65226876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017127604A Active JP6996882B2 (en) 2017-06-29 2017-06-29 Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving

Country Status (1)

Country Link
JP (1) JP6996882B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7077999B2 (en) * 2019-03-20 2022-05-31 株式会社デンソー Map data output device
WO2022071612A1 (en) * 2020-10-02 2022-04-07 ダイナミックマップ基盤株式会社 Information processing method, program, and information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045144A (en) 2014-08-26 2016-04-04 アルパイン株式会社 Traveling lane detection device and driving support system
JP2017090548A (en) 2015-11-04 2017-05-25 トヨタ自動車株式会社 Map update determination system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045144A (en) 2014-08-26 2016-04-04 アルパイン株式会社 Traveling lane detection device and driving support system
JP2017090548A (en) 2015-11-04 2017-05-25 トヨタ自動車株式会社 Map update determination system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
工藤貴宏+ノオト,3次元データ、誤差は10cm以内-自動運転時代に求められる道路地図とは,GAZOO,日本,トヨタ自動車株式会社,2016年12月13日,全文,全図(pp.1-7),https://gazoo.com/mobility/feature/future/16/12/13/,[2020年12月15日検索](特に、「誤差は最大10cm」の項)

Also Published As

Publication number Publication date
JP2019012130A (en) 2019-01-24

Similar Documents

Publication Publication Date Title
US10310508B2 (en) Vehicle control apparatus
CN111033176B (en) Map information providing system
JP6815724B2 (en) Autonomous driving system
US10048699B2 (en) Vehicle control apparatus
JP6859927B2 (en) Vehicle position estimation device
WO2007132860A1 (en) Object recognition device
JP2020506388A (en) Method and apparatus for updating a digital map
JP7260064B2 (en) Own vehicle position estimation device, running position estimation method
US11423777B2 (en) Traffic sign displaying device
JP7314874B2 (en) Autonomous driving system, Autonomous driving device, Autonomous driving method
US20180208197A1 (en) Lane keeping assistance system
JP6598122B2 (en) Vehicle position determination device
JP6996882B2 (en) Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving
JP2018067034A (en) Mobile body control device, mobile body control method, and program for mobile body control device
JP2020053950A (en) Vehicle stereo camera device
JP2018167735A (en) Steering support device of vehicle
CN115123232A (en) Driving support device, driving support method, and storage medium
JP7031748B2 (en) Self-position estimation method and self-position estimation device
JP7202120B2 (en) Driving support device
CN111273653A (en) Automatic driving device
US11353329B2 (en) Automated driving device
US20240059288A1 (en) Vehicle control device, storage medium storing computer program for vehicle control, and method for controlling vehicle
US20200256695A1 (en) Systems and methods for driver assistance
JP2019184543A (en) Vehicle position estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211216

R150 Certificate of patent or registration of utility model

Ref document number: 6996882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350