JP7394206B2 - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP7394206B2
JP7394206B2 JP2022501655A JP2022501655A JP7394206B2 JP 7394206 B2 JP7394206 B2 JP 7394206B2 JP 2022501655 A JP2022501655 A JP 2022501655A JP 2022501655 A JP2022501655 A JP 2022501655A JP 7394206 B2 JP7394206 B2 JP 7394206B2
Authority
JP
Japan
Prior art keywords
information
lane
road
map
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022501655A
Other languages
Japanese (ja)
Other versions
JPWO2021166410A1 (en
Inventor
裕也 田中
健人 鍵本
仁 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2021166410A1 publication Critical patent/JPWO2021166410A1/ja
Application granted granted Critical
Publication of JP7394206B2 publication Critical patent/JP7394206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本発明は、自車周辺の情報及び地図情報に基づき、道路及びレーンの構造を理解し、車両の制御やドライバへの通知を出力するための走行支援装置に関するものである。 The present invention relates to a driving support device that understands the structure of roads and lanes based on information around the vehicle and map information, and controls the vehicle and outputs notifications to the driver.

交通事故の撲滅や環境への負荷低減,高齢者などの移動支援を支える安心・安全かつ便利なモビリティ社会の実現に向け,自動運転の技術開発が活発に行われている。自動運転のレベルとしてSAE(Society of Automotive Engineers)が定義したレベル1から5がよく用いられる。前記SAEの定義では、レベル3以上の車両制御はシステム責任となっている。このため、レベル3以上の自動運転を実現するためには、より信頼性の高い情報で制御する必要があり、地図の活用が欠かせない。地図としては、事前の測量により整備される高精度地図が一般的である。しかし、自動運転に用いられる地図には情報の鮮度が求められ、鮮度維持に多大なコストがかかるため、高精度地図の提供範囲は高速道路や主要幹線道路に限定される可能性がある。そのため、一般道では高精度地図が整備されていなくても信頼性の高い制御が求められる。 Autonomous driving technology is being actively developed with the aim of eliminating traffic accidents, reducing the burden on the environment, and creating a secure, safe, and convenient mobility society that supports mobility for the elderly and others. Levels 1 to 5 defined by the Society of Automotive Engineers (SAE) are often used as levels of automatic driving. According to the SAE definition, vehicle control at level 3 or higher is the responsibility of the system. Therefore, in order to achieve level 3 or higher automated driving, it is necessary to control with more reliable information, and the use of maps is essential. High-precision maps prepared by prior surveying are generally used as maps. However, maps used for autonomous driving require information to be fresh, and maintaining that freshness costs a lot of money, so the range of high-precision maps that can be provided may be limited to expressways and major arterial roads. Therefore, highly reliable control is required on public roads even if high-precision maps are not available.

そこで、例えば特許文献1では、自動運転制御システムを「車両の走行を支援する走行支援システムにおいて、前記車両の位置情報を取得する位置情報取得部と、経路案内に用いられる簡易地図を表す簡易地図情報と前記位置情報とを利用して、前記簡易地図において前記車両がどの道路を通るかを示す走行ルートを生成するルート生成部と、前記車両に搭載されたセンサにより取得されたセンサ情報と前記位置情報を用いて、前記車両の走行中に前記車両の周辺地図であって前記簡易地図より高精度な周辺地図を周辺地図情報として生成する周辺地図生成部と、前記走行ルートを含む前記簡易地図と前記周辺地図との各々における道路の特徴を抽出する特徴抽出部と、前記道路の特徴に基づいて、前記簡易地図と前記周辺地図との位置合わせを行い、前記車両の位置を車両位置として算出する位置合わせ部と、前記車両位置を用いて、前記周辺地図に、前記簡易地図情報と前記位置情報とを利用して生成された前記走行ルートを投影し、前記周辺地図に投影された前記走行ルートに基づいて、前記車両が前記走行ルートを走行するためのパスであって自動運転車の車両制御機構への入力となる前記周辺地図における前記車両の走行軌道および経路であるパスを生成するパス生成部とを備えた走行支援システム。」のように構成することを提案している。 Therefore, for example, in Patent Document 1, an automatic driving control system is defined as "a driving support system that supports driving of a vehicle, which includes a position information acquisition unit that acquires position information of the vehicle, and a simple map that represents a simple map used for route guidance. a route generation unit that generates a travel route indicating which road the vehicle will travel on the simple map using the information and the position information; a surrounding map generation unit that uses position information to generate a surrounding map of the vehicle, which is a surrounding map that is more accurate than the simplified map, as surrounding map information while the vehicle is traveling; and the simplified map that includes the driving route. and a feature extraction unit that extracts road features from each of the road features and the surrounding map, and aligns the simple map and the surrounding map based on the road features, and calculates the position of the vehicle as a vehicle position. and a positioning unit that projects the driving route generated using the simple map information and the position information onto the surrounding map using the vehicle position and the driving route projected on the surrounding map. A path that generates a path for the vehicle to travel along the travel route based on the route, which is a travel trajectory and route of the vehicle in the surrounding map that is input to a vehicle control mechanism of an automatic driving vehicle. A driving support system equipped with a generating section is proposed.

特許第6456562号公報Patent No. 6456562

特許文献1では、一般道に対し、センサ情報と簡易地図情報を活用し生成した周辺地図情報により道路外に逸脱しない自動運転を実現する。しかしながら、簡易地図情報には交差点の進入・退出レーンの接続関係がなく、目的地到達に向けた最適な走行レーンの選択に課題がある。例えば、目的地に到達するために交差点を右折し、その先を左折する場合、最初の交差点を右折するときは、右折先の道路の一番左のレーンに移動することがドライバの意図にあう。そこで、センサ情報の周辺情報にから交差点の進入・退出レーンの接続関係を算出し、目的到達に向けた最適な走行レーンの選択をする必要がある。 In Patent Document 1, automatic driving that does not deviate from the road is realized using surrounding map information generated using sensor information and simple map information on a general road. However, the simple map information does not include connections between entry and exit lanes at intersections, and there is a problem in selecting the optimal driving lane to reach the destination. For example, if a driver turns right at an intersection and then turns left to reach a destination, when turning right at the first intersection, the driver's intention is to move to the far left lane of the road to which he or she is turning. . Therefore, it is necessary to calculate the connection relationship between entry and exit lanes at an intersection based on surrounding information from sensor information, and select the optimal driving lane to reach the destination.

本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、目的地までの走行計画で、最適なレーンを選択可能となり、交差点を含む一般道でドライバの意図に沿った自動運転が実現できる走行支援装置を得ることである。 The present invention has been made in view of the above points, and its purpose is to make it possible to select the optimal lane when planning a trip to a destination, and to make it possible to select the optimum lane according to the driver's intention on general roads including intersections. The objective is to obtain a driving support device that can realize autonomous driving.

本発明に係る走行支援装置は、センサにより検知した自車の周辺情報を取得するセンサ情報取得部と、周辺情報に含まれる道路の白線または路端の少なくとも一方の情報に基づき道路が有するレーンのレーン中心点列を生成し、レーン中心点列に基づき道路及びレーン構造情報を生成するセンサ道路・レーン構造生成部と、道路及びレーン構造情報に基づき、自車が走行すべき道路と道路のレーンを決定する走行計画部とを有することを特徴とする。 The driving support device according to the present invention includes a sensor information acquisition unit that acquires surrounding information of the own vehicle detected by a sensor, and a lane information of a road based on information about at least one of a white line or a road edge included in the surrounding information. A sensor road/lane structure generation unit that generates a lane center point sequence and generates road and lane structure information based on the lane center point sequence, and a road and road lane on which the vehicle should drive based on the road and lane structure information. The vehicle is characterized by having a travel planning section that determines the travel planning section.

本発明によれば、目的地までの走行計画で、最適なレーンを選択可能となり、交差点を含む一般道でドライバの意図に沿った自動運転が実現できる。本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の、課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, it is possible to select an optimal lane based on a travel plan to a destination, and automatic driving according to the driver's intention can be realized on general roads including intersections. Further features related to the invention will become apparent from the description herein and the accompanying drawings. Further, problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.

第1実施形態における走行支援装置を搭載する車両の構成を説明する図。FIG. 1 is a diagram illustrating the configuration of a vehicle equipped with a driving support device according to a first embodiment. 第1実施形態における走行支援装置の内部機能を説明するブロック図。FIG. 2 is a block diagram illustrating internal functions of the driving support device in the first embodiment. 図2に示すセンサ道路・レーン構造生成部と地図合成部の内部機能を説明するブロック図。FIG. 3 is a block diagram illustrating internal functions of a sensor road/lane structure generation unit and a map synthesis unit shown in FIG. 2. FIG. レーン中心点列生成部における処理内容を説明するフローチャート。7 is a flowchart illustrating the processing content in the lane center point sequence generation unit. 交差点と交差点に設定された道路IDを示す図。A diagram showing intersections and road IDs set for the intersections. 地図ノードと地図リンクにより構成される簡易地図の一例を示す図。The figure which shows an example of a simple map comprised by a map node and a map link. センサの検知範囲を模式的に示す図。A diagram schematically showing a detection range of a sensor. 交差点を通過する際の推奨される走行軌跡と、交差点等の無車線区間の進入点及び退出点を示す図。A diagram showing a recommended travel trajectory when passing through an intersection, and entry and exit points of a lane-free section such as an intersection. 交差点の道路外との境界を指す点列について説明する図。FIG. 3 is a diagram illustrating a sequence of points indicating the boundary between an intersection and the outside of the road. 交差点を右左折した先の白線情報を説明する図。A diagram illustrating information on white lines ahead of a right or left turn at an intersection. 自車が交差点を右折する軌跡を示す図。A diagram showing a trajectory of a vehicle turning right at an intersection. 交差点の一例を示す図。A diagram showing an example of an intersection. 交差点の一例を示す図。A diagram showing an example of an intersection. 交差点の一例を示す図。A diagram showing an example of an intersection. 道路・レーン情報に地図情報を合成してルートを生成する一例を説明する図。FIG. 3 is a diagram illustrating an example of generating a route by combining road/lane information with map information. 道路・レーン情報に地図情報を合成してルートを生成する他の例を説明する図。FIG. 7 is a diagram illustrating another example of generating a route by combining road/lane information with map information. 道路・レーン情報に地図情報を合成してルートを生成する他の例を説明する図。FIG. 7 is a diagram illustrating another example of generating a route by combining road/lane information with map information. 第2実施形態における走行支援装置の内部機能を説明するブロック図。FIG. 2 is a block diagram illustrating internal functions of a driving support device in a second embodiment. レーン中心点の生成方法の一例を説明する図。FIG. 3 is a diagram illustrating an example of a method for generating a lane center point. レーン増減の境界の算出方法を説明する図。FIG. 3 is a diagram illustrating a method of calculating boundaries for lane increase/decrease. 交差点の進入点と退出点から仮想レーン中心点列を生成する方法の一例を示す図。The figure which shows an example of the method of generating a virtual lane center point sequence from the approach point and exit point of an intersection. 有料道路の料金所周辺を模式的に示す図。A diagram schematically showing the area around a toll gate on a toll road.

以下、本発明の実施形態について、図面を用いて詳細に説明する。なお、以下の実施形態では、道路が左側通行の場合を例に説明するが、右側通行にも適用できる。 Hereinafter, embodiments of the present invention will be described in detail using the drawings. In addition, although the following embodiment explains the case where traffic is on the left side of the road as an example, it can also be applied to right side traffic.

<第1実施形態>
図1は、本実施形態における走行支援装置を搭載する車両の構成を説明する図である。
走行支援装置3は、図1に例示するように、自動運転可能な自車1に搭載されており、CPUやメモリなどのハードウエアと、ハードウエアにより実行されるソフトウエアプログラムとの協働により実現される。走行支援装置3は、地図・ロケータユニットU1と、センサSと、アクチュエータDと協働して走行支援システムを構成する。
<First embodiment>
FIG. 1 is a diagram illustrating the configuration of a vehicle equipped with a driving support device according to the present embodiment.
As illustrated in FIG. 1, the driving support device 3 is installed in a self-driving vehicle 1, and is driven by the cooperation between hardware such as a CPU and memory, and a software program executed by the hardware. Realized. The driving support device 3 cooperates with the map/locator unit U1, the sensor S, and the actuator D to form a driving support system.

走行支援装置3は、地図・ロケータユニットU1から、地図情報と、経路情報と、自車1の自車位置情報と、自車1の姿勢情報とを得る。そして、センサSであるカメラセンサS1及びLiDARセンサS2から周辺情報を得る。さらに、車両センサS3から自車両情報を得て、アクチュエータDであるエンジンD1、ステアリングD2、ブレーキD3などの各操作目標量を定める。 The driving support device 3 obtains map information, route information, own vehicle position information of the own vehicle 1, and posture information of the own vehicle 1 from the map/locator unit U1. Then, surrounding information is obtained from the camera sensor S1 and the LiDAR sensor S2, which are the sensors S. Furthermore, own vehicle information is obtained from the vehicle sensor S3, and respective operation target amounts of the engine D1, which is the actuator D, the steering D2, the brake D3, etc. are determined.

地図・ロケータユニットU1は、ロケータ機能24と地図送信機能25を含んでおり、ロケータ機能24は、GNSS(位置情報)を受信して自車位置情報と姿勢情報を定め、地図送信機能25では地図データ8を受信する通信ユニットU2を備えている。なお、地図データ8は、ナビゲーション用の簡易的(以降、簡易地図と記載)な地図でもよいし、レーンレベルで精度の高い情報を持つ高精度地図であってもよい。 The map/locator unit U1 includes a locator function 24 and a map transmission function 25. The locator function 24 receives GNSS (location information) and determines own vehicle position information and posture information, and the map transmission function 25 determines the own vehicle position information and attitude information. It includes a communication unit U2 that receives data 8. Note that the map data 8 may be a simple map for navigation (hereinafter referred to as a simple map) or a high-precision map having highly accurate information at the lane level.

図2は、走行支援装置の内部機能を説明するブロック図である。
走行支援装置3は、地図・ロケータユニットU1とセンサSからデータを入力し、走行支援装置3の計算結果をスピーカー111とアクチュエータDに出力する。走行支援装置3は、地図・経路情報取得部101と、位置姿勢情報取得部102と、センサ情報取得部103と、センサ情報統合部112と、自己位置姿勢推定部104と、センサ道路・レーン構造生成部105と、地図合成部106と、経路情報付加部107と、制御部108とを有する。また、制御部108は、走行計画部109と軌道計画部110を有する。
FIG. 2 is a block diagram illustrating the internal functions of the driving support device.
The driving support device 3 inputs data from the map/locator unit U1 and the sensor S, and outputs the calculation results of the driving support device 3 to the speaker 111 and the actuator D. The driving support device 3 includes a map/route information acquisition unit 101, a position/orientation information acquisition unit 102, a sensor information acquisition unit 103, a sensor information integration unit 112, a self-position/orientation estimation unit 104, and a sensor road/lane structure. It includes a generation section 105, a map synthesis section 106, a route information addition section 107, and a control section 108. Further, the control unit 108 includes a travel planning unit 109 and a trajectory planning unit 110.

[データの流れ]
地図・経路情報取得部101は、地図・ロケータユニットU1からのデータ2001を入力し、データ2004、2005を出力する。位置姿勢情報取得部102は、地図・ロケータユニットU1からのデータ2002を入力し、データ2016を出力する。センサ情報取得部103は、センサSからのデータ2003を入力し、データ2006、2017を出力する。
[Flow of data]
The map/route information acquisition unit 101 inputs data 2001 from the map/locator unit U1 and outputs data 2004 and 2005. The position and orientation information acquisition unit 102 inputs data 2002 from the map/locator unit U1 and outputs data 2016. The sensor information acquisition unit 103 inputs data 2003 from the sensor S and outputs data 2006 and 2017.

センサ情報統合部112は、センサ情報取得部103からのデータ2017と自己位置姿勢推定部104からのデータ2021を入力し、データ2019、2020を出力する。センサ道路・レーン構造生成部105は、センサ情報統合部112からのデータ2019と自己位置姿勢推定部104からのデータ2007を入力し、データ2009を出力する。 The sensor information integration unit 112 inputs data 2017 from the sensor information acquisition unit 103 and data 2021 from the self-position and orientation estimation unit 104, and outputs data 2019 and 2020. The sensor road/lane structure generation unit 105 inputs the data 2019 from the sensor information integration unit 112 and the data 2007 from the self-position and orientation estimation unit 104, and outputs the data 2009.

自己位置姿勢推定部104は、位置姿勢情報取得部102からのデータ2016と、センサ情報取得部103からのデータ2006と、センサ情報統合部112からのデータ2020を入力し、データ2007、2008、2018を出力する。地図合成部106は、地図・経路情報取得部101からのデータ2005と、自己位置姿勢推定部104からのデータ2018と、センサ道路・レーン構造生成部105からのデータ2009を入力し、データ2010、2012を出力する。経路情報付加部107は、地図・経路情報取得部101からのデータ2004と、自己位置姿勢推定部104からのデータ2008と、地図合成部106からのデータ2010を入力し、データ2011を出力する。 The self-position and orientation estimation unit 104 inputs data 2016 from the position and orientation information acquisition unit 102, data 2006 from the sensor information acquisition unit 103, and data 2020 from the sensor information integration unit 112, and inputs data 2007, 2008, 2018. Output. The map synthesis unit 106 inputs data 2005 from the map/route information acquisition unit 101, data 2018 from the self-position/orientation estimation unit 104, and data 2009 from the sensor road/lane structure generation unit 105, and generates data 2010, 2012 is output. The route information addition unit 107 inputs data 2004 from the map/route information acquisition unit 101, data 2008 from the self-position and orientation estimation unit 104, and data 2010 from the map synthesis unit 106, and outputs data 2011.

制御部108は、経路情報付加部107からのデータ2011と、地図合成部106からのデータ2012を入力し、データ2014、2015を出力する。走行計画部109は、経路情報付加部107からのデータ2011と、地図合成部106からのデータ2012を入力し、データ2013、2014を出力する。軌道計画部110は、経路情報付加部107からのデータ2011と、地図合成部106からのデータ2012と、走行計画部109からのデータ2013を入力し、データ2015を出力する。スピーカー111は、走行計画部109からのデータ2014を入力し、ドライバに通知を出力する通知手段を構成する。アクチュエータDは、軌道計画部110からのデータ2015を入力し、車両を制御する。 The control unit 108 inputs data 2011 from the route information addition unit 107 and data 2012 from the map synthesis unit 106, and outputs data 2014 and 2015. The travel planning unit 109 receives data 2011 from the route information addition unit 107 and data 2012 from the map synthesis unit 106, and outputs data 2013 and 2014. The trajectory planning section 110 inputs data 2011 from the route information addition section 107, data 2012 from the map synthesis section 106, and data 2013 from the travel planning section 109, and outputs data 2015. The speaker 111 constitutes a notification means that inputs data 2014 from the trip planning section 109 and outputs a notification to the driver. Actuator D receives data 2015 from trajectory planning section 110 and controls the vehicle.

[機能ブロックとデータ内容説明]
地図・ロケータユニットU1からのデータ2001は、簡易地図及び経路情報を想定し、地図・経路情報取得部101でデータを取得し、必要に応じて変換をかけ、メモリに格納する。図6は、地図ノードと地図リンクにより構成される簡易地図の一例を示す図である。簡易地図は、図6に示すように、地図ノードF001と地図リンクF002を有する。
[Explanation of functional blocks and data contents]
The data 2001 from the map/locator unit U1 is assumed to be a simple map and route information, and is acquired by the map/route information acquisition unit 101, converted as necessary, and stored in a memory. FIG. 6 is a diagram showing an example of a simple map composed of map nodes and map links. As shown in FIG. 6, the simple map has a map node F001 and a map link F002.

地図ノードF001には、ノードIDが設定され、ノードの位置情報として緯度、経度が格納される。また、地図ノードF001には、高度の情報が格納される。また、地図ノードF001には、地図リンク同士のリンク角度F003やリンク本数等の情報が格納される。図6の例では、地図ノードF001に格納されるリンク本数は4となる。そして、地図ノードF001に格納されるリンク角度F003も4つとなる。 A node ID is set in the map node F001, and latitude and longitude are stored as position information of the node. Further, altitude information is stored in the map node F001. Furthermore, information such as the link angle F003 between map links and the number of links is stored in the map node F001. In the example of FIG. 6, the number of links stored in map node F001 is four. There are also four link angles F003 stored in the map node F001.

また、地図ノードF001には、道路種別が格納され、交差点であれば、交差点種別として十字路または丁字路、六差路等の情報が格納される。また、地図リンクF002には、地図ノード間のIDの接続関係や自車1の進行レーンのレーン数、対向レーンのレーン数が格納され、他にも制限速度値と地図リンク上の位置、地図リンクの形状情報等が格納される。 Further, the map node F001 stores the road type, and in the case of an intersection, information such as a crossroad, a T-junction, a six-way intersection, etc. is stored as the intersection type. In addition, the map link F002 stores the connection relationship of IDs between map nodes, the number of lanes in which own vehicle 1 is traveling, and the number of lanes in the opposite lane, and also stores the speed limit value, the position on the map link, and the map Link shape information etc. are stored.

経路情報とは、地図ノードF001のIDのリストを表し、どの地図ノードを経由すれば目的地に到達できるかの情報を表す。あるいは、IDだけではなく、地図ノードの位置情報として緯度、経度のペアをリストとしてもよい。また、地図ノードの位置情報だけではなく、ナビゲーション用に通知される、この先の道なり、あるいは、右左折の進行方向の案内情報を取得してもよい。 The route information represents a list of IDs of the map node F001, and represents information on which map node to go through to reach the destination. Alternatively, in addition to IDs, pairs of latitude and longitude may be listed as location information of map nodes. Further, in addition to the position information of the map node, guidance information about the road ahead or the direction of right or left turn, which is notified for navigation, may be acquired.

地図・経路情報取得部101での変換例としては、緯度、経度のようなグローバル座標系の情報を平面座標系に変換する等が挙げられる。これにより、グローバル座標系で一般的に扱われる距離計算としてヒュベニの公式があるが、後段の距離計算が三平方の定理で行え、容易になる利点がある。なお、簡易地図をV2Xから取得してもよい。 Examples of conversion by the map/route information acquisition unit 101 include converting information in a global coordinate system such as latitude and longitude to a plane coordinate system. This has the advantage that the distance calculation in the latter stage can be performed using the Pythagorean theorem, which is easier than the Hubeny formula, which is commonly used for distance calculation in the global coordinate system. Note that the simple map may be obtained from V2X.

地図・ロケータユニットU1からのデータ2002は、ロケータからの情報であり、位置情報として緯度と経度を想定し、姿勢情報として方位を想定する。位置姿勢情報取得部102は、データ2002を取得し、必要に応じて変換をかけ、変換後のデータをメモリに格納する。変換例としては、地図・経路情報取得部101と同様に平面座標系に変換する等が挙げられる。 Data 2002 from the map/locator unit U1 is information from a locator, and assumes latitude and longitude as position information, and assumes orientation as attitude information. The position and orientation information acquisition unit 102 acquires the data 2002, performs conversion as necessary, and stores the converted data in memory. Examples of conversion include conversion to a plane coordinate system, similar to the map/route information acquisition unit 101.

センサSからのデータ2003は、図1におけるカメラセンサS1、LiDARセンサS2、及び車両センサS3のデータにより構成される。カメラセンサS1からのデータとしては、立体物の位置情報やサイズ情報、種別情報等、白線の位置情報や破線や色の種別情報、路端の位置情報、信号機の位置情報や色情報、停止線の位置情報、横断歩道の位置情報、看板の位置情報や種別情報等を想定する。 Data 2003 from sensor S is composed of data from camera sensor S1, LiDAR sensor S2, and vehicle sensor S3 in FIG. Data from camera sensor S1 includes position information, size information, and type information of three-dimensional objects, position information of white lines, broken line and color type information, roadside position information, position information and color information of traffic lights, and stop line information. , location information of crosswalks, position information and type information of signboards, etc.

図5、図14は、交差点の一例を示す図であり、図5は、交差点のレーンと交差点に設定された道路IDを示す図、図14は、信号機を有する交差点の一例を示す図である。
白線の例としては、図5のF013が挙げられる。白線は、エッジ検出により検出した点群から端点が連続して並ぶ列を抽出した点列でもよいし、近似パラメータの形式でもよい。路端の例としては、図5のF010が挙げられる。停止線の例としては、図5のF014が挙げられる。横断歩道の例としては、図5のF011が挙げられる。看板の例として、制限速度標識や、一時停止線、車線減少等が挙げられる。そして、信号機の例としては、図14のF021が挙げられる。
FIGS. 5 and 14 are diagrams showing an example of an intersection. FIG. 5 is a diagram showing intersection lanes and road IDs set at the intersection. FIG. 14 is a diagram showing an example of an intersection with traffic lights. .
An example of the white line is F013 in FIG. 5. The white line may be a point sequence obtained by extracting a sequence of consecutive end points from a point group detected by edge detection, or may be in the form of approximate parameters. An example of a roadside is F010 in FIG. An example of the stop line is F014 in FIG. 5. An example of a crosswalk is F011 in FIG. 5. Examples of signage include speed limit signs, stop lines, lane reductions, etc. An example of a traffic light is F021 in FIG. 14.

また、LiDARセンサS2からのデータは、立体物の位置情報やサイズ情報、白線の位置情報や破線等の種別情報、路端の位置情報、停止線の位置情報、横断歩道の位置情報等を想定する。また、車両センサS3からのデータは、自車速度情報、舵角情報、ヨーレート情報、加速度情報等を想定する。なお、センサSとしては、上記同様の自車1の周辺環境理解に必要なデータが取得可能なものであればよく、レーダやC2X、V2X等を前提としてもよい。 In addition, the data from the LiDAR sensor S2 is assumed to include position information and size information of three-dimensional objects, type information such as white line position information and broken lines, road edge position information, stop line position information, crosswalk position information, etc. do. Further, the data from the vehicle sensor S3 is assumed to be own vehicle speed information, steering angle information, yaw rate information, acceleration information, etc. Note that the sensor S may be any sensor as long as it can obtain data necessary for understanding the surrounding environment of the vehicle 1 similar to the above, and may be a radar, C2X, V2X, or the like.

これら各センサからの情報をセンサ情報取得部103でデータを取得し、必要に応じて変換をかけ、メモリに格納する。変換例としては、複数センサにおけるデータの単位系や分解能が異なる場合、後段の処理で扱い易いように統一された形式に変換する。 A sensor information acquisition unit 103 acquires information from each of these sensors, converts it as necessary, and stores it in a memory. As an example of conversion, when the unit systems and resolutions of data from multiple sensors are different, the data is converted into a unified format so that it can be easily handled in subsequent processing.

センサ情報取得部103からのデータ2017は、データの単位系や分解能が統一された形式のセンサ情報を想定し、センサ情報統合部112でより後段の処理で扱い易いようにデータを統合する。統合例としては、各センサにおいてデータの座標系や座標系の原点が異なる場合、後段の処理で扱い易いように同一の座標系や原点に統一する。 The data 2017 from the sensor information acquisition unit 103 is assumed to be sensor information in a format with a unified data unit system and resolution, and the sensor information integration unit 112 integrates the data so that it is easier to handle in subsequent processing. As an example of integration, if the data coordinate systems and origins of the coordinate systems are different for each sensor, they are unified into the same coordinate system and origin for ease of handling in subsequent processing.

本実施形態では、自車相対座標系で扱うことを想定し、以下記載する。また、複数のセンサにおけるデータの送信周期がそれぞれ異なる場合、後段の処理で統一された時刻として扱い易いように走行支援装置3の処理周期に同期させる。同期については、自車速度情報や舵角から移動量を推定して算出する。そして、同期された情報の中で各センサが同じ立体物や白線、路端等を検出していれば、同じ情報として同一のIDを設定し、データを統合し、出力する。 In this embodiment, it is assumed that the coordinate system relative to the own vehicle is used and will be described below. In addition, when the data transmission cycles of the plurality of sensors are different from each other, they are synchronized with the processing cycle of the driving support device 3 so that it can be easily treated as a unified time in subsequent processing. Synchronization is calculated by estimating the amount of movement based on vehicle speed information and steering angle. Then, if each sensor detects the same three-dimensional object, white line, roadside, etc. in the synchronized information, the same ID is set as the same information, the data is integrated, and output.

また、自己位置姿勢推定部104からのデータ2021である自車位置及び姿勢情報に基づき、過去のセンサデータ2017をグローバル座標の形式でメモリ上に記録し、データ欠損時の補間処理や過去情報による経験則に基づく統合処理を実施してもよい。例えば、白線情報の場合は、過去の白線の位置情報と新たに検出した白線の位置情報を比較し、同一白線かどうかを判断し、IDをトラッキングする方法が考えられる。これにより、センサ情報の検出が少ない状況であっても蓄積された情報を活用でき、IDの識別精度を高めて統合処理が可能となる。また、カメラセンサS1やLiDARセンサS2のような自車相対座標系を基準としたデータとは異なり、C2XやV2Xからの情報は、グローバル座標系を基準としたデータであることが知られており、データ2021の自車位置と姿勢に基づき、自車相対座標系に変換し、カメラセンサS1やLiDARセンサS2のデータと統合する。 In addition, based on the own vehicle position and attitude information, which is data 2021 from the own position and attitude estimation unit 104, past sensor data 2017 is recorded in the memory in the form of global coordinates, and interpolation processing is performed when data is missing, and An integration process based on empirical rules may also be implemented. For example, in the case of white line information, a method can be considered in which past white line position information and newly detected white line position information are compared, it is determined whether they are the same white line, and the ID is tracked. As a result, even in a situation where little sensor information is detected, the accumulated information can be utilized, and ID identification accuracy can be improved and integrated processing can be performed. Furthermore, unlike data such as camera sensor S1 and LiDAR sensor S2 that are based on the own vehicle relative coordinate system, it is known that the information from C2X and V2X is data that is based on the global coordinate system. , based on the own vehicle position and orientation of the data 2021, is converted to the own vehicle relative coordinate system, and is integrated with the data of the camera sensor S1 and LiDAR sensor S2.

センサ情報統合部112からのデータ2019は、処理周期の同期とデータ統合、座標系の統一化が済んでいる立体物の位置情報、白線の位置情報、路端の位置情報等であり、センサ道路・レーン構造生成部105で道路やレーンの境界部分を理解し、道路同士やレーン同士の接続関係を算出する。なお、道路やレーンの境界部分の具体例として、図5に示すように自車1が存在する状況で、センサによって検出できる白線情報F013や横断歩道情報F011や停止線情報F014や路端情報F010が挙げられる。 The data 2019 from the sensor information integration unit 112 includes position information of three-dimensional objects, white line position information, roadside position information, etc., which have undergone synchronization of processing cycles, data integration, and unification of coordinate systems. - The lane structure generation unit 105 understands the boundaries between roads and lanes, and calculates connection relationships between roads and lanes. As specific examples of road and lane boundary areas, white line information F013, crosswalk information F011, stop line information F014, and roadside information F010 that can be detected by sensors in a situation where the own vehicle 1 is present as shown in FIG. can be mentioned.

なお、道路とは、図5に示すように、領域R01~R06のような、レーン増減や交差点、分岐等で区切られる領域を表し、IDで管理される。レーンとは、領域R01~R06の中に含まれるL01~L13単位の情報を表し、IDで管理される。 Note that, as shown in FIG. 5, a road represents an area divided by lane changes, intersections, branches, etc., such as areas R01 to R06, and is managed by ID. A lane represents information in units of L01 to L13 included in regions R01 to R06, and is managed by ID.

これら道路やレーンの接続関係とは、領域R01~R06の前後の接続関係や、レーンL01~L13の前後左右の接続関係を表す。例えば、自車の位置を基準とし、領域R01の前方は領域R02に接続され、領域R02の後方は領域R01に接続される。また、レーンL02の右側にはレーンL03が接続され、レーンL03の左側にはレーンL02が接続される。また、レーンL02の前方には、レーンL06とレーンL07が接続され、レーンL06とレーンL07の後方にはレーンL02が接続される。 The connections between these roads and lanes refer to the connections between the regions R01 to R06 before and after, and the connections between the lanes L01 to L13 between the front and back, and the left and right sides of the lanes. For example, based on the position of the own vehicle, the front of region R01 is connected to region R02, and the rear of region R02 is connected to region R01. Further, a lane L03 is connected to the right side of the lane L02, and a lane L02 is connected to the left side of the lane L03. Furthermore, lane L06 and lane L07 are connected to the front of lane L02, and lane L02 is connected to the rear of lane L06 and lane L07.

なお、センサ道路・レーン構造生成部105では、図7に示すようにセンサSの検知範囲F015内で検知された情報に基づき出力を生成し、自車1の移動に応じて都度出力をリアルタイムに情報を再生成していく。 Note that the sensor road/lane structure generation unit 105 generates an output based on the information detected within the detection range F015 of the sensor S as shown in FIG. Regenerate information.

図7は、自車両1が右折レーンに進入する前後の状態を示す図である。
図7の交差点右折レーンの手前から交差点右折レーン上まで自車1が移動すると、その検知範囲は、F015からF020となり、より交差点内のセンサ情報が取得できる状況となる。
FIG. 7 is a diagram showing the state before and after the host vehicle 1 enters the right turn lane.
When the vehicle 1 moves from in front of the right-turn lane at the intersection to above the right-turn lane at the intersection in FIG. 7, the detection range changes from F015 to F020, making it possible to obtain more sensor information within the intersection.

センサ道路・レーン構造生成部105では、センサ情報取得部103からのデータ2017を、道路やレーンの構造に紐づけて管理し、追加でセンサ情報のみから算出可能な付加的な情報を生成する。 The sensor road/lane structure generation unit 105 manages the data 2017 from the sensor information acquisition unit 103 in association with the structure of roads and lanes, and additionally generates additional information that can be calculated only from the sensor information.

データ2017を道路やレーンの構造に紐づけた管理例としては、各レーンにデータ2017の白線情報を関連付け、道路にデータ2017の路端情報を関連付けることが考えられる。付加的な情報の例としては、レーンの中心点列、曲率半径、制限速度、及び、レーンの長さやレーンが消滅、発生するまでの距離等が挙げられる。レーンが消滅するまでの距離の例として、図5のレーンL02の消滅までの距離は、自車がレーンL01の開始位置に存在する場合は、レーンL01の長さとレーンL02の長さを足した結果である。 As an example of management in which the data 2017 is linked to the structure of roads and lanes, it is conceivable to associate the white line information of the data 2017 with each lane, and to associate the roadside information of the data 2017 with the road. Examples of additional information include the center point sequence of the lane, the radius of curvature, the speed limit, the length of the lane, and the distance until the lane disappears or appears. As an example of the distance until the lane disappears, the distance until the lane L02 disappears in Figure 5 is the sum of the length of lane L01 and the length of lane L02 when the own vehicle is at the starting position of lane L01. This is the result.

また、データ2017は、図7の検知範囲F015に示す通り、検知範囲の境界領域や自車1から距離が遠いほど、検知誤差が大きいことが一般的に知られている。また、走行状況次第で誤検知が生じる場合もある。そのため、これらセンサSの特性を考慮して、道路・レーン構造情報2009に信頼度情報を付加するとよい。また、自己位置姿勢推定部104からのデータ2007である自車位置及び姿勢を活用し、センサ情報統合部112と同様に過去情報を用いて道路とレーン構造の生成精度を高めてもよい。 Furthermore, as shown in the detection range F015 in FIG. 7, the data 2017 is generally known that the farther the distance from the boundary area of the detection range or the own vehicle 1, the larger the detection error. Additionally, false detection may occur depending on the driving conditions. Therefore, it is preferable to add reliability information to the road/lane structure information 2009 in consideration of the characteristics of these sensors S. Further, the generation accuracy of road and lane structures may be improved by utilizing the own vehicle position and attitude, which is the data 2007 from the own position and attitude estimating unit 104, and using past information in the same way as the sensor information integrating unit 112.

位置姿勢情報取得部102からのデータ2016は、位置情報として緯度、経度を想定し、姿勢情報として方位を想定し、センサ情報取得部103からのデータ2006は、自車速情報や舵角等の車両情報を想定し、自己位置姿勢推定部104において走行支援装置3用に精度を高めた最終的な自車の位置情報として緯度、経度を推定し、最終的な自車の姿勢情報として方位を推定する。 The data 2016 from the position and orientation information acquisition unit 102 assumes latitude and longitude as position information and the orientation as attitude information, and the data 2006 from the sensor information acquisition unit 103 assumes vehicle speed information, steering angle, etc. Assuming the information, the self-position and orientation estimation unit 104 estimates the latitude and longitude as the final positional information of the own vehicle with increased accuracy for the driving support device 3, and estimates the direction as the final positional information of the own vehicle. do.

ロケータからの情報に基づくデータ2016は、送信周期100ミリ秒~1秒のように走行支援装置3の処理周期に対し長いため、データ2016が更新されない走行支援装置3の処理周期においては、自車位置と姿勢の補正が必要である。自車位置と姿勢の補正は、センサ情報取得部103からのデータ2006の自車速度情報及び舵角情報やヨーレート情報等を用いて、移動量を算出して実施する。 The data 2016 based on the information from the locator is longer than the processing cycle of the driving support device 3, such as a transmission period of 100 milliseconds to 1 second. Correction of position and posture is required. The own vehicle position and attitude are corrected by calculating the amount of movement using the own vehicle speed information, steering angle information, yaw rate information, etc. of the data 2006 from the sensor information acquisition unit 103.

他にも、センサ情報統合部112からのデータ2020の白線の位置情報を用いて、レーン内の自車位置や姿勢情報の精度を高めてもよい。また、データ2020の路端情報を用いて、道路内の自車位置や姿勢情報の精度を高めてもよい。自車位置の精度が高まれば、地図合成部106で合成する地図の精度が高い場合に、自車相対座標系に変換する際の誤差を最小化でき、より精度の高い情報を制御部108で使える利点がある。 In addition, the accuracy of the own vehicle position and posture information within the lane may be increased using the white line position information of the data 2020 from the sensor information integration unit 112. Furthermore, the accuracy of the own vehicle position and attitude information on the road may be increased using the roadside information of the data 2020. If the accuracy of the own vehicle's position increases, if the map synthesized by the map synthesis unit 106 is highly accurate, the error when converting to the own vehicle relative coordinate system can be minimized, and more accurate information can be transmitted to the control unit 108. There are advantages to using it.

センサ道路・レーン構造生成部105からのデータ2009は、前述した道路及びレーン構造情報を想定し、自己位置姿勢推定部104からのデータ2018は、走行支援装置3用に補正された自車位置と姿勢を想定し、地図・経路情報取得部101からのデータ2005は、地図情報を想定し、地図合成部106において制御部108で扱う信頼度の高い最終的な道路及びレーン構造情報を算出する。 The data 2009 from the sensor road/lane structure generation unit 105 assumes the road and lane structure information described above, and the data 2018 from the self-position and orientation estimation unit 104 assumes the own vehicle position corrected for the driving support device 3. Assuming the posture, the data 2005 from the map/route information acquisition unit 101 is assumed to be map information, and the map synthesis unit 106 calculates final road and lane structure information with high reliability that is handled by the control unit 108.

地図合成部106では、データ2018の自車位置及び姿勢に基づき、必要な領域の地図情報をデータ2005から抽出し、データ2009の道路及びレーン構造情報を基準に、データ2005との情報の一致性を検証する。情報間に不一致があれば、データ2009に付加された信頼度情報が低い道路及びレーン構造情報は、データ2005の情報を採用し、信頼度を高める。これにより、より信頼度の高い情報を制御部108に提供でき、ドライバの意図に合う制御が可能となる。なお、地図・ロケータユニットU1から地図情報が提供されない場合は、地図合成部106は、センサ道路・レーン構造生成部105からの道路及びレーン構造情報をデータ2010、2012としてそのまま出力することで、走行支援を継続できる。 The map synthesis unit 106 extracts map information of a necessary area from the data 2005 based on the own vehicle position and orientation of the data 2018, and determines the consistency of the information with the data 2005 based on the road and lane structure information of the data 2009. Verify. If there is a discrepancy between the pieces of information, the road and lane structure information added to the data 2009 with low reliability information uses the information in the data 2005 to increase the reliability. Thereby, more reliable information can be provided to the control unit 108, and control that meets the driver's intention becomes possible. Note that if map information is not provided from the map/locator unit U1, the map synthesis unit 106 outputs the road and lane structure information from the sensor road/lane structure generation unit 105 as data 2010, 2012, thereby improving the driving performance. Support can be continued.

地図・経路情報取得部101からのデータ2004は、経路情報を想定し、自己位置姿勢推定部104からのデータ2008は、走行支援装置3用に補正された自車位置と姿勢を想定し、地図合成部106からのデータ2010は、信頼度を高めた道路及びレーン構造情報を想定する。データ2004の経路情報は、地図合成部106からのデータ2010に自車相対座標で表現された道路及びレーン構造情報の座標関連の情報とマッチングをかけられるよう、地図に依存しない形式の経路を想定する。 The data 2004 from the map/route information acquisition unit 101 assumes route information, and the data 2008 from the own position and orientation estimation unit 104 assumes the own vehicle position and orientation corrected for the driving support device 3, The data 2010 from the synthesis unit 106 assumes road and lane structure information with increased reliability. The route information of the data 2004 is assumed to be a map-independent route so that the data 2010 from the map synthesis unit 106 can be matched with the coordinate-related information of the road and lane structure information expressed in vehicle-relative coordinates. do.

地図に依存しない形式の経路の例として、緯度、経度のリストを経路とし、自己位置姿勢推定部からのデータ2008の自車位置と姿勢に基づき、経路の緯度、経度を自車相対座標に変換する。変換後の経路座標とデータ2010のレーン構造情報に紐づくレーン中心点情報を用い、経路がどの道路に属するかを判断する。 As an example of a route that does not depend on a map, a list of latitudes and longitudes is used as the route, and the latitude and longitude of the route are converted to vehicle-relative coordinates based on the vehicle position and orientation of data 2008 from the self-position and orientation estimation unit. do. Using the converted route coordinates and the lane center point information linked to the lane structure information of the data 2010, it is determined which road the route belongs to.

結果、経路情報付加部107からは、データ2010における道路及びレーン構造情報のIDリストを出力する。また、地図・経路情報取得部101からの案内情報として、この先の道なり、右左折案内を経路情報付加部107のデータ2011に追加してもよい。
それにより、センサが検知できていない領域でも案内情報を活用し、制御部108の走行計画部109でどのレーンに移動すべきかを判断する一材料となる利点がある。
As a result, the route information addition unit 107 outputs an ID list of road and lane structure information in the data 2010. Further, as the guidance information from the map/route information acquisition unit 101, the road ahead and right/left turn guidance may be added to the data 2011 of the route information addition unit 107.
This has the advantage that the guidance information can be utilized even in areas that cannot be detected by the sensor, and can be used as a basis for determining which lane the travel planning section 109 of the control section 108 should move to.

経路情報付加部107からのデータ2011は、データ2010と対応した道路及びレーン構造情報のIDリストやナビゲーションからの案内情報を想定し、地図合成部106からのデータ2012は、信頼度を高めた道路及びレーン構造情報を想定する。制御部108の走行計画部109では、データ2011の経路情報に基づき、走行すべき道路を決定し、データ2010のレーン構造情報に基づき、走行すべきレーンを決定する。あるいは、データ2011の経路情報に基づき走行すべきレーンを決定する。走行すべきレーンは、経路の目的地に到達する上で、交差点の右左折時に何レーン目を走行するとよいかを考慮し、最適なレーンを選択すると本実施形態における走行支援装置3の効果が最大化できる。 The data 2011 from the route information adding unit 107 assumes the ID list of road and lane structure information corresponding to the data 2010 and guidance information from the navigation, and the data 2012 from the map synthesis unit 106 assumes roads with increased reliability. and lane structure information. The travel planning unit 109 of the control unit 108 determines the road on which the vehicle should travel based on the route information in the data 2011, and determines the lane on which the vehicle should travel on the basis of the lane structure information in the data 2010. Alternatively, the lane in which the vehicle should travel is determined based on the route information in the data 2011. The effect of the driving support device 3 in this embodiment can be increased by selecting the optimal lane in consideration of which lane to drive in when turning right or left at an intersection in order to reach the destination of the route. Can be maximized.

走行計画部109からのデータ2013は、走行すべきレーンIDのリストを想定し、地図合成部106からのデータ2012は、レーン構造情報に紐づく制限速度や曲率半径、レーン中心点を想定し、軌道計画部110では、数秒先の自車が走行すべき軌跡と自車の目標速度を決定する。 The data 2013 from the travel planning unit 109 is assumed to be a list of lane IDs to drive in, and the data 2012 from the map synthesis unit 106 is assumed to be the speed limit, radius of curvature, and lane center point linked to lane structure information. The trajectory planning unit 110 determines the trajectory that the vehicle should travel several seconds ahead and the target speed of the vehicle.

走行計画部109からのデータ2014は、走行すべきレーンIDとレーン構造情報を想定し、スピーカー111により、ドライバへの注意喚起として、どのレーンを走行すべきかを通知する。軌道計画部110からのデータ2015は、自車が走行すべき軌跡と自車の目標速度を想定し、アクチュエータDは目標舵角や目標ブレーキ液圧や目標エンジントルクを決定し、制御する。走行支援システムとして自動運転機能を実現する目的では、スピーカー111およびアクチュエータDにデータを出力し、制御まで実施するとよい。
また、走行支援システムとして安全支援を実現する目的であれば、スピーカー111のみにデータを出力し、ドライバに注意喚起するとよい。
The data 2014 from the travel planning unit 109 assumes the lane ID and lane structure information in which the vehicle should travel, and the speaker 111 notifies the driver of which lane the vehicle should travel in as a warning. The data 2015 from the trajectory planning unit 110 assumes the trajectory that the vehicle should travel and the target speed of the vehicle, and the actuator D determines and controls the target steering angle, target brake fluid pressure, and target engine torque. For the purpose of realizing an automatic driving function as a driving support system, it is preferable to output data to the speaker 111 and the actuator D and perform control.
Further, if the purpose is to realize safety support as a driving support system, it is preferable to output data only to the speaker 111 to alert the driver.

[構成]
図3は、センサ道路・レーン構造生成部105と地図合成部106の内部機能を示すブロック図である。
図3では、センサ情報統合部112からのデータと自己位置姿勢推定部104からのデータがセンサ道路・レーン構造生成部105の入力となり、センサ道路・レーン構造生成部105の計算結果が地図合成部106に出力される。そして、地図・経路情報取得部101からのデータと、自己位置姿勢推定部104からのデータと、センサ道路・レーン構造生成部105からのデータとが、地図合成部106の入力となり、地図合成部106の計算結果が出力される。
[composition]
FIG. 3 is a block diagram showing the internal functions of the sensor road/lane structure generation section 105 and the map synthesis section 106.
In FIG. 3, data from the sensor information integration unit 112 and data from the self-position and orientation estimation unit 104 are input to the sensor road/lane structure generation unit 105, and the calculation results of the sensor road/lane structure generation unit 105 are used as the input to the map synthesis unit. 106. The data from the map/route information acquisition unit 101, the data from the self-position/orientation estimation unit 104, and the data from the sensor road/lane structure generation unit 105 are input to the map synthesis unit 106. 106 calculation results are output.

センサ道路・レーン構造生成部105は、レーン中心点列生成部302、領域分割判定部303、レーン情報生成部304、道路情報生成部305、及びセンサ付加情報生成部306を内包する。また、地図合成部106は、地図選択部307、誤り訂正部308、レーン情報生成部309、道路情報生成部310、簡易レーン中心点列生成部311、及び地図付加情報合成部312を内包する。 The sensor road/lane structure generation unit 105 includes a lane center point sequence generation unit 302, a region division determination unit 303, a lane information generation unit 304, a road information generation unit 305, and a sensor additional information generation unit 306. Furthermore, the map synthesis section 106 includes a map selection section 307, an error correction section 308, a lane information generation section 309, a road information generation section 310, a simple lane center point sequence generation section 311, and a map additional information synthesis section 312.

[データの流れ]
図3では、センサ情報統合部112からのデータ2019と自己位置姿勢推定部104からのデータ2007をレーン中心点列生成部302に入力し、データ4005、4006、4007を出力する。
[Data flow]
In FIG. 3, data 2019 from the sensor information integration unit 112 and data 2007 from the self-position and orientation estimation unit 104 are input to the lane center point sequence generation unit 302, and data 4005, 4006, and 4007 are output.

レーン中心点列生成部302からのデータ4005を領域分割判定部303に入力し、データ4008、4009を出力する。レーン中心点列生成部302からのデータ4006をレーン情報生成部304に入力し、データ4010を出力する。領域分割判定部303からのデータ4009とレーン情報生成部304からのデータ4010を道路情報生成部305に入力し、データ4011を出力する。道路情報生成部305からのデータ4011をセンサ付加情報生成部306に入力し、データ2009を出力する。地図・経路情報取得部101からのデータ2005と自己位置姿勢推定部104からのデータ2018を地図選択部307に入力し、データ4015、4023、4024を出力する。 Data 4005 from the lane center point sequence generation unit 302 is input to the area division determination unit 303, and data 4008 and 4009 are output. Data 4006 from the lane center point sequence generation unit 302 is input to the lane information generation unit 304, and data 4010 is output. Data 4009 from the area division determination unit 303 and data 4010 from the lane information generation unit 304 are input to the road information generation unit 305, and data 4011 is output. Data 4011 from the road information generation section 305 is input to the sensor additional information generation section 306, and data 2009 is output. Data 2005 from the map/route information acquisition unit 101 and data 2018 from the self-position and orientation estimation unit 104 are input to the map selection unit 307, and data 4015, 4023, and 4024 are output.

センサ付加情報生成306からのデータ2009と地図選択部307からのデータ4015を誤り訂正部308に入力し、データ4016を出力する。地図選択部307からのデータ4024と誤り訂正部308からのデータ4016をレーン情報生成部309に入力し、データ4017、4018、4019を出力する。レーン情報生成部309からのデータ4017を道路情報生成部310に入力し、データ4022を出力する。 Data 2009 from the sensor additional information generation section 306 and data 4015 from the map selection section 307 are input to the error correction section 308, and data 4016 is output. Data 4024 from the map selection section 307 and data 4016 from the error correction section 308 are input to the lane information generation section 309, and data 4017, 4018, and 4019 are output. Data 4017 from the lane information generation section 309 is input to the road information generation section 310, and data 4022 is output.

地図選択部307からのデータ4023とレーン情報生成部309からのデータ4019を簡易レーン中心点列生成部311に入力し、データ4020を出力する。レーン情報生成部309からのデータ4018と道路情報生成部310からのデータ4022と簡易レーン中心点列生成部311からのデータ4020を地図付加情報合成部312に入力し、データ4021を出力する。 Data 4023 from the map selection unit 307 and data 4019 from the lane information generation unit 309 are input to the simple lane center point sequence generation unit 311, and data 4020 is output. Data 4018 from the lane information generation section 309, data 4022 from the road information generation section 310, and data 4020 from the simple lane center point sequence generation section 311 are input to the map additional information synthesis section 312, and data 4021 is output.

[機能ブロックとデータ内容説明]
センサ情報統合部112からのデータ2019は、処理周期の同期とデータ統合、座標系の統一化が済んでいる白線の位置情報、路端の位置情報等を想定し、レーン中心点列生成部302でセンサ検出範囲に位置する複数レーンの中心点列の位置を算出する。なお、自己位置姿勢推定部104からのデータ2007は、自車位置及び姿勢を想定し、レーン中心点列生成部302で生成されるレーン中心点列の履歴を活用して、出力するレーン中心点列の安定化を図る。レーンには、センサ検出範囲に位置する全てのレーンが含まれ、例えば自車が走行しているレーンの他に、対向車線のレーンや、並行して延びる隣接車線のレーン、交差する道路のレーンなどが含まれる。レーン中心点とは、これらのレーンのレーン中心点、つまり、各レーンにおいてレーンの幅方向中央の点であり、レーン中心点列とは、各レーンのレーン中心点をレーンの延在する方向に繋げた点列である。
[Explanation of functional blocks and data contents]
The data 2019 from the sensor information integration unit 112 is assumed to be white line position information, roadside position information, etc. that have undergone processing cycle synchronization, data integration, and coordinate system unification, and is sent to the lane center point sequence generation unit 302. The positions of the center point arrays of multiple lanes located within the sensor detection range are calculated. Note that the data 2007 from the own position and orientation estimation unit 104 assumes the own vehicle position and orientation, and utilizes the history of the lane center point sequence generated by the lane center point sequence generation unit 302 to determine the lane center point to be output. Try to stabilize the line. Lanes include all lanes located within the sensor detection range, for example, in addition to the lane in which the own vehicle is traveling, lanes of oncoming traffic, lanes of adjacent lanes running parallel to each other, and lanes of intersecting roads. etc. are included. The lane center point is the lane center point of these lanes, that is, the center point in the lane width direction for each lane, and the lane center point column is the lane center point of each lane in the direction in which the lane extends. It is a series of connected points.

自車位置及び姿勢を用いてレーン中心点列生成部302で生成されたレーン中心点列をグローバル座標系に変換し、レーン中心点列生成部302の内部で保持する。そして、次の走行支援装置3の処理周期で履歴内のレーン中心点列の位置を、その時の自車位置及び姿勢から自車相対座標系に変換し、現時刻で算出したレーン中心点列と統合する。これにより瞬間的にレーン中心点列が途切れる処理周期があっても、制御部108にレーン中心点列を連続的に提供でき、走行支援システム全体の安定化が可能となる。 The lane center point sequence generated by the lane center point sequence generation unit 302 using the own vehicle position and orientation is converted into a global coordinate system and held within the lane center point sequence generation unit 302. Then, in the next processing cycle of the driving support device 3, the position of the lane center point sequence in the history is converted from the own vehicle position and attitude at that time to the own vehicle relative coordinate system, and the lane center point sequence calculated at the current time is converted to the own vehicle relative coordinate system. Integrate. As a result, even if there is a processing period in which the lane center point sequence is momentarily interrupted, the lane center point sequence can be continuously provided to the control unit 108, making it possible to stabilize the entire driving support system.

図8は、交差点を通過する際の推奨される走行軌跡と、交差点等の無車線区間の進入点及び退出点を示す図、図9は、右折レーンに進入する前と後における、交差点の道路外との境界を示す点列を示す図、図10は、右折レーンに進入する前と後における、白線の位置を示す点列を示す図である。
本実施形態のレーン中心点列生成部302では、図8のF016に示すように交差点内の推奨される走行軌跡も仮想的なレーンとしてレーン中心点列の生成を想定する。交差点における路端の位置情報の例として、図9のF022のように、交差点の道路外との境界を指す点列の位置が挙げられる。また、交差点における白線の位置情報の例として、図10のF025のように交差点を右左折した先の白線情報を含む。
Figure 8 is a diagram showing the recommended travel trajectory when passing through an intersection, and the entry and exit points of lane-free sections such as intersections. Figure 9 shows the road at the intersection before and after entering the right turn lane. FIG. 10 is a diagram showing a dot sequence indicating the boundary with the outside, and is a diagram showing a dot sequence indicating the position of the white line before and after entering the right turn lane.
The lane center point sequence generation unit 302 of this embodiment assumes that the recommended travel trajectory within an intersection is also a virtual lane and generates a lane center point sequence, as shown in F016 of FIG. An example of the road edge position information at an intersection is the position of a point sequence indicating the boundary between the intersection and the outside of the road, such as F022 in FIG. 9 . Further, as an example of the position information of the white line at the intersection, information on the white line at the destination after turning right or left at the intersection is included, such as F025 in FIG. 10.

レーン中心点列生成部302からのデータ4005は、複数レーンの中心点列を想定し、領域分割判定部303で各レーン中心点列の位置関係に基づき、レーン増減境界を判定する。なお、レーン増加の例として、図5の領域R01とR02の間を境界とする。レーン増減の境界の算出は、図20を用いて説明する。 Data 4005 from the lane center point sequence generation unit 302 assumes a center point sequence of a plurality of lanes, and the area division determination unit 303 determines lane increase/decrease boundaries based on the positional relationship of each lane center point sequence. As an example of lane increase, the boundary is defined as the area R01 and R02 in FIG. 5. Calculation of boundaries for lane increase/decrease will be explained using FIG. 20.

図20は、レーン増減の境界の算出方法を説明する図である。
図20のレーン中心点列F206とF207があり、それぞれの始端点F203、終端点F204から各レーン中心点列に垂線を下ろす。次に、垂線との交点からの距離F201、F202が一定閾値を超えたかを判定し、一定以上であれば、レーン増減の境界とする。図20の例において区間F201のみが一定閾値を超えている場合、F205がレーン増減の境界となる。
FIG. 20 is a diagram illustrating a method for calculating boundaries between lane increases and decreases.
There are lane center point rows F206 and F207 in FIG. 20, and perpendicular lines are drawn from the respective start point F203 and end point F204 to each lane center point row. Next, it is determined whether the distances F201 and F202 from the point of intersection with the perpendicular line exceed a certain threshold value, and if the distances F201 and F202 from the point of intersection with the perpendicular line exceed a certain threshold value, it is determined as a boundary for lane increase/decrease. In the example of FIG. 20, if only section F201 exceeds a certain threshold, F205 becomes the boundary for lane increase/decrease.

また、レーン中心点列生成部302からのデータ4005は、図8に示す交差点等の無車線区間の進入点F022と無車線区間の退出点F017を想定し、領域分割判定部303でこれら進入点及び退出点に基づき、車線がない無車線区間とそれ以外の車線がある車線区間との境界を判定する。 Furthermore, the data 4005 from the lane center point sequence generation unit 302 assumes an entry point F022 of a lane-free section such as an intersection shown in FIG. Based on the exit point and exit point, the boundary between a laneless section with no lanes and a lane section with other lanes is determined.

なお、無車線区間とそれ以外の境界の例として、図5に示す領域R02とR04との間、領域R04とR03との間、領域R04とR05との間、領域R04とR06との間を境界とする。領域分割判定部303で算出した境界に基づき、後段のレーン情報生成部304及び道路情報生成部305で道路及びレーン構造情報にID付けする。 As examples of boundaries between lane-free sections and other boundaries, the boundaries between areas R02 and R04, between areas R04 and R03, between areas R04 and R05, and between areas R04 and R06 shown in FIG. Boundary. Based on the boundaries calculated by the area division determination unit 303, the lane information generation unit 304 and road information generation unit 305 in the subsequent stages assign IDs to the road and lane structure information.

他にも、センサ情報統合部112からの信号の位置情報や停止線、横断歩道の位置から複合的に交差点区間を含む無車線区間とそれ以外の境界を判定してもよい。 Alternatively, the lane-free section including the intersection section and other boundaries may be determined in a composite manner from the position information of the signal from the sensor information integration unit 112, the stop line, and the position of the crosswalk.

なお、無車線区間とは、交差点の他に有料道路の料金所の入口と出口も該当する。図22は、有料道路の料金所周辺を模式的に示す図である。料金所の場合は、センサ情報統合部112から料金所ゲートF046の位置情報とサイズ情報を取得し、料金所ゲートF046の上流側の進入点F041と退出点F042と、下流側の進入点F044と退出点F045を算出するとよい。このように境界を分けることで、レーンの増減や交差点といった選択すべきレーンが変化するポイントでどのように走行計画を変えればよいかを決定できるため、後段ロジックで扱い易くなる効果がある。 In addition to intersections, lane-free sections also include entrances and exits of toll gates on toll roads. FIG. 22 is a diagram schematically showing the area around a toll gate of a toll road. In the case of a toll plaza, the position information and size information of the toll plaza gate F046 are acquired from the sensor information integration unit 112, and the upstream entry point F041 and exit point F042 of the toll plaza gate F046, and the downstream entry point F044 are obtained. It is preferable to calculate the exit point F045. By dividing the boundaries in this way, it is possible to decide how to change the driving plan at points where the lane to be selected changes, such as increase or decrease of lanes or intersections, which has the effect of making it easier to handle in later stage logic.

図3の説明に戻る。
領域分割判定部303からのデータ4008は、レーン増減境界情報や無車線区間とそれ以外の境界情報を想定し、レーン中心点列生成部302からのデータ4006は、レーン中心点列の位置情報を想定し、レーン情報生成部304でレーン情報を生成する。レーン情報とは、図5に示す通り、L01~L03、L04,L05、L11~L13のような白線が存在するレーンと定義し、L06~L10のように交差点内等の白線が存在しない無車線区間を仮想レーンと定義したものである。
Returning to the explanation of FIG. 3.
Data 4008 from the area division determination unit 303 assumes lane increase/decrease boundary information, lane-free section and other boundary information, and data 4006 from the lane center point sequence generation unit 302 assumes position information of the lane center point sequence. Based on this assumption, the lane information generation unit 304 generates lane information. As shown in Figure 5, lane information is defined as lanes with white lines such as L01 to L03, L04, L05, and L11 to L13, and lanes without white lines such as inside intersections such as L06 to L10. The section is defined as a virtual lane.

レーン情報は、L01~L13のようにレーンIDを付与し、それぞれのレーンの前後と左右の接続関係を表す情報を指す。また、1つのレーンには、それに紐づくレーン中心点列位置や白線情報、信号情報等のレーンに関連する情報が付けられている。レーンは、複数のレーンL01~L13を有している。そして、これらの各レーンには、それぞれレーンの構造に関する情報が付けられており、例えば、レーン区間どうしの前後と左右の接続関係を示す情報や、レーン中心点列の位置などの情報が含まれている。 Lane information refers to information that assigns lane IDs such as L01 to L13 and indicates the connection relationship between the front and rear and left and right sides of each lane. Furthermore, one lane is attached with information related to the lane, such as the lane center point array position, white line information, and signal information. The lane includes a plurality of lanes L01 to L13. Each of these lanes is attached with information regarding the structure of the lane, such as information indicating the front/back and left/right connections between lane sections, and the position of lane center point rows. ing.

レーン情報生成部304では、まず、レーン中心点列の位置情報と領域分割判定部303の境界情報に基づき、レーンIDを生成する。そして、各レーンの中心点列の横位置関係に基づき、左右の接続情報を生成する。また、各レーンの中心点列の進行方向の位置関係に基づき前後の接続情報を生成する。最後に各レーンにレーン中心点列位置、白線情報を紐づける。各レーン中心点列の横位置関係とは、例えば左からの並び順を表すため、道路内でどのレーンがどの順序で並んでいるかを表す。 The lane information generation unit 304 first generates a lane ID based on the position information of the lane center point sequence and the boundary information from the area division determination unit 303. Then, left and right connection information is generated based on the lateral positional relationship of the center point rows of each lane. Further, front and rear connection information is generated based on the positional relationship in the traveling direction of the center point array of each lane. Finally, the lane center point row position and white line information are linked to each lane. The lateral positional relationship of each lane center point row represents, for example, the order in which lanes are arranged from the left, and thus indicates which lanes are arranged in which order on the road.

領域分割判定部303からのデータ4009は、レーン増減境界情報や無車線区間とそれ以外の境界情報を想定し、レーン情報生成部304からのデータ4010は、レーンID、前後・左右の接続関係を想定し、道路情報生成部305では、これらのデータ4009と4010とを用いて道路情報を生成する。道路情報とは、図5に示す通り、領域R01~R06と定義されたものである。 Data 4009 from the area division determination unit 303 assumes lane increase/decrease boundary information, lane-free section and other boundary information, and data 4010 from the lane information generation unit 304 assumes lane ID, front/rear/left/right connection relationships. Based on this assumption, the road information generation unit 305 generates road information using these data 4009 and 4010. The road information is defined as regions R01 to R06, as shown in FIG.

道路情報には、R01~R06のように道路IDを付与し、それぞれの道路の前後の接続関係を表す情報を指す。また、1つの道路には、それに紐づく複数のレーンIDが管理される。また、1つの道路には、それに紐づく路端の位置情報が付けられている。 The road information is assigned a road ID such as R01 to R06, and refers to information representing the connection relationship before and after each road. Furthermore, a plurality of lane IDs associated with one road are managed. Furthermore, each road has roadside position information associated with it.

道路情報生成部305では、まず、領域分割判定部303の境界情報に基づき、道路IDを生成する。そして、各道路に前後の接続情報を生成する。また、1つの道路に紐づくレーンIDをデータ4010から算出し、紐づける。最後に1つの道路に紐づく路端の位置情報を紐づける。 The road information generation unit 305 first generates a road ID based on the boundary information from the area division determination unit 303. Then, connection information before and after each road is generated. Furthermore, a lane ID associated with one road is calculated from the data 4010 and associated. Finally, the roadside position information associated with one road is linked.

道路情報生成部305からのデータ4011は、道路情報とそれに紐づくレーン情報を想定し、レーン中心点列生成部302からのデータ4007を想定し、センサ付加情報生成306では、これらのデータ4011と4007を用いて付加的な情報を生成する。付加的な情報は、レーン中心点列を元に生成し、どの道路IDかどのレーンIDに紐づけるかは、データ4011を用いて統合的に判断する。 Data 4011 from the road information generation unit 305 assumes road information and lane information linked thereto, assumes data 4007 from the lane center point sequence generation unit 302, and the sensor additional information generation unit 306 generates these data 4011. and 4007 to generate additional information. Additional information is generated based on the lane center point sequence, and data 4011 is used to comprehensively determine which road ID is to be linked to which lane ID.

付加的な情報の例として、レーン中心点列生成部302からのデータ4007のレーン中心点列の位置に基づき、曲率半径を算出する等が挙げられる。曲率半径の求め方の例としては、レーン中心点列から代表的な3点を選択し、その点を通る円を算出する。 An example of the additional information includes calculating the radius of curvature based on the position of the lane center point sequence in the data 4007 from the lane center point sequence generation unit 302. As an example of how to determine the radius of curvature, three representative points are selected from the lane center point sequence, and a circle passing through those points is calculated.

他にもレーン情報のIDが切り替わるまでの距離をレーン中心点列の位置に基づき算出することやセンサ情報統合部112からの信号情報や停止線、横断歩道情報の位置を道路情報やレーン情報に紐づける等が挙げられる。また、センサSの特性を考慮して、図7に示すような検知範囲F015の検知端や検知距離に応じて道路情報やレーン情報に信頼度情報を紐づける。 In addition, the distance until the lane information ID is switched is calculated based on the position of the lane center point sequence, and the position of signal information, stop line, and crosswalk information from the sensor information integration unit 112 is converted into road information and lane information. Examples include linking. Further, considering the characteristics of the sensor S, reliability information is linked to road information and lane information according to the detection edge and detection distance of the detection range F015 as shown in FIG.

自己位置姿勢推定部104からのデータ2018は、自車位置を想定し、地図・経路情報取得部101からのデータ2005は、地図情報を想定し、地図選択部307では、データ2018の自車位置に基づき、自車位置の周辺の地図をデータ2005から選択する。選択された地図情報は、図6に示す地図ノードF001の位置情報、地図リンク同士のリンク角度F003やリンク本数、道路種別、交差点種別と地図リンクF002の地図ノード間のIDの接続関係や進行レーンのレーン数、対向レーンのレーン数を想定する。 The data 2018 from the self-position and orientation estimation unit 104 assumes the own vehicle position, the data 2005 from the map/route information acquisition unit 101 assumes map information, and the map selection unit 307 assumes the own vehicle position of the data 2018. Based on this, a map around the own vehicle position is selected from the data 2005. The selected map information includes the position information of the map node F001 shown in FIG. 6, the link angle F003 between the map links, the number of links, the road type, the connection relationship of the ID between the intersection type and the map node of the map link F002, and the traveling lane. Assuming the number of lanes and the number of opposing lanes.

センサ付加情報生成306からのデータ2009は、付加情報のある道路及びレーン構造情報を想定し、地図選択部307からのデータ4015は、自車位置に基づき選択された地図情報を想定し、誤り訂正部308ではこれら2つの情報を比較し、地図情報と不一致のあるデータ2009における道路及びレーン構造情報を訂正する。道路及びレーン構造情報は、センサ検知範囲の境界や自車から遠方になるほど精度が低下するセンサに基づくため、得られた位置に応じて道路及びレーン構造情報の信頼度を変化させる。 The data 2009 from the sensor additional information generation unit 306 assumes road and lane structure information with additional information, and the data 4015 from the map selection unit 307 assumes map information selected based on the own vehicle position. The correction unit 308 compares these two pieces of information and corrects the road and lane structure information in the data 2009 that does not match the map information. Since the road and lane structure information is based on a sensor whose accuracy decreases as the distance from the sensor detection range or the distance from the own vehicle increases, the reliability of the road and lane structure information changes depending on the obtained position.

一方で、地図情報は鮮度に課題があり、工事等により実際の道路と形状が異なる場合がある。地図情報から信頼度が得られる場合は、センサ情報を基にした道路及びレーン構造情報の信頼度が低く、地図情報からの信頼度が高い場合に地図情報と道路及びレーン構造情報に不一致があれば、道路及びレーン構造情報を訂正する。これにより、鮮度に課題がある地図情報のみを信頼し、最終結果が誤ってしまうという可能性を低減できる。 On the other hand, map information has issues with its freshness, and the shape of the road may differ from the actual road due to construction work. When reliability can be obtained from map information, the reliability of road and lane structure information based on sensor information is low, and when reliability from map information is high, there is a discrepancy between map information and road and lane structure information. For example, correct road and lane structure information. As a result, it is possible to reduce the possibility that only map information that has a problem with freshness will be trusted and the final result will be incorrect.

誤り訂正部308からのデータ4016は、地図情報による訂正済みの道路及びレーン構造情報を想定し、地図選択部307からのデータ4024は、進行レーンのレーン数と道路種別、交差点種別とリンク本数を想定し、レーン情報生成部309で、データ4016に含まれないレーン情報を生成する。そして、生成したレーン情報とデータ4016のレーン情報との接続関係を算出する。最終的には、新たに生成したレーン情報と接続情報をデータ4016に追加し、データ4017、4019を出力する。 The data 4016 from the error correction unit 308 assumes corrected road and lane structure information based on map information, and the data 4024 from the map selection unit 307 assumes the number of traveling lanes, road types, intersection types, and number of links. Based on this assumption, the lane information generation unit 309 generates lane information that is not included in the data 4016. Then, the connection relationship between the generated lane information and the lane information of data 4016 is calculated. Finally, the newly generated lane information and connection information are added to the data 4016, and data 4017 and 4019 are output.

レーン情報生成部309からのデータ4017は、センサ情報に基づくレーン情報と地図情報に基づくレーン情報とを合成したレーン情報を持つ道路及びレーン構造情報を想定し、道路情報生成部310において、合成された地図情報に基づくレーン情報が属する道路情報を生成する。そして、生成した道路情報とデータ4017の道路情報との接続関係を算出する。最終的には、新たに生成した道路情報と接続情報をデータ4017に追加し、データ4022を出力する。 Data 4017 from the lane information generation unit 309 is synthesized in the road information generation unit 310, assuming road and lane structure information having lane information that is a combination of lane information based on sensor information and lane information based on map information. The road information to which the lane information belongs is generated based on the map information. Then, the connection relationship between the generated road information and the road information of data 4017 is calculated. Finally, the newly generated road information and connection information are added to the data 4017, and data 4022 is output.

レーン情報生成部309からのデータ4019は、センサ情報に基づくレーン情報と地図情報に基づくレーン情報を想定し、地図選択部307からのデータ4023は、地図ノードの位置情報、地図リンク同士のリンク角度、進行レーンのレーン数を活用し、簡易レーン中心点列生成部311において、簡易的なレーン中心点を生成する。 Data 4019 from the lane information generation unit 309 assumes lane information based on sensor information and lane information based on map information, and data 4023 from the map selection unit 307 assumes position information of map nodes and link angles between map links. , a simple lane center point sequence generation unit 311 generates a simple lane center point by utilizing the number of lanes of travel lanes.

図19は、レーン中心点の生成方法の一例を説明する図である。
レーン中心点の生成は、例えば図19に示す自車F100が交差点を右折するシーンでは、地図ノードF109から交差点の大きさの1/2、つまり交差点の半分のサイズである距離F105の地点から地図リンクF107に対して垂線F106を下ろし、地図リンクF107から道路中心推定距離F104の地点に退出点F110を設定する。
FIG. 19 is a diagram illustrating an example of a method for generating a lane center point.
For example, in the scene where the vehicle F100 turns right at an intersection shown in FIG. 19, the lane center point is generated from the map node F109 at a distance F105, which is half the size of the intersection, that is, half the size of the intersection. A perpendicular line F106 is drawn down to the link F107, and an exit point F110 is set at a point at an estimated road center distance F104 from the map link F107.

なお、道路中心推定距離F104は、地図リンクF107の(進行レーンのレーン数×3.5m)/2と想定する。道路中心とするのは、簡易地図自体は精度が保証される情報ではないため、レーンレベルで退出点を生成するのではなく、目安として退出点を設定するためである。また、交差点のサイズ/2の距離F105は、自車F100が存在する進行レーンの各レーンのレーン幅を加算した値を交差点のサイズと設定する。なお、リンク角度はF101とF107のリンク角度F103を使用する。 Note that the estimated road center distance F104 is assumed to be (number of traveling lanes x 3.5 m)/2 of the map link F107. The reason for setting the road center is to set the exit point as a guide, rather than generating the exit point at the lane level, since the simple map itself is not information whose accuracy is guaranteed. Further, the distance F105 of intersection size/2 is set as the intersection size, which is the sum of the lane widths of each lane of the lane in which the host vehicle F100 is present. Note that the link angle F103 of F101 and F107 is used.

そして、データ4019に含まれる退出点F110が属する道路の延長線F112と進入点F102が属するレーンの延長線F111との交差する点F113における交差角をリンク角度F103とし、データ4019に含まれる交差点の進入点F102と退出点F110と点F113の角度F103により、円弧やクロソイド曲線、スプライン曲線、ベジエ曲線等で近似し、レーン中心点を生成する。なお、生成したレーン中心点に基づき交差点を退出するまでを本情報で制御するわけではなく、交差点に進入するための目安とし、進入後に自車F100が交差点退出側の白線情報や路端情報を検出するまでのつなぎとする。なお、交差点退出点は1点であるが交差点の進入点は複数点を想定し、交差点に進入するレーン毎に簡易レーン中心点を生成する。 Then, the intersection angle at the point F113 where the extension line F112 of the road to which the exit point F110 included in the data 4019 belongs and the extension line F111 of the lane to which the entry point F102 belongs is defined as the link angle F103, and the intersection angle included in the data 4019 is set as the link angle F103. An angle F103 between the approach point F102, the exit point F110, and the point F113 is approximated by a circular arc, a clothoid curve, a spline curve, a Bezier curve, etc., and a lane center point is generated. Note that this information does not control the process until exiting the intersection based on the generated lane center point, but is used as a guide for entering the intersection, and after entering the intersection, the own vehicle F100 uses the white line information and road edge information on the exit side of the intersection. This will be used as a link until detection. Note that although the intersection exit point is one point, the intersection entry points are assumed to be multiple points, and a simple lane center point is generated for each lane entering the intersection.

道路情報生成部310からのデータ4022は、データ2009の道路情報にデータ4015を合成した道路情報を想定し、データ4018は、データ2009のレーン情報にデータ4015を合成したレーン情報を想定し、地図付加情報合成部312では、これらのデータを用いて、センサ道路・レーン構造生成部105の道路及びレーン構造情報には含まれておらず、地図にしか存在しない付加情報、つまり、地図のみに存在する付加情報を、センサ道路・レーン構造生成部105からの道路及びレーン構造情報に合成する。地図にしか存在しない付加情報の例として、地図の道路種別や制限速度等を想定する。また、簡易レーン中心点列生成部311からのデータ4020に関しても地図付加情報合成部312において、道路及びレーン構造情報に合成する。そして、地図合成部の最終出力としてデータ4021を出力する。 The data 4022 from the road information generation unit 310 is assumed to be road information obtained by combining the road information of the data 2009 with the data 4015, and the data 4018 is assumed to be lane information obtained by combining the lane information of the data 2009 with the data 4015. The additional information synthesis unit 312 uses these data to generate additional information that is not included in the road and lane structure information of the sensor road/lane structure generation unit 105 and exists only in the map, that is, additional information that exists only in the map. This additional information is combined with the road and lane structure information from the sensor road and lane structure generation unit 105. As an example of additional information that only exists on a map, consider the road type and speed limit on the map. Furthermore, the data 4020 from the simple lane center point sequence generation section 311 is also synthesized with the road and lane structure information in the map additional information synthesis section 312. Then, data 4021 is output as the final output of the map synthesis section.

[図4の説明]
レーン中心点列生成部302の詳細例について図4のフローチャートを用いて説明する。
まず、図10に示す白線情報F024に基づき、S01~S04の処理により、検知した全ての白線点列のペアに対し、中心点列の候補を生成する。本処理は、白線が検知可能な区間のための処理となる。ここでの白線点列とは、連続的に繋がった白線を表し、その白線の2つをペアとする。なお、破線の場合は例外とし、継続的に線が続いている場合は、白線の1つとする。
[Explanation of Figure 4]
A detailed example of the lane center point sequence generation unit 302 will be described using the flowchart of FIG. 4.
First, based on the white line information F024 shown in FIG. 10, center point sequence candidates are generated for all pairs of detected white line point sequences through the processes S01 to S04. This process is for sections where white lines can be detected. The white line dot sequence here represents a series of continuously connected white lines, and two of the white lines are made into a pair. An exception will be made in the case of broken lines, and if the line continues continuously, it will be treated as one of the white lines.

次に、白線が検知できない無車線区間のための処理として、S05~S08は、図10に示す白線情報F024及び図9に示す路端情報F022に基づき、仮想的なレーン中心点を算出する。最後に、S01~S04までのレーン中心点と、S05~S08までの仮想的なレーン中心点をS09で統合する。これにより、無車線区間を間に介したレーン同士の接続関係を示すレーン構造情報を生成することができる。 Next, in steps S05 to S08, a virtual lane center point is calculated based on the white line information F024 shown in FIG. 10 and the road edge information F022 shown in FIG. 9 as processing for a laneless section where no white line can be detected. Finally, the lane center points from S01 to S04 and the virtual lane center points from S05 to S08 are integrated in S09. Thereby, lane structure information indicating the connection relationship between lanes with a lane-free section in between can be generated.

図4のS01~S04の処理について説明する。
S01は、全ての白線点列のペアを処理したかどうかを判断するための繰り返しの条件である。白線が検知可能な区間においては、1つのレーンは2つの白線点列から構成されるため、本処理ではそのペアに対し、繰り返し処理する。
The processing of S01 to S04 in FIG. 4 will be explained.
S01 is a repetition condition for determining whether all pairs of white line point sequences have been processed. In a section where a white line can be detected, one lane is composed of two white line dot arrays, so in this process, the pair is repeatedly processed.

次に、S02において、白線点列のペアを選択する。図10の例のように自車の進行方向に連続して位置する白線点列だけではなく、垂直に位置する交差点を抜けた右左折側の白線点列も処理の対象とする。 Next, in S02, pairs of white line dot columns are selected. As in the example of FIG. 10, not only the rows of white line dots located continuously in the direction of travel of the host vehicle, but also the rows of white line dots on the right/left turn side after exiting an intersection located perpendicularly are subject to processing.

S03において、選択された白線点列のペアから、レーン中心点列の候補を生成する。 In S03, lane center point sequence candidates are generated from the selected pair of white line point sequences.

次に、S04において、レーン中心点候補から必要な中心点のみを絞り込む。例えば、白線点列同士の距離が一般的なレーン幅3.5mに近いかどうかを指標とし、極端に短いか長いものに関しては、後段の処理から除外する。これにより、後段の処理時間削減が可能である。また、路端情報により自車から見てレーン中心点列候補の位置が路端の外にあるかを判断し、レーン中心点列候補から除外する。 Next, in S04, only necessary center points are narrowed down from the lane center point candidates. For example, whether the distance between the white line dots is close to the general lane width of 3.5 m is used as an index, and if it is extremely short or long, it is excluded from the subsequent processing. This makes it possible to reduce the processing time at the subsequent stage. Also, based on the road edge information, it is determined whether the position of the lane center point array candidate is outside the road edge when viewed from the own vehicle, and the lane center point array candidate is excluded from the lane center point array candidates.

次に、S05~S08の処理について説明する。 Next, the processing of S05 to S08 will be explained.

S05は、無車線区間を検出するための条件である。例えば、図10の白線情報F024が交差点進入口で途切れ、交差点の直進、右左折側の交差点退出口で白線が現れるパターンを判断して無車線区間とする。他にも、図9の路端情報F02により、交差点の形状パターンを判断して無車線区間としてもよく、白線情報と交差点手前の停止線や横断歩道から複合的に無車線区間を判断してもよい。また、判断の確度を上げるために、図12に示すような、交差点の特徴点として、右左折の方法F018の標示の情報を、使ってもよい。また、図13のように交差点手前の停止線だけでなく、交差点内の停止線F019の標示の情報を使ってもよく、図14のように信号情報F021を使ってもよい。図12、交差点内に標示される、右左折の方法F018を示す図、図13は、交差点内の停止線F019を示す図である。 S05 is a condition for detecting a lane-free section. For example, a pattern in which the white line information F024 in FIG. 10 is interrupted at the intersection entrance, and a white line appears at the intersection exit exit on the straight-ahead or right-left turn side is determined and determined to be a lane-free section. In addition, the shape pattern of the intersection may be determined using the road edge information F02 2 in Figure 9 to determine a lane-free section, or the lane-free section may be determined from a combination of white line information, a stop line in front of the intersection, and a crosswalk. It's okay. Further, in order to increase the accuracy of the judgment, information on the sign indicating the right/left turn method F018 may be used as a feature point of the intersection, as shown in FIG. 12. Furthermore, in addition to the stop line before the intersection as shown in FIG. 13, the information on the sign of the stop line F019 inside the intersection may be used, or the signal information F021 as shown in FIG. 14 may be used. FIG. 12 is a diagram showing the right/left turn method F018 marked inside the intersection, and FIG. 13 is a diagram showing the stop line F019 inside the intersection.

S06では、交差点の進入点を算出する。進入点とは、例えば図8に示すF022を指し、図10の白線F024から算出したS01~S04のレーン中心点の端点を選択する。 In S06, the intersection entry point is calculated. The entry point refers to, for example, F022 shown in FIG. 8, and selects the end point of the lane center point of S01 to S04 calculated from the white line F024 in FIG. 10.

S07では、交差点の退出点を算出する。退出点とは、図8に示すF017を指し、S06と同様に図10の白線F024から算出したS01~S04のレーン中心点の端点を選択する。また、図10の白線F024が検出できず、図9の路端情報F022が検出できる場合は、路端点の間隔F023を道路幅として仮定し、幅からレーン数を推定して、退出点を生成するとよい。また、図14の信号情報の位置F021を元に、右折後の最左レーンの退出点のみ推定してもよい。これらを複合的に判断し、安定した出力を算出するとよい。 In S07, the exit point of the intersection is calculated. The exit point refers to F017 shown in FIG. 8, and similarly to S06, the end point of the lane center point of S01 to S04 calculated from the white line F024 of FIG. 10 is selected. In addition, if the white line F024 in Figure 10 cannot be detected but the road edge information F022 in Figure 9 can be detected, the interval F023 between the road edge points is assumed to be the road width, the number of lanes is estimated from the width, and the exit point is generated. It's good to do that. Further, based on the position F021 of the signal information in FIG. 14, only the exit point of the leftmost lane after a right turn may be estimated. It is best to consider these factors in combination and calculate a stable output.

S08では、S06で算出した進入点とS07で算出した退出点の組み合わせを決定し、仮想的なレーン中心点列を算出する。仮想的なレーン中心点列とは、例えば図8における交差点内の点線で示した中心点列を指す。仮想的なレーン中心点列は、進入点を有するレーンと退出点を有するレーンとの間の無車線区間を仮想的なレーンで接続した場合に、その仮想的なレーンのレーン中心点列となる。どの進入点と退出点を接続するかについては、図5のレーンL03はレーンが増加し、右折専用レーンであるため、レーンL03上に位置する進入点は、交差点右折側のレーンL12やL13上に位置する退出点と接続する。 In S08, a combination of the approach point calculated in S06 and the exit point calculated in S07 is determined, and a virtual lane center point sequence is calculated. The virtual lane center point sequence refers to, for example, the center point sequence indicated by dotted lines within the intersection in FIG. 8. A virtual lane center point sequence becomes a lane center point sequence of a virtual lane when a lane without lanes between a lane with an entry point and a lane with an exit point is connected by a virtual lane. . As for which approach point and exit point should be connected, lane L03 in Figure 5 has an additional lane and is a right-turn only lane, so the approach point located on lane L03 should be connected to lane L12 or L13 on the right-turn side of the intersection. Connect with the exit point located at .

この際、図13に示す交差点内の停止線F019の情報を活用することによって、右折側に接続されるレーンである確度が上がるため、本情報を持って誤接続を防止するとよい。また、図5のレーンL02上に位置する進入点は、交差点左折側のレーンL04やL05と直進のレーンL11上に位置する退出点と接続する。 At this time, by utilizing the information on the stop line F019 in the intersection shown in FIG. 13, the accuracy that the lane is connected to the right turn side increases, so it is good to have this information to prevent erroneous connections. Further, the entry point located on the lane L02 in FIG. 5 connects with the exit point located on the lane L04 or L05 on the left-turn side of the intersection and the straight lane L11.

図21は、交差点の進入点と退出点から仮想レーン中心点列を生成する方法の一例を示す図である。接続する際の仮想的なレーン中心点列は、図21に示すように、進入点F022と退出点F017を、レーン中心点近似用の制御点とする。そして、退出点F017が属するレーンの延長線F033と、進入点F022が属するレーンの延長線F032とが交差する点F031の交差角F034を用い、円弧やクロソイド曲線、スプライン曲線、ベジエ曲線等で近似する。 FIG. 21 is a diagram illustrating an example of a method for generating a virtual lane center point sequence from intersection entry points and exit points. As shown in FIG. 21, a virtual lane center point sequence for connection uses an entry point F022 and an exit point F017 as control points for lane center point approximation. Then, using the intersection angle F034 of the point F031 where the extension line F033 of the lane to which the exit point F017 belongs and the extension line F032 of the lane to which the entry point F022 belongs intersect, it is approximated by a circular arc, clothoid curve, spline curve, Bezier curve, etc. do.

なお、図12に示す右左折の方法F018を通り過ぎないことや、図13の交差点内の停止線F019の中心を通るように、それぞれの右左折の方法F018や交差点内の停止線F019を制御点の1つとして近似してもよい。また、図11に示すように先行車F026の位置の履歴を活用し、仮想的なレーン中心点を生成してもよい。先行車F026は、カメラセンサS1やLiDARセンサS2を備えていてもよく、C2XやV2Xからの情報を得てもよい。 Note that each right/left turn method F018 and the stop line F019 in the intersection should be set as control points so as not to pass the right/left turn method F018 shown in FIG. 12 and to pass through the center of the stop line F019 in the intersection shown in FIG. It may be approximated as one of the following. Furthermore, as shown in FIG. 11, a virtual lane center point may be generated by utilizing the history of the position of the preceding vehicle F026. The preceding vehicle F026 may be equipped with a camera sensor S1 and a LiDAR sensor S2, and may obtain information from C2X and V2X.

以上のようにS05~S08により、交差点や料金所等の無車線区間においても、進入点および退出点と交差角の算出により、無車線区間内におけるセンサ情報が少ない状況においても無車線区間におけるレーンレベルの走行計画が可能となる効果がある。 As described above, with S05 to S08, even in laneless sections such as intersections and toll gates, by calculating the approach point, exit point, and intersection angle, the lane in the laneless section can be adjusted even in situations where there is little sensor information in the laneless section. This has the effect of making it possible to plan a level trip.

[図15、図16の説明] 図7において、交差点の右折専用レーン発生手前でのセンサ検知範囲F015に対する本実施形態の処理結果の例を説明する。 [Description of FIGS. 15 and 16] In FIG. 7, an example of the processing results of this embodiment for the sensor detection range F015 before the occurrence of the right turn lane at the intersection will be described.

まず、図3におけるセンサ道路・レーン構造生成部105の算出例を説明する。
図7に示す検知範囲F015に対して、図10の白線情報と図9の路端情報が検知されたとする。図10に示す例では、白線情報は、右折専用レーンの増加を検知しており、また、交差点左折側の白線が検知できている。また、図9に示す例では、路端情報は、交差点左折側と右折対向車線側を検知できている。
First, an example of calculation by the sensor road/lane structure generation unit 105 in FIG. 3 will be explained.
Assume that the white line information in FIG. 10 and the roadside information in FIG. 9 are detected in the detection range F015 shown in FIG. 7 . In the example shown in FIG. 10, the white line information detects an increase in the number of right turn lanes, and also detects the white line on the left turn side of the intersection. Further, in the example shown in FIG. 9, the road edge information can detect the left turn side of the intersection and the right turn oncoming lane side.

以上のデータを利用し、まず、図4のS01~S04までの処理により、図15に示すように、自車位置から交差点までのレーン1~3及び交差点左折側のレーン4とレーン5までのレーン中心点列が検知できる。 Using the above data, first, through the processing from S01 to S04 in Figure 4, as shown in Figure 15, lanes 1 to 3 from the own vehicle position to the intersection, and lanes 4 and 5 on the left turn side of the intersection are The lane center point sequence can be detected.

そして、白線が交差点手前で途切れることから、図4のS06の処理により、図15のレーン2とレーン3に対し、交差点への進入点が算出できる。次に、図4のS07の処理により、レーン4とレーン5の交差点からの退出点が算出できる。最後に図4のS08の処理により、無車線区間において、レーン2とレーン4を接続するためのレーン6におけるレーン中心点列が算出できる。また、レーン2とレーン5を接続するためのレーン7におけるレーン中心点列が算出できる。 Since the white line breaks before the intersection, the entry point to the intersection can be calculated for lane 2 and lane 3 in FIG. 15 by the process in S06 in FIG. Next, through the process of S07 in FIG. 4, the exit point from the intersection of lanes 4 and 5 can be calculated. Finally, through the process of S08 in FIG. 4, the lane center point sequence for lane 6 for connecting lane 2 and lane 4 in the no-lane section can be calculated. Furthermore, a lane center point sequence in lane 7 for connecting lane 2 and lane 5 can be calculated.

それぞれのレーン中心点列が生成できれば、レーン中心点列の位置関係により、図15における各レーンの左右接続F030が生成でき、前後接続F031が生成できる。そして、それぞれのレーン増減と交差点の境界点に基づき、道路情報として、領域R01、R02、R03、R04が生成され、その前後接続F031が生成できる。また、交差点右折側は、白線情報は検知できていないが、路端情報として右折側の角が検知できているため、領域R06とその接続F032が生成できる。 If each lane center point string can be generated, the left-right connection F030 of each lane in FIG. 15 can be generated, and the front-back connection F031 can be generated depending on the positional relationship of the lane center point strings. Then, areas R01, R02, R03, and R04 are generated as road information based on the increase/decrease of each lane and the boundary point of the intersection, and a connection F031 before and after them can be generated. Furthermore, although white line information has not been detected on the right-turn side of the intersection, since the corner on the right-turn side has been detected as road edge information, region R06 and its connection F032 can be generated.

次に、図3における地図合成部106の算出例を説明する。
簡易地図として図6に示す情報が提供されているとする。本地図によると交差点種別は十字路であり、地図リンクF002では、右左折側において進行レーンが2レーン、対向レーンが2レーン、直進において進行レーンが1レーン、対向レーンが2レーンあるとする。
Next, an example of calculation by the map synthesis unit 106 in FIG. 3 will be explained.
Assume that the information shown in FIG. 6 is provided as a simple map. According to this map, the intersection type is a crossroads, and in map link F002, there are two forward lanes and two oncoming lanes on the right/left turn side, and one forward lane and two oncoming lanes when going straight.

センサ道路・レーン構造生成部105の算出例と簡易地図を比較すると、センサ道路・レーン構造生成部105で生成できている情報のレーン数及び道路の接続は簡易地図と一致するため、図3の誤り訂正部における訂正はなされない。しかし、センサ道路・レーン構造生成部105では、交差点直進の道路及びレーン情報と交差点右折側のレーン情報が生成されていないため、図15に示すように、地図合成部106では、道路情報F033とそれに属するレーン11をセンサ道路・レーン構造生成部105の結果に合成する。 Comparing the calculation example of the sensor road/lane structure generation unit 105 with the simple map, the number of lanes and road connections in the information generated by the sensor road/lane structure generation unit 105 match the simple map, so the values shown in FIG. No correction is made in the error correction section. However, since the sensor road/lane structure generation unit 105 does not generate the road and lane information for going straight through the intersection and the lane information for the right-turn side of the intersection, the map synthesis unit 106 generates the road information F033 and the lane information for the right-turn side of the intersection, as shown in FIG. The lane 11 belonging thereto is synthesized with the result of the sensor road/lane structure generation unit 105.

また、交差点右折側では、領域R06に属するレーンとして、簡易地図の進行レーンが2レーンという情報からレーンF034(レーン12とレーン13)を生成する。そして、交差点内の領域R04に対し、不足するレーンを生成する。ここでは、レーン2とレーン11とを接続するレーン8を生成する。また、レーン3とレーン12とレーン13を接続するレーン9とレーン10を生成する。 Furthermore, on the right-turn side of the intersection, lane F034 (lane 12 and lane 13) is generated as a lane belonging to region R06 based on the information that there are two lanes of travel on the simple map. Then, an insufficient lane is generated for the area R04 within the intersection. Here, lane 8 connecting lane 2 and lane 11 is generated. Furthermore, lanes 9 and 10 connecting lanes 3, 12, and 13 are generated.

なお、簡易地図のみで生成した道路情報及びレーン情報の信頼度を設定しておくことで、制御として自車速度を上げすぎないよう安全側の対応が可能となる。例えば、レーン13が目的とする経路である場合、簡易地図から生成された情報と判断できるため、低速で交差点に進入し、交差点右折側の白線情報や路端情報が検知でき始めるまで徐々に進行する等の対応が可能となる。センサで見えた情報のみの提供となると、見えるまでは制御ができず、車両を動かせない状況になるのを防止できる利点がある。また、混雑等の状況で右折できない場合においてもセンサで検知できている左折に進行する等の異常時の動作に安全に移行できる利点がある。 Note that by setting the reliability of the road information and lane information generated only from the simple map, it is possible to take safe measures to prevent the own vehicle speed from increasing too much as a control. For example, if lane 13 is the intended route, the information can be determined to have been generated from a simple map, so enter the intersection at low speed and gradually advance until you can begin to detect the white line information and road edge information on the right-turn side of the intersection. It becomes possible to take measures such as Providing only the information seen by the sensors means that until the information is seen, no control can be taken, which has the advantage of preventing a situation in which the vehicle cannot be moved. Furthermore, even if a right turn is not possible due to congestion or the like, there is an advantage that the vehicle can safely shift to an abnormal operation detected by the sensor, such as proceeding to a left turn.

図7において、交差点の右折専用レーン移動時でのセンサ検知範囲F020に対する本実施形態の処理結果の例を説明する。
交差点の右折専用レーンに自車が移ると、より多くの白線情報及び路端情報が検出できるようになる。例えば、図10の白線情報では、検知範囲F020において、交差点右折側の白線情報が検知できるようになる。また、図9の路端情報では、検知範囲F020において、交差点右左折側の路端情報が検知できるようになる。
In FIG. 7, an example of the processing results of this embodiment for the sensor detection range F020 when moving in the right turn lane at an intersection will be described.
When the vehicle moves to the right turn lane at the intersection, more white line information and road edge information can be detected. For example, with the white line information in FIG. 10, the white line information on the right turn side of the intersection can be detected in the detection range F020. Further, in the road edge information shown in FIG. 9, road edge information on the right and left turn sides of the intersection can be detected in the detection range F020.

したがって、図16に示すように、センサ道路・レーン構造生成部105では、これまで検知できていないレーンL12とレーンL13が生成でき、それに接続される交差点内のレーンL9とレーンL10が生成できる。また、交差点直進側に路端が検出されていないことから、領域R05が生成できる。ただし、白線情報は検知されていないため、レーン情報は生成できない。 Therefore, as shown in FIG. 16, the sensor road/lane structure generation unit 105 can generate lanes L12 and L13 that have not been detected so far, and can generate lanes L9 and L10 in the intersection connected to them. Furthermore, since no road edge is detected on the straight-ahead side of the intersection, region R05 can be generated. However, since no white line information has been detected, lane information cannot be generated.

これに対し、地図合成部106を処理すると、領域R05において、簡易地図の進行レーンが1レーンであることから、レーンL11を生成でき、それに接続されるレーンL8が生成できる。 On the other hand, when the map synthesis unit 106 processes the lane L11 in the region R05, since the simple map has one lane of travel, the lane L11 can be generated, and the lane L8 connected thereto can be generated.

[図17の説明] 地図合成部106における誤り訂正部308の例について図17を用いて説明する。
図7の検知範囲F020において、図17に示すセンサ道路・レーン構造生成部105の出力にセンサの誤検知が原因で交差点直進にレーンL11とレーンL14の2レーンが生成されたとする。白線情報のみから判断すると交差点直進側は対向レーンが2レーン、進行レーンが1レーンあることから進行レーンの数を誤ることはありうるケースである。
この際に、簡易地図の進行レーンが1レーンである情報を用いて、レーンL14は誤りとして、最終出力から除外する。これにより、より確度の高い情報を用いて信頼性の高い情報が生成でき、信頼度向上できる利点がある。
[Description of FIG. 17] An example of the error correction section 308 in the map synthesis section 106 will be explained using FIG. 17.
Assume that in the detection range F020 of FIG. 7, two lanes, lane L11 and lane L14, are generated in the output of the sensor road/lane structure generation unit 105 shown in FIG. 17 for going straight through the intersection due to sensor erroneous detection. Judging from only the white line information, there are two oncoming lanes and one proceeding lane on the straight-ahead side of the intersection, so it is possible to misjudge the number of proceeding lanes.
At this time, using the information that the simple map has one lane of travel, lane L14 is treated as an error and excluded from the final output. This has the advantage that highly reliable information can be generated using more accurate information and reliability can be improved.

<第2実施形態>
実施例2における走行支援装置の内部処理ブロックの構成を図18に例示する。
[構成]
図18は、地図・ロケータユニットU1からの地図情報として、高精度地図を追加で利用する場合の構成を指す。図18は、実施例1における図2の構成に対し、高精度地図情報取得部131、地図道路・レーン構造生成部132、及び、最適道路・レーン構造選択部133を追加した構成となる。
<Second embodiment>
FIG. 18 illustrates the configuration of an internal processing block of the driving support device in the second embodiment.
[composition]
FIG. 18 shows a configuration in which a high-precision map is additionally used as map information from the map/locator unit U1. 18 has a configuration in which a high-precision map information acquisition unit 131, a map road/lane structure generation unit 132, and an optimal road/lane structure selection unit 133 are added to the configuration of FIG. 2 in the first embodiment.

[データの流れ] 図2に対する差分のみ説明するが、地図・経路情報取得部101、位置姿勢情報取得部102、センサ情報取得部103、センサ情報統合部112、自己位置姿勢推定部104、及び、センサ道路・レーン構造生成部105と、それらブロックへのデータの流れは図2と同様である。 [Data Flow] Only the differences with respect to FIG. 2 will be explained, but the map/route information acquisition unit 101, position and orientation information acquisition unit 102, sensor information acquisition unit 103, sensor information integration unit 112, self-position and orientation estimation unit 104, and The sensor road/lane structure generation unit 105 and the flow of data to these blocks are the same as in FIG.

図18では、地図・ロケータユニットU1からのデータ2031を高精度地図情報取得部131に入力し、データ2032を出力する。高精度地図情報取得部131からのデータ2032と自己位置姿勢推定部104からのデータ2037を地図道路・レーン構造生成部132に入力し、データ2033を出力する。 In FIG. 18, data 2031 from the map/locator unit U1 is input to the high-precision map information acquisition section 131, and data 2032 is output. Data 2032 from the high-precision map information acquisition unit 131 and data 2037 from the self-position and orientation estimation unit 104 are input to the map road/lane structure generation unit 132, and data 2033 is output.

地図・経路情報取得部101からのデータ2005と、自己位置姿勢推定部104からのデータ2018と、センサ道路・レーン構造生成部105からのデータ2009を地図合成部に入力し、データ2034を出力する。なお、出力データは、図2の2010、2012と同様である。 Data 2005 from the map/route information acquisition unit 101, data 2018 from the self-position/orientation estimation unit 104, and data 2009 from the sensor road/lane structure generation unit 105 are input to the map synthesis unit, and data 2034 is output. . Note that the output data is the same as 2010 and 2012 in FIG.

地図合成部106からのデータ2034と地図道路・レーン構造生成部132からのデータ2033を最適道路・レーン構造選択部133に入力し、データ2035、2036を出力する。 Data 2034 from the map synthesis unit 106 and data 2033 from the map road/lane structure generation unit 132 are input to the optimal road/lane structure selection unit 133, and data 2035 and 2036 are output.

地図・経路情報取得部101からのデータ2004と自己位置姿勢推定部104からのデータ2008と最適道路・レーン構造選択部133からのデータ2035を経路情報付加部107に入力し、データ2011を出力する。 Data 2004 from the map/route information acquisition unit 101, data 2008 from the self-position/orientation estimation unit 104, and data 2035 from the optimal road/lane structure selection unit 133 are input to the route information addition unit 107, and data 2011 is output. .

最適道路・レーン構造選択部133からのデータ2036と経路情報付加部107からのデータ2011を制御部108に入力し、データ2014、2015を出力する。 Data 2036 from the optimal road/lane structure selection unit 133 and data 2011 from the route information addition unit 107 are input to the control unit 108, and data 2014 and 2015 are output.

[機能ブロックとデータ内容説明]
地図・ロケータユニットU1からのデータ2031は、データ2001とは異なり、高精度地図情報を想定し、高精度地図情報取得部131でデータを取得し、必要に応じて変換をかけ、メモリに格納する。なお、高精度地図は、図6に示す簡易地図の情報に加え、レーンレベルの情報を持ち、例えば、図8に示すような各レーンの形状を表す情報であるF016に類する情報を持つ。また、形状や地図ノードの位置等に関しても、簡易地図に対し、精度が数cmの情報を想定する。高精度地図情報取得部131での変換例としては、緯度、経度のようなグローバル座標系の情報を平面座標系に変換する等が挙げられる。これにより、後段の距離計算が容易になる。
[Explanation of functional blocks and data contents]
Unlike the data 2001, the data 2031 from the map/locator unit U1 is assumed to be high-precision map information, and is acquired by the high-precision map information acquisition unit 131, converted as necessary, and stored in memory. . In addition to the information of the simple map shown in FIG. 6, the high-precision map has lane level information, for example, information similar to F016, which is information representing the shape of each lane as shown in FIG. Furthermore, regarding the shape and location of map nodes, information with an accuracy of several centimeters is assumed for the simple map. Examples of conversion by the high-precision map information acquisition unit 131 include converting information in a global coordinate system such as latitude and longitude to a plane coordinate system. This facilitates distance calculation in the subsequent stage.

高精度地図情報取得部131からのデータ2032は、レーンレベルの情報を持つ高精度な地図を想定し、自己位置姿勢推定部104からのデータ2037は、自車位置及び姿勢情報を想定し、地図道路・レーン構造生成部132でデータを取得し、必要に応じて変換をかけ、メモリに格納する。地図道路・レーン構造生成部132での変換例としては、図5に示す領域R01~R06、レーンL01~L13に類するデータ形式として、地図合成部106からのデータ2034と同様の形式とする。また、自己位置姿勢推定部104からの自車位置及び姿勢情報によりグローバル座標系のデータを自車相対座標系に変換する。 The data 2032 from the high-precision map information acquisition unit 131 assumes a high-precision map with lane-level information, and the data 2037 from the own position and orientation estimation unit 104 assumes the own vehicle position and orientation information. The road/lane structure generation unit 132 acquires data, transforms it as necessary, and stores it in memory. As an example of conversion by the map road /lane structure generation unit 132, a data format similar to the regions R01 to R06 and lanes L01 to L13 shown in FIG. Furthermore, data in the global coordinate system is converted into a vehicle relative coordinate system using the vehicle position and orientation information from the vehicle position and orientation estimation unit 104.

地図合成部106からのデータ2034は、簡易地図と合成済みの道路及びレーン構造を想定し、地図道路・レーン構造生成部132からのデータ2033は、高精度地図に基づく道路及びレーン構造を想定し、最適道路・レーン構造選択部133において、データ2034とデータ2033のデータの精度を考慮し、最適な道路及びレーン構造にマージし、データ2035、2036を出力する。センサの情報に基づくデータ2034の信頼度が高ければ、データ2034をデータ2033より優先的にマージするが、信頼度が低い場合は、データ2033をデータ2044より優先的にマージする。 The data 2034 from the map synthesis unit 106 assumes a road and lane structure that has been synthesized with a simple map, and the data 2033 from the map road/lane structure generation unit 132 assumes a road and lane structure based on a high-precision map. , the optimal road/lane structure selection unit 133 considers the accuracy of data 2034 and data 2033, merges them into an optimal road/lane structure, and outputs data 2035 and 2036. If the reliability of the data 2034 based on sensor information is high, the data 2034 is merged with priority over the data 2033, but if the reliability is low, the data 2033 is merged with priority over the data 2044.

最適道路・レーン構造選択部133からのデータ2035は、図2のデータ2010と同様の形式であり、経路情報付加部107は図2と同様の方法で、道路及びレーン情報から経路を生成する。 The data 2035 from the optimal road/lane structure selection unit 133 is in the same format as the data 2010 in FIG. 2, and the route information addition unit 107 generates a route from the road and lane information in the same manner as in FIG.

最適道路・レーン構造選択部133からのデータ2036は、高精度地図を用いてより精度を高めた道路及びレーン情報を表し、制御部108で走行計画部109と軌道計画部110を実施する。これにより、センサが信頼できない場合や簡易地図が信頼できない場合でも高精度地図を扱うことで情報の信頼度を高め、より安全な制御が可能となる。 The data 2036 from the optimal road/lane structure selection unit 133 represents road and lane information whose accuracy has been improved using a high-precision map, and the control unit 108 implements the travel planning unit 109 and the trajectory planning unit 110. As a result, even when sensors are unreliable or simple maps are unreliable, using high-precision maps increases the reliability of information and enables safer control.

図2の制御部108の入力となる経路情報付加部107からのデータ2011は、図3のデータ2011と同フォーマットを想定し、図2の構成でも図3の構成でも同様のロジックの制御部108を動作させることができ、図2と図3のシステムの切り替えの工数が少ない効果がある。 The data 2011 from the route information addition unit 107 that is input to the control unit 108 in FIG. 2 is assumed to have the same format as the data 2011 in FIG. This has the effect of reducing the number of man-hours required for switching between the systems shown in FIGS. 2 and 3.

また、図2の制御部108の入力となる地図合成部106からのデータ2012は、図3の最適道路・レーン構造選択部133からのデータ2036と同フォーマットを想定し、
図2の構成でも図3の構成でも同様のロジックの制御部108を動作させることができ、図2と図3のシステムの切り替えの工数が少ない効果がある。
Furthermore, it is assumed that the data 2012 from the map synthesis unit 106 that is input to the control unit 108 in FIG. 2 has the same format as the data 2036 from the optimal road/lane structure selection unit 133 in FIG.
The control unit 108 having the same logic can be operated in both the configuration of FIG. 2 and the configuration of FIG. 3, and there is an effect that the number of man-hours required for switching between the systems of FIG. 2 and FIG. 3 is reduced.

以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention as described in the claims. Changes can be made. For example, the embodiments described above have been described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Furthermore, it is possible to add, delete, or replace some of the configurations of each embodiment with other configurations.

1・・・自車、3・・・走行支援装置、101・・・地図・経路情報取得部、102・・・位置姿勢情報取得部、103・・・センサ情報取得部、105・・・センサ道路・レーン構造生成部、106・・・地図合成部、107・・・経路情報付加部、109・・・走行計画部、110・・・軌道計画部、S・・・センサ、U1・・・地図・ロケータユニット、D・・・アクチュエータ DESCRIPTION OF SYMBOLS 1... Own vehicle, 3... Driving support device, 101... Map/route information acquisition part, 102... Position and orientation information acquisition part, 103... Sensor information acquisition part, 105... Sensor Road/lane structure generation unit, 106...Map synthesis unit, 107...Route information addition unit, 109...Travel planning unit, 110...Trajectory planning unit, S...Sensor, U1... Map/locator unit, D... actuator

Claims (7)

自車の周辺をセンサにより検知したセンサ情報を取得するセンサ情報取得部と、
前記センサ情報に基づいて道路及びレーン構造情報を生成するセンサ道路・レーン構造生成部と、
前記自車の位置情報に基づいて選択された地図情報と前記センサ道路・レーン構造生成部により生成された前記道路及びレーン構造情報とを合成する地図合成部と、を有し、
前記センサ道路・レーン構造生成部は、
前記センサ情報に含まれる道路の情報に基づき前記道路が有するレーンのレーン中心点列を生成し、
前記レーン中心点列に基づいて前記道路の無車線区間の進入点と退出点を算出し、
該進入点から退出点まで前記自車が移動するための仮想レーンのレーン中心点列を生成し、前記レーンのレーン中心点列と前記仮想レーンのレーン中心点列とを統合して、前記無車線区間を間に介した前記レーン同士の接続関係を示すレーン構造情報を生成し、
前記地図合成部は、
前記地図情報と前記道路及びレーン構造情報とを比較して、前記道路及びレーン構造情報の中で前記地図情報と不一致のある情報を訂正する誤り訂正部と、
前記地図情報と前記誤り訂正部により訂正された前記道路及びレーン構造情報とに基づいて、前記道路及びレーン構造情報に含まれていないレーン構造情報を生成し、前記道路及びレーン構造情報に含まれているレーン構造情報と合成するレーン情報生成部と、
該レーン情報生成部により合成されたレーン構造情報が属する道路情報を生成する道路情報生成部と、
を有し、
前記道路情報生成部は、センサ情報に基づくレーン構造情報と地図情報に基づくレーン構造情報とを合成したレーン構造情報を持つ道路及びレーン構造情報を用いて前記道路情報を生成し、
前記誤り訂正部は、前記センサ情報に基づく前記道路のレーン数と前記地図情報に基づく前記道路のレーン数とが相違する場合に、前記センサ情報に基づく前記道路のレーン数を前記地図情報に基づく前記道路のレーン数に一致させる訂正を行う
ことを特徴とする走行支援装置。
a sensor information acquisition unit that acquires sensor information detected around the own vehicle by a sensor;
a sensor road/lane structure generation unit that generates road and lane structure information based on the sensor information;
a map synthesis unit that synthesizes map information selected based on the position information of the own vehicle and the road and lane structure information generated by the sensor road and lane structure generation unit;
The sensor road/lane structure generation unit includes:
generating a lane center point sequence of lanes that the road has based on road information included in the sensor information;
calculating entry points and exit points of a lane-free section of the road based on the lane center point sequence;
A lane center point sequence of a virtual lane for the vehicle to move from the approach point to the exit point is generated, the lane center point sequence of the lane and the lane center point sequence of the virtual lane are integrated, and the lane center point sequence of the virtual lane is integrated. Generate lane structure information indicating a connection relationship between the lanes with a lane section in between;
The map synthesis unit is
an error correction unit that compares the map information and the road and lane structure information and corrects information that does not match the map information in the road and lane structure information;
Generate lane structure information that is not included in the road and lane structure information based on the map information and the road and lane structure information corrected by the error correction unit, and generate lane structure information that is not included in the road and lane structure information. a lane information generation unit that synthesizes lane structure information with the lane structure information;
a road information generation unit that generates road information to which the lane structure information synthesized by the lane information generation unit belongs;
has
The road information generation unit generates the road information using a road and lane structure information having lane structure information that is a combination of lane structure information based on sensor information and lane structure information based on map information,
When the number of lanes on the road based on the sensor information and the number of lanes on the road based on the map information are different, the error correction unit is configured to change the number of lanes on the road based on the sensor information on the basis of the map information. Make corrections to match the number of lanes on the road.
A driving support device characterized by:
前記センサ道路・レーン構造生成部は、
前記道路のレーン中心点列に基づいて前記道路のレーン増減境界を判定し、
前記道路のレーン中心点列の位置と前記道路のレーン増減境界とに基づいて前記レーンのレーン構造情報を生成し、
前記レーン増減境界の情報と無車線区間とそれ以外の境界情報が想定されるデータと、レーンID、各レーン間の前後・左右の接続関係が想定されるデータとを用いて前記道路の道路情報を生成することを特徴とする請求項1に記載の走行支援装置。
The sensor road/lane structure generation unit includes:
determining lane increase/decrease boundaries of the road based on a lane center point sequence of the road;
generating lane structure information of the lane based on the position of a lane center point sequence of the road and lane increase/decrease boundaries of the road;
The road information of the road is calculated using the information on the lane increase/decrease boundary, data on which lane-free sections and other boundary information are assumed, and data on which the lane ID and the front/back/left/right connections between each lane are assumed. The driving support device according to claim 1, wherein the driving support device generates the following.
地図データから経路情報と経路案内に用いられる簡易地図の情報とを取得する地図・経路情報取得部を有し、
前記地図合成部は、前記簡易地図の情報に基づいて前記仮想レーンの簡易レーン中心点列を生成し、前記レーンのレーン中心点列と前記仮想レーンの簡易レーン中心点列とを統合して、前記道路及びレーン構造情報を生成することを特徴とする請求項2に記載の走行支援装置。
It has a map/route information acquisition unit that acquires route information and information on a simple map used for route guidance from the map data ,
The map synthesis unit generates a simple lane center point sequence of the virtual lane based on information on the simple map, integrates the lane center point sequence of the lane and the simple lane center point sequence of the virtual lane, The driving support device according to claim 2, wherein the driving support device generates the road and lane structure information.
前記地図・経路情報取得部により取得された経路情報と前記地図合成部により合成された前記道路及びレーン構造情報とに基づき、前記自車が走行すべき道路と該道路のレーンを決定する走行計画部を有することを特徴とする請求項3に記載の走行支援装置。 A travel plan that determines the road on which the host vehicle should travel and the lane of the road based on the route information acquired by the map/route information acquisition unit and the road and lane structure information synthesized by the map synthesis unit. The driving support device according to claim 3, further comprising a portion. 前記走行計画部は、前記自車が走行すべき道路と該道路のレーンの情報を、前記自車のドライバに通知する通知手段に出力することを特徴とする請求項4に記載の走行支援装置。 The driving support device according to claim 4 , wherein the driving planning unit outputs information about the road on which the own vehicle should travel and the lane of the road to a notification unit that notifies the driver of the own vehicle. . 前記自車が走行すべき道路と該道路のレーンの情報に基づいて前記自車の軌道と目標速度の情報を含む軌道計画を生成し、前記自車を制御するアクチュエータに対して、前記軌道計画を出力する軌道計画部を有することを特徴とする請求項4に記載の走行支援装置。 A trajectory plan including information on the trajectory and target speed of the vehicle is generated based on information on the road on which the vehicle should travel and lanes of the road, and the trajectory plan is transmitted to an actuator that controls the vehicle . The driving support device according to claim 4, further comprising a trajectory planning section that outputs the following . 前記誤り訂正部は、前記地図情報の信頼度の高低を判定し、該信頼度が高い場合に前記訂正を行うことを特徴とする請求項1に記載の走行支援装置。The driving support device according to claim 1, wherein the error correction unit determines whether the reliability of the map information is high or low, and performs the correction when the reliability is high.
JP2022501655A 2020-02-17 2020-12-18 Driving support device Active JP7394206B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020023952 2020-02-17
JP2020023952 2020-02-17
PCT/JP2020/047349 WO2021166410A1 (en) 2020-02-17 2020-12-18 Travel assistance device

Publications (2)

Publication Number Publication Date
JPWO2021166410A1 JPWO2021166410A1 (en) 2021-08-26
JP7394206B2 true JP7394206B2 (en) 2023-12-07

Family

ID=77391906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022501655A Active JP7394206B2 (en) 2020-02-17 2020-12-18 Driving support device

Country Status (3)

Country Link
JP (1) JP7394206B2 (en)
DE (1) DE112020005630T5 (en)
WO (1) WO2021166410A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230316912A1 (en) * 2022-03-31 2023-10-05 Denso Corporation Path prediction based on intersection information from map messages
CN115493609B (en) * 2022-09-27 2023-05-23 禾多科技(北京)有限公司 Lane-level path information generation method, device, equipment, medium and program product

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189084A (en) 2015-03-30 2016-11-04 株式会社ホンダアクセス Vehicle state determination device
JP2018087763A (en) 2016-11-29 2018-06-07 アルパイン株式会社 Travelable region setting device and setting method of travelable region
JP2018200501A (en) 2017-05-25 2018-12-20 日産自動車株式会社 Lane information output method and lane information output device
JP2019207190A (en) 2018-05-30 2019-12-05 株式会社Soken Self-position estimation device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6294247B2 (en) * 2015-01-26 2018-03-14 株式会社日立製作所 Vehicle travel control device
JP2019032712A (en) * 2017-08-08 2019-02-28 パイオニア株式会社 Determination device, method for determination, and program
JP6828668B2 (en) * 2017-12-04 2021-02-10 株式会社デンソー Lane network data generator, lane network data generator and storage medium
JP6641583B2 (en) * 2018-01-31 2020-02-05 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JP7043295B2 (en) * 2018-03-07 2022-03-29 本田技研工業株式会社 Vehicle control devices, vehicle control methods, and programs
DE112018007134T5 (en) 2018-03-23 2020-11-05 Mitsubishi Electric Corporation DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE PROCEDURE AND DRIVER ASSISTANCE PROGRAM

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189084A (en) 2015-03-30 2016-11-04 株式会社ホンダアクセス Vehicle state determination device
JP2018087763A (en) 2016-11-29 2018-06-07 アルパイン株式会社 Travelable region setting device and setting method of travelable region
JP2018200501A (en) 2017-05-25 2018-12-20 日産自動車株式会社 Lane information output method and lane information output device
JP2019207190A (en) 2018-05-30 2019-12-05 株式会社Soken Self-position estimation device

Also Published As

Publication number Publication date
JPWO2021166410A1 (en) 2021-08-26
WO2021166410A1 (en) 2021-08-26
DE112020005630T5 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
US11526173B2 (en) Traveling trajectory correction method, traveling control method, and traveling trajectory correction device
WO2020012208A1 (en) Driving environment information generation method, driving control method, driving environment information generation device
US11847838B2 (en) Recognition device
US20200164873A1 (en) Action Prediction Method and Action Prediction Device of Traveling Assistance Device
JP6956268B2 (en) Driving environment information generation method, driving control method, driving environment information generation device
CN111527015A (en) Vehicle control device
JP7394206B2 (en) Driving support device
KR102611507B1 (en) Driving assistance method and driving assistance device
JP2009075933A (en) Position calculation device in branched road, position calculation method in branched road, and position calculation program in branched road
US20190258259A1 (en) Vehicle control device
JP2020087267A (en) Route candidate setting system and route candidate setting method
JP7043765B2 (en) Vehicle driving control method and equipment
US10766490B2 (en) Driving assistance method and driving assistance apparatus
JP7312356B2 (en) Vehicle driving support system
JP2018063122A (en) Route selection method and route selection device
JP7252513B2 (en) Vehicle driving support system
WO2018189844A1 (en) Driving control method and driving control device
JP2018173534A (en) Map generation method and map generation device
JP2023054084A (en) Vehicle stereo camera device
CN114523968B (en) Surrounding vehicle monitoring device and surrounding vehicle monitoring method
WO2021209403A1 (en) Detection of obstacles in a curved road
JP7024871B2 (en) Route calculation method, operation control method and route calculation device
JP7470214B2 (en) Lane marking recognition device
ITO et al. Deepening method for LeanMAP content based on a virtual trajectory by lateral transcription
JP7482613B2 (en) Intersection passage determination method and intersection passage determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R150 Certificate of patent or registration of utility model

Ref document number: 7394206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150