JP7394206B2 - Driving support device - Google Patents
Driving support device Download PDFInfo
- Publication number
- JP7394206B2 JP7394206B2 JP2022501655A JP2022501655A JP7394206B2 JP 7394206 B2 JP7394206 B2 JP 7394206B2 JP 2022501655 A JP2022501655 A JP 2022501655A JP 2022501655 A JP2022501655 A JP 2022501655A JP 7394206 B2 JP7394206 B2 JP 7394206B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- lane
- road
- map
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015572 biosynthetic process Effects 0.000 claims description 37
- 238000003786 synthesis reaction Methods 0.000 claims description 37
- 238000002910 structure generation Methods 0.000 claims description 36
- 238000012937 correction Methods 0.000 claims description 15
- 230000007423 decrease Effects 0.000 claims description 14
- 238000013459 approach Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 36
- 238000012545 processing Methods 0.000 description 23
- 238000001514 detection method Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 20
- 230000010354 integration Effects 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/343—Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Description
本発明は、自車周辺の情報及び地図情報に基づき、道路及びレーンの構造を理解し、車両の制御やドライバへの通知を出力するための走行支援装置に関するものである。 The present invention relates to a driving support device that understands the structure of roads and lanes based on information around the vehicle and map information, and controls the vehicle and outputs notifications to the driver.
交通事故の撲滅や環境への負荷低減,高齢者などの移動支援を支える安心・安全かつ便利なモビリティ社会の実現に向け,自動運転の技術開発が活発に行われている。自動運転のレベルとしてSAE(Society of Automotive Engineers)が定義したレベル1から5がよく用いられる。前記SAEの定義では、レベル3以上の車両制御はシステム責任となっている。このため、レベル3以上の自動運転を実現するためには、より信頼性の高い情報で制御する必要があり、地図の活用が欠かせない。地図としては、事前の測量により整備される高精度地図が一般的である。しかし、自動運転に用いられる地図には情報の鮮度が求められ、鮮度維持に多大なコストがかかるため、高精度地図の提供範囲は高速道路や主要幹線道路に限定される可能性がある。そのため、一般道では高精度地図が整備されていなくても信頼性の高い制御が求められる。
Autonomous driving technology is being actively developed with the aim of eliminating traffic accidents, reducing the burden on the environment, and creating a secure, safe, and convenient mobility society that supports mobility for the elderly and others. Levels 1 to 5 defined by the Society of Automotive Engineers (SAE) are often used as levels of automatic driving. According to the SAE definition, vehicle control at
そこで、例えば特許文献1では、自動運転制御システムを「車両の走行を支援する走行支援システムにおいて、前記車両の位置情報を取得する位置情報取得部と、経路案内に用いられる簡易地図を表す簡易地図情報と前記位置情報とを利用して、前記簡易地図において前記車両がどの道路を通るかを示す走行ルートを生成するルート生成部と、前記車両に搭載されたセンサにより取得されたセンサ情報と前記位置情報を用いて、前記車両の走行中に前記車両の周辺地図であって前記簡易地図より高精度な周辺地図を周辺地図情報として生成する周辺地図生成部と、前記走行ルートを含む前記簡易地図と前記周辺地図との各々における道路の特徴を抽出する特徴抽出部と、前記道路の特徴に基づいて、前記簡易地図と前記周辺地図との位置合わせを行い、前記車両の位置を車両位置として算出する位置合わせ部と、前記車両位置を用いて、前記周辺地図に、前記簡易地図情報と前記位置情報とを利用して生成された前記走行ルートを投影し、前記周辺地図に投影された前記走行ルートに基づいて、前記車両が前記走行ルートを走行するためのパスであって自動運転車の車両制御機構への入力となる前記周辺地図における前記車両の走行軌道および経路であるパスを生成するパス生成部とを備えた走行支援システム。」のように構成することを提案している。 Therefore, for example, in Patent Document 1, an automatic driving control system is defined as "a driving support system that supports driving of a vehicle, which includes a position information acquisition unit that acquires position information of the vehicle, and a simple map that represents a simple map used for route guidance. a route generation unit that generates a travel route indicating which road the vehicle will travel on the simple map using the information and the position information; a surrounding map generation unit that uses position information to generate a surrounding map of the vehicle, which is a surrounding map that is more accurate than the simplified map, as surrounding map information while the vehicle is traveling; and the simplified map that includes the driving route. and a feature extraction unit that extracts road features from each of the road features and the surrounding map, and aligns the simple map and the surrounding map based on the road features, and calculates the position of the vehicle as a vehicle position. and a positioning unit that projects the driving route generated using the simple map information and the position information onto the surrounding map using the vehicle position and the driving route projected on the surrounding map. A path that generates a path for the vehicle to travel along the travel route based on the route, which is a travel trajectory and route of the vehicle in the surrounding map that is input to a vehicle control mechanism of an automatic driving vehicle. A driving support system equipped with a generating section is proposed.
特許文献1では、一般道に対し、センサ情報と簡易地図情報を活用し生成した周辺地図情報により道路外に逸脱しない自動運転を実現する。しかしながら、簡易地図情報には交差点の進入・退出レーンの接続関係がなく、目的地到達に向けた最適な走行レーンの選択に課題がある。例えば、目的地に到達するために交差点を右折し、その先を左折する場合、最初の交差点を右折するときは、右折先の道路の一番左のレーンに移動することがドライバの意図にあう。そこで、センサ情報の周辺情報にから交差点の進入・退出レーンの接続関係を算出し、目的到達に向けた最適な走行レーンの選択をする必要がある。 In Patent Document 1, automatic driving that does not deviate from the road is realized using surrounding map information generated using sensor information and simple map information on a general road. However, the simple map information does not include connections between entry and exit lanes at intersections, and there is a problem in selecting the optimal driving lane to reach the destination. For example, if a driver turns right at an intersection and then turns left to reach a destination, when turning right at the first intersection, the driver's intention is to move to the far left lane of the road to which he or she is turning. . Therefore, it is necessary to calculate the connection relationship between entry and exit lanes at an intersection based on surrounding information from sensor information, and select the optimal driving lane to reach the destination.
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、目的地までの走行計画で、最適なレーンを選択可能となり、交差点を含む一般道でドライバの意図に沿った自動運転が実現できる走行支援装置を得ることである。 The present invention has been made in view of the above points, and its purpose is to make it possible to select the optimal lane when planning a trip to a destination, and to make it possible to select the optimum lane according to the driver's intention on general roads including intersections. The objective is to obtain a driving support device that can realize autonomous driving.
本発明に係る走行支援装置は、センサにより検知した自車の周辺情報を取得するセンサ情報取得部と、周辺情報に含まれる道路の白線または路端の少なくとも一方の情報に基づき道路が有するレーンのレーン中心点列を生成し、レーン中心点列に基づき道路及びレーン構造情報を生成するセンサ道路・レーン構造生成部と、道路及びレーン構造情報に基づき、自車が走行すべき道路と道路のレーンを決定する走行計画部とを有することを特徴とする。 The driving support device according to the present invention includes a sensor information acquisition unit that acquires surrounding information of the own vehicle detected by a sensor, and a lane information of a road based on information about at least one of a white line or a road edge included in the surrounding information. A sensor road/lane structure generation unit that generates a lane center point sequence and generates road and lane structure information based on the lane center point sequence, and a road and road lane on which the vehicle should drive based on the road and lane structure information. The vehicle is characterized by having a travel planning section that determines the travel planning section.
本発明によれば、目的地までの走行計画で、最適なレーンを選択可能となり、交差点を含む一般道でドライバの意図に沿った自動運転が実現できる。本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の、課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, it is possible to select an optimal lane based on a travel plan to a destination, and automatic driving according to the driver's intention can be realized on general roads including intersections. Further features related to the invention will become apparent from the description herein and the accompanying drawings. Further, problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.
以下、本発明の実施形態について、図面を用いて詳細に説明する。なお、以下の実施形態では、道路が左側通行の場合を例に説明するが、右側通行にも適用できる。 Hereinafter, embodiments of the present invention will be described in detail using the drawings. In addition, although the following embodiment explains the case where traffic is on the left side of the road as an example, it can also be applied to right side traffic.
<第1実施形態>
図1は、本実施形態における走行支援装置を搭載する車両の構成を説明する図である。
走行支援装置3は、図1に例示するように、自動運転可能な自車1に搭載されており、CPUやメモリなどのハードウエアと、ハードウエアにより実行されるソフトウエアプログラムとの協働により実現される。走行支援装置3は、地図・ロケータユニットU1と、センサSと、アクチュエータDと協働して走行支援システムを構成する。<First embodiment>
FIG. 1 is a diagram illustrating the configuration of a vehicle equipped with a driving support device according to the present embodiment.
As illustrated in FIG. 1, the
走行支援装置3は、地図・ロケータユニットU1から、地図情報と、経路情報と、自車1の自車位置情報と、自車1の姿勢情報とを得る。そして、センサSであるカメラセンサS1及びLiDARセンサS2から周辺情報を得る。さらに、車両センサS3から自車両情報を得て、アクチュエータDであるエンジンD1、ステアリングD2、ブレーキD3などの各操作目標量を定める。
The
地図・ロケータユニットU1は、ロケータ機能24と地図送信機能25を含んでおり、ロケータ機能24は、GNSS(位置情報)を受信して自車位置情報と姿勢情報を定め、地図送信機能25では地図データ8を受信する通信ユニットU2を備えている。なお、地図データ8は、ナビゲーション用の簡易的(以降、簡易地図と記載)な地図でもよいし、レーンレベルで精度の高い情報を持つ高精度地図であってもよい。
The map/locator unit U1 includes a
図2は、走行支援装置の内部機能を説明するブロック図である。
走行支援装置3は、地図・ロケータユニットU1とセンサSからデータを入力し、走行支援装置3の計算結果をスピーカー111とアクチュエータDに出力する。走行支援装置3は、地図・経路情報取得部101と、位置姿勢情報取得部102と、センサ情報取得部103と、センサ情報統合部112と、自己位置姿勢推定部104と、センサ道路・レーン構造生成部105と、地図合成部106と、経路情報付加部107と、制御部108とを有する。また、制御部108は、走行計画部109と軌道計画部110を有する。FIG. 2 is a block diagram illustrating the internal functions of the driving support device.
The
[データの流れ]
地図・経路情報取得部101は、地図・ロケータユニットU1からのデータ2001を入力し、データ2004、2005を出力する。位置姿勢情報取得部102は、地図・ロケータユニットU1からのデータ2002を入力し、データ2016を出力する。センサ情報取得部103は、センサSからのデータ2003を入力し、データ2006、2017を出力する。[Flow of data]
The map/route
センサ情報統合部112は、センサ情報取得部103からのデータ2017と自己位置姿勢推定部104からのデータ2021を入力し、データ2019、2020を出力する。センサ道路・レーン構造生成部105は、センサ情報統合部112からのデータ2019と自己位置姿勢推定部104からのデータ2007を入力し、データ2009を出力する。
The sensor
自己位置姿勢推定部104は、位置姿勢情報取得部102からのデータ2016と、センサ情報取得部103からのデータ2006と、センサ情報統合部112からのデータ2020を入力し、データ2007、2008、2018を出力する。地図合成部106は、地図・経路情報取得部101からのデータ2005と、自己位置姿勢推定部104からのデータ2018と、センサ道路・レーン構造生成部105からのデータ2009を入力し、データ2010、2012を出力する。経路情報付加部107は、地図・経路情報取得部101からのデータ2004と、自己位置姿勢推定部104からのデータ2008と、地図合成部106からのデータ2010を入力し、データ2011を出力する。
The self-position and
制御部108は、経路情報付加部107からのデータ2011と、地図合成部106からのデータ2012を入力し、データ2014、2015を出力する。走行計画部109は、経路情報付加部107からのデータ2011と、地図合成部106からのデータ2012を入力し、データ2013、2014を出力する。軌道計画部110は、経路情報付加部107からのデータ2011と、地図合成部106からのデータ2012と、走行計画部109からのデータ2013を入力し、データ2015を出力する。スピーカー111は、走行計画部109からのデータ2014を入力し、ドライバに通知を出力する通知手段を構成する。アクチュエータDは、軌道計画部110からのデータ2015を入力し、車両を制御する。
The
[機能ブロックとデータ内容説明]
地図・ロケータユニットU1からのデータ2001は、簡易地図及び経路情報を想定し、地図・経路情報取得部101でデータを取得し、必要に応じて変換をかけ、メモリに格納する。図6は、地図ノードと地図リンクにより構成される簡易地図の一例を示す図である。簡易地図は、図6に示すように、地図ノードF001と地図リンクF002を有する。[Explanation of functional blocks and data contents]
The
地図ノードF001には、ノードIDが設定され、ノードの位置情報として緯度、経度が格納される。また、地図ノードF001には、高度の情報が格納される。また、地図ノードF001には、地図リンク同士のリンク角度F003やリンク本数等の情報が格納される。図6の例では、地図ノードF001に格納されるリンク本数は4となる。そして、地図ノードF001に格納されるリンク角度F003も4つとなる。 A node ID is set in the map node F001, and latitude and longitude are stored as position information of the node. Further, altitude information is stored in the map node F001. Furthermore, information such as the link angle F003 between map links and the number of links is stored in the map node F001. In the example of FIG. 6, the number of links stored in map node F001 is four. There are also four link angles F003 stored in the map node F001.
また、地図ノードF001には、道路種別が格納され、交差点であれば、交差点種別として十字路または丁字路、六差路等の情報が格納される。また、地図リンクF002には、地図ノード間のIDの接続関係や自車1の進行レーンのレーン数、対向レーンのレーン数が格納され、他にも制限速度値と地図リンク上の位置、地図リンクの形状情報等が格納される。 Further, the map node F001 stores the road type, and in the case of an intersection, information such as a crossroad, a T-junction, a six-way intersection, etc. is stored as the intersection type. In addition, the map link F002 stores the connection relationship of IDs between map nodes, the number of lanes in which own vehicle 1 is traveling, and the number of lanes in the opposite lane, and also stores the speed limit value, the position on the map link, and the map Link shape information etc. are stored.
経路情報とは、地図ノードF001のIDのリストを表し、どの地図ノードを経由すれば目的地に到達できるかの情報を表す。あるいは、IDだけではなく、地図ノードの位置情報として緯度、経度のペアをリストとしてもよい。また、地図ノードの位置情報だけではなく、ナビゲーション用に通知される、この先の道なり、あるいは、右左折の進行方向の案内情報を取得してもよい。 The route information represents a list of IDs of the map node F001, and represents information on which map node to go through to reach the destination. Alternatively, in addition to IDs, pairs of latitude and longitude may be listed as location information of map nodes. Further, in addition to the position information of the map node, guidance information about the road ahead or the direction of right or left turn, which is notified for navigation, may be acquired.
地図・経路情報取得部101での変換例としては、緯度、経度のようなグローバル座標系の情報を平面座標系に変換する等が挙げられる。これにより、グローバル座標系で一般的に扱われる距離計算としてヒュベニの公式があるが、後段の距離計算が三平方の定理で行え、容易になる利点がある。なお、簡易地図をV2Xから取得してもよい。
Examples of conversion by the map/route
地図・ロケータユニットU1からのデータ2002は、ロケータからの情報であり、位置情報として緯度と経度を想定し、姿勢情報として方位を想定する。位置姿勢情報取得部102は、データ2002を取得し、必要に応じて変換をかけ、変換後のデータをメモリに格納する。変換例としては、地図・経路情報取得部101と同様に平面座標系に変換する等が挙げられる。
センサSからのデータ2003は、図1におけるカメラセンサS1、LiDARセンサS2、及び車両センサS3のデータにより構成される。カメラセンサS1からのデータとしては、立体物の位置情報やサイズ情報、種別情報等、白線の位置情報や破線や色の種別情報、路端の位置情報、信号機の位置情報や色情報、停止線の位置情報、横断歩道の位置情報、看板の位置情報や種別情報等を想定する。
図5、図14は、交差点の一例を示す図であり、図5は、交差点のレーンと交差点に設定された道路IDを示す図、図14は、信号機を有する交差点の一例を示す図である。
白線の例としては、図5のF013が挙げられる。白線は、エッジ検出により検出した点群から端点が連続して並ぶ列を抽出した点列でもよいし、近似パラメータの形式でもよい。路端の例としては、図5のF010が挙げられる。停止線の例としては、図5のF014が挙げられる。横断歩道の例としては、図5のF011が挙げられる。看板の例として、制限速度標識や、一時停止線、車線減少等が挙げられる。そして、信号機の例としては、図14のF021が挙げられる。FIGS. 5 and 14 are diagrams showing an example of an intersection. FIG. 5 is a diagram showing intersection lanes and road IDs set at the intersection. FIG. 14 is a diagram showing an example of an intersection with traffic lights. .
An example of the white line is F013 in FIG. 5. The white line may be a point sequence obtained by extracting a sequence of consecutive end points from a point group detected by edge detection, or may be in the form of approximate parameters. An example of a roadside is F010 in FIG. An example of the stop line is F014 in FIG. 5. An example of a crosswalk is F011 in FIG. 5. Examples of signage include speed limit signs, stop lines, lane reductions, etc. An example of a traffic light is F021 in FIG. 14.
また、LiDARセンサS2からのデータは、立体物の位置情報やサイズ情報、白線の位置情報や破線等の種別情報、路端の位置情報、停止線の位置情報、横断歩道の位置情報等を想定する。また、車両センサS3からのデータは、自車速度情報、舵角情報、ヨーレート情報、加速度情報等を想定する。なお、センサSとしては、上記同様の自車1の周辺環境理解に必要なデータが取得可能なものであればよく、レーダやC2X、V2X等を前提としてもよい。 In addition, the data from the LiDAR sensor S2 is assumed to include position information and size information of three-dimensional objects, type information such as white line position information and broken lines, road edge position information, stop line position information, crosswalk position information, etc. do. Further, the data from the vehicle sensor S3 is assumed to be own vehicle speed information, steering angle information, yaw rate information, acceleration information, etc. Note that the sensor S may be any sensor as long as it can obtain data necessary for understanding the surrounding environment of the vehicle 1 similar to the above, and may be a radar, C2X, V2X, or the like.
これら各センサからの情報をセンサ情報取得部103でデータを取得し、必要に応じて変換をかけ、メモリに格納する。変換例としては、複数センサにおけるデータの単位系や分解能が異なる場合、後段の処理で扱い易いように統一された形式に変換する。
A sensor
センサ情報取得部103からのデータ2017は、データの単位系や分解能が統一された形式のセンサ情報を想定し、センサ情報統合部112でより後段の処理で扱い易いようにデータを統合する。統合例としては、各センサにおいてデータの座標系や座標系の原点が異なる場合、後段の処理で扱い易いように同一の座標系や原点に統一する。
The
本実施形態では、自車相対座標系で扱うことを想定し、以下記載する。また、複数のセンサにおけるデータの送信周期がそれぞれ異なる場合、後段の処理で統一された時刻として扱い易いように走行支援装置3の処理周期に同期させる。同期については、自車速度情報や舵角から移動量を推定して算出する。そして、同期された情報の中で各センサが同じ立体物や白線、路端等を検出していれば、同じ情報として同一のIDを設定し、データを統合し、出力する。
In this embodiment, it is assumed that the coordinate system relative to the own vehicle is used and will be described below. In addition, when the data transmission cycles of the plurality of sensors are different from each other, they are synchronized with the processing cycle of the driving
また、自己位置姿勢推定部104からのデータ2021である自車位置及び姿勢情報に基づき、過去のセンサデータ2017をグローバル座標の形式でメモリ上に記録し、データ欠損時の補間処理や過去情報による経験則に基づく統合処理を実施してもよい。例えば、白線情報の場合は、過去の白線の位置情報と新たに検出した白線の位置情報を比較し、同一白線かどうかを判断し、IDをトラッキングする方法が考えられる。これにより、センサ情報の検出が少ない状況であっても蓄積された情報を活用でき、IDの識別精度を高めて統合処理が可能となる。また、カメラセンサS1やLiDARセンサS2のような自車相対座標系を基準としたデータとは異なり、C2XやV2Xからの情報は、グローバル座標系を基準としたデータであることが知られており、データ2021の自車位置と姿勢に基づき、自車相対座標系に変換し、カメラセンサS1やLiDARセンサS2のデータと統合する。
In addition, based on the own vehicle position and attitude information, which is
センサ情報統合部112からのデータ2019は、処理周期の同期とデータ統合、座標系の統一化が済んでいる立体物の位置情報、白線の位置情報、路端の位置情報等であり、センサ道路・レーン構造生成部105で道路やレーンの境界部分を理解し、道路同士やレーン同士の接続関係を算出する。なお、道路やレーンの境界部分の具体例として、図5に示すように自車1が存在する状況で、センサによって検出できる白線情報F013や横断歩道情報F011や停止線情報F014や路端情報F010が挙げられる。
The
なお、道路とは、図5に示すように、領域R01~R06のような、レーン増減や交差点、分岐等で区切られる領域を表し、IDで管理される。レーンとは、領域R01~R06の中に含まれるL01~L13単位の情報を表し、IDで管理される。 Note that, as shown in FIG. 5, a road represents an area divided by lane changes, intersections, branches, etc., such as areas R01 to R06, and is managed by ID. A lane represents information in units of L01 to L13 included in regions R01 to R06, and is managed by ID.
これら道路やレーンの接続関係とは、領域R01~R06の前後の接続関係や、レーンL01~L13の前後左右の接続関係を表す。例えば、自車の位置を基準とし、領域R01の前方は領域R02に接続され、領域R02の後方は領域R01に接続される。また、レーンL02の右側にはレーンL03が接続され、レーンL03の左側にはレーンL02が接続される。また、レーンL02の前方には、レーンL06とレーンL07が接続され、レーンL06とレーンL07の後方にはレーンL02が接続される。 The connections between these roads and lanes refer to the connections between the regions R01 to R06 before and after, and the connections between the lanes L01 to L13 between the front and back, and the left and right sides of the lanes. For example, based on the position of the own vehicle, the front of region R01 is connected to region R02, and the rear of region R02 is connected to region R01. Further, a lane L03 is connected to the right side of the lane L02, and a lane L02 is connected to the left side of the lane L03. Furthermore, lane L06 and lane L07 are connected to the front of lane L02, and lane L02 is connected to the rear of lane L06 and lane L07.
なお、センサ道路・レーン構造生成部105では、図7に示すようにセンサSの検知範囲F015内で検知された情報に基づき出力を生成し、自車1の移動に応じて都度出力をリアルタイムに情報を再生成していく。
Note that the sensor road/lane
図7は、自車両1が右折レーンに進入する前後の状態を示す図である。
図7の交差点右折レーンの手前から交差点右折レーン上まで自車1が移動すると、その検知範囲は、F015からF020となり、より交差点内のセンサ情報が取得できる状況となる。FIG. 7 is a diagram showing the state before and after the host vehicle 1 enters the right turn lane.
When the vehicle 1 moves from in front of the right-turn lane at the intersection to above the right-turn lane at the intersection in FIG. 7, the detection range changes from F015 to F020, making it possible to obtain more sensor information within the intersection.
センサ道路・レーン構造生成部105では、センサ情報取得部103からのデータ2017を、道路やレーンの構造に紐づけて管理し、追加でセンサ情報のみから算出可能な付加的な情報を生成する。
The sensor road/lane
データ2017を道路やレーンの構造に紐づけた管理例としては、各レーンにデータ2017の白線情報を関連付け、道路にデータ2017の路端情報を関連付けることが考えられる。付加的な情報の例としては、レーンの中心点列、曲率半径、制限速度、及び、レーンの長さやレーンが消滅、発生するまでの距離等が挙げられる。レーンが消滅するまでの距離の例として、図5のレーンL02の消滅までの距離は、自車がレーンL01の開始位置に存在する場合は、レーンL01の長さとレーンL02の長さを足した結果である。
As an example of management in which the
また、データ2017は、図7の検知範囲F015に示す通り、検知範囲の境界領域や自車1から距離が遠いほど、検知誤差が大きいことが一般的に知られている。また、走行状況次第で誤検知が生じる場合もある。そのため、これらセンサSの特性を考慮して、道路・レーン構造情報2009に信頼度情報を付加するとよい。また、自己位置姿勢推定部104からのデータ2007である自車位置及び姿勢を活用し、センサ情報統合部112と同様に過去情報を用いて道路とレーン構造の生成精度を高めてもよい。
Furthermore, as shown in the detection range F015 in FIG. 7, the
位置姿勢情報取得部102からのデータ2016は、位置情報として緯度、経度を想定し、姿勢情報として方位を想定し、センサ情報取得部103からのデータ2006は、自車速情報や舵角等の車両情報を想定し、自己位置姿勢推定部104において走行支援装置3用に精度を高めた最終的な自車の位置情報として緯度、経度を推定し、最終的な自車の姿勢情報として方位を推定する。
The
ロケータからの情報に基づくデータ2016は、送信周期100ミリ秒~1秒のように走行支援装置3の処理周期に対し長いため、データ2016が更新されない走行支援装置3の処理周期においては、自車位置と姿勢の補正が必要である。自車位置と姿勢の補正は、センサ情報取得部103からのデータ2006の自車速度情報及び舵角情報やヨーレート情報等を用いて、移動量を算出して実施する。
The
他にも、センサ情報統合部112からのデータ2020の白線の位置情報を用いて、レーン内の自車位置や姿勢情報の精度を高めてもよい。また、データ2020の路端情報を用いて、道路内の自車位置や姿勢情報の精度を高めてもよい。自車位置の精度が高まれば、地図合成部106で合成する地図の精度が高い場合に、自車相対座標系に変換する際の誤差を最小化でき、より精度の高い情報を制御部108で使える利点がある。
In addition, the accuracy of the own vehicle position and posture information within the lane may be increased using the white line position information of the
センサ道路・レーン構造生成部105からのデータ2009は、前述した道路及びレーン構造情報を想定し、自己位置姿勢推定部104からのデータ2018は、走行支援装置3用に補正された自車位置と姿勢を想定し、地図・経路情報取得部101からのデータ2005は、地図情報を想定し、地図合成部106において制御部108で扱う信頼度の高い最終的な道路及びレーン構造情報を算出する。
The
地図合成部106では、データ2018の自車位置及び姿勢に基づき、必要な領域の地図情報をデータ2005から抽出し、データ2009の道路及びレーン構造情報を基準に、データ2005との情報の一致性を検証する。情報間に不一致があれば、データ2009に付加された信頼度情報が低い道路及びレーン構造情報は、データ2005の情報を採用し、信頼度を高める。これにより、より信頼度の高い情報を制御部108に提供でき、ドライバの意図に合う制御が可能となる。なお、地図・ロケータユニットU1から地図情報が提供されない場合は、地図合成部106は、センサ道路・レーン構造生成部105からの道路及びレーン構造情報をデータ2010、2012としてそのまま出力することで、走行支援を継続できる。
The
地図・経路情報取得部101からのデータ2004は、経路情報を想定し、自己位置姿勢推定部104からのデータ2008は、走行支援装置3用に補正された自車位置と姿勢を想定し、地図合成部106からのデータ2010は、信頼度を高めた道路及びレーン構造情報を想定する。データ2004の経路情報は、地図合成部106からのデータ2010に自車相対座標で表現された道路及びレーン構造情報の座標関連の情報とマッチングをかけられるよう、地図に依存しない形式の経路を想定する。
The
地図に依存しない形式の経路の例として、緯度、経度のリストを経路とし、自己位置姿勢推定部からのデータ2008の自車位置と姿勢に基づき、経路の緯度、経度を自車相対座標に変換する。変換後の経路座標とデータ2010のレーン構造情報に紐づくレーン中心点情報を用い、経路がどの道路に属するかを判断する。
As an example of a route that does not depend on a map, a list of latitudes and longitudes is used as the route, and the latitude and longitude of the route are converted to vehicle-relative coordinates based on the vehicle position and orientation of
結果、経路情報付加部107からは、データ2010における道路及びレーン構造情報のIDリストを出力する。また、地図・経路情報取得部101からの案内情報として、この先の道なり、右左折案内を経路情報付加部107のデータ2011に追加してもよい。
それにより、センサが検知できていない領域でも案内情報を活用し、制御部108の走行計画部109でどのレーンに移動すべきかを判断する一材料となる利点がある。As a result, the route
This has the advantage that the guidance information can be utilized even in areas that cannot be detected by the sensor, and can be used as a basis for determining which lane the
経路情報付加部107からのデータ2011は、データ2010と対応した道路及びレーン構造情報のIDリストやナビゲーションからの案内情報を想定し、地図合成部106からのデータ2012は、信頼度を高めた道路及びレーン構造情報を想定する。制御部108の走行計画部109では、データ2011の経路情報に基づき、走行すべき道路を決定し、データ2010のレーン構造情報に基づき、走行すべきレーンを決定する。あるいは、データ2011の経路情報に基づき走行すべきレーンを決定する。走行すべきレーンは、経路の目的地に到達する上で、交差点の右左折時に何レーン目を走行するとよいかを考慮し、最適なレーンを選択すると本実施形態における走行支援装置3の効果が最大化できる。
The
走行計画部109からのデータ2013は、走行すべきレーンIDのリストを想定し、地図合成部106からのデータ2012は、レーン構造情報に紐づく制限速度や曲率半径、レーン中心点を想定し、軌道計画部110では、数秒先の自車が走行すべき軌跡と自車の目標速度を決定する。
The
走行計画部109からのデータ2014は、走行すべきレーンIDとレーン構造情報を想定し、スピーカー111により、ドライバへの注意喚起として、どのレーンを走行すべきかを通知する。軌道計画部110からのデータ2015は、自車が走行すべき軌跡と自車の目標速度を想定し、アクチュエータDは目標舵角や目標ブレーキ液圧や目標エンジントルクを決定し、制御する。走行支援システムとして自動運転機能を実現する目的では、スピーカー111およびアクチュエータDにデータを出力し、制御まで実施するとよい。
また、走行支援システムとして安全支援を実現する目的であれば、スピーカー111のみにデータを出力し、ドライバに注意喚起するとよい。The
Further, if the purpose is to realize safety support as a driving support system, it is preferable to output data only to the
[構成]
図3は、センサ道路・レーン構造生成部105と地図合成部106の内部機能を示すブロック図である。
図3では、センサ情報統合部112からのデータと自己位置姿勢推定部104からのデータがセンサ道路・レーン構造生成部105の入力となり、センサ道路・レーン構造生成部105の計算結果が地図合成部106に出力される。そして、地図・経路情報取得部101からのデータと、自己位置姿勢推定部104からのデータと、センサ道路・レーン構造生成部105からのデータとが、地図合成部106の入力となり、地図合成部106の計算結果が出力される。[composition]
FIG. 3 is a block diagram showing the internal functions of the sensor road/lane
In FIG. 3, data from the sensor
センサ道路・レーン構造生成部105は、レーン中心点列生成部302、領域分割判定部303、レーン情報生成部304、道路情報生成部305、及びセンサ付加情報生成部306を内包する。また、地図合成部106は、地図選択部307、誤り訂正部308、レーン情報生成部309、道路情報生成部310、簡易レーン中心点列生成部311、及び地図付加情報合成部312を内包する。
The sensor road/lane
[データの流れ]
図3では、センサ情報統合部112からのデータ2019と自己位置姿勢推定部104からのデータ2007をレーン中心点列生成部302に入力し、データ4005、4006、4007を出力する。[Data flow]
In FIG. 3,
レーン中心点列生成部302からのデータ4005を領域分割判定部303に入力し、データ4008、4009を出力する。レーン中心点列生成部302からのデータ4006をレーン情報生成部304に入力し、データ4010を出力する。領域分割判定部303からのデータ4009とレーン情報生成部304からのデータ4010を道路情報生成部305に入力し、データ4011を出力する。道路情報生成部305からのデータ4011をセンサ付加情報生成部306に入力し、データ2009を出力する。地図・経路情報取得部101からのデータ2005と自己位置姿勢推定部104からのデータ2018を地図選択部307に入力し、データ4015、4023、4024を出力する。
センサ付加情報生成部306からのデータ2009と地図選択部307からのデータ4015を誤り訂正部308に入力し、データ4016を出力する。地図選択部307からのデータ4024と誤り訂正部308からのデータ4016をレーン情報生成部309に入力し、データ4017、4018、4019を出力する。レーン情報生成部309からのデータ4017を道路情報生成部310に入力し、データ4022を出力する。
地図選択部307からのデータ4023とレーン情報生成部309からのデータ4019を簡易レーン中心点列生成部311に入力し、データ4020を出力する。レーン情報生成部309からのデータ4018と道路情報生成部310からのデータ4022と簡易レーン中心点列生成部311からのデータ4020を地図付加情報合成部312に入力し、データ4021を出力する。
[機能ブロックとデータ内容説明]
センサ情報統合部112からのデータ2019は、処理周期の同期とデータ統合、座標系の統一化が済んでいる白線の位置情報、路端の位置情報等を想定し、レーン中心点列生成部302でセンサ検出範囲に位置する複数レーンの中心点列の位置を算出する。なお、自己位置姿勢推定部104からのデータ2007は、自車位置及び姿勢を想定し、レーン中心点列生成部302で生成されるレーン中心点列の履歴を活用して、出力するレーン中心点列の安定化を図る。レーンには、センサ検出範囲に位置する全てのレーンが含まれ、例えば自車が走行しているレーンの他に、対向車線のレーンや、並行して延びる隣接車線のレーン、交差する道路のレーンなどが含まれる。レーン中心点とは、これらのレーンのレーン中心点、つまり、各レーンにおいてレーンの幅方向中央の点であり、レーン中心点列とは、各レーンのレーン中心点をレーンの延在する方向に繋げた点列である。[Explanation of functional blocks and data contents]
The
自車位置及び姿勢を用いてレーン中心点列生成部302で生成されたレーン中心点列をグローバル座標系に変換し、レーン中心点列生成部302の内部で保持する。そして、次の走行支援装置3の処理周期で履歴内のレーン中心点列の位置を、その時の自車位置及び姿勢から自車相対座標系に変換し、現時刻で算出したレーン中心点列と統合する。これにより瞬間的にレーン中心点列が途切れる処理周期があっても、制御部108にレーン中心点列を連続的に提供でき、走行支援システム全体の安定化が可能となる。
The lane center point sequence generated by the lane center point
図8は、交差点を通過する際の推奨される走行軌跡と、交差点等の無車線区間の進入点及び退出点を示す図、図9は、右折レーンに進入する前と後における、交差点の道路外との境界を示す点列を示す図、図10は、右折レーンに進入する前と後における、白線の位置を示す点列を示す図である。
本実施形態のレーン中心点列生成部302では、図8のF016に示すように交差点内の推奨される走行軌跡も仮想的なレーンとしてレーン中心点列の生成を想定する。交差点における路端の位置情報の例として、図9のF022のように、交差点の道路外との境界を指す点列の位置が挙げられる。また、交差点における白線の位置情報の例として、図10のF025のように交差点を右左折した先の白線情報を含む。Figure 8 is a diagram showing the recommended travel trajectory when passing through an intersection, and the entry and exit points of lane-free sections such as intersections. Figure 9 shows the road at the intersection before and after entering the right turn lane. FIG. 10 is a diagram showing a dot sequence indicating the boundary with the outside, and is a diagram showing a dot sequence indicating the position of the white line before and after entering the right turn lane.
The lane center point
レーン中心点列生成部302からのデータ4005は、複数レーンの中心点列を想定し、領域分割判定部303で各レーン中心点列の位置関係に基づき、レーン増減境界を判定する。なお、レーン増加の例として、図5の領域R01とR02の間を境界とする。レーン増減の境界の算出は、図20を用いて説明する。
図20は、レーン増減の境界の算出方法を説明する図である。
図20のレーン中心点列F206とF207があり、それぞれの始端点F203、終端点F204から各レーン中心点列に垂線を下ろす。次に、垂線との交点からの距離F201、F202が一定閾値を超えたかを判定し、一定以上であれば、レーン増減の境界とする。図20の例において区間F201のみが一定閾値を超えている場合、F205がレーン増減の境界となる。FIG. 20 is a diagram illustrating a method for calculating boundaries between lane increases and decreases.
There are lane center point rows F206 and F207 in FIG. 20, and perpendicular lines are drawn from the respective start point F203 and end point F204 to each lane center point row. Next, it is determined whether the distances F201 and F202 from the point of intersection with the perpendicular line exceed a certain threshold value, and if the distances F201 and F202 from the point of intersection with the perpendicular line exceed a certain threshold value, it is determined as a boundary for lane increase/decrease. In the example of FIG. 20, if only section F201 exceeds a certain threshold, F205 becomes the boundary for lane increase/decrease.
また、レーン中心点列生成部302からのデータ4005は、図8に示す交差点等の無車線区間の進入点F022と無車線区間の退出点F017を想定し、領域分割判定部303でこれら進入点及び退出点に基づき、車線がない無車線区間とそれ以外の車線がある車線区間との境界を判定する。
Furthermore, the
なお、無車線区間とそれ以外の境界の例として、図5に示す領域R02とR04との間、領域R04とR03との間、領域R04とR05との間、領域R04とR06との間を境界とする。領域分割判定部303で算出した境界に基づき、後段のレーン情報生成部304及び道路情報生成部305で道路及びレーン構造情報にID付けする。
As examples of boundaries between lane-free sections and other boundaries, the boundaries between areas R02 and R04, between areas R04 and R03, between areas R04 and R05, and between areas R04 and R06 shown in FIG. Boundary. Based on the boundaries calculated by the area
他にも、センサ情報統合部112からの信号の位置情報や停止線、横断歩道の位置から複合的に交差点区間を含む無車線区間とそれ以外の境界を判定してもよい。
Alternatively, the lane-free section including the intersection section and other boundaries may be determined in a composite manner from the position information of the signal from the sensor
なお、無車線区間とは、交差点の他に有料道路の料金所の入口と出口も該当する。図22は、有料道路の料金所周辺を模式的に示す図である。料金所の場合は、センサ情報統合部112から料金所ゲートF046の位置情報とサイズ情報を取得し、料金所ゲートF046の上流側の進入点F041と退出点F042と、下流側の進入点F044と退出点F045を算出するとよい。このように境界を分けることで、レーンの増減や交差点といった選択すべきレーンが変化するポイントでどのように走行計画を変えればよいかを決定できるため、後段ロジックで扱い易くなる効果がある。
In addition to intersections, lane-free sections also include entrances and exits of toll gates on toll roads. FIG. 22 is a diagram schematically showing the area around a toll gate of a toll road. In the case of a toll plaza, the position information and size information of the toll plaza gate F046 are acquired from the sensor
図3の説明に戻る。
領域分割判定部303からのデータ4008は、レーン増減境界情報や無車線区間とそれ以外の境界情報を想定し、レーン中心点列生成部302からのデータ4006は、レーン中心点列の位置情報を想定し、レーン情報生成部304でレーン情報を生成する。レーン情報とは、図5に示す通り、L01~L03、L04,L05、L11~L13のような白線が存在するレーンと定義し、L06~L10のように交差点内等の白線が存在しない無車線区間を仮想レーンと定義したものである。Returning to the explanation of FIG. 3.
レーン情報は、L01~L13のようにレーンIDを付与し、それぞれのレーンの前後と左右の接続関係を表す情報を指す。また、1つのレーンには、それに紐づくレーン中心点列位置や白線情報、信号情報等のレーンに関連する情報が付けられている。レーンは、複数のレーンL01~L13を有している。そして、これらの各レーンには、それぞれレーンの構造に関する情報が付けられており、例えば、レーン区間どうしの前後と左右の接続関係を示す情報や、レーン中心点列の位置などの情報が含まれている。 Lane information refers to information that assigns lane IDs such as L01 to L13 and indicates the connection relationship between the front and rear and left and right sides of each lane. Furthermore, one lane is attached with information related to the lane, such as the lane center point array position, white line information, and signal information. The lane includes a plurality of lanes L01 to L13. Each of these lanes is attached with information regarding the structure of the lane, such as information indicating the front/back and left/right connections between lane sections, and the position of lane center point rows. ing.
レーン情報生成部304では、まず、レーン中心点列の位置情報と領域分割判定部303の境界情報に基づき、レーンIDを生成する。そして、各レーンの中心点列の横位置関係に基づき、左右の接続情報を生成する。また、各レーンの中心点列の進行方向の位置関係に基づき前後の接続情報を生成する。最後に各レーンにレーン中心点列位置、白線情報を紐づける。各レーン中心点列の横位置関係とは、例えば左からの並び順を表すため、道路内でどのレーンがどの順序で並んでいるかを表す。
The lane
領域分割判定部303からのデータ4009は、レーン増減境界情報や無車線区間とそれ以外の境界情報を想定し、レーン情報生成部304からのデータ4010は、レーンID、前後・左右の接続関係を想定し、道路情報生成部305では、これらのデータ4009と4010とを用いて道路情報を生成する。道路情報とは、図5に示す通り、領域R01~R06と定義されたものである。
道路情報には、R01~R06のように道路IDを付与し、それぞれの道路の前後の接続関係を表す情報を指す。また、1つの道路には、それに紐づく複数のレーンIDが管理される。また、1つの道路には、それに紐づく路端の位置情報が付けられている。 The road information is assigned a road ID such as R01 to R06, and refers to information representing the connection relationship before and after each road. Furthermore, a plurality of lane IDs associated with one road are managed. Furthermore, each road has roadside position information associated with it.
道路情報生成部305では、まず、領域分割判定部303の境界情報に基づき、道路IDを生成する。そして、各道路に前後の接続情報を生成する。また、1つの道路に紐づくレーンIDをデータ4010から算出し、紐づける。最後に1つの道路に紐づく路端の位置情報を紐づける。
The road
道路情報生成部305からのデータ4011は、道路情報とそれに紐づくレーン情報を想定し、レーン中心点列生成部302からのデータ4007を想定し、センサ付加情報生成部306では、これらのデータ4011と4007を用いて付加的な情報を生成する。付加的な情報は、レーン中心点列を元に生成し、どの道路IDかどのレーンIDに紐づけるかは、データ4011を用いて統合的に判断する。
Data 4011 from the road
付加的な情報の例として、レーン中心点列生成部302からのデータ4007のレーン中心点列の位置に基づき、曲率半径を算出する等が挙げられる。曲率半径の求め方の例としては、レーン中心点列から代表的な3点を選択し、その点を通る円を算出する。
An example of the additional information includes calculating the radius of curvature based on the position of the lane center point sequence in the
他にもレーン情報のIDが切り替わるまでの距離をレーン中心点列の位置に基づき算出することやセンサ情報統合部112からの信号情報や停止線、横断歩道情報の位置を道路情報やレーン情報に紐づける等が挙げられる。また、センサSの特性を考慮して、図7に示すような検知範囲F015の検知端や検知距離に応じて道路情報やレーン情報に信頼度情報を紐づける。
In addition, the distance until the lane information ID is switched is calculated based on the position of the lane center point sequence, and the position of signal information, stop line, and crosswalk information from the sensor
自己位置姿勢推定部104からのデータ2018は、自車位置を想定し、地図・経路情報取得部101からのデータ2005は、地図情報を想定し、地図選択部307では、データ2018の自車位置に基づき、自車位置の周辺の地図をデータ2005から選択する。選択された地図情報は、図6に示す地図ノードF001の位置情報、地図リンク同士のリンク角度F003やリンク本数、道路種別、交差点種別と地図リンクF002の地図ノード間のIDの接続関係や進行レーンのレーン数、対向レーンのレーン数を想定する。
The
センサ付加情報生成部306からのデータ2009は、付加情報のある道路及びレーン構造情報を想定し、地図選択部307からのデータ4015は、自車位置に基づき選択された地図情報を想定し、誤り訂正部308ではこれら2つの情報を比較し、地図情報と不一致のあるデータ2009における道路及びレーン構造情報を訂正する。道路及びレーン構造情報は、センサ検知範囲の境界や自車から遠方になるほど精度が低下するセンサに基づくため、得られた位置に応じて道路及びレーン構造情報の信頼度を変化させる。
The
一方で、地図情報は鮮度に課題があり、工事等により実際の道路と形状が異なる場合がある。地図情報から信頼度が得られる場合は、センサ情報を基にした道路及びレーン構造情報の信頼度が低く、地図情報からの信頼度が高い場合に地図情報と道路及びレーン構造情報に不一致があれば、道路及びレーン構造情報を訂正する。これにより、鮮度に課題がある地図情報のみを信頼し、最終結果が誤ってしまうという可能性を低減できる。 On the other hand, map information has issues with its freshness, and the shape of the road may differ from the actual road due to construction work. When reliability can be obtained from map information, the reliability of road and lane structure information based on sensor information is low, and when reliability from map information is high, there is a discrepancy between map information and road and lane structure information. For example, correct road and lane structure information. As a result, it is possible to reduce the possibility that only map information that has a problem with freshness will be trusted and the final result will be incorrect.
誤り訂正部308からのデータ4016は、地図情報による訂正済みの道路及びレーン構造情報を想定し、地図選択部307からのデータ4024は、進行レーンのレーン数と道路種別、交差点種別とリンク本数を想定し、レーン情報生成部309で、データ4016に含まれないレーン情報を生成する。そして、生成したレーン情報とデータ4016のレーン情報との接続関係を算出する。最終的には、新たに生成したレーン情報と接続情報をデータ4016に追加し、データ4017、4019を出力する。
The
レーン情報生成部309からのデータ4017は、センサ情報に基づくレーン情報と地図情報に基づくレーン情報とを合成したレーン情報を持つ道路及びレーン構造情報を想定し、道路情報生成部310において、合成された地図情報に基づくレーン情報が属する道路情報を生成する。そして、生成した道路情報とデータ4017の道路情報との接続関係を算出する。最終的には、新たに生成した道路情報と接続情報をデータ4017に追加し、データ4022を出力する。
レーン情報生成部309からのデータ4019は、センサ情報に基づくレーン情報と地図情報に基づくレーン情報を想定し、地図選択部307からのデータ4023は、地図ノードの位置情報、地図リンク同士のリンク角度、進行レーンのレーン数を活用し、簡易レーン中心点列生成部311において、簡易的なレーン中心点を生成する。
図19は、レーン中心点の生成方法の一例を説明する図である。
レーン中心点の生成は、例えば図19に示す自車F100が交差点を右折するシーンでは、地図ノードF109から交差点の大きさの1/2、つまり交差点の半分のサイズである距離F105の地点から地図リンクF107に対して垂線F106を下ろし、地図リンクF107から道路中心推定距離F104の地点に退出点F110を設定する。FIG. 19 is a diagram illustrating an example of a method for generating a lane center point.
For example, in the scene where the vehicle F100 turns right at an intersection shown in FIG. 19, the lane center point is generated from the map node F109 at a distance F105, which is half the size of the intersection, that is, half the size of the intersection. A perpendicular line F106 is drawn down to the link F107, and an exit point F110 is set at a point at an estimated road center distance F104 from the map link F107.
なお、道路中心推定距離F104は、地図リンクF107の(進行レーンのレーン数×3.5m)/2と想定する。道路中心とするのは、簡易地図自体は精度が保証される情報ではないため、レーンレベルで退出点を生成するのではなく、目安として退出点を設定するためである。また、交差点のサイズ/2の距離F105は、自車F100が存在する進行レーンの各レーンのレーン幅を加算した値を交差点のサイズと設定する。なお、リンク角度はF101とF107のリンク角度F103を使用する。 Note that the estimated road center distance F104 is assumed to be (number of traveling lanes x 3.5 m)/2 of the map link F107. The reason for setting the road center is to set the exit point as a guide, rather than generating the exit point at the lane level, since the simple map itself is not information whose accuracy is guaranteed. Further, the distance F105 of intersection size/2 is set as the intersection size, which is the sum of the lane widths of each lane of the lane in which the host vehicle F100 is present. Note that the link angle F103 of F101 and F107 is used.
そして、データ4019に含まれる退出点F110が属する道路の延長線F112と進入点F102が属するレーンの延長線F111との交差する点F113における交差角をリンク角度F103とし、データ4019に含まれる交差点の進入点F102と退出点F110と点F113の角度F103により、円弧やクロソイド曲線、スプライン曲線、ベジエ曲線等で近似し、レーン中心点を生成する。なお、生成したレーン中心点に基づき交差点を退出するまでを本情報で制御するわけではなく、交差点に進入するための目安とし、進入後に自車F100が交差点退出側の白線情報や路端情報を検出するまでのつなぎとする。なお、交差点退出点は1点であるが交差点の進入点は複数点を想定し、交差点に進入するレーン毎に簡易レーン中心点を生成する。
Then, the intersection angle at the point F113 where the extension line F112 of the road to which the exit point F110 included in the
道路情報生成部310からのデータ4022は、データ2009の道路情報にデータ4015を合成した道路情報を想定し、データ4018は、データ2009のレーン情報にデータ4015を合成したレーン情報を想定し、地図付加情報合成部312では、これらのデータを用いて、センサ道路・レーン構造生成部105の道路及びレーン構造情報には含まれておらず、地図にしか存在しない付加情報、つまり、地図のみに存在する付加情報を、センサ道路・レーン構造生成部105からの道路及びレーン構造情報に合成する。地図にしか存在しない付加情報の例として、地図の道路種別や制限速度等を想定する。また、簡易レーン中心点列生成部311からのデータ4020に関しても地図付加情報合成部312において、道路及びレーン構造情報に合成する。そして、地図合成部の最終出力としてデータ4021を出力する。
The
[図4の説明]
レーン中心点列生成部302の詳細例について図4のフローチャートを用いて説明する。
まず、図10に示す白線情報F024に基づき、S01~S04の処理により、検知した全ての白線点列のペアに対し、中心点列の候補を生成する。本処理は、白線が検知可能な区間のための処理となる。ここでの白線点列とは、連続的に繋がった白線を表し、その白線の2つをペアとする。なお、破線の場合は例外とし、継続的に線が続いている場合は、白線の1つとする。[Explanation of Figure 4]
A detailed example of the lane center point
First, based on the white line information F024 shown in FIG. 10, center point sequence candidates are generated for all pairs of detected white line point sequences through the processes S01 to S04. This process is for sections where white lines can be detected. The white line dot sequence here represents a series of continuously connected white lines, and two of the white lines are made into a pair. An exception will be made in the case of broken lines, and if the line continues continuously, it will be treated as one of the white lines.
次に、白線が検知できない無車線区間のための処理として、S05~S08は、図10に示す白線情報F024及び図9に示す路端情報F022に基づき、仮想的なレーン中心点を算出する。最後に、S01~S04までのレーン中心点と、S05~S08までの仮想的なレーン中心点をS09で統合する。これにより、無車線区間を間に介したレーン同士の接続関係を示すレーン構造情報を生成することができる。 Next, in steps S05 to S08, a virtual lane center point is calculated based on the white line information F024 shown in FIG. 10 and the road edge information F022 shown in FIG. 9 as processing for a laneless section where no white line can be detected. Finally, the lane center points from S01 to S04 and the virtual lane center points from S05 to S08 are integrated in S09. Thereby, lane structure information indicating the connection relationship between lanes with a lane-free section in between can be generated.
図4のS01~S04の処理について説明する。
S01は、全ての白線点列のペアを処理したかどうかを判断するための繰り返しの条件である。白線が検知可能な区間においては、1つのレーンは2つの白線点列から構成されるため、本処理ではそのペアに対し、繰り返し処理する。The processing of S01 to S04 in FIG. 4 will be explained.
S01 is a repetition condition for determining whether all pairs of white line point sequences have been processed. In a section where a white line can be detected, one lane is composed of two white line dot arrays, so in this process, the pair is repeatedly processed.
次に、S02において、白線点列のペアを選択する。図10の例のように自車の進行方向に連続して位置する白線点列だけではなく、垂直に位置する交差点を抜けた右左折側の白線点列も処理の対象とする。 Next, in S02, pairs of white line dot columns are selected. As in the example of FIG. 10, not only the rows of white line dots located continuously in the direction of travel of the host vehicle, but also the rows of white line dots on the right/left turn side after exiting an intersection located perpendicularly are subject to processing.
S03において、選択された白線点列のペアから、レーン中心点列の候補を生成する。 In S03, lane center point sequence candidates are generated from the selected pair of white line point sequences.
次に、S04において、レーン中心点候補から必要な中心点のみを絞り込む。例えば、白線点列同士の距離が一般的なレーン幅3.5mに近いかどうかを指標とし、極端に短いか長いものに関しては、後段の処理から除外する。これにより、後段の処理時間削減が可能である。また、路端情報により自車から見てレーン中心点列候補の位置が路端の外にあるかを判断し、レーン中心点列候補から除外する。 Next, in S04, only necessary center points are narrowed down from the lane center point candidates. For example, whether the distance between the white line dots is close to the general lane width of 3.5 m is used as an index, and if it is extremely short or long, it is excluded from the subsequent processing. This makes it possible to reduce the processing time at the subsequent stage. Also, based on the road edge information, it is determined whether the position of the lane center point array candidate is outside the road edge when viewed from the own vehicle, and the lane center point array candidate is excluded from the lane center point array candidates.
次に、S05~S08の処理について説明する。 Next, the processing of S05 to S08 will be explained.
S05は、無車線区間を検出するための条件である。例えば、図10の白線情報F024が交差点進入口で途切れ、交差点の直進、右左折側の交差点退出口で白線が現れるパターンを判断して無車線区間とする。他にも、図9の路端情報F022により、交差点の形状パターンを判断して無車線区間としてもよく、白線情報と交差点手前の停止線や横断歩道から複合的に無車線区間を判断してもよい。また、判断の確度を上げるために、図12に示すような、交差点の特徴点として、右左折の方法F018の標示の情報を、使ってもよい。また、図13のように交差点手前の停止線だけでなく、交差点内の停止線F019の標示の情報を使ってもよく、図14のように信号情報F021を使ってもよい。図12、交差点内に標示される、右左折の方法F018を示す図、図13は、交差点内の停止線F019を示す図である。 S05 is a condition for detecting a lane-free section. For example, a pattern in which the white line information F024 in FIG. 10 is interrupted at the intersection entrance, and a white line appears at the intersection exit exit on the straight-ahead or right-left turn side is determined and determined to be a lane-free section. In addition, the shape pattern of the intersection may be determined using the road edge information F02 2 in Figure 9 to determine a lane-free section, or the lane-free section may be determined from a combination of white line information, a stop line in front of the intersection, and a crosswalk. It's okay. Further, in order to increase the accuracy of the judgment, information on the sign indicating the right/left turn method F018 may be used as a feature point of the intersection, as shown in FIG. 12. Furthermore, in addition to the stop line before the intersection as shown in FIG. 13, the information on the sign of the stop line F019 inside the intersection may be used, or the signal information F021 as shown in FIG. 14 may be used. FIG. 12 is a diagram showing the right/left turn method F018 marked inside the intersection, and FIG. 13 is a diagram showing the stop line F019 inside the intersection.
S06では、交差点の進入点を算出する。進入点とは、例えば図8に示すF022を指し、図10の白線F024から算出したS01~S04のレーン中心点の端点を選択する。 In S06, the intersection entry point is calculated. The entry point refers to, for example, F022 shown in FIG. 8, and selects the end point of the lane center point of S01 to S04 calculated from the white line F024 in FIG. 10.
S07では、交差点の退出点を算出する。退出点とは、図8に示すF017を指し、S06と同様に図10の白線F024から算出したS01~S04のレーン中心点の端点を選択する。また、図10の白線F024が検出できず、図9の路端情報F022が検出できる場合は、路端点の間隔F023を道路幅として仮定し、幅からレーン数を推定して、退出点を生成するとよい。また、図14の信号情報の位置F021を元に、右折後の最左レーンの退出点のみ推定してもよい。これらを複合的に判断し、安定した出力を算出するとよい。 In S07, the exit point of the intersection is calculated. The exit point refers to F017 shown in FIG. 8, and similarly to S06, the end point of the lane center point of S01 to S04 calculated from the white line F024 of FIG. 10 is selected. In addition, if the white line F024 in Figure 10 cannot be detected but the road edge information F022 in Figure 9 can be detected, the interval F023 between the road edge points is assumed to be the road width, the number of lanes is estimated from the width, and the exit point is generated. It's good to do that. Further, based on the position F021 of the signal information in FIG. 14, only the exit point of the leftmost lane after a right turn may be estimated. It is best to consider these factors in combination and calculate a stable output.
S08では、S06で算出した進入点とS07で算出した退出点の組み合わせを決定し、仮想的なレーン中心点列を算出する。仮想的なレーン中心点列とは、例えば図8における交差点内の点線で示した中心点列を指す。仮想的なレーン中心点列は、進入点を有するレーンと退出点を有するレーンとの間の無車線区間を仮想的なレーンで接続した場合に、その仮想的なレーンのレーン中心点列となる。どの進入点と退出点を接続するかについては、図5のレーンL03はレーンが増加し、右折専用レーンであるため、レーンL03上に位置する進入点は、交差点右折側のレーンL12やL13上に位置する退出点と接続する。 In S08, a combination of the approach point calculated in S06 and the exit point calculated in S07 is determined, and a virtual lane center point sequence is calculated. The virtual lane center point sequence refers to, for example, the center point sequence indicated by dotted lines within the intersection in FIG. 8. A virtual lane center point sequence becomes a lane center point sequence of a virtual lane when a lane without lanes between a lane with an entry point and a lane with an exit point is connected by a virtual lane. . As for which approach point and exit point should be connected, lane L03 in Figure 5 has an additional lane and is a right-turn only lane, so the approach point located on lane L03 should be connected to lane L12 or L13 on the right-turn side of the intersection. Connect with the exit point located at .
この際、図13に示す交差点内の停止線F019の情報を活用することによって、右折側に接続されるレーンである確度が上がるため、本情報を持って誤接続を防止するとよい。また、図5のレーンL02上に位置する進入点は、交差点左折側のレーンL04やL05と直進のレーンL11上に位置する退出点と接続する。 At this time, by utilizing the information on the stop line F019 in the intersection shown in FIG. 13, the accuracy that the lane is connected to the right turn side increases, so it is good to have this information to prevent erroneous connections. Further, the entry point located on the lane L02 in FIG. 5 connects with the exit point located on the lane L04 or L05 on the left-turn side of the intersection and the straight lane L11.
図21は、交差点の進入点と退出点から仮想レーン中心点列を生成する方法の一例を示す図である。接続する際の仮想的なレーン中心点列は、図21に示すように、進入点F022と退出点F017を、レーン中心点近似用の制御点とする。そして、退出点F017が属するレーンの延長線F033と、進入点F022が属するレーンの延長線F032とが交差する点F031の交差角F034を用い、円弧やクロソイド曲線、スプライン曲線、ベジエ曲線等で近似する。 FIG. 21 is a diagram illustrating an example of a method for generating a virtual lane center point sequence from intersection entry points and exit points. As shown in FIG. 21, a virtual lane center point sequence for connection uses an entry point F022 and an exit point F017 as control points for lane center point approximation. Then, using the intersection angle F034 of the point F031 where the extension line F033 of the lane to which the exit point F017 belongs and the extension line F032 of the lane to which the entry point F022 belongs intersect, it is approximated by a circular arc, clothoid curve, spline curve, Bezier curve, etc. do.
なお、図12に示す右左折の方法F018を通り過ぎないことや、図13の交差点内の停止線F019の中心を通るように、それぞれの右左折の方法F018や交差点内の停止線F019を制御点の1つとして近似してもよい。また、図11に示すように先行車F026の位置の履歴を活用し、仮想的なレーン中心点を生成してもよい。先行車F026は、カメラセンサS1やLiDARセンサS2を備えていてもよく、C2XやV2Xからの情報を得てもよい。 Note that each right/left turn method F018 and the stop line F019 in the intersection should be set as control points so as not to pass the right/left turn method F018 shown in FIG. 12 and to pass through the center of the stop line F019 in the intersection shown in FIG. It may be approximated as one of the following. Furthermore, as shown in FIG. 11, a virtual lane center point may be generated by utilizing the history of the position of the preceding vehicle F026. The preceding vehicle F026 may be equipped with a camera sensor S1 and a LiDAR sensor S2, and may obtain information from C2X and V2X.
以上のようにS05~S08により、交差点や料金所等の無車線区間においても、進入点および退出点と交差角の算出により、無車線区間内におけるセンサ情報が少ない状況においても無車線区間におけるレーンレベルの走行計画が可能となる効果がある。 As described above, with S05 to S08, even in laneless sections such as intersections and toll gates, by calculating the approach point, exit point, and intersection angle, the lane in the laneless section can be adjusted even in situations where there is little sensor information in the laneless section. This has the effect of making it possible to plan a level trip.
[図15、図16の説明] 図7において、交差点の右折専用レーン発生手前でのセンサ検知範囲F015に対する本実施形態の処理結果の例を説明する。 [Description of FIGS. 15 and 16] In FIG. 7, an example of the processing results of this embodiment for the sensor detection range F015 before the occurrence of the right turn lane at the intersection will be described.
まず、図3におけるセンサ道路・レーン構造生成部105の算出例を説明する。
図7に示す検知範囲F015に対して、図10の白線情報と図9の路端情報が検知されたとする。図10に示す例では、白線情報は、右折専用レーンの増加を検知しており、また、交差点左折側の白線が検知できている。また、図9に示す例では、路端情報は、交差点左折側と右折対向車線側を検知できている。First, an example of calculation by the sensor road/lane
Assume that the white line information in FIG. 10 and the roadside information in FIG. 9 are detected in the detection range F015 shown in FIG. 7 . In the example shown in FIG. 10, the white line information detects an increase in the number of right turn lanes, and also detects the white line on the left turn side of the intersection. Further, in the example shown in FIG. 9, the road edge information can detect the left turn side of the intersection and the right turn oncoming lane side.
以上のデータを利用し、まず、図4のS01~S04までの処理により、図15に示すように、自車位置から交差点までのレーン1~3及び交差点左折側のレーン4とレーン5までのレーン中心点列が検知できる。 Using the above data, first, through the processing from S01 to S04 in Figure 4, as shown in Figure 15, lanes 1 to 3 from the own vehicle position to the intersection, and lanes 4 and 5 on the left turn side of the intersection are The lane center point sequence can be detected.
そして、白線が交差点手前で途切れることから、図4のS06の処理により、図15のレーン2とレーン3に対し、交差点への進入点が算出できる。次に、図4のS07の処理により、レーン4とレーン5の交差点からの退出点が算出できる。最後に図4のS08の処理により、無車線区間において、レーン2とレーン4を接続するためのレーン6におけるレーン中心点列が算出できる。また、レーン2とレーン5を接続するためのレーン7におけるレーン中心点列が算出できる。
Since the white line breaks before the intersection, the entry point to the intersection can be calculated for lane 2 and
それぞれのレーン中心点列が生成できれば、レーン中心点列の位置関係により、図15における各レーンの左右接続F030が生成でき、前後接続F031が生成できる。そして、それぞれのレーン増減と交差点の境界点に基づき、道路情報として、領域R01、R02、R03、R04が生成され、その前後接続F031が生成できる。また、交差点右折側は、白線情報は検知できていないが、路端情報として右折側の角が検知できているため、領域R06とその接続F032が生成できる。 If each lane center point string can be generated, the left-right connection F030 of each lane in FIG. 15 can be generated, and the front-back connection F031 can be generated depending on the positional relationship of the lane center point strings. Then, areas R01, R02, R03, and R04 are generated as road information based on the increase/decrease of each lane and the boundary point of the intersection, and a connection F031 before and after them can be generated. Furthermore, although white line information has not been detected on the right-turn side of the intersection, since the corner on the right-turn side has been detected as road edge information, region R06 and its connection F032 can be generated.
次に、図3における地図合成部106の算出例を説明する。
簡易地図として図6に示す情報が提供されているとする。本地図によると交差点種別は十字路であり、地図リンクF002では、右左折側において進行レーンが2レーン、対向レーンが2レーン、直進において進行レーンが1レーン、対向レーンが2レーンあるとする。Next, an example of calculation by the
Assume that the information shown in FIG. 6 is provided as a simple map. According to this map, the intersection type is a crossroads, and in map link F002, there are two forward lanes and two oncoming lanes on the right/left turn side, and one forward lane and two oncoming lanes when going straight.
センサ道路・レーン構造生成部105の算出例と簡易地図を比較すると、センサ道路・レーン構造生成部105で生成できている情報のレーン数及び道路の接続は簡易地図と一致するため、図3の誤り訂正部における訂正はなされない。しかし、センサ道路・レーン構造生成部105では、交差点直進の道路及びレーン情報と交差点右折側のレーン情報が生成されていないため、図15に示すように、地図合成部106では、道路情報F033とそれに属するレーン11をセンサ道路・レーン構造生成部105の結果に合成する。
Comparing the calculation example of the sensor road/lane
また、交差点右折側では、領域R06に属するレーンとして、簡易地図の進行レーンが2レーンという情報からレーンF034(レーン12とレーン13)を生成する。そして、交差点内の領域R04に対し、不足するレーンを生成する。ここでは、レーン2とレーン11とを接続するレーン8を生成する。また、レーン3とレーン12とレーン13を接続するレーン9とレーン10を生成する。
Furthermore, on the right-turn side of the intersection, lane F034 (lane 12 and lane 13) is generated as a lane belonging to region R06 based on the information that there are two lanes of travel on the simple map. Then, an insufficient lane is generated for the area R04 within the intersection. Here, lane 8 connecting lane 2 and lane 11 is generated. Furthermore, lanes 9 and 10 connecting
なお、簡易地図のみで生成した道路情報及びレーン情報の信頼度を設定しておくことで、制御として自車速度を上げすぎないよう安全側の対応が可能となる。例えば、レーン13が目的とする経路である場合、簡易地図から生成された情報と判断できるため、低速で交差点に進入し、交差点右折側の白線情報や路端情報が検知でき始めるまで徐々に進行する等の対応が可能となる。センサで見えた情報のみの提供となると、見えるまでは制御ができず、車両を動かせない状況になるのを防止できる利点がある。また、混雑等の状況で右折できない場合においてもセンサで検知できている左折に進行する等の異常時の動作に安全に移行できる利点がある。 Note that by setting the reliability of the road information and lane information generated only from the simple map, it is possible to take safe measures to prevent the own vehicle speed from increasing too much as a control. For example, if lane 13 is the intended route, the information can be determined to have been generated from a simple map, so enter the intersection at low speed and gradually advance until you can begin to detect the white line information and road edge information on the right-turn side of the intersection. It becomes possible to take measures such as Providing only the information seen by the sensors means that until the information is seen, no control can be taken, which has the advantage of preventing a situation in which the vehicle cannot be moved. Furthermore, even if a right turn is not possible due to congestion or the like, there is an advantage that the vehicle can safely shift to an abnormal operation detected by the sensor, such as proceeding to a left turn.
図7において、交差点の右折専用レーン移動時でのセンサ検知範囲F020に対する本実施形態の処理結果の例を説明する。
交差点の右折専用レーンに自車が移ると、より多くの白線情報及び路端情報が検出できるようになる。例えば、図10の白線情報では、検知範囲F020において、交差点右折側の白線情報が検知できるようになる。また、図9の路端情報では、検知範囲F020において、交差点右左折側の路端情報が検知できるようになる。In FIG. 7, an example of the processing results of this embodiment for the sensor detection range F020 when moving in the right turn lane at an intersection will be described.
When the vehicle moves to the right turn lane at the intersection, more white line information and road edge information can be detected. For example, with the white line information in FIG. 10, the white line information on the right turn side of the intersection can be detected in the detection range F020. Further, in the road edge information shown in FIG. 9, road edge information on the right and left turn sides of the intersection can be detected in the detection range F020.
したがって、図16に示すように、センサ道路・レーン構造生成部105では、これまで検知できていないレーンL12とレーンL13が生成でき、それに接続される交差点内のレーンL9とレーンL10が生成できる。また、交差点直進側に路端が検出されていないことから、領域R05が生成できる。ただし、白線情報は検知されていないため、レーン情報は生成できない。
Therefore, as shown in FIG. 16, the sensor road/lane
これに対し、地図合成部106を処理すると、領域R05において、簡易地図の進行レーンが1レーンであることから、レーンL11を生成でき、それに接続されるレーンL8が生成できる。
On the other hand, when the
[図17の説明] 地図合成部106における誤り訂正部308の例について図17を用いて説明する。
図7の検知範囲F020において、図17に示すセンサ道路・レーン構造生成部105の出力にセンサの誤検知が原因で交差点直進にレーンL11とレーンL14の2レーンが生成されたとする。白線情報のみから判断すると交差点直進側は対向レーンが2レーン、進行レーンが1レーンあることから進行レーンの数を誤ることはありうるケースである。
この際に、簡易地図の進行レーンが1レーンである情報を用いて、レーンL14は誤りとして、最終出力から除外する。これにより、より確度の高い情報を用いて信頼性の高い情報が生成でき、信頼度向上できる利点がある。[Description of FIG. 17] An example of the
Assume that in the detection range F020 of FIG. 7, two lanes, lane L11 and lane L14, are generated in the output of the sensor road/lane
At this time, using the information that the simple map has one lane of travel, lane L14 is treated as an error and excluded from the final output. This has the advantage that highly reliable information can be generated using more accurate information and reliability can be improved.
<第2実施形態>
実施例2における走行支援装置の内部処理ブロックの構成を図18に例示する。
[構成]
図18は、地図・ロケータユニットU1からの地図情報として、高精度地図を追加で利用する場合の構成を指す。図18は、実施例1における図2の構成に対し、高精度地図情報取得部131、地図道路・レーン構造生成部132、及び、最適道路・レーン構造選択部133を追加した構成となる。<Second embodiment>
FIG. 18 illustrates the configuration of an internal processing block of the driving support device in the second embodiment.
[composition]
FIG. 18 shows a configuration in which a high-precision map is additionally used as map information from the map/locator unit U1. 18 has a configuration in which a high-precision map
[データの流れ] 図2に対する差分のみ説明するが、地図・経路情報取得部101、位置姿勢情報取得部102、センサ情報取得部103、センサ情報統合部112、自己位置姿勢推定部104、及び、センサ道路・レーン構造生成部105と、それらブロックへのデータの流れは図2と同様である。
[Data Flow] Only the differences with respect to FIG. 2 will be explained, but the map/route
図18では、地図・ロケータユニットU1からのデータ2031を高精度地図情報取得部131に入力し、データ2032を出力する。高精度地図情報取得部131からのデータ2032と自己位置姿勢推定部104からのデータ2037を地図道路・レーン構造生成部132に入力し、データ2033を出力する。
In FIG. 18,
地図・経路情報取得部101からのデータ2005と、自己位置姿勢推定部104からのデータ2018と、センサ道路・レーン構造生成部105からのデータ2009を地図合成部に入力し、データ2034を出力する。なお、出力データは、図2の2010、2012と同様である。
地図合成部106からのデータ2034と地図道路・レーン構造生成部132からのデータ2033を最適道路・レーン構造選択部133に入力し、データ2035、2036を出力する。
Data 2034 from the
地図・経路情報取得部101からのデータ2004と自己位置姿勢推定部104からのデータ2008と最適道路・レーン構造選択部133からのデータ2035を経路情報付加部107に入力し、データ2011を出力する。
最適道路・レーン構造選択部133からのデータ2036と経路情報付加部107からのデータ2011を制御部108に入力し、データ2014、2015を出力する。
[機能ブロックとデータ内容説明]
地図・ロケータユニットU1からのデータ2031は、データ2001とは異なり、高精度地図情報を想定し、高精度地図情報取得部131でデータを取得し、必要に応じて変換をかけ、メモリに格納する。なお、高精度地図は、図6に示す簡易地図の情報に加え、レーンレベルの情報を持ち、例えば、図8に示すような各レーンの形状を表す情報であるF016に類する情報を持つ。また、形状や地図ノードの位置等に関しても、簡易地図に対し、精度が数cmの情報を想定する。高精度地図情報取得部131での変換例としては、緯度、経度のようなグローバル座標系の情報を平面座標系に変換する等が挙げられる。これにより、後段の距離計算が容易になる。[Explanation of functional blocks and data contents]
Unlike the
高精度地図情報取得部131からのデータ2032は、レーンレベルの情報を持つ高精度な地図を想定し、自己位置姿勢推定部104からのデータ2037は、自車位置及び姿勢情報を想定し、地図道路・レーン構造生成部132でデータを取得し、必要に応じて変換をかけ、メモリに格納する。地図道路・レーン構造生成部132での変換例としては、図5に示す領域R01~R06、レーンL01~L13に類するデータ形式として、地図合成部106からのデータ2034と同様の形式とする。また、自己位置姿勢推定部104からの自車位置及び姿勢情報によりグローバル座標系のデータを自車相対座標系に変換する。
The
地図合成部106からのデータ2034は、簡易地図と合成済みの道路及びレーン構造を想定し、地図道路・レーン構造生成部132からのデータ2033は、高精度地図に基づく道路及びレーン構造を想定し、最適道路・レーン構造選択部133において、データ2034とデータ2033のデータの精度を考慮し、最適な道路及びレーン構造にマージし、データ2035、2036を出力する。センサの情報に基づくデータ2034の信頼度が高ければ、データ2034をデータ2033より優先的にマージするが、信頼度が低い場合は、データ2033をデータ2044より優先的にマージする。
The data 2034 from the
最適道路・レーン構造選択部133からのデータ2035は、図2のデータ2010と同様の形式であり、経路情報付加部107は図2と同様の方法で、道路及びレーン情報から経路を生成する。
The
最適道路・レーン構造選択部133からのデータ2036は、高精度地図を用いてより精度を高めた道路及びレーン情報を表し、制御部108で走行計画部109と軌道計画部110を実施する。これにより、センサが信頼できない場合や簡易地図が信頼できない場合でも高精度地図を扱うことで情報の信頼度を高め、より安全な制御が可能となる。
The
図2の制御部108の入力となる経路情報付加部107からのデータ2011は、図3のデータ2011と同フォーマットを想定し、図2の構成でも図3の構成でも同様のロジックの制御部108を動作させることができ、図2と図3のシステムの切り替えの工数が少ない効果がある。
The
また、図2の制御部108の入力となる地図合成部106からのデータ2012は、図3の最適道路・レーン構造選択部133からのデータ2036と同フォーマットを想定し、
図2の構成でも図3の構成でも同様のロジックの制御部108を動作させることができ、図2と図3のシステムの切り替えの工数が少ない効果がある。Furthermore, it is assumed that the
The
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention as described in the claims. Changes can be made. For example, the embodiments described above have been described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Furthermore, it is possible to add, delete, or replace some of the configurations of each embodiment with other configurations.
1・・・自車、3・・・走行支援装置、101・・・地図・経路情報取得部、102・・・位置姿勢情報取得部、103・・・センサ情報取得部、105・・・センサ道路・レーン構造生成部、106・・・地図合成部、107・・・経路情報付加部、109・・・走行計画部、110・・・軌道計画部、S・・・センサ、U1・・・地図・ロケータユニット、D・・・アクチュエータ DESCRIPTION OF SYMBOLS 1... Own vehicle, 3... Driving support device, 101... Map/route information acquisition part, 102... Position and orientation information acquisition part, 103... Sensor information acquisition part, 105... Sensor Road/lane structure generation unit, 106...Map synthesis unit, 107...Route information addition unit, 109...Travel planning unit, 110...Trajectory planning unit, S...Sensor, U1... Map/locator unit, D... actuator
Claims (7)
前記センサ情報に基づいて道路及びレーン構造情報を生成するセンサ道路・レーン構造生成部と、
前記自車の位置情報に基づいて選択された地図情報と前記センサ道路・レーン構造生成部により生成された前記道路及びレーン構造情報とを合成する地図合成部と、を有し、
前記センサ道路・レーン構造生成部は、
前記センサ情報に含まれる道路の情報に基づき前記道路が有するレーンのレーン中心点列を生成し、
前記レーン中心点列に基づいて前記道路の無車線区間の進入点と退出点を算出し、
該進入点から退出点まで前記自車が移動するための仮想レーンのレーン中心点列を生成し、前記レーンのレーン中心点列と前記仮想レーンのレーン中心点列とを統合して、前記無車線区間を間に介した前記レーン同士の接続関係を示すレーン構造情報を生成し、
前記地図合成部は、
前記地図情報と前記道路及びレーン構造情報とを比較して、前記道路及びレーン構造情報の中で前記地図情報と不一致のある情報を訂正する誤り訂正部と、
前記地図情報と前記誤り訂正部により訂正された前記道路及びレーン構造情報とに基づいて、前記道路及びレーン構造情報に含まれていないレーン構造情報を生成し、前記道路及びレーン構造情報に含まれているレーン構造情報と合成するレーン情報生成部と、
該レーン情報生成部により合成されたレーン構造情報が属する道路情報を生成する道路情報生成部と、
を有し、
前記道路情報生成部は、センサ情報に基づくレーン構造情報と地図情報に基づくレーン構造情報とを合成したレーン構造情報を持つ道路及びレーン構造情報を用いて前記道路情報を生成し、
前記誤り訂正部は、前記センサ情報に基づく前記道路のレーン数と前記地図情報に基づく前記道路のレーン数とが相違する場合に、前記センサ情報に基づく前記道路のレーン数を前記地図情報に基づく前記道路のレーン数に一致させる訂正を行う
ことを特徴とする走行支援装置。 a sensor information acquisition unit that acquires sensor information detected around the own vehicle by a sensor;
a sensor road/lane structure generation unit that generates road and lane structure information based on the sensor information;
a map synthesis unit that synthesizes map information selected based on the position information of the own vehicle and the road and lane structure information generated by the sensor road and lane structure generation unit;
The sensor road/lane structure generation unit includes:
generating a lane center point sequence of lanes that the road has based on road information included in the sensor information;
calculating entry points and exit points of a lane-free section of the road based on the lane center point sequence;
A lane center point sequence of a virtual lane for the vehicle to move from the approach point to the exit point is generated, the lane center point sequence of the lane and the lane center point sequence of the virtual lane are integrated, and the lane center point sequence of the virtual lane is integrated. Generate lane structure information indicating a connection relationship between the lanes with a lane section in between;
The map synthesis unit is
an error correction unit that compares the map information and the road and lane structure information and corrects information that does not match the map information in the road and lane structure information;
Generate lane structure information that is not included in the road and lane structure information based on the map information and the road and lane structure information corrected by the error correction unit, and generate lane structure information that is not included in the road and lane structure information. a lane information generation unit that synthesizes lane structure information with the lane structure information;
a road information generation unit that generates road information to which the lane structure information synthesized by the lane information generation unit belongs;
has
The road information generation unit generates the road information using a road and lane structure information having lane structure information that is a combination of lane structure information based on sensor information and lane structure information based on map information,
When the number of lanes on the road based on the sensor information and the number of lanes on the road based on the map information are different, the error correction unit is configured to change the number of lanes on the road based on the sensor information on the basis of the map information. Make corrections to match the number of lanes on the road.
A driving support device characterized by:
前記道路のレーン中心点列に基づいて前記道路のレーン増減境界を判定し、
前記道路のレーン中心点列の位置と前記道路のレーン増減境界とに基づいて前記レーンのレーン構造情報を生成し、
前記レーン増減境界の情報と無車線区間とそれ以外の境界情報が想定されるデータと、レーンID、各レーン間の前後・左右の接続関係が想定されるデータとを用いて前記道路の道路情報を生成することを特徴とする請求項1に記載の走行支援装置。 The sensor road/lane structure generation unit includes:
determining lane increase/decrease boundaries of the road based on a lane center point sequence of the road;
generating lane structure information of the lane based on the position of a lane center point sequence of the road and lane increase/decrease boundaries of the road;
The road information of the road is calculated using the information on the lane increase/decrease boundary, data on which lane-free sections and other boundary information are assumed, and data on which the lane ID and the front/back/left/right connections between each lane are assumed. The driving support device according to claim 1, wherein the driving support device generates the following.
前記地図合成部は、前記簡易地図の情報に基づいて前記仮想レーンの簡易レーン中心点列を生成し、前記レーンのレーン中心点列と前記仮想レーンの簡易レーン中心点列とを統合して、前記道路及びレーン構造情報を生成することを特徴とする請求項2に記載の走行支援装置。 It has a map/route information acquisition unit that acquires route information and information on a simple map used for route guidance from the map data ,
The map synthesis unit generates a simple lane center point sequence of the virtual lane based on information on the simple map, integrates the lane center point sequence of the lane and the simple lane center point sequence of the virtual lane, The driving support device according to claim 2, wherein the driving support device generates the road and lane structure information.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020023952 | 2020-02-17 | ||
JP2020023952 | 2020-02-17 | ||
PCT/JP2020/047349 WO2021166410A1 (en) | 2020-02-17 | 2020-12-18 | Travel assistance device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021166410A1 JPWO2021166410A1 (en) | 2021-08-26 |
JP7394206B2 true JP7394206B2 (en) | 2023-12-07 |
Family
ID=77391906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022501655A Active JP7394206B2 (en) | 2020-02-17 | 2020-12-18 | Driving support device |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7394206B2 (en) |
DE (1) | DE112020005630T5 (en) |
WO (1) | WO2021166410A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230316912A1 (en) * | 2022-03-31 | 2023-10-05 | Denso Corporation | Path prediction based on intersection information from map messages |
CN115493609B (en) * | 2022-09-27 | 2023-05-23 | 禾多科技(北京)有限公司 | Lane-level path information generation method, device, equipment, medium and program product |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016189084A (en) | 2015-03-30 | 2016-11-04 | 株式会社ホンダアクセス | Vehicle state determination device |
JP2018087763A (en) | 2016-11-29 | 2018-06-07 | アルパイン株式会社 | Travelable region setting device and setting method of travelable region |
JP2018200501A (en) | 2017-05-25 | 2018-12-20 | 日産自動車株式会社 | Lane information output method and lane information output device |
JP2019207190A (en) | 2018-05-30 | 2019-12-05 | 株式会社Soken | Self-position estimation device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6294247B2 (en) * | 2015-01-26 | 2018-03-14 | 株式会社日立製作所 | Vehicle travel control device |
JP2019032712A (en) * | 2017-08-08 | 2019-02-28 | パイオニア株式会社 | Determination device, method for determination, and program |
JP6828668B2 (en) * | 2017-12-04 | 2021-02-10 | 株式会社デンソー | Lane network data generator, lane network data generator and storage medium |
JP6641583B2 (en) * | 2018-01-31 | 2020-02-05 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
JP7043295B2 (en) * | 2018-03-07 | 2022-03-29 | 本田技研工業株式会社 | Vehicle control devices, vehicle control methods, and programs |
DE112018007134T5 (en) | 2018-03-23 | 2020-11-05 | Mitsubishi Electric Corporation | DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE PROCEDURE AND DRIVER ASSISTANCE PROGRAM |
-
2020
- 2020-12-18 DE DE112020005630.9T patent/DE112020005630T5/en active Pending
- 2020-12-18 JP JP2022501655A patent/JP7394206B2/en active Active
- 2020-12-18 WO PCT/JP2020/047349 patent/WO2021166410A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016189084A (en) | 2015-03-30 | 2016-11-04 | 株式会社ホンダアクセス | Vehicle state determination device |
JP2018087763A (en) | 2016-11-29 | 2018-06-07 | アルパイン株式会社 | Travelable region setting device and setting method of travelable region |
JP2018200501A (en) | 2017-05-25 | 2018-12-20 | 日産自動車株式会社 | Lane information output method and lane information output device |
JP2019207190A (en) | 2018-05-30 | 2019-12-05 | 株式会社Soken | Self-position estimation device |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021166410A1 (en) | 2021-08-26 |
WO2021166410A1 (en) | 2021-08-26 |
DE112020005630T5 (en) | 2022-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11526173B2 (en) | Traveling trajectory correction method, traveling control method, and traveling trajectory correction device | |
WO2020012208A1 (en) | Driving environment information generation method, driving control method, driving environment information generation device | |
US11847838B2 (en) | Recognition device | |
US20200164873A1 (en) | Action Prediction Method and Action Prediction Device of Traveling Assistance Device | |
JP6956268B2 (en) | Driving environment information generation method, driving control method, driving environment information generation device | |
CN111527015A (en) | Vehicle control device | |
JP7394206B2 (en) | Driving support device | |
KR102611507B1 (en) | Driving assistance method and driving assistance device | |
JP2009075933A (en) | Position calculation device in branched road, position calculation method in branched road, and position calculation program in branched road | |
US20190258259A1 (en) | Vehicle control device | |
JP2020087267A (en) | Route candidate setting system and route candidate setting method | |
JP7043765B2 (en) | Vehicle driving control method and equipment | |
US10766490B2 (en) | Driving assistance method and driving assistance apparatus | |
JP7312356B2 (en) | Vehicle driving support system | |
JP2018063122A (en) | Route selection method and route selection device | |
JP7252513B2 (en) | Vehicle driving support system | |
WO2018189844A1 (en) | Driving control method and driving control device | |
JP2018173534A (en) | Map generation method and map generation device | |
JP2023054084A (en) | Vehicle stereo camera device | |
CN114523968B (en) | Surrounding vehicle monitoring device and surrounding vehicle monitoring method | |
WO2021209403A1 (en) | Detection of obstacles in a curved road | |
JP7024871B2 (en) | Route calculation method, operation control method and route calculation device | |
JP7470214B2 (en) | Lane marking recognition device | |
ITO et al. | Deepening method for LeanMAP content based on a virtual trajectory by lateral transcription | |
JP7482613B2 (en) | Intersection passage determination method and intersection passage determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7394206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |