CN111527497A - 用于运行具有至少一个用于检测自主车辆环境的环境传感器的自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统和车辆 - Google Patents
用于运行具有至少一个用于检测自主车辆环境的环境传感器的自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统和车辆 Download PDFInfo
- Publication number
- CN111527497A CN111527497A CN201980006902.7A CN201980006902A CN111527497A CN 111527497 A CN111527497 A CN 111527497A CN 201980006902 A CN201980006902 A CN 201980006902A CN 111527497 A CN111527497 A CN 111527497A
- Authority
- CN
- China
- Prior art keywords
- autonomous vehicle
- vehicle
- motion
- environment
- driver assistance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000007613 environmental effect Effects 0.000 title claims abstract description 20
- 230000033001 locomotion Effects 0.000 claims abstract description 62
- 238000010801 machine learning Methods 0.000 claims abstract description 29
- 230000001133 acceleration Effects 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000010276 construction Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/06—Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0051—Handover processes from occupants to vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种用于运行自主车辆的驾驶员辅助系统的方法,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,所述方法包括:借助所述至少一个环境传感器在自主车辆环境中检测多个车辆的运动;借助检测到的相应车辆的运动生成运动模型,该运动模型包括相应车辆之间的运动以及相应车辆与自主车辆之间的运动;借助机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率,其中,借助机器学习方法学习所生成的运动模型的一个或多个对于交通状况而言表征性的运动特征,并且借助机器学习方法基于运动模型的经学习的表征性特征确定交通状况和正确分类交通状况的概率;并且使自主车辆的驾驶员辅助系统适应特定的交通状况。
Description
技术领域
本发明涉及一种用于运行具有至少一个用于检测自主车辆(Egofahrzeug)环境的环境传感器的自主车辆的驾驶员辅助系统的方法。本发明还涉及一种计算机可读介质、一种系统和一种车辆,该车辆包括用于运行具有至少一个用于检测自主车辆环境的环境传感器的自主车辆的驾驶员辅助系统的系统。
背景技术
当前的车辆利用车辆周围的物体、位置信息或地图数据来说明状况。车辆周围的物体通常通过车辆的环境模型来阐明。WO2010/127650A1描述了一种用于处理车辆传感器数据的方法。借助占用栅格(Belegungsgitter)评估传感器数据。DE102006059068A1描述了一种用于说明交通状况的方法,其中可利用物体相对于车道的位置来说明交通状况。但物体可能被遮挡并且因此无法用于说明交通状况。此外,被遮挡物体的基于卫星的位置数据和地图数据通常过于不准确或过时,以致无法利用被遮挡物体来说明交通状况。
发明内容
因此,本发明的任务是更有效地说明交通状况。本发明的任务还在于针对交通状况更好地运行车辆的驾驶员辅助系统。
根据第一方面,本发明的特征在于一种用于运行具有至少一个用于检测自主车辆环境的环境传感器的自主车辆的驾驶员辅助系统的方法。所述自主车辆可以是部分、高度或全自动行驶的车辆。环境传感器可以是雷达传感器、激光传感器、相机传感器和/或超声波传感器。该方法包括借助所述至少一个环境传感器在自主车辆环境中检测多个车辆的运动。车辆可在自主车辆的车道上和/或一个或多个相邻车道上行驶并且可被所述至少一个环境传感器检测到。该方法借助检测到的相应车辆的运动生成运动模型,该运动模型包括相应车辆之间的运动以及相应车辆与自主车辆之间的运动。该方法借助机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率,其中,借助机器学习方法学习所生成的运动模型的一个或多个对于交通状况而言表征性的运动特征,并且借助机器学习方法基于运动模型的经学习的表征性特征确定交通状况和正确分类交通状况的概率。该方法使自主车辆的驾驶员辅助系统适应特定的交通状况。
通过更精确地确定和/或分类交通状况可有利地使驾驶员辅助系统更有效地运行。由于街道和/或车道的表征性特征不会被遮挡,因此不必使用自主车辆不准确的位置信息和/或不必使用不准确或过时的地图数据,因此运动模型可在评估交通状况时使可靠性提高。通过运动模型来描述车辆交互可通过自主车辆环境中各车辆的车辆交互来检测和确定交通状况。自主车辆可借助车辆交互来对交通状况进行分类并使驾驶员辅助系统适应分类的交通状况。例如可预调整驾驶员辅助系统,使得驾驶员辅助系统可为自主车辆的乘员更精确且更安全地执行驾驶操纵。
根据一种有利的实施方式,运动可包括车辆的至少一个位置、速度以及正加速度或负加速度。
根据另一种有利的实施方式,自主车辆的驾驶员辅助系统可在自主车辆如下位置之前适应特定的交通状况,在该位置处自主车辆的驾驶员辅助系统实施关于交通状况的操纵。由此驾驶员辅助系统能够前瞻性地适应所识别的交通状况并及时准备操纵。
根据另一种有利的实施方式,交通状况可通过运动模型的一个或多个表征性特征来说明。
根据另一种有利的实施方式,所述运动模型的表征性特征可以是环境中的两个或更多车辆之间和/或环境中的车辆与自主车辆之间的距离、距离变化、加速度变化、位置变化和/或速度变化。
根据另一种有利的实施方式,借助检测到的相应车辆的运动生成运动模型可包括训练机器学习方法;并且借助经过训练的机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率。由此自主车辆可有效地识别交通状况。
根据另一种有利的实施方式,所述机器学习方法可以是递归神经网络,并且该递归神经网络包含多个长短期存储单元。由此可有效地学习交通状况。
根据另一方面,本发明的特征在于一种用于运行自主车辆的驾驶员辅助系统的计算机可读介质,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,该计算机可读介质包括指令,当在计算机或控制器上执行该指令时,该指令使计算机或控制器实施上述方法。
根据另一方面,本发明的特征在于一种用于运行自主车辆的驾驶员辅助系统的系统,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,所述系统构造用于实施上述方法。
根据另一方面,本发明的特征在于一种车辆,其包括上述用于运行自主车辆的驾驶员辅助系统的系统,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器。
附图说明
本发明的其它特征由权利要求、附图和附图说明给出。所有上面在说明书中提到的特征和特征组合以及下面在附图说明中提到和/或在附图中单独示出的特征和特征组合不仅可在说明的组合中,而且也可在其它组合中或单独被使用。
下面参考附图阐述本发明的优选实施例。由此给出本发明的其它细节、优选实施方式和扩展方案。具体地示意性如下:
图1示出一种示例性交通状况;和
图2示出用于对交通状况进行分类的方法的示意性结构。
具体实施方式
图1详细示出具有多个车辆的示例性交通状况100。交通状况100表示从两个车道到一个车道的车道变窄。交通状况100例如出现在工地、事故情况、高速公路尽头或主干道的超车区域,在那里车道往往从两个或更多车道变窄为一个车道。通过自主车辆102的一个或多个环境传感器,自主车辆102可检测自主车辆102环境中的车辆104至114的运动、即位置、速度和加速度。在交通状况100中,自主车辆102可检测到车辆104,该车辆在与自主车辆102相同的车道上行驶并且插入到车辆108和车辆112之间的空隙中。
为此车辆104改变车道。此外,自主车辆102可检测基本上平行于自主车辆102行驶的车辆106。此外,自主车辆102还可检测车辆106与车辆114之间的空隙,自主车辆102可插入到该空隙中。
自主车辆102可从检测到的相应车辆104至114的运动中生成运动模型,其在下文中也称为交互模型。图2示出用于对交通状况进行分类的方法200的示意性结构。如图2所示,相应车辆104至114的位置u_1、速度u_2和加速度u_3可用作该方法的输入数据。自主车辆102基于输入数据生成运动或交互模型。为此,车辆104至114的相应运动、即相应位置u_1、速度u_2和加速度u_3彼此之间相互关联并且与自主车辆102相关联。
具体而言,通过基于输入数据、如车辆104至114的相应位置u_1、相应速度u_2以及相应加速度u_3训练一种机器学习方法、优选递归神经网络或具有长短期存储单元的递归神经网络(也称为LSTM网络)或另一种机器学习方法,自主车辆102可生成运动模型。优选针对具体交通场景、如交通场景100来训练机器学习方法。通过训练机器学习方法例如可学习车辆104至114和自主车辆102的表征性运动特征、如车辆104至114和自主车辆102的表征性相对运动。
在图1的示例性交通状况100中,在机器学习方法训练期间,机器学习方法可学习到:车辆112继续跟随车辆110、即在车辆112与车辆110之间的距离保持大致相同、相对速度接近0,并且从自主车辆102的角度看,车辆112的位置位于车辆110的位置之后,其它车辆108、114、106因车辆104驶入车辆108和车辆112之间的空隙中而改变它们的相对位置,即自主车辆102与车辆108、114和106的距离发生变化,相对速度不等于0,并且车辆108、114和106的位置相对于自主车辆102发生变化。
机器学习方法的训练可通过自主车辆102或自主车辆102外部的服务器来进行。如果在自主车辆102外部训练机器学习方法,则自主车辆102可将输入数据、如车辆104到114和自主车辆102的相应速度u_2和相应加速度u_3传输到服务器并从服务器接收经过训练的机器学习方法。通过将输入数据传输到服务器并从服务器接收经过训练的机器学习方法,自主车辆102可生成用于交通状况、如交通状况100的运动模型。
自主车辆102可执行机器学习方法、优选经训练的机器学习方法,以便基于所生成的运动模型来确定交通状况y。经训练的机器学习方法可识别所生成的运动模型的一个或多个对于交通状况表征性的运动特征并且可通过表征性的运动特征来确定或分类交通状况。例如经训练的机器学习方法可在车辆x跟随车辆y或车辆x并入到车辆y后方的交通状况和其它表征性的运动特征下推断如图1所示的交通状况,以便对交通状况进行分类。除交通状况y之外,自主车辆102还可确定表明正确评估交通状况的可靠性的概率P。
在图1的交通状况中示出工地,在工地处车道合并成一个车道。基于其它车辆104至114的位置、速度和加速度,自主车辆102可学习到:在该交通状况中的速度与没有工地的道路上的速度相比更低。此外,在其它车辆106、108、110、112、114和另外的车辆104与自主车辆102之间的距离的特点是小距离。此外,在自主车辆102和其它车辆104至114中常常出现短暂的负加速度。自主车辆102可使用学习的表征性的运动特征来推断出工地交通状况并且给出可靠评估交通状况的概率。自主车辆可使自主车辆的驾驶员辅助系统适应于特定的交通状况。
有利的是,自主车辆可在自主车辆的一个或多个周围传感器不必检测交通控制物体、如路锥或其它交通控制标志的情况下检测交通状况。基于运动模型和运动模型中描述的车辆交互来说明交通状况可比使用地图数据或基于卫星的位置数据进行确定更可靠地确定交通状况。
除了工地交通状况外,自主车辆还可基于经学习的特征来检测其它交通状况,且自主车辆的环境传感器不必完全检测周围环境。例如自主车辆可基于运动模型的表征性距离、速度和加速度来检测高速公路行驶并相应调整自主车辆的驾驶员辅助系统。
附图标记列表
100 交通状况
102 自主车辆
104 车辆
106 车辆
108 车辆
110 车辆
112 车辆
114 车辆
116 路锥
200 方法的示意性结构
Claims (10)
1.一种用于运行自主车辆的驾驶员辅助系统的方法,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,所述方法包括:
-借助所述至少一个环境传感器在自主车辆环境中检测多个车辆的运动;
-借助检测到的相应车辆的运动生成运动模型,该运动模型包括相应车辆之间的运动以及在相应车辆与自主车辆之间的运动;
-借助机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率,
其中,借助机器学习方法学习所生成的运动模型的一个或多个对于交通状况而言表征性的运动特征,并且
借助机器学习方法基于运动模型的经学习的表征性特征确定交通状况和正确分类交通状况的概率;以及
使自主车辆的驾驶员辅助系统适应于特定的交通状况。
2.根据权利要求1所述的方法,其中,运动包括车辆的至少一个位置、速度以及正加速度或负加速度。
3.根据前述权利要求中任一项所述的方法,其中,使自主车辆的驾驶员辅助系统在自主车辆的如下位置之前适应于特定的交通状况,在该位置处自主车辆的驾驶员辅助系统实施关于所述交通状况的操纵。
4.根据前述权利要求中任一项所述的方法,其中,所述交通状况通过运动模型的一个或多个表征性特征来说明。
5.根据前述权利要求中任一项所述的方法,其中,所述运动模型的表征性特征是环境中的两个或更多车辆之间和/或环境中的车辆与自主车辆之间的距离、距离变化、加速度变化、位置变化和/或速度变化。
6.根据前述权利要求中任一项所述的方法,其中,借助检测到的相应车辆的运动生成运动模型包括训练机器学习方法;以及借助经过训练的机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率。
7.根据前述权利要求中任一项所述的方法,其中,所述机器学习方法是递归神经网络,并且该递归神经网络包含多个长短期存储单元。
8.用于运行自主车辆的驾驶员辅助系统的计算机可读介质,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,该计算机可读介质包括指令,当在计算机或控制器上执行该指令时,该指令使计算机或控制器实施根据权利要求1至7中任一项所述的方法。
9.用于运行自主车辆的驾驶员辅助系统的系统,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,所述系统构造用于实施根据权利要求1至7中任一项所述的方法。
10.车辆,包括根据权利要求9所述的用于运行自主车辆的驾驶员辅助系统的系统,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018206743.0A DE102018206743A1 (de) | 2018-05-02 | 2018-05-02 | Verfahren zum Betreiben eines Fahrerassistenzsystems eines Egofahrzeugs mit wenigstens einem Umfeldsensor zum Erfassen eines Umfelds des Egofahrzeugs, Computer-lesbares Medium, System, und Fahrzeug |
DE102018206743.0 | 2018-05-02 | ||
PCT/EP2019/061089 WO2019211293A1 (de) | 2018-05-02 | 2019-04-30 | Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111527497A true CN111527497A (zh) | 2020-08-11 |
CN111527497B CN111527497B (zh) | 2024-07-09 |
Family
ID=66542202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980006902.7A Active CN111527497B (zh) | 2018-05-02 | 2019-04-30 | 用于运行自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统和车辆 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11554795B2 (zh) |
CN (1) | CN111527497B (zh) |
DE (1) | DE102018206743A1 (zh) |
WO (1) | WO2019211293A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3084631B1 (fr) * | 2018-07-31 | 2021-01-08 | Valeo Schalter & Sensoren Gmbh | Assistance a la conduite pour le controle longitudinal et/ou lateral d'un vehicule automobile |
WO2021168698A1 (en) | 2020-02-26 | 2021-09-02 | Baidu.Com Times Technology (Beijing) Co., Ltd. | A mixed regular and open-space trajectory planning method for autonomous driving vehicle |
JP7294200B2 (ja) * | 2020-03-16 | 2023-06-20 | トヨタ自動車株式会社 | 情報処理装置、車両システム、情報処理方法、およびプログラム |
US20200326721A1 (en) * | 2020-06-26 | 2020-10-15 | Intel Corporation | Occupancy verification device and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140005907A1 (en) * | 2012-06-29 | 2014-01-02 | Magna Electronics Inc. | Vision-based adaptive cruise control system |
CN106740457A (zh) * | 2016-12-07 | 2017-05-31 | 镇江市高等专科学校 | 基于bp神经网络模型的车辆换道决策方法 |
CN107182206A (zh) * | 2016-06-08 | 2017-09-19 | 驭势科技(北京)有限公司 | 车辆自动驾驶的速度规划方法、装置及计算装置 |
CN107719364A (zh) * | 2016-08-11 | 2018-02-23 | Trw汽车股份有限公司 | 用于确定前面车辆车道变换可能性的控制系统和控制方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006059068A1 (de) * | 2006-12-14 | 2008-06-19 | Robert Bosch Gmbh | Verfahren für ein Fahrerassistenzsystem und Fahrerassistenzsystem |
WO2010127650A1 (de) * | 2009-05-06 | 2010-11-11 | Conti Temic Microelectronic Gmbh | Verfahren zur auswertung von sensordaten für ein kraftfahrzeug |
DE102011118157A1 (de) * | 2011-11-10 | 2013-05-16 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | Verfahren zum Betreiben eines Informations- und Unterhaltungssystems eines Kraftfahrzeugs und Informations- und Unterhaltungssystem |
DE102012009297A1 (de) * | 2012-05-03 | 2012-12-13 | Daimler Ag | Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs |
DE102013213006A1 (de) * | 2013-07-03 | 2015-01-08 | Bayerische Motoren Werke Aktiengesellschaft | Fahrerassistenz-Teilsystem für ein Kraftfahrzeug zur Ermittlung der Handlungsoptionen von mehreren Verkehrsteilnehmern |
DE102014221682A1 (de) * | 2014-10-24 | 2016-04-28 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs |
DE102016211587A1 (de) * | 2016-06-28 | 2017-12-28 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Steuern eines Fahrzeugs |
US11010615B2 (en) * | 2016-11-14 | 2021-05-18 | Lyft, Inc. | Rendering a situational-awareness view in an autonomous-vehicle environment |
US10916135B2 (en) * | 2018-01-13 | 2021-02-09 | Toyota Jidosha Kabushiki Kaisha | Similarity learning and association between observations of multiple connected vehicles |
US10540554B2 (en) * | 2018-03-29 | 2020-01-21 | Toyota Jidosha Kabushiki Kaisha | Real-time detection of traffic situation |
US11363031B2 (en) * | 2018-08-27 | 2022-06-14 | Ciena Corporation | Network architecture providing device identification and redirection using whitelisting traffic classification |
US10902303B2 (en) * | 2019-01-22 | 2021-01-26 | Honda Motor Co., Ltd. | Methods and systems for visual recognition using triplet loss |
EP3742345A1 (en) * | 2019-05-20 | 2020-11-25 | Robert Bosch GmbH | A neural network with a layer solving a semidefinite program |
US11868136B2 (en) * | 2019-12-19 | 2024-01-09 | Woven By Toyota, U.S., Inc. | Geolocalized models for perception, prediction, or planning |
-
2018
- 2018-05-02 DE DE102018206743.0A patent/DE102018206743A1/de active Pending
-
2019
- 2019-04-30 CN CN201980006902.7A patent/CN111527497B/zh active Active
- 2019-04-30 US US16/957,792 patent/US11554795B2/en active Active
- 2019-04-30 WO PCT/EP2019/061089 patent/WO2019211293A1/de active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140005907A1 (en) * | 2012-06-29 | 2014-01-02 | Magna Electronics Inc. | Vision-based adaptive cruise control system |
CN107182206A (zh) * | 2016-06-08 | 2017-09-19 | 驭势科技(北京)有限公司 | 车辆自动驾驶的速度规划方法、装置及计算装置 |
CN107719364A (zh) * | 2016-08-11 | 2018-02-23 | Trw汽车股份有限公司 | 用于确定前面车辆车道变换可能性的控制系统和控制方法 |
CN106740457A (zh) * | 2016-12-07 | 2017-05-31 | 镇江市高等专科学校 | 基于bp神经网络模型的车辆换道决策方法 |
Non-Patent Citations (2)
Title |
---|
SAJAN PATEL等: "Predicting Future Lane Changes of Other Highway Vehicles using RNN-based Deep Models" * |
惠飞等: "基于动态概率网格和贝叶斯决策网络的车辆变道辅助驾驶决策方法", vol. 18, no. 2, pages 148 - 158 * |
Also Published As
Publication number | Publication date |
---|---|
WO2019211293A1 (de) | 2019-11-07 |
US11554795B2 (en) | 2023-01-17 |
US20210061311A1 (en) | 2021-03-04 |
DE102018206743A1 (de) | 2019-11-07 |
CN111527497B (zh) | 2024-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10296004B2 (en) | Autonomous operation for an autonomous vehicle objective in a multi-vehicle environment | |
US10121367B2 (en) | Vehicle lane map estimation | |
JP6838241B2 (ja) | 移動体挙動予測装置 | |
CN111527497B (zh) | 用于运行自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统和车辆 | |
JP6800575B2 (ja) | 自己の乗り物のドライバを支援する方法およびシステム | |
GB2604514A (en) | Systems and methods for determining road safety | |
KR20200075915A (ko) | 차량의 주행 제어 장치 및 그 방법 | |
US11351996B2 (en) | Trajectory prediction of surrounding vehicles using predefined routes | |
CN108263382A (zh) | 基于目标车辆的驾驶样式的协同自适应巡航控制系统 | |
CN108263383A (zh) | 在协同自适应巡航控制系统中控制速度的装置和方法 | |
US20220003558A1 (en) | Map information system | |
WO2020132108A1 (en) | Multi-stage object heading estimation | |
EP3657460A1 (en) | Method, computer program product, and driver assistance system for determining one or more lanes of a road in an environment of a vehicle | |
CN113272197B (zh) | 用于改进用于横向车辆运动的辅助系统的装置和方法 | |
CN110908379A (zh) | 基于历史信息的车辆轨迹预测方法、装置及存储介质 | |
CN111754015A (zh) | 在动态系统中训练和选择最优解决方案的系统和方法 | |
CN112660128A (zh) | 用于确定自动驾驶车辆的车道变更路径的设备及其方法 | |
US11919544B2 (en) | Method and device for operating an automated vehicle | |
JP2012059058A (ja) | 危険推定装置及びプログラム | |
JP6507841B2 (ja) | 先行車両推定装置及びプログラム | |
KR102562381B1 (ko) | 차량 호라이즌에서 오브젝트를 컨텍스트화 하기 위한 시스템 및 방법 | |
US20230271621A1 (en) | Driving assistance device, learning device, driving assistance method, medium with driving assistance program, learned model generation method, and medium with learned model generation program | |
CN115497323B (zh) | 基于v2x的车辆协同变道方法及设备 | |
US10423166B2 (en) | Method and apparatus for furnishing a signal for operating at least two vehicles along a first trajectory | |
KR102350197B1 (ko) | 주행경로 설정장치 및 주행경로 설정방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |