CN111527497A - 用于运行具有至少一个用于检测自主车辆环境的环境传感器的自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统和车辆 - Google Patents

用于运行具有至少一个用于检测自主车辆环境的环境传感器的自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统和车辆 Download PDF

Info

Publication number
CN111527497A
CN111527497A CN201980006902.7A CN201980006902A CN111527497A CN 111527497 A CN111527497 A CN 111527497A CN 201980006902 A CN201980006902 A CN 201980006902A CN 111527497 A CN111527497 A CN 111527497A
Authority
CN
China
Prior art keywords
autonomous vehicle
vehicle
motion
environment
driver assistance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980006902.7A
Other languages
English (en)
Other versions
CN111527497B (zh
Inventor
A·罗斯科普夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Publication of CN111527497A publication Critical patent/CN111527497A/zh
Application granted granted Critical
Publication of CN111527497B publication Critical patent/CN111527497B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种用于运行自主车辆的驾驶员辅助系统的方法,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,所述方法包括:借助所述至少一个环境传感器在自主车辆环境中检测多个车辆的运动;借助检测到的相应车辆的运动生成运动模型,该运动模型包括相应车辆之间的运动以及相应车辆与自主车辆之间的运动;借助机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率,其中,借助机器学习方法学习所生成的运动模型的一个或多个对于交通状况而言表征性的运动特征,并且借助机器学习方法基于运动模型的经学习的表征性特征确定交通状况和正确分类交通状况的概率;并且使自主车辆的驾驶员辅助系统适应特定的交通状况。

Description

用于运行具有至少一个用于检测自主车辆环境的环境传感器 的自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统 和车辆
技术领域
本发明涉及一种用于运行具有至少一个用于检测自主车辆(Egofahrzeug)环境的环境传感器的自主车辆的驾驶员辅助系统的方法。本发明还涉及一种计算机可读介质、一种系统和一种车辆,该车辆包括用于运行具有至少一个用于检测自主车辆环境的环境传感器的自主车辆的驾驶员辅助系统的系统。
背景技术
当前的车辆利用车辆周围的物体、位置信息或地图数据来说明状况。车辆周围的物体通常通过车辆的环境模型来阐明。WO2010/127650A1描述了一种用于处理车辆传感器数据的方法。借助占用栅格(Belegungsgitter)评估传感器数据。DE102006059068A1描述了一种用于说明交通状况的方法,其中可利用物体相对于车道的位置来说明交通状况。但物体可能被遮挡并且因此无法用于说明交通状况。此外,被遮挡物体的基于卫星的位置数据和地图数据通常过于不准确或过时,以致无法利用被遮挡物体来说明交通状况。
发明内容
因此,本发明的任务是更有效地说明交通状况。本发明的任务还在于针对交通状况更好地运行车辆的驾驶员辅助系统。
根据第一方面,本发明的特征在于一种用于运行具有至少一个用于检测自主车辆环境的环境传感器的自主车辆的驾驶员辅助系统的方法。所述自主车辆可以是部分、高度或全自动行驶的车辆。环境传感器可以是雷达传感器、激光传感器、相机传感器和/或超声波传感器。该方法包括借助所述至少一个环境传感器在自主车辆环境中检测多个车辆的运动。车辆可在自主车辆的车道上和/或一个或多个相邻车道上行驶并且可被所述至少一个环境传感器检测到。该方法借助检测到的相应车辆的运动生成运动模型,该运动模型包括相应车辆之间的运动以及相应车辆与自主车辆之间的运动。该方法借助机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率,其中,借助机器学习方法学习所生成的运动模型的一个或多个对于交通状况而言表征性的运动特征,并且借助机器学习方法基于运动模型的经学习的表征性特征确定交通状况和正确分类交通状况的概率。该方法使自主车辆的驾驶员辅助系统适应特定的交通状况。
通过更精确地确定和/或分类交通状况可有利地使驾驶员辅助系统更有效地运行。由于街道和/或车道的表征性特征不会被遮挡,因此不必使用自主车辆不准确的位置信息和/或不必使用不准确或过时的地图数据,因此运动模型可在评估交通状况时使可靠性提高。通过运动模型来描述车辆交互可通过自主车辆环境中各车辆的车辆交互来检测和确定交通状况。自主车辆可借助车辆交互来对交通状况进行分类并使驾驶员辅助系统适应分类的交通状况。例如可预调整驾驶员辅助系统,使得驾驶员辅助系统可为自主车辆的乘员更精确且更安全地执行驾驶操纵。
根据一种有利的实施方式,运动可包括车辆的至少一个位置、速度以及正加速度或负加速度。
根据另一种有利的实施方式,自主车辆的驾驶员辅助系统可在自主车辆如下位置之前适应特定的交通状况,在该位置处自主车辆的驾驶员辅助系统实施关于交通状况的操纵。由此驾驶员辅助系统能够前瞻性地适应所识别的交通状况并及时准备操纵。
根据另一种有利的实施方式,交通状况可通过运动模型的一个或多个表征性特征来说明。
根据另一种有利的实施方式,所述运动模型的表征性特征可以是环境中的两个或更多车辆之间和/或环境中的车辆与自主车辆之间的距离、距离变化、加速度变化、位置变化和/或速度变化。
根据另一种有利的实施方式,借助检测到的相应车辆的运动生成运动模型可包括训练机器学习方法;并且借助经过训练的机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率。由此自主车辆可有效地识别交通状况。
根据另一种有利的实施方式,所述机器学习方法可以是递归神经网络,并且该递归神经网络包含多个长短期存储单元。由此可有效地学习交通状况。
根据另一方面,本发明的特征在于一种用于运行自主车辆的驾驶员辅助系统的计算机可读介质,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,该计算机可读介质包括指令,当在计算机或控制器上执行该指令时,该指令使计算机或控制器实施上述方法。
根据另一方面,本发明的特征在于一种用于运行自主车辆的驾驶员辅助系统的系统,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,所述系统构造用于实施上述方法。
根据另一方面,本发明的特征在于一种车辆,其包括上述用于运行自主车辆的驾驶员辅助系统的系统,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器。
附图说明
本发明的其它特征由权利要求、附图和附图说明给出。所有上面在说明书中提到的特征和特征组合以及下面在附图说明中提到和/或在附图中单独示出的特征和特征组合不仅可在说明的组合中,而且也可在其它组合中或单独被使用。
下面参考附图阐述本发明的优选实施例。由此给出本发明的其它细节、优选实施方式和扩展方案。具体地示意性如下:
图1示出一种示例性交通状况;和
图2示出用于对交通状况进行分类的方法的示意性结构。
具体实施方式
图1详细示出具有多个车辆的示例性交通状况100。交通状况100表示从两个车道到一个车道的车道变窄。交通状况100例如出现在工地、事故情况、高速公路尽头或主干道的超车区域,在那里车道往往从两个或更多车道变窄为一个车道。通过自主车辆102的一个或多个环境传感器,自主车辆102可检测自主车辆102环境中的车辆104至114的运动、即位置、速度和加速度。在交通状况100中,自主车辆102可检测到车辆104,该车辆在与自主车辆102相同的车道上行驶并且插入到车辆108和车辆112之间的空隙中。
为此车辆104改变车道。此外,自主车辆102可检测基本上平行于自主车辆102行驶的车辆106。此外,自主车辆102还可检测车辆106与车辆114之间的空隙,自主车辆102可插入到该空隙中。
自主车辆102可从检测到的相应车辆104至114的运动中生成运动模型,其在下文中也称为交互模型。图2示出用于对交通状况进行分类的方法200的示意性结构。如图2所示,相应车辆104至114的位置u_1、速度u_2和加速度u_3可用作该方法的输入数据。自主车辆102基于输入数据生成运动或交互模型。为此,车辆104至114的相应运动、即相应位置u_1、速度u_2和加速度u_3彼此之间相互关联并且与自主车辆102相关联。
具体而言,通过基于输入数据、如车辆104至114的相应位置u_1、相应速度u_2以及相应加速度u_3训练一种机器学习方法、优选递归神经网络或具有长短期存储单元的递归神经网络(也称为LSTM网络)或另一种机器学习方法,自主车辆102可生成运动模型。优选针对具体交通场景、如交通场景100来训练机器学习方法。通过训练机器学习方法例如可学习车辆104至114和自主车辆102的表征性运动特征、如车辆104至114和自主车辆102的表征性相对运动。
在图1的示例性交通状况100中,在机器学习方法训练期间,机器学习方法可学习到:车辆112继续跟随车辆110、即在车辆112与车辆110之间的距离保持大致相同、相对速度接近0,并且从自主车辆102的角度看,车辆112的位置位于车辆110的位置之后,其它车辆108、114、106因车辆104驶入车辆108和车辆112之间的空隙中而改变它们的相对位置,即自主车辆102与车辆108、114和106的距离发生变化,相对速度不等于0,并且车辆108、114和106的位置相对于自主车辆102发生变化。
机器学习方法的训练可通过自主车辆102或自主车辆102外部的服务器来进行。如果在自主车辆102外部训练机器学习方法,则自主车辆102可将输入数据、如车辆104到114和自主车辆102的相应速度u_2和相应加速度u_3传输到服务器并从服务器接收经过训练的机器学习方法。通过将输入数据传输到服务器并从服务器接收经过训练的机器学习方法,自主车辆102可生成用于交通状况、如交通状况100的运动模型。
自主车辆102可执行机器学习方法、优选经训练的机器学习方法,以便基于所生成的运动模型来确定交通状况y。经训练的机器学习方法可识别所生成的运动模型的一个或多个对于交通状况表征性的运动特征并且可通过表征性的运动特征来确定或分类交通状况。例如经训练的机器学习方法可在车辆x跟随车辆y或车辆x并入到车辆y后方的交通状况和其它表征性的运动特征下推断如图1所示的交通状况,以便对交通状况进行分类。除交通状况y之外,自主车辆102还可确定表明正确评估交通状况的可靠性的概率P。
在图1的交通状况中示出工地,在工地处车道合并成一个车道。基于其它车辆104至114的位置、速度和加速度,自主车辆102可学习到:在该交通状况中的速度与没有工地的道路上的速度相比更低。此外,在其它车辆106、108、110、112、114和另外的车辆104与自主车辆102之间的距离的特点是小距离。此外,在自主车辆102和其它车辆104至114中常常出现短暂的负加速度。自主车辆102可使用学习的表征性的运动特征来推断出工地交通状况并且给出可靠评估交通状况的概率。自主车辆可使自主车辆的驾驶员辅助系统适应于特定的交通状况。
有利的是,自主车辆可在自主车辆的一个或多个周围传感器不必检测交通控制物体、如路锥或其它交通控制标志的情况下检测交通状况。基于运动模型和运动模型中描述的车辆交互来说明交通状况可比使用地图数据或基于卫星的位置数据进行确定更可靠地确定交通状况。
除了工地交通状况外,自主车辆还可基于经学习的特征来检测其它交通状况,且自主车辆的环境传感器不必完全检测周围环境。例如自主车辆可基于运动模型的表征性距离、速度和加速度来检测高速公路行驶并相应调整自主车辆的驾驶员辅助系统。
附图标记列表
100 交通状况
102 自主车辆
104 车辆
106 车辆
108 车辆
110 车辆
112 车辆
114 车辆
116 路锥
200 方法的示意性结构

Claims (10)

1.一种用于运行自主车辆的驾驶员辅助系统的方法,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,所述方法包括:
-借助所述至少一个环境传感器在自主车辆环境中检测多个车辆的运动;
-借助检测到的相应车辆的运动生成运动模型,该运动模型包括相应车辆之间的运动以及在相应车辆与自主车辆之间的运动;
-借助机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率,
其中,借助机器学习方法学习所生成的运动模型的一个或多个对于交通状况而言表征性的运动特征,并且
借助机器学习方法基于运动模型的经学习的表征性特征确定交通状况和正确分类交通状况的概率;以及
使自主车辆的驾驶员辅助系统适应于特定的交通状况。
2.根据权利要求1所述的方法,其中,运动包括车辆的至少一个位置、速度以及正加速度或负加速度。
3.根据前述权利要求中任一项所述的方法,其中,使自主车辆的驾驶员辅助系统在自主车辆的如下位置之前适应于特定的交通状况,在该位置处自主车辆的驾驶员辅助系统实施关于所述交通状况的操纵。
4.根据前述权利要求中任一项所述的方法,其中,所述交通状况通过运动模型的一个或多个表征性特征来说明。
5.根据前述权利要求中任一项所述的方法,其中,所述运动模型的表征性特征是环境中的两个或更多车辆之间和/或环境中的车辆与自主车辆之间的距离、距离变化、加速度变化、位置变化和/或速度变化。
6.根据前述权利要求中任一项所述的方法,其中,借助检测到的相应车辆的运动生成运动模型包括训练机器学习方法;以及借助经过训练的机器学习方法基于所生成的运动模型确定交通状况和正确分类交通状况的概率。
7.根据前述权利要求中任一项所述的方法,其中,所述机器学习方法是递归神经网络,并且该递归神经网络包含多个长短期存储单元。
8.用于运行自主车辆的驾驶员辅助系统的计算机可读介质,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,该计算机可读介质包括指令,当在计算机或控制器上执行该指令时,该指令使计算机或控制器实施根据权利要求1至7中任一项所述的方法。
9.用于运行自主车辆的驾驶员辅助系统的系统,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器,所述系统构造用于实施根据权利要求1至7中任一项所述的方法。
10.车辆,包括根据权利要求9所述的用于运行自主车辆的驾驶员辅助系统的系统,所述自主车辆具有至少一个用于检测自主车辆环境的环境传感器。
CN201980006902.7A 2018-05-02 2019-04-30 用于运行自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统和车辆 Active CN111527497B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018206743.0A DE102018206743A1 (de) 2018-05-02 2018-05-02 Verfahren zum Betreiben eines Fahrerassistenzsystems eines Egofahrzeugs mit wenigstens einem Umfeldsensor zum Erfassen eines Umfelds des Egofahrzeugs, Computer-lesbares Medium, System, und Fahrzeug
DE102018206743.0 2018-05-02
PCT/EP2019/061089 WO2019211293A1 (de) 2018-05-02 2019-04-30 Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug

Publications (2)

Publication Number Publication Date
CN111527497A true CN111527497A (zh) 2020-08-11
CN111527497B CN111527497B (zh) 2024-07-09

Family

ID=66542202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980006902.7A Active CN111527497B (zh) 2018-05-02 2019-04-30 用于运行自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统和车辆

Country Status (4)

Country Link
US (1) US11554795B2 (zh)
CN (1) CN111527497B (zh)
DE (1) DE102018206743A1 (zh)
WO (1) WO2019211293A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3084631B1 (fr) * 2018-07-31 2021-01-08 Valeo Schalter & Sensoren Gmbh Assistance a la conduite pour le controle longitudinal et/ou lateral d'un vehicule automobile
WO2021168698A1 (en) 2020-02-26 2021-09-02 Baidu.Com Times Technology (Beijing) Co., Ltd. A mixed regular and open-space trajectory planning method for autonomous driving vehicle
JP7294200B2 (ja) * 2020-03-16 2023-06-20 トヨタ自動車株式会社 情報処理装置、車両システム、情報処理方法、およびプログラム
US20200326721A1 (en) * 2020-06-26 2020-10-15 Intel Corporation Occupancy verification device and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140005907A1 (en) * 2012-06-29 2014-01-02 Magna Electronics Inc. Vision-based adaptive cruise control system
CN106740457A (zh) * 2016-12-07 2017-05-31 镇江市高等专科学校 基于bp神经网络模型的车辆换道决策方法
CN107182206A (zh) * 2016-06-08 2017-09-19 驭势科技(北京)有限公司 车辆自动驾驶的速度规划方法、装置及计算装置
CN107719364A (zh) * 2016-08-11 2018-02-23 Trw汽车股份有限公司 用于确定前面车辆车道变换可能性的控制系统和控制方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006059068A1 (de) * 2006-12-14 2008-06-19 Robert Bosch Gmbh Verfahren für ein Fahrerassistenzsystem und Fahrerassistenzsystem
WO2010127650A1 (de) * 2009-05-06 2010-11-11 Conti Temic Microelectronic Gmbh Verfahren zur auswertung von sensordaten für ein kraftfahrzeug
DE102011118157A1 (de) * 2011-11-10 2013-05-16 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verfahren zum Betreiben eines Informations- und Unterhaltungssystems eines Kraftfahrzeugs und Informations- und Unterhaltungssystem
DE102012009297A1 (de) * 2012-05-03 2012-12-13 Daimler Ag Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
DE102013213006A1 (de) * 2013-07-03 2015-01-08 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenz-Teilsystem für ein Kraftfahrzeug zur Ermittlung der Handlungsoptionen von mehreren Verkehrsteilnehmern
DE102014221682A1 (de) * 2014-10-24 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE102016211587A1 (de) * 2016-06-28 2017-12-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Steuern eines Fahrzeugs
US11010615B2 (en) * 2016-11-14 2021-05-18 Lyft, Inc. Rendering a situational-awareness view in an autonomous-vehicle environment
US10916135B2 (en) * 2018-01-13 2021-02-09 Toyota Jidosha Kabushiki Kaisha Similarity learning and association between observations of multiple connected vehicles
US10540554B2 (en) * 2018-03-29 2020-01-21 Toyota Jidosha Kabushiki Kaisha Real-time detection of traffic situation
US11363031B2 (en) * 2018-08-27 2022-06-14 Ciena Corporation Network architecture providing device identification and redirection using whitelisting traffic classification
US10902303B2 (en) * 2019-01-22 2021-01-26 Honda Motor Co., Ltd. Methods and systems for visual recognition using triplet loss
EP3742345A1 (en) * 2019-05-20 2020-11-25 Robert Bosch GmbH A neural network with a layer solving a semidefinite program
US11868136B2 (en) * 2019-12-19 2024-01-09 Woven By Toyota, U.S., Inc. Geolocalized models for perception, prediction, or planning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140005907A1 (en) * 2012-06-29 2014-01-02 Magna Electronics Inc. Vision-based adaptive cruise control system
CN107182206A (zh) * 2016-06-08 2017-09-19 驭势科技(北京)有限公司 车辆自动驾驶的速度规划方法、装置及计算装置
CN107719364A (zh) * 2016-08-11 2018-02-23 Trw汽车股份有限公司 用于确定前面车辆车道变换可能性的控制系统和控制方法
CN106740457A (zh) * 2016-12-07 2017-05-31 镇江市高等专科学校 基于bp神经网络模型的车辆换道决策方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SAJAN PATEL等: "Predicting Future Lane Changes of Other Highway Vehicles using RNN-based Deep Models" *
惠飞等: "基于动态概率网格和贝叶斯决策网络的车辆变道辅助驾驶决策方法", vol. 18, no. 2, pages 148 - 158 *

Also Published As

Publication number Publication date
WO2019211293A1 (de) 2019-11-07
US11554795B2 (en) 2023-01-17
US20210061311A1 (en) 2021-03-04
DE102018206743A1 (de) 2019-11-07
CN111527497B (zh) 2024-07-09

Similar Documents

Publication Publication Date Title
US10296004B2 (en) Autonomous operation for an autonomous vehicle objective in a multi-vehicle environment
US10121367B2 (en) Vehicle lane map estimation
JP6838241B2 (ja) 移動体挙動予測装置
CN111527497B (zh) 用于运行自主车辆的驾驶员辅助系统的方法、计算机可读介质、系统和车辆
JP6800575B2 (ja) 自己の乗り物のドライバを支援する方法およびシステム
GB2604514A (en) Systems and methods for determining road safety
KR20200075915A (ko) 차량의 주행 제어 장치 및 그 방법
US11351996B2 (en) Trajectory prediction of surrounding vehicles using predefined routes
CN108263382A (zh) 基于目标车辆的驾驶样式的协同自适应巡航控制系统
CN108263383A (zh) 在协同自适应巡航控制系统中控制速度的装置和方法
US20220003558A1 (en) Map information system
WO2020132108A1 (en) Multi-stage object heading estimation
EP3657460A1 (en) Method, computer program product, and driver assistance system for determining one or more lanes of a road in an environment of a vehicle
CN113272197B (zh) 用于改进用于横向车辆运动的辅助系统的装置和方法
CN110908379A (zh) 基于历史信息的车辆轨迹预测方法、装置及存储介质
CN111754015A (zh) 在动态系统中训练和选择最优解决方案的系统和方法
CN112660128A (zh) 用于确定自动驾驶车辆的车道变更路径的设备及其方法
US11919544B2 (en) Method and device for operating an automated vehicle
JP2012059058A (ja) 危険推定装置及びプログラム
JP6507841B2 (ja) 先行車両推定装置及びプログラム
KR102562381B1 (ko) 차량 호라이즌에서 오브젝트를 컨텍스트화 하기 위한 시스템 및 방법
US20230271621A1 (en) Driving assistance device, learning device, driving assistance method, medium with driving assistance program, learned model generation method, and medium with learned model generation program
CN115497323B (zh) 基于v2x的车辆协同变道方法及设备
US10423166B2 (en) Method and apparatus for furnishing a signal for operating at least two vehicles along a first trajectory
KR102350197B1 (ko) 주행경로 설정장치 및 주행경로 설정방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant