CN114761895A - 混合自动车队的直接和间接控制 - Google Patents
混合自动车队的直接和间接控制 Download PDFInfo
- Publication number
- CN114761895A CN114761895A CN202080071538.5A CN202080071538A CN114761895A CN 114761895 A CN114761895 A CN 114761895A CN 202080071538 A CN202080071538 A CN 202080071538A CN 114761895 A CN114761895 A CN 114761895A
- Authority
- CN
- China
- Prior art keywords
- headway
- vehicle
- target
- hybrid
- vehicles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 20
- 230000006870 function Effects 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 46
- 230000001133 acceleration Effects 0.000 claims description 21
- 230000002787 reinforcement Effects 0.000 claims description 21
- 230000006399 behavior Effects 0.000 claims description 20
- 230000009471 action Effects 0.000 claims description 17
- 238000005457 optimization Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 6
- 230000003190 augmentative effect Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000013459 approach Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241001225883 Prosopis kuntzei Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0293—Convoy travelling
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/22—Platooning, i.e. convoy of communicating vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Hybrid Electric Vehicles (AREA)
Abstract
一种用于直接和间接控制混合自动驾驶车辆的系统接收沿同一方向行驶的一组混合自动驾驶车辆的交通状态,其中,该组混合自动驾驶车辆包括愿意参加车队形成的受控车辆和至少一辆不受控车辆,并且其中,交通状态指示该组中的每个车辆的状态,将交通状态提交给参数化函数以产生目标车头时距,所述参数化函数被训练成将交通状态转换为混合自动驾驶车辆的目标车头时距,并且将目标车头时距提交给基于车头时距的模型以产生目标速度,该模型被配置为将目标车头时距映射到混合自动驾驶车辆的目标速度。该系统基于目标车头时距和目标速度之一或组合来确定控制命令并将控制命令发送到受控车辆。
Description
技术领域
本发明总体上涉及交通控制,并且更具体地涉及控制包括受控车辆和不受控车辆的车队。
背景技术
交通拥堵是全球许多地区的一个重大问题,其代价包括时间损失、环境威胁和浪费的燃料消耗。在美国,交通拥堵的成本可以以每年人均数百美元来衡量。为此,需要减少交通拥堵和/或改善任何其它交通目标。
解决这些问题的一个可能贡献是允许车辆在所谓的“车队”中更紧密地行驶。术语“车队”通常表示它们之间的距离很短的许多车辆,其作为一个单位被驱动。短距离导致更多的车辆可以使用道路,并且由于减少了阻力,单个车辆的能量消耗也减少了。车队中的车辆通过车辆速度的自动控制和其方向的自动控制中的至少之一被驱动。
如今,许多车辆还配备了巡航控制系统,以使驾驶员更容易驾驶车辆。在这种情况下,驾驶员可以通过例如仪表板中的调节器来设置期望速度,并且车辆中的巡航控制系统随后影响控制系统,从而使其在适当时加速和制动车辆,以保持期望速度。如果车辆配备了自动换档系统,则车辆正在行驶的档位被改变,使得车辆可以保持期望的速度。
例如,网联式自适应巡航控制(connected adaptive cruise control,CACC)是一种自主车道保持形式,其中车辆将彼此的位置传送给中央系统,以计算确保稳定性、鲁棒性和最优性的速度控件。配备有CACC的车辆可以与配备有CACC的其它车辆形成车队。但是,交通可能包括具有和不具有CACC的车辆。即使所有车辆都配备有CACC,一些车辆操作者也可能会选择不使用CACC并手动驾驶。在控制车队时的一个重要问题是当手动操作车辆加入车队并扰乱车队时导致的效率低下。由于难以控制手动操作车辆和/或对手动操作车辆进行建模,因此车队几乎无法将车辆从车队中移除。
例如,一种方法将一个车队分成几个车队以确保车队控制的同质性,参见例如US.6356820。但是,这种分解重复了控制方法并增加了不同车队的车辆之间的距离,这反过来会增加交通拥堵。另一种方法控制车队的车辆以确保每个车队的同质性,例如参见US.2012/0123658。然而,这些方法难以应用于手动操作车辆。
发明内容
一些实施方式的目的是提供一种用于控制混合车队的系统和方法。如本文所使用的,这种混合车队包括受控车辆和不受控车辆。受控车辆的示例包括愿意形成车队的自动驾驶车辆和半自动驾驶车辆。例如,受控车辆可以使用网联式自适应巡航控制(CACC),该网联式自适应巡航控制(CACC)被配置为确定对受控车辆的致动器的运动命令以形成和/或维持车队。不受控车辆的示例包括不愿意形成车队的自动驾驶车辆和半自动驾驶车辆以及手动操作车辆(即,由人类驾驶员操作的车辆)。
一些实施方式的另一个目的是提供对形成车队的不受控车辆的间接控制。一些实施方式基于这样的认识,即,形成车队的受控车辆的运动可以间接影响车队中的不受控车辆的运动。例如,受控车辆的减速会迫使尾随的不受控车辆也减速。类似地,增加受控车辆的速度可以鼓励尾随的不受控车辆的驾驶员在开放空间中加速。以这种方式,受控车辆的直接控制可用于鼓励对不受控车辆的自我施加控制,从而允许由包括受控车辆和不受控车辆的混合车辆形成车队。这种对不受控车辆的自我施加控制的鼓励在本文中被称为间接控制。
一方面,这种间接控制是不可靠的。实际上,受控车辆的加速可能不会迫使不受控车辆的加速。恰恰相反,这样的加速可能会不期望地迫使其它驾驶员感觉到危险并使他们的车辆减速。然而,一些实施方式基于由实验证据支持的认识,即,如果满足以下提供的至少两个条件,则受控车辆的直接控制可以高效地用于混合车队中的间接控制。
这两个条件中的第一个条件涉及执行直接控制的手段。一些实施方式基于这样的认识,即,为了高效地控制混合车队,混合车队中的受控车辆的直接控制手段应该与不受控车辆的自我施加间接控制的手段相当。一些实施方式基于以下认识,即,自我施加间接控制的手段是车辆之间的距离。事实上,为了保持安全,驾驶员会根据当前交通速度保持他们认为安全的距离。
为此,为了统一直接控制和间接控制,一些实施方式通过对控制车辆的运动施加约束来提供对受控车辆的直接控制,直接控制包括车队中的两个车辆之间的最大车头时距(headway)和车队中的每个车辆的最大速度之一或其组合。例如,这种直接控制可以与对车辆的致动器的直接命令进行对比,这在原理上与自我施加间接控制不同。此外,对车辆的车头时距和/或速度的约束允许受控车辆使用它们的传统系统进行运动控制。例如,在一些实施方式中,受控车辆是自动驾驶车辆,其被配置为确定对受约束的自动驾驶车辆的致动器的运动命令。
两个条件中的第二个条件涉及执行直接控制的手段的计算。一些实施方式基于这样的认识,即,为了高效的间接控制,需要使用对混合车队中的所有车辆可能是公共的或至少相关的性能指标的优化来确定对车队中的车辆的车头时距和/或速度的约束。此外,应该在所有混合车辆都愿意并且能够以受控方式参与形成车队的假设下确定这样的性能指标。
然而,这种用于形成车队的混合自动车辆的直接和间接控制器的设计具有挑战性。设计此类控制器有两种方法,即,基于学习的控制器或学习器、以及基于求解的控制器或求解器。学习器和求解器都将输入映射到输出。然而,学习器从数据或经验中获取映射,而求解器从模型中获取针对每个给定输入的映射。然而,在这种情况下,两种方法都不是最优的,因为他律的混合自动车辆的行为模型是未知的,而学习器可能由于不受控车辆的零星行为而无法收敛到稳定控制。
一些实施方式基于以下认识:强化学习(诸如,深度强化学习(DRL))可以根据一些实施方式的原理进行修改,以直接和间接控制混合自动车辆的车队。具体而言,一些实施方式不是产生改变环境的动作,而是训练参数化函数(诸如DRL控制器),以产生强制车队形成的目标车头时距作为奖励。通过这种方式,学习器可以适应混合自动车辆的未知动力学。
例如,一些实施方式使用基于车头时距的模型,该基于车头时距的模型被配置为将目标车头时距映射到混合自动驾驶车辆的目标速度,例如最终映射到车辆的动作。基于车头时距的模型允许使用车头时距作为控制参数,并且将控制参数与可用于形成车队的车辆的动作相关联。换句话说,基于车头时距的模型允许学习非自动并且更一般地不受控车辆的未知行为。示例性的基于车头时距的车辆行为模型是最优速度模型(OVM)。OVM将车辆的车头时距与安全行驶速度相关联。存在其它类似的模型并且可以由不同的实施方式类似地使用。
因此,一个实施方式公开了一种用于直接和间接控制混合自动驾驶车辆的系统,该系统包括:接收器,其被配置为接收沿同一方向行驶的一组混合自动驾驶车辆的交通状态,其中,该组混合自动驾驶车辆包括愿意参加车队形成的受控车辆和至少一个不受控车辆,并且其中,交通状态指示该组中的每个车辆的状态;存储器,其被配置为存储参数化函数,该参数化函数被训练为将交通状态转换为混合自动驾驶车辆的目标车头时距;以及存储基于车头时距的模型,该基于车头时距的模型被配置为将目标车头时距映射到混合自动驾驶车辆的目标速度;处理器,其被配置为将交通状态提交到参数化函数以产生目标车头时距;将目标车头时距提交给基于车头时距的模型以产生目标速度;以及基于目标车头时距和目标速度之一或组合确定对受控车辆的控制命令;以及发送器,其被配置为向该组混合自动驾驶车辆中的受控车辆发送控制命令。
另一个实施方式公开了一种用于直接和间接控制混合自动驾驶车辆的方法,其中,该方法使用与实现该方法的存储指令联接的处理器,其中,指令在由处理器执行时执行该方法的步骤,所述步骤包括:接收沿同一方向行驶的一组混合自动驾驶车辆的交通状态,其中,该组混合自动驾驶车辆包括愿意参加车队形成的受控车辆和至少一个不受控车辆,并且其中,交通状态指示该组中的每个车辆的状态;将交通状态提交给参数化函数以产生目标车头时距,该参数化函数被训练为将交通状态转换为混合自动驾驶车辆的目标车头时距;将目标车头时距提交给基于车头时距的模型以产生目标速度,该基于车头时距的模型被配置为将目标车头时距映射到混合自动驾驶车辆的目标速度;基于目标车头时距和目标速度之一或组合确定对受控车辆的控制命令;以及向该组混合自动驾驶车辆中的受控车辆发送控制命令。
又一实施方式公开了一种非暂时性计算机可读存储介质,其上具体实现可由处理器执行以用于执行方法的程序。该方法包括:接收沿同一方向行驶的一组混合自动驾驶车辆的交通状态,其中,该组混合自动驾驶车辆包括愿意参与车队形成的受控车辆和至少一个不受控车辆,并且其中,交通状态指示该组中的每个车辆的状态;将交通状态提交给参数化函数以产生目标车头时距,该参数化函数被训练为将交通状态转换为混合自动驾驶车辆的目标车头时距;将目标车头时距提交给基于车头时距的模型以产生目标速度,该基于车头时距的模型被配置为将目标车头时距映射到混合自动驾驶车辆的目标速度;基于目标车头时距和目标速度之一或组合确定对受控车辆的控制命令;以及向该组混合自动驾驶车辆中的受控车辆发送控制命令。
附图说明
[图1A]
图1A示出了根据一些实施方式的形成车队的混合自动驾驶车辆的控制的示意图。
[图1B]
图1B示出了根据一些实施方式的用基于车头时距的模型增强的基于学习的控制器的一般工作流程。
[图2]
图2示出了提供根据一些实施方式的直接和间接控制车队形成的总体概览的示意图。
[图3A]
图3A示出了根据一些实施方式的训练增强的强化学习控制器的示意图。
[图3B]
图3B示出了根据一个实施方式的图3A的学习的输入和输出。
[图4]
图4示出了根据一些实施方式的比较无模型和增强的强化学习的收敛性的图。
[图5]
图5示出了根据一些实施方式的用于直接和间接控制混合自动驾驶车辆的系统的框图。
[图6A]
图6A示出了根据一些实施方式的被直接或间接控制的车辆的示意图。
[图6B]
图6B示出了接收根据一些实施方式确定的受控命令的控制器与车辆的其它控制器之间的交互的示意图。
具体实施方式
系统概览
本公开涉及一组混合自动驾驶车辆,其旨在形成车队,该车队是在单车道上一起行驶的一组车辆。该组车辆的自动驾驶特征是混合的,因为一些车辆自主运行并愿意形成车队,而一些车辆不愿意形成车队和/或由人类操作者操作。例如,一个实施方式涉及由共享控制器控制的自动驾驶车辆的子组,以实现车队作为一个整体的更好操作。
图1A示出了根据一些实施方式的形成车队的混合自动驾驶车辆的控制的示意图。根据一些实施方式,一组混合自动驾驶车辆包括愿意参加车队形成的受控车辆和至少一个不受控车辆。控制器102通过向控制车辆发送控制命令直接控制受控自动驾驶车辆,例如车辆103和104。控制器102还间接控制不受控车辆,诸如不愿参加车队的自动驾驶车辆105和人类操作车辆106。具体地,控制器102基于混合自动驾驶车辆的交通状态控制受控车辆,使得受控车辆的直接控制还提供对不受控车辆的间接控制。
为了控制不同类型的自动驾驶车辆,一些实施方式使用在所有车辆之间共享的控制参数并基于该参数直接控制受控车辆,同时跟踪该参数用于其它车辆。为此,一些实施方式的实现是,车辆(无论是自动驾驶的还是人类操作的)最终根据期望速度和车头时距(即,到车辆前面的距离)来控制它们在单个车道中在长道路段上的行为。更具体地说,车队在所有车辆之间共享期望速度,而车头时距可以基于车辆类型、车载控制器和自主驾驶特性而变化。
例如,一些实施方式基于由实验证据支持的实现,即,如果满足以下提供的至少两个条件,则对受控车辆的直接控制可以高效地用于混合车队中的间接控制。这两个条件中的第一个条件与执行直接控制的手段有关。一些实施方式基于这样的认识,即,为了高效地控制混合车队,混合车队中的受控车辆的直接控制手段应该与不受控车辆的自我施加间接控制的手段相当。一些实施方式基于对自我施加间接控制手段是车辆之间的距离的认识。事实上,为了保持安全,驾驶员会根据当前的交通速度保持他们认为安全的距离。
两个条件中的第二个条件与执行直接控制的手段的计算有关。一些实施方式基于这样的认识,即,为了高效的间接控制,需要使用对混合车队中的所有车辆可能是公共的或至少相关的性能指标的优化来确定车队中的车辆的目标车头时距。此外,应该在所有混合车辆都愿意并且能够以受控方式参与形成车队的假设下确定这样的性能指标。
然而,用于形成车队的混合自动车辆的这种直接和间接控制器的设计具有挑战性。设计此类控制器有两种方法,即,基于学习的控制器或学习器、和基于求解的控制器或求解器。学习器和求解器都将输入映射到输出。然而,学习器从数据或经验中获取映射,而求解器从模型中获取每个给定输入的映射。然而,在这种情况下,两种方法都不是最优的,因为他律混合自动车辆的行为模型是未知的,而学习器可能由于不受控车辆的零星行为而无法收敛到稳定控制。
例如,基于学习的控制可以来自两类学习器:深度学习器和深度强化学习器。在深度学习(DL)和深度强化学习(DRL)中,训练会导致具有固定结构(由深度神经网络给出)的参数化函数和许多可调整参数。DL和DRL之间的区别在于在训练期间学习函数的方式。深度学习是一种监督方法,通过使依赖于训练集中的输入和目标输出的误差函数最小化来学习参数。另一方面,深度强化学习是一种从经验中学习的非监督方法,其中,误差函数取决于状态及其继任者的值。在DL和DRL中,可以通过经由随机梯度下降来最小化误差函数而执行训练,其中,通过在梯度方向上采取多个步骤来逐步递增地修改参数向量。类似的优化算法用于基于策略的DRL,其中,参数化的函数表示策略。
一些实施方式基于这样的认识,即,强化学习(诸如,DRL)可以根据一些实施方式的原理进行修改,以直接和间接控制混合自动车辆的车队。具体而言,代替产生改变环境的动作,一些实施方式训练参数化函数(诸如,DRL控制器)以产生执行车队形成的目标车头时距作为奖励。通过这种方式,学习器可以适用于混合自动车辆的未知动力学。
例如,一些实施方式使用基于车头时距的模型,该基于车头时距的模型被配置为将目标车头时距映射到混合自动驾驶车辆的目标速度,并且例如最终映射到车辆的动作。基于车头时距的模型允许使用车头时距作为控制参数,并将控制参数与可用于形成车队的车辆的动作相关联。换句话说,基于车头时距的模型允许学习非自动并且更一般地不受控车辆的未知行为。示例性的基于车头时距的车辆行为模型是最优速度模型(OVM)。OVM将车辆的车头时距与安全行驶速度相关联。存在其它类似的模型并且可以由不同的实施方式类似地使用。例如,一些实施方式使用具有不同最佳速度函数(OVF)、全速差模型(FVDM)、智能驱动器模型(IDM)、其变体等的OVM的变体。
例如,在一个实施方式中,所使用的特定的基于学习的控制方案是增强深度强化学习(DRL)。DRL解决了在线优化问题,以同时学习系统的行为并学习控制同一系统。通常,DRL可以是无模型的,也可以通过使用模型来增强。在没有模型的情况下,DRL控制器的行为可能会变得不稳定,因为由于需要对更大的参数集进行优化,因此存在更多局部最优状态,从而优化可能会遇到收敛困难。事实上,我们自己的比较无模型DRL和增强DRL的实验表明,虽然无模型DRL通常无法收敛到稳定控制,但是基于模型的版本在这方面几乎没有困难。
图1B示出了根据一些实施方式的用基于车头时距的模型增强的基于学习的控制器的一般工作流程。基于车头时距的模型150被用于将车辆的行为表示为在基于学习的控制器154的设计中的一个必要部分,该基于学习的控制器被训练成控制156车队中的车辆158的行为。模型150被告知160作为实际车辆行为158的设计选择,使得网联的车辆被直接控制并且未网联的车辆被间接控制。
一般来说,车队中的车辆i的车头时距根据微分方程演化:
其中,hi是车辆的车头时距,vi是它的速度,vi-1是前车的速度。速度根据以下变化:
其中,ui是车辆加速度。加速度与施加在车辆上的力成正比,该力通过车轮与地面的接触而传递到车身。力本身被确定为某些高级控制器的输出,在非自动驾驶车辆的情况下可能是人类操作者,或者在自主驾驶车辆的情况下可能是速度控制器。为了建模的目的,一些实施方式表示加速度是两个参数的加权和,其权重因车辆而异,
参数vmax、hs和hg在各个车辆之间不同。这些符号指的是最大优选速度vmax(即,车辆在没有障碍物的情况下行驶的速度)、停车车头时距hs(即,车辆将变为完全停止、以及继续前进或全速的车头时距)、车头时距hg(即,车辆将以最大速度vmax行驶的车头时距)。
控制系统包括监测不受控车辆的车头时距h、速度v和加速度u的通信系统。在一些实施方式中,控制器可以包括通信系统,其中,不受控车辆将这些参数传送到中央系统;在其它实施方式中,受控车辆测量这些参数并将它们传送到中央系统。一般来说,存在一个范围,在这个范围内,所有车辆都应该报告它们的参数或测量它们的参数。出于这个原因,在一些实施方式中,混合自动车辆包括在车队中的受控车辆的侧翼预定范围内的所有不受控车辆。例如,在一个实施方式中,所有车辆参数的范围D至少约为以最大允许速度行驶的平均受控车辆的全速车头时距hg的两倍,即,D≥2hg。
图2示出了提供根据一些实施方式的车队形成的直接和间接控制的总体概览的示意图。受控车辆连接到控制器并将它们的状态203传送给中央控制器201。控制器201收集的交通状态可以包括混合自动车辆的当前车头时距、当前速度和当前加速度。在一些实现中,混合自动车辆包括距车队中的受控车辆的侧翼预定范围207内的所有不受控车辆。除了受控车辆之外,一些不受控车辆也连接205到控制器201以提交它们的状态。
对车队中车辆的控制通常称为协同自适应巡航控制(CACC)。CACC可以被设计用于一组车辆,所有这些车辆都是受控的。由于普通控制方法不考虑车队中某些车辆可能不合作的情况,因此一些实施方式开发了新方法,但仍然旨在实现自动驾驶车辆的普通车队形成的性能。CACC有两个目标:设备稳定性(plant stability)和串稳定性(stringstability)。如果所有车辆接近相同、恒定的速度,则车队是设备稳定的;如果整个车队的速度扰动减弱,则车队是串稳定的。
一些实施方式将针对受控车辆设计的CACC的原理扩展到混合自动车辆。CACC的这两个目标告知一些实施方式的基于增强学习的控制器。具体来说,基于学习的方法使用基于这两个目标设计的成本函数。在一些实施方式中,成本函数包括两个分量的总和:
ci=ci,s+apci,p
其中ci是车辆观察到的每个个体产生的成本,ci,s是与串稳定性相关的成本函数的分量,ci,p是与设备稳定性相关的成本函数的分量;ap是设计参数,其将串加权到设备稳定性。分量本身由下式给出:
ci,s=(hi-h*)2+av(vi-v*)2
和
其中,h*和v*是车队的期望车头时距和速度,av是将车头时距加权到速度跟踪的设计参数。
在一些实施方式中,成本函数被进一步修改,因为稳定性不是控制车队的唯一考虑因素。特别是,一个重要的考虑因素是车辆不相互碰撞。出于这个原因,在一些实施方式中,我们修改成本函数以包括对成本的惩罚项:
惩罚项对接近停车车头时距的车头时距进行处罚,因为低于该车头时距,碰撞风险变高;ac是设计参数,其用于对车队控制的约束满足度进行加权。
通常,强化学习算法试图最大化一些价值函数。这里,价值函数V是所有观察到的车辆的成本函数和时间T的规划范围之和的负值:
其中,A是观察到的车辆的集合。
通常,控制算法的输出是控制本身,在这种情况下是加速度ui。然而,如实验所示,在包括非自动驾驶车辆的复杂系统中,很难直接学习合适的加速度。为此,一些实施方式改为根据以下来设置控制输出:
在一些实施方式中,由控制器确定的目标车头时距是前进车头时距如上所述,最佳速度将车头时距hi、停车车头时距和前进车头时距与速度相关联。在优选实施方式中,停车车头时距跨所有受控车辆都是固定的。这样做是出于安全原因,因为否则有可能将停车车头时距设置为小的不安全的值或对交通产生不可预见的影响的大值;后者主要是为了保护在训练中对车队的控制。
图3A示出了根据一些实施方式训练增强的强化学习控制器的示意图。在诸如增强的DRL之类的增强的强化学习(RL)中,增强的RL控制器350以离散时间步长与其环境310交互。在每个时间t,RL控制器接收对环境310中的交通状态330的观察320和奖励340。最终,增强的RL控制器350被用于从可用动作集中选择动作360,该动作随后作为控制命令被发送到环境,以改变环境中的交通状态。选择动作以收集尽可能多的奖励,并确定奖励以鼓励车队形成。
然而,与无模型RL相比,增强的RL控制器不被训练成输出动作,而是被训练成根据对形成车队的混合自动车辆直接和间接控制原理输出目标车头时距。因此,由增强的RL产生的目标车头时距被进一步提交给基于车头时距的模型370,以产生指定用于控制机器的动作的控制命令。为了进一步鼓励混合自动车队形成,为所有混合自动车辆确定状态330以及奖励340。以这种方式,增强的RL控制器被训练成将混合自动驾驶车辆组的交通状态转换为改善组中的混合自动驾驶车辆的动作的目标车头时距,而动作由目标车头时距根据基于车头时距的模型来定义。实际上,增强的RL控制器允许在车队形成时控制混合自动驾驶车辆。
不同的实施方式使用不同的方法来训练形成RL控制器的参数化函数。例如,在一些实施方式中,参数化函数使用深度确定性策略梯度方法、优势-演员评论家(advantage-actor critic method)方法、近端策略优化方法、深度Q网络方法或蒙特卡洛策略梯度方法之一进行训练。
图3B示出了根据一个实施方式的对于图3A的学习的输入和输出。通过奖励函数对学习算法307的输入包括所有观察到的车辆(即,这些参数被传送到控制器的所有车辆)的当前车头时距hi 301、当前速度vi 303和当前加速度ui 305。输出是网联的自动驾驶车辆的目标加速度309。
在一些实施方式中,输入被直接测量和报告。通常,测量应该经过估计算法,以滤除信号中的噪声。在其它实施方式中,使用诸如最佳速度模型之类的模型的基于模型的方法可用于在了解车头时距和速度的情况下确定加速度。
图4示出了根据一些实施方式的比较无模型和增强的强化学习的收敛性的图。图4示出实验结果表明,没有扩展调谐的简单深度神经网络具有令人满意的性能,这强烈表明增强强化学习非常适合该应用。增强最优控制的学习很快收敛401,而使用相同学习方法的无模型方法不收敛402。
在将控制器应用于系统时,控制器是使用嵌入式计算机以数字方式实现的。出于这个原因,控制器的实现通常使用离散时间实现来完成。将连续时间设计转换为离时间散设计的过程是标准的,并且存在可以做到这一点的各种过程。特别是,我们在实验中使用零阶保持方法做到了这一点。
更重要的是,动作空间(即,动作所在的集合)是连续的,因为是粒度的,即,的可能选择在理论上是不可数的。出于这个原因,我们发现有必要实现适用于利用连续动作空间使用的深度强化学习算法。这种方法就是深度确定性策略梯度法。这是在实施方式之一中使用的方法,但上述方法和系统决不限于使用一种类型的强化学习算法。利用在实验中取得了与其它实施方式类似的成功,我们已经实现的其它方法使用优势-演员评论家方法。
示例性实施方式
图5示出了根据一些实施方式的用于直接和间接控制混合自动驾驶车辆的系统500的框图。系统500可以具有将系统500与其它机器和设备连接的多个接口。网络接口控制器(NIC)550包括接收器,该接收器适于通过总线506将系统500连接到网络590,该网络590将系统500与混合自动车辆连接以接收一组混合自动驾驶车辆沿同一方向行驶的交通状态,其中,该组混合自动驾驶车辆包括愿意参加车队形成的受控车辆和至少一个不受控车辆,并且其中,交通状态指示该组中的每个车辆和受控车辆的状态。例如,在一个实施方式中,交通状态包括混合自动车辆的当前车头时距、当前速度和当前加速度。在一些实施方式中,混合自动车辆包括在车队中的受控车辆的侧翼预定范围内的所有不受控车辆。
NIC 550还包括适于经由网络590向受控车辆发送控制命令的发送器。为此,系统500包括输出接口,例如控制接口570,其被配置为通过网络590将控制命令575提交给该组混合自动驾驶车辆中的受控车辆。以这种方式,系统500可以布置在与混合自动车辆直接或间接无线通信的远程服务器上。
系统500还可以包括其它类型的输入接口和输出接口。例如,系统500可以包括人机界面510。人机界面510可以将控制器500连接到键盘511和定点设备512,其中,定点设备512可以包括鼠标、轨迹球、触摸板、操纵杆、指点杆、触控笔或触摸屏等。
系统500包括被配置为执行所存储的指令的处理器520、以及存储可由处理器执行的指令的存储器540。处理器520可以是单核处理器、多核处理器、计算集群或任何数量的其它配置。存储器540可以包括随机存取存储器(RAM)、只读存储器(ROM)、闪存或任何其它合适的存储机器。处理器520可以通过总线506连接到一个或更多个输入设备和输出设备。
处理器520可操作地连接到存储指令以及处理由指令使用的数据的存储装置530。存储装置530可以形成存储器540的一部分或者可操作地连接到存储器540。例如,存储器可以被配置为存储参数化函数531,该函数被训练为将交通状态转换为混合自动驾驶车辆的目标车头时距;并且存储基于车头时距的模型533,该模型被配置为将目标车头时距映射到混合自动驾驶车辆的目标速度。
处理器520被配置为确定用于受控车辆的控制命令,其也间接地控制不受控车辆。为此,处理器被配置为执行控制生成器532以将交通状态提交给参数化函数以产生目标车头时距,将目标车头时距提交给基于车头时距的模型以产生目标速度,并且基于目标车头时距和目标速度之一或组合确定对于受控车辆的控制命令。
在一些实施方式中,参数化函数531是深度强化学习(DRL)控制器,该控制器被训练以将该组混合自动驾驶车辆的交通状态转换为目标车头时距,而不是改进组中的混合自动驾驶车辆的动作,其中,根据基于车头时距的模型,由目标车头时距定义动作。例如,如上所述,目标车头时距被确定为使得动作改善车队形成的移动成本的价值函数。价值函数的示例包括混合自动车辆在计划时间范围内的移动成本总和的负值。
在一些实施方式中,成本是鼓励车队形成的多个项的成本函数。例如,在一些实施方式中,移动的成本包括与车队的串稳定性相关的分量、与车队的设备稳定性相关的分量以及惩罚目标车头时距接近停车车头时距的惩罚项。
在各种实施方式中,DRL控制器是用解决在线优化的基于车头时距的模型而增强的基于模型的DRL,以同时学习具有交通状态的交通系统的行为并学习控制交通系统以形成车队,使得交通系统的行为由DRL控制器产生的目标车头时距定义,并且交通系统的控制由根据基于车头时距的模型从目标车头时距确定的混合自动车辆的加速度来定义。
在一些实施方式中,基于车头时距的模型是将目标车头时距映射到车辆速度的最优速度模型(OVM),使得DRL控制器是OVM增强的DRL。OVM将目标车头时距映射到车辆的速度。在一些实施方式中,系统500被配置为根据OVM从目标车头时距确定受控车辆的目标速度,并形成对受控车辆的控制命令以包括受控车辆的相应目标速度。
例如,基于车头时距的模型(诸如,OVM)将混合自动车辆的当前车头时距、停车车头时距和前进车头时距与混合自动车辆的目标速度相关联。由参数化函数确定的目标车头时距是前进车头时距,并且系统500利用所确定的前进车头时距和预定的固定停车车头时距根据基于车头时距的模型来确定混合自动车辆的受控命令的目标速度。
图6A示出了根据一些实施方式直接或间接控制的车辆601的示意图。如本文所用的,车辆601可以是任何类型的轮式车辆,诸如客车、公共汽车或越野车。此外,车辆601可以是自动或半自动驾驶车辆。例如,一些实施方式控制车辆601的运动。运动的示例包括由车辆601的转向系统603控制的车辆横向运动。在一个实施方式中,转向系统603由控制器602与系统500通信来控制。另外地或另选地,转向系统603可以由车辆601的驾驶员控制。
车辆还可以包括引擎606,引擎可以由控制器602或车辆601的其它组件控制。车辆还可以包括一个或更多个传感器604以感测周围环境。传感器604的示例包括测距仪、雷达、激光雷达和相机。车辆601还可以包括一个或更多个传感器605以感测其当前运动量和内部状态。传感器605的示例包括全球定位系统(GPS)、加速度计、惯性测量单元、陀螺仪、轴旋转传感器、扭矩传感器、偏转传感器、压力传感器和流量传感器。传感器向控制器602提供信息。车辆可以配备有收发器606,使控制器602能够通过有线或无线通信信道进行通信。
图6B示出了根据一些实施方式的从系统500接收受控命令的控制器602与车辆601的控制器600之间的交互的示意图。例如,在一些实施方式中,车辆601的控制器600是控制车辆600的旋转和加速度的转向610和制动/油门控制器620。在这种情况下,控制器602向控制器610和620输出控制输入来控制车辆的状态。控制器600还可以包括高级控制器,例如进一步处理预测控制器602的控制输入的车道保持辅助控制器630。在这两种情况下,控制器600映射使用预测控制器602的输出来控制车辆的至少一个致动器(诸如车辆的方向盘和/或制动器)以控制车辆的运动。车辆机器的状态xt可以包括位置、取向和纵向/横向速度;控制输入ut可以包括横向/纵向加速度、转向角和引擎/制动扭矩。对该系统的状态约束可以包括车道保持约束和避障约束。控制输入约束可以包括转向角约束和加速度约束。所收集的数据可以包括位置、取向和速度曲线、加速度、扭矩和/或转向角。
本发明的上述实施方式可以以多种方式中的任一种来实现。例如,可以使用硬件、软件或其组合来实现实施方式。当以软件实现时,软件代码可以在任何合适的处理器或处理器集合上执行,无论是在单个计算机中提供还是分布在多个计算机中。这样的处理器可以实现为集成电路,在集成电路组件中具有一个或更多个处理器。但是,可以使用任何合适格式的电路来实现处理器。
此外,本文概述的各种方法或处理可以被编码为可在一个或更多个处理器上执行的软件,该处理器采用多种操作系统或平台中的任何一种。此外,这样的软件可以使用多种合适的编程语言和/或程序或脚本工具中的任何一种来编写,并且还可以编译为在框架或虚拟机上执行的可执行机器语言代码或中间代码。通常,程序模块的功能可以在各种实施方式中根据需要被组合或分布。
此外,本发明的实施方式可以具体实现为一种方法,已经提供了其示例。作为该方法的一部分执行的动作可以以任何合适的方式排序。因此,可以构建以不同于所示顺序执行动作的实施方式,这可以包括同时执行一些动作,即使在说明性实施方式中被示为顺序动作。
尽管已经通过优选实施方式的示例描述了本发明,但是应当理解,在本发明的精神和范围内可以进行各种其它的修改和改变。因此,所附权利要求的目的是覆盖落入本发明的真正精神和范围内的所有这些变化和修改。
Claims (15)
1.一种用于直接和间接控制混合自动驾驶车辆的系统,所述系统包括:
接收器,所述接收器被配置为接收沿同一方向行驶的一组混合自动驾驶车辆的交通状态,其中,所述一组混合自动驾驶车辆包括愿意参与车队形成的受控车辆和至少一个不受控车辆,并且其中,所述交通状态指示所述一组混合自动驾驶车辆中的每个车辆的状态;
存储器,所述存储器被配置为
存储参数化函数,所述参数化函数被训练为将所述交通状态转换为所述混合自动驾驶车辆的目标车头时距;以及
存储基于车头时距的模型,所述基于车头时距的模型被配置为将所述目标车头时距映射到所述混合自动驾驶车辆的目标速度;
处理器,所述处理器被配置为
将所述交通状态提交到所述参数化函数中以产生所述目标车头时距;
将所述目标车头时距提交给所述基于车头时距的模型以产生所述目标速度;以及
基于所述目标车头时距和所述目标速度之一或组合确定对所述受控车辆的控制命令;以及
发送器,所述发送器被配置为将所述控制命令发送到所述一组混合自动驾驶车辆中的所述受控车辆。
2.根据权利要求1所述的系统,其中,所述参数化函数是深度强化学习DRL控制器,所述DRL控制器被训练为将所述一组混合自动驾驶车辆的所述交通状态转换为所述目标车头时距,而不是改善所述一组混合自动驾驶车辆中的所述混合自动驾驶车辆的动作,其中,所述动作是根据所述基于车头时距的模型由所述目标车头时距定义的。
3.根据权利要求2所述的系统,其中,所述目标车头时距被确定为使得所述动作改进所述车队形成的移动成本的价值函数。
4.根据权利要求3所述的系统,其中,所述价值函数是所述混合自动驾驶车辆在计划时间范围内的移动成本的总和的负值。
5.根据权利要求4所述的系统,其中,所述移动成本包括与所述车队的串稳定性相关的分量、与所述车队的设备稳定性相关的分量、以及惩罚所述目标车头时距接近停车车头时距的惩罚项。
6.根据权利要求2所述的系统,其中,所述DRL控制器是用解决在线优化的基于车头时距的模型增强的基于模型的DRL,以同时学习具有所述交通状态的交通系统的行为并学习所述交通系统形成所述车队的控制,使得所述交通系统的行为由通过所述DRL控制器产生的所述目标车头时距定义,并且所述交通系统的控制由根据所述基于车头时距的模型从所述目标车头时距确定的混合自动车辆的加速度来定义。
7.根据权利要求2所述的系统,其中,所述基于车头时距的模型是最优速度模型OVM,所述OVM将所述目标车头时距映射到所述车辆的速度,使得所述DRL控制器是OVM增强的DRL。
8.根据权利要求1所述的系统,其中,所述基于车头时距的模型是将所述目标车头时距映射到所述车辆的目标速度的最优速度模型OVM,其中,所述处理器被配置为根据所述OVM从所述目标车头时距确定所述受控车辆的所述目标速度,并形成对所述受控车辆的、包括所述受控车辆的相应目标速度的控制命令。
9.根据权利要求8所述的系统,其中,所述交通状态包括所述混合自动驾驶车辆的当前车头时距、当前速度和当前加速度。
10.根据权利要求9所述的系统,其中,所述混合自动车辆包括在所述车队中的受控车辆的侧翼预定范围内的所有不受控车辆。
11.根据权利要求1所述的系统,其中,所述基于车头时距的模型将所述混合自动车辆的当前车头时距、停车车头时距和前进车头时距与所述混合自动车辆的目标速度相关联,其中,由所述参数化函数确定的所述目标车头时距是所述前进车头时距,并且其中,所述处理器利用所确定的前进车头时距和预定的固定停车车头时距根据基于车头时距的模型来确定针对所述混合自动车辆的所述受控命令的目标速度。
12.根据权利要求1所述的系统,其中,所述参数化函数是使用深度确定性策略梯度方法、优势-演员评论家方法、近端策略优化方法、深度Q网络方法或蒙特卡洛策略梯度方法进行训练的。
13.根据权利要求1所述的系统,其中,所述系统被布置在与所述混合自动车辆直接或间接无线通信的远程服务器上。
14.一种用于直接和间接控制混合自动驾驶车辆的方法,其中,所述方法使用与实现所述方法的存储指令联接的处理器,其中,所述指令在由所述处理器执行时执行所述方法的步骤,所述方法包括以下步骤:
接收沿同一方向行驶的一组混合自动驾驶车辆的交通状态,其中,所述一组混合自动驾驶车辆包括愿意参与车队形成的受控车辆和至少一个不受控车辆,并且其中,所述交通状态指示所述一组混合自动驾驶车辆中的每个车辆的状态;
将所述交通状态提交到参数化函数以产生所述混合自动驾驶车辆的目标车头时距,所述参数化函数被训练成将所述交通状态转换为所述目标车头时距;
将所述目标车头时距提交给基于车头时距的模型以产生所述混合自动驾驶车辆的目标速度,所述基于车头时距的模型被配置为将所述目标车头时距映射到所述目标速度;
基于所述目标车头时距和所述目标速度之一或组合确定对所述受控车辆的控制命令;以及
向所述一组混合自动驾驶车辆中的所述受控车辆发送所述控制命令。
15.一种非暂时性计算机可读存储介质,所述非暂时性计算机可读存储介质上具体实现有能够由处理器执行以执行一种方法的程序,所述方法包括:
接收沿同一方向行驶的一组混合自动驾驶车辆的交通状态,其中,所述一组混合自动驾驶车辆包括愿意参与车队形成的受控车辆和至少一个不受控车辆,并且其中,所述交通状态指示所述一组混合自动驾驶车辆中的每个车辆的状态;
将所述交通状态提交到参数化函数中以产生所述混合自动驾驶车辆的目标车头时距,所述参数化函数被训练为将所述交通状态转换为所述目标车头时距;
将所述目标车头时距提交给基于车头时距的模型以产生所述混合自动驾驶车辆的目标速度,所述基于车头时距的模型被配置为将所述目标车头时距映射到所述目标速度;
基于所述目标车头时距和所述目标速度之一或组合确定对所述受控车辆的控制命令;以及
向所述一组混合自动驾驶车辆中的所述受控车辆发送所述控制命令。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/655,633 US11209834B2 (en) | 2019-10-17 | 2019-10-17 | Direct and indirect control of mixed-automata vehicle platoon |
US16/655,633 | 2019-10-17 | ||
PCT/JP2020/037929 WO2021075320A1 (en) | 2019-10-17 | 2020-09-29 | Direct and indirect control of mixed- automata vehicle platoon |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114761895A true CN114761895A (zh) | 2022-07-15 |
Family
ID=73198393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080071538.5A Pending CN114761895A (zh) | 2019-10-17 | 2020-09-29 | 混合自动车队的直接和间接控制 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11209834B2 (zh) |
EP (1) | EP3891572B1 (zh) |
JP (1) | JP7282271B2 (zh) |
CN (1) | CN114761895A (zh) |
WO (1) | WO2021075320A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255998B (zh) * | 2021-05-25 | 2022-06-03 | 北京理工大学 | 基于多智能体强化学习的高速道路无人驾驶车辆编队方法 |
CN113781788B (zh) * | 2021-11-15 | 2022-02-15 | 长沙理工大学 | 基于稳定性与安全性的自动驾驶车辆管理方法 |
CN114103969B (zh) * | 2021-12-28 | 2024-03-12 | 西南大学 | 车速确定方法及系统 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10024739A1 (de) | 1999-05-21 | 2000-12-07 | Honda Motor Co Ltd | Kolonnenfahr-Steuervorrichtung |
JP4929980B2 (ja) * | 2006-10-27 | 2012-05-09 | トヨタ自動車株式会社 | 車両走行制御装置 |
US20080249667A1 (en) * | 2007-04-09 | 2008-10-09 | Microsoft Corporation | Learning and reasoning to enhance energy efficiency in transportation systems |
DE102008026686A1 (de) * | 2008-06-04 | 2009-12-10 | Andreas Glindemann | Elektronische Deichsel |
WO2010048146A1 (en) * | 2008-10-20 | 2010-04-29 | Carnegie Mellon University | System, method and device for predicting navigational decision-making behavior |
JP5196022B2 (ja) | 2009-07-28 | 2013-05-15 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御システム |
US9367797B2 (en) * | 2012-02-08 | 2016-06-14 | Jason Frank Hunzinger | Methods and apparatus for spiking neural computation |
JP6183022B2 (ja) * | 2013-07-17 | 2017-08-23 | 日産自動車株式会社 | 隊列走行制御装置、隊列走行制御方法 |
US10134278B1 (en) * | 2016-01-22 | 2018-11-20 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle application |
SG11202001591UA (en) * | 2017-08-30 | 2020-03-30 | Inpher Inc | High-precision privacy-preserving real-valued function evaluation |
US10989554B2 (en) * | 2018-08-24 | 2021-04-27 | Honda Motor Co., Ltd. | System and method for emotion navigation routing |
US10892858B2 (en) * | 2018-09-28 | 2021-01-12 | At&T Intellectual Property I, L.P. | Chain broadcasting in vehicle-to-everything (V2X) communications |
US11313950B2 (en) * | 2019-01-15 | 2022-04-26 | Image Sensing Systems, Inc. | Machine learning based highway radar vehicle classification across multiple lanes and speeds |
US10996639B2 (en) * | 2019-03-11 | 2021-05-04 | Mitsubishi Electric Research Laboratories, Inc. | Model predictive control of systems with continuous and discrete elements of operations |
US20200342766A1 (en) * | 2019-04-24 | 2020-10-29 | Cisco Technology, Inc. | Dynamic platoon management |
US11256611B2 (en) * | 2019-05-29 | 2022-02-22 | Toyota Research Institute, Inc. | Simulation-based technique to synthesize controllers that satisfy signal temporal logic specifications |
US11429115B2 (en) * | 2019-06-27 | 2022-08-30 | Baidu Usa Llc | Vehicle-platoons implementation under autonomous driving system designed for single vehicle |
US11222542B2 (en) * | 2019-08-22 | 2022-01-11 | Qualcomm Incorporated | Planning and control framework with communication messaging |
US11267482B2 (en) * | 2019-10-11 | 2022-03-08 | International Business Machines Corporation | Mitigating risk behaviors |
-
2019
- 2019-10-17 US US16/655,633 patent/US11209834B2/en active Active
-
2020
- 2020-09-29 JP JP2022538567A patent/JP7282271B2/ja active Active
- 2020-09-29 CN CN202080071538.5A patent/CN114761895A/zh active Pending
- 2020-09-29 WO PCT/JP2020/037929 patent/WO2021075320A1/en unknown
- 2020-09-29 EP EP20803968.5A patent/EP3891572B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20210116935A1 (en) | 2021-04-22 |
JP2022545755A (ja) | 2022-10-28 |
EP3891572B1 (en) | 2022-05-04 |
US11209834B2 (en) | 2021-12-28 |
WO2021075320A1 (en) | 2021-04-22 |
JP7282271B2 (ja) | 2023-05-26 |
EP3891572A1 (en) | 2021-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Marcano et al. | A review of shared control for automated vehicles: Theory and applications | |
CN112389427B (zh) | 车辆轨迹优化方法、装置、电子设备和存储介质 | |
US8543261B2 (en) | Methods and apparati for predicting and quantifying threat being experienced by a modeled system | |
CN111775949B (zh) | 一种人机共驾控制系统的个性化驾驶员转向行为辅助方法 | |
Zhang et al. | Adaptive decision-making for automated vehicles under roundabout scenarios using optimization embedded reinforcement learning | |
CN114761895A (zh) | 混合自动车队的直接和间接控制 | |
WO2011009009A1 (en) | Methods and apparati for predicting and quantifying threat being experienced by a modeled system | |
CN113631455A (zh) | 用于在半自动车辆转向中确定驾驶员意图的方法和系统 | |
Chiang et al. | Embedded driver-assistance system using multiple sensors for safe overtaking maneuver | |
Na et al. | Experimental evaluation of a game-theoretic human driver steering control model | |
CN113015981A (zh) | 利用第一原则和约束进行有效、连续和安全学习的系统和方法 | |
Liu et al. | Moving horizon shared steering strategy for intelligent vehicle based on potential‐hazard analysis | |
US20220355792A1 (en) | Method and device for trajectory planning for a vehicle | |
US20230020503A1 (en) | Machine control | |
Tran et al. | Improved responsibility-sensitive safety algorithm through a partially observable Markov decision process framework for automated driving behavior at non-signalized intersection | |
CN114368368B (zh) | 车辆控制系统和方法 | |
Rath et al. | A lane keeping assist design: Adaptation to driving style based on aggressiveness | |
Yue et al. | Automated hazard escaping trajectory planning/tracking control framework for vehicles subject to tire blowout on expressway | |
Fehér et al. | Proving ground test of a ddpg-based vehicle trajectory planner | |
JP2023017703A (ja) | 車両のビークルダイナミックコントロールシステムを最適にパラメータ化するための方法および装置 | |
CN114291112A (zh) | 一种应用于自动驾驶汽车的决策规划协同增强方法 | |
Wang et al. | Design and evaluation of a driver intent based mobile control interface for ground vehicles | |
US20240059325A1 (en) | Autonomous racetrack driver coach and demonstrator | |
US20230084702A1 (en) | System and method of adaptive, real-time vehicle system identification for autonomous driving | |
Hynén Ulfsjöö et al. | Modeling and Lateral Control of Tractor-Trailer Vehicles during Aggresive Maneuvers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |