CN116749925B - 面向人机混驾的仿人工驾驶证据动态累积制动方法及系统 - Google Patents
面向人机混驾的仿人工驾驶证据动态累积制动方法及系统 Download PDFInfo
- Publication number
- CN116749925B CN116749925B CN202310731925.2A CN202310731925A CN116749925B CN 116749925 B CN116749925 B CN 116749925B CN 202310731925 A CN202310731925 A CN 202310731925A CN 116749925 B CN116749925 B CN 116749925B
- Authority
- CN
- China
- Prior art keywords
- evidence
- driving
- braking
- accumulation
- adjustment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009825 accumulation Methods 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000006870 function Effects 0.000 claims abstract description 48
- 230000000007 visual effect Effects 0.000 claims description 54
- 238000004590 computer program Methods 0.000 claims description 22
- 206010039203 Road traffic accident Diseases 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 10
- 230000008447 perception Effects 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000005315 distribution function Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 6
- 230000016776 visual perception Effects 0.000 abstract description 6
- 230000004438 eyesight Effects 0.000 abstract description 4
- 230000003993 interaction Effects 0.000 description 10
- 230000006399 behavior Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 3
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 3
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 230000019771 cognition Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012502 risk assessment Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60T—VEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
- B60T8/00—Arrangements for adjusting wheel-braking force to meet varying vehicular or ground-surface conditions, e.g. limiting or varying distribution of braking force
- B60T8/17—Using electrical or electronic regulation means to control braking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60T—VEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
- B60T8/00—Arrangements for adjusting wheel-braking force to meet varying vehicular or ground-surface conditions, e.g. limiting or varying distribution of braking force
- B60T8/17—Using electrical or electronic regulation means to control braking
- B60T8/172—Determining control parameters used in the regulation, e.g. by calculations involving measured or detected parameters
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种面向人机混驾的仿人工驾驶证据动态累积制动方法及系统,属于智能驾驶技术领域,分析识别出行车驾驶条件及混行交通场景特征影响因子,结合指数函数回归模型的参数拟合生成证据函数,再结合证据的权重以及所有间接制动证据的总和,进行控制幅度调节,基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测,结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。本发明考虑了制动需求证据的动态累积过程以及高级视觉感知预测的反馈作用,将人工驾驶固有特征作为约束条件,在具备优良预测能力的基础上模拟人类制动控制,实现了准确及时的完整动态制动控制。
Description
技术领域
本发明涉及智能驾驶技术领域,具体涉及一种面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法及系统。
背景技术
机器学习方法(Machine Learning,ML)在驾驶辅助系统(Advanced DriverAssistance System,ADAS)和自动驾驶(Automatic driving,AD)系统中应用非常广泛。ML背后的基本思想是纯粹基于数据集(通常表示为训练集)来学习环境/行为/属性。在ADAS/AD应用中,ML方法通常用于预测;其中,输入是系统的当前状态,输出是对未来状态的预测。在这样的背景下,机器学习方法需要一个内容足够丰富和数量庞大的训练集,以充分表示系统的所有配置来执行有效的预测。
具体来说,为了理解自动驾驶车(autonomous vehicles,AV)和人工驾驶车(human-driven vehicles,HV)的驾驶意图以避免HV与AV碰撞(简称HV-AV事故),ML方法涉及使用算法从驾驶状态/路况训练集中学习模式并预测驾驶意图。这些方法可以有效地处理复杂数据,并且可能比基于规则的计算方法(Rule-based Computationa,RC)具有更优的扩展性和预测准确度,但可能受到训练数据的质量和数量的限制。
Vasquez和Farooq提出了一种基于深度强化学习的多目标自主制动系统,在这项工作中,采用两种强化学习方法来生成制动控制策略,即近端策略优化和深层策略优化。Xia等人提出了一种仿人工驾驶的变道意图理解模型(Human-like Lane ChangingIntention Understanding Model,HLCIUM),使用基于隐马尔可夫模型(Hidden MarkovModel,HMM)的自动驾驶意图识别器来理解周围车辆的变道意图,所开发的模型在复杂交通场景下具有较高效率和较好鲁棒性。Arbabzadeh和Jafari提出了一种基于弹性网络的数据驱动模型,采用基于司机认知的正则多项式logistic回归定量预测了交通风险,该预测模型考虑了驾驶员的个人特征,并且可以用于防止AD或ADAS车辆碰撞、驾驶员的风险分析和动态热点路段风险分析。Levine和Koltun提出了一种基于视觉感知的用于推断人类驾驶行为的逆强化学习方法。他们基于人类驾驶任务的统计数据分析比较了人类驾驶和自动驾驶行为。然而,这种方法忽略了驾驶员的经验和知识对驾驶行为的影响。Chen等人、Bojarski等人和Codevilla等人使用基于深度卷积神经网络(Deep Convolutional NeuralNetworks,DCNN)的端到端方法生成类人转向控制行为,可用于HV-AV防撞。此外,Codevilla等人提出的方法通过学习驾驶员的意图消除了感知-运动映射过程中的模糊性。Qin和Wang提出了一个ML模型,用于模拟自动驾驶车辆跟驰行为。该模型根据不同类型的碰撞时间指标,例如碰撞时间(Time-To-Collision,TTC)等来评估追尾碰撞的风险。Hao等人提出了一种基于ML的车辆跟驰模型来模拟车辆跟驰条件下的人类驾驶行为。该模型包括五层结构:感知、期望、推理、策略和行动,并且还可以用于HV-AV避撞。
现有关于制动模型的研究忽略了驾驶员意图、人工驾驶固有特征(如驾驶员反应时间、视线偏离等)、视觉逼近感知以及车头时距等因素中的一种或几种对制动行为决策的影响,没有考虑基于风险致因的制动需求证据累积和高级视觉感知预测对制动行为决策的联合影响,并且忽略了制动需求证据累积的动态实时特性,这些不足会导致制动控制行为触发时机不准确以及控制幅度不精确,无法有效实现人机混驾道路交通场景下AV与HV的动态平稳制动。
发明内容
本发明的目的在于提供一种面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法及系统,以解决上述背景技术中存在的至少一项技术问题。
为了实现上述目的,本发明采取了如下技术方案:
一方面,本发明提供一种面向人机混驾的仿人工驾驶证据动态累积制动方法,包括:
基于收集到的交通事故数据,分析识别出行车驾驶条件及混行交通场景特征影响因子,通过指数函数回归模型的参数拟合生成证据函数;
结合证据函数、证据的权重以及所有间接制动证据的总和,进行控制幅度调节,得到初始证据累积输入;
基于初始视觉逼近信号和基于驾驶经验的视觉逼近预测P2(t),结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差;
基于总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。
优选的,P1(t)表示初始证据累积输入:
P1(t)=K·E(t)-M
式中,E(t)表示支持或反对制动控制需求的证据累积函数;其中,E(t)>0表示需要制动控制,E(t)<0表示不需要制动;K表示自由的模型参数对应于证据的权重,K越高,制动反应越快;M表示所有间接制动证据的总和;E(t)=exp(a*D(t)+b*S(t)),a与b为模型自由参数,D(t)表示行车驾驶条件,S(t)表示混行交通场景特征影响因子。
优选的,初始视觉逼近信号P0(t)表示为:
其中,θ(t)为前车相对于后车的光学尺寸;为前车光学尺寸膨胀
其中,W为前车宽度,d(t)为前车车尾与后车车头之间的纵向距离,为d(t)随时间的变化率。
优选的,φ(t)为总累积预测偏差:
φ(t)=∫{P0(t)-[P1(t)+P2(t)+δ(t)]}
式中δ(t)为高斯零均值白噪声;P2(t)表示基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测的组合;
式中n为制动调整次数;L(t)表示时刻t的基于驾驶经验的视觉逼近预测;ti为第i次调整的触发时间;H(t)由为:
其中,T表示调整持续时间。
优选的,连续调整后产生的制动信号C(t)为: 其中n是制动器调整次数;PO,T(ti)是视线偏离扫视和车头时距在时刻ti的联合高概率分布函数;w是PO,T(ti)的权重;G(t)为每个制动器的形状调整函数。
优选的,
其中,α为伽马分布的形状参数,β为速率参数;
其中T表示调整持续时间。
第二方面,本发明提供一种面向人机混驾的仿人工驾驶证据动态累积制动系统,包括:
分析生成模块,用于基于收集到的交通事故数据,分析识别出行车驾驶条件及混行交通场景特征影响因子,通过指数函数回归模型的参数拟合生成证据函数;
调节模块,用于结合证据函数、证据的权重以及所有间接制动证据的总和,进行控制幅度调节,得到初始证据累积输入;
感知预测模块,用于基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测,结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差;
运动基元控制模块,用于基于总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。
第三方面,本发明提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质用于存储计算机指令,所述计算机指令被处理器执行时,实现如上所述的面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法。
第四方面,本发明提供一种计算机程序产品,包括计算机程序,所述计算机程序当在一个或多个处理器上运行时,用于实现如上所述的面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法。
第五方面,本发明提供一种电子设备,包括:处理器、存储器以及计算机程序;其中,处理器与存储器连接,计算机程序被存储在存储器中,当电子设备运行时,所述处理器执行所述存储器存储的计算机程序,以使电子设备执行实现如上所述的面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法的指令。
术语解释:
视觉逼近:车辆大小在视网膜上的光学拓展。
证据动态累积:驾驶员根据实时逼近动态积累的证据做出反应。证据是双重的,即需要刹车控制的证据和反对刹车控制的证据。
自动驾驶等级:国际汽车工程师学会SAE International将自动驾驶汽车按自动化程度分为6个等级:无自动化(L0)、驾驶辅助(L1)、部分自动驾驶(L2)、有条件自动驾驶(L3)、高度自动驾驶(L4)和完全自动驾驶(L5)。本文提及的L3+表示L3级及以上等级。
本发明有益效果:考虑了制动需求证据的动态累积过程以及高级视觉感知预测的反馈作用,将人工驾驶固有特征作为约束条件,在具备优良预测能力的基础上模拟人类制动控制,实现了准确及时的完整动态制动控制。
本发明附加方面的优点,将在下述的描述部分中更加明显的给出,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例所述的面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法流程图。
具体实施方式
下面详细叙述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件和/或它们的组。
为便于理解本发明,下面结合附图以具体实施例对本发明作进一步解释说明,且具体实施例并不构成对本发明实施例的限定。
本领域技术人员应该理解,附图只是实施例的示意图,附图中的部件并不一定是实施本发明所必须的。
实施例1
本实施例1中,首先提供了一种面向人机混驾的仿人工驾驶证据动态累积制动系统,该系统包括:分析生成模块,用于基于收集到的交通事故数据,分析识别出行车驾驶条件及混行交通场景特征影响因子,通过指数函数回归模型的参数拟合生成证据函数;调节模块,用于结合证据函数、证据的权重以及所有间接制动证据的总和,进行控制幅度调节,得到初始证据累积输入;感知预测模块,用于基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测,结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差;运动基元控制模块,用于基于总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。
本实施例1中,利用上述的系统,实现了面向人机混驾的仿人工驾驶证据动态累积制动方法,包括:使用分析生成模块基于收集到的交通事故数据,分析识别出行车驾驶条件及混行交通场景特征影响因子,通过指数函数回归模型的参数拟合生成证据函数;使用调节模块,结合证据函数、证据的权重以及所有间接制动证据的总和,进行控制幅度调节,得到初始证据累积输入;使用感知预测模块,基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测,结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差;使用运动基元控制模块,基于总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。
其中,P1(t)表示初始证据累积输入:
P1(t)=K·E(t)-M
式中,E(t)表示支持或反对制动控制需求的证据累积函数;其中,E(t)>0表示需要制动控制,E(t)<0表示不需要制动;K表示自由的模型参数对应于证据的权重,K越高,制动反应越快;M表示所有间接制动证据的总和;E(t)=exp(a*D(t)+b*S(t)),a与b为模型自由参数,D(t)表示行车驾驶条件,S(t)表示混行交通场景特征影响因子。
初始视觉逼近信号P0(t)表示为:
其中,θ(t)为前车相对于后车的光学尺寸;为前车光学尺寸膨胀
其中,W为前车宽度,d(t)为前车车尾与后车车头之间的纵向距离,为d(t)随时间的变化率。
φ(t)为总累积预测偏差:
φ(t)=∫{P0(t)-[P1(t)+P2(t)+δ(t)]}
式中δ(t)为高斯零均值白噪声;P2(t)表示基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测的组合;
式中n为制动调整次数;L(t)表示时刻t的基于驾驶经验的视觉逼近预测;ti为第i次调整的触发时间;H(t)由为:
其中,T表示调整持续时间。
连续调整后产生的制动信号C(t)为: 其中n是制动器调整次数;PO,T(ti)是视线偏离扫视和车头时距在时刻ti的联合高概率分布函数;w是PO,T(ti)的权重;G(t)为每个制动器的形状调整函数。
其中,α为伽马分布的形状参数,β为速率参数;
其中T表示调整持续时间。
实施例2
如图1所示,本实施例2中,提供了面向人机混驾的仿人工驾驶证据动态累积制动方法,其中,包括:证据动态积累:驾驶员根据实时动态积累的证据做出反应。证据是双重的,即需要制动控制的证据和无需制动控制的证据。控制幅度调节:驾驶员判断的临撞情况越严峻,他/她就越倾向刹车决策。控制效果感知预测:驾驶员预测控制行为将如何影响感知输入。也就是说,驾驶员会预测每一次刹车控制行为将如何减轻视觉逼近感知。运动基元控制输出:驾驶员根据对视觉逼近感知输入的预测,动态步进地实施制动控制。为了产生精确的仿人工制动控制响应,引入了高级视觉逼近感知融合,即结合驾驶员日常驾驶经验认知,生成高级视觉逼近感知预测。并提出了融合视线偏离扫视和车头时距的调制器,用以进一步生成更为精准的制动控制。
本实施例2中,提出了性能更优的仿人工驾驶动态制动模型,模型将考虑制动需求证据的动态累积过程以及高级视觉感知预测的反馈作用,通过研究HV-AV碰撞发生与影响因素之间的关系,将人工驾驶固有特征作为约束条件,使模型具备优良预测性能,并能模拟人工驾驶制动控制,以实现准确及时的完整动态避撞控制;给出提升人机混驾道路交通安全的建议和新型仿人工自动驾驶系统的设计方案,为自动驾驶与交通安全发展提供基础,帮助实现城市交通智慧化、安全化,从而促进管理部门精确调控。
本实施例2中创新性地提出基于证据动态累积的仿人工制动控制模型(HumanlikeBrake Initiation and Modulation model,HLBIM),实现人机混驾道路交通场景下AV与HV的动态平稳避撞,促进人机混驾安全交互。如图1所示,该模型框架包含四部分:避撞需求证据动态累积、控制幅度调节、控制效果感知预测和运动基元控制输出。
在HLBIM建模框架中,涉及到几个需要的变量,下面将逐一介绍。
P1(t)表示初始证据累积输入,可以定义如下:
P1(t)=K·E(t)-M (1)
式中,E(t)表示支持或反对制动控制需求的证据累积函数;其中,E(t)>0表示需要制动控制,E(t)<0表示不需要制动;基于收集到的交通事故数据,分析识别出行车驾驶条件D(t)(如道路限速、交通标识及信号灯、道路形状轮廓、道路平整程度、路面材质、路面宽度、天气状态、视线状况、路面照明)及混行交通场景特征影响因子S(t)(如交通参与者类型/速度/运动轨迹/状态/移动性/灵活性、车流量、交通规则、社会文化因素、路段拓扑结构),通过指数函数回归模型E(t)=exp(a*D(t)+b*S(t))的参数拟合生成证据函数E(t),其中a与b为模型自由参数。K是一个自由的模型参数对应于证据的权重,即在现实中,K越高,制动反应越快。M为自由模型参数,表示所有间接制动证据(如天气条件、道路段、交通密度等)的总和。
初始视觉逼近信号P0(t)可表示为:
其中,θ(t)为前车相对于后车的光学尺寸(水平角度),由公式(3)定义;为前车光学尺寸膨胀率,由公式(4)定义。
其中,W为前车宽度,d(t)为前车车尾与后车车头之间的纵向距离,为d(t)随时间的变化率。
φ(t)为总累积预测偏差,定义如下:
φ(t)=∫{P0(t)-[P1(t)+P2(t)+δ(t)]} (5)
式中δ(t)为高斯零均值白噪声;P2(t)表示基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测的组合。P2(t)的定义如下:
式中n为制动调整次数;L(t)表示时刻t的基于驾驶经验的视觉逼近预测;ti为第i次调整的触发时间;H(t)由式(7)定义,如下所示:
其中T表示调整持续时间的自由模型参数。
注意,L(t)是基于驾驶经验的高水平视觉逼近预测,即驾驶员在制动过程中所希望达到的视觉逼近水平,这使得HLBIM模型适用于能融合驾驶员期望的各种场景。
C(t)为连续调整后产生的制动信号,由式(8)定义。
其中n是制动器调整次数;PO,T(ti)是视线偏离扫视(Off-Road-Glance,ORG)和车头时距(Time-Headway,THW)在时刻ti(设置实际中的tio=tiT=ti)的联合高概率分布函数,其近似于式(9)中的伽马分布;w是PO,T(ti)的权重;G(t)为每个制动器的形状调整函数,并定义为式(10)。
其中,α为伽马分布的形状参数,β为速率参数(即尺度参数的倒数)。
其中T表示调整持续时间。
注意,根据式(10)的定义,进一步的控制调整G(t)只会影响ti之后执行的制动,直到制动完成。
与现有模型相比,本实施例提出模型,一方面,考虑了基于驾驶经验知识的高水平视觉逼近预期;另一方面,还实现了制动所需证据的动态积累。因此,可以确保更准确的制动触发时间和更精准有效的制动控制输出。
HLBIM模型的另一个新颖特征在于集成了视线偏离扫视ORG和车头时距THW的联合概率分布,它模拟了驾驶员在实际动态驾驶时视线分散对制动行为的影响。引入ORG可以使HLBIM模型更加逼真的模仿人工驾驶。另一方面,THW反映了后车的车头与前车的车头之间的距离,以时间量的形式表征。
实施例3
本实施例3提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质用于存储计算机指令,所述计算机指令被处理器执行时,实现如上所述的面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法,该方法包括:
基于收集到的交通事故数据,分析识别出行车驾驶条件及混行交通场景特征影响因子,通过指数函数回归模型的参数拟合生成证据函数;
结合证据函数、证据的权重以及所有间接制动证据的总和,进行控制幅度调节,得到初始证据累积输入;
基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测,结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差;
基于总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。
实施例4
本实施例4提供一种计算机程序产品,包括计算机程序,所述计算机程序当在一个或多个处理器上运行时,用于实现如上所述的面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法,该方法包括:
基于收集到的交通事故数据,分析识别出行车驾驶条件及混行交通场景特征影响因子,通过指数函数回归模型的参数拟合生成证据函数;
结合证据函数、证据的权重以及所有间接制动证据的总和,进行控制幅度调节,得到初始证据累积输入;
基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测,结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差;
基于总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。
实施例5
本实施例5提供一种电子设备,包括:处理器、存储器以及计算机程序;其中,处理器与存储器连接,计算机程序被存储在存储器中,当电子设备运行时,所述处理器执行所述存储器存储的计算机程序,以使电子设备执行实现如上所述的面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法的指令,该方法包括:
基于收集到的交通事故数据,分析识别出行车驾驶条件及混行交通场景特征影响因子,通过指数函数回归模型的参数拟合生成证据函数;
结合证据函数、证据的权重以及所有间接制动证据的总和,进行控制幅度调节,得到初始证据累积输入;
基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测,结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差;
基于总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。
综上所述,本发明实施例所述的面向人机混驾安全交互的仿人工驾驶证据动态累积制动方法,提出的HLBIM模型综合考虑了人类驾驶意图、基于视觉的预期和人类驾驶的一些固有特征,通过制动所需证据的实时动态积累,实现仿人工制动。提出的HLBIM模型框架将基于驾驶情况经验知识的高水平视觉逼近预期,与初始视觉逼近感知相结合;将ORG和THW的联合分布集成到HLBIM模型框架中,实现了人工驾驶固有特征约束,使HLBIM模型能够真实地模拟驾驶员在现实中的制动控制,确保更准确的制动触发时间和更精准的制动控制输出。
本发明提出的模型考虑了制动需求证据的动态累积过程以及高级视觉感知预测的反馈作用,通过研究HV-AV碰撞发生与影响因素之间的关系,将人工驾驶固有特征作为约束条件,使模型具备优良预测性能,并能模拟人工驾驶制动控制,从而实现了准确及时的完整动态制动控制。此外,本发明将为道路交通安全保障、自动驾驶预期功能安全保障提供实用性建议,可作为基于场景的自动驾驶预期功能安全分析的基础,并为设计L3级及以上(简称L3+级)新型仿人工自动驾驶系统提供理论基础。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明公开的技术方案的基础上,本领域技术人员在不需要付出创造性劳动即可做出的各种修改或变形,都应涵盖在本发明的保护范围之内。
Claims (9)
1.一种面向人机混驾的仿人工驾驶证据动态累积制动方法,其特征在于,包括:
基于收集到的交通事故数据,分析识别出行车驾驶条件及混行交通场景特征影响因子,通过指数函数回归模型的参数拟合生成证据函数;其中,P1(t)表示初始证据累积输入:
P1(t)=K·E(t)-M
式中,E(t)表示支持或反对制动控制需求的证据累积函数;其中,E(t)>0表示需要制动控制,E(t)<0表示不需要制动;K表示自由的模型参数对应于证据的权重,K越高,制动反应越快;M表示所有间接制动证据的总和,M为自由模型参数,间接制动证据包括天气条件、道路段、交通密度;通过指数函数回归模型E(t)=exp(a*D(t)+b*S(t))的参数拟合生成证据累积函数E(t),a与b为模型自由参数,D(t)表示行车驾驶条件,S(t)表示混行交通场景特征影响因子;
结合证据函数、证据的权重以及所有间接制动证据的总和,进行控制幅度调节,得到初始证据累积输入;
基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测,结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差;
基于总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。
2.根据权利要求1所述的面向人机混驾的仿人工驾驶证据动态累积制动方法,其特征在于,初始视觉逼近信号P0(t)表示为:
其中,θ(t)为前车相对于后车的光学尺寸;为前车光学尺寸膨胀
其中,W为前车宽度,d(t)为前车车尾与后车车头之间的纵向距离,为d(t)随时间的变化率。
3.根据权利要求2所述的面向人机混驾的仿人工驾驶证据动态累积制动方法,其特征在于,φ(t)为总累积预测偏差:
φ(t)=∫{P0(t)-[P1(t)+P2(t)+δ(t)]}
式中δ(t)为高斯零均值白噪声;P2(t)表示基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测的组合;
式中n为制动调整次数;L(t)表示时刻t的基于驾驶经验的视觉逼近预测;ti为第i次调整的触发时间;H(t)由为:
其中,T表示调整持续时间。
4.根据权利要求3所述的面向人机混驾的仿人工驾驶证据动态累积制动方法,其特征在于,连续调整后产生的制动信号C(t)为: 其中n是制动器调整次数;PO,T(ti)是视线偏离扫视和车头时距在时刻ti的联合高概率分布函数;w是PO,T(ti)的权重;G(t)为每个制动器的形状调整函数。
5.根据权利要求4所述的面向人机混驾的仿人工驾驶证据动态累积制动方法,其特征在于,
PO,T(ti)~Γ(ti;α,β)=Gamma(ti;α,β)
其中,α为伽马分布的形状参数,β为速率参数;
其中T表示调整持续时间。
6.一种面向人机混驾的仿人工驾驶证据动态累积制动系统,其特征在于,包括:
分析生成模块,用于基于收集到的交通事故数据,分析识别出行车驾驶条件及混行交通场景特征影响因子,通过指数函数回归模型的参数拟合生成证据函数;其中,P1(t)表示初始证据累积输入:
P1(t)=K·E(t)-M
式中,E(t)表示支持或反对制动控制需求的证据累积函数;其中,E(t)>0表示需要制动控制,E(t)<0表示不需要制动;K表示自由的模型参数对应于证据的权重,K越高,制动反应越快;M表示所有间接制动证据的总和,M为自由模型参数,间接制动证据包括天气条件、道路段、交通密度;通过指数函数回归模型E(t)=exp(a*D(t)+b*S(t))的参数拟合生成证据累积函数E(t),a与b为模型自由参数,D(t)表示行车驾驶条件,S(t)表示混行交通场景特征影响因子;
调节模块,用于结合证据函数、证据的权重以及所有间接制动证据的总和,进行控制幅度调节,得到初始证据累积输入;
感知预测模块,用于基于先前制动调整的视觉逼近和基于驾驶经验的视觉逼近预测,结合高斯零均值白噪声和初始视觉逼近信号,得到总累积预测偏差;
运动基元控制模块,用于基于总累积预测偏差,结合视线偏离扫视和车头时距,得到制动器连续调整后的制动信号。
7.一种计算机程序产品,其特征在于,包括计算机程序,所述计算机程序当在一个或多个处理器上运行时,用于实现如权利要求1-5任一项所述的面向人机混驾的仿人工驾驶证据动态累积制动方法。
8.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质用于存储计算机指令,所述计算机指令被处理器执行时,实现如权利要求1-5任一项所述的面向人机混驾的仿人工驾驶证据动态累积制动方法。
9.一种电子设备,其特征在于,包括:处理器、存储器以及计算机程序;其中,处理器与存储器连接,计算机程序被存储在存储器中,当电子设备运行时,所述处理器执行所述存储器存储的计算机程序,以使电子设备执行实现如权利要求1-5任一项所述的面向人机混驾的仿人工驾驶证据动态累积制动方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310731925.2A CN116749925B (zh) | 2023-06-20 | 2023-06-20 | 面向人机混驾的仿人工驾驶证据动态累积制动方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310731925.2A CN116749925B (zh) | 2023-06-20 | 2023-06-20 | 面向人机混驾的仿人工驾驶证据动态累积制动方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116749925A CN116749925A (zh) | 2023-09-15 |
CN116749925B true CN116749925B (zh) | 2024-05-07 |
Family
ID=87947477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310731925.2A Active CN116749925B (zh) | 2023-06-20 | 2023-06-20 | 面向人机混驾的仿人工驾驶证据动态累积制动方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116749925B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066282A (zh) * | 2021-02-26 | 2021-07-02 | 北京航空航天大学合肥创新研究院(北京航空航天大学合肥研究生院) | 一种面向混行环境下车辆跟驰耦合关系建模方法及系统 |
CN113946943A (zh) * | 2021-09-26 | 2022-01-18 | 清华大学 | 人-车-路微观交通系统建模及风险辨识方法及装置 |
DE102020212009A1 (de) * | 2020-09-24 | 2022-03-24 | Robert Bosch Gesellschaft mit beschränkter Haftung | Steuervorrichtung für ein Fahrzeug |
CN114454879A (zh) * | 2022-02-18 | 2022-05-10 | 北京理工大学 | 一种用于辅助与自动驾驶的安全接近区域界定方法 |
CN116238521A (zh) * | 2023-02-24 | 2023-06-09 | 江铃汽车股份有限公司 | 一种基于驾驶员状态检测的车辆制动方法及装置 |
-
2023
- 2023-06-20 CN CN202310731925.2A patent/CN116749925B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020212009A1 (de) * | 2020-09-24 | 2022-03-24 | Robert Bosch Gesellschaft mit beschränkter Haftung | Steuervorrichtung für ein Fahrzeug |
CN113066282A (zh) * | 2021-02-26 | 2021-07-02 | 北京航空航天大学合肥创新研究院(北京航空航天大学合肥研究生院) | 一种面向混行环境下车辆跟驰耦合关系建模方法及系统 |
CN113946943A (zh) * | 2021-09-26 | 2022-01-18 | 清华大学 | 人-车-路微观交通系统建模及风险辨识方法及装置 |
CN114454879A (zh) * | 2022-02-18 | 2022-05-10 | 北京理工大学 | 一种用于辅助与自动驾驶的安全接近区域界定方法 |
CN116238521A (zh) * | 2023-02-24 | 2023-06-09 | 江铃汽车股份有限公司 | 一种基于驾驶员状态检测的车辆制动方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116749925A (zh) | 2023-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kuefler et al. | Imitating driver behavior with generative adversarial networks | |
CN110758382B (zh) | 一种基于驾驶意图的周围车辆运动状态预测系统及方法 | |
Wang et al. | An intelligent lane-changing behavior prediction and decision-making strategy for an autonomous vehicle | |
Tang et al. | A hierarchical prediction model for lane-changes based on combination of fuzzy C-means and adaptive neural network | |
US11465650B2 (en) | Model-free reinforcement learning | |
CN111679660B (zh) | 一种融合类人驾驶行为的无人驾驶深度强化学习方法 | |
CN113581182B (zh) | 基于强化学习的自动驾驶车辆换道轨迹规划方法及系统 | |
Gaikwad | Vehicle Velocity Prediction Using Artificial Neural Networks and Effect of Real-World Signals on Prediction Window | |
Wang et al. | Vehicle trajectory prediction by knowledge-driven LSTM network in urban environments | |
CN112249008A (zh) | 针对复杂动态环境的无人驾驶汽车预警方法 | |
Tang et al. | ATAC-based car-following model for level 3 autonomous driving considering driver’s acceptance | |
Yu et al. | Modeling overtaking behavior in virtual reality traffic simulation system | |
Coskun | Autonomous overtaking in highways: A receding horizon trajectory generator with embedded safety feature | |
Wu et al. | A new SOTIF scenario hierarchy and its critical test case generation based on potential risk assessment | |
Wang et al. | Research on car-following model considering driving style | |
Yao et al. | Optimal lane-changing trajectory planning for autonomous vehicles considering energy consumption | |
CN116749925B (zh) | 面向人机混驾的仿人工驾驶证据动态累积制动方法及系统 | |
Zhang et al. | A lane-changing prediction method based on temporal convolution network | |
Griesbach et al. | Prediction of lane change by echo state networks | |
CN113635900B (zh) | 一种预测巡航过程中基于能量管理的换道决策控制方法 | |
CN113033902B (zh) | 一种基于改进深度学习的自动驾驶换道轨迹规划方法 | |
Chen et al. | Platoon separation strategy optimization method based on deep cognition of a driver’s behavior at signalized intersections | |
CN111767648B (zh) | 一种基于简化的社会力计算模型的混合交通仿真方法 | |
CN114475607A (zh) | 自动驾驶车辆的拟人化换道方法、装置、车辆及存储介质 | |
Olstam | Simulation of vehicles in a driving simulator using microscopic traffic simulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |