CN117290997A - 一种基于数字孪生模式的人机共驾决策系统测评方法 - Google Patents
一种基于数字孪生模式的人机共驾决策系统测评方法 Download PDFInfo
- Publication number
- CN117290997A CN117290997A CN202311019998.5A CN202311019998A CN117290997A CN 117290997 A CN117290997 A CN 117290997A CN 202311019998 A CN202311019998 A CN 202311019998A CN 117290997 A CN117290997 A CN 117290997A
- Authority
- CN
- China
- Prior art keywords
- scene
- vehicle
- driving
- man
- machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 117
- 238000012360 testing method Methods 0.000 claims abstract description 145
- 238000000034 method Methods 0.000 claims abstract description 88
- 238000005457 optimization Methods 0.000 claims abstract description 18
- 230000008447 perception Effects 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims description 121
- 230000001133 acceleration Effects 0.000 claims description 94
- 230000006870 function Effects 0.000 claims description 51
- 239000013598 vector Substances 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 26
- 238000004458 analytical method Methods 0.000 claims description 25
- 230000004927 fusion Effects 0.000 claims description 24
- 238000004422 calculation algorithm Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 22
- 239000000463 material Substances 0.000 claims description 21
- 238000004088 simulation Methods 0.000 claims description 20
- 238000013145 classification model Methods 0.000 claims description 18
- 238000005070 sampling Methods 0.000 claims description 18
- 230000003068 static effect Effects 0.000 claims description 18
- 230000006399 behavior Effects 0.000 claims description 17
- 230000019771 cognition Effects 0.000 claims description 17
- 230000007613 environmental effect Effects 0.000 claims description 15
- 238000013210 evaluation model Methods 0.000 claims description 15
- 238000005286 illumination Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 13
- 230000001364 causal effect Effects 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000005295 random walk Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000010521 absorption reaction Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000036461 convulsion Effects 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012805 post-processing Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012797 qualification Methods 0.000 claims description 6
- 238000013139 quantization Methods 0.000 claims description 6
- 238000010998 test method Methods 0.000 claims description 6
- 230000004907 flux Effects 0.000 claims description 5
- 238000009434 installation Methods 0.000 claims description 5
- 230000002457 bidirectional effect Effects 0.000 claims description 4
- 230000001149 cognitive effect Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 238000005315 distribution function Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 239000013077 target material Substances 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 3
- 241001465754 Metazoa Species 0.000 claims description 3
- 238000012614 Monte-Carlo sampling Methods 0.000 claims description 3
- 101150055297 SET1 gene Proteins 0.000 claims description 3
- 101150117538 Set2 gene Proteins 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000007621 cluster analysis Methods 0.000 claims description 3
- 230000008878 coupling Effects 0.000 claims description 3
- 238000010168 coupling process Methods 0.000 claims description 3
- 238000005859 coupling reaction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 238000002955 isolation Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 239000002184 metal Substances 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000009877 rendering Methods 0.000 claims description 3
- 239000005060 rubber Substances 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 239000012780 transparent material Substances 0.000 claims description 3
- 238000012800 visualization Methods 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 3
- 238000000556 factor analysis Methods 0.000 claims description 2
- 230000010354 integration Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 claims description 2
- 238000000540 analysis of variance Methods 0.000 claims 1
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000011161 development Methods 0.000 description 3
- 206010063385 Intellectualisation Diseases 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Abstract
本发明公开了一种基于数字孪生模式的人机共驾决策系统测评方法,其方法为:第一步、构建多传感器虚拟模型;第二步、构建多级复杂场景评估体系;第三步、评估人机共驾决策系统拟人度;第四步、评估人机共驾决策系统性能。有益效果:提升人机共驾决策系统的测试效率,加速人机共驾决策系统的迭代和优化;为决策层提供了综合、可靠的感知信息集合;确保测试所覆盖的驾驶场景的全面性和有效性;实现了不同驾驶风格、不同场景复杂度下的人机共驾决策系统的拟人度评价与测试;通过安全性、舒适性、效率性评价指标分析危险场景下人机共驾决策系统的性能。
Description
技术领域
本发明涉及一种人机共驾决策系统测评方法,特别涉及一种基于数字孪生模式的人机共驾决策系统测评方法。
背景技术
目前,随着人工智能、传感器技术、软件工程与嵌入式系统、自动控制以及汽车电子技术等多个领域的进步,自动驾驶技术逐步迈入商业化应用阶段。然而,受限于长尾事件的技术问题和政策法规等现状,实现完全自动驾驶需要有新的更大的突破,人机共驾技术仍然是目前智能车辆应用落地的主流技术。如何实现安全、可信且友好的拟人化人机共驾决策系统是制约人机共驾技术发展的重要壁垒。为加速人机共驾决策系统的开发,对该系统的性能、准确性和可靠性进行全面有效的测评是当下研究人员关注的关键技术。对人机共驾决策系统进行全面测试的过程中,可以发现系统在某些驾驶工况下做出的错误决策,通过分析测试结果可以分析系统的性能表现,使得人类驾驶员更好地理解人机共驾决策系统的决策过程,不断改进优化以提高系统的健壮性和稳定性。
当下在人机共驾决策系统的测评领域中,大多采用驾驶员实车测试和驾驶员在环测试的方式。在一些危险场景中驾驶员实车测试造成的安全性以及海量测试场景引起的时间和经济成本是限制该测试方式推广的主要因素。驾驶人在环测试解决了安全性问题,由于人机共驾决策系统测试要求高覆盖度和算法高效迭代,驾驶员在环测试无法满足测试的智能性和高效性的需求。随着数字孪生技术的发展,可以提高人机共驾决策系统测评的智能化水平。通过构建多级有效的数字孪生场景和孪生驾驶人模型,解决测试场景覆盖度低、可控性弱以及传统测试驾驶员在环的难题。通过构建高精度的虚拟传感器模型、虚拟车辆模型和孪生驾驶人认知与决策模型,可以实现人机共驾决策系统的拟人度连续测评和系统性能的评估。
围绕智能车辆测评领域中人机共驾决策系统的测评方法的专利形态较少,中国专利CN202211462295.5公开了一种面向人机共驾型车辆的硬件在环仿真测试系统及方法,通过搭建的仿真平台实现了对人机共驾控制策略的模拟测试。
中国专利CN202210127398.X公开了一种面向人机共驾智能汽车的实车实验平台测试方法,设计了一种高效、可靠的实验平台。中国专利CN202110090864.7公开了一种基于数字孪生虚实交互技术的人机共驾测试方法,通过虚拟场景中的仿真信息传递给实车自动驾驶控制器产生决策输出,还接收模拟器中驾驶员的控制指令,实现了对人机共驾型车辆的测试。上述三项专利可以实现人机共驾型车辆的测试,仍需驾驶人参与,尚未满足人机共驾测试智能化以及高效性的需要。
发明内容
本发明的目的是为了解决现有的在人机共驾决策系统的测评领域中,大多采用驾驶员实车测试和驾驶员在环测试的方式,尚未满足人机共驾测试智能化以及高效性需要的问题,而提供的一种基于数字孪生模式的人机共驾决策系统测评方法。
本发明提供的基于数字孪生模式的人机共驾决策系统测评方法,其方法包括的步骤如下:
第一步、构建多传感器虚拟模型,包括的步骤如下:
步骤一、构建相机虚拟模型,具体环节如下:
环节一、模拟光源环境,该环节通过使用计算机图形渲染软件及游戏引擎模拟场景中自然光、车灯和路灯常见光源类型,给测试场景提供光环境,通过光照强度模拟对场景目标物表面的照明程度,光照强度为场景中光源光线照射到场景表面的光通量密度,单位为流明/平方米,此外通过调整光源位置和颜色属性模拟逼真的光照效果;
环节二、定义目标物材质,该环节通过构建场景中基于物理的目标物材质,将材质属性定义虚拟目标物表面,包括表面纹理,粗糙度和凹凸度,场景中常见的车辆前挡风玻璃、车窗、后视镜和水透明或半透明材质,金属和橡胶非透明材质,根据场景中车辆、行人、路面、树木和建筑物目标物设置相应的材质属性和参数,获得真实的渲染效果;
环节三、模拟光的物理特性,该环节通过模拟环步骤一环节一创建的光源环境照射到步骤一环节二定义的不同材质的场景目标物上,模拟光线从自然光源、车灯和路灯光源发射位置照射到虚拟场景中目标物体的物理特性,包括光线的吸收、反射和折射,采用双向反射分布函数表示光源发射光和反射光的函数关系,根据不同场景测试需求以及相机参数定义光线强度,模拟光线反射和折射物理特性,最终光线经过反射和折射物理特性后射入成像板成像;
环节四、虚拟相机模型成像及输出,该环节通过车规级相机虚拟仿真方法模拟自动驾驶车辆感知结果,通过光学原理和物理模型计算光线传播能量衰减及颜色变化,最后经过坐标变换转化为像素点信息,生成虚拟相机场景图像,构建的虚拟相机模型能够模拟真实相机输出场景中逼真及真实图像数据流Ids;步骤二、构建激光雷达虚拟模型,具体环节如下:
环节一、确定激光雷达仿真参数,该环节定义激光雷达仿真参数,包括激光雷达安装位置、扫描线束直径和数量、扫描速度、垂直分辨率和水平分辨率;
环节二、模拟激光在虚拟环境的物理特性,该环节模拟激光在虚拟环境中发生的物理特性,检测激光是否与场景中目标物发生交互,若发生交互则根据目标物的材质、透明度和表面纹理模拟发生的吸收、反射和折射物理特性,直至激光遍历场景中所有目标物;
环节三、激光雷达虚拟模型点云数据生成,该环节通过激光线束和场景中发生交互的所有目标物,记录交互点并转换为点云数据,将所有激光束的点云数据合并成一个完整的点云数据集,点云数据信息流Pcds包含时间戳的目标物的位置信息、反应目标物材质的发射率信息和反应目标物透明度的激光信号强度信息;
步骤三、构建组合惯导虚拟模型,具体环节如下:
环节一、真实惯导传感器数据采集,该环节通过使用车辆常用的微型电子机械系统传感器采集加速度计和陀螺仪数据,并对采集到的原始数据进行去除噪声和滤波预处理操作;
环节二、构建加速度计误差模型,该环节通过对第一步中步骤三环节一中真实惯导传感器采集的加速度数据作为误差模型的输入,构建叠加确定性误差和随机误差的加速度计误差模型,其中采用高斯白噪声表示加速度计的随机误差,确定性误差如公式(1)所示:
ΔAx、ΔAy、ΔAz分别为加速度计x、y、z轴的输出误差,坐标原点为加速度计质心位置,x轴为车辆纵向行驶的方向,y轴和z轴分别为侧向和垂向坐标轴。Ax、Ay、Az分别为x、y、z轴的加速度输入,ex 0-ex 9、ey 0-ey 9、ez 0-ez 9分别为Ax、Ay、Az的模型系数,通过离心机试验和最小二乘法确定系数大小;
环节三、构建陀螺仪误差模型,该环节通过构建陀螺仪的误差模型,包括确定性误差和随机误差,其中陀螺仪的确定性误差如式(2)所示:
式中,Av x、Av y、Av z表示输出角速度值;av x、av y、av z表示第一步中步骤三环节一中真实惯导传感器采集的角速度数据;Mo x、Mo y、Mo z表示陀螺仪在静止时输出的非零值;Fx、Fy、Fz表示校准陀螺仪的刻度因数;表示轴向角加速度系数,补偿轴向加速度对陀螺仪输出的影响;/>表示轴间互藕项角加速度系数;Ixy、Ixz、Iyx、Iyz、Izx、Izy为安装误差值;
采用Allan方差分析陀螺仪的随机误差,包括量化噪声、角度随机游走、角速度随机游走、零偏不稳和漂移角速率斜坡,总方差e2 total计算公式(3)为:
其中,γ为量化噪声,a为角度随机游走,z为零偏不稳性,s为角速率随机游走,n为速率斜坡,δ为陀螺仪的采样周期;
环节四、组合惯导虚拟模型输出,该环节通过第一步中步骤三环节二和环节三构建加速度计和陀螺仪误差模型,结合场景中采集的环境真值构建出组合惯导虚拟模型,叠加噪声的三轴加速度计虚拟模型得到的加速度信息被用于估计姿态的俯仰角和侧倾角,陀螺仪测量得到的角速度信息被用于估计偏航角,通过对上述信息进行处理,考虑初始姿态和误差校正,输出信息集合Nds是与真实惯导系统测量物体的相近姿态估计值、位置估计值和速度估计值;
步骤四、构建多传感器融合虚拟模型,具体环节如下:
环节一、特征提取,该环节将第一步步骤一、步骤二和步骤三的输出结果作为步骤四的输入,分别提取图像数据流Ids,点云数据信息流Pcds和组合惯导虚拟模型输出信息Nds的特征,包括被检测目标数值ID和类型ID,在传感器坐标系下目标物距离,沿X、Y、Z轴的速度以及水平方位角、侧倾角和俯仰角,其中,传感器坐标系中安装的传感器质心位置为原点,沿车辆纵向、侧向和垂向为X、Y、Z轴;
环节二、数据对齐与融合,该环节实现对多传感器采集数据时间和空间上的对齐和融合,以扫描周期大的传感器为基准,采用插值法进行时间同步,相机和激光雷达通过点云配准的方法将二维图像信息和三维点云信息进行对齐和融合,同时,利用惯导的姿态和运动信息,提供对传感器数据的时空校正和预测,实现连续的定位和轨迹估计,将传感器获得的目标信息转换到统一的世界坐标系下,确保各传感器传感器空间上对齐,将多传感器测得的同一目标相互之间进行关联融合;
环节三、输出传感器融合感知结果,该环节输出传感器融合信息,包括目标物类型、目标物姿态和目标物尺寸以及目标物位置、速度和加速度信息;
第二步、构建多级复杂场景评估体系,包括的步骤如下:
步骤一、场景复杂度评价模型构建,具体环节如下:
环节一、场景复杂度影响因素分析,该环节首先定义场景元素,通过因果分析提取影响场景复杂度的场景元素,主要包括动态场景元素、静态场景元素和环境因素,其中动态场景元素包括各种类型的车辆、行人、红绿灯、动物以及空中坠落物;静态场景元素包括道路、车道线、路沿石、护栏、隔离带、建筑物、锥桶和标识牌;环境因素包括风雪雨雾天气,通过因果分析提取影响场景复杂度的场景元素的过程如下:
根据场景元素和场景元素之间的连接关系通过构建因果图G,X=[X1,X2,...,Xn]表示场景元素节点的集合,根据某个场景元素是否存在或者其特征属性发生变化,通过干预算子,即do算子计算车辆的驾驶行为是否发生改变,do(Xi=a)表示Xi的值为a时新的联合概率分布,计算式如(4)所示:
式中pai表示产生Xi的原因,P(Xi=a)为恒等函数,P(Xi|pai)表示对Xi进行干预时,去除pai对Xi的影响;
判定场景某个元素是影响因素的计算公式(5)为:
P(Xj|do(Xi=x,Xij=c)≠a=P(Xj|do(Xi=x′,Xij=c) (5)
式中,c为常数0或1,Xij表示二值变量,x′表示Xi属性变化后的值,在场景中除了Xi和Xj外其他变量不变的情况下,Xi的值引起了Xj的分布变化,那么Xi是Xj的直接原因,若分布发生改变,则认为场景元素Xi是影响场景复杂度的因素。因此,通过因果分析输出影响场景复杂度的场景元素;
环节二、主观评估方法,该环节通过层次分析法,由数位具有丰富驾驶经验的驾驶员对场景元素重要度进行评价打分,通过对第二步步骤一环节一中的静态场景中两两场景元素的重要度进行比较,得到相应的判断矩阵,通过判断矩阵,计算特征向量的最大特征值,从而构建出不同场景元素的复杂度权重,同理计算第二步步骤一环节一中的动态场景元素和环境因素的复杂度权重,通过主观评估方法最后输出场景的综合复杂度Cs;
环节三、客观评估方法,该环节通过对场景复杂度进行客观评估,通过引入引力模型,计算瞬时场景复杂度,其计算公式(6)为:
式中,Ci表示瞬时场景复杂度,μ表示修正因子,ε表示环境因素权重,veo表示车辆和场景元素的相对速度,f(e,o)表示场景元素对车辆的影响程度,l为场景元素和车辆的距离;
车辆在0-T时刻的场景复杂度Co计算公式(7)为:
式中,驾驶员复杂度主观感受Ce影响因素为道路拓扑结构、风雪雨雾和光照强度;
veo的计算公式(8)为:
veo=max(0,vecosα-vocosβ) (8)
式中,α为车辆速度和车辆和目标物位移的夹角,β为场景元素速度与场景元素和目标物位移的夹角,veo取计算结果的最大值,f(e,o)的计算公式(9)为:
式中,为场景元素对车辆影响前的车辆速度向量,/>为场景元素对车辆影响后的速度向量;
环节四、场景复杂度综合评价模型,该环节通过输入第二步中步骤一环节二基于主观评估得到的场景复杂度Cs和环节三基于客观评估得到的场景复杂度Co,根据场景复杂度综合评价模型,输出场景复杂度评估结果Cf,计算公式如(10)所示:
Cf=λCs+(1-λ)Co (10)
式中,λ表示权重系数;
步骤二、基于欧式聚类算法的场景复杂度分级,具体环节如下:
环节一、基于Metrolis Hasting抽样的样本生成,该环节通过对测试场景进行切片,获得包含纵向驾驶场景和侧向驾驶场景数据库,对场景数据库的场景样本特征参数值采用Metrolis Hasting抽样,生成随机化测试场景,对纵侧向驾驶场景进行特征筛选,纵向驾驶特征参数包括本车速度、前后车速度、前后车加速度以及与前车的车头时距,侧向驾驶特征参数包括切入和切出时刻两车的间距、切入和切出时刻的速度以及切入和切出时刻的车速比,通过核密度估计方法表示纵侧向测试场景特征参数的分布密度函数,核密度估计的计算公式(11)为:
式中,表示估计的分布密度函数,N表示待估计分布的测试样本数量,x表示随机变量,xi为样本,m为带宽,σ表示函数的宽度参数;
采用蒙特卡罗抽样估计随机变量的期望值,假设期望变量X服从概率分布n(x),从n(x)中抽样xi,计算每个样本的函数值f(xi),将所有些样本的函数值f(xi)的平均值作为期望值的估计,计算公式(12)为:
是利用样本抽样估计的函数n(x)的数学期望,n为样本的数量;
根据Metrolis Hasting抽样,获得纵侧向测试场景每个场景特征参数的样本值,样本值的组合表示随机化的测试场景;
根据上述两式估计关键事件发生的概率,估计结果的相对误差e的计算公式(13)为:
环节二、基于欧式聚类算法的测试场景分级,该环节对环节一生成的所有随机化测试场景采用欧式距离公式进行聚类分析,计算公式(14)为:
式中,P=(xp1,xp2,...,xpf),Q=(xq1,xq2,...,xqf),f为纵侧向驾驶场景特征参数维度;
采用极差标准化方法,计算公式如(15)所示:
xPQ为标准化后的变量,p=1,2,...,N,q=1,2,...,M,xpq为待聚类的变量,Nc待聚类的场景数目,M为待聚类的变量数目,侧向驾驶场景关键变量包括侧向碰撞时间TTC1和侧向加速度a1,纵向驾驶场景关键变量包括纵向碰撞时间TTC2和纵向加速度a2;
环节三、场景复杂度分级结果分析,该环节分析场景复杂度分级结果,根据场景复杂度分为危险场景、紧急场景和关键场景,危险场景主要分布在碰撞时间小且加速度大的地方,关键场景分布在碰撞时间较大的地方;
第三步、评估人机共驾决策系统拟人度,包括的步骤如下:
步骤一、孪生驾驶人认知与决策模型构建,具体环节如下:
环节一、基于动态异质图的孪生驾驶人场景认知模型构建,该环节以孪生驾驶人的视角将包含动静态场景元素的驾驶场景采用动态异质图模型构建出来;
环节二、孪生驾驶人决策模型构建,该环节通过考虑步骤一环节一中学习得到的目标车辆或行人的预测轨迹,构建孪生驾驶人决策模型,输入信号为本车信息和目标车辆或者行人的预测轨迹,根据预测轨迹的相关信息,选择影响本车驾驶行为或具有碰撞风险的目标车辆,对预测轨迹进行预处理,考虑车辆运动学和动力学约束,将预测点转换为贝塞尔曲线的控制点,通过线性插值确定控制点的数量和位置,通过最小二乘法对曲线进行拟合,最后将本车的轨迹进行平滑,输出孪生驾驶人最优决策轨迹;
环节三、孪生驾驶人驾驶风格分类模型构建,该环节通过对第三步步骤一环节二构建的孪生驾驶人决策模型输出的决策轨迹进行分类,构建孪生驾驶人驾驶风格分类模型,学习得到的具有时间序列信息的实体节点特征向量,输入至LSTM自编码器网络中,对模型进行训练,提取基于时间维度的风格特征编码,将提取的特征输入至K-means++模型进行分类,将驾驶风格分为激进型、一般型和稳健型三类,构建孪生驾驶人驾驶风格分类模型,输出信息为不同驾驶风格的孪生驾驶模型决策结果;
步骤二、人机共驾决策系统拟人度评价,具体环节如下:
环节一、本车纵向驾驶拟人度特征提取,该环节对纵向驾驶拟人度特征进行提取,提取驾驶人纵向驾驶加速或制动行为偏好相关的平均加速度、最大加速度、加速度变化率以及加速/制动频率特征;
环节二、本车侧向驾驶拟人度特征提取,该环节对侧向驾驶拟人度特征进行提取,提取驾驶人与变道行为相关的变道频率、转向灯使用和变道速度特征,与车道保持相关的车道偏离程度和车道偏移次数特征,与横向加速度相关的最大横向加速度、横向加速度变化率和平均横向加速度特征;
环节三、驾驶信任度特征提取,该环节主要是对表征本车周围动态交通参与者对本车的信任度的特征进行提取,信任度具体体现为交通参与者是否敢靠近本车车辆,因此,驾驶信任度特征为周围交通参与者和本车的距离、跟车时距和碰撞时间;
环节四、计算人机共驾决策系统拟人度,该环节对不同驾驶风格的人机共驾决策系统进行拟人度评价。根据第三步步骤二中的环节一、环节二和环节三提取的特征,招募激进型、一般型和稳健型驾驶风格的驾驶员各数人对相应驾驶风格的人机共驾决策系统的拟人度进行主观评价,去除5个最大和5个最小的样本,取剩余样本的平均值作为拟人度评价的最终结果,由此构建出标记样本,选择70%的数据集作为训练集,30%的数据集作为测试集,采用BP算法对拟人度评价模型及进行训练,并在测试集上验证拟人度的评价结果,评估模型的拟合度;
步骤三、人机共驾决策系统拟人度测试方法,具体环节如下:
环节一、面向人机共驾决策系统拟人度测试的仿真架构,通过第一步构建的多传感器虚拟模型,采集车辆的位置信息和姿态信息,感知数字孪生场景中的动静态场景元素信息,并定义好仿真接口,将融合感知的环境真值结果输入至待测人机共驾决策算法中,根据实际驾驶人驾驶风格选择第三步步骤一构建的相应驾驶风格的孪生驾驶人认知与决策模型,同样将采集的环境真值信息输入至孪生驾驶人认知与决策模型,待测的人机共驾决策算法实现驾驶权的分配并输出最终的控制指令,虚拟车辆模型接收人机共驾决策算法的控制指令并实现车辆状态的更新,构建的数字孪生场景也同步进行更新,实现数据回路的闭环;
环节二、面向拟人度计算的测试数据采集,该环节采集面向拟人度计算的测试数据,并对测试数据进行后处理,采集信息为第一步构建的多传感器虚拟模型输出的感知结果,以及第三步中步骤二中环节一、环节二和环节三提取的关于拟人度计算的特征信息,通过确保数据采集系统正常运行,设置适当的采样频率和参数,以满足数据采集的需求,对采集到的数据进行后处理和分析,通过数据校准、信号滤波和对象追踪方式,输出面向拟人度计算的高质量数据信息;
环节三、基于场景复杂度和驾驶风格的人机共驾决策系统拟人度测试,该环节通过对基于场景复杂度和驾驶风格的人机共驾系统拟人度测试,输入信息一是第二步中步骤二构建的场景复杂度分级模型的分级结果,输出当前测试场景的复杂度;二是第三步步骤一中环节三构建的孪生驾驶人驾驶风格分类模型,输出当前孪生驾驶人的驾驶风格,以场景复杂度和驾驶风格为试验因素,以拟人度为试验指标,设计二因素三水平的正交试验,分析不同场景复杂度和驾驶风格对拟人度的影响,通过极差分析获得拟人度高的最优参数组合,对拟人度测试不高的测试结果进行记录并分析原因,调整场景复杂度分级模型、驾驶风格分类模型和基于BP神经网络的拟人度评价模型的参数,反复试验最终获得期望拟人度的试验组合;
第四步、评估人机共驾决策系统性能,包括的步骤如下:
步骤一、面向人机共驾决策的危险场景构建,具体环节如下:
环节一、面向人机共驾决策的危险要素提取,该环节通过提取面向人机共驾决策的危险要素,包括动态场景元素的位置、速度、加速度和尺寸大小,静态场景元素危险要素,包括道路类型、附着系数,车道线虚实类型和模糊程度危险要素,环境要素包括风雪雨雾天气的类型,输出面向人机共驾决策场景危险要素;
环节二、基于最优化理论的危险场景构建,该环节基于最优化理论实现危险场景的构建,通过第四步步骤一环节一输出的危险要素,根据概率分布对危险要素取值范围进行确定,得到生成危险场景的约束条件,根据场景中动态目标物之间的碰撞条件作为危险边界构建目标函数,采用基于约束的最优化理论进行求解,获得具有代表性危险场景的要素离散值组合,基于OpenDrive和OpenScenario格式的场景描述文件构建人机共驾决策用危险场景;
步骤二、人机共驾决策系统评价指标构建;
构建人机共驾决策系统综合评价得分分数函数,计算公式如(31)所示:
E=μsafetyEsafety+μcomfortEcomfort+μefficiencyEefficiency (31)
μsafety,μcomfort和μefficiency分别为目标车辆安全性、舒适性和效率性权重系数,Esafety,Ecomfort和Eefficiency分别为安全性、舒适性和效率性得分分数;
具体环节如下:
环节一、人机共驾决策系统安全性评价,该环节对人机共驾决策系统的安全性进行评价,主要通过表征车辆碰撞风险的碰撞时间为安全性评价指标,某时刻碰撞时间TTCi(t)计算公式如(32)所示:
式中D(t)表示两车之间的距离,Vi(t)表示后车速度,Vi-1(t)表示前车速度;
安全性评价得分分数计算公式如(33)所示:
环节二、人机共驾决策系统舒适性评价,该环节通过对人机共驾决策系统的舒适性进行评价,主要通过加权加速度均方根值和加速度变化率两个指标对车辆加减速引起的前仰后翻和转弯时的抛出感进行评价;
舒适性评价得分分数函数计算公式如(34)所示:
Ecomfort=λjerkJcom+λaccAcom (34)
λjerk和λacc别表示表示加速度变化率和加权加速度均方根得分分数Jcom和Acom的权重系数;
采用的加权加速度均方根值计算公式如(35)所示:
arms频率加权加速度均方根值,T为测量时间,aw为采用Wi频率加权后的加速度,根据加权加速度均方根值arms得到的分数计算公式如(36)所示:
根据加速度变化率值J得到的分数计算公式如(37)所示:
环节三、人机共驾决策系统效率性评价,该环节通过瞬时纵向车速指标进行效率性评价,瞬时纵向车速奖励函数计算公式如下:
vx表示决策的速度,vroad1和vroad2分别表示当前车道规定行使的最低和最高速度,vset1和vset2分别表示期望最低和最高速度,将计算结果进行归一化得到效率性评价分数Eefficiency;
步骤三、人机共驾决策系统性能分析,具体环节如下:
环节一、人机共驾决策系统评价结果分析,该环节通过整合人机共驾决策系统的评价结果,分析第四步中步骤二构建的各项评价指标,统计人机共驾决策系统在危险场景中满足第四步中步骤二环节一中安全性得分分数、第四步中步骤二环节二中舒适性得分分数和第四步中步骤二环节三中效率性得分分数要求决策的比例,评价结果合格率η计算公式(39)为:
式中testpass为测试满足安全性、舒适性和效率性得分分数要求的测试场景项数,testtotal为总场景项数;
环节二、人机共驾决策系统信息整合,该环节通过整合测试人机共驾决策系统的感知信息和决策信息,整合第一步中构建的多传感器虚拟模型输出的信息和对人机共驾决策系统的决策结果信息,确保不满足安全性、舒适性和效率性得分分数要求的决策结果不是由于系统的感知结果导致的,保证多传感器虚拟模型输出的感知信息的真实性,然后根据危险场景下人机共驾决策系统的测试合格率进行分类,对人机共驾决策系统测试过程中不满足第四步中步骤二构建的安全性、舒适性和效率性得分分数要求的全部信息进行整合并分析,确定提高系统鲁棒性的方法;
环节三、生成评估报告,该环节通过评估人机共驾决策系统的性能生成评估报告,总结人机共驾决策系统性能评估相关的测试环境、测试方法、测试结果、测试效率以及对性能的分析讨论,统一第四步步骤一中构建的危险场景内容及标准,分析人机共驾决策系统在不同场景复杂度下的适应性,得到影响人机共驾决策系统性能的关键场景因素,评估第四步步骤三中环节二整合的多传感器虚拟模型信息真实度和决策信息的准确度,撰写评估报告,并利用可视化和图表直观展示评估结果,清晰地描述系统的性能和改进方向。
第三步步骤一中环节一的具体实施步骤如下:
1)、将场景元素实体通过图上的节点表示,场景元素实体之间的相互关系用图的有权边表示,动态异质图模型Gt=(E,ε,N,R,T)表示为[0,T]中所有场景元素实体有序事件序列,其中E={e1,e2,…,em}表示不同类别场景元素实体节点集合,是由场景路段、场景车道和动态交通参与者组成的集合,m表示节点的个数,ε={ε1,ε2,…,εn}表示为不同类别场景元素连接边的集合,n表示连接边的个数。N表示节点类型集合,R表示边的类型集合,T表示时间戳,采用异质图注意力网络对场景元素实体节点进行嵌入表示,构建低维连续稠密的向量;
2)、定义不同元路径捕捉场景实体节点的语义关系,包括车辆-邻接-车辆,车辆-位于-车道,车辆-关联-车道线,标识牌-位于-车道,标识牌-关联-车辆语义关系,然后将图模型中所有节点ei进行特征变换,变换后的特征为e′i,为待训练学习的矩阵空间,计算式如式(16)所示:
3)、接下来计算相同元路径下某个实体节点相邻节点的注意力系数,计算相邻车辆节点ej对车辆节点ei的注意力系数,用于捕捉节点ej对车辆ei驾驶行为的影响程度,节点ei与节点ej的注意力系数计算式如(17)所示:
用可训练的参数对ei进行线性变换,||表示将节点ei和节点ej变换后的结果进行拼接,a表示将拼接后的高维特征映射到一个实数上,表示元路径φ1下第i个节点和第j个节点的注意力系数;
同理元路径φ2下车辆节点ei和车道节点的注意力系数计算式(18)为:
元路径φ3下节点ei和车道线节点的注意力系数计算式(19)为:
由此计算得到不同元路径下车辆节点ei和相邻节点ej的注意力系数;
4)、对车辆节点ei和相邻节点进行分配权重,将其和所有相邻节点计算的重要度采用softmax函数进行归一化处理,由此计算得到车辆节点ei相邻节点的重要度,由此便得到和车辆具有特定语义关系的实体对车辆行为的影响程度,重要度计算式(20)为:
/>
5)、根据计算得到的车辆节点与其相邻节点重要度以及相邻节点的特征对车辆节点进行嵌入表示,其计算公式(21)为:
由于不同语义信息表示的元路径对车辆实体节点的权重不同,学习每个元路径的权重系数,然后结合节点嵌入表示结果实现融合嵌入学习,具体过程如下:
首先经过多层感知机实现对元路径的非线性变换,通过引入待学习的向量qT实现相似度的计算,通过求均值得到每个元路径的重要性。其计算公式(22)为:
式中,W为待学习的权重矩阵,b为待学习的偏置向量,q为待学习的语义向量。最后通过归一化得到不同元路径的权重,其计算公式(23)为:
其中为待学习的权重系数;
最终车辆节点融合元路径语义信息的嵌入学习表示计算式(24)为:
最后对网络进行训练,损失函数计算公式(25)为:
通过最小化损失函数训练模型,式中,ζ表示损失函数值,yi,z表示样本特征对应的真实标签信息,表示预测结果,D为整体监督信息集合,引入L2正则化约束Ω,学习所有需要学习的参数θ,η为参数正则化权重,L2正则化可以保证优化问题的凸性和提升模型的鲁棒性,通过反向传播算法和Adam优化器进行参数优化,并学习节点的嵌入,提高模型的泛化性能;
6)、实现对节点嵌入表示,然后对场景中目标物轨迹进行预测,构建驾驶人认知模型,对et i集合学习到的低维向量进行LSTM编码,得到轨迹交互特征st i。输出车辆实体预测轨迹相关公式(26)为:
其中,st i=LSTM(st-1i,et i,Ws)为LSTM在t-1时刻的隐藏状态,隐藏层单元个数为16。Ws为LSTM编码权重;
为提高模型的鲁棒性以及缓解训练过程中的过拟合现象,引入噪声z,与编码器的输出信息si进行拼接,公式如(27)所示:
对下一时刻Tobs+1通过解码器对隐藏特征信息进行解码,并通过多层感知机线性层机构,转换到坐标空间生成场景中相应的预测轨迹信息,相应的计算公式(28)和(29)为:
其中,Wdec为LSTM解码权重;
训练过程中损失函数值Lvar计算公式(30)为:
其中,Yi是场景中动态目标物未来真实轨迹,是场景中动态目标物的未来预测轨迹,超参数k表示生成解码器的初始隐藏状态时噪声的随机取样次数;
7)、对模型进行训练,输出目标车辆或行人预测轨迹,得到孪生驾驶人场景认知模型。
本发明的有益效果:
1)本发明提供的基于数字孪生模式的人机共驾决策系统测评方法,通过构建多传感器虚拟模型,构建多级复杂场景评估体系,评估人机共驾决策系统拟人度,评估人机共驾决策系统性能四步实现对系统的测评。基于测试环境、测试方法、测试指标以及结果分析构建了完备的人机共驾决策系统的测试体系,实现人机共驾决策系统测评的智能化,提升人机共驾决策系统的测试效率,加速人机共驾决策系统的迭代和优化;
2)本发明提供的基于数字孪生模式的人机共驾决策系统测评方法,基于构建的高精度多传感器虚拟模型,为决策层提供了综合、可靠的感知信息集合;
3)本发明提供的基于数字孪生模式的人机共驾决策系统测评方法,基于构建多级复杂场景评估体系,实现了对场景复杂度评价和分级,确保测试所覆盖的驾驶场景的全面性和有效性;
4)本发明提供的基于数字孪生模式的人机共驾决策系统测评方法,通过评估人机共驾决策系统拟人度,实现了不同驾驶风格、不同场景复杂度下的人机共驾决策系统的拟人度评价与测试;
5)本发明提供的基于数字孪生模式的人机共驾决策系统测评方法,评估人机共驾决策系统性能,通过安全性、舒适性、效率性评价指标分析危险场景下人机共驾决策系统的性能。
附图说明
图1为本发明所述的人机共驾决策系统测评方法的整体步骤示意图。
图2为本发明所述的第一步的整体架构示意图。
图3为本发明所述的第二步的整体架构示意图。
图4为本发明所述的第三步的整体架构示意图。
图5为本发明所述的第四步的整体架构示意图。
图6为本发明所述的第二步中步骤二中的场景复杂度分级结果图。
图7为本发明所述的第三步中步骤一的场景抽象示例图。
图8为本发明所述的第三步中步骤一的场景认知算法示例图。
图9为本发明所述的第三步中步骤三的仿真架构示例图。
图10为本发明所述的第三步中步骤三的不同驾驶风格的拟人度测试结果示例图。
图11为本发明所述的第三步中步骤三的试验流程示例图。
图12为本发明所述的第三步中步骤三的基于场景复杂度和驾驶风格的拟人度测试结果示例图。
具体实施方式
请参阅图1至图12所示:
本发明提供的基于数字孪生模式的人机共驾测评方法,其方法包括的步骤如下:
第一步、构建多传感器虚拟模型;
第二步、构建多级复杂场景评估体系;
第三步、评估人机共驾决策系统拟人度;
第四步、评估人机共驾决策系统性能;
第一步中构建多传感器虚拟模型的过程如下:
步骤一、构建相机虚拟模型,具体环节如下:
环节一、模拟光源环境,该环节通过使用计算机图形渲染软件及游戏引擎模拟场景中自然光、车灯和路灯常见光源类型,给测试场景提供光环境。通过光照强度模拟对场景目标物表面的照明程度,光照强度为场景中光源光线照射到场景表面的光通量密度,单位为流明/平方米,此外通过调整光源位置和颜色属性模拟逼真的光照效果。
环节二、定义目标物材质,该环节通过构建场景中基于物理的目标物材质,将材质属性定义虚拟目标物表面,包括表面纹理,粗糙度和凹凸度,场景中常见的车辆前挡风玻璃、车窗、后视镜和水透明或半透明材质,金属和橡胶非透明材质。根据场景中车辆、行人、路面、树木和建筑物目标物设置相应的材质属性和参数,获得真实的渲染效果。
环节三、模拟光的物理特性,该环节通过模拟环步骤一环节一创建的光源环境照射到步骤一环节二定义的不同材质的场景目标物上,模拟光线从自然光源、车灯和路灯光源发射位置照射到虚拟场景中目标物体的物理特性,包括光线的吸收、反射和折射。采用双向反射分布函数(Bidirectional Reflectance Distribution Function,BRDF)表示光源发射光和反射光的函数关系。根据不同场景测试需求以及相机参数定义光线强度,模拟光线反射和折射物理特性,最终光线经过反射和折射物理特性后射入成像板成像。
环节四、虚拟相机模型成像及输出,该环节通过车规级相机虚拟仿真方法模拟自动驾驶车辆感知结果,通过光学原理和物理模型计算光线传播能量衰减及颜色变化,最后经过坐标变换转化为像素点信息,生成虚拟相机场景图像。构建的虚拟相机模型能够模拟真实相机输出场景中逼真及真实图像数据流Ids。
步骤二、构建激光雷达虚拟模型,具体环节如下:
环节一、确定激光雷达仿真参数,该环节定义激光雷达仿真参数,包括激光雷达安装位置、扫描线束直径和数量、扫描速度、垂直分辨率和水平分辨率。
环节二、模拟激光在虚拟环境的物理特性,该环节模拟激光在虚拟环境中发生的物理特性,检测激光是否与场景中目标物发生交互,若发生交互则根据目标物的材质、透明度和表面纹理模拟发生的吸收、反射和折射物理特性,直至激光遍历场景中所有目标物。
环节三、激光雷达虚拟模型点云数据生成,该环节通过激光线束和场景中发生交互的所有目标物,记录交互点并转换为点云数据,将所有激光束的点云数据合并成一个完整的点云数据集。点云数据信息流Pcds包含时间戳的目标物的位置信息、反应目标物材质的发射率信息和反应目标物透明度的激光信号强度信息。
步骤三、构建组合惯导虚拟模型,具体环节如下:
环节一、真实惯导传感器数据采集,该环节通过使用车辆常用的微型电子机械系统(Micro-Electro-Mechanical Systems,MEMS)传感器采集加速度计和陀螺仪数据,并对采集到的原始数据进行去除噪声和滤波预处理操作。
环节二、构建加速度计误差模型,该环节通过对第一步中步骤三环节一中真实惯导传感器采集的加速度数据作为误差模型的输入,构建叠加确定性误差和随机误差的加速度计误差模型,其中采用高斯白噪声表示加速度计的随机误差,确定性误差如公式(1)所示:
ΔAx、ΔAy、ΔAz分别为加速度计x、y、z轴的输出误差,坐标原点为加速度计质心位置,x轴为车辆纵向行驶的方向,y轴和z轴分别为侧向和垂向坐标轴。Ax、Ay、Az分别为x、y、z轴的加速度输入,ex 0-ex 9、ey 0-ey 9、ez 0-ez 9分别为Ax、Ay、Az的模型系数,通过离心机试验和最小二乘法确定系数大小。
环节三、构建陀螺仪误差模型,该环节通过构建陀螺仪的误差模型,包括确定性误差和随机误差,其中陀螺仪的确定性误差如式(2)所示:
式中,Av x、Av y、Av z表示输出角速度值;av x、av y、av z表示第一步中步骤三环节一中真实惯导传感器采集的角速度数据;Mo x、Mo y、Mo z表示陀螺仪在静止时输出的非零值;Fx、Fy、Fz表示校准陀螺仪的刻度因数;表示轴向角加速度系数,补偿轴向加速度对陀螺仪输出的影响;/>表示轴间互藕项角加速度系数;Ixy、Ixz、Iyx、Iyz、Izx、Izy为安装误差值。
采用Allan方差分析陀螺仪的随机误差,包括量化噪声、角度随机游走、角速度随机游走、零偏不稳和漂移角速率斜坡,总方差e2 total计算公式(3)为:
其中,γ为量化噪声,a为角度随机游走,z为零偏不稳性,s为角速率随机游走,n为速率斜坡,δ为陀螺仪的采样周期。
环节四、组合惯导虚拟模型输出,该环节通过第一步中步骤三环节二和环节三构建加速度计和陀螺仪误差模型,结合场景中采集的环境真值构建出组合惯导虚拟模型,叠加噪声的三轴加速度计虚拟模型得到的加速度信息被用于估计姿态的俯仰角和侧倾角,陀螺仪测量得到的角速度信息被用于估计偏航角。通过对上述信息进行处理,考虑初始姿态和误差校正,输出信息集合Nds是与真实惯导系统测量物体的相近姿态估计值、位置估计值和速度估计值。
步骤四、构建多传感器融合虚拟模型,具体环节如下:
环节一、特征提取,该环节将第一步步骤一、步骤二和步骤三的输出结果作为步骤四的输入,分别提取图像数据流Ids,点云数据信息流Pcds和组合惯导虚拟模型输出信息Nds的特征,包括被检测目标数值ID和类型ID,在传感器坐标系下目标物距离,沿X、Y、Z轴的速度以及水平方位角、侧倾角和俯仰角。其中,传感器坐标系中安装的传感器质心位置为原点,沿车辆纵向、侧向和垂向为X、Y、Z轴。
环节二、数据对齐与融合,该环节实现对多传感器采集数据时间和空间上的对齐和融合。以扫描周期大的传感器为基准,采用插值法进行时间同步,相机和激光雷达通过点云配准的方法将二维图像信息和三维点云信息进行对齐和融合。同时,利用惯导的姿态和运动信息,提供对传感器数据的时空校正和预测,实现连续的定位和轨迹估计。将传感器获得的目标信息转换到统一的世界坐标系下,确保各传感器传感器空间上对齐,将多传感器测得的同一目标相互之间进行关联融合。
环节三、输出传感器融合感知结果,该环节输出传感器融合信息,包括目标物类型、目标物姿态和目标物尺寸以及目标物位置、速度和加速度信息。
第二步构建多级复杂场景评估体系的过程如下:
步骤一、场景复杂度评价模型构建,具体环节如下:
环节一、场景复杂度影响因素分析,该环节首先定义场景元素,通过因果分析提取影响场景复杂度的场景元素。主要包括动态场景元素、静态场景元素和环境因素。其中动态场景元素包括各种类型的车辆、行人、红绿灯、动物以及空中坠落物;静态场景元素包括道路、车道线、路沿石、护栏、隔离带、建筑物、锥桶和标识牌;环境因素包括风雪雨雾天气。通过因果分析提取影响场景复杂度的场景元素的过程如下:
根据场景元素和场景元素之间的连接关系通过构建因果图G,X=[X1,X2,...,Xn]表示场景元素节点的集合,根据某个场景元素是否存在或者其特征属性发生变化,通过干预算子(do算子)计算车辆的驾驶行为是否发生改变。do(Xi=a)表示Xi的值为a时新的联合概率分布,计算式如(4)所示:
式中pai表示产生Xi的原因,P(Xi=a)为恒等函数,P(Xi|pai)表示对Xi进行干预时,去除pai对Xi的影响。
判定场景某个元素是影响因素的计算公式(5)为:
P(Xj|do(Xi=x,Xij=c)≠a=P(Xj|do(Xi=x′,Xij=c) (5)
式中,c为常数0或1,Xij表示二值变量,x′表示Xi属性变化后的值。在场景中除了Xi和Xj外其他变量不变的情况下,Xi的值引起了Xj的分布变化,那么Xi是Xj的直接原因。若分布发生改变,则认为场景元素Xi是影响场景复杂度的因素。因此,通过因果分析输出影响场景复杂度的场景元素。
环节二、主观评估方法,该环节通过层次分析法,由20位具有丰富驾驶经验的驾驶员对场景元素重要度进行评价打分。通过对第二步步骤一环节一中的静态场景中两两场景元素的重要度进行比较,得到相应的判断矩阵,通过判断矩阵,计算特征向量的最大特征值,从而构建出不同场景元素的复杂度权重。同理计算第二步步骤一环节一中的动态场景元素和环境因素的复杂度权重。通过主观评估方法最后输出场景的综合复杂度Cs。
环节三、客观评估方法,该环节通过对场景复杂度进行客观评估,通过引入引力模型,计算瞬时场景复杂度,其计算公式(6)为:
式中,Ci表示瞬时场景复杂度,μ表示修正因子,ε表示环境因素权重,veo表示车辆和场景元素的相对速度,f(e,o)表示场景元素对车辆的影响程度,l为场景元素和车辆的距离。
车辆在0-T时刻的场景复杂度Co计算公式(7)为:
式中,驾驶员复杂度主观感受Ce影响因素为道路拓扑结构、风雪雨雾和光照强度。
veo的计算公式(8)为:
veo=max(0,vecosα-vocosβ) (8)
式中,α为车辆速度和车辆和目标物位移的夹角,β为场景元素速度与场景元素和目标物位移的夹角,veo取计算结果的最大值。f(e,o)的计算公式(9)为:
式中,为场景元素对车辆影响前的车辆速度向量,/>为场景元素对车辆影响后的速度向量。
环节四、场景复杂度综合评价模型,该环节通过输入第二步中步骤一环节二基于主观评估得到的场景复杂度Cs和环节三基于客观评估得到的场景复杂度Co,根据场景复杂度综合评价模型,输出场景复杂度评估结果Cf,计算公式如(10)所示:
Cf=λCs+(1-λ)Co (10)
式中,λ表示权重系数。
步骤二、基于欧式聚类算法的场景复杂度分级,具体环节如下:
环节一、基于Metrolis Hasting抽样的样本生成,该环节通过对测试场景进行切片,获得包含纵向驾驶场景和侧向驾驶场景数据库。对场景数据库的场景样本特征参数值采用Metrolis Hasting抽样,生成随机化测试场景。对纵侧向驾驶场景进行特征筛选,纵向驾驶特征参数包括本车速度、前后车速度、前后车加速度以及与前车的车头时距。侧向驾驶特征参数包括切入和切出时刻两车的间距、切入和切出时刻的速度以及切入和切出时刻的车速比。通过核密度估计方法表示纵侧向测试场景特征参数的分布密度函数。核密度估计的计算公式(11)为:
/>
式中,表示估计的分布密度函数,N表示待估计分布的测试样本数量,x表示随机变量,xi为样本,m为带宽,σ表示函数的宽度参数。
采用蒙特卡罗抽样估计随机变量的期望值,假设期望变量X服从概率分布n(x),从n(x)中抽样xi,计算每个样本的函数值f(xi),将所有些样本的函数值f(xi)的平均值作为期望值的估计,计算公式(12)为:
是利用样本抽样估计的函数n(x)的数学期望,n为样本的数量。
根据Metrolis Hasting(MH)抽样,获得纵侧向测试场景每个场景特征参数的样本值,样本值的组合表示随机化的测试场景。
根据上述两式估计关键事件发生的概率,估计结果的相对误差e的计算公式(13)为:
环节二、基于欧式聚类算法的测试场景分级,该环节对环节一生成的所有随机化测试场景采用欧式距离公式进行聚类分析,计算公式(14)为:
式中,P=(xp1,xp2,...,xpf),Q=(xq1,xq2,...,xqf),f为纵侧向驾驶场景特征参数维度。
采用极差标准化方法,计算公式如(15)所示:
xPQ为标准化后的变量,p=1,2,...,N,q=1,2,...,M,xpq为待聚类的变量,Nc待聚类的场景数目,M为待聚类的变量数目。侧向驾驶场景关键变量包括侧向碰撞时间TTC1和侧向加速度a1,纵向驾驶场景关键变量包括纵向碰撞时间TTC2和纵向加速度a2。
环节三、场景复杂度分级结果分析,该环节分析场景复杂度分级结果,根据场景复杂度分为危险场景、紧急场景和关键场景,场景复杂度分级结果如图6所示,每个点代表一个测试场景,由图可知,危险场景主要分布在碰撞时间小且加速度大的地方,关键场景分布在碰撞时间较大的地方。
第三步评估人机共驾决策系统拟人度的过程如下:
步骤一、孪生驾驶人认知与决策模型构建,具体环节如下:
环节一、基于动态异质图的孪生驾驶人场景认知模型构建,该环节以孪生驾驶人的视角将包含动静态场景元素的驾驶场景采用动态异质图模型构建出来,图7用动态异质图描述了双向四车道的场景,该场景可描述为一段实体路段,有三条实体车道,实体车辆、实体标识牌和实体车道线在相应车道上。图模型中椭圆形的节点表示路段,其特征属性包括路段长度和路段类型;正方形节点表示车道,其特征属性包括车道宽度、车道坡度和通行方向。菱形节点表示车道线,其特征属性包括车道线类型和曲率。圆形节点表示交通标识牌,其特征属性包括位置和标识信息。长方形节点表示动态交通参与者,其特征属性包括车辆/行人类型、形状、位置、速度和加速度。基于动态异质图注意力网络建立面向孪生驾驶人的场景认知模型。输入信号为采集的场景中场景元素的非结构化数据,通过注意力网络学习所有实体节点与其他实体节点特征信息和连接关系,构建低维、连续、稠密的向量。基于实体节点的嵌入学习构建下游任务,一是实现场景元素实体节点的分类,二是输入至长短时记忆(Long Short-Term Memory,LSTM)网络实现实体节点的轨迹预测,实现孪生驾驶人对场景的认知。
环节二、孪生驾驶人决策模型构建,该环节通过考虑步骤一环节一中学习得到的目标车辆或行人的预测轨迹,构建孪生驾驶人决策模型。输入信号为本车信息和目标车辆或者行人的预测轨迹。根据预测轨迹的相关信息,选择影响本车驾驶行为或具有碰撞风险的目标车辆。对预测轨迹进行预处理,考虑车辆运动学和动力学约束,将预测点转换为贝塞尔曲线的控制点,通过线性插值确定控制点的数量和位置,通过最小二乘法对曲线进行拟合,最后将本车的轨迹进行平滑,输出孪生驾驶人最优决策轨迹。
环节三、孪生驾驶人驾驶风格分类模型构建,该环节通过对第三步步骤一环节二构建的孪生驾驶人决策模型输出的决策轨迹进行分类,构建孪生驾驶人驾驶风格分类模型。学习得到的具有时间序列信息的实体节点特征向量,输入至LSTM自编码器网络中,对模型进行训练,提取基于时间维度的风格特征编码,将提取的特征输入至K-means++模型进行分类,将驾驶风格分为激进型、一般型和稳健型三类,构建孪生驾驶人驾驶风格分类模型。输出信息为不同驾驶风格的孪生驾驶模型决策结果。
第三步步骤一中环节一的示例性实施方案如图8所示。
将场景元素实体通过图上的节点表示,场景元素实体之间的相互关系用图的有权边表示。动态异质图模型Gt=(E,ε,N,R,T)表示为[0,T]中所有场景元素实体有序事件序列,其中E={e1,e2,…,em}表示不同类别场景元素实体节点集合,是由场景路段、场景车道和动态交通参与者组成的集合,m表示节点的个数。ε={ε1,ε2,…,εn}表示为不同类别场景元素连接边的集合,n表示连接边的个数。N表示节点类型集合,R表示边的类型集合,T表示时间戳。采用异质图注意力网络对场景元素实体节点进行嵌入表示,构建低维连续稠密的向量。
首先定义不同元路径捕捉场景实体节点的语义关系,包括车辆-邻接-车辆,车辆-位于-车道,车辆-关联-车道线,标识牌-位于-车道,标识牌-关联-车辆语义关系。然后将图模型中所有节点ei进行特征变换,变换后的特征为e′i,为待训练学习的矩阵空间,计算式如式(16)所示。
接下来计算相同元路径下某个实体节点相邻节点的注意力系数,计算相邻车辆节点ej对车辆节点ei的注意力系数,用于捕捉节点ej对车辆ei驾驶行为的影响程度。节点ei与节点ej的注意力系数计算式如(17)所示:
用可训练的参数对ei进行线性变换,||表示将节点ei和节点ej变换后的结果进行拼接,a表示将拼接后的高维特征映射到一个实数上,表示元路径φ1下第i个节点和第j个节点的注意力系数。
同理元路径φ2下车辆节点ei和车道节点的注意力系数计算式(18)为:
元路径φ3下节点ei和车道线节点的注意力系数计算式(19)为:
由此计算得到不同元路径下车辆节点ei和相邻节点ej的注意力系数。
接下来对车辆节点ei和相邻节点进行分配权重,将其和所有相邻节点计算的重要度采用softmax函数进行归一化处理。由此计算得到车辆节点ei相邻节点的重要度,由此便得到和车辆具有特定语义关系的实体对车辆行为的影响程度,重要度计算式(20)为:
然后根据计算得到的车辆节点与其相邻节点重要度以及相邻节点的特征对车辆节点进行嵌入表示,其计算公式(21)为:
由于不同语义信息表示的元路径对车辆实体节点的权重不同,学习每个元路径的权重系数,然后结合节点嵌入表示结果实现融合嵌入学习,具体过程如下:
首先经过多层感知机(Multilayer Perceptron,MLP)实现对元路径的非线性变换,通过引入待学习的向量qT实现相似度的计算,通过求均值得到每个元路径的重要性。其计算公式(22)为:
式中,W为待学习的权重矩阵,b为待学习的偏置向量,q为待学习的语义向量。最后通过归一化得到不同元路径的权重,其计算公式(23)为:
其中为待学习的权重系数。
最终车辆节点融合元路径语义信息的嵌入学习表示计算式(24)为:
最后对网络进行训练,损失函数计算公式(25)为:
通过最小化损失函数训练模型,式中,ζ表示损失函数值,yi,z表示样本特征对应的真实标签信息,表示预测结果,D为整体监督信息集合,引入L2正则化约束Ω,学习所有需要学习的参数θ,η为参数正则化权重,L2正则化可以保证优化问题的凸性和提升模型的鲁棒性,通过反向传播(Back Propagation,BP)算法和Adam优化器进行参数优化,并学习节点的嵌入,提高模型的泛化性能。
实现对节点嵌入表示,然后对场景中目标物轨迹进行预测,构建驾驶人认知模型。对et i集合学习到的低维向量进行LSTM编码,得到轨迹交互特征st i。输出车辆实体预测轨迹相关公式(26)为:
其中,st i=LSTM(st-1i,et i,Ws)为LSTM在t-1时刻的隐藏状态,隐藏层单元个数为16。Ws为LSTM编码权重。
为提高模型的鲁棒性以及缓解训练过程中的过拟合现象,引入噪声z,与编码器的输出信息si进行拼接,公式如(27)所示:
对下一时刻Tobs+1通过解码器对隐藏特征信息进行解码,并通过多层感知机线性层机构,转换到坐标空间生成场景中相应的预测轨迹信息。相应的计算公式(28)和(29)为:
其中,Wdec为LSTM解码权重。
训练过程中损失函数值Lvar计算公式(30)为:
其中,Yi是场景中动态目标物未来真实轨迹,是场景中动态目标物的未来预测轨迹,超参数k表示生成解码器的初始隐藏状态时噪声的随机取样次数。
由此,对模型进行训练,输出目标车辆或行人预测轨迹,得到孪生驾驶人场景认知模型。
步骤二、人机共驾决策系统拟人度评价,具体环节如下:
环节一、本车纵向驾驶拟人度特征提取,该环节对纵向驾驶拟人度特征进行提取。提取驾驶人纵向驾驶加速或制动行为偏好相关的平均加速度、最大加速度、加速度变化率以及加速/制动频率特征。
环节二、本车侧向驾驶拟人度特征提取,该环节对侧向驾驶拟人度特征进行提取。提取驾驶人与变道行为相关的变道频率、转向灯使用和变道速度特征,与车道保持相关的车道偏离程度和车道偏移次数特征,与横向加速度相关的最大横向加速度、横向加速度变化率和平均横向加速度特征。
环节三、驾驶信任度特征提取,该环节主要是对表征本车周围动态交通参与者对本车的信任度的特征进行提取,信任度具体体现为交通参与者是否敢靠近本车车辆。因此,驾驶信任度特征为周围交通参与者和本车的距离、跟车时距和碰撞时间。
环节四、计算人机共驾决策系统拟人度,该环节对不同驾驶风格的人机共驾决策系统进行拟人度评价。根据第三步步骤二中的环节一、环节二和环节三提取的特征,招募激进型、一般型和稳健型驾驶风格的驾驶员各100人对相应驾驶风格的人机共驾决策系统的拟人度进行主观评价,去除5个最大和5个最小的样本,取剩余90个样本的平均值作为拟人度评价的最终结果,由此构建出标记样本。选择70%的数据集作为训练集,30%的数据集作为测试集。采用BP算法对拟人度评价模型及进行训练。并在测试集上验证拟人度的评价结果,评估模型的拟合度。
步骤三、人机共驾决策系统拟人度测试方法,具体环节如下:
环节一、面向人机共驾决策系统拟人度测试的仿真架构,面向人机共驾决策系统拟人度测试的仿真架构如图9所示。通过第一步构建的多传感器虚拟模型,采集车辆的位置信息和姿态信息,感知数字孪生场景中的动静态场景元素信息,并定义好仿真接口,将融合感知的环境真值结果输入至待测人机共驾决策算法中,根据实际驾驶人驾驶风格选择第三步步骤一构建的相应驾驶风格的孪生驾驶人认知与决策模型,同样将采集的环境真值信息输入至孪生驾驶人认知与决策模型。待测的人机共驾决策算法实现驾驶权的分配并输出最终的控制指令,虚拟车辆模型接收人机共驾决策算法的控制指令并实现车辆状态的更新,构建的数字孪生场景也同步进行更新,实现数据回路的闭环。
环节二、面向拟人度计算的测试数据采集,该环节采集面向拟人度计算的测试数据,并对测试数据进行后处理。采集信息为第一步构建的多传感器虚拟模型输出的感知结果,以及第三步中步骤二中环节、环节二和环节三提取的关于拟人度计算的特征信息。通过确保数据采集系统正常运行,设置适当的采样频率和参数,以满足数据采集的需求。对采集到的数据进行后处理和分析,通过数据校准、信号滤波和对象追踪方式,输出面向拟人度计算的高质量数据信息。
环节三、基于场景复杂度和驾驶风格的人机共驾决策系统拟人度测试,该环节通过对基于场景复杂度和驾驶风格的人机共驾系统拟人度测试,输入信息一是第二步中步骤二构建的场景复杂度分级模型的分级结果,输出当前测试场景的复杂度;二是第三步步骤一中环节三构建的孪生驾驶人驾驶风格分类模型,输出当前孪生驾驶人的驾驶风格,不同驾驶风格的人机共驾决策系统拟人度测试结果如图10所示。以场景复杂度和驾驶风格为试验因素,以拟人度为试验指标,设计二因素三水平的正交试验,试验流程图如图11所示。分析不同场景复杂度和驾驶风格对拟人度的影响,通过极差分析获得拟人度高的最优参数组合。对拟人度测试不高的测试结果进行记录并分析原因,调整场景复杂度分级模型、驾驶风格分类模型和基于BP神经网络的拟人度评价模型的参数,反复试验最终获得期望拟人度的试验组合。基于场景复杂度和驾驶风格的人机共驾决策系统拟人度测试结果如图12所示。
第四步评估人机共驾决策系统性能的过程如下:
步骤一、面向人机共驾决策的危险场景构建,具体环节如下:
环节一、面向人机共驾决策的危险要素提取,该环节通过提取面向人机共驾决策的危险要素,包括动态场景元素的位置、速度、加速度和尺寸大小。静态场景元素危险要素,包括道路类型、附着系数,车道线虚实类型和模糊程度危险要素。环境要素包括风雪雨雾天气的类型。输出面向人机共驾决策场景危险要素。
环节二、基于最优化理论的危险场景构建,该环节基于最优化理论实现危险场景的构建。通过第四步步骤一环节一输出的危险要素,根据概率分布对危险要素取值范围进行确定,得到生成危险场景的约束条件,根据场景中动态目标物之间的碰撞条件作为危险边界构建目标函数,采用基于约束的最优化理论进行求解,获得具有代表性危险场景的要素离散值组合。基于OpenDrive和OpenScenario格式的场景描述文件构建人机共驾决策用危险场景。
步骤二、人机共驾决策系统评价指标构建,具体环节如下:
构建人机共驾决策系统综合评价得分分数函数,计算公式如(31)所示:
E=μsafetyEsafety+μcomfortEcomfort+μefficiencyEefficiency (31)
μsafety,μcomfort和μefficiency分别为目标车辆安全性、舒适性和效率性权重系数,Esafety,Ecomfort和Eefficiency分别为安全性、舒适性和效率性得分分数。
环节一、人机共驾决策系统安全性评价,该环节对人机共驾决策系统的安全性进行评价,主要通过表征车辆碰撞风险的碰撞时间为安全性评价指标。某时刻碰撞时间TTCi(t)计算公式如(32)所示:
式中D(t)表示两车之间的距离,Vi(t)表示后车速度,Vi-1(t)表示前车速度。
安全性评价得分分数计算公式如(33)所示:
环节二、人机共驾决策系统舒适性评价,该环节通过对人机共驾决策系统的舒适性进行评价,主要通过加权加速度均方根值和加速度变化率两个指标对车辆加减速引起的前仰后翻和转弯时的抛出感进行评价。
舒适性评价得分分数函数计算公式如(34)所示:
Ecomfort=λjerkJcom+λaccAcom (34)
λjerk和λacc别表示表示加速度变化率和加权加速度均方根得分分数Jcom和Acom的权重系数。
采用的加权加速度均方根值计算公式如(35)所示:
arms频率加权加速度均方根值,T为测量时间,aw为采用Wi频率加权后的加速度。根据加权加速度均方根值arms得到的分数计算公式如(36)所示:
根据加速度变化率值J得到的分数计算公式如(37)所示:
环节三、人机共驾决策系统效率性评价,该环节通过瞬时纵向车速指标进行效率性评价,瞬时纵向车速奖励函数计算公式如下:
vx表示决策的速度,vroad1和vroad2分别表示当前车道规定行使的最低和最高速度。vset1和vset2分别表示期望最低和最高速度。将计算结果进行归一化得到效率性评价分数Eefficiency。
步骤三、人机共驾决策系统性能分析,具体环节如下:
环节一、人机共驾决策系统评价结果分析,该环节通过整合人机共驾决策系统的评价结果。分析第四步中步骤二构建的各项评价指标。统计人机共驾决策系统在危险场景中满足第四步中步骤二环节一中安全性得分分数、第四步中步骤二环节二中舒适性得分分数和第四步中步骤二环节三中效率性得分分数要求决策的比例。评价结果合格率η计算公式(39)为:
式中testpass为测试满足安全性、舒适性和效率性得分分数要求的测试场景项数,testtotal为总场景项数。
环节二、人机共驾决策系统信息整合,该环节通过整合测试人机共驾决策系统的感知信息和决策信息,整合第一步中构建的多传感器虚拟模型输出的信息和对人机共驾决策系统的决策结果信息。确保不满足安全性、舒适性和效率性得分分数要求的决策结果不是由于系统的感知结果导致的,保证多传感器虚拟模型输出的感知信息的真实性。然后根据危险场景下人机共驾决策系统的测试合格率进行分类,对人机共驾决策系统测试过程中不满足第四步中步骤二构建的安全性、舒适性和效率性得分分数要求的全部信息进行整合并分析,确定提高系统鲁棒性的方法。
环节三、生成评估报告,该环节通过评估人机共驾决策系统的性能生成评估报告。总结人机共驾决策系统性能评估相关的测试环境、测试方法、测试结果、测试效率以及对性能的分析讨论。统一第四步步骤一中构建的危险场景内容及标准,分析人机共驾决策系统在不同场景复杂度下的适应性,得到影响人机共驾决策系统性能的关键场景因素。评估第四步步骤三中环节二整合的多传感器虚拟模型信息真实度和决策信息的准确度。撰写评估报告,并利用可视化和图表直观展示评估结果,清晰地描述系统的性能和改进方向。
Claims (2)
1.一种基于数字孪生模式的人机共驾决策系统测评方法,其特征在于:其方法包括的步骤如下:
第一步、构建多传感器虚拟模型,包括的步骤如下:
步骤一、构建相机虚拟模型,具体环节如下:
环节一、模拟光源环境,该环节通过使用计算机图形渲染软件及游戏引擎模拟场景中自然光、车灯和路灯常见光源类型,给测试场景提供光环境,通过光照强度模拟对场景目标物表面的照明程度,光照强度为场景中光源光线照射到场景表面的光通量密度,单位为流明/平方米,此外通过调整光源位置和颜色属性模拟逼真的光照效果;
环节二、定义目标物材质,该环节通过构建场景中基于物理的目标物材质,将材质属性定义虚拟目标物表面,包括表面纹理,粗糙度和凹凸度,场景中常见的车辆前挡风玻璃、车窗、后视镜和水透明或半透明材质,金属和橡胶非透明材质,根据场景中车辆、行人、路面、树木和建筑物目标物设置相应的材质属性和参数,获得真实的渲染效果;
环节三、模拟光的物理特性,该环节通过模拟环步骤一环节一创建的光源环境照射到步骤一环节二定义的不同材质的场景目标物上,模拟光线从自然光源、车灯和路灯光源发射位置照射到虚拟场景中目标物体的物理特性,包括光线的吸收、反射和折射,采用双向反射分布函数表示光源发射光和反射光的函数关系,根据不同场景测试需求以及相机参数定义光线强度,模拟光线反射和折射物理特性,最终光线经过反射和折射物理特性后射入成像板成像;
环节四、虚拟相机模型成像及输出,该环节通过车规级相机虚拟仿真方法模拟自动驾驶车辆感知结果,通过光学原理和物理模型计算光线传播能量衰减及颜色变化,最后经过坐标变换转化为像素点信息,生成虚拟相机场景图像,构建的虚拟相机模型能够模拟真实相机输出场景中逼真及真实图像数据流Ids;
步骤二、构建激光雷达虚拟模型,具体环节如下:
环节一、确定激光雷达仿真参数,该环节定义激光雷达仿真参数,包括激光雷达安装位置、扫描线束直径和数量、扫描速度、垂直分辨率和水平分辨率;
环节二、模拟激光在虚拟环境的物理特性,该环节模拟激光在虚拟环境中发生的物理特性,检测激光是否与场景中目标物发生交互,若发生交互则根据目标物的材质、透明度和表面纹理模拟发生的吸收、反射和折射物理特性,直至激光遍历场景中所有目标物;
环节三、激光雷达虚拟模型点云数据生成,该环节通过激光线束和场景中发生交互的所有目标物,记录交互点并转换为点云数据,将所有激光束的点云数据合并成一个完整的点云数据集,点云数据信息流Pcds包含时间戳的目标物的位置信息、反应目标物材质的发射率信息和反应目标物透明度的激光信号强度信息;
步骤三、构建组合惯导虚拟模型,具体环节如下:
环节一、真实惯导传感器数据采集,该环节通过使用车辆常用的微型电子机械系统传感器采集加速度计和陀螺仪数据,并对采集到的原始数据进行去除噪声和滤波预处理操作;
环节二、构建加速度计误差模型,该环节通过对第一步中步骤三环节一中真实惯导传感器采集的加速度数据作为误差模型的输入,构建叠加确定性误差和随机误差的加速度计误差模型,其中采用高斯白噪声表示加速度计的随机误差,确定性误差如公式(1)所示:
ΔAx、ΔAy、ΔAz分别为加速度计x、y、z轴的输出误差,坐标原点为加速度计质心位置,x轴为车辆纵向行驶的方向,y轴和z轴分别为侧向和垂向坐标轴,Ax、Ay、Az分别为x、y、z轴的加速度输入,分别为Ax、Ay、Az的模型系数,通过离心机试验和最小二乘法确定系数大小;
环节三、构建陀螺仪误差模型,该环节通过构建陀螺仪的误差模型,包括确定性误差和随机误差,其中陀螺仪的确定性误差如式(2)所示:
式中,表示输出角速度值;/>表示第一步中步骤三环节一中真实惯导传感器采集的角速度数据;/>表示陀螺仪在静止时输出的非零值;Fx、Fy、Fz表示校准陀螺仪的刻度因数;/>表示轴向角加速度系数,补偿轴向加速度对陀螺仪输出的影响;/> 表示轴间互藕项角加速度系数;Ixy、Ixz、Iyx、Iyz、Izx、Izy为安装误差值;
采用Allan方差分析陀螺仪的随机误差,包括量化噪声、角度随机游走、角速度随机游走、零偏不稳和漂移角速率斜坡,总方差计算公式(3)为:
其中,γ为量化噪声,a为角度随机游走,z为零偏不稳性,s为角速率随机游走,n为速率斜坡,δ为陀螺仪的采样周期;
环节四、组合惯导虚拟模型输出,该环节通过第一步中步骤三环节二和环节三构建加速度计和陀螺仪误差模型,结合场景中采集的环境真值构建出组合惯导虚拟模型,叠加噪声的三轴加速度计虚拟模型得到的加速度信息被用于估计姿态的俯仰角和侧倾角,陀螺仪测量得到的角速度信息被用于估计偏航角,通过对上述信息进行处理,考虑初始姿态和误差校正,输出信息集合Nds是与真实惯导系统测量物体的相近姿态估计值、位置估计值和速度估计值;
步骤四、构建多传感器融合虚拟模型,具体环节如下:
环节一、特征提取,该环节将第一步步骤一、步骤二和步骤三的输出结果作为步骤四的输入,分别提取图像数据流Ids,点云数据信息流Pcds和组合惯导虚拟模型输出信息Nds的特征,包括被检测目标数值ID和类型ID,在传感器坐标系下目标物距离,沿X、Y、Z轴的速度以及水平方位角、侧倾角和俯仰角,其中,传感器坐标系中安装的传感器质心位置为原点,沿车辆纵向、侧向和垂向为X、Y、Z轴;
环节二、数据对齐与融合,该环节实现对多传感器采集数据时间和空间上的对齐和融合,以扫描周期大的传感器为基准,采用插值法进行时间同步,相机和激光雷达通过点云配准的方法将二维图像信息和三维点云信息进行对齐和融合,同时,利用惯导的姿态和运动信息,提供对传感器数据的时空校正和预测,实现连续的定位和轨迹估计,将传感器获得的目标信息转换到统一的世界坐标系下,确保各传感器传感器空间上对齐,将多传感器测得的同一目标相互之间进行关联融合;
环节三、输出传感器融合感知结果,该环节输出传感器融合信息,包括目标物类型、目标物姿态和目标物尺寸以及目标物位置、速度和加速度信息;
第二步、构建多级复杂场景评估体系,包括的步骤如下:
步骤一、场景复杂度评价模型构建,具体环节如下:
环节一、场景复杂度影响因素分析,该环节首先定义场景元素,通过因果分析提取影响场景复杂度的场景元素,主要包括动态场景元素、静态场景元素和环境因素,其中动态场景元素包括各种类型的车辆、行人、红绿灯、动物以及空中坠落物;静态场景元素包括道路、车道线、路沿石、护栏、隔离带、建筑物、锥桶和标识牌;环境因素包括风雪雨雾天气,通过因果分析提取影响场景复杂度的场景元素的过程如下:
根据场景元素和场景元素之间的连接关系通过构建因果图G,X=[X1,X2,...,Xn]表示场景元素节点的集合,根据某个场景元素是否存在或者其特征属性发生变化,通过干预算子,即do算子计算车辆的驾驶行为是否发生改变,do(Xi=a)表示Xi的值为a时新的联合概率分布,计算式如(4)所示:
式中pai表示产生Xi的原因,P(Xi=a)为恒等函数,P(Xi|pai)表示对Xi进行干预时,去除pai对Xi的影响;
判定场景某个元素是影响因素的计算公式(5)为:
P(Xj|do(Xi=x,Xij=c)≠a=P(Xj|do(Xi=x′,Xij=c) (5)
式中,c为常数0或1,Xij表示二值变量,x′表示Xi属性变化后的值,在场景中除了Xi和Xj外其他变量不变的情况下,Xi的值引起了Xj的分布变化,那么Xi是Xj的直接原因,若分布发生改变,则认为场景元素Xi是影响场景复杂度的因素,因此,通过因果分析输出影响场景复杂度的场景元素;
环节二、主观评估方法,该环节通过层次分析法,由数位具有丰富驾驶经验的驾驶员对场景元素重要度进行评价打分,通过对第二步步骤一环节一中的静态场景中两两场景元素的重要度进行比较,得到相应的判断矩阵,通过判断矩阵,计算特征向量的最大特征值,从而构建出不同场景元素的复杂度权重,同理计算第二步步骤一环节一中的动态场景元素和环境因素的复杂度权重,通过主观评估方法最后输出场景的综合复杂度Cs;
环节三、客观评估方法,该环节通过对场景复杂度进行客观评估,通过引入引力模型,计算瞬时场景复杂度,其计算公式(6)为:
式中,Ci表示瞬时场景复杂度,μ表示修正因子,ε表示环境因素权重,veo表示车辆和场景元素的相对速度,f(e,o)表示场景元素对车辆的影响程度,l为场景元素和车辆的距离;
车辆在0-T时刻的场景复杂度Co计算公式(7)为:
式中,驾驶员复杂度主观感受Ce影响因素为道路拓扑结构、风雪雨雾和光照强度;
veo的计算公式(8)为:
veo=max(0,vecosα-vocosβ) (8)
式中,α为车辆速度和车辆和目标物位移的夹角,β为场景元素速度与场景元素和目标物位移的夹角,veo取计算结果的最大值,f(e,o)的计算公式(9)为:
式中,为场景元素对车辆影响前的车辆速度向量,/>为场景元素对车辆影响后的速度向量;
环节四、场景复杂度综合评价模型,该环节通过输入第二步中步骤一环节二基于主观评估得到的场景复杂度Cs和环节三基于客观评估得到的场景复杂度Co,根据场景复杂度综合评价模型,输出场景复杂度评估结果Cf,计算公式如(10)所示:
Cf=λCs+(1-λ)Co (10)
式中,λ表示权重系数;
步骤二、基于欧式聚类算法的场景复杂度分级,具体环节如下:
环节一、基于Metrolis Hasting抽样的样本生成,该环节通过对测试场景进行切片,获得包含纵向驾驶场景和侧向驾驶场景数据库,对场景数据库的场景样本特征参数值采用Metrolis Hasting抽样,生成随机化测试场景,对纵侧向驾驶场景进行特征筛选,纵向驾驶特征参数包括本车速度、前后车速度、前后车加速度以及与前车的车头时距,侧向驾驶特征参数包括切入和切出时刻两车的间距、切入和切出时刻的速度以及切入和切出时刻的车速比,通过核密度估计方法表示纵侧向测试场景特征参数的分布密度函数,核密度估计的计算公式(11)为:
式中,表示估计的分布密度函数,N表示待估计分布的测试样本数量,x表示随机变量,xi为样本,m为带宽,σ表示函数的宽度参数;
采用蒙特卡罗抽样估计随机变量的期望值,假设期望变量X服从概率分布n(x),从n(x)中抽样xi,计算每个样本的函数值f(xi),将所有些样本的函数值f(xi)的平均值作为期望值的估计,计算公式(12)为:
是利用样本抽样估计的函数n(x)的数学期望,n为样本的数量;
根据Metrolis Hasting抽样,获得纵侧向测试场景每个场景特征参数的样本值,样本值的组合表示随机化的测试场景;
根据上述两式估计关键事件发生的概率,估计结果的相对误差e的计算公式(13)为:
环节二、基于欧式聚类算法的测试场景分级,该环节对环节一生成的所有随机化测试场景采用欧式距离公式进行聚类分析,计算公式(14)为:
式中,P=(xp1,xp2,...,xpf),Q=(xq1,xq2,...,xqf),f为纵侧向驾驶场景特征参数维度;
采用极差标准化方法,计算公式如(15)所示:
xPQ为标准化后的变量,p=1,2,...,N,q=1,2,...,M,xpq为待聚类的变量,Nc待聚类的场景数目,M为待聚类的变量数目,侧向驾驶场景关键变量包括侧向碰撞时间TTC1和侧向加速度a1,纵向驾驶场景关键变量包括纵向碰撞时间TTC2和纵向加速度a2;
环节三、场景复杂度分级结果分析,该环节分析场景复杂度分级结果,根据场景复杂度分为危险场景、紧急场景和关键场景,危险场景主要分布在碰撞时间小且加速度大的地方,关键场景分布在碰撞时间较大的地方;
第三步、评估人机共驾决策系统拟人度,包括的步骤如下:
步骤一、孪生驾驶人认知与决策模型构建,具体环节如下:
环节一、基于动态异质图的孪生驾驶人场景认知模型构建,该环节以孪生驾驶人的视角将包含动静态场景元素的驾驶场景采用动态异质图模型构建出来;
环节二、孪生驾驶人决策模型构建,该环节通过考虑步骤一环节一中学习得到的目标车辆或行人的预测轨迹,构建孪生驾驶人决策模型,输入信号为本车信息和目标车辆或者行人的预测轨迹,根据预测轨迹的相关信息,选择影响本车驾驶行为或具有碰撞风险的目标车辆,对预测轨迹进行预处理,考虑车辆运动学和动力学约束,将预测点转换为贝塞尔曲线的控制点,通过线性插值确定控制点的数量和位置,通过最小二乘法对曲线进行拟合,最后将本车的轨迹进行平滑,输出孪生驾驶人最优决策轨迹;
环节三、孪生驾驶人驾驶风格分类模型构建,该环节通过对第三步步骤一环节二构建的孪生驾驶人决策模型输出的决策轨迹进行分类,构建孪生驾驶人驾驶风格分类模型,学习得到的具有时间序列信息的实体节点特征向量,输入至LSTM自编码器网络中,对模型进行训练,提取基于时间维度的风格特征编码,将提取的特征输入至K-means++模型进行分类,将驾驶风格分为激进型、一般型和稳健型三类,构建孪生驾驶人驾驶风格分类模型,输出信息为不同驾驶风格的孪生驾驶模型决策结果;
步骤二、人机共驾决策系统拟人度评价,具体环节如下:
环节一、本车纵向驾驶拟人度特征提取,该环节对纵向驾驶拟人度特征进行提取,提取驾驶人纵向驾驶加速或制动行为偏好相关的平均加速度、最大加速度、加速度变化率以及加速/制动频率特征;
环节二、本车侧向驾驶拟人度特征提取,该环节对侧向驾驶拟人度特征进行提取,提取驾驶人与变道行为相关的变道频率、转向灯使用和变道速度特征,与车道保持相关的车道偏离程度和车道偏移次数特征,与横向加速度相关的最大横向加速度、横向加速度变化率和平均横向加速度特征;
环节三、驾驶信任度特征提取,该环节主要是对表征本车周围动态交通参与者对本车的信任度的特征进行提取,信任度具体体现为交通参与者是否敢靠近本车车辆,因此,驾驶信任度特征为周围交通参与者和本车的距离、跟车时距和碰撞时间;
环节四、计算人机共驾决策系统拟人度,该环节对不同驾驶风格的人机共驾决策系统进行拟人度评价,根据第三步步骤二中的环节一、环节二和环节三提取的特征,招募激进型、一般型和稳健型驾驶风格的驾驶员各数人对相应驾驶风格的人机共驾决策系统的拟人度进行主观评价,去除5个最大和5个最小的样本,取剩余样本的平均值作为拟人度评价的最终结果,由此构建出标记样本,选择70%的数据集作为训练集,30%的数据集作为测试集,采用BP算法对拟人度评价模型及进行训练,并在测试集上验证拟人度的评价结果,评估模型的拟合度;
步骤三、人机共驾决策系统拟人度测试方法,具体环节如下:
环节一、面向人机共驾决策系统拟人度测试的仿真架构,通过第一步构建的多传感器虚拟模型,采集车辆的位置信息和姿态信息,感知数字孪生场景中的动静态场景元素信息,并定义好仿真接口,将融合感知的环境真值结果输入至待测人机共驾决策算法中,根据实际驾驶人驾驶风格选择第三步步骤一构建的相应驾驶风格的孪生驾驶人认知与决策模型,同样将采集的环境真值信息输入至孪生驾驶人认知与决策模型,待测的人机共驾决策算法实现驾驶权的分配并输出最终的控制指令,虚拟车辆模型接收人机共驾决策算法的控制指令并实现车辆状态的更新,构建的数字孪生场景也同步进行更新,实现数据回路的闭环;
环节二、面向拟人度计算的测试数据采集,该环节采集面向拟人度计算的测试数据,并对测试数据进行后处理,采集信息为第一步构建的多传感器虚拟模型输出的感知结果,以及第三步中步骤二中环节一、环节二和环节三提取的关于拟人度计算的特征信息,通过确保数据采集系统正常运行,设置适当的采样频率和参数,以满足数据采集的需求,对采集到的数据进行后处理和分析,通过数据校准、信号滤波和对象追踪方式,输出面向拟人度计算的高质量数据信息;
环节三、基于场景复杂度和驾驶风格的人机共驾决策系统拟人度测试,该环节通过对基于场景复杂度和驾驶风格的人机共驾系统拟人度测试,输入信息一是第二步中步骤二构建的场景复杂度分级模型的分级结果,输出当前测试场景的复杂度;二是第三步步骤一中环节三构建的孪生驾驶人驾驶风格分类模型,输出当前孪生驾驶人的驾驶风格,以场景复杂度和驾驶风格为试验因素,以拟人度为试验指标,设计二因素三水平的正交试验,分析不同场景复杂度和驾驶风格对拟人度的影响,通过极差分析获得拟人度高的最优参数组合,对拟人度测试不高的测试结果进行记录并分析原因,调整场景复杂度分级模型、驾驶风格分类模型和基于BP神经网络的拟人度评价模型的参数,反复试验最终获得期望拟人度的试验组合;
第四步、评估人机共驾决策系统性能,包括的步骤如下:
步骤一、面向人机共驾决策的危险场景构建,具体环节如下:
环节一、面向人机共驾决策的危险要素提取,该环节通过提取面向人机共驾决策的危险要素,包括动态场景元素的位置、速度、加速度和尺寸大小,静态场景元素危险要素,包括道路类型、附着系数,车道线虚实类型和模糊程度危险要素,环境要素包括风雪雨雾天气的类型,输出面向人机共驾决策场景危险要素;
环节二、基于最优化理论的危险场景构建,该环节基于最优化理论实现危险场景的构建,通过第四步步骤一环节一输出的危险要素,根据概率分布对危险要素取值范围进行确定,得到生成危险场景的约束条件,根据场景中动态目标物之间的碰撞条件作为危险边界构建目标函数,采用基于约束的最优化理论进行求解,获得具有代表性危险场景的要素离散值组合,基于OpenDrive和OpenScenario格式的场景描述文件构建人机共驾决策用危险场景;
步骤二、人机共驾决策系统评价指标构建;
构建人机共驾决策系统综合评价得分分数函数,计算公式如(31)所示:
E=μsafetyEsafety+μcomfortEcomfort+μefficiencyEefficiency (31)
μsafety,μcomfort和μefficiency分别为目标车辆安全性、舒适性和效率性权重系数,Esafety,Ecomfort和Eefficiency分别为安全性、舒适性和效率性得分分数;
具体环节如下:
环节一、人机共驾决策系统安全性评价,该环节对人机共驾决策系统的安全性进行评价,主要通过表征车辆碰撞风险的碰撞时间为安全性评价指标,某时刻碰撞时间TTCi(t)计算公式如(32)所示:
式中D(t)表示两车之间的距离,Vi(t)表示后车速度,Vi-1(t)表示前车速度;
安全性评价得分分数计算公式如(33)所示:
环节二、人机共驾决策系统舒适性评价,该环节通过对人机共驾决策系统的舒适性进行评价,主要通过加权加速度均方根值和加速度变化率两个指标对车辆加减速引起的前仰后翻和转弯时的抛出感进行评价;
舒适性评价得分分数函数计算公式如(34)所示:
Ecomfort=λjerkJcom+λaccAcom (34)
λjerk和λacc别表示表示加速度变化率和加权加速度均方根得分分数Jcom和Acom的权重系数;
采用的加权加速度均方根值计算公式如(35)所示:
arms频率加权加速度均方根值,T为测量时间,aw为采用Wi频率加权后的加速度,根据加权加速度均方根值arms得到的分数计算公式如(36)所示:
根据加速度变化率值J得到的分数计算公式如(37)所示:
环节三、人机共驾决策系统效率性评价,该环节通过瞬时纵向车速指标进行效率性评价,瞬时纵向车速奖励函数计算公式如下:
vx表示决策的速度,vroad1和vroad2分别表示当前车道规定行使的最低和最高速度,vset1和vset2分别表示期望最低和最高速度,将计算结果进行归一化得到效率性评价分数Eefficiency;
步骤三、人机共驾决策系统性能分析,具体环节如下:
环节一、人机共驾决策系统评价结果分析,该环节通过整合人机共驾决策系统的评价结果,分析第四步中步骤二构建的各项评价指标,统计人机共驾决策系统在危险场景中满足第四步中步骤二环节一中安全性得分分数、第四步中步骤二环节二中舒适性得分分数和第四步中步骤二环节三中效率性得分分数要求决策的比例,评价结果合格率η计算公式(39)为:
式中testpass为测试满足安全性、舒适性和效率性得分分数要求的测试场景项数,testtotal为总场景项数;
环节二、人机共驾决策系统信息整合,该环节通过整合测试人机共驾决策系统的感知信息和决策信息,整合第一步中构建的多传感器虚拟模型输出的信息和对人机共驾决策系统的决策结果信息,确保不满足安全性、舒适性和效率性得分分数要求的决策结果不是由于系统的感知结果导致的,保证多传感器虚拟模型输出的感知信息的真实性,然后根据危险场景下人机共驾决策系统的测试合格率进行分类,对人机共驾决策系统测试过程中不满足第四步中步骤二构建的安全性、舒适性和效率性得分分数要求的全部信息进行整合并分析,确定提高系统鲁棒性的方法;
环节三、生成评估报告,该环节通过评估人机共驾决策系统的性能生成评估报告,总结人机共驾决策系统性能评估相关的测试环境、测试方法、测试结果、测试效率以及对性能的分析讨论,统一第四步步骤一中构建的危险场景内容及标准,分析人机共驾决策系统在不同场景复杂度下的适应性,得到影响人机共驾决策系统性能的关键场景因素,评估第四步步骤三中环节二整合的多传感器虚拟模型信息真实度和决策信息的准确度,撰写评估报告,并利用可视化和图表直观展示评估结果,清晰地描述系统的性能和改进方向。
2.根据权利要求1所述的一种基于数字孪生模式的人机共驾决策系统测评方法,其特征在于:所述的第三步步骤一中环节一的具体实施步骤如下:
1)、将场景元素实体通过图上的节点表示,场景元素实体之间的相互关系用图的有权边表示,动态异质图模型Gt=(E,ε,N,R,T)表示为[0,T]中所有场景元素实体有序事件序列,其中E={e1,e2,…,em}表示不同类别场景元素实体节点集合,是由场景路段、场景车道和动态交通参与者组成的集合,m表示节点的个数,ε={ε1,ε2,…,εn}表示为不同类别场景元素连接边的集合,n表示连接边的个数,N表示节点类型集合,R表示边的类型集合,T表示时间戳,采用异质图注意力网络对场景元素实体节点进行嵌入表示,构建低维连续稠密的向量;
2)、定义不同元路径捕捉场景实体节点的语义关系,包括车辆-邻接-车辆,车辆-位于-车道,车辆-关联-车道线,标识牌-位于-车道,标识牌-关联-车辆语义关系,然后将图模型中所有节点ei进行特征变换,变换后的特征为ei′,为待训练学习的矩阵空间,计算式如式(16)所示:
3)、接下来计算相同元路径下某个实体节点相邻节点的注意力系数,计算相邻车辆节点ej对车辆节点ei的注意力系数,用于捕捉节点ej对车辆ei驾驶行为的影响程度,节点ei与节点ej的注意力系数计算式如(17)所示:
用可训练的参数对ei进行线性变换,||表示将节点ei和节点ej变换后的结果进行拼接,a表示将拼接后的高维特征映射到一个实数上,表示元路径φ1下第i个节点和第j个节点的注意力系数;
同理元路径φ2下车辆节点ei和车道节点的注意力系数计算式(18)为:
元路径φ3下节点ei和车道线节点的注意力系数计算式(19)为:
由此计算得到不同元路径下车辆节点ei和相邻节点ej的注意力系数;
4)、对车辆节点ei和相邻节点进行分配权重,将其和所有相邻节点计算的重要度采用softmax函数进行归一化处理,由此计算得到车辆节点ei相邻节点的重要度,由此便得到和车辆具有特定语义关系的实体对车辆行为的影响程度,重要度计算式(20)为:
5)、根据计算得到的车辆节点与其相邻节点重要度以及相邻节点的特征对车辆节点进行嵌入表示,其计算公式(21)为:
由于不同语义信息表示的元路径对车辆实体节点的权重不同,学习每个元路径的权重系数,然后结合节点嵌入表示结果实现融合嵌入学习,具体过程如下:
首先经过多层感知机实现对元路径的非线性变换,通过引入待学习的向量qT实现相似度的计算,通过求均值得到每个元路径的重要性,其计算公式(22)为:
式中,W为待学习的权重矩阵,b为待学习的偏置向量,q为待学习的语义向量,最后通过归一化得到不同元路径的权重,其计算公式(23)为:
其中为待学习的权重系数;
最终车辆节点融合元路径语义信息的嵌入学习表示计算式(24)为:
最后对网络进行训练,损失函数计算公式(25)为:
通过最小化损失函数训练模型,式中,ζ表示损失函数值,yi,z表示样本特征对应的真实标签信息,表示预测结果,D为整体监督信息集合,引入L2正则化约束Ω,学习所有需要学习的参数θ,η为参数正则化权重,L2正则化可以保证优化问题的凸性和提升模型的鲁棒性,通过反向传播算法和Adam优化器进行参数优化,并学习节点的嵌入,提高模型的泛化性能;
6)、实现对节点嵌入表示,然后对场景中目标物轨迹进行预测,构建驾驶人认知模型,对集合学习到的低维向量进行LSTM编码,得到轨迹交互特征/>输出车辆实体预测轨迹相关公式(26)为:
其中,为LSTM在t-1时刻的隐藏状态,隐藏层单元个数为16,Ws为LSTM编码权重;
为提高模型的鲁棒性以及缓解训练过程中的过拟合现象,引入噪声z,与编码器的输出信息si进行拼接,公式如(27)所示:
对下一时刻Tobs+1通过解码器对隐藏特征信息进行解码,并通过多层感知机线性层机构,转换到坐标空间生成场景中相应的预测轨迹信息,相应的计算公式(28)和(29)为:
其中,Wdec为LSTM解码权重;
训练过程中损失函数值Lvar计算公式(30)为:
其中,Yi是场景中动态目标物未来真实轨迹,是场景中动态目标物的未来预测轨迹,超参数k表示生成解码器的初始隐藏状态时噪声的随机取样次数;
7)、对模型进行训练,输出目标车辆或行人预测轨迹,得到孪生驾驶人场景认知模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311019998.5A CN117290997A (zh) | 2023-08-14 | 2023-08-14 | 一种基于数字孪生模式的人机共驾决策系统测评方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311019998.5A CN117290997A (zh) | 2023-08-14 | 2023-08-14 | 一种基于数字孪生模式的人机共驾决策系统测评方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117290997A true CN117290997A (zh) | 2023-12-26 |
Family
ID=89243348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311019998.5A Pending CN117290997A (zh) | 2023-08-14 | 2023-08-14 | 一种基于数字孪生模式的人机共驾决策系统测评方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117290997A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117636270A (zh) * | 2024-01-23 | 2024-03-01 | 南京理工大学 | 基于单目摄像头的车辆抢道事件识别方法及设备 |
CN117828899A (zh) * | 2024-03-04 | 2024-04-05 | 沈阳展播智慧科技有限公司 | 结合三维车身建模的道路环境感知方法及装置 |
-
2023
- 2023-08-14 CN CN202311019998.5A patent/CN117290997A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117636270A (zh) * | 2024-01-23 | 2024-03-01 | 南京理工大学 | 基于单目摄像头的车辆抢道事件识别方法及设备 |
CN117636270B (zh) * | 2024-01-23 | 2024-04-09 | 南京理工大学 | 基于单目摄像头的车辆抢道事件识别方法及设备 |
CN117828899A (zh) * | 2024-03-04 | 2024-04-05 | 沈阳展播智慧科技有限公司 | 结合三维车身建模的道路环境感知方法及装置 |
CN117828899B (zh) * | 2024-03-04 | 2024-05-07 | 沈阳展播智慧科技有限公司 | 结合三维车身建模的道路环境感知方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117290997A (zh) | 一种基于数字孪生模式的人机共驾决策系统测评方法 | |
St-Aubin et al. | Large-scale automated proactive road safety analysis using video data | |
CN109774724A (zh) | 用于自主驾驶系统的开发&评估的场景生成和参数扫描的方法和设备 | |
US11651302B2 (en) | Method and device for generating synthetic training data for an artificial-intelligence machine for assisting with landing an aircraft | |
WO2023207437A1 (zh) | 一种基于动态轨迹流的场景流数字孪生方法及系统 | |
CN107730903A (zh) | 基于深度卷积神经网络的违章停车和抛锚车视觉检测系统 | |
CN103198302A (zh) | 一种基于双模态数据融合的道路检测方法 | |
CN108830246B (zh) | 一种交通环境行人多维运动特征视觉提取方法 | |
Hu et al. | Efficient mapping of crash risk at intersections with connected vehicle data and deep learning models | |
CN116685874A (zh) | 摄像机-激光雷达融合对象检测系统和方法 | |
CN113592905B (zh) | 基于单目摄像头的车辆行驶轨迹预测方法 | |
CN111402632B (zh) | 一种交叉口行人运动轨迹的风险预测方法 | |
CN117056153A (zh) | 校准和验证驾驶员辅助系统和/或自动驾驶系统的方法、系统和计算机程序产品 | |
CN114120077B (zh) | 一种基于无人机航拍大数据下的防控风险预警方法 | |
CN115544888A (zh) | 一种基于物理机理与机器学习混杂理论的动态场景边界评估方法 | |
CN114495421B (zh) | 智能化开放式道路施工作业监测预警方法及系统 | |
CN114495486B (zh) | 一种基于层次强化学习的微观交通流预测系统及方法 | |
CN114987495A (zh) | 一种面向高度自动驾驶的人机混合决策方法 | |
Li et al. | Robustness of visual perception system in progressive challenging weather scenarios | |
Lu et al. | DeepQTest: Testing Autonomous Driving Systems with Reinforcement Learning and Real-world Weather Data | |
Zhang et al. | Finding critical scenarios for automated driving systems: The data extraction form | |
WO2023123130A1 (zh) | 用于自动驾驶系统的方法、装置、电子设备和介质 | |
CN114863685B (zh) | 一种基于风险接受程度的交通参与者轨迹预测方法及系统 | |
Yang et al. | Real-virtual consistent traffic flow interaction | |
CN113552883B (zh) | 基于深度强化学习的地面无人车自主驾驶方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |