CN116258058A - 用于自动驾驶加速测试的关键边缘测试场景在线生成方法 - Google Patents
用于自动驾驶加速测试的关键边缘测试场景在线生成方法 Download PDFInfo
- Publication number
- CN116258058A CN116258058A CN202211711315.8A CN202211711315A CN116258058A CN 116258058 A CN116258058 A CN 116258058A CN 202211711315 A CN202211711315 A CN 202211711315A CN 116258058 A CN116258058 A CN 116258058A
- Authority
- CN
- China
- Prior art keywords
- scene
- complexity
- test
- traffic
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M17/00—Testing of vehicles
- G01M17/007—Wheeled or endless-tracked vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,包括:泛化生成自然驾驶测试场景;构建场景复杂度模型,包括静态场景复杂度和动态场景复杂度;基于生成的自然驾驶测试场景以及构建的场景复杂度模型,对自动驾驶车辆进行评估测试;根据测试结果,进行场景自适应调整,包括静态场景自适应调整以及动态场景自适应调整,输出得到关键边界测试场景。与现有技术相比,本发明能够在线生成满足自然交通流行为分布、多样性且具有多重交互的关键边界测试场景,以对自动驾驶车辆的性能边界进行测试。
Description
技术领域
本发明涉及自动驾驶技术领域,尤其是涉及一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法。
背景技术
随着自动驾驶技术的发展,近年来自动驾驶测试方法也得到了越来越多的重视,大量的研究人员付出了很多努力来加速自动驾驶的测试,从而促进自动驾驶车辆的实际应用部署。基于场景的测试方法得到了研究人员的广泛关注,智能驾驶测试的关键步骤是找到符合自然分布且关键的测试场景。只有全面覆盖各种场景,才能有效解决自动驾驶面临的安全性以及智能性等问题。然而,从计算上来说,搜索所有可能遇到的交通场景以找到关键的测试场景是不可行的,因为自然交通环境包含成千上万的参数组合。如何提高关键测试场景的生成效率和多样性已成为一个重要问题。现实世界中的驾驶场景非常复杂和多样,它包含各种结构类型的静态道路环境以及各种类型的动态交通参与者。由于现实世界中有无限多的可能场景,场景生成技术必须提供广泛的变化,以解决无限多的场景。测试场景的关键是有效再现真实世界场景的复杂性和可变性,以确保智能驾驶测试的效率和有效性。
现有的自动驾驶汽车的测试场景主要包括典型场景和关键场景两类,如表1所示。前者包含大量的低风险场景,主要测试汽车各项常规功能的实现情况。后者主要扩大了测试场景集中的高风险场景比例,实现对典型场景的补充,进一步提高了测试场景的覆盖率,通常用于自动驾驶汽车的安全性测试,寻找使得自动驾驶汽车介于发生事故和不发生事故之间的边界场景,进而指导优化自动驾驶汽车的鲁棒性和安全性。
表1典型场景和关键场景对比
在以往的自动驾驶测试场景的生成方法中,重点关注于高风险的碰撞场景的生成,比如采用对抗等方法使得测试自动驾驶车辆发生碰撞,但这些生成的测试场景只能对自动驾驶车辆的安全性进行测试,而无法对自动驾驶车辆的综合性能进行全面测试。此外,现有的方法主要关注均匀采样场景和动态交通场景的生成,很少综合考虑静态关键测试场景和动态关键测试场景的生成,这必然会影响自动驾驶车辆的测试效率以及测试场景的多样性。并且现有的关键场景生成方法很少考虑场景的复杂度,很难生成具有不同复杂度级别的测试场景。上述缺陷会在一定程度上影响到自动驾驶车辆的加速测试效率,无法测试到自动驾驶车辆的性能边界(指没有发生碰撞的自动驾驶车辆的性能极限)。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,能够在线生成满足自然交通流行为分布、多样性且具有多重交互的关键边界测试场景,以对自动驾驶车辆的性能边界进行测试。
本发明的目的可以通过以下技术方案来实现:一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,包括以下步骤:
S1、泛化生成自然驾驶测试场景;
S2、构建场景复杂度模型,包括静态场景复杂度和动态场景复杂度;
S3、基于生成的自然驾驶测试场景以及构建的场景复杂度模型,对自动驾驶车辆进行评估测试;
S4、根据步骤S3得到的测试结果,进行场景自适应调整,包括静态场景自适应调整以及动态场景自适应调整,输出得到关键边界测试场景。
进一步地,所述步骤S1的具体过程为:
S11、对真实世界的驾驶环境进行环境识别,将静态交通环境和天气环境转换为静态交通场景;
S12、对真实世界的驾驶环境进行行为识别,获得动态交通参与者的自然驾驶行为分布模型;
S13、在仿真平台上将自然交通场景进行泛化、并转换为自然驾驶测试场景。
进一步地,所述步骤S13具体是利用自然驾驶环境中的自然驾驶数据进行参数泛化,生成OpenDrive以及OpenScenario格式的仿真测试场景。
进一步地,所述步骤S2中场景复杂度模型具体为:
C=αSCS+αDCD
其中,αS和αD分别是静态场景复杂度CS和动态场景复杂度CD的权重系数。
进一步地,所述步骤S2中静态场景复杂度的量化维度包括可行驶区域的面积、天气能见度和道路摩擦系数;
动态场景复杂度的量化关键变量包括被测自动驾驶车辆与周围其他交通参与者之间的遭遇角、相对距离和相对速度。
进一步地,所述静态场景复杂度具体为:
其中,Amax为可行驶区域的最大面积,Amin为可行驶区域的最小面积,Wmax为照明和清晰度最好时的能见度距离,Wmin为照明和透明度最差时的能见度距离,Fmax为最干燥情况下的道路摩擦系数,Fmin为最潮湿的道路情况下的道路摩擦系数,γd、γv、γf分别对应为可行驶区域面积Ad、天气能见度Wv和道路摩擦系数Fr的权重系数。
进一步地,所述动态场景复杂度的计算过程具体为:
首先设置自动驾驶车辆周围潜在复杂度交通参与者的有效范围;
然后计算动态交互对的复杂度,所述交互对由被测的自动驾驶车辆和周围的交通参与者组成;
最后,综合考虑所有交互对的复杂度,以计算动态交通场景的复杂度;
所述自动驾驶车辆周围潜在复杂度交通参与者的有效范围是以车辆后轴中心点为中心的半圆来描述,该半圆的半径为:
rrange=max{rsafe,rl}
其中,rrange为自动驾驶车辆的影响区域半径,rsafe为被测自动驾驶车辆的安全区半径,rl为路口区域范围的长度,v0为自动驾驶车辆的初始速度,τ为自动驾驶车辆的响应滞后时间,和/>分别为自动驾驶车辆的最大加速度和最小减速度;
所述动态交互对的复杂度为:
Ci,0=Γ(θi,0,di,0,vi,0)=f1(θi,0)×f2(di,0)×f3(vi,0)
其中,Ci,0为动态交通参与者之间复杂度,θi,0为动态交通参与者之间的相遇角,di,0为动态交通参与者之间的相对距离,vi,0为动态交通参与者之间的相对速度,f1(θi,0)为相遇角θi,0与动态交互复杂度Ci,0之间的关系,f2(di,0)为相对距离di,0与动态交互复杂度Ci,0之间的关系,f3(vi,0)为相对速度vi,0与动态交互复杂度Ci,0之间的关系,D′i,0为标准化后的相对距离,di,0为不同交通参与者之间的相对距离,dmin为最不复杂情况下的相对距离,等于自动驾驶车辆的影响区域半径rrange,dmax为最复杂情况下的相对距离、等于零,表示两辆车无限接近,v′i,0为标准化后的相对速度,vi,01为不同交通参与者之间的相对速度,vmin为最不复杂情况下的相对速度,等于3.5m/s的发散相对速度,vmax为最复杂情况下的相对速度,等于3.5m/s的收敛相对速度;
所述动态交通场景的复杂度为:
其中,CD为动态场景复杂度,Ct为在时间步长t处平滑之前的集成的动态场景复杂度,N为影响区域范围内的车辆对的数量,λi为交通参与者i的影响,Ci,0为交互对集合EN+1的复杂度,k表示滑动窗口的长度。
进一步地,所述步骤S4具体包括以下步骤:
S41、根据步骤S3得到的测试结果,确定当前测试场景属于安全关键测试场景、关键边缘测试场景还是需要进一步自适应优化的测试场景;
如果属于安全关键测试场景,则将生成的场景放入安全关键测试场景库中;
如果属于关键边缘测试场景,则将生成的场景放入关键边缘测试场景库中;
如果不满足所需场景的要求,则执行步骤S42;
S42、通过关键边缘测试场景自适应生成算法进一步在线自适应调整和优化当前的测试场景,其中,关键边缘测试场景自适应生成算法从静态场景和动态场景两个角度同时进行场景的自适应优化:
静态场景的自适应优化从可行驶区域、天气能见度和道路摩擦系数三个方面进行;
动态交通场景的自适应优化是通过选择主要其他对抗交通参与者,对其进行自然和对抗的行为优化来实现的;
在进行静态场景和动态交通场景自适应优化的过程中还利用场景复杂度模型对优化后的场景复杂度进行量化,基于场景复杂度提升系数来自适应提升测试场景的复杂度和危险度,最终生成具有不同复杂度级别的、用于不同维度性能测试的、覆盖各种场景的关键测试场景库。
进一步地,所述步骤S42中进行静态场景自适应优化的具体过程为:
首先,根据真实交通环境的地理坐标Gc和距离阈值dth,从OpenStreetMap(OSM)中提取路网数据;
数据提取后,生成静态交通场景,并进行后处理,然后,通过参数向量Rit对静态交通场景进行参数化,其中参数向量定义为Rit=[Ps,Vs,Wv,Fr]T,Ps和Vs分别表示静态障碍物的位置和大小,利用初始状态向量R0初始化静态交通场景,再基于生成的场景来测试自动驾驶车辆,并获得轨迹数据Ts和相应的测试结果;
最后,利用可达状态集来计算可行驶区域的面积:
x(Rit,u(t),t)表示测试的自动驾驶车辆在时间t的运动状态,u(t)表示车辆在时间t的动作,proj(x)将车辆的状态x投影到二维位置域,Alane\O(Rit)表示不包含静态障碍物O(Rit)的二维空间;
为了提高静态场景的临界性,优化参数向量Rit以获得临界静态交通场景Sstatic(it+1)用于第it+1次智能驾驶测试:
s.t.Ad>0
使用第it次智能驾驶测试中计算的静态场景参数Rit和标量β∈[0,1]来量化提升静态场景复杂度:CS,crit(it+1)=(1+β)·Cs(it)。
进一步地,所述步骤S42中进行动态场景自适应优化的具体过程为:
首先收集自然驾驶数据Dn;
然后,识别和分析自然驾驶数据中不同交通参与者的行为,并获得交通参与者的运动状态s和动作u,为了生成满足要求的动态交通场景,计算相应状态下不同交通参与者的状态频率P(s)和动作频率P(u|s),对动态场景参数(s(t),u(t),P(s),P(u|s))进行初始化,并与静态交通场景Sstatic组合以生成初始场景;
之后,根据生成的逐个测试场景对自动驾驶车辆进行测试,为了高效、合理地生成关键边界测试场景,需要通过从背景交通参与者中识别对被测自动驾驶车辆有较大影响的主要其他交通参与者,主要其他交通参与者的行为使用动态场景生成和自适应优化算法来动态调整,并且使用基于自然驾驶环境数据的模型来控制其他背景交通参与者的行为,使得生成的关键边界测试场景尽可能符合自然驾驶数据分布;
为了找到对测试的自动驾驶车辆对抗程度最大的主要其他交通参与者,利用自动驾驶车辆影响区域的概念来遍历和选择影响区域范围内的交通参与者,先分析测试环境中的自然交通流数据,并计算不同交通参与者的状态频率P(s)和不同状态下的动作频率P(u|s),在时间步t=0,…,T,状态和动作分别表示为:
s(t)=[s0(t),s1(t),…,sM+N+L(t)]
u(t)=[u0(t),u1(t),…,uM+N+L(t)]
其中,s0(t)和u0(t)分别表示在时间t时被测试的自动驾驶车辆的状态和动作,si(t)(i=1,2,…,M+N+L)表示第i个背景交通参与者在时间t的状态,M,N和L分别表示影响区域范围内的背景车辆、背景行人和背景自行车的数量,ui(t)表示第i个背景交通参与者在时间t的动作。
再使用动态场景交互对复杂度Ci,0来衡量周围交通参与者对被测的自动驾驶车辆的威胁级别,状态动作对(si,ui)下的交互对复杂度Ci,0(si,ui)为:
其中P(u0|s0)表示车辆在状态s0下的动作u0的概率;
基于获得的背景交通参与者的动作频率P(ui|si)和交互对复杂度Ci,0(si,ui),综合计算相应的背景交通参与者的临界值q(ui|si):
q(ui|si)=P(ui|si)×Ci,0(si,ui)
然后,将每个背景交通参与者的临界值计算为对应背景交通参与者所有动作的动作临界值之和:
根据每个背景交通参与者的计算临界值,选择临界值最大的背景车辆、行人和自行车作为主要其他交通参与者,则主要其他车辆、行人和自行车识别如下:
其中,qv、qp和qb分别表示主要的其他车辆、行人和自行车的编号,M、N和L分别表示影响区域内的背景车辆、行人和自行车的集合,Qv、QP和Qb分别表示用于识别主要其他车辆、行人和自行车的预定临界阈值,所述主要其他交通参与者具体为对抗车辆、对抗行人、对抗自行车或它们的任何组合,以最大限度地提高生成关键边界测试场景的效率;
在找到主要其他交通参与者之后,通过优化关键边界测试场景的行为,以逐渐增加动态场景的复杂性,主要其他交通参与者的行为对动态场景的复杂度有着至关重要的影响,场景复杂度的变化能够加快自动驾驶车辆性能边界的评估并找到关键边界测试场景,在场景参数的自适应调整过程中,进行场景复杂度的优化,如果自动驾驶车辆通过当前测试,则对动态交通场景复杂度阈值进一步提升,其计算如下:
Ccrit=(1+β)CD(it)
其中,β∈(0,1]是场景复杂度提升系数;
在确定场景的复杂度阈值之后,对主要其他交通参与者的动作参数uq进行优化,以生成满足复杂度要求且与自然驾驶数据分布的偏差最小的关键边界测试场景,将从自然驾驶交通流中获得的主要其他交通参与者的行为轨迹表示为Tnat(t,uq,nat),并将主要其他交通参与者的优化的行为轨迹表示成Tcrit(t,uq),对应的目标函数和约束如下所示:
s.t.D(it+1)≥Ccrit,
其中t0表示主要其他交通参与者的行为优化的开始时间,tf表示主要其他交通参与者对被测自动驾驶车辆的行为产生影响的持续时间,TTC(t)表示主要其他交通参与者与最近的障碍物或交通参与者之间在时间t的最小碰撞时间,TTCmin表示最小安全碰撞时间,通过上述约束确保没有周围其他交通参与者主动与被测的自动驾驶车辆发生碰撞。
与现有技术相比,本发明提出一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,通过构建自动驾驶测试场景复杂度模型来量化不同测试场景的复杂度,并综合考虑自动驾驶车辆、有人驾驶车辆、自行车和行人的复杂交互行为,综合考虑其对测试的自动驾驶车辆的影响,以对测试场景进行系统化的描述、生成、选取、优化和使用,由此将虚拟场景与真实交通流数据相结合,有效提高关键边界测试场景的灵活复杂性和多样性。
本发明建立了驾驶场景复杂度模型,该场景复杂度模型主要包括两部分:静态场景复杂度模型和动态场景复杂度模型。在静态场景复杂度模型中,场景复杂度分别从三个维度进行量化,即可行驶区域的面积、天气能见度和道路摩擦系数。在动态场景复杂度模型中,复杂度基于三个关键变量进行量化,包括被测自动驾驶车辆与周围其他交通参与者之间的遭遇角、相对距离和相对速度。然后基于势场理论等方法对整个测试场景进行场景复杂度刻画和危险度评价。由此能够更好地量化测试场景的复杂度和危险度,并找到关键测试场景来加速测试。
本发明综合考虑了由自动驾驶车辆、有人驾驶车辆、自行车和行人组成的混合交通流的复杂交互作用,首先设置了自动驾驶车辆周围潜在复杂度交通参与者的有效范围,然后计算动态交互对的复杂度,交互对由被测的自动驾驶车辆和周围的交通参与者组成,最后,综合考虑所有交互对的复杂度,以计算动态交通场景的复杂度。由此能够更全面地评估自动驾驶车辆周围动态交通参与者的复杂度。
本发明基于生成的自然驾驶仿真测试场景和场景复杂度模型,对自动驾驶系统进行全面的智能驾驶测试,并对测试结果进行分析,以确定是否需过关键边缘测试场景自适应生成算法进行测试场景优化,其中,关键边缘测试场景自适应生成算法从静态场景和动态场景两个角度同时进行场景的自适应优化。静态场景的自适应优化从可行驶区域、天气能见度和道路摩擦系数三个方面进行。动态交通场景的自适应优化是通过选择主要其他对抗交通参与者,对其进行自然和对抗的行为优化来实现的。在进行静态场景和动态交通场景自适应优化的过程中还利用场景复杂度模型对优化后的场景复杂度进行量化,基于场景复杂度提升系数来自适应提升测试场景的复杂度和危险度,最终能够生成具有不同复杂度级别的、用于不同维度性能测试的、覆盖各种场景的关键测试场景库。
附图说明
图1为本发明的方法流程示意图;
图2为实施例中自动驾驶关键场景仿真自适应生成架构;
图3为静态场景复杂度模型的可行驶区域和天气能见度示意图;
图4为虚拟编队方法和不同交通参与者之间的相对距离计算的示意图;
图5为关键边缘场景自适应生成和优化的流程图;
图6a~6f为实施例中关键边缘场景仿真测试对比示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图1所示,一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,包括以下步骤:
S1、泛化生成自然驾驶测试场景;
S2、构建场景复杂度模型,包括静态场景复杂度和动态场景复杂度;
S3、基于生成的自然驾驶测试场景以及构建的场景复杂度模型,对自动驾驶车辆进行评估测试;
S4、根据步骤S3得到的测试结果,进行场景自适应调整,包括静态场景自适应调整以及动态场景自适应调整,输出得到关键边界测试场景。
本实施例应用上述技术方案,主要包括:
考虑到自动驾驶关键场景仿真生成与加速测试技术的核心是生成满足自然交通流分布且具有对抗性、较高的复杂度的测试场景,而且测试场景需要尽可能覆盖自动驾驶车辆在真实世界驾驶中可能遇到的各种Corner Case。这些关键测试场景是对自动驾驶测试真正有意义的场景,也是提升自动驾驶系统性能的关键。
为了有效地生成满足自然交通场景分布的关键测试场景,本实施例搭建一种在线关键测试场景自适应生成系统,以从多个维度加速自动驾驶车辆的测试过程。图2所示为本实施例中在线关键测试场景自适应生成系统的架构。整个在线关键测试场景自适应生成系统由自然驾驶场景泛化生成模块、场景复杂度评价模型、智能驾驶算法自动化测试平台和关键测试场景自适应生成算法四部分组成。为了实现满足自然交通流分布的仿真测试场景生成和自动化测试,利用自然驾驶环境中的自然驾驶数据进行参数泛化生成OpenDrive以及OpenScenario格式的仿真测试场景。此外,使用VTD等虚拟仿真测试软件进行真实世界的渲染,以使生成的关键测试场景更接近真实的交通场景。在关键测试场景的生成过程中不仅考虑测试车辆周围的自动驾驶车辆和有人驾驶车辆对被测自动驾驶车辆的影响,还综合考虑周围的行人和自行车的混合交通流的运动和行为对被测自动驾驶车辆的影响。
一、自然驾驶场景泛化生成
在自然驾驶场景泛化生成模块中,基于真实世界的驾驶环境进行环境识别,将静态交通环境和天气环境转换为OpenX格式的静态交通场景。基于真实交通数据进行动态交通参与者的行为识别和分析,以获得车辆、自行车和行人的自然驾驶行为分布模型。然后,在仿真平台上将自然交通场景进行泛化并转换为自然驾驶仿真测试场景。
二、场景复杂度模型
为了更好地量化测试场景的复杂度和危险度,并找到关键测试场景来加速测试,建立一个驾驶场景复杂度模型。场景复杂度模型主要包括两部分:静态场景复杂度模型和动态场景复杂度模型。在静态场景复杂度模型中,场景复杂度分别从三个维度进行量化,即可行驶区域的面积、天气能见度和道路摩擦系数。在动态场景复杂度模型中,复杂度基于三个关键变量进行量化,包括被测自动驾驶车辆与周围其他交通参与者之间的遭遇角、相对距离和相对速度。然后基于势场理论等方法对整个测试场景进行场景复杂度刻画和危险度评价。
所提出的场景复杂度模型由静态场景复杂度和动态场景复杂度组成,其中静态场景复杂度由CS表示,静态交通场景的复杂度分别从可行驶区域、天气能见度和道路摩擦系数三个维度进行量化。动态场景复杂度由CD表示,动态场景复杂度模型主要关注于各种交通参与者对被测自动驾驶车辆的影响。场景复杂度C由静态场景复杂度Cs和动态场景复杂度CD综合确定,可以通过下式进行计算:
C=αsCs+αDCD(1)
其中,αS和αD分别是静态场景复杂度和动态场景复杂度的权重系数。
静态交通场景复杂度受静态交通要素和环境因素的影响。静态交通要素是指道路的几何形状,而环境因素是指天气能见度和道路摩擦系数。鉴于交通环境的特殊性和多样性,我们根据被测自动驾驶车辆的可行驶区域面积Ad、天气能见度Wv和道路摩擦系数Fr定义静态交通场景CS的复杂性,可计算为:
其中,Amax表示可行驶区域的最大面积,Amin表示可行驶区域的最小面积,Wmax表示照明和清晰度最好时的能见度距离,Wmin表示照明和透明度最差时的能见度距离,Fmax表示最干燥情况下的道路摩擦系数,Fmin表示最潮湿的道路情况下的道路摩擦系数。静态交通场景如图3所示,包含可行驶区域的最小面积Amin、可行驶区域的实际面积Ad、可行驶区域的最大面积Amax,静态障碍物由黑框表示。对于测试中的自动驾驶车辆,可行驶区域的面积越小,所需转弯半径越小,驾驶复杂度越高。除了静态障碍物对被测自动驾驶车辆的可行驶区域的影响外,还考虑了雾天和黑暗对环境能见度的影响,以及降雪后路面摩擦系数的影响。通过调整静态交通场景的参数,静态交通场景的复杂度可以量化关键边界测试场景来测试自动驾驶车辆的性能边界。
动态交通场景是多变的,并且容易导致自动驾驶车辆的事故。在本发明中,综合考虑了由自动驾驶车辆、有人驾驶车辆、自行车和行人组成的混合交通流的复杂交互作用。为了更全面地评估自动驾驶车辆周围动态交通参与者的复杂度,首先设置了自动驾驶车辆周围潜在复杂度交通参与者的有效范围,然后计算动态交互对的复杂度。交互对由被测的自动驾驶车辆和周围的交通参与者组成。最后,综合考虑所有交互对的复杂度,以计算动态交通场景的复杂度。
在驾驶过程中,考虑到并非所有交通参与者都会对被测自动驾驶车辆的动态场景复杂度做出贡献,首先需要量化自动驾驶车辆周围区域的影响范围,以减少自动驾驶车辆的计算负荷。自动驾驶车辆的影响区域可以通过以车辆后轴中心点为中心的半圆来描述。自动驾驶车辆需要确保不会和与其冲突的车辆发生碰撞,也不会与前方车辆发生追尾。根据责任敏感安全理论,将被测自动驾驶车辆的安全区半径公式rsafe定义为:
自动驾驶车辆的影响区域半径可以设置为:
rrange=max{rsafe,rl} (4)
其中,rl表示路口区域范围的长度。
为了刻画由不同的交通参与者组合引起的场景复杂度,利用以自动驾驶车辆为核心的有向图GN+1={VN+1,EN+1}来表示不同周围交通参与者对测试的自动驾驶车辆的复杂度的影响。在有向图GN+1中,N表示自动驾驶车辆周围的影响区域中的交通参与者的数量,点集合VN+1(VN+1={0,1,2,…,N})表示包括自动驾驶车辆在内的所有交通参与者集合,其中测试的自动驾驶车辆的编号用0来表示,有向边集合表示交互交通参与者i和测试的自动驾驶车辆0之间的复杂度关系。
动态交通参与者之间的相遇角、相对距离和相对速度在内的三个关键变量被用于量化动态交通参与者之间的时空交互作用。相遇角与交互作用对复杂度之间的相关性被视为基础。考虑到不同的动态交通参与者之间具有不同的相对速度和相对距离,然后使用乘法算子引入两个附加的校正函数。因此,以下是动态交通参与者之间复杂度Ci,0的定义:
Ci,0=Γ(θi,0,di,0,vi,0)=f1(θi,0)×f2(di,0)×f3(vi,0) (5)
其中,θi,0表示动态交通参与者之间的相遇角,di,0表示动态交通参与者之间的相对距离,vi,0表示动态交通参与者之间的相对速度。f1(θi,0)表示相遇角θi,0与动态交互复杂度Ci,0之间的关系,f2(di,0)表示相对距离di,0与动态交互复杂度Ci,0之间的关系,f3(vi,0)表示相对速度vi,0与动态交互复杂度Ci,0之间的关系。
自动驾驶车辆与路口附近周围交通参与者之间的相遇角变化情况复杂。为了更好地描述不同相遇角对测试的自动驾驶车辆的复杂度的影响,提出使用如下改进的相遇角复杂度计算方法:
除了相遇角,周围交通参与者i和测试的自动驾驶车辆0之间的相对距离也会对场景复杂度产生很大影响。鉴于难以准确有效地描述交叉口不同交通参与者之间的相对距离,利用虚拟编队的思想来计算测试的自动驾驶车辆与周围交通参与者之间相对距离,如图3所示。基于自动驾驶车辆与周围交通参与者之间的冲突点P,集合VN+1中周围交通参与者的位置被映射到测试的自动驾驶车辆所在的车道。周围交通参与者与冲突点P之间的相对距离保持不变,满足Δs′f=Δsf,如图4所示。
根据信息熵理论,提出了不同交通参与者之间的相对距离与复杂度之间的非线性函数关系如下所示:
其中,d′i,0表示标准化后的相对距离,di,0表示不同交通参与者之间的相对距离。dmin表示最不复杂情况下的相对距离,等于公式(4)中的影响区域的半径范围rrange。dmax表示最复杂情况下的相对距离,等于零,表示两辆车无限接近。
此外,不同交通参与者之间的相对速度也对场景复杂度有重要影响。不同交通参与者之间的相对速度对交互对复杂度的影响可以表示如下:
其中v′i,0表示标准化后的相对速度,vi,0表示不同交通参与者之间的相对速度。vmin表示最不复杂情况下的相对速度,等于3.5m/s的发散相对速度。vmax表示最复杂情况下的相对速度,等于3.5m/s的收敛相对速度。
最后,通过对影响区域内的所有交互对复杂度进行积分,可以得到测试的自动驾驶车辆的动态场景复杂度CD,转换为通过所有交互对复杂度的总和来估计。这种复杂度量化指标的更新频率与数据收集频率一致。然后用适当的更新频率平滑驾驶环境的复杂性。自动驾驶车辆的动态场景复杂度CD可以计算为:
其中,Ct表示在时间步长t处平滑之前的集成的动态场景复杂度,N表示影响区域范围内的车辆对的数量,λi表示交通参与者i的影响,Ci,0表示交互对集合EN+1的复杂度,k表示滑动窗口的长度。
三、自动驾驶车辆评估和场景自适应调整
基于生成的自然驾驶仿真测试场景和场景复杂度模型,对自动驾驶系统进行全面的智能驾驶测试。智能驾驶自动化测试系统主要包括场景导入、智能驾驶算法嵌入、仿真实现和自动驾驶系统自动化评测。在智能驾驶自动化测试系统中,不仅考虑其他动态交通参与者的行为对被测的自动驾驶车辆的影响,还考虑被测的自动驾驶车辆对周围交通参与者的交通协调性的影响。由于未来实际可以真正部署的自动驾驶系统需要提高其自身的驾驶效率,同时还需要关注自身的决策行为的对整体的交通协调性的影响,因此被测的自动驾驶车辆应同时测试多维度的性能指标,包括安全性、驾驶舒适性、驾驶性能和交通协调性等。对自动驾驶系统进行综合评测的主要目的是发现其性能缺陷,然后对其进行优化,直到获得满足安全性等多维度性能需求的自动驾驶系统。
在对自动驾驶系统进行评估测试后,对测试结果进行分析,以确定当前测试场景属于安全关键测试场景、关键边缘测试场景还是需要进一步自适应优化的测试场景。如果属于安全关键测试场景,则将生成的场景放入安全关键测试场景库中。如果属于关键边缘测试场景,则将生成的场景放入关键边缘测试场景库中。如果不满足所需场景的要求,则通过关键边缘测试场景自适应生成算法进一步在线自适应调整和优化当前的测试场景。关键边缘测试场景自适应生成算法从静态场景和动态场景两个角度同时进行场景的自适应优化。静态场景的自适应优化从可行驶区域、天气能见度和道路摩擦系数三个方面进行。动态交通场景的自适应优化是通过选择主要其他对抗交通参与者,对其进行自然和对抗的行为优化来实现的。在进行静态场景和动态交通场景自适应优化的过程中还利用场景复杂度模型对优化后的场景复杂度进行量化,基于场景复杂度提升系数来自适应提升测试场景的复杂度和危险度,最终可以生成具有不同复杂度级别的、可以用于不同维度性能测试的、覆盖各种场景的关键测试场景库。关键边缘场景的自适应生成和优化的整个流程如图5所示。
四、静态场景生成和自适应优化算法
静态交通场景指道路、交通设施和天气。对于静态交通场景的自适应生成和优化,重点关注于自动驾驶车辆的可行驶区域Ad、以及天气条件对能见度范围Wv和道路摩擦系数Fr的影响的优化上。
首先,根据真实交通环境的地理坐标Gc和距离阈值dth,从OpenStreetMap(OSM)中提取路网数据。数据提取后,生成静态交通场景,并进行后处理。然后,通过参数向量Rit对静态交通场景进行参数化,其中参数向量定义为Rit=[Ps,Vs,Wv,Fr]T。Ps和Vs分别表示静态障碍物的位置和大小。首先用初始状态向量R0初始化静态交通场景。然后,基于生成的场景来测试自动驾驶车辆,并获得轨迹数据Ts和相应的测试结果(例如,PET、TTC)。最后,利用可达状态集来计算可行驶区域的面积,如等式(13)所示。x(Rit,u(t),t)表示测试的自动驾驶车辆在时间t的运动状态,其中u(t)表示车辆在时间t的动作。proj(x)将车辆的状态x投影到二维位置域,Alane\O(Rit)表示不包含静态障碍物O(Rit)的二维空间。
为了提高静态场景的临界性,优化参数向量Rit以获得临界静态交通场景Sstatic(it+1)用于第it+1次智能驾驶测试:
使用第it次智能驾驶测试中计算的静态场景参数Rit和标量β∈[0,1]来量化提升静态场景复杂度:CS,crit(it+1)=(1+β)·CS(it)。
五、动态交通场景生成和自适应优化算法
为了生成满足自然驾驶数据分布的关键边界测试场景,首先收集自然驾驶数据Dn。然后,识别和分析自然驾驶数据中不同交通参与者的行为,并获得交通参与者的运动状态s和动作u。为了生成满足要求的动态交通场景,计算相应状态下不同交通参与者的状态频率P(s)和动作频率P(u|s)。对动态场景参数(s(t),u(t),P(s),P(u|s))进行初始化,并与静态交通场景Sstatic组合以生成初始场景。之后,根据生成的逐个测试场景对自动驾驶车辆进行测试。为了高效、合理地生成关键边界测试场景,需要通过从背景交通参与者中识别对被测自动驾驶车辆有较大影响的主要其他交通参与者。主要其他交通参与者的行为使用动态场景生成和自适应优化算法来动态调整,并且使用基于自然驾驶环境数据的模型来控制其他背景交通参与者的行为,使得生成的关键边界测试场景尽可能符合自然驾驶数据分布。
为了找到对测试的自动驾驶车辆对抗程度最大的主要其他交通参与者,利用公式(4)中定义的自动驾驶车辆影响区域的概念来遍历和选择影响区域范围内的交通参与者。首先,分析测试环境中的自然交通流数据,并计算不同交通参与者的状态频率P(s)和不同状态下的动作频率P(u|s)。在时间步t=0,…,T,状态和动作分别表示为:
s(t)=[s0(t),s1(t),…,sM+N+L(t)] (15)
u(t)=[u0(t),u1(t),…,uM+N+L(t)] (16)
其中,s0(t)和u0(t)分别表示在时间t时被测试的自动驾驶车辆的状态和动作,si(t)(i=1,2,…,M+N+L)表示第i个背景交通参与者在时间t的状态,M,N和L分别表示影响区域范围内的背景车辆、背景行人和背景自行车的数量,ui(t)表示第i个背景交通参与者在时间t的动作。
然后,使用动态场景交互对复杂度Ci,0来衡量周围交通参与者对被测的自动驾驶车辆的威胁级别。状态动作对(si,ui)下的交互对复杂度Ci,0(si,ui)可以计算为:
其中P(u0|s0)表示车辆在状态s0下的动作u0的概率。基于以上获得的背景交通参与者的动作频率P(ui|si)和交互对复杂度Ci,0(si,ui),综合计算相应的背景交通参与者的临界值q(ui|si),其可以表示为:
q(ui|si)=P(ui|si)×Ci,0(si,ui) (18)
然后,将每个背景交通参与者的临界值计算为对应背景交通参与者所有动作的动作临界值之和:
根据每个背景交通参与者的计算临界值,选择临界值最大的背景车辆、行人和自行车作为主要其他交通参与者。主要其他车辆、行人和自行车可识别如下:
其中,qv、qp和qb分别表示主要的其他车辆、行人和自行车的编号,M、N和L分别表示影响区域内的背景车辆、行人和自行车的集合,Qv、QP和Qb分别表示用于识别主要其他车辆、行人和自行车的预定临界阈值。这里的主要其他交通参与者可以是对抗车辆、对抗行人、对抗自行车或它们的任何组合,以最大限度地提高生成关键边界测试场景的效率。
在找到主要其他交通参与者之后,下一个挑战是如何合理有效地生成关键边界测试场景。主要思想是优化关键边界测试场景的行为,以逐渐增加动态场景的复杂性。主要其他交通参与者的行为对动态场景的复杂度有着至关重要的影响。场景复杂度的变化可以加快自动驾驶车辆性能边界的评估并找到关键边界测试场景。
在场景参数的自适应调整过程中,进行场景复杂度的优化。如果自动驾驶车辆通过当前测试,则对动态交通场景复杂度阈值进一步提升,其计算如下:
Ccrit=(1)CD(it)(23)
其中,β∈(0,1]是场景复杂度提升系数。
在确定场景的复杂度阈值之后,对主要其他交通参与者的动作参数uq进行优化,以生成满足复杂度要求且与自然驾驶数据分布的偏差最小的关键边界测试场景。将从自然驾驶交通流中获得的主要其他交通参与者的行为轨迹表示为Tnat(t,uq,nat),并将主要其他交通参与者的优化的行为轨迹表示成Tcrit(t,uq)。所提出算法的目标函数和约束如公式(24)所示。
其中t0表示主要其他交通参与者的行为优化的开始时间,tf表示主要其他交通参与者对被测自动驾驶车辆的行为产生影响的持续时间,TTC(t)表示主要其他交通参与者与最近的障碍物或交通参与者之间在时间t的最小碰撞时间,TTCmin表示最小安全碰撞时间。公式(24)中的约束能够确保没有周围其他交通参与者主动与被测的自动驾驶车辆发生碰撞。
本技术方案中最重要的部分是生成关键边界测试场景,用于自动驾驶车辆的智能驾驶测试。本质上,主要目标是增加自动驾驶车辆周围场景的复杂度,同时使生成的新测试场景满足自然分布。为了证明本技术方案的有效性,本实施例分别在自然交通场景和本发明中生成的关键边界测试场景中进行了测试,并且计算了被测的自动驾驶车辆与周围其他交通参与者之间的相对距离和通过冲突点的时间差PET。为了进一步研究生成的关键边界测试场景对于自动驾驶车辆的影响,还开发了两种类型的自动驾驶车辆模型:黑盒子的VTD自动驾驶模型和基于规则的DPA自动驾驶模型。图6a、6b显示,对于VTD自动驾驶车辆模型,关键边界测试场景的分布与自然驾驶场景的分布非常相似,但PET和相对距离较小,这意味VTD自动驾驶车辆在该场景中更危险。这与DPA自动驾驶车辆模型相同,如图6c、6d所示。还证明,VTD自动驾驶车辆模型比DPA自动驾驶车辆模型更危险,因为VTD自动驾驶车辆模型在自然交通场景和关键边界测试场景中具有更小的PET和相对距离。这并不意外,因为基于规则的DPA自动驾驶车辆模型相对保守,旨在防止碰撞。此外,还根据性能指标对比了不同的自动驾驶模型在自然交通场景和关键边界测试场景中遇到的不同事故发生概率。除了事故事件,还定义了驾驶舒适性、驾驶性能和交通协调性,如图6e、6f所示。
以下标准用于查询这些事件:(a)驾驶舒适度:自动驾驶车辆的加速度的绝对值大于3m/s2;(b)驾驶性能:自动驾驶车辆在60秒内未成功通过交叉口区域且未发生碰撞;(c)交通协调性:自动驾驶车辆左转进入直行交通,导致直行车辆突然刹车(背景车辆加速度的绝对值大于3m/s2)。如图6e和图6f所示,与自然交通场景相比,关键边界测试场景在两种自动驾驶车辆中产生了更多的驾驶舒适性和驾驶性能问题。两类场景对交通协调性的影响差异不大,主要是因为这些算法关注自身的驾驶性能,很少考虑对交通协调性造成的影响。事实上,在两台自动驾驶车辆的仿真验证中,自然交通场景存在安全性、驾驶舒适性和驾驶性能等问题的频率较低。所有这些结果表明,与自然交通场景相比,关键边界测试场景可以更有效地评估自动驾驶车辆的综合性能。
综上可知,本技术方案的目标是研究一种在线生成满足自然交通流行为分布、多样性且具有多重交互的关键边界测试场景,以测试自动驾驶车辆的性能边界。故设计一套具有灵活复杂性和多样性的在线自适应关键测试场景生成架构;提出一种自动驾驶测试场景复杂度模型来量化不同测试场景的复杂度;综合考虑自动驾驶车辆、有人驾驶车辆、自行车和行人的复杂交互行为,并且综合考虑其对测试的自动驾驶车辆的影响。对测试场景进行系统化的描述、生成、选取、优化和使用,将虚拟场景与真实交通流数据相结合,从而有效提高关键边界测试场景的灵活复杂性和多样性。
Claims (10)
1.一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,其特征在于,包括以下步骤:
S1、泛化生成自然驾驶测试场景;
S2、构建场景复杂度模型,包括静态场景复杂度和动态场景复杂度;
S3、基于生成的自然驾驶测试场景以及构建的场景复杂度模型,对自动驾驶车辆进行评估测试;
S4、根据步骤S3得到的测试结果,进行场景自适应调整,包括静态场景自适应调整以及动态场景自适应调整,输出得到关键边界测试场景。
2.根据权利要求1所述的一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,其特征在于,所述步骤S1的具体过程为:
S11、对真实世界的驾驶环境进行环境识别,将静态交通环境和天气环境转换为静态交通场景;
S12、对真实世界的驾驶环境进行行为识别,获得动态交通参与者的自然驾驶行为分布模型;
S13、在仿真平台上将自然交通场景进行泛化、并转换为自然驾驶测试场景。
3.根据权利要求2所述的一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,其特征在于,所述步骤S13具体是利用自然驾驶环境中的自然驾驶数据进行参数泛化,生成OpenDrive以及OpenScenario格式的仿真测试场景。
4.根据权利要求1所述的一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,其特征在于,所述步骤S2中场景复杂度模型具体为:
C=αSCS+αDCD
其中,αS和αD分别是静态场景复杂度CS和动态场景复杂度CD的权重系数。
5.根据权利要求4所述的一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,其特征在于,所述步骤S2中静态场景复杂度的量化维度包括可行驶区域的面积、天气能见度和道路摩擦系数;
动态场景复杂度的量化关键变量包括被测自动驾驶车辆与周围其他交通参与者之间的遭遇角、相对距离和相对速度。
7.根据权利要求5所述的一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,其特征在于,所述动态场景复杂度的计算过程具体为:
首先设置自动驾驶车辆周围潜在复杂度交通参与者的有效范围;
然后计算动态交互对的复杂度,所述交互对由被测的自动驾驶车辆和周围的交通参与者组成;
最后,综合考虑所有交互对的复杂度,以计算动态交通场景的复杂度;
所述自动驾驶车辆周围潜在复杂度交通参与者的有效范围是以车辆后轴中心点为中心的半圆来描述,该半圆的半径为:
rrange=max{rsafe,rl}
其中,rrange为自动驾驶车辆的影响区域半径,rsafe为被测自动驾驶车辆的安全区半径,rl为路口区域范围的长度,v0为自动驾驶车辆的初始速度,τ为自动驾驶车辆的响应滞后时间,和/>分别为自动驾驶车辆的最大加速度和最小减速度;
所述动态交互对的复杂度为:
Ci,0=Γ(θi,0,di,0,vi,θ)=f1(θi,0)×f2(di,0)×f3(vi,θ)
其中,Ci,0为动态交通参与者之间复杂度,θi,0为动态交通参与者之间的相遇角,di,0为动态交通参与者之间的相对距离,vi,0为动态交通参与者之间的相对速度,f1(θi,0)为相遇角θi,0与动态交互复杂度Ci,0之间的关系,f2(di,0)为相对距离di,0与动态交互复杂度Ci,0之间的关系,f3(vi,0)为相对速度vi,0与动态交互复杂度Ci,0之间的关系,di ′ ,0为标准化后的相对距离,di,0为不同交通参与者之间的相对距离,dmin为最不复杂情况下的相对距离,等于自动驾驶车辆的影响区域半径rrange,dmax为最复杂情况下的相对距离、等于零,表示两辆车无限接近,vi ′ ,0为标准化后的相对速度,vi,0为不同交通参与者之间的相对速度,vmin为最不复杂情况下的相对速度,等于3.5m/s的发散相对速度,vmax为最复杂情况下的相对速度,等于3.5m/s的收敛相对速度;
所述动态交通场景的复杂度为:
其中,CD为动态场景复杂度,Ct为在时间步长t处平滑之前的集成的动态场景复杂度,N为影响区域范围内的车辆对的数量,λi为交通参与者i的影响,Ci,0为交互对集合EN+1的复杂度,k表示滑动窗口的长度。
8.根据权利要求1所述的一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,其特征在于,所述步骤S4具体包括以下步骤:
S41、根据步骤S3得到的测试结果,确定当前测试场景属于安全关键测试场景、关键边缘测试场景还是需要进一步自适应优化的测试场景;
如果属于安全关键测试场景,则将生成的场景放入安全关键测试场景库中;
如果属于关键边缘测试场景,则将生成的场景放入关键边缘测试场景库中;
如果不满足所需场景的要求,则执行步骤S42;
S42、通过关键边缘测试场景自适应生成算法进一步在线自适应调整和优化当前的测试场景,其中,关键边缘测试场景自适应生成算法从静态场景和动态场景两个角度同时进行场景的自适应优化:
静态场景的自适应优化从可行驶区域、天气能见度和道路摩擦系数三个方面进行;
动态交通场景的自适应优化是通过选择主要其他对抗交通参与者,对其进行自然和对抗的行为优化来实现的;
在进行静态场景和动态交通场景自适应优化的过程中还利用场景复杂度模型对优化后的场景复杂度进行量化,基于场景复杂度提升系数来自适应提升测试场景的复杂度和危险度,最终生成具有不同复杂度级别的、用于不同维度性能测试的、覆盖各种场景的关键测试场景库。
9.根据权利要求8所述的一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,其特征在于,所述步骤S42中进行静态场景自适应优化的具体过程为:
首先,根据真实交通环境的地理坐标Gc和距离阈值dth,从OpenStreetMap(OSM)中提取路网数据;
数据提取后,生成静态交通场景,并进行后处理,然后,通过参数向量Rit对静态交通场景进行参数化,其中参数向量定义为Rit=[Ps,Vs,Wv,Fr]T,Ps和Vs分别表示静态障碍物的位置和大小,利用初始状态向量R0初始化静态交通场景,再基于生成的场景来测试自动驾驶车辆,并获得轨迹数据Ts和相应的测试结果;
最后,利用可达状态集来计算可行驶区域的面积:
x(Rit,u(t),t)表示测试的自动驾驶车辆在时间t的运动状态,u(t)表示车辆在时间t的动作,proj(x)将车辆的状态x投影到二维位置域,Alane\O(Rit)表示不包含静态障碍物O(Rit)的二维空间;
为了提高静态场景的临界性,优化参数向量Rit以获得临界静态交通场景Sstatic(it+1)用于第it+1次智能驾驶测试:
s.t.Ad>0
使用第it次智能驾驶测试中计算的静态场景参数Rit和标量β∈[0,1]来量化提升静态场景复杂度:CS,crit(it+1)=(1+β)·Cs(it)。
10.根据权利要求8所述的一种用于自动驾驶加速测试的关键边缘测试场景在线生成方法,其特征在于,所述步骤S42中进行动态场景自适应优化的具体过程为:
首先收集自然驾驶数据Dn;
然后,识别和分析自然驾驶数据中不同交通参与者的行为,并获得交通参与者的运动状态s和动作u,为了生成满足要求的动态交通场景,计算相应状态下不同交通参与者的状态频率P(s)和动作频率P(u|s),对动态场景参数(s(t),u(t),P(s),P(u|s))进行初始化,并与静态交通场景Sstatic组合以生成初始场景;
之后,根据生成的逐个测试场景对自动驾驶车辆进行测试,为了高效、合理地生成关键边界测试场景,需要通过从背景交通参与者中识别对被测自动驾驶车辆有较大影响的主要其他交通参与者,主要其他交通参与者的行为使用动态场景生成和自适应优化算法来动态调整,并且使用基于自然驾驶环境数据的模型来控制其他背景交通参与者的行为,使得生成的关键边界测试场景尽可能符合自然驾驶数据分布;
为了找到对测试的自动驾驶车辆对抗程度最大的主要其他交通参与者,利用自动驾驶车辆影响区域的概念来遍历和选择影响区域范围内的交通参与者,先分析测试环境中的自然交通流数据,并计算不同交通参与者的状态频率P(s)和不同状态下的动作频率P(u|s),在时间步t=0,…,T,状态和动作分别表示为:
s(t)=[s0(t),s1(t),…,sM+N+L(t)]
u(t)=[u0(t),u1(t),…,uM+N+L(t)]
其中,s0(t)和u0(t)分别表示在时间t时被测试的自动驾驶车辆的状态和动作,si(t)(i=1,2,…,M+N+L)表示第i个背景交通参与者在时间t的状态,M,N和L分别表示影响区域范围内的背景车辆、背景行人和背景自行车的数量,ui(t)表示第i个背景交通参与者在时间t的动作。
再使用动态场景交互对复杂度Ci,0来衡量周围交通参与者对被测的自动驾驶车辆的威胁级别,状态动作对(si,ui)下的交互对复杂度Ci,0(si,ui)为:
其中P(u0|s0)表示车辆在状态s0下的动作u0的概率;
基于获得的背景交通参与者的动作频率P(ui|si)和交互对复杂度Ci,0(si,ui),综合计算相应的背景交通参与者的临界值q(ui|si):
q(ui|si)=P(ui|si)×Ci,0(si,ui)
然后,将每个背景交通参与者的临界值计算为对应背景交通参与者所有动作的动作临界值之和:
根据每个背景交通参与者的计算临界值,选择临界值最大的背景车辆、行人和自行车作为主要其他交通参与者,则主要其他车辆、行人和自行车识别如下:
其中,qv、qp和qb分别表示主要的其他车辆、行人和自行车的编号,M、N和L分别表示影响区域内的背景车辆、行人和自行车的集合,Qv、QP和Qb分别表示用于识别主要其他车辆、行人和自行车的预定临界阈值,所述主要其他交通参与者具体为对抗车辆、对抗行人、对抗自行车或它们的任何组合,以最大限度地提高生成关键边界测试场景的效率;
在找到主要其他交通参与者之后,通过优化关键边界测试场景的行为,以逐渐增加动态场景的复杂性,主要其他交通参与者的行为对动态场景的复杂度有着至关重要的影响,场景复杂度的变化能够加快自动驾驶车辆性能边界的评估并找到关键边界测试场景,在场景参数的自适应调整过程中,进行场景复杂度的优化,如果自动驾驶车辆通过当前测试,则对动态交通场景复杂度阈值进一步提升,其计算如下:
Ccrit=(1+β)CD(it)
其中,β∈(0,1]是场景复杂度提升系数;
在确定场景的复杂度阈值之后,对主要其他交通参与者的动作参数uq进行优化,以生成满足复杂度要求且与自然驾驶数据分布的偏差最小的关键边界测试场景,将从自然驾驶交通流中获得的主要其他交通参与者的行为轨迹表示为Tnat(t,uq,nat),并将主要其他交通参与者的优化的行为轨迹表示成Tcrit(t,uq),对应的目标函数和约束如下所示:
s.t.D(it+1)≥Ccrit,
其中t0表示主要其他交通参与者的行为优化的开始时间,tf表示主要其他交通参与者对被测自动驾驶车辆的行为产生影响的持续时间,TTC(t)表示主要其他交通参与者与最近的障碍物或交通参与者之间在时间t的最小碰撞时间,TTCmin表示最小安全碰撞时间,通过上述约束确保没有周围其他交通参与者主动与被测的自动驾驶车辆发生碰撞。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211711315.8A CN116258058A (zh) | 2022-12-29 | 2022-12-29 | 用于自动驾驶加速测试的关键边缘测试场景在线生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211711315.8A CN116258058A (zh) | 2022-12-29 | 2022-12-29 | 用于自动驾驶加速测试的关键边缘测试场景在线生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116258058A true CN116258058A (zh) | 2023-06-13 |
Family
ID=86680185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211711315.8A Pending CN116258058A (zh) | 2022-12-29 | 2022-12-29 | 用于自动驾驶加速测试的关键边缘测试场景在线生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116258058A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117094182A (zh) * | 2023-10-19 | 2023-11-21 | 中汽研(天津)汽车工程研究院有限公司 | V2v交通场景构建方法及v2x虚实融合测试系统 |
CN117744366A (zh) * | 2023-12-19 | 2024-03-22 | 万物镜像(北京)计算机系统有限公司 | 一种自动驾驶边缘仿真测试场景生成方法、装置及设备 |
-
2022
- 2022-12-29 CN CN202211711315.8A patent/CN116258058A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117094182A (zh) * | 2023-10-19 | 2023-11-21 | 中汽研(天津)汽车工程研究院有限公司 | V2v交通场景构建方法及v2x虚实融合测试系统 |
CN117094182B (zh) * | 2023-10-19 | 2024-03-12 | 中汽研(天津)汽车工程研究院有限公司 | V2v交通场景构建方法及v2x虚实融合测试系统 |
CN117744366A (zh) * | 2023-12-19 | 2024-03-22 | 万物镜像(北京)计算机系统有限公司 | 一种自动驾驶边缘仿真测试场景生成方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | On adversarial robustness of trajectory prediction for autonomous vehicles | |
CN106874597B (zh) | 一种应用于自动驾驶车辆的高速公路超车行为决策方法 | |
CN107229973B (zh) | 一种用于车辆自动驾驶的策略网络模型的生成方法及装置 | |
CN107169567B (zh) | 一种用于车辆自动驾驶的决策网络模型的生成方法及装置 | |
CN116258058A (zh) | 用于自动驾驶加速测试的关键边缘测试场景在线生成方法 | |
CN112133089B (zh) | 一种基于周围环境与行为意图的车辆轨迹预测方法、系统及装置 | |
US11087477B2 (en) | Trajectory prediction | |
Smolyakov et al. | Self-driving car steering angle prediction based on deep neural network an example of CarND udacity simulator | |
Zaghari et al. | The improvement in obstacle detection in autonomous vehicles using YOLO non-maximum suppression fuzzy algorithm | |
CN114514524A (zh) | 多智能体模拟 | |
Sharma et al. | Vehicle identification using modified region based convolution network for intelligent transportation system | |
CN117157678A (zh) | 用于基于图的全景分割的方法和系统 | |
CN111079800B (zh) | 一种智能驾驶虚拟测试的加速方法及加速系统 | |
CN114299607A (zh) | 一种基于自动驾驶汽车的人车碰撞危险度分析方法 | |
US20220383736A1 (en) | Method for estimating coverage of the area of traffic scenarios | |
Oh et al. | Hcnaf: Hyper-conditioned neural autoregressive flow and its application for probabilistic occupancy map forecasting | |
CN116068885A (zh) | 切换递归卡尔曼网络的改进 | |
Kuan et al. | Pothole detection and avoidance via deep learning on edge devices | |
Mannion | Vulnerable road user detection: state-of-the-art and open challenges | |
Yuan et al. | A second-order dynamic and static ship path planning model based on reinforcement learning and heuristic search algorithms | |
Zhou et al. | Online adaptive generation of critical boundary scenarios for evaluation of autonomous vehicles | |
Xiao et al. | [Retracted] Accident Liability Determination of Autonomous Driving Systems Based on Artificial Intelligence Technology and Its Impact on Public Mental Health | |
Ding et al. | Capture uncertainties in deep neural networks for safe operation of autonomous driving vehicles | |
CN116653957A (zh) | 一种变速变道方法、装置、设备及存储介质 | |
CN114926823A (zh) | 基于wgcn的车辆驾驶行为预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |