CN116824869A - 车路云一体化交通融合感知测试方法、装置、系统及介质 - Google Patents
车路云一体化交通融合感知测试方法、装置、系统及介质 Download PDFInfo
- Publication number
- CN116824869A CN116824869A CN202311110142.9A CN202311110142A CN116824869A CN 116824869 A CN116824869 A CN 116824869A CN 202311110142 A CN202311110142 A CN 202311110142A CN 116824869 A CN116824869 A CN 116824869A
- Authority
- CN
- China
- Prior art keywords
- data
- perception
- traffic
- test
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008447 perception Effects 0.000 title claims abstract description 272
- 238000012360 testing method Methods 0.000 title claims abstract description 272
- 230000004927 fusion Effects 0.000 title claims abstract description 74
- 238000011156 evaluation Methods 0.000 claims abstract description 81
- 238000000034 method Methods 0.000 claims abstract description 81
- 230000008569 process Effects 0.000 claims abstract description 32
- 238000010998 test method Methods 0.000 claims abstract description 7
- 238000003860 storage Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 24
- 238000003908 quality control method Methods 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 12
- 230000006399 behavior Effects 0.000 claims description 6
- 230000001953 sensory effect Effects 0.000 claims description 6
- 230000004888 barrier function Effects 0.000 claims description 5
- 230000005856 abnormality Effects 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 238000007726 management method Methods 0.000 description 10
- 230000002159 abnormal effect Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000012216 screening Methods 0.000 description 8
- 238000012795 verification Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000007667 floating Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000001172 regenerating effect Effects 0.000 description 3
- 230000008439 repair process Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 229910000838 Al alloy Inorganic materials 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 229920000049 Carbon (fiber) Polymers 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000004917 carbon fiber Substances 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 239000003292 glue Substances 0.000 description 1
- 238000013101 initial test Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0129—Traffic data processing for creating historical data or processing based on historical data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/052—Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/065—Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count
Abstract
本发明涉及交通感知能力测试技术领域,公开了车路云一体化交通融合感知测试方法、装置、系统及介质,包括:基于测试指令,控制测试车辆在被测感知系统所处区域运动;采集测试车辆在运动过程中的原始交通信息,并获取被测感知系统的感知数据;对原始交通信息进行时间同步,得到采集数据;基于感知数据,确定被测感知系统的感知范围;判断采集数据是否覆盖感知范围;在采集数据覆盖感知范围时,基于采集数据,生成被测感知系统的感知评价数据;利用感知评价数据对感知数据进行评价,得到被测感知系统的感知能力测试结果,本发明实现了测试内容全覆盖,实现了对交通感知系统的感知能力全面且精度更高的能力测试,进一步提升测试效率和可靠性。
Description
技术领域
本发明涉及交通感知能力测试技术领域,具体涉及感知系统的车路云一体化交通融合感知测试方法、装置、系统及介质。
背景技术
智能网联汽车车路云一体化系统云控基础平台边缘云系统具备融合感知能力,可在其覆盖范围内形成连续的、高精度的、无盲区的交通参与者、交通事件和交通流状态感知区域,实现对路口、路段的全息感知,并对网联车辆用户、交通管理职能部门用户以及产业链其他用户提供低时延、高细粒度、高精度的感知数据赋能服务。融合感知数据质量直接对数据赋能服务质量产生影响,进而影响云控基础平台的示范应用和商业运营,因此有必要在进行建设验收或定期检查时,从基础性能、交通参与者感知、交通事件感知、交通流感知等维度对云控基础平台融合感知能力开展测试评价,以保证服务质量。
相关技术中,真值系统面向的被测感知系统为布设于单点的路侧感知系统或设备,没有考虑云控基础平台融合感知过程中由于多个点位的感知范围存在重叠而引发的多杆感知数据融合精度问题、感知结果唯一性问题和感知结果连续性问题。采集的数据不能完全覆盖边缘云融合感知标准件,向网联汽车、交通管理部门和产业链其他用户所提供的低时延或弱时延交通参与者感知、交通事件感知以及交通流感知相关数据类型,无法支撑对融合感知能力的综合评价以及多维度评价。
发明内容
有鉴于此,本发明提供了车路云一体化交通融合感知测试方法、装置、系统及介质,以解决对交通感知系统的感知能力测试不全面且精度不高的问题。
第一方面,本发明提供了一种车路云一体化交通融合感知测试方法,方法包括:
获取测试指令,并基于测试指令,控制测试车辆在被测感知系统所处区域运动;
采集测试车辆在运动过程中的原始交通信息,并获取被测感知系统的感知数据;
基于被测感知系统,对原始交通信息进行时间同步,得到采集数据;
基于感知数据,确定被测感知系统的感知范围;
判断采集数据是否覆盖感知范围;
在采集数据覆盖感知范围时,基于采集数据,生成被测感知系统的感知评价数据;
利用感知评价数据对感知数据进行评价,得到被测感知系统的感知能力测试结果。
在本发明中,通过获取测试车辆采集的数据与被测感知系统采集的数据,将二者进行时间同步,判断测试车辆采集数据是否覆盖完全被测感知系统的感知范围,消除了评价存在盲区的问题,进而实现了测试内容全覆盖。通过对测试车辆采集的数据进行处理,得到精度更高且更全面的感知评价数据,提升了测试数据的可靠性,为对融合感知能力的综合评价以及多维度评价提供了数据支撑,进而实现了对交通感知系统的感知能力全面且精度更高的能力测试,进一步提升测试效率和可靠性。
在一种可选的实施方式中,基于被测感知系统,对原始交通信息进行时间同步,得到采集数据,包括:
获取被测感知系统的时间参考系;
基于时间参考系,对原始交通信息标记时间戳,得到采集数据。
在该方式中,通过对原始交通信息进行标记时间戳,将测试车辆采集的数据与被测感知系统的采集的数据进行试件同步,确保后续生成的感知评价数据与被测感知系统采集的感知数据的时间误差处在可接受范围内,防止感知评价数据与感知数据的时间戳匹配过程出现明显的“伪对齐”情况,提高评价结果的准确性。
在一种可选的实施方式中,基于感知数据,确定被测感知系统的感知范围,包括:
基于感知数据,判断被测感知系统能否生成每一时刻对测试车辆的感知结果;
在被测感知系统能生成当前时刻对测试车辆的感知结果且无法生成下一时刻对测试车辆的感知结果时,将测试车辆当前时刻的位置确定为可感知临界点;
基于所有可感知临界点形成区域的边界,确定被测感知系统的感知范围。
在该方式中,通过判断被测感知系统能否生成每一时刻对测试车辆的感知结果,确定感知范围临界点,进而可以确定被测感知系统的感知范围,便于测试车辆采集覆盖完全被测感知系统的范围。
在一种可选的实施方式中,判断采集数据是否覆盖感知范围,包括:
将采集数据中测试车辆的轨迹数据投射至感知范围;
判断测试车辆的轨迹数据是否覆盖感知范围;
在测试车辆的轨迹数据覆盖感知范围时,确定采集数据覆盖感知范围;
在测试车辆的轨迹数据未覆盖感知范围时,返回获取测试指令,并基于测试指令,控制测试车辆在被测感知系统所处区域运动的步骤,直至测试车辆的轨迹数据覆盖感知范围。
在该方式中,通过实时测试车辆采集的数据与感知范围,显示测试车辆采集的数据的区域对感知范围的覆盖情况,指导测试车辆的数据采集,实现对感知范围的全覆盖,消除评价盲区,通过识别感知范围,进而可以确定感知范围内重叠区域,便于后续对重叠区域的着重重复测试。
在一种可选的实施方式中,基于采集数据,生成被测感知系统的感知评价数据,包括:
基于采集数据,生成被测感知系统的交通参与者感知数据;
基于采集数据,生成被测感知系统的交通事件感知数据;
基于采集数据,生成被测感知系统的交通流感知数据。
在该方式中,通过将测试车辆采集的数据转化为与融合感知标准件所提供服务数据内容相同的交通参与者感知、交通事件感知以及交通流感知真值数据,进一步实现了测试内容全覆盖,与此同时,便于后续增加测试车辆,提升测试效率。
在一种可选的实施方式中,交通参与者感知数据包括交通参与者体积数据与障碍物体积数据;
基于采集数据,生成交通参与者感知数据,包括:
将采集数据转化为UTM坐标系下的横纵坐标信息;
基于横纵坐标信息,计算得到测试车辆的感知范围内交通参与者信息与障碍物信息;
对交通参与者信息与障碍物信息进行识别,得到交通参与者体积数据与障碍物体积数据。
在该方式中,通过将测试车辆采集的数据,转化为更为全面且准确地表征交通参与者的交通参与者感知数据,为后续对被测感知系统的测评提供数据支持。
在一种可选的实施方式中,基于采集数据,生成被测感知系统的交通事件感知数据,包括:
设置影响车辆通行和交通安全异常交通状况或行为的识别条件;
基于识别条件,对采集数据进行识别,得到交通事件信息。
在该方式中,通过将测试车辆采集的数据,转化为更为全面且准确地表征交通事件的交通事件感知数据,为后续对被测感知系统的测评提供数据支持。
在一种可选的实施方式中,交通流感知数据包括:交通流平均速度、交通流密度与交通流流量;
基于采集数据,生成被测感知系统的交通流感知数据,包括:
基于采集数据,计算测试车辆的感知范围内其他所有车辆的平均速度,得到交通流平均速度;
基于交通流平均速度,计算得到交通流密度;
基于交通流密度,计算得到交通流流量。
在该方式中,通过将测试车辆采集的数据,转化为更为全面且准确地表征交通流的交通流感知数据,为后续对被测感知系统的测评提供数据支持。
在一种可选的实施方式中,在利用感知评价数据对感知数据进行评价之前,方法还包括:
对感知评价数据进行质量控制,得到质量控制后的感知评价数据;
基于时间参考系,建立标准时间戳序列;
基于标准时间戳序列,对质量控制后的感知评价数据与感知数据进行时间戳匹配,得到时间戳匹配的感知评价数据与感知数据。
在该方式中,通过建立标准时间戳序列,将感知评价数据与感知数据进行时间戳匹配,为后续基于时间戳对感知评价数据与感知数据进行数据的规范化调用。
第二方面,本发明提供了一种车路云一体化交通融合感知测试装置,装置包括:
指令获取模块,用于获取测试指令,并基于测试指令,控制测试车辆在被测感知系统所处区域运动;
数据采集模块,用于采集测试车辆在运动过程中的原始交通信息,并获取被测感知系统的感知数据;
时间同步模块,用于基于被测感知系统,对原始交通信息进行时间同步,得到采集数据;
范围确定模块,用于基于感知数据,确定被测感知系统的感知范围;
范围判断模块,用于判断采集数据是否覆盖感知范围;
评价数据生成模块,用于在采集数据覆盖感知范围时,基于采集数据,生成被测感知系统的感知评价数据;
能力测试模块,用于利用感知评价数据对感知数据进行评价,得到被测感知系统的感知能力测试结果。
第三方面,本发明提供了一种车路云一体化交通融合感知测试系统,包括:
测试车辆,测试车辆用于采集运动过程中的原始交通信息;
计算机设备,计算机设备包括:存储器和处理器,存储器和处理器之间互相通信连接,存储器中存储有计算机指令,处理器通过执行计算机指令,从而执行上述第一方面或其对应的任一实施方式的车路云一体化交通融合感知测试方法。
第四方面,本发明提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机指令,计算机指令用于使计算机执行上述第一方面或其对应的任一实施方式的车路云一体化交通融合感知测试方法。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的车路云一体化交通融合感知测试方法的流程示意图。
图2是根据本发明实施例的云控感知能力测试方法的流程图。
图3是根据本发明实施例的另一车路云一体化交通融合感知测试方法的流程示意图。
图4是根据本发明实施例的又一车路云一体化交通融合感知测试方法的流程示意图。
图5是根据本发明实施例的车路云一体化交通融合感知测试装置的结构框图。
图6是根据本发明实施例基于车端真值的云控基础平台融合感知能力测试系统和测试装置的结构框图。
图7是本发明实施例的车路云一体化交通融合感知测试系统中计算机设备的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
相关技术中,真值系统面向的被测感知系统为布设于单点的路侧感知系统或设备,没有考虑云控基础平台融合感知过程中由于多个点位的感知范围存在重叠而引发的多杆感知数据融合精度问题、感知结果唯一性问题和感知结果连续性问题。采集的数据不能完全覆盖边缘云融合感知标准件向网联汽车、交通管理部门和产业链其他用户所提供的低时延或弱时延交通参与者感知、交通事件感知以及交通流感知相关数据类型,无法支撑对融合感知能力的综合评价以及多维度评价。
为解决上述问题,本发明实施例中提供一种车路云一体化交通融合感知测试方法,用于车路云一体化交通融合感知测试系统中。本实施例中的车路云一体化交通融合感知测试系统,适用于对云控基础平台边缘云系统融合感知子系统进行感知能力测评的使用场景,其中云控基础平台边缘云系统融合感知子系统由云控基础平台边缘云基础软硬件、融合感知标准件、通信系统以及感知范围连续的多个单点位路侧感知设备构成,包含多个感知点位。通过本发明提供车路云一体化交通融合感知测试方法,通过获取测试车辆采集的数据与被测感知系统采集的数据,将二者进行时间同步,判断测试车辆采集数据是否覆盖完全被测感知系统的感知范围,消除了评价存在盲区的问题,进而实现了测试内容全覆盖。通过对测试车辆采集的数据进行处理,得到精度更高且更全面的感知评价数据,提升了测试数据的可靠性,为对融合感知能力的综合评价以及多维度评价提供了数据支撑,进而实现了对交通感知系统的感知能力全面且精度更高的能力测试,进一步提升测试效率和可靠性。
在本实施例中提供了一种车路云一体化交通融合感知测试方法,可用于上述的车路云一体化交通融合感知测试系统,图1是根据本发明实施例的车路云一体化交通融合感知测试方法的流程图,如图1所示,该流程包括如下步骤:
步骤S101,获取测试指令,并基于测试指令,控制测试车辆在被测感知系统所处区域运动。
在一示例中,测试车辆可以是真值车。测试指令由云端下发至车载终端,包括目标点、目标速度、特定机动行为等驾驶任务,分为自动指令和手动指令,自动指令根据当前正在执行的测试用例以及自车位置、运动状态和行驶距离等信息生成,用以指导真值车完成测试用例序列中规定的测试内容;手动指令由测试管理人员在云端向真值车手动下达,用以指导真值车前往被测感知系统融合感知范围内未被车端真值覆盖到的区域进行数据采集或补充执行特定测试用例。
步骤S102,采集测试车辆在运动过程中的原始交通信息,并获取被测感知系统的感知数据。
在一示例中,在云端下发的测试指令的指引下,通过真值车采集车辆自身定位信息以及周边交通环境信息,得到原始交通信息。
步骤S103,基于被测感知系统,对原始交通信息进行时间同步,得到采集数据。
在一示例中,真值车采集的信息与被测感知系统的融合感知数据由统一的授时系统进行时间同步,确保真值数据与被测数据的时间误差处在可接受范围内,防止真值数据与被测数据的时间戳匹配过程出现明显的“伪对齐”情况,提高评价结果的准确性。真值车采集的原始信息经过授时系统标记时间戳之后,由车载终端上传至云端,用于支持测试状态、测试覆盖区域等内容的实时显示,并执行进一步的感知数据转化、时间戳匹配、数据质量控制、真值存储等过程。
步骤S104,基于感知数据,确定被测感知系统的感知范围。
在一示例中,真值车数据覆盖范围的确认依靠对比真值车以及被测感知系统感知数据来实现:当被测感知系统可以生成关于真值车的感知结果时,真值车所处位置为可感知点位,其坐标为真值车位于此点位时的定位坐标;若真值车在本时刻可被被测感知系统感知,而在下一时刻无法被感知,则此时的位置为可感知点位的临界点;所有可感知点位的临界点可由一个最小面积的封闭曲线包裹,该曲线包裹的区域为被测感知系统的感知范围。
步骤S105,判断采集数据是否覆盖感知范围。
在一示例中,通过将真值车的轨迹数据投射到被测感知系统感知范围内,则可获知真值车数据覆盖范围并可确定真值数据采集的盲区,实现判断采集数据是否覆盖感知范围。
步骤S106,在采集数据覆盖感知范围时,基于采集数据,生成被测感知系统的感知评价数据。
在一示例中,感知评价数据转化过程包括:将真值车采集的信息转化为三类感知数据,其中,交通参与者感知数据包括真值车以及周边物体在UTM坐标系下的二维坐标及轨迹、区号、半球标识、速度、方向角、体积、颜色、目标类型等信息;交通事件感知数据包括停止事件、逆行事件、行人事件、抛洒物事件、拥堵事件、机动车驶离事件等信息;交通流感知数据包括流量、平均速度、密度等信息。
步骤S107,利用感知评价数据对感知数据进行评价,得到被测感知系统的感知能力测试结果。
在一示例中,将完成质量控制的真值数据按照交通参与者感知数据、交通事件感知数据和交通流感知数据共三类分类存储,并以时间和物体id作为双重索引升序排列,用以支撑从基础性能、交通参与者感知、交通事件感知和交通流感知的维度对云控基础平台边缘云系统融合感知能力进行评价。
在一实施场景中,图2是根据本发明实施例的感知能力测试方法的流程图。如图2所示,感知能力测试流程包括:S1:按照提前制定的测试计划,在测试场地部署测试系统、测试装置和测试人员,编写需要执行的测试用例并将其输入测试系统的测试管理模块,开始测试。
S2:测试管理模块按照测试用例列表顺序,逐一加载测试用例,并基于第一个需要执行的测试用例,以语音、图像、文字等形式,向真值车(测试装置)发送初始测试指令,完成测试系统的初始化。
S3:测试人员执行测试管理模块下发的测试指令,控制真值车完成特定的驾驶任务。
S4:真值车采集原始交通信息,包括通过高精度组合定位模块的采集自身位置和运动状态信息以及通过多重雷达感知模块和全景视频模块采集的周边交通参与者和障碍物位置、运动状态信息。
S5:时间同步模块通过访问被测感知系统的ntp服务器,获取被测感知系统数据的时间参考系,并为真值车高精度组合定位模块、多重雷达感知模块以及全景视频模块采集的原始交通信息数据标记时间戳,实现与被测感知系统的同步授时。
S6:完成时间戳标记的原始交通信息数据通过通信模块上传至测试系统的数据采集模块,进行初步存储;与此同时,数据采集模块也同步接收被测感知系统实时上报的带时间戳数据。
S7:测试管理模块实时调用数据采集模块所采集的最新数据,获取最新的真值车位置和运动状态信息,将其与测试指令所预设的位置、运动状态、机动动作序列进行比对,检测真值车对测试用例的完成情况。
S801:若真值车完成当前用例的指令序列,则判断是否完成测试用例列表中的所有用例。
S802:若真值车未完成当前用例的指令序列,则重复S3至S7的过程。
S901:若真值车完成测试用例列表中的所有用例,则判断真值车所采集的信息是否覆盖融合感知系统的感知能力所能覆盖到的所有区域。
S902:若真值车未完成测试用例列表中的所有用例,则重复S3至S7的过程。
S1001:若真值车所采集的信息已经覆盖融合感知系统的感知能力所能覆盖到的所有区域,则停止真值车的信息采集工作,并调取数据采集模块所接收的所有真值车采集的信息。
S1002:若真值车所采集的信息未覆盖融合感知系统的感知能力所能覆盖到的所有区域,查找信息采集盲区,人工发布特定测试指令或测试用例,重复S3至S7以及S801、S901的过程,使真值车所采集的信息能够覆盖这些盲区。
S11:将真值车采集信息转化为包含交通参与者感知、交通事件感知和交通流感知信息的真值数据。
S12:对生成的真值数据进行数据质量控制,依照数据类型的不同,采用不同的方法进行数据质量控制。
S13:设置一个标准时间戳序列,其时间刻度为0.1秒,选取同时早于真值数据起始时间以及被测数据起始时间、且是0.1秒整数倍的最晚时间作为标准时间戳序列的起始时间,选取同时晚于真值数据结束时间以及被测数据结束时间、且是0.1秒整数倍的最早时间作为标准时间戳序列的结束时间。采用线性内插法,计算标准时间戳序列各时间刻度下的真值数据和被测数据,实现真值数据和被测数据的时间戳匹配。
S14:以统计分析图、坐标点位图等可视化形式对已完成质量控制和时间匹配处理的真值数据进行回放,观察是否存在异常值或者缺失值。
S1501:若处理后真值数据中仍然存在异常值或缺失值,则重复进行步骤S13的人工部分以及S14。
S1502:若下处理后真值数据中未发现异常值或缺失值,则将真值数据进行存储,用于后续的评价过程,测试结束。
本实施例提供的车路云一体化交通融合感知测试方法,通过获取测试车辆采集的数据与被测感知系统采集的数据,将二者进行时间同步,判断测试车辆采集数据是否覆盖完全被测感知系统的感知范围,消除了评价存在盲区的问题,进而实现了测试内容全覆盖。通过对测试车辆采集的数据进行处理,得到精度更高且更全面的感知评价数据,提升了测试数据的可靠性,为对融合感知能力的综合评价以及多维度评价提供了数据支撑,进而实现了对交通感知系统的感知能力全面且精度更高的能力测试,进一步提升测试效率和可靠性。
在本实施例中提供了一种车路云一体化交通融合感知测试方法,可用于上述的车路云一体化交通融合感知测试系统,图3是根据本发明实施例的另一车路云一体化交通融合感知测试方法的流程图,如图3所示,该流程包括如下步骤:
步骤S301,获取测试指令,并基于测试指令,控制测试车辆在被测感知系统所处区域运动。详细请参见图1所示实施例的步骤S101,在此不再赘述。
步骤S302,采集测试车辆在运动过程中的原始交通信息,并获取被测感知系统的感知数据。详细请参见图1所示实施例的步骤S102,在此不再赘述。
步骤S303,基于被测感知系统,对原始交通信息进行时间同步,得到采集数据。
具体地,上述步骤S303包括:
步骤S3031,获取被测感知系统的时间参考系。
步骤S3032,基于时间参考系,对原始交通信息标记时间戳,得到采集数据
在一示例中,利用时间同步模块,通过访问被测感知系统的ntp服务器,获取被测感知系统数据的时间参考系,并为真值车高精度组合定位模块、多重雷达感知模块以及全景视频模块采集的原始交通信息数据标记时间戳,实现与被测感知系统的同步授时。完成时间戳标记的原始交通信息数据通过通信模块上传至测试系统的数据采集模块,进行初步存储;与此同时,数据采集模块也同步接收被测感知系统实时上报的带时间戳数据。
在该方式中,通过对原始交通信息进行标记时间戳,将测试车辆采集的数据与被测感知系统的采集的数据进行试件同步,确保后续生成的感知评价数据与被测感知系统采集的感知数据的时间误差处在可接受范围内,防止感知评价数据与感知数据的时间戳匹配过程出现明显的“伪对齐”情况,提高评价结果的准确性。
步骤S304,基于感知数据,确定被测感知系统的感知范围。
具体地,上述步骤S304包括:
步骤S3041,基于感知数据,判断被测感知系统能否生成每一时刻对测试车辆的感知结果。
步骤S3042,在被测感知系统能生成当前时刻对测试车辆的感知结果且无法生成下一时刻对测试车辆的感知结果时,将测试车辆当前时刻的位置确定为可感知临界点。
步骤S3043,基于所有可感知临界点形成区域的边界,确定被测感知系统的感知范围。
在一示例中,真值车数据覆盖范围的确认依靠对比真值车以及被测感知系统感知数据来实现:当被测感知系统可以生成关于真值车的感知结果时,真值车所处位置为可感知点位,其坐标为真值车位于此点位时的定位坐标;若真值车在本时刻可被被测系统感知,而在下一时刻无法被感知,则此时的位置为可感知点位的临界点;所有可感知点位的临界点可由一个最小面积的封闭曲线包裹,该曲线包裹的区域为被测感知系统的感知范围。
在该方式中,通过判断被测感知系统能否生成每一时刻对测试车辆的感知结果,确定感知范围临界点,进而可以确定被测感知系统的感知范围,便于测试车辆采集覆盖完全被测感知系统的范围。
步骤S305,判断采集数据是否覆盖感知范围。
具体地,上述步骤S305包括:
步骤S3051,将采集数据中测试车辆的轨迹数据投射至感知范围。
步骤S3052,判断测试车辆的轨迹数据是否覆盖感知范围。
步骤S3053,在测试车辆的轨迹数据覆盖感知范围时,确定采集数据覆盖感知范围。
步骤S3054,在测试车辆的轨迹数据未覆盖感知范围时,返回获取测试指令,并基于测试指令,控制测试车辆在被测感知系统所处区域运动的步骤,直至测试车辆的轨迹数据覆盖感知范围。
在一示例中,将真值车的轨迹数据投射到被测对象感知范围内,则可获知真值车数据覆盖范围并可确定真值数据采集的盲区。
在该方式中,通过实时测试车辆采集的数据与感知范围,显示测试车辆采集的数据的区域对感知范围的覆盖情况,指导测试车辆的数据采集,实现对感知范围的全覆盖,消除评价盲区,通过识别感知范围,进而可以确定感知范围内重叠区域,便于后续对重叠区域的着重重复测试。若真值车所采集的信息已经覆盖融合感知系统的感知能力所能覆盖到的所有区域,则停止真值车的信息采集工作,并调取数据采集模块所接收的所有真值车采集的信息。若真值车所采集的信息未覆盖融合感知系统的感知能力所能覆盖到的所有区域,查找信息采集盲区,人工发布特定测试指令或测试用例,返回获取测试指令,并基于测试指令,控制测试车辆在被测感知系统所处区域运动的步骤,直至测试车辆的轨迹数据覆盖感知范围,使真值车所采集的信息能够覆盖这些盲区。
步骤S306,在采集数据覆盖感知范围时,基于采集数据,生成被测感知系统的感知评价数据。详细请参见图1所示实施例的步骤S106,在此不再赘述。
步骤S307,利用感知评价数据对感知数据进行评价,得到被测感知系统的感知能力测试结果。详细请参见图1所示实施例的步骤S107,在此不再赘述。
本实施例提供的车路云一体化交通融合感知测试方法,通过对原始交通信息进行标记时间戳,将测试车辆采集的数据与被测感知系统的采集的数据进行试件同步,确保后续生成的感知评价数据与被测感知系统采集的感知数据的时间误差处在可接受范围内,防止感知评价数据与感知数据的时间戳匹配过程出现明显的“伪对齐”情况,提高评价结果的准确性。通过判断被测感知系统能否生成每一时刻对测试车辆的感知结果,确定感知范围临界点,进而可以确定被测感知系统的感知范围,便于测试车辆采集覆盖完全被测感知系统的范围。通过实时测试车辆采集的数据与感知范围,显示测试车辆采集的数据的区域对感知范围的覆盖情况,指导测试车辆的数据采集,实现对感知范围的全覆盖,消除评价盲区,通过识别感知范围,进而可以确定感知范围内重叠区域,便于后续对重叠区域的着重重复测试。
在本实施例中提供了一种车路云一体化交通融合感知测试方法,可用于上述的车路云一体化交通融合感知测试系统,图4是根据本发明实施例的又一车路云一体化交通融合感知测试方法的流程图,如图4所示,该流程包括如下步骤:
步骤S401,获取测试指令,并基于测试指令,控制测试车辆在被测感知系统所处区域运动。详细请参见图3所示实施例的步骤S301,在此不再赘述。
步骤S402,采集测试车辆在运动过程中的原始交通信息,并获取被测感知系统的感知数据。详细请参见图3所示实施例的步骤S302,在此不再赘述。
步骤S403,基于被测感知系统,对原始交通信息进行时间同步,得到采集数据。详细请参见图3所示实施例的步骤S303,在此不再赘述。
步骤S404,基于感知数据,确定被测感知系统的感知范围。详细请参见图3所示实施例的步骤S304,在此不再赘述。
步骤S405,判断采集数据是否覆盖感知范围。详细请参见图3所示实施例的步骤S305,在此不再赘述。
步骤S406,在采集数据覆盖感知范围时,基于采集数据,生成被测感知系统的感知评价数据。
具体地,上述步骤S406包括:
步骤S4061,基于采集数据,生成被测感知系统的交通参与者感知数据。
在一些可选的实施方式中,交通参与者感知数据包括交通参与者体积数据与障碍物体积数据;上述步骤S4061包括:
步骤a1,将采集数据转化为UTM坐标系下的横纵坐标信息。
步骤a2,基于横纵坐标信息,计算得到测试车辆的感知范围内交通参与者信息与障碍物信息。
步骤a3,对交通参与者信息与障碍物信息进行识别,得到交通参与者体积数据与障碍物体积数据。
在一示例中,将真值车定位数据中的坐标从WGS84坐标系下的经纬度坐标(单位为deg)转换为UTM坐标系下的横纵坐标(单位为m);基于真值车自身UTM坐标、速度、方向角等信息,结合真值车感知设备输出的关于周边交通环境的相对运动状态信息,计算真值车感知范围内的交通参与者以及障碍物的UTM坐标、速度、方向角等信息;查找真值车车辆参数,获取真值车体积、颜色和目标类型等信息;基于真值车感知设备输出的视频数据,采用YOLO算法对交通参与者以及障碍物的目标类型、颜色等信息进行自动识别,之后通过人工校对进行核验;基于真值车感知设备输出的物体体积数据以及原始点云数据,采用优化后的最小包围盒算法获取真值车周边物体沿运动方向的最小包围盒,对体积数据进行调整,经过人工校对核验后,得到交通参与者以及障碍物的长宽高体积数据。
具体地,交通参与者感知信息包括:真值车以及周边物体在UTM坐标系下的二维坐标及轨迹/>、区号/>、半球标识/>、速度/>、方向角/>、尺寸/>(包括长度/>、宽度/>、高度/>)、颜色/>、目标类型/>等信息,具体计算过程为:
①获取同一时刻的高精度组合定位模块的采集自身位置(WGS84坐标系下的经纬度数据)和运动状态信息/>(包括速度/>、方向角/>)以及通过多重雷达感知模块和全景视频模块采集的原始交通信息数据/>和/>。
② 将真值车在WGS84坐标系下经纬度位置通过WGS84转UTM的投影算法转换为在UTM坐标系下的坐标/>、区号/>和半球标识/>,真值车的尺寸参数(长度/>、宽度/>、高度/>)则直接通过该车型的产品参数来确定。
③ 采用基于速度矢量优化后的最小包围盒算法,从多重雷达感知模块采集的信息数据(点云数据)中获取真值车周边物体沿运动方向的最小包围盒,最小包围盒的数量即为多重雷达感知模块能够感知到的周边物体数量/>,基于每个最小包围盒中的点云位置和速度矢量均值,计算出第/>个物体/>相对真值车的相对纵向位置/>、相对横向位置/>、相对速度/>和相对方向角/>,第/>个物体所对应最小包围盒的长/>、宽/>、高/>则为该物体的尺寸/>。
④ 采用YOLO算法,从全景视频模块采集的信息数据(视频数据)中对真值车周边物体的图像进行分割、识别分类和标框,标框数量即为全景视频模块能够感知到的周边物体数量/>,第/>个物体(/>)所对应标框的类别标签即为该物体的目标类型/>,标框内像素的主体颜色即为该物体的颜色/>。
⑤ 以多重雷达感知模块所在位置为视场原点,将采集的点云数据基于视场原点在x轴、y轴、z轴上进行整体平移,并围绕三轴进行整体旋转,改变俯仰角、横滚角和偏航角,实现多重雷达感知模块点云图像视场与全景视频模块视频图像视场的完全重合。
⑥ 在经过校准重合后的点云图像和视频图像中,设定FOV为120度的虚拟视场,从面向车辆正前方的角度开始,在每一帧中,以顺时针方向,分别在旋转0度、60度、120度、180度、240度、300度后的视场范围内,对点云图像中最小包围盒平面投影和视频图像中的标框进行匹配。具体匹配过程为:假设视场内点云图像中存在个最小包围盒、视频图像中存在/>个标框,选取点云图像中第/>个(/>)最小包围盒的平面投影,计算与视频图像中的所有/>个标框之间的交并比/>(/>),取其中的最大值,若/>大于预设的阈值/>(/>,具体取值视情况而定),则/>与相对应的第个标框即为与第/>个最小包围盒相关联的标框,两者所对应的视频识别结果(目标类型和颜色信息)和点云识别结果(与真值车之间的相对纵向位置、相对横向位置、相对速度和相对方向角以及尺寸信息)所描述的对象为同一物体,匹配完成。
⑦ 假设完成匹配后,共有个周边物体的数据,根据真值车在UTM坐标系下的坐标/>、区号/>、半球标识/>、速度/>和方向角/>,结合第/>个物体()相对真值车的相对纵向位置/>、相对横向位置/>、相对速度/>和相对方向角,计算第/>个物体在UTM坐标系下的坐标/>、区号/>、半球标识/>、轨迹/>、速度/>和方向角/>,完成真值车采集信息向交通参与者感知信息的转化。
在该方式中,通过将测试车辆采集的数据,转化为更为全面且准确地表征交通参与者的交通参与者感知数据,为后续对被测感知系统的测评提供数据支持。
步骤S4062,基于采集数据,生成被测感知系统的交通事件感知数据。
在一些可选的实施方式中,上述步骤S4062包括:
步骤b1,设置影响车辆通行和交通安全异常交通状况或行为的识别条件。
步骤b2,基于识别条件,对采集数据进行识别,得到交通事件信息。
在一示例中,调用交通参与者感知信息;采用阈值法和电子围栏法,结合目标类型数据,对各目标的感知结果进行跨帧追踪,每种类型的交通事件对应特定参数的阈值或电子围栏或两者的结合条件;若出现某种类型目标的特定参数低于/高于特定交通事件所设置的阈值或进入/离开特定交通事件所设置的电子围栏,并且持续时间超过对应时间阈值,则判定发生了对应的交通事件,并记录该事件发生和结束时刻的时间戳(对于结束时刻时间戳,若不具备记录条件,则不记录)以及相关目标的id;基于真值车定位数据和视频数据,对标记的交通事件以及相关目标的id进行人工核验,形成最终的交通事件真值数据。
具体地,交通事件感知信息包括在道路上发生的,影响车辆通行和交通安全异常交通状况或行为,包括停止事件、逆行事件、行人事件、抛洒物事件、拥堵事件、机动车驶离事件、低速行驶事件、超速行驶事件。
上述交通事件的定义和检测方式如下:
① 停止事件:
定义:车辆在道路上由行驶改变为静止状态,且静止时间不小于某一设定值的交通事件。
检测方式:调用交通参与者感知信息,筛选出被识别为车辆的物体id,追踪这些id的速度参数在连续多个信息帧下的变化情况;如有出现速度从区间(/>为以当前帧为中心的5分钟时间窗内所有车辆的速度均值,/>为对应的标准差)降至0,并且持续停止时间超过预设阈值/>的情况,则判定对应id的车辆出现停止事件;对事件类型和物体id进行记录,此外,还需记录速度降到0时的时间戳作为事件发生时刻,若数据中能够检测出该物体速度恢复至/>的区间,则还需记录速度开始提升时的时间戳作为事件结束时刻。
② 逆行事件:
定义:车辆在道路上的行驶方向与规定方向相反,且行驶距离不小于某一设定值的交通事件。
检测方式:预先采集检测区域的车道级高精度地图,获取车道线坐标数据,选定黄实线坐标序列作为电子围栏边界,划分路端的上行方向和下行方向;调用交通参与者感知信息,筛选出被识别为车辆的物体id,追踪这些id的航向角以及位置相对于电子围栏的关系;如有出现航向角方向与位置所在路端方向不一致,并且持续时间超过预设阈值的情况,则判定对应id的车辆出现逆行事件;对事件类型和物体id进行记录,此外,还需记录发现该物体逆向行驶时的时间戳作为事件发生时刻,若数据中能够检测出该物体跨越电子围栏返回应当所在车道,则还需记录完成跨越电子围栏时的时间戳作为事件结束时刻。
③ 行人事件:
定义:行人进入机动车道或其他禁止进入的区域,且行走时间或行走距离不小于某一设定值的交通事件。
检测方式:预先采集检测区域的车道级高精度地图,获取路段最外侧的机动车道线坐标数据并将其作为电子围栏边界;调用交通参与者感知信息,筛选出被识别为行人的物体id,追踪这些id的位置相对于电子围栏的关系;如有出现位置跨越电子围栏,进入机动车道,并且持续时间超过预设阈值的情况,则判定对应id的行人出现行人事件;对事件类型和物体id进行记录,此外,还需记录发现该物体位于机动车道时的时间戳作为事件发生时刻,若数据中能够检测出该物体跨越电子围栏退出机动车道,则还需记录完成跨越电子围栏时的时间戳作为事件结束时刻。
④ 抛洒物事件:
定义:车道上物体从行驶车辆上遗落,干扰车道通行,且其状态持续时间不小于某一设定值的交通事件。
检测方式:调用交通参与者感知信息,筛选出被识别为障碍物的物体id,追踪这些id的位置和速度参数;如有目标在机动车道上突然出现,从移动状态快速变为静止状态,并且持续存在时间超过预设阈值的情况,则判定对应id的物体出现抛洒物事件;对事件类型和物体id进行记录,此外,还需记录发现该物体位于机动车道时的时间戳作为事件发生时刻。
⑤ 拥堵事件
定义:道路上出现单车道或多车道拥堵状况,影响道路畅通的交通事件。
检测方式:调用交通参与者感知信息,筛选出被识别为车辆的物体id,追踪这些id的速度参数;计算以当前帧为中心的5分钟时间窗内所有车辆的速度均值,结合所在道路设计时速,判断/>所属区间,确定路段是否拥堵并确定拥堵水平;如判断结果表明存在拥堵情况,记录出现拥堵事件,同时记录拥堵等级以及当前时间戳。
⑥ 机动车驶离事件:
定义:行驶中的机动车辆异常驶离正常行驶区域的交通事件。
检测方式:预先采集检测区域的车道级高精度地图,获取路段最外侧的机动车道线坐标数据并将其作为电子围栏边界;调用交通参与者感知信息,筛选出被识别为车辆的物体id,追踪这些id的位置相对于电子围栏的关系;如有出现位置跨越电子围栏,离开机动车道,并且持续时间超过预设阈值的情况,则判定对应id的车辆出现机动车驶离事件;对事件类型和物体id进行记录,此外,还需记录发现该物体跨越电子围栏离开机动车道时的时间戳作为事件发生时刻,若数据中能够检测出该物体返回机动车道,则还需记录完成返回时的时间戳作为事件结束时刻。
⑦ 低速行驶事件:
定义:车辆在道路上的行驶速度远低于附近其他车辆速度,且该状态持续时间不小于某一设定值的交通事件。
检测方式:调用交通参与者感知信息,筛选出被识别为车辆的物体id,追踪这些id的速度参数在连续多个信息帧下的变化情况;如有出现速度低于同帧内其他车辆速度均值的一半,且持续时间超过预设阈值的情况,则判定对应id的车辆出现低速行驶事件;对事件类型和物体id进行记录,此外,还需记录速度异常的时间戳。
⑧ 超速行驶事件:
定义:车辆在道路上的行驶速度超过路段限速,且该状态持续时间不小于某一设定值的交通事件。
检测方式: 调用交通参与者感知信息,筛选出被识别为车辆的物体id,追踪这些id的速度参数在连续多个信息帧下的变化情况;如有出现速度超过路段限速的10%,且持续时间超过预设阈值的情况,则判定对应id的车辆出现超速行驶事件;对事件类型和物体id进行记录,此外,还需记录速度异常的时间戳。
在该方式中,通过将测试车辆采集的数据,转化为更为全面且准确地表征交通事件的交通事件感知数据,为后续对被测感知系统的测评提供数据支持。
步骤S4063,基于采集数据,生成被测感知系统的交通流感知数据。
在一些可选的实施方式中,上述步骤S4063包括:
步骤c1,基于采集数据,计算测试车辆的感知范围内其他所有车辆的平均速度,得到交通流平均速度。
步骤c2,基于交通流平均速度,计算得到交通流密度。
步骤c3,基于交通流密度,计算得到交通流流量。
在一示例中,将真值车自身以及周边车辆视为浮动车,计算真值车感知范围内所有浮动车的平均速度,得到交通流平均速度;计算真值车感知范围内所有浮动车的前后车车头间距,换算得到交通流密度;根据交通流三要素关系计算交通流流量;基于交通参与者感知数据进行数据回溯,人工核验交通流感知数据转化结果。
具体地,交通流感知信息包括流量、平均速度/>、密度/>,具体计算过程为:
① 将真值车视为浮动车,将融合感知系统覆盖的道路划分成若干区段,分区段调取真值车位于该区段时的所有交通参与者感知信息,筛选出被识别为车辆的物体id,提取这些id的位置、速度数据。
② 计算各帧信息中的车辆速度均值,并对各帧的车速均值取均值,计算得相应道路区段的平均速度,单位km/h。
③ 计算各帧信息中,相邻前后车之间的平均车头间距,并对各帧的平均车头间距取均值,之后取其倒数并乘以1000,计算得相应道路区段的密度,单位pcu/km。
④ 根据交通流三参数关系,即,计算得相应道路区段的流量/>,单位pcu/h。
在该方式中,通过将测试车辆采集的数据,转化为更为全面且准确地表征交通流的交通流感知数据,为后续对被测感知系统的测评提供数据支持。
具体地,在利用感知评价数据对感知数据进行评价之前,方法还包括:
步骤S407,对感知评价数据进行质量控制,得到质量控制后的感知评价数据。
在一示例中,真值数据质量控制过程依照数据类型的不同,采用不同的方法。对于除轨迹(坐标)以外的连续数据,采用“算法自动处理+人工核验”的方式进行,首先通过集合经验模态分解(EEMD)方法将连续的时间序列数据分解为多个不同频率的内涵模态分量(IMF)以及残差,并根据各IMF分量的频谱分布数据计算其频谱分布标准差,之后采用卡尔曼滤波方法对频谱分布标准差超过预先设置阈值的IMF分量进行滤波处理,然后将所有被滤波处理以及未处理的IMF和残差重新合成,形成降噪修复后数据,最后进行人工核验,框选需要重新降噪修复数据的时间戳范围,设置新的滤波阈值等参数后重新自动处理,或者在上述范围内手动绘制若干控制点后,采用三次样条差值法重新生成数据;对于轨迹数据,采用“算法自动识别+人工处理”的方式进行,首先按照时间顺序对相邻轨迹点两两连接,形成一系列向量并计算向量的真北角,采用阈值法识别真北角突变点,对应时间戳的轨迹点即为轨迹异常点,根据人工观察结果,在异常点附近框选需要重新降噪修复数据的时间戳范围,在范围内绘制若干控制点,采用三次样条差值法重新生成轨迹数据;对于非连续数据,如目标外观以及交通事件相关数据,采用“视频回溯+人工核验”的方式进行,通过视频回溯并在视频上标记识别结果,由人工核验识别结果是否准确,同时手动纠错。
具体地,对生成的真值数据进行数据质量控制,依照数据类型的不同,采用不同的方法,具体如下:
1)对于除轨迹(坐标)以外的连续数据,采用“算法自动处理+人工核验”的方式进行,具体如下:
① 通过集合经验模态分解(EEMD)方法将连续的时间序列数据分解为多个不同频率的内涵模态分量(IMF)以及残差。
② 根据各IMF分量的频谱分布数据计算其频谱分布标准差。
③ 采用卡尔曼滤波方法对频谱分布标准差超过预先设置阈值的IMF分量进行滤波处理。
④ 将所有被滤波处理以及未处理的IMF和残差重新合成,形成降噪修复后数据。
⑤ 进行人工核验,框选需要重新降噪修复数据的时间戳范围,设置新的滤波阈值等参数后重新自动处理,或者在上述范围内手动绘制若干控制点后,采用三次样条差值法重新生成数据。
2)对于轨迹数据,采用“算法自动识别+人工处理”的方式进行,具体如下:
① 按照时间顺序对相邻轨迹点两两连接,形成一系列向量并计算向量的真北角。
② 采用阈值法识别真北角突变点,对应时间戳的轨迹点即为轨迹异常点。
③ 根据人工观察结果,在异常点附近框选需要重新降噪修复数据的时间戳范围。
④ 在范围内绘制若干控制点,采用三次样条差值法重新生成轨迹数据。
3)对于非连续数据,如目标外观以及交通事件相关数据,采用“视频回溯+人工核验”的方式进行,具体如下:
① 通过视频回溯并在视频上标记识别结果。
② 人工核验识别结果是否准确,同时手动纠错。
步骤S408,基于时间参考系,建立标准时间戳序列;
步骤S409,基于标准时间戳序列,对质量控制后的感知评价数据与感知数据进行时间戳匹配,得到时间戳匹配的感知评价数据与感知数据。
在一示例中,时间戳匹配过程需要对真值数据进行重新整理,使每条被测数据均有一条相同时间戳的真值数据相对应,由于真值数据原始信息的采集过程中所标记的时间戳并非与被测数据时间戳完全一致,因此,需要进行插值处理来计算出与被测数据时间戳相对应的真值数据,针对真值数据中的连续数据,采用三次Hermite插值法;针对真值数据中的离散化数据,采用就近匹配赋值的方法。
具体地,设置一个标准时间戳序列,其时间刻度为0.1秒,选取同时早于真值数据起始时间以及被测数据起始时间、且是0.1秒整数倍的最晚时间作为标准时间戳序列的起始时间,选取同时晚于真值数据结束时间以及被测数据结束时间、且是0.1秒整数倍的最早时间作为标准时间戳序列的结束时间。采用线性内插法,计算标准时间戳序列各时间刻度下的真值数据和被测数据,实现真值数据和被测数据的时间戳匹配。
在该方式中,通过建立标准时间戳序列,将感知评价数据与感知数据进行时间戳匹配,为后续基于时间戳对感知评价数据与感知数据进行数据的规范化调用。
步骤S410,利用感知评价数据对感知数据进行评价,得到被测感知系统的感知能力测试结果。详细请参见图3所示实施例的步骤S307,在此不再赘述。
本实施例提供的车路云一体化交通融合感知测试方法,通过将测试车辆采集的数据转化为与融合感知标准件所提供服务数据内容相同的交通参与者感知、交通事件感知以及交通流感知真值数据,进一步实现了测试内容全覆盖,与此同时,便于后续增加测试车辆,提升测试效率。通过设计真值数据质量控制方法,包含基于小波变换的数据异常点自动识别方法以及基于经验模式分解的异常数据修复方法,实现对车端真值数据的半自动化质量控制和回溯,提高真值数据可靠性。
在本实施例中还提供了一种车路云一体化交通融合感知测试装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供一种车路云一体化交通融合感知测试装置,如图5所示,包括:
指令获取模块501,用于获取测试指令,并基于测试指令,控制测试车辆在被测感知系统所处区域运动。详细请参见图1所示实施例的步骤S101,在此不再赘述。
数据采集模块502,用于采集测试车辆在运动过程中的原始交通信息,并获取被测感知系统的感知数据。详细请参见图1所示实施例的步骤S102,在此不再赘述。
时间同步模块503,用于基于被测感知系统,对原始交通信息进行时间同步,得到采集数据。详细请参见图1所示实施例的步骤S103,在此不再赘述。
范围确定模块504,用于基于感知数据,确定被测感知系统的感知范围。详细请参见图1所示实施例的步骤S104,在此不再赘述。
范围判断模块505,用于判断采集数据是否覆盖感知范围。详细请参见图1所示实施例的步骤S105,在此不再赘述。
评价数据生成模块506,用于在采集数据覆盖感知范围时,基于采集数据,生成被测感知系统的感知评价数据。详细请参见图1所示实施例的步骤S106,在此不再赘述。
能力测试模块507,用于利用感知评价数据对感知数据进行评价,得到被测感知系统的感知能力测试结果。详细请参见图1所示实施例的步骤S107,在此不再赘述。
在一示例中,图6是根据本发明实施例基于车端真值的云控基础平台融合感知能力测试系统和测试装置的结构框图,用以实现如图2所示的感知能力测试方法。如图6所示,测试系统由硬件部分和软件部分组成,其中硬件部分为测试装置,以真值车的形态呈现,负责采集原始交通信息;软件部分为真值数据处理工具链,负责将原始交通信息处理为包含交通参与者感知、交通事件感知和交通流感知信息的真值数据。
1)硬件部分(即测试装置)由高精度组合定位模块、多重雷达感知模块、全景视频模块、车载终端、通信模块、便携式车顶支架、便携式舱内设备架、人机交互界面以及车辆载体组成。其中:
① 高精组合定位模块由车辆轮速计、惯性导航设备以及RTK差分定位设备组成,用于将航迹递推数据、惯性导航数据以及差分定位数据进行融合,在信号条件好的条件下能够达到厘米级定位精度,在信号环境差的情况下,能够在较长时间内保持较高的定位精度。
② 多重雷达感知模块由1台全向激光雷达和4台检测角度90度左右的毫米波雷达组成,激光雷达探测距离较远,但穿透性差,在天气条件较好时起主要作用;毫米波雷达探测距离较近,但穿透性好,在雨、雪、雾等恶劣天气条件下起主要作用。两类雷达设备均输出周边物体到真值车的距离、相对运动状态、物体尺寸等信息,同时输出原始点云数据,用以人工校验感知结果。
③ 全景视频模块由1台全景摄像机组成,持续采集测试过程中的全景影像,用于目标特征识别和交通事件识别。
④ 车载终端由处理器、高速缓存、数据接口、屏幕、扬声器组成,运行车端的测试系统,提供图像、文字和声音形式的人机交互界面,用于与高精度组合定位模块、多重雷达感知模块和全景视频模块建立物理数据通道,缓存感知数据并上传至云端平台,同时接收云端平台下达的测试指令,并通过人机交互界面向真值车驾驶人推送测试指令,指导完成测试任务。
⑤ 通信模块支持4G、5G、WiFi、C-V2X等多种通信方式,能够在较为偏远的测试场地与云端平台建立连接,并保证在时延较低的前提下为测试数据上传以及测试指令下发提供足够带宽。
⑥ 便携式车顶支架采用碳纤维、铝合金等轻质材料制作,由多个可伸缩、可折叠的零部件构成,包括2个可伸缩主横梁、2个可折叠底层平台板、4个毫米波雷达支撑立柱、1个可折叠相机/激光雷达支架。可伸缩主横梁一前一后横置在车顶,具备卡扣以固定在前后门门框上方,部署时尽量保证水平对齐;可折叠底层平台版一左一右竖置平铺固定于主横梁之上,形成一个水平平台;相机/激光雷达支架展开后具有两层,上层布置全向激光雷达、下层布置全景相机,通过卡扣固定在水平平台之上;毫米波雷达支撑立柱分别竖立布设于两条主横梁的两端,支撑4个毫米波雷达,形成环绕车身的360度扫描区域。RTK天线以及通信模块天线由于自带磁吸能力,可直接吸附于车顶适当位置,因此无需在便携式车顶支架上设置专用部署位。
⑦ 便携式舱内设备架设置2个分层以及1个屏幕支架,用于将车载终端主机、通信模块主机、高精度组合定位模块主机进行规范化固定和保护,并将屏幕面向驾驶人的角度调整到合适位置。便携式舱内设备架通过3M胶固定在中控台副驾驶侧。
⑧ 车辆载体装载所有测试装置,车型视需求而定,需要具备合法上路牌照。
2)软件部分由时间同步模块、数据采集模块、数据质量控制模块、真值存储模块和测试管理模块组成,部署在云端。其中:
① 时间同步模块基于被测系统架设的NTP服务器实现,为真值系统和被测系统提供低误差的校时服务,真值系统和被测系统的数据采集设备通过访问NTP服务器,分别为真值数据帧和被测数据帧标记处于相同时间参考系下的时间戳。若被测系统未架设NTP服务器,则真值系统和被测系统的数据采集设备以各自所在系统的RTK设备作为时间源,分别为真值数据帧和被测数据帧标记RTK设备输出的卫星时间并将其作为相同时间参考系下的时间戳。
② 数据采集模块负责接收、解析被测系统和真值系统数据,并将这些数据进行临时存储以供后续对采集的原始真值信息进行后处理形成高质量真值数据,或支撑测试管理模块对实时监控测试状态的数据需求。
③ 真值处理模块负责将真值车的原始真值数据转化为交通参与者感知数据、交通事件感知数据和交通流感知数据,当多辆真值车同时执行测试任务时,可将真值数据进行去重处理。
④ 质量控制模块负责通过“自动+人工”的方式对交通参与者感知真值、交通事件感知真值和交通流感知真值进行异常识别和修复,支持对原始真值数据进行数据回溯。
⑤ 时间匹配模块负责提供时间刻度为0.1s的标准时间戳序列,并利用线形内插法调整被测数据以及经过质量控制的校对后真值数据,实现真值数据和被测数据的时间戳匹配,以供后续的工具能够基于时间戳进行数据的规范化调用。
⑥ 真值存储模块负责将校对后且完成时间匹配的高质量真值数据按照交通参与者感知、交通事件感知和交通流感知的主题进行分类存储,以供后续的评价工作使用。
⑦ 测试管理模块可对测试用例进行设计和编排,支持各类基于地图的数据上图展示,实时更新测试执行情况以及真值数据对被测对象感知范围的覆盖情况。可根据正在执行的测试用例以及当前真值车的状态,实时自动生成和下发需要真值车执行的测试任务,同时支持手动向车辆下发特定测试任务参数,如位置、目标速度、机动行为等。
上述各个模块和单元的更进一步的功能描述与上述对应实施例相同,在此不再赘述。
本实施例中的车路云一体化交通融合感知测试装置是以功能单元的形式来呈现,这里的单元是指ASIC(Application Specific Integrated Circuit,专用集成电路)电路,执行一个或多个软件或固定程序的处理器和存储器,和/或其他可以提供上述功能的器件。
本发明实施例还提供一种车路云一体化交通融合感知测试系统,包括:测试车辆与计算机设备,测试车辆用于采集运动过程中的原始交通信息;计算机设备用于执行上述实施例中的车路云一体化交通融合感知测试方法。
请参阅图7,图7是本发明可选实施例提供的一种车路云一体化交通融合感知测试系统中计算机设备的结构示意图,如图7所示,该计算机设备包括:一个或多个处理器10、存储器20,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相通信连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在计算机设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在一些可选的实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个计算机设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器10为例。
处理器10可以是中央处理器,网络处理器或其组合。其中,处理器10还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路,可编程逻辑器件或其组合。上述可编程逻辑器件可以是复杂可编程逻辑器件,现场可编程逻辑门阵列,通用阵列逻辑或其任意组合。
其中,所述存储器20存储有可由至少一个处理器10执行的指令,以使所述至少一个处理器10执行实现上述实施例示出的方法。
存储器20可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器20可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些可选的实施方式中,存储器20可选包括相对于处理器10远程设置的存储器,这些远程存储器可以通过网络连接至该计算机设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
存储器20可以包括易失性存储器,例如,随机存取存储器;存储器也可以包括非易失性存储器,例如,快闪存储器,硬盘或固态硬盘;存储器20还可以包括上述种类的存储器的组合。
该计算机设备还包括通信接口30,用于该计算机设备与其他设备或通信网络通信。
本发明实施例还提供了一种计算机可读存储介质,上述根据本发明实施例的方法可在硬件、固件中实现,或者被实现为可记录在存储介质,或者被实现通过网络下载的原始存储在远程存储介质或非暂时机器可读存储介质中并将被存储在本地存储介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件的存储介质上的这样的软件处理。其中,存储介质可为磁碟、光盘、只读存储记忆体、随机存储记忆体、快闪存储器、硬盘或固态硬盘等;进一步地,存储介质还可以包括上述种类的存储器的组合。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件,当软件或计算机代码被计算机、处理器或硬件访问且执行时,实现上述实施例示出的方法。
虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (12)
1.一种车路云一体化交通融合感知测试方法,其特征在于,所述方法包括:
获取测试指令,并基于所述测试指令,控制测试车辆在被测感知系统所处区域运动;
采集所述测试车辆在运动过程中的原始交通信息,并获取所述被测感知系统的感知数据;
基于所述被测感知系统,对所述原始交通信息进行时间同步,得到采集数据;
基于所述感知数据,确定所述被测感知系统的感知范围;
判断所述采集数据是否覆盖所述感知范围;
在所述采集数据覆盖所述感知范围时,基于所述采集数据,生成所述被测感知系统的感知评价数据;
利用所述感知评价数据对所述感知数据进行评价,得到所述被测感知系统的感知能力测试结果。
2.根据权利要求1所述的方法,其特征在于,所述基于所述被测感知系统,对所述原始交通信息进行时间同步,得到采集数据,包括:
获取所述被测感知系统的时间参考系;
基于所述时间参考系,对所述原始交通信息标记时间戳,得到采集数据。
3.根据权利要求1所述的方法,其特征在于,所述基于所述感知数据,确定所述被测感知系统的感知范围,包括:
基于所述感知数据,判断所述被测感知系统能否生成每一时刻对所述测试车辆的感知结果;
在所述被测感知系统能生成当前时刻对所述测试车辆的感知结果且无法生成下一时刻对所述测试车辆的感知结果时,将所述测试车辆当前时刻的位置确定为可感知临界点;
基于所有可感知临界点形成区域的边界,确定所述被测感知系统的感知范围。
4.根据权利要求3所述的方法,其特征在于,所述判断所述采集数据是否覆盖所述感知范围,包括:
将所述采集数据中所述测试车辆的轨迹数据投射至所述感知范围;
判断所述测试车辆的轨迹数据是否覆盖所述感知范围;
在所述测试车辆的轨迹数据覆盖所述感知范围时,确定所述采集数据覆盖所述感知范围;
在所述测试车辆的轨迹数据未覆盖所述感知范围时,返回所述获取测试指令,并基于所述测试指令,控制测试车辆在被测感知系统所处区域运动的步骤,直至所述测试车辆的轨迹数据覆盖所述感知范围。
5.根据权利要求1所述的方法,其特征在于,所述基于所述采集数据,生成所述被测感知系统的感知评价数据,包括:
基于所述采集数据,生成所述被测感知系统的交通参与者感知数据;
基于所述采集数据,生成所述被测感知系统的交通事件感知数据;
基于所述采集数据,生成所述被测感知系统的交通流感知数据。
6.根据权利要求5所述的方法,其特征在于,所述交通参与者感知数据包括交通参与者体积数据与障碍物体积数据;
所述基于所述采集数据,生成所述交通参与者感知数据,包括:
将所述采集数据转化为UTM坐标系下的横纵坐标信息;
基于所述横纵坐标信息,计算得到所述测试车辆的感知范围内交通参与者信息与障碍物信息;
对所述交通参与者信息与障碍物信息进行识别,得到所述交通参与者体积数据与所述障碍物体积数据。
7.根据权利要求5所述的方法,其特征在于,所述基于所述采集数据,生成所述被测感知系统的交通事件感知数据,包括:
设置影响车辆通行和交通安全异常交通状况或行为的识别条件;
基于所述识别条件,对所述采集数据进行识别,得到交通事件信息。
8.根据权利要求5所述的方法,其特征在于,所述交通流感知数据包括:交通流平均速度、交通流密度与交通流流量;
所述基于所述采集数据,生成所述被测感知系统的交通流感知数据,包括:
基于所述采集数据,计算所述测试车辆的感知范围内其他所有车辆的平均速度,得到所述交通流平均速度;
基于所述交通流平均速度,计算得到所述交通流密度;
基于所述交通流密度,计算得到所述交通流流量。
9.根据权利要求2所述的方法,其特征在于,在所述利用所述感知评价数据对所述感知数据进行评价之前,所述方法还包括:
对所述感知评价数据进行质量控制,得到质量控制后的感知评价数据;
基于所述时间参考系,建立标准时间戳序列;
基于所述标准时间戳序列,对所述质量控制后的感知评价数据与所述感知数据进行时间戳匹配,得到时间戳匹配的感知评价数据与感知数据。
10.一种车路云一体化交通融合感知测试装置,其特征在于,所述装置包括:
指令获取模块,用于获取测试指令,并基于所述测试指令,控制测试车辆在被测感知系统所处区域运动;
数据采集模块,用于采集所述测试车辆在运动过程中的原始交通信息,并获取所述被测感知系统的感知数据;
时间同步模块,用于基于所述被测感知系统,对所述原始交通信息进行时间同步,得到采集数据;
范围确定模块,用于基于所述感知数据,确定所述被测感知系统的感知范围;
范围判断模块,用于判断所述采集数据是否覆盖所述感知范围;
评价数据生成模块,用于在所述采集数据覆盖所述感知范围时,基于所述采集数据,生成所述被测感知系统的感知评价数据;
能力测试模块,用于利用所述感知评价数据对所述感知数据进行评价,得到所述被测感知系统的感知能力测试结果。
11.一种车路云一体化交通融合感知测试系统,其特征在于,包括:
测试车辆,所述测试车辆用于采集运动过程中的原始交通信息;
计算机设备,所述计算机设备包括:存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行权利要求1至9中任一项所述的车路云一体化交通融合感知测试方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令用于使计算机执行权利要求1至9中任一项所述的车路云一体化交通融合感知测试方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311110142.9A CN116824869B (zh) | 2023-08-31 | 2023-08-31 | 车路云一体化交通融合感知测试方法、装置、系统及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311110142.9A CN116824869B (zh) | 2023-08-31 | 2023-08-31 | 车路云一体化交通融合感知测试方法、装置、系统及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116824869A true CN116824869A (zh) | 2023-09-29 |
CN116824869B CN116824869B (zh) | 2023-11-24 |
Family
ID=88139639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311110142.9A Active CN116824869B (zh) | 2023-08-31 | 2023-08-31 | 车路云一体化交通融合感知测试方法、装置、系统及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116824869B (zh) |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017180394A1 (en) * | 2016-04-12 | 2017-10-19 | Pcms Holdings, Inc. | Method and system for online performance monitoring of the perception system of road vehicles |
CN108061881A (zh) * | 2017-10-25 | 2018-05-22 | 中国第汽车股份有限公司 | 扩大智能驾驶车载雷达感知范围的装置和控制方法 |
WO2021159549A1 (zh) * | 2020-02-14 | 2021-08-19 | 深圳市美舜科技有限公司 | 一种用于交通安全路况感知评估的方法 |
CN113379805A (zh) * | 2021-08-12 | 2021-09-10 | 深圳市城市交通规划设计研究中心股份有限公司 | 一种交通节点的多信息资源融合处理方法 |
CN113419233A (zh) * | 2021-06-18 | 2021-09-21 | 阿波罗智能技术(北京)有限公司 | 感知效果的测试方法、装置和设备 |
CN113850237A (zh) * | 2021-11-29 | 2021-12-28 | 华砺智行(武汉)科技有限公司 | 基于视频和轨迹数据的网联车目标检测评价方法及系统 |
CN113984085A (zh) * | 2021-11-16 | 2022-01-28 | 华东交通大学 | 一种雨雪覆盖道路的信息感知方法、系统以及可存储介质 |
CN114120650A (zh) * | 2021-12-15 | 2022-03-01 | 阿波罗智联(北京)科技有限公司 | 用于生成测试结果的方法、装置 |
CN114238790A (zh) * | 2021-12-15 | 2022-03-25 | 阿波罗智联(北京)科技有限公司 | 用于确定最大感知范围的方法、装置、设备以及存储介质 |
CN114323693A (zh) * | 2021-12-31 | 2022-04-12 | 中国第一汽车股份有限公司 | 车路云感知系统的测试方法、装置、设备及存储介质 |
CN114373305A (zh) * | 2021-12-30 | 2022-04-19 | 北京玄星智能科技有限公司 | 一种智能网联车辆环境感知方法 |
CN114764876A (zh) * | 2022-04-29 | 2022-07-19 | 中国第一汽车股份有限公司 | 用于感知融合算法的评价方法以及评价装置 |
CN115257768A (zh) * | 2022-08-12 | 2022-11-01 | 庆铃汽车(集团)有限公司 | 一种智能驾驶车辆环境感知方法、系统、设备及介质 |
CN115346367A (zh) * | 2022-07-26 | 2022-11-15 | 上海交通大学 | 一种车路协同系统的测试系统及其测试方法 |
CN115577314A (zh) * | 2022-09-06 | 2023-01-06 | 合众新能源汽车有限公司 | 一种基于多传感器信息融合的智能汽车协作控制系统 |
CN116229708A (zh) * | 2022-12-15 | 2023-06-06 | 信通院车联网创新中心(成都)有限公司 | 基于v2i的路侧感知系统对交通目标的感知测试方法 |
CN116401154A (zh) * | 2023-03-17 | 2023-07-07 | 北京四维图新科技股份有限公司 | 一种视觉感知系统的测试方法、装置、产品及车辆 |
CN116416780A (zh) * | 2021-12-29 | 2023-07-11 | 北京万集科技股份有限公司 | 一种路侧感知系统的测试方法、装置、测试设备和介质 |
CN116580271A (zh) * | 2023-05-17 | 2023-08-11 | 中国第一汽车股份有限公司 | 一种感知融合算法的测评方法、装置、设备及存储介质 |
-
2023
- 2023-08-31 CN CN202311110142.9A patent/CN116824869B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017180394A1 (en) * | 2016-04-12 | 2017-10-19 | Pcms Holdings, Inc. | Method and system for online performance monitoring of the perception system of road vehicles |
CN108061881A (zh) * | 2017-10-25 | 2018-05-22 | 中国第汽车股份有限公司 | 扩大智能驾驶车载雷达感知范围的装置和控制方法 |
WO2021159549A1 (zh) * | 2020-02-14 | 2021-08-19 | 深圳市美舜科技有限公司 | 一种用于交通安全路况感知评估的方法 |
CN113419233A (zh) * | 2021-06-18 | 2021-09-21 | 阿波罗智能技术(北京)有限公司 | 感知效果的测试方法、装置和设备 |
CN113379805A (zh) * | 2021-08-12 | 2021-09-10 | 深圳市城市交通规划设计研究中心股份有限公司 | 一种交通节点的多信息资源融合处理方法 |
CN113984085A (zh) * | 2021-11-16 | 2022-01-28 | 华东交通大学 | 一种雨雪覆盖道路的信息感知方法、系统以及可存储介质 |
CN113850237A (zh) * | 2021-11-29 | 2021-12-28 | 华砺智行(武汉)科技有限公司 | 基于视频和轨迹数据的网联车目标检测评价方法及系统 |
CN114238790A (zh) * | 2021-12-15 | 2022-03-25 | 阿波罗智联(北京)科技有限公司 | 用于确定最大感知范围的方法、装置、设备以及存储介质 |
CN114120650A (zh) * | 2021-12-15 | 2022-03-01 | 阿波罗智联(北京)科技有限公司 | 用于生成测试结果的方法、装置 |
CN116416780A (zh) * | 2021-12-29 | 2023-07-11 | 北京万集科技股份有限公司 | 一种路侧感知系统的测试方法、装置、测试设备和介质 |
CN114373305A (zh) * | 2021-12-30 | 2022-04-19 | 北京玄星智能科技有限公司 | 一种智能网联车辆环境感知方法 |
CN114323693A (zh) * | 2021-12-31 | 2022-04-12 | 中国第一汽车股份有限公司 | 车路云感知系统的测试方法、装置、设备及存储介质 |
CN114764876A (zh) * | 2022-04-29 | 2022-07-19 | 中国第一汽车股份有限公司 | 用于感知融合算法的评价方法以及评价装置 |
CN115346367A (zh) * | 2022-07-26 | 2022-11-15 | 上海交通大学 | 一种车路协同系统的测试系统及其测试方法 |
CN115257768A (zh) * | 2022-08-12 | 2022-11-01 | 庆铃汽车(集团)有限公司 | 一种智能驾驶车辆环境感知方法、系统、设备及介质 |
CN115577314A (zh) * | 2022-09-06 | 2023-01-06 | 合众新能源汽车有限公司 | 一种基于多传感器信息融合的智能汽车协作控制系统 |
CN116229708A (zh) * | 2022-12-15 | 2023-06-06 | 信通院车联网创新中心(成都)有限公司 | 基于v2i的路侧感知系统对交通目标的感知测试方法 |
CN116401154A (zh) * | 2023-03-17 | 2023-07-07 | 北京四维图新科技股份有限公司 | 一种视觉感知系统的测试方法、装置、产品及车辆 |
CN116580271A (zh) * | 2023-05-17 | 2023-08-11 | 中国第一汽车股份有限公司 | 一种感知融合算法的测评方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116824869B (zh) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018116108B4 (de) | Kalibrierungsprüfverfahren für den betrieb von autonomen fahrzeugen sowie fahrzeug mit einer steuerung zur ausführung des verfahrens | |
US10685246B2 (en) | Systems and methods for curb detection and pedestrian hazard assessment | |
DE112020004133T5 (de) | Systeme und verfahren zur identifizierung möglicher kommunikationshindernisse | |
DE112020006426T5 (de) | Systeme und verfahren zur fahrzeugnavigation | |
DE102018116107A1 (de) | Kalibrierungsverfahren für den betrieb von autonomen fahrzeugen | |
DE112020003897T5 (de) | Systeme und verfahren zur überwachung von fahrspurüberlastung | |
DE112020002175T5 (de) | Systeme und verfahren zur fahrzeugnavigation | |
DE112018002143T5 (de) | Systeme und verfahren zur kompression von fahrspurdaten | |
DE112020004931T5 (de) | Systeme und verfahren zur bestimmung der verkehrssicherheit | |
US10699567B2 (en) | Method of controlling a traffic surveillance system | |
DE102018132509A1 (de) | Ein Fahrzeug und ein Verfahren zur fahrzeugübergreifenden Zusammenarbeit zur Erfassung von physischer äußerlicher Beschädigung | |
CN110174093A (zh) | 定位方法、装置、设备和计算机可读存储介质 | |
DE102018107754A1 (de) | Objektverfolgung | |
DE102016123887A1 (de) | Virtuelle sensordatenerzeugung zur radanschlagdetektion | |
CN108021862A (zh) | 道路标志识别 | |
JP2018092501A (ja) | 車載用画像処理装置 | |
KR20180126193A (ko) | 자율주행 테스트 시스템 | |
US11162800B1 (en) | Accident fault detection based on multiple sensor devices | |
CN105702152A (zh) | 地图生成方法和装置 | |
DE112020002869T5 (de) | Navigationssysteme und verfahren zum bestimmen von objektabmessungen | |
DE112020002592T5 (de) | Systeme und verfahren zur fahrzeugnavigation basierend auf bildanalyse | |
DE112014002959T5 (de) | Bestimmung der Fahrspurposition | |
DE112021002680T5 (de) | Systeme und verfahren zum erkennen einer offenen tür | |
DE102019125131A1 (de) | Sensorblickfeldabbildung | |
EP3581886A1 (de) | Verfahren und vorrichtung zum bestimmen einer position eines kraftfahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |