CN110853393B - 智能网联车辆测试场数据采集与融合方法及系统 - Google Patents

智能网联车辆测试场数据采集与融合方法及系统 Download PDF

Info

Publication number
CN110853393B
CN110853393B CN201911176850.6A CN201911176850A CN110853393B CN 110853393 B CN110853393 B CN 110853393B CN 201911176850 A CN201911176850 A CN 201911176850A CN 110853393 B CN110853393 B CN 110853393B
Authority
CN
China
Prior art keywords
data
vehicle
test field
dynamic
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911176850.6A
Other languages
English (en)
Other versions
CN110853393A (zh
Inventor
王建强
林学武
刘艺璁
黄荷叶
郑讯佳
许庆
李克强
杨奕彬
涂茂然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201911176850.6A priority Critical patent/CN110853393B/zh
Publication of CN110853393A publication Critical patent/CN110853393A/zh
Application granted granted Critical
Publication of CN110853393B publication Critical patent/CN110853393B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种智能网联车辆测试场数据采集与融合方法及系统,该方法包括:步骤1,根据采集到的测试场内的静态数据,构建测试场内地图的静态层;步骤2,路侧动态数据采集模块对感知范围内的动态目标进行跟踪,并通过生成相应标号下的航迹数据管理文件;步骤3,通过车端动态数据采集模块获取自车位置数据、自车驾驶状态数据和自车周围环境数据,由车载计算单元对动态目标的航迹进行初步融合;步骤4,数据融合及可视化模块构建测试场内地图的动态层;步骤5,通过增添和更改的方式模拟智能网联车辆测试所需的各种交通场景;步骤6,通过数据融合及可视化模块实时显示以及输送给测试智能网联车辆进行测试。本发明能够全面采集测试场内的各种信息。

Description

智能网联车辆测试场数据采集与融合方法及系统
技术领域
本发明涉及自动驾驶技术领域,特别是关于一种智能网联车辆测试场数据采集与融合方法及系统。
背景技术
智能网联车辆是搭载车端动态数据采集模块及V2X设备的新型车辆,其追求在驾驶过程中的“安全、舒适、高效、节能”,在缓解交通拥堵、降低事故发生率方面具有很大的潜力,智能网联车辆的测试对其发展具有非常重要的影响。目前美国、日本和欧洲等都在建立并完善本国的智能网联测试场,我国的智能网联车辆测试场也正在建造中。
如何对智能网联车辆测试场中的数据进行合理完善地采集和利用,是目前急需解决的问题。然而,现有的数据采集方法具有以下不足:(1)没有针对智能车辆测试场建立完善的数据采集及融合体系,存在数据利用不充分的问题;(2)不具备集成的测试场数据采集设备;(3)没有考虑在数据采集阶段对数据进行模拟补充和修订,难以满足智能网联车辆测试过程中所需的数据要求。
因此需要提出一种合理的智能网联车辆测试场数据采集与融合方法,实现对测试场内数据完整采集并融合,以供测试场控制中心使用。
发明内容
本发明的目的在于提供一种智能网联车辆测试场数据采集与融合方法及系统来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目的,本发明提供一种智能网联车辆测试场数据采集与融合方法,智能网联车辆测试场数据采集与融合方法包括:步骤1,根据采集到的测试场内的静态数据,对测试场内地图的静态数据进行标定,以构建测试场内地图的静态层;其中,所述静态数据包括采集到的道路数据、道路上的静态物体数据以及测试智能网联车辆数据;所述道路数据包括道路结构和位置以及车道的宽度、行车方向、车道线类型和附着系数;所述静态物体数据包括静态物体的位置、外形尺寸和类型;该静态物体包括静态障碍物、交通标识和其它静态物;步骤2,在所述测试场内的路侧设置多个路侧动态数据采集模块,每一个所述路侧动态数据采集模块对应传输给与其对应的路侧计算单元;其中,所述路侧动态数据采集模块包括车辆定位杆以及集成在车辆定位杆的的GPS差分基站、摄像头、毫米波雷达、光照传感器、能见度仪以及温度和湿度传感器,并将所述路侧动态数据采集模块提供的差分信号范围覆盖整个所述测试场;对所述路侧动态数据采集模块中的各传感设备进行标号,并标定所述路侧动态数据采集模块在测试场坐标系的坐标以及摄像头和毫米波雷达的感知范围;所述摄像头和毫米波雷达对感知范围内的动态目标进行跟踪,并通过对应的所述路侧计算单元进行坐标变换、时间对齐、数据关联和航迹跟踪,计算所述动态目标的航迹数据和状态,生成相应标号下的航迹数据管理文件;其中,所述动态目标的航迹数据和状态包括动态目标的相对位置、速度、朝向、类别和运动轨迹;所述光照传感器、能见度仪和温度和湿度传感器采集当前环境的能见度、光照、温度和湿度数据;步骤3,通过测试智能网联车辆中的车端动态数据采集模块获取自车位置数据、自车驾驶状态数据和自车周围环境数据,并根据所述自车周围环境数据对动态目标进行航迹跟踪以及将获取的各数据传送给车载计算单元,由所述车载计算单元对采集到的各数据进行标号,生成相应标号下的航迹数据管理文件,并传输至与其临近的所述路侧计算单元,所述路侧计算单元将其计算得的动态目标的航迹与车载计算单元输入的动态目标航迹进行时间对齐以及将动态目标的航迹信息由车辆坐标系转换到测试场平面坐标系下,以对动态目标的航迹进行初步融合;其中,所述自车位置坐标的获取方法包括:车端动态数据采集模块中车载GPS设备接收GPS信号和路侧动态数据采集模块发出的GPS差分信号,计算出准确的GPS位置坐标,并结合车端动态数据采集模块测量得到的车辆定位杆的相对位置信息,计算自车在测试场平面坐标系中的坐标;其中,所述自车驾驶状态数据的获取方法包括:智能网联车辆对采集到的自车车载信息进行标号,生成相应标号下的数据管理文件;所述自车车载信息包括自车的位置、速度、横纵向加速度、发动机转矩、车轮角速度以及实验所需的车辆的控制量;其中,所述自车的周围环境数据包括自车周围动态物体的相对位置、朝向、形状和类别;步骤4,根据所述步骤1得到的静态层、所述步骤2生成的所述动态目标的航迹管理文件和采集到的当前环境数据以及所述步骤3初步融合得到的动态目标的航迹以及获取的自车位置坐标、自车驾驶状态数据和自车周围环境数据,数据融合及可视化模块依照航迹数据管理文件的标号确定各航迹在测试场平面坐标系下的位置,将所有坐标变化后的航迹数据进行数据融合,将所有动态目标位置标定至所述静态层上,并记录所有动态目标的航迹数据、目标类型、形状,以及将当前环境的能见度、光照、温度和湿度数据记录至测试场环境数据管理文件中,以构建所述测试场内地图的动态层;步骤5,根据所述步骤1得到的静态层和所述步骤4得到的动态层,增添所述测试场内需要的动态目标,更改所述测试场内的地面附着系数、道路结构、静态障碍物类型和位置、天气、以及车辆相关数据,以及重新测量所述测试场内精度要求较高的静态数据并采用步骤1提供的方法更改测试场内的静态数据,以模拟出所述智能网联车辆测试所需的各种交通场景,并输送给所述数据融合及可视化模块;步骤6,通过所述数据融合及可视化模块将所述步骤5获得的所述交通场景进行实时显示以及输送给测试智能网联车辆进行测试。
本发明还提供一种智能网联车辆测试场数据采集与融合系统,智能网联车辆测试场数据采集与融合系统包括:静态数据预标定模块,其用于根据采集到的测试场内的静态数据,对测试场内地图的静态数据进行标定,以构建测试场内地图的静态层;其中,所述静态数据包括采集到的道路数据、道路上的静态物体数据以及测试智能网联车辆数据;所述道路数据包括道路结构和位置以及车道的宽度、行车方向、车道线类型和附着系数;所述静态物体数据包括静态物体的位置、外形尺寸和类型;该静态物体包括静态障碍物、交通标识和其它静态物;路侧动态数据采集模块,其设置在所述测试场内的路侧;其中,所述路侧动态数据采集模块包括车辆定位杆以及集成在车辆定位杆的GPS差分基站、摄像头、毫米波雷达、光照传感器、能见度仪以及温度和湿度传感器,并将所述路侧动态数据采集模块提供的差分信号范围覆盖整个所述测试场;对所述路侧动态数据采集模块中的各传感设备进行标号,并标定所述路侧动态数据采集模块在测试场坐标系的坐标以及摄像头和毫米波雷达的感知范围;所述光照传感器、能见度仪和温度和湿度传感器采集当前环境的能见度、光照、温度和湿度数据;路侧计算单元,每一个所述路侧动态数据采集模块对应传输给与其对应的路侧计算单元,所述路侧计算单元用于控制所述摄像头和毫米波雷达对感知范围内的动态目标进行跟踪,并进行坐标变换、时间对齐、数据关联和航迹跟踪,计算所述动态目标的航迹数据和状态,生成相应标号下的航迹数据管理文件;其中,所述动态目标的航迹数据和状态包括动态目标的相对位置、速度、朝向、类别和运动轨迹;测试智能网联车辆中的车端动态数据采集模块,其用于获取自车位置数据、自车驾驶状态数据和自车周围环境数据;测试智能网联车辆中的车载计算单元,其用于接收所述车端动态数据采集模块采集到的数据,并根据所述自车周围环境数据对动态目标进行航迹跟踪以及对采集到的各数据进行标号,生成相应标号下的航迹数据管理文件,并传输至与其临近的所述路侧计算单元,所述路侧计算单元将其计算得的动态目标的航迹与车载计算单元输入的动态目标航迹进行时间对齐以及将动态目标的航迹信息由车辆坐标系转换到测试场平面坐标系下,以对动态目标的航迹进行初步融合;其中,所述自车位置坐标的获取方法包括:车端动态数据采集模块中车载GPS设备接收GPS信号和路侧动态数据采集模块发出的GPS差分信号,计算出准确的GPS位置坐标,并结合车端动态数据采集模块测量得到的车辆定位杆的相对位置信息,计算自车在测试场平面坐标系中的坐标;其中,所述自车驾驶状态数据的获取方法包括:智能网联车辆对采集到的自车车载信息进行标号,生成相应标号下的数据管理文件;所述自车车载信息包括自车的位置、速度、横纵向加速度、发动机转矩、车轮角速度以及实验所需的车辆的控制量;其中,所述自车的周围环境数据包括自车周围动态物体的相对位置、朝向、形状和类别;数据融合及可视化模块,其用于根据所述静态数据预标定模块得到的静态层、所述路侧计算单元生成的所述动态目标的航迹管理文件和采集到的当前环境数据以及所述车载计算单元初步融合得到的动态目标的航迹以及获取的自车位置坐标、自车驾驶状态数据和自车周围环境数据,依照航迹数据管理文件的标号确定各航迹在测试场平面坐标系下的位置,将所有坐标变化后的航迹数据进行数据融合,将所有动态目标位置标定至所述静态层上,并记录所有动态目标的航迹数据、目标类型、形状,以及将当前环境的能见度、光照、温度和湿度数据记录至测试场环境数据管理文件中,以构建所述测试场内地图的动态层;模拟数据及人工修订模块,其用于根据所述静态数据预标定模块得到的静态层和所述数据融合及可视化模块得到的动态层,增添所述测试场内需要的动态目标,更改所述测试场内的地面附着系数、道路结构、静态障碍物类型和位置、天气、以及车辆相关数据,以及重新测量所述测试场内精度要求较高的静态数据并采用静态数据预标定模块提供的方法更改测试场内的静态数据,以模拟出所述智能网联车辆测试所需的各种交通场景,并输送给所述数据融合及可视化模块,通过所述数据融合及可视化模块将所述模拟数据及人工修订模块获得的所述交通场景进行实时显示以及输送给测试智能网联车辆进行测试。
本发明根据智能网联车辆测试要求,对测试场内的多种信息具有全面的采集,同时,提供了模拟数据的人为输入接口,可以实现智能网联车辆测试所需的各种难以真实实现的交通场景。
本发明可直接用于智能网联车辆测试场数据采集方案的设计与实施。
附图说明
图1为本发明实施例所提供的智能网联车辆测试场数据采集与融合系统的原理性示意图;
图2为图1中的路侧动态数据采集模块的结构示意图;
图3为图1中的数据采集及融合系统的通信拓扑结构示意图;
图4为图1中的数据采集及融合系统流程示意图;
图5为一个具体的测试场的场景示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述。
如图1所示,本实施例所提供的智能网联车辆测试场数据采集与融合方法包括:
步骤1,根据采集到的测试场内的静态数据,对测试场内地图的静态数据进行标定,以构建测试场内地图的静态层。其中,所述静态数据包括采集到的道路数据、道路上的静态物体数据以及测试智能网联车辆数据。所述道路数据包括道路结构和位置以及车道的宽度、行车方向、车道线类型和在不同天气下的附着系数。所述静态物体数据包括静态物体的位置、外形尺寸和类型。该静态物体包括静态障碍物、交通标识和其它静态物,静态障碍物相关数据包括护栏、电线杆和路牙等的位置及形状。交通标识牌相关数据包括交通标识牌类型和交通标识牌位置。车辆相关数据包括车辆质量和轮胎侧偏刚度等。上述各“位置”均指的是在测试场平面坐标系中的坐标。
步骤2,在路侧设置多个路侧动态数据采集模块。其中,如图2所示,将所述路侧动态数据采集模块提供的差分信号范围覆盖整个测试场。所述路侧动态数据采集模块包括车辆定位杆7以及集成在车辆定位杆7上的GPS差分基站1、光照传感器2、摄像头3、毫米波雷达4、能见度仪5和温度和湿度传感器6,中:车辆定位杆7固定设置在测试场路侧,用于提高车辆定位精度。GPS差分基站1用于广播定位差分信号,以提高测试场内车辆的GPS定位精度。为了保持差分信号良好,GPS差分基站1设置在车辆定位杆7的顶部。光照传感器2用于采集当前位置的光照强度及光照方向数据。光照传感器2设置在车辆定位杆7的顶部,以保证无光照无遮挡。毫米波雷达4和摄像头3用于采集数据动态目标的位置、速度、朝向、以及航迹信息。其中,动态目标包括测试场内的行人、车辆及其它测试所需设置的运动障碍物。能见度仪5用于采集测试场的能见度。温度和湿度传感器6用于采集当前位置的温度、湿度信息。通过路侧动态数据采集模块采集测试场内的动态目标的数据,其主要包括车辆、行人的位置、速度、朝向和航迹,道路的路面状况,多个位置当前时刻的能见度、光照强度及朝向,测试场内温度、湿度等。本步骤中,路侧动态数据采集模块不仅局限于使用摄像头与毫米波雷达,使用其它传感器,如激光雷达、双目相机等也可以实现对动态目标的数据采集。
每一个所述路侧动态数据采集模块将其采集到的数据对应通过V2X通信设备传输给与其对应的路侧计算单元,路侧计算单元可以为工控机,用于对当前路侧动态数据采集模块获得的数据进行初步分析和融合。具体地,路侧计算单元对所述路侧动态数据采集模块中的各传感设备进行标号,并标定所述路侧动态数据采集模块在测试场坐标系的坐标以及摄像头和毫米波雷达的感知范围。路侧计算单元控制所述摄像头和毫米波雷达利用多传感器数据融合及跟踪算法,如Kalman Filtering和MSJPDA方法,对感知范围内的动态目标进行跟踪,并通过对应的路侧计算单元进行坐标变换、时间对齐、数据关联和航迹跟踪,计算得到所述动态目标的航迹数据和状态,生成相应标号下的航迹数据管理文件。其中,所述动态目标的航迹数据和状态包括动态目标的相对于路侧动态数据采集模块的位置、速度、朝向、类别和运动轨迹。
“坐标变换”指的是将动态目标的位置会运动轨迹从摄像头提供的图像坐标系和毫米波雷达的自身坐标系转换到测试场平面坐标系中。“时间对齐”指的是利用数据插值、外推的方法将不同传感器数据在频率和相位上进行对齐。“数据关联”指摄像头和毫米波雷达感知并计算得的多个动态目标轨迹之间进行关联。例如摄像头感知并跟踪了5个目标,毫米波雷达感知并跟踪了3个目标,需要确定5个目标和3个目标之间的对应关系,这就是数据关联。数据关联的方法非常多,也是目标科学研究的重点,不同方法的准确率和复杂性差别较大。常用的方法是利用不同传感器数据计算得的目标位置之间的相互距离和轨迹的相似程度,去完成不同传感器所计算的目标轨迹进行数据关联。“航迹跟踪”是对动态目标进行跟踪,跟踪利用目标前后帧的位置数据,计算得目标的运动轨迹。
步骤3,测试智能网联车辆具有车端动态数据采集模块(车载传感器)、车载计算单元(工控机)和V2X通信设备。其中,车端动态数据采集模块采集测试智能网联车辆的自车位置数据、自车驾驶状态数据和自车周围环境数据,并根据所述自车周围环境数据对动态目标进行航迹跟踪以及将采集到的数据通过CAN总线输送给车载计算单元。
由所述车载计算单元对采集到的各数据进行标号,生成相应标号下的航迹数据管理文件,并通过V2X通信设备(DSRC/LTE-V)传输至与其临近的所述路侧计算单元。该路侧计算单元将其计算得的动态目标的航迹与车载计算单元输入的动态目标航迹进行时间对齐以及将动态目标的航迹信息由车辆坐标系转换到测试场平面坐标系下,并利用数据融合算法,如Kalman Filtering和MSJPDA,以对动态目标的航迹进行初步融合,并将融合好的数据传输至数据融合及可视化模块。本实施例为了获得更加精确的目标航迹,需要利用车端动态数据采集模块的数据进行二次融合,车端的数据具有其独特优势,这样可以使融合后的数据更加可靠。
其中,测试智能网联车辆的车端动态数据采集模块包括GPS(英文全称为“GlobalPositioning System”,中文全称为“全球定位系统”)设备,如司南M600,可通过电台接收差分信号,并且可通过双GPS信号接收天线信号,车载计算单元根据接收到的天线信号计算车辆的方位角信息。车载计算单元中的摄像头及图像处理程序,如YOLOv3,可处理计算出图像信息中车辆定位杆的相对位置,由此计算出自车的位置。车载计算单元接收所述路侧动态数据采集模块采集到的GPS差分信号,结合车端动态数据采集模块测量得到的车辆定位杆的自车的位置,利用数据融合算法进行融合,如DST(英文全称为“Dempster-ShaferTheory”,中文全称为“证据理论”)方法,计算得出自车在测试场平面坐标系中的坐标,该坐标为更加精确的位置信息。
其中,所述自车位置数据的获取方法包括:车端动态数据采集模块中车载GPS设备接收GPS信号和路侧动态数据采集模块发出的GPS差分信号,计算出准确的GPS位置坐标,并结合车端动态数据采集模块测量得到的车辆定位杆的相对位置信息,计算自车在测试场平面坐标系中的坐标。
其中,所述自车驾驶状态数据的获取方法包括:智能网联车辆对采集到的自车车载信息进行标号,生成相应标号下的数据管理文件。所述自车车载信息包括自车的位置、速度、横纵向加速度、发动机转矩、车轮角速度以及实验所需的车辆的控制量(如节气门开度和制动踏板力矩等)。
其中,所述自车的周围环境数据包括自车周围动态物体的相对位置、朝向、形状和类别。
步骤4,根据所述步骤1得到的静态层、所述步骤2生成的所述动态目标的航迹管理文件和采集到的当前环境数据以及所述步骤3初步融合得到的动态目标的航迹以及获取的自车位置坐标、自车驾驶状态数据和自车周围环境数据,数据融合及可视化模块依照航迹数据管理文件的标号确定各航迹在测试场平面坐标系下的位置,将所有坐标变化后的航迹数据进行数据融合,将所有动态目标位置标定至所述静态层上,并记录所有动态目标的航迹数据、目标类型、形状,以及将当前环境的能见度、光照、温度和湿度数据记录至测试场环境数据管理文件中,以构建所述测试场内地图的动态层。
步骤5,根据所述步骤1得到的静态层和所述步骤4得到的动态层,可以人为地增添所述测试场内需要的动态目标,更改所述测试场内的地面附着系数、道路结构、静态障碍物类型和位置、天气、以及车辆相关数据,以及重新测量所述测试场内精度要求较高的静态数据并采用步骤1提供的方法更改测试场内的静态数据,以模拟出所述智能网联车辆测试所需的各种交通场景,并输送给所述数据融合及可视化模块。
其中,“增添所述测试场内需要的动态目标”首先基于智能网联车辆测试的场景需求,增添所需要的模拟动态目标,如车辆、行人等。所增添的动态目标类型有其运动学模型和交通行为模型,模型中的参数可对不同的动态目标进行调整,以具有充分的交通参与者行为描述能力。增添的动态目标数据与真实采集的动态目标数据相同,可以改变车端数据采集模块数据和/或路侧采集模块数据。另与真实采集的动态目标数据不同之处在于,增添的模拟数据可以直接改变数据融合及可视化模块的数据。测试过程中,设有实时的增添数据接口,可以实时地对数据融合及可视化模块中的动态数据进行增添。
其中,更改的“车辆相关数据”主要包括车辆质量和轮胎侧偏刚度等,所修改的数据直接输入至数据融合及可视化模块,后续由数据融合及可视化模块通过V2X设备传输至车端进行车辆决策。
例如:模拟生成行人、车辆等的航迹数据,更改实验车辆的速度、位置数据,更改测试场内道路结构数据等;同时也可以直接利用该模块的接口输入想修订的数据。根据测试所需的要求进行修订,比如想创建雨雪场景,即可修订当前的天气数据。该部分对修订的准确性没有严格要求,满足测试条件即可。模拟数据是指增添一些测试场内没有的物体,如行人、车辆、静止障碍物等,修订数据主要是针对测试场内已有的数据,比如测试场地地面摩擦系数、测试场的天气状况等。
步骤6,通过所述数据融合及可视化模块将所述步骤5获得的所述交通场景进行实时显示以及通过V2X通信设备输送给测试智能网联车辆进行测试,同时按照采集的时间序列建立一份测试场环境文件,记录各个时刻测试场不同位置的环境数据,即能见度、光照、温度和湿度等。测试智能网联车辆的车载计算单元可根据数据融合及可视化模块输入的信息进行决策,这样可以降低车载计算单元的计算量,对实现边缘计算和云计算奠定基础。
本实施例针对测试智能网联车辆测试过程中所需要的场景可能难以直接实现的困难,比如如果需要一个拥堵的十字路口,很难直接复现这个场景,所以需要添加模拟数据,模拟数据会和真实数据一样被测试智能网联车辆感知到,这样既节约了成本,缩短了测试周期,也降低了测试中的危险系数,同时可以达到测试的目的。供车辆的决策算法使用。
在一个实施例中,如图4和图5所示,所述道路结构包括圆曲线道路和直线道路,所述步骤1具体包括:
步骤11,标定所述道路结构和位置,其具体包括:
步骤111,由车载GPS设备与所述路侧动态数据采集模块采集的所述测试场内各个道路中心线上的点坐标。
步骤112,设定测试场平面坐标系原点及坐标轴方向,并将所述点坐标由经纬度坐标系下转换到测试场平面坐标系下,点坐标测试场平面坐标系下表示为(xi,yi)。
步骤113,对圆曲线道路和直线道路交接处的采集点加权平权处理,其中,直线端点的加权系数为1/μ2,圆曲线处的加权系数为1/e2
步骤114,计算各所述点坐标的点误差和单位权中误差,舍去其中误差值大于3倍单位权中误差值的点,保留所述点误差中误差值小于所述单位权中误差的预设倍数的点坐标并输出,返回步骤111。
步骤115,将所述步骤114留下的各所述点坐标进行曲线拟合,确定最终的道路中心线方程。
步骤12,标定车道的行车方向、车道线类型和附着系数:采集车道的宽度,标定各车道行车方向和车道线类型,生成所述测试场内地图中的道路,并将测量得到的各道路的路面附着系数标定到测试场内地图中相应的道路上。
步骤13,采集所述测试场内所有静态障碍物的几何中心在测试场平面坐标系下的坐标及其外形尺寸和类型,并标定到所述步骤12生成的测试场内地图上。
步骤14,采集测试场内所有交通标识在测试场平面坐标系下的坐标及其类型,并标定到所述步骤12生成的测试场内地图上,构建出所述测试场内地图的静态层。
在一个实施例中,采用下式(1)和式(2)对所述步骤111采集到的所述直线道路的中心线上的所述点坐标进行点误差和单位权中误差计算,输出小于3倍单位权中误差的点坐标:
Figure GDA0002746103890000101
Figure GDA0002746103890000102
式(1)和式(2)中,(xi,yi)表示所述点坐标,i表示点的序号,1≤i≤n;εi表示所述直线道路所对应的直线的各点误差,μ表示述直线道路所对应的直线的单位权中误差,θ表示由采集得的所述点坐标计算出的直线倾斜角。
在一个实施例中,采用下式(3)和式(4)对所述步骤111采集到的所述圆曲线道路的中心线上的所述点坐标进行点误差和单位权中误差计算,输出小于3倍单位权中误差的点坐标:
Figure GDA0002746103890000103
Figure GDA0002746103890000104
式(3)和式(4)中,(xi,yi)表示所述点坐标,i表示点的序号,1≤i≤n;(x0,y0)表示所述圆曲线道路所对应的圆曲线圆心重心化的坐标;di表示所述圆曲线道路所对应的圆曲线的各点误差,e表示所述圆曲线道路所对应的圆曲线的单位权中误差;si、D和R表示为计算过程中的中间量。该中间量均会在计算过程中被消掉,因此无需获知这些中间量的具体数值。
Figure GDA0002746103890000111
Figure GDA0002746103890000112
如图1至图4所示,本发明还提供一种智能网联车辆测试场数据采集与融合系统,该系统包括静态数据预标定模块、路侧动态数据采集模块、路侧计算单元、模拟数据及人工修订模块、数据融合及可视化模块、以及测试智能网联车辆中的车端动态数据采集模块和车载计算单元。其中:
静态数据预标定模块用于根据采集到的测试场内的静态数据,对测试场内地图的静态数据进行标定,以构建测试场内地图的静态层;其中,所述静态数据包括采集到的道路数据、道路上的静态物体数据以及测试智能网联车辆数据;所述道路数据包括道路结构和位置以及车道的宽度、行车方向、车道线类型和附着系数;所述静态物体数据包括静态物体的位置、外形尺寸和类型;该静态物体包括静态障碍物、交通标识和其它静态物。
路侧动态数据采集模块设置在所述测试场内的路侧。其中,如图2所示,将所述路侧动态数据采集模块提供的差分信号范围覆盖整个测试场。所述路侧动态数据采集模块包括车辆定位杆7以及集成在车辆定位杆7上的GPS差分基站1、光照传感器2、摄像头3、毫米波雷达4、能见度仪5和温度和湿度传感器6,中:车辆定位杆7固定设置在测试场路侧,用于提高车辆定位精度。GPS差分基站1用于广播定位差分信号,以提高测试场内车辆的GPS定位精度。为了保持差分信号良好,GPS差分基站1设置在车辆定位杆7的顶部。光照传感器2用于采集当前位置的光照强度及光照方向数据。光照传感器2设置在车辆定位杆7的顶部,以保证无光照无遮挡。毫米波雷达4和摄像头3用于采集数据动态目标的位置、速度、朝向、以及航迹信息。其中,动态目标包括测试场内的行人、车辆及其它测试所需设置的运动障碍物。能见度仪5用于采集测试场的能见度。温度和湿度传感器6用于采集当前位置的温度、湿度信息。通过路侧动态数据采集模块采集测试场内的动态目标的数据,其主要包括车辆、行人的位置、速度、朝向和航迹,道路的路面状况,多个位置当前时刻的能见度、光照强度及朝向,测试场内温度、湿度等。本步骤中,路侧动态数据采集模块不仅局限于使用摄像头与毫米波雷达,使用其它传感器,如激光雷达、双目相机等也可以实现对动态目标的数据采集。
每一个所述路侧动态数据采集模块将采集到的数据对应通过V2X通信设备传输给与其对应的路侧计算单元,路侧计算单元可以为工控机,用于对当前路侧动态数据采集模块获得的数据进行初步分析和融合。具体地,路侧计算单元对所述路侧动态数据采集模块中的各传感设备进行标号,并标定所述路侧动态数据采集模块在测试场坐标系的坐标以及摄像头和毫米波雷达的感知范围。路侧计算单元控制所述摄像头和毫米波雷达利用多传感器数据融合及跟踪算法,如Kalman Filtering和MSJPDA方法,对感知范围内的动态目标进行跟踪,并通过对应的路侧计算单元进行坐标变换、时间对齐、数据关联和航迹跟踪,计算得到所述动态目标的航迹数据和状态,生成相应标号下的航迹数据管理文件。其中,所述动态目标的航迹数据和状态包括动态目标的相对位置、速度、朝向、类别和运动轨迹。
测试智能网联车辆具有车端动态数据采集模块(车载传感器)、车载计算单元(工控机)和V2X通信设备。其中,测试智能网联车辆中的车端动态数据采集模块用于获取自车位置数据、自车驾驶状态数据和自车周围环境数据,并将获取的各数据传送给车载计算单元。
测试智能网联车辆中的车载计算单元,其用于接收所述车端动态数据采集模块采集到的数据,并根据所述自车周围环境数据对动态目标进行航迹跟踪以及对采集到的各数据进行标号,生成相应标号下的航迹数据管理文件,并通过V2X通信设备(DSRC/LTE-V)传输至与其临近的所述路侧计算单元,所述路侧计算单元将其计算得的动态目标的航迹与车载计算单元输入的动态目标航迹进行时间对齐以及将动态目标的航迹信息由车辆坐标系转换到测试场平面坐标系下,并利用数据融合算法,如Kalman Filtering和MSJPDA,以对动态目标的航迹进行初步融合,并将融合好的数据传输至数据融合及可视化模块。本实施例为了获得更加精确的目标航迹,需要利用车端动态数据采集模块的数据进行二次融合,车端的数据具有其独特优势,这样可以使融合后的数据更加可靠。
其中,测试智能网联车辆的车端动态数据采集模块包括GPS(英文全称为“GlobalPositioning System”,中文全称为“全球定位系统”)设备,如司南M600,可通过电台接收差分信号,并且可通过双GPS信号接收天线信号,车载计算单元根据接收到的天线信号计算车辆的方位角信息。车载计算单元中的摄像头及图像处理程序,如YOLOv3,可处理计算出图像信息中车辆定位杆的相对位置,由此计算出自车的位置。车载计算单元接收所述路侧动态数据采集模块采集到的GPS差分信号,结合车端动态数据采集模块测量得到的车辆定位杆的自车的位置,利用数据融合算法进行融合,如DST(英文全称为“Dempster-ShaferTheory”,中文全称为“证据理论”)方法,计算得出自车在测试场平面坐标系中的坐标,该坐标为更加精确的位置信息。
其中,所述自车位置数据的获取方法包括:车端动态数据采集模块中车载GPS设备接收GPS信号和路侧动态数据采集模块发出的GPS差分信号,计算出准确的GPS位置坐标,并结合车端动态数据采集模块测量得到的车辆定位杆的相对位置信息,计算自车在测试场平面坐标系中的坐标。
其中,所述自车驾驶状态数据的获取方法包括:智能网联车辆对采集到的自车车载信息进行标号,生成相应标号下的数据管理文件。所述自车车载信息包括自车的位置、速度、横纵向加速度、发动机转矩、车轮角速度以及实验所需的车辆的控制量(如节气门开度和制动踏板力矩等)。
其中,所述自车的周围环境数据包括自车周围动态物体的相对位置、朝向、形状和类别。
数据融合及可视化模块用于根据所述静态数据预标定模块得到的静态层、所述路侧计算单元生成的所述动态目标的航迹管理文件和采集到的当前环境数据以及所述车载计算单元初步融合得到的动态目标的航迹以及获取的自车位置坐标、自车驾驶状态数据和自车周围环境数据,依照航迹数据管理文件的标号确定各航迹在测试场平面坐标系下的位置,将所有坐标变化后的航迹数据进行数据融合,将所有动态目标位置标定至所述静态层上,并记录所有动态目标的航迹数据、目标类型、形状,以及将当前环境的能见度、光照、温度和湿度数据记录至测试场环境数据管理文件中,以构建所述测试场内地图的动态层。
模拟数据及人工修订模块用于根据所述静态数据预标定模块得到的静态层和所述数据融合及可视化模块得到的动态层,增添所述测试场内需要的动态目标,更改所述测试场内的地面附着系数、道路结构、静态障碍物类型和位置、天气、以及车辆相关数据,以及重新测量所述测试场内精度要求较高的静态数据并采用静态数据预标定模块提供的方法更改测试场内的静态数据,以模拟出所述智能网联车辆测试所需的各种交通场景,并输送给所述数据融合及可视化模块,通过所述数据融合及可视化模块将所述模拟数据及人工修订模块获得的所述交通场景进行实时显示以及输送给测试智能网联车辆进行测试。
在一个实施例中,如图4和图5所示,所述道路结构包括圆曲线道路和直线道路,所述静态数据预标定模块具体包括道路结构和位置标定子模块、车道的行车方向、车道线类型和附着系数标定子模块、静态障碍物的几何中心采集子模块和交通标识采集子模块,其中:
所述道路结构和位置标定子模块的工作流程具体包括:
步骤111,由车载GPS设备与所述路侧动态数据采集模块采集的所述测试场内各个道路中心线上的点坐标。
步骤112,设定测试场平面坐标系原点及坐标轴方向,并将所述点坐标由经纬度坐标系下转换到测试场平面坐标系下。
步骤113,对圆曲线道路和直线道路交接处的采集点加权平权处理,其中,直线端点的加权系数为1/μ2,圆曲线处的加权系数为1/e2
步骤114,计算各所述点坐标的点误差和单位权中误差,保留所述点误差中误差值小于所述单位权中误差的预设倍数的点坐标并输出,返回步骤111。
步骤115,将所述步骤114留下的各所述点坐标进行曲线拟合,确定最终的道路中心线方程。
所述车道的行车方向、车道线类型和附着系数标定子模块用于采集车道的宽度,标定各车道行车方向和车道线类型,生成所述测试场内地图中的道路,并将测量得到的各道路的路面附着系数标定到测试场内地图中相应的道路上。
所述静态障碍物的几何中心采集子模块用于采集所述测试场内所有静态障碍物的几何中心在测试场平面坐标系下的坐标及其外形尺寸和类型,并标定到所述车道的行车方向、车道线类型和附着系数标定子模块生成的测试场内地图上。
所述交通标识采集子模块用于采集测试场内所有交通标识在测试场平面坐标系下的坐标及其类型,并标定到所述车道的行车方向、车道线类型和附着系数标定子模块生成的测试场内地图上,构建出所述测试场内地图的静态层。
在一个实施例中,采用下式(1)和式(2)对所述步骤111采集到的所述直线道路的中心线上的所述点坐标进行点误差和单位权中误差计算,输出小于3倍单位权中误差的点坐标:
Figure GDA0002746103890000151
Figure GDA0002746103890000152
式(1)和式(2)中,(xi,yi)表示所述点坐标,i表示点的序号,1≤i≤n;εi表示所述直线道路所对应的直线的各点误差,μ表示述直线道路所对应的直线的单位权中误差,θ表示由采集得的所述点坐标计算出的直线倾斜角。
在一个实施例中,采用下式(3)和式(4)对所述步骤111采集到的所述圆曲线道路的中心线上的所述点坐标进行点误差和单位权中误差计算,输出小于3倍单位权中误差的点坐标:
Figure GDA0002746103890000153
Figure GDA0002746103890000154
式(3)和式(4)中,(xi,yi)表示所述点坐标,i表示点的序号,1≤i≤n;(x0,y0)表示所述圆曲线道路所对应的圆曲线圆心重心化的坐标;di表示所述圆曲线道路所对应的圆曲线的各点误差,e表示所述圆曲线道路所对应的圆曲线的单位权中误差;si、D和R表示为计算过程中的中间量。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修订,或者对其中部分技术特征进行等同替换;这些修订或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (2)

1.一种智能网联车辆测试场数据采集与融合方法,其特征在于,包括:
步骤1,根据采集到的测试场内的静态数据,对测试场内地图的静态数据进行标定,以构建测试场内地图的静态层;其中,所述静态数据包括采集到的道路数据、道路上的静态物体数据以及测试智能网联车辆数据;所述道路数据包括道路结构和位置以及车道的宽度、行车方向、车道线类型和附着系数;所述静态物体数据包括静态物体的位置、外形尺寸和类型;该静态物体包括静态障碍物、交通标识和其它静态物;所述道路结构包括圆曲线道路和直线道路;
步骤2,在所述测试场内的路侧设置多个路侧动态数据采集模块,每一个所述路侧动态数据采集模块将其采集的数据对应传输给与其对应的路侧计算单元;其中,所述路侧动态数据采集模块包括车辆定位杆以及集成在车辆定位杆的GPS差分基站、摄像头、毫米波雷达、光照传感器、能见度仪以及温度和湿度传感器,并将所述路侧动态数据采集模块提供的差分信号范围覆盖整个所述测试场;对所述路侧动态数据采集模块中的各传感设备进行标号,并标定所述路侧动态数据采集模块在测试场坐标系的坐标以及摄像头和毫米波雷达的感知范围;
所述摄像头和毫米波雷达对感知范围内的动态目标进行跟踪,并通过对应的所述路侧计算单元进行坐标变换、时间对齐、数据关联和航迹跟踪,计算所述动态目标的航迹数据和状态,生成相应标号下的航迹数据管理文件;其中,所述动态目标的航迹数据和状态包括动态目标的相对位置、速度、朝向、类别和运动轨迹;
所述光照传感器、能见度仪和温度和湿度传感器采集当前环境的能见度、光照、温度和湿度数据;
步骤3,通过测试智能网联车辆中的车端动态数据采集模块获取自车位置数据、自车驾驶状态数据和自车周围环境数据,并根据所述自车周围环境数据对动态目标进行航迹跟踪以及将获取的各数据传送给车载计算单元,由所述车载计算单元对采集到的各数据进行标号,生成相应标号下的航迹数据管理文件,并传输至与其临近的所述路侧计算单元,所述路侧计算单元将其计算得的动态目标的航迹与车载计算单元输入的动态目标航迹进行时间对齐以及将动态目标的航迹信息由车辆坐标系转换到测试场平面坐标系下,以对动态目标的航迹进行初步融合;
其中,所述自车位置数据的获取方法包括:车端动态数据采集模块中车载GPS设备接收GPS信号和路侧动态数据采集模块发出的GPS差分信号,计算出准确的GPS位置坐标,并结合车端动态数据采集模块测量得到的车辆定位杆的相对位置信息,计算自车在测试场平面坐标系中的坐标;
其中,所述自车驾驶状态数据的获取方法包括:智能网联车辆对采集到的自车车载信息进行标号,生成相应标号下的数据管理文件;所述自车车载信息包括自车的位置、速度、横纵向加速度、发动机转矩、车轮角速度以及实验所需的车辆的控制量;
其中,所述自车的周围环境数据包括自车周围动态物体的相对位置、朝向、形状和类别;
步骤4,根据所述步骤1得到的静态层、所述步骤2生成的所述动态目标的航迹数据管理文件和采集到的当前环境数据以及所述步骤3初步融合得到的动态目标的航迹以及获取的自车位置坐标、自车驾驶状态数据和自车周围环境数据,数据融合及可视化模块依照航迹数据管理文件的标号确定各航迹在测试场平面坐标系下的位置,将所有坐标变化后的航迹数据进行数据融合,将所有动态目标位置标定至所述静态层上,并记录所有动态目标的航迹数据、目标类型、形状,以及将当前环境的能见度、光照、温度和湿度数据记录至测试场环境数据管理文件中,以构建所述测试场内地图的动态层;
步骤5,根据所述步骤1得到的静态层和所述步骤4得到的动态层,增添所述测试场内需要的动态目标,更改所述测试场内的地面附着系数、道路结构、静态障碍物类型和位置、天气、以及车辆相关数据,以及重新测量所述测试场内精度要求较高的静态数据并采用步骤1提供的方法更改测试场内的静态数据,以模拟出所述智能网联车辆测试所需的各种交通场景,并输送给所述数据融合及可视化模块;
步骤6,通过所述数据融合及可视化模块将所述步骤5获得的所述交通场景进行实时显示以及输送给测试智能网联车辆进行测试;
所述步骤1具体包括:
步骤11,标定所述道路结构和位置,其具体包括:
步骤111,由车载GPS设备与路侧动态数据采集模块采集的所述测试场内各个道路中心线上的点坐标;
步骤112,设定测试场平面坐标系原点及坐标轴方向,并将所述点坐标由经纬度坐标系下转换到测试场平面坐标系下;
步骤113,对圆曲线道路和直线道路交接处的采集点加权平权处理,其中,直线端点的加权系数为1/μ2,圆曲线处的加权系数为1/e2;μ表示所述直线道路所对应的直线的单位权中误差,e表示所述圆曲线道路所对应的圆曲线的单位权中误差;
步骤114,计算各所述点坐标的点误差和单位权中误差,保留所述点误差中误差值小于所述单位权中误差的预设倍数的点坐标并输出,返回步骤111;
步骤115,将所述步骤114留下的各所述点坐标进行曲线拟合,确定最终的道路中心线方程;
步骤12,标定车道的行车方向、车道线类型和附着系数:采集车道的宽度,标定各车道行车方向和车道线类型,生成所述测试场内地图中的道路,并将测量得到的各道路的路面附着系数标定到测试场内地图中相应的道路上;
步骤13,采集所述测试场内所有静态障碍物的几何中心在测试场平面坐标系下的坐标及其外形尺寸和类型,并标定到所述步骤12生成的测试场内地图上;以及
步骤14,采集测试场内所有交通标识在测试场平面坐标系下的坐标及其类型,并标定到所述步骤12生成的测试场内地图上,构建出所述测试场内地图的静态层;
采用下式(1)和式(2)对所述步骤111采集到的所述直线道路的中心线上的所述点坐标进行点误差和单位权中误差计算,输出小于3倍单位权中误差的点坐标:
Figure FDA0002746103880000031
Figure FDA0002746103880000032
式(1)和式(2)中,(xi,yi)表示所述点坐标,i表示点的序号,1≤i≤n;εi表示所述直线道路所对应的直线的各点误差,θ表示由采集得的所述点坐标计算出的直线倾斜角;
采用下式(3)和式(4)对所述步骤111采集到的所述圆曲线道路的中心线上的所述点坐标进行点误差和单位权中误差计算,输出小于3倍单位权中误差的点坐标:
Figure FDA0002746103880000041
Figure FDA0002746103880000042
式(3)和式(4)中,(xi,yi)表示所述点坐标,i表示点的序号,1≤i≤n;(x0,y0)表示所述圆曲线道路所对应的圆曲线圆心重心化的坐标;di表示所述圆曲线道路所对应的圆曲线的各点误差;si、D和R表示为计算过程中的中间量。
2.一种智能网联车辆测试场数据采集与融合系统,其特征在于,包括:
静态数据预标定模块,其用于根据采集到的测试场内的静态数据,对测试场内地图的静态数据进行标定,以构建测试场内地图的静态层;其中,所述静态数据包括采集到的道路数据、道路上的静态物体数据以及测试智能网联车辆数据;所述道路数据包括道路结构和位置以及车道的宽度、行车方向、车道线类型和附着系数;所述静态物体数据包括静态物体的位置、外形尺寸和类型;该静态物体包括静态障碍物、交通标识和其它静态物;所述道路结构包括圆曲线道路和直线道路;
路侧动态数据采集模块,其设置在所述测试场内的路侧;其中,所述路侧动态数据采集模块包括车辆定位杆以及集成在车辆定位杆的GPS差分基站、摄像头、毫米波雷达、光照传感器、能见度仪以及温度和湿度传感器,并将所述路侧动态数据采集模块提供的差分信号范围覆盖整个所述测试场;对所述路侧动态数据采集模块中的各传感设备进行标号,并标定所述路侧动态数据采集模块在测试场坐标系的坐标以及摄像头和毫米波雷达的感知范围;
所述光照传感器、能见度仪和温度和湿度传感器采集当前环境的能见度、光照、温度和湿度数据;
路侧计算单元,每一个所述路侧动态数据采集模块将采集到的数据对应传输给与其对应的路侧计算单元,所述路侧计算单元用于控制所述摄像头和毫米波雷达对感知范围内的动态目标进行跟踪,并进行坐标变换、时间对齐、数据关联和航迹跟踪,计算所述动态目标的航迹数据和状态,生成相应标号下的航迹数据管理文件;其中,所述动态目标的航迹数据和状态包括动态目标的相对位置、速度、朝向、类别和运动轨迹;
测试智能网联车辆中的车端动态数据采集模块,其用于获取自车位置数据、自车驾驶状态数据和自车周围环境数据;
测试智能网联车辆中的车载计算单元,其用于接收所述车端动态数据采集模块采集到的数据,并根据所述自车周围环境数据对动态目标进行航迹跟踪以及对采集到的各数据进行标号,生成相应标号下的航迹数据管理文件,并传输至与其临近的所述路侧计算单元,所述路侧计算单元将其计算得的动态目标的航迹与车载计算单元输入的动态目标航迹进行时间对齐以及将动态目标的航迹信息由车辆坐标系转换到测试场平面坐标系下,以对动态目标的航迹进行初步融合;
其中,所述自车位置数据的获取方法包括:车端动态数据采集模块中车载GPS设备接收GPS信号和路侧动态数据采集模块发出的GPS差分信号,计算出准确的GPS位置坐标,并结合车端动态数据采集模块测量得到的车辆定位杆的相对位置信息,计算自车在测试场平面坐标系中的坐标;
其中,所述自车驾驶状态数据的获取方法包括:智能网联车辆对采集到的自车车载信息进行标号,生成相应标号下的数据管理文件;所述自车车载信息包括自车的位置、速度、横纵向加速度、发动机转矩、车轮角速度以及实验所需的车辆的控制量;
其中,所述自车的周围环境数据包括自车周围动态物体的相对位置、朝向、形状和类别;
数据融合及可视化模块,其用于根据所述静态数据预标定模块得到的静态层、所述路侧计算单元生成的所述动态目标的航迹数据管理文件和采集到的当前环境数据以及所述车载计算单元初步融合得到的动态目标的航迹以及获取的自车位置坐标、自车驾驶状态数据和自车周围环境数据,依照航迹数据管理文件的标号确定各航迹在测试场平面坐标系下的位置,将所有坐标变化后的航迹数据进行数据融合,将所有动态目标位置标定至所述静态层上,并记录所有动态目标的航迹数据、目标类型、形状,以及将当前环境的能见度、光照、温度和湿度数据记录至测试场环境数据管理文件中,以构建所述测试场内地图的动态层;
模拟数据及人工修订模块,其用于根据所述静态数据预标定模块得到的静态层和所述数据融合及可视化模块得到的动态层,增添所述测试场内需要的动态目标,更改所述测试场内的地面附着系数、道路结构、静态障碍物类型和位置、天气、以及车辆相关数据,以及重新测量所述测试场内精度要求较高的静态数据并采用静态数据预标定模块提供的方法更改测试场内的静态数据,以模拟出所述智能网联车辆测试所需的各种交通场景,并输送给所述数据融合及可视化模块,通过所述数据融合及可视化模块将所述模拟数据及人工修订模块获得的所述交通场景进行实时显示以及输送给测试智能网联车辆进行测试;
所述静态数据预标定模块具体包括:
道路结构和位置标定子模块,其工作流程具体包括:
步骤111,由车载GPS设备与路侧动态数据采集模块采集的所述测试场内各个道路中心线上的点坐标;
步骤112,设定测试场平面坐标系原点及坐标轴方向,并将所述点坐标由经纬度坐标系下转换到测试场平面坐标系下;
步骤113,对圆曲线道路和直线道路交接处的采集点加权平权处理,其中,直线端点的加权系数为1/μ2,圆曲线处的加权系数为1/e2;μ表示述直线道路所对应的直线的单位权中误差,e表示所述圆曲线道路所对应的圆曲线的单位权中误差;步骤114,计算各所述点坐标的点误差和单位权中误差,保留所述点误差中误差值小于所述单位权中误差的预设倍数的点坐标并输出,返回步骤111;
步骤115,将所述步骤114留下的各所述点坐标进行曲线拟合,确定最终的道路中心线方程;
车道的行车方向、车道线类型和附着系数标定子模块,其用于采集车道的宽度,标定各车道行车方向和车道线类型,生成所述测试场内地图中的道路,并将测量得到的各道路的路面附着系数标定到测试场内地图中相应的道路上;
静态障碍物的几何中心采集子模块,其用于采集所述测试场内所有静态障碍物的几何中心在测试场平面坐标系下的坐标及其外形尺寸和类型,并标定到所述车道的行车方向、车道线类型和附着系数标定子模块生成的测试场内地图上;以及
交通标识采集子模块,其用于采集测试场内所有交通标识在测试场平面坐标系下的坐标及其类型,并标定到所述车道的行车方向、车道线类型和附着系数标定子模块生成的测试场内地图上,构建出所述测试场内地图的静态层;
采用下式(1)和式(2)对所述步骤111采集到的所述直线道路的中心线上的所述点坐标进行点误差和单位权中误差计算,输出小于3倍单位权中误差的点坐标:
Figure FDA0002746103880000071
Figure FDA0002746103880000072
式(1)和式(2)中,(xi,yi)表示所述点坐标,i表示点的序号,1≤i≤n;εi表示所述直线道路所对应的直线的各点误差,θ表示由采集得的所述点坐标计算出的直线倾斜角;
采用下式(3)和式(4)对所述步骤111采集到的所述圆曲线道路的中心线上的所述点坐标进行点误差和单位权中误差计算,输出小于3倍单位权中误差的点坐标:
Figure FDA0002746103880000073
Figure FDA0002746103880000074
式(3)和式(4)中,(xi,yi)表示所述点坐标,i表示点的序号,1≤i≤n;(x0,y0)表示所述圆曲线道路所对应的圆曲线圆心重心化的坐标;di表示所述圆曲线道路所对应的圆曲线的各点误差;si、D和R表示为计算过程中的中间量。
CN201911176850.6A 2019-11-26 2019-11-26 智能网联车辆测试场数据采集与融合方法及系统 Active CN110853393B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911176850.6A CN110853393B (zh) 2019-11-26 2019-11-26 智能网联车辆测试场数据采集与融合方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911176850.6A CN110853393B (zh) 2019-11-26 2019-11-26 智能网联车辆测试场数据采集与融合方法及系统

Publications (2)

Publication Number Publication Date
CN110853393A CN110853393A (zh) 2020-02-28
CN110853393B true CN110853393B (zh) 2020-12-11

Family

ID=69604817

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911176850.6A Active CN110853393B (zh) 2019-11-26 2019-11-26 智能网联车辆测试场数据采集与融合方法及系统

Country Status (1)

Country Link
CN (1) CN110853393B (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4119399A4 (en) * 2020-03-31 2023-05-10 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR COLLECTING DRIVING DATA
CN114783214A (zh) * 2020-04-28 2022-07-22 上海波若智能科技有限公司 路网动态数据采集方法及路网动态数据采集系统
CN111524357B (zh) * 2020-05-19 2022-01-07 河北德冠隆电子科技有限公司 用于车辆安全行驶所需的多数据融合的方法
CN111532260B (zh) * 2020-05-20 2021-06-11 湖北亿咖通科技有限公司 一种车位检测性能评价方法及电子设备
CN111559372B (zh) * 2020-05-20 2021-05-18 湖北亿咖通科技有限公司 一种泊车系统的车位检测性能的评价方法和电子设备
CN111473980B (zh) * 2020-06-11 2022-03-18 公安部交通管理科学研究所 一种智能汽车自动驾驶能力测试系统
CN111721545B (zh) * 2020-06-18 2022-02-22 上海詹妮建筑设计咨询有限公司 智能网联汽车极限状态测试系统及其测试方法
CN111859634A (zh) * 2020-06-30 2020-10-30 东风商用车有限公司 一种基于车联网及高精地图的仿真场景生成方法和系统
CN112017431A (zh) * 2020-07-29 2020-12-01 河北德冠隆电子科技有限公司 基于多数据融合的主动式车辆持续跟踪定位系统及方法
CN112418092B (zh) * 2020-11-23 2022-09-23 中国第一汽车股份有限公司 一种障碍物感知的融合方法、装置、设备及储存介质
CN112525547B (zh) * 2020-11-24 2022-03-01 东风汽车集团有限公司 自动紧急制动系统与碰撞预警系统的测试方法
CN112489427B (zh) * 2020-11-26 2022-04-15 招商华软信息有限公司 一种车辆轨迹跟踪方法、装置、设备及存储介质
CN112884892B (zh) * 2021-02-26 2023-05-02 武汉理工大学 基于路侧装置的无人矿车位置信息处理系统和方法
CN113032249B (zh) * 2021-03-05 2023-03-24 北京百度网讯科技有限公司 交通流量监测系统的测试方法、装置及设备
CN113405808A (zh) * 2021-06-02 2021-09-17 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 感知避让系统的测试系统及测试方法
CN113505687A (zh) * 2021-07-08 2021-10-15 北京星云互联科技有限公司 设备测试方法、装置、电子设备、系统和存储介质
CN113689695B (zh) * 2021-08-11 2022-07-08 上海智能网联汽车技术中心有限公司 路侧感知系统的数据采集、可视化和标定的方法及系统
CN113885483B (zh) * 2021-09-06 2024-05-28 中汽创智科技有限公司 一种车辆远程控制方法及装置
CN113781471B (zh) * 2021-09-28 2023-10-27 中国科学技术大学先进技术研究院 一种自动驾驶测试场系统及方法
CN114112426A (zh) * 2021-11-08 2022-03-01 东风汽车集团股份有限公司 一种自动驾驶测试方法、系统及装置
CN114167833A (zh) * 2021-11-12 2022-03-11 上海和夏新能源科技有限公司 智能网联车模拟测试系统及方法
CN114084155B (zh) * 2021-11-15 2023-10-20 清华大学 预测型智能汽车决策控制方法、装置、车辆及存储介质
CN114141018B (zh) * 2021-12-15 2023-02-28 阿波罗智联(北京)科技有限公司 用于生成测试结果的方法、装置
CN114530041B (zh) * 2022-02-16 2023-05-02 交通运输部公路科学研究所 一种基于准确率的车路协同融合感知新方法
CN115035239B (zh) * 2022-05-11 2023-05-09 北京宾理信息科技有限公司 用于构建虚拟环境的方法、装置、计算机设备及车辆
CN115206002A (zh) * 2022-09-15 2022-10-18 山东新凌志检测技术有限公司 一种智能网联汽车检测系统及方法
CN116811884B (zh) * 2023-08-25 2023-11-28 格陆博科技有限公司 一种智能驾驶环境感知分析方法及系统
CN118015838A (zh) * 2024-04-08 2024-05-10 中铁三局集团有限公司 结合物联网的隧道车辆流动控制方法及系统

Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1391005A (zh) * 2001-12-30 2003-01-15 吴国雄 山区公路平面线形自动设计仿真系统
CN101231167A (zh) * 2008-02-20 2008-07-30 刘雁春 海洋测线网系统误差的检测与调整方法
CN102361346A (zh) * 2011-06-23 2012-02-22 陕西电力科学研究院 配电自动化系统的主站全数字化场景测试法
CN105786693A (zh) * 2014-12-26 2016-07-20 展讯通信(天津)有限公司 一种自测试执行系统及方法以及移动终端
CN106157572A (zh) * 2015-04-21 2016-11-23 惠州市德赛西威汽车电子股份有限公司 汽车主动安全预警系统的测试方法及测试装置
CN106205273A (zh) * 2016-09-20 2016-12-07 山西省交通科学研究院 一种基于vr模拟技术的汽车驾驶模拟系统及方法
CN106595656A (zh) * 2016-12-29 2017-04-26 辽宁工程技术大学 一种基于车载pos的公路线形特征识别与参数计算方法
CN107144293A (zh) * 2017-04-07 2017-09-08 武汉大学 一种视频卫星面阵相机的几何定标方法
CN107235044A (zh) * 2017-05-31 2017-10-10 北京航空航天大学 一种基于多传感数据实现对道路交通场景和司机驾驶行为的还原方法
CN107944091A (zh) * 2017-10-30 2018-04-20 同济大学 一种虚实结合的车联网应用场景测试系统及方法
CN108010360A (zh) * 2017-12-27 2018-05-08 中电海康集团有限公司 一种基于车路协同的自动驾驶环境感知系统
CN108458745A (zh) * 2017-12-23 2018-08-28 天津国科嘉业医疗科技发展有限公司 一种基于智能检测设备的环境感知方法
CN108646586A (zh) * 2018-03-20 2018-10-12 重庆邮电大学 一种智能网联汽车在环仿真、测试验证系统与方法
CN108982117A (zh) * 2018-07-04 2018-12-11 长安大学 一种无人车测试系统和方法
CN109100155A (zh) * 2018-07-09 2018-12-28 长安大学 一种无人车在环快速仿真测试系统和方法
CN109285373A (zh) * 2018-08-31 2019-01-29 南京锦和佳鑫信息科技有限公司 一种面向整体道路网的智能网联交通系统
CN109556615A (zh) * 2018-10-10 2019-04-02 吉林大学 基于自动驾驶的多传感器融合认知的驾驶地图生成方法
CN109714421A (zh) * 2018-12-28 2019-05-03 国汽(北京)智能网联汽车研究院有限公司 基于车路协同的智能网联汽车运行系统
CN109829386A (zh) * 2019-01-04 2019-05-31 清华大学 基于多源信息融合的智能车辆可通行区域检测方法
CN109902430A (zh) * 2019-03-13 2019-06-18 上海车右智能科技有限公司 交通场景生成方法、装置、系统、计算机设备和存储介质
CN110083163A (zh) * 2019-05-20 2019-08-02 三亚学院 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及系统
CN110399898A (zh) * 2019-06-17 2019-11-01 中国北方车辆研究所 一种无人车辆多传感器信息融合体系架构
CN110398968A (zh) * 2019-07-24 2019-11-01 清华大学 一种智能车多目标驾驶控制方法及决策系统
CN110414803A (zh) * 2019-07-08 2019-11-05 清华大学 不同网联程度下自动驾驶系统智能水平的测评方法及装置
CN110427682A (zh) * 2019-07-26 2019-11-08 清华大学 一种基于虚拟现实的交通场景模拟实验平台和方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3121729B1 (en) * 2015-07-21 2018-09-26 Tata Elxsi Limited System and method for enhanced emulation of connected vehicle applications
CN106202606A (zh) * 2016-06-22 2016-12-07 百度在线网络技术(北京)有限公司 一种模拟智能体的特征信息获取方法和装置
CN106096192B (zh) * 2016-06-27 2019-05-28 百度在线网络技术(北京)有限公司 一种无人驾驶车辆的测试场景的构建方法和装置
CN109032102B (zh) * 2017-06-09 2020-12-18 百度在线网络技术(北京)有限公司 无人驾驶车辆测试方法、装置、设备及存储介质
WO2019117614A1 (ko) * 2017-12-15 2019-06-20 주식회사 웨이티즈 V2x 적용 자율협력도로와 커넥티드카 시험 시스템 및 방법
US20190049950A1 (en) * 2018-09-17 2019-02-14 Intel Corporation Driving environment based mixed reality for computer assisted or autonomous driving vehicles
CN109993849A (zh) * 2019-03-22 2019-07-09 山东省科学院自动化研究所 一种自动驾驶测试场景再现模拟方法、装置及系统

Patent Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1391005A (zh) * 2001-12-30 2003-01-15 吴国雄 山区公路平面线形自动设计仿真系统
CN101231167A (zh) * 2008-02-20 2008-07-30 刘雁春 海洋测线网系统误差的检测与调整方法
CN102361346A (zh) * 2011-06-23 2012-02-22 陕西电力科学研究院 配电自动化系统的主站全数字化场景测试法
CN105786693A (zh) * 2014-12-26 2016-07-20 展讯通信(天津)有限公司 一种自测试执行系统及方法以及移动终端
CN106157572A (zh) * 2015-04-21 2016-11-23 惠州市德赛西威汽车电子股份有限公司 汽车主动安全预警系统的测试方法及测试装置
CN106205273A (zh) * 2016-09-20 2016-12-07 山西省交通科学研究院 一种基于vr模拟技术的汽车驾驶模拟系统及方法
CN106595656A (zh) * 2016-12-29 2017-04-26 辽宁工程技术大学 一种基于车载pos的公路线形特征识别与参数计算方法
CN107144293A (zh) * 2017-04-07 2017-09-08 武汉大学 一种视频卫星面阵相机的几何定标方法
CN107235044A (zh) * 2017-05-31 2017-10-10 北京航空航天大学 一种基于多传感数据实现对道路交通场景和司机驾驶行为的还原方法
CN107944091A (zh) * 2017-10-30 2018-04-20 同济大学 一种虚实结合的车联网应用场景测试系统及方法
CN108458745A (zh) * 2017-12-23 2018-08-28 天津国科嘉业医疗科技发展有限公司 一种基于智能检测设备的环境感知方法
CN108010360A (zh) * 2017-12-27 2018-05-08 中电海康集团有限公司 一种基于车路协同的自动驾驶环境感知系统
CN108646586A (zh) * 2018-03-20 2018-10-12 重庆邮电大学 一种智能网联汽车在环仿真、测试验证系统与方法
CN108982117A (zh) * 2018-07-04 2018-12-11 长安大学 一种无人车测试系统和方法
CN109100155A (zh) * 2018-07-09 2018-12-28 长安大学 一种无人车在环快速仿真测试系统和方法
CN109285373A (zh) * 2018-08-31 2019-01-29 南京锦和佳鑫信息科技有限公司 一种面向整体道路网的智能网联交通系统
CN109556615A (zh) * 2018-10-10 2019-04-02 吉林大学 基于自动驾驶的多传感器融合认知的驾驶地图生成方法
CN109714421A (zh) * 2018-12-28 2019-05-03 国汽(北京)智能网联汽车研究院有限公司 基于车路协同的智能网联汽车运行系统
CN109829386A (zh) * 2019-01-04 2019-05-31 清华大学 基于多源信息融合的智能车辆可通行区域检测方法
CN109902430A (zh) * 2019-03-13 2019-06-18 上海车右智能科技有限公司 交通场景生成方法、装置、系统、计算机设备和存储介质
CN110083163A (zh) * 2019-05-20 2019-08-02 三亚学院 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及系统
CN110399898A (zh) * 2019-06-17 2019-11-01 中国北方车辆研究所 一种无人车辆多传感器信息融合体系架构
CN110414803A (zh) * 2019-07-08 2019-11-05 清华大学 不同网联程度下自动驾驶系统智能水平的测评方法及装置
CN110398968A (zh) * 2019-07-24 2019-11-01 清华大学 一种智能车多目标驾驶控制方法及决策系统
CN110427682A (zh) * 2019-07-26 2019-11-08 清华大学 一种基于虚拟现实的交通场景模拟实验平台和方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
"Object Classification Using CNN-Based Fusion of Vision and LIDAR in Autonomous Vehicle Environment";HongBo Gao等;《IEEE TRANSACTIONS ON INDUSTRIAL INFORMATICS》;20181231;第14卷(第9期);全文 *
"Test and Evaluation of Connected and Autonomous Vehicles in Real-world Scenarios";Joel Pereira等;《2019 IEEE Intelligent Vehicles Symposium》;20190612;全文 *
"基于场景的自动驾驶汽车虚拟测试研究进展";朱冰等;《中国公路学报》;20190630;第32卷(第6期);第1-19页 *
"基于复合动态模型和证据融合架构的移动物体检测与跟踪方法";程蔚等;《计算机应用研究》;20191031;第36卷(第10期);全文 *
"基于整车在环仿真的自动驾驶汽车室内快速测试平台";赵祥模等;《中国公路学报》;20190630;第32卷(第6期);第124-136页 *
"基于融合感知的场景数据提取技术研究";李英勃等;《图形图像》;20190331;全文 *
"智能公路发展现状与关键技术";徐志刚等;《中国公路学报》;20190831;第32卷(第8期);全文 *
"智能网联汽车测试评价体系研究";蔡勇等;《中国汽车》;20181231;全文 *
"智能网联汽车驾驶场景数据采集的研究及应用";刘生;《汽车纵横》;20180831;第74-75页 *

Also Published As

Publication number Publication date
CN110853393A (zh) 2020-02-28

Similar Documents

Publication Publication Date Title
CN110853393B (zh) 智能网联车辆测试场数据采集与融合方法及系统
JP7127941B2 (ja) 方法、システム及びプログラム
CN109100155B (zh) 一种无人车在环快速仿真测试系统和方法
CN107451526A (zh) 地图的构建及其应用
CN108256413B (zh) 可通行区域检测方法及装置、存储介质、电子设备
KR102624434B1 (ko) 자율 주행을 위한 약도
CN106441319B (zh) 一种无人驾驶车辆车道级导航地图的生成系统及方法
EP2427726B1 (en) Methods and systems for creating digital transportation networks
WO2022206978A1 (zh) 一种基于车载定位装置的路侧毫米波雷达校准方法
CN112789619B (zh) 一种仿真场景的构建方法、仿真方法以及设备
CN107807542A (zh) 自动驾驶仿真系统
CN107403038A (zh) 一种智能汽车虚拟快速测试方法
CN102509067B (zh) 一种车道边界和主车方位检测方法
CN105676253A (zh) 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法
CN114385661A (zh) 一种基于v2x技术的高精地图更新的系统
CN110414803B (zh) 不同网联程度下自动驾驶系统智能水平的测评方法及装置
CN106710281A (zh) 车辆定位数据获取方法及装置
CN110515106B (zh) 一种bds、gps相结合的多源信息融合多模态车辆定位装置及定位方法
CN112526968A (zh) 映射真实世界道路条件的自动驾驶虚拟测试平台搭建方法
CN110375786B (zh) 一种传感器外参的标定方法、车载设备及存储介质
CN110345949A (zh) 一种车辆所在车道的定位方法及其系统
CN117198057A (zh) 一种面向路侧感知轨迹数据质量检评的实验方法及系统
CN114842660B (zh) 一种无人车道路轨迹预测方法、装置和电子设备
WO2021097844A1 (zh) 基于多传感器数据融合的护栏估计方法和车载设备
CN115953905A (zh) 一种基于激光雷达的车路协同控制系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20200228

Assignee: CAS Intelligent Network Technology Co.,Ltd.

Assignor: TSINGHUA University

Contract record no.: X2024980001701

Denomination of invention: Method and System for Data Collection and Fusion of Intelligent Connected Vehicle Test Field

Granted publication date: 20201211

License type: Common License

Record date: 20240130