CN114543842B - 一种多传感器融合定位系统的定位精度评价系统及方法 - Google Patents
一种多传感器融合定位系统的定位精度评价系统及方法 Download PDFInfo
- Publication number
- CN114543842B CN114543842B CN202210188417.XA CN202210188417A CN114543842B CN 114543842 B CN114543842 B CN 114543842B CN 202210188417 A CN202210188417 A CN 202210188417A CN 114543842 B CN114543842 B CN 114543842B
- Authority
- CN
- China
- Prior art keywords
- data
- sensor fusion
- positioning system
- error
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- Computer Networks & Wireless Communication (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种多传感器融合定位系统的定位精度评价系统及方法,该系统包括包括多传感器融合定位系统、直值系统、全球导航卫星系统和评测系统;多传感器融合定位系统和真值系统的输入端均与全球导航卫星系统连接;评测系统包括数据接收模块、时间同步模块、数据分析模块和评价分析模块;数据接收模块的输入端同时与多传感器融合定位系统和真值系统的输出端连接;时间同步模块用于进行时间同步;数据分析模块用于对经过时间同步的数据进行误差计算处理;评价分析模块用于进行精准度和鲁棒性的评价。本发明能够对定位系统做全工况场景精度评价,同时能够满足L3级及以上自动驾驶对于厘米级定位需求。
Description
技术领域
本发明涉及自动驾驶技术领域,具体涉及一种多传感器融合定位系统的定位精度评价系统及方法。
背景技术
自动驾驶是汽车产业与人工智能、物联网、高性能计算等新一代信息技术深度融合的产物,是当前全球汽车与交通出行领域智能化和网联化发展的主要方向,已成为各国争抢的战略制高点。
众所周知,自动驾驶系统的第一步是本车自定位,只有知道本车位置,下游控制、决策端才能进行路径规划,控制汽车行驶,而定位精度的好坏直接影响自动驾驶系统的鲁棒性、安全性。目前主流定位方案有组合惯导(GNSS和INS)定位、激光雷达定位、视觉定位以及各传感器紧耦合的融合定位。而地图模块(Hdmap)作为超视角传感器,其包含大量的行车辅助信息,这些辅助信息可以分成两类,一类是道路数据,如道路车道线的位置、类型、宽度、坡度和曲率等车道信息;另一类是行车道路周围相关的固定对象信息,如交通标志、交通信号灯等信息、车道限高、下水道口、障碍物及其他道路细节,还包括高架物体、防护栏、树、道路边缘类型、路边地标等基础设施信息。地图模块作为无人驾驶发展成熟标志的重要支撑,在横向/纵向精确定位、基于车道模型的碰撞避让、障碍物检测和避让、智能调速、转向和引导等方面发挥重要作用,是无人驾驶的核心技术之一。精准的地图对无人车的定位、导航与控制,以及无人驾驶的安全至关重要。
如申请号为CN201911176453.9的发明专利申请中公开了一种自动驾驶定位的相对位置精度评估方法及装置,该方法包括:首先采集待测设备的定位结果,结合高精地图数据计算第一相对位置关系。然后基于车载传感器输出的第二相对位置关系,计算定位结果的相对误差,进而根据相对误差评估待测设备定位结果的准确性。与现有技术以GPS基准设备输出的经纬度坐标来评估待测设备定位结果的精度相比,本发明基于自动驾驶车辆已有的车载传感器输出的第二相对位置关系来评估待测设备定位结果的准确性,有效的解决了当GPS信号弱时,GPS基准设备的经纬度坐标无法作为真实值去评价待测设备定位结果的精度的缺陷。但是该方法未使用真值系统,只分析相对定位误差,无法对定位系统(模块)做全工况场景精度评价,同时因未使用真值系统,该专利只可适用于L2级(组合驾驶辅助)自动驾驶对分米级定位需求但不能满足L3级(有条件的自动驾驶)及以上自动驾驶对于厘米级定位需求。
发明内容
针对现有技术存在的上述不足,本发明要解决的技术问题是:如何提供一种能够对定位系统做全工况场景精度评价,同时能够满足L3级及以上自动驾驶对于厘米级定位需求的多传感器融合定位系统的定位精度评价系统及方法。
为了解决上述技术问题,本发明采用如下技术方案:
一种多传感器融合定位系统的定位精度评价系统,包括多传感器融合定位系统、真值系统、全球导航卫星系统和评测系统;
所述多传感器融合定位系统和所述真值系统的输入端均与所述全球导航卫星系统连接,以同时接收来自于所述全球导航卫星系统的信号,并均以所述全球导航卫星系统的世界统一时间作为各自的系统时间;
所述评测系统包括数据接收模块、时间同步模块、数据分析模块和评价分析模块;
所述数据接收模块的输入端同时与所述多传感器融合定位系统和所述真值系统的输出端连接,以同时接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据;
所述时间同步模块的输入端与所述数据接收模块的输出端连接,用于所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据进行时间同步;
所述数据分析模块的输入端与所述时间同步模块的输出端连接,用于对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
所述评价分析模块的输入端与所述数据分析模块的输出端连接,用于根据计算的误差数据对所述多传感器融合定位系统的精准度和鲁棒性进行评价。
一种多传感器融合定位系统的定位精度评价方法,采用上述的多传感器融合定位系统的定位精度评价系统,包括以下步骤:
步骤1)将所述全球导航卫星系统同时接入所述多传感器融合定位系统和所述真值系统,并以所述全球导航卫星系统的世界统一时间同时作为所述多传感器融合定位系统和所述真值系统的系统时间;
步骤2)所述数据接收模块接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据;
步骤3)所述时间同步模块对所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据进行时间同步;
步骤4)所述数据分析模块对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
步骤5)所述评价分析模块根据计算的误差数据对所述多传感器融合定位系统的精准度和鲁棒性进行评价。
优选的,所述多传感器融合定位系统的输入端还分别与摄像头、地图模块和组合惯导模块连接;所述多传感器融合定位系统的被测融合数据包括当前位姿下本车经度、纬度、高程、速度、加速度、航向角、摄像头的车道点数据、地图模块的车道点数据;
所述真值系统的真值数据包括当前位姿下本车经度、纬度、高程、加速度、速度、航向角。
优选的,步骤3)中包括以下步骤:
步骤3.1)以被测的单帧数据时间戳作为基准帧;
步骤3.2)在真值数据中索引基准帧的时间戳,并找出与基准帧时间戳接近的前后两帧的真值数据,计算前后两帧的时间戳误差Δt1、Δt2;
步骤3.3)比较Δt1、Δt2的绝对值大小,选取时间戳误差最小的真值数据为对应帧,并将真值数据与被测融合数据记上序列号行成数据包进行存储。
优选的,步骤4)中误差计算的方法包括两种绝对误差计算方法和一种相对误差计算方法。
优选的,两种绝对误差计算方法包括:
将地心坐标系转化为站心坐标系,求得在站心坐标系下多传感器融合定位系统在绝对定位下的横向误差和纵向误差;
计算地心坐标系下的真值数据和被测融合数据坐标点的欧氏距离,该两点间直线距离为融合定位误差。
优选的,相对误差计算方法为:
将地图模块的车道点经度和纬度坐标转换为本车坐标系,得到地图模块中本车至车道线的横向距离dyHDmap,同时得到摄像头输出的本车至车道线的横向距离dyFc,计算两者误差的绝对值,得到被测融合数据在相对位置下的横向误差。
优选的,步骤5)中,通过计算被测融合数据的误差在二西格玛下均值和极值,得到对所述多传感器融合定位系统的精准度和鲁棒性的评价。
优选的,步骤5)中对所述多传感器融合定位系统的精准度和鲁棒性进行评价的方法包括:
统计分析绝对定位下的横向误差和纵向误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性;
统计分析融合定位误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性;
统计分析被测融合数据在相对位置下的横向误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性。
优选的,所述数据接收模块通过用户数据报协议接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据。
与现有技术相比,本发明具有以下优点:
1、本发明通过接收统计分析所需的真值系统和多传感器融合定位系统信号,如,本车经纬度、航向角等;再将真值系统与多传感器融合定位系统同一帧数据进行时间同步,接着对接收到的时间序列数据进行分场景分类以及三种误差的计算处理,得到被测与真值的单帧误差;最后从样本均值、样本极大值在2σ(二西格玛)下的精准度,从而近似得到被测多传感器融合定位系统在2σ精准度下的总体均值、总体极大值,评价被测系统精准度、鲁棒性评价。同时本方案也适用于单传感器定位方案精度评价。
2、本发明通过将真值系统与被测多传感器融合定位系统做时间同步,从根源减少时延导致的统计误差。
3、本发明通过引入三类定位误差分析的方法,从而提供定量、定性的误差分析方法,对被测多传感器融合定位系统提供客观精度的评价。
4、本发明通过对误差数据进行场景分类,有益于灵活的分类别、分场景统计分析被测系统的定位误差。
5、本发明提及的定位系统精度评价系统和方法适用于结构化道路以及城市道路的场景。
6、本发明通过计算相对定位误差能完成对被测多传感器融合定位系统的定量分析、通过计算绝对定位误差对被测多传感器融合定位系统完成定性分析。
7、本发明能够对定位系统做全工况场景精度评价,同时能够满足L3级及以上自动驾驶对于厘米级定位需求。
附图说明
图1为本发明多传感器融合定位系统的定位精度评价系统的系统框图。
具体实施方式
下面将结合附图及实施例对本发明作进一步说明。
如附图1所示,一种多传感器融合定位系统的定位精度评价系统,包括多传感器融合定位系统、真值系统、全球导航卫星系统(GNSS)和评测系统;
多传感器融合定位系统和真值系统的输入端均与全球导航卫星系统连接,以同时接收来自于全球导航卫星系统的信号,并均以全球导航卫星系统的世界统一时间(UTC)作为各自的系统时间,多传感器融合定位系统的输入端还分别与摄像头、地图模块和组合惯导模块连接。
评测系统包括数据接收模块、时间同步模块、数据分析模块和评价分析模块。
数据接收模块的输入端同时与多传感器融合定位系统和真值系统的输出端连接,以同时接收来自于多传感器融合定位系统的被测融合数据和真值系统的真值数据,具体的,数据接收模块通过用户数据报协议(UDP)接收来自于多传感器融合定位系统的被测融合数据和真值系统的真值数据。
时间同步模块的输入端与数据接收模块的输出端连接,用于多传感器融合定位系统的被测融合数据和真值系统的真值数据进行时间同步;
数据分析模块的输入端与时间同步模块的输出端连接,用于对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
评价分析模块的输入端与数据分析模块的输出端连接,用于根据计算的误差数据对多传感器融合定位系统的精准度和鲁棒性进行评价。
本实施例中还提供一种多传感器融合定位系统的定位精度评价方法,采用上述的多传感器融合定位系统的定位精度评价系统,包括以下步骤:
步骤1)将全球导航卫星系统(GNSS)同时接入多传感器融合定位系统和真值系统,并以全球导航卫星系统的世界统一时间(UTC)同时作为多传感器融合定位系统和真值系统的系统时间。
步骤2)数据接收模块通过UDP接收来自于多传感器融合定位系统的被测融合数据和真值系统的真值数据,具体的,多传感器融合定位系统的被测融合数据包括但不限于当前位姿下本车经度、纬度、高程、速度、加速度、航向角、摄像头的车道点数据、地图模块的车道点数据,真值系统的真值数据包括但不限于当前位姿下本车经度、纬度、高程、加速度、速度、航向角。
步骤3)时间同步模块对多传感器融合定位系统的被测融合数据和真值系统的真值数据进行时间同步,因被测多传感器融合定位系统的输出频率小于真真值系统,如果不对数据进行时间同步将会引入数据时延导致的误差影响后续对多传感器融合定位系统的精准度评价。
具体的,在该步骤中,用单帧数据的时间同步举例,该步骤具体包括以下步骤:
步骤3.1)以被测的单帧数据时间戳作为基准帧;
步骤3.2)在真值数据中索引基准帧的时间戳,并找出与基准帧时间戳接近的前后两帧的真值数据,计算前后两帧的时间戳误差Δt1、Δt2;
步骤3.3)比较Δt1、Δt2的绝对值大小,选取时间戳误差最小的真值数据为对应帧,并将真值数据与被测融合数据记上序列号行成数据包进行存储。
步骤4)数据分析模块对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差,具体的,首先通过在线地图(如Google earth)提取测试路线各场景(隧道、匝道、直道、弯道等)经纬度坐标并作为场景标志位,使用场景标志位对同步后的数据做标签处理,然后计算数据的定位误差。
具体的在本实施例中,误差计算的方法包括两种绝对误差计算方法和一种相对误差计算方法。
其中,两种绝对误差计算方法包括:
1、将地心坐标系(WGS-84)转化为站心坐标系(ENU),该算法可求得在站心坐标系下多传感器融合定位系统在绝对定位下的横向误差和纵向误差;
2、计算地心坐标系(WGS-84)下的真值数据和被测融合数据坐标点的欧氏距离,该两点间直线距离为融合定位误差。
相对误差计算方法为:
将地图模块的车道点经度和纬度坐标转换为本车坐标系,得到地图模块中本车至车道线的横向距离dyHDmap,同时得到摄像头输出的本车至车道线的横向距离dyFc,计算两者误差的绝对值dy=|dyHDmap-dyFC|,得到被测融合数据在相对位置下的横向误差。
其中,WGS-84坐标系的X轴指向BIH(国际时间服务机构)1984.0定义的零子午面(Greenwich)和协议地球极(CTP)赤道的交点,Z轴指向CTP方向,Y轴与X、Z轴构成右手坐标系。
ENU局部坐标系采用三维直角坐标系来描述地球表面,一般使用简化后的二维投影坐标系来描述。在众多二维投影坐标系中,统一横轴墨卡托(The Universal TransverseMercator,UTM)坐标系是一种应用较为广泛的一种。UTM坐标系统使用基于网格的方法表示坐标,它将地球分为60个经度区,每个区包含6度的经度范围,每个区内的坐标均基于横轴墨卡托投影。
步骤5)评价分析模块根据计算的误差数据对多传感器融合定位系统的精准度和鲁棒性进行评价,具体的,由大数定律可知,单一样本的平均值、方差可以估计总体平均值、总体方差,通过计算测试样本误差在2σ(二西格玛)下均值、极值,可以得到系统精准度、鲁棒性的性能评价。
具体的,该步骤中,对数据分析模块中单次测试样本的误差数据做如下处理:
1、统计分析绝对定位下的横向误差和纵向误差在2σ下的均值和极值,评价多传感器融合定位系统精准度和鲁棒性;
2、统计分析融合定位误差在2σ下的均值和极值,评价多传感器融合定位系统精准度和鲁棒性;
3、统计分析被测融合数据在相对位置下的横向误差在2σ下的均值和极值,评价多传感器融合定位系统精准度和鲁棒性;
4、更进一步的,通过被测融合数据中的场景标签分别三种误差计算方法下得到的下弯道、直道、隧道、匝道数据在2σ下的均值和极值,评价多传感器融合定位系统精准度和鲁棒性。
与现有技术相比,本发明通过接收统计分析所需的真值系统和多传感器融合定位系统信号,如,本车经纬度、航向角等;再将真值系统与多传感器融合定位系统同一帧数据进行时间同步,接着对接收到的时间序列数据进行分场景分类以及三种误差的计算处理,得到被测与真值的单帧误差;最后从样本均值、样本极大值在2σ(二西格玛)下的精准度,从而近似得到被测多传感器融合定位系统在2σ精准度下的总体均值、总体极大值,评价被测系统精准度、鲁棒性评价。同时本方案也适用于单传感器定位方案精度评价。本发明通过将真值系统与被测多传感器融合定位系统做时间同步,从根源减少时延导致的统计误差。本发明通过引入三类定位误差分析的方法,从而提供定量、定性的误差分析方法,对被测多传感器融合定位系统提供客观精度的评价。本发明通过对误差数据进行场景分类,有益于灵活的分类别、分场景统计分析被测系统的定位误差。本发明提及的定位系统精度评价系统和方法适用于结构化道路以及城市道路的场景。本发明通过计算相对定位误差能完成对被测多传感器融合定位系统的定量分析、通过计算绝对定位误差对被测多传感器融合定位系统完成定性分析。
最后需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制技术方案,本领域的普通技术人员应当理解,那些对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,均应涵盖在本发明的权利要求范围当中。
Claims (4)
1.一种多传感器融合定位系统的定位精度评价方法,其特征在于,采用一种多传感器融合定位系统的定位精度评价系统,包括多传感器融合定位系统、真值系统、全球导航卫星系统和评测系统;
所述多传感器融合定位系统和所述真值系统的输入端均与所述全球导航卫星系统连接,以同时接收来自于所述全球导航卫星系统的信号,并均以所述全球导航卫星系统的世界统一时间作为各自的系统时间;
所述评测系统包括数据接收模块、时间同步模块、数据分析模块和评价分析模块;
所述数据接收模块的输入端同时与所述多传感器融合定位系统和所述真值系统的输出端连接,以同时接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据;
所述时间同步模块的输入端与所述数据接收模块的输出端连接,用于所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据进行时间同步;
所述数据分析模块的输入端与所述时间同步模块的输出端连接,用于对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
所述评价分析模块的输入端与所述数据分析模块的输出端连接,用于根据计算的误差数据对所述多传感器融合定位系统的精准度和鲁棒性进行评价;
包括以下步骤:
步骤1)将所述全球导航卫星系统同时接入所述多传感器融合定位系统和所述真值系统,并以所述全球导航卫星系统的世界统一时间同时作为所述多传感器融合定位系统和所述真值系统的系统时间;
步骤2)所述数据接收模块接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据;
步骤3)所述时间同步模块对所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据进行时间同步;
步骤4)所述数据分析模块对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
步骤5)所述评价分析模块根据计算的误差数据对所述多传感器融合定位系统的精准度和鲁棒性进行评价;
步骤4)中误差计算的方法包括两种绝对误差计算方法和一种相对误差计算方法;
两种绝对误差计算方法包括:
将地心坐标系转化为站心坐标系,求得在站心坐标系下多传感器融合定位系统在绝对定位下的横向误差和纵向误差;
计算地心坐标系下的真值数据和被测融合数据坐标点的欧氏距离,该两点间直线距离为融合定位误差;
相对误差计算方法为:
将地图模块的车道点经度和纬度坐标转换为本车坐标系,得到地图模块中本车至车道线的横向距离dyHDmap,同时得到摄像头输出的本车至车道线的横向距离dyFc,计算两者误差的绝对值,得到被测融合数据在相对位置下的横向误差;
步骤5)中,通过计算被测融合数据的误差在二西格玛下均值和极值,得到对所述多传感器融合定位系统的精准度和鲁棒性的评价;
步骤5)中对所述多传感器融合定位系统的精准度和鲁棒性进行评价的方法包括:
统计分析绝对定位下的横向误差和纵向误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性;
统计分析融合定位误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性;
统计分析被测融合数据在相对位置下的横向误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性。
2.根据权利要求1所述的多传感器融合定位系统的定位精度评价方法,其特征在于,所述多传感器融合定位系统的输入端还分别与摄像头、地图模块和组合惯导模块连接;所述多传感器融合定位系统的被测融合数据包括当前位姿下本车经度、纬度、高程、速度、加速度、航向角、摄像头的车道点数据、地图模块的车道点数据;
所述真值系统的真值数据包括当前位姿下本车经度、纬度、高程、加速度、速度、航向角。
3.根据权利要求2所述的多传感器融合定位系统的定位精度评价方法,其特征在于,步骤3)中包括以下步骤:
步骤3.1)以被测的单帧数据时间戳作为基准帧;
步骤3.2)在真值数据中索引基准帧的时间戳,并找出与基准帧时间戳接近的前后两帧的真值数据,计算前后两帧的时间戳误差Δt1、Δt2;
步骤3.3)比较Δt1、Δt2的绝对值大小,选取时间戳误差最小的真值数据为对应帧,并将真值数据与被测融合数据记上序列号行成数据包进行存储。
4.根据权利要求3所述的多传感器融合定位系统的定位精度评价方法,其特征在于,所述数据接收模块通过用户数据报协议接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的真值数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210188417.XA CN114543842B (zh) | 2022-02-28 | 2022-02-28 | 一种多传感器融合定位系统的定位精度评价系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210188417.XA CN114543842B (zh) | 2022-02-28 | 2022-02-28 | 一种多传感器融合定位系统的定位精度评价系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114543842A CN114543842A (zh) | 2022-05-27 |
CN114543842B true CN114543842B (zh) | 2023-07-28 |
Family
ID=81679426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210188417.XA Active CN114543842B (zh) | 2022-02-28 | 2022-02-28 | 一种多传感器融合定位系统的定位精度评价系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114543842B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2015409237A1 (en) * | 2015-09-17 | 2018-03-29 | Mitsubishi Electric Corporation | Positioning satellite selecting device, positioning device, positioning system, positioning information transmitting device and positioning terminal |
CN110906953A (zh) * | 2019-11-26 | 2020-03-24 | 武汉中海庭数据技术有限公司 | 一种自动驾驶定位的相对位置精度评估方法及装置 |
CN111882612A (zh) * | 2020-07-21 | 2020-11-03 | 武汉理工大学 | 一种基于三维激光检测车道线的车辆多尺度定位方法 |
CN112693466A (zh) * | 2021-01-29 | 2021-04-23 | 重庆长安汽车股份有限公司 | 一种车辆环境感知传感器性能测评系统及方法 |
CN112798020A (zh) * | 2020-12-31 | 2021-05-14 | 中汽研(天津)汽车工程研究院有限公司 | 一种用于评估智能汽车定位精度的系统及方法 |
CN113155173A (zh) * | 2021-06-02 | 2021-07-23 | 福瑞泰克智能系统有限公司 | 感知性能评测方法、装置、电子装置和存储介质 |
CN113219507A (zh) * | 2021-01-29 | 2021-08-06 | 重庆长安汽车股份有限公司 | 基于rt3000的自动驾驶车辆感知融合数据的精度测量方法 |
CN113487910A (zh) * | 2021-06-10 | 2021-10-08 | 中国汽车技术研究中心有限公司 | 一种用于跟车场景的汽车数据采集系统性能分析方法 |
CN113778066A (zh) * | 2021-09-24 | 2021-12-10 | 上海和夏新能源科技有限公司 | 基于真值采集的智能驾驶及adas测试方法和系统 |
WO2021248636A1 (zh) * | 2020-06-12 | 2021-12-16 | 东莞市普灵思智能电子有限公司 | 一种自动驾驶对象探测和定位系统及方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100235129A1 (en) * | 2009-03-10 | 2010-09-16 | Honeywell International Inc. | Calibration of multi-sensor system |
KR101535873B1 (ko) * | 2013-11-29 | 2015-07-24 | 현대모비스 주식회사 | 위성측위시스템과 추측 항법을 융합한 차량 위치 추정 시스템 및 방법 |
US10281279B2 (en) * | 2016-10-24 | 2019-05-07 | Invensense, Inc. | Method and system for global shape matching a trajectory |
US11530920B2 (en) * | 2020-01-09 | 2022-12-20 | Caterpillar Inc. | Controlling movement of a machine using sensor fusion |
-
2022
- 2022-02-28 CN CN202210188417.XA patent/CN114543842B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2015409237A1 (en) * | 2015-09-17 | 2018-03-29 | Mitsubishi Electric Corporation | Positioning satellite selecting device, positioning device, positioning system, positioning information transmitting device and positioning terminal |
CN110906953A (zh) * | 2019-11-26 | 2020-03-24 | 武汉中海庭数据技术有限公司 | 一种自动驾驶定位的相对位置精度评估方法及装置 |
WO2021248636A1 (zh) * | 2020-06-12 | 2021-12-16 | 东莞市普灵思智能电子有限公司 | 一种自动驾驶对象探测和定位系统及方法 |
CN111882612A (zh) * | 2020-07-21 | 2020-11-03 | 武汉理工大学 | 一种基于三维激光检测车道线的车辆多尺度定位方法 |
CN112798020A (zh) * | 2020-12-31 | 2021-05-14 | 中汽研(天津)汽车工程研究院有限公司 | 一种用于评估智能汽车定位精度的系统及方法 |
CN112693466A (zh) * | 2021-01-29 | 2021-04-23 | 重庆长安汽车股份有限公司 | 一种车辆环境感知传感器性能测评系统及方法 |
CN113219507A (zh) * | 2021-01-29 | 2021-08-06 | 重庆长安汽车股份有限公司 | 基于rt3000的自动驾驶车辆感知融合数据的精度测量方法 |
CN113155173A (zh) * | 2021-06-02 | 2021-07-23 | 福瑞泰克智能系统有限公司 | 感知性能评测方法、装置、电子装置和存储介质 |
CN113487910A (zh) * | 2021-06-10 | 2021-10-08 | 中国汽车技术研究中心有限公司 | 一种用于跟车场景的汽车数据采集系统性能分析方法 |
CN113778066A (zh) * | 2021-09-24 | 2021-12-10 | 上海和夏新能源科技有限公司 | 基于真值采集的智能驾驶及adas测试方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114543842A (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106767853B (zh) | 一种基于多信息融合的无人驾驶车辆高精度定位方法 | |
JP6197393B2 (ja) | レーン地図生成装置及びプログラム | |
CN109084786B (zh) | 一种地图数据的处理方法 | |
EP3674662A1 (en) | Automatic detection and positioning of pole-like objects in 3d | |
CN111652179A (zh) | 基于点线特征融合激光的语义高精地图构建与定位方法 | |
US20130162824A1 (en) | Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor | |
CN105676253A (zh) | 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法 | |
CN111006655A (zh) | 机场巡检机器人多场景自主导航定位方法 | |
JP2008250687A (ja) | 地物情報収集装置及び地物情報収集方法 | |
Gikas et al. | A novel geodetic engineering method for accurate and automated road/railway centerline geometry extraction based on the bearing diagram and fractal behavior | |
CN110796007A (zh) | 场景识别的方法与计算设备 | |
CN113885062A (zh) | 基于v2x的数据采集融合设备、方法和系统 | |
EP3678051A1 (en) | Lane count estimation | |
CN113640822A (zh) | 一种基于非地图元素过滤的高精度地图构建方法 | |
CN110018503B (zh) | 车辆的定位方法及定位系统 | |
CN114565674A (zh) | 自动驾驶车辆城市结构化场景纯视觉定位方法及装置 | |
Gressenbuch et al. | Mona: The munich motion dataset of natural driving | |
CN114593739B (zh) | 基于视觉检测与参考线匹配的车辆全局定位方法及装置 | |
CN110210384B (zh) | 一种道路全局信息实时提取与表示系统 | |
CN112633812B (zh) | 货运车辆的轨迹分段方法、装置、设备及存储介质 | |
Yan et al. | SensorX2car: Sensors-to-car calibration for autonomous driving in road scenarios | |
CN113673386A (zh) | 一种交通信号灯在先验地图中的标注方法 | |
CN114543842B (zh) | 一种多传感器融合定位系统的定位精度评价系统及方法 | |
KR20210029323A (ko) | 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법 | |
Kumar et al. | A Survey on Localization for Autonomous Vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |