CN114543842A - 一种多传感器融合定位系统的定位精度评价系统及方法 - Google Patents

一种多传感器融合定位系统的定位精度评价系统及方法 Download PDF

Info

Publication number
CN114543842A
CN114543842A CN202210188417.XA CN202210188417A CN114543842A CN 114543842 A CN114543842 A CN 114543842A CN 202210188417 A CN202210188417 A CN 202210188417A CN 114543842 A CN114543842 A CN 114543842A
Authority
CN
China
Prior art keywords
data
sensor fusion
positioning system
value
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210188417.XA
Other languages
English (en)
Other versions
CN114543842B (zh
Inventor
杨钊
任凡
王宽
汤兆丰
万满
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Changan Automobile Co Ltd
Original Assignee
Chongqing Changan Automobile Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Changan Automobile Co Ltd filed Critical Chongqing Changan Automobile Co Ltd
Priority to CN202210188417.XA priority Critical patent/CN114543842B/zh
Publication of CN114543842A publication Critical patent/CN114543842A/zh
Application granted granted Critical
Publication of CN114543842B publication Critical patent/CN114543842B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

本发明公开了一种多传感器融合定位系统的定位精度评价系统及方法,该系统包括包括多传感器融合定位系统、直值系统、全球导航卫星系统和评测系统;多传感器融合定位系统和真值系统的输入端均与全球导航卫星系统连接;评测系统包括数据接收模块、时间同步模块、数据分析模块和评价分析模块;数据接收模块的输入端同时与多传感器融合定位系统和真值系统的输出端连接;时间同步模块用于进行时间同步;数据分析模块用于对经过时间同步的数据进行误差计算处理;评价分析模块用于进行精准度和鲁棒性的评价。本发明能够对定位系统做全工况场景精度评价,同时能够满足L3级及以上自动驾驶对于厘米级定位需求。

Description

一种多传感器融合定位系统的定位精度评价系统及方法
技术领域
本发明涉及自动驾驶技术领域,具体涉及一种多传感器融合定位系统的定位精度评价系统及方法。
背景技术
自动驾驶是汽车产业与人工智能、物联网、高性能计算等新一代信息技术深度融合的产物,是当前全球汽车与交通出行领域智能化和网联化发展的主要方向,已成为各国争抢的战略制高点。
众所周知,自动驾驶系统的第一步是本车自定位,只有知道本车位置,下游控制、决策端才能进行路径规划,控制汽车行驶,而定位精度的好坏直接影响自动驾驶系统的鲁棒性、安全性。目前主流定位方案有组合惯导(GNSS和INS)定位、激光雷达定位、视觉定位以及各传感器紧耦合的融合定位。而地图模块(Hdmap)作为超视角传感器,其包含大量的行车辅助信息,这些辅助信息可以分成两类,一类是道路数据,如道路车道线的位置、类型、宽度、坡度和曲率等车道信息;另一类是行车道路周围相关的固定对象信息,如交通标志、交通信号灯等信息、车道限高、下水道口、障碍物及其他道路细节,还包括高架物体、防护栏、树、道路边缘类型、路边地标等基础设施信息。地图模块作为无人驾驶发展成熟标志的重要支撑,在横向/纵向精确定位、基于车道模型的碰撞避让、障碍物检测和避让、智能调速、转向和引导等方面发挥重要作用,是无人驾驶的核心技术之一。精准的地图对无人车的定位、导航与控制,以及无人驾驶的安全至关重要。
如申请号为CN201911176453.9的发明专利申请中公开了一种自动驾驶定位的相对位置精度评估方法及装置,该方法包括:首先采集待测设备的定位结果,结合高精地图数据计算第一相对位置关系。然后基于车载传感器输出的第二相对位置关系,计算定位结果的相对误差,进而根据相对误差评估待测设备定位结果的准确性。与现有技术以GPS基准设备输出的经纬度坐标来评估待测设备定位结果的精度相比,本发明基于自动驾驶车辆已有的车载传感器输出的第二相对位置关系来评估待测设备定位结果的准确性,有效的解决了当GPS信号弱时,GPS基准设备的经纬度坐标无法作为真实值去评价待测设备定位结果的精度的缺陷。但是该方法未使用真值系统,只分析相对定位误差,无法对定位系统(模块)做全工况场景精度评价,同时因未使用真值系统,该专利只可适用于L2级(组合驾驶辅助)自动驾驶对分米级定位需求但不能满足L3级(有条件的自动驾驶)及以上自动驾驶对于厘米级定位需求。
发明内容
针对现有技术存在的上述不足,本发明要解决的技术问题是:如何提供一种能够对定位系统做全工况场景精度评价,同时能够满足L3级及以上自动驾驶对于厘米级定位需求的多传感器融合定位系统的定位精度评价系统及方法。
为了解决上述技术问题,本发明采用如下技术方案:
一种多传感器融合定位系统的定位精度评价系统,包括多传感器融合定位系统、直值系统、全球导航卫星系统和评测系统;
所述多传感器融合定位系统和所述真值系统的输入端均与所述全球导航卫星系统连接,以同时接收来自于所述全球导航卫星系统的信号,并均以所述全球导航卫星系统的世界统一时间作为各自的系统时间;
所述评测系统包括数据接收模块、时间同步模块、数据分析模块和评价分析模块;
所述数据接收模块的输入端同时与所述多传感器融合定位系统和所述真值系统的输出端连接,以同时接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据;
所述时间同步模块的输入端与所述数据接收模块的输出端连接,用于所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据进行时间同步;
所述数据分析模块的输入端与所述时间同步模块的输出端连接,用于对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
所述评价分析模块的输入端与所述数据分析模块的输出端连接,用于根据计算的误差数据对所述多传感器融合定位系统的精准度和鲁棒性进行评价。
一种多传感器融合定位系统的定位精度评价方法,采用上述的多传感器融合定位系统的定位精度评价系统,包括以下步骤:
步骤1)将所述全球导航卫星系统同时接入所述多传感器融合定位系统和所述真值系统,并以所述全球导航卫星系统的世界统一时间同时作为所述多传感器融合定位系统和所述真值系统的系统时间;
步骤2)所述数据接收模块接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据;
步骤3)所述时间同步模块对所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据进行时间同步;
步骤4)所述数据分析模块对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
步骤5)所述评价分析模块根据计算的误差数据对所述多传感器融合定位系统的精准度和鲁棒性进行评价。
优选的,所述多传感器融合定位系统的输入端还分别与摄像头、地图模块和组合惯导模块连接;所述多传感器融合定位系统的被测融合数据包括当前位姿下本车经度、纬度、高程、速度、加速度、航向角、摄像头的车道点数据、地图模块的车道点数据;
所述真值系统的直值数据包括当前位姿下本车经度、纬度、高程、加速度、速度、航向角。
优选的,步骤3)中包括以下步骤:
步骤3.1)以被测的单帧数据时间戳作为基准帧;
步骤3.2)在真值数据中索引基准帧的时间戳,并找出与基准帧时间戳接近的前后两帧的真值数据,计算前后两帧的时间戳误差Δt1、Δt2
步骤3.3)比较Δt1、Δt2的绝对值大小,选取时间戳误差最小的真值数据为对应帧,并将真值数据与被测融合数据记上序列号行成数据包进行存储。
优选的,步骤4)中误差计算的方法包括两种绝对误差计算方法和一种相对误差计算方法。
优选的,两种绝对误差计算方法包括:
将地心坐标系转化为站心坐标系,求得在站心坐标系下多传感器融合定位系统在绝对定位下的横向误差和纵向误差;
计算地心坐标系下的真值数据和被测融合数据坐标点的欧氏距离,该两点间直线距离为融合定位误差。
优选的,相对误差计算方法为:
将地图模块的车道点经度和纬度坐标转换为本车坐标系,得到地图模块中本车至车道线的横向距离dyHDmap,同时得到摄像头输出的本车至车道线的横向距离dyFc,计算两者误差的绝对值,得到被测融合数据在相对位置下的横向误差。
优选的,步骤5)中,通过计算被测融合数据的误差在二西格玛下均值和极值,得到对所述多传感器融合定位系统的精准度和鲁棒性的评价。
优选的,步骤5)中对所述多传感器融合定位系统的精准度和鲁棒性进行评价的方法包括:
统计分析绝对定位下的横向误差和纵向误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性;
统计分析融合定位误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性;
统计分析被测融合数据在相对位置下的横向误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性。
优选的,所述数据接收模块通过用户数据报协议接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据。
与现有技术相比,本发明具有以下优点:
1、本发明通过接收统计分析所需的真值系统和多传感器融合定位系统信号,如,本车经纬度、航向角等;再将真值系统与多传感器融合定位系统同一帧数据进行时间同步,接着对接收到的时间序列数据进行分场景分类以及三种误差的计算处理,得到被测与真值的单帧误差;最后从样本均值、样本极大值在2σ(二西格玛)下的精准度,从而近似得到被测多传感器融合定位系统在2σ精准度下的总体均值、总体极大值,评价被测系统精准度、鲁棒性评价。同时本方案也适用于单传感器定位方案精度评价。
2、本发明通过将直值系统与被测多传感器融合定位系统做时间同步,从根源减少时延导致的统计误差。
3、本发明通过引入三类定位误差分析的方法,从而提供定量、定性的误差分析方法,对被测多传感器融合定位系统提供客观精度的评价。
4、本发明通过对误差数据进行场景分类,有益于灵活的分类别、分场景统计分析被测系统的定位误差。
5、本发明提及的定位系统精度评价系统和方法适用于结构化道路以及城市道路的场景。
6、本发明通过计算相对定位误差能完成对被测多传感器融合定位系统的定量分析、通过计算绝对定位误差对被测多传感器融合定位系统完成定性分析。
7、本发明能够对定位系统做全工况场景精度评价,同时能够满足L3级及以上自动驾驶对于厘米级定位需求。
附图说明
图1为本发明多传感器融合定位系统的定位精度评价系统的系统框图。
具体实施方式
下面将结合附图及实施例对本发明作进一步说明。
如附图1所示,一种多传感器融合定位系统的定位精度评价系统,包括多传感器融合定位系统、直值系统、全球导航卫星系统(GNSS)和评测系统;
多传感器融合定位系统和真值系统的输入端均与全球导航卫星系统连接,以同时接收来自于全球导航卫星系统的信号,并均以全球导航卫星系统的世界统一时间(UTC)作为各自的系统时间,多传感器融合定位系统的输入端还分别与摄像头、地图模块和组合惯导模块连接。
评测系统包括数据接收模块、时间同步模块、数据分析模块和评价分析模块。
数据接收模块的输入端同时与多传感器融合定位系统和真值系统的输出端连接,以同时接收来自于多传感器融合定位系统的被测融合数据和真值系统的直值数据,具体的,数据接收模块通过用户数据报协议(UDP)接收来自于多传感器融合定位系统的被测融合数据和真值系统的直值数据。
时间同步模块的输入端与数据接收模块的输出端连接,用于多传感器融合定位系统的被测融合数据和真值系统的直值数据进行时间同步;
数据分析模块的输入端与时间同步模块的输出端连接,用于对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
评价分析模块的输入端与数据分析模块的输出端连接,用于根据计算的误差数据对多传感器融合定位系统的精准度和鲁棒性进行评价。
本实施例中还提供一种多传感器融合定位系统的定位精度评价方法,采用上述的多传感器融合定位系统的定位精度评价系统,包括以下步骤:
步骤1)将全球导航卫星系统(GNSS)同时接入多传感器融合定位系统和真值系统,并以全球导航卫星系统的世界统一时间(UTC)同时作为多传感器融合定位系统和真值系统的系统时间。
步骤2)数据接收模块通过UDP接收来自于多传感器融合定位系统的被测融合数据和真值系统的直值数据,具体的,多传感器融合定位系统的被测融合数据包括但不限于当前位姿下本车经度、纬度、高程、速度、加速度、航向角、摄像头的车道点数据、地图模块的车道点数据,真值系统的直值数据包括但不限于当前位姿下本车经度、纬度、高程、加速度、速度、航向角。
步骤3)时间同步模块对多传感器融合定位系统的被测融合数据和真值系统的直值数据进行时间同步,因被测多传感器融合定位系统的输出频率小于真真值系统,如果不对数据进行时间同步将会引入数据时延导致的误差影响后续对多传感器融合定位系统的精准度评价。
具体的,在该步骤中,用单帧数据的时间同步举例,该步骤具体包括以下步骤:
步骤3.1)以被测的单帧数据时间戳作为基准帧;
步骤3.2)在真值数据中索引基准帧的时间戳,并找出与基准帧时间戳接近的前后两帧的真值数据,计算前后两帧的时间戳误差Δt1、Δt2
步骤3.3)比较Δt1、Δt2的绝对值大小,选取时间戳误差最小的真值数据为对应帧,并将真值数据与被测融合数据记上序列号行成数据包进行存储。
步骤4)数据分析模块对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差,具体的,首先通过在线地图(如Google earth)提取测试路线各场景(隧道、匝道、直道、弯道等)经纬度坐标并作为场景标志位,使用场景标志位对同步后的数据做标签处理,然后计算数据的定位误差。
具体的在本实施例中,误差计算的方法包括两种绝对误差计算方法和一种相对误差计算方法。
其中,两种绝对误差计算方法包括:
1、将地心坐标系(WGS-84)转化为站心坐标系(ENU),该算法可求得在站心坐标系下多传感器融合定位系统在绝对定位下的横向误差和纵向误差;
2、计算地心坐标系(WGS-84)下的真值数据和被测融合数据坐标点的欧氏距离,该两点间直线距离为融合定位误差。
相对误差计算方法为:
将地图模块的车道点经度和纬度坐标转换为本车坐标系,得到地图模块中本车至车道线的横向距离dyHDmap,同时得到摄像头输出的本车至车道线的横向距离dyFc,计算两者误差的绝对值dy=|dyHDmap-dyFC|,得到被测融合数据在相对位置下的横向误差。
其中,WGS-84坐标系的X轴指向BIH(国际时间服务机构)1984.0定义的零子午面(Greenwich)和协议地球极(CTP)赤道的交点,Z轴指向CTP方向,Y轴与X、Z轴构成右手坐标系。
ENU局部坐标系采用三维直角坐标系来描述地球表面,一般使用简化后的二维投影坐标系来描述。在众多二维投影坐标系中,统一横轴墨卡托(The Universal TransverseMercator,UTM)坐标系是一种应用较为广泛的一种。UTM坐标系统使用基于网格的方法表示坐标,它将地球分为60个经度区,每个区包含6度的经度范围,每个区内的坐标均基于横轴墨卡托投影。
步骤5)评价分析模块根据计算的误差数据对多传感器融合定位系统的精准度和鲁棒性进行评价,具体的,由大数定律可知,单一样本的平均值、方差可以估计总体平均值、总体方差,通过计算测试样本误差在2σ(二西格玛)下均值、极值,可以得到系统精准度、鲁棒性的性能评价。
具体的,该步骤中,对数据分析模块中单次测试样本的误差数据做如下处理:
1、统计分析绝对定位下的横向误差和纵向误差在2σ下的均值和极值,评价多传感器融合定位系统精准度和鲁棒性;
2、统计分析融合定位误差在2σ下的均值和极值,评价多传感器融合定位系统精准度和鲁棒性;
3、统计分析被测融合数据在相对位置下的横向误差在2σ下的均值和极值,评价多传感器融合定位系统精准度和鲁棒性;
4、更进一步的,通过被测融合数据中的场景标签分别三种误差计算方法下得到的下弯道、直道、隧道、匝道数据在2σ下的均值和极值,评价多传感器融合定位系统精准度和鲁棒性。
与现有技术相比,本发明通过接收统计分析所需的真值系统和多传感器融合定位系统信号,如,本车经纬度、航向角等;再将真值系统与多传感器融合定位系统同一帧数据进行时间同步,接着对接收到的时间序列数据进行分场景分类以及三种误差的计算处理,得到被测与真值的单帧误差;最后从样本均值、样本极大值在2σ(二西格玛)下的精准度,从而近似得到被测多传感器融合定位系统在2σ精准度下的总体均值、总体极大值,评价被测系统精准度、鲁棒性评价。同时本方案也适用于单传感器定位方案精度评价。本发明通过将直值系统与被测多传感器融合定位系统做时间同步,从根源减少时延导致的统计误差。本发明通过引入三类定位误差分析的方法,从而提供定量、定性的误差分析方法,对被测多传感器融合定位系统提供客观精度的评价。本发明通过对误差数据进行场景分类,有益于灵活的分类别、分场景统计分析被测系统的定位误差。本发明提及的定位系统精度评价系统和方法适用于结构化道路以及城市道路的场景。本发明通过计算相对定位误差能完成对被测多传感器融合定位系统的定量分析、通过计算绝对定位误差对被测多传感器融合定位系统完成定性分析。
最后需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制技术方案,本领域的普通技术人员应当理解,那些对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种多传感器融合定位系统的定位精度评价系统,其特征在于,包括多传感器融合定位系统、直值系统、全球导航卫星系统和评测系统;
所述多传感器融合定位系统和所述真值系统的输入端均与所述全球导航卫星系统连接,以同时接收来自于所述全球导航卫星系统的信号,并均以所述全球导航卫星系统的世界统一时间作为各自的系统时间;
所述评测系统包括数据接收模块、时间同步模块、数据分析模块和评价分析模块;
所述数据接收模块的输入端同时与所述多传感器融合定位系统和所述真值系统的输出端连接,以同时接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据;
所述时间同步模块的输入端与所述数据接收模块的输出端连接,用于所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据进行时间同步;
所述数据分析模块的输入端与所述时间同步模块的输出端连接,用于对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
所述评价分析模块的输入端与所述数据分析模块的输出端连接,用于根据计算的误差数据对所述多传感器融合定位系统的精准度和鲁棒性进行评价。
2.一种多传感器融合定位系统的定位精度评价方法,其特征在于,采用如权利要求1所述的多传感器融合定位系统的定位精度评价系统,包括以下步骤:
步骤1)将所述全球导航卫星系统同时接入所述多传感器融合定位系统和所述真值系统,并以所述全球导航卫星系统的世界统一时间同时作为所述多传感器融合定位系统和所述真值系统的系统时间;
步骤2)所述数据接收模块接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据;
步骤3)所述时间同步模块对所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据进行时间同步;
步骤4)所述数据分析模块对经过时间同步的数据进行误差计算处理,得到被测值与真值之间的单帧误差;
步骤5)所述评价分析模块根据计算的误差数据对所述多传感器融合定位系统的精准度和鲁棒性进行评价。
3.根据权利要求2所述的多传感器融合定位系统的定位精度评价方法,其特征在于,所述多传感器融合定位系统的输入端还分别与摄像头、地图模块和组合惯导模块连接;所述多传感器融合定位系统的被测融合数据包括当前位姿下本车经度、纬度、高程、速度、加速度、航向角、摄像头的车道点数据、地图模块的车道点数据;
所述真值系统的直值数据包括当前位姿下本车经度、纬度、高程、加速度、速度、航向角。
4.根据权利要求3所述的多传感器融合定位系统的定位精度评价方法,其特征在于,步骤3)中包括以下步骤:
步骤3.1)以被测的单帧数据时间戳作为基准帧;
步骤3.2)在真值数据中索引基准帧的时间戳,并找出与基准帧时间戳接近的前后两帧的真值数据,计算前后两帧的时间戳误差Δt1、Δt2
步骤3.3)比较Δt1、Δt2的绝对值大小,选取时间戳误差最小的真值数据为对应帧,并将真值数据与被测融合数据记上序列号行成数据包进行存储。
5.根据权利要求4所述的多传感器融合定位系统的定位精度评价方法,其特征在于,步骤4)中误差计算的方法包括两种绝对误差计算方法和一种相对误差计算方法。
6.根据权利要求5所述的多传感器融合定位系统的定位精度评价方法,其特征在于,两种绝对误差计算方法包括:
将地心坐标系转化为站心坐标系,求得在站心坐标系下多传感器融合定位系统在绝对定位下的横向误差和纵向误差;
计算地心坐标系下的真值数据和被测融合数据坐标点的欧氏距离,该两点间直线距离为融合定位误差。
7.根据权利要求6所述的多传感器融合定位系统的定位精度评价方法,其特征在于,相对误差计算方法为:
将地图模块的车道点经度和纬度坐标转换为本车坐标系,得到地图模块中本车至车道线的横向距离dyHDmap,同时得到摄像头输出的本车至车道线的横向距离dyFc,计算两者误差的绝对值,得到被测融合数据在相对位置下的横向误差。
8.根据权利要求7所述的多传感器融合定位系统的定位精度评价方法,其特征在于,步骤5)中,通过计算被测融合数据的误差在二西格玛下均值和极值,得到对所述多传感器融合定位系统的精准度和鲁棒性的评价。
9.根据权利要求8所述的多传感器融合定位系统的定位精度评价方法,其特征在于,步骤5)中对所述多传感器融合定位系统的精准度和鲁棒性进行评价的方法包括:
统计分析绝对定位下的横向误差和纵向误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性;
统计分析融合定位误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性;
统计分析被测融合数据在相对位置下的横向误差在二西格玛下的均值和极值,评价所述多传感器融合定位系统精准度和鲁棒性。
10.根据权利要求9所述的多传感器融合定位系统的定位精度评价方法,其特征在于,所述数据接收模块通过用户数据报协议接收来自于所述多传感器融合定位系统的被测融合数据和所述真值系统的直值数据。
CN202210188417.XA 2022-02-28 2022-02-28 一种多传感器融合定位系统的定位精度评价系统及方法 Active CN114543842B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210188417.XA CN114543842B (zh) 2022-02-28 2022-02-28 一种多传感器融合定位系统的定位精度评价系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210188417.XA CN114543842B (zh) 2022-02-28 2022-02-28 一种多传感器融合定位系统的定位精度评价系统及方法

Publications (2)

Publication Number Publication Date
CN114543842A true CN114543842A (zh) 2022-05-27
CN114543842B CN114543842B (zh) 2023-07-28

Family

ID=81679426

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210188417.XA Active CN114543842B (zh) 2022-02-28 2022-02-28 一种多传感器融合定位系统的定位精度评价系统及方法

Country Status (1)

Country Link
CN (1) CN114543842B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100235129A1 (en) * 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
US20150153178A1 (en) * 2013-11-29 2015-06-04 Hyundai Mobis Co., Ltd. Car navigation system and method in which global navigation satellite system (gnss) and dead reckoning (dr) are merged
AU2015409237A1 (en) * 2015-09-17 2018-03-29 Mitsubishi Electric Corporation Positioning satellite selecting device, positioning device, positioning system, positioning information transmitting device and positioning terminal
US20180112983A1 (en) * 2016-10-24 2018-04-26 Invensense Inc. Method and system for global shape matching a trajectory
CN110906953A (zh) * 2019-11-26 2020-03-24 武汉中海庭数据技术有限公司 一种自动驾驶定位的相对位置精度评估方法及装置
CN111882612A (zh) * 2020-07-21 2020-11-03 武汉理工大学 一种基于三维激光检测车道线的车辆多尺度定位方法
CN112693466A (zh) * 2021-01-29 2021-04-23 重庆长安汽车股份有限公司 一种车辆环境感知传感器性能测评系统及方法
CN112798020A (zh) * 2020-12-31 2021-05-14 中汽研(天津)汽车工程研究院有限公司 一种用于评估智能汽车定位精度的系统及方法
US20210215483A1 (en) * 2020-01-09 2021-07-15 Caterpillar Inc. Controlling movement of a machine using sensor fusion
CN113155173A (zh) * 2021-06-02 2021-07-23 福瑞泰克智能系统有限公司 感知性能评测方法、装置、电子装置和存储介质
CN113219507A (zh) * 2021-01-29 2021-08-06 重庆长安汽车股份有限公司 基于rt3000的自动驾驶车辆感知融合数据的精度测量方法
CN113487910A (zh) * 2021-06-10 2021-10-08 中国汽车技术研究中心有限公司 一种用于跟车场景的汽车数据采集系统性能分析方法
CN113778066A (zh) * 2021-09-24 2021-12-10 上海和夏新能源科技有限公司 基于真值采集的智能驾驶及adas测试方法和系统
WO2021248636A1 (zh) * 2020-06-12 2021-12-16 东莞市普灵思智能电子有限公司 一种自动驾驶对象探测和定位系统及方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100235129A1 (en) * 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
US20150153178A1 (en) * 2013-11-29 2015-06-04 Hyundai Mobis Co., Ltd. Car navigation system and method in which global navigation satellite system (gnss) and dead reckoning (dr) are merged
AU2015409237A1 (en) * 2015-09-17 2018-03-29 Mitsubishi Electric Corporation Positioning satellite selecting device, positioning device, positioning system, positioning information transmitting device and positioning terminal
US20180112983A1 (en) * 2016-10-24 2018-04-26 Invensense Inc. Method and system for global shape matching a trajectory
CN110906953A (zh) * 2019-11-26 2020-03-24 武汉中海庭数据技术有限公司 一种自动驾驶定位的相对位置精度评估方法及装置
US20210215483A1 (en) * 2020-01-09 2021-07-15 Caterpillar Inc. Controlling movement of a machine using sensor fusion
WO2021248636A1 (zh) * 2020-06-12 2021-12-16 东莞市普灵思智能电子有限公司 一种自动驾驶对象探测和定位系统及方法
CN111882612A (zh) * 2020-07-21 2020-11-03 武汉理工大学 一种基于三维激光检测车道线的车辆多尺度定位方法
CN112798020A (zh) * 2020-12-31 2021-05-14 中汽研(天津)汽车工程研究院有限公司 一种用于评估智能汽车定位精度的系统及方法
CN112693466A (zh) * 2021-01-29 2021-04-23 重庆长安汽车股份有限公司 一种车辆环境感知传感器性能测评系统及方法
CN113219507A (zh) * 2021-01-29 2021-08-06 重庆长安汽车股份有限公司 基于rt3000的自动驾驶车辆感知融合数据的精度测量方法
CN113155173A (zh) * 2021-06-02 2021-07-23 福瑞泰克智能系统有限公司 感知性能评测方法、装置、电子装置和存储介质
CN113487910A (zh) * 2021-06-10 2021-10-08 中国汽车技术研究中心有限公司 一种用于跟车场景的汽车数据采集系统性能分析方法
CN113778066A (zh) * 2021-09-24 2021-12-10 上海和夏新能源科技有限公司 基于真值采集的智能驾驶及adas测试方法和系统

Also Published As

Publication number Publication date
CN114543842B (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
CN109829386B (zh) 基于多源信息融合的智能车辆可通行区域检测方法
EP3673407B1 (en) Automatic occlusion detection in road network data
US20210311490A1 (en) Crowdsourcing a sparse map for autonomous vehicle navigation
US11423677B2 (en) Automatic detection and positioning of pole-like objects in 3D
CN106767853B (zh) 一种基于多信息融合的无人驾驶车辆高精度定位方法
CN109084786B (zh) 一种地图数据的处理方法
EP3843002A1 (en) Crowdsourcing and distributing a sparse map, and lane measurements for autonomous vehicle navigation
CN108645420B (zh) 一种基于差分导航的自动驾驶车辆多路径地图的创建方法
JP2015004814A (ja) レーン地図生成装置及びプログラム
CN111771207A (zh) 增强的车辆跟踪
CN111006655A (zh) 机场巡检机器人多场景自主导航定位方法
CN110796007A (zh) 场景识别的方法与计算设备
CN113885062A (zh) 基于v2x的数据采集融合设备、方法和系统
US11704897B2 (en) Lane count estimation
CN113252051A (zh) 一种地图构建方法及装置
Zinoune et al. Detection of missing roundabouts in maps for driving assistance systems
Gressenbuch et al. Mona: The munich motion dataset of natural driving
CN112633812B (zh) 货运车辆的轨迹分段方法、装置、设备及存储介质
CN114543842B (zh) 一种多传感器融合定位系统的定位精度评价系统及方法
Kumar et al. A Survey on Localization for Autonomous Vehicles
CN115562076A (zh) 用于无人驾驶矿车的仿真系统、方法以及存储介质
CN116052469A (zh) 一种基于车路协同轨迹预测的车辆碰撞预警方法
CN115235452A (zh) 基于uwb/imu和视觉信息融合的智能泊车定位系统及方法
Elfring et al. Vehicle localization using a traffic sign map
Kreibich et al. Lane-level matching algorithm based on GNSS, IMU and map data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant