CN111222568A - 一种车辆网联数据融合方法及装置 - Google Patents

一种车辆网联数据融合方法及装置 Download PDF

Info

Publication number
CN111222568A
CN111222568A CN202010008270.2A CN202010008270A CN111222568A CN 111222568 A CN111222568 A CN 111222568A CN 202010008270 A CN202010008270 A CN 202010008270A CN 111222568 A CN111222568 A CN 111222568A
Authority
CN
China
Prior art keywords
data
fusion
vehicle
sensor
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010008270.2A
Other languages
English (en)
Inventor
纪明君
陈新
李彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Automotive Group Co Ltd
Beijing Automotive Research Institute Co Ltd
Original Assignee
Beijing Automotive Group Co Ltd
Beijing Automotive Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Automotive Group Co Ltd, Beijing Automotive Research Institute Co Ltd filed Critical Beijing Automotive Group Co Ltd
Priority to CN202010008270.2A priority Critical patent/CN111222568A/zh
Publication of CN111222568A publication Critical patent/CN111222568A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请提供一种车辆网联数据融合方法及装置,涉及数据处理技术领域。该车辆网联数据融合方法包括先获取目标车辆的传感器检测数据和目标车辆接收到的车辆网联数据;然后对传感器检测数据进行数据融合处理,得到传感器融合数据;再对传感器融合数据和车辆网联数据进行时空同步处理,得到与传感器融合数据时空同步的车辆网联数据;最后对传感器融合数据以及时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据。进而实现不仅能够对本车自身的传感数据进行融合,还能够将传感数据与网联数据进行融合,进而准确预测本车及其本车与周围其他物体之间的行驶情况。

Description

一种车辆网联数据融合方法及装置
技术领域
本申请涉及数据处理技术领域,具体而言,涉及一种车辆网联数据融合方法及装置。
背景技术
目前,随着国内汽车保有率的快速上升,道路交通安全的形势愈发严峻。同时,随着移动互联网技术和电子信息技术的飞速发展,通过数据融合技术来对不同的数据进行融合处理得到更完成和全面的数据信息,进而提高交通运输效率、减少交通安全事故、改善驾驶体验。现有的数据融合方法通常通过对本车自身的传感数据进行融合,进而感知本车的行驶情况。然而在实践中发现,仅仅对本车自身的传感数据进行融合,无法准确预测车辆的行驶情况,且无法检测本车和其他物体之间的行车情况。
发明内容
本申请实施例的目的在于提供一种车辆网联数据融合方法及装置,不仅能够对本车自身的传感数据进行融合,还能够将传感数据与网联数据进行融合,进而准确预测本车及其本车与周围其他物体之间的行驶情况。
本申请实施例第一方面提供了一种车辆网联数据融合方法,包括:
获取目标车辆的传感器检测数据和所述目标车辆接收到的车辆网联数据;
对所述传感器检测数据进行数据融合处理,得到传感器融合数据;
对所述传感器融合数据和所述车辆网联数据进行时空同步处理,得到与所述传感器融合数据时空同步的车辆网联数据;
对所述传感器融合数据以及所述时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据。
在上述实现过程中,在进行车辆网联数据融合时,先进行目标车辆本车的传感器检测数据的融合,再进行车辆网联数据与传感器融合数据的融合,进而实现不仅能够对本车自身的传感数据进行融合,还能够将传感数据与网联数据进行融合,进而准确预测本车及其本车与周围其他物体之间的行驶情况。
进一步地,所述对所述传感器检测数据进行数据融合处理,得到传感器融合数据,包括:
通过多线激光雷达数据处理算法、卡尔曼滤波算法以及数据关联算法中至少一种算法对传感器检测数据进行数据融合处理,得到传感器融合数据,所述传感器检测数据包括雷达点云数据和其他传感器检测数据。
在上述实现过程中,对传感器检测数据进行数据融合处理,即进行多传感器数据融合处理,多传感器数据融合处理是将来自多个传感器的信息与数据,在一定准则下进行综合分析,以得到后续车载端的决策所需要的稳定环境感知结果。
进一步地,所述通过多线激光雷达数据处理算法、卡尔曼滤波算法以及数据关联算法中至少一种算法对传感器检测数据进行数据融合处理,得到传感器融合数据,得到传感器融合数据,包括:
通过所述多线激光雷达数据处理算法对所述雷达点云数据进行处理,得到目标检测跟踪数据;
对所述目标检测跟踪数据和所述其他传感器检测数据进行时空同步处理,得到时空同步目标物信息;
通过所述数据关联算法对所述时空同步目标物信息进行数据关联处理,得到关联数据;以及通过卡尔曼滤波算法对关联数据进行数据融合处理,得到传感器融合数据。
在上述实现过程中,在进行多传感器数据融合处理之前,只需要对雷达点云数据进行预处理得到目标检测跟踪数据,不需要对其他传感器原始数据进行预处理,在进行时空同步处理时所有传感器对应的数据的数据格式一致,有利于提升数据处理速度。
进一步地,所述通过所述多线激光雷达数据处理算法对所述雷达点云数据进行处理,得到目标检测跟踪数据,包括:
对所述雷达点云数据进行二值化处理,得到栅格图像数据;
通过区域标记算法提取所述栅格图像数据中目标物的目标物数据;
通过预设的映射模型将所述目标物数据还原至所述雷达点云数据对应的激光雷达坐标系下,得到所述目标物的位置参数数据和几何参数数据;
根据所述雷达点云数据对所述目标物进行目标跟踪处理,得到所述目标物的速度参数数据;
根据所述位置参数数据、所述几何参数数据和所述速度参数数据生成目标检测跟踪数据。
在上述实现过程中,对雷达电晕数据进行预处理时,先对原始点云图像进行二值化处理,生成栅格图,之后利用区域标记算法抽取栅格图中的目标物数据,再利用映射模型将目标物数据还原至激光雷达坐标系下,得到目标物的位置参数数据和几何参数数据,最后再对面部嗷呜记性跟踪处理,得到目标检测跟踪数据。
进一步地,对所述传感器融合数据和所述车辆网联数据进行时空同步处理,得到与所述传感器融合数据时空同步的车辆网联数据,包括:
通过卡尔曼滤波算法对所述传感器融合数据和所述车辆网联数据进行时空同步处理,得到与所述传感器融合数据时空同步的车辆网联数据。
在上述实现过程中,对传感器融合数据和车辆网联数据进行时空同步处理,有利于减少由于时空不同步导致的误差,提升数据精度。
进一步地,对所述传感器融合数据以及与所述传感器融合数据时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据,包括:
对所述传感器融合数据以及与所述传感器融合数据时空同步的车辆网联数据进行数据关联处理,得到数据关联结果;
根据所述数据关联结果判断所述数据关联处理是否成功;
若是,将所述传感器融合数据与所述时空同步的车辆网联数据进行匹配比较,从所述时空同步的车辆网联数据中确定出与所述传感器融合数据相匹配的目标数据,以及从所述传感器融合数据中确定出与所述目标数据对应的待替换数据;
将所述传感器融合数据中的所述待替换数据替换为所述目标数据,得到车辆网联融合数据。
在上述实现过程中,通过将传感器融合数据以及与传感器融合数据时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据,能够为车辆的行驶提供更加可靠全面的数据。
进一步地,所述方法还包括:
当判断出所述数据关联处理未成功时,将所述时空同步的车辆网联数据添加至所述传感器融合数据中,得到车辆网联融合数据。
在上述实现过程中,关联未成功,表示传感器融合数据中没有该时空同步的车辆网联数据,因此,将时空同步的车辆网联数据添加至传感器融合数据中,进而完善目标车辆的检测数据。
进一步地,对所述传感器融合数据以及所述时空同步的车辆网联数据进行数据关联处理,得到数据关联结果,包括:
通过马氏距离对所述传感器融合数据以及所述时空同步的车辆网联数据进行数据关联处理,得到数据关联结果。
在上述实现过程中,通过马氏距离进行数据关联,有利于提升数据关联的精度。
本申请实施例第二方面提供了一种车辆网联数据融合装置,包括:
获取模块,用于获取目标车辆的传感器检测数据和所述目标车辆接收到的车辆网联数据;
第一融合模块,用于对所述传感器检测数据进行数据融合处理,得到传感器融合数据;
时空同步模块,用于对所述传感器融合数据和所述车辆网联数据进行时空同步处理,得到与所述传感器融合数据时空同步的车辆网联数据;
第二融合模块,用于对所述传感器融合数据以及所述时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据。
在上述实现过程中,先进行目标车辆本车的传感器检测数据的融合,再进行车辆网联数据与传感器融合数据的融合,进而能够准确预测本车及其本车与周围其他物体之间的行驶情况。
本申请实施例第三方面提供了一种计算机设备,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述计算机设备执行根据本申请实施例第一方面中任一项所述的车辆网联数据融合方法。
本申请实施例第四方面提供了一种计算机可读存储介质,其存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行本申请实施例第一方面中任一项所述的车辆网联数据融合方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例一提供的一种车辆网联数据融合方法的流程示意图;
图2为本申请实施例一提供的一种车辆传感器布局示意图;
图3为本申请实施例二提供的一种车辆网联数据融合方法的流程示意图;
图4为本申请实施例三提供的一种车辆网联数据融合装置的结构示意图;
图5为本申请实施例三提供的另一种车辆网联数据融合装置的结构示意图。
图标:A-短距离雷达,B-倒车雷达,C-4线激光雷达,D-多线激光雷达,E-摄像头,F-惯导。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例1
请参看图1,图1为本申请实施例提供的一种车辆网联数据融合方法的流程示意框图。如图1所示,该车辆网联数据融合方法包括:
S101、获取目标车辆的传感器检测数据和目标车辆接收到的车辆网联数据。
本申请实施例中,车辆网联数据包括V2I(Vehicle to Internet,车联网)数据以及V2V(Vehicle to Vehicle,车与车互联)数据等,对此本申请实施例不作限定。
在实际使用中,道路监控装置可以发送V2I数据给目标车辆,V2I数据可以包括前方道路危险、施工信息登,以使目标车辆进行换道决策和执行。道路施工通过网联技术可以让车辆提前有所准备,同时道路施工的路障行驶多样,对感知系统是一种挑战,例如,许多的施工现场习惯采用锥形桶的方式进行施工现场的隔离,锥形桶作为细尖的塑料物体,不容易被感知系统感知。另一方面,在目标车辆进入匝道过程中,V2I信息做为感知的一种信息来源,与传感器检测数据进行融合,参与决策和执行。匝道及匝道口作为一种特殊道路分叉的路况,靠车辆的感知系统很难有效感知,车辆自身的感知系统只能对车辆前方的数据有效进行感知,对侧方的路况的感知、识别存在一定的难度。通过路边单元对匝道口信息进行广播通知,能够让车辆提前对匝道信息得到把握,从而为车辆进出匝道的决策行为提供有效数据。
在实际使用中,V2V信息做为目标车辆的一种信息来源,与传感器检测数据进行融合,参与决策和执行。单靠自身车辆的感知系统很难预测他车辆的行为,例如在超视距的状态下,感知系统感知不到被遮挡车辆的行为,更没有办法预测被遮挡车辆的行为,从而无法做出安全可靠的换道决策。另一方面,驾驶员的驾驶行为随着环境的变化而变化,具有很多的不确定性,所以仅仅通过自测的传感器预测其他车辆的驾驶行为是一件困难的事情。通过其他车辆发送的V2V信息能够附属目标车辆很好的把握路况,为车辆换道决策提供安全可靠的数据。
本申请实施例中,传感器检测数据主要涉及六大类主流数据,包括摄像头数据、毫米波雷达数据、激光雷达数据、超声波雷达数据、GNSS(Global Navigation SatelliteSystem,全球导航卫星系统)定位数据、V2X(Vehicle to Everything,车与万物互联)数据等对此本申请实施例不作限定。
请一并参阅图2,图2是本申请实施例提供的一种车辆传感器布局示意图。如图2所示,车辆四周采用短距离雷达A(如角毫米波雷达ESR),车辆前方护板位置装测距长的倒车雷达B(毫米波雷达)及4线激光雷达C,车前方左右两侧位置放置多线激光雷达D,前挡风玻璃位置安装摄像头E,后备箱里放置惯导F及V2X设备,惯导F及V2X设备的天线放在天窗附近。具体的,前向毫米波雷达B(可以设置1个),安装于车身前正中间位置,用于前方障碍物信息检测;侧向毫米波雷达A(可以设置4个),安装于车身前侧和后侧(前侧向毫米波雷达RSDS接插件朝向后方,并分别与车辆X轴方向夹角30度;后侧向侧向毫米波雷达RSDS接插件朝向前方,并分别与车辆X轴方向夹角150度),用于侧方和后方障碍物信息检测在车辆变道或转弯时提醒驾驶员,特别是通过反光镜无法监视到的盲点区域;视觉传感器Mobileye(可以设置1个),安装于车辆前挡风玻璃中上部位置,用于前方障碍物及道路环境(车道线、交通标识符等)感知;多线激光雷达D(如:Velodyne16,可以设置2个)安装于车辆两个反光镜旁边位置,且水平放置,用于车辆周围障碍物信息检测;线激光雷达B(可以设置1个)安装于车辆前向保险杠正中间位置,用于探测车辆前向障碍物信息;惯性导航设备RT2500,即惯导F(可以设置1个),安装于车辆后方,用于车身姿态及运动状态检测;车载摄像头E(可以设置1个或者3个),安装于前挡风玻璃处,用于获取自车辆前向的实时路况信息;全球定位系统DGPS(可以设置1个),安装于车辆后方,用于获得高精度的车辆位置信息;V2X设备(可以设置1个),安装于车辆后方,通过通信手段获取路况信息。
在步骤S101之后,还包括以下步骤:
S102、对传感器检测数据进行数据融合处理,得到传感器融合数据。
作为一种可选的实施方式,对传感器检测数据进行数据融合处理,得到传感器融合数据,可以包括以下步骤:
通过多线激光雷达数据处理算法、卡尔曼滤波算法以及数据关联算法中至少一种算法对传感器检测数据进行数据融合处理,得到传感器融合数据。
本申请实施例中,传感器检测数据包括雷达点云数据和其他传感器检测数据。其中,其他传感器可以为摄像头、图像传感器、位置传感器等,对此本申请实施例不作限定。
本申请实施例中,传感器检测数据包括多个传感器所检测到的数据,对传感器检测数据进行数据融合处理,即进行多传感器数据融合处理,多传感器数据融合处理是将来自多个传感器的信息与数据,在一定准则下进行综合分析,以得到后续车载端的决策所需要的稳定环境感知结果。
本申请实施例中,多传感器数据融合处理可以采用的是后端融合方式,即在获取视觉、激光雷达以及毫米波雷达等主要传感器输出的目标检测和跟踪结果后,通过时间、空间同步技术及概率统计方法,将不同时间、空间的多个传感器的信息融合为最接近实际环境的目标物信息,进而得到传感器融合数据。
作为一种可选的实施方式,对传感器检测数据进行数据融合处理,得到传感器融合数据,可以包括以下步骤:
对传感器检测数据进行目标匹配处理,得到目标匹配结果;
根据目标匹配结果对传感器检测数据进行选择处理,得到目标传感器检测数据;
对目标传感器检测数据进行目标跟踪处理,得到传感器融合数据。
在上述实施方式中,在进行目标匹配处理、选择处理和目标跟踪处理的同时,还需要进行生命周期管理。每一生命周期可能会有新目标出现及旧目标的消失。对于没有新观测值的目标,需要从跟踪序列中删除。对于新的观测值,需要建立一个新目标来初始化跟踪,这一过程称为生命周期管理。生命周期管理涉及到目标的生成、确认及消亡等环节,可以采用了目标初始化模块和跟踪模块并行处理的架构,可有效消除杂波目标的干扰并迅速确认新目标。
在上述实施方式中,对传感器检测数据进行目标匹配处理,即将本周期新接收到的传感器检测数据与跟踪目标相匹配。雷达在目标纵向距离上相对准确,但横向上误差较大;而摄像头则恰好相反。因此每一周期获得的多个传感器检测目标是有偏离的,然后再确定出由同一目标产生的传感器检测数据。
在上述实施方式中,如果已经确认多个分别来自不同传感器的观测值对应着同一个目标对象。不同的传感器有各自的观测值分布曲线,由于传感器特性的不同,不同传感器的观测值分布曲线有不同的方差,且观测值分布曲线可能也不尽相同。因此融合算法需要从不同传感器的特性出发,综合对应误差分布曲线得到融合结果的概率分布。
在上述实施方式中,对目标传感器检测数据进行目标跟踪处理时,检测目标满足以下两个条件时,该目标才会被生成待跟踪的新目标:在目标出现的前2个周期内,该目标都能匹配成功;在接下来的3个周期内,至少有2个周期该目标能匹配成功。具有计算量少,无需考虑跟踪匹配的质量,只需保证前后周期的目标在门函数范围内的优点。另外,还可以采用包围框重叠率作为新目标生成的评价标准。
在步骤S102之后,还包括以下步骤:
S103、对传感器融合数据和车辆网联数据进行时空同步处理,得到与传感器融合数据时空同步的车辆网联数据。
本申请实施例中,可以采用卡尔曼滤波算法对传感器融合数据和车辆网联数据进行时空同步处理。
S104、对传感器融合数据以及时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据。
本申请实施例中,对传感器融合数据以及时空同步的车辆网联数据进行融合处理,时,先将传感器融合数据与时空同步的车辆网联数据进行数据关联处理,得到关联结果,并根据关联结果判断是否数据关联成功;如果数据关联成功,则将传感器融合数据中与时空同步的车辆网联数据匹配的数据替换为该时空同步的车辆网联数据,如果关联不成功,则在传感器融合数据中增加该时空同步的车辆网联数据。
可见,实施图1所描述的车辆网联数据融合方法,不仅能够对本车自身的传感数据进行融合,还能够将传感数据与网联数据进行融合,进而准确预测本车及其本车与周围其他物体之间的行驶情况。
实施例2
请参看图3,图3为本申请实施例提供的一种车辆网联数据融合方法的流程示意框图。如图3所示,该车辆网联数据融合方法包括:
S201、获取目标车辆的传感器检测数据和目标车辆接收到的车辆网联数据。
本申请实施例中,传感器检测数据包括雷达点云数据和其他传感器检测数据。车辆网联数据包括V2I数据以及V2V数据等,对此本申请实施例不作限定。
S202、对雷达点云数据进行二值化处理,得到栅格图像数据;以及通过区域标记算法提取栅格图像数据中目标物的目标物数据。
本申请实施例中,对激光雷达采集到的点云图像进行二值化处理,生成栅格图,有点云的栅格赋值为1,无点云的栅格赋值为0,即生成二值化的删格图像,也就是对激光雷达图像的前景和背景进行了分离,其中前景点云部分就包括了所要检测的目标。
本申请实施例中,利用前景点云的二值点云图,提取图像域中的目标物,可采用连通区域标记算法,将距离靠近的像素标记为一类目标,但同一目标像素并非处处相邻,如果直接应用连通区域标记将会导致过分割,即一个目标被分为多个目标。针对这种情况,可采用像素形态学变化对原始点云图像进行处理,而后利用区域标记算法抽取目标,得到目标物数据。
S203、通过预设的映射模型将目标物数据还原至雷达点云数据对应的激光雷达坐标系下,得到目标物的位置参数数据和几何参数数据;以及根据雷达点云数据对目标物进行目标跟踪处理,得到目标物的速度参数数据。
本申请实施例中,通过激光雷达的点云聚类检测到目标后,可获知目标的位置参数和几何参数,而速度参数需要通过目标的跟踪来获取,即需要在连续多帧点云条件下建立参数观测模型来对目标物进行跟踪和滤波处理。
S204、根据位置参数数据、几何参数数据和速度参数数据生成目标检测跟踪数据。
本申请实施例中,实施上述步骤S202~步骤S204,能够通过多线激光雷达数据处理算法对雷达点云数据进行处理,得到目标检测跟踪数据。
本申请实施例中,在进行多传感器数据融合处理之前,只需要对雷达点云数据进行步骤S202~步骤S204的数据预处理,不需要对其他传感器原始数据进行预处理,在完成进行步骤S202~步骤S204之后,所有传感器对应的数据的数据格式一致。
S205、对目标检测跟踪数据和其他传感器检测数据进行时空同步处理,得到时空同步目标物信息。
本申请实施例中,可以通过卡尔曼滤波算法对目标检测跟踪数据和其他传感器检测数据进行时空同步处理。
在步骤S205之后,还包括以下步骤:
S206、通过数据关联算法对时空同步目标物信息进行数据关联处理,得到关联数据;以及通过卡尔曼滤波算法对关联数据进行数据融合处理,得到传感器融合数据。
本申请实施例中,通过数据关联算法对时空同步目标物信息进行数据关联处理时,可以采用选用马氏距离(Mahalanobis Distance)来衡量时空同步目标物信息中检测数据与预测数据之间的偏差,本质上衡量的是两个状态向量分布的相似度。预测数据Zk|k-1与检测数据Zt(即实际值)的距离定义如下:
Figure BDA0002354766280000131
其中,
Figure BDA0002354766280000132
为该检测数据两个样本间协方差矩阵。如果dm足够小,说明检测数据与预测数据越接近。状态向量的分布是由平均值和协方差矩阵来刻画的,其中协方差矩阵反映了状态向量在特征空间中的分布形状。
本申请实施例中,针对目标检测跟踪数据和其他传感器检测数据中的每一个数据,都可以获得其对应的一个估计值,再将该估计值与其对应的协方差矩阵进行关联,生成状态向量。
本申请实施例中,所采用的跟踪目标的运动模型可为:Xk+1=AXk+wk;其中,Xk和Xk+1为融合后的状态向量,k和k+1均表示时刻,A为状态转移矩阵,wk为运动噪声。融合后的状态向量对应的观测模型为:Zk+1=HXk+vk+1;其中Zk+1为观测量,为预测值,H为观测矩阵,vk+1为观测噪声。采用的常速度模型,包括:Xk=[x y vx vy]T
Figure BDA0002354766280000133
Zk=[x y]T
Figure BDA0002354766280000134
其中,x和y代表不同的传感器数据对应的状态向量。
本申请实施例中,在通过卡尔曼滤波进行数据融合时,测量向量Zk是来自多个传感器测量数据的合成,即Zk=[x1 y1 x2 y2]T。同样的,观测矩阵H和观测噪声vk+1也要进行相应的合成处理。
本申请实施例中,使用固定个数传感器对应的合成测量值。若一个传感器有测量信息,则将该测量值及该传感器的观测噪声矩阵赋值,否则该测量值置零且观测噪声置为足够大的值。上述处理方法可以有效的融合多个传感器的测量值,且能够做到传感器间的自由切换。
本申请实施例中,假设不同传感器获取到的数据是观测目标的同一子类,首先依据马尔科夫过程确定关联数据的概率分布,然后再对关联数据进行混合处理,得到初步估计数据。其中,所采用的公式如下:
(1)根据xi(k-1|k-1)对关联数据进行初始值混合处理。设有r个信息源(r类传感器),每类传感器对应一个关联数据(即观测量);
其初始值混合处理公式为:
Figure BDA0002354766280000141
其中,
Figure BDA0002354766280000142
其中,Pij表示马尔科夫过程中,从模式i转换到模式j的转换概率阵;cj为正则化常数,模式i表示i类传感器对应的关联数据,模式j表示j类传感器的数据,k表示第k时刻,x0j中,0表示初始时刻,k-1时刻表示0时刻的前一时刻。
(2)相应的协方差阵为:
Figure BDA0002354766280000143
其中,
Figure BDA0002354766280000144
以上两式的估计值和协方差作为卡尔曼滤波中初步迭代的xj(k-1∣k-1)和Pj(k-1∣k-1)。
(3)r个滤波器的似然函数公式为:
Lj(k)=P[z(k)|Mj(k),x0j(k-1|k-1),P0j(k-1|k-1)];
其中,z(k)表示第k时刻j类传感器的关联数据(即观测量),Mj(k)为一中间物理量,表示k时刻模式j的向量。
(4)纠正模型的概率公式为:
Figure BDA0002354766280000151
其中,zk表示k时刻所有传感器的关联数据(即观测量)的集合,c表示常量参数。
(5)状态估计公式为:
Figure BDA0002354766280000152
方差输出公式为:
Figure BDA0002354766280000153
其中,对于r类传感器k时刻的状态估计,可以通过分别获得每类传感器k-1时刻的状态,再通过每类传感器k-1时刻的状态混合计算,获得r类传感器k时刻的状态估计;也可以通过获得r类传感器k-1时刻的混合状态,再通过r类传感器k-1时刻的混合状态预估r类传感器k时刻的混合状态。
S207、通过卡尔曼滤波算法对传感器融合数据和车辆网联数据进行时空同步处理,得到与传感器融合数据时空同步的车辆网联数据。
本申请实施例中,卡尔曼滤波(Kalman filtering)一种利用线性系统状态方程,通过系统输入输出观测数据,对系统状态进行最优估计的算法。
本申请实施例中,当接收到V2V数据时,需要跟目标车辆的传感器融合数据进行时间及空间上的同步。时空同步方法可以采用卡尔曼滤波算法。
本申请实施例中,实施上述步骤S207,能够对传感器融合数据和车辆网联数据进行时空同步处理,得到与传感器融合数据时空同步的车辆网联数据。
在步骤S207之后,还包括以下步骤:
S208、通过马氏距离对传感器融合数据以及时空同步的车辆网联数据进行数据关联处理,得到数据关联结果。
本申请实施例中,选用马氏距离(Mahalanobis Distance)来衡量传感器融合数据与时空同步的车辆网联数据的偏差,本质上衡量的是两个状态向量分布的相似度。时空同步的车辆网联数据Zk|k-1与传感器融合数据Zt(即实际值)的距离定义如下:
Figure BDA0002354766280000161
其中,
Figure BDA0002354766280000162
为该传感器融合数据的两个样本间协方差矩阵。如果dm足够小,说明传感器融合数据与时空同步的车辆网联数据越接近。状态向量的分布是由平均值和协方差矩阵来刻画的,其中协方差矩阵反映了状态向量在特征空间中的分布形状。
S209、根据数据关联结果判断数据关联处理是否成功,如果是,执行步骤S210~步骤S211;如果否,执行步骤S212。
S210、将传感器融合数据与时空同步的车辆网联数据进行匹配比较,从时空同步的车辆网联数据中确定出与传感器融合数据相匹配的目标数据,以及从传感器融合数据中确定出与目标数据对应的待替换数据。
S211、将传感器融合数据中的待替换数据替换为目标数据,得到车辆网联融合数据,并结束本流程。
S212、将时空同步的车辆网联数据添加至传感器融合数据中,得到车辆网联融合数据。
本申请实施例中,实施上述步骤S208~步骤S211,能够对传感器融合数据以及时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据。
可见,实施图3所描述的车辆网联数据融合方法,不仅能够对本车自身的传感数据进行融合,还能够将传感数据与网联数据进行融合,进而准确预测本车及其本车与周围其他物体之间的行驶情况。
实施例3
请参看图4,图4为本申请实施例提供的一种车辆网联数据融合装置的结构示意框图。如图4所示,该车辆网联数据融合装置包括:
获取模块310,用于获取目标车辆的传感器检测数据和目标车辆接收到的车辆网联数据。
第一融合模块320,用于对传感器检测数据进行数据融合处理,得到传感器融合数据。
时空同步模块330,用于对传感器融合数据和车辆网联数据进行时空同步处理,得到与传感器融合数据时空同步的车辆网联数据。
第二融合模块340,用于对传感器融合数据以及时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据。
作为一种可选的实施方式,第一融合模块320,用于通过多线激光雷达数据处理算法、卡尔曼滤波算法以及数据关联算法中至少一种算法对传感器检测数据进行数据融合处理,得到传感器融合数据。
本申请实施例中,传感器检测数据包括雷达点云数据和其他传感器检测数据等,对此本申请实施例不作限定。
请一并参阅图5,图5是本申请实施例提供的另一种车辆网联数据融合装置的结构示意框图。其中,图5所示的车辆网联数据融合装置是由图4所示的车辆网联数据融合装置进行优化得到的。如图5所示,第一融合模块320,包括:
第一处理子模块321,用于通过多线激光雷达数据处理算法对雷达点云数据进行处理,得到目标检测跟踪数据。
第二处理子模块322,用于对目标检测跟踪数据和其他传感器检测数据进行时空同步处理,得到时空同步目标物信息。
第三处理子模块323,用于通过数据关联算法对时空同步目标物信息进行数据关联处理,得到关联数据;以及通过卡尔曼滤波算法对关联数据进行数据融合处理,得到传感器融合数据。
本申请实施例中,第一处理子模块321包括:
二值化单元,用于对雷达点云数据进行二值化处理,得到栅格图像数据。
提取单元,用于通过区域标记算法提取栅格图像数据中目标物的目标物数据。
还原单元,用于通过预设的映射模型将目标物数据还原至雷达点云数据对应的激光雷达坐标系下,得到目标物的位置参数数据和几何参数数据。
跟踪单元,用于根据雷达点云数据对目标物进行目标跟踪处理,得到目标物的速度参数数据。
数据生成单元,用于根据位置参数数据、几何参数数据和速度参数数据生成目标检测跟踪数据。
本申请实施例中,时空同步模块330,具体用于通过卡尔曼滤波算法对传感器融合数据和车辆网联数据进行时空同步处理,得到与传感器融合数据时空同步的车辆网联数据。
本申请实施例中,第二融合模块340包括:
关联子模块341,用于对传感器融合数据以及与传感器融合数据时空同步的车辆网联数据进行数据关联处理,得到数据关联结果。
关联判断子模块342,用于根据数据关联结果判断数据关联处理是否成功。
融合子模块343,用于当判断出数据关联处理成功时,将传感器融合数据与时空同步的车辆网联数据进行匹配比较,从时空同步的车辆网联数据中确定出与传感器融合数据相匹配的目标数据,以及从传感器融合数据中确定出与目标数据对应的待替换数据;以及将传感器融合数据中的待替换数据替换为目标数据,得到车辆网联融合数据。
本申请实施例中,融合子模块343,还用于当判断出数据关联处理未成功时,将时空同步的车辆网联数据添加至传感器融合数据中,得到车辆网联融合数据。
本申请实施例中,关联子模块341,具体用于通过马氏距离对传感器融合数据以及时空同步的车辆网联数据进行数据关联处理,得到数据关联结果。
可见,实施本实施例所描述的车辆网联数据融合装置,不仅能够对本车自身的传感数据进行融合,还能够将传感数据与网联数据进行融合,进而准确预测本车及其本车与周围其他物体之间的行驶情况。
此外,本发明还提供了一种计算机设备。该计算机设备包括存储器和处理器,存储器可用于存储计算机程序,处理器通过运行计算机程序,从而使该计算机设备执行上述方法或者上述车辆网联数据融合装置中的各个模块的功能。
存储器可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据移动终端的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
本实施例还提供了一种计算机存储介质,用于储存上述计算机设备中使用的计算机程序。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (10)

1.一种车辆网联数据融合方法,其特征在于,包括:
获取目标车辆的传感器检测数据和所述目标车辆接收到的车辆网联数据;
对所述传感器检测数据进行数据融合处理,得到传感器融合数据;
对所述传感器融合数据和所述车辆网联数据进行时空同步处理,得到与所述传感器融合数据时空同步的车辆网联数据;
对所述传感器融合数据以及所述时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据。
2.根据权利要求1所述的车辆网联数据融合方法,其特征在于,所述对所述传感器检测数据进行数据融合处理,得到传感器融合数据,包括:
通过多线激光雷达数据处理算法、卡尔曼滤波算法以及数据关联算法中至少一种算法对传感器检测数据进行数据融合处理,得到传感器融合数据,所述传感器检测数据包括雷达点云数据和其他传感器检测数据。
3.根据权利要求2所述的车辆网联数据融合方法,其特征在于,所述通过多线激光雷达数据处理算法、卡尔曼滤波算法以及数据关联算法中至少一种算法对传感器检测数据进行数据融合处理,得到传感器融合数据,得到传感器融合数据,包括:
通过所述多线激光雷达数据处理算法对所述雷达点云数据进行处理,得到目标检测跟踪数据;
对所述目标检测跟踪数据和所述其他传感器检测数据进行时空同步处理,得到时空同步目标物信息;
通过所述数据关联算法对所述时空同步目标物信息进行数据关联处理,得到关联数据;以及通过卡尔曼滤波算法对关联数据进行数据融合处理,得到传感器融合数据。
4.根据权利要求3所述的车辆网联数据融合方法,其特征在于,所述通过所述多线激光雷达数据处理算法对所述雷达点云数据进行处理,得到目标检测跟踪数据,包括:
对所述雷达点云数据进行二值化处理,得到栅格图像数据;
通过区域标记算法提取所述栅格图像数据中目标物的目标物数据;
通过预设的映射模型将所述目标物数据还原至所述雷达点云数据对应的激光雷达坐标系下,得到所述目标物的位置参数数据和几何参数数据;
根据所述雷达点云数据对所述目标物进行目标跟踪处理,得到所述目标物的速度参数数据;
根据所述位置参数数据、所述几何参数数据和所述速度参数数据生成目标检测跟踪数据。
5.根据权利要求1所述的车辆网联数据融合方法,其特征在于,对所述传感器融合数据和所述车辆网联数据进行时空同步处理,得到与所述传感器融合数据时空同步的车辆网联数据,包括:
通过卡尔曼滤波算法对所述传感器融合数据和所述车辆网联数据进行时空同步处理,得到与所述传感器融合数据时空同步的车辆网联数据。
6.根据权利要求1所述的车辆网联数据融合方法,其特征在于,对所述传感器融合数据以及与所述传感器融合数据时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据,包括:
对所述传感器融合数据以及与所述传感器融合数据时空同步的车辆网联数据进行数据关联处理,得到数据关联结果;
根据所述数据关联结果判断所述数据关联处理是否成功;
若是,将所述传感器融合数据与所述时空同步的车辆网联数据进行匹配比较,从所述时空同步的车辆网联数据中确定出与所述传感器融合数据相匹配的目标数据,以及从所述传感器融合数据中确定出与所述目标数据对应的待替换数据;
将所述传感器融合数据中的所述待替换数据替换为所述目标数据,得到车辆网联融合数据。
7.根据权利要求6所述的车辆网联数据融合方法,其特征在于,所述方法还包括:
当判断出所述数据关联处理未成功时,将所述时空同步的车辆网联数据添加至所述传感器融合数据中,得到车辆网联融合数据。
8.根据权利要求6所述的车辆网联数据融合方法,其特征在于,对所述传感器融合数据以及所述时空同步的车辆网联数据进行数据关联处理,得到数据关联结果,包括:
通过马氏距离对所述传感器融合数据以及所述时空同步的车辆网联数据进行数据关联处理,得到数据关联结果。
9.一种车辆网联数据融合装置,其特征在于,包括:
获取模块,用于获取目标车辆的传感器检测数据和所述目标车辆接收到的车辆网联数据;
第一融合模块,用于对所述传感器检测数据进行数据融合处理,得到传感器融合数据;
时空同步模块,用于对所述传感器融合数据和所述车辆网联数据进行时空同步处理,得到与所述传感器融合数据时空同步的车辆网联数据;
第二融合模块,用于对所述传感器融合数据以及所述时空同步的车辆网联数据进行融合处理,得到车辆网联融合数据。
10.一种计算机设备,其特征在于,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述计算机设备执行权利要求1至8中任一项所述的车辆网联数据融合方法。
CN202010008270.2A 2020-01-03 2020-01-03 一种车辆网联数据融合方法及装置 Pending CN111222568A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010008270.2A CN111222568A (zh) 2020-01-03 2020-01-03 一种车辆网联数据融合方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010008270.2A CN111222568A (zh) 2020-01-03 2020-01-03 一种车辆网联数据融合方法及装置

Publications (1)

Publication Number Publication Date
CN111222568A true CN111222568A (zh) 2020-06-02

Family

ID=70831214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010008270.2A Pending CN111222568A (zh) 2020-01-03 2020-01-03 一种车辆网联数据融合方法及装置

Country Status (1)

Country Link
CN (1) CN111222568A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753901A (zh) * 2020-06-23 2020-10-09 国汽(北京)智能网联汽车研究院有限公司 一种数据融合方法、装置、系统及计算机设备
CN112083412A (zh) * 2020-09-15 2020-12-15 纳瓦电子(上海)有限公司 毫米波雷达与c-v2x系统的融合方法及其系统和电子设备
CN112462381A (zh) * 2020-11-19 2021-03-09 浙江吉利控股集团有限公司 一种基于车路协同的多激光雷达融合方法
CN112639910A (zh) * 2020-09-25 2021-04-09 华为技术有限公司 交通元素的观测方法和装置
CN112698372A (zh) * 2020-12-11 2021-04-23 国汽(北京)智能网联汽车研究院有限公司 时空数据处理方法、装置、电子设备及存储介质
CN113281771A (zh) * 2021-03-31 2021-08-20 南京工程学院 一种应用于移动机器人的双雷达融合方法及设备
CN113450298A (zh) * 2021-08-31 2021-09-28 国汽智控(北京)科技有限公司 基于多传感器的视野图处理方法、装置和设备
CN114137587A (zh) * 2021-12-01 2022-03-04 西南交通大学 一种运动对象的位置估计与预测方法、装置、设备及介质
EP3958484A3 (en) * 2020-08-21 2022-04-06 Sap Se Interface for processing sensor data with hyperscale services
US11645247B2 (en) 2020-08-21 2023-05-09 Sap Se Ingestion of master data from multiple applications

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160223643A1 (en) * 2015-01-28 2016-08-04 Wenhua Li Deep Fusion of Polystatic MIMO Radars with The Internet of Vehicles for Interference-free Environmental Perception
CN106908783A (zh) * 2017-02-23 2017-06-30 苏州大学 基于多传感器信息融合的障碍物检测方法
CN109709593A (zh) * 2018-12-28 2019-05-03 国汽(北京)智能网联汽车研究院有限公司 基于“云-端”紧耦合的智能网联汽车车载终端平台
CN110208842A (zh) * 2019-05-28 2019-09-06 长安大学 一种车联网环境下车辆高精度定位方法
CN110532896A (zh) * 2019-08-06 2019-12-03 北京航空航天大学 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160223643A1 (en) * 2015-01-28 2016-08-04 Wenhua Li Deep Fusion of Polystatic MIMO Radars with The Internet of Vehicles for Interference-free Environmental Perception
CN106908783A (zh) * 2017-02-23 2017-06-30 苏州大学 基于多传感器信息融合的障碍物检测方法
CN109709593A (zh) * 2018-12-28 2019-05-03 国汽(北京)智能网联汽车研究院有限公司 基于“云-端”紧耦合的智能网联汽车车载终端平台
CN110208842A (zh) * 2019-05-28 2019-09-06 长安大学 一种车联网环境下车辆高精度定位方法
CN110532896A (zh) * 2019-08-06 2019-12-03 北京航空航天大学 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753901A (zh) * 2020-06-23 2020-10-09 国汽(北京)智能网联汽车研究院有限公司 一种数据融合方法、装置、系统及计算机设备
CN111753901B (zh) * 2020-06-23 2023-08-15 国汽(北京)智能网联汽车研究院有限公司 一种数据融合方法、装置、系统及计算机设备
EP3958484A3 (en) * 2020-08-21 2022-04-06 Sap Se Interface for processing sensor data with hyperscale services
US11726846B2 (en) 2020-08-21 2023-08-15 Sap Se Interface for processing sensor data with hyperscale services
US11645247B2 (en) 2020-08-21 2023-05-09 Sap Se Ingestion of master data from multiple applications
CN112083412A (zh) * 2020-09-15 2020-12-15 纳瓦电子(上海)有限公司 毫米波雷达与c-v2x系统的融合方法及其系统和电子设备
CN112639910A (zh) * 2020-09-25 2021-04-09 华为技术有限公司 交通元素的观测方法和装置
EP4207133A4 (en) * 2020-09-25 2023-11-01 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR OBSERVING TRAFFIC ELEMENT
CN112462381A (zh) * 2020-11-19 2021-03-09 浙江吉利控股集团有限公司 一种基于车路协同的多激光雷达融合方法
CN112698372A (zh) * 2020-12-11 2021-04-23 国汽(北京)智能网联汽车研究院有限公司 时空数据处理方法、装置、电子设备及存储介质
CN113281771A (zh) * 2021-03-31 2021-08-20 南京工程学院 一种应用于移动机器人的双雷达融合方法及设备
CN113281771B (zh) * 2021-03-31 2023-07-28 南京工程学院 一种应用于移动机器人的双雷达融合方法及设备
CN113450298A (zh) * 2021-08-31 2021-09-28 国汽智控(北京)科技有限公司 基于多传感器的视野图处理方法、装置和设备
CN114137587A (zh) * 2021-12-01 2022-03-04 西南交通大学 一种运动对象的位置估计与预测方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN111222568A (zh) 一种车辆网联数据融合方法及装置
CN108571974B (zh) 使用摄像机的车辆定位
Suhr et al. Sensor fusion-based low-cost vehicle localization system for complex urban environments
US11946750B2 (en) Method for vehicle environment mapping, corresponding system, vehicle and computer program product
CN107015559B (zh) 使用散列加权积分和求和的目标跟踪的概率推理
CN107914708B (zh) 后方障碍物检测和距离估算
CN104035439B (zh) 用多个激光雷达传感器利用扫描点追踪物体的贝叶斯网络
CN113379805B (zh) 一种交通节点的多信息资源融合处理方法
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
CN113228040A (zh) 多级对象行进方向估计
CN111094095B (zh) 自动地感知行驶信号的方法、装置及运载工具
Pannen et al. Hd map change detection with a boosted particle filter
CN111866728B (zh) 多站点路基网络感知方法、装置、终端和系统
Wang et al. Multiple obstacle detection and tracking using stereo vision: Application and analysis
CN110967018B (zh) 停车场定位方法、装置、电子设备及计算机可读介质
Pietzsch et al. Results of a precrash application based on laser scanner and short-range radars
Lee et al. A geometric model based 2D LiDAR/radar sensor fusion for tracking surrounding vehicles
CN112598715A (zh) 基于多传感器的多目标跟踪方法、系统及计算机可读介质
Muresan et al. Multimodal sparse LIDAR object tracking in clutter
CN113253299B (zh) 障碍物检测方法、装置及存储介质
US11487293B2 (en) Map-information obstacle-tracking system and method
US20220164350A1 (en) Searching an autonomous vehicle sensor data repository based on context embedding
CN111612818A (zh) 新型双目视觉多目标跟踪方法及系统
CN113077495A (zh) 在线多目标跟踪方法、系统、计算机设备及可读存储介质
CN115390066A (zh) 一种基于摄像头与毫米波雷达融合的改进匈牙利算法目标跟踪匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination