CN114136328B - 一种传感器信息融合方法及装置 - Google Patents

一种传感器信息融合方法及装置 Download PDF

Info

Publication number
CN114136328B
CN114136328B CN202111416302.3A CN202111416302A CN114136328B CN 114136328 B CN114136328 B CN 114136328B CN 202111416302 A CN202111416302 A CN 202111416302A CN 114136328 B CN114136328 B CN 114136328B
Authority
CN
China
Prior art keywords
target
vehicle
boundary
sensor
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111416302.3A
Other languages
English (en)
Other versions
CN114136328A (zh
Inventor
万国强
战阳
张斯怡
朱明�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingwei Hirain Tech Co Ltd
Original Assignee
Beijing Jingwei Hirain Tech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingwei Hirain Tech Co Ltd filed Critical Beijing Jingwei Hirain Tech Co Ltd
Priority to CN202111416302.3A priority Critical patent/CN114136328B/zh
Publication of CN114136328A publication Critical patent/CN114136328A/zh
Application granted granted Critical
Publication of CN114136328B publication Critical patent/CN114136328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供一种传感器信息融合方法及装置,应用于汽车技术领域,该方法在获取车辆定位信息、高精度地图、各车载传感器与探测偏差相关的预设信息以及与不同实物对应的感知目标后,根据车辆定位信息确定车辆在高精度地图中的位置坐标,基于位置坐标、各车载传感器的预设信息以及高精度地图中的车道边界,分别确定各车载传感器对应的有效感知区域,然后针对每一个车载传感器,在车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标,最终将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息。本方法能够有效降低待融合的传感器信息的数据量,提高融合效率,同时满足自动驾驶进行快速驾驶决策的需求。

Description

一种传感器信息融合方法及装置
技术领域
本发明属于汽车技术领域,尤其涉及一种传感器信息融合方法及装置。
背景技术
在实际应用中,自动驾驶车辆往往设置有多个定位装置和传感器,以便确定车辆的位置和车辆周围的环境信息,为自动驾驶系统确定驾驶决策提供参考信息。
由于车辆设置有多个传感器,对于车辆行驶路线周围的同一个实物,各个传感器都会反馈相应的感知目标,并且各个感知目标分别对应着相应的传感器信息。为了充分而全面的描述某一个实物,需要将对应同一个实物的感知目标的传感器信息结合到一起,此过程即传感器信息融合。
在现有的传感器信息融合过程中,需要针对数量众多的感知目标,进行大量的数据计算,信息融合过程耗时长,效率低下,不仅占用大量的硬件资源,而且难以满足自动驾驶进行快速驾驶决策的需求。
发明内容
有鉴于此,本发明的目的在于提供一种传感器信息融合方法及装置,结合各传感器的探测偏差确定与传感器适配的有效感知区域,而且仅对有效感知区域内的参考感知目标进行传感器信息融合,有效降低待融合的传感器信息的数据量,有助于缩短融合过程耗时,提高融合效率,减少对硬件资源的占用,同时满足自动驾驶进行快速驾驶决策的需求,具体方案如下:
第一方面,本发明提供一种传感器信息融合方法,包括:
获取车辆定位信息、高精度地图、各车载传感器的参考信息,其中,所述参考信息包括与探测偏差相关的预设信息以及与不同实物对应的感知目标;
根据所述车辆定位信息确定车辆在所述高精度地图中的位置坐标;
基于所述位置坐标、各所述车载传感器的预设信息以及所述高精度地图中的车道边界,分别确定各所述车载传感器对应的有效感知区域;
针对每一个所述车载传感器,在所述车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标;
将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息。
可选的,所述基于所述位置坐标、各所述车载传感器的预设信息以及所述高精度地图中的车道边界,分别确定各所述车载传感器对应的有效感知区域,包括:
分别将各所述车载传感器作为目标传感器;
根据所述位置坐标和所述目标传感器的预设信息,在所述高精度地图中确定目标车道边界以及所述目标车道边界的边界参数;
根据所述目标传感器的预设信息以及所述边界参数确定多个区域顶点;
将各所述区域顶点对应的多边形区域作为所述目标传感器的有效感知区域。
可选的,与探测偏差相关的预设信息包括:边界长度、预设边界宽度和横向偏差函数;
所述边界参数包括:起点坐标、终点坐标以及所述目标车道边界与水平方向的边界夹角;
所述根据所述目标传感器的预设信息以及所述边界参数确定多个区域顶点,包括:
将所述目标传感器的预设信息以及所述目标车道边界的边界参数输入如下公式,得到相应的区域顶点:
其中,LBS-E表示所述边界长度;
xV表示车辆在所述高精度地图中的横坐标;
xBS表示所述目标车道边界起点坐标的横坐标,yBS表示所述目标车道边界起点坐标的纵坐标;
xBE表示所述目标车道边界终点坐标的横坐标,yBE表示所述目标车道边界终点坐标的纵坐标;
ERAD表示所述目标传感器对应的横向偏差函数;
θ表示所述目标车道边界与水平方向的边界夹角;
W1表示所述目标传感器在所述目标车道边界的边界终点处的横向探测偏差;
W3表示所述目标传感器在所述目标车道边界的边界起点处的横向探测偏差;
W2表示所述预设边界宽度;
xA表示第一区域顶点的横坐标,yA表示第一区域顶点的纵坐标;
xB表示第二区域顶点的横坐标,yB表示第二区域顶点的纵坐标;
xC表示第三区域顶点的横坐标,yC表示第三区域顶点的纵坐标;
xD表示第四区域顶点的横坐标,yD表示第四区域顶点的纵坐标。
可选的,所述车载传感器的感知目标以坐标点表示;
所述在所述车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标,包括:
分别将所述车载传感器的各感知目标的坐标点作为目标坐标点;
判断所述目标坐标点是否处于所述车载传感器对应的有效感知区域内;
若所述目标坐标点处于所述有效感知区域内,判定所述目标坐标点对应的感知目标为处于所述车载传感器的有效感知区域内的参考感知目标。
可选的,所述车载传感器的感知目标以有向包围框表示;
所述在所述车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标,包括:
分别将所述车载传感器的各感知目标对应的有向包围框作为目标有向包围框;
确定所述目标有向包围框与所述有效感知区域的重叠区域;
计算所述重叠区域与所述有效感知区域的重叠率;
若所述重叠率大于等于预设重叠率阈值,判定所述目标有向包围框对应的感知目标为处于所述车载传感器的有效感知区域内的参考感知目标。
可选的,所述确定所述目标有向包围框与所述有效感知区域的重叠区域,包括:
确定所述目标有向包围框与所述有效感知区域的边界交点、目标有向包围框顶点和目标区域顶点,其中,所述目标有向包围框顶点为所述目标有向包围框的各包围框顶点中处于所述有效感知区域内的顶点;
在所述目标区域顶点为所述有效感知区域的各区域顶点中处于所述有向包围框内的顶点的情况下,将以所述目标有向包围框顶点、所述目标区域顶点以及所述边界交点为顶点的多边形区域,作为所述目标有向包围框与所述有效感知区域的重叠区域;
在所述目标有向包围框的全部包围框顶点均处于所述有效感知区域内的情况下,将所述目标有向包围框对应的区域作为重叠区域。
可选的,所述将以所述目标有向包围框顶点、所述目标区域顶点以及所述边界交点为顶点的多边形区域,作为所述目标有向包围框与所述有效感知区域的重叠区域,包括:
在确定一个所述目标有向包围框顶点和两个所述边界交点且不存在所述目标区域顶点的情况下,则将所述边界交点与所述目标有向包围框顶点所围成的三角形区域作为重叠区域;
在确定一个所述目标有向包围框顶点和两个所述边界交点且存在一个所述目标区域顶点的情况下,将所述边界交点、所述目标有向包围框顶点和所述目标区域顶点构成的四边形区域作为重叠区域;
在确定两个所述目标有向包围框顶点和两个所述边界交点且不存在所述目标区域顶点的情况下,将两个所述目标有向包围框顶点和两个所述边界交点对应的四边形区域作为重叠区域;
在确定两个所述目标有向包围框顶点和两个所述边界交点且存在一个所述目标区域顶点的情况下,将两个所述目标有向包围框顶点、两个所述边界交点以及所述目标区域顶点构成的五边形区域作为重叠区域;
在确定三个所述目标有效包围框顶点和两个所述边界交点的情况下,将有向包围框中三个所述目标有效包围框顶点以外的有效包围框顶点和两个所述边界交点构成的三角形区域以外的有向包围框区域作为重叠区域。
可选的,所述将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息,包括:
分别在各所述车载传感器的参考感知目标中确定影响驾驶决策的有效感知目标;
分别在各所述车载传感器的有效感知目标的传感器信息中添加影响驾驶决策的传感器信息;
将各所述有效感知目标对应的置信度最高的传感器信息作为目标传感器信息;
将对应相同实物的有效感知目标的目标传感器信息融合为相应实物的传感器信息。
可选的,所述分别在各所述车载传感器的参考感知目标中确定影响驾驶决策的有效感知目标,包括:
分别将各所述车载传感器作为目标车载传感器;
确定所述目标车载传感器的各参考感知目标与所述高精度地图中车道边界的位置关系,以及与所述目标车载传感器对应的预设参考实物;
将所述目标车载传感器的各参考感知目标中,处于所述车道边界内的参考感知目标、处于所述车道边界外且属于运动目标的参考感知目标以及与所述预设参考实物对应的参考感知目标,作为影响驾驶决策的有效感知目标。
第二方面,本发明提供一种传感器信息融合装置,包括:
获取单元,用于获取车辆定位信息、高精度地图、各车载传感器的参考信息;
其中,所述参考信息包括与探测偏差相关的预设信息以及与不同实物对应的感知目标;
第一确定单元,用于根据所述车辆定位信息确定车辆在所述高精度地图中的位置坐标;
第二确定单元,用于基于所述位置坐标、各所述车载传感器的预设信息以及所述高精度地图中的车道边界,分别确定各所述车载传感器对应的有效感知区域;
第三确定单元,用于针对每一个所述车载传感器,在所述车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标;
融合单元,用于将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息。
上述本发明提供的传感器信息融合方法,在获取车辆定位信息、高精度地图、各车载传感器与探测偏差相关的预设信息以及与不同实物对应的感知目标后,首先根据车辆定位信息确定车辆在高精度地图中的位置坐标,进一步基于位置坐标、各车载传感器的预设信息以及高精度地图中的车道边界,分别确定各车载传感器对应的有效感知区域,然后针对每一个车载传感器,在车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标,最终将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息。
本发明提供的传感器信息融合方法,基于与传感器探测偏差相关的预设信息确定与传感器适配的有效感知区域,与现有技术中不同传感器采用统一感知区域的方法相比,感知区域的划分更具针对性,而且能够实现对计算数据的首次降低,进一步的,将有效感知区域外的感知目标排除,只对有效感知区域内的参考感知目标进行计算,有效降低计算对象的数量,进一步降低数据量,因此,本方法能够有效降低待融合的传感器信息的数据量,有助于缩短融合过程耗时,提高融合效率,减少对硬件资源的占用,同时满足自动驾驶进行快速驾驶决策的需求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种传感器信息融合方法的流程图;
图2是本发明实施例提供的一种车载传感器的有效感知区域的示意图;
图3是本发明实施例提供的一种确定参考感知目标的方法的示意图;
图4是本发明实施例提供的另一种确定参考感知目标的方法的示意图;
图5是本发明实施例提供的一种传感器信息融合装置的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的传感器信息融合方法,应用于电子设备,该电子设备可以是车载控制器,比如自动驾驶系统的控制器,也可以是整车上其他具有多传感器信息应用需求的控制器,还可以是具有数据处理功能的个人计算机、数据服务器等,当然,在某些情况下,还可以应用于网络侧的服务器。参见图1,本发明实施例提供的传感器信息融合方法的流程,包括:
S100、获取车辆定位信息、高精度地图、各车载传感器的参考信息。
车辆定位信息包括全球卫星定位系统反馈的坐标信息、车载惯性测量装置反馈的定位信息,当然,还包括现有技术中其他能够表征车辆所处位置的信息,此处不再一一列举。
需要特别说明的是,由于本发明实施例提供的传感器信息融合方法,在后续步骤中需要明确的确定车辆在高精度地图中的位置坐标,因此,在前述全球卫星定位系统反馈的坐标信息等基础上,还需要进一步集合车载传感器反馈的信息才能完成定位,因此,本发明实施例述及的车辆定位信息还包括车载传感器反馈的能够用于确定车辆位置的传感器信息,比如,车载摄像头反馈的车辆周围的图像,车载激光雷达反馈的点云信息等。
高精度地图与现有技术中的普通地图相比,记载有高精度的地图信息,能够提供厘米级的地图数据,本方案主要在确定车辆坐标、传感器有效感知区域、有效感知目标,以及合并传感器信息等步骤中需要结合高精度地图实现,至于具体的使用过程将在后续内容展开,此处暂不详述。
在实际应用中,出于尽可能全面感知车辆周围环境,进行更为精准的驾驶控制等方面的考虑,车辆往往设置有多种类型的车载传感器,比如前面内容述及的车载摄像头、车载激光雷达、车载超声波雷达以及车载毫米波雷达等,不同类型的车载传感器,不仅反馈的传感器信息不同,而且相互之间的性能也是不同的,比如,在探测范围、探测偏差、最佳工作场景等。
基于此,本步骤所获取的车载传感器的参考信息,不仅包括车载传感器反馈的不同实物对应的感知目标,即对于任一车载传感器而言,其参考信息中包括至少一个感知目标,进一步的,还包括与传感器探测偏差相关的预设信息,比如,边界长度、预设边界宽度和横向偏差函数等,除此之外,如果个别车载传感器对某类实物反馈的感知目标是不可信的,参考信息中还可以包括这些内容。对于参考信息的具体内容和应用,将在后续内容中展开,此处不再详述。
S110、根据车辆定位信息确定车辆在高精度地图中的位置坐标。
可选的,车辆定位信息可以采用全球卫星定位系统反馈的车辆坐标,车载惯性测量装置反馈的定位信息,以及车载传感器反馈的相关信息,基于此,可以首先利用全球卫星定位系统反馈的车辆坐标和车载惯性测量装置反馈的定位信息确定车辆在高精度地图中的大致位置,然后,获取车载传感器反馈的传感器信息,比如车载激光雷达反馈的点云信息以及车载摄像头反馈的车辆周围的环境图片,将这些传感器信息与高精度地图记载的车辆所处大致位置周围的地图信息进行比对和匹配,进而根据匹配结果确定车辆在高精度地图中的位置坐标。
对于本步骤未阐明的确定车辆在高精度地图中的位置坐标的具体实现方法,可以基于相关技术实现,此处不再展开。
S120、基于位置坐标、各车载传感器的预设信息以及高精度地图中的车道边界,分别确定各车载传感器对应的有效感知区域。
基于车载传感器的工作原理可知,任一类型的车载传感器的感知范围都是有限的,因此,在进行传感器信息融合时,没有必要考虑高精度地图中的全部地图信息,这是非常难以实现的,而且也是没有必要的。因此,在实际应用中,往往需要首先在高精度地图中初步确定一个以车辆为基准位置的有效感知区域,只对该有效感知区域内的感知目标、地图信息进行处理。
相关技术是将高精度地图中以车辆为基准的预设范围内的区域作为有效感知区域的,即设置一个范围确定的有效感知区域,可以理解的是,基于预设范围设置固定的有效感知区域,不仅不符合各种传感器的特性,而且也不能有效的兼容各种传感器的探测偏差。
为解决现有技术中的这一问题,本步骤根据各车载传感器的性能差异,对各车载传感器进行差异化处理,在车辆的位置坐标以及高精度地图的车道边界的基础上,充分考虑各车载传感器的性能差异,确定与车载传感器性能相适配的有效感知区域。
基于现有车载传感器的探测原理可知,车载传感器的横向探测偏差与其纵向探测距离呈正比关系,即随着纵向探测距离的增大,车载传感器的横向探测偏差也会逐渐增大,并且,对于确定的车载传感器类型而言,纵向探测距离与横向探测偏差之间的关系可以通过拟合函数来表达,这样的拟合函数即本发明实施例述及的横向偏差函数。当然,对于不同类型的车载传感器,其对应的横向偏差函数的具体表达式是不同的,至于横向偏差函数的具体表达式,可以基于车载传感器的性能参数和大量的探测试验数据通过拟合函数得到,本发明对于横向偏差函数的具体形式不做限定。
除了横向偏差函数,与车载传感器探测偏差相关的预设信息还包括边界长度和预设边界宽度,对于边界长度和预设边界宽度的具体应用,将在后续内容中展开,此处暂不详述。
基于上述内容,分别以各车载传感器作为目标传感器,首先根据车辆在高精度地图中的位置坐标和预设信息中的边界长度,在高精度地图中确定目标车道边界以及目标车道边界的边界参数,其中,边界参数包括:目标车道边界的起点坐标、终点坐标以及目标车道边界与水平方向的边界夹角。
具体的,在车辆行驶的道路上,包括左侧道路边界和右侧道路边界,本发明述及的目标车道边界,可以是左侧道路边界,也可以是右侧道路边界,经过前述步骤已经确定车辆在高精度地图中的位置坐标,而高精度地图中的车道边界也是已知的,基于此,通过计算车辆的位置坐标与车道边界的垂直距离,将两条车道边界中距离车辆更近、即垂直距离更短的车道边界作为目标车道边界。
然后,将目标车道边界中与车辆位置坐标距离最短的一点作为边界起点,边界起点的坐标作为目标车道边界的起点坐标。然后,沿车辆行驶方向,将目标车道边界上与边界起点距离前述边界长度的一点作为边界终点,相应的,边界终点的坐标作为目标道路边界的终点坐标。
需要说明的是,在实际应用中,前述边界长度应基于目标传感器的有效纵向探测距离选取,为保证探测精度,边界长度不宜大于目标传感器的有效纵向探测距离。而对于栅栏等长度有限的车道边界,也可以将栅栏的长度作为边界长度。
进一步的,还需要确定目标车道边界与水平方向的边界夹角,对于边界夹角的具体计算过程,可结合现有技术实现,本发明对此不做具体限定。
确定边界参数之后,即可根据预设边界宽度、横向偏差函数以及前述步骤得到的边界参数确定多个区域顶点,进而将各区域顶点对应的多边形区域作为目标传感器的有效感知区域。
具体的,结合图2所示,以车载毫米波雷达为例,对本步骤确定车载毫米波雷达对应的有效感知区域的过程进行介绍。
按照如下公式计算有效感知区域的区域顶点:
关于上述公式需要说明的是:
车辆在高精度地图中的位置坐标表示为(xV,yV),其中xV表示车辆在高精度地图中的横坐标,相应的,N(xBS,yBS)即目标车道边界的边界起点,M(xBE,yBE)即目标车道边界的边界终点;
LBS-E表示边界长度,即N点和M点之间的距离;
θ表示目标车道边界与水平方向的边界夹角;
ERAD为车载毫米波雷达的横向偏差函数;
基于上述内容,表示车辆的位置坐标相对于M点之间的纵向探测距离,W1则表示车载毫米波雷达在M点处的横向探测偏差,即A点和M点之间距离;
LBS-E-W1则表示车辆的位置坐标相对于N点之间的纵向探测距离,W2则表示车载毫米波雷达在N点处的横向探测偏差,即D点和N点之间的距离;
W2表示目标车道边界外侧(相对于车辆行驶的车道)的预设边界宽度,即M点和B点之间的距离,当然,也是N点和C点之间的距离。可以理解的是,预设边界宽度的选取决定了有效感知区域的大小,在实际应用中,需要结合硬件算力和具体的探测精度要求确定预设边界宽度的具体取值。
按照上述公式,即可分别求出四个区域定点,即A,B,C,D点的坐标,具体的,可以分别表示为A(xA,yA),B(xB,yB),C(xC,yC),D(xD,yD)。A,B,C,D四点所连成的多边形区域,即车载毫米波雷达的有效感知区域。
基于上述内容可以看出:有效感知区域的确定与车载传感器的性能直接相关,是结合车载传感器的特性以及车载传感器的探测偏差得到的,不同的车载传感器对应于自身特性匹配的有效感知区域,避免不同类型车载传感器采用相同的感知区域所带来的探测误差和无效探测。
S130、针对每一个车载传感器,在车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标。
在实际应用中,不同车载传感器反馈的感知目标的具体表示方式是不同的,比如毫米波雷达,其反馈的感知目标是以相应实物的坐标点表示的,而对于激光雷达而言,其反馈的感知目标则是以有向包围框表示的(由激光点云到有向包围框的确定过程,可以由激光雷达处理器基于现有技术实现,本发明对比不做限定),因此,需要针对不同感知目标的具体形式,采用不同的处理方式,进而确定不同车载传感器的感知目标与车载传感器自身对应的有效感知区域的位置关系。
可选的,如果感知目标以坐标点表示,分别将车载传感器的各感知目标的坐标点作为目标坐标点,判断目标坐标点是否处于车载传感器对应的有效感知区域内,如果目标坐标点处于车载传感器对应的有效感知区域内,判定该目标坐标点对应的感知目标为处于车载传感器的有效感知区域内的参考感知目标,相反的,如果目标坐标点未处于车载传感器对应的有效感知区域内,则判定该目标坐标点对应的感知目标未处于有效感知区域内。
至于判定任一目标坐标点是否处于有效感知区域内的方法,可以参照图3所示。在图3所示示例中,A、B、C、D分别表示有效感知区域的四个区域顶点,P点表示目标感知目标,按照顺时针方向,分别以两个相邻的区域顶点构建向量,同时,分别与四个区域顶点为起点,以目标感知目标P点为终点,构建相应的向量,然后按照如下公式进行判断,如果满足相应的判断条件,则可以判定P点是出于有效感知区域内的,P点对应的目标感知目标可作为参考感知目标。
当然,还可以采取其他方式判断以坐标点表示的感知目标是否处于有效感知区域内,此处不再一一列举,在不超出本发明核心思想范围的前提下,同样属于本发明保护的范围内。
可选的,如果感知目标以有向包围框表示,本步骤主要基于有向包围框与有效感知区域的重叠率实现。
参见图4,图4是本发明实施例提供的另一种确定参考感知目标的方法的示意图,沿用前例,A、B、C、D四个区域顶点构成有效感知区域,该有效感知区域以外的其余矩形区域均为以有向包围框表示的感知目标。
通过图4所示可以看出,根据实物与车辆实际位置的不同,各个实物对应的有向包围框与有效感知区域的位置关系也是不同的。在具体确定参考感知目标时,分别将车载传感器的各感知目标对应的有向包围框作为目标有向包围框,确定目标有向包围框与有效感知区域的重叠区域,然后计算重叠区域与有效感知区域的重叠率,如果目标有向包围框对应的重叠率大于等于预设重叠率阈值,判定目标有向包围框对应的感知目标为处于车载传感器的有效感知区域内的参考感知目标,相反的,如果目标有向包围框对应的重叠率小于预设重叠率阈值,则判定目标有向包围框对应的感知目标不是参考感知目标。
需要说明的是,对于预设重叠率阈值具体取值,主要基于对传感器信息融合结果的准确度要求、相应车载传感器的性能,以及执行本发明实施例提供的传感器信息融合方法的电子设备的硬件性能确定,本发明对于预设重叠率阈值的具体取值不做限定。
进一步的,对于确定目标有向包围框与有效感知区域的重叠区域的具体过程,可以采用如下方法:
首先,确定目标有向包围框与有效感知区域的边界交点、目标有向包围框顶点和目标区域顶点,其中,目标有向包围框顶点为目标有向包围框的各包围框顶点中处于有效感知区域内的顶点,而目标区域顶点则为有效感知区域的各区域顶点中处于有向包围框内的顶点。结合图4所示,Pin表示目标有向包围框顶点,Pint表示边界交点,Pout表示有向包围框顶点。
需要说明的是,对于目标有向包围框顶点以及目标区域顶点的确定,可以基于图3所示实施例实现,此处不再赘述。而对于边界交点的确定,可以通过计算相应边界的交点来实现,具体的计算过程可参照现有技术,此处不再详述。
进一步的,将以目标有向包围框顶点、目标区域顶点以及边界交点为顶点构成的多边形区域,作为目标有向包围框与有效感知区域的重叠区域。
在具体实现的过程中,可以根据边界交点、目标有向包围框顶点和目标区域顶点的具体数量分为如下的不同情况。
1、确定一个目标有向包围框顶点和两个边界交点,进一步判断是否存在目标区域顶点,如果不存在目标区域顶点,则将边界交点与目标有向包围框顶点所围成的三角形区域作为重叠区域;相应的,如果存在一个目标区域顶点,则将边界交点、目标有向包围框顶点和目标区域顶点构成的四边形区域作为重叠区域;
2、确定两个目标有向包围框顶点和两个边界交点,如果不存在目标区域顶点,则将两个目标有向包围框顶点和两个边界交点对应的四边形区域作为重叠区域;相应的,如果存在一个目标区域顶点,则将两个目标有向包围框顶点、两个边界交点以及目标区域顶点构成的五边形区域作为重叠区域;
3、确定三个目标有效包围框顶点和两个边界交点,则将有向包围框中三个目标有效包围框顶点以外的有效包围框顶点和两个边界交点构成的三角形区域以外的有向包围框区域作为重叠区域;
4、确定四个有效包围框顶点和零个边界交点,即目标有向包围框的全部包围框顶点均处于有效感知区域内,将目标有向包围框对应的区域作为重叠区域。
S140、将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息。
可以理解的是,经过前述步骤,各个车载传感器对应的参考感知目标的数量是不同的,相应的,对于车辆行驶路径上的实物而言,其对应的参考感知目标的数量也是不同的,有的实物对应多个参考感知目标,而有的实物可能只对应一个参考感知目标。
前述步骤是以车载传感器为对象进行展开的,到本步骤时,则将以车辆行驶路径上的实物为对象,确定对应同一个实物的参考感知目标分别有哪些,即需要对全部车载传感器的参考感知目标进行聚类,确定对应同一实物的参考感知目标。至于对参考感知目标进行聚类,确定属于同一实物的参考感知目标的过程,可以基于现有技术实现,此处不再展开。
进一步的,将同一实物对应的各个参考感知目标的传感器信息进行融合,即可得到相应实物的传感器信息。可选的,在实际应用中,实物融合后的传感器信息可以采用矩阵表示,矩阵中的每一个元素都可以作为一个传感器信息。
可选的,考虑到实际应用中,部分参考感知目标不会对驾驶决策产生影响,或者对驾驶决策产生错误的影响,本发明实施例提供一种进一步对参考感知目标进行筛选的方法。
首先,分别在各车载传感器的参考感知目标中确定影响驾驶决策的有效感知目标,即分别将各车载传感器作为目标车载传感器,确定目标车载传感器的各参考感知目标与高精度地图中车道边界的位置关系,以及与目标车载传感器对应的预设参考实物,然后将目标车载传感器的各参考感知目标中,处于车道边界内的参考感知目标、处于车道边界外且属于运动目标的参考感知目标以及与预设参考实物对应的参考感知目标,作为影响驾驶决策的有效感知目标。
比如,对于车道边界外的参考感知目标,车道边界外的静止目标对车辆的行驶没有影响,可以将此类参考感知目标直接予以删除;车道边界外的运动目标在正常行驶过程中虽然不会影响车辆行驶,但是为了自动驾驶的安全性考虑,车道边界外的运动目标保留。
对于车道边界内的参考感知目标,均可作为有效感知目标。
对于预设参考实物,比如下水道盖,需要结合车载传感器的具体性能进行处理。如毫米波雷达对金属检测敏感,对于车辆所属车道上的下水道盖会稳定输出影响驾驶决策的感知目标,针对该预设参考实物对应的毫米波雷达反馈的参考感知目标应在其对应的传感器信息中设置相应的标识位以示区别。其它类型的车载传感器信号采用类似的方式处理,此处不再一一列举。
其次,分别在各车载传感器的有效感知目标的传感器信息中添加影响驾驶决策的传感器信息,结合前述示例,如果车载传感器的有效感知目标为处于车道边界内的参考感知目标,在有效感知目标的传感器信息中添加有效感知目标所属的车道信息;如果车载传感器的有效感知目标为与预设参考实物对应的参考感知目标,在有效感知目标的传感器信息中添加预设参考实物的标志信息,比如前述内容中述及的,在毫米波雷达对应的有效感知目标的传感器信息中添加下水道井盖的标志信息。
最后,将各有效感知目标对应的置信度最高的传感器信息作为目标传感器信息,并将对应相同实物的有效感知目标的目标传感器信息融合为相应实物的传感器信息。车道边界内的不同有效感知目标,还应根据所处车道线、位置、速度等属性进行匹配,选择各车载传感器相应性能好的传感器信息作为最终融合的结果。
比如,车载传感器1对实物位置的识别准确率高,则实物的位置信息使用车载传感器1的结果;车载传感器2测速准确率高,则实物的速度信息使用车载传感器2结果。
特别的,对于预设参考实物,还应考虑各类车载传感器之间的特性互补,如在下水道盖处,车载毫米波雷达输出带有下水道盖标志位的有效感知目标,若没有与其他有效感知目标与之匹配,则应将此感知目标剔除,若存在与其匹配的其它感知目标,即其他车载传感器在高精度地图的井盖位置处同样检测到有效感知目标,则应将其它其他车载传感器的有效感知目标在井盖处的传感器信息作为融合结果,这样的处理方式可以避免将有用的传感器信息剔除,同时可以减少干扰信号的出现。
综上所述,本发明提供的传感器信息融合方法,基于传感器的性能参数确定与传感器适配的有效感知区域,与现有技术中不同传感器采用统一感知区域的方法相比,能够实现对计算数据的首次降低,进一步的,将有效感知区域外的感知目标排除,只对有效感知区域内的参考感知目标进行计算,有效降低计算对象的数量,进一步降低数据量,因此,本方法能够有效降低待融合的传感器信息的数据量,有助于缩短融合过程耗时,提高融合效率,减少对硬件资源的占用,同时满足自动驾驶进行快速驾驶决策的需求。
进一步的,基于传感器的性能选择不同的传感器信息作为实物的传感器信息,最终使用的不同类型车载传感器的传感器信息都是置信度最高的信息,可以进一步提高融合后实物的传感器信息的准确性。
下面对本发明实施例提供的传感器信息融合装置进行介绍,下文描述的传感器信息融合装置可以认为是为实现本发明实施例提供的传感器信息融合方法,在中央设备中需设置的功能模块架构;下文描述内容可与上文相互参照。
参见图5,图5是本发明实施例提供的一种传感器信息融合装置的结构框图,本装置包括:
获取单元10,用于获取车辆定位信息、高精度地图、各车载传感器的参考信息;
其中,参考信息包括与探测偏差相关的预设信息以及与不同实物对应的感知目标;
第一确定单元20,用于根据车辆定位信息确定车辆在高精度地图中的位置坐标;
第二确定单元30,用于基于位置坐标、各车载传感器的预设信息以及高精度地图中的车道边界,分别确定各车载传感器对应的有效感知区域;
第三确定单元40,用于针对每一个车载传感器,在车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标;
融合单元50,用于将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息。
可选的,第二确定单元30,用于基于位置坐标、各车载传感器的预设信息以及高精度地图中的车道边界,分别确定各车载传感器对应的有效感知区域,包括:
分别将各车载传感器作为目标传感器;
根据位置坐标和目标传感器的预设信息,在高精度地图中确定目标车道边界以及目标车道边界的边界参数;
根据目标传感器的预设信息以及边界参数确定多个区域顶点;
将各区域顶点对应的多边形区域作为目标传感器的有效感知区域。
可选的,与探测偏差相关的预设信息包括:边界长度、预设边界宽度和横向偏差函数;
边界参数包括:起点坐标、终点坐标以及目标车道边界与水平方向的边界夹角;
第二确定单元30,用于根据目标传感器的预设信息以及边界参数确定多个区域顶点,包括:
将目标传感器的预设信息以及目标车道边界的边界参数输入如下公式,得到相应的区域顶点:
其中,LBS-E表示边界长度;
xV表示车辆在高精度地图中的横坐标;
xBS表示目标车道边界起点坐标的横坐标,yBS表示目标车道边界起点坐标的纵坐标;
xBE表示目标车道边界终点坐标的横坐标,yBE表示目标车道边界终点坐标的纵坐标;
ERAD表示目标传感器对应的横向偏差函数;
θ表示目标车道边界与水平方向的边界夹角;
W1表示目标传感器在目标车道边界的边界终点处的横向探测偏差;
W3表示目标传感器在目标车道边界的边界起点处的横向探测偏差;
W2表示预设边界宽度;
xA表示第一区域顶点的横坐标,yA表示第一区域顶点的纵坐标;
xB表示第二区域顶点的横坐标,yB表示第二区域顶点的纵坐标;
xC表示第三区域顶点的横坐标,yC表示第三区域顶点的纵坐标;
xD表示第四区域顶点的横坐标,yD表示第四区域顶点的纵坐标。
可选的,车载传感器的感知目标以坐标点表示;
第三确定单元40,用于在车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标,包括:
分别将车载传感器的各感知目标的坐标点作为目标坐标点;
判断目标坐标点是否处于车载传感器对应的有效感知区域内;
若目标坐标点处于有效感知区域内,判定目标坐标点对应的感知目标为处于车载传感器的有效感知区域内的参考感知目标。
可选的,车载传感器的感知目标以有向包围框表示;
第三确定单元40,用于在车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标,包括:
分别将车载传感器的各感知目标对应的有向包围框作为目标有向包围框;
确定目标有向包围框与有效感知区域的重叠区域;
计算重叠区域与有效感知区域的重叠率;
若重叠率大于等于预设重叠率阈值,判定目标有向包围框对应的感知目标为处于车载传感器的有效感知区域内的参考感知目标。
可选的,第三确定单元40,用于确定目标有向包围框与有效感知区域的重叠区域,包括:
确定目标有向包围框与有效感知区域的边界交点、目标有向包围框顶点和目标区域顶点,其中,目标有向包围框顶点为目标有向包围框的各包围框顶点中处于有效感知区域内的顶点;
在目标区域顶点为有效感知区域的各区域顶点中处于有向包围框内的顶点的情况下,将以目标有向包围框顶点、目标区域顶点以及边界交点为顶点的多边形区域,作为目标有向包围框与有效感知区域的重叠区域;
在目标有向包围框的全部包围框顶点均处于有效感知区域内的情况下,将目标有向包围框对应的区域作为重叠区域。
可选的,第三确定单元40,用于将以目标有向包围框顶点、目标区域顶点以及边界交点为顶点的多边形区域,作为目标有向包围框与有效感知区域的重叠区域,包括:
在确定一个目标有向包围框顶点和两个边界交点且不存在目标区域顶点的情况下,则将边界交点与目标有向包围框顶点所围成的三角形区域作为重叠区域;
在确定一个目标有向包围框顶点和两个边界交点且存在一个目标区域顶点的情况下,将边界交点、目标有向包围框顶点和目标区域顶点构成的四边形区域作为重叠区域;
在确定两个目标有向包围框顶点和两个边界交点且不存在目标区域顶点的情况下,将两个目标有向包围框顶点和两个边界交点对应的四边形区域作为重叠区域;
在确定两个目标有向包围框顶点和两个边界交点且存在一个目标区域顶点的情况下,将两个目标有向包围框顶点、两个边界交点以及目标区域顶点构成的五边形区域作为重叠区域;
在确定三个目标有效包围框顶点和两个边界交点的情况下,将有向包围框中三个目标有效包围框顶点以外的有效包围框顶点和两个边界交点构成的三角形区域以外的有向包围框区域作为重叠区域。
可选的,融合单元50,用于将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息,包括:
分别在各车载传感器的参考感知目标中确定影响驾驶决策的有效感知目标;
分别在各车载传感器的有效感知目标的传感器信息中添加影响驾驶决策的传感器信息;
将各有效感知目标对应的置信度最高的传感器信息作为目标传感器信息;
将对应相同实物的有效感知目标的目标传感器信息融合为相应实物的传感器信息。
可选的,融合单元50,用于分别在各车载传感器的参考感知目标中确定影响驾驶决策的有效感知目标,包括:
分别将各车载传感器作为目标车载传感器;
确定目标车载传感器的各参考感知目标与高精度地图中车道边界的位置关系,以及与目标车载传感器对应的预设参考实物;
将目标车载传感器的各参考感知目标中,处于车道边界内的参考感知目标、处于车道边界外且属于运动目标的参考感知目标以及与预设参考实物对应的参考感知目标,作为影响驾驶决策的有效感知目标。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的核心思想或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (9)

1.一种传感器信息融合方法,其特征在于,包括:
获取车辆定位信息、高精度地图、各车载传感器的参考信息,其中,所述参考信息包括与探测偏差相关的预设信息以及与不同实物对应的感知目标;
根据所述车辆定位信息确定车辆在所述高精度地图中的位置坐标;
基于所述位置坐标、各所述车载传感器的预设信息以及所述高精度地图中的车道边界,分别确定与各所述车载传感器性能相适配的有效感知区域;
针对每一个所述车载传感器,在所述车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标;
将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息;
所述基于所述位置坐标、各所述车载传感器的预设信息以及所述高精度地图中的车道边界,分别确定与各所述车载传感器性能相适配的有效感知区域,包括:
分别将各所述车载传感器作为目标传感器;
根据所述位置坐标和所述目标传感器的预设信息,在所述高精度地图中确定目标车道边界以及所述目标车道边界的边界参数;
根据所述目标传感器的预设信息以及所述边界参数确定多个区域顶点;
将各所述区域顶点对应的多边形区域作为与所述目标传感器性能相适配的有效感知区域;
与探测偏差相关的预设信息包括:边界长度、预设边界宽度和横向偏差函数;
所述边界参数包括:起点坐标、终点坐标以及所述目标车道边界与水平方向的边界夹角。
2.根据权利要求1所述的传感器信息融合方法,其特征在于,所述根据所述目标传感器的预设信息以及所述边界参数确定多个区域顶点,包括:
将所述目标传感器的预设信息以及所述目标车道边界的边界参数输入如下公式,得到相应的区域顶点:
其中,LBS-E表示所述边界长度;
xV表示车辆在所述高精度地图中的横坐标;
xBS表示所述目标车道边界起点坐标的横坐标,yBS表示所述目标车道边界起点坐标的纵坐标;
xBE表示所述目标车道边界终点坐标的横坐标,yBE表示所述目标车道边界终点坐标的纵坐标;
ERAD表示所述目标传感器对应的横向偏差函数;
θ表示所述目标车道边界与水平方向的边界夹角;
W1表示所述目标传感器在所述目标车道边界的边界终点处的横向探测偏差;
W3表示所述目标传感器在所述目标车道边界的边界起点处的横向探测偏差;
W2表示所述预设边界宽度;
xA表示第一区域顶点的横坐标,yA表示第一区域顶点的纵坐标;
xB表示第二区域顶点的横坐标,yB表示第二区域顶点的纵坐标;
xC表示第三区域顶点的横坐标,yC表示第三区域顶点的纵坐标;
xD表示第四区域顶点的横坐标,yD表示第四区域顶点的纵坐标。
3.根据权利要求1所述的传感器信息融合方法,其特征在于,所述车载传感器的感知目标以坐标点表示;
所述在所述车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标,包括:
分别将所述车载传感器的各感知目标的坐标点作为目标坐标点;
判断所述目标坐标点是否处于所述车载传感器对应的有效感知区域内;
若所述目标坐标点处于所述有效感知区域内,判定所述目标坐标点对应的感知目标为处于所述车载传感器的有效感知区域内的参考感知目标。
4.根据权利要求1所述的传感器信息融合方法,其特征在于,所述车载传感器的感知目标以有向包围框表示;
所述在所述车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标,包括:
分别将所述车载传感器的各感知目标对应的有向包围框作为目标有向包围框;
确定所述目标有向包围框与所述有效感知区域的重叠区域;
计算所述重叠区域与所述有效感知区域的重叠率;
若所述重叠率大于等于预设重叠率阈值,判定所述目标有向包围框对应的感知目标为处于所述车载传感器的有效感知区域内的参考感知目标。
5.根据权利要求4所述的传感器信息融合方法,其特征在于,所述确定所述目标有向包围框与所述有效感知区域的重叠区域,包括:
确定所述目标有向包围框与所述有效感知区域的边界交点、目标有向包围框顶点和目标区域顶点,其中,所述目标有向包围框顶点为所述目标有向包围框的各包围框顶点中处于所述有效感知区域内的顶点;
在所述目标区域顶点为所述有效感知区域的各区域顶点中处于所述有向包围框内的顶点的情况下,将以所述目标有向包围框顶点、所述目标区域顶点以及所述边界交点为顶点的多边形区域,作为所述目标有向包围框与所述有效感知区域的重叠区域;
在所述目标有向包围框的全部包围框顶点均处于所述有效感知区域内的情况下,将所述目标有向包围框对应的区域作为重叠区域。
6.根据权利要求5所述的传感器信息融合方法,其特征在于,所述将以所述目标有向包围框顶点、所述目标区域顶点以及所述边界交点为顶点的多边形区域,作为所述目标有向包围框与所述有效感知区域的重叠区域,包括:
在确定一个所述目标有向包围框顶点和两个所述边界交点且不存在所述目标区域顶点的情况下,则将所述边界交点与所述目标有向包围框顶点所围成的三角形区域作为重叠区域;
在确定一个所述目标有向包围框顶点和两个所述边界交点且存在一个所述目标区域顶点的情况下,将所述边界交点、所述目标有向包围框顶点和所述目标区域顶点构成的四边形区域作为重叠区域;
在确定两个所述目标有向包围框顶点和两个所述边界交点且不存在所述目标区域顶点的情况下,将两个所述目标有向包围框顶点和两个所述边界交点对应的四边形区域作为重叠区域;
在确定两个所述目标有向包围框顶点和两个所述边界交点且存在一个所述目标区域顶点的情况下,将两个所述目标有向包围框顶点、两个所述边界交点以及所述目标区域顶点构成的五边形区域作为重叠区域;
在确定三个所述目标有效包围框顶点和两个所述边界交点的情况下,将有向包围框中三个所述目标有效包围框顶点以外的有效包围框顶点和两个所述边界交点构成的三角形区域以外的有向包围框区域作为重叠区域。
7.根据权利要求1-6任一所述的传感器信息融合方法,其特征在于,所述将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息,包括:
分别在各所述车载传感器的参考感知目标中确定影响驾驶决策的有效感知目标;
分别在各所述车载传感器的有效感知目标的传感器信息中添加影响驾驶决策的传感器信息;
将各所述有效感知目标对应的置信度最高的传感器信息作为目标传感器信息;
将对应相同实物的有效感知目标的目标传感器信息融合为相应实物的传感器信息。
8.根据权利要求7所述的传感器信息融合方法,其特征在于,所述分别在各所述车载传感器的参考感知目标中确定影响驾驶决策的有效感知目标,包括:
分别将各所述车载传感器作为目标车载传感器;
确定所述目标车载传感器的各参考感知目标与所述高精度地图中车道边界的位置关系,以及与所述目标车载传感器对应的预设参考实物;
将所述目标车载传感器的各参考感知目标中,处于所述车道边界内的参考感知目标、处于所述车道边界外且属于运动目标的参考感知目标以及与所述预设参考实物对应的参考感知目标,作为影响驾驶决策的有效感知目标。
9.一种传感器信息融合装置,其特征在于,包括:
获取单元,用于获取车辆定位信息、高精度地图、各车载传感器的参考信息;
其中,所述参考信息包括与探测偏差相关的预设信息以及与不同实物对应的感知目标;
第一确定单元,用于根据所述车辆定位信息确定车辆在所述高精度地图中的位置坐标;
第二确定单元,用于基于所述位置坐标、各所述车载传感器的预设信息以及所述高精度地图中的车道边界,分别确定与各所述车载传感器性能相适配的有效感知区域;
第三确定单元,用于针对每一个所述车载传感器,在所述车载传感器的感知目标中确定处于自身对应的有效感知区域内的参考感知目标;
融合单元,用于将对应相同实物的参考感知目标的传感器信息融合为相应实物的传感器信息;
所述第二确定单元具体用于:
分别将各所述车载传感器作为目标传感器;
根据所述位置坐标和所述目标传感器的预设信息,在所述高精度地图中确定目标车道边界以及所述目标车道边界的边界参数;
根据所述目标传感器的预设信息以及所述边界参数确定多个区域顶点;
将各所述区域顶点对应的多边形区域作为与所述目标传感器性能相适配的有效感知区域;
与探测偏差相关的预设信息包括:边界长度、预设边界宽度和横向偏差函数;
所述边界参数包括:起点坐标、终点坐标以及所述目标车道边界与水平方向的边界夹角。
CN202111416302.3A 2021-11-25 2021-11-25 一种传感器信息融合方法及装置 Active CN114136328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111416302.3A CN114136328B (zh) 2021-11-25 2021-11-25 一种传感器信息融合方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111416302.3A CN114136328B (zh) 2021-11-25 2021-11-25 一种传感器信息融合方法及装置

Publications (2)

Publication Number Publication Date
CN114136328A CN114136328A (zh) 2022-03-04
CN114136328B true CN114136328B (zh) 2024-03-12

Family

ID=80387728

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111416302.3A Active CN114136328B (zh) 2021-11-25 2021-11-25 一种传感器信息融合方法及装置

Country Status (1)

Country Link
CN (1) CN114136328B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013226887A1 (de) * 2013-12-20 2015-06-25 Gerd Reime Induktive Sensoranordnung sowie Verfahren zur Detektion der Position wenigstens eines Targets
CN206734295U (zh) * 2016-12-21 2017-12-12 驭势科技(北京)有限公司 一种用于探测车辆周围目标的探测系统以及其应用
DE102017101530A1 (de) * 2017-01-26 2018-07-26 Valeo Schalter Und Sensoren Gmbh Fahrspurbegrenzungs-Erkennungsvorrichtung für ein Kraftfahrzeug mit mehreren in einer Reihe angeordneten Abtastbereichen
CN111177869A (zh) * 2020-01-02 2020-05-19 北京百度网讯科技有限公司 传感器布局方案的确定方法、装置及设备
GB202016383D0 (en) * 2020-10-15 2020-12-02 Continental Automotive Romania Srl Method of updating the existance probability of a track in fusion based on sensor perceived areas
CN112208529A (zh) * 2019-07-09 2021-01-12 长城汽车股份有限公司 用于目标检测的感知系统、驾驶辅助方法和无人驾驶设备
CN113494927A (zh) * 2020-03-20 2021-10-12 郑州宇通客车股份有限公司 一种车辆多传感器标定方法、装置及车辆
CN113625234A (zh) * 2020-05-06 2021-11-09 上海海拉电子有限公司 一种车辆雷达的安装角度校正方法及一种车辆雷达
CN113671973A (zh) * 2021-07-09 2021-11-19 东北大学 目标区域的搜索方法及装置、电子设备、存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016220075A1 (de) * 2016-10-14 2018-04-19 Audi Ag Kraftfahrzeug und Verfahren zur 360°-Umfelderfassung

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013226887A1 (de) * 2013-12-20 2015-06-25 Gerd Reime Induktive Sensoranordnung sowie Verfahren zur Detektion der Position wenigstens eines Targets
CN206734295U (zh) * 2016-12-21 2017-12-12 驭势科技(北京)有限公司 一种用于探测车辆周围目标的探测系统以及其应用
DE102017101530A1 (de) * 2017-01-26 2018-07-26 Valeo Schalter Und Sensoren Gmbh Fahrspurbegrenzungs-Erkennungsvorrichtung für ein Kraftfahrzeug mit mehreren in einer Reihe angeordneten Abtastbereichen
CN112208529A (zh) * 2019-07-09 2021-01-12 长城汽车股份有限公司 用于目标检测的感知系统、驾驶辅助方法和无人驾驶设备
CN111177869A (zh) * 2020-01-02 2020-05-19 北京百度网讯科技有限公司 传感器布局方案的确定方法、装置及设备
CN113494927A (zh) * 2020-03-20 2021-10-12 郑州宇通客车股份有限公司 一种车辆多传感器标定方法、装置及车辆
CN113625234A (zh) * 2020-05-06 2021-11-09 上海海拉电子有限公司 一种车辆雷达的安装角度校正方法及一种车辆雷达
GB202016383D0 (en) * 2020-10-15 2020-12-02 Continental Automotive Romania Srl Method of updating the existance probability of a track in fusion based on sensor perceived areas
CN113671973A (zh) * 2021-07-09 2021-11-19 东北大学 目标区域的搜索方法及装置、电子设备、存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Continual Monitoring of Precision of Aerial Transport Objects;P. Kurdel等;《2018 XIII International Scientific Conference - New Trends in Aviation Development (NTAD)》;全文 *
Probabilistic Smoothing Based Generation of a Reliable Lane Geometry Map With Uncertainty of a Lane Detector;Seokwon Kim等;《 IEEE Access》;20200910;全文 *
一种改进的二进制检测传感器网络解析目标跟踪算法;周卫平;王中原;罗浩;;海军工程大学学报;20111015(第05期);全文 *
基于视觉的智能车辆横向偏差测量方法;李旭;张为公;;东南大学学报(自然科学版)(第01期);全文 *
智轨电车的传感器配置方案研究;刘飞;陈白帆;胡云卿;潘文波;龙腾;袁典;;控制与信息技术(第04期);全文 *

Also Published As

Publication number Publication date
CN114136328A (zh) 2022-03-04

Similar Documents

Publication Publication Date Title
US20200049511A1 (en) Sensor fusion
CN111797734B (zh) 车辆点云数据处理方法、装置、设备和存储介质
RU2638879C2 (ru) Система автоматического управления транспортным средством
CN109870680B (zh) 一种目标分类方法及装置
CN111653113B (zh) 车辆的局部路径确定方法、装置、终端和存储介质
EP3859273A1 (en) Method for constructing driving coordinate system, and application thereof
US11042759B2 (en) Roadside object recognition apparatus
CN110040135A (zh) 车辆控制装置和用于车辆的控制方法
GB2558752A (en) Vehicle vision
US11042160B2 (en) Autonomous driving trajectory determination device
US20220035036A1 (en) Method and apparatus for positioning movable device, and movable device
JPWO2018066133A1 (ja) 車両判定方法、走行経路補正方法、車両判定装置、及び走行経路補正装置
CN112781599A (zh) 确定车辆的位置的方法
Jiménez et al. Improving the lane reference detection for autonomous road vehicle control
CN112036274A (zh) 一种可行驶区域检测方法、装置、电子设备及存储介质
WO2022078342A1 (zh) 动态占据栅格估计方法及装置
US20200062252A1 (en) Method and apparatus for diagonal lane detection
US11087147B2 (en) Vehicle lane mapping
CN110427034B (zh) 一种基于车路协同的目标追踪系统及方法
CN114136328B (zh) 一种传感器信息融合方法及装置
CN111781606A (zh) 一种新型激光雷达和超声波雷达融合的小型化实现方法
CN113155143A (zh) 用于评估自动驾驶用的地图的方法、设备和车辆
Eraqi et al. Static free space detection with laser scanner using occupancy grid maps
US20220404506A1 (en) Online validation of lidar-to-lidar alignment and lidar-to-vehicle alignment
JP2018185156A (ja) 物標位置推定方法及び物標位置推定装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant