CN109884616B - 一种雷达测量距离融合方法、装置及终端 - Google Patents
一种雷达测量距离融合方法、装置及终端 Download PDFInfo
- Publication number
- CN109884616B CN109884616B CN201910189646.1A CN201910189646A CN109884616B CN 109884616 B CN109884616 B CN 109884616B CN 201910189646 A CN201910189646 A CN 201910189646A CN 109884616 B CN109884616 B CN 109884616B
- Authority
- CN
- China
- Prior art keywords
- obtaining
- distance
- radar
- fusion
- radar group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明涉及智能驾驶领域,提出了一种雷达测量距离融合方法、装置及终端,所述方法包括获得第一雷达组对应的第一测量距离,获得第二雷达组对应的第二测量距离,根据所述第二测量距离,获得第二雷达组对应的第二融合权重和第一雷达组对应的第一融合权重,根据所述第一测量距离、第二测量距离、第一融合权重和第二融合权重,获得雷达组数据融合后的测量距离。所述方法在第一雷达组的探测范围上设置第二雷达组,弥补了第一雷达组探测时存在的盲区,为路面检测提供了更大的可监视区域,增强了自动驾驶的安全性。
Description
技术领域
本发明涉及智能驾驶领域,尤其涉及一种雷达测量距离融合方法、装置及终端。
背景技术
自动驾驶汽车是一种通过电脑系统实现无人驾驶的智能汽车。根据SAE的分级标准,自动驾驶分为L0、L1、L2、L3、L4和L5六个等级,自动驾驶的等级越高,则使用者参与的程度越低,因此在实现自动驾驶的过程中,对周边环境信息的采集和判断十分重要,所述对周边信息的采集和判断通常采用各种传感器进行,激光雷达作为其中的一种传感器,用于对周边环境进行采集。
随着自动驾驶等级的提升到L3以上,自动驾驶系统越来越需要得到精确的自身位置和周边环境模型来确保车辆能够安全行驶,即高精度建图和定位。目前主流且精度高的实现方式是利用高精度点云数据进行匹配计算,因此获取高精度的点云是实现自动驾驶功能的重要条件。
激光雷达点云数据可以采用三激光雷达系统来获得,所述三激光雷达系统设置在车辆顶端,为环视激光雷达,其左右盲区较小,但是前后近场由于存在车身的遮挡等原因,仍然有较大的盲区。
所述环视激光雷达在远距离处点云比较稀疏,导致无法得到充足的环境特征,而且光束会随着距离越远变得更宽,导致了同一束激光的光斑可能会落在多个物体上,光束返回的时间会有很大差异,对距离测量的精度有很大影响。
发明内容
本发明要解决的技术问题是单独雷达组的设置存在测量盲区的问题。为了解决上述问题本发明提出了一种雷达测量距离融合方法、装置及终端。本发明具体是以如下技术方案实现的:
本发明的第一个方面提出了一种雷达测量距离融合方法,所述方法包括:
获得第一雷达组对应的第一测量距离;
获得第二雷达组对应的第二测量距离;
根据所述第二测量距离,获得第二雷达组对应的第二融合权重和第一雷达组对应的第一融合权重;
根据所述第一测量距离、第二测量距离、第一融合权重和第二融合权重,获得雷达组数据融合后的测量距离。
进一步地,所述获得第一雷达组对应的第一测量距离包括:
获得第一雷达组对应的第一横向覆盖角和第一纵向覆盖角;
根据所述第一横向覆盖角和所述第一纵向覆盖角,获得第一测量距离;
获得第二雷达组对应的第二测量距离包括:
获得第二雷达组对应的第二横向覆盖角和第二纵向覆盖角;
根据所述第二横向覆盖角和所述第二纵向覆盖角,获得第二测量距离。
进一步地,所述根据第二测量距离,获得第二雷达组对应的第二融合权重和第一雷达组对应的第一融合权重包括:
获得第一雷达组对应的第一信号发散角度;
获得第二雷达组对应的第二信号发散角度;
根据所述第一信号发散角度、第二信号发散角度和第二测量距离,获得第二融合权重;
根据所述第二融合权重,获得第一融合权重。
进一步地,根据所述第一测量距离、第二测量距离、第一融合权重和第二融合权重,获得雷达组数据融合后的测量距离包括:
根据第一融合权重和第一测量距离,获得第一雷达组对应的第一融合距离;
根据第二融合权重和第二测量距离,获得第二雷达组对应的第二融合距离;
根据第一融合距离和第二融合距离,获得雷达组数据融合后的测量距离。
进一步地,所述获得第一雷达组的测量距离,获得第二雷达组的测量距离之前,还包括:
根据第一雷达组的探测范围,设置第二雷达组。
进一步地,所述根据第一雷达组的探测范围,设置第二雷达组包括:
获得第一雷达组的横向覆盖角;
根据第一雷达组的纵向盲区范围,获得第二雷达组纵向覆盖角的计算值;
根据第一雷达组的横向覆盖角和第二雷达组纵向覆盖角的计算值,获得第二雷达组的设置高度。
本发明的第二个方面提出了一种雷达测量距离融合装置,所述装置包括:第一测量距离获得模块、第二测量距离获得模块和距离融合模块;
所述第一测量距离获得模块用于获得第一雷达组对应的第一测量距离;
所述第二测量距离获得模块用于获得第二雷达组对应的第二测量距离;
所述距离融合模块用于根据第一测量距离和第二测量距离,获得雷达组数据融合后的测量距离。
进一步地,所述距离融合模块包括融合权重获得单元和融合测量距离获得单元;
所述融合权重获得单元用于根据第二测量距离,获得第二雷达组对应的第二融合权重和第一雷达组对应的第一融合权重;
所述融合测量距离获得单元用于根据第一测量距离、第二测量距离、第二融合权重和第一融合权重,获得雷达组数据融合后的测量距离。
进一步地,所述第一测量距离获得模块包括第一角度获得单元和第一距离获得单元;
所述第一角度获得单元用于获得第一雷达组对应的第一横向覆盖角和第一纵向覆盖角;
所述第一距离获得单元用于根据所述第一横向覆盖角和所述第一纵向覆盖角,获得第一测量距离;
所述第二测量距离获得模块包括第二角度获得单元和第二距离获得单元;
所述第二角度获得单元用于获得第二雷达组对应的第二横向覆盖角和第二纵向覆盖角;
所述第二距离获得单元用于根据所述第二横向覆盖角和所述第二纵向覆盖角,获得第二测量距离。
本发明的第三个方面提出了一种终端,所述终端包括上述所述的一种雷达测量距离融合装置。
采用上述技术方案,本发明所述的一种雷达测量距离融合方法、装置及终端,具有如下有益效果:
1)本发明提出的一种雷达测量距离融合方法,所述方法在第一雷达组的探测范围上设置第二雷达组,弥补了第一雷达组探测时存在的盲区,为路面检测提供了更大的可监视区域,增强了自动驾驶的安全性;
2)本发明提出的一种雷达测量距离融合方法,所述方法根据第一雷达组的测量距离和融合权重,以及第二雷达组的测量距离和融合权重,获得雷达组融合后的测量距离,所述方法能够提高生成点云的精度,为后端点云相关的匹配算法提供了可信度更高的数据源,间接提高了自动驾驶建图和定位的精度和稳定性;
3)本发明提出了一种雷达测量距离融合方法,所述方法中第二雷达组的设置可以根据需求的前后盲区距离和高精度点云覆盖角度来计算出合理的数量和安装高度,能够较好地排除盲区。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种雷达测量距离融合方法的流程图;
图2为本发明实施例提供的第一雷达组和第二雷达组测量距离的示意图;
图3为本发明实施例提供的一种设置第二雷达组的方法的流程图;
图4为本发明实施例提供的第一雷达组和第二雷达组纵向覆盖角的示意图;
图5为本发明实施例提供的一种雷达测量距离融合装置的结构示意图;
图6为本发明实施例提供的一种雷达测量距离融合装置的距离融合模块的结构示意图;
图7为本发明实施例提供的一种雷达测量距离融合装置的第一测量距离获得模块的结构示意图;
图8为本发明实施例提供的一种雷达测量距离融合装置的第二测量距离获得模块的结构示意图。
以下对附图作补充说明:
201-第一测量距离获得模块,202-第二测量距离获得模块,203-距离融合模块,2001-融合权重获得单元,2002-融合测量距离获得单元,2003-第一角度获得单元,2004-第一距离获得单元,2005-第二角度获得单元,2006-第二距离获得单元。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请所提供的几个实施例中,所描述的系统实施例仅仅是示意性的,例如所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,模块或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
实施例1:
本发明实施例中提供了一种雷达测量距离融合方法,如图1所示,所述方法包括:
S1.获得第一雷达组对应的第一测量距离;
S2.获得第二雷达组对应的第二测量距离;
S3.根据所述第二测量距离,获得第二雷达组对应的第二融合权重和第一雷达组对应的第一融合权重;
S4.根据所述第一测量距离、第二测量距离、第一融合权重和第二融合权重,获得雷达组数据融合后的测量距离。
具体地,所述第一雷达组为设置在车辆顶端的三激光雷达组,所述第二雷达组为设置在车辆前后的前向激光雷达和后向激光雷达。所述第二雷达组的设置需要基于第一雷达组的探测盲区进行,根据第一雷达组的探测范围,设置第二雷达组。所述第二雷达组用于改善第一雷达组在纵向距离上的探测盲区。
进一步地,所述第一测量距离为在第一雷达组的探测范围中,在一组横向覆盖角和纵向覆盖角下的极坐标距离,因此获得第一雷达组对应的第一测量距离包括:
获得第一雷达组对应的第一横向覆盖角和第一纵向覆盖角;
根据所述第一横向覆盖角和所述第一纵向覆盖角,获得第一测量距离。
所述第二测量距离为在第二雷达的探测范围中,在一组横向覆盖角和纵向覆盖角下的极坐标距离,因此获得第二雷达组对应的第二测量距离包括:
获得第二雷达组对应的第二横向覆盖角和第二纵向覆盖角;
根据所述第二横向覆盖角和所述第二纵向覆盖角,获得第二测量距离。
进一步地,所述根据第二测量距离,获得第二雷达组对应的第二融合权重和第一雷达组对应的第一融合权重包括:
获得第一雷达组对应的第一信号发散角度;
获得第二雷达组对应的第二信号发散角度;
根据所述第一信号发散角度、第二信号发散角度和第二测量距离,获得第二融合权重;
根据所述第二融合权重,获得第一融合权重。
具体地,所述融合权重的公式如下:
其中,w2为第二雷达组的融合权重,θ2为第二雷达组的雷达信号发散角度,θ1为第一雷达组的雷达信号发散角度,d2为第二雷达组的测量距离,dt为可调节的距离参数;
所述第一雷达组的融合权重的计算公式为:
w1=1-w2
其中,w1为第一雷达组的融合权重。
如图2所示,所述第一雷达组与第二雷达组都是激光雷达,第一雷达组设置在车顶上,第二雷达组设置在车前端和车后端。依据第二雷达组的配置,黑色区域同时拥有第一雷达组和第二雷达组的点云,可以将第一雷达组和第二雷达组的点云进行融合权重分配来融合成更加准确的距离数据,依据第二雷达组的点云雷达线束更窄的特性,投射到远距离物体上的光斑仍然较小,这样极大减小了同一束射线打在多个物体上的概率,此时第二雷达组雷达的测量值可信度更高。因此,距离雷达越远,第二雷达组的权重更高,即d2越大,第二雷达组的融合权重越高。同时,dt越大则第二雷达组的融合权重随距离增速越慢,dt越小则第二雷达组的融合权重随距离增速越快。
进一步地,根据所述第一测量距离、第二测量距离、第一融合权重和第二融合权重,获得雷达组数据融合后的测量距离包括:
根据第一融合权重和第一测量距离,获得第一雷达组对应的第一融合距离;
根据第二融合权重和第二测量距离,获得第二雷达组对应的第二融合距离;
根据第一融合距离和第二融合距离,获得雷达组数据融合后的测量距离。
具体的,所述雷达组数据融合后的测量距离为:
df=w1d1+w2d2
其中,df为雷达组数据融合后的测量距离,w1为第一雷达组的融合权重,w2为第二雷达组的融合权重,d1为第一雷达组的测量距离,d2为第二雷达组的测量距离。
在结束一次对融合距离的计算后,判断是否遍历了雷达组的所有横向覆盖角和纵向覆盖角,若否则另取一组第一横向覆盖角和第一纵向覆盖角,获得新的第一测量距离,另取一组第一横向覆盖角和第一纵向覆盖角,获得新的第二测量距离,再次进行雷达组数据融合后的测量距离的计算,直到判断已经遍历雷达组所有的横向覆盖角和纵向覆盖角为止。
进一步地,本发明实施例还提出了一种设置第二雷达组的方法,如图3所示,所述方法包括:
S101.获得第一雷达组的横向覆盖角;
S102.根据第一雷达组的纵向盲区范围,获得第二雷达组纵向覆盖角的计算值;
S103.根据第一雷达组的横向覆盖角和第二雷达组纵向覆盖角的计算值,获得第二雷达组的设置高度。
具体地,所述第二雷达组包括前向雷达和后向雷达,所述前向雷达和后向雷达的设置高度的计算公式如下:
其中,h1为第二雷达组中的前向雷达中心到地面的高度,h2为第二雷达组中的后向雷达中心到地面的高度,a'1为需求的前向盲区长度,a'2为需求的后向盲区长度,β1为需求的前方纵向覆盖角度,β2为需求的后方纵向覆盖角度。
车辆前后各布置若干个分辨率高且线束细的点云雷达以达到车辆前后横向(α1,α2)和纵向(β1,β2)覆盖角度,如图4所示,β1和β2的范围分别为为前后新增雷达纵向的覆盖角,黑色区域为构成第一雷达组的三激光雷达系统和第二雷达组的共同覆盖区域,前后纵向覆盖角为γ1和γ2,图4中第二雷达组的前向雷达和后向雷达的横向覆盖角,与第一雷达组的三激光雷达的横向覆盖角相同,为α1和α2,其等同于第一雷达组和第二雷达组共同覆盖的横向角。根据需求的高精度点云横向覆盖角可以直接得到α的值,得到需求的扫描角度后可以根据雷达的固定覆盖角度得出前向雷达或者后向雷达的数量。
根据需求的前后盲区范围(a'1,a'2),可以计算出需要的纵向覆盖角度β1和β2。根据所述需要的纵向覆盖角度β1与前盲区的关系,以及需要的纵向覆盖角度β2与后盲区的关系,可以分别获得前向雷达和后向雷达的安装高度。
设置第二雷达组的方法可以根据需求的前后盲区距离和高精度点云覆盖角度来计算出合理的第二雷达组数量和安装高度,根据计算得到的安装高度和数量,可以进行前向雷达和后向雷达的布置。
本发明实施例提出的一种雷达测量距离融合方法,所述方法包括获得第一雷达组和第二雷达组的测量距离,并获得第一雷达组和第二雷达组的融合权重,进行雷达组融合后的测量距离的计算,所述方法在第一雷达组的探测范围上设置第二雷达组,弥补了第一雷达组探测时存在的盲区,为路面检测提供了更大的可监视区域,增强了自动驾驶的安全性。
所述方法还可以提高生成点云的精度,为后端点云相关的匹配算法提供了可信度更高的数据源,间接提高了自动驾驶建图和定位的精度和稳定性。
实施例2:
本发明一个可行的实施例中提供了一种雷达测量距离融合装置。具体地,如图5所示,所述装置包括:第一测量距离获得模块201、第二测量距离获得模块202和距离融合模块203;
所述第一测量距离获得模块201用于获得第一雷达组对应的第一测量距离;
所述第二测量距离获得模块202用于获得第二雷达组对应的第二测量距离;
所述距离融合模块203用于根据第一测量距离和第二测量距离,获得雷达组数据融合后的测量距离。
进一步地,如图6所示,所述距离融合模块203包括融合权重获得单元2001和融合测量距离获得单元2002;
所述融合权重获得单元2001用于根据第二测量距离,获得第二雷达组对应的第二融合权重和第一雷达组对应的第一融合权重;
所述融合测量距离获得单元2002用于根据第一测量距离、第二测量距离、第二融合权重和第一融合权重,获得雷达组数据融合后的测量距离。
进一步地,如图7所示,所述第一测量距离获得模块201包括第一角度获得单元2003和第一距离获得单元2004;
所述第一角度获得单元2003用于获得第一雷达组对应的第一横向覆盖角和第一纵向覆盖角;
所述第一距离获得单元2004用于根据所述第一横向覆盖角和所述第一纵向覆盖角,获得第一测量距离;
如图8所示,所述第二测量距离获得模块202包括第二角度获得单元2005和第二距离获得单元2006;
所述第二角度获得单元2005用于获得第二雷达组对应的第二横向覆盖角和第二纵向覆盖角;
所述第二距离获得单元2006用于根据所述第二横向覆盖角和所述第二纵向覆盖角,获得第二测量距离。
具体地,所述第一雷达组为设置在车辆顶端的三激光雷达组,所述第二雷达组为设置在车辆前后的前向激光雷达和后向激光雷达。所述第二雷达组的设置需要基于第一雷达组的探测盲区进行,根据第一雷达组的探测范围,设置第二雷达组。所述第二雷达组用于改善第一雷达组在纵向距离上的探测盲区。
所述融合权重的公式如下:
其中,w2为第二雷达组的融合权重,θ2为第二雷达组的雷达信号发散角度,θ1为第一雷达组的雷达信号发散角度,d2为第二雷达组的测量距离,dt为可调节的距离参数;
所述第一雷达组的融合权重的计算公式为:
w1=1-w2
其中,w1为第一雷达组的融合权重。
如图2所示,所述第一雷达组与第二雷达组都是激光雷达。依据第二雷达组的配置,黑色区域同时拥有第一雷达组和第二雷达组的点云,可以将第一雷达组和第二雷达组的点云进行融合权重分配来融合成更加准确的距离数据,依据第二雷达组的点云雷达线束更窄的特性,投射到远距离物体上的光斑仍然较小,这样极大减小了同一束射线打在多个物体上的概率,此时第二雷达组雷达的测量值可信度更高。因此,距离雷达越远,第二雷达组的权重更高,即d2越大,第二雷达组的融合权重越高。同时,dt越大则第二雷达组的融合权重随距离增速越慢,dt越小则第二雷达组的融合权重随距离增速越快。
所述雷达组数据融合后的测量距离为:
df=w1d1+w2d2
其中,df为雷达组数据融合后的测量距离,w1为第一雷达组的融合权重,w2为第二雷达组的融合权重,d1为第一雷达组的测量距离,d2为第二雷达组的测量距离。
在结束一次对融合距离的计算后,判断是否遍历了雷达组的所有横向覆盖角和纵向覆盖角,若否则另取一组第一横向覆盖角和第一纵向覆盖角,获得新的第一测量距离,另取一组第一横向覆盖角和第一纵向覆盖角,获得新的第二测量距离,再次进行雷达组数据融合后的测量距离的计算,直到判断已经遍历雷达组所有的横向覆盖角和纵向覆盖角为止。
本发明提出的一种雷达测量距离融合装置,所述装置能够获得第一雷达组和第二雷达组的测量距离,并获得第一雷达组和第二雷达组的融合权重,进行雷达组融合后的测量距离的计算,所述装置在第一雷达组的探测范围上设置第二雷达组,弥补了第一雷达组探测时存在的盲区,为路面检测提供了更大的可监视区域,增强了自动驾驶的安全性。
所述装置还可以提高生成点云的精度,为后端点云相关的匹配算法提供了可信度更高的数据源,间接提高了自动驾驶建图和定位的精度和稳定性。
实施例3:
本发明实施例提出了一种终端,所述终端包括上述所述的一种雷达测量距离融合装置。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种雷达测量距离融合方法,其特征在于,所述方法包括:
获得第一雷达组对应的第一测量距离;
获得第二雷达组对应的第二测量距离;
获得第一雷达组对应的第一信号发散角度;
获得第二雷达组对应的第二信号发散角度;
根据所述第一信号发散角度、所述第二信号发散角度和所述第二测量距离,获得第二融合权重;
根据所述第二融合权重,获得第一融合权重;
基于所述第二测量距离,对所述第一融合权重和所述第二融合权重进行分配,当所述第二测量距离增加时,所述第二融合权重增加,所述第一融合权重减小;
根据所述第一测量距离、第二测量距离、第一融合权重和第二融合权重,获得雷达组数据融合后的测量距离。
2.根据权利要求1所述的一种雷达测量距离融合方法,其特征在于,所述获得第一雷达组对应的第一测量距离包括:
获得第一雷达组对应的第一横向覆盖角和第一纵向覆盖角;
根据所述第一横向覆盖角和所述第一纵向覆盖角,获得第一测量距离;
获得第二雷达组对应的第二测量距离包括:
获得第二雷达组对应的第二横向覆盖角和第二纵向覆盖角;
根据所述第二横向覆盖角和所述第二纵向覆盖角,获得第二测量距离。
3.根据权利要求1所述的一种雷达测量距离融合方法,其特征在于,根据所述第一测量距离、第二测量距离、第一融合权重和第二融合权重,获得雷达组数据融合后的测量距离包括:
根据第一融合权重和第一测量距离,获得第一雷达组对应的第一融合距离;
根据第二融合权重和第二测量距离,获得第二雷达组对应的第二融合距离;
根据第一融合距离和第二融合距离,获得雷达组数据融合后的测量距离。
4.根据权利要求1所述的一种雷达测量距离融合方法,其特征在于,所述获得第一雷达组的测量距离,获得第二雷达组的测量距离之前,还包括:
根据第一雷达组的探测范围,设置第二雷达组。
5.根据权利要求4所述的一种雷达测量距离融合方法,其特征在于,所述根据第一雷达组的探测范围,设置第二雷达组包括:
获得第一雷达组的横向覆盖角;
根据第一雷达组的纵向盲区范围,获得第二雷达组纵向覆盖角的计算值;
根据第一雷达组的横向覆盖角和第二雷达组纵向覆盖角的计算值,获得第二雷达组的设置高度。
6.一种雷达测量距离融合装置,其特征在于,所述装置包括:第一测量距离获得模块、第二测量距离获得模块和距离融合模块;
所述第一测量距离获得模块用于获得第一雷达组对应的第一测量距离;
所述第二测量距离获得模块用于获得第二雷达组对应的第二测量距离;
所述距离融合模块用于根据第一测量距离和第二测量距离,获得雷达组数据融合后的测量距离;
其中,所述距离融合模块包括融合权重获得单元和融合测量距离获得单元;
所述融合权重获得单元用于获得第一雷达组对应的第一信号发散角度,获得第二雷达组对应的第二信号发散角度,根据所述第一信号发散角度、所述第二信号发散角度和所述第二测量距离,获得第二融合权重,根据所述第二融合权重,获得第一融合权重;所述融合权重获得单元还用于基于所述第二测量距离,对所述第一融合权重和所述第二融合权重进行分配,当所述第二测量距离增加时,所述第二融合权重增加,所述第一融合权重减小;
所述融合测量距离获得单元用于根据所述第一测量距离、所述第二测量距离、所述第二融合权重和所述第一融合权重,获得雷达组数据融合后的测量距离。
7.根据权利要求6所述的一种雷达测量距离融合装置,其特征在于,所述第一测量距离获得模块包括第一角度获得单元和第一距离获得单元;
所述第一角度获得单元用于获得第一雷达组对应的第一横向覆盖角和第一纵向覆盖角;
所述第一距离获得单元用于根据所述第一横向覆盖角和所述第一纵向覆盖角,获得第一测量距离;
所述第二测量距离获得模块包括第二角度获得单元和第二距离获得单元;
所述第二角度获得单元用于获得第二雷达组对应的第二横向覆盖角和第二纵向覆盖角;
所述第二距离获得单元用于根据所述第二横向覆盖角和所述第二纵向覆盖角,获得第二测量距离。
8.一种终端,其特征在于,所述终端包括权利要求6到7任意一项所述的一种雷达测量距离融合装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910189646.1A CN109884616B (zh) | 2019-03-13 | 2019-03-13 | 一种雷达测量距离融合方法、装置及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910189646.1A CN109884616B (zh) | 2019-03-13 | 2019-03-13 | 一种雷达测量距离融合方法、装置及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109884616A CN109884616A (zh) | 2019-06-14 |
CN109884616B true CN109884616B (zh) | 2021-09-14 |
Family
ID=66932117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910189646.1A Active CN109884616B (zh) | 2019-03-13 | 2019-03-13 | 一种雷达测量距离融合方法、装置及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109884616B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021087751A1 (zh) * | 2019-11-05 | 2021-05-14 | 深圳市大疆创新科技有限公司 | 距离检测方法、距离检测设备、自主移动平台和存储介质 |
CN110874848A (zh) * | 2019-11-20 | 2020-03-10 | 东软睿驰汽车技术(沈阳)有限公司 | 一种基于毫米波雷达的物体跟踪方法及装置 |
CN113281771B (zh) * | 2021-03-31 | 2023-07-28 | 南京工程学院 | 一种应用于移动机器人的双雷达融合方法及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104931977A (zh) * | 2015-06-11 | 2015-09-23 | 同济大学 | 一种用于智能车辆的障碍物识别方法 |
CN107368067A (zh) * | 2016-05-12 | 2017-11-21 | 深圳市朗驰欣创科技股份有限公司 | 一种自动导航车的路面检测方法及系统 |
CN107783106A (zh) * | 2016-08-25 | 2018-03-09 | 大连楼兰科技股份有限公司 | 无人机与障碍物之间的数据融合方法 |
CN107783548A (zh) * | 2016-08-25 | 2018-03-09 | 大连楼兰科技股份有限公司 | 基于多传感器信息融合技术的数据处理方法 |
CN107884780A (zh) * | 2016-09-30 | 2018-04-06 | 比亚迪股份有限公司 | 测距方法、激光雷达及车辆 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4413957B2 (ja) * | 2007-08-24 | 2010-02-10 | 株式会社東芝 | 移動物体検出装置および自律移動物体 |
CN107364445B (zh) * | 2017-03-09 | 2019-09-06 | 吉利汽车研究院(宁波)有限公司 | 一种融合近距离探测系统的自适应巡航系统 |
CN107703935A (zh) * | 2017-09-12 | 2018-02-16 | 安徽胜佳和电子科技有限公司 | 多个数据权重融合进行避障的方法、存储装置及移动终端 |
CN107920257B (zh) * | 2017-12-01 | 2020-07-24 | 北京奇虎科技有限公司 | 视频关键点实时处理方法、装置及计算设备 |
CN108614262A (zh) * | 2018-06-22 | 2018-10-02 | 安徽江淮汽车集团股份有限公司 | 一种车辆前方目标物检测方法及系统 |
CN109241203B (zh) * | 2018-09-27 | 2021-08-31 | 天津理工大学 | 一种融合时间因素的用户偏好和距离加权的聚类方法 |
-
2019
- 2019-03-13 CN CN201910189646.1A patent/CN109884616B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104931977A (zh) * | 2015-06-11 | 2015-09-23 | 同济大学 | 一种用于智能车辆的障碍物识别方法 |
CN107368067A (zh) * | 2016-05-12 | 2017-11-21 | 深圳市朗驰欣创科技股份有限公司 | 一种自动导航车的路面检测方法及系统 |
CN107783106A (zh) * | 2016-08-25 | 2018-03-09 | 大连楼兰科技股份有限公司 | 无人机与障碍物之间的数据融合方法 |
CN107783548A (zh) * | 2016-08-25 | 2018-03-09 | 大连楼兰科技股份有限公司 | 基于多传感器信息融合技术的数据处理方法 |
CN107884780A (zh) * | 2016-09-30 | 2018-04-06 | 比亚迪股份有限公司 | 测距方法、激光雷达及车辆 |
Also Published As
Publication number | Publication date |
---|---|
CN109884616A (zh) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109143207B (zh) | 激光雷达内参精度验证方法、装置、设备及介质 | |
CN109284348B (zh) | 一种电子地图的更新方法、装置、设备和存储介质 | |
CN109884616B (zh) | 一种雷达测量距离融合方法、装置及终端 | |
EP3792660A1 (en) | Method, apparatus and system for measuring distance | |
CN109031346A (zh) | 一种基于3d激光雷达的周边泊车位辅助检测方法 | |
CN109849930B (zh) | 自动驾驶汽车的相邻车辆的速度计算方法和装置 | |
CN112083441B (zh) | 激光雷达和毫米波雷达深度融合的障碍物检测方法及系统 | |
CN110879399B (zh) | 处理点云数据的方法、装置、车辆、电子设备和介质 | |
CN111742326A (zh) | 车道线的检测方法、电子设备与存储介质 | |
CN111736153A (zh) | 用于无人驾驶车辆的环境检测系统、方法、设备和介质 | |
WO2023040737A1 (zh) | 目标位置确定方法、装置、电子设备以及存储介质 | |
CN115144825A (zh) | 一种车载雷达的外参标定方法与装置 | |
CN113743171A (zh) | 目标检测方法及装置 | |
CN110927762A (zh) | 一种定位修正方法、装置及系统 | |
CN111275715A (zh) | 点云分割方法、装置、电子设备、存储介质和机器人 | |
WO2018180245A1 (ja) | 出力装置、制御方法、プログラム及び記憶媒体 | |
US20220219679A1 (en) | Spatial parking place detection method and device, storage medium, and program product | |
CN113988197B (zh) | 基于多相机、多激光雷达的联合标定及目标融合检测方法 | |
CN113296120B (zh) | 一种障碍物检测方法及终端 | |
CN115236673A (zh) | 一种大型车辆多雷达融合感知系统和方法 | |
CN114662600A (zh) | 一种车道线的检测方法、装置和存储介质 | |
CN116129669B (zh) | 一种基于激光雷达的车位测评方法、系统、设备及介质 | |
CN110411499B (zh) | 传感器检测识别能力的评估方法及评估系统 | |
US11815362B2 (en) | Map data generation apparatus | |
CN113312403B (zh) | 地图获取方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |