CN115810115B - 基于图像特征的图像和多帧毫米波雷达目标的融合方法 - Google Patents
基于图像特征的图像和多帧毫米波雷达目标的融合方法 Download PDFInfo
- Publication number
- CN115810115B CN115810115B CN202310077584.1A CN202310077584A CN115810115B CN 115810115 B CN115810115 B CN 115810115B CN 202310077584 A CN202310077584 A CN 202310077584A CN 115810115 B CN115810115 B CN 115810115B
- Authority
- CN
- China
- Prior art keywords
- image
- loss
- millimeter wave
- wave radar
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 9
- 238000001514 detection method Methods 0.000 claims abstract description 88
- 230000004927 fusion Effects 0.000 claims abstract description 36
- 238000002372 labelling Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000012795 verification Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Radar Systems Or Details Thereof (AREA)
Abstract
本申请涉及基于图像特征的图像和多帧毫米波雷达目标的融合方法,包括标注图像的目标区域;将当前时刻下的毫米波雷达目标信息与历史时刻的毫米波雷达目标信息融合,并标注出当前时刻下毫米波雷达目标与图像的目标区域一一对应的匹配关系;提取目标区域的中心点特征和毫米波雷达目标的雷达目标点特征;构建检测模型,基于第一训练标签训练检测模型;利用匹配模型对中心点特征和雷达目标点特征进行特征匹配,结合第二训练标签对匹配模型进行监督;构建损失函数,采用优化器优化得到融合模型;将图像和多帧毫米波雷达信息输入融合模型中,得到图像的目标检测结果和与毫米波雷达目标的匹配结果。本申请具有提升匹配准确率的效果。
Description
技术领域
本申请涉及自动驾驶技术领域,尤其是涉及基于图像特征的图像和多帧毫米波雷达目标的融合方法。
背景技术
自动驾驶车辆面临的挑战之一是复杂场景中精确的目标检测和跟踪。与视觉算法中的视觉传感器相比,毫米波雷达的检测性能受极端天气的影响较小,此外,毫米波雷达不仅可以测量距离,还可以利用运动物体反射信号的多普勒效应测量速度矢量,并且具有穿透性,受遮挡的影响小,在遮挡情况下更具备跟踪条件。
但是,单帧毫米波雷达的信息量较少,导致基于图像特征的图像和毫米波雷达目标的匹配精度较低。
发明内容
为了改善图像和毫米波雷达目标的匹配精度,提升匹配准确率,本申请提供了基于图像特征的图像和多帧毫米波雷达目标的匹配方法。
第一方面,本申请提供一种基于图像特征的图像和多帧毫米波雷达目标的融合方法。
本申请是通过以下技术方案得以实现的:
一种基于图像特征的图像和多帧毫米波雷达目标的融合方法,包括以下步骤,
基于时间同步下的图像和该时间下的毫米波雷达目标信息,将所述毫米波雷达目标投影到所述图像上,获得所述毫米波雷达目标在所述图像上的投影点坐标;
标注所述图像的目标区域,作为目标检测的第一训练标签;
将当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,并标注出当前时刻下毫米波雷达目标与所述图像的目标区域一一对应的匹配关系,作为特征匹配的第二训练标签;
基于所述图像,分别提取所述图像的目标区域的中心点特征和所述毫米波雷达目标的雷达目标点特征;
构建YOLOV5目标检测模型,基于所述YOLOV5目标检测模型检测图像中的目标区域,并结合所述第一训练标签训练所述YOLOV5目标检测模型,计算检测损失;
利用匹配模型对所述中心点特征和所述雷达目标点特征进行特征匹配,得到匹配矩阵,并结合所述第二训练标签对所述匹配模型进行监督,计算匹配损失;
构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,直至模型收敛,得到融合模型;
将图像和多帧毫米波雷达目标信息输入所述融合模型中,得到图像的目标检测结果和与毫米波雷达目标的匹配结果。
本申请在一较佳示例中可以进一步配置为:所述构建损失函数的步骤包括,
将检测损失和匹配损失相加,其中,所述检测损失包括分类损失、坐标误差损失和预测框IOU损失,则
α+β=1
本申请在一较佳示例中可以进一步配置为:所述分类损失采用交叉熵损失,则
本申请在一较佳示例中可以进一步配置为:所述坐标误差损失采用均方误差损失,则
本申请在一较佳示例中可以进一步配置为:所述预测框IOU损失采用C-IOU损失,则
式中,表示交并比,A为预测框,B为标注框,/>表示预测框和标注框中心点之间的欧氏距离,/>为预测框和标注框之间最小外接矩形对角线的长度,/>表示权重系数,用于衡量预测框和标注框相对比例的一致性,/>为标注框的宽,/>为标注框的高,/>为预测框的宽,/>为预测框的高。
本申请在一较佳示例中可以进一步配置为:所述匹配损失为经过Sinkhorn算法迭代之后的匹配矩阵的负对数似然函数;
所述匹配损失的表达式为,
其中,(M,N)表示标注的图像和雷达点的匹配集合,N+1和M+1分别表示扩充矩阵的第N+1行和M+1列。/>表示第M+1列的毫米波雷达目标中图像目标的集合,/>表示第N+1行的图像目标中毫米波雷达目标的集合。
本申请在一较佳示例中可以进一步配置为:所述YOLOV5目标检测模型包含CSPdarknet53层、Neck层和Prediction层组成的网络结构;
所述CSPdarknet53层由多个卷积层、BN层、激活层和残差组件堆叠而成。
第二方面,本申请提供一种基于图像特征的图像和多帧毫米波雷达目标的匹配装置。
本申请是通过以下技术方案得以实现的:
一种基于图像特征的图像和多帧毫米波雷达目标的融合装置,包括,
投影模块,用于基于时间同步下的图像和该时间下的毫米波雷达目标信息,将所述毫米波雷达目标投影到所述图像上,获得所述毫米波雷达目标在所述图像上的投影点坐标;
第一训练标签模块,用于标注所述图像的目标区域,作为目标检测的第一训练标签;
第二训练标签模块,用于将当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,并标注出当前时刻下毫米波雷达目标与所述图像的目标区域一一对应的匹配关系,作为特征匹配的第二训练标签;
特征提取模块,用于基于所述图像,分别提取所述图像的目标区域中心点特征和所述毫米波雷达目标的雷达目标点特征;
检测损失模块,用于构建YOLOV5目标检测模型,基于所述YOLOV5目标检测模型检测图像中的目标区域,并结合所述第一训练标签训练所述YOLOV5目标检测模型,计算检测损失;
匹配损失模块,用于利用匹配模型对所述中心点特征和所述雷达目标点特征进行特征匹配,得到匹配矩阵,并结合所述第二训练标签对所述匹配模型进行监督,计算匹配损失;
训练模块,用于构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,直至模型融合收敛,得到融合模型;
匹配模块,用于将图像和多帧毫米波雷达目标信息输入所述融合模型中,得到图像的目标检测结果和与毫米波雷达目标的匹配结果。
第三方面,本申请提供一种计算机设备。
本申请是通过以下技术方案得以实现的:
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意一种基于图像特征的图像和多帧毫米波雷达目标的匹配方法的步骤。
第四方面,本申请提供一种计算机可读存储介质。
本申请是通过以下技术方案得以实现的:
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一种基于图像特征的图像和多帧毫米波雷达目标的匹配方法的步骤。
综上所述,与现有技术相比,本申请提供的技术方案带来的有益效果至少包括:
将当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,针对多帧雷达数据进行融合,使得训练数据更丰富;同时,构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,将检测模型和匹配模型融合在一起进行训练,训练数据更丰富,融合模型的泛化性能更强,在检测图像目标的同时,还可以实现图像目标和毫米波雷达目标之间的匹配,改善了图像和毫米波雷达目标的匹配精度,提升了匹配准确率。
附图说明
图1为本申请一个示例性实施例提供的一种基于图像特征的图像和多帧毫米波雷达目标的融合方法的流程示意图。
图2为本申请又一个示例性实施例提供的一种基于图像特征的图像和多帧毫米波雷达目标的融合方法构建的目标检测模型的结构框图。
图3为本申请另一个示例性实施例提供的一种基于图像特征的图像和多帧毫米波雷达目标的融合装置的结构框图。
具体实施方式
本具体实施例仅仅是对本申请的解释,其并不是对本申请的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本申请的权利要求范围内都受到专利法的保护。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,如无特殊说明,一般表示前后关联对象是一种“或”的关系。
下面结合说明书附图对本申请实施例作进一步详细描述。
参照图1,本申请实施例提供一种基于图像特征的图像和多帧毫米波雷达目标的融合方法,所述方法的主要步骤描述如下。
S1:基于时间同步下的图像和该时间下的毫米波雷达目标信息,将所述毫米波雷达目标投影到所述图像上,获得所述毫米波雷达目标在所述图像上的投影点坐标;
S2:标注所述图像的目标区域,作为目标检测的第一训练标签;
S3:将当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,并标注出当前时刻下毫米波雷达目标与所述图像的目标区域一一对应的匹配关系,作为特征匹配的第二训练标签;
S4:基于所述图像,分别提取所述图像的目标区域的中心点特征和所述毫米波雷达目标的雷达目标点特征;
S5:构建YOLOV5目标检测模型,基于所述YOLOV5目标检测模型检测图像中的目标区域,并结合所述第一训练标签训练所述YOLOV5目标检测模型,计算检测损失;
S6:利用匹配模型对所述中心点特征和所述雷达目标点特征进行特征匹配,得到匹配矩阵,并结合所述第二训练标签对所述匹配模型进行监督,计算匹配损失;
S7:构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,直至模型收敛,得到融合模型;
S8: 将图像和多帧毫米波雷达目标信息输入所述融合模型中,得到图像的目标检测结果和与毫米波雷达目标的匹配结果。
具体地,获取时间同步下的图像和当前时间下的毫米波雷达目标信息,并借助坐标系转换,将毫米波雷达目标投影到所述图像上,获得所述毫米波雷达目标在所述图像上的投影点坐标。
人工标注所述图像的目标区域,作为目标检测的第一训练标签。目标区域为关键目标区域,关键目标区域包括行人、车辆、动物等具有移动属性的物体。本实施例中,目标区域为车辆。
将当前时间下的毫米波雷达目标信息,即当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,针对多帧雷达数据进行融合,并人工标注出当前时刻下毫米波雷达目标与所述图像的目标区域一一对应的匹配关系,作为特征匹配的第二训练标签。
基于所述图像,分别提取所述图像的目标区域的中心点特征和所述毫米波雷达目标的雷达目标点特征。本实施例中,可以在原始目标检测模型的基础上分别获取目标中心点的特征和雷达点的图像特征,实现特征共享。
参照图2,构建YOLOV5目标检测模型,基于所述YOLOV5目标检测模型检测图像中的目标区域,并结合所述第一训练标签训练所述YOLOV5目标检测模型,计算检测损失。
具体地,YOLOV5目标检测模型包含CSPdarknet53层、Neck层和Prediction层组成的网络结构,CSPdarknet53层的输出端连接Neck层的输入端,Neck层的输出端连接Prediction层的输入端;CSPdarknet53层作为检测模型的核心backnone,由多个卷积层、BN层、激活层和残差组件堆叠而成。Neck层主要对特征金字塔的特征进行卷积、上采样和拼接Concatate,以及卷积、下采样和拼接Concatate。Prediction层是对输入的3层特征金字塔进行维度变换,得到3×(1+4+c)的维度,分别对应各个回归量,继而使用标签监督的方式得到检测损失。
通过在YOLOV5目标检测模型的输入层输入一张H×W的RGB图像;经过由卷积层、BN层、激活层和残差组件堆叠而成的CSPdarknet53层,输出3层多尺度的特征金字塔,大小分别为H/8×W/8×256、H/16×W/16×512、H/32×W/32×1024;经过Neck层时对3层特征金字塔进行卷积、上采样以及连接Concatate,得到一张大小为H/8×W/8×256的融合特征featuremap;再经过Neck层对融合特征featuremap进行卷积和下采样以及连接Concatate,再次得到大小为H/8×W/8×256、H/16×W/16×512、H/32×W/32×1024的3层特征金字塔,使得网络具有不同得到的感受野,进而可以观察到图像中不同大小的目标,使得YOLOV5目标检测模型很好地具备检测大、中、小的目标的能力,最后,将3层特征金字塔输入Prediction层,通过二维卷积在每个尺度下都输出一个3维的预测张量,每个尺度下的张量的大小分别为H/8×W/8×[3×(1+4+c)]、H/16×W/16×[3×(1+4+c)]、H/32×W/32×[3×(1+4+c)],分别对应预测3个尺度下3种长宽比的目标。
预测张量的编码信息有:预测框的4维位置信息、预测框中包含待检测目标的1维置信度、预测框中包含目标的c维类别信息。注意的是类别信息分别对应小车、小巴士、巴士、卡车、特种车辆、未知类型车辆以及不是车辆7种类别。
在标注信息中,已经知道图像目标点和雷达目标点的坐标,通过对x、y坐标缩小4倍,即可获得坐标(x,y)的点在(x/8,y/8)处的特征向量,向量维度为512。
在获得图像目标点和雷达目标点的特征向量之后,再在雷达目标点特征上加入雷达目标的信息,如目标距离、速度、角度,并且再对加入雷达信息后的雷达特征进行一次卷积,以便将雷达特征向量维度恢复至512维。
利用匹配模型对所述中心点特征和所述雷达目标点特征进行特征匹配,得到匹配矩阵,并结合所述第二训练标签对所述匹配模型进行监督,计算匹配损失。其中,匹配模型采用如sinkhorn匹配算法等。
构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,直至模型收敛,得到融合模型。在模型训练过程中,当损失函数的loss不再继续下降或下降很小,并且验证集的准确率不再上升,即可认为模型收敛。本实施例中,设置学习率lr=0.0001,优化器采用adam,训练50轮,通过训练过程中在验证集上验证准确率且不再上升,即可保存在验证集上训练完毕的模型,得到融合模型。
将图像和多帧毫米波雷达目标信息输入所述融合模型中,得到图像的目标检测结果和与毫米波雷达目标的匹配结果。
在一实施例中,所述构建损失函数的步骤包括,
将检测损失和匹配损失相加,其中,所述检测损失包括分类损失、坐标误差损失和预测框IOU损失,则
α+β=1
在一实施例中,所述分类损失采用交叉熵损失,则
在一实施例中,所述坐标误差损失采用均方误差损失,则
在一实施例中,所述预测框IOU损失采用C-IOU损失,则
式中,表示交并比,A为预测框,B为标注框,/>表示预测框和标注框中心点之间的欧氏距离,/>为预测框和标注框之间最小外接矩形对角线的长度,/>表示权重系数,用于衡量预测框和标注框相对比例的一致性,/>为标注框的宽,/>为标注框的高,/>为预测框的宽,/>为预测框的高。
在一实施例中,所述匹配损失为经过Sinkhorn算法迭代之后的匹配矩阵的负对数似然函数;
所述匹配损失的表达式为,
其中,(M,N)表示标注的图像和雷达点的匹配集合,N+1和M+1分别表示扩充矩阵的第N+1行和M+1列。/>表示第N+1列的毫米波雷达目标中图像目标的集合,/>表示第M+1行的图像目标中毫米波雷达目标的集合。
在一实施例中,还包括以下步骤,
随机在历史时刻的雷达目标信息中将目标信息设置为0,进行数据增强;
采用增强的数据训练所述YOLOV5目标检测模型,使得YOLOV5目标检测模型的训练数据更丰富,模型的泛化能力更强,目标的检测准确率更高。
综上所述,一种基于图像特征的图像和多帧毫米波雷达目标的融合方法通过将当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,针对多帧雷达数据进行融合,使得雷达目标信息数据更丰富;同时,构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,将检测器和匹配算法融合在一起进行训练,训练数据更丰富,融合模型的泛化性能更强,改善了图像和毫米波雷达目标的匹配精度,提升了匹配准确。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
参照图3,本申请实施例还提供一种基于图像特征的图像和多帧毫米波雷达目标的融合装置,该一种基于图像特征的图像和多帧毫米波雷达目标的融合装置与上述实施例中一种基于图像特征的图像和多帧毫米波雷达目标的匹配方法一一对应。该一种基于图像特征的图像和多帧毫米波雷达目标的融合装置包括,
投影模块,用于基于时间同步下的图像和该时间下的毫米波雷达目标信息,将所述毫米波雷达目标投影到所述图像上,获得所述毫米波雷达目标在所述图像上的投影点坐标;
第一训练标签模块,用于标注所述图像的目标区域,作为目标检测的第一训练标签;
第二训练标签模块,用于将当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,并标注出当前时刻下毫米波雷达目标与所述图像的目标区域一一对应的匹配关系,作为特征匹配的第二训练标签;
特征提取模块,用于基于所述图像,分别提取所述图像的目标区域的中心点特征和所述毫米波雷达目标的雷达目标点特征;
检测损失模块,用于构建YOLOV5目标检测模型,基于所述YOLOV5目标检测模型检测图像中的目标区域,并结合所述第一训练标签训练所述YOLOV5目标检测模型,计算检测损失;
匹配损失模块,用于利用匹配模型对所述中心点特征和所述雷达目标点特征进行特征匹配,得到匹配矩阵,并结合所述第二训练标签对所述匹配模型进行监督,计算匹配损失;
训练模块,用于构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,直至模型收敛,得到融合模型;
匹配模块,用于将图像和多帧毫米波雷达目标信息输入所述融合模型中,得到图像的目标检测结果和与毫米波雷达目标的匹配结果。
关于一种基于图像特征的图像和多帧毫米波雷达目标的匹配装置的具体限定可以参见上文中对于一种基于图像特征的图像和多帧毫米波雷达目标的匹配方法的限定,在此不再赘述。上述一种基于图像特征的图像和多帧毫米波雷达目标的匹配装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现上述任意一种基于图像特征的图像和多帧毫米波雷达目标的匹配方法。
在一个实施例中,提供了一种计算机可读存储介质,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
S1:基于时间同步下的图像和该时间下的毫米波雷达目标信息,将所述毫米波雷达目标投影到所述图像上,获得所述毫米波雷达目标在所述图像上的投影点坐标;
S2:标注所述图像的目标区域,作为目标检测的第一训练标签;
S3:将当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,并标注出当前时刻下毫米波雷达目标与所述图像的目标区域一一对应的匹配关系,作为特征匹配的第二训练标签;
S4:基于所述图像,分别提取所述图像的目标区域的中心点特征和所述毫米波雷达目标的雷达目标点特征;
S5:构建YOLOV5目标检测模型,基于所述YOLOV5目标检测模型检测图像中的目标区域,并结合所述第一训练标签训练所述YOLOV5目标检测模型,计算检测损失;
S6:利用匹配模型对所述中心点特征和所述雷达目标点特征进行特征匹配,得到匹配矩阵,并结合所述第二训练标签对所述匹配模型进行监督,计算匹配损失;
S7:构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,直至模型融合收敛,得到融合模型;
S8: 将图像和多帧毫米波雷达目标信息输入所述融合模型中,得到图像的目标检测结果和与毫米波雷达目标的匹配结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述系统的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
Claims (8)
1.一种基于图像特征的图像和多帧毫米波雷达目标的融合方法,其特征在于,包括以下步骤,
基于时间同步下的图像和该时间下的毫米波雷达目标信息,将所述毫米波雷达目标投影到所述图像上,获得所述毫米波雷达目标在所述图像上的投影点坐标;
标注所述图像的目标区域,作为目标检测的第一训练标签;
将当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,并标注出当前时刻下毫米波雷达目标与所述图像的目标区域一一对应的匹配关系,作为特征匹配的第二训练标签;
基于所述图像,分别提取所述图像的目标区域的中心点特征和所述毫米波雷达目标的雷达目标点特征;
构建YOLOV5目标检测模型,基于所述YOLOV5目标检测模型检测图像中的目标区域,并结合所述第一训练标签训练所述YOLOV5目标检测模型,计算检测损失;
利用匹配模型对所述中心点特征和所述雷达目标点特征进行特征匹配,得到匹配矩阵,并结合所述第二训练标签对所述匹配模型进行监督,计算匹配损失;
构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,直至模型收敛,得到融合模型;所述构建损失函数的步骤包括,
将检测损失和匹配损失相加,其中,所述检测损失包括分类损失、坐标误差损失和预测框IOU损失,则
α+β=1
将图像和多帧毫米波雷达目标信息输入所述融合模型中,得到图像的目标检测结果和与毫米波雷达目标的匹配结果;
其中,所述YOLOV5目标检测模型包含CSPdarknet53层、Neck层和Prediction层组成的网络结构,CSPdarknet53层的输出端连接Neck层的输入端,Neck层的输出端连接Prediction层的输入端;
所述CSPdarknet53层由多个卷积层、BN层、激活层和残差组件堆叠而成,并输出3层多尺度的特征金字塔;
所述Neck层用于对特征金字塔进行卷积、上采样以及连接,得到融合特征,再经过Neck层对融合特征进行卷积和下采样以及连接,再次得到特征金字塔;
所述Prediction层通过二维卷积在每个尺度下输出一个3维的预测张量。
2. 根据权利要求1所述的基于图像特征的图像和多帧毫米波雷达目标的融合方法,其特征在于,所述分类损失采用交叉熵损失。
6.一种基于图像特征的图像和多帧毫米波雷达目标的融合装置,其特征在于,包括,
投影模块,用于基于时间同步下的图像和该时间下的毫米波雷达目标信息,将所述毫米波雷达目标投影到所述图像上,获得所述毫米波雷达目标在所述图像上的投影点坐标;
第一训练标签模块,用于标注所述图像的目标区域,作为目标检测的第一训练标签;
第二训练标签模块,用于将当前时刻下的毫米波雷达目标信息与该时刻之前T个时刻下的毫米波雷达目标信息融合在一起,并标注出当前时刻下毫米波雷达目标与所述图像的目标区域一一对应的匹配关系,作为特征匹配的第二训练标签;
特征提取模块,用于基于所述图像,分别提取所述图像的目标区域的中心点特征和所述毫米波雷达目标的雷达目标点特征;
检测损失模块,用于构建YOLOV5目标检测模型,基于所述YOLOV5目标检测模型检测图像中的目标区域,并结合所述第一训练标签训练所述YOLOV5目标检测模型,计算检测损失,其中,所述YOLOV5目标检测模型包含CSPdarknet53层、Neck层和Prediction层组成的网络结构,CSPdarknet53层的输出端连接Neck层的输入端,Neck层的输出端连接Prediction层的输入端;所述CSPdarknet53层由多个卷积层、BN层、激活层和残差组件堆叠而成,并输出3层多尺度的特征金字塔;所述Neck层用于对特征金字塔进行卷积、上采样以及连接,得到融合特征,再经过Neck层对融合特征进行卷积和下采样以及连接,再次得到特征金字塔;所述Prediction层通过二维卷积在每个尺度下输出一个3维的预测张量;
匹配损失模块,用于利用匹配模型对所述中心点特征和所述雷达目标点特征进行特征匹配,得到匹配矩阵,并结合所述第二训练标签对所述匹配模型进行监督,计算匹配损失;
训练模块,用于构建损失函数,并采用优化器优化YOLOV5目标检测模型和匹配模型,直至模型收敛,得到融合模型;所述构建损失函数的步骤包括,
将检测损失和匹配损失相加,其中,所述检测损失包括分类损失、坐标误差损失和预测框IOU损失,则
α+β=1
匹配模块,用于将图像和多帧毫米波雷达目标信息输入所述融合模型中,得到图像的目标检测结果和与毫米波雷达目标的匹配结果。
7.一种计算机设备,其特征在于,包括存储器、处理器及存储在存储器上的计算机程序,所述处理器执行所述计算机程序以实现权利要求1至5任意一项所述方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1至5任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310077584.1A CN115810115B (zh) | 2023-02-08 | 2023-02-08 | 基于图像特征的图像和多帧毫米波雷达目标的融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310077584.1A CN115810115B (zh) | 2023-02-08 | 2023-02-08 | 基于图像特征的图像和多帧毫米波雷达目标的融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115810115A CN115810115A (zh) | 2023-03-17 |
CN115810115B true CN115810115B (zh) | 2023-06-02 |
Family
ID=85487568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310077584.1A Active CN115810115B (zh) | 2023-02-08 | 2023-02-08 | 基于图像特征的图像和多帧毫米波雷达目标的融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115810115B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116148801B (zh) * | 2023-04-18 | 2023-07-14 | 深圳市佰誉达科技有限公司 | 一种基于毫米波雷达的目标检测方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111652097B (zh) * | 2020-05-25 | 2023-04-18 | 南京莱斯电子设备有限公司 | 一种图像毫米波雷达融合目标检测方法 |
CN112560972B (zh) * | 2020-12-21 | 2021-10-08 | 北京航空航天大学 | 基于毫米波雷达先验定位和视觉特征融合的目标检测方法 |
CN112835037B (zh) * | 2020-12-29 | 2021-12-07 | 清华大学 | 一种基于视觉和毫米波融合的全天候目标检测方法 |
CN115546519B (zh) * | 2022-12-05 | 2023-03-24 | 深圳佑驾创新科技有限公司 | 一种提取伪图像特征的图像和毫米波雷达目标的匹配方法 |
-
2023
- 2023-02-08 CN CN202310077584.1A patent/CN115810115B/zh active Active
Non-Patent Citations (1)
Title |
---|
基于毫米波雷达与图像融合的车辆检测;胡彬;赵春霞;刘家银;;华中科技大学学报(自然科学版);第39卷(增刊II);第147-149页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115810115A (zh) | 2023-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115546519B (zh) | 一种提取伪图像特征的图像和毫米波雷达目标的匹配方法 | |
CN113076871A (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN115810115B (zh) | 基于图像特征的图像和多帧毫米波雷达目标的融合方法 | |
US20220245924A1 (en) | Training method for multi-object tracking model and multi-object tracking method | |
CN111208818B (zh) | 基于视觉时空特征的智能车预测控制方法 | |
CN113469088A (zh) | 一种无源干扰场景下的sar图像舰船目标检测方法及系统 | |
CN113888748A (zh) | 一种点云数据处理方法及装置 | |
CN114782787A (zh) | 一种对点云与图像数据进行特征融合的处理方法和装置 | |
CN116310850B (zh) | 基于改进型RetinaNet的遥感图像目标检测方法 | |
CN115294355A (zh) | 一种空间感知增强的单阶段无锚框三维目标检测方法及系统 | |
CN114998856B (zh) | 一种多相机图像的3d目标检测方法、装置、设备及介质 | |
CN115457492A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
CN114926722A (zh) | 基于YOLOv5的尺度自适应目标检测的方法及存储介质 | |
CN115294539A (zh) | 多任务检测方法及装置、存储介质、终端 | |
CN115797665B (zh) | 基于图像特征的图像和单帧毫米波雷达目标的匹配方法 | |
CN116246119A (zh) | 3d目标检测方法、电子设备及存储介质 | |
WO2022017129A1 (zh) | 目标对象检测方法、装置、电子设备及存储介质 | |
CN115240168A (zh) | 感知结果获取方法、装置、计算机设备、存储介质 | |
CN115205681A (zh) | 基于空间上下文的车道线分割方法、设备及存储介质 | |
CN114863201A (zh) | 三维检测模型的训练方法、装置、计算机设备和存储介质 | |
CN113487374A (zh) | 一种基于5g网络的区块电商平台交易系统 | |
CN113963027B (zh) | 不确定性检测模型的训练、不确定性的检测方法及装置 | |
Ye et al. | FANet: Flexibility and Adaptivity Net for 3D Point Cloud Detection | |
CN117011685B (zh) | 场景识别方法、装置和电子装置 | |
CN117253044B (zh) | 一种基于半监督交互学习的农田遥感图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: Floor 25, Block A, Zhongzhou Binhai Commercial Center Phase II, No. 9285, Binhe Boulevard, Shangsha Community, Shatou Street, Futian District, Shenzhen, Guangdong 518000 Patentee after: Shenzhen Youjia Innovation Technology Co.,Ltd. Address before: 518051 401, building 1, Shenzhen new generation industrial park, No. 136, Zhongkang Road, Meidu community, Meilin street, Futian District, Shenzhen, Guangdong Province Patentee before: SHENZHEN MINIEYE INNOVATION TECHNOLOGY Co.,Ltd. |