CN113222968A - 融合毫米波和图像的检测方法、系统、设备及存储介质 - Google Patents

融合毫米波和图像的检测方法、系统、设备及存储介质 Download PDF

Info

Publication number
CN113222968A
CN113222968A CN202110592794.5A CN202110592794A CN113222968A CN 113222968 A CN113222968 A CN 113222968A CN 202110592794 A CN202110592794 A CN 202110592794A CN 113222968 A CN113222968 A CN 113222968A
Authority
CN
China
Prior art keywords
layer
matrix
output matrix
image
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110592794.5A
Other languages
English (en)
Other versions
CN113222968B (zh
Inventor
谭黎敏
张大鹏
赵钊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xijing Technology Co ltd
Original Assignee
Shanghai Westwell Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Westwell Information Technology Co Ltd filed Critical Shanghai Westwell Information Technology Co Ltd
Priority to CN202110592794.5A priority Critical patent/CN113222968B/zh
Publication of CN113222968A publication Critical patent/CN113222968A/zh
Application granted granted Critical
Publication of CN113222968B publication Critical patent/CN113222968B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了融合毫米波和图像的检测方法、系统、设备及存储介质,该方法包括以下步骤:获取图像数据生成第一三维矩阵,采集并扩展毫米波雷达点云数据获得第二三维矩阵,通过M层融合网络进行下采样卷积后,将每层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵;M层融合网络自最后一层的第二输出矩阵到M层融合网络自最后第N层的第二输出矩阵,N层拼合网络的每一层分别对上一层的输出矩阵进行上采样反卷积后,与本层的输入矩阵拼合作为输出矩阵输入到一图像分类神经网络对尺寸特征图进行分类识别。本发明能够在数据层面进行毫米波数据和图片数据前融合的深度学习算法,增强目标检测的鲁棒性,提高准确率,减小资源消耗。

Description

融合毫米波和图像的检测方法、系统、设备及存储介质
技术领域
本发明属于机器视觉领域,尤其涉及一种融合毫米波和图像的检测方法、系统、设备及存储介质。
背景技术
目前,在无人驾驶、V2X路测感知以及其他工业领域广泛的使用包括毫米波雷达和相机在内的多传感器融合技术。然而由于激光雷达昂贵的成本以及寿命短等因素使得基于激光雷达和图像融合的方案成本过高。然而基于毫米波和图像的融合算法具有稳定性好,成本低,鲁棒性高等特点,此类算法为工业界较为青睐的方向。然而绝大部分的毫米波和图像均以后融合为主,即毫米波和图像分别检测,之后将结果进行融合,这种方法检测过程分别独立,最终的结果只取两者同时检测到的结果,即两者的取检测的交集,两者并没有进行优劣势互补,漏检很严重。
因此,本发明提供了一种融合毫米波和图像的检测方法、系统、设备及存储介质。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
针对现有技术中的问题,本发明的目的在于提供融合毫米波和图像的检测方法、系统、设备及存储介质,克服了现有技术的困难,能够在数据层面进行毫米波数据和图片数据前融合的深度学习算法,增强目标检测的鲁棒性,提高准确率,减小资源消耗。
本发明的实施例提供一种融合毫米波和图像的检测方法,包括以下步骤:
S100、获取图像数据生成第一三维矩阵为W×H×C,采集并扩展毫米波雷达点云数据获得第二三维矩阵W×H×L,其中,W为图像的图片宽,H为图像的图片高,C为图像的图片通道数据,L为图像中每个像素对应的毫米波雷达参数维度;
S160、将所述第二三维矩阵作为M层融合网络的第一输入矩阵,所述第一三维矩阵作为M层融合网络的第二输入矩阵,所述M层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵;
S170、建立一N层拼合网络,所述N层拼合网络的N层的输入矩阵依次为所述M层融合网络自最后一层的第二输出矩阵到所述M层融合网络自最后第N层的第二输出矩阵,所述N层拼合网络的每一层分别对上一层的输出矩阵进行上采样反卷积后,与本层的输入矩阵拼合作为所述N 层拼合网络的输出矩阵,M≥N;
S180、将N层拼合网络的输出矩阵输入到一图像分类神经网络对尺寸特征图进行分类识别。
优选地,所述步骤S100包括以下步骤:
S120、获取图像数据、毫米波雷达点云数据,所述图像数据的第一三维矩阵为W×H×C,其中W为图像的图片宽,H为图像的图片高,C 为图像的图片通道数据,根据所述图像数据建立相机平面坐标系,其中, X轴平行于地面,Y轴垂直于地面,C的取值范围是[2,4];
S130、根据毫米波雷达和相机标定外参转换,将所述毫米波雷达点云数据转换到相机坐标系下,再根据相机内参转换矩阵转换到图片坐标系下;
S140、将所述毫米波点云的每个毫米波点云对应的像素点沿Y轴的正负方向进行双向范围扩展,获得扩展后的像素点的集合;
S150、建立一个W×H×L的第二三维矩阵,W为图像的图片宽,H 为图像的图片高,L为图像中每个像素对应的毫米波雷达参数维度,L的取值范围是(0,18]。
优选地,所述步骤S120之前还包括以下步骤:
S110、对相机和毫米波雷达进行联合标定,获得相互之间的外参转换矩阵和内参转换矩阵。
优选地,所述步骤S140中,将每个毫米波点云对应的像素点沿Y轴的正负方向间隔预设距离d,分别获得一参考点,收集两个参考点之间的连线经过的所有像素点作为扩展后的像素点的集合,所述预设距离d的取值范围为0.5m至2m。
优选地,所述步骤S160中,所述M层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q倍下采样卷积后获得本层的第一输出矩阵和过程矩阵;
所述步骤S170中,所述N层拼合网络的每一层分别对上一层的输出矩阵进行Q倍上采样卷积,Q≥2。
优选地,所述多层融合网络按顺序包括前P层和后N层,P=M-N;
其中,前P层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵;
后N层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q 倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵,并输入到所述N层拼合网络。
优选地,所述多层融合网络按顺序包括前2层和后4层;
前2层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q 倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵;
后4层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q 倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵,并输入到所述N层拼合网络。
本发明的实施例还提供一种融合毫米波和图像的检测系统,用于实现上述的融合毫米波和图像的检测方法,融合毫米波和图像的检测系统包括:
三维矩阵模块,获取图像数据生成第一三维矩阵为W×H×C,采集并扩展毫米波雷达点云数据获得第二三维矩阵W×H×L,其中,W为图像的图片宽,H为图像的图片高,C为图像的图片通道数据,L为图像中每个像素对应的毫米波雷达参数维度;
融合网络模块,将所述第二三维矩阵作为M层融合网络的第一输入矩阵,所述第一三维矩阵作为M层融合网络的第二输入矩阵,所述M层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵;
拼合网络模块,建立一N层拼合网络,所述N层拼合网络的N层的输入矩阵依次为所述M层融合网络自最后一层的第二输出矩阵到所述M 层融合网络自最后第N层的第二输出矩阵,所述N层拼合网络的每一层分别对上一层的输出矩阵进行上采样反卷积后,与本层的输入矩阵拼合作为所述N层拼合网络的输出矩阵,M≥N;
神经网络模块,将N层拼合网络的输出矩阵输入到一图像分类神经网络对尺寸特征图进行分类识别。
优选地,三维矩阵模块包括:
联合标定模块,对相机和毫米波雷达进行联合标定,获得相互之间的外参转换矩阵和内参转换矩阵。
第一矩阵模块,获取图像数据、毫米波雷达点云数据,所述图像数据的第一三维矩阵为W×H×C,其中W为图像的图片宽,H为图像的图片高,C为图像的图片通道数据,根据所述图像数据建立相机平面坐标系,其中,X轴平行于地面,Y轴垂直于地面,C的取值范围是[2,4];
标定转换模块,根据毫米波雷达和相机标定外参转换,将所述毫米波雷达点云数据转换到相机坐标系下,再根据相机内参转换矩阵转换到图片坐标系下;
扩展像素点模块,将所述毫米波点云的每个毫米波点云对应的像素点沿Y轴的正负方向进行双向范围扩展,获得扩展后的像素点的集合;
第二矩阵模块,建立一个W×H×L的第二三维矩阵,W为图像的图片宽,H为图像的图片高,L为图像中每个像素对应的毫米波雷达参数维度,L的取值范围是(0,18];
本发明的实施例还提供一种融合毫米波和图像的检测设备,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行上述融合毫米波和图像的检测方法的步骤。
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现上述融合毫米波和图像的检测方法的步骤。
本发明的融合毫米波和图像的检测方法、系统、设备及存储介质,能够在数据层面进行毫米波数据和图片数据前融合的深度学习算法,增强目标检测的鲁棒性,提高准确率,减小资源消耗。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明的融合毫米波和图像的检测方法的流程图。
图2至4是本发明的融合毫米波和图像的检测方法的实施过程示意图。
图5是本发明的融合毫米波和图像的检测系统的结构示意图
图6是本发明的融合毫米波和图像的检测设备的结构示意图。以及
图7是本发明一实施例的计算机可读存储介质的结构示意图。
附图标记
11 毫米波雷达点
12 参考点
13 像素点的集合
101 第一三维矩阵
102 第二三维矩阵
111 第一毫米波雷达点云数据下采样卷积模块
112 第一图片下采样卷积模块
121 第二毫米波雷达点云数据下采样卷积模块
122 第二图片下采样卷积模块
131 第三毫米波雷达点云数据下采样卷积模块
132 第三图片下采样卷积模块
133 输出矩阵
141 第四毫米波雷达点云数据下采样卷积模块
142 第四图片下采样卷积模块
143 输出矩阵
151 第五毫米波雷达点云数据下采样卷积模块
152 第五图片下采样卷积模块
153 输出矩阵
161 第六毫米波雷达点云数据下采样卷积模块
162 第六图片下采样卷积模块
163 输出矩阵
170 RPN神经网络模块
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的实施方式。相反,提供这些实施方式使得本发明将全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的结构,因而将省略对它们的重复描述。
本发明融合毫米波和图像的检测方法,包括:
S100、获取图像数据生成第一三维矩阵为W×H×C,采集并扩展毫米波雷达点云数据获得第二三维矩阵W×H×L,其中,W为图像的图片宽,H为图像的图片高,C为图像的图片通道数据,L为图像中每个像素对应的毫米波雷达参数维度。
S160、将上述第二三维矩阵作为M层融合网络的第一输入矩阵,上述第一三维矩阵作为M层融合网络的第二输入矩阵,上述M层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵。
S170、建立一N层拼合网络,上述N层拼合网络的N层的输入矩阵依次为上述M层融合网络自最后一层的第二输出矩阵到上述M层融合网络自最后第N层的第二输出矩阵,上述N层拼合网络的每一层分别对上一层的输出矩阵进行上采样反卷积后,与本层的输入矩阵拼合作为上述N 层拼合网络的输出矩阵,M≥N。
S180、将N层拼合网络的输出矩阵输入到一图像分类神经网络对尺寸特征图进行分类识别。
本发明提供了一种基于前融合的,融合原始数据,通过一开始将两者的数据完全融合,即获得两者数据的并集,再通过模型,降低误检的置信度,减小了漏检的可能性的算法急需被用于解决此类问题,在这样的背景下,本方法可以满足以上要求,提高检测精度,且资源消耗较小,可用于嵌入式系统。
图1是本发明的融合毫米波和图像的检测方法的流程图。如图1所示,本发明融合毫米波和图像的检测方法,包括以下步骤:
本发明的实施例提供一种融合毫米波和图像的检测方法,包括以下步骤:
S120、获取图像数据、毫米波雷达点云数据,上述图像数据的第一三维矩阵为W×H×C,其中W为图像的图片宽,H为图像的图片高,C 为图像的图片通道数据,根据上述图像数据建立相机平面坐标系,其中, X轴平行于地面,Y轴垂直于地面,C的取值范围是[2,4],常用的图片通道数据可以是2通道(黑白图片)、3通道(RGB)、4通道(RGBW)等,但不以此为限。
S130、根据毫米波雷达和相机标定外参转换,将上述毫米波雷达点云数据转换到相机坐标系下,再根据相机内参转换矩阵转换到图片坐标系下。
S140、将上述毫米波点云的每个毫米波点云对应的像素点沿Y轴的正负方向进行双向范围扩展,获得扩展后的像素点的集合。
S150、建立一个W×H×L的第二三维矩阵,W为图像的图片宽,H 为图像的图片高,L为图像中每个像素对应的毫米波雷达参数维度,L的取值范围是(0,18],常用的毫米波雷达参数维度最大的可以包括18个参数维度,但不以此为限。
S160、将上述第二三维矩阵作为M层融合网络的第一输入矩阵,上述第一三维矩阵作为M层融合网络的第二输入矩阵,上述M层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵。
S170、建立一N层拼合网络,上述N层拼合网络的N层的输入矩阵依次为上述M层融合网络自最后一层的第二输出矩阵到上述M层融合网络自最后第N层的第二输出矩阵,上述N层拼合网络的每一层分别对上一层的输出矩阵进行上采样反卷积后,与本层的输入矩阵拼合作为上述N 层拼合网络的输出矩阵,M≥N。
S180、将N层拼合网络的输出矩阵输入到一图像分类神经网络对尺寸特征图进行分类识别。
本发明的融合毫米波和图像的检测方法是无人驾驶领域、V2X路测感知领域中毫米波和图像融合检测的算法。此算法结合图像的语义信息和毫米波数据的障碍物位置信息,从而提高目标检测的准确率和精度。本发明将毫米波雷达、相机刚体连接、标定之后,通过本算法最终的检测结果误差<30cm。本算法计算资源占用少,且对外部环境依赖少,适用于各种光照、雨雾、蚊虫等特殊环境,能够完全实现不同型号的毫米波雷达、相机之间的算法融合。此算法可以在无人驾驶、V2X等相关领域实现高鲁棒性的目标检测。从而单个图像位置精度不高,雨雾等影响和量产化难的问题。
在一个优选实施例中,上述步骤S120之前还包括以下步骤:
S110、对相机和毫米波雷达进行联合标定,获得相互之间的外参转换矩阵和内参转换矩阵。
在一个优选实施例中,上述步骤S140中,将每个毫米波点云对应的像素点沿Y轴的正负方向间隔预设距离d,分别获得一参考点,收集两个参考点之间的连线经过的所有像素点作为扩展后的像素点的集合。
在一个优选实施例中,上述预设距离d的取值范围为0.5m至2m。
在一个优选实施例中,上述步骤S160中,上述M层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q倍下采样卷积后获得本层的第一输出矩阵和过程矩阵。
上述步骤S170中,上述N层拼合网络的每一层分别对上一层的输出矩阵进行Q倍上采样卷积,Q≥2。
在一个优选实施例中,上述多层融合网络按顺序包括前P层和后N 层,P=M-N。
其中,前P层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵。
后N层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q 倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵,并输入到上述N层拼合网络。
在一个优选实施例中,上述多层融合网络按顺序包括前2层和后4 层。
前2层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q 倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵。
后4层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q 倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵,并输入到上述N层拼合网络。
本发明的融合毫米波和图像的检测方法是无人驾驶领域、V2X路测感知领域中毫米波和图像融合检测的算法。此算法结合图像的语义信息和毫米波数据的障碍物位置信息,从而提高目标检测的准确率和精度。本发明将毫米波雷达、相机刚体连接、标定之后,通过本算法最终的检测结果误差<30cm。本算法计算资源占用少,且对外部环境依赖少,适用于各种光照、雨雾、蚊虫等特殊环境,能够完全实现不同型号的毫米波雷达、相机之间的算法融合。此算法可以在无人驾驶、V2X等相关领域实现高鲁棒性的目标检测。从而单个图像位置精度不高,雨雾等影响和量产化难的问题。
图2至4是本发明的融合毫米波和图像的检测方法的实施过程示意图。如图2至4所示,本发明的实时过程如下:
对相机和毫米波雷达进行联合标定,获得相互之间的外参转换矩阵和内参转换矩阵。获取图像数据、毫米波雷达点云数据,上述图像数据的第一三维矩阵为W×H×C,其中W为图像的图片宽,H为图像的图片高, C为图像的图片通道数据,根据上述图像数据建立相机平面坐标系,其中, X轴平行于地面,Y轴垂直于地面,本实施例中,C的取值为3。根据毫米波雷达和相机标定外参转换,将上述毫米波雷达点云数据转换到相机坐标系下,再根据相机内参转换矩阵转换到图片坐标系下,从而将毫米波雷达点11叠加到在图像数据中。
将上述毫米波点云的每个毫米波雷达点11对应的像素点沿Y轴的正负方向进行双向范围扩展,获得扩展后的像素点的集合。本实施例中,将每个毫米波点云对应的像素点沿Y轴的正负方向间隔预设距离d,分别获得一参考点12,收集两个参考点之间的连线经过的所有像素点作为扩展后的像素点的集合13。上述预设距离d的取值范围为0.5m至2m。
建立一个W×H×L的第二三维矩阵,W为图像的图片宽,H为图像的图片高,L为图像中每个像素对应的毫米波雷达参数维度,本实施例中, L的取值范围为18。
对上述第一三维矩阵作和第二三维矩阵分别作为一6层融合网络的第一输入矩阵和第二输入矩阵,上述6层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵。上述多层融合网络按顺序包括前2层和后4层。前2层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行2倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵。
其中,6层融合网络的第一输入矩阵为第二三维矩阵102(W×H×L), 6层融合网络的第二输入矩阵第一三维矩阵101(W×H×C)。
6层融合网络的第一层的第一毫米波雷达点云数据下采样卷积模块 111中的通过2倍下采样卷积获得矩阵[(W/2)×(H/2)×L];第一图片下采样卷积模块112中的通过2倍下采样卷积获得矩阵[(W/2)×(H/2)×C],通过拼合后输出到第二层的第二图片下采样卷积模块122中的矩阵为[(W/2)×(H/2)×(C+L)]。
6层融合网络的第二层的第二毫米波雷达点云数据下采样卷积模块 121中的通过2倍下采样卷积获得矩阵[(W/4)×(H/4)×L];第二图片下采样卷积模块122中的通过2倍下采样卷积获得矩阵[(W/4)×(H/4)×(C+L)],通过拼合后输出到第三层的第三图片下采样卷积模块132 中的矩阵为[(W/4)×(H/4)×(C+2L)]。
6层融合网络的第三层的第三毫米波雷达点云数据下采样卷积模块 131中的通过2倍下采样卷积获得矩阵[(W/8)×(H/8)×L];第三图片下采样卷积模块132中的通过2倍下采样卷积获得矩阵[(W/8)×(H/8)×(C+2L)],通过拼合后输出到第四层的第四图片下采样卷积模块142 和4层拼合网络中的输出矩阵133为[(W/8)×(H/8)×(C+3L)]。
6层融合网络的第四层的第四毫米波雷达点云数据下采样卷积模块 141中的通过2倍下采样卷积获得矩阵[(W/16)×(H/16)×L];第四图片下采样卷积模块142中的通过2倍下采样卷积获得矩阵[(W/16)×(H/16)×(C+3L)],通过拼合后输出到第五层的第无图片下采样卷积模块152和4层拼合网络中的输出矩阵143为[(W/16)×(H/16)×(C+4L)]。
6层融合网络的第五层的第五毫米波雷达点云数据下采样卷积模块 151中的通过2倍下采样卷积获得矩阵[(W/32)×(H/32)×L];第五图片下采样卷积模块152中的通过2倍下采样卷积获得矩阵[(W/32)×(H/32)×(C+4L)],通过拼合后输出到第六层的第无图片下采样卷积模块162和4层拼合网络中的输出矩阵153为[(W/32)×(H/32)×(C+5L)]。
6层融合网络的第六层的第六毫米波雷达点云数据下采样卷积模块 141中的通过2倍下采样卷积获得矩阵[(W/64)×(H/64)×L];第六图片下采样卷积模块142中的通过2倍下采样卷积获得矩阵[(W/64)×(H/64)×(C+5L)],通过拼合后输出到4层拼合网络中的输出矩阵163 为[(W/64)×(H/64)×(C+6L)]。
建立一4层拼合网络,上述4层拼合网络的4层的输入矩阵依次为上述M层融合网络自最后一层的第二输出矩阵到上述M层融合网络自最后第N层的第二输出矩阵,上述4层拼合网络的每一层分别对上一层的输出矩阵进行上采样反卷积后,与本层的输入矩阵拼合作为上述4层拼合网络的输出矩阵,M≥N。上述4层拼合网络的每一层分别对上一层的输出矩阵进行2倍上采样卷积,获得一尺寸特征图。
本实施例中,将输出矩阵163为[(W/64)×(H/64)×(C+6L)] 进行第一次2倍上采样卷积后与输出矩阵153为[(W/32)×(H/32)×(C+5L)]进行第一次拼合。将第一次拼合后的矩阵再进行第二次2倍上采样卷积后与输出矩阵143为[(W/16)×(H/16)×(C+4L)]进行第二次拼合。将第二次拼合后的矩阵再进行第三次2倍上采样卷积后与输出矩阵133为[(W/8)×(H/8)×(C+3L)]进行第三次拼合,最后获得基于图像数据、毫米波雷达点云数据的尺寸特征图。
将4层拼合网络的输出的尺寸特征图输入到一RPN神经网络模块 170,对尺寸特征图进行分类识别,从而明显增强目标检测的鲁棒性,提高准确率,减小资源消耗。
本发明提供一种数据层面的毫米波数据和图片数据前融合的深度学习算法,可以结合两者的原始特征,真正的实现优劣势互补,使得结果鲁棒性更好,准确率更高,资源消耗也更小。本发明是一种高效、高精度、高鲁棒性的毫米波雷达相机融合的算法,此算法模型简洁,可在arm嵌入式板载计算单元进行推理,速度可达10帧,物体检测精度<30cm,。从而能够实现真正的量产化、流水线化,可全场景覆盖无人驾驶领域以及V2X 等领域的物体检测环境。
图5是本发明的融合毫米波和图像的检测系统的结构示意图。如图5所示,本发明的实施例还提供一种融合毫米波和图像的检测系统5,用于实现上述的融合毫米波和图像的检测方法,融合毫米波和图像的检测系统包括:
联合标定模块51,对相机和毫米波雷达进行联合标定,获得相互之间的外参转换矩阵和内参转换矩阵。
第一矩阵模块52,获取图像数据、毫米波雷达点云数据,上述图像数据的第一三维矩阵为W×H×C,其中W为图像的图片宽,H为图像的图片高,C为图像的图片通道数据,根据上述图像数据建立相机平面坐标系,其中,X轴平行于地面,Y轴垂直于地面,C的取值范围是[2,4]。
标定转换模块53,根据毫米波雷达和相机标定外参转换,将上述毫米波雷达点云数据转换到相机坐标系下,再根据相机内参转换矩阵转换到图片坐标系下。
扩展像素点模块54,将上述毫米波点云的每个毫米波点云对应的像素点沿Y轴的正负方向进行双向范围扩展,获得扩展后的像素点的集合。
第二矩阵模块55,建立一个W×H×L的第二三维矩阵,W为图像的图片宽,H为图像的图片高,L为图像中每个像素对应的毫米波雷达参数维度,L的取值范围是(0,18]。
融合网络模块56,将上述第二三维矩阵作为M层融合网络的第一输入矩阵,上述第一三维矩阵作为M层融合网络的第二输入矩阵,上述M 层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵。
拼合网络模块57,建立一N层拼合网络,上述N层拼合网络的N层的输入矩阵依次为上述M层融合网络自最后一层的第二输出矩阵到上述M层融合网络自最后第N层的第二输出矩阵,上述N层拼合网络的每一层分别对上一层的输出矩阵进行上采样反卷积后,与本层的输入矩阵拼合作为上述N层拼合网络的输出矩阵,M≥N。
神经网络模块58,将N层拼合网络的输出矩阵输入到一图像分类神经网络对尺寸特征图进行分类识别。
本发明的融合毫米波和图像的检测系统,能够在数据层面进行毫米波数据和图片数据前融合的深度学习算法,增强目标检测的鲁棒性,提高准确率,减小资源消耗。
本发明实施例还提供一种融合毫米波和图像的检测设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的融合毫米波和图像的检测方法的步骤。
如上,本发明的融合毫米波和图像的检测设备能够在数据层面进行毫米波数据和图片数据前融合的深度学习算法,增强目标检测的鲁棒性,提高准确率,减小资源消耗。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图6是本发明的融合毫米波和图像的检测设备的结构示意图。下面参照图6来描述根据本发明的这种实施方式的电子设备600。图6显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600以通用计算设备的形式表现。电子设备 600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线 630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备 600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的融合毫米波和图像的检测方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,能够在数据层面进行毫米波数据和图片数据前融合的深度学习算法,增强目标检测的鲁棒性,提高准确率,减小资源消耗。
图7是本发明的计算机可读存储介质的结构示意图。参考图7所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如 Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上,本发明的融合毫米波和图像的检测方法、系统、设备及存储介质,能够在数据层面进行毫米波数据和图片数据前融合的深度学习算法,增强目标检测的鲁棒性,提高准确率,减小资源消耗。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (10)

1.一种融合毫米波和图像的检测方法,其特征在于,包括以下步骤:
S100、获取图像数据生成第一三维矩阵为W×H×C,采集并扩展毫米波雷达点云数据获得第二三维矩阵W×H×L,其中,W为图像的图片宽,H为图像的图片高,C为图像的图片通道数据,L为图像中每个像素对应的毫米波雷达参数维度;
S160、将所述第二三维矩阵作为M层融合网络的第一输入矩阵,所述第一三维矩阵作为M层融合网络的第二输入矩阵,
所述M层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵;
S170、建立一N层拼合网络,所述N层拼合网络的N层的输入矩阵依次为所述M层融合网络自最后一层的第二输出矩阵到所述M层融合网络自最后第N层的第二输出矩阵,所述N层拼合网络的每一层分别对上一层的输出矩阵进行上采样反卷积后,与本层的输入矩阵拼合作为所述N层拼合网络的输出矩阵,M≥N;
S180、将N层拼合网络的输出矩阵输入到一图像分类神经网络对尺寸特征图进行分类识别。
2.根据权利要求1所述的融合毫米波和图像的检测方法,其特征在于,所述步骤S100包括以下步骤:
S120、获取图像数据、毫米波雷达点云数据,所述图像数据的第一三维矩阵为W×H×C,其中W为图像的图片宽,H为图像的图片高,C为图像的图片通道数据,根据所述图像数据建立相机平面坐标系,其中,X轴平行于地面,Y轴垂直于地面,C的取值范围是[2,4];
S130、根据毫米波雷达和相机标定外参转换,将所述毫米波雷达点云数据转换到相机坐标系下,再根据相机内参转换矩阵转换到图片坐标系下;
S140、将所述毫米波点云的每个毫米波点云对应的像素点沿Y轴的正负方向进行双向范围扩展,获得扩展后的像素点的集合;
S150、建立一个W×H×L的第二三维矩阵,W为图像的图片宽,H为图像的图片高,L为图像中每个像素对应的毫米波雷达参数维度,L的取值范围是(0,18]。
3.根据权利要求2所述的融合毫米波和图像的检测方法,其特征在于,所述步骤S120之前还包括以下步骤:
S110、对相机和毫米波雷达进行联合标定,获得相互之间的外参转换矩阵和内参转换矩阵。
4.根据权利要求1所述的融合毫米波和图像的检测方法,其特征在于,所述步骤S140中,将每个毫米波点云对应的像素点沿Y轴的正负方向间隔预设距离d,分别获得一参考点,收集两个参考点之间的连线经过的所有像素点作为扩展后的像素点的集合,所述预设距离d的取值范围为0.5m至2m。
5.根据权利要求1所述的融合毫米波和图像的检测方法,其特征在于,所述步骤S160中,所述M层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q倍下采样卷积后获得本层的第一输出矩阵和过程矩阵;
所述步骤S170中,所述N层拼合网络的每一层分别对上一层的输出矩阵进行Q倍上采样卷积,Q≥2。
6.根据权利要求1所述的融合毫米波和图像的检测方法,其特征在于,所述多层融合网络按顺序包括前P层和后N层,P=M-N;
其中,前P层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵;
后N层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵,并输入到所述N层拼合网络。
7.根据权利要求1所述的融合毫米波和图像的检测方法,其特征在于,所述多层融合网络按顺序包括前2层和后4层;
前2层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵;
后4层中,每一层分别对上一层第一输出矩阵和第二输出矩阵进行Q倍下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵,并输入到所述N层拼合网络。
8.一种融合毫米波和图像的检测系统,其特征在于,用于实现如权利要求1所述的融合毫米波和图像的检测方法,包括:
三维矩阵模块,获取图像数据生成第一三维矩阵为W×H×C,采集并扩展毫米波雷达点云数据获得第二三维矩阵W×H×L,其中,W为图像的图片宽,H为图像的图片高,C为图像的图片通道数据,L为图像中每个像素对应的毫米波雷达参数维度;
融合网络模块,将所述第二三维矩阵作为M层融合网络的第一输入矩阵,所述第一三维矩阵作为M层融合网络的第二输入矩阵,所述M层融合网络的每一层分别对上一层第一输出矩阵和第二输出矩阵进行下采样卷积后获得本层的第一输出矩阵和过程矩阵,并将本层的第一输出矩阵与过程矩阵拼合作为本层的第二输出矩阵;
拼合网络模块,建立一N层拼合网络,所述N层拼合网络的N层的输入矩阵依次为所述M层融合网络自最后一层的第二输出矩阵到所述M层融合网络自最后第N层的第二输出矩阵,所述N层拼合网络的每一层分别对上一层的输出矩阵进行上采样反卷积后,与本层的输入矩阵拼合作为所述N层拼合网络的输出矩阵,M≥N;
神经网络模块,将N层拼合网络的输出矩阵输入到一图像分类神经网络对尺寸特征图进行分类识别。
9.一种融合毫米波和图像的检测设备,其特征在于,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行权利要求1至9中任意一项所述融合毫米波和图像的检测方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,程序被执行时实现权利要求1至9中任意一项所述融合毫米波和图像的检测方法的步骤。
CN202110592794.5A 2021-05-28 2021-05-28 融合毫米波和图像的检测方法、系统、设备及存储介质 Active CN113222968B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110592794.5A CN113222968B (zh) 2021-05-28 2021-05-28 融合毫米波和图像的检测方法、系统、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110592794.5A CN113222968B (zh) 2021-05-28 2021-05-28 融合毫米波和图像的检测方法、系统、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113222968A true CN113222968A (zh) 2021-08-06
CN113222968B CN113222968B (zh) 2023-04-18

Family

ID=77099187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110592794.5A Active CN113222968B (zh) 2021-05-28 2021-05-28 融合毫米波和图像的检测方法、系统、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113222968B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114708585A (zh) * 2022-04-15 2022-07-05 电子科技大学 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法
CN118155038A (zh) * 2024-05-11 2024-06-07 中国第一汽车股份有限公司 多目标轨迹检测方法、装置、设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0809123A2 (en) * 1996-05-22 1997-11-26 Omron Corporation Millimeter wave imaging system
JP2010185824A (ja) * 2009-02-13 2010-08-26 Fujitsu Ltd 車両検出装置、車両検出方法、および車両検出プログラム
CN109143241A (zh) * 2018-07-26 2019-01-04 清华大学苏州汽车研究院(吴江) 雷达数据和图像数据的融合方法及系统
CN110135485A (zh) * 2019-05-05 2019-08-16 浙江大学 单目相机与毫米波雷达融合的物体识别与定位方法和系统
CN111461221A (zh) * 2020-04-01 2020-07-28 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种面向自动驾驶的多源传感器融合目标检测方法和系统
CN111914213A (zh) * 2020-07-31 2020-11-10 中国原子能科学研究院 一种稀疏矩阵向量乘运算时间预测方法及系统
CN112183578A (zh) * 2020-09-01 2021-01-05 国网宁夏电力有限公司检修公司 一种目标检测方法、介质及系统
CN112774181A (zh) * 2021-01-11 2021-05-11 浙江星汉云图人工智能科技有限公司 雷达数据的处理方法、处理系统以及计算机存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0809123A2 (en) * 1996-05-22 1997-11-26 Omron Corporation Millimeter wave imaging system
JP2010185824A (ja) * 2009-02-13 2010-08-26 Fujitsu Ltd 車両検出装置、車両検出方法、および車両検出プログラム
CN109143241A (zh) * 2018-07-26 2019-01-04 清华大学苏州汽车研究院(吴江) 雷达数据和图像数据的融合方法及系统
CN110135485A (zh) * 2019-05-05 2019-08-16 浙江大学 单目相机与毫米波雷达融合的物体识别与定位方法和系统
CN111461221A (zh) * 2020-04-01 2020-07-28 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种面向自动驾驶的多源传感器融合目标检测方法和系统
CN111914213A (zh) * 2020-07-31 2020-11-10 中国原子能科学研究院 一种稀疏矩阵向量乘运算时间预测方法及系统
CN112183578A (zh) * 2020-09-01 2021-01-05 国网宁夏电力有限公司检修公司 一种目标检测方法、介质及系统
CN112774181A (zh) * 2021-01-11 2021-05-11 浙江星汉云图人工智能科技有限公司 雷达数据的处理方法、处理系统以及计算机存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FENGYU ZHAO ET AL.: ""Data Fusion and Speed Tagging Alignment Based on Millimeter Wave Radar Detection and Camera Images"", 《2020 INTERNATIONAL CONFERENCE ON MICROWAVE AND MILLIMETER WAVE TECHNOLOGY (ICMMT)》 *
刘杰: "基于最大检测概率的可见光与SAR图像融合方法", 《计算机与数字工程》 *
胡远志等: "基于激光雷达点云与图像融合的车辆目标检测方法", 《汽车安全与节能学报》 *
董小舒等: ""毫米波雷达与视觉融合的车辆目标检测系统"", 《指挥信息系统与技术》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114708585A (zh) * 2022-04-15 2022-07-05 电子科技大学 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法
CN114708585B (zh) * 2022-04-15 2023-10-10 电子科技大学 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法
CN118155038A (zh) * 2024-05-11 2024-06-07 中国第一汽车股份有限公司 多目标轨迹检测方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN113222968B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
EP3627180B1 (en) Sensor calibration method and device, computer device, medium, and vehicle
CN112861653B (zh) 融合图像和点云信息的检测方法、系统、设备及存储介质
EP3822852A2 (en) Method, apparatus, computer storage medium and program for training a trajectory planning model
CN113222968B (zh) 融合毫米波和图像的检测方法、系统、设备及存储介质
US20200082547A1 (en) Method and apparatus for determining motion vector field, device, storage medium and vehicle
CN111310770B (zh) 目标检测方法和装置
CN113378605B (zh) 多源信息融合方法及装置、电子设备和存储介质
CN111047630A (zh) 神经网络和基于神经网络的目标检测及深度预测方法
CN115147809B (zh) 一种障碍物检测方法、装置、设备以及存储介质
WO2022206414A1 (zh) 三维目标检测方法及装置
CN115861601A (zh) 一种多传感器融合感知方法及装置
CN113724388B (zh) 高精地图的生成方法、装置、设备以及存储介质
CN112712036A (zh) 交通标志识别方法、装置、电子设备及计算机存储介质
CN114386481A (zh) 一种车辆感知信息融合方法、装置、设备及存储介质
CN113126120A (zh) 数据标注方法、装置、设备、存储介质以及计算机程序产品
CN116642490A (zh) 基于混合地图的视觉定位导航方法、机器人及存储介质
CN116215520A (zh) 基于超声波和3d环视的车辆碰撞预警及处理方法、装置
CN113421217A (zh) 可行驶区域检测方法和装置
CN116071730A (zh) 背景对象的检测方法、装置、设备以及自动驾驶车辆
CN114429631A (zh) 三维对象检测方法、装置、设备以及存储介质
CN116188587A (zh) 定位方法、装置及车辆
CN115527187A (zh) 一种障碍物的分类方法以及装置
CN113808186A (zh) 训练数据生成方法、装置与电子设备
CN115438712B (zh) 一种基于卷积神经网络与车路协同的感知融合方法、装置、设备及存储介质
CN114407916B (zh) 车辆控制及模型训练方法、装置、车辆、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050

Patentee after: Shanghai Xijing Technology Co.,Ltd.

Address before: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050

Patentee before: SHANGHAI WESTWELL INFORMATION AND TECHNOLOGY Co.,Ltd.