CN112684424A - 一种毫米波雷达与相机的自动标定方法 - Google Patents

一种毫米波雷达与相机的自动标定方法 Download PDF

Info

Publication number
CN112684424A
CN112684424A CN202011629588.9A CN202011629588A CN112684424A CN 112684424 A CN112684424 A CN 112684424A CN 202011629588 A CN202011629588 A CN 202011629588A CN 112684424 A CN112684424 A CN 112684424A
Authority
CN
China
Prior art keywords
camera
millimeter wave
target point
wave radar
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011629588.9A
Other languages
English (en)
Other versions
CN112684424B (zh
Inventor
朱元
徐瑞东
陆科
安浩
吴志红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202011629588.9A priority Critical patent/CN112684424B/zh
Publication of CN112684424A publication Critical patent/CN112684424A/zh
Application granted granted Critical
Publication of CN112684424B publication Critical patent/CN112684424B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明涉及一种毫米波雷达与相机的自动标定方法,包括以下步骤:1)在毫米波雷达与相机的交叉可视范围内设置且仅设置一个运动目标,该运动目标在交叉可视范围内移动多处位置;2)毫米波雷达和相机以相同起始时刻及相同频率进行采样;3)对每个采样周期内毫米波雷达和相机的多个目标点进行初步筛选;4)分别获取连续多个采样周期的毫米波雷达和相机得到的目标点,并进行离群点筛选;5)将进行离群点筛选后的连续采样周期的雷达目标点坐标和相机目标点坐标,并构建神经网络进行训练,根据训练后的神经网络实现毫米波雷达与相机的自动标定。与现有技术相比,本发明具有减少标定工作量、相机内参标定和传感器外参标定结合于一体等优点。

Description

一种毫米波雷达与相机的自动标定方法
技术领域
本发明涉及自动驾驶技术领域,尤其是涉及一种毫米波雷达与相机的自动标定方法。
背景技术
随着驾驶辅助系统及自动驾驶系统的发展,对周围环境的感知已经由单一传感器转变为多传感器融合。相机和毫米波雷达是目前常用两种传感器。相机可以返回目标的轮廓和颜色信息,但不易获得目标的位置信息,并且会受到天气影响。毫米波雷达可以返回目标的准确位置及速度信息,且具有全天候感知的特性。因此,对这两种传感器的有效利用可以进一步提高整个体统的感知能力。
由于相机和毫米波雷达安装在车辆的不同位置,所参考的坐标系间有空间差异,所以需要对其进行空间标定,在标定过程中,需要找到多组两个传感器识别匹配点的三维坐标,才能求解空间变换矩阵,但相机无法直接得到目标的实际距离,通常这一步骤需要人工测量,难免会造成不便与误差,其中,相机的标定还需要进行内参标定,得到内参矩阵,整个标定过程相对繁杂。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种毫米波雷达与相机的自动标定方法。
本发明的目的可以通过以下技术方案来实现:
一种毫米波雷达与相机的自动标定方法,包括以下步骤:
1)在毫米波雷达与相机的交叉可视范围内设置且仅设置一个运动目标,该运动目标在交叉可视范围内移动多处位置;
2)毫米波雷达和相机以相同起始时刻及相同频率进行采样,每个采样周期分别获得n个毫米波雷达目标点坐标,以及m个相机目标点的中心像素点坐标;
3)对每个采样周期内毫米波雷达和相机的多个目标点进行初步筛选,得到每个采样周期对应的一个毫米波雷达目标点和相机目标点;
4)分别获取连续多个采样周期的毫米波雷达和相机得到的目标点,并进行离群点筛选;
5)将进行离群点筛选后的连续采样周期的雷达目标点坐标和相机目标点坐标,并构建神经网络进行训练,根据训练后的神经网络实现毫米波雷达与相机的自动标定。
所述的步骤3)中,若毫米波雷达在当前采样周期的目标点总数n大于1,则根据每个目标点的速度V和雷达截面积RCS进行初步筛选,筛选条件为V>0,RCS>50,然后在初步筛选后的目标点中随机选取1个作为当前周期的毫米波雷达目标点。
所述的步骤3)中,若相机在当前采样周期的目标点总数m大于1,则选取识别分数最高的目标点作为当前周期的相机目标点。
所述的步骤4)中,对于筛选后的毫米波雷达目标点,进行离群点筛选的具体包括以下步骤:
401)计算筛选后的毫米波雷达目标点的平均坐标
Figure BDA0002875897390000023
计算公式为:
Figure BDA0002875897390000021
其中,M为毫米波雷达的连续采样周期数,(xi,yi,zi)为筛选后第i个采样周期的毫米波雷达目标点Pi R的坐标;
402)计算筛选后的雷达目标点Pi R(xi,yi,zi)与平均坐标
Figure BDA0002875897390000024
之间的欧氏距离DR,计算公式为:
Figure BDA0002875897390000022
403)设置离群点阈值GR,若DR>GR,则判定雷达目标点Pi R(xi,yi,zi)为离群点,返回步骤3),再次随机选取1个目标点作为当前周期的毫米波雷达目标点,若DR≤GR,则更新历史信息,进行步骤5)。
所述的步骤4)中,对于筛选后的相机目标点,进行离群点筛选的具体包括以下步骤:
411)计算筛选后的相机目标点的平均坐标
Figure BDA0002875897390000034
计算公式为:
Figure BDA0002875897390000031
其中,N为相机的连续采样周期数,(uj,vj)为筛选后第j个采样周期的雷达目标点坐标;
412)计算筛选后的相机目标点
Figure BDA0002875897390000035
与平均坐标
Figure BDA0002875897390000036
的欧氏距离DC,公式为:
Figure BDA0002875897390000032
413)设置离群点阈值GC,若DC>GC,则判定相机目标点
Figure BDA0002875897390000037
为离群点,返回步骤3),选择识别分数第二高的目标点作为当前周期的相机目标点,若DC≤GC,则更新历史信息,进行步骤5)。
所述的步骤5)具体包括以下步骤:
51)获取进行离散点筛选后的连续M个采样周期的雷达目标点坐标以及进行离散点筛选后的连续N个采样周期的相机目标点坐标,按照3:1:1划分为训练集、验证集和测试集;
52)分别构建第一神经网络和第二神经网络,以雷达目标点坐标作为第一神经网络的输入,相机目标点坐标作为第一神经网络的输出,并且以相机目标点坐标作为第二神经网络的输入,雷达目标点坐标作为第二神经网络的输出,分别进行训练;
53)将训练后的第一神经网络表示雷达坐标系到相机像素坐标系的映射关系,将训练后的第二神经网络表示相机像素坐标系到雷达坐标系的映射关系,完成标定。
所述的步骤52)中,第一神经网络在当前周期的损失计算公式为:
Figure BDA0002875897390000033
其中,
Figure BDA0002875897390000038
为第一神经网络对于第k组训练集的网络预测相机目标点坐标,(uk,vk)为第一神经网络对于第k组训练集的相机目标点实际采样坐标。
所述的步骤53)中,第一神经网络包括两个隐藏层,每个隐藏层有30个神经元,其中,每层激活函数采用ReLU函数,其根据损失L1更新网络权重,表示雷达坐标系到相机像素坐标系的映射关系,则有:
Figure BDA0002875897390000041
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离。
所述的步骤52)中,第二神经网络在当前周期的损失计算公式为:
Figure BDA0002875897390000042
其中,
Figure BDA0002875897390000043
为第二神经网络对于第k组训练集的网络预测雷达目标点坐标,(xk,yk,zk)为第一神经网络对于第k组训练集的雷达目标点实际采样坐标。
所述的步骤53)中,第二神经网络包括两个隐藏层,每个隐藏层有30个神经元,其中,每层激活函数采用ReLU函数,其根据损失L2更新网络权重,表示相机像素坐标系到雷达坐标系的映射关系,则有:
Figure BDA0002875897390000044
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、毫米波雷达到像素平面的空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离。
与现有技术相比,本发明具有以下优点:
本发明基于神经网络,融合毫米波雷达信息和相机目标识别信息,通过运动目标作为匹配点,实现了毫米波雷达与相机的自动标定,将相机内参标定和传感器外参标定结合于一体,极大地减少了标定工作量,有利于保证多传感器融合感知系统的良好运行。
附图说明
图1为本发明的整体方法流程图。
图2为本发明神经网络结构图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图1所示,本发明提供一种毫米波雷达与相机的自动标定方法,包含以下步骤:
S1、本方法需要在空旷场地实施,保证毫米波雷达与相机的交叉可视范围内只有一个运动目标,运动目标需要尽可能地在交叉可视范围内移动多处位置,毫米波雷达和相机以相同起始时刻及相同频率进行采样,本实施例的采样周期为0.08s,在5个采样周期后开始标定;
S2、利用毫米波雷达和相机进行采样,每个采样周期分别获得n个毫米波雷达目标点坐标
Figure BDA0002875897390000053
m个相机目标中心像素点坐标
Figure BDA0002875897390000054
基于图像的目标检测现有多种经典开源算法,本实施例采用的算法为YOLOV2,可根据硬件条件自行选择合适的图像目标检测算法;
S3、本发明可根据所采用毫米波雷达的特点,在速度和RCS特征基础之上结合其他特征进行筛选,例如目标状态、检测概率、信噪比等信息,由于毫米波雷达存在较多虚警,若毫米波雷达在1个周期的目标数n>1,在本实施例中采用的毫米波雷达能够返回速度、雷达截面积、目标状态,这些信息都被用于目标筛选,筛选条件为V>0,RCS>50,目标状态为确认目标;
然后在筛选后的目标点中随机选取1个作为当前周期的雷达目标点,相机在进行目标识别时也可能出现误报,若相机在1个周期的目标数m>1,则只保留识别分数最高的目标点作为当前周期的相机目标点;
S4、经过步骤S3的筛选后,相机和毫米波雷达仍然可能存在误报,但该误报一般离实际目标较远,所以分别保存相邻前5个周期的毫米波雷达和相机得到的目标点,并进行离群点筛选,步骤如下:
S41、计算毫米波雷达筛选后的目标点的平均坐标
Figure BDA0002875897390000055
公式为:
Figure BDA0002875897390000051
计算筛选后的雷达目标点
Figure BDA0002875897390000056
与平均坐标
Figure BDA0002875897390000057
的欧氏距离DR,公式为:
Figure BDA0002875897390000052
设置离群点阈值GR=5,若DR>GR,则目标点
Figure BDA0002875897390000066
为离群点,返回步骤S3,再次随机选择一个目标点,若DR≤GR,则更新历史信息,进行步骤S5;
S42、计算相机筛选后的目标点的平均坐标
Figure BDA0002875897390000067
公式为:
Figure BDA0002875897390000061
计算筛选后的相机目标点
Figure BDA0002875897390000068
与平均坐标
Figure BDA0002875897390000069
的欧氏距离DC,公式为:
Figure BDA0002875897390000062
设置离群点阈值GC=50,若DC>GC,则目标点
Figure BDA00028758973900000610
为离群点,返回步骤S3,选择识别分数第二高的目标点,若DC≤GC,则更新历史信息,进行步骤S5;
S5、连续保存5个采样周期所获得的雷达目标点坐标
Figure BDA00028758973900000611
和相机目标点坐标
Figure BDA00028758973900000612
作为匹配点,并按照3:1:1划分为训练集、验证集和测试集,分别送入神经网络1和神经网络2进行训练,如图2所示,两个神经网络具有相同的结构,均包括两个隐藏层,每个隐藏层有30个神经元,其中每层激活函数采用ReLU函数,具体训练步骤如下:
S51、将每组训练集(本例中共3组)中的雷达目标点坐标
Figure BDA00028758973900000613
作为神经网络1的输入,相机目标点坐标
Figure BDA00028758973900000614
作为神经网络1的输出,神经网络1在当前周期的损失计算公式为
Figure BDA0002875897390000063
其中,
Figure BDA00028758973900000615
为网络预测值,根据损失更新网络权重,神经网络1可替代雷达坐标系到相机像素坐标系的映射关系,该关系为:
Figure BDA0002875897390000064
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离;
S52、将相机目标点坐标
Figure BDA00028758973900000616
作为神经网络2的输入,雷达目标点坐标
Figure BDA00028758973900000617
作为神经网络2的输出,神经网络2在当前周期的损失计算公式为
Figure BDA0002875897390000065
其中,
Figure BDA0002875897390000072
为网络预测值,根据损失更新网络权重,神经网络2可替代相机像素坐标系到雷达坐标系的映射关系,该关系为:
Figure BDA0002875897390000071
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、毫米波雷达到像素平面的空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离;
S6.重复S2-S5,直到L1,L2收敛,结束训练。

Claims (10)

1.一种毫米波雷达与相机的自动标定方法,其特征在于,包括以下步骤:
1)在毫米波雷达与相机的交叉可视范围内设置且仅设置一个运动目标,该运动目标在交叉可视范围内移动多处位置;
2)毫米波雷达和相机以相同起始时刻及相同频率进行采样,每个采样周期分别获得n个毫米波雷达目标点坐标,以及m个相机目标点的中心像素点坐标;
3)对每个采样周期内毫米波雷达和相机的多个目标点进行初步筛选,得到每个采样周期对应的一个毫米波雷达目标点和相机目标点;
4)分别获取连续多个采样周期的毫米波雷达和相机得到的目标点,并进行离群点筛选;
5)将进行离群点筛选后的连续采样周期的雷达目标点坐标和相机目标点坐标,并构建神经网络进行训练,根据训练后的神经网络实现毫米波雷达与相机的自动标定。
2.根据权利要求1所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤3)中,若毫米波雷达在当前采样周期的目标点总数n大于1,则根据每个目标点的速度V和雷达截面积RCS进行初步筛选,筛选条件为V>0,RCS>50,然后在初步筛选后的目标点中随机选取1个作为当前周期的毫米波雷达目标点。
3.根据权利要求1所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤3)中,若相机在当前采样周期的目标点总数m大于1,则选取识别分数最高的目标点作为当前周期的相机目标点。
4.根据权利要求1所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤4)中,对于筛选后的毫米波雷达目标点,进行离群点筛选的具体包括以下步骤:
401)计算筛选后的毫米波雷达目标点的平均坐标Pc R(xc,yc,zc),计算公式为:
Figure FDA0002875897380000011
其中,M为毫米波雷达的连续采样周期数,(xi,yi,zi)为筛选后第i个采样周期的毫米波雷达目标点Pi R的坐标;
402)计算筛选后的雷达目标点Pi R(xi,yi,zi)与平均坐标Pc R(xc,yc,zc)之间的欧氏距离DR,计算公式为:
Figure FDA0002875897380000021
403)设置离群点阈值GR,若DR>GR,则判定雷达目标点Pi R(xi,yi,zi)为离群点,返回步骤3),再次随机选取1个目标点作为当前周期的毫米波雷达目标点,若DR≤GR,则更新历史信息,进行步骤5)。
5.根据权利要求4所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤4)中,对于筛选后的相机目标点,进行离群点筛选的具体包括以下步骤:
411)计算筛选后的相机目标点的平均坐标Pc C(uc,vc),计算公式为:
Figure FDA0002875897380000022
其中,N为相机的连续采样周期数,(uj,vj)为筛选后第j个采样周期的雷达目标点坐标;
412)计算筛选后的相机目标点Pj C(uj,vj)与平均坐标Pc C(uc,vc)的欧氏距离DC,公式为:
Figure FDA0002875897380000023
413)设置离群点阈值GC,若DC>GC,则判定相机目标点Pj C(uj,vj)为离群点,返回步骤3),选择识别分数第二高的目标点作为当前周期的相机目标点,若DC≤GC,则更新历史信息,进行步骤5)。
6.根据权利要求5所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤5)具体包括以下步骤:
51)获取进行离散点筛选后的连续M个采样周期的雷达目标点坐标以及进行离散点筛选后的连续N个采样周期的相机目标点坐标,按照3:1:1划分为训练集、验证集和测试集;
52)分别构建第一神经网络和第二神经网络,以雷达目标点坐标作为第一神经网络的输入,相机目标点坐标作为第一神经网络的输出,并且以相机目标点坐标作为第二神经网络的输入,雷达目标点坐标作为第二神经网络的输出,分别进行训练,直至网络损失收敛;
53)将训练后的第一神经网络表示雷达坐标系到相机像素坐标系的映射关系,将训练后的第二神经网络表示相机像素坐标系到雷达坐标系的映射关系,完成标定。
7.根据权利要求6所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤52)中,第一神经网络在当前周期的损失计算公式为:
Figure FDA0002875897380000031
其中,
Figure FDA0002875897380000032
为第一神经网络对于第k组训练集的网络预测相机目标点坐标,(uk,vk)为第一神经网络对于第k组训练集的相机目标点实际采样坐标。
8.根据权利要求7所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤53)中,第一神经网络包括两个隐藏层,每个隐藏层有30个神经元,其中,每层激活函数采用ReLU函数,其根据损失L1更新网络权重,表示雷达坐标系到相机像素坐标系的映射关系,则有:
Figure FDA0002875897380000033
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离。
9.根据权利要求6所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤52)中,第二神经网络在当前周期的损失计算公式为:
Figure FDA0002875897380000034
其中,
Figure FDA0002875897380000035
为第二神经网络对于第k组训练集的网络预测雷达目标点坐标,(xk,yk,zk)为第一神经网络对于第k组训练集的雷达目标点实际采样坐标。
10.根据权利要求9所述的一种毫米波雷达与相机的自动标定方法,其特征在于,所述的步骤53)中,第二神经网络包括两个隐藏层,每个隐藏层有30个神经元,其中,每层激活函数采用ReLU函数,其根据损失L2更新网络权重,表示相机像素坐标系到雷达坐标系的映射关系,则有:
Figure FDA0002875897380000041
其中,K3×3,R3×3,T3×1分别为相机内参矩阵、毫米波雷达到像素平面的空间旋转矩阵和空间平移矩阵,yc为目标在相机坐标系下到相机的距离。
CN202011629588.9A 2020-12-30 2020-12-30 一种毫米波雷达与相机的自动标定方法 Active CN112684424B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011629588.9A CN112684424B (zh) 2020-12-30 2020-12-30 一种毫米波雷达与相机的自动标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011629588.9A CN112684424B (zh) 2020-12-30 2020-12-30 一种毫米波雷达与相机的自动标定方法

Publications (2)

Publication Number Publication Date
CN112684424A true CN112684424A (zh) 2021-04-20
CN112684424B CN112684424B (zh) 2022-08-16

Family

ID=75455885

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011629588.9A Active CN112684424B (zh) 2020-12-30 2020-12-30 一种毫米波雷达与相机的自动标定方法

Country Status (1)

Country Link
CN (1) CN112684424B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114217277A (zh) * 2021-12-09 2022-03-22 联陆智能交通科技(上海)有限公司 雷达摄像头标定质量评价方法及系统
CN114767074A (zh) * 2022-03-22 2022-07-22 深圳市一心视觉科技有限公司 一种生命体征测量方法、设备及存储介质
CN115797463A (zh) * 2022-11-28 2023-03-14 湖南华诺星空电子技术有限公司 一种fod雷达与相机的神经网络训练方法及全局标定方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101882313A (zh) * 2010-07-14 2010-11-10 中国人民解放军国防科学技术大学 单线激光雷达与ccd相机之间相互关系的标定方法
CN103837869A (zh) * 2014-02-26 2014-06-04 北京工业大学 基于向量关系的单线激光雷达和ccd相机标定方法
CN106228537A (zh) * 2016-07-12 2016-12-14 北京理工大学 一种三维激光雷达与单目摄像机的联合标定方法
CN107122770A (zh) * 2017-06-13 2017-09-01 驭势(上海)汽车科技有限公司 多目相机系统、智能驾驶系统、汽车、方法和存储介质
CN108226906A (zh) * 2017-11-29 2018-06-29 深圳市易成自动驾驶技术有限公司 一种标定方法、装置及计算机可读存储介质
CN109444911A (zh) * 2018-10-18 2019-03-08 哈尔滨工程大学 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法
CN109490890A (zh) * 2018-11-29 2019-03-19 重庆邮电大学 一种面向智能车的毫米波雷达与单目相机信息融合方法
CN110175576A (zh) * 2019-05-29 2019-08-27 电子科技大学 一种结合激光点云数据的行驶车辆视觉检测方法
CN110363158A (zh) * 2019-07-17 2019-10-22 浙江大学 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法
CN111028285A (zh) * 2019-12-03 2020-04-17 浙江大学 基于双目视觉和激光雷达融合的深度估计方法
CN111325801A (zh) * 2020-01-23 2020-06-23 天津大学 一种激光雷达和相机的联合标定方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101882313A (zh) * 2010-07-14 2010-11-10 中国人民解放军国防科学技术大学 单线激光雷达与ccd相机之间相互关系的标定方法
CN103837869A (zh) * 2014-02-26 2014-06-04 北京工业大学 基于向量关系的单线激光雷达和ccd相机标定方法
CN106228537A (zh) * 2016-07-12 2016-12-14 北京理工大学 一种三维激光雷达与单目摄像机的联合标定方法
CN107122770A (zh) * 2017-06-13 2017-09-01 驭势(上海)汽车科技有限公司 多目相机系统、智能驾驶系统、汽车、方法和存储介质
CN108226906A (zh) * 2017-11-29 2018-06-29 深圳市易成自动驾驶技术有限公司 一种标定方法、装置及计算机可读存储介质
CN109444911A (zh) * 2018-10-18 2019-03-08 哈尔滨工程大学 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法
CN109490890A (zh) * 2018-11-29 2019-03-19 重庆邮电大学 一种面向智能车的毫米波雷达与单目相机信息融合方法
CN110175576A (zh) * 2019-05-29 2019-08-27 电子科技大学 一种结合激光点云数据的行驶车辆视觉检测方法
CN110363158A (zh) * 2019-07-17 2019-10-22 浙江大学 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法
CN111028285A (zh) * 2019-12-03 2020-04-17 浙江大学 基于双目视觉和激光雷达融合的深度估计方法
CN111325801A (zh) * 2020-01-23 2020-06-23 天津大学 一种激光雷达和相机的联合标定方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
DEZHI GAO ET AL.: "A method of spatial calibration for camera and radar", 《2010 8TH WORLD CONGRESS ON INTELLIGENT CONTROL AND AUTOMATION》 *
DEZHI GAO ET AL.: "A method of spatial calibration for camera and radar", 《2010 8TH WORLD CONGRESS ON INTELLIGENT CONTROL AND AUTOMATION》, 9 July 2010 (2010-07-09), pages 6211 - 6215, XP031736915 *
杨鑫 等: "面向高级辅助驾驶雷达和视觉传感器信息融合算法的研究", 《汽车实用技术》 *
杨鑫 等: "面向高级辅助驾驶雷达和视觉传感器信息融合算法的研究", 《汽车实用技术》, 15 January 2018 (2018-01-15), pages 37 - 40 *
牛萍娟 等: "基于神经网络的毫米波雷达与视觉传感器联合标定方法", 《天津工业大学学报》 *
牛萍娟 等: "基于神经网络的毫米波雷达与视觉传感器联合标定方法", 《天津工业大学学报》, vol. 38, no. 5, 31 October 2019 (2019-10-31), pages 64 - 69 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114217277A (zh) * 2021-12-09 2022-03-22 联陆智能交通科技(上海)有限公司 雷达摄像头标定质量评价方法及系统
CN114767074A (zh) * 2022-03-22 2022-07-22 深圳市一心视觉科技有限公司 一种生命体征测量方法、设备及存储介质
CN114767074B (zh) * 2022-03-22 2023-03-03 深圳市一心视觉科技有限公司 一种生命体征测量方法、设备及存储介质
CN115797463A (zh) * 2022-11-28 2023-03-14 湖南华诺星空电子技术有限公司 一种fod雷达与相机的神经网络训练方法及全局标定方法

Also Published As

Publication number Publication date
CN112684424B (zh) 2022-08-16

Similar Documents

Publication Publication Date Title
CN112684424B (zh) 一种毫米波雷达与相机的自动标定方法
CN110187318B (zh) 一种雷达数据处理方法
CN110726990A (zh) 一种基于ds-gnn算法的多传感器融合方法
CN110443138B (zh) 基于车载毫米波雷达联合svm和cnn多目标分类方法
CN107561509B (zh) 一种机载毫米波雷达电力线检测方法
CN113702979B (zh) 一种跨区目标跟踪轨迹片段时空拼接方法
CN115761534A (zh) 一种空中背景下红外无人机小目标检测及跟踪方法
CN111830470A (zh) 联合标定方法及装置、目标对象检测方法、系统及装置
CN115937659A (zh) 基于Mask-RCNN的室内复杂环境下多目标检测方法
CN111354016A (zh) 基于深度学习和差异值哈希的无人机舰船跟踪方法及系统
CN109190647B (zh) 一种有源无源数据融合方法
CN112362042B (zh) 一种基于智能船舶多传感设备的航迹关联判断方法
CN113064489A (zh) 一种基于L1-Norm的毫米波雷达手势识别方法
CN115220002B (zh) 一种固定单站的多目标数据关联跟踪方法和相关装置
CN114049551B (zh) 一种基于ResNet18的SAR原始数据目标识别方法
CN115909086A (zh) 基于多级增强网络的sar目标检测识别方法
CN113406591B (zh) 一种应用于场面监视雷达的目标凝聚方法
CN112257750B (zh) 一种面向复合式探测节点的分布式融合系统
CN115457237A (zh) 基于雷视融合的车辆目标快速检测方法
CN111931596B (zh) 一种基于代数图论的群目标分群方法
CN114170196A (zh) 基于CenterNet2的SAR图像小目标识别方法
CN113361639A (zh) 一种基于深度学习的辐射源信号多模型综合分类方法
DK202070213A1 (en) System for processing radar data representing intensity values of received power of reflected radar wave signals
Liu et al. Spotlight SAR image recognition based on dual-channel feature map convolutional neural network
CN111369589B (zh) 一种基于多策略融合的无人机跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant