CN113808219B - 基于深度学习的雷达辅助相机标定方法 - Google Patents
基于深度学习的雷达辅助相机标定方法 Download PDFInfo
- Publication number
- CN113808219B CN113808219B CN202111117899.1A CN202111117899A CN113808219B CN 113808219 B CN113808219 B CN 113808219B CN 202111117899 A CN202111117899 A CN 202111117899A CN 113808219 B CN113808219 B CN 113808219B
- Authority
- CN
- China
- Prior art keywords
- data
- target frame
- radar
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 184
- 238000013135 deep learning Methods 0.000 title claims abstract description 34
- 238000003062 neural network model Methods 0.000 claims abstract description 148
- 230000006870 function Effects 0.000 claims abstract description 95
- 238000012549 training Methods 0.000 claims abstract description 93
- 238000001514 detection method Methods 0.000 claims abstract description 38
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 238000006243 chemical reaction Methods 0.000 claims abstract description 13
- 239000013598 vector Substances 0.000 claims description 36
- 238000013528 artificial neural network Methods 0.000 claims description 27
- 230000009466 transformation Effects 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 19
- 238000002372 labelling Methods 0.000 description 29
- 238000004364 calculation method Methods 0.000 description 19
- 230000000007 visual effect Effects 0.000 description 16
- 238000002474 experimental method Methods 0.000 description 12
- 238000013178 mathematical model Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 101150049349 setA gene Proteins 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于深度学习的雷达辅助相机标定方法,解决了从雷达点迹到图像目标框转换的技术问题。实现步骤:数据采集形成雷达点迹和图像目标框数据;采集时间对齐;雷达点迹数据形成训练输入数据集;转换后的图像目标框数据形成训练输出数据集;构建并训练深度神经网络模型;获得相机标定函数。本发明利用含有跨层链接的深度神经网络模型将雷达点迹数据转换为图像目标框数据构成标定函数,减小了人为误差和标定过程的额外工作,提高了相机标定的灵活性和效率;计算量小,标定准确率高。用于多传感器融合目标检测,更具体地用在雷达和相机摄像头同时进行目标检测的情况下的相机标定。
Description
技术领域
本发明属于多传感器数据融合技术领域,主要涉及雷达点迹数据与图像目标位置信息的转换,具体是一种基于深度学习的雷达辅助相机标定方法,可用于雷达与相机摄像头同时存在时的相机标定任务。
背景技术
随着自动驾驶、无人监测等新技术的迅速发展,由于单一传感器自身不可避免的局限性的存在,利用单一传感器进行目标检测的准确性、稳定性能性能较低。因此为了提高目标检测的准确性、稳定性,工业领域多采取多传感器融合的方案。相机摄像头和雷达是目前主要的测距传感器元件,相机摄像头价格低廉,并能够快速捕捉环境信息并进行数字图像处理完成目标检测,但对于远距离的小目标检测能力较差;雷达能够准确捕获物体在三维空间的位置信息,测量速度快并且具备远距离测量的能力,但容易产生虚警,因而相机摄像头与雷达被广泛应用于多传感器数据融合中。在这种相机摄像头和雷达共用的方案中,相机标定在保障其自动化、智能化、高效化的领域内发挥着越来越重要的作用。
由于相机和雷达的安装位置不同,其坐标系具有空间差异,因而需要对相机和雷达进行空间标定,相机标定是将三维世界中的目标位置转换为图像中对应的目标位置的过程,是传感器数据融合的前提。为了保障自动驾驶、无人检测中的智能化目标检测的功能,精准可靠的相机标定已经成为不可或缺的环节。
传统的相机标定法需要在特定辅助标定板和标定设备的配合下,通过建立标定物上坐标已知的点与其图像目标点之间的对应关系,获得相机模型的内外参数,例如《二维激光雷达与可见光相机外参标定方法研究》通过利用两种传感器在不同位姿下的测量数据,利用拟合参数的方式求取摄像机摄像头的外部参数;《基于视觉标记板的自动驾驶车辆激光雷达与相机在线标定研究》利用经典的定向求解方法计算得到相机与激光雷达之间的刚性转换关系,在两种传感器中获取的摄像机的外部参数,与张正友标定法、伪逆法、最小二乘拟合法等类似,这些传统的相机标定方法均需建立复杂且专有的数学模型,并通过繁琐的计算完成。
在基于深度学习的相机标定方法中,例如《一种毫米波雷达与相机的自动标定方法》利用深度学习的方法将毫米波雷达点迹与图像目标点坐标进行标定,减小了标定工作量,将相机内参标定与传感器外参标定结合于一体,但其深度神经网络的参数量和计算量较大;《一种基于深度学习的相机标定方法及系统与流程》中,解决了现有视觉测量系统中相机位置及姿态必须保持不变的问题,避免相关数学模型、物理变量的繁杂计算和对专有固定的辅助结构的依赖,但其仍具有较为复杂的流程和较大的计算量。
在工业应用中,与传统的相机标定方法相比,基于深度学习的相机标定方法虽然解决了传统的相机标定的复杂数学模型和繁杂计算,但仍有较大参数量和计算量,不利于工业应用,并且传统的相机标定方法和基于深度学习的相机标定方法只能将雷达点迹数据转换为图像中的目标点,然而在图像目标检测过程中,目标在图像中均以目标框的形式出现,仅将雷达点迹数据转换为图像中的目标点会出现若干雷达点迹数据对应同一个图像目标框的情况,因而导致系统的准确性较差。
在现有相机标定技术中,大多需要复杂的数学模型和繁杂计算,仅只能对相机内部参数或相机外部参数其中一个参数进行标定,模型的灵活性和泛化能力较低。在相机标定过程中,均为雷达点迹到图像目标点的转换,没有将雷达点迹转换到图像目标框信息,多传感器融合任务的精度较低,不便于后续的雷达与相机摄像头的数据关联任务和多传感器融合目标检测任务。
发明内容
本发明的目的在于克服上述已有技术的缺点,提出一种雷达点迹到图像目标框的且采取跨层链接的基于深度学习的雷达辅助相机标定方法。
本发明是一种基于深度学习的雷达辅助相机标定方法,其特征在于,通过雷达进行标定辅助,利用含有跨层链接的深度神经网络模型获得从雷达点迹到图像目标框的相机标定函数,用于多传感器融合的目标跟踪检测任务,包括有如下步骤:
步骤1:数据采集形成雷达点迹数据和图像目标框数据:将雷达与摄像头组成的雷摄设备放置在需要进行目标检测的场景中,利用该雷摄设备分别采集M个雷达点迹数据与N个图像目标框数据/>其中雷达点迹数据DR包含第j个雷达点迹的采集时间/>雷达点迹距离R(j)和雷达点迹角度θ(j),j=1,2,…,M;图像目标框数据DI包括第i个图像的采集时间/>图像目标框中心点坐标/>和图像目标框宽高(h(i),w(i)),i=1,2,…,N,其中/>为第i个图像目标框中心点的横轴坐标,/>为第i个图像目标框中心点的纵轴坐标,h(i)为第i个图像目标框的高度,w(i)为第i个图像目标框的宽度;
步骤2:图像目标框数据与雷达点迹数据的采集时间对齐:在图像目标框数据中的第i个图像目标框的采集时间下,i=1,2,…,N,通过满足时间约束的第j和第j+1个雷达点迹数据估计第i个雷达点迹数据,将雷达点迹数据和图像目标框数据进行采集时间对齐,获得N个时间对齐后的雷达点迹数据;
步骤3:利用修正后的雷达点迹数据形成训练输入数据集:通过修正时间对齐后的雷达点迹数据中与前后雷达点迹不连续的数据,得到修正后的雷达点迹数据,利用修正后的雷达点迹数据形成训练输入数据集其中R(i)为通过修正后的雷达点迹数据中第i个雷达点迹距离,θ(i)为通过修正后的雷达点迹数据中第i个雷达点迹角度,i=1,2,…,N;
步骤4:利用目标框转换后的图像目标框数据形成训练输出数据集:将图像目标框中心点坐标通过/>转换为目标框底部中心坐标,通过转换后的目标框坐标数据形成训练输出数据集/>
步骤5:构建深度神经网络模型:将雷达点迹数据集构建的训练输入数据集作为深度神经网络模型的输入,输入通过一个全连接层,接着通过K个连续的RC层,将最后一个RC层的输出再通过一个全连接层获得深度神经网络模型的输出,深度神经网络模型的输出为图像目标框数据/>
步骤6:训练深度神经网络模型:将训练输入数据集与训练输出数据集/>按照神经网络训练的方法,给定深度神经网络模型的优化策略及其学习率lr,通过epoch次迭代,获得一个训练好的深度神经网络模型,其中lr根据输入数据进行设定,epoch根据训练需求进行设定;
步骤7:获得相机标定函数:利用完成训练的深度神经网络模型,结合需要进行目标检测场景与场景中的相机姿态获得一个标定函数f:x→y,该标定函数f将输入数据x转换为输出数据y,其中x为雷达点迹数据(R,θ),y为图像目标框数据(x,y,h,w),并且应用此标定函数设置相机,应用于相机摄像头与雷达数据关联任务和多传感器融合的目标跟踪检测任务。
本发明解决了相机标定复杂的数学模型和繁杂计算以及从雷达点迹到图像目标框的转换的技术问题。
本发明与现有的技术相比,具有以下优点:
提高相机标定的灵活性和效率:本发明利用雷达与相机摄像头同时进行相机标定,改善了相机标定对专有辅助标定板与标定设备的局限性,将相机标定过程中分别对内外参数估计改为对相机标定的标定函数的估计,减小了利用辅助标定板与标定设备在标定过程中的人为误差和标定过程的额外工作,提高了相机标定的灵活性和效率;
采取跨层连接的深度神经网络模型,避免构建相机标定的复杂模型,减小深度神经网络模型计算量:本发明构建深度神经网络模型,将相机摄像头的内外参数进行整体建模,避免了传统相机标定过程中复杂的数学模型和繁杂计算,通过RC层的设计,避免了模型训练过程中的梯度爆炸问题,在保证准确率的前提下,减小了深度神经网络模型的参数量和计算量;
构建雷达点迹数据到图像目标框数据的标定函数,提高相机标定准确率:本发明通过设计点到框的IOA损失函数,构建点到框的深度神经网络模型总损失函数,通过对深度神经网络进行训练,得到雷达点迹数据到图像目标框之间的关系,避免多个雷达点迹数据对应一个图像目标框数据,提高了相机标定的准确率,有利于后续雷达与相机摄像头的数据关联任务和多传感器融合目标检测任务。
实验证明,本发明适用于各种目标检测场景下的雷达与相机摄像头同时存在时的相机标定任务,通过本方法进行相机标定后,标定结果的位置与目标大小均有较好结果,提高了相机标定的准确率。
附图说明
图1是本发明的总流程图;
图2是本发明采用的网络基本模块RC层结构图;
图3是本发明采用的网络结构图;
图4是利用本发明获得的图像目标框和人为标记的真实图像目标框在目标距离雷摄设备小于50米的情况下的可视化对比图;
图5是利用本发明获得的图像目标框和人为标记的真实图像目标框在目标距离雷摄设备50米到100米的范围内的可视化对比图;
图6是利用本发明获得的图像目标框和人为标记的真实图像目标框在目标距离雷摄设备大于100米的情况下的可视化对比图;
图7是利用本发明获得的图像目标框和人为标记的真实图像目标框在目标高速行驶情况下的可视化对比图;
图8是利用本发明获得的图像目标框和基于伪逆法获得的图像目标框的可视化对比图;
图9是利用本发明获得的图像目标框和基于最小二乘曲面拟合的相机标定方法获得的图像目标框可视化对比图。
下面结合附图对本发明详细说明:
具体实施方法
实施例1:
随着自动驾驶、无人监测等新技术的迅速发展,由于单一传感器自身不可避免的局限性的存在,工业领域多采取多传感器融合的方案。相机摄像头和雷达作为目前主要的测距传感器元件,被广泛应用于多传感器数据融合中。由于相机和雷达的安装位置不同,其坐标系具有空间差异,因而需要对相机和雷达进行空间标定。
传统的相机标定法需要在特定辅助标定板和标定设备的配合下,通过建立标定物上坐标已知的点与其图像目标点之间的对应关系,获得相机模型的内外参数,例如张正友标定法、伪逆法、最小二乘拟合法等,这些传统的相机标定方法均建立复杂且专有的数学模型,并通过繁琐的计算完成。
在基于深度学习的相机标定方法中,利用深度学习的方法将雷达点迹与图像目标点坐标进行标定,将相机内参标定与传感器外参标定结合于一体,避免相关数学模型、物理变量的繁杂计算和对专有固定的辅助结构的依赖,减小了标定工作量,但其深度神经网络的参数量和计算量较大,且在多传感器融合目标检测任务中会出现传感器目标不匹配的现象,影响多传感器融合目标检测精度。
在现有相机标定技术中,与传统的相机标定方法相比,基于深度学习的相机标定方法虽然解决了传统的相机标定的复杂数学模型和繁杂计算,但仍有较大参数量和计算量,不利于工业应用,并且传统的相机标定方法和基于深度学习的相机标定方法只能将雷达点迹数据转换为图像中的目标点,然而在图像目标检测过程中,目标在图像中均以目标框的形式出现,将雷达点迹数据转换为图像中的目标点这一过程会出现若干雷达点迹数据对应同一个图像目标框的情况,导致系统的准确性较差,在多传感器数据融合任务时会出现目标不匹配的现象,不便于后续的雷达与相机摄像头的数据关联任务和多传感器融合目标检测任务的精度的提升。本发明针对这些问题展开了研究与探讨,提出一种基于深度学习的雷达辅助相机标定方法。
本发明是一种基于深度学习的雷达辅助相机标定方法,参见图1,本发明中通过雷达进行标定辅助,利用跨层链接的深度神经网络模型获得从雷达点迹到图像目标框的相机摄像头标定函数,用于多传感器融合的目标跟踪检测任务,包括有如下步骤:
步骤1:数据采集形成雷达点迹数据和图像目标框数据:将雷达与相机摄像头组成的雷摄设备放置在需要进行目标检测的场景中,利用该雷摄设备分别采集M个雷达点迹数据与N个图像目标框数据/>其中雷达点迹数据DR包含M个雷达点迹,在第j个雷达点迹数据中,j=1,2,…,M,/>为采集时间、雷达点迹距离R(j)和雷达点迹角度θ(j)。图像目标框数据DI包含N个图像目标框数据,在第i个图像目标框数据中,i=1,2,…,N,/>为第i个图像的采集时间,/>为图像目标框中心点坐标,(h(i),w(i))为图像目标框宽高,其中/>为第i个图像目标框中心点的横轴坐标,/>为第i个图像目标框中心点的纵轴坐标,h(i)为第i个图像目标框的高度,w(i)为第i个图像目标框的宽度。本发明从一开始就对采集数据进行划分,将雷达采集得到的雷达点迹数据构成雷达点迹数据/>将相机摄像头采集得到的图像,通过人工在图像上进行目标标注获得目标框,构成图像目标框数据/>
步骤2:图像目标框数据与雷达点迹数据的采集时间对齐:在图像目标框数据中的第i个图像目标框的采集时间下,i=1,2,…,N,通过满足时间约束的第j和第j+1个雷达点迹数据估计第i个雷达点迹数据,用此方法将雷达点迹数据和图像目标框数据进行采集时间对齐,获得N个时间对齐后的雷达点迹数据。通过将雷达和相机摄像头采集得到的数据进行时间对齐,保证数据的时间一致性,以便后续深度神经网络模型中数据处理的应用中保证时间的一致性。
步骤3:利用修正后的雷达点迹数据形成训练输入数据集:通过修正时间对齐后与前后雷达点迹不连续的数据,得到修正后的雷达点迹数据,利用修正后的雷达点迹数据形成训练输入数据集其中R(i)为通过修正后的雷达点迹数据中第i个雷达点迹距离,θ(i)为通过修正后的雷达点迹数据中第i个雷达点迹角度,i=1,2,…,N。
步骤4:利用目标框转换后的图像目标框数据形成训练输出数据集:将图像目标框中心点坐标通过/>转换为目标框底部中心坐标,通过转换后的目标框坐标数据形成训练输出数据集/>
步骤5:构建深度神经网络模型:将雷达点迹数据集构建的训练输入数据集作为深度神经网络模型的输入,输入通过一个全连接层,接着通过K个连续的RC层,将最后一个RC层的输出再通过一个全连接层获得深度神经网络模型的输出,深度神经网络模型的输出为图像目标框数据/>其中/>为神经网络模型输出的图像目标框底部中心横轴坐标,/>为神经网络模型输出的图像目标框底部中心纵轴坐标,/>为神经网络模型输出的图像目标框高度,/>为神经网络模型输出的图像目标框宽度,i=1,2,…,N。
也可以这样描述,将雷达点迹数据集构建的训练输入数据集作为深度神经网络模型输入,将神经网络输出的图像目标框数据/>作为神经网络的输出,在输入和输出之间为一个全连接层,接着K个连续的RC层,再接着一个全连接层,构建为深度神经网络模型。
步骤6:训练深度神经网络模型:将训练输入数据集与训练输出数据集/>按照神经网络训练的方法,给定深度神经网络的优化策略及其学习率lr,通过epoch次迭代,获得一个训练好的深度神经网络模型,其中lr根据输入数据进行设定,epoch根据训练需求进行设定。
步骤7:获得相机标定函数:利用完成训练的深度神经网络模型,结合需要进行目标检测场景与场景中的相机姿态获得一个标定函数f:x→y,该标定函数f将输入数据x转换为输出数据y,其中x为雷达点迹数据(R,θ),y为图像目标框数据(x,y,h,w),并且应用此标定函数设置相机,应用于相机摄像头与雷达数据关联任务和多传感器融合目标跟踪检测任务多传感器融合目标检测任务和数据关联任务。
本发明给出了一种在雷达与相机摄像头共同作用进行目标检测时更加精准的一种相机标定方法的整体技术方案。
现有相机标定方法利用辅助标定板或标定设备,构建具有复杂的数学模型,通过较大的计算量,获取相机摄像头的内外参数,也有方法将相机摄像头内外参数进行整体建模,获取雷达点迹数据和图像目标点数据的转换关系,本发明建模雷达点迹数据和图像目标框的转换关系,本发明思路是通过深度神经网络模型,将相机摄像头的内外参数进行整体建模,构建雷达点迹数据和图像目标框的转换关系,减小了利用辅助标定板与标定设备在标定过程中的人为误差和标定过程的额外工作,提高了相机标定的灵活性和准确率,避免了传统相机标定过程中复杂的数学模型和繁杂计算。
实施例2:
基于深度学习的雷达辅助相机标定方法同实施例1,步骤5中构建深度神经网络模型,包括有如下步骤:
5.1:构建深度神经网络模型整体框架:深度神经网络模型的输入为通过雷达点迹构建的训练输入数据集将输入数据集输入一个输入为2、输出为p的全连接层中得到一个p维向量,接着将这一p维向量通过K个连续的RC层,将组后一个RC层的输出再输入到一个输入为p、输出为4的全连接层中,其中RC层的输入维度p≥2,RC层数量K≥1,并且p和K整数,根据输入的数据量进行改变。
5.2:构建深度神经网络模型中RC层:深度神经网络模型中RC层的输入为一个p维向量,将这一p维向量输入到一个输入为p、输出为q的全连接层中,获得一个q维向量,接着利用Sigmoid激活函数对这一q维向量进行非线性变换,紧接着对非线性变换后的q维数据进行批标准化,再将批标准化后的q维数据输入到输入维q、输出p的全连接层中,获得一个p维向量,接着利用Sigmoid激活函数对该p维向量进行非线性变换,再对非线性变换后的p维向量进行批标准化,将经过批标准化的p维向量与RC层输入的p维向量跨层连接,即这两个向量相加即为RC层的输出,其中RC层的宽度q≥4,q为整数,q的取值可以根据输入的数据量进行改变。
现有基于深度学习的相机标定方法,连续搭建若干全连接层或者若干卷积层作为深度神经网络模型,需要较大的网络宽度或深度,参数量和计算量较大,本发明通过构建RC层,在深度神经网络模型中设置较小的网络深度和网络宽度,即p、q和K,就可达到较好的效果,因而本发明的在拥有较小的参数量和计算量时依然能够达到可观的效果;通过设置RC层的跨层连接,避免了深度神经网络模型训练过程中的梯度爆炸的问题,在保证准确率的前提下,减小了深度神经网络模型的参数量和计算量。
实施例3:
基于深度学习的雷达辅助相机标定方法同实施例1-2,步骤6中所述的训练深度神经网络模型,包括有如下步骤:
6.1:深度神经网络模型的前向传播:将通过雷达点迹构建的训练输入数据集作为深度神经网络模型的输入,通过步骤5中所述的神经网络,获得深度神经网络模型的输出/>其中/>为神经网络模型输出的图像目标框底部中心横轴坐标,/>为神经网络模型输出的图像目标框底部中心纵轴坐标,/>为神经网络模型输出的图像目标框高度,/>为神经网络模型输出的图像目标框宽度。
6.2:构建点到框的IOA损失函数:在深度神经网络模型中,构建点到框的IOA损失函数IOA,在N个一一对应的深度神经网络模型输出和训练输出数据集/>构成的数据对中,第i个数据对的点到框的IOA损失函数IOAi为1减去第i个深度神经网络模型的输出/>和第i个训练输出数据集的目标框交集/>与第i个训练输出数据集目标框面积h(i)×w(i)的比值,即
具体地说,第i个深度神经网络模型输出与训练输出数据集目标框交集的宽为并且第i个深度神经网络模型输出与训练输出数据集目标框交集的高为获得深度神经网络模型输出与训练输出数据集目标框交集的面积为areai=max(iw×ih,0);第i个训练输出数据集的目标框面积为gt_areai=h(i)×w(i),因而第i个深度神经网络模型输出与练输出数据集构成的数据对的点到框的IOA损失函数为:/>接下来将N个数据对得到的IOA损失函数相加,即得到点到框的IOA损失函数/>
6.3:构建点到框的深度神经网络模型总损失函数:点到框的深度神经网络模型总损失函数L描述如下:L=λ0L0+λ1L1+λ2L2+λ3L3+λ4L4+λ5L5+λ6L6,其中,λ=[λ0,λ1,λ2,λ3,λ4,λ5,λ6]是损失权重参数,0≤λl≤1,l=0,1,2,…,6,可以根据任务需求进行改变,L0为点到框的IOA损失函数即:损失函数L0是本发明提出的针对雷达点迹数据与图像目标框数据转换的损失函数,保证了深度神经网络模型预测得到的图像目标框尽可能包含通过人工标注得到的真实图像目标框;L1为图像目标框底部中心坐标的均方误差损失函数即:/>L1保证了深度神经网络模型预测得到的图像目标框中心点尽可能接近通过人工标注得到的真实图像目标框中心点;L2为图像目标框宽高的均方误差损失函数即:/>L2保证了深度神经网络模型预测得到的图像目标框宽高尽可能接近通过人工标注得到的真实图像目标框宽高;L3为图像目标框底部中心坐标的双曲余弦的对数损失函数即:/>L3避免了深度神经网络模型预测得到的图像目标框中心点坐标与通过人工标注得到的真实图像目标框中心点偏差较大的情况;L4为图像目标框面积的比例损失函数即:L4保证了深度神经网络模型预测得到的图像目标框面积不超过通过人工标注得到的真实图像目标框面积;L5为图像目标框高度的比例损失函数即L5更具有针对性地保证了深度神经网络模型预测得到的图像目标框的高度不超过通过人工标注得到的真实图像目标框的高度;L6为图像目标框宽度的比例损失函数即/>L6更具有针对性地保证了深度神经网络模型预测得到的图像目标框的宽度不超过通过人工标注得到的真实图像目标框的宽度。
6.4:深度神经网络模型的反向传播:利用6.3中的点到框的深度神经网络模型总损失函数,通过神经网络的反向传播算法,计算深度神经网络中权重的梯度,利用神经网络更新策略更新神经网络的参数,通过epoch次迭代,获得一个训练好的深度神经网络模型。
现有将相机摄像头内外参数进行整体建模的相机标定技术,通过数学模型或者深度神经网络模型,获取雷达点迹数据与图像目标点之间的转换关系,本发明设计点到框的IOA损失函数,构建点到框的深度神经网络模型总损失函数,通过对深度神经网络进行训练,得到雷达点迹数据到图像目标框之间的关系,避免多个雷达点迹数据对应一个图像目标框数据,提高了相机标定的准确率,有利于后续雷达与相机摄像头的数据关联任务和多传感器融合目标检测任务。
下面给出一个综合性的例子,对本发明进一步说明:
实施例4:
基于深度学习的雷达辅助相机标定方法同实施例1-3,
本发明是一种基于深度学习的雷达辅助相机标定方法,参见图1,本发明对雷达辅助相机标定包括有如下步骤:
步骤1:数据采集形成雷达点迹数据和图像目标框数据:将雷达与摄像头组成的雷摄设备放置在需要进行目标检测的场景中,利用该雷摄设备分别采集M个雷达点迹数据与N个图像目标框数据/>其中雷达点迹数据DR包含第j个雷达点迹的采集时间/>雷达点迹距离R(j)和雷达点迹角度θ(j),j=1,2,…,M;图像目标框数据DI包括第i个图像的采集时间/>图像目标框中心点坐标/>和图像目标框宽高(h(i),w(i)),i=1,2,…,N,其中/>为第i个图像目标框中心点的横轴坐标,/>为第i个图像目标框中心点的纵轴坐标,h(i)为第i个图像目标框的高度,w(i)为第i个图像目标框的宽度。
步骤2:图像目标框数据与雷达点迹数据的采集时间对齐:在图像目标框数据中的第i个图像目标框的采集时间下,i=1,2,…,N,通过满足时间约束的第j和第j+1个雷达点迹数据估计第i个雷达点迹数据,将雷达点迹数据和图像目标框数据进行采集时间对齐,获得N个时间对齐后的雷达点迹数据。
其中步骤2中的将雷达点迹采集时间和图像采集时间进行对齐,包括有如下步骤:
2.1:根据雷达点迹数据的时间和图像目标框数据的时间/>分别构建时间轴。
2.2:利用二次插值的方法估计采集时间下的图像目标框数据的时间对应的雷达点迹数据,获得N个时间对齐后的雷达点迹数据,具体地说,采集时间/>下的雷达点迹距离为/>采集时间/>下的雷达点迹角度为其中雷达点迹数据的采集时间满足/>i=1,2,…,N,j=1,2,…,M。
步骤3:利用修正后的雷达点迹数据形成训练输入数据集:通过修正时间对齐后与前后雷达点迹不连续的数据,得到修正后的雷达点迹数据,利用修正后的雷达点迹数据形成训练输入数据集其中R(i)为通过修正后的雷达点迹数据中第i个雷达点迹距离,θ(i)为通过修正后的雷达点迹数据中第i个雷达点迹角度,i=1,2,…,N。
其中步骤3中的对雷达点迹数据进行修正,包括有如下步骤:
3.1:对时间对齐后雷达点迹数据进行筛选,将角度突变、与前后数据不连续的雷达点迹数据构成集合/>集合/>对应的图像目标框数据构成集合令角度不变、与前后数据连续的雷达点迹数据构成集合/>集合/>对应的图像目标框数据构成集合/>
3.2:利用雷达点迹数据及/>对应的图像目标框数据/>通过最小二乘法求解得到雷达角度公式θ=Ax+By+C的系数A,B,C,其中θ为雷达角度,(x,y)为图像目标框坐标,x为图像目标框的横轴坐标,y为图像目标框的纵轴坐标。
3.3:将图像目标框数据集合作为输入,通过雷达角度公式得到修正后的雷达角度,获得修正后的雷达数据集,构建训练输入数据集/>其中R(i)为通过修正后的雷达点迹数据中第i个雷达点迹距离,θ(i)为通过修正后的雷达点迹数据中第i个雷达点迹角度,i=1,2,…,N。
步骤4:利用目标框转换后的图像目标框数据形成训练输出数据集:将图像目标框中心点坐标通过/>转换为目标框底部中心坐标,通过转换后的目标框坐标数据形成训练输出数据集/>
步骤5:构建深度神经网络模型:将雷达点迹数据集构建的训练输入数据集作为深度神经网络模型的输入,输入通过一个全连接层,接着通过K个连续的RC层,将最后一个RC层的输出再通过一个全连接层获得深度神经网络模型的输出,深度神经网络模型的输出为图像目标框数据/>其中/>为神经网络模型输出的图像目标框底部中心横轴坐标,/>为神经网络模型输出的图像目标框底部中心纵轴坐标,/>为神经网络模型输出的图像目标框高度,/>为神经网络模型输出的图像目标框宽度。
其中步骤5中的构建深度神经网络模型,包括有如下步骤:
5.1:构建深度神经网络模型整体框架:深度神经网络模型的输入为通过雷达点迹构建的训练输入数据集将输入数据集输入一个输入为2、输出为p的全连接层中得到一个p维向量,接着将这一p维向量通过K个连续的RC层,将组后一个RC层的输出再输入到一个输入为p、输出为4的全连接层中,其中全连接层输出p≥2和RC层个数K≥1,p和K为整数,根据输入的数据量进行改变。
5.2:构建深度神经网络模型中RC层:深度神经网络模型中RC层的输入为一个p维向量,将这一p维向量输入到一个输入为p、输出为q的全连接层中,获得一个q维向量,接着利用Sigmoid激活函数对这一q维向量进行非线性变换,紧接着对非线性变换后的q维数据进行批标准化,再将批标准化后的q维数据输入到输入维q、输出p的全连接层中,获得一个p维向量,接着利用Sigmoid激活函数对该p维向量进行非线性变换,再对非线性变换后的p维向量进行批标准化,将经过批标准化的p维向量与RC层输入的p维向量跨层连接,即这两个向量相加即为RC层的输出,其中RC层的宽度q≥4,q为整数,q的取值可以根据输入的数据量进行改变。
步骤6:训练深度神经网络模型:将训练输入数据集与训练输出数据集/>按照神经网络训练的方法,给定深度神经网络的优化策略及其学习率lr,通过epoch次迭代,获得一个训练好的深度神经网络模型,其中lr根据输入数据进行设定,epoch根据训练需求进行设定。
其中步骤6中的训练深度神经网络模型,包括有如下步骤:
6.1:深度神经网络参数设置:设置网络的RC层数量K,隐藏层宽度p,RC Layer宽度q,学习率lr,迭代次数epoch,批标准化大小b,损失权重参数λ=[λ1,λ2,λ3,λ4,λ5,λ6]。
6.2:深度神经网络模型的前向传播:将通过雷达点迹构建的训练输入数据集作为深度神经网络模型的输入,通过步骤5中所述的神经网络,获得深度神经网络模型的输出/>
更详细地说,假设深度神经网络模型共K+2层,每一层的输出结果为h(k),随机从训练输入数据集中选取一对训练样本作为网络输入,根据步骤5中深度神经网络模型的构建逐层计算网络的输出,第一层全连接层h(1)的计算为接下来连续的K个RC层的计算为:接下来最后一个全连接层h(K+2)的计算为:/>其中s(·)是Sigmoid激活函数,为批标准化中的均值和方差,b为批标准化大小。
6.3:构建点到框的IOA损失函数:在深度神经网络模型中,构建点到框的IOA损失函数IOA,在N个一一对应的深度神经网络模型输出和训练输出数据集/>构成的数据对中,第i个数据对的点到框的IOA损失函数IOAi为1减去第i个深度神经网络模型的输出/>和第i个训练输出数据集的目标框交集/>与第i个训练输出数据集目标框面积h(i)×w(i)的比值,即
具体地说,第i个深度神经网络模型输出与训练输出数据集地目标框有交集时,深度神经网络模型输出与训练输出数据集目标框交集的宽为并且深度神经网络模型输出与训练输出数据集目标框交集的高为/>获得深度神经网络模型输出与训练输出数据集目标框交集的面积为areai=max(iw×ih,0);第i个训练输出数据集的目标框面积为gt_areai=h(i)×w(i),因而第i个深度神经网络模型输出与练输出数据集构成的数据对的点到框的IOA损失函数为:/>接下来将N个数据对得到的IOA损失函数相加,即得到点到框的IOA损失函数/>
6.4:构建点到框的深度神经网络模型总损失函数:点到框的深度神经网络模型总损失函数L描述如下:L=λ0L0+λ1L1+λ2L2+λ3L3+λ4L4+λ5L5+λ6L6,其中,λ=[λ0,λ1,λ2,λ3,λ4,λ5,λ6]是损失权重参数,0≤λl≤1,l=0,1,2,…,6,可以根据任务需求进行改变,L0为点到框的IOA损失函数即:损失函数L0是本发明提出的针对雷达点迹数据与图像目标框数据转换的损失函数,保证了深度神经网络模型预测得到的图像目标框尽可能包含通过人工标注得到的真实图像目标框;L1为图像目标框底部中心坐标的均方误差损失函数即:/>L1保证了深度神经网络模型预测得到的图像目标框中心点尽可能接近通过人工标注得到的真实图像目标框中心点;L2为图像目标框宽高的均方误差损失函数即:/>L2保证了深度神经网络模型预测得到的图像目标框宽高尽可能接近通过人工标注得到的真实图像目标框宽高;L3为图像目标框底部中心坐标的双曲余弦的对数损失函数即:/>L3避免了深度神经网络模型预测得到的图像目标框中心点坐标与通过人工标注得到的真实图像目标框中心点偏差较大的情况;L4为图像目标框面积的比例损失函数即:L4保证了深度神经网络模型预测得到的图像目标框面积不超过通过人工标注得到的真实图像目标框面积;L5为图像目标框高度的比例损失函数即L5更具有针对性地保证了深度神经网络模型预测得到的图像目标框的高度不超过通过人工标注得到的真实图像目标框的高度;L6为图像目标框宽度的比例损失函数即/>L6更具有针对性地保证了深度神经网络模型预测得到的图像目标框的宽度不超过通过人工标注得到的真实图像目标框的宽度。
6.5:深度神经网络模型的反向传播:利用步骤6.3中的点到框的深度神经网络模型总损失函数,通过神经网络的反向传播算法,计算深度神经网络中权重的梯度,利用神经网络更新策略更新神经网络的参数,即: 其中W(k),b(k)为深度神经网络模型中每一层的权重和偏置,通过epoch次迭代,获得一个训练好的深度神经网络模型。
步骤7:获得相机标定函数:利用完成训练的深度神经网络模型,结合需要进行目标检测场景与场景中的相机姿态获得一个标定函数f:x→y,该标定函数f将输入数据x转换为输出数据y,其中x为雷达点迹数据(R,θ),y为图像目标框数据(x,y,h,w),R为雷达点迹数据距离,θ为雷达点迹数据角度,x为图像目标框横轴坐标,y为图像目标框纵轴坐标,h为图像目标框高度,w为图像目标框宽度,并且应用此标定函数设置相机,应用于相机摄像头与雷达数据关联任务和多传感器融合目标跟踪检测任务。
本发明的效果可以通过以下实验进一步说明:
实施例5:
基于深度学习的雷达辅助相机标定方法同实施例1-4,
实验条件与环境:采用毫米波雷达和8毫米相机摄像头放置在作用面上作为雷摄设备,软件python作为网络训练工具,CPU是AMD A8-5550M,主频为2.10GHz,内存16G,操作系统为Windows 10旗舰版。
实验内容:
将本发明的方法获得的图像目标框结果与通过人为标定获得的真实图像目标框数据进行比较。通过毫米波雷达与相机摄像头组成的雷摄设备获得若干雷达点迹数据和图像数据。利用人为标注获取图像数据的真实目标框数据,利用本发明获得的标定函数,将这些雷达点迹数据转换为图像目标框数据,将本发明获得的图像目标框数据和真实目标框数据同时画在对应图像数据上进行可视化分析。
实验结果与分析:
在本发明获得的图像目标框数据和真实目标框数据可视化分析中,如图4、图5、图6、图7所示,图中虚线框为通过人为标定得到的真实目标框,实线框为本发明相机标定方法获得的目标框。
在校园内空旷地方进行实验,目标为一位行人,参见图4。图4是一位行人在距离雷达与相机摄像头组成的雷摄设备小于50米的情况下相机摄像头获得的背影图,将雷达点迹通过本发明获得的图像目标框用实线框可视化在图4中,同时将通过人为标注获得的真实图像目标框用虚线框可视化在图4中,得到本发明获得的图像目标框和人为标记的真实图像目标框在目标距离雷摄设备小于50米的情况下得到的可视化对比图。
从图4中两个目标框的结果可以看出,本发明获得的目标框的底边边框与人为标注得到的目标框的底边边框几乎重合,本发明获得的目标框的底部中点位置与人为标注得到的目标框的底部中点位置也相近。也可以从图4中看出,本发明获得的目标框的高度与人为标注得到的目标框的高度相差较小,但是本发明获得的目标框的宽度与人工标记得到的目标框宽度相比较宽。总体而言,本发明获得的目标框将人为标注得到的目标框大部分包含在内,并且本发明获得的目标框大小适宜。
实施例6:
基于深度学习的雷达辅助相机标定方法同实施例1-4,实验条件与环境和实验内容同实施例5。在校园内空旷地方进行实验,目标为一位行人,参见图5。
图5为一位行人在距离雷达与相机摄像头组成的雷摄设备50米到100米的范围内相机摄像头获得的侧身图,将雷达点迹通过本发明获得的图像目标框用实线框可视化在图5中,同时将通过人为标注获得的真实图像目标框用虚线框可视化在图5中,得到本发明获得的图像目标框和人为标记的真实图像目标框在目标距离雷摄设备50米到100米的范围内的可视化对比图。
从图5中两个目标框的结果可以看出,本发明获得的目标框的底边边框与人为标注得到的目标框的底边边框几乎重合,并且本发明获得的目标框的底部中点位置与人为标注得到的目标框的底部中点位置几乎一致。也可以从图5中看出,本发明获得的目标框的高度与人为标注得到的目标框的高度相差较小,并且本发明获得的目标框的宽度与人工标记得到的目标框宽度相比较宽。总体而言,本发明获得的目标框将人为标注得到的目标框大部分包含在内,也可以说图5中的目标全部包含在本发明获得的目标框内,并且本发明获得的目标框大小适宜。
实施例7:
基于深度学习的雷达辅助相机标定方法同实施例1-4,实验条件与环境和实验内容同实施例5,参见图6。
在校园内空旷地方进行实验,目标为一位行人,参见图6。图6为一位行人在距离雷达与相机摄像头组成的雷摄设备大于100米的情况下相机摄像头获得的背影图,将雷达点迹通过本发明获得的图像目标框用实线框可视化在图6中,同时将通过人为标注获得的真实图像目标框用虚线框可视化在图6中,得到本发明获得的图像目标框和人为标记的真实图像目标框在目标距离雷摄设备大于100米的情况下的可视化对比图。
从图6中两个目标框的结果可以看出,本发明获得的目标框的底边边框与人为标注得到的目标框的底边边框完全重合,并且本发明获得的目标框的底部中点位置与人为标注得到的目标框的底部中点位置相近。也可以从图6中看出,本发明获得的目标框的高度与人为标注得到的目标框的高度相差较小,并且本发明获得的目标框的宽度与人工标记得到的目标框宽度相比较宽。从目标框整体大小的角度看,本发明获得的目标框大小与人为标注获得的目标框大小相比较大,但本发明完成捕获到目标,获得的目标框将人为标注得到的目标框包含在内,且将目标的外轮廓均包含在内,目标框中心偏差较小,相机标定精度较高。
当目标为微小目标时,可以将本发明获得的目标框裁剪下来进行目标检测,提高图像中小目标的检测准确率,进而提高多传感器融合目标跟踪检测任务的精度。
实施例8:
基于深度学习的雷达辅助相机标定方法同实施例1-4,实验条件与环境和实验内容同实施例5,参见图7。
在校园内空旷地方进行实验,目标为一位骑自行车的行人,参见图7。图7为一位骑自行车以较高速度行驶的行人在雷达与相机摄像头组成的雷摄存在时相机摄像头获得的正面图,将雷达点迹通过本发明获得的图像目标框用实线框可视化在图7中,同时将通过人为标注获得的真实图像目标框用虚线框可视化在图7中,得到利用本发明获得的图像目标框和人为标注获得的真实图像目标框在目标高速行驶情况下的可视化对比图。
从图7中两个目标框的结果可以看出,本发明获得的目标框的高度与人为标注得到的目标框的高度相差较小,但是本发明获得的目标框的宽度与人工标记得到的目标框宽度较宽。也可以从图7中看出,本发明获得的目标框的底边边框与人为标注得到的目标框的底边边框距离较小,本发明获得的目标框的底部中点位置与人为标注得到的目标框的底部中点位置也具有一定偏差,并且本发明获得的目标框大小与人为标注获得的目标框大小相比较大,但本发明获得的目标框将大部分人为标注得到的目标框包含在内,同时图7中的目标也全部包含在本发明获得的目标框内,目标框的中心位置偏差较小,相机标定准确度较高。
上述实例均为本发明相机标定方法图像目标框数据和真实目标框数据的对比结果,由上述实验得到的可视化对比图可见,本发明能够捕捉到完整的目标,可以直观地看到本发明标定方法能够将图像数据中的目标的全部放在目标框中。并且与真实目标框数据相差较小,实验证明本发明的相机标定精度较高。
实施例9:
基于深度学习的雷达辅助相机标定方法同实施例1-4,实验条件与环境同实施例5,
实验内容:
通过毫米波雷达与相机摄像头组成的雷摄设备获得若干雷达点迹数据和图像数据,通过人为标注获取图像数据的真实目标框数据,本例中,在同等条件下利用本发明的方法和基于伪逆法的相机标定方法进行相机标定,将这些雷达点迹数据转换为图像目标框数据,将获得的图像目标框数据可视化在对应的图像数据上进行比较。
实验结果与分析:
在校园内空旷地方进行实验,目标为一位侧身行走的行人,参见图8。图8为一位行人在雷达与相机摄像头组成的雷摄存在时相机摄像头获得的侧身图,将雷达点迹通过本发明获得的图像目标框用实线框可视化在图8中,将雷达点迹通过基于伪逆法获得的图像目标框用点线框可视化在图8中,同时将通过人为标注获得的真实图像目标框用虚线框可视化在图8中,得到利用本发明获得的图像目标框数据和基于伪逆法获得的图像目标框数据的可视化对比图。
从图8中的三个目标框可以看出,基于伪逆法获得的目标框位置与通过人为标注得到的真实目标框位置相比有较大偏差,而利用本发明方法获得的目标框的位置与通过人为标注得到的真实目标框的位置的偏差较小,并且本发明方法获得的目标框的底边边框与通过人为标注得到的真实目标框的底边边框几乎重合。基于伪逆法获得的目标框宽高与通过人为标注得到的真实目标框宽高相比均有较大差异,而本发明方法获得的目标框的高度与通过人为标注得到的真实目标框的高度相比较小,并且本发明方法获得的目标框的宽度与通过人为标注得到的真实目标框的宽度相比较宽。总体而言,基于伪逆法获得的目标框与真实目标框有较大偏差,而本发明方法获得的目标框的位置和大小虽有一定偏差,但目标完全包含在本发明方法获得的目标框内。因此,与基于伪逆法的相机标定方法相比较,本发明的相机标定方法获得的图像目标框更准确,相机标定结果更精准。
实施例10:
基于深度学习的雷达辅助相机标定方法同实施例1-4,实验条件与环境同实施例5。
实验内容:
通过毫米波雷达与相机摄像头组成的雷摄设备获得若干雷达点迹数据和图像数据,通过人为标注获取图像数据的真实目标框数据,本例中,在同等条件下利用本本发明的方法与基于最小二乘曲面拟合法的相机标定方法,将这些雷达点迹数据转换为图像目标框数据,将获得的图像目标框数据可视化在对应的图像数据上进行比较。
实验结果与分析:
在校园内空旷地方进行实验,目标为一位行走的行人,参见图9。图9为一位行人在雷达与相机摄像头组成的雷摄设备存在时相机摄像头获得的背影图,将雷达点迹通过本发明获得的图像目标框用实线框可视化在图9中,将雷达点迹通过基于最小二乘曲面拟合获得的图像目标框用点划线框可视化在图9中,同时将通过人为标注获得的真实图像目标框用虚线框可视化在图9中,得到利用本发明获得的图像目标框数据和基于伪逆法获得的图像目标框数据的可视化对比图。
从图9中的三个目标框可以看出,基于最小二乘曲面拟合法获得的目标框位置与通过人为标注得到的真实目标框位置相比偏差较小,而利用本发明方法获得的目标框的位置与通过人为标注得到的真实目标框的位置的偏差更小。基于最小二乘曲面拟合法获得的目标框的高度与通过人为标注得到的真实目标框的高度相比较小,但基于最小二乘曲面拟合法获得的目标框的宽度与通过人为标注得到的真实目标框的宽度相比较为相似,而本发明获得的目标框宽高与通过人为标注得到的真实目标框宽高相比均偏大。总体而言,基于最小二乘曲面拟合法获得的目标框与真实目标框有一定偏差,但目标并未完全包含在基于最小二乘曲面拟合法获得的目标框内。而本发明方法获得的目标框的位置和大小虽有一定偏差,但目标完全包含在本发明方法获得的目标框内。因此,与基于最小二乘曲面拟合的相机标定方法相比较,本发明的相机标定方法获得的图像目标框更准确,相机标定结果具有更高的精度。
实施例11:
基于深度学习的雷达辅助相机标定方法同实施例1-4,实验条件与环境同实施例5。
实验内容:
通过毫米波雷达与相机摄像头组成的雷摄设备以及本发明中的步骤1、步骤2、步骤3、步骤4获得K个训练输入数据和K个训练输出数据/>其中在第i个训练输入数据中,Ri为雷达点迹数据距离,θi为雷达点迹数据角度;在第i个训练输出数据中,xi为图像目标框横轴坐标,yi为图像目标框纵轴坐标,hi为图像目标框高度,wi为图像目标框宽度。利用本发明的方法、基于伪逆法以及基于最小二乘曲面拟合的相机标定方法,分别将这些雷达点迹数据转换为图像目标框数据。若利用本发明的方法、基于伪逆法或者基于最小二乘曲面拟合法的相机标定方法中的其中一个,将该方法进行相机标定获得标定函数,在对应的雷达点迹数据下即可获得的图像目标框数据,记为其中/>为通过本发明的方法、基于伪逆法或基于最小二乘曲面拟合法中的一种相机标定方法获得的图像目标框数据,/>为图像目标框横轴坐标,/>为图像目标框纵轴坐标,/>为图像目标框高度,/>为图像目标框宽度。计算通过本发明的方法、基于伪逆法或基于最小二乘曲面拟合法的相机标定方法结果的四种量化指标,分别为:
平均交集占比即IOA值:/>
足底点横轴坐标均方误差:
足底点纵轴坐标均方误差:
图像目标框宽高比:实验结果如表1所示。
表1不同特征下重构结果的数值指标
实验结果与分析:
表1中的横向表头为本实验中的四种量化指标,分别为:平均交集占比即IOA值、足底点横轴坐标均方误差、足底点纵轴坐标均方误差、图像目标框宽高比。在这四种量化指标中,平均交集占比和图像目标框宽高比两种指标越大,也就是说这两种指标越趋于1越能表明相机标定方法越准确;足底点横轴坐标均方误差和足底点纵轴坐标均方误差两种指标越小越能表明相机标定方法越精准。
纵向表头为本实验中的三种方法,分别为本发明的相机标定方法、基于伪逆法的相机标定方法、基于最小二乘曲面拟合法的相机标定方法。由于可视化结果存在主观因素的影响,视觉效果并不能精确的说明重构效果的好坏,用量化的指标能够更准确的反映相机标定效果,相机标定结果评价指标参见表1。对于同一雷达坐标的输入,在四种不同量化指标中,本发明的平均交集占比趋于1,足底点横轴坐标均方误差较小,足底点纵轴坐标均方误差较小,并且目标框宽高比较大,表明本发明的结果比较精准。相比于本发明,伪逆和最小二乘方法的平均交集占比较小,足底点横轴坐标均方误差较大,足底点纵轴坐标均方误差较大,并且目标框宽高比较小,表明这两种方法的较差。本发明相较于基于伪逆和基于最小二乘方法的相机标定方法,在足底坐标均方误差、平均交集占比和目标框宽高比方面有很大的提高,表明本发明的效果显著优于其他的方法,本发明的相机标定具有更好的准确率。
综上所述,本发明的基于深度学习的雷达辅助相机标定方法,解决了相机标定复杂的数学模型和繁杂计算以及从雷达点迹到图像目标框的转换的技术问题。实现步骤为:数据采集形成雷达点迹数据和图像目标框数据;图像目标框数据与雷达点迹数据的采集时间对齐;利用修正后的雷达点迹数据形成训练输入数据集;利用目标框转换后的图像目标框数据形成训练输出数据集;构建深度神经网络模型;训练深度神经网络模型;获得相机标定函数。本发明在雷达与相机摄像头同时进行目标检测的情况下进行相机标定,将相机标定过程中分别对内外参数估计改为对相机标定的标定函数的估计,将雷达点迹数据转换为图像目标框数据构成标定函数,减小了利用辅助标定板与标定设备在标定过程中的人为误差和标定过程的额外工作,提高了相机标定的灵活性和效率;利用深度神经网络模型避免构建相机标定的复杂模型,减小深度神经网络模型计算量,构建雷达点迹数据到图像目标框数据的标定函数,提高相机标定准确率。用于多传感器融合的目标检测任务中,更具体地用在雷达和相机摄像头同时进行目标检测的情况下的相机标定。
Claims (3)
1.一种基于深度学习的雷达辅助相机标定方法,其特征在于,通过雷达进行标定辅助,利用含有跨层连接的深度神经网络模型获得从雷达点迹到图像目标框的相机摄像头标定函数,用于多传感器融合的目标跟踪检测任务,包括有如下步骤:
步骤1:数据采集形成雷达点迹数据和图像目标框数据:将雷达与摄像头组成的雷摄设备放置在需要进行目标检测的场景中,利用该雷摄设备分别采集M个雷达点迹数据与N个图像目标框数据/>其中雷达点迹数据DR包含第j个雷达点迹的采集时间/>雷达点迹距离R(j)和雷达点迹角度θ(j),j=1,2,…,M;图像目标框数据DI包括第i个图像的采集时间/>图像目标框中心点坐标/>和图像目标框宽高(h(i),w(i)),i=1,2,…,N,其中/>为第i个图像目标框中心点的横轴坐标,/>为第i个图像目标框中心点的纵轴坐标,h(i)为第i个图像目标框的高度,w(i)为第i个图像目标框的宽度;
步骤2:图像目标框数据与雷达点迹数据的采集时间对齐:在图像目标框数据中的第i个图像目标框的采集时间下,i=1,2,…,N,通过满足时间约束的第j和第j+1个雷达点迹数据估计第i个雷达点迹数据,将雷达点迹数据和图像目标框数据进行采集时间对齐,获得N个时间对齐后的雷达点迹数据;
步骤3:利用修正后的雷达点迹数据形成训练输入数据集:通过修正时间对齐后的雷达点迹数据中与前后雷达点迹不连续的数据,得到修正后的雷达点迹数据,利用修正后的雷达点迹数据形成训练输入数据集其中R(i)为通过修正后的雷达点迹数据中第i个雷达点迹距离,θ(i)为通过修正后的雷达点迹数据中第i个雷达点迹角度,i=1,2,…,N;
步骤4:利用目标框转换后的图像目标框数据形成训练输出数据集:将图像目标框中心点坐标通过/>转换为目标框底部中心坐标,通过转换后的目标框坐标数据形成训练输出数据集/>
步骤5:构建深度神经网络模型:将雷达点迹数据集构建的训练输入数据集作为深度神经网络模型的输入,输入通过一个全连接层,接着通过K个连续的RC层,将最后一个RC层的输出再通过一个全连接层获得深度神经网络模型的输出,深度神经网络模型的输出为图像目标框数据/>
步骤6:训练深度神经网络模型:将训练输入数据集与训练输出数据集按照神经网络训练的方法,给定深度神经网络模型的优化策略及其学习率lr,通过epoch次迭代,获得一个训练好的深度神经网络模型,其中lr根据输入数据进行设定,epoch根据训练需求进行设定;
步骤7:获得相机标定函数:利用完成训练的深度神经网络模型,结合需要进行目标检测场景与场景中的相机姿态获得一个标定函数f:x→y,该标定函数f将输入数据转换为输出数据,该标定函数f的输入数据为雷达点迹数据(R,θ),该标定函数f的输出数据为图像目标框数据(xb,yb,h,w),并且应用此标定函数设置相机,应用于相机摄像头与雷达数据关联任务和多传感器融合的目标跟踪检测任务。
2.根据权利要求1所述的基于深度学习的雷达辅助相机标定方法,其特征在于,步骤5中所述的构建深度神经网络模型,包括有如下步骤:
5.1:构建深度神经网络模型整体框架:深度神经网络模型的输入为通过雷达点迹构建的训练输入数据集将输入数据集输入一个输入为2维、输出为p维的全连接层中得到一个p维向量,接着将这一p维向量通过K个连续的RC层,将最后一个RC层的输出再输入到一个输入为p维、输出为4维的全连接层中,其中RC层的输入维度p≥2,RC层数量K≥1,并且p和K为整数,根据输入的数据量进行改变;
5.2:构建深度神经网络模型中RC层:深度神经网络模型中RC层的输入为一个p维向量,将这一p维向量输入到一个输入为p维、输出为q维的全连接层中,获得一个q维向量,接着利用Sigmoid激活函数对这一q维向量进行非线性变换,紧接着对非线性变换后的q维数据进行批标准化,再将批标准化后的q维数据输入到输入为q维、输出为p维的全连接层中,获得一个p维向量,接着利用Sigmoid激活函数对该p维向量进行非线性变换,再对非线性变换后的p维向量进行批标准化,将经过批标准化的p维向量与RC层输入的p维向量跨层连接,即这两个向量相加即为RC层的输出,其中RC层的宽度q≥4,q为整数,q的取值可以根据输入的数据量进行改变。
3.根据权利要求1所述的基于深度学习的雷达辅助相机标定方法,其特征在于,步骤6中所述的训练深度神经网络模型,包括有如下步骤:
6.1:深度神经网络模型的前向传播:将通过雷达点迹构建的训练输入数据集作为深度神经网络模型的输入,通过步骤5中所述的神经网络,获得深度神经网络模型的输出/>其中/>为神经网络模型输出的图像目标框底部中心横轴坐标,/>为神经网络模型输出的图像目标框底部中心纵轴坐标,/>为神经网络模型输出的图像目标框高度,/>为神经网络模型输出的图像目标框宽度,i=1,2,…,N;
6.2:构建点到框的IOA损失函数:在深度神经网络模型中,构建点到框的IOA损失函数IOA,在N个一一对应的深度神经网络模型输出和训练输出数据集构成的数据对中,第i个数据对的点到框的IOA损失函数IOAi为1减去第i个深度神经网络模型的输出/>和第i个训练输出数据集的目标框交集/>与第i个训练输出数据集目标框面积h(i)×w(i)的比值,即第i个深度神经网络模型输出与训练输出数据集目标框交集的宽为并且第i个深度神经网络模型输出与训练输出数据集目标框交集的高为获得深度神经网络模型输出与训练输出数据集目标框交集的面积为areai=max(iw×ih,0);第i个训练输出数据集的目标框面积为gt_areai=h(i)×w(i),因而第i个深度神经网络模型输出与训练输出数据集构成的数据对的点到框的IOA损失函数为:/>接下来将N个数据对得到的IOA损失函数相加,即得到点到框的IOA损失函数/>
6.3:构建点到框的深度神经网络模型总损失函数:点到框的深度神经网络模型总损失函数描述如下:L=λ0L0+λ1L1+λ2L2+λ3L3+λ4L4+λ5L5+λ6L6,其中,λ=[λ0,λ1,λ2,λ3,λ4,λ5,λ6]是损失权重参数,可以根据任务需求进行改变,L0为点到框的IOA损失函数即:L1为图像目标框底部中心坐标的均方误差损失函数即:/>L2为图像目标框宽高的均方误差损失函数即:L3为图像目标框底部中心坐标的双曲余弦的对数损失函数即:/>L4为图像目标框面积的比例损失函数即:L5为图像目标框高度的比例损失函数即/>L6为图像目标框宽度的比例损失函数即/>
6.4:深度神经网络模型的反向传播:利用6.3中的点到框的深度神经网络模型总损失函数,通过神经网络的反向传播算法,计算深度神经网络中权重的梯度,利用神经网络更新策略更新神经网络的参数,通过epoch次迭代,获得一个训练好的深度神经网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111117899.1A CN113808219B (zh) | 2021-09-17 | 2021-09-17 | 基于深度学习的雷达辅助相机标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111117899.1A CN113808219B (zh) | 2021-09-17 | 2021-09-17 | 基于深度学习的雷达辅助相机标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113808219A CN113808219A (zh) | 2021-12-17 |
CN113808219B true CN113808219B (zh) | 2024-05-14 |
Family
ID=78896384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111117899.1A Active CN113808219B (zh) | 2021-09-17 | 2021-09-17 | 基于深度学习的雷达辅助相机标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113808219B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114708333B (zh) * | 2022-03-08 | 2024-05-31 | 智道网联科技(北京)有限公司 | 自动标定相机外参模型的生成方法及装置 |
CN115797463A (zh) * | 2022-11-28 | 2023-03-14 | 湖南华诺星空电子技术有限公司 | 一种fod雷达与相机的神经网络训练方法及全局标定方法 |
CN115597551B (zh) * | 2022-12-14 | 2023-04-07 | 成都量芯集成科技有限公司 | 一种手持激光辅助双目扫描装置及方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107226087A (zh) * | 2017-05-26 | 2017-10-03 | 西安电子科技大学 | 一种结构化道路自动驾驶运输车及控制方法 |
CN108665496A (zh) * | 2018-03-21 | 2018-10-16 | 浙江大学 | 一种基于深度学习的端到端的语义即时定位与建图方法 |
CN109815833A (zh) * | 2018-12-29 | 2019-05-28 | 江苏集萃智能制造技术研究所有限公司 | 一种基于ccd与三维激光传感信息融合特征提取的茶尖识别方法 |
EP3506166A1 (fr) * | 2017-12-29 | 2019-07-03 | Bull SAS | Prédiction de déplacement et de topologie pour un réseau de caméras |
CN111462237A (zh) * | 2020-04-03 | 2020-07-28 | 清华大学 | 利用多源信息构建四通道虚拟图像的目标距离检测方法 |
WO2020237693A1 (zh) * | 2019-05-31 | 2020-12-03 | 华南理工大学 | 一种水面无人装备多源感知方法及系统 |
CN112163450A (zh) * | 2020-08-24 | 2021-01-01 | 中国海洋大学 | 基于s3d学习算法的高频地波雷达船只目标检测方法 |
CN112541481A (zh) * | 2020-12-25 | 2021-03-23 | 南京航空航天大学 | 一种基于深度学习的对海探测雷达目标检测方法 |
DE102019127282A1 (de) * | 2019-10-10 | 2021-04-15 | Valeo Schalter Und Sensoren Gmbh | System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11836852B2 (en) * | 2019-12-20 | 2023-12-05 | Board Of Trustees Of The University Of Illinois | Neural network-based millimeter-wave imaging system |
-
2021
- 2021-09-17 CN CN202111117899.1A patent/CN113808219B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107226087A (zh) * | 2017-05-26 | 2017-10-03 | 西安电子科技大学 | 一种结构化道路自动驾驶运输车及控制方法 |
EP3506166A1 (fr) * | 2017-12-29 | 2019-07-03 | Bull SAS | Prédiction de déplacement et de topologie pour un réseau de caméras |
CN108665496A (zh) * | 2018-03-21 | 2018-10-16 | 浙江大学 | 一种基于深度学习的端到端的语义即时定位与建图方法 |
CN109815833A (zh) * | 2018-12-29 | 2019-05-28 | 江苏集萃智能制造技术研究所有限公司 | 一种基于ccd与三维激光传感信息融合特征提取的茶尖识别方法 |
WO2020237693A1 (zh) * | 2019-05-31 | 2020-12-03 | 华南理工大学 | 一种水面无人装备多源感知方法及系统 |
DE102019127282A1 (de) * | 2019-10-10 | 2021-04-15 | Valeo Schalter Und Sensoren Gmbh | System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen |
CN111462237A (zh) * | 2020-04-03 | 2020-07-28 | 清华大学 | 利用多源信息构建四通道虚拟图像的目标距离检测方法 |
CN112163450A (zh) * | 2020-08-24 | 2021-01-01 | 中国海洋大学 | 基于s3d学习算法的高频地波雷达船只目标检测方法 |
CN112541481A (zh) * | 2020-12-25 | 2021-03-23 | 南京航空航天大学 | 一种基于深度学习的对海探测雷达目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113808219A (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113808219B (zh) | 基于深度学习的雷达辅助相机标定方法 | |
CN104848851B (zh) | 基于多传感器数据融合构图的变电站巡检机器人及其方法 | |
CN110073362A (zh) | 用于车道标记检测的系统及方法 | |
CN108594851A (zh) | 一种基于双目视觉的无人机自主障碍物检测系统、方法及无人机 | |
CN115731268A (zh) | 基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法 | |
CN112070841A (zh) | 一种毫米波雷达与摄像头快速联合标定方法 | |
CN111292366B (zh) | 一种基于深度学习和边缘计算的视觉行车测距算法 | |
CN115943439A (zh) | 一种基于雷视融合的多目标车辆检测及重识别方法 | |
CN111815717A (zh) | 一种多传感器融合外参联合半自主标定方法 | |
US20230236280A1 (en) | Method and system for positioning indoor autonomous mobile robot | |
CN113095154A (zh) | 基于毫米波雷达与单目相机的三维目标检测系统及方法 | |
CN115049821A (zh) | 一种基于多传感器融合的三维环境目标检测方法 | |
Song et al. | End-to-end learning for inter-vehicle distance and relative velocity estimation in ADAS with a monocular camera | |
CN115565153A (zh) | 一种改进yolov7的无人驾驶拖拉机田间障碍物识别方法 | |
CN114413958A (zh) | 无人物流车的单目视觉测距测速方法 | |
CN114689038A (zh) | 基于机器视觉的果实检测定位与果园地图构建方法 | |
CN117606497A (zh) | 一种实时地图构建方法、系统及导盲眼镜 | |
CN115294562B (zh) | 一种植保机器人作业环境智能感知方法 | |
CN114359660B (zh) | 一种适用于模态强弱变化的多模态目标检测方法及系统 | |
CN107610154B (zh) | 多源目标的空间直方图表示与跟踪方法 | |
CN116128962A (zh) | 基于单目视觉的车辆3d定位方法,装置,汽车及存储介质 | |
Wang et al. | An end-to-end auto-driving method based on 3D LiDAR | |
CN113091693B (zh) | 一种基于图像超分辨率技术的单目视觉长程测距方法 | |
CN112232484B (zh) | 一种基于类脑神经网络的空间碎片识别捕获方法及系统 | |
CN113627569A (zh) | 一种用于交通大场景的雷达视频一体机的数据融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |