CN110390697A - 一种基于lm算法的毫米波雷达与摄像头联合标定方法 - Google Patents

一种基于lm算法的毫米波雷达与摄像头联合标定方法 Download PDF

Info

Publication number
CN110390697A
CN110390697A CN201910624873.2A CN201910624873A CN110390697A CN 110390697 A CN110390697 A CN 110390697A CN 201910624873 A CN201910624873 A CN 201910624873A CN 110390697 A CN110390697 A CN 110390697A
Authority
CN
China
Prior art keywords
camera
data
millimetre
radar
wave radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910624873.2A
Other languages
English (en)
Other versions
CN110390697B (zh
Inventor
宋春毅
陈钦
赵自豪
宋钰莹
徐志伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yantai Xin Yang Ju Array Microelectronics Co ltd
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201910624873.2A priority Critical patent/CN110390697B/zh
Publication of CN110390697A publication Critical patent/CN110390697A/zh
Application granted granted Critical
Publication of CN110390697B publication Critical patent/CN110390697B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开一种基于LM算法的毫米波雷达与摄像头联合标定方法,其首先固定毫米波雷达与摄像头的位置,并测量两者的相对位置关系;接着打开摄像头采集数据,并采用相机内参标定方法标定相机的内参;然后同时打开毫米波雷达和摄像头,放置标定物进行数据采集;再对采集的数据进行融合,并使用LM算法来实现坐标转移矩阵的联合标定;再采集测试数据,并将毫米波雷达数据使用标定后的坐标转移矩阵进行坐标转换,验证联合标定的性能是否满足需求,当不符合要求时,修改联合标定参数,重新采集数据进行标定联合;直到符合要求后输出坐标转移矩阵。该联合标定方法标定了毫米波雷达和摄像头之间的坐标转移矩阵,标定精度高,为两者的数据融合提供了保障。

Description

一种基于LM算法的毫米波雷达与摄像头联合标定方法
技术领域
本发明涉及位置标定领域,尤其涉及一种基于LM算法的毫米波雷达与摄像头联合标定方法。
背景技术
随着多传感器融合技术的迅猛发展,多传感器之间的位置联合标定方法得到了广泛的关注和研究。特别是在智能机器人的视觉导航,及车辆智能驾驶等领域,雷达与摄像头之间的融合感知算法,可以提供更为可靠、精确、稳定的环境感知能力。便于后续机器人与车辆的智能决策与智能驾驶的实现。而联合标定,是实现融合感知算法的前提保障。联合标定的目的是为了实现多传感器之间的数据匹配。
现在的针对雷达与摄像头的联合标定方法有多种主流的选择。一种是分别将雷达的坐标系与摄像头的坐标系相对于一个基准坐标系进行标定后,再通过相应的传递公式,计算两者的相对位置关系;一种是通过测量与设置的方法,直接将雷达与摄像头的相对位置关系进行固定,从而确定两者的相对位置关系;还有一种是通过标定物,将雷达中的点与摄像头中的对应点进行匹配,再根据匹配点来计算两者的相对位置关系。
而如今的雷达与摄像头的联合标定方法主要针对激光雷达与摄像头的联合标定。而在毫米波雷达与摄像头的联合标定过程,由于毫米波的点云成像原理与激光雷达不同,导致点云的分辨率与成像特点都与激光雷达存在差异。由于毫米波雷达的点云成像对目标边缘及大角度目标不敏感,导致毫米波雷达难以提取与激光雷达相同的特征点,因此无法使用基于边缘提取等方式的联合标定方法。这给毫米波雷达与摄像头的联合标定性能带来了极大的挑战。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于LM算法的毫米波雷达与摄像头联合标定方法,具体技术方案如下:
一种基于LM算法的毫米波雷达与摄像头联合标定方法,其特征在于,该方法包括以下步骤:
S1:固定毫米波雷达与摄像头的位置,并测量两者的相对位置关系;
S2:打开摄像头进行数据采集,并采用相机内参标定方法标定相机的内参;
S3:同时打开毫米波雷达和摄像头,放置标定物进行数据采集;
S4:对采集的数据进行融合,并使用LM算法来实现坐标转移矩阵的联合标定;
S5:选取合适场景及测试物采集测试数据,并将毫米波雷达数据使用标定后的坐标转移矩阵进行坐标转换,当测试物雷达点云在摄像头图片的投影点与摄像头拍摄的测试物图像中的点之间的像素距离不小于雷达分辨率时,重新调整S4的联合标定中的参数设定,重复S1-S5;反之,进入下一步;
S6:输出S4得到的联合标定后的坐标转移矩阵。
进一步地,所述S1具体为:
S1.1:固定毫米波雷达与摄像头的位置,保证毫米波雷达与摄像头之间的相对位置在后续的数据采集过程中不发生变化,包括三个自由度的平移及三个自由度的旋转;
S1.2:在接近毫米波雷达天线位置处选取一点作为雷达坐标系的原点,并根据雷达采集的数据坐标系方向确定雷达坐标系的方向,将两者的坐标系方向进行统一,得到雷达坐标系Orxryrzr;在接近摄像头镜头处选取一点作为摄像头坐标系的原点,根据摄像头采集的数据坐标系方向确定摄像头坐标系的方向,将两者的坐标系方向进行统一,得到摄像头坐标系Ocxcyczc
S1.3:基于Rxyz旋转方式及三维平移来定义坐标系转移参数l=[θx,θy,θz,tx,ty,tz]T,上标T表示转置:l中的各个参数通过如下方式得到:
分别沿着方向,量取Oc相对Or的相对距离,得到tx、ty与tz,移动雷达坐标系,将雷达坐标系原点与摄像头坐标系重合;旋转雷达坐标系的xr轴使得其与xc轴重合,量取旋转的角度,得到θx;在上述坐标系转移的基础上,进一步旋转雷达坐标系的yr轴使得其与yc轴重合,量取旋转的角度,得到θy;在上述坐标系转移的基础上,进一步旋转雷达坐标系的zr轴使得其与zc轴重合,量取旋转的角度,得到θz
进一步地,所述S2具体为:
S2.1:设置摄像头的参数,并保持在联合标定过程中摄像头的焦距、分辨率不发生变化;
S2.2:连接摄像头至数据处理器,使摄像头能够按帧输出图片数据f(xp,yp),其中f(xp,yp)表示在像素坐标[xp,yp]处的像素值;
S2.3:根据选取的摄像头类型,使用合适的相机内参标定方法,标定摄像头的内参矩阵
进一步地,所述S3具体为:
S3.1:选取能够同时被毫米波雷达和摄像头检测到的物体作为标定物,打开毫米波雷达与摄像头,并连接至数据处理器,使摄像头能够按帧输出图片数据f(xp,yp),使毫米波雷达能够按帧输出点云数据P(n);其中,P(n)为三维点云数据[x,y,z],n为雷达点索引;
S3.2:初始化联合标定用的数据组数i=1,将标定物放置于能够同时被毫米波雷达与摄像头检测到的位置,并记录标定物位置;
S3.3:保持标定物的位置不发生改变,同时采集一段时间的毫米波雷达与摄像头数据,并存储放入第i组数据中;
S3.4:如果标定用的数据组数没有达到设定的组数上限I,即i<I,令i=i+1,并且改变标定物放置的位置,将标定物放置于能够同时被毫米波雷达与摄像头检测到的位置,并记录标定物位置,且保证该位置不接近第i组之前的数据采集时标定物的放置位置,返回S3.3;如果i≥I,则进入下一步。
进一步地,所述S4具体为:
S4.1:分别对毫米波雷达数据和摄像头数据进行处理,具体如下:
对于毫米波雷达数据,将每一组数据中的多帧数据叠加至一帧,并将雷达点云中的标定物点进行提取,并通过下式计算标定物点的坐标均值:
其中,x(n)、y(n)、z(n)表示当前融合数据组中的第n个标定物点雷达坐标,Nc为总的毫米波标定物点数;
对于摄像头数据,提取每一帧数据中标定物所在的像素坐标,将每一组数据中的多帧数据进行比较,如果存在两帧数据,标定物所在像素重合率不超过80%,则将该组数据舍弃,更新数据总组数I及数据组数索引;反之,则在该组数据中任意选取一帧的摄像头数据,并通过下式计算其中标定物所在的像素坐标均值
其中,xp(m)、yp(m)表示当前融合数据组中的第m个标定物点图像坐标,Mc为总的图像标定物点数;
S4.2:使用LM算法来进行坐标转移矩阵的联合标定;首先,构造优化函数L(l)=L(θx,θy,θz,tx,ty,tz)=[L1,L1,...,L2I]T由2I个函数组成,并且满足如下关系:
L2i-1=xp,i-zi(1)/zi(3) (1)
L2i=yp,i-zi(2)/zi(3) (2)
其中,i=1,2,...,I;zi=[zi(1),zi(2),zi(3)]T,并且zi满足如下关系:
zi=Hxi (3)
其中,xi=[xi,yi,zi,1]T;H=AB为坐标转移矩阵;A为摄像头坐标系相对毫米波雷达坐标系的外参矩阵,A=[R,t],R为旋转矩阵,t为平移向量,有R=RzRyRx,t=[tx,ty,tz]T
S4.3:将S1.3中得到的量测数据作为迭代初值l0;初始化迭代次数k=1,并计算优化函数的雅可比矩阵根据联合标定的实际情况,设定迭代次数上限K、下降梯度步长c及容忍系数σ的初值;对迭代优化函数值进行初始化赋值F=L(l0),对迭代优化函数雅可比矩阵进行初始化赋值JF=J(l0),对下降梯度步长进行初始化赋值D=diag(JH(l0)J(l0)),其中diag(·)表示提取方阵的对角元素形成新的方阵,JH是J的共轭转置;
S4.4:当时,令LM参数λ=0,计算变化量其中上标+表示矩阵的伪逆;当时,根据需求设定合适的LM参数λ,并通过求解如下的最小二乘问题得到变化量p:
S4.5:首先计算变化后的优化函数值Fp=L(lk-1+p),然后通过下式计算线性度ρ,来评估下降步长:
S4.6:当ρ>0.0001时,令lk=lk-1+p;否则,令lk=lk-1;更新迭代优化函数值F=L(lk),更新迭代优化函数雅可比矩阵JF=J(lk);
S4.7:当ρ≤0.25时,缩小下降梯度步长c;当0.25<ρ<0.75且λ=0时,或者ρ≥0.75时,扩大下降梯度步长c;
S4.8:通过下式更新步长梯度:
其中,max{·,·}表示将两个同尺度矩阵中,相同位置的每个元素进行比较,并将较大值赋值给新矩阵的同一个位置。
S4.9:当k<K时,令k=k+1,返回S4.4;否则,进入下一步;
S4.10:根据式(3),将lk作为l赋值给H,得到坐标转移矩阵输出。
进一步地,所述的S5具体为:
S5.1:选取合适场景及测试物进行测试数据的采集,打开毫米波雷达与摄像头,并连接至数据处理器,使摄像头能够按帧输出图片数据f(xp,yp)。使毫米波雷达能够按帧输出点云数据P(n);其中,P(n)为三维点云数据[x,y,z],n为雷达点索引。
S5.2:将毫米波雷达的帧数据与摄像头帧数据进行时间同步,并提取时间同步帧的数据;
S5.3:从时间同步帧的毫米波数据中提取测试物的点云,并根据式(3)进行投影,当测试物雷达点云在摄像头图片的投影点与摄像头拍摄的测试物图像中的点之间的像素距离不小于雷达分辨率时,重新调整S4的联合标定中的迭代次数上限K、下降梯度步长c及容忍系数σ,重复S1-S5.3;反之,则进入下一步。
进一步地,所述的相机内参标定方法具体为张正友标定法。
进一步地,所述的S4.4中,当时,所述的LM参数λ根据Hebden迭代算法确定。
本发明的有益效果如下:
基于LM算法的毫米波雷达与摄像头联合标定方法,研究根据毫米波雷达的点云成像特点,选取合适的标定物实现毫米波雷达与摄像头匹配点的提取。相比于其他的大部分联合标定方法,在毫米波雷达与摄像头联合标定场景下,由于毫米波雷达成像特点造成的标定性能损失。本方法采用的数据采集及融合方式更能适应在毫米波雷达与摄像头联合标定下,数据匹配点的提取需求。且基于LM算法的联合标定坐标转移矩阵的参数迭代优化设计,具有较高的精度及收敛速度,从而提供更好的参数估计性能。标定物及测试物的选取更为方便,也能提供更好的联合标定性能保障。
附图说明
图1是基于LM算法的毫米波雷达与摄像头联合标定方法设计流程图;
图2是本发明的联合标定方法坐标转移矩阵估计收敛性能图;
图3是本发明的联合标定方法性能验证图。
具体实施方式
下面根据附图和优选实施例详细描述本发明,本发明的目的和效果将变得更加明白,应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
一种基于LM算法的毫米波雷达与摄像头联合标定方法,如图1所示,该方法包括以下步骤:
S1:固定毫米波雷达与摄像头的位置,并测量两者的相对位置关系:
S1.1:固定毫米波雷达与摄像头的位置,保证毫米波雷达与摄像头之间的相对位置在后续的数据采集过程中不发生变化,包括三个自由度的平移及三个自由度的旋转。当发生相对位置变化时,需要重新进行本发明的联合标定算法,并对坐标转移矩阵进行更新。
S1.2:在接近毫米波雷达天线位置处选取一点作为雷达坐标系的原点,并根据雷达采集的数据坐标系方向确定雷达坐标系的方向,将两者的坐标系方向进行统一,得到雷达坐标系Orxryrzr;在接近摄像头镜头处选取一点作为摄像头坐标系的原点,根据摄像头采集的数据坐标系方向确定摄像头坐标系的方向,将两者的坐标系方向进行统一,得到摄像头坐标系Ocxcyczc
S1.3:基于Rxyz旋转方式及三维平移来定义坐标系转移参数l=[θx,θy,θz,tx,ty,tz]T,上标T表示转置:l中的各个参数通过如下方式得到:
分别沿着方向,量取Oc相对Or的相对距离,得到tx、ty与tz,移动雷达坐标系,将雷达坐标系原点与摄像头坐标系重合;旋转雷达坐标系的xr轴使得其与xc轴重合,量取旋转的角度,得到θx;在上述坐标系转移的基础上,进一步旋转雷达坐标系的yr轴使得其与yc轴重合,量取旋转的角度,得到θy;在上述坐标系转移的基础上,进一步旋转雷达坐标系的zr轴使得其与zc轴重合,量取旋转的角度,得到θz
S2:打开摄像头进行数据采集,并采用相机内参标定方法标定相机的内参:
S2.1:设置摄像头的参数,并保持在联合标定过程中摄像头的焦距、分辨率不发生变化;
S2.2:连接摄像头至数据处理器,使摄像头能够按帧输出图片数据f(xp,yp),其中f(xp,yp)表示在像素坐标[xp,yp]处的像素值;
S2.3:根据选取的摄像头类型,使用合适的相机内参标定方法,标定摄像头的内参矩阵
S3:同时打开毫米波雷达和摄像头,放置标定物进行数据采集:
S3.1:选取能够同时被毫米波雷达和摄像头检测到的物体作为标定物,打开毫米波雷达与摄像头,并连接至数据处理器,使摄像头能够按帧输出图片数据f(xp,yp),使毫米波雷达能够按帧输出点云数据P(n);其中,P(n)为三维点云数据[x,y,z],n为雷达点索引;
S3.2:初始化联合标定用的数据组数i=1,将标定物放置于能够同时被毫米波雷达与摄像头检测到的位置,并记录标定物位置;
S3.3:保持标定物的位置不发生改变,同时采集一段时间的毫米波雷达与摄像头数据,并存储放入第i组数据中;
S3.4:如果标定用的数据组数没有达到设定的组数上限I,即i<I,令i=i+1,并且改变标定物放置的位置,将标定物放置于能够同时被毫米波雷达与摄像头检测到的位置,并记录标定物位置,且保证该位置不接近第i组之前的数据采集时标定物的放置位置,返回S3.3;如果i≥I,则进入下一步。
S4:对采集的数据进行融合,并使用LM算法来实现坐标转移矩阵的联合标定:
S4.1:分别对毫米波雷达数据和摄像头数据进行处理,具体如下:
对于毫米波雷达数据,将每一组数据中的多帧数据叠加至一帧,并将雷达点云中的标定物点进行提取,并通过下式计算标定物点的坐标均值:
其中,x(n)、y(n)、z(n)表示当前融合数据组中的第n个标定物点雷达坐标,Nc为总的毫米波标定物点数;
对于摄像头数据,提取每一帧数据中标定物所在的像素坐标,将每一组数据中的多帧数据进行比较,如果存在两帧数据,标定物所在像素重合率不超过80%,则将该组数据舍弃,更新数据总组数I及数据组数索引;反之,则在该组数据中任意选取一帧的摄像头数据,并通过下式计算其中标定物所在的像素坐标均值
其中,xp(m)、yp(m)表示当前融合数据组中的第m个标定物点图像坐标,Mc为总的图像标定物点数;
S4.2:使用LM算法来进行坐标转移矩阵的联合标定;首先,构造优化函数L(l)=L(θx,θy,θz,tx,ty,tz)=[L1,L1,...,L2I]T由2I个函数组成,并且满足如下关系:
L2i-1=xp,i-zi(1)/zi(3) (1)
L2i=yp,i-zi(2)/zi(3) (2)
其中,i=1,2,...,I;zi=[zi(1),zi(2),zi(3)]T,并且zi满足如下关系:
zi=Hxi (3)
其中,xi=[xi,yi,zi,1]T;H=AB为坐标转移矩阵;A为摄像头坐标系相对毫米波雷达坐标系的外参矩阵,A=[R,t],R为旋转矩阵,t为平移向量,有R=RzRyRx,t=[tx,ty,tz]T
S4.3:将S1.3中得到的量测数据作为迭代初值l0;初始化迭代次数k=1,并计算优化函数的雅可比矩阵根据联合标定的实际情况,调整并设定迭代次数上限K、下降梯度步长c及容忍系数σ;对迭代优化函数值进行初始化赋值F=L(l0),对迭代优化函数雅可比矩阵进行初始化赋值JF=J(l0),对下降梯度步长进行初始化赋值D=diag(JH(l0)J(l0)),其中diag(·)表示提取方阵的对角元素形成新的方阵,JH是J的共轭转置;
S4.4:当时,令LM参数λ=0,计算变化量其中上标+表示矩阵的伪逆;当时,根据需求设定合适的LM参数λ,并通过求解如下的最小二乘问题得到变化量p:
S4.5:首先计算变化后的优化函数值Fp=L(lk-1+p),然后通过下式计算线性度ρ,来评估下降步长:
S4.6:当ρ>0.0001时,令lk=lk-1+p;否则,令lk=lk-1;更新迭代优化函数值F=L(lk)更新迭代优化函数雅可比矩阵JF=J(lk);
S4.7:当ρ≤0.25时,缩小下降梯度步长c;当0.25<ρ<0.75且λ=0时,或者ρ≥0.75时,扩大下降梯度步长c;
S4.8:通过下式更新步长梯度:
其中,max{·,·}表示将两个同尺度矩阵中,相同位置的每个元素进行比较,并将较大值赋值给新矩阵的同一个位置。
S4.9:当k<K时,令k=k+1,返回S4.4;否则,进入下一步;
S4.10:根据式(3),将lk作为l赋值给H,得到坐标转移矩阵。
S5:选取合适场景及测试物采集测试数据,并将毫米波雷达数据使用标定后的坐标转移矩阵进行坐标转换,当测试物雷达点云在摄像头图片的投影点与摄像头拍摄的测试物图像中的点之间的像素距离不小于雷达分辨率时,重新调整S4的联合标定中的参数设定,重复S1-S5;反之,进入下一步;
S5.1:选取合适场景及测试物进行测试数据的采集,打开毫米波雷达与摄像头,并连接至数据处理器,使摄像头能够按帧输出图片数据f(xp,yp)。使毫米波雷达能够按帧输出点云数据P(n);其中,P(n)为三维点云数据[x,y,z],n为雷达点索引。
S5.2:将毫米波雷达的帧数据与摄像头帧数据进行时间同步,并提取时间同步帧的数据;
S5.3:从时间同步帧的毫米波数据中提取测试物的点云,并根据式(3)进行投影,当测试物雷达点云在摄像头图片的投影点与摄像头拍摄的测试物图像中的点之间的像素距离不小于雷达分辨率时,重新调整S4的联合标定中的迭代次数上限K、下降梯度步长c及容忍系数σ,重复S1-S5.3;反之,则进入下一步。
S6:输出S4得到的联合标定后的坐标转移矩阵。
优选地,所述的相机内参标定方法具体为张正友标定法。该标定法标定物较为简单,实验易于实现,标定精度高。
优选地,所述的S4.4中,当时,所述的LM参数λ根据Hebden迭代算法确定。
图2是本发明的联合标定方法坐标转移矩阵估计收敛性能图。图3是本发明的联合标定方法性能验证图,A点为经过联合标定后的投影点,B点为测量得到的毫米波雷达与摄像头的相对位置计算得到的坐标转移矩阵形成的投影点。从图2和图3可以看出,本发明的联合标定方法能够实现毫米波雷达与摄像头的联合标定,并具有较好的标定性能。
本领域普通技术人员可以理解,以上所述仅为发明的优选实例而已,并不用于限制发明,尽管参照前述实例对发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在发明的精神和原则之内,所做的修改、等同替换等均应包含在发明的保护范围之内。

Claims (8)

1.一种基于LM算法的毫米波雷达与摄像头联合标定方法,其特征在于,该方法包括以下步骤:
S1:固定毫米波雷达与摄像头的位置,并测量两者的相对位置关系;
S2:打开摄像头进行数据采集,并采用相机内参标定方法标定相机的内参;
S3:同时打开毫米波雷达和摄像头,放置标定物进行数据采集;
S4:对采集的数据进行融合,并使用LM算法来实现坐标转移矩阵的联合标定;
S5:选取合适场景及测试物采集测试数据,并将毫米波雷达数据使用标定后的坐标转移矩阵进行坐标转换,当测试物雷达点云在摄像头图片的投影点与摄像头拍摄的测试物图像中的点之间的像素距离不小于雷达分辨率时,重新调整S4的联合标定中的参数设定,重复S1-S5;反之,进入下一步;
S6:输出S4得到的联合标定后的坐标转移矩阵。
2.根据权利要求1所述的联合标定方法,其特征在于,所述S1具体为:
S1.1:固定毫米波雷达与摄像头的位置,保证毫米波雷达与摄像头之间的相对位置在后续的数据采集过程中不发生变化,包括三个自由度的平移及三个自由度的旋转;
S1.2:在接近毫米波雷达天线位置处选取一点作为雷达坐标系的原点,并根据雷达采集的数据坐标系方向确定雷达坐标系的方向,将两者的坐标系方向进行统一,得到雷达坐标系Orxryrzr;在接近摄像头镜头处选取一点作为摄像头坐标系的原点,根据摄像头采集的数据坐标系方向确定摄像头坐标系的方向,将两者的坐标系方向进行统一,得到摄像头坐标系Ocxcyczc
S1.3:基于Rxyz旋转方式及三维平移来定义坐标系转移参数l=[θx,θy,θz,tx,ty,tz]T,上标T表示转置:l中的各个参数通过如下方式得到:
分别沿着方向,量取Oc相对Or的相对距离,得到tx、ty与tz,移动雷达坐标系,将雷达坐标系原点与摄像头坐标系重合;旋转雷达坐标系的xr轴使得其与xc轴重合,量取旋转的角度,得到θx;在上述坐标系转移的基础上,进一步旋转雷达坐标系的yr轴使得其与yc轴重合,量取旋转的角度,得到θy;在上述坐标系转移的基础上,进一步旋转雷达坐标系的zr轴使得其与zc轴重合,量取旋转的角度,得到θz
3.根据权利要求2所述的联合标定方法,其特征在于,所述S2具体为:
S2.1:设置摄像头的参数,并保持在联合标定过程中摄像头的焦距、分辨率不发生变化;
S2.2:连接摄像头至数据处理器,使摄像头能够按帧输出图片数据f(xp,yp),其中f(xp,yp) 表示在像素坐标[xp,yp]处的像素值;
S2.3:根据选取的摄像头类型,使用合适的相机内参标定方法,标定摄像头的内参矩阵
4.根据权利要求3所述的联合标定方法,其特征在于,所述S3具体为:
S3.1:选取能够同时被毫米波雷达和摄像头检测到的物体作为标定物,打开毫米波雷达与摄像头,并连接至数据处理器,使摄像头能够按帧输出图片数据f(xp,yp),使毫米波雷达能够按帧输出点云数据P(n);其中,P(n)为三维点云数据[x,y,z],n为雷达点索引;
S3.2:初始化联合标定用的数据组数i=1,将标定物放置于能够同时被毫米波雷达与摄像头检测到的位置,并记录标定物位置;
S3.3:保持标定物的位置不发生改变,同时采集一段时间的毫米波雷达与摄像头数据,并存储放入第i组数据中;
S3.4:如果标定用的数据组数没有达到设定的组数上限I,即i<I,令i=i+1,并且改变标定物放置的位置,将标定物放置于能够同时被毫米波雷达与摄像头检测到的位置,并记录标定物位置,且保证该位置不接近第i组之前的数据采集时标定物的放置位置,返回S3.3;如果i≥I,则进入下一步。
5.根据权利要求4所述的联合标定方法,其特征在于,所述S4具体为:
S4.1:分别对毫米波雷达数据和摄像头数据进行处理,具体如下:
对于毫米波雷达数据,将每一组数据中的多帧数据叠加至一帧,并将雷达点云中的标定物点进行提取,并通过下式计算标定物点的坐标均值:
其中,x(n)、y(n)、z(n)表示当前融合数据组中的第n个标定物点雷达坐标,Nc为总的毫米波标定物点数;
对于摄像头数据,提取每一帧数据中标定物所在的像素坐标,将每一组数据中的多帧数据进行比较,如果存在两帧数据,标定物所在像素重合率不超过80%,则将该组数据舍弃,更新数据总组数I及数据组数索引;反之,则在该组数据中任意选取一帧的摄像头数据,并通过下式计算其中标定物所在的像素坐标均值
其中,xp(m)、yp(m)表示当前融合数据组中的第m个标定物点图像坐标,Mc为总的图像标定物点数;
S4.2:使用LM算法来进行坐标转移矩阵的联合标定;首先,构造优化函数L(l)=L(θx,θy,θz,tx,ty,tz)=[L1,L1,...,L2I]T由2I个函数组成,并且满足如下关系:
L2i-1=xp,i-zi(1)/zi(3) (1)
L2i=yp,i-zi(2)/zi(3) (2)
其中,i=1,2,...,I;zi=[zi(1),zi(2),zi(3)]T,并且zi满足如下关系:
zi=Hxi (3)
其中,xi=[xi,yi,zi,1]T;H=AB为坐标转移矩阵;A为摄像头坐标系相对毫米波雷达坐标系的外参矩阵,A=[R,t],R为旋转矩阵,t为平移向量,有R=RzRyRx,t=[tx,ty,tz]T
S4.3:将S1.3中得到的量测数据作为迭代初值l0;初始化迭代次数k=1,并计算优化函数的雅可比矩阵根据联合标定的实际情况,设定迭代次数上限K、下降梯度步长c及容忍系数σ的初值;对迭代优化函数值进行初始化赋值F=L(l0),对迭代优化函数雅可比矩阵进行初始化赋值JF=J(l0),对下降梯度步长进行初始化赋值D=diag(JH(l0)J(l0)),其中diag(·)表示提取方阵的对角元素形成新的方阵,JH是J的共轭转置;
S4.4:当时,令LM参数λ=0,计算变化量其中上标+表示矩阵的伪逆;当时,根据需求设定合适的LM参数λ,并通过求解如下的最小二乘问题得到变化量p:
S4.5:首先计算变化后的优化函数值Fp=L(lk-1+p),然后通过下式计算线性度ρ,来评估下降步长:
S4.6:当ρ>0.0001时,令lk=lk-1+p;否则,令lk=lk-1;更新迭代优化函数值F=L(lk),更新迭代优化函数雅可比矩阵JF=J(lk);
S4.7:当ρ≤0.25时,缩小下降梯度步长c;当0.25<ρ<0.75且λ=0时,或者ρ≥0.75时,扩大下降梯度步长c;
S4.8:通过下式更新步长梯度:
其中,max{·,·}表示将两个同尺度矩阵中,相同位置的每个元素进行比较,并将较大值赋值给新矩阵的同一个位置。
S4.9:当k<K时,令k=k+1,返回S4.4;否则,进入下一步;
S4.10:根据式(3),将lk作为l赋值给H,得到坐标转移矩阵。
6.根据权利要求5所述的基于LM算法的毫米波雷达与摄像头联合标定方法,其特征在于,所述的S5具体为:
S5.1:选取合适场景及测试物进行测试数据的采集,打开毫米波雷达与摄像头,并连接至数据处理器,使摄像头能够按帧输出图片数据f(xp,yp)。使毫米波雷达能够按帧输出点云数据P(n);其中,P(n)为三维点云数据[x,y,z],n为雷达点索引。
S5.2:将毫米波雷达的帧数据与摄像头帧数据进行时间同步,并提取时间同步帧上的数据;
S5.3:从时间同步帧的毫米波数据中提取测试物的点云,并根据式(3)进行投影,当测试物雷达点云在摄像头图片的投影点与摄像头拍摄的测试物图像中的点之间的像素距离不小于雷达分辨率时,重新调整S4的联合标定中的迭代次数上限K、下降梯度步长c及容忍系数σ,重复S1-S5.3;反之,则进入下一步。
7.根据权利要求1所述的基于LM算法的毫米波雷达与摄像头联合标定方法,其特征在于,所述的相机内参标定方法具体为张正友标定法。
8.根据权利要求5所述的基于LM算法的毫米波雷达与摄像头联合标定方法,其特征在于,所述的S4.4中,当时,所述的LM参数λ根据Hebden迭代算法确定。
CN201910624873.2A 2019-07-11 2019-07-11 一种基于lm算法的毫米波雷达与摄像头联合标定方法 Active CN110390697B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910624873.2A CN110390697B (zh) 2019-07-11 2019-07-11 一种基于lm算法的毫米波雷达与摄像头联合标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910624873.2A CN110390697B (zh) 2019-07-11 2019-07-11 一种基于lm算法的毫米波雷达与摄像头联合标定方法

Publications (2)

Publication Number Publication Date
CN110390697A true CN110390697A (zh) 2019-10-29
CN110390697B CN110390697B (zh) 2021-11-05

Family

ID=68286598

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910624873.2A Active CN110390697B (zh) 2019-07-11 2019-07-11 一种基于lm算法的毫米波雷达与摄像头联合标定方法

Country Status (1)

Country Link
CN (1) CN110390697B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110907905A (zh) * 2019-11-21 2020-03-24 重庆长安汽车股份有限公司 一种毫米波雷达安装位置的标定装置及方法
CN111190153A (zh) * 2020-04-09 2020-05-22 上海高仙自动化科技发展有限公司 外参标定方法及装置、智能机器人及计算机可读存储介质
CN111429530A (zh) * 2020-04-10 2020-07-17 浙江大华技术股份有限公司 一种坐标标定方法及相关装置
CN111427028A (zh) * 2020-03-20 2020-07-17 新石器慧通(北京)科技有限公司 参数监测方法、装置、设备和存储介质
CN111462237A (zh) * 2020-04-03 2020-07-28 清华大学 利用多源信息构建四通道虚拟图像的目标距离检测方法
CN111538029A (zh) * 2020-04-24 2020-08-14 江苏盛海智能科技有限公司 一种视觉与雷达融合的测量方法及终端
CN111815717A (zh) * 2020-07-15 2020-10-23 西北工业大学 一种多传感器融合外参联合半自主标定方法
CN112070841A (zh) * 2020-07-01 2020-12-11 北京中科原动力科技有限公司 一种毫米波雷达与摄像头快速联合标定方法
CN112836737A (zh) * 2021-01-29 2021-05-25 同济大学 一种基于车路数据融合的路侧组合感知设备在线标定方法
CN113119083A (zh) * 2021-03-19 2021-07-16 深圳市优必选科技股份有限公司 一种机器人标定方法、装置、机器人及存储介质
CN114279468A (zh) * 2021-12-31 2022-04-05 北京理工大学 一种基于统计分析的毫米波雷达与视觉相机动态标定方法
CN115346368A (zh) * 2022-07-30 2022-11-15 东南大学 一种基于远、近景多传感器一体融合的交通路侧感知系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977997A (zh) * 2017-11-29 2018-05-01 北京航空航天大学 一种结合激光雷达三维点云数据的相机自标定方法
WO2018103407A1 (zh) * 2016-12-09 2018-06-14 中山大学 一种基于彩色立体标定物的无人机标定方法及系统
CN109459586A (zh) * 2018-12-05 2019-03-12 智灵飞(北京)科技有限公司 一种基于lm算法的无人机加速度计标定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018103407A1 (zh) * 2016-12-09 2018-06-14 中山大学 一种基于彩色立体标定物的无人机标定方法及系统
CN107977997A (zh) * 2017-11-29 2018-05-01 北京航空航天大学 一种结合激光雷达三维点云数据的相机自标定方法
CN109459586A (zh) * 2018-12-05 2019-03-12 智灵飞(北京)科技有限公司 一种基于lm算法的无人机加速度计标定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
罗逍等: "一种毫米波雷达和摄像头联合标定方法", 《清华大学学报(自然科学版)》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110907905A (zh) * 2019-11-21 2020-03-24 重庆长安汽车股份有限公司 一种毫米波雷达安装位置的标定装置及方法
CN111427028B (zh) * 2020-03-20 2022-03-25 新石器慧通(北京)科技有限公司 参数监测方法、装置、设备和存储介质
CN111427028A (zh) * 2020-03-20 2020-07-17 新石器慧通(北京)科技有限公司 参数监测方法、装置、设备和存储介质
CN111462237A (zh) * 2020-04-03 2020-07-28 清华大学 利用多源信息构建四通道虚拟图像的目标距离检测方法
CN111190153A (zh) * 2020-04-09 2020-05-22 上海高仙自动化科技发展有限公司 外参标定方法及装置、智能机器人及计算机可读存储介质
CN111429530A (zh) * 2020-04-10 2020-07-17 浙江大华技术股份有限公司 一种坐标标定方法及相关装置
CN111429530B (zh) * 2020-04-10 2023-06-02 浙江大华技术股份有限公司 一种坐标标定方法及相关装置
CN111538029A (zh) * 2020-04-24 2020-08-14 江苏盛海智能科技有限公司 一种视觉与雷达融合的测量方法及终端
CN112070841A (zh) * 2020-07-01 2020-12-11 北京中科原动力科技有限公司 一种毫米波雷达与摄像头快速联合标定方法
CN111815717A (zh) * 2020-07-15 2020-10-23 西北工业大学 一种多传感器融合外参联合半自主标定方法
CN112836737A (zh) * 2021-01-29 2021-05-25 同济大学 一种基于车路数据融合的路侧组合感知设备在线标定方法
CN113119083A (zh) * 2021-03-19 2021-07-16 深圳市优必选科技股份有限公司 一种机器人标定方法、装置、机器人及存储介质
CN114279468A (zh) * 2021-12-31 2022-04-05 北京理工大学 一种基于统计分析的毫米波雷达与视觉相机动态标定方法
CN114279468B (zh) * 2021-12-31 2022-06-14 北京理工大学 一种基于统计分析的毫米波雷达与视觉相机动态标定方法
CN115346368A (zh) * 2022-07-30 2022-11-15 东南大学 一种基于远、近景多传感器一体融合的交通路侧感知系统及方法
CN115346368B (zh) * 2022-07-30 2024-01-05 东南大学 一种基于远、近景多传感器一体融合的交通路侧感知系统及方法

Also Published As

Publication number Publication date
CN110390697B (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
CN110390697A (zh) 一种基于lm算法的毫米波雷达与摄像头联合标定方法
CN105844587B (zh) 一种低空无人机载高光谱遥感影像自动拼接方法
CN103557841B (zh) 一种提高多相机合成影像摄影测量精度的方法
CN104392435B (zh) 鱼眼相机标定方法及标定装置
CN108510551B (zh) 一种远距离大视场条件下相机参数的标定方法及系统
CN109459058B (zh) 一种基于三轴转台的多视场星敏感器的标定方法
CN106895851B (zh) 一种光学遥感卫星多ccd多相机统一处理的传感器校正方法
CN107560592B (zh) 一种用于光电跟踪仪联动目标的精确测距方法
CN103353388B (zh) 一种具摄像功能的双目体式显微成像系统标定方法及装置
CN108871373B (zh) 一种基于俯仰滚转台和非线性优化的星敏感器标定方法
CN106595702B (zh) 一种基于天文标定的多传感器空间配准方法
CN108663043B (zh) 基于单个相机辅助的分布式pos主子节点相对位姿测量方法
CN106595700A (zh) 基于三点坐标测量的靶道空间基准标定方法
CN106767895B (zh) 利用标志点定向求解相机外方位元素的系统和方法
CN110246194A (zh) 一种像机与惯性测量单元旋转关系快速标定方法
CN110793542A (zh) 一种基于广义探元指向角的面阵光学遥感卫星在轨几何定标方法
CN105698766A (zh) 考虑定向参数精度信息的卫星影像rfm模型区域网平差方法
CN106056121A (zh) 基于sift图像特征匹配的卫星装配工件快速识别方法
CN108154535B (zh) 基于平行光管的摄像机标定方法
CN112634373A (zh) 基于零膨胀陶瓷标定板的视觉测量系统动态校正方法
CN105787464A (zh) 一种大量图片在三维场景中的视点标定方法
CN110070582A (zh) 多摄模组参数自校准系统和校准方法及其电子设备
CN114529615A (zh) 雷达标定方法、装置及存储介质
CN109100112B (zh) 一种基于计算机视觉的气弹模型风洞试验平面风振响应测试方法
CN113065277B (zh) 协同多载荷数据的高分辨率遥感卫星颤振探测与建模方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230329

Address after: 316000 Room 202, 11 Baichuan Road, Lincheng street, Dinghai District, Zhoushan City, Zhejiang Province (centralized office)

Patentee after: ZHEJIANG JISU HEXIN TECHNOLOGY CO.,LTD.

Address before: 310058 Yuhang Tang Road, Xihu District, Hangzhou, Zhejiang 866

Patentee before: ZHEJIANG University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230627

Address after: Plant 1, No. 13, Guiyang Avenue, Yantai Economic and Technological Development Zone, Shandong Province, 264000

Patentee after: Yantai Xin Yang Ju Array Microelectronics Co.,Ltd.

Address before: 316000 Room 202, 11 Baichuan Road, Lincheng street, Dinghai District, Zhoushan City, Zhejiang Province (centralized office)

Patentee before: ZHEJIANG JISU HEXIN TECHNOLOGY CO.,LTD.

TR01 Transfer of patent right