CN110232714B - 深度相机的标定方法及系统 - Google Patents
深度相机的标定方法及系统 Download PDFInfo
- Publication number
- CN110232714B CN110232714B CN201910363877.XA CN201910363877A CN110232714B CN 110232714 B CN110232714 B CN 110232714B CN 201910363877 A CN201910363877 A CN 201910363877A CN 110232714 B CN110232714 B CN 110232714B
- Authority
- CN
- China
- Prior art keywords
- plane
- fitting
- calibration
- matrix
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 239000011159 matrix material Substances 0.000 claims abstract description 133
- 230000009466 transformation Effects 0.000 claims abstract description 80
- 238000001914 filtration Methods 0.000 claims abstract description 9
- 238000006243 chemical reaction Methods 0.000 claims description 64
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 3
- 101100459261 Cyprinus carpio mycb gene Proteins 0.000 claims 2
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 238000005299 abrasion Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开一种深度相机的标定方法及系统,其中方法包括如下步骤:根据相机的配置参数确定一参考平面,基于预设噪点阈值滤除参考平面中的离群点,然后计算参考平面的拟合函数中的拟合参数,再根据拟合参数计算拟合平面相对于真实平面的第一转化矩阵,根据第一转化矩阵和由上述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵,根据第三转化矩阵获取相机校准后的标定参数。采用本发明,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,可以无需借助工具实现自动高效地标定相机参数。
Description
技术领域
本发明涉及机器人导航技术领域,尤其涉及一种深度相机的标定方法及系统。
背景技术
在机器人导航技术中,相机相对于机器人本机的安装精确在相同产线生产的机器人中,也各自有相应的公差差异,其差异会严重影响机器人使用其传感数据的准确性。为了使机器人能够更准确的使用标定摄像机(RGBD相机)的数据,需要找个“标定”摄像机坐标系相对于机器人“基坐标系”切实有效并且操作效率较高的办法。
现有的标定摄像机的方式有如下特点,一是需要借助于特定的“工装治具”或者“视觉标定板”、“红外光源等探照设备”才能进行;二是在标定过程中需要大量的人工标定或流水线配合时间;三是在机器人长时间在环境中运行之后,由于轮式结构的磨损或者执行了拆装过程,导致的标定结果偏差无法重新再次校准。
发明内容
本发明实施例提供一种深度相机的标定方法及系统,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,可以无需借助工具实现自动高效地标定相机参数。
本发明实施例第一方面提供了一种深度相机的标定方法,可包括:
计算参考平面的拟合函数中的拟合参数,参考平面为根据相机配置参数确定的机器人的参考平面;
根据拟合参数计算拟合平面相对于真实平面的第一转化矩阵,真实平面为机器人所在的真实地平面;
根据第一转化矩阵和由配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵;
根据第三转化矩阵获取相机校准后的标定参数。
进一步的,上述方法还包括:
基于预设噪点阈值滤除参考平面中的离群点,离群点为参考平面中代表障碍物的像素点。
进一步的,上述根据拟合参数计算拟合平面相对于真实平面的第一转化矩阵,包括:
根据拟合参数计算第一中间参数z0、第二中间参数v1和第三中间参数v2;
根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵;
根据第二中间参数v1和第三中间参数v2计算拟合平面相对于真实平面的旋转转化矩阵的旋转向量和旋转角度。
进一步的,上述标定参数包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z。
进一步的,上述方法还包括:
计算离群点平面的拟合函数中的新拟合参数,离群点平面为滤除掉的离群点组成的平面;
根据新拟合参数计算离群点平面相对于真实平面的水平方向信息yaw;
基于水平方向信息的斜率yaw’联合标定相机相对于激光的水平yaw转化值;
结合yaw转化值得到相机校准后的最终标定参数。
本发明实施例第二方面提供了一种深度相机的标定系统,可包括:
拟合参数计算模块,用于计算参考平面的拟合函数中的拟合参数,参考平面为根据相机配置参数确定的机器人的参考平面;
矩阵计算模块,用于根据拟合参数计算拟合平面相对于真实平面的第一转化矩阵,真实平面为机器人所在的真实地平面;
矩阵标定模块,用于根据第一转化矩阵和由配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵;
标定参数获取模块,用于根据第三转化矩阵获取相机校准后的标定参数。
进一步的,上述系统还包括:
噪点滤除模块,用于基于预设噪点阈值滤除参考平面中的离群点,离群点为参考平面中代表障碍物的像素点。
进一步的,上述矩阵计算模块包括:
中间参数计算单元,用于根据拟合参数计算第一中间参数z0、第二中间参数v1和第三中间参数v2;
平移转化单元,用于根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵;
旋转转化单元,用于根据第二中间参数v1和第三中间参数v2计算拟合平面相对于真实平面的旋转转化矩阵的旋转向量和旋转角度。
进一步的,上述标定参数包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z。
进一步的,上述系统还包括:
新参数计算模块,用于计算离群点平面的拟合函数中的新拟合参数,离群点平面为滤除掉的离群点组成的平面;
水平信息提取模块,用于根据新拟合参数计算离群点平面相对于真实平面的水平方向信息yaw;
水平转化值标定模块,用于基于水平方向信息的斜率yaw’联合标定相机相对于激光的水平yaw转化值;
最终标定参数确定模块,用于结合yaw转化值得到相机校准后的最终标定参数。
在本发明实施例中,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,无需借助工具实现了自动高效地标定相机参数。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1是本发明实施例提供的一种深度相机的标定方法的流程示意图;
图2是本发明实施例提供的一种深度相机的标定系统的结构示意图;
图3是本发明实施例提供的矩阵计算模块的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明实施例提供的基于点云数据的障碍物识别方法可以应用于在机器人自主避障中识别微小障碍物的应用场景中。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面将结合附图1,对本发明实施例提供的深度相机的标定方法进行详细介绍。
请参见图1,为本发明实施例提供了一种深度相机的标定方法的流程示意图。如图1所示,本发明实施例的所述方法可以包括以下步骤S101-步骤S104。
S101,计算参考平面的拟合函数中的拟合参数。
可以理解的是,上述参考平面可以是根据初始的相机配置参数所确定的机器人的参考平面,可选的,上述系统可以根据预设噪点阈值滤除参考平面中的离群点即噪点,例如,可以将距平面距离大于0.01或者0.02或者其他阈值的噪点滤除,上述离群点可以是参考平面中代表障碍物的像素点。
具体实现中,上述系统可以计算参考平面的拟合函数中的拟合参数,上述拟合函数可以是平面拟合的输入函数,例如可以是ax+by+cz+d=0(此函数相对world坐标系即机器人的真实坐标系)。
可以理解的是,上述系统可以将参考平面中的一些点带入ax+by+cz+d=0中,计算出拟合参数a,b,c,d的数值。
S102,根据上述拟合参数计算拟合平面相对于真实平面的第一转化矩阵。
具体的,上述系统可以根据上述拟合参数计算拟合平面相对于真实平面的第一转化矩阵,上述真实平面为机器人所在的真实地平面。
在可选实施例中,上述第一转化矩阵可以是T_B2x.inv(),包括平移转化矩阵和旋转转化矩阵。上述系统可以根据拟合参数a,b,c,d计算出第一中间参数z0、第二中间参数v1和第三中间参数v2,其中,z0=-d/c,v1=(0,0,1),v2=(a,b,c)。进一步的,可以根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵T_B2x.translation,例如,T_B2x.translation(平移转化)=(0,0,z0),可以根据v1和v2计算拟合平面相对于真实平面的旋转转化的旋转向量和旋转转化的旋转角度,例如,T_B2x.rotation(旋转转化的旋转向量)=v1×v2,T_B2x.rotation(旋转转化的旋转角度)=v1·v2/(abs(v1)abs(v2))。
S103,根据第一转化矩阵和由上述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵。
可以理解的是,上述系统可以根据相机的配置参数确定原配置的转化矩阵及第二转化矩阵,例如可以是T_cam02base。
具体的,上述系统可以根据上述第一转化矩阵和第二转化矩阵计算标定校准后的第三转化矩阵,假设标定校准后的第三转化矩阵为T_cam2base,则T_cam2base=T_B2x.inv()*T_cam02base。需要说明的是,上述系统可以将第三转化矩阵的逆矩阵作为相机相对于真实坐标系的校准矩阵。
S104,根据第三转化矩阵获取相机校准后的标定参数。
可以理解的是,上述系统可以根据第三转化矩阵获取相机校准后的标定参数,上述标定参数可以是包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z,即(roll、pitch、x、y、z)。
可以理解的是,上述标定的过程是在1s内的取1帧传感器数据进行的标定过程。为了降低个别数据带来的误差,上述系统可以将收集到的传感器数据在1s内取值20帧,将T_cam2base矩阵相对于原始的配置矩阵的旋转矩阵转换为旋转角度delta-angle,取中位值作为最终的(roll、pitch、x、y、z)计算和校准结果。
在可选实施例中,上述系统可以对相机安装中产生的水平方向信息yaw进行标定,例如,可以计算离群点平面的拟合函数中的新拟合参数,其中,离群点平面为滤除掉的离群点组成的平面,再根据新拟合参数计算离群点平面相对于真实平面的水平方向信息yaw,然后结合单线激光观察墙壁得出的斜率求得yaw’(激光相对于base),从而可以联合标定出机相对于激光的水平yaw转化值,将此值与上述已经求得的(roll、pitch、x、y、z)结合,可以完全得到最终结果。
在本发明实施例中,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,无需借助工具实现了自动高效地标定相机参数。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
下面将结合附图2和附图3,对本发明实施例提供的深度相机的标定系统进行详细介绍。需要说明的是,附图2和附图3所示的深度相机的标定系统,用于执行本发明图1所示实施例的方法,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明图1所示的实施例。
请参见图2,为本发明实施例提供了一种深度相机的标定系统的结构示意图。如图2所示,本发明实施例的所述标定系统10可以包括:拟合参数计算模块101、矩阵计算模块102、矩阵标定模块103、标定参数获取模块104、噪点滤除模块105、新参数计算模块106、水平信息提取模块107、水平转化值标定模块108和最终标定参数确定模块109。其中,矩阵计算模块102如图3所示,包括中间参数计算单元1021、平移转化单元1022和旋转转化单元1023。
拟合参数计算模块101,用于计算参考平面的拟合函数中的拟合参数。
可以理解的是,上述参考平面可以是根据初始的相机配置参数所确定的机器人的参考平面,可选的,噪点滤除模块105可以根据预设噪点阈值滤除参考平面中的离群点即噪点,例如,可以将距平面距离大于0.01或者0.02或者其他阈值的噪点滤除,上述离群点可以是参考平面中代表障碍物的像素点。
具体实现中,拟合参数计算模块101可以计算参考平面的拟合函数中的拟合参数,上述拟合函数可以是平面拟合的输入函数,例如可以是ax+by+cz+d=0(此函数相对world坐标系即机器人的真实坐标系)。
可以理解的是,上述系统可以将参考平面中的一些点带入ax+by+cz+d=0中,计算出拟合参数a,b,c,d的数值。
矩阵计算模块102,用于根据上述拟合参数计算拟合平面相对于真实平面的第一转化矩阵。
具体实现中,矩阵计算模块102可以根据上述拟合参数计算拟合平面相对于真实平面的第一转化矩阵,上述真实平面为机器人所在的真实地平面。
在可选实施例中,上述第一转化矩阵可以是T_B2x.inv(),包括平移转化矩阵和旋转转化矩阵。中间参数计算单元1021可以根据拟合参数a,b,c,d计算出第一中间参数z0、第二中间参数v1和第三中间参数v2,其中,z0=-d/c,v1=(0,0,1),v2=(a,b,c)。进一步的,平移转化单元1022可以根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵T_B2x.translation,例如,T_B2x.translation(平移转化)=(0,0,z0),旋转转化单元1023可以根据v1和v2计算拟合平面相对于真实平面的旋转转化的旋转向量和旋转转化的旋转角度,例如,T_B2x.rotation(旋转转化的旋转向量)=v1×v2,T_B2x.rotation(旋转转化的旋转角度)=v1·v2/(abs(v1)abs(v2))。
矩阵标定模块103,用于根据第一转化矩阵和由上述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵。
可以理解的是,上述系统10可以根据相机的配置参数确定原配置的转化矩阵及第二转化矩阵,例如可以是T_cam02base。
具体实现中,矩阵标定模块103可以根据上述第一转化矩阵和第二转化矩阵计算标定校准后的第三转化矩阵,假设标定校准后的第三转化矩阵为T_cam2base,则T_cam2base=T_B2x.inv()*T_cam02base。需要说明的是,上述系统10可以将第三转化矩阵的逆矩阵作为相机相对于真实坐标系的校准矩阵。
标定参数获取模块104,用于根据第三转化矩阵获取相机校准后的标定参数。
可以理解的是,标定参数获取模块104可以根据第三转化矩阵获取相机校准后的标定参数,上述标定参数可以是包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z,即(roll、pitch、x、y、z)。
可以理解的是,上述标定的过程是在1s内的取1帧传感器数据进行的标定过程。为了降低个别数据带来的误差,上述系统10可以将收集到的传感器数据在1s内取值20帧,将T_cam2base矩阵相对于原始的配置矩阵的旋转矩阵转换为旋转角度delta-angle,取中位值作为最终的(roll、pitch、x、y、z)计算和校准结果。
在可选实施例中,上述系统10可以对相机安装中产生的水平方向信息yaw进行标定,例如,新参数计算模块106可以计算离群点平面的拟合函数中的新拟合参数,其中,离群点平面为滤除掉的离群点组成的平面,水平信息提取模块107根据新拟合参数计算离群点平面相对于真实平面的水平方向信息yaw,然后水平转化值标定模块108结合单线激光观察墙壁得出的斜率求得yaw’(激光相对于base),从而可以联合标定出机相对于激光的水平yaw转化值,最终标定参数确定模块109可以将此值与上述已经求得的(roll、pitch、x、y、z)结合,完全得到最终结果。
在本发明实施例中,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,无需借助工具实现了自动高效地标定相机参数。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (10)
1.一种深度相机的标定方法,其特征在于,包括:
计算参考平面的拟合函数中的拟合参数,所述参考平面为根据相机配置参数确定的机器人的参考平面;
根据所述拟合参数计算拟合平面相对于真实平面的第一转化矩阵,所述真实平面为机器人所在的真实地平面;
所述第一转化矩阵为T_B2x.inv(),所述第一转化矩阵包括平移转化矩阵和旋转转化矩阵;
根据所述拟合参数计算拟合平面相对于真实平面的第一转化矩阵包括:根据拟合参数a,b,c,d计算出第一中间参数z0、第二中间参数v1和第三中间参数v2,其中,z0=-d/c,v1=(0,0,1),v2=(a,b,c);根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵=(0,0,z0);根据v1和v2计算拟合平面相对于真实平面的旋转转化的旋转向量和旋转转化的旋转角度;所述旋转转化的旋转向量=v1×v2;所述旋转转化的旋转角度=v1·v2/(abs(v1)abs(v2));
根据所述第一转化矩阵和由所述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵;
所述第二转化矩阵为T_cam02base,所述标定校准后的第三转化矩阵为T_cam2base;
所述根据所述第一转化矩阵和由所述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵包括:T_cam2base=T_B2x.inv()*T_cam02base;
根据所述第三转化矩阵获取相机校准后的标定参数。
2.根据如权利要求1所述的方法,其特征在于,所述方法还包括:
基于预设噪点阈值滤除所述参考平面中的离群点,所述离群点为所述参考平面中代表障碍物的像素点。
3.根据如权利要求1所述的方法,其特征在于,所述根据所述拟合参数计算所述拟合平面相对于真实平面的第一转化矩阵,包括:
根据所述拟合参数计算第一中间参数z0、第二中间参数v1和第三中间参数v2;
根据所述第一中间参数z0确定所述拟合平面相对于真实平面的平移转化矩阵;
根据所述第二中间参数v1和所述第三中间参数v2计算所述拟合平面相对于真实平面的旋转转化矩阵的旋转向量和旋转角度。
4.根据如权利要求1所述的方法,其特征在于:
所述标定参数包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z。
5.根据如权利要求2所述的方法,其特征在于,所述方法还包括:
计算离群点平面的拟合函数中的新拟合参数,所述离群点平面为滤除掉的离群点组成的平面;
根据所述新拟合参数计算所述离群点平面相对于所述真实平面的水平方向信息yaw;
基于所述水平方向信息的斜率yaw’联合标定相机相对于激光的水平yaw转化值;
结合所述yaw转化值得到相机校准后的最终标定参数。
6.一种深度相机的标定系统,其特征在于,包括:
拟合参数计算模块,用于计算参考平面的拟合函数中的拟合参数,所述参考平面为根据相机配置参数确定的机器人的参考平面;
矩阵计算模块,用于根据所述拟合参数计算拟合平面相对于真实平面的第一转化矩阵,所述真实平面为机器人所在的真实地平面;
所述第一转化矩阵为T_B2x.inv(),所述第一转化矩阵包括平移转化矩阵和旋转转化矩阵;
根据所述拟合参数计算拟合平面相对于真实平面的第一转化矩阵包括:根据拟合参数a,b,c,d计算出第一中间参数z0、第二中间参数v1和第三中间参数v2,其中,z0=-d/c,v1=(0,0,1),v2=(a,b,c);根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵=(0,0,z0);根据v1和v2计算拟合平面相对于真实平面的旋转转化的旋转向量和旋转转化的旋转角度;所述旋转转化的旋转向量=v1×v2;所述旋转转化的旋转角度=v1·v2/(abs(v1)abs(v2));
矩阵标定模块,用于根据所述第一转化矩阵和由所述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵;
所述第二转化矩阵为T_cam02base,所述标定校准后的第三转化矩阵为T_cam2base;
所述根据所述第一转化矩阵和由所述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵包括:T_cam2base=T_B2x.inv()*T_cam02base;
标定参数获取模块,用于根据所述第三转化矩阵获取相机校准后的标定参数。
7.根据如权利要求6所述的系统,其特征在于,所述系统还包括:
噪点滤除模块,用于基于预设噪点阈值滤除所述参考平面中的离群点,所述离群点为所述参考平面中代表障碍物的像素点。
8.根据如权利要求6所述的系统,其特征在于,所述矩阵计算模块包括:
中间参数计算单元,用于根据所述拟合参数计算第一中间参数z0、第二中间参数v1和第三中间参数v2;
平移转化单元,用于根据所述第一中间参数z0确定所述拟合平面相对于真实平面的平移转化矩阵;
旋转转化单元,用于根据所述第二中间参数v1和所述第三中间参数v2计算所述拟合平面相对于真实平面的旋转转化矩阵的旋转向量和旋转角度。
9.根据如权利要求6所述的系统,其特征在于:
所述标定参数包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z。
10.根据如权利要求7所述的系统,其特征在于,所述系统还包括:
新参数计算模块,用于计算离群点平面的拟合函数中的新拟合参数,所述离群点平面为滤除掉的离群点组成的平面;
水平信息提取模块,用于根据所述新拟合参数计算所述离群点平面相对于所述真实平面的水平方向信息yaw;
水平转化值标定模块,用于基于所述水平方向信息的斜率yaw’联合标定相机相对于激光的水平yaw转化值;
最终标定参数确定模块,用于结合所述yaw转化值得到相机校准后的最终标定参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910363877.XA CN110232714B (zh) | 2019-04-30 | 2019-04-30 | 深度相机的标定方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910363877.XA CN110232714B (zh) | 2019-04-30 | 2019-04-30 | 深度相机的标定方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110232714A CN110232714A (zh) | 2019-09-13 |
CN110232714B true CN110232714B (zh) | 2021-07-20 |
Family
ID=67861137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910363877.XA Active CN110232714B (zh) | 2019-04-30 | 2019-04-30 | 深度相机的标定方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110232714B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445536A (zh) * | 2020-05-13 | 2020-07-24 | 武汉夕睿光电技术有限公司 | 一种3d相机的标定装置和方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1801953A (zh) * | 2005-12-15 | 2006-07-12 | 上海交通大学 | 仅用一幅平面标定物图像的摄像机标定方法 |
CN104376558A (zh) * | 2014-11-13 | 2015-02-25 | 浙江大学 | 一种基于长方体的Kinect深度相机的内参标定方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2154650A1 (en) * | 2008-08-12 | 2010-02-17 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | 3D time-of-flight camera system and position/orientation calibration method therefor |
-
2019
- 2019-04-30 CN CN201910363877.XA patent/CN110232714B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1801953A (zh) * | 2005-12-15 | 2006-07-12 | 上海交通大学 | 仅用一幅平面标定物图像的摄像机标定方法 |
CN104376558A (zh) * | 2014-11-13 | 2015-02-25 | 浙江大学 | 一种基于长方体的Kinect深度相机的内参标定方法 |
Non-Patent Citations (2)
Title |
---|
Auto-calibration of depth camera networks for people tracking;Otto Korkalo et al.;《Machine Vision and Applications》;20190328;第671–688页 * |
基于多传感器融合的室内三维重建系统;刘丽颖;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180815;第2018年卷(第8期);第671–688页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110232714A (zh) | 2019-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022022694A1 (zh) | 自动驾驶环境感知方法及系统 | |
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
US10436884B2 (en) | Calibration of laser and vision sensors | |
EP3629057A2 (en) | Method and apparatus for calibrating relative pose and medium | |
CN107481292B (zh) | 车载摄像头的姿态误差估计方法和装置 | |
CN107567412B (zh) | 利用汽车相机使用车辆运动数据的对象位置测量 | |
CN105021124B (zh) | 一种基于深度图的平面零件三维位置和法向量计算方法 | |
CN113657224B (zh) | 车路协同中用于确定对象状态的方法、装置、设备 | |
KR102054455B1 (ko) | 이종 센서 간의 캘리브레이션 장치 및 방법 | |
CN112837352B (zh) | 基于图像的数据处理方法、装置及设备、汽车、存储介质 | |
EP2930688A1 (en) | Disparity deriving apparatus, movable apparatus, robot, method of deriving disparity, method of producing disparity, and carrier medium | |
CN107885224A (zh) | 基于三目立体视觉的无人机避障方法 | |
CN111578958A (zh) | 移动机器人导航实时定位方法、系统、介质及电子设备 | |
CN112017248B (zh) | 一种基于点线特征的2d激光雷达相机多帧单步标定方法 | |
KR102490521B1 (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
CN114179788A (zh) | 自动泊车方法、系统、计算机可读存储介质及车机端 | |
WO2021063756A1 (en) | Improved trajectory estimation based on ground truth | |
CN113218408A (zh) | 适用于多地形的多传感器融合的2Dslam方法及其系统 | |
CN110232714B (zh) | 深度相机的标定方法及系统 | |
EP2913999A1 (en) | Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium | |
CN115937449A (zh) | 高精地图生成方法、装置、电子设备和存储介质 | |
CN115372947A (zh) | 针对自动驾驶车辆惯导及激光雷达的标定方法及标定系统 | |
CN111736137B (zh) | LiDAR外部参数标定方法、系统、计算机设备及可读存储介质 | |
CN114882119A (zh) | 相机外参标定方法、装置、计算机设备和存储介质 | |
CN117611762B (zh) | 一种多层级地图构建方法、系统及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089 Patentee after: Beijing Yunji Technology Co.,Ltd. Address before: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089 Patentee before: BEIJING YUNJI TECHNOLOGY Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |