CN110232714A - 深度相机的标定方法及系统 - Google Patents
深度相机的标定方法及系统 Download PDFInfo
- Publication number
- CN110232714A CN110232714A CN201910363877.XA CN201910363877A CN110232714A CN 110232714 A CN110232714 A CN 110232714A CN 201910363877 A CN201910363877 A CN 201910363877A CN 110232714 A CN110232714 A CN 110232714A
- Authority
- CN
- China
- Prior art keywords
- matrix
- calibration
- camera
- outlier
- transformed matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 239000011159 matrix material Substances 0.000 claims abstract description 107
- 238000006243 chemical reaction Methods 0.000 claims description 26
- 230000004888 barrier function Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000004088 simulation Methods 0.000 abstract description 16
- 230000006870 function Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000005299 abrasion Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开一种深度相机的标定方法及系统,其中方法包括如下步骤:根据相机的配置参数确定一参考平面,基于预设噪点阈值滤除参考平面中的离群点,然后计算参考平面的拟合函数中的拟合参数,再根据拟合参数计算拟合平面相对于真实平面的第一转化矩阵,根据第一转化矩阵和由上述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵,根据第三转化矩阵获取相机校准后的标定参数。采用本发明,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,可以无需借助工具实现自动高效地标定相机参数。
Description
技术领域
本发明涉及机器人导航技术领域,尤其涉及一种深度相机的标定方法及系统。
背景技术
在机器人导航技术中,相机相对于机器人本机的安装精确在相同产线生产的机器人中,也各自有相应的公差差异,其差异会严重影响机器人使用其传感数据的准确性。为了使机器人能够更准确的使用标定摄像机(RGBD相机)的数据,需要找个“标定”摄像机坐标系相对于机器人“基坐标系”切实有效并且操作效率较高的办法。
现有的标定摄像机的方式有如下特点,一是需要借助于特定的“工装治具”或者“视觉标定板”、“红外光源等探照设备”才能进行;二是在标定过程中需要大量的人工标定或流水线配合时间;三是在机器人长时间在环境中运行之后,由于轮式结构的磨损或者执行了拆装过程,导致的标定结果偏差无法重新再次校准。
发明内容
本发明实施例提供一种深度相机的标定方法及系统,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,可以无需借助工具实现自动高效地标定相机参数。
本发明实施例第一方面提供了一种深度相机的标定方法,可包括:
计算参考平面的拟合函数中的拟合参数,参考平面为根据相机配置参数确定的机器人的参考平面;
根据拟合参数计算拟合平面相对于真实平面的第一转化矩阵,真实平面为机器人所在的真实地平面;
根据第一转化矩阵和由配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵;
根据第三转化矩阵获取相机校准后的标定参数。
进一步的,上述方法还包括:
基于预设噪点阈值滤除参考平面中的离群点,离群点为参考平面中代表障碍物的像素点。
进一步的,上述根据拟合参数计算拟合平面相对于真实平面的第一转化矩阵,包括:
根据拟合参数计算第一中间参数z0、第二中间参数v1和第三中间参数v2;
根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵;
根据第二中间参数v1和第三中间参数v2计算拟合平面相对于真实平面的旋转转化矩阵的旋转向量和旋转角度。
进一步的,上述标定参数包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z。
进一步的,上述方法还包括:
计算离群点平面的拟合函数中的新拟合参数,离群点平面为滤除掉的离群点组成的平面;
根据新拟合参数计算离群点平面相对于真实平面的水平方向信息yaw;
基于水平方向信息的斜率yaw’联合标定相机相对于激光的水平yaw转化值;
结合yaw转化值得到相机校准后的最终标定参数。
本发明实施例第二方面提供了一种深度相机的标定系统,可包括:
拟合参数计算模块,用于计算参考平面的拟合函数中的拟合参数,参考平面为根据相机配置参数确定的机器人的参考平面;
矩阵计算模块,用于根据拟合参数计算拟合平面相对于真实平面的第一转化矩阵,真实平面为机器人所在的真实地平面;
矩阵标定模块,用于根据第一转化矩阵和由配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵;
标定参数获取模块,用于根据第三转化矩阵获取相机校准后的标定参数。
进一步的,上述系统还包括:
噪点滤除模块,用于基于预设噪点阈值滤除参考平面中的离群点,离群点为参考平面中代表障碍物的像素点。
进一步的,上述矩阵计算模块包括:
中间参数计算单元,用于根据拟合参数计算第一中间参数z0、第二中间参数v1和第三中间参数v2;
平移转化单元,用于根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵;
旋转转化单元,用于根据第二中间参数v1和第三中间参数v2计算拟合平面相对于真实平面的旋转转化矩阵的旋转向量和旋转角度。
进一步的,上述标定参数包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z。
进一步的,上述系统还包括:
新参数计算模块,用于计算离群点平面的拟合函数中的新拟合参数,离群点平面为滤除掉的离群点组成的平面;
水平信息提取模块,用于根据新拟合参数计算离群点平面相对于真实平面的水平方向信息yaw;
水平转化值标定模块,用于基于水平方向信息的斜率yaw’联合标定相机相对于激光的水平yaw转化值;
最终标定参数确定模块,用于结合yaw转化值得到相机校准后的最终标定参数。
在本发明实施例中,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,无需借助工具实现了自动高效地标定相机参数。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1是本发明实施例提供的一种深度相机的标定方法的流程示意图;
图2是本发明实施例提供的一种深度相机的标定系统的结构示意图;
图3是本发明实施例提供的矩阵计算模块的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明实施例提供的基于点云数据的障碍物识别方法可以应用于在机器人自主避障中识别微小障碍物的应用场景中。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面将结合附图1,对本发明实施例提供的深度相机的标定方法进行详细介绍。
请参见图1,为本发明实施例提供了一种深度相机的标定方法的流程示意图。如图1所示,本发明实施例的所述方法可以包括以下步骤S101-步骤S104。
S101,计算参考平面的拟合函数中的拟合参数。
可以理解的是,上述参考平面可以是根据初始的相机配置参数所确定的机器人的参考平面,可选的,上述系统可以根据预设噪点阈值滤除参考平面中的离群点即噪点,例如,可以将距平面距离大于0.01或者0.02或者其他阈值的噪点滤除,上述离群点可以是参考平面中代表障碍物的像素点。
具体实现中,上述系统可以计算参考平面的拟合函数中的拟合参数,上述拟合函数可以是平面拟合的输入函数,例如可以是ax+by+cz+d=0(此函数相对world坐标系即机器人的真实坐标系)。
可以理解的是,上述系统可以将参考平面中的一些点带入ax+by+cz+d=0中,计算出拟合参数a,b,c,d的数值。
S102,根据上述拟合参数计算拟合平面相对于真实平面的第一转化矩阵。
具体的,上述系统可以根据上述拟合参数计算拟合平面相对于真实平面的第一转化矩阵,上述真实平面为机器人所在的真实地平面。
在可选实施例中,上述第一转化矩阵可以是T_B2x.inv(),包括平移转化矩阵和旋转转化矩阵。上述系统可以根据拟合参数a,b,c,d计算出第一中间参数z0、第二中间参数v1和第三中间参数v2,其中,z0=-d/c,v1=(0,0,1),v2=(a,b,c)。进一步的,可以根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵T_B2x.translation,例如,T_B2x.translation(平移转化)=(0,0,z0),可以根据v1和v2计算拟合平面相对于真实平面的旋转转化的旋转向量和旋转转化的旋转角度,例如,T_B2x.rotation(旋转转化的旋转向量)=v1×v2,T_B2x.rotation(旋转转化的旋转角度)=v1·v2/(abs(v1)abs(v2))。
S103,根据第一转化矩阵和由上述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵。
可以理解的是,上述系统可以根据相机的配置参数确定原配置的转化矩阵及第二转化矩阵,例如可以是T_cam02base。
具体的,上述系统可以根据上述第一转化矩阵和第二转化矩阵计算标定校准后的第三转化矩阵,假设标定校准后的第三转化矩阵为T_cam2base,则T_cam2base=T_B2x.inv()*T_cam02base。需要说明的是,上述系统可以将第三转化矩阵的逆矩阵作为相机相对于真实坐标系的校准矩阵。
S104,根据第三转化矩阵获取相机校准后的标定参数。
可以理解的是,上述系统可以根据第三转化矩阵获取相机校准后的标定参数,上述标定参数可以是包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z,即(roll、pitch、x、y、z)。
可以理解的是,上述标定的过程是在1s内的取1帧传感器数据进行的标定过程。为了降低个别数据带来的误差,上述系统可以将收集到的传感器数据在1s内取值20帧,将T_cam2base矩阵相对于原始的配置矩阵的旋转矩阵转换为旋转角度delta-angle,取中位值作为最终的(roll、pitch、x、y、z)计算和校准结果。
在可选实施例中,上述系统可以对相机安装中产生的水平方向信息yaw进行标定,例如,可以计算离群点平面的拟合函数中的新拟合参数,其中,离群点平面为滤除掉的离群点组成的平面,再根据新拟合参数计算离群点平面相对于真实平面的水平方向信息yaw,然后结合单线激光观察墙壁得出的斜率求得yaw’(激光相对于base),从而可以联合标定出机相对于激光的水平yaw转化值,将此值与上述已经求得的(roll、pitch、x、y、z)结合,可以完全得到最终结果。
在本发明实施例中,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,无需借助工具实现了自动高效地标定相机参数。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
下面将结合附图2和附图3,对本发明实施例提供的深度相机的标定系统进行详细介绍。需要说明的是,附图2和附图3所示的深度相机的标定系统,用于执行本发明图1所示实施例的方法,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明图1所示的实施例。
请参见图2,为本发明实施例提供了一种深度相机的标定系统的结构示意图。如图2所示,本发明实施例的所述标定系统10可以包括:拟合参数计算模块101、矩阵计算模块102、矩阵标定模块103、标定参数获取模块104、噪点滤除模块105、新参数计算模块106、水平信息提取模块107、水平转化值标定模块108和最终标定参数确定模块109。其中,矩阵计算模块102如图3所示,包括中间参数计算单元1021、平移转化单元1022和旋转转化单元1023。
拟合参数计算模块101,用于计算参考平面的拟合函数中的拟合参数。
可以理解的是,上述参考平面可以是根据初始的相机配置参数所确定的机器人的参考平面,可选的,噪点滤除模块105可以根据预设噪点阈值滤除参考平面中的离群点即噪点,例如,可以将距平面距离大于0.01或者0.02或者其他阈值的噪点滤除,上述离群点可以是参考平面中代表障碍物的像素点。
具体实现中,拟合参数计算模块101可以计算参考平面的拟合函数中的拟合参数,上述拟合函数可以是平面拟合的输入函数,例如可以是ax+by+cz+d=0(此函数相对world坐标系即机器人的真实坐标系)。
可以理解的是,上述系统可以将参考平面中的一些点带入ax+by+cz+d=0中,计算出拟合参数a,b,c,d的数值。
矩阵计算模块102,用于根据上述拟合参数计算拟合平面相对于真实平面的第一转化矩阵。
具体实现中,矩阵计算模块102可以根据上述拟合参数计算拟合平面相对于真实平面的第一转化矩阵,上述真实平面为机器人所在的真实地平面。
在可选实施例中,上述第一转化矩阵可以是T_B2x.inv(),包括平移转化矩阵和旋转转化矩阵。中间参数计算单元1021可以根据拟合参数a,b,c,d计算出第一中间参数z0、第二中间参数v1和第三中间参数v2,其中,z0=-d/c,v1=(0,0,1),v2=(a,b,c)。进一步的,平移转化单元1022可以根据第一中间参数z0确定拟合平面相对于真实平面的平移转化矩阵T_B2x.translation,例如,T_B2x.translation(平移转化)=(0,0,z0),旋转转化单元1023可以根据v1和v2计算拟合平面相对于真实平面的旋转转化的旋转向量和旋转转化的旋转角度,例如,T_B2x.rotation(旋转转化的旋转向量)=v1×v2,T_B2x.rotation(旋转转化的旋转角度)=v1·v2/(abs(v1)abs(v2))。
矩阵标定模块103,用于根据第一转化矩阵和由上述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵。
可以理解的是,上述系统10可以根据相机的配置参数确定原配置的转化矩阵及第二转化矩阵,例如可以是T_cam02base。
具体实现中,矩阵标定模块103可以根据上述第一转化矩阵和第二转化矩阵计算标定校准后的第三转化矩阵,假设标定校准后的第三转化矩阵为T_cam2base,则T_cam2base=T_B2x.inv()*T_cam02base。需要说明的是,上述系统10可以将第三转化矩阵的逆矩阵作为相机相对于真实坐标系的校准矩阵。
标定参数获取模块104,用于根据第三转化矩阵获取相机校准后的标定参数。
可以理解的是,标定参数获取模块104可以根据第三转化矩阵获取相机校准后的标定参数,上述标定参数可以是包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z,即(roll、pitch、x、y、z)。
可以理解的是,上述标定的过程是在1s内的取1帧传感器数据进行的标定过程。为了降低个别数据带来的误差,上述系统10可以将收集到的传感器数据在1s内取值20帧,将T_cam2base矩阵相对于原始的配置矩阵的旋转矩阵转换为旋转角度delta-angle,取中位值作为最终的(roll、pitch、x、y、z)计算和校准结果。
在可选实施例中,上述系统10可以对相机安装中产生的水平方向信息yaw进行标定,例如,新参数计算模块106可以计算离群点平面的拟合函数中的新拟合参数,其中,离群点平面为滤除掉的离群点组成的平面,水平信息提取模块107根据新拟合参数计算离群点平面相对于真实平面的水平方向信息yaw,然后水平转化值标定模块108结合单线激光观察墙壁得出的斜率求得yaw’(激光相对于base),从而可以联合标定出机相对于激光的水平yaw转化值,最终标定参数确定模块109可以将此值与上述已经求得的(roll、pitch、x、y、z)结合,完全得到最终结果。
在本发明实施例中,通过拟合参考平面,计算拟合平面相对于真实平面的转化矩阵,再根据原配置矩阵和上述转化矩阵确定相机校准后的矩阵得到标定参数,无需借助工具实现了自动高效地标定相机参数。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (10)
1.一种深度相机的标定方法,其特征在于,包括:
计算参考平面的拟合函数中的拟合参数,所述参考平面为根据相机配置参数确定的机器人的参考平面;
根据所述拟合参数计算所述拟合平面相对于真实平面的第一转化矩阵,所述真实平面为机器人所在的真实地平面;
根据所述第一转化矩阵和由所述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵;
根据所述第三转化矩阵获取相机校准后的标定参数。
2.根据如权利要求1所述的方法,其特征在于,所述方法还包括:
基于预设噪点阈值滤除所述参考平面中的离群点,所述离群点为所述参考平面中代表障碍物的像素点。
3.根据如权利要求1所述的方法,其特征在于,所述根据所述拟合参数计算所述拟合平面相对于真实平面的第一转化矩阵,包括:
根据所述拟合参数计算第一中间参数z0、第二中间参数v1和第三中间参数v2;
根据所述第一中间参数z0确定所述拟合平面相对于真实平面的平移转化矩阵;
根据所述第二中间参数v1和所述第三中间参数v2计算所述拟合平面相对于真实平面的旋转转化矩阵的旋转向量和旋转角度。
4.根据如权利要求1所述的方法,其特征在于:
所述标定参数包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z。
5.根据如权利要求2所述的方法,其特征在于,所述方法还包括:
计算离群点平面的拟合函数中的新拟合参数,所述离群点平面为滤除掉的离群点组成的平面;
根据所述新拟合参数计算所述离群点平面相对于所述真实平面的水平方向信息yaw;
基于所述水平方向信息的斜率yaw’联合标定相机相对于激光的水平yaw转化值;
结合所述yaw转化值得到相机校准后的最终标定参数。
6.一种深度相机的标定系统,其特征在于,包括:
拟合参数计算模块,用于计算参考平面的拟合函数中的拟合参数,所述参考平面为根据相机配置参数确定的机器人的参考平面;
矩阵计算模块,用于根据所述拟合参数计算所述拟合平面相对于真实平面的第一转化矩阵,所述真实平面为机器人所在的真实地平面;
矩阵标定模块,用于根据所述第一转化矩阵和由所述配置参数确定的第二转化矩阵计算标定校准后的第三转化矩阵;
标定参数获取模块,用于根据所述第三转化矩阵获取相机校准后的标定参数。
7.根据如权利要求6所述的系统,其特征在于,所述系统还包括:
噪点滤除模块,用于基于预设噪点阈值滤除所述参考平面中的离群点,所述离群点为所述参考平面中代表障碍物的像素点。
8.根据如权利要求6所述的系统,其特征在于,所述矩阵计算模块包括:
中间参数计算单元,用于根据所述拟合参数计算第一中间参数z0、第二中间参数v1和第三中间参数v2;
平移转化单元,用于根据所述第一中间参数z0确定所述拟合平面相对于真实平面的平移转化矩阵;
旋转转化单元,用于根据所述第二中间参数v1和所述第三中间参数v2计算所述拟合平面相对于真实平面的旋转转化矩阵的旋转向量和旋转角度。
9.根据如权利要求6所述的系统,其特征在于:
所述标定参数包括绕x轴的标定roll,绕y轴的标定pitch,以及相机标定后的坐标点x,y,z。
10.根据如权利要求7所述的系统,其特征在于,所述系统还包括:
新参数计算模块,用于计算离群点平面的拟合函数中的新拟合参数,所述离群点平面为滤除掉的离群点组成的平面;
水平信息提取模块,用于根据所述新拟合参数计算所述离群点平面相对于所述真实平面的水平方向信息yaw;
水平转化值标定模块,用于基于所述水平方向信息的斜率yaw’联合标定相机相对于激光的水平yaw转化值;
最终标定参数确定模块,用于结合所述yaw转化值得到相机校准后的最终标定参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910363877.XA CN110232714B (zh) | 2019-04-30 | 2019-04-30 | 深度相机的标定方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910363877.XA CN110232714B (zh) | 2019-04-30 | 2019-04-30 | 深度相机的标定方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110232714A true CN110232714A (zh) | 2019-09-13 |
CN110232714B CN110232714B (zh) | 2021-07-20 |
Family
ID=67861137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910363877.XA Active CN110232714B (zh) | 2019-04-30 | 2019-04-30 | 深度相机的标定方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110232714B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445536A (zh) * | 2020-05-13 | 2020-07-24 | 武汉夕睿光电技术有限公司 | 一种3d相机的标定装置和方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1801953A (zh) * | 2005-12-15 | 2006-07-12 | 上海交通大学 | 仅用一幅平面标定物图像的摄像机标定方法 |
US20110205340A1 (en) * | 2008-08-12 | 2011-08-25 | Iee International Electronics & Engineering S.A. | 3d time-of-flight camera system and position/orientation calibration method therefor |
CN104376558A (zh) * | 2014-11-13 | 2015-02-25 | 浙江大学 | 一种基于长方体的Kinect深度相机的内参标定方法 |
-
2019
- 2019-04-30 CN CN201910363877.XA patent/CN110232714B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1801953A (zh) * | 2005-12-15 | 2006-07-12 | 上海交通大学 | 仅用一幅平面标定物图像的摄像机标定方法 |
US20110205340A1 (en) * | 2008-08-12 | 2011-08-25 | Iee International Electronics & Engineering S.A. | 3d time-of-flight camera system and position/orientation calibration method therefor |
CN104376558A (zh) * | 2014-11-13 | 2015-02-25 | 浙江大学 | 一种基于长方体的Kinect深度相机的内参标定方法 |
Non-Patent Citations (2)
Title |
---|
OTTO KORKALO ET AL.: "Auto-calibration of depth camera networks for people tracking", 《MACHINE VISION AND APPLICATIONS》 * |
刘丽颖: "基于多传感器融合的室内三维重建系统", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445536A (zh) * | 2020-05-13 | 2020-07-24 | 武汉夕睿光电技术有限公司 | 一种3d相机的标定装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110232714B (zh) | 2021-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108958233B (zh) | 一种感知模拟方法和装置 | |
CN107564069B (zh) | 标定参数的确定方法、装置及计算机可读存储介质 | |
JP6978330B2 (ja) | オブジェクト形状および設計からのずれの監視 | |
CN110264416A (zh) | 稀疏点云分割方法及装置 | |
CN109446892B (zh) | 基于深度神经网络的人眼注意力定位方法及系统 | |
CN108090572B (zh) | 一种海上风电场增强现实系统的控制方法 | |
CN106842216B (zh) | 一种基于Kinect与三维激光协同的工件位姿在线检测方法 | |
CN103175485A (zh) | 一种飞机涡轮发动机叶片修复机器人的视觉标定方法 | |
CN102184563B (zh) | 植物器官形态的三维扫描方法及扫描系统和装置 | |
CN112001958A (zh) | 基于有监督单目深度估计的虚拟点云三维目标检测方法 | |
CN111079765B (zh) | 一种基于深度图的稀疏点云稠密化及路面去除方法 | |
CN102842117A (zh) | 显微视觉系统中运动误差矫正方法 | |
CN104111071B (zh) | 基于激光测距与摄像机视觉融合的高精度位姿解算方法 | |
CN106097433A (zh) | 物体工业与影像模型的叠加方法及系统 | |
CN112388635B (zh) | 机器人多传感器融合感知与空间定位的方法、系统及装置 | |
CN113253246B (zh) | 一种激光雷达和相机的标定方法 | |
CN109407115A (zh) | 一种基于激光雷达的路面提取系统及其提取方法 | |
CN113327296A (zh) | 基于深度加权的激光雷达与相机在线联合标定方法 | |
CN115639547A (zh) | 多线激光雷达与gnss_ins联合标定方法、系统及介质 | |
CN111047652A (zh) | 一种快速的多tof相机外参标定方法和装置 | |
CN110232714A (zh) | 深度相机的标定方法及系统 | |
CN109961512B (zh) | 地形机载点云提取方法及装置 | |
CN111652261A (zh) | 一种多模态感知融合系统 | |
CN112258582B (zh) | 一种基于道路场景识别的相机姿态标定方法及装置 | |
CN111736137B (zh) | LiDAR外部参数标定方法、系统、计算机设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089 Patentee after: Beijing Yunji Technology Co.,Ltd. Address before: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089 Patentee before: BEIJING YUNJI TECHNOLOGY Co.,Ltd. |