CN113012238A - 一种多深度相机快速标定与数据融合的方法 - Google Patents
一种多深度相机快速标定与数据融合的方法 Download PDFInfo
- Publication number
- CN113012238A CN113012238A CN202110383164.7A CN202110383164A CN113012238A CN 113012238 A CN113012238 A CN 113012238A CN 202110383164 A CN202110383164 A CN 202110383164A CN 113012238 A CN113012238 A CN 113012238A
- Authority
- CN
- China
- Prior art keywords
- data
- camera
- calibration
- cameras
- calibration object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000004927 fusion Effects 0.000 title claims abstract description 29
- 230000009466 transformation Effects 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000013499 data model Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000003068 static effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims 1
- 239000013598 vector Substances 0.000 description 16
- 230000008569 process Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种多深度相机快速标定与数据融合的方法,属于3D视觉技术领域。本发明标定物的结构为:以一个正方体为基础,在所述正方体四个侧面和顶面分别居中布置了一个金字塔结构,所述金字塔结构包含多个平面,每一个面相对平面的夹角大于90度,以保证深度相机均能获得每个面的信息,将面的数据进行拟合,得出面的相交线。每个相机获得的相交线空间坐标与实际标定物匹配,从而实现相机外部参数的空间标定。本发明以一个主相机数据为基准,分组采集数据,以动态匹配拟合,采用匹配公共区域点云消除误差的方法进行数据融合,大大降低因被测物移动而使多相机之间的数据误差,提高了数据融合的精度。
Description
技术领域
本发明涉及3D视觉技术领域,尤其涉及一种多深度相机标定与数据融合的方法。
背景技术
深度相机是近年来发展的新型测量成像技术,这类相机在给出视野中彩色图像同时,给出三维点云数据,这些点云数据表示被测场景中的空间信息(x,y,z),通过这些点云数据,可以得出视野场景中被测物的3D数据。为了获得一个物体全方位的3D数据,通常采用多个相机,从不同角度和方位得到该物体的3D数据,然后将数据融合,获得被测物的三维数据。但每个相机得到的数据都是对应于该相机的空间位置而言,要将这些数据融合一体,就必须知道每个相机的空间位置(空间坐标+方向),这就是一个多相机的标定问题。常见的深度相机标定,需要采集一个标定物,或具有特征的目标摆放在多个方位的数据,然后进行数据计算,获得相机的坐标参数。虽然标定物可以简单,但操作复杂耗时,应用不便。
在标定好多相机系统后,每个相机所采集的3D数据就可以融合起来,形成被测物多方位的3D数据,形成该物体的3D模型。然而,现在的深度相机中,一大类是采用投射光斑或网格到被测目标上,然后通过成像分析来获得3D数据。因此,具有光斑干扰的相机不能同时开启,需要分时打开,逐个采集数据,这样就在成像过程中每个相机的数据采集都需要一点时间,如几分之一秒;所以多个相机并不能同时完成数据采集。当被测物有运动时,相机采集的数据就会有误差。另外,当标定的相机参数不够准确,或在标定后,相机的位置或方向有变化,也会导致数据融合的误差,也就是多个相机采集的数据不能准确的拼接在一起。一个误差现象就是两个相邻的相机,有被测物同一区域的交叉的数据,在融合后,交叉的数据不能重合。
发明内容
本发明提出一种多深度相机快速标定与数据融合的方法,解决应用中多深度相机的标定问题,和被测物有运动时,相机采集数据不能同步,导致数据融合误差的问题。
本发明提供的技术方案如下:
一种多深度相机快速标定方法,只需要标定物在一个位置的数据采集,实现所有相机的标定,包括如下步骤:
将相机分别正对标定物的四个侧面和顶面,使所述标定物位于多个所述相机确定的中间,每个相机能够对标定物的对应特征面获得数据,在所述标定物静止的情况下,每个所述相机采集数据,对采集的数据进行分析,提取特征面和交线,以此标定出每个相机的空间坐标。
优选的,所述标定物的结构为:以一个方体为基础,在所述方体四个侧面和顶面分别居中布置了一个金字塔结构,所述金字塔结构包含多个面,每一个面相对平面的夹角均大于90度。
优选的,所述多深度相机标定方法,包括如下步骤:
S1:对每个相机采集的点云数据,采用随机一致性抽样(RANSAC)算法提取标定物的每个面的数据集,求出平面参数;
S2:根据平面参数求出各个平面之间之间交线,可以是一条或多条;
S3:根据交线的数据,计算出相机与标定物的坐标对应关系;以一个相机为基准坐标,计算出其他每个相机的相对坐标,表达为一个变换矩阵;
S4:根据获得的坐标变换,将所有相机的数据拟合,获得标定物的三维数据模型,与标定物的实际参数比较,计算数据模型误差及标准差。
S5:从采集的数据中重新选择,获得更新的变换矩阵,再重复S4,进行迭代循环,获得误差达到要求的那一组坐标变换矩阵作为最终的计算结果。
一种多深度相机快速标定与数据融合的方法,其特征在于,以一个主相机(基准相机)数据为基准,分组进行数据采集,采用识别公共区域点云进行动态匹配拟合,迭代消除误差的方法进行。
优选的,所述多深度相机数据融合的方法,采用相机配对采集的方法实现两个相机近似同步(间隔时间很短)的数据采集,然后以目标上的标记,找出一个相机的基准坐标,实现不同相机的数据匹配融合,包括如下步骤:
S1:目标被测物在基准相机面(实现例为顶部相机)标记三个或更多的标记点,该标记点易被相机识别和定位;
S2:每一个相机分别与基准相机配对采集;
S3:处理每对相机的数据,首先从基准相机数据中识别标记点,利用聚类算法计算中心坐标,建立每对数据的坐标系;
S4:将每对相机的数据进行坐标变换,修正因为目标可能有位移导致的误差,
进行数据匹配融合。
通过采用以上技术方案,达到如下技术效果:
本发明以一个具有金字塔特征面的标定物,实现多深度相机的一次性快速标定,具有简单易用的优点;采用一个主相机的数据为基准,对其他相机数据融合时采用匹配拟合的方法,提高标定的精度。在实际成像时,采用相机分组的方法,解决深度相机相互干扰,不能同步采集的问题,并以特征点的提取法,获得每对相机数据的坐标系,然后进行多相机的坐标换算和匹配,有效的解决多相机数据采集不同步,而被测目标有运动导致的数据融合问题,降低匹配误差,提高融合精度。
附图说明
图1是本发明检测过程结构示意图;
图2是图像形成过程示意图;
图3是标定物及标定原理示意图;
图4是交点坐标示意图;
图5是被测物测量时标记方法示意图;
图6是融合后的3D图像示意图。
具体实施方式
一种多深度相机快速标定与数据融合的方法,其特征在于,以一个特制的标定物,只需在一个位置采集数据即完成标定;以一个主相机数据为基准,分组进行数据采集,对其他相机数据融合时进行动态匹配拟合。
一种多深度相机快速标定方法,包括如下步骤:
将相机分别正对标定物的四个侧面和顶面,使所述标定物位于多个所述相机确定的视野范围内,在所述标定物静止的情况下,多个所述相机轮流采集数据,连续采集多轮后,停止采集,完成标定。
优选的,所述标定物的结构为:以一个正方体为基础,在所述正方体四个侧面和顶面分别居中布置了一个金字塔结构,所述金字塔结构的四个面完全相同,每一个面相对平面的夹角均大于90度,如106°。
优选的,所述多深度相机标定方法,包括如下步骤:
S1:采用随机一致性抽样算法提取标定物正对相机的每一个面的点云,求出平面参数;
S2:根据平面参数求出各个平面之间彼此的交点坐标;
S3:求出相机坐标系、标定物在各个相机中的局部坐标系的变换关系,此关系为一个齐次坐标变换矩阵,并求出逆矩阵;
S4:根据获得的坐标变换,将所有相机的数据拟合,获得标定物的三维数据模型,与标定物的实际参数比较,计算数据模型误差及标准差;
S5:从采集的数据中重新选择,获得更新的变换矩阵,,重复步骤S4,进行迭代循环,选择误差达到要求的那一组位置变化关系作为最终的计算结果。
一种多深度相机数据融合的方法,其特征在于,采用匹配公共区域点云,迭代消除误差的方法进行。
优选的,所述多深度相机数据融合的方法,包括如下步骤:
S1:目标被测物顶部标记三个或更多的标记点,该标记点易被相机识别和定位;
S2:每一个侧面相机分别与顶部相机配对采集;
S3:处理每对相机的数据,首先从顶部相机数据中识别标记点,利用聚类算法计算中心坐标,建立每对数据的坐标系;
S4:将每对相机的数据进行坐标变换,修正因为目标可能有位移导致的误差,
进行数据匹配融合。
下面通过的实施例与本发明的技术方案进一步说明。
如图1所示,为了提高数据融合的精度,本发明以一个主相机即顶部相机camera4的数据为基准,对其他相机数据融合时就行动态匹配拟合的方法,能大大降低多相机之间的数据误差,提高融合精度。图2中A为camera1采集的图像,B为camera2采集的图像,C为camera1和camera2采集信息融合后的图像,D为多相机融合后得到的模型。
实施例1快速标定
标定物及其位置如图3所示,标定物在一个正方体的基础上,五个面分别居中布置了一个金字塔形状的形状,金字塔的四个面完全相同,每一个面相对平面夹角为106度。
标定时,首先将标定物放置于5个相机(camera0、camera1、camera2、camera3、camera4)所确定的中间,标定物的每个面正对相机,在标定物静止的情况下,5个相机轮流采集数据,每一轮每个相机轮流采集一次,重复多轮,再进行标定计算,完成标定。
原理说明如下:
a)系统自身确定一个缺损的局部坐标系,如下所示:局部坐标系的y轴正向指向camera0(相机0),z轴正向指向camera5(相机5),x轴正向指向camera1(相机1),camera2(相机2)和camera3(相机3)分别正对正立方体的其他两个面,各个轴的方向向量通过将金字塔四个面的方向向量相加得到,原点处于标定块正方体中心(如图3所示)。
b)单个相机处理一副点云时,首先采用随机一致性抽样算法(RANSAC)提取出正对相机的标定块的有效点云,去除环境干扰,如图3所示;再提取出分别属于不同平面的点云,并求出平面参数(Ai,Bi,Ci,Di),为一个矢量,i代表不同的面,i=0、1、2、3、4,一共5组,金字塔的4个面,和基准面;
c)根据求出的5组平面参数,求出各个平面之间彼此的交线坐标,可以通过计算多个面相交的特征点来确定,如图4所示。
特征交点坐标包括:
1)金字塔四个斜面相交所确定的顶点p0(中间点),求解如下超定方程组即可计算出:
A1*x+B1*y+C1*z+D1=0
A2*x+B2*y+C2*z+D2=0
A3*x+B3*y+C3*z+D3=0
A4*x+B4*y+C4*z+D4=0
2)金字塔四个斜面与基准面交叉的四个交点p1、p2、p3、p4,通过解如下四个方程组即可得到:
A0*x+B0*y+C0*z+D0=0
A1*x+B1*y+C1*z+D1=0
A3*x+B3*y+C3*z+D3=0
A0*x+B0*y+C0*z+D0=0
A1*x+B1*y+C1*z+D1=0
A4*x+B4*y+C4*z+D4=0
A0*x+B0*y+C0*z+D0=0
A2*x+B2*y+C2*z+D2=0
A4*x+B4*y+C4*z+D4=0
A0*x+B0*y+C0*z+D0=0
A2*x+B2*y+C2*z+D2=0
A3*x+B3*y+C3*z+D3=0
f)金字塔的方向向量可以通过将其四组斜面的方向向量相加再归一化,取得方向向量V;如果为相机0,则此时的局部坐标系y轴方向向量为Vy;
再取四个平面中方向向量x分量最小的两个平面方向向量v1、v2(x分量从大到小排列),求取x轴方向向量:Vx=v1 x v2;
再求取z轴方向向量:Vz=Vx x Vy;
P0点沿着方向向量V移动一定距离(正方体相对面的金字塔尖的距离d,预先设定),即可得到局部坐标系的原点:p0+0.5*v*d
g)针对其他四个相机采取和步骤e中类似的方法,分别得到标定块在各个相机中的局部坐标系参数;
h)针对各个相机分别求出相机坐标系和标定块局部坐标系的变换关系,此关系为一个齐次坐标变换矩阵,并求出逆矩阵;
i)求出各个相机到标定块的变换关系后,即可求出相机0和其他四个相机的相对位置关系,以相机1为例:相机1到标定块的位置关系为齐次坐标变换矩阵M1c,标定块到相机0的位置关系为齐次坐标变换矩阵Mc0,则相机1到相机0的位置关系为:M10=M1c*Mc0。
j)求出相机0和其他四个相机的位置关系后,将步骤c中求出的5个交点坐标(分别在1-4的相机坐标系内),变换得到在相机0下的坐标,并计算变换得到的点到面向相机0的面的点(步骤c得到)的距离,再比较与模型实际距离,得到误差e。
k)5个相机分别从采集的数据里选出一组数据,重复b)~j)步骤,比较交点与模型实际距离,得到误差,最后选出误差达到要求的那一组的位置关系作为最终结果。
实施例2动态匹配-融合
针对被测物体在测量时无法完全静止,而扫描仪各个相机采集数据时,有相互干扰的相机不能同时启用,需要分时进行,导致各个相机采集到的数据并不是目标在固定一个位置的同步数据。即便在标定完全准确的情况下,都会导致数据融合误差,针对这一问题,本发明提出一种综合相机的RBG彩色图像和深度数据的匹配方法,降低多相机点云融合误差的方法。
原理说明:
a)在这个应用例中,以顶部相机4为基准相机,也可以选择其他四个相机作为基准相机。
b)在被测目标顶部面对相机4的一面贴三个红色标记圆点,这些圆点容易被相机4采集的RGB图像识别,如图5所示。
c)将相机4与其他相机逐个进行配对工作,如相机0,测量目标时,相机0和相机4同步工作,此时相机4采集的点云记为cloud40,相机0采集的点云记为cloud0;两个相机的数据采集时差尽量小(如5ms以内),这样使两个相机的数据为目标在同一位置。接着相机1和相机4、相机2和相机4、相机3和相机4同步工作,完成数据采集,此时采集的点云记为cloud41和cloud1、cloud42和cloud2、cloud43和cloud3;此时一轮数据完成采集。
d)对每组采集到的数据,对相机4的数据进行处理,对于单幅点云,如cloud40,首先根据颜色信息,提取带有红色信息的点,再利用聚类算法,计算出每组点的中心坐标。
e)这三个点组成一个三角形的面,并以此形成一个坐标系;第一个点p0作为坐标原点o,即o=p;p0到p1的方向向量v1作为x轴方向向量Vx,计算公式为:Vx=p1-p0;p0到p2的方向向量v2与v1叉乘即可得到y轴方向向量Vy,计算公式为:Vy=v1 x v2;Vx和Vy叉乘即可得到z轴方向向量Vz,计算公式为:Vz=Vx x Vy;至此完成一幅点云的坐标系建立;
h)点云数据匹配。在得到每组数据中基准相机4的坐标系后,将相机0,1,2,3的数据进行匹配。例如,以cloud40为基准,计算cloud41坐标系变换到cloud40坐标系的齐次变换矩阵M1,并将cloud41按照齐次变换矩阵M10进行变换,得到cloud41tmp,再利用迭代最近邻算法(ICP算法)对cloud41tmp和cloud40进行匹配,得到齐次变换矩阵M2,将两次计算出的矩阵相乘可以得到最终齐次变换矩阵M10’=M2*M1;
i)对cloud42、cloud43重复步骤h,得到齐次变换矩阵M20’、M30’;
j)修正点云。在进行点云匹配时,以cloud0为基准,并对相机1-4采集的数据(其中相机4使用数据cloud40),根据已经标定出的相机位置关系相机1到相机0的位置变换矩阵为M10,相机2到相机0的位置变换矩阵为M20,相机3到相机0的位置变换矩阵为M30,相机4到相机0的位置变换关系为M40,进行刚体变换;再将刚体变换后的cloud1、cloud2、cloud3,再乘以M10、M20、M30,完成修正,具体计算过程如下式:
对于cloud1中的每个点pi进行如下变换:
pi=M10*M10’*pi
对于cloud2中的每个点pi进行如下变换:
pi=M20*M20’*pi
对于cloud3中的每个点pi进行如下变换:
pi=M30*M30’*pi
再将变换后的cloud1、cloud2、cloud3和cloud0合并到一起即可,如图6所示。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (6)
1.一种多深度相机快速标定与数据融合的方法,其特征在于,以一个主相机数据为基准,分组采集数据,以动态匹配拟合方法实现多相机的数据融合。
2.根据权利要求1所述的多深度相机快速标定方法,其特征在于,只需标定物在一个位置的数据采集,实现所有相机的标定,包括如下步骤:
使所述标定物位于每个所述相机的视野范围内,每个相机能够对标定物的对应特征面获得数据,在所述标定物静止的情况下,每个所述相机采集数据,对采集的数据进行分析,提取特征面和交线交点,以此标定出每个相机的空间坐标。
3.根据权利要求2所述的多深度相机快速标定方法,其特征在于,所述标定物的结构为:以一个方体为基础,在所述方体四个侧面和顶面分别居中布置了一个金字塔结构,所述金字塔结构包含多个面,每一个面相对平面的夹角均大于90度。
4.根据权利要求2所述的多深度相机快速标定方法,其特征在于,包括如下步骤:
S1:对每个相机采集的点云数据,采用随机一致性抽样算法提取标定物的每个面的数据集,求出平面参数;
S2:根据平面参数,求出相邻平面之间交线和交点,可以是一条或多条;
S3:根据交线的数据,计算出相机与标定物的坐标对应关系;以一个相机为基准坐标,计算出其他每个相机的相对坐标,表达为一个变换矩阵;
S4:根据获得的坐标变换,将所有相机的数据拟合,获得标定物的三维数据模型,与标定物的实际参数比较,计算数据模型误差及标准差;
S5:从采集的数据中重新选择,获得更新的变换矩阵,再重复S4,进行迭代循环,获得误差达到要求的那一组坐标变换矩阵作为最终的计算结果。
5.根据权利要求2所述的多深度相机数据融合的方法,其特征在于,采用匹配公共区域点云,迭代消除误差的方法进行。
6.根据权利要求5所述的多深度相机数据融合的方法,其特征在于,采用相机配对采集的方法实现两个相机近似同步的数据采集,然后以目标上的标记,找出一个相机的基准坐标,实现不同相机的数据匹配融合,具体包括如下步骤:
S1:目标被测物顶部标记三个或更多的标记点,该标记点易被相机识别和定位;
S2:每一个侧面相机分别与基准相机配对采集;
S3:处理每对相机的数据,首先从基准相机数据中识别标记点,利用聚类算法计算中心坐标,建立每对数据的坐标系;
S4:将每对相机的数据进行坐标变换,修正因为目标可能有位移导致的误差,进行数据匹配融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110383164.7A CN113012238B (zh) | 2021-04-09 | 2021-04-09 | 一种多深度相机快速标定与数据融合的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110383164.7A CN113012238B (zh) | 2021-04-09 | 2021-04-09 | 一种多深度相机快速标定与数据融合的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113012238A true CN113012238A (zh) | 2021-06-22 |
CN113012238B CN113012238B (zh) | 2024-04-16 |
Family
ID=76388173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110383164.7A Active CN113012238B (zh) | 2021-04-09 | 2021-04-09 | 一种多深度相机快速标定与数据融合的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113012238B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742141A (zh) * | 2022-03-30 | 2022-07-12 | 成都九洲迪飞科技有限责任公司 | 基于icp点云的多源信息数据融合研判方法 |
CN117252993A (zh) * | 2023-11-16 | 2023-12-19 | 中铁大桥局集团有限公司 | 特征点提取算法的验证方法、装置、电子设备及存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101299270A (zh) * | 2008-05-27 | 2008-11-05 | 东南大学 | 三维扫描系统中的多个摄像机同步快速标定方法 |
JP2009014628A (ja) * | 2007-07-06 | 2009-01-22 | Topcon Corp | 位置計測装置及び位置計測方法 |
CN104331894A (zh) * | 2014-11-19 | 2015-02-04 | 山东省科学院自动化研究所 | 一种基于双目立体视觉的机器人拆垛方法 |
US9674504B1 (en) * | 2015-12-22 | 2017-06-06 | Aquifi, Inc. | Depth perceptive trinocular camera system |
CN107194974A (zh) * | 2017-05-23 | 2017-09-22 | 哈尔滨工业大学 | 一种基于多次识别标定板图像的多目相机外参标定精度的提高方法 |
CN108648240A (zh) * | 2018-05-11 | 2018-10-12 | 东南大学 | 基于点云特征地图配准的无重叠视场相机姿态标定方法 |
CN110296691A (zh) * | 2019-06-28 | 2019-10-01 | 上海大学 | 融合imu标定的双目立体视觉测量方法与系统 |
CN110349221A (zh) * | 2019-07-16 | 2019-10-18 | 北京航空航天大学 | 一种三维激光雷达与双目可见光传感器的融合标定方法 |
CN110363838A (zh) * | 2019-06-06 | 2019-10-22 | 浙江大学 | 基于多球面相机模型的大视野图像三维重构优化方法 |
CN110675456A (zh) * | 2019-09-18 | 2020-01-10 | 深圳普罗米修斯视觉技术有限公司 | 多深度摄像机外部参数标定方法、装置及存储介质 |
CN110910454A (zh) * | 2019-10-11 | 2020-03-24 | 华南农业大学 | 一种牲畜三维重构移动式设备的自动标定配准方法 |
CN110969668A (zh) * | 2019-11-22 | 2020-04-07 | 大连理工大学 | 一种长焦双目相机的立体标定算法 |
CN111721194A (zh) * | 2019-03-19 | 2020-09-29 | 北京伟景智能科技有限公司 | 一种多激光线快速检测方法 |
CN112381886A (zh) * | 2020-11-16 | 2021-02-19 | 深圳市洲明科技股份有限公司 | 基于多相机的三维场景重建方法、存储介质及电子设备 |
CN112568896A (zh) * | 2020-12-09 | 2021-03-30 | 南京星顿医疗科技有限公司 | 一种多相机头型3d成像装置及方法 |
-
2021
- 2021-04-09 CN CN202110383164.7A patent/CN113012238B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009014628A (ja) * | 2007-07-06 | 2009-01-22 | Topcon Corp | 位置計測装置及び位置計測方法 |
CN101299270A (zh) * | 2008-05-27 | 2008-11-05 | 东南大学 | 三维扫描系统中的多个摄像机同步快速标定方法 |
CN104331894A (zh) * | 2014-11-19 | 2015-02-04 | 山东省科学院自动化研究所 | 一种基于双目立体视觉的机器人拆垛方法 |
US9674504B1 (en) * | 2015-12-22 | 2017-06-06 | Aquifi, Inc. | Depth perceptive trinocular camera system |
CN107194974A (zh) * | 2017-05-23 | 2017-09-22 | 哈尔滨工业大学 | 一种基于多次识别标定板图像的多目相机外参标定精度的提高方法 |
CN108648240A (zh) * | 2018-05-11 | 2018-10-12 | 东南大学 | 基于点云特征地图配准的无重叠视场相机姿态标定方法 |
CN111721194A (zh) * | 2019-03-19 | 2020-09-29 | 北京伟景智能科技有限公司 | 一种多激光线快速检测方法 |
CN110363838A (zh) * | 2019-06-06 | 2019-10-22 | 浙江大学 | 基于多球面相机模型的大视野图像三维重构优化方法 |
CN110296691A (zh) * | 2019-06-28 | 2019-10-01 | 上海大学 | 融合imu标定的双目立体视觉测量方法与系统 |
CN110349221A (zh) * | 2019-07-16 | 2019-10-18 | 北京航空航天大学 | 一种三维激光雷达与双目可见光传感器的融合标定方法 |
CN110675456A (zh) * | 2019-09-18 | 2020-01-10 | 深圳普罗米修斯视觉技术有限公司 | 多深度摄像机外部参数标定方法、装置及存储介质 |
CN110910454A (zh) * | 2019-10-11 | 2020-03-24 | 华南农业大学 | 一种牲畜三维重构移动式设备的自动标定配准方法 |
CN110969668A (zh) * | 2019-11-22 | 2020-04-07 | 大连理工大学 | 一种长焦双目相机的立体标定算法 |
CN112381886A (zh) * | 2020-11-16 | 2021-02-19 | 深圳市洲明科技股份有限公司 | 基于多相机的三维场景重建方法、存储介质及电子设备 |
CN112568896A (zh) * | 2020-12-09 | 2021-03-30 | 南京星顿医疗科技有限公司 | 一种多相机头型3d成像装置及方法 |
Non-Patent Citations (3)
Title |
---|
QIANG YAO等: ""Robust moving camera calibration for synthesizing free viewpoint soccer video"", 《2016 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 * |
王卫文;杨威;罗剑;周进;吴钦章;: "一种新的相机外参数标定方法", 半导体光电, no. 06 * |
许小徐等: ""智能汽车激光雷达和相机数据融合系统标定"", 《光学仪器》, vol. 41, no. 6 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742141A (zh) * | 2022-03-30 | 2022-07-12 | 成都九洲迪飞科技有限责任公司 | 基于icp点云的多源信息数据融合研判方法 |
CN117252993A (zh) * | 2023-11-16 | 2023-12-19 | 中铁大桥局集团有限公司 | 特征点提取算法的验证方法、装置、电子设备及存储介质 |
CN117252993B (zh) * | 2023-11-16 | 2024-03-26 | 中铁大桥局集团有限公司 | 特征点提取算法的验证方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113012238B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111473739B (zh) | 一种基于视频监控的隧道塌方区围岩变形实时监测方法 | |
CN101299270B (zh) | 三维扫描系统中的多个摄像机同步快速标定方法 | |
CN111325801B (zh) | 一种激光雷达和相机的联合标定方法 | |
EP1596330B1 (en) | Estimating position and orientation of markers in digital images | |
CN110555889A (zh) | 一种基于CALTag和点云信息的深度相机手眼标定方法 | |
CN108555908A (zh) | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 | |
CN110728715A (zh) | 一种智能巡检机器人像机角度自适应调整方法 | |
Zhang et al. | A robust and rapid camera calibration method by one captured image | |
CN110827392B (zh) | 单目图像三维重建方法、系统及装置 | |
CN109523595A (zh) | 一种建筑工程直线棱角间距视觉测量方法 | |
Wang et al. | Phocal: A multi-modal dataset for category-level object pose estimation with photometrically challenging objects | |
CN113077519B (zh) | 一种基于人体骨架提取的多相机外参自动标定方法 | |
JP2011198330A (ja) | 3次元位置合わせにおける照合方法およびそのプログラム | |
CN110044374A (zh) | 一种基于图像特征的单目视觉测量里程的方法及里程计 | |
CN109977827B (zh) | 一种使用多视图匹配方法的多人三维姿态估计方法 | |
CN113012238B (zh) | 一种多深度相机快速标定与数据融合的方法 | |
CN109636856A (zh) | 基于hog特征融合算子的物体六维度位姿信息联合测量方法 | |
Yamauchi et al. | Calibration of a structured light system by observing planar object from unknown viewpoints | |
CN112070844A (zh) | 结构光系统的校准方法及装置、校准工具图、设备及介质 | |
GB2569609A (en) | Method and device for digital 3D reconstruction | |
CN115761684B (zh) | 基于机器视觉的agv目标识别与姿态角解算方法及系统 | |
KR101673144B1 (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
CN115880369A (zh) | 线结构光3d相机和线阵相机联合标定的装置、系统及方法 | |
CN115239801A (zh) | 一种对象定位方法及装置 | |
CN114549659A (zh) | 一种基于准三维靶标的摄像机标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |