CN113393383A - 一种双深度相机拍照图像的拼接方法 - Google Patents
一种双深度相机拍照图像的拼接方法 Download PDFInfo
- Publication number
- CN113393383A CN113393383A CN202110941006.9A CN202110941006A CN113393383A CN 113393383 A CN113393383 A CN 113393383A CN 202110941006 A CN202110941006 A CN 202110941006A CN 113393383 A CN113393383 A CN 113393383A
- Authority
- CN
- China
- Prior art keywords
- image
- calibration
- point
- points
- workpiece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013519 translation Methods 0.000 claims abstract description 10
- 230000007704 transition Effects 0.000 claims description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 5
- 230000009977 dual effect Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/26—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
- G01B11/27—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20068—Projection on vertical or horizontal image axis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明涉及图像处理技术领域,尤其涉及一种双深度相机拍照图像的拼接方法,包括步骤10:设置两台深度相机;步骤20:将工件放置到两台深度相机的视野中,并将标定板放置在两台深度相机的公共视野中;步骤30:使用两台深度相机拍照,所拍摄的图像分别记为图像A和图像B;步骤40:通过投影模型,将图像A和图像B投影至同一平面内,分别形成图像C和图像D;步骤50:通过缩放模型,将图像C和图像D中的标定点间距缩放成相同大小,分别形成图像E和图像F;步骤60:通过平移模型,平移图像E和图像F使两个图像中的标定点对齐,完成图像的拼接。本发明的目的就是提供一种双深度相机拍照图像的拼接方法,可以更便捷地得到大型工件的完整图像。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种双深度相机拍照图像的拼接方法。
背景技术
视觉直线度测量技术是通过对工件拍照、并根据照片上的像素对工件的轮廓进行工件直线度测量的一种新型测量技术,由于其测量准确、能较好地适用于自动化生产线,因此获得了越来越广泛的使用。在现有技术中一套测量系统通常只有一个相机,由于一个相机的拍摄视野有限,只能测量较小的工件;当工件的长度较长超出相机的视野时,单个相机无法把工件拍全,就无法得到大型工件的完整图像,从而无法使用视觉测量技术对大型工件进行测量。
鉴于上述问题,本设计人基于从事此类产品工程应用多年丰富的实务经验及专业知识,并配合学理的运用,积极加以研究创新,提供一种双深度相机拍照图像的拼接方法,可以更便捷地得到大型工件的完整图像。
发明内容
本发明的目的就是针对现有技术中存在的缺陷提供一种双深度相机拍照图像的拼接方法,通过两台深度相机把图像进行标定融合,可以更便捷地得到大型工件的完整图像。
为了达到上述目的,本发明提供一种双深度相机拍照图像的拼接方法,包括以下步骤:
步骤10:间隔地设置两台深度相机,使两台深度相机形成公共视野;
步骤20:将工件放置到两台深度相机的视野中,并将设置有标定点的标定板放置在两台深度相机的公共视野中;
步骤30:使用两台深度相机拍照,获取两台深度相机所拍摄的工件图像分别记为图像A和图像B;
步骤40:通过投影模型,将图像A和图像B投影至同一平面内,分别形成图像C和图像D;
步骤50:通过缩放模型,将图像C和图像D中的标定点间距缩放成相同大小,分别形成图像E和图像F;
步骤60:通过平移模型,平移图像E和图像F,使图像E和图像F中的标定点对齐,完成图像的拼接。
进一步地,在所述步骤20中,将标定板放置在工件的宽度中心处。
进一步地,在所述步骤20中,将标定点与标定板设置为不同的颜色,且标定点与标定板的颜色与工件不同。
进一步地,在所述步骤20中,标定点包括主标定点和副标定点,主标定点的直径大于副标定点。
进一步地,在所述步骤30中,记图像A中每个像素点的对应三维坐标为(XA,YA,ZA),记图像B中每个像素点的对应三维坐标为(XB,YB,ZB)。
进一步地,在所述步骤40中,所述投影模型具体为:
计算图像C中每个像素点的对应平面坐标为(XC,YC),具体算法为:
XC=XA-ZA,YC=YA-ZA;
计算图像D中每个像素点的对应平面坐标为(XD,YD);具体算法为:
XD=XB-ZB,YD=YB-ZB。
进一步地,在所述步骤50中,所述缩放模型具体为:
使用图像颜色特征提取算法分别提取出图像C和图像D中的主标定点和副标定点的区域,并将图像C中主标定点中心与副标定点中心之间的距离记为LC,将图像D中主标定点中心与副标定点中心之间的距离记为LD;
若LC>LD,则将图像C记为图像E,在图像D中行和列分别每隔k个像素点插入一个过渡像素点形成图像F;
若LC<LD,则图像D中行和列分别每隔k个像素点插入一个过渡像素点形成图像E,将图像D记为图像F;
若LC=LD,则将图像C记为图像E,将图像D记为图像F;
其中,k=[|min(LC,LD)/(LC-LD)|]。
进一步地,在所述步骤50中,过渡像素点的颜色信息为被插入的两个像素点的颜色信息的平均值。
进一步地,在所述步骤60中,所述平移模型具体为:
计图像E中每个像素点的对应平面坐标为(XE,YE),计图像F中每个像素点的对应平面坐标为(XF,YF),
使用图像颜色特征提取算法分别提取出图像E和图像F中的主标定点的中心点坐标,并将图像E中的主标定点中心点坐标记为(XE0,YE0),将图像F中的主标定点中心点坐标记为(XF0,YF0);
记图像E和图像F拼接后形成图像G;
计算图像G中每个像素点的对应平面坐标为(XG,YG),具体算法为:
XG=XE-XE0或XF-XF0,YG=YE-YE0或YF-YF0。
通过本发明的技术方案,可实现以下技术效果:
通过使用两台深度相机分别对工件的一部分进行拍照,然后将所得的图像A和图像B进行拼接,可以更便捷地得到大型工件的完整图像,从而为后续的图像测量提供图像基础;通过使用标定板上的标定点来确定两台深度相机的位置关系,在图像的拼接计算中消除两个深度相机之间的位置影响,可以省去繁杂的深度相机位置矫正步骤,进而提升检测的效率;通过投影模型、缩放模型、平移模型,将深度相机拍摄的图像A和图像B通过计算机的算法程序进行拼接,减少人为干涉因素的影响,从而提高工件整体图像的获取效率和稳定性,进而提升检测的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中标定板放置在工件上时的俯视图;
图2为本发明实施例中双深度相机拍照图像的拼接方法的流程图;
图3为本发明实施例中双深度相机拍照图像的拼接方法中图像变化过程的侧视图;
图4为本发明实施例中双深度相机拍照图像的拼接方法中图像变化过程的俯视图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
在本发明的描述中,需要说明的是,属于“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或者位置关系为基于附图所示的方位或者位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
本发明的一种双深度相机拍照图像的拼接方法,步骤包括:一种双深度相机拍照图像的拼接方法,其特征在于,如图2所示,包括以下步骤:
步骤10:间隔地设置两台深度相机,使两台深度相机形成公共视野;
步骤20:将工件放置到两台深度相机的视野中,并将设置有标定点的标定板放置在两台深度相机的公共视野中;
步骤30:使用两台深度相机拍照,获取两台深度相机所拍摄的工件图像分别记为图像A和图像B;
步骤40:通过投影模型,将图像A和图像B投影至同一平面内,分别形成图像C和图像D;
步骤50:通过缩放模型,将图像C和图像D中的标定点间距缩放成相同大小,分别形成图像E和图像F;
步骤60:通过平移模型,平移图像E和图像F,使图像E和图像F中的标定点对齐,完成图像的拼接。
具体的,本拼接方法使用步骤20~30,使两台深度相机拍摄出带有标定点和工件的图像,通过标定点分别在两张图像中的位置,从而可以确定两台深度相机之间的位置关系,从而作为图像A和图像B的变化、拼接基准。
本拼接方法的图像变化如图3~4所示,在步骤30中获取图像A和图像B时,由于深度相机可能有一定的角度偏移,导致图像A和图像B在空间中会产生一定的角度偏移,因此需要通过步骤40的投影模型将图像A和图像B投影至一个平面形成图像C和图像D后,才能进行拼接。
由于两台深度相机的高度之间也可能存在一定的差距,因此拍摄出的图像A和图像B中,所拍摄出的工件图像存在一定的大小差异,导致图像C和图像D中的工件图像也存在一定的大小差异,需要通过步骤50的缩放模型将图像C和图像D中的工件图像转化成相同大小的图像E和图像F,才能进行拼接。
由于标定点处于两台深度相机的公共视野中,因此当图像C和图像D中的标定点的间距缩放到相等时,就可以使两张图像中的工件图像大小相等,因此根据图像C和图像D中的标定点的间距来对图像C和图像D进行缩放。
最后在步骤60中,将图像E和图像F移至图像E和图像F中的标定点图像对齐,图像E和图像F中的部分工件图像即可形成一个完整的工件图像,此完整的工件图像即可提供给视觉直线度测量技术进行工件的直线度测量计算。
为了防止标定板挡住工件的轮廓影响后续的测量计算,同时为了减少后续的图像变化步骤中工件图像产生较大变形,在步骤20中,将标定板放置在工件的宽度中心处。具体的,由于后续的图像变化的基准为标定板上的标定点,因此将标定板放置在工件的宽度中心,后续步骤中工件图像的两边可以更加均匀地变化,从而使最终图像中的工件图像更接近实际的形状。
在步骤20中,将标定点与标定板设置为不同的颜色,且标定点与标定板的颜色与工件不同,从而可以更好地识别出标定点的区域,从而保证后续步骤中图像变化的准确性。
为了避免多个标定点之间产生混淆,导致后续的图像变化产生异常,标定点包括主标定点和副标定点,主标定点的直径大于副标定点,在图像上可以根据识别出的标定点颜色的点集的面积大小,准确地分辨出各个标定点。
在步骤30中,记图像A中每个像素点的对应三维坐标为(XA,YA,ZA),记图像B中每个像素点的对应三维坐标为(XB,YB,ZB)。其坐标的具体含义为利用坐标记录每个像素点的颜色信息,在后续的图像变化中,可以通过坐标数值的变化关系对每个像素点的颜色信息进行传递,从而形成后续的图像。例如,图像A中一个像素点PA的对应三维坐标为(2,2,1),PA的颜色信息为白色,在后续步骤中,该坐标通过投影模型在图像C中的变化为PC像素点(1,1),则图像C中坐标为(1,1)的PC像素点的颜色信息就与图像A中坐标为(2,2,1)的PA像素点的颜色信息一致,为白色;后续的模型计算同理,最终可以将PA的颜色信息通过坐标值的变化传递至最终的图像上的对应像素点,从而形成最终的图像。
在步骤40中,投影模型具体为:
计算图像C中每个像素点的对应平面坐标为(XC,YC),具体算法为:
XC=XA-ZA,YC=YA-ZA;
计算图像D中每个像素点的对应平面坐标为(XD,YD);具体算法为:
XD=XB-ZB,YD=YB-ZB。
本投影模型的本质为将图像A和图像B投影至ZA=ZB=0的平面上,并且将XA和YA均减去ZA的值,XB和YB均减去ZB的值,从而使图像的每个像素点在投影时与自身的高度进行相关,使形成的图形不会产生过大变形。
在步骤50中,缩放模型具体为:
使用图像颜色特征提取算法分别提取出图像C和图像D中的主标定点和副标定点的区域,并将图像C中主标定点中心与副标定点中心之间的距离记为LC,将图像D中主标定点中心与副标定点中心之间的距离记为LD;
若LC>LD,说明图像D中的工件图像较小,则将图像C记为图像E,在图像D中行和列分别每隔k个像素点插入一个过渡像素点形成图像F;
若LC<LD,说明图像C中的工件图像较小,则图像C中行和列分别每隔k个像素点插入一个过渡像素点形成图像E,将图像D记为图像F;
若LC=LD,说明图像C与图像D中的工件图像的大小已经一致,可直接将图像C记为图像E,将图像D记为图像F;
其中,k=[|min(LC,LD)/(LC-LD)|]。
本缩放模型在将图像C和图像D转化成图像E和图像F时,可以保证图像C和图像D中至少有一张图形不会被处理,从而尽可能地保留更多像素点,使最终图像中可以保留更多的工件细节。k值的计算的具体含义为取min(LC,LD)的最小值除以(LC-LD)后再取绝对值,再进行取整,从而准确地算出插入过渡像素点时需要隔开的像素点数量。例如,当LC=10,LD=13时,说明在图像C中主标定点中心与副标定点中心之间间隔了10个像素点,在图像D中主标定点中心与副标定点中心之间间隔了13个像素点,此时k=[|10/(10-13)|]=3,则需要在图像C中行和列分别每隔3个像素点插入一个过渡像素点,对于图像C的主标定点中心与副标定点中心之间,就会是在10个像素点中会每隔3个像素点插入一个过渡像素点,形成图像E后变成13个像素点的间隔,而将图像D是直接记为图像F的,所以图像F中主标定点中心与副标定点中心之间还是间隔了13个像素点,此时图像E和图像F中的主标定点与副标定点的距离之间的距离就相等了,此时图像E和图像F中的工件图像就可变化成相同大小了。
在步骤50中,过渡像素点的颜色信息为被插入的两个像素点的颜色信息的平均值,可以尽可能地将放大后的图像与原图像保持相似。例如,需要在坐标为(1,1)和(2,1)的点中插入过渡像素点,在灰度模式的图像下,设(1,1)的灰度值为20,(2,1)的灰度值为30,则过渡像素点的颜色就为(20+30)/2=25,在RGB模式的图像下,设(1,1)的RGB分量值为(10,10,10),(2,1)的RGB分量值为(20,20,20),则过渡像素点的RGB分量值为(15,15,15)。插入过渡像素点后,图像中的像素点的坐标都需要重新进行顺延的排序,例如在坐标为(1,1)和(2,1)的点中插入过渡像素点后,(1,1)坐标保持(1,1),过渡像素点的坐标记为(2,1),(2,1)坐标变为(3,1),保证图像中颜色信息与坐标之间的一一对应关系。
在步骤60中,平移模型具体为:
计图像E中每个像素点的对应平面坐标为(XE,YE),计图像F中每个像素点的对应平面坐标为(XF,YF),
使用图像颜色特征提取算法分别提取出图像E和图像F中的主标定点的中心点坐标,并将图像E中的主标定点中心点坐标记为(XE0,YE0),将图像F中的主标定点中心点坐标记为(XF0,YF0);
记图像E和图像F拼接后形成图像G;
计算图像G中每个像素点的对应平面坐标为(XG,YG),具体算法为:
XG=XE-XE0或XF-XF0,YG=YE-YE0或YF-YF0。
本平移模型的本质为先将图像E和图像F中的主标定点中心作为原点(0,0)进行坐标的重新排序,而图像E和图像F中的主标定点中心在实际中就是同一个点,因此重新排序后的图像E和图像F中的像素点坐标值即可直接作为图像G中像素点的坐标值,通过XG=XE-XE0或XF-XF0、YG=YE-YE0或YF-YF0的对应关系获取图像E和图像F中的像素点颜色信息,即可生成拼接后的整张图像G。
优选地,若LC>LD,XG优先取XE-XE0,YG优先取YE-YE0;若LC<LD,XG优先取XF-XF0,YG优先取YF-YF0;
该设置的具体原因为,由于公共视野的存在,因此图像E和图像F平移后对应的坐标XE-XE0与XF-XF0、YE-YE0与YF-YF0中会存在相等的情况,大部分坐标值相等的点对应的颜色信息会相同,但由于图像E和图像F之间可能有图像被插入了过渡像素点,为了确保拼接后的图像能最大地保留原来图像的颜色信息,若LC>LD,则说明图像F被插入了过渡像素点,图像E是由图C直接标记成的,所以优先选用图像E的颜色信息,反之,若LC<LD,则说明图像E被插入了过渡像素点,图像F是由图D直接标记成的,所以优先选用图像F的颜色信息。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (9)
1.一种双深度相机拍照图像的拼接方法,其特征在于,包括以下步骤:
步骤10:间隔地设置两台深度相机,使两台深度相机形成公共视野;
步骤20:将工件放置到两台深度相机的视野中,并将设置有标定点的标定板放置在两台深度相机的公共视野中;
步骤30:使用两台深度相机拍照,获取两台深度相机所拍摄的工件图像分别记为图像A和图像B;
步骤40:通过投影模型,将图像A和图像B投影至同一平面内,分别形成图像C和图像D;
步骤50:通过缩放模型,将图像C和图像D中的标定点间距缩放成相同大小,分别形成图像E和图像F;
步骤60:通过平移模型,平移图像E和图像F,使图像E和图像F中的标定点对齐,完成图像的拼接。
2.根据权利要求1所述的双深度相机拍照图像的拼接方法,其特征在于,在所述步骤20中,将标定板放置在工件的宽度中心处。
3.根据权利要求1所述的双深度相机拍照图像的拼接方法,其特征在于,在所述步骤20中,将标定点与标定板设置为不同的颜色,且标定点与标定板的颜色与工件不同。
4.根据权利要求1所述的双深度相机拍照图像的拼接方法,其特征在于,在所述步骤20中,标定点包括主标定点和副标定点,主标定点的直径大于副标定点。
5.根据权利要求4所述的双深度相机拍照图像的拼接方法,其特征在于,在所述步骤30中,记图像A中每个像素点的对应三维坐标为(XA,YA,ZA),记图像B中每个像素点的对应三维坐标为(XB,YB,ZB)。
6.根据权利要求5所述的双深度相机拍照图像的拼接方法,其特征在于,在所述步骤40中,所述投影模型具体为:
计算图像C中每个像素点的对应平面坐标为(XC,YC),具体算法为:
XC=XA-ZA,YC=YA-ZA;
计算图像D中每个像素点的对应平面坐标为(XD,YD);具体算法为:
XD=XB-ZB,YD=YB-ZB。
7.根据权利要求6所述的双深度相机拍照图像的拼接方法,其特征在于,在所述步骤50中,所述缩放模型具体为:
使用图像颜色特征提取算法分别提取出图像C和图像D中的主标定点和副标定点的区域,并将图像C中主标定点中心与副标定点中心之间的距离记为LC,将图像D中主标定点中心与副标定点中心之间的距离记为LD;
若LC>LD,则将图像C记为图像E,在图像D中行和列分别每隔k个像素点插入一个过渡像素点形成图像F;
若LC<LD,则图像C中行和列分别每隔k个像素点插入一个过渡像素点形成图像E,将图像D记为图像F;
若LC=LD,则将图像C记为图像E,将图像D记为图像F;
其中,k=[|min(LC,LD)/(LC-LD)|]。
8.根据权利要求7所述的双深度相机拍照图像的拼接方法,其特征在于,在所述步骤50中,过渡像素点的颜色信息为被插入的两个像素点的颜色信息的平均值。
9.根据权利要求7所述的双深度相机拍照图像的拼接方法,其特征在于,在所述步骤60中,所述平移模型具体为:
计图像E中每个像素点的对应平面坐标为(XE,YE),计图像F中每个像素点的对应平面坐标为(XF,YF),
使用图像颜色特征提取算法分别提取出图像E和图像F中的主标定点的中心点坐标,并将图像E中的主标定点中心点坐标记为(XE0,YE0),将图像F中的主标定点中心点坐标记为(XF0,YF0);
记图像E和图像F拼接后形成图像G;
计算图像G中每个像素点的对应平面坐标为(XG,YG),具体算法为:
XG=XE-XE0或XF-XF0,YG=YE-YE0或YF-YF0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110941006.9A CN113393383B (zh) | 2021-08-17 | 2021-08-17 | 一种双深度相机拍照图像的拼接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110941006.9A CN113393383B (zh) | 2021-08-17 | 2021-08-17 | 一种双深度相机拍照图像的拼接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113393383A true CN113393383A (zh) | 2021-09-14 |
CN113393383B CN113393383B (zh) | 2021-11-16 |
Family
ID=77622638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110941006.9A Active CN113393383B (zh) | 2021-08-17 | 2021-08-17 | 一种双深度相机拍照图像的拼接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113393383B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101299270A (zh) * | 2008-05-27 | 2008-11-05 | 东南大学 | 三维扫描系统中的多个摄像机同步快速标定方法 |
CN101673395A (zh) * | 2008-09-10 | 2010-03-17 | 深圳华为通信技术有限公司 | 图像拼接方法及装置 |
US20130135441A1 (en) * | 2011-11-28 | 2013-05-30 | Hui Deng | Image Depth Recovering Method and Stereo Image Fetching Device thereof |
CN109632033A (zh) * | 2019-02-22 | 2019-04-16 | 浙江大学滨海产业技术研究院 | 一种体积测量的设备与方法 |
CN109872397A (zh) * | 2019-02-18 | 2019-06-11 | 北京工业大学 | 一种基于多目立体视觉的飞机零件的三维重建方法 |
CN110136211A (zh) * | 2019-04-18 | 2019-08-16 | 中国地质大学(武汉) | 一种基于主动双目视觉技术的工件定位方法及系统 |
CN110544208A (zh) * | 2019-09-06 | 2019-12-06 | 深圳市泰沃德自动化技术有限公司 | 工业级图像拼接方法及系统 |
CN111739080A (zh) * | 2020-07-23 | 2020-10-02 | 成都艾尔帕思科技有限公司 | 多台深度相机共同构建3d空间及3d物体的方法 |
CN112562057A (zh) * | 2019-09-26 | 2021-03-26 | 杭州海康威视数字技术股份有限公司 | 三维重建系统及方法 |
CN112562013A (zh) * | 2020-12-25 | 2021-03-26 | 深圳看到科技有限公司 | 多镜头相机标定方法、装置及存储介质 |
CN112634374A (zh) * | 2020-12-18 | 2021-04-09 | 杭州海康威视数字技术股份有限公司 | 双目相机的立体标定方法、装置、系统及双目相机 |
CN113077414A (zh) * | 2021-03-01 | 2021-07-06 | 湖北工程学院 | 一种钢板表面缺陷检测方法及系统 |
CN113112532A (zh) * | 2021-04-13 | 2021-07-13 | 中山大学 | 一种多ToF相机系统实时配准方法 |
-
2021
- 2021-08-17 CN CN202110941006.9A patent/CN113393383B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101299270A (zh) * | 2008-05-27 | 2008-11-05 | 东南大学 | 三维扫描系统中的多个摄像机同步快速标定方法 |
CN101673395A (zh) * | 2008-09-10 | 2010-03-17 | 深圳华为通信技术有限公司 | 图像拼接方法及装置 |
US20130135441A1 (en) * | 2011-11-28 | 2013-05-30 | Hui Deng | Image Depth Recovering Method and Stereo Image Fetching Device thereof |
CN109872397A (zh) * | 2019-02-18 | 2019-06-11 | 北京工业大学 | 一种基于多目立体视觉的飞机零件的三维重建方法 |
CN109632033A (zh) * | 2019-02-22 | 2019-04-16 | 浙江大学滨海产业技术研究院 | 一种体积测量的设备与方法 |
CN110136211A (zh) * | 2019-04-18 | 2019-08-16 | 中国地质大学(武汉) | 一种基于主动双目视觉技术的工件定位方法及系统 |
CN110544208A (zh) * | 2019-09-06 | 2019-12-06 | 深圳市泰沃德自动化技术有限公司 | 工业级图像拼接方法及系统 |
CN112562057A (zh) * | 2019-09-26 | 2021-03-26 | 杭州海康威视数字技术股份有限公司 | 三维重建系统及方法 |
CN111739080A (zh) * | 2020-07-23 | 2020-10-02 | 成都艾尔帕思科技有限公司 | 多台深度相机共同构建3d空间及3d物体的方法 |
CN112634374A (zh) * | 2020-12-18 | 2021-04-09 | 杭州海康威视数字技术股份有限公司 | 双目相机的立体标定方法、装置、系统及双目相机 |
CN112562013A (zh) * | 2020-12-25 | 2021-03-26 | 深圳看到科技有限公司 | 多镜头相机标定方法、装置及存储介质 |
CN113077414A (zh) * | 2021-03-01 | 2021-07-06 | 湖北工程学院 | 一种钢板表面缺陷检测方法及系统 |
CN113112532A (zh) * | 2021-04-13 | 2021-07-13 | 中山大学 | 一种多ToF相机系统实时配准方法 |
Non-Patent Citations (2)
Title |
---|
DONG-HUI LIU等: "Intelligent Pan-Tilt Control System of Two Cameras Based on Gray-Scale Image Matching", 《IEEE》 * |
胡权凤: "基于立体视觉的壳体零件三维重建技术研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113393383B (zh) | 2021-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4979928B2 (ja) | 三次元形状演算装置及び三次元形状演算方法 | |
CN106600648A (zh) | 标定相机内参数和畸变系数的立体编码靶标及其标定方法 | |
CN108470356B (zh) | 一种基于双目视觉的目标对象快速测距方法 | |
CN107133983B (zh) | 成捆圆钢端面双目视觉系统与空间定位及计数方法 | |
JP5430138B2 (ja) | 形状測定装置およびプログラム | |
CN107869954B (zh) | 一种双目视觉体积重量测量系统及其实现方法 | |
CN111624203B (zh) | 一种基于机器视觉的继电器接点齐度非接触式测量方法 | |
CN108257187B (zh) | 一种相机-投影仪系统标定方法 | |
CA3233222A1 (en) | Method, apparatus and device for photogrammetry, and storage medium | |
JPH03200007A (ja) | ステレオ計測装置 | |
CN110120012A (zh) | 基于双目摄像头的同步关键帧提取的视频拼接方法 | |
CN105758337B (zh) | 一种获取透镜平面与图像传感器平面之间夹角的方法 | |
CN111131801A (zh) | 投影仪校正系统、方法及投影仪 | |
CN116563391B (zh) | 一种基于机器视觉的激光结构自动标定方法 | |
CN113393383B (zh) | 一种双深度相机拍照图像的拼接方法 | |
CN116823895A (zh) | 基于可变模板的rgb-d相机多视角匹配的数字图像计算方法及系统 | |
CN108180825A (zh) | 一种基于线结构光的长方体形物体三维识别与定位方法 | |
US20220076428A1 (en) | Product positioning method | |
CN115880369A (zh) | 线结构光3d相机和线阵相机联合标定的装置、系统及方法 | |
CN111340891B (zh) | 一种利用led屏幕进行相机标定的方法及系统 | |
JPH07146937A (ja) | パターンマッチング方法 | |
JPH10318732A (ja) | 形状測定装置及び形状測定用画像形成装置 | |
CN110634136A (zh) | 一种管道壁破损检测方法、装置及系统 | |
CN105989587A (zh) | 一种多功能oct系统的自动定标方法 | |
JPH10318715A (ja) | 画像測定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |