CN113532329B - 一种以投射光斑为标定点的标定方法 - Google Patents
一种以投射光斑为标定点的标定方法 Download PDFInfo
- Publication number
- CN113532329B CN113532329B CN202110828803.6A CN202110828803A CN113532329B CN 113532329 B CN113532329 B CN 113532329B CN 202110828803 A CN202110828803 A CN 202110828803A CN 113532329 B CN113532329 B CN 113532329B
- Authority
- CN
- China
- Prior art keywords
- calibration
- point
- cosα
- points
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000005259 measurement Methods 0.000 claims abstract description 37
- 230000008859 change Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 230000033001 locomotion Effects 0.000 description 32
- 230000015572 biosynthetic process Effects 0.000 description 28
- 230000003287 optical effect Effects 0.000 description 28
- 238000003786 synthesis reaction Methods 0.000 description 28
- 238000002474 experimental method Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000001788 irregular Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2504—Calibration devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明实施例提供了一种以投射光斑为标定点的标定方法,(1)利用标定装置向目标物投射多个光束,并在目标物表面形成多个光斑,即为标定点;(2)利用标定装置中的测距模块和测角模块分别对标定点进行距离测量和角度测量;(3)以标定装置为原点,根据上述距离测量值和角度测量值计算各个标定点坐标;(4)从而确定目标物的3D模型的坐标。通过对多个点进行激光测距测角的方法实现目标物体的绝对尺寸标定。
Description
技术领域
本发明涉及形貌测量技术领域,特别涉及3D形貌测量技术领域。
背景技术
目前在利用视觉方式进行3D采集和测量时,通常使得相机相对目标物转动,或在目标物周边设置多个相机同时进行采集。例如南加州大学的DigitaL EmiLy项目,采用球型支架,在支架上不同位置不同角度固定了上百个相机,从而实现人体的3D采集和建模。然而无论哪种方式,都需要相机与目标物距离较短,至少应当在可布置的范围内,这样才能形成相机在不同位置采集目标物图像。
然而在一些应用中,无法环绕目标物进行图像的采集。例如监控探头在采集被监控区域时,由于区域较大、距离较远,且采集对象不固定,因此难以围绕目标对象设置相机,或使得相机围绕目标对象转动。在这种情形下如何进行目标对象的3D采集与建模是亟待解决的问题。
更进一步的问题,对于这些远距离的目标即使完成3D建模,如何得到其准确的尺寸,从而使得3D模型具有绝对的尺寸也是没有解决的问题。例如对远处一个建筑进行建模时,为了获得其绝对尺寸,现有技术通常是在建筑上或旁边设置标定物,根据标定物的大小从而获得建筑物3D模型的大小。然而并不是所有情况都允许我们去目标物附近放置标定物,此时即使获得3D模型,也无法获得绝对尺寸,也就无法获知物体的真实大小。例如,在河对岸的一个房屋,如果要对其进行建模必须要在房屋上放置标定物,然而如果无法过河将难以完成这个工作。除了距离远之外,也存在距离并不远,但目标物上由于某种原因无法放置标定物,例如古董花瓶的三维建模中,处于保护的目的不能在花瓶上贴标定点或标定物,此时如何获得花瓶模型的绝对尺寸成为巨大的问题。
此外,在现有技术中也曾提出使用包括旋转角度、目标物尺寸、物距的经验公式限定相机位置,从而兼顾合成速度和效果。然而在实际应用中发现:除非有精确量角装置,否则用户对角度并不敏感,难以准确确定角度;目标物尺寸难以准确确定,例如上述河边房屋的3D模型构建的场景中。并且测量的误差导致相机位置设定误差,从而会影响采集合成速度和效果;准确度和速度还需要进一步提高。
因此,目前急需解决以下技术问题:①能够采集较远距离,非特定目标的3D信息;②同时兼顾合成速度和合成精度。③能够准确、方便获得较远物体或不宜放置标定物的物体的三维绝对尺寸。
发明内容
鉴于上述问题,提出了本发明提供一种克服上述问题或者至少部分地解决上述问题的标定方法。
本发明实施例提供了一种以投射光斑为标定点的标定方法,包括:
(1)利用标定装置向待测目标物投射多个光束,并在待测目标物表面形成至少三个光斑,即为标定点;
(2)利用标定装置中的测距模块和测角模块分别对标定点进行距离测量和角度测量;所述角度测量包括:①测量每个标定点和原点的连线与水平面的夹角;②测量各标定点的投影线之间的夹角;其中投影线是标定点在水平面投影点与原点的连线;
(3)以标定装置为原点,根据上述距离测量值和角度测量值计算各个标定点坐标;
(4)从而确定待测目标物的3D模型的坐标;
具体的,标定装置位于O点,A、B、C、D、E…为标定点;
利用标定装置测量其到标定点的距离L1、L2、L3、L4、L5…同时标定装置继续位于O点不变,若A’、B’、C’、D’、E’分别是标定点到标定装置所在水平面的投影点;
使用标定装置测量角度:∠AOA’,∠BOB’,∠COC’,∠DOD’,∠EOE’分别对应α1,α2,α3,α4,α5;以及∠A’OB’,∠A’OC’,∠A’OD’,∠A’OE’,分别对应β1,β2,β3,β4;
以A’O为坐标系的X轴方向,计算的到:
A相对与O的三维坐标点Pa(L1*cosα1,0,L1*sinα1);
B相对与O的三维坐标点Pb(L2*cosα2*cosβ1,L2*cosα2*sinβ1,L2*sinα2);
C相对与O的三维坐标点Pc(L3*cosα3*cosβ2,L3*cosα3*sinβ2,L3*sinα3);
D相对与O的三维坐标点Pd(L4*cosα4*cosβ3,L4*cosα4*sinβ3,L4*sinα4);
E相对与O的三维坐标点Pe(L5*cosα5*cosβ4,L5*cosα5*sinβ4,L5*sinα5);
以O点为原点,其三维坐标点为(0,0,0),则对应的空间几个标定点的坐标分别为:(L1*cosα1,0,L1*sinα1),(L2*cosα2*cosβ1,L2*cosα2*sinβ1,L2*sinα2),(L3*cosα3*cosβ2,L3*cosα3*sinβ2,L3*sinα3),(L4*cosα4*cosβ3+,L4*cosα4*sinβ3,L4*sinα4),(L5*cosα5*cosβ4,L5*cosα5*sinβ4,L5*sinα5)。
可选的:利用标定装置向待测目标物投射多个光束,并在待测目标物表面形成多个光斑的步骤具体为:标定装置依次向待测目标物投射多个光束。
可选的:所述距离测量包括测量各个标定点到标定装置的距离;所述角度测量包括:测量每个标定点和原点的连线与水平面的夹角,以及测量各标定点的投影线之间的夹角;其中投影线是标定点在水平面投影点与原点的连线。
可选的:还包括对采集的图像进行特征点提取,并进行特征点匹配,获取稀疏特征点;输入匹配的特征点坐标,利用解算稀疏的三维点云和拍照图像采集设备的位置和姿态数据,获得待测目标物的稀疏的模型三维点云和位置的模型坐标值。
可选的:导入待测目标物上的标志点的绝对坐标XT、YT、ZT和已做好的标志点的图片模板,然后将标志点的图片模板与输入的所有照片进行模板匹配,获得输入照片中所有包含标志点的像素行列号xi、yi。
可选的:还包括根据拍照相机的位置和姿态数据,输入标志点的像素行列号xi、yi,解算出其标志点的模型坐标系下坐标(Xi、Yi、Zi);根据标志点绝对坐标和模型坐标(XT、YT、ZT)与(Xi、Yi、Zi),利用空间相似变换公式,解算出模型坐标与绝对坐标的7个空间坐标转换参数。
可选的:还包括利用解算的7个参数,则可将待测目标物的三维点云和拍照相机的位置和姿态数据的坐标转换到绝对坐标系下,即获得了待测目标物体的真实尺寸。
可选的:获得待测目标物的绝对尺寸。
本发明还提供了一种3D模型构建方法,使用上述方法构建目标物3D模型。
发明点及技术效果
1、通过对多个点进行激光测距测角的方法实现目标物体的绝对尺寸标定。
2、通过优化相机采集图片的位置,保证能够同时提高合成速度和合成精度。优化相机采集位置时,无需测量角度,无需测量目标尺寸,适用性更强。
3、首次提出通过相机光轴与转盘呈一定夹角而非平行的方式转动来采集目标物图像,实现3D合成和建模,而无需绕目标物转动,提高了场景的适应性。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例中标定设备测量目标物的示意图;
图2为本发明实施例中标定设备应用于3D智能视觉设备的示意图;
图3为本发明实施例中标定设备应用于3D图像采集设备的示意图;
图4为本发明实施例中标定设备应用于无人机的示意图;
图5为本发明实施例中标定设备应用于车辆的示意图;
其中,图像采集装置1,转动装置2,筒状外壳3,旋转装置4,标定装置5,目标物6。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
3D采集标定流程
当要采集的目标物为B时,此时可以在B的周边放置标定物A,但很多情况下无法将标定物A放置在目标物B附近。此时可以:
1、使用标定装置5测量目标物上的多个标定点距离和倾角。
请参考图1,标定装置5位于O点。选择目标物上固定的几个点,或向目标物投射激光光点A、B、C、D、E…作为标定点。利用标定装置测量其到标定点的距离L1、L2、L3、L4、L5…同时标定装置继续位于O点不变,若A’、B’、C’、D’、E’分别是标定点到标定装置所在水平面的投影点。使用标定装置测量角度:∠AOA’,∠BOB’,∠COC’,∠DOD’,∠EOE’分别对应α1,α2,α3,α4,α5;以及∠A’OB’,∠A’OC’,∠A’OD’,∠A’OE’,分别对应β1,β2,β3,β4。
以A’O为坐标系的X轴方向,可以计算的到:
A相对与O的三维坐标点Pa(L1*cosα1,0,L1*sinα1)
B相对与O的三维坐标点Pb(L2*cosα2*cosβ1,L2*cosα2*sinβ1,L2*sinα2)
C相对与O的三维坐标点Pc(L3*cosα3*cosβ2,L3*cosα3*sinβ2,L3*sinα3)
D相对与O的三维坐标点Pd(L4*cosα4*cosβ3,L4*cosα4*sinβ3,L4*sinα4)
E相对与O的三维坐标点Pe(L5*cosα5*cosβ4,L5*cosα5*sinβ4,L5*sinα5)
以O点为原点,其三维坐标点为(0,0,0),则对应的空间几个标定点的坐标分别为:(L1*cosα1,0,L1*sinα1),(L2*cosα2*cosβ1,L2*cosα2*sinβ1,L2*sinα2),(L3*cosα3*cosβ2,L3*cosα3*sinβ2,L3*sinα3),(L4*cosα4*cosβ3+,L4*cosα4*sinβ3,L4*sinα4),(L5*cosα5*cosβ4,L5*cosα5*sinβ4,L5*sinα5)。
上述标定装置中测距可以采用激光测距模块,例如使用相位法、脉冲法等。标定装置中测角可以采用测角模块,例如编码度盘测角,也可以使用光栅度盘测角。
标定装置向着目标物发射激光,形成多个标定点光斑,通过测距模块和测角模块分别测量标定点上述距离和角度,从而根据上述公式获得标定点坐标。
所述角度测量包括:①测量每个标定点和原点的连线与水平面的夹角。②测量各标定点的投影线之间的夹角;其中投影线是标定点在水平面投影点与原点的连线。具体而言,可以测量第一个投影线分别与其他投影线之间的夹角,也可以依次测量相邻两个投影线之间的夹角,或投影线任意两两之间的夹角。当然,在测量角度时,也可以测量标定点与原点连线两两之间构成的夹角。但为了计算简单,这里选择上述ABCDE点的描述进行测量计算。
2、利用采集设备采集目标物不同角度的多张图像,其中部分图像包括上述多个标定点光斑图像。
采集设备可以为3D智能视觉设备拍摄目标物的图像。具体方法如下:电机驱动转盘转动,带动相机转动,从而使得相机的光轴位置在空间内发生移动。例如每间隔L距离图像采集装置1采集一次目标物的图像,转盘转动360°图像采集装置1会采集n张图像,这些图像是相机在不同位置采集到的图像。可以在转盘转动的同时进行采集,也可以在相机转动到对应采集位置后停止转动,采集完毕后再继续转动到下一个采集位置。由于在某些场合下,目标物状态会发生变化,因此需要提高采集的速度,否则图像采集装置1采集到的目标物在不同图像中状态不同会导致无法3D合成和建模。此时可以通过两种方法解决:①在转盘上设置n个图像采集装置,这样一次可以拍摄n张图像,在下一个位置又可以获得n张图像。②为了同时节约成本,虽然图像采集装置1数量不增加,但转盘转速可以加快,但这样需要将图像采集装置1的快门调节成较快的模式,否则将会导致图像模糊。而快门速度的提高需要较好的光源照明条件。因此,需要提供较好的光源或具有较好的自然光的场景可以使用该方法。
采集设备可以为3D图像采集设备(例如相机)。
采集设备的通过与目标物的相对运动采集目标物的多个角度的图像,上述运动可以通过手持、轨道、无人机机载、车辆承载等多种方式。此时,标定装置可以固定在地面上,向目标物投射标定点,并测量标定点坐标,再利用上述方式采集目标物图像构建三维模型。也可以将标定装置设置无人机或车辆上,但此时应当保证无人机和车辆位置固定,即在采集图像的过程中标定装置相对于目标物不动,即标定点稳定不变,再通过移动或转动采集设备的方式获得目标物的多个图像。当然,采集过程可能非常快,那么在外界看起来标定装置投射激光并未受到运动限制。
标定方法
(1)通过采集设备,从多个角度对目标物进行拍照,获得多个图像,拍摄照片数不少于3张;
(2)对所有拍摄照片进行特征点提取,并进行特征点匹配。获取稀疏特征点。输入匹配的特征点坐标,利用解算稀疏的三维点云和拍照相机的位置和姿态数据,即获得了拍照目标区域的稀疏的模型三维点云和位置的模型坐标值。
(3)在输入的照片上,人工量测出A、B、C、D、E点所在照片上对应的像素行列号xi、yi,或者利用已做好A、B、C、D、E标志点的图片模板,然后将标志点的图片模板与输入的所有照片进行模板匹配,获得输入照片中所有包含标志点A、B、C、D、E的像素行列号xi、yi;
(4)根据步骤(2)的拍照相机的位置和姿态数据,输入标志点的像素行列号xi、yi,可解算出其标志点的模型坐标系下坐标(Xi、Yi、Zi);根据A、B、C、D、E点的标志点绝对坐标Pa,Pb,Pc,Pd,Pe和对应的模型点坐标(Xi、Yi、Zi),利用空间相似变换公式,解算出模型坐标与绝对坐标的7个空间坐标转换参数;其中εx、εy、εz、λ、X0、Y0、Z0为7个参数。
(5)利用(4)解算的7个参数,则可将拍摄目标区域与目标物体的三维点云和拍照相机的位置和姿态数据的坐标转换到绝对坐标系下,即获得了目标物体的真实尺寸和大小。
上述标定方法使用五个点为例进行的说明,但根据实际情况可以增加或减少标定点。例如可以为至少三个标定点。
标定装置结构
标定装置5包括激光发射单元、测距模块、测角模块。
当标定装置应用于上述3D智能视觉设备时,如图2所示,其可以位于筒状外壳上。激光发射单元的纵向轴线(即发射激光的方向)与筒状外壳的中心线平行。也就是说,在3D智能视觉设备中的图像采集装置转动时,标定装置固定不动,为目标物提供稳定的标定点,及固定的标定点坐标。
当标定装置应用于通常的3D图像采集设备(例如带轨道的相机)时,如图3,激光测距单元位于相机周边,但不与相机共同转动,而为目标物提供稳定的标定点,及固定的标定点坐标。初始位置时,激光发射单元的纵向轴线(即发射激光的方向)与图像采集设备的光轴平行。
特别的,标定装置包括水平模块,用于将整个设备调整水平,特别是标定装置要保证水平,从而能够确定水平面。
利用3D智能视觉设备
请参考图2,包括图像采集装置1、转动装置2和筒状外壳3。图像采集装置1安装在转动装置2上,转动装置容纳在筒状外壳3内,并且可以在筒状外壳内自由转动。
图像采集装置1用于通过图像采集装置1的采集区域与目标物相对运动采集目标物一组图像;采集区域移动装置,用于驱动图像采集装置的采集区域与目标物产生相对运动。采集区域为图像采集装置的有效视场范围。
图像采集装置1可以为相机,转动装置2可以为转盘。相机设置2在转盘上,且相机光轴与转盘面呈一定夹角,转盘面与待采集目标物近似平行。转盘带动相机转动,从而使得相机在不同位置采集目标物的图像。
进一步,相机通过角度调整装置安装在转盘上,如图2,角度调整装置,可以转动从而调整图像采集装置1的光轴与转盘面的夹角,调节范围为-90°<γ<90°。在拍摄较近目标物时,可以使得图像采集装置1光轴向转盘中心轴方向偏移,即将γ向-90°方向调节。而在拍摄腔体内部时,可以使得图像采集装置1光轴向偏离转盘中心轴方向偏移,即将γ向90°方向调节。上述调节可以手动完成,也可以给3D智能视觉设备设置测距装置,测量其距离目标物的距离,根据该距离来自动调整γ角度。
转盘可通过传动装置与电机连接,在电机的驱动下转动,并带动图像采集装置1转动。传动装置可以为齿轮系统或传动带等常规机械结构。
为了提高采集效率,转盘上可以设置多个图像采集装置1。多个图像采集装置1沿转盘圆周依次分布。例如可以在转盘任意一条直径两端分别设置一个图像采集装置1。也可以每隔60°圆周角设置一个图像采集装置1,整个圆盘均匀设置6个图像采集装置1。上述多个图像采集装置可以为同一类型相机,也可以为不同类型相机。例如在转盘上设置一个可见光相机及一个红外相机,从而能够采集不同波段图像。
图像采集装置1用于采集目标物的图像,其可以为定焦相机,或变焦相机。特别是即可以为可见光相机,也可以为红外相机。当然,可以理解的是任何具有图像采集功能的装置均可以使用,并不构成对本发明的限定,例如可以为CCD、CMOS、相机、摄像机、工业相机、监视器、摄像头、手机、平板、笔记本、移动终端、可穿戴设备、智能眼镜、智能手表、智能手环以及带有图像采集功能所有设备。
转动装置2除了转盘,也可以为转动臂、转动梁、转动支架等多种形式,只要能够带动图像采集装置转动即可。无论使用哪种方式,图像采集装置1的光轴与转动面均具有一定的夹角γ。
通常情况下,光源位于图像采集装置1的镜头周边分散式分布,例如光源为在镜头周边的环形LED灯,位于转盘上;也可以设置在筒状外壳的横截面上。由于在一些应用中,被采集对象为人体,因此需要控制光源强度,避免造成人体不适。特别是可以在光源的光路上设置柔光装置,例如为柔光外壳。或者直接采用LED面光源,不仅光线比较柔和,而且发光更为均匀。更佳地,可以采用OLED光源,体积更小,光线更加柔和,并且具有柔性特性,可以贴附于弯曲的表面。光源也可以设置于其他能够为目标物提供均匀照明的位置。光源也可以为智能光源,即根据目标物及环境光的情况自动调整光源参数。
在进行3D采集时,图像采集装置在不同采集位置光轴方向相对于目标物不发生变化,通常大致垂直于目标物表面,此时相邻两个图像采集装置1的位置,或图像采集装置1相邻两个采集位置满足如下条件:
μ<0.482
其中L为相邻两个采集位置图像采集装置1光心的直线距离;f为图像采集装置1的焦距;d为图像采集装置感光元件(CCD)的矩形长度;M为图像采集装置1感光元件沿着光轴到目标物表面的距离;μ为经验系数。
当上述两个位置是沿图像采集装置1感光元件长度方向时,d取矩形长度;当上述两个位置是沿图像采集装置1感光元件宽度方向时,d取矩形宽度。
图像采集装置1在上述两个位置中的任何一个位置时,感光元件沿着光轴到目标物表面的距离作为M。
如上所述,L应当为两个图像采集装置1光心的直线距离,但由于图像采集装置1光心位置在某些情况下并不容易确定,因此在某些情况下也可以使用图像采集装置1的感光元件中心、图像采集装置1的几何中心、图像采集装置与云台(或平台、支架)连接的轴中心、镜头近端或远端表面的中心替代,经过试验发现由此带来的误差是在可接受的范围内的,因此上述范围也在本发明的保护范围之内。
利用本发明装置,进行实验,得到了如下实验结果。
从上述实验结果及大量实验经验可以得出,μ的值应当满足μ<0.482,此时已经能够合成部分3D模型,虽然有一部分无法自动合成,但是在要求不高的情况下也是可以接受的,并且可以通过手动或者更换算法的方式弥补无法合成的部分。特别是μ的值满足μ<0.357时,能够最佳地兼顾合成效果和合成时间的平衡;为了获得更好的合成效果可以选择μ<0.198,此时合成时间会上升,但合成质量更好。而当μ为0.5078时,已经无法合成。但这里应当注意,以上范围仅仅是最佳实施例,并不构成对保护范围的限定。
以上数据仅为验证该公式条件所做实验得到的,并不对发明构成限定。即使没有这些数据,也不影响该公式的客观性。本领域技术人员可以根据需要调整设备参数和步骤细节进行实验,得到其他数据也是符合该公式条件的。
本发明所述的相邻采集位置是指,在图像采集装置相对目标物移动时,移动轨迹上的发生采集动作的两个相邻位置。这通常对于图像采集装置运动容易理解。但对于目标物发生移动导致两者相对移动时,此时应当根据运动的相对性,将目标物的运动转化为目标物不动,而图像采集装置运动。此时再衡量图像采集装置在转化后的移动轨迹中发生采集动作的两个相邻位置。
利用3D图像采集设备
(1)采集区域移动装置为旋转结构
请参考图3,目标物6固定于某一位置,旋转装置4驱动图像采集装置1围绕目标物转动。旋转装置4可以通过旋转臂带动图像采集装置1围绕目标物转动。当然这种转动并不一定是完整的圆周运动,可以根据采集需要只转动一定角度。并且这种转动也不一定必须为圆周运动,图像采集装置1的运动轨迹可以为其它曲线轨迹,只要保证相机从不同角度拍摄物体即可。
旋转装置4也可以驱动图像采集装置自转,如图4,通过自转使得图像采集装置能够从不同角度采集目标物图像。
旋转装置可以为悬臂、转台、轨道等多种形态,也可以手持、使用车载或机载,使得图像采集装置能够产生运动即可。
除了上述方式,在某些情况下也可以将相机固定,承载目标物的载物台转动,使得目标物面向图像采集装置的方向时刻变化,从而使得图像采集装置能够从不同角度采集目标物图像。但此时计算时,仍然可以按照转化为图像采集装置运动的情况下来进行计算,从而使得运动符合相应经验公式(具体下面将详细阐述)。例如,载物台转动的场景下,可以假设载物台不动,而图像采集装置旋转。通过利用经验公式设定图像采集装置旋转时拍摄位置的距离,从而推导出其转速,从而反推出载物台转速,以方便进行转速控制,实现3D采集。当然,这种场景并不常用,更为常用的还是转动图像采集装置。
另外,为了使得图像采集装置能够采集目标物不同方向的图像,也可以保持图像采集装置和目标物均静止,通过旋转图像采集装置的光轴来实现。例如:采集区域移动装置为光学扫描装置,使得图像采集装置不移动或转动的情况下,图像采集装置的采集区域与目标物产生相对运动。采集区域移动装置还包括光线偏转单元,光线偏转单元被机械驱动发生转动,或被电学驱动导致光路偏折,或本身为多组在空间的排布,从而实现从不同角度获得目标物的图像。光线偏转单元典型地可以为反射镜,通过转动使得目标物不同方向的图像被采集。或直接于空间布置环绕目标物的反射镜,依次使得反射镜的光进入图像采集装置中。与前述类似,这种情况下光轴的转动可以看作是图像采集装置虚拟位置的转动,通过这种转换的方法,假设为图像采集装置转动,从而利用下述经验公式进行计算。
图像采集装置用于采集目标物的图像,其可以为定焦相机,或变焦相机。特别是即可以为可见光相机,也可以为红外相机。当然,可以理解的是任何具有图像采集功能的装置均可以使用,并不构成对本发明的限定,例如可以为CCD、CMOS、相机、摄像机、工业相机、监视器、摄像头、手机、平板、笔记本、移动终端、可穿戴设备、智能眼镜、智能手表、智能手环以及带有图像采集功能所有设备。
设备还包括处理器,也称处理单元,用以根据图像采集装置采集的多个图像,根据3D合成算法,合成目标物3D模型,得到目标物3D信息。
(2)采集区域移动装置为平动结构
除了上述旋转结构外,图像采集装置可以以直线轨迹相对目标物运动。例如图像采集装置位于直线轨道上或位于直线行驶的汽车或无人机上,沿直线轨道依次经过目标物进行拍摄,在过程中图像采集装置保持不转动。其中直线轨道也可以用直线悬臂代替。但更佳的是,如图5,在图像采集装置整体沿直线轨迹运动时,其进行一定的转动,从而使得图像采集装置的光轴朝向目标物。
(3)采集区域移动装置为无规则运动结构
有时,采集区域移动并不规则,例如在手持图像采集装置时,或车载或机载时,行进路线为不规则路线时,此时难以以严格的轨道进行运动,图像采集装置的运动轨迹难以准确预测。因此在这种情况下如何保证拍摄图像能够准确、稳定地合成3D模型是一大难题,目前还未有人提及。更常见的方法是多拍照片,用照片数量的冗余来解决该问题。但这样合成结果并不稳定。虽然目前也有一些通过限定相机转动角度的方式提高合成效果,但实际上用户对于角度并不敏感,即使给出优选角度,在手持拍摄的情况下用户也很难操作。因此本发明提出了通过限定两次拍照相机移动距离的方式来提高合成效果、缩短合成时间的方法。
在无规则运动的情况下,可以在移动终端或图像采集装置4中设置传感器,通过传感器测量图像采集装置两次拍摄时移动的直线距离,在移动距离不满足上述关于L(具体下述条件)的经验条件时,向用户发出报警。所述报警包括向用户发出声音或灯光报警。当然,也可以在用户移动图像采集装置4时,手机屏幕上显示,或语音实时提示用户移动的距离,以及可移动的最大距离L。实现该功能的传感器包括:测距仪、陀螺仪、加速度计、定位传感器和/或它们的组合。
(4)多相机方式
可以了解,除了通过相机与目标物相对运动从而使得相机可以拍摄目标物不同角度的图像外,还可以再目标物1周围不同位置设置多个相机,从而可以实现同时拍摄目标物不同角度的图像。
采集区域相对目标物运动时,特别是图像采集装置围绕目标物转动,在进行3D采集时,图像采集装置在不同采集位置光轴方向相对于目标物1发生变化,此时相邻两个图像采集装置的位置,或图像采集装置相邻两个采集位置满足如下条件:
δ<0.603
其中L为相邻两个采集位置图像采集装置光心的直线距离;f为图像采集装置的焦距;d为图像采集装置感光元件(CCD)的矩形长度或宽度;T为图像采集装置感光元件沿着光轴到目标物表面的距离;δ为调整系数。
当上述两个位置是沿图像采集装置感光元件长度方向时,d取矩形长度;当上述两个位置是沿图像采集装置感光元件宽度方向时,d取矩形宽度。
图像采集装置在两个位置中的任何一个位置时,感光元件沿着光轴到目标物表面的距离作为T。除了这种方法外,在另一种情况下,L为An、An+1两个图像采集装置光心的直线距离,与An、An+1两个图像采集装置相邻的An-1、An+2两个图像采集装置和An、An+1两个图像采集装置各自感光元件沿着光轴到目标物表面的距离分别为Tn-1、Tn、Tn+1、Tn+2,T=(Tn-1+Tn+Tn+1+Tn+2)/4。当然可以不只限于相邻4个位置,也可以用更多的位置进行平均值计算。
利用本发明装置,进行实验,得到了如下实验结果。
更换相机镜头,再次实验,得到了如下实验结果。
更换相机镜头,再次实验,得到了如下实验结果。
如上所述,L应当为两个图像采集装置光心的直线距离,但由于图像采集装置光心位置在某些情况下并不容易确定,因此在某些情况下也可以使用图像采集装置的感光元件中心、图像采集装置的几何中心、图像采集装置与云台(或平台、支架)连接的轴中心、镜头近端或远端表面的中心替代,经过试验发现由此带来的误差是在可接受的范围内的,因此上述范围也在本发明的保护范围之内。
通常情况下,现有技术中均采用物体尺寸、视场角等参数作为推算相机位置的方式,并且两个相机之间的位置关系也采用角度表达。由于角度在实际使用过程中并不好测量,因此在实际使用时较为不便。并且,物体尺寸会随着测量物体的变化而改变。例如,在进行一座办公楼3D信息采集后,再进行凉亭采集时,就需要重新测量尺寸,重新推算。上述不方便的测量以及多次重新测量都会带来测量的误差,从而导致相机位置推算错误。而本方案根据大量实验数据,给出了相机位置需要满足的经验条件,不仅避免测量难以准确测量的角度,而且不需要直接测量物体大小尺寸。经验条件中d、f均为相机固定参数,在购买相机、镜头时,厂家即会给出相应参数,无需测量。而T仅为一个直线距离,用传统测量方法,例如直尺、激光测距仪均可以很便捷的测量得到。因此,本发明的经验公式使得准备过程变得方便快捷,同时也提高了相机位置的排布准确度,使得相机能够设置在优化的位置中,从而在同时兼顾了3D合成精度和速度。
从上述实验结果及大量实验经验可以得出,δ的值应当满足δ<0.603,此时已经能够合成部分3D模型,虽然有一部分无法自动合成,但是在要求不高的情况下也是可以接受的,并且可以通过手动或者更换算法的方式弥补无法合成的部分。特别是δ的值满足δ<0.410时,能够最佳地兼顾合成效果和合成时间的平衡;为了获得更好的合成效果可以选择δ<0.356,此时合成时间会上升,但合成质量更好。当然为了进一步提高合成效果,可以选择δ<0.311。而当δ为0.681时,已经无法合成。但这里应当注意,以上范围仅仅是最佳实施例,并不构成对保护范围的限定。
并且从上述实验可以看出,对于相机拍照位置的确定,只需要获取相机参数(焦距f、CCD尺寸)、相机CCD与物体表面的距离T即可根据上述公式得到,这使得在进行设备设计和调试时变得容易。由于相机参数(焦距f、CCD尺寸)在相机购买时就已经确定,并且是产品说明中就会标示的,很容易获得。因此根据上述公式很容易就能够计算得到相机位置,而不需要再进行繁琐的视场角测量和物体尺寸测量。特别是在一些场合中,需要更换相机镜头,那么本发明的方法直接更换镜头常规参数f计算即可得到相机位置;同理,在采集不同物体时,由于物体大小不同,对于物体尺寸的测量也较为繁琐。而使用本发明的方法,无需进行物体尺寸测量,能够更为便捷地确定相机位置。并且使用本发明确定的相机位置,能够兼顾合成时间和合成效果。因此,上述经验条件是本发明的发明点之一。
以上数据仅为验证该公式条件所做实验得到的,并不对发明构成限定。即使没有这些数据,也不影响该公式的客观性。本领域技术人员可以根据需要调整设备参数和步骤细节进行实验,得到其他数据也是符合该公式条件的。
本发明所述的转动运动,为在采集过程中前一位置采集平面和后一位置采集平面发生交叉而不是平行,或前一位置图像采集装置光轴和后一位置图像采集位置光轴发生交叉而不是平行。也就是说,图像采集装置的采集区域环绕或部分环绕目标物运动,均可以认为是两者相对转动。虽然本发明实施例中列举更多的为有轨道的转动运动,但是可以理解,只要图像采集设备的采集区域和目标物之间发生非平行的运动,均是转动范畴,均可以使用本发明的限定条件。本发明保护范围并不限定于实施例中的有轨道转动。
本发明所述的相邻采集位置是指,在图像采集装置相对目标物移动时,移动轨迹上的发生采集动作的两个相邻位置。这通常对于图像采集装置运动容易理解。但对于目标物发生移动导致两者相对移动时,此时应当根据运动的相对性,将目标物的运动转化为目标物不动,而图像采集装置运动。此时再衡量图像采集装置在转化后的移动轨迹中发生采集动作的两个相邻位置。
3D合成建模装置及方法
处理器,也称处理单元,用以根据图像采集装置采集的多个图像,根据3D合成算法,合成目标物3D模型,得到目标物3D信息。图像采集装置1将采集到的多个图像发送给处理单元,处理单元根据上述所述一组图像中的多个图像得到目标物的3D信息。当然,处理单元可以直接设置在图像采集装置1所在的壳体内,也可以通过数据线或通过无线方式与图像采集装置连接。例如可以使用独立的计算机、服务器及集群服务器等作为处理单元,图像采集装置1采集到的图像数据传输至其上,进行3D合成。同时,也可以将图像采集装置1的数据传输至云平台,利用云平台的强大计算能力进行3D合成。
处理单元中执行如下方法:
1、对所有输入照片进行图像增强处理。采用下述滤波器增强原始照片的反差和同时压制噪声。
式中:g(x,y)为原始影像在(x,y)处灰度值,f(x,y)为经过WaLLis滤波器增强后该处的灰度值,mg为原始影像局部灰度均值,sg为原始影像局部灰度标准偏差,mf为变换后的影像局部灰度目标值,sf为变换后影像局部灰度标准偏差目标值。c∈(0,1)为影像方差的扩展常数,b∈(0,1)为影像亮度系数常数。
该滤波器可以大大增强影像中不同尺度的影像纹理模式,所以在提取影像的点特征时可以提高特征点的数量和精度,在照片特征匹配中则提高了匹配结果可靠性和精度。
2、对输入的所有图像进行特征点提取,并进行特征点匹配,获取稀疏特征点。采用SURF算子对照片进行特征点提取与匹配。SURF特征匹配方法主要包含三个过程,特征点检测、特征点描述和特征点匹配。该方法使用Hessian矩阵来检测特征点,用箱式滤波器(BoxFiLters)来代替二阶高斯滤波,用积分图像来加速卷积以提高计算速度,并减少了局部影像特征描述符的维数,来加快匹配速度。主要步骤包括①构建Hessian矩阵,生成所有的兴趣点,用于特征提取,构建Hessian矩阵的目的是为了生成图像稳定的边缘点(突变点);②构建尺度空间特征点定位,将经过Hessian矩阵处理的每个像素点与二维图像空间和尺度空间邻域内的26个点进行比较,初步定位出关键点,再经过滤除能量比较弱的关键点以及错误定位的关键点,筛选出最终的稳定的特征点;③特征点主方向的确定,采用的是统计特征点圆形邻域内的harr小波特征。即在特征点的圆形邻域内,统计60度扇形内所有点的水平、垂直harr小波特征总和,然后扇形以0.2弧度大小的间隔进行旋转并再次统计该区域内harr小波特征值之后,最后将值最大的那个扇形的方向作为该特征点的主方向;④生成64维特征点描述向量,特征点周围取一个4*4的矩形区域块,但是所取得矩形区域方向是沿着特征点的主方向。每个子区域统计25个像素的水平方向和垂直方向的haar小波特征,这里的水平和垂直方向都是相对主方向而言的。该haar小波特征为水平方向值之后、垂直方向值之后、水平方向绝对值之后以及垂直方向绝对值之和4个方向,把这4个值作为每个子块区域的特征向量,所以一共有4*4*4=64维向量作为Surf特征的描述子;⑤特征点匹配,通过计算两个特征点间的欧式距离来确定匹配度,欧氏距离越短,代表两个特征点的匹配度越好。
3、输入匹配的特征点坐标,利用光束法平差,解算稀疏的目标物三维点云和拍照相机的位置和姿态数据,即获得了稀疏目标物模型三维点云和位置的模型坐标值;以稀疏特征点为初值,进行多视照片稠密匹配,获取得到密集点云数据。该过程主要有四个步骤:立体像对选择、深度图计算、深度图优化、深度图融合。针对输入数据集里的每一张影像,我们选择一张参考影像形成一个立体像对,用于计算深度图。因此我们可以得到所有影像的粗略的深度图,这些深度图可能包含噪声和错误,我们利用它的邻域深度图进行一致性检查,来优化每一张影像的深度图。最后进行深度图融合,得到整个场景的三维点云。
4、利用密集点云进行目标物曲面重建。包括定义八叉树、设置函数空间、创建向量场、求解泊松方程、提取等值面几个过程。由梯度关系得到采样点和指示函数的积分关系,根据积分关系获得点云的向量场,计算指示函数梯度场的逼近,构成泊松方程。根据泊松方程使用矩阵迭代求出近似解,采用移动方体算法提取等值面,对所测点云重构出被测物体的模型。
5、目标物模型的全自动纹理贴图。表面模型构建完成后,进行纹理贴图。主要过程包括:①纹理数据获取通过图像重建目标的表面三角面格网;②重建模型三角面的可见性分析。利用图像的标定信息计算每个三角面的可见图像集以及最优参考图像;③三角面聚类生成纹理贴片。根据三角面的可见图像集、最优参考图像以及三角面的邻域拓扑关系,将三角面聚类生成为若干参考图像纹理贴片;④纹理贴片自动排序生成纹理图像。对生成的纹理贴片,按照其大小关系进行排序,生成包围面积最小的纹理图像,得到每个三角面的纹理映射坐标。
虽然上述实施例中记载图像采集装置采集图像,但不应理解为仅适用于单张图片构成的图片组,这只是为了便于理解而采用的说明方式。图像采集装置也可以采集视频数据,直接利用视频数据或从视频数据中截取图像进行3D合成。但合成时所利用的视频数据相应帧或截取的图像的拍摄位置,依然满足上述经验公式。
上述目标物体、目标物、及物体皆表示预获取三维信息的对象。可以为一实体物体,也可以为多个物体组成物。所述目标物的三维信息包括三维图像、三维点云、三维网格、局部三维特征、三维尺寸及一切带有目标物三维特征的参数。本发明里所谓的三维是指具有XYZ三个方向信息,特别是具有深度信息,与只有二维平面信息具有本质区别。也与一些称为三维、全景、全息、三维,但实际上只包括二维信息,特别是不包括深度信息的定义有本质区别。
本发明所说的采集区域是指图像采集装置(例如相机)能够拍摄的范围。本发明中的图像采集装置可以为CCD、CMOS、相机、摄像机、工业相机、监视器、摄像头、手机、平板、笔记本、移动终端、可穿戴设备、智能眼镜、智能手表、智能手环以及带有图像采集功能所有设备。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的基于本发明装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
至此,本领域技术人员应认识到,虽然本文已详尽示出和描述了本发明的多个示例性实施例,但是,在不脱离本发明精神和范围的情况下,仍可根据本发明公开的内容直接确定或推导出符合本发明原理的许多其他变型或修改。因此,本发明的范围应被理解和认定为覆盖了所有这些其他变型或修改。
Claims (9)
1.一种以投射光斑为标定点的标定方法,其特征在于:
(1)利用标定装置向待测目标物投射多个光束,并在待测目标物表面形成至少三个光斑,即为标定点;
(2)利用标定装置中的测距模块和测角模块分别对标定点进行距离测量和角度测量;所述角度测量包括:①测量每个标定点和原点的连线与水平面的夹角;②测量各标定点的投影线之间的夹角;其中投影线是标定点在水平面投影点与原点的连线;
(3)以标定装置为原点,根据上述距离测量值和角度测量值计算各个标定点坐标;
(4)从而确定待测目标物的3D模型的坐标;
具体的,标定装置位于O点,A、B、C、D、E…为标定点;
利用标定装置测量其到标定点的距离L1、L2、L3、L4、L5…同时标定装置继续位于O点不变,若A’、B’、C’、D’、E’分别是标定点到标定装置所在水平面的投影点;
使用标定装置测量角度:∠AOA’,∠BOB’,∠COC’,∠DOD’,∠EOE’分别对应α1,α2,α3,α4,α5;以及∠A’OB’,∠A’OC’,∠A’OD’,∠A’OE’,分别对应β1,β2,β3,β4;
以A’O为坐标系的X轴方向,计算的到:
A相对与O的三维坐标点Pa(L1*cosα1,0,L1*sinα1);
B相对与O的三维坐标点Pb(L2*cosα2*cosβ1,L2*cosα2*sinβ1,L2*sinα2);
C相对与O的三维坐标点Pc(L3*cosα3*cosβ2,L3*cosα3*sinβ2,L3*sinα3);
D相对与O的三维坐标点Pd(L4*cosα4*cosβ3,L4*cosα4*sinβ3,L4*sinα4);
E相对与O的三维坐标点Pe(L5*cosα5*cosβ4,L5*cosα5*sinβ4,L5*sinα5);
以O点为原点,其三维坐标点为(0,0,0),则对应的空间几个标定点的坐标分别为:(L1*cosα1,0,L1*sinα1),(L2*cosα2*cosβ1,L2*cosα2*sinβ1,L2*sinα2),(L3*cosα3*cosβ2,L3*cosα3*sinβ2,L3*sinα3),(L4*cosα4*cosβ3+,L4*cosα4*sinβ3,L4*sinα4),(L5*cosα5*cosβ4,L5*cosα5*sinβ4,L5*sinα5)。
2.如权利要求1所述的方法,其特征在于:利用标定装置向待测目标物投射多个光束,并在待测目标物表面形成多个光斑的步骤具体为:标定装置依次向待测目标物投射多个光束。
3.如权利要求1所述的方法,其特征在于:所述距离测量包括测量各个标定点到标定装置的距离;所述角度测量包括:测量每个标定点和原点的连线与水平面的夹角,以及测量各标定点的投影线之间的夹角;其中投影线是标定点在水平面投影点与原点的连线。
4.如权利要求1所述的方法,其特征在于:还包括对采集的图像进行特征点提取,并进行特征点匹配,获取稀疏特征点;输入匹配的特征点坐标,利用解算稀疏的三维点云和拍照图像采集设备的位置和姿态数据,获得待测目标物的稀疏的模型三维点云和位置的模型坐标值。
5.如权利要求4所述的方法,其特征在于:导入待测目标物上的标志点的绝对坐标XT、YT、ZT和已做好的标志点的图片模板,然后将标志点的图片模板与输入的所有照片进行模板匹配,获得输入照片中所有包含标志点的像素行列号xi、yi。
6.如权利要求4所述的方法,其特征在于:还包括根据拍照相机的位置和姿态数据,输入标志点的像素行列号xi、yi,解算出其标志点的模型坐标系下坐标(Xi、Yi、Zi);根据标志点绝对坐标和模型坐标(XT、YT、ZT)与(Xi、Yi、Zi),利用空间相似变换公式,解算出模型坐标与绝对坐标的7个空间坐标转换参数。
7.如权利要求6所述的方法,其特征在于:还包括利用解算的7个参数,则可将待测目标物的三维点云和拍照相机的位置和姿态数据的坐标转换到绝对坐标系下,即获得了待测目标物体的真实尺寸。
8.如权利要求1所述的方法,其特征在于:获得待测目标物的绝对尺寸。
9.一种3D模型构建方法,其特征在于,使用如权利要求1-8任一所述方法构建目标物3D模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110828803.6A CN113532329B (zh) | 2020-03-16 | 2020-03-16 | 一种以投射光斑为标定点的标定方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110828803.6A CN113532329B (zh) | 2020-03-16 | 2020-03-16 | 一种以投射光斑为标定点的标定方法 |
CN202010183965.4A CN111442721B (zh) | 2020-03-16 | 2020-03-16 | 一种基于多激光测距和测角的标定设备及方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010183965.4A Division CN111442721B (zh) | 2020-03-16 | 2020-03-16 | 一种基于多激光测距和测角的标定设备及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113532329A CN113532329A (zh) | 2021-10-22 |
CN113532329B true CN113532329B (zh) | 2024-03-19 |
Family
ID=71627572
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110828803.6A Active CN113532329B (zh) | 2020-03-16 | 2020-03-16 | 一种以投射光斑为标定点的标定方法 |
CN202010183965.4A Active CN111442721B (zh) | 2020-03-16 | 2020-03-16 | 一种基于多激光测距和测角的标定设备及方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010183965.4A Active CN111442721B (zh) | 2020-03-16 | 2020-03-16 | 一种基于多激光测距和测角的标定设备及方法 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN113532329B (zh) |
WO (1) | WO2021185217A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113532329B (zh) * | 2020-03-16 | 2024-03-19 | 天目爱视(北京)科技有限公司 | 一种以投射光斑为标定点的标定方法 |
CN112254674B (zh) * | 2020-10-15 | 2022-02-15 | 天目爱视(北京)科技有限公司 | 一种近距离智能视觉3d信息采集设备 |
CN112254672B (zh) * | 2020-10-15 | 2022-02-15 | 天目爱视(北京)科技有限公司 | 一种高度可调的智能3d信息采集设备 |
CN112017235B (zh) * | 2020-10-22 | 2021-01-05 | 博迈科海洋工程股份有限公司 | 一种基于投影法的标准钢结构中心线角度误差检测方法 |
US20230336874A1 (en) * | 2021-11-02 | 2023-10-19 | X-Biomedical, Inc. | Method and system of electromechanical control to adjust the positioning and parallax of two cameras |
CN114062265B (zh) * | 2021-11-11 | 2023-06-30 | 易思维(杭州)科技有限公司 | 一种用于视觉系统的支撑结构稳定性的评估方法 |
CN114415155B (zh) * | 2022-01-25 | 2024-05-03 | 长安大学 | 单点激光测距仪与可见光相机的位置标定方法 |
CN114332231B (zh) * | 2022-03-04 | 2022-06-14 | 成都创像科技有限公司 | 视觉检测设备中机械手与相机的定位方法、装置及介质 |
CN116403008B (zh) * | 2023-05-29 | 2023-09-01 | 广州市德赛西威智慧交通技术有限公司 | 驾校训练场地的地图采集方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106168461A (zh) * | 2016-01-18 | 2016-11-30 | 河南交通职业技术学院 | 一种新型远距离测量定标仪 |
CN110044266A (zh) * | 2019-06-03 | 2019-07-23 | 易思维(杭州)科技有限公司 | 基于散斑投影的摄影测量系统 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10219054B4 (de) * | 2002-04-24 | 2004-08-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes |
US7912673B2 (en) * | 2005-03-11 | 2011-03-22 | Creaform Inc. | Auto-referenced system and apparatus for three-dimensional scanning |
CN101577002B (zh) * | 2009-06-16 | 2011-12-28 | 天津理工大学 | 应用于目标检测的鱼眼镜头成像系统标定方法 |
TWI379224B (en) * | 2009-06-30 | 2012-12-11 | Cheng Uei Prec Ind Co Ltd | Optical positing apparatus and positing method thereof |
JP5431221B2 (ja) * | 2010-03-19 | 2014-03-05 | 株式会社東芝 | 距離測定装置 |
CN102589476B (zh) * | 2012-02-13 | 2014-04-02 | 天津大学 | 高速扫描整体成像三维测量方法 |
CN102982548B (zh) * | 2012-12-11 | 2015-11-25 | 清华大学 | 多目立体视频采集系统及其相机参数标定方法 |
CN103522291B (zh) * | 2013-10-29 | 2016-08-17 | 中国人民解放军总装备部军械技术研究所 | 一种排爆机器人的目标抓取系统及方法 |
CN104156972B (zh) * | 2014-08-25 | 2017-01-25 | 西北工业大学 | 基于激光扫描测距仪与多相机融合的透视成像方法 |
US9989357B2 (en) * | 2015-09-09 | 2018-06-05 | Faro Technologies, Inc. | Aerial device that cooperates with an external projector to measure three-dimensional coordinates |
CN107101580B (zh) * | 2017-05-18 | 2018-04-20 | 金钱猫科技股份有限公司 | 一种基于激光的图像测量方法、系统及装置 |
CN108470149A (zh) * | 2018-02-14 | 2018-08-31 | 天目爱视(北京)科技有限公司 | 一种基于光场相机的3d四维数据采集方法及装置 |
CA3092187A1 (en) * | 2018-02-26 | 2019-08-29 | Marc-Antoine Drouin | Kit and method for calibrating large volume 3d imaging systems |
CN108460788A (zh) * | 2018-03-20 | 2018-08-28 | 西安新拓三维光测科技有限公司 | 一种用于大型风力叶片运动追踪的视频测量方法 |
CN108917604B (zh) * | 2018-07-12 | 2020-07-17 | 上海航天设备制造总厂有限公司 | 一种法向测量装置及其标定方法 |
CN110706291A (zh) * | 2019-09-26 | 2020-01-17 | 哈尔滨工程大学 | 一种适用于水池实验中运动物体三维轨迹的视觉测量方法 |
CN113532329B (zh) * | 2020-03-16 | 2024-03-19 | 天目爱视(北京)科技有限公司 | 一种以投射光斑为标定点的标定方法 |
-
2020
- 2020-03-16 CN CN202110828803.6A patent/CN113532329B/zh active Active
- 2020-03-16 CN CN202010183965.4A patent/CN111442721B/zh active Active
-
2021
- 2021-03-15 WO PCT/CN2021/080877 patent/WO2021185217A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106168461A (zh) * | 2016-01-18 | 2016-11-30 | 河南交通职业技术学院 | 一种新型远距离测量定标仪 |
CN110044266A (zh) * | 2019-06-03 | 2019-07-23 | 易思维(杭州)科技有限公司 | 基于散斑投影的摄影测量系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111442721A (zh) | 2020-07-24 |
WO2021185217A1 (zh) | 2021-09-23 |
CN113532329A (zh) | 2021-10-22 |
CN111442721B (zh) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113379822B (zh) | 一种基于采集设备位姿信息获取目标物3d信息的方法 | |
CN113532329B (zh) | 一种以投射光斑为标定点的标定方法 | |
CN113327291B (zh) | 一种基于连续拍摄对远距离目标物3d建模的标定方法 | |
CN111060023B (zh) | 一种高精度3d信息采集的设备及方法 | |
CN111292364B (zh) | 一种三维模型构建过程中图像快速匹配的方法 | |
CN111462304B (zh) | 一种用于太空领域的3d采集和尺寸测量方法 | |
CN111445529B (zh) | 一种基于多激光测距的标定设备及方法 | |
CN111238374B (zh) | 一种基于坐标测量的三维模型构建及测量方法 | |
CN111292239B (zh) | 一种三维模型拼接设备及方法 | |
CN111076674B (zh) | 一种近距离目标物3d采集设备 | |
CN111060008B (zh) | 一种3d智能视觉设备 | |
CN112016570B (zh) | 用于背景板同步旋转采集中的三维模型生成方法 | |
WO2021185215A1 (zh) | 一种在3d建模中多相机共同标定方法 | |
CN112254670B (zh) | 一种基于光扫描和智能视觉融合的3d信息采集设备 | |
CN111340959B (zh) | 一种基于直方图匹配的三维模型无缝纹理贴图方法 | |
CN113538552B (zh) | 一种基于图像排序的3d信息合成图像匹配的方法 | |
CN112254679B (zh) | 一种多位置组合式3d采集系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |