CN112465960A - 一种三维模型的尺寸标定装置及方法 - Google Patents
一种三维模型的尺寸标定装置及方法 Download PDFInfo
- Publication number
- CN112465960A CN112465960A CN202011501874.7A CN202011501874A CN112465960A CN 112465960 A CN112465960 A CN 112465960A CN 202011501874 A CN202011501874 A CN 202011501874A CN 112465960 A CN112465960 A CN 112465960A
- Authority
- CN
- China
- Prior art keywords
- image
- circle
- point
- target
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/012—Dimensioning, tolerancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明实施例提供了一种三维模型尺寸标定装置及方法:多个标志点,设置在目标物上或目标物周边;图像采集装置,其采集区域与目标物相互移动从而采集目标物多个图像,所述多个图像中的至少一部分图像包括标志点;处理器,根据上述多个图像中的至少一部分图像合成目标物的3D模型,并识别出上述至少一部分图像中的标志点,并根据标志点的坐标或尺寸,得到目标物3D模型的坐标或尺寸。通过优化标定标志的形状来提高标定效率。
Description
技术领域
本发明涉及形貌测量技术领域,特别涉及3D形貌测量技术领域。
背景技术
目前在利用视觉方式进行3D采集和测量时,通常使得相机相对目标物转动,或在目标物周边设置多个相机同时进行采集。例如南加州大学的DigitaL EmiLy项目,采用球型支架,在支架上不同位置不同角度固定了上百个相机,从而实现人体的3D采集和建模。然而无论哪种方式,都需要相机与目标物距离较短,至少应当在可布置的范围内,这样才能形成相机在不同位置采集目标物图像。
然而在一些应用中,无法环绕目标物进行图像的采集。例如监控探头在采集被监控区域时,由于区域较大、距离较远,且采集对象不固定,因此难以围绕目标对象设置相机,或使得相机围绕目标对象转动。在这种情形下如何进行目标对象的3D采集与建模是亟待解决的问题。
更进一步的问题,对于目标即使完成3D建模,如何得到其准确的尺寸,从而使得3D模型具有绝对的尺寸也是没有解决的问题。例如在实验室或工厂中,可以针对目标物进行各种标定物的设计,可以在目标物周边放置标定物,从而根据标定物的已知坐标,最终获得目标物的坐标或绝对尺寸。然而,如何进行恰当的标定物设置,从而实现快速、准确的尺寸计算一直未得到较好解决。同时,现有标定方法均是人工对每个图片中的标定物影像进行选择,从而帮助后续三维合成软件识别该标定物,从而准确获得其坐标。这样的方法费时费力。
而且,除了单一目标物3D构建外,通常还有目标物内部空间3D模型构建需求和周边较大视场范围内的3D模型构建的需求,这是传统环绕式3D采集设备所很难做到的。
在现有技术中,也曾提出使用包括旋转角度、目标物尺寸、物距的经验公式限定相机位置,从而兼顾合成速度和效果。然而在实际应用中发现这在环绕式3D采集中是可行的,可以事先测量目标物尺寸。但在开放式的空间中则难以事先测量目标物,例如需要采集获得街道、交通路口、楼群、隧道、车流等的3D信息(不限于此)。这使得这种方法难以奏效。即使是固定的较小的目标物,例如家具、人身体部分等虽然可以事先测量其尺寸,但这种方法依然受到较大限制:目标物尺寸难以准确确定,特别是某些应用场合目标物需要频繁更换,每次测量带来大量额外工作量,并且需要专业设备才能准确测量不规则目标物。测量的误差导致相机位置设定误差,从而会影响采集合成速度和效果;准确度和速度还需要进一步提高。
现有技术虽然也有对于环绕式采集设备优化的方法,但当3D采集合成设备的相机的采集方向与其旋转轴方向相互背离的情况时,现有技术就没有更佳的优化方法。
发明内容
鉴于上述问题,提出了本发明提供一种克服上述问题或者至少部分地解决上述问题的一种三维模型尺寸标定装置及方法。
本发明实施例提供了一种三维模型尺寸标定装置及方法:多个标志点,设置在目标物上或目标物周边;
图像采集装置,其采集区域与目标物相互移动从而采集目标物多个图像,所述多个图像中的至少一部分图像包括标志点。
处理器,根据上述多个图像中的至少一部分图像合成目标物的3D模型,并识别出上述至少一部分图像中的标志点,并根据标志点的坐标或尺寸,得到目标物3D模型的坐标或尺寸。
在可选的实施例中:所述识别采用深度学习的方法。
在可选的实施例中:所述深度学习算法依据的模型的训练方法包括:
模型包括三部分组成,第一部分以VGG16作为骨架网络;第二部分搭建FPN结构,第三部分为分类和检测框预测网络。
在可选的实施例中:模型的损失函数为:
其中,x为目标类别,c为置信度,l为预测框,g为真实框,N为与真实框相匹配的先验框个数,Loc是定位损失,conf是分类置信损失,α是权重项,默认设置为1。
在可选的实施例中:在训练时,根据标志点目标位置随机选适合的区域来取数据。
在可选的实施例中:识别过程包括:
当检测图像尺寸小于预设值时,直接把原图传入网络进行检测得到目标位置;
当图像尺寸大于网络要求的图像尺寸预设值时,采用滑窗检测的方法,首先将图像根据网络输入的大小划分为n*m块,检测过程采用膨胀滑动窗口方式检测,每次读取一块图像送入网络进行预测,相邻两滑动窗口具有重叠度,保证每个目标都能被完整的检测到,处理完整幅图之后,再对所有检测结果进行非极大值抑制方式,去除重复的置信度低的目标得到最终的检测结果。
在可选的实施例中:所述对所有检测结果进行非极大值抑制方式,去除重复的置信度低的目标得到最终的检测结果的过程包括:
1)将检测结果边界框根据置信度进行排序;
2)选择置信度最高的边界框添加到最终输出列表中,将其从边界框列表中删除;
3)计算所有边界框的面积;
4)计算置信度最高的边界框与其他候选框的交并比(IOU);
5)删除IOU大于阈值的边界框;
6)重复上述过程,直至边界框列表为空。
在可选的实施例中:所述滑窗检测为:在针对大图像小目标检测时需要进行滑动检测,先对图像进行分块,滑窗大小(a,b)根据所用网络大小(w,h)而定,当图像尺寸(W,H)不能整除(w,h)时,为了保证输入到网络中的图像尺寸一致,用0值填充边界。
在可选的实施例中:标志点结构为以下任意结构:
标志点A为两个同心圆构成,且两者之间构成的圆环与内圆具有不同颜色,在内圆圆心位置具有红点;
标志点B轮廓为圆形,圆形中心具有十字型结构,圆形内部颜色与十字型结构颜色不同,圆心位置具有红点;
标志点C轮廓为圆形,圆形中心内接三角形结构,圆形内部颜色与三角形结构颜色不同,圆心位置具有红点;
标志点D轮廓为圆形,圆形中心内接矩形结构,圆形内部颜色与矩形结构颜色不同,圆心位置具有红点;
标志点D轮廓为圆形,圆形中心内接五角星结构,圆形内部颜色与五角星结构颜色不同,圆心位置具有红点。
在可选的实施例中:在采集时对相机位置进行优化。。
发明点及技术效果
1、通过优化标定标志的形状来提高标定效率。
2、通过优化相机采集图片的位置,保证能够同时提高合成速度和合成精度。优化相机采集位置时,无需测量角度,无需测量目标尺寸,适用性更强。
3、首次提出利用特定神经网络利用特定识别方法自动识别特定标定物,提高识别效率和准确性,实现尺寸的自动计算。
4、首次提出利用自转式智能视觉3D采集设备采集目标物内部空间的3D信息,更加适用于开阔空间和较小空间。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本实用新型的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例的使用标志点及点号图像的示意图;
图2为本发明实施例的大图像小目标示意图;
图3为本发明实施例的使用3D图像采集设备的示意图;
图4为本发明实施例的3D图像采集设备另一的示意图;
其中,图像采集装置1、旋转装置2、承载装置3、常规图像11、目标位置图像22。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
标志点识别定位过程
1.标志点结构
考虑到标志点应具有易识别、可区分、抗变形等性质,标志点采用了圆形设计,紫色、蓝色、绿色、黄色和青色作为外轮廓作为颜色区分,内含圆、交叉矩形、三角形、矩形、五角星作为几何区分,中心红点是为了精确定位中心点位置。标志点及点号图像如附图1所示。
标志点A为两个同心圆构成,且两者之间构成的圆环与内圆具有不同颜色,在内圆圆心位置具有红点;
标志点B轮廓为圆形,圆形中心具有十字型结构,圆形内部颜色与十字型结构颜色不同,圆心位置具有红点;
标志点C轮廓为圆形,圆形中心内接三角形结构,圆形内部颜色与三角形结构颜色不同,圆心位置具有红点;
标志点D轮廓为圆形,圆形中心内接矩形结构,圆形内部颜色与矩形结构颜色不同,圆心位置具有红点;
标志点D轮廓为圆形,圆形中心内接五角星结构,圆形内部颜色与五角星结构颜色不同,圆心位置具有红点
2.标志点识别
利用计算机视觉深度学习的方法,对本发明设计的上述特定标志点进行学习训练,具体过程如下:
首先制作数据集,将标志点随机粘贴至待检测图像上,并记录粘贴位置和标志点号。其次,设计深度学习网络,这里用到单阶段目标检测框架SSD,根据目标特性调整anchor大小和网络结构,标志点位在整个检测图像上占比较小,属于小目标检测,并且目标尺寸不会有大的变化,故设计较小的anchor。网络不需要太深的结构,用浅层特征和较深特征融合后来检测识别目标。由于图像分辨率相对网络尺寸256*256较大,需要分块处理大图,合并后用非极大值抑制NMS的方法取最优结果。最后输出标志点的位置及类别。用到的网络结构如下:
SSD+FPN网络结构是在SSD300的基础上进行调整,建立FPN结构,使深层特征与浅层特征相融合,该网络由三部分组成,第一部分以VGG16作为骨架网络;第二部分搭建FPN结构,第三部分为分类和检测框预测网络。图像输入网络中先要经过第一部分骨架网络进行一系列的卷积、归一化、激活函数(conv+BN+ReLU)操作,获得Conv4_3、Conv7、Conv8_2、Conv9_2特征层。然后进入第二部分将深层网络Conv9_2特征升采样后的结果与Conv8_2特征层以通道对应相加(add)的方式融合输出Conv8_2_n,依次进行上采样Conv8_2_n融合(add)Conv7输出Conv7_n,同理上采样Conv7_n融合Conv4_3输出Conv4_3_n。最后利用Conv4_3_n、Conv7_n、Conv9_2n这三个特征层进行回归和分类预测。
训练方法如下:
请参考图2,常规图像11尺寸(W,H)一般都比较大,当目标较小时,图像经过降采样输入网络中,小目标会丢失很对细节。该方法针对较小目标训练过程中不需要切片和降采样,根据标志点目标位置(红框)随机选适合的区域(蓝框a,b)来取数据,这样能保证目标信息完整无损。将长宽(a,b)大小的目标位置图像22作为网络的输入,进行特征提取和检测。
建立候选框anchor,根据输入网络图像大小和目标的大小,分别计算目标在待检测特征层上可能的候选框位置和大小。对每个选定的特征层都要生成一定数量和形状的锚框,获得对应多个不同特征层的锚框,这些候选框由于特征层深度不同,特征抽象程度也不同,不同层预设的锚框尺寸也不同,极大地丰富了锚框可能覆盖的尺寸,理论上可以增强对多尺度目标的检测能力。生成锚框后,根据锚框所对应的特征图,计算特征图中每个点的坐标偏移量和类别,而后将所有不同层的特征向量整合到一起,计算总的损失函数用于对网络的训练。分别在(38*38)(19*19)(10*10)三个特征图上计算先验框计算,在每个先验框中心点产生4、6、6个默认框,总的先验框个数Num_priors=38*38*4+19*19*6+10*10*6=8542。
设置超参数,加载VGG16预训练模型初始化特征提取阶段网络,进行训练。训练过程中要计算loss函数,loss函数是相对于SSD网络的预测结果,我们需要把图片输入到当前网络中得到预测结构,同时还需要把真实框信息进行编码,把真实框位置信息格式转化为SSD预测结果格式信息。计算真实框对应所有IOU较大的先验框作为预测结果。该部分loss函数主要有两部分:分类和回归。
其中,x为目标类别,c为置信度,l为预测框,g为真实框,N为与真实框相匹配的先验框个数,Loc是定位损失,conf是分类置信损失,α是权重项,默认设置为1。
3.标志点精确定位
得到标志点识别定位结果后,直接取标志点中心,可能会有些偏差,这里需要进行一系列处理精确定位。在检测出的范围内查找红颜色区域(标志点中心为红色),通过设定颜色饱和度阈值分割出红色区域,并得出中心点位坐标。
检测方法如下:
当检测图像尺寸较小时可直接把原图传入网络进行检测得到目标位置;当图像尺寸远大于网络要求的图像尺寸时就需要采用滑窗检测的方法,首先将大图根据网络输入的大小划分为n*m块,检测过程采用膨胀滑动窗口方式检测,每次读取一块图像送入网络进行预测,相邻两滑动窗口直接有一定的重叠度,保证每个目标都能被完整的检测到,处理完整幅图之后,再对所有检测结果进行非极大值抑制方式,去除重复的置信度较低的目标得到最终的检测结果。非极大值抑制其思想时搜索局部最大值,抑制极大值,可以根据置信度消除冗余的边界框。其过程为:
1)将检测结果边界框根据置信度进行排序;
2)选择置信度最高的边界框添加到最终输出列表中,将其从边界框列表中删除;
3)计算所有边界框的面积;
4)计算置信度最高的边界框与其他候选框的交并比(IOU);
5)删除IOU大于阈值的边界框;
6)重复上诉过程,直至边界框列表为空;
在针对大图像小目标检测时需要进行滑动检测,先对大图进行分块,滑窗大小(a,b)根据所用网络大小(w,h)而定,当图像尺寸(W,H)不能整除(w,h)时,为了保证输入到网络中的图像尺寸一致,需要用0值填充边界。识别出目标在每个窗口的相对坐标,再转化为大图上的坐标。在滑动过程中对每个图片块进行检测,检测出来的目标位置是相对的滑窗的,需要根据窗口的滑动位置计算出目标在大图中的位置,因为滑动过程有一定的重叠度,可能会存在一个目标对应多个检测结果,最后利用NMS过滤。
3D采集标定流程
当要采集的目标物为B时,此时可以在B的周边或B物体上放置四个标定物A,使用图像采集装置采集包含标定物A的目标物B的多张图像,后根据3D合成算法进行合成,根据标定物A的坐标即可获得目标物B的绝对坐标,从而获得目标物B的真实尺寸;或根据标定物A的尺寸,即可获得目标物B的绝对尺寸,从而获得目标物B的真实尺寸。
具体如下:
1、使用采集设备采集目标物多个图像,在采集时,每次采集设备的采集区域与目标物之间相互运动。因此,对于采集设备和/或目标物的每次采集位置具有一定的要求,具体下面将详述。
2、测量目标物上或目标物周边标定点坐标。从采集图像中确定多个特征点,这些点应该是多张采集照片中均出现的,最终能够合成三维模型的点。可以理解,这些标定点是在图像上易区分,且唯一的点。特别是在颜色、纹理上有明显特征的点。上述标志点A、B、C、D、E点对应的三维坐标已知Pa(Xa,Ya,Za),Pb(Xb,Yb,Zb),Pc(Xc,Yc,Zc),Pd(Xd,Yd,Zd),Pe(Xe,Ye,Ze)。
3、在处理中进行三维模型构建和坐标测量。
(1)对所有拍摄照片进行特征点提取,并进行特征点匹配。获取稀疏特征点。输入匹配的特征点坐标,利用解算稀疏的三维点云和拍照相机的位置和姿态数据,即获得了拍照目标区域的稀疏的模型三维点云和位置的模型坐标值。
(2)在输入的照片上,利用软件自动识别测出标定点,并自动测量出A、B、C、D、E点所在照片上对应的像素行列号xi、yi,或者利用已做好A、B、C、D、E标志点的图片模板,然后将标志点的图片模板与输入的所有照片进行模板匹配,获得输入照片中所有包含标志点A、B、C、D、E的像素行列号xi、yi;
(3)根据步骤(1)的拍照相机的位置和姿态数据,输入标志点的像素行列号xi、yi,可解算出其标志点的模型坐标系下坐标(Xi、Yi、Zi);根据A、B、C、D、E点的标志点绝对坐标Pa,Pb,Pc,Pd,Pe和对应的模型点坐标(Xi、Yi、Zi),利用空间相似变换公式,解算出模型坐标与绝对坐标的7个空间坐标转换参数;其中εx、εy、εz、λ、X0、Y0、Z0为7个参数。X,Y,Z是目标物的模型坐标,XT,YT,ZT是目标物的绝对坐标(标定坐标)。
利用(3)解算的7个参数,则可将拍摄目标区域与目标物体的三维点云和拍照相机的位置和姿态数据的坐标转换到绝对坐标系下,即获得了目标物体的真实尺寸和大小。
可以理解,上述仅仅是举例进行了五个标志点的测量,实际上只需要三个以上的标志点即可。
当然,虽然上述分成两组进行工作,但可以理解,图像采集和坐标测量是可以同时完成的,并不一定必须要分组进行。同时,为了测量的精确,也可以事先在目标物上设置专门的标定点,例如在目标物上做好十字标记等。这种标记可以是喷涂的,也可以是利用激光投射光点。而且这种方法虽然在大量目标物测量时较佳,但可以理解其同样可以用于常规室内、工厂单个静止目标物的测量。
3D信息采集设备结构
为解决上述技术问题,本发明的一实施例提供了一种视觉3D信息采集设备,请参考图3,包括图像采集装置1、旋转装置2、承载装置3。
其中图像采集装1与旋转装置2的旋转轴连接,由旋转装置2带动其转动。图像采集装置1的采集方向为背离旋转中心方向。即采集方向为指向相对于旋转中心向外。图像采集装置1的光轴可以与旋转平面平行,也可以与旋转平面成一定夹角,如图4所示,例如在以旋转平面为基准-90°-90°的范围内均是可以的。通常旋转轴或其延长线(即旋转中心线)通过图像采集装置,即图像采集装置仍然以自转方式转动。这与传统的图像采集装置围绕某一目标物进行旋转的采集方式(环绕式)本质不同,即与环绕目标物转动的环绕式完全不同。图像采集装置的光学采集口(例如镜头)均背向旋转轴方向,也就是说图像采集装置的采集区与旋转中心线无交集。同时由于图像采集装置的光轴与水平面具有夹角,因此这种方式与一般的自转式也有较大差别,特别是能够采集表面与水平面不垂直的目标物。
当然,旋转装置的旋转轴也可以通过减速装置与图像采集装置连接,例如通过齿轮组等。当图像采集装置在水平面进行360°的旋转时,其在特定位置拍摄对应目标物的图像(具体拍摄位置后续将详细描述)。这种拍摄可以是与旋转动作同步进行,或是在拍摄位置停止旋转后进行拍摄,拍摄完毕后继续旋转,以此类推。上述旋转装置可以为电机、马达、步进电机、伺服电机、微型马达等。旋转装置(例如各类电机)可以在控制器的控制下按照规定速度转动,并且可以转动规定角度,从而实现采集位置的优化,具体采集位置下面将详细说明。当然也可以使用现有设备中的旋转装置,将图像采集装置安装其上即可。
承载装置用来承载整个设备的重量,旋转装置2与承载装置3连接。承载装置可以为三脚架、带有支撑装置的底座等。通常情况下,旋转装置位于承载装置的中心部分,以保证平衡。但在一些特殊场合中,也可以位于承载装置任意位置。而且承载装置并不是必须的。旋转装置可以直接安装于应用设备中,例如可以安装于车辆顶部。
3D信息采集设备还可以包括测距装置,测距装置与图像采集装置固定连接,且测距装置指向方向与图像采集装置光轴方向相同。当然测距装置也可以固定连接于旋转装置上,只要可以随图像采集装置同步转动即可。优选的,可以设置安装平台,图像采集装置和测距装置均位于平台上,平台安装于旋转装置旋转轴上,由旋转装置驱动转动。测距装置可以使用激光测距仪、超声测距仪、电磁波测距仪等多种方式,也可以使用传统的机械量具测距装置。当然,在某些应用场合中,3D采集设备位于特定位置,其与目标物的距离已经标定,无需额外测量。
3D信息采集设备还可以包括光源,光源可以设置于图像采集装置周边、旋转装置上以及安装平台上。当然光源也可以单独设置,例如使用独立光源照射目标物。甚至在光照条件较好的时候不使用光源。光源可以为LED光源,也可以为智能光源,即根据目标物及环境光的情况自动调整光源参数。通常情况下,光源位于图像采集装置的镜头周边分散式分布,例如光源为在镜头周边的环形LED灯。由于在一些应用中需要控制光源强度。特别是可以在光源的光路上设置柔光装置,例如为柔光外壳。或者直接采用LED面光源,不仅光线比较柔和,而且发光更为均匀。更佳地,可以采用OLED光源,体积更小,光线更加柔和,并且具有柔性特性,可以贴附于弯曲的表面。
为了方便目标物的实际尺寸测量,可在目标物位置设置多个标记点。并且这些标记点的坐标已知。通过采集标记点,并结合其坐标,获得3D合成模型的绝对尺寸。这些标记点可以为事先设置的点,也可以是激光光点。确定这些点的坐标的方法可以包括:①使用激光测距:使用标定装置向着目标物发射激光,形成多个标定点光斑,通过标定装置中激光测距单元的已知位置关系获得标定点坐标。使用标定装置向着目标物发射激光,使得标定装置中的激光测距单元发射的光束落在目标物上形成光斑。由于激光测距单元发射的激光束相互平行,且各个单元之间的位置关系已知。那么在目标物上形成的多个光斑的在发射平面的二维坐标就可以得到。通过激光测距单元发射的激光束进行测量,可以获得每个激光测距单元与对应光斑之间的距离,即相当于在目标物上形成的多个光斑的深度信息可以获得。即垂直于发射平面的深度坐标就可以得到。由此,可以获得每个光斑的三维坐标。②使用测距与测角结合:分别测量多个标记点的距离以及相互之间的夹角,从而算出各自坐标。③使用其它坐标测量工具:例如RTK、全球坐标定位系统、星敏定位系统、位置和位姿传感器等。
3D信息采集流程
将3D采集设备放置在目标区域中心,通常目标物环绕或部分环绕或至少部分面对采集设备。
旋转装置按一定速度带动图像采集装置进行旋转,在旋转过程中图像采集装置在设定好的位置进行图像采集。此时可以不停止旋转,即图像采集与旋转同步进行;也可以在待采集的位置停止旋转,进行图像采集,采集完毕后继续旋转至下一个待采集位置。旋转装置可以利用事先设定好的控制单元中的程序进行驱动。也可以通过通讯接口与上位机进行通讯,通过上位机进行控制旋转。特别是其还可以与移动终端通过有线或无线进行连接,通过移动终端(例如手机)控制旋转装置转动。即可以通过远程平台、云平台、服务器、上位机、移动终端设置旋转装置转动参数,控制其旋转的启停。
图像采集装置采集到目标物多张图像,并将图像通过通讯装置送入远程平台、云平台、服务器、上位机和/或移动终端中,利用3D模型合成方法进行目标物的3D合成。
特别的,可以在采集前或者采集的同时,使用测距装置测量相关公式条件中相应的距离参数,即旋转中心到目标物的距离、传感元件到目标物的距离。根据相应条件公式计算出采集位置,并提示给用户进行旋转参数的设定,或自动设定旋转参数。
在采集前进行测距时,可以使得旋转装置带动测距装置转动,从而测量不同位置上上述两个距离。并对多个测量点测得的两个距离分别取平均值,作为本次采集的统一距离值带入公式中。所述平均值的获得可以使用求和平均的方式,也可以使用加权平均的方式,还可以使用其它求均值的方式,或舍弃异常值再平均的方式等。
在采集过程中进行测距时,在旋转装置转动到第一位置进行图像采集的同时,进行上述两个距离值的测量,并将它们带入条件公式中计算间隔角度,根据该角度确定下一采集位置。
相机位置的优化
为了保证设备能够兼顾3D合成的效果和效率,除了常规的优化合成算法的方法外,还可以通过优化相机采集位置的方法。特别是当3D采集合成设备的相机的采集方向与其旋转轴方向相互背离的情况时,对于这种设备现有技术未提到如何进行相机位置的更佳的优化。即使存在的一些优化方法,其也是在不同实验下得到的不同的经验条件。特别是,现有的一些位置优化方法需要获得目标物的尺寸,这在环绕式3D采集中是可行的,可以事先测量完毕。但在开放式的空间中则难以事先测量得到。因此需要提出一种能够适用于当3D采集合成设备的相机的采集方向与其旋转轴方向相互背离的情况时进行相机位置优化的方法。这正是本发明所要解决的问题,和做出的技术贡献。
为此,本发明进行了大量实验,总结出在进行采集时相机采集的间隔优选满足的经验条件如下。
在进行3D采集时,图像采集装置在相邻的两个位置时其光轴的夹角α满足如下条件:
其中,
R为旋转中心到目标物表面的距离,
T为采集时物距与像距的和,也就是图像采集装置的感光单元与目标物的距离。
d为图像采集装置的感光元件(CCD)的长度或宽度,当上述两个位置是沿感光元件长度方向时,d取矩形长度;当上述两个位置是沿感光元件宽度方向时,d取矩形宽度。
F为图像采集装置的镜头焦距。
u为经验系数。
通常情况下,在采集设备上配置有测距装置,例如激光测距仪。将其光轴与图像采集装置的光轴调节平行,则其可以测量采集设备到目标物表面的距离,利用测量得到的距离,根据测距装置与采集设备各部件的已知位置关系,即可获得R和T。
图像采集装置在两个位置中的任何一个位置时,感光元件沿着光轴到目标物表面的距离作为T。除了这种方法外,也可以使用多次平均法或其他方法,其原则是T的值应当与采集时像距物距和不背离。
同样道理,图像采集装置在两个位置中的任何一个位置时,旋转中心沿着光轴到目标物表面的距离作为R。除了这种方法外,也可以使用多次平均法或其他方法,其原则是R的值应当与采集时旋转半径不背离。
通常情况下,现有技术中均采用物体尺寸作为推算相机位置的方式。由于物体尺寸会随着测量物体的变化而改变。例如,在进行一个大物体3D信息采集后,再进行小物体采集时,就需要重新测量尺寸,重新推算。上述不方便的测量以及多次重新测量都会带来测量的误差,从而导致相机位置推算错误。而本方案根据大量实验数据,给出了相机位置需要满足的经验条件,不需要直接测量物体大小尺寸。经验条件中d、F均为相机固定参数,在购买相机、镜头时,厂家即会给出相应参数,无需测量。而R、T仅为一个直线距离,用传统测量方法,例如直尺、激光测距仪均可以很便捷的测量得到。同时,由于本发明的设备中,图像采集装置(例如相机)的采集方向与其旋转轴方向相互背离,也就是说,镜头朝向与旋转中心大体相反。此时控制图像采集装置两次位置的光轴夹角α就更加容易,只需要控制旋转驱动电机的转角即可。因此,使用α来定义最优位置是更为合理的。因此,本发明的经验公式使得准备过程变得方便快捷,同时也提高了相机位置的排布准确度,使得相机能够设置在优化的位置中,从而在同时兼顾了3D合成精度和速度。
根据大量实验,为保证合成的速度和效果,u应当小于0.498,为了更佳的合成效果,优选u<0.411,特别是优选u<0.359,在一些应用场合下u<0.281,或u<0.169,或u<0.041,或u<0.028。
利用本发明装置,进行实验,部分实验数据如下所示,单位mm。(以下数据仅为有限举例)
以上数据仅为验证该公式条件所做实验得到的,并不对发明构成限定。即使没有这些数据,也不影响该公式的客观性。本领域技术人员可以根据需要调整设备参数和步骤细节进行实验,得到其他数据也是符合该公式条件的。
3D模型合成方法
图像采集装置采集获得的多个图像送入处理单元中,利用下述算法构建3D模型。所述处理单元可以位于采集设备中,也可以位于远程,例如云平台、服务器、上位机等。
具体算法主要包括如下步骤:
步骤1:对所有输入照片进行图像增强处理。采用下述滤波器增强原始照片的反差和同时压制噪声。
式中:g(x,y)为原始影像在(x,y)处灰度值,f(x,y)为经过Wallis滤波器增强后该处的灰度值,mg为原始影像局部灰度均值,sg为原始影像局部灰度标准偏差,mf为变换后的影像局部灰度目标值,sf为变换后影像局部灰度标准偏差目标值。c∈(0,1)为影像方差的扩展常数,b∈(0,1)为影像亮度系数常数。
该滤波器可以大大增强影像中不同尺度的影像纹理模式,所以在提取影像的点特征时可以提高特征点的数量和精度,在照片特征匹配中则提高了匹配结果可靠性和精度。
步骤2:对输入的所有照片进行特征点提取,并进行特征点匹配,获取稀疏特征点。采用SURF算子对照片进行特征点提取与匹配。SURF特征匹配方法主要包含三个过程,特征点检测、特征点描述和特征点匹配。该方法使用Hessian矩阵来检测特征点,用箱式滤波器(Box Filters)来代替二阶高斯滤波,用积分图像来加速卷积以提高计算速度,并减少了局部影像特征描述符的维数,来加快匹配速度。主要步骤包括①构建Hessian矩阵,生成所有的兴趣点,用于特征提取,构建Hessian矩阵的目的是为了生成图像稳定的边缘点(突变点);②构建尺度空间特征点定位,将经过Hessian矩阵处理的每个像素点与二维图像空间和尺度空间邻域内的26个点进行比较,初步定位出关键点,再经过滤除能量比较弱的关键点以及错误定位的关键点,筛选出最终的稳定的特征点;③特征点主方向的确定,采用的是统计特征点圆形邻域内的harr小波特征。即在特征点的圆形邻域内,统计60度扇形内所有点的水平、垂直harr小波特征总和,然后扇形以0.2弧度大小的间隔进行旋转并再次统计该区域内harr小波特征值之后,最后将值最大的那个扇形的方向作为该特征点的主方向;④生成64维特征点描述向量,特征点周围取一个4*4的矩形区域块,但是所取得矩形区域方向是沿着特征点的主方向。每个子区域统计25个像素的水平方向和垂直方向的haar小波特征,这里的水平和垂直方向都是相对主方向而言的。该haar小波特征为水平方向值之后、垂直方向值之后、水平方向绝对值之后以及垂直方向绝对值之和4个方向,把这4个值作为每个子块区域的特征向量,所以一共有4*4*4=64维向量作为Surf特征的描述子;⑤特征点匹配,通过计算两个特征点间的欧式距离来确定匹配度,欧氏距离越短,代表两个特征点的匹配度越好。
步骤3:输入匹配的特征点坐标,利用光束法平差,解算稀疏的目标物三维点云和拍照相机的位置和姿态数据,即获得了稀疏目标物模型三维点云和位置的模型坐标值;以稀疏特征点为初值,进行多视照片稠密匹配,获取得到密集点云数据。该过程主要有四个步骤:立体像对选择、深度图计算、深度图优化、深度图融合。针对输入数据集里的每一张影像,我们选择一张参考影像形成一个立体像对,用于计算深度图。因此我们可以得到所有影像的粗略的深度图,这些深度图可能包含噪声和错误,我们利用它的邻域深度图进行一致性检查,来优化每一张影像的深度图。最后进行深度图融合,得到整个场景的三维点云。
步骤4:利用密集点云进行目标物曲面重建。包括定义八叉树、设置函数空间、创建向量场、求解泊松方程、提取等值面几个过程。由梯度关系得到采样点和指示函数的积分关系,根据积分关系获得点云的向量场,计算指示函数梯度场的逼近,构成泊松方程。根据泊松方程使用矩阵迭代求出近似解,采用移动方体算法提取等值面,对所测点云重构出被测物体的模型。
步骤5:目标物模型的全自动纹理贴图。表面模型构建完成后,进行纹理贴图。主要过程包括:①纹理数据获取通过图像重建目标的表面三角面格网;②重建模型三角面的可见性分析。利用图像的标定信息计算每个三角面的可见图像集以及最优参考图像;③三角面聚类生成纹理贴片。根据三角面的可见图像集、最优参考图像以及三角面的邻域拓扑关系,将三角面聚类生成为若干参考图像纹理贴片;④纹理贴片自动排序生成纹理图像。对生成的纹理贴片,按照其大小关系进行排序,生成包围面积最小的纹理图像,得到每个三角面的纹理映射坐标。
应当注意,上述算法是本发明使用的算法,本算法与图像采集条件相互配合,使用该算法兼顾了合成的时间和质量。但可以理解,同样可以使用现有技术中常规3D合成算法也可以与本发明的方案进行配合使用。
上述目标物体、目标物、及物体皆表示预获取三维信息的对象。可以为一实体物体,也可以为多个物体组成物。所述目标物的三维信息包括三维图像、三维点云、三维网格、局部三维特征、三维尺寸及一切带有目标物三维特征的参数。本实用新型里所谓的三维是指具有XYZ三个方向信息,特别是具有深度信息,与只有二维平面信息具有本质区别。也与一些称为三维、全景、全息、三维,但实际上只包括二维信息,特别是不包括深度信息的定义有本质区别。
本发明所说的采集区域是指图像采集装置(例如相机)能够拍摄的范围。本发明中的图像采集装置可以为CCD、CMOS、相机、摄像机、工业相机、监视器、摄像头、手机、平板、笔记本、移动终端、可穿戴设备、智能眼镜、智能手表、智能手环以及带有图像采集功能所有设备。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本实用新型的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的基于本发明装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
至此,本领域技术人员应认识到,虽然本文已详尽示出和描述了本发明的多个示例性实施例,但是,在不脱离本发明精神和范围的情况下,仍可根据本发明公开的内容直接确定或推导出符合本发明原理的许多其他变型或修改。因此,本发明的范围应被理解和认定为覆盖了所有这些其他变型或修改。
Claims (10)
1.一种三维模型尺寸标定装置及方法,其特征在于:
多个标志点,设置在目标物上或目标物周边;
图像采集装置,其采集区域与目标物相互移动从而采集目标物多个图像,所述多个图像中的至少一部分图像包括标志点。
处理器,根据上述多个图像中的至少一部分图像合成目标物的3D模型,并识别出上述至少一部分图像中的标志点,并根据标志点的坐标或尺寸,得到目标物3D模型的坐标或尺寸;
2.如权利要求1所述的装置及方法,其特征在于:所述识别采用深度学习的方法。
3.如权利要求2所述的装置及方法,其特征在于:所述深度学习算法依据的模型的训练方法包括:
模型包括三部分组成,第一部分以VGG16作为骨架网络;第二部分搭建FPN结构,第三部分为分类和检测框预测网络。
5.如权利要求4所述的装置及方法,其特征在于:在训练时,根据标志点目标位置随机选适合的区域来取数据。
6.如权利要求2所述的装置及方法,其特征在于:识别过程包括:
当检测图像尺寸小于预设值时,直接把原图传入网络进行检测得到目标位置;
当图像尺寸大于网络要求的图像尺寸预设值时,采用滑窗检测的方法,首先将图像根据网络输入的大小划分为n*m块,检测过程采用膨胀滑动窗口方式检测,每次读取一块图像送入网络进行预测,相邻两滑动窗口具有重叠度,保证每个目标都能被完整的检测到,处理完整幅图之后,再对所有检测结果进行非极大值抑制方式,去除重复的置信度低的目标得到最终的检测结果。
7.如权利要求6所述的装置及方法,其特征在于:所述对所有检测结果进行非极大值抑制方式,去除重复的置信度低的目标得到最终的检测结果的过程包括:
1)将检测结果边界框根据置信度进行排序;
2)选择置信度最高的边界框添加到最终输出列表中,将其从边界框列表中删除;
3)计算所有边界框的面积;
4)计算置信度最高的边界框与其他候选框的交并比(IOU);
5)删除IOU大于阈值的边界框;
6)重复上述过程,直至边界框列表为空。
8.如权利要求6所述的装置及方法,其特征在于:所述滑窗检测为:在针对大图像小目标检测时需要进行滑动检测,先对图像进行分块,滑窗大小(a,b)根据所用网络大小(w,h)而定,当图像尺寸(W,H)不能整除(w,h)时,为了保证输入到网络中的图像尺寸一致,用0值填充边界。
9.如权利要求1所述的装置及方法,其特征在于:标志点结构为以下任意结构:
标志点A为两个同心圆构成,且两者之间构成的圆环与内圆具有不同颜色,在内圆圆心位置具有红点;
标志点B轮廓为圆形,圆形中心具有十字型结构,圆形内部颜色与十字型结构颜色不同,圆心位置具有红点;
标志点C轮廓为圆形,圆形中心内接三角形结构,圆形内部颜色与三角形结构颜色不同,圆心位置具有红点;
标志点D轮廓为圆形,圆形中心内接矩形结构,圆形内部颜色与矩形结构颜色不同,圆心位置具有红点;
标志点D轮廓为圆形,圆形中心内接五角星结构,圆形内部颜色与五角星结构颜色不同,圆心位置具有红点。
10.如权利要求1所述的装置及方法,其特征在于:在采集时对相机位置进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011501874.7A CN112465960B (zh) | 2020-12-18 | 2020-12-18 | 一种三维模型的尺寸标定装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011501874.7A CN112465960B (zh) | 2020-12-18 | 2020-12-18 | 一种三维模型的尺寸标定装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112465960A true CN112465960A (zh) | 2021-03-09 |
CN112465960B CN112465960B (zh) | 2022-05-20 |
Family
ID=74803107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011501874.7A Active CN112465960B (zh) | 2020-12-18 | 2020-12-18 | 一种三维模型的尺寸标定装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112465960B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393581A (zh) * | 2021-07-08 | 2021-09-14 | 北京上柏建筑设计咨询有限公司 | 大比例规划推演装置、系统及其使用方法 |
CN113610968A (zh) * | 2021-08-17 | 2021-11-05 | 北京京东乾石科技有限公司 | 目标检测模型的更新方法及装置 |
CN113989308A (zh) * | 2021-11-04 | 2022-01-28 | 浙江大学 | 一种基于霍夫变换与模板匹配的多边形目标分割方法 |
CN114338981A (zh) * | 2021-12-22 | 2022-04-12 | 湖南中医药大学 | 一种实验用自动显距标面积、体积照相机 |
CN114536399A (zh) * | 2022-01-07 | 2022-05-27 | 中国人民解放军海军军医大学第一附属医院 | 基于多个位姿标识的误差检测方法及机器人系统 |
CN115655112A (zh) * | 2022-11-09 | 2023-01-31 | 长安大学 | 一种基于可定位性的井下标识物及井下辅助定位方法 |
CN116310115A (zh) * | 2023-03-17 | 2023-06-23 | 合肥泰瑞数创科技有限公司 | 一种基于激光点云构建建筑物三维模型的方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102183216A (zh) * | 2011-03-14 | 2011-09-14 | 沈阳飞机工业(集团)有限公司 | 基于线结构光的三维测量方法及其装置 |
CN109102527A (zh) * | 2018-08-01 | 2018-12-28 | 甘肃未来云数据科技有限公司 | 基于标识点的视频动作的获取方法和装置 |
CN109141240A (zh) * | 2018-09-05 | 2019-01-04 | 天目爱视(北京)科技有限公司 | 一种自适应3d测量及信息获取装置 |
CN109559349A (zh) * | 2017-09-27 | 2019-04-02 | 虹软科技股份有限公司 | 一种用于标定的方法和装置 |
-
2020
- 2020-12-18 CN CN202011501874.7A patent/CN112465960B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102183216A (zh) * | 2011-03-14 | 2011-09-14 | 沈阳飞机工业(集团)有限公司 | 基于线结构光的三维测量方法及其装置 |
CN109559349A (zh) * | 2017-09-27 | 2019-04-02 | 虹软科技股份有限公司 | 一种用于标定的方法和装置 |
CN109102527A (zh) * | 2018-08-01 | 2018-12-28 | 甘肃未来云数据科技有限公司 | 基于标识点的视频动作的获取方法和装置 |
CN109141240A (zh) * | 2018-09-05 | 2019-01-04 | 天目爱视(北京)科技有限公司 | 一种自适应3d测量及信息获取装置 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393581A (zh) * | 2021-07-08 | 2021-09-14 | 北京上柏建筑设计咨询有限公司 | 大比例规划推演装置、系统及其使用方法 |
CN113393581B (zh) * | 2021-07-08 | 2023-11-24 | 北京上柏建筑设计咨询有限公司 | 大比例规划推演装置、系统及其使用方法 |
CN113610968A (zh) * | 2021-08-17 | 2021-11-05 | 北京京东乾石科技有限公司 | 目标检测模型的更新方法及装置 |
CN113989308A (zh) * | 2021-11-04 | 2022-01-28 | 浙江大学 | 一种基于霍夫变换与模板匹配的多边形目标分割方法 |
CN114338981A (zh) * | 2021-12-22 | 2022-04-12 | 湖南中医药大学 | 一种实验用自动显距标面积、体积照相机 |
CN114338981B (zh) * | 2021-12-22 | 2023-11-07 | 湖南中医药大学 | 一种实验用自动显距标面积、体积照相机 |
CN114536399A (zh) * | 2022-01-07 | 2022-05-27 | 中国人民解放军海军军医大学第一附属医院 | 基于多个位姿标识的误差检测方法及机器人系统 |
CN114536399B (zh) * | 2022-01-07 | 2023-04-25 | 中国人民解放军海军军医大学第一附属医院 | 基于多个位姿标识的误差检测方法及机器人系统 |
CN115655112A (zh) * | 2022-11-09 | 2023-01-31 | 长安大学 | 一种基于可定位性的井下标识物及井下辅助定位方法 |
CN116310115A (zh) * | 2023-03-17 | 2023-06-23 | 合肥泰瑞数创科技有限公司 | 一种基于激光点云构建建筑物三维模型的方法及系统 |
CN116310115B (zh) * | 2023-03-17 | 2023-11-24 | 合肥泰瑞数创科技有限公司 | 一种基于激光点云构建建筑物三维模型的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112465960B (zh) | 2022-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112465960B (zh) | 一种三维模型的尺寸标定装置及方法 | |
CN111238374B (zh) | 一种基于坐标测量的三维模型构建及测量方法 | |
CN113379822A (zh) | 一种基于采集设备位姿信息获取目标物3d信息的方法 | |
CN111445529B (zh) | 一种基于多激光测距的标定设备及方法 | |
CN112254670B (zh) | 一种基于光扫描和智能视觉融合的3d信息采集设备 | |
CN112254675B (zh) | 一种包含运动物体的空间占用率采集判断设备及方法 | |
CN112361962B (zh) | 一种多俯仰角度的智能视觉3d信息采集设备 | |
CN112254680B (zh) | 一种多自由度的智能视觉3d信息采集设备 | |
CN112257537B (zh) | 一种智能多点三维信息采集设备 | |
CN111445528B (zh) | 一种在3d建模中多相机共同标定方法 | |
CN112253913B (zh) | 一种与旋转中心偏离的智能视觉3d信息采集设备 | |
CN112254638B (zh) | 一种可俯仰调节的智能视觉3d信息采集设备 | |
CN112254676B (zh) | 一种便携式智能3d信息采集设备 | |
CN112257536B (zh) | 一种空间与物体三维信息采集匹配设备及方法 | |
CN112082486A (zh) | 一种手持式智能3d信息采集设备 | |
CN112254671B (zh) | 一种多次组合式3d采集系统及方法 | |
CN112254673B (zh) | 一种自转式智能视觉3d信息采集设备 | |
CN112254677B (zh) | 一种基于手持设备的多位置组合式3d采集系统及方法 | |
CN112257535B (zh) | 一种躲避物体的三维匹配的设备及方法 | |
CN112304250B (zh) | 一种移动物体之间的三维匹配设备及方法 | |
CN112254678B (zh) | 一种室内3d信息采集设备及方法 | |
CN112672134B (zh) | 基于移动终端三维信息采集控制设备及方法 | |
CN112254669B (zh) | 一种多偏置角度的智能视觉3d信息采集设备 | |
CN112254679A (zh) | 一种多位置组合式3d采集系统及方法 | |
CN112484663A (zh) | 一种多翻滚角度的智能视觉3d信息采集设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |