CN117372647A - 一种建筑用三维模型的快速构建方法及系统 - Google Patents
一种建筑用三维模型的快速构建方法及系统 Download PDFInfo
- Publication number
- CN117372647A CN117372647A CN202311396209.XA CN202311396209A CN117372647A CN 117372647 A CN117372647 A CN 117372647A CN 202311396209 A CN202311396209 A CN 202311396209A CN 117372647 A CN117372647 A CN 117372647A
- Authority
- CN
- China
- Prior art keywords
- parallax
- dimensional model
- depth map
- point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 18
- 230000002159 abnormal effect Effects 0.000 claims abstract description 35
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000012805 post-processing Methods 0.000 claims abstract description 14
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种建筑用三维模型的快速构建方法及系统,涉及图像数据处理技术领域;该方法通过从不同视角的图像中提取视差匹配所需的特征点;再计算对应特征点之间的视差;将视差转换为深度信息;再转化为深度图;根据预设的边界离群算法对深度图进行后处理,去除深度图中的异常数据点;将后处理的深度图转化为三维模型;通过计算深度图中数据点的边界交叉值和局部离群值,结合异常数据值的判定,去除深度图中的异常数据点,提高三维模型的准确性和质量,通过为特征点计算描述子,然后进行特征点对的匹配并计算视差,用于深度信息的提取,可以快速构建建筑用的三维模型,同时在特征点匹配阶段利用描述子和最近邻匹配算法来提高匹配的准确性。
Description
技术领域
本发明涉及图像数据处理技术领域,具体为一种建筑用三维模型的快速构建方法及系统。
背景技术
建立建筑用三维模型是将建筑物的实际结构以数字形式呈现的过程,数字模型以三维方式表示建筑物的几何形状,包括建筑的长度、宽度、高度以及内部和外部的结构细节,通过三维模型有助于提高建筑设计和规划的效率,增强对建筑物的理解,支持可视化和沟通,以及进行建筑模拟和虚拟现实应用,建筑用三维模型在建筑和建筑相关领域中具有广泛的应用。
现有技术提出一种建筑物三维模型构建方法及系统,该方法通过点云数据进行的建筑物三维重建具有真实三维信息及像素信息,重建的三维建筑物模型真实感更强、恢复出的几何信息更完整、精度更高,然而,该方法在对三维点云数据进行去噪声处理时,采用传统的技术手段,模型构建依赖于第一次采集模型的准确性,缺少对模型多方面的整体合理性分析,容易造成三维模型整体构建融合时出现融合错误,不符合模型快速构建的准确性。
发明内容
鉴于以上所述现有技术的缺点,本发明提供一种建筑用三维模型的快速构建方法及系统,以解决上述技术问题。
本发明提供的一种建筑用三维模型的快速构建方法,包括:
S1:通过双目摄像机或多目摄像机获取一对具有不同视角的图像;
S2:从所述图像中提取视差匹配所需的特征点;
S3:通过特征点匹配算法在所述图像中计算对应特征点之间的视差;
S4:通过所述双目摄像机或多目摄像机的参数和视差,将视差转换为深度信息;
S5:将所述深度信息转化为深度图,其中,每个像素值表示场景中对应特征点的深度值;
S6:根据预设的边界离群算法对深度图进行后处理,去除所述深度图中的异常数据点;
S7:将后处理的所述深度图转化为三维模型。
在一个优选的实施方式中,所述特征点包括角点、边缘和纹理。
在一个优选的实施方式中,步骤S3具体包括:
S31:通过特征点描述算法为所述特征点计算一个描述子,其中,所述描述子是一个向量,用于描述特征点周围的图像区域;
S32:通过最近邻匹配将左右图像中的特征点进行匹配,以找到对应的特征点对;
S33:根据所述特征点对计算对应特征点之间的视差,其中,所述视差为所述特征点对的水平位移。
在一个优选的实施方式中,步骤S4的具体逻辑包括:
其中,所述De为深度值,Bl为摄像机之间的基线距离,FL为摄像机的焦距,Dp为视差的值。
在一个优选的实施方式中,步骤S6具体包括:
S61:计算所述深度图数据点的边界交叉值和局部离群值;
S62:根据所述边界交叉值和局部离群值计算异常数据值;
S63:当所述数据点的异常数据值大于预设的异常数据阈值时,判定为异常数据点。
在一个优选的实施方式中,所述边界交叉值为将所述深度图任意两个数据点进行连线,包含该数据点的连线产生的交点占总交点的值。
在一个优选的实施方式中,所述局部离群值的计算逻辑为:
S611:对于每个数据点A,计算数据点A到其k个最近邻居的第一距离,其中,k为设定值;
S612:对于每个最近邻居数据点N,找到数据点N的k个最近邻居,其中,数据点N的最近邻居不包括数据点A;
S613:计算数据点N的k个最近邻居中,与数据点A最近的数据点距离数据点A第二距离;
S614:计算数据点N的局部离群值为数据点N到数据点A的第三距离与数据点N到其k个最近邻居中与数据点A最近的第二距离的比值。
在一个优选的实施方式中,步骤S62的具体逻辑为:
其中,Vab为异常数据值,Vbc为边界交叉值,Vlo为局部离群值,w1、w2分别为边界交叉值和局部离群值的校正系数,且w1、w2均大于零。
在一个优选的实施方式中,步骤S7通过体素化、三角化网格重建或体积保存方法将所述深度图转化为三维模型。
本发明还提供一种建筑用三维模型的快速构建系统,所述系统包括:
图像获取模块:通过双目摄像机或多目摄像机获取一对具有不同视角的图像;
特征提取模块:从所述图像中提取视差匹配所需的特征点;
视差计算模块:通过特征点匹配算法在所述图像中计算对应特征点之间的视差;
转换深度模块:通过所述双目摄像机或多目摄像机的参数和视差,将视差转换为深度信息;
转换深度图模块:将所述深度信息转换为深度图,其中,每个像素值表示场景中对应特征点的深度值;
后处理模块:根据预设的边界离群算法对深度图进行后处理,去除所述深度图中的异常数据点;
模型生成模块:将后处理的所述深度图转化为三维模型。
本发明提供一种建筑用三维模型的快速构建方法及系统,所述方法通过双目摄像机或多目摄像机获取一对具有不同视角的图像;从所述图像中提取视差匹配所需的特征点;通过特征点匹配算法在所述图像中计算对应特征点之间的视差;通过所述双目摄像机或多目摄像机的参数和视差,将视差转换为深度信息;将所述深度信息转化为深度图,其中,每个像素值表示场景中对应特征点的深度值;根据预设的边界离群算法对深度图进行后处理,去除所述深度图中的异常数据点;将后处理的所述深度图转化为三维模型,产生的有益效果包括:
通过使用特征点描述算法为特征点计算描述子,然后通过最近邻匹配将左右图像中的特征点进行匹配,最终计算视差,用于深度信息的提取。可以快速构建建筑用的三维模型,同时在特征点匹配阶段利用描述子和最近邻匹配算法来提高匹配的准确性。
通过计算深度图中数据点的边界交叉值和局部离群值,结合异常数据值的判定,去除深度图中的异常数据点,助于提高三维模型的准确性和质量,特别是在从深度信息中构建建筑用三维模型的过程中,可以帮助去除可能由于噪声、错误匹配或其他因素而引入的异常数据点,从而提高模型的可靠性。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本发明的一示例性实施例示出的一种建筑用三维模型的快速构建方法的流程图;
图2为本发明的一示例性实施例示出的一种建筑用三维模型的快速构建系统结构示意图。
具体实施方式
以下将参照附图和优选实施例来说明本发明的实施方式,本领域技术人员可由本说明书中所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。应当理解,优选实施例仅为了说明本发明,而不是为了限制本发明的保护范围。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
在下文描述中,探讨了大量细节,以提供对本发明实施例的更透彻的解释,然而,对本领域技术人员来说,可以在没有这些具体细节的情况下实施本发明的实施例是显而易见的,在其他实施例中,以方框图的形式而不是以细节的形式来示出公知的结构和设备,以避免使本发明的实施例难以理解。
图1为本发明的一示例性实施例示出的一种建筑用三维模型的快速构建方法的流程图;
如图1所示,本发明提供的一种建筑用三维模型的快速构建方法,包括:
S1:通过双目摄像机或多目摄像机获取一对具有不同视角的图像;
S2:从所述图像中提取视差匹配所需的特征点;
S3:通过特征点匹配算法在所述图像中计算对应特征点之间的视差;
S4:通过所述双目摄像机或多目摄像机的参数和视差,将视差转换为深度信息;
S5:将所述深度信息转化为深度图,其中,每个像素值表示场景中对应特征点的深度值;
S6:根据预设的边界离群算法对深度图进行后处理,去除所述深度图中的异常数据点;
S7:将后处理的所述深度图转化为三维模型。
具体的,在步骤S1中涉及通过双目摄像机或多目摄像机获取一对具有不同视角的图像,这一步骤的目的是收集来自不同角度的图像数据,以便后续处理和深度信息提取;使用双目摄像机,也称为立体摄像机,或多目摄像机,这些摄像机系统通常由两个或多个相机组成,被安装在合适的位置和角度,以捕捉建筑物或场景的图像;使用相机可以捕捉不同视角的图像,模拟人眼的立体视觉,每个相机捕获来自其特定视角的图像,通过这些捕获的图像应该在空间上略有偏移,以确保捕获的建筑物或场景的图像具有不同的视角,这些捕获的图像通常成对出现,即左相机和右相机或不同位置的多个相机,同时,确保图像之间的同步和校准,同步确保图像是在相同时间捕获的,校准确保视野和坐标系是一致的。
在步骤S2中,特征点是图像中具有显著的结构或纹理的点,通常是在图像中容易识别和跟踪的点。特征点包括角点、边缘或纹理,纹理为具有独特纹理的区域。特征点通常是对于光照和尺度变化相对稳定的,特征点的提取通过使用特征检测算法实现,如Harris角点检测或SIFT(尺度不变特征变换)等,来自动检测图像中的特征点,特征检测算法会标记图像中的特征点,提供相应的坐标信息。
步骤S3是建筑用三维模型构建过程中的关键步骤,涉及使用特征点匹配算法来计算一对图像中对应特征点之间的视差,视差是指左右图像中对应特征点之间的水平位移,是深度信息的一个关键组成部分,更进一步地,步骤S3具体包括:
S31:通过特征点描述算法为所述特征点计算一个描述子,其中,所述描述子是一个向量,用于描述特征点周围的图像区域;
S32:通过最近邻匹配将左右图像中的特征点进行匹配,以找到对应的特征点对;
S33:根据所述特征点对计算对应特征点之间的视差,其中,所述视差为所述特征点对的水平位移。
在S2阶段,通过特征检测算法提取了特征点,但现在需要为每个特征点计算描述子,描述子是一个向量,用于描述特征点周围的图像区域。这些描述子可以由不同的算法生成,如SURF(加速稳健特征)或ORB(Oriented FAST and Rotated BRIEF)等,描述子捕捉了特征点的关键信息,以便在后续的步骤中进行匹配。一旦计算了特征点的描述子,接下来需要将左图像和右图像中的特征点进行匹配,以找到对应的特征点对,通过最近邻匹配对于每个左图像中的特征点,找到在右图像中具有最相似描述子的特征点,这创建了特征点对,是左右图像中相同位置的特征点,在获得特征点对后,可以计算每对特征点之间的视差;视差表示了左右图像中特征点的水平位移,通常以像素为单位。视差的计算可以通过测量特征点对之间的水平位移来实现,即特征点在左图像中的x坐标与其在右图像中的x坐标之差。
在步骤S4中,根据视差图像中的视差值和摄像机参数,将视差转换为深度信息,视差值与深度之间的关系取决于相机基线(双目摄像机间的距离)和焦距等参数,更进一步地,将视差转换为深度信息的具体逻辑为:式中,所述De为深度值,Bl为摄像机之间的基线距离,FL为摄像机的焦距,Dp为视差的值。
在步骤S5中,深度图提供了对场景的深度感知,在步骤S4,已经计算出了深度信息,每个特征点都有对应的深度值,在S5阶段,这些深度值被映射到图像上,以创建深度图,深度图是一个灰度图像,其中每个像素值表示场景中对应特征点的深度值,深度通常以像素单位或米(或其他长度单位)表示,具体单位取决于相机参数和深度信息的计算方法。
在步骤S6中涉及对深度图进行后处理,以去除异常数据点,从而提高深度图的准确性和质量。
于一示例性的实施例中,步骤S6具体包括:
S61:计算所述深度图数据点的边界交叉值和局部离群值;
S62:根据所述边界交叉值和局部离群值计算异常数据值;
S63:当所述数据点的异常数据值大于预设的异常数据阈值时,判定为异常数据点。
更进一步地,在步骤S61中,所述边界交叉值为将所述深度图任意两个数据点进行连线,包含该数据点的连线产生的交点占总交点的值,所述局部离群值的计算逻辑为:S611:对于每个数据点A,计算数据点A到其k个最近邻居的第一距离,其中,k为设定值;S612:对于每个最近邻居数据点N,找到数据点N的k个最近邻居,其中,数据点N的最近邻居不包括数据点A;S613:计算数据点N的k个最近邻居中,与数据点A最近的数据点距离数据点A第二距离;S614:计算数据点N的局部离群值为数据点N到数据点A的第三距离与数据点N到其k个最近邻居中与数据点A最近的第二距离的比值。
步骤S62的具体逻辑公式为:式中,Vab为异常数据值,Vbc为边界交叉值,Vlo为局部离群值,w1、w2分别为边界交叉值和局部离群值的校正系数,且w1、w2均大于或等于零。Vbc表示边界交叉值,当Vbc的值接近于0,表示数据点离边界越近,当Vbc的值越大,表示数据点离中心越近,Vlo为局部离群值,如果Vlo的值接近于1,表示数据点与其邻居的密度相似,不太可能是局部离群点,如果Vlo的值远大于1,表示数据点的密度远低于其邻居,可能是局部离群点,因此,通过边界交叉值和局部离群值对数据点进行综合评判,能够充分的识别那些不符合场景结构的深度值,或者是由于误匹配、噪声或其他问题导致的异常数据点,对异常数据点进行异常处理,在进行三维模型快速构建时,需要注意相关异常数据点。
于一示例性的实施例中,w1为0.0012,w2为1.0002,异常数据阈值为e2.0014,即当Vab大于e2.0014时,被判定为异常数据点。
步骤S7是建筑用三维模型构建的最后一步,其涉及将经过深度图后处理的数据转化为实际的三维模型,以下是关于S7阶段的详细解释:
深度图到三维模型的转化:在S6阶段完成深度图的后处理后,深度图包含了场景中每个点的深度信息。S7阶段的目标是将这些深度信息转化为实际的三维模型,以表示场景的几何结构。
点云生成:通常,深度图首先被转化为点云数据,每个深度图中的像素对应于点云中的一个点,其位置由深度值和图像坐标计算得出,点云表示了场景中的离散点,每个点都有XYZ坐标值。
三维表面重建:从点云数据生成三维模型通常涉及到三维表面重建。这是一个计算密集的过程,旨在将点云数据转化为表示建筑物外表面的三维模型。这可以使用不同的方法来实现,如体素化、三角化网格重建或体积保存方法等,具体方法取决于应用需求和点云的性质。
纹理映射:在创建三维模型时,将图像纹理映射到模型表面,以获得逼真的外观,需要在点云或三维模型上执行纹理映射操作。
模型后处理:生成的三维模型可能需要进一步的后处理,以去除不必要的细节、填充孔洞、平滑表面等。
最终三维模型:S7阶段的结果是一个完整的三维模型,可以用于建筑的可视化、分析、建筑信息模型(BIM)等应用。这个模型将建筑物的几何结构以及可能的纹理信息完整地表示出来。
通过步骤S7将深度信息转化为实际的三维模型,为建筑领域的各种应用提供了有用的数据,这一步骤通常需要涉及复杂的计算和算法,以确保生成的三维模型准确且高质量。
在一示例性的实施例中,图2为本发明的一示例性实施例示出的一种建筑用三维模型的快速构建系统结构示意图;
如图2所示,该示例性的一种建筑用三维模型的快速构建系统包括:
图像获取模块:通过双目摄像机或多目摄像机获取一对具有不同视角的图像;
特征提取模块:从所述图像中提取视差匹配所需的特征点;
视差计算模块:通过特征点匹配算法在所述图像中计算对应特征点之间的视差;
转换深度模块:通过所述双目摄像机或多目摄像机的参数和视差,将视差转换为深度信息;
转换深度图模块:将所述深度信息转换为深度图,其中,每个像素值表示场景中对应特征点的深度值;
后处理模块:根据预设的边界离群算法对深度图进行后处理,去除所述深度图中的异常数据点;
模型生成模块:将后处理的所述深度图转化为三维模型。
需要说明的是,上述实施例所提供的一种建筑用三维模型的快速构建系统与上述实施例所提供的一种建筑用三维模型的快速构建方法属于同一构思,其中各个模块和单元执行操作的具体方式已经在方法实施例中进行了详细描述,此处不再赘述。上述实施例所提供的一种建筑用三维模型的快速构建系统在实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将系统的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能,本处也不对此进行限制。
上述公式均是去量纲取其数值计算,公式是由采集大量数据进行软件模拟得到最近真实情况的一个公式,公式中的预设参数由本领域的技术人员根据实际情况进行设置。
应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系,但也可能表示的是一种“和/或”的关系,具体可参考前后文进行理解。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种建筑用三维模型的快速构建方法,其特征在于,包括:
S1:通过双目摄像机或多目摄像机获取一对具有不同视角的图像;
S2:从所述图像中提取视差匹配所需的特征点;
S3:通过特征点匹配算法在所述图像中计算对应特征点之间的视差;
S4:通过所述双目摄像机或多目摄像机的参数和视差,将视差转换为深度信息;
S5:将所述深度信息转化为深度图,其中,每个像素值表示场景中对应特征点的深度值;
S6:根据预设的边界离群算法对深度图进行后处理,去除所述深度图中的异常数据点;
S7:将后处理的所述深度图转化为三维模型。
2.根据权利要求1所述的一种建筑用三维模型的快速构建方法,其特征在于,所述特征点包括角点、边缘和纹理。
3.根据权利要求1所述的一种建筑用三维模型的快速构建方法,其特征在于,步骤S3具体包括:
S31:通过特征点描述算法为所述特征点计算一个描述子,其中,所述描述子是一个向量,用于描述特征点周围的图像区域;
S32:通过最近邻匹配将左右图像中的特征点进行匹配,以找到对应的特征点对;
S33:根据所述特征点对计算对应特征点之间的视差,其中,所述视差为所述特征点对的水平位移。
4.根据权利要求3所述的一种建筑用三维模型的快速构建方法,其特征在于,步骤S4的具体逻辑包括:式中,所述De为深度值,Bl为摄像机之间的基线距离,FL为摄像机的焦距,Dp为视差的值。
5.根据权利要求4所述的一种建筑用三维模型的快速构建方法,其特征在于,步骤S6具体包括:
S61:计算所述深度图数据点的边界交叉值和局部离群值;
S62:根据所述边界交叉值和局部离群值计算异常数据值;
S63:当所述数据点的异常数据值大于预设的异常数据阈值时,判定为异常数据点。
6.根据权利要求5所述的一种建筑用三维模型的快速构建方法,其特征在于,所述边界交叉值为将所述深度图任意两个数据点进行连线,包含该数据点的连线产生的交点占总交点的值。
7.根据权利要求6所述的一种建筑用三维模型的快速构建方法,其特征在于,所述局部离群值的计算逻辑为:
S611:对于每个数据点A,计算数据点A到其k个最近邻居的第一距离,其中,k为设定值;
S612:对于每个最近邻居数据点N,找到数据点N的k个最近邻居,其中,数据点N的最近邻居不包括数据点A;
S613:计算数据点N的k个最近邻居中,与数据点A最近的数据点距离数据点A第二距离;
S614:计算数据点N的局部离群值为数据点N到数据点A的第三距离与数据点N到其k个最近邻居中与数据点A最近的第二距离的比值。
8.根据权利要求7所述的一种建筑用三维模型的快速构建方法,其特征在于,步骤S62的具体逻辑为:式中,Vab为异常数据值,Vbc为边界交叉值,Vlo为局部离群值,w1、w2分别为边界交叉值和局部离群值的校正系数,且w1、w2均大于或等于零。
9.根据权利要求8所述的一种建筑用三维模型的快速构建方法,其特征在于,步骤S7通过体素化、三角化网格重建或体积保存方法将所述深度图转化为三维模型。
10.一种建筑用三维模型的快速构建系统,其特征在于,包括:
图像获取模块:通过双目摄像机或多目摄像机获取一对具有不同视角的图像;
特征提取模块:从所述图像中提取视差匹配所需的特征点;
视差计算模块:通过特征点匹配算法在所述图像中计算对应特征点之间的视差;
转换深度模块:通过所述双目摄像机或多目摄像机的参数和视差,将视差转换为深度信息;
转换深度图模块:将所述深度信息转换为深度图,其中,每个像素值表示场景中对应特征点的深度值;
后处理模块:根据预设的边界离群算法对深度图进行后处理,去除所述深度图中的异常数据点;
模型生成模块:将后处理的所述深度图转化为三维模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311396209.XA CN117372647A (zh) | 2023-10-26 | 2023-10-26 | 一种建筑用三维模型的快速构建方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311396209.XA CN117372647A (zh) | 2023-10-26 | 2023-10-26 | 一种建筑用三维模型的快速构建方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117372647A true CN117372647A (zh) | 2024-01-09 |
Family
ID=89405540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311396209.XA Pending CN117372647A (zh) | 2023-10-26 | 2023-10-26 | 一种建筑用三维模型的快速构建方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117372647A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611752A (zh) * | 2024-01-22 | 2024-02-27 | 卓世未来(成都)科技有限公司 | 一种数字人的3d模型生成方法及系统 |
-
2023
- 2023-10-26 CN CN202311396209.XA patent/CN117372647A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611752A (zh) * | 2024-01-22 | 2024-02-27 | 卓世未来(成都)科技有限公司 | 一种数字人的3d模型生成方法及系统 |
CN117611752B (zh) * | 2024-01-22 | 2024-04-02 | 卓世未来(成都)科技有限公司 | 一种数字人的3d模型生成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363858B (zh) | 一种三维人脸重建方法及系统 | |
CN109242954B (zh) | 基于模板变形的多视角三维人体重建方法 | |
WO2018119889A1 (zh) | 三维场景定位方法和装置 | |
CN102592124B (zh) | 文本图像的几何校正方法、装置和双目立体视觉系统 | |
Stamos et al. | Integration of range and image sensing for photo-realistic 3D modeling | |
CN107798702B (zh) | 一种用于增强现实的实时图像叠加方法以及装置 | |
CN104537707B (zh) | 像方型立体视觉在线移动实时测量系统 | |
WO2010004466A1 (en) | Three dimensional mesh modeling | |
Zou et al. | A method of stereo vision matching based on OpenCV | |
CN110853151A (zh) | 一种基于视频的三维立体点集恢复方法 | |
CN107274483A (zh) | 一种物体三维模型构建方法 | |
CN112686877B (zh) | 基于双目相机的三维房屋损伤模型构建测量方法及系统 | |
Remondino | 3-D reconstruction of static human body shape from image sequence | |
WO2015179216A1 (en) | Orthogonal and collaborative disparity decomposition | |
CN107341804B (zh) | 点云数据中平面的确定方法及装置、图像叠加方法及设备 | |
CN106023307B (zh) | 基于现场环境的快速重建三维模型方法及系统 | |
CN106920276A (zh) | 一种三维重建方法和系统 | |
CN113192179A (zh) | 一种基于双目立体视觉的三维重建方法 | |
Kuschk | Large scale urban reconstruction from remote sensing imagery | |
CN117372647A (zh) | 一种建筑用三维模型的快速构建方法及系统 | |
CN116309880A (zh) | 基于三维重建的物体位姿确定方法、装置、设备及介质 | |
CN114782636A (zh) | 三维重建方法、装置及系统 | |
CN106683163A (zh) | 一种视频监控的成像方法及系统 | |
CN115222889A (zh) | 基于多视图图像的3d重建方法、装置及相关设备 | |
Alexiadis et al. | Fast and smooth 3d reconstruction using multiple rgb-depth sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |