CN108038906B - 一种基于图像的三维四边形网格模型重建方法 - Google Patents

一种基于图像的三维四边形网格模型重建方法 Download PDF

Info

Publication number
CN108038906B
CN108038906B CN201711433927.4A CN201711433927A CN108038906B CN 108038906 B CN108038906 B CN 108038906B CN 201711433927 A CN201711433927 A CN 201711433927A CN 108038906 B CN108038906 B CN 108038906B
Authority
CN
China
Prior art keywords
dimensional
points
image
data
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201711433927.4A
Other languages
English (en)
Other versions
CN108038906A (zh
Inventor
刘丽
张化祥
任玉伟
冯珊珊
谭艳艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Normal University
Original Assignee
Shandong Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Normal University filed Critical Shandong Normal University
Priority to CN201711433927.4A priority Critical patent/CN108038906B/zh
Publication of CN108038906A publication Critical patent/CN108038906A/zh
Application granted granted Critical
Publication of CN108038906B publication Critical patent/CN108038906B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像的三维四边形网格模型重建方法,包括:步骤(1):获取表征图像物体或场景外形的点云数据,恢复图像的三维信息;步骤(2):构建点云数据的四边网格,重建四边网格模型。其具有拟合出更好的图像物体或场景的效果的优点。

Description

一种基于图像的三维四边形网格模型重建方法
技术领域
本发明涉及一种基于图像的三维四边形网格模型重建方法。
背景技术
随着计算机软硬件技术的不断发展,大规模复杂场景的实时绘制已经成为可能,这对模型的复杂度和真实感提出了新的要求。传统的三维建模工具虽然日益改进,但构建复杂的三维模型依旧是一件非常耗时费力的工作。由于很多三维模型都能在现实世界中找到或加以塑造,因此基于图像的建模技术就成了人们心目中理想的建模方式。此外,传统的三维建模一般只能获取景物的几何信息,而基于图像的三维建模为生成具有照片级真实感的合成图像提供了一种自然的方式,成为目前计算机图形学领域中的热点,广泛应用于古文物数字化保存、影视制作、游戏娱乐、机器导航等领域,具有极其重要的意义与实用价值。
基于图像的几何建模技术以其显著优势,得到了广泛地关注,国内外出现了大量的技术路线和方法,主要有明暗法、亮度法、纹理法、轮廓法、调焦法、运动法和交互法等。在众多的三维信息恢复方法中普遍存在两个难以逾越的鸿沟,一是鲁棒性问题,图像易受到光线、噪声、模糊等问题的影响,鲁棒性较差;一是精度问题,相机标定、图像分割、图像特征提取与匹配等问题,一直是计算机视觉领域中比较难以解决的问题,这些问题无法得到根本性的解决使得三维重建的效果难以得到提高。
从图像中恢复出物体或场景的三维几何信息,构建其几何模型表示是基于图像的几何建模的核心问题,面向不同的应用领域,多种不同的几何模型应运而生,其中网格模型以其简单的表达方式、通用的表达能力、便于硬件绘制等特点得到了广泛应用。与三角网格相比,四边网格的存储量小,计算效率高,更能反映所表示几何形体的形状变化。四边网格重建方法主要有网格分裂或合并、铺设法、参数化方法和正交场方法等。提高四边网格的重建质量和效率是各种方法追求的终极目标,目前尚没有重建方法能同时满足四边网格中无三角网格残留、网格拓扑结构合理、适应任意拓扑结构和效率较高等条件。
综上所述,现有技术存在的主要问题是图像物体或场景的三维信息恢复受图像质量、相机标定和匹配算法的影响较大,鲁棒性和精确度有待提高。此外,也存在对于大规模点云数据恢复的效率不高,重建几何模型较为单一,缺少完整的从图像采集到多种模型重建的流程等问题,因此需要新的建模方法更好的拟合图像物体或场景。
发明内容
为了解决现有技术的不足,本发明提供了一种基于图像的三维四边形网格模型重建方法,其具有拟合出更好的图像物体或场景的效果的优点。
一种基于图像的三维四边形网格模型重建方法,包括:
步骤(1):获取表征图像物体或场景外形的点云数据,恢复图像的三维信息;
步骤(2):构建点云数据的四边网格,重建四边网格模型。
所述步骤(1)的步骤为:
步骤(11):通过相机的自标定和图像的特征匹配得到匹配点的三维信息;
步骤(12):构造神经网络,以匹配点和匹配点的三维坐标为样本训练神经网络,获得图像物体或场景外形的点云数据。
所述步骤(11)的步骤为:
步骤(111):对二维图像进行高斯卷积将其映射到高斯尺度空间,在图像的高斯尺度空间内构造差分函数尺度空间,在差分函数尺度空间内提取相邻层邻域内的极值点作为候选特征点;通过Hessian矩阵剔除不稳定的边缘特征点,利用高斯尺度空间函数对剩余特征点进行拟合,拟合曲面的极值为特征点;
步骤(112):建立特征点到三维空间的映射,根据映射关系计算特征点与对应的三维空间数据点之间的距离,若距离小于设定阈值,则匹配成功,得到匹配的特征点集合;
步骤(113):基于基础矩阵估计的聚类分析算法,对特征点进行精确匹配,根据基础矩阵、本质矩阵、相机内部参数和外部参数的关系,求解相机内部参数和外部参数,利用相机内部参数和外部参数实现相机的自标定,恢复匹配点的三维坐标。
所述步骤(111)的步骤为:
设原始图像为I(x,y),高斯函数为G(x,y,σ),经过卷积得到尺度空间L(x,y,σ),在高斯尺度空间内构造差分函数DOG(x,y,σ)为:
DOG(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)(1)
在DOG尺度空间中图像点在相邻层邻域内的极值点作为候选特征点;通过Hessian矩阵剔除不稳定的边缘特征点;利用尺度空间函数L(x,y,σ)的二阶Taylor展开式进行最小二乘拟合,计算拟合曲面的极值为特征点;
所述步骤(112)的步骤为:
建立特征点p(x,y)到三维空间点p'(x,y,z)的映射,其中z为图像点p(x,y)的梯度。引入距离函数
D(pl,pr)=ω1cov(pl,pr)+ω2arccos(nl,nr)(2)
其中,cov(pl,pr)表示待匹配图像点的灰度相似度,arccos(nl,nr)表示图像点对应的空间数据点的法向量夹角余弦;当待匹配特征点的距离小于设定阈值时认为匹配成功,建立模糊的匹配特征点集合。
所述步骤(113)的步骤为:
利用8点算法估计基础矩阵F的初始值,由初始基础矩阵F求解梯度加权误差来近似重投影误差:
Figure BDA0001525468070000031
混合模型的密度函数为:
Figure BDA0001525468070000032
其中,Θ(τ1,τ2,...,θ1,θ2,...)为各混合成分的参数矢量,τk是混合系数,pk(xik)为各成分的类条件概率密度函数。
利用最大期望算法对匹配点的估计余差进行聚类分析,根据分类结果及平均余差最小原则删除错误匹配点,通过M估计算法对筛选的匹配点迭代求精。
简化内部参数矩阵K使之只与相机焦距f相关,列出Kruppa方程得到:
UΛVTdiag(f2,f2,1)VΛUT~[u3]xdiag(f2,f2,1)[u3]x,(5)
[u3]x表示向量u3的斜对称矩阵,求解相机的焦距f确定内部参数矩阵K;本质矩阵E包含旋转矩阵R和平移向量T,由基础矩阵F和内部参数矩阵K表示E=KTFK,本质矩阵E的奇异值分解E=UΛVT,则有
Figure BDA0001525468070000033
其中,左右图像Il(x,y)和Ir(x,y)的投影矩阵分别为Pl=(pl1,pl2,pl3),Pr=(pr1,pr2,pr3),匹配点Pl(x,y)和Pr(x,y)对应的三维数据点P满足:
Figure BDA0001525468070000041
对矩阵A进行归一化处理得到矩阵An,将P的求解问题转化为求解An TAn最小特征值的特征向量。
所述步骤(12)的步骤为:
步骤(121):构造动态耦合BP神经网络,引入基本权和联合权的概念,建立同层神经元之间的联系;
步骤(122):利用基本权和联合权的动态修正函数,给出输入样本的判断标准;
步骤(123):根据输入样本的判断标准建立匹配像素点及其三维信息的样本集,通过样本集对BP神经网络模型进行训练,建立像素坐标与三维坐标之间的对应关系。
所述步骤(12)的步骤为:
构造动态耦合BP神经网络,激活函数为非线性Sigmoid型函数,隐含层的层数为1,隐含节点的数目取设定值,输入层为图像的像素点坐标,输出层为其三维数据点坐标。引入基本权和联合权的概念建立同层神经元之间的联系,基本权通过网络的学习实现自身的调整,其学习表达式为:
Wij(t+1)=Wij(t)+η(t+1)Opj+α(t+1)[Wij(t)-Wij(t-1)];(8)
其中η,α分别为学习率和惯性因子。联合权是由若干个基本权组成的函数,表达形式为:
Wkj(t+1)=Fkj(Wj1(t+1),...,Wjn(t+1))(9)
匹配点及其三维坐标作为样本对网络进行训练,当新增样本的预测值与实测值之差的绝对值大于阈值时,认为该样本是有效样本,动态调整η和α,进而修正各神经节点的基本权和联合权的权值,加快网络的学习速率。
所述步骤(2)的步骤为:
步骤(20):对点云数据进行优化;
步骤(21):对优化后的点云数据进行无网格参数化;
步骤(22):将参数域上的四边网格连接关系映射到三维空间获得重建的四边网格模型。
所述步骤(20)的步骤为:
基于密度的k-means聚类算法,得到初始聚类中心;
利用数据点沿密度最大方向收敛的函数,构造聚类数据点的拟合平面;
判断数据点到拟合平面的距离是否超过设定阈值,若超过则认为是噪声,对噪声予以删除。
所述步骤(20)的步骤为:
构造点云数据的最小包围盒,均匀划分最小包围盒得到小立方体,同一小立方体内的数据归为一簇。记数据点pi的密度为ρ(pi),簇Ci的聚类中心为ci,定义数据点pi到簇Ci的距离函数:
Figure BDA0001525468070000051
簇Ci内到簇Ci距离最小的数据点作为聚类中心ci,形成点云数据的初始聚类。定义d维欧氏空间数据点pi的多元核密度估计函数为:
Figure BDA0001525468070000052
对式(11)进行微分得到数据点pi的梯度:
Figure BDA0001525468070000053
其中,g(x)为高斯核函数。数据点pi沿MG(x)方向移动,即沿数据密度最大的方向移动,迭代直到收敛到局部最大密度估计值处。对点云数据进行上述操作,数据点pi收敛到最近的聚类中心ci所在的簇为该点的簇;
采用移动最小二乘的误差估计求平面Ti使其逼近簇Ci的数据点集,记平面Ti的法向量为ni,删除数据点pi后的数据点集的法向量为npi,当法向量ni和npi夹角余弦小于阈值,则删除该点进行简化。簇Ci内数据点pi到平面Ti的距离为di,当di大于阈值则认为是噪声予以删除。
所述步骤(21)的步骤为:
利用变形能量函数对每个簇内的数据围绕聚类中心进行参数化,计算平移矩阵和旋转矩阵,实现各个参数平面的整体拼接,得到点云数据的参数化值。
所述步骤(21)的步骤为:
聚类簇Ci的数据点集Pi={c1,p1,p2,...,pn},其中ci为聚类中心,给出倒距离参数化函数
Figure BDA0001525468070000061
将簇内数据点映射到聚类中心ci的切平面Ti
Figure BDA0001525468070000062
在保证变形能量函数
Figure BDA0001525468070000063
最小的前提下,将点云数据的k个聚类中心投影到平面T:Z=0上,其中ρ(ci)表示聚类中心ci指定半径的密度。记聚类中心ci在平面T的投影点标记为u'ci,聚类中心ci的切平面Ti与平面T:Z=0的夹角为θ,切平面Ti经过旋转Ri和平移Ti后变换到聚类中心所在的参数平面T:z=0上,聚类中心ci与点u'ci重合。簇Ci的数据点pi在平面T:z=0上的投影点u'pi
u'pi=piRi+Bi(14)
平面T:z=0上的投影U'即为点云数据的参数。为减少参数化过程中的扭曲变形,采用迭代优化的方法对数据点进行局部调整
ui=ui+Δu(15)
其中,Δu是关于距离的增量。
经过若干次迭代后,映射到平面上的局部邻域尽可能保持相应的空间点之间的相对距离。
所述步骤(22)的步骤为:
在参数域内对数据点进行Delaunay三角化,根据Catmull-Clark细分模式将一个三角网格细分为三个四边网格,将参数域内的二维空间四边网格连接关系映射到三维空间得到点云数据的重建四边形网格。
与现有技术相比,本发明的有益效果是:
(1)提出基于多维信息的图像特征匹配算法,把图像特征点映射到三维空间,将图像的特征匹配问题转化为数据点的匹配问题,匹配过程兼顾特征点的灰度信息和数据点的法向信息,有效控制匹配过程中的错误传播;
(2)提出基于动态耦合BP神经网络的三维重建算法,引入基本权和联合权的概念建立同层神经元的联系,根据预测值与实际值的关系动态修正权值,经过样本训练后直接建立像素坐标与三维坐标的对应关系;
(3)给出基于均匀k-means聚类的点云数据优化算法,均匀选取聚类的初始中心,将收敛于同一局部密度最大点的数据点归为一类,根据数据点到拟合平面的距离和顶点删除前后拟合平面的法向偏量进行去噪和简化。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本发明的流程图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
本发明以从二维图像中获取精度高、鲁棒性强、速度快的三维网格模型为目的,提出一种基于图像的三维重建完整的解决方案,为满足不同应用领域的需要,给出重建的四边网格模型。本发明将计算机视觉、计算机图形学和图像处理有机的联系在一起,为可视化中的准确模拟提供有效的工具,也为古文物数字化、影视制作和游戏娱乐等领域提供新的方法,具有很高的理论价值和实际意义。
如图1所示,本发明提供的具体实施例如下:
一种基于图像的三维四边形网格模型重建方法,包括:
步骤(1):获取表征图像物体或场景外形的点云数据,恢复图像的三维信息;
步骤(2):构建点云数据的四边网格,重建四边网格模型。
所述步骤(1)的步骤为:
步骤(11):通过相机的自标定和图像的特征匹配得到匹配点的三维信息;
步骤(12):构造神经网络,以匹配点和匹配点的三维坐标为样本训练神经网络,获得图像物体或场景外形的点云数据。
所述步骤(11)的步骤为:
步骤(111):设原始图像为I(x,y),高斯函数为G(x,y,σ),经过卷积得到尺度空间L(x,y,σ),在高斯尺度空间内构造差分函数DOG(x,y,σ)为:
DOG(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)(1)
在DOG尺度空间中图像点在相邻层邻域内的极值点作为候选特征点;通过Hessian矩阵剔除不稳定的边缘特征点;利用尺度空间函数L(x,y,σ)的二阶Taylor展开式进行最小二乘拟合,计算拟合曲面的极值为特征点;
步骤(112):建立特征点p(x,y)到三维空间点p'(x,y,z)的映射,其中z为图像点p(x,y)的梯度。引入距离函数
D(pl,pr)=ω1cov(pl,pr)+ω2arccos(nl,nr)(2)
其中,cov(pl,pr)表示待匹配图像点的灰度相似度,arccos(nl,nr)表示图像点对应的空间数据点的法向量夹角余弦;当待匹配特征点的距离小于设定阈值时认为匹配成功,建立模糊的匹配特征点集合。
步骤(113):利用8点算法估计基础矩阵F的初始值,由初始基础矩阵F求解梯度加权误差来近似重投影误差:
Figure BDA0001525468070000081
混合模型的密度函数为:
Figure BDA0001525468070000082
其中,Θ(τ1,τ2,...,θ1,θ2,...)为各混合成分的参数矢量,τk是混合系数,pk(xik)为各成分的类条件概率密度函数。
利用最大期望算法对匹配点的估计余差进行聚类分析,根据分类结果及平均余差最小原则删除错误匹配点,通过M估计算法对筛选的匹配点迭代求精。
简化内部参数矩阵K使之只与相机焦距f相关,列出Kruppa方程得到:
UΛVTdiag(f2,f2,1)VΛUT~[u3]xdiag(f2,f2,1)[u3]x,(5)
[u3]x表示向量u3的斜对称矩阵,求解相机的焦距f确定内部参数矩阵K;本质矩阵E包含旋转矩阵R和平移向量T,由基础矩阵F和内部参数矩阵K表示E=KTFK,本质矩阵E的奇异值分解E=UΛVT,则有
Figure BDA0001525468070000091
其中,左右图像Il(x,y)和Ir(x,y)的投影矩阵分别为Pl=(pl1,pl2,pl3),Pr=(pr1,pr2,pr3),匹配点Pl(x,y)和Pr(x,y)对应的三维数据点P满足:
Figure BDA0001525468070000092
对矩阵A进行归一化处理得到矩阵An,将P的求解问题转化为求解An TAn最小特征值的特征向量。
所述步骤(12)的步骤为:
构造动态耦合BP神经网络,激活函数为非线性Sigmoid型函数,隐含层的层数为1,隐含节点的数目取设定值,输入层为图像的像素点坐标,输出层为其三维数据点坐标。引入基本权和联合权的概念建立同层神经元之间的联系,基本权通过网络的学习实现自身的调整,其学习表达式为:
Wij(t+1)=Wij(t)+η(t+1)Opj+α(t+1)[Wij(t)-Wij(t-1)];(8)
其中η,α分别为学习率和惯性因子。联合权是由若干个基本权组成的函数,表达形式为:
Wkj(t+1)=Fkj(Wj1(t+1),...,Wjn(t+1))(9)
匹配点及其三维坐标作为样本对网络进行训练,当新增样本的预测值与实测值之差的绝对值大于阈值时,认为该样本是有效样本,动态调整η和α,进而修正各神经节点的基本权和联合权的权值,加快网络的学习速率。
所述步骤(2)的步骤为:
步骤(20):对点云数据进行优化;
步骤(21):对优化后的点云数据进行无网格参数化;
步骤(22):将参数域上的四边网格连接关系映射到三维空间获得重建的四边网格模型。
所述步骤(20)的步骤为:
构造点云数据的最小包围盒,均匀划分最小包围盒得到小立方体,同一小立方体内的数据归为一簇。记数据点pi的密度为ρ(pi),簇Ci的聚类中心为ci,定义数据点pi到簇Ci的距离函数:
Figure BDA0001525468070000101
簇Ci内到簇Ci距离最小的数据点作为聚类中心ci,形成点云数据的初始聚类。定义d维欧氏空间数据点pi的多元核密度估计函数为:
Figure BDA0001525468070000102
对式(11)进行微分得到数据点pi的梯度:
Figure BDA0001525468070000103
其中,g(x)为高斯核函数。数据点pi沿MG(x)方向移动,即沿数据密度最大的方向移动,迭代直到收敛到局部最大密度估计值处。对点云数据进行上述操作,数据点pi收敛到最近的聚类中心ci所在的簇为该点的簇;
采用移动最小二乘的误差估计求平面Ti使其逼近簇Ci的数据点集,记平面Ti的法向量为ni,删除数据点pi后的数据点集的法向量为npi,当法向量ni和npi夹角余弦小于阈值,则删除该点进行简化。簇Ci内数据点pi到平面Ti的距离为di,当di大于阈值则认为是噪声予以删除。
所述步骤(21)的步骤为:
聚类簇Ci的数据点集Pi={c1,p1,p2,...,pn},其中ci为聚类中心,给出倒距离参数化函数
Figure BDA0001525468070000104
将簇内数据点映射到聚类中心ci的切平面Ti
Figure BDA0001525468070000111
在保证变形能量函数
Figure BDA0001525468070000112
最小的前提下,将点云数据的k个聚类中心投影到平面T:z=0上,其中ρ(ci)表示聚类中心ci指定半径的密度。记聚类中心ci在平面T的投影点标记为u'ci,聚类中心ci的切平面Ti与平面T:z=0的夹角为θ,切平面Ti经过旋转Ri和平移Ti后变换到聚类中心所在的参数平面T:z=0上,聚类中心ci与点u'ci重合。簇Ci的数据点pi在平面T:z=0上的投影点u'pi
u'pi=piRi+Bi(14)
平面T:z=0上的投影U'即为点云数据的参数。为减少参数化过程中的扭曲变形,采用迭代优化的方法对数据点进行局部调整
ui=ui+Δu(15)
其中,Δu是关于距离的增量。
经过若干次迭代后,映射到平面上的局部邻域尽可能保持相应的空间点之间的相对距离。
所述步骤(22)的步骤为:
在参数平面域内对数据点进行Delaunay三角化,一个三角网格细分为三个四边网格,根据Catmull-Clark细分模式确定新的边点和面点。将二维空间四边形网格的连接关系映射到三维空间,得到点云数据的重建四边形网格。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (4)

1.一种基于图像的三维四边形网格模型重建方法,其特征,包括:
步骤(1):获取表征图像物体或场景外形的点云数据,恢复图像的三维信息;
步骤(2):构建点云数据的四边网格,重建四边网格模型;
所述步骤(1)的步骤为:
步骤(11):通过相机的自标定和图像的特征匹配得到匹配点的三维信息;所述步骤(11)的步骤为:步骤(111):对二维图像进行高斯卷积将其映射到高斯尺度空间,在图像的高斯尺度空间内构造差分函数尺度空间,在差分函数尺度空间内提取相邻层邻域内的极值点作为候选特征点;通过Hessian矩阵剔除不稳定的边缘特征点,利用尺度空间函数对剩余特征点进行拟合,拟合曲面的极值为特征点;步骤(112):建立特征点到三维空间的映射,根据映射关系计算特征点与对应的三维空间数据点之间的距离,若距离小于设定阈值,则匹配成功,得到匹配的特征点集合;步骤(113):基于基础矩阵估计的聚类分析算法,对特征点进行精确匹配,根据基础矩阵、本质矩阵、相机内部参数和外部参数的关系,求解相机内部参数和外部参数,利用相机内部参数和外部参数实现相机的自标定,恢复匹配点的三维坐标;
步骤(12):构造神经网络,以匹配点和匹配点的三维坐标为样本训练神经网络,获得图像物体或场景外形的点云数据;所述步骤(12)的步骤为:步骤(121):构造动态耦合BP神经网络,引入基本权和联合权的概念,建立同层神经元之间的联系;步骤(122):利用基本权和联合权的动态修正函数,给出输入样本的判断标准;步骤(123):根据输入样本的判断标准建立匹配像素点及其三维信息的样本集,通过样本集对BP神经网络模型进行训练,建立像素坐标与三维坐标之间的对应关系;
所述步骤(2)的步骤为:
步骤(20):对点云数据进行优化;所述步骤(20)的步骤为:基于密度的k-means聚类算法,得到初始聚类中心;利用数据点沿密度最大方向收敛的函数,构造聚类数据点的拟合平面;判断数据点到拟合平面的距离是否超过设定阈值,若超过则认为是噪声,对噪声予以删除;
步骤(21):对优化后的点云数据进行无网格参数化;
步骤(22):将参数域上的四边网格连接关系映射到三维空间获得重建的四边网格模型。
2.如权利要求1所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述特征点与对应的三维空间数据点之间的距离等于特征点的灰度相似度与特征点对应三维空间数据点的法向量加权求和。
3.如权利要求1所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述步骤(21)的步骤为:
利用变形能量函数对每个簇内的数据围绕聚类中心进行参数化,计算平移矩阵和旋转矩阵,实现各个参数平面的整体拼接,得到点云数据的参数化值。
4.如权利要求1所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述步骤(22)的步骤为:
在参数域内对数据点进行Delaunay三角化,根据Catmull-Clark细分模式将一个三角网格细分为三个四边网格,将参数域内的二维空间四边网格连接关系映射到三维空间得到点云数据的重建四边形网格。
CN201711433927.4A 2017-12-26 2017-12-26 一种基于图像的三维四边形网格模型重建方法 Expired - Fee Related CN108038906B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711433927.4A CN108038906B (zh) 2017-12-26 2017-12-26 一种基于图像的三维四边形网格模型重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711433927.4A CN108038906B (zh) 2017-12-26 2017-12-26 一种基于图像的三维四边形网格模型重建方法

Publications (2)

Publication Number Publication Date
CN108038906A CN108038906A (zh) 2018-05-15
CN108038906B true CN108038906B (zh) 2021-04-02

Family

ID=62101222

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711433927.4A Expired - Fee Related CN108038906B (zh) 2017-12-26 2017-12-26 一种基于图像的三维四边形网格模型重建方法

Country Status (1)

Country Link
CN (1) CN108038906B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145969B (zh) * 2018-08-03 2020-07-28 百度在线网络技术(北京)有限公司 三维物体点云数据的处理方法、装置、设备及介质
CN110874850A (zh) * 2018-09-04 2020-03-10 湖北智视科技有限公司 一种面向目标定位的实时单边网格特征配准方法
CN109285223B (zh) * 2018-09-07 2019-05-31 中山大学 基于体素模型的影像重建四边形网格方法及系统
CN109359605A (zh) * 2018-10-24 2019-02-19 艾凯克斯(嘉兴)信息科技有限公司 一种基于三维网格与神经网络的零件相似性处理方法
CN109489580B (zh) * 2018-12-10 2021-09-24 华东理工大学 一种航空发动机叶片表面加工的在机点云检测及补偿方法
US11961264B2 (en) 2018-12-14 2024-04-16 Interdigital Vc Holdings, Inc. System and method for procedurally colorizing spatial data
CN109816789B (zh) * 2018-12-14 2023-02-07 广东三维家信息科技有限公司 一种基于深度神经网络的三维模型参数化方法
CN109801299A (zh) * 2019-01-22 2019-05-24 中国科学院大学 基于二次曲面拟合的模型的交互式分割方法、系统、装置
US10769848B1 (en) * 2019-05-24 2020-09-08 Adobe, Inc. 3D object reconstruction using photometric mesh representation
CN110361165B (zh) * 2019-06-22 2020-11-06 四川奥希特电子材料有限公司 一种用于液晶屏蓝光分量检测分析设备的制造方法及其制造的设备
CN110349256B (zh) * 2019-07-16 2023-05-23 深圳大学 血管重建方法、装置及计算机终端
CN113379899B (zh) * 2021-06-22 2023-09-19 南京工程学院 一种建筑工程工作面区域图像自动提取方法
CN114373358B (zh) * 2022-03-07 2023-11-24 中国人民解放军空军工程大学航空机务士官学校 一种基于快速建模的航空飞机维护作业模拟训练系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101404071A (zh) * 2008-11-07 2009-04-08 湖南大学 基于分组粒子群算法的电子电路故障诊断神经网络方法
CN102722731A (zh) * 2012-05-28 2012-10-10 南京航空航天大学 一种基于改进sift算法的高效图像匹配方法
CN104392486A (zh) * 2014-11-25 2015-03-04 西安理工大学 一种点云场景重建方法
CN106127789A (zh) * 2016-07-04 2016-11-16 湖南科技大学 结合神经网络与虚拟靶标的立体视觉标定方法
CN106780712A (zh) * 2016-10-28 2017-05-31 武汉市工程科学技术研究院 联合激光扫描和影像匹配的三维点云生成方法
CN106887000A (zh) * 2017-01-23 2017-06-23 上海联影医疗科技有限公司 医学图像的网格化处理方法及其系统
CN107169566A (zh) * 2017-06-09 2017-09-15 山东师范大学 动态神经网络模型训练方法和装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3840173B2 (ja) * 2002-11-15 2006-11-01 キヤノン株式会社 三次元解析用メッシュ生成方法、三次元解析用メッシュ生成装置、プログラムおよび記憶媒体
KR102294734B1 (ko) * 2014-09-30 2021-08-30 삼성전자주식회사 영상 정합 장치, 영상 정합 방법 및 영상 정합 장치가 마련된 초음파 진단 장치
JP6380051B2 (ja) * 2014-11-28 2018-08-29 富士通株式会社 有限要素演算プログラム、有限要素演算装置および有限要素演算方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101404071A (zh) * 2008-11-07 2009-04-08 湖南大学 基于分组粒子群算法的电子电路故障诊断神经网络方法
CN102722731A (zh) * 2012-05-28 2012-10-10 南京航空航天大学 一种基于改进sift算法的高效图像匹配方法
CN104392486A (zh) * 2014-11-25 2015-03-04 西安理工大学 一种点云场景重建方法
CN106127789A (zh) * 2016-07-04 2016-11-16 湖南科技大学 结合神经网络与虚拟靶标的立体视觉标定方法
CN106780712A (zh) * 2016-10-28 2017-05-31 武汉市工程科学技术研究院 联合激光扫描和影像匹配的三维点云生成方法
CN106887000A (zh) * 2017-01-23 2017-06-23 上海联影医疗科技有限公司 医学图像的网格化处理方法及其系统
CN107169566A (zh) * 2017-06-09 2017-09-15 山东师范大学 动态神经网络模型训练方法和装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
A mesh reconstruction algorithm driven by an intrinsic property of a point cloud;Hong-Wei Lin 等;《Computer-Aided Design》;20040131;第36卷(第1期);第1-9页 *
A new method of quality improvement for quadrilateral mesh based on small polygon reconnection;Jian-Fei Liu 等;《Acta Mechanica Sinica》;20120114;第28卷;第140-145页 *
Meshless parameterization and surface reconstruction;Michael S. Floater 等;《Computer Aided Geometric Design》;20010331;第18卷(第2期);第77-92页 *
三维扫描点云优化网格重建与软件系统实现;胡伟端 等;《机械设计与制造》;20140408(第4期);第259-261页 *
基于自组织神经网络点云重建技术的研究;张月;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170315(第03期);第I138-5873页 *
高精度自适应的四边形网格重建;刘丽 等;《图学学报》;20120415;第33卷(第2期);第14-20页 *

Also Published As

Publication number Publication date
CN108038906A (zh) 2018-05-15

Similar Documents

Publication Publication Date Title
CN108038906B (zh) 一种基于图像的三维四边形网格模型重建方法
Zhang et al. Learning signed distance field for multi-view surface reconstruction
CN111063021B (zh) 一种空间运动目标的三维重建模型建立方法及装置
CN109410321B (zh) 基于卷积神经网络的三维重建方法
CN110163974B (zh) 一种基于无向图学习模型的单图像面片重建方法
CN113096234B (zh) 利用多张彩色图片生成三维网格模型的方法及装置
CN108171780A (zh) 一种基于激光雷达构建室内真实三维地图的方法
CN115761172A (zh) 一种基于点云语义分割与结构拟合的单体建筑三维重建方法
CN110223370B (zh) 一种从单视点图片生成完整人体纹理贴图的方法
CN101082988A (zh) 自动的深度图像配准方法
CN112767531B (zh) 面向移动端的虚拟试衣的人体模型脸部分区域建模方法
CN116958453B (zh) 基于神经辐射场的三维模型重建方法、设备和介质
CN111028335B (zh) 一种基于深度学习的点云数据的分块面片重建方法
CN111524168A (zh) 点云数据的配准方法、系统、装置及计算机存储介质
CN114004938A (zh) 一种基于海量数据的城市场景重建方法及装置
Hu et al. Geometric feature enhanced line segment extraction from large-scale point clouds with hierarchical topological optimization
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN110909778A (zh) 一种基于几何一致性的图像语义特征匹配方法
CN114463521A (zh) 一种面向空地影像数据融合的建筑目标点云快速生成方法
CN113808006B (zh) 一种基于二维图像重建三维网格模型的方法及装置
CN117710603B (zh) 一种直线几何结构约束下无人机图像三维建筑物建模方法
Zeng et al. 3D plants reconstruction based on point cloud
Fayolle et al. User-assisted reverse modeling with evolutionary algorithms
CN117765010A (zh) 结合无人机分割影像的四面体表面标记Mesh构建方法及系统
He Research on outdoor garden scene reconstruction based on PMVS Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210402

Termination date: 20211226

CF01 Termination of patent right due to non-payment of annual fee