CN108038906A - 一种基于图像的三维四边形网格模型重建方法 - Google Patents

一种基于图像的三维四边形网格模型重建方法 Download PDF

Info

Publication number
CN108038906A
CN108038906A CN201711433927.4A CN201711433927A CN108038906A CN 108038906 A CN108038906 A CN 108038906A CN 201711433927 A CN201711433927 A CN 201711433927A CN 108038906 A CN108038906 A CN 108038906A
Authority
CN
China
Prior art keywords
point
dimensional
image
method based
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711433927.4A
Other languages
English (en)
Other versions
CN108038906B (zh
Inventor
刘丽
张化祥
任玉伟
冯珊珊
谭艳艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Normal University
Original Assignee
Shandong Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Normal University filed Critical Shandong Normal University
Priority to CN201711433927.4A priority Critical patent/CN108038906B/zh
Publication of CN108038906A publication Critical patent/CN108038906A/zh
Application granted granted Critical
Publication of CN108038906B publication Critical patent/CN108038906B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像的三维四边形网格模型重建方法,包括:步骤(1):获取表征图像物体或场景外形的点云数据,恢复图像的三维信息;步骤(2):构建点云数据的四边网格,重建四边网格模型。其具有拟合出更好的图像物体或场景的效果的优点。

Description

一种基于图像的三维四边形网格模型重建方法
技术领域
本发明涉及一种基于图像的三维四边形网格模型重建方法。
背景技术
随着计算机软硬件技术的不断发展,大规模复杂场景的实时绘制已经成为可能,这对模型的复杂度和真实感提出了新的要求。传统的三维建模工具虽然日益改进,但构建复杂的三维模型依旧是一件非常耗时费力的工作。由于很多三维模型都能在现实世界中找到或加以塑造,因此基于图像的建模技术就成了人们心目中理想的建模方式。此外,传统的三维建模一般只能获取景物的几何信息,而基于图像的三维建模为生成具有照片级真实感的合成图像提供了一种自然的方式,成为目前计算机图形学领域中的热点,广泛应用于古文物数字化保存、影视制作、游戏娱乐、机器导航等领域,具有极其重要的意义与实用价值。
基于图像的几何建模技术以其显著优势,得到了广泛地关注,国内外出现了大量的技术路线和方法,主要有明暗法、亮度法、纹理法、轮廓法、调焦法、运动法和交互法等。在众多的三维信息恢复方法中普遍存在两个难以逾越的鸿沟,一是鲁棒性问题,图像易受到光线、噪声、模糊等问题的影响,鲁棒性较差;一是精度问题,相机标定、图像分割、图像特征提取与匹配等问题,一直是计算机视觉领域中比较难以解决的问题,这些问题无法得到根本性的解决使得三维重建的效果难以得到提高。
从图像中恢复出物体或场景的三维几何信息,构建其几何模型表示是基于图像的几何建模的核心问题,面向不同的应用领域,多种不同的几何模型应运而生,其中网格模型以其简单的表达方式、通用的表达能力、便于硬件绘制等特点得到了广泛应用。与三角网格相比,四边网格的存储量小,计算效率高,更能反映所表示几何形体的形状变化。四边网格重建方法主要有网格分裂或合并、铺设法、参数化方法和正交场方法等。提高四边网格的重建质量和效率是各种方法追求的终极目标,目前尚没有重建方法能同时满足四边网格中无三角网格残留、网格拓扑结构合理、适应任意拓扑结构和效率较高等条件。
综上所述,现有技术存在的主要问题是图像物体或场景的三维信息恢复受图像质量、相机标定和匹配算法的影响较大,鲁棒性和精确度有待提高。此外,也存在对于大规模点云数据恢复的效率不高,重建几何模型较为单一,缺少完整的从图像采集到多种模型重建的流程等问题,因此需要新的建模方法更好的拟合图像物体或场景。
发明内容
为了解决现有技术的不足,本发明提供了一种基于图像的三维四边形网格模型重建方法,其具有拟合出更好的图像物体或场景的效果的优点。
一种基于图像的三维四边形网格模型重建方法,包括:
步骤(1):获取表征图像物体或场景外形的点云数据,恢复图像的三维信息;
步骤(2):构建点云数据的四边网格,重建四边网格模型。
所述步骤(1)的步骤为:
步骤(11):通过相机的自标定和图像的特征匹配得到匹配点的三维信息;
步骤(12):构造神经网络,以匹配点和匹配点的三维坐标为样本训练神经网络,获得图像物体或场景外形的点云数据。
所述步骤(11)的步骤为:
步骤(111):对二维图像进行高斯卷积将其映射到高斯尺度空间,在图像的高斯尺度空间内构造差分函数尺度空间,在差分函数尺度空间内提取相邻层邻域内的极值点作为候选特征点;通过Hessian矩阵剔除不稳定的边缘特征点,利用高斯尺度空间函数对剩余特征点进行拟合,拟合曲面的极值为特征点;
步骤(112):建立特征点到三维空间的映射,根据映射关系计算特征点与对应的三维空间数据点之间的距离,若距离小于设定阈值,则匹配成功,得到匹配的特征点集合;
步骤(113):基于基础矩阵估计的聚类分析算法,对特征点进行精确匹配,根据基础矩阵、本质矩阵、相机内部参数和外部参数的关系,求解相机内部参数和外部参数,利用相机内部参数和外部参数实现相机的自标定,恢复匹配点的三维坐标。
所述步骤(111)的步骤为:
设原始图像为I(x,y),高斯函数为G(x,y,σ),经过卷积得到尺度空间L(x,y,σ),在高斯尺度空间内构造差分函数DOG(x,y,σ)为:
DOG(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y) (1)
在DOG尺度空间中图像点在相邻层邻域内的极值点作为候选特征点;通过Hessian矩阵剔除不稳定的边缘特征点;利用尺度空间函数L(x,y,σ)的二阶Taylor展开式进行最小二乘拟合,计算拟合曲面的极值为特征点;
所述步骤(112)的步骤为:
建立特征点p(x,y)到三维空间点p'(x,y,z)的映射,其中z为图像点p(x,y)的梯度。引入距离函数
D(pl,pr)=ω1cov(pl,pr)+ω2arccos(nl,nr) (2)
其中,cov(pl,pr)表示待匹配图像点的灰度相似度,arccos(nl,nr)表示图像点对应的空间数据点的法向量夹角余弦;当待匹配特征点的距离小于设定阈值时认为匹配成功,建立模糊的匹配特征点集合。
所述步骤(113)的步骤为:
利用8点算法估计基础矩阵F的初始值,由初始基础矩阵F求解梯度加权误差来近似重投影误差:
混合模型的密度函数为:
其中,Θ(τ1,τ2,...,θ1,θ2,...)为各混合成分的参数矢量,τk是混合系数,pk(xik)为各成分的类条件概率密度函数。
利用最大期望算法对匹配点的估计余差进行聚类分析,根据分类结果及平均余差最小原则删除错误匹配点,通过M估计算法对筛选的匹配点迭代求精。
简化内部参数矩阵K使之只与相机焦距f相关,列出Kruppa方程得到:
UΛVTdiag(f2,f2,1)VΛUT~[u3]xdiag(f2,f2,1)[u3]x, (5)
[u3]x表示向量u3的斜对称矩阵,求解相机的焦距f确定内部参数矩阵K;本质矩阵E包含旋转矩阵R和平移向量T,由基础矩阵F和内部参数矩阵K表示E=KTFK,本质矩阵E的奇异值分解E=UΛVT,则有
其中,左右图像Il(x,y)和Ir(x,y)的投影矩阵分别为Pl=(pl1,pl2,pl3),Pr=(pr1,pr2,pr3),匹配点Pl(x,y)和Pr(x,y)对应的三维数据点P满足:
对矩阵A进行归一化处理得到矩阵An,将P的求解问题转化为求解An TAn最小特征值的特征向量。
所述步骤(12)的步骤为:
步骤(121):构造动态耦合BP神经网络,引入基本权和联合权的概念,建立同层神经元之间的联系;
步骤(122):利用基本权和联合权的动态修正函数,给出输入样本的判断标准;
步骤(123):根据输入样本的判断标准建立匹配像素点及其三维信息的样本集,通过样本集对BP神经网络模型进行训练,建立像素坐标与三维坐标之间的对应关系。
所述步骤(12)的步骤为:
构造动态耦合BP神经网络,激活函数为非线性Sigmoid型函数,隐含层的层数为1,隐含节点的数目取设定值,输入层为图像的像素点坐标,输出层为其三维数据点坐标。引入基本权和联合权的概念建立同层神经元之间的联系,基本权通过网络的学习实现自身的调整,其学习表达式为:
Wij(t+1)=Wij(t)+η(t+1)Opj+α(t+1)[Wij(t)-Wij(t-1)]; (8)
其中η,α分别为学习率和惯性因子。联合权是由若干个基本权组成的函数,表达形式为:
Wkj(t+1)=Fkj(Wj1(t+1),...,Wjn(t+1)) (9)
匹配点及其三维坐标作为样本对网络进行训练,当新增样本的预测值与实测值之差的绝对值大于阈值时,认为该样本是有效样本,动态调整η和α,进而修正各神经节点的基本权和联合权的权值,加快网络的学习速率。
所述步骤(2)的步骤为:
步骤(20):对点云数据进行优化;
步骤(21):对优化后的点云数据进行无网格参数化;
步骤(22):将参数域上的四边网格连接关系映射到三维空间获得重建的四边网格模型。
所述步骤(20)的步骤为:
基于密度的k-means聚类算法,得到初始聚类中心;
利用数据点沿密度最大方向收敛的函数,构造聚类数据点的拟合平面;
判断数据点到拟合平面的距离是否超过设定阈值,若超过则认为是噪声,对噪声予以删除。
所述步骤(20)的步骤为:
构造点云数据的最小包围盒,均匀划分最小包围盒得到小立方体,同一小立方体内的数据归为一簇。记数据点pi的密度为ρ(pi),簇Ci的聚类中心为ci,定义数据点pi到簇Ci的距离函数:
簇Ci内到簇Ci距离最小的数据点作为聚类中心ci,形成点云数据的初始聚类。定义d维欧氏空间数据点pi的多元核密度估计函数为:
对式(11)进行微分得到数据点pi的梯度:
其中,g(x)为高斯核函数。数据点pi沿MG(x)方向移动,即沿数据密度最大的方向移动,迭代直到收敛到局部最大密度估计值处。对点云数据进行上述操作,数据点pi收敛到最近的聚类中心ci所在的簇为该点的簇;
采用移动最小二乘的误差估计求平面Ti使其逼近簇Ci的数据点集,记平面Ti的法向量为ni,删除数据点pi后的数据点集的法向量为npi,当法向量ni和npi夹角余弦小于阈值,则删除该点进行简化。簇Ci内数据点pi到平面Ti的距离为di,当di大于阈值则认为是噪声予以删除。
所述步骤(21)的步骤为:
利用变形能量函数对每个簇内的数据围绕聚类中心进行参数化,计算平移矩阵和旋转矩阵,实现各个参数平面的整体拼接,得到点云数据的参数化值。
所述步骤(21)的步骤为:
聚类簇Ci的数据点集Pi={c1,p1,p2,...,pn},其中ci为聚类中心,给出倒距离参数化函数将簇内数据点映射到聚类中心ci的切平面Ti
在保证变形能量函数最小的前提下,将点云数据的k个聚类中心投影到平面T:Z=0上,其中ρ(ci)表示聚类中心ci指定半径的密度。记聚类中心ci在平面T的投影点标记为u'ci,聚类中心ci的切平面Ti与平面T:Z=0的夹角为θ,切平面Ti经过旋转Ri和平移Ti后变换到聚类中心所在的参数平面T:z=0上,聚类中心ci与点u'ci重合。簇Ci的数据点pi在平面T:z=0上的投影点u'pi
u'pi=piRi+Bi (14)
平面T:z=0上的投影U'即为点云数据的参数。为减少参数化过程中的扭曲变形,采用迭代优化的方法对数据点进行局部调整
ui=ui+Δu (15)
其中,Δu是关于距离的增量。
经过若干次迭代后,映射到平面上的局部邻域尽可能保持相应的空间点之间的相对距离。
所述步骤(22)的步骤为:
在参数域内对数据点进行Delaunay三角化,根据Catmull-Clark细分模式将一个三角网格细分为三个四边网格,将参数域内的二维空间四边网格连接关系映射到三维空间得到点云数据的重建四边形网格。
与现有技术相比,本发明的有益效果是:
(1)提出基于多维信息的图像特征匹配算法,把图像特征点映射到三维空间,将图像的特征匹配问题转化为数据点的匹配问题,匹配过程兼顾特征点的灰度信息和数据点的法向信息,有效控制匹配过程中的错误传播;
(2)提出基于动态耦合BP神经网络的三维重建算法,引入基本权和联合权的概念建立同层神经元的联系,根据预测值与实际值的关系动态修正权值,经过样本训练后直接建立像素坐标与三维坐标的对应关系;
(3)给出基于均匀k-means聚类的点云数据优化算法,均匀选取聚类的初始中心,将收敛于同一局部密度最大点的数据点归为一类,根据数据点到拟合平面的距离和顶点删除前后拟合平面的法向偏量进行去噪和简化。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本发明的流程图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
本发明以从二维图像中获取精度高、鲁棒性强、速度快的三维网格模型为目的,提出一种基于图像的三维重建完整的解决方案,为满足不同应用领域的需要,给出重建的四边网格模型。本发明将计算机视觉、计算机图形学和图像处理有机的联系在一起,为可视化中的准确模拟提供有效的工具,也为古文物数字化、影视制作和游戏娱乐等领域提供新的方法,具有很高的理论价值和实际意义。
如图1所示,本发明提供的具体实施例如下:
一种基于图像的三维四边形网格模型重建方法,包括:
步骤(1):获取表征图像物体或场景外形的点云数据,恢复图像的三维信息;
步骤(2):构建点云数据的四边网格,重建四边网格模型。
所述步骤(1)的步骤为:
步骤(11):通过相机的自标定和图像的特征匹配得到匹配点的三维信息;
步骤(12):构造神经网络,以匹配点和匹配点的三维坐标为样本训练神经网络,获得图像物体或场景外形的点云数据。
所述步骤(11)的步骤为:
步骤(111):设原始图像为I(x,y),高斯函数为G(x,y,σ),经过卷积得到尺度空间L(x,y,σ),在高斯尺度空间内构造差分函数DOG(x,y,σ)为:
DOG(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y) (1)
在DOG尺度空间中图像点在相邻层邻域内的极值点作为候选特征点;通过Hessian矩阵剔除不稳定的边缘特征点;利用尺度空间函数L(x,y,σ)的二阶Taylor展开式进行最小二乘拟合,计算拟合曲面的极值为特征点;
步骤(112):建立特征点p(x,y)到三维空间点p'(x,y,z)的映射,其中z为图像点p(x,y)的梯度。引入距离函数
D(pl,pr)=ω1cov(pl,pr)+ω2arccos(nl,nr) (2)
其中,cov(pl,pr)表示待匹配图像点的灰度相似度,arccos(nl,nr)表示图像点对应的空间数据点的法向量夹角余弦;当待匹配特征点的距离小于设定阈值时认为匹配成功,建立模糊的匹配特征点集合。
步骤(113):利用8点算法估计基础矩阵F的初始值,由初始基础矩阵F求解梯度加权误差来近似重投影误差:
混合模型的密度函数为:
其中,Θ(τ1,τ2,...,θ1,θ2,...)为各混合成分的参数矢量,τk是混合系数,pk(xik)为各成分的类条件概率密度函数。
利用最大期望算法对匹配点的估计余差进行聚类分析,根据分类结果及平均余差最小原则删除错误匹配点,通过M估计算法对筛选的匹配点迭代求精。
简化内部参数矩阵K使之只与相机焦距f相关,列出Kruppa方程得到:
UΛVTdiag(f2,f2,1)VΛUT~[u3]xdiag(f2,f2,1)[u3]x, (5)
[u3]x表示向量u3的斜对称矩阵,求解相机的焦距f确定内部参数矩阵K;本质矩阵E包含旋转矩阵R和平移向量T,由基础矩阵F和内部参数矩阵K表示E=KTFK,本质矩阵E的奇异值分解E=UΛVT,则有
其中,左右图像Il(x,y)和Ir(x,y)的投影矩阵分别为Pl=(pl1,pl2,pl3),Pr=(pr1,pr2,pr3),匹配点Pl(x,y)和Pr(x,y)对应的三维数据点P满足:
对矩阵A进行归一化处理得到矩阵An,将P的求解问题转化为求解An TAn最小特征值的特征向量。
所述步骤(12)的步骤为:
构造动态耦合BP神经网络,激活函数为非线性Sigmoid型函数,隐含层的层数为1,隐含节点的数目取设定值,输入层为图像的像素点坐标,输出层为其三维数据点坐标。引入基本权和联合权的概念建立同层神经元之间的联系,基本权通过网络的学习实现自身的调整,其学习表达式为:
Wij(t+1)=Wij(t)+η(t+1)Opj+α(t+1)[Wij(t)-Wij(t-1)]; (8)
其中η,α分别为学习率和惯性因子。联合权是由若干个基本权组成的函数,表达形式为:
Wkj(t+1)=Fkj(Wj1(t+1),...,Wjn(t+1)) (9)
匹配点及其三维坐标作为样本对网络进行训练,当新增样本的预测值与实测值之差的绝对值大于阈值时,认为该样本是有效样本,动态调整η和α,进而修正各神经节点的基本权和联合权的权值,加快网络的学习速率。
所述步骤(2)的步骤为:
步骤(20):对点云数据进行优化;
步骤(21):对优化后的点云数据进行无网格参数化;
步骤(22):将参数域上的四边网格连接关系映射到三维空间获得重建的四边网格模型。
所述步骤(20)的步骤为:
构造点云数据的最小包围盒,均匀划分最小包围盒得到小立方体,同一小立方体内的数据归为一簇。记数据点pi的密度为ρ(pi),簇Ci的聚类中心为ci,定义数据点pi到簇Ci的距离函数:
簇Ci内到簇Ci距离最小的数据点作为聚类中心ci,形成点云数据的初始聚类。定义d维欧氏空间数据点pi的多元核密度估计函数为:
对式(11)进行微分得到数据点pi的梯度:
其中,g(x)为高斯核函数。数据点pi沿MG(x)方向移动,即沿数据密度最大的方向移动,迭代直到收敛到局部最大密度估计值处。对点云数据进行上述操作,数据点pi收敛到最近的聚类中心ci所在的簇为该点的簇;
采用移动最小二乘的误差估计求平面Ti使其逼近簇Ci的数据点集,记平面Ti的法向量为ni,删除数据点pi后的数据点集的法向量为npi,当法向量ni和npi夹角余弦小于阈值,则删除该点进行简化。簇Ci内数据点pi到平面Ti的距离为di,当di大于阈值则认为是噪声予以删除。
所述步骤(21)的步骤为:
聚类簇Ci的数据点集Pi={c1,p1,p2,...,pn},其中ci为聚类中心,给出倒距离参数化函数将簇内数据点映射到聚类中心ci的切平面Ti
在保证变形能量函数最小的前提下,将点云数据的k个聚类中心投影到平面T:z=0上,其中ρ(ci)表示聚类中心ci指定半径的密度。记聚类中心ci在平面T的投影点标记为u'ci,聚类中心ci的切平面Ti与平面T:z=0的夹角为θ,切平面Ti经过旋转Ri和平移Ti后变换到聚类中心所在的参数平面T:z=0上,聚类中心ci与点u'ci重合。簇Ci的数据点pi在平面T:z=0上的投影点u'pi
u'pi=piRi+Bi (14)
平面T:z=0上的投影U'即为点云数据的参数。为减少参数化过程中的扭曲变形,采用迭代优化的方法对数据点进行局部调整
ui=ui+Δu (15)
其中,Δu是关于距离的增量。
经过若干次迭代后,映射到平面上的局部邻域尽可能保持相应的空间点之间的相对距离。
所述步骤(22)的步骤为:
在参数平面域内对数据点进行Delaunay三角化,一个三角网格细分为三个四边网格,根据Catmull-Clark细分模式确定新的边点和面点。将二维空间四边形网格的连接关系映射到三维空间,得到点云数据的重建四边形网格。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (9)

1.一种基于图像的三维四边形网格模型重建方法,其特征,包括:
步骤(1):获取表征图像物体或场景外形的点云数据,恢复图像的三维信息;
步骤(2):构建点云数据的四边网格,重建四边网格模型。
2.如权利要求1所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述步骤(1)的步骤为:
步骤(11):通过相机的自标定和图像的特征匹配得到匹配点的三维信息;
步骤(12):构造神经网络,以匹配点和匹配点的三维坐标为样本训练神经网络,获得图像物体或场景外形的点云数据。
3.如权利要求2所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述步骤(11)的步骤为:
步骤(111):对二维图像进行高斯卷积将其映射到高斯尺度空间,在图像的高斯尺度空间内构造差分函数尺度空间,在差分函数尺度空间内提取相邻层邻域内的极值点作为候选特征点;通过Hessian矩阵剔除不稳定的边缘特征点,利用尺度空间函数对剩余特征点进行拟合,拟合曲面的极值为特征点;
步骤(112):建立特征点到三维空间的映射,根据映射关系计算特征点与对应的三维空间数据点之间的距离,若距离小于设定阈值,则匹配成功,得到匹配的特征点集合;
步骤(113):基于基础矩阵估计的聚类分析算法,对特征点进行精确匹配,根据基础矩阵、本质矩阵、相机内部参数和外部参数的关系,求解相机内部参数和外部参数,利用相机内部参数和外部参数实现相机的自标定,恢复匹配点的三维坐标。
4.如权利要求3所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述特征点与对应的三维空间数据点之间的距离等于特征点的灰度相似度与特征点对应三维空间数据点的法向量加权求和。
5.如权利要求2所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述步骤(12)的步骤为:
步骤(121):构造动态耦合BP神经网络,引入基本权和联合权的概念,建立同层神经元之间的联系;
步骤(122):利用基本权和联合权的动态修正函数,给出输入样本的判断标准;
步骤(123):根据输入样本的判断标准建立匹配像素点及其三维信息的样本集,通过样本集对BP神经网络模型进行训练,建立像素坐标与三维坐标之间的对应关系。
6.如权利要求1所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述步骤(2)的步骤为:
步骤(20):对点云数据进行优化;
步骤(21):对优化后的点云数据进行无网格参数化;
步骤(22):将参数域上的四边网格连接关系映射到三维空间获得重建的四边网格模型。
7.如权利要求6所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述步骤(20)的步骤为:
基于密度的k-means聚类算法,得到初始聚类中心;
利用数据点沿密度最大方向收敛的函数,构造聚类数据点的拟合平面;
判断数据点到拟合平面的距离是否超过设定阈值,若超过则认为是噪声,对噪声予以删除。
8.如权利要求6所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述步骤(21)的步骤为:
利用变形能量函数对每个簇内的数据围绕聚类中心进行参数化,计算平移矩阵和旋转矩阵,实现各个参数平面的整体拼接,得到点云数据的参数化值。
9.如权利要求6所述的一种基于图像的三维四边形网格模型重建方法,其特征,所述步骤(22)的步骤为:
在参数域内对数据点进行Delaunay三角化,根据Catmull-Clark细分模式将一个三角网格细分为三个四边网格,将参数域内的二维空间四边网格连接关系映射到三维空间得到点云数据的重建四边形网格。
CN201711433927.4A 2017-12-26 2017-12-26 一种基于图像的三维四边形网格模型重建方法 Expired - Fee Related CN108038906B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711433927.4A CN108038906B (zh) 2017-12-26 2017-12-26 一种基于图像的三维四边形网格模型重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711433927.4A CN108038906B (zh) 2017-12-26 2017-12-26 一种基于图像的三维四边形网格模型重建方法

Publications (2)

Publication Number Publication Date
CN108038906A true CN108038906A (zh) 2018-05-15
CN108038906B CN108038906B (zh) 2021-04-02

Family

ID=62101222

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711433927.4A Expired - Fee Related CN108038906B (zh) 2017-12-26 2017-12-26 一种基于图像的三维四边形网格模型重建方法

Country Status (1)

Country Link
CN (1) CN108038906B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145969A (zh) * 2018-08-03 2019-01-04 百度在线网络技术(北京)有限公司 三维物体点云数据的处理方法、装置、设备及介质
CN109285223A (zh) * 2018-09-07 2019-01-29 中山大学 基于体素模型的影像重建四边形网格方法及系统
CN109359605A (zh) * 2018-10-24 2019-02-19 艾凯克斯(嘉兴)信息科技有限公司 一种基于三维网格与神经网络的零件相似性处理方法
CN109489580A (zh) * 2018-12-10 2019-03-19 华东理工大学 一种复杂表面加工的在机点云检测及补偿方法
CN109801299A (zh) * 2019-01-22 2019-05-24 中国科学院大学 基于二次曲面拟合的模型的交互式分割方法、系统、装置
CN109816789A (zh) * 2018-12-14 2019-05-28 合肥阿巴赛信息科技有限公司 一种基于深度神经网络的三维模型参数化方法
CN110349256A (zh) * 2019-07-16 2019-10-18 深圳大学 血管重建方法、装置及计算机终端
CN110361165A (zh) * 2019-06-22 2019-10-22 四川奥希特电子材料有限公司 一种用于液晶屏蓝光分量检测分析设备的制造方法及其制造的设备
CN110874850A (zh) * 2018-09-04 2020-03-10 湖北智视科技有限公司 一种面向目标定位的实时单边网格特征配准方法
CN111986307A (zh) * 2019-05-24 2020-11-24 奥多比公司 使用光度网格表示的3d对象重建
CN113273211A (zh) * 2018-12-14 2021-08-17 Pcms控股公司 用于对空间数据进行程序化着色的系统和方法
CN113379899A (zh) * 2021-06-22 2021-09-10 南京工程学院 一种建筑工程工作面区域图像自动提取方法
CN114373358A (zh) * 2022-03-07 2022-04-19 中国人民解放军空军工程大学航空机务士官学校 一种基于快速建模的航空飞机维护作业模拟训练系统
CN118470254A (zh) * 2024-07-15 2024-08-09 湖南大学 一种基于自适应模板的三维网格重建方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040095347A1 (en) * 2002-11-15 2004-05-20 Canon Kabushiki Kaisha Method for generating mesh of object for three-dimensional analysis
CN101404071A (zh) * 2008-11-07 2009-04-08 湖南大学 基于分组粒子群算法的电子电路故障诊断神经网络方法
CN102722731A (zh) * 2012-05-28 2012-10-10 南京航空航天大学 一种基于改进sift算法的高效图像匹配方法
CN104392486A (zh) * 2014-11-25 2015-03-04 西安理工大学 一种点云场景重建方法
US20160239597A1 (en) * 2014-11-28 2016-08-18 Fujitsu Limited Apparatus and method for performing finite element computation
CN106127789A (zh) * 2016-07-04 2016-11-16 湖南科技大学 结合神经网络与虚拟靶标的立体视觉标定方法
CN106780712A (zh) * 2016-10-28 2017-05-31 武汉市工程科学技术研究院 联合激光扫描和影像匹配的三维点云生成方法
CN106887000A (zh) * 2017-01-23 2017-06-23 上海联影医疗科技有限公司 医学图像的网格化处理方法及其系统
CN107169566A (zh) * 2017-06-09 2017-09-15 山东师范大学 动态神经网络模型训练方法和装置
US20170286806A1 (en) * 2014-09-30 2017-10-05 Samsung Electronics Co., Ltd. Image registration device, image registration method, and ultrasonic diagnosis apparatus having image registration device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040095347A1 (en) * 2002-11-15 2004-05-20 Canon Kabushiki Kaisha Method for generating mesh of object for three-dimensional analysis
CN101404071A (zh) * 2008-11-07 2009-04-08 湖南大学 基于分组粒子群算法的电子电路故障诊断神经网络方法
CN102722731A (zh) * 2012-05-28 2012-10-10 南京航空航天大学 一种基于改进sift算法的高效图像匹配方法
US20170286806A1 (en) * 2014-09-30 2017-10-05 Samsung Electronics Co., Ltd. Image registration device, image registration method, and ultrasonic diagnosis apparatus having image registration device
CN104392486A (zh) * 2014-11-25 2015-03-04 西安理工大学 一种点云场景重建方法
US20160239597A1 (en) * 2014-11-28 2016-08-18 Fujitsu Limited Apparatus and method for performing finite element computation
CN106127789A (zh) * 2016-07-04 2016-11-16 湖南科技大学 结合神经网络与虚拟靶标的立体视觉标定方法
CN106780712A (zh) * 2016-10-28 2017-05-31 武汉市工程科学技术研究院 联合激光扫描和影像匹配的三维点云生成方法
CN106887000A (zh) * 2017-01-23 2017-06-23 上海联影医疗科技有限公司 医学图像的网格化处理方法及其系统
CN107169566A (zh) * 2017-06-09 2017-09-15 山东师范大学 动态神经网络模型训练方法和装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
HONG-WEI LIN 等: "A mesh reconstruction algorithm driven by an intrinsic property of a point cloud", 《COMPUTER-AIDED DESIGN》 *
JIAN-FEI LIU 等: "A new method of quality improvement for quadrilateral mesh based on small polygon reconnection", 《ACTA MECHANICA SINICA》 *
MICHAEL S. FLOATER 等: "Meshless parameterization and surface reconstruction", 《COMPUTER AIDED GEOMETRIC DESIGN》 *
刘丽 等: "高精度自适应的四边形网格重建", 《图学学报》 *
张月: "基于自组织神经网络点云重建技术的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
胡伟端 等: "三维扫描点云优化网格重建与软件系统实现", 《机械设计与制造》 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145969A (zh) * 2018-08-03 2019-01-04 百度在线网络技术(北京)有限公司 三维物体点云数据的处理方法、装置、设备及介质
CN109145969B (zh) * 2018-08-03 2020-07-28 百度在线网络技术(北京)有限公司 三维物体点云数据的处理方法、装置、设备及介质
CN110874850A (zh) * 2018-09-04 2020-03-10 湖北智视科技有限公司 一种面向目标定位的实时单边网格特征配准方法
CN109285223A (zh) * 2018-09-07 2019-01-29 中山大学 基于体素模型的影像重建四边形网格方法及系统
CN109359605A (zh) * 2018-10-24 2019-02-19 艾凯克斯(嘉兴)信息科技有限公司 一种基于三维网格与神经网络的零件相似性处理方法
CN109489580A (zh) * 2018-12-10 2019-03-19 华东理工大学 一种复杂表面加工的在机点云检测及补偿方法
CN113273211A (zh) * 2018-12-14 2021-08-17 Pcms控股公司 用于对空间数据进行程序化着色的系统和方法
CN109816789A (zh) * 2018-12-14 2019-05-28 合肥阿巴赛信息科技有限公司 一种基于深度神经网络的三维模型参数化方法
US11961264B2 (en) 2018-12-14 2024-04-16 Interdigital Vc Holdings, Inc. System and method for procedurally colorizing spatial data
CN113273211B (zh) * 2018-12-14 2024-07-30 交互数字Vc控股公司 用于对空间数据进行程序化着色的系统和方法
CN109816789B (zh) * 2018-12-14 2023-02-07 广东三维家信息科技有限公司 一种基于深度神经网络的三维模型参数化方法
CN109801299A (zh) * 2019-01-22 2019-05-24 中国科学院大学 基于二次曲面拟合的模型的交互式分割方法、系统、装置
CN111986307A (zh) * 2019-05-24 2020-11-24 奥多比公司 使用光度网格表示的3d对象重建
CN111986307B (zh) * 2019-05-24 2024-04-23 奥多比公司 使用光度网格表示的3d对象重建
CN110361165A (zh) * 2019-06-22 2019-10-22 四川奥希特电子材料有限公司 一种用于液晶屏蓝光分量检测分析设备的制造方法及其制造的设备
CN110361165B (zh) * 2019-06-22 2020-11-06 四川奥希特电子材料有限公司 一种用于液晶屏蓝光分量检测分析设备的制造方法及其制造的设备
CN110349256A (zh) * 2019-07-16 2019-10-18 深圳大学 血管重建方法、装置及计算机终端
CN110349256B (zh) * 2019-07-16 2023-05-23 深圳大学 血管重建方法、装置及计算机终端
CN113379899B (zh) * 2021-06-22 2023-09-19 南京工程学院 一种建筑工程工作面区域图像自动提取方法
CN113379899A (zh) * 2021-06-22 2021-09-10 南京工程学院 一种建筑工程工作面区域图像自动提取方法
CN114373358B (zh) * 2022-03-07 2023-11-24 中国人民解放军空军工程大学航空机务士官学校 一种基于快速建模的航空飞机维护作业模拟训练系统
CN114373358A (zh) * 2022-03-07 2022-04-19 中国人民解放军空军工程大学航空机务士官学校 一种基于快速建模的航空飞机维护作业模拟训练系统
CN118470254A (zh) * 2024-07-15 2024-08-09 湖南大学 一种基于自适应模板的三维网格重建方法
CN118470254B (zh) * 2024-07-15 2024-10-18 湖南大学 一种基于自适应模板的三维网格重建方法

Also Published As

Publication number Publication date
CN108038906B (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
CN108038906A (zh) 一种基于图像的三维四边形网格模型重建方法
Michalkiewicz et al. Deep level sets: Implicit surface representations for 3d shape inference
Fu et al. Geo-neus: Geometry-consistent neural implicit surfaces learning for multi-view reconstruction
CN110163974B (zh) 一种基于无向图学习模型的单图像面片重建方法
CN108921926B (zh) 一种基于单张图像的端到端三维人脸重建方法
CN108171780A (zh) 一种基于激光雷达构建室内真实三维地图的方法
CN110223370B (zh) 一种从单视点图片生成完整人体纹理贴图的方法
CN107679537A (zh) 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法
CN107564095A (zh) 一种基于单幅自然图像重建积云三维形状的方法
CN111028335A (zh) 一种基于深度学习的点云数据的分块面片重建方法
CN108171790B (zh) 一种基于字典学习的目标重建方法
Xu et al. Shading-based surface detail recovery under general unknown illumination
Hu et al. S3DS: Self-supervised Learning of 3D Skeletons from Single View Images
CN117689837A (zh) 基于纹理模型与噪声点云清洗的小天体智能三维重建方法
CN116883550B (zh) 一种三维虚拟实景动画显示方法
Strodthoff et al. Layered Reeb graphs for three-dimensional manifolds in boundary representation
Wang et al. A geometry feature aggregation method for point cloud classification and segmentation
Kawai et al. Surface completion of shape and texture based on energy minimization
CN115619974A (zh) 基于改进PatchMatch网络的大型场景三维重建方法、重建装置、设备及存储介质
Wang et al. Application of 3D Image Reconstruction on Landscape Architecture in Environmental Design System
Jensen et al. Deep Active Latent Surfaces for Medical Geometries
Behera et al. Neural directional distance field object representation for uni-directional path-traced rendering
Zheng et al. Research on 3D Object Reconstruction Based on Single-view RGB Image
Zeng et al. 3D plants reconstruction based on point cloud
Liu et al. 3D Animation Graphic Enhancing Process Effect Simulation Analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210402

Termination date: 20211226

CF01 Termination of patent right due to non-payment of annual fee