CN110533774B - 一种基于智能手机的三维模型重建方法 - Google Patents

一种基于智能手机的三维模型重建方法 Download PDF

Info

Publication number
CN110533774B
CN110533774B CN201910848012.2A CN201910848012A CN110533774B CN 110533774 B CN110533774 B CN 110533774B CN 201910848012 A CN201910848012 A CN 201910848012A CN 110533774 B CN110533774 B CN 110533774B
Authority
CN
China
Prior art keywords
image
dimensional model
point
camera
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910848012.2A
Other languages
English (en)
Other versions
CN110533774A (zh
Inventor
邱志伟
曹航
付丹丹
辛威
王娟
季楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Ocean University
Original Assignee
Jiangsu Ocean University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Ocean University filed Critical Jiangsu Ocean University
Priority to CN201910848012.2A priority Critical patent/CN110533774B/zh
Publication of CN110533774A publication Critical patent/CN110533774A/zh
Application granted granted Critical
Publication of CN110533774B publication Critical patent/CN110533774B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于智能手机的三维模型重建方法,包括如下步骤:首先进行相机标定,利用张正友棋盘标定法获取智能手机相机内参矩阵;将内参矩阵带入,利用SIFT算法提取和匹配特征点得到稀疏点云;利用CMVS对图像聚簇分类优化SFM输入,减少密集匹配时间和空间代价,之后再经PMVS匹配、扩展、过滤得到密集点云;最终进行纹理映射得到三维模型。

Description

一种基于智能手机的三维模型重建方法
技术领域
本发明具体涉及一种基于智能手机的三维模型重建方法,属于摄影测量学领域。
背景技术
三维建模一直是计算机视觉中重要的研究领域,越来越多的三维影像产品也出现在生活中。但一般的三维模型重建方法是利用专用的设备如深度扫描仪等来获取三维数据,或者利用如3DSMAX,CAD以及MAMY等专业软件来构造三维模型。这样的方法大多都有着操作复杂,效率低,周期长,成本高等问题。随着人们对三维建模要求的不断提高,传统的建模方法已经无法满足需求。因此,基于非量测相机的三维模型重建被不断提出。随着智能手机成为人们生活中不可或缺的一部分,手机摄影也越来越普遍,基于智能手机的三维模型重建成为了重要的研究方向之一。对于传统建模方法而言,该方法对目标影像的获取更加便捷,同时大大降低了建模成本,将三维影像产品进一步融入人们的生活中。
发明内容
本发明针对上述传统三维建模中操作复杂、成本较高等方面的不足,提供一种基于智能手机的三维模型重建方法;首先进行相机标定,利用张正友棋盘标定法获取智能手机相机内参矩阵;将内参矩阵带入,利用SIFT算法提取和匹配特征点得到稀疏点云;利用CMVS对图像聚簇分类优化SFM输入,减少密集匹配时间和空间代价,之后再经PMVS匹配、扩展、过滤得到密集点云;最终进行纹理映射得到三维模型。
为了实现上述目的,本发明采用的技术方案如下:
一种基于智能手机的三维模型重建方法,重建方法如下:
步骤1:数据采集,通过手机围绕目标模型进行拍摄,获取数据;
步骤2:相机标定,获取相机内参,使用同一个相机对同一个黑白棋盘进行不同角度的拍摄,通过点的三维世界坐标和二维相机平面像素坐标来求解图像平面的单应性矩阵H,从而得到内部参数和外部参数;
步骤3:稀松重建,通过SIFT算法提取和匹配特征点得到稀疏点云,具体包括尺度空间极值检测、精确定位特征点、确定特征点方向以及生成SIFT特征描述子;
步骤4:散列图像聚簇,利用散列图像聚簇方法对图像进行分类,可以减少匹配时间,消除杂波,提高建模效率和精度;
步骤5:基于贴片模型的密集匹配,通过DOG算子和Harris算子检测出角点和特征块,用所述的出角点和特征块重建出一个稀疏贴片集,使用迭代的方法找到已经存在贴片的相邻贴片,用增强可视化一致性提纯、过滤,剔除错误匹配;
步骤6:纹理映射,得到三维模型,在得到密集点云后,对点云进行纹理映射得到三维模型。
优选地,步骤1中拍摄的条件是:①相邻两照片夹角小于10°,保证每相邻两张照片之间能够提取到足够多的控制点;②在拍摄过程中,避免强光照射形成阴影,导致出现少特征点或无特征点的现象;③拍摄过程中与目标模型前后距离保持一致,避免出项畸变现象。
优选地,步骤2中获取相机内参的基本原理如下:
Figure BDA0002195922360000021
H=[h1 h2 h3]=λK[r1 r2 t]
Figure BDA0002195922360000022
K为内参矩阵,为模板平面上点的齐次坐标,为模板平面上点投影到图象平面上对应点的齐次坐标,[r1 r2 r3]和t分别是摄像机坐标系相对于世界坐标系的旋转矩阵和平移向量。
根据旋转矩阵的性质,即和||r1||=||r2||=1,每幅图象可以获得以下两个对内参数矩阵的基本约束
Figure BDA0002195922360000023
Figure BDA0002195922360000024
由于摄像机有5个未知内参数,所以当所摄取得的图像数目大于等于3时,就可以线性唯一求解出K得到内参矩阵。
优选地,步骤3中尺度空间极值检测具体采用高斯核函数对图像进行尺度变换,获得图像在尺度空间下的多尺度序列表示,生成不同尺度下的图像,利用不同尺度的高斯差分核与图像卷积生成DOG函数,构建DOG金字塔来检测尺度空间的局部极值。
优选地,步骤3中精确定位特征点具体采用DOG函数在尺度空间的泰勒展开式对尺度空间DOG函数进行曲线拟合。
优选地,步骤3中确定特征点方向具体方法是先在尺度空间中计算像素梯度,以每个特征点为中心,采用梯度方向直方图的方法,在8x8的领域中对梯度在36个离散方向上进行高斯加权,统计整个领域内的梯度方向;最后将梯度模型的极大值或者多个极大值作为该特征点的主方向或次方向。
优选地,步骤3中生成SIFT特征描述子,确定计算描述子所需的图像区域,将坐标轴旋转为关键点的方向,以确保旋转不变性。将领域内的采样点分配到对应的子区域内,将子区域内的梯度值分配到8个方向上,计算其权值;插值计算每个种子点八个方向的梯度,之后对描述符向量元素门限化、归一化得到描述子。
优选地,步骤4中实现图像聚类的三个条件:
①密集性:删除簇内冗余的图像,保证数据的密集度;
②大小:单个簇应足够小,以保证所有簇均能实现重建;
③覆盖:由图像簇得到的重建结果必须使得整个图像细节的损失达到最小,保证图像的完整性。
优选地,实现对点云进行纹理映射得到三维模型可以采用包括但不限于3Dmax、MeshLab处理软件。
与现有技术相比,本发明具有以下有益效果:
本发明的一种基于智能手机的三维模型重建方法,依据SIFT算法与密集重建,提出基于手机拍摄相片作为数据源进行三维建模。本发明先后通过相机标定、特征点提取以及密集重建等方法对手机相片进行处理得到三维模型。证明了基于智能手机三维建模的可行性,有望成为三维建模数据获取的重要途径之一,本发明具有一定的实际应用价值和通用性。
该方法大大降低了传统建模的成本,同时舍弃了专业的量测工具,使操作步骤更加便捷,更加自动化,降低了建模的难度,提高了效率。让三维影像产品更加便捷的服务于人们的日常生活,具有很强的实用性。
附图说明
图1是本发明的流程图。
图2是手机型号界面图。
图3是孔子像实物图。
图4是图像影像信息图。
图5是提取内角点图。
图6是标定误差与内参矩阵图。
图7是稀疏点云图。
图8是密集重建图。
图9是三维模型图。
具体实施方式
下面结合附图对本发明做进一步的说明:
图1所示,一种基于智能手机的三维模型重建方法,其特征在于:重建方法如下:
(1)数据采集
拍摄相片,获取数据。通过手机围绕目标模型进行拍摄。为保证拍摄影像符合建要求,因此需要满足如下条件:
①相邻两照片夹角小于10°,保证每相邻两张照片之间能够提取到足够多的控制点。
②在拍摄过程中,避免强光照射形成阴影,导致出现少特征点或无特征点的现象。
③拍摄过程中与目标模型前后距离保持一致,避免出项畸变现象。
(2)相机标定,获取相机内参。
使用同一个相机对同一个黑白棋盘进行不同角度的拍摄,通过点的三维世界坐标和二维相机平面像素坐标来求解图像平面的单应性矩阵H,从而得到内部参数和外部参数。
基本原理:
Figure BDA0002195922360000041
H=[h1 h2 h3]=λK[r1 r2 t]
Figure BDA0002195922360000042
K为内参矩阵,为模板平面上点的齐次坐标,为模板平面上点投影到图象平面上对应点的齐次坐标,[r1 r2 r3]和t分别是摄像机坐标系相对于世界坐标系的旋转矩阵和平移向量。
根据旋转矩阵的性质,即和||r1||=||r2||=1,每幅图象可以获得以下两个对内参数矩阵的基本约束
Figure BDA0002195922360000043
Figure BDA0002195922360000044
由于摄像机有5个未知内参数,所以当所摄取得的图像数目大于等于3时,就可以线性唯一求解出K得到内参矩阵。
(3)稀松重建—SIFT算法提取和匹配特征点
①尺度空间极值检测
利用高斯核函数对图像进行尺度变换,获得图像在尺度空间下的多尺度序列表示。
Figure BDA0002195922360000045
其中G(x,y,σ)为高斯核,随着尺度因子σ的改变,将会生成不同尺度下的图像,称为高斯尺度空间。利用不同尺度的高斯差分核与图像卷积生成DoG
(Difference-of-Gaussians),构建DOG金字塔来检测尺度空间的局部极值。
D(x yσ)=(G(x y kσ)-G(x yσ))*I(x y)=L(x y kσ)-L(x yσ)
②精确定位特征点
利用DOG函数在尺度空间的泰勒展开式对尺度空间DOG函数进行曲线拟合。
Figure BDA0002195922360000051
极值点为
Figure BDA0002195922360000052
同时设定阈值D0,将不稳定特征点剔除,增强匹配的可靠性和稳定性。
③确定特征点方向
首先在尺度空间中计算像素梯度:
Figure BDA0002195922360000053
Figure BDA0002195922360000054
以每个特征点为中心,采用梯度方向直方图的方法,在8x8的领域中对梯度在36个离散方向上进行高斯加权,统计整个领域内的梯度方向。最后将梯度模型的极大值或者多个极大值作为该特征点的主方向或次方向。
④生成SIFT特征描述子
确定计算描述子所需的图像区域
Figure BDA0002195922360000055
将坐标轴旋转为关键点的方向,以确保旋转不变性。将领域内的采样点分配到对应的子区域内,将子区域内的梯度值分配到8个方向上,计算其权值。插值计算每个种子点八个方向的梯度。
weight=w*drk*(1-dr)1-k*dcm*(1-dc)1-m*don*(1-do)1-n
之后对描述符向量元素门限化、归一化得到描述子。
(4)散列图像聚簇(cmvs)
利用散列图像聚簇方法对图像进行分类,可以减少匹配时间,消除杂波,提高建模效率和精度。实现图像聚类的三个条件:
①密集性:删除簇内冗余的图像,保证数据的密集度。
②大小:单个簇应足够小,以保证所有簇均能实现重建。
③覆盖:由图像簇得到的重建结果必须使得整个图像细节的损失达到最小,保证图像的完整性。
定义图像Il与Im相邻,某个SFM点在图像Il和Im中均可见。在局部领域搜索某个特征点的可视信息,再将该位置的信息取为各领域位置的平均值。有效减少点集数量,输出点集构成
Figure BDA0002195922360000061
根据覆盖范围约束删除不满此约束的图像。再由标准分割法,对图像大小为约束条件,不考虑覆盖范围约束进行分割。将不满足图像大小的簇分割为更小的簇。对于未加入的每个SFM特征点Pj,通过
Figure BDA0002195922360000062
确定出一个图像簇Ck。对于特征点Pj,构建一个把图像
Figure BDA0002195922360000063
加入簇Ck的行为,并用g=f(Pj Ck∪Ij)衡量效率,每个SFM特征点对应唯一的一个效率g值,最后按照g值排序选择最大的g作为加入簇的行为。
(5)基于贴片模型的密集匹配(pmvs)
通过DOG算子和Harris算子检测出角点和特征块,每幅影响覆盖一粗糙网β2×β2,返回每个细胞中η个局部极值(β2=32η=4)。用这些角点和特征块重建出一个稀疏贴片集,存储于格网C(i j)中对于每幅影像的特征f,收集其在其他影像核线上只有2个像素偏差同类型特征f′组成的特征集F,再利用(f f′)三角化得到3D点,这些3D按照与候选的贴片中心O的距离排序,返回第一幅至少在幅影像中光度一致连续贴片。三角化(f f′)得到c(p)的一个初始估计,n(p)设为沿着视线并与贴片中心相交,R(p)=I,通过光度一致性估计初始化T(p),计算c(p),n(p)重新计算T(p),不断重复直到贴片p满足T(p)≤γ。之后使用迭代的方法找到已经存在贴片的相邻贴片,假设S(p)中图像I两个相邻细胞C(i j),C(i′j′)相邻,并且各自包含的贴片p,p′也相邻,当p,p′同时满足:Qt(i′j′)为空,Qf(i j)没有贴片是n-邻接,就赋予R(p′),T(p′),n(p′)相应于p的值来初始化p′。C(p′)由通过C(i′j′)光线和包含p的平面相交决定。C(p′),n(p′)由光度一致性约束提升,S(p′)由增强可视化一致性初始化。考虑到一些错误匹配难以避免,可以把T(p′)中的元素增加到S(p′)中,再用增强可视化一致性提纯T(p′),我们接受该点当且仅当|T(p′)|≤γ,并且存储到对应的Qt(i′j′),Qf(ij)中,更新S(p′)。之后进行过滤,剔除错误匹配。
(6)纹理映射,得到三维模型。
在得到密集点云后,便可用3Dmax、MeshLab等软件对点云进行纹理映射得到三维模型。
实施例:
(1)利用智能手机的拍摄功能对孔子像进行拍摄,拍摄时要注意距离、角度以及光照强度等多种因素的影响,保证每张相片均符合建模要求。手机型号、孔子像以及图像影像信息如下图2所示,图3是要建立模型的客体,图4是图像影像信息。
(2)通过张正友棋盘标定法对相机进行相机标定获取内参矩阵。使用手机对黑白棋盘进行不同角度的拍摄,之后提取内角点进行标定得到标定误差及手机摄像头的内参矩阵。下图为提取内角点以及得到的标定误差与内参矩阵。具体见图5是提取内角点图,图6是标定误差与内参矩阵图。
(3)将得到的相机矩阵输入,进行特征点的提取与匹配。构造DoG金字塔来检测尺度空间的局部极值,设定阈值D0删除不稳定点,通过公式
Figure BDA0002195922360000071
Figure BDA0002195922360000072
确定特征点的梯度模量和方向分布特征,最后建立特征点描述符得到构成孔子模型轮廓的稀疏点云,得到图7稀疏点云图。
(4)把局部邻域某个SFM特征点的可视信息设为各邻域位置的平均值,直到把点集
Figure BDA0002195922360000073
输出,有效减少输入点集的数量。之后进行图像筛选,去除分辨率较低的图像。添加新的数据,对于未加入的每个SFM特征点Pj,确定图像簇Ck
Figure BDA0002195922360000074
对于特征点Pj,构建一个把图像
Figure BDA0002195922360000075
加入簇Ck的行为,并用g=f(Pj Ck∪Ij)衡量效率,重复处理,直至最终结果均能符合覆盖范围约束和图像大小约束条件。
(5)得到聚簇分类结果后,通过初始特征匹配、膨胀、过滤三个步骤对同一物体不同角度的多幅图像完成密集匹配,得到密集点云。密集重建如下图8所示。
(6)最后通过3Dmax、MeshLab等建模软件将图片作为纹理,映射到模型表面,就可得到高仿真三维模型。图9是三维模型图。
将基于智能手机重建的三维模型图9与孔子像图3进行对比,模型无较大的几何畸变,底部字迹清晰,整体完整,完全符合三维建模要求。量测三维模型并与孔子像的实际尺寸进行对比。
量测长度与实际尺寸对比如下表所示:
Figure BDA0002195922360000076
Figure BDA0002195922360000081
根据尺寸对比表可以看出,模型量测结果与所对应孔子像实际长度相吻合,各部分误差不大。三维模型的成功建立,验证了基于智能手机三维模型重建方法是准确的。该方法大大降低了传统建模的成本,同时舍弃了专业的量测工具,使操作步骤更加便捷,更加自动化,降低了建模的难度,提高了效率。让三维影像产品更加便捷的服务于人们的日常生活,具有很强的实用性。

Claims (5)

1.一种基于智能手机的三维模型重建方法,其特征在于:重建方法如下:
步骤1:数据采集,通过手机围绕目标模型进行拍摄,获取数据;
步骤2:相机标定,获取相机内参,使用同一个相机对同一个黑白棋盘进行不同角度的拍摄,通过点的三维世界坐标和二维相机平面像素坐标来求解图像平面的单应性矩阵H,从而得到内部参数和外部参数;
步骤3:稀松重建,通过SIFT算法提取和匹配特征点得到稀疏点云,具体包括尺度空间极值检测、精确定位特征点、确定特征点方向以及生成SIFT特征描述子;
尺度空间极值检测具体采用高斯核函数对图像进行尺度变换,获得图像在尺度空间下的多尺度序列表示,生成不同尺度下的图像,利用不同尺度的高斯差分核与图像卷积生成DOG函数,构建DOG金字塔来检测尺度空间的局部极值;
精确定位特征点具体采用DOG函数在尺度空间的泰勒展开式对尺度空间DOG函数进行曲线拟合;
确定特征点方向具体方法是先在尺度空间中计算像素梯度,以每个特征点为中心,采用梯度方向直方图的方法,在8x8的领域中对梯度在36个离散方向上进行高斯加权,统计整个领域内的梯度方向;最后将梯度模型的极大值或者多个极大值作为该特征点的主方向或次方向;
生成SIFT特征描述子,确定计算描述子所需的图像区域,将坐标轴旋转为关键点的方向,以确保旋转不变性;将领域内的采样点分配到对应的子区域内,将子区域内的梯度值分配到8 个方向上,计算其权值;插值计算每个种子点八个方向的梯度,之后对描述符向量元素门限化、归一化得到描述子;
步骤4:散列图像聚簇,利用散列图像聚簇方法对图像进行分类,可以减少匹配时间,消除杂波,提高建模效率和精度;
步骤5:基于贴片模型的密集匹配,通过DOG算子和Harris算子检测出角点和特征块,用所述的出角点和特征块重建出一个稀疏贴片集,使用迭代的方法找到已经存在贴片的相邻贴片,用增强可视化一致性提纯、过滤,剔除错误匹配;
步骤6:纹理映射,得到三维模型,在得到密集点云后,对点云进行纹理映射得到三维模型。
2.根据权利要求1所述的一种基于智能手机的三维模型重建方法,其特征在于:步骤1中拍摄的条件是: 相邻两照片夹角小于10°,保证每相邻两张照片之间能够提取到足够多的控制点; 在拍摄过程中,避免强光照射形成阴影,导致出现少特征点或无特征点的现象; 拍摄过程中与目标模型前后距离保持一致,避免出项畸变现象。
3.根据权利要求1所述的一种基于智能手机的三维模型重建方法,其特征在于:步骤2中获取相机内参的基本原理如下:
K为内参矩阵,为模板平面上点的齐次坐标,为模板平面上点投影到图象平面上对应点的齐次坐标,[r1 r2 r3]和t 分别是摄像机坐标系相对于世界坐标系的旋转矩阵和平移向量;
根据旋转矩阵的性质,即和||r1||=||r2||=1,每幅图象可以获得以下两个对内参数矩阵的基本约束
由于摄像机有5个未知内参数,所以当所摄取得的图像数目大于等于3时,就可以线性唯一求解出K得到内参矩阵。
4.根据权利要求1所述的一种基于智能手机的三维模型重建方法,其特征在于:步骤4中实现图像聚类的三个条件:
 密集性:删除簇内冗余的图像,保证数据的密集度;
 大小:单个簇应足够小,以保证所有簇均能实现重建;
 覆盖:由图像簇得到的重建结果必须使得整个图像细节的损失达到最小,保证图像的完整性。
5.根据权利要求1所述的一种基于智能手机的三维模型重建方法,其特征在于:实现对点云进行纹理映射得到三维模型可以采用包括但不限于3Dmax、MeshLab处理软件。
CN201910848012.2A 2019-09-09 2019-09-09 一种基于智能手机的三维模型重建方法 Active CN110533774B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910848012.2A CN110533774B (zh) 2019-09-09 2019-09-09 一种基于智能手机的三维模型重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910848012.2A CN110533774B (zh) 2019-09-09 2019-09-09 一种基于智能手机的三维模型重建方法

Publications (2)

Publication Number Publication Date
CN110533774A CN110533774A (zh) 2019-12-03
CN110533774B true CN110533774B (zh) 2023-04-07

Family

ID=68667922

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910848012.2A Active CN110533774B (zh) 2019-09-09 2019-09-09 一种基于智能手机的三维模型重建方法

Country Status (1)

Country Link
CN (1) CN110533774B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111028341B (zh) * 2019-12-12 2020-08-04 天目爱视(北京)科技有限公司 一种三维模型生成方法
CN111325780B (zh) * 2020-02-17 2021-07-27 天目爱视(北京)科技有限公司 一种基于图像筛选的3d模型快速构建方法
CN113178005A (zh) * 2021-05-26 2021-07-27 国网河南省电力公司南阳供电公司 一种用于电力设备的高效拍照建模方法和装置
CN113688846B (zh) * 2021-08-24 2023-11-03 成都睿琪科技有限责任公司 物体尺寸识别方法、可读存储介质及物体尺寸识别系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537879A (zh) * 2018-03-29 2018-09-14 东华智业(北京)科技发展有限公司 三维模型重建系统及方法
CN108921939A (zh) * 2018-07-04 2018-11-30 王斌 一种基于图片的三维场景重建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537879A (zh) * 2018-03-29 2018-09-14 东华智业(北京)科技发展有限公司 三维模型重建系统及方法
CN108921939A (zh) * 2018-07-04 2018-11-30 王斌 一种基于图片的三维场景重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种基于智能手机成像的三维重建方法;曾昭鹏等;《激光与光电子学进展》;20180530;第329-337页 *
基于CMVS/PMVS多视角密集匹配方法的研究与实现;何豫航等;《测绘地理信息》;20130605;第20-23页 *

Also Published As

Publication number Publication date
CN110533774A (zh) 2019-12-03

Similar Documents

Publication Publication Date Title
CN110533774B (zh) 一种基于智能手机的三维模型重建方法
CN109872397B (zh) 一种基于多目立体视觉的飞机零件的三维重建方法
CN109410256B (zh) 基于互信息的点云与影像自动高精度配准方法
CN106651942B (zh) 基于特征点的三维旋转运动检测与旋转轴定位方法
CN110443836A (zh) 一种基于平面特征的点云数据自动配准方法及装置
CN112927360A (zh) 一种基于倾斜模型与激光点云数据融合的三维建模方法和系统
CN109211198B (zh) 一种基于三目视觉的智能目标检测和测量系统和方法
CN110728671B (zh) 基于视觉的无纹理场景的稠密重建方法
CN113178009B (zh) 一种利用点云分割和网格修补的室内三维重建方法
Urban et al. Finding a good feature detector-descriptor combination for the 2D keypoint-based registration of TLS point clouds
CN105335952B (zh) 匹配代价计算方法和装置、以及视差值计算方法和设备
Pound et al. A patch-based approach to 3D plant shoot phenotyping
CN107610219B (zh) 三维场景重构中几何线索感知的像素级点云稠密化方法
CN115375842A (zh) 一种植株三维重建方法、终端及存储介质
CN114782628A (zh) 基于深度相机的室内实时三维重建方法
CN112630469A (zh) 一种基于结构光和多光场相机的三维检测方法
CN112929626A (zh) 一种基于智能手机影像的三维信息提取方法
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN116740288B (zh) 一种融合激光雷达、倾斜摄影的三维重建方法
CN113345072A (zh) 一种多视角遥感地形影像点云重建方法及系统
Ylimäki et al. Accurate 3-d reconstruction with rgb-d cameras using depth map fusion and pose refinement
CN115790539B (zh) 一种合作靶标水下摄影测量方法
CN112767459A (zh) 基于2d-3d转换的无人机激光点云与序列影像配准方法
Jisen A study on target recognition algorithm based on 3D point cloud and feature fusion
Wan et al. A performance comparison of feature detectors for planetary rover mapping and localization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant