CN114758093A - 基于图像序列的三维模型生成方法、装置、设备及介质 - Google Patents
基于图像序列的三维模型生成方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114758093A CN114758093A CN202210345350.6A CN202210345350A CN114758093A CN 114758093 A CN114758093 A CN 114758093A CN 202210345350 A CN202210345350 A CN 202210345350A CN 114758093 A CN114758093 A CN 114758093A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud information
- target image
- sparse point
- sparse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及图像处理技术领域,揭露一种基于图像序列的三维模型生成方法、装置、设备及介质,其中方法包括获取物体的多张不同角度图像,作为目标图像;通过对目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息;获取目标图像的分割掩膜,并基于分割掩膜对目标图像进行前景分割处理,得到第二稀疏点云信息;将第一稀疏点云信息及第二稀疏点云信息进行点云筛选,得到物体区域点云;通过对物体区域点云进行重构处理,得到物体的三维图模型。本发明通过目标图像进行前景分割处理,去除了生成三维图模型中的杂乱背景,提高了三维模型生成的精准度。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种基于图像序列的三维模型生成方法、装置、设备及介质。
背景技术
从物体的多视角图片来进行3D模型的构建,是计算机图形学和计算机视觉的一大研究方向,称为基于图像的几何建模(Image based modeling)。这种技术已逐渐成熟且走向实用阶段,有些软件能够让用户拿着普通相机或者手机对着要建模的实物从不同视角拍摄若干照片,然后软件就能根据这些照片自动地生成相应的3D模型。
然而,现有基于图像序列的三维建模技术会对照片中非物体的背景部分也进行重建,这样会导致重建的模型并非是独立干净的单个物体的三维模型,而是参杂了背景的三维空间,从而导致其受到物体背景信息的干扰,使得生成的三维模型精准度较低。
发明内容
本申请实施例的目的在于提出一种基于图像序列的三维模型生成方法、装置、设备及介质,以提高三维模型生成的精准度。
为了解决上述技术问题,本申请实施例提供一种基于图像序列的三维模型生成方法,包括:
获取物体的多张不同角度图像,作为目标图像;
通过对所述目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对所述物体稀疏点云信息进行重建处理,得到第一稀疏点云信息;
获取所述目标图像的分割掩膜,并基于所述分割掩膜对所述目标图像进行前景分割处理,得到第二稀疏点云信息;
将所述第一稀疏点云信息及所述第二稀疏点云信息进行点云筛选,得到物体区域点云;
通过对物体区域点云进行重构处理,得到物体的三维图模型。
为了解决上述技术问题,本申请实施例提供一种基于图像序列的三维模型生成装置,包括:
目标图像获取模块,用于获取物体的多张不同角度图像,作为目标图像;
第一稀疏点云信息获取模块,用于通过对所述目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对所述物体稀疏点云信息进行重建处理,得到第一稀疏点云信息;
第二稀疏点云信息获取模块,用于获取所述目标图像的分割掩膜,并基于所述分割掩膜对所述目标图像进行前景分割处理,得到第二稀疏点云信息;
物体区域点云生成模块,用于将所述第一稀疏点云信息及所述第二稀疏点云信息进行点云筛选,得到物体区域点云;
三维图模型生成模块,用于通过对物体区域点云进行重构处理,得到物体的三维图模型。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种计算机设备,包括,一个或多个处理器;存储器,用于存储一个或多个程序,使得一个或多个处理器实现上述任意一项所述的基于图像序列的三维模型生成方法。
为解决上述技术问题,本发明采用的一个技术方案是:一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的基于图像序列的三维模型生成方法。
本发明实施例提供了一种基于图像序列的三维模型生成方法、装置、设备及介质。其中,方法包括:获取物体的多张不同角度图像,作为目标图像;通过对目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息;获取目标图像的分割掩膜,并基于分割掩膜对目标图像进行前景分割处理,得到第二稀疏点云信息;将第一稀疏点云信息及第二稀疏点云信息进行点云筛选,得到物体区域点云;通过对物体区域点云进行重构处理,得到物体的三维图模型。本发明实施例通过目标图像进行前景分割处理,去除了生成三维图模型中的杂乱背景,同时将稀疏点云进行点云筛选,进一步减少了三维图模型生产中的无效点云,从而有利于提高三维模型生成的精准度。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的基于图像序列的三维模型生成方法流程的一实现流程图;
图2是本申请实施例提供的基于图像序列的三维模型生成方法中子流程的又一实现流程图;
图3是本申请实施例提供的基于图像序列的三维模型生成方法中子流程的又一实现流程图;
图4是本申请实施例提供的基于图像序列的三维模型生成方法中子流程的又一实现流程图;
图5是本申请实施例提供的基于图像序列的三维模型生成方法中子流程的又一实现流程图;
图6是本申请实施例提供的基于图像序列的三维模型生成方法中子流程的又一实现流程图;
图7是本申请实施例提供的基于图像序列的三维模型生成装置示意图;
图8是本申请实施例提供的计算机设备的示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
下面结合附图和实施方式对本发明进行详细说明。
需要说明的是,本申请实施例所提供的基于图像序列的三维模型生成方法一般由服务器执行,相应地,基于图像序列的三维模型生成装置一般配置于服务器中。
请参阅图1,图1示出了基于图像序列的三维模型生成方法的一种具体实施方式。
需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限,该方法包括如下步骤:
S1:获取物体的多张不同角度图像,作为目标图像。
具体的,在需要对物体进行三维图模型构建时,先获取该物体的多张不同角度图像,不同角度图像可以为该物体的正视图、左视图、右视图、后视图、俯视图以及仰视图。
S2:通过对目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息。
具体的,由于目标图像为物体的不同角度图像,所以将每一张目标图像进行特征提取,得到每一张目标图像的图像特征;然后将不同的目标图像的图像特征进行特征匹配,将相同的特征进行结合,从而得到不同的特征点,也即物体稀疏点云信息,再对物体稀疏点云信息进行重建处理,最终得到第一稀疏点云信息。
其中,在逆向工程中通过测量仪器得到的产品外观表面的点数据集合也称之为点云,通常使用三维坐标测量机所得到的点数量比较少,点与点的间距也比较大,叫稀疏点云;而使用三维激光扫描仪或照相式扫描仪得到的点云,点数量比较大并且比较密集,叫密集点云或稠密点云。在本申请实施例中,第一稀疏点云信息为目标图像中表面特征的海量点集合。
请参阅图2,图2示出了步骤S2的一种具体实施方式,详叙如下:
S21:针对每一张目标图像,通过对目标图像进行尺度不变特征变换的特征提取,得到每一张目标图像的图像特征。
S22:将多张目标图像的图像特征进行特征匹配处理,得到物体稀疏点云信息。
S23:采用增量式的运动结构恢复算法对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息。
具体的,尺度不变特征变换也即SIFT(Scale-invariant feature transform),是用于图像处理领域的一种描述。这种描述具有尺度不变性,可在图像中检测出关键点,是一种局部特征描述子。在本申请实施例中,由于目标图像是不同角度的图像,为了保持不同角度的图像尺度的不变性,对目标图像进行尺度不变特征变换的特征提取,得到每一张目标图像的图像特征。然后将不同的目标图像的图像特征进行特征匹配,将相同的特征进行结构,从而得到不同的特征点,也即物体稀疏点云信息。最后采用增量式的运动结构恢复算法对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息。
其中,增量式的运动结构恢复算法是指增量式的SfM(Structure from Motion);而SFM算法是一种基于各种收集到的无序图片进行三维重建的离线算法。在本申请实施例中,采用增量式的运动结构恢复算法对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息。
本实例中,针对每一张目标图像,通过对目标图像进行尺度不变特征变换的特征提取,得到每一张目标图像的图像特征,并将多张目标图像的图像特征进行特征匹配处理,得到物体稀疏点云信息,再采用增量式的运动结构恢复算法对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息,实现了对目标图像进行特征识别和匹配,并获取稀疏点云信息,有利于对物体的三维图模型进行点云信息提取,为物体的三维图模型的生成提供基础。
请参阅图3,图3示出了步骤S21的一种具体实施方式,详叙如下:
S211:针对每一张目标图像,提取目标图像的关键点,得到目标关键点;
S212:通过对目标关键点进行定位以及确定特征方向,得到关键点的特征向量;
S213:匹配关键点的特征向量,以使得对目标图像进行尺度不变特征变换的特征提取,得到每一张目标图像的图像特征。
具体的,针对每一张图像,提取关键点。该关键点是目标图像中一些十分突出的不会因光照、尺度、旋转等因素而消失的点,比如角点、边缘点、暗区域的亮点以及亮区域的暗点。提取关键点是为了搜索所有尺度空间上的图像位置,然后通过高斯微分函数来识别潜在的具有尺度和旋转不变的兴趣点。
在每个候选关键点的位置上,通过一个拟合精细的模型来确定位置和尺度;该关键点的选择依据于它们的稳定程度;然后基于图像局部的梯度方向,分配给每个关键点位置一个或多个方向。所有后面的对图像数据的操作都相对于关键点的方向、尺度和位置进行变换,从而提供对于这些变换的不变性,也即通过对目标关键点进行定位以及确定特征方向,得到关键点的特征向量。最后通过各关键点的特征向量,进行两两比较找出相互匹配的若干对特征点,建立物体间的对应关系,最终得到每一张目标图像的图像特征。
本实施例中,针对每一张目标图像,提取目标图像的关键点,得到目标关键点,并通过对目标关键点进行定位以及确定特征方向,得到关键点的特征向量,最后匹配关键点的特征向量,以使得对目标图像进行尺度不变特征变换的特征提取,得到每一张目标图像的图像特征,实现对目标图像进行特征提取,为后续三维图模型生成提供基础。
S3:获取目标图像的分割掩膜,并基于分割掩膜对目标图像进行前景分割处理,得到第二稀疏点云信息。
具体的,分割掩膜也即图像掩膜,是指用选定的图像、图形或物体,对处理的图像(全部或局部)进行遮挡,来控制图像处理的区域或处理过程。用于覆盖的特定图像或物体称为掩模或模板。在本申请实施例中,通过识别目标图像的分割掩膜,将物体从目标图像中进行分割处理,从而去除物体三维图生成中的杂乱背景。
请参阅图4,图4示出了步骤S3的一种具体实施方式,详叙如下:
S31:采用前景分割算法,识别出目标图像中的物体信息,以获取分割掩膜。
S32:基于分割掩膜,将物体从目标图像中进行前景分割处理,得到第二稀疏点云信息。
具体的,本申请实施例中,所采用的前景分割算法为U-Net算法,该算法是一种语义分割算法,该算法采用的是全卷积神经网络,其先通过特征提取网络进行卷积处理和pooling(特征提取层);然后特征融合网络使用上采样产生的特征图与特征提取网络产生的特征图进行concatenate(连接)操作;最后再经过两次卷积操作,生成特征图,再用两个卷积核大小为1*1的卷积做分类得到最后的两张heatmap(热图),例如第一张表示第一类的得分,第二张表示第二类的得分heatmap,然后作为softmax函数的输入,算出概率比较大的softmax,然后进行损失计算以及反向传播计算,最终实现前景分割。在本实施例中,使用U-Net算法,识别出目标图像中的物体信息,以获取分割掩膜,再基于分割掩膜,将物体从目标图像中进行前景分割处理,得到第二稀疏点云信息,从而有效的去除三维物体图模型中的杂乱背景,还可以大大的减少需要进行深度估计的点云数量,有利于提升三维物体图模型生成的精准度和效率。
S4:将第一稀疏点云信息及第二稀疏点云信息进行点云筛选,得到物体区域点云。
请参阅图5,图5示出了步骤S4的一种具体实施方式,详叙如下:
S41:获取第一稀疏点云信息及第二稀疏点云信息中点云的映射关系,其中,映射关系为二维物体点云与三维物体点云之间的映射联系。
S42:基于映射关系,将第一稀疏点云信息及第二稀疏点云信息进行点云筛选,以提取出目标图像中物体区域的点云,得到物体区域点云。
具体的,由于在提取目标图像的稀疏点云信息过程中,会将目标图像中的各个点云信息进行对应提取,所以在提取到获取第一稀疏点云信息及第二稀疏点云信息过程中,其包括了二维物体点云与三维物体点云之间的映射联系;并且由于第二稀疏点云信息是对目标图像进行前景分割而得到的,其主要包括了物体区域的点云信息,所以通过获取第一稀疏点云信息及第二稀疏点云信息中点云的映射关系,再基于映射关系,将第一稀疏点云信息及第二稀疏点云信息进行点云筛选,以提取出目标图像中物体区域的点云,得到物体区域点云,实现了去除杂乱背景的点云,检索了后续深度估计除了的点云数量,有利于提升三维物体图模型生成的精准度和效率。
S5:通过对物体区域点云进行重构处理,得到物体的三维图模型。
具体的,上述步骤已经获取到了目标图像中的物体区域点云,则对该物体区域点云进行重构处理,从而得到物体的三维图模型。该重构处理包括深度图估计处理、网格化和纹理映射处理。
本发明实施例提供了一种基于图像序列的三维模型生成方法、装置、设备及介质。其中,方法包括:获取物体的多张不同角度图像,作为目标图像;通过对目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息;获取目标图像的分割掩膜,并基于分割掩膜对目标图像进行前景分割处理,得到第二稀疏点云信息;将第一稀疏点云信息及第二稀疏点云信息进行点云筛选,得到物体区域点云;通过对物体区域点云进行重构处理,得到物体的三维图模型。本发明实施例通过目标图像进行前景分割处理,去除了生成三维图模型中的杂乱背景,同时将稀疏点云进行点云筛选,进一步减少了三维图模型生产中的无效点云,从而有利于提高三维模型生成的精准度。
请参阅图6,图6示出了步骤S5的一种具体实施方式,详叙如下:
S51:采用半全局匹配算法,对物体区域点云进行深度图估计处理,得到物体稠密点云。
S52:通过对物体稠密点云进行网格化和纹理映射处理,得到物体的三维图模型。
具体的,半全局匹配算法是指SGM(semi-global matching)算法,是一种用于计算双目视觉中disparity(差异)的半全局匹配算法。在OpenCV中的实现为semi-global blockmatching(SGBM)。SGBM的思路是:通过选取每个像素点的disparity,组成一个disparitymap(视差图),设置一个和disparity map相关的全局能量函数,使这个能量函数最小化,以达到求解每个像素最优disparity的目的。在本申请实施例中,采用半全局匹配算法,对物体区域点云进行深度图估计处理,得到物体稠密点云。其中,深度估计处理就是利用一张或者唯一/多个视角下的RGB图像,估计图像中每个像素相对拍摄源的距离。本申请实施例中,深度图估计处理是将物体区域点云进行重新估计计算,获取物体稠密点云。其中,纹理映射(Texture Mapping)是将纹理空间中的纹理像素映射到屏幕空间中的像素的过程。
本实施中,采用半全局匹配算法,对物体区域点云进行深度图估计处理,得到物体稠密点云,再通过对物体稠密点云进行网格化和纹理映射处理,得到物体的三维图模型,实现对物体三维图的生成,去除了生成三维图模型中的杂乱背景,同时将稀疏点云进行点云筛选,进一步减少了三维图模型生产中的无效点云,从而有利于提高三维模型生成的精准度。
请参考图7,作为对上述图1所示方法的实现,本申请提供了一种基于图像序列的三维模型生成装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例的基于图像序列的三维模型生成装置包括:目标图像获取模块61、第一稀疏点云信息获取模块62、第二稀疏点云信息获取模块63、物体区域点云生成模块64及三维图模型生成模块65,其中:
目标图像获取模块61,用于获取物体的多张不同角度图像,作为目标图像;
第一稀疏点云信息获取模块62,用于通过对目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息;
第二稀疏点云信息获取模块63,用于获取目标图像的分割掩膜,并基于分割掩膜对目标图像进行前景分割处理,得到第二稀疏点云信息;
物体区域点云生成模块64,用于将第一稀疏点云信息及第二稀疏点云信息进行点云筛选,得到物体区域点云;
三维图模型生成模块65,用于通过对物体区域点云进行重构处理,得到物体的三维图模型。
进一步的,第一稀疏点云信息获取模块62包括:
图像特征提取单元,用于针对每一张目标图像,通过对目标图像进行尺度不变特征变换的特征提取,得到每一张目标图像的图像特征;
物体稀疏点云信息获取单元,用于将多张目标图像的图像特征进行特征匹配处理,得到物体稀疏点云信息;
物体稀疏点云信息重建单元,用于采用增量式的运动结构恢复算法对物体稀疏点云信息进行重建处理,得到第一稀疏点云信息。
进一步的,图像特征提取单元包括:
目标关键点提取子单元,用于针对每一张目标图像,提取目标图像的关键点,得到目标关键点;
特征向量获取子单元,用于通过对目标关键点进行定位以及确定特征方向,得到关键点的特征向量;
特征向量匹配子单元,用于匹配关键点的特征向量,以使得对目标图像进行尺度不变特征变换的特征提取,得到每一张目标图像的图像特征。
进一步的,第二稀疏点云信息获取模块63包括:
分割掩膜获取单元,用于采用前景分割算法,识别出目标图像中的物体信息,以获取分割掩膜;
前景分割单元,用于基于分割掩膜,将物体从目标图像中进行前景分割处理,得到第二稀疏点云信息。
进一步的,物体区域点云生成模块64包括:
映射关系获取单元,用于获取第一稀疏点云信息及第二稀疏点云信息中点云的映射关系,其中,映射关系为二维物体点云与三维物体点云之间的映射联系;
点云筛选单元,用于基于映射关系,将第一稀疏点云信息及第二稀疏点云信息进行点云筛选,以提取出目标图像中物体区域的点云,得到物体区域点云。
进一步的,三维图模型生成模块65包括:
稠密点云生成单元,用于采用半全局匹配算法,对物体区域点云进行深度图估计处理,得到物体稠密点云;
纹理映射单元,用于通过对物体稠密点云进行网格化和纹理映射处理,得到物体的三维图模型。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图8,图8为本实施例计算机设备基本结构框图。
计算机设备7包括通过系统总线相互通信连接存储器71、处理器72、网络接口73。需要指出的是,图中仅示出了具有三种组件存储器71、处理器72、网络接口73的计算机设备7,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
存储器71至少包括一种类型的可读存储介质,可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器71可以是计算机设备7的内部存储单元,例如该计算机设备7的硬盘或内存。在另一些实施例中,存储器71也可以是计算机设备7的外部存储设备,例如该计算机设备7上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器71还可以既包括计算机设备7的内部存储单元也包括其外部存储设备。本实施例中,存储器71通常用于存储安装于计算机设备7的操作系统和各类应用软件,例如基于图像序列的三维模型生成方法的程序代码等。此外,存储器71还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器72在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器72通常用于控制计算机设备7的总体操作。本实施例中,处理器72用于运行存储器71中存储的程序代码或者处理数据,例如运行上述基于图像序列的三维模型生成方法的程序代码,以实现基于图像序列的三维模型生成方法的各种实施例。
网络接口73可包括无线网络接口或有线网络接口,该网络接口73通常用于在计算机设备7与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序可被至少一个处理器执行,以使至少一个处理器执行如上述的一种基于图像序列的三维模型生成方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例的方法。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种基于图像序列的三维模型生成方法,其特征在于,包括:
获取物体的多张不同角度图像,作为目标图像;
通过对所述目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对所述物体稀疏点云信息进行重建处理,得到第一稀疏点云信息;
获取所述目标图像的分割掩膜,并基于所述分割掩膜对所述目标图像进行前景分割处理,得到第二稀疏点云信息;
将所述第一稀疏点云信息及所述第二稀疏点云信息进行点云筛选,得到物体区域点云;
通过对物体区域点云进行重构处理,得到物体的三维图模型。
2.根据权利要求1所述的基于图像序列的三维模型生成方法,其特征在于,所述通过对所述目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对所述物体稀疏点云信息进行重建处理,得到第一稀疏点云信息,包括:
针对每一张所述目标图像,通过对所述目标图像进行尺度不变特征变换的特征提取,得到每一张所述目标图像的图像特征;
将多张所述目标图像的图像特征进行特征匹配处理,得到所述物体稀疏点云信息;
采用增量式的运动结构恢复算法对所述物体稀疏点云信息进行重建处理,得到所述第一稀疏点云信息。
3.根据权利要求2所述的基于图像序列的三维模型生成方法,其特征在于,所述针对每一张所述目标图像,通过对所述目标图像进行尺度不变特征变换的特征提取,得到每一张所述目标图像的图像特征,包括:
针对每一张所述目标图像,提取所述目标图像的关键点,得到目标关键点;
通过对所述目标关键点进行定位以及确定特征方向,得到关键点的特征向量;
匹配所述关键点的特征向量,以使得对所述目标图像进行尺度不变特征变换的特征提取,得到每一张所述目标图像的图像特征。
4.根据权利要求1所述的基于图像序列的三维模型生成方法,其特征在于,所述获取所述目标图像的分割掩膜,并基于所述分割掩膜对所述目标图像进行前景分割处理,得到第二稀疏点云信息,包括:
采用前景分割算法,识别出所述目标图像中的物体信息,以获取所述分割掩膜;
基于所述分割掩膜,将所述物体从所述目标图像中进行前景分割处理,得到所述第二稀疏点云信息。
5.根据权利要求1所述的基于图像序列的三维模型生成方法,其特征在于,所述将所述第一稀疏点云信息及所述第二稀疏点云信息进行点云筛选,得到物体区域点云,包括:
获取所述第一稀疏点云信息及所述第二稀疏点云信息中点云的映射关系,其中,所述映射关系为二维物体点云与三维物体点云之间的映射联系;
基于所述映射关系,将所述第一稀疏点云信息及所述第二稀疏点云信息进行点云筛选,以提取出所述目标图像中物体区域的点云,得到所述物体区域点云。
6.根据权利要求1至5任一项所述的基于图像序列的三维模型生成方法,其特征在于,所述通过对物体区域点云进行重构处理,得到物体的三维图模型,包括:
采用半全局匹配算法,对所述物体区域点云进行深度图估计处理,得到物体稠密点云;
通过对所述物体稠密点云进行网格化和纹理映射处理,得到所述物体的三维图模型。
7.一种基于图像序列的三维模型生成装置,其特征在于,包括:
目标图像获取模块,用于获取物体的多张不同角度图像,作为目标图像;
第一稀疏点云信息获取模块,用于通过对所述目标图像进行特征提取以及特征匹配处理,得到物体稀疏点云信息,并对所述物体稀疏点云信息进行重建处理,得到第一稀疏点云信息;
第二稀疏点云信息获取模块,用于获取所述目标图像的分割掩膜,并基于所述分割掩膜对所述目标图像进行前景分割处理,得到第二稀疏点云信息;
物体区域点云生成模块,用于将所述第一稀疏点云信息及所述第二稀疏点云信息进行点云筛选,得到物体区域点云;
三维图模型生成模块,用于通过对物体区域点云进行重构处理,得到物体的三维图模型。
8.根据权利要求7所述的基于图像序列的三维模型生成装置,其特征在于,所述第一稀疏点云信息获取模块,包括:
图像特征提取单元,用于针对每一张所述目标图像,通过对所述目标图像进行尺度不变特征变换的特征提取,得到每一张所述目标图像的图像特征;
物体稀疏点云信息获取单元,用于将多张所述目标图像的图像特征进行特征匹配处理,得到所述物体稀疏点云信息;
物体稀疏点云信息重建单元,用于采用增量式的运动结构恢复算法对所述物体稀疏点云信息进行重建处理,得到所述第一稀疏点云信息。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的基于图像序列的三维模型生成方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的基于图像序列的三维模型生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210345350.6A CN114758093A (zh) | 2022-03-31 | 2022-03-31 | 基于图像序列的三维模型生成方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210345350.6A CN114758093A (zh) | 2022-03-31 | 2022-03-31 | 基于图像序列的三维模型生成方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114758093A true CN114758093A (zh) | 2022-07-15 |
Family
ID=82328544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210345350.6A Pending CN114758093A (zh) | 2022-03-31 | 2022-03-31 | 基于图像序列的三维模型生成方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114758093A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116781836A (zh) * | 2023-08-22 | 2023-09-19 | 云视图研智能数字技术(深圳)有限公司 | 一种全息远程教学方法及系统 |
CN116958265A (zh) * | 2023-09-19 | 2023-10-27 | 交通运输部天津水运工程科学研究所 | 一种基于双目视觉的船舶位姿测量方法及系统 |
CN117173463A (zh) * | 2023-08-30 | 2023-12-05 | 北京长木谷医疗科技股份有限公司 | 一种基于多分类稀疏点云的骨关节模型重建方法及装置 |
-
2022
- 2022-03-31 CN CN202210345350.6A patent/CN114758093A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116781836A (zh) * | 2023-08-22 | 2023-09-19 | 云视图研智能数字技术(深圳)有限公司 | 一种全息远程教学方法及系统 |
CN116781836B (zh) * | 2023-08-22 | 2023-12-01 | 云视图研智能数字技术(深圳)有限公司 | 一种全息远程教学方法及系统 |
CN117173463A (zh) * | 2023-08-30 | 2023-12-05 | 北京长木谷医疗科技股份有限公司 | 一种基于多分类稀疏点云的骨关节模型重建方法及装置 |
CN116958265A (zh) * | 2023-09-19 | 2023-10-27 | 交通运输部天津水运工程科学研究所 | 一种基于双目视觉的船舶位姿测量方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fan et al. | A performance evaluation of local features for image-based 3D reconstruction | |
Chen et al. | Feature detection and description for image matching: from hand-crafted design to deep learning | |
CN114758093A (zh) | 基于图像序列的三维模型生成方法、装置、设备及介质 | |
EP3417425B1 (en) | Leveraging multi cues for fine-grained object classification | |
CN112967236B (zh) | 图像的配准方法、装置、计算机设备和存储介质 | |
Choi et al. | Depth analogy: Data-driven approach for single image depth estimation using gradient samples | |
Pan et al. | Rapid scene reconstruction on mobile phones from panoramic images | |
CN111459269B (zh) | 一种增强现实显示方法、系统及计算机可读存储介质 | |
Kordelas et al. | State-of-the-art algorithms for complete 3d model reconstruction | |
CN116310076A (zh) | 基于神经辐射场的三维重建方法、装置、设备及存储介质 | |
CN111639147B (zh) | 一种地图压缩方法、系统及计算机可读存储介质 | |
Irschara et al. | Large-scale, dense city reconstruction from user-contributed photos | |
Yang et al. | Stereo matching using epipolar distance transform | |
GB2566443A (en) | Cross-source point cloud registration | |
Cheng et al. | Extracting three-dimensional (3D) spatial information from sequential oblique unmanned aerial system (UAS) imagery for digital surface modeling | |
Janan et al. | Shape description and matching using integral invariants on eccentricity transformed images | |
Cao et al. | Accurate 3-D reconstruction under IoT environments and its applications to augmented reality | |
CN117422851A (zh) | 虚拟换衣方法及其装置、电子设备 | |
CN110692065A (zh) | 基于表面的对象识别 | |
CN113793370A (zh) | 三维点云配准方法、装置、电子设备及可读介质 | |
CN109118576A (zh) | 基于bds位置服务的大型场景三维重建系统及重建方法 | |
CN112541092B (zh) | 一种基于切向域的三维图像轮廓检索方法、系统及存储介质 | |
CN113298871A (zh) | 地图生成方法、定位方法及其系统、计算机可读存储介质 | |
Wachs-Lopes et al. | A strategy based on non-extensive statistics to improve frame-matching algorithms under large viewpoint changes | |
Wei et al. | BuilDiff: 3D Building Shape Generation using Single-Image Conditional Point Cloud Diffusion Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20221014 Address after: 9 / F, headquarters building, Changsha Zhongdian Software Park, 39 Jianshan Road, Changsha hi tech Development Zone, Hunan 410000 Applicant after: Wanxing Technology (Hunan) Co.,Ltd. Address before: 518000 1001, block D, building 5, software industry base, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province Applicant before: Shenzhen Wanxing Software Co.,Ltd. |
|
TA01 | Transfer of patent application right |