CN116452757B - 一种复杂场景下的人体表面重建方法和系统 - Google Patents
一种复杂场景下的人体表面重建方法和系统 Download PDFInfo
- Publication number
- CN116452757B CN116452757B CN202310712238.6A CN202310712238A CN116452757B CN 116452757 B CN116452757 B CN 116452757B CN 202310712238 A CN202310712238 A CN 202310712238A CN 116452757 B CN116452757 B CN 116452757B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- human body
- points
- sphere
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000005096 rolling process Methods 0.000 claims abstract description 27
- 238000005070 sampling Methods 0.000 claims abstract description 17
- 238000013135 deep learning Methods 0.000 claims abstract description 13
- 238000001914 filtration Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 101100481876 Danio rerio pbk gene Proteins 0.000 claims description 3
- 101100481878 Mus musculus Pbk gene Proteins 0.000 claims description 3
- 230000010076 replication Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000010845 search algorithm Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 8
- 230000007547 defect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Architecture (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及点云表面重建领域,并且更具体地,涉及一种复杂场景下的人体表面重建方法和系统,包括以下步骤:采用深度相机获取多幅复杂场景的点云图;根据所述多幅复杂场景点云图中的坐标信息进行滤波处理分离出人体点云信息;采用均匀采样方法对所述人体点云信息进行下采样;将所述多幅采样后人体点云图输入训练好的深度学习点云配准网络中进行配准以融合多幅点云图的人体细节信息;得到融合后的人体点云图后,利用自适应滚球表面重建算法对人体进行表面重建。
Description
技术领域
本发明涉及点云表面重建领域,并且更具体地,涉及一种复杂场景下的人体表面重建方法和系统。
背景技术
随着社会的发展,人体表面重建技术在越来越多的行业中得到了广泛应用,例如服装设计、医疗影像、电影动画等。目前,人体表面重建的主要方法包括基于标准人体尺寸的三维软件构建和基于三维扫描技术的非接触式人体重建。然而,这些方法都存在一些局限性,如标准人体尺寸限制了人体模型的适用性,而高昂的设备价格和体积限制了非接触式人体重建技术的应用范围。因此一种低成本、高精准度的人体表面重建方法很有价值。
目前人体表面重建技术主要有两种方法:基于传感器的方法和基于深度学习的方法。基于传感器的方法包括光学扫描、激光扫描、结构光等技术,这些技术可以获得高精度的人体表面数据,但设备成本高、操作繁琐、处理时间长等问题限制了其在实际应用中的推广。基于深度学习的方法则采用神经网络模型,通过大量的数据训练,可以实现从单张或多张图像中直接重建出人体的三维模型。这种方法不需要昂贵的设备,且可以实现实时重建,但其准确度和鲁棒性仍需进一步提高。针对此类缺点,我们提出了一种复杂场景下的人体表面维重建方法。
公开号为CN113066163A的中国专利公开了“一种基于二维图像的人体体型三维重建方法”利用移动设备或者相机拍摄采集多帧RGB图像,接着利用相机内部的标定参数进行特征匹配,然后进行三维重构出稀疏点云,最后进行去噪、稠密重建得到人体的三维模型。但是这项技术对于图像获取设备的需求较高,并且运算速度慢、灵活性不够,仅仅使用2D的RGB图像进行表面重建在深度方面的准确率不符合当前需求。
发明内容
针对现用技术的以上缺陷或者改进需求,本发明提供了一种复杂场景下的人体表面重建方法,其目的在于解决在复杂场景下的人体表面重建问题,有效实施在复杂场景下对人体进行表面重建将人体数字化,实现人体信息的数字化存储、传输和处理,为虚拟现实、增强现实等领域提供基础数据,为人物角色的建模、动作捕捉等提供准确的人体形态信息,增强角色的真实感和可信度。
为实现上述目的,本发明提供了一种复杂场景下的人体表面重建方法,包括以下步骤:
S1、采用深度相机获取不同视角下包含复杂背景的多幅点云图;
S2、根据获取到的包含复杂背景点云图中的坐标信息进行滤波,以分割出点云图的背景,仅保留人体点云信息;
S3、采用均匀采样方法对人体点云信息进行下采样以减少后续的计算量,得到下采样后人体点云图;
S4、将下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以融合多幅人体点云图的信息;
S5、将配准后的人体点云图利用自适应加权滚球表面重建算法进行重建,得到重建后的人体模型。
进一步的,步骤S1中,利用单个深度相机,人体自行旋转,深度相机自动拍照获取多幅包含复杂场景的人体点云图。
进一步的,步骤S2中,在利用深度相机获取人体点云时,使用者固定站在深度相机前某一区域处,利用点云中点的坐标信息,使用滤波去除这一区域外的所有背景点云以获取人体点云。
进一步的,步骤S3中采用均匀采样对所述人体点云信息进行下采样,具体包括:针对点云P,设置一个采样密度值d,根据采样密度值将人体点云信息划分为多个体素方格G,在每个体素方格中随机选择一个点i,将选择的这一个点代替正方体体素方格中的点云信息,得到代表点云p;
DivideInputVoxel表示将点云P根据密度参数d划分为G个方格;RandomlyPointInVoxel表示在每个方格中随机选出一个点i,将其代表方格G所有的点;i代表的是方格G中的某一个点;上述两个公式的意思是,首先将点云P根据密度参数d划分为G个方格,然后在每个方格中随机选出一个点i,将其代表方格G所有的点,最后将所有体素方格中的采样点合并为一组新的点云数据,即为采样后的点云数据。
进一步的,步骤S4中的深度学习点云配准网络的具体处理流程如下;
S401、输入源点云和目标点云的坐标信息,利用特征提取网络对源点云和目标点云中的单点特征进行升维;
S402、将所述升维后的源点云中点的单点特征和目标点云中点的单点特征进行相乘,构建点的特征相似矩阵,特征越相似,点的匹配概率越大,将相似矩阵与目标点云结合,获得预测点云/>;
其中,表示点云X特征的转置,/>代表的是点云y的特征;
S403、将获取到的预测点云与源点云的匹配点进行邻域距离对比,挑选出邻域差异最小的L组匹配点对;
S404、基于所述挑选出的差异最小匹配点对的坐标信息进行计算得到刚性变换矩阵;
S405、将所述刚性变换矩阵与所述源点云的坐标矩阵相乘完成人体三维配准。
进一步的,所述输入到点云配准网络的是源点云和目标点云的(x,y,z)坐标信息,输入维度为N×3,其中N表示输入点云中点的数量,3表示点的坐标特征维度;
点云特征提取网络的升维方法包括:
(1)输入点云维度为N×3,利用最近邻搜索算法搜索所述N个点各自的K个邻域,并将其拼接,获得新的点云维度N×K×3;
(2)将中心点的点云特征N×3复制K次,与邻域特征作差,得到新的点云特征图,即, Repeat代表复制;
(3)通过多层感知机MLP对所述新的点云特征图的点云维度进行升维,获得点云维度N×K×64,采用最大池化在所述点云维度N×K×64上进行池化,获得点云维度N×64,后跟一个/>函数和/>激活函数,自此,完成一次升维操作,公式为:
(4)输入(3)中获得的点云,重复步骤(1)-(3),保持输出维度不变,输出点云维度为N×64的点云特征图;
(5)输入(4)中得到的点云,重复步骤(1)-(3),输出点云维度为N×128的点云特征图;
(6)输入(5)中的点云,重复步骤(1)-(3),输出点云维度为N×256的点云特征图;
(7)最后将(3)-(6)输出的点云进行拼接,得到最终的输出维度N×512。
进一步的,步骤S403的具体实现方式如下:
针对源点云X与预测点云的某一对匹配点/>,利用最近邻搜索算法寻找到匹配点的各自K个邻域点,计算两个匹配点与各自邻域点在空间中的距离总和/>,两个点与各自邻域点的距离总和的差值/>越小,越有可能是正确的匹配点,以此方法,利用TopK算法挑选出空间邻域差异最小的L组匹配点对进行刚性变换矩阵的求解;
xi,prei表示点云X和点云Pre中的一组匹配点对(xi,prei),x1,x2,xk代表着xi的k个邻域点,d(xi,x1)表示xi和x1在空间中的距离。类似,pre1,pre2,/>prek表示prei的k个邻域点,d(prei,pre1)表示prei和pre1在空间中的距离。
进一步的,步骤S5中根据配准后的人体点云进行表面重建方法包括:
S501、输入人体点云图,从点云中的所有点选择一个点作为起点,设置一个规则球体,并将其固定在起点上,其中球体的半径的值是由当前点的K个邻域距离平均值决定的,distance代表空间中的距离,/>代表当前点/>的第i个邻域;
S502、将球体沿着点云表面滚动,滚动方向为当前点的法向量,找到当前点第一个相邻的点,这个相邻点成为了球体的第二个点;
S503、将球体沿着第二个点的法向量滚动,找到第二个相邻点,这个相邻点成为了球体的第三个点,将这三个点构造出一个三角形面片,其中三角形面片的RGB值由三个点的RGB值平均得出;
S504、然后将球体滚动到第三个点上,并继续寻找球体的下一个相邻点,如果无法找到下一个相邻点,则球体从当前点开始向法向量方向滚动,直到找到下一个相邻点或者球体无法再滚动;
S505、重复执行上述步骤,直到所有的点都进行了三角面片化,在每次滚动球体时,根据当前球体所在位置的法向量方向来确定滚动方向,以避免球体滚动到点云表面的内部。
本发明还提供一种复杂场景下的人体表面重建方法的系统,包括如下模块:
点云数据获取模块,用于获取多幅包含复杂背景的人体点云图;
前景分割模块,根据多幅包含复杂背景的人体点云图的坐标信息进行滤波以分离出仅包含人体的点云;
下采样模块,用于对所述人体点云信息进行均匀下采样,得到下采样后的人体点云图以减少计算量;
点云配准模块,用于将所述下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以融合多幅点云图的人体点云模型;
表面重建模块,用于将融合多幅点云图的人体点云模型进行表面重建,得到最终的结果。
(1)基于深度相机采集复杂场景下的人体点云数据,相较于仅使用2D图像,具有更多的优势。深度相机可以从不同视角获取人体表面的特征信息和细节信息,增加了配准精度,减少了在表面重建时的特征信息损失。此外,深度相机还可以提供更多的几何信息,如深度信息和法向量信息,以及颜色信息,这可以用于更精细的人体表面重建和纹理映射。
(2)通过坐标滤波和均匀下采样等预处理技术,可以有效地从场景点云中分割出人体数据,避免其他噪声对人体点云处理的影响,提高了在真实场景中使用时的准确性。均匀下采样方法可以大幅减少计算量,同时由于采用随机采样点,能够尽可能地保留原始数据的结构信息,具有较好的随机性。在人体点云处理中,这种预处理技术尤其重要。通过这些技术,可以提高人体点云数据的质量,并帮助实现更准确和高效的人体计算机视觉和人机交互应用。
(3)利用深度学习网络进行人体点云的配准,能够准确得将多幅点云图的信息聚合为一幅,通过对大量的人体模型数据集学习能够得到深层的的特征表示,所求解的刚性变换矩阵鲁棒性更强,泛化能力更好,提高三维重建准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明一种复杂场景下的人体表面重建方法的流程示意图;
图2示出了本发明一种复杂场景下的人体表面重建方法中点云配准网络结构图;
图3示出了本发明一种复杂场景下的人体表面重建方法中点云升维特征提取网络结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提供了一种复杂场景下的人体三维重建方法,包括以下步骤:
S1、采用深度相机获取多幅点云图,深度相机为一个,点云图为多幅,一个深度相机获取不同视角的点云图;
S2、根据所述获取到的包含复杂背景点云图中的坐标信息进行滤波,以分割出点云图的背景,仅保留人体点云信息;
S3、采用均匀采样方法对所述人体点云信息进行下采样以减少后续的计算量,得到下采样后人体点云图;
S4、将所述下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以融合多幅人体点云图的信息;
S5、将配准后的人体点云图利用点云表面重建算法进行重建,得到重建后的人体模型。
具体地,在步骤S1中,多幅人体点云图的获取方式是利用单个深度相机对一个匀速旋转的人体进行拍摄得到人体点云图。其中,在拍摄过程中,人体不断旋转,深度相机自动拍照。采用单个深度相机对旋转人体进行拍摄,主要是为了尽可能的在降低成本的情况下,克服深度相机拍摄的视角难以体现出全部的细节信息等问题。使用单视角的深度相机对不同视角的人体进行拍摄可以最大程度的存储人体信息,所拍摄到的点云图也存在重叠度,为接下来的人体三维配准操作提供了基础。
优选地,在获取不同视角的点云图时,采用单个深度相机放置在使用者的正前方,使用者以30s一圈的速率自动旋转,深度相机可以自动获取人体点云图的不同视角,其中这些多幅点云图存在一定的重叠率。
进一步地,在步骤S2中,根据所述人体点云图中的坐标信息进行滤波处理,在使用者进行人体表面重建时,放置一个深度相机,人体在深度相机的前方一块区域处,规定一个坐标x、坐标y、坐标z的范围来划分一定的区域,仅保留这一区域内的全部点云,将这一区域外的点云均视为背景点移除,剩余区域内的点云即为人体点云模型。通过基于坐标信息的滤波可消除在复杂的环境背景中的背景信息,得到人体点云信息,而坐标信息又是点云的固有特征,可以最大程度上分割出人体点云信息。利用此方法可以将我们不需要的点(背景)从复杂点云图中筛选出来,只保留人体点云。
进一步地,在步骤S3中,为了减少后续点云配准的参数量,加快点云配准的时间,为使用者提供更良好的用户体验。采用均匀采样方法对所述人体点云图进行下采样,具体包括:输入一个我们需要划分的密度参数d,根据这个密度参数将人体点云中的所有点P划分为多个方格G,其中点越密集的地方,划分的方格越多,点越稀疏的地方,划分的方格越少。对于每个方格,随机选择一个点i作为采样点,将选择的这一个点代替所述正方体方格中的点云信息,得到代表点云p,最后将所有网格中的采样点合并为一组新的点云数据,即为采样后的点云数据。
DivideInputVoxel表示将点云P根据密度参数d划分为G个方格。RandomlyPointInVoxel表示在每个方格中随机选出一个点i,将其代表方格G所有的点;i代表的是方格G中的某一个点。这两个公式的意思是,首先将点云P根据密度参数d划分为G个方格,然后在每个方格中随机选出一个点i,将其代表方格G所有的点。
进一步地,所述步骤S4中将所述多幅采样后人体点云图输入训练好的深度学习点云配准网络进行配准以融合多幅人体点云图的特征信息具体包括以下步骤:
S401、输入源点云和目标点云的坐标信息,维度均为N×3,N代表点云中点的数量,3代表点的特征维度,由于输入的是坐标信息,维度是3。利用特征提取网络对源点云和目标点云进行升维,将所述源点云和目标点云的每个点的特征维度均升至1×512,点云总特征维度为N×512;
S402、将所述升维后的源点云中每个点的特征和目标点云中每个点的特征比较构建出相似矩阵,特征越相似,点的匹配概率越大,将相似矩阵/>与目标点云/>结合获得新的预测点云/>;
其中,表示点云X特征的转置,/>代表的是点云y的特征;
S403、将获取到的预测点云与源点云的匹配点进行邻域距离对比,挑选出邻域差异最小的多组匹配点对;
S404、基于所述挑选出的差异最小匹配点对的坐标信息计算得到刚性变换矩阵;
S405、将所述刚性变换矩阵与所述源点云的坐标矩阵相乘完成人体点云配准。对所有的有人体点云执行这一步骤,融合全部的人体点云信息。
进一步地,所述点云特征提取网络的升维方法包括:
(1)输入点云维度为N×3,利用最近邻搜索算法搜索所述N个点各自的K个邻域,并将其拼接,获得新的点云维度N×K×3;
(2)将中心点的点云特征N×3复制K次,与邻域特征作差,得到新的点云特征图,即, Repeat代表复制;
(3)通过多层感知机MLP对所述新的点云特征图的点云维度进行升维,获得点云维度N×K×64,采用最大池化在所述点云维度N×K×64上进行池化,获得点云维度N×64,后跟一个/>函数和/>激活函数。自此,完成一次升维操作。公式为:
(4)输入点云维度为N×64,重复步骤(1)-(3),保持输出维度不变,输出点云维度为N×64的点云特征图;
(5)输入点云维度为N×64,重复步骤(1)-(3),输出点云维度为N×128的点云特征图;
(6)输入点云维度为N×128,重复步骤(1)-(3),输出点云维度为N×256的点云特征图;
(7)最后将各自的输出的点云特征维度N×64、N×64、N×128、N×256进行拼接,得到最终的输出维度N×512。
进一步地,构建源点云中的点和目标点云中的点的相似矩阵方法包括:源点云中每一个点的特征维度是1×512,整体点云特征(即(7)输的的点云)是N×512,目标点云中每一个点的特征维度也是N×512,整体特征同样是N×512。整体特征的每一行,代表的就是每一点的特征。点的特征越相似,越有可能是同一个点,也就是一组匹配点对。基于此,我们可以利用点云中点的特征相似性构建出一个匹配概率矩阵,具体的公式为:,维度为N×N。其中/>代表源点云X的整体特征的转置,/>代表目标点云Y的整体特征。将目标点云与匹配概率矩阵相乘,可以得到一个新的预测点云Pre,其中点的顺序发生了改变,与源点云中的点是一一对应的关系。
进一步地,所述寻找邻域距离差异最小的匹配点对的筛选方法包括:针对源点云与预测点云的某一对匹配点,利用算法寻找到匹配点的各自K个邻域点,计算匹配点与邻域点在空间中的距离之和,匹配点对中两个点与各自邻域点的空间距离之和差值越小,越有可能是正确的匹配点,公式如下:
xi,prei表示点云X和点云Pre中的一组匹配点对(xi,prei),x1,x2,xk代表着xi的k个邻域点,d(xi,x1)表示xi和x1在空间中的距离,类似,pre1,pre2,/>prek表示prei的k个邻域点,d(prei,pre1)表示prei和pre1在空间中的距离,如果(xi,prei)确实是匹配点对,那么在点云X和点云Pre中,xi,prei它们各自的邻域应该也是相同的,它们到各自的邻域点的距离也是相同的。将它们到各自邻域点的距离相减,求出一个/>,就得到了它们的邻域差异性,根据这个邻域差异性就可以判断他们是否是匹配点。
以此方法,利用TopK方法从挑选出空间邻域差异最小的L组匹配点对进行刚性变换矩阵的求解。
进一步地,所述将配准后的人体点云图利用自适应滚球点云表面重建算法进行重建具体包括:
S501.输入人体点云图,从点云中选择一个点作为起点,设置一个球体,并将其固定在起点上,其中球体的半径的值是由当前点的K个邻域距离决定的。distance代表空间中的距离,/>代表当前点/>的第i个邻域。
S502.将球体沿着点云表面滚动,滚动方向为当前点的法向量。找到第一个相邻的点,这个相邻点成为了球体的第二个点。
S503.将球体沿着第二个点滚动,找到第二个相邻点,这个相邻点成为了球体的第三个点,将这三个点构造出一个三角形面片。其中三角形面片的RGB值由三个点的RGB值平均得出。
S504.然后将球体滚动到第三个点上,并继续寻找球体的下一个相邻点。如果无法找到下一个相邻点,则球体从当前点开始往法向量方向滚动,直到找到下一个相邻点或者球体无法再滚动。
S505.重复执行上述步骤,直到所有的点都进行了三角面片化。在每次滚动球体时,需要根据当前球体所在位置的法向量方向来确定滚动方向,以避免球体滚动到点云表面的内部。
本发明还提供一种复杂场景下的人体表面重建系统,包括如下模块:
点云数据获取模块,用于获取多幅包含复杂背景的人体点云图;
前景分割模块,用于根据多幅包含复杂背景的人体点云图的坐标信息进行滤波以分离出仅包含人体的点云;
下采样模块,用于对人体点云信息进行均匀下采样,得到下采样后的人体点云图以减少计算量;
点云配准模块,用于将下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以构成融合多幅点云图的人体点云模型。
表面重建模块,用于将融合多幅点云图的人体点云模型进行表面重建,得到最终的结果。
各模块的具体实现方式与各步骤相应,本发明不予撰述。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (8)
1.一种复杂场景下的人体表面重建方法,其特征在于,包括以下步骤:
S1、采用深度相机获取不同视角下的包含复杂背景的多幅点云图;
S2、根据获取到的包含复杂背景点云图中的坐标信息进行滤波,以分割出点云图的背景,仅保留人体点云信息;
S3、采用均匀采样方法对人体点云信息进行下采样以减少后续的计算量,得到下采样后人体点云图;
S4、将下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以融合多幅人体点云图的信息;
S5、将配准后的人体点云图利用自适应加权滚球表面重建算法进行重建,得到重建后的人体模型;
步骤S5中根据配准后的人体点云进行表面重建方法包括:
S501、输入人体点云图,从点云中的所有点选择一个点作为起点,设置一个规则球体,并将其固定在起点上,其中球体的半径的值是由当前点的K个邻域距离平均值决定的,distance代表空间中的距离,/>代表当前点/>的第i个邻域;
;
S502、将球体沿着点云表面滚动,滚动方向为当前点的法向量,找到当前点第一个相邻的点,这个相邻点成为了球体的第二个点;
S503、将球体沿着第二个点的法向量滚动,找到第二个相邻点,这个相邻点成为了球体的第三个点,将这三个点构造出一个三角形面片,其中三角形面片的RGB值由三个点的RGB值平均得出;
;
S504、然后将球体滚动到第三个点上,并继续寻找球体的下一个相邻点,如果无法找到下一个相邻点,则球体从当前点开始向法向量方向滚动,直到找到下一个相邻点或者球体无法再滚动;
S505、重复执行上述步骤,直到所有的点都进行了三角面片化,在每次滚动球体时,根据当前球体所在位置的法向量方向来确定滚动方向,以避免球体滚动到点云表面的内部。
2.根据权利要求1所述的一种复杂场景下的人体表面重建方法,其特征在于:步骤S1中,利用单个深度相机,人体自行旋转,深度相机自动拍照获取多幅包含复杂场景的人体点云图。
3.根据权利要求1所述的一种复杂场景下的人体表面重建方法,其特征在于:步骤S2中,在利用深度相机获取人体点云时,使用者固定站在深度相机前某一区域处,利用点云中点的坐标信息,使用滤波去除这一区域外的所有背景点云以获取人体点云。
4.根据权利要求1所述的一种复杂场景下的人体表面重建方法,其特征在于:步骤S3中采用均匀采样对所述人体点云信息进行下采样,具体包括:针对点云P,设置一个采样密度值d,根据采样密度值将人体点云信息划分为多个体素方格G,在每个体素方格中随机选择一个点i,将选择的这一个点代替正方体体素方格中的点云信息,得到代表点云p;
;
;
DivideInputVoxel表示将点云P根据密度参数d划分为G个方格;RandomlyPointInVoxel表示在每个方格中随机选出一个点i,将其代表方格G所有的点;i代表的是方格G中的某一个点;上述两个公式的意思是,首先将点云P根据密度参数d划分为G个方格,然后在每个方格中随机选出一个点i,将其代表方格G所有的点,最后将所有体素方格中的采样点合并为一组新的点云数据,即为采样后的点云数据。
5.根据权利要求1所述的一种复杂场景下的人体表面重建方法,其特征在于:步骤S4中的深度学习点云配准网络的具体处理流程如下;
S401、输入源点云和目标点云的坐标信息,利用特征提取网络对源点云和目标点云中的单点特征进行升维;
S402、将所述升维后的源点云中点的单点特征和目标点云中点的单点特征进行相乘,构建点的特征相似矩阵,特征越相似,点的匹配概率越大,将相似矩阵与目标点云结合,获得预测点云/>;
;
;
其中,表示点云X特征的转置,/>代表的是点云y的特征;
S403、将获取到的预测点云与源点云的匹配点进行邻域距离对比,挑选出邻域差异最小的L组匹配点对;
S404、基于所挑选出的差异最小匹配点对的坐标信息进行计算得到刚性变换矩阵;
S405、将所述刚性变换矩阵与所述源点云的坐标矩阵相乘完成人体三维配准。
6.根据权利要求5所述的一种复杂场景下的人体表面重建方法,其特征在于:输入到点云配准网络的是源点云和目标点云的(x,y,z)坐标信息,输入维度为N×3,其中N表示输入点云中点的数量,3表示点的坐标特征维度;
点云特征提取网络的升维方法包括:
(1)输入点云维度为N×3,利用最近邻搜索算法搜索所述N个点各自的K个邻域,并将其拼接,获得新的点云特征维度N×K×3;
(2)将中心点的点云特征N×3复制K次,与邻域特征作差,得到新的点云特征图,即(N×K×3), Repeat代表复制;
(3)通过多层感知机MLP对所述新的点云特征图的点云维度进行升维,获得点云维度N×K×64,采用最大池化在所述点云维度N×K×64上进行池化,获得点云维度N×64,后跟一个/>函数和/>激活函数,自此,完成一次升维操作,公式为:
;
(4)输入(3)中获得的点云,重复步骤(1)-(3),保持输出维度不变,输出点云维度为N×64的点云特征图;
(5)输入(4)中得到的点云,重复步骤(1)-(3),输出点云维度为N×128的点云特征图;
(6)输入(5)中的点云,重复步骤(1)-(3),输出点云维度为N×256的点云特征图;
(7)最后将(3)-(6)输出的点云进行拼接,得到最终的输出维度N×512。
7.根据权利要求5所述的一种复杂场景下的人体表面重建方法,其特征在于:步骤S403的具体实现方式如下:
针对源点云X与预测点云的某一对匹配点/>,利用最近邻搜索算法寻找到匹配点的各自K个邻域点,计算两个匹配点与各自邻域点在空间中的距离总和/>,两个点与各自邻域点的距离总和的差值/>越小,越有可能是正确的匹配点,以此方法,利用TopK算法挑选出空间邻域差异最小的L组匹配点对进行刚性变换矩阵的求解;
;
;
;
;
xi,prei表示点云X和点云Pre中的一组匹配点对(xi,prei),x1,x2,xk代表着xi的k个邻域点,d(xi,x1)表示xi和x1在空间中的距离,类似,pre1,pre2,/>prek表示prei的k个邻域点,d(prei,pre1)表示prei和pre1在空间中的距离。
8.一种复杂场景下的人体表面重建方法的系统,其特征在于,包括如下模块:
点云数据获取模块,用于获取多幅包含复杂背景的人体点云图;
前景分割模块,根据多幅包含复杂背景的人体点云图的坐标信息进行滤波以分离出仅包含人体的点云;
下采样模块,用于对所述人体点云信息进行均匀下采样,得到下采样后的人体点云图以减少计算量;
点云配准模块,用于将所述下采样后人体点云图输入训练好的深度学习点云配准网络进行配准以融合多幅点云图的人体点云模型;
表面重建模块,用于将融合多幅点云图的人体点云模型进行表面重建,得到最终的结果;
表面重建方法包括:
S501、输入人体点云图,从点云中的所有点选择一个点作为起点,设置一个规则球体,并将其固定在起点上,其中球体的半径的值是由当前点的K个邻域距离平均值决定的,distance代表空间中的距离,/>代表当前点/>的第i个邻域;
;
S502、将球体沿着点云表面滚动,滚动方向为当前点的法向量,找到当前点第一个相邻的点,这个相邻点成为了球体的第二个点;
S503、将球体沿着第二个点的法向量滚动,找到第二个相邻点,这个相邻点成为了球体的第三个点,将这三个点构造出一个三角形面片,其中三角形面片的RGB值由三个点的RGB值平均得出;
;
S504、然后将球体滚动到第三个点上,并继续寻找球体的下一个相邻点,如果无法找到下一个相邻点,则球体从当前点开始向法向量方向滚动,直到找到下一个相邻点或者球体无法再滚动;
S505、重复执行上述步骤,直到所有的点都进行了三角面片化,在每次滚动球体时,根据当前球体所在位置的法向量方向来确定滚动方向,以避免球体滚动到点云表面的内部。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310712238.6A CN116452757B (zh) | 2023-06-15 | 2023-06-15 | 一种复杂场景下的人体表面重建方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310712238.6A CN116452757B (zh) | 2023-06-15 | 2023-06-15 | 一种复杂场景下的人体表面重建方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116452757A CN116452757A (zh) | 2023-07-18 |
CN116452757B true CN116452757B (zh) | 2023-09-15 |
Family
ID=87122302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310712238.6A Active CN116452757B (zh) | 2023-06-15 | 2023-06-15 | 一种复杂场景下的人体表面重建方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116452757B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117132501B (zh) * | 2023-09-14 | 2024-02-23 | 武汉纺织大学 | 一种基于深度相机的人体点云空洞修复方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751730A (zh) * | 2019-07-24 | 2020-02-04 | 叠境数字科技(上海)有限公司 | 一种基于深度神经网络的穿衣人体体型估计方法 |
CN111347426A (zh) * | 2020-03-26 | 2020-06-30 | 季华实验室 | 一种基于3d视觉的机械臂精确放置轨迹规划方法 |
CN113868733A (zh) * | 2021-09-01 | 2021-12-31 | 浙江大学 | 一种基于三维点云的既有结构bim模型自动化生成方法 |
CN114742969A (zh) * | 2022-03-31 | 2022-07-12 | 西安工程大学 | 基于空间图像的三维服装重建方法 |
WO2022165739A1 (zh) * | 2021-02-05 | 2022-08-11 | 广东工业大学 | 基于2d/3d视觉融合的五金件机器人智能化打磨方法与装置 |
CN115690188A (zh) * | 2022-10-21 | 2023-02-03 | 武汉纺织大学 | 基于点云模型优化的人体三维测量方法 |
CN116188543A (zh) * | 2022-12-27 | 2023-05-30 | 中国人民解放军61363部队 | 基于深度学习无监督的点云配准方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115298708A (zh) * | 2020-03-30 | 2022-11-04 | 上海科技大学 | 多视角神经人体渲染 |
-
2023
- 2023-06-15 CN CN202310712238.6A patent/CN116452757B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751730A (zh) * | 2019-07-24 | 2020-02-04 | 叠境数字科技(上海)有限公司 | 一种基于深度神经网络的穿衣人体体型估计方法 |
CN111347426A (zh) * | 2020-03-26 | 2020-06-30 | 季华实验室 | 一种基于3d视觉的机械臂精确放置轨迹规划方法 |
WO2022165739A1 (zh) * | 2021-02-05 | 2022-08-11 | 广东工业大学 | 基于2d/3d视觉融合的五金件机器人智能化打磨方法与装置 |
CN113868733A (zh) * | 2021-09-01 | 2021-12-31 | 浙江大学 | 一种基于三维点云的既有结构bim模型自动化生成方法 |
CN114742969A (zh) * | 2022-03-31 | 2022-07-12 | 西安工程大学 | 基于空间图像的三维服装重建方法 |
CN115690188A (zh) * | 2022-10-21 | 2023-02-03 | 武汉纺织大学 | 基于点云模型优化的人体三维测量方法 |
CN116188543A (zh) * | 2022-12-27 | 2023-05-30 | 中国人民解放军61363部队 | 基于深度学习无监督的点云配准方法及系统 |
Non-Patent Citations (4)
Title |
---|
High fidelity virtual try-on network via semantic adaptation and distributed componentization;Minghua Jiang等;《Computational Visual Media》;全文 * |
RGBD视觉场景深度图像修复与三维重建关键技术研究;王广建;《中国优秀硕士论文全文数据库》;全文 * |
基于点云数据的三维人体测量方法研究;李若白;《中国优秀硕士论文全文数据库》;第7-18页 * |
融合几何注意力和多尺度特征点云配准网络;杜佳锦等;《计算机工程与应用》;第1-16页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116452757A (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111243093B (zh) | 三维人脸网格的生成方法、装置、设备及存储介质 | |
CN106803267B (zh) | 基于Kinect的室内场景三维重建方法 | |
CN113052835B (zh) | 一种基于三维点云与图像数据融合的药盒检测方法及其检测系统 | |
CN108921926A (zh) | 一种基于单张图像的端到端三维人脸重建方法 | |
CN104537705B (zh) | 基于增强现实的移动平台三维生物分子展示系统和方法 | |
CN115205489A (zh) | 一种大场景下的三维重建方法、系统及装置 | |
CN111753698A (zh) | 一种多模态三维点云分割系统和方法 | |
CN113159232A (zh) | 一种三维目标分类、分割方法 | |
CN110910437B (zh) | 一种复杂室内场景的深度预测方法 | |
CN116452757B (zh) | 一种复杂场景下的人体表面重建方法和系统 | |
CN114429555A (zh) | 由粗到细的图像稠密匹配方法、系统、设备及存储介质 | |
CN111524168A (zh) | 点云数据的配准方法、系统、装置及计算机存储介质 | |
Calakli et al. | High resolution surface reconstruction from multi-view aerial imagery | |
CN111612898B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN111563458A (zh) | 基于YOLOv3和OpenCV的目标检测与定位方法 | |
CN113686314A (zh) | 船载摄像头的单目水面目标分割及单目测距方法 | |
Xu et al. | Hybrid mesh-neural representation for 3D transparent object reconstruction | |
CN115222917A (zh) | 三维重建模型的训练方法、装置、设备及存储介质 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 | |
CN116310098A (zh) | 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法 | |
CN116310095A (zh) | 一种基于深度学习的多视图三维重建方法 | |
Cai et al. | Semantic segmentation of terrestrial laser scanning point clouds using locally enhanced image-based geometric representations | |
CN116681839B (zh) | 一种基于改进NeRF的实景三维目标重建与单体化方法 | |
CN114332355A (zh) | 一种基于深度学习的弱光多视图几何重建方法 | |
Hara et al. | Enhancement of novel view synthesis using omnidirectional image completion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |