CN115272608A - 一种人手重建方法及设备 - Google Patents
一种人手重建方法及设备 Download PDFInfo
- Publication number
- CN115272608A CN115272608A CN202210821889.4A CN202210821889A CN115272608A CN 115272608 A CN115272608 A CN 115272608A CN 202210821889 A CN202210821889 A CN 202210821889A CN 115272608 A CN115272608 A CN 115272608A
- Authority
- CN
- China
- Prior art keywords
- human hand
- hand
- rgb
- geometric
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及三维重建技术领域,提供一种人手重建方法及设备,将单视角或多视角的人手RGB图像输入人手重建网络,获得带有纹理的人手三维模型。该人手重建网络包括编码器和解码器,编码器从每张人手RGB图像中提取不同尺度的特征图和人手特征向量,解码器对各人手特征向量进行若干次图卷积和上采样操作生成人手几何模型;由于不同尺度的特征图包含的人手信息的丰富度不同,图卷积操作时,将每张人手RGB图像对应的不同尺度的特征图中提取的人手信息与相应的人手特征向量进行融合,使得上采样后的目标人手几何顶点集合包含更多的人手全局信息和细节信息,从而提高了人手三维模型的准确性和真实性。
Description
技术领域
本申请涉及三维重建技术领域,提供一种人手重建方法及设备。
背景技术
在人体三维重建中,备受关注的部位主要是人脸和人手,人脸用来传递表情,人手用来传递动作,尤其在有交互的实时三维重建场景中,人手的重建效果直接影响了整体的重建质量。
例如,在人机交互的虚拟游戏场景中,通过手势识别技术捕捉人手的运动参数,通过运动参数驱动人手三维模型运动实现与虚拟物体的交互,如果人手三维模型重建质量较差,可能导致人手无法准确的向虚拟物体触发指令,降低交互体验。
随着计算机视觉的发展,基于图像的人手重建称为研究热点。而人手又是人体最为灵活的器官,其具有动作速度快、姿态分布范围大、自遮挡严重等特征,导致从图像中难以准确的获取到人手准确形状和姿态,增加了计算机视觉领域人手重建的难度。
因此,通过视觉图像快速、准确的重建高质量的人手三维模型是亟待解决的问题。
发明内容
本申请提供一种人手重建方法及设备,用于提高人手重建的质量。
一方面,本申请提供一种人手重建方法,包括:
获取至少一个视角的人手RGB图像;
通过训练好的人手重建网络中的编码器,从所述人手RGB图像中提取出不同尺度的特征图以及人手特征向量;
当所述人手RGB图像的数量为一张时,通过所述人手重建网络中的解码器,对所述人手RGB图像中提取的人手特征向量进行若干次图卷积操作,得到目标人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型;
根据至少一张人手RGB图像对所述人手几何模型进行可微渲染,得到纹理贴图后的人手三维模型。
可选的,当所述人手RGB图像的数量为多张时:
针对每一张所述人手RGB图像中提取的人手特征向量,通过所述人手重建网络中的解码器进行若干次图卷积操作,得到初始人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据多个视角下采集所述人手RGB图像的RGB相机的参数,将多张所述人手RGB图像对应的初始人手几何顶点集合进行融合,得到目标人手几何顶点信息。
可选的,多个视角RGB相机的参数是通过以下方式确定的:
根据每张所述人手RGB图像提取出的人手特征向量,通过所述解码器的至少一个全连接层和激活函数,计算相应RGB相机的参数;或者
根据多个视角的RGB相机采集的标定物图像,预先标定出所述每个视角上RGB相机的参数;
其中,每个RGB相机的参数包括人手相对于所述RGB相机的旋转矩阵和平移向量,用于对多个所述初始人手几何顶点集合进行融合时,将多个所述初始人手几何顶点集合中的几何顶点统一到一个坐标系下。
可选的,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合时,所述人手特征向量融合的所述人手信息对应的特征图的尺度,随着图卷积操作次数的增加而增大。
可选的,所述根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型,包括:
将所述目标人手几何顶点集合中几何顶点进行反向图卷积操作和全连接操作,获得人手骨架节点的三维坐标;
根据预先设定的蒙皮参数,驱动所述人手骨架节点的三维坐标变化,得到驱动后的人手几何模型。
可选的,每次图卷积操作后进行上采样操作以增加图卷积操作后获得的几何顶点的数量。
另一方面,本申请提供一种重建设备,包括处理器、存储器、显示屏和通信接口,所述通信接口、所述显示屏、所述存储器和所述处理器通过总线连接;
所述存储器包括数据存储单元和程序存储单元,所述程序存储单元存储有计算机程序,所述处理器根据所述计算机程序,执行以下操作:
通过所述通信接口,获取至少一个视角的RGB相机采集的人手RGB图像,并存储至所述数据存储单元;
通过训练好的人手重建网络中的编码器,从所述人手RGB图像中提取出不同尺度的特征图以及人手特征向量;
当所述人手RGB图像的数量为一张时,通过所述人手重建网络中的解码器,对所述人手RGB图像中提取的人手特征向量进行若干次图卷积操作,得到目标人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型;
根据至少一张人手RGB图像对所述人手几何模型进行可微渲染,得到纹理贴图后的人手三维模型,并通过所述显示屏进行显示。
可选的,当所述人手RGB图像的数量为多张时,所述处理器还执行:
针对每一张所述人手RGB图像中提取的人手特征向量,通过所述人手重建网络中的解码器进行若干次图卷积操作,得到初始人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据多个视角下采集所述人手RGB图像的RGB相机的参数,将多张所述人手RGB图像对应的初始人手几何顶点集合进行融合,得到目标人手几何顶点信息。
可选的,所述处理器通过以下方式确定每个视角的RGB相机的参数:
根据每张所述人手RGB图像提取出的人手特征向量,通过所述解码器的至少一个全连接层和激活函数,计算相应RGB相机的参数;或者
根据多个视角的RGB相机采集的标定物图像,预先标定出所述每个视角上RGB相机的参数;
其中,每个RGB相机的参数包括人手相对于所述RGB相机的旋转矩阵和平移向量,用于对多个所述初始人手几何顶点集合进行融合时,将多个所述初始人手几何顶点集合中的几何顶点统一到一个坐标系下。
可选的,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合时,所述人手特征向量融合的所述人手信息对应的特征图的尺度,随着图卷积操作次数的增加而增大。
可选的,所述处理器根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型,具体操作为:
将所述目标人手几何顶点集合中几何顶点进行反向图卷积操作和全连接操作,获得人手骨架节点的三维坐标;
根据预先设定的蒙皮参数,驱动所述人手骨架节点的三维坐标变化,得到驱动后的人手几何模型。
可选的,所述处理器在每次图卷积操作后进行上采样操作以增加图卷积操作后获得的几何顶点的数量。
另一方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机设备执行本申请实施例提供的人手重建方法。
本申请提供的一种人手重建方法及设备中,训练好的人手重建网络包括编码器和解码器,编码器用于从每个视角的人手RGB图像中提取不同尺度的特征图和人手特征向量,解码器用于对提取的人手特征向量进行若干次图卷积操作,得到几何顶点数量丰富的目标人手几何顶点集合以提高人手模型的精度;并且,在若干次图卷积操作中,将人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与人手RGB图像对应的人手特征向量进行融合,由于不同尺度的特征图是对不同分辨率的人手RGB图像进行编码得到的,因此,从不同尺度特征图中提取的人手信息的丰富度不同,通过将不同尺度特征图中提取的人手信息融合到人手特征向量中,使得目标人手几何顶点集合包含更多的全局信息和细节信息,从而得到与真实人手一致的人手几何模型,进而对人手几何模型进行可微渲染时,提高了人手三维模型的真实性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的基于单视角的人手RGB图像进行人手重建的方法流程图;
图2为本申请实施例提供的图卷积后几何顶点和特征图中提取的人手信息融合示意图;
图3为本申请实施例提供的单张人手RGB图像的图卷积和上采样过程示意图;
图4为本申请实施例提供的生成人手几何模型的方法流程图;
图5为本申请实施例提供的目标人手几何顶点集合中不同数量的几何顶点与模型精细程度的关系图;
图6为本申请实施例提供的基于单视角的人手重建网络的结构图;
图7为本申请实施例提供的基于多视角的人手RGB图像进行人手重建的方法流程图;
图8为本申请实施例提供的多张人手RGB图像的特征图和人手特征向量的提取过程示意图;
图9为本申请实施例提供多个人手初始几何顶点集合融合过程示意图;
图10为本申请实施例提供的基于多视角的人手重建网络的结构图;
图11为本申请实施例提供的重建设备的硬件结构图;
图12为本申请实施例提供的重建设备的功能结构图。
具体实施方式
下面对本申请实施例的名词给出解释说明。
图卷积(Graph Convolutional Networks,GCN):人手网格(mesh)由多个几何顶点组成三角形表面模型,几何顶点和几何顶点间相互连接,构成一张图。图卷积就是在相邻顶点间传递信息的过程,经过图卷积操作后,每个几何顶点都有了其相邻顶点的信息。
可微渲染:是一项较为新型的研究技术,通常和深度学习框架相结合使用。相比传统的渲染技术,可微渲染能够使整个渲染过程可微分,从而可使梯度能反向传递,从而不断更新深度学习网络参数,有助于构建端到端的网络模型;同时,对于给定视角的输入图像,通过对立体三维几何进行可微渲染得到的二维语义信息,与该视角对应的输入图像可构成一个自循环监督网络,无需额外昂贵的监督。目前,开源的可微渲染库(比如Pytorch3D,OpenDR等)已经提供了三维几何的可微渲染的接口,使用方便。
下面对本申请实施例的设计思想进行概述。
人手重建是计算机图形学领域中一个重要且基础的问题,在虚拟/增强现实、人机交互和人工智能领域内有着广泛的应用。例如,在虚拟现实领域中,通过重建人手的几何和运动,实现人手与虚拟物体之间的交互,增强人在虚拟环境中的真实感;在人机交互领域,近年来兴起的手势识别技术通过跟踪手的运动,将手特定的运动映射到指令集,可以代替传统的键盘和鼠标进行指令的下达,实现便携,智能的人机交互;在人工智能领域,通过实时采集和重建手的运动,并结合机器学习的方法可以实现手语的自动翻译。正是由于人手重建技术具有非常广泛的应用前景,因此具有极高的科研和应用价值。
由于人手重建具有广泛的应用场景,摆脱笨重和高费用的惯导、反光跟踪等硬件设备,利用普通的RGB相机采集的图像方便快捷的重建人手和估计人手姿态成为研究热点。
目前,人手重建的方法主要为基于模板的参数化估计方法该方法依赖于MANO模板,该模板是对大量的真实人手扫描数据进行统计学分析给出的人手形状和姿态的可微参数化模型。在人手重建时,通过输入一个姿态向量和形状向量即可得到完整的人手表面模型和内嵌的骨架关节点的三维坐标,其中,人手的姿态向量和形状向量可以是采用深度学习方法从人手图像估计出的。然而,人手作为人体最灵活的部位之一,具有复杂性和多样性,且手指间可能存在遮挡,因此,为了准确的获取人手的姿态向量和形状向量,一般需要从人手张开姿态开始进行时序跟踪,对于其他姿态的手势,估计的参数较差,可能无法重建真实的人手模型。
鉴于此,本申请实施例提供一种人手重建方法及设备,可基于单视角或多视角的人手RGB图像,利用神经网络搭建的人手重建网络,重建出高精度、较真实的人手三维模型。该人手重建网络包含编码器和解码器,编码器用于从每个视角的人手RGB图像中提取不同尺度的特征图和人手特征向量,解码器用于对提取的人手特征向量进行若干次图卷积操作,且在若干次图卷积操作中,将人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与人手RGB图像对应的人手特征向量进行融合,使得目标人手几何顶点集合包含更多的全局信息和细节信息,从而得到与真实人手一致的高精度人手几何模型,进而对人手几何模型进行可微渲染时,提高了人手三维模型的真实性。整个重建过程无需获取人手的深度数据和扫描数据,也无需从人手张开姿态进行时序跟踪,该人手重建网络可以在不知道人手形状的情况下,根据人手RGB图像处理后获得的人手几何顶点,自行预测人手的姿态,从而实现轻量、高效、真实的人手重建方法。
本申请实施例提供的人手重建网络,可以部署在用于虚拟/增强现实全息通信的服务器上,包括但不限于微服务器、云服务器、服务器集群,还可以部署在具有交互功能的笔记本电脑、台式计算机、智能手机、平板、VR眼镜、AR眼镜等客户端上。其中,服务器和客户端统称为重建设备。
本申请实施例既可以基于单视角的人手RGB图像进行重建,也可以基于多视角的人手RGB图像进行重建。
下面以单视角的人手RGB图像为例,描述本申请实施例提供的人手重建方法。
参见图1,为本申请实施例提供的基于单视角图像的人手重建的方法流程图,该流程由重建设备执行,主要包括以下几步:
S101:获取单视角的人手RGB图像。
在S101中,重建设备可以自带RGB相机,也可以与外部独立部署的RGB相机进行数据传输,RGB相机采集一帧人手RGB图像后传输给重建设备。
S102:通过训练好的人手重建网络中的编码器,从该人手RGB图像中提取出不同尺度的特征图以及人手特征向量。
本申请的实施例中,人手重建网络中的编码器可以有深度神经网络搭建。在执行S102时,将人手RGB图像输入到编码器中,编码器输出一个长向量(即人手特征向量)以及若干个不同尺度的特征图。其中,不同尺度的特征图可以表征对不同分辨率大小的人手RGB图像编码后特征。
需要说明的是,本申请实施例对编码器具体使用的神经网络不做限制性要求,包括但不限于VGG、ResNet、HRnet等。
例如,以编码器使用的网络为ResNet网络为例,当输入的人手RGB图像的分辨率为256*256像素时,经过ResNet网络结构的多层结构时,输出三个不同尺度的特征图,大小分别为32*32像素、16*16像素和8*8像素,其中,每个像素点均包含256维的人手信息,分别组成了大小为256*32*32,256*16*16,256*8*8的三维矩阵。同时,在ResNet网络的最后一层,经过池化层和多层感知机(Multilayer Perceptron,MLP)操作,也会输出2048维的人手特征向量,该人手特征向量含有人手RGB图像的全局信息。
S103:通过人手重建网络中的解码器,对该人手RGB图像中提取的人手特征向量进行若干次图卷积操作,得到目标人手几何顶点集合。
在S103中,通过人手重建网络中的解码器,首先将提取的全局人手特征向量重整为图卷积操作对应的人手网格中稀疏的几何顶点特征,人手对几何顶点特征进行若干次同等级别的图卷积操作,其中,在若干次图卷积操作中,解码器将逐步得到稀疏的几何顶点的三维坐标,采用投影方法或者自注意力机制(self-attention),根据每个几何顶点的三维坐标,从该人手RGB图像对应的不同尺度的特征图中提取人手信息,并将提取的人手信息分别与人手特征向量进行融合。
如图2所示,为本申请实施例提供的图卷积后的几何顶点和特征图中提取的人手信息融合示意图,其中,图2为一次融合过程,定义人手网格的信息为P=N*f大小的矩阵,其中第i行Pi表示了第i个几何顶点的信息,图卷积(GCN)可以在不同的顶点间传递信息,通过投影或者自注意力机制,可以得到其在人手RGB图像中相关的信息Fi,随后通过全连接层将图像中的信息Fi融合进第i个几何顶点的信息Pi中,得到第i个几何顶点在三维空间中的坐标Vi 3d。
在执行S103时,每次图卷积操作后,均进行一次上采样操作以增加每次图卷积操作后获得的几何顶点的数量,几何顶点的数量越多,人手模型的精细程度越高。
在S103中进行若干次图卷积操作中,将不同尺度的特征图中提取的人手信息分别与人手特征向量进行融合时,人手特征向量融合的人手信息对应的特征图的尺度,随着图卷积操作次数的增加而增大。这是因为,小分辨率的人手RGB图像和几何顶点数量较少的人手网格中蕴含更多的全局信息,而高分辨的人手RGB图像和几何顶点数量较多的人手网格中蕴含更多的细节信息。
具体实施时,在S103中,通过图卷积操作,将人手特征向量经过多层感知机重整为N*f矩阵,其中,N为人手网格中几何顶点的数量,f为每个几何顶点的信息维度。人手,分别从不同尺度的特征图中提取人手信息,并将人手信息与若干次图卷积操作后的几何顶点信息进行融合,融合后进行一次上采样操作,每次上采样操作后,人手网格中几何顶点的数量增加一倍,经过多次图卷积和上采样操作后,得到目标人手几何顶点集合。其中,特征图的数量和图卷积操作的次数可以相同,也可以不同。
例如,以3个尺度的特征图和五次图卷积操作为例,参见图3,通过第一次图卷积操作后,得到N*f矩阵。然后从8*8的特征图中提取人手信息,将人手信息与第一次图卷积操作后的几何顶点信息进行融合,融合后进行第一次上采样操作,得到2N*f矩阵,即人手网格中几何顶点的数量增加一倍,变为2N。随后,对第一次上采样后的结果进行第二次图卷积和上采样操作,得到4N*f矩阵。进一步地,对第二次上采样操作后的结果进行第三次图卷积操作,并从16*16的特征图中提取人手信息,将人手信息与第三次图卷积操作后的几何顶点信息进行融合,融合后进行第三次上采样操作,得到8N*f矩阵。再次对第三次上采样后的结果进行第四次图卷积和上采样操作,得到16N*f矩阵。最后,对第四次上采样操作后的结果进行第五次图卷积操作,并从32*32的特征图中提取人手信息,将人手信息与第四次图卷积操作后的几何顶点信息进行融合,融合后进行第五次上采样操作,得到32N*f矩阵。
可选的,人手信息包括几何顶点的三维坐标和语义信息。
随着图卷积和上采样次数的增加,几何顶点间信息传递越丰富,几何顶点数量越多,得到人手模型越精细。
需要说明的是,特征图的数量和图卷积的次数可根据实际需求进行设置,本申请实施例不做限制性要求。
S104:根据目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型。
在执行S104时,具体过程参见图4,主要包括以下几步:
S1041:将目标人手几何顶点集合中几何顶点进行反向图卷积操作和全连接操作,获得人手骨架节点的三维坐标。
S1042:根据预先设定的蒙皮参数,驱动人手骨架节点的三维坐标变化,得到驱动后的人手几何模型。
参加图5,为本申请实施例提供的目标人手几何顶点集合中不同数量的几何顶点与模型精细程度的关系图,其中,几何顶点的数量越稀疏,模型的精度程度越低。如图5示出的,从左到右,目标人手几何顶点集合中几何顶点的数量依次增多,人手几何模型精细程度依次增高。
本申请实施例重建的人手几何模型具有语义信息,内嵌骨架,这样,在实际应用中,人手几何模型可通过运动参数驱动,并外接在人体三维模型上,实现全人体的虚拟角色效果。其中,驱动方法可采用双四元数的蒙皮驱动方法。
S105:根据人手RGB图像对人手几何模型进行可微渲染,得到纹理贴图后的人手三维模型。
对于纹理方面,在S105中,采用可微渲染方法,根据人手RGB图像构建逐像素点的颜色约束,生成一张人手纹理图,贴图后,得到人手三维模型。
参见图6,为本申请实施例提供的基于单视角的人手重建网络的结构图,针对单视角RGB相机采集的人手RGB图像,通过ResNet网络构成的编码器,输出大小分别为32*32、16*16、8*8像素的特征图和一个2048维的人手特征向量。将人手特征向量输入至解码器,解码器对人手特征向量进行5次卷积操作,其中,在第1、3、5层的图卷积层分别引入了8*8、16*16、32*32的特征图中提取的人手信息,每次图卷积操作后上采样得到的几何顶点数分别为63、126、252、504、1008,模型精细程度依次提高,最后通过可微渲染,输出带有纹理的人手三维模型。
本申请实施例提供的人手重建方法,不仅适用于单视角的人手RGB图像,同样也适用于多视角的人手RGB图像,下面以多视角的人手RGB图像为例,描述本申请实施例提供的人手重建方法流程,参见图7,主要包括以下几步:
S701:获取多个视角的人手RGB图像。
在S701中,多个RGB相机从人手的不同视角拍摄RGB图像,并将拍摄的人手RGB图像传输给重建设备,由重建设备进行人手的三维重建。
S702:针对每张人手RGB图像,通过训练好的人手重建网络中的编码器,从该人手RGB图像中提取出不同尺度的特征图以及人手特征向量。
例如,参见图8,假设有N张人手RGB图像(即N个视角),编码器为ResNet网络,将每张人手RGB图像输入至编码器后,分别输出32*32、16*16、8*8像素大小的特征图和2048维的人手特征向量。
S703:针对每一张人手RGB图像中提取的人手特征向量,通过人手重建网络中的解码器进行若干次图卷积操作,得到初始人手几何顶点集合。
在S703中,每张人手RGB图像经编码器编码后可以得到一个人手特征向量,通过解码器,对每个人手特征向量进行若干次图卷积操作,每次图卷积操作后进行上采样操作以增加图卷积操作后获得的几何顶点的数量,从而得到每张人手RGB图像中提取的人手特征向量对应的初始人手几何顶点集合。其中,在若干次图卷积操作中,将每张人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与该人手RGB图像对应的人手特征向量进行融合,其中,人手特征向量融合的人手信息对应的特征图的尺度,随着图卷积操作次数的增加而增大。
针对每张人手RGB图像中提取的不同尺度的特征图和人手特征向量进行图卷积和上采样操作的过程参见基于单视角图像的人手重建方法部分的描述。
S704:根据多个视角下采集人手RGB图像的RGB相机的参数,将多张人手RGB图像对应的初始人手几何顶点集合进行融合,得到目标人手几何顶点信息。
由于多个RGB相机位于人手的不同视角,因此,采集的多张人手RGB图像包含不同的人手可见部分,这样,每张人手RGB图像中提取的人手特征向量包含不同的人手特征,通过多视角特征融合,可以获得更准确的重建结果。
以2个视角为例,参见图9,为本申请实施例提供2个人手特征向量图卷积操作后的人手初始几何顶点集合融合过程示意图,将一张人手RGB图像编码后的2048维人手特征向量1输入至解码器,解码器对人手特征向量1进行5次(层)图卷积操作,在每层图卷积操作过程中,将该人手RGB图像中提取的8*8、16*16、32*32大小的特征图1中提取的人手信息,分别与1、3、5层图卷积后的结果进行特征融合,得到初始人手几何顶点集合1。同时,将另一张人手RGB图像编码后的2048维人手特征向量2输入至解码器,解码器对人手特征向量2进行5层图卷积操作,在每层图卷积操作过程中,将该人手RGB图像中提取的8*8、16*16、32*32大小的特征图2中提取的人手信息,分别与1、3、5层图卷积后的结果进行特征融合,得到初始人手几何顶点集合2。然后,将初始人手几何顶点集合1和初始人手几何顶点集合2进行融合,丰富不同视角看到的人手特征,得到目标人手几何顶点集合。
在S704中,对多个人手初始几何顶点集合进行融合时,需要知道每个RGB相机的参数,该参数包括人手相对于相应的RGB相机的旋转矩阵和平移向量,用于对多个初始人手几何顶点集合进行融合时,将多个初始人手几何顶点集合中的几何顶点统一到一个坐标系下。其中,本申请实施例对融合方式不做限制性要求,可采用最大池化方法进行融合,还可以采用自注意力机制进行融合。
其中,每个RGB相机的参数的确定方法有两种,分别为基于人手特征向量确定以及基于相机标定确定。当基于人手特征向量确定时,根据每张人手RGB图像提取出的人手特征向量,通过解码器的至少一个全连接层和激活函数,实时计算每个RGB相机的参数。当基于相机标定确定时,根据多个视角的RGB相机采集的标定物图像,预先标定出每个视角上RGB相机的参数。
S705:根据目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型。
具体实施时,首先将目标人手几何顶点集合中几何顶点进行反向图卷积操作和全连接操作,获得人手骨架节点的三维坐标,然后根据预先设定的蒙皮参数,驱动人手骨架节点的三维坐标变化,得到驱动后的人手几何模型。
在S705中,基于多视角的人手RGB图像获得的目标人手几何顶点集合,相对于S104中基于单视角的人手RGB图像获得的目标人手几何顶点集合,包含不同视角看到的人手信息,提高了人手几何模型的准确性和真实性。
S706:根据多张人手RGB图像对人手几何模型进行可微渲染,得到纹理贴图后的人手三维模型。
在S706中,利用多张人手RGB图像进行可微渲染生成的人手纹理图,包含的纹理信息更丰富,使得贴图后的人手三维模型更加真实。
参见图10,为本申请实施例提供的基于多视角的人手重建网络的结构图,针对多个视角的RGB相机采集的人手RGB图像,通过ResNet网络构成的编码器,分别输出大小分别为32*32、16*16、8*8像素的特征图和一个2048维的人手特征向量。将多个人手特征向量输入至解码器,解码器分别对每个人手特征向量进行5次卷积操作,其中,在第1、3、5层的图卷积层分别引入了8*8、16*16、32*32的相应特征图中提取的人手信息,每次图卷积操作后上采样得到的几何顶点数分别为63、126、252、504、1008。通过全连接层,根据多个人手特征向量确定每个相机相对于人手的参数,并利用该参数,采用最大池化或自注意力机制将各人手特征向量最终上采样后的结果进行融合,得到目标人手几何顶点集合。最后通过可微渲染,输出带有纹理的人手三维模型。
本申请实施例上述提供的人手重建方法,通过一台或多台普通的RGB相机和一个具有数据处理能力的民用级重建设备(如:配置有GTX系列显卡的电脑)便可实现,输入单视角或多视角的RGB相机采集的人手RGB图像,经过人手重建网络和可微渲染,输出一个带有纹理的人手三维模型,该人手三维模型表示为一个三维网格模型,该网格模型由若干个表面顶点的三维坐标、表面顶点构成的三角面片间的邻接关系以及一张纹理图构成。该方法仅需要单视角或多视角的人手RGB图像,不需要人手的扫描模型,也不需要深度信息,即可实现人手的重建,不仅重建人手的表面几何,同时重建人手的纹理特征,该网络可以在不知道人手形状的情况下,根据单张或多张人手RGB图像自行预测人手的姿态和形状,且在图卷积过程中,分层级引入了不同尺度的特征图中提取的人手信息,使得重建的人手三维模型相对于基于MANO模板重建的三维模型更加精确、真实。
基于相同的技术构思,本申请实施例提供一种重建设备,该重建设备可以是具有数据处理能力的笔记本电脑、台式计算机、智能手机、平板、VR眼镜、AR眼镜等客户端,还可以是用于实现远程交互过程的服务器,包括但不限于微服务器、云服务器、服务器集群等,重建设备可实现上述实施例中人手重建方法的步骤,且能达到相同的技术效果。
参见图11,该重建设备包括处理器1101、存储器1102、显示屏1103和通信接口1104,所述通信接口1104、所述显示屏1103、所述存储器1102和所述处理器1101通过总线1105连接;
所述存储器1102包括数据存储单元和程序存储单元,所述程序存储单元存储有计算机程序,所述处理器1101根据所述计算机程序,执行以下操作:
通过所述通信接口1104,获取至少一个视角的RGB相机采集的人手RGB图像,并存储至所述数据存储单元;
通过训练好的人手重建网络中的编码器,从所述人手RGB图像中提取出不同尺度的特征图以及人手特征向量;
当所述人手RGB图像的数量为一张时,通过所述人手重建网络中的解码器,对所述人手RGB图像中提取的人手特征向量进行若干次图卷积操作,得到目标人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型;
根据至少一张人手RGB图像对所述人手几何模型进行可微渲染,得到纹理贴图后的人手三维模型,并通过所述显示屏1103进行显示。
可选的,当所述人手RGB图像的数量为多张时,所述处理器1101还执行:
针对每一张所述人手RGB图像中提取的人手特征向量,通过所述人手重建网络中的解码器进行若干次图卷积操作,得到初始人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据多个视角下采集所述人手RGB图像的RGB相机的参数,将多张所述人手RGB图像对应的初始人手几何顶点集合进行融合,得到目标人手几何顶点信息。
可选的,所述处理器1101通过以下方式确定每个视角的RGB相机的参数:
根据每张所述人手RGB图像提取出的人手特征向量,通过所述解码器的至少一个全连接层和激活函数,计算相应RGB相机的参数;或者
根据多个视角的RGB相机采集的标定物图像,预先标定出所述每个视角上RGB相机的参数;
其中,每个RGB相机的参数包括人手相对于所述RGB相机的旋转矩阵和平移向量,用于对多个所述初始人手几何顶点集合进行融合时,将多个所述初始人手几何顶点集合中的几何顶点统一到一个坐标系下。
可选的,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合时,所述人手特征向量融合的所述人手信息对应的特征图的尺度,随着图卷积操作次数的增加而增大。
可选的,所述处理器1101根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型,具体操作为:
将所述目标人手几何顶点集合中几何顶点进行反向图卷积操作和全连接操作,获得人手骨架节点的三维坐标;
根据预先设定的蒙皮参数,驱动所述人手骨架节点的三维坐标变化,得到驱动后的人手几何模型。
可选的,所述处理器1101在每次图卷积操作后进行上采样操作以增加图卷积操作后获得的几何顶点的数量。
需要说明的是,图11仅是一种示例,给出重建设备实现本申请实施例提供的人手重建方法步骤所必要的硬件,未示出的,该重建设备还包含扬声器、麦克风、电源、音频处理器等交互设备的常用器件。
本申请实施例图11中涉及的处理器可以是中央处理器(Central ProcessingUnit,CPU),通用处理器,图形处理器(Graphics Processing Unit,GPU)数字信号处理器(Digital Signal Processor,DSP),专用集成电路(Application-specific IntegratedCircuit,ASIC),现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。
参见图12,为本申请实施例提供的重建设备的功能结构图,该重建设备主要包括获取模块1201、特征提取模块1202、图卷积操作模块1203、几何重建模块1204和纹理重建模块1205,其中:
获取模块1201,用于获取至少一个视角的人手RGB图像;
特征提取模块1202,用于通过训练好的人手重建网络中的编码器,从所述人手RGB图像中提取出不同尺度的特征图以及人手特征向量;
图卷积操作模块1203,用于当所述人手RGB图像的数量为一张时,通过所述人手重建网络中的解码器,对所述人手RGB图像中提取的人手特征向量进行若干次图卷积操作,得到目标人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
几何重建模块1204,用于根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型;
纹理重建模块1205,用于根据至少一张人手RGB图像对所述人手几何模型进行可微渲染,得到纹理贴图后的人手三维模型。
可选的,当所述人手RGB图像的数量为多张时,该重建设备的图卷积操作模块1203还用于针对每一张所述人手RGB图像中提取的人手特征向量,通过所述人手重建网络中的解码器进行若干次图卷积操作,得到初始人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
此时,该重建设备还包括,还包括融合模块1206,用于:
根据多个视角下采集所述人手RGB图像的RGB相机的参数,将多张所述人手RGB图像对应的初始人手几何顶点集合进行融合,得到目标人手几何顶点信息。
上述各功能模块的具体实现参见前述实施例,在此不再重复描述。
本申请实施例还提供一种计算机可读存储介质,用于存储一些指令,这些指令被执行时,可以完成前述实施例中人手重建方法。
本申请实施例还提供一种计算机程序产品,用于存储计算机程序,该计算机程序用于执行前述实施例中人手重建方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种人手重建方法,其特征在于,包括:
获取至少一个视角的人手RGB图像;
通过训练好的人手重建网络中的编码器,从所述人手RGB图像中提取出不同尺度的特征图以及人手特征向量;
当所述人手RGB图像的数量为一张时,通过所述人手重建网络中的解码器,对所述人手RGB图像中提取的人手特征向量进行若干次图卷积操作,得到目标人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型;
根据至少一张人手RGB图像对所述人手几何模型进行可微渲染,得到纹理贴图后的人手三维模型。
2.如权利要求1所述的方法,其特征在于,当所述人手RGB图像的数量为多张时:
针对每一张所述人手RGB图像中提取的人手特征向量,通过所述人手重建网络中的解码器进行若干次图卷积操作,得到初始人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据多个视角下采集所述人手RGB图像的RGB相机的参数,将多张所述人手RGB图像对应的初始人手几何顶点集合进行融合,得到目标人手几何顶点信息。
3.如权利要求2所述的方法,其特征在于,多个视角RGB相机的参数是通过以下方式确定的:
根据每张所述人手RGB图像提取出的人手特征向量,通过所述解码器的至少一个全连接层和激活函数,计算相应RGB相机的参数;或者
根据多个视角的RGB相机采集的标定物图像,预先标定出所述每个视角上RGB相机的参数;
其中,每个RGB相机的参数包括人手相对于所述RGB相机的旋转矩阵和平移向量,用于对多个所述初始人手几何顶点集合进行融合时,将多个所述初始人手几何顶点集合中的几何顶点统一到一个坐标系下。
4.如权利要求1-3中任一项所述的方法,其特征在于,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合时,所述人手特征向量融合的所述人手信息对应的特征图的尺度,随着图卷积操作次数的增加而增大。
5.如权利要求1-3中任一项所述的方法,其特征在于,所述根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型,包括:
将所述目标人手几何顶点集合中几何顶点进行反向图卷积操作和全连接操作,获得人手骨架节点的三维坐标;
根据预先设定的蒙皮参数,驱动所述人手骨架节点的三维坐标变化,得到驱动后的人手几何模型。
6.如权利要求1-3中任一项所述的方法,其特征在于,每次图卷积操作后进行上采样操作以增加图卷积操作后获得的几何顶点的数量。
7.一种重建设备,其特征在于,包括处理器、存储器、显示屏和通信接口,所述通信接口、所述显示屏、所述存储器和所述处理器通过总线连接;
所述存储器包括数据存储单元和程序存储单元,所述程序存储单元存储有计算机程序,所述处理器根据所述计算机程序,执行以下操作:
通过所述通信接口,获取至少一个视角的RGB相机采集的人手RGB图像,并存储至所述数据存储单元;
通过训练好的人手重建网络中的编码器,从所述人手RGB图像中提取出不同尺度的特征图以及人手特征向量;
当所述人手RGB图像的数量为一张时,通过所述人手重建网络中的解码器,对所述人手RGB图像中提取的人手特征向量进行若干次图卷积操作,得到目标人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据所述目标人手几何顶点集合中几何顶点的三维坐标,获得人手几何模型;
根据至少一张人手RGB图像对所述人手几何模型进行可微渲染,得到纹理贴图后的人手三维模型,并通过所述显示屏进行显示。
8.如权利要求7所述的重建设备,其特征在于,当所述人手RGB图像的数量为多张时,所述处理器还执行:
针对每一张所述人手RGB图像中提取的人手特征向量,通过所述人手重建网络中的解码器进行若干次图卷积操作,得到初始人手几何顶点集合;其中,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合;
根据多个视角下采集所述人手RGB图像的RGB相机的参数,将多张所述人手RGB图像对应的初始人手几何顶点集合进行融合,得到目标人手几何顶点信息。
9.如权利要求7或8所述的重建设备,其特征在于,在若干次图卷积操作中,将所述人手RGB图像对应的不同尺度的特征图中提取的人手信息,分别与所述人手RGB图像对应的人手特征向量进行融合时,所述人手特征向量融合的所述人手信息对应的特征图的尺度,随着图卷积操作次数的增加而增大。
10.如权利要求7或8所述的重建设备,其特征在于,所述处理器在每次图卷积操作后进行上采样操作以增加图卷积操作后获得的几何顶点的数量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210821889.4A CN115272608A (zh) | 2022-07-12 | 2022-07-12 | 一种人手重建方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210821889.4A CN115272608A (zh) | 2022-07-12 | 2022-07-12 | 一种人手重建方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115272608A true CN115272608A (zh) | 2022-11-01 |
Family
ID=83766084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210821889.4A Pending CN115272608A (zh) | 2022-07-12 | 2022-07-12 | 一种人手重建方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115272608A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116740290A (zh) * | 2023-08-15 | 2023-09-12 | 江西农业大学 | 基于可变形注意力的三维交互双手重建方法及系统 |
-
2022
- 2022-07-12 CN CN202210821889.4A patent/CN115272608A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116740290A (zh) * | 2023-08-15 | 2023-09-12 | 江西农业大学 | 基于可变形注意力的三维交互双手重建方法及系统 |
CN116740290B (zh) * | 2023-08-15 | 2023-11-07 | 江西农业大学 | 基于可变形注意力的三维交互双手重建方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mandikal et al. | Dense 3d point cloud reconstruction using a deep pyramid network | |
CN111047548B (zh) | 姿态变换数据处理方法、装置、计算机设备和存储介质 | |
US11748934B2 (en) | Three-dimensional expression base generation method and apparatus, speech interaction method and apparatus, and medium | |
WO2022205760A1 (zh) | 三维人体重建方法、装置、设备及存储介质 | |
JP7448566B2 (ja) | クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識 | |
CN114549731A (zh) | 视角图像的生成方法、装置、电子设备及存储介质 | |
EP4036863A1 (en) | Human body model reconstruction method and reconstruction system, and storage medium | |
CN110570522A (zh) | 一种多视图三维重建方法 | |
CN113628348A (zh) | 一种确定三维场景中视点路径的方法及设备 | |
CN115115805A (zh) | 三维重建模型的训练方法、装置、设备及存储介质 | |
CN116097316A (zh) | 用于非模态中心预测的对象识别神经网络 | |
CN115222917A (zh) | 三维重建模型的训练方法、装置、设备及存储介质 | |
CN114972634A (zh) | 基于特征体素融合的多视角三维可变形人脸重建方法 | |
CN115272608A (zh) | 一种人手重建方法及设备 | |
Li et al. | Immersive neural graphics primitives | |
CN116385667B (zh) | 三维模型的重建方法、纹理重构模型的训练方法以及装置 | |
CN117635801A (zh) | 基于实时渲染可泛化神经辐射场的新视图合成方法及系统 | |
CN115082636B (zh) | 基于混合高斯网络的单图像三维重建方法及设备 | |
CN111105489A (zh) | 数据合成方法和装置、存储介质和电子装置 | |
CN116091712A (zh) | 一种面向计算资源受限设备的多视图立体重建方法与系统 | |
US20230290132A1 (en) | Object recognition neural network training using multiple data sources | |
Zhang et al. | A Portable Multiscopic Camera for Novel View and Time Synthesis in Dynamic Scenes | |
US11610326B2 (en) | Synthesizing 3D hand pose based on multi-modal guided generative networks | |
CN116645468B (zh) | 人体三维建模方法、训练人体结构生成模型的方法及装置 | |
Yao et al. | Neural Radiance Field-based Visual Rendering: A Comprehensive Review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |