CN113870431A - 三维模型动作迁移方法 - Google Patents

三维模型动作迁移方法 Download PDF

Info

Publication number
CN113870431A
CN113870431A CN202010630438.3A CN202010630438A CN113870431A CN 113870431 A CN113870431 A CN 113870431A CN 202010630438 A CN202010630438 A CN 202010630438A CN 113870431 A CN113870431 A CN 113870431A
Authority
CN
China
Prior art keywords
action
model
dimensional
migration
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010630438.3A
Other languages
English (en)
Inventor
付彦伟
王嘉顺
闻超
薛向阳
张寅达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202010630438.3A priority Critical patent/CN113870431A/zh
Priority to US17/016,943 priority patent/US11455776B2/en
Publication of CN113870431A publication Critical patent/CN113870431A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种三维模型动作迁移方法,其特征在于,步骤S1,根据预先获取的三维模型数据生成动作网络模型、体态网络模型以及迁移为新动作的动作体态模型作为真实值用于训练动作迁移神经网络;步骤S2,构建特征编码网络作为动作特征提取器提取动作三维网格模型的动作特征;步骤S3,构建特征迁移网络作为解码器基于提取的动作特征对体态三维网格模型进行迁移操作,从而获得形变后的动作体态模型;步骤S4,构建一个端到端的动作迁移神经网络的框架;步骤S5,构建损失函数;步骤S6,基于损失函数训练动作迁移神经网络,其中,动作迁移神经网络包括动作特征编码网络以及基于空间适应性实例标准化方法的特征迁移神经网络。

Description

三维模型动作迁移方法
技术领域
本发明属于三维计算机视觉领域,具体涉及一种利用深度学习将三维模型的动作进行迁移的方法。
背景技术
形变迁移技术近年来一直吸引着大家的注意,这是计算机图形学和计算机视觉领域的重要技术。例如,在游戏或电影中,一个人可以轻松地将一个三维模型的动作转移到另一个三维模型上面。但是,当动作转移发生在两个形体差异很大的三维模型上时,这是很有挑战性的。
近年来,相关研究工作尝试解决此类问题,过去的方法为了建立两个三维模型之间的联系往往需要额外的信息,例如点的对应关系、额外的三维模型、人工标注模型上点的信息、三维模型外的笼子来辅助变形等。
现有技术中,可以利用仿射变化与优化等方法来进行形变迁移,但该方法需要一个额外的三维模型来计算动作的转移,并且需要人的手工标注,使得该方法缺乏易用性。还可以利用在三维模型外生成一个包裹的三维笼子来辅助进行变形,该方法同样需要一个额外的三维模型与人工标注。缺乏易用性。也可以设计一个VC-GAN的深度神经网络方法来实现动作迁移,但该方法缺乏对于未在训练集中出现的体态模型的适应性,每当遇到一个新的体态时,需要足够的训练数据,若缺少则没办法实现有效的动作迁移。
发明内容
为解决上述问题,提供一种三维模型动作迁移方法,用于将动作三维网格模型的动作迁移到体态三维网格模型上,从而获得具有新动作并保持原体态的动作体态三维网格模型,本发明采用了如下技术方案:
本发明提供了一种三维模型动作迁移方法,其特征在于,步骤S1,根据预先获取的三维模型数据生成动作网络模型、体态网络模型以及迁移为新动作并保持原体态的动作体态模型作为真实值用于训练动作迁移神经网络;步骤S2,构建特征编码网络作为动作特征提取器提取动作三维网格模型的动作特征;步骤S3,构建特征迁移神经网络作为解码器基于提取的动作特征对体态三维网格模型进行迁移操作,从而获得形变后的动作体态模型;步骤S4,构建一个端到端的动作迁移神经网络的框架,即给定体态三维网格模型,动作三维网格模型,将动作三维网格模型的动作通过动作特征编码网络获得动作特征,通过基于空间适应性实例标准化方法的解码器将动作迁移到体态三维网格模型上,输出体态模型转换动作后的三维网格模型;步骤S5,构建损失函数;步骤S6,基于损失函数训练动作迁移神经网络,其中,动作迁移神经网络包括动作特征编码网络以及基于空间适应性实例标准化方法的特征迁移神经网络。
本发明提供的三维模型动作迁移方法,其特征在于,步骤S1的具体过程如下:利用SMPL模型生成三维模型数据,控制SMPL模型中的动作参数生成不同动作的三维网格模型作为动作网格模型,控制SMPL模型中的体态参数生成不同体态的三维网格模型作为体态三维网格模型,利用SMPL模型的动作参数与体态参数生成转换动作后的体态模型作为训练动作迁移神经网络所需要的对应的动作体态模型作为真实值。
本发明提供的三维模型动作迁移方法,还可以具有这样的特征,其中,特征编码网络为一个三层的参数共享的卷积网络,该卷积网络的每个卷积层后使用一层实例标准化层以及一层修正线性单元ReLU作为激活函数,特征编码网络的输入为动作网格模型,输出为编码后的动作特征的矩阵。
本发明提供的三维模型动作迁移方法,还可以具有这样的特征,其中,特征迁移神经网络为一个四层的卷积网络,该卷积网络前三层卷积层后各跟随一个空间适应性实例标准化残差模块,每个空间适应性实例标准化残差模块遵循残差网络模块的结构,残差网络模块具有三个单元,每个单元包括一个空间适应性实例标准化结构、一个卷积网络以及激活函数,每个空间适应性实例标准化结构是由体态三维网格模型分别通过一层卷积层获得标准化所需要的权重和偏移,将权重与输入的特征相乘并与偏移量相加后输出,进一步通过一层卷积层和tanh激活函数得到输出的动作体态三维网格模型。
本发明提供的三维模型动作迁移方法,其特征在于,步骤S1的具体过程如下:采用二范数欧几里得距离作为损失函数回归网格模型中每个顶点的空间坐标,使其接近真实坐标,采用边长正则化使得迁移后的动作体态三维网格模型所有边尽可能短并且均匀,从而使得表面更加光滑。
本发明提供的三维模型动作迁移方法,其特征在于,步骤S1的具体过程如下:将网格模型动作网格三维模型和网格模型体态三维网格模型作为网格模型动作迁移神经网络的输入,得到该动作迁移神经网络输出的具有新动作的网格模型动作体态三维网格模型,根据经过网格模型动作迁移神经网络获得的网格模型动作体态三维网格模型以及步骤S1中作为真实值的网格模型动作体态三维网格模型利用网格模型损失函数计算损失值,根据网格模型损失值利用反向传播算法以及梯度下降算法训练网格模型动作迁移神经网络。
发明作用与效果
根据本发明的三维模型动作迁移方法,对于提供动作的动作三维网格模型,设计一个多层的参数共享的卷积网络,用于提取动作三维网格模型的动作特征;对于提供体态的体态三维网格模型,设计一种利用空间适应性实例标准化的解码器,基于提取出的动作特征对体态三维网格模型进行迁移;在此框架下构建一个端到端的动作迁移神经网络,可以对于给定的体态三维网格模型和动作三维网格模型,将动作三维网格模型的动作迁移到体态三维网格模型上,输出对应的动作体态三维网格模型,该方法不需要任何额外的信息辅助、对于各种体态模型均有很好的生成效果、同时对于点的排列顺序打乱与噪音有着很强的鲁棒性。
附图说明
图1是本发明实施例的三维模型动作迁移方法的流程图;
图2是本发明实施例的三维模型动作迁移方法对应的系统结构示意图;
图3是本发明实施例的动作特征提取器的结构示意图;
图4是本发明实施例的空间适应性实例标准化模块(SPAdaIN)的结构示意图;
图5是本发明实施例的空间适应性实例标准化残差模块(SPAdaIN ResBlk)的结构示意图。
具体实施方式
以下结合附图以及实施例来说明本发明的具体实施方式。
<实施例>
图1是本发明实施例的三维模型动作迁移方法的流程图。图2是本发明实施例的三维模型动作迁移方法对应的系统结构示意图。
如图1和图2所示,本实施例提供一种三维模型动作迁移方法,用于将动作三维网格模型的动作转移到体态三维网格模型上,从而获得动作体态三维网格模型,包括如下步骤:
步骤S1,根据预先获取的三维模型数据生成动作网络模型、体态网络模型以及迁移为新动作的动作体态模型作为真实值用于训练动作迁移神经网络。
动作迁移神经网络包括动作特征编码网络以及基于空间适应性实例标准化方法的特征迁移神经网络。
本实施例中,利用SMPL模型生成三维模型数据。通过控制SMPL模型中的动作参数生成不同动作的三维网格模型作为动作网格模型,控制SMPL模型中的体态参数生成不同体态的三维网格模型作为体态三维网格模型,利用SMPL模型的动作参数与体态参数生成转换动作后的体态模型作为训练动作迁移神经网络所需要的对应的动作体态模型作为真实值。
步骤S2,构建特征编码网络作为动作特征提取器提取动作三维网格模型的动作特征。
图3是本发明实施例的动作特征提取器的结构示意图。
如图3所示,特征编码网络为一个三层的参数共享的卷积网络,该卷积网络的每个卷积层后使用一层实例标准化层以及一层修正线性单元ReLU作为激活函数。
特征编码网络的输入为动作网格模型,输出为编码后的动作特征的矩阵。
步骤S3,构建特征迁移神经网络作为解码器基于提取的动作特征对体态三维网格模型进行迁移操作,从而获得形变后的动作体态模型。
图4是本发明实施例的空间适应性实例标准化模块(SPAdaIN)的结构示意图。图5是本发明实施例的空间适应性实例标准化残差模块(SPAdaIN ResBlk)的结构示意图。
如图4和图5所示,特征迁移神经网络为一个四层的卷积网络,该卷积网络前三层卷积层后各跟随一个空间适应性实例标准化残差模块(SPAdaIN ResBlk)。
每个空间适应性实例标准化残差模块(SPAdaIN ResBlk)具有三个单元,每个单元包括一个空间适应性实例标准化结构、一个卷积网络以及激活函数。
每个空间适应性实例标准化结构是由体态三维网格模型分别通过一层卷积层获得标准化所需要的权重和偏移,将权重与输入的特征相乘并与偏移量相加后输出,进一步通过一层卷积层和tanh激活函数得到输出的动作体态三维网格模型。
步骤S4,构建一个端到端的动作迁移神经网络的框架,即给定体态三维网格模型,动作三维网格模型,将动作三维网格模型的动作通过动作特征编码网络获得动作特征,通过基于空间适应性实例标准化方法的解码器将动作迁移到体态三维网格模型上,输出体态模型转换动作后的三维网格模型。
步骤S5,构建损失函数,具体过程如下:
采用二范数欧几里得距离(L2损失)作为损失函数回归网格模型中每个顶点的空间坐标,使其接近真实坐标。
采用边长正则化(Edge损失函数)使得迁移后的动作体态三维网格模型所有边尽可能短并且均匀,从而使得表面更加光滑。
步骤S6,基于损失函数训练动作迁移神经网络,
将网格模型动作网格三维模型和网格模型体态三维网格模型作为网格模型动作迁移神经网络的输入,得到该动作迁移神经网络输出的具有新动作的网格模型动作体态三维网格模型。
根据经过网格模型动作迁移神经网络获得的网格模型动作体态三维网格模型以及步骤S1中作为真实值的网格模型动作体态三维网格模型利用网格模型损失函数计算损失值。
根据网格模型损失值利用反向传播算法以及梯度下降算法训练网格模型动作迁移神经网络。
在训练完成之后,对于给定的体态三维网格模型和动作三维网格模型,可以让体态三维网格模型做出动作三维网格模型提供的动作。
通过计算L2损失来与现有技术进行比较,发现其性能超过了现有方法。通过功能分析发现,SPAdaIN使得生成结果准确且对各类体态都保持出色的结果,Edge损失函数使得模型表面光滑。
实施例作用与效果
本实施例的三维模型动作迁移方法,对于提供动作的动作三维网格模型,设计一个多层的参数共享的卷积网络,用于提取动作三维网格模型的动作特征;对于提供体态的体态三维网格模型,设计一种利用空间适应性实例标准化的解码器,基于提取出的动作特征对体态三维网格模型进行迁移;在此框架下构建一个端到端的动作特征神经网络的框架,可以对于给定的体态三维网格模型和动作三维网格模型,将动作三维网格模型的动作迁移到体态三维网格模型上,输出对应的动作体态三维网格模型,该方法不需要任何额外的信息辅助、对于各种体态模型均有很好的生成效果、同时对于点的排列顺序打乱与噪音有着很强的鲁棒性。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。

Claims (6)

1.一种三维模型动作迁移方法,用于将动作三维网格模型的动作迁移到体态三维网格模型上,从而获得具有新动作的动作体态三维网格模型,其特征在于,包括如下步骤:
步骤S1,根据预先获取的三维模型数据生成所述动作网格模型、所述体态网格模型以及迁移为新动作的所述动作体态模型作为真实值用于训练动作迁移神经网络;
步骤S2,构建特征编码网络作为动作特征提取器提取所述动作三维网格模型的动作特征;
步骤S3,构建特征迁移神经网络作为解码器基于提取的所述动作特征对所述体态三维网格模型进行迁移操作,从而获得形变后的所述动作体态模型;
步骤S4,构建一个端到端的所述动作迁移神经网络的框架,即给定体态三维网格模型,动作三维网格模型,将动作三维网格模型的动作通过动作特征编码网络获得动作特征,通过基于空间适应性实例标准化方法的解码器将动作迁移到体态三维网格模型上,输出体态模型转换动作后的三维网格模型;
步骤S5,构建损失函数;
步骤S6,基于所述损失函数训练所述动作迁移神经网络,
其中,所述动作迁移神经网络包括所述动作特征编码网络以及基于空间适应性实例标准化方法的所述特征迁移神经网络。
2.根据权利要求1所述的三维模型动作迁移方法,其特征在于,所述步骤S1的具体过程如下:
利用SMPL模型生成所述三维模型数据,控制所述SMPL模型中的动作参数生成不同动作的三维网格模型作为所述动作网格模型,控制所述SMPL模型中的体态参数生成不同体态的三维网格模型作为所述体态三维网格模型,利用所述SMPL模型的动作参数与体态参数生成转换动作后的体态模型作为训练所述动作迁移神经网络所需要的对应的所述动作体态模型作为真实值。
3.根据权利要求1所述的三维模型动作迁移方法,其特征在于:
其中,所述特征编码网络为一个三层的参数共享的卷积网络,该卷积网络的每个卷积层后使用一层实例标准化层以及一层修正线性单元ReLU作为激活函数,
所述特征编码网络的输入为所述动作网格模型,输出为编码后的所述动作特征的矩阵。
4.根据权利要求1所述的三维模型动作迁移方法,其特征在于:
其中,所述特征迁移神经网络为一个四层的卷积网络,该卷积网络前三层卷积层后各跟随一个空间适应性实例标准化残差模块,
每个空间适应性实例标准化残差模块遵循残差网络模块的结构,所述残差网络模块具有三个单元,每个单元包括一个空间适应性实例标准化结构、一个卷积网络以及激活函数,
每个空间适应性实例标准化结构是由所述体态三维网格模型分别通过一层卷积层获得标准化所需要的权重和偏移,将所述权重与输入的特征相乘并与所述偏移量相加后输出,进一步通过一层卷积层和tanh激活函数得到输出的所述动作体态三维网格模型。
5.根据权利要求1所述的三维模型动作迁移方法,其特征在于,所述步骤S5的具体过程如下:
采用二范数欧几里得距离作为损失函数回归网格模型中每个顶点的空间坐标,使其接近真实坐标,
采用边长正则化使得迁移后的所述动作体态三维网格模型所有边尽可能短并且均匀,从而使得表面更加光滑。
6.根据权利要求1所述的三维模型动作迁移方法,其特征在于,所述步骤S6的具体过程如下:
将所述动作网格三维模型和所述体态三维网格模型作为所述动作迁移神经网络的输入,得到该动作迁移神经网络输出的具有新动作的所述动作体态三维网格模型,
根据经过所述动作迁移神经网络获得的所述动作体态三维网格模型以及步骤S1中作为真实值的所述动作体态三维网格模型利用所述损失函数计算损失值,
根据所述损失值利用反向传播算法以及梯度下降算法训练所述动作迁移神经网络。
CN202010630438.3A 2020-06-30 2020-06-30 三维模型动作迁移方法 Pending CN113870431A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010630438.3A CN113870431A (zh) 2020-06-30 2020-06-30 三维模型动作迁移方法
US17/016,943 US11455776B2 (en) 2020-06-30 2020-09-10 Network and system for neural pose transfer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010630438.3A CN113870431A (zh) 2020-06-30 2020-06-30 三维模型动作迁移方法

Publications (1)

Publication Number Publication Date
CN113870431A true CN113870431A (zh) 2021-12-31

Family

ID=78982054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010630438.3A Pending CN113870431A (zh) 2020-06-30 2020-06-30 三维模型动作迁移方法

Country Status (2)

Country Link
US (1) US11455776B2 (zh)
CN (1) CN113870431A (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220086049A (ko) * 2020-12-16 2022-06-23 삼성전자주식회사 영상 처리 방법, 영상 처리 장치, 및 영상 처리를 위한 트레이닝 방법
CN114333069B (zh) * 2022-03-03 2022-05-17 腾讯科技(深圳)有限公司 对象的姿态处理方法、装置、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020097731A1 (en) * 2018-11-15 2020-05-22 Elmoznino Eric System and method for augmented reality using conditional cycle-consistent generative image-to-image translation models
EP3973459A1 (en) * 2019-05-23 2022-03-30 DeepMind Technologies Limited Generative adversarial networks with temporal and spatial discriminators for efficient video generation
US20210097691A1 (en) * 2019-09-30 2021-04-01 Nvidia Corporation Image generation using one or more neural networks
US20230053618A1 (en) * 2020-02-07 2023-02-23 Deepmind Technologies Limited Recurrent unit for generating or processing a sequence of images

Also Published As

Publication number Publication date
US20210407200A1 (en) 2021-12-30
US11455776B2 (en) 2022-09-27

Similar Documents

Publication Publication Date Title
JP6127219B2 (ja) 顔画像のデータから顔特徴を抽出する方法、およびシステム
CN113870431A (zh) 三维模型动作迁移方法
CN110188866B (zh) 一种基于注意力机制的特征提取方法
CN112837215B (zh) 一种基于生成对抗网络的图像形状变换方法
CN111204476A (zh) 一种基于强化学习的视触融合精细操作方法
CN112164130B (zh) 基于深度对抗网络的视频-动画风格迁移方法
CN109919085A (zh) 基于轻量型卷积神经网络的人人交互行为识别方法
CN114581502A (zh) 基于单目图像的三维人体模型联合重建方法、电子设备及存储介质
CN110516724A (zh) 可视化作战场景的高性能多层字典学习特征图像处理方法
CN111709270B (zh) 一种基于深度图像的三维外形恢复和姿态估计方法和装置
CN113989283B (zh) 3d人体姿态估计方法、装置、电子设备与存储介质
CN114840927B (zh) 一种基于任务文本分析的模块化航天器智能重构系统
CN113255569B (zh) 一种基于图空洞卷积编码器解码器的3d姿态估计方法
CN115983148A (zh) 一种cfd仿真云图预测方法、系统、电子设备及介质
CN115294265A (zh) 基于图骨架注意力利用二维人体姿态重建三维人体网格的方法和系统
CN111985532A (zh) 一种场景级上下文感知的情感识别深度网络方法
CN106778558B (zh) 一种基于深度分类网络的面部年龄估计方法
Cheng et al. Solving monocular sensors depth prediction using MLP-based architecture and multi-scale inverse attention
WO2021223674A1 (en) Bioprinted living tissue with therapy capability
CN114743123A (zh) 一种基于隐函数三维表示和图神经网络的场景理解方法
Buonamente et al. Recognizing actions with the associative self-organizing map
CN112036546A (zh) 序列处理方法及相关设备
CN112232106B (zh) 一种二维到三维人体姿态估计方法
CN111401141B (zh) 一种基于骨架的3d手势估计方法
CN112668545B (zh) 一种基于人体树状网络和不同激活域值的姿态估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination