CN116805046A - 一种基于文本标签生成3d人体动作的方法 - Google Patents

一种基于文本标签生成3d人体动作的方法 Download PDF

Info

Publication number
CN116805046A
CN116805046A CN202311046495.7A CN202311046495A CN116805046A CN 116805046 A CN116805046 A CN 116805046A CN 202311046495 A CN202311046495 A CN 202311046495A CN 116805046 A CN116805046 A CN 116805046A
Authority
CN
China
Prior art keywords
text
motion
action
sub
gaussian distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311046495.7A
Other languages
English (en)
Other versions
CN116805046B (zh
Inventor
杜小勤
周佳爽
刘咏琪
文吾琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Textile University
Original Assignee
Wuhan Textile University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Textile University filed Critical Wuhan Textile University
Priority to CN202311046495.7A priority Critical patent/CN116805046B/zh
Publication of CN116805046A publication Critical patent/CN116805046A/zh
Application granted granted Critical
Publication of CN116805046B publication Critical patent/CN116805046B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于文本标签生成3D人体动作的方法。本发明构建了一个新的概率图模型,并得到一个含有标签重构项、数据重构项以及高斯混合KL散度的损失函数;通过引入Fisher距离使得不同子分布之间相互解耦、互不纠缠;使用大规模文本预训练模型序列化文本标签,以达到丰富文本语义注入的目的,使得文本语义信息表述更加接近真实语言环境;使用TransformerUnet网络结构增加模型的稳定性。本发明解决了由于变分下界建模不准确导致生成数据与真实数据区别较大的问题,由于高斯混合分布相互干扰,生成动作不可控的问题;由于训练的标签数据不充足,导致文本语义信息注入不准确的问题。

Description

一种基于文本标签生成3D人体动作的方法
技术领域
本发明涉及技术领域为自然语言处理和基于深度学习的3D人体动作生成技术,具体来说,涉及了一种文本标签驱动的3D人体动作生成方法。
背景技术
在当前的计算机视觉和机器学习领域,实现高质量和真实性的3D人体动作生成一直是一个具有挑战性的问题。传统的方法往往受限于姿态估计的准确性和数据的丰富性,导致生成的动作缺乏自然性和语义一致性。
传统的3D人体动作生成方法在生成质量和真实性方面存在一定的局限性。
通过直接编码文本标签的方法会由于文本标签的数据量不足、自身蕴含的语义信息并不明确,导致从文本标签中提取得到的语义信息不足;将文本编码按照one-hot向量编码的方式忽略了文本标签自身蕴含的语义信息,在生成的动作上会造成语义信息不匹配的问题。现有的基于高斯混合模型的算法往往只是通过提取若干子高斯分布并进行线性混合的方式得到最终的高斯混合分布,并没有对子高斯分布进行限制,这使得通过高斯混合分布采样的结果受到不同子分布的相互影响,可控性差。
发明内容
为提升3D人体动作生成的质量和真实性,通过文本标签驱动的方法使得生成过程更加可控,解决现有方法中生成数据与真实数据的差异较大、高斯混合分布中子分布相互干扰以及标签数据不充足导致的文本语义信息不充分等问题。
为实现上述目的,按照本发明的一个方面,提供了一种文本标签驱动的3D人体动作生成方法,包括如下步骤:
步骤1,收集人体动作数据,并为每一个动作数据添加一个动作标签;
步骤2,对动作标签构成的集合进行预处理,得到动作标签对应的初始文本特征;
步骤3,构造以高斯混合模型和Transformer-Unet为基础的生成模型,所述生成模型包括:动作编码器、文本编码器/>以及动作解码器/>
所述文本编码器对初始文本特征编码之后,得到文本特征/>
所述动作编码器由全连接网络和Transformer模块构成,用于对采集的动作数据/>进行编码,并将编码结果输入的动作解码器/>得到预测的动作序列/>
步骤4,构造损失函数,通过损失函数以及反向传播约束生成模型的训练,利用训练好的生成模型生成人体动作序列。
进一步的,步骤2中将所有的动作标签构成的集合称之为,使用大规模文本预训练模型扩写动作标签,得到与标签对应的复杂文本集合记作/>,其中/>存在一一对应关系;随后再次使用大规模文本预训练模型对复杂文本集合/>进行编码,得到初始文本特征集合/>,其中/>存在一一对应关系,/>称之为初始文本特征。
进一步的,所述大规模文本预训练模型为GPT-3或GPT-4模型。
进一步的,文本编码器由/>层Transformer模块和/>层全连接网络构成,最终输出的结果为一个长度为/>的特征向量:
其中表示初始文本特征向量。
进一步的,动作编码器由/>层Transformer模块和3层的全连接网络构成,最终输出四个结果,分别为层次化特征编码/>,/>个子高斯分布的均值/>、方差/>以及权重向量/>, 其中/>表示第/>个高斯分布的均值和方差,此时构建得到一个均值为/>,方差为/>的高斯混合分布,从高斯混合分布中采样得到隐变量/>,将文本特征/>与隐变量/>拼接得到隐变量/>,以及层次化特征编码作为动作解码器的输入,动作解码器输出的结果为预测的动作序列/>
具体的:在动作编码器中,第层的Transformer模块输出层次化特征编码/>;Transformer模块最后一层的输出作为全连接网络的输入,将全连接网络的输入手动划分为/>的三部分,第一部分表示子高斯分布的权重/>,后面两个部分分别表示K个均值向量/>与K个方差向量/>;动作编码器表示为:
其中表示原始的动作序列,/>表示第/>层编码器计算得到的下采样特征,/>为一个长度为K的向量,表示高斯子高斯分布的权重,/>表示子高斯分布的均值与方差组成的均值矩阵与方差矩阵。
进一步的,动作解码器由层改进Transformer模块以及1层全连接网络构成,改进Transformer模块的注意力机制计算如下:
其中,表示当前训练轮次除以总训练轮次,/>表示全零向量加位置编码,此处的位置编码同标准的Transformer一样,使用正余弦函数生成;/>表示第/>个改进Transformer模块的输出,Z表示从高斯混合分布中采样得到的隐变量,/>表示隐变量的维度;Softmax函数表示归一化指数函数,其计算公式为:
其中,表示第i个节点的输出值,C为输出节点的个数,即分类的类别个数;
最后一层Transformer模块的输出,经过全连接网络,最后改变形状为的张量,即为生成的3D人体动作/>,在生成的人体动作之后,跟着一个由若干层Transformer网络构建的动作分类网络,最终输出为一个动作分类标签/>
进一步的,步骤4中的损失函数的构建过程如下;
首先构造概率图模型,由动作数据,子高斯分布的权重系数/>,子高斯分布/>,动作特征向量/>,文本特征向量/>以及预测标签/>构成,根据生成过程,动作特征向量/>在子高斯分布的权重系数/>和子高斯分布/>的条件下生成;动作数据/>由动作特征向量/>,文本特征向量/>联合生成;预测标签/>通过动作数据/>生成,因此由概率图模型的因式分解以及贝叶斯公式可以得到整个概率图模型的联合概率分布可以分解为若干条件概率的乘积:
、/>、/>服从标准高斯分布;
在变分阶段,子高斯分布的权重系数由动作数据/>,文本特征向量/>联合生成;子高斯分布/>以及子高斯分布的权重系数/>通过动作数据/>以及文本特征向量/>联合求解得到,动作特征向量/>通过子高斯分布/>以及子高斯分布的权重系数/>联合求解得到;变分阶段的概率图联合概率分布也可以分解为若干条件概率的乘积:
服从高斯分布,高斯分布的均值与方差通过生成模型计算得到;
由标准VAE的损失函数推导过程得到变分下界,其表达式如下:
共由五项组成,分别表示为动作重构项/>,标签重构项/>,w先验项/>,Z先验项/>以及条件先验项;动作重构项在动作数据集上选择为均方误差损失函数;标签重构项选择为交叉熵损失函数;其中/>表示计算分布/>与分布/>的KL散度;w先验项、Z先验项以及条件先验项根据高斯分布与标准高斯分布的KL散度解析形式进行直接求解;/>表示期望;
Fisher正则化项的计算方法为:
其中表示求矩阵A的迹,定义类内距离为/>,类间距离为,其中/>为动作编码器部分求得的子分布的权重、均值与方差,K表示子分布个数,每个子高斯分布的采样数量/>相同;
最终的损失函数表示为:
进一步的,KL散度解析形式表达式为:
其中表示均值为/>,方差为/>的高斯分布;
,条件先验项的计算可以表示为:
其中表示第/>个子高斯分布,/>表示第/>个子高斯分布。
进一步的,步骤4中利用训练好的生成模型生成人体动作序列的具体实现方式如下;
从训练好的高斯混合分布中采样得到动作特征向量,将文本标签依次经过大文本预训练模型得到复杂文本描述,再次使用大文本预训练模型得到初始文本特征,经过文本编码器编码之后得到文本特征向量/>,将文本特征/>与/>动作特征拼接以及层次化特征编码/>作为动作解码器的输入,动作解码器输出的结果为预测的动作序列/>,此时动作解码器的注意力机制计算为:
其中表示全零向量加上位置编码。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)构建了一个新的概率图模型,从这个概率图模型推导得到的损失函数包含标签重构项、数据重构项、w先验项、z先验项以及条件先验项五部分,以提高生成数据与真实数据的一致性。
(2)利用LMM语言预训练模型序列化文本标签,丰富文本语义注入,使生成结果更接近真实语言环境。
(3)引入Fisher距离,使不同子高斯分布之间相互解耦、互不纠缠,增强生成动作的可控性。
(4)结合Transformer-Unet网络结构,增加了模型的稳定性和生成结果的准确性。
(5)本发明技术的应用前景广阔,可以推动计算机视觉和深度学习领域在人体动作生成方面的研究和应用。
附图说明
图1为本发明的数据处理流程图。
图2为本发明构建的概率图模型,左图为生成概率图结构,右图为变分概率图结构。
图3为本发明实施的网络结构图。
图4为本发明实施例在HumanAct13数据集最终生成的3D人体动作。
具体实施方式
下面结合附图及实施例对本发明进一步说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
在自言语言处理领域,生成模型可用于自然语言生成、机器翻译、对话系统等方面;在图像处理领域,生成模型可以用于图像生成、视频生成、数据增强、等方面;其实际的应用场景还包括音乐生成和创意设计等。3D人体动画生成能够增强交互、改善沟通、提升视觉效果、拓展应用领域,在实际场景中应用广泛,但是手工制作耗时长、成本高,半自动化制作软件发展不成熟,本发明聚焦于文本标签生成3D人体骨骼动画,有着丰富的应用场景与研究意义。
如图1所示,是实施例提供的一种高斯混合模型和Transformer-Unet为基础的3D人体骨骼动作生成的流程图,包括如下步骤:
步骤(1),人体动作—文本数据集的准备:收集包含人体动作的数据集,人体动作数据的数量为,采集的人体关节点数为/>,每一个动作序列都包括连续/>帧动作,且每个关节点信息包括相较于根关节点的三维坐标,动作数据/>可以表示以一个/>的四维张量;为每一个动作添加一个动作标签/>,标签内容为:跑、跳、后空翻等与此类似的简单动作标签。
步骤(2),数据预处理:将所有的动作标签构成的集合,称之为,使用大规模文本预训练模型,例如GPT-3、GPT-4扩写文本标签,得到与标签对应的复杂文本集合记作/>,其中/>存在一一对应关系;随后再次使用大规模文本预训练模型对复杂文本集合/>进行编码,得到初始文本特征集合/>,其中/>存在一一对应关系,/>称之为初始文本特征。
步骤(3),构造以高斯混合模型和Transformer-Unet为基础的生成模型,该模型包括:动作编码器、文本编码器/>以及动作解码器/>。通过文本编码器对初始文本特征编码之后,得到文本特征向量/>;动作编码器对采集的动作数据/>进行编码,得到四个结果,分别为层次化特征编码/>,/>个子高斯分布的均值/>、方差以及权重向量/>, 其中/>表示第/>个高斯分布的均值和方差。此时构建一个均值为/>,方差为/>的高斯混合分布,从高斯混合分布中采样得到动作特征向量/>,将文本特征向量/>与动作特征向量/>拼接,以及层次化特征编码/>作为动作解码器的输入,动作解码器输出的结果为预测的动作序列/>
步骤(3a),构建文本编码器:文本编码器由/>层Transformer模块和3层全连接网络构成,最终输出的结果为文本特征向量:
其中表示初始文本特征向量。
步骤(3b),构建动作编码器:动作编码器由/>层Transformer模块和三层全连接网络构成。在动作编码器中,第/>层的Transformer模块输出层次化特征编码/>;Transformer模块最后一层的输出作为全连接层的输入,将全连接神经网络的输入手动划分为/>的三部分,第一部分表示子高斯分布的权重/>,后面两个部分分别表示K个均值/>与K个方差/>。动作编码器可以表示为:
其中表示原始的动作序列,/>表示第/>层Transformer模块计算得到的下采样特征,/>为一个长度为K的向量,表示高斯混合模型中子高斯分布的权重,表示子高斯分布的均值与方差组成的均值矩阵与方差矩阵。
步骤(3c),构建动作解码器:动作解码器由/>层改进Transformer模块以及一层全连接神经网络构成。改进Transformer模块的注意力机制计算如下:
其中,表示当前训练轮次除以总训练轮次;/>表示全零向量加位置编码,此处的位置编码同标准的Transformer一样,使用正余弦函数生成;/>表示第/>个改进Transformer模块的输出;从高斯混合分布中采样得到的隐变量Z; Softmax函数表示归一化指数函数,其计算公式为:
其中,表示第i个节点的输出值,C为输出节点的个数,即分类的类别个数。
最后一层Transformer模块的输出经过一层连接神经网络。最后改变形状为的张量,即为生成的3D人体动作/>。在生成的人体动作之后,跟着一个由2层Transformer网络构建的动作分类网络,最终输出为一个动作分类标签/>
步骤(4),构造损失函数,通过损失函数以及反向传播约束步骤(3)构建的神经网络的训练;按照变量计算的顺序构造如图2所示的概率图模型,由动作数据,子高斯分布的权重系数/>,子高斯分布/>,动作特征向量/>,文本特征向量/>以及预测标签/>构成。根据生成过程,动作特征向量/>在子高斯分布的权重系数/>和子高斯分布/>的条件下生成;动作数据/>由动作特征向量/>,文本特征向量/>联合生成;预测标签/>通过动作数据/>生成。因此由概率图模型的因式分解以及贝叶斯公式可以得到整个概率图模型的联合概率分布可以分解为若干条件概率的乘积:
在本实例中,、/>、/>服从标准高斯分布;此处不需要考虑和/>,在计算损失函数的时候两者会分别退化为均方误差损失和交叉熵损失。
在变分阶段,子高斯分布的权重系数由动作数据/>,文本特征向量/>联合生成;子高斯分布/>以及子高斯分布的权重系数/>通过动作数据/>以及文本特征向量/>联合求解得到,动作特征向量/>通过子高斯分布/>以及子高斯分布的权重系数/>联合求解得到。变分阶段的概率图联合概率分布也可以分解为若干条件概率的乘积:
在本实例中,假设服从高斯分布,高斯分布的均值与方差通过神经网络计算得到。在实现中, p(*)相关的概率都相当于是真实概率,q(*)相关的概率都是神经网络计算得到的概率,VAE的基本思想就是通过神经网络拟合q尽可能的接近于p,并且完成生成任务。
由标准VAE的损失函数推导过程可以得到变分下界(ELBO):
上式中表示求分布/>的期望。最终的损失函数共由五项组成,分别表示为动作重构项(/>),标签重构项 (/>),w先验项(/>),Z先验项(/>)以及条件先验项(/>)。动作重构项在动作数据集上选择为均方误差损失函数;标签重构项选择为交叉熵损失函数。其中表示计算分布/>与分布/>的KL散度。w先验项、Z先验项以及条件先验项可以根据高斯分布与标准高斯分布的KL散度解析形式进行直接求解,其解析表达式为:
其中表示均值为/>,方差为/>的高斯分布。/>,条件先验项的计算可以表示为:
其中表示第/>个子高斯分布,/>表示第/>个子高斯分布。
步骤(4b),Fisher正则化项:为使得不同子分布的样本点尽可能的远离、单一子分布的样本尽可能的聚合,使子分布的权重对子分布有着更好的控制效果,这里使用类内距离与类间距离的比值作为正则项控制子分布之间相互独立。定义类内距离为,类间距离为/>,其中/>为动作编码器部分求得的子分布的权重、均值与方差。Fisher正则化项的计算方法为:
其中表示求矩阵A的迹,K表示子分布个数,每个子高斯分布的采样数量/>相同。
最终的损失函数表示为:
步骤(5),如图3所示,推理过程为:从训练好的高斯混合分布中采样得到动作特征向量。将文本标签依次经过大文本预训练模型得到复杂文本描述,再使用大文本预训练模型得到初始文本特征,经过文本编码器编码之后得到文本特征向量/>;将文本特征向量与动作特征向量/>拼接以及层次化特征编码/>作为动作解码器的输入,动作解码器输出的结果为预测的动作序列/>,此时动作解码器的注意力机制计算为:
其中表示全零向量加上位置编码。
按照上述方案,在HumanAct13数据集上的生成如图4所示,每一行表示同一文本标签生成的5个不同的动作,从图中可以看到生成的动作与描述的文本基本一致,且动作多样性高。
以上所述仅为本发明的具体实施例,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于文本标签生成3D人体动作的方法,其特征在于,包括如下步骤:
步骤1,收集人体动作数据,并为每一个动作数据添加一个动作标签;
步骤2,对动作标签构成的集合进行预处理,得到动作标签对应的初始文本特征;
步骤3,构造以高斯混合模型和Transformer-Unet为基础的生成模型,所述生成模型包括:动作编码器、文本编码器/>以及动作解码器/>
所述文本编码器对初始文本特征编码之后,得到文本特征/>
所述动作编码器由全连接网络和Transformer模块构成,用于对采集的动作数据/>进行编码,并将编码结果输入的动作解码器/>得到预测的动作序列/>
步骤4,构造损失函数,通过损失函数以及反向传播约束生成模型的训练,利用训练好的生成模型生成人体动作序列。
2.如权利要求1所述的一种基于文本标签生成3D人体动作的方法,其特征在于:步骤2中将所有的动作标签构成的集合称之为,使用大规模文本预训练模型扩写动作标签,得到与标签对应的复杂文本集合记作/>,其中/>存在一一对应关系;随后再次使用大规模文本预训练模型对复杂文本集合/>进行编码,得到初始文本特征集合/>,其中/>存在一一对应关系,/>称之为初始文本特征。
3.如权利要求2所述的一种基于文本标签生成3D人体动作的方法,其特征在于:所述大规模文本预训练模型为GPT-3或GPT-4模型。
4.如权利要求1所述的一种基于文本标签生成3D人体动作的方法,其特征在于:文本编码器由/>层Transformer模块和/>层全连接网络构成,最终输出的结果为一个长度为的特征向量:
其中表示初始文本特征向量。
5.如权利要求1所述的一种基于文本标签生成3D人体动作的方法,其特征在于:动作编码器由/>层Transformer模块和3层的全连接网络构成,最终输出四个结果,分别为层次化特征编码/>,/>个子高斯分布的均值/>、方差/>以及权重向量/>, 其中/>表示第/>个高斯分布的均值和方差,此时构建得到一个均值为/>,方差为/>的高斯混合分布,从高斯混合分布中采样得到隐变量/>,将文本特征/>与隐变量/>拼接得到隐变量/>,以及层次化特征编码/>作为动作解码器的输入,动作解码器输出的结果为预测的动作序列/>
具体的:在动作编码器中,第层的Transformer模块输出层次化特征编码/>;Transformer模块最后一层的输出作为全连接网络的输入,将全连接网络的输入手动划分为/>的三部分,第一部分表示子高斯分布的权重/>,后面两个部分分别表示K个均值向量/>与K个方差向量/>;动作编码器表示为:
其中表示原始的动作序列,/>表示第/>层编码器计算得到的下采样特征,/>为一个长度为K的向量,表示高斯子高斯分布的权重,/>表示子高斯分布的均值与方差组成的均值矩阵与方差矩阵。
6.如权利要求1所述的一种基于文本标签生成3D人体动作的方法,其特征在于:动作解码器由层改进Transformer模块以及1层全连接网络构成,改进Transformer模块的注意力机制计算如下:
其中,表示当前训练轮次除以总训练轮次,/>表示全零向量加位置编码,此处的位置编码同标准的Transformer一样,使用正余弦函数生成;/>表示第/>个改进Transformer模块的输出,Z表示从高斯混合分布中采样得到的隐变量,/>表示隐变量的维度;Softmax函数表示归一化指数函数,其计算公式为:
其中,表示第i个节点的输出值,C为输出节点的个数,即分类的类别个数;
最后一层Transformer模块的输出,经过全连接网络,最后改变形状为的张量,即为生成的3D人体动作/>;在生成的人体动作之后,跟着一个由2层Transformer网络构建的动作分类网络,最终输出为一个动作分类标签/>
7.如权利要求1所述的一种基于文本标签生成3D人体动作的方法,其特征在于:步骤4中的损失函数的构建过程如下;
首先构造概率图模型,由动作数据,子高斯分布的权重系数/>,子高斯分布/>,动作特征向量/>,文本特征向量/>以及预测标签/>构成,根据生成过程,动作特征向量/>在子高斯分布的权重系数/>和子高斯分布/>的条件下生成;动作数据/>由动作特征向量/>,文本特征向量/>联合生成;预测标签/>通过动作数据/>生成,因此由概率图模型的因式分解以及贝叶斯公式可以得到整个概率图模型的联合概率分布可以分解为若干条件概率的乘积:
、/>、/>服从标准高斯分布;
在变分阶段,子高斯分布的权重系数由动作数据/>,文本特征向量/>联合生成;子高斯分布/>以及子高斯分布的权重系数/>通过动作数据/>以及文本特征向量/>联合求解得到,动作特征向量/>通过子高斯分布/>以及子高斯分布的权重系数/>联合求解得到;变分阶段的概率图联合概率分布也可以分解为若干条件概率的乘积:
服从高斯分布,高斯分布的均值与方差通过生成模型计算得到;
由标准VAE的损失函数推导过程得到变分下界,其表达式如下:
共由五项组成,分别表示为动作重构项/>,标签重构项/>,w先验项/>,Z先验项/>以及条件先验项;动作重构项在动作数据集上选择为均方误差损失函数;标签重构项选择为交叉熵损失函数;其中/>表示计算分布/>与分布/>的KL散度;w先验项、Z先验项以及条件先验项根据高斯分布与标准高斯分布的KL散度解析形式进行直接求解;/>表示期望;
Fisher正则化项的计算方法为:
其中表示求矩阵A的迹,定义类内距离为/>,类间距离为,其中/>为动作编码器部分求得的子分布的权重、均值与方差,K表示子分布个数,每个子高斯分布的采样数量/>相同;
最终的损失函数表示为:
8.如权利要求7所述的一种基于文本标签生成3D人体动作的方法,其特征在于:KL散度解析形式表达式为:
其中表示均值为/>,方差为/>的高斯分布;
,条件先验项的计算可以表示为:
其中表示第/>个子高斯分布,/>表示第/>个子高斯分布。
9.如权利要求6所述的一种基于文本标签生成3D人体动作的方法,其特征在于:步骤4中利用训练好的生成模型生成人体动作序列的具体实现方式如下;
从训练好的高斯混合分布中采样得到动作特征向量,将文本标签依次经过大文本预训练模型得到复杂文本描述,再次使用大文本预训练模型得到初始文本特征,经过文本编码器编码之后得到文本特征向量/>,将文本特征
与/>动作特征拼接以及层次化特征编码/>作为动作解码器的输入,动作解码器输出的结果为预测的动作序列/>,此时动作解码器的注意力机制计算为:
其中表示全零向量加上位置编码。
CN202311046495.7A 2023-08-18 2023-08-18 一种基于文本标签生成3d人体动作的方法 Active CN116805046B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311046495.7A CN116805046B (zh) 2023-08-18 2023-08-18 一种基于文本标签生成3d人体动作的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311046495.7A CN116805046B (zh) 2023-08-18 2023-08-18 一种基于文本标签生成3d人体动作的方法

Publications (2)

Publication Number Publication Date
CN116805046A true CN116805046A (zh) 2023-09-26
CN116805046B CN116805046B (zh) 2023-12-01

Family

ID=88080829

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311046495.7A Active CN116805046B (zh) 2023-08-18 2023-08-18 一种基于文本标签生成3d人体动作的方法

Country Status (1)

Country Link
CN (1) CN116805046B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3608874A1 (en) * 2018-08-07 2020-02-12 Samsung Electronics Co., Ltd. Ego motion estimation method and apparatus
CN113750523A (zh) * 2021-04-19 2021-12-07 腾讯科技(深圳)有限公司 三维虚拟对象的动作生成方法、装置、设备及存储介质
WO2023142651A1 (zh) * 2022-01-25 2023-08-03 上海商汤智能科技有限公司 动作生成方法及相关装置、电子设备、存储介质和程序

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3608874A1 (en) * 2018-08-07 2020-02-12 Samsung Electronics Co., Ltd. Ego motion estimation method and apparatus
CN113750523A (zh) * 2021-04-19 2021-12-07 腾讯科技(深圳)有限公司 三维虚拟对象的动作生成方法、装置、设备及存储介质
WO2023142651A1 (zh) * 2022-01-25 2023-08-03 上海商汤智能科技有限公司 动作生成方法及相关装置、电子设备、存储介质和程序

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MINGYUAN ZHANG ET AL.: "MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model", ARXIV, pages 3 - 4 *
陈忠泽;黄国玉;: "基于正交立体图像的3D人体姿态重建算法", 计算机应用, no. 05 *

Also Published As

Publication number Publication date
CN116805046B (zh) 2023-12-01

Similar Documents

Publication Publication Date Title
Zhang et al. Text-to-image diffusion models in generative ai: A survey
Xu et al. Adversarially approximated autoencoder for image generation and manipulation
CN106971414B (zh) 一种基于深度循环神经网络算法的三维动画生成方法
Zhong et al. Generative adversarial networks with decoder–encoder output noises
CN113140020B (zh) 一种基于伴随监督生成对抗网络的文本生成图像的方法
CN117218498B (zh) 基于多模态编码器的多模态大语言模型训练方法及系统
Huang et al. Diffstyler: Controllable dual diffusion for text-driven image stylization
Ye et al. Audio-driven stylized gesture generation with flow-based model
Cheng et al. Play: Parametrically conditioned layout generation using latent diffusion
CN110069611A (zh) 一种主题增强的聊天机器人回复生成方法及装置
Foo et al. Ai-generated content (aigc) for various data modalities: A survey
Zhang et al. A survey on multimodal-guided visual content synthesis
Qiu et al. Semantic-visual guided transformer for few-shot class-incremental learning
Foo et al. Aigc for various data modalities: A survey
CN116805046B (zh) 一种基于文本标签生成3d人体动作的方法
CN114880527B (zh) 一种基于多预测任务的多模态知识图谱表示方法
Yang et al. Image synthesis under limited data: A survey and taxonomy
Zhou et al. Conditional generative adversarial networks for domain transfer: a survey
CN116485962A (zh) 一种基于对比学习的动画生成方法及系统
CN116484868A (zh) 一种基于生成扩散模型的跨域命名实体识别方法及装置
Metri et al. Image generation using generative adversarial networks
Guo Design and development of an intelligent rendering system for new year's paintings color based on b/s architecture
Rohilla et al. Portraits Editing using StyleGANs & Transfer Learning
CN117036862B (zh) 基于高斯混合变分自编码器的图像生成方法
CN115527216B (zh) 基于调制融合和生成对抗网络的文本生成图像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant