CN113434918B - 一种基于文本的三维体素模型生成方法 - Google Patents

一种基于文本的三维体素模型生成方法 Download PDF

Info

Publication number
CN113434918B
CN113434918B CN202110717686.6A CN202110717686A CN113434918B CN 113434918 B CN113434918 B CN 113434918B CN 202110717686 A CN202110717686 A CN 202110717686A CN 113434918 B CN113434918 B CN 113434918B
Authority
CN
China
Prior art keywords
model
text
dimensional voxel
discriminator
voxel model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110717686.6A
Other languages
English (en)
Other versions
CN113434918A (zh
Inventor
余月
杨越
李博闻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202110717686.6A priority Critical patent/CN113434918B/zh
Publication of CN113434918A publication Critical patent/CN113434918A/zh
Application granted granted Critical
Publication of CN113434918B publication Critical patent/CN113434918B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Generation (AREA)

Abstract

本发明公开的一种基于文本的三维体素模型生成方法,属于从文本到三维体素模型的跨模态生成领域。本发明通过文本编码器将自然语言处理为计算机能够理解的文本向量;通过条件生成对抗网络框架使生成器获得生成匹配文本描述模型的能力;通过重建模型标签的判别器,指导生成器训练生成更为精致的模型;通过使生成器在不同阶段生成不同分辨率下的三维体素模型,将三维体素模型传递给不同阶段的判别器,并对其结果进行联合训练,使生成器能够应对高分辨率模型生成任务且生成模型更精致;通过在高分辨率模型判别器中加入局部判别器提升其处理高数据量及模型细节能力,提升三维体素模型生成结果的精致度和分辨率。本发明具有适用性广、生成效果好的优点。

Description

一种基于文本的三维体素模型生成方法
技术领域
本发明涉及一种基于文本生成彩色三维体素模型的方法,属于从文本到三维体素模型的跨模态生成领域。
背景技术
近年来,随着计算机技术的高速发展,计算机图形学及虚拟现实等技术在生产生活中越发普及,三维模型的应用场景大幅增加,人们对于彩色三维模型的制作需求也随之大幅提升,其在生产生活中具有十分大量的应用场景,如3D游戏,家具设计,设计型教育资源可视化等。然而现阶段的三维模型制作工作高度依赖于CAD等模型构建工具及制造者的建模能力,这种能力在社会中并不普及,人们也没有能力对其进行批量生产,这导致了生产三维模型这一工作十分低效。如何利用现有的三维模型数据集,训练出可以自动化建模的三维模型构建工具已经成为了一个重要的研究方向。
目前的基于文本的三维模型获取方法通常为关键词检索法,但这种检索的方式的缺点也十分明显。其准确度过分的依赖于标签的准确度以及标注方法的准确度上,且数据标注过程中产生的错误会在后续的数据标注中被放大。其次,此方法需要大量的模型数据来支持,并且无法自由的根据需求操作模型且生成结果只能是已存在的模型,在需要有创造性的工作中此方法将表现极差。
《Text2Shape》是第一篇提出基于文本的三维模型生成解决方案的论文。该文首次在基于文本的三位彩色体素模型生成任务上提出了一种解决方案。此论文首先以联合嵌入的方法对文本描述和彩色三维模型进行训练来获得一种文本编码方案。其作者将此Wasserstein-GAN相结合,实现了从文本中生成彩色的三维模型的目的。此论文是第一个给出将自然语言文本与在颜色、纹理和形状细节上表现出丰富变化的真实三维对象相连接的方法的研究。
然而此研究目前还处于起步阶段,有着大量的问题需要被解决,其中有两个比较明显。所述两个问题分别为如何生成更加优质的模型以及如何保证模型优质的同时生成更高分辨率下的模型。
发明内容
针对生成的三维体素模型生成不够精致且分辨率较低的问题,本发明公开的一种基于文本的三维体素模型生成方法要解决的技术问题是:通过文本编码器将自然语言处理为计算机能够理解的文本向量;通过条件生成对抗网络框架使生成器获得生成匹配文本描述模型的能力;通过重建模型标签的判别器,指导生成器训练生成更为精致的模型;通过使生成器在不同阶段生成不同分辨率下的三维体素模型,将所述三维体素模型传递给不同阶段的判别器,并对其结果进行联合训练,使生成器能够应对高分辨率模型生成任务且生成模型更精致;通过在高分辨率模型判别器中加入局部判别器提升其处理高数据量及模型细节能力,提升三维体素模型生成结果的精致度和分辨率。本发明具有适用性广、生成效果好的优点。本发明将从文本生成的三维体素模型用于跨模态生成领域中,解决相关工程技术问题。
所述相关工程技术问题包括多媒体教育资源构建、三维体素模型编辑和计算机教学辅助。
本发明的目的是通过下述技术方案实现的。
本发明公开的一种基于文本的三维体素模型生成方法,通过文本编码器将自然语言处理为计算机能够理解的文本向量;通过条件生成对抗网络框架使生成器获得生成匹配文本描述模型的能力;通过重建模型标签的判别器,指导生成器训练生成更为精致的三维体素模型;通过使生成器在不同阶段生成不同分辨率下的三维体素模型,将所述三维体素模型传递给不同阶段的判别器,并对其结果进行联合训练,使生成器能够应对高分辨率模型生成任务且生成模型更精致;通过在高分辨率模型判别器中加入局部判别器提升其处理高数据量及模型细节能力,提升三维体素模型生成结果的精致度和分辨率。本发明具有适用性广、生成效果好的优点。本发明将从文本生成的三维体素模型用于跨模态生成领域中,解决相关工程技术问题。
本发明公开的一种基于文本的三维体素模型生成方法,包括如下步骤:
步骤一:将文本描述输入到语义编码器中得到文本和三维体素模型的联合语义特征,语义编码器由语义编码器架构中预训练得到的文本编码器实现。
通过引入三元组损失拉近相似文本的特征向量之间的距离,加大不相似文本的特征向量之间的距离,实现从文本中提取文本三维体素模型联合语义特征的训练。评价相似的准则是是否描述同一张三维体素模型,三元组损失的引入迫使文本编码器忽略文本表达形式的差异,从文本中提取出理想的文本三维体素模型联合特征。此编码器架构主要包含三个相同的文本编码器和一个三维体素模型编码器。通过使用{t1,t2,t3}作为文本编码器的输入,其中{t1,t2}是相同三维体素模型对应的不同文本,{t2,t3}是描述不同三维体素模型的两个文本。损失函数被定义为:
J=d(e1,e2)+max(α-d(e2,e3),0)
其中d(.)是通过计算两个特征的L2距离得到的,ei是文本ti的特征向量,超参数α被用来限制不相似文本向量之间的最小距离。通过最小化该损失函数,优化整个文本编码器架构。
当存在此三元组损失并不能充分利用一个批次中的其他数据的问题,在训练过程中,通过引入另一个三元组损失解决此问题。通过将模型调整为两个相同的文本编码器和一个三维体素模型编码器。给定一个真实三维体素模型集S和相对应的文本对集合T,其中
Figure BDA0003135556430000021
Figure BDA0003135556430000031
包含两个描述相同三维体素模型的不同文本。文本编码器采用T={T1,T2,...,TM}作为输入,每一个文本都有一个正样本对Tk。对于每个正样本对
Figure BDA0003135556430000032
来说,训练批次中其余文本对
Figure BDA0003135556430000033
中的任意文本与正样本对中的任意文本都互成负样本对。批次中每个文本都有一个正样本,有多个负样本。因此,为每个正样本对计算损失时,不仅需要拉近两个正样本之间的距离,同时需要考虑正样本对中的每一个样本产生的负样本对,通过最小距离阈值α将所述负样本对之间的距离推远。为每个正样本对(ti,tj)定义如下损失函数:
Ji,j=log(∑(i,m)∈N exp(α-di,m)+∑(j,n)∈N exp(α-dj,n))+max(δ,di,j)
其中N代表批次中的除该文本对以外的其余文本集合,超参数α代表不相似文本向量之间距离的最小阈值,di,j=||si–sj||2与d(.)含义相同。
在训练过程中,三维体素模型编码器会提取公共但无意义的三维体素模型特征,导致所有文本特征都映射到同一三维体素模型特征上。虽然所述满足配对的文本特征和三维体素模型特征相似的条件,但并不能证明文本编码器已得到一个理想的联合嵌入。通过引入一个环状损失函数,通过在当前得到的文本特征映射到配对的三维体素模型特征时,确保三维体素模型特征能够映射回文本特征。通过计算实际环形分布和理想分布之间的交叉熵来实现环形损失,实际环形分布被定义如下:
Figure BDA0003135556430000034
其中φ(.)表示文本编码器,ω(.)表示三维体素模型编码器,文本特征和三维体素模型特征有相同的维度。⊙代表向量之间的点击操作,Sts表示文本特征和三维体素模型特征之间的相似度,Sts转置得到Sst。环状损失函数被定义为:
Lc=H(Stst,T)
其中H(.)表示两个分布之间的交叉熵函数。此文本编码器的目的是保证提取出文本三维体素模型共享的语义特征,因此描述相同三维体素模型的两个文本对应的特征是相似的。理想情况下,从一个文本特征出发,映射到匹配的三维体素模型特征,再映射回文本特征,映射回相同类的文本特征的概率是相同的。
通过同时构建文本编码器和三维体素模型编码器,通过约束同一三维体素模型的不同描述经文本编码器后相似,以及文本编码结果向模型编码结果映射后再反向映射回来与原编码相似的方法,对文本编码器进行约束,获得能够建立文本与三维体素模型关系映射的文本编码器。
步骤二:通过条件生成对抗网络框架使生成器获得生成匹配文本描述三维体素模型的能力。
通过使用条件生成对抗网络,实现生成结果与文本匹配的目的。在生成器上,通过将输入的文本向量与噪声向量相结合,将结合后的向量作为生成器的输入,达到为生成对抗网络的生成器添加约束的目的。在判别器上,通过将三维体素模型与条件向量作为双输入传递给判别器的方法,使判别器能够为生成结果与模型的匹配程度做出评估。
在训练过程中,判别器需要处理两类错误,分别为生成的三维体素模型不够精致和生成的三维体素模型与文本向量不匹配。在训练过程中,通过将数据分为三组,协调训练的方式,达到分离上文所述两种错误源的目的,进而显著提升训练速度与训练效果。所述三组数据分别为生成数据组、匹配的真实数据组和不匹配的真实数据组。生成数据组包含由生成器生成的三维体素模型与输入的文本,此组数据使用下标fake表示;匹配的真实数据组包含数据集中的三维体素模型数据及与此数据相匹配的文本,此组数据使用下标match表示;不匹配的真实数据组包含数据集中的三维体素模型数据及与此数据不相匹配的文本此组数据使用下标mismatch表示。网络使用如下公式作为训练的损失函数。
Figure BDA0003135556430000041
在此公式中f()为判别器网络,S为输入的三维体素模型,T为输入的文本,其中最后一项为偏置,
Figure BDA0003135556430000042
为随机混合的真假数据,此部分用于保证生成对抗网络的Lipschiz连续的条件。在训练中生成器尽可能的使此公式结果变小,判别器尽可能的使此公式的结果变大,通过达成对抗提升生成器的生成效果,使生成器获得生成匹配文本描述三维体素模型的能力。
步骤三:通过重建模型标签的判别器,指导生成器训练生成更为精致的三维体素模型。
类别标签带有三维体素模型的大量信息,使用类别标签训练可以帮助网络理解文本信息,并且通过重建分类标签能够监督网络提升三维体素模型的生成效果。
通过为判别器增加辅助分类器,达到为判别器增加标签重建功能的目的。改进后的判别器网络以三维体素模型和文本向量为输入,此判别器实现两个功能,包括对模型真伪的判别及对模型类别标签的重建,此模型以判别结果与重建的类别标签为输出。此判别器首先通过一段卷积神经网络提取特征,在此之后分别将此段特征传递给类标签重建网络和模型真伪判别网络中去。类标签重建网络以模型特征为输入生成模型类别标签,模型真伪判别网络以模型特征及文本向量为输入生成对模型真伪及模型与文本匹配程度的判别结果。
在生成对抗网络的训练过程中,同时进行对分类器的训练。通过同时将生成器的生城结果与数据集中的数据作为输入来训练分类器,能够使分类器的训练速度与生成对抗网络同步,达到更好的引导的效果。将分类器对生成的三维体素模型的分类结果与真实标签进行匹配计算梯度传递给生成器可辅助生成器的训练。所述过程的损失函数如下式所示。
Lc=E[logP(C=c|Xreal)]+E[logP(C=c|Xfake)]
公式中C代表生成的标签即为重建的标签,X代表真实的标签,生成器和判别器共同努力达到使此公式值更小的目的。
通过计算生成的标签C与真实的标签X的差异引导生成器训练,即通过判别器重建标签引导生成器训练,达到生成更为精致的三维体素模型的目的。
步骤四:通过使生成器在不同阶段生成不同分辨率下的三维体素模型,将所述三维模型传递给不同阶段的判别器,并对其结果进行联合训练,使生成器能够应对高分辨率模型生成任务且生成三维体素模型更精致。
在生成高分辨率三维体素模型的任务中,数据量随模型分辨率提高而提高,拟合难度也随之提升。通过构建级联的生成对抗网络,同时生成多个不同分辨率下的结果,再使用多个不同分辨率下的判别器结合真实数据对生成结果进行评判,通过将所述评估结果进行综合并作为损失函数计算梯度,实现在生成器网络的不同部分对其添加约束的功能,实现同时对生成器的中间及结尾添加约束的目的。其过程表示为如下公式。
Figure BDA0003135556430000051
此公式中fi表示第i个判别器,此公式综合所有分辨率下判别器对其对应的三维体素模型生成结果的评估,使生成器能够应对高分辨率模型生成任务且生成三维体素模型更精致。
步骤五:通过在高分辨率模型判别器中加入局部判别器提升其处理高数据量及模型细节能力,提升三维体素模型生成结果的精致度和分辨率。
在高分辨率模型的判别器中,分辨率提高的同时三维体素模型的纹理细节增多,采用原判别器会导致部分局部细节被忽略,网络无法达到最好的效果,原有的方法只能对整体进行评估。通过引入拒不判别器的方案,在原判别器网络的基础上添设新的局部判别器,该判别器只针对于判断模型的局部细节并将其反馈给生成器用于其对生成模型细节任务的训练。由于同时只处理模型的一小部分,此网络在能够应对高分辨率模型带来的高数据量问题与高分辨率模型被高度压缩所导致的模型特征不能充分的描述模型的问题。其过程表示为如下公式。
Figure BDA0003135556430000052
此公式中,
Figure BDA0003135556430000053
代表模型的局部,此处通过将模型各个部分判别结果的平均值作为损失训练,此系统获得了处理局部细节特征的能力。在实际训练中,判别器尽可能使此公式值更大而生成器尽可能使此公式值缩小。
改进后的高分辨率判别器神经网络以三维体素模型和文本向量为输入,此判别器实现三个功能,包括对模型整体真伪的判别,对模型局部真伪的判别及对模型类别标签的重建,此模型以对模型整体及局部的判别结果与重建的类别标签为输出。此判别器首先通过一段卷积神经网络提取特征,在此之后分别将此段特征传递给类标签重建网络和模型真伪判别网络中去。类标签重建网络以模型特征为输入生城模型类别标签,模型真伪判别网络以模型特征及文本向量为输入生成对三维体素模型真伪及三维体素模型与文本匹配程度的判别结果。通过在高分辨率模型判别器中加入局部判别器使得生成对抗网络具备处理三维体素模型细节的能力,使生成的高分辨率三维体素模型在局部细节上更逼真,提升三维体素模型生成结果的精致度和分辨率。
还包括步骤六:将从文本生成的三维体素模型用于跨模态生成领域中,解决相关工程技术问题。
所述相关工程技术问题包括多媒体教育资源构建、三维体素模型编辑和计算机教学辅助。
有益效果:
1、本发明公开的一种基于文本的三维体素模型生成方法,通过文本编码器将自然语言处理为计算机能够理解的文本向量,通过条件生成对抗网络框架使生成器获得生成匹配文本描述模型的能力。
2、本发明公开的一种基于文本的三维体素模型生成方法,通过在判别器中加设分类器,给予判别器重建模型标签的能力,通过将重建后的标签与真实标签进行比对的方法,提出一种新的损失函数,通过在生成器和判别器中分别加此损失,实现使生成更加优质更符合模型在自然界中的真实样貌的三维体素模型的能力。
3、本发明公开的一种基于文本的三维体素模型生成方法,通过使生成器在不同阶段生成不同分辨率下的三维体素模型,将所述三维模型传递给不同阶段的判别器,并对其结果进行联合训练,使生成器能够应对高分辨率模型生成任务且生成三维体素模型更精致。
4、本发明公开的一种基于文本的三维体素模型生成方法,通过在高分辨率判别器中加设分支实现局部判别,进而实现使生成的三维体素模型更精细且能生成高分辨率三维体素模型的能力。
附图说明
图1本发明的一种基于文本的三维体素模型生成方法步骤一到步骤二流程示意图;
图2本发明的一种基于文本的三维体素模型生成方法到步骤二成果展示图;
图3本发明的一种基于文本的三维体素模型生成方法步骤一到步骤三流程示意图
图4本发明的一种基于文本的三维体素模型生成方法到步骤三成果展示图;
图5本发明的一种基于文本的三维体素模型生成方法的流程示意图
图6本发明的一种基于文本的三维体素模型生成方法的成果展示图;
具体实施方式
为了更好的说明本发明的目的和优点,下面结合附图和实例对发明内容做进一步说明。
如图5所示,本实施例公开的一种基于文本的三维体素模型生成方法,具体实现步骤如下:
步骤一:将文本描述输入到语义编码器中得到文本和三维体素模型的联合语义特征,语义编码器由语义编码器架构中预训练得到的文本编码器实现。
为构建文本编码器,本发明同时构建文本编码器和三维体素模型编码器,通过约束同一三维体素模型的不同描述经文本编码器后相似,以及文本编码结果向模型编码结果映射后再反向映射回来与原编码相似的方法,对文本编码器进行约束,获得一个能够建立文本与三维体素模型关系映射的文本编码器。
通过引入三元组损失拉近相似文本的特征向量之间的距离,加大不相似文本的特征向量之间的距离,实现从文本中提取文本三维体素模型联合语义特征的训练。评价相似的准则是是否描述同一张三维体素模型,三元组损失的引入迫使文本编码器忽略文本表达形式的差异,从文本中提取出理想的文本三维体素模型联合特征。此编码器架构主要包含三个相同的文本编码器和一个三维体素模型编码器。通过使用{t1,t2,t3}作为文本编码器的输入,其中{t1,t2}是相同三维体素模型对应的不同文本,{t2,t3}是描述不同三维体素模型的两个文本。损失函数被定义为:
J=d(e1,e2)+max(α-d(e2,e3),0)
其中d(.)是通过计算两个特征的L2距离得到的,ei是文本ti的特征向量,超参数α被用来限制不相似文本向量之间的最小距离。通过最小化该损失函数,优化整个文本编码器架构。
当存在此三元组损失并不能充分利用一个批次中的其他数据的问题,在训练过程中,通过引入另一个三元组损失解决此问题。通过将模型调整为两个相同的文本编码器和一个三维体素模型编码器。给定一个真实三维体素模型集S和相对应的文本对集合T,其中
Figure BDA0003135556430000071
Figure BDA0003135556430000072
包含两个描述相同三维体素模型的不同文本。文本编码器采用T={T1,T2,...,TM}作为输入,每一个文本都有一个正样本对Tk。对于每个正样本对
Figure BDA0003135556430000073
来说,训练批次中其余文本对
Figure BDA0003135556430000074
中的任意文本与正样本对中的任意文本都互成负样本对。批次中每个文本都有一个正样本,有多个负样本。因此,为每个正样本对计算损失时,不仅需要拉近两个正样本之间的距离,同时需要考虑正样本对中的每一个样本产生的负样本对,通过最小距离阈值α将这些负样本对之间的距离推远。为每个正样本对(ti,tj)定义如下损失函数:
Ji,j=log(∑(i,m)∈N exp(α-di,m)+∑(j,n)∈N exp(α-dj,n))+max(δ,di,j)
其中N代表批次中的除该文本对以外的其余文本集合,超参数α代表不相似文本向量之间距离的最小阈值,di,j=||si–sj||2与d(.)含义相同。
在训练过程中,三维体素模型编码器会提取公共但无意义的三维体素模型特征,导致所有文本特征都映射到同一三维体素模型特征上。虽然所述满足配对的文本特征和三维体素模型特征相似的条件,但并不能证明文本编码器已得到一个理想的联合嵌入。通过引入一个环状损失函数,通过在当前得到的文本特征映射到配对的三维体素模型特征时,确保三维体素模型特征能够映射回文本特征。通过计算实际环形分布和理想分布之间的交叉熵来实现环形损失,实际环形分布被定义如下:
Figure BDA0003135556430000081
其中φ(.)表示文本编码器,ω(.)表示三维体素模型编码器,文本特征和三维体素模型特征有相同的维度。⊙代表向量之间的点击操作,Sts表示文本特征和三维体素模型特征之间的相似度,Sts转置得到Sst。环状损失函数被定义为:
Lc=H(Stst,T)
其中H(.)表示两个分布之间的交叉熵函数。此文本编码器的目的是保证提取出文本三维体素模型共享的语义特征,因此描述相同三维体素模型的两个文本对应的特征是相似的。理想情况下,从一个文本特征出发,映射到匹配的三维体素模型特征,再映射回文本特征,映射回相同类的文本特征的概率是相同的。
通过同时构建文本编码器和三维体素模型编码器,通过约束同一三维体素模型的不同描述经文本编码器后相似,以及文本编码结果向模型编码结果映射后再反向映射回来与原编码相似的方法,对文本编码器进行约束,获得一个可以建立文本与三维体素模型关系映射的文本编码器。
如图1所示,步骤二:通过条件生成对抗网络框架使生成器获得生成匹配文本描述三维体素模型的能力。
通过使用条件生成对抗网络,实现生成结果与文本匹配的目的。在生成器上,通过将输入的文本向量与噪声向量相结合,将结合后的向量作为生成器的输入,达到为生成对抗网络的生成器添加约束的目的。在判别器上,通过将三维体素模型与条件向量作为双输入传递给判别器的方法,使判别器能够为生成结果与模型的匹配程度做出评估。
在训练过程中,判别器需要处理两类错误,分别为生成的三维体素模型不够精致和生成的三维体素模型与文本向量不匹配。在训练过程中,通过将数据分为三组,协调训练的方式,达到分离上文所述两种错误源的目的,进而显著提升训练速度与训练效果。所述三组数据分别为生成数据组、匹配的真实数据组和不匹配的真实数据组。生成数据组包含由生成器生成的三维体素模型与输入的文本,此组数据使用下标fake表示;匹配的真实数据组包含数据集中的三维体素模型数据及与此数据相匹配的文本,此组数据使用下标match表示;不匹配的真实数据组包含数据集中的三维体素模型数据及与此数据不相匹配的文本此组数据使用下标mismatch表示。网络使用如下公式作为训练的损失函数。
Figure BDA0003135556430000082
在此公式中f()为判别器网络,S为输入的三维体素模型,T为输入的文本,其中最后一项为偏置,
Figure BDA0003135556430000091
为随机混合的真假数据,此部分用于保证生成对抗网络的Lipschiz连续的条件。在训练中生成器尽可能的使此公式结果变小,判别器尽可能的使此公式的结果变大,通过达成对抗提升生成器的生成效果,使生成器获得生成匹配文本描述三维体素模型的能力。
图2为到步骤二生成效果图。
如图3所示,步骤三:通过重建模型标签的判别器,指导生成器训练生成更为精致的三维体素模型。
类别标签带有三维体素模型的大量信息,使用类别标签训练可以帮助网络理解文本信息,并且通过重建分类标签能够监督网络提升三维体素模型的生成效果。
通过为判别器增加辅助分类器,达到为判别器增加标签重建功能的目的。改进后的判别器网络以三维体素模型和文本向量为输入,此判别器实现两个功能,包括对模型真伪的判别及对模型类别标签的重建,此模型以判别结果与重建的类别标签为输出。此判别器首先通过一段卷积神经网络提取特征,在此之后分别将此段特征传递给类标签重建网络和模型真伪判别网络中去。类标签重建网络以模型特征为输入生成模型类别标签,模型真伪判别网络以模型特征及文本向量为输入生成对模型真伪及模型与文本匹配程度的判别结果。
在生成对抗网络的训练过程中,同时进行对分类器的训练。通过同时将生成器的生城结果与数据集中的数据作为输入来训练分类器,能够使分类器的训练速度与生成对抗网络同步,达到更好的引导的效果。将分类器对生成的三维体素模型的分类结果与真实标签进行匹配计算梯度传递给生成器可辅助生成器的训练。所述过程的损失函数如下式所示。
Lc=E[logP(C=c|Xreal)]+E[logP(C=c|Xfake)]
公式中C代表生成的标签即为重建的标签,X代表真实的标签,生成器和判别器共同努力达到使此公式值更小的目的。
通过计算生成的标签C与真实的标签X的差异引导生成器训练,即通过判别器重建标签引导生成器训练,达到生成更为精致的三维体素模型的目的。
图4为到此步骤时的效果图。
步骤四:通过使生成器在不同阶段生成不同分辨率下的三维体素模型,将所述三维模型传递给不同阶段的判别器,并对其结果进行联合训练,使生成器能够应对高分辨率模型生成任务且生成三维体素模型更精致。
在生成高分辨率三维体素模型的任务中,数据量随模型分辨率提高而提高,拟合难度也随之提升。通过构建级联的生成对抗网络,同时生成多个不同分辨率下的结果,再使用多个不同分辨率下的判别器结合真实数据对生成结果进行评判,通过将所述评估结果进行综合并作为损失函数计算梯度,实现在生成器网络的不同部分对其添加约束的功能,实现同时对生成器的中间及结尾添加约束的目的。其过程表示为如下公式。
Figure BDA0003135556430000101
此公式中fi表示第i个判别器,此公式综合所有分辨率下判别器对其对应的三维体素模型生成结果的评估,使生成器能够应对高分辨率模型生成任务且生成三维体素模型更精致。
步骤五:通过在高分辨率模型判别器中加入局部判别器提升其处理高数据量及模型细节能力,提升三维体素模型生成结果的精致度和分辨率。
在高分辨率模型的判别器中,分辨率提高的同时三维体素模型的纹理细节增多,采用原判别器会导致部分局部细节被忽略,网络无法达到最好的效果,原有的方法只能对整体进行评估。通过引入拒不判别器的方案,在原判别器网络的基础上添设新的局部判别器,该判别器只针对于判断模型的局部细节并将其反馈给生成器用于其对生成模型细节任务的训练。由于同时只处理模型的一小部分,此网络在能够应对高分辨率模型带来的高数据量问题与高分辨率模型被高度压缩所导致的模型特征不能充分的描述模型的问题。其过程表示为如下公式。
Figure BDA0003135556430000102
此公式中,
Figure BDA0003135556430000103
代表模型的局部,此处通过将模型各个部分判别结果的平均值作为损失训练,此系统获得了处理局部细节特征的能力。在实际训练中,判别器尽可能使此公式值更大而生成器尽可能使此公式值缩小。
改进后的高分辨率判别器神经网络以三维体素模型和文本向量为输入,此判别器实现三个功能,包括对模型整体真伪的判别,对模型局部真伪的判别及对模型类别标签的重建,此模型以对模型整体及局部的判别结果与重建的类别标签为输出。此判别器首先通过一段卷积神经网络提取特征,在此之后分别将此段特征传递给类标签重建网络和模型真伪判别网络中去。类标签重建网络以模型特征为输入生城模型类别标签,模型真伪判别网络以模型特征及文本向量为输入生成对三维体素模型真伪及三维体素模型与文本匹配程度的判别结果。通过在高分辨率模型判别器中加入局部判别器使得生成对抗网络具备处理三维体素模型细节的能力,使生成的高分辨率三维体素模型在局部细节上更逼真,提升三维体素模型生成结果的精致度和分辨率,生成效果图如图6所示。
步骤六:将从文本生成的三维体素模型用于跨模态生成领域中,解决相关工程技术问题。
所述相关工程技术问题包括多媒体教育资源构建、三维体素模型编辑和计算机教学辅助。
以上所述的具体描述,对发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于文本的三维体素模型生成方法,其特征在于:包括如下步骤,
步骤一:将文本描述输入到语义编码器中得到文本和三维体素模型的联合语义特征,语义编码器由语义编码器架构中预训练得到的文本编码器实现;
步骤二:通过条件生成对抗网络框架使生成器获得生成匹配文本来描述三维体素模型的能力;
步骤三:通过重建模型标签的判别器,指导生成器训练生成更为精致的三维体素模型;
步骤四:通过使生成器在不同阶段生成不同分辨率下的三维体素模型,将所述三维体素模型传递给不同阶段的判别器,并对其结果进行联合训练,使生成器能够应对高分辨率模型生成任务且生成三维体素模型更精致;
步骤四实现方法为,
在生成高分辨率三维体素模型的任务中,数据量随模型分辨率提高而提高,拟合难度也随之提升;通过构建级联的生成对抗网络,同时生成多个不同分辨率下的结果,再使用多个不同分辨率下的判别器结合真实数据对生成结果进行评判,通过将所述评判结果进行综合并作为损失函数计算梯度,实现在生成器网络的不同部分对其添加约束的功能,实现同时对生成器的中间及结尾添加约束的目的;其过程表示为如下公式;
Figure FDA0003823351530000011
此公式中fi表示第i个判别器,此公式综合所有分辨率下判别器对其对应的三维体素模型生成结果的评估,使生成器能够应对高分辨率模型生成任务且生成三维体素模型更精致;
步骤五:通过在高分辨率模型判别器中加入局部判别器提升其处理高数据量及模型细节能力,提升三维体素模型生成结果的精致度和分辨率;
步骤五实现方法为,
在高分辨率模型的判别器中,分辨率提高的同时三维体素模型的纹理细节增多,采用原判别器会导致部分局部细节被忽略,网络无法达到最好的效果,原有的方法只能对整体进行评估;通过引入局部判别器的方案,在原判别器网络的基础上添设新的局部判别器,该判别器只针对于判断模型的局部细节并将其反馈给生成器用于其对生成模型细节任务的训练;由于同时只处理模型的一小部分,此网络在能够应对高分辨率模型带来的高数据量问题与高分辨率模型被高度压缩所导致的模型特征不能充分地描述模型的问题;其过程表示为如下公式;
Figure FDA0003823351530000012
此公式中,
Figure FDA0003823351530000013
代表模型的局部,此处通过将模型各个部分判别结果的平均值作为损失训练,此系统获得处理局部细节特征的能力;在实际训练中,判别器尽可能使此公式值更大而生成器尽可能使此公式值缩小;
改进后的高分辨率判别器神经网络以三维体素模型和文本向量为输入,此判别器实现三个功能,包括对模型整体真伪的判别,对模型局部真伪的判别及对模型类别标签的重建,以对模型整体及局部的判别结果与重建的类别标签为输出;此判别器首先通过一段卷积神经网络提取特征,在此之后分别将提取的特征传递给类标签重建网络和模型真伪判别网络中去;类标签重建网络以模型特征为输入生成模型类别标签,模型真伪判别网络以模型特征及文本向量为输入生成对三维体素模型真伪及三维体素模型与文本匹配程度的判别结果;通过在高分辨率模型判别器中加入局部判别器使得生成对抗网络具备处理三维体素模型细节的能力,使生成的高分辨率三维体素模型在局部细节上更逼真,提升三维体素模型生成结果的精致度和分辨率。
2.如权利要求1所述的一种基于文本的三维体素模型生成方法,其特征在于:还包括步骤六,将从文本生成的三维体素模型用于跨模态生成领域中,解决相关工程技术问题;
所述相关工程技术问题包括多媒体教育资源构建、三维体素模型编辑和计算机教学辅助。
3.如权利要求1或2所述的一种基于文本的三维体素模型生成方法,其特征在于:步骤一实现方法为,
通过引入三元组损失拉近相似文本的特征向量之间的距离,加大不相似文本的特征向量之间的距离,实现从文本中提取文本三维体素模型联合语义特征的训练;评价相似的准则是是否描述同一张三维体素模型,三元组损失的引入迫使文本编码器忽略文本表达形式的差异,从文本中提取出理想的文本三维体素模型联合特征;此编码器架构主要包含三个相同的文本编码器和一个三维体素模型编码器;通过使用{t1,t2,t3}作为文本编码器的输入,其中{t1,t2}是相同三维体素模型对应的不同文本,{t2,t3}是描述不同三维体素模型的两个文本;损失函数被定义为:
J=d(e1,e2)+max(α-d(e2,e3),0)
其中d(.)是通过计算两个特征的L2距离得到的,ei是文本ti的特征向量,超参数α被用来限制不相似文本向量之间的最小距离;通过最小化该损失函数,优化整个文本编码器架构;
当存在此三元组损失并不能充分利用一个批次中的其他数据的问题,在训练过程中,通过引入另一个三元组损失解决此问题;通过将模型调整为两个相同的文本编码器和一个三维体素模型编码器;给定一个真实三维体素模型集S和相对应的文本对集合T,其中
Figure FDA0003823351530000021
Figure FDA0003823351530000022
包含两个描述相同三维体素模型的不同文本;文本编码器采用T={T1,T2,...,TM}作为输入,每一个文本都有一个正样本对Tk;对于每个正样本对
Figure FDA0003823351530000023
来说,训练批次中其余文本对
Figure FDA0003823351530000024
中的任意文本与正样本对中的任意文本都互成负样本对;批次中每个文本都有一个正样本,有多个负样本;因此,为每个正样本对计算损失时,不仅需要拉近两个正样本之间的距离,同时需要考虑正样本对中的每一个样本产生的负样本对,通过最小距离阈值α将所述负样本对之间的距离推远;为每个正样本对(ti,tj)定义如下损失函数:
Ji,j=log(∑(i,m)∈N exp(α-di,m)+∑(j,n)∈N exp(α-dj,n))+max(δ,di,j)
其中N代表批次中的除该文本对以外的其余文本集合,超参数α代表不相似文本向量之间距离的最小阈值,di,j=||si-sj||2与d(.)含义相同;
在训练过程中,三维体素模型编码器会提取公共但无意义的三维体素模型特征,导致所有文本特征都映射到同一三维体素模型特征上;虽然满足配对的文本特征和三维体素模型特征相似的条件,但并不能证明文本编码器已得到一个理想的联合嵌入;通过引入一个环状损失函数,通过在当前得到的文本特征映射到配对的三维体素模型特征时,确保三维体素模型特征能够映射回文本特征;通过计算实际环形分布和理想分布之间的交叉熵来实现环形损失,实际环形分布被定义如下:
Figure FDA0003823351530000031
其中φ(.)表示文本编码器,ω(.)表示三维体素模型编码器,文本特征和三维体素模型特征有相同的维度;⊙代表向量之间的点积操作,Sts表示文本特征和三维体素模型特征之间的相似度,Sts转置得到Sst;环状损失函数被定义为:
Lc=H(Stst,T)
其中H(.)表示两个分布之间的交叉熵函数;此文本编码器的目的是保证提取出文本三维体素模型共享的语义特征,因此描述相同三维体素模型的两个文本对应的特征是相似的;理想情况下,从一个文本特征出发,映射到匹配的三维体素模型特征,再映射回文本特征,映射回相同类的文本特征的概率是相同的;
通过同时构建文本编码器和三维体素模型编码器,通过约束同一三维体素模型的不同描述经文本编码器后相似,以及文本编码结果向模型编码结果映射后再反向映射回来与原编码相似的方法,对文本编码器进行约束,获得能够建立文本与三维体素模型关系映射的文本编码器。
4.如权利要求3所述的一种基于文本的三维体素模型生成方法,其特征在于:步骤二实现方法为,
通过使用条件生成对抗网络,实现生成结果与文本匹配的目的;在生成器上,通过将输入的文本向量与噪声向量相结合,将结合后的向量作为生成器的输入,达到为生成对抗网络的生成器添加约束的目的;在判别器上,通过将三维体素模型与条件向量作为双输入传递给判别器的方法,使判别器能够为生成结果与模型的匹配程度做出评估;
在训练过程中,判别器需要处理两类错误,分别为生成的三维体素模型不够精致和生成的三维体素模型与文本向量不匹配;在训练过程中,通过将数据分为三组,协调训练的方式,达到分离上文所述两类错误的目的,进而显著提升训练速度与训练效果;所述三组数据分别为生成数据组、匹配的真实数据组和不匹配的真实数据组;生成数据组包含由生成器生成的三维体素模型与输入的文本,此组数据使用下标fake表示;匹配的真实数据组包含数据集中的三维体素模型数据及与此数据相匹配的文本,此组数据使用下标match表示;不匹配的真实数据组包含数据集中的三维体素模型数据及与此数据不相匹配的文本,此组数据使用下标mismatch表示;网络使用如下公式作为训练的损失函数;
Figure FDA0003823351530000041
在此公式中f()为判别器网络,S为输入的三维体素模型,T为输入的文本,其中最后一项为偏置,
Figure FDA0003823351530000042
为随机混合的真假数据,此部分用于保证生成对抗网络的Lipschiz连续的条件;在训练中生成器尽可能的使此公式结果变小,判别器尽可能的使此公式的结果变大,通过达成对抗提升生成器的生成效果,使生成器获得生成匹配文本来描述三维体素模型的能力。
5.如权利要求4所述的一种基于文本的三维体素模型生成方法,其特征在于:步骤三实现方法为,
类别标签带有三维体素模型的大量信息,使用类别标签训练可以帮助网络理解文本信息,并且通过重建分类标签能够监督网络提升三维体素模型的生成效果;
通过为判别器增加辅助分类器,达到为判别器增加标签重建功能的目的;改进后的判别器网络以三维体素模型和文本向量为输入,此判别器实现两个功能,包括对模型真伪的判别及对模型类别标签的重建,模型以判别结果与重建的类别标签为输出;此判别器首先通过一段卷积神经网络提取特征,在此之后分别将提取的特征传递给类标签重建网络和模型真伪判别网络中去;类标签重建网络以模型特征为输入生成模型类别标签,模型真伪判别网络以模型特征及文本向量为输入生成对模型真伪及模型与文本匹配程度的判别结果;
在生成对抗网络的训练过程中,同时进行对分类器的训练;通过同时将生成器的生成结果与数据集中的数据作为输入来训练分类器,能够使分类器的训练速度与生成对抗网络同步,达到更好的引导的效果;将分类器对生成的三维体素模型的分类结果与真实标签进行匹配计算梯度传递给生成器能够辅助生成器的训练;所述过程的损失函数如下式所示;
Lc=E[logP(C=c|Xreal)]+E[logP(C=c|Xfake)]
公式中C代表生成的标签即为重建的标签,X代表真实的标签,生成器和判别器共同努力达到使此公式值更小的目的;
通过计算生成的标签C与真实的标签X的差异引导生成器训练,即通过判别器重建标签引导生成器训练,达到生成更为精致的三维体素模型的目的。
CN202110717686.6A 2021-06-28 2021-06-28 一种基于文本的三维体素模型生成方法 Active CN113434918B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110717686.6A CN113434918B (zh) 2021-06-28 2021-06-28 一种基于文本的三维体素模型生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110717686.6A CN113434918B (zh) 2021-06-28 2021-06-28 一种基于文本的三维体素模型生成方法

Publications (2)

Publication Number Publication Date
CN113434918A CN113434918A (zh) 2021-09-24
CN113434918B true CN113434918B (zh) 2022-12-02

Family

ID=77754892

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110717686.6A Active CN113434918B (zh) 2021-06-28 2021-06-28 一种基于文本的三维体素模型生成方法

Country Status (1)

Country Link
CN (1) CN113434918B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115238591B (zh) * 2022-08-12 2022-12-27 杭州国辰智企科技有限公司 动态参数校验与驱动cad自动建模引擎系统
CN116502548B (zh) * 2023-06-29 2023-09-15 湖北工业大学 一种基于深度学习的三维玩具设计方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390638A (zh) * 2019-07-22 2019-10-29 北京工商大学 一种高分辨率三维体素模型重建方法
CN111968193A (zh) * 2020-07-28 2020-11-20 西安工程大学 一种基于StackGAN网络的文本生成图像方法
CN112765316A (zh) * 2021-01-19 2021-05-07 东南大学 一种引入胶囊网络的文本生成图像方法及装置
CN112818646A (zh) * 2021-02-26 2021-05-18 南京邮电大学 基于生成对抗网络和动态编辑模块的根据文本编辑图片的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993825B (zh) * 2019-03-11 2023-06-20 北京工业大学 一种基于深度学习的三维重建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390638A (zh) * 2019-07-22 2019-10-29 北京工商大学 一种高分辨率三维体素模型重建方法
CN111968193A (zh) * 2020-07-28 2020-11-20 西安工程大学 一种基于StackGAN网络的文本生成图像方法
CN112765316A (zh) * 2021-01-19 2021-05-07 东南大学 一种引入胶囊网络的文本生成图像方法及装置
CN112818646A (zh) * 2021-02-26 2021-05-18 南京邮电大学 基于生成对抗网络和动态编辑模块的根据文本编辑图片的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Joint Embedding based Text-to-Image Synthesis;Menglan Wang 等;《2020 IEEE 32nd International Conference on Tools with Artificial Intelligence (ICTAI)》;20201111;第1-5页 *
LBWGAN: Label Based Shape Synthesis From Text With WGANs;Bowen Li 等;《2020 International Conference on Virtual Reality and Visualization (ICVRV)》;20201114;第1-6页 *
生成对抗网络图像类别标签跨模态识别系统设计;刘尚争等;《现代电子技术》;20200415(第08期);全文 *

Also Published As

Publication number Publication date
CN113434918A (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN111581405B (zh) 基于对偶学习生成对抗网络的跨模态泛化零样本检索方法
CN113434918B (zh) 一种基于文本的三维体素模型生成方法
CN110600047B (zh) 基于Perceptual STARGAN的多对多说话人转换方法
CN113140020B (zh) 一种基于伴随监督生成对抗网络的文本生成图像的方法
CN109800768B (zh) 半监督gan的散列特征表示学习方法
CN115311463B (zh) 类别引导多尺度解耦的海洋遥感图像文本检索方法及系统
CN113096242A (zh) 虚拟主播生成方法、装置、电子设备及存储介质
CN116737759A (zh) 一种基于关系感知注意力的中文查询生成sql语句方法
CN111914555A (zh) 基于Transformer结构的自动化关系抽取系统
CN113239961A (zh) 基于生成对抗网络的文本生成序列图像的方法
CN116580202A (zh) 一种基于改进U-net网络的乳腺医学图像分割方法
CN110570484B (zh) 一种图像解耦表征下的文本指导图像上色方法
Ouyang et al. Generating image sequence from description with LSTM conditional GAN
CN116721176B (zh) 一种基于clip监督的文本到人脸图像生成方法及装置
CN117058266B (zh) 一种基于骨架和轮廓的书法字生成方法
CN117671764A (zh) 基于Transformer的动态说话人脸图像生成系统及方法
CN114022582A (zh) 一种文本生成图像方法
CN116561325B (zh) 一种多语言融媒体文本情感分析方法
CN116958700A (zh) 一种基于提示工程和对比学习的图像分类方法
Ji et al. Text-to-image generation via semi-supervised training
CN114358006A (zh) 基于知识图谱的文本内容摘要生成方法
CN113076421A (zh) 一种社交噪音文本实体关系抽取优化方法及系统
CN113434669A (zh) 一种基于序列标记策略的自然语言关系抽取方法
Xiao et al. SeCG: Semantic-Enhanced 3D Visual Grounding via Cross-modal Graph Attention
Chen et al. Human-centric parsing network for human-object interaction detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant