CN113781598B - 图像生成模型的训练方法和设备以及图像生成方法 - Google Patents
图像生成模型的训练方法和设备以及图像生成方法 Download PDFInfo
- Publication number
- CN113781598B CN113781598B CN202111238938.3A CN202111238938A CN113781598B CN 113781598 B CN113781598 B CN 113781598B CN 202111238938 A CN202111238938 A CN 202111238938A CN 113781598 B CN113781598 B CN 113781598B
- Authority
- CN
- China
- Prior art keywords
- image
- loss function
- sentence
- function value
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种图像生成模型的训练方法和设备以及图像生成方法,其中训练方法包括:基于样本数据中的图像描述文本生成句子向量和词向量;将初始高斯噪声输入模型的无条件对抗子网络生成第一图像;基于第一图像计算非条件对抗损失函数值;将第一图像和第一句子的句子向量输入模型的句子级别对抗子网络生成第二图像;基于第二图像和句子向量计算句子级别的条件对抗损失函数值;第一句子为图像描述文本对应的句子;将第二图像和第一句子的词向量,输入模型的词级别对抗子网络生成第三图像;基于第三图像、句子向量和词向量,计算词级别的条件对抗损失函数值;利用上述损失函数值对图像生成模型的参数更新。本申请可以保证生成图像与文本的一致性。
Description
技术领域
本发明涉及人工智能技术,特别是涉及一种图像生成模型的训练方法和设备以及图像生成方法。
背景技术
近年来,随着深度学习的发展进步,人们不在拘泥于单纯的研究图像、文本或是语音这样单一模态的研究,越来越多的注意力开始转向了多模态结合的领域。在多模态领域中,文本生成图像任务是指能够根据一个给定的文本描述,自动地生成一批符合此描述的虚拟图像。此任务要求生成模型能够充分的理解图像和文本的信息,并根据给定文本描述生成高质量的、符合文本描述的图像,是当下最热门的跨模态生成研究领域之一。
在基于文本生成图像时,保证生成图像与给定文本描述之间的一致性和提升生成图像质量是Text-to-Image任务的两个核心难点。
利用多层次堆积的对抗网络执行文本生成图像任务,是目前主流的基于文本生成图像的方案之一。该方案基于条件对抗网络的思想,通过使用多层叠加的对抗网络来逐层提升生成图像的质量。
发明人在实现本申请的过程中发现:现有的基于文本生成图像无法有效保证生成图像与文本间的一致性。具体原因如下:
在现有的多层次堆积生成网络方案所使用的模型中,每一层的判别器都需要同时承担两种判别任务,即判别器不仅需要判别生成图像是否符合文本描述,也需要评估生成图像与真实图像是否相似,而判断图像的真实性时希望模型能够对真实图像和生成图像进行准确区分,做一致判断时,是需要判断图像和文本之间的相似性,两者的目标不一致,从而不利于模型的训练;同时,仅在生成图像的过程中将图像与词向量进行融合,这将会导致在底层模型生成的图像质量不佳的情况下,无法有效地对图像进行修正。基于上述问题的存在,导致上述现有方案存在无法有效保证生成图像与文本间的一致性的问题。
发明内容
有鉴于此,本发明的主要目的在于提供一种图像生成模型的训练方法和设备以及图像生成方法,可以有效保证生成图像与文本间的一致性。
为了达到上述目的,本发明实施例提出的技术方案为:
一种图像生成模型的训练方法,包括:
获取样本数据,所述样本数据包括标准图像和图像描述文本;
基于所述图像描述文本,分别进行句子级别编码和词级别编码,得到相应的句子向量和词向量;
将初始高斯噪声,输入至图像生成模型的无条件对抗子网络进行图像生成,得到第一图像;基于所述第一图像和所述标准图像,利用第一判别器,计算非条件对抗损失函数值;
将所述第一图像和第一句子的句子向量,输入至所述图像生成模型的句子级别对抗子网络进行图像生成,得到第二图像;基于所述第二图像、所述第一句子的句子向量和所述标准图像,利用第二判别器,计算句子级别的条件对抗损失函数值;其中,所述第一句子为所述图像描述文本对应的句子;
将所述第二图像和所述第一句子中每个词的词向量,输入至所述图像生成模型的词级别对抗子网络进行图像生成,得到第三图像;基于所述第三图像、所述第一句子的句子向量和词向量以及所述标准图像,利用第三判别器,计算词级别的条件对抗损失函数值;
利用所述非条件对抗损失函数值、所述句子级别的条件对抗损失函数值和所述词级别的条件对抗损失函数值,对所述图像生成模型的参数进行更新。
较佳地,所述将初始高斯噪声,输入至图像生成模型的无条件对抗子网络进行图像生成包括:
对所述初始高斯噪声进行重构;
利用第一图像生成器,对所述重构的结果进行处理,得到所述第一图像。
较佳地,所述将所述第一图像和第一句子的句子向量,输入至所述图像生成模型的句子级别对抗子网络进行图像生成包括:
将所述句子向量融入所述第一图像的图像特征中;
利用第二图像生成器,对所述融入得到的图像特征进行处理,得到所述第二图像。
较佳地,所述将所述第二图像和所述第一句子中每个词的词向量,输入至所述图像生成模型的词级别对抗子网络进行图像生成包括:
将所述词向量融入所述第二图像的图像特征中;
利用第三图像生成器,对所述融入得到的图像特征进行处理,得到所述第三图像。
较佳地,所述非条件对抗损失函数值包括所述无条件对抗子网络中第一判别器的损失函数值和所述无条件对抗子网络中第一图像生成器的损失函数值;
所述基于所述第一图像和所述标准图像,利用第一判别器,计算非条件对抗损失函数值包括:
按照计算所述第一判别器的损失函数值/>其中,D()表示判别器输出的概率值;xt表示样本数据中的标准图像;x1表示第一图像;/>表示利用标准图像xt计算第一判别器的第一非条件对抗损失函数;/>表示利用从第一图像生成器G1中得到的第一图像x1计算第一判别器的第二非条件对抗损失函数;
较佳地,所述句子级别的条件对抗损失函数值包括所述句子级别对抗子网络中第二判别器的损失函数值和所述句子级别对抗子网络中第二图像生成器的总损失函数值;
所述基于所述第二图像、所述第一句子的句子向量和所述标准图像,利用第二判别器,计算句子级别的条件对抗损失函数值包括:
利用预设的图像编码器,对所述第二图像进行特征抽取,得到第二图像的图像特征;
按照计算所述第二判别器的损失函数值/>其中,D()表示判别器输出的概率值;xt表示样本数据中的标准图像;x2表示第二图像;/>表示利用标准图像xt和句子向量cs计算第二判别器的第一条件对抗损失函数;/>利用从第二图像生成器G2中得到的第二图像x2和句子向量cs计算第二判别器的第二条件对抗损失函数;
较佳地,所述词级别的条件对抗损失函数值包括所述词级别对抗子网络中第三判别器的损失函数值和所述词级别对抗子网络中第三图像生成器的总损失函数值;
所述基于所述第三图像、所述第一句子的句子向量和词向量以及所述标准图像,利用第三判别器,计算词级别的条件对抗损失函数值包括:
利用预设的图像编码器,对所述第三图像进行特征抽取,得到第三图像的图像特征和图像区域特征;
基于所述第三图像的图像特征和所述第一句子的句子向量,采用交叉熵损失计算方法,进行图文一致性判断,得到第二图文一致性损失函数值;
基于所述第三图像的图像区域特征和所述第一句子的词向量,采用交叉熵损失计算方法,进行图文一致性判断,得到第三图文一致性损失函数值;
基于所述第二图文一致性损失函数值和所述第三图文一致性损失函数值,计算第四图文一致性损失函数值LossCLIP_FT;
按照计算所述第三判别器的损失函数值/>其中,D()表示判别器输出的概率值;xt表示样本数据中的标准图像;x3表示第三图像;/>表示所述词向量的平均值;/>表示利用标准图像xt和词向量的平均值/>计算所述第三判别器的第一条件对抗损失函数;利用从第三图像生成器G3中得到的第三图像x3和词向量的平均值/>计算第三判别器的第二条件对抗损失函数;
较佳地,所述利用所述非条件对抗损失函数值、所述句子级别的条件对抗损失函数值和所述词级别的条件对抗损失函数值,对所述图像生成模型的参数进行更新包括:
利用所述非条件对抗损失函数值,对所述无条件对抗子网络中的参数进行更新;
利用所述句子级别的条件对抗损失函数值,对所述句子级别对抗子网络中的参数进行更新;
利用所述词级别的条件对抗损失函数值,对所述词级别对抗子网络中的参数进行更新。
本发明实施例还提供了一种图像生成方法,包括:
将图像描述文本,输入至预先训练的图像生成模型进行图像生成,得到所述图像描述文本对应的图像;
其中,所述图像生成模型基于上述任一训练方法得到。
本发明实施例还提供了一种图像生成模型的训练设备,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上所述图像生成模型的训练方法。
综上所述,本发明实施例提出的上述方案,先利用无条件对抗子网络基于初始高斯噪声生成第一图像,再分别利用句子级别对抗子网络和词级别对抗子网络生成第二图像和第三图像。如此,通过引入渐进式的生成对抗网络结构,采用逐层加入语言信息的方法,由粗至细的对生成图像进行优化,能够更有效地保证生成图像的质量和图文一致性。
附图说明
图1为本发明实施例的方法流程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明作进一步地详细描述。
图1为本发明实施例的图像生成模型的训练方法流程示意图,如图1所示,该实施例主要包括:
步骤101、获取样本数据,所述样本数据包括标准图像和图像描述文本。
样本数据中的图像描述文本用于对标准图像进行描述,具体的,可以包括多个不同表述形式的图像描述语句。
步骤102、基于所述图像描述文本,分别进行句子级别编码和词级别编码,得到相应的句子向量和词向量。
本步骤具体可以采用现有方法实现。即利用预先训练的文本编码器(如Transformer),生成所述句子向量和词向量。
步骤103、将初始高斯噪声,输入至图像生成模型的无条件对抗子网络进行图像生成,得到第一图像;基于所述第一图像和所述标准图像,利用第一判别器,计算非条件对抗损失函数值。
这里需要说明的是,为了在初始阶段尽可能地提升生成图像的质量,以保证后续模型能够获得更好的基础图像输入,本步骤中,直接使用一个随机的初始高斯噪声作为输入。
另外,这里第一判别器仅用于评判输入图像是生成图像还是真实图像,而无需关注输入图像是否符合文本描述,因此,在生成第一图像时和利用第一判别器计算损失函数值时,都无需使用条件信息作为输入。
在一种实施方式中,具体可以采用下述方法将初始高斯噪声,输入至图像生成模型的无条件对抗子网络进行图像生成:
对所述初始高斯噪声进行重构;利用第一图像生成器,对所述重构的结果进行处理,得到所述第一图像。
具体重构方法为本领域技术人员所掌握,在此不再赘述。
具体的,在进行一次重构后,可以直接通过三层上采样获得第一图像。
具体地,步骤103中计算的非条件对抗损失函数值包括所述无条件对抗子网络中第一判别器的损失函数值和所述无条件对抗子网络中第一图像生成器的损失函数值;
在一种实施方式中,步骤103中具体可以采用下述方法基于所述第一图像和所述标准图像,利用第一判别器,计算非条件对抗损失函数值:
按照计算所述第一判别器的损失函数值/>其中,D()表示判别器输出的概率值;xt表示样本数据中的标准图像;x1表示第一图像;/>表示利用标准图像xt计算第一判别器的第一非条件对抗损失函数;/>表示利用从第一图像生成器G1中得到的第一图像x1计算第一判别器的第二非条件对抗损失函数;
步骤104、将所述第一图像和第一句子的句子向量,输入至所述图像生成模型的句子级别对抗子网络进行图像生成,得到第二图像;基于所述第二图像、所述第一句子的句子向量和所述标准图像,利用第二判别器,计算句子级别的条件对抗损失函数值;其中,所述第一句子为所述图像描述文本对应的句子。
本步骤用于在步骤103得到的低层图像特征分布(即第一图像)的基础上,引入图像描述文本的句子向量,进一步进行图像优化,生成第二图像,同时对生成图像施加句子级别的监督约束。
在一种实施方式中,具体可以采用下述步骤x1~x2,将所述第一图像和第一句子的句子向量,输入至所述图像生成模型的句子级别对抗子网络进行图像生成:
步骤x1、将所述句子向量融入所述第一图像的图像特征中。
具体地,本步骤可以采用注意力机制的方法(Attn-GAN)或是动态内存的方法(DM-GAN),通过对句子信息进行复制,并与图像信息交互,从而获得融合了句子信息的图像特征信息。
步骤x2、利用第二图像生成器,对所述融入得到的图像特征进行处理,得到所述第二图像。
具体地,本步骤可以利用两个残差层和一个上采样层,来生成相比于第一图像具有更高分辨率且包含句子特征的第二图像。
具体地,步骤104中计算的句子级别的条件对抗损失函数值包括所述句子级别对抗子网络中第二判别器的损失函数值和所述句子级别对抗子网络中第二图像生成器的总损失函数值;
相应地,在一种实施方式中,为了加强图文一致性约束,具体可以采用下述方法基于所述第二图像、所述第一句子的句子向量和所述标准图像,利用第二判别器,计算句子级别的条件对抗损失函数值:
步骤y1、利用预设的图像编码器,对所述第二图像进行特征抽取,得到第二图像的图像特征。
本步骤用于从第二图像中抽取图像特征,以便在步骤y2中结合句子向量,进行图文一致性判断。
本步骤的具体实现为本领域技术人员所掌握,在此不再赘述。
步骤y3、按照计算所述第二判别器的损失函数值/>其中,D()表示判别器输出的概率值;xt表示样本数据中的标准图像;x2表示第二图像;/>表示利用标准图像xt和句子向量cs计算第二判别器的第一条件对抗损失函数;/>利用从第二图像生成器G2中得到的第二图像x2和句子向量cs计算第二判别器的第二条件对抗损失函数。
在上述方法中,第二判别器用于评判输入图像与句子信息是否匹配,同时,考虑到在初始生成第一图像时,尽可能地限制了生成图像的质量,在生成第二图像的阶段,不再添加针对图像质量的无条件对抗损失。
步骤105、将所述第二图像和所述第一句子中每个词的词向量,输入至所述图像生成模型的词级别对抗子网络进行图像生成,得到第三图像;基于所述第三图像、所述第一句子的句子向量和词向量以及所述标准图像,利用第三判别器,计算词级别的条件对抗损失函数值。
这里需要说明的是,在步骤104中通过在第一图像中融入句子信息,能够有效的提升生成图像的一致性表现,但也仅仅只是句子粒度的细化,缺乏针对图像局部和细粒度语言信息的细节优化。为此,在步骤105中引入了文本的词向量,结合第二图像,来进一步进行图像优化,得到包含更多细节的第三图像。同时对生成图像施加词级别的监督约束。
本步骤中,第三判别器用于评判输入图像与句子、词信息是否匹配,同时,考虑到在初始生成第一图像时,已经尽可能地限制了生成图像的质量,在生成第三图像的阶段,不再添加针对图像质量的无条件对抗损失。
在一种实施方式中,步骤105中具体可以采用下述方法将所述第二图像和所述第一句子中每个词的词向量,输入至所述图像生成模型的词级别对抗子网络进行图像生成:
k1、将所述词向量融入所述第二图像的图像特征中。
具体地,上述方法中仍可以采用注意力机制的方法或是动态内存的方法,通过对词信息进行复制,并与图像信息交互,从而获得融合了词信息的图像特征信息。
k2、利用第三图像生成器,对所述融入得到的图像特征进行处理,得到所述第三图像。
具体地,本步骤可以利用残差层和上采样层,来生成相比于第二图像具有更高分辨率的第三图像。
具体地,在步骤105中计算的词级别的条件对抗损失函数值包括所述词级别对抗子网络中第三判别器的损失函数值和所述词级别对抗子网络中第三图像生成器的总损失函数值。
相应的,在一种实施方式中,可以采用下述方法基于所述第三图像、所述第一句子的句子向量和词向量以及所述标准图像,利用第三判别器,计算词级别的条件对抗损失函数值:
步骤z1、利用预设的图像编码器,对所述第三图像进行特征抽取,得到第三图像的图像特征和图像区域特征。
本步骤用于从第三图像中抽取图像特征和图像区域特征,以便在后续步骤z2和z3中将它们分别与句子向量和词向量相结合,进行图文一致性判断。
本步骤的具体实现方法为本领域技术人员所掌握,在此不再赘述。
步骤z2、基于所述第三图像的图像特征和所述第一句子的句子向量,采用交叉熵损失计算方法,进行图文一致性判断,得到第二图文一致性损失函数值。
步骤z3、基于所述第三图像的图像区域特征和所述第一句子的词向量,采用交叉熵损失计算方法,进行图文一致性判断,得到第三图文一致性损失函数值。
这里通过基于词向量和图像区域特征,计算图文相似度,能够更细致地分析出图像细节与重点单词之间的一致性关系,从而能够更细粒度评价图像和文本之间的一致性。
步骤z4、基于所述第二图文一致性损失函数值和所述第三图文一致性损失函数值,计算第四图文一致性损失函数值LossCLIP_FT。
本步骤具体可以采用加权计算的方法,计算得到第四图文一致性损失函数值LossCLIP_FT。
较佳地,为了使得训练得到的模型能够更好地保证图文一致性,在进行上述加权计算时,可以设置第二图文一致性损失函数值的权重大于第三图文一致性损失函数值的权重,例如,第二图文一致性损失函数值的权重为4,第三图文一致性损失函数值的权重为1,但不限于此。
步骤z5、按照计算所述第三判别器的损失函数值/>其中,D()表示判别器输出的概率值;xt表示样本数据中的标准图像;x3表示第三图像;/>表示所述词向量的平均值;/>表示利用标准图像xt和词向量的平均值/>计算所述第三判别器的第一条件对抗损失函数;利用从第三图像生成器G3中得到的第三图像x3和词向量的平均值/>计算第三判别器的第二条件对抗损失函数。
这里,为了进一步加强对于图文整体一致性的约束,以提高第三判别器的图文一致性判别能力,在步骤z7中计算所述第三图像生成器的总损失函数值时,引入了上述第四图文一致性损失函数值LossCLIP_FT,即按照/>计算
步骤106、利用所述非条件对抗损失函数值、所述句子级别的条件对抗损失函数值和所述词级别的条件对抗损失函数值,对所述图像生成模型的参数进行更新。
在一种实施方式中,本步骤具体可以采用下述方法对所述图像生成模型的参数进行更新:
利用所述非条件对抗损失函数值,对所述无条件对抗子网络中的参数进行更新;
利用所述句子级别的条件对抗损失函数值,对所述句子级别对抗子网络中的参数进行更新;
利用所述词级别的条件对抗损失函数值,对所述词级别对抗子网络中的参数进行更新。
上述参数更新的具体方法为本领域技术人员所掌握,在此不再赘述。
基于上述训练方法实施例,本发明实施例还提供了一种图像生成方法,包括:
将图像描述文本,输入至预先训练的图像生成模型进行图像生成,得到所述图像描述文本对应的图像;其中,所述图像生成模型基于如上所述的任一训练方法得到。
基于上述训练方法实施例,本发明实施例还提供了一种图像生成模型的训练设备,包括处理器和存储器;所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上所述图像生成模型的训练方法。具体地,可以提供配有存储介质的系统或者装置,在该存储介质上存储着实现上述实施例中任一实施方式的功能的软件程序代码,且使该系统或者装置的计算机(或CPU或MPU)读出并执行存储在存储介质中的程序代码。此外,还可以通过基于程序代码的指令使计算机上操作的操作系统等来完成部分或者全部的实际操作。还可以将从存储介质读出的程序代码写到插入计算机内的扩展板中所设置的存储器中或者写到与计算机相连接的扩展单元中设置的存储器中,随后基于程序代码的指令使安装在扩展板或者扩展单元上的CPU等来执行部分和全部实际操作,从而实现上述图像生成模型的训练方法实施方式中任一实施方式的功能。
其中,存储器具体可以实施为电可擦可编程只读存储器(EEPROM)、快闪存储器(Flash memory)、可编程程序只读存储器(PROM)等多种存储介质。处理器可以实施为包括一或多个中央处理器或一或多个现场可编程门阵列,其中现场可编程门阵列集成一或多个中央处理器核。具体地,中央处理器或中央处理器核可以实施为CPU或MCU。
需要说明的是,上述各流程和各结构图中不是所有的步骤和模块都是必须的,可以根据实际的需要忽略某些步骤或模块。各步骤的执行顺序不是固定的,可以根据需要进行调整。各模块的划分仅仅是为了便于描述采用的功能上的划分,实际实现时,一个模块可以分由多个模块实现,多个模块的功能也可以由同一个模块实现,这些模块可以位于同一个设备中,也可以位于不同的设备中。
各实施方式中的硬件模块可以以机械方式或电子方式实现。例如,一个硬件模块可以包括专门设计的永久性电路或逻辑器件(如专用处理器,如FPGA或ASIC)用于完成特定的操作。硬件模块也可以包括由软件临时配置的可编程逻辑器件或电路(如包括通用处理器或其它可编程处理器)用于执行特定操作。至于具体采用机械方式,或是采用专用的永久性电路,或是采用临时配置的电路(如由软件进行配置)来实现硬件模块,可以根据成本和时间上的考虑来决定。
在本文中,“示意性”表示“充当实例、例子或说明”,不应将在本文中被描述为“示意性”的任何图示、实施方式解释为一种更优选的或更具优点的技术方案。为使图面简洁,各图中的只示意性地表示出了与本发明相关部分,而并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”并不表示将本发明相关部分的数量限制为“仅此一个”,并且“一个”不表示排除本发明相关部分的数量“多于一个”的情形。在本文中,“上”、“下”、“前”、“后”、“左”、“右”、“内”、“外”等仅用于表示相关部分之间的相对位置关系,而非限定这些相关部分的绝对位置。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种图像生成模型的训练方法,其特征在于,包括:
获取样本数据,所述样本数据包括标准图像和图像描述文本;
基于所述图像描述文本,分别进行句子级别编码和词级别编码,得到相应的句子向量和词向量;
将初始高斯噪声,输入至图像生成模型的无条件对抗子网络进行图像生成,得到第一图像;基于所述第一图像和所述标准图像,利用第一判别器,计算非条件对抗损失函数值;
将所述第一图像和第一句子的句子向量,输入至所述图像生成模型的句子级别对抗子网络进行图像生成,得到第二图像;基于所述第二图像、所述第一句子的句子向量和所述标准图像,利用第二判别器,计算句子级别的条件对抗损失函数值;其中,所述第一句子为所述图像描述文本对应的句子;
将所述第二图像和所述第一句子中每个词的词向量,输入至所述图像生成模型的词级别对抗子网络进行图像生成,得到第三图像;基于所述第三图像、所述第一句子的句子向量和词向量以及所述标准图像,利用第三判别器,计算词级别的条件对抗损失函数值;
利用所述非条件对抗损失函数值、所述句子级别的条件对抗损失函数值和所述词级别的条件对抗损失函数值,对所述图像生成模型的参数进行更新。
2.根据权利要求1所述的方法,其特征在于,所述将初始高斯噪声,输入至图像生成模型的无条件对抗子网络进行图像生成包括:
对所述初始高斯噪声进行重构;
利用第一图像生成器,对所述重构的结果进行处理,得到所述第一图像。
3.根据权利要求1所述的方法,其特征在于,所述将所述第一图像和第一句子的句子向量,输入至所述图像生成模型的句子级别对抗子网络进行图像生成包括:
将所述句子向量融入所述第一图像的图像特征中;
利用第二图像生成器,对所述融入得到的图像特征进行处理,得到所述第二图像。
4.根据权利要求1所述的方法,其特征在于,所述将所述第二图像和所述第一句子中每个词的词向量,输入至所述图像生成模型的词级别对抗子网络进行图像生成包括:
将所述词向量融入所述第二图像的图像特征中;
利用第三图像生成器,对所述融入得到的图像特征进行处理,得到所述第三图像。
6.根据权利要求1所述的方法,其特征在于,
所述句子级别的条件对抗损失函数值包括所述句子级别对抗子网络中第二判别器的损失函数值和所述句子级别对抗子网络中第二图像生成器的总损失函数值;
所述基于所述第二图像、所述第一句子的句子向量和所述标准图像,利用第二判别器,计算句子级别的条件对抗损失函数值包括:
利用预设的图像编码器,对所述第二图像进行特征抽取,得到第二图像的图像特征;
按照计算所述第二判别器的损失函数值/>其中,D( )表示判别器输出的概率值;xt表示样本数据中的标准图像;x2表示第二图像;/>表示利用标准图像xt和句子向量cs计算第二判别器的第一条件对抗损失函数;/>利用从第二图像生成器G2中得到的第二图像x2和句子向量cs计算第二判别器的第二条件对抗损失函数;
7.根据权利要求1所述的方法,其特征在于,
所述词级别的条件对抗损失函数值包括所述词级别对抗子网络中第三判别器的损失函数值和所述词级别对抗子网络中第三图像生成器的总损失函数值;
所述基于所述第三图像、所述第一句子的句子向量和词向量以及所述标准图像,利用第三判别器,计算词级别的条件对抗损失函数值包括:
利用预设的图像编码器,对所述第三图像进行特征抽取,得到第三图像的图像特征和图像区域特征;
基于所述第三图像的图像特征和所述第一句子的句子向量,采用交叉熵损失计算方法,进行图文一致性判断,得到第二图文一致性损失函数值;
基于所述第三图像的图像区域特征和所述第一句子的词向量,采用交叉熵损失计算方法,进行图文一致性判断,得到第三图文一致性损失函数值;
基于所述第二图文一致性损失函数值和所述第三图文一致性损失函数值,计算第四图文一致性损失函数值LossCLIP_FT;
按照计算所述第三判别器的损失函数值/>其中,D( )表示判别器输出的概率值;xt表示样本数据中的标准图像;x3表示第三图像;/>表示所述词向量的平均值;/>表示利用标准图像xt和词向量的平均值/>计算所述第三判别器的第一条件对抗损失函数;利用从第三图像生成器G3中得到的第三图像x3和词向量的平均值/>计算第三判别器的第二条件对抗损失函数;
8.根据权利要求1所述的方法,其特征在于,所述利用所述非条件对抗损失函数值、所述句子级别的条件对抗损失函数值和所述词级别的条件对抗损失函数值,对所述图像生成模型的参数进行更新包括:
利用所述非条件对抗损失函数值,对所述无条件对抗子网络中的参数进行更新;
利用所述句子级别的条件对抗损失函数值,对所述句子级别对抗子网络中的参数进行更新;
利用所述词级别的条件对抗损失函数值,对所述词级别对抗子网络中的参数进行更新。
9.一种图像生成方法,其特征在于,包括:
将图像描述文本,输入至预先训练的图像生成模型进行图像生成,得到所述图像描述文本对应的图像;
其中,所述图像生成模型基于权利要求1至8所述的任一训练方法得到。
10.一种图像生成模型的训练设备,其特征在于,包括处理器和存储器;
所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如权利要求1至8中任一项所述图像生成模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111238938.3A CN113781598B (zh) | 2021-10-25 | 2021-10-25 | 图像生成模型的训练方法和设备以及图像生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111238938.3A CN113781598B (zh) | 2021-10-25 | 2021-10-25 | 图像生成模型的训练方法和设备以及图像生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113781598A CN113781598A (zh) | 2021-12-10 |
CN113781598B true CN113781598B (zh) | 2023-06-30 |
Family
ID=78873408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111238938.3A Active CN113781598B (zh) | 2021-10-25 | 2021-10-25 | 图像生成模型的训练方法和设备以及图像生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113781598B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114549935B (zh) * | 2022-02-25 | 2024-05-07 | 北京百度网讯科技有限公司 | 信息生成方法和装置 |
CN117688193B (zh) * | 2024-02-01 | 2024-05-31 | 湘江实验室 | 图文统一编码方法、装置、计算机设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019215109A1 (en) * | 2018-05-08 | 2019-11-14 | Koninklijke Philips N.V. | Convolutional localization networks for intelligent captioning of medical images |
CN112818159A (zh) * | 2021-02-24 | 2021-05-18 | 上海交通大学 | 一种基于生成对抗网络的图像描述文本生成方法 |
CN113361250A (zh) * | 2021-05-12 | 2021-09-07 | 山东师范大学 | 一种基于语义一致性的双向文本生成图像方法及系统 |
-
2021
- 2021-10-25 CN CN202111238938.3A patent/CN113781598B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019215109A1 (en) * | 2018-05-08 | 2019-11-14 | Koninklijke Philips N.V. | Convolutional localization networks for intelligent captioning of medical images |
CN112818159A (zh) * | 2021-02-24 | 2021-05-18 | 上海交通大学 | 一种基于生成对抗网络的图像描述文本生成方法 |
CN113361250A (zh) * | 2021-05-12 | 2021-09-07 | 山东师范大学 | 一种基于语义一致性的双向文本生成图像方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113781598A (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113781598B (zh) | 图像生成模型的训练方法和设备以及图像生成方法 | |
CN109887484A (zh) | 一种基于对偶学习的语音识别与语音合成方法及装置 | |
CN110516244B (zh) | 一种基于bert的句子自动填充方法 | |
CN111967277B (zh) | 基于多模态机器翻译模型的翻译方法 | |
CN111428025B (zh) | 文本摘要方法、装置、电子设备和存储介质 | |
US20220358703A1 (en) | Method and device for generating speech video on basis of machine learning | |
Chen et al. | DualLip: A system for joint lip reading and generation | |
CN112837669B (zh) | 语音合成方法、装置及服务器 | |
CN113361251A (zh) | 一种基于多阶段生成对抗网络的文本生成图像方法及系统 | |
US20220399025A1 (en) | Method and device for generating speech video using audio signal | |
Yang et al. | Open domain dialogue generation with latent images | |
US20220375224A1 (en) | Device and method for generating speech video along with landmark | |
US11972516B2 (en) | Method and device for generating speech video by using text | |
CN108763230B (zh) | 利用外部信息的神经机器翻译方法 | |
CN113254694A (zh) | 一种文本转图像方法和装置 | |
CN111243572A (zh) | 基于说话人博弈的多人语音转换方法与系统 | |
Zhang et al. | Multi-modal sentiment classification with independent and interactive knowledge via semi-supervised learning | |
CN113591462A (zh) | 弹幕回复生成方法、装置及电子设备 | |
CN114445909A (zh) | 线索语自动识别模型训练方法、装置、存储介质及设备 | |
Altuncu et al. | Deepfake: definitions, performance metrics and standards, datasets and benchmarks, and a meta-review | |
US20230034414A1 (en) | Dialogue processing apparatus, learning apparatus, dialogue processing method, learning method and program | |
CN117197268A (zh) | 图像生成方法、装置及存储介质 | |
CN110019768B (zh) | 生成文本摘要的方法及装置 | |
CN115512368B (zh) | 一种跨模态语义生成图像模型和方法 | |
CN114170997A (zh) | 发音技巧检测方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |