CN113140023A - 一种基于空间注意力的文本到图像生成方法及系统 - Google Patents
一种基于空间注意力的文本到图像生成方法及系统 Download PDFInfo
- Publication number
- CN113140023A CN113140023A CN202110474295.6A CN202110474295A CN113140023A CN 113140023 A CN113140023 A CN 113140023A CN 202110474295 A CN202110474295 A CN 202110474295A CN 113140023 A CN113140023 A CN 113140023A
- Authority
- CN
- China
- Prior art keywords
- dimension
- feature map
- module
- feature
- characteristic diagram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于空间注意力的文本到图像生成方法及系统,将文本描述输入文本编码器输出句子向量;生成服从高斯分布的随机噪声向量;生成器包括三个空间注意力模块和六个依次连接的上模块,其中位于第一个的上模块连接全连接层,位于最后三个的上模块分别连接一个空间注意力模块,三个空间注意力模块共同连接一个特征组通道归并模块,特征组通道归并模块连接卷积层,在生成器中引入了空间注意力机制,对特征图中不同区域分配不同程度的注意力,加强特征图中最有用的特征,抑制无用的特征,避免了产生伪像的问题;引入了特征组通道归并模块,充分融合文本信息,以增强提取得到特征的表达能力,使生成的图像更加清晰,并且符合给定的文本描述。
Description
技术领域
本发明属于计算机视觉以及人工智能技术领域,具体涉及一种基于空间注意力的文本到图像生成方法。
背景技术
图像在日常生活中发挥着举足轻重的作用,人们可通过搜索引擎查找想要的图像。但由于一个关键词可能对应许多不同的图像,所以准确地找到想要的图像非常困难。如果计算机能将输入的文本自动合成对应的图像,那么不仅能够减少图像创作者的工作负担,也能提高人们搜寻图片的效率。这种所谓的“文本到图像生成技术”除了图像检索领域的应用之外,在艺术创作、计算机辅助设计等方面同样具有巨大的应用潜力。因此,利用计算机技术将文本所表达的语义信息转化为其所对应的图像成为一个具有重要意义的研究课题。
文本到图像生成是指一种将给定的文本描述生成一幅图像的技术,该技术不仅要保证生成的图像真实,还要使生成的图像符合给定的文本描述。该技术是一项涉及到自然语言处理和计算机视觉这两个领域的综合性任务,不仅要求计算机能够剖析文本所传达的语义信息,还要求其将这些语义信息转变为真实且细节丰富的图像,因而是一项极具挑战且极具研究价值的任务。
近年来,深度学习在人工智能领域取得了巨大的成功,并迅速成为人工智能领域的主导技术。究其本质,深度学习就是使用许多非线性函数的组合来建模输入要素和标签之间的复杂依存关系。循环神经网络和卷积神经网络的相继出现极大地提高了神经网络在计算机视觉、自然语言处理等方面的性能。
2014年,生成器的出现更是极大地推动了深度学习技术的发展。生成器由生成器和判别器两个神经网络组成:生成器试图通过生成伪造的训练样本来欺骗判别器;而判别器的作用则是对生成器生成的样本进行判别,并从中分辨出真实的和伪造的训练样本。二者通过上述博弈过程,使生成器得以模拟真实数据的分布,使判别器无法区分真实数据和伪造数据,最终达到纳什平衡。计算机视觉领域中存在的一些问题随着生成器的出现得以解决,例如人脸的高分辨率合成、图像超分辨率分析、图像修复、数据增强、样式转换、图像到图像翻译等。生成器在自然语言处理领域也有很多应用,例如文本生成、机器翻译等。生成器在上述领域的应用和技术突破,为文本到图像生成提供了更多的可能性。
文本到图像生成方法有变分自编码器、深度递归注意力写入器和生成器。鉴于生成器在图像合成方面展现的巨大优势,主流的文本到图像生成方法大多是基于生成器来实现的。现有的文本到图像生成方法大多采用相似的框架,即利用预训练的文本编码器将输入的文本描述编码为句子向量,然后将条件生成器训练为图像解码器,再结合句子向量和符合正态分布的噪声向量来生成符合文本描述的图像。具体的框架包括StackGAN、AttnGAN、MirrorGAN等。StackGAN的模型中,使用3对“生成器-判别器”组合,逐渐生成高分辨率的图像,可有效解决生成图像分辨率不高的问题。StackGAN也成为了之后一些模型的主流框架。AttnGAN则通过引入注意力机制,使生成图像的细节更加准确。MirrorGAN使用对偶的思想,在模型中加入了图像描述模块,使生成的图像与给定的文本更加匹配。
然而,现有网络结构中的卷积运算受局部感受野的限制,无法处理整个像素空间内大范围、多层次的依赖关系,从而使生成的图像整体不协调。且为了生成高分辨率的图像,现有模型大多采用堆叠或者嵌套的结构,而这种结构很容易使生成的图像产生伪像,图像中的某些细节不真实。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种基于空间注意力的文本到图像生成方法,在生成器中引入了空间注意力机制,对特征图中不同区域分配不同程度的注意力,加强特征图中最有用的特征,抑制无用的特征,避免了产生伪像的问题;引入了特征组通道归并模块,充分融合文本信息,以增强提取得到特征的表达能力,使生成的图像更加清晰,并且符合给定的文本描述。
本发明为解决上述技术问题采用以下技术方案:
本发明提供一种基于空间注意力的文本到图像生成方法,其特征在于,包括:
将文本描述输入预先构建的文本编码器得到句子向量;
生成服从高斯分布的随机噪声向量;
将所述句子向量输入预先训练好的生成器,所述生成器输出与文本描述对应的图像;
其中,所述句子向量和随机噪声向量用于训练所述生成器。
进一步地,还包括将所述句子向量和所述生成器输出的图像输入预先构造的判别器,所述判别器用于判断所述生成器输出的图像是否符合文本描述。
进一步地,
所述生成器的训练过程包括:
随机噪声向量输入所述生成器获取维度为W0×H0×C0的特征图,其中,W0表示特征图的宽度、H0表示特征图的高度、C0表示特征图的通道数;
将维度为W0×H0×C0的特征图以及所述句子向量输入生成器,维度为W0×H0×C0的特征图的宽度和高度每次递增2倍,特征图的通道数保持不变,共递增6次,在第4、5和6次递增后;分别输出维度为W24×H24×C24的特征图,其中W24=16W0,H24=16H0,C24=64;维度为W25×H25×C25的特征图,其中W25=32W0,H25=32H0,C25=64;维度为W26×H26×C26的特征图其中W26=64W0,H26=64H0,C26=64;
对维度为W24×H24×C24、W25×H25×C25和W26×H26×C26的特征图上的特征点在空间维度上以加权的形式进行自适应的调整,得到维度分别为W3×H3×C3、2W3×2H3×C3和4W3×4H3×C3的特征图,其中W3=16W0,H3=16H0,C3=64;
对维度分别为W3×H3×C3、2W3×2H3×C3和4W3×4H3×C3的特征图进行特征组通道归并,最终得到维度为4W3×4H3×(C3×3)的特征图;
将维度为4W3×4H3×(C3×3)的特征图传入卷积核为3×3的卷积层得到最终关于文本描述的生成图像。
进一步地,维度为W0×H0×C0的特征图递增过程为:
步骤1:对维度为W0×H0×C0的特征图依次进行尺度因子为2的上采样操作得到一次变换后的特征图;
步骤2:将所述句子向量进行仿射变换,得到尺度偏移向量γ和β,向量γ和β的维度与一次变换后的特征图的通道数保持一致,将一次变换后的特征图沿着通道轴与向量γ相乘,再加上向量β,得到二次变换后的特征图;
步骤3:将二次变换后的特征图输入Leaky Relu激活函数;
步骤4:将Leaky Relu激活函数输出的特征图重复进行步骤2和3,得到三次变换后的特征图;
步骤5:将三次变换后的特征图进行卷积;得到四次变换后的特征图;
步骤6:将四次变换后的特征图重复进行步骤2-5,得到五次变换后的特征图;
步骤7:将五次变换后的特征图与一次变换后的特征图沿通道轴合并,得到六次变换后的特征图;
步骤8:将步骤1-7重复执行5次,最终得到维度为W1×H1×C1的特征图,其中W1=64W0,H1=64H0,C1=64。
进一步地,维度为4W3×4H3×(C3×3)的特征图获取过程为:
对维度为W3×H3×C3的特征图进行4倍上采样操作,得到维度为4W3×4H3×C3的特征图,对维度为2W3×2H3×C3的特征图进行2倍上采样操作,得到维度为4W3×4H3×C3的特征图,将维度为4W3×4H3×C3的特征图传入卷积核为1×1的卷积层,得到维度为4W3×4H3×C3的特征图,其中W3=16W0,H3=16H0,C3=64,将维度为4W3×4H3×C3的特征图沿着通道轴进行拼接,融合高低层特征,最后得到维度为4W3×4H3×(C3×3)的特征图。
进一步地,一种基于空间注意力的文本到图像生成系统,包括:
文本编码器,被配置用于根据文本描述输出句子向量;
随机噪声向量生成模块,被配置用于生成服从高斯分布的随机噪声向量;
生成器,被配置用于基于输入的文本描述输出对应的图像;所述生成器包括全连接层、特征组通道归并模块、卷积层模块、三个空间注意力模块和六个依次连接的上模块,其中位于第一个的上模块连接所述全连接层,位于最后三个的上模块分别连接一个空间注意力模块,三个空间注意力模块共同连接一个特征组通道归并模块,所述特征组通道归并模块连接卷积层模块,随机噪声向量输入全连接层输出维度为W0×H0×C0的特征图,其中,W0表示特征图的宽度、H0表示特征图的高度、C0表示特征图的通道数,将维度为W0×H0×C0的特征图和句子向量输入上模块,每通过一个上模块维度为W0×H0×C0的特征图的宽度和高度递增2倍,特征图的通道数保持不变,通过第4个上模块向对应的空间注意力模块输出维度为W24×H24×C24的特征图,其中W24=16W0,H24=16H0,C24=64;通过第5个上模块向对应的空间注意力模块输出维度为W25×H25×C25的特征图,其中W25=32W0,H25=32H0,C25=64;通过第6个上模块向对应的空间注意力模块输出维度为W26×H26×C26的特征图,其中W26=64W0,H26=64H0,C26=64;三个空间注意力模块对维度为W24×H24×C24、W25×H25×C25和W26×H26×C26的特征图上的特征点在空间维度上以加权的形式进行自适应的调整,得到维度分别为W3×H3×C3、2W3×2H3×C3和4W3×4H3×C3的特征图,其中W3=16W0,H3=16H0,C3=64;并输入特征图进行特征组通道归并模块,特征图进行特征组通道归并模块对维度分别为W3×H3×C3、2W3×2H3×C3和4W3×4H3×C3的特征图进行特征组通道归并,最终得到维度为4W3×4H3×(C3×3)的特征图,并输入到卷积层模块,卷积层模块输出最终关于文本描述的生成图像。
进一步地,每个上模块包括1个上采样层和2个深度文本图像融合模块,每个深度文本图像融合模块包括依次连接的第一仿射变换层、第一Leaky Relu激活函数、第二仿射变换层、第二Leaky Relu激活函数和卷积核为3×3的卷积层。
进一步地,每个空间注意力模块包括最大池化层、平局池化层、卷积核为7×7的卷积层和softmax层
最大池化层和平局池化层用于将维度为Wi×Hi×Ci的特征图沿着通道轴通过最大池化层和平局池化层得到两个维度为Wi×Hi×1的特征图,沿着通道轴将两个维度为Wi×Hi×1的特征图拼接起来得到一个维度为Wi×Hi×2的特征图;
卷积核为7×7的卷积层用于将维度为Wi×Hi×2的特征图生成维度为Wi×Hi×1的特征图;softmax层用于将维度为Wi×Hi×1的特征图上的点归一化到0-1之间,得到空间注意力图;空间注意力图沿着通道轴逐层与维度为Wi×Hi×Ci的特征图相乘得到加权之后的特征图,加权之后的特征图的维度为Wi×Hi×Ci,其中i=24、25或26。
进一步地,所述特征组通道归并模块包括4倍上采样模块、2倍上采样模块、卷积核为1×1的卷积层和通道轴拼接模块,
4倍上采样模块用于对维度为W3×H3×C3的特征图进行4倍上采样操作,得到维度为4W3×4H3×C3的特征图;
2倍上采样模块用于对维度为2W3×2H3×C3的特征图进行2倍上采样操作,得到维度为4W3×4H3×C3的特征图;
卷积核为1×1的卷积层用于对维度为4W3×4H3×C3的特征图卷积操作,得到维度为4W3×4H3×C3的特征图;
通道轴拼接模块用于将三组维度为4W3×4H3×C3的特征图沿通道轴进行拼接,得到维度为4W3×4H3×(C3×3)的特征图。
进一步地,还包括用于判断所述生成器输出的图像是否符合文本描述的判别器。
本发明具备的有益效果:
(1)在生成器中引入了空间注意力机制,对特征图中不同区域分配不同程度的注意力,加强特征图中最有用的特征,抑制无用的特征,避免了产生伪像的问题;
(2)引入了特征组通道归并模块,充分融合文本信息,以增强提取得到特征的表达能力,使生成的图像更加清晰,并且符合给定的文本描述。
附图说明
图1是本发明所述一种基于空间注意力的文本到图像生成方法的流程示意图;
图2是本发明所述一种基于空间注意力的文本到图像生成系统的结构示意图;
图3是本发明所述上模块的结构示意图;
图4是本发明所述空间注意力模块的结构示意图;
图5是本发明所述特征组通道归并模块的结构示意图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图2-5所示,本发明的一种基于空间注意力的文本到图像生成系统,包括:
文本编码器,将文本描述输入文本编码器输出句子向量;
随机噪声向量生成模块,用于生成服从高斯分布的随机噪声向量;
生成器,所述生成器包括全连接层、特征组通道归并模块、卷积层模块、三个空间注意力模块和六个依次连接的上模块,其中位于第一个的上模块连接所述全连接层,位于最后三个的上模块分别连接一个空间注意力模块,三个空间注意力模块共同连接一个特征组通道归并模块,所述特征组通道归并模块连接卷积层,每个上模块包括1个上采样层和2个深度文本图像融合模块,每个深度文本图像融合模块包括依次连接的第一仿射变换层、第一Leaky Relu激活函数、第二仿射变换层、第二Leaky Relu激活函数和卷积核为3×3的卷积层。每个空间注意力模块包括最大池化层、平局池化层、卷积核为7×7的卷积层、softmax层和通道轴逐层,所述特征组通道归并模块包括4倍上采样模块、2倍上采样模块、卷积核为1×1的卷积层和通道轴拼接模块。
如图1-5所示,为本发明提供的一种基于空间注意力的文本到图像生成方法,包括如下步骤:
步骤1:将包含被描述物体的颜色、形状、位置等信息的文本描述输入预训练的由双向长短期记忆网络构成的通用文本编码器得到句子向量,从而将“文本-图像”对转换成“句子向量-图像”对;
步骤2:生成一个维数为100且服从高斯分布的随机噪声向量;
步骤3:利用“句子向量-图像”对及步骤2中生成的“随机噪声向量”用于训练基于空间注意力的生成器,具体过程如下:
步骤3.1:将步骤2中生成的随机噪声向量送入全连接层得到维度为W0×H0×C0的特征图,其中,W0表示特征图的宽度、H0表示特征图的高度、C0表示特征图的通道数。
步骤3.2:将维度为W0×H0×C0的特征图及句子向量输入上模块。如图3所示,上模块是由1个上采样层和2个深度文本图像融合模块组成的残差结构。
上述步骤3.2具体如下:
步骤3.2.1:将维度为W0×H0×C0的特征图输入尺度因子为2的上采样层,输出一次变换后的特征图,并将一次变换后的特征图传入第一仿射变换层。
步骤3.2.2:将步骤1中生成的句子向量传入仿射变换层,每个仿射变换层由两个独立的全连接层组成。通过全连接层训练得到尺度偏移向量γ和β,向量γ和β的维度与一次变换后的特征图的通道数保持一致。将一次变换后的特征图沿着通道轴与向量γ相乘,再加上偏置β,得到二次变换后的特征图。
步骤3.2.3:将二次变换后的特征图输入Leaky Relu激活函数。
步骤3.2.4:Leaky Relu激活函数输出的特征图传入第二仿射变换层,重复步骤3.2.2和步骤3.2.3,得到三次变换后的特征图。
步骤3.2.5:将三次变换后的特征图传入卷积核为3×3的卷积层,得到四次变换后的特征图。
步骤3.2.6:将四次变换后的特征图输入第二个深度文本图像融合模块,重复步骤3.2.2、步骤3.2.3、步骤3.2.4和步骤3.2.5,得到六次变换后的特征图。
步骤3.2.7:将六次变换后的特征图与一次变换后的特征图沿着通道轴合并,得到七次变换后的特征图。
步骤3.3:将七次变换后的特征图传入下一个上模块,将步骤3.2重复执行5次,最终得到维度为W1×H1×C1的特征图,其中W1=64W0,H1=64H0,C1=64。
步骤3.4:将步骤3.3中最后三个上模块的输出分别通过三个空间注意力模块。空间注意力模块可以对上模块输出得到的特征图上的特征点在空间维度上以加权的形式进行自适应的调整。其中,第四个上模块输出维度为W24×H24×C24的特征图,W24=16W0,H24=16H0,C24=64;第五个上模块输出维度为W25×H25×C25的特征图,W25=32W0,H25=32H0,C25=64;第六个上模块的输出维度为W26×H26×C26的特征图,W26=64W0,H26=64H0,C26=64。
如图4所示,上述步骤3.4中针对每个空间注意力模块具体操作如下:
步骤3.4.1:三个空间注意力模块分别输入维度为W24×H24×C24的特征图、维度为W25×H25×C25的特征图和维度为W26×H26×C26的特征图,为了计算空间注意力,对输入的特征图沿着通道轴分别进行最大池化和平局池化操作,得到两个维度为Wi×Hi×1的特征图,然后沿着通道轴将它们拼接起来得到一个维度为Wi×Hi×2的特征图,i=24、25或26。
步骤3.4.2:将步骤3.4.1所得的特征图输入一个卷积核为7×7的卷积层生成维度为Wi×Hi×1的特征图,再将特征图通过softmax层,此时特征图上的点被归一化到0-1之间,得到空间注意力图,该空间注意力图编码了需要加强或减弱的空间位置。
步骤3.4.3:将空间注意力图沿着通道轴逐层与步骤3.4.1中输入的原始特征图相乘,得到加权之后的特征图。加权之后的特征图的维度与步骤3.4.1中输入的原始特征图的维度保持一致。这个模块能够自动地对特征结构进行调整,以增强有用特征的表达能力,同时降低无用特征的表达能力。
如图5所示,步骤3.5:分别将三个空间注意力模块输出、维度分别为W3×H3×C3、2W3×2H3×C3和4W3×4H3×C3的特征图,其中W3=16W0,H3=16H0,C3=64;送入特征组通道归并模块。
上述步骤3.5具体如下:
步骤3.5.1:特征组通道归并模块首先对维度为W3×H3×C3的特征图进行4倍上采样操作,得到维度为4W3×4H3×C3的特征图,然后对维度为2W3×2H3×C3的特征图进行2倍上采样操作,得到维度为4W3×4H3×C3的特征图,再对维度为4W3×4H3×C3的特征图传入卷积核为1×1的卷积层,得到维度为4W3×4H3×C3的特征图。其中W3=16W0,H3=16H0,C3=64。
步骤3.5.2:将步骤3.5.1输出的三组特征图沿着通道轴进行拼接从而融合高低层特征,最后得到维度为4W3×4H3×(C3×3)的特征图。使用这种方式可以融合高低层特征从而增强输出特征的表达能力,使最终生成的图片细节更加丰富,并且符合给定的文本描述。
步骤3.6:将步骤3.5输出的图像特征传入卷积核为3×3的卷积层得到最终关于文字描述的生成图像。
步骤3.7:将步骤3.6生成的图像与步骤1中生成的句子向量输入判别器,判断生成的图像是否真实及是否匹配给定的文本描述,得到对抗损失,优化下一次图像生成。
上述步骤3.7具体如下:
步骤3.7.1:判别器通过一系列的下采样层将步骤3.6生成的图像转换为图像特征。
步骤3.7.2:对步骤1中生成的句子向量进行空间复制,得到与步骤3.7.1中图像特征相同维度的句子特征。
步骤3.7.3:将步骤3.7.1生成的图像特征与步骤3.7.2生成的句子特征沿着通道轴进行拼接,之后传入卷积核分别为3×3、4×4的两个卷积层,以评估图像质量及文本-图像的一致性,得到对抗损失。
步骤3.7.4:使用Adam优化器优化网络,其中β1=0.0,β2=0.9。生成器的学习率设为0.0001,判别器的学习率设为0.0004。
步骤4:将用户输入的文本描述编码成句子向量并输入训练好的基于空间注意力的生成式网络,最终得到与文本描述相一致的图像。
本发明的上述实施例仅是为说明本发明所列举的实例,而并非是对本发明的实施方式的限定。本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种基于空间注意力的文本到图像生成方法,其特征在于,包括:
将文本描述输入预先构建的文本编码器得到句子向量;
生成服从高斯分布的随机噪声向量;
将所述句子向量输入预先训练好的生成器,所述生成器输出与文本描述对应的图像;
其中,所述句子向量和随机噪声向量用于训练所述生成器。
2.根据权利要求1所述的一种基于空间注意力的文本到图像生成方法,其特征在于:还包括将所述句子向量和所述生成器输出的图像输入预先构建的判别器,所述判别器用于判断所述生成器输出的图像是否符合文本描述。
3.根据权利要求1所述的一种基于空间注意力的文本到图像生成方法,其特征在于,所述生成器的训练过程包括:
随机噪声向量输入所述生成器获取维度为W0×H0×C0的特征图,其中,W0表示特征图的宽度、H0表示特征图的高度、C0表示特征图的通道数;
将维度为W0×H0×C0的特征图以及所述句子向量输入生成器,维度为W0×H0×C0的特征图的宽度和高度每次递增2倍,特征图的通道数保持不变,共递增6次,在第4、5和6次递增后;分别输出维度为W24×H24×C24的特征图,其中W24=16 W0,H24=16 H0,C24=64;维度为W25×H25×C25的特征图,其中W25=32W0,H25=32 H0,C25=64;维度为W26×H26×C26的特征图,其中W26=64W0,H26=64H0,C26=64;
对维度为W24×H24×C24、W25×H25×C25和W26×H26×C26的特征图上的特征点在空间维度上以加权的形式进行自适应的调整,得到维度分别为W3×H3×C3、2W3×2H3×C3和4W3×4H3×C3的特征图,其中W3=16 W0,H3=16 H0,C3=64;
对维度分别为W3×H3×C3、2W3×2H3×C3和4W3×4H3×C3的特征图进行特征组通道归并,最终得到维度为4W3×4H3×(C3×3)的特征图;
将维度为4W3×4H3×(C3×3)的特征图传入卷积核为3×3的卷积层得到最终关于文本描述的生成图像。
4.根据权利要求3所述的一种基于空间注意力的文本到图像生成方法,其特征在于,维度为W0×H0×C0的特征图递增过程为:
步骤1:对维度为W0×H0×C0的特征图依次进行尺度因子为2的上采样操作得到一次变换后的特征图;
步骤2:将所述句子向量进行仿射变换,得到尺度偏移向量γ和β,向量γ和β的维度与一次变换后的特征图的通道数保持一致,将一次变换后的特征图沿着通道轴与向量γ相乘,再加上向量β,得到二次变换后的特征图;
步骤3:将二次变换后的特征图输入Leaky Relu激活函数;
步骤4:将Leaky Relu激活函数输出的特征图重复进行步骤2和3,得到三次变换后的特征图;
步骤5:将三次变换后的特征图进行卷积;得到四次变换后的特征图;
步骤6:将四次变换后的特征图重复进行步骤2-5,得到五次变换后的特征图;
步骤7:将五次变换后的特征图与一次变换后的特征图沿通道轴合并,得到六次变换后的特征图;
步骤8:将步骤1-7重复执行5次,最终得到维度为W1×H1×C1的特征图,其中W1=64 W0,H1=64 H0,C1=64。
5.根据权利要求3所述的一种基于空间注意力的文本到图像生成方法,其特征在于,维度为4W3×4H3×(C3×3)的特征图获取过程为:
对维度为W3×H3×C3的特征图进行4倍上采样操作,得到维度为4W3×4H3×C3的特征图,对维度为2W3×2H3×C3的特征图进行2倍上采样操作,得到维度为4W3×4H3×C3的特征图,将维度为4W3×4H3×C3的特征图传入卷积核为1×1的卷积层,得到维度为4W3×4H3×C3的特征图,其中W3=16 W0,H3=16 H0,C3=64,将维度为4W3×4H3×C3的特征图沿着通道轴进行拼接,融合高低层特征,最后得到维度为4W3×4H3×(C3×3)的特征图。
6.一种基于空间注意力的文本到图像生成系统,其特征在于,包括:
文本编码器,被配置用于根据文本描述输出句子向量;
随机噪声向量生成模块,被配置用于生成服从高斯分布的随机噪声向量;
生成器,被配置用于基于输入的文本描述输出对应的图像;所述生成器包括全连接层、特征组通道归并模块、卷积层模块、三个空间注意力模块和六个依次连接的上模块,其中位于第一个的上模块连接所述全连接层,位于最后三个的上模块分别连接一个空间注意力模块,三个空间注意力模块共同连接一个特征组通道归并模块,所述特征组通道归并模块连接卷积层模块,随机噪声向量输入全连接层输出维度为W0×H0×C0的特征图,其中,W0表示特征图的宽度、H0表示特征图的高度、C0表示特征图的通道数,将维度为W0×H0×C0的特征图和句子向量输入上模块,每通过一个上模块维度为W0×H0×C0的特征图的宽度和高度递增2倍,特征图的通道数保持不变,通过第4个上模块向对应的空间注意力模块输出维度为W24×H24×C24的特征图,其中W24=16 W0,H24=16 H0,C24=64;通过第5个上模块向对应的空间注意力模块输出维度为W25×H25×C25的特征图,其中W25=32W0,H25=32 H0,C25=64;通过第6个上模块向对应的空间注意力模块输出维度为W26×H26×C26的特征图,其中W26=64W0,H26=64H0,C26=64;三个空间注意力模块对维度为W24×H24×C24、W25×H25×C25和W26×H26×C26的特征图上的特征点在空间维度上以加权的形式进行自适应的调整,得到维度分别为W3×H3×C3、2W3×2H3×C3和4W3×4H3×C3的特征图,其中W3=16 W0,H3=16 H0,C3=64;并输入特征图进行特征组通道归并模块,特征图进行特征组通道归并模块对维度分别为W3×H3×C3、2W3×2H3×C3和4W3×4H3×C3的特征图进行特征组通道归并,最终得到维度为4W3×4H3×(C3×3)的特征图,并输入到卷积层模块,卷积层模块输出最终关于文本描述的生成图像。
7.根据权利要求6所述的一种基于空间注意力的文本到图像生成系统,其特征在于,每个上模块包括1个上采样层和2个深度文本图像融合模块,每个深度文本图像融合模块包括依次连接的第一仿射变换层、第一Leaky Relu激活函数、第二仿射变换层、第二Leaky Relu激活函数和卷积核为3×3的卷积层。
8.根据权利要求6所述的一种基于空间注意力的文本到图像生成系统,其特征在于,每个空间注意力模块包括最大池化层、平局池化层、卷积核为7×7的卷积层和softmax层,
最大池化层和平局池化层用于将维度为Wi×Hi×Ci的特征图沿着通道轴通过最大池化层和平局池化层得到两个维度为Wi×Hi×1的特征图,沿着通道轴将两个维度为Wi×Hi×1的特征图拼接起来得到一个维度为Wi×Hi×2的特征图;
卷积核为7×7的卷积层用于将维度为Wi×Hi×2的特征图生成维度为Wi×Hi×1的特征图;softmax层用于将维度为Wi×Hi×1的特征图上的点归一化到0-1之间,得到空间注意力图;空间注意力图沿着通道轴逐层与维度为Wi×Hi×Ci的特征图相乘得到加权之后的特征图,加权之后的特征图的维度为Wi×Hi×Ci,其中i=24、25或26。
9.根据权利要求6所述的一种基于空间注意力的文本到图像生成系统,其特征在于,所述特征组通道归并模块包括4倍上采样模块、2倍上采样模块、卷积核为1×1的卷积层和通道轴拼接模块,
4倍上采样模块用于对维度为W3×H3×C3的特征图进行4倍上采样操作,得到维度为4W3×4H3×C3的特征图;
2倍上采样模块用于对维度为2W3×2H3×C3的特征图进行2倍上采样操作,得到维度为4W3×4H3×C3的特征图;
卷积核为1×1的卷积层用于对维度为4W3×4H3×C3的特征图卷积操作,得到维度为4W3×4H3×C3的特征图;
通道轴拼接模块用于将三组维度为4W3×4H3×C3的特征图沿通道轴进行拼接,得到维度为4W3×4H3×(C3×3)的特征图。
10.根据权利要求6所述的一种基于空间注意力的文本到图像生成系统,其特征在于,还包括用于判断所述生成器输出的图像是否符合文本描述的判别器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110474295.6A CN113140023B (zh) | 2021-04-29 | 2021-04-29 | 一种基于空间注意力的文本到图像生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110474295.6A CN113140023B (zh) | 2021-04-29 | 2021-04-29 | 一种基于空间注意力的文本到图像生成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113140023A true CN113140023A (zh) | 2021-07-20 |
CN113140023B CN113140023B (zh) | 2023-09-15 |
Family
ID=76816424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110474295.6A Active CN113140023B (zh) | 2021-04-29 | 2021-04-29 | 一种基于空间注意力的文本到图像生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113140023B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113869181A (zh) * | 2021-09-24 | 2021-12-31 | 电子科技大学 | 一种选择池化核结构的无人机目标检测方法 |
CN113869007A (zh) * | 2021-10-11 | 2021-12-31 | 大连理工大学 | 一种基于深度学习的文本生成图像学习模型 |
CN114118111A (zh) * | 2021-11-26 | 2022-03-01 | 昆明理工大学 | 融合文本和图片特征的多模态机器翻译方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180060900A1 (en) * | 2016-08-26 | 2018-03-01 | Mediabong | Method and system for determining the attention of a user of at least one video advertising in a web page and for recycling the video advertising displayed to the user depending on said measurement |
CN111832501A (zh) * | 2020-07-20 | 2020-10-27 | 中国人民解放军战略支援部队航天工程大学 | 一种面向卫星在轨应用的遥感影像文本智能描述方法 |
CN111985369A (zh) * | 2020-08-07 | 2020-11-24 | 西北工业大学 | 基于跨模态注意力卷积神经网络的课程领域多模态文档分类方法 |
-
2021
- 2021-04-29 CN CN202110474295.6A patent/CN113140023B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180060900A1 (en) * | 2016-08-26 | 2018-03-01 | Mediabong | Method and system for determining the attention of a user of at least one video advertising in a web page and for recycling the video advertising displayed to the user depending on said measurement |
CN111832501A (zh) * | 2020-07-20 | 2020-10-27 | 中国人民解放军战略支援部队航天工程大学 | 一种面向卫星在轨应用的遥感影像文本智能描述方法 |
CN111985369A (zh) * | 2020-08-07 | 2020-11-24 | 西北工业大学 | 基于跨模态注意力卷积神经网络的课程领域多模态文档分类方法 |
Non-Patent Citations (1)
Title |
---|
韦人予;蒙祖强;: "基于注意力特征自适应校正的图像描述模型", 计算机应用, no. 1 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113869181A (zh) * | 2021-09-24 | 2021-12-31 | 电子科技大学 | 一种选择池化核结构的无人机目标检测方法 |
CN113869181B (zh) * | 2021-09-24 | 2023-05-02 | 电子科技大学 | 一种选择池化核结构的无人机目标检测方法 |
CN113869007A (zh) * | 2021-10-11 | 2021-12-31 | 大连理工大学 | 一种基于深度学习的文本生成图像学习模型 |
CN113869007B (zh) * | 2021-10-11 | 2024-04-23 | 大连理工大学 | 一种基于深度学习的文本生成图像学习方法 |
CN114118111A (zh) * | 2021-11-26 | 2022-03-01 | 昆明理工大学 | 融合文本和图片特征的多模态机器翻译方法 |
CN114118111B (zh) * | 2021-11-26 | 2024-05-24 | 昆明理工大学 | 融合文本和图片特征的多模态机器翻译方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113140023B (zh) | 2023-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490946B (zh) | 基于跨模态相似度和生成对抗网络的文本生成图像方法 | |
CN110706302B (zh) | 一种文本合成图像的系统及方法 | |
CN111260740B (zh) | 一种基于生成对抗网络的文本到图像生成方法 | |
CN113140023B (zh) | 一种基于空间注意力的文本到图像生成方法及系统 | |
CN110309839B (zh) | 一种图像描述的方法及装置 | |
CN111402365B (zh) | 一种基于双向架构对抗生成网络的由文字生成图片的方法 | |
CN113343705B (zh) | 一种基于文本语义的细节保持图像生成方法及系统 | |
CN108563779B (zh) | 一种基于神经网络的无模板自然语言文本答案生成方法 | |
CN113140020B (zh) | 一种基于伴随监督生成对抗网络的文本生成图像的方法 | |
CN115203442B (zh) | 基于联合注意力的跨模态深度哈希检索方法、系统及介质 | |
CN113361251A (zh) | 一种基于多阶段生成对抗网络的文本生成图像方法及系统 | |
CN111464881A (zh) | 基于自优化机制的全卷积视频描述生成方法 | |
CN112037239B (zh) | 基于多层次显式关系选择的文本指导图像分割方法 | |
CN113283336A (zh) | 一种文本识别方法与系统 | |
CN115690245A (zh) | 一种基于属性驱动gan的文本生成图像的方法 | |
CN117058673A (zh) | 文本生成图像模型训练方法、系统以及文本生成图像方法、系统 | |
CN110188791B (zh) | 基于自动估计的视觉情感标签分布预测方法 | |
CN111339734A (zh) | 一种基于文本生成图像的方法 | |
Zhou et al. | Conditional generative adversarial networks for domain transfer: a survey | |
WO2023154192A1 (en) | Video synthesis via multimodal conditioning | |
CN115496134A (zh) | 基于多模态特征融合的交通场景视频描述生成方法和装置 | |
CN115659242A (zh) | 一种基于模态增强卷积图的多模态情感分类方法 | |
CN115482302A (zh) | 一种基于交叉注意力编码的从文本生成图像方法 | |
CN111566665B (zh) | 在自然语言处理中应用图像编码识别的装置和方法 | |
CN113239678A (zh) | 一种面向答案选择的多角度注意力特征匹配方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |