CN111339734B - 一种基于文本生成图像的方法 - Google Patents
一种基于文本生成图像的方法 Download PDFInfo
- Publication number
- CN111339734B CN111339734B CN202010104619.2A CN202010104619A CN111339734B CN 111339734 B CN111339734 B CN 111339734B CN 202010104619 A CN202010104619 A CN 202010104619A CN 111339734 B CN111339734 B CN 111339734B
- Authority
- CN
- China
- Prior art keywords
- image
- model
- loss function
- generator model
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 19
- 239000013598 vector Substances 0.000 claims description 52
- 230000006870 function Effects 0.000 claims description 34
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000005070 sampling Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于文本生成图像的方法,包括如下步骤:准备生成器模型和判识器模型的训练数据集;训练生成器模型和判识器模型,并计算生成器模型和判识器模型的损失函数;将生成的图像输入到卷积神经网络CNN中,获得整张图像与其匹配的文本描述的损失函数;将整个训练网络不断迭代N次,直到生成器模型的损失函数和和判识器模型的损失函数达到平衡状态。本发明所公开的方法适用于对象之间关联性比较强的复杂文本,可以提高生成图像的分辨率,图像精度高,可以拿来直接使用。
Description
技术领域
本发明涉及一种基于文本生成图像的方法。
背景技术
目前由文本生成图像的方法主要存在以下弱点:
(1)一种方法是直接将描述图像的文本转换为向量生成图像,虽然生成的图像质量比较好,但当面对复杂文本时,该方法不适用。
(2)存在一种方法将文本中出现的对象关系编码为场景图的形式,虽然可以处理复杂的文本,但是生成的图像分辨率低,无法在实际使用;
(3)还有一种方法是在文本生成图像的过程中,要不断调整文本间词的关系,继而继续对图像进行调整,该过程需要重复操作,耗费大量计算成本。
发明内容
为解决上述技术问题,本发明提供了一种基于文本生成图像的方法,解决由复杂文本生成高质量图像的问题,以满足实际需要。
为达到上述目的,本发明的技术方案如下:
一种基于文本生成图像的方法,包括如下步骤:
步骤一,准备生成器模型和判识器模型的训练数据集;
步骤二,保持判识器模型参数为初始状态,训练生成器模型,生成器模型由并行网络分别根据对象路径和全局路径生成图像,在生成图像的过程中以学习率αg不断更新生成器模型参数θG,并计算生成器模型的损失函数;
步骤三,固定生成器模型参数,训练判识器模型,判识器模型从对象路径和全局路径两个方面并行操作图像提取特征,根据生成器模型生成的图像以及训练数据集中的样本图像x以学习率αd不断学习更新判识器模型参数θD,进而判断图像的真伪,并计算判识器模型的损失函数;
步骤四,将生成的图像输入到卷积神经网络CNN中,获得整张图像与其匹配的文本描述的损失函数;
步骤五,将整个训练网络不断迭代N次,直到生成器模型的损失函数和和判识器模型的损失函数达到平衡状态。
上述方案中,为了生成更高分辨率的图像,再增加2个生成器模型和2个判识器模型,在第一生成器模型生成分辨率为64×64大小图像的基础上,重复步骤二和步骤三的操作,交替训练更新生成器模型参数θG和判识器模型参数θD,第二生成器模型生成分辨率为128×128大小的图像,第三生成器模型生成分辨率为256×256大小的图像。
上述方案中,所述步骤一具体如下:
训练数据集包括图像中对象的标注信息和每张图片的标题对标题/>中出现的对象类别用向量σi表示,i=0,1,2,...,n;图像中每一个对象的特征向量,用ρ来表示,ρ初始化时为空向量;生成器模型和判识器模型的参数分别为θG和θD。
上述方案中,所述步骤二中生成器模型的训练过程如下:
在双向长短记忆网络的最后一个隐藏层将所有词向量串联起来得到的标题向量/> 将图像的标题向量/>标题中的对象类别标签σi以及随机的样本噪声向量z进行串联得到向量a,其中z服从正态分布;a经非线性全连接层处理得到σi的条件标签li。
上述方案中,所述步骤二中根据对象路径生成图像的过程如下:
在空间上将li复制为4×4分辨率大小的图像 经过多层卷积和上采样操作后生成/>大小的图像,并为图像中给定的对象σi生成特征;采用空间变换网络将该对象生成的特征转化到ρ中,并定位到对应的边界框位置;重复其他对象的操作,直到标题/>中出现的其他对象出现在/>图像中,并对应各自的对象边界位置;
根据全局路径生成图像的过程如下:
全局路径获取各个对象的位置和标签,首先在空间尺度为16×16大小的图像上对各个对象的边界框复制对象的标签,应用卷积操作,根据各个对象的位置和标签获取图像的布局编码特征,将布局编码特征、和z连接起来,生成在4×4空间分辨率下的图像/>的全局特征,同样经多个卷积层和上采样操作后得到图像/>
生成器模型的损失函数为:
(a)无条件损失,指根据向量z生成图像得到的损失,决定生成图像的真假;
上述方案中,所述步骤三中判识器模型的训练过程如下:
判识器模型从对象路径和全局路径两个方面并行操作图像提取特征;对象路径使用空间变换网络提取对象σi所处边界框位置的特征,提取的特征转换为空间分辨率尺寸大小为x/4的图像,x为判识器模型输入的图像尺寸大小,然后沿着通道轴与该对象σi表示的具有相同特征维度的向量连接起来,经过多个卷积层操作之后,将提取的各个对象特征添加到边界框位置对应的ρ中;
判识器的全局路径工作在整张图像中,不断对图像降低其空间分辨率,一旦达到同ρ具有相同的维度,沿着通道轴连接两个向量,继续进行降采样,直到达到分辨率4×4的图像大小,模型输出的结果为0,代表输出为假样本,输出1代表/>为真样本。
上述方案中,所述步骤三中判识器模型的损失函数由以下部分组成:
(a)无条件损失
(b)条件损失
(c)类标签损失
(d)图像中的对象损失
上述方案中,所述步骤四的具体方法如下:
将最后生成的分辨率256×256大小尺寸的图像调整为300×300,输入到卷积神经网络CNN中,CNN中间层提取图像的局部特征矩阵f∈RM×N;f的每一列表示图像子区域的特征向量,M为局部特征向量的维度,N代表图像被划分为子区域的数量;CNN网络的最后一个平均池化层提取图像的全局特征向量在平均池化层之后通过增加一个感知层将图像特征转化为文本特征的公共语义空间,用如下公式描述:
ci是与第i个词相关的图像的子区域的动态表示:
第i个词与图像的相关性定义为:
其中,γ3为平滑因子;
上述方案中,所述步骤四中,
生成器模型的损失函数计算如下:
判识器模型的损失函数计算如下:
其中,λ,λ1,λ2,λ3,λ4为影响系数;
将整个训练网络不断迭代N次,直到生成器模型的损失函数和和判识器模型的损失函数达到平衡状态,此时训练模型中的参数达到最优。
通过上述技术方案,本发明提供的基于文本生成图像的方法具有如下有益效果:
(1)可以根据复杂的文本描述生成图像。
(2)在生成图像的过程中通过添加对象路径和全局路径的操作,得到图像更细粒度的特征,提高了生成图像的质量。
(3)最后根据生成的图像与文本的词联系起来,也提高了最终的图像质量。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种基于文本生成图像的方法,具体实施方式如下:
步骤一,准备生成器模型和判识器模型的训练数据集;
训练数据集包括图像中对象的标注信息和每张图片的标题对标题/>中出现的对象类别用向量σi表示,i=0,1,2,...,n;图像中每一个对象的特征向量,用ρ来表示,ρ初始化时为空向量;生成器模型和判识器模型的参数分别为θG和θD。
步骤二,保持判识器模型参数为初始状态,训练生成器模型,生成器模型由并行网络分别根据对象路径和全局路径生成图像,在生成图像的过程中以学习率αg不断更新生成器模型参数θG,并计算生成器模型的损失函数;
在双向长短记忆网络的最后一个隐藏层将所有词向量串联起来得到的标题向量 将图像的标题向量/>标题中的对象类别标签σi以及随机的样本噪声向量z进行串联得到向量a,其中z服从正态分布;a经非线性全连接层处理得到σi的条件标签li。
根据对象路径生成图像的过程如下:
在空间上将li复制为4×4分辨率大小的图像 经过多层卷积和上采样操作后生成/>大小的图像,并为图像中给定的对象σi生成特征;采用空间变换网络将该对象生成的特征转化到ρ中,并定位到对应的边界框位置;重复其他对象的操作,直到标题/>中出现的其他对象出现在/>图像中,并对应各自的对象边界位置;
根据全局路径生成图像的过程如下:
全局路径获取各个对象的位置和标签,首先在空间尺度为16×16大小的图像上对各个对象的边界框复制对象的标签,应用卷积操作,根据各个对象的位置和标签获取图像的布局编码特征,将布局编码特征、和z连接起来,生成在4×4空间分辨率下的图像/>的全局特征,同样经多个卷积层和上采样操作后得到图像/>
生成器模型的损失函数为:
(a)无条件损失,指根据向量z生成图像得到的损失,决定生成图像的真假;
步骤三,固定生成器模型参数,训练判识器模型,判识器模型从对象路径和全局路径两个方面并行操作图像提取特征,根据生成器模型生成的图像以及训练数据集中的样本图像x以学习率αd不断学习更新判识器模型参数θD,进而判断图像的真伪,并计算判识器模型的损失函数;
判识器模型从对象路径和全局路径两个方面并行操作图像提取特征;对象路径使用空间变换网络提取对象σi所处边界框位置的特征,提取的特征转换为空间分辨率尺寸大小为x/4的图像,x为判识器模型输入的图像尺寸大小,然后沿着通道轴与该对象σi表示的具有相同特征维度的向量连接起来,经过多个卷积层操作之后,将提取的各个对象特征添加到边界框位置对应的ρ中;
判识器的全局路径工作在整张图像中,不断对图像降低其空间分辨率,一旦达到同ρ具有相同的维度,沿着通道轴连接两个向量,继续进行降采样,直到达到分辨率4×4的图像大小,模型输出的结果为0,代表输出为假样本,输出1代表/>为真样本。
判识器模型的损失函数由以下部分组成:
(a)无条件损失
(b)条件损失
(c)类标签损失
(d)图像中的对象损失
步骤四,为了生成更高分辨率的图像,再增加2个生成器模型和2个判识器模型。随着硬件的计算能力不断提高,可以增加不同的数量。
在第一生成器模型生成分辨率为64×64大小图像的基础上,重复步骤二和步骤三的操作,交替训练更新生成器模型参数θG和判识器模型参数θD,第二生成器模型生成分辨率为128×128大小的图像,第三生成器模型生成分辨率为256×256大小的图像。
步骤五,将生成的图像输入到卷积神经网络CNN中,获得整张图像与其匹配的文本描述的损失函数。
将最后生成的分辨率256×256大小尺寸的图像调整为300×300,输入到卷积神经网络CNN中,CNN中间层提取图像的局部特征矩阵f∈RM×N;f的每一列表示图像子区域的特征向量,M为局部特征向量的维度,N代表图像被划分为子区域的数量;CNN网络的最后一个平均池化层提取图像的全局特征向量在平均池化层之后通过增加一个感知层将图像特征转化为文本特征的公共语义空间,用如下公式描述:
ci是与第i个词相关的图像的子区域的动态表示:
第i个词与图像的相关性定义为:
其中,γ3为平滑因子;
步骤六,将整个训练网络不断迭代N次,直到生成器模型的损失函数和和判识器模型的损失函数达到平衡状态。
生成器模型的损失函数计算如下:
判识器模型的损失函数计算如下:
其中,λ,λ1,λ2,λ3,λ4为影响系数;
将整个训练网络不断迭代N次,直到生成器模型的损失函数和和判识器模型的损失函数达到平衡状态,此时训练模型中的参数达到最优。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (4)
1.一种基于文本生成图像的方法,其特征在于,包括如下步骤:
步骤一,准备生成器模型和判识器模型的训练数据集;
步骤二,保持判识器模型参数为初始状态,训练生成器模型,生成器模型由并行网络分别根据对象路径和全局路径生成图像,在生成图像的过程中以学习率αg不断更新生成器模型参数θG,并计算生成器模型的损失函数;
步骤三,固定生成器模型参数,训练判识器模型,判识器模型从对象路径和全局路径两个方面并行操作图像提取特征,根据生成器模型生成的图像以及训练数据集中的样本图像x以学习率αd不断学习更新判识器模型参数θD,进而判断图像的真伪,并计算判识器模型的损失函数;
步骤四,将生成的图像输入到卷积神经网络CNN中,获得整张图像与其匹配的文本描述的损失函数;
步骤五,将整个训练网络不断迭代N次,直到生成器模型的损失函数和和判识器模型的损失函数达到平衡状态;
步骤二中生成器模型的训练过程如下:
在双向长短记忆网络的最后一个隐藏层将所有词向量串联起来得到的标题向量/> 将图像的标题向量/>标题中的对象类别标签σi以及随机的样本噪声向量z进行串联得到向量a,其中z服从正态分布;a经非线性全连接层处理得到对象类别标签σi的条件标签li;
所述步骤二中,根据对象路径生成图像的过程如下:
在空间上将li复制为4×4分辨率大小的图像 经过多层卷积和上采样操作后生成/>大小的图像,并为图像中给定的对象类别标签σi生成特征;采用空间变换网络将该对象生成的特征转化到ρ中,并定位到对应的边界框位置;重复其他对象的操作,直到标题中出现的其他对象出现在/>图像中,并对应各自的对象边界位置;
根据全局路径生成图像的过程如下:
全局路径获取各个对象的位置和条件标签li,首先在空间尺度为16×16大小的图像上对各个对象的边界框复制对象的条件标签li,应用卷积操作,根据各个对象的位置和条件标签li获取图像的布局编码特征,将布局编码特征、和z连接起来,生成在4×4空间分辨率下的图像/>的全局特征,同样经多个卷积层和上采样操作后得到图像/>
第i个生成器模型的损失函数为:
(a)无条件损失,指根据向量z生成图像得到的损失,决定生成图像的真假;
所述步骤三中判识器模型的训练过程如下:
判识器模型从对象路径和全局路径两个方面并行操作图像提取特征;对象路径使用空间变换网络提取对象类别标签σi所处边界框位置的特征,提取的特征转换为空间分辨率尺寸大小为x4图像,x为判识器模型输入的图像尺寸大小,然后沿着通道轴与该对象类别标签σi表示的具有相同特征维度的向量连接起来,经过多个卷积层操作之后,将提取的各个对象特征添加到边界框位置对应的ρ中;
判识器的全局路径工作在整张图像中,不断对图像降低其空间分辨率,一旦达到同ρ具有相同的维度,沿着通道轴连接两个向量,继续进行降采样,直到达到分辨率4×4的图像大小,模型输出的结果为0,代表输出为假样本,输出1代表/>为真样本;
所述步骤三中判识器模型的损失函数由以下部分组成:
(a)无条件损失
(b)条件损失
(c)类标签损失
(d)图像中的对象损失
所述步骤五中,生成器模型的损失函数计算如下:
判识器模型的损失函数计算如下:
其中,λ,λ1,λ2,λ3,λ4为影响系数;LcapImg为整张图像与其匹配的文本描述的损失函数;
将整个训练网络不断迭代N次,直到生成器模型的损失函数和和判识器模型的损失函数达到平衡状态,此时训练模型中的参数达到最优。
2.根据权利要求1所述的一种基于文本生成图像的方法,其特征在于,为了生成更高分辨率的图像,再增加2个生成器模型和2个判识器模型,在第一生成器模型生成分辨率为64×64大小图像的基础上,重复步骤二和步骤三的操作,交替训练更新生成器模型参数θG和判识器模型参数θD,第二生成器模型生成分辨率为128×128大小的图像,第三生成器模型生成分辨率为256×256大小的图像。
4.根据权利要求1所述的一种基于文本生成图像的方法,其特征在于,所述步骤四的具体方法如下:
将最后生成的分辨率256×256大小尺寸的图像调整为300×300,输入到卷积神经网络CNN中,CNN中间层提取图像的局部特征矩阵f∈RM×N;f的每一列表示图像子区域的特征向量,M为局部特征向量的维度,N代表图像被划分为子区域的数量;CNN网络的最后一个平均池化层提取图像的全局特征向量在平均池化层之后通过增加一个感知层将图像特征转化为文本特征的公共语义空间,用如下公式描述:
ci是与第i个词相关的图像的子区域的动态表示:
第i个词与图像的相关性定义为:
其中,γ3为平滑因子;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010104619.2A CN111339734B (zh) | 2020-02-20 | 2020-02-20 | 一种基于文本生成图像的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010104619.2A CN111339734B (zh) | 2020-02-20 | 2020-02-20 | 一种基于文本生成图像的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111339734A CN111339734A (zh) | 2020-06-26 |
CN111339734B true CN111339734B (zh) | 2023-06-30 |
Family
ID=71183489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010104619.2A Active CN111339734B (zh) | 2020-02-20 | 2020-02-20 | 一种基于文本生成图像的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111339734B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101330B (zh) * | 2020-11-20 | 2021-04-30 | 北京沃东天骏信息技术有限公司 | 图像处理方法、装置、电子设备以及存储介质 |
CN113140019B (zh) * | 2021-05-13 | 2022-05-31 | 电子科技大学 | 一种基于融合弥补生成对抗网络的文本生成图像的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522966A (zh) * | 2018-11-28 | 2019-03-26 | 中山大学 | 一种基于密集连接卷积神经网络的目标检测方法 |
US10325201B1 (en) * | 2019-01-31 | 2019-06-18 | StradVision, Inc. | Method and device for generating deceivable composite image by using GAN including generating neural network and discriminating neural network to allow surveillance system to recognize surroundings and detect rare event more accurately |
CN110163267A (zh) * | 2019-05-09 | 2019-08-23 | 厦门美图之家科技有限公司 | 一种图像生成模型的训练方法和生成图像的方法 |
CN110490946A (zh) * | 2019-07-15 | 2019-11-22 | 同济大学 | 基于跨模态相似度和生成对抗网络的文本生成图像方法 |
CN110751698A (zh) * | 2019-09-27 | 2020-02-04 | 太原理工大学 | 一种基于混和网络模型的文本到图像的生成方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9652695B2 (en) * | 2013-12-20 | 2017-05-16 | Google Inc. | Label consistency for image analysis |
-
2020
- 2020-02-20 CN CN202010104619.2A patent/CN111339734B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522966A (zh) * | 2018-11-28 | 2019-03-26 | 中山大学 | 一种基于密集连接卷积神经网络的目标检测方法 |
US10325201B1 (en) * | 2019-01-31 | 2019-06-18 | StradVision, Inc. | Method and device for generating deceivable composite image by using GAN including generating neural network and discriminating neural network to allow surveillance system to recognize surroundings and detect rare event more accurately |
CN110163267A (zh) * | 2019-05-09 | 2019-08-23 | 厦门美图之家科技有限公司 | 一种图像生成模型的训练方法和生成图像的方法 |
CN110490946A (zh) * | 2019-07-15 | 2019-11-22 | 同济大学 | 基于跨模态相似度和生成对抗网络的文本生成图像方法 |
CN110751698A (zh) * | 2019-09-27 | 2020-02-04 | 太原理工大学 | 一种基于混和网络模型的文本到图像的生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111339734A (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109344288B (zh) | 一种基于多模态特征结合多层注意力机制的结合视频描述方法 | |
Liu et al. | Connecting image denoising and high-level vision tasks via deep learning | |
CN109886121B (zh) | 一种遮挡鲁棒的人脸关键点定位方法 | |
CN110706302B (zh) | 一种文本合成图像的系统及方法 | |
CN109033095B (zh) | 基于注意力机制的目标变换方法 | |
CN111243066A (zh) | 一种基于自监督学习与生成对抗机制的人脸表情迁移方法 | |
CN111079532A (zh) | 一种基于文本自编码器的视频内容描述方法 | |
Mahdizadehaghdam et al. | Sparse generative adversarial network | |
CN110570377A (zh) | 一种基于组归一化的快速图像风格迁移方法 | |
CN112307714B (zh) | 一种基于双阶段深度网络的文字风格迁移方法 | |
CN114581560B (zh) | 基于注意力机制的多尺度神经网络红外图像彩色化方法 | |
CN111339734B (zh) | 一种基于文本生成图像的方法 | |
CN113222875B (zh) | 一种基于色彩恒常性的图像和谐化合成方法 | |
CN110853119A (zh) | 一种鲁棒的基于参考图片的妆容迁移方法 | |
CN114066871B (zh) | 一种新冠肺炎病灶区域分割模型训练的方法 | |
CN115222998B (zh) | 一种图像分类方法 | |
CN116452862A (zh) | 基于领域泛化学习的图像分类方法 | |
CN117478978A (zh) | 一种文本生成电影视频片段的方法、系统和设备 | |
US20230262293A1 (en) | Video synthesis via multimodal conditioning | |
CN111681236A (zh) | 一种带注意力机制的目标密度估计方法 | |
Wang | [Retracted] An Old Photo Image Restoration Processing Based on Deep Neural Network Structure | |
CN116597142A (zh) | 基于全卷积神经网络与变换器的卫星图像语义分割方法及系统 | |
CN113421314B (zh) | 一种基于生成对抗网络的多尺度双模态文本生成图像方法 | |
CN115862015A (zh) | 文字识别系统的训练方法及装置、文字识别方法及装置 | |
CN115115860A (zh) | 一种基于深度学习的图像特征点检测匹配网络 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |