CN107943752A - 一种基于文本‑图像生成对抗网络模型的可变形卷积方法 - Google Patents
一种基于文本‑图像生成对抗网络模型的可变形卷积方法 Download PDFInfo
- Publication number
- CN107943752A CN107943752A CN201711124688.4A CN201711124688A CN107943752A CN 107943752 A CN107943752 A CN 107943752A CN 201711124688 A CN201711124688 A CN 201711124688A CN 107943752 A CN107943752 A CN 107943752A
- Authority
- CN
- China
- Prior art keywords
- mrow
- maker
- image
- network model
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于文本‑图像生成对抗网络模型的可变形卷积方法,属于深度学习神经网络领域,包括以下步骤:S1、构造文本‑图像生成对抗网络模型;S2、利用深度卷积神经网络充当生成器、判别器的功能;S3、对文本进行编码之后与随机噪声结合,输入至生成器中;S4、在文本‑图像生成对抗网络模型中利用可变形卷积核对图像进行卷积操作;S5、将可变形卷积操作得到的损失函数输入生成器进行后续训练。本方法构建的基于可变形卷积的文本‑图像生成对抗网络模型,改变了判别器、生成器接收图片后的卷积方式,让判别器、生成器能够以更大的范围对图像的特征进行学习,从而能够提高整个网络训练模型的鲁棒性。
Description
技术领域
本发明涉及深度学习神经网络技术领域,具体涉及一种基于文本-图像生成对抗网络模型的可变形卷积方法。
背景技术
生成式对抗网络(Generative Adversarial Network,简称GAN)是由Goodfellow在2014年提出的深度学习框架,它基于“博奕论”的思想,构造生成器(generator)和判别器(discriminator)两种模型,前者通过输入(0,1)的均匀噪声或高斯随机噪声生成图像,后者对输入的图像进行判别,确定是来自数据集的图像还是由生成器产生的图像。
在传统的对抗网络模型中,生成器只能通过学习数据集图像的特征,生成自身的图像,这导致传统对抗网络模型训练缺乏针对性和灵活性。
发明内容
本发明的目的是为了解决现有技术中的上述缺陷,构建了一种基于文本-图像生成对抗网络模型的可变形卷积方法。
本发明的目的可以通过采取如下技术方案达到:
一种基于文本-图像生成对抗网络模型的可变形卷积方法,所述的可变形卷积方法包括下列步骤:
S1、构造文本-图像生成对抗网络模型,生成器通过生成图像输入至判别器进行网络训练;
S2、利用深度卷积神经网络充当生成器、判别器的功能;
在本发明所涉及到的网络模型中,相对于传统的生成对抗网络模型,多了对于文本内容的编码操作,从而使整个网络能够生成符合文本描述内容的图像。
S3、对文本进行编码之后与随机噪声结合,输入至生成器中;
S4、在文本-图像生成对抗网络模型中利用可变形卷积核对图像进行卷积操作;
S5、将可变形卷积操作得到的损失函数输入生成器进行后续训练。
进一步地,所述的步骤S2具体如下:
构造多个卷积核,不同的卷积核,代表着在学习的过程中,能够学习到不同的图像特征。
进一步地,所述的步骤S4中在文本-图像生成对抗网络模型中利用可变形卷积核对图像进行卷积操作,具体过程如下:
S41、构造多个不同数值但大小相同的卷积核;
S42、采用已构造的卷积核,分别对生成器生成的多张图像进行卷积,从而得到多张特征图。
进一步地,所述的步骤S5中,将可变形卷积操作得到的损失函数输入生成器进行后续训练。具体过程如下:
S51、对S4中卷积之后的特征图,输入判别器进行判别;
S52、将可变形卷积操作得到的损失函数输入生成器进行后续训练。
S53、将所有损失函数的均值输入至生成器中继续进行训练。
进一步地,所述的损失函数的表达式为:
其中,D(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度,E为取均值的操作符号。
本发明相对于现有技术具有如下的优点及效果:
灵活性:本发明根据可变形卷积的操作过程,设置构造了多个可变形卷积核,通过在网络训练过程中误差的反传,动态地对卷积核的形状进行自适应的改变,从而提高了生成器对图像特征进行学习的灵活性。
附图说明
图1是本发明中公开的一种基于文本-图像生成对抗网络模型的可变形卷积方法的训练流程图;
图2是本发明中对原始卷积核改造成为可变形卷积核的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本实施例公开了一种基于文本-图像生成对抗网络模型的可变形卷积方法,具体包括下列步骤:
步骤S1、构造文本-图像生成对抗网络模型,生成器通过生成图像输入至判别器进行网络训练。
步骤S2、利用深度卷积神经网络充当生成器、判别器的功能;
不同的卷积核,体现在矩阵数值的不同、行列数的不同。
构造多个卷积核,在处理图像的过程中,不同的卷积核意味着能够在网络训练的过程中学习到生成图像的不同特征。
在本发明所涉及到的网络模型中,相对于传统的生成对抗网络模型,多了对于文本内容的编码操作,从而使整个网络能够生成符合文本描述内容的图像。
在传统对抗网络的模型中,判别器和生成器所用到的卷积核都是固定大小且数值一致的,在这种情况下的训练效率相对较低,而且学习到的图像特征范围相对较小,而在本发明中,利用可变形卷积,即在网络训练的过程中,根据生成器所学习到特征范围的动态变化情况,动态地对卷积核的形状进行自适应地改变,从而增强了对图像特征学习的灵活性。
在实际应用中,应该根据数据集图像特征的复杂程度,设置卷积核的个数。
步骤S3、对文本进行编码之后与随机噪声结合,输入至生成器中。
步骤S4、在文本-图像生成对抗网络模型中利用可变形卷积核对图像进行卷积操作。
具体方法如下:
S41、构造多个不同数值但大小相同的卷积核;
S42、根据训练过程中误差的反传情况,对卷积核的形状进行动态地改变,进行后续的训练。
步骤S5、将可变形卷积操作得到的损失函数输入生成器进行后续训练。具体过程如下:
S51、将步骤S4中卷积之后的特征图,输入判别器进行判别;
S52、将可变形卷积操作得到的损失函数输入生成器进行后续训练;
S53、将所有损失函数的均值输入至生成器中继续进行训练。
损失函数的作用是衡量判别器对生成图像判断的能力。损失函数的值越小,说明在当前迭代中,判别器能够有较好的性能辨别生成器的生成图像;反之则说明判别器的性能较差。
损失函数的表达式为:
其中,D(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度。
综上所述,本实施例公开了一种基于文本-图像生成对抗网络模型的可变形卷积方法,相比于传统的原始对抗网络模型,改变了判别器接收图片后的对图像特征进行学习的方式。在传统对抗网络的模型中,判别器和生成器所用到的卷积核都是固定大小且数值一致的,在这种情况下的训练效率相对较低,而且学习到的图像特征范围相对较小。而在本发明中,利用可变形卷积,在网络训练的过程上,动态地对卷积核的形状进行改变,从而提高了整个网络学习图像特征的自由度。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.一种基于文本-图像生成对抗网络模型的可变形卷积方法,其特征在于,所述的可变形卷积方法包括下列步骤:
S1、构造文本-图像生成对抗网络模型,生成器通过生成图像输入至判别器进行网络训练;
S2、利用深度卷积神经网络充当生成器、判别器的功能;
S3、对文本进行编码之后随机噪声结合,输入至生成器中;
S4、在文本-图像生成对抗网络模型中利用可变形卷积核对图像进行卷积操作;
S5、将可变形卷积操作得到的损失函数输入生成器进行后续训练。
2.根据权利要求1所述的一种基于文本-图像生成对抗网络模型的可变形卷积方法,其特征在于,所述的步骤S4具体过程如下:
S41、构造多个不同数值但大小相同的卷积核;
S42、利用可变形卷积对卷积核进行改造,输入网络进行训练。
3.根据权利要求1所述的一种基于文本-图像生成对抗网络模型的可变形卷积方法,其特征在于,所述的步骤S5具体过程如下:
S51、将可变形卷积之后操作得到的图像特征图,输入判别器中进行判别;
S52、将可变形卷积之后操作得到的损失函数输入生成器进行后续训练;
S53、将所有损失函数的均值输入至生成器中继续进行训练。
4.根据权利要求3所述的一种基于文本-图像生成对抗网络模型的可变形卷积方法,其特征在于,所述的损失函数的表达式为:
<mrow>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>D</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>-</mo>
<msub>
<mi>E</mi>
<mrow>
<mi>x</mi>
<mo>~</mo>
<mi>p</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>D</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>+</mo>
<msub>
<mi>E</mi>
<mrow>
<mi>x</mi>
<mo>~</mo>
<mi>p</mi>
<mi>g</mi>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>D</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>+</mo>
<msub>
<mi>&lambda;E</mi>
<mrow>
<mi>x</mi>
<mo>~</mo>
<mi>X</mi>
</mrow>
</msub>
<msub>
<mo>&dtri;</mo>
<mi>x</mi>
</msub>
</mrow>
其中,D(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度,E为取均值的操作符号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711124688.4A CN107943752A (zh) | 2017-11-14 | 2017-11-14 | 一种基于文本‑图像生成对抗网络模型的可变形卷积方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711124688.4A CN107943752A (zh) | 2017-11-14 | 2017-11-14 | 一种基于文本‑图像生成对抗网络模型的可变形卷积方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107943752A true CN107943752A (zh) | 2018-04-20 |
Family
ID=61932091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711124688.4A Pending CN107943752A (zh) | 2017-11-14 | 2017-11-14 | 一种基于文本‑图像生成对抗网络模型的可变形卷积方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107943752A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109147010A (zh) * | 2018-08-22 | 2019-01-04 | 广东工业大学 | 带属性人脸图像生成方法、装置、系统及可读存储介质 |
CN109344879A (zh) * | 2018-09-07 | 2019-02-15 | 华南理工大学 | 一种基于文本-图像对抗网络模型的分解卷积方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103590A (zh) * | 2017-03-22 | 2017-08-29 | 华南理工大学 | 一种基于深度卷积对抗生成网络的图像反射去除方法 |
-
2017
- 2017-11-14 CN CN201711124688.4A patent/CN107943752A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103590A (zh) * | 2017-03-22 | 2017-08-29 | 华南理工大学 | 一种基于深度卷积对抗生成网络的图像反射去除方法 |
Non-Patent Citations (3)
Title |
---|
ISHAAN GULRAJANI ET AL: "Improved Training of Wasserstein GANs", 《MARCHINE LEARNING》 * |
SCOTT REED: "Generative Adversarial Text to Image Synthesis", 《ICML2016》 * |
欧阳针: "基于可变形卷积神经网络的图像分类研究", 《软件导刊》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109147010A (zh) * | 2018-08-22 | 2019-01-04 | 广东工业大学 | 带属性人脸图像生成方法、装置、系统及可读存储介质 |
CN109344879A (zh) * | 2018-09-07 | 2019-02-15 | 华南理工大学 | 一种基于文本-图像对抗网络模型的分解卷积方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107862377A (zh) | 一种基于文本‑图像生成对抗网络模型的分组卷积方法 | |
CN107886169A (zh) | 一种基于文本‑图像生成对抗网络模型的多尺度卷积核方法 | |
CN107590518A (zh) | 一种多特征学习的对抗网络训练方法 | |
CN107871142A (zh) | 一种基于深度卷积对抗网络模型的空洞卷积方法 | |
CN107563493A (zh) | 一种多生成器卷积合成图像的对抗网络算法 | |
CN107886162A (zh) | 一种基于wgan模型的可变形卷积核方法 | |
CN107590531A (zh) | 一种基于文本生成的wgan方法 | |
CN107944546A (zh) | 一种基于原始生成对抗网络模型的残差网络方法 | |
CN108021979A (zh) | 一种基于原始生成对抗网络模型的特征重标定卷积方法 | |
CN108460720A (zh) | 一种基于生成对抗网络模型改变图像风格的方法 | |
CN107016406A (zh) | 基于生成式对抗网络的病虫害图像生成方法 | |
CN107945118A (zh) | 一种基于生成式对抗网络的人脸图像修复方法 | |
CN107392312A (zh) | 一种基于dcgan性能的动态调整算法 | |
CN108470196A (zh) | 一种基于深度卷积对抗网络模型生成手写数字的方法 | |
CN107992944A (zh) | 一种基于原始生成对抗网络模型的多尺度卷积方法 | |
CN108346125A (zh) | 一种基于生成对抗网络的空域图像隐写方法及系统 | |
CN106686472A (zh) | 一种基于深度学习的高帧率视频生成方法及系统 | |
CN107680077A (zh) | 一种基于多阶梯度特征的无参考图像质量评价方法 | |
CN108009568A (zh) | 一种基于wgan模型的行人检测方法 | |
CN107563509B (zh) | 一种基于特征返回的条件dcgan模型的动态调整方法 | |
CN109344879A (zh) | 一种基于文本-图像对抗网络模型的分解卷积方法 | |
CN108985464A (zh) | 基于信息最大化生成对抗网络的人脸连续特征生成方法 | |
CN107590532A (zh) | 一种基于wgan的超参数动态调整方法 | |
CN108111860A (zh) | 基于深度残差网络的视频序列丢失帧预测恢复方法 | |
CN107943750A (zh) | 一种基于wgan模型的分解卷积方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180420 |