CN108460717A - 一种基于双判别器的生成对抗网络的图像生成方法 - Google Patents

一种基于双判别器的生成对抗网络的图像生成方法 Download PDF

Info

Publication number
CN108460717A
CN108460717A CN201810211670.6A CN201810211670A CN108460717A CN 108460717 A CN108460717 A CN 108460717A CN 201810211670 A CN201810211670 A CN 201810211670A CN 108460717 A CN108460717 A CN 108460717A
Authority
CN
China
Prior art keywords
arbiter
picture
reward value
arbiters
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810211670.6A
Other languages
English (en)
Inventor
杨华兴
刘云浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ruan Technology Co Ltd
Original Assignee
Ruan Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ruan Technology Co Ltd filed Critical Ruan Technology Co Ltd
Priority to CN201810211670.6A priority Critical patent/CN108460717A/zh
Publication of CN108460717A publication Critical patent/CN108460717A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及生成对抗网络图像生成技术领域,具体公开了一种基于双判别器的生成对抗网络的图像生成方法,其中,包括:得到文本数据;对文本数据进行处理得到条件向量;获取随机噪声;将随机噪声和条件向量同时输入到生成器中,得到生成图片;将真实图片和生成图片输入到所述第一判别器以及第二判别器;第一判别器给予真实图片第一奖励值,第二判别器给予真实图片第二奖励值,第一判别器给予生成图片第二奖励值,第二判别器给予生成图片第一奖励值;根据第一奖励值和第二奖励值得到最小化目标函数。本发明提供的基于双判别器的生成对抗网络的图像生成方法提高了生成的图片的多样性,并且不会消耗大量的计算资源。

Description

一种基于双判别器的生成对抗网络的图像生成方法
技术领域
本发明涉及生成对抗网络图像生成技术领域,尤其涉及一种基于双判别器的生成对抗网络的图像生成方法。
背景技术
随着生成对抗网络的出现,根据文本描述生成与其内容相关的图像成为一种可能。根据文本描述生成与其内容相关的图像有着很好的应用前景:生成嫌疑人画像,帮助案件侦查;生成商标图像,帮助创作人员激发更多的灵感等。
但是由于目前的生成对抗网络的训练很不稳定,非常依赖于精心设计的网络结构和细心的参数初始化,这使得根据文本内容生成的图像的模式比较单一。一些研究学者提出了通过改善网络的训练方法来解决这个问题,但是这些方法都需要消耗大量的计算资源。
因此,如何提供一种新的生成对抗网络结构以解决上述生成图像的模式单一问题以及计算资源消耗量大成为本领域技术人员亟待解决的技术问题。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提供一种基于双判别器的生成对抗网络的图像生成方法,以解决现有技术中的问题。
作为本发明的一个方面,提供一种基于双判别器的生成对抗网络的图像生成方法,其中,生成对抗网络包括生成器、第一判别器和第二判别器,所述生成器的输出端分别与所述第一判别器的输入端和所述第二判别器的输入端连接,所述基于双判别器的生成对抗网络的图像生成方法包括:
对真实图片数据进行描述得到与所述真实图片数据对应的文本数据;
对所述文本数据进行处理得到条件向量;
获取随机噪声;
将所述随机噪声和所述条件向量同时输入到所述生成器中,得到生成图片;
将所述真实图片和所述生成图片输入到所述第一判别器,同时将所述真实图片和所述生成图片输入到所述第二判别器;
当输入所述真实图片时,所述第一判别器给予所述真实图片第一奖励值,并输出第一奖励值,所述第二判别器给予所述真实图片第二奖励值,并输出所述第二奖励值,当输入所述生成图片时,所述第一判别器给予所述生成图片第二奖励值,并输出第二奖励值,所述第二判别器给予所述生成图片第一奖励值,并输出所述第一奖励值,其中所述第一奖励值和所述第二奖励值的取值范围均是全体正实数,且所述第一奖励值不同于所述第二奖励值;
根据所述真实图片的第一奖励值和所述第二奖励值以及生成图片的第一奖励值和所述第二奖励值得到生成器的最小化目标函数以及得到所述第一判别器和所述第二判别器的最小化目标函数;
重复生成器的最小化目标函数以及所述第一判别器和所述第二判别器的最小化目标函数的获得过程直到达到停止条件为止。
优选地,所述对所述文本数据进行处理得到条件向量包括:
预先训练形成句子编码器;
从所述文本数据中随机选取训练数据,通过查表的方式得到所述文本数据中的每个词的词向量表示,形成映射矩阵;
将所述映射矩阵输入到所述句子编码器中对所述映射矩阵中的词向量进行编码,得到所述条件向量,其中所述条件向量能够表示整个句子信息。
优选地,所述获取随机噪声包括:
通过随机采样的方式获得随机噪声。
优选地,所述将所述随机噪声和所述条件向量同时输入到所述生成器中,得到生成图片,其中所述生成图片表示为:
Xfake=G(z),
其中,Xfake表示生成图片,G表示所述生成器,z表示所述随机噪声。
优选地,所述第一奖励值靠近取值范围的上限,所述第二奖励值靠近取值范围的下限。
优选地,所述生成器的最小化目标函数表示为:
其中,J(G)表示生成器的最小化目标函数,表示随机噪声服从数据分布规律Pz,D1表示第一判别器,D2表示第二判别器,D1(G(z))表示随机噪声z输入到第一判别器后的输出结果,D2(G(z))表示随机噪声z输入到第二判别器后的输出结果,β表示常数。
优选地,所述基于双判别器的生成对抗网络的图像生成方法还包括:
求得所述生成器的最小化目标函数对生成对抗网络中每个参数的梯度;
采用梯度下降算法对所述生成器的参数进行更新。
优选地,所述第一判别器和所述第二判别器的最小化目标函数表示为:
其中,J(D1,D2)表示所述第一判别器和所述第二判别器的最小化目标函数,表示真实图片服从数据分别规律Pdata,D1(x)表示真实图片/生成图片输入到第一判别器后的输出结果,D2(x)表示真实图片/生成图片输入到第二判别器后的输出结果,α表示常数。
优选地,所述基于双判别器的生成对抗网络的图像生成方法还包括:
求得所述第一判别器和第二判别器的最小化目标函数对生成对抗网络中每个出单数的梯度;
采用梯度下降算法对所述第一判别器和所述第二判别器的参数进行更新。
本发明提供的基于双判别器的生成对抗网络的图像生成方法,通过采用双判别器,能够保证生成的图片和文本内容相关的前提下,提高了生成的图片的多样性,并且不会消耗大量的计算资源。
附图说明
附图是用来提供对本发明的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本发明,但并不构成对本发明的限制。在附图中:
图1为本发明提供的基于双判别器的生成对抗网络的图像生成方法的流程图。
图2为本发明提供的基于双判别器的生成对抗网络根据文本生产图像的模型架构图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
作为本发明的一个方面,提供一种基于双判别器的生成对抗网络的图像生成方法,其中,生成对抗网络包括生成器、第一判别器和第二判别器,所述生成器的输出端分别与所述第一判别器的输入端和所述第二判别器的输入端连接,如图1所示,所述基于双判别器的生成对抗网络的图像生成方法包括:
S110、对真实图片数据进行描述得到与所述真实图片数据对应的文本数据;
S120、对所述文本数据进行处理得到条件向量;
S130、获取随机噪声;
S140、将所述随机噪声和所述条件向量同时输入到所述生成器中,得到生成图片;
S150、将所述真实图片和所述生成图片输入到所述第一判别器,同时将所述真实图片和所述生成图片输入到所述第二判别器;
S160、当输入所述真实图片时,所述第一判别器给予所述真实图片第一奖励值,并输出第一奖励值,所述第二判别器给予所述真实图片第二奖励值,并输出所述第二奖励值,当输入所述生成图片时,所述第一判别器给予所述生成图片第二奖励值,并输出第二奖励值,所述第二判别器给予所述生成图片第一奖励值,并输出所述第一奖励值,其中所述第一奖励值和所述第二奖励值的取值范围均是全体正实数,且所述第一奖励值不同于所述第二奖励值;
S170、根据所述真实图片的第一奖励值和所述第二奖励值以及生成图片的第一奖励值和所述第二奖励值得到生成器的最小化目标函数以及得到所述第一判别器和所述第二判别器的最小化目标函数;
S180、重复生成器的最小化目标函数以及所述第一判别器和所述第二判别器的最小化目标函数的获得过程直到达到停止条件为止。
本发明提供的基于双判别器的生成对抗网络的图像生成方法,通过采用双判别器,能够保证生成的图片和文本内容相关的前提下,提高生成的图片的多样性,并且不会消耗大量的计算资源。
具体地,所述对所述文本数据进行处理得到条件向量包括:
预先训练形成句子编码器;
从所述文本数据中随机选取训练数据,通过查表的方式得到所述文本数据中的每个词的词向量表示,形成映射矩阵;
将所述映射矩阵输入到所述句子编码器中对所述映射矩阵中的词向量进行编码,得到所述条件向量,其中所述条件向量能够表示整个句子信息。
具体地,所述获取随机噪声包括:
通过随机采样的方式获得随机噪声。
需要说明的是,结合图1和图2所示,首先定义生成对抗网络的输入数据,真实的图片数据DI,对相应的真实图片内容进行描述的文本数据DT;通过随机采样的方式得到随机噪声z;条件生成对抗网络的生成器G;条件生成对抗网络的两个判别器D1、D2;真实图片所服从的数据分布规律Pdata;通过随机采样的方式得到的随机噪声z所服从的数据分布规律Pz
然后,准备数据,真实的图片数据DI,对相应的真实图片进行内容描述的文本数据DT;从文本数据DT中随机选取训练数据,通过查表的方式得到每个词的词向量表示,形成映射矩阵;将映射矩阵输入到预先训练得到的句子编码器中对其进行编码,得到能够表示整个句子信息的条件向量C;通过随机采样的方式,从Pz中采样得到随机噪声z。
进一步地,所述将所述随机噪声和所述条件向量同时输入到所述生成器中,得到生成图片,其中所述生成图片表示为:
Xfake=G(z),
其中,Xfake表示生成图片,G表示所述生成器,z表示所述随机噪声。
优选地,所述第一奖励值靠近取值范围的上限,所述第二奖励值靠近取值范围的下限。
可以理解的是,若所述取值范围为0~1,则所述第一奖励值可以为0.9,第二奖励值可以为0.1。
具体地,所述生成器的最小化目标函数表示为:
其中,J(G)表示生成器的最小化目标函数,表示随机噪声服从数据分布规律Pz,D1表示第一判别器,D2表示第二判别器,D1(G(z))表示随机噪声z输入到第一判别器后的输出结果,D2(G(z))表示随机噪声z输入到第二判别器后的输出结果,β表示常数。
进一步具体地,所述基于双判别器的生成对抗网络的图像生成方法还包括:
求得所述生成器的最小化目标函数对生成对抗网络中每个参数的梯度;
采用梯度下降算法对所述生成器的参数进行更新。
具体地,所述第一判别器和所述第二判别器的最小化目标函数表示为:
其中,J(D1,D2)表示所述第一判别器和所述第二判别器的最小化目标函数,表示真实图片服从数据分别规律Pdata,D1(x)表示真实图片/生成图片输入到第一判别器后的输出结果,D2(x)表示真实图片/生成图片输入到第二判别器后的输出结果,α表示常数。
进一步具体地,所述基于双判别器的生成对抗网络的图像生成方法还包括:
求得所述第一判别器和第二判别器的最小化目标函数对生成对抗网络中每个出单数的梯度;
采用梯度下降算法对所述第一判别器和所述第二判别器的参数进行更新。
需要说明的是,本发明使用的用于对文本数据进行编码的编码器,是公开的、在BookCorpus数据集上通过有监督的方式训练得到的skip thoughts模型。
本发明使用上述在训练skip thoughts模型的过程得到的词向量,它是在BookCorpus数据集上训练得到的,总共有930914个词汇,其中词向量的维度为620维。
另外,用于训练skip thoughts模型的BookCorpus数据集包含11038本书的所有句子,其中有7087本书籍是不重复的,2089本书籍重复1次,733本书籍重复2次,95本书籍重复多于2次。在训练的skip thoughts模型的时候并没有移除这些重复的书籍。
综上所述,本发明的这种基于双判别器的生成对抗网络的图像生成方法,能够在保证生成的图片和文本内容相关的前提下,提高生成的图片的多样性,并且不会消耗大量的计算资源。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。

Claims (9)

1.一种基于双判别器的生成对抗网络的图像生成方法,其特征在于,生成对抗网络包括生成器、第一判别器和第二判别器,所述生成器的输出端分别与所述第一判别器的输入端和所述第二判别器的输入端连接,所述基于双判别器的生成对抗网络的图像生成方法包括:
对真实图片数据进行描述得到与所述真实图片数据对应的文本数据;
对所述文本数据进行处理得到条件向量;
获取随机噪声;
将所述随机噪声和所述条件向量同时输入到所述生成器中,得到生成图片;
将所述真实图片和所述生成图片输入到所述第一判别器,同时将所述真实图片和所述生成图片输入到所述第二判别器;
当输入所述真实图片时,所述第一判别器给予所述真实图片第一奖励值,并输出第一奖励值,所述第二判别器给予所述真实图片第二奖励值,并输出所述第二奖励值,当输入所述生成图片时,所述第一判别器给予所述生成图片第二奖励值,并输出第二奖励值,所述第二判别器给予所述生成图片第一奖励值,并输出所述第一奖励值,其中所述第一奖励值和所述第二奖励值的取值范围均是全体正实数,且所述第一奖励值不同于所述第二奖励值;
根据所述真实图片的第一奖励值和所述第二奖励值以及生成图片的第一奖励值和所述第二奖励值得到生成器的最小化目标函数以及得到所述第一判别器和所述第二判别器的最小化目标函数;
重复生成器的最小化目标函数以及所述第一判别器和所述第二判别器的最小化目标函数的获得过程直到达到停止条件为止。
2.根据权利要求1所述的基于双判别器的生成对抗网络的图像生成方法,其特征在于,所述对所述文本数据进行处理得到条件向量包括:
预先训练形成句子编码器;
从所述文本数据中随机选取训练数据,通过查表的方式得到所述文本数据中的每个词的词向量表示,形成映射矩阵;
将所述映射矩阵输入到所述句子编码器中对所述映射矩阵中的词向量进行编码,得到所述条件向量,其中所述条件向量能够表示整个句子信息。
3.根据权利要求1所述的基于双判别器的生成对抗网络的图像生成方法,其特征在于,所述获取随机噪声包括:
通过随机采样的方式获得随机噪声。
4.根据权利要求3所述的基于双判别器的生成对抗网络的图像生成方法,其特征在于,所述将所述随机噪声和所述条件向量同时输入到所述生成器中,得到生成图片,其中所述生成图片表示为:
Xfake=G(z),
其中,Xfake表示生成图片,G表示所述生成器,z表示所述随机噪声。
5.根据权利要求4所述的基于双判别器的生成对抗网络的图像生成方法,其特征在于,所述第一奖励值靠近取值范围的上限,所述第二奖励值靠近取值范围的下限。
6.根据权利要求4所述的基于双判别器的生成对抗网络的图像生成方法,其特征在于,所述生成器的最小化目标函数表示为:
其中,J(G)表示生成器的最小化目标函数,表示随机噪声服从数据分布规律Pz,D1表示第一判别器,D2表示第二判别器,D1(G(z))表示随机噪声z输入到第一判别器后的输出结果,D2(G(z))表示随机噪声z输入到第二判别器后的输出结果,β表示常数。
7.根据权利要求6所述的基于双判别器的生成对抗网络的图像生成方法,其特征在于,所述基于双判别器的生成对抗网络的图像生成方法还包括:
求得所述生成器的最小化目标函数对生成对抗网络中每个参数的梯度;
采用梯度下降算法对所述生成器的参数进行更新。
8.根据权利要求6所述的基于双判别器的生成对抗网络的图像生成方法,其特征在于,所述第一判别器和所述第二判别器的最小化目标函数表示为:
其中,J(D1,D2)表示所述第一判别器和所述第二判别器的最小化目标函数,表示真实图片服从数据分别规律Pdata,D1(x)表示真实图片/生成图片输入到第一判别器后的输出结果,D2(x)表示真实图片/生成图片输入到第二判别器后的输出结果,α表示常数。
9.根据权利要求8所述的基于双判别器的生成对抗网络的图像生成方法,其特征在于,所述基于双判别器的生成对抗网络的图像生成方法还包括:
求得所述第一判别器和第二判别器的最小化目标函数对生成对抗网络中每个出单数的梯度;
采用梯度下降算法对所述第一判别器和所述第二判别器的参数进行更新。
CN201810211670.6A 2018-03-14 2018-03-14 一种基于双判别器的生成对抗网络的图像生成方法 Withdrawn CN108460717A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810211670.6A CN108460717A (zh) 2018-03-14 2018-03-14 一种基于双判别器的生成对抗网络的图像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810211670.6A CN108460717A (zh) 2018-03-14 2018-03-14 一种基于双判别器的生成对抗网络的图像生成方法

Publications (1)

Publication Number Publication Date
CN108460717A true CN108460717A (zh) 2018-08-28

Family

ID=63216927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810211670.6A Withdrawn CN108460717A (zh) 2018-03-14 2018-03-14 一种基于双判别器的生成对抗网络的图像生成方法

Country Status (1)

Country Link
CN (1) CN108460717A (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543159A (zh) * 2018-11-12 2019-03-29 南京德磐信息科技有限公司 一种文本生成图像方法及装置
CN109584257A (zh) * 2018-11-28 2019-04-05 中国科学院深圳先进技术研究院 一种图像处理方法及相关设备
CN109583474A (zh) * 2018-11-01 2019-04-05 华中科技大学 一种用于工业大数据处理的训练样本生成方法
CN109671125A (zh) * 2018-12-17 2019-04-23 电子科技大学 一种高度融合的gan网络模型及实现文本生成图像的方法
CN109697694A (zh) * 2018-12-07 2019-04-30 山东科技大学 基于多头注意力机制的高分辨率的图片的生成方法
CN109740677A (zh) * 2019-01-07 2019-05-10 湖北工业大学 一种基于主成分分析改进生成对抗网络的半监督分类方法
CN109920016A (zh) * 2019-03-18 2019-06-21 北京市商汤科技开发有限公司 图像生成方法及装置、电子设备和存储介质
CN110134395A (zh) * 2019-05-17 2019-08-16 广东工业大学 一种图标的生成方法、生成系统及相关装置
CN110634101A (zh) * 2019-09-06 2019-12-31 温州大学 一种基于随机重构的无监督图像到图像的转换方法
CN111008604A (zh) * 2019-12-09 2020-04-14 上海眼控科技股份有限公司 预测图像获取方法、装置、计算机设备和存储介质
CN111028146A (zh) * 2019-11-06 2020-04-17 武汉理工大学 基于双判别器的生成对抗网络的图像超分辨率方法
CN111027292A (zh) * 2019-11-29 2020-04-17 北京邮电大学 一种限定采样文本序列生成方法及其系统
CN111046755A (zh) * 2019-11-27 2020-04-21 上海眼控科技股份有限公司 字符识别方法、装置、计算机设备和计算机可读存储介质
CN111402365A (zh) * 2020-03-17 2020-07-10 湖南大学 一种基于双向架构对抗生成网络的由文字生成图片的方法
CN111524207A (zh) * 2020-04-21 2020-08-11 腾讯科技(深圳)有限公司 基于人工智能的图像生成方法、装置、电子设备
CN112115257A (zh) * 2019-06-20 2020-12-22 百度在线网络技术(北京)有限公司 用于生成信息评估模型的方法和装置
CN112232395A (zh) * 2020-10-08 2021-01-15 西北工业大学 一种基于联合训练生成对抗网络的半监督图像分类方法
CN114723611A (zh) * 2022-06-10 2022-07-08 季华实验室 图像重建模型训练方法、重建方法、装置、设备及介质
CN114973698A (zh) * 2022-05-10 2022-08-30 阿波罗智联(北京)科技有限公司 控制信息的生成方法和机器学习模型的训练方法、装置

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583474A (zh) * 2018-11-01 2019-04-05 华中科技大学 一种用于工业大数据处理的训练样本生成方法
CN109583474B (zh) * 2018-11-01 2022-07-05 华中科技大学 一种用于工业大数据处理的训练样本生成方法
CN109543159A (zh) * 2018-11-12 2019-03-29 南京德磐信息科技有限公司 一种文本生成图像方法及装置
CN109543159B (zh) * 2018-11-12 2023-03-24 南京德磐信息科技有限公司 一种文本生成图像方法及装置
CN109584257A (zh) * 2018-11-28 2019-04-05 中国科学院深圳先进技术研究院 一种图像处理方法及相关设备
CN109584257B (zh) * 2018-11-28 2022-12-09 中国科学院深圳先进技术研究院 一种图像处理方法及相关设备
CN109697694A (zh) * 2018-12-07 2019-04-30 山东科技大学 基于多头注意力机制的高分辨率的图片的生成方法
CN109697694B (zh) * 2018-12-07 2023-04-07 山东科技大学 基于多头注意力机制的高分辨率的图片的生成方法
CN109671125A (zh) * 2018-12-17 2019-04-23 电子科技大学 一种高度融合的gan网络模型及实现文本生成图像的方法
CN109740677A (zh) * 2019-01-07 2019-05-10 湖北工业大学 一种基于主成分分析改进生成对抗网络的半监督分类方法
TWI735112B (zh) * 2019-03-18 2021-08-01 大陸商北京市商湯科技開發有限公司 圖像生成方法、電子設備和儲存介質
CN109920016A (zh) * 2019-03-18 2019-06-21 北京市商汤科技开发有限公司 图像生成方法及装置、电子设备和存储介质
CN110134395A (zh) * 2019-05-17 2019-08-16 广东工业大学 一种图标的生成方法、生成系统及相关装置
CN112115257A (zh) * 2019-06-20 2020-12-22 百度在线网络技术(北京)有限公司 用于生成信息评估模型的方法和装置
CN112115257B (zh) * 2019-06-20 2023-07-14 百度在线网络技术(北京)有限公司 用于生成信息评估模型的方法和装置
CN110634101A (zh) * 2019-09-06 2019-12-31 温州大学 一种基于随机重构的无监督图像到图像的转换方法
CN110634101B (zh) * 2019-09-06 2023-01-31 温州大学 一种基于随机重构的无监督图像到图像的转换方法
CN111028146A (zh) * 2019-11-06 2020-04-17 武汉理工大学 基于双判别器的生成对抗网络的图像超分辨率方法
CN111046755A (zh) * 2019-11-27 2020-04-21 上海眼控科技股份有限公司 字符识别方法、装置、计算机设备和计算机可读存储介质
CN111027292B (zh) * 2019-11-29 2021-05-28 北京邮电大学 一种限定采样文本序列生成方法及其系统
CN111027292A (zh) * 2019-11-29 2020-04-17 北京邮电大学 一种限定采样文本序列生成方法及其系统
CN111008604A (zh) * 2019-12-09 2020-04-14 上海眼控科技股份有限公司 预测图像获取方法、装置、计算机设备和存储介质
CN111402365B (zh) * 2020-03-17 2023-02-10 湖南大学 一种基于双向架构对抗生成网络的由文字生成图片的方法
CN111402365A (zh) * 2020-03-17 2020-07-10 湖南大学 一种基于双向架构对抗生成网络的由文字生成图片的方法
CN111524207A (zh) * 2020-04-21 2020-08-11 腾讯科技(深圳)有限公司 基于人工智能的图像生成方法、装置、电子设备
CN112232395A (zh) * 2020-10-08 2021-01-15 西北工业大学 一种基于联合训练生成对抗网络的半监督图像分类方法
CN112232395B (zh) * 2020-10-08 2023-10-27 西北工业大学 一种基于联合训练生成对抗网络的半监督图像分类方法
CN114973698A (zh) * 2022-05-10 2022-08-30 阿波罗智联(北京)科技有限公司 控制信息的生成方法和机器学习模型的训练方法、装置
CN114973698B (zh) * 2022-05-10 2024-04-16 阿波罗智联(北京)科技有限公司 控制信息的生成方法和机器学习模型的训练方法、装置
CN114723611A (zh) * 2022-06-10 2022-07-08 季华实验室 图像重建模型训练方法、重建方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN108460717A (zh) 一种基于双判别器的生成对抗网络的图像生成方法
CN107515855B (zh) 一种结合表情符的微博情感分析方法和系统
CN116721191B (zh) 口型动画处理方法、装置及存储介质
CN109800295A (zh) 基于情感词典和词概率分布的情感会话生成方法
Rao Population stability and momentum
CN113781598A (zh) 图像生成模型的训练方法和设备以及图像生成方法
CN109635269A (zh) 一种机器翻译文本的译后编辑方法及装置
Jabin et al. Selection-Mutation dynamics with spatial dependence
Kulikov et al. Characterizing and addressing the issue of oversmoothing in neural autoregressive sequence modeling
Ruberto et al. Image feature learning with a genetic programming autoencoder
CN115631176A (zh) 艺术设计教学系统及其方法
CN113077383B (zh) 一种模型训练方法及模型训练装置
CN116416374A (zh) 用于训练服饰生成模型的方法和用于生成服饰的方法
CN109241284A (zh) 一种文档分类方法及装置
CN106205572B (zh) 音符序列生成方法及装置
CN114219875A (zh) 一种基于StyleGAN的智能LOGO生成方法
Huang et al. Evaluating force-directed algorithms with a new framework
Hryniewicz Comparison of fuzzy and crisp random variables by Monte Carlo simulations
Tamariz et al. Investigating the effects of prestige on the diffusion of linguistic variants
Groeneboom The bivariate current status model
Praturu et al. A Bayesian Approach to Hyperbolic Embeddings
WO2019064461A1 (ja) 学習ネットワーク生成装置、及び学習ネットワーク生成プログラム
JP2010244519A (ja) オブジェクトの距離場を生成するための方法
Kelton Representing and generating uncertainty effectively
Agarwal et al. Poster: Characters vs. words: Observations on command design for brain-computer interfaces

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20180828

WW01 Invention patent application withdrawn after publication