CN111062468A - 生成网络的训练方法和系统、以及图像生成方法及设备 - Google Patents
生成网络的训练方法和系统、以及图像生成方法及设备 Download PDFInfo
- Publication number
- CN111062468A CN111062468A CN202010152216.5A CN202010152216A CN111062468A CN 111062468 A CN111062468 A CN 111062468A CN 202010152216 A CN202010152216 A CN 202010152216A CN 111062468 A CN111062468 A CN 111062468A
- Authority
- CN
- China
- Prior art keywords
- network
- parameter
- generating
- sample
- generated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 154
- 238000000034 method Methods 0.000 title claims abstract description 98
- 238000013507 mapping Methods 0.000 claims abstract description 136
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000009826 distribution Methods 0.000 claims description 61
- 238000003860 storage Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 20
- 230000009467 reduction Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 5
- 238000009827 uniform distribution Methods 0.000 claims description 4
- 239000000523 sample Substances 0.000 description 190
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 24
- 230000006870 function Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 14
- 239000000126 substance Substances 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 13
- 238000013459 approach Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000000513 principal component analysis Methods 0.000 description 6
- 101100001671 Emericella variicolor andF gene Proteins 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 241000287196 Asthenes Species 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 239000002390 adhesive tape Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 239000013074 reference sample Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请公开一种生成网络的训练方法和系统、以及图像生成方法及设备。其中,生成网络的训练方法包括以下步骤:获取真实样本和生成样本,所述生成样本是由使用第一参数的生成网络所生成的;利用所述真实样本和所述生成样本对映射网络的第二参数进行训练,直至所训练的映射网络使得所述真实样本和所述生成样本之间的特征距离符合最大化条件;利用训练后的映射网络对所述生成网络的第一参数进行训练,直至训练后的第二参数的条件下的所述真实样本和训练后的生成网络输出的生成样本之间的特征距离符合最小化条件。本申请在大大降低了计算量和节约内存的同时提高了生成网络对高维数据的处理能力以及生成高维图像的性能。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种生成网络的训练方法和系统、以及图像生成方法及设备。
背景技术
生成网络作为一种人工神经网络,可以根据具体任务通过模型训练而实现将输入的数据样本生成文字、图像、视频等。因此,生成网络被广泛的应用于图像的生成、修复、转换以及重构,文字与图片之间的转换,视频预测等多种场合。
由于近些年来人工智能技术的愈发成熟,各种生成网络的学习/训练方法也不断涌现,这也使得训练出的生成网络在生成图像的质量方面参差不齐。例如,采用有监督式学习来训练生成网络,但这种方法的主要瓶颈之一是难以获得足够的标签样本来学习数据特征以使得生成网络能够捕获数据结构;再如,无监督式学习可以通过自己从错误中进行学习,并降低未来出错的概率以此达到降低对标签样本的需求,但是,这种学习方式往往准确率很低。
是故,如何去训练生成网络以使得生成网络能够高效的输出以假乱真的图像是本领域从业者亟待解决的问题。
发明内容
鉴于以上所述相关技术的缺点,本申请的目的在于提供一种生成网络的训练方法和系统、以及图像生成方法及设备。
为实现上述目的及其他相关目的,本申请第一方面公开一种生成网络的训练方法,其特征在于,包括以下步骤:获取真实样本和生成样本,所述生成样本是由使用第一参数的生成网络所生成的;利用所述真实样本和所述生成样本对映射网络的第二参数进行训练,直至所训练的映射网络使得所述真实样本和所述生成样本之间的特征距离符合最大化条件;利用训练后的映射网络对所述生成网络的第一参数进行训练,直至训练后的第二参数的条件下的所述真实样本和训练后的生成网络输出的生成样本之间的特征距离符合最小化条件;重复上述过程直至经训练得到的第一参数满足预设收敛条件。
在本申请第一方面的某些实施例中,所述映射网络用于将所述真实样本和生成样本映射到特征表示空间内。
在本申请第一方面的某些实施例中,所述映射网络的映射包括:降维操作。
在本申请第一方面的某些实施例中,所述特征距离为经所述映射网络映射到特征表示空间内的真实样本的特征和生成样本的特征之间的最大均值差异。
在本申请第一方面的某些实施例中,所述利用所述真实样本和所述生成样本对映射网络的第二参数进行训练包括:计算经所述映射网络得到的真实样本和生成样本之间的特征距离;基于所述特征距离确定所述第二参数的偏移量,以用于更新所述第二参数;利用更新后的第二参数重复上述步骤,直至所得到的所述特征距离符合所述最大化条件。
在本申请第一方面的某些实施例中,所述第二参数的偏移量包括:基于所述特征距离在第二参数上的梯度而得到的偏移量。
在本申请第一方面的某些实施例中,所述利用训练后的映射网络对所述生成网络的第一参数进行训练的步骤包括:在训练后的第二参数的条件下,基于所述真实样本和每次更新第一参数后生成网络输出的生成样本之间的特征距离而确定的所述第一参数的偏移量,更新所述生成网络的第一参数,直至所述真实样本和训练后的生成网络输出的生成样本之间的特征距离符合所述最小化条件。
在本申请第一方面的某些实施例中,所述第一参数的的偏移量包括:每次更新第一参数后生成网络输出的生成样本和所述真实样本之间的特征距离在第一参数上的梯度而得到的偏移量。
在本申请第一方面的某些实施例中,所述训练方法还包括获取一随机变量的步骤,所述生成样本即为所述生成网络基于所述随机变量生成的。
在本申请第一方面的某些实施例中,所述随机变量遵循于一正态分布或一均匀分布。
在本申请第一方面的某些实施例中,所述真实样本为参考图像,所述生成样本为生成网络输出的生成图像。
本申请的第二方面公开一种生成网络的训练系统,其特征在于,包括:映射网络模块,具有第二参数,用于获取真实样本和生成样本,并基于第二参数输出映射后的真实样本和生成样本;生成网络模块,具有第一参数,用于基于第一参数输出生成样本;训练模块,用于基于第一参数对所述映射网络模块的第二参数训练,直至所训练的映射网络模块使得所述真实样本和使用第一参数的生成网络输出的生成样本之间的特征距离符合最大化条件,以及用于基于训练后的映射网络模块对所述生成网络模块的第一参数训练,直至训练后的第二参数的条件下的所述真实样本和训练后的生成网络输出的生成样本之间的特征距离符合最小化条件;所述训练模块还用于重复上述训练过程,直至经训练的第一参数满足预设收敛条件。
在本申请第二方面的某些实施例中,所述映射网络模块包括:特征表示单元,用于将所述真实样本和生成样本映射到特征表示空间内。
在本申请第二方面的某些实施例中,所述特征表示单元将所述真实样本和生成样本映射到特征表示空间内包括:对真实样本的特征和生成样本的特征进行降维处理。
在本申请第二方面的某些实施例中,所述特征距离为经所述映射网络模块映射到特征表示空间内的真实样本的特征和生成样本的特征之间的最大均值差异。
在本申请第二方面的某些实施例中,所述训练模块还包括用于计算所述特征距离的计算单元。
在本申请第二方面的某些实施例中,所述训练模块还包括:第二更新单元,用于基于所述真实样本和所述生成样本之间的特征距离而确定的所述第二参数的偏移量,更新所述第二参数;第二判别单元,用于在判断利用更新后的第二参数所得到的特征距离符合最大化条件时停止第二更新单元的更新。
在本申请第二方面的某些实施例中,所述第二参数的偏移量包括:基于所述真实样本和所述生成样本之间的特征距离在第二参数上的梯度变化而得到的偏移量。
在本申请第二方面的某些实施例中,所述训练模块还包括:第一更新单元,用于在训练后的第二参数的条件下,基于所述真实样本和每次更新第一参数后生成网络输出的生成样本之间的特征距离而确定的所述第一参数的偏移量,更新所述生成网络的第一参数;第一判别单元,用于在判断基于每次更新后的第一参数而输出的生成样本与所述真实样本之间的特征距离符合最小化条件时停止第一更新单元的更新。
在本申请第二方面的某些实施例中,所述第一参数的的偏移量包括:基于所述真实样本和每次更新第一参数后生成网络输出的生成样本之间的特征距离在第一参数上的梯度变化而得到的偏移量。
在本申请第二方面的某些实施例中,所述生成网络模块还用于获取一随机变量,所述生成样本即为所述生成网络模块基于所述随机变量生成的。
在本申请第二方面的某些实施例中,所述随机变量遵循于一正态分布或一均匀分布。
在本申请第二方面的某些实施例中,所述真实样本为参考图像,所述生成样本为所述生成网络生成的图像。
本申请的第三方面公开一种图像生成方法,包括以下步骤:获取一原始输入图像;利用本申请第一方面公开的任一实施例所述的生成网络训练方法获得的生成网络对所述原始输入图像进行处理以输出一生成图像。
本申请的第四方面公开一种图像生成设备,包括:图像采集装置,用于获取待处理的原始输入图像;存储装置,用于存储计算机程序;处理装置,通信连接所述图像采集装置及存储装置,用于运行所述计算机程序来执行如本申请第三方面公开的图像生成方法。
本申请的第五方面公开一种图像生成客户端,装载于一智能设备;所述客户端包括:输入模块,用于接收到生成指令时,调用所述智能设备的图像采集装置获取待处理的原始输入图像;处理模块,用于执行如本申请第三方面公开的图像生成方法,以获得生成图像。
在本申请第五方面的某些实施例中,所述客户端还包括一显示模块,用于显示所述生成图像。
本申请的第六方面公开一种计算机可读存储介质,存储有至少一计算机程序,所述计算机程序被用于执行实现本申请第一方面公开的任一实施例所述的生成网络的训练方法或执行实现本申请第三方面公开的任一实施例所述的图像生成的方法。
综上所述,本申请提供的生成网络的训练方法、生成网络的训练系统、图像生成方法、图像生成设备、图像生成客户端及计算机可读存储介质,通过引入映射网络与生成网络进行对抗训练,同时提高二者的鲁棒性和准确性,进而有效的提高图像生成的鲁棒性和质量,并利用映射网络的映射功能将高维数据映射到低维数据,以低维数据来度量真实样本和生成样本之间的距离,在大大降低了计算量和节约内存的同时提高了生成网络对高维数据的处理能力以及生成高维图像的性能。并且本申请中采用最大均值差异来评估真实样本和生成样本之间的差异,评估效果更优良,从而对生成网络的训练更精准。
附图说明
本申请所涉及的发明的具体特征如所附权利要求书所显示。通过参考下文中详细描述的示例性实施方式和附图能够更好地理解本申请所涉及发明的特点和优势。对附图简要说明书如下:
图1显示为本申请在一实施例中的生成对抗网络的模型结构框图。
图2显示为本申请在一实施例中的生成网络训练方法的模型框架示意图。
图3显示为本申请在一实施例中的生成网络的训练方法的流程图。
图4显示为本申请在一实施例中的对映射网络的第二参数进行训练的流程图。
图5显示为本申请在一实施例中的训练系统的结构框图。
图6显示为本申请在一实施例中的图像生成方法的流程图。
图7显示为本申请在一实施例中的图像生成设备结构示意图。
图8显示为本申请在一实施例中的图像生成客户端结构示意图。
具体实施方式
以下由特定的具体实施例说明本申请的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本申请的其他优点及功效。
在下述描述中,参考附图,附图描述了本申请的若干实施例。应当理解,还可使用其他实施例,并且可以在不背离本公开的精神和范围的情况下进行机械组成、结构、电气以及操作上的改变。下面的详细描述不应该被认为是限制性的,并且本申请的实施例的范围仅由公布的专利的权利要求书所限定。这里使用的术语仅是为了描述特定实施例,而并非旨在限制本申请。空间相关的术语,例如“上”、“下”、“左”、“右”、“下面”、“下方”、“下部”、“上方”、“上部”等,可在文中使用以便于说明图中所示的一个元件或特征与另一元件或特征的关系。
虽然在一些实例中术语第一、第二等在本文中用来描述各种元件或参数,但是这些元件或参数不应当被这些术语限制。这些术语仅用来将一个元件或参数与另一个元件或参数进行区分。例如,第一参数可以被称作第二参数,并且类似地,第二参数可以被称作第一参数,而不脱离各种所描述的实施例的范围。第一参数和第二参数均是在描述一个参数,但是除非上下文以其他方式明确指出,否则它们不是同一个参数。相似的情况还包括第一更新单元与第二更新单元,或者第一判别单元与第二判别单元。
再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在所述的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
如背景技术里介绍所言,无监督式的训练方式大都准确率低,而通过采用二人博弈思想的生成式对抗网络作为深度学习模型能大大提升无监督式学习的性能。生成式对抗网络在网络结构上除了生成网络外,还包含一个与生成网络对抗的判别网络。生成网络作为一生成器,用于生成类似于真实样本的随机样本,并将其作为生成样本,判别网络作为一判别器,用于分辨接收到的数据是来自于真实样本还是生成样本。生成网络和对抗网络相互对抗,在对抗中生成网络不断更新其生成样本的能力以产生能够以假乱真(也即,对抗网络分辨不出)的生成样本,而判别网络也随着生成网络的更新而不断更新其分辨真假样本的能力,从而能够辨别出来自于生成网络的生成样本。以下结合图1对生成式对抗网络的工作原理进行说明。
请参阅图1,显示为本申请在一实施例中的生成对抗网络的模型结构框图,这里以生成网络用于生成图片为例进行说明,如图所示,生成式对抗网络包括生成网络G和判别网络D。其中,生成网络G是一个生成图片的网络,它接收一个随机噪声z,通过该噪声z生成的图片记为G(z)。判别网络D用来判别一张图片是不是“真实的”,也即该图片是不是真实样本x(x代表一张图片),以判别网络D的输入参数为x来看,其输出D(x)代表x为真实图片的概率,如果为1,就代表100%是真实的图片,而输出为0,就代表是来自于生成网络生成的图片G(z)。在训练过程中,生成网络G的目标就是尽量生成接近真实图片x去欺骗判别网络D。而D的目标就是尽量把G生成的图片G(z)和真实图片x分别开来。在最理想的状态下,G可以生成足以“以假乱真”的图片G(z)。对于D来说,它难以判定G生成的图片究竟是不是真实的,因此D(G(z))=0.5。这样我们的目的就达成了:我们得到了一个生成网络G,它可以用来生成图片。
但是,实际应用中,由于上述生成式对抗网络在训练中由于存在的参数量过多,对内存和计算量要求都很高,在对高维数据样本的处理能力方面明显速度慢、效率低、并且输出的图片质量很差,达不到预定要求。另外,上述生成式对抗网络模型是通过最小化真实图片x和生成图片G(z)的数据分布之间的距离来拟合生成网络的,在生成式对抗网络中已经使用的用来度量两个分布之间的距离包括:Jensen-Shannon散度、f-散度、以及Wasserstein距离,选择合适的距离来度量对生成网络的训练也是非常重要的。
鉴于此,在可能的实施方式中,本申请提出一种生成网络的训练方法,请参阅图2,显示为本申请在一实施例中的生成网络训练方法的模型框架示意图,如图所示,本申请生成网络的训练方法通过设置一映射网络F与生成网络G对抗来达到训练生成网络的目的,映射网络F和生成网络G均是人工神经网络,其中,生成网络G具有第一参数,映射网络F具有第二参数。请参阅图3,显示为本申请在一实施例中的生成网络的训练方法的流程图,如图所示,所述生成网络的训练方法包括步骤S10、步骤S11、步骤S12、以及步骤S13。
在步骤S10中,获取真实样本和生成样本,所述生成样本是由使用第一参数的生成网络所生成的。
其中,映射网络F获取真实样本X和生成样本Y。
结合图1,所述真实样本X为生成网络G的目标样本或参考样本。例如,真实样本X为一个或多个遵循真实数据分布Pr的真实数据x的集合,表示为,则以真实样本X作为训练目标,期望生成网络G具有能够模拟真实数据分布Pr的能力,从而使得其生成的生成样本Y,表示为,能够逼近于真实样本X。其中,假设生成网络G生成的生成样本Y遵循生成数据分布Pg,也即,期望生成数据分布Pg与真实数据分布Pr能够相同。在实际应用中,所述真实样本X可例如为参考图像(可为现有的一张图像)或参考文本等,生成样本Y则为生成网络G基于第一参数而输出的生成图像或生成文本等,对生成网络G的训练即为对第一参数的调整以使得生成图像能够无限接近于参考图像,或者生成文本能够无限接近于参考文本。
所述生成样本Y是生成网络G由使用第一参数的生成网络G将输入的数据转换而生成的,是故,为了能够获取到生成样本Y,所述训练方法还包括生成网络G获取一随机变量Z的步骤,所述生成样本Y即为生成网络G基于所述随机变量Z作为输入数据而生成的,即Y=G(Z)。其中,所述随机变量Z为遵循于正太分布或均匀分布的一个或多个随机数z,其数量对应于真实样本X中真实数据x的数量,表示为,。
进一步地,在步骤S11中,请参阅图4,显示为本申请在一实施例中的对映射网络的第二参数进行训练的流程图,如图所示,所述利用真实样本X和生成样本Y对映射网络F的第二参数进行训练的步骤包括步骤S110、步骤S111、以及步骤S112。
在步骤S110中,计算经所述映射网络F得到的真实样本F(X)和生成样本F(Y)之间的特征距离。
所述映射网络F作为额外引入的一个人工神经网络,可以帮助生成网络G更好的模拟真实数据分布Pr,从而最终使得生成网络G的生成数据分布Pg与真实样本的数据分布Pr之间的差异为零或接近于零。在一些实施例中,所述映射网络F用于将真实样本X和生成样本Y映射到特征表示空间内,也即,映射网络F用于学习其输入数据的特征表示,以特征的方式来表示真实样本X和生成样本Y。例如在图像处理领域,所述映射网络F可采用一卷积神经网络(convolutional neural network,CNN)来学习图像的特征表示。
更进一步地,为了降低计算量以及内存需求,所述映射网络F通过降维操作的方式将真实样本X和生成样本Y映射到特征表示空间内,具体的,可以采用特征选择或特征提取的方式来实现特征降维。其中,所述特征选择为从高维度的特征中选择其中的一个子集来作为新的特征,所述特征提取是指将高维度的特征经过某个降维函数映射至低维度作为新的特征。举例来说,特征提取方法包括主成分分析法(PCA)、奇异值分解法(SVD)、线性判别分析法(LDA)等,但考虑到降维效果和对样本标注的需求,本实施例中可以采用PCA来进行特征降维。但并不以此为限,还可以使用降维函数来实现特征降维。
是故,经所述映射网络F得到的真实样本F(X)和生成样本F(Y),即为映射网络F对真实样本X和生成样本Y执行上述处理之后得到的对应于真实样本X的低维度特征和对应于生成样本Y的低纬度特征。对应到真实样本X和生成样本Y所遵循的数据分布上,上述过程记为F(Pr)和F(Pg),并且F(X)遵循经映射网络F处理后的真实数据分布F(Pr),F(Y)遵循经映射网络F处理后的生成数据分布F(Pg)。如此,度量的真实样本X所遵循的真实数据分布Pr与生成样本Y所遵循的生成数据Pg之间距离,等价于度量F(X)遵循的真实数据分布F(Pr)和F(Y)遵循的生成数据分布F(Pg)之间的距离,由于F(X)、F(Pr)、F(Y)、以及F(Pg)的维度较低,故而,使得大大降低计算量,减轻了计算平台的负担。
为了能够更好的评估生成网络G用于生成样本Y的性能,在本申请中,采用最大均值差异(Maximum Mean Discrepancy,MMD)来度量经所述映射网络F得到的真实样本F(X)和生成样本F(Y)之间的距离,对应到真实样本X和生成样本Y所遵循的数据分布上,也即是采用最大均值差异MMD度量F(Pr)和F(Pg)之间的距离。
其中,最大均值差异MMD是通过寻找在样本空间上的连续函数f,分别求来自两个不同数据分布的样本(如遵循F(Pr)的F(X)和遵循F(Pg)的F(Y))在f函数上的函数值的均值,对两个均值作差可以得到这两个分布(F(Pr)和F(Pg))对应于f的均值差异(meandiscrepancy,MD),确定一个f使得均值差异MD有最大值,就得到了最大均值差异MMD。其中,样本空间例如为希尔伯特空间。以公式来定义,则映射网络F处理后真实数据分布F(Pr)和生成数据分布F(Pg)之间的最大均值差异MMD定义为:
其中,表示遵循真实数据分布F(Pr)的真实样本F(X)在f函数上期望值,表示遵循生成数据分布F(Pg)的真实样本F(Y)在f函数上期望值。故而,表示在希尔伯特空间H的单位球中求取F(X)和F(Y)在函数f上的最大均值差异MMD。由于,映射网络F基于第二参数对其获取的样本进行处理,生成网络G基于第一参数对其输入数据进行处理而生成的生成样本Y,因此,既相关于映射网络F的第二参数,也相关于生成网络G的第一参数。
进一步地,为了求解上述公式,通过高斯内核k以及期望值的展开,上述公式可以采用下式来计算,如下:
其中,等价于,遵循经映射网络F处理后的真实数据分布F(Pr),遵循于真实数据分布Pr。等价于,遵循经映射网络F处理后的生成数据分布F(Pg),遵循于真实数据分布Pg。故而,等价于,其同前式,既相关于映射网络F的第二参数,也相关于生成网络G的第一参数。
从生成网络G的训练目标上来看,期望生成网络G对于任意设置的映射网络F,都能使得生成样本F(Y)逼近于真实样本F(X),也即达到最小(最好为零或接近于零)。为了能够达到上述目标,我们只需先确定能够使得最大的映射网络F,如果训练的生成网络G能够使得该最大的取得最小值(最好为零或接近零),那么对任意设置的映射网络F,都能使得达到最小。因此,在当前生成网络G的第一参数的条件下,首先需要训练映射网络F的第二参数能使得达到最大,具体步骤如下:
在步骤S111中,基于所述特征距离确定所述第二参数的偏移量,以更新所述第二参数。
在此,所述特征距离为上述经映射网络F得到的真实样本F(X)和生成样本F(Y)之间的最大均值差异MMD,即。根据前述,以使得达到最大为目标来训练映射网络F的第二参数。其中,求解的最大值表示为:,表示为F的候选函数的集合。
其中,。在本申请中,限制满足1-Lipschitz,表示映射网络F所应用的函数的第i项,d表示映射网络F最终映射到的特征表示空间的维数,则表示沿一条直线在真实数据分布Pr和生成数据分布Pg上采样的点对,从而利用梯度惩罚正则化方法求解的最大值,以此来更新映射网络F的第二参数。
在另一些实施例中,采用L1正则化或L2正则化来使得有界,则上式中的Reg可例如为L1正则项或L2正则项。其中,表示映射网络F的归一化层的参数,也可理解为在此,映射网络F的第二参数由其归一化层的参数来表示,因为归一化层决定了归一化输出在非线性激活函数之前的比例。
更进一步地,本实施例中采用优化器基于上述梯度来确定第二参数的偏移量,以
采用Adam优化器为例,第二参数的偏移量为Adam(),其中,为
Adam优化器的初始参数。代表步长,例如可取值为0.001;和代表指数衰减率,其中,
用来控制权重分配,通常取接近于1的值,默认设置为0.9,用来控制梯度平方的影响情
况,默认设置为0.999。但本申请并不以此为限,Adam优化器的初始参数可以依据实际情况
进行选择,优化器的种类也不仅限于Adam优化器,还可使用RMSprop优化器、Adadelta优化
器等。
在步骤S112中,利用更新后的第二参数重复步骤S110和步骤S111,直至所得到的特征距离符合最大化条件。
鉴于此,需要利用更新后的第二参数重复步骤S111,直至达到最大值。也即,每次重复均是将最新一次更新后的作为当前映射网络F的第二参数以对映射网络F训练,也即,步骤S111中的第二参数更新公式可以以下式表示:
其中,i表示第i次重复步骤S111。以下以需要重复三次步骤S111能够使得达到最大为例进行说明,第一次更新后的映射网络F的第二参数,第二次更新后的映射网络F的第二参数,第三次更新后的映射网络F的第二参数,以作为本轮中能使得达到最大的映射网络F的第二参数。
需要说明的是,以上重复步骤S111三次仅是为了说明步骤S111是如何重复的,并不是限制重复步骤S111三次为使得达到最大的判定标准。在一些实施例中,通过预设重复次数(例如100次)作为使得达到最大的标准,在重复步骤S111达到预设次数时,则认为达到最大;在另一些实施例中,将每次更新第二参数的偏移量是否低于预设值(例如,)作为使得达到最大的标准,每次更新后,第二参数的偏移量低于预设值,则认为每次更新对第二参数的影响很小,达到最大。实际应用中,本领域技术人员可以依据实际所想要达到的精度需求对达到最大值的标准进行设定,本申请并不以此为限。
在步骤S12中,利用训练后的映射网络对所述生成网络的第一参数进行训练,直至训练后的第二参数的条件下的所述真实样本和训练后的生成网络输出的生成样本之间的特征距离符合最小化条件。
步骤S11中训练的生成网络F的第二参数能够使得在当前生成网络G的第一参数的条件下经映射网络F处理的真实样本和生成样本之间的特征距离最大。在此,需要训练生成网络G的第一参数,使得真实样本和更新后的生成样本之间的特征距离符合最小化条件,从而使得生成网络G能够生成逼近于真实样本X的生成样本的目的。
需要说明的是,对第一参数进行一次更新并不能达到第二参数的条件下的所述真实样本X和训练后的生成网络G输出的生成样本之间的特征距离符合最小化条件。鉴于此,所述利用训练后的映射网络F对所述生成网络G的第一参数进行训练的步骤包括:在步骤S11训练后的第二参数的条件下,基于所述真实样本X和每次更新第一参数后的生成网络G输出的生成样本之间的特征距离而确定的所述第一参数的偏移量,更新所述生成网络的第一参数,直至所述真实样本X和训练后的生成网络输出的生成样本之间的特征距离符合所述最小化条件。
其中,在步骤S11训练后的第二参数的条件下,也即是指,所述真实样本X和每次更新第一参数后的生成网络G输出的生成样本之间的特征距离采用的是在步骤S11训练后的映射网络F对真实样本X和每次更新第一参数后的生成网络G输出的生成样本分别处理之后得到的和之间的最大均值差异MMD。
更进一步地,本实施例中采用优化器基于上述梯度来确定第j次更新第一参数
的偏移量,以采用Adam优化器为例,第j次更新第一参数的偏移量为Adam(),其中,为Adam优化器的初始参数。代表步长,例如可取值为
0.001;和代表指数衰减率,其中,用来控制权重分配,通常取接近于1的值,默认设置
为0.9,用来控制梯度平方的影响情况,默认设置为0.999。但本申请并不以此为限,
Adam优化器的初始参数可以依据实际情况进行选择,优化器的种类也不仅限于Adam优化
器,还可使用RMSprop优化器、Adadelta优化器等。
以下以需要更新三次第一参数能够使得符合最小化条件为例进行说明,第一次更新后的生成网络G的第一参数,第二次更新后的生成网络G的第一参数,第三次更新后的生成网络G的第一参数,以作为本轮中能使得符合最小化条件的生成网络G的第一参数。
需要说明的是,以上更新三次第一参数仅是为了说明示意,并不是限制更新三次第一参数为使得符合最小化条件的判定标准。在一些实施例中,通过预设更新次数(例如100次)作为使得符合最小化条件的标准,在更新第一参数达到预设次数时,则认为符合最小化条件;在另一些实施例中,将每次更新第一参数的偏移量是否低于预设值(例如,)作为使得符合最小化条件的标准,每次更新后,第一参数的偏移量低于预设值,则认为每次更新对第一参数的影响很小,符合最小化条件,实际应用中,本领域技术人员可以依据实际所想要达到的精度需求对达到最大值的标准进行设定,本申请并不以此为限。
在步骤S13中,重复上述过程直至经训练得到的第一参数满足预设收敛条件。
经过上述步骤S11和步骤S12,映射网络F与生成网络G完成一次对抗,使得新的生成网络G相较于未训练前的具有能够生成更逼近于真实样本的生成样本的能力。在实施例中,为了更好的优化生成网络G的性能,会重复执行步骤S10至S12直到经训练得到的第一参数满足预设收敛条件。需要说明的是,每次重复过程中当前生成网络G的第一参数和当前映射网络F的第二参数分别为上次更新后的数值。
在一些实施例中,所述预设收敛条件为得到的第一参数与上一次重复步骤S10至步骤S12得到的第一参数的差值低于预设值。如此,每次重复步骤S10至步骤S12后,要判断本次与上次重复后得到的第一参数的差值是否低于预设值。如果高于预设值,则第一参数不能收敛,继续重复步骤S10至步骤S12;如果低于预设值,则认为训练的第一参数已经趋于稳定了(或者说已经可收敛了),对生成网络G的训练停止。
在另一些实施例中,所述预设收敛条件为重复步骤S10至步骤S12的次数达到预设次数,也即是,认为在执行预定次数的步骤S10至步骤S12后,得到的第一参数便会趋于稳定了,对生成网络G的训练也就结束了。
综上所述,本申请提出的生成网络的训练方法简单易行,并且大大降低了计算量和内存需求。另外训练出的生成网络性能稳定,能够生成更真实的图像,尤其在生成高维图像方面具有很好的表现力。
本申请还提出一种生成网络的训练系统,请参阅图5,显示为本申请在一实施例中的训练系统的结构框图,如图所示,所述生成网络的训练系统包括映射网络模块F、生成网络模块G、以及训练模块T。其中,所述生成网络模块G具有第一参数,用于基于第一参数输出生成样本Y,所述映射网络模块F具有第二参数,用于获取真实样本X和生成样本Y,并基于第二参数输出映射后的真实样本F(X)和生成样本F(Y),所述训练模块T用于对生成网络模块G的第一参数和映射网络模块F的第二参数进行训练。
如图5所示,映射网络模块F获取的真实样本X为生成网络模块G的目标样本或参考样本。例如,真实样本X为一个或多个遵循真实数据分布Pr的真实数据x的集合,表示为,则以真实样本X作为训练目标,期望生成网络模块G具有能够模拟真实数据分布Pr的能力,从而使得其生成的生成样本Y,表示为,能够逼近于真实样本X。其中,假设生成网络模块G生成的生成样本Y遵循生成数据分布Pg,也即,期望生成数据分布Pg与真实数据分布Pr能够相同。在实际应用中,所述真实样本X可例如为参考图像(可为现有的一张图像)或参考文本等,生成样本Y则为生成网络模块G基于第一参数而输出的生成图像或生成文本等,对生成网络模块G的训练即为对第一参数的调整以使得生成图像能够无限接近于参考图像,或者生成文本能够无限接近于参考文本。
映射网络模块F获取的生成样本Y是生成网络模块G由使用第一参数的生成网络模块G将输入的数据转换而生成的,是故,为了能够获取到生成样本Y,所述训练方法还包括生成网络G获取一随机变量Z的步骤,所述生成样本Y即为生成网络G基于所述随机变量Z作为输入数据而生成的,即Y=G(Z)。其中,所述随机变量Z为遵循于正太分布或均匀分布的一个或多个随机数z,其数量对应于真实样本X中真实数据x的数量,表示为,。
在一实施例中,如图5所示,所述映射网络模块F包括特征表示单元,所述特征表示单元用于将真实样本X和生成样本Y映射到特征表示空间内,也即,特征表示单元用于学习其输入数据的特征表示,以特征的方式来表示真实样本X和生成样本Y。
更进一步地,为了降低计算量以及内存需求,所述特征表示单元还对真实样本X的特征和生成样本Y的特征进行降维处理。具体的,可以采用特征选择或特征提取的方式来实现特征降维。其中,所述特征选择为从高维度的特征中选择其中的一个子集来作为新的特征,所述特征提取是指将高维度的特征经过某个降维函数映射至低维度作为新的特征。举例来说,特征提取方法包括主成分分析法(PCA)、奇异值分解法(SVD)、线性判别分析法(LDA)等,但考虑到降维效果和对样本标注的需求,本实施例中可以采用PCA来进行特征降维。但并不以此为限,还可以使用降维函数来实现特征降维。
是故,经所述映射网络模块F得到的真实样本F(X)和生成样本F(Y),即为映射网络模块F对真实样本X和生成样本Y执行上述处理之后得到的对应于真实样本X的低维度特征和对应于生成样本Y的低纬度特征。对应到真实样本X和生成样本Y所遵循的数据分布上,上述过程记为F(Pr)和F(Pg),并且F(X)遵循经映射网络模块F处理后的真实数据分布F(Pr),F(Y)遵循经映射网络模块F处理后的生成数据分布F(Pg)。如此,后续训练模块T在度量真实样本X和生成样本Y之间的距离时,等价于度量经所述映射网络模块F得到的真实样本F(X)和生成样本F(Y)之间的距离,或在度量的真实样本X所遵循的真实数据分布Pr与生成样本Y所遵循的生成数据Pg之间距离时,等价于度量F(X)遵循的真实数据分布F(Pr)和F(Y)遵循的生成数据分布F(Pg)之间的距离,由于F(X)、F(Pr)、F(Y)、以及F(Pg)的维度较低,故而,使得大大降低计算量,减轻了计算平台的负担。
具体地,训练模块T基于第一参数对映射网络模块F的第二参数进行训练,直至所训练的映射网模块络F使得所述真实样本X和所述生成样本Y之间的特征距离符合最大化条件。其中,所述特征距离即为经所述映射网络F得到的真实样本F(X)和生成样本F(Y)之间的距离。
如图5所示,所述训练模块T包括计算单元,用于计算经所述映射网络F得到的真实样本F(X)和生成样本F(Y)之间的距离。
为了能够更好的评估生成网络模块G用于生成样本Y的性能,在本申请中,采用最大均值差异MMD来度量经所述映射网络模块F得到的真实样本F(X)和生成样本F(Y)之间的距离,对应到真实样本X和生成样本Y所遵循的数据分布上,也即是采用最大均值差异MMD度量F(Pr)和F(Pg)之间的距离。
其中,最大均值差异MMD是通过寻找在样本空间上的连续函数f,分别求来自两个不同数据分布的样本(如遵循F(Pr)的F(X)和遵循F(Pg)的F(Y))在f函数上的函数值的均值,对两个均值作差可以得到这两个分布(F(Pr)和F(Pg))对应于f的均值差异(meandiscrepancy,MD),确定一个f使得均值差异MD有最大值,就得到了最大均值差异MMD。其中,样本空间例如为希尔伯特空间。以公式来定义,则映射网络模块F处理后真实数据分布F(Pr)和生成数据分布F(Pg)之间的最大均值差异MMD定义为:
其中,表示遵循真实数据分布F(Pr)的真实样本F(X)在f函数上期望值,表示遵循生成数据分布F(Pg)的真实样本F(Y)在f函数上期望值。故而,表示在希尔伯特空间H的单位球中求取F(X)和F(Y)在函数f上的最大均值差异MMD。由于,映射网络模块F基于第二参数对其获取的样本进行处理,生成网络模块G基于第一参数对其输入数据进行处理而生成的生成样本Y,因此,既相关于映射网络模块F的第二参数,也相关于生成网络模块G的第一参数。
进一步地,为了求解上述公式,通过高斯内核k以及期望值的展开,上述公式可以采用下式来计算,如下:
其中,等价于,遵循经映射网络F处理后的真实数据分布F(Pr),遵循于真实数据分布Pr。等价于,遵循经映射网络F处理后的生成数据分布F(Pg),遵循于真实数据分布Pg。故而,等价于,其同前式,既相关于映射网络F的第二参数,也相关于生成网络G的第一参数。
从生成网络模块G的第一参数的训练目标上来看,期望生成网络模块G对于任意设置的映射网络模块F,都能使得生成样本F(Y)逼近于真实样本F(X),也即达到最小(最好为零或接近于零)。为了能够达到上述目标,我们只需先确定能够使得最大的映射网模块络F,如果训练的生成网络农垦G能够使得该最大的取得最小值(最好为零或接近零),那么对任意设置的映射网络模块F,都能使得达到最小。因此,在当前生成网络模块G的第一参数的条件下,首先训练模块T训练映射网络模块F的第二参数能使得符合最大化条件。
其中,。在本申请中,限制满足1-Lipschitz,表示映射网络F所应用的函数的第i项,d表示映射网络F最终映射到的特征表示空间的维数,则表示沿一条直线在真实数据分布Pr和生成数据分布Pg上采样的点对,从而利用梯度惩罚正则化方法求解的最大值,以此来更新映射网络F的第二参数。
在另一些实施例中,采用L1正则化或L2正则化来使得有界,则上式中的Reg可例如为L1正则项或L2正则项。其中,表示映射网络F的归一化层的参数,也可理解为在此,映射网络F的第二参数由其归一化层的参数来表示,因为归一化层决定了归一化输出在非线性激活函数之前的比例。
更进一步地,本实施例中采用优化器基于上述梯度来确定第二参数的偏移量,以
采用Adam优化器为例,第二参数的偏移量为Adam(),其中,为
Adam优化器的初始参数。代表步长,例如可取值为0.001;和代表指数衰减率,其中,
用来控制权重分配,通常取接近于1的值,默认设置为0.9,用来控制梯度平方的影响情
况,默认设置为0.999。但本申请并不以此为限,Adam优化器的初始参数可以依据实际情况
进行选择,优化器的种类也不仅限于Adam优化器,还可使用RMSprop优化器、Adadelta优化
器等。
需要说明的是,在第二更新单元更新一次第二参数后,更新后的第二参数可能并不是最优结果,也即,更新后的第二参数虽然使得增大,但并没有使其达到最大化条件。故而,第二更新单元会利用每次更新后的第二参数重复上述过程,鉴于此,第二参数更新公式可以以下式表示:
其中,i表示第二更新单元第i次更新第二参数。以下以更新三次第二参数为例进行说明,第一次更新后的映射网络模块F的第二参数,第二次更新后的映射网络模块F的第二参数,第三次更新后的映射网络模块F的第二参数。
在一些实施例中,通过预设更新次数(例如100次)作为使得达到最大化条件的标准,在第二更新单元的更新次数达到预设次数时,则认为达到最大;在另一些实施例中,将每次更新第二参数的偏移量是否低于预设值(例如,)作为使得达到最大化条件的标准,每次更新后,第二参数的偏移量低于预设值,则认为每次更新对第二参数的影响很小,达到最大。实际应用中,本领域技术人员可以依据实际所想要达到的精度需求对达到最大值的标准进行设定,本申请并不以此为限。
前述中,训练模块T训练的生成网络模块F的第二参数能够使得在当前生成网络模块G的第一参数的条件下经映射网络模块F处理的真实样本和生成样本之间的特征距离最大。在此,需要训练生成网络模块G的第一参数,使得真实样本和更新后的生成样本之间的距离符合最小化条件,从而使得生成网络G能够生成逼近于真实样本X的生成样本的目的。其中对真实样本和更新后的生成样本之间的距离计算依然由前述计算单元执行。
需要说明的是,对第一参数进行一次更新并不能达到第二参数的条件下的所述真实样本X和训练后的生成网络模块G输出的生成样本之间的特征距离符合最小化条件。鉴于此,如图5,所述训练模块T还包括第一更新单元和第一判别单元。
所述第一更新单元用于在训练后的第二参数的条件下,基于所述真实样本X和每次更新第一参数后的生成网络G输出的生成样本之间的特征距离而确定的所述第一参数的偏移量,更新第一参数,直至所述真实样本X和训练后的生成网络模块G输出的生成样本之间的特征距离符合所述最小化条件。其中,n表示特征距离符合所述最小化条件时第一参数更新的次数,表示第j次更新第一参数后生成网络模块G输出的生成样本。
其中,在训练后的第二参数的条件下,也即是指,所述真实样本X和每次更新第一参数后的生成网络G输出的生成样本之间的特征距离采用的是在步骤S11训练后的映射网络模块F对真实样本X和每次更新第一参数后的生成网络G输出的生成样本分别处理之后得到的和之间的最大均值差异MMD。
更进一步地,本实施例中采用优化器基于上述梯度来确定第j次更新第一参数
的偏移量,以采用Adam优化器为例,第j次更新第一参数的偏移量为Adam(),其中,为Adam优化器的初始参数。代表步长,例如可取值为
0.001;和代表指数衰减率,其中,用来控制权重分配,通常取接近于1的值,默认设置
为0.9,用来控制梯度平方的影响情况,默认设置为0.999。但本申请并不以此为限,
Adam优化器的初始参数可以依据实际情况进行选择,优化器的种类也不仅限于Adam优化
器,还可使用RMSprop优化器、Adadelta优化器等。
在一些实施例中,通过预设第一更新单元的更新次数(例如100次)作为使得符合最小化条件的标准,在更新第一参数达到预设次数时,则认为符合最小化条件;在另一些实施例中,将每次更新第一参数的偏移
量低于预设值(例如,)作为使得符合
最小化条件的标准,每次更新后,第一参数的偏移量低于预设值,则认为每次更新对第一
参数的影响很小,符合最小化条件,实际应用中,本领域技术人员可
以依据实际所想要达到的精度需求对达到最大值的标准进行设定,本申请并不以此为限。
经过训练模块T的上述处理,使得新的生成网络模块G相较于未训练前的具有能够生成更逼近于真实样本的生成样本的能力,新的映射网络模块F相较未训练前的具有辨别真实样本和生成样本的能力更强。在实施例中,为了更好的优化生成网络G的性能,训练模块T会重复上述训练过程直至经训练得到的第一参数满足预设收敛条件。需要说明的是,每次重复过程中当前生成网络模块G的第一参数和当前映射网络模块F的第二参数分别为上次更新后的数值。
鉴于此,所述训练模块T还可包括第三判别单元(未予以图示),用于在经训练所得到的第一参数满足预设收敛条件时停止训练模块T的更新,并将训练模块T停止更新后的第一参数反馈给生成网络模块G,以及将训练模块T停止更新后的第二参数反馈给映射网络模块F。
在一些实施例中,所述预设收敛条件为本次得到的第一参数与上一次重复训练模块T的训练过程得到的第一参数的差值低于预设值。如此,每次重复训练模块T的训练过程后,要判断本次与上次重复后得到的第一参数的差值是否低于预设值。如果高于预设值,则第一参数不能收敛,继续重复训练模块T的训练过程;如果低于预设值,则认为训练的第一参数已经趋于稳定了(或者说已经可收敛了),则停止训练模块T的训练过程,将训练模块T停止更新后的第一参数反馈给生成网络模块G,以及将训练模块T停止更新后的第二参数反馈给映射网络模块F。
在另一些实施例中,所述预设收敛条件为重复训练模块T的训练过程的次数达到预设次数,也即是,认为在执行预定次数的训练模块T的训练过程后,得到的第一参数便会趋于稳定了,训练模块T的训练过程即停止。
综上所述,本申请提出的生成网络的训练系统简单易行,并且大大降低了计算量和内存需求。另外训练出的生成网络模块性能稳定,能够生成更真实的图像,尤其在生成高维图像方面具有很好的表现力。
本申请还提出一种图像生成方法,请参阅图6,显示为本申请在一实施例中的图像生成方法的流程图,所述图像生成方法包括步骤S30和步骤S31。
在步骤S30中,获取一原始输入图像。
所述原始输入图像为待处理图像。所述待处理图像包括但不限于:通过使用手机、平板电脑、笔记本电脑等智能终端的摄像头进行拍摄或扫描得到图像、通过网络获取的电子图像、预先存储于所述各智能终端的图像。例如,所述待处理图像为摄像头扫描的老旧或污损照片、网络上下载的低分辨率的图像等。
在步骤S31中,利用本申请中生成网络训练方法获得的生成网络对所述原始输入图像进行处理以输出一生成图像。
将获取的原始输入图像输入至生成网络中,所述生成网络对原始输入图像进行重新生成,从而基于所述原始输入图像输出一生成图像。例如,在一示例中,所述原始输入图像为摄像头扫描的污损照片,经生成网络对污损照片进行处理,输出的生成图像为对还原后照片;在另一示例中,所述原始输入图像为网络上下载的低分辨率的图像,经生成网络对其处理,输出的生成图像为低分辨率的图像。
本申请还提出一种图像生成设备,请参阅图7,显示为本申请在一实施例中的图像生成设备结构示意图,如图所示,所述图像生成设备20包括图像采集装置21、存储装置22、和处理装置23,图像采集装置21、存储器22、和处理装置23可通过总线或其它方式通信连接,本申请通过总线连接为例,其中,图像采集装置21用于获取待处理的原始输入图像。
所述图像采集装置21包括智能终端或其它带有摄像头的装置或设备,所述原始输入图像包括但不限于:通过使用手机、平板电脑、笔记本电脑等智能终端的摄像头进行拍摄或扫描得到图像、通过智能终端下载的电子图像、预先存储于所述各智能终端的图像。例如,所述原始输入图像为摄像头扫描的老旧或污损照片、网络上下载的低分辨率的图像等。
所述存储装置22可包括随机存取存储器(Random Access Memory,RAM)、只读存储器(Read Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦可编程序只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦编程只读存储器Electric Erasable Programmable Read-Only Memory,EEPROM)等。存储装置22用于存储计算机程序,处理装置23在接收到执行指令后,执行该程序。
所述处理装置23包括集成电路芯片,具有信号处理能力;或通用处理器,例如,可以是数字信号处理器(DSP)、专用集成电路(ASIC)、分立门或晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。所述通用处理器可以是微处理器或者任何常规处理器等,例如中央处理器(Central Processing Unit,CPU)。所述处理装置23用于调用所述存储装置22中存储的计算机程序来执行前述的图像生成方法,在此不再赘述。
本申请提供的图像生成方法还可借由以图像生成客户端来执行,所述图像生成客户端装载于一智能设备中,通过智能设备的软件和硬件来实现。所述图像生成客户端在智能设备上的装载形式包括APP应用程序或小程序(例如微信上的小程序等)。
请参阅图8,显示为本申请在一实施例中的图像生成客户端结构示意图,如图所示,所述装载于一智能设备中的图像生成客户端30包括输入模块31和处理模块32。其中:所述输入模块31用于接收到用户输入的生成指令时,调用所述智能设备的图像采集装置获取待处理的原始输入图像;所述处理模块32调用所述智能设备中存储的计算机程序来执行前述的图像生成方法。
在一实施例中,所述图像生成客户端30还包括显示模块(未予以图示),用于显示处理模块32执行前述图像生成方法所输出生成图像。
所述智能设备例如为包括但不限于智能手机、平板电脑、智能手表、个人数字助理(PDA)等等的电子设备,应当理解,本申请于实施方式中描述的电子设备只是一个应用实例,该设备的组件可以比图示具有更多或更少的组件,或具有不同的组件配置。所绘制图示的各种组件可以用硬件、软件或软硬件的组合来实现,包括一个或多个信号处理和/或专用集成电路。
本申请还提供一种计算机可读存储介质,存储有至少一计算机程序,所述计算机程序被用于执行本申请中提出的生成网络的训练方法或执行实现本申请中提出的生成图像的方法。
于本申请提供的实施例中,所述计算机可读写存储介质可以包括只读存储器、随机存取存储器、EEPROM、CD-ROM或其它光盘存储装置、磁盘存储装置或其它磁存储设备、闪存、U盘、移动硬盘、或者能够用于存储具有指令或数据结构形式的期望的程序代码并能够由计算机进行存取的任何其它介质。另外,任何连接都可以适当地称为计算机可读介质。例如,如果指令是使用同轴电缆、光纤光缆、双绞线、数字订户线(DSL)或者诸如红外线、无线电和微波之类的无线技术,从网站、服务器或其它远程源发送的,则所述同轴电缆、光纤光缆、双绞线、DSL或者诸如红外线、无线电和微波之类的无线技术包括在所述介质的定义中。然而,应当理解的是,计算机可读写存储介质和数据存储介质不包括连接、载波、信号或者其它暂时性介质,而是旨在针对于非暂时性、有形的存储介质。如申请中所使用的磁盘和光盘包括压缩光盘(CD)、激光光盘、光盘、数字多功能光盘(DVD)、软盘和蓝光光盘,其中,磁盘通常磁性地复制数据,而光盘则用激光来光学地复制数据。
在一个或多个示例性方面,本申请所述生成网络的训练方法和图像生成方法的计算机程序所描述的功能可以用硬件、软件、固件或者其任意组合的方式来实现。当用软件实现时,可以将这些功能作为一个或多个指令或代码存储或传送到计算机可读介质上。本申请所公开的方法或算法的步骤可以用处理器可执行软件模块来体现,其中处理器可执行软件模块可以位于有形、非临时性计算机可读写存储介质上。有形、非临时性计算机可读写存储介质可以是计算机能够存取的任何可用介质。
本申请上述的附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这根据所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以通过执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以通过专用硬件与计算机指令的组合来实现。
本申请提供的生成网络的训练方法、生成网络的训练系统、图像生成方法、图像生成设备、图像生成客户端及计算机可读存储介质,通过引入映射网络与生成网络进行对抗训练,同时提高二者的鲁棒性和准确性,进而有效的提高图像生成的鲁棒性和质量,并利用映射网络的映射功能将高维数据映射到低维数据,以低维数据来度量真实样本和生成样本之间的距离,在大大降低了计算量和节约内存的同时提高了生成网络对高维数据的处理能力以及生成高维图像的性能。并且本申请中采用最大均值差异来评估真实样本和生成样本之间的差异,评估效果更优良,从而对生成网络的训练更精准。
上述实施例仅例示性说明本申请的原理及其功效,而非用于限制本申请。任何熟悉此技术的人士皆可在不违背本申请的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本申请所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本申请的权利要求所涵盖。
Claims (28)
1.一种生成网络的训练方法,其特征在于,包括以下步骤:
获取真实样本和生成样本,所述生成样本是由使用第一参数的生成网络所生成的;
利用所述真实样本和所述生成样本对映射网络的第二参数进行训练,直至所训练的映射网络使得所述真实样本和所述生成样本之间的特征距离符合最大化条件;
利用训练后的映射网络对所述生成网络的第一参数进行训练,直至训练后的第二参数的条件下的所述真实样本和训练后的生成网络输出的生成样本之间的特征距离符合最小化条件;
重复上述过程直至经训练得到的第一参数满足预设收敛条件。
2.根据权利要求1所述的生成网络的训练方法,其特征在于,所述映射网络用于将所述真实样本和生成样本映射到特征表示空间内。
3.根据权利要求2所述的生成网络的训练方法,其特征在于,所述映射网络的映射包括:降维操作。
4.根据权利要求2所述的生成网络的训练方法,其特征在于,所述特征距离为经所述映射网络映射到特征表示空间内的真实样本的特征和生成样本的特征之间的最大均值差异。
5.根据权利要求1所述的生成网络的训练方法,其特征在于,所述利用所述真实样本和所述生成样本对映射网络的第二参数进行训练包括:
计算经所述映射网络得到的真实样本和生成样本之间的特征距离;
基于所述特征距离确定所述第二参数的偏移量,以用于更新所述第二参数;
利用更新后的第二参数重复上述步骤,直至所得到的所述特征距离符合所述最大化条件。
6.根据权利要求5所述的生成网络的训练方法,其特征在于,所述第二参数的偏移量包括:基于所述特征距离在第二参数上的梯度而得到的偏移量。
7.根据权利要求1所述的生成网络的训练方法,其特征在于,所述利用训练后的映射网络对所述生成网络的第一参数进行训练的步骤包括:
在训练后的第二参数的条件下,基于所述真实样本和每次更新第一参数后生成网络输出的生成样本之间的特征距离而确定的所述第一参数的偏移量,更新所述生成网络的第一参数,直至所述真实样本和训练后的生成网络输出的生成样本之间的特征距离符合所述最小化条件。
8.根据根据权利要求7所述的生成网络的训练方法,其特征在于,所述第一参数的偏移量包括:每次更新第一参数后生成网络输出的生成样本和所述真实样本之间的特征距离在第一参数上的梯度而得到的偏移量。
9.根据权利要求1所述的生成网络的训练方法,其特征在于,所述训练方法还包括获取一随机变量的步骤,所述生成样本即为所述生成网络基于所述随机变量生成的。
10.根据权利要求9所述的生成网络的训练方法,其特征在于,所述随机变量遵循于一正态分布或一均匀分布。
11.根据权利要求1所述的生成网络的训练方法,其特征在于,所述真实样本为参考图像,所述生成样本为生成网络输出的生成图像。
12.一种生成网络的训练系统,其特征在于,包括:
映射网络模块,具有第二参数,用于获取真实样本和生成样本,并基于第二参数输出映射后的真实样本和生成样本;
生成网络模块,具有第一参数,用于基于第一参数输出生成样本;
训练模块,用于基于第一参数对所述映射网络模块的第二参数训练,直至所训练的映射网络模块使得所述真实样本和使用第一参数的生成网络模块输出的生成样本之间的特征距离符合最大化条件,以及用于基于训练后的映射网络模块对所述生成网络模块的第一参数训练,直至训练后的第二参数的条件下的所述真实样本和训练后的生成网络模块输出的生成样本之间的特征距离符合最小化条件;
所述训练模块还用于重复上述训练过程,直至经训练的第一参数满足预设收敛条件。
13.根据权利要求12所述的生成网络的训练系统,其特征在于,所述映射网络模块包括:特征表示单元,用于将所述真实样本和生成样本映射到特征表示空间内。
14.根据权利要求13所述的生成网络的训练系统,其特征在于,所述特征表示单元将所述真实样本和生成样本映射到特征表示空间内包括:对真实样本的特征和生成样本的特征进行降维处理。
15.根据权利要求12所述的生成网络的训练系统,其特征在于,所述特征距离为经所述映射网络模块映射到特征表示空间内的真实样本的特征和生成样本的特征之间的最大均值差异。
16.根据权利要求12所述的生成网络的训练系统,其特征在于,所述训练模块还包括用于计算所述特征距离的计算单元。
17.根据权利要求16所述的生成网络的训练系统,其特征在于,所述训练模块还包括:
第二更新单元,用于基于所述真实样本和所述生成样本之间的特征距离而确定的所述第二参数的偏移量,更新所述第二参数;
第二判别单元,用于在判断利用更新后的第二参数所得到的特征距离符合最大化条件时停止第二更新单元的更新。
18.根据权利要求17所述的生成网络的训练系统,其特征在于,所述第二参数的偏移量包括:基于所述真实样本和所述生成样本之间的特征距离在第二参数上的梯度变化而得到的偏移量。
19.根据权利要求16所述的生成网络的训练系统,其特征在于,所述训练模块还包括:
第一更新单元,用于在训练后的第二参数的条件下,基于所述真实样本和每次更新第一参数后生成网络模块输出的生成样本之间的特征距离而确定的所述第一参数的偏移量,更新所述生成网络模块的第一参数;
第一判别单元,用于在判断基于每次更新后的第一参数而输出的生成样本与所述真实样本之间的特征距离符合最小化条件时停止第一更新单元的更新。
20.根据权利要求19所述的生成网络的训练系统,其特征在于,所述第一参数的偏移量包括:基于所述真实样本和每次更新第一参数后生成网络输出的生成样本之间的特征距离在第一参数上的梯度变化而得到的偏移量。
21.根据权利要求12所述的生成网络的训练系统,其特征在于,所述生成网络模块还用于获取一随机变量,所述生成样本即为所述生成网络模块基于所述随机变量生成的。
22.根据权利要求21所述的生成网络的训练系统,其特征在于,所述随机变量遵循于一正态分布或一均匀分布。
23.根据权利要求12所述的生成网络的训练系统,其特征在于,所述真实样本为参考图像,所述生成样本为所述生成网络模块生成的图像。
24.一种图像生成方法,其特征在于,包括以下步骤:
获取一原始输入图像;
利用上述权利要求1至11任一项所述的生成网络训练方法获得的生成网络对所述原始输入图像进行处理以输出一生成图像。
25.一种图像生成设备,其特征在于,包括:
图像采集装置,用于获取待处理的原始输入图像;
存储装置,用于存储计算机程序;
处理装置,通信连接所述图像采集装置及存储装置,用于运行所述计算机程序来执行如权利要求24所述的图像生成方法。
26.一种图像生成客户端,其特征在于,装载于一智能设备;所述客户端包括:
输入模块,用于接收到生成指令时,调用所述智能设备的图像采集装置获取待处理的原始输入图像;
处理模块,用于执行如权利要求24所述的图像生成方法,以获得生成图像。
27.根据权利要求26所述的图像生成客户端,其特征在于,所述客户端还包括一显示模块,用于显示所述生成图像。
28.一种计算机可读存储介质,其特征在于,存储有至少一计算机程序,所述计算机程序被用于执行实现权利要求1至11任一所述的生成网络的训练方法或执行实现权利要求24所述的图像生成的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010152216.5A CN111062468B (zh) | 2020-03-06 | 2020-03-06 | 生成网络的训练方法和系统、以及图像生成方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010152216.5A CN111062468B (zh) | 2020-03-06 | 2020-03-06 | 生成网络的训练方法和系统、以及图像生成方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111062468A true CN111062468A (zh) | 2020-04-24 |
CN111062468B CN111062468B (zh) | 2023-06-20 |
Family
ID=70307890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010152216.5A Active CN111062468B (zh) | 2020-03-06 | 2020-03-06 | 生成网络的训练方法和系统、以及图像生成方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111062468B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111652064A (zh) * | 2020-04-30 | 2020-09-11 | 平安科技(深圳)有限公司 | 人脸图像生成方法、电子装置及可读存储介质 |
CN111652064B (zh) * | 2020-04-30 | 2024-06-07 | 平安科技(深圳)有限公司 | 人脸图像生成方法、电子装置及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443293A (zh) * | 2019-07-25 | 2019-11-12 | 天津大学 | 基于双判别生成对抗网络文本重构的零样本图像分类方法 |
CN110827201A (zh) * | 2019-11-05 | 2020-02-21 | 广东三维家信息科技有限公司 | 用于高动态范围图像超分辨率重建的生成式对抗网络训练方法及装置 |
CN110853012A (zh) * | 2019-11-11 | 2020-02-28 | 苏州锐一仪器科技有限公司 | 获得心脏参数的方法、装置及计算机存储介质 |
-
2020
- 2020-03-06 CN CN202010152216.5A patent/CN111062468B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443293A (zh) * | 2019-07-25 | 2019-11-12 | 天津大学 | 基于双判别生成对抗网络文本重构的零样本图像分类方法 |
CN110827201A (zh) * | 2019-11-05 | 2020-02-21 | 广东三维家信息科技有限公司 | 用于高动态范围图像超分辨率重建的生成式对抗网络训练方法及装置 |
CN110853012A (zh) * | 2019-11-11 | 2020-02-28 | 苏州锐一仪器科技有限公司 | 获得心脏参数的方法、装置及计算机存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111652064A (zh) * | 2020-04-30 | 2020-09-11 | 平安科技(深圳)有限公司 | 人脸图像生成方法、电子装置及可读存储介质 |
CN111652064B (zh) * | 2020-04-30 | 2024-06-07 | 平安科技(深圳)有限公司 | 人脸图像生成方法、电子装置及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111062468B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107636690B (zh) | 基于卷积神经网络的全参考图像质量评估 | |
CN110991652A (zh) | 神经网络模型训练方法、装置及电子设备 | |
CN108197652B (zh) | 用于生成信息的方法和装置 | |
CN111860573A (zh) | 模型训练方法、图像类别检测方法、装置和电子设备 | |
CN112634170B (zh) | 一种模糊图像修正的方法、装置、计算机设备及存储介质 | |
CN111950723A (zh) | 神经网络模型训练方法、图像处理方法、装置及终端设备 | |
WO2023040510A1 (zh) | 图像异常检测模型训练方法、图像异常检测方法和装置 | |
CN111695421B (zh) | 图像识别方法、装置及电子设备 | |
CN111738243A (zh) | 人脸图像的选择方法、装置、设备及存储介质 | |
CN111242217A (zh) | 图像识别模型的训练方法、装置、电子设备及存储介质 | |
CN111667420B (zh) | 图像处理方法及装置 | |
CN109214501B (zh) | 用于识别信息的方法和装置 | |
CN114925748B (zh) | 模型训练及模态信息的预测方法、相关装置、设备、介质 | |
CN107590460A (zh) | 人脸分类方法、装置及智能终端 | |
CN112613543A (zh) | 增强策略验证方法、装置、电子设备及存储介质 | |
CN115205736A (zh) | 视频数据的识别方法和装置、电子设备和存储介质 | |
CN111382791A (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN111242176A (zh) | 计算机视觉任务的处理方法、装置及电子系统 | |
CN113516697A (zh) | 图像配准的方法、装置、电子设备及计算机可读存储介质 | |
CN113902944A (zh) | 模型的训练及场景识别方法、装置、设备及介质 | |
CN111062468A (zh) | 生成网络的训练方法和系统、以及图像生成方法及设备 | |
TWI818496B (zh) | 指紋識別方法、指紋模組及電子設備 | |
CN110008907B (zh) | 一种年龄的估计方法、装置、电子设备和计算机可读介质 | |
CN114241044A (zh) | 回环检测方法、装置、电子设备和计算机可读介质 | |
CN112580689A (zh) | 神经网络模型的训练方法、应用方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231116 Address after: Building C21, 6th Floor, Zidong International Creative Park, No. 2 Zidong Road, Maqun Street, Nanjing City, Jiangsu Province, 210046 Patentee after: TULING ARTIFICIAL INTELLIGENCE INSTITUTE (NANJING) Co.,Ltd. Patentee after: TSINGHUA University Address before: 210046 601 room, No. 6, Qi Min Road, Xianlin street, Qixia District, Nanjing, Jiangsu, China. 6 Patentee before: TULING ARTIFICIAL INTELLIGENCE INSTITUTE (NANJING) Co.,Ltd. |