CN108509977A - 生成模型学习方法、生成模型学习装置及程序 - Google Patents
生成模型学习方法、生成模型学习装置及程序 Download PDFInfo
- Publication number
- CN108509977A CN108509977A CN201810155481.1A CN201810155481A CN108509977A CN 108509977 A CN108509977 A CN 108509977A CN 201810155481 A CN201810155481 A CN 201810155481A CN 108509977 A CN108509977 A CN 108509977A
- Authority
- CN
- China
- Prior art keywords
- learning
- data
- study
- model
- generation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
Abstract
本发明公开了生成模型学习方法、生成模型学习装置及程序。本发明涉及能够最终生成所期望的数据的生成模型学习方法、生成模型学习装置及程序。本发明的生成模型学习方法,包括根据第1学习数据来学习用于生成数据的生成模型的第1学习步骤,和根据第2学习数据来学习第1学习步骤学习中的生成模型的第2学习步骤,并对第1学习步骤和第2学习步骤交替重复后来学习生成模型。
Description
技术领域
本发明涉及生成模型学习方法、生成模型学习装置及程序。
背景技术
以往,在人工智能的领域中,利用的是生成模型。生成模型能够通过学习数据集的模型,来生成与该数据集中包含的学习数据类似的数据。
近年来,已经提案有变分自动编码器(VAE:Variational Auto Encoder)或生成对抗网络(GAN:Generative Adversarial Networks)等的利用了深学习的生成模型。这些生成模型被称为深层生成模型,与以往的生成模型相比,能够高精度地生成与学习数据相似的数据。
然而,以往的深层生成模型因为所生成的数据的控制困难,所以难以生成最终所期望的数据。
【非专利文献1】
J.Gauthier.Conditional generative adversarial nets for convolutionalface generation.Class Project for Stanford CS231N:Convolutional NeuralNetworks for Visual Recognition,Winter semester 2014
【非专利文献2】
UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONALGENERATIVE ADVERSARIAL NETWORKS
发明内容
本发明的目的是提供能够生成最终所期望的数据的生成模型学习方法、生成模型学习装置及程序。
为了解决上述课题实现目的,本发明的技术方案提供一种生成模型学习方法,其特征在于:包括根据第1学习数据来学习用于生成数据的生成模型的第1学习步骤,和根据第2学习数据来学习所述第1学习步骤学习中的所述生成模型的第2学习步骤,并对所述第1学习步骤和所述第2学习步骤交替重复后来学习所述生成模型。
根据本发明,能够生成最终所期望的数据。
附图说明
图1所示是生成模型学习装置的硬件构成例示图。
图2所示是生成模型学习装置所具有的功能的一个例示图。
图3是模式化地示出了学习部的学习步骤的图。
图4所示是学习部的动作的流程例图。
图5是模式化地示出了第二学习部的学习步骤的图。
图6所示是实施方式的学习部的动作的流程例图。
图7所示是学习中所使用的图像例图。
图8所示是学习中所使用的图像例图。
图9所示是使用以往公知的DCGAN来生成的图像例图。
图10所示是通过实施方式的构成来生成的图像例图。
具体实施方式
以下,参照附图来详细说明本发明涉及的生成模型学习方法、生成模型学习装置及程序的实施方式。
图1所示是本实施方式的生成模型学习装置1的硬件构成的例示图。生成模型学习装置1由服务器计算机与客户端计算机等的计算机构成。如图1所示,生成模型学习装置1包括CPU(中央处理单元)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HDD(Hard Disk Drive)104。另外,生成模型学习装置1还具有输入装置105、显示装置106、通信接口107和总线108。
CPU 101通过执行程序来控制生成模型学习装置1的各个构成,并实现生成模型学习装置1所具有的各种功能。对于生成模型学习装置1所具有的各种功能将在后面进行叙述。ROM 102存储的是包含有CPU 101所执行的程序的各种数据。RAM 103是具有CPU 101的工作区域的易失性存储器。HDD 104存储的是包含有CPU 101所执行的程序和数据集的各种数据。输入装置105将对应于用户的操作的信息输入到学习装置1。输入装置105可以是鼠标、键盘、触摸面板或硬件按键。显示装置106显示包括稍后述的生成数据的各种数据。显示装置106可以是液晶显示器、有机EL(电致发光:Electro Luminescence)显示器或阴极射线管显示器。通信接口107是用于将学习装置1连接到LAN(局域网:Local Area Network)或互联网等网络里的接口。生成模型学习装置1通过通信接口107来与外部装置通信。总线108是用于分别连接CPU 101、ROM 102、RAM 103、HDD 104、输入装置105、显示装置106及通信接口107的布线。另外,在图1的例子中,生成模型学习装置1是由单一的计算机构成的,但不限于此,例如也可以是通过借助于网络连接的多个的计算机来构成的方式。
图2所示是生成模型学习装置1所具有的功能的一个例示图。如图2所示,生成模型学习装置1具有数据集存储部201、学习部202、数据生成部203以及数据显示部204。
数据集存储部201存储有用户预先准备的数据集。数据集是多个学习数据的组,用来对生成数据的生成模型进行学习。其可以是学习数据、图像数据、文本数据或映像数据。在下文中,学习数据被假定为图像数据。这里,数据集存储部201存储有两种类型的数据集(多个学习数据的组)。更具体地说,数据集存储部201存储有作为多个的第1学习数据的组的第1学习数据集,和作为多个的第2学习数据的组的第2学习数据集。
学习部202根据预先准备的第1学习数据及第2学习数据,来训练用于生成数据的生成模型。在此,学习部202是根据第1学习数据集和第2学习数据集来训练生成模型的。
如图2所示,学习部202包括有第1学习部210和第2学习部211。第1学习部210基于第1学习数据来训练用于生成数据的生成模型。这里,生成模型至少包括有生成数据的生成器。第1学习部210通过包括生成器(相当于后述图3所示生成器300)和对第1学习数据及生成器生成的数据进行识别的识别器(相当于后述图3所示的识别器301)的生成对抗网络的学习方法来训练生成模型。更具体地说,第1学习部210是基于生成器的评价值和识别器的评价值来训练生成模型的。识别器的评价值是识别器的识别精度越高,其显示的值也越高,生成器的评价值是识别器将生成器生成的数据作为第1学习数据的误识别越高,其显示的值也越高。对于第1学习部210的学习的具体内容将在后面叙述。第1学习部210是根据第1学习数据集来学习(训练生成模型)构成各个生成器及识别器的各参数的值。
第2学习部211基于第2学习数据,来训练第1学习部210学习中的生成模型。在以下的说明中,“生成模型”的前提是第1学习部210学习中的生成模型。这里,第2学习部211是使用从输入的数据来计算特征量时所用的学习结束的模型来从第2学习数据计算第1特征量,并采用学习结束的模型来从生成模型(第1学习部210学习中的生成模型)所生成的数据计算第2特征量,然后是使得第1特征量和第2特征量之间的误差为最小地来训练生成模型。在此,学习结束的模型是通过深度学习的学习结束的模型。在该示例中,深度学习是利用了卷积神经网路(CNN:Convolutional Neural Network)的学习,但并不限定于此。另外,第2学习部211例如也可以是不使用学习结束模型而以其他的特征量提取方法来从第2学习数据提取第2特征量的方式。例如,如果是图像数据时,就可以使用公知的HOG特征量的提取方法或SIFT特征量的提取方法,如果是语音数据时,则可以使用公知的共振峰过渡特征量的提取方法。
在该示例中,第2学习部211计算第1误差来表示使用学习结束的模型(通过利用CNN来学习的学习结束的模型)从第2学习数据计算得到的风格矩阵和使用该学习结束的模型从生成模型所生成的数据(生成数据)算出的风格矩阵之间的误差,以及计算第2误差来表示使用该学习结束的模型从第2学习数据算出的中间层输出和使用该学习结束的模型从生成数据算出的中间层输出之间的误差,并使得第1误差和第2误差之和为最小地来训练生成模型。即,在本例中,上述第1特征量是使用通过利用CNN学习的学习结束的模型来从第2学习数据算出的风格矩阵,以及使用该学习结束的模型来从第2学习数据算出的中间层输出。另外,上述第2特征量是使用该学习结束的模型从生成数据算出的风格矩阵,以及使用该学习结束的模型从生成数据算出的中间层输出。对于第2学习部211的学习的具体内容将在后面叙述。第2学习部211是根据第2学习数据集来学习(训练生成模型)构成包含在生成模型里的生成器的各参数的值。
学习部202将对第1学习部210的学习(第1学习步骤)和第2学习部202的学习(第2学习步骤)进行交替地反复来训练生成模型。
数据生成部203通过将输入变量(潜在变量)输入到由学习部202学习的生成模型里来生成数据。在此,将数据生成部203生成的数据称为“生成数据”。
数据显示部204将数据生成部203生成的生成数据显示到显示装置106里。
接下来,对学习部202的学习的具体内容进行说明。图3是模式化地示出了学习部202的学习步骤的图。
首先,说明第1学习部210的学习。在该示例中,第1学习部210作为上述对抗网络的学习方法的一例,使用的是生成对抗网络(GAN:Generative Adversarial Networks),但不限于此。在图3中,x是被输入到识别器301里的输入变量,y是从识别器301输出的输出变量,z是被输入到生成器300里的输入变量(潜在变量)。
识别器301接受的学习的是能够识别输入变量x究竟是第1学习数据,还是由生成器300生成的数据(生成数据)。在该示例中,构成识别器301的各参数的值接受的学习是当输入变量x为生成数据时,输出变量为0,当输入变量x为第1学习数据时,输出变量y为1。相对于此,生成器300接受的学习是能够生成识别器301不能识别为第1学习数据的生成数据。在该例子中,构成生成器300的各参数的值接受的学习是当输入变量x为第1学习数据时,输出变量y为0。通过反复进行上述学习,识别器301的识别精度提高,生成器300的生成精度(生成数据与第1学习数据相似的精度)得以提高。
以上的第1学习部210的学习可以通过对下式(1)表示的评价函数的求解来实现。
在上式(1)中,V是评价值,D是构成识别器301的参数组,G是构成生成器300的参数组,E[·]是期望值,x~pdata相当于从数据集采样到的学习数据的集合(输入变量x)。另外,z~pz是输入变量z,D(x)是输入变量x被输入时的输出变量y,G(z)相当于输入变量z被输入时的生成数据。
上式(1)的右边第1项相当于识别器301的评价值,识别器301的识别精度越高,其值越高。上式(1)的右边第2项相当于生成器300的评价值,识别器301将生成数据误识别为第1学习数据越多(识别器301的识别错误越多),其值越高。
如上述所示,识别器301的学习越多,式(1)右边第1项越高、右边第2项越低。此外,生成器300的学习越多,式(1)右边第1项越低、右边第2项越高。
接着,对第2学习部211的学习进行说明。在图3的例子中,第2学习部211采用学习结束模型400来从第2学习数据计算第1特征量。另外,第2学习部211采用学习结束模型400来从生成数据计算第2特征量。然后,计算第1特征量和第2特征量之间的误差d,并使得该计算出的误差d为最小的方式来训练构成生成器300的各参数的值。对于第2学习部211的学习的更为具体的内容将在后面叙述。
图4所示是学习部202的动作的流程例图。学习部202是通过重复执行步骤S431~步骤S456的处理来训练生成模型的。在图4的例子中,步骤S431~步骤S440的处理是第1学习部210的学习,步骤S451~步骤S456的处理是第2学习部211的学习。
首先,说明步骤S431~步骤S433的处理。在步骤S431中,第1学习部210从数据集存储部201读入预先准备的第1学习数据集。接着,第1学习部210通过识别器301来识别第1学习数据(步骤S432),并且基于该结果来计算识别器301的评价值(步骤S433)。
接着,说明步骤S434~步骤S436的处理。在步骤S434中,第1学习部210通过生成器300来生成数据。接着,第1学习部210通过识别器301来识别步骤S434中生成的数据(步骤S435),并且基于该结果来计算生成器300的评价值(步骤S436)。
步骤S431~步骤S433的处理以及步骤S434~步骤S436的处理之后,第1学习部210通过求解上式(1)所示的评价函数,来计算(更新)识别器301和生成器300的各个参数的值(步骤S440)。
接着,说明第2学习部211进行的处理。首先,对步骤S451~步骤S452的处理进行说明。在步骤S451,第2学习部211从数据集存储部201读入预先准备的第2学习数据集。接着,第2学习部211采用学习结束模型400来从第2学习数据计算第1特征量(步骤S452)。
接下来,对步骤S453至步骤S454的处理进行说明。在步骤S453中,第2学习部211通过生成器300来生成数据。接着,第2学习部211使用学习结束模型来从步骤S453所生成的数据(生成数据)计算第2特征量(步骤S454)。
上述的步骤S451~步骤S452的处理以及上述的步骤S453~步骤S454的处理之后,第2学习部211对步骤S452中计算的第1特征量和步骤S454中计算的第2特征量之间的误差进行计算(步骤S455)。然后,使得步骤S455中算出的误差为最小地来计算(更新)生成器300的参数值(步骤S456)。
这里,对于第2学习部211的学习的更为具体的内容进行说明。在本实施方式中,上述学习结束模型是通过利用了作为深度学习一例的CNN的学习后的学习结束的模型,第2学习部211进行的是将使用神经网络的图像风格转换方法例的A Neural Algorithm ofArtistic Style(以下,简称为“图像风格转换方法”表示该方法)所采用的中间层输出和风格矩阵作为特征量来学习的。但是,第2学习部211的学习不限于该方式。
图5是模式化地示出了本实施方式中的学习部202的学习步骤的图。在本实施方式中,第2学习部211使用学习结束模型(通过利用CNN学习的学习结束的模型)来从第2学习数据计算风格矩阵(上述第1特征量的一例)。另外,第2学习部211使用上述学习结束模型来从生成器300生成的数据(生成数据)计算风格矩阵(上述第2特征量的一例)。风格矩阵可以通过使用相当于神经网络阶层的多个层(从上位层到下位层)的各个滤波器的输出来计算格拉姆矩阵的方法求得。在以下的说明中,有时会将从第2学习数据计算得到的风格矩阵称为“第1风格矩阵”,将从生成数据计算得到的风格矩阵称为“第2风格矩阵”。然后,第2学习部211对每个包含在第2学习数据集中的多个的第2学习数据来计算第1风格矩阵,并对计算出的第1风格矩阵和从生成数据计算出的第2风格矩阵之间的误差进行计算,来求得其均方值(在以下的说明中有时会称为“均方误差d′”)。
另外,第2学习部211采用学习结束模型来从第2学习数据计算中间层输出(上述第1特征量的一例)。另外,第2学习部211使用上述学习结束模型来从生成器300生成的数据(生成数据)计算中间层输出(上述第2特征量的一例)。在这种情况下,是将上位层到下位层的各层中的下位层的各滤波器的输出值作为中间层输出来使用的。在以下的说明中,有时会将从第2学习数据计算得到的中间层输出称为“第1中间层输出”,将从生成数据计算得到的中间层输出称为“第2中间层输出”。然后,第2学习部211对每个包含在第2学习数据集中的多个的第2学习数据来计算第1中间层输出,并对该计算出的第1中间层输出和从生成数据计算出的第2中间层输出之间的误差进行计算,来求得其均方值(在以下的说明中有时会称为“均方误差d"”)。
接着,第2学习部211使得均方误差d′和均方误差d"的和为最小的方式对构成生成器300的各参数的值进行学习。
图6所示是实施方式的学习部202的动作的流程例图。这里,第2学习部211进行的处理(步骤S460~步骤S468)的部分与图4不同,其它部分相同。以下,说明本实施方式中的第2学习部211进行的处理(步骤S460~步骤S468)。
首先,说明步骤S460~步骤S462的处理。在步骤S460中,第2学习部211从数据集存储部201读入预先准备的第2学习数据集。接着,第2学习部211采用学习结束模型来从第2学习数据计算第1风格矩阵(步骤S461)。具体来说就是,对每个第2学习数据都计算第1风格矩阵。另外,第2学习部211采用学习结束模型来从第2学习数据计算第1中间层输出(步骤S462)。具体来说就是,对每个第2学习数据都计算第1中间层输出。
接下来,对步骤S463至步骤S464的处理进行说明。在步骤S463中,第2学习部211通过生成器300来生成数据。接着,第2学习部211使用学习结束模型来从步骤S463所生成的数据(生成数据)计算第2风格矩阵(步骤S464)。另外,第2学习部211使用学习结束模型来从步骤S463所生成的数据(生成数据)计算第2中间层输出(步骤S465)。还有,以上说明的步骤S463~步骤S465和步骤S460~步骤S462的处理的顺序可以任意改变。
上述的步骤S460~步骤S462的处理和上述的步骤S463~步骤S465的处理之后,第2学习部211对于每一个步骤S461中计算出的第1风格矩阵来计算该第1风格矩阵和步骤S464中算出的第2风格矩阵之间的误差,并算出作为其均方值的均方误差d′(步骤S466)。另外,第2学习部211对于每一个步骤S462计算的第1中间层输出来计算该第1中间层输出和步骤S465算出的第2中间层输出之间的误差,并算出作为其均方值的均方误差d"(步骤S467)。
在上述步骤S466和上述步骤S467之后,第2学习部211使得均方误差d′和均方误差d"的和为最小的方式来对构成生成器300的各参数的值进行计算(更新)(步骤S468)。
在此,作为学习数据的具体例,可以设想是使用MNIST的手写数字图像数据集(参见http://yann.lecun.com/exdb/mnist/)的情况。这时,从“7”和“8”的类别中随机地选择各500张来作为第1学习数据集,并将没有用于第1学习数据集的图像按类别各选500张来作为第2学习数据集。通过这样地选择学习数据集,在通常的生成模型的学习中会生成“7”和“8”混杂的图像,如上说明那样,因为在本实施方式中是赋予信息来由第2学习数据集具有“7”和“8”的图像构造,所以最终生成的图像确认“7”和“8”混合的图像变得难以生成。
图7所示是学习中所使用的MNIST的类别“7”的图像例,图8所示是学习中所使用的MNIST的类别“8”的图像例。另外,图9所示是使用以往公知的深度卷积生成对抗网络(DCGAN:Deep Convolutional Generative Adversarial Network)生成的图像例,图10所示是通过本实施方式的构成生成的图像例。在图9所示的图像中,生成了学习所使用的图像中没有的数字“9”那样的图像,较多地生成了有部分缺损等的不自然的图像。另一方面,在通过本实施方式的构成所生成的图像中,数字“9”那样的图像几乎没有生成,而且几乎所有的图像的图像构造都是自然的。
如上说明的那样,在本实施方式中,通过将上述第1学习部210的学习和上述第2学习部211的学习交替重复地来学习(训练)生成模型,最终就可能生成所希望的数据。也就是说,通过使用不同的学习数据来训练生成模型,就能够控制该生成模型所生成的数据的特征。由此,通过最终的被训练了的生成模型所生成的数据就能够是用户所期望的数据。
以上,对本发明所涉及的实施方式进行了说明,但本发明不限于原样不变的上述实施方式,在实施阶段,在不脱离其主旨的范围内能够对构成要素进行变形并具体化。另外,通过对上述实施方式所公开的多个的构成要素进行适当的组合,能够形成各种发明。例如,可以从实施方式所示的全部构成要素中删除几个构成要素。
另外,由上述实施方式的生成模型学习装置1执行的程序也可以是以可安装形式或可执行形式的文件存储到CD-ROM、软磁盘(FD)、CD-R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等的计算机可读记录介质中来提供的构成,或者是经由因特网等网络来提供或颁布的构成。另外,也可以是将各种程序事先安装到ROM等中来提供的构成。
Claims (11)
1.一种生成模型学习方法,其特征在于:
包括根据第1学习数据来学习用于生成数据的生成模型的第1学习步骤,和
根据第2学习数据来学习所述第1学习步骤学习中的所述生成模型的第2学习步骤,
并对所述第1学习步骤和所述第2学习步骤交替重复后来学习所述生成模型。
2.根据权利要求1所述的生成模型学习方法,其特征在于:
所述第1学习步骤是通过生成对抗网络的学习方法来学习所述生成模型的,该生成对抗网络包括生成数据的生成器,和对所述第1学习数据及所述生成器生成的数据进行识别的识别器。
3.根据权利要求2所述的生成模型学习方法,其特征在于:
所述第1学习步骤根据所述生成器的评价值和所述识别器的评价值来学习所述生成模型。
4.根据权利要求3所述的生成模型学习方法,其特征在于:
所述识别器的评价值是所述识别器的识别精度越高,其显示的值也越高,所述生成器的评价值是所述识别器将所述生成器生成的数据作为所述第1学习数据的误识别越高,其显示的值也越高。
5.根据权利要求1~4中任一项所述的生成模型学习方法,其特征在于:
所述第2学习步骤是使用从输入的数据计算特征量时所使用的学习结束的模型来从所述第2学习数据计算第1特征量,并采用所述学习结束的模型来从所述生成模型生成的数据计算第2特征量,然后是使得所述第1特征量和所述第2特征量之间的误差为最小地来学习所述生成模型。
6.根据权利要求1~5中任一项所述的生成模型学习方法,其特征在于:
所述学习结束的模型是通过深度学习来完成学习的模型。
7.根据权利要求6所述的生成模型学习方法,其特征在于:
所述深度学习是利用了卷积神经网路(Convolutional Neural Network)的学习。
8.根据权利要求7所述的生成模型学习方法,其特征在于:
所述第2学习步骤计算第1误差来表示使用所述学习结束的模型从所述第2学习数据算出的风格矩阵和使用所述学习结束的模型从所述生成模型生成的数据算出的风格矩阵之间的误差,以及计算第2误差来表示使用所述学习结束的模型从所述第2学习数据算出的中间层输出和使用所述学习结束的模型从所述生成数据生成的数据算出的中间层输出之间的误差,并使得所述第1误差和所述第2误差的和为最小地来学习生成模型。
9.根据权利要求8所述的生成模型学习方法,其特征在于:
所述第1特征量是使用所述学习结束的模型来从所述第2学习数据算出的风格矩阵,以及使用所述学习结束的模型来从所述第2学习数据算出的中间层输出,所述第2特征量是使用所述学习结束的模型来从所述生成模型生成的数据算出的风格矩阵,以及使用所述学习结束的模型来从所述生成模型生成的数据算出的中间层输出。
10.一种生成模型学习装置,其特征在于:
包括根据第1学习数据来学习用于生成数据的生成模型的第1学习部,和根据第2学习数据来学习所述第1学习部学习中的所述生成模型的第2学习部,
并对所述第1学习部和所述第2学习部交替重复后来学习所述生成模型。
11.一种存储程序的计算机可读存储介质,其特征在于使得计算机执行:
包括在计算机里执行根据第1学习数据来学习用于生成数据的生成模型的第1学习步骤,和
根据第2学习数据来学习所述第1学习步骤学习中的所述生成模型的第2学习步骤,
并对所述第1学习步骤和所述第2学习步骤交替重复后用来学习所述生成模型。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017033845A JP2018139071A (ja) | 2017-02-24 | 2017-02-24 | 生成モデル学習方法、生成モデル学習装置およびプログラム |
JP2017-033845 | 2017-02-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108509977A true CN108509977A (zh) | 2018-09-07 |
Family
ID=63246378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810155481.1A Withdrawn CN108509977A (zh) | 2017-02-24 | 2018-02-23 | 生成模型学习方法、生成模型学习装置及程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180247183A1 (zh) |
JP (1) | JP2018139071A (zh) |
CN (1) | CN108509977A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113544704A (zh) * | 2019-03-26 | 2021-10-22 | 日本电信电话株式会社 | 评价装置、评价方法以及评价程序 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10460206B2 (en) * | 2017-11-22 | 2019-10-29 | Facebook, Inc. | Differentiating physical and non-physical events |
US10970765B2 (en) | 2018-02-15 | 2021-04-06 | Adobe Inc. | Generating user-customized items using a visually-aware image generation network |
AU2019350918B2 (en) * | 2018-09-30 | 2021-10-07 | Boe Technology Group Co., Ltd. | Apparatus and method for image processing, and system for training neural network |
KR102203336B1 (ko) * | 2018-10-01 | 2021-01-15 | 한국과학기술원 | 생성모델을 이용한 실험 최적화 및 실험 가설 생성 시스템 및 방법 |
US20220005482A1 (en) * | 2018-10-25 | 2022-01-06 | Nec Corporation | Audio processing apparatus, audio processing method, and computer-readable recording medium |
KR102170968B1 (ko) * | 2018-10-26 | 2020-10-28 | 주식회사 피도텍 | 머신 러닝 기반의 근사모델 구축 방법 및 시스템 |
JP7423905B2 (ja) * | 2019-05-15 | 2024-01-30 | ブラザー工業株式会社 | 機械学習モデルのトレーニング方法、データ生成装置、および、学習済みの機械学習モデル |
TWI730467B (zh) | 2019-10-22 | 2021-06-11 | 財團法人工業技術研究院 | 影像轉換方法及影像轉換網路 |
US11475313B2 (en) | 2020-02-13 | 2022-10-18 | International Business Machines Corporation | Unsupervised, semi-supervised, and supervised learning using deep learning based probabilistic generative models |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010266975A (ja) * | 2009-05-13 | 2010-11-25 | Sony Corp | 学習装置、学習方法、データ生成装置、データ生成方法、及び、プログラム |
US20150131899A1 (en) * | 2013-11-13 | 2015-05-14 | Canon Kabushiki Kaisha | Devices, systems, and methods for learning a discriminant image representation |
CN106296692A (zh) * | 2016-08-11 | 2017-01-04 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
-
2017
- 2017-02-24 JP JP2017033845A patent/JP2018139071A/ja active Pending
-
2018
- 2018-02-01 US US15/886,311 patent/US20180247183A1/en not_active Abandoned
- 2018-02-23 CN CN201810155481.1A patent/CN108509977A/zh not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010266975A (ja) * | 2009-05-13 | 2010-11-25 | Sony Corp | 学習装置、学習方法、データ生成装置、データ生成方法、及び、プログラム |
US20150131899A1 (en) * | 2013-11-13 | 2015-05-14 | Canon Kabushiki Kaisha | Devices, systems, and methods for learning a discriminant image representation |
CN106296692A (zh) * | 2016-08-11 | 2017-01-04 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
Non-Patent Citations (2)
Title |
---|
MEHDI MIRZA ET AL.: "《Generative adversarial nets》", 《ARXIV》 * |
XI CHEN ET AL.: "《InfoGAN: interpretable representation learning by information maximizing generative adversarial nets》", 《ARXIV》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113544704A (zh) * | 2019-03-26 | 2021-10-22 | 日本电信电话株式会社 | 评价装置、评价方法以及评价程序 |
Also Published As
Publication number | Publication date |
---|---|
US20180247183A1 (en) | 2018-08-30 |
JP2018139071A (ja) | 2018-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509977A (zh) | 生成模型学习方法、生成模型学习装置及程序 | |
EP3518105B1 (en) | Method and device for data processing and storage medium | |
CN106462802B (zh) | 生成映像的自然语言描述 | |
CN106203625B (zh) | 一种基于多重预训练的深层神经网络训练方法 | |
CN106446927B (zh) | 一种自步增强图像分类方法及系统 | |
CN109871532A (zh) | 文本主题提取方法、装置及存储介质 | |
CN110533737A (zh) | 基于结构引导汉字字体生成的方法 | |
CN108229646A (zh) | 神经网络模型压缩方法、装置、存储介质和电子设备 | |
CN107247972A (zh) | 一种基于众包技术的分类模型训练方法 | |
CN103886023B (zh) | Excel数据表的存储、提取方法及系统 | |
CN108460720A (zh) | 一种基于生成对抗网络模型改变图像风格的方法 | |
CN107516304A (zh) | 一种图像去噪方法及装置 | |
CN103440352B (zh) | 基于深度学习的对象间的关联分析方法及其装置 | |
CN104408760A (zh) | 一种基于双目视觉的高精度虚拟装配系统算法 | |
CN109726676A (zh) | 自动驾驶系统的规划方法 | |
CN106897744A (zh) | 一种自适应设置深度置信网络参数的方法及系统 | |
CN104484347B (zh) | 一种基于地理信息的层次化视觉特征提取方法 | |
CN108710609A (zh) | 一种基于多特征融合的社交平台用户信息的分析方法 | |
CN106411216A (zh) | 机械学习方法及其装置、电动机控制装置以及电动机装置 | |
CN107748798A (zh) | 一种基于多层视觉表达和深度网络的手绘图像检索方法 | |
CN106169083A (zh) | 基于视觉特征的电影推荐方法和系统 | |
CN103914527B (zh) | 一种基于新编码方式的遗传规划算法的图形图像识别与匹配方法 | |
CN114556413A (zh) | 用于组织分割的机器学习模型的交互式训练 | |
CN107609055A (zh) | 基于深层主题模型的文本图像多模态检索方法 | |
CN108830376A (zh) | 针对时间敏感的环境的多价值网络深度强化学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180907 |
|
WW01 | Invention patent application withdrawn after publication |