CN113140017A - 训练对抗网络模型的方法、建立字库的方法、装置和设备 - Google Patents
训练对抗网络模型的方法、建立字库的方法、装置和设备 Download PDFInfo
- Publication number
- CN113140017A CN113140017A CN202110487527.1A CN202110487527A CN113140017A CN 113140017 A CN113140017 A CN 113140017A CN 202110487527 A CN202110487527 A CN 202110487527A CN 113140017 A CN113140017 A CN 113140017A
- Authority
- CN
- China
- Prior art keywords
- word
- content
- model
- loss
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/117—Tagging; Marking up; Designating a block; Setting of attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/109—Font handling; Temporal or kinetic typography
Abstract
本公开公开了一种训练对抗网络模型的方法,涉及人工智能领域,尤其涉及计算机视觉和深度学习领域。具体实现方案为:对抗网络模型包括生成模型和判别模型,该方法包括:使用生成模型,基于具有基础字体的内容字样本和具有风格字体的风格字样本来产生生成字,并基于内容字样本来产生重构字;利用判别模型,基于生成字和重构字,来计算生成模型的基本损失;通过使用经训练的字符分类模型对生成字进行分类,来计算生成模型的字符损失;基于基本损失和字符损失来调整生成模型的参数。本公开还公开了一种训练对抗网络模型的装置、建立字库的方法和装置、电子设备和存储介质。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及计算机视觉和深度学习技术。更具体地,本公开提供了一种训练对抗网络模型的方法、建立字库的方法、装置、电子设备和存储介质。
背景技术
随着互联网的快速发展,人们对于图像风格多样性的需求越来越高,例如,在图像中呈现手写风格或各种艺术风格的字体得到了广泛的研究和关注。
目前已经有的一些基于深度学习的字体生成方案,但是都会受到数据质量和数量的极大影响,生成的风格字体效果不稳定。
发明内容
本公开提供了一种训练对抗网络模型的方法、建立字库的方法、装置、电子设备和存储介质。
根据第一方面,提供了一种训练对抗网络模型的方法,该方法包括:使用生成模型,基于具有基础字体的内容字样本和具有风格字体的风格字样本来产生生成字,并基于内容字样本来产生重构字;利用判别模型,基于生成字和重构字,来计算生成模型的基本损失;通过使用经训练的字符分类模型对生成字进行分类,来计算生成模型的字符损失;基于基本损失和字符损失来调整生成模型的参数。
根据第二方面,提供了一种建立字库的方法,该方法包括:使用对抗网络模型基于具有基础字体的内容字以及具有风格字体的风格字来生成新字,其中对抗网络模型是根据上述训练对抗网络模型的方法来训练的;以及基于所生成的新字来建立字库。
根据第三方面,提供了一种训练对抗网络模型的装置,该装置包括:产生模块,用于使用生成模型,基于具有基础字体的内容字样本和具有风格字体的风格字样本来产生生成字,并基于内容字样本来产生重构字;基本损失计算模块,用于利用判别模型,基于生成字和重构字,来计算生成模型的基本损失;字符损失计算模块,用于通过使用经训练的字符分类模型对生成字进行分类,来计算生成模型的字符损失;调整模块,用于基于基本损失和字符损失来调整生成模型的参数。
根据第四方面,提供了一种建立字库的装置,该装置包括:生成模块,用于使用对抗网络模型基于具有基础字体的内容字以及具有风格字体的风格字来生成新字,其中对抗网络模型是根据上述训练对抗网络模型的方法来训练的;以及建立模块,用于基于所生成的新字来建立字库。
根据第五方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开提供的方法。
根据第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据本公开提供的方法。
根据第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开提供的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的一个实施例的可以应用训练对抗网络模型的方法和/或建立字库的方法的示例性系统架构示意图;
图2是根据本公开的一个实施例的训练对抗网络模型的方法的流程图;
图3是根据本公开的一个实施例的对抗网络模型的训练方法的示意图;
图4是根据本公开的另一个实施例的训练对抗网络模型的方法的流程图;
图5是根据本公开的另一个实施例的训练对抗网络模型的方法的流程图;
图6A是根据本公开的一个实施例的生成模型的处理原理示意图;
图6B是根据本公开的另一个实施例的生成模型的处理原理示意图;
图7是根据本公开的一个实施例的生成的风格字体的效果展示图;
图8是根据本公开的一个实施例的建立字库的方法的流程图;
图9是根据本公开的一个实施例的训练对抗网络模型的装置的框图;
图10是根据本公开的一个实施例的建立字库的装置的框图;以及
图11是根据本公开的一个实施例的训练对抗网络模型的方法和/或建立字库的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
手写风格或各种艺术风格的字体生成是图像风格迁移领域中的一项新兴任务,图像风格迁移是将一张图像在保持内容不变的情况下转换成另外一种风格,是深度学习应用的热门研究方向。
目前已有的一些基于深度学习的字体生成方案,尤其是基于GAN(GenerativeAdversarial Networks,生成式对抗网络)网络模型的字体生成方案,需要大量数据进行训练。数据质量和数量会极大影响最终的输出效果。在实际的实施过程中,用户能够提供的手写字数量很少,限制了大部分GAN网络在该任务上的表现。
本公开的实施例提出了一种对抗网络模型的训练方法以及使用该训练模型来建立字库的方法。通过以具有风格字体的风格字和具有基础字体的内容字作为训练数据,并引入了字符分类器来对对抗网络模型进行训练,使得训练后的对抗网络模型能够实现更准确的字体迁移。
图1是根据本公开一个实施例的可以应用训练对抗网络模型的方法和/或建立字库的方法的示例性系统架构示意图。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括多个终端设备101、网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101通过网络102与服务器103进行交互,以接收或发送消息等。终端设备101可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机等等。
本公开实施例所提供的对抗网络模型的训练方法以及建立字库的方法中的至少之一一般可以由服务器103执行。相应地,本公开实施例所提供的对抗网络模型的训练装置以及建立字库的装置中的至少之一一般可以设置于服务器103中。本公开实施例所提供的对抗网络模型的训练方法以及建立字库的方法也可以由不同于服务器103且能够与终端设备101和/或服务器103通信的服务器或服务器集群执行。相应地,本公开实施例所提供的对抗网络模型的训练装置以及建立字库的装置也可以设置于不同于服务器103且能够与终端设备101和/或服务器103通信的服务器或服务器集群中。
在本公开的实施例中,对抗网络模型可以包括生成模型和判别模型,生成模型用于针对预设图像生成一个新的图像,判别模型用于判别生成的图像与预设图像之间的差异(或相似程度),判别模型的输出可以是范围在0到1的概率值,概率值越低则表示生成的图像与预设图像之间差异越大,概率值越高则表示生成的图像与预设图像之间越相似。对抗网络模型在训练过程中,生成模型的目标就是尽量生成与预设图像相近的图像,而判别模型的目标是尽量将生成模型生成的图像与预设图像区分开来,二者在训练过程中不断更新和优化。可以根据用户实际需求设置训练停止条件,从而在满足训练停止条件的情况下,得到满足用户要求的对抗网络模型。
图2是根据本公开的一个实施例的训练对抗网络模型的方法的流程图。
如图2所示,该训练对抗网络模型的方法200可以包括操作S210~操作S240。
在操作S210,使用生成模型基于内容字样本和风格字样本来产生生成字,并基于内容字样本来产生重构字。
例如,内容字样本可以是包含基础字体内容的图像(图像X),基础字体例如可以是楷体或宋体等常规字体。风格字样本可以是包含风格字体内容的图像(图像Y),风格字体可以是手写风格的字体或者特定艺术风格的字体等。图像X中的内容可以是文字或字符,图像Y中的内容也可以是文字或字符。
生成字(图像)可以是与图像X具有相同的内容,并与图像Y具有相同的字体风格的图像(图像),生成字可以是将图像Y的字体风格迁移到图像X上实现的。重构字可以是通过对图像X中的内容和字体风格进行学习和重构得到的图像(图像)。
例如,生成模型可以提取图像X中的内容特征ZX,并提取图像Y中的字体风格特征ZY,基于图像X的内容特征ZX和图像Y的字体风格特征ZY生成风格迁移后的生成字(图像)。生成模型还可以提取图像X中的字体风格特征ZX′,基于图像X的内容特征ZX和图像X的字体风格特征ZX′生成重构字(图像)。
在操作S220,利用判别模型,基于生成字和重构字来计算生成模型的基本损失。
例如,生成模型的基本损失可以包括生成字(图像)与风格字样本(图像Y)之间的字体风格差异以及重构字(图像)与内容字样本(图像X)之间的差异。可以使用判别模型来判别图像与图像Y之间的字体风格差异。图像与图像X之间差异可以包括内容之间的差异和字体风格之间的差异。
针对图像与图像X,可以分别提取图像与图像X的内容特征和字体风格特征,并计算图像与图像X之间的内容特征差异和字体风格特征差异,基于图像与图像X之间的内容特征差异和字体风格特征差异确定图像与图像Y之间的字体风格差异。
在操作S230,通过使用经训练的字符分类模型对生成字进行分类,来计算生成模型的字符损失。
例如,经训练的字符分类模型可以是通过对ResNet18神经网络进行训练得到。该字符分类模型可以是采用有监督的机器学习方法来训练的,在训练过程中,字符分类模型的输入可以是预设图像和标签,该标签可以表示预设图像中的内容,输出可以是将预设图像划分到多个标签之一。例如,预设图像中的内容可以是文字“我”,则预设图像的标签是“我”。通过有监督的学习方式进行训练后,经训练的字符分类模型可以确定待分类图像的标签,待分类图像的标签表示该待分类图像中的内容。
使用经训练的字符分类模型对生成字(图像)进行分类,可以确定图像的标签,图像的标签表示图像中的内容。由于图像保持图像X中的文字内容不变,因此,图像本身的内容标签是图像X中的内容,根据分类模型得到的图像中的标签与图像本身的内容标签之间的差异,可以计算字符损失。该字符损失可以表示图像与图像X中的内容之间的差异。
在操作S240,基于基本损失和字符损失来调整生成模型的参数。
例如,可以将基本损失和字符损失之和作为总损失来调整生成模型的参数,得到更新的对抗网络模型。针对下一个内容字样本(图像X)和风格字样本(图像Y),使用更新的对抗网络模型返回操作S210,重复上述训练过程,直至达到预设的训练停止条件,则停止调整生成模型的参数,得到经训练的对抗网络模型。训练停止条件可以包括达到预设的训练次数,或者生成模型生成的图像与的字体风格与图像Y的字体风格之间的相似度满足预设条件等等。
本公开的实施例通过以具有风格字体的风格字和具有基础字体的内容字作为训练数据,并引入了字符分类器来对对抗网络模型进行训练,使得训练后的对抗网络模型能够实现更准确的字体迁移。
图3是根据本公开的一个实施例的对抗网络模型的训练方法的示意图。
如图3所示,对抗网络模型300包括生成模型301和判别模型302。
将具有基础字体内容的内容字样本(图像X)和具有风格字体内容的风格字样本(图像Y)输入到对抗网络模型300中的生成模型301,生成模型301可以基于图像X和图像Y生成具有图像X的内容同时具有图像Y的字体风格的生成字(图像),并通过对图像X中的内容和字体风格进行学习和重构,得到重构字(图像)。
判别模型302可以判别图像与图像Y之间的字体风格差异,例如判别模型302可以分别提取图像和图像Y的字体风格特征,基于提取的二者的字体风格特征来计算图像与图像Y之间的字体风格差异,由图像与图像Y之间的字体风格差异可以确定生成模型301的第一部分损失,第一部分损失可以称为对抗损失。
图像是由图像X重构得到的,图像与图像X之间差异包括字体风格差异和文字内容差异,可以分别提取到图像与图像X之间的字体风格特征和内容特征,根据图像与图像X之间的字体风格特征差异和内容特征差异来确定图像与图像X之间差异。由图像与图像X之间的差异可以确定生成模型301的第二部分损失,第二部分损失可以称为重构损失。
字符分类模型303可以对图像进行分类,得到的分别结果表示图像中的内容。图像本身的内容标签是图像X中的内容,根据分类模型得到的图像中的内容与图像本身的内容标签之间的差异,可以确定生成模型301的第三部分损失,第三部分损失可以称为字符损失。
基于生成模型301的对抗损失和重构损失可以计算得到生成模型301的基本损失。基于基本损失和字符损失可以计算得到生成模型301的总损失。根据生成模型301的总损失可以对生成模型301的参数进行调整,得到更新的生成模型301。针对下一组图像X和图像Y,使用更新的生成模型301重复上述过程,直至达到预设的训练停止条件。
根据本公开的实施例,通过基本损失来约束生成字与风格字样本之间的字体风格差异,能够提高对抗网络模型的字体风格迁移效果,通过字符损失来约束生成字与内容字样本中的内容之间的差异,能够提高生成字中字符的内容一致性,从而提高对抗网络模型的风格字体生成质量。
图4是根据本公开的另一个实施例的训练对抗网络模型的方法的流程图。
如图4所示,该方法包括操作S401~操作S414。
在操作S401,生成模型获取内容字样本(图像X)和风格字样本(图像Y)。
例如,图像X包含具有楷体或宋体等基础字体的内容,图像Y包含具有手写风格或者特定艺术风格等风格字体的内容。
在操作S402,生成模型提取图像X的内容特征和图像Y的风格特征。
例如,提取出图像X的内容特征ZX,并提取出图像Y的字体风格特征ZY。
例如,判别模型可以分别提取图像和图像Y的字体风格特征,基于提取的二者的字体风格特征来计算图像与图像Y之间的字体风格差异,输出用于表示图像与图像Y之间字体风格差异的概率值,该概率值的范围是[0,1],概率值越接近于0,则图像与图像Y之间的字体风格差异越大。判别模型的判别结果可以表征判别模型本身的判别误差,因此,基于判别模型的判别结果可以计算判别模型的判别损失。可以基于以下等式(1)来表示判别模型的判别损失。
在操作S405,计算生成模型的对抗损失。
在操作S406,生成模型获取图像X。
在操作S407,生成模型提取图像X的内容特征和字体风格特征。
在操作S409,计算生成模型的重构损失。
例如,图像X包含具有楷体或宋体等基础字体的内容,提取出图像X的内容特征ZX,并提取出图像X的字体风格特征ZX’,基于图像X的内容特征ZX和图像X的字体风格特征ZX’生成图像由于图像是由图像X重构得到的,基于图像与图像X之间的差异可以计算生成模型的重构损失,生成模型的重构损失可以基于如下等式(3)来计算。
LR=[|x-G(x,{x})|] (3)
其中LR表示重构损失,x表示内容字样本,E表示期望算子,G(x,{x})表示生成模型基于内容字样本x生成的重构字。
需要说明的是,操作S406~操作S409与操作S401~操作S405可以是并行执行的。但是本公开的实施例不限于此,也这两组操作可以按照其他顺序来执行,例如先执行操作S406~操作S409,再执行操作S401~操作S405,或者先执行操作S401~操作S405,再执行操作S406~操作S409。
在操作S411,计算生成模型的字符损失。
由于图像保持图像X中的文字内容不变,因此,图像本身的内容标签是图像X中的内容,根据分类模型得到的图像中的标签与图像本身的内容标签之间的差异,可以计算生成模型的字符损失。生成模型的字符损失可以基于如下等式(4)来计算。
在操作S412,基于生成模型的对抗损失、字符损失和重构损失,调整生成模型的参数。
例如,可以基于对抗损失、字符损失和重构损失得到生成模型的总损失,生成模型的总损失L可以基于如下等式(5)来计算。基于生成模型的总损失来调整生成模型的参数,完成生成模型一轮的训练。
L=λGANLGAN+λRLR+λCLC (5)
其中LGAN表示对抗损失,LR表示重构损失,LC表示字符损失,λGAN、λR和λC分别表示对抗损失、重构损失和字符损失的权重。
在操作S413,判断调整次数是否大于预设最大次数,如果是,执行操作S414,否则返回操作S401和操作S406。
例如,预设最大次数可以是100,如果生成模型参数的调整次数大于100,则停止训练,得到可用的生成模型。否则返回操作S401和操作S406进行下一轮的训练。
在操作S414,获得经训练的生成模型。
根据本公开的实施例,通过基本损失来约束生成字与风格字样本之间的字体风格差异,能够提高对抗网络模型的字体风格迁移效果,通过字符损失来约束生成字与内容字样本中的内容之间的差异,能够提高对抗网络模型的生成字的字符一致性,从而提高对抗网络模型的风格字体生成质量。
图5是根据本公开的另一个实施例的训练对抗网络模型的方法的流程图。
如图5所示,该方法包括操作S501~操作S514。图5与图4的区别在于图5的操作S510~操作S511与图4的操作S410~操作S411不同。图5的操作S501~操作S509与图4的操作S401~操作S409是相同的,图5的操作S512~操作S514与图4的操作S412~操作S414是相同的。为了描述简洁,下面仅对图5中与图4中不同的操作(操作S510~操作S511)进行详细说明。
在操作S501,生成模型获取内容字样本(图像X)和风格字样本(图像Y)。
在操作S502,生成模型提取图像X的内容特征和图像Y的风格特征。
在操作S505,计算生成模型的对抗损失。
在操作S506,生成模型获取图像X。
在操作S507,生成模型提取图像X的内容特征和字体风格特征。
在操作S509,计算生成模型的重构损失。
需要说明的是,操作S506~操作S509与操作S501~操作S505可以是并行执行的。但是本公开的实施例不限于此,也这两组操作可以按照其他顺序来执行,例如先执行操作S506~操作S509,再执行操作S501~操作S505,或者先执行操作S501~操作S505,再执行操作S506~操作S509。
在操作S511,计算生成模型的字符损失。
在操作S512,基于生成模型的对抗损失、字符损失和重构损失,调整生成模型的参数。
在操作S513,判断调整次数是否大于预设最大次数,如果是,执行操作S514,否则返回操作S501和操作S506。
在操作S514,获得经训练的生成模型。
根据本公开的实施例,通过生成字字符损失来约束生成字与内容字样本中的内容之间的差异,并通过重构字字符损失来约束重构字与内容字样本中的内容之间的差异,能够增加生成字和重构字二者的字符一致性,从而进一步提高对抗网络模型的风格字体生成质量。
图6A是根据本公开的一个实施例的生成模型的示意图。
如图6A所示,该生成模型610可以包括内容编码器611、风格编码器612和解码器613。风格编码器612可以包括多个风格编码模块和特征处理模块。
内容字样本(图像X)输入到内容编码器611中,内容编码器611提取图像X的内容特征ZX。
多个风格字样本(图像Y1、图像Y2......图像Yk,k为大于2的整数)分别输入到风格编码器612的多个风格编码模块中,各个风格编码模块对图像Yi(1≤i≤k)提取字体风格特征,得到多个字体风格特征(ZY1、ZY2、......ZYk),特征处理模块可以基于多个字体风格特征得到综合字体风格特征ZY,例如特征处理模块对多个字体风格特征求平均得到综合字体风格特征ZY。
例如,如图6A所示,图像X中的内容是楷体的“文”字,图像Y1、图像Y2......图像Yk中的内容是具有特殊字体的“字”、“书”......“格”字,解码器613输出图像中的内容是具有特殊字体的“文”字。
根据本公开的实施例,通过约束生成字与风格字样本之间的字体风格差异,能够提高生成字的风格迁移效果,保证生成的风格字体的稳定性,提高风格字体的生成效果。
图6B是根据本公开的另一个实施例的生成模型的示意图。
如图6B所示,该生成模型620可以包括内容编码器621、风格编码器622和解码器623。
内容字样本(图像X)输入到内容编码器621中,内容编码器621提取图像X的内容特征ZX。
内容字样本(图像X)输入到风格编码器622中,风格编码器622提取图像X的字体风格特征ZX’。
根据本公开的实施例,通过约束重构字与内容字样本之间的内容和字体风格的一致性,能够提高生成模型生成重构字的字符一致性,从而进一步提高所生成的风格字体的质量。
图7是根据本公开的一个实施例的生成的风格字体的效果展示图。
如图7所示,(a)是具有基础字体内容的多个图像(内容字样本),每个图像包括一个具有基础字体的字,基础字体例如是楷体。(b)是具有风格字体内容的多个图像(风格字样本),每个图像包括一个具有风格字体的字,风格字体可以是用户设定的。(c)是包含生成字的多个图像,(c)的多个图像与(a)的多个图像一一对应,(c)的每个图像包括一个生成字,该生成字和与(a)对应的图像中的字相同,该生成字的字体风格与(b)中的字体风格相同。可以理解,(c)中的生成字是使用上述生成模型基于(a)的多个图像和(b)的多个图像生成的。
本公开的实施例通过以具有风格字体的风格字和具有基础字体的内容字作为训练数据,并引入了字符分类器来对对抗网络模型进行训练,使得训练后的对抗网络模型能够实现更准确的字体迁移。
图8是根据本公开的一个实施例的建立字库的方法的流程图。
如图8所示,该建立字库的方法800可以包括操作S810~操作S820。
在操作S810,使用对抗网络模型基于具有基础字体的内容字以及具有风格字体的风格字来生成新字。
对抗网络模型是根据上述训练对抗网络模型的方法训练得到的。
例如,内容字(例如是图像X’)中包含楷体或宋体等基础字体内容,风格字(例如是图像Y’)中包含手写字体等风格字内容。使用经训练的对抗网络模型提取图像X’的内容特征和图像Y’的字体风格特征,基于图像X’的内容特征和图像Y’的字体风格特征生成新字,该新字具有与内容字相同的内容,并且具有与风格字相同的字体风格。
在操作S820,基于所生成的新字来建立字库。
例如,将具有风格字体的新字进行存储,能够建立得到具有风格字体的字库,该字库可应用于输入法,用户使用基于该字库的输入法可以直接获取具有特定风格字体的字,能够满足了用户多样化的需求,提高了用户体验。
图9是根据本公开的一个实施例的训练对抗网络模型的装置的框图。
如图9所示,该训练对抗网络模型的装置900可以包括产生模块901、基本损失计算模块902、字符损失计算模块903和调整模块904。
产生模块901用于使用生成模型,基于具有基础字体的内容字样本和具有风格字体的风格字样本来产生生成字,并基于内容字样本来产生重构字。
基本损失计算模块902用于利用判别模型,基于生成字和重构字,来计算生成模型的基本损失。
字符损失计算模块903用于通过使用经训练的字符分类模型对生成字进行分类,来计算生成模型的字符损失。
调整模块904用于基于基本损失和字符损失来调整生成模型的参数。
内容字样本与基于内容字样本产生的生成字具有相同的内容标签,字符损失计算模块903包括生成字分类单元和生成字分类单元。
生成字分类单元用于使用字符分类模型对生成字进行分类,以确定生成字的内容。
字符损失计算单元用于基于字符分类模型确定的生成字的内容与生成字的内容标签之间的差异,来计算字符损失。
基本损失计算模块902包括对抗损失计算单元、重构损失计算单元和基本损失计算单元。
对抗损失计算单元用于通过使用生成字和风格字样本对判别模型进行训练,来计算生成模型的对抗损失。
重构损失计算单元用于基于重构字与内容字样本之间的差异来计算生成模型的重构损失。
基本损失计算单元用于基于对抗损失和重构损失来计算生成模型的基本损失。
调整模块904包括总损失计算单元和调整单元。
总损失计算单元用于基于以下等式来计算生成模型的总损失L:
L=λGANLGAN+λRLR+λCLC (5)
LR=[|x-G(x,{x})|] (3)
其中LGAN表示对抗损失,LR表示重构损失,LC表示字符损失,λGAN、λR和λC分别表示对抗损失、重构损失和字符损失的权重,x表示内容字样本,y表示风格字样本,E表示期望算子,表示生成字,D()表示判别模型的输出,G(x,{x})表示生成模型基于内容字样本x生成的重构字,表示字符分类模型确定的生成字的内容类别与该生成字的内容标签一致的概率。
调整单元用于基于总损失来调整生成模型的参数。
内容字样本与基于内容字样本产生的重构字具有相同的内容标签,字符损失计算模块903包括重构字分类单元、附加字符损失计算单元和添加单元。
重构字分类单元用于使用字符分类模型对重构字进行分类,以确定重构字的内容。
附加字符损失计算单元用于基于字符分类模型确定的重构字的内容与重构字的内容标签之间的差异,来计算附加字符损失。
添加单元用于将附加字符损失添加到字符损失中。
经训练的字符分类模型是通过对ResNet18神经网络进行训练得到的字符分类模型。
生成模型包括内容编码器、风格编码器和解码器,产生模块包括生成字产生单元和重构字产生单元。
生成字产生单元用于使用内容编码器从内容字样本提取内容特征,使用风格编码器从风格字样本提取风格字体风格特征,以及使用解码器基于内容特征和风格字体风格特征来产生生成字。
重构字产生单元用于使用内容编码器从内容字样本提取内容特征,使用风格编码器从内容字样本提取基础字体风格特征,以及使用解码器基于内容特征和基础字体风格特征来产生重构字。
训练对抗网络模型的装置900还包括执行模块。
执行模块用于在调整生成模型的参数之后,响应于调整的总次数小于预设次数,针对至少另一个内容字样本和至少另一个风格字样本返回执行产生生成字和产生重构字的操作。
图10是根据本公开的一个实施例的建立字库的装置的框图。
如图10所示,该建立字库的装置1000可以包括生成模块1001和建立模块1002。
生成模块1001用于使用对抗网络模型基于具有基础字体的内容字以及具有风格字体的风格字来生成新字,其中对抗网络模型是根据上述训练对抗网络模型的方法来训练的。
建立模块1002用于基于所生成的新字来建立字库。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图11示出了可以用来实施本公开的实施例的示例电子设备1100的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图11所示,设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(RAM)1103中的计算机程序,来执行各种适当的动作和处理。在RAM 1103中,还可存储设备1100操作所需的各种程序和数据。计算单元1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106,例如键盘、鼠标等;输出单元1107,例如各种类型的显示器、扬声器等;存储单元1108,例如磁盘、光盘等;以及通信单元1109,例如网卡、调制解调器、无线通信收发机等。通信单元1109允许设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理,例如训练对抗网络模型的方法和/或建立字库的方法。例如,在一些实施例中,训练对抗网络模型的方法和/或建立字库的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1102和/或通信单元1109而被载入和/或安装到设备1100上。当计算机程序加载到RAM1103并由计算单元1101执行时,可以执行上文描述的训练对抗网络模型的方法和/或建立字库的方法的一个或多个步骤。备选地,在其他实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行训练对抗网络模型的方法和/或建立字库的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种训练对抗网络模型的方法,所述对抗网络模型包括生成模型和判别模型,所述方法包括:
使用所述生成模型,基于具有基础字体的内容字样本和具有风格字体的风格字样本来产生生成字,并基于所述内容字样本来产生重构字;
利用所述判别模型,基于所述生成字和所述重构字,来计算生成模型的基本损失;
通过使用经训练的字符分类模型对所述生成字进行分类,来计算生成模型的字符损失;
基于所述基本损失和所述字符损失来调整所述生成模型的参数。
2.根据权利要求1所述的方法,其中,所述内容字样本与基于所述内容字样本产生的生成字具有相同的内容标签,所述计算字符损失包括:
使用所述字符分类模型对所述生成字进行分类,以确定生成字的内容;
基于所述字符分类模型确定的生成字的内容与所述生成字的内容标签之间的差异,来计算字符损失。
3.根据权利要求1或2所述的方法,其中,所述计算基本损失包括:
通过使用所述生成字和所述风格字样本对所述判别模型进行训练,来计算生成模型的对抗损失;
基于重构字与内容字样本之间的差异来计算生成模型的重构损失;
基于所述对抗损失和所述重构损失来计算生成模型的基本损失。
4.根据权利要求3所述的方法,其中,所述基于所述基本损失和所述字符损失来调整所述生成模型的参数包括:
基于以下等式来计算生成模型的总损失L:
L=λGANLGAN+λRLR+λCLC
LR=[|x-G(x,{x})|]
其中LGAN表示对抗损失,LR表示重构损失,LC表示字符损失,λGAN、λR和λC分别表示对抗损失、重构损失和字符损失的权重,x表示内容字样本,y表示风格字样本,E表示期望算子,表示生成字,D()表示判别模型的输出,G(x,{x})表示生成模型基于内容字样本x生成的重构字,表示字符分类模型确定的生成字的内容类别与该生成字的内容标签一致的概率;
基于所述总损失来调整所述生成模型的参数。
5.根据权利要求2所述的方法,其中,所述内容字样本与基于所述内容字样本产生的重构字具有相同的内容标签,所述计算字符损失还包括:
使用所述字符分类模型对所述重构字进行分类,以确定重构字的内容;
基于所述字符分类模型确定的重构字的内容与所述重构字的内容标签之间的差异,来计算附加字符损失;以及
将所述附加字符损失添加到所述字符损失中。
6.根据权利要求1至5中任一项所述的方法,其中,所述经训练的字符分类模型是通过对ResNet18神经网络进行训练得到的字符分类模型。
7.根据权利要求1至6中任一项所述的方法,其中,所述生成模型包括内容编码器、风格编码器和解码器,
所述产生生成字包括:使用内容编码器从内容字样本提取内容特征,使用风格编码器从风格字样本提取风格字体风格特征,以及使用解码器基于所述内容特征和所述风格字体风格特征来产生所述生成字;
所述产生重构字包括:使用内容编码器从内容字样本提取内容特征,使用风格编码器从内容字样本提取基础字体风格特征,以及使用解码器基于所述内容特征和所述基础字体风格特征来产生所述重构字。
8.根据权利要求1至7中任一项所述的方法,还包括:在调整所述生成模型的参数之后,响应于所述调整的总次数小于预设次数,针对至少另一个内容字样本和至少另一个风格字样本返回执行产生生成字和产生重构字的操作。
9.一种建立字库的方法,包括:
使用对抗网络模型基于具有基础字体的内容字以及具有风格字体的风格字来生成新字,其中所述对抗网络模型是根据如权利要求1至7中任一项所述的方法来训练的;以及
基于所生成的新字来建立字库。
10.一种训练对抗网络模型的装置,包括:
产生模块,用于使用所述生成模型,基于具有基础字体的内容字样本和具有风格字体的风格字样本来产生生成字,并基于所述内容字样本来产生重构字;
基本损失计算模块,用于利用所述判别模型,基于所述生成字和所述重构字,来计算生成模型的基本损失;
字符损失计算模块,用于通过使用经训练的字符分类模型对所述生成字进行分类,来计算生成模型的字符损失;
调整模块,用于基于所述基本损失和所述字符损失来调整所述生成模型的参数。
11.根据权利要求10所述的装置,其中,所述内容字样本与基于所述内容字样本产生的生成字具有相同的内容标签,所述字符损失计算模块包括:
生成字分类单元,用于使用所述字符分类模型对所述生成字进行分类,以确定生成字的内容;
字符损失计算单元,用于基于所述字符分类模型确定的生成字的内容与所述生成字的内容标签之间的差异,来计算字符损失。
12.根据权利要求10或11所述的装置,其中,所述基本损失计算模块包括:
对抗损失计算单元,用于通过使用所述生成字和所述风格字样本对所述判别模型进行训练,来计算生成模型的对抗损失;
重构损失计算单元,用于基于重构字与内容字样本之间的差异来计算生成模型的重构损失;
基本损失计算单元,用于基于所述对抗损失和所述重构损失来计算生成模型的基本损失。
14.根据权利要求11所述的装置,其中,所述内容字样本与基于所述内容字样本产生的重构字具有相同的内容标签,所述字符损失计算模块包括:
重构字分类单元,用于使用所述字符分类模型对所述重构字进行分类,以确定重构字的内容;
附加字符损失计算单元,用于基于所述字符分类模型确定的重构字的内容与所述重构字的内容标签之间的差异,来计算附加字符损失;以及
添加单元,用于将所述附加字符损失添加到所述字符损失中。
15.根据权利要求10至14中任一项所述的装置,其中,所述经训练的字符分类模型是通过对ResNet18神经网络进行训练得到的字符分类模型。
16.根据权利要求10至15中任一项所述的装置,其中,所述生成模型包括内容编码器、风格编码器和解码器,所述产生模块包括:
生成字产生单元,用于使用内容编码器从内容字样本提取内容特征,使用风格编码器从风格字样本提取风格字体风格特征,以及使用解码器基于所述内容特征和所述风格字体风格特征来产生所述生成字;
重构字产生单元,用于使用内容编码器从内容字样本提取内容特征,使用风格编码器从内容字样本提取基础字体风格特征,以及使用解码器基于所述内容特征和所述基础字体风格特征来产生所述重构字。
17.根据权利要求10至16中任一项所述的装置,还包括:
执行模块,用于在调整所述生成模型的参数之后,响应于所述调整的总次数小于预设次数,针对至少另一个内容字样本和至少另一个风格字样本返回执行产生生成字和产生重构字的操作。
18.一种建立字库的装置,包括:
生成模块,用于使用对抗网络模型基于具有基础字体的内容字以及具有风格字体的风格字来生成新字,其中所述对抗网络模型是根据如权利要求1至7中任一项所述的方法来训练的;以及
建立模块,用于基于所生成的新字来建立字库。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-9中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110487527.1A CN113140017B (zh) | 2021-04-30 | 2021-04-30 | 训练对抗网络模型的方法、建立字库的方法、装置和设备 |
JP2022007283A JP2022058691A (ja) | 2021-04-30 | 2022-01-20 | 敵対的ネットワークモデルのトレーニング方法、文字ライブラリの作成方法、並びにそれらの装置、電子機器、記憶媒体及びプログラム |
KR1020220026315A KR20220034081A (ko) | 2021-04-30 | 2022-02-28 | 적대적 네트워크 모델을 트레이닝하는 방법 및 장치, 문자 라이브러리를 구축하는 방법 및 장치, 전자장비, 저장매체 및 컴퓨터 프로그램 |
EP22159504.4A EP4044132A1 (en) | 2021-04-30 | 2022-03-01 | Method and apparatus for training adversarial network model, method and apparatus for building character library, and device |
US17/683,512 US20220188637A1 (en) | 2021-04-30 | 2022-03-01 | Method for training adversarial network model, method for building character library, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110487527.1A CN113140017B (zh) | 2021-04-30 | 2021-04-30 | 训练对抗网络模型的方法、建立字库的方法、装置和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113140017A true CN113140017A (zh) | 2021-07-20 |
CN113140017B CN113140017B (zh) | 2023-09-15 |
Family
ID=76817146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110487527.1A Active CN113140017B (zh) | 2021-04-30 | 2021-04-30 | 训练对抗网络模型的方法、建立字库的方法、装置和设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220188637A1 (zh) |
EP (1) | EP4044132A1 (zh) |
JP (1) | JP2022058691A (zh) |
KR (1) | KR20220034081A (zh) |
CN (1) | CN113140017B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113657397A (zh) * | 2021-08-17 | 2021-11-16 | 北京百度网讯科技有限公司 | 循环生成网络模型的训练方法、建立字库的方法和装置 |
CN113792855A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 一种模型训练及字库建立方法、装置、设备和存储介质 |
CN113792851A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 字体生成模型训练方法、字库建立方法、装置及设备 |
CN113792526A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 字符生成模型的训练方法、字符生成方法、装置和设备和介质 |
CN113792853A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 字符生成模型的训练方法、字符生成方法、装置和设备 |
CN114236410A (zh) * | 2021-11-24 | 2022-03-25 | 广东工业大学 | 基于新型生成式对抗神经网络的锂电池soh估计方法 |
CN114973279A (zh) * | 2022-06-17 | 2022-08-30 | 北京百度网讯科技有限公司 | 手写文本图像生成模型的训练方法、装置和存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115376144B (zh) * | 2022-07-07 | 2023-04-07 | 北京三维天地科技股份有限公司 | 一种特殊字符录入方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165376A (zh) * | 2018-06-28 | 2019-01-08 | 西交利物浦大学 | 基于少量样本的风格字符生成方法 |
US20190138860A1 (en) * | 2017-11-08 | 2019-05-09 | Adobe Inc. | Font recognition using adversarial neural network training |
CN110211203A (zh) * | 2019-06-10 | 2019-09-06 | 大连民族大学 | 基于条件生成对抗网络的汉字字体的方法 |
CN110443864A (zh) * | 2019-07-24 | 2019-11-12 | 北京大学 | 一种基于单阶段少量样本学习的艺术字体自动生成方法 |
CN111753493A (zh) * | 2019-09-29 | 2020-10-09 | 西交利物浦大学 | 基于少量样本的内含多种归一化处理的风格字符生成方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028094A (ja) * | 2017-07-25 | 2019-02-21 | 大日本印刷株式会社 | 文字生成装置、プログラム及び文字出力装置 |
US10621760B2 (en) * | 2018-06-15 | 2020-04-14 | Adobe Inc. | Synthesizing new font glyphs from partial observations |
US10878298B2 (en) * | 2019-03-06 | 2020-12-29 | Adobe Inc. | Tag-based font recognition by utilizing an implicit font classification attention neural network |
CN110503598B (zh) * | 2019-07-30 | 2022-09-16 | 西安理工大学 | 基于条件循环一致性生成对抗网络的字体风格迁移方法 |
JP6845911B1 (ja) * | 2019-12-17 | 2021-03-24 | 株式会社日本総合研究所 | 文字処理システム及びプログラム |
CN111667006A (zh) * | 2020-06-06 | 2020-09-15 | 大连民族大学 | 一种基于AttGan模型生成家族字体的方法 |
CN112163401B (zh) * | 2020-10-22 | 2023-05-30 | 大连民族大学 | 基于压缩与激励的gan网络的汉字字体生成方法 |
CN112633430B (zh) * | 2020-12-25 | 2022-10-14 | 同济大学 | 一种中文字体风格迁移方法 |
JP2022120308A (ja) * | 2021-02-05 | 2022-08-18 | 株式会社日本総合研究所 | 画像処理装置及びプログラム |
JP2022156761A (ja) * | 2021-03-31 | 2022-10-14 | ブラザー工業株式会社 | データ処理装置、データ処理方法、コンピュータプログラム |
-
2021
- 2021-04-30 CN CN202110487527.1A patent/CN113140017B/zh active Active
-
2022
- 2022-01-20 JP JP2022007283A patent/JP2022058691A/ja active Pending
- 2022-02-28 KR KR1020220026315A patent/KR20220034081A/ko unknown
- 2022-03-01 EP EP22159504.4A patent/EP4044132A1/en not_active Withdrawn
- 2022-03-01 US US17/683,512 patent/US20220188637A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190138860A1 (en) * | 2017-11-08 | 2019-05-09 | Adobe Inc. | Font recognition using adversarial neural network training |
CN109165376A (zh) * | 2018-06-28 | 2019-01-08 | 西交利物浦大学 | 基于少量样本的风格字符生成方法 |
CN110211203A (zh) * | 2019-06-10 | 2019-09-06 | 大连民族大学 | 基于条件生成对抗网络的汉字字体的方法 |
CN110443864A (zh) * | 2019-07-24 | 2019-11-12 | 北京大学 | 一种基于单阶段少量样本学习的艺术字体自动生成方法 |
CN111753493A (zh) * | 2019-09-29 | 2020-10-09 | 西交利物浦大学 | 基于少量样本的内含多种归一化处理的风格字符生成方法 |
Non-Patent Citations (1)
Title |
---|
LICHENG TANG 等: "Few-Shot Font Generation by Learning Fine-Grained Local Styles", ARXIV * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113657397A (zh) * | 2021-08-17 | 2021-11-16 | 北京百度网讯科技有限公司 | 循环生成网络模型的训练方法、建立字库的方法和装置 |
CN113657397B (zh) * | 2021-08-17 | 2023-07-11 | 北京百度网讯科技有限公司 | 循环生成网络模型的训练方法、建立字库的方法和装置 |
CN113792855B (zh) * | 2021-09-09 | 2023-06-23 | 北京百度网讯科技有限公司 | 一种模型训练及字库建立方法、装置、设备和存储介质 |
CN113792526A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 字符生成模型的训练方法、字符生成方法、装置和设备和介质 |
CN113792853A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 字符生成模型的训练方法、字符生成方法、装置和设备 |
EP4148678A1 (en) * | 2021-09-09 | 2023-03-15 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Training method for character generation model, character generation method, apparatus and device |
CN113792851A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 字体生成模型训练方法、字库建立方法、装置及设备 |
CN113792855A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 一种模型训练及字库建立方法、装置、设备和存储介质 |
CN113792851B (zh) * | 2021-09-09 | 2023-07-25 | 北京百度网讯科技有限公司 | 字体生成模型训练方法、字库建立方法、装置及设备 |
JP7337203B2 (ja) | 2021-09-09 | 2023-09-01 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 文字生成モデルのトレーニング方法、文字生成方法、装置および機器 |
CN113792853B (zh) * | 2021-09-09 | 2023-09-05 | 北京百度网讯科技有限公司 | 字符生成模型的训练方法、字符生成方法、装置和设备 |
CN113792526B (zh) * | 2021-09-09 | 2024-02-09 | 北京百度网讯科技有限公司 | 字符生成模型的训练方法、字符生成方法、装置和设备和介质 |
CN114236410A (zh) * | 2021-11-24 | 2022-03-25 | 广东工业大学 | 基于新型生成式对抗神经网络的锂电池soh估计方法 |
CN114973279A (zh) * | 2022-06-17 | 2022-08-30 | 北京百度网讯科技有限公司 | 手写文本图像生成模型的训练方法、装置和存储介质 |
CN114973279B (zh) * | 2022-06-17 | 2023-02-17 | 北京百度网讯科技有限公司 | 手写文本图像生成模型的训练方法、装置和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20220188637A1 (en) | 2022-06-16 |
KR20220034081A (ko) | 2022-03-17 |
CN113140017B (zh) | 2023-09-15 |
EP4044132A1 (en) | 2022-08-17 |
JP2022058691A (ja) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113140017B (zh) | 训练对抗网络模型的方法、建立字库的方法、装置和设备 | |
CN113792854B (zh) | 一种模型训练及字库建立方法、装置、设备及存储介质 | |
US20220148239A1 (en) | Model training method and apparatus, font library establishment method and apparatus, device and storage medium | |
CN113657397B (zh) | 循环生成网络模型的训练方法、建立字库的方法和装置 | |
CN113792526B (zh) | 字符生成模型的训练方法、字符生成方法、装置和设备和介质 | |
CN112818686A (zh) | 领域短语挖掘方法、装置和电子设备 | |
CN112580732A (zh) | 模型训练方法、装置、设备、存储介质和程序产品 | |
CN114242113B (zh) | 语音检测方法、训练方法、装置和电子设备 | |
CN114494747A (zh) | 模型的训练方法、图像处理方法、装置、电子设备及介质 | |
CN113468857B (zh) | 风格转换模型的训练方法、装置、电子设备以及存储介质 | |
CN113919424A (zh) | 文本处理模型的训练、文本处理方法、装置、设备和介质 | |
CN115269768A (zh) | 要素文本处理方法、装置、电子设备和存储介质 | |
US20230154077A1 (en) | Training method for character generation model, character generation method, apparatus and storage medium | |
CN114065784B (zh) | 训练方法、译文方法、装置、电子设备以及存储介质 | |
CN113688938B (zh) | 确定对象情感的方法、训练情感分类模型的方法及装置 | |
CN114926322A (zh) | 图像生成方法、装置、电子设备和存储介质 | |
CN114067805A (zh) | 声纹识别模型的训练与声纹识别方法及装置 | |
CN113989152A (zh) | 图像增强方法、装置、设备以及存储介质 | |
CN116306496B (zh) | 字符生成方法、字符生成模型的训练方法和装置 | |
CN114818970B (zh) | 经典数据处理方法、计算设备及存储介质 | |
CN112528835B (zh) | 表情预测模型的训练方法、识别方法、装置及电子设备 | |
CN115309888B (zh) | 图表摘要的生成方法和生成模型的训练方法、装置 | |
US20240135576A1 (en) | Three-Dimensional Object Detection | |
CN114385814A (zh) | 一种信息检索的方法、装置、计算机设备及存储介质 | |
CN117351116A (zh) | 图像生成方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |