CN114973279B - 手写文本图像生成模型的训练方法、装置和存储介质 - Google Patents
手写文本图像生成模型的训练方法、装置和存储介质 Download PDFInfo
- Publication number
- CN114973279B CN114973279B CN202210688816.2A CN202210688816A CN114973279B CN 114973279 B CN114973279 B CN 114973279B CN 202210688816 A CN202210688816 A CN 202210688816A CN 114973279 B CN114973279 B CN 114973279B
- Authority
- CN
- China
- Prior art keywords
- text image
- handwritten text
- sample
- matrix
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/228—Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/19007—Matching; Proximity measures
- G06V30/19093—Proximity measures, i.e. similarity or distance measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19127—Extracting features by transforming the feature space, e.g. multidimensional scaling; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/226—Character recognition characterised by the type of writing of cursive writing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Character Discrimination (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供了一种手写文本图像生成模型的训练方法、装置和存储介质,涉及人工智能技术领域,具体涉及计算机视觉、图像处理、深度学习等技术领域。具体实现方案为:在将样本内容图像以及第二样本手写文本图像输入到训练模型中的初始手写文本图像生成模型得到第一预测手写文本图像,并将样本图像内容以及第一样本手写文本图像输入到训练模型中的初始手写文本图像重构模型中得到第二测手写文本图像,以及根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像对训练模型进行训练,并将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。由此,提高训练模型的收敛速度,提高手写文本图像生成模型的训练效率。
Description
技术领域
本公开涉及计算机技术领域,具体涉及人工智能技术领域,具体涉及计算机视觉、图像处理、深度学习等技术领域,尤其涉及手写文本图像生成模型的训练方法、装置和存储介质。
背景技术
随着图像生成技术的发展,手写文本图像的生成受到越来越广泛的关注。
相关技术中,如何得到一个手写文本图像生成模型,对于方便地生成手写图像来说是十分重要的。
发明内容
本公开提供了一种用于手写文本图像生成模型的训练方法、装置和存储介质。
根据本公开的一方面,提供了一种手写文本图像生成模型的训练方法,所述方法包括:获取训练数据,其中,训练数据包括样本内容图像、第一样本手写文本图像和第二样本手写文本图像,其中,所述第一样本手写文本图像和所述第二样本手写文本图像的书写风格相同,所述第一样本手写文本图像和所述样本内容图像的文本内容相同,所述第二样本手写文本图像与所述样本内容图像的文本内容不相同;构建初始的训练模型,其中,所述训练模型包括初始手写文本图像生成模型和初始手写文本图像重构模型;将所述样本内容图像以及所述第二样本手写文本图像输入到所述初始手写文本图像生成模型中,以得到第一预测手写文本图像;将所述样本内容图像和所述第一样本手写文本图像输入到所述初始手写文本图像重构模型中,以得到第二预测手写文本图像;根据所述第一预测手写文本图像、所述第二预测手写文本图像和所述第一样本手写文本图像,对所述训练模型进行训练;将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。
根据本公开的另一方面,提供了一种手写文本图像生成模型的训练装置,所述装置包括:获取模块,用于获取训练数据,其中,训练数据包括样本内容图像、第一样本手写文本图像和第二样本手写文本图像,其中,所述第一样本手写文本图像和所述第二样本手写文本图像的书写风格相同,所述第一样本手写文本图像和所述样本内容图像的文本内容相同,所述第二样本手写文本图像与所述样本内容图像的文本内容不相同;构建模块,用于构建初始的训练模型,其中,所述训练模型包括初始手写文本图像生成模型和初始手写文本图像重构模型;第一生成模块,用于将所述样本内容图像以及所述第二样本手写文本图像输入到所述初始手写文本图像生成模型中,以得到第一预测手写文本图像;第二生成模块,用于将所述样本内容图像和所述第一样本手写文本图像输入到所述初始手写文本图像重构模型中,以得到第二预测手写文本图像;训练模块,用于根据所述第一预测手写文本图像、所述第二预测手写文本图像和所述第一样本手写文本图像,对所述训练模型进行训练;确定模块,用于将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开的手写文本图像生成模型的训练方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本公开实施例公开的手写文本图像生成模型的训练方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现本公开的手写文本图像生成模型的训练方法。
上述申请中的一个实施例具有如下优点或有益效果:
在将训练数据中的样本内容图像以及第二样本手写文本图像输入到训练模型中的初始手写文本图像生成模型,以得到第一预测手写文本图像,并将训练数据中的样本图像内容以及第一样本手写文本图像输入到训练模型中的初始手写文本图像重构模型中,以得到第二测手写文本图像,以及根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,对训练模型进行训练,并将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。由此,在对模型进行训练的过程中,结合初始手写文本图像重构模型所输出的第二预测手写文本图像、初始手写文本图像生成模型所输出的第一预测手写文本图像以及样本手写文本图像来对训练模型进行训练,可提高训练模型的收敛速度,进而可加快训练模型中的手写文本图像生成模型的收敛,提高了手写文本图像生成模型的训练效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是根据本公开第四实施例的示意图;
图5是根据本公开第五实施例的示意图;
图6是根据本公开第六实施例的示意图;
图7是根据本公开第七实施例的示意图;
图8是根据本公开第八实施例的示意图;
图9是根据本公开第九实施例的示意图;
图10是根据本公开第十实施例的示意图;
图11是根据本公开第十一实施例的示意图;
图12是用来实现本公开实施例的手写文本图像生成模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在对手写文本图像生成模型进行训练的过程中,由于收集样本内容图像以及对应的手写文本图像所需时间较长,并且收集成本高,因此,相关技术中,通常是采用文本内容不相同的样本内容图像以及样本手写文本图像对手写文本图像生成模型进行训练,然而,这种训练方式,手写文本图像生成模型的模型收敛不好。
为此,本公开在将训练数据中的样本内容图像以及第二样本手写文本图像输入到训练模型中的初始手写文本图像生成模型,以得到第一预测手写文本图像,并将训练数据中的样本图像内容以及第一样本手写文本图像输入到训练模型中的初始手写文本图像重构模型中,以得到第二测手写文本图像,以及根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,对训练模型进行训练,并将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。由此,在对模型进行训练的过程中,结合初始手写文本图像重构模型所输出的第二预测手写文本图像、初始手写文本图像生成模型所输出的第一预测手写文本图像以及样本手写文本图像来对训练模型进行训练,可提高训练模型的模型收敛速度,进而可加快训练模型中的手写文本图像生成模型的收敛,提高了手写文本图像生成模型的训练效率。
下面参考附图描述本公开实施例的手写文本图像生成模型的训练方法、装置和存储介质。
图1是根据本公开第一实施例的示意图,该实施例提供一种手写文本图像生成模型的训练方法。
如图1所示,该手写文本图像生成模型的训练方法可以包括:
步骤101,获取训练数据,其中,训练数据包括样本内容图像、第一样本手写文本图像和第二样本手写文本图像。
其中,需要说明的是,本实施的手写文本图像生成模型的训练方法的执行主体为手写文本图像生成模型的训练装置,该手写文本图像生成模型的训练装置可以由软件和/或硬件实现,该手写文本图像生成模型的训练装置可以为电子设备,或者,可以配置在电子设备。
其中,该电子设备可以包括但不限于终端设备、服务器等,该实施例对电子设备不作具体限定。
其中,样本内容图像可以是包含有标准字体(如宋体、楷体等)文本的图像。
其中,标准字体文本可以是单个字符,也可以是包含多个字符的文本行,例如可以是词语或者句子等。在本示例实施例中,以标准字体文本以单个字为例进行示例性说明。
其中,第一样本手写文本图像和第二样本手写文本图像均是包含手写文本的图像。其中,需要说明的是,上述第一样本手写文本图像和第二样本手写文本图像的书写风格相同,但是第一样本手写文本图像和第二样本手写文本图像中的手写文本是不相同的,也就是说,第一样本手写文本图像和第二样本手写文本图像中的文本内容是不相同的。
其中,第一样本手写文本图像和样本内容图像的文本内容相同。
其中,第二样本手写文本图像与样本内容图像的文本内容不相同。
例如,样本内容图像上的文本内容可以为楷体的“泞”字,第一样本手写文本图像上的文本内容可以为“泞”字,但该文本内容是由用户手写的,第二样本手写文本图像上的文本内容可以为“没家灯”等字,并且,该文本内容也是用户手写的,需要说明的是,第一样本手写文本图像和第二样本手写文本图像中文本内容虽然不同,但是文本内容的书写风格是相同的。在一些示例中,第一样本手写文本图像和第二样本手写文本图像中的文本内容可以由一个用户手写的,或者,由不同的用户采用同一书写风格写的,该实施例对此不作具体限定。
步骤102,构建初始的训练模型,其中,训练模型包括初始手写文本图像生成模型和初始手写文本图像重构模型。
其中,上述初始手写文本图像生成模型和初始手写文本图像重构模型的模型结构可以是相同的,也可以是不相同的,该实施例对此不作具体限定。
步骤103,将样本内容图像以及第二样本手写文本图像输入到初始手写文本图像生成模型中,以得到第一预测手写文本图像。
步骤104,将样本内容图像和第一样本手写文本图像输入到初始手写文本图像重构模型中,以得到第二预测手写文本图像。
步骤105,根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,对训练模型进行训练。
步骤106,将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。
其中,需要说明的是,上述目标手写文本图像生成模型用于来生成手写文本图像。其中,基于目标手写文本图像生成模型来生成手写文本图像的示例性过程为:获取内容图像以及参考手写文本图像,并将内容图像以及参考手写文本图像输入到目标手写文本图像生成模型中,目标手写文本图像生成模型利用参考手写文本图像所包含的书写风格,对内容图像进行风格迁移,以得到目标手写文本图像。其中,目标手写文本图像的文字内容和内容图像上的文字内容相同,目标手写文本图像的书写风格与参考手写文本图像所包含的书写风格相同。
其中,参考手写文本图像所包含的书写风格,即参考手写文本图像中的手写文本所对应的书写风格。
本公开实施例的手写文本图像生成模型的训练方法,将训练数据中的样本内容图像以及第二样本手写文本图像输入到训练模型中的初始手写文本图像生成模型,以得到第一预测手写文本图像,并将训练数据中的样本图像内容以及第一样本手写文本图像输入到训练模型中的初始手写文本图像重构模型中,以得到第二测手写文本图像,以及根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,对训练模型进行训练,并将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。由此,在对模型进行训练的过程中,结合初始手写文本图像重构模型所输出的第二预测手写文本图像、初始手写文本图像生成模型所输出的第一预测手写文本图像以及样本手写文本图像来对训练模型进行训练,可提高训练模型的模型收敛速度,进而可加快训练模型中的手写文本图像生成模型的收敛,提高了手写文本图像生成模型的训练效率。
可以理解的是,在一些实施例中,为了进一步提高手写文本图像生成模型所生成的书写文本图像的书写风格更自然,在本公开的一个实施例中,可在初始手写文本图像生成模型的模型结构中增加注意力层,以通过注意力层来增加对书写风格的关注度,在本公开的一个实施例中,上述初始手写文本图像生成模型包括:依次连接的第一编码层、第一注意力层和第一解码层,并且第一编码层包括第一内容编码层和第一风格编码层的情况下,上述步骤103将样本内容图像以及第二样本手写文本图像输入到初始手写文本图像生成模型中,以得到第一预测手写文本图像的一种可能实现方式,如图2所示,可以包括:
步骤201,将样本内容图像输入到第一内容编码层中,以得到样本内容图像的第一内容特征向量。
其中,上述第一内容编码层用于对样本内容图像进行内容编码,以得到对应的第一内容特征向量。
步骤202,将第二样本手写文本图像输入到第一风格编码层中,以得到第二样本手写文本图像的第一风格特征向量。
其中,第一风格编码层用于对第二样本手写文本图像中的手写风格进行编码以得到对应的第一风格特征向量。
步骤203,通过第一注意力层对第一内容特征向量和第一风格特征向量进行注意力计算,以得到第一注意力计算结果。
步骤204,通过第一解码层对第一注意力计算计算结果和第一内容特征向量进行解码,得到第一预测手写文本图像。
在示例实施例中,可将第一注意力计算计算结果和第一内容特征向量输入到第一解码层。对应地,第一解码层对第一注意力计算计算结果和第一内容特征向量进行解码,以得到第一预测手写文本图像。
在示例实施例中,通过第一解码层对第一注意力计算计算结果和第一内容特征向量进行解码,以得到第一预测手写文本图像的一种示例性实施方式可以为:根据第一注意力计算计算结果,对第一内容特征向量进行风格迁移,以得到迁移特征,然后,对迁移特征进行解码,以得到第一预测手写文本图像。
在示例实施例中,通过在初始手写文本图像生成模型的模型结构中增加注意力层,从而使得从训练好的训练模型中所获取的目标手写文本图像生成模型中也存在注意力层,继而目标手写文本图像生成模型可通过注意力层来增加对书写风格的关注度,提升了目标手写文本图像生成模型所生成的书写文本图像上的书写风格的准确性,提升了所述生成的书写文本图像的真实性。
在本公开的一个实施例中,为了可以提高第一注意力计算结果的准确度,上述步骤203通过第一注意力层对第一内容特征向量和第一风格特征向量进行注意力计算,以得到第一注意力计算结果的一种可能实现方式,如图3所示,可以包括:
步骤301,对第一内容特征向量进行线性变换,以得到用于注意力计算的第一查询矩阵。
步骤302,对第一风格特征向量进行线性变换,以得到用于注意力计算的第一键矩阵和第一值矩阵。
步骤303,根据第一内容特征向量、第一查询矩阵、第一键矩阵和第一值矩阵进行注意力计算,以得到第一注意力计算结果。
在本公开的一个实施例中,为了进一步提高第一注意力计算结果的准确度,根据第一内容特征向量、第一查询矩阵、第一键矩阵和第一值矩阵进行注意力计算,以得到第一注意力计算结果的一种可能实现方式为:对第一查询矩阵和第一键矩阵进行矩阵乘法,以得到第一注意力权重矩阵;对第一注意力权重矩阵和第一值矩阵进行矩阵乘法,以得到第一中间矩阵;对第一中间矩阵和第一查询矩阵进行矩阵加法,以得到第二中间矩阵;对第二中间矩阵进行线性变换,以得到第三中间矩阵;对第三中间矩阵和第一内容特征向量进行拼接处理,以得到第一注意力计算结果。
为了可以清楚理解本公开下面结合图4对注意力层中计算得到第一注意力计算结果的过程进行示例性描述:
在通过编码层得到第一内容特征向量fc和第一风格特征向量FS后,可将第一内容特征向量fc和第一风格特征向量FS输入到第一注意力层中,其中,第一注意力层的处理过程为:对第一内容特征向量fc进行线性变换,以得到用于注意力计算的查询矩阵Q,对第一风格特征向量FS进行线性变换,以得到用于注意力计算的键矩阵K和值矩阵V,然后,对查询矩阵Q和键矩阵K进行矩阵乘法,并通过归一化指数函数(例如,softmax函数)对所得到的结果进行处理,以得到注意力权重矩阵A;将注意力权重矩阵A与值矩阵V进行矩阵乘法,以得到一个第一中间矩阵M,对应地,将第一中间矩阵M和查询矩阵Q进行矩阵加法,以得到第二中间矩阵N,并对第二中间矩阵N进行线性变换,以得到第三中间矩阵S,并将第三中间矩阵S和第一内容特征向量fc进行拼接处理,并将拼接处理所得到的结果作为第一注意力计算结果Fc,r。
其中,需要说明的是,本示例实施例中的注意力层中的注意力机制可以是为多个注意头的注意力机制,该实施例对此不作具体限定。
在本公开的一个实施例中,为了使得所重构的书写文本图像的书写风格更加贴近真实书写文本图像的书写风格,在本公开的一个实施例中,可在初始手写文本图像重构模型中增加注意力层,以通过注意力层来增加对书写风格的关注度。在一些示例实施例中,初始手写文本图像重构模型包括:依次连接的第二编码层、第二注意力层和第二解码层,其中,第二编码层包括第二内容编码层和第二风格编码层,上述步骤104将样本内容图像和第一样本手写文本图像输入到初始手写文本图像重构模型中,以得到第二预测手写文本图像的一种可能实现方式,如图5所示,可以包括:
步骤501,将样本内容图像输入到第二内容编码层中,以得到样本内容图像的第二内容特征向量。
在本示例实施例中,第二内容编码层用于对样本内容图像进行内容编码,以得到样本内容图像的第二内容特征向量。具体地,第二样本内容图像进行内容提取,并对提取到的内容进行内容编码,以得到第二内容特征向量。
步骤502,将第一样本手写文本图像输入到第二风格编码层中,以得到第一样本手写文本图像的第二风格特征向量。
在示例实施例中,第二风格编码层用于对第二样本手写文本图像进行书写风格提取,并对提取到的书写风格进行编码,以得到第二风格特征向量,其中,第二风格特征向量用于表征第二样本手写文本图像中的书写风格。
步骤503,通过第二注意力层对第二内容特征向量和第二风格特征向量进行注意力计算,以得到第二注意力计算结果。
步骤504,通过第二解码层对第二注意力计算计算结果和第二内容特征向量进行解码,得到第二预测手写文本图。
在本示例实施例中,为了使得初始手写文本图像重构模型中在对书写文本图像进行重构的过程中,可以对增加对第一样本手写文本图像中的书写风格的关注度,可在初始手写文本图像重构模型中增加注意力层,以通过注意力层来增加对书写风格的关注度,使得初始手写文本图像重构模型所输出的预测手写文本图像的书写风格和第一样本手写文本图像的书写风格更加相似,继而可进一步提高训练模型的模型收敛速度。
在本公开的一个实施例中,为了进一步提高第二注意力计算结果的准确度,通过第二注意力层对第二内容特征向量和第二风格特征向量进行注意力计算,以得到第二注意力计算结果的一种可能实现方式,如图6所示,可以包括:
步骤601,对第二内容特征向量进行线性变换,以得到用于注意力计算的第二查询矩阵。
步骤602,对第二风格特征向量进行线性变换,以得到用于注意力计算的第二键矩阵和第二值矩阵。
步骤603,根据第二内容特征向量、第二查询矩阵、第二键矩阵和第二值矩阵进行注意力计算,以得到第二注意力计算结果。
在本公开的一个实施例中,为了提高所得到第二注意力计算结果的准确性,根据第二内容特征向量、第二查询矩阵、第二键矩阵和第二值矩阵进行注意力计算,以得到第二注意力计算结果的一种可能实现方式为:对第二查询矩阵和第二键矩阵进行矩阵乘法,以得到第二注意力权重矩阵;对第二注意力权重矩阵和第二值矩阵进行矩阵乘法,以得到第四中间矩阵;对第四中间矩阵和第二查询矩阵进行矩阵加法,以得到第五中间矩阵;对第五中间矩阵进行线性变换,以得到第六中间矩阵;对第六中间矩阵和第二内容特征向量进行拼接处理,以得到第二注意力计算结果。
基于上述任意一个实施例的基础上,上述步骤105根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,对训练模型进行训练的一种可能实现方式,如图7所示,可以包括:
步骤701,根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,确定训练模型的总损失值。
步骤702,根据总损失值,对初始手写文本图像重构模型和初始手写文本图像生成模型的模型参数进行调整,以训练训练模型。
在本公开的一个实施例中,可根据总损失值,对训练模型中初始手写文本图像重构模型和初始手写文本图像生成模型的模型参数进行调整,直至总损失值满足预设条件,以得到训练好的训练模型。
其中,预设条件是即为模型训练结束的条件。预设条件可以根据实际需求进行相应的配置。例如,总损失值满足预设条件可以是总损失小于预设值,也可以是总损失值的变化趋近于平稳,即相邻两次或多次训练对应的总损失值的差值小于设定值,也就是总损失值基本不再变化。
可以理解的是,在基于训练数据对初始的训练模型进行训练的过程中,不断根据每次训练的总损失值对训练模型的模型参数进行调整,例如,可朝着总损失值变小的方向对训练模型的模型参数进行调整,当总损失值满足预设条件时,得到训练好的训练模型。
其中,可以理解的是,对训练模型的模型参数进行调整,包括对训练模型中初始手写文本图像重构模型的模型参数进行调整,以及对训练模型中初始手写文本图像生成模型的模型参数进行调整。
在本示例实施例中,结合第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,来确定训练模型的总损失值,并基于总损失值,对初始手写文本图像重构模型和初始手写文本图像生成模型的模型参数进行调整,以训练训练模型,从而结合重构的第二预测手写文本图像实现了对训练模型地训练,提高了训练模型的模型收敛速度。
在本公开的一个实施例中,为了进一步提高训练所得到的目标手写文本图像生成模型的准确度,在对训练模型进行训练的过程中,可结合第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像训练模型在多个维度上的损失值,来确定训练模型的总损失。其中,训练模型所对应的多个维度可以包括文本内容维度、书写风格维度和字体维度。下面结合图8对结合第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,来确定训练模型的总损失的过程进行示例性描述,如图8所示,可以包括:
步骤801,根据第一预测手写文本图像和第一样本手写文本图像在文本内容维度上的差异值以及第二预测手写文本图像和第一样本手写文本图像在文本内容维度上的差异值,确定训练模型在文本内容维度上的第一损失值。
在示例实施例中,为了保证第一预测手写文本图像的文本内容和第一样本手写文本图像的文本内容一致,可通过第一预测手写文本图像和第一样本手写文本图像在文本内容维度上的差异值,来判断第一预测手写文本图像上的文本内容是否正确,如果两者的异常值越小,表明第一预测手写文本图像的文本内容维度上的正确率越高,如果该差异值越大,则表明第一预测手写文本图像的文本内容维度上的正确率越低,通过不同的迭代训练,约束第一预测手写文本图像与样本内容图像的文本内容趋于一致。
在示例实施例中,为了保证第二预测手写文本图像的文本内容和第一样本手写文本图像的文本内容一致,可通过第二预测手写文本图像和第一样本手写文本图像在文本内容维度上的差异值,来判断第二预测手写文本图像上的文本内容是否正确,如果两者的异常值越小,表明第二预测手写文本图像的文本内容维度上的正确率越高,如果该差异值越大,则表明第二预测手写文本图像的文本内容维度上的正确率越低,通过不同的迭代训练,约束第二预测手写文本图像与样本内容图像的文本内容趋于一致。
步骤802,根据第一预测手写文本图像和第一样本手写文本图像在书写风格维度上的差异值以及第二预测手写文本图像和第一样本手写文本图像在书写风格维度上的差异值,确定训练模型在书写风格维度上的第二损失值。
在示例实施例中,为了使得第一预测手写文本图像的书写风格符合对应的书写人的真实书写风格,可通过第一预测手写文本图像和第一样本手写文本图像在书写风格维度上的差异值,来确定第一预测手写文本图像上的书写风格与第一样本手写文本图像上的书写风格的相似程度。如果差异越小,表示第一预测手写文本图像与第一样本手写文本图像在书写风格维度上的相似度越大;如果差异越大,表示第一预测手写文本图像与第一样本手写文本图像在书写风格维度上的相似度越小。通过不断的迭代优化,约束第一预测手写文本图像与第一样本手写文本图像在书写风格维度上越来越相似。
在示例实施例中,为了使得第二预测手写文本图像的书写风格符合对应的书写人的真实书写风格,可通过第二预测手写文本图像和第一样本手写文本图像在书写风格维度上的差异值,来确定第二预测手写文本图像上的书写风格与第一样本手写文本图像上的书写风格的相似程度。如果差异越小,表示第二预测手写文本图像与第一样本手写文本图像在书写风格维度上的相似度越大;如果差异越大,表示第二预测手写文本图像与第一样本手写文本图像在书写风格维度上的相似度越小。通过不断的迭代优化,约束第二预测手写文本图像与第一样本手写文本图像在书写风格维度上越来越相似。
步骤803,根据第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值以及第二预测手写文本图像和第一样本手写文本图像在字体维度上的差异值,确定训练模型在字体维度上的第三损失值。
在示例实施例中,为了保证第一预测手写文本图像的字体和第一样本手写文本图像的字体一致,可通过第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值,来判断第一预测手写文本图像上的字体是否正确,如果两者的异常值越小,表明第一预测手写文本图像的字体维度上的正确率越高,如果该差异值越大,则表明第一预测手写文本图像的字体维度上的正确率越低,通过不同的迭代训练,约束第一预测手写文本图像与样本内容图像的字体趋于一致。
在示例实施例中,为了保证第二预测手写文本图像的字体和第一样本手写文本图像的字体一致,可通过第二预测手写文本图像和第一样本手写文本图像在字体维度上的差异值,来判断第二预测手写文本图像上的字体是否正确,如果两者的异常值越小,表明第二预测手写文本图像的字体维度上的正确率越高,如果该差异值越大,则表明第二预测手写文本图像的字体维度上的正确率越低,通过不同的迭代训练,约束第二预测手写文本图像与样本内容图像的字体趋于一致。
在本公开的一个实施例中,为了可以准确确定出第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值,确定出第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值的一种可能实现方式为:确定第一预测手写文本图像中各个像素点的像素值与第一样本手写文本图像中相应位置上的像素点的像素值之间的第一像素差值;对各个第一像素差值进行求平均处理,以得到第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值。
在本公开的一个实施例中,为了可以准确确定出确定第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值,上述确定第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值的一种可能实现方式为:确定第一预测手写文本图像中各个像素点的像素值与第二样本手写文本图像中相应位置上的像素点的像素值之间的第二像素差值;对各个第二像素差值进行求平均处理,以得到第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值。
步骤804,根据第一损失值、第二损失值和第三损失值,确定训练模型的总损失值。
在本示例实施例中,可对第一损失值、第二损失值和第三损失值直接进行求和,并将求和所得到的值作为训练模型的总损失值。
在示例实施例中,可对第一损失值、第二损失值和第三损失值进行加权求和,并将所得到的值作为训练模型的总损失。
在本示例实施例中,结合第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像训练模型在多个维度上的损失值,来确定训练模型的总损失,并结合该总损失值对训练模型进行训练,从而使得从训练模型中所得到的目标手写文本图像生成模型的输出更加准确,且效果好。
在本公开的一个实施例中,为了可以提高所得到的目标手写文本图像生成模型所输出的手写文本图像的效果,避免出现失真的情况下,在对训练模型进行训练的过程中,可联合鉴别器模型对训练模型进行对抗训练。
作为一种示例性的实施方式,可利用鉴别器模型对第一预测手写文本图像和第一样本手写文本图像在文本内容维度上进行判断,以得到第一判断结果,并对第二预测手写文本图像和第一样本手写文本图像在文本内容维度上进行判断,以得到第二判断结果,并基于第一判断结果和第二判断结果,对鉴别器模型和训练模型在文本内容维度上进行对抗训练。
另外,除了对鉴别器模型和训练模型在文本内容维度上进行对抗训练外,还可以对鉴别器模型和训练模型在书写风格维度上进行对抗训练。其中,对鉴别器模型和训练模型在书写风格维度上进行对抗训练的示例性过程可以为:可利用鉴别器模型对第一预测手写文本图像和第一样本手写文本图像在书写风格维度上进行判断,以得到第一判断结果,并对第二预测手写文本图像和第一样本手写文本图像在书写风格维度上进行判断,以得到第二判断结果,并基于第一判断结果和第二判断结果,对鉴别器模型和训练模型在书写风格维度上进行对抗训练。
在另一些实施例中,还可以对鉴别器模型和训练模型在字体维度上进行对抗训练。其中,对鉴别器模型和训练模型在字体维度上进行对抗训练的示例性过程可以为:可利用鉴别器模型对第一预测手写文本图像和第一样本手写文本图像在字体维度上进行判断,以得到第一判断结果,并对第二预测手写文本图像和第一样本手写文本图像在字体维度上进行判断,以得到第二判断结果,并基于第一判断结果和第二判断结果,对鉴别器模型和训练模型在字体维度上进行对抗训练。
在本示例实施例中,通过对抗训练,目标手写文本图像生成模型的针对内容图像进行风格迁移的能力得以保证,提升了目标手写文本图像生成模型输出的手写文本图像的书写风格的准确性提升了手写文本图像的真实性。
为了可以清楚理解本公开实施例,下面结合图9对该实施例的训练方法进行进一步描述。其中,在本示例实施例中,以初始的训练模型中的初始手写文本图像生成模型和初始手写文本图像重构模型的模型结构相同,并且两个模型的初始模型参数相同为例进行示例性描述。通过图9可以看出,该实施例中的初始手写文本图像生成模型可以包括依次连接的第一编码层、第一注意力层和第一解码层,其中,第一编码层包括第一内容编码层和第一风格编码层。对应地,初始手写文本图像重构模型包括:依次连接的第二编码层、第二注意力层和第二解码层,其中,第二编码层包括第二内容编码层和第二风格编码层。
具体地,将样本内容图像x以及第二样本手写文本图像Y输入到初始手写文本图像生成模型中,初始手写文本图像生成模型中的第一内容编码层对样本内容图像x进行内容编码,以得到第一内容特征向量fc。对应地,初始手写文本图像生成模型中的第一风格编码层对第二样本手写文本图像进行风格编码,以得到第一风格特征向量Fr,然后,注意力层对第一内容特征向量fc和第一风格特征向量Fr进行注意力计算,以得到第一注意力计算结果Fc,r。对应地,初始手写文本图像生成模型中的第一解码层对第一注意力计算结果Fc,r和第一内容特征向量fc进行解码以得到第一预测手写文本图像Io;
对应地,将样本内容图像x以及第一样本手写文本图像IGT输入到初始手写文本图像重构模型中,初始手写文本图像重构模型中的第二内容编码层对样本内容图像x进行内容编码,以得到第二内容特征向量fc1。对应地,初始手写文本图像重构模型中的第二风格编码层对第一样本手写文本图像IGT进行风格编码,以得到第二风格特征向量Fr1,然后,注意力层对第二内容特征向量fc1和第二风格特征向量Fr1进行注意力计算,以得到第二注意力计算结果Fc1,r1。度对应地,初始手写文本图像重构模型中的第二解码层对第二注意力计算结果Fc1,r1和第二内容特征向量fc1进行解码以得到第二预测手写文本图像Io1;
然后,根据第一预测手写文本图像Io、第二预测手写文本图像Io1和第一样本手写文本图像IGT,确定训练模型的总损失值。
其中,需要说明的是,根据第一预测手写文本图像Io、第二预测手写文本图像Io1和第一样本手写文本图像IGT,确定训练模型的总损失值的具体描述,可参见上述实施例的相关描述,此处不再赘述。
最后,根据总损失值,对初始手写文本图像重构模型和初始手写文本图像生成模型的模型参数进行调整,以训练训练模型。
在本示例实施例中,通过在初始手写文本图像重构模型和初始手写文本图像生成模型均存在注意力层,通过注意力层可以更好的风格建模,并且,在训练的过程中,通过初始手写文本图像重构模型和初始手写文本图像生成模型相结合的方式来进行训练,可以使得包含初始手写文本图像重构模型更好更快的收敛,提高模型的训练效率,进而可提高获取训练好的目标手写文本图像重构模型的效率。
为了实现上述实施例,本公开实施例还提供一种手写文本图像生成模型的训练装置。
图10是根据本公开第十实施例的示意图,该实施例提供一种手写文本图像生成模型的训练装置。
如图10所示,该手写文本图像生成模型的训练装置100可以包括获取模块101、构建模块102、第一生成模块103、第二生成模块104、训练模块105和确定模块106,其中:
获取模块101,用于获取训练数据,其中,训练数据包括样本内容图像、第一样本手写文本图像和第二样本手写文本图像。
其中,第一样本手写文本图像和第二样本手写文本图像的书写风格相同,第一样本手写文本图像和样本内容图像的文本内容相同,第二样本手写文本图像与样本内容图像的文本内容不相同。
构建模块102,用于构建初始的训练模型,其中,训练模型包括初始手写文本图像生成模型和初始手写文本图像重构模型。
第一生成模块103,用于将样本内容图像以及第二样本手写文本图像输入到初始手写文本图像生成模型中,以得到第一预测手写文本图像。
第二生成模块104,用于将样本内容图像和第一样本手写文本图像输入到初始手写文本图像重构模型中,以得到第二预测手写文本图像。
训练模块105,用于根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,对训练模型进行训练。
确定模块106,用于将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。
本公开实施例的手写文本图像生成模型的训练装置,在将训练数据中的样本内容图像以及第二样本手写文本图像输入到训练模型中的初始手写文本图像生成模型,以得到第一预测手写文本图像,并将训练数据中的样本图像内容以及第一样本手写文本图像输入到训练模型中的初始手写文本图像重构模型中,以得到第二测手写文本图像,以及根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,对训练模型进行训练,并将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。由此,在对模型进行训练的过程中,结合初始手写文本图像重构模型所输出的第二预测手写文本图像、初始手写文本图像生成模型所输出的第一预测手写文本图像以及样本手写文本图像来对训练模型进行训练,可提高训练模型的收敛速度,进而可加快训练模型中的手写文本图像生成模型的收敛,提高了手写文本图像生成模型的训练效率。
在本公开的一个实施例中,如图11所示,该手写文本图像生成模型的训练装置110可以包括:获取模块111、构建模块112、第一生成模块113、第二生成模块114、训练模块115和确定模块116,其中,第一生成模块113可以包括:第一处理子模块1131、第二处理子模块1132、第一注意力计算子模块1133和第一解码子模块1134;第二生成模块114可以包括:第三处理子模块1141、第四处理子模块1142、第二注意力计算子模块1143和第二解码子模块1144;其中,训练模块115可以包括:确定子模块1151和调整子模块1152,其中,确定子模块1151可以包括:第一确定单元11511、第二确定单元11512、第三确定单元11513和第四确定单元11514。
其中,需要说明的是,关于获取模块111、构建模块112和确定模块116的详细描述可参见上述图10中的获取模块101、构建模块102和确定模块106的说明,此处不再进行描述。
在本公开的一个实施例中,初始手写文本图像生成模型包括:依次连接的第一编码层、第一注意力层和第一解码层,其中,第一编码层包括第一内容编码层和第一风格编码层,第一生成模块113,包括:
第一处理子模块1131,用于将样本内容图像输入到第一内容编码层中,以得到样本内容图像的第一内容特征向量。
第二处理子模块1132,用于将第二样本手写文本图像输入到第一风格编码层中,以得到第二样本手写文本图像的第一风格特征向量。
第一注意力计算子模块1133,用于通过第一注意力层对第一内容特征向量和第一风格特征向量进行注意力计算,以得到第一注意力计算结果。
第一解码子模块1134,用于通过第一解码层对第一注意力计算计算结果和第一内容特征向量进行解码,得到第一预测手写文本图像。
在本公开的一个实施例中,初始手写文本图像重构模型包括:依次连接的第二编码层、第二注意力层和第二解码层,其中,第二编码层包括第二内容编码层和第二风格编码层,第二生成模块114,包括:
第三处理子模块1141,用于将样本内容图像输入到第二内容编码层中,以得到样本内容图像的第二内容特征向量。
第四处理子模块1142,用于将第一样本手写文本图像输入到第二风格编码层中,以得到第一样本手写文本图像的第二风格特征向量。
第二注意力计算子模块1143,用于通过第二注意力层对第二内容特征向量和第二风格特征向量进行注意力计算,以得到第二注意力计算结果。
第二解码子模块1144,用于通过第二解码层对第二注意力计算计算结果和第二内容特征向量进行解码,得到第二预测手写文本图。
在本公开的一个实施例中,上述第一注意力计算子模块1133,具体用于:对第一内容特征向量进行线性变换,以得到用于注意力计算的第一查询矩阵;对第一风格特征向量进行线性变换,以得到用于注意力计算的第一键矩阵和第一值矩阵;根据第一内容特征向量、第一查询矩阵、第一键矩阵和第一值矩阵进行注意力计算,以得到第一注意力计算结果。
在本公开的一个实施例中,第一注意力计算子模块1133,具体用于:对第一查询矩阵和第一键矩阵进行矩阵乘法,以得到第一注意力权重矩阵;对第一注意力权重矩阵和第一值矩阵进行矩阵乘法,以得到第一中间矩阵;对第一中间矩阵和第一查询矩阵进行矩阵加法,以得到第二中间矩阵;对第二中间矩阵进行线性变换,以得到第三中间矩阵;对第三中间矩阵和第一内容特征向量进行拼接处理,以得到第一注意力计算结果。
在本公开的一个实施例中,上述第二注意力计算子模块1143,具体用于:对第二内容特征向量进行线性变换,以得到用于注意力计算的第二查询矩阵;对第二风格特征向量进行线性变换,以得到用于注意力计算的第二键矩阵和第二值矩阵;根据第二内容特征向量、第二查询矩阵、第二键矩阵和第二值矩阵进行注意力计算,以得到第二注意力计算结果。
在本公开的一个实施例中,第二注意力计算子模块1143,具体用于:对第二查询矩阵和第二键矩阵进行矩阵乘法,以得到第二注意力权重矩阵;对第二注意力权重矩阵和第二值矩阵进行矩阵乘法,以得到第四中间矩阵;对第四中间矩阵和第二查询矩阵进行矩阵加法,以得到第五中间矩阵;对第五中间矩阵进行线性变换,以得到第六中间矩阵;对第六中间矩阵和第二内容特征向量进行拼接处理,以得到第二注意力计算结果。
在本公开的一个实施例中,训练模块115,包括:
确定子模块1151,用于根据第一预测手写文本图像、第二预测手写文本图像和第一样本手写文本图像,确定训练模型的总损失值。
调整子模块1152,用于根据总损失值,对初始手写文本图像重构模型和初始手写文本图像生成模型的模型参数进行调整,以训练训练模型。
在本公开的一个实施例中,确定子模块1151,包括:
第一确定单元11511,用于根据第一预测手写文本图像和第一样本手写文本图像在文本内容维度上的差异值以及第二预测手写文本图像和第一样本手写文本图像在文本内容维度上的差异值,确定训练模型在文本内容维度上的第一损失值。
第二确定单元11512,用于根据第一预测手写文本图像和第一样本手写文本图像在书写风格维度上的差异值以及第二预测手写文本图像和第一样本手写文本图像在书写风格维度上的差异值,确定训练模型在书写风格维度上的第二损失值。
第三确定单元11513,用于根据第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值以及第二预测手写文本图像和第一样本手写文本图像在字体维度上的差异值,确定训练模型在字体维度上的第三损失值。
第四确定单元11514,用于根据第一损失值、第二损失值和第三损失值,确定训练模型的总损失值。
在本公开的一个实施例中,第三确定单元11513,还用于:确定第一预测手写文本图像中各个像素点的像素值与第一样本手写文本图像中相应位置上的像素点的像素值之间的第一像素差值;对各个第一像素差值进行求平均处理,以得到第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值;确定第一预测手写文本图像中各个像素点的像素值与第二样本手写文本图像中相应位置上的像素点的像素值之间的第二像素差值;对各个第二像素差值进行求平均处理,以得到第一预测手写文本图像和第一样本手写文本图像在字体维度上的差异值。
其中,需要说明的是,上述对手写文本图像生成模型的训练方法的解释说明也适用于本实施例中的手写文本图像生成模型的训练装置,该实施例对此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备和一种可读存储介质和一种计算机程序产品。
图12示出了可以用来实施本公开的实施例的示例电子设备1200的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图12所示,该电子设备1200可以包括计算单元1201,其可以根据存储在只读存储器(ROM)1202中的计算机程序或者从存储单元1208加载到随机访问存储器(RAM)1203中的计算机程序,来执行各种适当的动作和处理。在RAM 1203中,还可存储设备1200操作所需的各种程序和数据。计算单元1201、ROM 1202以及RAM 1203通过总线1204彼此相连。输入/输出(I/O)接口1205也连接至总线1204。
设备1200中的多个部件连接至I/O接口1205,包括:输入单元1206,例如键盘、鼠标等;输出单元1207,例如各种类型的显示器、扬声器等;存储单元1208,例如磁盘、光盘等;以及通信单元1209,例如网卡、调制解调器、无线通信收发机等。通信单元1209允许设备1200通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1201可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1201的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1201执行上文所描述的各个方法和处理,例如手写文本图像生成模型的训练方法。例如,在一些实施例中,手写文本图像生成模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1208。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1202和/或通信单元1209而被载入和/或安装到设备1200上。当计算机程序加载到RAM 1203并由计算单元1201执行时,可以执行上文描述的手写文本图像生成模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元1201可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行手写文本图像生成模型的训练方法。
本文中以上描述的装置和技术的各种实施方式可以在数字电子电路装置、集成电路装置、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上装置的装置(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程装置上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储装置、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储装置、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行装置、装置或设备使用或与指令执行装置、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体装置、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的装置和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的装置和技术实施在包括后台部件的计算装置(例如,作为数据服务器)、或者包括中间件部件的计算装置(例如,应用服务器)、或者包括前端部件的计算装置(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的装置和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算装置中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将装置的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机装置可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器可以是云服务器,也可以为分布式装置的服务器,或者是结合了区块链的服务器。
其中,需要说明的是,人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (19)
1.一种手写文本图像生成模型的训练方法,包括:
获取训练数据,其中,训练数据包括样本内容图像、第一样本手写文本图像和第二样本手写文本图像,其中,所述第一样本手写文本图像和所述第二样本手写文本图像的书写风格相同,所述第一样本手写文本图像和所述样本内容图像的文本内容相同,所述第二样本手写文本图像与所述样本内容图像的文本内容不相同;
构建初始的训练模型,其中,所述训练模型包括初始手写文本图像生成模型和初始手写文本图像重构模型;
所述初始手写文本图像生成模型包括:依次连接的第一编码层、第一注意力层和第一解码层,其中,所述第一编码层包括第一内容编码层和第一风格编码层;
将所述样本内容图像输入到所述第一内容编码层中,以得到所述样本内容图像的第一内容特征向量;
将所述第二样本手写文本图像输入到所述第一风格编码层中,以得到所述第二样本手写文本图像的第一风格特征向量;
通过所述第一注意力层对所述第一内容特征向量和所述第一风格特征向量进行注意力计算,以得到第一注意力计算结果;
通过所述第一解码层对所述第一注意力计算结果和所述第一内容特征向量进行解码,得到第一预测手写文本图像;
所述初始手写文本图像重构模型包括:依次连接的第二编码层、第二注意力层和第二解码层,其中,所述第二编码层包括第二内容编码层和第二风格编码层;
将所述样本内容图像输入到所述第二内容编码层中,以得到所述样本内容图像的第二内容特征向量;
将所述第一样本手写文本图像输入到所述第二风格编码层中,以得到所述第一样本手写文本图像的第二风格特征向量;
通过所述第二注意力层对所述第二内容特征向量和所述第二风格特征向量进行注意力计算,以得到第二注意力计算结果;
通过所述第二解码层对所述第二注意力计算结果和所述第二内容特征向量进行解码,得到第二预测手写文本图;
根据所述第一预测手写文本图像、所述第二预测手写文本图像和所述第一样本手写文本图像,对所述训练模型进行训练;
将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型。
2.根据权利要求1所述的方法,其中,所述通过所述第一注意力层对所述第一内容特征向量和所述第一风格特征向量进行注意力计算,以得到第一注意力计算结果,包括:
对所述第一内容特征向量进行线性变换,以得到用于注意力计算的第一查询矩阵;
对所述第一风格特征向量进行线性变换,以得到用于注意力计算的第一键矩阵和第一值矩阵;
根据所述第一内容特征向量、所述第一查询矩阵、所述第一键矩阵和所述第一值矩阵进行注意力计算,以得到所述第一注意力计算结果。
3.根据权利要求2所述的方法,其中,所述根据所述第一内容特征向量、所述第一查询矩阵、所述第一键矩阵和所述第一值矩阵进行注意力计算,以得到所述第一注意力计算结果,包括:
对所述第一查询矩阵和所述第一键矩阵进行矩阵乘法,以得到第一注意力权重矩阵;
对所述第一注意力权重矩阵和所述第一值矩阵进行矩阵乘法,以得到第一中间矩阵;
对所述第一中间矩阵和所述第一查询矩阵进行矩阵加法,以得到第二中间矩阵;
对所述第二中间矩阵进行线性变换,以得到第三中间矩阵;
对所述第三中间矩阵和所述第一内容特征向量进行拼接处理,以得到所述第一注意力计算结果。
4.根据权利要求1所述的方法,其中,所述通过所述第二注意力层对所述第二内容特征向量和所述第二风格特征向量进行注意力计算,以得到第二注意力计算结果,包括:
对所述第二内容特征向量进行线性变换,以得到用于注意力计算的第二查询矩阵;
对所述第二风格特征向量进行线性变换,以得到用于注意力计算的第二键矩阵和第二值矩阵;
根据所述第二内容特征向量、所述第二查询矩阵、所述第二键矩阵和所述第二值矩阵进行注意力计算,以得到所述第二注意力计算结果。
5.根据权利要求4所述的方法,其中,所述根据所述第二内容特征向量、所述第二查询矩阵、所述第二键矩阵和所述第二值矩阵进行注意力计算,以得到所述第二注意力计算结果,包括:
对所述第二查询矩阵和所述第二键矩阵进行矩阵乘法,以得到第二注意力权重矩阵;
对所述第二注意力权重矩阵和所述第二值矩阵进行矩阵乘法,以得到第四中间矩阵;
对所述第四中间矩阵和所述第二查询矩阵进行矩阵加法,以得到第五中间矩阵;
对所述第五中间矩阵进行线性变换,以得到第六中间矩阵;
对所述第六中间矩阵和所述第二内容特征向量进行拼接处理,以得到所述第二注意力计算结果。
6.根据权利要求1-5任一项所述的方法,其中,所述根据所述第一预测手写文本图像、所述第二预测手写文本图像和所述第一样本手写文本图像,对所述训练模型进行训练,包括:
根据所述第一预测手写文本图像、所述第二预测手写文本图像和所述第一样本手写文本图像,确定所述训练模型的总损失值;
根据所述总损失值,对所述初始手写文本图像重构模型和所述初始手写文本图像生成模型的模型参数进行调整,以训练所述训练模型。
7.根据权利要求6所述的方法,其中,所述根据所述第一预测手写文本图像、所述第二预测手写文本图像和所述第一样本手写文本图像,确定所述训练模型的总损失值,包括:
根据所述第一预测手写文本图像和所述第一样本手写文本图像在文本内容维度上的差异值以及所述第二预测手写文本图像和所述第一样本手写文本图像在所述文本内容维度上的差异值,确定所述训练模型在文本内容维度上的第一损失值;
根据所述第一预测手写文本图像和所述第一样本手写文本图像在书写风格维度上的差异值以及所述第二预测手写文本图像和所述第一样本手写文本图像在书写风格维度上的差异值,确定所述训练模型在书写风格维度上的第二损失值;
根据所述第一预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值以及所述第二预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值,确定所述训练模型在字体维度上的第三损失值;
根据所述第一损失值、所述第二损失值和所述第三损失值,确定所述训练模型的总损失值。
8.根据权利要求7所述的方法,其中,在所述根据所述第一预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值以及所述第二预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值,确定所述训练模型在字体维度上的第三损失值之前,所述方法还包括:
确定所述第一预测手写文本图像中各个像素点的像素值与所述第一样本手写文本图像中相应位置上的像素点的像素值之间的第一像素差值;
对各个所述第一像素差值进行求平均处理,以得到所述第一预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值;
确定所述第一预测手写文本图像中各个像素点的像素值与所述第二样本手写文本图像中相应位置上的像素点的像素值之间的第二像素差值;
对各个所述第二像素差值进行求平均处理,以得到所述第一预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值。
9.一种手写文本图像生成模型的训练装置,包括:
获取模块,用于获取训练数据,其中,训练数据包括样本内容图像、第一样本手写文本图像和第二样本手写文本图像,其中,所述第一样本手写文本图像和所述第二样本手写文本图像的书写风格相同,所述第一样本手写文本图像和所述样本内容图像的文本内容相同,所述第二样本手写文本图像与所述样本内容图像的文本内容不相同;
构建模块,用于构建初始的训练模型,其中,所述训练模型包括初始手写文本图像生成模型和初始手写文本图像重构模型;
第一生成模块,用于将所述样本内容图像以及所述第二样本手写文本图像输入到所述初始手写文本图像生成模型中,以得到第一预测手写文本图像;
第二生成模块,用于将所述样本内容图像和所述第一样本手写文本图像输入到所述初始手写文本图像重构模型中,以得到第二预测手写文本图像;
训练模块,用于根据所述第一预测手写文本图像、所述第二预测手写文本图像和所述第一样本手写文本图像,对所述训练模型进行训练;
确定模块,用于将训练好的训练模型中的手写文本图像生成模型作为目标手写文本图像生成模型;
所述初始手写文本图像生成模型包括:依次连接的第一编码层、第一注意力层和第一解码层,其中,所述第一编码层包括第一内容编码层和第一风格编码层,所述第一生成模块,包括:
第一处理子模块,用于将所述样本内容图像输入到所述第一内容编码层中,以得到所述样本内容图像的第一内容特征向量;
第二处理子模块,用于将所述第二样本手写文本图像输入到所述第一风格编码层中,以得到所述第二样本手写文本图像的第一风格特征向量;
第一注意力计算子模块,用于通过所述第一注意力层对所述第一内容特征向量和所述第一风格特征向量进行注意力计算,以得到第一注意力计算结果;
第一解码子模块,用于通过所述第一解码层对所述第一注意力计算结果和所述第一内容特征向量进行解码,得到所述第一预测手写文本图像;
所述初始手写文本图像重构模型包括:依次连接的第二编码层、第二注意力层和第二解码层,其中,所述第二编码层包括第二内容编码层和第二风格编码层,所述第二生成模块,包括:
第三处理子模块,用于将所述样本内容图像输入到所述第二内容编码层中,以得到所述样本内容图像的第二内容特征向量;
第四处理子模块,用于将所述第一样本手写文本图像输入到所述第二风格编码层中,以得到所述第一样本手写文本图像的第二风格特征向量;
第二注意力计算子模块,用于通过所述第二注意力层对所述第二内容特征向量和所述第二风格特征向量进行注意力计算,以得到第二注意力计算结果;
第二解码子模块,用于通过所述第二解码层对所述第二注意力计算结果和所述第二内容特征向量进行解码,得到所述第二预测手写文本图。
10.根据权利要求9所述的装置,其中,所述第一注意力计算子模块,具体用于:
对所述第一内容特征向量进行线性变换,以得到用于注意力计算的第一查询矩阵;
对所述第一风格特征向量进行线性变换,以得到用于注意力计算的第一键矩阵和第一值矩阵;
根据所述第一内容特征向量、所述第一查询矩阵、所述第一键矩阵和所述第一值矩阵进行注意力计算,以得到所述第一注意力计算结果。
11.根据权利要求10所述的装置,其中,所述第一注意力计算子模块,具体用于:
对所述第一查询矩阵和所述第一键矩阵进行矩阵乘法,以得到第一注意力权重矩阵;
对所述第一注意力权重矩阵和所述第一值矩阵进行矩阵乘法,以得到第一中间矩阵;
对所述第一中间矩阵和所述第一查询矩阵进行矩阵加法,以得到第二中间矩阵;
对所述第二中间矩阵进行线性变换,以得到第三中间矩阵;
对所述第三中间矩阵和所述第一内容特征向量进行拼接处理,以得到所述第一注意力计算结果。
12.根据权利要求9所述的装置,其中,所述第二注意力计算子模块,具体用于:
对所述第二内容特征向量进行线性变换,以得到用于注意力计算的第二查询矩阵;
对所述第二风格特征向量进行线性变换,以得到用于注意力计算的第二键矩阵和第二值矩阵;
根据所述第二内容特征向量、所述第二查询矩阵、所述第二键矩阵和所述第二值矩阵进行注意力计算,以得到所述第二注意力计算结果。
13.根据权利要求12所述的装置,其中,所述第二注意力计算子模块,具体用于:
对所述第二查询矩阵和所述第二键矩阵进行矩阵乘法,以得到第二注意力权重矩阵;
对所述第二注意力权重矩阵和所述第二值矩阵进行矩阵乘法,以得到第四中间矩阵;
对所述第四中间矩阵和所述第二查询矩阵进行矩阵加法,以得到第五中间矩阵;
对所述第五中间矩阵进行线性变换,以得到第六中间矩阵;
对所述第六中间矩阵和所述第二内容特征向量进行拼接处理,以得到所述第二注意力计算结果。
14.根据权利要求9-13任一项所述的装置,其中,所述训练模块,包括:
确定子模块,用于根据所述第一预测手写文本图像、所述第二预测手写文本图像和所述第一样本手写文本图像,确定所述训练模型的总损失值;
调整子模块,用于根据所述总损失值,对所述初始手写文本图像重构模型和所述初始手写文本图像生成模型的模型参数进行调整,以训练所述训练模型。
15.根据权利要求14所述的装置,其中,所述确定子模块,包括:
第一确定单元,用于根据所述第一预测手写文本图像和所述第一样本手写文本图像在文本内容维度上的差异值以及所述第二预测手写文本图像和所述第一样本手写文本图像在所述文本内容维度上的差异值,确定所述训练模型在文本内容维度上的第一损失值;
第二确定单元,用于根据所述第一预测手写文本图像和所述第一样本手写文本图像在书写风格维度上的差异值以及所述第二预测手写文本图像和所述第一样本手写文本图像在书写风格维度上的差异值,确定所述训练模型在书写风格维度上的第二损失值;
第三确定单元,用于根据所述第一预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值以及所述第二预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值,确定所述训练模型在字体维度上的第三损失值;
第四确定单元,用于根据所述第一损失值、所述第二损失值和所述第三损失值,确定所述训练模型的总损失值。
16.根据权利要求15所述的装置,其中,所述第三确定单元,还用于:
确定所述第一预测手写文本图像中各个像素点的像素值与所述第一样本手写文本图像中相应位置上的像素点的像素值之间的第一像素差值;
对各个所述第一像素差值进行求平均处理,以得到所述第一预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值;
确定所述第一预测手写文本图像中各个像素点的像素值与所述第二样本手写文本图像中相应位置上的像素点的像素值之间的第二像素差值;
对各个所述第二像素差值进行求平均处理,以得到所述第一预测手写文本图像和所述第一样本手写文本图像在字体维度上的差异值。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现权利要求1-8中任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210688816.2A CN114973279B (zh) | 2022-06-17 | 2022-06-17 | 手写文本图像生成模型的训练方法、装置和存储介质 |
US18/111,958 US20230206522A1 (en) | 2022-06-17 | 2023-02-21 | Training method for handwritten text image generation mode, electronic device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210688816.2A CN114973279B (zh) | 2022-06-17 | 2022-06-17 | 手写文本图像生成模型的训练方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114973279A CN114973279A (zh) | 2022-08-30 |
CN114973279B true CN114973279B (zh) | 2023-02-17 |
Family
ID=82964095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210688816.2A Active CN114973279B (zh) | 2022-06-17 | 2022-06-17 | 手写文本图像生成模型的训练方法、装置和存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230206522A1 (zh) |
CN (1) | CN114973279B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165376A (zh) * | 2018-06-28 | 2019-01-08 | 西交利物浦大学 | 基于少量样本的风格字符生成方法 |
CN112364838A (zh) * | 2020-12-09 | 2021-02-12 | 佛山市南海区广工大数控装备协同创新研究院 | 一种利用合成的联机文本图像改进手写ocr性能的方法 |
CN113052143A (zh) * | 2021-04-26 | 2021-06-29 | 中国建设银行股份有限公司 | 手写数字生成方法和装置 |
CN113140017A (zh) * | 2021-04-30 | 2021-07-20 | 北京百度网讯科技有限公司 | 训练对抗网络模型的方法、建立字库的方法、装置和设备 |
CN113705554A (zh) * | 2021-08-13 | 2021-11-26 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、设备及存储介质 |
CN113792854A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 一种模型训练及字库建立方法、装置、设备及存储介质 |
CN114255159A (zh) * | 2021-12-21 | 2022-03-29 | 科大讯飞股份有限公司 | 手写文本图像生成方法、装置、电子设备和存储介质 |
CN114419174A (zh) * | 2021-12-07 | 2022-04-29 | 科大讯飞股份有限公司 | 在线手写文本合成方法、装置和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9934422B1 (en) * | 2016-09-22 | 2018-04-03 | Gracious Eloise, Inc. | Digitized handwriting sample ingestion systems and methods |
US10977439B2 (en) * | 2019-04-01 | 2021-04-13 | International Business Machines Corporation | Controllable style-based text transformation |
US11250252B2 (en) * | 2019-12-03 | 2022-02-15 | Adobe Inc. | Simulated handwriting image generator |
US11157693B2 (en) * | 2020-02-25 | 2021-10-26 | Adobe Inc. | Stylistic text rewriting for a target author |
CN113792855B (zh) * | 2021-09-09 | 2023-06-23 | 北京百度网讯科技有限公司 | 一种模型训练及字库建立方法、装置、设备和存储介质 |
-
2022
- 2022-06-17 CN CN202210688816.2A patent/CN114973279B/zh active Active
-
2023
- 2023-02-21 US US18/111,958 patent/US20230206522A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165376A (zh) * | 2018-06-28 | 2019-01-08 | 西交利物浦大学 | 基于少量样本的风格字符生成方法 |
CN112364838A (zh) * | 2020-12-09 | 2021-02-12 | 佛山市南海区广工大数控装备协同创新研究院 | 一种利用合成的联机文本图像改进手写ocr性能的方法 |
CN113052143A (zh) * | 2021-04-26 | 2021-06-29 | 中国建设银行股份有限公司 | 手写数字生成方法和装置 |
CN113140017A (zh) * | 2021-04-30 | 2021-07-20 | 北京百度网讯科技有限公司 | 训练对抗网络模型的方法、建立字库的方法、装置和设备 |
CN113705554A (zh) * | 2021-08-13 | 2021-11-26 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、设备及存储介质 |
CN113792854A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 一种模型训练及字库建立方法、装置、设备及存储介质 |
CN114419174A (zh) * | 2021-12-07 | 2022-04-29 | 科大讯飞股份有限公司 | 在线手写文本合成方法、装置和存储介质 |
CN114255159A (zh) * | 2021-12-21 | 2022-03-29 | 科大讯飞股份有限公司 | 手写文本图像生成方法、装置、电子设备和存储介质 |
Non-Patent Citations (4)
Title |
---|
Handwritten Mathematical Expression Recognition with Self-Attention;Xueke Chi et.al;《ACAI"21: 2021 4th International Conference on Algorithms, Computing and Artificial Intelligence》;20220225;Pages 1–6 * |
Look Closer to Supervise Better:One-Shot Font Generation via Component-Based Discriminator;Yuxin Kong et.al;《arXiv:2205.00146v2》;20220508;全文 * |
基于风格迁移的手写西夏文字样本生成研究;杨丽娟;《中国优秀硕士学位论文全文数据库哲学与人文科学辑》;20220315;全文 * |
无监督图像翻译的个性化手写汉字生成方法;卢鹏等;《计算机工程与应用》;20220427;第58卷(第8期);第221-229页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114973279A (zh) | 2022-08-30 |
US20230206522A1 (en) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113553864B (zh) | 翻译模型的训练方法、装置、电子设备及存储介质 | |
CN113313022B (zh) | 文字识别模型的训练方法和识别图像中文字的方法 | |
CN112541122A (zh) | 推荐模型的训练方法、装置、电子设备及存储介质 | |
CN113792854A (zh) | 一种模型训练及字库建立方法、装置、设备及存储介质 | |
CN114820871B (zh) | 字体生成方法、模型的训练方法、装置、设备和介质 | |
CN115861462B (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
CN113392253B (zh) | 视觉问答模型训练及视觉问答方法、装置、设备及介质 | |
CN114863437B (zh) | 文本识别方法、装置、电子设备和存储介质 | |
CN116152833B (zh) | 基于图像的表格还原模型的训练方法及表格还原方法 | |
CN112580666A (zh) | 图像特征的提取方法、训练方法、装置、电子设备及介质 | |
CN113177449A (zh) | 人脸识别的方法、装置、计算机设备及存储介质 | |
JP2023039892A (ja) | 文字生成モデルのトレーニング方法、文字生成方法、装置、機器及び媒体 | |
CN115829058A (zh) | 训练样本处理方法、跨模态匹配方法、装置、设备和介质 | |
CN112949433B (zh) | 视频分类模型的生成方法、装置、设备和存储介质 | |
CN114511743A (zh) | 检测模型训练、目标检测方法、装置、设备、介质及产品 | |
CN113641829A (zh) | 图神经网络的训练与知识图谱的补全方法、装置 | |
CN115239889B (zh) | 3d重建网络的训练方法、3d重建方法、装置、设备和介质 | |
CN114973279B (zh) | 手写文本图像生成模型的训练方法、装置和存储介质 | |
CN114267375B (zh) | 音素检测方法及装置、训练方法及装置、设备和介质 | |
CN112541557B (zh) | 生成式对抗网络的训练方法、装置及电子设备 | |
CN113361522B (zh) | 用于确定字符序列的方法、装置和电子设备 | |
CN114416941B (zh) | 融合知识图谱的对话知识点确定模型的生成方法及装置 | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
CN115482353A (zh) | 重建网络的训练方法、重建方法、装置、设备和介质 | |
CN115359323A (zh) | 图像的文本信息生成方法和深度学习模型的训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |