CN112598764B - 一种迁移场景风格的字符图像生成方法 - Google Patents

一种迁移场景风格的字符图像生成方法 Download PDF

Info

Publication number
CN112598764B
CN112598764B CN202011569475.4A CN202011569475A CN112598764B CN 112598764 B CN112598764 B CN 112598764B CN 202011569475 A CN202011569475 A CN 202011569475A CN 112598764 B CN112598764 B CN 112598764B
Authority
CN
China
Prior art keywords
character image
scene
image
character
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011569475.4A
Other languages
English (en)
Other versions
CN112598764A (zh
Inventor
柯逍
刘童安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202011569475.4A priority Critical patent/CN112598764B/zh
Publication of CN112598764A publication Critical patent/CN112598764A/zh
Application granted granted Critical
Publication of CN112598764B publication Critical patent/CN112598764B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Character Discrimination (AREA)

Abstract

本发明提出一种迁移场景风格的字符图像生成方法,可用于生成含给定场景风格的汉字字符图像,所述方法包括以下步骤:步骤S1:采集场景字符图像,制作原始字符图像,构建训练数据集;步骤S2:构建用于场景字符图像生成的生成对抗网络,并训练网络;步骤S3:使用源场景字符图像、源原始字符图像和目标原始字符图像,生成场景字符图像;本发明可提供一种通过给定含有场景风格和字体风格的场景字符图像,并通过字体文件制作简单的黑底白字的字符图像,生成指定字符含有给定场景风格的场景字符图像。

Description

一种迁移场景风格的字符图像生成方法
技术领域
本发明涉及模式识别与计算机视觉技术领域,尤其是一种迁移场景风格的字符图像生成方法。
背景技术
语言是人类传播信息的主要方式之一,文字是书面的语言,也是人类通过视觉传递信息最广泛的方式之一。
随着人工智能、互联网等技术的迅速发展,使用计算机自动识别图像中的文本具有重要意义。对于中文文本识别任务,由于汉字类别多,使用深度学习方法训练汉字识别模型通常需要海量的数据支持,采集数据的成本极高。而且现实场景下,大多数类别的汉字并不常见,这种不均匀的类别分布会导致识别模型的性能下降,而在大多数场景下收集生僻字是困难的。因此,使用计算机生成各种场景下的汉字具有很强的实用价值。
发明内容
本发明提出一种迁移场景风格的字符图像生成方法,可提供一种通过给定含有场景风格和字体风格的场景字符图像,并通过字体文件制作简单的黑底白字的字符图像,生成指定字符含有给定场景风格的场景字符图像。
一种迁移场景风格的字符图像生成方法,可用于生成含给定场景风格的汉字字符图像,所述方法包括以下步骤:
步骤S1:采集场景字符图像,制作原始字符图像,构建训练数据集;
步骤S2:构建用于场景字符图像生成的生成对抗网络,并训练网络;
步骤S3:使用源场景字符图像、源原始字符图像和目标原始字符图像,生成场景字符图像。
所述步骤S1具体为:
步骤S11:收集并整理场景字符图像nimgs对,仅包含字符的源场景字符图像imgsrc和目标场景字符图像imgtgt,成对的字符图像应具有相似的场景和字体,且对应不同的字符,尺寸为边长为s的正方形,其中s为人工设定的参数,于是第ia对字符图像imgsrc和imgtgt可以表示为imgsrcia和imgtgtia,则nimgs对场景字符图像可以表示为imgs={imgsrctgtia|ia=0,1,...nimgs},其中imgsrctgtia表示第ia对场景字符图像imgsrctgtia={imgsrcia,imgtgtia};
步骤S12:选择一种字体作为原始字体,基于该字体可以生成黑底白字的字体图像,一副场景字符图像对应一个字符,对应字符生成的字体图像定义为原始字符图像,生成的原始字符图像尺寸为边长为s的正方形,字符位于图像中央,于是对imgsrc制作原始字符图像可以得到源原始字符图像charsrc,对imgtgt制作原始字符图像可以得到目标原始字符图像chartgt,第ia个imgsrcia制作原始字符图像得到charsrcia,第ia个chartgt制作原始字符图像得到chartgtia,对ia=0,1,...nimgs执行完上述操作得到nimgs对原始字符图像chars={charsrctgtia|ia=0,1,...nimgs},其中charsrctgtia表示第ia对原始字符图像charsrctgtia={charsrcia,chartgtia};
步骤S13:组合imgs和chars得到训练数据集trains={trainia|ia=0,1,...nimgs},其中trainia表示第ia组训练数据,trainia={imgsrcia,imgtgtia,charsrcia,chartgtia}。
所述用于场景字符图像生成的生成对抗网络,具体如下:
网络包含两个部分,一个生成器和一个判别器,生成器用于生成图像,判别器用于判定一张图像是否为满足某一条件的某种图像;
生成器的输入含有三个分支,三个分支分别通过独立的多层卷积网络提取源场景字符图像、源原始字符图像和目标原始字符图像的特征,然后将三个分支提取的特征在通道维度连接,合并的特征再通过多层卷积网络进一步融合特征,紧接着连接一个UNet结构的网络,这种结构的网络能将图像先下采样至一个较小的尺寸,再上采样恢复原来的尺寸,并在上采样的过程中和下采样提取的特征融合,最后的输出结果是生成的含有源场景字符图像风格和目标原始字符图像字符的场景字符图像,其尺寸与输入的三张图像均一致;
判别器的输入含有两个分支,一分支分别通过独立的多层卷积网络提取待判别图像和一张原始字符图像的特征,然后将两个分支提取的特征在通道维度连接,合并的特征再通过多层卷积网络进一步融合特征,紧接着连接一个马尔科夫判别器,这种判别器能够输出图像不同位置满足判别条件的概率,判别器的判别目标为当待判别图像符合场景字符图像训练集的域分布且待判别图像是输入的原始字符图像对应的字符图像时,判别结果为真,否则判别结果为假。
所述步骤S2具体为:
步骤S21:构建用于场景字符图像生成的生成对抗网络;
步骤S22:使用构建的训练数据集训练用构建的生成对抗网络,使用第ia个训练数据训练时,首先使用生成器生成场景字符图像,生成器的输入为imgsrcia、charsrcia、chartgtia,则生成的图像为fakeia
步骤S23:然后优化判别器,判别器通过三种输入优化,输入为imgsrcia和charsrcia时,判别器的优化目标为真,输入为imgsrcia和tgtsrcia时,判别器的优化目标为假,输入为fakeia和charsrcia时,判别器的优化目标为假,设判别器的前向过程可以用函数D表示,则损失Lossd可以用下式计算:
Lossd=MSELoss(D(imgsrcia,charsrcia),1)+MSELoss(D(imgsrcia,tgtsrcia),0)+MSELoss(D(fakeia,charsrcia),0)
其中,MSELoss为均方损失函数;
步骤S24:优化好判别器后优化生成器,生成器的优化目标是让判别器输入为fakeia和charsrcia时判别结果为真,且fakeia与imgtgtia尽可能相似,生成器的损失Lossg计算方法如下:
Lossg=MSELoss(D(fakeia,charsrcia),1)+L1Loss(fakeia,imgtgtia)
其中L1Loss为L1损失函数;
步骤S25:重复步骤S22至S24反复训练判别器和生成器,直到生成器能生成符合期望效果的场景字符图像为止。
所述步骤S3具体为:
步骤S31:准备一张仅含有字符的某种风格的字符图像,将其处理为尺寸为边长为的正方形,作为源场景字符图像,并制作其对应的源原始字符图像;
步骤S32:制作任意字符的原始字符图像作为目标字符图像;
步骤S33:将步骤S31中制作的源场景字符图像、源原始字符图像和步骤S32中制作的目标字符图像输入训练好的生成器中,生成的图像包含目标字符图像对应的字符,且能够迁移源场景字符图像的场景特征。
本发明与现有技术相比具有以下有益效果:
1、本发明能高效的生成海量的任意字符的场景字符图像数据;
2、本发明生成的场景字符图像可以迁移指定场景字符图像的风格;
3、本发明生成的图像质量高、真实性强,生成模型稳定性良好,具有一定的泛化能力。
附图说明
下面结合附图和具体实施方式对本发明进一步详细的说明:
附图1是本发明的流程示意图。
具体实施方式
如图所示,一种迁移场景风格的字符图像生成方法,可用于生成含给定场景风格的汉字字符图像,所述方法包括以下步骤;
步骤S1:采集场景字符图像,制作原始字符图像,构建训练数据集;
步骤S2:构建用于场景字符图像生成的生成对抗网络,并训练网络;
步骤S3:使用源场景字符图像、源原始字符图像和目标原始字符图像,生成场景字符图像。
所述步骤S1具体为:
步骤S11:收集并整理场景字符图像nimgs对,仅包含字符的源场景字符图像imgsrc和目标场景字符图像imgtgt,成对的字符图像应具有相似的场景和字体,且对应不同的字符,尺寸为边长为s的正方形,其中s为人工设定的参数,于是第ia对字符图像imgsrc和imgtgt可以表示为imgsrcia和imgtgtia,则nimgs对场景字符图像可以表示为imgs={imgsrctgtia|ia=0,1,...nimgs},其中imgsrctgtia表示第ia对场景字符图像imgsrctgtia={imgsrcia,imgtgtia};
步骤S12:选择一种字体作为原始字体,基于该字体可以生成黑底白字的字体图像,一副场景字符图像对应一个字符,对应字符生成的字体图像定义为原始字符图像,生成的原始字符图像尺寸为边长为s的正方形,字符位于图像中央,于是对imgsrc制作原始字符图像可以得到源原始字符图像charsrc,对imgtgt制作原始字符图像可以得到目标原始字符图像chartgt,第ia个imgsrcia制作原始字符图像得到charsrcia,第ia个chartgt制作原始字符图像得到chartgtia,对ia=0,1,...nimgs执行完上述操作得到nimgs对原始字符图像chars={charsrctgtia|ia=0,1,...nimgs},其中charsrctgtia表示第ia对原始字符图像charsrctgtia={charsrcia,chartgtia};
步骤S13:组合imgs和chars得到训练数据集trains={trainia|ia=0,1,...nimgs},其中trainia表示第ia组训练数据,trainia={imgsrcia,imgtgtia,charsrcia,chartgtia}。
所述用于场景字符图像生成的生成对抗网络,具体如下:
网络包含两个部分,一个生成器和一个判别器,生成器用于生成图像,判别器用于判定一张图像是否为满足某一条件的某种图像;
生成器的输入含有三个分支,三个分支分别通过独立的多层卷积网络提取源场景字符图像、源原始字符图像和目标原始字符图像的特征,然后将三个分支提取的特征在通道维度连接,合并的特征再通过多层卷积网络进一步融合特征,紧接着连接一个UNet结构的网络,这种结构的网络能将图像先下采样至一个较小的尺寸,再上采样恢复原来的尺寸,并在上采样的过程中和下采样提取的特征融合,最后的输出结果是生成的含有源场景字符图像风格和目标原始字符图像字符的场景字符图像,其尺寸与输入的三张图像均一致;
判别器的输入含有两个分支,一分支分别通过独立的多层卷积网络提取待判别图像和一张原始字符图像的特征,然后将两个分支提取的特征在通道维度连接,合并的特征再通过多层卷积网络进一步融合特征,紧接着连接一个马尔科夫判别器,这种判别器能够输出图像不同位置满足判别条件的概率,判别器的判别目标为当待判别图像符合场景字符图像训练集的域分布且待判别图像是输入的原始字符图像对应的字符图像时,判别结果为真,否则判别结果为假。
所述步骤S2具体为:
步骤S21:构建用于场景字符图像生成的生成对抗网络;
步骤S22:使用构建的训练数据集训练用构建的生成对抗网络,使用第ia个训练数据训练时,首先使用生成器生成场景字符图像,生成器的输入为imgsrcia、charsrcia、chartgtia,则生成的图像为fakeia
步骤S23:然后优化判别器,判别器通过三种输入优化,输入为imgsrcia和charsrcia时,判别器的优化目标为真,输入为imgsrcia和tgtsrcia时,判别器的优化目标为假,输入为fakeia和charsrcia时,判别器的优化目标为假,设判别器的前向过程可以用函数D表示,则损失Lossd可以用下式计算:
Lossd=MSELoss(D(imgsrcia,charsrcia),1)+MSELoss(D(imgsrcia,tgtsrcia),0)+MSELoss(D(fakeia,charsrcia),0)
其中,MSELoss为均方损失函数;
步骤S24:优化好判别器后优化生成器,生成器的优化目标是让判别器输入为fakeia和charsrcia时判别结果为真,且fakeia与imgtgtia尽可能相似,生成器的损失Lossg计算方法如下:
Lossg=MSELoss(D(fakeia,charsrcia),1)+L1Loss(fakeia,imgtgtia)
其中L1Loss为L1损失函数;
步骤S25:重复步骤S22至S24反复训练判别器和生成器,直到生成器能生成符合期望效果的场景字符图像为止。
所述步骤S3具体为:
步骤S31:准备一张仅含有字符的某种风格的字符图像,将其处理为尺寸为边长为的正方形,作为源场景字符图像,并制作其对应的源原始字符图像;
步骤S32:制作任意字符的原始字符图像作为目标字符图像;
步骤S33:将步骤S31中制作的源场景字符图像、源原始字符图像和步骤S32中制作的目标字符图像输入训练好的生成器中,生成的图像包含目标字符图像对应的字符,且能够迁移源场景字符图像的场景特征。

Claims (3)

1.一种迁移场景风格的字符图像生成方法,用于生成含给定场景风格的汉字字符图像,其特征在于:所述方法包括以下步骤:
步骤S1:采集场景字符图像,制作原始字符图像,构建训练数据集;
步骤S2:构建用于场景字符图像生成的生成对抗网络,并训练网络;
步骤S3:使用源场景字符图像、源原始字符图像和目标原始字符图像,生成场景字符图像;
所述步骤S1具体为:
步骤S11:收集并整理场景字符图像nimgs对,仅包含字符的源场景字符图像imgsrc和目标场景字符图像imgtgt,成对的字符图像应具有相似的场景和字体,且对应不同的字符,尺寸为边长为s的正方形,其中s为人工设定的参数,于是第ia对字符图像imgsrc和imgtgt表示为imgsrcia和imgtgtia,则nimgs对场景字符图像表示为imgs={imgsrctgtia|ia=0,1,...nimgs},其中imgsrctgtia表示第ia对场景字符图像imgsrctgtia={imgsrcia,imgtgtia};
步骤S12:选择一种字体作为原始字体,基于该字体生成黑底白字的字体图像,一幅场景字符图像对应一个字符,对应字符生成的字体图像定义为原始字符图像,生成的原始字符图像尺寸为边长为s的正方形,字符位于图像中央,于是对imgsrc制作原始字符图像得到源原始字符图像charsrc,对imgtgt制作原始字符图像得到目标原始字符图像chartgt,第ia个imgsrc制作原始字符图像得到charsrcia,第ia个imgtgt制作原始字符图像得到chartgtia,对ia=0,1,...nimgs执行操作得到nimgs对原始字符图像chars={charsrctgtia|ia=0,1,...nimgs},其中charsrctgtia表示第ia对原始字符图像,charsrctgtia={charsrcia,chartgtia};
步骤S13:组合imgs和chars得到训练数据集
trains={trainia|ia=0,1,...nimgs},其中trainia表示第ia组训练数据,trainia={imgsrcia,imgtgtia,charsrcia,chartgtia};
所述步骤S2具体为:
步骤S21:构建用于场景字符图像生成的生成对抗网络;
步骤S22:使用构建的训练数据集训练构建的生成对抗网络,使用第ia个训练数据训练时,首先使用生成器生成场景字符图像,生成器的输入为imgsrcia、charsrcia、chartgtia,则生成的图像为fakeia
步骤S23:然后优化判别器,判别器通过三种输入优化,输入为imgsrcia和charsrcia时,判别器的优化目标为真,输入为imgsrcia和chartgtia时,判别器的优化目标为假,输入为fakeia和charsrcia时,判别器的优化目标为假,设判别器的前向过程用函数D表示,则损失Lossd用下式计算:
Lossd=MSELoss(D(imgsrcia,charsrcia),1) +MSELoss(D(imgsrcia,chartgtia),0) +MSELoss(D(fakeia,charsrcia),0)
其中,MSELoss为均方损失函数;
步骤S24:优化好判别器后优化生成器,生成器的优化目标是让判别器输入为fakeia和charsrcia时判别结果为真,且fakeia与imgtgtia相似,生成器的损失Lossg计算方法如下:
Lossg=MSELoss(D(fakeia,charsrcia),1) +L1Loss(fakeia,imgtgtia)
其中L1Loss为L1损失函数;
步骤S25:重复步骤S22至S24反复训练判别器和生成器,直到生成器能生成符合期望效果的场景字符图像为止。
2.根据权利要求1所述的一种迁移场景风格的字符图像生成方法,其特征在于:所述用于场景字符图像生成的生成对抗网络,具体如下:
网络包含两个部分,一个生成器和一个判别器,生成器用于生成图像,判别器用于判定一张图像是否为满足某一条件的某种图像;
生成器的输入含有三个分支,三个分支分别通过独立的多层卷积网络提取源场景字符图像、源原始字符图像和目标原始字符图像的特征,然后将三个分支提取的特征在通道维度连接,合并的特征再通过多层卷积网络融合特征,紧接着连接一个UNet结构的网络,这种结构的网络能将图像先下采样至一个较小的尺寸,再上采样恢复原来的尺寸,并在上采样的过程中和下采样提取的特征融合,最后的输出结果是生成的含有源场景字符图像风格和目标原始字符图像字符的场景字符图像,其尺寸与输入的三张图像均一致;
判别器的输入含有两个分支,分别通过独立的多层卷积网络提取待判别图像和一张原始字符图像的特征,然后将两个分支提取的特征在通道维度连接,合并的特征再通过多层卷积网络融合特征,紧接着连接一个马尔科夫判别器,这种判别器能够输出图像不同位置满足判别条件的概率,判别器的判别目标为当待判别图像符合场景字符图像训练集的域分布且待判别图像是输入的原始字符图像对应的字符图像时,判别结果为真,否则判别结果为假。
3.根据权利要求1所述的一种迁移场景风格的字符图像生成方法,其特征在于:所述步骤S3具体为:
步骤S31:准备一张仅含有字符的某种风格的字符图像,将其处理为尺寸为边长为s的正方形,作为源场景字符图像,并制作其对应的源原始字符图像;
步骤S32:制作任意字符的原始字符图像作为目标字符图像;
步骤S33:将步骤S31中制作的源场景字符图像、源原始字符图像和步骤S32中制作的目标字符图像输入训练好的生成器中,生成的图像包含目标字符图像对应的字符,且能够迁移源场景字符图像的场景特征。
CN202011569475.4A 2020-12-26 2020-12-26 一种迁移场景风格的字符图像生成方法 Active CN112598764B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011569475.4A CN112598764B (zh) 2020-12-26 2020-12-26 一种迁移场景风格的字符图像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011569475.4A CN112598764B (zh) 2020-12-26 2020-12-26 一种迁移场景风格的字符图像生成方法

Publications (2)

Publication Number Publication Date
CN112598764A CN112598764A (zh) 2021-04-02
CN112598764B true CN112598764B (zh) 2023-02-21

Family

ID=75202274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011569475.4A Active CN112598764B (zh) 2020-12-26 2020-12-26 一种迁移场景风格的字符图像生成方法

Country Status (1)

Country Link
CN (1) CN112598764B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190722A (zh) * 2018-08-06 2019-01-11 大连民族大学 基于满文字符图片的字体风格迁移变换方法
CN112070658A (zh) * 2020-08-25 2020-12-11 西安理工大学 一种基于深度学习的汉字字体风格迁移方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3682372A4 (en) * 2017-09-14 2021-07-21 Chevron U.S.A. Inc. CLASSIFICATION OF STRINGS USING MACHINE LEARNING
CN110503598B (zh) * 2019-07-30 2022-09-16 西安理工大学 基于条件循环一致性生成对抗网络的字体风格迁移方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190722A (zh) * 2018-08-06 2019-01-11 大连民族大学 基于满文字符图片的字体风格迁移变换方法
CN112070658A (zh) * 2020-08-25 2020-12-11 西安理工大学 一种基于深度学习的汉字字体风格迁移方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
End-to-End Automatic Image Annotation Based on Deep CNN and Multi-Label Data Augmentation;Ke, X 等;《IEEE Transactions on Multimedia》;20190125;全文 *
基于深度学习的图像风格迁移;朱佳宝;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20200815;全文 *
基于生成式对抗网络的字体风格迁移方法;白海娟等;《大连民族大学学报》;20190515(第03期);全文 *

Also Published As

Publication number Publication date
CN112598764A (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
CN111260740B (zh) 一种基于生成对抗网络的文本到图像生成方法
CN107391609B (zh) 一种双向多模态递归网络的图像描述方法
CN110097094B (zh) 一种面向人物交互的多重语义融合少样本分类方法
CN111737511B (zh) 基于自适应局部概念嵌入的图像描述方法
CN111160452A (zh) 一种基于预训练语言模型的多模态网络谣言检测方法
CN113343705B (zh) 一种基于文本语义的细节保持图像生成方法及系统
CN110570481A (zh) 基于风格迁移的书法字库自动修复方法及系统
CN108197294A (zh) 一种基于深度学习的文本自动生成方法
CN111177366A (zh) 一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统
CN105631468A (zh) 一种基于rnn的图片描述自动生成方法
CN111368142B (zh) 一种基于生成对抗网络的视频密集事件描述方法
CN109360146A (zh) 基于深度卷积对抗生成网络dcgan的双光图像融合模型
CN115982350A (zh) 基于多模态Transformer的虚假新闻检测方法
CN115690522B (zh) 一种基于多池化融合通道注意力的目标检测方法及其应用
CN114419642A (zh) 一种文档图像中键值对信息的抽取方法、装置及系统
CN112785526A (zh) 一种用于图形处理的三维点云修复方法
CN117058266B (zh) 一种基于骨架和轮廓的书法字生成方法
CN115601772A (zh) 一种基于多模态学习的美学质量评价模型和方法
CN113140023A (zh) 一种基于空间注意力的文本到图像生成方法及系统
CN114329025A (zh) 基于对抗生成网络的跨模态文本到图像生成方法
CN112598764B (zh) 一种迁移场景风格的字符图像生成方法
CN110889276B (zh) 复数融合特征提取指针式抽取三元组信息的方法、系统及计算机介质
CN112163605A (zh) 一种基于生成注意力网络的多域图像翻译方法
CN116704506A (zh) 一种基于交叉环境注意力的指代图像分割方法
CN113609292B (zh) 基于图结构的已知虚假新闻智能检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant