CN113112015A - 模型训练方法、装置、电子设备及计算机可读存储介质 - Google Patents
模型训练方法、装置、电子设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113112015A CN113112015A CN202110367296.0A CN202110367296A CN113112015A CN 113112015 A CN113112015 A CN 113112015A CN 202110367296 A CN202110367296 A CN 202110367296A CN 113112015 A CN113112015 A CN 113112015A
- Authority
- CN
- China
- Prior art keywords
- model
- training
- set data
- batch
- cartoon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 325
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000001514 detection method Methods 0.000 claims abstract description 118
- 238000012795 verification Methods 0.000 claims abstract description 53
- 238000013138 pruning Methods 0.000 claims abstract description 23
- 230000008569 process Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 12
- 238000010200 validation analysis Methods 0.000 claims description 5
- 210000000887 face Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本申请提供一种模型训练方法、装置、电子设备及计算机可读存储介质。所述方法包括:获取验证集数据以及预设批次的训练集数据,其中各个批次的训练集数据之间的图像动漫风格化程度不同;利用验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型;分别利用各个批次的训练集数据,对初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。本申请通过对真实人脸识别模型进行剪枝处理,去掉了真实人脸与动漫人脸的不相关特征的参数权重,学习到偏向于动漫风格的特征参数,利用不同动漫风格化程度的训练集进行模型训练,建立了更偏向于动漫风格的特征体系,在进行动漫人脸识别时,模型能够更准确的检测出动漫人脸。
Description
技术领域
本申请涉及数据处理技术领域,尤其是涉及一种模型训练方法、装置、电子设备及计算机可读存储介质。
背景技术
现在有技术中,可以采用真实人脸检测模型对动漫人脸进行识别,而真实人脸检测模型主要用于识别真实人脸,其在识别动漫人脸时,由于两种人脸特征存在较大差异,导致识别动漫人脸的准确性较低。
发明内容
本申请实施例提供一种模型训练方法、装置、电子设备及计算机可读存储介质,以解决利用真实人脸检测模型进行动漫人脸识别的准确性较低的问题。
为了解决上述问题,本申请是这样实现的:
第一方面,本申请的实施例提供了一种模型训练方法,包括:
获取验证集数据以及预设批次的训练集数据,其中各个批次的训练集数据之间的图像动漫风格化程度不同;
利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型;
分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
可选地,获取预设批次的训练集数据,包括:
将真实人脸数据循环输入至动漫人脸生成模型进行训练,根据循环次数的不同分别获取各个批次的训练集数据。
可选地,利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型,包括:
利用所述验证集数据将所述真实人脸识别模型训练至模型收敛,获得第一模型;
利用所述验证集数据将所述真实人脸识别模型训练N次,每次训练所述验证集数据至模型收敛,获得N个第二模型,其中,在每次训练过程中随机去除每层卷积中的部分参数;
将N个所述第二模型中的目标第二模型,确定为所述初始动漫人脸检测模型;其中,在各个第二模型中,所述目标第二模型与所述第一模型的平均精度均值最相近;
其中,N为正整数。
可选地,分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型,包括:
根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
可选地,所述根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型,包括:
将图像动漫风格化程度为最低等级的第一批次的训练集数据,输入所述初始动漫人脸检测模型进行训练至收敛,获得第三模型;
利用所述验证集数据对所述第三模型进行测试;
在所述第三模型的平均精度均值大于或等于第一阈值的情况下,将第一批次之后各批次的训练集数据,按照图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛,获得所述动漫人脸检测模型。
可选地,所述根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型,还包括:
在将第一批次之后各批次的训练集数据,按照图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛的过程中,利用所述验证集数据对各批次训练集数据获得的模型进行测试;
在每个批次的训练集数据对应的模型的平均精度均值(Mean AveragePrecision,MAP)均达到(即大于或者等于)与该批次对应的目标阈值,且预设批次的所述训练集数据全部训练完成的情况下,将图像动漫风格化程度最高的训练集数据对应的模型确定为所述动漫人脸检测模型。
可选地,所述方法还包括:
在目标批次的训练集数据对应的模型的MAP小于与所述目标批次对应的目标阈值的情况下,重新获取所述目标批次的训练集数据,或者调整与所述目标批次对应的目标模型的学习率。
可选地,在所述目标模型的梯度小于第一值的情况下,重新获取所述目标批次的训练集数据;
在所述目标模型的梯度大于或者等于第一值的情况下,调整与所述目标批次对应的目标模型的学习率。
依据本申请的又一方面,提供了一种模型训练装置,包括:
第一获取模块,用于获取验证集数据以及预设批次的训练集数据,其中各个批次的训练集数据之间的图像动漫风格化程度不同;
第一处理模块,用于利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型;
第二处理模块,用于分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
依据本申请的又一方面,提供了一种电子设备,包括:收发机、处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上第一方面所述的模型训练方法的步骤。
依据本申请的再一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的模型训练方法的步骤。
本申请的实施例,通过对真实人脸识别模型进行剪枝处理,去掉了真实人脸与动漫人脸两种人脸不相关特征的参数权重,模型能够学习到偏向于动漫风格的特征参数;利用不同动漫风格化程度的训练集进行模型训练,在训练过程中建立了更偏向于动漫风格的特征体系,在进行动漫人脸识别时,模型能够更准确的检测出动漫人脸。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1表示本申请实施例的模型训练方法的流程示意图之一;
图2表示本申请实施例的原始人脸图像示意图;
图3-7表示对原始人脸图像进行动漫风格化转换后生成的动漫图像示意图;
图8表示本申请实施例的模型训练方法的流程示意图之二;
图9表示本申请实施例的模型训练装置的示意图;
图10表示本申请实施例的电子设备的结构示意图。
具体实施方式
为使本申请要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。在下面的描述中,提供诸如具体的配置和组件的特定细节仅仅是为了帮助全面理解本申请的实施例。因此,本领域技术人员应该清楚,可以对这里描述的实施例进行各种改变和修改而不脱离本申请的范围和精神。另外,为了清楚和简洁,省略了对已知功能和构造的描述。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。
在本申请的各种实施例中,应理解,下述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。另外,本文中术语“系统”和“网络”在本文中常可互换使用。
如图1所示,本申请的实施例提供了一种模型训练方法,具体包括以下步骤:
步骤101:获取验证集数据以及预设批次的训练集数据以及,其中各个批次的训练集数据之间的图像动漫风格化程度不同;
所述预设批次的训练集数据是指多组作为训练集的图像数据,其中,每组图像数据之间的图像动漫风格化程度不同。所述训练集数据可以通过现有的动漫人脸生成器获得,例如:循环生成对抗网络(Cycle Generative Adversarial Networks,Cycle GAN)。每个批次的训练集数据是由于对图像的训练次数不同生成的,所述预设批次可以根据需求设置。
所述验证集数据可以为动漫人脸图像,可以在动漫影片中收集小部分动漫人脸作为验证集。验证集数据是真实动漫作品内的人物,无比例要求,其作用是验证以该方式训练得到的模型,能否在真实作品内成功检测到动漫人脸。
步骤102:利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型。
所述真实人脸识别模型可以为现有的技术成熟的真是人脸识别模型,以所述真实人脸识别模型作为基础,进行训练后可以得到本申请实施例最终的动漫人脸检测模型。
由于真实人脸与动漫人脸在眼眉、鼻子等区域存在显著的差异,在此步骤中,可以通过剪枝的方式去掉两种人脸中不相关特征的参数权重,使剪枝处理后的模型的参数更有利于于识别动漫人脸的特征。
步骤103:分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
该实施例中,在利用各个批次的训练集数据对所述处理动漫人脸检测模型进行训练时,可以按照各个批次的训练集数据的图像动漫风格化程度等级,例如按照动漫风格化程度由低到高的顺序,依次输入所述初始动漫人脸检测模型进行模型训练,在训练后得到的模型的参数满足条件的情况下,例如模型参数达到目标阈值时,获得最终的动漫人脸检测模型。
本申请的实施例,在真实人脸检测模型中通过剪枝方式可以剪去真实人脸与动漫人脸两种人脸不相关特征的参数权重,既可极大的缩短训练时间,又能够获得更好的鲁棒性,使模型能够学习到偏向于动漫风格的特征参数;通过动漫风格化程度不同的多批次训练集数据,依次训练剪枝后的模型,多批次的数据为预先设计好的循序渐进式的数据,可以实现观测训练过程中损失值及梯度变化,从而动态调节数据批次数量,能够达到更好更快的训练收敛结果。
本申请的方法获得的模型,通过对真实人脸识别模型进行剪枝处理,去掉了真实人脸与动漫人脸两种人脸不相关特征的参数权重,使模型能够学习到偏向于动漫风格的特征参数;利用不同动漫风格化程度的训练集进行模型训练,模型训练过程中能够建立更偏向于动漫风格的特征体系,在进行动漫人脸识别时,模型能够更准确的检测出动漫人脸,提升了动漫人脸检测的准确性。
具体地,获取预设批次的训练集数据,可以包括:将真实人脸数据循环输入至动漫人脸生成模型进行训练,根据循环次数的不同分别获取各个批次的训练集数据。
该实施例中,通过动漫人脸生成模型,将真实人脸数据集进行不同次数的训练,可以获得多个批次的动漫人脸数据;所述动漫人脸数据即作为所述训练集数据;各个批次的动漫人脸数据的数量成预设比例。对于真实人脸数据集的训练次数不同,则获得的动漫人脸数据的批次不同,不同批次的动漫人脸数据即为不同批次的训练集数据。
所述动漫人脸生成模型可以基于Cycle GAN等方式训练得到,所述动漫人脸生成模型可以将输入的真实人脸转换为对应的动漫人脸。在对所述动漫人脸生成模型进行训练时,可以设置多个保存点,每保存一次得到的图像即为一个批次的图像,例如需要获得5个批次的训练集数据,则设置5个保存点。
以所述预设批次为5个批次为例,可以对动漫人脸生成器设置5个保存点,对应的训练次数可以设置为:5000、20000、50000、80000、10000。将一张真实人脸图像(如图2所示)输入至所述动漫人脸生成器,训练5000次输出转换的第一动漫图像,如图3所示,作为第一批次的训练集数据;训练20000次输出转换的第二动漫图像,如图4所示,作为第二批次的训练集数据;训练50000次输出转换的第三动漫图像,如图5所示,作为第三批次的训练集数据;训练80000次输出转换的第四动漫图像,如图6所示,作为第四批次的训练集数据;训练100000次输出转换的第五动漫图像,如图7所示,作为第五批次的训练集数据,每个批次的训练集数据作为独立训练集。
如图3~7所示,各个批次输出的图像之间的动漫风格化程度不同,表示出了由真实人脸逐步转换为动漫人脸的演化过程。5个批次的动漫数据的数量的比例可以为:10:5:3:2:1,即按该比例生成每个批次的数据,原因是模型训练初始,模型参数经过剪枝处理后,原来的真实人脸识别模型中建立的特征体系已被破坏,在前面的批次加大数据量,能够使得模型建立偏向于动漫风格的特征体系。
该实施例中,直接使用真实人脸数据作为动漫人脸数据的基础,可以通过GAN生成动漫人脸作为训练集数据,由于真实人脸存在大量公开数据集,所以无需再自主采集并标注动漫人脸数据。利用所述预设批次的训练集数据进行模型训练,模型依次在各个批次的数据上训练至收敛,按顺序依次训练的作用为:引导模型由真实人脸的特征逐步学习到动漫人脸的特征。
具体地,所述利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型,可以包括:
(1)利用所述验证集数据将所述真实人脸识别模型训练至模型收敛,获得第一模型;在该步骤中,加载所述真实人脸识别模型的全部权重,利用所述验证集数据训练至模型收敛。
(2)利用所述验证集数据将所述真实人脸识别模型训练N次,每次训练所述验证集数据至模型收敛,获得N个第二模型,其中,在每次训练过程中随机去除每层卷积中的部分参数。
可选地,可以在每次训练的过程中随机去除每层卷积参数的四分之一。在卷积每一层均存在跟多参数值,通过剪枝起吊一部分参数值,使得这些参数的值变为零。在利用验证集数据进行训练时,这些值为零的参数在多次训练的过程中学习到偏向于动漫风格的特征值,则训练形成的模型更有利于识别动漫人脸特征。
(3)将N个所述第二模型中的目标第二模型,确定为所述初始动漫人脸检测模型;其中,在各个第二模型中,所述目标第二模型与所述第一模型的平均精度均值最相近;其中,N为正整数。
将步骤(2)中的N个所述第二模型与步骤(1)中获得的第一模型进行比较,取MAP值与所述第一模型的MAP值最为相近的一个第二模型作为初始动漫人脸检测模型。
该实施例中,直接在现有成熟的真实人脸识别模型的基础权重上进行再训练微调,既可极大的缩短训练时间,又可获得更好的鲁棒性;剪枝后的模型在后续训练的过程中能够学习到偏向于动漫风格的特征值,则训练形成的模型更有利于识别动漫人脸特征。
具体地,分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型,包括:
根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
该实施例中,根据各个批次的训练集数据中的图像动漫风格化程度等级,按照图像动漫风格化程度由低到高的顺序依次利用所述预设批次的训练集数据,对所述初始动漫人脸检测模型进行训练至收敛,可以获得所述动漫人脸检测模型。
进一步地,可以将图像动漫风格化程度为最低等级的第一批次的训练集数据,输入所述初始动漫人脸检测模型进行训练至收敛,获得第三模型;利用所述验证集数据对所述第三模型进行测试;在所述第三模型的平均精度均值大于或等于第一阈值的情况下,将第一批次之后各批次的训练集数据,按照所述图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛,获得所述动漫人脸检测模型。
所述根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型,还可以包括:在将第一批次之后各批次的训练集数据,按照图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛的过程中,利用所述验证集数据对各批次训练集数据获得的模型进行测试。在每个批次的训练集数据对应的模型的MAP均达到与该批次对应的目标阈值,且预设批次的所述训练集数据全部训练完成的情况下,将图像动漫风格化程度最高的训练集数据对应的模型确定为所述动漫人脸检测模型。
该实施例中,将剪枝后得到的初始动漫人脸检测模型的作为模型训练的基础模型,其模型参数作为模型训练的初始权重,经过剪枝后得到的所述初始动漫人脸检测模型已经具备提取真实人脸和动漫人脸两种人脸共同的泛型特征的能力(例如整体脸型、五官位置等)。需要说明的是,该实施例中,所述训练集数据对应的模型是指利用该批次的训练集数据进行模型训练后获得的动漫人脸检测模型;在预设批次的训练集数据进行模型训练后可以获得与预设批次数量相同的动漫人脸检测模型,将图像动漫风格化程度最高的训练集数据对应的模型确定为最终的动漫人脸检测模型。
模型训练时,在所述初始动漫人脸检测模型依次载入所述预设批次的训练集数据进行顺序训练,其中,按照各个批次的训练集数据中的图像动漫风格化程度由低到高的顺序依次进行训练至模型收敛。在每个批次的训练集数据训练至模型收敛后,利用验证集数据对收敛后得到的模型进行测试,可以测试模型的MAP值是否达到与该批次对应的预设阈值,若确定该批次的训练集数据训练后得到的模型的MAP值达到与该批次对应的MAP的预设阈值,则进行下一批次的训练集数据的训练,将下一批次的训练集数据输入前一次训练得到的模型中,重复执行上述步骤,直至所有批次的训练集数据前部训练完成,且得到的模型的MAP值达到与该批次对应的MAP的预设阈值,最终输出的模型即为所述动漫人脸检测模型。
可选地,所述方法还包括:在目标批次的训练集数据对应的模型的MAP小于与所述目标批次对应的目标阈值的情况下,重新获取所述目标批次的训练集数据,或者调整与所述目标批次对应的目标模型的学习率。其中,在所述目标模型的梯度小于第一值的情况下,重新获取所述目标批次的训练集数据;在所述目标模型的梯度大于或者等于第一值的情况下,调整与所述目标批次对应的目标模型的学习率。
需要说明的是,每个批次的训练集数据对应的模型的学习率、最小梯度以及MAP的值的对应关系可以预先设定并存储在电子设备内。
下面结合具体实施例说明利用不同批次的所述训练集数据,分别对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型的实现过程。
如图8所示,训练开始后,加载初始动漫人脸检测模型的权重参数,按照图像动漫风格化程度由低到高的顺序重复训练某一批次的训练集数据,训练至模型收敛;测试获得的模型的MAP是否达标(是否达到与当前训练批次对应的MAP阈值);若达标,判断所有批次的训练集数据是否全部训练完成,若全部训练完成则训练结束,最终获得的模型即为所述动漫人脸检测模型;若还存在部分批次的训练集数据未训练完成,则训练图像动漫风格化程度高于当前批次的下一批次的训练集数据,重复执行测试获得的模型的MAP是否达标的步骤;若获得的模型的MAP未达标,判断当前模型的梯度是否小于第一值,若是,则重新生成该批次的训练集数据;若当前模型的梯度大于或者等于第一值,则调整当前模型的学习率(learn rate,lr),调整lr之后重复训练当前批次的训练集数据。
以所述预设批次为5个批次为例,图像动漫风格化程度最由低到高的顺序依次为:批次一、批次二、批次三、批次四、批次五。将图像动漫风格化程度最低的第一批次的训练集数据输入值所述初始动漫人脸检测模型进行训练至完全收敛,得到模型1,利用验证集数据对模型1进行测试,若所述模型1的MAP达到与第一批次对应的最低MAP值,则将第二批次的训练集数据输入模型1进行训练至完全收敛,得到模型2,利用验证集数据对模型2进行测试,若所述模型2的MAP达到与第二批次对应的最低MAP值,则将第三批次的训练集数据输入模型2进行训练至完全收敛,得到模型3,利用验证集数据对模型3进行测试,若所述模型3的MAP达到与第三批次对应的最低MAP值,则将第四批次的训练集数据输入模型3进行训练至完全收敛,得到模型4,利用验证集数据对模型4进行测试,若所述模型4的MAP达到与第四批次对应的最低MAP值,则将第五批次的训练集数据输入模型5进行训练至完全收敛,得到模型5,利用验证集数据对模型5进行测试,若所述模型5的MAP达到与第五批次对应的最低MAP值,则将所述模型5确定为所述动漫人脸检测模型。
在利用验证集数据对每个得到的模型进行测试时,若待验证的模型的MAP未达到与当前批次对应的最低MAP值,则根据收敛情况(模型的梯度大小)重新生成该批次的训练集数据或者调整学习率,以解决因数据生成质量较差,或参数配置不当导致的训练效果不佳,后续批次以此类推,直至全部批次的训练集数据训练完成。
训练过程中各批次的训练集数据的学习率和最低mAP等关键参数,可以依照如下表格进行设置:
本申请的实施例,在真实人脸检测模型中通过剪枝方式可以剪去真实人脸与动漫人脸两种人脸不相关特征的参数权重,既可极大的缩短训练时间,又能够获得更好的鲁棒性,使模型在后续的训练中能够学习到偏向于动漫风格的特征参数;通过动漫风格化程度不同的多批次训练集数据,依次训练剪枝后的模型,多批次的数据为预先设计好的循序渐进式的数据,可以实现观测训练过程中损失值及梯度变化,从而动态调节数据批次数量,能够达到更好更快的训练收敛结果。
本申请实施例的方法获得的模型,直接使用真实人脸数据,并通过GAN生成动漫人脸,由于真实人脸存在大量公开数据集,所以无需再自主采集并标注动漫人脸;可以直接在现有成熟的真实人脸检测模型的基础权重上进行再训练微调,既可极大的缩短训练时间,又可获得更好的鲁棒性;常规神经网络训练,是属于黑盒模式训练,通过随机打乱整个数据集,让神经网络进行多次学习拟合,获得预测能力,本申请实施例使用的数据集,为预先设计好的循序渐进式的数据,通过观测训练过程中损失值及梯度变化,动态调节数据批次数量,达到更好更快的训练收敛结果。
通过对真实人脸识别模型进行剪枝处理,去掉了真实人脸与动漫人脸两种人脸不相关特征的参数权重,使模型能够学习到偏向于动漫风格的特征参数;利用不同漫画风格化程度的训练集进行模型训练,模型训练过程中能够建立更偏向于动漫风格的特征体系,在进行动漫人脸识别时,模型能够更准确的检测出动漫人脸,提升了动漫人脸检测精度。
如图9所示,本申请实施例还提供一种模型训练装置,包括:
第一获取模块900,用于获取验证集数据以及预设批次的训练集数据,其中各个批次的训练集数据之间的图像动漫风格化程度不同;
第一处理模块910,用于利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型;
第二处理模块920,用于分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
可选地,所述第一获取模块900具体用于:
将真实人脸数据循环输入至动漫人脸生成模型进行训练,根据循环次数的不同分别获取各个批次的训练集数据。
可选地,所述第一处理模块910包括:
第一处理单元,用于利用所述验证集数据将所述真实人脸识别模型训练至模型收敛,获得第一模型;
第二处理单元,用于利用所述验证集数据将所述真实人脸识别模型训练N次,每次训练所述验证集数据至模型收敛,获得N个第二模型,其中,在每次训练过程中随机去除每层卷积中的部分参数;
第一确定单元,用于将N个所述第二模型中的目标第二模型,确定为所述初始动漫人脸检测模型;其中,在各个第二模型中,所述目标第二模型与所述第一模型的平均精度均值最相近;
其中,N为正整数。
可选地,所述第二处理模块920包括:
第三处理单元,用于根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
可选地,所述第三处理单元用于:
将图像动漫风格化程度为最低等级的第一批次的训练集数据,输入所述初始动漫人脸检测模型进行训练至收敛,获得第三模型;
利用所述验证集数据对所述第三模型进行测试;
在所述第三模型的平均精度均值大于或等于第一阈值的情况下,将第一批次之后各批次的训练集数据,按照图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛,获得所述动漫人脸检测模型。
可选地,所述第三处理单元还用于:
在将第一批次之后各批次的训练集数据,按照图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛的过程中,利用所述验证集数据对各批次训练集数据获得的模型进行测试;
在每个批次的训练集数据对应的模型的MAP均达到与该批次对应的目标阈值,且预设批次的所述训练集数据全部训练完成的情况下,将图像动漫风格化程度最高的训练集数据对应的模型确定为所述动漫人脸检测模型。
可选地,所述装置还包括:
第三处理模块,用于在目标批次的训练集数据对应的模型的MAP小于与所述目标批次对应的目标阈值的情况下,重新获取所述目标批次的训练集数据,或者调整与所述目标批次对应的目标模型的学习率。
可选地,在所述目标模型的梯度小于第一值的情况下,重新获取所述目标批次的训练集数据;
在所述目标模型的梯度大于或者等于第一值的情况下,调整与所述目标批次对应的目标模型的学习率。
本申请的实施例,通过对真实人脸识别模型进行剪枝处理,去掉了真实人脸与动漫人脸两种人脸不相关特征的参数权重模型能够学习到偏向于动漫风格的特征参数,模型在后续的训练中能够学习到偏向于动漫风格的特征参数;利用不同动漫风格化程度的训练集进行模型训练,在训练过程中建立了更偏向于动漫风格的特征体系,在进行动漫人脸识别时,模型能够更准确的检测出动漫人脸,提升了动漫人脸检测精度。
需要说明的是,该装置的实施例是与上述模型训练方法的实施例对应,上述方法实施例中所有实现方式均适用于该装置的实施例中,也能达到相同的技术效果。由于方法实施例和该装置的实施例是基于同一申请构思的,解决问题的原理相似,因此可以相互参见,重复之处不再赘述。
如图10所示,本申请实施例还提供一种电子设备,包括:收发机1001、处理器1002、存储器1003及存储在存储器1003上并可在处理器1002上运行的计算机程序,计算机程序被所述处理器执行时实现如前述的模型训练方法的步骤。具体的,处理器1002用于:
获取验证集数据以及预设批次的训练集数据,其中各个批次的训练集数据之间的图像动漫风格化程度不同;
利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型;
分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
可选地,所述处理器1002在获取预设批次的训练集数据时,具体用于:
将真实人脸数据循环输入至动漫人脸生成模型进行训练,根据循环次数的不同分别获取各个批次的训练集数据。
可选地,所述处理器1002在利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型时,具体用于:
利用所述验证集数据将所述真实人脸识别模型训练至模型收敛,获得第一模型;
利用所述验证集数据将所述真实人脸识别模型训练N次,每次训练所述验证集数据至模型收敛,获得N个第二模型,其中,在每次训练过程中随机去除每层卷积中的部分参数;
将N个所述第二模型中的目标第二模型,确定为所述初始动漫人脸检测模型;其中,在各个第二模型中,所述目标第二模型与所述第一模型的平均精度均值最相近;
其中,N为正整数。
可选地,所述处理器1002分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型时,具体用于:
根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
可选地,所述处理器1002根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型时,具体用于:
将图像动漫风格化程度为最低等级的第一批次的训练集数据,输入所述初始动漫人脸检测模型进行训练至收敛,获得第三模型;
利用所述验证集数据对所述第三模型进行测试;
在所述第三模型的平均精度均值大于或等于第一阈值的情况下,将第一批次之后各批次的训练集数据,按照图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛,获得所述动漫人脸检测模型。
可选地,所述处理器1002还用于:
在将第一批次之后各批次的训练集数据,按照图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛的过程中,利用所述验证集数据对各批次训练集数据获得的模型进行测试;
在每个批次的训练集数据对应的模型的MAP均达到与该批次对应的目标阈值,且预设批次的所述训练集数据全部训练完成的情况下,将图像动漫风格化程度最高的训练集数据对应的模型确定为所述动漫人脸检测模型。
可选地,所述处理器1002还用于:在目标批次的训练集数据对应的模型的MAP小于与所述目标批次对应的目标阈值的情况下,重新获取所述目标批次的训练集数据,或者调整与所述目标批次对应的目标模型的学习率。
可选地,在所述目标模型的梯度小于第一值的情况下,重新获取所述目标批次的训练集数据;
在所述目标模型的梯度大于或者等于第一值的情况下,调整与所述目标批次对应的目标模型的学习率。
本申请的实施例,通过对真实人脸识别模型进行剪枝处理,去掉了真实人脸与动漫人脸两种人脸不相关特征的参数权重模型能够学习到偏向于动漫风格的特征参数,模型在后续的训练中能够学习到偏向于动漫风格的特征参数;利用不同动漫风格化程度的训练集进行模型训练,在训练过程中建立了更偏向于动漫风格的特征体系,在进行动漫人脸识别时,模型能够更准确的检测出动漫人脸,提升了动漫人脸检测精度。
其中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器1002代表的一个或多个处理器1002和存储器1003代表的存储器1003的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发机1001可以是多个元件,即包括发送机和收发机,提供用于在传输介质上与各种其他装置通信的单元。处理器1002负责管理总线架构和通常的处理,存储器1003可以存储处理器在执行操作时所使用的数据。
需要说明的是,该电子设备的实施例是与上述模型训练方法的实施例对应,上述方法实施例中所有实现方式均适用于该电子设备的实施例中,也能达到相同的技术效果。由于方法实施例和该装置的实施例是基于同一申请构思的,解决问题的原理相似,因此可以相互参见,重复之处不再赘述。
本领域技术人员可以理解,实现上述实施例的全部或者部分步骤可以通过硬件来完成,也可以通过计算机程序来指示相关的硬件来完成,所述计算机程序包括执行上述方法的部分或者全部步骤的指令;且该计算机程序可以存储于一可读存储介质中,存储介质可以是任何形式的存储介质。
另外,本发明具体实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的模型训练方法中的步骤。且能达到相同的技术效果,为避免重复,这里不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理包括,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述收发方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述的是本发明的优选实施方式,应当指出对于本技术领域的普通人员来说,在不脱离本发明所述的原理前提下还可以作出若干改进和润饰,这些改进和润饰也在本发明的保护范围内。
Claims (11)
1.一种模型训练方法,其特征在于,包括:
获取验证集数据以及预设批次的训练集数据,其中各个批次的训练集数据之间的图像动漫风格化程度不同;
利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型;
分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
2.根据权利要求1所述的方法,其特征在于,获取预设批次的训练集数据,包括:
将真实人脸数据循环输入至动漫人脸生成模型进行训练,根据循环次数的不同分别获取各个批次的训练集数据。
3.根据权利要求1所述的方法,其特征在于,所述利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型,包括:
利用所述验证集数据将所述真实人脸识别模型训练至模型收敛,获得第一模型;
利用所述验证集数据将所述真实人脸识别模型训练N次,每次训练所述验证集数据至模型收敛,获得N个第二模型,其中,在每次训练过程中随机去除每层卷积中的部分参数;
将N个所述第二模型中的目标第二模型,确定为所述初始动漫人脸检测模型;其中,在各个第二模型中,所述目标第二模型与所述第一模型的平均精度均值最相近;
其中,N为正整数。
4.根据权利要求1所述的方法,其特征在于,分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型,包括:
根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
5.根据权利要求4所述的方法,其特征在于,所述根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型,包括:
将图像动漫风格化程度为最低等级的第一批次的训练集数据,输入所述初始动漫人脸检测模型进行训练至收敛,获得第三模型;
利用所述验证集数据对所述第三模型进行测试;
在所述第三模型的平均精度均值大于或等于第一阈值的情况下,将第一批次之后各批次的训练集数据,按照图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛,获得所述动漫人脸检测模型。
6.根据权利要求5所述的方法,其特征在于,所述根据图像动漫风格化程度由低到高的顺序,依次利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型,还包括:
在将第一批次之后各批次的训练集数据,按照图像动漫风格化程度由低到高的顺序,依次输入前一批次的训练集数据对应的动漫人脸检测模型中训练至收敛的过程中,利用所述验证集数据对各批次训练集数据获得的模型进行测试;
在每个批次的训练集数据对应的模型的MAP均达到与该批次对应的目标阈值,且预设批次的所述训练集数据全部训练完成的情况下,将图像动漫风格化程度最高的训练集数据对应的模型确定为所述动漫人脸检测模型。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
在目标批次的训练集数据对应的模型的MAP小于与所述目标批次对应的目标阈值的情况下,重新获取所述目标批次的训练集数据,或者调整与所述目标批次对应的目标模型的学习率。
8.根据权利要求7所述的方法,其特征在于,在所述目标模型的梯度小于第一值的情况下,重新获取所述目标批次的训练集数据;
在所述目标模型的梯度大于或者等于第一值的情况下,调整与所述目标批次对应的目标模型的学习率。
9.一种模型训练装置,其特征在于,包括:
第一获取模块,用于获取验证集数据以及预设批次的训练集数据,其中各个批次的训练集数据之间的图像动漫风格化程度不同;
第一处理模块,用于利用所述验证集数据对真实人脸识别模型进行剪枝处理,获得初始动漫人脸检测模型;
第二处理模块,用于分别利用各个批次的所述训练集数据,对所述初始动漫人脸检测模型进行训练,获得动漫人脸检测模型。
10.一种电子设备,其特征在于,包括:收发机、处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的模型训练方法的步骤。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的模型训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110367296.0A CN113112015B (zh) | 2021-04-06 | 2021-04-06 | 模型训练方法、装置、电子设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110367296.0A CN113112015B (zh) | 2021-04-06 | 2021-04-06 | 模型训练方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113112015A true CN113112015A (zh) | 2021-07-13 |
CN113112015B CN113112015B (zh) | 2023-10-20 |
Family
ID=76714087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110367296.0A Active CN113112015B (zh) | 2021-04-06 | 2021-04-06 | 模型训练方法、装置、电子设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113112015B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106557783A (zh) * | 2016-11-21 | 2017-04-05 | 厦门优莱柏网络科技有限公司 | 一种漫画主要角色的自动提取系统及方法 |
CN107220273A (zh) * | 2017-04-07 | 2017-09-29 | 广东省科技基础条件平台中心 | 一种动漫人物人脸搜索方法 |
CN109034056A (zh) * | 2018-07-24 | 2018-12-18 | 合肥爱玩动漫有限公司 | 一种用于动漫设计的面部识别系统 |
US20190122411A1 (en) * | 2016-06-23 | 2019-04-25 | LoomAi, Inc. | Systems and Methods for Generating Computer Ready Animation Models of a Human Head from Captured Data Images |
CN111079549A (zh) * | 2019-11-22 | 2020-04-28 | 杭州电子科技大学 | 一种利用门控融合判别特征进行漫画人脸识别的方法 |
CN111832498A (zh) * | 2020-07-17 | 2020-10-27 | 西安电子科技大学 | 基于卷积神经网络的漫画人脸识别方法 |
CN112258387A (zh) * | 2020-10-30 | 2021-01-22 | 北京航空航天大学 | 一种基于人脸照片生成漫画人像的图像转换系统及方法 |
CN112381073A (zh) * | 2021-01-12 | 2021-02-19 | 上海齐感电子信息科技有限公司 | 基于ai人脸检测的iq调整方法及调整模块 |
CN112561786A (zh) * | 2020-12-22 | 2021-03-26 | 作业帮教育科技(北京)有限公司 | 基于图像卡通化的在线直播方法、装置和电子设备 |
-
2021
- 2021-04-06 CN CN202110367296.0A patent/CN113112015B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190122411A1 (en) * | 2016-06-23 | 2019-04-25 | LoomAi, Inc. | Systems and Methods for Generating Computer Ready Animation Models of a Human Head from Captured Data Images |
CN106557783A (zh) * | 2016-11-21 | 2017-04-05 | 厦门优莱柏网络科技有限公司 | 一种漫画主要角色的自动提取系统及方法 |
CN107220273A (zh) * | 2017-04-07 | 2017-09-29 | 广东省科技基础条件平台中心 | 一种动漫人物人脸搜索方法 |
CN109034056A (zh) * | 2018-07-24 | 2018-12-18 | 合肥爱玩动漫有限公司 | 一种用于动漫设计的面部识别系统 |
CN111079549A (zh) * | 2019-11-22 | 2020-04-28 | 杭州电子科技大学 | 一种利用门控融合判别特征进行漫画人脸识别的方法 |
CN111832498A (zh) * | 2020-07-17 | 2020-10-27 | 西安电子科技大学 | 基于卷积神经网络的漫画人脸识别方法 |
CN112258387A (zh) * | 2020-10-30 | 2021-01-22 | 北京航空航天大学 | 一种基于人脸照片生成漫画人像的图像转换系统及方法 |
CN112561786A (zh) * | 2020-12-22 | 2021-03-26 | 作业帮教育科技(北京)有限公司 | 基于图像卡通化的在线直播方法、装置和电子设备 |
CN112381073A (zh) * | 2021-01-12 | 2021-02-19 | 上海齐感电子信息科技有限公司 | 基于ai人脸检测的iq调整方法及调整模块 |
Non-Patent Citations (3)
Title |
---|
PUSHKAR SHUKLA ET AL: "CARTOONNET: Caricature Recognition of Public Figures" * |
伍菲;: "结合人脸表情和变形技术的人脸卡通动画系统设计与实现" * |
黄菲;高飞;朱静洁;戴玲娜;俞俊;: "基于生成对抗网络的异质人脸图像合成:进展与挑战" * |
Also Published As
Publication number | Publication date |
---|---|
CN113112015B (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107423700B (zh) | 人证核实的方法及装置 | |
CN111539467A (zh) | 基于生成对抗网络为医疗影像数据集做数据增广的gan网络架构及方法 | |
CN112115267A (zh) | 文本分类模型的训练方法、装置、设备及存储介质 | |
JP2023523029A (ja) | 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体 | |
CN112990302B (zh) | 基于文本生成图像的模型训练方法、设备和图像生成方法 | |
CN113837229B (zh) | 一种知识驱动型的文本到图像生成方法 | |
CN110390107A (zh) | 基于人工智能的下文关系检测方法、装置及计算机设备 | |
CN112819689B (zh) | 人脸属性编辑模型的训练方法、人脸属性编辑方法及设备 | |
CN110414586A (zh) | 基于深度学习的防伪标签验伪方法、装置、设备及介质 | |
CN111027292A (zh) | 一种限定采样文本序列生成方法及其系统 | |
CN117577117B (zh) | 正交化低秩适应矩阵的语音检测模型的训练方法及装置 | |
CN115238804A (zh) | 基于生成对抗网络的点焊数据填补方法、装置及存储介质 | |
CN112199976A (zh) | 证件图片生成方法及装置 | |
CN110866609B (zh) | 解释信息获取方法、装置、服务器和存储介质 | |
CN113112015A (zh) | 模型训练方法、装置、电子设备及计算机可读存储介质 | |
CN114387524B (zh) | 基于多层级二阶表征的小样本学习的图像识别方法和系统 | |
CN109447240B (zh) | 图形图像复制模型的训练方法、存储介质及计算设备 | |
CN113516583B (zh) | 基于生成对抗网络的甲骨文单字风格迁移方法及装置 | |
CN116263972A (zh) | 基于量子生成对抗网络的图像生成方法及装置 | |
CN112529772B (zh) | 一种零样本设置下的无监督图像转换方法 | |
CN116303559B (zh) | 表格问答的控制方法、系统及存储介质 | |
CN113723437B (zh) | 一种ai模型的自动化训练方法及ai模型训练系统 | |
CN114972661B (zh) | 人脸模型构建方法、人脸图像生成方法、设备及存储介质 | |
CN111598185B (zh) | 一种基于深度学习的训练数据平衡方法、设备和系统 | |
CN118486412B (zh) | 一种多模型联合的元表面设计方法、系统及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |