CN112329735B - 人脸识别模型的训练方法及在线教育系统 - Google Patents

人脸识别模型的训练方法及在线教育系统 Download PDF

Info

Publication number
CN112329735B
CN112329735B CN202011380421.3A CN202011380421A CN112329735B CN 112329735 B CN112329735 B CN 112329735B CN 202011380421 A CN202011380421 A CN 202011380421A CN 112329735 B CN112329735 B CN 112329735B
Authority
CN
China
Prior art keywords
feature
loss function
sampling
convolution
supervised
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011380421.3A
Other languages
English (en)
Other versions
CN112329735A (zh
Inventor
姜培生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Ocean Network Technology Co ltd
Original Assignee
Shenzhen Ocean Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Ocean Network Technology Co ltd filed Critical Shenzhen Ocean Network Technology Co ltd
Priority to CN202011380421.3A priority Critical patent/CN112329735B/zh
Publication of CN112329735A publication Critical patent/CN112329735A/zh
Application granted granted Critical
Publication of CN112329735B publication Critical patent/CN112329735B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Abstract

本发明公开了一种人脸识别模型的训练方法及在线教育系统,所述人脸识别模型包括卷积结构和监督结构,通过引入自编码结构后,可以使用无监督学习,无监督学习训练时是不需要对样本进行标注的,所以可以大量引入无标注数据,减少标注的数据量,提高输入的数据量。同时由于自编码结构对卷积结构中输出的特征进行了学习,反向传递时提升了特征向量(人脸识别模型最后输出的特征向量)的可区分性,提升了人脸识别模型对于相似但不相同的人脸的区分能力,该人脸识别模型可以大大提升人脸识别的精准度。

Description

人脸识别模型的训练方法及在线教育系统
技术领域
本发明涉及计算机技术领域,具体而言涉及一种人脸识别模型的训练方法及在线教育系统。
背景技术
随着科技的进步和时代的变化,人脸识别技术广泛应用于金融、教育等领域,例如金融支付中的刷脸支付,在线教育中的身份识别等等。
现有,基于机器学习的人脸识别方案都需要进行大量的数据标注,目前模型的泛化能力很大一部分取决于模型训练使用的数据,一般更大的数据量可以让模型学到更多的人脸隐形特征,从而提高模型的泛化能力,数据越多,模型学到的人脸特征就越多,在用人脸识别时使用更多的人脸特征如眼睛大小,眉毛深浅,通孔间距等比使用单一的特征更具备分辩能力,从而模型的识别能力更高。但是标注数据是一件非常耗时耗力的干工作,对于一些人力缺乏的单位很难用比较大的数据集来训练人脸识别模型。
为此,一种通过少量的标注数据就可以有很高的人脸识别精度的人脸识别方法是人们所亟需的。
发明内容
本发明的目的在于提供了一种人脸识别模型的训练方法及在线教育系统,用以解决现有技术中存在的上述技术问题。
本发明实施例提供了一种人脸识别模型的训练方法,所述人脸识别模型包括卷积结构和监督结构;所述方法包括:
获得所述训练样本,所述训练样本包括已标注的人脸图像和未标注的人脸图像;
通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集;通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集;卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习,卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习采用的损失函数是无监督损失函数;
所述监督结构基于所述下采样特征集进行有监督学习,监督结构基于所述下采样特征集进行有监督学习采用的损失函数是第一有监督损失函数;
当无监督损失函数收敛时,确定卷积结构进行下采样操作的输出为再训练有监督特征;
所述监督结构基于所述再训练有监督特征进行有监督学习,监督结构基于所述再训练有监督特征进行有监督学习采用的损失函数是第二有监督损失函数;第二有监督损失函数等于收敛的第一有监督损失函数与收敛的无监督损失函数的加权求和;
当第二有监督损失函数收敛,确定所述人脸识别模型的损失函数为所述第二有监督损失函数与所述无监督损失函数之和。
可选的,所述第一有监督损失函数采用的是InsightFaceLoss函数。
可选的,所述无监督损失函数是基于SmothL1Loss函数得到的。
可选的,所述卷积结构是一个自编码结构。
可选的,所述监督结构是一个全连接层。
本发明实施例还提供了一种在线教育系统,所述系统包括:
人脸采集模块,用于采集用户的人脸图像,将所述人脸图像发送至人脸识别模块;
人脸识别模块,用于根据人脸图像识别出用户的身份信息,将用户的身份信息发送至课程解锁模块;
课程解锁模块,用于根据用户的身份信息判断用户是否是得到许可的用户,若确定用户是得到许可的用户,解锁指定的课程,将所述课程发送给所述用户。
可选的,所述根据人脸图像识别出用户的身份信息,包括:
将人脸图像输入预先训练好的人脸识别模型中,人脸识别模型输出人脸特征向量;
跟进所述人脸特征向量,识别所述用户的身份信息。
可选的,所述人脸识别模型包括卷积结构和监督结构;所述人脸识别模型的训练方法包括:
获得所述训练样本,所述训练样本包括已标注的人脸图像和未标注的人脸图像;
通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集;通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集;卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习,卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习采用的损失函数是无监督损失函数;
所述监督结构基于所述下采样特征集进行有监督学习,监督结构基于所述下采样特征集进行有监督学习采用的损失函数是第一有监督损失函数;
当无监督损失函数收敛时,确定卷积结构进行下采样操作的输出为再训练有监督特征;
所述监督结构基于所述再训练有监督特征进行有监督学习,监督结构基于所述再训练有监督特征进行有监督学习采用的损失函数是第二有监督损失函数;第二有监督损失函数等于收敛的第一有监督损失函数与收敛的无监督损失函数的加权求和;
当第二有监督损失函数收敛,确定所述人脸识别模型的损失函数为所述第二有监督损失函数与所述无监督损失函数之和。
可选的,所述第一有监督损失函数采用的是InsightFaceLoss函数。
可选的,所述无监督损失函数是基于SmothL1Loss函数得到的。
相较于现有技术,本发明实施例达到的有益效果是:
本发明实施例提供了一种人脸识别模型的训练方法及在线教育系统,所述人脸识别模型包括卷积结构和监督结构;所述方法包括:获得所述训练样本,所述训练样本包括已标注的人脸图像和未标注的人脸图像;
通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集;通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集;卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习,卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习采用的损失函数是无监督损失函数;所述监督结构基于所述下采样特征集进行有监督学习,监督结构基于所述下采样特征集进行有监督学习采用的损失函数是第一有监督损失函数;当无监督损失函数收敛时,确定卷积结构进行下采样操作的输出为再训练有监督特征;所述监督结构基于所述再训练有监督特征进行有监督学习,监督结构基于所述再训练有监督特征进行有监督学习采用的损失函数是第二有监督损失函数;第二有监督损失函数等于收敛的第一有监督损失函数与收敛的无监督损失函数的加权求和;当第二有监督损失函数收敛,确定所述人脸识别模型的损失函数为所述第二有监督损失函数与所述无监督损失函数之和。其中,卷积结构是一个自编码结构,引入自编码结构后,可以使用无监督学习,无监督学习训练时是不需要对样本进行标注的,所以可以大量引入无标注数据,减少标注的数据量,提高输入的数据量。同时由于自编码结构对卷积结构中输出的特征进行了学习,反向传递时提升了特征向量(人脸识别模型最后输出的特征向量)的可区分性,提升了人脸识别模型对于相似但不相同的人脸的区分能力,该人脸识别模型可以大大提升人脸识别1:N的精准度,N是一个大于2的正整数。
另外,模型增加自编码结构,自编码结构在训练时无需标注样本X的类别信息,自编码结构根据输入数据,对输入数据(人脸图像)进行压缩,得到压缩后的特征向量(Embedding),即原数据的精髓。如果该部分用在人脸识别模型中,那么该特征向量就能代替人脸的特征提取结果,但是为了让模型对同一个人脸得到的特征向量的余弦距离(Cos距离)更近,不同人脸的Cos距离更远,增加了有监督模块,采用损失函数Loss1,Loss1可以是Angular-Softmax Loss函数。对于有标注的样本(有标注的人脸图像)在使用Loss1训练时可以让网络主分支(卷积结构,BackBone)尽可能的让类内特征向量更近,类外特征向量更远 ,而无标注的样本在自编码时可以让主分支(BackBone)得到的特征向量更接近原始数据,两者相互促进从而让提取的特征向量更具有区分能力。从而提高了人脸识别的准确性。
附图说明
图1是本发明实施例提供的一种人脸识别模型的训练方法的流程图。
图2是本发明实施例提供的一种人脸识别模型的结构示意图。
图3是本发明实施例提供的一种电子设备的方框结构示意图。
具体实施方式
下面结合附图,对本发明作详细的说明。
实施例
本发明实施例提供了一种人脸识别模型的训练方法,应用于在线教育系统、金融系统、人机交互机器人,所述人脸识别模型包括卷积结构和监督结构。如图1所示,所述方法包括:
S101:获得所述训练样本,所述训练样本包括已标注的人脸图像和未标注的人脸图像。
S102:通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集;通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集;卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习,卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习采用的损失函数是无监督损失函数。
需要说明的时,所述卷积结构是一个自编码结构,所述监督结构是一个全连接层。在本发明实施例中,自编码结构包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层。
下采样特征集包括多个下采样特征,具体包括第一下采样特征、第二下采样特征和第三下采样特征。通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集具体为:
将所述训练样本输入第一卷积层,第一卷积层对训练样本进行下采样特征提取,得到第一下采样特征;第二卷积层对第一下采样特征进行下采样特征提取,得到第二下采样特征;第三卷积层对第二下采样特征进行下采样特征提取,得到第三下采样特征。
上采样特征集包括第一上采样特征、第二上采样特征和第三上采样特征。通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集,具体为:
第四卷积层对未标注的人脸图像对应的下采样特征进行上采样特征提取,得到第一上采样特征;第五卷积层对第一上采样特征进行上采样特征提取,得到第二上采样特征;第六卷积层对第二上采样特征进行上采样特征提取,得到第三上采样特征。
卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习,具体为:通过第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习,第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习采用的损失函数采用的是无监督损失函数,具体的:第四卷积层对未标注的人脸图像对应的第三下采样特征进行上采样特征提取,得到第一上采样特征;第五卷积层对第一上采样特征进行上采样特征提取,得到第二上采样特征;第六卷积层对第二上采样特征进行上采样特征提取,得到第三上采样特征;通过第一损失函数控制第三下采样特征和第一上采样特征;通过第二损失函数控制第二下采样特征和第二上采样特征;通过第三损失函数控制第一下采样特征和第三上采样特征;若第一损失函数、第二损失函数和第三损失函数均收敛,确定第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习结束。
可选的,收敛的无监督损失函数等于收敛的第一损失函数、第二损失函数和第三损失函数之和,即:LossB= Loss2 + Loss3+ Loss4,其中, Loss2 、 Loss3、Loss4分别为第一损失函数、第二损失函数和第三损失函数,LossB为收敛的无监督损失函数。
S103:所述监督结构基于所述下采样特征集进行有监督学习,监督结构基于所述下采样特征集进行有监督学习采用的损失函数是第一有监督损失函数。
所述监督结构基于所述下采样特征集进行有监督学习具体为:所述全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习,全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习时的损失函数采用的是第一有监督损失函数。
当全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习结束,以及第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习结束时,确定人脸识别模型训练结束,人脸识别模型的损失函数如下公式确定:
Loss = γ*Loss1+ (1-γ)*lossB;
其中,Loss为人脸识别模型的损失函数,Loss1为收敛的第一有监督损失函数;lossB为收敛的无监督损失函数,γ为控制指数,γ∈(0.5, 1)。
可选的,当第一有监督损失函数收敛时,全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习结束;当无监督损失函数收敛时,第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习结束。
S104:当无监督损失函数收敛时,确定卷积结构进行下采样操作的输出为再训练有监督特征。
S105:所述监督结构基于所述再训练有监督特征进行有监督学习,监督结构基于所述再训练有监督特征进行有监督学习采用的损失函数是第二有监督损失函数;第二有监督损失函数等于收敛的第一有监督损失函数与收敛的无监督损失函数的加权求和。
具体的,当第一损失函数、第二损失函数和第三损失函数均收敛时,确定第三卷积层针对已标注的人脸图像对应的输出为再训练有监督特征;所述人脸识别模型的训练方法还包括:
在第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习结束后,所述全连接层对再训练有监督特征进行有监督学习,所述全连接层对再训练有监督特征进行有监督学习采用的是第二有监督损失函数,第二有监督损失函数等于第一有监督损失函数、第一损失函数、第二损失函数和第三损失函数的加权求和,具体按照如下公式计算得到:
Loss1A = λ*Loss1 + (1-λ)/3*Loss2 + (1-λ)/3*Loss3 + (1-λ)/3*Loss4;
其中,Loss1A表示第二有监督损失函数,λ是加权指数,λ∈(0.5, 1)。
S106:当第二有监督损失函数收敛,确定所述人脸识别模型的损失函数为所述第二有监督损失函数与所述无监督损失函数之和。
具体的,当全连接层基于第二有监督损失函数对再训练有监督样本进行有监督学习结束后,人脸识别模型的损失函数如下公式确定:
Loss = γ*Loss1A+ (1-γ)*lossB。
需要说明的是,所述第一有监督损失函数采用的是InsightFaceLoss函数或者Angular-Softmax Loss函数。所述无监督损失函数是基于SmothL1Loss函数得到的。
如此,用很少的标注数据加上未标注的数据来同时训练,从而提高模型的识别精度,引入自编码结构后,可以使用无监督学习,无监督学习训练时是不需要对样本进行标注的,所以可以大量引入无标注数据,减少标注的数据量。
其中,Loss1是常用的Angular-Softmax Loss函数或者InsightFaceLoss函数。Loss2、Loss3、Loss4使用的是 SmothL1Loss。如图2所示,Loss2用于控制CNN3和CNN4(第三卷积层和第四卷积层)的特征图的值(第三下采样特征和第一上采样特征)一致,从而保证embedding特征能正确表达该图像的特征数据。即:
人脸识别模型是一个深度神经网络(Pytorch/Tensorflow),其网络结构为图2所示的结构。首先对图像数据(人脸图像或者训练样本)进行下采样提取特征得到 embedding特征,然后分支1使用FC全连接进行有监督学习,使用的损失函数是Loss1,具体是使用Angular-Softmax Loss函数。另外通过分支2使用上采样特征提取,每次上采用的特征大小与Pytorch/Tensorflow 的backbone下采样的特征大小一致,基于此特征设计Loss2,Loss3,Loss4,目前使用的是 SmothL1Loss,该Loss2、Loss3、Loss4用于控制生成的特征Embedding能够解码到CNN6与CNN1特征图的值一致,具体的Loss2用于控制生成的特征Embedding能够解码到CNN3与CNN4特征图的值一致,Loss3用于控制生成的特征Embedding能够解码到CNN2与CNN5特征图的值一致,Loss4用于控制生成的特征Embedding能够解码到CNN6与CNN1特征图的值一致。从而保证embedding特征能正确表达该图像的特征数据(CNN1,CNN2,CNN3为该人脸图像的特征图数据)。
在训练的时候,训练样本包括已标注的数据(已标注的人脸图像)和未标注的数据(未标注的人脸图像)。
对于已标注的数据损失函数为 LossA = λ*Loss1 + (1-λ)/3*Loss2 + (1-λ)/3*Loss3 + (1-λ)/3*Loss4 对于未标注的样本数据 LossB= Loss2 + Loss3 + Loss4 λ∈(0.5, 1) (Loss2,Loss3,Loss4就是无监督学习,自编码结构用的Loss)。
对于整个人脸识别模型的素食函数为: Loss = γ*Loss1A+ (1-γ)*lossB, γ∈(0.5, 1) 。
一般已标注属于和为标注数据可以设置为1:1,当增加未标注数据时可以适当增大 λ和γ的值用于训练中的平衡。
训练整体模型架构,获得特征提取模型backbone。
通过采用上述方案,采用了基本的基于交叉熵损失改进的Angular-Softmax Loss函数,而且引入了无监督学习的自编码结构,由于无监督学习的自编码结构无需对数据进行标注,所以可以大大减少数据标注,提高输入的数据量。同时由于自编码结构对backbone上面的特征进行了学习,反向传递时提升了embedding特征的可区分性,提升了模型对于相似但不相同人脸的区分能力,该结构可以大大提升人脸识别1:N的精准度。Angular-Softmax Loss函数能够提升识别精度。N是一个大于2的正整数。
另外,对于自编码结构:模型增加自编码结构,自编码结构在训练时无需标注样本的类别信息,自编码结构根据输入,对输入进行压缩,得到压缩后的特征向量(Embedding),即原数据的精髓。如果该部分用在人脸识别模型中,那么该特征向量就能代替人脸的特征提取结果,但是为了让模型对同一个人脸得到的特征向量余弦距离(Cos距离)更近,不同人脸的Cos距离更远,我们增加了有监督模块Loss1。有标注的样本在使用Loss1训练时可以让网络主分支(BackBone)尽可能的让类内特征向量更近,类外特征向量更远 ,而无标注的样本在自编码时可以让主分支(BackBone)得到的特征向量更接近原始数据,两者相互促进从而让提取的特征向量更具有区分能力。
本发明实施例还提供了一种在线教育系统,所述系统包括:
人脸采集模块,用于采集用户的人脸图像,将所述人脸图像发送至人脸识别模块;
人脸识别模块,用于根据人脸图像识别出用户的身份信息,将用户的身份信息发送至课程解锁模块;
课程解锁模块,用于根据用户的身份信息判断用户是否是得到许可的用户,若确定用户是得到许可的用户,解锁指定的课程,将所述课程发送给所述用户。
可选的,所述根据人脸图像识别出用户的身份信息,包括:
将人脸图像输入预先训练好的人脸识别模型中,人脸识别模型输出人脸特征向量;
跟进所述人脸特征向量,识别所述用户的身份信息。
可选的,所述人脸识别模型包括卷积结构和监督结构;所述人脸识别模型的训练方法包括:
获得所述训练样本,所述训练样本包括已标注的人脸图像和未标注的人脸图像;
通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集;通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集;卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习,卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习采用的损失函数是无监督损失函数;
所述监督结构基于所述下采样特征集进行有监督学习,监督结构基于所述下采样特征集进行有监督学习采用的损失函数是第一有监督损失函数;
当无监督损失函数收敛时,确定卷积结构进行下采样操作的输出为再训练有监督特征;
所述监督结构基于所述再训练有监督特征进行有监督学习,监督结构基于所述再训练有监督特征进行有监督学习采用的损失函数是第二有监督损失函数;第二有监督损失函数等于收敛的第一有监督损失函数与收敛的无监督损失函数的加权求和;
当第二有监督损失函数收敛,确定所述人脸识别模型的损失函数为所述第二有监督损失函数与所述无监督损失函数之和。
可选的,所述第一有监督损失函数采用的是InsightFaceLoss函数。
可选的,所述无监督损失函数是基于SmothL1Loss函数得到的。
关于上述实施例中的系统,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请实施例还提供了一种电子设备,单子设备可以是人机交互机器人,如图3所示,所述电子设备至少包括数据接口501和处理器502。处理器502通过数据接口501与存储系统600进行数据交互,具体的处理器502通过数据接口501与存储系统600中的存储区块进行数据交互。
为了能够说明处理器502与存储系统600之间的数据交互情况,作为一种可能的实施方式,处理器502在执行上述的人脸识别方法时执行下述步骤:采集得到用户的人脸视频,从人脸视频中取出质量达标的一张人脸图像作为待识别的人脸图像;将所述人脸图像输入预先训练好的人脸识别模型中,通过人脸识别模型提取出待识别的人脸图像的人脸特征向量;在大数据库中获得与人脸特征向量匹配的身份信息作为用户的身份信息;所述人脸识别模型包括自编码结构和监督结构;自编码结构包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层;所述监督结构包括全连接层;第一卷积层的输入是所述人脸图像,所述第二卷积层的输入是第一卷积层的输出,所述第三卷积层的输入是第二卷积层的输出,所述第四卷积层的输入包括第三卷积层的输出,所述第五卷积层的输入是第四卷积层的输出,所述第六卷积层的输入是第五卷积层的输出,所述全连接层的输入包括第三卷积层的输出。
可选的,如图3所示,电子设备还包括存储系统600。同样的,处理器502通过数据接口501与存储系统600中的存储区块进行数据交互。
可选的,电子设备还包括存储器504存储在存储器504上并可在处理器502上运行的计算机程序,所述处理器502执行所述程序时实现前文所述人脸识别方法的任一方法的步骤。
其中,存储系统600可以是存储器504,也可以与存储器504不同,存储系统600也可以是存储器504的部分存储分区,还可以是存储器504是存储系统600中的某个存储区块。
其中,在图2中,总线架构(用总线500来代表),总线500可以包括任意数量的互联的总线和桥,总线500将包括由处理器502代表的一个或多个处理器和存储器504代表的存储器的各种电路链接在一起。总线500还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进进一步描述。处理器502负责管理总线500和通常的处理,而存储器504可以被用于存储处理器502在执行操作时所使用的数据。
本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现前文所述人脸识别方法的任一方法的步骤。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本申请也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本申请的内容,并且上面对特定语言所做的描述是为了披露本申请的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本申请的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本申请的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本申请的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本申请实施例的装置中的一些或者全部部件的一些或者全部功能。本申请还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本申请的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本申请进行说明而不是对本申请进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本申请可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (6)

1.一种人脸识别模型的训练方法,其特征在于,所述人脸识别模型包括卷积结构和监督结构;所述方法包括: 获得训练样本,所述训练样本包括已标注的人脸图像和未标注的人脸图像; 通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集;所述卷积结构是一个自编码结构,所述监督结构是一个全连接层;自编码结构包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层;下采样特征集包括第一下采样特征、第二下采样特征和第三下采样特征;通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集具体为: 将所述训练样本输入第一卷积层,第一卷积层对训练样本进行下采样特征提取,得到第一下采样特征;第二卷积层对第一下采样特征进行下采样特征提取,得到第二下采样特征;第三卷积层对第二下采样特征进行下采样特征提取,得到第三下采样特征; 通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集;上采样特征集包括第一上采样特征、第二上采样特征和第三上采样特征;通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集,具体为:第四卷积层对未标注的人脸图像对应的下采样特征进行上采样特征提取,得到第一上采样特征;第五卷积层对第一上采样特征进行上采样特征提取,得到第二上采样特征;第六卷积层对第二上采样特征进行上采样特征提取,得到第三上采样特征; 卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习;具体为:通过第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习,第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习采用的损失函数采用的是无监督损失函数,具体的:第四卷积层对未标注的人脸图像对应的第三下采样特征进行上采样特征提取,得到第一上采样特征;第五卷积层对第一上采样特征进行上采样特征提取,得到第二上采样特征;第六卷积层对第二上采样特征进行上采样特征提取,得到第三上采样特征;通过第一损失函数控制第三下采样特征和第一上采样特征;通过第二损失函数控制第二下采样特征和第二上采样特征;通过第三损失函数控制第一下采样特征和第三上采样特征;若第一损失函数、第二损失函数和第三损失函数均收敛,确定第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习结束;卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习采用的损失函数是无监督损失函数;收敛的无监督损失函数等于收敛的第一损失函数、第二损失函数和第三损失函数之和; 所述监督结构基于所述下采样特征集进行有监督学习,监督结构基于所述下采样特征集进行有监督学习采用的损失函数是第一有监督损失函数,具体为:所述全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习,全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习时的损失函数采用的是第一有监督损失函数;当全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习结束,以及第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习结束时,确定人脸识别模型训练结束; 当无监督损失函数收敛时,确定卷积结构进行下采样操作的输出为再训练有监督特征; 所述监督结构基于所述再训练有监督特征进行有监督学习,监督结构基于所述再训练有监督特征进行有监督学习采用的损失函数是第二有监督损失函数;第二有监督损失函数等于收敛的第一有监督损失函数与收敛的无监督损失函数的加权求和;当第二有监督损失函数收敛,确定所述人脸识别模型的损失函数为所述第二有监督损失函数与所述无监督损失函数之和。
2.根据权利要求1所述的方法,其特征在于,所述第一有监督损失函数采用的是InsightFaceLoss函数。
3.根据权利要求1所述的方法,其特征在于,所述无监督损失函数是基于SmothL1Loss函数得到的。
4.一种在线教育系统,其特征在于,所述系统包括: 人脸采集模块,用于采集用户的人脸图像,将所述人脸图像发送至人脸识别模块; 人脸识别模块,用于根据人脸图像识别出用户的身份信息,将用户的身份信息发送至课程解锁模块; 课程解锁模块,用于根据用户的身份信息判断用户是否是得到许可的用户,若确定用户是得到许可的用户,解锁指定的课程,将所述课程发送给所述用户;所述根据人脸图像识别出用户的身份信息,包括: 将人脸图像输入预先训练好的人脸识别模型中,人脸识别模型输出人脸特征向量; 跟进所述人脸特征向量,识别所述用户的身份信息;所述人脸识别模型包括卷积结构和监督结构;所述人脸识别模型的训练方法包括: 获得训练样本,所述训练样本包括已标注的人脸图像和未标注的人脸图像; 通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集;所述卷积结构是一个自编码结构,所述监督结构是一个全连接层;自编码结构包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层;下采样特征集包括第一下采样特征、第二下采样特征和第三下采样特征;通过卷积结构对所述训练样本进行下采样特征提取操作,得到下采样特征集具体为: 将所述训练样本输入第一卷积层,第一卷积层对训练样本进行下采样特征提取,得到第一下采样特征;第二卷积层对第一下采样特征进行下采样特征提取,得到第二下采样特征;第三卷积层对第二下采样特征进行下采样特征提取,得到第三下采样特征; 通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集;上采样特征集包括第一上采样特征、第二上采样特征和第三上采样特征;通过卷积结构对未标注的人脸图像对应的下采样特征提取进行上采样特征提取,得到上采样特征集,具体为:第四卷积层对未标注的人脸图像对应的下采样特征进行上采样特征提取,得到第一上采样特征;第五卷积层对第一上采样特征进行上采样特征提取,得到第二上采样特征;第六卷积层对第二上采样特征进行上采样特征提取,得到第三上采样特征; 卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习;具体为:通过第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习,第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习采用的损失函数采用的是无监督损失函数,具体的:第四卷积层对未标注的人脸图像对应的第三下采样特征进行上采样特征提取,得到第一上采样特征;第五卷积层对第一上采样特征进行上采样特征提取,得到第二上采样特征;第六卷积层对第二上采样特征进行上采样特征提取,得到第三上采样特征;通过第一损失函数控制第三下采样特征和第一上采样特征;通过第二损失函数控制第二下采样特征和第二上采样特征;通过第三损失函数控制第一下采样特征和第三上采样特征;若第一损失函数、第二损失函数和第三损失函数均收敛,确定第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习结束;卷积结构基于所述下采样特征集和所述上采样特征集进行无监督学习采用的损失函数是无监督损失函数;收敛的无监督损失函数等于收敛的第一损失函数、第二损失函数和第三损失函数之和; 所述监督结构基于所述下采样特征集进行有监督学习,监督结构基于所述下采样特征集进行有监督学习采用的损失函数是第一有监督损失函数,具体为:所述全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习,全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习时的损失函数采用的是第一有监督损失函数;当全连接层对已标注的人脸图像对应的所述第三下采样特征进行有监督学习结束,以及第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层和第六卷积层对未标注的人脸图像进行无监督学习结束时,确定人脸识别模型训练结束; 当无监督损失函数收敛时,确定卷积结构进行下采样操作的输出为再训练有监督特征; 所述监督结构基于所述再训练有监督特征进行有监督学习,监督结构基于所述再训练有监督特征进行有监督学习采用的损失函数是第二有监督损失函数;第二有监督损失函数等于收敛的第一有监督损失函数与收敛的无监督损失函数的加权求和;当第二有监督损失函数收敛,确定所述人脸识别模型的损失函数为所述第二有监督损失函数与所述无监督损失函数之和。
5.根据权利要求4所述的系统,其特征在于,所述第一有监督损失函数采用的是InsightFaceLoss函数。
6.根据权利要求4所述的系统,其特征在于,所述无监督损失函数是基于SmothL1Loss函数得到的。
CN202011380421.3A 2020-11-30 2020-11-30 人脸识别模型的训练方法及在线教育系统 Active CN112329735B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011380421.3A CN112329735B (zh) 2020-11-30 2020-11-30 人脸识别模型的训练方法及在线教育系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011380421.3A CN112329735B (zh) 2020-11-30 2020-11-30 人脸识别模型的训练方法及在线教育系统

Publications (2)

Publication Number Publication Date
CN112329735A CN112329735A (zh) 2021-02-05
CN112329735B true CN112329735B (zh) 2022-05-10

Family

ID=74309515

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011380421.3A Active CN112329735B (zh) 2020-11-30 2020-11-30 人脸识别模型的训练方法及在线教育系统

Country Status (1)

Country Link
CN (1) CN112329735B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115223002B (zh) * 2022-05-09 2024-01-09 广州汽车集团股份有限公司 模型训练方法、开门动作检测方法、装置以及计算机设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110309692A (zh) * 2018-03-27 2019-10-08 杭州海康威视数字技术股份有限公司 人脸识别方法、装置及系统、模型训练方法及装置
CN110633689A (zh) * 2019-09-23 2019-12-31 天津天地基业科技有限公司 基于半监督注意力网络的人脸识别模型

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160065558A1 (en) * 2013-01-08 2016-03-03 Coursera, Inc. Identity verification for online education
WO2015017706A2 (en) * 2013-07-31 2015-02-05 Kadenze, Inc. Feature extraction and machine learning for evaluation of audio-type, media-rich coursework
CN105069342A (zh) * 2015-08-23 2015-11-18 华南理工大学 基于人脸识别对教育资源数据库权限的控制方法
CN105447473B (zh) * 2015-12-14 2019-01-08 江苏大学 一种基于PCANet-CNN的任意姿态人脸表情识别方法
FR3079329A1 (fr) * 2018-03-20 2019-09-27 Idemia Identity & Security France Procedes d'apprentissage de parametres d'un reseau de neurones a convolution, et de classification d'une donnee d'entree
CN109165566B (zh) * 2018-08-01 2021-04-27 中国计量大学 一种基于新型损失函数的人脸识别卷积神经网络训练方法
WO2020205981A1 (en) * 2019-04-05 2020-10-08 Realnetworks, Inc. Adaptive learning and matching of face modalities
CN110472533B (zh) * 2019-07-31 2021-11-09 北京理工大学 一种基于半监督训练的人脸识别方法
CN111951175A (zh) * 2020-06-28 2020-11-17 中国电子科技网络信息安全有限公司 一种基于自编码网络的人脸图像规范化方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110309692A (zh) * 2018-03-27 2019-10-08 杭州海康威视数字技术股份有限公司 人脸识别方法、装置及系统、模型训练方法及装置
CN110633689A (zh) * 2019-09-23 2019-12-31 天津天地基业科技有限公司 基于半监督注意力网络的人脸识别模型

Also Published As

Publication number Publication date
CN112329735A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN107291822B (zh) 基于深度学习的问题分类模型训练方法、分类方法及装置
CN109934293A (zh) 图像识别方法、装置、介质及混淆感知卷积神经网络
CN107844481B (zh) 识别文本检错方法及装置
CN113139628B (zh) 样本图像的识别方法、装置、设备及可读存储介质
CN110827236B (zh) 基于神经网络的脑组织分层方法、装置、计算机设备
CN111242948B (zh) 图像处理、模型训练方法、装置、设备和存储介质
CN114912612A (zh) 鸟类识别方法、装置、计算机设备及存储介质
CN112364828B (zh) 人脸识别方法及金融系统
CN110222780A (zh) 物体检测方法、装置、设备和存储介质
CN109492610B (zh) 一种行人重识别方法、装置及可读存储介质
CN110688897A (zh) 一种基于联合判断与生成学习的行人重识别方法及装置
Wu et al. Optimized deep learning framework for water distribution data-driven modeling
CN111507403A (zh) 图像分类方法、装置、计算机设备和存储介质
CN112668608A (zh) 一种图像识别方法、装置、电子设备及存储介质
CN115577768A (zh) 半监督模型训练方法和装置
CN112329735B (zh) 人脸识别模型的训练方法及在线教育系统
CN113177554B (zh) 甲状腺结节识别与分割方法、系统、存储介质及设备
CN113806501B (zh) 意图识别模型的训练方法、意图识别方法和设备
Srinivas et al. Facial Expression Detection Model of Seven Expression Types Using Hybrid Feature Selection and Deep CNN
CN106373121A (zh) 模糊图像识别方法和装置
CN112329736B (zh) 人脸识别方法及金融系统
CN115762721A (zh) 一种基于计算机视觉技术的医疗影像质控方法和系统
CN112686300B (zh) 一种数据处理方法、装置及设备
CN116777814A (zh) 图像处理方法、装置、计算机设备、存储介质及程序产品
CN112364831B (zh) 人脸识别方法及在线教育系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20220420

Address after: Room 2, building 2208000, Luoyuan community, Luoxin District, Guangdong Province

Applicant after: Shenzhen Ocean Network Technology Co.,Ltd.

Address before: 556400 No.1 jiangjunshi Road, Qingzhen vocational education East District, Guiyang City, Guizhou Province

Applicant before: Jiang Peisheng

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant