CN111476216A - 人脸识别方法、装置、计算机设备和可读存储介质 - Google Patents
人脸识别方法、装置、计算机设备和可读存储介质 Download PDFInfo
- Publication number
- CN111476216A CN111476216A CN202010452524.XA CN202010452524A CN111476216A CN 111476216 A CN111476216 A CN 111476216A CN 202010452524 A CN202010452524 A CN 202010452524A CN 111476216 A CN111476216 A CN 111476216A
- Authority
- CN
- China
- Prior art keywords
- image
- domain image
- converted
- source domain
- sample set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种人脸识别方法、装置、计算机设备和可读存储介质。所述人脸识别方法包括:获取待识别的人脸图像;采用人脸识别模型,对所述人脸图像进行识别,得到人脸识别结果;所述人脸识别模型是采用训练样本集训练得到的;所述训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;所述人脸图像和所述目标域图像具有相同的域类别。采用本方法能够提升人脸识别准确率。
Description
技术领域
本发明涉及人脸识别技术领域,特别是涉及一种人脸识别方法、装置、计算机设备和可读存储介质。
背景技术
随着人工智能技术的快速发展,人脸识别技术作为计算机视觉领域的重要分支之一,已越来越多的应用在各个行业,例如,金融行业、公安系统等等。
传统技术中,人脸识别模型在训练过程中是采用公开数据集进行训练;其中,公开数据集中可能包括不同域类别的图像,域类别如亚洲人、欧洲人等等。
然而,在实际的应用中,训练得到的人脸识别模型对于不同域类别的人脸图像,其识别准确率是不一致的,可能存在对于某种域类别的人脸图像的识别准确率较低的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提升人脸识别准确率的人脸识别方法、装置、计算机设备和可读存储介质。
第一方面,本申请实施例提供了一种人脸识别方法,人脸识别方法包括:
获取待识别的人脸图像;
采用人脸识别模型,对所述人脸图像进行识别,得到人脸识别结果;所述人脸识别模型是采用训练样本集训练得到的;所述训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;所述人脸图像和所述目标域图像具有相同的域类别。
在其中一个实施例中,所述人脸识别模型的训练过程包括:
获取所述原始样本集;所述原始样本集包括源域图像和目标域图像,所述原始样本集中源域图像的数量大于所述原始样本集中目标域图像的数量;
将所述原始样本集中的多个源域图像转换为对应的目标域图像,得到所述训练样本集;
采用所述训练样本集训练初始识别模型,训练后得到所述人脸识别模型。
在其中一个实施例中,所述将所述原始样本集中的多个源域图像转换为对应的目标域图像,得到所述训练样本集,包括:
获取待转换的源域图像的身份特征和非身份特征,并获取参考目标域图像的身份特征和非身份特征;所述参考目标域图像是所述原始样本集包括的目标域图像中的任一个;
将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征进行结合,得到所述待转换的源域图像对应的目标域图像;
将所述原始样本集中待转换的各源域图像分别替换为对应的目标域图像,替换后的得到所述训练样本集。
在其中一个实施例中,所述获取待转换的源域图像的身份特征和非身份特征,并获取参考目标域图像的身份特征和非身份特征,包括:
将所述待转换的源域图像输入至不同的编码器网络中,得到所述待转换的源域图像的身份特征和非身份特征;
将所述参考目标域图像输入至不同的编码器网络中,得到所述参考目标域图像的身份特征和非身份特征;
对应地,所述将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征进行结合,得到所述待转换的源域图像对应的目标域图像,包括:
将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征输入至解码器网络中,得到所述待转换的源域图像对应的目标域图像。
在其中一个实施例中,所述将所述待转换的源域图像输入至不同的编码器网络中,得到所述待转换的源域图像的身份特征和非身份特征,包括:
将所述待转换的源域图像分别输入至第一编码器网络和第二编码器网络中,得到所述第一编码器网络输出的所述待转换的源域图像的身份特征、所述第二编码器网络输出的所述待转换的源域图像的非身份特征;
其中,所述第一编码器网络在训练时后接有第一分类网络,所述第一编码器网络的网络参数是根据所述第一分类网络的输出结果进行调整的;所述第二编码器网络在训练时后接有第二分类网络,所述第二编码器网络的网络参数是根据所述第二分类网络的输出结果进行调整的;所述第一分类网络和所述第二分类网络的损失函数不同。
在其中一个实施例中,所述将所述待转换的源域图像输入至不同的编码器网络中,得到所述待转换的源域图像的身份特征和非身份特征之后,还包括:
将所述待转换的源域图像的身份特征和非身份特征输入至神经网络中,得到重建图像;
根据所述重建图像与所述待转换的源域图像之间的差别,对所述第一编码器网络和所述第二编码器网络的参数进行调整。
在其中一个实施例中,所述第一分类网络的损失函数为交叉熵损失函数,所述第二分类网络的损失函数为重建损失函数、L1范数损失函数或循环一致损失函数中的任一种。
第二方面,本申请实施例提供一种人脸识别装置,装置包括:
第一获取模块,用于获取待识别的人脸图像;
识别模块,用于采用人脸识别模型,对所述人脸图像进行识别,得到人脸识别结果;所述人脸识别模型是采用训练样本集训练得到的;所述训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;所述人脸图像和所述目标域图像具有相同的域类别。
第三方面,本申请实施例提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现如上述第一方面的方法的步骤。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如上述第一方面的方法的步骤。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过获取待识别的人脸图像;采用人脸识别模型,对所述人脸图像进行识别,得到人脸识别结果;所述人脸识别模型是采用训练样本集训练得到的;所述训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;所述人脸图像和所述目标域图像具有相同的域类别;由此,将原始样本集中的多个源域(如欧洲人)图像转换为对应的目标域(如亚洲人)图像后得到训练样本集,然后基于该训练样本集训练得到人脸识别模型;避免了传统技术中,由于原始样本集中目标域图像数量较少而源域图像数量较多,导致的基于原始样本集训练的人脸识别模型对目标域图像的人脸识别准确率低的问题。本申请基于训练样本集训练得到的人脸识别模型,可以提升该人脸识别模型对目标域图像的人脸识别准确率。
附图说明
图1为一个实施例提供的人脸识别方法的流程示意图;
图2为一个实施例提供的人脸识别模型的训练过程示意图;
图3为一个实施例中步骤S200的细化步骤示意图;
图4为另一个实施例提供的人脸识别模型的训练过程示意图;
图5为另一个实施例提供的人脸识别模型的训练过程示意图;
图6为一个实施例提供的将待转换的源域图像转换为对应的目标域图像的流程示意图;
图7为另一个实施例提供的人脸识别模型的训练过程示意图;
图8为一个实施例提供的人脸识别装置的结构框图;
图9为一个实施例提供的计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的人脸识别方法、装置、计算机设备和可读存储介质,旨在解决传统技术中,由于原始样本集中目标域图像的数量较少而源域图像的数量较多,导致的基于原始样本集训练的人脸识别模型对目标域图像的人脸识别准确率低的技术问题。下面将通过实施例并结合附图具体地对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体地实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
需要说明的是,本申请实施例提供的人脸识别方法,其执行主体可以是人脸识别装置,该人脸识别装置可以通过软件、硬件或者软硬件结合的方式实现成为计算机设备的部分或者全部。下述方法实施例中,均以执行主体是计算机设备为例来进行说明,计算机设备可以是服务器;可以理解的是,下述方法实施例提供的人脸识别方法,也可以应用于终端,还可以应用于包括终端和服务器的系统,并通过终端和服务器的交互实现。
请参考图1,其示出了本申请实施例提供的一种人脸识别方法的流程示意图。本实施例涉及的是采用基于训练样本集训练的人脸识别模型,对待识别的人脸图像进行人脸识别的具体实现过程。如图1所示,本实施例人脸识别方法可以包括以下步骤:
步骤S10,获取待识别的人脸图像。
以金融行业为例,用户在办理业务时,金融机构通过图像采集设备采集用户的人脸图像,并需要对该人脸图像进行人脸识别以验证用户身份;或者,金融机构通过监控设备对营业网点进行监控,并需要对监控视频中的人脸图像进行人脸识别以发现异常人员,等等;计算机设备获取待识别的人脸图像,则可以是从金融机构的图像采集设备或监控设备中获取的。
可以理解的是,本实施例人脸识别方法还可以应用在其它的人脸识别场景中,在此不做具体限制。
在其它实施例中,计算机设备获取待识别的人脸图像,也可以是从计算机设备的数据库中获取本地存储的待识别的人脸图像;待识别的人脸图像还可以是由相关人员导入计算机设备的,在此均不作具体限制。
步骤S20,采用人脸识别模型,对人脸图像进行识别,得到人脸识别结果。
其中,人脸识别模型是采用训练样本集训练得到的;训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;人脸图像和目标域图像具有相同的域类别。
原始样本集中源域图像的数量大于目标域图像的数量。以源域为欧洲人、目标域为亚洲人为例,原始样本集中样本分布不均匀,绝大部分是欧洲人图像,即源域图像,亚洲人图像即目标域图像只占很少的比重。因此,基于原始样本集训练的人脸识别模型,在目标域的人脸识别准确率远远低于在源域的人脸识别准确率。
本实施例中,为了提升训练的人脸识别模型在目标域的人脸识别准确率,计算机设备将原始样本集中的多个源域图像转换为对应的目标域图像后得到训练样本集,并基于该训练样本集训练得到人脸识别模型;计算机设备采用该基于训练样本集训练得到的人脸识别模型对人脸图像进行识别,该人脸图像和目标域图像具有相同的域类别,得到人脸识别结果,从而提升了与目标域图像具有相同域类别的人脸图像的人脸识别准确率。
本实施例中,作为一种实施方式,计算机设备将原始样本集中的一部分源域图像转换为对应的目标域图像,具体可以是通过不同的神经网络提取待转换的源域图像的身份特征和非身份特征,身份特征可以用于表征该源域图像中人像的个体特征,非身份特征可以用于表征该源域图像中与人像的个体特征无关的其它特征。同样地,计算机设备通过不同的神经网络提取参考目标域图像的身份特征和非身份特征,参考目标域图像可以是原始样本集包括的多个目标域图像中的任一个。进一步地,计算机设备将待转换的源域图像的身份特征和参考目标域图像的非身份特征进行结合,则得到待转换的源域图像对应的目标域图像,该目标域图像是与待转换的源域图像的身份特征一致而域类别不一致的图像。
作为一种实施方式,原始样本集中需要转换为对应的目标域图像的源域图像的数量,在实施时可以自行设置,在此不做具体限制。
计算机设备将原始样本集中的一部分源域图像转换为对应的目标域图像后,在原始样本集中将该一部分源域图像替换为对应的目标域图像后,得到训练样本集。
本实施例通过获取待识别的人脸图像;采用人脸识别模型,对人脸图像进行识别,得到人脸识别结果;人脸识别模型是采用训练样本集训练得到的;训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;人脸图像和目标域图像具有相同的域类别;由此,将原始样本集中的多个源域(如欧洲人)图像转换为对应的目标域(如亚洲人)图像后得到训练样本集,然后基于该训练样本集训练得到人脸识别模型;避免了传统技术中,由于原始样本集中目标域图像数量较少而源域图像数量较多,导致的基于原始样本集训练的人脸识别模型对目标域图像的人脸识别准确率低的问题。本实施例基于训练样本集训练得到的人脸识别模型,可以提升该人脸识别模型对目标域图像的人脸识别准确率。
图2为一个实施例提供的人脸识别模型的训练过程示意图。在上述图1所示实施例的基础上,如图2所示,本实施例人脸识别模型的训练过程包括步骤S100、步骤S200和步骤S300,具体地:
步骤S100,获取原始样本集。
本实施例中,计算机设备获取原始样本集,原始样本集可以是现有的公开数据集。本实施例原始样本集包括源域图像和目标域图像,原始样本集中源域图像的数量大于原始样本集中目标域图像的数量。
步骤S200,将原始样本集中的多个源域图像转换为对应的目标域图像,得到训练样本集。
计算机设备将原始样本集中的多个源域图像转换为对应的目标域图像,得到训练样本集。
作为一种实施方式,参见图3,图3为一个实施例中步骤S200的细化步骤示意图。如图3所示,步骤S200包括步骤S210、步骤S220和步骤S230,具体地:
步骤S210,获取待转换的源域图像的身份特征和非身份特征,并获取参考目标域图像的身份特征和非身份特征。
其中,参考目标域图像是原始样本集包括的各目标域图像中的任一个。
作为一种实施方式,计算机设备可以通过不同的神经网络提取待转换的源域图像的身份特征和非身份特征。身份特征,也可以称之为id(identity,本体)特征,用于表征源域图像中人像的个体特征;非身份特征,也可以称之为非id特征,用于表征源域图像中与人像的个体特征无关的其它特征。同样地,计算机设备通过不同的神经网络提取参考目标域图像的身份特征和非身份特征。
步骤S220,将待转换的源域图像的身份特征和参考目标域图像的非身份特征进行结合,得到待转换的源域图像对应的目标域图像。
本实施例中,由于需要将待转换的源域图像转换为对应的目标域图像,即实现输入待转换的源域图像、输出该待转换的源域图像对应的目标域图像,因此,可以采用自编码器网络实现,即通过编码器网络提取待转换的源域图像的身份特征和参考目标域图像的非身份特征,提取参考目标域图像的身份特征和非身份特征,并通过解码器网络将待转换的源域图像的身份特征和参考目标域图像的非身份特征进行结合,得到待转换的源域图像对应的目标域图像。
步骤S230,将原始样本集中待转换的各源域图像分别替换为对应的目标域图像,替换后的得到训练样本集。
计算机设备将原始样本集中待转换的各源域图像分别替换为对应的目标域图像,替换后的得到训练样本集。
步骤S300,采用训练样本集训练初始识别模型,训练后得到人脸识别模型。
计算机设备采用替换后得到的训练样本集训练初始识别模型,训练后得到人脸识别模型。
本实施例通过获取原始样本集;原始样本集包括源域图像和目标域图像,原始样本集中源域图像的数量大于原始样本集中目标域图像的数量;将原始样本集中的多个源域图像转换为对应的目标域图像,得到训练样本集;采用训练样本集训练初始识别模型,训练后得到人脸识别模型;由此,提升了训练样本集中目标域图像的数量,因此,提升了基于训练样本集训练的人脸识别模型对与目标域图像具有相同的域类别的人脸图像的识别准确率。
在上述图3所示实施例的基础上,参见图4,图4为另一个实施例提供的人脸识别模型的训练过程示意图。如图4所示,本实施例中,步骤S210具体包括步骤S211和步骤S212:
步骤S211,将待转换的源域图像输入至不同的编码器网络中,得到待转换的源域图像的身份特征和非身份特征。
步骤S212,将参考目标域图像输入至不同的编码器网络中,得到参考目标域图像的身份特征和非身份特征。
本实施例中,具体地,通过编码器网络提取待转换的源域图像的身份特征和非身份特征,以及参考目标域图像的身份特征和非身份特征。
对应地,步骤S220包括步骤S221:
步骤S221,将待转换的源域图像的身份特征和参考目标域图像的非身份特征输入至解码器网络中,得到待转换的源域图像对应的目标域图像。
计算机设备将待转换的源域图像的身份特征和参考目标域图像的非身份特征输入至解码器网络中,得到待转换的源域图像对应的目标域图像。可以理解的是,对于需要根据目标域图像生成对应源域图像的场景,计算机设备将目标域图像的身份特征和源域图像的非身份特征输入至解码器网络中,即可得到与目标域图像的身份特征保持一致的源域图像,在此不做具体限制。
传统技术中,给定一个源域的图,在不给定对应目标域的图时,计算机设备要学习到指定目标域对应的图的分布,一般是采用MUNIT(MultimodalUnsupervised Image-to-Image Translation)模型实现的。MUNIT是把一个图片域分为两个部分:风格部分和内容部分。假定两个域共享内容部分,风格部分是两个域所不同的。MUNIT在生成目标域的图时,是将源域图片的内容部分和目标域图片的风格部分结合;但是,对于源域中同一个人的多张源域图片,MUNIT生成的每张源域图片对应的目标域图片,并不一定会是同一个人的多张目标域图片,这是因为MUNIT从源域中取出一个内容,并随机从目标域中抽取风格,并不能保证每次抽取的都是同一个人的风格。
而本实施例中,计算机设备通过编码器网络将待转换的源域图像划分为身份特征和非身份特征,将参考目标域图像也划分为身份特征和非身份特征,身份特征是表征待转换的源域图像中人像的个体特征,因此,本实施例无论将待转换的源域图像的身份特征和任何参考目标域图像的非身份特征输入至解码器网络中进行融合,得到待转换的源域图像对应的目标域图像,都是与待转换的源域图像的身份特征一致的图像,即源域中一个人相同的多张图像到目标域生成的仍然是同一个人。由此,提升了将待转换的源域图像转换为对应的目标域图像的转换准确性。
在上述图4所示实施例的基础上,参见图5,图5为另一个实施例提供的人脸识别模型的训练过程示意图。如图5所示,本实施例中,步骤S211包括步骤S211a:
步骤S211a,将待转换的源域图像分别输入至第一编码器网络和第二编码器网络中,得到第一编码器网络输出的待转换的源域图像的身份特征、第二编码器网络输出的待转换的源域图像的非身份特征。
其中,第一编码器网络在训练时后接有第一分类网络,第一编码器网络的网络参数是根据第一分类网络的输出结果进行调整的;第二编码器网络在训练时后接有第二分类网络,第二编码器网络的网络参数是根据第二分类网络的输出结果进行调整的;第一分类网络和第二分类网络的损失函数不同。
其中,第一分类网络的损失函数为交叉熵损失函数,第二分类网络的损失函数为重建损失函数、L1范数损失函数或循环一致损失函数中的任一种。
参见图6,图6为本实施例基于编码器网络和解码器网络将待转换的源域图像转换为对应的目标域图像的流程示意图。如图6所示,计算机设备将待转换的源域图像(source)输入至编码器网络(encoder)中,该编码器网络由第一编码器网络和第二编码器网络构成,第一编码器网络用于提取待转换的源域图像的身份特征(id)、第二编码器网络用于提取待转换的源域图像的非身份特征(非id),作为一种实施方式,第一编码器网络和第二编码器网络均可以通过残差神经网络Resnet50实现。
本实施例中,第一编码器网络在训练时后接有第一分类网络,第一编码器网络的网络参数是根据第一分类网络的输出结果进行调整的,即训练时采用第一分类网络对第一编码器网络进行监督,直至第一编码器网络输出的源域图像的身份特征,经第一分类网络分类后对应相应类别的分类概率最大,则第一编码器网络训练完成。
本实施例中,第二编码器网络在训练时后接有第二分类网络,第二编码器网络的网络参数是根据第二分类网络的输出结果进行调整的,即训练时采用第二分类网络对第二编码器网络进行监督,直至第二编码器网络输出的源域图像的非身份特征,经第二分类网络分类后对应相应类别的分类概率最小,则第二编码器网络训练完成。第一分类网络和第二分类网络的损失函数不同。
例如,待转换的源域图像包括用户A,则第一编码器网络输出的待转换的源域图像的身份特征,经第一分类网络分类后对应用户A的分类概率最大,则第一编码器网络训练完成;第二编码器网络输出的待转换的源域图像的非身份特征,经第二分类网络分类后对应用户A的分类概率最小,则第二编码器网络训练完成。由于非身份特征已剥离身份特征,因此对应用户A的分类概率最小。
进一步地,本实施例步骤S212包括步骤a:
步骤a,将参考目标域图像分别输入至第三编码器网络和第四编码器网络中,得到第三编码器网络输出的参考目标域图像的身份特征、第四编码器网络输出的参考目标域图像的非身份特征。
其中,第三编码器网络在训练时后接有第三分类网络,第三编码器网络的网络参数是根据第三分类网络的输出结果进行调整的;第四编码器网络在训练时后接有第四分类网络,第四编码器网络的网络参数是根据第四分类网络的输出结果进行调整的;第三分类网络和第四分类网络的损失函数不同。第三分类网络的损失函数为交叉熵损失函数,第四分类网络的损失函数为重建损失函数、L1范数损失函数或循环一致损失函数中的任一种。
请继续参见图6,计算机设备将参考目标域图像(target)输入至编码器网络(encoder)中,该编码器网络由第三编码器网络和第四编码器网络构成,第三编码器网络用于提取参考目标域图像的身份特征(id)、第四编码器网络用于提取参考目标域图像的非身份特征(非id),作为一种实施方式,第三编码器网络和第四编码器网络均可以通过残差神经网络Resnet50实现。
本实施例中,第三编码器网络在训练时后接有第三分类网络,第三编码器网络的网络参数是根据第三分类网络的输出结果进行调整的,即训练时采用第三分类网络对第三编码器网络进行监督,直至第三编码器网络输出的目标域图像的身份特征,经第三分类网络分类后对应相应类别的分类概率最大,则第三编码器网络训练完成。
本实施例中,第四编码器网络在训练时后接有第四分类网络,第四编码器网络的网络参数是根据第四分类网络的输出结果进行调整的,即训练时采用第四分类网络对第四编码器网络进行监督,直至第四编码器网络输出的目标域图像的非身份特征,经第四分类网络分类后对应相应类别的分类概率最小,则第四编码器网络训练完成。
例如,参考目标域图像包括用户B,则第三编码器网络输出的参考目标域图像的身份特征,经第三分类网络分类后对应用户B的分类概率最大,则第三编码器网络训练完成;第四编码器网络输出的参考目标域图像的非身份特征,经第四分类网络分类后对应用户B的分类概率最小,则第四编码器网络训练完成。由于非身份特征中已剥离身份特征,因此对应用户B的分类概率最小。
计算机设备将待转换的源域图像的身份特征和参考目标域图像的非身份特征输入至解码器网络中,得到待转换的源域图像对应的目标域图像,该目标域图像与待转换的源域图像的身份特征一致,即待转换的源域图像和待转换的源域图像对应的目标域图像为同一个人像在不同图像域的图像。例如,待转换的源域图像为包括用户A的欧洲人图像,参考目标域图像为亚洲人图像,计算机设备将欧洲人图像的身份特征和任意亚洲人图像的非身份特征输入至解码器网络中,得到的均为用户A对应的亚洲人图像;可以理解的是,对于需要根据目标域图像生成对应源域图像的应用场景,计算机设备将源域图像的非身份特征和目标域图像的身份特征输入至解码器网络中,得到目标域图像对应的身份特征保持不变的源域图像。由此,本实施例将图像域分为身份特征和非身份特征,即源域图像和目标域图像经过encoder,划分为id和非id,再通过一个decoder网络,把源域图像的id和目标域图像的非id部分结合,生成具有源域id的目标域图像,由此实现了转换不同的非身份特征,但身份特征可以保持不变的效果。
在上述图5所示实施例的基础上,参见图7,图7为另一个实施例提供的人脸识别模型的训练过程示意图。如图7所示,本实施例人脸识别模型的训练过程还包括步骤S410和步骤S420:
步骤S410,将待转换的源域图像的身份特征和非身份特征输入至神经网络中,得到重建图像。
本实施例中,为了验证待转换的源域图像的身份特征和非身份特征的分离准确性,计算机设备将待转换的源域图像的身份特征和非身份特征输入至神经网络中,得到重建图像。
可以理解的是,重建图像与待转换的源域图像之间的差别越小,则表示待转换的源域图像的身份特征和非身份特征的分离准确性越高。
步骤S420,根据重建图像与待转换的源域图像之间的差别,对第一编码器网络和第二编码器网络的参数进行调整。
若重建图像与待转换的源域图像之间的差别较大,计算机设备则对第一编码器网络和第二编码器网络的参数进行调整,直至重建图像与待转换的源域图像之间的差别小于预设阈值。
作为一种实施方式,计算机设备可以通过重建图像与待转换的源域图像的颜色直方图来计算二者的相似度,以此来确定重建图像与待转换的源域图像之间的差别。
本实施例通过将待转换的源域图像的身份特征和非身份特征输入至神经网络中,得到重建图像;根据重建图像与待转换的源域图像之间的差别,对第一编码器网络和第二编码器网络的参数进行调整,由此,进一步提升了计算机设备对待转换的源域图像划分身份特征和非身份特征的准确性,进而提升了将待转换的源域图像转换为对应的目标域图像的转换准确性。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,提供了一种人脸识别装置,包括:
第一获取模块10,用于获取待识别的人脸图像;
识别模块20,用于采用人脸识别模型,对所述人脸图像进行识别,得到人脸识别结果;所述人脸识别模型是采用训练样本集训练得到的;所述训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;所述人脸图像和所述目标域图像具有相同的域类别。
可选地,所述装置还包括:
第二获取模块,用于获取所述原始样本集;所述原始样本集包括源域图像和目标域图像,所述原始样本集中源域图像的数量大于所述原始样本集中目标域图像的数量;
转换模块,用于将所述原始样本集中的多个源域图像转换为对应的目标域图像,得到所述训练样本集;
训练模块,用于采用所述训练样本集训练初始识别模型,训练后得到所述人脸识别模型。
可选地,所述转换模块包括:
获取子模块,用于获取待转换的源域图像的身份特征和非身份特征,并获取参考目标域图像的身份特征和非身份特征;所述参考目标域图像是所述原始样本集包括的目标域图像中的任一个;
结合子模块,用于将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征进行结合,得到所述待转换的源域图像对应的目标域图像;
替换子模块,用于将所述原始样本集中待转换的各源域图像分别替换为对应的目标域图像,替换后的得到所述训练样本集。
可选地,所述获取子模块,包括:
第一解码单元,用于将所述待转换的源域图像输入至不同的编码器网络中,得到所述待转换的源域图像的身份特征和非身份特征;
第二解码单元,用于将所述参考目标域图像输入至不同的编码器网络中,得到所述参考目标域图像的身份特征和非身份特征;
对应地,所述结合子模块,包括:
编码单元,用于将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征输入至解码器网络中,得到所述待转换的源域图像对应的目标域图像。
可选地,所述第一解码单元,包括:
解码子单元,用于将所述待转换的源域图像分别输入至第一编码器网络和第二编码器网络中,得到所述第一编码器网络输出的所述待转换的源域图像的身份特征、所述第二编码器网络输出的所述待转换的源域图像的非身份特征;
其中,所述第一编码器网络在训练时后接有第一分类网络,所述第一编码器网络的网络参数是根据所述第一分类网络的输出结果进行调整的;所述第二编码器网络在训练时后接有第二分类网络,所述第二编码器网络的网络参数是根据所述第二分类网络的输出结果进行调整的;所述第一分类网络和所述第二分类网络的损失函数不同。
可选地,所述装置还包括:
重建模块,用于将所述待转换的源域图像的身份特征和非身份特征输入至神经网络中,得到重建图像;
参数调整模块,用于根据所述重建图像与所述待转换的源域图像之间的差别,对所述第一编码器网络和所述第二编码器网络的参数进行调整。
可选地,所述第一分类网络的损失函数为交叉熵损失函数,所述第二分类网络的损失函数为重建损失函数、L1范数损失函数或循环一致损失函数中的任一种。
本实施例提供的人脸识别装置,可以执行上述人脸识别方法实施例,其实现原理和技术效果类似,在此不再赘述。关于人脸识别装置的具体限定可以参见上文中对于人脸识别方法的限定,在此不再赘述。上述人脸识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,还提供了一种如图9所示的计算机设备,该计算机设备可以是服务器。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储人脸识别数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种人脸识别方法。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体地计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待识别的人脸图像;
采用人脸识别模型,对所述人脸图像进行识别,得到人脸识别结果;所述人脸识别模型是采用训练样本集训练得到的;所述训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;所述人脸图像和所述目标域图像具有相同的域类别。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取所述原始样本集;所述原始样本集包括源域图像和目标域图像,所述原始样本集中源域图像的数量大于所述原始样本集中目标域图像的数量;
将所述原始样本集中的多个源域图像转换为对应的目标域图像,得到所述训练样本集;
采用所述训练样本集训练初始识别模型,训练后得到所述人脸识别模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取待转换的源域图像的身份特征和非身份特征,并获取参考目标域图像的身份特征和非身份特征;所述参考目标域图像是所述原始样本集包括的目标域图像中的任一个;
将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征进行结合,得到所述待转换的源域图像对应的目标域图像;
将所述原始样本集中待转换的各源域图像分别替换为对应的目标域图像,替换后的得到所述训练样本集。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将所述待转换的源域图像输入至不同的编码器网络中,得到所述待转换的源域图像的身份特征和非身份特征;
将所述参考目标域图像输入至不同的编码器网络中,得到所述参考目标域图像的身份特征和非身份特征;
对应地,所述将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征进行结合,得到所述待转换的源域图像对应的目标域图像,包括:
将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征输入至解码器网络中,得到所述待转换的源域图像对应的目标域图像。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将所述待转换的源域图像分别输入至第一编码器网络和第二编码器网络中,得到所述第一编码器网络输出的所述待转换的源域图像的身份特征、所述第二编码器网络输出的所述待转换的源域图像的非身份特征;
其中,所述第一编码器网络在训练时后接有第一分类网络,所述第一编码器网络的网络参数是根据所述第一分类网络的输出结果进行调整的;所述第二编码器网络在训练时后接有第二分类网络,所述第二编码器网络的网络参数是根据所述第二分类网络的输出结果进行调整的;所述第一分类网络和所述第二分类网络的损失函数不同。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将所述待转换的源域图像的身份特征和非身份特征输入至神经网络中,得到重建图像;
根据所述重建图像与所述待转换的源域图像之间的差别,对所述第一编码器网络和所述第二编码器网络的参数进行调整。
在一个实施例中,所述第一分类网络的损失函数为交叉熵损失函数,所述第二分类网络的损失函数为重建损失函数、L1范数损失函数或循环一致损失函数中的任一种。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Ramb微秒)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待识别的人脸图像;
采用人脸识别模型,对所述人脸图像进行识别,得到人脸识别结果;所述人脸识别模型是采用训练样本集训练得到的;所述训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;所述人脸图像和所述目标域图像具有相同的域类别。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取所述原始样本集;所述原始样本集包括源域图像和目标域图像,所述原始样本集中源域图像的数量大于所述原始样本集中目标域图像的数量;
将所述原始样本集中的多个源域图像转换为对应的目标域图像,得到所述训练样本集;
采用所述训练样本集训练初始识别模型,训练后得到所述人脸识别模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取待转换的源域图像的身份特征和非身份特征,并获取参考目标域图像的身份特征和非身份特征;所述参考目标域图像是所述原始样本集包括的目标域图像中的任一个;
将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征进行结合,得到所述待转换的源域图像对应的目标域图像;
将所述原始样本集中待转换的各源域图像分别替换为对应的目标域图像,替换后的得到所述训练样本集。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将所述待转换的源域图像输入至不同的编码器网络中,得到所述待转换的源域图像的身份特征和非身份特征;
将所述参考目标域图像输入至不同的编码器网络中,得到所述参考目标域图像的身份特征和非身份特征;
对应地,所述将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征进行结合,得到所述待转换的源域图像对应的目标域图像,包括:
将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征输入至解码器网络中,得到所述待转换的源域图像对应的目标域图像。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将所述待转换的源域图像分别输入至第一编码器网络和第二编码器网络中,得到所述第一编码器网络输出的所述待转换的源域图像的身份特征、所述第二编码器网络输出的所述待转换的源域图像的非身份特征;
其中,所述第一编码器网络在训练时后接有第一分类网络,所述第一编码器网络的网络参数是根据所述第一分类网络的输出结果进行调整的;所述第二编码器网络在训练时后接有第二分类网络,所述第二编码器网络的网络参数是根据所述第二分类网络的输出结果进行调整的;所述第一分类网络和所述第二分类网络的损失函数不同。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将所述待转换的源域图像的身份特征和非身份特征输入至神经网络中,得到重建图像;
根据所述重建图像与所述待转换的源域图像之间的差别,对所述第一编码器网络和所述第二编码器网络的参数进行调整。
在一个实施例中,所述第一分类网络的损失函数为交叉熵损失函数,所述第二分类网络的损失函数为重建损失函数、L1范数损失函数或循环一致损失函数中的任一种。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种人脸识别方法,其特征在于,所述方法包括:
获取待识别的人脸图像;
采用人脸识别模型,对所述人脸图像进行识别,得到人脸识别结果;所述人脸识别模型是采用训练样本集训练得到的;所述训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;所述人脸图像和所述目标域图像具有相同的域类别。
2.根据权利要求1所述的方法,其特征在于,所述人脸识别模型的训练过程包括:
获取所述原始样本集;所述原始样本集包括源域图像和目标域图像,所述原始样本集中源域图像的数量大于所述原始样本集中目标域图像的数量;
将所述原始样本集中的多个源域图像转换为对应的目标域图像,得到所述训练样本集;
采用所述训练样本集训练初始识别模型,训练后得到所述人脸识别模型。
3.根据权利要求2所述的方法,其特征在于,所述将所述原始样本集中的多个源域图像转换为对应的目标域图像,得到所述训练样本集,包括:
获取待转换的源域图像的身份特征和非身份特征,并获取参考目标域图像的身份特征和非身份特征;所述参考目标域图像是所述原始样本集包括的目标域图像中的任一个;
将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征进行结合,得到所述待转换的源域图像对应的目标域图像;
将所述原始样本集中待转换的各源域图像分别替换为对应的目标域图像,替换后的得到所述训练样本集。
4.根据权利要求3所述的方法,其特征在于,所述获取待转换的源域图像的身份特征和非身份特征,并获取参考目标域图像的身份特征和非身份特征,包括:
将所述待转换的源域图像输入至不同的编码器网络中,得到所述待转换的源域图像的身份特征和非身份特征;
将所述参考目标域图像输入至不同的编码器网络中,得到所述参考目标域图像的身份特征和非身份特征;
对应地,所述将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征进行结合,得到所述待转换的源域图像对应的目标域图像,包括:
将所述待转换的源域图像的身份特征和所述参考目标域图像的非身份特征输入至解码器网络中,得到所述待转换的源域图像对应的目标域图像。
5.根据权利要求4所述的方法,其特征在于,所述将所述待转换的源域图像输入至不同的编码器网络中,得到所述待转换的源域图像的身份特征和非身份特征,包括:
将所述待转换的源域图像分别输入至第一编码器网络和第二编码器网络中,得到所述第一编码器网络输出的所述待转换的源域图像的身份特征、所述第二编码器网络输出的所述待转换的源域图像的非身份特征;
其中,所述第一编码器网络在训练时后接有第一分类网络,所述第一编码器网络的网络参数是根据所述第一分类网络的输出结果进行调整的;所述第二编码器网络在训练时后接有第二分类网络,所述第二编码器网络的网络参数是根据所述第二分类网络的输出结果进行调整的;所述第一分类网络和所述第二分类网络的损失函数不同。
6.根据权利要求5所述的方法,其特征在于,所述将所述待转换的源域图像输入至不同的编码器网络中,得到所述待转换的源域图像的身份特征和非身份特征之后,还包括:
将所述待转换的源域图像的身份特征和非身份特征输入至神经网络中,得到重建图像;
根据所述重建图像与所述待转换的源域图像之间的差别,对所述第一编码器网络和所述第二编码器网络的参数进行调整。
7.根据权利要求5所述的方法,其特征在于,所述第一分类网络的损失函数为交叉熵损失函数,所述第二分类网络的损失函数为重建损失函数、L1范数损失函数或循环一致损失函数中的任一种。
8.一种人脸识别装置,其特征在于,所述装置包括:
第一获取模块,用于获取待识别的人脸图像;
识别模块,用于采用人脸识别模型,对所述人脸图像进行识别,得到人脸识别结果;所述人脸识别模型是采用训练样本集训练得到的;所述训练样本集是将原始样本集中的多个源域图像转换为对应的目标域图像后得到的;所述人脸图像和所述目标域图像具有相同的域类别。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010452524.XA CN111476216A (zh) | 2020-05-26 | 2020-05-26 | 人脸识别方法、装置、计算机设备和可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010452524.XA CN111476216A (zh) | 2020-05-26 | 2020-05-26 | 人脸识别方法、装置、计算机设备和可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111476216A true CN111476216A (zh) | 2020-07-31 |
Family
ID=71762700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010452524.XA Withdrawn CN111476216A (zh) | 2020-05-26 | 2020-05-26 | 人脸识别方法、装置、计算机设备和可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111476216A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001398A (zh) * | 2020-08-26 | 2020-11-27 | 科大讯飞股份有限公司 | 域适应方法、装置、设备、图像处理方法及存储介质 |
CN112133311A (zh) * | 2020-09-18 | 2020-12-25 | 科大讯飞股份有限公司 | 说话人识别方法、相关设备及可读存储介质 |
CN112287811A (zh) * | 2020-10-27 | 2021-01-29 | 广州番禺职业技术学院 | 一种基于hsic和rkhs子空间学习的域自适应方法 |
CN113657248A (zh) * | 2021-08-13 | 2021-11-16 | 北京百度网讯科技有限公司 | 人脸识别模型的训练方法、装置及计算机程序产品 |
CN113792849A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 字符生成模型的训练方法、字符生成方法、装置和设备 |
CN114255502A (zh) * | 2021-12-23 | 2022-03-29 | 中国电信股份有限公司 | 人脸图像生成方法及装置、人脸识别方法、设备、介质 |
-
2020
- 2020-05-26 CN CN202010452524.XA patent/CN111476216A/zh not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001398A (zh) * | 2020-08-26 | 2020-11-27 | 科大讯飞股份有限公司 | 域适应方法、装置、设备、图像处理方法及存储介质 |
CN112001398B (zh) * | 2020-08-26 | 2024-04-12 | 科大讯飞股份有限公司 | 域适应方法、装置、设备、图像处理方法及存储介质 |
CN112133311A (zh) * | 2020-09-18 | 2020-12-25 | 科大讯飞股份有限公司 | 说话人识别方法、相关设备及可读存储介质 |
CN112287811A (zh) * | 2020-10-27 | 2021-01-29 | 广州番禺职业技术学院 | 一种基于hsic和rkhs子空间学习的域自适应方法 |
CN113657248A (zh) * | 2021-08-13 | 2021-11-16 | 北京百度网讯科技有限公司 | 人脸识别模型的训练方法、装置及计算机程序产品 |
CN113792849A (zh) * | 2021-09-09 | 2021-12-14 | 北京百度网讯科技有限公司 | 字符生成模型的训练方法、字符生成方法、装置和设备 |
CN113792849B (zh) * | 2021-09-09 | 2023-09-01 | 北京百度网讯科技有限公司 | 字符生成模型的训练方法、字符生成方法、装置和设备 |
CN114255502A (zh) * | 2021-12-23 | 2022-03-29 | 中国电信股份有限公司 | 人脸图像生成方法及装置、人脸识别方法、设备、介质 |
CN114255502B (zh) * | 2021-12-23 | 2024-03-29 | 中国电信股份有限公司 | 人脸图像生成方法及装置、人脸识别方法、设备、介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111476216A (zh) | 人脸识别方法、装置、计算机设备和可读存储介质 | |
US20220051025A1 (en) | Video classification method and apparatus, model training method and apparatus, device, and storage medium | |
US10789456B2 (en) | Facial expression recognition utilizing unsupervised learning | |
Babaee et al. | Person identification from partial gait cycle using fully convolutional neural networks | |
CN112395500B (zh) | 内容数据推荐方法、装置、计算机设备及存储介质 | |
JP2021532434A (ja) | 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体 | |
CN110807437B (zh) | 视频粒度特征确定方法、装置和计算机可读存储介质 | |
CN113435330B (zh) | 基于视频的微表情识别方法、装置、设备及存储介质 | |
CN111275685A (zh) | 身份证件的翻拍图像识别方法、装置、设备及介质 | |
CN112259247B (zh) | 对抗网络训练、医疗数据补充方法、装置、设备及介质 | |
CN110046577B (zh) | 行人属性预测方法、装置、计算机设备和存储介质 | |
CN111476269B (zh) | 均衡样本集构建、翻拍图像识别方法、装置、设备及介质 | |
CN111062426A (zh) | 一种建立训练集的方法、装置、电子设备以及介质 | |
CN112383824A (zh) | 视频广告过滤方法、设备及存储介质 | |
CN116977774A (zh) | 图像生成方法、装置、设备和介质 | |
CN110163151B (zh) | 人脸模型的训练方法、装置、计算机设备和存储介质 | |
CN113420665B (zh) | 对抗人脸图像生成、人脸识别模型训练方法、装置及设备 | |
CN110162689B (zh) | 信息推送方法、装置、计算机设备和存储介质 | |
CN108875611B (zh) | 视频动作识别方法和装置 | |
CN116665278A (zh) | 微表情识别方法、装置、计算机设备及存储介质 | |
CN116977714A (zh) | 图像分类方法、装置、设备、存储介质和程序产品 | |
Huang et al. | Learning channel-wise spatio-temporal representations for video salient object detection | |
CN116484224A (zh) | 一种多模态预训练模型的训练方法、装置、介质及设备 | |
CN113613070B (zh) | 一种人脸视频处理方法、装置、电子设备及存储介质 | |
Shashidhar et al. | Novel framework for optimized digital forensic for mitigating complex image attacks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200731 |