WO2020199932A1 - 模型训练方法、人脸识别方法、装置、设备及存储介质 - Google Patents

模型训练方法、人脸识别方法、装置、设备及存储介质 Download PDF

Info

Publication number
WO2020199932A1
WO2020199932A1 PCT/CN2020/080164 CN2020080164W WO2020199932A1 WO 2020199932 A1 WO2020199932 A1 WO 2020199932A1 CN 2020080164 W CN2020080164 W CN 2020080164W WO 2020199932 A1 WO2020199932 A1 WO 2020199932A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
age
identity
training
face image
Prior art date
Application number
PCT/CN2020/080164
Other languages
English (en)
French (fr)
Inventor
王浩
龚迪洪
李志锋
刘威
Original Assignee
腾讯科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 腾讯科技(深圳)有限公司 filed Critical 腾讯科技(深圳)有限公司
Publication of WO2020199932A1 publication Critical patent/WO2020199932A1/zh
Priority to US17/314,289 priority Critical patent/US11763599B2/en
Priority to US18/337,802 priority patent/US20230334905A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Definitions

  • a determining module configured to determine the correlation coefficient corresponding to the training batch data according to the identity feature and the age feature of the sample face image in the training batch data;
  • FIG. 6 is a flowchart of a cross-age face recognition method provided by an exemplary embodiment of this application.
  • FIG. 10 is a schematic structural diagram of a server provided by an exemplary embodiment of this application.
  • Typical correlation mapping variable refers to a variable used to indicate the degree of correlation between the age feature and the identity feature after the correlation analysis of the age feature and the identity feature of the face image.
  • CMM Canonical Mapping Module
  • CCA Canonical Correlation Analysis
  • Confrontation loss It is determined based on the correlation coefficient between the identity feature and the age feature in the training batch data, and is used to train the loss value between the identity feature and the age feature.
  • Confrontation loss by fighting against the loss, first determine the typical mapping with the greatest correlation between the identity feature and the age feature, and continue to reduce the correlation between the identity feature and the age feature in the optimal mapping direction, so as to realize the correlation between the identity feature and the age feature. Perform decorrelation training between features.
  • the training batch data includes n sample face images, and n is a positive integer.
  • the sample face image is also marked with an identity tag and an age tag.
  • the identity tag is used to characterize the identity of the person in the sample face image.
  • the identity tag can be a person’s ID number, a person’s name, or other information that can distinguish and identify a person; when there is a duplicate name, it can also be Add other information to distinguish;
  • the age label is used to characterize the age of the person in the sample face image.
  • the age label can be a specific value, such as eighteen years old, or it can be an age group, such as young and middle-aged. .
  • Backbone is constructed by using a convolutional neural network, and is composed of a series of convolutional layers and pooling layers connected together.
  • Backbone may include deep residual networks ResNet, VGGNet, or SEnet, etc.
  • S203 Determine the correlation coefficient corresponding to the training batch data according to the identity feature and age feature of the sample face image in the training batch data.
  • S204 Perform decorrelation training of the identity feature and the age feature on the feature extraction module through the correlation coefficient.
  • the irrelevance of identity characteristics and age characteristics specifically refers to the extremely low correlation between identity characteristics and age characteristics, to the extent that it can be regarded as irrelevant.
  • the correlation coefficient of the identity feature and the age feature is less than the preset value, it can be considered that the two are not mutually related.
  • the preset value can be set according to actual needs, which is not limited in the embodiment of the present application.
  • this application also provides a specific example of the model training method.
  • a sample face image labeled with an identity tag and an age tag is input, and the backbone network 410 can extract the initial features of the face image from the sample face image 420 , And then use the residual network 430 to decompose the initial feature 420 into an identity feature 440 and an age feature 450.
  • the identity discriminator ID Discriminator 460 learns the aforementioned identity feature 440
  • the age discriminator Age Discriminator 470 learns the aforementioned age feature 450.
  • the aforementioned identity feature 440 and age feature 450 are input to the canonical correlation mapping module CMM480 together, and pass through a batch correlation coefficient measurement module 490, namely DAL Regularizer, for adversarial learning to achieve correlation optimization.
  • m is the batch size (that is, the number of samples in the batch data, batch size), please refer to Formula 5 and Formula 6:
  • the loss function of the confrontation training can be expressed by the following formula 10:
  • the similarity threshold can be set according to actual needs. As an example of this application, it can be set to 90%.
  • cross-age face recognition method provided in this application can be applied to many fields, such as criminal investigation, family search, security, etc., through artificial intelligence (AI) technology.
  • AI artificial intelligence
  • the following uses the application scenario of seeking relatives as an example to introduce the model training method and cross-age face recognition provided in this application.
  • the training server 710 For each training sample in the training batch, the training server 710 first extracts the initial features from the sample face image through the backbone network, and then linearly decomposes the initial features into identity features and age features through the residual network. The identity feature and age feature are respectively input to their corresponding discriminators for joint supervised learning. On the other hand, the identity feature and age feature are input into the canonical correlation mapping module CMM to obtain their corresponding canonical correlation mapping variables.
  • the batch correlation coefficient measurement module can be used to calculate the correlation coefficients corresponding to the training batch data based on the above formula (7), and perform decorrelation training of identity features and age features based on the correlation coefficients .
  • the obtaining module 810 is used to obtain the first face image and the second face image
  • the identity discrimination loss is calculated by using an increased interval cosine loss function.
  • An embodiment of the present application also provides a device, which includes a processor and a memory:
  • the CPU 1022 is used to perform the following steps:
  • the RF circuit 1110 can be used for receiving and sending signals during the process of sending and receiving information or talking. In particular, after receiving the downlink information of the base station, it is processed by the processor 1180; in addition, the designed uplink data is sent to the base station.
  • the RF circuit 1110 includes but is not limited to an antenna, at least one amplifier, a transceiver, a coupler, a low noise amplifier (LNA), a duplexer, and the like.
  • the RF circuit 1110 can also communicate with the network and other devices through wireless communication.
  • the display unit 1140 may be used to display information input by the user or information provided to the user and various menus of the mobile phone.
  • the display unit 1140 may include a display panel 1141, and optionally, the display panel 1141 may be configured in the form of a liquid crystal display (LCD), an organic light-emitting diode (OLED), etc.
  • the touch panel 1131 can cover the display panel 1141. When the touch panel 1131 detects a touch operation on or near it, it transmits it to the processor 1180 to determine the type of the touch event, and then the processor 1180 responds to the touch event. Type provides corresponding visual output on the display panel 1141.
  • the touch panel 1131 and the display panel 1141 are used as two independent components to implement the input and input functions of the mobile phone, but in some embodiments, the touch panel 1131 and the display panel 1141 can be integrated. Realize the input and output functions of mobile phones.
  • WiFi is a short-distance wireless transmission technology.
  • the mobile phone can help users send and receive e-mails, browse web pages, and access streaming media through the WiFi module 1170. It provides users with wireless broadband Internet access.
  • FIG. 11 shows the WiFi module 1170, it is understandable that it is not a necessary component of the mobile phone, and can be omitted as needed without changing the essence of the invention.
  • the mobile phone may also include a camera, a Bluetooth module, etc., which will not be repeated here.
  • the embodiments of the present application also provide a computer-readable storage medium for storing program code, which is used to execute any one of the implementations of the model training method described in each of the foregoing embodiments or the method described in each of the embodiments. Any implementation of the cross-age face recognition method described above.
  • the integrated unit is implemented in the form of a software functional unit and sold or used as an independent product, it can be stored in a computer readable storage medium.
  • the technical solution of this application essentially or the part that contributes to the existing technology or all or part of the technical solution can be embodied in the form of a software product, and the computer software product is stored in a storage medium , Including several instructions to make a computer device (which can be a personal computer, a server, or a network device, etc.) execute all or part of the steps of the method described in each embodiment of the present application.
  • the aforementioned storage media include: U disk, mobile hard disk, read-only memory (Read-Only Memory, ROM), random access memory (Random Access Memory, RAM), magnetic disk or optical disk and other media that can store program code .

Abstract

本申请公开了一种模型训练方法、人脸识别方法、装置、设备及存储介质,涉及人工智能领域,该方法包括:获取训练批数据,训练批数据包括样本人脸图像;提取样本人脸图像的身份特征和年龄特征,统计训练批数据对应的相关系数;通过相关系数进行身份特征和年龄特征的去相关性训练,训练得到满足训练目标的特征提取模块。通过特征提取模块分解样本人脸图像的身份特征和年龄特征,通过身份特征和年龄特征确定训练批数据对应的相关系数,利用该相关系数增加去相关性的约束,基于去相关性的对抗学习使得最终训练得到的特征提取模块识别出的身份特征与年龄特征的相关性极低,从而提高识别精度,降低年龄干扰,提高跨年龄人脸识别的识别结果可靠性。

Description

模型训练方法、人脸识别方法、装置、设备及存储介质
本申请要求于2019年04月03日提交的申请号为201910266743.6、发明名称为“模型训练方法、人脸识别方法、装置、设备及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及人工智能技术领域,尤其涉及一种模型训练方法、一种跨年龄人脸识别方法、装置、设备及存储介质。
背景技术
现阶段,跨年龄人脸识别问题是人脸识别领域面临的重大挑战之一,年龄变化使得人脸图像具有更复杂的多样性,极大增加了人脸识别的难度,跨年龄人脸识别技术仍然处于探索阶段。
现有的跨年龄人脸识别主要采用判别式方案,其主要是基于身份判别和年龄判别的多任务学习来进行的,但,由于身份特征和年龄特征通常具有一定程度上的关联性,如此,身份特征就会包括一些年龄信息,使得人脸识别结果并不可靠。
因此,如何提高跨年龄人脸识别的性能是目前亟需解决的问题。
发明内容
本申请提供了一种模型训练方法,通过分离身份特征和年龄特征,提高人脸识别结果可靠性。本申请还提供了对应的装置、设备及介质。
一方面,提供了一种人脸识别方法,应用于服务器中,所述方法包括:
获取第一人脸图像和第二人脸图像;
通过特征提取模块提取所述第一人脸图像的第一身份特征,并通过所述特征提取模块获取所述第二人脸图像的第二身份特征;所述特征提取模块为预先训练得到的模块,其中,所述特征提取模块提取训练批数据中样本人脸图像的身份特征和年龄特征后,获取所述训练批数据的相关系数,通过所述相关系数对所述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练;
根据所述第一身份特征和所述第二身份特征确定所述第一人脸图像与所述第二人脸图像中人脸的相似度;
获取人脸识别结果,所述人脸识别结果中包括所述第一人脸图像与所述第二人脸图像的所述相似度。
另一方面,提供了一种模型训练方法,应用于服务器中,所述方法包括:
获取训练批数据,所述训练批数据中包括样本人脸图像;
通过特征提取模块提取所述样本人脸图像的身份特征和年龄特征;
根据所述训练批数据中所述样本人脸图像的所述身份特征和所述年龄特征,确定所述训练批数据对应的相关系数;
通过所述相关系数对所述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练。
另一方面,提供了一种人脸识别装置,应用于服务器中,所述装置包括:
获取模块,用于获取第一人脸图像和第二人脸图像;
提取模块,用于通过特征提取模块提取所述第一人脸图像的第一身份特征,并通过所述特征提取模块获取所述第二人脸图像的第二身份特征;所述特征提取模块为预先训练得到的模块,其中,所述特征提取模块提取训练批数据中样本人脸图像的身份特征和年龄特征后,获取所述训练批数据的相关系数,通过所述相关系数对所述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练;
确定模块,用于根据所述第一身份特征和所述第二身份特征确定所述第一人脸图像与所述第二人脸图像中人脸的相似度;
所述获取模块,还用于获取人脸识别结果,所述人脸识别结果中包括所述第一人脸图像与所述第二人脸图像的所述相似度。
另一方面,提供了一种模型训练装置,应用于服务器中,所述装置包括:
获取模块,用于获取训练批数据,所述训练批数据中包括样本人脸图像;
提取模块,用于通过特征提取模块提取所述样本人脸图像的身份特征和年龄特征;
确定模块,用于根据所述训练批数据中所述样本人脸图像的所述身份特征和所述年龄特征,确定所述训练批数据对应的相关系数;
训练模块,用于通过所述相关系数对所述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器以及存储器:
所述存储器用于存储计算机程序;
所述处理器用于根据所述计算机程序执行如上述本申请实施例中所述的模型训练方法或人脸识别方法。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行如上述本申请实施例中所述的模型训练方法或人脸识别方法。
另一方面,提供了一种包括指令的计算机程序产品,当其在计算机上运行时,使得所述计算机执行如上述本申请实施例中所述的模型训练方法或人脸识别方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
在训练过程中,通过特征提取模块分解样本人脸图像的身份特征和年龄特征,通过身份特征和年龄特征确定训练批数据对应的相关系数,利用该相关系数增加去相关性的约束,基于去相关性的对抗学习使得最终训练得到的特征提取模块识别出的身份特征与年龄特征的相关性极低,从而提高识别精度,降低年龄干扰,提高跨年龄人脸识别的识别结果可靠性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一个示例性实施例提供的模型训练方法的场景架构图;
图2为本申请一个示例性实施例提供的模型训练方法的流程图;
图3为本申请另一个示例性实施例提供的模型训练方法的流程图;
图4为本申请一个示例性实施例提供的模型训练方法的示例图;
图5为本申请一个示例性实施例提供的跨年龄人脸识别方法的场景架构图;
图6为本申请一个示例性实施例提供的跨年龄人脸识别方法的流程图;
图7为本申请一个示例性实施例提供的模型训练方法及人脸识别方法的场 景示意图;
图8为本申请一个示例性实施例提供的模型训练装置的结构示意图;
图9为本申请一个示例性实施例提供的跨年龄人脸识别装置的结构示意图;
图10为本申请一个示例性实施例提供的服务器的结构示意图;
图11为本申请一个示例性实施例提供的终端的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对人工智能的概念进行简单介绍:
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉(Computer Vision,CV)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。针对采用判别式方案进行跨年龄人脸识别时,身份特征和年龄特 征通常具有一定程度上的关联性,身份特征中包括一些年龄信息,使得识别结果不可靠的技术问题,本申请提供了一种模型训练方法,其通过在训练过程中增加去相关性约束,使得最终训练得到的特征提取模块能够较好地分解身份特征和年龄特征,由于二者相关性极低,因此,在利用身份特征进行跨年龄人脸识别时,受到年龄因素的影响较小,因而具有较高的识别精度。
典型相关映射变量:是指对人脸图像的年龄特征和身份特征进行相关性分析后,用于指示年龄特征和身份特征之间的相关程度的变量,可选地,本申请实施例中提供了典型相关映射模块(Canonical Mapping Module,CMM),将人脸图像的年龄特征和身份特征输入CMM模块后,CMM模块利用典型相关分析(Canonical Correlation Analysis,CCA)方法输出得到年龄特征和身份特征之间的典型相关映射变量,用于指示年龄特征和身份特征之间的相关性。
对抗损失:是根据训练批数据中身份特征和年龄特征之间的相关系数确定得到的,用于对身份特征和年龄特征之间进行去相关性训练的损失值。可选地,通过对抗损失,首先确定身份特征和年龄特征之间相关性最大的典型映射,并持续在最优映射方向上使身份特征和年龄特征的相关性降低,从而实现对身份特征和年龄特征之间进行去相关性训练。
身份判别损失:是指在通过身份判别器对人脸图像进行身份判别的过程中,身份判别器产生的损失,身份判别损失用于对身份判别器的判别准确度进行训练,以及结合年龄判别损失以及对抗损失对身份特征和年龄特征之间进行去相关性训练。
年龄判别损失:是指在通过年龄判别器对人脸图像进行年龄判别的过程中,年龄判别器产生的损失,年龄判别损失用于对年龄判别器的判别准确度进行训练,以及结合身份判别损失以及对抗损失对身份特征和年龄特征之间进行去相关性训练。
可以理解,本申请提供的模型训练方法可以应用于任意具有图形处理能力的处理设备。具体地,该处理设备可以是包括中央处理器(Central Processing Unit/Processor,CPU)和/或图形处理器(Graphics Processing Unit,GPU)的终端、服务器等设备。其中,终端包括桌面终端、手机/平板电脑等移动智能终端、车载终端以及可穿戴终端等等。
需要说明的是,该模型训练方法可以以计算机程序的形式存储于上述处理 设备中,上述处理设备通过执行计算机程序以实现本申请提供的模型训练方法。
首先,对本申请实施例中提供的模型训练方法的应用场景进行介绍。
参见图1所示的模型训练方法的场景架构图,该场景中包括服务器10和样本数据库20,样本数据库20中存储有训练批数据,训练批数据具体包括多个训练样本,每个训练样本包括样本人脸图像及样本人脸图像对应的身份标签和年龄标签,服务器10从样本数据库20中获取训练批数据,针对训练批数据中每个训练样本,通过特征提取模块获得训练样本中样本人脸图像对应的身份特征和年龄特征,并根据获得身份特征和年龄特征统计训练批数据对应的相关系数,通过所述相关系数进行身份特征和年龄特征的去相关性训练,得到满足训练目标的特征提取模块。
结合上述应用场景,对本申请实施例提供的模型训练方法的各个步骤进行详细说明。以该方法应用于服务器中为例进行说明,参见图2所示的模型训练方法的流程图,该方法包括:
S201:获取训练批数据,训练批数据中包括样本人脸图像。
在一些实施例中,训练批数据中包括n个样本人脸图像,n为正整数。在一些实施例中,样本人脸图像还标注有身份标签和年龄标签。其中,身份标签用于表征该样本人脸图像中的人物身份,如:身份标签可以是人的身份证号、人的姓名或者其他能够区分标识人的信息;当存在重名情况时,还可以增加其他信息进行区分;年龄标签用于表征样本人脸图像中的人物年龄,在一些实施例中,年龄标签可以是具体的数值,如十八岁,也可以是年龄段,如青年、中年。
在一些实施例中,服务器可以从预先构建的跨年龄数据库中获取训练批数据,并基于训练批数据通过离线学习的方式训练人脸识别模型,其中,人脸识别模型中包括特征提取模块。其中,跨年龄数据库存储有训练样本,该训练样本可以是从网络中爬取样本人脸图像,并对上述样本人脸图像进行身份标注和年龄标注得到的样本。具体地,在爬取样本人脸图像时,可以针对一个人物,爬取其在不同年龄的多张人脸图像,并对这多张人脸图像均进行身份标注和年龄标注,得到多个训练样本。
在获得多个训练样本后,可以将其分批得到多个训练批数据,通过训练批数据分批进行训练,可以分批计算损失函数和更新参数,如此,更新方向比较稳定,并且计算开销也相对较小。
S202:通过特征提取模块提取样本人脸图像的身份特征和年龄特征。
其中,特征提取模块是指用于提取身份特征和年龄特征的模块,其具体可以实现为神经网络。在一些实施例中,特征提取模块可以包括级联的初始特征提取模块和残差分解模块(Residual Factorization Module,RFM),其中,初始特征提取模块用于通过卷积神经网络(Convolutional Neural Network,CNN)提取人脸图像的初始特征,该初始特征提取模块具体可以是CNN主干网络Backbone,RFM用于通过残差网络对初始特征进行线性分解得到身份特征和年龄特征。
在本实施例中,Backbone利用卷积神经网络构建而成,由一系列的卷积层和池化层连接构成。作为本申请的一些具体示例,Backbone可以包括深度残差网络ResNet、VGGNet或SENet等。
S203:根据训练批数据中样本人脸图像的身份特征和年龄特征,确定训练批数据对应的相关系数。
在一些实施例中,通过CMM模块获取身份特征和年龄特征对应的典型相关映射变量后,对训练批数据中样本人脸图像的典型相关映射变量进行相关系数统计,得到训练批数据对应的相关系数。
其中,CMM是指利用CCA方法对变量相关性进行分析的模块。在本实施例中,CMM用于对年龄特征和身份特征的相关性进行分析。针对训练批数据中的每个样本人脸图像,将其身份特征和年龄特征输入CMM,可以得到身份特征和年龄特征之间的典型相关映射变量。
在一些实施例中,CMM可以采用批数据典型相关分析(Batch Canonical Mapping Module,BCCA)度量身份特征和年龄特征的相关性,如此,在后续训练过程中,可以采用随机梯度下降算法优化目标值达到对抗过程中的最大值或者最小值。
在一些实施例中,通过批相关系数度量模块统计训练批数据对应的相关系数。其中,批相关系数度量模块是指对训练批数据中身份特征和年龄特征相关性进行度量的模块。其基于每个样本人脸图像的身份特征和年龄特征各自对应的典型相关映射变量,进行相关系数统计,得到训练批数据对应的相关系数,该相关系数能够表征整个训练批数据中身份特征和年龄特征的相关性。
S204:通过相关系数对特征提取模块进行身份特征和年龄特征的去相关性训练。
模型的训练目标是首先寻找相关性最大的典型映射,然后持续地在这个最优映射方向上使得身份特征和年龄特征的相关性达到最小。这样,身份特征和年龄特征的相关性将会被最大化地减小。
需要说明的是,身份特征和年龄特征无关具体是指身份特征和年龄特征相关性极低,达到可以视为无关的程度。作为本申请的一个示例,当身份特征和年龄特征的相关系数小于预设值时,可以视为二者相互无关。该预设值可以根据实际需求设置,本申请实施例对此不作限定。
综上所述,本申请实施例提供的模型训练方法,在训练过程中,通过特征提取模块分解样本人脸图像的身份特征和年龄特征,通过身份特征和年龄特征确定训练批数据对应的相关系数,利用该相关系数增加去相关性的约束,基于去相关性的对抗学习使得最终训练得到的特征提取模块识别出的身份特征与年龄特征的相关性极低,从而提高识别精度,降低年龄干扰,提高跨年龄人脸识别的识别结果可靠性。
在一个可选的实施例中,样本人脸图像还标注有身份标签和年龄标签,通过身份标签和年龄标签对特征提取模块进行联合监督训练的同时,对身份特征和年龄特征进行去相关性处理,图3是本申请另一个示例性实施例提供的模型训练方法的流程图,以该方法应用于服务器中为例进行说明,如图3所示,该方法包括:
S301:获取训练批数据,训练批数据中包括样本人脸图像。
在一些实施例中,训练批数据中包括n个样本人脸图像,n为正整数。在一些实施例中,样本人脸图像还标注有身份标签和年龄标签。其中,身份标签用于表征该样本人脸图像中的人物身份;年龄标签用于表征样本人脸图像中的人物年龄。
S302:通过特征提取模块提取样本人脸图像的身份特征和年龄特征。
其中,特征提取模块是指用于提取身份特征和年龄特征的模块,其具体可以实现为神经网络。在一些实施例中,特征提取模块可以包括级联的初始特征提取模块和RFM。
通过特征提取模块提取样本人脸图像的身份特征和年龄特征时,首先通过初始特征提取模块提取人脸图像的初始特征,在通过残差分解模块对初始特征进行线性分解得到身份特征和年龄特征,其中,首先通过残差分解模块得到年 龄特征,并确定初始特征与年龄特征之间的差值,得到身份特征。
S303:根据训练批数据中样本人脸图像的身份特征和年龄特征,确定训练批数据对应的相关系数。
在一些实施例中,通过CMM获取身份特征和年龄特征对应的典型相关映射变量后,对训练批数据中样本人脸图像的典型相关映射变量进行相关系数统计,得到训练批数据对应的相关系数。
在一些实施例中,通过批相关系数度量模块统计训练批数据对应的相关系数。其基于每个样本人脸图像的身份特征和年龄特征各自对应的典型相关映射变量,进行相关系数统计,得到训练批数据对应的相关系数,该相关系数能够表征整个训练批数据中身份特征和年龄特征的相关性。
S304:基于身份标签通过身份判别器,以及基于年龄标签通过年龄判别器对特征提取模块进行联合监督训练。
在进行模型训练时,服务器将身份特征输入身份判别器,年龄特征输入年龄判别器,然后基于样本人脸图像标注的身份标签和年龄标签进行联合监督学习,在进行监督学习时,通过身份判别器和年龄判别器的损失函数更新模型参数。
在一些实施例中,身份判别器的损失可以采用余弦人脸CosFace框架下的增大间隔余弦损失函数(Large Margin Cosine Loss,LMCL),其有助于学习高度判别性的深度特征。
当然在本申请实施例其他可能的实现方式中,也可以采用其他具有身份特征判别功能的损失函数,例如SphereFace、ArcFace、center loss或者交叉熵损失函数softmax等等。
年龄判别器的损失可以采用softmax,当然,在本申请实施例其他可能的实现方式中,还可以采用其他任意具有年龄分类功能的损失函数。此外,在对年龄特征进行学习时,还可以通过年龄回归的技术方案实现。
在一些实施例中,在训练过程中,以减小性训练损失为目标,更新特征提取模块、身份判别器以及年龄判别器中至少一个模块的参数,其中,训练损失有对抗损失、身份判别损失以及年龄判别损失中的至少一种损失确定得到,对抗损失是根据相关系数确定的,身份判别损失为上述身份判别器的损失,年龄判别损失为上述年龄判别器的损失。
作为一种实现方式,对对抗损失、身份判别损失和年龄判别损失进行加权 求和,得到训练损失。其中,权值用于平衡上述三种损失,可以根据实际需求而设置。
S304:通过相关系数对特征提取模块进行身份特征和年龄特征的去相关性训练。
模型的训练目标是首先寻找相关性最大的典型映射,然后持续地在这个最优映射方向上使得身份特征和年龄特征的相关性达到最小。这样,身份特征和年龄特征的相关性将会被最大化地减小。
在一些实施例中,以提高相关系数的绝对值为目标,更新上述典型相关映射模块的参数。
为了便于理解,本申请还提供了模型训练方法的一个具体示例。参照图4所示的模型训练方法的框架图,在该方法中,输入标注有身份标签和年龄标签的样本人脸图像,主干网络410可以从样本人脸图像中提取人脸图像的初始特征420,然后通过残差网络430将初始特征420分解为身份特征440和年龄特征450,身份判别器ID Discriminator460学习上述身份特征440,年龄判别器Age Discriminator470学习上述年龄特征450,与此同时,上述身份特征440和年龄特征450一并输入到典型相关映射模块CMM480,并经过一个批相关系数度量模块490即DAL Regularizer进行对抗学习以实现相关性优化。
下面对上述示例的特征分解、对抗学习等过程进行详细说明。
在特征分解过程中,设定样本人脸图像中人脸图像p,通过主干网络F提取得到初始特征x,经过残差网络R,将其线性分解为身份特征x id和年龄特征x age。具体地,其分解公式包括如下公式一至公式三:
公式一:x=F(p)
公式二:x age=R(x)
公式三:x id=x-R(x)
可以理解,初始特征x包括身份特征x id和年龄特征x age,在通过初始特征提取模块提取人脸图像的初始特征x,并通过残差网络获取人脸图像的年龄特征x age后,可以确定初始特征x与人脸图像的年龄特征x age的差值作为人脸图像的身份特征x id。通过身份判别器和年龄判别器的联合监督使得x id和x age分别具有身份信息和年龄信息。
对抗学习具体是通过去相关对抗学习算法(Decorrelated Adversarial Learning,DAL)算法实现的。x id和x age一并输入典型相关映射模块C后,输出 它们的线性组合v id和v age,请参考如下公式四:
公式四:
Figure PCTCN2020080164-appb-000001
其中,w id和w age是C的可学习的映射参数,v id和v age是训练样本的典型相关变量,在批相关系数度量模块中统计并优化二者的相关系数。
给定一个训练批数据的身份特征集合B id和年龄特征集合B age,m是批大小(即批数据里的样本数目,batch size),请参考公式五和公式六:
公式五:
Figure PCTCN2020080164-appb-000002
公式六:
Figure PCTCN2020080164-appb-000003
其相关系数ρ表示如下公式七:
公式七:
Figure PCTCN2020080164-appb-000004
其中,u id是身份特征的统计均值,u age是年龄特征的统计均值,
Figure PCTCN2020080164-appb-000005
是身份特征的方差,
Figure PCTCN2020080164-appb-000006
是年龄特征的方差,ε是一个常数极小值,防止除0。对于这个目标函数,本申请使用随机梯度下降算法(Stochastic Gradient Descent,SGD)进行优化,以得到相关系数的绝对值|ρ|的最大值或者最小值。其中,梯度推导如下公式八和公式九所示:
公式八:
Figure PCTCN2020080164-appb-000007
公式九:
Figure PCTCN2020080164-appb-000008
在进行对抗训练时,先固定F和R的参数,通过更新C的参数使得相关系数绝对值|ρ|最大,即找到相关性最大的典型映射,接着,固定C的参数,通过更新F和R的参数使得相关系数绝对值|ρ|最小,如此,可以使得身份特征和年龄特征,在具有最大典型相关系数的映射方向上的相关性达到最小。
该对抗训练的损失函数可以通过如下公式十表达:
公式十:
Figure PCTCN2020080164-appb-000009
其中,L DAL表征对抗损失,R(F(p))表征x age,F(p)-R(F(p))表征x id,C(R(F(p)))和C(F(p)-R(F(p)))表征x age和x id输入典型相关映射模块C得到的典型相关映射变量v age和v id
因此,上述两个步骤交替对抗构成了对抗训练过程。也就是说,模型的训 练目标是首先寻找相关性最大的典型映射,然后持续地在这个最优映射方向上使得身份特征和年龄特征的相关性达到最小。如此,身份特征和年龄特征的相关性将会被最大化地减小。
最终,整个训练过程由身份判别器、年龄判别器和去相关对抗学习三个训练任务联合构成,总体损失函数如下公式十一所示:
公式十一:L=L id(x id)+λ 1L age(x age)+λ 2L DAL(x id,x age)
其中,L id和L age分别是身份判别器和年龄判别器的损失函数,λ 1和λ 2为超参数,用于平衡三者的权重。其中,L age可以使用softmax损失函数,L id可以使用CosFace框架下的LMCL损失函数,具体参见如下公式十二:
公式十二:
Figure PCTCN2020080164-appb-000010
其中,m是预设的分类间隔超参数,s是预设的尺度超参数,N是训练集合的所有身份的类别数目,y i是第i个训练样本的身份标签,cos(θ j,i)是第i个训练样本身份特征向量与其分类权重向量夹角的余弦值。
需要说明的是,以上仅为本申请提供的模型训练方法的一个具体示例,在本申请实施例其他可能的实现方式中,上述L id和L age还可以是其他具有身份分类功能、年龄分类功能的损失函数,总体损失函数L还可以是其他表现形式,在实际应用时,可以根据实际需求设置相应的损失函数以及对应的权重。
需要说明的是,身份特征和年龄特征无关具体是指身份特征和年龄特征相关性极低,达到可以视为无关的程度。作为本申请的一个示例,当身份特征和年龄特征的相关系数小于预设值时,可以视为二者相互无关。该预设值可以根据实际需求设置,本申请实施例对此不作限定。
综上所述,本申请实施例提供的模型训练方法,在训练过程中,通过特征提取模块分解样本人脸图像的身份特征和年龄特征,通过身份特征和年龄特征确定训练批数据对应的相关系数,利用该相关系数增加去相关性的约束,基于去相关性的对抗学习使得最终训练得到的特征提取模块识别出的身份特征与年龄特征的相关性极低,从而提高识别精度,降低年龄干扰,提高跨年龄人脸识别的识别结果可靠性。
基于本申请实施例提供的模型训练方法,本申请实施例还提供了一种人脸识别方法,该方法是基于上述模型训练方法训练得到的特征提取模块实现的, 下面结合附图对上述人脸识别方法进行介绍。
可以理解,本申请提供的跨年龄人脸识别方法应用于任意具有图形处理能力的处理设备,该处理设备具体可以是包括CPU和/或GPU终端,终端可以独立实现本申请提供的跨年龄人脸识别方法,也可以和服务器配合实现本申请提供的跨年龄人脸识别方法。
为了使得该方法更加清楚、易于理解,下面结合具体场景对该跨年龄人脸识别方法进行介绍。
参见图5所示的跨年龄人脸识别方法的场景架构图,该场景中包括终端50,用户通过终端50触发跨年龄人脸识别操作,终端50响应于该操作,获取第一人脸图像51和第二人脸图像52,通过预先训练的特征提取模块53获取第一人脸图像51中人脸部分的身份特征作为第一身份特征54,并通过该特征提取模块53获取第二人脸图像52中人脸部分的身份特征作为第二身份特征55,根据第一身份特征54和第二身份特征55确定第一人脸图像51与第二人脸图像52中人脸的相似度56,然后显示识别结果57,该识别结果57中包括上述相似度56。
接下来,从终端的角度对本申请实施例提供的跨年龄人脸识别方法的各个步骤进行详细说明。
参见图6所示的跨年龄人脸识别方法的流程图,该方法包括:
S601:获取第一人脸图像和第二人脸图像。
第一人脸图像和第二人脸图像是待进行身份识别的两张人脸图像,第一人脸图像和第二人脸图像可以是不同年龄的两张人脸图像,用于通过本申请的跨年龄人脸识别方法识别这两张人脸图像是否为同一人的人脸图像。
S602:通过特征提取模块提取第一人脸图像的第一身份特征,并通过特征提取模块提取第二人脸图像的第二身份特征。
特征提取模块为预先训练得到的模块,其中,特征提取模块提取训练批数据中样本人脸图像的身份特征和年龄特征后,获取训练批数据的相关系数,通过相关系数对特征提取模块进行身份特征和年龄特征的去相关性训练。也即,特征提取模块通过上述图2或图3示出的模型训练方法训练得到。
S603:根据第一身份特征和第二身份特征确定第一人脸图像与第二人脸图像中人脸的相似度。
第一身份特征能够表征第一人脸图像中人脸部分的身份信息,第二身份特征能够表征第二人脸图像中人脸部分身份信息,因此,第一身份特征和第二身 份特征的相似度能够表征第一人脸图像和第二人脸图像中人脸的相似度。基于此,可以计算第一身份特征向量与第二身份特征向量的相似度作为第一人脸图像与第二人脸图像中人脸的相似度。
需要说明的是,向量之间的相似度可以通过向量距离进行表征。作为本申请的一个示例,可以通过向量的夹角余弦也即余弦距离衡量向量的相似度,夹角余弦越大表示两个向量的夹角越小,相似度越高,夹角余弦越小表示两个向量的夹角越大,相似度越低。其中,夹角余弦取值范围为[-1,1],在一些可能的实现方式中,可以对该夹角余弦取值进行归一化,以便通过百分比的形式表征相似度。
在实际应用时,还可以根据需求选择对应的距离,如欧氏距离、相关距离等衡量向量的相似度,本申请实施例对此不作限定。
S604:获取人脸识别结果,人脸识别结果中包括第一人脸图像与第二人脸图像的相似度。
在一些实施例中,识别结果包括第一人脸图像和第二人脸图像中人脸的相似度,识别结果还可以包括第一人脸图像和第二人脸图像是否为同一人的人脸图像的判别结果。
在一些可能的实现方式中,第一人脸图像和第二人脸图像中人脸的相似度大于相似度阈值时,则确定第一人脸图像和第二人脸图像是同一人的人脸图像。在显示识别结果时,还可以显示该第一人脸图像和第二人脸图像是同一人的人脸图像。
其中,相似度阈值可以根据实际需求而设置,作为本申请的一个示例,其可以设置为90%。
由上可知,本申请实施例提供的人脸识别方法,利用预先训练的特征提取模块提取第一人脸图像和第二人脸图像中人脸部分的身份特征,得到第一身份特征和第二身份特征,基于第一身份特征和第二身份特征确定第一人脸图像和第二人脸图像中人脸部分的相似度,将该相似度作为识别结果,并显示该识别结果。由于特征提取模块提取的身份特征与年龄特征相关性极低,其包含的年龄信息对于人脸识别的影响较小,因而具有较高的识别精度,识别结果可靠性较高。
图6所示实施例是由终端独立实现本申请的跨年龄人脸识别方法进行说明的,在本申请实施例其他可能的实现方式中,终端还可以与服务器配合,实现 上述跨年龄人脸识别方法。
具体地,终端向服务器发送第一人脸图像和第二人脸图像,由服务器通过特征提取模块从第一人脸图像中提取人脸部分的身份特征得到第一身份特征,从第二人脸图像中提取人脸部分的身份特征得到第二身份特征,并基于该第一身份特征和第二身份特征确定第一人脸图像和第二人脸图像中人脸部分的相似度,然后服务器将该相似度作为识别结果发送给终端,终端显示该识别结果,从而实现跨年龄人脸识别。
可以理解,本申请提供的跨年龄人脸识别方法可以通过人工智能(Artificial Intelligence,AI)技术应用于许多领域,如刑侦、寻亲、安防等领域。下面以寻亲应用场景作为示例,对本申请提供的模型训练方法以及跨年龄人脸识别进行介绍。
参见图7所示的模型训练方法以及跨年龄人脸识别方法的场景示意图,该场景中包括训练服务器710、样本数据库720、识别服务器730、走失人口信息数据库740以及终端750,训练服务器710利用样本数据720中的训练样本训练得到特征提取模块,然后识别服务器730利用特征提取模块,将寻亲者上传的第一人脸图像和走失人口信息数据库中第二人脸图像进行跨年龄人脸识别,得到寻亲者上传图像与走失人口信息数据库中第二人脸图像人脸部分的相似度,并将相似度大于相似度阈值的第二人脸图像及其与第一人脸图像人脸部分相似度作为识别结果返回给终端750,由终端750对上述识别结果进行显示,如界面751所示,如此,寻亲者可以基于上述识别结果确定上述第二人脸图像是否为走失亲人的人脸图像。
具体地,样本数据库720中存储有多组训练样本,每组训练样本至少两个训练样本,具体为同一人在不同年龄的人脸图像以及对应的身份标签和年龄标签,在进行模型训练时,将多组训练样本分批得到训练数据批,利用训练数据批对模型进行分批训练。
下面以针对其中一个训练批数据的训练过程作为示例,对模型训练方法进行介绍。针对训练批中的每一个训练样本,训练服务器710先通过主干网络从样本人脸图像中提取初始特征,然后通过残差网络将该初始特征线性分解为身份特征和年龄特征,一方面,将该身份特征和年龄特征分别输入各自对应的判别器进行联合监督学习,另一方面将该身份特征和年龄特征输入典型相关映射 模块CMM,得到各自对应的典型相关映射变量,在得到训练批数据中每个训练样本对应的典型相关映射变量后,可以通过批相关系数度量模块,基于上述式(7)统计所述训练批数据对应的相关系数,基于该相关系数进行身份特征和年龄特征的去相关训练。
其中,去相关训练具体为,先固定特征提取模块即主干网络和残差网络的参数,通过更新典型相关映射模块的参数使得相关系数绝对值|ρ|最大,即找到相关性最大的典型映射,接着,固定典型相关映射模块的参数,通过更新特征提取模块的参数使得相关系数绝对值|ρ|最小,如此,可以使得身份特征和年龄特征,在具有最大典型相关系数的映射方向上的相关性达到最小。
整个训练过程包括基于判别器、年龄判别器和去相关对抗学习三个训练任务,其总体损失函数是根据上述三个训练任务的损失函数确定的,每个训练任务的损失函数的权重可以根据实际需求而进行调整,当总体损失函数达到收敛时,可以停止训练,将此时的特征提取模块作为最终训练得到的特征提取模块,该特征提取模块可以用于跨年龄人脸识别。
接下来,对识别服务器730利用上述特征提取模块进行跨人脸识别的过程进行详细说明。寻亲者通过终端750上传走失亲人的第一人脸图像,该第一人脸图像具体可以为走失亲人在童年时的人脸图像,识别服务器730利用上述特征提取模块从第一人脸图像中提取人脸部分的身份特征得到第一身份特征,并从走失人口信息数据库740中第二人脸图像提取人脸部分的身份特征得到第二身份特征,然后分别计算第一身份特征和每个第二身份特征的相似度,以确定第一人脸图像与走失人口信息数据库中每张第二人脸图像人脸部分的相似度,若存在第二人脸图像与第一人脸图像相似度大于相似度阈值,则将该第二人脸图像及其相似度阈值作为识别结果返回给终端750,终端750显示该识别结果,如此寻亲者可以基于该识别结果实现寻亲。
以上为本申请实施例提供的模型训练方法、人脸识别方法的一些具体实现方式,基于此,本申请实施例还提供了对应的装置,接下来,将从功能模块化的角度,对上述装置进行介绍。
图8是本申请一个示例性实施例提供的人脸识别装置的结构框图,以该装置应用于服务器中为例进行说明,如图8所示,该装置包括:
获取模块810,用于获取第一人脸图像和第二人脸图像;
提取模块820,用于通过特征提取模块提取所述第一人脸图像的第一身份特征,并通过所述特征提取模块获取所述第二人脸图像的第二身份特征;所述特征提取模块为预先训练得到的模块,其中,所述特征提取模块提取训练批数据中样本人脸图像的身份特征和年龄特征后,获取所述训练批数据的相关系数,通过所述相关系数对所述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练;
确定模块830,用于根据所述第一身份特征和所述第二身份特征确定所述第一人脸图像与所述第二人脸图像中人脸的相似度;
所述获取模块810,还用于获取人脸识别结果,所述人脸识别结果中包括所述第一人脸图像与所述第二人脸图像的所述相似度。
图9是本申请一个示例性实施例提供的模型训练装置的结构框图,以该装置应用于服务器中为例进行说明,如图9所示,该装置包括:
获取模块910,用于获取训练批数据,所述训练批数据中包括样本人脸图像;
提取模块920,用于通过特征提取模块提取所述样本人脸图像的身份特征和年龄特征;
确定模块930,用于根据所述训练批数据中所述样本人脸图像的所述身份特征和所述年龄特征,确定所述训练批数据对应的相关系数;
训练模块940,用于通过所述相关系数对所述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练。
在一个可选的实施例中,所述确定模块930,还用于通过典型相关映射模块获取所述身份特征和所述年龄特征对应的典型相关映射变量;对所述训练批数据中所述样本人脸图像的所述典型相关映射变量进行相关系数统计,得到所述训练批数据对应的所述相关系数。
在一个可选的实施例中,所述训练模块940,还用于以提高所述相关系数的绝对值为目标,更新所述典型相关映射模块的参数。
在一个可选的实施例中,所述样本人脸图像标注有身份标签和年龄标签;
所述训练模块940,还用于基于所述身份标签通过身份判别器,以及基于所述年龄标签通过年龄判别器对所述特征提取模块进行联合监督训练。
在一个可选的实施例中,所述训练模块940,还用于以减小训练损失为目标,更新所述特征提取模块、所述身份判别器以及所述年龄判别器中至少一个模块 的参数;
其中,所述训练损失由对抗损失、身份判别损失以及年龄判别损失中的至少一种损失确定得到,所述对抗损失是根据所述相关系数确定的。
在一个可选的实施例中,所述确定模块930,还用于对所述对抗损失、所述身份判别损失和所述年龄判别损失进行加权求和,得到所述训练损失。
在一个可选的实施例中,所述身份判别损失采用增大间隔余弦损失函数计算得到。
在一个可选的实施例中,所述年龄判别损失采用交叉熵损失函数计算得到。
在一个可选的实施例中,所述特征提取模块包括:级联的初始特征提取模块和残差分解模块;
所述提取模块920,还用于通过所述初始特征提取模块提取人脸图像的初始特征;通过所述残差分解模块对所述初始特征进行线性分解得到所述身份特征和所述年龄特征。
在一个可选的实施例中,所述提取模块920,还用于通过所述残差分解模块获取所述年龄特征;确定所述初始特征与所述年龄特征的差值,得到所述身份特征。
值得注意的是,当上述图8示出的人脸识别装置与图9示出的模型训练装置应用于同一个服务器中时,获取模块810和获取模块910可以实现为相同的模块,提取模块820和提取模块920可以实现为相同的模块,确定模块830与确定模块930可以实现为同样的模块。
本申请实施例还提供了一种设备,该设备包括处理器以及存储器:
所述存储器用于存储计算机程序;
所述处理器用于根据所述计算机程序执行本申请实施例提供的模型训练方法或者跨年龄人脸识别方法。
下面将从硬件实体化的角度对本申请实施例提供的设备进行介绍。
图10是本申请实施例提供的一种服务器结构示意图,该服务器1000可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)1022(例如,一个或一个以上处理器)和存储器1032,一个或一个以上存储应用程序1042或数据1044的存储介质1030(例如一个或一个以上海量存储设备)。其中,存储器1032和存储介质1030可以是 短暂存储或持久存储。存储在存储介质1030的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1022可以设置为与存储介质1030通信,在服务器1000上执行存储介质1030中的一系列指令操作。
服务器1000还可以包括一个或一个以上电源1026,一个或一个以上有线或无线网络接口1050,一个或一个以上输入输出接口1058,和/或,一个或一个以上操作系统1041,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于该图10所示的服务器结构。
其中,CPU 1022用于执行如下步骤:
获取训练批数据,所述训练批数据包括多个训练样本,每个所述训练样本包括样本人脸图像及其对应的身份标签和年龄标签;
针对所述训练批数据中每个所述训练样本,通过特征提取模块获得所述训练样本中样本人脸图像对应的身份特征和年龄特征,并通过典型相关映射模块获得所述身份特征和所述年龄特征各自对应的典型相关映射变量;
基于所述训练批数据中每个所述训练样本对应的所述典型相关映射变量,通过批相关系数度量模块统计所述训练批数据对应的相关系数;
通过身份判别器和年龄判别器进行联合监督学习,并通过所述相关系数进行所述身份特征和所述年龄特征的去相关性训练,训练得到满足训练目标的所述特征提取模块。
可选的,所述CPU1022还用于执行本申请实施例提供的模型训练方法的任意一种实现方式的步骤。
本申请实施例还提供了另一种设备,如图10所示,为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。该终端可以为包括手机、平板电脑、个人数字助理(Personal Digital Assistant,PDA)、销售终端(Point of Sales,POS)、车载电脑等任意终端设备,以终端为手机为例:
图11示出的是与本申请实施例提供的终端相关的手机的部分结构的框图。参考图11,手机包括:射频(Radio Frequency,RF)电路1110、存储器1120、输入单元1130、显示单元1140、传感器1150、音频电路1160、无线保真(Wireless  Fidelity,WiFi)模块1170、处理器1180、以及电源1190等部件。本领域技术人员可以理解,图11中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图11对手机的各个构成部件进行具体的介绍:
RF电路1110可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1180处理;另外,将设计上行的数据发送给基站。通常,RF电路1110包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low Noise Amplifier,LNA)、双工器等。此外,RF电路1110还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobile communication,GSM)、通用分组无线服务(General Packet Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器1120可用于存储软件程序以及模块,处理器1180通过运行存储在存储器1120的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器1120可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1120可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1130可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元1130可包括触控面板1131以及其他输入设备1132。触控面板1131,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1131上或在触控面板1131附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1131可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1180,并能接收处理器1180发来的命令并加 以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1131。除了触控面板1131,输入单元1130还可以包括其他输入设备1132。具体地,其他输入设备1132可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1140可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元1140可包括显示面板1141,可选的,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1141。进一步的,触控面板1131可覆盖显示面板1141,当触控面板1131检测到在其上或附近的触摸操作后,传送给处理器1180以确定触摸事件的类型,随后处理器1180根据触摸事件的类型在显示面板1141上提供相应的视觉输出。虽然在图11中,触控面板1131与显示面板1141是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1131与显示面板1141集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器1150,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1141的亮度,接近传感器可在手机移动到耳边时,关闭显示面板1141和/或背光。
音频电路1160、扬声器1161,传声器1162可提供用户与手机之间的音频接口。音频电路1160可将接收到的音频数据转换后的电信号,传输到扬声器1161,由扬声器1161转换为声音信号输出;另一方面,传声器1162将收集的声音信号转换为电信号,由音频电路1160接收后转换为音频数据,再将音频数据输出处理器1180处理后,经RF电路1110以发送给比如另一手机,或者将音频数据输出至存储器1120以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块1170可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图11示出了WiFi模块1170,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1180是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1120内的软件程序和/或模块,以及调用存储在存储器1120内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。
手机还包括给各个部件供电的电源1190(比如电池),优选的,电源可以通过电源管理系统与处理器1180逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
可选的,所述处理器1180还用于执行本申请实施例提供的人脸识别方法的任意一种实现方式的步骤。
本申请实施例还提供一种计算机可读存储介质,用于存储程序代码,该程序代码用于执行前述各个实施例所述的一种模型训练方法中的任意一种实施方式或者各个实施例所述的一种跨年龄人脸识别方法的任意一种实施方式。
本申请实施例还提供一种包括指令的计算机程序产品,当其在计算机上运行时,使得计算机执行前述各个实施例所述的一种模型训练方法中的任意一种实施方式或者各个实施例所述的一种跨年龄人脸识别方法的任意一种实施方式。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (24)

  1. 一种人脸识别方法,其特征在于,应用于服务器中,所述方法包括:
    获取第一人脸图像和第二人脸图像;
    通过特征提取模块提取所述第一人脸图像的第一身份特征,并通过所述特征提取模块获取所述第二人脸图像的第二身份特征;所述特征提取模块为预先训练得到的模块,其中,所述特征提取模块提取训练批数据中样本人脸图像的身份特征和年龄特征后,获取所述训练批数据的相关系数,通过所述相关系数对所述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练;
    根据所述第一身份特征和所述第二身份特征确定所述第一人脸图像与所述第二人脸图像中人脸的相似度;
    获取人脸识别结果,所述人脸识别结果中包括所述第一人脸图像与所述第二人脸图像的所述相似度。
  2. 一种模型训练方法,其特征在于,应用于服务器中,所述方法包括:
    获取训练批数据,所述训练批数据中包括样本人脸图像;
    通过特征提取模块提取所述样本人脸图像的身份特征和年龄特征;
    根据所述训练批数据中所述样本人脸图像的所述身份特征和所述年龄特征,确定所述训练批数据对应的相关系数;
    通过所述相关系数对所述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练。
  3. 根据权利要求2所述的方法,其特征在于,所述根据所述训练批数据中所述样本人脸图像的所述身份特征和所述年龄特征,确定所述训练批数据对应的相关系数,包括:
    通过典型相关映射模块获取所述身份特征和所述年龄特征对应的典型相关映射变量;
    对所述训练批数据中所述样本人脸图像的所述典型相关映射变量进行相关系数统计,得到所述训练批数据对应的所述相关系数。
  4. 根据权利要求3所述的方法,其特征在于,所述通过所述相关系数对所 述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练,包括:
    以提高所述相关系数的绝对值为目标,更新所述典型相关映射模块的参数。
  5. 根据权利要求2至4任一所述的方法,其特征在于,所述样本人脸图像标注有身份标签和年龄标签;
    所述方法,还包括:
    基于所述身份标签通过身份判别器,以及基于所述年龄标签通过年龄判别器对所述特征提取模块进行联合监督训练。
  6. 根据权利要求5所述的方法,其特征在于,所述基于所述身份标签通过身份判别器,以及基于所述年龄标签通过年龄判别器对所述特征提取模块进行联合监督训练,包括:
    以减小训练损失为目标,更新所述特征提取模块、所述身份判别器以及所述年龄判别器中至少一个模块的参数;
    其中,所述训练损失由对抗损失、身份判别损失以及年龄判别损失中的至少一种损失确定得到,所述对抗损失是根据所述相关系数确定的。
  7. 根据权利要求6所述的方法,其特征在于,所述方法还包括:
    对所述对抗损失、所述身份判别损失和所述年龄判别损失进行加权求和,得到所述训练损失。
  8. 根据权利要求6所述的方法,其特征在于,
    所述身份判别损失采用增大间隔余弦损失函数计算得到。
  9. 根据权利要求6所述的方法,其特征在于,
    所述年龄判别损失采用交叉熵损失函数计算得到。
  10. 根据权利要求2至4任一所述的方法,其特征在于,所述特征提取模块包括:级联的初始特征提取模块和残差分解模块;
    所述通过特征提取模块提取所述样本人脸图像的身份特征和年龄特征,包 括:
    通过所述初始特征提取模块提取人脸图像的初始特征;
    通过所述残差分解模块对所述初始特征进行线性分解得到所述身份特征和所述年龄特征。
  11. 根据权利要求10所述的方法,其特征在于,所述通过所述残差分解模块对所述初始特征进行线性分解得到所述身份特征和所述年龄特征,包括:
    通过所述残差分解模块获取所述年龄特征;
    确定所述初始特征与所述年龄特征的差值,得到所述身份特征。
  12. 一种人脸识别装置,其特征在于,应用于服务器中,所述装置包括:
    获取模块,用于获取第一人脸图像和第二人脸图像;
    提取模块,用于通过特征提取模块提取所述第一人脸图像的第一身份特征,并通过所述特征提取模块获取所述第二人脸图像的第二身份特征;所述特征提取模块为预先训练得到的模块,其中,所述特征提取模块提取训练批数据中样本人脸图像的身份特征和年龄特征后,获取所述训练批数据的相关系数,通过所述相关系数对所述特征提取模块进行所述身份特征和所述年龄特征的去相关性训练;
    确定模块,用于根据所述第一身份特征和所述第二身份特征确定所述第一人脸图像与所述第二人脸图像中人脸的相似度;
    所述获取模块,还用于获取人脸识别结果,所述人脸识别结果中包括所述第一人脸图像与所述第二人脸图像的所述相似度。
  13. 一种模型训练装置,其特征在于,应用于服务器中,所述装置包括:
    获取模块,用于获取训练批数据,所述训练批数据中包括样本人脸图像;
    提取模块,用于通过特征提取模块提取所述样本人脸图像的身份特征和年龄特征;
    确定模块,用于根据所述训练批数据中所述样本人脸图像的所述身份特征和所述年龄特征,确定所述训练批数据对应的相关系数;
    训练模块,用于通过所述相关系数对所述特征提取模块进行所述身份特征 和所述年龄特征的去相关性训练。
  14. 根据权利要求13所述的装置,其特征在于,所述确定模块,还用于通过典型相关映射模块获取所述身份特征和所述年龄特征对应的典型相关映射变量;对所述训练批数据中所述样本人脸图像的所述典型相关映射变量进行相关系数统计,得到所述训练批数据对应的所述相关系数。
  15. 根据权利要求14所述的装置,其特征在于,所述训练模块,还用于以提高所述相关系数的绝对值为目标,更新所述典型相关映射模块的参数。
  16. 根据权利要求13至15任一所述的装置,其特征在于,所述样本人脸图像标注有身份标签和年龄标签;
    所述训练模块,还用于基于所述身份标签通过身份判别器,以及基于所述年龄标签通过年龄判别器对所述特征提取模块进行联合监督训练。
  17. 根据权利要求16所述的装置,其特征在于,所述训练模块,还用于以减小训练损失为目标,更新所述特征提取模块、所述身份判别器以及所述年龄判别器中至少一个模块的参数;
    其中,所述训练损失由对抗损失、身份判别损失以及年龄判别损失中的至少一种损失确定得到,所述对抗损失是根据所述相关系数确定的。
  18. 根据权利要求17所述的装置,其特征在于,所述确定模块,还用于对所述对抗损失、所述身份判别损失和所述年龄判别损失进行加权求和,得到所述训练损失。
  19. 根据权利要求17所述的装置,其特征在于,
    所述身份判别损失采用增大间隔余弦损失函数计算得到。
  20. 根据权利要求17所述的装置,其特征在于,
    所述年龄判别损失采用交叉熵损失函数计算得到。
  21. 根据权利要求13至15任一所述的装置,其特征在于,所述特征提取模块包括:级联的初始特征提取模块和残差分解模块;
    所述提取模块,还用于通过所述初始特征提取模块提取人脸图像的初始特征;通过所述残差分解模块对所述初始特征进行线性分解得到所述身份特征和所述年龄特征。
  22. 根据权利要求21所述的装置,其特征在于,所述提取模块,还用于通过所述残差分解模块获取所述年龄特征;确定所述初始特征与所述年龄特征的差值,得到所述身份特征。
  23. 一种计算机设备,其特征在于,所述计算机设备包括处理器以及存储器:
    所述存储器用于存储计算机程序;
    所述处理器用于根据所述计算机程序执行权利要求1所述的人脸识别方法或者权利要求2至11任一所述的模型训练方法。
  24. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行权利要求1所述的人脸识别方法或者权利要求2至11任一所述的模型训练方法。
PCT/CN2020/080164 2019-04-03 2020-03-19 模型训练方法、人脸识别方法、装置、设备及存储介质 WO2020199932A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/314,289 US11763599B2 (en) 2019-04-03 2021-05-07 Model training method and apparatus, face recognition method and apparatus, device, and storage medium
US18/337,802 US20230334905A1 (en) 2019-04-03 2023-06-20 Model training method and apparatus, face recognition method and apparatus, device, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910266743.6 2019-04-03
CN201910266743.6A CN109993125B (zh) 2019-04-03 2019-04-03 模型训练方法、人脸识别方法、装置、设备及存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/314,289 Continuation US11763599B2 (en) 2019-04-03 2021-05-07 Model training method and apparatus, face recognition method and apparatus, device, and storage medium

Publications (1)

Publication Number Publication Date
WO2020199932A1 true WO2020199932A1 (zh) 2020-10-08

Family

ID=67130806

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/080164 WO2020199932A1 (zh) 2019-04-03 2020-03-19 模型训练方法、人脸识别方法、装置、设备及存储介质

Country Status (3)

Country Link
US (2) US11763599B2 (zh)
CN (1) CN109993125B (zh)
WO (1) WO2020199932A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011387A (zh) * 2021-04-20 2021-06-22 上海商汤科技开发有限公司 网络训练及人脸活体检测方法、装置、设备及存储介质
CN113434227A (zh) * 2021-06-18 2021-09-24 深圳掌酷软件有限公司 锁屏壁纸切换方法、装置、设备及存储介质
CN113657248A (zh) * 2021-08-13 2021-11-16 北京百度网讯科技有限公司 人脸识别模型的训练方法、装置及计算机程序产品
CN114549948A (zh) * 2022-02-16 2022-05-27 北京百度网讯科技有限公司 深度学习模型的训练方法、图像识别方法、装置和设备
US11380131B2 (en) * 2017-06-30 2022-07-05 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and device for face recognition, storage medium, and electronic device

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2314700A1 (en) 1999-01-28 2011-04-27 Medical College of Georgia Research Institute, Inc Composition and method for in vivo and in vitro attenuation of gene expression using double stranded RNA
CN109993125B (zh) 2019-04-03 2022-12-23 腾讯科技(深圳)有限公司 模型训练方法、人脸识别方法、装置、设备及存储介质
WO2020262721A1 (ko) * 2019-06-25 2020-12-30 엘지전자 주식회사 인공 지능을 이용하여, 복수의 로봇들을 제어하는 관제 시스템
CN110443310B (zh) * 2019-08-07 2022-08-09 浙江大华技术股份有限公司 比对分析系统的更新方法、服务器及计算机存储介质
CN110674397B (zh) * 2019-08-30 2022-05-27 北京百度网讯科技有限公司 年龄点预测模型的训练方法及装置、设备与可读介质
CN110879985B (zh) * 2019-11-18 2022-11-11 西南交通大学 一种抗噪声数据的人脸识别模型训练方法
CN111191675B (zh) * 2019-12-03 2023-10-24 深圳市华尊科技股份有限公司 行人属性识别模型实现方法及相关装置
CN111626091B (zh) * 2020-03-09 2023-09-22 咪咕文化科技有限公司 人脸图像标注方法、装置及计算机可读存储介质
CN111476189B (zh) * 2020-04-14 2023-10-13 北京爱笔科技有限公司 一种身份识别方法和相关装置
CN111611877B (zh) * 2020-04-30 2023-05-02 杭州电子科技大学 基于多时空信息融合的抗年龄干扰的人脸识别方法
CN111582200B (zh) * 2020-05-12 2023-11-21 北京邮电大学 人体姿态估计方法、装置、电子设备及介质
CN114339347A (zh) * 2020-09-30 2022-04-12 聚好看科技股份有限公司 显示设备及图像识别结果显示方法
WO2021238733A1 (zh) 2020-05-25 2021-12-02 聚好看科技股份有限公司 显示设备及图像识别结果显示方法
CN111881722B (zh) * 2020-06-10 2021-08-24 广东芯盾微电子科技有限公司 一种跨年龄人脸识别方法、系统、装置及存储介质
CN112184640A (zh) * 2020-09-15 2021-01-05 中保车服科技服务股份有限公司 一种图像检测模型的构建及图像检测方法和装置
CN112712893B (zh) * 2021-01-04 2023-01-20 众阳健康科技集团有限公司 一种提升计算机临床辅助诊断效果的方法
WO2022175731A1 (en) * 2021-02-22 2022-08-25 Sensetime International Pte. Ltd. Methods, apparatuses, devices and storage media for predicting correlation between objects involved in image
AU2021204581A1 (en) * 2021-02-22 2022-09-08 Sensetime International Pte. Ltd. Methods, apparatuses, devices and storage media for predicting correlation between objects involved in image
CN112597979B (zh) * 2021-03-03 2021-06-01 之江实验室 一种实时更新余弦夹角损失函数参数的人脸识别方法
CN113505698A (zh) * 2021-07-09 2021-10-15 平安信托有限责任公司 基于对抗学习的人脸识别方法、装置、设备及介质
CN113570070B (zh) * 2021-09-23 2022-01-07 深圳市信润富联数字科技有限公司 流式数据采样与模型更新方法、装置、系统与存储介质
CN113920573B (zh) * 2021-11-22 2022-05-13 河海大学 基于对抗学习的人脸变化解耦的亲属关系验证方法
CN113989519B (zh) * 2021-12-28 2022-03-22 中科视语(北京)科技有限公司 一种长尾目标检测方法及系统
CN114511901B (zh) * 2022-01-05 2024-04-05 浙大城市学院 一种年龄分类辅助的跨年龄人脸识别算法
CN114998978B (zh) * 2022-07-29 2022-12-16 杭州魔点科技有限公司 一种人脸图像质量分析的方法和系统
CN117445805B (zh) * 2023-12-22 2024-02-23 吉林大学 面向公交车司乘冲突的人员预警和行车控制方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650650A (zh) * 2016-12-14 2017-05-10 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种跨年龄人脸识别方法
CN107480575A (zh) * 2016-06-07 2017-12-15 深圳市商汤科技有限公司 模型的训练方法、跨年龄人脸识别方法和对应的装置
CN109993125A (zh) * 2019-04-03 2019-07-09 腾讯科技(深圳)有限公司 模型训练方法、人脸识别方法、装置、设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7085431B2 (en) * 2001-11-13 2006-08-01 Mitutoyo Corporation Systems and methods for reducing position errors in image correlation systems during intra-reference-image displacements
US11017211B1 (en) * 2012-09-07 2021-05-25 Stone Lock Global, Inc. Methods and apparatus for biometric verification
CN103207995A (zh) * 2013-05-13 2013-07-17 苏州福丰科技有限公司 基于pca的3d人脸识别方法
WO2017203262A2 (en) * 2016-05-25 2017-11-30 Metail Limited Method and system for predicting garment attributes using deep learning
CN106447654B (zh) * 2016-09-12 2019-03-01 中国科学技术大学 基于统计相似性和双向显著性保真度的图像重定向质量评价方法
CN107274024A (zh) * 2017-06-21 2017-10-20 南京信息工程大学 一种气象台站测量日总辐射曝辐量预测优化方法
CN107844781A (zh) * 2017-11-28 2018-03-27 腾讯科技(深圳)有限公司 人脸属性识别方法及装置、电子设备及存储介质
CN108670239B (zh) * 2018-05-22 2020-10-23 浙江大学 一种基于特征空间的三维血流成像方法与系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480575A (zh) * 2016-06-07 2017-12-15 深圳市商汤科技有限公司 模型的训练方法、跨年龄人脸识别方法和对应的装置
CN106650650A (zh) * 2016-12-14 2017-05-10 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种跨年龄人脸识别方法
CN109993125A (zh) * 2019-04-03 2019-07-09 腾讯科技(深圳)有限公司 模型训练方法、人脸识别方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YITONG WANG ET AL.: "Orthogonal Deep Features Decomposition for Age-Invariant Face Recognition", COMPUTER VISION – ECCV 2018, 7 October 2018 (2018-10-07), XP047489047, ISSN: 1611-3349, DOI: 20200604103942X *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11380131B2 (en) * 2017-06-30 2022-07-05 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and device for face recognition, storage medium, and electronic device
CN113011387A (zh) * 2021-04-20 2021-06-22 上海商汤科技开发有限公司 网络训练及人脸活体检测方法、装置、设备及存储介质
CN113434227A (zh) * 2021-06-18 2021-09-24 深圳掌酷软件有限公司 锁屏壁纸切换方法、装置、设备及存储介质
CN113657248A (zh) * 2021-08-13 2021-11-16 北京百度网讯科技有限公司 人脸识别模型的训练方法、装置及计算机程序产品
CN114549948A (zh) * 2022-02-16 2022-05-27 北京百度网讯科技有限公司 深度学习模型的训练方法、图像识别方法、装置和设备
CN114549948B (zh) * 2022-02-16 2023-06-30 北京百度网讯科技有限公司 深度学习模型的训练方法、图像识别方法、装置和设备

Also Published As

Publication number Publication date
US20230334905A1 (en) 2023-10-19
US20210264136A1 (en) 2021-08-26
CN109993125A (zh) 2019-07-09
US11763599B2 (en) 2023-09-19
CN109993125B (zh) 2022-12-23

Similar Documents

Publication Publication Date Title
WO2020199932A1 (zh) 模型训练方法、人脸识别方法、装置、设备及存储介质
EP3940638B1 (en) Image region positioning method, model training method, and related apparatus
WO2020177673A1 (zh) 一种视频序列选择的方法、计算机设备及存储介质
WO2020199926A1 (zh) 一种图像识别网络模型训练方法、图像识别方法及装置
WO2020103721A1 (zh) 信息处理的方法、装置及存储介质
CN111816159B (zh) 一种语种识别方法以及相关装置
CN112101329B (zh) 一种基于视频的文本识别方法、模型训练的方法及装置
CN111914113A (zh) 一种图像检索的方法以及相关装置
CN111709398A (zh) 一种图像识别的方法、图像识别模型的训练方法及装置
CN111695458A (zh) 一种视频图像帧处理方法及装置
WO2017088434A1 (zh) 人脸模型矩阵训练方法、装置及存储介质
CN113822427A (zh) 一种模型训练的方法、图像匹配的方法、装置及存储介质
CN114722937A (zh) 一种异常数据检测方法、装置、电子设备和存储介质
CN113723378A (zh) 一种模型训练的方法、装置、计算机设备和存储介质
CN113269279B (zh) 一种多媒体内容分类方法和相关装置
CN116935188B (zh) 模型训练方法、图像识别方法、装置、设备及介质
CN113569042A (zh) 文本信息分类方法、装置、计算机设备及存储介质
CN111314771A (zh) 一种视频播放方法及相关设备
CN116453005A (zh) 一种视频封面的提取方法以及相关装置
CN113569043A (zh) 一种文本类别确定方法和相关装置
CN111859240A (zh) 一种图片导出的方法、相关装置及存储介质
WO2023168997A1 (zh) 一种跨模态搜索方法及相关设备
CN117615226A (zh) 一种数据处理方法、装置、设备以及存储介质
Zhou et al. Device Free Human Gesture Recognition with Incremental Learning
CN116992125A (zh) 一种对象的推荐方法、装置以及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20784956

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20784956

Country of ref document: EP

Kind code of ref document: A1