WO2019109526A1 - 人脸图像的年龄识别方法、装置及存储介质 - Google Patents

人脸图像的年龄识别方法、装置及存储介质 Download PDF

Info

Publication number
WO2019109526A1
WO2019109526A1 PCT/CN2018/076185 CN2018076185W WO2019109526A1 WO 2019109526 A1 WO2019109526 A1 WO 2019109526A1 CN 2018076185 W CN2018076185 W CN 2018076185W WO 2019109526 A1 WO2019109526 A1 WO 2019109526A1
Authority
WO
WIPO (PCT)
Prior art keywords
age
image
face
sample
label
Prior art date
Application number
PCT/CN2018/076185
Other languages
English (en)
French (fr)
Inventor
陈林
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2019109526A1 publication Critical patent/WO2019109526A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Definitions

  • the present application relates to the field of computer vision processing technologies, and in particular, to an age recognition method for a face image, an electronic device, and a computer readable storage medium.
  • the need for recognition of face attributes is also increasing, especially the age recognition of faces.
  • the sample and the age label are often one-to-one in the training process, that is, one sample only corresponds to one age label.
  • Such a training process assumes that samples of different ages are independent of one another, ignoring the relationship between adjacent ages.
  • the present application provides an age recognition method for an face image, an electronic device, and a computer readable storage medium, the main purpose of which is to improve the accuracy of age recognition in a face image.
  • the present application provides an age recognition method for a face image, which is applied to an electronic device, and the method includes:
  • the face region is input into a predetermined age recognition model, and an n-dimensional feature vector Y[y 0 , y 1 , . . . , y i , . . . , y n ] is extracted, where i ⁇ [0, n], 0 ⁇ n ⁇ 100; and
  • the present application further provides an electronic device, including: a memory, a processor, and an imaging device, wherein the memory includes an age recognition program of a face image, and an age recognition program of the face image.
  • the face region is input into a predetermined age recognition model, and an n-dimensional feature vector Y[y 0 , y 1 , . . . , y i , . . . , y n ] is extracted, where i ⁇ [0, n], 0 ⁇ n ⁇ 100; and
  • the present application further provides a computer readable storage medium including an age recognition program of a face image, where the age recognition program of the face image is executed by a processor Any step in the age recognition method of the face image as described above.
  • the age recognition method, the electronic device and the computer readable storage medium of the face image proposed by the present application use the age recognition model to extract a feature vector reflecting the face features of different ages in the face image, and identify the person in the real-time image according to the feature vector.
  • the age of the face By increasing the number of training samples in the age recognition model training process, the age recognition model is updated according to the feature vector extracted from the sample image and the stochastic gradient descent method, and the accuracy of extracting the feature vector is improved, thereby improving the accuracy of age recognition.
  • FIG. 1 is a schematic diagram of hardware of a preferred embodiment of an electronic device of the present application.
  • FIG. 2 is a block diagram showing a preferred embodiment of an age recognition program for a face image of FIG. 1;
  • FIG. 3 is a flow chart of a preferred embodiment of an age recognition method for a face image of the applicant.
  • the application provides an electronic device 1 .
  • 1 is a hardware schematic diagram of a preferred embodiment of an electronic device of the present application.
  • the electronic device 1 may be a terminal device having a computing function, such as a server, a smart phone, a tablet computer, a portable computer, or a desktop computer.
  • a computing function such as a server, a smart phone, a tablet computer, a portable computer, or a desktop computer.
  • the electronic device 1 may be a server having an age recognition program for installing a face image, a smart phone, a tablet computer, a portable computer, a desktop computer, and the like having a computing function
  • the server may be a rack.
  • the electronic device 1 includes a memory 11, a processor 12, an imaging device 13, a network interface 14, and a communication bus 15.
  • the memory 11 includes at least one type of readable storage medium.
  • the at least one type of readable storage medium may be a non-volatile storage medium such as a flash memory, a hard disk, a multimedia card, a card type memory (eg, SD or DX memory, etc.), a magnetic memory, a magnetic disk, an optical disk, or the like.
  • the memory 11 may be an internal storage unit of the electronic device 1, such as a hard disk of the electronic device 1.
  • the memory 11 may also be an external storage device of the electronic device 1, such as a plug-in hard disk equipped on the electronic device 1, a smart memory card (SMC), and a secure digital ( Secure Digital, SD) cards, flash cards, etc.
  • SMC smart memory card
  • Secure Digital Secure Digital
  • the readable storage medium of the memory 11 is generally used for storing an age recognition program 10 of a face image installed in the electronic device 1, a model file of a predetermined age recognition model, various types of data, and the like. .
  • the memory 11 can also be used to temporarily store data that has been output or is about to be output.
  • the processor 12 in some embodiments, may be a Central Processing Unit (CPU), microprocessor or other data processing chip for running program code or processing data stored in the memory 11, such as performing a face image.
  • Age recognition program 10 and so on.
  • the imaging device 13 may be part of the electronic device 1 or may be independent of the electronic device 1.
  • the electronic device 1 is a terminal device having a camera such as a smartphone, a tablet computer, a portable computer, etc.
  • the camera device 13 is a camera of the electronic device 1.
  • the electronic device 1 may be a server, and the camera device 13 is connected to the electronic device 1 via a network, for example, the camera device 13 is installed in a specific place, such as an office. And monitoring the area, real-time image is taken in real time for the target entering the specific place, and the captured real-time image is transmitted to the processor 12 through the network.
  • the network interface 14 can optionally include a standard wired interface, a wireless interface (such as a WI-FI interface), and is typically used to establish a communication connection between the electronic device 1 and other electronic devices.
  • a standard wired interface such as a WI-FI interface
  • Communication bus 15 is used to implement connection communication between these components.
  • Figure 1 shows only the electronic device 1 with components 11-15, but it should be understood that not all illustrated components may be implemented, and more or fewer components may be implemented instead.
  • the electronic device 1 may further include a user interface, and the user interface may include an input unit such as a keyboard, etc., optionally, the user interface may further include a standard wired interface and a wireless interface.
  • the electronic device 1 may further include a display, which may also be appropriately referred to as a display screen or a display unit.
  • a display may also be appropriately referred to as a display screen or a display unit.
  • it may be an LED display, a liquid crystal display, a touch liquid crystal display, and an Organic Light-Emitting Diode (OLED) touch sensor.
  • the display is used to display information processed in the electronic device 1 and a user interface for displaying visualizations.
  • the electronic device 1 may further include a touch sensor.
  • the area provided by the touch sensor for the user to perform a touch operation is referred to as a touch area.
  • the area of the display of the electronic device 1 may be the same as or different from the area of the touch sensor.
  • a display is stacked with the touch sensor to form a touch display. The device detects a user-triggered touch operation based on a touch screen display.
  • the electronic device 1 may further include a radio frequency (RF) circuit, a sensor, an audio circuit, and the like, and details are not described herein.
  • RF radio frequency
  • an age recognition program 10 for storing a face image in a memory 11 as a computer storage medium, and when the processor 12 executes the age recognition program 10 of the face image stored in the memory 11 Implement the following steps:
  • the face region is input into a predetermined age recognition model, and an n-dimensional feature vector Y[y 0 , y 1 , . . . , y i , . . . , y n ] is extracted, where i ⁇ [0, n], 0 ⁇ n ⁇ 100; and
  • the camera 13 captures a real-time image
  • the camera 13 transmits the real-time image to the processor 12, and the processor 12 receives the real-time image and acquires the size of the real-time image to create a grayscale image of the same size.
  • the acquired color image is converted into a grayscale image, and a memory space is created at the same time; the grayscale image histogram is equalized, the amount of grayscale image information is reduced, the detection speed is accelerated, and then the training library is loaded to detect the face in the image.
  • the face recognition algorithm for extracting the face region from the real-time image may also be: a geometric feature based method, a local feature analysis method, a feature face method, an elastic model based method, a neural network method, etc. Wait.
  • the face area extracted by the face recognition algorithm is saved as a picture of a preset size, for example, saved as a picture P of 256*256 pixels.
  • the picture P including the face area is input into a predetermined age recognition model to extract facial features representing different ages from the picture P, and the feature vector Y[y 0 , y 1 of the picture P is combined with the face feature. ..., y i , ..., y n ], wherein the predetermined age recognition model is obtained by training a convolutional neural network.
  • the convolutional neural network is an inception-resnet network
  • the specific training steps include:
  • Preparing a corresponding preset number of face sample images for each age for example, preparing face sample images corresponding to 0 to 100 years old, and normalizing the sample images to form an age sample image, according to each age sample
  • the age of the face in the image, the age label "0" to "100" for each age sample image, all age sample images and their age tags form a sample set; the convolutional neural network is initialized for subsequent extraction
  • the feature vectors are all n (for example, 101) dimensions.
  • the convolutional neural network randomly reads the age sample image from the sample set and extracts from the read image of the age sample.
  • the facial features reflecting different ages are combined, and the facial features are combined to generate an n-dimensional feature vector corresponding to the image of the age sample.
  • the m is calculated (for example, 100).
  • the loss value of the dimensional feature vector ie, Loss). Specifically, the calculation formula of the Loss is as follows:
  • W represents the convolutional nerve
  • the parameter matrix of the fully connected layer of the network b represents the offset
  • W j represents the jth column of W
  • m represents the number of samples for which the model parameter input is updated once (in the present embodiment, m is 100).
  • the parameters of the convolutional neural network are updated by using the stochastic gradient descent method and the age tag corresponding to the feature vector, so that the extracted feature vectors are more clustered, and the subsequent recognition from the real-time image is also performed.
  • the age is closer to the true age.
  • the method of updating the model parameters by the stochastic gradient descent method has been matured and will not be described here. Steps A-D are repeatedly executed until the Loss of the feature vector extracted from the age sample image is no longer dropped, and the model parameter update is stopped, that is, the model training process ends, and the model recognition model is obtained.
  • the normalizing the face sample image includes: performing preprocessing such as scaling, cropping, flipping, and/or twisting on the sample image in the first sample set, and using the normalized face.
  • the sample image trains the convolutional neural network to effectively improve the authenticity and accuracy of the model training.
  • the normalization process includes:
  • Scaling the shorter side length of each face sample image to a first preset size for example, 640 pixels, to obtain a corresponding first picture, and randomly cropping a second preset size on each first picture
  • Two pictures such as a second picture of 256*256 pixels;
  • each predetermined preset type parameter for example, a corresponding standard parameter value such as color, brightness and/or contrast
  • the standard parameter value corresponding to the color is a1
  • the standard parameter value corresponding to the brightness is a2
  • the standard parameter corresponding to the contrast The value is a3
  • each predetermined preset type parameter value of each second picture is adjusted to a corresponding standard parameter value, and a corresponding third picture is obtained to eliminate the picture caused by the external condition of the face sample image at the time of shooting. Clear and improve the effectiveness of model training;
  • each The fourth picture is the age sample image.
  • the function of flipping and twisting is to simulate various forms of pictures in actual scenes. Through these flipping and twisting operations, the scale of the data set can be increased, thereby improving the accuracy of model training.
  • the feature vector extracted from the picture P is Y[y 0 , y 1 , . . . , y i , . . . , y n ], where y 0 , y 1 , . . . , y i , ..., y n are values between [0, 1], respectively, and y i represents the probability that the age of the face is recognized from the picture P, and
  • Age 20 represents the age of the face recognized from the picture P, that is, the age of the face recognized from the live image.
  • the electronic device 1 proposed in the above embodiment extracts feature vectors reflecting facial features of different ages in the face image through the age recognition model, and uses the feature vector to identify the age of the face in the face image and improve the age of the face image. Identify accuracy.
  • the model training step further includes: the convolutional neural network randomly reads the age sample image in the training set, and adds an age label to the age sample image. a normal distribution random number in the preset interval to form a new age label; and, using the read new age label of the age sample image and the feature vector corresponding to the age sample image, the convolutional nerve The network performs training to obtain the age recognition model.
  • the new age label must meet the following conditions:
  • Label label i +N( ⁇ + ⁇ 2 )
  • label i indicates the original age label of the randomly read age sample image
  • N( ⁇ + ⁇ 2 ) indicates the mean value of 0.
  • the normal distribution random numbers are integers within the interval [-2, 2], that is, -2, -1, 0, 1, 2.
  • the convolutional neural network randomly reads an age sample image with an age label of "20" from the training set, and the model adds a normal distribution random number with an interval of [-2, 2] to the age label (for example, 1 ), forming a new age label "21", it should be noted that when the new age label exceeds the boundary value [0, 100], such as "-1" and "102", the new age label is directly assigned The boundary value, "-1" is assigned a value of "0", and "102” is assigned a value of "100”. Then, the feature vector extraction step and the training update step are performed to obtain the age recognition model.
  • the subsequent age recognition steps are substantially the same as those in the above embodiment, and are not described herein again.
  • the electronic device 1 proposed in the above embodiment increases the number of training samples in the training process of the age recognition model by adding a normal distribution random number to the annotation of the image of the age sample, and improves the accuracy of extracting the feature vector from the age recognition model, thereby improving The accuracy of age recognition.
  • the age recognition program 10 of the face image may also be partitioned into one or more modules, one or more modules being stored in the memory 11 and executed by the processor 12 to complete the application.
  • a module as referred to in this application refers to a series of computer program instructions that are capable of performing a particular function.
  • FIG. 2 it is a block diagram of the age recognition program 10 of the face image in FIG.
  • the age recognition program 10 of the face image may be divided into: an acquisition module 110, an extraction module 120, and an identification module 130, and the functions or operation steps implemented by the modules 110-130 are similar to the above, and are no longer In detail, by way of example, for example:
  • the acquiring module 110 is configured to acquire a real-time image captured by the camera, and extract a face region from the real-time image by using a face recognition algorithm;
  • the extraction module 120 is configured to input the face region into a predetermined age recognition model, and extract an n-dimensional feature vector Y[y 0 , y 1 , . . . , y i , . . . , y n ], where i ⁇ [ 0, n], 0 ⁇ n ⁇ 100; and
  • the identification module 130 is configured to input the feature vector Y[y 0 , y 1 , . . . , y i , . . . , y n ] into an age recognition formula, and identify an age of the face in the real-time image, wherein the age
  • the present application also provides an age recognition method for a face image.
  • FIG. 3 it is a flowchart of the first embodiment of the age recognition method for the face image of the applicant.
  • the method can be performed by a device that can be implemented by software and/or hardware.
  • the age recognition method of the face image includes steps S10-S30:
  • Step S10 acquiring a real-time image captured by the camera device, and extracting a face region from the real-time image by using a face recognition algorithm;
  • Step S20 inputting the face region into a predetermined age recognition model, and extracting an n-dimensional feature vector Y[y 0 , y 1 , . . . , y i , . . . , y n ], where i ⁇ [0,n ], 0 ⁇ n ⁇ 100; and
  • the camera captures a real-time image
  • the camera sends the real-time image to the processor
  • the processor receives the real-time image and obtains the size of the real-time image, and creates a gray image of the same size, and the acquired color image Converting to a grayscale image, creating a memory space at the same time; equalizing the grayscale image histogram, reducing the amount of grayscale image information, speeding up the detection speed, then loading the training library, detecting the face in the image, and returning an inclusion
  • the object of the face information obtains the data of the location of the face and records the number; finally, the area of the face is obtained and saved, thus completing the process of extracting the face region.
  • the face recognition algorithm for extracting the face region from the real-time image may also be: a geometric feature based method, a local feature analysis method, a feature face method, an elastic model based method,
  • the face area extracted by the face recognition algorithm is saved as a picture of a preset size, for example, saved as a picture P of 256*256 pixels.
  • the picture P including the face area is input into a predetermined age recognition model to extract facial features representing different ages from the picture P, and the feature vector Y[y 0 , y 1 of the picture P is combined with the face feature. ..., y i , ..., y n ], wherein the predetermined age recognition model is obtained by training a convolutional neural network.
  • the convolutional neural network is an inception-resnet network
  • the specific training steps include:
  • Preparing a corresponding preset number of face sample images for each age for example, preparing face sample images corresponding to 0 to 100 years old, and normalizing the sample images to form an age sample image, according to each age sample
  • the age of the face in the image, the age label "0" to "100" for each age sample image, all age sample images and their age tags form a sample set; the convolutional neural network is initialized for subsequent extraction
  • the feature vectors are all n (for example, 101).
  • the convolutional neural network randomly reads the age sample image from the sample set and extracts from the read image of the age sample.
  • the facial features reflecting different ages are combined, and the facial features are combined to generate an n-dimensional feature vector corresponding to the image of the age sample.
  • the m is calculated (for example, 100). Loss of dimensional feature vectors. Specifically, the calculation formula of the Loss is as follows:
  • W represents the convolutional nerve
  • the parameter matrix of the fully connected layer of the network b represents the offset
  • W j represents the jth column of W
  • m represents the number of samples for which the model parameter input is updated once (in the present embodiment, m is 100).
  • the parameters of the convolutional neural network are updated by using the stochastic gradient descent method and the age tag corresponding to the feature vector, so that the extracted feature vectors are more clustered, and the subsequent recognition from the real-time image is also performed.
  • the age is closer to the true age.
  • the method of updating the model parameters by the stochastic gradient descent method has been matured and will not be described here. Steps A-D are repeatedly executed until the Loss of the feature vector extracted from the age sample image is no longer dropped, and the model parameter update is stopped, that is, the model training process ends, and the model recognition model is obtained.
  • the normalizing the face sample image includes: performing preprocessing such as scaling, cropping, flipping, and/or twisting on the sample image in the first sample set, and using the normalized face.
  • the sample image trains the convolutional neural network to effectively improve the authenticity and accuracy of the model training.
  • the normalization process includes:
  • Scaling the shorter side length of each face sample image to a first preset size for example, 640 pixels, to obtain a corresponding first picture, and randomly cropping a second preset size on each first picture
  • Two pictures such as a second picture of 256*256 pixels;
  • each predetermined preset type parameter for example, a corresponding standard parameter value such as color, brightness and/or contrast
  • the standard parameter value corresponding to the color is a1
  • the standard parameter value corresponding to the brightness is a2
  • the standard parameter corresponding to the contrast The value is a3
  • each predetermined preset type parameter value of each second picture is adjusted to a corresponding standard parameter value, and a corresponding third picture is obtained to eliminate the picture caused by the external condition of the face sample image at the time of shooting. Clear and improve the effectiveness of model training;
  • each The fourth picture is the age sample image.
  • the function of flipping and twisting is to simulate various forms of pictures in actual scenes. Through these flipping and twisting operations, the scale of the data set can be increased, thereby improving the accuracy of model training.
  • the feature vector extracted from the picture P is Y[y 0 , y 1 , . . . , y i , . . . , y n ], where y 0 , y 1 , . . . , y i , ..., y n are values between [0, 1], respectively, and y i represents the probability that the age of the face is recognized from the picture P, and
  • Age 20 represents the age of the face recognized from the picture P, that is, the age of the face recognized from the live image.
  • the age recognition method for the face image proposed by the above embodiment uses the age recognition model to extract the feature vector reflecting the face features of different ages in the face image, and uses the feature vector to identify the age of the face in the face image and improve the person.
  • the age recognition accuracy of the face image uses the age recognition model to extract the feature vector reflecting the face features of different ages in the face image, and uses the feature vector to identify the age of the face in the face image and improve the person.
  • the model training step further includes: the convolutional neural network randomly reads the age sample image in the training set, and adds an age label to the age sample image. a normal distribution random number in the preset interval to form a new age label; and, using the read new age label of the age sample image and the feature vector corresponding to the age sample image, the convolutional nerve The network performs training to obtain the age recognition model.
  • the new age label must meet the following conditions:
  • Label label i +N( ⁇ + ⁇ 2 )
  • label i the original age label of the randomly read age sample image
  • N( ⁇ + ⁇ 2 ) the mean value of 0, the standard
  • the normal distribution random numbers are integers within the interval [-2, 2], that is, -2, -1, 0, 1, 2.
  • the convolutional neural network randomly reads an age sample image with an age label of "20" from the training set, and the model adds a normal distribution random number with an interval of [-2, 2] to the age label (for example, 1 ), forming a new age label "21", it should be noted that when the new age label exceeds the boundary value [0, 100], such as "-1" and "102", the new age label is directly assigned The boundary value, "-1" is assigned a value of "0", and "102” is assigned a value of "100”. Then, the feature vector extraction step and the training update step are performed to obtain the age recognition model.
  • the subsequent age recognition steps are substantially the same as those in the above embodiment, and are not described herein again.
  • the age recognition method of the face image proposed in the above embodiment increases the number of training samples in the training process of the age recognition model by adding a normal distribution random number to the label of the age sample image, and improves the accuracy of the feature vector extracted by the age recognition model. Sex, which in turn improves the accuracy of age recognition.
  • the embodiment of the present application further provides a computer readable storage medium, where the computer readable storage medium includes an age recognition program of a face image, and the age recognition program of the face image is executed by the processor to implement the following operations. :
  • the face region is input into a predetermined age recognition model, and an n-dimensional feature vector Y[y 0 , y 1 , . . . , y i , . . . , y n ] is extracted, where i ⁇ [0, n], 0 ⁇ n ⁇ 100; and
  • age arg_max(Y).
  • a disk including a number of instructions for causing a terminal device (which may be a mobile phone, a computer, a server, or a network device, etc.) to perform the methods described in the various embodiments of the present application.
  • a terminal device which may be a mobile phone, a computer, a server, or a network device, etc.

Abstract

一种人脸图像的年龄识别方法、电子装置及计算机可读存储介质,该方法包括:获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中提取出人脸区域;将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及,将所述特征向量Y[y 0,y 1,…,y i,…,y n]输入年龄识别公式,识别所述实时图像中人脸的年龄。利用该方法,通过年龄识别模型提取出人脸图像中反映不同年龄人脸特征的特征向量,根据该特征向量识别人脸图像中人脸的年龄。

Description

人脸图像的年龄识别方法、装置及存储介质
优先权申明
本申请基于巴黎公约申明享有2017年12月6日递交的申请号为CN201711272383.8、名称为“人脸图像的年龄识别方法、装置及存储介质”的中国专利申请的优先权,该中国专利申请的整体内容以参考的方式结合在本申请中。
技术领域
本申请涉及计算机视觉处理技术领域,尤其涉及一种人脸图像的年龄识别方法、电子装置及计算机可读存储介质。
背景技术
随着人脸识别技术的发展,对人脸属性的识别需求也越来越高,尤其是人脸的年龄识别。在传统的年龄识别技术中,训练过程中样本与年龄标签往往是一对一的关系,即一个样本只对应一个年龄标签。这样的训练过程假设了不同年龄的样本之间是相互独立的,从而忽略了相邻年龄之间的关系。
其实,人的老化过程受到各种因素的影响,如基因、居住环境、工作环境等等,每个人的老化速率也不一样,这样会使得同一岁数的人有些显得比较年轻,有些显得比较年老。另一方面,人老化过程也是一个缓慢的过程,年龄相近的人看起来年龄十分相似。由此可知,一个人的表观年龄具有一定的随机性,但是也和真实年龄具有一定的相关性。这就导致传统年龄识别技术的识别结果存在较大误差。
发明内容
本申请提供一种人脸图像的年龄识别方法、电子装置及计算机可读存储介质,其主要目的在于提高人脸图像中年龄识别的准确度。
为实现上述目的,本申请提供一种人脸图像的年龄识别方法,应用于电子装置,该方法包括:
获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中 提取出人脸区域;
将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及
将所述特征向量Y[y 0,y 1,…,y i,…,y n]输入年龄识别公式,识别所述实时图像中人脸的年龄,其中,所述年龄识别公式为:age=arg_max(Y)。
此外,为实现上述目的,本申请还提供一种电子装置,该装置包括:存储器、处理器及摄像装置,所述存储器中包括人脸图像的年龄识别程序,所述人脸图像的年龄识别程序被所述处理器执行时实现如下步骤:
获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中提取出人脸区域;
将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及
将所述特征向量Y[y 0,y 1,…,y i,…,y n]输入年龄识别公式,识别所述实时图像中人脸的年龄,其中,所述年龄识别公式为:age=arg_max(Y)。
此外,为实现上述目的,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质中包括人脸图像的年龄识别程序,所述人脸图像的年龄识别程序被处理器执行时,实现如上所述的人脸图像的年龄识别方法中的任意步骤。
本申请提出的人脸图像的年龄识别方法、电子装置及计算机可读存储介质,利用年龄识别模型提取出人脸图像中反映不同年龄人脸特征的特征向量,根据该特征向量识别实时图像中人脸的年龄。通过在年龄识别模型训练过程中增加训练样本数量,根据从样本图像中提取的特征向量及随机梯度下降法更新年龄识别模型,提高提取特征向量的准确性,进而提高年龄识别的准确率。
附图说明
图1为本申请电子装置较佳实施例的硬件示意图;
图2为图1中人脸图像的年龄识别程序较佳实施例的模块示意图;
图3为本申请人脸图像的年龄识别方法较佳实施例的流程图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供一种电子装置1。参照图1所示,为本申请电子装置较佳实施例的硬件示意图。
在本实施例中,电子装置1可以是服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有运算功能的终端设备。
在本实施例中,电子装置1可以是安装有人脸图像的年龄识别程序的服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有运算功能的终端设备,所述服务器可以是机架式服务器、刀片式服务器、塔式服务器或机柜式服务器。
该电子装置1包括:存储器11、处理器12、摄像装置13、网络接口14及通信总线15。
其中,存储器11至少包括一种类型的可读存储介质。所述至少一种类型的可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等的非易失性存储介质。在一些实施例中,存储器11可以是所述电子装置1的内部存储单元,例如该电子装置1的硬盘。在另一些实施例中,存储器11也可以是所述电子装置1的外部存储设备,例如所述电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
在本实施例中,所述存储器11的可读存储介质通常用于存储安装于所述电子装置1的人脸图像的年龄识别程序10、预先确定的年龄识别模型的模型文件及各类数据等。所述存储器11还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit, CPU),微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行人脸图像的年龄识别程序10等。
摄像装置13既可以是所述电子装置1的一部分,也可以独立于电子装置1。在一些实施例中,所述电子装置1为智能手机、平板电脑、便携计算机等具有摄像头的终端设备,则所述摄像装置13即为所述电子装置1的摄像头。在其他实施例中,所述电子装置1可以为服务器,所述摄像装置13独立于该电子装置1、与该电子装置1通过网络连接,例如,该摄像装置13安装于特定场所,如办公场所、监控区域,对进入该特定场所的目标实时拍摄得到实时图像,通过网络将拍摄得到的实时图像传输至处理器12。
网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该电子装置1与其他电子设备之间建立通信连接。
通信总线15用于实现这些组件之间的连接通信。
图1仅示出了具有组件11-15的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,该电子装置1还可以包括用户接口,用户接口可以包括输入单元比如键盘(Keyboard)等,可选地用户接口还可以包括标准的有线接口、无线接口。
可选地,该电子装置1还可以包括显示器,显示器也可以适当的称为显示屏或显示单元。在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。显示器用于显示在电子装置1中处理的信息以及用于显示可视化的用户界面。
可选地,该电子装置1还可以包括触摸传感器。所述触摸传感器所提供的供用户进行触摸操作的区域称为触控区域。
此外,该电子装置1的显示器的面积可以与所述触摸传感器的面积相同,也可以不同。可选地,将显示器与所述触摸传感器层叠设置,以形成触摸显示屏。该装置基于触摸显示屏侦测用户触发的触控操作。
可选地,该电子装置1还可以包括射频(Radio Frequency,RF)电路,传感器、音频电路等等,在此不再赘述。
在图1所示的电子装置实施例中,作为一种计算机存储介质的存储器11中存储有人脸图像的年龄识别程序10,处理器12执行存储器11中存储的人脸图像的年龄识别程序10时实现如下步骤:
获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中提取出人脸区域;
将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及
将所述特征向量Y[y 0,y 1,…,y i,…,y n]输入年龄识别公式,识别所述实时图像中人脸的年龄,其中,所述年龄识别公式为:age=arg_max(Y)。
以识别实时图像中人脸的年龄为例,对本申请的具体方案进行说明。当摄像装置13拍摄到一张实时图像,摄像装置13将这张实时图像发送到处理器12,处理器12接收到该实时图像并获取实时图像的大小,建立一个相同大小的灰度图像,将获取的彩色图像,转换成灰度图像,同时创建一个内存空间;将灰度图像直方图均衡化,使灰度图像信息量减少,加快检测速度,然后加载训练库,检测图片中的人脸,并返回一个包含人脸信息的对象,获得人脸所在位置的数据,并记录个数;最终获取脸部的区域且保存下来,这样就完成了一次人脸区域提取的过程。在其他实施例中,从该实时图像中提取人脸区域的人脸识别算法还可以为:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
将利用人脸识别算法提取的人脸区域保存为预设大小的图片,例如,保存为256*256像素的图片P。将包含人脸区域的图片P输入预先确定的年龄识别模型,以从图片P中提取中代表不同年龄的人脸特征,组合该人脸特征生成图片P的特征向量Y[y 0,y 1,…,y i,…,y n],其中,所述预先确定的年龄识别模型通过训练卷积神经网络得到,在本实施例中,卷积神经网络为inception-resnet网络,具体训练步骤包括:
为每个年龄分别准备对应的预设数量的人脸样本图像,例如,准备0岁至100岁对应的人脸样本图像,对这些样本图像进行规范化处理后形成年龄样本图像,根据每张年龄样本图像中人脸的年龄,为每张年龄样本图像标注年龄标签“0”至“100”,所有的年龄样本图像及其年龄标签形成样本集;对卷积神经网络进行初始化,使其后续提取的特征向量均为n(例如,101)维的, 在利用样本集训练卷积神经网络的过程中,卷积神经网络从样本集中随机读取年龄样本图像,从读取的该年龄样本图像中提取出反映不同年龄的人脸特征,组合该人脸特征生成该年龄样本图像对应的n维特征向量,每提取m(例如,100)张年龄样本图像的特征向量后,计算该m(例如,100)个维特征向量的损失值(即Loss)。具体地,所述Loss的计算公式如下:
Figure PCTCN2018076185-appb-000001
其中,x i表示年龄的特征向量Y,c yi表示和特征向量Y维度一样的中心特征向量,即第yi类的特征中心,且c yi的初始化值为全0,W表示所述卷积神经网络的全连接层的参数矩阵,b表示偏置,W j表示W的第j列,m表示更新一次模型参数输入的样本个数(在本实施例中,m为100)。
通过计算特征向量的Loss,利用随机梯度下降法及所述特征向量对应的年龄标签对所述卷积神经网络的参数进行更新,使提取的特征向量更聚类,也使后续从实时图像中识别出的年龄更逼近真实年龄。利用随机梯度下降法更新模型参数的方法已较成熟,这里不再赘述。反复执行步骤A-D,直到从年龄样本图像中提取的特征向量的Loss不再下降,停止模型参数更新,也就是说模型训练过程结束,得到了所述模型识别模型。
需要说明的是,所述对人脸样本图像进行规范化处理包括:对第一样本集中的样本图片进行预处理如缩放、裁剪、翻转及/或扭曲等操作,利用经过规范化处理后的人脸样本图像对卷积神经网络进行训练,有效提高模型训练的真实性及准确率。具体地,规范化处理包括:
将每张人脸样本图像较短边长缩放到第一预设大小,例如,640像素,以获得对应的第一图片,在各张第一图片上随机裁剪出一个第二预设大小的第二图片,例如256*256像素的第二图片;
根据各个预先确定的预设类型参数,例如颜色、亮度及/或对比度等对应的标准参数值,例如,颜色对应的标准参数值为a1,亮度对应的标准参数值为a2,对比度对应的标准参数值为a3,将各张第二图片的各个预先确定的预设类型参数值调整为对应的标准参数值,获得对应的第三图片,以消除人脸样本图像在拍摄时外界条件导致的图片不清晰,提高模型训练的有效性;
对各张第三图片进行水平和垂直方向的翻转,及按照预设的扭曲角度 (例如,30度)对各张第三图片进行扭曲操作,获得各张第三图片对应的第四图片,各张第四图片即为年龄样本图像。其中,翻转和扭曲操作的作用是模拟实际场景下各种形式的图片,通过这些翻转和扭曲操作可以增大数据集的规模,从而提高模型训练的准确性。
假设利用训练好的年龄识别模型,从图片P中提取出的特征向量为Y[y 0,y 1,…,y i,…,y n],其中,y 0,y 1,…,y i,…,y n分别是在[0,1]之间的数值,y i表示从图片P中识别出人脸的年龄为i的概率,且,
Figure PCTCN2018076185-appb-000002
根据提取出的特征向量Y[y 0,y 1,…,y i,…,y n]及年龄识别公式,确定特征向量Y[y 0,y 1,…,y i,…,y n]中的最大值,作为从图片P中识别出的人脸的年龄。假如在Y[y 0,y 1,…,y i,…,y n]中,y 20的值最大,利用年龄识别公式:age=arg_max(Y),提取出最大值y 20,并输出对应的年龄20。其中,age表示从图片P中识别出的人脸的年龄,也就是从实时图像中识别出的人脸的年龄。
上述实施例提出的电子装置1,通过年龄识别模型提取出人脸图像中反映不同年龄人脸特征的特征向量,利用该特征向量识别人脸图像中的人脸的年龄,提高人脸图像的年龄识别准确率。
进一步地,在其他实施例中,为了提高年龄识别模型的准确性,所述模型训练步骤还包括:卷积神经网络随机读取训练集中的年龄样本图像,给该年龄样本图像的年龄标签加一个预设区间内的正态分布随机数,形成一个新的年龄标签;及,利用读取的该年龄样本图像的新的年龄标签及从该年龄样本图像对应的特征向量,对所述卷积神经网络进行训练,得到所述年龄识别模型。所述新的年龄标签需满足以下条件:
label=label i+N(μ+σ 2)
其中,label表示卷积神经网络随机读取的年龄样本图像的新的年龄标签,label i表示随机读取的年龄样本图像原有的年龄标签,N(μ+σ 2)表示均值为0、标准差为1的正太分布随机数,μ=0,σ 2=1。
在本实施例中,所述正态分布随机数均为区间在[-2,2]内的整数,即-2、-1、0、1、2。例如,卷积神经网络从训练集中随机读取一个年龄标签为“20”的年龄样本图像,模型给该年龄标签加一个区间在[-2,2]内的正态分布随机 数(例如,1),形成新的年龄标签“21”,需要说明的是,当新的年龄标签超出边界值[0,100],例如“-1”和“102”,直接将该类新的年龄标签赋值为边界值,“-1”赋值为“0”,“102”赋值为“100”。然后执行特征向量提取步骤、训练更新步骤,得到所述年龄识别模型,后续年龄识别步骤与上述实施例中内容大致相同,这里不再赘述。
上述实施例提出的电子装置1,通过给年龄样本图像的标注加一个正态分布随机数,增加了年龄识别模型训练过程中训练样本的数量,提高年龄识别模型提取特征向量的准确性,进而提高年龄识别的准确率。
在其他实施例中,人脸图像的年龄识别程序10还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由处理器12执行,以完成本申请。本申请所称的模块是指能够完成特定功能的一系列计算机程序指令段。参照图2所示,为图1中人脸图像的年龄识别程序10的模块示意图。所述人脸图像的年龄识别程序10可以被分割为:获取模块110、提取模块120及识别模块130,所述模块110-130所实现的功能或操作步骤均与上文类似,此处不再详述,示例性地,例如其中:
获取模块110,用于获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中提取出人脸区域;
提取模块120,用于将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及
识别模块130,用于将所述特征向量Y[y 0,y 1,…,y i,…,y n]输入年龄识别公式,识别所述实时图像中人脸的年龄,其中,所述年龄识别公式为:age=arg_max(Y)。
此外,本申请还提供一种人脸图像的年龄识别方法。参照图3所示,为本申请人脸图像的年龄识别方法第一实施例的流程图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,人脸图像的年龄识别方法包括步骤S10-S30:
步骤S10,获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中提取出人脸区域;
步骤S20,将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及
步骤S30,将所述特征向量Y[y 0,y 1,…,y i,…,y n]输入年龄识别公式,识别所述实时图像中人脸的年龄,其中,所述年龄识别公式为:age=arg_max(Y)。
以识别实时图像中人脸的年龄为例,对本申请的具体方案进行说明。当摄像装置拍摄到一张实时图像,摄像装置将这张实时图像发送到处理器,处理器接收到该实时图像并获取实时图像的大小,建立一个相同大小的灰度图像,将获取的彩色图像,转换成灰度图像,同时创建一个内存空间;将灰度图像直方图均衡化,使灰度图像信息量减少,加快检测速度,然后加载训练库,检测图片中的人脸,并返回一个包含人脸信息的对象,获得人脸所在位置的数据,并记录个数;最终获取脸部的区域且保存下来,这样就完成了一次人脸区域提取的过程。在其他实施例中,从该实时图像中提取人脸区域的人脸识别算法还可以为:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
将利用人脸识别算法提取的人脸区域保存为预设大小的图片,例如,保存为256*256像素的图片P。将包含人脸区域的图片P输入预先确定的年龄识别模型,以从图片P中提取中代表不同年龄的人脸特征,组合该人脸特征生成图片P的特征向量Y[y 0,y 1,…,y i,…,y n],其中,所述预先确定的年龄识别模型通过训练卷积神经网络得到,在本实施例中,卷积神经网络为inception-resnet网络,具体训练步骤包括:
为每个年龄分别准备对应的预设数量的人脸样本图像,例如,准备0岁至100岁对应的人脸样本图像,对这些样本图像进行规范化处理后形成年龄样本图像,根据每张年龄样本图像中人脸的年龄,为每张年龄样本图像标注年龄标签“0”至“100”,所有的年龄样本图像及其年龄标签形成样本集;对卷积神经网络进行初始化,使其后续提取的特征向量均为n(例如,101)维的,在利用样本集训练卷积神经网络的过程中,卷积神经网络从样本集中随机读取年龄样本图像,从读取的该年龄样本图像中提取出反映不同年龄的人脸特征,组合该人脸特征生成该年龄样本图像对应的n维特征向量,每提取m(例如,100)张年龄样本图像的特征向量后,计算该m(例如,100)个维特征向量的Loss。具体地,所述Loss的计算公式如下:
Figure PCTCN2018076185-appb-000003
其中,x i表示年龄的特征向量Y,c yi表示和特征向量Y维度一样的中心特征向量,即第yi类的特征中心,且c yi的初始化值为全0,W表示所述卷积神经网络的全连接层的参数矩阵,b表示偏置,W j表示W的第j列,m表示更新一次模型参数输入的样本个数(在本实施例中,m为100)。
通过计算特征向量的Loss,利用随机梯度下降法及所述特征向量对应的年龄标签对所述卷积神经网络的参数进行更新,使提取的特征向量更聚类,也使后续从实时图像中识别出的年龄更逼近真实年龄。利用随机梯度下降法更新模型参数的方法已较成熟,这里不再赘述。反复执行步骤A-D,直到从年龄样本图像中提取的特征向量的Loss不再下降,停止模型参数更新,也就是说模型训练过程结束,得到了所述模型识别模型。
需要说明的是,所述对人脸样本图像进行规范化处理包括:对第一样本集中的样本图片进行预处理如缩放、裁剪、翻转及/或扭曲等操作,利用经过规范化处理后的人脸样本图像对卷积神经网络进行训练,有效提高模型训练的真实性及准确率。具体地,规范化处理包括:
将每张人脸样本图像较短边长缩放到第一预设大小,例如,640像素,以获得对应的第一图片,在各张第一图片上随机裁剪出一个第二预设大小的第二图片,例如256*256像素的第二图片;
根据各个预先确定的预设类型参数,例如颜色、亮度及/或对比度等对应的标准参数值,例如,颜色对应的标准参数值为a1,亮度对应的标准参数值为a2,对比度对应的标准参数值为a3,将各张第二图片的各个预先确定的预设类型参数值调整为对应的标准参数值,获得对应的第三图片,以消除人脸样本图像在拍摄时外界条件导致的图片不清晰,提高模型训练的有效性;
对各张第三图片进行水平和垂直方向的翻转,及按照预设的扭曲角度(例如,30度)对各张第三图片进行扭曲操作,获得各张第三图片对应的第四图片,各张第四图片即为年龄样本图像。其中,翻转和扭曲操作的作用是模拟实际场景下各种形式的图片,通过这些翻转和扭曲操作可以增大数据集的规模,从而提高模型训练的准确性。
假设利用训练好的年龄识别模型,从图片P中提取出的特征向量为 Y[y 0,y 1,…,y i,…,y n],其中,y 0,y 1,…,y i,…,y n分别是在[0,1]之间的数值,y i表示从图片P中识别出人脸的年龄为i的概率,且
Figure PCTCN2018076185-appb-000004
根据提取出的特征向量Y[y 0,y 1,…,y i,…,y n]及年龄识别公式,确定特征向量Y[y 0,y 1,…,y i,…,y n]中的最大值,作为从图片P中识别出的人脸的年龄。假如在Y[y 0,y 1,…,y i,…,y n]中,y 20的值最大,利用年龄识别公式:age=arg_max(Y),提取出最大值y 20,并输出对应的年龄20。其中,age表示从图片P中识别出的人脸的年龄,也就是从实时图像中识别出的人脸的年龄。
上述实施例提出的人脸图像的年龄识别方法,利用年龄识别模型提取出人脸图像中反映不同年龄人脸特征的特征向量,利用该特征向量识别人脸图像中的人脸的年龄,提高人脸图像的年龄识别准确率。
进一步地,在其他实施例中,为了提高年龄识别模型的准确性,所述模型训练步骤还包括:卷积神经网络随机读取训练集中的年龄样本图像,给该年龄样本图像的年龄标签加一个预设区间内的正态分布随机数,形成一个新的年龄标签;及,利用读取的该年龄样本图像的新的年龄标签及从该年龄样本图像对应的特征向量,对所述卷积神经网络进行训练,得到所述年龄识别模型。所述新的年龄标签需满足以下条件:
label=label i+N(μ+σ 2)
其中,label表示卷积神经网络随机读取的年龄样本图像的新的年龄标签,label i表示随机读取的年龄样本图像原有的年龄标签,N(μ+σ 2)表示均值为0,标准差为1的正太分布随机数,μ=0,σ 2=1。
在本实施例中,所述正态分布随机数均为区间在[-2,2]内的整数,即-2、-1、0、1、2。例如,卷积神经网络从训练集中随机读取一个年龄标签为“20”的年龄样本图像,模型给该年龄标签加一个区间在[-2,2]内的正态分布随机数(例如,1),形成新的年龄标签“21”,需要说明的是,当新的年龄标签超出边界值[0,100],例如“-1”和“102”,直接将该类新的年龄标签赋值为边界值,“-1”赋值为“0”,“102”赋值为“100”。然后执行特征向量提取步骤、训练更新步骤,得到所述年龄识别模型,后续年龄识别步骤与上述实施例中内容大致相同,这里不再赘述。
上述实施例提出的人脸图像的年龄识别方法,通过给年龄样本图像的标注加一个正态分布随机数,增加了年龄识别模型训练过程中训练样本的数量,提高年龄识别模型提取特征向量的准确性,进而提高年龄识别的准确率。
此外,本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质中包括人脸图像的年龄识别程序,所述人脸图像的年龄识别程序被处理器执行时实现如下操作:
获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中提取出人脸区域;
将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及
根据所述特征向量Y及最大值索引函数,识别所述实时图像中人脸的年龄,年龄识别公式为:age=arg_max(Y)。
本申请之计算机可读存储介质的具体实施方式与上述电子装置及人脸图像的年龄识别方法的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种人脸图像的年龄识别方法,应用于电子装置,其特征在于,该方法包括:
    获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中提取出人脸区域;
    将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及
    将所述特征向量Y[y 0,y 1,…,y i,…,y n]输入年龄识别公式,识别所述实时图像中人脸的年龄,其中,所述年龄识别公式为:age=arg_max(Y)。
  2. 如权利要求1所述的人脸图像的年龄识别方法,其特征在于,所述预先确定的年龄识别模型的训练步骤包括:
    A、准备各个年龄对应的预设数量的人脸样本图像,对人脸样本图像进行规范化处理形成年龄样本图像;
    B、为每张年龄样本图像标注对应的年龄标签,形成样本集;及
    C、利用卷积神经网络随机读取样本集中的年龄样本图像,从该年龄样本图像中提取不同年龄对应的特征,并组合该特征生成该年龄样本图像对应的n维特征向量;
    D、计算所述n维特征向量的损失值,利用随机梯度下降法及所述n维向量对应的年龄标签对所述卷积神经网络的参数进行更新;及
    E、反复执行步骤A-D,直到从年龄样本图像中提取的n维特征向量的损失值不再下降为止。
  3. 如权利要求2所述的人脸图像的年龄识别方法,其特征在于,所述损失值的计算公式如下:
    Figure PCTCN2018076185-appb-100001
    其中,x i表示年龄的特征向量Y,c yi表示和特征向量Y维度一样的中心特征向量,即第yi类的特征中心,且c yi的初始化值为全0,W表示所述卷积神 经网络的全连接层的参数矩阵,b表示偏置,W j表示W的第j列,m表示更新一次模型参数输入的样本个数。
  4. 如权利要求2所述的人脸图像的年龄识别方法,其特征在于,所述步骤C还包括:
    利用卷积神经网络随机读取训练集中的年龄样本图像,给该年龄样本图像的年龄标签加一个预设区间内的正态分布随机数,形成一个新的年龄标签。
  5. 如权利要求4所述的人脸图像的年龄识别方法,其特征在于,所述新的年龄标签需满足以下条件:
    label=label i+N(μ+σ 2)
    其中,label表示卷积神经网络随机读取的年龄样本图像的新的年龄标签,label i表示随机读取的年龄样本图像原有的年龄标签,N(μ+σ 2)表示均值为0、标准差为1的正太分布随机数,μ=0,σ 2=1。
  6. 如权利要求2所述的人脸图像的年龄识别方法,其特征在于,所述步骤A中的规范化处理步骤包括:
    将各张人脸样本图像的较短边长缩放到第一预设大小以获得对应的第一图片,在各张第一图片上随机裁剪出一个第二预设大小的第二图片;
    根据各个预先确定的预设类型参数对应的标准参数值,将各张第二图片的各个预先确定的预设类型参数值调整为对应的标准参数值,以获得对应的第三图片;及
    对各张第三图片进行预设方向的翻转操作,及按照预设的扭曲角度对各张第三图片进行扭曲操作,以获得各张第三图片对应的第四图片,将各张第四图片作为年龄样本图像。
  7. 如权利要求1所述的人脸图像的年龄识别方法,其特征在于,所述人脸识别算法可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法及神经网络方法。
  8. 一种电子装置,其特征在于,该电子装置包括:存储器、处理器,所述存储器存储有人脸图像的年龄识别程序,所述人脸图像的年龄识别程序被所述处理器执行时,可实现以下步骤:
    获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中提取出人脸区域;
    将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及
    将所述特征向量Y[y 0,y 1,…,y i,…,y n]输入年龄识别公式,识别所述实时图像中人脸的年龄,其中,所述年龄识别公式为:age=arg_max(Y)。
  9. 如权利要求8所述的电子装置,其特征在于,所述预先确定的年龄识别模型的训练步骤包括:
    A、准备各个年龄对应的预设数量的人脸样本图像,对人脸样本图像进行规范化处理形成年龄样本图像;
    B、为每张年龄样本图像标注对应的年龄标签,形成样本集;及
    C、利用卷积神经网络随机读取样本集中的年龄样本图像,从该年龄样本图像中提取不同年龄对应的特征,并组合该特征生成该年龄样本图像对应的n维特征向量;
    D、计算所述n维特征向量的损失值,利用随机梯度下降法及所述n维向量对应的年龄标签对所述卷积神经网络的参数进行更新;及
    E、反复执行步骤A-D,直到从年龄样本图像中提取的n维特征向量的损失值不再下降为止。
  10. 如权利要求9所述的电子装置,其特征在于,所述损失值的计算公式如下:
    Figure PCTCN2018076185-appb-100002
    其中,x i表示年龄的特征向量Y,c yi表示和特征向量Y维度一样的中心特征向量,即第yi类的特征中心,且c yi的初始化值为全0,W表示所述卷积神经网络的全连接层的参数矩阵,b表示偏置,W j表示W的第j列,m表示更 新一次模型参数输入的样本个数。
  11. 如权利要求9所述的电子装置,其特征在于,所述步骤C还包括:
    利用卷积神经网络随机读取训练集中的年龄样本图像,给该年龄样本图像的年龄标签加一个预设区间内的正态分布随机数,形成一个新的年龄标签。
  12. 如权利要求11所述的电子装置,其特征在于,所述新的年龄标签需满足以下条件:
    label=label i+N(μ+σ 2)
    其中,label表示卷积神经网络随机读取的年龄样本图像的新的年龄标签,label i表示随机读取的年龄样本图像原有的年龄标签,N(μ+σ 2)表示均值为0、标准差为1的正太分布随机数,μ=0,σ 2=1。
  13. 如权利要求9所述的电子装置,其特征在于,所述步骤A中的规范化处理步骤包括:
    将各张人脸样本图像的较短边长缩放到第一预设大小以获得对应的第一图片,在各张第一图片上随机裁剪出一个第二预设大小的第二图片;
    根据各个预先确定的预设类型参数对应的标准参数值,将各张第二图片的各个预先确定的预设类型参数值调整为对应的标准参数值,以获得对应的第三图片;及
    对各张第三图片进行预设方向的翻转操作,及按照预设的扭曲角度对各张第三图片进行扭曲操作,以获得各张第三图片对应的第四图片,将各张第四图片作为年龄样本图像。
  14. 如权利要求8所述的电子装置,其特征在于,所述人脸识别算法可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法及神经网络方法。
  15. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括人脸图像的年龄识别程序,所述人脸图像的年龄识别程序被处理器执 行时,可实现以下步骤:
    获取摄像装置拍摄的一张实时图像,利用人脸识别算法从该实时图像中提取出人脸区域;
    将该人脸区域输入预先确定的年龄识别模型,提取出一个n维特征向量Y[y 0,y 1,…,y i,…,y n],其中,i∈[0,n],0≤n≤100;及
    将所述特征向量Y[y 0,y 1,…,y i,…,y n]输入年龄识别公式,识别所述实时图像中人脸的年龄,其中,所述年龄识别公式为:age=arg_max(Y)。
  16. 如权利要求15所述的计算机可读存储介质,其特征在于,所述预先确定的年龄识别模型的训练步骤包括:
    A、准备各个年龄对应的预设数量的人脸样本图像,对人脸样本图像进行规范化处理形成年龄样本图像;
    B、为每张年龄样本图像标注对应的年龄标签,形成样本集;及
    C、利用卷积神经网络随机读取样本集中的年龄样本图像,从该年龄样本图像中提取不同年龄对应的特征,并组合该特征生成该年龄样本图像对应的n维特征向量;
    D、计算所述n维特征向量的损失值,利用随机梯度下降法及所述n维向量对应的年龄标签对所述卷积神经网络的参数进行更新;及
    E、反复执行步骤A-D,直到从年龄样本图像中提取的n维特征向量的损失值不再下降为止。
  17. 如权利要求16所述的计算机可读存储介质,其特征在于,所述损失值的计算公式如下:
    Figure PCTCN2018076185-appb-100003
    其中,x i表示年龄的特征向量Y,c yi表示和特征向量Y维度一样的中心特征向量,即第yi类的特征中心,且c yi的初始化值为全0,W表示所述卷积神经网络的全连接层的参数矩阵,b表示偏置,W j表示W的第j列,m表示更新一次模型参数输入的样本个数。
  18. 如权利要求16所述的计算机可读存储介质,其特征在于,所述步骤C还包括:
    利用卷积神经网络随机读取训练集中的年龄样本图像,给该年龄样本图像的年龄标签加一个预设区间内的正态分布随机数,形成一个新的年龄标签。
  19. 如权利要求18所述的计算机可读存储介质,其特征在于,所述新的年龄标签需满足以下条件:
    label=label i+N(μ+σ 2)
    其中,label表示卷积神经网络随机读取的年龄样本图像的新的年龄标签,label i表示随机读取的年龄样本图像原有的年龄标签,N(μ+σ 2)表示均值为0、标准差为1的正太分布随机数,μ=0,σ 2=1。
  20. 如权利要求16所述的计算机可读存储介质,其特征在于,所述步骤A中的规范化处理步骤包括:
    将各张人脸样本图像的较短边长缩放到第一预设大小以获得对应的第一图片,在各张第一图片上随机裁剪出一个第二预设大小的第二图片;
    根据各个预先确定的预设类型参数对应的标准参数值,将各张第二图片的各个预先确定的预设类型参数值调整为对应的标准参数值,以获得对应的第三图片;及
    对各张第三图片进行预设方向的翻转操作,及按照预设的扭曲角度对各张第三图片进行扭曲操作,以获得各张第三图片对应的第四图片,将各张第四图片作为年龄样本图像。
PCT/CN2018/076185 2017-12-06 2018-02-10 人脸图像的年龄识别方法、装置及存储介质 WO2019109526A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201711272383.8A CN107977633B (zh) 2017-12-06 2017-12-06 人脸图像的年龄识别方法、装置及存储介质
CN201711272383.8 2017-12-06

Publications (1)

Publication Number Publication Date
WO2019109526A1 true WO2019109526A1 (zh) 2019-06-13

Family

ID=62009151

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/076185 WO2019109526A1 (zh) 2017-12-06 2018-02-10 人脸图像的年龄识别方法、装置及存储介质

Country Status (2)

Country Link
CN (1) CN107977633B (zh)
WO (1) WO2019109526A1 (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674748A (zh) * 2019-09-24 2020-01-10 腾讯科技(深圳)有限公司 图像数据处理方法、装置、计算机设备以及可读存储介质
CN110717891A (zh) * 2019-09-17 2020-01-21 平安科技(深圳)有限公司 基于分组批量的图片检测方法、装置及存储介质
CN110826330A (zh) * 2019-10-12 2020-02-21 上海数禾信息科技有限公司 人名识别方法及装置、计算机设备及可读存储介质
CN110853764A (zh) * 2019-11-28 2020-02-28 成都中医药大学 一种糖尿病证候预测系统
CN111091109A (zh) * 2019-12-24 2020-05-01 厦门瑞为信息技术有限公司 基于人脸图像进行年龄和性别预测的方法、系统和设备
CN111310709A (zh) * 2020-03-02 2020-06-19 邓谊 一种图文年报情感标定方法及系统
CN111401158A (zh) * 2020-03-03 2020-07-10 平安科技(深圳)有限公司 难样本发现方法、装置及计算机设备
CN111428671A (zh) * 2020-03-31 2020-07-17 杭州博雅鸿图视频技术有限公司 人脸结构化信息识别方法、系统、装置及存储介质
CN111709305A (zh) * 2020-05-22 2020-09-25 东南大学 一种基于局部图像块的人脸年龄识别方法
CN111814620A (zh) * 2020-06-28 2020-10-23 浙江大华技术股份有限公司 人脸图像质量评价模型建立方法、优选方法、介质及装置
CN111881737A (zh) * 2020-06-18 2020-11-03 深圳数联天下智能科技有限公司 年龄预测模型的训练方法及装置、年龄预测方法及装置
CN111914772A (zh) * 2020-08-06 2020-11-10 北京金山云网络技术有限公司 识别年龄的方法、年龄识别模型的训练方法和装置
CN112329693A (zh) * 2020-11-17 2021-02-05 汇纳科技股份有限公司 性别年龄识别模型的训练方法、识别方法、介质及设备
CN112818728A (zh) * 2019-11-18 2021-05-18 深圳云天励飞技术有限公司 年龄识别的方法及相关产品
CN112836566A (zh) * 2020-12-01 2021-05-25 北京智云视图科技有限公司 针对边缘设备的多任务神经网络人脸关键点检测方法
CN112906668A (zh) * 2021-04-07 2021-06-04 上海应用技术大学 基于卷积神经网络的人脸信息识别方法
CN113033444A (zh) * 2021-03-31 2021-06-25 北京金山云网络技术有限公司 年龄估计方法、装置和电子设备
CN113065525A (zh) * 2021-04-27 2021-07-02 深圳数联天下智能科技有限公司 年龄识别模型训练方法、人脸年龄识别方法及相关装置
CN113076833A (zh) * 2021-03-25 2021-07-06 深圳数联天下智能科技有限公司 年龄识别模型的训练方法、人脸年龄识别方法及相关装置
CN114998978A (zh) * 2022-07-29 2022-09-02 杭州魔点科技有限公司 一种人脸图像质量分析的方法和系统

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765014A (zh) * 2018-05-30 2018-11-06 中海云智慧(北京)物联网科技有限公司 一种基于门禁系统的智能广告投放方法
CN109145876A (zh) * 2018-09-29 2019-01-04 北京达佳互联信息技术有限公司 图像分类方法、装置、电子设备及存储介质
CN109753875A (zh) * 2018-11-28 2019-05-14 北京的卢深视科技有限公司 基于人脸属性感知损失的人脸识别方法、装置与电子设备
CN109670437B (zh) * 2018-12-14 2021-05-07 腾讯科技(深圳)有限公司 年龄预估模型训练方法、面部图像识别方法及装置
CN109886099B (zh) * 2019-01-11 2020-11-10 西安电子科技大学 一种年龄评估评判标准模型的建立方法
CN110135889A (zh) * 2019-04-15 2019-08-16 深圳壹账通智能科技有限公司 智能推荐书单的方法、服务器及存储介质
CN110110663A (zh) * 2019-05-07 2019-08-09 江苏新亿迪智能科技有限公司 一种基于人脸属性的年龄识别方法及系统
CN110188660B (zh) * 2019-05-27 2021-07-02 北京字节跳动网络技术有限公司 用于识别年龄的方法和装置
CN111931586A (zh) * 2020-07-14 2020-11-13 珠海市卓轩科技有限公司 人脸年龄识别方法、装置及存储介质
CN111857634A (zh) * 2020-07-28 2020-10-30 青岛海尔科技有限公司 用于显示信息的方法及装置、设备
CN112155554B (zh) * 2020-09-29 2021-05-18 北京昊泽管理咨询有限公司 一种基于儿童青少年颅部表面形态学发育特征确定个体发育年龄的方法、装置及设备
CN112163526B (zh) * 2020-09-29 2022-10-21 重庆紫光华山智安科技有限公司 一种基于人脸信息进行年龄识别的方法、装置及电子设备
CN113673315B (zh) * 2021-07-09 2023-10-17 深圳大学 基于rfid的人脸识别方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160086015A1 (en) * 2007-01-09 2016-03-24 Si Corporation Method and system for automated face detection and recognition
CN105678253A (zh) * 2016-01-04 2016-06-15 东南大学 半监督人脸年龄估计装置及半监督人脸年龄估计方法
CN106503623A (zh) * 2016-09-27 2017-03-15 中国科学院自动化研究所 基于卷积神经网络的人脸图像年龄估算方法
CN106529402A (zh) * 2016-09-27 2017-03-22 中国科学院自动化研究所 基于多任务学习的卷积神经网络的人脸属性分析方法
CN107169454A (zh) * 2017-05-16 2017-09-15 中国科学院深圳先进技术研究院 一种人脸图像年龄估算方法、装置及其终端设备
CN107545249A (zh) * 2017-08-30 2018-01-05 国信优易数据有限公司 一种人群年龄识别方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4303092B2 (ja) * 2003-11-12 2009-07-29 株式会社国際電気通信基礎技術研究所 年齢推定装置、年齢推定方法および年齢推定プログラム
TWM384349U (en) * 2010-03-19 2010-07-11 Chunghwa Telecom Co Ltd Identity recognition system with integration of face, sex and age recognitions
KR101558547B1 (ko) * 2014-01-27 2015-10-19 주식회사 에스원 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
CN105279499B (zh) * 2015-10-30 2019-01-04 小米科技有限责任公司 年龄识别方法及装置
CN105282345B (zh) * 2015-11-23 2019-03-15 小米科技有限责任公司 通话音量的调节方法和装置
US9773196B2 (en) * 2016-01-25 2017-09-26 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
US9779492B1 (en) * 2016-03-15 2017-10-03 International Business Machines Corporation Retinal image quality assessment, error identification and automatic quality correction
CN106384080A (zh) * 2016-08-31 2017-02-08 广州精点计算机科技有限公司 一种基于卷积神经网络的表观年龄估计方法及装置
CN106503669B (zh) * 2016-11-02 2019-12-10 重庆中科云丛科技有限公司 一种基于多任务深度学习网络的训练、识别方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160086015A1 (en) * 2007-01-09 2016-03-24 Si Corporation Method and system for automated face detection and recognition
CN105678253A (zh) * 2016-01-04 2016-06-15 东南大学 半监督人脸年龄估计装置及半监督人脸年龄估计方法
CN106503623A (zh) * 2016-09-27 2017-03-15 中国科学院自动化研究所 基于卷积神经网络的人脸图像年龄估算方法
CN106529402A (zh) * 2016-09-27 2017-03-22 中国科学院自动化研究所 基于多任务学习的卷积神经网络的人脸属性分析方法
CN107169454A (zh) * 2017-05-16 2017-09-15 中国科学院深圳先进技术研究院 一种人脸图像年龄估算方法、装置及其终端设备
CN107545249A (zh) * 2017-08-30 2018-01-05 国信优易数据有限公司 一种人群年龄识别方法及装置

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717891A (zh) * 2019-09-17 2020-01-21 平安科技(深圳)有限公司 基于分组批量的图片检测方法、装置及存储介质
CN110674748B (zh) * 2019-09-24 2024-02-13 腾讯科技(深圳)有限公司 图像数据处理方法、装置、计算机设备以及可读存储介质
CN110674748A (zh) * 2019-09-24 2020-01-10 腾讯科技(深圳)有限公司 图像数据处理方法、装置、计算机设备以及可读存储介质
CN110826330A (zh) * 2019-10-12 2020-02-21 上海数禾信息科技有限公司 人名识别方法及装置、计算机设备及可读存储介质
CN110826330B (zh) * 2019-10-12 2023-11-07 上海数禾信息科技有限公司 人名识别方法及装置、计算机设备及可读存储介质
CN112818728A (zh) * 2019-11-18 2021-05-18 深圳云天励飞技术有限公司 年龄识别的方法及相关产品
CN110853764B (zh) * 2019-11-28 2023-11-14 成都中医药大学 一种糖尿病证候预测系统
CN110853764A (zh) * 2019-11-28 2020-02-28 成都中医药大学 一种糖尿病证候预测系统
CN111091109B (zh) * 2019-12-24 2023-04-07 厦门瑞为信息技术有限公司 基于人脸图像进行年龄和性别预测的方法、系统和设备
CN111091109A (zh) * 2019-12-24 2020-05-01 厦门瑞为信息技术有限公司 基于人脸图像进行年龄和性别预测的方法、系统和设备
CN111310709A (zh) * 2020-03-02 2020-06-19 邓谊 一种图文年报情感标定方法及系统
CN111401158A (zh) * 2020-03-03 2020-07-10 平安科技(深圳)有限公司 难样本发现方法、装置及计算机设备
CN111401158B (zh) * 2020-03-03 2023-09-01 平安科技(深圳)有限公司 难样本发现方法、装置及计算机设备
CN111428671A (zh) * 2020-03-31 2020-07-17 杭州博雅鸿图视频技术有限公司 人脸结构化信息识别方法、系统、装置及存储介质
CN111709305B (zh) * 2020-05-22 2023-08-11 东南大学 一种基于局部图像块的人脸年龄识别方法
CN111709305A (zh) * 2020-05-22 2020-09-25 东南大学 一种基于局部图像块的人脸年龄识别方法
CN111881737B (zh) * 2020-06-18 2023-12-08 深圳数联天下智能科技有限公司 年龄预测模型的训练方法及装置、年龄预测方法及装置
CN111881737A (zh) * 2020-06-18 2020-11-03 深圳数联天下智能科技有限公司 年龄预测模型的训练方法及装置、年龄预测方法及装置
CN111814620A (zh) * 2020-06-28 2020-10-23 浙江大华技术股份有限公司 人脸图像质量评价模型建立方法、优选方法、介质及装置
CN111814620B (zh) * 2020-06-28 2023-08-15 浙江大华技术股份有限公司 人脸图像质量评价模型建立方法、优选方法、介质及装置
CN111914772A (zh) * 2020-08-06 2020-11-10 北京金山云网络技术有限公司 识别年龄的方法、年龄识别模型的训练方法和装置
CN112329693B (zh) * 2020-11-17 2024-01-19 汇纳科技股份有限公司 性别年龄识别模型的训练方法、识别方法、介质及设备
CN112329693A (zh) * 2020-11-17 2021-02-05 汇纳科技股份有限公司 性别年龄识别模型的训练方法、识别方法、介质及设备
CN112836566A (zh) * 2020-12-01 2021-05-25 北京智云视图科技有限公司 针对边缘设备的多任务神经网络人脸关键点检测方法
CN113076833A (zh) * 2021-03-25 2021-07-06 深圳数联天下智能科技有限公司 年龄识别模型的训练方法、人脸年龄识别方法及相关装置
CN113033444A (zh) * 2021-03-31 2021-06-25 北京金山云网络技术有限公司 年龄估计方法、装置和电子设备
CN112906668B (zh) * 2021-04-07 2023-08-25 上海应用技术大学 基于卷积神经网络的人脸信息识别方法
CN112906668A (zh) * 2021-04-07 2021-06-04 上海应用技术大学 基于卷积神经网络的人脸信息识别方法
CN113065525B (zh) * 2021-04-27 2023-12-12 深圳数联天下智能科技有限公司 年龄识别模型训练方法、人脸年龄识别方法及相关装置
CN113065525A (zh) * 2021-04-27 2021-07-02 深圳数联天下智能科技有限公司 年龄识别模型训练方法、人脸年龄识别方法及相关装置
CN114998978A (zh) * 2022-07-29 2022-09-02 杭州魔点科技有限公司 一种人脸图像质量分析的方法和系统

Also Published As

Publication number Publication date
CN107977633B (zh) 2019-04-09
CN107977633A (zh) 2018-05-01

Similar Documents

Publication Publication Date Title
WO2019109526A1 (zh) 人脸图像的年龄识别方法、装置及存储介质
US10699103B2 (en) Living body detecting method and apparatus, device and storage medium
WO2019095571A1 (zh) 人物情绪分析方法、装置及存储介质
WO2019033572A1 (zh) 人脸遮挡检测方法、装置及存储介质
WO2019174130A1 (zh) 票据识别方法、服务器及计算机可读存储介质
US10635946B2 (en) Eyeglass positioning method, apparatus and storage medium
WO2019120115A1 (zh) 人脸识别的方法、装置及计算机装置
US10133921B2 (en) Methods and apparatus for capturing, processing, training, and detecting patterns using pattern recognition classifiers
WO2019033571A1 (zh) 面部特征点检测方法、装置及存储介质
US8792722B2 (en) Hand gesture detection
US8750573B2 (en) Hand gesture detection
WO2019033569A1 (zh) 眼球动作分析方法、装置及存储介质
WO2019011165A1 (zh) 人脸识别方法、装置、电子设备及存储介质
WO2019033574A1 (zh) 电子装置、动态视频人脸识别的方法、系统及存储介质
WO2019041519A1 (zh) 目标跟踪装置、方法及计算机可读存储介质
WO2019033525A1 (zh) Au特征识别方法、装置及存储介质
CN108491866B (zh) 色情图片鉴定方法、电子装置及可读存储介质
EP4109332A1 (en) Certificate authenticity identification method and apparatus, computer-readable medium, and electronic device
WO2021012494A1 (zh) 基于深度学习的人脸识别方法、装置及计算机可读存储介质
WO2019033570A1 (zh) 嘴唇动作分析方法、装置及存储介质
CN108985190B (zh) 目标识别方法和装置、电子设备、存储介质
WO2019056503A1 (zh) 门店监控评价方法、装置及存储介质
US20220147735A1 (en) Face-aware person re-identification system
TWI712980B (zh) 理賠資訊提取方法和裝置、電子設備
WO2020253508A1 (zh) 异常细胞检测方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18885246

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 10.09.2020)

122 Ep: pct application non-entry in european phase

Ref document number: 18885246

Country of ref document: EP

Kind code of ref document: A1