WO2020037937A1 - 人脸识别的方法、装置、终端及计算机可读存储介质 - Google Patents

人脸识别的方法、装置、终端及计算机可读存储介质 Download PDF

Info

Publication number
WO2020037937A1
WO2020037937A1 PCT/CN2019/070357 CN2019070357W WO2020037937A1 WO 2020037937 A1 WO2020037937 A1 WO 2020037937A1 CN 2019070357 W CN2019070357 W CN 2019070357W WO 2020037937 A1 WO2020037937 A1 WO 2020037937A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
preset
feature matrix
training
loss function
Prior art date
Application number
PCT/CN2019/070357
Other languages
English (en)
French (fr)
Inventor
卢宁
徐国强
邱寒
Original Assignee
深圳壹账通智能科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳壹账通智能科技有限公司 filed Critical 深圳壹账通智能科技有限公司
Publication of WO2020037937A1 publication Critical patent/WO2020037937A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Definitions

  • the present application relates to the technical field of face recognition. Specifically, the present application relates to a method, a device, a terminal, and a computer-readable storage medium for face recognition.
  • face recognition is mainly based on the two-dimensional geometric features of various parts of the human face, that is, collecting a face image through a camera, and performing face detection, face positioning, and feature extraction on the collected face image; then The face recognition is realized by comparing the extracted two-dimensional features with the features in the pre-stored feature database.
  • the identified object needs to maintain a specific posture at a specific position, and then the face image is collected by an image acquisition device to ensure that the captured Most facial organs in the face image can extract enough effective facial features from the face image to accurately recognize the face image; however, in the application scenario without cooperation, it is natural
  • the collected face image may include only partial faces due to interference factors such as glasses, masks, side faces, heads down, and hats.
  • Organs based on the face recognition methods in the prior art, can only extract limited two-dimensional facial features in face images.
  • the two-dimensional facial features of local facial organs are difficult to accurately reflect the characteristics of human faces, based on Limited two-dimensional facial features for face recognition, the recognition results obtained are low in accuracy, that is, it is impossible to accurately identify the two-dimensional facial features. Identifying the identity of the object.
  • the inventor realizes that a defect in the prior art is that in an uncooperative application scenario, the identity of the identified object cannot be accurately identified based on the existing two-dimensional geometric features of the human face.
  • the purpose of this application is to solve at least one of the above-mentioned technical defects, especially in the uncooperative application scenario, based on the existing two-dimensional geometric features of the human face, the technical defects that cannot accurately identify the identity of the identified object.
  • the present application provides a method for face recognition, which method includes:
  • the face image is input into a preset face recognition model to obtain a face feature matrix corresponding to the face image, and the face feature matrix includes multi-dimensional face features;
  • the identity information corresponding to the face feature matrix of the user to be identified is determined.
  • the present application provides a face recognition device, which includes:
  • a facial image acquisition module configured to acquire a facial image of a user to be identified
  • a face feature matrix recognition module is used to input a face image into a preset face recognition model to obtain a face feature matrix corresponding to the face image.
  • the face feature matrix includes multi-dimensional face features
  • the identity information confirmation module is configured to determine identity information corresponding to the face feature matrix of the user to be identified according to the correspondence between the face feature matrix and the identity information.
  • the present application provides a face recognition terminal.
  • the terminal includes: a processor, a memory, and a bus; the bus is used to connect the processor and the memory; the memory is used to store operation instructions; and the processor is used to By calling an operation instruction, an operation corresponding to the method shown in the first aspect of the present application is performed.
  • the present application provides a computer-readable storage medium, where the storage medium stores at least one instruction, at least one program, code set, or instruction set, and at least one instruction, at least one program, code set, or instruction set is processed by a processor Load and execute to implement the method as shown in the first aspect of the application.
  • the correspondence between the matrix and the identity information determines the identity information corresponding to the face feature matrix of the user to be identified.
  • the multi-dimensional face features can effectively reflect the features of each facial organ in the face image, so for The face image of the user to be identified in the uncoordinated application scenario, even if the face image of the user to be identified only extracts local facial features, after the face image of the user to be identified is identified through a preset face recognition model
  • the obtained facial feature matrix including multi-dimensional facial features can also accurately reflect the local characteristics of the face, thereby making the identity information of the user to be identified determined based on the facial feature matrix more accurate.
  • FIG. 1 is a schematic flowchart of a face recognition method according to an embodiment of the present application.
  • FIG. 2 is a schematic flowchart of another face recognition method according to an embodiment of the present application.
  • FIG. 3 is a schematic structural diagram of a face recognition apparatus according to an embodiment of the present application.
  • FIG. 4 is a schematic structural diagram of a face recognition terminal according to an embodiment of the present application.
  • the face recognition method, device, terminal and computer-readable storage medium provided in the present application are aimed at solving the above technical problems in the prior art.
  • An embodiment of the present application provides a method for face recognition. As shown in FIG. 1, the method includes:
  • Step S101 Obtain a face image of a user to be identified.
  • a face image is input to a preset face recognition model to obtain a face feature matrix corresponding to the face image.
  • the face feature matrix includes multi-dimensional face features.
  • the preset face recognition model is trained based on a large number of face images and corresponding face feature matrices, and is used to identify the face feature matrices corresponding to the face images.
  • Step S103 Determine the identity information corresponding to the face feature matrix of the user to be identified according to the correspondence between the face feature matrix and the identity information.
  • the identity information is identity information that can indicate the user to be identified, and different facial feature matrices correspond to different identity information.
  • the solution in the embodiment of the present application obtains a face image of a user to be identified; the face image is input to a preset face recognition model to obtain a face feature matrix corresponding to the face image, and the face feature matrix includes Multi-dimensional face features; determine the identity information corresponding to the face feature matrix of the user to be identified based on the correspondence between the face feature matrix and the identity information; in the above solution, the multi-dimensional face features can effectively reflect people The features of each facial organ in the face image, so for the face image of the user to be identified in the uncoordinated application scenario, even if the face image of the user to be identified only extracts local facial features, the preset face recognition After the model recognizes the face image of the user to be identified, the face feature matrix including the multi-dimensional face features can also accurately reflect the local features of the face, so that the user's to be identified based on the face feature matrix is determined. Identity information is more accurate.
  • Embodiment 2 On the basis of Embodiment 1, the method shown in Embodiment 2 is further included, where:
  • the face image of the user to be identified is at least one face image collected by an image acquisition device in an uncoordinated application scenario, and may specifically be a face image captured by the image acquisition device or an image acquisition device A set of face images obtained by capturing in the captured video does not require the user to obtain a face image in cooperation with the image acquisition conditions, which improves the user experience.
  • the face recognition method in this embodiment is based on a 1: N mode face.
  • the identification method can identify the identity of the user to be identified.
  • step S102 inputting a face image into a preset face recognition model to obtain a face feature matrix corresponding to the face image includes:
  • the face recognition model based on the convolutional neural network was used to extract the multi-dimensional face features of the face image.
  • a facial feature matrix is generated.
  • the preset face recognition model is a model trained based on a multi-layer convolutional neural network. Since the convolutional neural network can extract features, a convolutional neural network model is selected for model training, eliminating the need to extract multiple dimensions The process of facial features improves computing efficiency.
  • the method for constructing a face recognition model based on a convolutional neural network includes steps S201, S202, S203, S204, S205, and S206, where:
  • Step S201 Perform feature labeling on the obtained multiple face images, and use the face images after each of the labeled features as sample data.
  • step S201 multiple face images are obtained, and each face image is feature-labeled according to the face features, and the labeled face features are formed into a face feature matrix, and each face image and corresponding face feature are The matrix is used as sample data, and each sample data can be used to generate a face database.
  • step S202 the number of face images labeled in each sample data is expanded to obtain a sample data set corresponding to each sample data.
  • step S202 the number of face images labeled in each sample data is expanded to obtain a sample data set corresponding to each sample data, including: the face images labeled in each sample data are translated, rotated, and mirrored.
  • the number of faces is expanded from the original one face image to multiple face images, and the face feature matrix labeled in each face image is also processed accordingly, that is, the The face feature matrix is processed for translation, rotation, and mirroring.
  • a plurality of face images obtained by expanding a face image in the sample data and the corresponding face feature matrix form a sample data set.
  • Each sample data The set corresponds to the face image of the same person.
  • the face image in each sample data set can reflect the characteristics of each facial organ in the face image from various aspects through the corresponding face feature matrix.
  • Step S203 randomly selecting face images belonging to the same sample data set as positive samples, and randomly selecting face images belonging to different sample data sets as negative samples.
  • Step S204 Determine training samples according to the positive samples and the negative samples.
  • the training samples include two positive samples and one negative sample, or two negative samples and one positive sample.
  • step S205 the training samples are input to a multi-layer convolutional neural network model for training, and three output results are obtained.
  • step S206 the three output results are compared through a preset ternary loss function. If the ternary loss function is less than a preset threshold, the training is completed to obtain a face recognition model, otherwise the training samples are re-input to the multi-layer convolutional neural network. The model is trained, and the weights of the multi-layer convolutional neural network model are adjusted by an inverse algorithm before retraining.
  • step S205 the training samples are input to a multi-layer convolutional neural network model for training, and three output results are obtained, including:
  • the first sample of two identical samples is input to a first-layer convolutional neural network for training, and a first output result is obtained.
  • a second sample of two identical samples is input to a second-layer convolutional neural network for training, and a second output result is obtained.
  • a sample different from two identical samples is input to a third-layer convolutional neural network for training, and a third output result is obtained.
  • the multi-layer convolutional neural network model may consist of at least three parallel convolutional neural networks connected to a ternary loss layer. If the number of layers of the multi-layer convolutional neural network is greater than three, the input of other layers of the convolutional neural network may be Zero or no input.
  • the purpose of the preset ternary loss function in step S206 is to make the distance between the same sample features as small as possible, the distance between two different sample features as large as possible, and to make the two distances have a minimum interval. To improve the accuracy of the face recognition model.
  • the three output results include a first output result, a second output result, and a third output result.
  • the first output result, the second output result, and the third output result are all face feature matrices.
  • step S206 the three output results are compared through a preset ternary loss function. If the ternary loss function is less than a preset threshold, the training is ended to obtain a face recognition model, including:
  • the first distance and the second distance are compared through a preset ternary loss function. If the ternary loss function is less than a preset threshold, the training is ended to obtain a face recognition model.
  • the first output result and the second output result may be output results corresponding to two identical samples, and the third output result may be an output result corresponding to two samples different from the same sample.
  • preset three The purpose of the meta loss function is to make the first distance between the same sample features as small as possible, and the second distance between two different sample features as large as possible, and to make the first distance and the second distance have a minimum interval, so that Improve the accuracy of face recognition models.
  • the first distance and the second distance are compared through a preset ternary loss function. If the ternary loss function is less than a preset threshold, the training is ended to obtain a face recognition model, including:
  • An interval value of the first distance and the second distance is determined according to a preset variable parameter in a preset ternary loss function.
  • the interval value between the first distance and the second distance is a difference between the first distance and the second distance based on a preset variable parameter.
  • the interval value is adjusted by adjusting the preset variable parameters in the preset ternary loss function.
  • the training is ended to obtain a face recognition module.
  • the ternary loss function is smaller than the preset threshold, and the loss of the ternary loss function is the smallest.
  • the purpose of the ternary loss function is to make the first distance between the same sample features as small as possible, the second distance between two different sample features as large as possible, and to make the first and second distances have a minimum interval Assume with Is the feature expression corresponding to two identical samples, The feature expression corresponding to two different samples of the same sample is expressed by the formula:
  • is a preset variable parameter of the second distance
  • the adjustment range of ⁇ is 0.8-1.2. + Means that when the value in [] is greater than zero, the value is taken as a loss, and when it is not greater than zero, the loss is zero.
  • the preset variable parameter ⁇ the interval value between the first distance and the second distance is determined as:
  • the variable parameter ⁇ By adjusting the variable parameter ⁇ , the sum of the interval value and the interval threshold is not greater than zero, even if the value in [] is not greater than zero, so that the first distance is as small as possible and the second distance is as large as possible. The interval between the two distances is as small as possible.
  • the loss of the ternary loss function When the value in [] is not greater than zero, the loss of the ternary loss function is zero. Therefore, by adjusting the variable parameters, the loss of the ternary loss function can be minimized, that is, the loss is reduced. The loss of the function further improves the accuracy of the face recognition model.
  • may also be set as a variable parameter of the first distance, and by adjusting the variable parameter, the value in [] may not be greater than zero.
  • inputting a first sample of two identical samples to a first-layer convolutional neural network for training to obtain a first output result includes:
  • the first output result is compared with the pre-labeled first expected result through the loss function in the convolutional neural network model. If the loss function is less than a preset threshold, the training of the first sample ends; otherwise, the first sample is re-input Go to the first layer of the convolutional neural network for training. Before the retraining, adjust the weights of the first layer of the convolutional neural network through the inverse algorithm.
  • determining the identity information corresponding to the face feature matrix of the user to be identified according to the correspondence between the face feature matrix and the identity information includes:
  • the face feature matrix is matched with a plurality of face feature matrices in a preset database to obtain a matched face feature matrix.
  • the identity information corresponding to the matched face feature matrix is determined.
  • the preset database is a face database.
  • the face database stores a face image and a corresponding face feature matrix, and each face feature matrix corresponds to an identity information; and multiple face feature matrices in the database are a multi-dimensional Face feature matrix. For example, if the dimensions of a face feature matrix are 512, the face feature matrix in the database is a N * 512-dimensional face feature matrix, where N is the number of face images.
  • the feature matrix of all faces is expressed in the form of a feature matrix, which can fully reflect the person's facial features and improve the accuracy of face recognition.
  • a unique encoding can be set for each identity information Form, so that each identity information forms a mapping relationship with its corresponding face feature matrix.
  • the corresponding code can be matched according to the mapping relationship, and then the identity corresponding to the face feature matrix is obtained based on the code.
  • Information where identity information is information that can indicate the identity of the user, such as ID number, name, etc.
  • matching the face feature matrix with a plurality of face feature matrices in a preset database to obtain a matched face feature matrix includes:
  • the similarity calculation is performed on the face feature matrix with a plurality of face feature matrices in a preset database, and the face feature matrix with the highest similarity value is used as the matched face feature matrix.
  • the calculation of the similarity between face feature matrices is not limited to a specific implementation method.
  • the cosine similarity calculation method the more similar two face feature matrices are, the smaller the corresponding angle is.
  • the method further includes:
  • Step S104 Determine user behavior information corresponding to the identity information according to the identity information.
  • Step S104 includes: determining user behavior information corresponding to the identity information according to a preset correspondence between the user behavior information and the corresponding identity information.
  • the user behavior information and corresponding identity information can be stored in a database in the form of a corresponding relationship. After the identity information is known, the user corresponding to the identity information can be determined in the database according to the correspondence between the user behavior information and the corresponding identity information. Behavioral information.
  • Step S105 Generate product recommendation information corresponding to user behavior information.
  • the user's behavior information includes the user's historical consumption behavior information and the user's basic information;
  • the user's historical consumption behavior information includes the user's purchased product information, the corresponding consumption amount information, the corresponding consumption time, the consumption location and other information;
  • the user's basic The information includes the user's age, user's gender, user's consumption level and other information; based on the user's basic information and user's historical consumption behavior information to determine the user's consumption habits, purchase preferences, etc., based on the user's purchase preferences and consumption habits, The user recommends a suitable product and a corresponding place of purchase. Therefore, the identity information determined based on face recognition can promote the promotion of the product.
  • the face recognition device 30 may include a face image acquisition module 301, a face feature matrix recognition module 302, and an identity information confirmation module 303. ,among them,
  • a facial image acquisition module 301 is configured to acquire a facial image of a user to be identified.
  • the face feature matrix recognition module 302 is configured to input a face image into a preset face recognition model to obtain a face feature matrix corresponding to the face image.
  • the face feature matrix includes multi-dimensional face features.
  • the identity information confirmation module 303 is configured to determine identity information corresponding to the face feature matrix of the user to be identified according to the correspondence between the face feature matrix and the identity information.
  • the solution in the embodiment of the present application obtains a face image of a user to be identified; the face image is input to a preset face recognition model to obtain a face feature matrix corresponding to the face image, and the face feature matrix includes Multi-dimensional face features; determine the identity information corresponding to the face feature matrix of the user to be identified based on the correspondence between the face feature matrix and the identity information; in the above solution, the multi-dimensional face features can effectively reflect people The features of each facial organ in the face image, so for the face image of the user to be identified in the uncoordinated application scenario, even if the face image of the user to be identified only extracts local facial features, the preset face recognition After the model recognizes the face image of the user to be identified, the face feature matrix including the multi-dimensional face features can also accurately reflect the local features of the face, so that the user's to be identified based on the face feature matrix is determined. Identity information is more accurate.
  • the embodiment of the present application provides another possible implementation manner.
  • the solution shown in the fourth embodiment is further included.
  • the face image of the user to be identified is at least one face image collected by an image acquisition device in an uncoordinated application scenario, and may specifically be a face image captured by the image acquisition device or an image acquisition device A set of face images obtained by capturing in the captured video does not require the user to obtain a face image in cooperation with the image acquisition conditions, which improves the user experience.
  • the face recognition method in this embodiment is based on a 1: N mode face.
  • the identification method can identify the identity of the user to be identified.
  • the facial feature matrix recognition module 302 is configured to:
  • the face recognition model based on the convolutional neural network was used to extract the multi-dimensional face features of the face image.
  • a facial feature matrix is generated.
  • the preset face recognition model is a model trained based on a multi-layer convolutional neural network. Since the convolutional neural network can extract features, a convolutional neural network model is selected for model training, eliminating the need to extract multiple dimensions. The process of facial features improves computing efficiency.
  • the face recognition model in the face feature matrix recognition module 302 passes the sample data generation unit 3021, the sample data set generation unit 3022, the positive and negative sample determination unit 3023, the training sample determination unit 3024, and the training sample training unit 3025, and The face recognition model generation unit 3026 is obtained by training, where:
  • the sample data generating unit 3021 is configured to perform feature labeling on the obtained multiple face images, and use the face images after each labeled feature as sample data.
  • the sample data generating unit 3021 obtains multiple face images, performs feature labeling on each face image according to the facial features, and forms the labeled face features into a face feature matrix.
  • the face images and corresponding The face feature matrix is used as sample data, and each sample data can be used to generate a face database.
  • the sample data set generating unit 3022 is configured to expand the number of labeled face images in each sample data to obtain a sample data set corresponding to each sample data.
  • the sample data set generating unit 3022 is configured to expand the number of face images labeled in each sample data by translation, rotation, and mirroring, from the original face image to multiple face images, and The corresponding facial feature matrix in each face image is also processed correspondingly, that is, the facial feature matrix in each face image is translated, rotated and mirrored, and one person in the sample data is processed.
  • the multiple face images and corresponding face feature matrices obtained after the number of face images are expanded form a sample data set.
  • Each sample data set corresponds to the face image of the same person.
  • the face image in each sample data set passes
  • the corresponding facial feature matrix can reflect the characteristics of each facial organ in the face image from various aspects.
  • the positive and negative sample determination unit 3023 is configured to randomly select face images belonging to the same sample data set as positive samples, and randomly select face images belonging to different sample data sets as negative samples.
  • the training sample determination unit 3024 is configured to determine the training samples according to the positive samples and the negative samples.
  • the training samples include two positive samples and one negative sample, or two negative samples and one positive sample.
  • the training sample training unit 3025 is configured to input training samples into a multi-layer convolutional neural network model for training, and obtain three output results.
  • a face recognition model generating unit 3026 is configured to compare the three output results through a preset ternary loss function. If the ternary loss function is less than a preset threshold, the training ends to obtain a face recognition model, otherwise the training samples are re- Input to the multi-layer convolutional neural network model for training. Before the retraining, the weights of the multi-layer convolutional neural network model are adjusted through an inverse algorithm.
  • the training sample training unit 3025 is used to:
  • the first sample of two identical samples is input to a first-layer convolutional neural network for training, and a first output result is obtained.
  • a second sample of two identical samples is input to a second-layer convolutional neural network for training, and a second output result is obtained.
  • a sample different from two identical samples is input to a third-layer convolutional neural network for training, and a third output result is obtained.
  • the multi-layer convolutional neural network model may consist of at least three parallel convolutional neural networks connected to a ternary loss layer. If the number of layers of the multi-layer convolutional neural network is greater than three, the input of other layers of the convolutional neural network may be Zero or no input.
  • the purpose of the preset ternary loss function is to make the distance between the same sample features as small as possible, the distance between two different sample features as large as possible, and make the two The distance has a minimum interval to improve the accuracy of the face recognition model.
  • the three output results include a first output result, a second output result, and a third output result.
  • the first output result, the second output result, and the third output result are all face feature matrices.
  • the three output results are compared by using a preset ternary loss function. If the ternary loss function is less than a preset threshold, the training is ended to obtain a face recognition model, including:
  • the first distance and the second distance are compared through a preset ternary loss function. If the ternary loss function is less than a preset threshold, the training is ended to obtain a face recognition model.
  • the first output result and the second output result may be output results corresponding to two identical samples, and the third output result may be an output result corresponding to two samples different from the same sample.
  • preset three The purpose of the meta loss function is to make the first distance between the same sample features as small as possible, and the second distance between two different sample features as large as possible, and to make the first distance and the second distance have a minimum interval, so that Improve the accuracy of face recognition models.
  • the first distance and the second distance are compared through a preset ternary loss function. If the ternary loss function is less than a preset threshold, the training is ended to obtain a face recognition model, including:
  • An interval value of the first distance and the second distance is determined according to a preset variable parameter in a preset ternary loss function.
  • the interval value between the first distance and the second distance is a difference between the first distance and the second distance based on a preset variable parameter.
  • the interval value is adjusted by adjusting the preset variable parameters in the preset ternary loss function.
  • the training is ended to obtain a face recognition module.
  • the ternary loss function is smaller than the preset threshold, and the loss of the ternary loss function is the smallest.
  • the purpose of the ternary loss function is to make the first distance between the same sample features as small as possible, the second distance between two different sample features as large as possible, and to make the first and second distances have a minimum interval Assume with Is the feature expression corresponding to two identical samples, The feature expression corresponding to two different samples of the same sample is expressed by the formula:
  • is a variable parameter of the second distance
  • the adjustment range of ⁇ is 0.8-1.2. + Means that when the value in [] is greater than zero, the value is taken as a loss, and when it is not greater than zero, the loss is zero.
  • the variable parameter ⁇ By adjusting the variable parameter ⁇ , the sum of the interval value and the interval threshold is not greater than zero, even if the value in [] is not greater than zero, so that the first distance is as small as possible and the second distance is as large as possible. The interval between two distances is as small as possible.
  • the loss of the ternary loss function is zero. Therefore, by adjusting the variable parameters, the loss of the ternary loss function can be minimized, that is, the loss is reduced The loss of the function further improves the accuracy of the face recognition model.
  • may also be set as a variable parameter of the first distance, and by adjusting the variable parameter, the value in [] may not be greater than zero.
  • inputting a first sample of two identical samples to a first-layer convolutional neural network for training to obtain a first output result includes:
  • the first output result is compared with the pre-labeled first expected result through the loss function in the convolutional neural network model. If the loss function is less than a preset threshold, the training of the first sample ends; otherwise, the first sample is re-input Go to the first layer of the convolutional neural network for training. Before the retraining, adjust the weights of the first layer of the convolutional neural network through the inverse algorithm.
  • the identity information confirmation module 303 is configured to:
  • the face feature matrix is matched with a plurality of face feature matrices in a preset database to obtain a matched face feature matrix.
  • the identity information corresponding to the matched face feature matrix is determined.
  • the preset database is a face database.
  • the face database stores a face image and a corresponding face feature matrix, and each face feature matrix corresponds to an identity information; and multiple face feature matrices in the database are a multi-dimensional Face feature matrix. For example, if the dimensions of a face feature matrix are 512, the face feature matrix in the database is a N * 512-dimensional face feature matrix, where N is the number of face images.
  • the feature matrix of all faces is expressed in the form of a feature matrix, which can fully reflect the person's facial features and improve the accuracy of face recognition.
  • a unique encoding can be set for each identity information Form, so that each identity information forms a mapping relationship with its corresponding face feature matrix.
  • the corresponding code can be matched according to the mapping relationship, and then the identity corresponding to the face feature matrix is obtained based on the code.
  • Information where identity information is information that can indicate the identity of the user, such as ID number, name, etc.
  • matching the face feature matrix with a plurality of face feature matrices in a preset database to obtain a matched face feature matrix includes:
  • the similarity calculation is performed on the face feature matrix with a plurality of face feature matrices in a preset database, and the face feature matrix with the highest similarity value is used as the matched face feature matrix.
  • the calculation of the similarity between face feature matrices is not limited to a specific implementation method.
  • the cosine similarity calculation method the more similar two face feature matrices are, the smaller the corresponding angle is.
  • the method further includes a user behavior information determination module 304 and a product recommendation information generation module 305, where:
  • the user behavior information determining module 304 is configured to determine user behavior information corresponding to the identity information according to the identity information.
  • the user behavior information determination module 304 is configured to determine user behavior information corresponding to the identity information according to a preset correspondence between the user behavior information and the corresponding identity information.
  • the user behavior information and corresponding identity information can be stored in a database in the form of a corresponding relationship. After the identity information is known, the user corresponding to the identity information can be determined in the database according to the correspondence between the user behavior information and the corresponding identity information. Behavioral information.
  • the product recommendation information generating module 305 is configured to generate product recommendation information corresponding to user behavior information.
  • the user's behavior information includes the user's historical consumption behavior information and the user's basic information;
  • the user's historical consumption behavior information includes the user's purchased product information, the corresponding consumption amount information, the corresponding consumption time, the consumption location and other information;
  • the user's basic The information includes the user's age, user's gender, user's consumption level and other information; based on the user's basic information and user's historical consumption behavior information to determine the user's consumption habits, purchase preferences, etc., based on the user's purchase preferences and consumption habits
  • the user recommends a suitable product and a corresponding place of purchase. Therefore, the identity information determined based on face recognition can promote the promotion of the product.
  • the face recognition device in this embodiment may execute a face recognition method provided in Embodiment 2 of the present application, and the implementation principles thereof are similar, and details are not described herein again.
  • the terminal 40 shown in FIG. 4 includes a processor 401 and a memory 403.
  • the processor 401 and the memory 403 are connected, for example, through a bus 402.
  • the terminal 40 may further include a transceiver 404.
  • the transceiver 404 is not limited to one, and the structure of the terminal 40 does not limit the embodiment of the present application.
  • the processor 401 is applied in the embodiment of the present application, and is configured to implement functions of the face image acquisition module 301, the face feature matrix recognition module 302, and the identity information confirmation module 303 shown in FIG. 3.
  • the transceiver 404 includes a receiver and a transmitter.
  • the processor 401 may be a CPU, a general-purpose processor, a DSP, an ASIC, an FPGA, or other programmable logic devices, transistor logic devices, hardware components, or any combination thereof. It may implement or execute various exemplary logical blocks, modules, and circuits described in connection with the present disclosure.
  • the processor 401 may also be a combination that realizes a computing function, for example, a combination including one or more microprocessors, a combination of a DSP and a microprocessor, and the like.
  • the bus 402 may include a path for transmitting information between the aforementioned components.
  • the bus 402 may be a PCI bus, an EISA bus, or the like.
  • the bus 402 can be divided into an address bus, a data bus, a control bus, and the like. For ease of representation, only a thick line is used in FIG. 4, but it does not mean that there is only one bus or one type of bus.
  • the memory 403 may be a ROM or other type of static storage device that can store static information and instructions, a RAM or other type of dynamic storage device that can store information and instructions, or an EEPROM, CD-ROM or other optical disk storage, or optical disk storage (Including compact discs, laser discs, optical discs, digital versatile discs, Blu-ray discs, etc.), magnetic disk storage media or other magnetic storage devices, or can be used to carry or store desired program code in the form of instructions or data structures and can be used by a computer Any other media accessed, but not limited to this.
  • the memory 403 is configured to store application program code that executes the solution of the present application, and is controlled and executed by the processor 401.
  • the processor 401 is configured to execute application program code stored in the memory 403 to implement actions of the face recognition apparatus provided by the embodiment shown in FIG. 3.
  • a face recognition terminal 40 provided by the embodiment of the present application has the following advantages compared with the prior art: obtaining a face image of a user to be recognized; inputting the face image into a preset face recognition model, A face feature matrix corresponding to a face image is obtained, and the face feature matrix includes multi-dimensional face features; according to the correspondence between the face feature matrix and the identity information, identity information corresponding to the face feature matrix of the user to be identified is determined;
  • the multi-dimensional face features can effectively reflect the features of each facial organ in the face image, for the face image of the user to be identified in the uncoordinated application scenario, even the face image of the user to be identified Only the local face features are extracted.
  • the obtained face feature matrix including multi-dimensional face features can also accurately reflect the face's
  • the local characteristics further make the identity information of the user to be identified based on the facial feature matrix more accurate.
  • a face recognition terminal provided in the embodiment of the present application is applicable to the device embodiment in the fourth embodiment, and has the same inventive concept and the same beneficial effects as the fourth embodiment of the device, and details are not described herein again.
  • An embodiment of the present application provides a computer-readable storage medium.
  • the storage medium stores at least one instruction, at least one program, code set, or instruction set, and at least one instruction, at least one program, code set, or instruction set is loaded by a processor. And execute to implement the method shown in the first embodiment.
  • the embodiment of the present application provides a computer-readable storage medium.
  • this solution has the following advantages: obtaining a face image of a user to be identified; inputting the face image into a preset face recognition model, A face feature matrix corresponding to a face image is obtained, and the face feature matrix includes multi-dimensional face features; according to the correspondence between the face feature matrix and the identity information, identity information corresponding to the face feature matrix of the user to be identified is determined;
  • the multi-dimensional face features can effectively reflect the features of each facial organ in the face image, for the face image of the user to be identified in the uncoordinated application scenario, even the face image of the user to be identified Only the local face features are extracted.
  • the obtained face feature matrix including multi-dimensional face features can also accurately reflect the face's
  • the local characteristics further make the identity information of the user to be identified based on the facial feature matrix more accurate.
  • An embodiment of the present application provides a computer-readable storage medium.
  • the storage medium stores at least one instruction, at least one program, code set, or instruction set, and at least one instruction, at least one program, code set, or instruction set is loaded by a processor. And execute to implement the method shown in the second embodiment. I will not repeat them here.
  • steps in the flowchart of the drawings are sequentially displayed in accordance with the directions of the arrows, these steps are not necessarily performed in the order indicated by the arrows. Unless explicitly stated herein, the execution of these steps is not strictly limited, and they can be performed in other orders. Moreover, at least a part of the steps in the flowchart of the drawing may include multiple sub-steps or multiple stages. These sub-steps or stages are not necessarily performed at the same time, but may be performed at different times. The execution order is also It is not necessarily performed sequentially, but may be performed in turn or alternately with other steps or at least a part of the sub-steps or stages of other steps.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本申请涉及人脸识别技术领域,揭示了一种人脸识别的方法、装置、终端及计算机可读存储介质,该方法为:获取待识别用户的人脸图像;将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵;依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息。本申请方案,由于多维度的人脸特征可有效反映出人脸图像中各面部器官的特征,因此对于无配合的应用场景下的待识别用户的人脸图像,即使待识别用户的人脸图像只提取到局部人脸特征,在通过人脸识别模型对待识别用户的人脸图像进行识别后,也可准确反应出人脸的局部特点,使基于人脸特征矩阵确定的待识别用户的身份信息更准确。

Description

人脸识别的方法、装置、终端及计算机可读存储介质
本申请要求于2018年8月20日提交中国专利局、申请号为201810948055.3,发明名称为“人脸识别的方法、装置、终端及计算机可读存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及人脸识别技术领域,具体而言,本申请涉及一种人脸识别的方法、装置、终端及计算机可读存储介质。
背景技术
现有技术中,主要是基于人面部各个部位的二维几何特征进行人脸识别,即通过摄像头采集人脸图像,对采集到的人脸图像进行人脸检测、人脸定位和特征提取;然后,通过提取到的二维特征与预存特征库中的特征进行对比,实现人脸识别。
基于上述现有技术中的人脸识别方法,需要对采集的人脸图像有一定的要求,即需要被识别对象在特定位置保持特定姿势,再通过图像采集设备采集人脸图像,以保证采集到人脸图像中的大部分面部器官,进而可从人脸图像中提取到足够多有效的面部特征,对人脸图像进行准确的人脸识别;但是,在无配合的应用场景下,即在自然流动的人群,被识别对象无法配合图像采集设备采集人脸图像的情况下,采集的人脸图像中可能因眼镜、口罩、侧脸、低头、帽子等干扰因素使人脸图像中只包括局部面部器官,进而基于现有技术中的人脸识别方法,只能提取人脸图像中有限的二维面部特征,由于局部面部器官的二维面部特征很难准确反应出人脸的特点,因此,基于有限的二维面部特征进行人脸识别,得到的识别结果准确性低,即基于二维面部特征无法准确识别被识别对象的身份。
因此,发明人意识到现有技术中的缺陷是:在无配合的应用场景下,基于现有的人脸的二维几何特征无法准确识别被识别对象的身份。
发明内容
本申请的目的旨在至少能解决上述的技术缺陷之一,特别是在无配合的应用场景下,基于现有的人脸的二维几何特征无法准确识别被识别对象身份的技术缺陷。
第一方面,本申请提供了一种人脸识别的方法,该方法包括:
获取待识别用户的人脸图像;
将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,人脸特征矩阵包括多维度的人脸特征;
依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息。
第二方面,本申请提供了一种人脸识别的装置,该装置包括:
人脸图像获取模块,用于获取待识别用户的人脸图像;
人脸特征矩阵识别模块,用于将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,人脸特征矩阵包括多维度的人脸特征;
身份信息确认模块,用于依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息。
第三方面,本申请提供了一种人脸识别的终端,该终端包括:处理器、存储器和总线;总线,用于连接处理器和存储器;存储器,用于存储操作指令;处理器,用于通过调用操作指令,执行如本申请的第一方面所示的方法对应的操作。
第四方面,本申请提供了一种计算机可读存储介质,存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如本申请的第一方面所示的方法。
获取待识别用户的人脸图像;将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,人脸特征矩阵包括多维度的人脸特征;依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息;以上方案中,由于多维度的人脸特征可有效反映出人脸图像中各面部器官的特征,因此对于无配合的应用场景下的待识别用户的人脸图像,即使待识别用户的人脸图像只提取到局部人脸特征,在通过预设的人脸识别模型对待识别用户的人脸图像进行识别后,得到的包括多维度的人脸特征的人脸特征矩阵也可准确反应出人脸的局部特点,进而使基于人脸特征矩阵确定的待识别用户的身份信息更准确。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的一种人脸识别的方法的流程示意图;
图2为本申请实施例提供的另一种人脸识别的方法的流程示意图;
图3为本申请实施例提供的一种人脸识别的装置的结构示意图;
图4为本申请实施例提供的一种人脸识别的终端的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请提供的人脸识别的方法、装置、终端和计算机可读存储介质,旨在解决现有技术的如上技术问题。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
实施例一
本申请实施例提供了一种人脸识别的方法,如图1所示,该方法包括:
步骤S101,获取待识别用户的人脸图像。
步骤S102,将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,人脸特征矩阵包括多维度的人脸特征。
其中,预设的人脸识别模型是基于大量人脸图像和对应的人脸特征矩阵训练得到的,用于识别人脸图像对应的人脸特征矩阵。
步骤S103,依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息。
其中,身份信息为可表明待识别用户的身份信息,且不同的人脸特征矩阵对应不同的身份信息。
由此,本申请实施例中的方案,获取待识别用户的人脸图像;将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,人脸特征矩阵包括多维度的人脸特征;依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息;以上方案中,由于多维度的人脸特征可有效反映出人脸图像中各面部器官的特征,因此对于无配合的应用场景下的待识别用户的人脸图像,即使待识别用户的人脸图像只提取到局部人脸特征,在通过预设的人脸识别模型对待识别用户的人脸图像进行识别后,得到的包括多维度的人脸特征的人脸特征矩阵也可准确反应出人脸的局部特点,进而使基于人脸特征矩阵确定的待识别用户的身份信息更准确。
实施例二
本申请实施例提供了另一种可能的实现方式,在实施例一的基础上,还包括实施例二所示的方法,其中,
进一步地,待识别用户的人脸图像为在无配合应用场景下,通过图像采集设备采集的至少一张人脸图像,具体可为通过图像采集设备拍取的人脸图像或通过对图像采集设备拍摄的视频中进行截取获得的一组人脸图像,不需要用户配合图像采集条件获取人脸图像,提高用户体验度,且本实施例中的人脸识别方法是基于1:N模式的人脸识别方法,可识别出待识别用户的身份。
进一步地,步骤S102,将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,包括:
通过基于卷积神经网络构建的人脸识别模型,提取人脸图像的多维度的人脸特征。
依据多维度的人脸特征,生成人脸特征矩阵。
其中,预设的人脸识别模型是基于多层卷积神经网络训练得到的模型,由于卷积神经网络可进行特征的提取,因此,选用卷积神经网络模型进行模型训练,省去提取多维度的人脸特征的过程,提高运算效率。
进一步地,如图2所示,基于卷积神经网络构建人脸识别模型的方法,包括步骤S201,步骤S202,步骤S203,步骤S204,步骤S205和步骤S206,其中,
步骤S201,对获取到的多个人脸图像进行特征标注,将各个标注特征后的人脸图像作为样本数据。
其中,步骤S201中,获取多个人脸图像,依据人脸特征对各个人脸图像进行特征标注,并将标注后的人脸特征形成人脸特征矩阵,将各个人脸图像及对应的人脸特征矩阵作为样本数据,并可将各个样本数据生成人脸数据库。
步骤S202,对各个样本数据中标注后的人脸图像进行数量扩充,得到各个样本数据对应的样本数据集。
其中,步骤S202,对各个样本数据中标注后的人脸图像进行数量扩充,得到各个样本数据对应的样本数据集,包括:对各个样本数据中标注后的人脸图像通过平移、旋转和镜像方式进行数量扩充,由原来的一张人脸图像扩充到多张人脸图像,同时对应将每张人脸图像中标注的人脸特征矩阵也进行相应的处理,即对每张人脸 图像中的人脸特征矩阵进行平移、旋转和镜像的处理,将样本数据中的一张人脸图像经过数量扩充后得到的多个脸图像及对应的人脸特征矩阵形成一个样本数据集,每个样本数据集中对应的是同一个人的人脸图像,每个样本数据集中的人脸图像通过各自对应的人脸特征矩阵,可从各个方面反映人脸图像中各面部器官的特点。
步骤S203,随机选取属于同一样本数据集的人脸图像作为正样本,随机选取属于不同样本数据集的人脸图像作为负样本。
步骤S204,依据正样本和负样本,确定训练样本,训练样本中包括两个正样本和一个负样本,或两个负样本和一个正样本。
步骤S205,将训练样本输入至多层卷积神经网络模型进行训练,得到三个输出结果。
步骤S206,通过预设的三元损失函数对三个输出结果进行比较,若三元损失函数小于预设阈值,训练结束,得到人脸识别模型,否则将训练样本重新输入至多层卷积神经网络模型进行训练,在重新训练之前通过反向算法,对多层卷积神经网络模型的各个权重进行调节。
其中,步骤S205,将训练样本输入至多层卷积神经网络模型进行训练,得到三个输出结果,包括:
将两个相同样本中的第一样本输入至第一层卷积神经网络进行训练,得到第一输出结果。
将两个相同样本中的第二样本输入至第二层卷积神经网络进行训练,得到第二输出结果。
将与两个相同样本不同的样本输入至第三层卷积神经网络进行训练,得到第三输出结果。
其中,多层卷积神经网络模型可由至少三层并行的卷积神经网络连接一个三元损失层组成,如果多层卷积神经网络的层数大于3层,其他层卷积神经网络的输入可为零或无输入。
其中,步骤S206中,预设的三元损失函数的目的是使相同样本特征之间的距离尽可能小,两个不同样本特征之间的距离尽可能大,并使两个距离有一个最小间隔,以提高人脸识别模型的精度。
进一步地,三个输出结果包括第一输出结果,第二输出结果和第三输出结果。
其中,第一输出结果,第二输出结果和第三输出结果均为人脸特征矩阵。
步骤S206中,通过预设的三元损失函数对三个输出结果进行比较,若三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
确定第一输出结果与第二输出结果的之间的第一距离,及第一输出结果与第三输出结果之间的第二距离;
通过预设三元损失函数对第一距离和第二距离进行比较,若三元损失函数小于预设阈值,训练结束,得到人脸识别模型。
其中,可以第一输出结果和第二输出结果分别为两个相同样本对应的输出结果,第三输出结果为与两个相同样本不同的样本对应的输出结果为例,进行具体说明,预设三元损失函数的目的是使相同样本特征之间的第一距离尽可能小,两个不同样本特征之间的第二距离尽可能大,并使第一距离和第二距离有一个最小间隔,以提高人脸识别模型的精度。
更进一步地,通过预设的三元损失函数对第一距离和第二距离进行比较,若三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
依据预设的三元损失函数中的预设变量参数,确定第一距离和第二距离的间隔值。
其中,第一距离和第二距离的间隔值为基于预设变量参数,得到的第一距离与第二距离的差值。
调节预设变量参数,直至间隔值满足预设条件时,训练结束,得到人脸识别模型。
其中,通过调节预设的三元损失函数中的预设变量参数,调节间隔值;当间隔值与预设间隔阈值的和不大于零时,训练结束,得到人脸识别模,其中,当间隔值与预设间隔阈值的和不大于零时,三元损失函数小于预设阈值,且该三元损失函数的损失最小。
基于上述方案,进行具体举例说明:
三元损失函数的目的是使相同样本特征之间的第一距离尽可能小,两个不同样本特征之间的第二距离尽可能大,并使第一距离和第二距离有一个最小间隔,设
Figure PCTCN2019070357-appb-000001
Figure PCTCN2019070357-appb-000002
为两个相同样本对应的特征表达,
Figure PCTCN2019070357-appb-000003
为与两个相同样本不同的样本对应的特征表达,则通过公式表达为:
Figure PCTCN2019070357-appb-000004
其中,
Figure PCTCN2019070357-appb-000005
为第一输出结果,
Figure PCTCN2019070357-appb-000006
为第二输出结果,
Figure PCTCN2019070357-appb-000007
为第三输出结果,
Figure PCTCN2019070357-appb-000008
为第一距离,
Figure PCTCN2019070357-appb-000009
为第二距离,α为间隔阈值;
则对应的三元损失函数为:
Figure PCTCN2019070357-appb-000010
其中,β为第二距离的预设变量参数,且β的调整范围为0.8-1.2。+表示[]内的值大于零的时候,取该值为损失,不大于零的时候,损失为零。依据预设变量参数β,确定第一距离和第二距离的间隔值为:
Figure PCTCN2019070357-appb-000011
通过调节变量参数β,使间隔值与间隔阈值的和不大于零,即使[]内的值不大于零,以使得第一距离尽可能小,第二距离尽可能大,且第一距离和第二距离间的间隔尽可能小,当[]内的值不大于零时,三元损失函数的损失为零,由此,通过调节变量参数,可使三元损失函数的损失最小,即降低损失函数的损失,进一步提高人脸识别模型的精度。
其中,β也可设置为第一距离的变量参数,通过调节该变量参数,使得[]内的值不大于零即可。
进一步地,将两个相同样本中的第一样本输入至第一层卷积神经网络进行训练,得到第一输出结果,包括:
通过第一层卷积神经网络对第一样本中人脸图片提取人脸特征;
依据人脸特征,生成人脸特征矩阵;
依据人脸特征矩阵,确定第一样本属于各人脸特征矩阵的概率值;
将最高概率值的人脸特征矩阵作为第一输出结果;
通过卷积神经网络模型中损失函数对第一输出结果与预先标记的第一期望结 果进行比较,若损失函数小于预设阈值,第一样本的训练结束;否则,将第一样本重新输入到第一层卷积神经网络中进行训练,在重新训练之前通过反向算法,对第一层卷积神经网络的各个权重进行调节。
需要说明的是,通过卷积神经网络对第二样本和第三样本的训练过程与上述对第一样本的训练过程一致,在此不再赘述。
进一步地,步骤S103,依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息,包括:
将人脸特征矩阵与预设的数据库中的多个人脸特征矩阵进行匹配,得到匹配到的人脸特征矩阵。
依据人脸特征矩阵与身份信息的对应关系,确定与匹配到的人脸特征矩阵对应的身份信息。
其中,预设的数据库为人脸数据库,人脸数据库中存储人脸图像及与其对应的人脸特征矩阵,每个人脸特征矩阵对应一个身份信息;且数据库中的多个人脸特征矩阵为一个多维度的人脸特征矩阵,比如一个人脸特征矩阵的维度为512维,则数据库中的人脸特征矩阵为N*512维的人脸特征矩阵,其中,N为人脸图像的个数,将数据库中所有人脸特征矩阵以一个特征矩阵的形式表示,可通过该特征矩阵全面反映该人的面部特征,提高人脸识别精度;更进一步地,在数据库中,可通过为每个身份信息设置唯一编码的形式,使各个身份信息与其对应的人脸特征矩阵形成映射关系,则根据检测到的人脸特征矩阵,依据映射关系可匹配到对应的编码,进而依据编码,得到人脸特征矩阵对应的身份信息,其中,身份信息为可表明用户身份的信息,比如身份证号,姓名等。
更进一步地,将人脸特征矩阵与预设的数据库中的多个人脸特征矩阵进行匹配,得到匹配到的人脸特征矩阵,包括:
将人脸特征矩阵分别与预设的数据库中的多个人脸特征矩阵进行相似度计算,将相似度值最大的人脸特征矩阵作为匹配到的人脸特征矩阵。
其中,人脸特征矩阵间的相似度计算不限定具体的实现方式,例如,余弦相似度计算方法,两个人脸特征矩阵越相似,其对应的夹角越小,通过计算两个人脸特征矩阵相似度的方式,可快速准确地在数据库中匹配到最相似的人脸特征矩阵。
进一步地,该方法还包括:
步骤S104,依据身份信息,确定身份信息对应的用户行为信息。
其中,步骤S104,包括:依据预设的用户行为信息与对应身份信息的对应关系,确定身份信息对应的用户行为信息。
其中,用户行为信息与对应身份信息可以对应关系的形式存储在数据库中,在已知身份信息后,可在数据库中依据用户行为信息与对应身份信息的对应关系,确定得到该身份信息对应的用户行为信息。
步骤S105,生成对应用户行为信息的产品推荐信息。
其中,用户的行为信息包括用户历史消费行为信息及用户的基本信息;用户的历史消费行为信息包括用户购买的产品信息,对应的消费金额信息,对应的消费时间,消费地点等信息;用户的基本信息包括用户的年龄,用户的性别,用户的消费水平等信息;基于用户的基本信息及用户历史消费行为信息确定该用户的消费习惯,购买偏好等,则可基于用户的购买偏好及消费习惯向该用户推荐合适的产品及对应 的购买地点,因此,基于人脸识别确定的身份信息,可促进产品的推广。
实施例三
本申请实施例提供了一种人脸识别的装置30,如图3所示,该人脸识别装置30可以包括:人脸图像获取模块301、人脸特征矩阵识别模块302以及身份信息确认模块303,其中,
人脸图像获取模块301,用于获取待识别用户的人脸图像。
人脸特征矩阵识别模块302,用于将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,人脸特征矩阵包括多维度的人脸特征。
身份信息确认模块303,用于依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息。
由此,本申请实施例中的方案,获取待识别用户的人脸图像;将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,人脸特征矩阵包括多维度的人脸特征;依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息;以上方案中,由于多维度的人脸特征可有效反映出人脸图像中各面部器官的特征,因此对于无配合的应用场景下的待识别用户的人脸图像,即使待识别用户的人脸图像只提取到局部人脸特征,在通过预设的人脸识别模型对待识别用户的人脸图像进行识别后,得到的包括多维度的人脸特征的人脸特征矩阵也可准确反应出人脸的局部特点,进而使基于人脸特征矩阵确定的待识别用户的身份信息更准确。
实施例四
本申请实施例提供了另一种可能的实现方式,在实施例三的基础上,还包括实施例四所示的方案,其中,
进一步地,待识别用户的人脸图像为在无配合应用场景下,通过图像采集设备采集的至少一张人脸图像,具体可为通过图像采集设备拍取的人脸图像或通过对图像采集设备拍摄的视频中进行截取获得的一组人脸图像,不需要用户配合图像采集条件获取人脸图像,提高用户体验度,且本实施例中的人脸识别方法是基于1:N模式的人脸识别方法,可识别出待识别用户的身份。
进一步地,人脸特征矩阵识别模块302,用于:
通过基于卷积神经网络构建的人脸识别模型,提取人脸图像的多维度的人脸特征。
依据多维度的人脸特征,生成人脸特征矩阵。
其中,预设的人脸识别模型是基于多层卷积神经网络训练得到的模型,由于卷积神经网络可进行特征的提取,因此,选用卷积神经网络模型进行模型训练,省去提取多维度的人脸特征的过程,提高运算效率。
进一步地,人脸特征矩阵识别模块302中的人脸识别模型通过样本数据生成单元3021,样本数据集生成单元3022,正负样本确定单元3023,训练样本确定单元3024,训练样本训练单元3025,及人脸识别模型生成单元3026训练得到,其中,
样本数据生成单元3021,用于对获取到的多个人脸图像进行特征标注,将各个标注特征后的人脸图像作为样本数据。
其中,样本数据生成单元3021中,获取多个人脸图像,依据人脸特征对各个人脸图像进行特征标注,并将标注后的人脸特征形成人脸特征矩阵,将各个人脸图像及对应的人脸特征矩阵作为样本数据,并可将各个样本数据生成人脸数据库。
样本数据集生成单元3022,用于对各个样本数据中标注后的人脸图像进行数量扩充,得到各个样本数据对应的样本数据集。
其中,样本数据集生成单元3022,用于对各个样本数据中标注后的人脸图像通过平移、旋转和镜像方式进行数量扩充,由原来的一张人脸图像扩充到多张人脸图像,同时对应将每张人脸图像中标注的人脸特征矩阵也进行相应的处理,即对每张人脸图像中的人脸特征矩阵进行平移、旋转和镜像的处理,将样本数据中的一张人脸图像经过数量扩充后得到的多个脸图像及对应的人脸特征矩阵形成一个样本数据集,每个样本数据集中对应的是同一个人的人脸图像,每个样本数据集中的人脸图像通过各自对应的人脸特征矩阵,可从各个方面反映人脸图像中各面部器官的特点。
正负样本确定单元3023,用于随机选取属于同一样本数据集的人脸图像作为正样本,随机选取属于不同样本数据集的人脸图像作为负样本。
训练样本确定单元3024,用于依据正样本和负样本,确定训练样本,训练样本中包括两个正样本和一个负样本,或两个负样本和一个正样本。
训练样本训练单元3025,用于将训练样本输入至多层卷积神经网络模型进行训练,得到三个输出结果。
人脸识别模型生成单元3026,用于通过预设的三元损失函数对三个输出结果进行比较,若三元损失函数小于预设阈值,训练结束,得到人脸识别模型,否则将训练样本重新输入至多层卷积神经网络模型进行训练,在重新训练之前通过反向算法,对多层卷积神经网络模型的各个权重进行调节。
其中,训练样本训练单元3025,用于:
将两个相同样本中的第一样本输入至第一层卷积神经网络进行训练,得到第一输出结果。
将两个相同样本中的第二样本输入至第二层卷积神经网络进行训练,得到第二输出结果。
将与两个相同样本不同的样本输入至第三层卷积神经网络进行训练,得到第三输出结果。
其中,多层卷积神经网络模型可由至少三层并行的卷积神经网络连接一个三元损失层组成,如果多层卷积神经网络的层数大于3层,其他层卷积神经网络的输入可为零或无输入。
其中,人脸识别模型生成单元3026中,预设的三元损失函数的目的是使相同样本特征之间的距离尽可能小,两个不同样本特征之间的距离尽可能大,并使两个距离有一个最小间隔,以提高人脸识别模型的精度。
进一步地,三个输出结果包括第一输出结果,第二输出结果和第三输出结果。
其中,第一输出结果,第二输出结果和第三输出结果均为人脸特征矩阵。
人脸识别模型生成单元3026中,通过预设的三元损失函数对三个输出结果进行比较,若三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
确定第一输出结果与第二输出结果的之间的第一距离,及第一输出结果与第三输出结果之间的第二距离;
通过预设三元损失函数对第一距离和第二距离进行比较,若三元损失函数小于预设阈值,训练结束,得到人脸识别模型。
其中,可以第一输出结果和第二输出结果分别为两个相同样本对应的输出结果,第三输出结果为与两个相同样本不同的样本对应的输出结果为例,进行具体说明,预设三元损失函数的目的是使相同样本特征之间的第一距离尽可能小,两个不同样本特征之间的第二距离尽可能大,并使第一距离和第二距离有一个最小间隔,以提高人脸识别模型的精度。
更进一步地,通过预设的三元损失函数对第一距离和第二距离进行比较,若三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
依据预设的三元损失函数中的预设变量参数,确定第一距离和第二距离的间隔值。
其中,第一距离和第二距离的间隔值为基于预设变量参数,得到的第一距离与第二距离的差值。
调节预设变量参数,直至间隔值满足预设条件时,训练结束,得到人脸识别模型。
其中,通过调节预设的三元损失函数中的预设变量参数,调节间隔值;当间隔值与预设间隔阈值的和不大于零时,训练结束,得到人脸识别模,其中,当间隔值与预设间隔阈值的和不大于零时,三元损失函数小于预设阈值,且该三元损失函数的损失最小。
基于上述方案,进行具体举例说明:
三元损失函数的目的是使相同样本特征之间的第一距离尽可能小,两个不同样本特征之间的第二距离尽可能大,并使第一距离和第二距离有一个最小间隔,设
Figure PCTCN2019070357-appb-000012
Figure PCTCN2019070357-appb-000013
为两个相同样本对应的特征表达,
Figure PCTCN2019070357-appb-000014
为与两个相同样本不同的样本对应的特征表达,则通过公式表达为:
Figure PCTCN2019070357-appb-000015
其中,
Figure PCTCN2019070357-appb-000016
为第一输出结果,
Figure PCTCN2019070357-appb-000017
为第二输出结果,
Figure PCTCN2019070357-appb-000018
为第三输出结果,
Figure PCTCN2019070357-appb-000019
为第一距离,
Figure PCTCN2019070357-appb-000020
为第二距离,α为间隔阈值;
则对应的三元损失函数为:
Figure PCTCN2019070357-appb-000021
其中,β为第二距离的变量参数,且β的调整范围为0.8-1.2。+表示[]内的值大于零的时候,取该值为损失,不大于零的时候,损失为零。依据预设变量参数β,确定第一距离和第二距离的间隔值为
Figure PCTCN2019070357-appb-000022
通过调节变量参数β,使间隔值与间隔阈值的和不大于零,即使[]内的值不大于零,以使得第一距离尽可能小,第二距离尽可能大,且第一距离和第二距离间的间隔尽可能小,当[]内的值不大于零时,三元损失函数的损失为零,由此,通过调节变量参数,可使三元损失函数的损失最小,即降低损失函数的损失,进一步提高人脸识别模型的精度。
其中,β也可设置为第一距离的变量参数,通过调节该变量参数,使得[]内的值不大于零即可。
进一步地,将两个相同样本中的第一样本输入至第一层卷积神经网络进行训练,得到第一输出结果,包括:
通过第一层卷积神经网络对第一样本中人脸图片提取人脸特征;
依据人脸特征,生成人脸特征矩阵;
依据人脸特征矩阵,确定第一样本属于各人脸特征矩阵的概率值;
将最高概率值的人脸特征矩阵作为第一输出结果;
通过卷积神经网络模型中损失函数对第一输出结果与预先标记的第一期望结果进行比较,若损失函数小于预设阈值,第一样本的训练结束;否则,将第一样本重新输入到第一层卷积神经网络中进行训练,在重新训练之前通过反向算法,对第一层卷积神经网络的各个权重进行调节。
需要说明的是,通过卷积神经网络对第二样本和第三样本的训练过程与上述对第一样本的训练过程一致,在此不再赘述。
进一步地,身份信息确认模块303,用于:
将人脸特征矩阵与预设的数据库中的多个人脸特征矩阵进行匹配,得到匹配到的人脸特征矩阵。
依据人脸特征矩阵与身份信息的对应关系,确定与匹配到的人脸特征矩阵对应的身份信息。
其中,预设的数据库为人脸数据库,人脸数据库中存储人脸图像及与其对应的人脸特征矩阵,每个人脸特征矩阵对应一个身份信息;且数据库中的多个人脸特征矩阵为一个多维度的人脸特征矩阵,比如一个人脸特征矩阵的维度为512维,则数据库中的人脸特征矩阵为N*512维的人脸特征矩阵,其中,N为人脸图像的个数,将数据库中所有人脸特征矩阵以一个特征矩阵的形式表示,可通过该特征矩阵全面反映该人的面部特征,提高人脸识别精度;更进一步地,在数据库中,可通过为每个身份信息设置唯一编码的形式,使各个身份信息与其对应的人脸特征矩阵形成映射关系,则根据检测到的人脸特征矩阵,依据映射关系可匹配到对应的编码,进而依据编码,得到人脸特征矩阵对应的身份信息,其中,身份信息为可表明用户身份的信息,比如身份证号,姓名等。
更进一步地,将人脸特征矩阵与预设的数据库中的多个人脸特征矩阵进行匹配,得到匹配到的人脸特征矩阵,包括:
将人脸特征矩阵分别与预设的数据库中的多个人脸特征矩阵进行相似度计算,将相似度值最大的人脸特征矩阵作为匹配到的人脸特征矩阵。
其中,人脸特征矩阵间的相似度计算不限定具体的实现方式,例如,余弦相似度计算方法,两个人脸特征矩阵越相似,其对应的夹角越小,通过计算两个人脸特征矩阵相似度的方式,可快速准确地在数据库中匹配到最相似的人脸特征矩阵。
进一步地,该方法还包括用户行为信息确定模块304及产品推荐信息生成模块305,其中,
用户行为信息确定模块304,用于依据身份信息,确定身份信息对应的用户行为信息。
其中,用户行为信息确定模块304用于:依据预设的用户行为信息与对应身份信息的对应关系,确定身份信息对应的用户行为信息。
其中,用户行为信息与对应身份信息可以对应关系的形式存储在数据库中,在已知身份信息后,可在数据库中依据用户行为信息与对应身份信息的对应关系,确定得到该身份信息对应的用户行为信息。
产品推荐信息生成模块305,用于生成对应用户行为信息的产品推荐信息。
其中,用户的行为信息包括用户历史消费行为信息及用户的基本信息;用户的历史消费行为信息包括用户购买的产品信息,对应的消费金额信息,对应的消费时间,消费地点等信息;用户的基本信息包括用户的年龄,用户的性别,用户的消费水平等信息;基于用户的基本信息及用户历史消费行为信息确定该用户的消费习惯,购买偏好等,则可基于用户的购买偏好及消费习惯向该用户推荐合适的产品及对应的购买地点,因此,基于人脸识别确定的身份信息,可促进产品的推广。
本实施例的人脸识别装置可执行本申请实施例二提供的一种人脸识别方法,其实现原理相类似,此处不再赘述。
实施例五
本申请实施例提供了一种人脸识别的终端,如图4所示,图4所示的终端40包括:处理器401和存储器403。其中,处理器401和存储器403相连,如通过总线402相连。可选地,该终端40还可以包括收发器404。需要说明的是,实际应用中收发器404不限于一个,该终端40的结构并不构成对本申请实施例的限定。
其中,处理器401应用于本申请实施例中,用于实现图3所示的人脸图像获取模块301、人脸特征矩阵识别模块302以及身份信息确认模块303的功能。收发器404包括接收机和发射机。
处理器401可以是CPU,通用处理器,DSP,ASIC,FPGA或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器401也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线402可包括一通路,在上述组件之间传送信息。总线402可以是PCI总线或EISA总线等。总线402可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器403可以是ROM或可存储静态信息和指令的其他类型的静态存储设备,RAM或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM、CD-ROM或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
可选地,存储器403用于存储执行本申请方案的应用程序代码,并由处理器401来控制执行。处理器401用于执行存储器403中存储的应用程序代码,以实现图3所示实施例提供的人脸识别的装置的动作。
本申请实施例提供的一种人脸识别终端40,与现有技术相比,本方案有以下优点:获取待识别用户的人脸图像;将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,人脸特征矩阵包括多维度的人脸特征;依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息;以上方案中,由于多维度的人脸特征可有效反映出人脸图像中各面部器官的特征,因此对于无配合的应用场景下的待识别用户的人脸图像,即使待识别用户的人脸图像只提取到局部人脸特征,在通过预设的人脸识别模型对待识别用户的人脸图像进行识别后,得到的包括多维度的人脸特征的人脸特征矩阵也可准确反应出人脸的局部特点,进而使基于人脸特征矩阵确定的待识别用户的身份信息更准确。
本申请实施例提供的一种人脸识别的终端适用于上述实施例四中的装置实施例,且具有与上述装置实施例四相同的发明构思及相同的有益效果,在此不再赘述。
实施例六
本申请实施例提供了一种计算机可读存储介质,该存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现实施例一所示的方法。
本申请实施例提供了一种计算机可读存储介质,与现有技术相比,本方案有以下优点:获取待识别用户的人脸图像;将人脸图像输入至预设的人脸识别模型,得到人脸图像对应的人脸特征矩阵,人脸特征矩阵包括多维度的人脸特征;依据人脸特征矩阵与身份信息的对应关系,确定与待识别用户的人脸特征矩阵对应的身份信息;以上方案中,由于多维度的人脸特征可有效反映出人脸图像中各面部器官的特征,因此对于无配合的应用场景下的待识别用户的人脸图像,即使待识别用户的人脸图像只提取到局部人脸特征,在通过预设的人脸识别模型对待识别用户的人脸图像进行识别后,得到的包括多维度的人脸特征的人脸特征矩阵也可准确反应出人脸的局部特点,进而使基于人脸特征矩阵确定的待识别用户的身份信息更准确。
本申请实施例提供了一种计算机可读存储介质,该存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现实施例二所示的方法。在此不再赘述。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

Claims (20)

  1. 一种人脸识别的方法,包括:
    获取待识别用户的人脸图像;
    将所述人脸图像输入至预设的人脸识别模型,得到所述人脸图像对应的人脸特征矩阵,所述人脸特征矩阵包括多维度的人脸特征;
    依据人脸特征矩阵与身份信息的对应关系,确定与所述待识别用户的人脸特征矩阵对应的身份信息。
  2. 根据权利要求1所述的方法,所述将所述人脸图像输入至预设的人脸识别模型,得到所述人脸图像对应的人脸特征矩阵,包括:
    通过基于卷积神经网络构建的人脸识别模型,提取所述人脸图像的多维度的人脸特征;
    依据所述多维度的人脸特征,生成人脸特征矩阵。
  3. 根据权利要求1或2所述的方法,所述通过基于卷积神经网络构建人脸识别模型的方法,包括:
    对获取到的多个人脸图像进行特征标注,将各个标注特征后的人脸图像作为样本数据;
    对各个样本数据中标注特征后的人脸图像进行数量扩充,得到各个样本数据对应的样本数据集;
    随机选取属于同一样本数据集的人脸图像作为正样本,随机选取属于不同样本数据集的人脸图像作为负样本;
    依据所述正样本和负样本,确定训练样本,所述训练样本中包括两个正样本和一个负样本,或两个负样本和一个正样本;
    将所述训练样本输入至多层卷积神经网络模型进行训练,得到三个输出结果;
    通过预设的三元损失函数对所述三个输出结果进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型,否则将所述训练样本重新输入至多层卷积神经网络模型进行训练,在重新训练之前通过反向算法,对所述多层卷积神经网络模型的各个权重进行调节。
  4. 根据权利要求3所述的方法,所述三个输出结果包括第一输出结果,第二输出结果和第三输出结果;
    所述通过预设的三元损失函数对所述三个输出结果进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
    确定所述第一输出结果与所述第二输出结果的之间的第一距离,及所述第一输出结果与所述第三输出结果之间的第二距离;
    通过预设三元损失函数对所述第一距离和所述第二距离进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型。
  5. 根据权利要求4所述的方法,所述通过预设的三元损失函数对所述第一距离和所述第二距离进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
    依据所述预设的三元损失函数中的预设变量参数,确定所述第一距离和第二距离的间隔值;
    调节所述预设变量参数,直至所述间隔值满足预设条件时,训练结束,得到人脸识别模型。
  6. 根据权利要求1所述的方法,所述依据人脸特征矩阵与身份信息的对应关系,确定与所述待识别用户的人脸特征矩阵对应的身份信息,包括:
    将所述人脸特征矩阵与预设的数据库中的多个人脸特征矩阵进行匹配,得到匹配到的人脸特征矩阵;
    依据人脸特征矩阵与身份信息的对应关系,确定与所述匹配到的人脸特征矩阵对应的身份信息。
  7. 根据权利要求1所述的方法,所述方法还包括:
    依据所述身份信息,确定所述身份信息对应的用户行为信息;
    生成对应所述用户行为信息的产品推荐信息。
  8. 一种人脸识别的装置,包括:
    人脸图像获取模块,用于获取待识别用户的人脸图像;
    人脸特征矩阵识别模块,用于将所述人脸图像输入至预设的人脸识别模型,得到所述人脸图像对应的人脸特征矩阵,所述人脸特征矩阵包括多维度的人脸特征;
    身份信息确认模块,用于依据人脸特征矩阵与身份信息的对应关系,确定与所述待识别用户的人脸特征矩阵对应的身份信息。
  9. 一种人脸识别的终端,包括:
    处理器、存储器和总线;
    所述总线,用于连接所述处理器和所述存储器;
    所述存储器,用于存储操作指令;
    所述处理器,用于通过调用所述操作指令,执行一种人脸识别的方法,所述方法包括如下步骤:
    获取待识别用户的人脸图像;
    将所述人脸图像输入至预设的人脸识别模型,得到所述人脸图像对应的人脸特征矩阵,所述人脸特征矩阵包括多维度的人脸特征;
    依据人脸特征矩阵与身份信息的对应关系,确定与所述待识别用户的人脸特征矩阵对应的身份信息。
  10. 根据权利要求9所述的终端,所述将所述人脸图像输入至预设的人脸识别模型,得到所述人脸图像对应的人脸特征矩阵,包括:
    通过基于卷积神经网络构建的人脸识别模型,提取所述人脸图像的多维度的人脸特征;
    依据所述多维度的人脸特征,生成人脸特征矩阵。
  11. 根据权利要求9或10所述的终端,所述通过基于卷积神经网络构建人脸识别模型的方法,包括:
    对获取到的多个人脸图像进行特征标注,将各个标注特征后的人脸图像作为样本数据;
    对各个样本数据中标注特征后的人脸图像进行数量扩充,得到各个样本数据对应的样本数据集;
    随机选取属于同一样本数据集的人脸图像作为正样本,随机选取属于不同样本数据集的人脸图像作为负样本;
    依据所述正样本和负样本,确定训练样本,所述训练样本中包括两个正样本和一个负样本,或两个负样本和一个正样本;
    将所述训练样本输入至多层卷积神经网络模型进行训练,得到三个输出结果;
    通过预设的三元损失函数对所述三个输出结果进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型,否则将所述训练样本重新输入至多层卷积神经网络模型进行训练,在重新训练之前通过反向算法,对所述多层卷积神经网络模型的各个权重进行调节。
  12. 根据权利要求11所述的终端,所述三个输出结果包括第一输出结果,第二输出结果和第三输出结果;
    所述通过预设的三元损失函数对所述三个输出结果进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
    确定所述第一输出结果与所述第二输出结果的之间的第一距离,及所述第一输出结果与所述第三输出结果之间的第二距离;
    通过预设三元损失函数对所述第一距离和所述第二距离进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型。
  13. 根据权利要求12所述的终端,所述通过预设的三元损失函数对所述第一距离和所述第二距离进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
    依据所述预设的三元损失函数中的预设变量参数,确定所述第一距离和第二距离的间隔值;
    调节所述预设变量参数,直至所述间隔值满足预设条件时,训练结束,得到人脸识别模型。
  14. 根据权利要求9所述的终端,所述依据人脸特征矩阵与身份信息的对应关系,确定与所述待识别用户的人脸特征矩阵对应的身份信息,包括:
    将所述人脸特征矩阵与预设的数据库中的多个人脸特征矩阵进行匹配,得到匹配到的人脸特征矩阵;
    依据人脸特征矩阵与身份信息的对应关系,确定与所述匹配到的人脸特征矩阵对应的身份信息。
  15. 根据权利要求9所述的终端,所述方法还包括:
    依据所述身份信息,确定所述身份信息对应的用户行为信息;
    生成对应所述用户行为信息的产品推荐信息。
  16. 一种计算机可读非易失性存储介质,其上存储有计算机程序,所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现一种人脸识别的方法,包括:
    获取待识别用户的人脸图像;
    将所述人脸图像输入至预设的人脸识别模型,得到所述人脸图像对应的人脸特征矩阵,所述人脸特征矩阵包括多维度的人脸特征;
    依据人脸特征矩阵与身份信息的对应关系,确定与所述待识别用户的人脸特征矩阵对应的身份信息。
  17. 根据权利要求16所述的计算机可读非易失性存储介质,所述将所述人脸图 像输入至预设的人脸识别模型,得到所述人脸图像对应的人脸特征矩阵,包括:
    通过基于卷积神经网络构建的人脸识别模型,提取所述人脸图像的多维度的人脸特征;
    依据所述多维度的人脸特征,生成人脸特征矩阵。
  18. 根据权利要求16或17所述的计算机可读非易失性存储介质,所述通过基于卷积神经网络构建人脸识别模型的方法,包括:
    对获取到的多个人脸图像进行特征标注,将各个标注特征后的人脸图像作为样本数据;
    对各个样本数据中标注特征后的人脸图像进行数量扩充,得到各个样本数据对应的样本数据集;
    随机选取属于同一样本数据集的人脸图像作为正样本,随机选取属于不同样本数据集的人脸图像作为负样本;
    依据所述正样本和负样本,确定训练样本,所述训练样本中包括两个正样本和一个负样本,或两个负样本和一个正样本;
    将所述训练样本输入至多层卷积神经网络模型进行训练,得到三个输出结果;
    通过预设的三元损失函数对所述三个输出结果进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型,否则将所述训练样本重新输入至多层卷积神经网络模型进行训练,在重新训练之前通过反向算法,对所述多层卷积神经网络模型的各个权重进行调节。
  19. 根据权利要求18所述的计算机可读非易失性存储介质,所述三个输出结果包括第一输出结果,第二输出结果和第三输出结果;
    所述通过预设的三元损失函数对所述三个输出结果进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
    确定所述第一输出结果与所述第二输出结果的之间的第一距离,及所述第一输出结果与所述第三输出结果之间的第二距离;
    通过预设三元损失函数对所述第一距离和所述第二距离进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型。
  20. 根据权利要求19所述的计算机可读非易失性存储介质,所述通过预设的三元损失函数对所述第一距离和所述第二距离进行比较,若所述三元损失函数小于预设阈值,训练结束,得到人脸识别模型,包括:
    依据所述预设的三元损失函数中的预设变量参数,确定所述第一距离和第二距离的间隔值;
    调节所述预设变量参数,直至所述间隔值满足预设条件时,训练结束,得到人脸识别模型。
PCT/CN2019/070357 2018-08-20 2019-01-04 人脸识别的方法、装置、终端及计算机可读存储介质 WO2020037937A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810948055.3A CN109117801A (zh) 2018-08-20 2018-08-20 人脸识别的方法、装置、终端及计算机可读存储介质
CN201810948055.3 2018-08-20

Publications (1)

Publication Number Publication Date
WO2020037937A1 true WO2020037937A1 (zh) 2020-02-27

Family

ID=64853522

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/070357 WO2020037937A1 (zh) 2018-08-20 2019-01-04 人脸识别的方法、装置、终端及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN109117801A (zh)
WO (1) WO2020037937A1 (zh)

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339964A (zh) * 2020-02-28 2020-06-26 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN111369521A (zh) * 2020-03-02 2020-07-03 名创优品(横琴)企业管理有限公司 一种基于图像质量的图像过滤方法和相关装置
CN111475790A (zh) * 2020-03-31 2020-07-31 联想(北京)有限公司 一种鉴权管理方法及电子设备
CN111476189A (zh) * 2020-04-14 2020-07-31 北京爱笔科技有限公司 一种身份识别方法和相关装置
CN111553215A (zh) * 2020-04-20 2020-08-18 深圳云天励飞技术有限公司 人员关联方法及其装置、图卷积网络训练方法及其装置
CN111582066A (zh) * 2020-04-21 2020-08-25 浙江大华技术股份有限公司 异质人脸识别模型训练方法、人脸识别方法及相关装置
CN111639596A (zh) * 2020-05-29 2020-09-08 上海锘科智能科技有限公司 基于注意力机制和残差网络的抗眼镜遮挡人脸识别方法
CN111639616A (zh) * 2020-06-05 2020-09-08 上海一由科技有限公司 一种基于深度学习的重身份识别方法
CN111666550A (zh) * 2020-06-12 2020-09-15 上海商汤智能科技有限公司 一种互动合影的方法、装置、电子设备及存储介质
CN111680622A (zh) * 2020-06-05 2020-09-18 上海一由科技有限公司 一种基于托育环境的身份识别方法
CN111722537A (zh) * 2020-06-22 2020-09-29 合肥优恩物联网科技有限公司 一种基于自主人脸识别的智慧交互系统及方法
CN111753761A (zh) * 2020-06-28 2020-10-09 北京百度网讯科技有限公司 模型生成方法、装置、电子设备及存储介质
CN111783601A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 人脸识别模型的训练方法、装置、电子设备及存储介质
CN111783598A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 一种人脸识别模型训练方法、装置、设备及介质
CN111783748A (zh) * 2020-08-12 2020-10-16 汉王科技股份有限公司 人脸识别方法、装置、电子设备及存储介质
CN111783600A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 一种人脸识别模型训练方法、装置、设备及介质
CN111783607A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 人脸识别模型的训练方法、装置、电子设备及存储介质
CN111914630A (zh) * 2020-06-19 2020-11-10 北京百度网讯科技有限公司 为人脸识别生成训练数据的方法、装置、设备和存储介质
CN111914629A (zh) * 2020-06-19 2020-11-10 北京百度网讯科技有限公司 为人脸识别生成训练数据的方法、装置、设备和存储介质
CN111931598A (zh) * 2020-07-20 2020-11-13 湖北美和易思教育科技有限公司 一种基于人脸识别的课堂智能实时分析方法及系统
CN111968152A (zh) * 2020-07-15 2020-11-20 桂林远望智能通信科技有限公司 一种动态身份识别方法及装置
CN112016523A (zh) * 2020-09-25 2020-12-01 北京百度网讯科技有限公司 跨模态人脸识别的方法、装置、设备和存储介质
CN112036266A (zh) * 2020-08-13 2020-12-04 北京迈格威科技有限公司 人脸识别方法、装置、设备及介质
CN112131997A (zh) * 2020-09-17 2020-12-25 南京智凝人工智能研究院有限公司 一种基于深度学习的人脸识别系统和方法
CN112164002A (zh) * 2020-09-10 2021-01-01 深圳前海微众银行股份有限公司 人脸矫正模型的训练方法、装置、电子设备及存储介质
CN112446345A (zh) * 2020-12-09 2021-03-05 西安交通大学 一种低质量三维人脸识别方法、系统、设备和存储介质
CN112507833A (zh) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 人脸识别及模型训练的方法、装置、设备和存储介质
CN112541446A (zh) * 2020-12-17 2021-03-23 杭州海康威视数字技术股份有限公司 一种生物特征库更新方法、装置及电子设备
CN112580538A (zh) * 2020-12-23 2021-03-30 平安银行股份有限公司 客服人员调度方法、装置、设备及存储介质
CN112699799A (zh) * 2020-12-30 2021-04-23 杭州趣链科技有限公司 基于区块链的人脸识别方法、装置、设备和存储介质
CN112800452A (zh) * 2021-03-19 2021-05-14 腾讯科技(深圳)有限公司 用户身份图像处理方法和用户身份图像识别方法
CN112818885A (zh) * 2021-02-07 2021-05-18 中国银联股份有限公司 人脸识别方法、装置、设备及存储介质
CN112860931A (zh) * 2021-01-18 2021-05-28 广东便捷神科技股份有限公司 人脸识别库的构建方法、人脸支付方法和系统
CN113033415A (zh) * 2021-03-26 2021-06-25 北京百度网讯科技有限公司 数据队列动态更新方法、装置、电子设备及存储介质
CN113361568A (zh) * 2021-05-18 2021-09-07 北京迈格威科技有限公司 目标识别方法、装置和电子系统
CN113495493A (zh) * 2021-07-30 2021-10-12 青岛海尔空调器有限总公司 用于识别人体高度的方法及装置、家电设备、可读存储介质
CN113536953A (zh) * 2021-06-22 2021-10-22 浙江吉利控股集团有限公司 一种人脸识别方法、装置、电子设备及存储介质
CN113657136A (zh) * 2020-05-12 2021-11-16 阿里巴巴集团控股有限公司 识别方法及装置
CN113657350A (zh) * 2021-05-12 2021-11-16 支付宝(杭州)信息技术有限公司 人脸图像处理方法及装置
CN113657352A (zh) * 2020-03-19 2021-11-16 支付宝(杭州)信息技术有限公司 一种人脸特征提取方法、装置及设备
CN113807413A (zh) * 2021-08-30 2021-12-17 北京百度网讯科技有限公司 对象的识别方法、装置、电子设备
CN114697686A (zh) * 2020-12-25 2022-07-01 北京达佳互联信息技术有限公司 一种线上互动方法、装置、服务器及存储介质
CN114863542A (zh) * 2022-07-06 2022-08-05 武汉微派网络科技有限公司 基于多模态的未成年人识别方法及系统
CN116055211A (zh) * 2023-02-14 2023-05-02 成都理工大学工程技术学院 基于神经网络用于身份识别并自动登录应用的方法与系统
CN117523638A (zh) * 2023-11-28 2024-02-06 广州视声智能科技有限公司 基于优先级筛选的人脸识别方法及系统
CN113642415B (zh) * 2021-07-19 2024-06-04 南京南瑞信息通信科技有限公司 人脸特征表达方法及人脸识别方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109117801A (zh) * 2018-08-20 2019-01-01 深圳壹账通智能科技有限公司 人脸识别的方法、装置、终端及计算机可读存储介质
CN109766844B (zh) * 2019-01-14 2022-10-14 电子科技大学 一种基于胸针设备的移动终端身份鉴别与记忆方法
CN109784281A (zh) * 2019-01-18 2019-05-21 深圳壹账通智能科技有限公司 基于人脸特征的产品推荐方法、装置及计算机设备
CN110163631A (zh) * 2019-04-16 2019-08-23 深圳壹账通智能科技有限公司 客户精准服务方法、装置、计算机设备及存储介质
CN110210194A (zh) * 2019-04-18 2019-09-06 深圳壹账通智能科技有限公司 电子合同显示方法、装置、电子设备及存储介质
CN110070037B (zh) * 2019-04-22 2022-11-01 深圳力维智联技术有限公司 人脸识别模型的平滑升级方法、装置和可读存储介质
CN111860066B (zh) * 2019-04-30 2023-10-27 百度时代网络技术(北京)有限公司 人脸识别方法和装置
CN110443137B (zh) * 2019-07-03 2023-07-25 平安科技(深圳)有限公司 多维度身份信息识别方法、装置、计算机设备及存储介质
CN110363159A (zh) * 2019-07-17 2019-10-22 腾讯科技(深圳)有限公司 图像识别方法、装置、电子设备及计算机可读存储介质
CN110688941A (zh) * 2019-09-25 2020-01-14 支付宝(杭州)信息技术有限公司 人脸图像的识别方法及其装置
CN110717458B (zh) * 2019-10-11 2022-07-22 北京地平线机器人技术研发有限公司 人脸识别方法及识别装置
CN110956098B (zh) * 2019-11-13 2023-05-12 深圳数联天下智能科技有限公司 图像处理方法及相关设备
CN111144240B (zh) * 2019-12-12 2023-02-07 深圳数联天下智能科技有限公司 图像处理方法及相关设备
CN111126346A (zh) * 2020-01-06 2020-05-08 腾讯科技(深圳)有限公司 脸部识别方法、分类模型的训练方法、装置和存储介质
CN111079718A (zh) * 2020-01-15 2020-04-28 中云智慧(北京)科技有限公司 人脸快速比对方法
CN111428679B (zh) * 2020-04-02 2023-09-01 苏州杰锐思智能科技股份有限公司 影像识别方法、装置和设备
CN111581623B (zh) * 2020-05-09 2023-12-19 深圳物控智联科技有限公司 智能数据交互方法、装置、电子设备及存储介质
CN113486688A (zh) * 2020-05-27 2021-10-08 海信集团有限公司 一种人脸识别方法及智能设备
CN111626243B (zh) * 2020-05-28 2023-04-18 上海锘科智能科技有限公司 口罩遮挡人脸的身份识别方法、装置及存储介质
CN112016488B (zh) * 2020-09-01 2024-02-06 中国银行股份有限公司 业务信息的处理方法及相关装置、计算机存储介质
CN112215136B (zh) * 2020-10-10 2023-09-05 北京奇艺世纪科技有限公司 一种目标人物识别方法、装置、电子设备及存储介质
CN112232269B (zh) * 2020-10-29 2024-02-09 南京莱斯网信技术研究院有限公司 一种基于孪生网络的船舶身份智能识别方法及系统
CN112308031A (zh) * 2020-11-25 2021-02-02 浙江大华系统工程有限公司 通用人脸识别和人脸特征信息库生成方法、装置及设备
CN112507963B (zh) * 2020-12-22 2023-08-25 华南理工大学 一种批量口罩人脸样本自动生成以及口罩人脸识别方法
CN113420585A (zh) * 2021-04-21 2021-09-21 广州晟烨信息科技股份有限公司 一种人脸采集识别方法、系统及存储介质
CN113362070A (zh) * 2021-06-03 2021-09-07 中国工商银行股份有限公司 用于识别操作用户的方法、装置、电子设备和介质
CN113221088B (zh) * 2021-06-15 2022-08-19 中国银行股份有限公司 用户身份识别方法及装置
CN113486807B (zh) * 2021-07-08 2024-02-27 网易(杭州)网络有限公司 脸部的检测模型训练方法、识别方法、装置、介质和设备
CN114360007B (zh) * 2021-12-22 2023-02-07 浙江大华技术股份有限公司 人脸识别模型训练、人脸识别方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503669A (zh) * 2016-11-02 2017-03-15 重庆中科云丛科技有限公司 一种基于多任务深度学习网络的训练、识别方法及系统
CN106845330A (zh) * 2016-11-17 2017-06-13 北京品恩科技股份有限公司 一种基于深度卷积神经网络的二维人脸识别模型的训练方法
CN107016370A (zh) * 2017-04-10 2017-08-04 电子科技大学 一种基于数据增强的部分遮挡人脸识别方法
WO2017174982A1 (en) * 2016-04-06 2017-10-12 Queen Mary University Of London Method of matching a sketch image to a face image
CN109117801A (zh) * 2018-08-20 2019-01-01 深圳壹账通智能科技有限公司 人脸识别的方法、装置、终端及计算机可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650658A (zh) * 2016-12-16 2017-05-10 中新智擎有限公司 一种识别用户身份的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017174982A1 (en) * 2016-04-06 2017-10-12 Queen Mary University Of London Method of matching a sketch image to a face image
CN106503669A (zh) * 2016-11-02 2017-03-15 重庆中科云丛科技有限公司 一种基于多任务深度学习网络的训练、识别方法及系统
CN106845330A (zh) * 2016-11-17 2017-06-13 北京品恩科技股份有限公司 一种基于深度卷积神经网络的二维人脸识别模型的训练方法
CN107016370A (zh) * 2017-04-10 2017-08-04 电子科技大学 一种基于数据增强的部分遮挡人脸识别方法
CN109117801A (zh) * 2018-08-20 2019-01-01 深圳壹账通智能科技有限公司 人脸识别的方法、装置、终端及计算机可读存储介质

Cited By (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339964A (zh) * 2020-02-28 2020-06-26 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN111369521A (zh) * 2020-03-02 2020-07-03 名创优品(横琴)企业管理有限公司 一种基于图像质量的图像过滤方法和相关装置
CN113657352A (zh) * 2020-03-19 2021-11-16 支付宝(杭州)信息技术有限公司 一种人脸特征提取方法、装置及设备
CN111475790A (zh) * 2020-03-31 2020-07-31 联想(北京)有限公司 一种鉴权管理方法及电子设备
CN111476189B (zh) * 2020-04-14 2023-10-13 北京爱笔科技有限公司 一种身份识别方法和相关装置
CN111476189A (zh) * 2020-04-14 2020-07-31 北京爱笔科技有限公司 一种身份识别方法和相关装置
CN111553215B (zh) * 2020-04-20 2023-10-13 深圳云天励飞技术有限公司 人员关联方法及其装置、图卷积网络训练方法及其装置
CN111553215A (zh) * 2020-04-20 2020-08-18 深圳云天励飞技术有限公司 人员关联方法及其装置、图卷积网络训练方法及其装置
CN111582066B (zh) * 2020-04-21 2023-10-03 浙江大华技术股份有限公司 异质人脸识别模型训练方法、人脸识别方法及相关装置
CN111582066A (zh) * 2020-04-21 2020-08-25 浙江大华技术股份有限公司 异质人脸识别模型训练方法、人脸识别方法及相关装置
CN113657136B (zh) * 2020-05-12 2024-02-13 阿里巴巴集团控股有限公司 识别方法及装置
CN113657136A (zh) * 2020-05-12 2021-11-16 阿里巴巴集团控股有限公司 识别方法及装置
CN111639596A (zh) * 2020-05-29 2020-09-08 上海锘科智能科技有限公司 基于注意力机制和残差网络的抗眼镜遮挡人脸识别方法
CN111639596B (zh) * 2020-05-29 2023-04-28 上海锘科智能科技有限公司 基于注意力机制和残差网络的抗眼镜遮挡人脸识别方法
CN111639616A (zh) * 2020-06-05 2020-09-08 上海一由科技有限公司 一种基于深度学习的重身份识别方法
CN111680622A (zh) * 2020-06-05 2020-09-18 上海一由科技有限公司 一种基于托育环境的身份识别方法
CN111680622B (zh) * 2020-06-05 2023-08-01 上海一由科技有限公司 一种基于托育环境的身份识别方法
CN111639616B (zh) * 2020-06-05 2023-05-23 上海一由科技有限公司 一种基于深度学习的重身份识别方法
CN111666550A (zh) * 2020-06-12 2020-09-15 上海商汤智能科技有限公司 一种互动合影的方法、装置、电子设备及存储介质
CN111914629A (zh) * 2020-06-19 2020-11-10 北京百度网讯科技有限公司 为人脸识别生成训练数据的方法、装置、设备和存储介质
CN111914630A (zh) * 2020-06-19 2020-11-10 北京百度网讯科技有限公司 为人脸识别生成训练数据的方法、装置、设备和存储介质
CN111722537B (zh) * 2020-06-22 2023-08-22 合肥优恩物联网科技有限公司 一种基于自主人脸识别的智慧交互系统及方法
CN111722537A (zh) * 2020-06-22 2020-09-29 合肥优恩物联网科技有限公司 一种基于自主人脸识别的智慧交互系统及方法
CN111783601B (zh) * 2020-06-24 2024-04-26 北京百度网讯科技有限公司 人脸识别模型的训练方法、装置、电子设备及存储介质
CN111783600B (zh) * 2020-06-24 2024-02-09 北京百度网讯科技有限公司 一种人脸识别模型训练方法、装置、设备及介质
CN111783601A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 人脸识别模型的训练方法、装置、电子设备及存储介质
CN111783598A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 一种人脸识别模型训练方法、装置、设备及介质
CN111783598B (zh) * 2020-06-24 2023-08-08 北京百度网讯科技有限公司 一种人脸识别模型训练方法、装置、设备及介质
CN111783607B (zh) * 2020-06-24 2023-06-27 北京百度网讯科技有限公司 人脸识别模型的训练方法、装置、电子设备及存储介质
CN111783600A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 一种人脸识别模型训练方法、装置、设备及介质
CN111783607A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 人脸识别模型的训练方法、装置、电子设备及存储介质
CN111753761B (zh) * 2020-06-28 2024-04-09 北京百度网讯科技有限公司 模型生成方法、装置、电子设备及存储介质
CN111753761A (zh) * 2020-06-28 2020-10-09 北京百度网讯科技有限公司 模型生成方法、装置、电子设备及存储介质
CN111968152A (zh) * 2020-07-15 2020-11-20 桂林远望智能通信科技有限公司 一种动态身份识别方法及装置
CN111968152B (zh) * 2020-07-15 2023-10-17 桂林远望智能通信科技有限公司 一种动态身份识别方法及装置
CN111931598B (zh) * 2020-07-20 2024-05-17 武汉美和易思数字科技有限公司 一种基于人脸识别的课堂智能实时分析方法及系统
CN111931598A (zh) * 2020-07-20 2020-11-13 湖北美和易思教育科技有限公司 一种基于人脸识别的课堂智能实时分析方法及系统
CN111783748A (zh) * 2020-08-12 2020-10-16 汉王科技股份有限公司 人脸识别方法、装置、电子设备及存储介质
CN112036266A (zh) * 2020-08-13 2020-12-04 北京迈格威科技有限公司 人脸识别方法、装置、设备及介质
CN112164002A (zh) * 2020-09-10 2021-01-01 深圳前海微众银行股份有限公司 人脸矫正模型的训练方法、装置、电子设备及存储介质
CN112164002B (zh) * 2020-09-10 2024-02-09 深圳前海微众银行股份有限公司 人脸矫正模型的训练方法、装置、电子设备及存储介质
CN112131997A (zh) * 2020-09-17 2020-12-25 南京智凝人工智能研究院有限公司 一种基于深度学习的人脸识别系统和方法
CN112016523B (zh) * 2020-09-25 2023-08-29 北京百度网讯科技有限公司 跨模态人脸识别的方法、装置、设备和存储介质
CN112016523A (zh) * 2020-09-25 2020-12-01 北京百度网讯科技有限公司 跨模态人脸识别的方法、装置、设备和存储介质
CN112507833A (zh) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 人脸识别及模型训练的方法、装置、设备和存储介质
CN112446345B (zh) * 2020-12-09 2024-04-05 西安交通大学 一种低质量三维人脸识别方法、系统、设备和存储介质
CN112446345A (zh) * 2020-12-09 2021-03-05 西安交通大学 一种低质量三维人脸识别方法、系统、设备和存储介质
CN112541446B (zh) * 2020-12-17 2023-09-05 杭州海康威视数字技术股份有限公司 一种生物特征库更新方法、装置及电子设备
CN112541446A (zh) * 2020-12-17 2021-03-23 杭州海康威视数字技术股份有限公司 一种生物特征库更新方法、装置及电子设备
CN112580538A (zh) * 2020-12-23 2021-03-30 平安银行股份有限公司 客服人员调度方法、装置、设备及存储介质
CN112580538B (zh) * 2020-12-23 2024-03-26 平安银行股份有限公司 客服人员调度方法、装置、设备及存储介质
CN114697686A (zh) * 2020-12-25 2022-07-01 北京达佳互联信息技术有限公司 一种线上互动方法、装置、服务器及存储介质
CN114697686B (zh) * 2020-12-25 2023-11-21 北京达佳互联信息技术有限公司 一种线上互动方法、装置、服务器及存储介质
CN112699799A (zh) * 2020-12-30 2021-04-23 杭州趣链科技有限公司 基于区块链的人脸识别方法、装置、设备和存储介质
CN112860931A (zh) * 2021-01-18 2021-05-28 广东便捷神科技股份有限公司 人脸识别库的构建方法、人脸支付方法和系统
CN112860931B (zh) * 2021-01-18 2023-11-03 广东便捷神科技股份有限公司 人脸识别库的构建方法
CN112818885A (zh) * 2021-02-07 2021-05-18 中国银联股份有限公司 人脸识别方法、装置、设备及存储介质
CN112818885B (zh) * 2021-02-07 2024-05-28 中国银联股份有限公司 人脸识别方法、装置、设备及存储介质
CN112800452A (zh) * 2021-03-19 2021-05-14 腾讯科技(深圳)有限公司 用户身份图像处理方法和用户身份图像识别方法
CN113033415A (zh) * 2021-03-26 2021-06-25 北京百度网讯科技有限公司 数据队列动态更新方法、装置、电子设备及存储介质
CN113033415B (zh) * 2021-03-26 2023-11-28 北京百度网讯科技有限公司 数据队列动态更新方法、装置、电子设备及存储介质
CN113657350A (zh) * 2021-05-12 2021-11-16 支付宝(杭州)信息技术有限公司 人脸图像处理方法及装置
CN113361568A (zh) * 2021-05-18 2021-09-07 北京迈格威科技有限公司 目标识别方法、装置和电子系统
CN113536953B (zh) * 2021-06-22 2024-04-19 浙江吉利控股集团有限公司 一种人脸识别方法、装置、电子设备及存储介质
CN113536953A (zh) * 2021-06-22 2021-10-22 浙江吉利控股集团有限公司 一种人脸识别方法、装置、电子设备及存储介质
CN113642415B (zh) * 2021-07-19 2024-06-04 南京南瑞信息通信科技有限公司 人脸特征表达方法及人脸识别方法
CN113495493A (zh) * 2021-07-30 2021-10-12 青岛海尔空调器有限总公司 用于识别人体高度的方法及装置、家电设备、可读存储介质
CN113807413B (zh) * 2021-08-30 2024-02-06 北京百度网讯科技有限公司 对象的识别方法、装置、电子设备
CN113807413A (zh) * 2021-08-30 2021-12-17 北京百度网讯科技有限公司 对象的识别方法、装置、电子设备
CN114863542A (zh) * 2022-07-06 2022-08-05 武汉微派网络科技有限公司 基于多模态的未成年人识别方法及系统
CN114863542B (zh) * 2022-07-06 2022-09-30 武汉微派网络科技有限公司 基于多模态的未成年人识别方法及系统
CN116055211A (zh) * 2023-02-14 2023-05-02 成都理工大学工程技术学院 基于神经网络用于身份识别并自动登录应用的方法与系统
CN116055211B (zh) * 2023-02-14 2023-11-17 成都理工大学工程技术学院 基于神经网络用于身份识别并自动登录应用的方法与系统
CN117523638B (zh) * 2023-11-28 2024-05-17 广州视声智能科技有限公司 基于优先级筛选的人脸识别方法及系统
CN117523638A (zh) * 2023-11-28 2024-02-06 广州视声智能科技有限公司 基于优先级筛选的人脸识别方法及系统

Also Published As

Publication number Publication date
CN109117801A (zh) 2019-01-01

Similar Documents

Publication Publication Date Title
WO2020037937A1 (zh) 人脸识别的方法、装置、终端及计算机可读存储介质
WO2019228317A1 (zh) 人脸识别方法、装置及计算机可读介质
US10282530B2 (en) Verifying identity based on facial dynamics
CN109815770B (zh) 二维码检测方法、装置及系统
CN107784288B (zh) 一种基于深度神经网络的迭代定位式人脸检测方法
WO2015180042A1 (en) Learning deep face representation
WO2015180101A1 (en) Compact face representation
WO2017032243A1 (zh) 图像特征提取方法、装置、终端设备及系统
CN115631112B (zh) 一种基于深度学习的建筑轮廓矫正方法及装置
CN109447022A (zh) 一种镜头类型识别方法及装置
CN114612681A (zh) 基于gcn的多标签图像分类方法、模型构建方法及装置
CN112651333A (zh) 静默活体检测方法、装置、终端设备和存储介质
CN115862119B (zh) 基于注意力机制的人脸年龄估计方法及装置
CN112597997A (zh) 感兴趣区域确定方法、图像内容识别方法及装置
TWI803243B (zh) 圖像擴增方法、電腦設備及儲存介質
CN110414562B (zh) X光片的分类方法、装置、终端及存储介质
CN114820755B (zh) 一种深度图估计方法及系统
KR20230071052A (ko) 이미지 처리 방법 및 장치
CN116958724A (zh) 一种产品分类模型的训练方法和相关装置
US11430240B2 (en) Methods and systems for the automated quality assurance of annotated images
TWI632509B (zh) 人臉辨識裝置及方法、提升影像辨識率的方法、及電腦可讀儲存介質
CN114066564A (zh) 服务推荐时间确定方法、装置、计算机设备、存储介质
CN113192085A (zh) 三维器官图像分割方法、装置及计算机设备
CN113284122A (zh) 基于深度学习的卷纸包装缺陷检测方法、装置及存储介质
Shylaja et al. Illumination Invariant Novel Approaches for Face Recognition

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19853097

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 01.06.2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19853097

Country of ref document: EP

Kind code of ref document: A1