WO2019205369A1 - 电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质 - Google Patents

电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质 Download PDF

Info

Publication number
WO2019205369A1
WO2019205369A1 PCT/CN2018/102085 CN2018102085W WO2019205369A1 WO 2019205369 A1 WO2019205369 A1 WO 2019205369A1 CN 2018102085 W CN2018102085 W CN 2018102085W WO 2019205369 A1 WO2019205369 A1 WO 2019205369A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature vector
similarity
data processing
face image
identity
Prior art date
Application number
PCT/CN2018/102085
Other languages
English (en)
French (fr)
Inventor
王义文
王健宗
肖京
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2019205369A1 publication Critical patent/WO2019205369A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Definitions

  • the present application relates to the field of face recognition technologies, and in particular, to an electronic device, an identity recognition method based on face image and voiceprint information, and a storage medium.
  • the method for detecting a human face is to perform an instruction action coordination manner on a face to be recognized, such as a left-handed, a right-turn, a mouth-opening, a blinking, etc., if the face is wrong with the command action, it is considered to be Forged fraud.
  • This method of detecting the face and detecting the face is performed separately, resulting in inefficient identification of the entire identity, especially in the case of a large number of people to be identified, which seriously affects the efficiency of identification and wastes a large amount of time.
  • the present application provides an electronic device, an identification method based on face image and voiceprint information, and a storage medium, which can simultaneously recognize face images and voiceprint information, and improve the efficiency of identity recognition.
  • the accuracy of the identification is a condition in which face images and voiceprint information is highly repetitively recognized.
  • the present application provides an electronic device including a memory and a processor connected to the memory, the processor for performing face-based image and sound stored on the memory
  • An identification program of the texture information when the identity recognition program based on the face image and the voiceprint information is executed by the processor, the following steps are implemented:
  • A1 After receiving the request for identifying the identity of the user sent by the terminal, sending, to the terminal, an instruction for collecting voiceprint information of the user and injecting a face image;
  • A2 processing the voiceprint information returned by the terminal and the face image according to the data processing model completed in advance, to obtain a first feature vector
  • the similarity between the first feature vector and the pre-stored second feature vector is analyzed according to a predefined similarity analysis algorithm, where the second feature vector is a pre-stored standard sample vector of the user;
  • the present application further provides an identity recognition method based on a face image and voiceprint information, the method comprising the following steps:
  • the similarity between the first feature vector and the pre-stored second feature vector is analyzed according to a predefined similarity analysis algorithm, where the second feature vector is a pre-stored standard sample vector of the user;
  • the present application further provides a computer readable storage medium storing an identity recognition program based on a face image and voiceprint information, based on a face image and a voiceprint
  • the identity recognition program of information can be executed by at least one processor to cause the at least one processor to perform the following steps:
  • the similarity obtained by the analysis is less than or equal to the preset similarity threshold, it is determined that the identity of the user is not passed, and the identity recognition failure instruction is sent to the terminal.
  • the electronic device, the face image and the voiceprint information-based identification method and the storage medium proposed by the present application are preferably sent to the terminal after receiving the request for identifying the user identity sent by the terminal.
  • the similarity between the first feature vector and the pre-stored second feature vector is analyzed by the analysis algorithm, and the second feature vector is a pre-stored standard sample vector of the user; if the analyzed similarity is less than or equal to the preset
  • the similarity threshold determines that the identity of the user passes, and sends an identity recognition command to the terminal.
  • the similarity obtained by the analysis is greater than a preset similarity threshold, it is determined that the identity of the user does not pass.
  • the face image and the voiceprint information can be simultaneously recognized, and the accuracy of the identity recognition is improved while ensuring the identity recognition efficiency.
  • FIG. 1 is a schematic diagram of an optional hardware architecture of an electronic device proposed by the present application.
  • FIG. 2 is a schematic diagram of a program module of an identity recognition program based on a face image and voiceprint information in an embodiment of an electronic device of the present application;
  • FIG. 3 is a flow chart of an implementation of a preferred embodiment of the method for identifying a face image and voiceprint information according to the present application.
  • the electronic device 10 may include, but is not limited to, the memory 11, the processor 12, and the network interface 13 being communicably connected to each other through the communication bus 14. It should be noted that FIG. 1 only shows the electronic device 10 having the components 11-14, but it should be understood that not all illustrated components may be implemented, and more or fewer components may be implemented instead.
  • the memory 11 includes at least one type of computer readable storage medium including a flash memory, a hard disk, a multimedia card, a card type memory (for example, SD or DX memory, etc.), a random access memory (RAM), and a static memory.
  • the memory 11 may be an internal storage unit of the electronic device 10, such as a hard disk or memory of the electronic device 10.
  • the memory 11 may also be an outsourced storage device of the electronic device 10, such as a plug-in hard disk equipped on the electronic device 10, a smart memory card (SMC), and a secure digital (Secure Digital, SD) ) cards, flash cards, etc.
  • the memory 11 can also include both an internal storage unit of the electronic device 10 and an outsourced storage device thereof.
  • the memory 11 is generally used to store an operating system installed on the electronic device 10 and various types of application software, such as an identity recognition program based on face images and voiceprint information. Further, the memory 11 can also be used to temporarily store various types of data that have been output or are to be output.
  • Processor 12 may be a Central Processing Unit (CPU), controller, microcontroller, microprocessor, or other data processing chip in some embodiments.
  • the processor 12 is typically used to control the overall operation of the electronic device 10.
  • the processor 12 is configured to run program code or processing data stored in the memory 11, such as an operating identity recognition program based on face images and voiceprint information.
  • the network interface 13 may include a wireless network interface or a wired network interface, which is typically used to establish a communication connection between the electronic device 10 and other electronic devices.
  • Communication bus 14 is used to implement a communication connection between components 11-13.
  • FIG. 1 shows only an electronic device 10 having components 11-14 and an identity recognition program based on facial image and voiceprint information, but it should be understood that not all illustrated components may be implemented, and alternative implementations may be implemented. More or fewer components.
  • the electronic device 10 may further include a user interface (not shown in FIG. 1), and the user interface may include a display, an input unit such as a keyboard, wherein the user interface may further include a standard wired interface, a wireless interface, and the like.
  • the display may be an LED display, a liquid crystal display, a touch-sensitive liquid crystal display, an OLED touch device, or the like. Further, the display may also be referred to as a display screen or display unit for displaying information processed in the electronic device 10 and a user interface for displaying visualizations.
  • the similarity obtained by the analysis is less than or equal to the preset similarity threshold, it is determined that the identity of the user is not passed, and the identity recognition failure instruction is sent to the terminal.
  • the terminal has a voiceprint collection function and a face image collection function
  • the terminal may be, for example, an access recognition device, specifically, in this embodiment
  • the terminal may generate a message prompting the user to speak on the display of the terminal through a predetermined voiceprint information collection manner, and collect the user through the microphone.
  • the pre-trained data processing model may be, for example, a two-channel convolutional neural network model; the first part of the dual-channel convolutional neural network model is a feature extraction network, and the feature The extraction network consists of two independent convolutional neural network branches.
  • the network structure of the two convolutional neural network branches is the same, consisting of the input layer, three convolutional layers and two pooling layers.
  • the second part Generating a network for a feature vector, the feature vector generation network comprising a serial layer, and a fully connected layer;
  • the first layer of the dual channel convolutional neural network is an input layer, and the input layer comprises two channels, one channel Inputting the acquired voiceprint information, another channel for inputting the captured face image;
  • the second layer of the two-channel convolutional neural network is a convolutional layer, in two convolutional neural network branches
  • the input voiceprint information and the face image are convoluted by N1 N1 ⁇ H1 dimensional convolution kernels respectively, and the sum of the convolution responses is N1 L1 ⁇ L1 through the nonlinear excitation function ReLU.
  • the characteristic map of the two-channel convolutional neural network is a pooling layer, and in each of the two convolutional neural network branches, the feature map of each L1 ⁇ L1 dimension outputted by the upper convolutional layer is equally divided. For L2 ⁇ L2 non-overlapping rectangular sub-regions, the maximum value of each sub-region is taken for downsampling operation to generate N1 L2 ⁇ L2 dimensional feature maps; the fourth layer of the convolutional neural network is a convolution layer.
  • N2 H2 ⁇ H2 dimensional convolution kernels are used to perform two-dimensional convolution on the output image of the upper pooling layer. The sum of the convolution responses is N2 through the nonlinear excitation function ReLU.
  • the fifth layer of the two-channel convolutional neural network is a pooling layer, and each of the L3 ⁇ L3 dimensions of the upper convolutional layer is respectively outputted in two convolutional neural network branches
  • the feature map is divided into L4 ⁇ L4 non-overlapping rectangular sub-regions, and the maximum value of each sub-region is used for downsampling operation to generate N2 L4 ⁇ L4 dimensional feature maps
  • the sixth of the two-channel convolutional neural networks The layer is a convolutional layer, in the two convolutional neural network branches, respectively
  • the N3 H3 ⁇ H3 dimensional convolution kernels are used to perform two-dimensional convolution on the output image of the upper pooling layer, and the sum of the convolution responses is mapped by the nonlinear excitation function ReLU to obtain N3 L5 ⁇ L5 dimensional feature maps
  • the seventh layer of the two-channel convolutional neural network is a serial layer, which serially connects the outputs of the two convolutional neural network branches to obtain a
  • the fully connected layer maps the upper layer of N3+N3 feature maps to N4 neurons, and passes through the nonlinear excitation function ReLU to map an N4 dimension.
  • a feature vector which is a fusion feature vector that combines two channel features of the input sample.
  • the voiceprint information and the face image returned by the terminal are processed according to the dual channel convolutional neural network model. Obtaining a first feature vector, which is a feature vector that fuses the input voiceprint information and the face image.
  • the predefined similarity analysis algorithm is a cosine similarity algorithm
  • the cosine similarity algorithm uses the cosine of the angles of two vectors in the vector space as a measure of the difference between the two individuals. .
  • cosine similarity pays more attention to the difference in direction between two vectors, rather than distance or length.
  • the calculation formula of the cosine similarity algorithm is:
  • A is a first feature vector and B is a second feature vector.
  • the pre-trained data processing model includes a model training process and a model testing process; the training process of the data processing model may be, for example:
  • the sample information is divided into a training subset of a first ratio and a test subset of a second ratio;
  • the testing process of the data processing model can be, for example:
  • the probability that the similarity obtained by the analysis is less than or equal to the preset similarity threshold is greater than the preset probability threshold, determining that the test for the data processing model fails, or if the similarity obtained by the analysis is less than or equal to the preset similarity
  • the probability value of the degree threshold is less than the preset probability threshold, and then the test pass for the data processing model is determined.
  • the electronic device proposed by the present application first sends an instruction for collecting the voiceprint information of the user and the image of the face to the terminal after receiving the request for identifying the identity of the user sent by the terminal;
  • the completed data processing model processes the voiceprint information and the face image returned by the terminal to obtain a first feature vector; and the first feature vector and the pre-stored second feature vector are analyzed according to a predefined similarity analysis algorithm.
  • the second feature vector is a pre-stored standard sample vector of the user; if the similarity obtained by the analysis is less than or equal to a preset similarity threshold, determining that the identity of the user passes, to the The terminal sends an identity recognition command, and if the similarity obtained by the analysis is greater than a preset similarity threshold, it is determined that the identity of the user does not pass, and the identity recognition fails the instruction to the terminal.
  • the face image and the voiceprint information can be simultaneously recognized, and the accuracy of the identity recognition is improved while ensuring the identity recognition efficiency.
  • the identity recognition program based on the face image and the voiceprint information of the present application may be described by using a program module having the same function according to different functions implemented by the respective parts.
  • FIG. 2 is a schematic diagram of a program module of an identity recognition program based on face image and voiceprint information in an embodiment of the electronic device of the present application.
  • the identity recognition program based on the face image and the voiceprint information may be divided into the sending module 201, the processing module 202, the analyzing module 203, and the determining module 204 according to different functions implemented by the respective portions.
  • the program module referred to in the present application refers to a series of computer program instruction segments capable of performing a specific function, and is more suitable for describing an identity recognition program based on face image and voiceprint information in the electronic device 10 than the program.
  • the functions or operational steps implemented by the modules 201-204 are similar to the above, and are not described in detail herein, by way of example, for example:
  • the sending module 201 is configured to, after receiving the request for identifying the identity of the user sent by the terminal, send an instruction for collecting the voiceprint information of the user and capturing the face image to the terminal;
  • the processing module 202 is configured to process the voiceprint information and the face image returned by the terminal according to the data processing model that is pre-trained to obtain a first feature vector;
  • the analyzing module 203 is configured to analyze, according to a predefined similarity analysis algorithm, a similarity between the obtained first feature vector and the pre-stored second feature vector, where the second feature vector is a pre-stored standard sample vector of the user;
  • the first determining module 204 is configured to: if the similarity obtained by the analysis is greater than a preset similarity threshold, determine that the identity of the user passes, and send an identity passing instruction to the terminal;
  • the second determining module 205 is configured to: if the similarity obtained by the analysis is less than or equal to a preset similarity threshold, determine that the user identity does not pass, and send an identity fail command to the terminal.
  • the present application also provides an identification method based on face image and voiceprint information.
  • the method for identifying a face image and voiceprint information includes the following steps:
  • Step S301 after receiving the request for identifying the identity of the user sent by the terminal, sending an instruction for collecting the voiceprint information of the user and capturing the face image to the terminal;
  • Step S302 processing the voiceprint information and the face image returned by the terminal according to the data processing model completed in advance to obtain a first feature vector
  • Step S303 analyzing a similarity between the obtained first feature vector and the pre-stored second feature vector according to a predefined similarity analysis algorithm, where the second feature vector is a pre-stored standard sample vector of the user;
  • Step S304 if the similarity obtained by the analysis is greater than a preset similarity threshold, determining that the identity of the user passes, and sending an identity passing instruction to the terminal;
  • Step S305 If the similarity obtained by the analysis is less than or equal to the preset similarity threshold, it is determined that the user identity does not pass, and the identity recognition failure command is sent to the terminal.
  • the terminal has a voiceprint collection function and a face image collection function
  • the terminal may be, for example, an access recognition device, specifically, in this embodiment
  • the terminal may generate a message prompting the user to speak on the display of the terminal through a predetermined voiceprint information collection manner, and collect the user through the microphone.
  • the pre-trained data processing model may be, for example, a two-channel convolutional neural network model; the first part of the dual-channel convolutional neural network model is a feature extraction network, and the feature The extraction network consists of two independent convolutional neural network branches.
  • the network structure of the two convolutional neural network branches is the same, consisting of the input layer, three convolutional layers and two pooling layers.
  • the second part Generating a network for a feature vector, the feature vector generation network comprising a serial layer, and a fully connected layer;
  • the first layer of the dual channel convolutional neural network is an input layer, and the input layer comprises two channels, one channel Inputting the acquired voiceprint information, another channel for inputting the captured face image;
  • the second layer of the two-channel convolutional neural network is a convolutional layer, in two convolutional neural network branches
  • the input voiceprint information and the face image are convoluted by N1 N1 ⁇ H1 dimensional convolution kernels respectively, and the sum of the convolution responses is N1 L1 ⁇ L1 through the nonlinear excitation function ReLU.
  • the characteristic map of the two-channel convolutional neural network is a pooling layer, and in each of the two convolutional neural network branches, the feature map of each L1 ⁇ L1 dimension outputted by the upper convolutional layer is equally divided. For L2 ⁇ L2 non-overlapping rectangular sub-regions, the maximum value of each sub-region is taken for downsampling operation to generate N1 L2 ⁇ L2 dimensional feature maps; the fourth layer of the convolutional neural network is a convolution layer.
  • N2 H2 ⁇ H2 dimensional convolution kernels are used to perform two-dimensional convolution on the output image of the upper pooling layer. The sum of the convolution responses is N2 through the nonlinear excitation function ReLU.
  • the fifth layer of the two-channel convolutional neural network is a pooling layer, and each of the L3 ⁇ L3 dimensions of the upper convolutional layer is respectively outputted in two convolutional neural network branches
  • the feature map is divided into L4 ⁇ L4 non-overlapping rectangular sub-regions, and the maximum value of each sub-region is used for downsampling operation to generate N2 L4 ⁇ L4 dimensional feature maps;
  • the second channel convolutional neural network is sixth.
  • the layer is a convolutional layer, in the two convolutional neural network branches, respectively
  • the N3 H3 ⁇ H3 dimensional convolution kernels are used to perform two-dimensional convolution on the output image of the upper pooling layer, and the sum of the convolution responses is mapped by the nonlinear excitation function ReLU to obtain N3 L5 ⁇ L5 dimensional feature maps;
  • the seventh layer of the two-channel convolutional neural network is a serial layer, which serially connects the outputs of the two convolutional neural network branches to obtain a feature map of N3+N3 L5 ⁇ L5 dimensions;
  • the eighth layer of the channel convolutional neural network is a fully connected layer.
  • the fully connected layer maps the upper layer of N3+N3 feature maps to N4 neurons, and passes through the nonlinear excitation function ReLU to map an N4 dimension.
  • a feature vector which is a fusion feature vector that combines two channel features of the input sample.
  • the voiceprint information and the face image returned by the terminal are processed according to the dual channel convolutional neural network model. Obtaining a first feature vector, which is a feature vector that fuses the input voiceprint information and the face image.
  • the predefined similarity analysis algorithm is a cosine similarity algorithm
  • the cosine similarity algorithm uses the cosine of the angles of two vectors in the vector space as a measure of the difference between the two individuals. .
  • cosine similarity pays more attention to the difference in direction between two vectors, rather than distance or length.
  • the calculation formula of the cosine similarity algorithm is:
  • A is a first feature vector and B is a second feature vector.
  • the pre-trained data processing model includes a model training process and a model testing process; the training process of the data processing model may be, for example:
  • the sample information is divided into a training subset of a first ratio and a test subset of a second ratio;
  • the testing process of the data processing model can be, for example:
  • the probability that the similarity obtained by the analysis is less than or equal to the preset similarity threshold is greater than the preset probability threshold, determining that the test for the data processing model fails, or if the similarity obtained by the analysis is less than or equal to the preset similarity
  • the probability value of the degree threshold is less than the preset probability threshold, and then the test pass for the data processing model is determined.
  • the method for identifying a face image and a voiceprint information proposed by the present application first sends a voiceprint information of the user to the terminal after receiving the request for identifying the user identity sent by the terminal.
  • the face image and the voiceprint information can be simultaneously recognized, and
  • the present application further provides a computer readable storage medium on which an identity recognition program based on a face image and voiceprint information is stored, and the identification based on face image and voiceprint information
  • the program is executed by the processor, the following operations are implemented:
  • the similarity obtained by the analysis is less than or equal to the preset similarity threshold, it is determined that the identity of the user is not passed, and the identity recognition failure instruction is sent to the terminal.
  • the specific embodiment of the computer readable storage medium of the present application is substantially the same as the foregoing embodiments of the electronic device and the method for distributing an upgrade version based on load weight scheduling, and is not described herein.
  • the foregoing embodiment method can be implemented by means of software plus a necessary general hardware platform, and of course, can also be through hardware, but in many cases, the former is better.
  • Implementation Based on such understanding, the technical solution of the present application, which is essential or contributes to the prior art, may be embodied in the form of a software product stored in a storage medium (such as ROM/RAM, disk,
  • the optical disc includes a number of instructions for causing a terminal device (which may be a mobile phone, a computer, a server, an air conditioner, or a network device, etc.) to perform the methods described in various embodiments of the present application.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

一种电子装置、基于人脸图像及声纹信息的身份识别方法及存储介质,所述基于人脸图像及声纹信息的身份识别方法包括:向终端发送采集该用户的声纹信息及摄取人脸图像的指令;将所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户的身份识别通过,若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别不通过。能够将人脸图像和声纹信息同时进行识别,在保证身份识别效率的同时提高了身份识别的准确率。

Description

电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质
本申请要求于2018年4月28日提交中国专利局、申请号为2018104015589,发明名称为“电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及人脸识别技术领域,尤其涉及一种电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质。
背景技术
常用的人脸识别技术通常只是识别人的面部特征,无法防止恶意者伪造和窃取他人的生物特征来冒充别人进行身份认证,产生一定的安全风险。因此,在进行人脸识别的同时还需要进行人脸活体检测。而目前对人脸活体检测的方法是通过对待识别的人脸进行指令动作配合的方式,如人脸左转、右转、张嘴、眨眼等指令动作,如果人脸对指令动作配合错误则认为是伪造欺骗。这种人脸活体检测的方法和人脸图像的识别是分开进行的,导致整个身份识别效率低下,特别是在待识别身份的人数较多的情况下,严重影响身份识别的效率,浪费大量的时间。
发明内容
有鉴于此,本申请提出一种电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质,能够将人脸图像和声纹信息同时进行识别,在保证身份识别效率的同时提高了身份识别的准确率。
首先,为实现上述目的,本申请提出一种电子装置,所述电子装置包括存储器、及与所述存储器连接的处理器,所述处理器用于执行所述存储器上存储的基于人脸图像与声纹信息的身份识别程序,所述基于人脸图像与声纹 信息的身份识别程序被所述处理器执行时实现如下步骤:
A1、接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
A2、根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
A3、根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
A4、若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别通过,并向所述终端发送身份识别通过指令;
A5、若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
此外,为实现上述目的,本申请还提供一种基于人脸图像与声纹信息的身份识别方法,所述方法包括如下步骤:
S1、接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
S2、根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
S3、根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
S4、若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别通过,并向所述终端发送身份识别通过指令;
S5、若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
此外,为实现上述目的,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质存储有基于人脸图像与声纹信息的身份识别程序,所述基于人脸图像与声纹信息的身份识别程序可被至少一个处理器执行,以使所述至少一个处理器执行如下步骤:
接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别通过,并向所述终端发送身份识别通过指令;
若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
相较于现有技术,本申请所提出的电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质,首选在接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户的身份识别通过,向所述终端发送身份识别通过指令,若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别不通过,向所述终端发送身份识别不通过指令。能够将人脸图像和声纹信息同时进行识别,在保证身份识别效率的同时提高了身份识别的准确率。
附图说明
图1是本申请提出的电子装置一可选的硬件架构的示意图;
图2是本申请电子装置一实施例中基于人脸图像与声纹信息的身份识别程序的程序模块示意图;
图3是本申请基于人脸图像与声纹信息的身份识别方法较佳实施例的实施流程图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,在本申请中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
参阅图1所示,是本申请提出的电子装置一可选的硬件架构示意图。本实施例中,电子装置10可包括,但不仅限于,可通过通信总线14相互通信连接存储器11、处理器12、网络接口13。需要指出的是,图1仅示出了具有组件11-14的电子装置10,但是应理解的是,并不要求实施所有示出的组件, 可以替代的实施更多或者更少的组件。
其中,存储器11至少包括一种类型的计算机可读存储介质,计算机可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器11可以是电子装置10的内部存储单元,例如电子装置10的硬盘或内存。在另一些实施例中,存储器11也可以是电子装置10的外包存储设备,例如电子装置10上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器11还可以既包括电子装置10的内部存储单元也包括其外包存储设备。本实施例中,存储器11通常用于存储安装于电子装置10的操作系统和各类应用软件,例如基于人脸图像与声纹信息的身份识别程序等。此外,存储器11还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器12在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。处理器12通常用于控制电子装置10的总体操作。本实施例中,处理器12用于运行存储器11中存储的程序代码或者处理数据,例如运行的基于人脸图像与声纹信息的身份识别程序等。
网络接口13可包括无线网络接口或有线网络接口,网络接口13通常用于在电子装置10与其他电子设备之间建立通信连接。
通信总线14用于实现组件11-13之间的通信连接。
图1仅示出了具有组件11-14以及基于人脸图像与声纹信息的身份识别程序的电子装置10,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,电子装置10还可以包括用户接口(图1中未示出),用户接口 可以包括显示器、输入单元比如键盘,其中,用户接口还可以包括标准的有线接口、无线接口等。
可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED触摸器等。进一步地,显示器也可称为显示屏或显示单元,用于显示在电子装置10中处理信息以及用于显示可视化的用户界面。
在一实施例中,存储器11中存储的基于人脸图像与声纹信息的身份识别程序被处理器12执行时,实现如下操作:
接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别通过,并向所述终端发送身份识别通过指令;
若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
需要说明的是,在本申请的各个实施方式中,所述终端具有声纹采集功能以及人脸图像采集功能,所述终端可以是,例如门禁识别设备,具体地,在本实施例中,所述终端在接收到采集声纹信息以及人脸图像的指令后,通过预先确定的声纹信息采集方式,例如可以是,在所述终端的显示器上生成提示用户说话的信息,并通过话筒采集用户根据所述显示器的提示信息发出的声音,生成声纹信息,并在采集声音的同时,通过安装在所述显示器上的摄像头摄取该用户的人脸图像,这样可以保证采集到的用户人脸图像包含有该用户说话时的某一动作,能够进一步防止闯入者利用高像素图像闯入。
进一步地,在本实施例中,所述预先训练完成的数据处理模型可以是,例如双通道卷积神经网络模型;所述双通道卷积神经网络模型的第一部分为特征提取网络,所述特征提取网络由两个相互独立的卷积神经网络分支构成,其中,两个卷积神经网络分支的网络结构相同,均由输入层、三个卷积层和两个池化层构成;第二部分为特征向量生成网络,所述特征向量生成网络包括串接层、和全连接层;所述双通道卷积神经网络的第一层为输入层,所述输入层包含两个通道,一个通道用于输入采集的所述声纹信息,另一个通道用于输入摄取的所述人脸图像;所述双通道卷积神经网络的第二层为卷积层,在两个卷积神经网络分支中,分别采用N1个N1×H1维的卷积核对输入的声纹信息和人脸图像进行卷积,卷积响应的和经过非线性激励函数ReLU,映射得到N1个L1×L1维的特征图;所述双通道卷积神经网络的第三层为池化层,在两个卷积神经网络分支中,分别将上层卷积层输出的每个L1×L1维的特征图平均分割为L2×L2个不重叠的矩形子区域,取每个子区域的最大值进行降采样操作,生成N1个L2×L2维的特征图;所述卷积神经网络的第四层为卷积层,在两个卷积神经网络中,分别采用N2个H2×H2维的卷积核对上层池化层的输出图像进行二维卷积,卷积响应的和经过非线性激励函数ReLU,映射得到N2个L3×L3维的特征图;所述双通道卷积神经网络的第五层为池化层,在两个卷积神经网络分支中,分别将上层卷积层输出的每个L3×L3维的特征图平均分割成为L4×L4个不重叠的矩形子区域,取每个子区域的最大值进行降采样操作,生成N2个L4×L4维的特征图;所述双通道卷积神经网络的第六层为卷积层,在两个卷积神经网络分支中,分别采用N3个H3×H3维的卷积核对上层池化层的输出图像进行二维卷积,卷积响应的和经过非线性激励函数ReLU,映射得到N3个L5×L5维的特征图;所述双通道卷积神经网络的第七层为串接层,所述串接层将两个卷积神经网络分支的输出进行串接,得到N3+N3个L5×L5维的特征图;所述双通道卷积神经网络的第八层为全连接层,所述全连接层将上层的N3+N3个特征图权利啊姐到N4个神经元,经过非线性激励函数ReLU,映 射得到一个N4维的特征向量,该特征向量为融合了输入样本两个通道特征的融合特征向量,在本实施例中,根据该双通道卷积神经网络模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量,该第一特征向量为融合了输入的声纹信息以及人脸图像的特征向量。
进一步地,在本实施例中,所述预定义的相似性分析算法为余弦相似度算法,该余弦相似度算法用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。相比距离度量,余弦相似度更加注重两个向量在方向上的差异,而非距离或长度上。所述余弦相似度算法的计算公式为:
Figure PCTCN2018102085-appb-000001
在本实施例中,A为第一特征向量,B为第二特征向量。
进一步地,所述预先训练完成的数据处理模型包括模型训练过程及模型测试过程;所述数据处理模型的训练过程可以是,例如:
E、分别获取预设数量的具有身份标识信息的声纹信息及人脸图像信息,构成预设数量的样本信息对;
F、将所述样本信息对分为第一比例的训练子集和第二比例的测试子集;
G、利用所述训练子集中的样本信息对训练所述数据处理模型,以得到训练好的数据处理模型;
H、利用所述测试子集中的样本信息对对所述数据处理模型进行测试,若测试通过,则训练结束,或者,若测试不通过,则增加所述样本信息对中样本的数量并重新执行上述步骤E、F、G。
所述数据处理模型的测试过程可以是,例如:
利用训练好的所述数据处理模型分别对所述测试子集中的样本信息对进行处理,以得到所述测试子集中的各个样本信息对对应的第一特征向量;
分别获取预存的所述测试子集中的各个样本信息对对应的用户的第二特征向量,生成第一特征向量与第二特征向量之间的映射关系表;
根据所述预定义的相似性分析算法分别分析所述映射关系表中的各个第 一特征向量与相映射的第二特征向量之间的相似度;
若分析得到的相似度小于或等于预设相似度阈值的概率值大于预设的概率阈值,则确定针对该数据处理模型的测试不通过,或者,若分析得到的相似度小于或等于预设相似度阈值的概率值小于预设的概率阈值,则确定针对该数据处理模型的测试通过。
由上述事实施例可知,本申请提出的电子装置首先在接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户的身份识别通过,向所述终端发送身份识别通过指令,若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别不通过,向所述终端发送身份识别不通过指令。能够将人脸图像和声纹信息同时进行识别,在保证身份识别效率的同时提高了身份识别的准确率。
进一步需要说明的是,本申请的基于人脸图像与声纹信息的身份识别程序依据其各部分所实现的功能不同,可用具有相同功能的程序模块进行描述。请参阅图2所示,是本申请电子装置一实施例中基于人脸图像与声纹信息的身份识别程序的程序模块示意图。本实施例中,基于人脸图像与声纹信息的身份识别程序依据其各部分所实现的功能的不同,可以被分割成发送模块201、处理模块202、分析模块203、以及确定模块204。由上面的描述可知,本申请所称的程序模块是指能够完成特定功能的一系列计算机程序指令段,比程序更适合于描述基于人脸图像与声纹信息的身份识别程序在电子装置10中的执行过程。所述模块201-204所实现的功能或操作步骤均与上文类似,此处不再详述,示例性地,例如其中:
发送模块201用于在接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
处理模块202用于根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
分析模块203用于根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
第一确定模块204用于在若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别通过,并向所述终端发送身份识别通过指令;
第二确定模块205用于在若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
此外,本申请还提出一种基于人脸图像与声纹信息的身份识别方法,请参阅图3所示,所述基于人脸图像与声纹信息的身份识别方法包括如下步骤:
步骤S301,接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
步骤S302,根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
步骤S303,根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
步骤S304,若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别通过,并向所述终端发送身份识别通过指令;
步骤S305,若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
需要说明的是,在本申请的各个实施方式中,所述终端具有声纹采集功 能以及人脸图像采集功能,所述终端可以是,例如门禁识别设备,具体地,在本实施例中,所述终端在接收到采集声纹信息以及人脸图像的指令后,通过预先确定的声纹信息采集方式,例如可以是,在所述终端的显示器上生成提示用户说话的信息,并通过话筒采集用户根据所述显示器的提示信息发出的声音,生成声纹信息,并在采集声音的同时,通过安装在所述显示器上的摄像头摄取该用户的人脸图像,这样可以保证采集到的用户人脸图像包含有该用户说话时的某一动作,能够进一步防止闯入者利用高像素图像闯入。
进一步地,在本实施例中,所述预先训练完成的数据处理模型可以是,例如双通道卷积神经网络模型;所述双通道卷积神经网络模型的第一部分为特征提取网络,所述特征提取网络由两个相互独立的卷积神经网络分支构成,其中,两个卷积神经网络分支的网络结构相同,均由输入层、三个卷积层和两个池化层构成;第二部分为特征向量生成网络,所述特征向量生成网络包括串接层、和全连接层;所述双通道卷积神经网络的第一层为输入层,所述输入层包含两个通道,一个通道用于输入采集的所述声纹信息,另一个通道用于输入摄取的所述人脸图像;所述双通道卷积神经网络的第二层为卷积层,在两个卷积神经网络分支中,分别采用N1个N1×H1维的卷积核对输入的声纹信息和人脸图像进行卷积,卷积响应的和经过非线性激励函数ReLU,映射得到N1个L1×L1维的特征图;所述双通道卷积神经网络的第三层为池化层,在两个卷积神经网络分支中,分别将上层卷积层输出的每个L1×L1维的特征图平均分割为L2×L2个不重叠的矩形子区域,取每个子区域的最大值进行降采样操作,生成N1个L2×L2维的特征图;所述卷积神经网络的第四层为卷积层,在两个卷积神经网络中,分别采用N2个H2×H2维的卷积核对上层池化层的输出图像进行二维卷积,卷积响应的和经过非线性激励函数ReLU,映射得到N2个L3×L3维的特征图;所述双通道卷积神经网络的第五层为池化层,在两个卷积神经网络分支中,分别将上层卷积层输出的每个L3×L3维的特征图平均分割成为L4×L4个不重叠的矩形子区域,取每个子区域的最大值进行降采样操作, 生成N2个L4×L4维的特征图;所述双通道卷积神经网络的第六层为卷积层,在两个卷积神经网络分支中,分别采用N3个H3×H3维的卷积核对上层池化层的输出图像进行二维卷积,卷积响应的和经过非线性激励函数ReLU,映射得到N3个L5×L5维的特征图;所述双通道卷积神经网络的第七层为串接层,所述串接层将两个卷积神经网络分支的输出进行串接,得到N3+N3个L5×L5维的特征图;所述双通道卷积神经网络的第八层为全连接层,所述全连接层将上层的N3+N3个特征图权利啊姐到N4个神经元,经过非线性激励函数ReLU,映射得到一个N4维的特征向量,该特征向量为融合了输入样本两个通道特征的融合特征向量,在本实施例中,根据该双通道卷积神经网络模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量,该第一特征向量为融合了输入的声纹信息以及人脸图像的特征向量。
进一步地,在本实施例中,所述预定义的相似性分析算法为余弦相似度算法,该余弦相似度算法用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。相比距离度量,余弦相似度更加注重两个向量在方向上的差异,而非距离或长度上。所述余弦相似度算法的计算公式为:
Figure PCTCN2018102085-appb-000002
在本实施例中,A为第一特征向量,B为第二特征向量。
进一步地,所述预先训练完成的数据处理模型包括模型训练过程及模型测试过程;所述数据处理模型的训练过程可以是,例如:
E、分别获取预设数量的具有身份标识信息的声纹信息及人脸图像信息,构成预设数量的样本信息对;
F、将所述样本信息对分为第一比例的训练子集和第二比例的测试子集;
G、利用所述训练子集中的样本信息对训练所述数据处理模型,以得到训练好的数据处理模型;
H、利用所述测试子集中的样本信息对对所述数据处理模型进行测试,若测试通过,则训练结束,或者,若测试不通过,则增加所述样本信息对中样 本的数量并重新执行上述步骤E、F、G。
所述数据处理模型的测试过程可以是,例如:
利用训练好的所述数据处理模型分别对所述测试子集中的样本信息对进行处理,以得到所述测试子集中的各个样本信息对对应的第一特征向量;
分别获取预存的所述测试子集中的各个样本信息对对应的用户的第二特征向量,生成第一特征向量与第二特征向量之间的映射关系表;
根据所述预定义的相似性分析算法分别分析所述映射关系表中的各个第一特征向量与相映射的第二特征向量之间的相似度;
若分析得到的相似度小于或等于预设相似度阈值的概率值大于预设的概率阈值,则确定针对该数据处理模型的测试不通过,或者,若分析得到的相似度小于或等于预设相似度阈值的概率值小于预设的概率阈值,则确定针对该数据处理模型的测试通过。
由上述事实施例可知,本申请提出的基于人脸图像与声纹信息的身份识别方法首先在接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户的身份识别通过,向所述终端发送身份识别通过指令,若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别不通过,向所述终端发送身份识别不通过指令。能够将人脸图像和声纹信息同时进行识别,在保证身份识别效率的同时提高了身份识别的准确率。
此外,本申请还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有基于人脸图像与声纹信息的身份识别程序,所述基于人脸图像与声纹信息的身份识别程序被处理器执行时实现如下操作:
接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别通过,并向所述终端发送身份识别通过指令;
若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
本申请计算机可读存储介质具体实施方式与上述电子装置以及基于负载权重调度发布升级版本应用的方法各实施例基本相同,在此不作累述。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种电子装置,其特征在于,所述电子装置包括存储器、及与所述存储器连接的处理器,所述处理器用于执行所述存储器上存储的基于人脸图像与声纹信息的身份识别程序,所述基于人脸图像与声纹信息的身份识别程序被所述处理器执行时实现如下步骤:
    A1、接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
    A2、根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
    A3、根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
    A4、若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别通过,并向所述终端发送身份识别通过指令;
    A5、若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
  2. 如权利要求1所述的电子装置,其特征在于,所述数据处理模型为双通道卷积神经网络模型,所述双通道卷积神经网络模型包括特征提取网络及特征向量生成网络;
    其中,所述特征提取网络由两个相互独立的卷积神经网络分支构成,且两个卷积神经网络分支的网络结构相同,均包括输入层、三个卷积层和两个池化层,所述特征向量生成网络包括串接层、和全连接层。
  3. 如权利要求2所述的电子装置,其特征在于,所述数据处理模型包括训练过程以及测试过程,所述数据处理模型的训练过程包括:
    E1、分别获取预设数量的具有身份标识信息的声纹信息及人脸图像信息,构成预设数量的样本信息对;
    F1、将所述样本信息对分为第一比例的训练子集和第二比例的测试子集;
    G1、利用所述训练子集中的样本信息对训练所述数据处理模型,以得到训练好的数据处理模型;
    H1、利用所述测试子集中的样本信息对对所述数据处理模型进行测试,若测试通过,则训练结束,或者,若测试不通过,则增加所述样本信息对中样本的数量并重新执行上述步骤E1、F1、G1。
  4. 如权利要求3所述的电子装置,其特征在于,所述数据处理模型的测试过程包括:
    利用训练好的所述数据处理模型分别对所述测试子集中的样本信息对进行处理,以得到所述测试子集中的各个样本信息对对应的第一特征向量;
    分别获取预存的所述测试子集中的各个样本信息对对应的用户的第二特征向量,生成第一特征向量与第二特征向量之间的映射关系表;
    根据所述预定义的相似性分析算法分别分析所述映射关系表中的各个第一特征向量与相映射的第二特征向量之间的相似度;
    若分析得到的相似度小于或等于预设相似度阈值的概率值大于预设的概率阈值,则确定针对该数据处理模型的测试不通过,或者,若分析得到的相似度小于或等于预设相似度阈值的概率值小于预设的概率阈值,则确定针对该数据处理模型的测试通过。
  5. 如权利要求1所述的电子装置,其特征在于,所述预定义的相似性分析算法为余弦相似度算法,所述余弦相似度算法的计算公式为:
    Figure PCTCN2018102085-appb-100001
    其中,A为所述第一特征向量,B为所述第二特征向量。
  6. 如权利要求2所述的电子装置,其特征在于,所述预定义的相似性分析算法为余弦相似度算法,所述余弦相似度算法的计算公式为:
    Figure PCTCN2018102085-appb-100002
    其中,A为所述第一特征向量,B为所述第二特征向量。
  7. 如权利要求3所述的电子装置,其特征在于,所述预定义的相似性分析算法为余弦相似度算法,所述余弦相似度算法的计算公式为:
    Figure PCTCN2018102085-appb-100003
    其中,A为所述第一特征向量,B为所述第二特征向量。
  8. 如权利要求4所述的电子装置,其特征在于,所述预定义的相似性分析算法为余弦相似度算法,所述余弦相似度算法的计算公式为:
    Figure PCTCN2018102085-appb-100004
    其中,A为所述第一特征向量,B为所述第二特征向量。
  9. 一种基于人脸图像与声纹信息的身份识别方法,其特征在于,所述方法包括如下步骤:
    S1、接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
    S2、根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
    S3、根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
    S4、若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识别通过,并向所述终端发送身份识别通过指令;
    S5、若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
  10. 如权利要求9所述的基于人脸图像与声纹信息的身份识别方法,其特征在于,所述数据处理模型为双通道卷积神经网络模型,所述双通道卷积神经网络模型包括特征提取网络及特征向量生成网络;
    其中,所述特征提取网络由两个相互独立的卷积神经网络分支构成,且两个卷积神经网络分支的网络结构相同,均包括输入层、三个卷积层和两个池化层,所述特征向量生成网络包括串接层、和全连接层。
  11. 如权利要求10所述的基于人脸图像与声纹信息的身份识别方法,其特征在于,所述数据处理模型包括训练过程以及测试过程,所述数据处理模型的训练过程包括:
    E2、分别获取预设数量的具有身份标识信息的声纹信息及人脸图像信息,构成预设数量的样本信息对;
    F2、将所述样本信息对分为第一比例的训练子集和第二比例的测试子集;
    G2、利用所述训练子集中的样本信息对训练所述数据处理模型,以得到训练好的数据处理模型;
    H2、利用所述测试子集中的样本信息对对所述数据处理模型进行测试,若测试通过,则训练结束,或者,若测试不通过,则增加所述样本信息对中样本的数量并重新执行上述步骤E2、F2、G2。
  12. 如权利要求11所述的基于人脸图像与声纹信息的身份识别方法,其特征在于,所述数据处理模型的测试过程包括:
    利用训练好的所述数据处理模型分别对所述测试子集中的样本信息对进行处理,以得到所述测试子集中的各个样本信息对对应的第一特征向量;
    分别获取预存的所述测试子集中的各个样本信息对对应的用户的第二特征向量,生成第一特征向量与第二特征向量之间的映射关系表;
    根据所述预定义的相似性分析算法分别分析所述映射关系表中的各个第一特征向量与相映射的第二特征向量之间的相似度;
    若分析得到的相似度小于或等于预设相似度阈值的概率值大于预设的概率阈值,则确定针对该数据处理模型的测试不通过,或者,若分析得到的相似度小于或等于预设相似度阈值的概率值小于预设的概率阈值,则确定针对该数据处理模型的测试通过。
  13. 如权利要求9所述的基于人脸图像与声纹信息的身份识别方法,其特征在于,所述预定义的相似性分析算法为余弦相似度算法,所述余弦相似度算法的计算公式为:
    Figure PCTCN2018102085-appb-100005
    其中,A为所述第一特征向量,B为所述第二特征向量。
  14. 如权利要求10所述的基于人脸图像与声纹信息的身份识别方法,其特征在于,所述预定义的相似性分析算法为余弦相似度算法,所述余弦相似度算法的计算公式为:
    Figure PCTCN2018102085-appb-100006
    其中,A为所述第一特征向量,B为所述第二特征向量。
  15. 如权利要求11所述的基于人脸图像与声纹信息的身份识别方法,其特征在于,所述预定义的相似性分析算法为余弦相似度算法,所述余弦相似度算法的计算公式为:
    Figure PCTCN2018102085-appb-100007
    其中,A为所述第一特征向量,B为所述第二特征向量。
  16. 一种计算机可读存储介质,所述计算机可读存储介质存储有基于人脸图像与声纹信息的身份识别程序,所述基于人脸图像与声纹信息的身份识别程序可被至少一个处理器执行,以使所述至少一个处理器执行如下步骤:
    接收到终端发送的识别用户身份的请求后,向所述终端发送采集该用户的声纹信息及摄取人脸图像的指令;
    根据预先训练完成的数据处理模型对所述终端返回的声纹信息以及人脸图像进行处理,得到第一特征向量;
    根据预定义的相似性分析算法分析得到的第一特征向量与预存的第二特征向量之间的相似度,所述第二特征向量为预存的该用户的标准样本向量;
    若分析得到的相似度大于预设的相似度阈值,则确定对该用户的身份识 别通过,并向所述终端发送身份识别通过指令;
    若分析得到的相似度小于或等于预设的相似度阈值,则确定对该用户身份识别不通过,并向所述终端发送身份识别不通过指令。
  17. 如权利要求16所述的存储介质,其特征在于,所述数据处理模型为双通道卷积神经网络模型,所述双通道卷积神经网络模型包括特征提取网络及特征向量生成网络;
    其中,所述特征提取网络由两个相互独立的卷积神经网络分支构成,且两个卷积神经网络分支的网络结构相同,均包括输入层、三个卷积层和两个池化层,所述特征向量生成网络包括串接层、和全连接层。
  18. 如权利要求17所述的存储介质,其特征在于,所述数据处理模型包括训练过程以及测试过程,所述数据处理模型的训练过程包括:
    E2、分别获取预设数量的具有身份标识信息的声纹信息及人脸图像信息,构成预设数量的样本信息对;
    F2、将所述样本信息对分为第一比例的训练子集和第二比例的测试子集;
    G2、利用所述训练子集中的样本信息对训练所述数据处理模型,以得到训练好的数据处理模型;
    H2、利用所述测试子集中的样本信息对对所述数据处理模型进行测试,若测试通过,则训练结束,或者,若测试不通过,则增加所述样本信息对中样本的数量并重新执行上述步骤E2、F2、G2。
  19. 如权利要求18所述的存储介质,其特征在于,所述数据处理模型的测试过程包括:
    利用训练好的所述数据处理模型分别对所述测试子集中的样本信息对进行处理,以得到所述测试子集中的各个样本信息对对应的第一特征向量;
    分别获取预存的所述测试子集中的各个样本信息对对应的用户的第二特征向量,生成第一特征向量与第二特征向量之间的映射关系表;
    根据所述预定义的相似性分析算法分别分析所述映射关系表中的各个第 一特征向量与相映射的第二特征向量之间的相似度;
    若分析得到的相似度小于或等于预设相似度阈值的概率值大于预设的概率阈值,则确定针对该数据处理模型的测试不通过,或者,若分析得到的相似度小于或等于预设相似度阈值的概率值小于预设的概率阈值,则确定针对该数据处理模型的测试通过。
  20. 如权利要求16所述的存储介质,其特征在于,所述预定义的相似性分析算法为余弦相似度算法,所述余弦相似度算法的计算公式为:
    Figure PCTCN2018102085-appb-100008
    其中,A为所述第一特征向量,B为所述第二特征向量。
PCT/CN2018/102085 2018-04-28 2018-08-24 电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质 WO2019205369A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810401558.9 2018-04-28
CN201810401558.9A CN108446674A (zh) 2018-04-28 2018-04-28 电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质

Publications (1)

Publication Number Publication Date
WO2019205369A1 true WO2019205369A1 (zh) 2019-10-31

Family

ID=63202405

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/102085 WO2019205369A1 (zh) 2018-04-28 2018-08-24 电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质

Country Status (2)

Country Link
CN (1) CN108446674A (zh)
WO (1) WO2019205369A1 (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339884A (zh) * 2020-02-19 2020-06-26 浙江大华技术股份有限公司 图像识别方法以及相关设备、装置
CN111428612A (zh) * 2020-03-19 2020-07-17 深圳力维智联技术有限公司 行人重识别方法、终端、装置及存储介质
CN111639700A (zh) * 2020-05-28 2020-09-08 深圳壹账通智能科技有限公司 目标相似度识别方法、装置、计算机设备及可读存储介质
CN111883139A (zh) * 2020-07-24 2020-11-03 北京字节跳动网络技术有限公司 用于筛选目标语音的方法、装置、设备和介质
CN111968152A (zh) * 2020-07-15 2020-11-20 桂林远望智能通信科技有限公司 一种动态身份识别方法及装置
CN111985298A (zh) * 2020-06-28 2020-11-24 百度在线网络技术(北京)有限公司 人脸识别样本收集方法和装置
CN111985446A (zh) * 2020-09-02 2020-11-24 深圳壹账通智能科技有限公司 人脸识别方法以及系统
CN112348999A (zh) * 2020-09-23 2021-02-09 深圳Tcl新技术有限公司 电子锁控制方法、电子锁及计算机可读存储介质
CN112613376A (zh) * 2020-12-17 2021-04-06 深圳集智数字科技有限公司 重识别方法及装置,电子设备
CN113012088A (zh) * 2019-12-03 2021-06-22 浙江大搜车软件技术有限公司 一种电路板故障检测及孪生网络的训练方法、装置和设备
CN113435316A (zh) * 2021-06-25 2021-09-24 平安国际智慧城市科技股份有限公司 智能驱鸟方法、装置、电子设备及存储介质
CN113645107A (zh) * 2021-07-27 2021-11-12 广州市威士丹利智能科技有限公司 一种基于智能家居的网关端冲突解决方法及系统
CN114324330A (zh) * 2021-12-24 2022-04-12 深圳一信泰质量技术有限公司 一种超高清智能互动显示终端性能检测装置及方法
CN114565814A (zh) * 2022-02-25 2022-05-31 平安国际智慧城市科技股份有限公司 一种特征检测方法、装置及终端设备
CN116259095A (zh) * 2023-03-31 2023-06-13 南京审计大学 一种基于计算机的识别系统及方法
CN117273747A (zh) * 2023-09-28 2023-12-22 广州佳新智能科技有限公司 基于人脸图像识别的支付方法、装置、存储介质和设备

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063449A (zh) * 2018-10-11 2018-12-21 平安科技(深圳)有限公司 基于声纹的电子设备解锁方法及相关装置
CN109409297B (zh) * 2018-10-30 2021-11-23 咪付(广西)网络技术有限公司 一种基于双通道卷积神经网络的身份识别方法
CN109902252A (zh) * 2019-01-17 2019-06-18 平安城市建设科技(深圳)有限公司 用户成长体系的管理方法、装置、设备及存储介质
CN109919003A (zh) * 2019-01-23 2019-06-21 平安科技(深圳)有限公司 人脸识别方法、终端设备及计算机可读存储介质
CN110210194A (zh) * 2019-04-18 2019-09-06 深圳壹账通智能科技有限公司 电子合同显示方法、装置、电子设备及存储介质
CN110569707A (zh) * 2019-06-25 2019-12-13 深圳和而泰家居在线网络科技有限公司 一种身份识别方法和电子设备
CN110765849B (zh) * 2019-09-09 2024-04-09 中国平安财产保险股份有限公司 基于微表情的身份信息采集方法、装置和计算机设备
CN110969095A (zh) * 2019-11-06 2020-04-07 中央财经大学 一种信鸽的身份信息分析方法及装置
CN111178146A (zh) * 2019-12-06 2020-05-19 北京工业大学 基于人脸特征识别主播的方法及装置
CN111160110A (zh) * 2019-12-06 2020-05-15 北京工业大学 基于人脸特征和声纹特征识别主播的方法及装置
CN113360869A (zh) * 2020-03-04 2021-09-07 北京嘉诚至盛科技有限公司 启动应用的方法、电子设备和计算机可读介质
CN113408556B (zh) * 2020-03-16 2023-08-22 杭州海康威视数字技术股份有限公司 身份识别方法及装置
CN111652940A (zh) * 2020-04-30 2020-09-11 平安国际智慧城市科技股份有限公司 目标异常识别方法、装置、电子设备及存储介质
WO2021257000A1 (en) * 2020-06-19 2021-12-23 National University Of Singapore Cross-modal speaker verification
CN111862030B (zh) * 2020-07-15 2024-02-09 北京百度网讯科技有限公司 一种人脸合成图检测方法、装置、电子设备及存储介质
CN111709004B (zh) * 2020-08-19 2020-11-13 北京远鉴信息技术有限公司 一种身份认证方法、装置、电子设备及可读存储介质
CN112289306B (zh) * 2020-11-18 2024-03-26 上海依图网络科技有限公司 一种基于人体特征的未成年人识别的方法及装置
CN112464117A (zh) * 2020-12-08 2021-03-09 平安国际智慧城市科技股份有限公司 请求处理方法、装置、计算机设备和存储介质
CN113449271A (zh) * 2020-12-24 2021-09-28 深圳市天彦通信股份有限公司 用户设备功能解禁方法、装置、电子设备和存储介质
CN112613468B (zh) * 2020-12-31 2024-04-05 深圳平安智慧医健科技有限公司 基于人工智能的疫情排查方法及相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834849A (zh) * 2015-04-14 2015-08-12 时代亿宝(北京)科技有限公司 基于声纹识别和人脸识别的双因素身份认证方法及系统
EP2993616A1 (en) * 2014-09-05 2016-03-09 Huawei Technologies Co., Ltd. Method and apparatus for generating facial feature verification model
CN105426857A (zh) * 2015-11-25 2016-03-23 小米科技有限责任公司 人脸识别模型训练方法和装置
CN106127156A (zh) * 2016-06-27 2016-11-16 上海元趣信息技术有限公司 基于声纹和人脸识别的机器人交互方法
CN106897746A (zh) * 2017-02-28 2017-06-27 北京京东尚科信息技术有限公司 数据分类模型训练方法和装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140099003A1 (en) * 2012-10-09 2014-04-10 Richard Jay Langley Methods of maintaining the relative position between a data capture device and an operator of the device
KR101514551B1 (ko) * 2013-10-10 2015-04-24 재단법인대구경북과학기술원 환경 변화에 강인한 멀티모달 사용자 인식
US20160148012A1 (en) * 2014-11-19 2016-05-26 Speechpro, Inc. System, method and apparatus for voice biometric and interactive authentication
CN105512620B (zh) * 2015-11-30 2019-07-26 北京眼神智能科技有限公司 用于人脸识别的卷积神经网络的训练方法和装置
CN107404381A (zh) * 2016-05-19 2017-11-28 阿里巴巴集团控股有限公司 一种身份认证方法和装置
CN107665295A (zh) * 2016-07-29 2018-02-06 长城汽车股份有限公司 车辆的身份认证方法、系统及车辆
CN107330383A (zh) * 2017-06-18 2017-11-07 天津大学 一种基于深度卷积神经网络的人脸识别方法
CN107832700A (zh) * 2017-11-03 2018-03-23 全悉科技(北京)有限公司 一种人脸识别方法与系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2993616A1 (en) * 2014-09-05 2016-03-09 Huawei Technologies Co., Ltd. Method and apparatus for generating facial feature verification model
CN104834849A (zh) * 2015-04-14 2015-08-12 时代亿宝(北京)科技有限公司 基于声纹识别和人脸识别的双因素身份认证方法及系统
CN105426857A (zh) * 2015-11-25 2016-03-23 小米科技有限责任公司 人脸识别模型训练方法和装置
CN106127156A (zh) * 2016-06-27 2016-11-16 上海元趣信息技术有限公司 基于声纹和人脸识别的机器人交互方法
CN106897746A (zh) * 2017-02-28 2017-06-27 北京京东尚科信息技术有限公司 数据分类模型训练方法和装置

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012088A (zh) * 2019-12-03 2021-06-22 浙江大搜车软件技术有限公司 一种电路板故障检测及孪生网络的训练方法、装置和设备
CN111339884B (zh) * 2020-02-19 2023-06-06 浙江大华技术股份有限公司 图像识别方法以及相关设备、装置
CN111339884A (zh) * 2020-02-19 2020-06-26 浙江大华技术股份有限公司 图像识别方法以及相关设备、装置
CN111428612A (zh) * 2020-03-19 2020-07-17 深圳力维智联技术有限公司 行人重识别方法、终端、装置及存储介质
CN111428612B (zh) * 2020-03-19 2023-08-15 深圳力维智联技术有限公司 行人重识别方法、终端、装置及存储介质
CN111639700A (zh) * 2020-05-28 2020-09-08 深圳壹账通智能科技有限公司 目标相似度识别方法、装置、计算机设备及可读存储介质
CN111985298A (zh) * 2020-06-28 2020-11-24 百度在线网络技术(北京)有限公司 人脸识别样本收集方法和装置
CN111968152B (zh) * 2020-07-15 2023-10-17 桂林远望智能通信科技有限公司 一种动态身份识别方法及装置
CN111968152A (zh) * 2020-07-15 2020-11-20 桂林远望智能通信科技有限公司 一种动态身份识别方法及装置
CN111883139A (zh) * 2020-07-24 2020-11-03 北京字节跳动网络技术有限公司 用于筛选目标语音的方法、装置、设备和介质
CN111985446A (zh) * 2020-09-02 2020-11-24 深圳壹账通智能科技有限公司 人脸识别方法以及系统
CN112348999A (zh) * 2020-09-23 2021-02-09 深圳Tcl新技术有限公司 电子锁控制方法、电子锁及计算机可读存储介质
CN112613376A (zh) * 2020-12-17 2021-04-06 深圳集智数字科技有限公司 重识别方法及装置,电子设备
CN112613376B (zh) * 2020-12-17 2024-04-02 深圳集智数字科技有限公司 重识别方法及装置,电子设备
CN113435316A (zh) * 2021-06-25 2021-09-24 平安国际智慧城市科技股份有限公司 智能驱鸟方法、装置、电子设备及存储介质
CN113645107A (zh) * 2021-07-27 2021-11-12 广州市威士丹利智能科技有限公司 一种基于智能家居的网关端冲突解决方法及系统
CN113645107B (zh) * 2021-07-27 2022-12-02 广州市威士丹利智能科技有限公司 一种基于智能家居的网关端冲突解决方法及系统
CN114324330B (zh) * 2021-12-24 2023-09-12 深圳一信泰质量技术有限公司 一种超高清智能互动显示终端性能检测装置及方法
CN114324330A (zh) * 2021-12-24 2022-04-12 深圳一信泰质量技术有限公司 一种超高清智能互动显示终端性能检测装置及方法
CN114565814A (zh) * 2022-02-25 2022-05-31 平安国际智慧城市科技股份有限公司 一种特征检测方法、装置及终端设备
CN116259095A (zh) * 2023-03-31 2023-06-13 南京审计大学 一种基于计算机的识别系统及方法
CN117273747A (zh) * 2023-09-28 2023-12-22 广州佳新智能科技有限公司 基于人脸图像识别的支付方法、装置、存储介质和设备
CN117273747B (zh) * 2023-09-28 2024-04-19 广州佳新智能科技有限公司 基于人脸图像识别的支付方法、装置、存储介质和设备

Also Published As

Publication number Publication date
CN108446674A (zh) 2018-08-24

Similar Documents

Publication Publication Date Title
WO2019205369A1 (zh) 电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质
WO2019174130A1 (zh) 票据识别方法、服务器及计算机可读存储介质
WO2019179036A1 (zh) 深度神经网络模型、电子装置、身份验证方法和存储介质
WO2020098250A1 (zh) 字符识别方法、服务器及计算机可读存储介质
WO2019062080A1 (zh) 身份识别方法、电子装置及计算机可读存储介质
CN111914775B (zh) 活体检测方法、装置、电子设备及存储介质
WO2021051547A1 (zh) 暴力行为检测方法及系统
CN106203387A (zh) 人脸验证方法及系统
CN110795714A (zh) 一种身份验证方法、装置、计算机设备及存储介质
EP3783524A1 (en) Authentication method and apparatus, and electronic device, computer program, and storage medium
CN112699297A (zh) 基于用户画像的服务推荐方法、装置、设备及存储介质
WO2019085338A1 (zh) 电子装置、基于图像的年龄分类方法、系统及存储介质
CN113239910B (zh) 证件识别方法、装置、设备及存储介质
CN112149570B (zh) 多人活体检测方法、装置、电子设备及存储介质
CN111191207A (zh) 电子文件的控制方法、装置、计算机设备及存储介质
CN111222452A (zh) 一种人脸匹配方法、装置、电子设备及可读存储介质
CN115862075A (zh) 指纹识别模型训练方法、指纹识别方法、装置及相关设备
CN114663871A (zh) 图像识别方法、训练方法、装置、系统及存储介质
CN110795715A (zh) 一种数据录入方法、装置、系统及存储介质
CN110795980A (zh) 基于网络视频的逃犯识别方法、设备、存储介质及装置
CN111311550A (zh) 伪造证件的识别方法、装置及电子设备
WO2022111688A1 (zh) 人脸活体检测方法、装置及存储介质
CN111695441B (zh) 图像文档处理方法、装置及计算机可读存储介质
CN112818312A (zh) 基于人脸识别技术mes系统登录认证方法及mes系统
CN107995181B (zh) 一种基于步态的身份验证方法、装置、设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18916211

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 28/01/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 18916211

Country of ref document: EP

Kind code of ref document: A1