CN108960209A - 身份识别方法、装置及计算机可读存储介质 - Google Patents
身份识别方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108960209A CN108960209A CN201810904086.9A CN201810904086A CN108960209A CN 108960209 A CN108960209 A CN 108960209A CN 201810904086 A CN201810904086 A CN 201810904086A CN 108960209 A CN108960209 A CN 108960209A
- Authority
- CN
- China
- Prior art keywords
- network model
- reference picture
- target image
- face
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种身份识别方法、装置及计算机可读存储介质。方法包括:获取待进行身份识别的目标图像及参考图像;调用第一神经网络模型分别对目标图像及参考图像进行人脸检测,得到目标图像的第一人脸检测结果及参考图像的第二人脸检测结果;基于目标图像的第一人脸检测结果及参考图像的第二人脸检测结果,调用第二神经网络模型识别目标图像与参考图像是否匹配;若目标图像与参考图像不匹配,由云端服务器识别场景模式,采用基于场景模式选择的目标神经网络模型对目标图像及参考图像进行识别处理。基于端+云进行身份识别,使得识别结果更加有效,准确度得到提高,场景可更丰富。
Description
技术领域
本发明实施例涉及信息安全技术领域,特别涉及一种身份识别方法、装置及计算机可读存储介质。
背景技术
随着人们安全意识的提高,如何保证个人信息安全显得尤为重要。其中,身份识别作为保证个人信息安全的常用技术也得到了越来越多的关注。
相关技术在进行身份识别时,提供了一种采用SVM(Support Vector Machine,支持向量机)进行人脸识别的方式。在该方式中,针对某一识别场景需要预先采用大量训练样本训练得到SVM,之后采用该SVM针对该场景进行人脸识别。例如,针对使用证件照片进行注册的场景,将证件照片和注册照片分别作为SVM的输入,通过调用该SVM来识别这两个照片是否为同一用户,由此得到身份识别结果。
然而,上述身份识别方式中,由于仅针对某一识别场景进行识别,因而识别场景比较局限。
发明内容
本发明实施例提供了一种身份识别方法、装置及计算机可读存储介质,可用于解决相关技术中的问题。所述技术方案如下:
一方面,本发明实施例提供一种身份识别方法,所述方法包括:
获取待进行身份识别的目标图像及参考图像;
调用第一神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第一人脸检测结果及所述参考图像的第二人脸检测结果;
调用第二神经网络模型对所述第一人脸检测结果及所述第二人脸检测结果各自对应的第一目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配;
若所述目标图像与所述参考图像不匹配,则将所述目标图像及参考图像发送至云端服务器,由所述云端服务器识别所述目标图像及参考图像对应的场景模式,根据所述场景模式选择目标神经网络模型,基于所述目标神经网络模型对所述目标图像及参考图像进行识别处理;
其中,所述目标神经网络模型的复杂度大于所述第一神经网络模型及所述第二神经网络模型的复杂度。
一方面,提供了一种身份识别方法,所述方法包括:
接收终端在识别目标图像及参考图像不匹配时发送的所述目标图像及参考图像;
识别所述目标图像及参考图像对应的场景模式,根据识别出的场景模式选择目标神经网络模型,所述目标神经网络模型至少包括第三神经网络模型和第四神经网络模型,所述第三神经网络模型和第四神经网络模型的复杂度均大于所述第一神经网络模型及所述第二神经网络模型的复杂度;
调用所述第三神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第三人脸检测结果及所述参考图像的第四人脸检测结果;
调用所述第四神经网络模型对所述第三人脸检测结果及所述第四人脸检测结果各自对应的第二目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配;
若所述目标图像与所述参考图像不匹配,进行告警处理。
一方面,提供了一种身份识别装置,所述装置包括:
获取模块,用于获取待进行身份识别的目标图像及参考图像;
检测模块,用于调用第一神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第一人脸检测结果及所述参考图像的第二人脸检测结果;
识别模块,用于调用第二神经网络模型对所述第一人脸检测结果及所述第二人脸检测结果各自对应的第一目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配;
发送模块,用于若所述目标图像与所述参考图像不匹配,则将所述目标图像及参考图像发送至云端服务器,由所述云端服务器识别所述目标图像及参考图像对应的场景模式,根据所述场景模式选择目标神经网络模型,基于所述目标神经网络模型对所述目标图像及参考图像进行识别处理;
其中,所述目标神经网络模型的复杂度大于所述第一神经网络模型及所述第二神经网络模型的复杂度。
一方面,提供了一种身份识别装置,所述装置包括:
接收模块,用于接收终端在识别目标图像及参考图像不匹配时发送的所述目标图像及参考图像;
选择模块,用于识别所述目标图像及参考图像对应的场景模式,根据识别出的场景模式选择目标神经网络模型,所述目标神经网络模型至少包括第三神经网络模型和第四神经网络模型,所述第三神经网络模型和第四神经网络模型的复杂度均大于所述第一神经网络模型及所述第二神经网络模型的复杂度;
检测模块,用于调用所述第三神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第三人脸检测结果及所述参考图像的第四人脸检测结果;
识别模块,用于调用所述第四神经网络模型对所述第三人脸检测结果及所述第四人脸检测结果各自对应的第二目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配;
告警模块,用于若所述目标图像与所述参考图像不匹配,进行告警处理。
一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令在被所述处理器执行时实现上述任一种身份识别方法。
一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令在被执行时实现上述任一种身份识别方法。
本发明实施例提供的技术方案至少可以带来如下有益效果:
基于神经网络模型对目标图像及参考图像进行身份识别,可以使得识别结果更加有效,准确度得到提高。此外,在识别得出二者不匹配后,通过发送至云端,由云端服务器基于场景模式选择更为复杂的目标神经网络模型进行身份识别,可以进一步提升识别结果的准确性,且在识别不匹配后进行告警处理,使得身份识别的场景可以更为丰富。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种实施环境示意图;
图2是本发明实施例提供的一种身份识别场景的系统架构图;
图3是本发明实施例提供的一种身份识别方法流程图;
图4是本发明实施例提供的一种神经网络模型的结构示意图;
图5是本发明实施例提供的另一种神经网络模型的结构示意图;
图6是本发明实施例提供的一种身份识别方法流程图;
图7是本发明实施例提供的一种神经网络模型的结构示意图;
图8是本发明实施例提供的另一种神经网络模型的结构示意图;
图9是本发明实施例提供的一种身份识别方法交互图;
图10是本发明实施例提供的一种身份识别装置的结构示意图;
图11是本发明实施例提供的一种身份识别装置的结构示意图;
图12是本发明实施例提供的一种告警模块的结构示意图;
图13是本发明实施例提供的一种告警模块的结构示意图;
图14是本发明实施例提供的一种云端服务器的结构示意图;
图15是本发明实施例提供的一种终端的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
随着人们安全意识的提高,进行身份识别的场景越来越多。例如,在网吧、酒店、火车站、汽车站及机场等场景常常需要使用证件照片进行注册,而在注册过程中还会拍摄注册照片,通过将证件照片和注册照片进行比对来实现身份识别。
相关技术在实现身份识别时,通常包括如下三种方式:
第一种方式:基于特征脸PCA(Principal Component Analysis,主成分分析)的人脸识别方法
该方式是基于KLT(Karhunen-LoèveTransform,卡洛南-洛伊变换)的人脸识别方法,其中,KLT是图像压缩的一种最优正交变换。高维的图像空间经过KLT后得到一组新的正交基,保留其中重要的正交基,由这些基可以组成低维线性空间。如果假设人脸在这些低维线性空间的投影具有可分性,就可以将这些投影用作识别的特征矢量,这就是基于特征脸的人脸识别方法的基本思想。该方法需要较多的训练样本,训练时间也非常长,而且完全是基于图像灰度的统计特性的。
第二种方式:弹性图匹配的人脸识别方法
该方式在二维的空间中定义了一种对于通常的人脸变形具有一定的不变性的距离,并采用属性拓扑图来代表人脸,拓扑图的任一顶点均包含一特征向量,用来记录人脸在该顶点位置附近的信息。该方法结合了灰度特性和几何因素,在比对时可以允许图像存在弹性形变,在克服表情变化对识别的影响方面收到了较好的效果,同时对于单个人也不再需要多个样本进行训练,但是这种反复的计算量非常大。
第三种方式:SVM的人脸识别方法
该方式中采用的SVM主要解决的是一个2分类问题,它的基本思想是试图将一个低维的线性不可分的问题转化成一个高维的线性可分的问题。通常的实验结果表明SVM有较好的识别率,但是它需要大量的训练样本(每类300个),这在实际应用中往往是不现实的。而且SVM的训练时间长,方法实现复杂,该方法中的函数取法没有统一的理论。
针对上述几种相关技术的不足,本发明实施例提供了一种身份识别方法,该方法基于端+云的系统架构实现身份识别,即实现假身份挖掘,能够大规模的运用到各种场景,有利于信息共享,为公安系统提供监控便利。其中,终端侧利用深度学习抽取高层次的抽象特征对证件照和注册照的照片进行人脸检测,然后将人脸部分的照片再经过深度学习提取抽象特征用于人脸比对,如此人脸的检测和识别更加有效,人脸的识别的准确度得到提高。此外,针对深度模型的复杂性,本发明实施例提供的方法还对深度模型进行加速,使其在终端侧不降低太多精度的情况下,能够加快处理速度,减少硬件依赖性;而在云端,由于不缺少计算能力,故不以牺牲性能来提高速度。
请参考图1,其示出了本发明实施例提供的方法实施环境的示意图。该实施环境可以包括:终端101和云端服务器102。
其中,终端101安装有应用程序客户端,当终端101上的应用程序客户端启动后,可通过终端101与云端服务器102进行通信。
实施时,图1所示的终端101可以是诸如手机、平板电脑、个人计算机等电子设备。云端服务器102可以是一台服务器,也可以是由多台服务器组成的服务器集群,或者是一个云计算服务中心。终端101与云端服务器102通过网络建立通信连接。
基于图1所示的系统架构,本发明实施例提供的方法可应用于多种实施场景,各场景下的客户端可分别与云端进行连接。例如,以图2中的(1)所示的实施场景包括人员流量大且人员复杂的网吧、火车站、汽车站及机场等场景为例,位于网吧场景下的客户端1、位于火车站场景下的客户端2、位于汽车站场景下的客户端3及位于机场场景下的客户端n可分别与云端进行连接。
其中,各个客户端可采用带有高清摄像头或者普通监控摄像头的嵌入式系统,用于采集包含头像的注册照片,并将注册照片与证件照片进行比对。当客户端侧身份识别结果为虚假身份后,利用云端的处理能力,进行身份识别和处理。云端设置有大规模的人脸识别系统,当身份识别结果显示虚假身份后,通过对该虚假身份的对象进行监控和告警,提高个人信息安全性。其中,该过程可如图2中的(2)所示。
例如,在流动人口比较密集的地方,客户端对证件照和注册照的人脸部分进行比对,经过深度神经网络模型的特征提取和比对,若模型输出的分数超过阈值则认为是以真实身份注册;反之则认为是以虚假身份注册,然后将证件照和注册照一并上传到云端,本次注册失败。云端人脸识别系统接收客户端上传的证件照和注册照,分别将证件照和注册照均与证件库(如公民信息库)的所有证件进行比对,分别得到所对应的拥有者的相关信息并返回给告警模块。告警模块接收证件照拥有者和注册人员的相关信息,对证件照拥有者进行安全提醒;在公安系统中比对注册人员与数据库的信息,如果发现该注册人员是嫌疑人,则返回相关信息给云端,云端接收告警模块返回的告警信息。若发现此人有重大嫌疑,则调用云端的人脸识别系统,对事件发生地周边的摄像头进行识别,通过获取该嫌疑人的活动轨迹来实现对该嫌疑人的监控。
接下来,基于上述图1所示的实施环境及图2所示的场景,对本发明实施例提供的身份识别方法进行详细介绍。首先,以该方法应用于终端为例,参见图3,本发明实施例提供的方法可以包括如下几个步骤:
在步骤301中,获取待进行身份识别的目标图像及参考图像。
在人员流量大,人员复杂的场景下,对使用证件进行注册的人员进行身份识别时,往往需要用户出示证件照,且对该用户进行拍照,得到注册照。在本发明实施例提供的方法中,将用户的证件照作为参考图像,将用户的注册照作为目标图像。在身份识别过程时,终端侧的客户端可采用带有高清摄像头或普通监控摄像头的嵌入式系统,用于采集图像,得到目标图像和参考图像。
在步骤302中,调用第一神经网络模型分别对目标图像及参考图像进行人脸检测,得到目标图像的第一人脸检测结果及参考图像的第二人脸检测结果。
当获取到目标图像和参考图像后,本发明实施例提供的方法采用神经网络模型进行人脸检测。且为了提高检测的准确率,本发明实施例提供的神经网络模型可以采用深度神经网络模型。因此,该步骤主要利用深度神经网络对证件照对应的参考图像和注册照对应的目标图像分别进行人脸检测,将得到的人脸检测结果再送入深度神经网络提取高维特征进行比对,提高比对的正确率。由于证件照的内容十分简单,因而对于参考图像进行人脸检测的难度并不大;而注册照相对而言比较复杂,但是根据注册时的形态规范,能够将人脸图像规范到一个比较小的范围内,再通过深度神经网络检测人脸。
有鉴于此,在一种可选实施方式中,调用第一神经网络模型分别对目标图像及参考图像进行人脸检测时,包括但不限于调用第一神经网络模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的第一人脸检测结果及所述参考图像的第二人脸检测结果。如图4所示,本发明实施例以第一神经网络模型包括至少一个卷积层、至少一个最大池化层及至少一个全连接层为例,则调用第一神经网络模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的第一人脸检测结果及参考图像的第二人脸检测结果,包括:
调用第一神经网络模型中的卷积层分别对目标图像及参考图像进行人脸特征提取,提取的人脸特征输入第一神经网络模型中的最大池化层;
调用第一神经网络模型中的最大池化层分别对目标图像及参考图像的人脸特征进行降维处理,降维处理后的特征输入第一神经网络模型中的全连接层;
调用第一神经网络模型中的全连接层根据目标图像及参考图像对应的降维处理后的特征进行分类,得到目标图像的第一人脸检测结果及参考图像的第二人脸检测结果。
基于上述第一神经网络模型,利用深度学习中的卷积操作不断地提取特征,并且在不同尺度下进行检测,能够从目标图像及参考图像中快速检测得到人脸窗口,然后经过非极大值抑制得到筛选后的人脸窗口,即人脸检测结果。
需要说明的是,由于目标图像和参考图像中人脸区域占主体,且考虑到计算资源和空间资源有限,所以本发明实施例仅以上述第一神经网络模型为例进行说明,在场景比较复杂的情况下,还可以采用级联两个或多个第一神经网络模型的方式来实现人脸检测,本发明实施例对此不加以限定。
在步骤303中,基于目标图像的第一人脸检测结果及参考图像的第二人脸检测结果,调用第二神经网络模型识别目标图像与参考图像是否匹配。
针对该步骤,识别目标图像与参考图像是否匹配,即确定用户身份是否虚假。在通过步骤302检测得到目标图像的第一人脸检测结果及参考图像的第二人脸检测结果的基础上,调用第二神经网络模型对第一人脸检测结果及第二人脸检测结果各自对应的第一目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别目标图像与所述参考图像是否匹配。
为便于后续的人脸识别,本发明实施例提供的方法还包括将第一人脸检测结果及第二人脸检测结果各自对应的图像区域调整成相同大小,将调整后的第一人脸检测结果对应的图像区域及调整后的第二人脸检测结果对应的图像区域作为第一目标区域,例如,经过上述步骤302检测得到人脸检测结果之后,将人脸框(即上述步骤302得到的人脸窗口)处理成相同大小的图像,然后将其输入至第二神经网络模型中进行人脸识别。
除对整个人脸图像进行识别外,可选地,本发明实施例提供的方法还包括对人脸特定区域进行识别的方式,从而缩小识别范围,以提高识别速度。则针对该种方式,将第一人脸检测结果及第二人脸检测结果各自对应的图像区域调整成相同大小之后,将调整后的第一人脸检测结果对应的图像区域及调整后的第二人脸检测结果对应的图像区域中指定部位对应的区域作为第一目标区域。例如,将图像区域中人脸的眼睛、眉毛等指定部位对应的区域作为第一目标区域,从而将其输入至第二神经网络模型中进行人脸识别。由于眼睛、眉毛等指定部位能从一定程度上反应一个人的面部特征,因而通过对该指定部位的区域进行特征提取,并将提取的特征进行比对,不仅能识别出两个图像是否匹配,还能减少特征提取及特征比对的数量,从而提高识别速度。当然,除了选择眼睛、眉毛等指定部位,还可以选择其他指定部位,如鼻子、嘴巴等,本发明实施例不对指定部位加以限定。
无论是以人脸检测结果对应的图像区域作为第一目标区域,还是以指定部位对应的区域作为第一目标区域,在进行人脸识别时,如图5所示,本发明实施例以第二神经网络模型包括至少一个卷积层、至少一个最大池化层及至少两个全连接层为例,则基于目标图像的第一人脸检测结果及参考图像对应的第二检测结果,调用第二神经网络模型对第一人脸检测结果及第二人脸检测结果各自对应的第一目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配,包括:
调用第二神经网络模型中的卷积层分别对第一人脸检测结果及第二人脸检测结果各自对应的第一目标区域进行特征提取,提取的特征输入第二神经网络模型中的最大池化层;
调用第二神经网络模型中的最大池化层对卷积层提取的特征进行降维处理,降维处理后的特征输入第二神经网络模型中的全连接层;
调用第二神经网络模型中的全连接层将经过降维处理后的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配。
基于上述第二神经网络模型进行人脸识别时,由于此时的人脸部分已经非常明确,而且内容比较简单,因而使用几个卷积层提取特征,这样能够减少卷积操作,提高运行速率,降低硬件的运行压力。进一步地,采用第二神经网络模型中的卷积层提取特征之后,通过比较这两个图像的特征的相似度即可进行人脸识别。例如,特征之间的相似度达到相似度阈值的,则两个图像匹配,如果未达到相似度阈值,则两个图像不匹配。也就是说,相似度高的则认为目标图像与参考图像匹配,这两个图像对应的是同一用户,即用户使用真实证件注册;否则认为用户使用虚假身份注册。其中,相似度阈值可根据实际情况进行设置,也可以后续更新,本发明实施例对此不加以限定。
在步骤304中,若目标图像与参考图像不匹配,则将目标图像及参考图像发送至云端服务器,由云端服务器识别目标图像及参考图像对应的场景模式,根据场景模式选择目标神经网络模型,基于目标神经网络模型对目标图像及参考图像进行识别处理。
其中,目标神经网络模型的复杂度大于第一神经网络模型及第二神经网络模型的复杂度。当识别结果为目标图像与参考图像不匹配时,用户使用虚假身份注册的可能性比较大,为了进一步提高身份识别的准确性,本发明实施例提供的方法在终端侧进行识别之后,将目标图像及参考图像再发送至云端服务器,实现端+云的身份识别,由云端服务器对目标图像及参考图像进行识别处理。关于云端服务器进行识别处理的方式,可参见下面图6所示的内容,本发明实施例在此先暂不赘述。
需要说明的是,本发明实施例提供的上述第一神经网络模型及第二神经网络模型可以在进行身份识别时预先进行训练,关于训练过程,本发明实施例对此不加以限定。例如,采用一定数量的训练样本对初始神经网络模型进行训练,得到训练好的第一神经网络模型及第二神经网络模型后,还可以对其进行更新,以得到性能更优的神经网络模型。
本发明实施例提供的方法,基于神经网络模型对目标图像及参考图像进行身份识别,可以使得识别结果更加有效,准确度得到提高。此外,在识别得出二者不匹配后,通过发送至云端,由云端服务器基于场景模式选择更为复杂的目标神经网络模型进行身份识别,可以进一步提升识别结果的准确性,且在识别不匹配后进行告警处理,使得身份识别的场景可以更为丰富。
在一种可选实施方式中,云端服务器的识别处理过程可参见图6所示,本发明实施例提供的方法包括如下几个步骤:
在步骤601中,接收终端在识别目标图像及参考图像不匹配时发送的目标图像及参考图像。
当终端侧识别目标图像及参考图像不匹配后,将目标图像及参考图像发送给云端,云端服务器接收该目标图像及参考图像,从而在云端实现进一步的身份识别处理。
在步骤602中,识别目标图像及参考图像对应的场景模式,根据识别出的场景模式选择目标神经网络模型,目标神经网络模型至少包括第三神经网络模型和第四神经网络模型。
针对该步骤,由于不同场景下,图像内容是不同的,因而为了更有针对性的识别,本发明实施例提供的方法在云端进行身份识别时,接收到参考图像和目标图像后,先识别目标图像及参考图像对应的场景模式,再基于场景模式选择匹配的目标神经网络模型,从而采用该场景模式匹配的目标神经网络模型进行身份识别,以进一步提高身份识别的准确性。
其中,识别目标图像及参考图像对应的场景模式时,也可以通过神经网络来实现,例如,预先采用不同场景下的图像训练用于识别场景的第五神经网络模型,从而调用第五神经网络模型识别目标图像及参考图像对应的场景模式。此外,本发明实施例提供的方法可预先针对不同场景模式训练出对应的神经网络模型,并建立各个场景模式与神经网络模型的对应关系。因此,识别出场景模式后,基于场景模式选择进行身份识别的神经网络模型时,根据场景模式及神经网络模型的对应关系表,从训练好的神经网络模型中选择识别出的场景模式对应的目标神经网络模型。
例如,预先针对火车站、飞机场等场景拍摄多张用于训练场景识别模型的图片作为训练样本,采用训练样本训练初始神经网络模型,得到用于识别场景模式的第五神经网络模型。且针对火车站拍摄多张图片作为训练样本,训练火车站这种场景下的目标神经网络模型,从而当云端服务器接收到目标图像和参考图像后,如果采用第五神经网络模型识别出对应的场景模式为火车站,则采用火车站场景下的目标神经网络模型对目标图像及参考图像进行身份识别。
上述仅以火车站场景为例进行举例说明,当然,还可以采用更多的场景,使得场景更为全面,从而训练出各个场景模式下的神经网络模型,从而针对场景模式选择匹配的神经网络模型进行身份识别,使得身份识别的准确性更高。此外,由于已经在终端侧进行过识别,且云端可以满足更为复杂的计算,因而云端侧选择的目标神经网络模型的复杂度大于终端侧使用的神经网络模型的复杂度。例如,云端侧的目标神经网络模型至少包括用于人脸检测的第三神经网络模型和用于人脸识别的第四神经网络模型,而第三神经网络模型和第四神经网络模型的复杂度均大于第一神经网络模型及第二神经网络模型的复杂度。
需要说明的是,在识别场景模式时,如果识别失败,则可以将云端训练好的各个神经网络模型均作为目标神经网络模型,并分别对目标图像及参考图像进行身份识别,之后基于各个目标神经网络模型的身份识别结果确定最终的识别结果。
例如,云端有5个神经网络模型,则采用这5个神经网络模型分别对目标图像及参考图像进行身份识别,如果这5个的识别结果均为匹配,则最终结果为匹配。或者,还可以设置一个匹配比例阈值,如果各个神经网络模型的识别结果中,匹配的数量比例超过这个匹配比例阈值,则最终结果为匹配。例如,以云端有10个神经网络模型,匹配比例阈值为90%为例,则采用这10个神经网络模型分别对目标图像及参考图像进行身份识别,如果这10个的识别结果中有9个均为匹配,则匹配的数量比例为90%,最终结果为匹配。
在步骤603中,调用第三神经网络模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的第三人脸检测结果及参考图像的第四人脸检测结果。
采用云端进行身份识别处理时,云端服务器与终端侧进行人脸检测和识别的方式有很大的相似之处,两者也使用类似的技术,但是在细节方面仍然有一些差距。首先,处理场景不同,终端侧的输入是两张比较简单的包含人脸的目标图像及参考图像,处理起来比较容易。而云端人脸检测和识别面临的是大规模监控的场景,场景复杂多变,终端侧已经无法完成如此复杂的任务,在此,本发明实施例提出了一种新的级联架构来整合多任务卷积神经网络学习,如第三神经网络模型。
在一种可选实施方式中,如图7所示,以第三神经网络模型包括级联的第一神经网络子模型、第二神经网络子模型及第三神经网络子模型为例,则调用第三神经网络模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的第三人脸检测结果及参考图像的第四人脸检测结果,包括:
调用第三神经网络模型中第一神经网络子模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的一级人脸检测结果及参考图像的一级人脸检测结果;
调用第三神经网络模型中第二神经网络子模型对目标图像的一级人脸检测结果及参考图像的一级人脸检测结果进行一级筛选,得到目标图像的二级人脸检测结果及参考图像的二级人脸检测结果;
调用第三神经网络模型中第三神经网络子模型对目标图像的二级人脸检测结果及参考图像的二级人脸检测结果进行二级筛选,得到目标图像的第三人脸检测结果及参考图像的第四人脸检测结果。
在一种可选实施方式中,如图8所示,第一神经网络子模型包括至少一个卷积层、至少一个最大池化层及至少一个全连接层;第二神经网络子模型包括至少两个卷积层、至少一个最大池化层及至少一个全连接层;第三神经网络子模型包括至少一个卷积层、至少一个最大池化层、归一化处理层、至少一个卷积层、至少一个最大池化层及至少一个全连接层。
基于上述第三神经网络模型进行人脸检测时,第一神经网络子模型使用浅层的CNN模块挑选出可能的人脸候选框,丢弃大量的不可能是人脸的窗口;再通过第二神经网络子模型精炼候选窗体,丢弃大量的重叠窗体;之后,通过结构更为复杂性能更加强大的第三神经网络子模型实现候选窗体的筛选。第三神经网络模型通过将三个子模型级联起来即实现云端的人脸检测过程,由此可以得到监控场景下的所有的人脸框,每个人脸框对应一个人脸图像,即得到目标图像的第三人脸检测结果及参考图像的第四人脸检测结果。
为便于后续的人脸识别,本发明实施例提供的方法还包括将第三人脸检测结果及第四人脸检测结果各自对应的图像区域调整成相同大小,将调整后的第三人脸检测结果对应的图像区域及调整后的第四人脸检测结果对应的图像区域作为第二目标区域,例如,经过上述检测得到人脸检测结果之后,将人脸框处理成相同大小的图像,然后将其输入至第四神经网络模型中进行人脸识别。
除对整个人脸图像进行识别外,可选地,本发明实施例提供的方法还包括对人脸特定区域进行识别的方式,从而缩小识别范围,以提高识别速度。则针对该种方式,将调整后的第三人脸检测结果对应的图像区域及调整后的第四人脸检测结果对应的图像区域中指定部位对应的区域作为第二目标区域。
例如,由于眼睛、眉毛等指定部位能从一定程度上反应一个人的面部特征,因而通过对该指定部位的区域进行特征提取,并将提取的特征进行比对,不仅能识别出两个图像是否匹配,还能减少特征提取及特征比对的数量,从而提高识别速度。当然,除了选择眼睛、眉毛等指定部位,还可以选择其他指定部位,如鼻子、嘴巴等,本发明实施例不对指定部位加以限定。在确定指定部位之后,针对该步骤,将图像区域中人脸的眼睛、眉毛等指定部位对应的区域作为第二目标区域,以将其输入至第四神经网络模型中进行人脸识别。
在步骤604中,调用第四神经网络模型对第三人脸检测结果及第四人脸检测结果各自对应的第二目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配。
通过上述步骤603检测得到目标图像的第三人脸检测结果及参考图像的第四人脸检测结果之后,采用一个更加复杂的第四神经网络模型提取特征,完成人脸识别,得到目标图像与参考图像是否匹配的身份识别结果。
在一种可选实施方式中,以第四神经网络模型包括至少一个卷积层、至少一个最大池化层及至少两个全连接层;
调用第四神经网络模型对第三人脸检测结果及第四人脸检测结果各自对应的第二目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配,包括:
调用第四神经网络模型中的卷积层分别对第三人脸检测结果及第四人脸检测结果各自对应的第二目标区域进行特征提取,提取的特征输入第四神经网络模型中的最大池化层;
调用第四神经网络模型中的最大池化层对卷积层提取的特征进行降维处理,降维处理后的特征输入第四神经网络模型中的全连接层;
调用第四神经网络模型中的全连接层对降维处理后的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配。
需要说明的是,上述第三神经网络模型及第四神经网络模型仅为举例,针对不同的场景,云端还可以采用更复杂的神经网络模型来实现身份识别。即使云端采用更为复杂的神经网络模型,但由于其高性能处理器完全有能力处理,不缺少计算能力,因而能够保证处理效率。
此外,上述第三神经网络模型及第四神经网络模型可以在进行身份识别时预先进行训练,关于训练过程,本发明实施例对此不加以限定。例如,采用一定数量的训练样本对初始神经网络模型进行训练,得到训练好的第三神经网络模型及第四神经网络模型后,还可以对其进行更新,以得到性能更优的神经网络模型。
在步骤605中,若目标图像与参考图像不匹配,进行告警处理。
由于云端识别得到目标图像与参考图像不匹配时,用户采用虚假身份进行注册的机率比较高,因而为了保证个人信息安全,本发明实施例提供的方法采取了告警处理。针对使用虚假信息注册的用户,可以采取不同的告警措施。在一种可选的实施方式中,进行告警处理,包括:获取目标图像的特征信息;将目标图像的特征信息与特征信息库中的参考特征信息进行比对,得到目标图像对应的身份信息;基于目标图像对应的身份信息对目标图像对应的目标对象进行监控。其中,特征信息库包括但不限于用于存储公民个人信息(即身份信息)的公民信息库,该公民信息库中还存储有公民的特征信息(即参考特征信息),公民个人信息与其特征信息对应存储,则将目标图像的特征信息与公民信息库中的特征信息进行比对,如果公民信息库中有一样的特征信息,则将该特征信息对应的个人信息作为目标对象的身份信息。当然,除了公民信息库,还可以为其他可提供参考特征信息及身份信息的库,本发明实施例对此不加以限定。
在一种可选的实施方式中,基于目标图像对应的身份信息对目标图像对应的目标对象进行监控,包括:基于目标图像对应的身份信息调用目标图像对应的目标对象所在区域的监控设备,通过监控设备对目标图像对应的目标对象进行监控。例如,通过监控设备实时拍摄跟踪该目标图像对应的目标对象。
为了进一步加强对使用虚假信息进行注册的用户进行监控,本发明实施例提供的方法还包括:获取对目标对象进行监控的监控信息,根据监控信息确定目标对象的活动范围,将目标对象的活动范围上报至相关监管设备。其中,相关监管设备包括但不限于公安系统的监管设备、交通系统的监管设备等。通过将目标对象的活动范围上报至这些相关监管设备,由相关监管机关对该目标对象进行监控,从而进一步保证其他用户的个人信息安全。
为了保证被冒用者的个人信息安全,本发明实施例提供的方法在进行告警处理,还包括:获取参考图像的特征信息;将参考图像的特征信息与特征信息库中的参考特征信息进行比对,得到参考图像对应的身份信息;基于参考图像对应的身份信息对参考图像对应的参考对象进行提醒。
本发明实施例提供的方法,基于神经网络模型对目标图像及参考图像进行身份识别,可以使得识别结果更加有效,准确度得到提高。在识别得出二者不匹配后进行告警处理,使得身份识别的场景可以更为丰富,有利于信息共享,为公安系统提供监控便利。
结合上述图3所示的终端侧实现身份识别的过程,以及图6所示的云端服务器侧实现身份识别的过程,本发明实施例提供的身份识别方法的交互过程可如图9所示,该方法包括如下步骤:
在步骤901中,获取待进行身份识别的目标图像及参考图像。
在步骤902中,调用第一神经网络模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的第一人脸检测结果及参考图像的第二人脸检测结果。
在步骤903中,调用第二神经网络模型对第一人脸检测结果及第二人脸检测结果各自对应的第一目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配。
在步骤904中,若目标图像与参考图像不匹配,则将目标图像及参考图像发送至云端服务器。
上述步骤901至步骤904的实现方式可参考上述图3所示实施例中的对应步骤,本发明实施例对此不再赘述。
在步骤905中,云端服务器接收终端在识别目标图像及参考图像不匹配时发送的目标图像及参考图像。
在步骤906中,云端服务器识别目标图像及参考图像对应的场景模式,根据识别出的场景模式选择目标神经网络模型,目标神经网络模型至少包括第三神经网络模型和第四神经网络模型。
其中,第三神经网络模型和第四神经网络模型的复杂度均大于第一神经网络模型及第二神经网络模型的复杂度。
在步骤907中,云端服务器调用第三神经网络模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的第三人脸检测结果及参考图像的第四人脸检测结果。
在步骤908中,调用第四神经网络模型对第三人脸检测结果及第四人脸检测结果各自对应的第二目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配。
在步骤909中,若目标图像与参考图像不匹配,进行告警处理。
上述步骤905至步骤909的实现方式可参考上述图6所示实施例中的对应步骤,本发明实施例对此不再赘述。
本发明实施例提供的方法,基于神经网络模型对目标图像及参考图像进行身份识别,可以使得识别结果更加有效,准确度得到提高。在识别得出二者不匹配后,通过发送至云端,由云端服务器基于场景模式选择更为复杂的目标神经网络模型进行身份识别,可以进一步提升识别结果的准确性,且在识别不匹配后进行告警处理,使得身份识别的场景可以更为丰富,有利于信息共享,为公安系统提供监控便利。
此外,针对深度神经网络模型的复杂性,本发明实施例提供的方法还可以对深度神经网络模型进行加速,使其在终端侧不降低精度的情况下加快处理速度,减少硬件依赖性;而在云端,由于不缺少计算能力,因而可以不降低性能来提高速度。
基于与方法实施例的相同构思,本发明实施例提供了一种身份识别装置,该装置可应用于终端中,参见图10,该装置包括:
获取模块1001,用于获取待进行身份识别的目标图像及参考图像;
检测模块1002,用于调用第一神经网络模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的第一人脸检测结果及参考图像的第二人脸检测结果;
识别模块1003,用于调用第二神经网络模型对第一人脸检测结果及第二人脸检测结果各自对应的第一目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配;
发送模块1004,用于若目标图像与参考图像不匹配,则将目标图像及参考图像发送至云端服务器,由云端服务器识别目标图像及参考图像对应的场景模式,根据场景模式选择目标神经网络模型,基于目标神经网络模型对目标图像及参考图像进行识别处理;
其中,目标神经网络模型的复杂度大于第一神经网络模型及第二神经网络模型的复杂度。
在一种可选实施方式中,识别模块1003,还用于将第一人脸检测结果及第二人脸检测结果各自对应的图像区域调整成相同大小;将调整后的第一人脸检测结果对应的图像区域及调整后的第二人脸检测结果对应的图像区域作为第一目标区域,或者,将调整后的第一人脸检测结果对应的图像区域及调整后的第二人脸检测结果对应的图像区域中指定部位对应的区域作为第一目标区域。
在一种可选实施方式中,第一神经网络模型包括至少一个卷积层、至少一个最大池化层及至少一个全连接层;
检测模块1002,用于调用第一神经网络模型中的卷积层分别对目标图像及参考图像进行人脸特征提取,提取的人脸特征输入第一神经网络模型中的最大池化层;调用第一神经网络模型中的最大池化层分别对目标图像及参考图像的人脸特征进行降维处理,降维处理后的特征输入第一神经网络模型中的全连接层;调用第一神经网络模型中的全连接层根据目标图像及参考图像对应的降维处理后的特征进行分类,得到目标图像的第一人脸检测结果及参考图像的第二人脸检测结果。
在一种可选实施方式中,第二神经网络模型包括至少一个卷积层、至少一个最大池化层及至少两个全连接层;
识别模块1003,用于调用第二神经网络模型中的卷积层分别对第一人脸检测结果及第二人脸检测结果各自对应的第一目标区域进行特征提取,提取的特征输入第二神经网络模型中的最大池化层;调用第二神经网络模型中的最大池化层对卷积层提取的特征进行降维处理,降维处理后的特征输入第二神经网络模型中的全连接层;调用第二神经网络模型中的全连接层将经过降维处理后的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配。
本发明实施例提供的装置,基于神经网络模型对目标图像及参考图像进行身份识别,可以使得识别结果更加有效,准确度得到提高。在识别得出二者不匹配后,通过发送至云端进行身份识别,可以进一步提升识别结果的准确性,且在识别不匹配后进行告警处理,使得身份识别的场景可以更为丰富。
本发明实施例提供了一种身份识别装置,该装置用于云端服务器中,参见图11,该装置包括:
接收模块1101,用于接收终端在识别目标图像及参考图像不匹配时发送的目标图像及参考图像;
选择模块1102,用于识别目标图像及参考图像对应的场景模式,根据识别出的场景模式选择目标神经网络模型,目标神经网络模型至少包括第三神经网络模型和第四神经网络模型,第三神经网络模型和第四神经网络模型的复杂度均大于第一神经网络模型及第二神经网络模型的复杂度;
检测模块1103,用于调用第三神经网络模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的第三人脸检测结果及参考图像的第四人脸检测结果;
识别模块1104,用于调用第四神经网络模型对第三人脸检测结果及第四人脸检测结果各自对应的第二目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配;
告警模块1105,用于若目标图像与参考图像不匹配,进行告警处理。
在一种可选实施方式中,选择模块1102,用于调用第五神经网络模型识别目标图像及参考图像对应的场景模式;根据场景模式及神经网络模型的对应关系表,从训练好的神经网络模型中选择识别出的场景模式对应的目标神经网络模型。
在一种可选实施方式中,识别模块1104,用于将第三人脸检测结果及第四人脸检测结果各自对应的图像区域调整成相同大小;将调整后的第三人脸检测结果对应的图像区域及调整后的第四人脸检测结果对应的图像区域作为第二目标区域,或者,将调整后的第三人脸检测结果对应的图像区域及调整后的第四人脸检测结果对应的图像区域中指定部位对应的区域作为第二目标区域。
在一种可选实施方式中,参见图12,告警模块1105,包括:
第一获取单元11051,用于获取目标图像的特征信息;
第一比对单元11052,用于将目标图像的特征信息与特征信息库中的参考特征信息进行比对,得到目标图像对应的身份信息;
监控单元11053,用于基于目标图像对应的身份信息对目标图像对应的目标对象进行监控。
可选地,监控单元11053,用于基于目标图像对应的身份信息调用目标图像对应的目标对象所在区域的监控设备,通过监控设备对目标图像对应的目标对象进行监控;获取对目标对象进行监控的监控信息;根据监控信息确定目标对象的活动范围,将目标对象的活动范围上报至相关监管设备。
在一种可选实施方式中,参见图13,告警模块1105,还包括:
第二获取单元11054,用于获取参考图像的特征信息;
第二比对单元11055,用于将参考图像的特征信息与特征信息库中的参考特征信息进行比对,得到参考图像对应的身份信息;
提醒单元11056,用于基于参考图像对应的身份信息对参考图像对应的参考对象进行提醒。
在一种可选实施方式中,第三神经网络模型包括级联的第一神经网络子模型、第二神经网络子模型及第三神经网络子模型;
检测模块1103,用于调用第三神经网络模型中第一神经网络子模型分别对目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到目标图像的一级人脸检测结果及参考图像的一级人脸检测结果;调用第三神经网络模型中第二神经网络子模型对目标图像的一级人脸检测结果及参考图像的一级人脸检测结果进行一级筛选,得到目标图像的二级人脸检测结果及参考图像的二级人脸检测结果;调用第三神经网络模型中第三神经网络子模型对目标图像的二级人脸检测结果及参考图像的二级人脸检测结果进行二级筛选,得到目标图像的第三人脸检测结果及参考图像的第四人脸检测结果。
可选地,第一神经网络子模型包括至少一个卷积层、至少一个最大池化层及至少一个全连接层;第二神经网络子模型包括至少两个卷积层、至少一个最大池化层及至少一个全连接层;第三神经网络子模型包括至少一个卷积层、至少一个最大池化层、归一化处理层、至少一个卷积层、至少一个最大池化层及至少一个全连接层。
在一种可选的实施方式中,第四神经网络模型包括至少一个卷积层、至少一个最大池化层及至少两个全连接层;
识别模块1104,用于调用第四神经网络模型中的卷积层分别对第三人脸检测结果及第四人脸检测结果各自对应的第二目标区域进行特征提取,提取的特征输入第四神经网络模型中的最大池化层;调用第四神经网络模型中的最大池化层对卷积层提取的特征进行降维处理,降维处理后的特征输入第四神经网络模型中的全连接层;调用第四神经网络模型中的全连接层对降维处理后的特征进行比对,根据比对结果识别目标图像与参考图像是否匹配。
本发明实施例提供的装置,基于神经网络模型对目标图像及参考图像进行身份识别,可以使得识别结果更加有效,准确度得到提高。在识别得出二者不匹配后进行告警处理,使得身份识别的场景可以更为丰富,有利于信息共享,为公安系统提供监控便利。
需要说明的是,上述实施例提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图14是本发明实施例提供的一种身份识别设备的结构示意图,该设备可以为服务器,服务器可以是单独的服务器或集群服务器。具体来讲:
服务器包括中央处理单元(CPU)1401、随机存取存储器(RAM)1402和只读存储器(ROM)1403的系统存储器1404,以及连接系统存储器1404和中央处理单元1401的系统总线1405。服务器还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)1406,和用于存储操作系统1413、应用程序1414和其他程序模块1415的大容量存储设备1407。
基本输入/输出系统1406包括有用于显示信息的显示器1408和用于用户输入信息的诸如鼠标、键盘之类的输入设备1409。其中显示器1408和输入设备1409都通过连接到系统总线1405的输入输出控制器1410连接到中央处理单元1401。基本输入/输出系统1406还可以包括输入输出控制器1410以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器1410还提供输出到显示屏、打印机或其他类型的输出设备。
大容量存储设备1407通过连接到系统总线1405的大容量存储控制器(未示出)连接到中央处理单元1401。大容量存储设备1407及其相关联的计算机可读介质为服务器提供非易失性存储。也就是说,大容量存储设备1407可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知计算机存储介质不局限于上述几种。上述的系统存储器1404和大容量存储设备1407可以统称为存储器。
根据本发明的各种实施例,服务器还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器可以通过连接在系统总线1405上的网络接口单元1411连接到网络1412,或者说,也可以使用网络接口单元1411来连接到其他类型的网络或远程计算机系统(未示出)。
上述存储器还包括一个或者一个以上的程序,一个或者一个以上程序存储于存储器中,被配置由CPU执行。所述一个或者一个以上程序包含用于进行本发明实施例提供的身份识别方法的指令。
图15是本发明实施例提供的一种身份识别设备的结构示意图。该设备可以为终端,例如可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group AudioLayer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts GroupAudio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端包括有:处理器1501和存储器1502。
处理器1501可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1501可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1501也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1501可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1502可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1502还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1502中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1501所执行以实现本申请中方法实施例提供的身份识别方法。
在一些实施例中,终端还可选包括有:外围设备接口1503和至少一个外围设备。处理器1501、存储器1502和外围设备接口1503之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1503相连。具体地,外围设备包括:射频电路1504、触摸显示屏1505、摄像头1506、音频电路1507、定位组件1508和电源1509中的至少一种。
外围设备接口1503可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1501和存储器1502。在一些实施例中,处理器1501、存储器1502和外围设备接口1503被集成在同一芯片或电路板上;在一些其他实施例中,处理器1501、存储器1502和外围设备接口1503中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1504用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1504通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1504将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1504包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1504可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1504还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1505用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1505是触摸显示屏时,显示屏1505还具有采集在显示屏1505的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1501进行处理。此时,显示屏1505还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1505可以为一个,设置终端的前面板;在另一些实施例中,显示屏1505可以为至少两个,分别设置在终端的不同表面或呈折叠设计;在再一些实施例中,显示屏1505可以是柔性显示屏,设置在终端的弯曲表面上或折叠面上。甚至,显示屏1505还可以设置成非矩形的不规则图形,也即异形屏。显示屏1505可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1506用于采集图像或视频。可选地,摄像头组件1506包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1506还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1507可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1501进行处理,或者输入至射频电路1504以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1501或射频电路1504的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1507还可以包括耳机插孔。
定位组件1508用于定位终端的当前地理位置,以实现导航或LBS(Location BasedService,基于位置的服务)。定位组件1508可以是基于美国的GPS(Global PositioningSystem,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源1509用于为终端中的各个组件进行供电。电源1509可以是交流电、直流电、一次性电池或可充电电池。当电源1509包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端还包括有一个或多个传感器1510。该一个或多个传感器1510包括但不限于:加速度传感器1511、陀螺仪传感器1512、压力传感器1513、指纹传感器1514、光学传感器1515以及接近传感器1516。
加速度传感器1511可以检测以终端建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1511可以用于检测重力加速度在三个坐标轴上的分量。处理器1501可以根据加速度传感器1511采集的重力加速度信号,控制触摸显示屏1505以横向视图或纵向视图进行用户界面的显示。加速度传感器1511还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1512可以检测终端的机体方向及转动角度,陀螺仪传感器1512可以与加速度传感器1511协同采集用户对终端的15D动作。处理器1501根据陀螺仪传感器1512采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1513可以设置在终端的侧边框和/或触摸显示屏1505的下层。当压力传感器1513设置在终端的侧边框时,可以检测用户对终端的握持信号,由处理器1501根据压力传感器1513采集的握持信号进行左右手识别或快捷操作。当压力传感器1513设置在触摸显示屏1505的下层时,由处理器1501根据用户对触摸显示屏1505的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1514用于采集用户的指纹,由处理器1501根据指纹传感器1514采集到的指纹识别用户的身份,或者,由指纹传感器1514根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1501授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1514可以被设置终端的正面、背面或侧面。当终端上设置有物理按键或厂商Logo时,指纹传感器1514可以与物理按键或厂商Logo集成在一起。
光学传感器1515用于采集环境光强度。在一个实施例中,处理器1501可以根据光学传感器1515采集的环境光强度,控制触摸显示屏1505的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1505的显示亮度;当环境光强度较低时,调低触摸显示屏1505的显示亮度。在另一个实施例中,处理器1501还可以根据光学传感器1515采集的环境光强度,动态调整摄像头组件1506的拍摄参数。
接近传感器1516,也称距离传感器,通常设置在终端的前面板。接近传感器1516用于采集用户与终端的正面之间的距离。在一个实施例中,当接近传感器1516检测到用户与终端的正面之间的距离逐渐变小时,由处理器1501控制触摸显示屏1505从亮屏状态切换为息屏状态;当接近传感器1516检测到用户与终端的正面之间的距离逐渐变大时,由处理器1501控制触摸显示屏1505从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图15中示出的结构并不构成对终端的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例中实施例中,还提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令。所述至少一条指令经配置以由一个或者一个以上处理器执行,以实现上述任一种身份识别方法。
在示例性实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令在被计算机设备的处理器执行时实现上述任一种身份识别方法。
可选地,上述计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的示例性实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (15)
1.一种身份识别方法,其特征在于,所述方法包括:
获取待进行身份识别的目标图像及参考图像;
调用第一神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第一人脸检测结果及所述参考图像的第二人脸检测结果;
调用第二神经网络模型对所述第一人脸检测结果及所述第二人脸检测结果各自对应的第一目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配;
若所述目标图像与所述参考图像不匹配,则将所述目标图像及参考图像发送至云端服务器,由所述云端服务器识别所述目标图像及参考图像对应的场景模式,根据所述场景模式选择目标神经网络模型,基于所述目标神经网络模型对所述目标图像及参考图像进行识别处理;
其中,所述目标神经网络模型的复杂度大于所述第一神经网络模型及所述第二神经网络模型的复杂度。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述第一人脸检测结果及所述第二人脸检测结果各自对应的图像区域调整成相同大小;
将调整后的第一人脸检测结果对应的图像区域及调整后的第二人脸检测结果对应的图像区域作为第一目标区域,或者,将调整后的第一人脸检测结果对应的图像区域及调整后的第二人脸检测结果对应的图像区域中指定部位对应的区域作为第一目标区域。
3.根据权利要求1或2所述的方法,其特征在于,所述第一神经网络模型包括至少一个卷积层、至少一个最大池化层及至少一个全连接层;
所述调用第一神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第一人脸检测结果及所述参考图像的第二人脸检测结果,包括:
调用第一神经网络模型中的卷积层分别对所述目标图像及参考图像进行人脸特征提取,提取的人脸特征输入所述第一神经网络模型中的最大池化层;
调用所述第一神经网络模型中的最大池化层分别对所述目标图像及参考图像的人脸特征进行降维处理,降维处理后的特征输入所述第一神经网络模型中的全连接层;
调用所述第一神经网络模型中的全连接层根据所述目标图像及参考图像对应的降维处理后的特征进行分类,得到所述目标图像的第一人脸检测结果及所述参考图像的第二人脸检测结果。
4.根据权利要求1或2所述的方法,其特征在于,所述第二神经网络模型包括至少一个卷积层、至少一个最大池化层及至少两个全连接层;
所述调用第二神经网络模型对所述第一人脸检测结果及所述第二人脸检测结果各自对应的第一目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配,包括:
调用第二神经网络模型中的卷积层分别对所述第一人脸检测结果及所述第二人脸检测结果各自对应的第一目标区域进行特征提取,提取的特征输入所述第二神经网络模型中的最大池化层;
调用所述第二神经网络模型中的最大池化层对所述卷积层提取的特征进行降维处理,降维处理后的特征输入所述第二神经网络模型中的全连接层;
调用所述第二神经网络模型中的全连接层将经过降维处理后的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配。
5.一种身份识别方法,其特征在于,所述方法包括:
接收终端在识别目标图像及参考图像不匹配时发送的所述目标图像及参考图像;
识别所述目标图像及参考图像对应的场景模式,根据识别出的场景模式选择目标神经网络模型,所述目标神经网络模型至少包括第三神经网络模型和第四神经网络模型,所述第三神经网络模型和第四神经网络模型的复杂度均大于所述第一神经网络模型及所述第二神经网络模型的复杂度;
调用所述第三神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第三人脸检测结果及所述参考图像的第四人脸检测结果;
调用所述第四神经网络模型对所述第三人脸检测结果及所述第四人脸检测结果各自对应的第二目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配;
若所述目标图像与所述参考图像不匹配,进行告警处理。
6.根据权利要求5所述的方法,其特征在于,所述识别所述目标图像及参考图像对应的场景模式,根据识别出的场景模式选择目标神经网络模型,包括:
调用第五神经网络模型识别所述目标图像及参考图像对应的场景模式;
根据场景模式及神经网络模型的对应关系表,从训练好的神经网络模型中选择识别出的场景模式对应的目标神经网络模型。
7.根据权利要求5所述的方法,其特征在于,所述方法还包括:
将所述第三人脸检测结果及所述第四人脸检测结果各自对应的图像区域调整成相同大小;
将调整后的第三人脸检测结果对应的图像区域及调整后的第四人脸检测结果对应的图像区域作为第二目标区域,或者,将调整后的第三人脸检测结果对应的图像区域及调整后的第四人脸检测结果对应的图像区域中指定部位对应的区域作为第二目标区域。
8.根据权利要求5-7任一所述的方法,其特征在于,所述进行告警处理,包括:
获取所述目标图像的特征信息;
将所述目标图像的特征信息与特征信息库中的参考特征信息进行比对,得到所述目标图像对应的身份信息;
基于所述目标图像对应的身份信息对所述目标图像对应的目标对象进行监控。
9.根据权利要求8所述的方法,其特征在于,所述基于所述目标图像对应的身份信息对所述目标图像对应的目标对象进行监控,包括:
基于所述目标图像对应的身份信息调用所述目标图像对应的目标对象所在区域的监控设备,通过所述监控设备对所述目标图像对应的目标对象进行监控;
获取对所述目标对象进行监控的监控信息;
根据所述监控信息确定所述目标对象的活动范围,将所述目标对象的活动范围上报至相关监管设备。
10.根据权利要求8所述的方法,其特征在于,所述进行告警处理,还包括:
获取所述参考图像的特征信息;
将所述参考图像的特征信息与特征信息库中的参考特征信息进行比对,得到所述参考图像对应的身份信息;
基于所述参考图像对应的身份信息对所述参考图像对应的参考对象进行提醒。
11.根据权利要求5-7任一所述的方法,其特征在于,所述第三神经网络模型包括级联的第一神经网络子模型、第二神经网络子模型及第三神经网络子模型;
所述调用所述第三神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第三人脸检测结果及所述参考图像的第四人脸检测结果,包括:
调用所述第三神经网络模型中第一神经网络子模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的一级人脸检测结果及所述参考图像的一级人脸检测结果;
调用所述第三神经网络模型中第二神经网络子模型对所述目标图像的一级人脸检测结果及所述参考图像的一级人脸检测结果进行一级筛选,得到所述目标图像的二级人脸检测结果及所述参考图像的二级人脸检测结果;
调用所述第三神经网络模型中第三神经网络子模型对所述目标图像的二级人脸检测结果及所述参考图像的二级人脸检测结果进行二级筛选,得到所述目标图像的第三人脸检测结果及所述参考图像的第四人脸检测结果。
12.根据权利要求5-7任一所述的方法,其特征在于,所述第四神经网络模型包括至少一个卷积层、至少一个最大池化层及至少两个全连接层;
所述调用所述第四神经网络模型对所述第三人脸检测结果及所述第四人脸检测结果各自对应的第二目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配,包括:
调用第四神经网络模型中的卷积层分别对所述第三人脸检测结果及所述第四人脸检测结果各自对应的第二目标区域进行特征提取,提取的特征输入所述第四神经网络模型中的最大池化层;
调用所述第四神经网络模型中的最大池化层对所述卷积层提取的特征进行降维处理,降维处理后的特征输入所述第四神经网络模型中的全连接层;
调用所述第四神经网络模型中的全连接层对降维处理后的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配。
13.一种身份识别装置,其特征在于,所述装置包括:
获取模块,用于获取待进行身份识别的目标图像及参考图像;
检测模块,用于调用第一神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第一人脸检测结果及所述参考图像的第二人脸检测结果;
识别模块,用于调用第二神经网络模型对所述第一人脸检测结果及所述第二人脸检测结果各自对应的第一目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配;
发送模块,用于若所述目标图像与所述参考图像不匹配,则将所述目标图像及参考图像发送至云端服务器,由所述云端服务器识别所述目标图像及参考图像对应的场景模式,根据所述场景模式选择目标神经网络模型,基于所述目标神经网络模型对所述目标图像及参考图像进行识别处理;
其中,所述目标神经网络模型的复杂度大于所述第一神经网络模型及所述第二神经网络模型的复杂度。
14.一种身份识别装置,其特征在于,所述装置包括:
接收模块,用于接收终端在识别目标图像及参考图像不匹配时发送的所述目标图像及参考图像;
选择模块,用于识别所述目标图像及参考图像对应的场景模式,根据识别出的场景模式选择目标神经网络模型,所述目标神经网络模型至少包括第三神经网络模型和第四神经网络模型,所述第三神经网络模型和第四神经网络模型的复杂度均大于所述第一神经网络模型及所述第二神经网络模型的复杂度;
检测模块,用于调用所述第三神经网络模型分别对所述目标图像及参考图像进行人脸特征提取,并对提取的人脸特征进行降维处理,根据降维处理后的特征进行分类,得到所述目标图像的第三人脸检测结果及所述参考图像的第四人脸检测结果;
识别模块,用于调用所述第四神经网络模型对所述第三人脸检测结果及所述第四人脸检测结果各自对应的第二目标区域进行特征提取,并将提取的特征进行比对,根据比对结果识别所述目标图像与所述参考图像是否匹配;
告警模块,用于若所述目标图像与所述参考图像不匹配,进行告警处理。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令在被执行时实现如权利要求1至4任一项所述的身份识别方法,或者所述至少一条指令在被执行时实现如权利要求5至12任一项所述的身份识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810904086.9A CN108960209B (zh) | 2018-08-09 | 2018-08-09 | 身份识别方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810904086.9A CN108960209B (zh) | 2018-08-09 | 2018-08-09 | 身份识别方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108960209A true CN108960209A (zh) | 2018-12-07 |
CN108960209B CN108960209B (zh) | 2023-07-21 |
Family
ID=64468594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810904086.9A Active CN108960209B (zh) | 2018-08-09 | 2018-08-09 | 身份识别方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108960209B (zh) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109634320A (zh) * | 2018-12-20 | 2019-04-16 | 邱迪 | 出水温度调节平台 |
CN109685029A (zh) * | 2018-12-28 | 2019-04-26 | 东莞中国科学院云计算产业技术创新与育成中心 | 复杂空间结构的柔性物体识别方法、装置、设备和介质 |
CN109740664A (zh) * | 2018-12-28 | 2019-05-10 | 东莞中国科学院云计算产业技术创新与育成中心 | 柔性物体分类方法、装置、计算机设备和存储介质 |
CN109872362A (zh) * | 2019-01-18 | 2019-06-11 | 腾讯科技(深圳)有限公司 | 一种目标检测方法及装置 |
CN109948437A (zh) * | 2019-02-01 | 2019-06-28 | 广州玖分半网络科技有限公司 | 一种用于校园的餐厨管理方法 |
CN110046602A (zh) * | 2019-04-24 | 2019-07-23 | 李守斌 | 基于分类的深度学习人脸检测方法 |
CN110135240A (zh) * | 2019-03-27 | 2019-08-16 | 苏州书客贝塔软件科技有限公司 | 一种基于计算机视觉的行人分析智能分析系统 |
CN110147712A (zh) * | 2019-03-27 | 2019-08-20 | 苏州书客贝塔软件科技有限公司 | 一种行人分析智能云平台 |
CN110348422A (zh) * | 2019-07-18 | 2019-10-18 | 北京地平线机器人技术研发有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN110414312A (zh) * | 2019-06-05 | 2019-11-05 | 平安科技(深圳)有限公司 | 人脸识别方法、装置、服务器及存储介质 |
CN111027390A (zh) * | 2019-11-11 | 2020-04-17 | 北京三快在线科技有限公司 | 对象类别的检测方法、装置、电子设备和存储介质 |
CN111159679A (zh) * | 2019-12-27 | 2020-05-15 | 上海闻泰信息技术有限公司 | 身份识别方法和装置、电子设备及计算机可读存储介质 |
CN111259183A (zh) * | 2020-02-21 | 2020-06-09 | 北京百度网讯科技有限公司 | 图像识图方法、装置、电子设备和介质 |
CN111283652A (zh) * | 2020-03-24 | 2020-06-16 | 中科开创(广州)智能科技发展有限公司 | 智能消杀防疫机器人 |
CN111368721A (zh) * | 2020-03-03 | 2020-07-03 | 深圳市腾讯计算机系统有限公司 | 身份识别的处理方法、装置、电子设备及存储介质 |
CN111401291A (zh) * | 2020-03-24 | 2020-07-10 | 三一重工股份有限公司 | 陌生人的识别方法和装置 |
CN111723609A (zh) * | 2019-03-20 | 2020-09-29 | 杭州海康威视数字技术股份有限公司 | 模型优化方法、装置、电子设备及存储介质 |
CN111968152A (zh) * | 2020-07-15 | 2020-11-20 | 桂林远望智能通信科技有限公司 | 一种动态身份识别方法及装置 |
CN112001280A (zh) * | 2020-08-13 | 2020-11-27 | 浩鲸云计算科技股份有限公司 | 一种实时、可在线优化的人脸识别系统和方法 |
CN112101448A (zh) * | 2020-09-10 | 2020-12-18 | 敬科(深圳)机器人科技有限公司 | 一种屏幕图像识别方法、设备、系统和可读存储介质 |
CN112115285A (zh) * | 2019-06-21 | 2020-12-22 | 杭州海康威视数字技术股份有限公司 | 图片清洗方法及装置 |
CN112118410A (zh) * | 2019-06-20 | 2020-12-22 | 腾讯科技(深圳)有限公司 | 业务处理方法、装置、终端及存储介质 |
CN112183208A (zh) * | 2020-08-27 | 2021-01-05 | 华为技术有限公司 | 一种身份识别方法及设备 |
CN112199997A (zh) * | 2020-09-07 | 2021-01-08 | 青岛海信移动通信技术股份有限公司 | 一种终端及工具处理方法 |
CN112381058A (zh) * | 2020-12-04 | 2021-02-19 | 武汉烽火众智数字技术有限责任公司 | 基于行人重识别的黑白名单管控方法及设备 |
CN112422601A (zh) * | 2019-08-23 | 2021-02-26 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置及电子设备 |
CN112597803A (zh) * | 2020-11-26 | 2021-04-02 | 深圳泰首智能技术有限公司 | 一种人脸识别方法、装置、系统及电子设备 |
CN112711974A (zh) * | 2019-10-25 | 2021-04-27 | 纬创资通股份有限公司 | 人脸辨识方法及装置 |
CN112990943A (zh) * | 2021-03-16 | 2021-06-18 | 上海万向区块链股份公司 | 基于生物资产的图像信息识别实现区块链预言机的方法及系统 |
CN113261011A (zh) * | 2019-12-30 | 2021-08-13 | 商汤国际私人有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN113255399A (zh) * | 2020-02-10 | 2021-08-13 | 北京地平线机器人技术研发有限公司 | 目标匹配方法和系统、服务端、云端、存储介质、设备 |
CN113496143A (zh) * | 2020-03-19 | 2021-10-12 | 北京市商汤科技开发有限公司 | 动作识别方法及装置、存储介质 |
CN114241544A (zh) * | 2021-11-15 | 2022-03-25 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
WO2022266878A1 (zh) * | 2021-06-23 | 2022-12-29 | 深圳市大疆创新科技有限公司 | 景别确定方法、装置及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268539A (zh) * | 2014-10-17 | 2015-01-07 | 中国科学技术大学 | 一种高性能的人脸识别方法及系统 |
CN106982359A (zh) * | 2017-04-26 | 2017-07-25 | 深圳先进技术研究院 | 一种双目视频监控方法、系统和计算机可读存储介质 |
CN107194318A (zh) * | 2017-04-24 | 2017-09-22 | 北京航空航天大学 | 目标检测辅助的场景识别方法 |
CN108009528A (zh) * | 2017-12-26 | 2018-05-08 | 广州广电运通金融电子股份有限公司 | 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质 |
WO2021147199A1 (zh) * | 2020-01-21 | 2021-07-29 | 北京市商汤科技开发有限公司 | 网络训练方法及装置、图像处理方法及装置 |
-
2018
- 2018-08-09 CN CN201810904086.9A patent/CN108960209B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268539A (zh) * | 2014-10-17 | 2015-01-07 | 中国科学技术大学 | 一种高性能的人脸识别方法及系统 |
CN107194318A (zh) * | 2017-04-24 | 2017-09-22 | 北京航空航天大学 | 目标检测辅助的场景识别方法 |
CN106982359A (zh) * | 2017-04-26 | 2017-07-25 | 深圳先进技术研究院 | 一种双目视频监控方法、系统和计算机可读存储介质 |
CN108009528A (zh) * | 2017-12-26 | 2018-05-08 | 广州广电运通金融电子股份有限公司 | 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质 |
WO2021147199A1 (zh) * | 2020-01-21 | 2021-07-29 | 北京市商汤科技开发有限公司 | 网络训练方法及装置、图像处理方法及装置 |
Non-Patent Citations (1)
Title |
---|
祝永志等: "基于多任务卷积神经网络的人脸识别技术研究", 《通信技术》 * |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109634320A (zh) * | 2018-12-20 | 2019-04-16 | 邱迪 | 出水温度调节平台 |
CN109685029A (zh) * | 2018-12-28 | 2019-04-26 | 东莞中国科学院云计算产业技术创新与育成中心 | 复杂空间结构的柔性物体识别方法、装置、设备和介质 |
CN109740664A (zh) * | 2018-12-28 | 2019-05-10 | 东莞中国科学院云计算产业技术创新与育成中心 | 柔性物体分类方法、装置、计算机设备和存储介质 |
CN109740664B (zh) * | 2018-12-28 | 2023-01-10 | 东莞中国科学院云计算产业技术创新与育成中心 | 柔性物体分类方法、装置、计算机设备和存储介质 |
CN109872362B (zh) * | 2019-01-18 | 2023-08-08 | 腾讯科技(深圳)有限公司 | 一种目标检测方法及装置 |
CN109872362A (zh) * | 2019-01-18 | 2019-06-11 | 腾讯科技(深圳)有限公司 | 一种目标检测方法及装置 |
CN109948437A (zh) * | 2019-02-01 | 2019-06-28 | 广州玖分半网络科技有限公司 | 一种用于校园的餐厨管理方法 |
CN111723609B (zh) * | 2019-03-20 | 2024-01-26 | 杭州海康威视数字技术股份有限公司 | 模型优化方法、装置、电子设备及存储介质 |
CN111723609A (zh) * | 2019-03-20 | 2020-09-29 | 杭州海康威视数字技术股份有限公司 | 模型优化方法、装置、电子设备及存储介质 |
CN110147712A (zh) * | 2019-03-27 | 2019-08-20 | 苏州书客贝塔软件科技有限公司 | 一种行人分析智能云平台 |
CN110135240A (zh) * | 2019-03-27 | 2019-08-16 | 苏州书客贝塔软件科技有限公司 | 一种基于计算机视觉的行人分析智能分析系统 |
CN110046602A (zh) * | 2019-04-24 | 2019-07-23 | 李守斌 | 基于分类的深度学习人脸检测方法 |
CN110414312A (zh) * | 2019-06-05 | 2019-11-05 | 平安科技(深圳)有限公司 | 人脸识别方法、装置、服务器及存储介质 |
CN112118410B (zh) * | 2019-06-20 | 2022-04-01 | 腾讯科技(深圳)有限公司 | 业务处理方法、装置、终端及存储介质 |
CN112118410A (zh) * | 2019-06-20 | 2020-12-22 | 腾讯科技(深圳)有限公司 | 业务处理方法、装置、终端及存储介质 |
CN112115285A (zh) * | 2019-06-21 | 2020-12-22 | 杭州海康威视数字技术股份有限公司 | 图片清洗方法及装置 |
CN110348422B (zh) * | 2019-07-18 | 2021-11-09 | 北京地平线机器人技术研发有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN110348422A (zh) * | 2019-07-18 | 2019-10-18 | 北京地平线机器人技术研发有限公司 | 图像处理方法、装置、计算机可读存储介质和电子设备 |
CN112422601A (zh) * | 2019-08-23 | 2021-02-26 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置及电子设备 |
CN112422601B (zh) * | 2019-08-23 | 2022-06-10 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置及电子设备 |
CN112711974B (zh) * | 2019-10-25 | 2023-12-12 | 纬创资通股份有限公司 | 人脸辨识方法及装置 |
CN112711974A (zh) * | 2019-10-25 | 2021-04-27 | 纬创资通股份有限公司 | 人脸辨识方法及装置 |
CN111027390B (zh) * | 2019-11-11 | 2023-10-10 | 北京三快在线科技有限公司 | 对象类别的检测方法、装置、电子设备和存储介质 |
CN111027390A (zh) * | 2019-11-11 | 2020-04-17 | 北京三快在线科技有限公司 | 对象类别的检测方法、装置、电子设备和存储介质 |
CN111159679A (zh) * | 2019-12-27 | 2020-05-15 | 上海闻泰信息技术有限公司 | 身份识别方法和装置、电子设备及计算机可读存储介质 |
CN113261011A (zh) * | 2019-12-30 | 2021-08-13 | 商汤国际私人有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN113255399A (zh) * | 2020-02-10 | 2021-08-13 | 北京地平线机器人技术研发有限公司 | 目标匹配方法和系统、服务端、云端、存储介质、设备 |
CN111259183A (zh) * | 2020-02-21 | 2020-06-09 | 北京百度网讯科技有限公司 | 图像识图方法、装置、电子设备和介质 |
US11789997B2 (en) | 2020-02-21 | 2023-10-17 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Image recognition method and apparatus, electronic device, and medium |
CN111368721A (zh) * | 2020-03-03 | 2020-07-03 | 深圳市腾讯计算机系统有限公司 | 身份识别的处理方法、装置、电子设备及存储介质 |
CN113496143A (zh) * | 2020-03-19 | 2021-10-12 | 北京市商汤科技开发有限公司 | 动作识别方法及装置、存储介质 |
CN111401291A (zh) * | 2020-03-24 | 2020-07-10 | 三一重工股份有限公司 | 陌生人的识别方法和装置 |
CN111283652B (zh) * | 2020-03-24 | 2020-10-16 | 中科开创(广州)智能科技发展有限公司 | 智能消杀防疫机器人 |
CN111283652A (zh) * | 2020-03-24 | 2020-06-16 | 中科开创(广州)智能科技发展有限公司 | 智能消杀防疫机器人 |
CN111968152A (zh) * | 2020-07-15 | 2020-11-20 | 桂林远望智能通信科技有限公司 | 一种动态身份识别方法及装置 |
CN111968152B (zh) * | 2020-07-15 | 2023-10-17 | 桂林远望智能通信科技有限公司 | 一种动态身份识别方法及装置 |
CN112001280A (zh) * | 2020-08-13 | 2020-11-27 | 浩鲸云计算科技股份有限公司 | 一种实时、可在线优化的人脸识别系统和方法 |
CN112183208A (zh) * | 2020-08-27 | 2021-01-05 | 华为技术有限公司 | 一种身份识别方法及设备 |
CN112199997A (zh) * | 2020-09-07 | 2021-01-08 | 青岛海信移动通信技术股份有限公司 | 一种终端及工具处理方法 |
CN112101448A (zh) * | 2020-09-10 | 2020-12-18 | 敬科(深圳)机器人科技有限公司 | 一种屏幕图像识别方法、设备、系统和可读存储介质 |
CN112597803A (zh) * | 2020-11-26 | 2021-04-02 | 深圳泰首智能技术有限公司 | 一种人脸识别方法、装置、系统及电子设备 |
CN112381058A (zh) * | 2020-12-04 | 2021-02-19 | 武汉烽火众智数字技术有限责任公司 | 基于行人重识别的黑白名单管控方法及设备 |
CN112990943B (zh) * | 2021-03-16 | 2023-04-07 | 上海万向区块链股份公司 | 基于生物资产的图像信息识别实现区块链预言机的方法及系统 |
CN112990943A (zh) * | 2021-03-16 | 2021-06-18 | 上海万向区块链股份公司 | 基于生物资产的图像信息识别实现区块链预言机的方法及系统 |
WO2022266878A1 (zh) * | 2021-06-23 | 2022-12-29 | 深圳市大疆创新科技有限公司 | 景别确定方法、装置及计算机可读存储介质 |
CN114241544B (zh) * | 2021-11-15 | 2023-06-27 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN114241544A (zh) * | 2021-11-15 | 2022-03-25 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108960209B (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960209A (zh) | 身份识别方法、装置及计算机可读存储介质 | |
CN111652678B (zh) | 物品信息显示方法、装置、终端、服务器及可读存储介质 | |
US11710351B2 (en) | Action recognition method and apparatus, and human-machine interaction method and apparatus | |
KR101832693B1 (ko) | 직관적 컴퓨팅 방법들 및 시스템들 | |
US9609107B2 (en) | Intuitive computing methods and systems | |
US9197736B2 (en) | Intuitive computing methods and systems | |
CN109284445B (zh) | 网络资源的推荐方法、装置、服务器及存储介质 | |
US20220309836A1 (en) | Ai-based face recognition method and apparatus, device, and medium | |
CN103688273B (zh) | 辅助弱视用户进行图像拍摄和图像回顾 | |
CN111491187B (zh) | 视频的推荐方法、装置、设备及存储介质 | |
CN108924737A (zh) | 定位方法、装置、设备及计算机可读存储介质 | |
CN111368116B (zh) | 图像分类方法、装置、计算机设备及存储介质 | |
CN112235635B (zh) | 动画显示方法、装置、电子设备及存储介质 | |
CN112036331A (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
CN111104980A (zh) | 确定分类结果的方法、装置、设备及存储介质 | |
CN112766406B (zh) | 物品图像的处理方法、装置、计算机设备及存储介质 | |
CN110290426A (zh) | 展示资源的方法、装置、设备及存储介质 | |
CN111031391A (zh) | 视频配乐方法、装置、服务器、终端及存储介质 | |
CN113987326B (zh) | 资源推荐方法、装置、计算机设备及介质 | |
CN112561084B (zh) | 特征提取方法、装置、计算机设备及存储介质 | |
CN114281936A (zh) | 分类方法、装置、计算机设备及存储介质 | |
CN110147796A (zh) | 图像匹配方法及装置 | |
CN111353513B (zh) | 一种目标人群筛选的方法、装置、终端和存储介质 | |
CN113420217A (zh) | 生成文案的方法、装置、电子设备和计算机可读存储介质 | |
CN111143441A (zh) | 性别确定方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |