CN107818313A - 活体识别方法、装置、存储介质和计算机设备 - Google Patents
活体识别方法、装置、存储介质和计算机设备 Download PDFInfo
- Publication number
- CN107818313A CN107818313A CN201711159039.8A CN201711159039A CN107818313A CN 107818313 A CN107818313 A CN 107818313A CN 201711159039 A CN201711159039 A CN 201711159039A CN 107818313 A CN107818313 A CN 107818313A
- Authority
- CN
- China
- Prior art keywords
- image
- face
- confidence level
- identification model
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Abstract
本发明涉及一种活体识别方法、装置、存储介质和计算机设备,该方法包括:获取目标图像;提取所述目标图像中人脸图像的人脸特征数据;根据所述人脸特征数据进行活体识别,得到第一置信度;所述第一置信度表示识别到活体的第一概率;从人脸扩展图像中提取背景特征数据;所述人脸扩展图像是扩展所述人脸图像所在区域得到的;根据所述背景特征数据进行活体识别,得到第二置信度;所述第二置信度表示识别到活体的第二概率;根据所述第一置信度和所述第二置信度,得到活体人脸图像判别结果。本申请提供的方案提高了活体检测效率。
Description
技术领域
本发明涉及计算机技术领域,特别是涉及一种活体识别方法、装置、存储介质和计算机设备。
背景技术
随着计算机技术的不断发展,用户可以通过计算机完成的操作越来越多,比如申请贷款、远程考试或者远程遥控等。用户在进行各种操作前通常需要进行身份验证,而人脸活体判别作为身份验证的一种有效手段,已在较多的场景中有所应用。
传统的人脸活体判别技术中,通常需要结合一定的交互动作,比如摇头、眨眼等,以通过检测交互动作来区分真人和照片。然而,这种判别方式需要用户配合,只有用户按照提示做出正确的交互动作后,才能通过活体检测,从而导致活体检测率低。
发明内容
基于此,有必要针对目前活体检测效率比较低的问题,提供一种活体识别方法、装置、存储介质和计算机设备。
一种活体识别方法,包括:
获取目标图像;
提取所述目标图像中人脸图像的人脸特征数据;
根据所述人脸特征数据进行活体识别,得到第一置信度;所述第一置信度表示识别到活体的第一概率;
从人脸扩展图像中提取背景特征数据;所述人脸扩展图像是扩展所述人脸图像所在区域得到的;
根据所述背景特征数据进行活体识别,得到第二置信度;所述第二置信度表示识别到活体的第二概率;
根据所述第一置信度和所述第二置信度,得到活体人脸图像判别结果。
一种活体识别装置,包括:
获取模块,用于获取目标图像;
第一提取模块,用于提取所述目标图像中人脸图像的人脸特征数据;
第一识别模块,用于根据所述人脸特征数据进行活体识别,得到第一置信度;所述第一置信度表示识别到活体的第一概率;
第二提取模块,用于从人脸扩展图像中提取背景特征数据;所述人脸扩展图像是扩展所述人脸图像所在区域得到的;
第二识别模块,用于根据所述背景特征数据进行活体识别,得到第二置信度;所述第二置信度表示识别到活体的第二概率;
输出模块,用于根据所述第一置信度和所述第二置信度,得到所述目标图像为活体人脸图像的识别结果。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:
获取目标图像;
提取所述目标图像中人脸图像的人脸特征数据;
根据所述人脸特征数据进行活体识别,得到第一置信度;所述第一置信度表示识别到活体的第一概率;
从人脸扩展图像中提取背景特征数据;所述人脸扩展图像是扩展所述人脸图像所在区域得到的;
根据所述背景特征数据进行活体识别,得到第二置信度;所述第二置信度表示识别到活体的第二概率;
根据所述第一置信度和所述第二置信度,得到所述目标图像为活体人脸图像的识别结果。
一种计算机设备,包括存储器和处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:
获取目标图像;
提取所述目标图像中人脸图像的人脸特征数据;
根据所述人脸特征数据进行活体识别,得到第一置信度;所述第一置信度表示识别到活体的第一概率;
从人脸扩展图像中提取背景特征数据;所述人脸扩展图像是扩展所述人脸图像所在区域得到的;
根据所述背景特征数据进行活体识别,得到第二置信度;所述第二置信度表示识别到活体的第二概率;
根据所述第一置信度和所述第二置信度,得到所述目标图像为活体人脸图像的识别结果。
上述活体识别方法、装置、存储介质和计算机设备,在获取到目标图像后,一方面可自动对目标图像中人脸图像进行人脸特征数据提取,进而根据人脸特征数据进行活体识别,得到识别到活体的概率,另一方面还可自动对目标图像中人脸扩展图像提取背景特征数据,进而根据背景特征数据进行活体识别,得到识别到活体的概率,这样结合两个概率即可得到目标图像是否为活体人脸图像的识别结果,既在一定程度上保证了活体检测的准确性,又避免了需要用户配合交互带来的耗时,从而提高了活体检测效率。
附图说明
图1为一个实施例中活体识别方法的应用环境图;
图2为另一个实施例中活体识别方法的应用环境图;
图3为一个实施例中活体识别方法的流程示意图;
图4为一个实施例中多尺度区域划分的示意图;
图5为一个实施例中识别模型使用的示意图;
图6为一个实施例中识别模型训练的示意图;
图7为另一个实施例中活体识别方法的流程示意图;
图8为一个实施例中活体识别装置的模块结构图;
图9为另一个实施例中活体识别装置的模块结构图;
图10为一个实施例中计算机设备的内部结构图;
图11为另一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中活体识别方法的应用环境图。参照图1,该活体识别方法用于活体识别系统。该活体识别系统包括终端110和服务器120。其中,终端110和服务器120通过网络连接。终端110可用于执行该活体识别方法,终端110也可从现实场景中采集包含人脸的目标图像,将采集得到的目标图像发送至服务器120,使得服务器120执行该活体识别方法。终端110具体可以是手机、平板电脑、笔记本电脑等中的至少一种。服务器120具体可以是独立的服务器,也可以是多个独立的服务器组成的服务器集群。
图2为另一个实施例中活体识别方法的应用环境图。参照图2,该活体识别方法用于活体识别系统。该活体识别系统具体可以是门禁控制系统。该门禁控制系统包括人脸采集摄像头210和计算机设备220。人脸采集摄像头210可通过通信接口与计算机设备220连接。人脸采集摄像头210用于从现实场景中采集包含人脸的目标图像,将采集得到的目标图像发送至计算机设备220,使得计算机设备220执行该活体识别方法。计算机设备220可以是终端,也可以是服务器。
图3为一个实施例中活体识别方法的流程示意图。本实施例主要以该方法应用于上述图1中的服务器120来举例说明。参照图3,该活体识别方法具体包括如下步骤:
S302,获取目标图像。
其中,目标图像是待进行活体人脸图像判别的图像。目标图像可以是对活体进行图像采集得到的图像帧,也可以是对包含人脸的已有图像翻拍得到的图像帧。可以理解的是,正是因为目标图像可以是活体人脸图像,也可以是非活体人脸图像,因此本发明所提供的实施例正是用于判别目标图像是否为活体人脸图像的技术方案。
具体地,终端可通过内置的摄像头,或者外置的与终端关联的摄像头,在摄像头当前的视野下,采集现实场景的图像帧,获取采集得到的图像帧。终端在采集到图像帧后,可检测该图像帧中是否存在人脸图像,若存在人脸图像,则获取该图像帧作为目标图像并发送至服务器,服务器从而获取到目标图像。终端也可在采集到图像帧后,直接将采集的图像帧发送至服务器,服务器再检测该图像帧中是否存在人脸图像,若存在人脸图像,则获取该图像帧作为目标图像。
其中,采集现实场景的图像帧可以是采集现实场景中活体的图像帧,也可以是采集现实场景中包含人脸的已有图像的图像帧。包含人脸的已有图像,比如屏幕上显示的二维图像、身份证件或者人脸照片等。
在一个实施例中,终端可调用摄像头开启摄像扫描模式,并实时扫描摄像头视野中的目标对象,并按照一定的帧率实时地生成图像帧,所生成的图像帧可缓存在终端本地。其中,摄像头视野可以是在终端的显示界面上所呈现出的摄像头可扫描到拍摄到的区域。终端可检测所生成的帧图像中是否存在人脸图像,若是,则获取所生成的帧图像作为目标图像并发送至服务器,服务器从而获取到目标图像。其中,目标对象可以是现实场景中的活体,也可以是包含人脸的已有图像。
在一个实施例中,运行于终端上的应用程序在与相应的服务器交互并需要进行身份验证时,可调用终端内置的摄像头,或者外置的与终端关联的摄像头,在摄像头当前的视野下,采集现实场景的图像帧,获取采集得到的图像帧,进而得到目标图像,将目标图像发送至应用程序相应的服务器。其中,需要进行身份验证的场景,比如社交应用程序中真人实名认证或者账号解封申诉等,再比如银行应用程序中银行账号开户等。
在一个实施例中,在门禁控制系统中,人脸采集摄像头可在摄像头当前的视野下,采集现实场景的图像帧,再将采集得到的图像帧发送至计算机设备,计算机设备在接收到图像帧后,可检测该图像帧中是否存在人脸图像,若存在人脸图像,则获取该图像帧作为目标图像。
S304,提取目标图像中人脸图像的人脸特征数据。
其中,人脸特征数据是用于反映人脸特征的数据。人脸特征数据可以反映出人的性别、人脸的轮廓、发型、眼镜、鼻子、嘴以及各个脸部器官之间的距离等其中的一种或多种特征信息。
在一个实施例中,人脸特征数据可包括面部纹理数据。面部纹理数据可反映面部器官,包括鼻子、耳朵、眉毛、脸颊或嘴唇等的纹理特征与像素点深度。面部纹理数据可以包括面部图像像素点颜色值分布和面部图像像素点亮度值分布。
具体地,服务器在获取目标图像后,可根据预设的图像特征提取策略提取目标图像中人脸图像的人脸特征数据。其中,预设的图像特征提取策略可以是预设的图像特征提取算法或者预先训练完成的特征提取机器学习模型。
S306,根据人脸特征数据进行活体识别,得到第一置信度;该第一置信度表示识别到活体的第一概率。
其中,置信度与目标图像一一对应,用于表示目标图像是活体人脸图像的可信程度。活体人脸图像是对活体进行图像采集得到的图像。置信度越高,表示相应的目标图像是活体人脸图像的概率越高。也就是说,置信度越高,表示在目标图像是对活体进行图像采集得到的图像的概率越大。可以理解的是,这里的第一置信度和后文中的第二置信度均是置信度,但是对应不同的特征数据条件下的置信度。
具体地,服务器可根据提取的人脸特征数据对目标图像进行分类,在提取的人脸特征数据符合活体人脸图像的人脸特征数据时,将目标图像分类至活体人脸图像类。在提取的人脸特征数据符合非活体人脸图像的人脸特征数据时,将目标图像分类至非活体人脸图像类。其中,第一置信度表示提取的人脸特征数据与活体人脸图像的人脸特征数据的符合程度,提取的人脸特征数据与活体人脸图像的人脸特征数据的符合程度越高,则第一置信度越高,也就是说目标图像为活体人脸图像的可能性越大。
在一个实施例中,服务器也可对提取的人脸特征数据进行傅里叶变换,从而在频域空间进行特征分析。在提取的人脸特征数据的频域特征符合活体人脸图像的人脸特征数据的频域特征时,将目标图像分类至活体人脸图像类。在提取的人脸特征数据的频域特征符合非活体人脸图像的人脸特征数据的频域特征时,将目标图像分类至非活体人脸图像类。
S308,从人脸扩展图像中提取背景特征数据;该人脸扩展图像是扩展人脸图像所在区域得到的。
其中,人脸扩展图像包含人脸图像,是基于人脸图像在目标图像中所在区域扩展得到的区域而截取的图像。人脸扩展图像的尺寸大于人脸图像的尺寸。比如,人脸扩展图像所在的区域可以是将人脸图像所在区域向四个方向分别扩展一倍得到,此时人脸扩展图像的横向尺寸为人脸图像的横向尺寸的三倍,人脸扩展图像的纵向尺寸为人脸图像的纵向尺寸的三倍。可以理解的是,这里不对人脸扩展图像的尺寸与人脸图像的尺寸的比例关系作限定,可随实际应用场景的需要设定,只需要满足人脸扩展图像包含人脸图像,且人脸扩展图像的尺寸大于人脸图像的尺寸即可。
背景特征数据是反映图像中背景部分特征的数据。背景特征数据包括背景图像像素点颜色值分布以及背景图像像素连续性特征等。可以理解的是,由于翻拍照片得到的图像帧是采集二维平面图像得到的图像帧,图像帧中可能存在二维平面图像的边框或者边界,此时图像帧中该边框或者边界处的图像像素不连续,而针对活体采集的图像帧是从现实场景中采集三维立体对象得到的图像帧则不会出现此种情况。
具体地,服务器在获取目标图像后,可根据预设区域扩展方式,得到扩展人脸图像所在区域后形成的人脸扩展图像,再根据预设的图像特征提取策略提取目标图像中人脸扩展图像的背景特征数据。其中,预设区域扩展方式可以是仅一个方向上扩展或者是多个方向上均进行扩展。预设的图像特征提取策略可以是预设的图像特征提取算法或者预先训练完成的特征提取机器学习模型。
在一个实施例中,服务器可仅对人脸扩展图像中人脸图像以外的背景图像提取背景特征数据,也可对人脸扩展图像提取背景特征数据。
S310,根据背景特征数据进行活体识别,得到第二置信度;该第二置信度表示识别到活体的第二概率。
具体地,服务器可根据提取的背景特征数据对目标图像进行分类,在提取的背景特征数据符合活体人脸图像的背景特征数据时,将目标图像分类至活体人脸图像类。在提取的背景特征数据符合非活体人脸图像的背景特征数据时,将目标图像分类至非活体人脸图像类。其中,第二置信度表示提取的背景特征数据与活体人脸图像的背景特征数据的符合程度,提取的背景特征数据与活体人脸图像的背景特征数据的符合程度越高,则第二置信度越高,也就是说目标图像为活体人脸图像的可能性越大。
在一个实施例中,通过预先训练完成的机器学习模型提取的背景特征数据,是机器学习模型在训练过程中经过学习后提取的用于反映活体人脸图像或非活体人脸图像的特征数据。由于翻拍照片得到的图像帧中可能存在照片的边框或者边界,而针对活体采集的图像帧则不存在边框或边界,也就是说,边框或者边界特征能够有效地区分活体人脸图像和非活体人脸图像。那么可以理解的是,机器学习模型所学会的提取的特征数据可以包括边框特征数据或者边界特征数据。
S312,根据第一置信度和第二置信度,得到目标图像为活体人脸图像的识别结果。
具体地,由于第一置信度和第二置信度都是目标图像为活体人脸图像的置信度,而且是根据不同的图像特征分析得到的置信度,因此,服务器可将这两个置信度融合,得到最终的置信度,从而根据最终的置信度得到目标图像是否为活体人脸图像的识别结果。
进一步地,在身份验证场景下,服务器在得到目标图像是否为活体人脸图像的识别结果后,即可根据该识别结果以及人脸识别结果得到身份验证是否通过的验证结果,并执行验证结果相应的操作。这样能在极大程度上保证是用户本人进行的操作。比如,银行应用程序中银行账号开户中,若判定目标图像是活体人脸图像且人脸识别匹配,则身份验证通过,并继续后续的开户操作。再比如,门禁控制场景下,若判定目标图像是活体人脸图像且人脸识别匹配,则身份验证通过,并输出开门指令。
上述活体识别方法,在获取到目标图像后,一方面可自动对目标图像中人脸图像进行人脸特征数据提取,进而根据人脸特征数据进行活体识别,得到识别到活体的概率,另一方面还可自动对目标图像中人脸扩展图像提取背景特征数据,进而根据背景特征数据进行活体识别,得到识别到活体的概率,这样结合两个概率即可得到目标图像是否为活体人脸图像的识别结果,既在一定程度上保证了活体检测的准确性,又避免了需要用户配合交互带来的耗时,从而提高了活体检测效率。
在一个实施例中,S304包括:确定目标图像中的人脸区域;按照人脸区域在目标图像中截取人脸图像;将人脸图像输入第一识别模型,通过第一识别模型提取人脸图像的人脸特征数据。
其中,人脸区域是人脸在目标图像中位置。具体地,服务器可通过人脸检测算法识别目标图像中的人脸区域。人脸检测算法可根据需要自定义,如可为OpenCV人脸检测算法、IOS、Android系统自带的人脸检测算法或者优图人脸检测算法等。人脸检测算法可以返回目标图像中是否包含人脸以及具体的人脸区域,如通过矩形框标识人脸的位置。服务器在确定目标图像中的人脸区域后,可沿该人脸区域截取目标图像得到人脸图像。在本实施例中,人脸图像可仅包括人脸面部区域的图像。
图4示出了一个实施例中多尺度区域划分的示意图。参考图4左图,该图为通过终端摄像头采集到的目标图像。区域411为人脸区域,按照区域411截取的图像为人脸图像。参考图4右图,该图为门禁控制系统中人脸采集摄像头采集得到的目标图像。区域421为人脸区域,按照区域421截取的图像为人脸图像。
识别模型是经过训练后具有特征提取与特征识别能力的机器学习模型。机器学习英文全称为Machine Learning,简称ML。机器学习模型可通过样本学习具备特征提取与特征识别能力。机器学习模型可采用神经网络模型、支持向量机或者逻辑回归模型等。可以理解的是,这里的第一识别模型和后文中的第二识别模型均是识别模型,但是提取不同的特征数据的识别模型。
在本实施例中,第一识别模型用于提取目标图像中人脸图像的人脸特征数据。
在一个实施例中,第一识别模型可以是由多层互相连接而形成的复杂网络模型。第一识别模型可包括多层特征提取层,每层特征提取层都有对应的模型参数,每层的模型参数可以是多个,每层特征提取层中的模型参数对输入的图像进行线性或非线性变化,得到特征图(Feature Map)作为运算结果。每个特征提取层接收前一层的运算结果,经过自身的运算,对下一层输出本层的运算结果。其中,模型参数是模型结构中的各个参数,能反应模型各层输出和输入的对应关系。
具体地,服务器在截取到人脸图像后,将人脸图像输入第一识别模型中,第一识别模型中包括的特征提取层逐层对输入的人脸图像进行线性或非线性变化操作,直至第一识别模型中最后一层特征提取层完成线性或非线性变化操作,服务器从而根据第一识别模型最后一层特征提取层输出的结果,得到针对当前输入图像提取的人脸特征数据。
在一个实施例中,第一识别模型可以是已经训练完成的通用的具有特征提取能力的机器学习模型。在将通用的机器学习模型用于特定场景进行提取时效果不佳,因此需要通过专用于特定场景的样本对通用的机器学习模型进行进一步训练和优化。在本实施例中,服务器可获取根据通用的机器学习模型的模型结构和模型参数,并将该模型参数导入第一识别模型结构,得到带有模型参数的第一识别模型。第一识别模型所带的模型参数,作为本实施例中训练第一识别模型的初始参数参与到训练中。
在一个实施例中,第一识别模型也可以是开发人员根据历史模型训练经验初始化的机器学习模型。服务器直接将初始化的机器学习模型中所带的模型参数,作为本实施例中训练第一识别模型的初始参数参与到训练中。其中,第一识别模型的参数初始化可以为高斯随机初始化。
在一个实施例中,将人脸图像输入第一识别模型,通过第一识别模型提取人脸图像的人脸特征数据,包括:将人脸图像输入第一识别模型;通过第一识别模型的卷积层提取人脸图像的人脸特征数据。S306包括:通过第一识别模型的全连接层,根据提取的人脸特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第一置信度。
其中,卷积层是卷积神经网络中的特征提取层。卷积层可以是多层,每层卷积层都有对应的卷积核,每层的卷积核可以是多个。卷积层通过卷积核对输入的图像进行卷积运算,提取图像特征得到特征图作为运算结果。
全连接层(fully connected layers,FC)是卷积神经网络中的特征分类层,用于根据学习到的分布式特征映射关系将提取的特征映射到相应的分类。
具体地,服务器在截取到人脸图像后,将人脸图像输入第一识别模型中,第一识别模型中包括的卷积层逐层对输入的人脸图像进行卷积操作,直至第一识别模型中最后一层卷积层完成卷积操作,再将最后一层卷积层输出的结果作为全连接层的输入,得到目标图像为活体人脸图像的第一置信度。
在一个实施例中,第一置信度可以直接是全连接层输出的目标图像为活体人脸图像的分数。第一置信度也可以是服务器通过回归层(softmax层)将全连接层输出的分数归一化后得到的位于数值范围(0,1)内的数值。此时,第一置信度也可以理解为目标图像为活体人脸图像的概率。
在本实施例中,识别模型的卷积层所输出的特征图,可以更好地反映出对相应输入图像提取的特性,从而可以根据反映特征的特征图采用全连接层分类得到目标图像为活体人脸图像的置信度,并保证识别模型的识别准确性。
图5示出了一个实施例中识别模型使用的示意图。参考图5左图,该图为第一识别模型使用的示意图。服务器获取到目标图像后,从目标图像中截取出人脸图像,将人脸图像输入第一识别模型,第一识别模型的多层卷积层逐层作卷积运算,每个卷积层接收前一层的运算结果,经过自身的运算,对下一层输出本层的运算结果,最后一层卷积层再将运算结果输入全连接层,全连接层输出目标图像为活体人脸图像的分数,回归层(softmax层)再将全连接层输出的分数归一化后得到的位于数值范围(0,1)内的数值,即第一置信度。
上述实施例中,在目标图像中确定人脸区域后,将人脸区域的图像截取下来,仅将人脸区域的图像作为第一识别模型的输入,这样第一识别模型的人脸特征提取并根据提取的人脸特征数据进行目标图像分类时,可避免非人脸区域图像的噪声干扰,识别效果更好。
在一个实施例中,该活体识别方法还包括:获取图像样本集,图像样本集包括活体人脸图像和非活体人脸图像;根据图像样本集中各图像样本的人脸区域,在相应图像样本中截取人脸图像,得到第一训练样本;根据第一训练样本训练第一识别模型。
其中,图像样本集中包括若干图像样本。图像样本可以是活体人脸图像和非活体人脸图像。活体人脸图像和非活体人脸图像的数量比可以是1:1或者其他比例。
具体地,服务器可从图像样本集中图像样本中截取人脸图像得到第一训练样本。其中,服务器可将从活体人脸图像中截取出的人脸图像作为正训练样本,将从非活体人脸图像中截取出的人脸图像作为负训练样本,通过正负训练样本训练第一识别模型的分类能力,以将目标图像分类为活体人脸图像或者非活体人脸图像。
在一个实施例中,根据第一训练样本训练第一识别模型,包括:获取初始化的第一识别模型;确定第一训练样本相对应的第一训练标签;将第一训练样本输入第一识别模型得到第一识别结果;按照第一识别结果与第一训练标签的差异,调整第一识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
具体地,初始化的第一识别模型,可以是将已经训练完成的通用的具有识别能力的机器学习模型的模型参数导入第一识别模型结构,得到带有模型参数的第一识别模型。第一识别模型所带的模型参数,作为本实施例中训练第一识别模型的初始参数参与到训练中。初始化的第一识别模型,也可以是开发人员根据历史模型训练经验初始化的机器学习模型。服务器直接将初始化的机器学习模型中所带的模型参数,作为本实施例中训练第一识别模型的初始参数参与到训练中。第一识别模型的参数初始化可以为高斯随机初始化。
进一步地,服务器可对每个第一训练样本添加训练标签。训练标签用于表示第一训练样本所截取自的图像样本是否为活体人脸图像。服务器再根据第一训练样本和相应添加的训练标签训练第一识别模型。在具体训练过程中,将第一训练样本输出第一识别模型后,第一识别模型会输出第一识别结果,这时服务器可将第一识别结果,与输入的第一训练样本的训练标签进行对比,并朝向减小差异的方向调整第一识别模型的模型参数。
其中,训练停止条件可以是达到预设迭代次数,也可以是训练出的机器学习模型达到分类性能指标。分类性能指标可以是分类正确率达到第一预设阈值,也可以是分类错误率低于第二预设阈值。
服务器还可从第一训练样本中划分出部分训练样本用作测试样本。测试样本是用于在模型训练后进行模型矫正的样本。采用测试样本对训练得到的第一识别模型进行校准,具体可以是将测试样本输入训练得到的第一识别模型,将该第一识别模型的输出与测试样本的训练标签进行对比,若两者之间的差值落在允许的误差范围内,则完成对第一识别模型的校准,若两者之间的差值落在允许的误差范围外,则对第一识别模型进行参数调整,减少两者之间的差值,以完成对第一识别模型的校准。
服务器还可根据第一识别模型的实际输出和预期输出建立代价函数,采用随机梯度下降法最小化代价函数,更新第一识别模型的模型参数。代价函数比如方差代价函数或者交叉熵代价函数等。
在本实施例中,以活体人脸图像和非活体人脸图像训练第一识别模型,可以根据机器学习模型的分类性能动态地调整模型参数,可以更加准确、高效地完成训练任务。
图6示出了一个实施例中识别模型使用的示意图。参考图6左图,该图为通过第一识别模型训练的示意图。服务器获取到图像样本后,从图像样本中截取出人脸图像作为第一训练样本,并为第一训练样本添加训练标签。服务器再将第一训练样本输入第一识别模型,第一识别模型的多层卷积层逐层作卷积运算,每个卷积层接收前一层的运算结果,经过自身的运算,对下一层输出本层的运算结果,最后一层卷积层再将运算结果输入全连接层,全连接层输出训练样本的分类结果。服务器再根据分类结果和训练标签的差异建立代价函数,通过最小化代价函数来调整模型参数。
上述实施例中,利用机器学习模型强大的学习和表示能力进行识别能力学习,所训练得到的机器学习模型对目标图像是否为活体人脸图像进行识别,较传统方法对目标图像进行识别的效果更好。
在一个实施例中,S308包括:确定目标图像中的人脸区域;扩展人脸区域得到人脸扩展区域;按照人脸扩展区域在目标图像中截取人脸扩展图像;将人脸扩展图像输入第二识别模型,通过第二识别模型提取人脸扩展图像的背景特征数据。
其中,人脸扩展图像包含人脸图像,是基于人脸图像在目标图像中所在区域扩展得到的区域而截取的图像。人脸扩展图像的尺寸大于人脸图像的尺寸。服务器可预先设置用于扩展得到人脸扩展图像的扩展方式,并在确定目标图像中的人脸区域后,按照该扩展方式扩展得到人脸扩展区域。服务器再沿该人脸扩展区域截图目标图像得到人脸扩展图像。其中,预设区域扩展方式可以是仅一个方向上扩展或者是多个方向上均进行扩展。
在一个实施例中,通过终端摄像头采集的目标图像由于摄像头的视野范围小,可以直接将目标图像作为人脸扩展图像。
参考图4左图,该图为通过终端摄像头采集到的目标图像。区域411为人脸区域,区域412为扩展区域411得到的人脸扩展区域,按照区域412截取的图像为人脸扩展图像。参考图4右图,该图为门禁控制系统中人脸采集摄像头采集得到的目标图像。区域421为人脸区域,区域422为扩展区域421得到的人脸扩展区域,按照区域422截取的图像为人脸扩展图像。
在本实施例中,第二识别模型用于提取目标图像中人脸扩展图像的背景特征数据。
具体地,服务器在截取到人脸扩展图像后,将人脸扩展图像输入第二识别模型中,第二识别模型中包括的特征提取层逐层对输入的人脸图像进行线性或非线性变化操作,直至第二识别模型中最后一层特征提取层完成线性或非线性变化操作,服务器从而根据第二别模型最后一层特征提取层输出的结果,得到针对当前输入图像提取的背景特征数据。
在一个实施例中,将人脸扩展图像输入第二识别模型,通过第二识别模型提取人脸扩展图像的背景特征数据,包括:将人脸扩展图像输入第二识别模型;通过第二识别模型的卷积层提取人脸扩展图像的背景特征数据。S310包括:通过第二识别模型的全连接层,根据提取的背景特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第二置信度。
具体地,服务器在截取到人脸扩展图像后,将人脸扩展图像输入第二识别模型中,第二识别模型中包括的卷积层逐层对输入的人脸图像进行卷积操作,直至第二识别模型中最后一层卷积层完成卷积操作,再将最后一层卷积层输出的结果作为全连接层的输入,得到目标图像为活体人脸图像的第二置信度。
在一个实施例中,第二置信度可以直接是全连接层输出的目标图像为活体人脸图像的分数。第二置信度也可以是服务器通过回归层(softmax层)将全连接层输出的分数归一化后得到的位于数值范围(0,1)内的数值。此时,第二置信度也可以理解为目标图像为活体人脸图像的概率。
在本实施例中,识别模型的卷积层所输出的特征图,可以更好地反映出对相应输入图像提取的特性,从而可以根据反映特征的特征图采用全连接层分类得到目标图像为活体人脸图像的置信度,并保证识别模型的识别准确性。
参考图5右图,该图为第二识别模型使用的示意图。服务器获取到目标图像后,从目标图像中截取出人脸扩展图像,将人脸扩展图像输入第二识别模型,第二识别模型的多层卷积层逐层作卷积运算,每个卷积层接收前一层的运算结果,经过自身的运算,对下一层输出本层的运算结果,最后一层卷积层再将运算结果输入全连接层,全连接层输出目标图像为活体人脸图像的分数,回归层(softmax层)再将全连接层输出的分数归一化后得到的位于数值范围(0,1)内的数值,即第二置信度。服务器在得到第一置信度和第二置信度后,可将第一置信度和第二置信度融合得到目标图像为活体人脸图像的置信度。
上述实施例中,对目标图像截取人脸扩展图像,并对人脸扩展图像进行背景特征数据提取,以根据背景特征数据来识别目标图像是否为活体图像,由于背景特征数据包括人脸周边的环境信息,可以有效避免翻拍图片冒充真人时图片边框的影响,提高了识别效果。
在一个实施例中,该活体识别方法还包括:获取图像样本集,图像样本集包括活体人脸图像和非活体人脸图像;根据图像样本集中各图像样本的人脸扩展区域,在相应图像样本中截取人脸扩展图像,得到第二训练样本;根据第二训练样本训练第二识别模型。
具体地,服务器可从图像样本集中图像样本中截取人脸扩展图像得到第二训练样本。其中,服务器可将从活体人脸图像中截取出的人脸扩展图像作为正训练样本,将从非活体人脸图像中截取出的人脸扩展图像作为负训练样本,通过正负训练样本训练第二识别模型的分类能力,以将目标图像分类为活体人脸图像或者非活体人脸图像。
在一个实施例中,根据第二训练样本训练第二识别模型,包括:获取初始化的第二识别模型;确定第二训练样本相对应的第二训练标签;将第二训练样本输入第二识别模型得到第二识别结果;按照第二识别结果与第二训练标签的差异,调整第二识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
具体地,第二识别模型可通过上述训练第一识别模型的训练方式进行训练。在实际训练过程中,第一识别模型和第二识别模型相互独立,可以并行训练。
参考图6右图,该图为通过第二识别模型训练的示意图。服务器获取到图像样本后,从图像样本中截取出人脸扩展图像作为第二训练样本,并为第二训练样本添加训练标签。服务器再将第二训练样本输入第二识别模型,第二识别模型的多层卷积层逐层作卷积运算,每个卷积层接收前一层的运算结果,经过自身的运算,对下一层输出本层的运算结果,最后一层卷积层再将运算结果输入全连接层,全连接层输出训练样本的分类结果。服务器再根据分类结果和训练标签的差异建立代价函数,通过最小化代价函数来调整模型参数。
在一个实施例中,由于第一识别模型与第二识别模型中靠前的卷积层提取的是图像的基本特征,因此,第一识别模型和第二识别模型可共享靠前的卷积层,再分为两个分支分别训练。这样可以提高模型训练效率。
在一个实施例中,服务器还可联合训练第一识别模型和第二识别模型。具体地,服务器可分别获取第一识别模型与第二识别模型最后一层卷积层输出的特征图,将两个模型输出的特征图融合后得到特征融合图,这样特征融合图中既包括了人脸特征数据又包括了背景特征数据,服务器即可将特征融合图作为全连接层的输入,通过全连接层输出目标图像为活体人脸图像的置信度。
在一个实施例中,S302包括:进入图像采集状态;在图像采集状态下,选取采集的图像帧作为目标图像,选取的图像帧的人脸区域与采集视野下的预设人脸区域匹配。
其中,图像采集状态是摄像头进行扫描以进行图像采集的状态。具体地,运行于终端上的应用程序在与相应的服务器交互并需要进行身份验证时,可调用终端内置的摄像头,或者外置的与终端关联的摄像头,在摄像头当前的视野下扫描目标对象,并在摄像头当前的视野下设置预设人脸区域。终端按照预设的帧率采集图像帧,并将采集的图像帧中的人脸区域与预设人脸区域比较,当图像帧的人脸区域与采集视野下的预设人脸区域匹配时,则选取该图像帧作为目标图像进行候选的活体人脸图像判别。
在本实施例中,通过在采集图像帧中对人脸区域尺寸约束,既能避免目标图像中人脸图像尺寸过小时人脸特征数据的缺失,又能避免目标图像中人脸图像尺寸过大时背景特征数据的缺失,使得识别效果更好。
在一个实施例中,S312包括:融合第一置信度和第二置信度,得到目标图像为活体人脸图像的置信度;当置信度达到预设置信度阈值时,判定目标图像为活体人脸图像。
具体地,服务器可采用预设的融合方式融合第一置信度和第二置信度,得到最终的目标图像为活体人脸图像的置信度。比如,服务器可将第一置信度和第二置信度进行比较,将两个置信度中数值较小的置信度作为最终的置信度。再比如,服务器可对第一置信度和第二置信度求取加权平均值,将计算得到的加权平均值作为最终的置信度。在计算过程中,第一置信度和第二置信度的权重可根据实际场景需要进行调整。在人脸特征数据影响大的场景下第一置信度的权重大于第二置信度的权重。在背景特征数据影响大的场景下则反之。
进一步地,服务器可再将计算得到的最终的置信度与预设置信度阈值进行比较,当最终的置信度达到预设置信度阈值时,则判定目标图像为活体人脸图像,当最终的置信度小于预设置信度阈值时,则判定目标图像为非活体人脸图像。其中,预设置信度阈值是根据经验设定的阈值,并认为高于该阈值的置信度标识可以相信目标图像为活体人脸图像。
在本实施例中,在通过将根据两种图像特征识别得到的置信度融合,综合考虑人脸特征与背景特征的影响,提高了活体识别效果。
如图7所示,在一个具体的实施例中,该活体识别方法具体包括以下步骤:
S702,获取图像样本集,图像样本集包括活体人脸图像和非活体人脸图像。
S704,根据图像样本集中各图像样本的人脸区域,在相应图像样本中截取人脸图像,得到第一训练样本。
S706,获取初始化的第一识别模型;确定第一训练样本相对应的第一训练标签;将第一训练样本输入第一识别模型得到第一识别结果;按照第一识别结果与第一训练标签的差异,调整第一识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
S708,根据图像样本集中各图像样本的人脸扩展区域,在相应图像样本中截取人脸扩展图像,得到第二训练样本。
S710,获取初始化的第二识别模型;确定第二训练样本相对应的第二训练标签;将第二训练样本输入第二识别模型得到第二识别结果;按照第二识别结果与第二训练标签的差异,调整第二识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
S712,获取目标图像;确定目标图像中的人脸区域。
S714,按照人脸区域在目标图像中截取人脸图像。
S716,将人脸图像输入第一识别模型;通过第一识别模型的卷积层提取人脸图像的人脸特征数据。
S718,通过第一识别模型的全连接层,根据提取的人脸特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第一置信度。
S720,扩展人脸区域得到人脸扩展区域;按照人脸扩展区域在目标图像中截取人脸扩展图像。
S722,将人脸扩展图像输入第二识别模型;通过第二识别模型的卷积层提取人脸扩展图像的背景特征数据。
S724,通过第二识别模型的全连接层,根据提取的背景特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第二置信度。
S726,融合第一置信度和第二置信度,得到目标图像为活体人脸图像的置信度。
S728,判断置信度是否达到预设置信度阈值;若是,则跳转至步骤S730;若否,则跳转至步骤S732。
S730,判定目标图像为活体人脸图像。
S732,判定目标图像为非活体人脸图像。
本实施例中,在获取到目标图像后,一方面可自动对目标图像中人脸图像进行人脸特征数据提取,进而根据人脸特征数据进行活体识别,得到识别到活体的概率,另一方面还可自动对目标图像中人脸扩展图像提取背景特征数据,进而根据背景特征数据进行活体识别,得到识别到活体的概率,这样结合两个概率即可得到目标图像是否为活体人脸图像的识别结果,既在一定程度上保证了活体检测的准确性,又避免了需要用户配合交互带来的耗时,从而提高了活体检测效率。
应该理解的是,虽然上述各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
如图8所示,在一个实施例中,提供了一种活体识别装置800。参照图8,该活体识别装置800包括:获取模块801、第一提取模块802、第一识别模块803、第二提取模块804、第二识别模块805和输出模块806。
获取模块801,用于获取目标图像。
第一提取模块802,用于提取目标图像中人脸图像的人脸特征数据。
第一识别模块803,用于根据人脸特征数据进行活体识别,得到第一置信度;第一置信度表示识别到活体的第一概率。
第二提取模块804,用于从人脸扩展图像中提取背景特征数据;人脸扩展图像是扩展人脸图像所在区域得到的。
第二识别模块805,用于根据背景特征数据进行活体识别,得到第二置信度;第二置信度表示识别到活体的第二概率。
输出模块806,用于根据第一置信度和第二置信度,得到目标图像为活体人脸图像的识别结果。
上述活体识别装置800,在获取到目标图像后,一方面可自动对目标图像中人脸图像进行人脸特征数据提取,进而根据人脸特征数据进行活体识别,得到识别到活体的概率,另一方面还可自动对目标图像中人脸扩展图像提取背景特征数据,进而根据背景特征数据进行活体识别,得到识别到活体的概率,这样结合两个概率即可得到目标图像是否为活体人脸图像的识别结果,既在一定程度上保证了活体检测的准确性,又避免了需要用户配合交互带来的耗时,从而提高了活体检测效率。
在一个实施例中,第一提取模块802还用于确定目标图像中的人脸区域;按照人脸区域在目标图像中截取人脸图像;将人脸图像输入第一识别模型,通过第一识别模型提取人脸图像的人脸特征数据。
在一个实施例中,第一提取模块802还用于将人脸图像输入第一识别模型;通过第一识别模型的卷积层提取人脸图像的人脸特征数据。第一识别模块803还用于通过第一识别模型的全连接层,根据提取的人脸特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第一置信度。
如图9所示,在一个实施例中,活体识别装置800还包括:模型训练模块807。
模型训练模块807,用于获取图像样本集,图像样本集包括活体人脸图像和非活体人脸图像;根据图像样本集中各图像样本的人脸区域,在相应图像样本中截取人脸图像,得到第一训练样本;根据第一训练样本训练第一识别模型。
在一个实施例中,模型训练模块807还用于获取初始化的第一识别模型;确定第一训练样本相对应的第一训练标签;将第一训练样本输入第一识别模型得到第一识别结果;按照第一识别结果与第一训练标签的差异,调整第一识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,第二提取模块804还用于确定目标图像中的人脸区域;扩展人脸区域得到人脸扩展区域;按照人脸扩展区域在目标图像中截取人脸扩展图像;将人脸扩展图像输入第二识别模型,通过第二识别模型提取人脸扩展图像的背景特征数据。
在一个实施例中,第二提取模块804还用于将人脸扩展图像输入第二识别模型;通过第二识别模型的卷积层提取人脸扩展图像的背景特征数据。第二识别模块805还用于通过第二识别模型的全连接层,根据提取的背景特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第二置信度。
在一个实施例中,模型训练模块807还用于获取图像样本集,图像样本集包括活体人脸图像和非活体人脸图像;根据图像样本集中各图像样本的人脸扩展区域,在相应图像样本中截取人脸扩展图像,得到第二训练样本;根据第二训练样本训练第二识别模型。
在一个实施例中,模型训练模块807还用于获取初始化的第二识别模型;确定第二训练样本相对应的第二训练标签;将第二训练样本输入第二识别模型得到第二识别结果;按照第二识别结果与第二训练标签的差异,调整第二识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,获取模块801还用于进入图像采集状态;在图像采集状态下,选取采集的图像帧作为目标图像,选取的图像帧的人脸区域与采集视野下的预设人脸区域匹配。
在一个实施例中,输出模块806还用于融合第一置信度和第二置信度,得到目标图像为活体人脸图像的置信度;当置信度达到预设置信度阈值时,判定目标图像为活体人脸图像。
图10示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的终端110或者图2中的计算机设备220。如图10所示,该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、摄像头和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现活体识别方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行活体识别方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏等。本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
图11示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的服务器120或者图2中的计算机设备220。如图11所示,该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现活体识别方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行活体识别方法。本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的活体识别装置可以实现为一种计算机程序的形式,计算机程序可在如图10或图11所示的计算机设备上运行,计算机设备的非易失性存储介质可存储组成该活体识别装置的各个程序模块,比如,图8所示的获取模块801、第一提取模块802、第一识别模块803、第二提取模块804、第二识别模块805和输出模块806等。各个程序模块组成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的活体识别方法中的步骤。
例如,图11所示的计算机设备可以通过如图8所示的活体识别装置800中的获取模块801获取目标图像。通过第一提取模块802提取目标图像中人脸图像的人脸特征数据。通过第一识别模块803根据人脸特征数据进行活体识别,得到第一置信度;第一置信度表示识别到活体的第一概率。通过第二提取模块804从人脸扩展图像中提取背景特征数据;人脸扩展图像是扩展人脸图像所在区域得到的。通过第二识别模块805根据背景特征数据进行活体识别,得到第二置信度;第二置信度表示识别到活体的第二概率。通过输出模块806根据第一置信度和第二置信度,得到目标图像为活体人脸图像的识别结果。
在一个实施例中,提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时,使得处理器执行以下步骤:获取目标图像;提取目标图像中人脸图像的人脸特征数据;根据人脸特征数据进行活体识别,得到第一置信度;第一置信度表示识别到活体的第一概率;从人脸扩展图像中提取背景特征数据;人脸扩展图像是扩展人脸图像所在区域得到的;根据背景特征数据进行活体识别,得到第二置信度;第二置信度表示识别到活体的第二概率;根据第一置信度和第二置信度,得到目标图像为活体人脸图像的识别结果。
在一个实施例中,提取目标图像中人脸图像的人脸特征数据,包括:确定目标图像中的人脸区域;按照人脸区域在目标图像中截取人脸图像;将人脸图像输入第一识别模型,通过第一识别模型提取人脸图像的人脸特征数据。
在一个实施例中,将人脸图像输入第一识别模型,通过第一识别模型提取人脸图像的人脸特征数据,包括:将人脸图像输入第一识别模型;通过第一识别模型的卷积层提取人脸图像的人脸特征数据。根据人脸特征数据进行活体识别,得到第一置信度,包括:通过第一识别模型的全连接层,根据提取的人脸特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第一置信度。
在一个实施例中,该计算机程序被处理器执行时,还使得处理器执行以下步骤:获取图像样本集,图像样本集包括活体人脸图像和非活体人脸图像;根据图像样本集中各图像样本的人脸区域,在相应图像样本中截取人脸图像,得到第一训练样本;根据第一训练样本训练第一识别模型。
在一个实施例中,根据第一训练样本训练第一识别模型,包括:获取初始化的第一识别模型;确定第一训练样本相对应的第一训练标签;将第一训练样本输入第一识别模型得到第一识别结果;按照第一识别结果与第一训练标签的差异,调整第一识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,从人脸扩展图像中提取背景特征数据,包括:确定目标图像中的人脸区域;扩展人脸区域得到人脸扩展区域;按照人脸扩展区域在目标图像中截取人脸扩展图像;将人脸扩展图像输入第二识别模型,通过第二识别模型提取人脸扩展图像的背景特征数据。
在一个实施例中,将人脸扩展图像输入第二识别模型,通过第二识别模型提取人脸扩展图像的背景特征数据,包括:将人脸扩展图像输入第二识别模型;通过第二识别模型的卷积层提取人脸扩展图像的背景特征数据。根据背景特征数据进行活体识别,得到第二置信度,包括:通过第二识别模型的全连接层,根据提取的背景特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第二置信度。
在一个实施例中,该计算机程序被处理器执行时,还使得处理器执行以下步骤:获取图像样本集,图像样本集包括活体人脸图像和非活体人脸图像;根据图像样本集中各图像样本的人脸扩展区域,在相应图像样本中截取人脸扩展图像,得到第二训练样本;根据第二训练样本训练第二识别模型。
在一个实施例中,根据第二训练样本训练第二识别模型,包括:获取初始化的第二识别模型;确定第二训练样本相对应的第二训练标签;将第二训练样本输入第二识别模型得到第二识别结果;按照第二识别结果与第二训练标签的差异,调整第二识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,获取目标图像,包括:进入图像采集状态;在图像采集状态下,选取采集的图像帧作为目标图像,选取的图像帧的人脸区域与采集视野下的预设人脸区域匹配。
在一个实施例中,根据第一置信度和第二置信度,得到目标图像为活体人脸图像的识别结果,包括:融合第一置信度和第二置信度,得到目标图像为活体人脸图像的置信度;当置信度达到预设置信度阈值时,判定目标图像为活体人脸图像。
上述存储介质,在获取到目标图像后,一方面可自动对目标图像中人脸图像进行人脸特征数据提取,进而根据人脸特征数据进行活体识别,得到识别到活体的概率,另一方面还可自动对目标图像中人脸扩展图像提取背景特征数据,进而根据背景特征数据进行活体识别,得到识别到活体的概率,这样结合两个概率即可得到目标图像是否为活体人脸图像的识别结果,既在一定程度上保证了活体检测的准确性,又避免了需要用户配合交互带来的耗时,从而提高了活体检测效率。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中储存有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:获取目标图像;提取目标图像中人脸图像的人脸特征数据;根据人脸特征数据进行活体识别,得到第一置信度;第一置信度表示识别到活体的第一概率;从人脸扩展图像中提取背景特征数据;人脸扩展图像是扩展人脸图像所在区域得到的;根据背景特征数据进行活体识别,得到第二置信度;第二置信度表示识别到活体的第二概率;根据第一置信度和第二置信度,得到目标图像为活体人脸图像的识别结果。
在一个实施例中,提取目标图像中人脸图像的人脸特征数据,包括:确定目标图像中的人脸区域;按照人脸区域在目标图像中截取人脸图像;将人脸图像输入第一识别模型,通过第一识别模型提取人脸图像的人脸特征数据。
在一个实施例中,将人脸图像输入第一识别模型,通过第一识别模型提取人脸图像的人脸特征数据,包括:将人脸图像输入第一识别模型;通过第一识别模型的卷积层提取人脸图像的人脸特征数据。根据人脸特征数据进行活体识别,得到第一置信度,包括:通过第一识别模型的全连接层,根据提取的人脸特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第一置信度。
在一个实施例中,该计算机程序被处理器执行时,还使得处理器执行以下步骤:获取图像样本集,图像样本集包括活体人脸图像和非活体人脸图像;根据图像样本集中各图像样本的人脸区域,在相应图像样本中截取人脸图像,得到第一训练样本;根据第一训练样本训练第一识别模型。
在一个实施例中,根据第一训练样本训练第一识别模型,包括:获取初始化的第一识别模型;确定第一训练样本相对应的第一训练标签;将第一训练样本输入第一识别模型得到第一识别结果;按照第一识别结果与第一训练标签的差异,调整第一识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,从人脸扩展图像中提取背景特征数据,包括:确定目标图像中的人脸区域;扩展人脸区域得到人脸扩展区域;按照人脸扩展区域在目标图像中截取人脸扩展图像;将人脸扩展图像输入第二识别模型,通过第二识别模型提取人脸扩展图像的背景特征数据。
在一个实施例中,将人脸扩展图像输入第二识别模型,通过第二识别模型提取人脸扩展图像的背景特征数据,包括:将人脸扩展图像输入第二识别模型;通过第二识别模型的卷积层提取人脸扩展图像的背景特征数据。根据背景特征数据进行活体识别,得到第二置信度,包括:通过第二识别模型的全连接层,根据提取的背景特征数据对目标图像进行分类,得到目标图像为活体人脸图像的第二置信度。
在一个实施例中,该计算机程序被处理器执行时,还使得处理器执行以下步骤:获取图像样本集,图像样本集包括活体人脸图像和非活体人脸图像;根据图像样本集中各图像样本的人脸扩展区域,在相应图像样本中截取人脸扩展图像,得到第二训练样本;根据第二训练样本训练第二识别模型。
在一个实施例中,根据第二训练样本训练第二识别模型,包括:获取初始化的第二识别模型;确定第二训练样本相对应的第二训练标签;将第二训练样本输入第二识别模型得到第二识别结果;按照第二识别结果与第二训练标签的差异,调整第二识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
在一个实施例中,获取目标图像,包括:进入图像采集状态;在图像采集状态下,选取采集的图像帧作为目标图像,选取的图像帧的人脸区域与采集视野下的预设人脸区域匹配。
在一个实施例中,根据第一置信度和第二置信度,得到目标图像为活体人脸图像的识别结果,包括:融合第一置信度和第二置信度,得到目标图像为活体人脸图像的置信度;当置信度达到预设置信度阈值时,判定目标图像为活体人脸图像。
上述计算机设备,在获取到目标图像后,一方面可自动对目标图像中人脸图像进行人脸特征数据提取,进而根据人脸特征数据进行活体识别,得到识别到活体的概率,另一方面还可自动对目标图像中人脸扩展图像提取背景特征数据,进而根据背景特征数据进行活体识别,得到识别到活体的概率,这样结合两个概率即可得到目标图像是否为活体人脸图像的识别结果,既在一定程度上保证了活体检测的准确性,又避免了需要用户配合交互带来的耗时,从而提高了活体检测效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种活体识别方法,包括:
获取目标图像;
提取所述目标图像中人脸图像的人脸特征数据;
根据所述人脸特征数据进行活体识别,得到第一置信度;所述第一置信度表示识别到活体的第一概率;
从人脸扩展图像中提取背景特征数据;所述人脸扩展图像是扩展所述人脸图像所在区域得到的;
根据所述背景特征数据进行活体识别,得到第二置信度;所述第二置信度表示识别到活体的第二概率;
根据所述第一置信度和所述第二置信度,得到所述目标图像为活体人脸图像的识别结果。
2.根据权利要求1所述的方法,其特征在于,所述提取所述目标图像中人脸图像的人脸特征数据,包括:
确定所述目标图像中的人脸区域;
按照所述人脸区域在所述目标图像中截取人脸图像;
将所述人脸图像输入第一识别模型,通过所述第一识别模型提取所述人脸图像的人脸特征数据。
3.根据权利要求2所述的方法,其特征在于,所述将所述人脸图像输入第一识别模型,通过所述第一识别模型提取所述人脸图像的人脸特征数据,包括:
将所述人脸图像输入第一识别模型;
通过所述第一识别模型的卷积层提取所述人脸图像的人脸特征数据;
所述根据所述人脸特征数据进行活体识别,得到第一置信度,包括:
通过所述第一识别模型的全连接层,根据提取的所述人脸特征数据对所述目标图像进行分类,得到所述目标图像为活体人脸图像的第一置信度。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
获取图像样本集,所述图像样本集包括活体人脸图像和非活体人脸图像;
根据所述图像样本集中各图像样本的人脸区域,在相应图像样本中截取人脸图像,得到第一训练样本;
根据所述第一训练样本训练第一识别模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第一训练样本训练第一识别模型,包括:
获取初始化的第一识别模型;
确定所述第一训练样本相对应的第一训练标签;
将所述第一训练样本输入所述第一识别模型得到第一识别结果;
按照所述第一识别结果与所述第一训练标签的差异,调整所述第一识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
6.根据权利要求1所述的方法,其特征在于,所述从人脸扩展图像中提取背景特征数据,包括:
确定所述目标图像中的人脸区域;
扩展所述人脸区域得到人脸扩展区域;
按照所述人脸扩展区域在所述目标图像中截取人脸扩展图像;
将所述人脸扩展图像输入第二识别模型,通过所述第二识别模型提取所述人脸扩展图像的背景特征数据。
7.根据权利要求6所述的方法,其特征在于,所述将所述人脸扩展图像输入第二识别模型,通过所述第二识别模型提取所述人脸扩展图像的背景特征数据,包括:
将所述人脸扩展图像输入第二识别模型;
通过所述第二识别模型的卷积层提取所述人脸扩展图像的背景特征数据;
所述根据所述背景特征数据进行活体识别,得到第二置信度,包括:
通过所述第二识别模型的全连接层,根据提取的所述背景特征数据对所述目标图像进行分类,得到所述目标图像为活体人脸图像的第二置信度。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
获取图像样本集,所述图像样本集包括活体人脸图像和非活体人脸图像;
根据所述图像样本集中各图像样本的人脸扩展区域,在相应图像样本中截取人脸扩展图像,得到第二训练样本;
根据所述第二训练样本训练第二识别模型。
9.根据权利要求8所述的方法,其特征在于,所述根据所述第二训练样本训练第二识别模型,包括:
获取初始化的第二识别模型;
确定所述第二训练样本相对应的第二训练标签;
将所述第二训练样本输入所述第二识别模型得到第二识别结果;
按照所述第二识别结果与所述第二训练标签的差异,调整所述第二识别模型的模型参数并继续训练,直至满足训练停止条件时结束训练。
10.根据权利要求1至9中任意一项所述的方法,其特征在于,所述获取目标图像,包括:
进入图像采集状态;
在所述图像采集状态下,选取采集的图像帧作为目标图像,选取的所述图像帧的人脸区域与采集视野下的预设人脸区域匹配。
11.根据权利要求1至9中任意一项所述的方法,其特征在于,所述根据所述第一置信度和所述第二置信度,得到所述目标图像为活体人脸图像的识别结果,包括:
融合所述第一置信度和所述第二置信度,得到所述目标图像为活体人脸图像的置信度;
当所述置信度达到预设置信度阈值时,判定所述目标图像为活体人脸图像。
12.一种活体识别装置,包括:
获取模块,用于获取目标图像;
第一提取模块,用于提取所述目标图像中人脸图像的人脸特征数据;
第一识别模块,用于根据所述人脸特征数据进行活体识别,得到第一置信度;所述第一置信度表示识别到活体的第一概率;
第二提取模块,用于从人脸扩展图像中提取背景特征数据;所述人脸扩展图像是扩展所述人脸图像所在区域得到的;
第二识别模块,用于根据所述背景特征数据进行活体识别,得到第二置信度;所述第二置信度表示识别到活体的第二概率;
输出模块,用于根据所述第一置信度和所述第二置信度,得到所述目标图像为活体人脸图像的识别结果。
13.根据权利要求12所述的装置,其特征在于,所述第一提取模块还用于确定所述目标图像中的人脸区域;按照所述人脸区域在所述目标图像中截取人脸图像;将所述人脸图像输入第一识别模型,通过所述第一识别模型提取所述人脸图像的人脸特征数据。
14.根据权利要求12所述的装置,其特征在于,所述第二提取模块还用于确定所述目标图像中的人脸区域;扩展所述人脸区域得到人脸扩展区域;按照所述人脸扩展区域在所述目标图像中截取人脸扩展图像;将所述人脸扩展图像输入第二识别模型,通过所述第二识别模型提取所述人脸扩展图像的背景特征数据。
15.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至11中任一项所述的方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711159039.8A CN107818313B (zh) | 2017-11-20 | 2017-11-20 | 活体识别方法、装置和存储介质 |
PCT/CN2018/114096 WO2019096029A1 (zh) | 2017-11-20 | 2018-11-06 | 活体识别方法、存储介质和计算机设备 |
US16/864,103 US11176393B2 (en) | 2017-11-20 | 2020-04-30 | Living body recognition method, storage medium, and computer device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711159039.8A CN107818313B (zh) | 2017-11-20 | 2017-11-20 | 活体识别方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107818313A true CN107818313A (zh) | 2018-03-20 |
CN107818313B CN107818313B (zh) | 2019-05-14 |
Family
ID=61608691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711159039.8A Active CN107818313B (zh) | 2017-11-20 | 2017-11-20 | 活体识别方法、装置和存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11176393B2 (zh) |
CN (1) | CN107818313B (zh) |
WO (1) | WO2019096029A1 (zh) |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108416595A (zh) * | 2018-03-27 | 2018-08-17 | 百度在线网络技术(北京)有限公司 | 信息处理方法和装置 |
CN108491794A (zh) * | 2018-03-22 | 2018-09-04 | 腾讯科技(深圳)有限公司 | 面部识别的方法和装置 |
CN108665457A (zh) * | 2018-05-16 | 2018-10-16 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、存储介质及计算机设备 |
CN108809992A (zh) * | 2018-06-15 | 2018-11-13 | 黄玉新 | 一种人脸识别验证系统及其与目标系统的关联方法 |
CN108810418A (zh) * | 2018-07-16 | 2018-11-13 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
CN108846321A (zh) * | 2018-05-25 | 2018-11-20 | 北京小米移动软件有限公司 | 识别人脸假体的方法及装置、电子设备 |
CN108875676A (zh) * | 2018-06-28 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测方法、装置及系统 |
CN108897786A (zh) * | 2018-06-08 | 2018-11-27 | Oppo广东移动通信有限公司 | 应用程序的推荐方法、装置、存储介质及移动终端 |
CN108900769A (zh) * | 2018-07-16 | 2018-11-27 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
CN108984657A (zh) * | 2018-06-28 | 2018-12-11 | Oppo广东移动通信有限公司 | 图像推荐方法和装置、终端、可读存储介质 |
CN108986245A (zh) * | 2018-06-14 | 2018-12-11 | 深圳市商汤科技有限公司 | 基于人脸识别的考勤方法及终端 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
CN109063774A (zh) * | 2018-08-03 | 2018-12-21 | 百度在线网络技术(北京)有限公司 | 图像追踪效果评价方法、装置、设备及可读存储介质 |
CN109766764A (zh) * | 2018-12-17 | 2019-05-17 | 平安普惠企业管理有限公司 | 人脸识别数据处理方法、装置、计算机设备和存储介质 |
CN109784148A (zh) * | 2018-12-06 | 2019-05-21 | 北京飞搜科技有限公司 | 活体检测方法及装置 |
WO2019096029A1 (zh) * | 2017-11-20 | 2019-05-23 | 腾讯科技(深圳)有限公司 | 活体识别方法、存储介质和计算机设备 |
CN109816200A (zh) * | 2018-12-17 | 2019-05-28 | 平安国际融资租赁有限公司 | 任务推送方法、装置、计算机设备和存储介质 |
CN110069983A (zh) * | 2019-03-08 | 2019-07-30 | 深圳神目信息技术有限公司 | 基于显示媒质的活体识别方法、装置、终端及可读介质 |
CN110135259A (zh) * | 2019-04-15 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 静默式活体图片识别方法、装置、计算机设备和存储介质 |
CN110232353A (zh) * | 2019-06-12 | 2019-09-13 | 成都世纪光合作用科技有限公司 | 一种获取场景人员深度位置的方法和装置 |
CN110245645A (zh) * | 2019-06-21 | 2019-09-17 | 北京字节跳动网络技术有限公司 | 人脸活体识别方法、装置、设备及存储介质 |
CN110309767A (zh) * | 2019-06-28 | 2019-10-08 | 广州致远电子有限公司 | 活体检测设备、识别方法、装置及存储介质 |
CN110363116A (zh) * | 2019-06-28 | 2019-10-22 | 上海交通大学 | 基于gld-gan的不规则人脸矫正方法、系统及介质 |
CN110378219A (zh) * | 2019-06-13 | 2019-10-25 | 北京迈格威科技有限公司 | 活体检测方法、装置、电子设备及可读存储介质 |
CN110462633A (zh) * | 2019-06-27 | 2019-11-15 | 深圳市汇顶科技股份有限公司 | 一种人脸识别的方法、装置和电子设备 |
CN110490076A (zh) * | 2019-07-18 | 2019-11-22 | 平安科技(深圳)有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110705392A (zh) * | 2019-09-17 | 2020-01-17 | Oppo广东移动通信有限公司 | 一种人脸图像检测方法及装置、存储介质 |
CN111325067A (zh) * | 2018-12-14 | 2020-06-23 | 北京金山云网络技术有限公司 | 违规视频的识别方法、装置及电子设备 |
CN111435452A (zh) * | 2019-01-11 | 2020-07-21 | 百度在线网络技术(北京)有限公司 | 模型训练方法、装置、设备和介质 |
CN111597944A (zh) * | 2020-05-11 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
WO2020207189A1 (zh) * | 2019-04-08 | 2020-10-15 | 腾讯科技(深圳)有限公司 | 身份验证方法、装置、存储介质和计算机设备 |
CN111860055A (zh) * | 2019-04-29 | 2020-10-30 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、可读存储介质及设备 |
CN111967289A (zh) * | 2019-05-20 | 2020-11-20 | 高新兴科技集团股份有限公司 | 一种非配合式人脸活体检测方法及计算机存储介质 |
CN112115831A (zh) * | 2020-09-10 | 2020-12-22 | 深圳印像数据科技有限公司 | 活体检测图像预处理方法 |
CN112215045A (zh) * | 2019-07-12 | 2021-01-12 | 普天信息技术有限公司 | 一种活体检测方法和装置 |
CN112287830A (zh) * | 2020-10-29 | 2021-01-29 | 泰康保险集团股份有限公司 | 一种图像的检测方法及装置 |
CN112334906A (zh) * | 2018-06-20 | 2021-02-05 | 祖克斯有限公司 | 从机器学习模型输出推断出的实例分割 |
CN112347904A (zh) * | 2020-11-04 | 2021-02-09 | 杭州锐颖科技有限公司 | 基于双目深度和图片结构的活体检测方法、装置及介质 |
CN112800997A (zh) * | 2020-04-10 | 2021-05-14 | 支付宝(杭州)信息技术有限公司 | 一种活体检测方法、装置及设备 |
CN113158773A (zh) * | 2021-03-05 | 2021-07-23 | 普联技术有限公司 | 一种活体检测模型的训练方法及训练装置 |
CN113496215A (zh) * | 2021-07-07 | 2021-10-12 | 浙江大华技术股份有限公司 | 一种活体人脸检测的方法、装置及电子设备 |
WO2022028425A1 (zh) * | 2020-08-05 | 2022-02-10 | 广州虎牙科技有限公司 | 对象识别方法和装置、电子设备及存储介质 |
CN115512428A (zh) * | 2022-11-15 | 2022-12-23 | 华南理工大学 | 一种人脸活体判别方法、系统、装置和存储介质 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101977174B1 (ko) * | 2017-09-13 | 2019-05-10 | 이재준 | 영상 분석 방법, 장치 및 컴퓨터 프로그램 |
CN111178137B (zh) * | 2019-12-04 | 2023-05-26 | 百度在线网络技术(北京)有限公司 | 检测真实人脸方法、装置、电子设备以及计算机可读存储介质 |
TWI731503B (zh) * | 2019-12-10 | 2021-06-21 | 緯創資通股份有限公司 | 活體臉部辨識系統與方法 |
CN111507262B (zh) * | 2020-04-17 | 2023-12-08 | 北京百度网讯科技有限公司 | 用于检测活体的方法和装置 |
US11741606B2 (en) * | 2020-07-02 | 2023-08-29 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a user's body after removing hair for determining a user-specific hair removal efficiency value |
CN112085701A (zh) * | 2020-08-05 | 2020-12-15 | 深圳市优必选科技股份有限公司 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
CN112183613B (zh) * | 2020-09-24 | 2024-03-22 | 杭州睿琪软件有限公司 | 对象识别方法和设备与非暂态计算机可读存储介质 |
CN112329624A (zh) * | 2020-11-05 | 2021-02-05 | 北京地平线信息技术有限公司 | 活体检测方法和装置、存储介质、电子设备 |
CN112270288A (zh) * | 2020-11-10 | 2021-01-26 | 深圳市商汤科技有限公司 | 活体识别、门禁设备控制方法和装置、电子设备 |
CN112580472A (zh) * | 2020-12-11 | 2021-03-30 | 云从科技集团股份有限公司 | 一种快速轻量的人脸识别方法、装置、机器可读介质及设备 |
CN113221766A (zh) * | 2021-05-18 | 2021-08-06 | 北京百度网讯科技有限公司 | 训练活体人脸识别模型、识别活体人脸的方法及相关装置 |
CN113221767B (zh) * | 2021-05-18 | 2023-08-04 | 北京百度网讯科技有限公司 | 训练活体人脸识别模型、识别活体人脸的方法及相关装置 |
CN113420597A (zh) * | 2021-05-24 | 2021-09-21 | 北京三快在线科技有限公司 | 环形交叉口识别方法及装置,电子设备及存储介质 |
CN115147705B (zh) * | 2022-09-06 | 2023-02-03 | 平安银行股份有限公司 | 人脸翻拍检测方法、装置、电子设备及存储介质 |
CN115223022B (zh) * | 2022-09-15 | 2022-12-09 | 平安银行股份有限公司 | 一种图像处理方法、装置、存储介质及设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104766063A (zh) * | 2015-04-08 | 2015-07-08 | 宁波大学 | 一种活体人脸识别方法 |
CN105389553A (zh) * | 2015-11-06 | 2016-03-09 | 北京汉王智远科技有限公司 | 一种活体检测方法和装置 |
CN106096519A (zh) * | 2016-06-01 | 2016-11-09 | 腾讯科技(深圳)有限公司 | 活体鉴别方法及装置 |
US20160350611A1 (en) * | 2015-04-29 | 2016-12-01 | Beijing Kuangshi Technology Co., Ltd. | Method and apparatus for authenticating liveness face, and computer program product thereof |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN106897675A (zh) * | 2017-01-24 | 2017-06-27 | 上海交通大学 | 双目视觉深度特征与表观特征相结合的人脸活体检测方法 |
CN107220635A (zh) * | 2017-06-21 | 2017-09-29 | 北京市威富安防科技有限公司 | 基于多造假方式的人脸活体检测方法 |
CN107292267A (zh) * | 2017-06-21 | 2017-10-24 | 北京市威富安防科技有限公司 | 照片造假卷积神经网络训练方法及人脸活体检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107818313B (zh) * | 2017-11-20 | 2019-05-14 | 腾讯科技(深圳)有限公司 | 活体识别方法、装置和存储介质 |
-
2017
- 2017-11-20 CN CN201711159039.8A patent/CN107818313B/zh active Active
-
2018
- 2018-11-06 WO PCT/CN2018/114096 patent/WO2019096029A1/zh active Application Filing
-
2020
- 2020-04-30 US US16/864,103 patent/US11176393B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104766063A (zh) * | 2015-04-08 | 2015-07-08 | 宁波大学 | 一种活体人脸识别方法 |
US20160350611A1 (en) * | 2015-04-29 | 2016-12-01 | Beijing Kuangshi Technology Co., Ltd. | Method and apparatus for authenticating liveness face, and computer program product thereof |
CN105389553A (zh) * | 2015-11-06 | 2016-03-09 | 北京汉王智远科技有限公司 | 一种活体检测方法和装置 |
CN106096519A (zh) * | 2016-06-01 | 2016-11-09 | 腾讯科技(深圳)有限公司 | 活体鉴别方法及装置 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN106897675A (zh) * | 2017-01-24 | 2017-06-27 | 上海交通大学 | 双目视觉深度特征与表观特征相结合的人脸活体检测方法 |
CN107220635A (zh) * | 2017-06-21 | 2017-09-29 | 北京市威富安防科技有限公司 | 基于多造假方式的人脸活体检测方法 |
CN107292267A (zh) * | 2017-06-21 | 2017-10-24 | 北京市威富安防科技有限公司 | 照片造假卷积神经网络训练方法及人脸活体检测方法 |
Cited By (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11176393B2 (en) | 2017-11-20 | 2021-11-16 | Tencent Technology (Shenzhen) Company Limited | Living body recognition method, storage medium, and computer device |
WO2019096029A1 (zh) * | 2017-11-20 | 2019-05-23 | 腾讯科技(深圳)有限公司 | 活体识别方法、存储介质和计算机设备 |
CN108491794A (zh) * | 2018-03-22 | 2018-09-04 | 腾讯科技(深圳)有限公司 | 面部识别的方法和装置 |
CN108416595A (zh) * | 2018-03-27 | 2018-08-17 | 百度在线网络技术(北京)有限公司 | 信息处理方法和装置 |
CN110335269A (zh) * | 2018-05-16 | 2019-10-15 | 腾讯医疗健康(深圳)有限公司 | 眼底图像的类别识别方法和装置 |
JP7085007B2 (ja) | 2018-05-16 | 2022-06-15 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 画像認識方法、コンピュータ装置及びプログラム |
JP2021513167A (ja) * | 2018-05-16 | 2021-05-20 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 画像認識方法、記憶媒体及びコンピュータ装置 |
CN108665457B (zh) * | 2018-05-16 | 2023-12-19 | 腾讯医疗健康(深圳)有限公司 | 图像识别方法、装置、存储介质及计算机设备 |
CN108665457A (zh) * | 2018-05-16 | 2018-10-16 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、存储介质及计算机设备 |
CN108846321A (zh) * | 2018-05-25 | 2018-11-20 | 北京小米移动软件有限公司 | 识别人脸假体的方法及装置、电子设备 |
CN108846321B (zh) * | 2018-05-25 | 2022-05-03 | 北京小米移动软件有限公司 | 识别人脸假体的方法及装置、电子设备 |
CN108897786A (zh) * | 2018-06-08 | 2018-11-27 | Oppo广东移动通信有限公司 | 应用程序的推荐方法、装置、存储介质及移动终端 |
CN108986245A (zh) * | 2018-06-14 | 2018-12-11 | 深圳市商汤科技有限公司 | 基于人脸识别的考勤方法及终端 |
CN108809992A (zh) * | 2018-06-15 | 2018-11-13 | 黄玉新 | 一种人脸识别验证系统及其与目标系统的关联方法 |
CN108809992B (zh) * | 2018-06-15 | 2021-07-13 | 黄玉新 | 一种人脸识别验证系统及其与目标系统的关联方法 |
CN112334906A (zh) * | 2018-06-20 | 2021-02-05 | 祖克斯有限公司 | 从机器学习模型输出推断出的实例分割 |
CN108984657A (zh) * | 2018-06-28 | 2018-12-11 | Oppo广东移动通信有限公司 | 图像推荐方法和装置、终端、可读存储介质 |
CN108875676B (zh) * | 2018-06-28 | 2021-08-10 | 北京旷视科技有限公司 | 活体检测方法、装置及系统 |
CN108984657B (zh) * | 2018-06-28 | 2020-12-01 | Oppo广东移动通信有限公司 | 图像推荐方法和装置、终端、可读存储介质 |
US11195037B2 (en) | 2018-06-28 | 2021-12-07 | Beijing Kuangshi Technology Co., Ltd. | Living body detection method and system, computer-readable storage medium |
CN108875676A (zh) * | 2018-06-28 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测方法、装置及系统 |
US11233933B2 (en) | 2018-07-16 | 2022-01-25 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and device for processing image, and mobile terminal |
CN108900769A (zh) * | 2018-07-16 | 2018-11-27 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
CN108810418B (zh) * | 2018-07-16 | 2020-09-11 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
CN108810418A (zh) * | 2018-07-16 | 2018-11-13 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
EP3598736A1 (en) * | 2018-07-16 | 2020-01-22 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and apparatus for processing image |
CN109063774B (zh) * | 2018-08-03 | 2021-01-12 | 百度在线网络技术(北京)有限公司 | 图像追踪效果评价方法、装置、设备及可读存储介质 |
US11023781B2 (en) | 2018-08-03 | 2021-06-01 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus and device for evaluating image tracking effectiveness and readable storage medium |
CN109063774A (zh) * | 2018-08-03 | 2018-12-21 | 百度在线网络技术(北京)有限公司 | 图像追踪效果评价方法、装置、设备及可读存储介质 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
CN109784148A (zh) * | 2018-12-06 | 2019-05-21 | 北京飞搜科技有限公司 | 活体检测方法及装置 |
CN111325067A (zh) * | 2018-12-14 | 2020-06-23 | 北京金山云网络技术有限公司 | 违规视频的识别方法、装置及电子设备 |
CN111325067B (zh) * | 2018-12-14 | 2023-07-07 | 北京金山云网络技术有限公司 | 违规视频的识别方法、装置及电子设备 |
CN109766764A (zh) * | 2018-12-17 | 2019-05-17 | 平安普惠企业管理有限公司 | 人脸识别数据处理方法、装置、计算机设备和存储介质 |
CN109816200B (zh) * | 2018-12-17 | 2023-11-28 | 平安国际融资租赁有限公司 | 任务推送方法、装置、计算机设备和存储介质 |
CN109816200A (zh) * | 2018-12-17 | 2019-05-28 | 平安国际融资租赁有限公司 | 任务推送方法、装置、计算机设备和存储介质 |
CN111435452A (zh) * | 2019-01-11 | 2020-07-21 | 百度在线网络技术(北京)有限公司 | 模型训练方法、装置、设备和介质 |
CN111435452B (zh) * | 2019-01-11 | 2023-11-03 | 百度在线网络技术(北京)有限公司 | 模型训练方法、装置、设备和介质 |
CN110069983A (zh) * | 2019-03-08 | 2019-07-30 | 深圳神目信息技术有限公司 | 基于显示媒质的活体识别方法、装置、终端及可读介质 |
WO2020207189A1 (zh) * | 2019-04-08 | 2020-10-15 | 腾讯科技(深圳)有限公司 | 身份验证方法、装置、存储介质和计算机设备 |
US11936647B2 (en) * | 2019-04-08 | 2024-03-19 | Tencent Technology (Shenzhen) Company Limited | Identity verification method and apparatus, storage medium, and computer device |
US20210344675A1 (en) * | 2019-04-08 | 2021-11-04 | Tencent Technology (Shenzhen) Company Limited | Identity verification method and apparatus, storage medium, and computer device |
JP2022507315A (ja) * | 2019-04-08 | 2022-01-18 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | アイデンティティ検証方法並びにその、装置、コンピュータプログラムおよびコンピュータ機器 |
JP7142778B2 (ja) | 2019-04-08 | 2022-09-27 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | アイデンティティ検証方法並びにその、装置、コンピュータプログラムおよびコンピュータ機器 |
CN110135259A (zh) * | 2019-04-15 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 静默式活体图片识别方法、装置、计算机设备和存储介质 |
WO2020211396A1 (zh) * | 2019-04-15 | 2020-10-22 | 深圳壹账通智能科技有限公司 | 静默式活体图片识别方法、装置、计算机设备和存储介质 |
CN111860055A (zh) * | 2019-04-29 | 2020-10-30 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、可读存储介质及设备 |
CN111860055B (zh) * | 2019-04-29 | 2023-10-24 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、可读存储介质及设备 |
CN111967289A (zh) * | 2019-05-20 | 2020-11-20 | 高新兴科技集团股份有限公司 | 一种非配合式人脸活体检测方法及计算机存储介质 |
CN110232353A (zh) * | 2019-06-12 | 2019-09-13 | 成都世纪光合作用科技有限公司 | 一种获取场景人员深度位置的方法和装置 |
CN110378219A (zh) * | 2019-06-13 | 2019-10-25 | 北京迈格威科技有限公司 | 活体检测方法、装置、电子设备及可读存储介质 |
CN110245645B (zh) * | 2019-06-21 | 2021-06-08 | 北京字节跳动网络技术有限公司 | 人脸活体识别方法、装置、设备及存储介质 |
CN110245645A (zh) * | 2019-06-21 | 2019-09-17 | 北京字节跳动网络技术有限公司 | 人脸活体识别方法、装置、设备及存储介质 |
CN110462633B (zh) * | 2019-06-27 | 2023-05-26 | 深圳市汇顶科技股份有限公司 | 一种人脸识别的方法、装置和电子设备 |
CN110462633A (zh) * | 2019-06-27 | 2019-11-15 | 深圳市汇顶科技股份有限公司 | 一种人脸识别的方法、装置和电子设备 |
CN110363116B (zh) * | 2019-06-28 | 2021-07-23 | 上海交通大学 | 基于gld-gan的不规则人脸矫正方法、系统及介质 |
CN110363116A (zh) * | 2019-06-28 | 2019-10-22 | 上海交通大学 | 基于gld-gan的不规则人脸矫正方法、系统及介质 |
CN110309767A (zh) * | 2019-06-28 | 2019-10-08 | 广州致远电子有限公司 | 活体检测设备、识别方法、装置及存储介质 |
CN112215045A (zh) * | 2019-07-12 | 2021-01-12 | 普天信息技术有限公司 | 一种活体检测方法和装置 |
CN110490076B (zh) * | 2019-07-18 | 2024-03-01 | 平安科技(深圳)有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110490076A (zh) * | 2019-07-18 | 2019-11-22 | 平安科技(深圳)有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110705392A (zh) * | 2019-09-17 | 2020-01-17 | Oppo广东移动通信有限公司 | 一种人脸图像检测方法及装置、存储介质 |
CN112800997B (zh) * | 2020-04-10 | 2024-01-05 | 支付宝(杭州)信息技术有限公司 | 一种活体检测方法、装置及设备 |
CN112800997A (zh) * | 2020-04-10 | 2021-05-14 | 支付宝(杭州)信息技术有限公司 | 一种活体检测方法、装置及设备 |
CN111597944A (zh) * | 2020-05-11 | 2020-08-28 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
CN111597944B (zh) * | 2020-05-11 | 2022-11-15 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
WO2022028425A1 (zh) * | 2020-08-05 | 2022-02-10 | 广州虎牙科技有限公司 | 对象识别方法和装置、电子设备及存储介质 |
CN112115831B (zh) * | 2020-09-10 | 2024-03-15 | 深圳印像数据科技有限公司 | 活体检测图像预处理方法 |
CN112115831A (zh) * | 2020-09-10 | 2020-12-22 | 深圳印像数据科技有限公司 | 活体检测图像预处理方法 |
CN112287830A (zh) * | 2020-10-29 | 2021-01-29 | 泰康保险集团股份有限公司 | 一种图像的检测方法及装置 |
CN112347904A (zh) * | 2020-11-04 | 2021-02-09 | 杭州锐颖科技有限公司 | 基于双目深度和图片结构的活体检测方法、装置及介质 |
CN113158773A (zh) * | 2021-03-05 | 2021-07-23 | 普联技术有限公司 | 一种活体检测模型的训练方法及训练装置 |
CN113158773B (zh) * | 2021-03-05 | 2024-03-22 | 普联技术有限公司 | 一种活体检测模型的训练方法及训练装置 |
CN113496215A (zh) * | 2021-07-07 | 2021-10-12 | 浙江大华技术股份有限公司 | 一种活体人脸检测的方法、装置及电子设备 |
CN115512428A (zh) * | 2022-11-15 | 2022-12-23 | 华南理工大学 | 一种人脸活体判别方法、系统、装置和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019096029A1 (zh) | 2019-05-23 |
CN107818313B (zh) | 2019-05-14 |
US11176393B2 (en) | 2021-11-16 |
US20200257914A1 (en) | 2020-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107818313B (zh) | 活体识别方法、装置和存储介质 | |
WO2021077984A1 (zh) | 对象识别方法、装置、电子设备及可读存储介质 | |
CN108009528B (zh) | 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质 | |
WO2019128508A1 (zh) | 图像处理方法、装置、存储介质及电子设备 | |
WO2022206319A1 (zh) | 图像处理方法、装置、设备、存储介质计算机程序产品 | |
CN109508638A (zh) | 人脸情绪识别方法、装置、计算机设备及存储介质 | |
CN105426815A (zh) | 活体检测方法及装置 | |
Li et al. | A method of cross-layer fusion multi-object detection and recognition based on improved faster R-CNN model in complex traffic environment | |
CN107590430A (zh) | 活体检测方法、装置、设备及存储介质 | |
US20140153832A1 (en) | Facial expression editing in images based on collections of images | |
CN109543627A (zh) | 一种判断驾驶行为类别的方法、装置、及计算机设备 | |
CN110135263A (zh) | 人像属性模型构建方法、装置、计算机设备和存储介质 | |
CN111310705A (zh) | 图像识别方法、装置、计算机设备及存储介质 | |
Yang et al. | Facial expression recognition based on dual-feature fusion and improved random forest classifier | |
CN111680675B (zh) | 人脸活体检测方法、系统、装置、计算机设备和存储介质 | |
CN111339897B (zh) | 活体识别方法、装置、计算机设备和存储介质 | |
WO2021088640A1 (zh) | 一种基于启发式高斯云变换的人脸识别技术 | |
US20230095182A1 (en) | Method and apparatus for extracting biological features, device, medium, and program product | |
CN109299658A (zh) | 脸部检测方法、脸部图像渲染方法、装置及存储介质 | |
CN112364827A (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
CN112784810A (zh) | 手势识别方法、装置、计算机设备和存储介质 | |
CN111582155B (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
CN105205482A (zh) | 快速人脸特征识别及姿态估算方法 | |
CN115909172A (zh) | 深度伪造视频检测分割识别系统、终端及存储介质 | |
Winter et al. | Demystifying face-recognition with locally interpretable boosted features (libf) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210922 Address after: 518057 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 floors Patentee after: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. Patentee after: TENCENT CLOUD COMPUTING (BEIJING) Co.,Ltd. Address before: 518000 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 Floors Patentee before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. |