CN111680672A - 人脸活体检测方法、系统、装置、计算机设备和存储介质 - Google Patents
人脸活体检测方法、系统、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111680672A CN111680672A CN202010815513.3A CN202010815513A CN111680672A CN 111680672 A CN111680672 A CN 111680672A CN 202010815513 A CN202010815513 A CN 202010815513A CN 111680672 A CN111680672 A CN 111680672A
- Authority
- CN
- China
- Prior art keywords
- image
- detection
- living body
- detected
- encryption
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2133—Verifying human interaction, e.g., Captcha
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Bioethics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请涉及一种人脸活体检测方法、系统、装置、计算机设备和存储介质。所述方法包括:获取待检测图像;将待检测图像输入至训练好的加密检测联合模型中的加密网络,通过加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建,获得待检测图像对应的加密图像,并通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果。本申请提供的方案能够降低待检测图像在活体检测处理过程中被窃取从而泄露用户隐私的风险,保护用户的个人隐私;同时,通过加密检测联合模型中的检测网络对加密图像进行活体检测,又能够保证活体检测的准确性。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种人脸活体检测方法、系统、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,为了更准确、便捷地鉴定用户身份,出现了活体检测技术。活体检测技术能够利用生物特征信息验证用户是否为真实活体及本人操作,可有效抵御照片、换脸、面具、遮挡等常见的攻击手段。
目前,利用活体检测技术对用户进行身份鉴定时,通常都需要获取原始的待检测图像,然后基于获取的待检测图像进行活体检测处理。然而,获取的待检测图像属于用户的个人隐私,随着活体检测技术越来越广泛的应用,如何避免待检测图像在活体检测的分析处理过程中被窃取后导致用户的个人隐私被泄露,成为亟待解决的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够保护用户的个人隐私的人脸活体检测方法、系统、装置、计算机设备和存储介质。
一种人脸活体检测方法,所述方法包括:
获取待检测图像,所述待检测图像是包括待检测对象的人脸的图像;
将所述待检测图像输入至训练好的加密检测联合模型中的加密网络,通过所述加密网络提取所述待检测图像的图像特征,并基于所述图像特征进行图像重建,获得所述待检测图像对应的加密图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息;
通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象的活体检测结果。
一种人脸活体检测方法,所述方法包括:
接收终端发送的加密图像,所述加密图像是所述终端通过训练好的加密检测联合模型中的加密网络提取待检测图像的图像特征,并基于所述图像特征进行图像重建得到的图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息,所述待检测图像是包括待检测对象的人脸的图像;
通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象的活体检测结果;向所述终端返回所述活体检测结果。
一种模型的训练方法,所述方法包括:
获取训练样本,所述训练样本包括样本图像及所述样本图像对应的真实活体类别;
通过初始神经网络模型中的加密网络,通过所述加密网络提取所述样本图像的图像特征,并基于所述图像特征进行图像重建,获得所述样本图像对应的加密图像,并根据所述样本图像与所述加密图像之间的差异确定第一损失;
通过所述初始神经网络模型中的检测网络,对所述加密图像进行活体检测,获得所述样本图像对应的预测活体类别,并根据所述真实活体类别与所述预测活体类别之间的差异确定第二损失;
根据所述第一损失与所述第二损失调整所述初始神经网络模型的模型参数后,获取下一个训练样本继续训练,直至获得训练好的加密检测联合模型。
一种人脸活体检测系统,包括终端和活体检测服务器,其中;
所述终端用于获取待检测图像,所述待检测图像是包括待检测对象的人脸的图像,所述终端还用于将所述待检测图像输入至训练好的加密检测联合模型中的加密网络,通过所述加密网络提取所述待检测图像的图像特征,并基于所述图像特征进行图像重建,获得所述待检测图像对应的加密图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息;
所述终端还用于将所述加密图像发送至所述活体检测服务器;
所述活体检测服务器用于接收所述加密图像,并通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象的活体检测结果;
所述活体检测服务器还用于向所述终端返回所述活体检测结果。
一种人脸活体检测装置,所述装置包括:
获取模块,用于获取待检测图像,所述待检测图像是包括待检测对象的人脸的图像;
检测模块,将所述待检测图像输入至训练好的加密检测联合模型中的加密网络,通过所述加密网络提取所述待检测图像的图像特征,并基于所述图像特征进行图像重建,获得所述待检测图像对应的加密图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息;并通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象的活体检测结果。
一种人脸活体检测装置,所述装置包括:
接收模块,用于接收终端发送的加密图像,所述加密图像是所述终端通过训练好的加密检测联合模型中的加密网络提取所述待检测图像的图像特征,并基于所述图像特征进行图像重建得到的图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息,所述待检测图像是包括待检测对象的人脸的图像;
活体检测模块,用于通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象的活体检测结果;
发送模块,用于向所述终端返回所述活体检测结果。
一种模型的训练装置,所述装置包括:
获取模块,用于获取训练样本,所述训练样本包括样本图像及所述样本图像对应的真实活体类别;
第一损失确定模块,用于通过初始神经网络模型中的加密网络,通过所述加密网络提取所述样本图像的图像特征,并基于所述图像特征进行图像重建,获得所述样本图像对应的加密图像,并根据所述样本图像与所述加密图像之间的差异确定第一损失;
第二损失确定模块,用于通过所述初始神经网络模型中的检测网络,对所述加密图像进行活体检测,获得所述样本图像对应的预测活体类别,并根据所述真实活体类别与所述预测活体类别之间的差异确定第二损失;
调整模块,用于根据所述第一损失与所述第二损失调整所述初始神经网络模型的模型参数后,获取下一个训练样本继续训练,直至获得训练好的加密检测联合模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待检测图像,所述待检测图像是包括待检测对象的人脸的图像;
将所述待检测图像输入至训练好的加密检测联合模型中的加密网络,通过所述加密网络提取所述待检测图像的图像特征,并基于所述图像特征进行图像重建,获得所述待检测图像对应的加密图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息;
通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象活体检测结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待检测图像,所述待检测图像是包括待检测对象的人脸的图像;
将所述待检测图像输入至训练好的加密检测联合模型中的加密网络,通过所述加密网络提取所述待检测图像的图像特征,并基于所述图像特征进行图像重建,获得所述待检测图像对应的加密图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息;
通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象活体检测结果。
上述人脸活体检测方法、系统、装置、计算机设备和存储介质中,基于神经网络的加密检测联合模型中的加密网络与检测网络经过联合训练得到,加密网络能够保证待检测图像与加密图像存在一定的差异,检测网络能够保证对加密图像进行活体检测的准确性,使得加密检测联合模型具备对待检测图像进行加密的同时进行活体检测的能力。这样,在获取待检测图像后,通过预先训练好的加密检测联合模型中的加密网络对待检测图像提取待检测图像的图像特征,并基于图像特征进行图像重建获得的加密图像就会与原始的待检测图像存在差异,无法通过加密图像得知原始的待检测图像的内容,后续通过上述的加密检测联合模型中的检测网络所进行的活体检测均是基于该加密图像来进行的,不用直接分析原始的待检测图像,能够降低待检测图像在活体检测处理过程中被窃取从而泄露用户隐私的风险,保护用户个人隐私;同时,通过加密检测联合模型中的检测网络对加密图像进行活体检测,又能够保证活体检测的准确性。
附图说明
图1为一个实施例中人脸活体检测方法的应用环境图;
图2为一个实施例中人脸活体检测方法的流程示意图;
图3为一个实施例中对人脸图像进行加密后获得加密图像的示意图;
图4为一个实施例中将加密网络与检测网络分开部署的架构示意图;
图5为另一个实施例中人脸活体检测方法的流程示意图;
图6为一个实施例中加密检测联合模型的训练框架图;
图7为再一个实施例中人脸活体检测方法的流程示意图;
图8为一个实施例中模型的训练方法的流程示意图;
图9为一个实施例中人脸活体检测装置的结构框图;
图10为另一个实施例中人脸活体检测装置的结构框图;
图11为一个实施例中模型的训练装置的结构框图;
图12为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的人脸活体检测方法、模型的训练方法,通过使用人工智能技术(Artificial Intelligence, AI)中的计算机视觉技术以及机器学习技术,实现了活体检测。
计算机视觉技术(Computer Vision, CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。可以理解,本申请中根据待检测图像进行活体检测的处理,就属于使用计算机视觉技术中的生物特征识别技术,实现活体检测。
机器学习(Machine Learning, ML),机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科,该学科专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。人工神经网络是一门重要的机器学习技术,在系统辨识、模式识别、智能控制等领域有着广泛的应用前景。可以理解,本申请通过使用机器学习技术,训练并使用加密检测联合模型。
本申请提供的人脸活体检测方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与活体检测服务器104进行通信。具体地,终端102可以获取待检测图像;通过训练好的加密检测联合模型中的加密网络,提取待检测图像的图像特征,并基于图像特征进行图像重建,获得待检测图像对应的加密图像,并通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果。
需要说明的是,传统方式中,通常是以整个人为对象进行活体检测,待检测图像中包括整个人,提取图像中人的生物特征以对整个人进行活体检测。而本申请提供的人脸活体检测方法中,待检测图像是包括待检测对象的人脸的图像,通过对人脸部分进行活体检测,得到针对该人脸的活体检测结果,从而判定人脸是否为活体,是基于人脸这部分特征进行的活体检测,不需要基于整个人体进行活体检测。
在另一些实施例中,事先训练得到的加密检测联合模型中的加密网络与检测网络可以分开部署。其中,加密网络部署在终端102上,而检测网络部署在活体检测服务器104上,这样,终端102可以获取待检测图像;通过训练好的加密检测联合模型中的加密网络,提取待检测图像的图像特征,并基于图像特征进行图像重建,获得待检测图像对应的加密图像,并将加密图像发送至活体检测服务器;活体检测服务器104可以接收加密图像,并通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果,向终端102返回活体检测结果。在本实施例中,终端不用将原始的待检测图像通过网络传输至活体检测服务器,避免了待检测图像在网络传输过程中被窃取导致用户隐私被泄露的风险,同时,活体检测服务器也不用直接检测原始的待检测图像,避免了待检测图像在活体检测处理过程中被窃取或盗用的风险,保护了用户的个人隐私。
终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,活体检测服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,基于人工神经网络的加密检测联合模型可以通过计算机设备训练得到,计算机设备可以获取多个训练样本中的每个训练样本,每个训练样本包括样本图像及样本图像对应的真实活体类别;通过初始神经网络模型中的加密网络,提取样本图像的图像特征,并基于图像特征进行图像重建,获得样本图像对应的加密图像,并根据样本图像与加密图像之间的差异确定第一损失;通过初始神经网络模型中的检测网络,对加密图像进行活体检测,获得样本图像对应的预测活体类别,并根据真实活体类别与预测活体类别之间的差异确定第二损失;根据第一损失与第二损失调整初始神经网络模型的模型参数后,返回至获取多个训练样本中的每个训练样本的步骤继续训练,直至获得训练好的加密检测联合模型。用于训练加密检测联合模型的计算机设备可以是终端或服务器。
在一个具体的应用场景中,当人脸验证设备需要对用户进行身份鉴定时,可以采集用户的人脸图像,并通过加密检测联合模型中的加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建,得到加密图像,加密图像与人脸图像在视觉上的差异很大,这样就无法通过加密图像得到原始的人脸图像的具体内容,然后人脸验证设备将加密图像发送至活体检测服务器,活体检测服务器接收到该加密图像后,通过加密检测联合模型中的检测网络对加密图像进行活体检测,得到检测结果,根据该检测结果确定用户是否通过身份验证。其中,人脸验证设备可以是手机、人脸验证机或者带有图像采集装置的其它设备。
在一个实施例中,如图2所示,提供了一种人脸活体检测方法,以该方法应用于图1中的终端102为例进行说明,包括以下步骤:
步骤202,获取待检测图像,待检测图像是包括待检测对象的人脸的图像。
其中,待检测图像是待进行活体检测的图像,待检测图像包括待检测对象的人脸。活体检测是根据图像中的生物特征来鉴定图像是否包括真实活体及是否为用户本人操作的方法,通常用于确定图像中是否包括真实用户,较多地应用于身份验证场景中,可有效抵御照片攻击。可以理解,待检测图像可以是人脸图像,还可以是包括人脸及手势动作或表情动作的图像。
具体地,终端可以通过本地的图像采集装置即时采集图像,将采集的图像作为待检测图像,例如上述图1中的终端102通过摄像头采集的用户的人脸图像。待检测图像也可以是终端从本地导出的图像,将该图像作为待检测图像,本地导出的图像可以是事先拍摄好的照片或存储的照片,但可以理解的是,本地导出的图像通常不会通过活体检测的验证。
步骤204,将待检测图像输入至训练好的加密检测联合模型中的加密网络,通过加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建,获得待检测图像对应的加密图像。
其中,加密图像为与待检测图像在图像内容上存在差异的图像,加密图像携带了用于进行活体检测的鉴别信息。
步骤206,通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果。
其中,加密检测联合模型是计算机设备事先通过多个训练样本进行学习,从而具备对图像进行加密与活体检测能力的机器学习模型。用于训练的计算机设备可以是终端,也可以是服务器,本实施例以终端为训练设备进行说明。该加密检测联合模型可以采用神经网络模型,例如卷积神经网络模型实现。在一个实施例中,终端可以事先设置神经网络模型的模型结构,得到初始神经网络模型,再通过被标记了真实活体类别(包括活体、非活体)的样本图像,对该初始神经网络模型进行训练(训练的具体步骤会在下文进行说明),得到训练好的模型参数。这样,在需要对待检测图像进行活体检测时,终端就可以获取事先训练好的模型参数,将该模型参数导入初始神经网络模型,得到加密检测联合模型。
在本实施例中,加密检测联合模型包括加密网络和检测网络。加密网络与检测网络可以均是基于卷积神经网络实现的网络结构。加密网络用于对原始的待检测图像进行加密处理,得到待检测图像对应的加密图像;检测网络用于对加密图像进行活体检测,得到待检测图像中待检测对象的活体检测结果,其中,检测结果为该待检测图像通过活体检测与未通过活体检测中的一种,如果该待检测图像通过活体检测,则说明该待检测图像中包括真实活体,如果该待检测图像未通过活体检测,则说明该待检测图像中不包括真实活体。
需要说明的是,本申请实施例对加密网络及检测网络内部的神经网络结构不作限制,设计人员可以按照实际需求进行设置,只要加密网络能够实现加密处理并且获得的加密图像与原始的待检测图像的差异较大、检测网络能够实现对加密图像进行活体检测即可。例如,在一个实施例中,加密网络包括输入层、编码层、解码层和输出层,可以通过输入层将输入的待检测图像输入至加密网络,通过编码层提取待检测图像的图像特征,通过解码层基于图像特征进行图像重建,获得待检测图像对应的加密图像。编码层可以包括多个卷积层,以对输入的待检测图像进行多次卷积处理后获得图像特征,解码层可以包括多个反卷积层,以对图像特征进行多次反卷积处理后获得加密图像。经过加密网络的加密处理,加密网络输出的加密图像与原始输入的待检测图像之间的差异较大,这样就可以避免后续对加密图像进行活体检测时泄露用户的个人隐私的问题。
在图像加密领域,通常是采用一些特定加密算法(如哈希算法)对图像进行加密,但通过这些算法对图像进行加密处理后,会破坏原始图像的可区分性,无法对加密后得到的图像直接进行活体检测,例如当终端采用这些算法对图像进行加密后发送至服务器,服务器还需要先采用相应的解密方式做解密处理获得原始的图像后再做活体检测,检测过程中依旧会暴露原始图像,不利于保护用户的个人隐私。而在本实施例中,是通过基于神经网络的加密网络对待检测图像进行加密获得加密图像,加密图像与原始的图像差异较大,剔除了用户的隐私信息,不会直接将用户信息暴露给检测服务器,同时,加密图像还携带了用于进行活体检测所必要的鉴别信息,活体检测服务器可以直接对加密图像活体检测,得到活体检测结果,从而能够真正保护用户的个人隐私。
此外,相关技术中,基于原始图像的图像特征进行图像重建处理时获得的图像,通常是与原始图像的差异很小的图像,以尽可能地恢复出原始图像,所以重建图像与原始图像的差异越小越好。但在本申请实施例中,通过加密检测联合网络中的加密网络输出的加密图像虽然也是基于图像特征进行图像重建得到的,但由于在训练模型时,第一损失将模型中的加密网络往增大输入图像与加密图像之间的差异的方向调整,这样使得输出的该加密图像在内容上或视觉呈现上与原始的待检测图像存在较大差异,以尽可能地难以被认出或破解,实现保护用户的个人隐私的效果,同时该加密图像又保留了用于进行活体检测的必要信息。
在一些实施例中,加密图像可以是具有视觉形态的图像文件,例如JPEG格式的图像文件。加密图像也可以是不具有视觉形态的图像数据,例如用数值表示的各像素(pixel)的像素值的集合。如图3所示,为一个实施例中对人脸图像进行加密后获得加密图像的示意图,参照图3,加密处理后获得的加密图像在视觉上与原始的人脸图像完全不同,无法从加密图像得知原始的人脸图像的内容。
在一些实施例中,上述步骤204和步骤206可以由终端单独执行,例如可以由人脸验证设备单独执行。上述步骤204与步骤206也可以由多个计算机设备分别执行,如图4所示,为一个实施例中将加密网络与检测网络分开部署的架构示意图,参照图4,人脸验证设备获取用户的待检测图像,并通过训练好的加密检测联合模型中的加密网络,对待检测图像进行加密处理,获得待检测图像对应的加密图像,再将该加密图像发送至活体检测服务器;活体检测服务器接收人脸验证设备发送的加密图像后,通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果。由于活体检测服务器不直接处理原始的待检测图像,而是分析加密后的加密图像,可以保证该待检测图像在网络传输过程中的安全性,还可以避免该待检测图像被活体检测服务器直接分析暴露用户的个人隐私。
活体检测结果包括该待检测图像通过活体检测与未通过活体检测中的一种,计算机设备可以根据该活体检测结果确定待检测图像中的待检测对象是否为活体。在一些身份鉴定的应用场景中,待检测图像为人脸图像,当终端确定人脸图像中的人脸为活体时,即可判定当前用户通过了身份验证,从而允许用户进行相应的操作,如利用当前用户账号进行登录操作或利用当前用户账号进行支付操作等。
上述人脸活体检测方法中,基于神经网络的加密检测联合模型中的加密网络与检测网络经过联合训练得到,加密网络能够保证待检测图像与加密图像存在一定的差异,检测网络能够保证对加密图像进行活体检测的准确性,使得加密检测联合模型具备对待检测图像进行加密的同时进行活体检测的能力。这样,在获取待检测图像后,通过预先训练好的加密检测联合模型中的加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建获得的加密图像就会与原始的待检测图像存在差异,无法通过加密图像得知原始的待检测图像的内容,后续通过上述的加密检测联合模型中的检测网络所进行的活体检测均是基于该加密图像来进行的,不用直接分析原始的待检测图像,能够降低待检测图像在活体检测处理过程中被窃取从而泄露用户隐私的风险,保护用户个人隐私;同时,通过加密检测联合模型中的检测网络对加密图像进行活体检测,又能够保证活体检测的准确性。
在一个实施例中,在步骤202之前,上述人脸活体检测方法还包括模型的训练步骤,具体包括:获取多个训练样本;使用多个训练样本对初始神经网络模型的模型参数进行调整,得到加密检测联合模型。
如前文所提及的,初始神经网络模型是事先设置的模型结构。可以理解,初始神经网络模型中的模型参数是初始的模型参数,初始的模型参数经过不断地训练得到更新,从而得到训练好的模型参数,将训练好的模型参数导入初始神经网络模型就得到了同时具备图像加密能力与活体检测能力的加密检测联合模型。
具体地,终端可以获取多个训练样本,使用多个训练样本对初始神经网络模型的模型参数进行调整,该多个训练样本中的每个训练样本包含一个样本图像及该样本图像对应的真实活体类别,真实活体类别是样本图像对应的真实、准确的活体分类标签,活体分类标签包括该样本图像中的对象为活体或该样本中的对象为非活体中的一种。在进行模型训练时,依次将每个样本图像及对应的真实活体类别作为输入,输入至初始神经网络模型中进行处理,根据当前模型输出的处理结果调整模型参数,再基于调整后的模型参数处理下一个样本图像,不断重复,直至得到训练好的加密检测联合模型。
在一个实施例中,如图5所示,人脸活体检测方法还包括使用训练样本对初始神经网络模型的模型参数进行调整,得到加密检测联合模型的步骤502至步骤508:
步骤502,将训练样本中的样本图像及真实活体类别输入初始神经网络模型。
步骤504,通过初始神经网络模型中的加密网络,提取样本图像的图像特征,并基于图像特征进行图像重建,获得样本图像对应的加密图像,并根据样本图像与加密图像之间的差异确定第一损失。
在一个实施例中,终端可以计算样本图像与加密图像之间的平方误差损失,作为第一损失。
在一个实施例中,根据样本图像与加密图像之间的差异确定第一损失,包括:获取样本图像中各像素点对应的原始特征值;获取加密图像中各像素点对应的替代特征值;根据相同像素点的原始特征值与替代特征值之间的差异计算第一损失。
可以理解的是,加密处理过程的实质是将原始的待检测图像中各像素点的原始特征值进行变换之后,用另一个特征值来替换原始特征值,该另一个特征值可以称之为替代特征值。
具体地,终端可以分别获取样本图像中各像素点对应的原始特征值以及对应的加
密图像中各像素点对应的替代特征值,根据相同像素点的原始特征值与替代特征值之差计
算第一损失,此处的相同像素点是指像素坐标相同的像素点,例如,样本图像中位于(x,y)
处的像素点与对应的加密图像中位于(x,y)处的像素点是相同像素点。样本图像中位于(x,
y)处像素点的原始特征值为m,加密图像中位于(x,y)处像素点的替代特征值为n,则第一损
失loss1可以用来表示。
步骤506,通过初始神经网络模型中的检测网络,对加密图像进行活体检测,获得样本图像对应的预测活体类别,并根据真实活体类别与预测活体类别之间的差异确定第二损失。
在一个实施例中,终端可以计算样本图像的真实活体类别与预测活体类别之间的平方误差损失,作为第二损失。
图像的活体类别包括活体、非活体两种,可以用属于活体的概率p来表示,当p大于
预设阈值时判定属于活体,可以记为1,当p小于预设阈值时判定不属于活体,可以记为0。终
端可以获取样本图像的真实活体类别s(s=0或1)与通过检测网络进行活体检测得到的预测
活体类别p,基于这二者之间的差异确定第二损失,即第二损失loss2可以用来表
示。
步骤508,根据第一损失与第二损失调整初始神经网络模型的模型参数后,获取下一个训练样本继续训练,直至获得训练好的加密检测联合模型。
其中,第一损失用于将模型往增大样本图像与加密图像之间的差异的方向调整,第二损失用于将模型往减小真实活体类别与预测活体类别之间的差异的方向调整,这样才能保证训练得到的加密检测联合模型具备对待检测图像进行加密处理的同时还能保证对其进行活体检测的准确性。
具体地,终端在得到第一损失与第二损失后,在调整模型参数时,可以采用随机梯度下降算法,将模型参数往增大第一损失同时减小第二损失的方向进行调整,这样经过多次调整之后就可以得到能够差异化原始的待检测图像与加密图像、且能够准确进行活体检测的加密检测联合模型。
在一个实施例中,根据第一损失与第二损失调整初始神经网络模型的模型参数,包括:基于第一损失与第二损失构建目标损失;根据所述目标损失调整模型参数,以使得调整后的加密网络所输出的加密图像与原始的样本图像之间的差异增大、调整后的检测网络所输出的预测活体类别与真实活体类别之间的差异减小。
具体地,终端可以采用最小化目标损失的方式更新模型参数,此时构建的目标损失与第一损失成反相关、与第二损失成正相关,例如,目标损失等于第二损失减去第一损失。
可以理解的是,终端还可以采用最大化目标损失的方式更新模型参数,此时构建的目标损失与第一损失成正相关、与第二损失成反相关,例如,目标损失等于第一损失减去第二损失。
如图6所示,为一个实施例中联合了加密网络与检测网络的模型的训练框架图。参照图6,原始的样本图像经过基于卷积神经网络实现的加密网络的加密处理,输出该样本图像对应的加密图像;接着,根据样本图像与加密图像之间的差异,构建第一损失,训练的目标是最大化该第一损失,以使原始的样本图像与对应的加密图像之间的差异越来越大;然后,将得到的加密图像输入至基于卷积神经网络实现的检测网络,通过该检测网络进行活体检测处理,输出该样本图像对应的预测活体类别;再根据该样本图像的真实活体类别与该预测活体类别之间的差异,构建第二损失,训练时还需要最小化该第二损失,以保证活体检测的准确性;最后,将第一损失与第二损失融合后,使用随机梯度下降算法更新加密网络与检测网络的模型参数,直至得到一个加密与检测联合的加密检测联合模型,在完成对图像进行加密的同时进行活体检测,既保证图像内容不被泄漏又能完成活体检测。
在本实施例中,设计的初始神经网络模型包括加密网络与检测网络,通过联合训练加密网络与检测网络,使得训练得到的加密检测联合模型同时具备对图像进行加密与活体检测的能力,既保证图像内容不被泄漏又能完成活体检测。
在一个实施例中,上述人脸活体检测方法还包括:
对加密图像进行数据增强处理,得到多个拓展图像;
通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果,包括:通过加密检测联合模型中的检测网络,对各拓展图像进行活体检测,得到各拓展图像对应的活体检测结根据各拓展图像对应的检测结果,确定待检测图像中待检测对象的活体检测结果。
其中,对加密图像进行数据增强处理,可以是对加密图像进行高斯噪声处理、随机翻转、随机裁剪和随机遮挡等中的至少一种。通过对加密图像进行数据增强处理,可以得到多个扩展图像,也就是说只需要根据一张待检测图像就可以获得多个扩展图像,再对各个扩展图像进行活体检测,得到检测结果,最后可以按照预设的投票方式对检测结果进行投票,判定待检测图像中的待检测对象是否为活体,提升活体检测的准确性。
在一个实施例中,终端可以将加密图像传输至活体检测服务器,由活体检测服务器接收该加密图像并对加密图像进行数据增强处理,得到多个拓展图像,并通过加密检测联合模型中的检测网络,对各拓展图像进行活体检测,得到各拓展图像对应的活体检测结果,这样能够避免终端生成多个待检测图像并通过网络传输至活体检测服务器进行活体检测所带来的网络传输时延,提升用户体验。
在一个实施例中,如图7所示,提供了一种人脸活体检测方法,以该方法应用于图1中的活体检测服务器104为例进行说明,包括以下步骤:
步骤702,接收终端发送的加密图像,加密图像是终端通过训练好的加密检测联合模型中的加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建得到的图像。
其中,待检测图像是待进行活体检测的图像。活体检测是根据图像中的生物特征来鉴定图像是否包括真实活体及是否为用户本人操作的方法,通常用于确定图像中是否包括真实用户,较多地应用于身份验证场景中,可有效抵御照片攻击。可以理解,待检测图像可以是人脸图像,还可以是包括人脸及手势动作或表情动作的图像。
具体地,终端可以通过本地的图像采集装置即时采集图像,将采集的图像作为待检测图像,例如上述图1中的终端102通过摄像头采集的用户的人脸图像。待检测图像也可以是终端从本地导出的图像,将该图像作为待检测图像,本地导出的图像可以是事先拍摄好的照片或存储的照片,但可以理解的是,本地导出的图像通常不会通过活体检测的验证。
加密检测联合模型是计算机设备事先通过多个训练样本进行学习,从而具备对图像进行加密与活体检测能力的机器学习模型。用于训练的计算机设备可以是终端,也可以是服务器。该加密检测联合模型可以采用神经网络模型,例如卷积神经网络模型实现。在一个实施例中,计算机设备可以事先设置神经网络模型的模型结构,得到初始神经网络模型,再通过被标记了真实活体类别(包括活体、非活体)的样本图像,对该初始神经网络模型进行训练(训练的具体步骤会在下文进行说明),得到训练好的模型参数。这样,在需要对待检测图像进行活体检测时,终端或者活体检测服务器就可以分别获取事先训练好的模型参数,将该模型参数导入初始神经网络模型,得到加密检测联合模型。
在本实施例中,加密检测联合模型包括加密网络和检测网络。加密网络与检测网络可以均是基于卷积神经网络实现的网络结构。加密网络用于对原始的待检测图像进行加密处理,得到待检测图像对应的加密图像;检测网络用于对加密图像进行活体检测,得到待检测图像中待检测对象的活体检测结果,其中,检测结果为该待检测图像通过活体检测与未通过活体检测中的一种,如果该待检测图像通过活体检测,则说明该待检测图像中包括真实活体,如果该待检测图像未通过活体检测,则说明该待检测图像中不包括真实活体。
终端可以通过加密检测联合模型中的加密网络,提取待检测图像的图像特征,并基于图像特征进行图像重建,得到待检测图像对应的加密图像,并将加密图像发送至活体检测服务器,活体检测服务器接收加密图像。加密图像为与待检测图像在图像内容上存在差异的图像,加密图像携带了用于进行活体检测的鉴别信息。
在一些实施例中,加密图像可以是具有视觉形态的图像文件,例如JPEG格式的图像文件。加密图像也可以是不具有视觉形态的图像数据,例如用数值表示的各像素(pixel)的像素值的集合。
步骤704,通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果。
步骤706,向终端返回活体检测结果。
其中,活体检测结果包括该待检测图像通过活体检测与未通过活体检测中的一种,活体检测服务器接收终端发送的加密图像后,通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果后返回至终端。
在一些身份鉴定的应用场景中,当活体检测服务器确定待检测图像中的待检测对象为活体时,即可判定当前用户通过了身份验证,从而反馈至终端允许用户进行相应的操作,如利用当前用户账号进行登录操作或利用当前用户账号进行支付操作等。
在一个实施例中,活体检测服务器还可以对加密图像进行数据增强处理,得到多个拓展图像;通过加密检测联合模型中的检测网络,对各拓展图像进行活体检测,得到各拓展图像对应的活体检测结果;根据各拓展图像对应的检测结果,确定待检测图像中的待检测对象的活体检测结果。这样,能够避免终端生成多个待检测图像并通过网络传输至活体检测服务器进行活体检测所带来的网络传输时延,提升用户体验。
上述人脸活体检测方法中,基于神经网络的加密检测联合模型中的加密网络与检测网络经过联合训练得到,加密网络能够保证待检测图像与加密图像存在一定的差异,检测网络能够保证对加密图像进行活体检测的准确性,使得加密检测联合模型具备对待检测图像进行加密的同时进行活体检测的能力。这样,在获取待检测图像后,通过预先训练好的加密检测联合模型中的加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建获得的加密图像就会与原始的待检测图像存在差异,无法通过加密图像得知原始的待检测图像的内容,后续通过上述的加密检测联合模型中的检测网络所进行的活体检测均是基于该加密图像来进行的,不用直接分析原始的待检测图像,能够降低待检测图像在活体检测处理过程中被窃取从而泄露用户隐私的风险,保护用户个人隐私;同时,通过加密检测联合模型中的检测网络对加密图像进行活体检测,又能够保证活体检测的准确性。
在一个实施例中,如图8所示,提供了一种模型的训练方法,以该方法应用于计算机设备为例进行说明,包括以下步骤:
步骤802,获取训练样本,训练样本包括样本图像及样本图像对应的真实活体类别。
具体地,计算机设备可以事先设置神经网络模型的模型结构,得到初始神经网络模型,计算机设备可以获取多个训练样本,使用多个训练样本对初始神经网络模型的模型参数进行调整。可以理解,初始神经网络模型中的模型参数是初始的模型参数,初始的模型参数经过不断地训练得到更新,从而得到训练好的模型参数。
计算机设备获取的多个训练样本中的每个训练样本包含一个样本图像及该样本图像对应的真实活体类别,真实活体类别是样本图像对应的真实、准确的活体分类标签,活体分类标签包括该样本图像中的对象为活体或该样本中的对象为非活体中的一种。在进行模型训练时,依次将每个样本图像及对应的真实活体类别作为输入,输入至初始神经网络模型中进行处理。
步骤804,通过初始神经网络模型中的加密网络,提取样本图像的图像特征,并基于图像特征进行图像重建,获得样本图像对应的加密图像,并根据样本图像与加密图像之间的差异确定第一损失。
在一个实施例中,计算机设备可以计算样本图像与加密图像之间的平方误差损失,作为第一损失。
在一个实施例中,根据样本图像与加密图像之间的差异确定第一损失,包括:获取样本图像中各像素点对应的原始特征值;获取加密图像中各像素点对应的替代特征值;根据相同像素点的原始特征值与替代特征值之间的差异计算第一损失。
可以理解的是,加密处理过程的实质是将原始的待检测图像中各像素点的原始特征值进行变换之后,用另一个特征值来替换原始特征值,该另一个特征值可以称之为替代特征值。
具体地,计算机设备可以分别获取样本图像中各像素点对应的原始特征值以及对
应的加密图像中各像素点对应的替代特征值,根据相同像素点的原始特征值与替代特征值
之差计算第一损失,此处的相同像素点是指像素坐标相同的像素点,例如,样本图像中位于
(x,y)处的像素点与对应的加密图像中位于(x,y)处的像素点是相同像素点。样本图像中位
于(x,y)处像素点的原始特征值为m,加密图像中位于(x,y)处像素点的替代特征值为n,则
第一损失loss1可以用来表示。
步骤806,通过初始神经网络模型中的检测网络,对加密图像进行活体检测,获得样本图像对应的预测活体类别,并根据真实活体类别与预测活体类别之间的差异确定第二损失。
在一个实施例中,计算机设备可以计算样本图像的真实活体类别与预测活体类别之间的平方误差损失,作为第二损失。
图像的活体类别包括活体、非活体两种,可以用属于活体的概率p来表示,当p大于
预设阈值时判定属于活体,可以记为1,当p小于预设阈值时判定不属于活体,可以记为0。终
端可以获取样本图像的真实活体类别s(s=0或1)与通过检测网络进行活体检测得到的预测
活体类别p,基于这二者之间的差异确定第二损失,即第二损失loss2可以用来
表示。
步骤808,根据第一损失与第二损失调整初始神经网络模型的模型参数后,获取下一个训练样本继续训练,直至获得训练好的加密检测联合模型。
其中,第一损失用于将模型往增大样本图像与加密图像之间的差异的方向调整,第二损失用于将模型往减小真实活体类别与预测活体类别之间的差异的方向调整,这样才能保证训练得到的加密检测联合模型具备对待检测图像进行加密处理的同时还能保证对其进行活体检测的准确性。
具体地,计算机设备在得到第一损失与第二损失后,在调整模型参数时,可以采用随机梯度下降算法,将模型参数往增大加密图像与原始的样本图像之间的差异同时减小预测活体类别与真实活体类别之间的差异的方向进行调整,这样经过多次调整之后就可以得到能够差异化原始的待检测图像与加密图像、且能够准确进行活体检测的加密检测联合模型。
在一个实施例中,根据第一损失与第二损失调整初始神经网络模型的模型参数,包括:基于第一损失与第二损失构建目标损失;根据所述目标损失调整模型参数,以使得调整后的加密网络所输出的加密图像与原始的样本图像之间的差异增大、调整后的检测网络所输出的预测活体类别与真实活体类别之间的差异减小。
具体地,计算机设备可以采用最小化目标损失的方式更新模型参数,此时构建的目标损失与第一损失成反相关、与第二损失成正相关,例如,目标损失等于第二损失减去第一损失。
可以理解的是,计算机设备还可以采用最大化目标损失的方式更新模型参数,此时构建的目标损失与第一损失成正相关、与第二损失成反相关,例如,目标损失等于第一损失减去第二损失。
上述模型的训练方法中,基于神经网络的加密检测联合模型中的加密网络与检测网络经过联合训练得到,加密网络能够保证待检测图像与加密图像存在一定的差异,检测网络能够保证对加密图像进行活体检测的准确性,使得加密检测联合模型具备对待检测图像进行加密的同时进行活体检测的能力。
在一个实施例中,如图1所示,提供了一种人脸活体检测系统,包括终端102和活体检测服务器104,其中;
终端102用于获取待检测图像,将待检测图像输入至训练好的加密检测联合模型中的加密网络,通过加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建,获得待检测图像对应的加密图像;
终端102还用于将加密图像发送至活体检测服务器;
活体检测服务器104用于接收加密图像,并通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果;
活体检测服务器104还用于向终端返回活体检测结果。
在一个实施例中,活体检测服务器104还用于对加密图像进行数据增强处理,得到多个拓展图像;通过加密检测联合模型中的检测网络,对各拓展图像进行活体检测,得到各拓展图像对应的活体检测结果;根据各拓展图像对应的活体检测结果,确定待检测图像中的待检测对象的活体检测结果。
上述人脸活体检测系统中,基于神经网络的加密检测联合模型中的加密网络与检测网络经过联合训练得到,加密网络能够保证待检测图像与加密图像存在一定的差异,检测网络能够保证对加密图像进行活体检测的准确性,使得加密检测联合模型具备对待检测图像进行加密的同时进行活体检测的能力。这样,在终端获取待检测图像后,通过预先训练好的加密检测联合模型中的加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建获得的加密图像就会与原始的待检测图像存在差异,无法通过加密图像得知原始的待检测图像的内容,后续活体检测服务器接收终端发送的加密图像并通过上述的加密检测联合模型中的检测网络所进行的活体检测均是基于该加密图像来进行的,不用直接分析原始的待检测图像,能够降低待检测图像在活体检测处理过程中被窃取从而泄露用户隐私的风险,保护用户个人隐私;同时,通过加密检测联合模型中的检测网络对加密图像进行活体检测,又能够保证活体检测的准确性。
应该理解的是,虽然图2、图5、图7及图8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、图5、图7及图8的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图9所示,提供了一种人脸活体检测装置900,该装置可以采用软件模块或硬件模块,或者是二者的结合成为终端的一部分,该装置具体包括:获取模块902、检测模块904,其中:
获取模块902,用于获取待检测图像;
检测模块904,用于将待检测图像输入至训练好的加密检测联合模型中的加密网络,通过加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建,获得待检测图像对应的加密图像,并通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果。
在一个实施例中,上述人脸活体检测装置900还包括发送模块,用于将加密图像发送至活体检测服务器,以使活体检测服务器接收加密图像后,通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果。
在一个实施例中,上述人脸活体检测装置900还包括模型训练模块,用于获取多个训练样本;使用多个训练样本对初始神经网络模型的模型参数进行调整,得到加密检测联合模型。
在一个实施例中,模型训练模块还用于获取训练样本,训练样本包括样本图像及样本图像对应的真实活体类别;通过初始神经网络模型中的加密网络,提取样本图像的图像特征,并基于图像特征进行图像重建,获得样本图像对应的加密图像,并根据样本图像与加密图像之间的差异确定第一损失;通过初始神经网络模型中的检测网络,对加密图像进行活体检测,获得样本图像对应的预测活体类别,并根据真实活体类别与预测活体类别之间的差异确定第二损失;根据第一损失与第二损失调整初始神经网络模型的模型参数后,获取下一个训练样本继续训练,直至获得训练好的加密检测联合模型。
在一个实施例中,模型训练模块还用于获取样本图像中各像素点对应的原始特征值;获取加密图像中各像素点对应的替代特征值;根据相同像素点的原始特征值与替代特征值之间的差异计算第一损失。
在一个实施例中,模型训练模块还用于基于第一损失与第二损失构建目标损失,根据所述目标损失调整模型参数,以使得调整后的加密网络所输出的加密图像与原始的样本图像之间的差异增大、调整后的检测网络所输出的预测活体类别与真实活体类别之间的差异减小。
在一个实施例中,上述人脸活体检测装置900还包括数据增强模块,用于对加密图像进行数据增强处理,得到多个拓展图像;上述检测模块904还用于通过加密检测联合模型中的检测网络,对各拓展图像进行活体检测,得到各拓展图像对应的活体检测结果;根据各拓展图像对应的检测结果,确定待检测图像中的待检测对象的活体检测结果。
在一个实施例中,如图10所示,提供了一种人脸活体检测装置1000,该装置可以采用软件模块或硬件模块,或者是二者的结合成为活体检测服务器的一部分,该装置具体包括:接收模块1002、活体检测模块1004和发送模块1006,其中:
接收模块1002,用于接收终端发送的加密图像,加密图像是终端通过训练好的加密检测联合模型中的加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建得到的图像。
活体检测模块1004,用于通过加密检测联合模型中的检测网络,对加密图像进行活体检测,获得待检测图像中待检测对象的活体检测结果。
发送模块1006,用于向终端返回活体检测结果。
上述人脸活体检测装置,基于神经网络的加密检测联合模型中的加密网络与检测网络经过联合训练得到,加密网络能够保证待检测图像与加密图像存在一定的差异,检测网络能够保证对加密图像进行活体检测的准确性,使得加密检测联合模型具备对待检测图像进行加密的同时进行活体检测的能力。这样,在获取待检测图像后,将待检测图像输入至训练好的加密检测联合模型中的加密网络,通过加密网络提取待检测图像的图像特征,并基于图像特征进行图像重建,获得的加密图像就会与原始的待检测图像存在差异,无法通过加密图像得知原始的待检测图像的内容,后续通过上述的加密检测联合模型中的检测网络所进行的活体检测均是基于该加密图像来进行的,不用直接分析原始的待检测图像,能够降低待检测图像在活体检测处理过程中被窃取从而泄露用户隐私的风险,保护用户个人隐私;同时,通过加密检测联合模型中的检测网络对加密图像进行活体检测,又能够保证活体检测的准确性。
关于人脸活体检测装置的具体限定可以参见上文中对于人脸活体检测方法的限定,在此不再赘述。上述人脸活体检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,如图11所示,提供了一种模型的训练装置1100,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:获取模块1102、第一损失确定模块1104、第二损失确定模块1106和调整模块1108,其中:
获取模块1102,用于获取训练样本,训练样本包括样本图像及样本图像对应的真实活体类别;
第一损失确定模块1104,用于通过初始神经网络模型中的加密网络,提取样本图像的图像特征,并基于图像特征进行图像重建,获得样本图像对应的加密图像,并根据样本图像与加密图像之间的差异确定第一损失;
第二损失确定模块1106,用于通过初始神经网络模型中的检测网络,对加密图像进行活体检测,获得样本图像对应的预测活体类别,并根据真实活体类别与预测活体类别之间的差异确定第二损失;
调整模块1108,用于根据第一损失与第二损失调整初始神经网络模型的模型参数后,获取下一个训练样本继续训练,直至获得训练好的加密检测联合模型。
上述模型的训练装置中,基于神经网络的加密检测联合模型中的加密网络与检测网络经过联合训练得到,加密网络能够保证待检测图像与加密图像存在一定的差异,检测网络能够保证对加密图像进行活体检测的准确性,使得加密检测联合模型具备对待检测图像进行加密的同时进行活体检测的能力。
关于模型的训练装置的具体限定可以参见上文中对于模型的训练方法的限定,在此不再赘述。上述模型的训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端或活体检测服务器,其内部结构图可以如图12所示。当该计算机设备为终端时,还可以包括图像采集装置,如摄像头等。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的其他计算机设备通过网络连接通信。该计算机程序被处理器执行时以实现一种人脸活体检测方法和/或模型的训练方法。
本领域技术人员可以理解,图12中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种人脸活体检测方法,其特征在于,所述方法包括:
获取待检测图像,所述待检测图像是包括待检测对象的人脸的图像;
将所述待检测图像输入至训练好的加密检测联合模型中的加密网络,通过所述加密网络提取所述待检测图像的图像特征,并基于所述图像特征进行图像重建,获得所述待检测图像对应的加密图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息;
通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象的活体检测结果。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述加密图像发送至活体检测服务器;
通过所述活体检测服务器接收所述加密图像,并执行所述通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象对应的活体检测结果的步骤。
3.根据权利要求1所述的方法,其特征在于,在所述获取待检测图像之前,所述方法还包括:
获取多个训练样本,所述多个训练样本中的每个训练样本包括样本图像及所述样本图像对应的真实活体类别;
使用所述多个训练样本对初始神经网络模型的模型参数进行调整,得到所述加密检测联合模型。
4.根据权利要求3所述的方法,其特征在于,所述使用所述多个训练样本对初始神经网络模型的模型参数进行调整,得到所述加密检测联合模型,包括:
将训练样本中的样本图像及真实活体类别输入初始神经网络模型;
通过所述初始神经网络模型中的加密网络,通过所述加密网络提取所述样本图像的图像特征,并基于所述图像特征进行图像重建,获得所述样本图像对应的加密图像,并根据所述样本图像与所述加密图像之间的差异确定第一损失;
通过所述初始神经网络模型中的检测网络,对所述加密图像进行活体检测,获得所述样本图像对应的预测活体类别,并根据所述真实活体类别与所述预测活体类别之间的差异确定第二损失;
根据所述第一损失与所述第二损失调整所述初始神经网络模型的模型参数后,获取所述多个训练样本中的下一个训练样本,并返回至所述将训练样本中的样本图像及真实活体类别输入初始神经网络模型的步骤继续训练,直至获得训练好的加密检测联合模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述样本图像与所述加密图像之间的差异确定第一损失,包括:
获取所述样本图像中各像素点对应的原始特征值;
获取所述加密图像中各像素点对应的替代特征值;
根据相同像素点的原始特征值与替代特征值之间的差异计算第一损失。
6.根据权利要求4所述的方法,其特征在于,所述根据所述第一损失与所述第二损失调整所述初始神经网络模型的模型参数,包括:
基于所述第一损失与所述第二损失构建目标损失;
根据所述目标损失调整模型参数,以使得调整后的加密网络所输出的加密图像与原始的样本图像之间的差异增大、调整后的检测网络所输出的预测活体类别与真实活体类别之间的差异减小。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述获取待检测图像包括:
获取用于进行身份验证的人脸图像;
所述方法还包括:
当所述活体检测结果指示所述人脸图像中的人脸为活体时,则
判定所述人脸图像通过身份验证。
8.根据权利要求1至6任一项所述的方法,其特征在于,所述方法还包括:
对所述加密图像进行数据增强处理,得到多个拓展图像;
所述通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象的活体检测结果,包括:
通过所述加密检测联合模型中的检测网络,对各所述拓展图像进行活体检测,得到各所述拓展图像对应的检测结果;
根据各所述拓展图像对应的活体检测结果,确定所述待检测图像中的待检测对象的活体检测结果。
9.一种模型的训练方法,其特征在于,所述方法包括:
获取训练样本,所述训练样本包括样本图像及所述样本图像对应的真实活体类别;
通过初始神经网络模型中的加密网络,通过所述加密网络提取所述样本图像的图像特征,并基于所述图像特征进行图像重建,获得所述样本图像对应的加密图像,并根据所述样本图像与所述加密图像之间的差异确定第一损失;
通过所述初始神经网络模型中的检测网络,对所述加密图像进行活体检测,获得所述样本图像对应的预测活体类别,并根据所述真实活体类别与所述预测活体类别之间的差异确定第二损失;
根据所述第一损失与所述第二损失调整所述初始神经网络模型的模型参数后,获取下一个训练样本继续训练,直至获得训练好的加密检测联合模型。
10.一种人脸活体检测系统,包括终端和活体检测服务器,其特征在于,其中:
所述终端用于获取待检测图像,所述待检测图像是包括待检测对象的人脸的图像;
所述终端还用于将所述待检测图像输入至训练好的加密检测联合模型中的加密网络,通过所述加密网络提取所述待检测图像的图像特征,并基于所述图像特征进行图像重建,获得所述待检测图像对应的加密图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息;
所述终端还用于将所述加密图像发送至所述活体检测服务器;
所述活体检测服务器用于接收所述加密图像,并通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测对象的活体检测结果;
所述活体检测服务器还用于向所述终端返回所述活体检测结果。
11.一种人脸活体检测装置,其特征在于,所述装置包括:
获取模块,用于获取待检测图像,所述待检测图像是包括待检测对象的人脸的图像;
检测模块,用于通过训练好的加密检测联合模型中的加密网络,通过所述加密网络提取所述待检测图像的图像特征,并基于所述图像特征进行图像重建,获得所述待检测图像对应的加密图像,所述加密图像为与所述待检测图像在图像内容上存在差异的图像,所述加密图像携带了用于进行活体检测的鉴别信息;并通过所述加密检测联合模型中的检测网络,对所述加密图像进行活体检测,获得所述待检测图像中待检测的活体检测结果。
12.根据权利要求11所述的装置,其特征在于,所述装置还包括:
训练模块,用于获取多个训练样本,所述多个训练样本中的每个训练样本包括样本图像及所述样本图像对应的真实活体类别;使用所述多个训练样本对初始神经网络模型的模型参数进行调整,得到所述加密检测联合模型。
13.根据权利要求12所述的装置,其特征在于,所述训练模块还用于:将训练样本中的样本图像及真实活体类别输入初始神经网络模型;通过所述初始神经网络模型中的加密网络,通过所述加密网络提取所述样本图像的图像特征,并基于所述图像特征进行图像重建,获得所述样本图像对应的加密图像,并根据所述样本图像与所述加密图像之间的差异确定第一损失;通过所述初始神经网络模型中的检测网络,对所述加密图像进行活体检测,获得所述样本图像对应的预测活体类别,并根据所述真实活体类别与所述预测活体类别之间的差异确定第二损失;根据所述第一损失与所述第二损失调整所述初始神经网络模型的模型参数后,获取所述多个训练样本中的下一个训练样本,并返回至所述将训练样本中的样本图像及真实活体类别输入初始神经网络模型的步骤继续训练,直至获得训练好的加密检测联合模型。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至9中任一项所述的方法的步骤。
15.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至9中任一项所述的方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010815513.3A CN111680672B (zh) | 2020-08-14 | 2020-08-14 | 人脸活体检测方法、系统、装置、计算机设备和存储介质 |
EP21855273.5A EP4105821A4 (en) | 2020-08-14 | 2021-06-30 | METHOD, SYSTEM AND DEVICE FOR FACE AUTHENTICITY RECOGNITION, COMPUTER DEVICE AND STORAGE MEDIA |
PCT/CN2021/103452 WO2022033220A1 (zh) | 2020-08-14 | 2021-06-30 | 人脸活体检测方法、系统、装置、计算机设备和存储介质 |
US17/963,396 US20230034040A1 (en) | 2020-08-14 | 2022-10-11 | Face liveness detection method, system, and apparatus, computer device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010815513.3A CN111680672B (zh) | 2020-08-14 | 2020-08-14 | 人脸活体检测方法、系统、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111680672A true CN111680672A (zh) | 2020-09-18 |
CN111680672B CN111680672B (zh) | 2020-11-13 |
Family
ID=72458308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010815513.3A Active CN111680672B (zh) | 2020-08-14 | 2020-08-14 | 人脸活体检测方法、系统、装置、计算机设备和存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230034040A1 (zh) |
EP (1) | EP4105821A4 (zh) |
CN (1) | CN111680672B (zh) |
WO (1) | WO2022033220A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561076A (zh) * | 2020-12-10 | 2021-03-26 | 支付宝(杭州)信息技术有限公司 | 模型处理方法和装置 |
CN112906587A (zh) * | 2021-02-26 | 2021-06-04 | 上海云从企业发展有限公司 | 一种数据处理方法、装置、机器可读介质及设备 |
CN113378715A (zh) * | 2021-06-10 | 2021-09-10 | 北京华捷艾米科技有限公司 | 一种基于彩色人脸图像的活体检测方法及相关设备 |
CN113542527A (zh) * | 2020-11-26 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 一种人脸图像传输方法、装置、电子设备及存储介质 |
WO2022033220A1 (zh) * | 2020-08-14 | 2022-02-17 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、系统、装置、计算机设备和存储介质 |
CN114549951A (zh) * | 2020-11-26 | 2022-05-27 | 未岚大陆(北京)科技有限公司 | 获得训练数据的方法、相关设备、系统及存储介质 |
WO2022188599A1 (en) * | 2021-03-10 | 2022-09-15 | International Business Machines Corporation | Selective redaction of images |
WO2023154606A1 (en) * | 2022-02-14 | 2023-08-17 | Qualcomm Incorporated | Adaptive personalization for anti-spoofing protection in biometric authentication systems |
CN118014011A (zh) * | 2024-04-07 | 2024-05-10 | 蚂蚁科技集团股份有限公司 | 大语言模型训练及训练数据构建方法、装置、设备、介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060078176A1 (en) * | 2004-10-08 | 2006-04-13 | Fujitsu Limited | Biometric information input device, biometric authentication device, biometric information processing method, and computer-readable recording medium recording biometric information processing program |
US20090297005A1 (en) * | 2008-05-30 | 2009-12-03 | Benno Heigl | Operating method for a pivotal poly-plane imaging unit for imaging a moving examination object |
US20170286788A1 (en) * | 2016-04-01 | 2017-10-05 | Beijing Kuangshi Technology Co., Ltd. | Liveness detection method, liveness detection system, and computer program product |
CN109784148A (zh) * | 2018-12-06 | 2019-05-21 | 北京飞搜科技有限公司 | 活体检测方法及装置 |
CN109902667A (zh) * | 2019-04-02 | 2019-06-18 | 电子科技大学 | 基于光流引导特征块和卷积gru的人脸活体检测方法 |
CN110598580A (zh) * | 2019-08-25 | 2019-12-20 | 南京理工大学 | 一种人脸活体检测方法 |
CN111339897A (zh) * | 2020-02-21 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 活体识别方法、装置、计算机设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105227316A (zh) * | 2015-09-01 | 2016-01-06 | 深圳市创想一登科技有限公司 | 基于人脸图像身份验证的移动互联网账号登录系统及方法 |
CN107590465A (zh) * | 2017-09-14 | 2018-01-16 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
US10679443B2 (en) * | 2017-10-13 | 2020-06-09 | Alcatraz AI, Inc. | System and method for controlling access to a building with facial recognition |
EP3624006A4 (en) * | 2018-04-28 | 2020-11-18 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | IMAGE PROCESSING, DEVICE, COMPUTER-READABLE STORAGE MEDIA AND ELECTRONIC DEVICE |
CN111325175A (zh) * | 2020-03-03 | 2020-06-23 | 北京三快在线科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN111680672B (zh) * | 2020-08-14 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、系统、装置、计算机设备和存储介质 |
-
2020
- 2020-08-14 CN CN202010815513.3A patent/CN111680672B/zh active Active
-
2021
- 2021-06-30 EP EP21855273.5A patent/EP4105821A4/en active Pending
- 2021-06-30 WO PCT/CN2021/103452 patent/WO2022033220A1/zh unknown
-
2022
- 2022-10-11 US US17/963,396 patent/US20230034040A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060078176A1 (en) * | 2004-10-08 | 2006-04-13 | Fujitsu Limited | Biometric information input device, biometric authentication device, biometric information processing method, and computer-readable recording medium recording biometric information processing program |
US20090297005A1 (en) * | 2008-05-30 | 2009-12-03 | Benno Heigl | Operating method for a pivotal poly-plane imaging unit for imaging a moving examination object |
US20170286788A1 (en) * | 2016-04-01 | 2017-10-05 | Beijing Kuangshi Technology Co., Ltd. | Liveness detection method, liveness detection system, and computer program product |
CN109784148A (zh) * | 2018-12-06 | 2019-05-21 | 北京飞搜科技有限公司 | 活体检测方法及装置 |
CN109902667A (zh) * | 2019-04-02 | 2019-06-18 | 电子科技大学 | 基于光流引导特征块和卷积gru的人脸活体检测方法 |
CN110598580A (zh) * | 2019-08-25 | 2019-12-20 | 南京理工大学 | 一种人脸活体检测方法 |
CN111339897A (zh) * | 2020-02-21 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 活体识别方法、装置、计算机设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
黄俊 等: "融合头部姿态和面部表情的互动式活体检测", 《计算机应用》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022033220A1 (zh) * | 2020-08-14 | 2022-02-17 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、系统、装置、计算机设备和存储介质 |
CN113542527B (zh) * | 2020-11-26 | 2023-08-18 | 腾讯科技(深圳)有限公司 | 一种人脸图像传输方法、装置、电子设备及存储介质 |
CN113542527A (zh) * | 2020-11-26 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 一种人脸图像传输方法、装置、电子设备及存储介质 |
CN114549951A (zh) * | 2020-11-26 | 2022-05-27 | 未岚大陆(北京)科技有限公司 | 获得训练数据的方法、相关设备、系统及存储介质 |
CN114549951B (zh) * | 2020-11-26 | 2024-04-23 | 未岚大陆(北京)科技有限公司 | 获得训练数据的方法、相关设备、系统及存储介质 |
CN112561076A (zh) * | 2020-12-10 | 2021-03-26 | 支付宝(杭州)信息技术有限公司 | 模型处理方法和装置 |
CN112906587A (zh) * | 2021-02-26 | 2021-06-04 | 上海云从企业发展有限公司 | 一种数据处理方法、装置、机器可读介质及设备 |
WO2022188599A1 (en) * | 2021-03-10 | 2022-09-15 | International Business Machines Corporation | Selective redaction of images |
US11468617B2 (en) | 2021-03-10 | 2022-10-11 | International Business Machines Corporation | Selective redaction of images |
CN113378715A (zh) * | 2021-06-10 | 2021-09-10 | 北京华捷艾米科技有限公司 | 一种基于彩色人脸图像的活体检测方法及相关设备 |
CN113378715B (zh) * | 2021-06-10 | 2024-01-05 | 北京华捷艾米科技有限公司 | 一种基于彩色人脸图像的活体检测方法及相关设备 |
WO2023154606A1 (en) * | 2022-02-14 | 2023-08-17 | Qualcomm Incorporated | Adaptive personalization for anti-spoofing protection in biometric authentication systems |
CN118014011A (zh) * | 2024-04-07 | 2024-05-10 | 蚂蚁科技集团股份有限公司 | 大语言模型训练及训练数据构建方法、装置、设备、介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022033220A1 (zh) | 2022-02-17 |
US20230034040A1 (en) | 2023-02-02 |
CN111680672B (zh) | 2020-11-13 |
EP4105821A1 (en) | 2022-12-21 |
EP4105821A4 (en) | 2023-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111680672B (zh) | 人脸活体检测方法、系统、装置、计算机设备和存储介质 | |
WO2020207189A1 (zh) | 身份验证方法、装置、存储介质和计算机设备 | |
CN110222573B (zh) | 人脸识别方法、装置、计算机设备及存储介质 | |
CN112801057B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN111401216B (zh) | 图像处理、模型训练方法、装置、计算机设备和存储介质 | |
CN111680675B (zh) | 人脸活体检测方法、系统、装置、计算机设备和存储介质 | |
CN111553267B (zh) | 图像处理方法、图像处理模型训练方法及设备 | |
CN111754396B (zh) | 脸部图像处理方法、装置、计算机设备和存储介质 | |
EP4085369A1 (en) | Forgery detection of face image | |
CN112801054B (zh) | 人脸识别模型的处理方法、人脸识别方法及装置 | |
CN112364827A (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
CN112633424B (zh) | 图像处理方法、装置、图像处理设备及存储介质 | |
CN113011387B (zh) | 网络训练及人脸活体检测方法、装置、设备及存储介质 | |
Gayathri et al. | Novel framework for multimodal biometric image authentication using visual share neural network | |
Hao et al. | Robustness analysis of face obscuration | |
CN114036553A (zh) | 一种结合k匿名的行人身份隐私保护方法 | |
CN112308035A (zh) | 图像检测方法、装置、计算机设备和存储介质 | |
CN115708135A (zh) | 人脸识别模型的处理方法、人脸识别方法及装置 | |
CN114399824A (zh) | 一种多角度侧面人脸矫正方法、装置、计算机设备和介质 | |
CN114677611A (zh) | 数据识别方法、存储介质及设备 | |
CN113052068B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN114596615B (zh) | 基于对抗学习的人脸活体检测方法、装置、设备及介质 | |
CN116597500B (zh) | 虹膜识别方法、装置、设备及存储介质 | |
Kingsley et al. | Deep Fake Detection using Advance ConvNets2D | |
CN116758615A (zh) | 保护视觉隐私的人脸识别方法、装置、服务器及用户端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40028454 Country of ref document: HK |