CN111539389A - 人脸防伪识别方法、装置、设备及存储介质 - Google Patents
人脸防伪识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111539389A CN111539389A CN202010573539.1A CN202010573539A CN111539389A CN 111539389 A CN111539389 A CN 111539389A CN 202010573539 A CN202010573539 A CN 202010573539A CN 111539389 A CN111539389 A CN 111539389A
- Authority
- CN
- China
- Prior art keywords
- face
- eye
- eye movement
- data set
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
本申请公开了一种人脸防伪识别方法、装置、设备及存储介质,涉及人工智能技术领域。所述方法包括:获取包括待检测人脸的人脸视频数据;从人脸视频数据的图像帧中检测待检测人脸的眼部轮廓,生成人眼轮廓序列;基于人眼轮廓序列进行眼动概率预测,生成眼动状态序列;获取眼动状态序列中的第一数据集和第二数据集;根据第一数据集和第二数据集,确定待检测人脸为真实人脸的概率;在概率符合条件的情况下,确定待检测人脸为真实人脸。通过解析人脸视频数据得到眼动状态序列,对非正常眨眼行为进行分析,进而判断待检测人脸的真实性,提升对高度逼真的虚假人脸视频识别的准确度,从而提升人脸识别的安全性,且具有良好的可迁移性。
Description
技术领域
本申请实施例涉及人工智能技术领域,特别涉及一种人脸防伪识别方法、装置、设备及存储介质。
背景技术
随着人工智能技术的研究和进步,人工智能技术在多个领域展开应用。
人脸识别是基于人的脸部特征信息进行身份识别的一种生物识别技术,是人工智能技术中重要的一环。在人脸识别技术的实际应用过程中,不法分子可以通过制作虚假人脸来破解传统的人脸识别技术,例如通过制作2D人脸面具制作虚假人脸,或者也可以通过深度学习模型,例如生成式对抗网络(GAN,Generative Adversarial Networks),给静态图像“换脸”生成逼真的图像或者视频制作虚假人脸。
传统的人脸识别技术对上述虚假人脸的识别度较差,安全性较低。
发明内容
本申请实施例提供了一种人脸防伪识别方法、装置、设备及存储介质,能够提升对高度逼真的虚假人脸视频识别的准确度,从而提升人脸识别的安全性。
一方面,本申请实施例提供了一种人脸防伪识别方法,所述方法包括:
获取包括待检测人脸的人脸视频数据,所述人脸视频数据是包括待检测人脸的视频数据;
从所述人脸视频数据的图像帧中检测所述待检测人脸的眼部轮廓,生成人眼轮廓序列;
获取所述人脸视频数据对应的基于所述人眼轮廓序列进行眼动概率预测,生成眼动状态序列,所述眼动状态序列用于体现表征所述待检测人脸的眼部的运动状况,所述眼动状态序列包括在时域上分布的多个眼动概率;
获取所述眼动状态序列中的第一数据集和第二数据集,所述第一数据集包括所述眼动状态序列中取值最大的眼动概率降序排列后的前N个眼动概率,所述第二数据集包括所述眼动状态序列中最大值在内的M个连续的眼动概率,所述N和所述M均为正整数;
根据所述第一数据集和所述第二数据集,确定所述待检测人脸为真实人脸的概率;
在所述概率符合条件的情况下,确定所述待检测人脸为所述真实人脸。
另一方面,本申请实施例提供了一种人脸防伪识别装置,所述装置包括:
视频获取模块,用于获取包括待检测人脸的人脸视频数据,所述人脸视频数据是包括待检测人脸的视频数据;
轮廓序列获取生成模块,用于从所述人脸视频数据的图像帧中检测所述待检测人脸的眼部轮廓,生成人眼轮廓序列;
眼动序列生成模块,用于基于所述人眼轮廓序列进行眼动概率预测,生成获取所述人脸视频数据对应的眼动状态序列,所述眼动状态序列用于体现表征所述待检测人脸的眼部的运动状况,所述眼动状态序列包括在时域上分布的多个眼动概率;
数据获取模块,用于获取所述眼动状态序列中的第一数据集和第二数据集,所述第一数据集包括所述眼动状态序列中的眼动概率降序排列后取值最大的前N个眼动概率,所述第二数据集包括所述眼动状态序列中最大值在内的M个连续的眼动概率,所述N和所述M均为正整数;
概率确定模块,用于根据所述第一数据集和所述第二数据集,确定所述待检测人脸为真实人脸的概率;
人脸确定模块,用于在所述概率符合条件的情况下,确定所述待检测人脸为所述真实人脸。
另一方面,本申请实施例提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述人脸防伪识别方法。
另一方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述人脸防伪识别方法。
还一方面,本申请实施例提供了一种计算机程序产品,当所述计算机程序产品在计算机设备上运行时,使得计算机设备执行上述人脸防伪识别方法。
本申请实施例提供的技术方案可以带来如下有益效果:
通过解析人脸视频数据得到反映待检测人脸眼动状态的眼动概率集合,即眼动状态序列,根据其中两部分特定的眼动概率集合对人脸视频数据中是否存在非正常眨眼行为进行分析,进而判断待检测人脸是否为真实人脸,提升对高度逼真的虚假人脸视频识别的准确度,从而提升人脸识别的安全性,有效遏制不法分子通过虚假人脸视频伪造他人身份,同时本方法不受视频采集条件的限制,具有良好的可迁移性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请一个实施例提供的方案实施环境的示意图;
图2是本申请一个实施例提供的人脸防伪识别方法的流程图;
图3是本申请另一个实施例提供的人脸防伪识别方法的流程图;
图4示例性示出了一种对人脸视频数据预处理的示意图;
图5示例性示出了一种LRCN模型结构的示意图;
图6示例性示出了一种基于VGG16的CNN结构的示意图;
图7是本申请另一个实施例提供的人脸防伪识别方法的流程图;
图8示例性示出了一种人脸防伪识别处理过程的示意图;
图9是本申请另一个实施例提供的人脸防伪识别方法的流程图;
图10示例性示出了基于眼动状态序列进一步分析真假人脸的示意图;
图11是本申请一个实施例提供的人脸防伪识别装置的框图;
图12是本申请一个实施例提供的计算机设备的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
请参考图1,其示出了本申请一个实施例提供的方案实施环境的示意图。该方案实施环境可以实现成为一个人脸防伪识别系统。该方案实施环境可以包括:终端10和服务器20。
终端10可以是诸如手机、平板电脑、多媒体播放设备、可穿戴设备、PC(PersonalComputer)、人脸支付终端、人脸签到终端、智能摄像机等电子设备。终端10可以配置或者连接摄像头,通过该摄像头采集人脸视频数据。终端10中可以安装运行有应用程序的客户端,该应用程序可以包含有人脸识别功能。在本申请实施例中,对该应用程序的类型不作限定,如其可以是社交类应用程序、支付类应用程序、监控类应用程序、即时通信类应用程序、视频类应用程序、新闻资讯类应用程序、音乐类应用程序、购物类应用程序等。
服务器20可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。服务器20可以是上述应用程序的后台服务器,用于为该应用程序提供后台服务。
终端10和服务器20之间可以通过网络进行通信,本申请在此不做限制。
本申请实施例提供的人脸防伪识别方法,各步骤的执行主体可以是服务器20,也可以是终端10(如终端10中运行的应用程序的客户端),还可以是由终端10和服务器20交互配合执行。为了便于说明,在下述方法实施例中,仅以各步骤的执行主体为计算机设备进行介绍说明,但对此不构成限定。
本申请技术方案涉及人工智能技术领域和云技术领域,下面对此进行介绍说明:
AI(Artificial Intelligence,人工智能)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR(Optical Character Recognition,光学字符识别)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
ML(Machine Learning,机器学习)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
云计算(Cloud computing)是一种计算模式,它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。
作为云计算的基础能力提供商,会建立云计算资源池(简称云平台,一般称为IaaS(Infrastructure as a Service,基础设施即服务)平台,在资源池中部署多种类型的虚拟资源,供外部客户选择使用。云计算资源池中主要包括:计算设备(为虚拟化机器,包含操作系统)、存储设备、网络设备。
按照逻辑功能划分,在IaaS层上可以部署PaaS(Platform as a Service,平台即服务)层,PaaS层之上再部署SaaS (Software as a Service,软件即服务)层,也可以直接将SaaS部署在IaaS上。PaaS为软件运行的平台,如数据库、web容器等。SaaS为各式各样的业务软件,如web门户网站、短信群发器等。一般来说,SaaS和PaaS相对于IaaS是上层。
人工智能云服务,一般也被称作是AIaaS(AI as a Service,中文为“AI即服务”)。这是目前主流的一种人工智能平台的服务方式,具体来说AIaaS平台会把几类常见的AI服务进行拆分,并在云端提供独立或者打包的服务。这种服务模式类似于开了一个AI主题商城:所有的开发者都可以通过API接口的方式来接入使用平台提供的一种或者是多种人工智能服务,部分资深的开发者还可以使用平台提供的AI框架和AI基础设施来部署和运维自已专属的云人工智能服务。
随着人工智能技术和云技术的研究和进步,人工智能技术和云技术在多个领域展开研究和应用,相信随着技术的发展,人工智能技术和云技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例提供了一种应对人脸黑产的技术方案,用于对人脸黑产进行对抗检测。所谓人脸黑产,是指不法分子以互联网为媒介,以网络技术为主要手段,获取公民的个人信息、人脸信息从而绕过政企服务和互联网公司的安全策略,利用深度学习的技术或者物理面具通过人脸识别认证从而达到谋利的目的,形成了欺骗人脸防伪识别技术的黑色产业链。通过解析人脸视频数据得到反映待检测人脸眼动状态的眼动概率集合,即眼动状态序列,根据其中两部分特定的眼动概率集合对人脸视频数据中是否存在非正常眨眼行为进行分析,进而判断待检测人脸是否为真实人脸,提升对高度逼真的虚假人脸视频识别的准确度,从而提升人脸识别的安全性,有效遏制不法分子通过虚假人脸视频伪造他人身份,同时本方法不受视频采集条件的限制,具有良好的可迁移性。
下面,通过几个实施例对本申请技术方案进行介绍说明。
请参考图2,其示出了本申请一个实施例提供的人脸防伪识别方法的流程图,该方法可以包括如下几个步骤(201-206)。
步骤201,获取包括待检测人脸的人脸视频数据。
人脸视频数据是包括待检测人脸的视频数据。人脸视频数据的格式包括但不限于以下任意一种:AVI(Audio Video Interactive,音频视频交错)格式、WMV(Windows MediaVideo,Windows媒体视频)格式、ASF(Advanced Systems Format,高级串流格式)格式、MPEG(Moving Picture Experts Group,动态图像专家组)格式、MKV(Multimedia Container,多媒体容器)格式、RMVB(RealMedia Variable Bitrate,RealMedia可变比特率)格式FLV(FlashVideo,流媒体)格式。可选地,人脸视频数据可以由计算机设备自身进行采集得到,也可以从其他设备接收获取,本申请实施例对此不作限定。
待检测人脸是视频图像中需要经过检测以确定其真实性的人脸。待检测人脸有可能是真实人脸,也有可能是虚假人脸。
上述虚假人脸是通过某种技术手段模仿真实人脸而伪造的虚假人脸,用于欺骗人脸防伪识别技术,从而通过人脸防伪识别认证。随着新一代的深度神经网络的出现,伪造虚假人脸视频数据所需的编辑工作量大幅降低,不法分子借助深度神经网络能够用最少的人工编辑从大量的训练数据中合成高度逼真的虚假人脸视频,例如,一款名为DeepFake的软件工具基于经过数万幅图像训练后的GAN模型生成逼真的虚假人脸,并将这些虚假人脸无缝地拼接到原始视频中,生成高度逼真的虚假人脸视频,从而会导致视频中真实人脸的主体身份被伪造。但是此类虚假人脸视频数据在合成过程中虽然能捕捉到真实人脸的五官特征,但是往往会忽略真实人脸在生理活动中产生的生理信号。上述生理活动包括自发的生理活动和非自发的生理活动,例如,眨眼、眼球转动等眼部生理活动。上述生理信号是在生理活动中产生的。可选地,上述虚假人脸是2D人脸面具,上述2D人脸面具是根据真实人脸伪造的虚假人脸,例如,不法分子根据真实人脸图像制作2D人脸面具,通过佩戴2D人脸面具或者其他方式欺骗人脸识别技术以通过人脸识别认证。
上述真实人脸是真实用户在视频中记录的人脸,待检测人脸的主体与实际进行检测的用户一致。人脸视频数据中的真实人脸往往具有眨眼等生理活动。眨眼是指眼睛的快速闭合和张开运动。眨眼主要包括三种类型,如自发眨眼,反射眨眼和自愿眨眼。自发眨眼是指在没有外部刺激和内部力量的情况下眨眼,在没有意识的控制下发生。自发眨眼具有重要的生物学功能,它能用眼泪滋润角膜和结膜表面,去除刺激物。据统计,正常人平均每分钟要眨眼十几次,通常2~6秒就要眨眼一次,每次眨眼要用0.2~0.4秒钟时间。在谈话过程中,自发眨眼的频率可能会提高。在阅读过程中,自发眨眼的频率可能会降低。
步骤202,从人脸视频数据的图像帧中检测待检测人脸的眼部轮廓,生成人眼轮廓序列。
图像帧是组成视频的最小单位,图像帧反映人脸视频数据在当前图像帧对应的时刻显示的图像数据。眼部轮廓是根据待检测人脸的眼睑确定的闭合轮廓。眼睑是眼睛周围能开闭的皮,位于眼球前方,眼睑包括上、下眼睑。人眼轮廓序列是待检测人脸中人眼轮廓图片的集合。可选地,人脸轮廓图片是从待检测人脸中提取出人眼部轮廓周围相对应的矩形区域生成的图片。可选地,上述人眼轮廓序列是所有人眼图片中截取到的人眼轮廓图片集合。可选地,人眼轮廓序列中的人眼轮廓,按照其所属图像帧的时间顺序排列。
在示例性实施例中,请参考图3,其示出了另一个实施例提供的人脸防伪识别方法的流程图,步骤202可以由如下步骤202a~202d替换实现。
步骤202a,对人脸视频数据进行逐帧分解处理,得到多个图像帧。
请参考图4,其示例性示出了一种对人脸视频数据的预处理过程的示意图。图像帧通过将人脸视频数据逐帧分解后生成。可选地,经过逐帧分解处理后生成的图像帧的数量等于上述人脸视频数据的总帧数。
步骤202b,对图像帧中的待检测人脸进行识别,从人脸视频数据的图像帧中截取待检测人脸的人脸区域,生成人脸图片序列。
如图4所示,对图像帧中的待检测人脸进行识别,识别图像帧中是否包含人脸,如果图像帧中包含人脸,则从人脸视频数据的图像帧中截取待检测人脸的人脸区域,生成此图像帧对应的人脸图片,基于上述人脸图片生成人脸图片序列。可选地,上述人脸图片序列是所有存在人脸的图像帧中截取到的人脸图片集合。可选地,人脸图片序列中的人脸图像,按照其所属图像帧的时间顺序排列。
步骤202c,标记人脸图片序列的人脸图片中的眼部轮廓关键点。
如图4所示,眼部轮廓关键点是眼部轮廓中反映眼部轮廓形状的关键点。可选地,根据眼部轮廓关键点可以判断待检测人脸中眼睛是否处于张开状态或者闭合状态。可选地,根据眼部轮廓关键点可以判断待检测人脸中眼睛的张开程度或闭合程度。可选地,标记人脸图片序列的人脸图片中的眼部轮廓关键点包括标记眼部两端的眼角作为眼部轮廓关键点,分别标记上眼睑或者下眼睑中两个特定位置作为眼部轮廓关键点。
步骤202d,根据人脸图片中的眼部轮廓关键点,截取人眼轮廓图片生成人眼轮廓序列。
如图4所示,根据人脸图片中的眼部轮廓关键点,截取人眼部轮廓周围相对应的矩形区域,生成人眼轮廓图片。可选地,上述矩形区域是包括人脸轮廓的最小矩形区域。可选地,上述矩形区域是包括眼部轮廓关键点的最小矩形区域。
基于人脸轮廓图片生成人眼轮廓序列。
步骤203,基于人眼轮廓序列进行眼动概率预测,生成眼动状态序列。
眼动概率预测是基于人眼轮廓序列评估计算某一时刻待检测人脸中存在眨眼行为的眼动概率的行为。可选地,眼动概率是反映对应时刻存在眨眼行为的概率,作为后续步骤分析使用的数据基础。眼动概率可以是一个概率值,如其可以在区间[0,1]内取值。可选地,人脸视频数据中包含人脸图像的每一个图像帧都对应一个眼动概率,反映该时刻存在眨眼行为的概率。可选地,上述眼动概率是根据眼睛轮廓在上述图像帧中产生的变化程度确定的,眼动概率与眼睛轮廓的变化程度呈正相关关系,例如,眯眼动作中眼睛轮廓变化程度低于眨眼动作中眼睛轮廓变化程度,所以眯眼动作的眼动概率低于眨眼动作的眼动概率。
眼动状态序列用于表征待检测人脸的眼部的运动状况,如眼部的眨眼运动状况。眼动状态序列包括在时域上分布的多个眼动概率。可选地,眼动状态序列是上述眼动概率的集合。可选地,眼动状态序列中的眼动概率,按照与其对应的人眼轮廓图片所属图像帧的时间顺序排列。
可选地,上述步骤203可以通过眼动状态获取模型实现。眼动状态获取模型是用于根据人脸视频数据确定眼动概率进而获取眼动状态的机器学习模型。
可选地,眼动状态获取模型是长期递归卷积网络(Long-term RecurrentConvolutional Network,LRCN)模型,LRCN模型可以有效获取到待检测人脸中的眼动状态。LRCN模型是通过卷积神经网络(Convolutional Neural Network,CNN)与长短期记忆网络(Long Short-Term Memory,LSTM)相互结合形成的模型。
请参考图5,其示例性示出了一种LRCN模型结构的示意图。LRCN模型包括特征提取层、序列学习层和状态预测层。特征提取层将输入的眼部轮廓图片转化为可识别的特征。可选地,特征提取层是用基于VGG16框架的卷积神经网络实现的,但没有fc7和fc8层。VGG16由连续卷积层conv1∼5的5个块组成,每个块后面都有最大池操作。然后在最后一个块上附加三个全连接层fc6∼fc8。特征提取层的输出被输入到序列学习层,序列学习层由具有长短期记忆(LSTM)单元的循环神经网络(Recurrent Neural Network ,RNN)实现。LSTM-RNN的使用是为了提高RNN模型的存储容量,避免训练阶段训练算法的梯度消失。LSTM单元是控制何时和如何忘记以前的隐藏状态以及何时和如何更新隐藏状态的内存单元。
请参考图6,其示例性示出了一种基于VGG16的CNN结构的示意图。CNN是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks)。CNN中包括输入层和隐含层。CNN的输入层可以处理多维数据。由于使用梯度下降算法进行学习,卷积神经网络的输入特征需要进行标准化处理,有利于提升卷积神经网络的学习效率和表现。CNN的隐含层包含卷积层、池化层和全连接层3类常见构筑,在一些更为现代的算法中可能有Inception模块、残差块(residual block)等复杂构筑。在常见构筑中,卷积层和池化层是卷积神经网络特有的。卷积层中的卷积核包含权重系数,而池化层不包含权重系数,池化层可能不被认为是独立的层。
LSTM是一种时间循环神经网络,是为了解决一般的循环神经网络存在的长期依赖问题而专门设计出来的,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。一个LSTM 模型可以包含很多LSTM 单元,每个LSTM 单元包含一个输入门、一个输出门、一个遗忘门和一个记忆单元。
在示例性实施例中,请参考图3,其示出了另一个实施例提供的人脸防伪识别方法的流程图,步骤203可以由如下步骤203a~203d替换实现。
步骤203a,对人眼轮廓序列进行特征提取处理,得到眼部特征信息。
特征提取处理可以是提取人眼轮廓序列中人眼轮廓图片的眼部特征信息。可选地,根据人眼轮廓图片中眼部轮廓关键点提取眼部特征信息。可选地,根据人眼轮廓图片中眼部轮廓提取眼部特征信息。可选地,眼部特征信息包括待检测人脸眼睛处于张开状态或者闭合状态以及张开程度或者闭合程度。
可选地,上述步骤203a可以由上述LRCN模型中的特征提取层实现。
步骤203b,对眼部特征信息在时域上进行对比处理,得到眼动变化趋势。
在时域上进行对比处理是指对人眼轮廓序列中不同人眼轮廓图片所对应的眼部特征信息进行对比,不同人眼轮廓图片所属图像帧在时域上对应的时刻不同。可选地,在时域上按照由前向后的单向时间顺序对眼部特征信息进行对比处理,例如,选取在时域上位于当前人眼轮廓图片之前的人脸轮廓图片对此处理。可选地,在时域上按照由前向后和由后向前的双向时间顺序对眼部特征信息进行对比处理,例如,选取在时域上位于当前人眼轮廓图片之前和之后的人脸轮廓图片与当前人眼轮廓图片进行对此处理。
经过对眼部特征信息在时域上进行对比处理后,得到人眼轮廓序列中待检测人脸的眼动变化趋势。可选地,眼动变化趋势是表征人眼轮廓序列中待检测人脸发生眼动变化的趋势,反映了人眼轮廓序列中不同人眼轮廓图片所对应的眼部特征信息之间的差异,例如,待检测人脸中人眼逐渐张开,眼动变化趋势体现为待检测人脸中人眼张开程度增大。
可选地,上述步骤203b可以由上述LRCN模型中的序列学习层实现。
步骤203c,根据眼动变化趋势进行眼动状态预测,得到所述眼动概率。
眼动状态预测是指基于眼动变化趋势对待检测人脸中的眼动状态进行预测。眨眼行为的产生可能会伴随人眼由张开状态变为闭合状态或者由闭合状态变为张开状态的眼动变化趋势。可选地,若上述眼动变化趋势在某一时段与眨眼行为产生的眼动变化趋势大致相符合,则可以预测待检测人脸在此时段内可能发生了眨眼行为。
经过上述眼动状态预测后,计算待检测人脸发生的眼动概率。可选地,根据上述眼动变化趋势在某一时段与眨眼行为产生的眼动变化趋势之间的符合程度,计算待检测人脸在此时段内可能发生眨眼行为对应的眼动概率。
步骤203d,基于眼动概率生成所述眼动状态序列。
可选的,将上述眼动概率按照时间顺序排列,生成眼动状态序列。
可选地,上述步骤203c至步骤203d可以由上述LRCN模型中的状态预测层实现。
步骤204,获取眼动状态序列中的第一数据集和第二数据集。
获取眼动状态序列中的第一数据集。可选地,第一数据集包括将眼动状态序列中的眼动概率降序排列后的前N个眼动概率,上述降序排列是指将眼动状态序列中的眼动概率按照数值由大至小降序排列,N为正整数。可选地,N的取值范围是根据经验确定的。第一数据集用于作为检测上述人脸视频数据中是否存在频繁眨眼行为的数据基础。
获取眼动状态序列中的第二数据集。可选地,获取眼动状态序列中的最大值Vj以及最大值Vj在眼动状态序列中的位置索引Ij,眼动状态序列的长度为L;根据人脸视频数据的帧率确定M的值,M小于等于人脸视频数据的总帧数;在Ij-M/2的值大于0且Ij+M/2的值小于L-1的情况下,获取从位置索引为Ij-M/2至位置索引为Ij+M/2的M个连续的眼动概率得到第二数据集;在Ij-M/2的值小于0的情况下,获取从位置索引为0至位置索引为M-1的M个连续的眼动概率得到第二数据集;在Ij+M/2的值大于L-1的情况下,获取从位置索引为L-M至位置索引为L-1的M个连续的眼动概率得到第二数据集。即,第二数据集包括眼动状态序列中最大值在内的M个连续的眼动概率,M为正整数。第二数据集用于作为检测上述人脸视频数据中是否存在过快眨眼行为的数据基础。可选地,M的个数可变更。可选地,M在区间[8,20]内取值。
上述N和M均为小于等于眼动状态序列的长度L的正整数,上述眼动状态序列的长度L是眼动状态序列中包含的眼动频率的个数。
步骤205,根据第一数据集和第二数据集,确定待检测人脸为真实人脸的概率。
获取第一数据集和第二数据集中的数据,对第一数据集和第二数据集中的数据进行处理,输出检测人脸为真实人脸的概率。
可选地,对第一数据集进行处理的过程是挖掘第一数据集中的数据是否具有存在频繁眨眼行为所具有的数据特征。上述频繁眨眼的行为是不正常的眨眼行为,说明眨眼次数过多,超出正常生理活动产生的眨眼次数,进而判断有很大可能是虚假人脸视频数据。
可选地,对第二数据集进行处理的过程是挖掘第二数据集中的数据是否具有存在过快眨眼行为所具有的数据特征。上述过快眨眼的行为是不正常的眨眼行为,说明眨眼频率过快,超出正常生理活动产生的眨眼频率,进而判断有很大可能是虚假人脸视频数据。
在示例性实施例中,如图3所示,步骤205可以由如下步骤205a~205b替换实现。
步骤205a,根据第一数据集确定第一概率值。
通过第一分类模型对第一数据集进行处理,得到第一概率值。上述第一概率值是根据第一数据集判断待检测人脸为真实人脸的概率。
可选地,第一分类模型是第一支持向量机(Support Vector Machine, SVM)分类器,用于根据输入的第一数据集确定与第一数据集相对应的第一概率值。SVM是一类按监督学习(supervised learning)方式对数据进行二元分类的广义线性分类器(generalizedlinear classifier),其决策边界是对学习样本求解的最大边距超平面(maximum-marginhyperplane)。可选地,SVM使用铰链损失函数(hinge loss)计算经验风险(empiricalrisk)并在求解系统中加入了正则化项以优化结构风险(structural risk),是一个具有稀疏性和稳健性的分类器。SVM可以通过核方法(kernel method)进行非线性分类,是常见的核学习(kernel learning)方法之一。上述第一SVM分类器是经过训练的SVM分类器,训练样本可以是与人脸视频数据样本集中对应的所有眼动状态序列中的第一数据集。
在示例性实施例中,如图7所示,步骤205a可以由如下步骤205a1~205a2替换实现。
步骤205a1,根据左眼的眼动状态序列中的第一数据集,确定左眼的第一概率值。
步骤205a2,根据右眼的眼动状态序列中的第一数据集,确定右眼的第一概率值。
步骤205b,根据第二数据集确定第二概率值。
通过第二分类模型对第二数据集进行处理,得到第二概率值。上述第二概率值是根据第二数据集判断待检测人脸为真实人脸的概率。
可选地,第二分类模型是第二SVM分类器,用于根据输入的第二数据集确定与第二数据集相对应的第二概率值。上述第二SVM分类器是经过训练的SVM分类器,训练样本是与人脸视频数据样本集中对应的所有眼动状态序列中的第二数据集。在本申请实施例中,主要以第一分类模型和第二分类模型为SVM分类器为例进行介绍说明,在一些其他实施例中,也可以采用其它具有分类功能的模型,如神经网络模型等,本申请实施例对此不作限定。
在示例性实施例中,如图7所示,步骤205b可以由如下步骤205b1~205b2替换实现。
步骤205b1,根据左眼的眼动状态序列中的第二数据集,确定左眼的第二概率值。
步骤205b2,根据右眼的眼动状态序列中的第二数据集,确定右眼的第二概率值。
步骤206,在概率符合条件的情况下,确定待检测人脸为真实人脸。
上述概率符合条件是用于判断人脸视频数据中不存在过快或者频繁的眨眼行为的依据。上述概率是反映待检测人脸为真实人脸的概率,包括第一概率值和第二概率值。另外,在概率不符合条件的情况下,确定待检测人脸不是真实人脸,即确定待检测人脸为虚假人脸。
在示例性实施例中,请参考图3,上述步骤206可以由如下步骤替换实现。
步骤206a,在第一概率值和第二概率值符合条件的情况下,确定待检测人脸为真实人脸。
上述第一概率值和第二概率值符合条件包括:第一概率值小于阈值且第二概率值小于第二阈值。
第一阈值是上述第一分类模型经过训练后确定的,通过设置第一阈值能够有效提升人脸防伪识别效果,提高防伪识别准确度。
第二阈值是上述第二分类模型经过训练后确定的,通过设置第二阈值能够有效提升人脸防伪识别效果,提高防伪识别准确度。
另外,在第一概率值和第二概率值中任一项不符合条件的情况下,即第一概率值大于阈值或第二概率值大于第二阈值,确定待检测人脸不是真实人脸,即确定待检测人脸为虚假人脸。
在示例性实施例中,请参考图7,上述步骤206a可以由如下步骤206a1替换。
步骤206a1,在左眼的第一概率值和右眼的第一概率值均小于第一阈值,且左眼的第二概率值和右眼的第二概率值均小于第二阈值的情况下,确定待检测人脸为真实人脸。
另外,在左眼的第一概率值和右眼的第一概率值中任一项大于第一阈值,或左眼的第二概率值和右眼的第二概率值中任一项大于第二阈值的情况下,确定待检测人脸不是真实人脸,即确定待检测人脸为虚假人脸。
在示例性实施例中,请参考图8,其示出了一种人脸防伪识别处理过程的示意图,体现了本实施例中对人脸视频数据进行防伪识别处理的过程。首先将人脸视频数据逐帧分解为图像帧,识别人脸视频数据的图像帧中待检测人脸并截取人脸区域,生成人脸图片序列;标记出人脸图片序列中眼部轮廓关键点并截取出人眼部轮廓周围相对应的矩形区域作为人眼轮廓图片,生成人眼轮廓序列;将人眼轮廓序列输入至LRCN模型,依次由LRCN模型中特征提取层、序列学习层、状态学习层对人眼轮廓序列进行处理,输出眼动状态序列;分别获取眼动状态序列中左眼右眼眼动状态序列中的第一数据集和第二数据集;将左眼/右眼眼动状态序列中的第一数据集和第二数据集分别输入至第一SVM分类器和第二SVM分类器中;根据第一SVM分类器和第二SVM分类器的输出结果确定人脸防伪识别结果。
综上所述,本申请实施例提供的技术方案,通过解析人脸视频数据得到反映待检测人脸眼动状态的眼动概率集合,即眼动状态序列,根据其中两部分特定的眼动概率集合对人脸视频数据中是否存在非正常眨眼行为进行分析,进而判断待检测人脸是否为真实人脸,提升对高度逼真的虚假人脸视频识别的准确度,从而提升人脸识别的安全性,有效遏制不法分子通过虚假人脸视频伪造他人身份,同时本方法不受视频采集条件的限制,具有良好的可迁移性。
另外,本申请实施例提供的技术方案,通过两个分类模型分别对上述两部分特定的眼动概率集合进行处理,进而输出第一概率值和第二概率值分别反映人脸视频数据中存在过快或者频繁的非正常眨眼行为的概率,根据上述两个概率值是否符合条件判断待检测人脸是否为真实人脸,通过判定不止一种的非正常眨眼行为,进一步提升人脸识别的安全性。
另外,本申请实施例提供的技术方案,还通过对左右眼分别进行识别,排除虚假人脸视频中存在一只眼的眼动状态正常对识别结果的消极影响,更全面、细致地提升人脸识别的安全性。
请参考图9 ,其示出了本申请另一个实施例提供的人脸防伪识别方法的流程图,该方法可以包括如下几个步骤(901-910)。
步骤901,获取包括待检测人脸的人脸视频数据。
通过创建同步/异步数据接口获取人脸视频数据。同步数据接口用于接收传入的实时视频数据,异步数据接口用于接收传入非实时的视频数据。可选地,同步/异步数据接口在离线状态或者在线状态均可接收传入的视频数据。可选地,同步/异步数据接口接收传入的视频数据来自于服务器、终端、摄像机或者存储器等电子设备。提升人脸防伪识别方法的可迁移性,丰富人脸防伪识别方法的应用场景。
步骤902,从人脸视频数据的图像帧中检测待检测人脸的眼部轮廓,生成人眼轮廓序列。
上述人眼轮廓序列包括左眼轮廓序列和右眼轮廓序列。
步骤903,基于人眼轮廓序列进行眼动概率预测,生成眼动状态序列。
可选地,上述步骤903由眼动状态获取模型实现。可选地,眼动状态获取模型是经过训练的LRCN模型。LRCN模型对人眼轮廓序列中左眼轮廓序列和右眼轮廓序列进行处理,得到的眼动状态序列S0,序列长度为L。可选地,LRCN模型先处理左眼轮廓序列,后处理右眼轮廓序列。可选地,两个LRCN模型同时处理左眼轮廓序列和右眼轮廓序列。上述眼动状态序列S0包括与左眼轮廓序列相对应的左眼眼动状态序列L_S0和与右眼轮廓序列相对应的右眼眼动状态序列R_S0。
步骤904,获取眼动状态序列中的第一数据集。
可选地,将眼动状态序列S0降序排列,获取前N个数据,得到序列SN,并生成序列值索引IN。序列SN包括左眼眼动状态序列L_S0中的第一数据集L_SN和右眼眼动状态序列R_S0中的第一数据集R_SN。序列值索引IN包括与L_SN相对应的左眼序列值索引为L_IN和与R_SN相对应的右眼序列值索引为R_IN。
步骤905,通过第一分类模型对第一数据集进行处理,得到第一概率值。
根据左眼的眼动状态序列中的第一数据集,确定左眼的第一概率值;以及,根据右眼的眼动状态序列中的第一数据集,确定右眼的第一概率值。
可选地,第一分类模型为第一SVM分类器。将L_SN输入第一SVM分类器,通过第一SVM分类器输出与L_SN相对应的左眼的第一概率值P(L_SN)。将R_SN输入第一SVM分类器,通过第一SVM分类器输出与R_SN相对应的右眼的第一概率值P(R_SN)。
步骤906,在第一概率值符合条件的情况下,确定待检测人脸的第一眼动状态正常。
在左眼的第一概率值和右眼的第一概率值均小于第一阈值的情况下,确定待检测人脸的第一眼动状态正常。另外,在左眼的第一概率值和右眼的第一概率值中任一项大于第一阈值的情况下,确定待检测人脸的第一眼动状态异常。
可选地,若左眼的第一概率值P(L_SN)大于第一阈值,则左眼眼动状态异常,确定待检测人脸为虚假人脸;若右眼的第一概率值P(R_SN)大于第一阈值,则右眼眼动状态异常,确定待检测人脸为虚假人脸;若左眼的第一概率值P(L_SN)和右眼的第一概率值P(R_SN)均低于第一阈值,确定待检测人脸的第一眼动状态正常。
步骤907,在第一眼动状态正常的情况下,获取眼动状态序列中的第二数据集。
可选地,获取眼动状态序列S0中M个数据,得到序列SM,并生成序列值索引IM。可选地,M的取值大于8,小于20。可选地,M的取值可变,根据人脸视频数据中的帧率确定。序列SM包括左眼眼动状态序列L_S0中的第二数据集L_SM和右眼眼动状态序列R_S0中的第二数据集R_SM。序列值索引IM包括与L_SM相对应的左眼序列值索引为L_IM和与R_SM相对应的右眼序列值索引为R_IM。
步骤908,通过第二分类模型对第二数据集进行处理,得到第二概率值。
根据左眼的眼动状态序列中的第二数据集,确定左眼的第二概率值;以及,根据右眼的眼动状态序列中的第二数据集,确定右眼的第二概率值。
可选地,第二分类模型为第二SVM分类器。将L_SM输入第二SVM分类器,通过第二SVM分类器输出与L_SM相对应的左眼的第二概率值P(L_SM)。将R_SM输入第二SVM分类器,通过第二SVM分类器输出与R_SM相对应的右眼的第二概率值P(R_SM)。
步骤909,在第二概率值符合条件的情况下,确定待检测人脸的第二眼动状态正常。
在左眼的第二概率值和右眼的第二概率值均小于第二阈值的情况下,确定待检测人脸的第二眼动状态正常。另外,在左眼的第二概率值和右眼的第二概率值中任一项大于第二阈值的情况下,确定待检测人脸的第二眼动状态异常。
可选地,若左眼的第二概率值P(L_SM)大于第二阈值,则左眼眼动状态异常,确定待检测人脸为虚假人脸;若右眼的第二概率值P(R_SM)大于第二阈值,则右眼眼动状态异常,确定待检测人脸为虚假人脸;若左眼的第二概率值P(L_SM)和右眼的第二概率值P(R_SM)均小于第二阈值,确定待检测人脸的第二眼动状态正常。
步骤910,在第二眼动状态正常的情况下,确定待检测人脸为真实人脸。
可选地,若待检测人脸的第二眼动状态正常,确定待检测人脸为真实人脸。若待检测人脸的第二眼动状态异常,确定待检测人脸为虚假人脸。
可选地,上述步骤904-906可以与步骤907-909并行处理,在第一眼动状态和第二眼动状态均正常的情况下,确定待检测人脸为真实人脸,即在第一概率值和第二概率值符合条件的情况下,确定待检测人脸为真实人脸。
在左眼的第一概率值和右眼的第一概率值均小于第一阈值,且左眼的第二概率值和右眼的第二概率值均小于第二阈值的情况下,确定待检测人脸为真实人脸。
可选地,若左眼的第一概率值P(L_SN)和右眼的第一概率值P(R_SN)均小于第一阈值,且左眼的第二概率值P(L_SM)和右眼的第二概率值P(R_SM)均小于第二阈值,确定待检测人脸为真实人脸。
另外,在第一眼动状态和第二眼动状态中任一状态异常的情况下,确定待检测人脸为虚假人脸。
可选地,上述步骤903执行完毕之后,对眼动状态序列中的眼动概率进行判断,若眼动状态序列中的眼动概率均小于眼动概率阈值,确定待检测人脸为虚假人脸。
眼动概率阈值是根据眼动状态序列中的眼动概率判断是否存在眨眼行为的依据。可选地,眼动概率阈值由眼动状态获取模型经过训练后确定。
若眼动状态序列中的眼动概率均小于眼动概率阈值,则判断上述人脸视频数据中不存在眨眼行为,确定待检测人脸为虚假人脸,否则开始执行步骤904。
在示例性实施例中,请参考图10,其示出了基于眼动状态序列进一步分析真假人脸的示意图,包括如下步骤(1001-1020)。
步骤1001,获取左眼眼动状态序列L_S0。
步骤1002,获取右眼眼动状态序列R_S0。
上述步骤1001和步骤1002可以同时执行,也可以先后执行,本申请实施例对此不做限定。
步骤1003,获取左眼眼动状态序列L_S0中的第一数据集L_SN和与L_SN相对应的左眼序列值索引L_IN。
将左眼眼动状态序列L_S0降序排列,获取前N个数据,得到序列L_SN,并生成序列值索引L_IN。
步骤1004,获取右眼眼动状态序列R_S0中的第一数据集R_SN和与R_SN相对应的右眼序列值索引R_IN。
将左眼眼动状态序列L_S0降序排列,获取前N个数据,得到序列L_SN,并生成序列值索引L_IN。
上述步骤1003和步骤1004可以同时执行,也可以先后执行,本申请实施例对此不做限定。
步骤1005,将L_SN输入第一SVM分类器,通过第一SVM分类器输出与L_SN相对应的左眼的第一概率值P(L_SN)。
步骤1006,判断P(L_SN)是否小于第一阈值;若是,则执行下述步骤1007;若否,则执行下述步骤1010后再执行下述步骤1020。
步骤1007,将R_SN输入第一SVM分类器,通过第一SVM分类器输出与R_SN相对应的右眼的第一概率值P(R_SN)。
上述步骤1005和步骤1007可以同时执行,也可以先后执行,本申请实施例对此不做限定。
步骤1008,判断P(R_SN)是否小于第一阈值;若是,则执行下述步骤1009;若否,则执行下述步骤1010后再执行下述步骤1020。
上述步骤1006和步骤1008可以同时执行,也可以先后执行,本申请实施例对此不做限定。
步骤1009,确定第一眼动状态正常。
步骤1010,确定第一眼动状态异常。
步骤1011,获取左眼眼动状态序列L_S0中的第二数据集L_SM和与L_SM相对应的左眼序列值索引L_IM。
获取左眼眼动状态序列L_S0中M个数据,得到序列L_SM,并生成序列值索引L_IM。
步骤1012,获取右眼眼动状态序列R_S0中的第二数据集R_SM和与R_SM相对应的右眼序列值索引R_IM。
获取右眼眼动状态序列R_S0中M个数据,得到序列R_SM,并生成序列值索引R_IM。
上述步骤1011和步骤1012可以同时执行,也可以先后执行,本申请实施例对此不做限定。
步骤1013,将L_SM输入第二SVM分类器,通过第二SVM分类器输出与L_SM相对应的左眼的第二概率值P(L_SM)。
步骤1014,判断P(L_SM)是否小于第二阈值;若是,则执行下述步骤1015;若否,则执行下述步骤1018后再执行下述步骤1020。
步骤1015,将R_SM输入第二SVM分类器,通过第二SVM分类器输出与R_SM相对应的右眼的第二概率值P(R_SM)。
上述步骤1013和步骤1015可以同时执行,也可以先后执行,本申请实施例对此不做限定。
步骤1016,判断P(R_SM)是否小于第二阈值;若是,则执行下述步骤1017;若否,则执行下述步骤1018后再执行下述步骤1020。
上述步骤1014和步骤1016可以同时执行,也可以先后执行,本申请实施例对此不做限定。
步骤1017,确定第二眼动状态正常。
步骤1018,确定第二眼动状态异常。
步骤1019,确定待检测人脸为真实人脸。
步骤1020,确定待检测人脸为虚假人脸。
综上所述,本申请实施例通过按照先后顺序对左眼和右眼的第一眼动状态和第二眼动状态进行判断,一旦发现左眼或右眼中第一或者第二眼动状态异常,可以及时确定待检测人脸为虚假人脸,提升了人脸识别的效率,减少了人脸识别的计算量。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参考图11,其示出了本申请实施例提供的一种人脸防伪识别装置,所述装置1100包括:视频获取模块1101、轮廓序列生成模块1102、眼动序列生成模块1103、数据获取模块1104、概率确定模块1105以及人脸确定模块1106。
视频获取模块1101,用于获取包括待检测人脸的人脸视频数据,所述人脸视频数据是包括待检测人脸的视频数据。
轮廓序列生成模块1102,用于从所述人脸视频数据的图像帧中检测所述待检测人脸的眼部轮廓,生成人眼轮廓序列。
眼动序列生成模块1103,用于基于所述人眼轮廓序列进行眼动概率预测,生成眼动状态序列,所述眼动状态序列用于表征所述待检测人脸的眼部的运动状况,所述眼动状态序列包括在时域上分布的多个眼动概率。
数据获取模块1104,用于获取所述眼动状态序列中的第一数据集和第二数据集,所述第一数据集包括所述眼动状态序列中的眼动概率降序排列后的前N个眼动概率,所述第二数据集包括所述眼动状态序列中最大值在内的M个连续的眼动概率,所述N和所述M均为正整数。
概率确定模块1105,用于根据所述第一数据集和所述第二数据集,确定所述待检测人脸为真实人脸的概率。
人脸确定模块1106,用于在所述概率符合条件的情况下,确定所述待检测人脸为所述真实人脸。
在示例性实施例中,所述概率确定模块1105,用于根据所述第一数据集确定第一概率值;根据所述第二数据集确定第二概率值。所述人脸确定模块1106,用于在所述第一概率值和所述第二概率值符合所述条件的情况下,确定所述待检测人脸为所述真实人脸。
在示例性实施例中,所述眼动状态序列包括左眼的眼动状态序列和右眼的眼动状态序列。
所述概率确定模块1105,用于:根据所述左眼的眼动状态序列中的第一数据集,确定所述左眼的第一概率值;以及,根据所述右眼的眼动状态序列中的第一数据集,确定所述右眼的第一概率值。
根据所述左眼的眼动状态序列中的第二数据集,确定所述左眼的第二概率值;以及,根据所述右眼的眼动状态序列中的第二数据集,确定所述右眼的第二概率值。
所述人脸确定模块1106,用于:在所述左眼的第一概率值和所述右眼的第一概率值均小于第一阈值,且所述左眼的第二概率值和所述右眼的第二概率值均小于第二阈值的情况下,确定所述待检测人脸为所述真实人脸。
在示例性实施例中,所述概率确定模块1105,用于:
通过第一分类模型对所述第一数据集进行处理,得到所述第一概率值。
通过第二分类模型对所述第二数据集进行处理,得到所述第二概率值。
在示例性实施例中,所述数据获取模块1104,用于:
获取所述眼动状态序列中的最大值Vj以及所述最大值Vj在所述眼动状态序列中的位置索引Ij,所述眼动状态序列的长度为L。
根据所述人脸视频数据的帧率确定所述M的值,所述M小于等于所述人脸视频数据的总帧数。
在Ij-M/2的值大于0且Ij+M/2的值小于L-1的情况下,获取从位置索引为Ij-M/2至位置索引为Ij+M/2的M个连续的眼动概率得到所述第二数据集。
在所述Ij-M/2的值小于0的情况下,获取从位置索引为0至位置索引为M-1的M个连续的眼动概率得到所述第二数据集。
在所述Ij+M/2的值大于L-1的情况下,获取从位置索引为L-M至位置索引为L-1的M个连续的眼动概率得到所述第二数据集。
在示例性实施例中,所述轮廓序列生成模块1102,用于:
对所述人脸视频数据进行逐帧分解处理,得到多个图像帧;
对所述图像帧中的所述待检测人脸进行识别,截取所述待检测人脸的人脸区域,生成人脸图片序列。
标记所述人脸图片序列的人脸图片中的眼部轮廓关键点;
根据所述人脸图片中的眼部轮廓关键点,截取人眼轮廓图片生成所述人眼轮廓序列。
在示例性实施例中,所述眼动序列生成模块1103,用于:
对所述人眼轮廓序列进行特征提取处理,得到眼部特征信息;
对所述眼部特征信息在时域上进行对比处理,得到眼动变化趋势;
根据所述眼动变化趋势进行眼动状态预测,得到所述眼动概率;
基于所述眼动概率生成所述眼动状态序列。
综上所述,本申请实施例提供的技术方案,通过解析人脸视频数据得到反映待检测人脸眼动状态的眼动概率集合,即眼动状态序列,根据其中两部分特定的眼动概率集合对人脸视频数据中是否存在非正常眨眼行为进行分析,进而判断待检测人脸是否为真实人脸,提升对高度逼真的虚假人脸视频识别的准确度,从而提升人脸识别的安全性,有效遏制不法分子通过虚假人脸视频伪造他人身份,同时本方法不受视频采集条件的限制,具有良好的可迁移性。
需要说明的是:上述实施例提供的人脸防伪识别装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的人脸防伪识别装置与人脸防伪识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图12示出了本申请一个示例性实施例提供的计算机设备1200的结构框图。该计算机设备1200可以是上文介绍的终端10或者服务器20。该计算机设备1200用于执行上述实施例提供的人脸防伪识别方法。
通常,计算机设备1200包括有:处理器1201和存储器1202。
处理器1201可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1201可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1201也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1201可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1201还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1202可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1202还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1202中的非暂态的计算机可读存储介质用于存储至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集用于被处理器1201所执行以实现本申请中方法实施例提供的人脸防伪识别方法。
在一些实施例中,计算机设备1200还可选包括有:外围设备接口1203和至少一个外围设备。处理器1201、存储器1202和外围设备接口1203之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1203相连。具体地,外围设备包括:射频电路1204、触摸显示屏1205、摄像头1206、音频电路1207、定位组件1208和电源1209中的至少一种。
本领域技术人员可以理解,图12中示出的结构并不构成对计算机设备1200的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请一示例性实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述各个方法实施例提供的人脸防伪识别方法。
本申请一示例性实施例还提供了一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行上述各个方法实施例提供的人脸防伪识别方法。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种人脸防伪识别方法,其特征在于,所述方法包括:
获取包括待检测人脸的人脸视频数据;
从所述人脸视频数据的图像帧中检测所述待检测人脸的眼部轮廓,生成人眼轮廓序列;
基于所述人眼轮廓序列进行眼动概率预测,生成眼动状态序列,所述眼动状态序列用于表征所述待检测人脸的眼部的运动状况,所述眼动状态序列包括在时域上分布的多个眼动概率;
获取所述眼动状态序列中的第一数据集和第二数据集,所述第一数据集包括所述眼动状态序列中的眼动概率降序排列后的前N个眼动概率,所述第二数据集包括所述眼动状态序列中最大值在内的M个连续的眼动概率,所述N和所述M均为正整数;
根据所述第一数据集和所述第二数据集,确定所述待检测人脸为真实人脸的概率;
在所述概率符合条件的情况下,确定所述待检测人脸为所述真实人脸。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一数据集和所述第二数据集,确定所述待检测人脸为真实人脸的概率,包括:
根据所述第一数据集确定第一概率值;
根据所述第二数据集确定第二概率值;
所述在所述概率符合条件的情况下,确定所述待检测人脸为所述真实人脸,包括:
在所述第一概率值和所述第二概率值符合所述条件的情况下,确定所述待检测人脸为所述真实人脸。
3.根据权利要求2所述的方法,其特征在于,所述眼动状态序列包括左眼的眼动状态序列和右眼的眼动状态序列;
所述根据所述第一数据集确定第一概率值,包括:
根据所述左眼的眼动状态序列中的第一数据集,确定所述左眼的第一概率值;以及,根据所述右眼的眼动状态序列中的第一数据集,确定所述右眼的第一概率值;
所述根据所述第二数据集确定第二概率值,包括:
根据所述左眼的眼动状态序列中的第二数据集,确定所述左眼的第二概率值;以及,根据所述右眼的眼动状态序列中的第二数据集,确定所述右眼的第二概率值;
所述在所述第一概率值和所述第二概率值符合所述条件的情况下,确定所述待检测人脸为所述真实人脸,包括:
在所述左眼的第一概率值和所述右眼的第一概率值均小于第一阈值,且所述左眼的第二概率值和所述右眼的第二概率值均小于第二阈值的情况下,确定所述待检测人脸为所述真实人脸。
4.根据权利要求2所述的方法,其特征在于,所述根据所述第一数据集确定第一概率值,包括:
通过第一分类模型对所述第一数据集进行处理,得到所述第一概率值;
所述根据所述第二数据集确定第二概率值,包括:
通过第二分类模型对所述第二数据集进行处理,得到所述第二概率值。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述获取所述眼动状态序列中的第二数据集,包括:
获取所述眼动状态序列中的最大值Vj以及所述最大值Vj在所述眼动状态序列中的位置索引Ij,所述眼动状态序列的长度为L;
根据所述人脸视频数据的帧率确定所述M的值,所述M小于等于所述人脸视频数据的总帧数;
在Ij-M/2的值大于0且Ij+M/2的值小于L-1的情况下,获取从位置索引为Ij-M/2至位置索引为Ij+M/2的M个连续的眼动概率得到所述第二数据集;
在所述Ij-M/2的值小于0的情况下,获取从位置索引为0至位置索引为M-1的M个连续的眼动概率得到所述第二数据集;
在所述Ij+M/2的值大于L-1的情况下,获取从位置索引为L-M至位置索引为L-1的M个连续的眼动概率得到所述第二数据集。
6.根据权利要求1至4任一项所述的方法,其特征在于,所述从所述人脸视频数据的图像帧中检测所述待检测人脸的眼部轮廓,生成人眼轮廓序列,包括:
对所述人脸视频数据进行逐帧分解处理,得到多个图像帧;
对所述图像帧中的所述待检测人脸进行识别,截取所述待检测人脸的人脸区域,生成人脸图片序列;
标记所述人脸图片序列的人脸图片中的眼部轮廓关键点;
根据所述人脸图片中的眼部轮廓关键点,截取人眼轮廓图片生成所述人眼轮廓序列。
7.根据权利要求1至4任一项所述的方法,其特征在于,所述基于所述人眼轮廓序列进行眼动概率预测,生成眼动状态序列,包括:
对所述人眼轮廓序列进行特征提取处理,得到眼部特征信息;
对所述眼部特征信息在时域上进行对比处理,得到眼动变化趋势;
根据所述眼动变化趋势进行眼动状态预测,得到所述眼动概率;
基于所述眼动概率生成所述眼动状态序列。
8.一种人脸防伪识别装置,其特征在于,所述装置包括:
视频获取模块,用于获取包括待检测人脸的人脸视频数据;
轮廓序列生成模块,用于从所述人脸视频数据的图像帧中检测所述待检测人脸的眼部轮廓,生成人眼轮廓序列;
眼动序列生成模块,用于基于所述人眼轮廓序列进行眼动概率预测,生成眼动状态序列,所述眼动状态序列用于表征所述待检测人脸的眼部的运动状况,所述眼动状态序列包括在时域上分布的多个眼动概率;
数据获取模块,用于获取所述眼动状态序列中的第一数据集和第二数据集,所述第一数据集包括所述眼动状态序列中的眼动概率降序排列后的前N个眼动概率,所述第二数据集包括所述眼动状态序列中最大值在内的M个连续的眼动概率,所述N和所述M均为正整数;
概率确定模块,用于根据所述第一数据集和所述第二数据集,确定所述待检测人脸为真实人脸的概率;
人脸确定模块,用于在所述概率符合条件的情况下,确定所述待检测人脸为所述真实人脸。
9.根据权利要求8所述的装置,其特征在于,
所述概率确定模块,用于根据所述第一数据集确定第一概率值;根据所述第二数据集确定第二概率值;
所述人脸确定模块,用于在所述第一概率值和所述第二概率值符合所述条件的情况下,确定所述待检测人脸为所述真实人脸。
10.根据权利要求9所述的装置,其特征在于,所述眼动状态序列包括左眼的眼动状态序列和右眼的眼动状态序列;
所述概率确定模块,用于:
根据所述左眼的眼动状态序列中的第一数据集,确定所述左眼的第一概率值;以及,根据所述右眼的眼动状态序列中的第一数据集,确定所述右眼的第一概率值;
根据所述左眼的眼动状态序列中的第二数据集,确定所述左眼的第二概率值;以及,根据所述右眼的眼动状态序列中的第二数据集,确定所述右眼的第二概率值;
所述人脸确定模块,用于:
在所述左眼的第一概率值和所述右眼的第一概率值均小于第一阈值,且所述左眼的第二概率值和所述右眼的第二概率值均小于第二阈值的情况下,确定所述待检测人脸为所述真实人脸。
11.根据权利要求9所述的装置,其特征在于,所述概率确定模块,用于:
通过第一分类模型对所述第一数据集进行处理,得到所述第一概率值;
通过第二分类模型对所述第二数据集进行处理,得到所述第二概率值。
12.根据权利要求8至11任一项所述的装置,其特征在于,所述数据获取模块,用于:
获取所述眼动状态序列中的最大值Vj以及所述最大值Vj在所述眼动状态序列中的位置索引Ij,所述眼动状态序列的长度为L;
根据所述人脸视频数据的帧率确定所述M的值,所述M小于等于所述人脸视频数据的总帧数;
在Ij-M/2的值大于0且Ij+M/2的值小于L-1的情况下,获取从位置索引为Ij-M/2至位置索引为Ij+M/2的M个连续的眼动概率得到所述第二数据集;
在所述Ij-M/2的值小于0的情况下,获取从位置索引为0至位置索引为M-1的M个连续的眼动概率得到所述第二数据集;
在所述Ij+M/2的值大于L-1的情况下,获取从位置索引为L-M至位置索引为L-1的M个连续的眼动概率得到所述第二数据集。
13.根据权利要求8至11任一项所述的装置,其特征在于,所述轮廓序列生成模块,用于:
对所述人脸视频数据进行逐帧分解处理,得到多个图像帧;
对所述图像帧中的所述待检测人脸进行识别,截取所述待检测人脸的人脸区域,生成人脸图片序列;
标记所述人脸图片序列的人脸图片中的眼部轮廓关键点;
根据所述人脸图片中的眼部轮廓关键点,截取人眼轮廓图片生成所述人眼轮廓序列。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至7任一所述的人脸防伪识别方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至7任一所述的人脸防伪识别方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010573539.1A CN111539389B (zh) | 2020-06-22 | 2020-06-22 | 人脸防伪识别方法、装置、设备及存储介质 |
PCT/CN2021/096652 WO2021258989A1 (zh) | 2020-06-22 | 2021-05-28 | 人脸防伪识别方法、装置、设备及存储介质 |
US17/746,547 US20220277596A1 (en) | 2020-06-22 | 2022-05-17 | Face anti-spoofing recognition method and apparatus, device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010573539.1A CN111539389B (zh) | 2020-06-22 | 2020-06-22 | 人脸防伪识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111539389A true CN111539389A (zh) | 2020-08-14 |
CN111539389B CN111539389B (zh) | 2020-10-27 |
Family
ID=71978351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010573539.1A Active CN111539389B (zh) | 2020-06-22 | 2020-06-22 | 人脸防伪识别方法、装置、设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220277596A1 (zh) |
CN (1) | CN111539389B (zh) |
WO (1) | WO2021258989A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116355A (zh) * | 2020-09-18 | 2020-12-22 | 支付宝(杭州)信息技术有限公司 | 一种基于意愿识别确认是否完成支付的方法、系统及装置 |
CN112116525A (zh) * | 2020-09-24 | 2020-12-22 | 百度在线网络技术(北京)有限公司 | 换脸识别方法、装置、设备和计算机可读存储介质 |
CN112163494A (zh) * | 2020-09-21 | 2021-01-01 | 中国科学院信息工程研究所 | 一种视频虚假人脸检测方法及电子装置 |
CN112232398A (zh) * | 2020-10-10 | 2021-01-15 | 温州大学瓯江学院 | 一种半监督的多类别Boosting分类方法 |
CN113627256A (zh) * | 2021-07-09 | 2021-11-09 | 武汉大学 | 基于眨眼同步及双目移动检测的伪造视频检验方法及系统 |
WO2021258989A1 (zh) * | 2020-06-22 | 2021-12-30 | 腾讯科技(深圳)有限公司 | 人脸防伪识别方法、装置、设备及存储介质 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201904265A (zh) * | 2017-03-31 | 2019-01-16 | 加拿大商艾維吉隆股份有限公司 | 異常運動偵測方法及系統 |
CN111507262B (zh) * | 2020-04-17 | 2023-12-08 | 北京百度网讯科技有限公司 | 用于检测活体的方法和装置 |
CN115345280B (zh) * | 2022-08-16 | 2023-04-18 | 东北林业大学 | 人脸识别攻击检测系统、方法、电子设备及存储介质 |
CN115953389B (zh) * | 2023-02-24 | 2023-11-24 | 广州视景医疗软件有限公司 | 一种基于人脸关键点检测的斜视判别方法和装置 |
CN116645299B (zh) * | 2023-07-26 | 2023-10-10 | 中国人民解放军国防科技大学 | 一种深度伪造视频数据增强方法、装置及计算机设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101196998A (zh) * | 2007-12-29 | 2008-06-11 | 北京中星微电子有限公司 | 一种眼睛定位方法及装置 |
CN104143078A (zh) * | 2013-05-09 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 活体人脸识别方法、装置和设备 |
CN106446831A (zh) * | 2016-09-24 | 2017-02-22 | 南昌欧菲生物识别技术有限公司 | 一种人脸识别方法及装置 |
CN106491129A (zh) * | 2016-10-10 | 2017-03-15 | 安徽大学 | 一种基于eog的人体行为识别系统及方法 |
US20180349682A1 (en) * | 2017-05-31 | 2018-12-06 | Facebook, Inc. | Face liveness detection |
CN109376608A (zh) * | 2018-09-26 | 2019-02-22 | 中国计量大学 | 一种人脸活体检测方法 |
CN110221699A (zh) * | 2019-06-13 | 2019-09-10 | 北京师范大学珠海分校 | 一种前置摄像头视频源的眼动行为识别方法 |
CN110287671A (zh) * | 2019-06-27 | 2019-09-27 | 深圳市商汤科技有限公司 | 验证方法及装置、电子设备和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100073191A (ko) * | 2008-12-22 | 2010-07-01 | 한국전자통신연구원 | 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치 |
CN109325472B (zh) * | 2018-11-01 | 2022-05-27 | 四川大学 | 一种基于深度信息的人脸活体检测方法 |
CN111539389B (zh) * | 2020-06-22 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 人脸防伪识别方法、装置、设备及存储介质 |
-
2020
- 2020-06-22 CN CN202010573539.1A patent/CN111539389B/zh active Active
-
2021
- 2021-05-28 WO PCT/CN2021/096652 patent/WO2021258989A1/zh active Application Filing
-
2022
- 2022-05-17 US US17/746,547 patent/US20220277596A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101196998A (zh) * | 2007-12-29 | 2008-06-11 | 北京中星微电子有限公司 | 一种眼睛定位方法及装置 |
CN104143078A (zh) * | 2013-05-09 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 活体人脸识别方法、装置和设备 |
CN106446831A (zh) * | 2016-09-24 | 2017-02-22 | 南昌欧菲生物识别技术有限公司 | 一种人脸识别方法及装置 |
CN106491129A (zh) * | 2016-10-10 | 2017-03-15 | 安徽大学 | 一种基于eog的人体行为识别系统及方法 |
US20180349682A1 (en) * | 2017-05-31 | 2018-12-06 | Facebook, Inc. | Face liveness detection |
CN109376608A (zh) * | 2018-09-26 | 2019-02-22 | 中国计量大学 | 一种人脸活体检测方法 |
CN110221699A (zh) * | 2019-06-13 | 2019-09-10 | 北京师范大学珠海分校 | 一种前置摄像头视频源的眼动行为识别方法 |
CN110287671A (zh) * | 2019-06-27 | 2019-09-27 | 深圳市商汤科技有限公司 | 验证方法及装置、电子设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
TACKHYUN JUNG 等: "DeepVision: Deepfakes Detection Using Human Eye Blinking Pattern", 《IEEE ACCESS》 * |
YUEZUN LI 等: "In Ictu Oculi: Exposing AI Created Fake Videos by Detecting Eye Blinking", 《2018 IEEE INTERNATIONAL WORKSHOP ON INFORMATION FORENSICS AND SECURITY (WIFS)》 * |
科技聚焦: "人工智能也被用来反制假视频,靠眨眼是否正常来判断", 《HTTPS://WWW.SOHU.COM/A/242087841_100191018》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021258989A1 (zh) * | 2020-06-22 | 2021-12-30 | 腾讯科技(深圳)有限公司 | 人脸防伪识别方法、装置、设备及存储介质 |
CN112116355A (zh) * | 2020-09-18 | 2020-12-22 | 支付宝(杭州)信息技术有限公司 | 一种基于意愿识别确认是否完成支付的方法、系统及装置 |
CN112163494A (zh) * | 2020-09-21 | 2021-01-01 | 中国科学院信息工程研究所 | 一种视频虚假人脸检测方法及电子装置 |
CN112116525A (zh) * | 2020-09-24 | 2020-12-22 | 百度在线网络技术(北京)有限公司 | 换脸识别方法、装置、设备和计算机可读存储介质 |
CN112232398A (zh) * | 2020-10-10 | 2021-01-15 | 温州大学瓯江学院 | 一种半监督的多类别Boosting分类方法 |
CN113627256A (zh) * | 2021-07-09 | 2021-11-09 | 武汉大学 | 基于眨眼同步及双目移动检测的伪造视频检验方法及系统 |
WO2023279557A1 (zh) * | 2021-07-09 | 2023-01-12 | 武汉大学 | 基于眨眼同步及双目移动检测的伪造视频检验方法及系统 |
CN113627256B (zh) * | 2021-07-09 | 2023-08-18 | 武汉大学 | 基于眨眼同步及双目移动检测的伪造视频检验方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111539389B (zh) | 2020-10-27 |
US20220277596A1 (en) | 2022-09-01 |
WO2021258989A1 (zh) | 2021-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539389B (zh) | 人脸防伪识别方法、装置、设备及存储介质 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
Seow et al. | A comprehensive overview of Deepfake: Generation, detection, datasets, and opportunities | |
Hashmi et al. | An exploratory analysis on visual counterfeits using conv-lstm hybrid architecture | |
CN111626126A (zh) | 一种人脸情绪识别的方法、装置、介质及电子设备 | |
Santhalingam et al. | Sign language recognition analysis using multimodal data | |
CN110909680A (zh) | 人脸图像的表情识别方法、装置、电子设备及存储介质 | |
Al-Modwahi et al. | Facial expression recognition intelligent security system for real time surveillance | |
Gu et al. | Hierarchical contrastive inconsistency learning for deepfake video detection | |
CN113011387A (zh) | 网络训练及人脸活体检测方法、装置、设备及存储介质 | |
CN116958637A (zh) | 图像检测模型的训练方法、装置、设备及存储介质 | |
CN111860056B (zh) | 基于眨眼的活体检测方法、装置、可读存储介质及设备 | |
Yu et al. | SegNet: a network for detecting deepfake facial videos | |
Zhang et al. | A fast face recognition based on image gradient compensation for feature description | |
CN114360073A (zh) | 一种图像识别方法及相关装置 | |
Maiano et al. | Depthfake: a depth-based strategy for detecting deepfake videos | |
CN113657272A (zh) | 一种基于缺失数据补全的微视频分类方法及系统 | |
Khan et al. | Advanced sequence learning approaches for emotion recognition using speech signals | |
Khalid et al. | Deepfakes catcher: a novel fused truncated densenet model for deepfakes detection | |
Yavuzkiliç et al. | DeepFake face video detection using hybrid deep residual networks and LSTM architecture | |
Sarath Chandran et al. | Facial Emotion Recognition System for Unusual Behaviour Identification and Alert Generation | |
Nguyen et al. | Towards recognizing facial expressions at deeper level: Discriminating genuine and fake smiles from a sequence of images | |
Deshpande et al. | Abnormal Activity Recognition with Residual Attention-based ConvLSTM Architecture for Video Surveillance. | |
Rehaan et al. | Face manipulated deepfake generation and recognition approaches: a survey | |
Kingra et al. | Siamlbp: exploiting texture discrepancies for deepfake detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40028348 Country of ref document: HK |