CN105893920B - 一种人脸活体检测方法和装置 - Google Patents

一种人脸活体检测方法和装置 Download PDF

Info

Publication number
CN105893920B
CN105893920B CN201510038591.6A CN201510038591A CN105893920B CN 105893920 B CN105893920 B CN 105893920B CN 201510038591 A CN201510038591 A CN 201510038591A CN 105893920 B CN105893920 B CN 105893920B
Authority
CN
China
Prior art keywords
frames
video
images
shot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510038591.6A
Other languages
English (en)
Other versions
CN105893920A (zh
Inventor
李鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201510038591.6A priority Critical patent/CN105893920B/zh
Priority to TW104128407A priority patent/TWI686774B/zh
Priority to SG11201706036WA priority patent/SG11201706036WA/en
Priority to US15/005,427 priority patent/US9824280B2/en
Priority to KR1020207013827A priority patent/KR102122348B1/ko
Priority to EP16743901.7A priority patent/EP3251056A4/en
Priority to PCT/US2016/014698 priority patent/WO2016123008A1/en
Priority to JP2017539244A priority patent/JP2018508875A/ja
Priority to KR1020177023967A priority patent/KR20170109007A/ko
Publication of CN105893920A publication Critical patent/CN105893920A/zh
Application granted granted Critical
Publication of CN105893920B publication Critical patent/CN105893920B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Geometry (AREA)

Abstract

本发明涉及数据处理领域,特别是涉及一种人脸活体检测方法和装置,所述方法包括:获取待处理的视频图像序列;对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,获得第一判断结果;当所述第一判断结果表明所述视频图像序列存在镜头变化时,确定人脸活体检测不通过。本发明提供的方法和装置,通过视频镜头边界检测处理有效区分了真实人脸与虚假照片、视频,有效地防范了人脸活体检测系统可能受到的照片、视频攻击,提高了检测的准确性和安全性。

Description

一种人脸活体检测方法和装置
技术领域
本发明涉及数据处理技术领域,特别是涉及一种人脸活体检测方法和装置。
背景技术
人脸识别技术作为一种有效的身份认证与识别技术,由于其具有方便易用、用户友好性、非接触式等特点,目前得到了广泛的应用。然而,人脸识别系统也容易受到一些非法用户的攻击,如何提高人脸识别系统的安全性成为一个广泛关注的问题。
对人脸识别系统的攻击,主要有3类:照片攻击、视频攻击和3D模型攻击。非法分子或者假冒用户在获得合法用户的照片或视频后,使用合法用户的照片或视频作为伪造的人脸试图欺骗系统。为了区分真实人脸以及照片、视频,防范人脸识别系统可能遭受的攻击,现有技术主要存在3种检测方法:(1)通过图像分类的方法区分真实人脸成像与照片或视频再次成像;(2)通过视频跟踪技术确定真实人脸,而不是静态的照片或3D模型;(3)通过用户交互技术来让用户随机做一些动作,再利用计算机视觉技术判断用户动作是否正确,从而确定采集的是人脸活体,而不是伪造的照片、视频或者3D模型。
发明人在实现本发明的过程中发现,通过图像分类的方法精度不高,错判率较高,安全性较低;视频跟踪技术来进行人脸检测虽然精度很高,但计算量很大,很难在不同的终端设备上均做到实时处理;第三种方案处理速度较快,可以在不同的终端设备上做到实时处理,但由于其精度相对受限,不能防范一些刻意的攻击。因此,亟需一种人脸活体检测方法,可以防范一些刻意的攻击,提高人脸活体检测系统的安全性。
发明内容
为解决上述技术问题,本发明公开了一种人脸活体检测方法和装置,可以通过视频镜头边界检测提高人脸活体检测的准确性和安全性。
技术方案如下:
根据本发明实施例的第一方面,公开了一种人脸活体检测方法,所述方法包括:
获取待处理的视频图像序列;
对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,获得第一判断结果;所述对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化包括:在设定的图像特征提取空间中,对所述视频图像序列进行图像特征提取,获得图像特征向量;利用确定的两帧图像的图像特征向量,计算得到所述两帧图像的相似度或者帧差;所述两帧图像的相似度或者帧差用于确定所述两帧图像的内容连续性;根据计算得到的两帧图像的相似度或者帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化;
当所述第一判断结果表明所述视频图像序列存在镜头变化时,确定人脸活体检测不通过。
根据本发明实施例的第二方面,公开了一种人脸活体检测装置,所述装置包括:
获取单元,用于获取待处理的视频图像序列;
第一检测单元,用于对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,获得第一判断结果;
确定单元,用于当所述第一判断结果表明所述视频图像序列存在镜头变化时,确定人脸活体检测不通过;
所述第一检测单元包括:
特征提取单元,用于在设定的图像特征提取空间中,对所述视频图像序列进行图像特征提取,获得图像特征向量;
相似度或者帧差计算单元,用于利用确定的两帧图像的图像特征向量,计算得到所述两帧图像的相似度或者帧差;所述两帧图像的相似度或者帧差用于确定所述两帧图像的内容连续性;
判断单元,用于根据计算得到的两帧图像的相似度或者帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化。
本发明实施例的一个方面能够达到的有益效果为:本发明通过对待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,当确定所述视频图像序列存在镜头变化时,则确定人脸活体检测系统受到了攻击或欺骗,确定人脸活体检测不通过。本发明提供的方法通过视频镜头边界检测处理有效区分了真实人脸与虚假照片和视频,有效地防范了人脸活体检测系统可能受到的照片、视频攻击,提高了检测的准确性和安全性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种人脸活体检测方法流程示意图;
图2为本发明实施例提供的另一种人脸活体检测方法流程示意图;
图3为本发明实施例提供的一种人脸活体检测装置示意图。
具体实施方式
本发明公开了一种人脸活体检测方法和装置,可以通过视频镜头边界检测提高人脸活体检测的准确性和安全性。
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明提供的方法可以应用于人脸识别检测装置中,所述人脸识别检测装置可以应用于各种电子设备中,所述电子设备可以是现有的、正在研发的或将来研发的任何电子设备,包括但不限于:现有的、正在研发的或将来研发的、台式计算机、膝上型计算机、移动终端(包括智能手机、非智能手机、各种平板电脑)等。所述电子设备可以具有图像采集单元,例如摄像头。当然,也可以是人脸识别检测装置包含图像采集单元。所述图像采集单元用于采集视频图像序列。
参见图1,为本发明实施例提供的一种人脸活体检测方法流程示意图,所示方法可以包括以下步骤:
S101,获取待处理的视频图像序列。
人脸活体检测装置通过图像采集单元,例如摄像头采集视频图像,所述图像可以为一系列的视频帧。所述图像采集单元可以是人脸活体检测装置内置的,也可以是外部设备配备的。
S102,对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,获得第一判断结果。
如果采集的视频图像序列是真实人脸形成的图像,一般而言,是不会存在明显的镜头变化的。当受到外来用户的攻击时,例如虚假用户利用合法用户的真实照片在镜头前晃动、扭曲、折叠来伪造用户执行的动作以试图欺骗或攻击人脸活体检测装置时,这时采集的视频图像序列就可能存在镜头变化。因此,本发明实施例具体实现时,通过对待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,从而确定是否受到攻击或欺骗。
具体实现时,对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化可以包括:
对所述待处理的视频图像序列执行视频镜头边界切变检测处理以确定所述视频图像序列是否存在镜头变化;和/或
对所述待处理的视频图像序列执行视频镜头边界渐变检测处理以确定所述视频图像序列是否存在镜头变化。
其中,视频镜头边界切变是指镜头的快速切换,往往在前后两个视频帧中完成镜头变化。
视频镜头边界渐变是指逐渐缓慢的镜头变换,通常是一个视频序列逐渐变化的过程。
视频镜头边界切变检测和视频镜头边界渐变检测均可以通过比较两个视频帧像素变化的剧烈程度来确定是否存在镜头变化。具体实现时,视频镜头边界检测处理通常可以包括以下3个步骤:
S102A,在设定的图像特征提取空间中,对所述视频图像序列进行图像特征提取,获得图像特征向量。
具体的,在进行图像特征提取时可以考虑不同的图像特征空间。设定的图像特征空间可以包括下述中的任意一者:单个像素特征提取空间、像素块特征提取空间或者整帧图像特征提取空间。各特征提取空间各有优点,可以根据需要选用不同的图像特征空间。
在选定图像特征提取空间后,对于单个像素特征提取空间,则是逐个像素的提取图像特征;对于像素块特征提取空间而言,则是以划定的矩形块为单位提取图像特征;对于整帧图像特征提取空间而言,则是以整帧图像为单位进行图像特征提取。
提取图像特征的方式可以是灵活多样的,在本发明具体实现时,图像特征提取可以包括下述中的至少一者:
(1)在选定的颜色空间中,获得所述视频图像序列中一个或多个视频帧的像素灰度统计量或者像素颜色统计量,将获得的各像素灰度统计量或者像素颜色统计量组成图像特征向量。
其中,颜色空间可以是红、绿、蓝RGB颜色空间,还可以是HSV(英文为Hue,Saturation,Value,对应中文为色调,饱和度,亮度)颜色空间,当然还可以选定其他颜色空间,在此不进行限定。
具体实现时,为了消除光照变化的影响,在适当的颜色空间上选择多个统计量,所述统计量可以是最大值、最小值或者中值等。利用获得的各像素灰度统计量或者像素颜色统计量组成图像特征向量。
(2)获得所述视频图像序列中一个或多个视频帧的灰度直方图或者颜色直方图。
对于镜头的边界,相邻图像帧的直方图变化较大;而对于同一镜头内部的两个相邻帧,其直方图变化较小。尽管有些帧的内容完全不同却具有相似的直方图,这种情况发生的概率非常小。因此,可以利用灰度直方图或者颜色直方图来进行视频镜头边界检测。所述直方图一般用于描述颜色的分布情况,相似的图片其灰度或颜色直方图较相似;而发生边界变化的两帧图像,其灰度或颜色直方图则差别较大。提取视频帧的灰度直方图或者颜色直方图的方式可以参照现有技术存在的方法。
(3)获得所述视频图像序列中一个或多个视频帧的图像边缘特征。
具体实现时,图像边缘往往是像素发生较大变化的点组成的,因此可以利用镜头切换出边缘的不同模式特征检测镜头边界,提取边缘特征的方法可以包括Canny、Sobel等方法。
(4)利用压缩域将原始图像转换到其他特征空间,获得对应的图像特征向量。
具体实现时,利用压缩域表达图像的内在特征,以区分镜头边界与非边界的不同模式。其中,压缩域可以包括例如小波变化等方式,在此不进行限定,只要能够更好地区分图像特征的方法均可以适用。
需要说明的是,以上图像特征提取的方法仅为示例性说明,可以单独使用,也可以组合使用。当然,本领域技术人员在不付出创造性劳动下获取的其他实现方式均属于本发明的保护范围。
S102B1,利用确定的两帧图像的图像特征向量,计算得到所述两帧图像的相似度;所述两帧图像的相似度用于确定所述两帧图像的内容连续性。
在确定了提取的图像特征及特征空间后,就可以针对于视频中的任一帧图像提取出特征向量。然后通过相似度计算,度量连续帧之间的内容连续性。其中,两帧图像的相似度的计算方法可以是多种多样的,可以基于提取的两帧图像的图像特征向量而得到。下面,以两帧图像的相似度基于两帧图像的帧差而得到为例进行说明。本领域技术人员可以理解的是,还可以采用其他方法计算两帧图像的相似度,例如,通过计算两帧图像的图像特征向量的比值的方法来衡量相似度,比值越接近1,相似度越高。当然,此为示例性说明,不视为对本申请的限制。本领域技术人员在不付出创造性劳动下获得的其他实现方式均属于本发明的保护范围。
在一种可能的实现方式中,令f(i)代表第i帧的图像特征向量,f(j)代表第j帧的图像特征向量,则用下式表示相邻帧间的帧差D(i,j):
D(i,j)=|f(j)-f(i)| (1)
其中,j=i+n(n≥1),i≥1。
在计算连续性时,一般使j=i+1,则视频中任意两个相邻帧都会被处理,但是为了提高处理速度,减小处理量,有的方法会使j=i+n(n>1)。其中,n的取值范围可以根据经验或者需要设定,使得相隔n帧的两帧图像之间的变化既能够被捕捉到,同时又可以使得计算量减小,提高处理速度。
需要说明的是,通常情况下,帧差越大,相似度越低;帧差越小,相似度越大。一般地,如果两帧图像处于同一镜头内,则相似度较大;如果两帧图像处于镜头边界处,则两帧间的相似度较小。其中,相似度可以基于帧差而得到。具体的实现方式可以是多样的,两帧图像的帧差和两帧图像的相似度之间呈反比关系,只要使二者满足一定的比例关系即可。例如,可以将得到的帧差D(i,j)的倒数作为相似度S(i,j)的值,当然,这只是示例性说明,具体实现时,还可以基于线性比例关系、采用其他计算方法利用帧差得到相似度,在此不进行限定。
在另外一种可能的实现方式中,也可以直接通过计算两帧图像的帧差来确定所述两帧图像的内容连续性。则有:
S102B2:利用确定的两帧图像的图像特征向量,计算得到所述两帧图像的帧差;所述两帧图像的帧差用于确定所述两帧图像的内容连续性。
其中,两帧图像的帧差的计算方式可以利用公式(1)所示方法进行。其中,两帧图像可以是任意相邻的两帧图像,也可以是相隔n帧的图像。其中,n的取值范围可以根据经验或者需要设定,使得相隔n帧的两帧图像之间的变化既能够被捕捉到,同时又可以使得计算量减小,提高处理速度。
对应地,当在S102B1利用相似度来衡量两帧图像是否连续时,则可以利用相似度来确定视频图像序列是否存在镜头变化,则有:
S102C1,根据计算得到的两帧图像的相似度确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化。
需要说明的是,对于视频镜头切变检测处理和视频镜头渐变检测处理而言,S102C1具有不同的实现方式。
在一种可能的实现方式中,当所述视频镜头边界检测处理包括视频镜头切变检测处理时,所述根据计算得到的两帧图像的相似度确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:当所述两帧图像的相似度小于第一设定阈值时,则确定两帧图像存在切变,所述视频图像序列存在镜头变化。
具体实现时,可以定义以下分类函数:
其中,T为第一设定阈值,S(i,j)表示相似度或者连续性值,L表示分类结果,如果S(i,j)大于T,则相似度较高,属于同一镜头内部的相邻帧,反之则属于镜头变化。其中,S(i,j)可以通过公式(1)中的D(i,j)得到。具体的获取方式在此不进行限定,例如,将得到的帧差D(i,j)的倒数作为相似度S(i,j)的值。
在另外一种可能的实现方式中,当所述视频镜头边界检测处理包括视频镜头切变检测处理时,所述根据计算得到的两帧图像的相似度确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:基于邻近算法(英文全称为k-Nearest Neighbor,英文缩写为KNN)分类器、决策树或者支持向量机(英文全称为Support Vector Machine,英文缩写为SVM)对所述两帧图像的相似度进行判定,当所述判定结果表明两帧图像存在切变时,确定所述视频图像序列存在镜头变化。具体实现时,镜头边界检测可以看作是模式识别中的分类问题,很多判别式分类算法可以被应用于该问题,包括但不限于KNN,决策树、支持向量机(SVM)等。具体实现时,可以将获取的图像特征向量输入上述机器学习模型中,则会得到相应的判定结果。
在另一种可能的实现方式中,当所述视频镜头边界检测处理包括视频镜头渐变检测处理时,所述根据计算得到的两帧图像的相似度确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:
当确定两帧图像的相似度大于第三设定阈值且小于第四设定阈值时,获取所述两帧图像的后续图像帧;
计算所述后续图像帧两两图像帧之间的相似度,直到所述两两图像帧之间的相似度大于第四设定阈值为止;
计算获得的各图像帧的累积相似度,当所述累积相似度小于第五设定阈值时,确定所述视频图像序列存在渐变,所述视频图像序列存在镜头变化。其中,各图像帧为从所述两帧图像的第一帧开始直到两两图像帧间的相似度大于第四设定阈值为止而得到的各图像帧。所述各图像帧的累积相似度具体可以是所述各图像帧两两图像帧之间的相似度的和值。
其中,第三设定阈值、第四设定阈值、第五设定阈值可以根据经验或需要设定。相似度的计算方式可以与执行切变检测时的方式相同。
在另外一种可能的实现方式中,对应S102B2利用帧差衡量两帧图像内容不连续的方式,则有S102C2:
S102C2:根据计算得到的两帧图像的帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化。
在一种可能的实现方式中,当所述视频镜头边界检测处理包括视频镜头切变检测处理时,所述根据计算得到的两帧图像的帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:
当所述两帧图像的帧差大于第二设定阈值时,则确定两帧图像存在切变,所述视频图像序列存在镜头变化。
在另外一种可能的实现方式中,当所述视频镜头边界检测处理包括视频镜头切变检测处理时,所述根据计算得到的两帧图像的帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:
基于邻近算法KNN分类器、决策树或者支持向量机SVM对所述两帧图像的帧差进行判定,当所述判定结果表明两帧图像存在切变时,确定所述视频图像序列存在镜头变化。
需要说明的是,上述判断视频镜头存在渐变的方式还可以通过帧差的计算而得到。
在又一种可能的实现方式中,当所述视频镜头边界检测处理包括视频镜头渐变检测处理时,所述根据计算得到的两帧图像的帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:
当确定两帧图像的帧差大于第六设定阈值且小于第七设定阈值时,获取所述两帧图像的后续图像帧;
计算所述后续图像帧两两图像帧之间的帧差,直到所述两两图像帧之间的帧差小于第六设定阈值为止;
计算获得的各帧差的和值,当所述和值大于第七设定阈值时,确定所述视频图像序列存在渐变,所述视频图像序列存在镜头变化。
其中,两帧图像的帧差可以通过两帧图像的图像特征向量得到。具体可以采用公式(1)所示方法。
具体地,对于渐变检测,可以使用双阈值比较法进行。该方法设定两个阈值第七设定阈值Th(较大的阈值)和第六设定阈值Tl(较小的阈值),当前后两帧差超过Th时,判定为突变,这里Th起的作用类似上面公式(2)中的T。如果前后两帧差没有超过Th却超过了Tl,就判定为可能的渐变起始帧,继续检查其后各帧,如果仍超过Tl,就把帧差累积起来,直至前后两帧差小于Tl,此时若累加帧差超过了Th,判定为渐变终结帧,如果没有超过Th,就认为由其他原因造成,而不是渐变。
需要说明的是,以上方法仅为示例性说明,不视为对本发明的限制,还可以采用其他方法进行视频镜头边界检测,例如基于背景建模的方法等。
S103,当所述第一判断结果表明所述视频图像序列存在镜头变化时,确定人脸活体检测不通过。
当判断视频图像序列存在镜头变化时,则认为人脸活体检测不通过。
进一步的,在一种可能的实现方式中,所述方法还包括:
基于人脸特征点定位进行人脸活体检测,获得第二判断结果;
当所述第二判断结果表明符合人脸活体检测条件且所述第一判断结果表明所述视频图像序列不存在镜头变化时,确定人脸活体检测通过。
具体实现时,所述基于人脸特征点定位进行人脸活体检测,获得第二判断结果包括:获取待处理的视频图像序列,检测所述视频图像序列中是否有人脸出现;如果有,获得所述人脸的大小和位置信息;根据获取的人脸大小和位置信息对检测到的人脸进行面部关键点定位;检测采集到的用户动作是否符合预设的条件,获得第二判断结果。当所述第二判断结果表明用户动作符合预设的条件时,确定检测到人脸活体;当所述第二判断结果表明用户动作不符合预设的条件时,确定未检测到人脸活体。其中,预设的条件可以是用户动作是否为与随机提示信息相符的动作,和/或,用户动作的个数是否符合预设数量。
在这一实施例中,通过对待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,当确定所述视频图像序列存在镜头变化时,则确定人脸活体检测系统受到了攻击或欺骗,确定人脸活体检测不通过。本发明提供的方法通过视频镜头边界检测处理有效区分了真实人脸与虚假照片和视频,有效地防范了人脸活体检测系统可能受到的照片、视频攻击,提高了检测的准确性和安全性。
参见图2,为本发明实施例提供的另一种人脸活体检测方法流程示意图。
在图2所示的方法中,结合了基于人脸特征点定位和视频镜头边界检测进行人脸活体检测,有效的提高了攻击防范的成功率,并且计算效率也在可接受的范围内,适用范围广泛,不仅适用于PC等处理能力强的设备,而且对于手机等终端设备也能很好适应。
下述方法需要用户使用视频摄像头来配合进行,整个过程在系统判断为“成功”或“失败”退出后,是持续进行的,流程图中以视频帧输入开始,然后分为两条主线进行处理,分别代表基于人脸特征点定位和用户交互的技术和视频镜头边界检测技术两种方法。其中,S201至S205为执行视频镜头边界检测的处理流程,S206至S210为基于人脸特征点定位进行人脸活体检测的处理流程。为提高处理效率,这两个流程可以并行地执行,从而获得更准确的判断结果。当然,也可以先执行视频镜头边界检测处理流程,确定不存在镜头变化后,再进行基于人脸特征点定位的人脸活体检测处理流程。当然,也可以先执行基于人脸特征点定位的人脸活体检测处理,确定符合人脸活体检测通过条件后,再判断是否存在镜头变化。具体的实现方式可以是非常灵活的,可以根据需要调整。
S201,获得待处理的视频帧。
S202,系统启动,装载视频镜头切换模型。
在这一步骤中,初始化视频镜头边界检测子系统的参数,并将视频镜头切换模型装载到内存中。
S203,执行视频镜头边界切变检测处理。
具体的实现可以参照图1所示实施例中介绍的方法执行。
S204,执行视频镜头边界渐变检测处理。
具体的实现可以参照图1所示实施例中介绍的方法执行。
其中,S203和S204之间没有必然的先后执行顺序,可以颠倒地执行,也可以并行地执行。
S205,根据视频镜头边界切变检测处理结果和视频镜头边界渐变检测处理结果确定是否存在镜头变化。
当根据视频镜头边界切变检测处理结果和视频镜头边界渐变检测处理结果确定存在镜头切变或者镜头渐变中的任意一者是,则确定存在镜头变化。
如果确定存在镜头变化,确定人脸活体检测不通过,退出系统。
如果确定不存在镜头变化,进入S211。
S206,系统启动,装载人脸特征点检测模型。
具体实现时,首先初始化基于人脸特征点定位和用户交互子系统的参数,并将人脸特征点模型文件加载到内存中。
S207,检测视频帧中是否有人脸出现,若有,则返回人脸的大小和位置。具体实现时,可以采用基于Haar特征的Adaboost分类器来作为人脸检测器。
S208,执行人脸特征点检测。
具体实现时,检测人脸中关键点的位置,这些关键点的信息可以用于后续的动作检测。关键点的个数可以根据实际需要来选定,例如可以仅使用双眼、鼻尖、嘴角5个点,也可以使用布满全脸的68个点。人脸特征点检测的算法可选的使用监督下降算法(英文全称为Supervised Decent Method,英文缩写为SDM),该算法是一种对人脸局部特征描述与关键点位置之间的关系使用机器学习的算法进行优化回归的方法。需要说明的是,人脸特征点检测方法还可以选用其他的方法,如基于主动表观模型(英文全称为Active AppearanceModel,英文缩写为AAM)的方法,基于随机森林回归(英文全称为Random ForrestRegression)的方法和基于可变部件模型(英文全称为Deformable Part Model,英文缩写为DPM)的方法。本发明对此不进行限定,还可以根据实际需要选取其他人脸特征点检测的机器学习方法,通过构建人脸特征点的模型,用训练数据学习这些模型的参数,在实际预测中通过这些模型来定位人脸特征点的位置。
S209,执行动作检测。
所述动作包括但不限于摇头、点头、张嘴、闭眼等可以用脸部变化表达的动作。具体的,是通过规则和机器学习算法根据前后相邻的若干视频帧的人脸特征点位置信息估计动作变化。这里所述的规则是通过数据人为的确定的动作变化的准则,而所述的机器学习算法则是通过大量标定的人脸特征点数据与脸部动作的对应关系,去学习对应的机器学习模型,从而在新的人脸特征点数据输入时,可以通过该模型判别对应的脸部动作。
S210,判断用户根据随机提示所做出的动作数目是否大于3。若否,则进入下一个动作提示;若是,且用户都配合完成且检测成功,则进入下一步判断。
S211,当确定基于人脸特征点定位进行人脸活体检测成功且确定不存在镜头变化时,确定人脸活体检测通过。
在这一实施例中,在基于人脸特征点定位进行人脸活体检测确定存在人脸时,还进一步通过视频镜头边界检测确定是否存在镜头变化,当不存在镜头变化时亦检测到人脸时,才确定检测通过。不符合人脸活体检测通过条件或者判断视频序列存在镜头变化任意一者发生时,均认为检测不通过。由此,结合了基于人脸特征点定位的人脸活体检测和镜头边界检测的优点,既提高了人脸活体检测的准确度,又提高了系统的安全性,取得了更好的效果。
参见图3,为本发明实施例提供的一种人脸活体检测装置示意图。
一种人脸活体检测装置300,所述装置300包括:
获取单元301,用于获取待处理的视频图像序列。
第一检测单元302,用于对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,获得第一判断结果。
确定单元303,用于当所述第一判断结果表明所述视频图像序列存在镜头变化时,确定人脸活体检测不通过。
进一步的,所述第一检测单元包括:
特征提取单元,用于在设定的图像特征提取空间中,对所述视频图像序列进行图像特征提取,获得图像特征向量;
相似度或者帧差计算单元,用于利用确定的两帧图像的图像特征向量,计算得到所述两帧图像的相似度或者帧差;所述两帧图像的相似度或者帧差用于确定所述两帧图像的内容连续性;
判断单元,用于根据计算得到的两帧图像的相似度或者帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化。
进一步的,特征提取单元设定的所述图像特征提取空间包括下述中的任意一者:单个像素特征提取空间、像素块特征提取空间或者整帧图像特征提取空间。
进一步的,所述特征提取单元包括下述中的至少一个子单元:
颜色统计子单元,用于在选定的颜色空间中,获得所述视频图像序列中一个或多个视频帧的像素灰度统计量或者像素颜色统计量,将获得的各像素灰度统计量或者像素颜色统计量组成图像特征向量;
颜色直方图获得子单元,用于获得所述视频图像序列中一个或多个视频帧的灰度直方图或者颜色直方图;
边缘特征获得子单元,用于获得所述视频图像序列中一个或多个视频帧的图像边缘特征;
压缩域子单元,用于利用压缩域将原始图像转换到其他特征空间,获得对应的图像特征向量。
进一步的,所述确定的两帧图像为第i帧图像与第j帧图像,其中j=i+n(n≥1),i≥1。
进一步的,所述第一检测单元具体用于执行视频镜头切变检测处理单元和/或视频镜头渐变检测处理单元。
进一步的,当所述第一检测单元具体用于执行视频镜头切变检测处理时,所述判断单元具体用于:
当所述两帧图像的相似度小于第一设定阈值时,则确定两帧图像存在切变,所述视频图像序列存在镜头变化;或者,
当所述两帧图像的帧差大于第二设定阈值时,则确定两帧图像存在切变,所述视频图像序列存在镜头变化。
进一步的,当所述第一检测单元具体用于执行视频镜头切变检测处理时,所述判断单元具体用于:
基于邻近算法KNN分类器、决策树或者支持向量机SVM对所述两帧图像的相似度或者帧差进行判定,当所述判定结果表明两帧图像存在切变时,确定所述视频图像序列存在镜头变化。
进一步的,当所述第一检测单元具体用于视频镜头渐变检测处理时,所述判断单元具体用于:
当确定两帧图像的相似度大于第三设定阈值且小于第四设定阈值时,获取所述两帧图像的后续图像帧;计算所述后续图像帧两两图像帧之间的相似度,直到所述两两图像帧之间相似度大于第四设定阈值为止;计算获得的各图像帧的累积相似度,当所述累积相似度小于第五设定阈值时,确定所述视频图像序列存在渐变,所述视频图像序列存在镜头变化。
当所述第一检测单元具体用于视频镜头渐变检测处理时,所述判断单元具体用于:
当确定两帧图像的帧差大于第六设定阈值且小于第七设定阈值时,获取所述两帧图像的后续图像帧;计算所述后续图像帧两两图像帧之间的帧差,直到所述两两图像帧之间的帧差小于第六设定阈值为止;计算获得的各帧差的和值,当所述和值大于第七设定阈值时,确定所述视频图像序列存在渐变,所述视频图像序列存在镜头变化。
进一步的,所述装置还包括:
第二检测单元,用于基于人脸特征点定位进行人脸活体检测,获得第二判断结果;
所述确定单元还用于当所述第二判断结果表明符合人脸活体检测条件且所述第一判断结果表明所述视频图像序列不存在镜头变化时,确定人脸活体检测通过。
上述各单元的功能可对应于图1至图2详细描述的上述方法的处理步骤,于此不再赘述。需要说明的是,由于对方法实施例进行详细的阐述,对装置实施例的描述较为简单,本领域技术人员可以理解的是,可以参照方法实施例构造本发明的装置实施例。本领域技术人员在不付出创造性劳动下获取的其他实现方式均属于本发明的保护范围。
本领域技术人员可以理解的是,以上对方法和装置实施例进行了示例性说明,以上不视为对本发明的限制,本领域技术人员在不付出创造性劳动下获得的其他实现方式均属于本发明的保护范围。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。以上所述仅是本发明的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (19)

1.一种人脸活体检测方法,其特征在于,所述方法包括:
获取待处理的视频图像序列;
对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,获得第一判断结果;所述对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化包括:在设定的图像特征提取空间中,对所述视频图像序列进行图像特征提取,获得图像特征向量;利用确定的两帧图像的图像特征向量,计算得到所述两帧图像的相似度或者帧差;所述两帧图像的相似度或者帧差用于确定所述两帧图像的内容连续性;根据计算得到的两帧图像的相似度或者帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化;
当所述第一判断结果表明所述视频图像序列存在镜头变化时,确定人脸活体检测不通过。
2.根据权利要求1所述的方法,其特征在于,所述图像特征提取空间包括下述中的任意一者:单个像素特征提取空间、像素块特征提取空间或者整帧图像特征提取空间。
3.根据权利要求1所述的方法,其特征在于,所述对所述视频图像序列进行图像特征提取,获得图像特征向量包括下述中的至少一者:
在选定的颜色空间中,获得所述视频图像序列中一个或多个视频帧的像素灰度统计量或者像素颜色统计量,将获得的各像素灰度统计量或者像素颜色统计量组成图像特征向量;
获得所述视频图像序列中一个或多个视频帧的灰度直方图或者颜色直方图;
获得所述视频图像序列中一个或多个视频帧的图像边缘特征;
利用压缩域将原始图像转换到其他特征空间,获得对应的图像特征向量。
4.根据权利要求1所述的方法,其特征在于,所述确定的两帧图像为第i帧图像与第j帧图像,其中j=i+n(n≥1),i≥1。
5.根据权利要求1所述的方法,其特征在于,所述视频镜头边界检测处理包括视频镜头切变检测处理和/或视频镜头渐变检测处理。
6.根据权利要求1或5所述的方法,其特征在于,当所述视频镜头边界检测处理包括视频镜头切变检测处理时,所述根据计算得到的两帧图像的相似度或者帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:
当所述两帧图像的相似度小于第一设定阈值时,则确定两帧图像存在切变,所述视频图像序列存在镜头变化;或者,
当所述两帧图像的帧差大于第二设定阈值时,则确定两帧图像存在切变,所述视频图像序列存在镜头变化。
7.根据权利要求1或5所述的方法,其特征在于,当所述视频镜头边界检测处理包括视频镜头切变检测处理时,所述根据计算得到的两帧图像的相似度或者帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:
基于邻近算法KNN分类器、决策树或者支持向量机SVM对所述两帧图像的相似度或者帧差进行判定,当所述判定结果表明两帧图像存在切变时,确定所述视频图像序列存在镜头变化。
8.根据权利要求1或5所述的方法,其特征在于,当所述视频镜头边界检测处理包括视频镜头渐变检测处理时,所述根据计算得到的两帧图像的相似度确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:
当确定两帧图像的相似度大于第三设定阈值且小于第四设定阈值时,获取所述两帧图像的后续图像帧;
计算所述后续图像帧两两图像帧之间的相似度,直到所述两两图像帧之间的相似度大于第四设定阈值为止;
计算获得的各图像帧的累积相似度,当所述累积相似度小于第五设定阈值时,确定所述视频图像序列存在渐变,所述视频图像序列存在镜头变化。
9.根据权利要求1或5所述的方法,其特征在于,当所述视频镜头边界检测处理包括视频镜头渐变检测处理时,所述根据计算得到的两帧图像的帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化包括:
当确定两帧图像的帧差大于第六设定阈值且小于第七设定阈值时,获取所述两帧图像的后续图像帧;
计算所述后续图像帧两两图像帧之间的帧差,直到所述两两图像帧之间的帧差小于第六设定阈值为止;
计算获得的各帧差的和值,当所述和值大于第七设定阈值时,确定所述视频图像序列存在渐变,所述视频图像序列存在镜头变化。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于人脸特征点定位进行人脸活体检测,获得第二判断结果;
当所述第二判断结果表明符合人脸活体检测条件且所述第一判断结果表明所述视频图像序列不存在镜头变化时,确定人脸活体检测通过。
11.一种人脸活体检测装置,其特征在于,所述装置包括:
获取单元,用于获取待处理的视频图像序列;
第一检测单元,用于对所述待处理的视频图像序列执行视频镜头边界检测处理以确定所述视频图像序列是否存在镜头变化,获得第一判断结果;
确定单元,用于当所述第一判断结果表明所述视频图像序列存在镜头变化时,确定人脸活体检测不通过;
所述第一检测单元包括:
特征提取单元,用于在设定的图像特征提取空间中,对所述视频图像序列进行图像特征提取,获得图像特征向量;
相似度或者帧差计算单元,用于利用确定的两帧图像的图像特征向量,计算得到所述两帧图像的相似度或者帧差;所述两帧图像的相似度或者帧差用于确定所述两帧图像的内容连续性;
判断单元,用于根据计算得到的两帧图像的相似度或者帧差确定两帧图像内容不连续时,确定所述视频图像序列存在镜头变化。
12.根据权利要求11所述的装置,其特征在于,特征提取单元设定的所述图像特征提取空间包括下述中的任意一者:单个像素特征提取空间、像素块特征提取空间或者整帧图像特征提取空间。
13.根据权利要求11所述的装置,其特征在于,所述特征提取单元包括下述中的至少一个子单元:
颜色统计子单元,用于在选定的颜色空间中,获得所述视频图像序列中一个或多个视频帧的像素灰度统计量或者像素颜色统计量,将获得的各像素灰度统计量或者像素颜色统计量组成图像特征向量;
颜色直方图获得子单元,用于获得所述视频图像序列中一个或多个视频帧的灰度直方图或者颜色直方图;
边缘特征获得子单元,用于获得所述视频图像序列中一个或多个视频帧的图像边缘特征;
压缩域子单元,用于利用压缩域将原始图像转换到其他特征空间,获得对应的图像特征向量。
14.根据权利要求11所述的装置,其特征在于,所述第一检测单元具体用于执行视频镜头切变检测处理单元和/或视频镜头渐变检测处理单元。
15.根据权利要求11或14所述的装置,其特征在于,当所述第一检测单元具体用于执行视频镜头切变检测处理时,所述判断单元具体用于:
当所述两帧图像的相似度小于第一设定阈值时,则确定两帧图像存在切变,所述视频图像序列存在镜头变化;或者,
当所述两帧图像的帧差大于第二设定阈值时,则确定两帧图像存在切变,所述视频图像序列存在镜头变化。
16.根据权利要求11或14所述的装置,其特征在于,当所述第一检测单元具体用于执行视频镜头切变检测处理时,所述判断单元具体用于:
基于邻近算法KNN分类器、决策树或者支持向量机SVM对所述两帧图像的相似度或者帧差进行判定,当所述判定结果表明两帧图像存在切变时,确定所述视频图像序列存在镜头变化。
17.根据权利要求11或14所述的装置,其特征在于,当所述第一检测单元具体用于视频镜头渐变检测处理时,所述判断单元具体用于:
当确定两帧图像的相似度大于第三设定阈值且小于第四设定阈值时,获取所述两帧图像的后续图像帧;计算所述后续图像帧两两图像帧之间的相似度,直到所述两两图像帧之间的相似度大于第四设定阈值为止;计算获得的各图像帧的累积相似度,当所述累积相似度小于第五设定阈值时,确定所述视频图像序列存在渐变,所述视频图像序列存在镜头变化。
18.根据权利要求11或14所述的装置,其特征在于,当所述第一检测单元具体用于视频镜头渐变检测处理时,所述判断单元具体用于:
当确定两帧图像的帧差大于第六设定阈值且小于第七设定阈值时,获取所述两帧图像的后续图像帧;计算所述后续图像帧两两图像帧之间的帧差,直到所述两两图像帧之间的帧差小于第六设定阈值为止;计算获得的各帧差的和值,当所述和值大于第七设定阈值时,确定所述视频图像序列存在渐变,所述视频图像序列存在镜头变化。
19.根据权利要求11所述的装置,其特征在于,所述装置还包括:
第二检测单元,用于基于人脸特征点定位进行人脸活体检测,获得第二判断结果;
所述确定单元还用于当所述第二判断结果表明符合人脸活体检测条件且所述第一判断结果表明所述视频图像序列不存在镜头变化时,确定人脸活体检测通过。
CN201510038591.6A 2015-01-26 2015-01-26 一种人脸活体检测方法和装置 Active CN105893920B (zh)

Priority Applications (9)

Application Number Priority Date Filing Date Title
CN201510038591.6A CN105893920B (zh) 2015-01-26 2015-01-26 一种人脸活体检测方法和装置
TW104128407A TWI686774B (zh) 2015-01-26 2015-08-28 人臉活體檢測方法和裝置
US15/005,427 US9824280B2 (en) 2015-01-26 2016-01-25 Method and device for face in-vivo detection
KR1020207013827A KR102122348B1 (ko) 2015-01-26 2016-01-25 얼굴 생체 내 검출 방법 및 장치
SG11201706036WA SG11201706036WA (en) 2015-01-26 2016-01-25 Method and device for face in-vivo detection
EP16743901.7A EP3251056A4 (en) 2015-01-26 2016-01-25 Method and device for face in-vivo detection
PCT/US2016/014698 WO2016123008A1 (en) 2015-01-26 2016-01-25 Method and device for face in-vivo detection
JP2017539244A JP2018508875A (ja) 2015-01-26 2016-01-25 生体顔検出用の方法及び装置
KR1020177023967A KR20170109007A (ko) 2015-01-26 2016-01-25 얼굴 생체 내 검출 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510038591.6A CN105893920B (zh) 2015-01-26 2015-01-26 一种人脸活体检测方法和装置

Publications (2)

Publication Number Publication Date
CN105893920A CN105893920A (zh) 2016-08-24
CN105893920B true CN105893920B (zh) 2019-12-27

Family

ID=56434140

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510038591.6A Active CN105893920B (zh) 2015-01-26 2015-01-26 一种人脸活体检测方法和装置

Country Status (8)

Country Link
US (1) US9824280B2 (zh)
EP (1) EP3251056A4 (zh)
JP (1) JP2018508875A (zh)
KR (2) KR102122348B1 (zh)
CN (1) CN105893920B (zh)
SG (1) SG11201706036WA (zh)
TW (1) TWI686774B (zh)
WO (1) WO2016123008A1 (zh)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9269154B2 (en) * 2009-01-13 2016-02-23 Futurewei Technologies, Inc. Method and system for image processing to classify an object in an image
JP6632288B2 (ja) * 2014-12-12 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
EP3232368A1 (en) * 2016-04-14 2017-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Determining facial parameters
US10289822B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Liveness detection for antispoof face recognition
CN106778518B (zh) * 2016-11-24 2021-01-08 汉王科技股份有限公司 一种人脸活体检测方法及装置
CN108121943B (zh) 2016-11-30 2022-05-06 阿里巴巴集团控股有限公司 基于图片的判别方法及装置和计算设备
US10726244B2 (en) * 2016-12-07 2020-07-28 Samsung Electronics Co., Ltd. Method and apparatus detecting a target
TWI731919B (zh) * 2017-01-19 2021-07-01 香港商斑馬智行網絡(香港)有限公司 圖像識別方法與裝置及度量學習方法與裝置
CN106874876A (zh) * 2017-02-20 2017-06-20 深圳市科漫达智能管理科技有限公司 一种人脸活体检测方法及装置
CN106961576A (zh) * 2017-03-10 2017-07-18 盛视科技股份有限公司 视频防尾随方法、装置及系统
US10515199B2 (en) * 2017-04-19 2019-12-24 Qualcomm Incorporated Systems and methods for facial authentication
CN107463875A (zh) * 2017-07-03 2017-12-12 金讯系统管理有限公司 一种判断人员身份的方法和装置
CN107424266A (zh) * 2017-07-25 2017-12-01 上海青橙实业有限公司 人脸识别解锁的方法和装置
CN107992842B (zh) * 2017-12-13 2020-08-11 深圳励飞科技有限公司 活体检测方法、计算机装置及计算机可读存储介质
CN107992845A (zh) * 2017-12-14 2018-05-04 广东工业大学 一种面部识别辨伪方法及装置、计算机设备
JP6986685B2 (ja) * 2018-03-12 2021-12-22 パナソニックIpマネジメント株式会社 情報処理装置
CN108734570A (zh) * 2018-05-22 2018-11-02 深圳壹账通智能科技有限公司 一种风险预测方法、存储介质和服务器
CN108764126B (zh) * 2018-05-25 2021-09-07 郑州目盼智能科技有限公司 一种嵌入式活体人脸跟踪系统
CN109359548B (zh) * 2018-09-19 2022-07-08 深圳市商汤科技有限公司 多人脸识别监控方法及装置、电子设备及存储介质
CN109492550B (zh) * 2018-10-25 2023-06-06 腾讯科技(深圳)有限公司 活体检测方法、装置及应用活体检测方法的相关系统
CN109543577A (zh) * 2018-11-09 2019-03-29 上海物联网有限公司 一种基于面部表情特征的疲劳驾驶检测预警方法
CN111191484A (zh) * 2018-11-14 2020-05-22 普天信息技术有限公司 视频图像中人物说话的识别方法和装置
CN111222380B (zh) * 2018-11-27 2023-11-03 杭州海康威视数字技术股份有限公司 一种活体检测方法、装置、及其识别模型训练方法
CN111294644B (zh) 2018-12-07 2021-06-25 腾讯科技(深圳)有限公司 视频拼接方法、装置、电子设备及计算机可读存储介质
CN109871834A (zh) * 2019-03-20 2019-06-11 北京字节跳动网络技术有限公司 信息处理方法和装置
JP7268725B2 (ja) * 2019-04-19 2023-05-08 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN111988600A (zh) * 2019-05-23 2020-11-24 武汉Tcl集团工业研究院有限公司 一种视频镜头切换的检测方法、装置及终端设备
CN110708568B (zh) * 2019-10-30 2021-12-10 北京奇艺世纪科技有限公司 一种视频内容突变检测方法及装置
CN113033582B (zh) * 2019-12-09 2023-09-26 杭州海康威视数字技术股份有限公司 模型训练方法、特征提取方法及装置
KR20210089038A (ko) 2020-01-07 2021-07-15 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102245349B1 (ko) * 2020-02-11 2021-04-28 한국과학기술원 비디오로부터의 색상 스키마 추출 방법 및 장치
CN111401315B (zh) * 2020-04-10 2023-08-22 浙江大华技术股份有限公司 基于视频的人脸识别方法、识别装置及存储装置
CN111611873A (zh) * 2020-04-28 2020-09-01 平安科技(深圳)有限公司 人脸替换检测方法及装置、电子设备、计算机存储介质
CN111652875B (zh) * 2020-06-05 2023-05-05 西安电子科技大学 一种视频伪造检测方法、系统、存储介质、视频监控终端
CN111767845B (zh) * 2020-06-29 2024-03-05 京东科技控股股份有限公司 证件识别方法及装置
CN111898642B (zh) * 2020-06-30 2021-08-13 北京市商汤科技开发有限公司 关键点检测方法、装置、电子设备及存储介质
CN112016482B (zh) * 2020-08-31 2022-10-25 成都新潮传媒集团有限公司 一种判别虚假人脸的方法、装置及计算机设备
CN112036386A (zh) * 2020-11-05 2020-12-04 中科创达软件股份有限公司 Tee环境下使用相机相近帧进行活体检测的方法及装置
CN112508773B (zh) * 2020-11-20 2024-02-09 小米科技(武汉)有限公司 图像处理方法及装置、电子设备、存储介质
CN112287909B (zh) * 2020-12-24 2021-09-07 四川新网银行股份有限公司 一种随机生成检测点和交互要素的双随机活体检测方法
CN112613459B (zh) * 2020-12-30 2022-07-15 深圳艾摩米智能科技有限公司 一种人脸敏感区域检测方法
CN112749686B (zh) * 2021-01-29 2021-10-29 腾讯科技(深圳)有限公司 图像检测方法、装置、计算机设备及存储介质
CN115035015A (zh) * 2021-02-23 2022-09-09 京东方科技集团股份有限公司 图片处理方法、装置、计算机设备及存储介质
JP7218397B2 (ja) * 2021-05-12 2023-02-06 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法
CN117044215A (zh) * 2021-06-15 2023-11-10 三星电子株式会社 用于低光照媒体增强的方法和系统
WO2022265321A1 (en) 2021-06-15 2022-12-22 Samsung Electronics Co., Ltd. Methods and systems for low light media enhancement
CN113469085B (zh) * 2021-07-08 2023-08-04 北京百度网讯科技有限公司 人脸活体检测方法、装置、电子设备及存储介质
CN113850211A (zh) * 2021-09-29 2021-12-28 支付宝(杭州)信息技术有限公司 注入视频攻击检测方法和装置
CN114445918A (zh) * 2022-02-21 2022-05-06 支付宝(杭州)信息技术有限公司 一种活体检测方法、装置及设备
CN115935433B (zh) * 2023-01-09 2023-05-26 北京匠数科技有限公司 屏幕实时隐私保护方法和装置
CN117197707A (zh) * 2023-04-23 2023-12-08 青岛尘元科技信息有限公司 切变镜头的分割方法和装置、存储介质及电子设备
CN116582282B (zh) * 2023-07-13 2023-09-19 深圳市美力高集团有限公司 一种车载录像防篡改加密存储方法
CN116939171B (zh) * 2023-09-19 2024-03-26 南方电网数字电网研究院有限公司 输电线路监控方法、装置和计算机设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102750526A (zh) * 2012-06-25 2012-10-24 黑龙江科技学院 基于人脸图像的身份验证识别方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI299471B (en) * 2001-08-24 2008-08-01 Toshiba Kk Person recognition apparatus
US7130446B2 (en) 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
US7274822B2 (en) 2003-06-30 2007-09-25 Microsoft Corporation Face annotation for photo management
KR20050041761A (ko) * 2003-10-31 2005-05-04 학교법인 정석학원 샷 전환 프레임 검출방법
JP4619927B2 (ja) * 2005-11-01 2011-01-26 富士フイルム株式会社 顔検出方法および装置並びにプログラム
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
KR100886557B1 (ko) * 2007-05-03 2009-03-02 삼성전자주식회사 적응형 학습에 기반한 얼굴 인식 시스템 및 방법
KR101423916B1 (ko) 2007-12-03 2014-07-29 삼성전자주식회사 복수의 얼굴 인식 방법 및 장치
US8705810B2 (en) * 2007-12-28 2014-04-22 Intel Corporation Detecting and indexing characters of videos by NCuts and page ranking
US20090290791A1 (en) 2008-05-20 2009-11-26 Holub Alex David Automatic tracking of people and bodies in video
US8213689B2 (en) * 2008-07-14 2012-07-03 Google Inc. Method and system for automated annotation of persons in video content
US8325999B2 (en) 2009-06-08 2012-12-04 Microsoft Corporation Assisted face recognition tagging
US8737697B2 (en) 2010-05-26 2014-05-27 Nec Corporation Facial feature point position correction device, facial feature point position correcting method, and facial feature point position correcting program
TWI430185B (zh) * 2010-06-17 2014-03-11 Inst Information Industry 臉部表情辨識系統及其辨識方法及其電腦程式產品
US8494231B2 (en) 2010-11-01 2013-07-23 Microsoft Corporation Face recognition in video content
US9082235B2 (en) * 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
CN102332093B (zh) * 2011-09-19 2014-01-15 汉王科技股份有限公司 一种掌纹和人脸融合识别的身份认证方法及装置
TWI488128B (zh) 2012-03-07 2015-06-11 Altek Corp 人臉辨識系統及其人臉辨識方法
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US9003196B2 (en) 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
US10169644B2 (en) * 2013-10-24 2019-01-01 Blue Line Security Solutions Llc Human facial detection and recognition system
US9176987B1 (en) * 2014-08-26 2015-11-03 TCL Research America Inc. Automatic face annotation method and system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102750526A (zh) * 2012-06-25 2012-10-24 黑龙江科技学院 基于人脸图像的身份验证识别方法

Also Published As

Publication number Publication date
TWI686774B (zh) 2020-03-01
EP3251056A4 (en) 2018-01-31
SG11201706036WA (en) 2017-08-30
TW201627917A (zh) 2016-08-01
JP2018508875A (ja) 2018-03-29
KR20170109007A (ko) 2017-09-27
KR102122348B1 (ko) 2020-06-15
CN105893920A (zh) 2016-08-24
US9824280B2 (en) 2017-11-21
KR20200057099A (ko) 2020-05-25
EP3251056A1 (en) 2017-12-06
WO2016123008A1 (en) 2016-08-04
US20160217338A1 (en) 2016-07-28

Similar Documents

Publication Publication Date Title
CN105893920B (zh) 一种人脸活体检测方法和装置
US10635890B2 (en) Facial recognition method and apparatus, electronic device, and storage medium
AU2018256555B2 (en) Image and feature quality, image enhancement and feature extraction for ocular-vascular and facial recognition, and fusing ocular-vascular with facial and/or sub-facial information for biometric systems
CN110084135B (zh) 人脸识别方法、装置、计算机设备及存储介质
Galdi et al. Multimodal authentication on smartphones: Combining iris and sensor recognition for a double check of user identity
US10423848B2 (en) Method, system, and computer-readable recording medium for long-distance person identification
Deb et al. Look locally infer globally: A generalizable face anti-spoofing approach
JP5010905B2 (ja) 顔認証装置
WO2015149534A1 (zh) 基于Gabor二值模式的人脸识别方法及装置
CN111626163B (zh) 一种人脸活体检测方法、装置及计算机设备
US20220129682A1 (en) Machine-learning model, methods and systems for removal of unwanted people from photographs
CN107239735A (zh) 一种基于视频分析的活体检测方法和系统
CN107844742B (zh) 人脸图像眼镜去除方法、装置及存储介质
Rehman et al. Enhancing deep discriminative feature maps via perturbation for face presentation attack detection
Kalas Real time face detection and tracking using OpenCV
CN108108711B (zh) 人脸布控方法、电子设备及存储介质
EP2701096A2 (en) Image processing device and image processing method
CN111191521A (zh) 人脸活体检测方法、装置、计算机设备及存储介质
Bresan et al. Facespoof buster: a presentation attack detector based on intrinsic image properties and deep learning
KR100847142B1 (ko) 얼굴 인식을 위한 전처리 방법, 이를 이용한 얼굴 인식방법 및 장치
EP2998928A1 (en) Apparatus and method for extracting high watermark image from continuously photographed images
Fourati et al. Face anti-spoofing with image quality assessment
Lin et al. Face detection based on skin color segmentation and SVM classification
Stawska et al. Algorithms and methods used in skin and face detection suitable for mobile applications
CN114663930A (zh) 一种活体检测方法、装置、终端设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1228071

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20201010

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201010

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee after: Advanced innovation technology Co.,Ltd.

Address before: Cayman Islands Grand Cayman capital building, a four storey No. 847 mailbox

Patentee before: Alibaba Group Holding Ltd.

TR01 Transfer of patent right