CN107688781A - 人脸识别方法及装置 - Google Patents

人脸识别方法及装置 Download PDF

Info

Publication number
CN107688781A
CN107688781A CN201710725441.1A CN201710725441A CN107688781A CN 107688781 A CN107688781 A CN 107688781A CN 201710725441 A CN201710725441 A CN 201710725441A CN 107688781 A CN107688781 A CN 107688781A
Authority
CN
China
Prior art keywords
light stream
field picture
face
detected
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710725441.1A
Other languages
English (en)
Inventor
万韶华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201710725441.1A priority Critical patent/CN107688781A/zh
Publication of CN107688781A publication Critical patent/CN107688781A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本公开是关于人脸识别方法及装置。该方法包括:根据本公开的实施例的第一方面,提供一种人脸识别方法,包括:从待检测视频中获取第一帧图像和第二帧图像;根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值;当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。该技术方案可以确定待检测视频中的人脸为活体人脸,从而提高了人脸识别的准确性,改善了用户体验。

Description

人脸识别方法及装置
技术领域
本公开涉及人脸识别领域,尤其涉及人脸识别方法及装置。
背景技术
随着科技的发展,人脸识别技术日益成熟,多种装置及系统例如笔记本电脑、移动终端以及门禁系统等开始通过获取待检测视频,并通过检测待检测视频中的人脸以完成对身份的识别。但由于合法用户人脸的平面图形较容易取得,非法用户可以通过在待检测视频中添加合法用户的假体人脸例如合法用户的照片等,利用包括该假体人脸的待检测视频通过人脸识别,从而降低了人脸识别的准确性,损害了用户体验。
发明内容
为克服相关技术中存在的问题,本公开的实施例提供一种人脸识别方法及装置。技术方案如下:
根据本公开的实施例的第一方面,提供一种人脸识别方法,包括:
从待检测视频中获取第一帧图像和第二帧图像,第一帧图像和第二帧图像均包括人脸图像;
根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一目标像素包括人脸图像所在区域的像素,第二目标像素包括非人脸图像所在区域的像素;
当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。
通过从待检测视频中获取均包括人脸图像的第一帧图像和第二帧图像,并根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,其中第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离。由于当待检测视频中的人脸为活体人脸时,该活体人脸与背景不应总处于同一个平面,活体人脸的移动速度大小与背景的移动速度大小差距较大,而当待检测视频中的人脸为假体人脸例如照片上的人脸时,假体人脸与背景位于同一平面的几率较大,既假体人脸的移动速度大小接近背景的移动速度大小。因此当第一光流值与第二光流值的差值大于光流差值阈值即确认待检测视频中的人脸的移动速度大小与待检测视频中背景的移动速度大小差距较大时,确定待检测视频中的人脸为活体人脸,从而提高了人脸识别的准确性,改善了用户体验。
在一个实施例中,本公开的实施例提供的人脸识别方法还包括:
当第一光流值与第二光流值的差值小于或等于光流差值阈值时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,第一帧图像与第二帧图像之间的时间间隔小于或等于时间间隔阈值。
在一个实施例中,本公开的实施例提供的人脸识别方法还包括:
根据第一光流值生成第一光流直方图,根据第二光流值生成第二光流直方图;
当第一光流直方图与第二光流直方图的距离大于距离阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,本公开的实施例提供的假体人脸识别方法还包括:
对待检测视频中的图像进行边框检测;
当根据边框检测结果确定待检测视频中的图像包括边框时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,从待检测视频中获取第一帧图像和第二帧图像,包括:
对待检测视频中的图像进行边框检测;
当根据边框检测结果确定待检测视频中的图像不包括边框时,从待检测视频中获取第一帧图像和第二帧图像。
在一个实施例中,本公开的实施例提供的假体人脸识别方法还包括:
在人脸图像所在区域中确定第一目标像素,在非人脸图像所在区域中确定第二目标像素,其中第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,第二目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值。
根据本公开的实施例的第二方面,提供一种人脸识别装置,包括:
图像帧获取模块,用于从待检测视频中获取第一帧图像和第二帧图像,第一帧图像和第二帧图像均包括人脸图像;
光流值获取模块,用于根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一目标像素包括人脸图像所在区域的像素,第二目标像素包括非人脸图像所在区域的像素;
第一活体人脸确定模块,用于当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,装置还包括:
第一假体人脸确定模块,用于当第一光流值与第二光流值的差值小于或等于光流差值阈值时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,第一帧图像与第二帧图像之间的时间间隔小于或等于时间间隔阈值。
在一个实施例中,装置还包括:
直方图生成模块,用于根据第一光流值生成第一光流直方图,根据第二光流值生成第二光流直方图;
第二活体人脸确定模块,用于当第一光流直方图与第二光流直方图的距离大于距离阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,装置还包括:
边框检测模块,用于对待检测视频中的图像进行边框检测;
第二假体人脸确定模块,用于当根据边框检测结果确认待检测视频中的图像包括边框时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,图像帧获取模块包括:
边框检测子模块,用于对待检测视频中的图像进行边框检测;
图像帧获取子模块,用于当根据边框检测结果确定待检测视频中的图像不包括边框时,从待检测视频中获取第一帧图像和第二帧图像。
在一个实施例中,装置还包括:
目标像素确定模块,用于在人脸图像所在区域中确定第一目标像素,在非人脸图像所在区域中确定第二目标像素,其中第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,第二目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值。
根据本公开的实施例的第三方面,提供一种人脸识别装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,处理器被配置为:
从待检测视频中获取第一帧图像和第二帧图像,第一帧图像和第二帧图像均包括人脸图像;
根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一目标像素包括人脸图像所在区域的像素,第二目标像素包括非人脸图像所在区域的像素;
当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。
根据本公开的实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现本公开的实施例的第一方面提供的任一项方法的步骤。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1a1是根据一示例性实施例示出的人脸识别方法的流程示意图1;
图1a2是根据一示例性实施例示出的人脸识别方法的流程示意图2;
图1b是根据一示例性实施例示出的人脸识别方法的流程示意图3;
图1c是根据一示例性实施例示出的人脸识别方法的流程示意图4;
图1d是根据一示例性实施例示出的人脸识别方法的流程示意图5;
图1e是根据一示例性实施例示出的人脸识别方法的流程示意图6;
图2是根据一示例性实施例示出的人脸识别方法的流程示意图;
图3a是根据一示例性实施例示出的人脸识别装置的结构示意图1;
图3b是根据一示例性实施例示出的人脸识别装置的结构示意图2;
图3c是根据一示例性实施例示出的人脸识别装置的结构示意图3;
图3d是根据一示例性实施例示出的人脸识别装置的结构示意图4;
图3e是根据一示例性实施例示出的人脸识别装置的结构示意图5;
图3f是根据一示例性实施例示出的人脸识别装置的结构示意图6;
图4是根据一示例性实施例示出的一种装置的框图;
图5是根据一示例性实施例示出的一种装置的框图;
图6是根据一示例性实施例示出的一种装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
随着科技的发展,人脸识别技术日益成熟,多种装置及系统例如笔记本电脑、移动终端以及门禁系统等开始通过获取待检测视频,并通过检测待检测视频中的人脸以完成对身份的识别。例如,移动终端获取待检测视频,当移动终端对待检测视频进行人脸识别并根据识别结果确定待检测视频中的人脸为合法用户人脸时,移动终端确定与该待检测视频中人脸对应的用户通过人脸识别。但由于合法用户人脸的平面图形较容易取得,非法用户可以通过在待检测视频中添加合法用户人脸的假体人脸,例如非法用户在拍摄视频图像时拿着合法用户人脸的照片,从而利用包括假体人脸的待检测视频通过人脸识别,降低了人脸识别的准确性并损害了用户体验。
为了解决上述问题,本公开的实施例提供的一种技术方案中,通过获取待检测视频,并根据待检测视频中位于第一时刻的第一帧图像与待检测视频中位于第二时刻的第二帧图像获取第一光流值与第二光流值,其中第一光流值用于指示第一目标像素在第一时刻至第二时刻间的移动距离,第二光流值用于指示第二目标像素在第一时刻至第二时刻间的移动距离,第一帧图像的人脸区域以及第二帧图像的人脸区域均包括第一目标像素,第一帧图像的非人脸区域以及第二帧图像的非人脸区域均包括第二目标像素。由于当待检测视频中的人脸为活体人脸时,该活体人脸与背景不处于同一个平面,活体人脸的移动速度大小与背景的移动速度大小差距较大,而当待检测视频中的人脸为假体人脸例如照片上的人脸时,假体人脸与背景位于同一平面,假体人脸的移动速度大小接近背景的移动速度大小。因此当第一光流值与第二光流值的差值小于或等于光流差值阈值即确认第一时刻至第二时刻间待检测视频中的人脸的移动速度大小接近待检测视频中背景的移动速度大小时,确定待检测视频中的人脸为假体人脸,以避免包括假体人脸的待检测视频通过人脸识别,从而提高了人脸识别的准确性,改善了用户体验。
本公开的实施例提供了一种人脸识别方法,该方法可以应用于终端或服务器,其中,终端可以为手机,平板电脑以及智能可穿戴装置等,本公开的实施例对此不做限定。服务器可以为由人脸识别服务运营商提供并使用的提供计算服务的设备,也可以为由网络运营商提供由人脸识别服务运营商使用的提供计算服务的设备。如图1a1所示,包括如下步骤101至步骤103:
在步骤101中,从待检测视频中获取第一帧图像和第二帧图像。
其中,第一帧图像和第二帧图像均包括人脸图像。
示例性的,当本公开的实施例提供的人脸识别方法应用于终端时,获取待检测视频,可以为读取事先储存在终端中的待检测视频,也可以为终端通过终端上的拍摄模块拍摄待检测视频,或终端接收其他装置或系统发送的待检测视频。当本公开的实施例提供的人脸识别方法应用于服务器时,获取待检测视频,可以为读取事先储存在服务器中的待检测视频,也可以为接收其他装置或系统发送的待检测视频。第一帧图像和第二帧图像可以为待检测视频中事先指定的时刻的图像,也可以为随机指定待检测视频中任意一帧图像作为第一帧图像,并将待检测视频中与第一帧图像的间隔时间小于或等于预设时间阈值的帧作为第二帧图像。
在步骤102中,根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值。
其中,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一目标像素包括人脸图像所在区域的像素,第二目标像素包括非人脸图像所在区域的像素。
示例性的,物体在运动时,包括该物体的时变图像上对应点的亮度模式也在随时间变化,这种图像亮度模式的表观运动就是光流(optical flow)。根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,可以为根据Gunnar Farneback的稠密光流算法或Lucas–Kanade光流算法获取同时存在于第一帧图像与第二帧图像中的全部像素的光流向量;对第一帧图像与第二帧图像分别进行人脸识别,例如通过AdaBoost算法对第一帧图像与第二帧图像分别进行人脸识别,并根据识别结果确定第一帧图像中人脸图像所在区域、第一帧图像中非人脸图像所在区域、第二帧图像中人脸图像所在区域以及第二帧图像中非人脸图像所在区域,并确定同时存在于第一帧图像中人脸图像所在区域以及第二帧图像中人脸图像所在区域中且满足目标像素筛选条件的像素即第一目标像素,确定同时存在于第一帧图像中非人脸图像所在区域以及第二帧图像中非人脸图像所在区域中且满足目标像素筛选条件的像素即第二目标像素,在同时存在于第一帧图像与第二帧图像中的全部像素的光流向量中确定第一目标像素对应的光流向量并获取该光流向量的模即第一光流值,在同时存在于第一帧图像与第二帧图像中的全部像素的光流向量中确定第二目标像素对应的光流向量并获取该光流向量的模即第二光流值。
根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,也可以为参照上述步骤确定第一目标像素与第二目标像素,并仅获取该第一目标像素对应的光流向量的模即第一光流值、获取该第二目标像素对应的光流向量的模即第二光流值。
需要说明的是,相应区域中满足目标像素筛选条件的像素,可以为相应区域中全部像素,也可以为相应区域中灰度值与相邻像素的灰度值的差值大于或等于灰度差值阈值的像素。
在步骤103中,当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。
示例性的,当本公开的实施例提供的人脸识别方法应用于终端时,光流差值阈值可以事先储存在终端中,也可以为终端从其他装置或系统处获取光流差值阈值。当本公开的实施例提供的人脸识别方法应用于服务器时,光流差值阈值可以为事先储存在服务器中,也可以为服务器从其他装置或系统处获取光流差值阈值。
需要说明的是,确定待检测视频中的人脸为活体人脸,可以理解为该待检测视频是通过对有生命的真人的人脸进行拍摄而获取的,而并非是通过对包括人脸的照片或图像进行拍摄而获取的。而包括人脸的照片或图像可以理解为假体人脸。
通过从待检测视频中获取均包括人脸图像的第一帧图像和第二帧图像,并根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,其中第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离。由于当待检测视频中的人脸为活体人脸时,该活体人脸与背景不应总处于同一个平面,活体人脸的移动速度大小与背景的移动速度大小差距较大,而当待检测视频中的人脸为假体人脸例如照片上的人脸时,假体人脸与背景位于同一平面的几率较大,既假体人脸的移动速度大小接近背景的移动速度大小。因此当第一光流值与第二光流值的差值大于光流差值阈值即确认待检测视频中的人脸的移动速度大小与待检测视频中背景的移动速度大小差距较大时,确定待检测视频中的人脸为活体人脸,从而提高了人脸识别的准确性,改善了用户体验。
在一个实施例中,如图1a1所示,本公开的实施例提供的人脸识别方法还包括步骤104:
在步骤104中,当第一光流值与第二光流值的差值小于或等于光流差值阈值时,确定待检测视频中的人脸为假体人脸。
通过在第一光流值与第二光流值的差值小于或等于光流差值阈值时,确定待检测视频中的人脸为假体人脸,可以以避免包括假体人脸的待检测视频通过人脸识别,从而提高了人脸识别的准确性,改善了用户体验。
在一个实施例中,第一帧图像与第二帧图像之间的时间间隔小于或等于时间间隔阈值。
示例性的,当本公开的实施例提供的人脸识别方法应用于终端时,时间间隔阈值可以事先储存在终端中,也可以为终端从其他装置或系统处获取时间间隔阈值。当本公开的实施例提供的人脸识别方法应用于服务器时,时间间隔阈值可以为事先储存在服务器中,也可以为服务器从其他装置或系统处获取时间间隔阈值。
由于待检测视频中的人脸与背景可能进行往复运动,当第一帧图像与第二帧图像之间的时间间隔过长时,即使待检测视频中的人脸为活体人脸且该活体人脸在第一时刻至第二时间之间运动的总行程与待检测视频中的背景在第一帧图像与第二帧图像之间运动的总行程存在较大差异时,根据第一帧图像与第二帧图像所获取的第一目标像素在第一时刻至第二时刻间的移动距离与根据第一帧图像与第二帧图像所获取的第二目标像素在第一时刻至第二时刻间的移动距离可能相互接近,即第一光流值与第二光流值可能接近,自发生上述状况时可能会误将待检测视频中的活体人脸确定为假体人脸。通过限制第一帧图像与第二帧图像之间的时间间隔,使其小于或等于时间间隔阈值,可以确保当第一光流值与第二光流值的差值小于或等于光流差值阈值时,待检测视频中的人脸在第一帧图像与第二帧图像之间运动的总行程也接近待检测视频中的背景在第一帧图像与第二帧图像之间运动的总行程,避免将待检测视频中的活体人脸确定为假体人脸,提高了识别假体人脸的准确性。
在一个实施例中,如图1b所示,本公开的实施例提供的人脸识别方法还包括步骤105至步骤106:
在步骤105中,根据第一光流值生成第一光流直方图,根据第二光流值生成第二光流直方图。
在步骤106中,当第一光流直方图与第二光流直方图的距离小于或等于距离阈值时,确定待检测视频中的人脸为假体人脸。
示例性的,第一光流直方图h与第二光流直方图k的距离D可以通过获取,也可以通过获取。
当本公开的实施例提供的人脸识别方法应用于终端时,距离阈值可以事先储存在终端中,也可以为终端从其他装置或系统处获取距离阈值。当本公开的实施例提供的人脸识别方法应用于服务器时,距离阈值可以为事先储存在服务器中,也可以为服务器从其他装置或系统处获取距离阈值。
当第一目标像素包括多个像素时,第一光流直方图可以反映出该多个像素的整体运动幅度的大小;当第二目标像素包括多个像素时,第二光流直方图可以反映出该多个像素的整体运动服务的大小,因此通过根据第一光流值生成第一光流直方图,根据第二光流值生成第二光流直方图,并在第一光流直方图与第二光流直方图的距离小于或等于距离阈值即第一光流直方图与第二光流直方图的相似程度较高时,确定待检测视频中的人脸为假体人脸,从而提高在第一目标像素包括多个像素且第二目标像素包括多个像素时识别假体人脸的准确性。
在一个实施例中,如图1c所示,本公开的实施例提供的人脸识别方法还包括步骤107至步骤108:
在步骤107中,对待检测视频中的图像进行边框检测。
在步骤108中,当根据边框检测结果确定待检测视频中的图像包括边框时,确定待检测视频中的人脸为假体人脸。
示例性的,对待检测视频进行边框检测,可以采用HoughTransform算法对待检测视频进行边框检测,其中边框包括手机边框、平板边框、照片边框等。
由于对待检测视频进行边框检测的速度较快,当根据边框检测结果确定待检测视频包括边框时,无需进行人脸识别即可确定该待检测视频中包括假体人脸例如照片,从而在不降低人脸识别准确性的前提下提高了人脸识别的速度。
在一个实施例中,如图1d所示,本公开的实施例提供的人脸识别方法还包括步骤109:
在步骤101中,从待检测视频中获取第一帧图像和第二帧图像,第一帧图像和第二帧图像均包括人脸图像,可以通过步骤1011至步骤1012实现:
在步骤1011中,对待检测视频中的图像进行边框检测。
在步骤1012中,当根据边框检测结果确定待检测视频中的图像不包括边框时,从待检测视频中获取第一帧图像和第二帧图像。
由于对待检测视频进行边框检测的速度较快,当根据边框检测结果确定待检测视频不包括边框时,为了进一步确认该待检测视频中是否包括假体人脸,从待检测视频中获取第一帧图像和第二帧图像,以便进一步根据第一帧图像和第二帧图像进行人脸识别,从而在不降低人脸识别准确性的前提下提高了人脸识别的速度。
在一个实施例中,如图1e所示,本公开的实施例提供的假体人脸识别方法还包括步骤110:
在步骤110中,在人脸图像所在区域中确定第一目标像素,在非人脸图像所在区域中确定第二目标像素。
其中第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,第二目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值。
示例性的,当本公开的实施例提供的人脸识别方法应用于终端时,灰度差值阈值可以事先储存在终端中,也可以为终端从其他装置或系统处获取灰度差值阈值。当本公开的实施例提供的人脸识别方法应用于服务器时,灰度差值阈值可以为事先储存在服务器中,也可以为服务器从其他装置或系统处获取灰度差值阈值。
当第一目标像素的灰度值与第一相邻像素的灰度值间的差值大于或等于灰度差值阈值时,更容易将第一目标像素与第一相邻像素分辨开来,获取的第一光流值的准确性较高;当第二目标像素的灰度值与第二相邻像素的灰度值间的差值大于或等于灰度差值阈值时,更容易将第二目标像素与第二相邻像素分辨开来,获取的第二光流值的准确性较高,从而提高了人脸识别的准确性。
图2是根据一示例性实施例示出的一种人脸识别方法的示意性流程图进行说明。如图2所示,包括以下步骤:
在步骤201中,获取待检测视频。
在步骤202中,对待检测视频进行边框检测。
在步骤203中,当根据边框检测结果确定待检测视频中的图像包括边框时,确定待检测视频中的人脸为假体人脸。
在步骤204中,当根据边框检测结果确定待检测视频中的图像不包括边框时,从待检测视频中获取第一帧图像和第二帧图像。
其中,第一帧图像和第二帧图像均包括人脸图像。
在步骤205中,在人脸图像所在区域中确定第一目标像素,在非人脸图像所在区域中确定第二目标像素。
其中第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,第二目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值。
在步骤206中,根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值。
其中,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一目标像素包括人脸图像所在区域的像素,第二目标像素包括非人脸图像所在区域的像素。
在步骤207中,当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。
在步骤208中,当第一光流值与第二光流值的差值小于或等于光流差值阈值时,确定待检测视频中的人脸为假体人脸。
在步骤209中,根据第一光流值生成第一光流直方图,根据第二光流值生成第二光流直方图。
在步骤210中,当第一光流直方图与第二光流直方图的距离小于或等于距离阈值时,确定待检测视频中的人脸为假体人脸。
通过从待检测视频中获取均包括人脸图像的第一帧图像和第二帧图像,并根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,其中第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离。由于当待检测视频中的人脸为活体人脸时,该活体人脸与背景不应总处于同一个平面,活体人脸的移动速度大小与背景的移动速度大小差距较大,而当待检测视频中的人脸为假体人脸例如照片上的人脸时,假体人脸与背景位于同一平面的几率较大,既假体人脸的移动速度大小接近背景的移动速度大小。因此当第一光流值与第二光流值的差值大于光流差值阈值即确认待检测视频中的人脸的移动速度大小与待检测视频中背景的移动速度大小差距较大时,确定待检测视频中的人脸为活体人脸,从而提高了人脸识别的准确性,改善了用户体验。
下述为本公开装置实施例,可以用于执行本公开方法实施例。
图3a是根据一个示例性实施例示出的一种人脸识别装置30的框图,人脸识别装置30可以为终端或终端的一部分,也可以为服务器或服务器的一部分,人脸识别装置30可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。如图3a所示,该人脸识别装置30包括:
图像帧获取模块301,用于从待检测视频中获取第一帧图像和第二帧图像,第一帧图像和第二帧图像均包括人脸图像。
光流值获取模块302,用于根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值。
其中,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一目标像素包括人脸图像所在区域的像素,第二目标像素包括非人脸图像所在区域的像素。
第一活体人脸确定模块303,用于当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,如图3b所示,人脸识别装置30还包括:
第一假体人脸确定模块304,用于当第一光流值与第二光流值的差值小于或等于光流差值阈值时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,第一帧图像与第二帧图像之间的时间间隔小于或等于时间间隔阈值。
在一个实施例中,如图3c所示,人脸识别装置30还包括:
直方图生成模块305,用于根据第一光流值生成第一光流直方图,根据第二光流值生成第二光流直方图。
第二活体人脸确定模块306,用于当第一光流直方图与第二光流直方图的距离大于距离阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,如图3d所示,人脸识别装置30还包括:
边框检测模块307,用于对待检测视频中的图像进行边框检测。
第二假体人脸确定模块308,用于当根据边框检测结果确认待检测视频中的图像包括边框时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,如图3e所示,图像帧获取模块301包括:
边框检测子模块3011,用于对待检测视频中的图像进行边框检测;
图像帧获取子模块3012,用于当根据边框检测结果确定待检测视频中的图像不包括边框时,从待检测视频中获取第一帧图像和第二帧图像。
在一个实施例中,如图3f所示,人脸识别装置30还包括:
目标像素确定模块309,用于在人脸图像所在区域中确定第一目标像素,在非人脸图像所在区域中确定第二目标像素。
其中第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,第二目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值。
本公开的实施例提供一种人脸识别装置,该人脸识别装置可以通过获取待检测视频,并根据待检测视频中位于第一时刻的第一帧图像与待检测视频中位于第二时刻的第二帧图像获取第一光流值与第二光流值,其中第一光流值用于指示第一目标像素在第一时刻至第二时刻间的移动距离,第二光流值用于指示第二目标像素在第一时刻至第二时刻间的移动距离,第一帧图像的人脸区域以及第二帧图像的人脸区域均包括第一目标像素,第一帧图像的非人脸区域以及第二帧图像的非人脸区域均包括第二目标像素。由于当待检测视频中的人脸为活体人脸时,该活体人脸与背景不处于同一个平面,活体人脸的移动速度大小与背景的移动速度大小差距较大,而当待检测视频中的人脸为假体人脸例如照片上的人脸时,假体人脸与背景位于同一平面,假体人脸的移动速度大小接近背景的移动速度大小。因此当第一光流值与第二光流值的差值小于或等于光流差值阈值即确认第一时刻至第二时刻间待检测视频中的人脸的移动速度大小接近待检测视频中背景的移动速度大小时,确定待检测视频中的人脸为假体人脸,以避免包括假体人脸的待检测视频通过人脸识别,从而提高了人脸识别的准确性,改善了用户体验。
图4是根据一示例性实施例示出的一种人脸识别装置40的框图,该人脸识别装置40可以为终端或终端的一部分,也可以为服务器或服务器的一部分,人脸识别装置40包括:
处理器401;
用于存储处理器401可执行指令的存储器402;
其中,处理器401被配置为:
从待检测视频中获取第一帧图像和第二帧图像,第一帧图像和第二帧图像均包括人脸图像;
根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一目标像素包括人脸图像所在区域的像素,第二目标像素包括非人脸图像所在区域的像素;
当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,第一时刻与第二时刻之间的时间间隔小于或等于时间间隔阈值。
在一个实施例中,上述处理器401还可以被配置为:
当第一光流值与第二光流值的差值小于或等于光流差值阈值时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,第一帧图像与第二帧图像之间的时间间隔小于或等于时间间隔阈值。
在一个实施例中,上述处理器401还可以被配置为:
根据第一光流值生成第一光流直方图,根据第二光流值生成第二光流直方图;
当第一光流直方图与第二光流直方图的距离大于距离阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,上述处理器401还可以被配置为:
对待检测视频中的图像进行边框检测;
当根据边框检测结果确定待检测视频中的图像包括边框时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,上述处理器401还可以被配置为:
从待检测视频中获取第一帧图像和第二帧图像,包括:
对待检测视频中的图像进行边框检测;
当根据边框检测结果确定待检测视频中的图像不包括边框时,从待检测视频中获取第一帧图像和第二帧图像。
在一个实施例中,上述处理器401还可以被配置为:
在人脸图像所在区域中确定第一目标像素,在非人脸图像所在区域中确定第二目标像素,其中第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,第二目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值。
图5是根据一示例性实施例示出的一种用于人脸识别装置500的框图,该装置500可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
装置500可以包括以下一个或多个组件:处理组件502,存储器504,电源组件506,多媒体组件508,音频组件510,输入/输出(I/O)的接口512,传感器组件514,以及通信组件516。
处理组件502通常控制装置500的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件502可以包括一个或多个处理器520来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件502可以包括一个或多个模块,便于处理组件502和其他组件之间的交互。例如,处理组件502可以包括多媒体模块,以方便多媒体组件508和处理组件502之间的交互。
存储器504被配置未存储各种类型的数据以支持在装置500的操作。这些数据的示例包括用于在装置500上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器504可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件506为装置500的各种组件提供电力。电源组件506可以包括电源管理系统,一个或多个电源,及其他与为装置500生成、管理和分配电力相关联的组件。
多媒体组件508包括在装置500和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件508包括一个前置摄像头和/或后置摄像头。当装置500处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件510被配置为输出和/或输入音频信号。例如,音频组件510包括一个麦克风(MIC),当装置500处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器504或经由通信组件516发送。在一些实施例中,音频组件510还包括一个扬声器,用于输出音频信号。
I/O接口512为处理组件502和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件514包括一个或多个传感器,用于为装置500提供各个方面的状态评估。例如,传感器组件514可以检测到装置500的打开/关闭状态,组件的相对定位,例如所述组件为装置500的显示器和小键盘,传感器组件514还可以检测装置500或装置500一个组件的位置改变,用户与装置500接触的存在或不存在,装置500方位或加速/减速和装置500的温度变化。传感器组件514可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件514还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件514还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件516被配置为便于装置500和其他设备之间有线或无线方式的通信。装置500可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件516经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件516还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置500可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器504,上述指令可由装置500的处理器520执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置500的处理器执行时,使得装置500能够执行上述人脸识别方法,所述方法包括:
从待检测视频中获取第一帧图像和第二帧图像,第一帧图像和第二帧图像均包括人脸图像;
根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一目标像素包括人脸图像所在区域的像素,第二目标像素包括非人脸图像所在区域的像素;
当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,所述方法还包括:
当第一光流值与第二光流值的差值小于或等于光流差值阈值时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,第一帧图像与第二帧图像之间的时间间隔小于或等于时间间隔阈值。
在一个实施例中,所述方法还包括:
根据第一光流值生成第一光流直方图,根据第二光流值生成第二光流直方图;
当第一光流直方图与第二光流直方图的距离大于距离阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,所述方法还包括:
对待检测视频中的图像进行边框检测;
当根据边框检测结果确定待检测视频中的图像包括边框时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,从待检测视频中获取第一帧图像和第二帧图像,包括:
对待检测视频中的图像进行边框检测;
当根据边框检测结果确定待检测视频中的图像不包括边框时,从待检测视频中获取第一帧图像和第二帧图像。
在一个实施例中,所述方法还包括:
在人脸图像所在区域中确定第一目标像素,在非人脸图像所在区域中确定第二目标像素,其中第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,第二目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值。
图6是根据一示例性实施例示出的一种用于人脸识别的装置600的框图。例如,装置600可以被提供为一服务器。装置600包括处理组件622,其进一步包括一个或多个处理器,以及由存储器632所代表的存储器资源,用于存储可由处理组件622的执行的指令,例如应用程序。存储器632中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件622被配置为执行指令,以执行上述方法。
装置600还可以包括一个电源组件626被配置为执行装置600的电源管理,一个有线或无线网络接口650被配置为将装置600连接到网络,和一个输入输出(I/O)接口658。装置600可以操作基于存储在存储器632的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置600的处理器执行时,使得装置600能够执行人脸识别方法,所述方法包括:
从待检测视频中获取第一帧图像和第二帧图像,第一帧图像和第二帧图像均包括人脸图像;
根据第一帧图像与第二帧图像分别获取第一光流值与第二光流值,第一光流值用于指示第一目标像素在第一帧图像至第二帧图像间的移动距离,第二光流值用于指示第二目标像素在第一帧图像至第二帧图像间的移动距离,第一目标像素包括人脸图像所在区域的像素,第二目标像素包括非人脸图像所在区域的像素;
当第一光流值与第二光流值的差值大于光流差值阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,所述方法还包括:
当第一光流值与第二光流值的差值小于或等于光流差值阈值时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,第一帧图像与第二帧图像之间的时间间隔小于或等于时间间隔阈值。
在一个实施例中,所述方法还包括:
根据第一光流值生成第一光流直方图,根据第二光流值生成第二光流直方图;
当第一光流直方图与第二光流直方图的距离大于距离阈值时,确定待检测视频中的人脸为活体人脸。
在一个实施例中,所述方法还包括:
对待检测视频中的图像进行边框检测;
当根据边框检测结果确定待检测视频中的图像包括边框时,确定待检测视频中的人脸为假体人脸。
在一个实施例中,从待检测视频中获取第一帧图像和第二帧图像,包括:
对待检测视频中的图像进行边框检测;
当根据边框检测结果确定待检测视频中的图像不包括边框时,从待检测视频中获取第一帧图像和第二帧图像。
在一个实施例中,所述方法还包括:
在人脸图像所在区域中确定第一目标像素,在非人脸图像所在区域中确定第二目标像素,其中第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,第二目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (16)

1.一种人脸识别方法,其特征在于,包括:
从待检测视频中获取第一帧图像和第二帧图像,所述第一帧图像和所述第二帧图像均包括人脸图像;
根据所述第一帧图像与所述第二帧图像分别获取第一光流值与第二光流值,所述第一光流值用于指示第一目标像素在所述第一帧图像至所述第二帧图像间的移动距离,所述第二光流值用于指示第二目标像素在所述第一帧图像至所述第二帧图像间的移动距离,所述第一目标像素包括所述人脸图像所在区域的像素,所述第二目标像素包括非人脸图像所在区域的像素;
当所述第一光流值与所述第二光流值的差值大于光流差值阈值时,确定所述待检测视频中的人脸为活体人脸。
2.根据权利要求1所述的人脸识别方法,其特征在于,所述方法还包括:当所述第一光流值与所述第二光流值的差值小于或等于所述光流差值阈值时,确定所述待检测视频中的人脸为假体人脸。
3.根据权利要求1所述的人脸识别方法,其特征在于,所述第一帧图像与所述第二帧图像之间的时间间隔小于或等于时间间隔阈值。
4.根据权利要求1所述的人脸识别方法,其特征在于,所述方法还包括:
根据所述第一光流值生成第一光流直方图,根据所述第二光流值生成第二光流直方图;
当所述第一光流直方图与所述第二光流直方图的距离大于距离阈值时,确定所述待检测视频中的人脸为活体人脸。
5.根据权利要求1所述的人脸识别方法,其特征在于,所述方法还包括:
对所述待检测视频中的图像进行边框检测;
当根据边框检测结果确定所述待检测视频中的图像包括边框时,确定所述待检测视频中的人脸为假体人脸。
6.根据权利要求1所述的人脸识别方法,其特征在于,所述从待检测视频中获取第一帧图像和第二帧图像,包括:
对所述待检测视频中的图像进行边框检测;
当根据所述边框检测结果确定所述待检测视频中的图像不包括边框时,从所述待检测视频中获取所述第一帧图像和所述第二帧图像。
7.根据权利要求1所述的人脸识别方法,其特征在于,所述方法还包括:
在所述人脸图像所在区域中确定所述第一目标像素,在所述非人脸图像所在区域中确定所述第二目标像素,其中所述第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,所述第二目标像素与其相邻像素的灰度值之间的差值大于或等于所述灰度差值阈值。
8.一种人脸识别装置,其特征在于,包括:
图像帧获取模块,用于从待检测视频中获取第一帧图像和第二帧图像,所述第一帧图像和所述第二帧图像均包括人脸图像;
光流值获取模块,用于根据所述第一帧图像与所述第二帧图像分别获取第一光流值与第二光流值,所述第一光流值用于指示第一目标像素在所述第一帧图像至所述第二帧图像间的移动距离,所述第二光流值用于指示第二目标像素在所述第一帧图像至所述第二帧图像间的移动距离,所述第一目标像素包括所述人脸图像所在区域的像素,所述第二目标像素包括非人脸图像所在区域的像素;
第一活体人脸确定模块,用于当所述第一光流值与所述第二光流值的差值大于光流差值阈值时,确定所述待检测视频中的人脸为活体人脸。
9.根据权利要求8所述的人脸识别装置,其特征在于,所述装置还包括:
第一假体人脸确定模块,用于当所述第一光流值与所述第二光流值的差值小于或等于所述光流差值阈值时,确定所述待检测视频中的人脸为假体人脸。
10.根据权利要求8所述的人脸识别装置,其特征在于,所述第一帧图像与所述第二帧图像之间的时间间隔小于或等于时间间隔阈值。
11.根据权利要求8所述的人脸识别装置,其特征在于,所述装置还包括:
直方图生成模块,用于根据所述第一光流值生成第一光流直方图,根据所述第二光流值生成第二光流直方图;
第二活体人脸确定模块,用于当所述第一光流直方图与所述第二光流直方图的距离大于距离阈值时,确定所述待检测视频中的人脸为活体人脸。
12.根据权利要求8所述的人脸识别装置,其特征在于,所述装置还包括:
边框检测模块,用于对所述待检测视频中的图像进行边框检测;
第二假体人脸确定模块,用于当根据边框检测结果确认所述待检测视频中的图像包括边框时,确定所述待检测视频中的人脸为假体人脸。
13.根据权利要求12所述的人脸识别装置,其特征在于,所述图像帧获取模块包括:
边框检测子模块,用于对所述待检测视频中的图像进行边框检测;
图像帧获取子模块,用于当根据所述边框检测结果确定所述待检测视频中的图像不包括边框时,从所述待检测视频中获取所述第一帧图像和所述第二帧图像。
14.根据权利要求8所述的人脸识别装置,其特征在于,所述装置还包括:
目标像素确定模块,用于在所述人脸图像所在区域中确定所述第一目标像素,在所述非人脸图像所在区域中确定所述第二目标像素,其中所述第一目标像素与其相邻像素的灰度值之间的差值大于或等于灰度差值阈值,所述第二目标像素与其相邻像素的灰度值之间的差值大于或等于所述灰度差值阈值。
15.一种人脸识别装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
从待检测视频中获取第一帧图像和第二帧图像,所述第一帧图像和所述第二帧图像均包括人脸图像;
根据所述第一帧图像与所述第二帧图像分别获取第一光流值与第二光流值,所述第一光流值用于指示第一目标像素在所述第一帧图像至所述第二帧图像间的移动距离,所述第二光流值用于指示第二目标像素在所述第一帧图像至所述第二帧图像间的移动距离,所述第一目标像素包括所述人脸图像所在区域的像素,所述第二目标像素包括非人脸图像所在区域的像素;
当所述第一光流值与所述第二光流值的差值大于光流差值阈值时,确定所述待检测视频中的人脸为活体人脸。
16.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-7任一项所述方法的步骤。
CN201710725441.1A 2017-08-22 2017-08-22 人脸识别方法及装置 Pending CN107688781A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710725441.1A CN107688781A (zh) 2017-08-22 2017-08-22 人脸识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710725441.1A CN107688781A (zh) 2017-08-22 2017-08-22 人脸识别方法及装置

Publications (1)

Publication Number Publication Date
CN107688781A true CN107688781A (zh) 2018-02-13

Family

ID=61153660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710725441.1A Pending CN107688781A (zh) 2017-08-22 2017-08-22 人脸识别方法及装置

Country Status (1)

Country Link
CN (1) CN107688781A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108388881A (zh) * 2018-03-15 2018-08-10 广东工业大学 一种区分真人和照片回放的防伪方法及装置
CN108537131A (zh) * 2018-03-15 2018-09-14 中山大学 一种基于人脸特征点和光流场的人脸识别活体检测方法
CN109729231A (zh) * 2018-12-17 2019-05-07 中国科学院深圳先进技术研究院 一种文件扫描方法、装置及设备
CN111046804A (zh) * 2019-12-13 2020-04-21 北京旷视科技有限公司 活体检测方法、装置、电子设备及可读存储介质
CN111046788A (zh) * 2019-12-10 2020-04-21 北京文安智能技术股份有限公司 一种停留人员的检测方法、装置及系统
CN111583485A (zh) * 2020-04-16 2020-08-25 北京澎思科技有限公司 小区门禁系统、门禁控制方法和装置、门禁单元及介质
CN111985423A (zh) * 2020-08-25 2020-11-24 深圳前海微众银行股份有限公司 活体检测方法、装置、设备及可读存储介质
CN112052726A (zh) * 2020-07-28 2020-12-08 北京极豪科技有限公司 图像处理方法及装置
CN112949365A (zh) * 2019-12-10 2021-06-11 纬创资通股份有限公司 活体脸部辨识系统与方法
CN113255399A (zh) * 2020-02-10 2021-08-13 北京地平线机器人技术研发有限公司 目标匹配方法和系统、服务端、云端、存储介质、设备
WO2021169616A1 (zh) * 2020-02-27 2021-09-02 深圳壹账通智能科技有限公司 非活体人脸的检测方法、装置、计算机设备及存储介质
WO2022134418A1 (zh) * 2020-12-24 2022-06-30 平安科技(深圳)有限公司 视频识别方法及相关设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101908140A (zh) * 2010-07-29 2010-12-08 中山大学 一种在人脸识别中应用的活体检测方法
CN105243378A (zh) * 2015-11-13 2016-01-13 清华大学 基于眼部信息的活体人脸检测方法及装置
CN105447432A (zh) * 2014-08-27 2016-03-30 北京千搜科技有限公司 一种基于局部运动模式的人脸防伪方法
CN106650670A (zh) * 2016-12-27 2017-05-10 北京邮电大学 活体人脸视频的检测方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101908140A (zh) * 2010-07-29 2010-12-08 中山大学 一种在人脸识别中应用的活体检测方法
CN105447432A (zh) * 2014-08-27 2016-03-30 北京千搜科技有限公司 一种基于局部运动模式的人脸防伪方法
CN105243378A (zh) * 2015-11-13 2016-01-13 清华大学 基于眼部信息的活体人脸检测方法及装置
CN106650670A (zh) * 2016-12-27 2017-05-10 北京邮电大学 活体人脸视频的检测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨健伟: "面向人脸识别的人脸活体检测方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537131A (zh) * 2018-03-15 2018-09-14 中山大学 一种基于人脸特征点和光流场的人脸识别活体检测方法
CN108537131B (zh) * 2018-03-15 2022-04-15 中山大学 一种基于人脸特征点和光流场的人脸识别活体检测方法
CN108388881A (zh) * 2018-03-15 2018-08-10 广东工业大学 一种区分真人和照片回放的防伪方法及装置
CN109729231A (zh) * 2018-12-17 2019-05-07 中国科学院深圳先进技术研究院 一种文件扫描方法、装置及设备
CN112949365A (zh) * 2019-12-10 2021-06-11 纬创资通股份有限公司 活体脸部辨识系统与方法
CN111046788A (zh) * 2019-12-10 2020-04-21 北京文安智能技术股份有限公司 一种停留人员的检测方法、装置及系统
CN111046804A (zh) * 2019-12-13 2020-04-21 北京旷视科技有限公司 活体检测方法、装置、电子设备及可读存储介质
CN113255399A (zh) * 2020-02-10 2021-08-13 北京地平线机器人技术研发有限公司 目标匹配方法和系统、服务端、云端、存储介质、设备
WO2021169616A1 (zh) * 2020-02-27 2021-09-02 深圳壹账通智能科技有限公司 非活体人脸的检测方法、装置、计算机设备及存储介质
CN111583485A (zh) * 2020-04-16 2020-08-25 北京澎思科技有限公司 小区门禁系统、门禁控制方法和装置、门禁单元及介质
CN112052726A (zh) * 2020-07-28 2020-12-08 北京极豪科技有限公司 图像处理方法及装置
CN111985423A (zh) * 2020-08-25 2020-11-24 深圳前海微众银行股份有限公司 活体检测方法、装置、设备及可读存储介质
WO2022134418A1 (zh) * 2020-12-24 2022-06-30 平安科技(深圳)有限公司 视频识别方法及相关设备

Similar Documents

Publication Publication Date Title
CN107688781A (zh) 人脸识别方法及装置
TWI724736B (zh) 圖像處理方法及裝置、電子設備、儲存媒體和電腦程式
CN105491289B (zh) 防止拍照遮挡的方法及装置
CN104850828B (zh) 人物识别方法及装置
CN104243819B (zh) 照片获取方法及装置
WO2017088266A1 (zh) 图片处理方法及装置
CN106951884A (zh) 采集指纹的方法、装置及电子设备
CN107368810A (zh) 人脸检测方法及装置
CN111127509B (zh) 目标跟踪方法、装置和计算机可读存储介质
CN107944367B (zh) 人脸关键点检测方法及装置
CN105631403A (zh) 人脸识别方法及装置
CN105069426B (zh) 相似图片判断方法以及装置
JP2017534933A (ja) 命令生成方法及び装置
WO2020114236A1 (zh) 关键点检测方法、装置、电子设备及存储介质
CN105631803B (zh) 滤镜处理的方法和装置
CN107330868A (zh) 图片处理方法及装置
CN105975961B (zh) 人脸识别的方法、装置及终端
CN106774849B (zh) 虚拟现实设备控制方法及装置
CN108154466A (zh) 图像处理方法及装置
CN107463052A (zh) 拍摄曝光方法及装置
CN107958223A (zh) 人脸识别方法及装置、移动设备、计算机可读存储介质
EP3447666A1 (en) Processing fingerprint information
CN107704190A (zh) 手势识别方法、装置、终端及存储介质
CN109034150A (zh) 图像处理方法及装置
CN107330391A (zh) 产品信息提示方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180213

RJ01 Rejection of invention patent application after publication