CN112836627A - 活体检测方法和装置 - Google Patents

活体检测方法和装置 Download PDF

Info

Publication number
CN112836627A
CN112836627A CN202110134215.2A CN202110134215A CN112836627A CN 112836627 A CN112836627 A CN 112836627A CN 202110134215 A CN202110134215 A CN 202110134215A CN 112836627 A CN112836627 A CN 112836627A
Authority
CN
China
Prior art keywords
sequence
sample
random
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110134215.2A
Other languages
English (en)
Other versions
CN112836627B (zh
Inventor
宗志远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202110134215.2A priority Critical patent/CN112836627B/zh
Publication of CN112836627A publication Critical patent/CN112836627A/zh
Application granted granted Critical
Publication of CN112836627B publication Critical patent/CN112836627B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本说明书实施例提供了活体检测方法和装置,该方法首先确定是否接收到对待认证的用户的认证请求,如果接收到,则生成至少两个随机行为;每一个随机行为指示一个被遮挡的面部部位;将至少两个随机行为进行随机组合,生成随机行为序列;将随机行为序列发送给用户;接收用户发来的待验证视频;利用待验证视频,得到遮挡动作序列;该遮挡动作序列中包括依序排列的至少两个被遮挡的面部部位;判断遮挡动作序列中包括的至少两个被遮挡的面部部位以及在遮挡动作序列中的顺序与至少两个随机行为所指示的至少两个被遮挡的面部部位以及在随机行为序列中的顺序是否相同;如果均相同,则通知用户活体检测通过。

Description

活体检测方法和装置
技术领域
本说明书一个或多个实施例涉及图像处理技术领域,尤其涉及活体检测方法和装置。
背景技术
活体检测是生物识别的关键,它的目标是确保生物识别输入的数据是“活人”产生的。然而,随着生物核身与生物支付技术的快速发展,针对生物识别的攻击也越来越多。这些攻击的主要目标都是利用仿造的非活体输入数据比如预先录制的视频、图像等,来使得活体检测成功,完成生物信息的对比。因此,需要提供一种更为安全的活体检测方法。
发明内容
本说明书一个或多个实施例描述了活体检测方法和装置,能够提高活体检测的安全性。
根据第一方面,提供了一种活体检测方法,包括:
接收到对待认证的用户的认证请求;
生成至少两个随机行为;每一个所述随机行为指示一个被遮挡的面部部位,且不同的随机行为所指示的被遮挡的面部部位不同;
将所述至少两个随机行为进行随机组合,生成随机行为序列;
将所述随机行为序列发送给所述用户;
接收所述用户发来的待验证视频;
利用所述待验证视频,得到遮挡动作序列;该遮挡动作序列中包括依序排列的至少两个被遮挡的面部部位;
判断所述遮挡动作序列中包括的至少两个被遮挡的面部部位与所述至少两个随机行为所指示的至少两个被遮挡的面部部位是否相同,以及
判断所述遮挡动作序列中包括的至少两个被遮挡的面部部位在所述遮挡动作序列中的顺序与所述至少两个随机行为所指示的至少两个被遮挡的面部部位在所述随机行为序列中的顺序是否相同;
如果均相同,则活体检测通过。
在本说明书的一个实施例中,在所述接收到待认证的用户的认证请求之后,并在所述生成至少两个随机行为之前,进一步包括:
根据所述认证请求中携带的业务类型信息,确定风险等级;
根据所确定的风险等级,确定需要生成的随机行为的个数。
在本说明书的一个实施例中,所述利用所述待验证视频,得到遮挡动作序列,包括:
对所述待验证视频进行分帧,得到至少两个待识别图像;
将所述至少两个待识别图像输入预先训练的遮挡动作识别模型;
得到由所述遮挡动作识别模型输出的所述遮挡动作序列;
其中,所述遮挡动作识别模型通过至少两组第一样本集训练得到,每一组第一样本集中包括作为输入的第一样本图像以及作为输出的对该第一样本图像中包括的被遮挡的面部部位的识别结果。
在本说明书的一个实施例中,至少两个面部部位中的每一个面部部位均对应有至少两组第一样本集;
每一个面部部位对应的第一样本集中第一样本图像的生成方法包括:
得到人脸图像;
对所述人脸图像中的目标面部部位进行遮挡处理,得到对应该目标面部部位的第一样本图像。
在本说明书的一个实施例中,所述遮挡处理包括如下中的任一项:裁剪、抠除、虚化、添加阴影。
在本说明书的一个实施例中,所述遮挡动作识别模型进一步通过至少两组第二样本集训练得到;每一组第二样本集中包括作为输入的第二样本图像以及作为输出的丢弃指令;
第二样本集中第二样本图像的生成方法包括:
得到人脸图像;
对所述人脸图像进行扰动处理,将扰动处理后的人脸图像作为所述第二样本图像。
在本说明书的一个实施例中,所述遮挡动作识别模型进一步通过至少两组第三样本集训练得到;每一组第三样本集中包括作为输入的第三样本图像以及作为输出的丢弃指令;
第三样本集中作为输入的第三样本图像的生成方法包括:
得到人脸图像;
对所述人脸图像进行头部姿态模拟处理,将头部姿态模拟处理后的人脸图像作为所述第三样本图像。
在本说明书的一个实施例中,在所述接收所述用户发来的待验证视频之后,并在确定活体检测通过之前,进一步包括:
从所述待验证视频中获取人脸图像;
利用从所述待验证视频中获取的人脸图像进行静默活体检测;
在各判断的判断结果均为相同,且所述静默活体检测通过之后,确定活体检测通过。
根据第二方面,提供了一种活体检测装置,包括:
活体检测启动模块,配置为接收对待认证的用户的认证请求;
随机行为生成模块,配置为生成至少两个随机行为;将所述至少两个随机行为进行随机组合,生成随机行为序列;每一个所述随机行为指示一个被遮挡的面部部位,且不同的随机行为所指示的被遮挡的面部部位不同;以及将所述随机行为序列发送给所述用户;
遮挡动作序列获取模块,配置为接收所述用户发来的待验证视频;利用所述待验证视频,得到遮挡动作序列;该遮挡动作序列中包括依序排列的至少两个被遮挡的面部部位;
判断模块,配置为判断所述遮挡动作序列中包括的至少两个被遮挡的面部部位与所述至少两个随机行为所指示的至少两个被遮挡的面部部位是否相同,以及判断所述遮挡动作序列中包括的至少两个被遮挡的面部部位在所述遮挡动作序列中的顺序与所述至少两个随机行为所指示的至少两个被遮挡的面部部位在所述随机行为序列中的顺序是否相同;
检测结果确定模块,配置为在所述判断模块的判断结果均为相同时,确定活体检测通过。
在本说明书的一个实施例中,进一步包括:随机行为个数获取模块;
所述随机行为个数获取模块被配置为执行如下处理:
根据所述认证请求中携带的业务类型信息,确定风险等级;
根据所确定的风险等级,确定需要生成的随机行为的个数。
在本说明书的一个实施例中,所述遮挡动作序列获取模块被配置为执行如下处理:
对所述待验证视频进行分帧,得到至少两个待识别图像;
将所述至少两个待识别图像输入预先训练的遮挡动作识别模型;
得到由所述遮挡动作识别模型输出的所述遮挡动作序列;
其中,所述遮挡动作识别模型通过至少两组第一样本集训练得到,每一组第一样本集中包括作为输入的第一样本图像以及作为输出的对该第一样本图像中包括的被遮挡的面部部位的识别结果。
在本说明书的一个实施例中,至少两个面部部位中的每一个面部部位均对应有至少两组第一样本集;
所述遮挡动作序列获取模块包括:第一样本集获取子模块;
所述第一样本集获取子模块被配置为执行如下处理:
得到人脸图像;
对所述人脸图像中的目标面部部位进行遮挡处理,得到对应该目标面部部位的第一样本图像。
在本说明书的一个实施例中,所述遮挡处理包括如下中的任一项:裁剪、抠除、虚化、添加阴影。
在本说明书的一个实施例中,所述遮挡动作识别模型进一步通过至少两组第二样本集训练得到;每一组第二样本集中包括作为输入的第二样本图像以及作为输出的丢弃指令;
所述遮挡动作序列获取模块进一步包括:第二样本集获取子模块;
所述第二样本集获取子模块被配置为执行如下处理:
得到人脸图像;
对所述人脸图像进行扰动处理,将扰动处理后的人脸图像作为所述第二样本图像。
在本说明书的一个实施例中,所述遮挡动作识别模型进一步通过至少两组第三样本集训练得到;每一组第三样本集中包括作为输入的第三样本图像以及作为输出的丢弃指令;
所述遮挡动作序列获取模块进一步包括:第三样本集获取子模块;
所述第三样本集获取子模块被配置为执行如下处理:
得到人脸图像;
对所述人脸图像进行头部姿态模拟处理,将头部姿态模拟处理后的人脸图像作为所述第三样本图像。
在本说明书的一个实施例中,进一步包括:静默活体检测模块;
所述静默活体检测模块被配置为执行如下处理:
在所述接收所述用户发来的待验证视频之后,从所述待验证视频中获取人脸图像;
利用从所述待验证视频中获取的人脸图像进行静默活体检测;
在各判断的判断结果均为相同,且所述静默活体检测通过之后,确定活体检测通过。
根据第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行本说明书任一实施例所述的方法。
根据第四方面,提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现本说明书任一实施例所述的方法。
根据本说明书实施例提供的活体检测方法和装置,通过接收对待认证的用户的认证请求,可以生成随机行为序列。由于随机行为序列由至少两个被遮挡面部部位的随机行为随机组合而成,该随机行为序列并不固定,所以提高了活体检测的安全性。基于该随机行为序列,接收用户发来的待验证视频,利用该待验证得到遮挡动作序列。然后通过判断遮挡动作序列中每一个被遮挡的面部部位与随机行为中每一个被遮挡的面部部位是否相同,以及判断遮挡动作序列中每一个被遮挡的面部部位的顺序是否与每一个随机行为所指示的被遮挡的面部部位在随机行为序列中的顺序相同,当判断结果均为相同时,则活体检测通过。基于随机行为和随机行为序列,既实现了对用户的活体检测,又提高了对生物识别的攻击难度,进而提高活体检测的安全性。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本说明书一个实施例提供的活体检测方法的流程图;
图2是本说明书一个实施例提供的活体检测装置的一种结构示意图;
图3是本说明书一个实施例提供的活体检测装置的另一种结构示意图;
图4是本说明书一个实施例提供的活体检测装置的又一种结构示意图;
图5是本说明书一个实施例提供的活体检测装置的再一种结构示意图。
具体实施方式
在现有的活体检测过程中,待认证的用户在用户端启动认证请求时,用户端会下发对应的动作指令以获取到人脸图像或视频,并根据判断所获取到的人脸图像或视频是否与动作指令中的动作行为是否一致来进行活体检测。比如,用户端通过语音提示动作指令:眨眼,当用户完成眨眼时,则活体检测通过。
可见,现有活体检测方法中的动作行为较简单,且动作行为排列顺序固定,通过预先录制的视频、图像等也可以使该活体检测成功,实现对该认证请求的攻击,导致用户体验较差,甚至会导致用户信息泄露。因此,现有活体检测方法的安全性较低。
为此,本说明书实施例能够将活体检测方法中的动作行为进行复杂化,首先,动作行为不再是简单的面部动作如眨眼,而是对面部部位进行遮挡,即利用手臂等配合对面部部位比如眼部进行遮挡,从而增加动作行为本身的难度;其次,还可以将不同的遮挡动作进行随机组合,进一步提高动作行为的难度,因此能够提高活体检测的安全性。
下面介绍本说明书实施例构思的实现方式。
图1示出根据一个实施例的活体检测方法的流程图。可以理解,该方法可以通过任何具有计算、处理能力的装置、设备、平台、设备集群来执行。
参见图1,该方法包括:
步骤101:接收到对待认证的用户的认证请求;
步骤103:生成至少两个随机行为;每一个随机行为指示一个被遮挡的面部部位,且不同的随机行为所指示的被遮挡的面部部位不同;
步骤105:将至少两个随机行为进行随机组合,生成随机行为序列;
步骤107:将随机行为序列发送给用户;
步骤109:接收用户发来的待验证视频;
步骤111:利用待验证视频,得到遮挡动作序列;该遮挡动作序列中包括依序排列的至少两个被遮挡的面部部位;
步骤113:判断遮挡动作序列中包括的至少两个被遮挡的面部部位与至少两个随机行为所指示的至少两个被遮挡的面部部位是否相同;
步骤115:判断遮挡动作序列中包括的至少两个被遮挡的面部部位在遮挡动作序列中的顺序与至少两个随机行为所指示的至少两个被遮挡的面部部位在随机行为序列中的顺序是否相同;如果均相同,则活体检测通过。
在该实施例中,通过接收对待认证的用户的认证请求,可以生成随机行为序列。由于随机行为序列由至少两个被遮挡面部部位的随机行为随机组合而成,该随机行为序列并不固定,所以提高了活体检测的安全性。基于该随机行为序列,接收用户发来的待验证视频,利用该待验证得到遮挡动作序列。然后通过判断遮挡动作序列中每一个被遮挡的面部部位与随机行为中每一个被遮挡的面部部位是否相同,以及判断遮挡动作序列中每一个被遮挡的面部部位的顺序是否与每一个随机行为所指示的被遮挡的面部部位在随机行为序列中的顺序相同,当判断结果均为相同时,则活体检测通过。基于随机行为和随机行为序列,既实现了对用户的活体检测,又提高了对生物识别的攻击难度,进而提高活体检测的安全性。
下面对图1所示的各个步骤进行说明。
在本说明书的一个实施例中,步骤101中接收到对待认证的用户的认证请求的方式有如下两种:
第一种方式为:如果待认证的用户在进行用户端的登录,则表示用户有进行活体检测的意愿,因此,可以在接收到登录请求时,视为接收到对待认证的用户的认证请求,从而启动执行图1中所示的活体检测方法。
第二种方式为:如果待认证的用户在利用用户端进行支付,则表示用户有进行活体检测的意愿,因此,可以在接收到支付请求时,视为接收到对待认证的用户的认证请求,从而启动执行图1中所示的活体检测方法。
在本说明书的一个实施例中,在步骤101接收到待认证的用户的认证请求之后,并执行上述步骤103之前,还可以进一步包括:
首先,根据认证请求中携带的业务类型信息,确定风险等级;
其次,根据所确定的风险等级,确定步骤103中所需生成的随机行为的个数。
比如,认证请求中携带的业务类型信息表示当前的业务处理为登录,因为登录对应的风险等级相对较低,因此,可以确定风险等级为1级,需要生成的随机行为的个数为2个。再如,认证请求中携带的业务类型信息表示当前的业务处理为小额度支付,则可以确定风险等级为2级,需要生成的随机行为的个数为3个;又如,认证请求中携带的业务类型信息表示当前的业务处理为大额度支付,对应支付中的大额度支付的分险等级为3,需要生成的随机行为的个数为5个。
具体地,不同的业务类型信息的风险等级不同,对应风险等级较高的业务类型信息,为了保证用户的安全信息不被泄漏,需要生成的随机行为的个数则相应较多,由于随机行为个数越多,随机组合获得的随机行为序列则越复杂,所以活体检测过程中被攻击的难度则相应提高,活体检测的安全性更高;同时针对风险等级较低的业务类型信息,在保证活性检测安全性的前提下,需要生成的随机行为的个数则相应较少。
接下来,在步骤103中生成至少两个随机行为,且至少两个随机行为所指示的被遮挡的面部部位不同。
比如,可以生成遮挡右眼、遮挡左耳、遮挡额头三个随机行为。
接下来,在步骤105中将至少两个随机行为进行随机组合,比如,将遮挡右眼、遮挡左耳、遮挡额头三个随机行为进行随机组合,生成随机行为序列。因为该三个随机行为组合的方式有多种,因此,生成的随机行为序列可以是如下随机序列中的任意一种:
随机序列1:遮挡右眼--遮挡额头--遮挡左耳;
随机序列2:遮挡右眼--遮挡左耳--遮挡额头;
随机序列3:遮挡额头--遮挡右眼--遮挡左耳;
随机序列4:遮挡额头--遮挡左耳--遮挡右眼;
随机序列5:遮挡左耳--遮挡额头--遮挡右眼;
随机序列6:遮挡左耳--遮挡右眼--遮挡额头。
可见,相同的随机行为,因为组合方式不同,可以得到不同的随机行为序列,从而能够进一步提高仿冒、预测的难度。
接下来,在步骤107中,将随机行为序列发送给用户。
此后,用户在接收到随机行为序列后,则可以开启用户终端的摄像头,录制视频,按照接收到的随机行为序列中每一个面部遮挡动作及其先后顺序,由该用户依次执行每一个面部遮挡动作,从而录制形成待验证视频。然后,就可以通过用户终端发送录制好的待验证视频。
接下来,在步骤109中接收用户发来的待验证视频。
具体地,为了保证视频的连续性,避免仿造拼接的视频对该活体检测方法进行攻击,在接收到用户发来的待验证视频之后,可以对该待验证视频进行连续性检测,比如,可以采用现有技术中的光流算法来判断该待验证视频的连续性;也可以采用哈希算法计算待验证视频分帧处理后的每一帧待识别图像中的背景图像的相似度,并在每一帧待识别图像中背景图像的相似度均达到预设阈值时,确定该待验证视频的连续性。之后,如果连续性检测通过,则可以继续执行后续步骤的处理。
接下来,在步骤111中,利用待验证视频,得到遮挡动作序列,该遮挡动作序列中包括依序排列的至少两个被遮挡的面部部位。
在本说明书一个实施例中,为了提高识别精度,可以预先训练一个遮挡动作识别模型,并由该模型得到遮挡动作序列。具体实现过程可以包括:
首先,对待验证视频进行分帧,得到至少两个待识别图像;
其次,将至少两个待识别图像输入预先训练的遮挡动作识别模型;
最后,得到由遮挡动作识别模型输出的遮挡动作序列。
其中,遮挡动作识别模型可以通过至少两组第一样本集训练得到,每一组第一样本集中包括作为输入的第一样本图像以及作为输出的对该第一样本图像中包括的被遮挡的面部部位的识别结果。
具体地,首先对待验证视频进行分帧,所得到的每一帧图像均为待识别图像,其中,每一个待识别图像均按照分帧时的时间顺序排列,将每一个待识别图像均输入至预先训练的遮挡动作识别模型中,该遮挡动作识别模型对每一个待识别图像进行识别,以确定该待识别图像中被遮挡的面部部位,然后按照分帧的时间顺序将所确定的包括被遮挡面部部位的待识别图像进行排列,获得初始遮挡动作序列,然后将该初始遮挡动作序列中相邻且遮挡面部部位相同的待识别图像进行合并保留,输出遮挡动作序列。
具体地,遮挡动作识别模型可以使用ResNet轻量级网络架构进行训练。
通过上述处理,利用第一样本集训练遮挡动作识别模型后,则可以利用该模型识别出待验证视频的图像中包括的被遮挡的面部部位。
具体地,待识别图像可以包括被遮挡面部部位的图像、模糊人脸图像、模糊且被遮挡面部部位的图像、清晰人脸图像以及包括头部姿态的人脸图像中的至少一种。例如,对待验证视频按等时间间隔进行分帧,所得到的待识别图像依次为清晰人脸图像、遮挡右眼的图像、模糊人脸图像、遮挡左耳的图像、遮挡左耳的图像、模糊且遮挡额头的图像、遮挡额头的图像和头部姿态为侧头的人脸图像,然后将上述待识别图像输入遮挡动作识别模型中,获得初始遮挡动作序列:遮挡右眼的图像、遮挡左耳的图像、遮挡左耳的图像、遮挡额头的图像,然后将相邻且遮挡面部部位相同的待识别图像进行合并保留,输出遮挡动作序列:遮挡右眼的图像、遮挡左耳的图像、遮挡额头的图像。
为了得到遮挡动作序列,通过至少两组第一样本集对遮挡动作模型进行训练,其中每一种第一样本集中包括作为输入的第一样本图像以及作为输出的对该第一样本图像中包括的被遮挡的面部部位的识别结果。
因为人脸中的面部部位较多,包括眼睛、鼻子、耳朵、眉毛等,针对每一个面部部位,都需要训练遮挡动作识别模型来识别针对该面部部位的遮挡动作。因此,本说明书一个实施例中,至少两个面部部位中的每一个面部部位均对应有至少两组第一样本集;
每一个面部部位对应的第一样本集中第一样本图像的生成方法包括:
得到人脸图像;
对人脸图像中的目标面部部位进行遮挡处理,得到对应该目标面部部位的第一样本图像。
具体地,首先得到人脸图像,然后对人脸图像中的目标面部部位进行遮挡处理,可以得到对应该目标面部部位的第一样本图像,将多个第一样本图像进行组合则得到针对该目标面部部位的第一样本集,该第一样本集的输出为该目标面部部位。同样的,每一个面部部位均对应有至少两组通过上述方法获得的第一样本集。
本说明书一个实施例中,遮挡处理包括如下中的任一项:裁剪、抠除、虚化、添加阴影。
进一步地,对用户录制待验证视频的过程进行分析可知,用户在录制视频时做出的动作包括:第一个面部遮挡动作、放下手臂、头部姿态动作(比如低头、转动头部等)、第二个面部遮挡动作、放下手臂等。因此,所录制的待验证视频中会包括如下三类图像:带有被遮挡的面部部位的图像、由于用户放下手臂的动作形成的模糊人脸图像及清晰人脸图像、用户头部姿态动作图像。由于待验证视频中包括该三类图像,因此,可以分别利用该三类图像对遮挡动作识别模型进行训练,以便该模型能够从待验证视频中更为准确地区分出,哪些图像属于被遮挡的面部部分的图像,哪些图像不属于于被遮挡的面部部分的图像。上述第一样本集正是针对带有被遮挡的面部部位的图像,来对遮挡动作识别模型进行训练。因此,在本说明书的一个实施例中,还可以针对上述模糊人脸图像及变换头部姿态的人脸图像分别生成第二样本集及第三样本集,以对模型进行训练。
利用第二样本集的模型实现过程,包括:
在本说明书的一个实施例中,遮挡动作识别模型进一步通过至少两组第二样本集训练得到;每一组第二样本集中包括作为输入的第二样本图像以及作为输出的丢弃指令;
第二样本集中第二样本图像的生成方法包括:
得到人脸图像;
对人脸图像进行扰动处理,将扰动处理后的人脸图像作为第二样本图像。
具体地,首先得到人脸图像,然后对人脸图像进行扰动处理则可以获得第二样本图像,将多个第二样本图像进行组合则得到第二样本集,该第二样本集的输出为将第二样本图像丢弃。比如,将人脸图像(比如,清晰人脸图像、包括遮挡面部部位的清晰人脸图像)进行模糊、曝光、阴影等扰动处理后,获得第二样本图像。
利用第三样本集的模型实现过程,包括:
在本说明书一个实施例中,因为用户在更换遮挡动作过程中可能会出现点头、侧头等包括头部姿态的动作,所以在步骤111对待验证视频进行分帧,得到的至少两个待识别图像中还有包括头部姿态的人脸图像,因此为了提高遮挡动作识别模型得到遮挡动作序列的准确性,对遮挡动作模型进行训练的样本集中还应包括头部姿态的人脸图像。具体地,
在本说明书一个实施例中,遮挡动作识别模型进一步通过至少两组第三样本集训练得到;每一组第三样本集中包括作为输入的第三样本图像以及作为输出的丢弃指令;
第三样本集中作为输入的第三样本图像的生成方法包括:
得到人脸图像;
对人脸图像进行头部姿态模拟处理,将头部姿态模拟处理后的人脸图像作为第三样本图像。
具体地,首先得到人脸图像,然后对人脸图像中的进行头部姿态模拟处理则可以获得第三样本图像,将多个第三样本图像进行组合则得到第三样本集,该第三样本集的输出为将第三样本图像丢弃。比如,将人脸图像利用Deepfake技术(例如,FaceSwap、Avatarity软件等)进行头部左右旋转、头部上下摆动等头部姿态模拟处理后,获得包括点头、侧头、抬头等头部姿态的第三样本图像。
接下来,步骤113中判断遮挡动作序列中包括的至少两个被遮挡的面部部位与至少两个随机行为所指示的至少两个被遮挡的面部部位是否相同,比如,遮挡动作模型输出的遮挡动作序列中包括的至少两个被遮挡的面部部位:遮挡右眼、遮挡左耳、遮挡额头,随机行为所指示的被遮挡的面部部位分别为遮挡右眼、遮挡左耳、遮挡额头,则判断结果为是,接下来执行步骤115。如果判断结果为否,则结束当前流程,然后可以执行步骤101重新进行活体检测。
接下来,步骤115判断遮挡动作序列中包括的至少两个被遮挡的面部部位在遮挡动作序列中的顺序与至少两个随机行为所指示的至少两个被遮挡的面部部位在随机行为序列中的顺序是否相同,比如,遮挡动作模型输出的遮挡动作序列为遮挡右眼--遮挡左耳--遮挡额头,随机行为序列为遮挡右眼--遮挡左耳--遮挡额头,则判断结果相同,确定活体检测通过。如果判断结果不相同,则结束当前流程,然后可以执行步骤101重新进行活体检测。
接下来,为了进一步提高活体检测方法的安全性,更加有效地防止照片、视频、3D面具等各类手段的攻击,提升用户远程验证身份真实性的同时,增加了静默活体检测,在本说明另一个实施例中,在步骤109接收用户发来的待验证视频之后,并在确定活体检测通过之前,进一步包括:
从待验证视频中获取人脸图像;
利用从待验证视频中获取的人脸图像进行静默活体检测;
在图1中所示的各判断的判断结果均为相同,且静默活体检测通过之后,确定活体检测通过。
具体地,在步骤115的判断结果不是均相同,则活体检测未通过,并结束当前流程,然后可以执行步骤101重新进行活体检测。在步骤109之后,静默活体检测未通过,则活体检测未通过,并结束当前流程,然后可以执行步骤101重新进行活体检测。
在实际的应用中,可以在步骤109接收用户发来的待验证视频之后,且步骤步骤115中的判断结果均相同时,再进行静默活体检测;也可以在步骤109接收用户发来的待验证视频之后,先进行静默活体检测,再执行步骤111至步骤115;还也可以在步骤109接收用户发来的待验证视频之后,将静默活体检测与上述实施例步骤111至步骤115同时并行进行。
在本说明书的一个实施例中,提出了一种活体检测的装置,参见图2,包括:
活体检测启动模块201,配置为接收对待认证的用户的认证请求;
随机行为生成模块202,配置为生成至少两个随机行为;将至少两个随机行为进行随机组合,生成随机行为序列;每一个随机行为指示一个被遮挡的面部部位,且不同的随机行为所指示的被遮挡的面部部位不同;以及将随机行为序列发送给用户;
遮挡动作序列获取模块203,配置为接收用户发来的待验证视频;利用待验证视频,得到遮挡动作序列;该遮挡动作序列中包括依序排列的至少两个被遮挡的面部部位;
判断模块204,配置为判断遮挡动作序列中包括的至少两个被遮挡的面部部位与至少两个随机行为所指示的至少两个被遮挡的面部部位是否相同,以及判断遮挡动作序列中包括的至少两个被遮挡的面部部位在遮挡动作序列中的顺序与至少两个随机行为所指示的至少两个被遮挡的面部部位在随机行为序列中的顺序是否相同;
检测结果确定模块205,配置为在判断模块的判断结果均为相同时,确定活体检测通过。
在本说明书提出的装置的一个实施例中,参见图3,可以进一步包括:随机行为个数获取模块;
随机行为个数获取模块被配置为执行如下处理:
根据认证请求中携带的业务类型信息,确定风险等级;
根据所确定的风险等级,确定需要生成的随机行为的个数。
在本说明书提出的装置的一个实施例中,遮挡动作序列获取模块203被配置为执行如下处理:
对待验证视频进行分帧,得到至少两个待识别图像;
将至少两个待识别图像输入预先训练的遮挡动作识别模型;
得到由遮挡动作识别模型输出的遮挡动作序列;
其中,遮挡动作识别模型通过至少两组第一样本集训练得到,每一组第一样本集中包括作为输入的第一样本图像以及作为输出的对该第一样本图像中包括的被遮挡的面部部位的识别结果。
在本说明书提出的装置的一个实施例中,至少两个面部部位中的每一个面部部位均对应有至少两组第一样本集;
参见图4,遮挡动作序列获取模块203包括:第一样本集获取子模块2031;
第一样本集获取子模块2031被配置为执行如下处理:
得到人脸图像;
对人脸图像中的目标面部部位进行遮挡处理,得到对应该目标面部部位的第一样本图像。
在本说明书提出的装置的一个实施例中,遮挡处理包括如下中的任一项:裁剪、抠除、虚化、添加阴影。
在本说明书提出的装置的一个实施例中,遮挡动作识别模型进一步通过至少两组第二样本集训练得到;每一组第二样本集中包括作为输入的第二样本图像以及作为输出的丢弃指令;
参见图4,遮挡动作序列获取模块203进一步包括:第二样本集获取子模块2032;
所述第二样本集获取子模块2032被配置为执行如下处理:
得到人脸图像;
对人脸图像进行扰动处理,将扰动处理后的人脸图像作为第二样本图像。
在本说明书提出的装置的一个实施例中,遮挡动作识别模型进一步通过至少两组第三样本集训练得到;每一组第三样本集中包括作为输入的第三样本图像以及作为输出的丢弃指令;
参见图4,遮挡动作序列获取模块203进一步包括:第三样本集获取子模块2033;
第三样本集获取子模块2033被配置为执行如下处理:
得到人脸图像;
对人脸图像进行头部姿态模拟处理,将头部姿态模拟处理后的人脸图像作为第三样本图像。
在本说明书提出的装置的一个实施例中,参见图5,进一步包括:静默活体检测模块501;
静默活体检测模块501被配置为执行如下处理:
在接收用户发来的待验证视频之后,从待验证视频中获取人脸图像;
利用从待验证视频中获取的人脸图像进行静默活体检测;
在各判断的判断结果均为相同,且静默活体检测通过之后,确定活体检测通过。
在本说明书的一个实施例中,上述活体检测装置可以被集成在用户端中,或者也可以被集成在一个与用户端相连的独立的设备中。
根据另一方面的实施例,还提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行说明书中任一个实施例中的方法。
根据再一方面的实施例,还提供了一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现执行说明书中任一个实施例中的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
可以理解的是,本说明书实施例示意的结构并不构成对活体检测装置的具体限定。在说明书的另一些实施例中,活体检测装置可以包括比图示更多或者更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或者软件和硬件的组合来实现。
上述装置内的各模块、各子模块之间的信息交互、执行过程等内容,由于与本说明书方法实施例基于同一构思,具体内容可参见本说明书方法实施例中的叙述,此处不再赘述。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、挂件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (18)

1.活体检测方法,包括:
接收到对待认证用户的认证请求;
生成至少两个随机行为;每一个所述随机行为指示一个被遮挡的面部部位,且不同的随机行为所指示的被遮挡的面部部位不同;
将所述至少两个随机行为进行随机组合,生成随机行为序列;
将所述随机行为序列发送给所述用户;
接收所述用户发来的待验证视频;
利用所述待验证视频,得到遮挡动作序列;该遮挡动作序列中包括依序排列的至少两个被遮挡的面部部位;
判断所述遮挡动作序列中包括的至少两个被遮挡的面部部位与所述至少两个随机行为所指示的至少两个被遮挡的面部部位是否相同,以及
判断所述遮挡动作序列中包括的至少两个被遮挡的面部部位在所述遮挡动作序列中的顺序与所述至少两个随机行为所指示的至少两个被遮挡的面部部位在所述随机行为序列中的顺序是否相同;
如果均相同,则活体检测通过。
2.根据权利要求1所述的方法,其中,在所述接收到待认证的用户的认证请求之后,并在所述生成至少两个随机行为之前,进一步包括:
根据所述认证请求中携带的业务类型信息,确定风险等级;
根据所确定的风险等级,确定需要生成的随机行为的个数。
3.根据权利要求1所述的方法,其中,所述利用所述待验证视频,得到遮挡动作序列,包括:
对所述待验证视频进行分帧,得到至少两个待识别图像;
将所述至少两个待识别图像输入预先训练的遮挡动作识别模型;
得到由所述遮挡动作识别模型输出的所述遮挡动作序列;
其中,所述遮挡动作识别模型通过至少两组第一样本集训练得到,每一组第一样本集中包括作为输入的第一样本图像以及作为输出的对该第一样本图像中包括的被遮挡的面部部位的识别结果。
4.根据权利要求3所述的方法,其中,至少两个面部部位中的每一个面部部位均对应有至少两组第一样本集;
每一个面部部位对应的第一样本集中第一样本图像的生成方法包括:
得到人脸图像;
对所述人脸图像中的目标面部部位进行遮挡处理,得到对应该目标面部部位的第一样本图像。
5.根据权利要求4所述的方法,其中,所述遮挡处理包括如下中的任一项:裁剪、抠除、虚化、添加阴影。
6.根据权利要求3所述的方法,其中,所述遮挡动作识别模型进一步通过至少两组第二样本集训练得到;每一组第二样本集中包括作为输入的第二样本图像以及作为输出的丢弃指令;
第二样本集中第二样本图像的生成方法包括:
得到人脸图像;
对所述人脸图像进行扰动处理,将扰动处理后的人脸图像作为所述第二样本图像。
7.根据权利要求3所述的方法,其中,所述遮挡动作识别模型进一步通过至少两组第三样本集训练得到;每一组第三样本集中包括作为输入的第三样本图像以及作为输出的丢弃指令;
第三样本集中作为输入的第三样本图像的生成方法包括:
得到人脸图像;
对所述人脸图像进行头部姿态模拟处理,将头部姿态模拟处理后的人脸图像作为所述第三样本图像。
8.根据权利要求1至7中任一所述的方法,其中,在所述接收所述用户发来的待验证视频之后,并在确定活体检测通过之前,进一步包括:
从所述待验证视频中获取人脸图像;
利用从所述待验证视频中获取的人脸图像进行静默活体检测;
在各判断的判断结果均为相同,且所述静默活体检测通过之后,确定活体检测通过。
9.活体检测装置,包括:
活体检测启动模块,配置为接收对待认证的用户的认证请求;
随机行为生成模块,配置为生成至少两个随机行为;将所述至少两个随机行为进行随机组合,生成随机行为序列;每一个所述随机行为指示一个被遮挡的面部部位,且不同的随机行为所指示的被遮挡的面部部位不同;以及将所述随机行为序列发送给所述用户;
遮挡动作序列获取模块,配置为接收所述用户发来的待验证视频;利用所述待验证视频,得到遮挡动作序列;该遮挡动作序列中包括依序排列的至少两个被遮挡的面部部位;
判断模块,配置为判断所述遮挡动作序列中包括的至少两个被遮挡的面部部位与所述至少两个随机行为所指示的至少两个被遮挡的面部部位是否相同,以及判断所述遮挡动作序列中包括的至少两个被遮挡的面部部位在所述遮挡动作序列中的顺序与所述至少两个随机行为所指示的至少两个被遮挡的面部部位在所述随机行为序列中的顺序是否相同;
检测结果确定模块,配置为在所述判断模块的判断结果均为相同时,确定活体检测通过。
10.根据权利要求9所述的装置,进一步包括:随机行为个数获取模块;
所述随机行为个数获取模块被配置为执行如下处理:
根据所述认证请求中携带的业务类型信息,确定风险等级;
根据所确定的风险等级,确定需要生成的随机行为的个数。
11.根据权利要求9所述的装置,其中,
所述遮挡动作序列获取模块被配置为执行如下处理:
对所述待验证视频进行分帧,得到至少两个待识别图像;
将所述至少两个待识别图像输入预先训练的遮挡动作识别模型;
得到由所述遮挡动作识别模型输出的所述遮挡动作序列;
其中,所述遮挡动作识别模型通过至少两组第一样本集训练得到,每一组第一样本集中包括作为输入的第一样本图像以及作为输出的对该第一样本图像中包括的被遮挡的面部部位的识别结果。
12.根据权利要求11所述的装置,其中,至少两个面部部位中的每一个面部部位均对应有至少两组第一样本集;
所述遮挡动作序列获取模块包括:第一样本集获取子模块;
所述第一样本集获取子模块被配置为执行如下处理:
得到人脸图像;
对所述人脸图像中的目标面部部位进行遮挡处理,得到对应该目标面部部位的第一样本图像。
13.根据权利要求12所述的装置,其中,所述遮挡处理包括如下中的任一项:裁剪、抠除、虚化、添加阴影。
14.根据权利要求11所述的装置,其中,所述遮挡动作识别模型进一步通过至少两组第二样本集训练得到;每一组第二样本集中包括作为输入的第二样本图像以及作为输出的丢弃指令;
所述遮挡动作序列获取模块进一步包括:第二样本集获取子模块;
所述第二样本集获取子模块被配置为执行如下处理:
得到人脸图像;
对所述人脸图像进行扰动处理,将扰动处理后的人脸图像作为所述第二样本图像。
15.根据权利要求11所述的装置,其中,所述遮挡动作识别模型进一步通过至少两组第三样本集训练得到;每一组第三样本集中包括作为输入的第三样本图像以及作为输出的丢弃指令;
所述遮挡动作序列获取模块进一步包括:第三样本集获取子模块;
所述第三样本集获取子模块被配置为执行如下处理:
得到人脸图像;
对所述人脸图像进行头部姿态模拟处理,将头部姿态模拟处理后的人脸图像作为所述第三样本图像。
16.根据权利要求9至15中任一所述的装置,进一步包括:静默活体检测模块;
所述静默活体检测模块被配置为执行如下处理:
在所述接收所述用户发来的待验证视频之后,从所述待验证视频中获取人脸图像;
利用从所述待验证视频中获取的人脸图像进行静默活体检测;
在各判断的判断结果均为相同,且所述静默活体检测通过之后,确定活体检测通过。
17.一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-8中任一项所述的方法。
18.一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-8中任一项所述的方法。
CN202110134215.2A 2021-01-29 2021-01-29 活体检测方法和装置 Active CN112836627B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110134215.2A CN112836627B (zh) 2021-01-29 2021-01-29 活体检测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110134215.2A CN112836627B (zh) 2021-01-29 2021-01-29 活体检测方法和装置

Publications (2)

Publication Number Publication Date
CN112836627A true CN112836627A (zh) 2021-05-25
CN112836627B CN112836627B (zh) 2022-07-19

Family

ID=75932735

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110134215.2A Active CN112836627B (zh) 2021-01-29 2021-01-29 活体检测方法和装置

Country Status (1)

Country Link
CN (1) CN112836627B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512632A (zh) * 2015-12-09 2016-04-20 北京旷视科技有限公司 活体检测方法及装置
CN105989264A (zh) * 2015-02-02 2016-10-05 北京中科奥森数据科技有限公司 生物特征活体检测方法及系统
CN107332659A (zh) * 2017-05-24 2017-11-07 舒翔 一种基于生物特征的身份认证方法、存储介质及系统
EP3319069A1 (en) * 2016-11-02 2018-05-09 Skeyecode Method for authenticating a user by means of a non-secure terminal
CN109639664A (zh) * 2018-12-06 2019-04-16 上海中信信息发展股份有限公司 登录验证方法、装置及系统
CN110163094A (zh) * 2019-04-15 2019-08-23 深圳壹账通智能科技有限公司 基于手势动作的活体检测方法、装置、设备及存储介质
CN110569808A (zh) * 2019-09-11 2019-12-13 腾讯科技(深圳)有限公司 活体检测方法、装置及计算机设备
CN111291668A (zh) * 2020-01-22 2020-06-16 北京三快在线科技有限公司 活体检测方法、装置、电子设备及可读存储介质
CN111401483A (zh) * 2020-05-15 2020-07-10 支付宝(杭州)信息技术有限公司 样本数据处理方法、装置及多方模型训练系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105989264A (zh) * 2015-02-02 2016-10-05 北京中科奥森数据科技有限公司 生物特征活体检测方法及系统
CN105512632A (zh) * 2015-12-09 2016-04-20 北京旷视科技有限公司 活体检测方法及装置
EP3319069A1 (en) * 2016-11-02 2018-05-09 Skeyecode Method for authenticating a user by means of a non-secure terminal
CN107332659A (zh) * 2017-05-24 2017-11-07 舒翔 一种基于生物特征的身份认证方法、存储介质及系统
CN109639664A (zh) * 2018-12-06 2019-04-16 上海中信信息发展股份有限公司 登录验证方法、装置及系统
CN110163094A (zh) * 2019-04-15 2019-08-23 深圳壹账通智能科技有限公司 基于手势动作的活体检测方法、装置、设备及存储介质
CN110569808A (zh) * 2019-09-11 2019-12-13 腾讯科技(深圳)有限公司 活体检测方法、装置及计算机设备
CN111291668A (zh) * 2020-01-22 2020-06-16 北京三快在线科技有限公司 活体检测方法、装置、电子设备及可读存储介质
CN111401483A (zh) * 2020-05-15 2020-07-10 支付宝(杭州)信息技术有限公司 样本数据处理方法、装置及多方模型训练系统

Also Published As

Publication number Publication date
CN112836627B (zh) 2022-07-19

Similar Documents

Publication Publication Date Title
KR102483642B1 (ko) 라이브니스 검사 방법 및 장치
US20190332757A1 (en) Method and apparatus for authenticating a user of a computing device
CN109756458B (zh) 身份认证方法和系统
CA3152812A1 (en) Facial recognition method and apparatus
JP2016009453A (ja) 顔認証装置および顔認証方法
CN111611873A (zh) 人脸替换检测方法及装置、电子设备、计算机存储介质
CN107832721B (zh) 用于输出信息的方法和装置
US11062136B2 (en) Pupil or iris tracking for liveness detection in authentication processes
US11682236B2 (en) Iris authentication device, iris authentication method and recording medium
CN111325175A (zh) 活体检测方法、装置、电子设备及存储介质
WO2023173686A1 (zh) 检测方法、装置、电子设备及存储介质
CN109034029A (zh) 检测活体的人脸识别方法、可读存储介质和电子设备
US20240104965A1 (en) Face liveness detection methods and apparatuses
CN111291668A (zh) 活体检测方法、装置、电子设备及可读存储介质
CN110276313B (zh) 身份认证方法、身份认证装置、介质和计算设备
CN113537145B (zh) 目标检测中误、漏检快速解决的方法、装置及存储介质
CN110688878B (zh) 活体识别检测方法、装置、介质及电子设备
CN108647650B (zh) 一种基于角膜反射和光学编码的人脸活体检测方法及系统
CN112836627B (zh) 活体检测方法和装置
CN112600886A (zh) 端云结合的隐私保护方法、装置以及设备
CN112084915A (zh) 模型训练方法、活体检测方法、装置和电子设备
Hernandez-Ortega et al. Continuous presentation attack detection in face biometrics based on heart rate
CN113989870A (zh) 一种活体检测方法、门锁系统及电子设备
CN114596638A (zh) 人脸活体检测方法、装置及存储介质
CN113743196A (zh) 活体检测方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant