CN110472487A - 活体用户检测方法、装置、计算机设备和存储介质 - Google Patents
活体用户检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110472487A CN110472487A CN201910595943.6A CN201910595943A CN110472487A CN 110472487 A CN110472487 A CN 110472487A CN 201910595943 A CN201910595943 A CN 201910595943A CN 110472487 A CN110472487 A CN 110472487A
- Authority
- CN
- China
- Prior art keywords
- user
- identification
- video
- action
- video frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 43
- 230000009471 action Effects 0.000 claims abstract description 161
- 230000036544 posture Effects 0.000 claims abstract description 136
- 238000000034 method Methods 0.000 claims abstract description 42
- 210000001747 pupil Anatomy 0.000 claims description 84
- 230000033001 locomotion Effects 0.000 claims description 43
- 230000001815 facial effect Effects 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 6
- 241000208340 Araliaceae Species 0.000 claims description 5
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 5
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 5
- 235000008434 ginseng Nutrition 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 62
- 230000008569 process Effects 0.000 description 20
- 230000000694 effects Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 210000003128 head Anatomy 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008602 contraction Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000638 stimulation Effects 0.000 description 4
- 108010001267 Protein Subunits Proteins 0.000 description 3
- 206010044074 Torticollis Diseases 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 208000018197 inherited torticollis Diseases 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010146 3D printing Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Abstract
本申请揭示了一种活体用户检测方法、装置、计算机设备和存储介质,方法包括:接收用户从前端发送的活体识别请求;发送动作要求信息至前端的显示界面,并将发送所述动作要求信息的时间作为参考时间;接收前端在距参考时间的指定时长范围内反馈的动作视频;判断动作视频中是否包含全部识别姿态;若是,则从动作视频中按照预设方式抽取预设数量视频帧;判断视频帧的成像介质是否为预设成像介质;若否,则判定所述用户为活体。本申请通过对动作视频进行识别姿态的识别和成像介质的识别,提高了活体判断的准确性,进而增强了人脸识别的可靠性。
Description
技术领域
本申请涉及身份识别技术领域,具体涉及一种活体用户检测方法、装置、计算机设备和存储介质。
背景技术
随着生物识别技术的发展,人脸识别在金融、门禁、移动设备等日常生活中得到广泛应用。人脸识别是基于人的脸部特征信息进行身份识别的一种生物识别技术,用摄像头采集含有人脸的图像或视频,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别。但是人脸识别容易被照片等欺骗,而在社交网络盛行的当前,获取用户的照片并不难,这就导致人脸识别容易被攻击。因此人脸识别中的活体识别技术在近年来得到了越来越多的关注。
发明内容
本申请的主要目的为提供一种活体用户检测方法、装置、计算机设备和存储介质,旨在解决现有技术中的人脸识别方法可靠性低的问题。
本申请提出一种活体用户检测方法,包括:
接收用户从前端发送的活体识别请求;
发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间;其中,所述动作要求信息中包含要求用户做出的至少一个识别姿态的信息;
接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频;
判断所述动作视频中是否包含全部所述识别姿态;
若是,则从所述动作视频中按照预设方式抽取预设数量视频帧;
判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;
若否,则判定所述用户为活体。
进一步地,所述发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间的步骤前,包括:
从识别姿态列表中随机抽取至少一个预设姿态,并将所述预设姿态设为所述识别姿态;其中,所述识别姿态列表中关联存储有至少一个所述预设姿态和各所述预设姿态分别对应的特征部位、特征参数、属性值阈值;
将全部所述识别姿态编入预设信息模板中,生成所述动作要求信息。
进一步地,所述判断所述动作视频中是否包含全部所述识别姿态的步骤,包括:
从所述识别姿态列表获取各所述识别姿态分别对应的识别特征部位、识别特征参数以及识别属性值阈值;
分别从所述动作视频中查找与各所述识别特征部位对应的人体部位;
分别跟踪所述动作视频中各所述人体部位对应的识别特征参数的变化,并根据各所述人体部位对应的识别特征参数的变化计算识别属性值;
分别判断各所述识别属性值是否在各所述识别属性值阈值范围内;
若所有所述识别属性值均在对应的所述识别属性值阈值范围内,则判定所述动作视频中包含所述识别姿态。
进一步地,所述判断所述视频帧的成像介质是否为预设成像介质的步骤,包括:
解析预设数量所述视频帧,得到所述用户的瞳孔变化比值,其中,预设数量所述视频帧中至少包括在所述前端的显示界面的亮度值为第一预设亮度值时拍摄的第一视频帧和在所述前端的显示界面的亮度值为第二预设亮度值时拍摄的第二视频帧;
判断所述瞳孔变化比值是否在预设比值区间内;
若否,则判定所述视频帧的成像介质是所述预设成像介质。
进一步地,所述解析预设数量所述视频帧,得到所述用户的瞳孔变化比值的步骤,包括:
从所述第一视频帧中提取所述用户的第一人眼长度和第一瞳孔长度,以及从所述第二视频帧中提取所述用户的第二人眼长度和第二瞳孔长度;或从所述第一视频帧中提取所述用户的第一人眼宽度和第一瞳孔宽度,以及从所述第二视频帧中提取所述用户的第二人眼宽度和第二瞳孔宽度;
计算所述第一瞳孔长度和所述第一人眼长度的第一比值,以及计算所述第二瞳孔长度和所述第二人眼长度的第二比值;或计算所述第一瞳孔宽度和所述第一人眼宽度的第三比值,以及计算所述第二瞳孔宽度和所述第二人眼宽度的第四比值;
将所述第二比值除以所述第一比值,得到第一变化比值;或将所述第四比值除以所述第三比值,得到第二变化比值;将所述第一变化比值或所述第二变化比值作为所述瞳孔变化比值。
进一步地,所述接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频的步骤,包括:
判断所述用户是否执行预设开始录制动作;
若是,则将用户执行所述预设开始录制动作的时间作为第一时间,当距所述第一时间的时长为第一预设时长时,发送第一预设指令至所述前端,其中,所述第一预设指令用于将所述前端的显示界面的亮度值设为第一预设亮度值;
当距所述第一时间的时长为第二预设时长时,发送第二预设指令至所述前端,其中,所述第二预设时长大于所述第一预设时长,所述第二预设指令用于将所述前端的显示界面的亮度值设为第二预设亮度值;
判断所述用户是否执行预设停止录制动作;
若是,则将用户停止录制所述动作视频的时间作为第二时间,将所述第一时间至所示第二时间内从所述前端接收到的全部视频帧作为所述动作视频;
所述从所述动作视频中按照预设方式抽取预设数量视频帧的步骤,包括:
从所述动作视频中提取所述第一预设亮度值对应的至少一个第一视频帧;以及从所述动作视频中提取所述第二预设亮度值对应的至少一个第二视频帧。
进一步地,所述若所述视频帧的成像介质不是所述预设成像介质,则判定所述用户为活体的步骤后,包括:
从所述动作视频中获取人脸图像;
从所述人脸图像中提取人脸特征值;
将所述人脸特征值与预存的合法用户的人脸特征值进行匹配;
若匹配成功,则判定所述用户为合法活体用户。
本申请还提出了一种活体用户检测装置,包括:
第一接收单元,用于接收用户从前端发送的活体识别请求;
信息发送单元,用于发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间;其中,所述动作要求信息中包含要求用户做出的至少一个识别姿态的信息;
第二接收单元,用于接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频;
第一判断单元,用于判断所述动作视频中是否包含全部所述识别姿态;
视频抽取单元,用于若包含全部所述识别姿态,则从所述动作视频中按照预设方式抽取预设数量视频帧;
第二判断单元,用于判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;
活体判定单元,用于若不是所述预设成像介质,则判定所述用户为活体。
本申请还提出了一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请还提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述方法的步骤。
本申请的有益效果:
本申请的活体用户检测方法、装置、计算机设备和存储介质,首先接收用户从前端发送的活体识别请求;然后发送动作要求信息至所述前端的显示界面,所述动作要求信息中包含至少一个识别姿态信息;再接收所述前端基于所述动作要求信息反馈的动作视频;接着判断所述动作视频中是否包含全部所述识别姿态;若是,则从所述动作视频中按照预设方式抽取预设数量视频帧;最后判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;若否,则判定所述用户为活体。本申请通过对动作视频进行识别姿态的识别和成像介质的识别,提高了活体判断的准确性,进而增强了人脸识别的可靠性。
附图说明
图1是本申请一实施例的活体用户检测方法的流程示意图;
图2是本申请一实施例的活体用户检测装置的结构示意框图;
图3是本申请一实施例的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
参照图1,本申请一实施例中提供了一种活体用户检测方法,包括:
S1、接收用户从前端发送的活体识别请求;
S2、发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间;其中,所述动作要求信息中包含要求用户做出的至少一个识别姿态的信息;
S3、接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频;
S4、判断所述动作视频中是否包含全部所述识别姿态;
S5、若是,则从所述动作视频中按照预设方式抽取预设数量视频帧;
S6、判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;
S7、若否,则判定所述用户为活体。
本实施例中,上述步骤S1中,上述前端为用户发送活体识别请求的页面,包括应用程序、微信小程序、PC上的H5界面等。上述活体识别请求用于请求服务器对当前用户是否为活体进行识别。
上述步骤S2中,服务器将上述动作要求信息发送给前端显示界面,供用户查看。上述识别姿态包括眨眼、摇头、歪头、捂脸、转身、点头、张嘴、吐舌头等中的一个或多个。上述动作要求信息中含有至少一个识别姿态,要求用户录制一段动作视频,在动作视频中体现动作要求信息中包含的全部识别姿态。
上述步骤S3中,用户查看动作要求信息后,可以使用前端所在的终端的摄像头录制对应的动作视频。在前端设置视频上传接口,服务器通过视频上传接口接收前端在距所述参考时间的指定时长范围内反馈的动作视频。如果超过指定时长范围还没有接收到动作视频,则直接判定用户活体检测不通过,用户需要重新进行验证。
上述步骤S4~S5中,上述动作视频中需要包含全部识别姿态,如果动作视频中只包含了部分识别姿态,则服务器判定活体用户识别不通过。如果服务器检测了动作视频中包含全部识别姿态,则服务器进一步从动作视频中按照预设方式抽取预设数量视频帧。
上述步骤S6~S7中,上述成像介质为视频帧内人物的成像材质类型:例如视频帧内的人脸是由硬纸制成的面具,则成像介质则为纸张;视频帧内的人脸是通过视频播放的,则成像介质则为电子屏;视频帧内的人脸是3D打印的立体面具,则成像介质则为3D模型。当视频帧的成像介质为上述预设成像介质,如电子屏、纸张、3D模型等中的一种,则判定用户不是活体。反之,如果视频帧的成像介质不是上述的预设成像介质,则服务器判定用户为活体。在一个具体实施例中,可以通过与各种预设成像介质的预设识别特征进行匹配,来识别成像介质的种类。例如对于预设成像介质为纸张,预设识别特征为纸张纹理特征、纸张边缘等;对于预设成像介质为电子屏,预设识别特征为摩尔纹、镜面反射光斑、电子屏边缘等;对于预设成像介质为3D模型,预设识别特征为材料表面反射率等。通过对视频帧内是否包含前述预设识别特征进行判断,如果不含有,则表明视频帧的成像介质不是上述预设成像介质。服务器对视频帧是否为各预设成像介质一一进行判断,如果均不是,则可以判定视频帧是由活体用户拍摄的。在另一个具体实施例中,可以根据活体用户的瞳孔对前端显示界面的亮度刺激对应地进行收缩或扩张,而当成像介质为上述预设成像介质时,画面中的用户瞳孔不会对前端显示界面的亮度刺激做出对应反应,来判断成像介质是否为上述预设成像介质。
本实施例中,通过服务器执行上述的活体用户检测方法,用户通过前端的视频上传接口将视频上传至服务器中,服务器对视频进行识别姿态的识别和成像介质的识别,从而对用户是否活体用户进行判断,提高了人脸识别的可靠性,而且前端使用的场景广泛,具有广阔的应用前景。
在一个实施例中,上述发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间的步骤S2前,包括:
S01、从识别姿态列表中随机抽取至少一个预设姿态,并将所述预设姿态设为所述识别姿态;其中,所述识别姿态列表中关联存储有至少一个所述预设姿态和各所述预设姿态分别对应的特征部位、特征参数、属性值阈值;
S02、将全部所述识别姿态编入预设信息模板中,生成所述动作要求信息。
本实施例中,服务器从识别姿态列表中随机抽取至少一个预设姿态,因此每次进行活体用户检测时,前端收到的动作要求信息中的预设姿态为随机变化的,增加了攻击者事先准备的难度。上述预设姿态包括眨眼、摇头、歪头、捂脸、转身、点头、张嘴、吐舌头等。上述特征部位指的是当用户做出指定姿态时,会发生姿态变化的人体部位。上述特征参数指的是用于判定姿态发生变化的参数。上述属性值阈值指的是特征参数对应的变化范围。当特征部位的特征参数在属性值阈值内变化时,则可以判定用户在做出对应的预设姿态。例如,当预设姿态为张嘴时,对应的特征部位则为嘴巴,特征参数则为上嘴唇和下嘴唇之间的高度,属性值阈值则为高度范围值,例如0.5cm~5cm;当预设姿态为摇头时,对应的特征部位则为鼻尖,特征参数则为鼻尖左右偏转角度,属性值阈值则为左右偏转角度范围值,例如5°~90°;当预设姿态为点头时,对应的特征部位则为鼻尖,特征参数则为鼻尖上下偏转角度,属性值阈值则为上下偏转角度范围值,例如5°~70°。
在一个具体实施例中,识别姿态列表可以通过以下步骤生成:获取预设姿态对应的预设姿态数据库;从预设姿态数据库中提取预设姿态对应的特征部位、特征参数以及属性值阈值;将预设姿态和预设姿态对应的特征部位、特征参数、属性值阈值关联保存至识别姿态列表中。预设姿态数据库用于存储预设姿态对应的图片、视频等。服务器可以从互联网搜索引擎中查找与预设姿态对应的图片或者视频,将检索结果添加至预设姿态数据库;服务器也可以通过历史活体识别数据来收集预设姿态对应的预设姿态数据库。
上述预设信息模板为预先编辑好并存储于服务器中的信息模板,服务器在每次生成动作请求信息时,将步骤S01获取的全部识别姿态编写入预设信息模板中即可。
在一个实施例中,上述判断所述动作视频中是否包含全部所述识别姿态的步骤S4,包括:
S401、从所述识别姿态列表获取各所述识别姿态分别对应的识别特征部位、识别特征参数以及识别属性值阈值;
S402、分别从所述动作视频中查找与各所述识别特征部位对应的人体部位;
S403、分别跟踪所述动作视频中各所述人体部位对应的识别特征参数的变化,并根据各所述人体部位对应的识别特征参数的变化计算识别属性值;
S404、分别判断各所述识别属性值是否在各所述识别属性值阈值范围内;
S405、若所有所述识别属性值均在对应的所述识别属性值阈值范围内,则判定所述动作视频中包含所述识别姿态。
本实施例中,上述步骤S401~S403中,以识别姿态为摇头为例,识别姿态列表中存储了摇头对应的识别特征部位为鼻尖,识别特征参数为鼻尖左右偏转角度,识别属性值阈值为5°~90°,则服务器从识别姿态列表中获取摇头对应的<鼻尖><鼻尖左右偏转角度><5°~90°>。服务器从动作视频中查找与识别特征部位“鼻尖”对应的人体部位,即查找动作视频中的“鼻尖”。具体地,可以先从动作视频中查找并定位人脸,再进一步定位鼻尖所在位置;定位到鼻尖位置后,跟踪动作视频中鼻尖的左右偏转角度,计算左右偏转角度的值,即为上述识别属性值。鼻尖所在位置的定位方法可以采用几何特征识别法、模板匹配法、等强度线匹配法等现有技术,此处不再赘述。
上述步骤S404~S405中,如果步骤S403计算所得的识别属性值在对应的识别属性值阈值范围内,则表明动作视频中的用户做出了动作要求信息中要求的识别姿态。服务器对各个识别属性值是否在对应的识别属性值阈值范围内一一进行识别,如果均在对应的第一识别属性值阈值范围内,则判定动作视频中包含了全部的识别姿态。
本实施例以摇头这一识别姿态进行举例说明如何实现姿态识别,其它姿态如眨眼、歪头、捂脸、转身、点头、张嘴、吐舌头等均可采用上述的姿态识别方法来实现姿态识别,具体过程本发明在此不一一赘述。
在一个实施例中,上述判断所述视频帧的成像介质是否为预设成像介质的步骤S6,包括:
S601、解析预设数量所述视频帧,得到所述用户的瞳孔变化比值,其中,预设数量所述视频帧中至少包括在所述前端的显示界面的亮度值为第一预设亮度值时拍摄的第一视频帧和在所述前端的显示界面的亮度值为第二预设亮度值时拍摄的第二视频帧;
S602、判断所述瞳孔变化比值是否在预设比值区间内;
S603、若否,则判定所述视频帧的成像介质是所述预设成像介质。
本实施例中,由于用户在拍摄时,距离显示界面的距离较近,上述第一预设亮度值与上述第二预设亮度值为两种不同的亮度,真人的人眼瞳孔会因为显示界面的亮度刺激对应地进行收缩或扩张。上述预设比值区间可以预先根据大量样本数据统计后来设定。真人的瞳孔变化比值应当落入上述预设比值区间内。而当视频帧的成像介质为预设成像介质,如电子屏、纸张、3D模型等时,预设成像介质中的人眼瞳孔并不会对亮度刺激做出对应反应。因此,可以通过不同亮度值下,人眼瞳孔是否对应的收缩或扩张来进一步确认视频帧的成像介质是否为预设成像介质。如果视频帧中的人眼瞳孔不会对亮度做出反应,则表明视频帧的成像介质为预设成像中的一种,即当前用户不是活体用户。
在一个实施例中,上述解析预设数量所述视频帧,得到所述用户的瞳孔变化比值的步骤S601,包括:
S6011、从所述第一视频帧中提取所述用户的第一人眼长度和第一瞳孔长度,以及从所述第二视频帧中提取所述用户的第二人眼长度和第二瞳孔长度;或从所述第一视频帧中提取所述用户的第一人眼宽度和第一瞳孔宽度,以及从所述第二视频帧中提取所述用户的第二人眼宽度和第二瞳孔宽度;
S6012、计算所述第一瞳孔长度和所述第一人眼长度的第一比值,以及计算所述第二瞳孔长度和所述第二人眼长度的第二比值;或计算所述第一瞳孔宽度和所述第一人眼宽度的第三比值,以及计算所述第二瞳孔宽度和所述第二人眼宽度的第四比值;
S6013、将所述第二比值除以所述第一比值,得到第一变化比值;或将所述第四比值除以所述第三比值,得到第二变化比值;将所述第一变化比值或所述第二变化比值作为所述瞳孔变化比值。
本实施例中,上述第一比值为前端的显示界面的亮度为第一预设亮度值时的第一人眼长度和第一瞳孔长度的比值,上述第二比值为前端的显示界面的亮度为第二预设亮度值时的第二人眼长度和第二瞳孔长度的比值。由于用户在拍摄时,距离显示界面的距离较近,真人的人眼瞳孔会因为显示界面的亮度刺激对应地进行收缩或扩张。例如将第一预设亮度设为显示界面的最小亮度值,则用户瞳孔对应地扩张;将第二预设亮度值设为显示界面的最大亮度值,则用户瞳孔对应地收缩。采用宽度数据来进行计算的方法原理和上述通过长度数据来进行计算的方法原理相同,此处不再赘述。
在一个实施例中,上述接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频的步骤S3,包括:
S301、判断所述用户是否执行预设开始录制动作;
S302、若是,则将用户执行所述预设开始录制动作的时间作为第一时间,当距所述第一时间的时长为第一预设时长时,发送第一预设指令至所述前端,其中,所述第一预设指令用于将所述前端的显示界面的亮度值设为第一预设亮度值;
S303、当距所述第一时间的时长为第二预设时长时,发送第二预设指令至所述前端,其中,所述第二预设时长大于所述第一预设时长,所述第二预设指令用于将所述前端的显示界面的亮度值设为第二预设亮度值;
S304、判断所述用户是否执行预设停止录制动作;
S305、若是,则将用户停止录制所述动作视频的时间作为第二时间,将所述第一时间至所示第二时间内从所述前端接收到的全部视频帧作为所述动作视频。
本实施例中,上述步骤S301中,当用户执行上述预设开始录制动作时,则开始录制动作视频。上述预设开始录制动作可以是触摸、点击、长按前端显示窗口的预设位置或任意位置,或者在屏幕上的滑动操作或者预设的组合动作,或者按压特定按键或按键组合的操作,或者指定的凌空手势动作,或者晃动终端设备的操作,或者预设的语音命令,或者前述操作动作中至少两个操作动作的组合,等等。
上述步骤S302~S303中,上述第一预设亮度值和上述第二预设亮度值的亮度差值大于预设差值,预设差值可以根据实际使用情况设置,前端的显示界面的亮度值有一定的可调亮度范围,较优地,在一个具体实施例中,可以将上述第一预设亮度值设为显示界面的最小亮度值,将上述第二预设亮度值设为显示界面的最大亮度值。在用户录制动作视频的过程中,服务器控制前端的显示界面的亮度值进行变化。用户在拍摄时,距离显示界面的距离较近。人眼瞳孔会因为显示界面的亮度刺激对应地进行收缩或扩张。
上述步骤S304中,当用户执行上述预设停止录制动作时,则停止录制动作视频。上述预设停止录制动作可以是触摸、点击、长按前端显示窗口的预设位置或任意位置,或者在屏幕上的滑动操作或者预设的组合动作,或者按压特定按键或按键组合的操作,或者指定的凌空手势动作,或者晃动终端设备的操作,或者预设的语音命令,或者前述操作动作中至少两个操作动作的组合,等等。
上述步骤S305中,上述动作视频即为用户在第一时间和第二时间这个时长范围内录制的视频。
在一个实施例中,上述从所述动作视频中按照预设方式抽取预设数量视频帧的步骤S5,包括:
S501、从所述动作视频中提取所述第一预设亮度值对应的至少一个第一视频帧;以及从所述动作视频中提取所述第二预设亮度值对应的至少一个第二视频帧。
本实施例中,可以根据前述第一预设时长和第二预设时长对动作视频进行分割,从距动作视频的开始时间的时长在第一预设时长和第二预设时长之间的视频段中提取至少一个视频帧作为第一视频帧,该第一视频帧对应的拍摄时的显示界面的亮度为第一预设亮度值;从距动作视频的开始时间的时长大于第二预设时长的视频段中提取至少一个视频帧作为第二视频帧,该第二视频帧对应的拍摄时的显示界面的亮度为第二预设亮度值。
在一个实施例中,上述若所述视频帧的成像介质不是所述预设成像介质,则判定所述用户为活体的步骤S7后,包括:
S8、从所述动作视频中获取人脸图像;
S9、从所述人脸图像中提取人脸特征值;
S10、将所述人脸特征值与预存的合法用户的人脸特征值进行匹配;
S11、若匹配成功,则判定所述用户为合法活体用户。
本实施例中,服务器在判定用户为活体之后,还可以进一步通过步骤S8~S11判定该活体用户是否为合法用户。服务器内预先存储了合法用户的人脸图像,服务器对合法用户的人脸图像进行人脸图像分析,提取合法用户的人脸特征值,人脸图像分析的方法可以采用现有的人脸图像分析方法,本申请在此不做赘述。服务器从动作视频中的视频帧中提取人脸特征值,将人脸特征值与预存于服务器内的合法用户的人脸特征值进行匹配,如果匹配通过,则可判定用户为合法活体用户。本实施例的方法大大提高了人脸识别的可靠性。
参照图2,本申请一实施例中提供了一种活体用户检测装置,包括:
第一接收单元10,用于接收用户从前端发送的活体识别请求;
信息发送单元20,用于发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间;其中,所述动作要求信息中包含要求用户做出的至少一个识别姿态的信息;
第二接收单元30,用于接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频;
第一判断单元40,用于判断所述动作视频中是否包含全部所述识别姿态;
视频抽取单元50,用于若包含全部所述识别姿态,则从所述动作视频中按照预设方式抽取预设数量视频帧;
第二判断单元60,用于判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;
活体判定单元70,用于若不是所述预设成像介质,则判定所述用户为活体。
本实施例中,上述活体用户检测装置中的第一接收单元10、信息发送单元20、第二接收单元30、第一判断单元40、视频抽取单元50、第二判断单元60与活体判定单元70的功能和作用的实现过程具体详见上述活体用户检测方法中对应步骤S1-S7的实现过程,在此不再赘述。
在一个实施例中,上述活体用户检测装置,包括:
信息抽取单元,用于从识别姿态列表中随机抽取至少一个预设姿态,并将所述预设姿态设为所述识别姿态;其中,所述识别姿态列表中关联存储有至少一个所述预设姿态和各所述预设姿态分别对应的特征部位、特征参数、属性值阈值;
要求编写单元,用于将全部所述识别姿态编入预设信息模板中,生成所述动作要求信息。
本实施例中,上述活体用户检测装置中的信息抽取单元与要求编写单元的功能和作用的实现过程具体详见上述活体用户检测方法中对应步骤S01-S02的实现过程,在此不再赘述。
在一个实施例中,上述第一判断单元40,包括:
提取子单元,用于从所述识别姿态列表获取各所述识别姿态分别对应的识别特征部位、识别特征参数以及识别属性值阈值;
查找子单元,用于分别从所述动作视频中查找与各所述识别特征部位对应的人体部位;
计算子单元,用于分别跟踪所述动作视频中各所述人体部位对应的识别特征参数的变化,并根据各所述人体部位对应的识别特征参数的变化计算识别属性值;
第一判断子单元,用于分别判断各所述识别属性值是否在各所述识别属性值阈值范围内;
第一判定子单元,用于若所有所述识别属性值均在对应的所述识别属性值阈值范围内,则判定所述动作视频中包含所述识别姿态。
本实施例中,上述活体用户检测装置中的提取子单元、查找子单元、计算子单元、第一判断子单元与第一判定子单元的功能和作用的实现过程具体详见上述活体用户检测方法中对应步骤S401-S405的实现过程,在此不再赘述。
在一个实施例中,上述第二判断单元60,包括:
解析子单元,用于解析预设数量所述视频帧,得到所述用户的瞳孔变化比值,其中,预设数量所述视频帧中至少包括在所述前端的显示界面的亮度值为第一预设亮度值时拍摄的第一视频帧和在所述前端的显示界面的亮度值为第二预设亮度值时拍摄的第二视频帧;
第二判断子单元,用于判断所述瞳孔变化比值是否在预设比值区间内;
第二判定子单元,用于若不在预设比值区间内,则判定所述视频帧的成像介质是所述预设成像介质。
本实施例中,上述活体用户检测装置中的解析子单元、第二判断子单元与第二判定子单元的功能和作用的实现过程具体详见上述活体用户检测方法中对应步骤S601-S603的实现过程,在此不再赘述。
在一个实施例中,上述解析子单元,包括:
数据提取模块,用于从所述第一视频帧中提取所述用户的第一人眼长度和第一瞳孔长度,以及从所述第二视频帧中提取所述用户的第二人眼长度和第二瞳孔长度;或从所述第一视频帧中提取所述用户的第一人眼宽度和第一瞳孔宽度,以及从所述第二视频帧中提取所述用户的第二人眼宽度和第二瞳孔宽度;
第一计算模块,用于计算所述第一瞳孔长度和所述第一人眼长度的第一比值,以及计算所述第二瞳孔长度和所述第二人眼长度的第二比值;或计算所述第一瞳孔宽度和所述第一人眼宽度的第三比值,以及计算所述第二瞳孔宽度和所述第二人眼宽度的第四比值;
第二计算模块,用于将所述第二比值除以所述第一比值,得到第一变化比值;或将所述第四比值除以所述第三比值,得到第二变化比值;将所述第一变化比值或所述第二变化比值作为所述瞳孔变化比值。
本实施例中,上述活体用户检测装置中的数据提取模块、第一计算模块与第二计算模块的功能和作用的实现过程具体详见上述活体用户检测方法中对应步骤S6011-S6013的实现过程,在此不再赘述。
在一个实施例中,上述第二接收单元30,包括:
第三判断子单元,用于判断所述用户是否执行预设开始录制动作;
第一亮度设置子单元,用于若执行预设开始录制动作,则将用户执行所述预设开始录制动作的时间作为第一时间,当距所述第一时间的时长为第一预设时长时,发送第一预设指令至所述前端,其中,所述第一预设指令用于将所述前端的显示界面的亮度值设为第一预设亮度值;
第二亮度设置子单元,用于当距所述第一时间的时长为第二预设时长时,发送第二预设指令至所述前端,其中,所述第二预设时长大于所述第一预设时长,所述第二预设指令用于将所述前端的显示界面的亮度值设为第二预设亮度值;
第四判断子单元,用于判断所述用户是否执行预设停止录制动作;
视频获取子单元,用于若是,则将用户停止录制所述动作视频的时间作为第二时间,将所述第一时间至所示第二时间内从所述前端接收到的全部视频帧作为所述动作视频。
本实施例中,上述活体用户检测装置中的第三判断子单元、第一亮度设置子单元、第二亮度设置子单元、第四判断子单元与视频获取子单元的功能和作用的实现过程具体详见上述活体用户检测方法中对应步骤S301-S305的实现过程,在此不再赘述。
在一个实施例中,上述视频抽取单元50,包括:
抽取子单元,用于从所述动作视频中提取所述第一预设亮度值对应的至少一个第一视频帧;以及从所述动作视频中提取所述第二预设亮度值对应的至少一个第二视频帧。
本实施例中,上述活体用户检测装置中的抽取子单元的功能和作用的实现过程具体详见上述活体用户检测方法中对应步骤S501的实现过程,在此不再赘述。
在一个实施例中,上述活体用户检测装置,还包括:
人脸图像获取单元,用于从所述动作视频中获取人脸图像;
人脸特征提取单元,用于从所述人脸图像中提取人脸特征值;
特征匹配单元,用于将所述人脸特征值与预存的合法用户的人脸特征值进行匹配;
合法用户判定单元,用于若匹配成功,则判定所述用户为合法活体用户。
本实施例中,上述活体用户检测装置中的人脸图像获取单元、人脸特征提取单元、特征匹配单元和合法用户判定单元的功能和作用的实现过程具体详见上述活体用户检测方法中对应步骤S8~S11的实现过程,在此不再赘述。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储识别姿态列表等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种活体用户检测方法。
上述处理器执行上述活体用户检测方法,包括:
接收用户从前端发送的活体识别请求;
发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间;其中,所述动作要求信息中包含要求用户做出的至少一个识别姿态的信息;
接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频;
判断所述动作视频中是否包含全部所述识别姿态;
若是,则从所述动作视频中按照预设方式抽取预设数量视频帧;
判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;
若否,则判定所述用户为活体。
在一实施例中,上述处理器发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间的步骤前,包括:
从识别姿态列表中随机抽取至少一个预设姿态,并将所述预设姿态设为所述识别姿态;其中,所述识别姿态列表中关联存储有至少一个所述预设姿态和各所述预设姿态分别对应的特征部位、特征参数、属性值阈值;
将全部所述识别姿态编入预设信息模板中,生成所述动作要求信息。
在一实施例中,上述处理器判断所述动作视频中是否包含全部所述识别姿态的步骤,包括:
从所述识别姿态列表获取各所述识别姿态分别对应的识别特征部位、识别特征参数以及识别属性值阈值;
分别从所述动作视频中查找与各所述识别特征部位对应的人体部位;
分别跟踪所述动作视频中各所述人体部位对应的识别特征参数的变化,并根据各所述人体部位对应的识别特征参数的变化计算识别属性值;
分别判断各所述识别属性值是否在各所述识别属性值阈值范围内;
若所有所述识别属性值均在对应的所述识别属性值阈值范围内,则判定所述动作视频中包含所述识别姿态。
在一实施例中,上述处理器判断所述视频帧的成像介质是否为预设成像介质的步骤,包括:
解析预设数量所述视频帧,得到所述用户的瞳孔变化比值,其中,预设数量所述视频帧中至少包括在所述前端的显示界面的亮度值为第一预设亮度值时拍摄的第一视频帧和在所述前端的显示界面的亮度值为第二预设亮度值时拍摄的第二视频帧;
判断所述瞳孔变化比值是否在预设比值区间内;
若否,则判定所述视频帧的成像介质是所述预设成像介质。
在一实施例中,上述处理器解析预设数量所述视频帧,得到所述用户的瞳孔变化比值的步骤,包括:
从所述第一视频帧中提取所述用户的第一人眼长度和第一瞳孔长度,以及从所述第二视频帧中提取所述用户的第二人眼长度和第二瞳孔长度;或从所述第一视频帧中提取所述用户的第一人眼宽度和第一瞳孔宽度,以及从所述第二视频帧中提取所述用户的第二人眼宽度和第二瞳孔宽度;
计算所述第一瞳孔长度和所述第一人眼长度的第一比值,以及计算所述第二瞳孔长度和所述第二人眼长度的第二比值;或计算所述第一瞳孔宽度和所述第一人眼宽度的第三比值,以及计算所述第二瞳孔宽度和所述第二人眼宽度的第四比值;
将所述第二比值除以所述第一比值,得到第一变化比值;或将所述第四比值除以所述第三比值,得到第二变化比值;将所述第一变化比值或所述第二变化比值作为所述瞳孔变化比值。
在一实施例中,上述处理器接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频的步骤,包括:
判断所述用户是否执行预设开始录制动作;
若是,则将用户执行所述预设开始录制动作的时间作为第一时间,当距所述第一时间的时长为第一预设时长时,发送第一预设指令至所述前端,其中,所述第一预设指令用于将所述前端的显示界面的亮度值设为第一预设亮度值;
当距所述第一时间的时长为第二预设时长时,发送第二预设指令至所述前端,其中,所述第二预设时长大于所述第一预设时长,所述第二预设指令用于将所述前端的显示界面的亮度值设为第二预设亮度值;
判断所述用户是否执行预设停止录制动作;
若是,则将用户停止录制所述动作视频的时间作为第二时间,将所述第一时间至所示第二时间内从所述前端接收到的全部视频帧作为所述动作视频。
上述处理器从所述动作视频中按照预设方式抽取预设数量视频帧的步骤,包括:
从所述动作视频中提取所述第一预设亮度值对应的至少一个第一视频帧;以及从所述动作视频中提取所述第二预设亮度值对应的至少一个第二视频帧。
在一实施例中,上述若所述视频帧的成像介质不是所述预设成像介质,则处理器判定所述用户为活体的步骤后,包括:
从所述动作视频中获取人脸图像;
从所述人脸图像中提取人脸特征值;
将所述人脸特征值与预存的合法用户的人脸特征值进行匹配;
若匹配成功,则判定所述用户为合法活体用户。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种活体用户检测连接方法,具体为:
接收用户从前端发送的活体识别请求;
发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间;其中,所述动作要求信息中包含要求用户做出的至少一个识别姿态的信息;
接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频;
判断所述动作视频中是否包含全部所述识别姿态;
若是,则从所述动作视频中按照预设方式抽取预设数量视频帧;
判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;
若否,则判定所述用户为活体。
在一实施例中,上述处理器发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间的步骤前,包括:
从识别姿态列表中随机抽取至少一个预设姿态,并将所述预设姿态设为所述识别姿态;其中,所述识别姿态列表中关联存储有至少一个所述预设姿态和各所述预设姿态分别对应的特征部位、特征参数、属性值阈值;
将全部所述识别姿态编入预设信息模板中,生成所述动作要求信息。
在一实施例中,上述处理器判断所述动作视频中是否包含全部所述识别姿态的步骤,包括:
从所述识别姿态列表获取各所述识别姿态分别对应的识别特征部位、识别特征参数以及识别属性值阈值;
分别从所述动作视频中查找与各所述识别特征部位对应的人体部位;
分别跟踪所述动作视频中各所述人体部位对应的识别特征参数的变化,并根据各所述人体部位对应的识别特征参数的变化计算识别属性值;
分别判断各所述识别属性值是否在各所述识别属性值阈值范围内;
若所有所述识别属性值均在对应的所述识别属性值阈值范围内,则判定所述动作视频中包含所述识别姿态。
在一实施例中,上述处理器判断所述视频帧的成像介质是否为预设成像介质的步骤,包括:
解析预设数量所述视频帧,得到所述用户的瞳孔变化比值,其中,预设数量所述视频帧中至少包括在所述前端的显示界面的亮度值为第一预设亮度值时拍摄的第一视频帧和在所述前端的显示界面的亮度值为第二预设亮度值时拍摄的第二视频帧;
判断所述瞳孔变化比值是否在预设比值区间内;
若否,则判定所述视频帧的成像介质是所述预设成像介质。
在一实施例中,上述处理器解析预设数量所述视频帧,得到所述用户的瞳孔变化比值的步骤,包括:
从所述第一视频帧中提取所述用户的第一人眼长度和第一瞳孔长度,以及从所述第二视频帧中提取所述用户的第二人眼长度和第二瞳孔长度;或从所述第一视频帧中提取所述用户的第一人眼宽度和第一瞳孔宽度,以及从所述第二视频帧中提取所述用户的第二人眼宽度和第二瞳孔宽度;
计算所述第一瞳孔长度和所述第一人眼长度的第一比值,以及计算所述第二瞳孔长度和所述第二人眼长度的第二比值;或计算所述第一瞳孔宽度和所述第一人眼宽度的第三比值,以及计算所述第二瞳孔宽度和所述第二人眼宽度的第四比值;
将所述第二比值除以所述第一比值,得到第一变化比值;或将所述第四比值除以所述第三比值,得到第二变化比值;将所述第一变化比值或所述第二变化比值作为所述瞳孔变化比值。
在一实施例中,上述处理器接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频的步骤,包括:
判断所述用户是否执行预设开始录制动作;
若是,则将用户执行所述预设开始录制动作的时间作为第一时间,当距所述第一时间的时长为第一预设时长时,发送第一预设指令至所述前端,其中,所述第一预设指令用于将所述前端的显示界面的亮度值设为第一预设亮度值;
当距所述第一时间的时长为第二预设时长时,发送第二预设指令至所述前端,其中,所述第二预设时长大于所述第一预设时长,所述第二预设指令用于将所述前端的显示界面的亮度值设为第二预设亮度值;
判断所述用户是否执行预设停止录制动作;
若是,则将用户停止录制所述动作视频的时间作为第二时间,将所述第一时间至所示第二时间内从所述前端接收到的全部视频帧作为所述动作视频。
上述处理器从所述动作视频中按照预设方式抽取预设数量视频帧的步骤,包括:
从所述动作视频中提取所述第一预设亮度值对应的至少一个第一视频帧;以及从所述动作视频中提取所述第二预设亮度值对应的至少一个第二视频帧。
在一实施例中,上述若所述视频帧的成像介质不是所述预设成像介质,则处理器判定所述用户为活体的步骤后,包括:
从所述动作视频中获取人脸图像;
从所述人脸图像中提取人脸特征值;
将所述人脸特征值与预存的合法用户的人脸特征值进行匹配;
若匹配成功,则判定所述用户为合法活体用户。
综上所述,为本申请实施例中提供的活体用户检测方法、装置、计算机设备和存储介质,首先接收用户从前端发送的活体识别请求;然后发送动作要求信息至所述前端的显示界面,所述动作要求信息中包含至少一个识别姿态信息;再接收所述前端基于所述动作要求信息反馈的动作视频;接着判断所述动作视频中是否包含全部所述识别姿态;若是,则从所述动作视频中按照预设方式抽取预设数量视频帧;最后判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;若否,则判定所述用户为活体。本申请通过对动作视频进行识别姿态的识别和成像介质的识别,提高了活体判断的准确性,进而增强了人脸识别的可靠性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM通过多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种活体用户检测方法,其特征在于,包括:
接收用户从前端发送的活体识别请求;
发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间;其中,所述动作要求信息中包含要求用户做出的至少一个识别姿态的信息;
接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频;
判断所述动作视频中是否包含全部所述识别姿态;
若是,则从所述动作视频中按照预设方式抽取预设数量视频帧;
判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;
若否,则判定所述用户为活体。
2.如权利要求1所述的活体用户检测方法,其特征在于,所述发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间的步骤前,包括:
从识别姿态列表中随机抽取至少一个预设姿态,并将所述预设姿态设为所述识别姿态;其中,所述识别姿态列表中关联存储有至少一个所述预设姿态和各所述预设姿态分别对应的特征部位、特征参数、属性值阈值;
将全部所述识别姿态编入预设信息模板中,生成所述动作要求信息。
3.如权利要求2所述的活体用户检测方法,其特征在于,所述判断所述动作视频中是否包含全部所述识别姿态的步骤,包括:
从所述识别姿态列表获取各所述识别姿态分别对应的识别特征部位、识别特征参数以及识别属性值阈值;
分别从所述动作视频中查找与各所述识别特征部位对应的人体部位;
分别跟踪所述动作视频中各所述人体部位对应的识别特征参数的变化,并根据各所述人体部位对应的识别特征参数的变化计算识别属性值;
分别判断各所述识别属性值是否在各所述识别属性值阈值范围内;
若所有所述识别属性值均在对应的所述识别属性值阈值范围内,则判定所述动作视频中包含所述识别姿态。
4.如权利要求1所述的活体用户检测方法,其特征在于,所述判断所述视频帧的成像介质是否为预设成像介质的步骤,包括:
解析预设数量所述视频帧,得到所述用户的瞳孔变化比值,其中,预设数量所述视频帧中至少包括在所述前端的显示界面的亮度值为第一预设亮度值时拍摄的第一视频帧和在所述前端的显示界面的亮度值为第二预设亮度值时拍摄的第二视频帧;
判断所述瞳孔变化比值是否在预设比值区间内;
若否,则判定所述视频帧的成像介质是所述预设成像介质。
5.如权利要求4所述的活体用户检测方法,其特征在于,所述解析预设数量所述视频帧,得到所述用户的瞳孔变化比值的步骤,包括:
从所述第一视频帧中提取所述用户的第一人眼长度和第一瞳孔长度,以及从所述第二视频帧中提取所述用户的第二人眼长度和第二瞳孔长度;或从所述第一视频帧中提取所述用户的第一人眼宽度和第一瞳孔宽度,以及从所述第二视频帧中提取所述用户的第二人眼宽度和第二瞳孔宽度;
计算所述第一瞳孔长度和所述第一人眼长度的第一比值,以及计算所述第二瞳孔长度和所述第二人眼长度的第二比值;或计算所述第一瞳孔宽度和所述第一人眼宽度的第三比值,以及计算所述第二瞳孔宽度和所述第二人眼宽度的第四比值;
将所述第二比值除以所述第一比值,得到第一变化比值;或将所述第四比值除以所述第三比值,得到第二变化比值;将所述第一变化比值或所述第二变化比值作为所述瞳孔变化比值。
6.如权利要求4所述的活体用户检测方法,其特征在于,所述接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频的步骤,包括:
判断所述用户是否执行预设开始录制动作;
若是,则将用户执行所述预设开始录制动作的时间作为第一时间,当距所述第一时间的时长为第一预设时长时,发送第一预设指令至所述前端,其中,所述第一预设指令用于将所述前端的显示界面的亮度值设为第一预设亮度值;
当距所述第一时间的时长为第二预设时长时,发送第二预设指令至所述前端,其中,所述第二预设时长大于所述第一预设时长,所述第二预设指令用于将所述前端的显示界面的亮度值设为第二预设亮度值;
判断所述用户是否执行预设停止录制动作;
若是,则将用户停止录制所述动作视频的时间作为第二时间,将所述第一时间至所示第二时间内从所述前端接收到的全部视频帧作为所述动作视频;
所述从所述动作视频中按照预设方式抽取预设数量视频帧的步骤,包括:
从所述动作视频中提取所述第一预设亮度值对应的至少一个第一视频帧;以及从所述动作视频中提取所述第二预设亮度值对应的至少一个第二视频帧。
7.如权利要求1所述的活体用户检测方法,其特征在于,所述若所述视频帧的成像介质不是所述预设成像介质,则判定所述用户为活体的步骤后,包括:
从所述动作视频中获取人脸图像;
从所述人脸图像中提取人脸特征值;
将所述人脸特征值与预存的合法用户的人脸特征值进行匹配;
若匹配成功,则判定所述用户为合法活体用户。
8.一种活体用户检测装置,其特征在于,包括:
第一接收单元,用于接收用户从前端发送的活体识别请求;
信息发送单元,用于发送动作要求信息至所述前端的显示界面,并将发送所述动作要求信息的时间作为参考时间;其中,所述动作要求信息中包含要求用户做出的至少一个识别姿态的信息;
第二接收单元,用于接收所述前端在距所述参考时间的指定时长范围内反馈的动作视频;
第一判断单元,用于判断所述动作视频中是否包含全部所述识别姿态;
视频抽取单元,用于若包含全部所述识别姿态,则从所述动作视频中按照预设方式抽取预设数量视频帧;
第二判断单元,用于判断所述视频帧的成像介质是否为预设成像介质,所述预设成像介质包括电子屏、纸张、3D模型中的一种;
活体判定单元,用于若不是所述预设成像介质,则判定所述用户为活体。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910595943.6A CN110472487B (zh) | 2019-07-03 | 活体用户检测方法、装置、计算机设备和存储介质 | |
PCT/CN2019/103548 WO2021000415A1 (zh) | 2019-07-03 | 2019-08-30 | 活体用户检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910595943.6A CN110472487B (zh) | 2019-07-03 | 活体用户检测方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110472487A true CN110472487A (zh) | 2019-11-19 |
CN110472487B CN110472487B (zh) | 2024-05-10 |
Family
ID=
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046804A (zh) * | 2019-12-13 | 2020-04-21 | 北京旷视科技有限公司 | 活体检测方法、装置、电子设备及可读存储介质 |
CN111047622A (zh) * | 2019-11-20 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 视频中对象的匹配方法和装置、存储介质及电子装置 |
CN111428568A (zh) * | 2020-02-26 | 2020-07-17 | 平安科技(深圳)有限公司 | 活体视频图片处理方法、装置、计算机设备和存储介质 |
CN112084915A (zh) * | 2020-08-31 | 2020-12-15 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、活体检测方法、装置和电子设备 |
CN113569622A (zh) * | 2021-06-09 | 2021-10-29 | 北京旷视科技有限公司 | 基于网页的活体检测方法、装置、系统及电子设备 |
CN113962336A (zh) * | 2021-08-06 | 2022-01-21 | 杨*甦 | 可实时的牛只正脸id编码方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180032828A1 (en) * | 2015-12-18 | 2018-02-01 | Tencent Technology (Shenzhen) Company Limited | Face liveness detection method, terminal, server and storage medium |
CN107748876A (zh) * | 2017-11-06 | 2018-03-02 | 杭州有盾网络科技有限公司 | 基于移动端的人脸活体识别方法、装置及移动终端 |
CN108764091A (zh) * | 2018-05-18 | 2018-11-06 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180032828A1 (en) * | 2015-12-18 | 2018-02-01 | Tencent Technology (Shenzhen) Company Limited | Face liveness detection method, terminal, server and storage medium |
CN107748876A (zh) * | 2017-11-06 | 2018-03-02 | 杭州有盾网络科技有限公司 | 基于移动端的人脸活体识别方法、装置及移动终端 |
CN108764091A (zh) * | 2018-05-18 | 2018-11-06 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047622A (zh) * | 2019-11-20 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 视频中对象的匹配方法和装置、存储介质及电子装置 |
CN111047622B (zh) * | 2019-11-20 | 2023-05-30 | 腾讯科技(深圳)有限公司 | 视频中对象的匹配方法和装置、存储介质及电子装置 |
CN111046804A (zh) * | 2019-12-13 | 2020-04-21 | 北京旷视科技有限公司 | 活体检测方法、装置、电子设备及可读存储介质 |
CN111428568A (zh) * | 2020-02-26 | 2020-07-17 | 平安科技(深圳)有限公司 | 活体视频图片处理方法、装置、计算机设备和存储介质 |
WO2021169501A1 (zh) * | 2020-02-26 | 2021-09-02 | 平安科技(深圳)有限公司 | 活体视频图片处理方法、装置、计算机设备和存储介质 |
CN111428568B (zh) * | 2020-02-26 | 2024-04-09 | 平安科技(深圳)有限公司 | 活体视频图片处理方法、装置、计算机设备和存储介质 |
CN112084915A (zh) * | 2020-08-31 | 2020-12-15 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、活体检测方法、装置和电子设备 |
CN113569622A (zh) * | 2021-06-09 | 2021-10-29 | 北京旷视科技有限公司 | 基于网页的活体检测方法、装置、系统及电子设备 |
CN113962336A (zh) * | 2021-08-06 | 2022-01-21 | 杨*甦 | 可实时的牛只正脸id编码方法 |
CN113962336B (zh) * | 2021-08-06 | 2023-11-24 | 杨甦 | 可实时的牛只正脸id编码方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2021000415A1 (zh) | 2021-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109446981B (zh) | 一种脸部活体检测、身份认证方法及装置 | |
TWI751161B (zh) | 終端設備、智慧型手機、基於臉部識別的認證方法和系統 | |
EP3373202B1 (en) | Verification method and system | |
CN108269333A (zh) | 人脸识别方法、应用服务器及计算机可读存储介质 | |
CN110705451A (zh) | 人脸识别方法、装置、终端及服务器 | |
EP3540621A1 (en) | Identity authentication method and apparatus, terminal and server | |
EP1260941A2 (en) | Face image recording system | |
CN109033901A (zh) | 智能终端的防偷窥方法、装置、计算机设备和存储介质 | |
JP4760049B2 (ja) | 顔認証装置、その顔認証方法、その顔認証装置を組み込んだ電子機器およびその顔認証プログラムを記録した記録媒体 | |
CN105868677A (zh) | 一种活体人脸检测方法及装置 | |
CN110866454B (zh) | 人脸活体检测方法及系统、计算机可读取的存储介质 | |
CN108875667B (zh) | 目标识别方法、装置、终端设备和存储介质 | |
CN108429745A (zh) | 登录的认证方法和认证系统、网页登录方法和系统 | |
CN110868554B (zh) | 直播中实时换脸的方法、装置、设备及存储介质 | |
Li et al. | Studying WiFi and accelerometer data based authentication method on mobile phones | |
CN103984931B (zh) | 一种信息处理方法及第一电子设备 | |
CN107273732A (zh) | 一种用于移动终端的解锁方法、装置、设备及存储介质 | |
CN103152524B (zh) | 拍照装置及其连拍方法 | |
CN111445640A (zh) | 基于虹膜识别的快递取件方法、装置、设备及存储介质 | |
WO2021000415A1 (zh) | 活体用户检测方法、装置、计算机设备和存储介质 | |
CN109697421A (zh) | 基于微表情的评价方法、装置、计算机设备和存储介质 | |
CN106357977B (zh) | 对焦方法及装置 | |
Abate et al. | MUBAI: multiagent biometrics for ambient intelligence | |
CN110472487B (zh) | 活体用户检测方法、装置、计算机设备和存储介质 | |
CN110012216A (zh) | 信息获取方法和装置、智能终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |