CN110119719A - 活体检测方法、装置、设备及计算机可读存储介质 - Google Patents
活体检测方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110119719A CN110119719A CN201910405260.XA CN201910405260A CN110119719A CN 110119719 A CN110119719 A CN 110119719A CN 201910405260 A CN201910405260 A CN 201910405260A CN 110119719 A CN110119719 A CN 110119719A
- Authority
- CN
- China
- Prior art keywords
- video stream
- live video
- client
- facial image
- vivo detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000001574 biopsy Methods 0.000 title claims abstract description 32
- 238000001514 detection method Methods 0.000 claims abstract description 166
- 238000001727 in vivo Methods 0.000 claims abstract description 133
- 230000001815 facial effect Effects 0.000 claims abstract description 101
- 238000012360 testing method Methods 0.000 claims abstract description 71
- 230000008569 process Effects 0.000 claims abstract description 21
- 238000004020 luminiscence type Methods 0.000 claims abstract description 9
- 238000013135 deep learning Methods 0.000 claims description 58
- 230000005540 biological transmission Effects 0.000 claims description 14
- 238000007689 inspection Methods 0.000 claims description 8
- 235000013399 edible fruits Nutrition 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 8
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 244000174681 Michelia champaca Species 0.000 description 1
- 206010044074 Torticollis Diseases 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 208000018197 inherited torticollis Diseases 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及金融科技领域,并公开了一种活体检测方法,该方法包括:接收客户端发送的第一实时视频流,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果;向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光;在所述客户端屏幕发光过程中,接收所述客户端发送的第二实时视频流,对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果;根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体。本发明还公开了一种活体检测装置、设备和一种计算机可读存储介质。本发明提高了活体检测的准确性和实时性,同时降低了客户端处理负担。
Description
技术领域
本发明涉及金融科技(Fintech)技术领域,尤其涉及活体检测方法、装置、设备及计算机可读存储介质。
背景技术
随着计算机技术的发展,越来越多的技术(大数据、分布式、区块链Blockchain、人工智能等)应用在金融领域,传统金融业正在逐步向金融科技(Fintech)转变,但由于金融行业的安全性、实时性要求,也对技术提出了更高的要求。
目前,人脸识别技术已经广泛地应用于金融注册、支付等身份认证场景中,其中人脸识别技术包括人脸验证和活体检测,活体检测主要是用来确认采集到的人脸图像数据是来自用户本人,而不是回放或者伪造材料。现有的活体检测方式包括:(1)光线活体。光线活体是通过手机屏幕发光,然后检测人脸反射光来判断用户是否为活体,现有的光线活体不能够完全抵挡平面攻击和视频回放攻击,导致检测结果的准确性不高,此外,需要由客户端将包含用户人脸的视频录制完成后,再将视频发送给后台服务器检测,导致检测的实时性不高,影响用户体验。(2)静默活体。静默活体是通过检测用户短时间内的微表情变化(如眼皮和眼球的律动,眨眼,嘴唇和周边面颊的伸缩等)来判断用户是否为活体,现有的静默活体不能很有效地抵挡平面攻击、视频回放攻击和面具攻击,导致检测结果的准确性不高,此外,检测过程在客户端完成,导致客户端处理负担较大。
因而,现有的活体检测方式存在检测准确性和实时性不高、客户端处理负担较大的问题。
发明内容
本发明的主要目的在于提出一种活体检测方法、装置、设备及计算机可读存储介质,旨在提高活体检测的准确性和实时性,同时降低客户端处理负担。
为实现上述目的,本发明提供一种活体检测方法,所述活体检测方法包括如下步骤:
接收客户端发送的第一实时视频流,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果;
向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光;
在所述客户端屏幕发光过程中,接收所述客户端发送的第二实时视频流,对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果;
根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体。
优选地,所述接收客户端发送的第一实时视频流的步骤包括:
当接收到客户端发送的活体检测指令时,与所述客户端建立网页即时通信连接;
通过所述网页即时通信连接,接收所述客户端发送的第一实时视频流。
优选地,所述对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果的步骤之前,还包括:
获取所述第一实时视频流对应的视频亮度,判断所述视频亮度是否大于或等于预设的视频亮度;
当所述视频亮度大于或等于预设的视频亮度时,获取所述第一实时视频流对应的视频中的人脸大小和人脸位置,判断所述人脸大小和所述人脸位置是否满足预设条件;
当所述人脸大小和所述人脸位置满足预设条件时,获取所述第一实时视频流对应的视频中的人脸背景,判断所述人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同;
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景不同时,执行步骤:对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果。
优选地,所述判断所述人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同的步骤之后,还包括:
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景相同时,确定所述待检测人脸图像不为活体,并向所述客户端返回活体检测失败的提示信息。
优选地,所述对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果的步骤包括:
从所述第一实时视频流中选取预设数量的视频帧,将所述视频帧发送至预设的人皮面具深度学习服务,同时,将所述第一实时视频流发送至预设的静默活体深度学习服务;
接收所述人皮面具深度学习服务和所述静默活体深度学习服务返回的第一可信度值,将所述第一可信度值作为第一检测结果。
优选地,所述向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光的步骤包括:
向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设顺序依次发出预设种颜色的光线;
所述对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果的步骤包括:
从所述第二实时视频流中获取所述预设种颜色的光线对应的人脸图像,形成人脸图像序列,其中每种颜色的光线对应若干帧人脸图像;
获取所述人脸图像序列中两两相邻的颜色之间的差异图,得到差异图序列;
将所述差异图序列发送至预设的平面攻击深度学习服务和视频攻击深度学习服务;
接收所述平面攻击深度学习服务和所述视频攻击深度学习服务返回的第二可信度值,将所述第二可信度值作为第二检测结果。
优选地,所述根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体的步骤包括:
将所述第一可信度值和所述第二可信度值分别与预设阈值进行比较;
当所述第一可信度值和/或所述第二可信度值大于或等于所述预设阈值时,确定所述待检测人脸图像为活体。
优选地,所述确定所述待检测人脸图像为活体的步骤之前,还包括:
判断所述第一实时视频流和所述第二实时视频流中的待检测人脸图像是否为同一个人;
当所述第一实时视频流和所述第二实时视频流中的待检测人脸图像为同一个人时,执行步骤:确定所述待检测人脸图像为活体。
此外,为实现上述目的,本发明还提供一种活体检测装置,所述活体检测装置包括:
第一检测模块,用于接收客户端发送的第一实时视频流,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果;
控制模块,用于向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光;
第二检测模块,用于在所述客户端屏幕发光过程中,接收所述客户端发送的第二实时视频流,对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果;
确定模块,用于根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体。
优选地,所述第一检测模块还用于:
当接收到客户端发送的活体检测指令时,与所述客户端建立网页即时通信连接;
通过所述网页即时通信连接,接收所述客户端发送的第一实时视频流。
优选地,所述第一检测模块还用于:
获取所述第一实时视频流对应的视频亮度,判断所述视频亮度是否大于或等于预设的视频亮度;
当所述视频亮度大于或等于预设的视频亮度时,获取所述第一实时视频流对应的视频中的人脸大小和人脸位置,判断所述人脸大小和所述人脸位置是否满足预设条件;
当所述人脸大小和所述人脸位置满足预设条件时,获取所述第一实时视频流对应的视频中的人脸背景,判断所述人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同;
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景不同时,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果。
优选地,所述第一检测模块还用于:
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景相同时,确定所述待检测人脸图像不为活体,并向所述客户端返回活体检测失败的提示信息。
优选地,第一检测模块还用于:
从所述第一实时视频流中选取预设数量的视频帧,将所述视频帧发送至预设的人皮面具深度学习服务,同时,将所述第一实时视频流发送至预设的静默活体深度学习服务;
接收所述人皮面具深度学习服务和所述静默活体深度学习服务返回的第一可信度值,将所述第一可信度值作为第一检测结果。
优选地,所述控制模块还用于:
向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设顺序依次发出预设种颜色的光线;
所述第二检测模块还用于:
从所述第二实时视频流中获取所述预设种颜色的光线对应的人脸图像,形成人脸图像序列,其中每种颜色的光线对应若干帧人脸图像;
获取所述人脸图像序列中两两相邻的颜色之间的差异图,得到差异图序列;
将所述差异图序列发送至预设的平面攻击深度学习服务和视频攻击深度学习服务;
接收所述平面攻击深度学习服务和所述视频攻击深度学习服务返回的第二可信度值,将所述第二可信度值作为第二检测结果。
优选地,所述确定模块还用于:
将所述第一可信度值和所述第二可信度值分别与预设阈值进行比较;
当所述第一可信度值和/或所述第二可信度值大于或等于所述预设阈值时,确定所述待检测人脸图像为活体。
优选地,所述确定模块还用于:
判断所述第一实时视频流和所述第二实时视频流中的待检测人脸图像是否为同一个人;
当所述第一实时视频流和所述第二实时视频流中的待检测人脸图像为同一个人时,确定所述待检测人脸图像为活体。
此外,为实现上述目的,本发明还提供一种活体检测设备,所述活体检测设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的活体检测程序,所述活体检测程序被所述处理器执行时实现如上所述的活体检测方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有活体检测程序,所述活体检测程序被处理器执行时实现如上所述的活体检测方法的步骤。
本发明接收客户端发送的第一实时视频流,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果;向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光;在所述客户端屏幕发光过程中,接收所述客户端发送的第二实时视频流,对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果;根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体。本发明通过对客户端发送的实时视频流依次进行静默活体检测和光线活体检测,进而确定实时视频流中的待检测人脸图像是否为活体,提高了活体检测的准确性和实时性,此外该过程无需客户端进行复杂的计算,从而降低了客户端处理负担。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的设备结构示意图;
图2为本发明活体检测方法第一实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的设备结构示意图。
本发明实施例活体检测设备为与客户端对应的活体检测服务器。
如图1所示,该活体检测设备可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的设备结构并不构成对设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及活体检测程序。
在图1所示的设备中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的活体检测程序,并执行下述活体检测方法各个实施例中的操作。
基于上述硬件结构,提出本发明活体检测方法实施例。
参照图2,图2为本发明活体检测方法第一实施例的流程示意图,所述方法包括:
步骤S10,接收客户端发送的第一实时视频流,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果;
本实施例活体检测方法应用于后台活体检测服务器对客户端用户进行身份认证的场景,如金融机构(银行机构、保险机构或理财机构)中各类金融注册、支付场景,其中客户端可以是智能手机、平板电脑、便携计算机等。
本实施例中,在进行活体检测时,需首先建立客户端和服务器之间的通信连接,且该通信连接能够支持视频流的实时传输,在建立通信连接后,客户端用户进入人脸调整阶段,该阶段服务器接收客户端发送的第一实时视频流,并对该第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果。
其中,所述接收客户端发送的第一实时视频流的步骤可以进一步包括:当接收到客户端发送的活体检测指令时,与所述客户端建立网页即时通信连接;通过所述网页即时通信连接,接收所述客户端发送的第一实时视频流。
具体地,客户端可以在用户进行金融注册、支付或其他需要对用户进行身份认证的场景时,向服务器发送活体检测指令,服务器接收到该活体检测指令,即与客户端建立WebRTC(Web Real-Time Communication,网页即时通信)连接,通过该WebRTC连接,服务器接收客户端发送的第一实时视频流,其中WebRTC连接支持网页浏览器进行实时视频传输。
需要说明的是,为尽量提高客户端和服务器之间的数据传输速率,该WebRTC连接可以是基于第5代移动通信网络(5G)的连接,5G下,上传(500M/s)和下载(1G/s)速度非常快,视频足以做到实时传输,当然该WebRTC连接也可以是基于其他通信网络的连接,具体实施时可以灵活设置。
进一步地,所述对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果的步骤之前,还可以包括:获取所述第一实时视频流对应的视频亮度,判断所述视频亮度是否大于或等于预设的视频亮度;当所述视频亮度大于或等于预设的视频亮度时,获取所述第一实时视频流对应的视频中的人脸大小和人脸位置,判断所述人脸大小和所述人脸位置是否满足预设条件;当所述人脸大小和所述人脸位置满足预设条件时,获取所述第一实时视频流对应的视频中的人脸背景,判断所述人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同;当所述人脸背景与预先保存的历史活体检测视频中的人脸背景不同时,执行步骤:对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果。
在本实施例中,考虑到视频亮度、视频中的人脸姿态以及一些与人脸背景相关的典型攻击场景(若连续几次活体检测中人脸背景相同,但人脸不同,则极有可能是攻击)对活体检测准确性的影响,在进行静默活体检测之前,可以通过检测视频亮度、视频中的人脸大小和人脸位置、视频中的人脸背景来排除这些因素的影响。
具体地,在接收到客户端发送的第一实时视频流后,服务器可以首先获取该第一实时视频流对应的视频亮度,并判断该视频亮度是否大于或等于预设的视频亮度,若否,则向客户端返回提示信息以提示用户调整亮度,若是,则进入人脸姿态检测,此时获取第一实时视频流对应的视频中的人脸大小和人脸位置,判断所述人脸大小和所述人脸位置是否满足预设条件,该预设条件包括但不限于人脸大小在预设区间范围内、人脸位置是否在屏幕中央且为完整人脸等,若不满足预设条件,则说明当前人脸姿态不端正(如离屏幕过近或过远、仰头、歪头等),此时向客户端返回提示信息以提示用户调整姿态,若满足预设条件,则进一步获取第一实时视频流对应的视频中的人脸背景,判断该人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同,其中历史活体检测视频为本次活体检测的上一次或前若干次活体检测视频,若不同,则不存在攻击,此时对第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果。
进一步地,所述判断所述人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同的步骤之后,还包括:当所述人脸背景与预先保存的历史活体检测视频中的人脸背景相同时,确定所述待检测人脸图像不为活体,并向所述客户端返回活体检测失败的提示信息。
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景相同时,极有可能是攻击场景,此时服务器直接确定待检测人脸图像不为活体,并向客户端返回活体检测失败的提示信息。
通过上述方式,能够在静默活体检测之前,有效排除视频亮度、视频中的人脸姿态以及人脸背景对活体检测准确性的影响,从而有利于进一步提高活体检测的准确性。
步骤S20,向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光;
在得到静默活体检测结果之后,服务器向客户端发送光线活体检测指令,以控制客户端屏幕按照预设规则进行发光,比如可以控制客户端屏幕按照预设顺序依次发出不同颜色的光线,该过程中,客户端通过摄像头采集包含有待检测人脸图像的第二实时视频流发送给服务器。
步骤S30,在所述客户端屏幕发光过程中,接收所述客户端发送的第二实时视频流,对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果;
服务器在客户端屏幕发光过程中,接收客户端发送的第二实时视频流,并对该第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果。
步骤S40,根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体。
该步骤中,服务器根据上述第一检测结果和第二检测结果确定客户端发送的视频流中的待检测人脸图像是否为活体。比如,当第一检测结果和第二检测结果均返回待检测人脸图像为活体时,服务器即判定待检测人脸图像为活体;又如,当第一检测结果和第二检测结果为可信度值时,若第一检测结果和第二检测结果的可信度值均大于预设阈值,则服务器判定待检测人脸图像为活体。通过结合静默活体检测结果和光线活体检测结果,实现了对待检测人脸图像是否为活体的准确判定。
需要说明的是,服务器还可以将第一实时视频流和第二实时视频流进行保存,以便于后续人工审核追溯。
在本实施例中,通过对客户端发送的实时视频流依次进行静默活体检测和光线活体检测,进而确定实时视频流中的待检测人脸图像是否为活体,提高了活体检测的准确性和实时性,此外该过程无需客户端进行复杂的计算,从而降低了客户端处理负担。
进一步地,基于本发明活体检测方法第一实施例,提出本发明活体检测方法第二实施例。
在本实施例中,所述对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果的步骤包括:从所述第一实时视频流中选取预设数量的视频帧,将所述视频帧发送至预设的人皮面具深度学习服务,同时,将所述第一实时视频流发送至预设的静默活体深度学习服务;接收所述人皮面具深度学习服务和所述静默活体深度学习服务返回的第一可信度值,将所述第一可信度值作为第一检测结果。
服务器在接收到第一实时视频流后,可以从该第一实时视频流中选取预设数量的视频帧,比如为了提高检测的准确性,可以选取预设时间段内的一最佳视频帧,然后将选取的视频帧发送至预设的人皮面具深度学习服务进行人皮面具攻击检测,同时,服务器将第一实时视频流发送至预设的静默活体深度学习服务进行静默活体检测;之后,服务器接收人皮面具深度学习服务和静默活体深度学习服务返回的可信度值,将其作为第一检测结果。
通过上述方式,实现了对第一实时视频流进行人皮面具攻击检测和静默活体检测,检测较为全面。
进一步地,基于本发明活体检测方法第二实施例,提出本发明活体检测方法第三实施例。
在本实施例中,上述步骤S20可以包括:向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设顺序依次发出预设种颜色的光线;对应地,所述对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果的步骤包括:从所述第二实时视频流中获取所述预设种颜色的光线对应的人脸图像,形成人脸图像序列,其中每种颜色的光线对应若干帧人脸图像;获取所述人脸图像序列中两两相邻的颜色之间的差异图,得到差异图序列;将所述差异图序列发送至预设的平面攻击深度学习服务和视频攻击深度学习服务;接收所述平面攻击深度学习服务和所述视频攻击深度学习服务返回的第二可信度值,将所述第二可信度值作为第二检测结果。
具体地,在光线活体检测阶段,服务器控制客户端屏幕按照预设顺序依次发出预设种颜色的光线,其中光线的颜色种类和数量可以灵活选择,比如可以从红、黄、蓝、紫、绿、橙等6种颜色的光线中随机选取4种,然后控制客户端屏幕按照预设顺序依次发出这4种颜色的光线,根据光线反射,第二实时视频流中将包含该预设种颜色的光线对应的人脸图像,服务器从第二实时视频流中获取预设种颜色的光线对应的人脸图像,由此形成一个人脸图像序列,其中每种颜色的光线对应若干帧人脸图像;然后,服务器获取该人脸图像序列中两两相邻的颜色之间的差异图,得到差异图序列,比如客户端屏幕依次发出红、黄、蓝、紫这4种颜色的光线,则需分别获取红黄,黄蓝,蓝紫这几个相邻的颜色之间的差异图,由此得到一个差异图序列;之后,将该差异图序列发送至预设的平面攻击深度学习服务和视频攻击深度学习服务进行光线活体检测;服务器接收平面攻击深度学习服务和视频攻击深度学习服务返回的可信度值,将其作为第二检测结果。
上述方式通过平面攻击深度学习服务和视频攻击深度学习服务对第二实时视频流进行光线活体检测,检测较为全面。
进一步地,基于本发明活体检测方法第三实施例,提出本发明活体检测方法第四实施例。
在本实施例中,上述步骤S40可以包括:将所述第一可信度值和所述第二可信度值分别与预设阈值进行比较;当所述第一可信度值和/或所述第二可信度值大于或等于所述预设阈值时,确定所述待检测人脸图像为活体。
在本实施例中,服务器将上述第一可信度值和第二可信度值分别与预设阈值进行比较,以确定待检测人脸图像是否为活体。在一实施方式中,若预先设置的安全级别为高,则当第一可信度值和第二可信度值均大于或等于所述预设阈值时,确定待检测人脸图像为活体;在另一实施方式中,若预先设置的安全级别为低,则当第一可信度值或第二可信度值大于或等于所述预设阈值时,确定待检测人脸图像为活体。如此判断的灵活性较高。
进一步地,所述确定所述待检测人脸图像为活体的步骤之前,还可以包括:判断所述第一实时视频流和所述第二实时视频流中的待检测人脸图像是否为同一个人;当所述第一实时视频流和所述第二实时视频流中的待检测人脸图像为同一个人时,执行步骤:确定所述待检测人脸图像为活体。
考虑到实际的攻击场景中,客户端用户有换脸的可能,因此,在确定待检测人脸图像为活体之前,可以通过人脸识别,判断第一实时视频流和第二实时视频流中的待检测人脸图像是否为同一个人,若是,则确定待检测人脸图像为活体;否则确定待检测人脸图像不为活体,并向客户端返回活体检测失败的提示信息。通过这种方式,进一步提高了活体检测的准确性。
本发明还提供一种活体检测装置,所述活体检测装置包括:
第一检测模块,用于接收客户端发送的第一实时视频流,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果;
控制模块,用于向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光;
第二检测模块,用于在所述客户端屏幕发光过程中,接收所述客户端发送的第二实时视频流,对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果;
确定模块,用于根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体。
进一步地,所述第一检测模块还用于:
当接收到客户端发送的活体检测指令时,与所述客户端建立网页即时通信连接;
通过所述网页即时通信连接,接收所述客户端发送的第一实时视频流。
进一步地,所述第一检测模块还用于:
获取所述第一实时视频流对应的视频亮度,判断所述视频亮度是否大于或等于预设的视频亮度;
当所述视频亮度大于或等于预设的视频亮度时,获取所述第一实时视频流对应的视频中的人脸大小和人脸位置,判断所述人脸大小和所述人脸位置是否满足预设条件;
当所述人脸大小和所述人脸位置满足预设条件时,获取所述第一实时视频流对应的视频中的人脸背景,判断所述人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同;
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景不同时,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果。
进一步地,所述第一检测模块还用于:
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景相同时,确定所述待检测人脸图像不为活体,并向所述客户端返回活体检测失败的提示信息。
进一步地,第一检测模块还用于:
从所述第一实时视频流中选取预设数量的视频帧,将所述视频帧发送至预设的人皮面具深度学习服务,同时,将所述第一实时视频流发送至预设的静默活体深度学习服务;
接收所述人皮面具深度学习服务和所述静默活体深度学习服务返回的第一可信度值,将所述第一可信度值作为第一检测结果。
进一步地,所述控制模块还用于:
向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设顺序依次发出预设种颜色的光线;
所述第二检测模块还用于:
从所述第二实时视频流中获取所述预设种颜色的光线对应的人脸图像,形成人脸图像序列,其中每种颜色的光线对应若干帧人脸图像;
获取所述人脸图像序列中两两相邻的颜色之间的差异图,得到差异图序列;
将所述差异图序列发送至预设的平面攻击深度学习服务和视频攻击深度学习服务;
接收所述平面攻击深度学习服务和所述视频攻击深度学习服务返回的第二可信度值,将所述第二可信度值作为第二检测结果。
进一步地,所述确定模块还用于:
将所述第一可信度值和所述第二可信度值分别与预设阈值进行比较;
当所述第一可信度值和/或所述第二可信度值大于或等于所述预设阈值时,确定所述待检测人脸图像为活体。
进一步地,所述确定模块还用于:
判断所述第一实时视频流和所述第二实时视频流中的待检测人脸图像是否为同一个人;
当所述第一实时视频流和所述第二实时视频流中的待检测人脸图像为同一个人时,确定所述待检测人脸图像为活体。
上述各模块所执行的操作具体可参照本发明活体检测方法实施例,此处不再赘述。
本发明还提供一种计算机可读存储介质。
本发明计算机可读存储介质上存储有活体检测程序,所述活体检测程序被处理器执行时实现如上所述的活体检测方法的步骤。
其中,在所述处理器上运行的活体检测程序被执行时所实现的方法可参照本发明活体检测方法各个实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (17)
1.一种活体检测方法,其特征在于,所述活体检测方法包括如下步骤:
接收客户端发送的第一实时视频流,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果;
向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光;
在所述客户端屏幕发光过程中,接收所述客户端发送的第二实时视频流,对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果;
根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体。
2.如权利要求1所述的活体检测方法,其特征在于,所述接收客户端发送的第一实时视频流的步骤包括:
当接收到客户端发送的活体检测指令时,与所述客户端建立网页即时通信连接;
通过所述网页即时通信连接,接收所述客户端发送的第一实时视频流。
3.如权利要求1所述的活体检测方法,其特征在于,所述对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果的步骤之前,还包括:
获取所述第一实时视频流对应的视频亮度,判断所述视频亮度是否大于或等于预设的视频亮度;
当所述视频亮度大于或等于预设的视频亮度时,获取所述第一实时视频流对应的视频中的人脸大小和人脸位置,判断所述人脸大小和所述人脸位置是否满足预设条件;
当所述人脸大小和所述人脸位置满足预设条件时,获取所述第一实时视频流对应的视频中的人脸背景,判断所述人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同;
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景不同时,执行步骤:对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果。
4.如权利要求3所述的活体检测方法,其特征在于,所述判断所述人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同的步骤之后,还包括:
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景相同时,确定所述待检测人脸图像不为活体,并向所述客户端返回活体检测失败的提示信息。
5.如权利要求1至4中任一项所述的活体检测方法,其特征在于,所述对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果的步骤包括:
从所述第一实时视频流中选取预设数量的视频帧,将所述视频帧发送至预设的人皮面具深度学习服务,同时,将所述第一实时视频流发送至预设的静默活体深度学习服务;
接收所述人皮面具深度学习服务和所述静默活体深度学习服务返回的第一可信度值,将所述第一可信度值作为第一检测结果。
6.如权利要求5所述的活体检测方法,其特征在于,所述向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光的步骤包括:
向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设顺序依次发出预设种颜色的光线;
所述对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果的步骤包括:
从所述第二实时视频流中获取所述预设种颜色的光线对应的人脸图像,形成人脸图像序列,其中每种颜色的光线对应若干帧人脸图像;
获取所述人脸图像序列中两两相邻的颜色之间的差异图,得到差异图序列;
将所述差异图序列发送至预设的平面攻击深度学习服务和视频攻击深度学习服务;
接收所述平面攻击深度学习服务和所述视频攻击深度学习服务返回的第二可信度值,将所述第二可信度值作为第二检测结果。
7.如权利要求6所述的活体检测方法,其特征在于,所述根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体的步骤包括:
将所述第一可信度值和所述第二可信度值分别与预设阈值进行比较;
当所述第一可信度值和/或所述第二可信度值大于或等于所述预设阈值时,确定所述待检测人脸图像为活体。
8.如权利要求7所述的活体检测方法,其特征在于,所述确定所述待检测人脸图像为活体的步骤之前,还包括:
判断所述第一实时视频流和所述第二实时视频流中的待检测人脸图像是否为同一个人;
当所述第一实时视频流和所述第二实时视频流中的待检测人脸图像为同一个人时,执行步骤:确定所述待检测人脸图像为活体。
9.一种活体检测装置,其特征在于,所述活体检测装置包括:
第一检测模块,用于接收客户端发送的第一实时视频流,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果;
控制模块,用于向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设规则进行发光;
第二检测模块,用于在所述客户端屏幕发光过程中,接收所述客户端发送的第二实时视频流,对所述第二实时视频流中的待检测人脸图像进行光线活体检测,得到第二检测结果;
确定模块,用于根据所述第一检测结果和所述第二检测结果确定所述待检测人脸图像是否为活体。
10.如权利要求9所述的活体检测装置,其特征在于,所述第一检测模块还用于:
当接收到客户端发送的活体检测指令时,与所述客户端建立网页即时通信连接;
通过所述网页即时通信连接,接收所述客户端发送的第一实时视频流。
11.如权利要求9所述的活体检测装置,其特征在于,所述第一检测模块还用于:
获取所述第一实时视频流对应的视频亮度,判断所述视频亮度是否大于或等于预设的视频亮度;
当所述视频亮度大于或等于预设的视频亮度时,获取所述第一实时视频流对应的视频中的人脸大小和人脸位置,判断所述人脸大小和所述人脸位置是否满足预设条件;
当所述人脸大小和所述人脸位置满足预设条件时,获取所述第一实时视频流对应的视频中的人脸背景,判断所述人脸背景是否与预先保存的历史活体检测视频中的人脸背景相同;
当所述人脸背景与预先保存的历史活体检测视频中的人脸背景不同时,对所述第一实时视频流中的待检测人脸图像进行静默活体检测,得到第一检测结果。
12.如权利要求9至11中任一项所述的活体检测装置,其特征在于,第一检测模块还用于:
从所述第一实时视频流中选取预设数量的视频帧,将所述视频帧发送至预设的人皮面具深度学习服务,同时,将所述第一实时视频流发送至预设的静默活体深度学习服务;
接收所述人皮面具深度学习服务和所述静默活体深度学习服务返回的第一可信度值,将所述第一可信度值作为第一检测结果。
13.如权利要求12所述的活体检测装置,其特征在于,所述控制模块还用于:
向所述客户端发送光线活体检测指令,以控制所述客户端屏幕按照预设顺序依次发出预设种颜色的光线;
所述第二检测模块还用于:
从所述第二实时视频流中获取所述预设种颜色的光线对应的人脸图像,形成人脸图像序列,其中每种颜色的光线对应若干帧人脸图像;
获取所述人脸图像序列中两两相邻的颜色之间的差异图,得到差异图序列;
将所述差异图序列发送至预设的平面攻击深度学习服务和视频攻击深度学习服务;
接收所述平面攻击深度学习服务和所述视频攻击深度学习服务返回的第二可信度值,将所述第二可信度值作为第二检测结果。
14.如权利要求13所述的活体检测装置,其特征在于,所述确定模块还用于:
将所述第一可信度值和所述第二可信度值分别与预设阈值进行比较;
当所述第一可信度值和/或所述第二可信度值大于或等于所述预设阈值时,确定所述待检测人脸图像为活体。
15.如权利要求14所述的活体检测装置,其特征在于,所述确定模块还用于:
判断所述第一实时视频流和所述第二实时视频流中的待检测人脸图像是否为同一个人;
当所述第一实时视频流和所述第二实时视频流中的待检测人脸图像为同一个人时,确定所述待检测人脸图像为活体。
16.一种活体检测设备,其特征在于,所述活体检测设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的活体检测程序,所述活体检测程序被所述处理器执行时实现如权利要求1至8中任一项所述的活体检测方法的步骤。
17.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有活体检测程序,所述活体检测程序被处理器执行时实现如权利要求1至8中任一项所述的活体检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910405260.XA CN110119719A (zh) | 2019-05-15 | 2019-05-15 | 活体检测方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910405260.XA CN110119719A (zh) | 2019-05-15 | 2019-05-15 | 活体检测方法、装置、设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110119719A true CN110119719A (zh) | 2019-08-13 |
Family
ID=67522616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910405260.XA Pending CN110119719A (zh) | 2019-05-15 | 2019-05-15 | 活体检测方法、装置、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110119719A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633659A (zh) * | 2019-08-30 | 2019-12-31 | 北京旷视科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN111325175A (zh) * | 2020-03-03 | 2020-06-23 | 北京三快在线科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN111597938A (zh) * | 2020-05-07 | 2020-08-28 | 马上消费金融股份有限公司 | 活体检测、模型训练方法及装置 |
CN111738161A (zh) * | 2020-06-23 | 2020-10-02 | 支付宝实验室(新加坡)有限公司 | 一种活体检测方法、装置及电子设备 |
CN111783640A (zh) * | 2020-06-30 | 2020-10-16 | 北京百度网讯科技有限公司 | 检测方法、装置、设备以及存储介质 |
CN111783644A (zh) * | 2020-06-30 | 2020-10-16 | 百度在线网络技术(北京)有限公司 | 检测方法、装置、设备和计算机存储介质 |
CN111898529A (zh) * | 2020-07-29 | 2020-11-06 | 北京字节跳动网络技术有限公司 | 脸部检测方法、装置、电子设备和计算机可读介质 |
CN113011385A (zh) * | 2021-04-13 | 2021-06-22 | 深圳市赛为智能股份有限公司 | 人脸静默活体检测方法、装置、计算机设备及存储介质 |
CN113128255A (zh) * | 2019-12-30 | 2021-07-16 | 上海依图网络科技有限公司 | 活体检测装置方法、装置、芯片和计算机可读存储介质 |
CN113569622A (zh) * | 2021-06-09 | 2021-10-29 | 北京旷视科技有限公司 | 基于网页的活体检测方法、装置、系统及电子设备 |
CN113792701A (zh) * | 2021-09-24 | 2021-12-14 | 北京市商汤科技开发有限公司 | 一种活体检测方法、装置、计算机设备和存储介质 |
CN114973426A (zh) * | 2021-06-03 | 2022-08-30 | 中移互联网有限公司 | 活体检测方法、装置及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100857716B1 (ko) * | 2007-06-04 | 2008-09-08 | 에스케이 텔레콤주식회사 | 얼굴검출 및 트래킹을 활용한 화상통화 방법 및 시스템 |
CN107832712A (zh) * | 2017-11-13 | 2018-03-23 | 深圳前海微众银行股份有限公司 | 活体检测方法、装置和计算机可读存储介质 |
CN107992794A (zh) * | 2016-12-30 | 2018-05-04 | 腾讯科技(深圳)有限公司 | 一种活体检测方法、装置和存储介质 |
CN108875509A (zh) * | 2017-11-23 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测方法、装置和系统及存储介质 |
CN109684945A (zh) * | 2018-12-10 | 2019-04-26 | 平安科技(深圳)有限公司 | 基于瞳孔的活体检测方法、装置、服务器及存储介质 |
-
2019
- 2019-05-15 CN CN201910405260.XA patent/CN110119719A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100857716B1 (ko) * | 2007-06-04 | 2008-09-08 | 에스케이 텔레콤주식회사 | 얼굴검출 및 트래킹을 활용한 화상통화 방법 및 시스템 |
CN107992794A (zh) * | 2016-12-30 | 2018-05-04 | 腾讯科技(深圳)有限公司 | 一种活体检测方法、装置和存储介质 |
CN107832712A (zh) * | 2017-11-13 | 2018-03-23 | 深圳前海微众银行股份有限公司 | 活体检测方法、装置和计算机可读存储介质 |
CN108875509A (zh) * | 2017-11-23 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测方法、装置和系统及存储介质 |
CN109684945A (zh) * | 2018-12-10 | 2019-04-26 | 平安科技(深圳)有限公司 | 基于瞳孔的活体检测方法、装置、服务器及存储介质 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633659A (zh) * | 2019-08-30 | 2019-12-31 | 北京旷视科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110633659B (zh) * | 2019-08-30 | 2022-11-04 | 北京旷视科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN113128255A (zh) * | 2019-12-30 | 2021-07-16 | 上海依图网络科技有限公司 | 活体检测装置方法、装置、芯片和计算机可读存储介质 |
CN111325175A (zh) * | 2020-03-03 | 2020-06-23 | 北京三快在线科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN111597938A (zh) * | 2020-05-07 | 2020-08-28 | 马上消费金融股份有限公司 | 活体检测、模型训练方法及装置 |
CN111597938B (zh) * | 2020-05-07 | 2022-02-22 | 马上消费金融股份有限公司 | 活体检测、模型训练方法及装置 |
CN111738161A (zh) * | 2020-06-23 | 2020-10-02 | 支付宝实验室(新加坡)有限公司 | 一种活体检测方法、装置及电子设备 |
CN111738161B (zh) * | 2020-06-23 | 2024-02-27 | 支付宝实验室(新加坡)有限公司 | 一种活体检测方法、装置及电子设备 |
CN111783640A (zh) * | 2020-06-30 | 2020-10-16 | 北京百度网讯科技有限公司 | 检测方法、装置、设备以及存储介质 |
CN111783644A (zh) * | 2020-06-30 | 2020-10-16 | 百度在线网络技术(北京)有限公司 | 检测方法、装置、设备和计算机存储介质 |
CN111898529B (zh) * | 2020-07-29 | 2022-07-19 | 北京字节跳动网络技术有限公司 | 脸部检测方法、装置、电子设备和计算机可读介质 |
CN111898529A (zh) * | 2020-07-29 | 2020-11-06 | 北京字节跳动网络技术有限公司 | 脸部检测方法、装置、电子设备和计算机可读介质 |
CN113011385A (zh) * | 2021-04-13 | 2021-06-22 | 深圳市赛为智能股份有限公司 | 人脸静默活体检测方法、装置、计算机设备及存储介质 |
CN114973426A (zh) * | 2021-06-03 | 2022-08-30 | 中移互联网有限公司 | 活体检测方法、装置及设备 |
CN114973426B (zh) * | 2021-06-03 | 2023-08-15 | 中移互联网有限公司 | 活体检测方法、装置及设备 |
CN113569622A (zh) * | 2021-06-09 | 2021-10-29 | 北京旷视科技有限公司 | 基于网页的活体检测方法、装置、系统及电子设备 |
CN113792701A (zh) * | 2021-09-24 | 2021-12-14 | 北京市商汤科技开发有限公司 | 一种活体检测方法、装置、计算机设备和存储介质 |
CN113792701B (zh) * | 2021-09-24 | 2024-08-13 | 北京市商汤科技开发有限公司 | 一种活体检测方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119719A (zh) | 活体检测方法、装置、设备及计算机可读存储介质 | |
KR102195922B1 (ko) | 인터넷에 기반하는 얼굴 미화 시스템 | |
KR102073351B1 (ko) | 서버 및 그것의 동작 방법 | |
US20230129747A1 (en) | Virtual clothing try-on | |
US11887262B2 (en) | Recommendations for extended reality systems | |
US20200356742A1 (en) | Image recognition method and apparatus | |
CN101390128B (zh) | 脸部器官的位置的检测方法及检测系统 | |
US20230042734A1 (en) | Face image processing method and apparatus, face image display method and apparatus, and device | |
CN111400596B (zh) | 信息分享方法和装置 | |
KR20230003555A (ko) | 텍스처 기반 자세 검증 | |
CN103299342A (zh) | 提供用于姿势识别的机制的方法和装置 | |
CN116457821A (zh) | 使用神经网络的对象重新照明 | |
US12069399B2 (en) | Dynamically switching between RGB and IR capture | |
CN107704388A (zh) | 用于确定应用的启动时间的方法和装置 | |
US12028601B2 (en) | Inclusive camera | |
US12079927B2 (en) | Light estimation using neural networks | |
CN113887498A (zh) | 人脸识别方法、装置、设备和存储介质 | |
CN108921138A (zh) | 用于生成信息的方法和装置 | |
CN109753889A (zh) | 服务评价方法、装置、计算机设备和存储介质 | |
CN116983660A (zh) | 一种图像处理的方法以及相关装置 | |
CN110232011A (zh) | 终端设备性能测试的方法及装置 | |
KR20230125292A (ko) | 머신 러닝에 의한 대표 비디오 프레임 선택 | |
CN112925719A (zh) | 测试方法及装置、电子设备及计算机可读存储介质 | |
CN111857336A (zh) | 头戴式设备及其渲染方法、存储介质 | |
CN109918890A (zh) | 图片验证码生成方法、服务器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |