CN112183347A - 基于深度空间梯度的活体检测方法、装置、设备及介质 - Google Patents
基于深度空间梯度的活体检测方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN112183347A CN112183347A CN202011043415.9A CN202011043415A CN112183347A CN 112183347 A CN112183347 A CN 112183347A CN 202011043415 A CN202011043415 A CN 202011043415A CN 112183347 A CN112183347 A CN 112183347A
- Authority
- CN
- China
- Prior art keywords
- depth
- loss
- detected
- living body
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能领域,提供一种基于深度空间梯度的活体检测方法、装置、设备及介质,能够采用视频做活体检测,而由于视频包含的信息量更多,相较于采用图片做活体检测的方式更有优势,利用损失函数训练得到的活体检测模型能够提取深度空间梯度图特征及动态视频帧图序列特征,提高了模型的泛化能力,同时也提高了模型的精度,使模型的兼容性更强,能够抵御新型攻击,进而利用人工智能手段实现更加准确的活体检测。本发明还涉及区块链技术,活体检测模型及活体检测结果可存储于区块链。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于深度空间梯度的活体检测方法、装置、设备及介质。
背景技术
活体检测通常需要进行冗长与繁琐的人工审核,因此,线下检测的业务员往往需要面对复杂、冗长且繁琐的步骤,不仅花费大量的时间来核查,而且在业务量高峰期时无法满足时效,导致出现漏检高风险案件,不仅浪费时间,且增加业务流程的机会成本与服务成本。
目前采用的活体检测方式大多数是对单一的图片做检测,但是随着智能终端的更新换代、欺诈手段的层出不穷,以及高清设备的普及,导致越来越多的非活体样本能够逃离大多数的人工检测及模型检测,且目前的视频活体检测多数表现不稳定,精度欠佳,无法达到业务上线的要求。
发明内容
鉴于以上内容,有必要提供一种基于深度空间梯度的活体检测方法、装置、设备及介质,能够采用视频做活体检测,并利用损失函数训练得到的活体检测模型能够提取深度空间梯度图特征及动态视频帧图序列特征,提高了模型的泛化能力,同时也提高了模型的精度,使模型的兼容性更强,能够抵御新型攻击,进而利用人工智能手段实现更加准确的活体检测。
一种基于深度空间梯度的活体检测方法,所述基于深度空间梯度的活体检测方法包括:
响应于活体检测指令,获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据;
构建深度对比损失、距离损失及二分类监督损失;
根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块;
当接收到待检测视频时,对所述待检测视频进行预处理,得到待检测图片;
将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据;
对所述输出数据进行分析,得到活体检测结果。
根据本发明优选实施例,所述对所述初始视频段的每张帧图片进行特征截取,得到样本数据包括:
将所述初始视频段的每张帧图片输入至YOLOv3网络中进行识别,得到每张帧图片的头像区域;
以每张帧图片的头像区域截取对应的每张帧图片,得到每个子样本;
整合得到的子样本,得到所述样本数据。
根据本发明优选实施例,所述基于深度空间梯度的活体检测方法还包括:
从所述样本数据中获取第一数量的样本数据作为第一样本,其中,所述第一数量为所述样本数据的数据量与配置数值的差;
计算每个第一样本的深度图特征,其中,所述深度图特征为经过所述残差空间梯度模块及所述空间短暂传播模块处理后得到;
根据所述第一数量及每个第一样本的深度图特征计算所述第一样本的深度图特征的均值;
将所述均值输入预设数量的全连接层及softmax层,输出中间特征;
采用Focal Loss函数对所述中间特征进行处理,得到所述二分类监督损失。
根据本发明优选实施例,所述基于深度空间梯度的活体检测方法还包括:
采用人脸对齐算法PRNet处理所述样本数据,得到脸部深度图;
计算所述样本数据的深度图特征;
确定每个样本数据对应的每个深度图特征的帧数;
根据所述脸部深度图、所述深度图特征及每个深度图特征的帧数计算所述距离损失。
根据本发明优选实施例,所述基于深度空间梯度的活体检测方法还包括:
获取sobel kernel集合中的矩阵;
对获取的矩阵与所述脸部深度图进行卷积处理,得到第一数值;
对获取的矩阵与所述深度图特征进行卷积处理,得到第二数值;
根据所述第一数值、所述第二数值及每个深度图特征的帧数计算所述深度对比损失。
根据本发明优选实施例,所述残差空间梯度模块包括残差运算及sobel kernel运算,所述空间短暂传播模块包括特征融合运算及ConvGRU卷积运算,所述根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型包括:
关闭所述预设网络中的所述空间短暂传播模块,得到第一网络;
基于所述深度对比损失及所述距离损失构建第一损失函数;
基于所述第一损失函数,从所述样本数据中获取数据训练所述第一网络,直至所述第一损失函数达到收敛,停止训练,得到第二网络;
基于所述深度对比损失、所述距离损失及所述二分类监督损失构建第二损失函数;
打开所述第二网络中的所述空间短暂传播模块,得到第三网络;
基于所述第二损失函数,从所述样本数据中获取数据训练所述第三网络,直至所述第二损失函数达到收敛,停止训练,得到所述活体检测模型。
根据本发明优选实施例,所述对所述输出数据进行分析,得到活体检测结果包括:
从所述输出数据中获取所述待检测图片的预测概率;
当所述预测概率大于或者等于配置概率时,确定在所述待检测图片中检测到非活体,基于所述待检测图片生成预警信息,并将所述预警信息发送至指定终端设备,其中,所述预警信息用于提示有伪装风险;或者
当所述预测概率小于所述配置概率时,确定在所述待检测图片中检测到活体,保存所述待检测图片至指定数据库。
一种基于深度空间梯度的活体检测装置,所述基于深度空间梯度的活体检测装置包括:
截取单元,用于响应于活体检测指令,获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据;
构建单元,用于构建深度对比损失、距离损失及二分类监督损失;
训练单元,用于根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块;
预处理单元,用于当接收到待检测视频时,对所述待检测视频进行预处理,得到待检测图片;
输入单元,用于将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据;
对所述输出数据进行分析,得到活体检测结果。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述基于深度空间梯度的活体检测方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述基于深度空间梯度的活体检测方法。
由以上技术方案可以看出,本发明能够响应于活体检测指令,获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据,采用视频做活体检测,而由于视频包含的信息量更多,因此相较于传统方式中采用图片做活体检测的方式更有优势,构建深度对比损失、距离损失及二分类监督损失,根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块,利用损失函数训练得到的活体检测模型能够提取深度空间梯度图特征及动态视频帧图序列特征,提高了模型的泛化能力,同时也提高了模型的精度,使模型的兼容性更强,进而能够抵御新型攻击,实现更加精准的活体检测,当接收到待检测视频时,对所述待检测视频进行预处理,得到待检测图片,将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据,对所述输出数据进行分析,得到活体检测结果,进而利用人工智能手段实现准确地活体检测。
附图说明
图1是本发明基于深度空间梯度的活体检测方法的较佳实施例的流程图。
图2是本发明基于深度空间梯度的活体检测装置的较佳实施例的功能模块图。
图3是本发明实现基于深度空间梯度的活体检测方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于深度空间梯度的活体检测方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于深度空间梯度的活体检测方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,响应于活体检测指令,获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据。
在本实施例中,所述伪装是指利用化妆、面具、口罩等方式掩饰人物原本的面部特征的攻击方式,所述伪装广泛存在于各个领域,给各个领域带来了一定的安全隐患。
其中,所述预设类型的伪装包括,但不限于以下一种或者多种类型的组合:
通过打印照片的方式伪装、通过视频回放的方式伪装、采用纸张等类型的遮挡物掩盖面部的方式伪装、通过佩戴口罩的方式伪装、通过妆容伪装、通过敷面膜的方式伪装、通过遮挡眼部的方式伪装、通过佩戴面具的方式伪装。
在本发明的至少一个实施例中,所述初始视频段可以是包含人物面部的视频段等。
所述初始视频段可以从历史检测数据中获取,另外,由于本实施例可以利用较少的数据进行模型的训练,因此也可以由相关人员进行数据的模拟,得到模拟视频,并从所述模拟视频中截取带有所述预设类型的伪装的视频作为所述初始视频段,本发明不限制。
在本实施例中,所述活体检测指令可以由指定人员进行触发,如风险管控人员、安全防护人员等。
本实施例采用视频做活体检测,而由于视频包含的信息量更多,因此相较于传统方式中采用图片做活体检测的方式更有优势。
在本发明的至少一个实施例中,所述对所述初始视频段的每张帧图片进行特征截取,得到样本数据包括:
将所述初始视频段的每张帧图片输入至YOLOv3网络中进行识别,得到每张帧图片的头像区域;
以每张帧图片的头像区域截取对应的每张帧图片,得到每个子样本;
整合得到的子样本,得到所述样本数据。
通过上述实施方式,由于YOLOv3网络本身具备较高的稳定精度,因此,以YOLOv3网络进行头像特征的截取,能够得到准确的样本数据,以供后续训练模型使用。同时,由于首先进行了头像特征的截取,也提高了后续模型训练的速度及准确度。
S11,构建深度对比损失、距离损失及二分类监督损失。
在本实施例中,所述基于深度空间梯度的活体检测方法还包括:
从所述样本数据中获取第一数量的样本数据作为第一样本,其中,所述第一数量为所述样本数据的数据量与配置数值的差;
计算每个第一样本的深度图特征,其中,所述深度图特征为经过所述残差空间梯度模块及所述空间短暂传播模块处理后得到;
根据所述第一数量及每个第一样本的深度图特征计算所述第一样本的深度图特征的均值;
将所述均值输入预设数量的全连接层及softmax层,输出中间特征;
采用Focal Loss函数对所述中间特征进行处理,得到所述二分类监督损失。
例如:所述配置值可以为1,所述预设数量可以为2。
具体地,可以采用下述公式计算所述二分类监督损失:
L1=Focal_loss(log(fcs(Davg)))
其中,L1为所述二分类监督损失,Davg为所述均值,fcs(Davg)为所述中间特征。
所述二分类监督损失可以用于不平衡标签样本,鉴于本案中样本数据不易获取,因此所述样本数据主要为不平衡标签样本。
当然,在其他实施例中,若所述样本数据为平衡标签样本,还可以采用其他方式计算所述二分类监督损失,在此不赘述。
在本实施例中,所述基于深度空间梯度的活体检测方法还包括:
采用人脸对齐算法PRNet处理所述样本数据,得到脸部深度图;
计算所述样本数据的深度图特征;
确定每个样本数据对应的每个深度图特征的帧数;
根据所述脸部深度图、所述深度图特征及每个深度图特征的帧数计算所述距离损失。
当然,在其他实施例中,还可以采用下述方式得到所述脸部深度图:
获取所述样本数据的标签,根据所述标签在配置数据库中进行匹配,并将匹配的数据确定为所述脸部深度图。
具体地,可以采用下述公式计算所述距离损失:
其中,L2为所述距离损失,Dp为所述深度图特征,Da为所述脸部深度图,M为每个深度图特征的帧数。
在本实施例中,所述基于深度空间梯度的活体检测方法还包括:
获取sobel kernel集合中的矩阵;
对获取的矩阵与所述脸部深度图进行卷积处理,得到第一数值;
对获取的矩阵与所述深度图特征进行卷积处理,得到第二数值;
根据所述第一数值、所述第二数值及每个深度图特征的帧数计算所述深度对比损失。
具体地,可以采用下述公式计算所述深度对比损失:
其中,L3为所述深度对比损失,ki为所述sobel kernel集合中的矩阵,i为所述sobel kernel集合中矩阵的数值编码。
例如:当所述sobel kernel集合中有7个矩阵时,i的取值为[0,7]之间的整数。
S12,根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块。
在本发明的至少一个实施例中,所述残差空间梯度模块包括残差运算及sobelkernel运算,所述空间短暂传播模块包括特征融合运算及ConvGRU卷积运算,所述根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型包括:
关闭所述预设网络中的所述空间短暂传播模块,得到第一网络;
基于所述深度对比损失及所述距离损失构建第一损失函数;
基于所述第一损失函数,从所述样本数据中获取数据训练所述第一网络,直至所述第一损失函数达到收敛,停止训练,得到第二网络;
基于所述深度对比损失、所述距离损失及所述二分类监督损失构建第二损失函数;
打开所述第二网络中的所述空间短暂传播模块,得到第三网络;
基于所述第二损失函数,从所述样本数据中获取数据训练所述第三网络,直至所述第二损失函数达到收敛,停止训练,得到所述活体检测模型。
具体地,可以通过将网络中的指定参数设置为0,以关闭所述预设网络中的所述空间短暂传播模块,当需要打开所述第二网络时,可以将所述指定参数设置为大于0。
具体地,本实施例会对残差运算的结果及sobel kernel运算的结果进行和运算,并对和运算后得到的特征进行规范化处理及线性修正。
具体地,所述特征融合运算包括:
获取相邻两时刻的特征,包括第一特征及第二特征,所述第一特征与所述第二特征间隔预设时长;
将所述第一特征输入至1*1卷积层,得到第一压缩特征;
将所述第二特征输入至1*1卷积层,得到第二压缩特征
计算所述第一压缩特征与所述第二压缩特征的差值;
对所述第一特征进行sobel kernel运算,得到第一运算结果,及对所述第二特征进行sobel kernel运算,得到第二运算结果;
拼接所述第一压缩特征、所述差值、所述第一运算结果及所述第二运算结果,得到融合特征。
需要说明的是,对于所述空间短暂传播模块中的每个特征融合运算都执行上述过程,并且,前一个特征融合运算后得到的融合特征将参与下一个特征融合运算的特征拼接,直至所有的特征融合运算都执行完毕。
进一步地,在所有的特征融合运算都执行完毕后,将最终拼接后得到的特征进行ConvGRU卷积运算,以提取出特征中的时间信息,输出时间序列特征。
在本实施例中,所述第一损失函数的公式为:
L′=∑(L2+L3)
所述第二损失函数的公式为:
L=βL1+(1-β)∑(L2+L3)
其中,β为可调节参数。
在模型训练时,可以每间隔预设帧做检测训练或预测,例如:所述预设帧可以为5。
通过上述训练得到的活体检测模型能够利用残差空间梯度模块提取深度空间梯度图特征,解决了高清设备的普及带来的在线活体检测精度差的问题,提升了对高清非活体的样本的检测命中率,并利用空间短暂传播模块提取动态视频帧图序列特征,提高了模型的泛化能力及辨别性能,同时也提高了模型的精度,使模型的兼容性更强,进而能够抵御新型攻击,实现更加精准的活体检测。
同时,相较于传统的具有眨眼与摆头要求的活体检测方式,本案无需上述要求,能够给用户带来更好的体验。
S13,当接收到待检测视频时,对所述待检测视频进行预处理,得到待检测图片。
在本实施例中,所述对所述待检测视频进行预处理包括:
获取所述待检测视频中的所有图片;
对获取的图片进行特征截取,得到所述待检测图片。
通过上述实施方式,能够提高特征的针对性,进一步提升了后续活体检测的准确度。
S14,将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据。
其中,所述输出数据包括所述待检测图片及对应的预测概率。
S15,对所述输出数据进行分析,得到活体检测结果。
在本发明的至少一个实施例中,所述对所述输出数据进行分析,得到活体检测结果包括:
从所述输出数据中获取所述待检测图片的预测概率;
当所述预测概率大于或者等于配置概率时,确定在所述待检测图片中检测到非活体,基于所述待检测图片生成预警信息,并将所述预警信息发送至指定终端设备,其中,所述预警信息用于提示有伪装风险。
其中,所述配置概率可以为0.5,所述配置概率可以根据实际检测需求进行设置。
通过上述实施方式,能够在检测到伪装风险时发出预警,以提示相关人员尽快采取应急措施以及时止损。
或者当所述预测概率小于所述配置概率时,确定在所述待检测图片中检测到活体,保存所述待检测图片至指定数据库。
通过上述实施方式,能够将检测到活体的图片落库,以供后续使用。
需要说明的是,为了进一步提高数据的安全性,可以将所述活体检测模型及所述活体检测结果保存至区块链。
由以上技术方案可以看出,本发明能够响应于活体检测指令,获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据,采用视频做活体检测,而由于视频包含的信息量更多,因此相较于传统方式中采用图片做活体检测的方式更有优势,构建深度对比损失、距离损失及二分类监督损失,根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块,利用损失函数训练得到的活体检测模型能够提取深度空间梯度图特征及动态视频帧图序列特征,提高了模型的泛化能力,同时也提高了模型的精度,使模型的兼容性更强,进而能够抵御新型攻击,实现更加精准的活体检测,当接收到待检测视频时,对所述待检测视频进行预处理,得到待检测图片,将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据,对所述输出数据进行分析,得到活体检测结果,进而利用人工智能手段实现准确地活体检测。
如图2所示,是本发明基于深度空间梯度的活体检测装置的较佳实施例的功能模块图。所述基于深度空间梯度的活体检测装置11包括截取单元110、构建单元111、训练单元112、预处理单元113、输入单元114、分析单元115。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
响应于活体检测指令,截取单元110获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据。
在本实施例中,所述伪装是指利用化妆、面具、口罩等方式掩饰人物原本的面部特征的攻击方式,所述伪装广泛存在于各个领域,给各个领域带来了一定的安全隐患。
其中,所述预设类型的伪装包括,但不限于以下一种或者多种类型的组合:
通过打印照片的方式伪装、通过视频回放的方式伪装、采用纸张等类型的遮挡物掩盖面部的方式伪装、通过佩戴口罩的方式伪装、通过妆容伪装、通过敷面膜的方式伪装、通过遮挡眼部的方式伪装、通过佩戴面具的方式伪装。
在本发明的至少一个实施例中,所述初始视频段可以是包含人物面部的视频段等。
所述初始视频段可以从历史检测数据中获取,另外,由于本实施例可以利用较少的数据进行模型的训练,因此也可以由相关人员进行数据的模拟,得到模拟视频,并从所述模拟视频中截取带有所述预设类型的伪装的视频作为所述初始视频段,本发明不限制。
在本实施例中,所述活体检测指令可以由指定人员进行触发,如风险管控人员、安全防护人员等。
本实施例采用视频做活体检测,而由于视频包含的信息量更多,因此相较于传统方式中采用图片做活体检测的方式更有优势。
在本发明的至少一个实施例中,所述截取单元110对所述初始视频段的每张帧图片进行特征截取,得到样本数据包括:
将所述初始视频段的每张帧图片输入至YOLOv3网络中进行识别,得到每张帧图片的头像区域;
以每张帧图片的头像区域截取对应的每张帧图片,得到每个子样本;
整合得到的子样本,得到所述样本数据。
通过上述实施方式,由于YOLOv3网络本身具备较高的稳定精度,因此,以YOLOv3网络进行头像特征的截取,能够得到准确的样本数据,以供后续训练模型使用。同时,由于首先进行了头像特征的截取,也提高了后续模型训练的速度及准确度。
构建单元111构建深度对比损失、距离损失及二分类监督损失。
在本实施例中,从所述样本数据中获取第一数量的样本数据作为第一样本,其中,所述第一数量为所述样本数据的数据量与配置数值的差;
计算每个第一样本的深度图特征,其中,所述深度图特征为经过所述残差空间梯度模块及所述空间短暂传播模块处理后得到;
根据所述第一数量及每个第一样本的深度图特征计算所述第一样本的深度图特征的均值;
将所述均值输入预设数量的全连接层及softmax层,输出中间特征;
采用Focal Loss函数对所述中间特征进行处理,得到所述二分类监督损失。
例如:所述配置值可以为1,所述预设数量可以为2。
具体地,可以采用下述公式计算所述二分类监督损失:
L1=Focal_loss(log(fcs(Davg)))
其中,L1为所述二分类监督损失,Davg为所述均值,fcs(Davg)为所述中间特征。
所述二分类监督损失可以用于不平衡标签样本,鉴于本案中样本数据不易获取,因此所述样本数据主要为不平衡标签样本。
当然,在其他实施例中,若所述样本数据为平衡标签样本,还可以采用其他方式计算所述二分类监督损失,在此不赘述。
在本实施例中,采用人脸对齐算法PRNet处理所述样本数据,得到脸部深度图;
计算所述样本数据的深度图特征;
确定每个样本数据对应的每个深度图特征的帧数;
根据所述脸部深度图、所述深度图特征及每个深度图特征的帧数计算所述距离损失。
当然,在其他实施例中,还可以采用下述方式得到所述脸部深度图:
获取所述样本数据的标签,根据所述标签在配置数据库中进行匹配,并将匹配的数据确定为所述脸部深度图。
具体地,可以采用下述公式计算所述距离损失:
其中,L2为所述距离损失,Dp为所述深度图特征,Da为所述脸部深度图,M为每个深度图特征的帧数。
在本实施例中,获取sobel kernel集合中的矩阵;
对获取的矩阵与所述脸部深度图进行卷积处理,得到第一数值;
对获取的矩阵与所述深度图特征进行卷积处理,得到第二数值;
根据所述第一数值、所述第二数值及每个深度图特征的帧数计算所述深度对比损失。
具体地,可以采用下述公式计算所述深度对比损失:
其中,L3为所述深度对比损失,ki为所述sobel kernel集合中的矩阵,i为所述sobel kernel集合中矩阵的数值编码。
例如:当所述sobel kernel集合中有7个矩阵时,i的取值为[0,7]之间的整数。
训练单元112根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块。
在本发明的至少一个实施例中,所述残差空间梯度模块包括残差运算及sobelkernel运算,所述空间短暂传播模块包括特征融合运算及ConvGRU卷积运算,所述训练单元112根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型包括:
关闭所述预设网络中的所述空间短暂传播模块,得到第一网络;
基于所述深度对比损失及所述距离损失构建第一损失函数;
基于所述第一损失函数,从所述样本数据中获取数据训练所述第一网络,直至所述第一损失函数达到收敛,停止训练,得到第二网络;
基于所述深度对比损失、所述距离损失及所述二分类监督损失构建第二损失函数;
打开所述第二网络中的所述空间短暂传播模块,得到第三网络;
基于所述第二损失函数,从所述样本数据中获取数据训练所述第三网络,直至所述第二损失函数达到收敛,停止训练,得到所述活体检测模型。
具体地,可以通过将网络中的指定参数设置为0,以关闭所述预设网络中的所述空间短暂传播模块,当需要打开所述第二网络时,可以将所述指定参数设置为大于0。
具体地,本实施例会对残差运算的结果及sobel kernel运算的结果进行和运算,并对和运算后得到的特征进行规范化处理及线性修正。
具体地,所述特征融合运算包括:
获取相邻两时刻的特征,包括第一特征及第二特征,所述第一特征与所述第二特征间隔预设时长;
将所述第一特征输入至1*1卷积层,得到第一压缩特征;
将所述第二特征输入至1*1卷积层,得到第二压缩特征
计算所述第一压缩特征与所述第二压缩特征的差值;
对所述第一特征进行sobel kernel运算,得到第一运算结果,及对所述第二特征进行sobel kernel运算,得到第二运算结果;
拼接所述第一压缩特征、所述差值、所述第一运算结果及所述第二运算结果,得到融合特征。
需要说明的是,对于所述空间短暂传播模块中的每个特征融合运算都执行上述过程,并且,前一个特征融合运算后得到的融合特征将参与下一个特征融合运算的特征拼接,直至所有的特征融合运算都执行完毕。
进一步地,在所有的特征融合运算都执行完毕后,将最终拼接后得到的特征进行ConvGRU卷积运算,以提取出特征中的时间信息,输出时间序列特征。
在本实施例中,所述第一损失函数的公式为:
L′=∑(L2+L3)
所述第二损失函数的公式为:
L=βL1+(1-β)∑(L2+L3)
其中,β为可调节参数。
在模型训练时,可以每间隔预设帧做检测训练或预测,例如:所述预设帧可以为5。
通过上述训练得到的活体检测模型能够利用残差空间梯度模块提取深度空间梯度图特征,解决了高清设备的普及带来的在线活体检测精度差的问题,提升了对高清非活体的样本的检测命中率,并利用空间短暂传播模块提取动态视频帧图序列特征,提高了模型的泛化能力及辨别性能,同时也提高了模型的精度,使模型的兼容性更强,进而能够抵御新型攻击,实现更加精准的活体检测。
同时,相较于传统的具有眨眼与摆头要求的活体检测方式,本案无需上述要求,能够给用户带来更好的体验。
当接收到待检测视频时,预处理单元113对所述待检测视频进行预处理,得到待检测图片。
在本实施例中,所述预处理单元113对所述待检测视频进行预处理包括:
获取所述待检测视频中的所有图片;
对获取的图片进行特征截取,得到所述待检测图片。
通过上述实施方式,能够提高特征的针对性,进一步提升了后续活体检测的准确度。
输入单元114将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据。
其中,所述输出数据包括所述待检测图片及对应的预测概率。
分析单元115对所述输出数据进行分析,得到活体检测结果。
在本发明的至少一个实施例中,所述分析单元115对所述输出数据进行分析,得到活体检测结果包括:
从所述输出数据中获取所述待检测图片的预测概率;
当所述预测概率大于或者等于配置概率时,确定在所述待检测图片中检测到非活体,基于所述待检测图片生成预警信息,并将所述预警信息发送至指定终端设备,其中,所述预警信息用于提示有伪装风险。
其中,所述配置概率可以为0.5,所述配置概率可以根据实际检测需求进行设置。
通过上述实施方式,能够在检测到伪装风险时发出预警,以提示相关人员尽快采取应急措施以及时止损。
或者当所述预测概率小于所述配置概率时,确定在所述待检测图片中检测到活体,保存所述待检测图片至指定数据库。
通过上述实施方式,能够将检测到活体的图片落库,以供后续使用。
需要说明的是,为了进一步提高数据的安全性,可以将所述活体检测模型及所述活体检测结果保存至区块链。
由以上技术方案可以看出,本发明能够响应于活体检测指令,获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据,采用视频做活体检测,而由于视频包含的信息量更多,因此相较于传统方式中采用图片做活体检测的方式更有优势,构建深度对比损失、距离损失及二分类监督损失,根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块,利用损失函数训练得到的活体检测模型能够提取深度空间梯度图特征及动态视频帧图序列特征,提高了模型的泛化能力,同时也提高了模型的精度,使模型的兼容性更强,进而能够抵御新型攻击,实现更加精准的活体检测,当接收到待检测视频时,对所述待检测视频进行预处理,得到待检测图片,将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据,对所述输出数据进行分析,得到活体检测结果,进而利用人工智能手段实现准确地活体检测。
如图3所示,是本发明实现基于深度空间梯度的活体检测方法的较佳实施例的电子设备的结构示意图。
所述电子设备1可以包括存储器12、处理器13和总线,还可以包括存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如基于深度空间梯度的活体检测程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,所述电子设备1既可以是总线型结构,也可以是星形结构,所述电子设备1还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置,例如所述电子设备1还可以包括输入输出设备、网络接入设备等。
需要说明的是,所述电子设备1仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
其中,存储器12至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器12在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。存储器12在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器12还可以既包括电子设备1的内部存储单元也包括外部存储设备。存储器12不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于深度空间梯度的活体检测程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器13在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。处理器13是所述电子设备1的控制核心(Control Unit),利用各种接口和线路连接整个电子设备1的各个部件,通过运行或执行存储在所述存储器12内的程序或者模块(例如执行基于深度空间梯度的活体检测程序等),以及调用存储在所述存储器12内的数据,以执行电子设备1的各种功能和处理数据。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个基于深度空间梯度的活体检测方法实施例中的步骤,例如图1所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成截取单元110、构建单元111、训练单元112、预处理单元113、输入单元114、分析单元115。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、计算机设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述基于深度空间梯度的活体检测方法的部分。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指示相关的硬件设备来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的目标性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,在图3中仅用一根箭头表示,但并不表示仅有一根总线或一种类型的总线。所述总线被设置为实现所述存储器12以及至少一个处理器13等之间的连接通信。
尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器13逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
图3仅示出了具有组件12-13的电子设备1,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种基于深度空间梯度的活体检测方法,所述处理器13可执行所述多个指令从而实现:
响应于活体检测指令,获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据;
构建深度对比损失、距离损失及二分类监督损失;
根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块;
当接收到待检测视频时,对所述待检测视频进行预处理,得到待检测图片;
将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据;
对所述输出数据进行分析,得到活体检测结果。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于深度空间梯度的活体检测方法,其特征在于,所述基于深度空间梯度的活体检测方法包括:
响应于活体检测指令,获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据;
构建深度对比损失、距离损失及二分类监督损失;
根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块;
当接收到待检测视频时,对所述待检测视频进行预处理,得到待检测图片;
将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据;
对所述输出数据进行分析,得到活体检测结果。
2.如权利要求1所述的基于深度空间梯度的活体检测方法,其特征在于,所述对所述初始视频段的每张帧图片进行特征截取,得到样本数据包括:
将所述初始视频段的每张帧图片输入至YOLOv3网络中进行识别,得到每张帧图片的头像区域;
以每张帧图片的头像区域截取对应的每张帧图片,得到每个子样本;
整合得到的子样本,得到所述样本数据。
3.如权利要求1所述的基于深度空间梯度的活体检测方法,其特征在于,所述基于深度空间梯度的活体检测方法还包括:
从所述样本数据中获取第一数量的样本数据作为第一样本,其中,所述第一数量为所述样本数据的数据量与配置数值的差;
计算每个第一样本的深度图特征,其中,所述深度图特征为经过所述残差空间梯度模块及所述空间短暂传播模块处理后得到;
根据所述第一数量及每个第一样本的深度图特征计算所述第一样本的深度图特征的均值;
将所述均值输入预设数量的全连接层及softmax层,输出中间特征;
采用Focal Loss函数对所述中间特征进行处理,得到所述二分类监督损失。
4.如权利要求1所述的基于深度空间梯度的活体检测方法,其特征在于,所述基于深度空间梯度的活体检测方法还包括:
采用人脸对齐算法PRNet处理所述样本数据,得到脸部深度图;
计算所述样本数据的深度图特征;
确定每个样本数据对应的每个深度图特征的帧数;
根据所述脸部深度图、所述深度图特征及每个深度图特征的帧数计算所述距离损失。
5.如权利要求4所述的基于深度空间梯度的活体检测方法,其特征在于,所述基于深度空间梯度的活体检测方法还包括:
获取sobel kernel集合中的矩阵;
对获取的矩阵与所述脸部深度图进行卷积处理,得到第一数值;
对获取的矩阵与所述深度图特征进行卷积处理,得到第二数值;
根据所述第一数值、所述第二数值及每个深度图特征的帧数计算所述深度对比损失。
6.如权利要求1所述的基于深度空间梯度的活体检测方法,其特征在于,所述残差空间梯度模块包括残差运算及sobel kernel运算,所述空间短暂传播模块包括特征融合运算及ConvGRU卷积运算,所述根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型包括:
关闭所述预设网络中的所述空间短暂传播模块,得到第一网络;
基于所述深度对比损失及所述距离损失构建第一损失函数;
基于所述第一损失函数,从所述样本数据中获取数据训练所述第一网络,直至所述第一损失函数达到收敛,停止训练,得到第二网络;
基于所述深度对比损失、所述距离损失及所述二分类监督损失构建第二损失函数;
打开所述第二网络中的所述空间短暂传播模块,得到第三网络;
基于所述第二损失函数,从所述样本数据中获取数据训练所述第三网络,直至所述第二损失函数达到收敛,停止训练,得到所述活体检测模型。
7.如权利要求1所述的基于深度空间梯度的活体检测方法,其特征在于,所述对所述输出数据进行分析,得到活体检测结果包括:
从所述输出数据中获取所述待检测图片的预测概率;
当所述预测概率大于或者等于配置概率时,确定在所述待检测图片中检测到非活体,基于所述待检测图片生成预警信息,并将所述预警信息发送至指定终端设备,其中,所述预警信息用于提示有伪装风险;或者
当所述预测概率小于所述配置概率时,确定在所述待检测图片中检测到活体,保存所述待检测图片至指定数据库。
8.一种基于深度空间梯度的活体检测装置,其特征在于,所述基于深度空间梯度的活体检测装置包括:
截取单元,用于响应于活体检测指令,获取带有预设类型的伪装的初始视频段,并对所述初始视频段的每张帧图片进行特征截取,得到样本数据;
构建单元,用于构建深度对比损失、距离损失及二分类监督损失;
训练单元,用于根据所述深度对比损失、所述距离损失及所述二分类监督损失,以所述样本数据训练预设网络,得到活体检测模型,其中,所述活体检测模型包括残差空间梯度模块及空间短暂传播模块;
预处理单元,用于当接收到待检测视频时,对所述待检测视频进行预处理,得到待检测图片;
输入单元,用于将所述待检测图片输入至所述活体检测模型,并获取所述活体检测模型的输出数据;
分析单元,用于对所述输出数据进行分析,得到活体检测结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的基于深度空间梯度的活体检测方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的基于深度空间梯度的活体检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011043415.9A CN112183347A (zh) | 2020-09-28 | 2020-09-28 | 基于深度空间梯度的活体检测方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011043415.9A CN112183347A (zh) | 2020-09-28 | 2020-09-28 | 基于深度空间梯度的活体检测方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112183347A true CN112183347A (zh) | 2021-01-05 |
Family
ID=73946642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011043415.9A Pending CN112183347A (zh) | 2020-09-28 | 2020-09-28 | 基于深度空间梯度的活体检测方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183347A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926508A (zh) * | 2021-03-25 | 2021-06-08 | 支付宝(杭州)信息技术有限公司 | 活体检测模型的训练方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101722131B1 (ko) * | 2015-11-25 | 2017-03-31 | 국민대학교 산학협력단 | 멀티 모달 센서를 이용한 인체의 자세 및 공간 인지 시스템 |
CN109902667A (zh) * | 2019-04-02 | 2019-06-18 | 电子科技大学 | 基于光流引导特征块和卷积gru的人脸活体检测方法 |
CN111275685A (zh) * | 2020-01-20 | 2020-06-12 | 中国平安人寿保险股份有限公司 | 身份证件的翻拍图像识别方法、装置、设备及介质 |
-
2020
- 2020-09-28 CN CN202011043415.9A patent/CN112183347A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101722131B1 (ko) * | 2015-11-25 | 2017-03-31 | 국민대학교 산학협력단 | 멀티 모달 센서를 이용한 인체의 자세 및 공간 인지 시스템 |
CN109902667A (zh) * | 2019-04-02 | 2019-06-18 | 电子科技大学 | 基于光流引导特征块和卷积gru的人脸活体检测方法 |
CN111275685A (zh) * | 2020-01-20 | 2020-06-12 | 中国平安人寿保险股份有限公司 | 身份证件的翻拍图像识别方法、装置、设备及介质 |
Non-Patent Citations (1)
Title |
---|
ZEZHENG WANG 等: "Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing", 《IEEE》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926508A (zh) * | 2021-03-25 | 2021-06-08 | 支付宝(杭州)信息技术有限公司 | 活体检测模型的训练方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112052850B (zh) | 车牌识别方法、装置、电子设备及存储介质 | |
CN112541443B (zh) | 发票信息抽取方法、装置、计算机设备及存储介质 | |
CN111898538B (zh) | 证件鉴伪方法、装置、电子设备及存储介质 | |
JP2022133378A (ja) | 顔生体検出方法、装置、電子機器、及び記憶媒体 | |
CN111949708B (zh) | 基于时序特征提取的多任务预测方法、装置、设备及介质 | |
CN111985504B (zh) | 基于人工智能的翻拍检测方法、装置、设备及介质 | |
CN111860377A (zh) | 基于人工智能的直播方法、装置、电子设备及存储介质 | |
CN111738212B (zh) | 基于人工智能的交通信号灯识别方法、装置、设备及介质 | |
CN112801062B (zh) | 直播视频识别方法、装置、设备及介质 | |
CN115424335B (zh) | 活体识别模型训练方法、活体识别方法及相关设备 | |
CN113705469A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 | |
CN112668453A (zh) | 视频识别方法及相关设备 | |
CN113887438A (zh) | 人脸图像的水印检测方法、装置、设备及介质 | |
CN114639152A (zh) | 基于人脸识别的多模态语音交互方法、装置、设备及介质 | |
CN112861750B (zh) | 基于拐点检测的视频提取方法、装置、设备及介质 | |
CN108154070A (zh) | 人脸识别方法及装置 | |
CN112101191A (zh) | 基于边框注意力网络的表情识别方法、装置、设备及介质 | |
CN112183347A (zh) | 基于深度空间梯度的活体检测方法、装置、设备及介质 | |
CN112528265A (zh) | 基于在线会议的身份识别方法、装置、设备及介质 | |
CN112101192B (zh) | 基于人工智能的伪装检测方法、装置、设备及介质 | |
CN113255456B (zh) | 非主动活体检测方法、装置、电子设备及存储介质 | |
CN112561891B (zh) | 图像质量检测方法、装置、设备及存储介质 | |
CN111209863A (zh) | 一种活体模型训练和人脸活体检测方法、装置和电子设备 | |
CN113920582B (zh) | 人体动作评分方法、装置、设备及存储介质 | |
CN112633170B (zh) | 通讯优化方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210105 |