CN111582155B - 活体检测方法、装置、计算机设备和存储介质 - Google Patents
活体检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111582155B CN111582155B CN202010377188.7A CN202010377188A CN111582155B CN 111582155 B CN111582155 B CN 111582155B CN 202010377188 A CN202010377188 A CN 202010377188A CN 111582155 B CN111582155 B CN 111582155B
- Authority
- CN
- China
- Prior art keywords
- target
- map
- image
- living body
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 224
- 238000013507 mapping Methods 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000012546 transfer Methods 0.000 claims description 33
- 238000012795 verification Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 238000001727 in vivo Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 13
- 238000013473 artificial intelligence Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000005021 gait Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及一种活体检测方法、装置、计算机设备和存储介质。所述方法包括:获取与待检测对象对应的彩色图和深度图;对所述彩色图进行生物特征检测,确定所述彩色图中包括有目标生物特征的第一目标区域;基于所述彩色图和所述深度图间的位置映射关系,确定所述深度图中与所述第一目标区域相匹配的第二目标区域;对所述深度图中的第二目标区域进行活体检测,得到与所述待检测对象对应的活体检测结果。采用本方法能够提高活体检测效率。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种活体检测方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,出现了生物特征识别技术,比如人脸识别。生物特征识别技术是通过摄像头采集含有生物特征的图像,在图像中检测生物特征,进而对检测到的生物特征进行识别的一系列相关技术。而在生物特征识别技术的应用过程中常常伴随有活体检测,也就是检测当前待验证的用户是否为活体,活体检测对一些安全性要求高的使用场景而言是非常重要的。
传统的生物特征识别方案中,要求送入检测算法的彩色图和深度图图片大小一致,像素内容对齐。从而方便在检测过程中可以依据深度图活体检测,判定彩色图中的对象为活体。但在实际使用过程中,彩色图和深度图分辨率不一致,彩色图的分辨率通常都会高于深度图的分辨率。在这种情况下,就需要对彩色图和深度进行对齐操作或图像分辨率调整操作,才可保障活体检测的准确性,但将彩色图和深度进行对齐或进行图像分辨率调整的操作都非常耗时,导致活体检测效率低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高活体检测效率的活体检测方法、装置、计算机设备和存储介质。
一种活体检测方法,所述方法包括:
获取与待检测对象对应的彩色图和深度图;
对所述彩色图进行生物特征检测,确定所述彩色图中包括有目标生物特征的第一目标区域;
基于所述彩色图和所述深度图间的位置映射关系,确定所述深度图中与所述第一目标区域相匹配的第二目标区域;
对所述深度图中的第二目标区域进行活体检测,得到与所述待检测对象对应的活体检测结果。
一种活体检测装置,所述装置包括:
获取模块,用于获取与待检测对象对应的彩色图和深度图;
生物特征检测模块,用于对所述彩色图进行生物特征检测,确定所述彩色图中包括有目标生物特征的第一目标区域;
确定模块,用于基于所述彩色图和所述深度图间的位置映射关系,确定所述深度图中与所述第一目标区域相匹配的第二目标区域;
活体检测模块,用于对所述深度图中的第二目标区域进行活体检测,得到与所述待检测对象对应的活体检测结果。
在其中一个实施例中,所述获取模块,具体用于当产生图像采集指令时,调用图像采集装置;通过所述图像采集装置扫描预设范围内的待检测对象,并对所述待检测对象进行拍摄得到与所述待检测对象对应的彩色图和深度图。
在其中一个实施例中,所述生物特征检测包括人脸检测,所述目标生物特征包括人脸;所述生物特征检测模块,具体用于提取所述彩色图的图像特征,得到对应的第一特征图;基于所述第一特征图进行人脸检测,得到多于一个的候选区域;对所述多于一个的候选区域进行分类处理,确定属于人脸类别的人脸候选区域,并根据所述人脸候选区域确定所述彩色图中包括有人脸的第一目标区域。
在其中一个实施例中,所述确定模块,具体用于确定所述第一目标区域中多于一个的第一目标位置;基于所述彩色图和所述深度图间的位置映射关系,将各所述第一目标位置分别映射至所述深度图中,得到对应的第二目标位置;根据多于一个的第二目标位置,确定所述深度图包括有目标生物特征的第二目标区域。
在其中一个实施例中,所述彩色图对应第一图像分辨率,所述深度图对应第二图像分辨率;所述确定模块,具体用于获取具有第一图像分辨率的第一参考图中至少两个第一参考点的第一坐标;获取具有第二图像分辨率的第二参考图中至少两个第二参考点的第二坐标;所述第二参考点为与所述第一参考点对应的像素点;根据所述第一坐标中的第一参考横坐标、所述第二坐标中的第二参考横坐标、及所述第一目标位置的第一目标横坐标,计算得到第二目标横坐标;根据所述第一坐标中的第一参考纵坐标、所述第二坐标中的第二参考纵坐标、及所述第一目标位置的第一目标纵坐标,计算得到第二目标纵坐标;将由所述第二目标横坐标和所述第二目标纵坐标所确定的位置,作为所述深度图中与所述彩色图的第一目标位置对应的第二目标位置。
在其中一个实施例中,所述确定模块,具体用于计算两个第一参考点各自对应的第一参考横坐标的第一差值,并计算相应的两个第二参考点各自对应的第二参考横坐标的第二差值;将所述第二差值和所述第一差值的比值作为水平缩放比例;计算所述第一目标位置的第一目标横坐标,与其中一个第一参考点的第一参考横坐标的第三差值;根据所述水平缩放比例、所述第三差值、及所述其中一个第一参考点所对应的第二参考点的第二参考横坐标,计算得到第二目标横坐标。
在其中一个实施例中,所述确定模块,具体用于计算两个第一参考点各自对应的第一参考纵坐标的第四差值,并计算相应的两个第二参考点各自对应的第二参考纵坐标的第五差值;将所述第五差值和所述第四差值的比值作为垂直缩放比例;计算所述第一目标位置的第一目标纵坐标,与其中一个第一参考点的第一参考纵坐标的第六差值;根据所述垂直缩放比例、所述第六差值、及所述其中一个第一参考点所对应的第二参考点的第二参考纵坐标,计算得到第二目标纵坐标。
在其中一个实施例中,所述获取模块,还用于在参考对象与图像采集装置相距预设距离时,通过所述图像采集装置在第一图像分辨率下拍摄所述参考对象,得到第一参考图;所述第一参考图为彩色图;在所述参考对象与所述图像采集装置相距同样的预设距离时,通过所述图像采集装置在第二图像分辨率下拍摄所述参考对象,得到第二参考图;所述第二参考图为彩色图。
在其中一个实施例中,所述活体检测模块,具体用于通过活体检测模型的卷积层提取所述深度图的第二目标区域的第二特征图;通过所述活体检测模型的全连接层,依据所述第二特征图进行分类处理,得到所述深度图为活体生物图的置信度;所述置信度表示识别到活体的概率;当所述置信度大于或等于置信度阈值时,则判定识别到活体。
在其中一个实施例中,所述生物特征检测包括人脸检测,所述目标生物特征包括人脸,所述装置还包括人脸识别模块,用于根据所述彩色图中第一目标区域进行人脸识别,得到对应的人脸识别结果。所述确定模块803,还用于根据所述人脸识别结果和所述活体检测结果,确定与所述待检测对象对应的身份验证结果。
在其中一个实施例中,所述装置还包括资源转移模块,用于获取资源转移数额、以及资源接收方账号;根据所述身份验证结果确定相应的资源提供方账号;响应于资源转移请求,将所述资源提供方账号中与所述资源转移数额对应的资源转移至所述资源接收方账号。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取与待检测对象对应的彩色图和深度图;
对所述彩色图进行生物特征检测,确定所述彩色图中包括有目标生物特征的第一目标区域;
基于所述彩色图和所述深度图间的位置映射关系,确定所述深度图中与所述第一目标区域相匹配的第二目标区域;
对所述深度图中的第二目标区域进行活体检测,得到与所述待检测对象对应的活体检测结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取与待检测对象对应的彩色图和深度图;
对所述彩色图进行生物特征检测,确定所述彩色图中包括有目标生物特征的第一目标区域;
基于所述彩色图和所述深度图间的位置映射关系,确定所述深度图中与所述第一目标区域相匹配的第二目标区域;
对所述深度图中的第二目标区域进行活体检测,得到与所述待检测对象对应的活体检测结果。
上述活体检测方法、装置、计算机设备和存储介质,获取到与待检测对象对应的彩色图和深度图后,通过对彩色图进行生物特征检测,确定彩色图中包括有目标生物特征的第一目标区域。进而根据彩色图和所述深度图间的位置映射关系,将彩色图中的第一目标区域映射到深度图中相应的区域,得到第二目标区域。这样,就可基于第二目标区域进行活体检测,可以准确判别该目标生物特征是否为活体的特征。避免了彩色图与深度图的对齐操作,或者图像分辨率调整等操作,在保障活体检测准确性的前提下,大大提高了活体检测效率。特别在彩色图和深度图的图像分辨率不一致的情况下,该活体检测效率得到了显著提升。
附图说明
图1为一个实施例中活体检测方法的应用环境图;
图2为一个实施例中活体检测方法的流程示意图;
图3为一个实施例中基于彩色图和深度图间的位置映射关系,确定深度图中与第一目标区域相匹配的第二目标区域步骤的流程示意图;
图4为另一个实施例中基于彩色图和深度图间的位置映射关系,将各第一目标位置分别映射至深度图中,得到对应的第二目标位置的步骤的流程示意图;
图5为一个实施例中根据第一坐标中的第一参考横坐标、第二坐标中的第二参考横坐标、及第一目标位置的第一目标横坐标,计算得到第二目标横坐标的步骤的流程示意图;
图6(A)为具有第一图像分辨率的彩色图的示意图;
图6(B)为具有第二图像分辨率的彩色图的示意图;
图7为一个实施例中活体检测方法的时序图;
图8为一个实施例中活体检测装置的结构框图;
图9为另一个实施例中活体检测装置的结构框图;
图10为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的活体检测方法,可以应用于如图1所示的应用环境中。其中,终端110通过网络与服务器120进行通信。终端110和服务器120可分别单独用于执行该活体检测方法,终端110和服务器120也可共同执行该活体检测方法。比如,终端110中内置有图像采集装置,终端110可调用图像采集装置扫描预设范围内的待检测对象,并对待检测对象进行拍摄得到与该待检测对象对应的彩色图和深度图。终端110可在本地执行该活体检测方法,或者,终端110将彩色图和深度图发送至服务器120,服务器120对彩色图进行生物特征检测,确定彩色图中包括有目标生物特征的第一目标区域;基于彩色图和深度图间的位置映射关系,确定深度图中与第一目标区域相匹配的第二目标区域;对深度图中的第二目标区域进行活体检测,得到与待检测对象对应的活体检测结果。其中,终端110可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
需要说明的是,该终端110具体可以是业务处理设备,当该活体检测方法应用于门禁控制系统时,该终端110具体可以是门禁控制设备;当该活体检测方法应用于支付系统时,该终端110具体可以是线下支付设备等。可以理解,当该活体检测方法应用于不同的需要进行身份验证的业务系统中时,终端110具体可以是相应的业务处理设备。
还需要说明的是,本申请各实施例所提及的活体检测方法,具体可通过基于人工智能技术来训练具有相应功能的机器学习模型来实现。其中,人工智能(ArtificialIntelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
可以理解,本申请各实施例中的活体检测方法具体涉及到人工智能的机器学习技术,其中,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
本申请实施例提供的方案涉及人工智能的机器学习技术,具体通过如下实施例进行详细说明:
在一个实施例中,如图2所示,提供了一种活体检测方法,以该方法应用于计算机设备为例进行说明,该计算机设备具体可以是图1中的终端110或服务器120,该活体检测方法包括以下步骤:
步骤S202,获取与待检测对象对应的彩色图和深度图。
其中,待检测对象是待判定是否为活体的目标对象。彩色图是处于彩色空间中的图像,可基于不同的像素值呈现出不同颜色。彩色图具体可以是对应多个通道的图像,比如RGB图像(R表示Red,红色;G表示Green,绿色;B表示Blue,蓝色)、CMYK图像(C表示Cyan,青色;M表示Magenta,品红色;Y表示Yellow,黄色;K表示blacK,黑色)或YUV图像(Y表示Luminance,明亮度;U和Y表示Chrominance,色度)等。深度图是反映图像采集装置与场景中待检测对象的表面之间的距离的图像。
具体地,当该活体检测方法具体通过终端执行时,也就是该计算机设备为终端时,终端上安装有深度相机,终端可在该深度相机当前的视野下采集现实场景的彩色图和深度图。比如,当待检测对象为人体时,终端可采集包括有人体部位的彩色图和深度图。其中,人体部位具体可以是人脸、手掌、或身体骨架等部位。当该活体检测方法具体通过服务器执行时,也就是该计算机设备为服务器时,服务器可获取终端传输的与待检测对象对应的彩色图和深度图。
在一个实施例中,终端可通过内置的图像采集装置,或者外置的与终端关联的图像采集装置,采集待检测对象的彩色如何深度图。该图像采集装置具体可以是摄像头。摄像头可以是单目摄像头、双目摄像头、RGB-D(Red-Green-Blue-Deep)摄像头、或3D(3Dimensions,三维)摄像头如3D结构光摄像头等。终端可调用视频采集装置,以开启摄像扫描模式,并实时扫描摄像头视野中的待检测对象,以采集彩色图和深度图,所生成的图像帧可缓存在终端。终端可从采集的图像帧中获取与待检测对象对应的彩色图和深度图。
在一个实施例中,终端在采集到待检测对象的彩色图和深度图后,可进行初步筛选,将筛选后的彩色图和深度图传输至服务器,以使得服务器基于彩色图和深度图进行活体检测。而其中,终端筛选的过程,具体可以是终端对彩色图进行粗糙的生物特征检测,剔除掉不包括有目标生物特征的彩色图和深度图。或者,终端还可对彩色图和深度图进行活体检测,将识别到活体的彩色图和深度图传输至服务器,以通过服务器通过更复杂和可靠的活体检测算法进行活体检测。
在一个实施例中,步骤S202,也就是获取与待检测对象对应的彩色图和深度图的步骤具体包括:当产生图像采集指令时,调用图像采集装置;通过图像采集装置扫描预设范围内的待检测对象,并对待检测对象进行拍摄得到与待检测对象对应的彩色图和深度图。
具体地,当计算机设备检测到图像采集指令时,可根据图像采集指令调用对应的图像采集装置,使得该图像采集装置处于启用状态。图像采集装置可扫描预设范围内的待检测对象,并对该待检测对象的目标生物特征进行拍摄得到对应的彩色图和深度图。这样就可实现对待检测对象的彩色图和深度图的采集,便于后续活体检测方法的执行。
在一个实施例中,与待检测对象对应的彩色图和深度图具有不同的图像分辨率,且彩色图的图像分辨率大于深度图的图像分辨率。可以理解,在实际应用场景中,通过图像采集装置所采集的深度图的图像分辨率通常都会比彩色图的图像分辨率低,在这种场景下,为了完成活体检测,传统方案中通常都是通过对齐操作,或者将彩色图的图像分辨率调整至与深度图的图像分辨率一致,但这样就会大大降低基于彩色图进行生物特征识别的识别准确性。而本申请各实施例所提供的活体检测方法,在彩色图和深度图具有不同的图像分辨率的场景下具有良好的适用性。无需进行对齐操作或图像分辨率调整操作,就可实现活体检测,活体检测的准确性和效率都得到了大大提升,并且,本申请可以试用高分辨率彩色图进行生物特征识别,提升识别效果。
步骤S204,对彩色图进行生物特征检测,确定彩色图中包括有目标生物特征的第一目标区域。
其中,生物特征是人体所固有的生理特征(比如,指纹、虹膜、面相、DNA等)或行为特征(比如步态、击键习惯等)。在本申请中,与待检测对象的彩色图和深度图具体可以是依据用户的生理特征所生成的图像,也可以是依据用户的行为特征所生成的图像。其中,依据用户的生理特征所生成的图像,比如通过扫描用户人脸所生成的人脸的彩色图和深度图、根据用户的手掌所生成的手掌的彩色图和深度图等。依据用户的行为特征所生成的图像,比如根据用户的行走姿态所生成的步态的彩色图和深度图等。
具体地,计算机设备可对彩色图进行生物特征检测,确定彩色图中包括有目标生物特征的第一目标区域。可以理解,该第一目标区域中包括有目标生物特征,该第一目标区域具体可以是以目标生物特征的外形轮廓所确定的区域,还可以是包括有目标生物特征的预设图形区域,该预设图形区域具体可以是预设矩形区域、预设圆形区域或预设梯形区域等。
在一个实施例中,当该彩色图是对人脸进行拍摄所得到的图像时,计算机设备可对彩色图进行人脸检测,得到包括有人脸的第一目标区域,该第一目标区域也就是人脸区域。当该彩色图是对人体进行拍摄所得到的图像时,其相应的第一目标区域具体可以是包括有整个人体体型的区域。
在一个实施例中,生物特征检测包括人脸检测,目标生物特征包括人脸,计算机设备可对彩色图进行人脸检测,确定彩色图中包括有人脸的第一目标区域。其中,计算机设备进行人脸检测的方式可以有多种,具体可以是通过机器学习模型进行人脸检测,或者通过人脸特征点检测算法来定位人脸区域等,本申请实施例对此不做限定。
在一个实施例中,计算机设备可对彩色图中的人脸特征点进行识别,得到人脸位置信息。比如,计算机设备可识别出人脸的轮廓、发型、耳朵、眼睛、鼻子、嘴等各个脸部器官,再确定各个脸部器官间的位置信息,比如两眼距离,鼻子与眼睛角度,或者,嘴巴与鼻子距离等,从而确定彩色图中包括有人脸的第一目标区域。
在一个实施例中,计算机设备可通过机器学习模型从彩色图中提取出人脸特征图,根据人脸特征图识别出各个人脸器官,进而确定各个人脸器官各自或相互间的坐标位置。其中,机器学习模型,具体可以是R-CNN模型(Region-Convolutional NeuralNetworks,区域卷积神经网络,是一种目标检测模型)、或YOLO模型(You Only Look Once,一种目标检测模型)等,本申请实施例对此不做限定。
在一个实施例中,生物特征检测包括人脸检测,目标生物特征包括人脸;对彩色图进行生物特征检测,确定彩色图中包括有目标生物特征的第一目标区域,包括:提取彩色图的图像特征,得到对应的第一特征图;基于第一特征图进行人脸检测,得到多于一个的候选区域;对多于一个的候选区域进行分类处理,确定属于人脸类别的人脸候选区域,并根据人脸候选区域确定彩色图中包括有人脸的第一目标区域。
具体地,计算机设备可通过人脸检测模型对彩色图进行人脸检测,以定位到该彩色图中的人脸区域。计算机设备可将彩色图输入至人脸检测模型中,通过人脸检测模型的卷积神经网络对彩色图进行特征提取,得到对应的第一特征图。进而计算机设备可通过人脸检测模型中的区域生成网络对第一特征图进行处理,得到多于一个的候选区域,并得到对这些候选区域进行分类的类别标签及置信度。在这个过程当中,候选区域可能是不断调整和更新,直至确定多于一个的候选区域。进而,计算机设备可选择类别标签为人脸标签的人脸候选区域,从中选择置信度高于阈值的人脸候选区域作为彩色图中的第一目标区域,很显然,该第一目标区域中包括有人脸。
上述实施例中,提取彩色图的图像特征,得到对应的第一特征图,进而通过该第一特征图进行人脸检测,可以快速准确的从彩色图中找到包括有人脸的第一目标区域。
步骤S206,基于彩色图和深度图间的位置映射关系,确定深度图中与第一目标区域相匹配的第二目标区域。
具体地,计算机设备可基于图像采集装置采集的参考对象的参考图来计算并确定彩色图和深度图间的位置映射关系。进而,在需要进行活体检测的场景中,获取该位置映射关系,并根据该位置映射关系确定深度图中与该第一目标区域相匹配的第二目标区域。可以理解,这样通过映射关系所确定的第二目标区域,是深度图中该目标生物特征所对应的区域。
在一个实施例中,计算机设备可确定第一目标区域中的各第一像素的位置,并基于彩色图和深度图间的位置映射关系,将各第一像素映射至深度图中,得到对应的映射位置,这些映射位置所确定的像素就是第二像素。计算机设备可将第二像素所构成的区域作为与第一目标区域相匹配的第二目标区域。
在一个实施例中,彩色图对应第一图像分辨率,深度图对应第二图像分辨率。计算机设备可在图像采集装置与参考对象保持相同距离时,采集第一图像分辨率的第一参考图和第二图像分辨率的第二参考图。需要说明的是,该第一参考图具体可以是具有第一图像分辨率的彩色图,该第二参考图具体可以是具有第二图像分辨率的彩色图或者深度图。进而根据第一参考图和第二参考图中该目标对象分别所在区域,建立相应的位置映射关系。该位置映射关系可以作为具有第一图像分辨率的彩色图和具有第二图像分辨率的深度图间的位置映射关系。
在一个实施例中,图像采集装置在生成深度图时,会对深度图进行校准,使得生成的具有第二图像分辨率的深度图,与具有第二图像分辨率的彩色图是互相匹配的,也就是具有第二图像分辨率的彩色图中的某个目标所在区域,与具有第二图像分辨率的深度图中该目标所在区域是一致的。
步骤S208,对深度图中的第二目标区域进行活体检测,得到与待检测对象对应的活体检测结果。
其中,活体检测是检测深度图中是否存在活体对象的检测。具体地,计算机设备可对深度图中第二目标区域的图像进行特征提取,得到对应的第二特征图。再依据提取的第二特征图对深度图进行分类处理。当提取的第二特征图符合活体生物图像的特征图时,则判定识别到活体。当提取的第二特征图符合非活体生物图像的特征图时,则判定未识别到活体。
在一个实施例中,步骤S208,也就是对深度图中的第二目标区域进行活体检测,得到与待检测对象对应的活体检测结果的步骤具体包括:通过活体检测模型的卷积层提取深度图的第二目标区域的第二特征图;通过活体检测模型的全连接层,依据第二特征图进行分类处理,得到深度图为活体生物图的置信度;置信度表示识别到活体的概率;当置信度大于或等于置信度阈值时,则判定识别到活体。
其中,活体检测模型是经过训练后具有特征提取与特征识别能力的机器学习模型。活体检测模型可通过样本学习具备特征提取与特征识别能力。卷积层是卷积神经网络中的特征提取层。卷积层可以是多层,每层卷积层都有对应的卷积核,每层的卷积核可以是多个。卷积层通过卷积核对输入的图像进行卷积运算,提取图像特征得到特征图作为运算结果。全连接层(fully connected layers,FC)是卷积神经网络中的特征分类层,用于根据学习到的分布式特征映射关系将提取的特征图映射到相应的分类。
在一个实施例中,活体检测模型可以是由多层网络结构互相连接而形成的复杂网络模型。活体检测模型可包括多层卷积层,每层卷积层都有对应的模型参数,每层的模型参数可以是多个。每层卷积层中的模型参数对输入的图像进行线性或非线性变化,得到特征图作为运算结果。每个卷积层接收前一层的运算结果,经过自身的运算,对下一层输出本层的运算结果。其中,模型参数是模型结构中的各个参数,能反应模型各层输出和输入的对应关系。
在一个实施例中,计算机设备可将深度图输入至活体检测模型中,通过活体检测模型中的卷积层逐层对输入的深度图的第二目标区域的内容进行线性或非线性变化操作,直至活体检测模型中最后一层卷积层完成线性或非线性变化操作,输出第二特征图。
进一步地,计算机设备可将最后一层卷积层输出的第二特征图作为全连接层的输入,得到深度图为活体生物图的置信度。其中,置信度可以直接是全连接层输出的深度图为活体生物图的分数。置信度也可以是计算机设备通过回归层(softmax层)将全连接层输出的分数归一化后得到的位于数值范围(0,1)内的数值。此时,置信度也可以理解为深度图中包括活体的概率。当该置信度大于或等于置信度阈值时,则判定识别到活体。
上述实施例中,通过活体检测模型的卷积层所输出的第二特征图,可以更好地提取出表征生物特征的第二特征图,再根据第二特征图采用全连接层分类得到包含活体的置信度,从而可以依据置信度准确地判定是否识别到活体。
当然,计算机设备还可通过其他的机器学习模型进行活体检测,只要能准确的从深度图的第二目标区域中判断是否存在活体即可,本申请实施例对此不做限定。
上述活体检测方法,获取到与待检测对象对应的彩色图和深度图后,通过对彩色图进行生物特征检测,确定彩色图中包括有目标生物特征的第一目标区域。进而根据彩色图和深度图间的位置映射关系,将彩色图中的第一目标区域映射到深度图中相应的区域,得到第二目标区域。这样,就可基于第二目标区域进行活体检测,可以准确判别该目标生物特征是否为活体的特征。避免了彩色图与深度图的对齐操作,或者图像分辨率调整等操作,在保障活体检测准确性的前提下,大大提高了活体检测效率。特别在彩色图和深度图的图像分辨率不一致的情况下,该活体检测效率得到了显著提升。
在一个实施例中,基于彩色图和深度图间的位置映射关系,确定深度图中与第一目标区域相匹配的第二目标区域,包括:
S302,确定第一目标区域中多于一个的第一目标位置。
其中,第一目标位置是第一目标区域中具有代表性的位置点,通过这些位置点可以唯一确定第一目标区域。比如,当第一目标区域为矩形区域时,多于一个的第一目标位置具体可以是矩形区域的左上顶点和右下顶点的位置点,也就是矩形区域的左上角和右下角的位置点。可以理解,该第一目标位置还可以是矩形区域的左下角和右上角的位置点等,本申请实施例对此不做限定。当第一目标区域为圆形区域时,多于一个的第一目标位置具体可以是圆心、以及圆边界上的其中一个位置点。具体地,计算机设备可确定该第一目标区域中多于一个的第一目标位置。
S304,基于彩色图和深度图间的位置映射关系,将各第一目标位置分别映射至深度图中,得到对应的第二目标位置。
具体地,计算机设备可基于彩色图和深度图间的位置映射关系,将各第一目标位置一一映射至该深度图中,得到对应的第二目标位置。
在一个实施例中,该位置映射关系,具体可以是彩色图中的某个像素在彩色图中的坐标,与该像素在深度图中的坐标之间的对应关系。计算机设备可确定各个第一目标位置处的目标像素,并根据该对应关系,找到相应目标像素在深度图中的第二目标位置。
S306,根据多于一个的第二目标位置,确定深度图包括有目标生物特征的第二目标区域。
具体地,计算机设备可基于各个第一目标位置,构建深度图中的第二目标区域,该第二目标区域与第一目标区域是相同的图形区域。比如,当第一目标区域是矩形区域时,该第一目标位置具体可以是左上顶点和右下顶点。计算机设备可基于彩色图和深度图间的位置映射关系,将左上顶点和右下顶点分别映射至深度图中,将映射得到的第二目标位置所构成的矩形区域作为深度图中的第二目标区域。可以理解,该第二目标区域中的像素的内容与第一目标区域中的像素的内容是对应的,也就是说,该深度图的第二目标区域是与待检测对象的目标生物特征相对应的区域。
上述实施例中,通过将彩色图中第一目标区域中的多个第一目标位置,映射至深度图,得到对应的多个第二目标位置,这样,由多个第二目标位置所构成的区域就是深度图中包括有目标生物特征的第二目标区域,可以快速且准确的定位到深度图中包括有目标生物特征的区域。
在一个实施例中,该活体检测方法还包括第一参考图和第二参考图的采集步骤,该步骤具体包括:在参考对象与图像采集装置相距预设距离时,通过图像采集装置在第一图像分辨率下拍摄参考对象,得到第一参考图;第一参考图为彩色图;在参考对象与图像采集装置相距同样的预设距离时,通过图像采集装置在第二图像分辨率下拍摄参考对象,得到第二参考图;第二参考图为彩色图。
具体地,在采集第一参考图和第二参考图时,为了可以准确找出第一参考图和第二参考图之间的转换规则,可保持图像采集装置与参考对象的距离不变。可以理解该参考对象所在的平面即是参考面。这样,计算机设备就可基于第一参考图和第二参考计算不同分辨率的图像间的映射关系。
在一个实施例中,彩色图对应第一图像分辨率,深度图对应第二图像分辨率。步骤S304,也就是基于彩色图和深度图间的位置映射关系,将各第一目标位置分别映射至深度图中,得到对应的第二目标位置的步骤,具体包括以下步骤:
S402,获取具有第一图像分辨率的第一参考图中至少两个第一参考点的第一坐标。
其中,参考图是用于计算不同分辨率的图像间的像素映射关系的图像,具体可以是彩色图。第一参考图是具有第一图像分辨率的图像,第二参考图是具有第二图像分辨率的图像。可以理解,通常情况下,对同一对象采集的彩色图的图像分辨率会高于深度图的图像分辨率,因而第一图像分辨率通常大于第二图像分辨率。
具体地,计算机设备可确定具有第一图像分辨率的第一参考图,该第一参考图可以是彩色图。计算机设备可确定第一图像分辨率中至少两个第一参考点各自对应的第一坐标。该至少两个第一参考点具有不同的横纵坐标,可构成一个矩形区域。该至少两个第一参考点中包括所构成矩形区域的左上顶点和右下顶点。
S404,获取具有第二图像分辨率的第二参考图中至少两个第二参考点的第二坐标;第二参考点为与第一参考点对应的像素点。
具体地,计算机设备可确定具有第二图像分辨率的第二参考图,该第二参考图可以是彩色图。计算机设备可确定第二图像分辨率中至少两个第二参考点各自对应的第二坐标。该至少两个第二参考点具有不同的横纵坐标,可构成一个矩形区域。该至少两个第二参考点中包括所构成矩形区域的左上顶点和右下顶点。需要说明的是,第一参考点与第二参考点具有对应关系。第二参考图中的第二参考点具体可以是将第一参考图中的第一参考点映射至第二参考图中所得到的位置点。还可以是,先确定第二参考图中的第二参考点,再将第二参考图中的第二参考点映射至第一参考图中所得到的位置作为第一参考点,本申请实施例对此不做限定。
在一个实施例中,为了计算方便,计算机设备可选取第二参考图中左上顶点和右下顶点作为第二参考点,该整个第二参考图构成一个矩形区域。进而,计算机设备可查找第一参考图中与第二参考图中左上顶点的像素点在第一参考图中的位置,查找到的位置就是其中一个第二参考点的位置。计算机设备查找第一参考图中与第二参考图中右下顶点的像素点在第一参考图中的位置,查找到的位置就是其中一个第二参考点的位置。
在一个实施例中,参考图具体可以是彩色图,这样,在查找第一参考图中与第二参考图的第二目标位置相对应的第一目标位置时,可基于第二目标位置处的像素点的像素值,查找具有相同像素值的像素所在的位置,即使第二目标位置。当然,通过彩色图来进行找出位置映射关系时,还可通过人工视觉的呈现来判断,就是查找第一参考图和第二参考图中对应同一个目标点的位置。可以理解,找到第一参考图和第二参考图中互相具有对应关系的目标点的方式有多种,本申请实施例对此不做限定。
S406,根据第一坐标中的第一参考横坐标、第二坐标中的第二参考横坐标、及第一目标位置的第一目标横坐标,计算得到第二目标横坐标。
具体地,计算机设备可根据不同第一坐标中第一参考横坐标的差值,以及不同第二坐标中第二参考横坐标的差值,确定水平缩放比例。从而根据水平缩放比例对第一目标位置的第一目标横坐标进行相应的缩放处理,得到第二目标横坐标。
在一个实施例中,步骤S406,也就是根据第一坐标中的第一参考横坐标、第二坐标中的第二参考横坐标、及第一目标位置的第一目标横坐标,计算得到第二目标横坐标的步骤具体包括以下步骤:
S502,计算两个第一参考点各自对应的第一参考横坐标的第一差值,并计算相应的两个第二参考点各自对应的第二参考横坐标的第二差值。
具体地,计算机设备可计算两个第二参考点各自对应的第二参考横坐标的第二差值。这两个第二参考点可分别是第二参考图的左上顶点和右下顶点,这样计算得到的第二差值就是第二参考图的长度。当然,这两个第二参考点也可以是其他互不相同的位置点,只要分别具体完全不同的横纵坐标即可,本申请实施例对此不做限定。
计算机设备可确定第一参考图中分别与上述第二参考点对应的第一参考点,进而计算机设备可计算这两个第一参考点各自对应的第一参考横坐标的第一差值。
S504,将第二差值和第一差值的比值作为水平缩放比例。
具体地,计算机设备可将第二差值和第一差值的比值作为水平缩放比例,该水平缩放比例体现具有第一图像分辨率的第一参考图,与具有第二图像分辨率的第二参考图中相匹配的区域在水平方向上的转换规则。可以理解,计算机设备也可将第一差值与第二差值的比值作为水平缩放比例。
S506,计算第一目标位置的第一目标横坐标,与其中一个第一参考点的第一参考横坐标的第三差值。
具体地,计算机设备可计算第一目标区域中第一目标位置的第一目标横坐标,与其中一个第一参考点的第一参考横坐标的第三差值。
S508,根据水平缩放比例、第三差值、及其中一个第一参考点所对应的第二参考点的第二参考横坐标,计算得到第二目标横坐标。
具体地,第二目标横坐标与该其中一个第一参考点所对应的第二参考点的第二参考横坐标的差值,与第三差值的比值,应该等于该水平缩放比例。因而计算机设备可根据水平缩放比例、第三差值、及其中一个第一参考点所对应的第二参考点的第二参考横坐标,计算得到第二目标横坐标。
在一个实施例中,当其中一个第一参考点所对应的第二参考点为左上顶点时,该第二参考横坐标可为零,这样就可简化该计算过程。
上述实施例中,通过第一参考横坐标、第二坐标中的第二参考横坐标、及第一目标位置的第一目标横坐标,可以快速准确的计算得到第二目标横坐标。
S408,根据第一坐标中的第一参考纵坐标、第二坐标中的第二参考纵坐标、及第一目标位置的第一目标纵坐标,计算得到第二目标纵坐标。
具体地,计算机设备可根据不同第一坐标中第一参考纵坐标的差值,以及不同第二坐标中第二参考纵坐标的差值,确定垂直缩放比例。从而根据垂直缩放比例对第一目标位置的第一目标纵坐标进行相应的缩放处理,得到第二目标纵坐标。
在一个实施例中,步骤S408,也就是根据第一坐标中的第一参考纵坐标、第二坐标中的第二参考纵坐标、及第一目标位置的第一目标纵坐标,计算得到第二目标纵坐标的步骤具体包括:计算两个第一参考点各自对应的第一参考纵坐标的第四差值,并计算相应的两个第二参考点各自对应的第二参考纵坐标的第五差值;将第五差值和第四差值的比值作为垂直缩放比例;计算第一目标位置的第一目标纵坐标,与其中一个第一参考点的第一参考纵坐标的第六差值;根据垂直缩放比例、第六差值、及其中一个第一参考点所对应的第二参考点的第二参考纵坐标,计算得到第二目标纵坐标。
可以理解,关于第二目标纵坐标的计算方式同第二目标横坐标的计算方式是类似的计算逻辑,可参考前述关于第二目标横坐标的计算方式的描述内容。
S410,将由第二目标横坐标和第二目标纵坐标所确定的位置,作为深度图中与彩色图的第一目标位置对应的第二目标位置。
具体地,计算机设备可将由第二目标横坐标和第二目标纵坐标所确定的位置,作为深度图中与彩色图的第一目标位置对应的第二目标位置,这样,就是将彩色图中的第一目标位置映射至深度图中,得到第二目标位置。对于每一个第一目标位置,均采用同样的方式进行映射处理,在深度图中查找到与各个第一目标位置对应的第二目标位置。这样,该多于一个第二目标位置所构成的区域则可确定为第一目标区域。
下面通过举例的方式来具体说明如何从深度图中查找到与彩色图的第一目标位置对应的第二目标位置:
对于采集彩色图和深度图的图像采集装置,该图像采集装置具体可以是摄像头,在摄像头生产过程中,实验室可对该摄像头进行测试,以得到不同分辨率图像间的映射关系。参考图6(A)和图6(B),图6(A)为具有第一图像分辨率的彩色图的示意图;图6(B)为具有第二图像分辨率的彩色图的示意图。假设彩色图的第一图像分辨率为AxB,深度图的第二图像分辨率为CxD。首先,保持摄像头和参考面的位置不变,采集AxB分辨率的彩色图,也就是第一参考图,如图6(A)所示。在摄像头和参考面的位置保持不变的情况下,采集CxD分辨率的彩色图,也就是第二参考图,如图6(B)所示。其中,图6(A)和图6(B)中的圆点表示对应的像素,从图6(A)和图6(B)中可看出,由于图6(A)和图6(B)的图像分辨率不同,对于同一个像素点601,分别处于图6(A)和图6(B)中的不同位置。
接下来就可基于第一参考图和第二参考图来计算从AxB->CxD的转换规则。具体地,计算机设备可先定位第二参考图左上角第一个像素在第一参考图中的位置(x1,y1)。再确定第二参考图右下角最后一个像素在第一参考图中对应的位置(x2,y2)。计算机设备可计算由第一参考图转换到第二参考图的水平缩放比例(x2-x1)/C,以及垂直缩放比例(y2-y1)/D。那么相应的,第一参考图中的位置坐标(x,y)映射到第二参考图中的位置坐标(x′,y′)转换规则如下:x′=(x-x1)*C/(x2-x1);y′=(y-y1)*D/(y1-y2)。计算机设备可存储该位置映射关系,在获得彩色图中第一目标区域的各第一目标位置的坐标后,根据该转换规则,可对第一目标位置的坐标进行转化,即可确定深度图中的第二目标位置,进而确定深度图中第二目标区域的位置和大小。
可以理解,上述位置映射关系具体可以是通过计算机设备计算得到,也可以是通过其他的计算机设备计算得到后传输至本地的,本地的计算机设备可存储该位置映射关系,这样在需要使用时则可直接使用。
上述实施例中,根据具有第一图像分辨率的第一参考图和具有第二图像分辨率的第二参考图,可确定彩色图和深度图间的位置转换关系,这样就可准确的从深度图中找到与彩色图相对应的目标位置,进而可以将彩色图中的第一目标区域映射至深度图中,得到第二目标区域。
在一个实施例中,生物特征检测包括人脸检测,目标生物特征包括人脸,该活体检测方法还包括:根据彩色图中第一目标区域进行人脸识别,得到对应的人脸识别结果;根据人脸识别结果和活体检测结果,确定与待检测对象对应的身份验证结果。
其中,身份验证结果是对待检测对象进行身份验证所的得到的结果,具体可以是验证通过或验证不通过的结果,还可以是确定的与该待检测对象相应的用户身份信息。其中,用户身份信息,具体可以是用户标识或用户账号等,用户标识用于唯一标识一个用户,具体可以是数字、字母或字符串等。
具体地,计算机设备可根据彩色图中第一目标区域进行人脸识别,得到对应的人脸识别结果。进而计算机设备可根据人脸识别结果和活体检测结果,确定与待检测对象对应的身份验证结果。
在一个实施例中,当人脸识别结果和活体检测结果中任一项检测结果不通过时,计算机设备可判定该待检测对象的身份验证结果不通过。只有当人脸识别结果和活体检测结果均通过验证时,计算机设备才判定该待检测对象的身份验证结果通过。可以理解,人脸识别的步骤与活体检测的步骤的执行顺序并不限定,具体可以是先执行人脸识别的步骤,或者先执行活体检测的步骤,或者两者同时执行等,本申请实施例对此不做限定。
在一个实施例中,计算机设备可在活体检测结果表征识别到活体时,再根据彩色图中第一目标区域进行人脸识别,得到对应的人脸识别结果。计算机设备在进行人脸识别时,具体可通过卷积神经网络结构对彩色图的第一目标区域进行特征提取,得到相应的人脸特征向量。进而再将该人脸特征向量与预先存储的特征向量样本集合中的各特征向量样本进行一一比对,确定该人脸特征向量与各特征向量样本的相似程度。该相似程度可以理解为该人脸特征向量相应的用户与特征向量样本相应的用户为同一用户的置信度。该人脸特征向量与特征向量样本的相似程度越高,表示该人脸特征向量相应的用户与特征向量样本相应的用户为同一用户越可信。
在一个实施例中,计算机设备可计算该人脸特征向量与特征向量样本之间的相似度,进而判断该相似度是否大于等于预设相似度阈值。当大于等于预设相似度阈值时,计算机设备可将相应特征向量样本所对应的用户,确定为与该待检测对象对应的用户。进而计算机设备可获取该用户的用户身份信息。其中,预设相似度阈值是预先设置的可判定身份验证结果的最小相似度的数值。预设相似度阈值是根据大量实验确定的人脸特征向量对比验证身份所容许的最大误差。
其中,计算该人脸特征向量与特征向量样本之间的相似度,可具体计算两特征向量之间的差异,特征向量之间的差异越大则相似度越低,特征向量之间的差异越小则相似度越高。相似度计算可采用余弦相似度或者图像间各自感知哈希值的汉明距离等。
在一个实施例中,彩色图的第一图像分辨率高于深度图的第二图像分辨率,这样,在彩色图和深度图的图像分辨率不一致的情况下,通过在彩色图中的人脸检测,获得彩色图人脸检测坐标后,通过预制的映射算法,将彩色图中的人脸区域映射到深度图中的对应区域。从而基于该区域完成深度图活检测。当识别到活体时,计算机设备可对彩色图进行人脸识别,得到人脸识别结果。这样,基于具有较高的图像分辨率的彩色图可以更准确的进行人脸识别,除了可以确定该待检测对应真是的用户身份外,还可以检测出该用户眼睛是否睁开、表情是否异常等这些细节,以判定该用户是否处于清醒的、且自由的状态。这样,当这些都满足条件时,才判定身份验证通过,可触发后续的资源转移操作,进一步保障了用户的资源安全。
上述实施例中,根据对彩色图的人脸识别结果、及对深度图的活体检测结果,可准确的确定该待检测对象的身份验证结果。
在一个实施例中,该活体检测方法还包括资源转移的步骤,该步骤具体包括:获取资源转移数额、以及资源接收方账号;根据身份验证结果确定相应的资源提供方账号;响应于资源转移请求,将资源提供方账号中与资源转移数额对应的资源转移至资源接收方账号。
具体地,当身份验证结果表明身份验证通过,且查找到与该待检测对象对应的用户身份信息时,计算机设备可触发资源转移的步骤。计算机设备可获取用户或商户输入的资源转移数额,以及商户默认的或选择的资源接收方账号。计算机设备在确定身份验证结果时,即可查找到对应的用户身份信息,该用户身份信息包括用户账号,在本实施例中具体可以是资源提供方账号。进而,当计算机设备检测到资源转移请求时,可将资源提供方账号中与资源转移数额对应的资源转移至资源接收方账号。这样,用户就完成了安全地线下支付。
下面以在商场收银台自助买单的场景进行举例说明,用户可以在不带手机和钱包的情况下,用扫码枪把商品加入购物清单。通过商场的商户终端所提供的操作界面触发图像采集指令,通过图像采集装置扫描用户人脸,得到对应的彩色图和深度图。商户终端可在本地执行该活体检测方法,或商户终端可将彩色图和深度图发送至服务器,以使得服务器执行该活体检测方法,最终得到身份验证结果。这样,商户的工作人员或用户可在商户终端中获取资源转移数额,商户终端可依据资源转移数额从用户的账号中进行扣款,并支付给商户。这样,用户通过人脸就可进行安全支付,全流程无需携带钱包和手机。
上述实施例中,在根据待检测对象的身份验证结果后,可确定相应的资源提供方账号,进而可依据资源转移数额,将资源提供方账号中相应的资源转移至资源接收方账号,可实现快捷且安全的资源转移操作。
本申请还提供一种应用场景,该应用场景应用上述的活体检测方法。具体地,该活体检测方法在该应用场景的应用如下:
用户可以在不带手机和钱包的情况下,在购买商品需要支付时,可通过商场的商户终端所提供的操作界面触发图像采集指令,通过摄像头扫描用户人脸,得到对应的彩色图和深度图。商户终端可将用户人脸的彩色图和深度图发送至服务器,服务器对该彩色图进行人脸检测,确定该彩色图中包括有人脸的第一目标区域。进而,服务器基于预先存储的彩色图和深度图间的位置映射关系,确定深度图中与该第一目标区域相匹配的第二目标区域。可以理解,该第二目标区域也就是深度图中的人脸区域。服务器可对深度图中的第二目标区域进行活体检测,以判定是否存在活体。当存在活体时,服务器可进一步根据彩色图的第一目标区域进行人脸识别,得到用户身份信息,并根据用户身份信息确定对应的用户账号。服务器可将用户账号反馈至商户终端,这样,商户的工作人员或用户可在商户终端中获取资源转移数额,商户终端可依据资源转移数额从用户的账号中进行扣款,并支付给商户。这样,用户通过人脸就可进行安全支付,全流程无需携带钱包和手机。
参考图7,在一个具体的实施例中,以商户终端与服务器共同实现该活体检测方法为例进行说明:用户触发图像采集指令。商户终端检测到该图像采集指令后可调用摄像头采集待检测对象的彩色图和深度图。其中,彩色图对应第一图像分辨率,深度图对应第二图像分辨率。商户终端将彩色图和深度图发送至对应的服务器。服务器对彩色图进行人脸检测,确定彩色图中包括有人脸的第一目标区域。服务器可基于彩色图和深度图间的位置映射关系,确定深度图中与第一目标区域相匹配的第二目标区域。进而,服务器可对深度图中的第二目标区域进行活体检测,得到与待检测对象对应的活体检测结果。当该活体检测结果表明识别到活体时,服务器可根据彩色图中第一目标区域进行人脸识别,得到对应的人脸识别结果。服务器根据人脸识别结果和活体检测结果,确定与待检测对象对应的身份验证结果。服务器将身份验证结果反馈至商户终端,商户终端根据该身份验证结果确定相应的资源提供方账号。商户终端还可获取资源转移数额、以及资源接收方账号。商户终端响应于资源转移请求,将资源提供方账号中与资源转移数额对应的资源转移至资源接收方账号。
可以理解,上述所有步骤也可均在商户终端执行,上述具体实施方式仅为示意性说明,不用于限定本申请。
上述活体检测方法,获取到与待检测对象对应的彩色图和深度图后,通过对彩色图进行生物特征检测,确定彩色图中包括有目标生物特征的第一目标区域。进而根据彩色图和深度图间的位置映射关系,将彩色图中的第一目标区域映射到深度图中相应的区域,得到第二目标区域。这样,就可基于第二目标区域进行活体检测,可以准确判别该目标生物特征是否为活体的特征。避免了彩色图与深度图的对齐操作,或者图像分辨率调整等操作,在保障活体检测准确性的前提下,大大提高了活体检测效率。特别在彩色图和深度图的图像分辨率不一致的情况下,该活体检测效率得到了显著提升。
本申请实施例所提及的活体检测方法,支持人脸检测识别时,试用较高的彩色图分辨率,可以提升检测精度和效果。避免了人脸检测识别时必须使用相同的图像分辨率的彩色图和深度图的限制,扩展应用场景。而且,无需对彩色图和深度图进行对齐操作,减少系统性能消耗和数据延迟,提升用户体验。
应该理解的是,虽然图2-5的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-5中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,提供了一种活体检测装置800,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:获取模块801、生物特征检测模块802、确定模块803和活体检测模块804,其中:
获取模块801,用于获取与待检测对象对应的彩色图和深度图;
生物特征检测模块802,用于对彩色图进行生物特征检测,确定彩色图中包括有目标生物特征的第一目标区域;
确定模块803,用于基于彩色图和深度图间的位置映射关系,确定深度图中与第一目标区域相匹配的第二目标区域;
活体检测模块804,用于对深度图中的第二目标区域进行活体检测,得到与待检测对象对应的活体检测结果。
在其中一个实施例中,获取模块801,具体用于当产生图像采集指令时,调用图像采集装置;通过图像采集装置扫描预设范围内的待检测对象,并对待检测对象进行拍摄得到与待检测对象对应的彩色图和深度图。
在其中一个实施例中,生物特征检测包括人脸检测,目标生物特征包括人脸;生物特征检测模块802,具体用于提取彩色图的图像特征,得到对应的第一特征图;基于第一特征图进行人脸检测,得到多于一个的候选区域;对多于一个的候选区域进行分类处理,确定属于人脸类别的人脸候选区域,并根据人脸候选区域确定彩色图中包括有人脸的第一目标区域。
在其中一个实施例中,确定模块803,具体用于确定第一目标区域中多于一个的第一目标位置;基于彩色图和深度图间的位置映射关系,将各第一目标位置分别映射至深度图中,得到对应的第二目标位置;根据多于一个的第二目标位置,确定深度图包括有目标生物特征的第二目标区域。
在其中一个实施例中,彩色图对应第一图像分辨率,深度图对应第二图像分辨率;确定模块803,具体用于获取具有第一图像分辨率的第一参考图中至少两个第一参考点的第一坐标;获取具有第二图像分辨率的第二参考图中至少两个第二参考点的第二坐标;第二参考点为与第一参考点对应的像素点;根据第一坐标中的第一参考横坐标、第二坐标中的第二参考横坐标、及第一目标位置的第一目标横坐标,计算得到第二目标横坐标;根据第一坐标中的第一参考纵坐标、第二坐标中的第二参考纵坐标、及第一目标位置的第一目标纵坐标,计算得到第二目标纵坐标;将由第二目标横坐标和第二目标纵坐标所确定的位置,作为深度图中与彩色图的第一目标位置对应的第二目标位置。
在其中一个实施例中,确定模块803,具体用于计算两个第一参考点各自对应的第一参考横坐标的第一差值,并计算相应的两个第二参考点各自对应的第二参考横坐标的第二差值;将第二差值和第一差值的比值作为水平缩放比例;计算第一目标位置的第一目标横坐标,与其中一个第一参考点的第一参考横坐标的第三差值;根据水平缩放比例、第三差值、及其中一个第一参考点所对应的第二参考点的第二参考横坐标,计算得到第二目标横坐标。
在其中一个实施例中,确定模块803,具体用于计算两个第一参考点各自对应的第一参考纵坐标的第四差值,并计算相应的两个第二参考点各自对应的第二参考纵坐标的第五差值;将第五差值和第四差值的比值作为垂直缩放比例;计算第一目标位置的第一目标纵坐标,与其中一个第一参考点的第一参考纵坐标的第六差值;根据垂直缩放比例、第六差值、及其中一个第一参考点所对应的第二参考点的第二参考纵坐标,计算得到第二目标纵坐标。
在其中一个实施例中,获取模块801,还用于在参考对象与图像采集装置相距预设距离时,通过图像采集装置在第一图像分辨率下拍摄参考对象,得到第一参考图;第一参考图为彩色图;在参考对象与图像采集装置相距同样的预设距离时,通过图像采集装置在第二图像分辨率下拍摄参考对象,得到第二参考图;第二参考图为彩色图。
在其中一个实施例中,活体检测模块804,具体用于通过活体检测模型的卷积层提取深度图的第二目标区域的第二特征图;通过活体检测模型的全连接层,依据第二特征图进行分类处理,得到深度图为活体生物图的置信度;置信度表示识别到活体的概率;当置信度大于或等于置信度阈值时,则判定识别到活体。
在其中一个实施例中,生物特征检测包括人脸检测,目标生物特征包括人脸,装置还包括人脸识别模块805,用于根据彩色图中第一目标区域进行人脸识别,得到对应的人脸识别结果。确定模块803,还用于根据人脸识别结果和活体检测结果,确定与待检测对象对应的身份验证结果。
参考图9,在其中一个实施例中,装置还包括资源转移模块806,用于获取资源转移数额、以及资源接收方账号;根据身份验证结果确定相应的资源提供方账号;响应于资源转移请求,将资源提供方账号中与资源转移数额对应的资源转移至资源接收方账号。
上述活体检测装置,获取到与待检测对象对应的彩色图和深度图后,通过对彩色图进行生物特征检测,确定彩色图中包括有目标生物特征的第一目标区域。进而根据彩色图和深度图间的位置映射关系,将彩色图中的第一目标区域映射到深度图中相应的区域,得到第二目标区域。这样,就可基于第二目标区域进行活体检测,可以准确判别该目标生物特征是否为活体的特征。避免了彩色图与深度图的对齐操作,或者图像分辨率调整等操作,在保障活体检测准确性的前提下,大大提高了活体检测效率。特别在彩色图和深度图的图像分辨率不一致的情况下,该活体检测效率得到了显著提升。
关于活体检测装置的具体限定可以参见上文中对于活体检测方法的限定,在此不再赘述。上述活体检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器或终端,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储检测结果数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种活体检测方法。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (24)
1.一种活体检测方法,其特征在于,所述方法包括:
获取与待检测对象对应的彩色图和深度图;所述彩色图对应第一图像分辨率,所述深度图对应第二图像分辨率,且所述第一图像分辨率不同于所述第二图像分辨率;
对所述彩色图进行生物特征检测,确定所述彩色图中包括有目标生物特征的第一目标区域;
确定所述第一目标区域中多于一个的第一目标位置;
基于所述彩色图和所述深度图间的位置映射关系,将各所述第一目标位置分别映射至所述深度图中,得到对应的第二目标位置;所述位置映射关系根据第一参考图和第二参考图中参考对象分别所在区域建立得到;所述第一参考图是在参考对象与图像采集装置相距预设距离时,在第一图像分辨率下对所述参考对象拍摄得到,所述第二参考图是在所述参考对象与所述图像采集装置相距同样的预设距离时,在第二图像分辨率下拍摄所述参考对象得到;
根据多于一个的第二目标位置,确定所述深度图包括有目标生物特征的第二目标区域;
对所述深度图中的第二目标区域进行活体检测,得到与所述待检测对象对应的活体检测结果。
2.根据权利要求1所述的方法,其特征在于,所述第一图像分辨率大于所述第二图像分辨率。
3.根据权利要求1所述的方法,其特征在于,所述获取与待检测对象对应的彩色图和深度图,包括:
当产生图像采集指令时,调用图像采集装置;
通过所述图像采集装置扫描预设范围内的待检测对象,并对所述待检测对象进行拍摄得到与所述待检测对象对应的彩色图和深度图。
4.根据权利要求1所述的方法,其特征在于,所述生物特征检测包括人脸检测,所述目标生物特征包括人脸;所述对所述彩色图进行生物特征检测,确定所述彩色图中包括有目标生物特征的第一目标区域,包括:
提取所述彩色图的图像特征,得到对应的第一特征图;
基于所述第一特征图进行人脸检测,得到多于一个的候选区域;
对所述多于一个的候选区域进行分类处理,确定属于人脸类别的人脸候选区域,并根据所述人脸候选区域确定所述彩色图中包括有人脸的第一目标区域。
5.根据权利要求1所述的方法,其特征在于,所述基于所述彩色图和所述深度图间的位置映射关系,将各所述第一目标位置分别映射至所述深度图中,得到对应的第二目标位置,包括:
获取具有第一图像分辨率的第一参考图中至少两个第一参考点的第一坐标;
获取具有第二图像分辨率的第二参考图中至少两个第二参考点的第二坐标;所述第二参考点为与所述第一参考点对应的像素点;
根据所述第一坐标中的第一参考横坐标、所述第二坐标中的第二参考横坐标、及所述第一目标位置的第一目标横坐标,计算得到第二目标横坐标;
根据所述第一坐标中的第一参考纵坐标、所述第二坐标中的第二参考纵坐标、及所述第一目标位置的第一目标纵坐标,计算得到第二目标纵坐标;
将由所述第二目标横坐标和所述第二目标纵坐标所确定的位置,作为所述深度图中与所述彩色图的第一目标位置对应的第二目标位置。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一坐标中的第一参考横坐标、所述第二坐标中的第二参考横坐标、及所述第一目标位置的第一目标横坐标,计算得到第二目标横坐标,包括:
计算两个第一参考点各自对应的第一参考横坐标的第一差值,并计算相应的两个第二参考点各自对应的第二参考横坐标的第二差值;
将所述第二差值和所述第一差值的比值作为水平缩放比例;
计算所述第一目标位置的第一目标横坐标,与其中一个第一参考点的第一参考横坐标的第三差值;
根据所述水平缩放比例、所述第三差值、及所述其中一个第一参考点所对应的第二参考点的第二参考横坐标,计算得到第二目标横坐标。
7.根据权利要求5所述的方法,其特征在于,所述根据所述第一坐标中的第一参考纵坐标、所述第二坐标中的第二参考纵坐标、及所述第一目标位置的第一目标纵坐标,计算得到第二目标纵坐标,包括:
计算两个第一参考点各自对应的第一参考纵坐标的第四差值,并计算相应的两个第二参考点各自对应的第二参考纵坐标的第五差值;
将所述第五差值和所述第四差值的比值作为垂直缩放比例;
计算所述第一目标位置的第一目标纵坐标,与其中一个第一参考点的第一参考纵坐标的第六差值;
根据所述垂直缩放比例、所述第六差值、及所述其中一个第一参考点所对应的第二参考点的第二参考纵坐标,计算得到第二目标纵坐标。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在参考对象与图像采集装置相距预设距离时,通过所述图像采集装置在第一图像分辨率下拍摄所述参考对象,得到第一参考图;所述第一参考图为彩色图;
在所述参考对象与所述图像采集装置相距同样的预设距离时,通过所述图像采集装置在第二图像分辨率下拍摄所述参考对象,得到第二参考图;所述第二参考图为彩色图。
9.根据权利要求1所述的方法,其特征在于,所述对所述深度图中的第二目标区域进行活体检测,得到与所述待检测对象对应的活体检测结果,包括:
通过活体检测模型的卷积层提取所述深度图的第二目标区域的第二特征图;
通过所述活体检测模型的全连接层,依据所述第二特征图进行分类处理,得到所述深度图为活体生物图的置信度;所述置信度表示识别到活体的概率;
当所述置信度大于或等于置信度阈值时,则判定识别到活体。
10.根据权利要求1至9中任一项所述的方法,其特征在于,所述生物特征检测包括人脸检测,所述目标生物特征包括人脸,所述方法还包括:
根据所述彩色图中第一目标区域进行人脸识别,得到对应的人脸识别结果;
根据所述人脸识别结果和所述活体检测结果,确定与所述待检测对象对应的身份验证结果。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
获取资源转移数额、以及资源接收方账号;
根据所述身份验证结果确定相应的资源提供方账号;
响应于资源转移请求,将所述资源提供方账号中与所述资源转移数额对应的资源转移至所述资源接收方账号。
12.一种活体检测装置,其特征在于,所述装置包括:
获取模块,用于获取与待检测对象对应的彩色图和深度图;所述彩色图对应第一图像分辨率,所述深度图对应第二图像分辨率,且所述第一图像分辨率不同于所述第二图像分辨率;
生物特征检测模块,用于对所述彩色图进行生物特征检测,确定所述彩色图中包括有目标生物特征的第一目标区域;
确定模块,用于确定所述第一目标区域中多于一个的第一目标位置;基于所述彩色图和所述深度图间的位置映射关系,将各所述第一目标位置分别映射至所述深度图中,得到对应的第二目标位置;所述位置映射关系根据第一参考图和第二参考图中参考对象分别所在区域建立得到;所述第一参考图是在参考对象与图像采集装置相距预设距离时,在第一图像分辨率下对所述参考对象拍摄得到,所述第二参考图是在所述参考对象与所述图像采集装置相距同样的预设距离时,在第二图像分辨率下拍摄所述参考对象得到;根据多于一个的第二目标位置,确定所述深度图包括有目标生物特征的第二目标区域;
活体检测模块,用于对所述深度图中的第二目标区域进行活体检测,得到与所述待检测对象对应的活体检测结果。
13.根据权利要求12所述的装置,其特征在于,所述第一图像分辨率大于所述第二图像分辨率。
14.根据权利要求12所述的装置,其特征在于,所述获取模块,还用于:
当产生图像采集指令时,调用图像采集装置;
通过所述图像采集装置扫描预设范围内的待检测对象,并对所述待检测对象进行拍摄得到与所述待检测对象对应的彩色图和深度图。
15.根据权利要求12所述的装置,其特征在于,所述生物特征检测包括人脸检测,所述目标生物特征包括人脸;所述生物特征检测模块,具体用于:
提取所述彩色图的图像特征,得到对应的第一特征图;
基于所述第一特征图进行人脸检测,得到多于一个的候选区域;
对所述多于一个的候选区域进行分类处理,确定属于人脸类别的人脸候选区域,并根据所述人脸候选区域确定所述彩色图中包括有人脸的第一目标区域。
16.根据权利要求12所述的装置,其特征在于,所述确定模块,具体用于:
获取具有第一图像分辨率的第一参考图中至少两个第一参考点的第一坐标;
获取具有第二图像分辨率的第二参考图中至少两个第二参考点的第二坐标;所述第二参考点为与所述第一参考点对应的像素点;
根据所述第一坐标中的第一参考横坐标、所述第二坐标中的第二参考横坐标、及所述第一目标位置的第一目标横坐标,计算得到第二目标横坐标;
根据所述第一坐标中的第一参考纵坐标、所述第二坐标中的第二参考纵坐标、及所述第一目标位置的第一目标纵坐标,计算得到第二目标纵坐标;
将由所述第二目标横坐标和所述第二目标纵坐标所确定的位置,作为所述深度图中与所述彩色图的第一目标位置对应的第二目标位置。
17.根据权利要求16所述的装置,其特征在于,所述确定模块,具体用于计算两个第一参考点各自对应的第一参考横坐标的第一差值,并计算相应的两个第二参考点各自对应的第二参考横坐标的第二差值;
将所述第二差值和所述第一差值的比值作为水平缩放比例;
计算所述第一目标位置的第一目标横坐标,与其中一个第一参考点的第一参考横坐标的第三差值;
根据所述水平缩放比例、所述第三差值、及所述其中一个第一参考点所对应的第二参考点的第二参考横坐标,计算得到第二目标横坐标。
18.根据权利要求16所述的装置,其特征在于,所述确定模块,具体用于:
计算两个第一参考点各自对应的第一参考纵坐标的第四差值,并计算相应的两个第二参考点各自对应的第二参考纵坐标的第五差值;
将所述第五差值和所述第四差值的比值作为垂直缩放比例;
计算所述第一目标位置的第一目标纵坐标,与其中一个第一参考点的第一参考纵坐标的第六差值;
根据所述垂直缩放比例、所述第六差值、及所述其中一个第一参考点所对应的第二参考点的第二参考纵坐标,计算得到第二目标纵坐标。
19.根据权利要求12所述的装置,其特征在于,所述获取模块,还用于:
在参考对象与图像采集装置相距预设距离时,通过所述图像采集装置在第一图像分辨率下拍摄所述参考对象,得到第一参考图;所述第一参考图为彩色图;
在所述参考对象与所述图像采集装置相距同样的预设距离时,通过所述图像采集装置在第二图像分辨率下拍摄所述参考对象,得到第二参考图;所述第二参考图为彩色图。
20.根据权利要求12所述的装置,其特征在于,所述活体检测模块,具体用于:
通过活体检测模型的卷积层提取所述深度图的第二目标区域的第二特征图;
通过所述活体检测模型的全连接层,依据所述第二特征图进行分类处理,得到所述深度图为活体生物图的置信度;所述置信度表示识别到活体的概率;
当所述置信度大于或等于置信度阈值时,则判定识别到活体。
21.根据权利要求12至20中任一项所述的装置,其特征在于,所述生物特征检测包括人脸检测,所述目标生物特征包括人脸,所述装置还包括人脸识别模块,其中:
所述人脸识别模块,用于根据所述彩色图中第一目标区域进行人脸识别,得到对应的人脸识别结果;
所述确定模块,还用于根据所述人脸识别结果和所述活体检测结果,确定与所述待检测对象对应的身份验证结果。
22.根据权利要求21所述的装置,其特征在于,所述装置还包括资源转移模块,用于:
获取资源转移数额、以及资源接收方账号;
根据所述身份验证结果确定相应的资源提供方账号;
响应于资源转移请求,将所述资源提供方账号中与所述资源转移数额对应的资源转移至所述资源接收方账号。
23.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至11中任一项所述的方法的步骤。
24.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至11中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010377188.7A CN111582155B (zh) | 2020-05-07 | 2020-05-07 | 活体检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010377188.7A CN111582155B (zh) | 2020-05-07 | 2020-05-07 | 活体检测方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111582155A CN111582155A (zh) | 2020-08-25 |
CN111582155B true CN111582155B (zh) | 2024-02-09 |
Family
ID=72124691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010377188.7A Active CN111582155B (zh) | 2020-05-07 | 2020-05-07 | 活体检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111582155B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112665698A (zh) * | 2020-12-15 | 2021-04-16 | 重庆电子工程职业学院 | 一种智能电子秤 |
WO2022151507A1 (zh) * | 2021-01-18 | 2022-07-21 | 深圳市大疆创新科技有限公司 | 可移动平台及其控制方法、控制装置及机器可读存储介质 |
CN113469036A (zh) * | 2021-06-30 | 2021-10-01 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086718A (zh) * | 2018-08-02 | 2018-12-25 | 深圳市华付信息技术有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
CN109670487A (zh) * | 2019-01-30 | 2019-04-23 | 汉王科技股份有限公司 | 一种人脸识别方法、装置及电子设备 |
CN110163078A (zh) * | 2019-03-21 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置及应用活体检测方法的服务系统 |
CN110414200A (zh) * | 2019-04-08 | 2019-11-05 | 广州腾讯科技有限公司 | 身份验证方法、装置、存储介质和计算机设备 |
CN110941986A (zh) * | 2019-10-10 | 2020-03-31 | 平安科技(深圳)有限公司 | 活体检测模型的训练方法、装置、计算机设备和存储介质 |
CN111091063A (zh) * | 2019-11-20 | 2020-05-01 | 北京迈格威科技有限公司 | 活体检测方法、装置及系统 |
-
2020
- 2020-05-07 CN CN202010377188.7A patent/CN111582155B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086718A (zh) * | 2018-08-02 | 2018-12-25 | 深圳市华付信息技术有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
CN109670487A (zh) * | 2019-01-30 | 2019-04-23 | 汉王科技股份有限公司 | 一种人脸识别方法、装置及电子设备 |
CN110163078A (zh) * | 2019-03-21 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置及应用活体检测方法的服务系统 |
CN110414200A (zh) * | 2019-04-08 | 2019-11-05 | 广州腾讯科技有限公司 | 身份验证方法、装置、存储介质和计算机设备 |
CN110941986A (zh) * | 2019-10-10 | 2020-03-31 | 平安科技(深圳)有限公司 | 活体检测模型的训练方法、装置、计算机设备和存储介质 |
CN111091063A (zh) * | 2019-11-20 | 2020-05-01 | 北京迈格威科技有限公司 | 活体检测方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111582155A (zh) | 2020-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111582155B (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
US10013765B2 (en) | Method and system for image registrations | |
JP7286010B2 (ja) | 人体属性の認識方法、装置、電子機器及びコンピュータプログラム | |
EP4085369A1 (en) | Forgery detection of face image | |
WO2019169884A1 (zh) | 基于深度信息的图像显著性检测方法和装置 | |
CN110390254B (zh) | 基于人脸的性格分析方法、装置、计算机设备及存储介质 | |
CN112528902B (zh) | 一种基于3d人脸模型的视频监控动态人脸识别方法及装置 | |
CN111275685A (zh) | 身份证件的翻拍图像识别方法、装置、设备及介质 | |
CN111339897B (zh) | 活体识别方法、装置、计算机设备和存储介质 | |
CN111666922A (zh) | 视频匹配方法、装置、计算机设备和存储介质 | |
CN109886223B (zh) | 人脸识别方法、底库录入方法、装置及电子设备 | |
CN112036260B (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
CN112651333B (zh) | 静默活体检测方法、装置、终端设备和存储介质 | |
CN109063598A (zh) | 人脸毛孔检测方法、装置、计算机设备和存储介质 | |
CN113642639B (zh) | 活体检测方法、装置、设备和存储介质 | |
CN116740261B (zh) | 图像重建方法和装置、图像重建模型的训练方法和装置 | |
CN113033305A (zh) | 活体检测方法、装置、终端设备和存储介质 | |
Liu et al. | Presentation attack detection for face in mobile phones | |
Liu et al. | SIFNet: A self-attention interaction fusion network for multisource satellite imagery template matching | |
CN116597267B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN117037244A (zh) | 人脸安全检测方法、装置、计算机设备和存储介质 | |
CN116310899A (zh) | 基于YOLOv5改进的目标检测方法及装置、训练方法 | |
CN115880530A (zh) | 对抗攻击的检测方法和系统 | |
CN115482285A (zh) | 图像对齐方法、装置、设备及存储介质 | |
CN114038030A (zh) | 图像篡改识别方法、设备及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40027454 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |