CN113435342A - 活体检测方法、装置、设备及存储介质 - Google Patents
活体检测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113435342A CN113435342A CN202110723238.7A CN202110723238A CN113435342A CN 113435342 A CN113435342 A CN 113435342A CN 202110723238 A CN202110723238 A CN 202110723238A CN 113435342 A CN113435342 A CN 113435342A
- Authority
- CN
- China
- Prior art keywords
- structured light
- target
- coordinates
- coordinate
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能,提供一种活体检测方法、装置、设备及存储介质。该方法能够控制投影仪发射结构光,根据结构光及发射时间获取结构光图像,确定待识别对象中每个对象点与投影仪的待定深度,控制相机从多个不同角度拍摄待识别对象,得到多个待处理图像,对多个待处理图像进行滤波处理,得到每个对象点的截断相位信息,根据待定深度及每个对象点的位置坐标确定每个对象点在结构光图像中的待定坐标,根据截断相位信息及待定坐标确定每个对象点的目标坐标及目标深度,对目标坐标及目标深度进行检测,得到检测结果。本发明能够快速并准确的确定出检测结果。此外,本发明还涉及区块链技术,所述检测结果可存储于区块链中。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种活体检测方法、装置、设备及存储介质。
背景技术
在目前的活体检测方式中,主要包含有静默式活体检测方式及非静默式活体检测方式。然而,在非静默式活体检测方式中,需要用户配合张嘴摇头等动作来完成检测,然而,这种人机方式导致活体检测的效率低下。此外,在静默式活体检测方式中,通常需要采集待识别对象的温度数据,进而根据采集到的温度数据进而判定该待识别对象是否为活体,然而,这种方式采集到的温度数据容易受到环境温度的影响,进而造成活体检测的准确度低下。
因此,在确保检测效率的同时,如何构建准确的活体检测方案,成了有待解决的技术问题。
发明内容
鉴于以上内容,有必要提供一种活体检测方法、装置、设备及存储介质,在确保检测效率的同时,能够准确的对待识别对象进行活体检测。
一方面,本发明提出一种活体检测方法,所述活体检测方法包括:
接收活体检测请求,并根据所述活体检测请求确定待识别对象;
控制投影仪发射结构光,并确定所述投影仪发射所述结构光的发射时间;
根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像;
根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度;
控制相机从多个不同角度拍摄所述待识别对象,得到多个待处理图像,并基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息,所述相机的光心与所述投影仪的光心处于同一水平线上;
根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标;
根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标,并根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度;
基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果。
根据本发明优选实施例,所述根据所述活体检测请求确定待识别对象包括:
从配置日志库中获取所述活体检测请求的接收日志;
从所述接收日志中提取指示发送的信息作为所述活体检测请求的发送地址,并从所述接收日志中提取指示时间的信息作为所述活体检测请求的接收时间点;
将所述接收时间点与预设时间点的差值作为左区间,所述接收时间点作为右区间构建时间区间;
将与所述发送地址对应的系统确定为发送系统,并从所述发送系统的数据库中获取与所述时间区间对应的登录信息作为对象识别码,所述数据库中存储有多个登录用户与登录时间的映射关系;
根据所述对象识别码确定所述待识别对象。
根据本发明优选实施例,所述根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度包括:
获取所述结构光的结构光编号,并获取与所述结构光编号对应的图集,所述图集中存储有多个模板图与拍摄距离的映射关系;
获取每个模板图中所有像素点的模板像素信息,所述模板像素信息中包括每个像素点在所述模板图中的像素位置及每个像素点的通道信息;
对所述通道信息进行编码处理,得到编码值,并根据所述像素位置拼接所述编码值,得到每个模板图所对应的模板向量;
根据所述结构光图像中所有像素点的目标像素信息对所述结构光图像进行向量化处理,得到目标向量;
计算所述目标向量与每个模板向量的相似度,并根据所述模板向量选取所述相似度最大的模板图像作为匹配图像;
若所述匹配图像所对应的相似度大于或者等于预设相似度,将所述匹配图像所对应的所述拍摄距离确定为所述待定深度;
若所述匹配图像所对应的相似度小于预设相似度,根据所述匹配图像所对应的所述拍摄距离及所述匹配图像所对应的匹配向量与所述目标向量的向量比例值计算所述待定深度。
根据本发明优选实施例,所述基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息包括:
对于所述多个待处理图像中任一待处理图像,获取每个对象点在所述任一待处理图像中的坐标作为所述位置坐标;
获取所述预设卷积网络中的卷积核;
根据所述卷积核对所述位置坐标进行卷积运算,得到卷积信息,所述卷积信息中包括横坐标信息及纵坐标信息;
计算所述纵坐标信息与所述横坐标信息的比值,得到截断值;
获取角度确定曲线,并从所述角度确定曲线上获取与所述截断值对应的角度作为初筛相位信息;
计算每个对象点上的所述初筛相位信息的平均值,得到所述截断相位信息。
根据本发明优选实施例,所述根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标包括:
根据下列公式计算所述待定坐标的待定列坐标:
其中,yt为所述待定坐标的待定列坐标,y为所述位置坐标中位置列坐标的平均值,Icam为所述多个待处理图像中每个像素点的尺寸信息,Np为所述结构光图像中列向像素的数量,Iproj为所述结构光图像中每个像素点的尺寸信息,Nc为所述多个待处理图像中列向像素的数量,fc为所述投影仪的焦距,Bcp为所述相机的光心与所述投影仪的光心之间的光心距离,Zp为所述待定深度;
根据下列公式计算所述待定坐标的待定行坐标:
xt=x;
其中,xt为所述待定坐标的待定行坐标,x为所述位置坐标中位置行坐标的平均值。
根据本发明优选实施例,所述根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标包括:
根据下列公式计算所述截断相位的展开周期数:
根据下列公式计算所述目标坐标的目标列坐标:
其中,ya为所述目标列坐标;
根据下列公式计算所述目标坐标的目标行坐标:
xa=xt;
其中,xa为所述目标行坐标。
根据本发明优选实施例,所述根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度包括:
计算所述目标列坐标与所述位置列坐标的平均值的差值,得到每个对象点在所述投影仪中与其在所述相机中的视差;
计算所述投影仪的焦距与所述光心距离的乘积,得到每个对象点的尺寸值;
将所述尺寸值除以所述视差,得到所述目标深度。
另一方面,本发明还提出一种活体检测装置,所述活体检测装置包括:
确定单元,用于接收活体检测请求,并根据所述活体检测请求确定待识别对象;
获取单元,用于控制投影仪发射结构光,并确定所述投影仪发射所述结构光的发射时间;
所述获取单元,还用于根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像;
所述确定单元,还用于根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度;
处理单元,用于控制相机从多个不同角度拍摄所述待识别对象,得到多个待处理图像,并基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息,所述相机的光心与所述投影仪的光心处于同一水平线上;
所述确定单元,还用于根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标;
所述确定单元,还用于根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标,并根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度;
检测单元,用于基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述活体检测方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述活体检测方法。
由以上技术方案可以看出,本发明在无需与所述待识别对象进行交互的前提下,对所述待识别对象进行活体检测,提高了所述待识别对象的检测效率,同时,本发明通过所述待定深度确定每个对象点在所述结构光图像中的待定坐标,进而根据所述截断相位及所述待定坐标能够准确的确定出每个对象点在所述结构光图像中的精准匹配点,从而提高所述目标坐标及所述目标深度的确定准确性,因此,本发明通过由粗到精的方式获取所述待识别对象的三维信息,能够提高所述检测结果的检测准确性。
附图说明
图1是本发明活体检测方法的较佳实施例的流程图。
图2是本发明活体检测装置的较佳实施例的功能模块图。
图3是本发明实现活体检测方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明活体检测方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述活体检测方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,接收活体检测请求,并根据所述活体检测请求确定待识别对象。
在本发明的至少一个实施例中,所述活体检测请求可以由用户终端上的任意系统触发生成。
所述待识别对象是指需要进行活体检测的对象。
在本发明的至少一个实施例中,所述电子设备根据所述活体检测请求确定待识别对象包括:
从配置日志库中获取所述活体检测请求的接收日志;
从所述接收日志中提取指示发送的信息作为所述活体检测请求的发送地址,并从所述接收日志中提取指示时间的信息作为所述活体检测请求的接收时间点;
将所述接收时间点与预设时间点的差值作为左区间,所述接收时间点作为右区间构建时间区间;
将与所述发送地址对应的系统确定为发送系统,并从所述发送系统的数据库中获取与所述时间区间对应的登录信息作为对象识别码,所述数据库中存储有多个登录用户与登录时间的映射关系;
根据所述对象识别码确定所述待识别对象。
其中,所述配置日志库中存储有所述电子设备处理指令的日志信息。相应地,所述接收日志是指所述电子设备接收所述活体检测请求时产生的日志。
所述发送地址是指所述活体检测请求的发送系统所对应的地址,所述发送系统可以是用户终端上的任意系统。例如,所述发送系统可以是考勤系统。
所述接收时间点是指所述电子设备接收到所述活体检测请求的时间点。
所述预设时间点是根据所述电子设备接收请求的延迟时间设定的。
所述对象识别码是指能够唯一识别出所述待识别对象的标识。
通过所述接收日志能够快速提取到所述发送地址及所述接收时间点,另外,由于所述电子设备接收请求存在一定的时间延迟,因此通过所述预设时间点能够准确的确定出所述时间区间,进而能够准确的从所述发送地址中确定出所述待识别对象。
S11,控制投影仪发射结构光,并确定所述投影仪发射所述结构光的发射时间。
在本发明的至少一个实施例中,所述投影仪可以是任意牌子的投影仪。
所述结构光可以是格雷码以及激光等光线。所述结构光是预先存储在所述投影仪中的光线。
所述发射时间是指所述投影仪向所述待识别对象发射所述结构光的时间。
S12,根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像。
在本发明的至少一个实施例中,所述结构光图像是指所述投影仪向所述待识别对象发射所述结构光后生成的图像。例如,若所述结构光为激光散斑,所述结构光图像则为随机散斑图。
在本发明的至少一个实施例中,所述电子设备根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像包括:
获取所述结构光的结构光编号;
确定与所述结构光编号对应的标签作为第一标签,并确定与所述发射时间对应的标签作为第二标签;
从查询模板库中获取同时包含有所述第一标签及所述第二标签的目标查询模板;
确定所述第一标签在所述目标查询模板中的第一关联位置,并确定所述第二标签在所述目标查询模板中的第二关联位置;
将所述结构光编号写入所述第一关联位置,并将所述发射时间写入所述第二关联位置,得到查询语句;
在所述投影仪中运行所述查询语句,得到所述结构光图像。
其中,所述结构光编号用于指示所述结构光。
所述查询模板库中存储有多个预设查询模板,每个预设查询模板中存储的填充对象均有所不同。
通过所述第一标签及所述第二标签能够准确的确定出所述目标查询模板,进而通过所述结构光编号及所述发射时间能够准确的确定出所述查询语句,进而提高所述结构光图像的确定准确性,此外,通过所述查询语句对所述结构光图像的确定,由于无需对所述投影仪中所有图像进行遍历,因此,提高所述结构光图像的确定效率。
S13,根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度。
在本发明的至少一个实施例中,所述对象点是指所述待识别对象中的任意一个点。多个所述对象点构成了所述待识别对象。
在本发明的至少一个实施例中,所述待定深度是指每个对象点在所述结构光图像中的图像深度信息。所述待定深度是指每个对象点到所述投影仪的距离。
在本发明的至少一个实施例中,所述电子设备根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度包括:
获取与所述结构光编号对应的图集,所述图集中存储有多个模板图与拍摄距离的映射关系;
获取每个模板图中所有像素点的模板像素信息,所述模板像素信息中包括每个像素点在所述模板图中的像素位置及每个像素点的通道信息;
对所述通道信息进行编码处理,得到编码值,并根据所述像素位置拼接所述编码值,得到每个模板图所对应的模板向量;
根据所述结构光图像中所有像素点的目标像素信息对所述结构光图像进行向量化处理,得到目标向量;
计算所述目标向量与每个模板向量的相似度,并根据所述模板向量选取所述相似度最大的模板图像作为匹配图像;
若所述匹配图像所对应的相似度大于或者等于预设相似度,将所述匹配图像所对应的所述拍摄距离确定为所述待定深度;
若所述匹配图像所对应的相似度小于预设相似度,根据所述匹配图像所对应的所述拍摄距离及所述匹配图像所对应的匹配向量与所述目标向量的向量比例值计算所述待定深度。
其中,所述匹配图像是指与所述目标向量的相似度最高的模板向量所对应的模板图。
所述预设相似度可以根据所述活体检测请求的检测效率及检测准确度确定,本发明对所述预设相似度的确定不作阐述。
需要说明的是,如果所述匹配图像所对应的相似度大于或者等于预设相似度,直接将所述匹配图像所对应的拍摄距离确定为所述待定深度,而无需计算所述待定深度,因此,能够提高所述待定深度的确定效率,从而能够提活体检测效率。
通过所述模板向量及所述目标向量能够准确的从所述多个模板图中确定出与所述结构光图像对应的匹配图像,进而根据所述匹配图像所对应的相似度与所述预设相似度的大小关系确定出符合所述活体检测请求的所述待定深度。
具体地,所述电子设备根据所述结构光图像中所有像素点的目标像素信息对所述结构光图像进行向量化处理的方式与所述电子设备生成所述模板向量的方式相同,本发明不再赘述。通过相同方式生成所述目标向量及所述模板向量,能够确保所述相似度的计算准确性。
具体地,所述电子设备根据所述匹配图像所对应的拍摄距离及所述匹配图像所对应的匹配向量与所述目标向量的向量比例值计算所述待定深度包括:
计算所述匹配向量的第一模长,并计算所述目标向量的第二模长;
计算所述第二模长与所述第一模长的比值,得到所述向量比例值;
计算所述拍摄距离与所述向量比例值的乘积,得到所述待定深度。
由于所述结构光图像中的目标像素信息对所述待定深度有一定的影响,因此,通过上述实施方式,能够提高所述待定深度的确定准确性。
S14,控制相机从多个不同角度拍摄所述待识别对象,得到多个待处理图像,并基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息,所述相机的光心与所述投影仪的光心处于同一水平线上。
在本发明的至少一个实施例中,所述相机可以是任意牌子的摄像机。
所述多个待处理图像是所述相机在多个不同角度拍摄所述待识别对象而生成的图像。
所述预设卷积网络是根据历史训练数据训练得到的。本发明对所述预设卷积网络的训练方式不作阐述。
所述截断相位信息是指所述多个待处理图像中的位置坐标被正切函数截断了的不连续相位。
在本发明的至少一个实施例中,所述电子设备基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息包括:
对于所述多个待处理图像中任一待处理图像,获取每个对象点在所述任一待处理图像中的坐标作为所述位置坐标;
获取所述预设卷积网络中的卷积核;
根据所述卷积核对所述位置坐标进行卷积运算,得到卷积信息,所述卷积信息中包括横坐标信息及纵坐标信息;
计算所述纵坐标信息与所述横坐标信息的比值,得到截断值;
获取角度确定曲线,并从所述角度确定曲线上获取与所述截断值对应的角度作为初筛相位信息;
计算每个对象点上的所述初筛相位信息的平均值,得到所述截断相位信息。
其中,所述卷积核是指所述预设卷积网络中的配置函数。
所述截断值是指每个对象点的截断模长。
所述角度确定曲线可以根据反正切函数构建的曲线关系。
所述初筛相位信息是指所述任一待处理图像中每个对象点对应的截断相位。
通过所述卷积核,能够准确的确定出所述截断值,同时,通过所述角度确定曲线能够快速的确定出所述截断值对应的所述初筛相位信息,进而由于所述多个待处理图像是从多个不同角度上对所述待识别对象进行拍摄的,因此,根据所述多个待处理图像能够准确的确定出每个对象点的截断相位信息。
S15,根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标。
在本发明的至少一个实施例中,所述待定坐标是指通过所述待定深度确定出每个所述位置坐标在所述结构光图像中所对应的坐标。所述待定坐标所在的像素点是指所述位置坐标所在的像素点在所述结构光图像中的粗略匹配点。
在本发明的至少一个实施例中,所述电子设备根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标包括:
根据下列公式计算所述待定坐标的待定列坐标:
其中,yt为所述待定坐标的待定列坐标,y为所述位置坐标中位置列坐标的平均值,Icam为所述多个待处理图像中每个像素点的尺寸信息,Np为所述结构光图像中列向像素的数量,Iproj为所述结构光图像中每个像素点的尺寸信息,Nc为所述多个待处理图像中列向像素的数量,fc为所述投影仪的焦距,Bcp为所述相机的光心与所述投影仪的光心之间的光心距离,Zp为所述待定深度;
根据下列公式计算所述待定坐标的待定行坐标:
xt=x;
其中,xt为所述待定坐标的待定行坐标,x为所述位置坐标中位置行坐标的平均值。
需要说明的是,由于所述待识别对象中每个对象点在每个所述待处理图像中都有相对应的位置坐标,因此,每个对象点在所述多个待处理图像中对应有多个所述位置坐标。
通过所述待定深度能够准确的从所述结构光图像中确定出与所述待定深度对应的待定坐标。
S16,根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标,并根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度。
在本发明的至少一个实施例中,所述目标坐标是根据所述截断相位信息确定出每个所述待定坐标在所述结构光图像中所对应的坐标。所述目标坐标所在的像素点是指所述位置坐标所在的像素点在所述结构光图像中的精确匹配点。
所述目标深度是指所述目标坐标所在的像素点在所述结构光图像中所对应的深度信息。
在本发明的至少一个实施例中,所述电子设备根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标包括:
根据下列公式计算所述截断相位的展开周期数:
根据下列公式计算所述目标坐标的目标列坐标:
其中,ya为所述目标列坐标;
根据下列公式计算所述目标坐标的目标行坐标:
xa=xt;
其中,xa为所述目标行坐标。
通过上述实施方式,由于通过所述待定深度及所述位置坐标确定出的粗精度上的待定坐标与高精度上的目标坐标相距所述截断相位信息,因此,通过所述截断相位信息能够准确的确定出所述目标坐标,从而通过高精度确定出的所述目标坐标能够提高所述待识别对象的检测准确性。
在本发明的至少一个实施例中,所述电子设备根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度包括:
计算所述目标列坐标与所述位置列坐标的平均值的差值,得到每个对象点在所述投影仪中与其在所述相机中的视差;
计算所述投影仪的焦距与所述光心距离的乘积,得到每个对象点的尺寸值;
将所述尺寸值除以所述视差,得到所述目标深度。
通过所述目标列坐标能够准确的确定出所述目标深度。
S17,基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果。
在本发明的至少一个实施例中,所述活体检测模型是根据历史训练数据训练得到的。
所述检测结果是指所述待识别对象在活体检测上所对应的结果。所述检测结果包括活体结果及非活体结果。
需要强调的是,为进一步保证上述检测结果的私密和安全性,上述检测结果还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述电子设备基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果包括:
将所述目标坐标及所述目标深度输入至所述活体检测模型中,得到所述待识别对象中每个对象点的识别结果;
计算所述目标坐标的坐标总量,
根据所述识别结果的数量在所述坐标总量中的占比确定所述检测结果。
其中,所述坐标总量是指所述目标坐标的总数量。
所述识别结果的数量包括:所述检测结果为所述活体结果的数量,以及所述检测结果为所述非活体结果的数量。
通过所述坐标总量及所述识别结果的数量对所述检测结果的确定,能够提高所述检测结果的确定准确性。
由以上技术方案可以看出,本发明在无需与所述待识别对象进行交互的前提下,对所述待识别对象进行活体检测,提高了所述待识别对象的检测效率,同时,本发明通过所述待定深度确定每个对象点在所述结构光图像中的待定坐标,进而根据所述截断相位及所述待定坐标能够准确的确定出每个对象点在所述结构光图像中的精准匹配点,从而提高所述目标坐标及所述目标深度的确定准确性,因此,本发明通过由粗到精的方式获取所述待识别对象的三维信息,能够提高所述检测结果的检测准确性。
如图2所示,是本发明活体检测装置的较佳实施例的功能模块图。所述活体检测装置11包括确定单元110、获取单元111、处理单元112及检测单元113。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
确定单元110接收活体检测请求,并根据所述活体检测请求确定待识别对象。
在本发明的至少一个实施例中,所述活体检测请求可以由用户终端上的任意系统触发生成。
所述待识别对象是指需要进行活体检测的对象。
在本发明的至少一个实施例中,所述确定单元110根据所述活体检测请求确定待识别对象包括:
从配置日志库中获取所述活体检测请求的接收日志;
从所述接收日志中提取指示发送的信息作为所述活体检测请求的发送地址,并从所述接收日志中提取指示时间的信息作为所述活体检测请求的接收时间点;
将所述接收时间点与预设时间点的差值作为左区间,所述接收时间点作为右区间构建时间区间;
将与所述发送地址对应的系统确定为发送系统,并从所述发送系统的数据库中获取与所述时间区间对应的登录信息作为对象识别码,所述数据库中存储有多个登录用户与登录时间的映射关系;
根据所述对象识别码确定所述待识别对象。
其中,所述配置日志库中存储有所述电子设备处理指令的日志信息。相应地,所述接收日志是指所述电子设备接收所述活体检测请求时产生的日志。
所述发送地址是指所述活体检测请求的发送系统所对应的地址,所述发送系统可以是用户终端上的任意系统。例如,所述发送系统可以是考勤系统。
所述接收时间点是指所述确定单元110接收到所述活体检测请求的时间点。
所述预设时间点是根据所述确定单元110接收请求的延迟时间设定的。
所述对象识别码是指能够唯一识别出所述待识别对象的标识。
通过所述接收日志能够快速提取到所述发送地址及所述接收时间点,另外,由于所述确定单元110接收请求存在一定的时间延迟,因此通过所述预设时间点能够准确的确定出所述时间区间,进而能够准确的从所述发送地址中确定出所述待识别对象。
获取单元111控制投影仪发射结构光,并确定所述投影仪发射所述结构光的发射时间。
在本发明的至少一个实施例中,所述投影仪可以是任意牌子的投影仪。
所述结构光可以是格雷码以及激光等光线。所述结构光是预先存储在所述投影仪中的光线。
所述发射时间是指所述投影仪向所述待识别对象发射所述结构光的时间。
所述获取单元111根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像。
在本发明的至少一个实施例中,所述结构光图像是指所述投影仪向所述待识别对象发射所述结构光后生成的图像。例如,若所述结构光为激光散斑,所述结构光图像则为随机散斑图。
在本发明的至少一个实施例中,所述获取单元111根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像包括:
获取所述结构光的结构光编号;
确定与所述结构光编号对应的标签作为第一标签,并确定与所述发射时间对应的标签作为第二标签;
从查询模板库中获取同时包含有所述第一标签及所述第二标签的目标查询模板;
确定所述第一标签在所述目标查询模板中的第一关联位置,并确定所述第二标签在所述目标查询模板中的第二关联位置;
将所述结构光编号写入所述第一关联位置,并将所述发射时间写入所述第二关联位置,得到查询语句;
在所述投影仪中运行所述查询语句,得到所述结构光图像。
其中,所述结构光编号用于指示所述结构光。
所述查询模板库中存储有多个预设查询模板,每个预设查询模板中存储的填充对象均有所不同。
通过所述第一标签及所述第二标签能够准确的确定出所述目标查询模板,进而通过所述结构光编号及所述发射时间能够准确的确定出所述查询语句,进而提高所述结构光图像的确定准确性,此外,通过所述查询语句对所述结构光图像的确定,由于无需对所述投影仪中所有图像进行遍历,因此,提高所述结构光图像的确定效率。
所述确定单元110根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度。
在本发明的至少一个实施例中,所述对象点是指所述待识别对象中的任意一个点。多个所述对象点构成了所述待识别对象。若所述待识别对象为带有人物头像的图片,则所述对象点是该图片中的任意一个像素点。
在本发明的至少一个实施例中,所述待定深度是指每个对象点在所述结构光图像中的图像深度信息。所述待定深度是指每个对象点到所述投影仪的距离。
在本发明的至少一个实施例中,所述确定单元110根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度包括:
获取与所述结构光编号对应的图集,所述图集中存储有多个模板图与拍摄距离的映射关系;
获取每个模板图中所有像素点的模板像素信息,所述模板像素信息中包括每个像素点在所述模板图中的像素位置及每个像素点的通道信息;
对所述通道信息进行编码处理,得到编码值,并根据所述像素位置拼接所述编码值,得到每个模板图所对应的模板向量;
根据所述结构光图像中所有像素点的目标像素信息对所述结构光图像进行向量化处理,得到目标向量;
计算所述目标向量与每个模板向量的相似度,并根据所述模板向量选取所述相似度最大的模板图像作为匹配图像;
若所述匹配图像所对应的相似度大于或者等于预设相似度,将所述匹配图像所对应的所述拍摄距离确定为所述待定深度;
若所述匹配图像所对应的相似度小于预设相似度,根据所述匹配图像所对应的所述拍摄距离及所述匹配图像所对应的匹配向量与所述目标向量的向量比例值计算所述待定深度。
其中,所述匹配图像是指与所述目标向量的相似度最高的模板向量所对应的模板图。
所述预设相似度可以根据所述活体检测请求的检测效率及检测准确度确定,本发明对所述预设相似度的确定不作阐述。
需要说明的是,如果所述匹配图像所对应的相似度大于或者等于预设相似度,直接将所述匹配图像所对应的拍摄距离确定为所述待定深度,而无需计算所述待定深度,因此,能够提高所述待定深度的确定效率,从而能够提活体检测效率。
通过所述模板向量及所述目标向量能够准确的从所述多个模板图中确定出与所述结构光图像对应的匹配图像,进而根据所述匹配图像所对应的相似度与所述预设相似度的大小关系确定出符合所述活体检测请求的所述待定深度。
具体地,所述确定单元110根据所述结构光图像中所有像素点的目标像素信息对所述结构光图像进行向量化处理的方式与所述确定单元110生成所述模板向量的方式相同,本发明不再赘述。通过相同方式生成所述目标向量及所述模板向量,能够确保所述相似度的计算准确性。
具体地,所述确定单元110根据所述匹配图像所对应的拍摄距离及所述匹配图像所对应的匹配向量与所述目标向量的向量比例值计算所述待定深度包括:
计算所述匹配向量的第一模长,并计算所述目标向量的第二模长;
计算所述第二模长与所述第一模长的比值,得到所述向量比例值;
计算所述拍摄距离与所述向量比例值的乘积,得到所述待定深度。
由于所述结构光图像中的目标像素信息对所述待定深度有一定的影响,因此,通过上述实施方式,能够提高所述待定深度的确定准确性。
处理单元112控制相机从多个不同角度拍摄所述待识别对象,得到多个待处理图像,并基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息,所述相机的光心与所述投影仪的光心处于同一水平线上。
在本发明的至少一个实施例中,所述相机可以是任意牌子的摄像机。
所述多个待处理图像是所述相机在多个不同角度拍摄所述待识别对象而生成的图像。
所述预设卷积网络是根据历史训练数据训练得到的。本发明对所述预设卷积网络的训练方式不作阐述。
所述截断相位信息是指所述多个待处理图像中的位置坐标被正切函数截断了的不连续相位。
在本发明的至少一个实施例中,所述处理单元112基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息包括:
对于所述多个待处理图像中任一待处理图像,获取每个对象点在所述任一待处理图像中的坐标作为所述位置坐标;
获取所述预设卷积网络中的卷积核;
根据所述卷积核对所述位置坐标进行卷积运算,得到卷积信息,所述卷积信息中包括横坐标信息及纵坐标信息;
计算所述纵坐标信息与所述横坐标信息的比值,得到截断值;
获取角度确定曲线,并从所述角度确定曲线上获取与所述截断值对应的角度作为初筛相位信息;
计算每个对象点上的所述初筛相位信息的平均值,得到所述截断相位信息。
其中,所述卷积核是指所述预设卷积网络中的配置函数。
所述截断值是指每个对象点的截断模长。
所述角度确定曲线可以根据反正切函数构建的曲线关系。
所述初筛相位信息是指所述任一待处理图像中每个对象点对应的截断相位。
通过所述卷积核,能够准确的确定出所述截断值,同时,通过所述角度确定曲线能够快速的确定出所述截断值对应的所述初筛相位信息,进而由于所述多个待处理图像是从多个不同角度上对所述待识别对象进行拍摄的,因此,根据所述多个待处理图像能够准确的确定出每个对象点的截断相位信息。
所述确定单元110根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标。
在本发明的至少一个实施例中,所述待定坐标是指通过所述待定深度确定出每个所述位置坐标在所述结构光图像中所对应的坐标。所述待定坐标所在的像素点是指所述位置坐标所在的像素点在所述结构光图像中的粗略匹配点。
在本发明的至少一个实施例中,所述确定单元110根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标包括:
根据下列公式计算所述待定坐标的待定列坐标:
其中,yt为所述待定坐标的待定列坐标,y为所述位置坐标中位置列坐标的平均值,Icam为所述多个待处理图像中每个像素点的尺寸信息,Np为所述结构光图像中列向像素的数量,Iproj为所述结构光图像中每个像素点的尺寸信息,Nc为所述多个待处理图像中列向像素的数量,fc为所述投影仪的焦距,Bcp为所述相机的光心与所述投影仪的光心之间的光心距离,Zp为所述待定深度;
根据下列公式计算所述待定坐标的待定行坐标:
xt=x;
其中,xt为所述待定坐标的待定行坐标,x为所述位置坐标中位置行坐标的平均值。
需要说明的是,由于所述待识别对象中每个对象点在每个所述待处理图像中都有相对应的位置坐标,因此,每个对象点在所述多个待处理图像中对应有多个所述位置坐标。
通过所述待定深度能够准确的从所述结构光图像中确定出与所述待定深度对应的待定坐标。
所述确定单元110根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标,并根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度。
在本发明的至少一个实施例中,所述目标坐标是根据所述截断相位信息确定出每个所述待定坐标在所述结构光图像中所对应的坐标。所述目标坐标所在的像素点是指所述位置坐标所在的像素点在所述结构光图像中的精确匹配点。
所述目标深度是指所述目标坐标所在的像素点在所述结构光图像中所对应的深度信息。
在本发明的至少一个实施例中,所述确定单元110根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标包括:
根据下列公式计算所述截断相位的展开周期数:
根据下列公式计算所述目标坐标的目标列坐标:
其中,ya为所述目标列坐标;
根据下列公式计算所述目标坐标的目标行坐标:
xa=xt;
其中,xa为所述目标行坐标。
通过上述实施方式,由于通过所述待定深度及所述位置坐标确定出的粗精度上的待定坐标与高精度上的目标坐标相距所述截断相位信息,因此,通过所述截断相位信息能够准确的确定出所述目标坐标,从而通过高精度确定出的所述目标坐标能够提高所述待识别对象的检测准确性。
在本发明的至少一个实施例中,所述确定单元110根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度包括:
计算所述目标列坐标与所述位置列坐标的平均值的差值,得到每个对象点在所述投影仪中与其在所述相机中的视差;
计算所述投影仪的焦距与所述光心距离的乘积,得到每个对象点的尺寸值;
将所述尺寸值除以所述视差,得到所述目标深度。
通过所述目标列坐标能够准确的确定出所述目标深度。
检测单元113基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果。
在本发明的至少一个实施例中,所述活体检测模型是根据历史训练数据训练得到的。
所述检测结果是指所述待识别对象在活体检测上所对应的结果。所述检测结果包括活体结果及非活体结果。
需要强调的是,为进一步保证上述检测结果的私密和安全性,上述检测结果还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述检测单元113基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果包括:
将所述目标坐标及所述目标深度输入至所述活体检测模型中,得到所述待识别对象中每个对象点的识别结果;
计算所述目标坐标的坐标总量,
根据所述识别结果的数量在所述坐标总量中的占比确定所述检测结果。
其中,所述坐标总量是指所述目标坐标的总数量。
所述识别结果的数量包括:所述检测结果为所述活体结果的数量,以及所述检测结果为所述非活体结果的数量。
通过所述坐标总量及所述识别结果的数量对所述检测结果的确定,能够提高所述检测结果的确定准确性。
由以上技术方案可以看出,本发明在无需与所述待识别对象进行交互的前提下,对所述待识别对象进行活体检测,提高了所述待识别对象的检测效率,同时,本发明通过所述待定深度确定每个对象点在所述结构光图像中的待定坐标,进而根据所述截断相位及所述待定坐标能够准确的确定出每个对象点在所述结构光图像中的精准匹配点,从而提高所述目标坐标及所述目标深度的确定准确性,因此,本发明通过由粗到精的方式获取所述待识别对象的三维信息,能够提高所述检测结果的检测准确性。
如图3所示,是本发明实现活体检测方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如活体检测程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成确定单元110、获取单元111、处理单元112及检测单元113。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种活体检测方法,所述处理器13可执行所述计算机可读指令从而实现:
接收活体检测请求,并根据所述活体检测请求确定待识别对象;
控制投影仪发射结构光,并确定所述投影仪发射所述结构光的发射时间;
根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像;
根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度;
控制相机从多个不同角度拍摄所述待识别对象,得到多个待处理图像,并基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息,所述相机的光心与所述投影仪的光心处于同一水平线上;
根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标;
根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标,并根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度;
基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
接收活体检测请求,并根据所述活体检测请求确定待识别对象;
控制投影仪发射结构光,并确定所述投影仪发射所述结构光的发射时间;
根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像;
根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度;
控制相机从多个不同角度拍摄所述待识别对象,得到多个待处理图像,并基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息,所述相机的光心与所述投影仪的光心处于同一水平线上;
根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标;
根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标,并根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度;
基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种活体检测方法,其特征在于,所述活体检测方法包括:
接收活体检测请求,并根据所述活体检测请求确定待识别对象;
控制投影仪发射结构光,并确定所述投影仪发射所述结构光的发射时间;
根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像;
根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度;
控制相机从多个不同角度拍摄所述待识别对象,得到多个待处理图像,并基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息,所述相机的光心与所述投影仪的光心处于同一水平线上;
根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标;
根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标,并根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度;
基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果。
2.如权利要求1所述的活体检测方法,其特征在于,所述根据所述活体检测请求确定待识别对象包括:
从配置日志库中获取所述活体检测请求的接收日志;
从所述接收日志中提取指示发送的信息作为所述活体检测请求的发送地址,并从所述接收日志中提取指示时间的信息作为所述活体检测请求的接收时间点;
将所述接收时间点与预设时间点的差值作为左区间,所述接收时间点作为右区间构建时间区间;
将与所述发送地址对应的系统确定为发送系统,并从所述发送系统的数据库中获取与所述时间区间对应的登录信息作为对象识别码,所述数据库中存储有多个登录用户与登录时间的映射关系;
根据所述对象识别码确定所述待识别对象。
3.如权利要求1所述的活体检测方法,其特征在于,所述根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度包括:
获取所述结构光的结构光编号,并获取与所述结构光编号对应的图集,所述图集中存储有多个模板图与拍摄距离的映射关系;
获取每个模板图中所有像素点的模板像素信息,所述模板像素信息中包括每个像素点在所述模板图中的像素位置及每个像素点的通道信息;
对所述通道信息进行编码处理,得到编码值,并根据所述像素位置拼接所述编码值,得到每个模板图所对应的模板向量;
根据所述结构光图像中所有像素点的目标像素信息对所述结构光图像进行向量化处理,得到目标向量;
计算所述目标向量与每个模板向量的相似度,并根据所述模板向量选取所述相似度最大的模板图像作为匹配图像;
若所述匹配图像所对应的相似度大于或者等于预设相似度,将所述匹配图像所对应的所述拍摄距离确定为所述待定深度;
若所述匹配图像所对应的相似度小于预设相似度,根据所述匹配图像所对应的所述拍摄距离及所述匹配图像所对应的匹配向量与所述目标向量的向量比例值计算所述待定深度。
4.如权利要求1所述的活体检测方法,其特征在于,所述基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息包括:
对于所述多个待处理图像中任一待处理图像,获取每个对象点在所述任一待处理图像中的坐标作为所述位置坐标;
获取所述预设卷积网络中的卷积核;
根据所述卷积核对所述位置坐标进行卷积运算,得到卷积信息,所述卷积信息中包括横坐标信息及纵坐标信息;
计算所述纵坐标信息与所述横坐标信息的比值,得到截断值;
获取角度确定曲线,并从所述角度确定曲线上获取与所述截断值对应的角度作为初筛相位信息;
计算每个对象点上的所述初筛相位信息的平均值,得到所述截断相位信息。
5.如权利要求1所述的活体检测方法,其特征在于,所述根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标包括:
根据下列公式计算所述待定坐标的待定列坐标:
其中,yt为所述待定坐标的待定列坐标,y为所述位置坐标中位置列坐标的平均值,Icam为所述多个待处理图像中每个像素点的尺寸信息,Np为所述结构光图像中列向像素的数量,Iproj为所述结构光图像中每个像素点的尺寸信息,Nc为所述多个待处理图像中列向像素的数量,fc为所述投影仪的焦距,Bcp为所述相机的光心与所述投影仪的光心之间的光心距离,Zp为所述待定深度;
根据下列公式计算所述待定坐标的待定行坐标:
xt=x;
其中,xt为所述待定坐标的待定行坐标,x为所述位置坐标中位置行坐标的平均值。
7.如权利要求6所述的活体检测方法,其特征在于,所述根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度包括:
计算所述目标列坐标与所述位置列坐标的平均值的差值,得到每个对象点在所述投影仪中与其在所述相机中的视差;
计算所述投影仪的焦距与所述光心距离的乘积,得到每个对象点的尺寸值;
将所述尺寸值除以所述视差,得到所述目标深度。
8.一种活体检测装置,其特征在于,所述活体检测装置包括:
确定单元,用于接收活体检测请求,并根据所述活体检测请求确定待识别对象;
获取单元,用于控制投影仪发射结构光,并确定所述投影仪发射所述结构光的发射时间;
所述获取单元,还用于根据所述结构光及所述发射时间从所述投影仪中获取所述待识别对象的结构光图像;
所述确定单元,还用于根据所述结构光图像确定所述待识别对象中每个对象点与所述投影仪的待定深度;
处理单元,用于控制相机从多个不同角度拍摄所述待识别对象,得到多个待处理图像,并基于预设卷积网络对所述多个待处理图像进行滤波处理,得到每个对象点的截断相位信息,所述相机的光心与所述投影仪的光心处于同一水平线上;
所述确定单元,还用于根据所述待定深度及每个对象点在所述多个待处理图像中的位置坐标确定每个对象点在所述结构光图像中的待定坐标;
所述确定单元,还用于根据所述截断相位信息及所述待定坐标确定每个对象点在所述结构光图像中的目标坐标,并根据所述目标坐标及所述位置坐标确定每个对象点在所述结构光图像中的目标深度;
检测单元,用于基于预先训练好的活体检测模型对所述目标坐标及所述目标深度进行检测,得到检测结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至7中任意一项所述的活体检测方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的活体检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110723238.7A CN113435342B (zh) | 2021-06-29 | 2021-06-29 | 活体检测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110723238.7A CN113435342B (zh) | 2021-06-29 | 2021-06-29 | 活体检测方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113435342A true CN113435342A (zh) | 2021-09-24 |
CN113435342B CN113435342B (zh) | 2022-08-12 |
Family
ID=77757450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110723238.7A Active CN113435342B (zh) | 2021-06-29 | 2021-06-29 | 活体检测方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113435342B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598571A (zh) * | 2019-08-15 | 2019-12-20 | 中国平安人寿保险股份有限公司 | 活体检测方法、装置及计算机可读存储介质 |
WO2020019760A1 (zh) * | 2018-07-27 | 2020-01-30 | 北京市商汤科技开发有限公司 | 活体检测方法、装置及系统、电子设备和存储介质 |
CN110942032A (zh) * | 2019-11-27 | 2020-03-31 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
US20200112713A1 (en) * | 2018-10-09 | 2020-04-09 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method for controlling structured light projector, depth camera and electronic device |
CN111382639A (zh) * | 2018-12-30 | 2020-07-07 | 深圳市光鉴科技有限公司 | 一种活体人脸检测方法及装置 |
CN111428579A (zh) * | 2020-03-03 | 2020-07-17 | 平安科技(深圳)有限公司 | 人脸图像的获取方法与系统 |
CN111652940A (zh) * | 2020-04-30 | 2020-09-11 | 平安国际智慧城市科技股份有限公司 | 目标异常识别方法、装置、电子设备及存储介质 |
CN112395963A (zh) * | 2020-11-04 | 2021-02-23 | 北京嘀嘀无限科技发展有限公司 | 对象识别方法和装置、电子设备及存储介质 |
-
2021
- 2021-06-29 CN CN202110723238.7A patent/CN113435342B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020019760A1 (zh) * | 2018-07-27 | 2020-01-30 | 北京市商汤科技开发有限公司 | 活体检测方法、装置及系统、电子设备和存储介质 |
US20200112713A1 (en) * | 2018-10-09 | 2020-04-09 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method for controlling structured light projector, depth camera and electronic device |
CN111382639A (zh) * | 2018-12-30 | 2020-07-07 | 深圳市光鉴科技有限公司 | 一种活体人脸检测方法及装置 |
CN110598571A (zh) * | 2019-08-15 | 2019-12-20 | 中国平安人寿保险股份有限公司 | 活体检测方法、装置及计算机可读存储介质 |
CN110942032A (zh) * | 2019-11-27 | 2020-03-31 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
WO2021103430A1 (zh) * | 2019-11-27 | 2021-06-03 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
CN111428579A (zh) * | 2020-03-03 | 2020-07-17 | 平安科技(深圳)有限公司 | 人脸图像的获取方法与系统 |
CN111652940A (zh) * | 2020-04-30 | 2020-09-11 | 平安国际智慧城市科技股份有限公司 | 目标异常识别方法、装置、电子设备及存储介质 |
CN112395963A (zh) * | 2020-11-04 | 2021-02-23 | 北京嘀嘀无限科技发展有限公司 | 对象识别方法和装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
杨海清等: "基于面结构光几何关系的三维数字化研究", 《计算机应用研究》 * |
欧阳高询: "双目结构光深度获取研究及光学平台构建", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113435342B (zh) | 2022-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764024B (zh) | 人脸识别模型的生成装置、方法及计算机可读存储介质 | |
CN109242961B (zh) | 一种脸部建模方法、装置、电子设备和计算机可读介质 | |
CN108961149B (zh) | 图像处理方法、装置和系统及存储介质 | |
Sun et al. | A dataset for benchmarking image-based localization | |
US20190303650A1 (en) | Automatic object recognition method and system thereof, shopping device and storage medium | |
CN109919971B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN104156998A (zh) | 一种基于图片虚拟内容融合真实场景的实现方法及系统 | |
CN111928842B (zh) | 一种基于单目视觉实现slam定位的方法及相关装置 | |
CN113807451B (zh) | 全景图像特征点匹配模型的训练方法、装置以及服务器 | |
CN115205383A (zh) | 相机位姿的确定方法、装置、电子设备及存储介质 | |
CN111783593A (zh) | 基于人工智能的人脸识别方法、装置、电子设备及介质 | |
CN113435342B (zh) | 活体检测方法、装置、设备及存储介质 | |
US20150254527A1 (en) | Methods for 3d object recognition and registration | |
KR20090115738A (ko) | 정보 추출 방법, 등록 장치, 대조 장치 및 프로그램 | |
CN113627576B (zh) | 扫码信息检测方法、装置、设备及存储介质 | |
CN112750164B (zh) | 轻量化定位模型的构建方法、定位方法、电子设备 | |
CN112200004B (zh) | 图像检测模型的训练方法、装置及终端设备 | |
CN110188616B (zh) | 基于2d和3d影像的空间建模方法及装置 | |
CN112750157B (zh) | 一种深度图像生成方法及装置 | |
US11755120B2 (en) | Method and device for recognizing a gesture in real-time | |
CN117409059A (zh) | 图像深度识别方法、电子设备及存储介质 | |
CN113240723A (zh) | 一种单目深度估计方法、装置以及深度评估设备 | |
CN116597471A (zh) | 人体跟踪方法、电子设备及存储介质 | |
CN115546102A (zh) | 散斑提取方法、装置、电子设备和存储介质 | |
CN114898354A (zh) | 基于三维模型的测量方法、装置、服务器及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |