CN108764091A - 活体检测方法及装置、电子设备和存储介质 - Google Patents
活体检测方法及装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN108764091A CN108764091A CN201810481863.3A CN201810481863A CN108764091A CN 108764091 A CN108764091 A CN 108764091A CN 201810481863 A CN201810481863 A CN 201810481863A CN 108764091 A CN108764091 A CN 108764091A
- Authority
- CN
- China
- Prior art keywords
- image
- key point
- target
- target object
- target area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种活体检测方法及装置、电子设备和存储介质,所述方法包括:对双目摄像装置中的第一摄像头采集的第一图像进行目标对象的检测,得到第一目标区域,以及对所述双目摄像装置中的第二摄像头采集的第二图像进行所述目标对象的检测,得到第二目标区域;根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息;基于所述目标对象的关键点深度信息,确定所述目标对象是否为活体。本公开实施例利用第一摄像头和第二摄像头拍摄的图像,不需要互动及外部信息就可以完成目标对象的活体检测,实施方式简单、适用环境多,检测结果准确。
Description
技术领域
本公开涉及活体检测技术领域,尤其涉及一种活体检测方法及装置、电子设备和存储介质。
背景技术
活体检测是信息安全领域的重要问题。如何确定待检测的对象是来自真实的活体还是伪造的对象的图像,是活体检测技术中一个重要的研究课题。传统的活体检测技术包括交互式的方案和结合外部信息的方案。其中,交互式的方案对系统要求高,实现方式复杂,用户体验差。而结合外部信息的方案精度低,容易伪造。
发明内容
本公开提出了一种活体检测技术方案。
根据本公开的一方面,提供了一种活体检测方法,所述方法包括:
对双目摄像装置中的第一摄像头采集的第一图像进行目标对象的检测,得到第一目标区域,以及对所述双目摄像装置中的第二摄像头采集的第二图像进行所述目标对象的检测,得到第二目标区域;
根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息;
基于所述目标对象的关键点深度信息,确定所述目标对象是否为活体。在一种可能的实现方式中,所述根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息,包括:
对所述第一目标区域进行关键点的检测,得到所述第一目标区域的关键点信息,并对所述第二目标区域进行关键点的检测,得到所述第二目标区域的关键点信息;
根据所述第一目标区域的关键点信息和所述第二目标区域的关键点信息,确定所述目标对象的关键点深度信息。
在一种可能的实现方式中,基于所述目标对象的关键点深度信息,确定所述目标对象是否为活体,包括:
基于所述目标对象的关键点深度信息,确定深度离散度;
根据所述深度离散度,确定所述目标对象是否为活体。
在一种可能的实现方式中,所述方法还包括:
确定所述第一目标区域和所述第二目标区域是否一致;
所述根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息,包括:
在确定所述第一目标区域和所述第二目标区域一致的情况下,根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息。
在一种可能的实现方式中,所述确定所述第一目标区域和所述第二目标区域是否一致,包括:
在底库中检索与所述第一目标区域对应的第一检索结果;
在所述底库中检索与所述第二目标区域对应的第二检索结果;
基于所述第一检索结果和所述第二检索结果,确定所述第一目标区域和所述第二目标区域是否一致。
在一种可能的实现方式中,所述确定所述第一目标区域和所述第二目标区域是否一致,包括:
确定所述第一目标区域和所述第二目标区域的相似度;
基于所述相似度,确定所述第一目标区域和所述第二目标区域是否一致。
在一种可能的实现方式中,所述方法还包括:
在确定所述第一目标区域和所述第二目标区域不一致的情况下,基于所述第一目标区域,得到校正处理后的所述第二目标区域;
所述根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息,包括:
根据所述第一目标区域和校正处理后的所述第二目标区域,得到所述目标对象的关键点深度信息。
在一种可能的实现方式中,所述基于所述第一目标区域,得到校正处理后的所述第二目标区域,包括:
在所述第二图像中确定所述第一目标区域的对应区域;
将所述对应区域确定为所述校正处理后的所述第二目标区域。
在一种可能的实现方式中,所述在所述第二图像中确定所述第一目标区域的对应区域,包括:
根据所述第一目标区域的关键点信息,确定所述第一目标区域中的关键区域;
基于所述关键区域,确定所述第一目标区域在第二图像中的对应区域。
在一种可能的实现方式中,所述根据所述第一目标区域的关键点信息,确定所述第一目标区域中的关键区域,包括:
基于所述第一目标区域的关键点信息,确定由所述第一目标区域中的至少一个关键点围成的最小区域;
将所述最小区域放大预设倍数,得到所述关键区域。
在一种可能的实现方式中,所述在所述第二图像中确定所述第一目标区域的对应区域,包括:
将所述第一目标区域中的至少一个关键点映射到所述第二图像中,得到所述至少一个关键点在所述第二图像中的映射位置信息;
根据所述至少一个关键点在所述第二图像中的映射位置信息,确定所述第一目标区域在所述第二图像中的对应区域。
在一种可能的实现方式中,所述方法还包括:
在基于所述目标对象的关键点深度信息确定所述目标对象为活体的情况下,确定所述第一图像和所述第二图像中是否存在伪造信息;
基于所述第一图像和所述第二图像中是否存在伪造信息,确定所述目标对象是否为活体。
在一种可能的实现方式中,所述伪造信息包括以下信息中的一种或任意组合:
成像介质的边缘信息、反光信息、材质信息;
显示屏幕的边缘信息、反光信息、摩尔纹信息;
面具信息、雕塑信息、模特信息。
在一种可能的实现方式中,所述确定所述第一图像和所述第二图像中是否存在伪造信息,包括:
对所述第一图像和所述第二图像分别进行特征提取处理,得到第一特征数据和第二特征数据;
基于所述第一特征数据和所述第二特征数据,确定所述第一图像和所述第二图像中是否存在伪造信息。
在一种可能的实现方式中,所述基于所述第一特征数据和所述第二特征数据,确定所述第一图像和所述第二图像中是否存在伪造信息,包括:
对所述第一特征数据和所述第二特征数据进行融合处理,得到融合特征;
基于所述融合特征,确定所述第一图像和所述第二图像中是否存在伪造信息。
在一种可能的实现方式中,所述第一特征数据或第二特征数据包含下列中的一项或任意组合:
局部二值模式特征、稀疏编码直方图特征、颜色特征、全图特征、区域特征、细节特征。
在一种可能的实现方式中,所述方法还包括:
确定所述第一图像和所述第二图像是否满足选帧条件;
所述根据所述第一目标区域和所述第二目标区域,得到目标对象的关键点深度信息,包括:
在确定所述第一图像和所述第二图像满足选帧条件的情况下,根据所述第一目标区域和所述第二目标区域,得到目标对象的关键点深度信息。
在一种可能的实现方式中,所述选帧条件包括以下条件中的一项或任意组合:
第一图像和第二图像均检测到所述目标对象;
第一图像中检测到的目标对象位于所述第一图像的设定区域且所述第二图像中检测到的目标对象位于所述第二图像的设定区域;
所述第一图像和所述第二图像中检测到的目标对象的完整度满足预设条件;
所述第一图像中检测到的目标对象在所述第一图像中所占的比例大于比例阈值且所述第二图像中检测到的目标对象在所述第二图像中所占的比例大于所述比例阈值;
第一图像和第二图像的清晰度大于清晰度阈值;
第一图像和第二图像的曝光度大于曝光度阈值。
在一种可能的实现方式中,所述方法还包括:
在所述第一图像和所述第二图像中的至少一个图像不满足选帧条件的情况下,确定视频流中的下一个图像对是否满足选帧条件;
在达到预设时间段或预设数量的图像对且在所述视频流中未找到满足选帧条件的图像对的情况下,将所述视频流确定为伪造视频流。
在一种可能的实现方式中,所述第一摄像头或所述第二摄像头包括如下摄像头中的其中一种:可见光摄像头、近红外摄像头、双通摄像头。
在一种可能的实现方式中,所述方法还包括:对所述第一图像和所述第二图像中的至少一个图像进行预处理,其中,所述预处理包含下列中的一种或任意组合:图像类型调整、尺寸调整、z分数标准化处理、亮度调整;
所述对所述第一摄像头拍摄的第一图像进行目标对象检测,得到第一目标区域,以及对所述第二摄像头拍摄的第二图像进行目标对象检测,得到第二目标区域,包括:
对所述预处理后的第一图像进行目标对象检测,得到第一目标区域,以及对所述预处理后的第二图像进行目标对象检测,得到第二目标区域。
在一种可能的实现方式中,所述目标对象为人脸。
根据本公开的一方面,提供了一种活体检测装置,所述装置包括:
目标区域确定模块,用于对双目摄像装置中的第一摄像头采集的第一图像进行目标对象的检测,得到第一目标区域,以及对所述双目摄像装置中的第二摄像头采集的第二图像进行所述目标对象的检测,得到第二目标区域;
关键点深度信息获取模块,用于根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息;
第一活体检测模块,用于基于所述目标对象的关键点深度信息,确定所述目标对象是否为活体。
在一种可能的实现方式中,所述关键点深度信息获取模块,包括:
关键点检测子模块,用于对所述第一目标区域进行关键点的检测,得到所述第一目标区域的关键点信息,并对所述第二目标区域进行关键点的检测,得到所述第二目标区域的关键点信息;
第一关键点深度信息获取子模块,用于根据所述第一目标区域的关键点信息和所述第二目标区域的关键点信息,确定所述目标对象的关键点深度信息。
在一种可能的实现方式中,所述活体检测模块,包括:
离散度确定子模块,用于基于所述目标对象的关键点深度信息,确定深度离散度;
活体检测子模块,用于根据所述深度离散度,确定所述目标对象是否为活体。
在一种可能的实现方式中,所述装置还包括:
一致性确定模块,用于确定所述第一目标区域和所述第二目标区域是否一致;
所述关键点深度信息获取模块,还包括:
第二关键点深度信息获取子模块,用于在确定所述第一目标区域和所述第二目标区域一致的情况下,根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息。
在一种可能的实现方式中,所述一致性确定模块,包括:
检索结果确定子模块,用于在底库中检索与所述第一目标区域对应的第一检索结果;在所述底库中检索与所述第二目标区域对应的第二检索结果;
第一一致性确定子模块,用于基于所述第一检索结果和所述第二检索结果,确定所述第一目标区域和所述第二目标区域是否一致。
在一种可能的实现方式中,所述一致性确定模块,包括:
相似度确定子模块,用于确定所述第一目标区域和所述第二目标区域的相似度;
第二一致性确定子模块,用于基于所述相似度,确定所述第一目标区域和所述第二目标区域是否一致。
在一种可能的实现方式中,所述装置还包括:
校正处理模块,用于在确定所述第一目标区域和所述第二目标区域不一致的情况下,基于所述第一目标区域,得到校正处理后的所述第二目标区域;
所述关键点深度信息获取模块,包括:
第三关键点深度信息获取子模块,用于根据所述第一目标区域和校正处理后的所述第二目标区域,得到所述目标对象的关键点深度信息。
在一种可能的实现方式中,所述校正处理模块,包括:
对应区域确定子模块,用于在所述第二图像中确定所述第一目标区域的对应区域;
第一校正处理子模块,用于将所述对应区域确定为所述校正处理后的所述第二目标区域。
在一种可能的实现方式中,所述对应区域确定子模块,包括:
关键区域确定子模块,用于根据所述第一目标区域的关键点信息,确定所述第一目标区域中的关键区域;
第一对应区域确定子模块,用于基于所述关键区域,确定所述第一目标区域在第二图像中的对应区域。
在一种可能的实现方式中,所述关键区域确定子模块,包括:
最小区域确定子模块,用于基于所述第一目标区域的关键点信息,确定由所述第一目标区域中的至少一个关键点围成的最小区域;
第一关键区域确定子模块,用于将所述最小区域放大预设倍数,得到所述关键区域。
在一种可能的实现方式中,所述对应区域确定子模块,包括:
映射位置信息确定子模块,用于将所述第一目标区域中的至少一个关键点映射到所述第二图像中,得到所述至少一个关键点在所述第二图像中的映射位置信息;
第二对应区域确定子模块,用于根据所述至少一个关键点在所述第二图像中的映射位置信息,确定所述第一目标区域在所述第二图像中的对应区域。
在一种可能的实现方式中,所述装置还包括:
伪造信息确定模块,用于在基于所述目标对象的关键点深度信息确定所述目标对象为活体的情况下,确定所述第一图像和所述第二图像中是否存在伪造信息;
第二活体检测模块,用于基于所述第一图像和所述第二图像中是否存在伪造信息,确定所述目标对象是否为活体。
在一种可能的实现方式中,所述伪造信息包括以下信息中的一种或任意组合:
成像介质的边缘信息、反光信息、材质信息;
显示屏幕的边缘信息、反光信息、摩尔纹信息;
面具信息、雕塑信息、模特信息。
在一种可能的实现方式中,所述伪造信息确定模块,包括:
特征数据获取子模块,用于对所述第一图像和所述第二图像分别进行特征提取处理,得到第一特征数据和第二特征数据;
伪造信息确定子模块,用于基于所述第一特征数据和所述第二特征数据,确定所述第一图像和所述第二图像中是否存在伪造信息。
在一种可能的实现方式中,所述伪造信息确定子模块,包括:
融合特征获取子模块,用于对所述第一特征数据和所述第二特征数据进行融合处理,得到融合特征;
第一伪造信息确定子模块,用于基于所述融合特征,确定所述第一图像和所述第二图像中是否存在伪造信息。
在一种可能的实现方式中,所述第一特征数据或第二特征数据包含下列中的一项或任意组合:
局部二值模式特征、稀疏编码直方图特征、颜色特征、全图特征、区域特征、细节特征。
在一种可能的实现方式中,所述装置还包括:
选帧模块,用于确定所述第一图像和所述第二图像是否满足选帧条件;
所述关键点深度信息获取模块,包括:
第四关键点深度信息获取子模块,用于在确定所述第一图像和所述第二图像满足选帧条件的情况下,根据所述第一目标区域和所述第二目标区域,得到目标对象的关键点深度信息。
在一种可能的实现方式中,所述选帧条件包括以下条件中的一项或任意组合:
第一图像和第二图像均检测到所述目标对象;
第一图像中检测到的目标对象位于所述第一图像的设定区域且所述第二图像中检测到的目标对象位于所述第二图像的设定区域;
所述第一图像和所述第二图像中检测到的目标对象的完整度满足预设条件;
所述第一图像中检测到的目标对象在所述第一图像中所占的比例大于比例阈值且所述第二图像中检测到的目标对象在所述第二图像中所占的比例大于所述比例阈值;
第一图像和第二图像的清晰度大于清晰度阈值;
第一图像和第二图像的曝光度大于曝光度阈值。
在一种可能的实现方式中,所述装置还包括:
图像对确定模块,用于在所述第一图像和所述第二图像中的至少一个图像不满足选帧条件的情况下,确定视频流中的下一个图像对是否满足选帧条件;
伪造视频流确定模块,用于在达到预设时间段或预设数量的图像对且在所述视频流中未找到满足选帧条件的图像对的情况下,将所述视频流确定为伪造视频流。
在一种可能的实现方式中,所述第一摄像头或所述第二摄像头包括如下摄像头中的其中一种:可见光摄像头、近红外摄像头、双通摄像头。
在一种可能的实现方式中,所述装置还包括:
预处理模块,用于对所述第一图像和所述第二图像中的至少一个图像进行预处理,其中,所述预处理包含下列中的一种或任意组合:图像类型调整、尺寸调整、z分数标准化处理、亮度调整;
所述目标区域确定模块,包括:
目标区域确定子模块,用于对所述预处理后的第一图像进行目标对象检测,得到第一目标区域,以及对所述预处理后的第二图像进行目标对象检测,得到第二目标区域。
在一种可能的实现方式中,所述目标对象为人脸。
根据本公开的一方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行上述活体检测方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述活体检测方法。
在本公开实施例中,根据双目摄像装置的第一摄像头和第二摄像头拍摄的第一图像和第二图像中检测出的第一目标区域和第二目标区域,得到目标对象各关键点的深度信息,并根据各关键点的深度信息确定目标对象是否为活体。本公开实施例利用双目摄像装置拍摄的图像,不需要互动及外部信息就可以完成目标对象的活体检测,实施方式简单、适用环境多,检测结果准确。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开实施例的活体检测方法的流程图;
图2示出根据本公开实施例的活体检测方法的流程图;
图3示出根据本公开实施例的活体检测方法的流程图;
图4示出根据本公开实施例的活体检测方法的流程图;
图5示出根据本公开实施例的活体检测方法的流程图;
图6示出根据本公开实施例的活体检测方法的流程图;
图7示出根据本公开实施例的活体检测方法的流程图;
图8示出根据本公开实施例的活体检测装置的框图;
图9示出根据本公开实施例的活体检测装置的框图;
图10是根据示例性实施例示出的一种电子设备的框图;
图11是根据示例性实施例示出的一种活体检测装置的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出根据本公开实施例的活体检测方法的流程图,如图1所示,所述活体检测方法包括:
步骤S10,对双目摄像装置中的第一摄像头采集的第一图像进行目标对象的检测,得到第一目标区域,以及对所述双目摄像装置中的第二摄像头采集的第二图像进行所述目标对象的检测,得到第二目标区域。
在一种可能的实现方式中,双目摄像装置包括两个标定的摄像头。可以将双目摄像装置中的两个摄像头称为第一摄像头和第二摄像头。第一摄像头和第二摄像头可以是相同类型的摄像头,也可以是不同类型的摄像头。
在一种可能的实现方式中,第一摄像头或第二摄像头包括如下摄像头中的其中一种:可见光摄像头、近红外摄像头、双通摄像头。或者,本公开实施例中的摄像头也可以为其他类型的摄像头,具体类型在此不作限定。
可见光摄像头为利用可见光照射物体形成图像的摄像头。近红外摄像头为利用近红外线照射物体形成图像的摄像头。双通摄像头包括利用双通道(包括R通道)成像原理形成图像的摄像头。双目摄像装置中的两个摄像头可以是相同类型的摄像头,也可以是不同类型的摄像头。例如,双目摄像装置A的两个摄像头均为可见光摄像头,双目摄像装置B的两个摄像头分别为可见光摄像头和近红外摄像头,双目摄像装置C的两个摄像头分别为可见光摄像头和双通摄像头,双目摄像装置D的两个摄像头均为双通摄像头。可以根据活体检测的需求,选用配置了不同型号的摄像头的双目摄像装置。可以根据需求选择双目摄像装置中两个摄像头的类型,适应范围更广,可扩展性更强。
可选地,可以利用第一摄像头和第二摄像头拍摄得到一对静态的图像。也可以利用第一摄像头和第二摄像头拍摄得到连续的视频流,再从拍摄得到的视频流中截取一对帧图像,相应地,第一图像和第二图像可以为静态图像或者视频帧图像,本公开实施例对此不做限定。
在本公开实施例中,可以将第一摄像头拍摄得到的第一图像和第二摄像头拍摄得到的第二图像分别进行目标对象检测。可以利用图像识别等技术,在第一图像和第二图像中检测目标对象。也可以将第一图像和第二图像输入神经网络中检测目标对象。
所述目标对象可以包括各种活体对象或活体对象的指定部位。例如,目标对象可以为人或动物,目标对象也可以为人脸、人手或动物的面部。目标区域可以包括第一图像和第二图像中目标对象所在的区域。在一种可能的实现方式中,所述目标对象为人脸,所述第一目标区域和所述第二目标区域为面部区域或人脸框。
步骤S20,根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息。
在一种可能的实现方式中,可以在第一目标区域和第二目标区域,进行关键点的检测,得到目标对象的各关键点在第一图像和第二图像中的位置信息。关键点可以包括目标对象上的指定位置的点。例如,当目标对象为人脸时,可以根据需求,将人脸中眼睛的内眼角和外眼角、瞳孔、鼻尖、眉心、眉毛的头部、眉毛的尾部等位置的点,作为人脸的关键点。关键点的数量可以根据需求设定。例如可以在人脸中确定N个关键点,N>2。可以根据各关键点在第一目标区域中的第一坐标和在第二目标区域中的第二坐标,即第一目标区域的关键点信息、第二目标区域的关键点信息以及双目摄像装置的参数,得到目标对象的关键点深度信息。其中,可选地,双目摄像装置的参数,可以包括双目摄像装置的焦距和/或两个摄像头的中心之间的距离,或者也可以包括其他参数,本公开实施例对此不做限定。
步骤S30,基于所述目标对象的关键点深度信息,确定所述目标对象是否为活体。
在一种可能的实现方式中,当双目摄像装置拍摄的目标对象是活体时,活体上的各关键点距离双目摄像装置的距离不同。例如,当活体的人脸正对双目摄像装置时,鼻尖与双目摄像装置的距离,要小于耳朵与双目摄像装置的距离。而当目标对象为人脸的照片,不是活体时,各关键点的深度信息相等。
在本实施例中,根据双目摄像装置的第一摄像头和第二摄像头拍摄的第一图像和第二图像中检测出的第一目标区域和第二目标区域,得到目标对象各关键点的深度信息,并根据各关键点的深度信息确定目标对象是否为活体。本实施例利用双目摄像装置拍摄的图像,不需要互动及外部信息就可以完成目标对象的活体检测,实施方式简单、适用环境多,检测结果准确。
图2示出根据本公开实施例的活体检测方法的流程图,如图2所示,所述活体检测方法中步骤S20包括:
步骤S21,对所述第一目标区域进行关键点的检测,得到所述第一目标区域的关键点信息,并对所述第二目标区域进行关键点的检测,得到所述第二目标区域的关键点信息。
在一种可能的实现方式中,可以将第一目标区域的图像和第二目标区域的图像分别输入神经网络进行关键点检测,得到第一目标区域的关键点信息和第二目标区域的关键点信息。关键点信息可以包括关键点在第一图像和第二图像中的平面坐标信息。
步骤S22,根据所述第一目标区域的关键点信息和所述第二目标区域的关键点信息,确定所述目标对象的关键点深度信息。
在一种可能的实现方式中,可以利用关键点在第一图像中的平面坐标信息和第二图像中的平面坐标信息,得到关键点的深度信息。
例如,为得到关键点的深度信息,可以首先进行相机标定。可以将双目摄像装置中左相机确定为第一相机,右相机确定为第二相机获取左相机的内参M1,右相机的内参M2,左右相机外参[R,T]。
RL,RR分别代表左相机和右相机的外参旋转矩阵,TL,TR分别代表左相机和右相机的平移矩阵,由于[R,T]是右相机相对于左相机的位置关系,因此左相机相对于自身的位置关系不动,用以下公式表示:
RR=R,TR=T
当目标对象为人脸时,在利用标定后的左右相机同时拍摄的人脸的图像中,确定人脸关键点的坐标。得到左右相机拍摄的人脸关键点的图像像素坐标系坐标值分别为PL和PR,根据以上已知信息求得人脸的关键点在左相机坐标系中的坐标值PwL=(Xw Yw Zw 1),设人脸的关键点在右相机坐标系中的坐标值为PwR:
PL=sMLPwL
PR=dMRPwR
PwR=[R,T]PwL
展开得:
PR=d/sMR[R,T]ML -1PL
其中,PR、PL、MR、ML、[R,T]均已知,则根据以上公式可推得d、s。d为世界坐标系相对于左侧相机的转换系数,s为世界坐标系相对于右侧相机的转换系数,最后根据以下公式即可得到人脸的关键点在左相机坐标系中的坐标值PwL:
PwL=1/sML -1PL
Zw即为人脸中各关键点的深度信息。
在本实施例中,通过在第一目标区域和第二目标区域中检测关键点,得到关键点在第一图像和第二图像中的坐标,并根据关键点在第一图像和第二图像中的坐标计算得到关键点的深度信息。利用双目摄像装置拍摄的图像,可以方便、准确地计算出目标对象各关键点的深度信息,不需要互动及外部信息就可以完成目标对象的活体检测,检测效率高,适用环境多,检测结果准确。
图3示出根据本公开实施例的活体检测方法的流程图,如图3所示,所述活体检测方法中步骤S30包括:
步骤S31,基于所述目标对象的关键点深度信息,确定深度离散度。
在一种可能的实现方式中,计算各关键点的深度信息的深度离散度,可以包括计算各关键点的深度信息的方差、标准差等。本公开对此不做限定。
步骤S32,根据所述深度离散度,确定所述目标对象是否为活体。
在一种可能的实现方式中,可以将计算得到的深度离散度和离散阈值进行比较,并根据比较结果判断第一目标区域和第二目标区域是否为活体。例如,当计算得到的各关键点的深度离散度小于设定的离散阈值时,可以认为第一目标区域和第二目标区域中各关键点与双目摄像装置之间的距离相近,不符合活体的各关键点与双目摄像装置之间的距离的分布特征。
在本实施例中,根据各关键点的深度信息的深度离散度,判断第一目标区域和第二目标区域是否为活体。利用中各关键点的深度信息,计算得到的深度离散度,不需要互动及外部信息就可以完成活体检测,检测效率高,适用环境多,检测结果准确。
图4示出根据本公开实施例的活体检测方法的流程图,如图4所示,所述活体检测方法还包括:
步骤S40,确定所述第一目标区域和所述第二目标区域是否一致。
步骤S20包括:
步骤S23,在确定所述第一目标区域和所述第二目标区域一致的情况下,根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息。
在一种可能的实现方式中,当双目摄像装置的拍摄范围内包括多个被拍摄对象时,第一图像和第二图像中可以同时包括多个被拍摄对象的图像。在对第一图像和第二图像进行目标对象检测时,可能在第一图像中检测出被拍摄对象A,即第一目标区域为被拍摄对象A所在的图像区域,而在第二图像中检测出被拍摄对象B,即第二目标区域为被拍摄对象B所在的图像区域,基于上述的第一目标区域和第二目标区域进行后续的活体检测步骤,将无法得到准确的活体检测结果。
可以通过检测第一目标区域和第二目标区域的一致性,排除第一目标区域和第二目标区域不是同一个被拍摄对象的情况。可以利用图像识别技术,分别提取第一目标区域和第二目标区域中的特征,并将提取到的两个特征进行比较,以检测第一目标区域和第二目标区域的一致性。也可以利用将第一目标区域和第二目标区域与设定的第三目标区域进行比较,以检测第一目标区域和第二目标区域的一致性。本公开对此不做限定。
在本实施例中,通过确定第一目标区域和第二目标区域的一致性,可以保证目标对象的活体检测结果的准确性。
在一种可能的实现方式中,所述活体检测方法中,确定所述第一目标区域和所述第二目标区域是否一致,包括:
在底库中检索与所述第一目标区域对应的第一检索结果。
在所述底库中检索与所述第二目标区域对应的第二检索结果。
基于所述第一检索结果和所述第二检索结果,确定所述第一目标区域和所述第二目标区域是否一致。
在一种可能的实现方式中,上述得到第一检索结果和得到第二检索结果的两个步骤可以同时执行,也可以按照任意先后顺序执行。本公开对此不做限定。
在一种可能的实现方式中,底库包括多个待检索的目标对象的图像。可以根据收集到的满足预设数量的目标对象的图像建立底库。可以在底库中检索第一目标区域对应的第一检索结果。第一检索结果可以是检索到的目标对象的图像,也可以是根据检索到的目标对象的图像给出的分析结果。
当第一检索结果是检索到的目标对象的图像时,第一检索结果可以是与第一目标区域完全对应的待检索的目标对象的图像,也可以是根据设定的比对标准,与第一目标区域最接近的待检索的目标对象图像。
当第一检索结果是根据检索到的目标对象的图像给出的分析结果时,第一检索结果可以是根据第一目标区域和检索到的目标对象的图像的预设特征之间的差值。
在底库中检索与第二目标区域对应的第二检索结果,与上述在底库中检索与第一目标区域对应的第一检索结果相同,不再赘述。
当第一检索结果和第二检索结果一致时,可以确定第一目标区域和第二目标区域一致。当第一检索结果和第二检索结果不一致时,可以确定第一目标区域和第二目标区域也不一致。
在本实施中,在底库中检索第一目标区域和第二目标区域,可以通过判断检索结果之间的一致性,判断第一目标区域和第二目标区域之间的一致性。通过检索底库,可以通过简单的检索以及对比,确定第一目标区域和第二目标区域是否一致,判断过程简单,运行效率高。
在一种可能的实现方式中,所述活体检测方法中,确定所述第一目标区域和所述第二目标区域是否一致,包括:
确定所述第一目标区域和所述第二目标区域的相似度。
基于所述相似度,确定所述第一目标区域和所述第二目标区域是否一致。
在一种可能的实现方式中,可以根据第一目标区域和第二目标区域的整体或特定的部分区域,确定第一目标区域和第二目标区域的相似度。例如,目标对象为人脸,可以根据第一目标区域和第二目标区域中的鼻部区域,确定第一目标区域和第二目标区域之间的相似度。
也可以分别提取第一目标区域和第二目标区域的特征进行比对,并根据提取到的特征确定第一目标区域和第二目标区域的相似度。例如目标对象为人脸,可以分别计算第一目标区域和第二目标区域中的鼻尖至瞳孔的第一距离、以及鼻尖至内眼角的第二距离,并根据计算得到的两个距离,确定第一目标区域和第二目标区域的相似度。
可以将第一目标区域和第二目标区域的相似度和相似度阈值进行比较,当第一目标区域和第二目标区域的相似度小于相似度阈值时,确定第一目标区域和第二目标区域一致。可以根据需求调整相似度阈值。
在本实施例中,根据第一目标区域和第二目标区域的相似度,确认第一面部和第二面部是否一致,不需要引入外部信息,计算过程简单方便。
图5示出根据本公开实施例的活体检测方法的流程图,如图5所示,所述活体检测方法还包括:
步骤S50,在确定所述第一目标区域和所述第二目标区域不一致的情况下,基于所述第一目标区域,得到校正处理后的所述第二目标区域。
在一种可能的实现方式中,为避免第一目标区域与第二目标区域不一致,导致后续的目标对象的活体检测结果不准确的问题,当所述第一目标区域和所述第二目标区域不一致时,可以基于第一目标区域得到校正处理后的第二目标区域,校正处理后的第二目标区域与第一目标区域一致。例如,可以根据第一目标区域中的目标对象,对第二图像重新进行目标对象的检测,得到第二目标区域。
步骤S20包括:
步骤S24,根据所述第一目标区域和校正处理后的所述第二目标区域,得到所述目标对象的关键点深度信息。
在一种可能的实现方式中,校正处理后的所述第二目标区域和第一目标区域一致。、根据所述第一目标区域和校正处理后的所述第二目标区域,可以得到相同的目标对象的关键点深度信息。
在本实施例中,当第一目标区域与第二目标区域不一致时,可以基于所述第一目标区域,得到校正处理后的所述第二目标区域。根据第一目标区域和校正处理后的所述第二目标区域得到的关键点深度信息,可以用于得到准确的目标对象的活体检测结果。
在一种可能的实现方式中,所述活体检测方法中,基于所述第一目标区域,得到校正处理后的所述第二目标区域,包括:
在所述第二图像中确定所述第一目标区域的对应区域。
将所述对应区域确定为所述校正处理后的所述第二目标区域。
在一种可能的实现方式中,可以根据第一目标区域在第一图像中的位置,在第二图像中确定第一目标区域的对应区域。例如,第一目标区域在第一图像中的位置为A1至A6共6个坐标点的连线围成的区域,则在第二图像中,将A1至A6共6个坐标点的连线围成的区域确定第一目标区域的对应区域。
在一种可能的实现方式中,对应区域在第二图像中的位置与第一目标区域在第一图像中的位置相同,可以认为对应区域中的目标对象与第一目标区域中的目标对象相同,对应区域为校正后的第二目标区域。
在本实施例中,根据第一目标区域在第一图像中的位置,在第二图像中确定对应区域,得到校正处理后的第二目标区域。校正方法简单可靠。
在一种可能的实现方式中,所述活体检测方法中,在所述第二图像中确定所述第一目标区域的对应区域,包括:
根据所述第一目标区域的关键点信息,确定所述第一目标区域中的关键区域。
基于所述关键区域,确定所述第一目标区域在第二图像中的对应区域。
在一种可能的实现方式中,可以根据第一目标区域中的所有或部分关键点的关键点信息,确定第一目标区域中的关键区域。
例如,可以根据第一目标区域的所有关键点的坐标,在第一目标区域中确定关键区域,所有的关键点均位于关键区域内。关键区域可以为任意形状的区域。
在一种可能的实现方式中,可以根据关键区域在第一图像中的位置信息,在第二图像中确定第一目标区域的对应区域。例如可以根据关键区域的边界线的坐标信息,在第一图像中确定对应区域。
在本实施例中,根据第一目标区域中的关键点信息确定关键区域后,再根据关键区域在第二图像中确定对应区域。根据关键点得到的对应区域得到校正处理后的第二目标区域,准确度更高。
在一种可能的实现方式中,所述活体检测方法中,在所述第二图像中确定所述第一目标区域的对应区域,包括:
基于所述第一目标区域的关键点信息,确定由所述第一目标区域中的至少一个关键点围成的最小区域。
所述最小区域放大预设倍数,得到所述关键区域。
在一种可能的实现方式中,可以根据第一目标区域中的至少一个关键点围成最小区域,各关键点位于最小区域中或位于最小区域的边界线上。可以根据需求确定围成最小区域所需的关键点。
在一种可能的实现方式中,可以将最小区域方法预设的倍数后,得到关键区域,关键区域所覆盖的范围更大。可以根据关键区域在第一图像中的位置,在第二图像中的相应位置进行目标对象检测,得到的校正处理后的第二目标区域。
在本实施例中,根据第一目标区域中的至少一个关键点围成最小区域,并将最小区域放大预设倍数后,得到关键区域。关键区域的覆盖范围更大,根据关键区域对第二图像进行目标对象检测,得到的校正处理后的第二目标区域的准确度也更高。
在一种可能的实现方式中,所述活体检测方法中,在所述第二图像中确定所述第一目标区域的对应区域,包括:
将所述第一目标区域中的至少一个关键点映射到所述第二图像中,得到所述至少一个关键点在所述第二图像中的映射位置信息。
根据所述至少一个关键点在所述第二图像中的映射位置信息,确定所述第一目标区域在所述第二图像中的对应区域。
在一种可能的实现方式中,可以根据需求,在第一目标区域中确定至少一个关键点,并根据确定的各关键点在第一图像中的位置信息,在第二图像中得到各关键点的映射位置信息。例如,可以根据关键点1在第一图像中的坐标1,关键点2在第一图像中的坐标2,得到关键点1在第二图像中的映射坐标1’,以及关键点2在第二图像中的映射坐标2’。
在一种可能的实现方式中,可以根据各关键点与第一目标区域之间的位置关系,和各关键点在第二图像中的映射坐标,在第二图像中确定第一目标区域的对应区域。
例如,为得到第一目标区域中的关键点的坐标,首先进行相机标定。可以将双目摄像装置中左相机确定为第一相机,右相机确定为第二相机。获取左相机的内参ML,右相机的内参MR,左右相机外参[R,T]。
RL,RR分别代表左相机和右相机的外参旋转矩阵,TL,TR分别代表左相机和右相机的平移矩阵,由于[R,T]是右相机相对于左相机的位置关系,因此左相机相对于自身的位置关系不动,有以下公式:
RR=R,TR=T
目标对象为面部,获取左右相机同时拍摄的面部的图像,并分别进行关键点提取,得到左右相机拍摄面部的图像像素坐标系坐标值分别为PL和PR,根据以上已知信息求得面部在左相机坐标系中的坐标值PwL=(Xw Yw Zw 1):设面部在右相机坐标系中的坐标值为PwR:
PL=sMLPwL
PR=dMRPwR
PwR=[R,T]PwL
展开得:
PR=d/sMR[R,T]ML -1PL
其中,PR、PL、MR、ML、[R,T]均已知,则根据以上公式可推得d、s,最后根据以下公式即可得到面部在左相机坐标系中的坐标值PwL:
PwL=1/sML -1PL
固定以上求得的面部在世界坐标系中的坐标值(Xw Yw Zw),将其作为已知量,则可在后续的活体检测中只提取左图的面部关键点坐标,将左图检测得到的面部关键点坐标(uL,vL,1)T映射到右图中(uR,vR,1)T:
其中[RL,TL]可以由以下公式得到:
利用映射到右图中的面部关键点得到右图的面部区域。
在本实施例中,根据关键点的位置信息,在第二图像中确定关键点的映射位置信息,并根据关键点的映射位置信息,在第二图像中确定第一目标区域的对应区域。根据关键点的映射坐标得到的对应区域,更有针对性,得到的对应区域也更加精准。
图6示出根据本公开实施例的活体检测方法的流程图,如图6所示,所述活体检测方法还包括:
步骤S60,在基于所述目标对象的关键点深度信息确定所述目标对象为活体的情况下,确定所述第一图像和所述第二图像中是否存在伪造信息。
在一种可能的实现方式中,伪造目标对象,可以包括利用包含目标对象的图像的纸质图片伪造的方式,可以包括利用智能终端拍摄的目标对象的图像伪造的方式,还可以包括利用雕塑、模具等立体模型伪造目标对象的方式。可以将利用纸质的图片进行伪造的方式确定为第一维度的目标对象伪造方式,将利用屏幕中的目标对象图像进行伪造的方式确定为第二维度的目标对象伪造方式,将利用立体模型进行伪造的方式确定为第三维度的目标对象伪造方式。
可以将第一维度的目标对象伪造方式中,根据纸质图像中纸质图片的边缘、纸面反光、纸张材质等提取到的信息,确定为第一维度的伪造信息。可以将第二维度的目标对象伪造方式中,根据屏幕边缘、屏幕反光、屏幕摩尔纹等提取到的信息,确定为第二维度的伪造信息。可以将第三维度的目标对象伪造方式中,根据模型的表面(过于光滑的皮肤)、模具自身的接缝处、模具与目标对象接缝等提取到的信息,确定为第三维度的伪造信息。
步骤S70,基于所述第一图像和所述第二图像中是否存在伪造信息,确定所述目标对象是否为活体。
在一种可能的实现方式中,当在第一图像和/或第二图像中发现第一维度的伪造信息、第二维度的伪造信息和第三维度的伪造信息中的其中一种或任意组合时,可以确认目标对象不是活体。
当在第一图像和/或第二图像中发现单一维度下的单一伪造信息,或单一维度下的多个伪造信息的综合,以及多个维度下的多个伪造信息的综合时,可以确认目标对象不是活体。
在本实施例中,在第一图像和/或第二图像中确定是否存在伪造信息,当存在伪造信息时,将目标对象确定为非活体。第一图像和第二图像中可能存在的各种伪造信息,活体检测的适用范围广,活体检测的精度高。
在一种可能的实现方式中,所述伪造信息包括以下信息中的一种或任意组合:
成像介质的边缘信息、反光信息、材质信息;
显示屏幕的边缘信息、反光信息、摩尔纹信息;
面具信息、雕塑信息、模特信息。
在一种可能的实现方式中,不同材质的纸质表面的颗粒度不同,不同纸面的反光特征不同,利用纸质图片伪造目标对象时,图片的边缘形状也是规则的。在双目摄像装置拍摄纸质图片得到的图像中,可以通过提取到的图片的边缘形状、纸质表面的反光特征的信息,以及用颗粒度等表达的不同材质的信息,识别出是利用纸质图片进行的目标对象的伪造。
屏幕的边缘形状是规则的,屏幕的材质具备与纸质材质不同的反光特征,屏幕摩尔纹包括设备中的感光原件的高频干扰的而产生的不规律的条纹。当利用屏幕中的图像进行目标对象伪造时,在双目摄像装置拍摄屏幕得到的图像中,可以通过提取到的屏幕的边缘形状、屏幕的反光的信息、屏幕摩尔纹等信息,识别出是利用屏幕中的图像进行的目标对象的伪造。
立体模型包括模特、雕塑和面具等。立体模型的表面通常比较光滑,不具备真实皮肤的纹理和颗粒特征。使用面具时,面具和真实的面部之间也会存在接缝。当利用立体模型进行目标对象伪造时,在双目摄像装置拍摄立体模型或面具得到的图像中,可以通过识别立体模型的表面或接缝处的信息,识别出是利用立体模型进行的目标对象的伪造。
在本实施例中,利用在纸质图片、屏幕或立体模型中提取的信息得到的伪造信息,可以识别出各种可能的目标对象的伪造方式,使用范围广。
图7示出根据本公开实施例的活体检测方法的流程图,如图7所示,所述活体检测方法中步骤S60,包括:
步骤S61,对所述第一图像和所述第二图像分别进行特征提取处理,得到第一特征数据和第二特征数据。
在一种可能的实现方式中,可以将第一图像进行第一卷积处理得到第一特征数据。将第二图像进行第二卷积处理得到第二特征数据。第一卷积处理和第二卷积处理可以是相同的卷积处理,也可以是不同的卷积处理。可以根据需求设置第一卷积处理的参数和第二卷积处理的参数,得到第一图像的第一卷积处理结果和第二图像的第二卷积处理结果。
在一种可能的实现方式中,可以利用深度神经网络,对所述第一图像和所述第二图像分别进行特征提取处理,得到第一特征数据和第二特征数据。所述深度神经网络至少包括第一卷积层和第二卷积层;所述第一卷积层对第一图像进行第一卷积处理得到第一卷积处理结果;所述第二卷积层对第二图像进行第二卷积处理得到第二卷积处理结果。
在一种可能的实现方式中,所述深度神经网络可以包括两个分支,例如第一分支可以包括多个第一卷积层,第二分支可以包括多个第二卷积层。所述深度神经网络还可以包括输入层、全连接层等。根据需求,多个第一卷积层和多个第二卷积层的参数可以相同,也可以不同。
可以利用训练图片集合对深度神经网络进行训练,在训练过程中,通过设置的损失函数,对深度神经网络进行反向传播,使得下一次训练的输入通过反向传播调整参数后的深度神经网络可以得到更加符合期望的输出。当满足设定好的训练条件,例如根据输出得到的损失达到一定的阈值,或训练达到一定的次数后,可以认为深度神经网络满足收敛条件,停止训练,得到训练好的深度神经网络。
在一种可能的实现方式中,所述第一特征数据或第二特征数据包含下列中的一项或任意组合:局部二值模式特征、稀疏编码直方图特征、颜色特征、全图特征、区域特征、细节特征。
局部二值模式(LBP,Local Binary Patterns)特征主要用于度量和提取图像局部的纹理信息,对光照有不变性。利用局部二值模型特征,可以突出第一图像或第二图像中的边缘部位的信息。例如纸质图片的边缘和屏幕的边缘。
稀疏编码直方图(HSC,Histogram of Sparse Code)特征包括利用稀疏编码原理提取图像特征的方法,利用稀疏编码直方图特征,可以更加明显的反映出第一图像或第二图像中的反光信息和模糊信息。
颜色(RGB,Red Green Blue)特征包括图像中不同颜色的特征,利用颜色特征,可以提取出第一图像或第二图像中的不同目标物体的形状、轮廓等信息。
图像的全图特征包括图像中全部区域的特征,基于全图特征,可以提取到第一图像或第二图像中各区域中可能存在的伪造信息。
图像的区域特征包括图像中检测出的面部所在区域中的特征,基于区域特征,可以提取到第一图像或第二图像中反光、屏幕摩尔纹的边缘等伪造信息。
图像的细节特征包括图像中设定的细节区域或形状,基于细节特征,可以提取到第一图像或第二图像中不同细节部分的伪造信息。
举例来说,当第一图像和第二图像中包括第一维度的伪造信息时,可以根据局部二值模式、稀疏编码直方图等图像特征提取到第一图像和第二图像中的边缘、反光或材质等信息,并根据提取到的图像信息识别出第一图像和第二图像中的纸质图片的边缘,纸质的反光和纸质图片的材质等第一维度的伪造信息。
利用不同的图像特征方法,可以更加全面地提取到第一图像和第二图像中不同伪造方式下的伪造信息。
步骤S62,基于所述第一特征数据和所述第二特征数据,确定所述第一图像和所述第二图像中是否存在伪造信息。
在一种可能的实现方式中,第一卷积处理结果和第二卷积处理结果可以用于识别相同的伪造信息,也可以用于识别不同的伪造信息。
在一种可能的实现方式中,可以利用训练好的深度神经网络对第一图像和第二图像中进行卷积处理,并根据卷积处理结果得到第一图像和第二图像中可能包含的多个维度的伪造信息,判断第一图像和第二图像是否存在伪造信息。
利用深度神经网络的处理能力能够根据需求同时提取到第一图像和第二图像中的多种伪造特征。利用深度神经网络强大的描述能力进行建模,通过大规模的数据训练学习,可以学习出多个维度的伪造特征,不需要被拍摄者进行互动。
在本实施例中,通过对所述第一图像和所述第二图像分别提取的第一特征数据和第二特征数据,确定所述第一图像和所述第二图像中是否存在伪造信息。通过对深度神经网络的迭代更新,可以迅速的应对不同情况活体检测,应用范围广泛,判断结果精确。
在一种可能的实现方式中,所述基于所述第一特征数据和所述第二特征数据,确定所述第一图像和所述第二图像中是否存在伪造信息,包括:
对所述第一特征数据和所述第二特征数据进行融合处理,得到融合特征。
基于所述融合特征,确定所述第一图像和所述第二图像中是否存在伪造信息。
在一种可能的实现方式中,第一卷积处理结果和第二卷积处理结果可以是向量的形式。可以将第一卷积处理结果和第二卷积处理结果进行融合处理后,得到的融合特征。融合特征可以包括第一图像和第二图像中的伪造信息。
当用于得到第一特征数据的第一卷积处理,和用于得到第二特征数据的第二卷积处理不同时,例如,第一卷积处理可以用于对第一图像中的第一维度的伪造信息进行卷积处理,第二卷积处理可以用于对第二图像中的第二维度的伪造信息进行卷积处理。将第一卷积处理结果和第二卷积处理结果进行融合,得到的融合特征,可以用来判断第一图像和第二图像中是否存在第一维度和/第二维度的伪造信息。
当用于得到第一特征数据的第一卷积处理,和用于得到第二特征数据的第二卷积处理相同时,例如,第一卷积处理可以用于对第一图像中的第一维度的伪造信息进行卷积处理,第二卷积处理也可以用于对第二图像中的第一维度的伪造信息进行卷积处理。将第一卷积处理结果和第二卷积处理结果进行融合得到的融合特征,可以用来判断第一图像和第二图像中是否存在第一维度的伪造信息。第一特征数据和第二特征数据相互印证,可以更加精确的识别出第一图像和第二图像中的第一维度的伪造信息。
在本实施例中,通过将第一特征数据和所述第二特征数据进行融合,得到融合特征。根据融合特征可以更加全面、准确地判断第一图像和/或第二图像中是否存在伪造信息。
在一种可能的实现方式中,所述活体检测方法还包括:
确定所述第一图像和所述第二图像是否满足选帧条件。
所述根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息,包括:在确定所述第一图像和所述第二图像满足选帧条件的情况下,根据所述第一目标区域和所述第二目标区域,得到目标对象的关键点深度信息。
在一种可能的实现方式中,所述选帧条件包括以下条件中的一项或任意组合:
第一图像和第二图像均检测到所述目标对象;
第一图像中检测到的目标对象位于所述第一图像的设定区域且所述第二图像中检测到的目标对象位于所述第二图像的设定区域;
所述第一图像和所述第二图像中检测到的目标对象的完整度满足预设条件;
所述第一图像中检测到的目标对象在所述第一图像中所占的比例大于比例阈值且所述第二图像中检测到的目标对象在所述第二图像中所占的比例大于所述比例阈值;
第一图像和第二图像的清晰度大于清晰度阈值;
第一图像和第二图像的曝光度大于曝光度阈值。
在一种可能的实现方式中,当只在第一图像和第二图像中的其中一个图像中检测到目标对象时,第一图像和第二图像不满足选帧条件,不在第一图像和第二图像中检测目标对象得到第一目标区域和第二目标区域。
在一种可能的实现方式中,当在第一图像和第二图像中检测到的目标对象的位置不在设定的中心区域内时,或当检测到的目标对象的完整度小于设定的完整度阈值,例如检测到的目标对象未包括边缘部分的图像,或目标对象在图像中所占的比例小于二分之一时,或第一图像和第二图像的清晰度过低时,或第一图像和第二图像的曝光度过低时,第一图像和第二图像均不满足选帧条件,不在第一图像和第二图像中检测目标对象得到第一目标区域和第二目标区域。
在一种可能的实现方式中,当第一图像和第二图像满足选帧条件时,认为第一图像和第二图像符合要求,在第一图像和第二图像中检测得到的目标对象也符合要求,可以用于得到目标对象的关键点深度信息。
在本实施例中,利用满足选帧条件的第一图像和第二图像,可以得到更加准确的目标对象的关键点深度信息,得到更加准确的活体检测的结果。
在一种可能的实现方式中,由于近红外摄像头无法获取屏幕中的图像信息。因此,当利用一个摄像头为近红外摄像头,另一个摄像头为可见光摄像头的双目摄像装置拍摄屏幕中的图像时,会出现可见光摄像头拍摄的图像中可以检测到目标对象,但近红外摄像头拍摄的图像中无法检测到目标对象的情况。
暗光条件下的双通摄像头与近红外摄像头相同,都无法获取屏幕中的图像信息。
当双目摄像装置中的一个摄像头为近红外摄像头或暗光条件下的双通摄像头,另一个摄像头为可见光摄像头或非暗光条件下的双通摄像头时,双目摄像装置得到的图像可以直接用于活体检测。
在一种可能的实现方式中,当双目摄像装置不是的一个摄像头为近红外摄像头或暗光条件下的双通摄像头,另一个摄像头为可见光摄像头或非暗光条件下的双通摄像头时,在双目摄像装置同时拍摄得到的视频中截取一对帧图像,并在所述的一对帧图像中分别进行目标对象检测时,如果在至少一个帧图像中检测不到目标对象时,排除这对帧图像,继续对下一对帧图像进行目标对象检测。如果在超过设定数量的多对帧图像中均没有同时检测出目标对象,可以判定目标对象为非活体或结束活体检测。
在一种可能的实现方式中,所述活体检测方法还包括:
在所述第一图像和所述第二图像中的至少一个图像不满足选帧条件的情况下,确定视频流中的下一个图像对是否满足选帧条件。
在达到预设时间段或预设数量的图像对且在所述视频流中未找到满足选帧条件的图像对的情况下,将所述视频流确定为伪造视频流。
在一种可能的实现方式中,当一个视频流中的一个图像对不满足选帧条件时,在视频流中选择下一个图像对,继续判断是否满足选帧条件。
在一种可能的实现方式中,当一个视频流中达到预设的时间段未找到满足选帧条件的图像时,可以认为视频流未伪造视频流。例如,预设的时间段为N秒,当在视频流中从开始时刻至第N秒,未找到满足选帧条件的图像对时,可以将视频流确定为伪造视频流。或当在视频流中的预设的M对图像中未找到满足选帧条件的图像对时,可以将视频流确定为伪造视频流。
在本实施例中,当在达到预设时间段或预设数量的图像对中未找到满足选帧条件的图像对时,将视频流确定为伪造视频流。可以提高视频流的检测效率。
在一种可能的实现方式中,所述第一摄像头或所述第二摄像头包括如下摄像头中的其中一种:可见光摄像头、近红外摄像头、双通摄像头。
可见光摄像头为利用可见光照射物体形成视频图像的摄像头。近红外摄像头为利用近红外线照射物体形成视频图像的摄像头。双通摄像头包括利用双通道(包括R通道)成像原理形成视频图像的摄像头。双目摄像装置中的两个摄像头可以是相同类型的摄像头,也可以是不同类型的摄像头。例如,双目摄像装置A的两个摄像头均为可见光摄像头,双目摄像装置B的两个摄像头分别为可见光摄像头和近红外摄像头,双目摄像装置C的两个摄像头分别为可见光摄像头和双通摄像头,双目摄像装置D的两个摄像头均为双通摄像头。可以根据面部防伪检测的需求,选用配置了不同型号的摄像头的双目摄像装置。
在本实施例中,可以根据需求选择双目摄像装置中两个摄像头的类型,两个摄像头的类型可以相同也可以不同,适应范围更广,可扩展性更强。
在一种可能的实现方式中,所述活体检测方法还包括:
对所述第一图像和所述第二图像中的至少一个图像进行预处理,其中,所述预处理包含下列中的一种或任意组合:图像类型调整、尺寸调整、z分数标准化处理、亮度调整。
所述对所述第一摄像头拍摄的第一图像进行目标对象检测,得到第一目标区域,以及对所述第二摄像头拍摄的第二图像进行目标对象检测,得到第二目标区域,包括:对所述预处理后的第一图像进行目标对象检测,得到第一目标区域,以及对所述预处理后的第二图像进行目标对象检测,得到第二目标区域。
在一种可能的实现方式中,双目摄像装置中的两个摄像头的类型可以不同,第一图像和第二图像的格式也可以不同。例如,当摄像头的类型为可见光摄像头时,拍摄到的图像类型为可见光图像;摄像头的类型为近红外摄像头时,拍摄到的图像类型为近红外图像;摄像头的类型为双通摄像头时,拍摄到的图像类型为双通图像。根据摄像头型号的不同,可见光图像、近红外图像和双通图像可以有多种不同的图像格式。当第一图像和第二图像的图像格式不同时,可以将第一图像和第二图像处理为相同的图像格式。例如,将第一图像和第二图像处理为bmp格式、jpg格式等。
可以将第一图像和第二图像的尺寸进行调整,使第一图像和第二图像的尺寸相同,在本公开实施例后续的处理步骤中,根据相同尺寸的第一图像和第二图像,能够更加准确地进行面部检测。
可以将第一图像和第二图像进行Z分数(z-score)标准化处理,以使经过处理的第一图像和第二图像的数据符合标准正态分布,在后续的处理步骤中得到更加准确的检测结果。
可以将第一图像和第二图像进行亮度调整。例如当第一图像和/或第二图像的图像类型为可见光图像时,可以进行亮度调整。可以将第一图像和第二图像进行基于直方图均衡化的暗光改善的处理。在双目摄像装置的应用场景中,被拍摄者的待检测面部可能处于暗光条件下,拍摄暗光条件下的待检测面部得到的第一图像和第二图像的亮度值较低,容易影响面部防伪检测结果的准确性。经过亮度调整的图像能够重新调整图像中的亮度分布,使得原本在暗光条件下拍摄得到的第一图像和第二图像,能够满足本公开实施例的面部防伪检测方法对于图像质量的要求,从而得到更加准确的防伪检测结果。亮度调整还包括将在强光条件下拍摄得到的第一图像和第二图像进行亮度调整。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。
此外,本公开还提供了图像处理装置、电子设备、计算机可读存储介质、程序,上述均可用来实现本公开提供的任一种图像处理方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
图8示出根据本公开实施例的活体检测装置的框图,如图8所示,所述装置包括:
目标区域确定模块10,用于对双目摄像装置中的第一摄像头采集的第一图像进行目标对象的检测,得到第一目标区域,以及对所述双目摄像装置中的第二摄像头采集的第二图像进行所述目标对象的检测,得到第二目标区域;
关键点深度信息获取模块20,用于根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息;
第一活体检测模块30,用于基于所述目标对象的关键点深度信息,确定所述目标对象是否为活体。
图9示出根据本公开实施例的活体检测装置的框图,如图9所示,在一种可能的实现方式中,所述关键点深度信息获取模块20,包括:
关键点检测子模块21,用于对所述第一目标区域进行关键点的检测,得到所述第一目标区域的关键点信息,并对所述第二目标区域进行关键点的检测,得到所述第二目标区域的关键点信息;
第一关键点深度信息获取子模块22,用于根据所述第一目标区域的关键点信息和所述第二目标区域的关键点信息,确定所述目标对象的关键点深度信息。
在一种可能的实现方式中,所述活体检测模块30,包括:
离散度确定子模块31,用于基于所述目标对象的关键点深度信息,确定深度离散度;
活体检测子模块32,用于根据所述深度离散度,确定所述目标对象是否为活体。
在一种可能的实现方式中,所述装置还包括:
一致性确定模块40,用于确定所述第一目标区域和所述第二目标区域是否一致;
所述关键点深度信息获取模块20,还包括:
第二关键点深度信息获取子模块23,用于在确定所述第一目标区域和所述第二目标区域一致的情况下,根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息。
在一种可能的实现方式中,所述一致性确定模块40,包括:
检索结果确定子模块,用于在底库中检索与所述第一目标区域对应的第一检索结果;在所述底库中检索与所述第二目标区域对应的第二检索结果;
第一一致性确定子模块,用于基于所述第一检索结果和所述第二检索结果,确定所述第一目标区域和所述第二目标区域是否一致。
在一种可能的实现方式中,所述一致性确定模块40,包括:
相似度确定子模块,用于确定所述第一目标区域和所述第二目标区域的相似度;
第二一致性确定子模块,用于基于所述相似度,确定所述第一目标区域和所述第二目标区域是否一致。
在一种可能的实现方式中,所述装置还包括:
校正处理模块50,用于在确定所述第一目标区域和所述第二目标区域不一致的情况下,基于所述第一目标区域,得到校正处理后的所述第二目标区域;
所述关键点深度信息获取模块20,包括:
第三关键点深度信息获取子模块24,用于根据所述第一目标区域和校正处理后的所述第二目标区域,得到所述目标对象的关键点深度信息。
在一种可能的实现方式中,所述校正处理模块50,包括:
对应区域确定子模块,用于在所述第二图像中确定所述第一目标区域的对应区域;
第一校正处理子模块,用于将所述对应区域确定为所述校正处理后的所述第二目标区域。
在一种可能的实现方式中,所述对应区域确定子模块,包括:
关键区域确定子模块,用于根据所述第一目标区域的关键点信息,确定所述第一目标区域中的关键区域;
第一对应区域确定子模块,用于基于所述关键区域,确定所述第一目标区域在第二图像中的对应区域。
在一种可能的实现方式中,所述关键区域确定子模块,包括:
最小区域确定子模块,用于基于所述第一目标区域的关键点信息,确定由所述第一目标区域中的至少一个关键点围成的最小区域;
第一关键区域确定子模块,用于将所述最小区域放大预设倍数,得到所述关键区域。
在一种可能的实现方式中,所述对应区域确定子模块,包括:
映射位置信息确定子模块,用于将所述第一目标区域中的至少一个关键点映射到所述第二图像中,得到所述至少一个关键点在所述第二图像中的映射位置信息;
第二对应区域确定子模块,用于根据所述至少一个关键点在所述第二图像中的映射位置信息,确定所述第一目标区域在所述第二图像中的对应区域。
在一种可能的实现方式中,所述装置还包括:
伪造信息确定模块60,用于在基于所述目标对象的关键点深度信息确定所述目标对象为活体的情况下,确定所述第一图像和所述第二图像中是否存在伪造信息;
第二活体检测模块70,用于基于所述第一图像和所述第二图像中是否存在伪造信息,确定所述目标对象是否为活体。
在一种可能的实现方式中,所述伪造信息包括以下信息中的一种或任意组合:
成像介质的边缘信息、反光信息、材质信息;
显示屏幕的边缘信息、反光信息、摩尔纹信息;
面具信息、雕塑信息、模特信息。
在一种可能的实现方式中,所述伪造信息确定模块60,包括:
特征数据获取子模块61,用于对所述第一图像和所述第二图像分别进行特征提取处理,得到第一特征数据和第二特征数据;
伪造信息确定子模块62,用于基于所述第一特征数据和所述第二特征数据,确定所述第一图像和所述第二图像中是否存在伪造信息。
在一种可能的实现方式中,所述伪造信息确定子模块62,包括:
融合特征获取子模块,用于对所述第一特征数据和所述第二特征数据进行融合处理,得到融合特征;
第一伪造信息确定子模块,用于基于所述融合特征,确定所述第一图像和所述第二图像中是否存在伪造信息。
在一种可能的实现方式中,所述第一特征数据或第二特征数据包含下列中的一项或任意组合:
局部二值模式特征、稀疏编码直方图特征、颜色特征、全图特征、区域特征、细节特征。
在一种可能的实现方式中,所述装置还包括:
选帧模块,用于确定所述第一图像和所述第二图像是否满足选帧条件;
所述关键点深度信息获取模块,包括:
第四关键点深度信息获取子模块,用于在确定所述第一图像和所述第二图像满足选帧条件的情况下,根据所述第一目标区域和所述第二目标区域,得到目标对象的关键点深度信息。
在一种可能的实现方式中,所述选帧条件包括以下条件中的一项或任意组合:
第一图像和第二图像均检测到所述目标对象;
第一图像中检测到的目标对象位于所述第一图像的设定区域且所述第二图像中检测到的目标对象位于所述第二图像的设定区域;
所述第一图像和所述第二图像中检测到的目标对象的完整度满足预设条件;
所述第一图像中检测到的目标对象在所述第一图像中所占的比例大于比例阈值且所述第二图像中检测到的目标对象在所述第二图像中所占的比例大于所述比例阈值;
第一图像和第二图像的清晰度大于清晰度阈值;
第一图像和第二图像的曝光度大于曝光度阈值。
在一种可能的实现方式中,所述装置还包括:
图像对确定模块,用于在所述第一图像和所述第二图像中的至少一个图像不满足选帧条件的情况下,确定视频流中的下一个图像对是否满足选帧条件;
伪造视频流确定模块,用于在达到预设时间段或预设数量的图像对且在所述视频流中未找到满足选帧条件的图像对的情况下,将所述视频流确定为伪造视频流。
在一种可能的实现方式中,所述第一摄像头或所述第二摄像头包括如下摄像头中的其中一种:可见光摄像头、近红外摄像头、双通摄像头。
在一种可能的实现方式中,所述装置还包括:
预处理模块,用于对所述第一图像和所述第二图像中的至少一个图像进行预处理,其中,所述预处理包含下列中的一种或任意组合:图像类型调整、尺寸调整、z分数标准化处理、亮度调整;
所述目标区域确定模块,包括:
目标区域确定子模块,用于对所述预处理后的第一图像进行目标对象检测,得到第一目标区域,以及对所述预处理后的第二图像进行目标对象检测,得到第二目标区域。
在一种可能的实现方式中,所述目标对象为人脸。
图10是根据示例性实施例示出的一种电子设备的框图。电子装置可以被提供为一终端、一服务器或其它形态的设备。例如,电子设备可以是活体检测装置800。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图10,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由装置800的处理器820执行以完成上述方法。
图11是根据示例性实施例示出的一种活体检测装置的框图。例如,装置1900可以被提供为一服务器。参照图11,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由装置1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种活体检测方法,其特征在于,所述方法包括:
对双目摄像装置中的第一摄像头采集的第一图像进行目标对象的检测,得到第一目标区域,以及对所述双目摄像装置中的第二摄像头采集的第二图像进行所述目标对象的检测,得到第二目标区域;
根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息;
基于所述目标对象的关键点深度信息,确定所述目标对象是否为活体。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息,包括:
对所述第一目标区域进行关键点的检测,得到所述第一目标区域的关键点信息,并对所述第二目标区域进行关键点的检测,得到所述第二目标区域的关键点信息;
根据所述第一目标区域的关键点信息和所述第二目标区域的关键点信息,确定所述目标对象的关键点深度信息。
3.根据权利要求1或2所述的方法,其特征在于,基于所述目标对象的关键点深度信息,确定所述目标对象是否为活体,包括:
基于所述目标对象的关键点深度信息,确定深度离散度;
根据所述深度离散度,确定所述目标对象是否为活体。
4.根据权利要求2或3所述的方法,其特征在于,所述方法还包括:
确定所述第一目标区域和所述第二目标区域是否一致;
所述根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息,包括:
在确定所述第一目标区域和所述第二目标区域一致的情况下,根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息。
5.一种活体检测装置,其特征在于,所述装置包括:
目标区域确定模块,用于对双目摄像装置中的第一摄像头采集的第一图像进行目标对象的检测,得到第一目标区域,以及对所述双目摄像装置中的第二摄像头采集的第二图像进行所述目标对象的检测,得到第二目标区域;
关键点深度信息获取模块,用于根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息;
第一活体检测模块,用于基于所述目标对象的关键点深度信息,确定所述目标对象是否为活体。
6.根据权利要求5所述的装置,其特征在于,所述关键点深度信息获取模块,包括:
关键点检测子模块,用于对所述第一目标区域进行关键点的检测,得到所述第一目标区域的关键点信息,并对所述第二目标区域进行关键点的检测,得到所述第二目标区域的关键点信息;
第一关键点深度信息获取子模块,用于根据所述第一目标区域的关键点信息和所述第二目标区域的关键点信息,确定所述目标对象的关键点深度信息。
7.根据权利要求5或6所述的装置,其特征在于,所述活体检测模块,包括:
离散度确定子模块,用于基于所述目标对象的关键点深度信息,确定深度离散度;
活体检测子模块,用于根据所述深度离散度,确定所述目标对象是否为活体。
8.根据权利要求6或7所述的装置,其特征在于,所述装置还包括:
一致性确定模块,用于确定所述第一目标区域和所述第二目标区域是否一致;
所述关键点深度信息获取模块,还包括:
第二关键点深度信息获取子模块,用于在确定所述第一目标区域和所述第二目标区域一致的情况下,根据所述第一目标区域和所述第二目标区域,得到所述目标对象的关键点深度信息。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1至4中任意一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至4中任意一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810481863.3A CN108764091B (zh) | 2018-05-18 | 2018-05-18 | 活体检测方法及装置、电子设备和存储介质 |
PCT/CN2018/115500 WO2019218621A1 (zh) | 2018-05-18 | 2018-11-14 | 活体检测方法及装置、电子设备和存储介质 |
JP2019565559A JP6844038B2 (ja) | 2018-05-18 | 2018-11-14 | 生体検出方法及び装置、電子機器並びに記憶媒体 |
US16/236,265 US10956714B2 (en) | 2018-05-18 | 2018-12-28 | Method and apparatus for detecting living body, electronic device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810481863.3A CN108764091B (zh) | 2018-05-18 | 2018-05-18 | 活体检测方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108764091A true CN108764091A (zh) | 2018-11-06 |
CN108764091B CN108764091B (zh) | 2020-11-17 |
Family
ID=64008357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810481863.3A Active CN108764091B (zh) | 2018-05-18 | 2018-05-18 | 活体检测方法及装置、电子设备和存储介质 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6844038B2 (zh) |
CN (1) | CN108764091B (zh) |
WO (1) | WO2019218621A1 (zh) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934195A (zh) * | 2019-03-21 | 2019-06-25 | 东北大学 | 一种基于信息融合的反欺骗三维人脸识别方法 |
CN110059607A (zh) * | 2019-04-11 | 2019-07-26 | 深圳市华付信息技术有限公司 | 活体多重检测方法、装置、计算机设备及存储介质 |
CN110059579A (zh) * | 2019-03-27 | 2019-07-26 | 北京三快在线科技有限公司 | 用于活体检验的方法和装置,电子设备和存储介质 |
CN110059590A (zh) * | 2019-03-29 | 2019-07-26 | 努比亚技术有限公司 | 一种人脸活体验证方法、装置、移动终端及可读存储介质 |
CN110110582A (zh) * | 2019-03-14 | 2019-08-09 | 广州市金其利信息科技有限公司 | 结合3d结构光、红外光及可见光的人脸识别方法及系统 |
CN110223338A (zh) * | 2019-06-11 | 2019-09-10 | 中科创达(重庆)汽车科技有限公司 | 基于图像提取的深度信息计算方法、装置及电子设备 |
CN110472487A (zh) * | 2019-07-03 | 2019-11-19 | 平安科技(深圳)有限公司 | 活体用户检测方法、装置、计算机设备和存储介质 |
WO2019218621A1 (zh) * | 2018-05-18 | 2019-11-21 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
CN110532957A (zh) * | 2019-08-30 | 2019-12-03 | 北京市商汤科技开发有限公司 | 人脸识别方法及装置、电子设备和存储介质 |
CN110555930A (zh) * | 2019-08-30 | 2019-12-10 | 北京市商汤科技开发有限公司 | 门锁控制方法及装置、电子设备和存储介质 |
CN110942032A (zh) * | 2019-11-27 | 2020-03-31 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
CN111160178A (zh) * | 2019-12-19 | 2020-05-15 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
WO2020134238A1 (zh) * | 2018-12-29 | 2020-07-02 | 北京市商汤科技开发有限公司 | 活体检测方法、装置以及存储介质 |
CN111368944A (zh) * | 2020-05-27 | 2020-07-03 | 支付宝(杭州)信息技术有限公司 | 翻拍图像、证件照识别、模型训练方法、装置及电子设备 |
WO2020147346A1 (zh) * | 2019-01-15 | 2020-07-23 | 珠海格力电器股份有限公司 | 图像识别方法、系统及装置 |
WO2020151489A1 (zh) * | 2019-01-25 | 2020-07-30 | 杭州海康威视数字技术股份有限公司 | 基于面部识别的活体检测的方法、电子设备和存储介质 |
CN111723626A (zh) * | 2019-03-22 | 2020-09-29 | 北京地平线机器人技术研发有限公司 | 用于活体检测的方法、装置和电子设备 |
CN112183271A (zh) * | 2020-09-18 | 2021-01-05 | 海宁奕斯伟集成电路设计有限公司 | 一种图像处理的方法及装置 |
CN112200056A (zh) * | 2020-09-30 | 2021-01-08 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN112200057A (zh) * | 2020-09-30 | 2021-01-08 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN112528949A (zh) * | 2020-12-24 | 2021-03-19 | 杭州慧芯达科技有限公司 | 一种基于多波段光的双目人脸识别方法和系统 |
US10956714B2 (en) | 2018-05-18 | 2021-03-23 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, electronic device, and storage medium |
CN112651327A (zh) * | 2020-12-22 | 2021-04-13 | 平安普惠企业管理有限公司 | 一种无感的活体检测方法、装置、计算机设备及存储介质 |
CN112927307A (zh) * | 2021-03-05 | 2021-06-08 | 深圳市商汤科技有限公司 | 一种标定方法、装置、电子设备及存储介质 |
CN113052035A (zh) * | 2021-03-15 | 2021-06-29 | 上海商汤智能科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN113221842A (zh) * | 2021-06-04 | 2021-08-06 | 第六镜科技(北京)有限公司 | 模型训练方法、图像识别方法、装置、设备及介质 |
CN113573038A (zh) * | 2020-04-29 | 2021-10-29 | 思特威(上海)电子科技股份有限公司 | 双目系统及深度图获取方法 |
CN114596599A (zh) * | 2020-11-20 | 2022-06-07 | 中移动信息技术有限公司 | 一种人脸识别活体检测方法、装置、设备及计算机存储介质 |
WO2023273499A1 (zh) * | 2021-06-28 | 2023-01-05 | 上海商汤智能科技有限公司 | 深度检测方法及装置、电子设备和存储介质 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210050684A (ko) * | 2019-10-29 | 2021-05-10 | 에스케이하이닉스 주식회사 | 이미지 처리 시스템 |
CN112991188B (zh) * | 2019-12-02 | 2023-06-27 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、存储介质、电子设备 |
CN111914785B (zh) * | 2020-08-10 | 2023-12-05 | 北京小米松果电子有限公司 | 一种提高人脸图像清晰度的方法、装置及存储介质 |
CN112347916B (zh) * | 2020-11-05 | 2023-11-17 | 安徽继远软件有限公司 | 基于视频图像分析的电力现场作业安全监控方法及装置 |
CN112580621B (zh) * | 2020-12-24 | 2022-04-29 | 成都新希望金融信息有限公司 | 身份证翻拍识别方法、装置、电子设备及存储介质 |
CN112766175B (zh) * | 2021-01-21 | 2024-05-28 | 宠爱王国(北京)网络科技有限公司 | 活体检测方法、装置及非易失性存储介质 |
CN112949467B (zh) * | 2021-02-26 | 2024-03-08 | 北京百度网讯科技有限公司 | 人脸检测方法、装置、电子设备和存储介质 |
CN113191286B (zh) * | 2021-05-08 | 2023-04-25 | 重庆紫光华山智安科技有限公司 | 图像数据质量检测调优方法、系统、设备及介质 |
CN113255512B (zh) * | 2021-05-21 | 2023-07-28 | 北京百度网讯科技有限公司 | 用于活体识别的方法、装置、设备以及存储介质 |
CN113344782B (zh) * | 2021-05-31 | 2023-07-18 | 浙江大华技术股份有限公司 | 图像拼接方法、装置、存储介质及电子装置 |
CN113822160B (zh) * | 2021-08-20 | 2023-09-19 | 西安交通大学 | 深度伪造检测模型的评测方法、系统及设备 |
CN114355627B (zh) * | 2022-01-05 | 2023-06-30 | 北京蜂巢世纪科技有限公司 | 一种镜腿长度调整方法、装置、电子设备及存储介质 |
CN114742885B (zh) * | 2022-06-13 | 2022-08-26 | 山东省科学院海洋仪器仪表研究所 | 一种双目视觉系统中的目标一致性判定方法 |
CN117994865A (zh) * | 2024-04-01 | 2024-05-07 | 杭州海康威视数字技术股份有限公司 | 一种双目面部匹配方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622588A (zh) * | 2012-03-08 | 2012-08-01 | 无锡数字奥森科技有限公司 | 双验证人脸防伪方法及装置 |
CN103530599A (zh) * | 2013-04-17 | 2014-01-22 | Tcl集团股份有限公司 | 一种真实人脸和图片人脸的区别方法和系统 |
US20150193649A1 (en) * | 2012-02-05 | 2015-07-09 | Apple Inc. | Enhanced face detection using depth information |
CN105023010A (zh) * | 2015-08-17 | 2015-11-04 | 中国科学院半导体研究所 | 一种人脸活体检测方法及系统 |
CN108229279A (zh) * | 2017-04-14 | 2018-06-29 | 深圳市商汤科技有限公司 | 人脸图像处理方法、装置和电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003178306A (ja) * | 2001-12-12 | 2003-06-27 | Toshiba Corp | 個人認証装置および個人認証方法 |
JP2006099614A (ja) * | 2004-09-30 | 2006-04-13 | Toshiba Corp | 生体判別装置および生体判別方法 |
WO2016107638A1 (en) * | 2014-12-29 | 2016-07-07 | Keylemon Sa | An image face processing method and apparatus |
CN105205458A (zh) * | 2015-09-16 | 2015-12-30 | 北京邮电大学 | 人脸活体检测方法、装置及系统 |
CN105335722B (zh) * | 2015-10-30 | 2021-02-02 | 商汤集团有限公司 | 一种基于深度图像信息的检测系统及方法 |
CN108764091B (zh) * | 2018-05-18 | 2020-11-17 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
-
2018
- 2018-05-18 CN CN201810481863.3A patent/CN108764091B/zh active Active
- 2018-11-14 JP JP2019565559A patent/JP6844038B2/ja active Active
- 2018-11-14 WO PCT/CN2018/115500 patent/WO2019218621A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150193649A1 (en) * | 2012-02-05 | 2015-07-09 | Apple Inc. | Enhanced face detection using depth information |
CN102622588A (zh) * | 2012-03-08 | 2012-08-01 | 无锡数字奥森科技有限公司 | 双验证人脸防伪方法及装置 |
CN103530599A (zh) * | 2013-04-17 | 2014-01-22 | Tcl集团股份有限公司 | 一种真实人脸和图片人脸的区别方法和系统 |
CN105023010A (zh) * | 2015-08-17 | 2015-11-04 | 中国科学院半导体研究所 | 一种人脸活体检测方法及系统 |
CN108229279A (zh) * | 2017-04-14 | 2018-06-29 | 深圳市商汤科技有限公司 | 人脸图像处理方法、装置和电子设备 |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019218621A1 (zh) * | 2018-05-18 | 2019-11-21 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
US10956714B2 (en) | 2018-05-18 | 2021-03-23 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, electronic device, and storage medium |
US11393256B2 (en) | 2018-12-29 | 2022-07-19 | Beijing Sensetime Technology Development Co., Ltd. | Method and device for liveness detection, and storage medium |
CN111444744A (zh) * | 2018-12-29 | 2020-07-24 | 北京市商汤科技开发有限公司 | 活体检测方法、装置以及存储介质 |
WO2020134238A1 (zh) * | 2018-12-29 | 2020-07-02 | 北京市商汤科技开发有限公司 | 活体检测方法、装置以及存储介质 |
WO2020147346A1 (zh) * | 2019-01-15 | 2020-07-23 | 珠海格力电器股份有限公司 | 图像识别方法、系统及装置 |
US11830230B2 (en) | 2019-01-25 | 2023-11-28 | Hangzhou Hikvision Digital Technology Co., Ltd. | Living body detection method based on facial recognition, and electronic device and storage medium |
CN111488756B (zh) * | 2019-01-25 | 2023-10-03 | 杭州海康威视数字技术股份有限公司 | 基于面部识别的活体检测的方法、电子设备和存储介质 |
CN111488756A (zh) * | 2019-01-25 | 2020-08-04 | 杭州海康威视数字技术股份有限公司 | 基于面部识别的活体检测的方法、电子设备和存储介质 |
WO2020151489A1 (zh) * | 2019-01-25 | 2020-07-30 | 杭州海康威视数字技术股份有限公司 | 基于面部识别的活体检测的方法、电子设备和存储介质 |
CN110110582A (zh) * | 2019-03-14 | 2019-08-09 | 广州市金其利信息科技有限公司 | 结合3d结构光、红外光及可见光的人脸识别方法及系统 |
CN109934195A (zh) * | 2019-03-21 | 2019-06-25 | 东北大学 | 一种基于信息融合的反欺骗三维人脸识别方法 |
CN111723626B (zh) * | 2019-03-22 | 2024-05-07 | 北京地平线机器人技术研发有限公司 | 用于活体检测的方法、装置和电子设备 |
CN111723626A (zh) * | 2019-03-22 | 2020-09-29 | 北京地平线机器人技术研发有限公司 | 用于活体检测的方法、装置和电子设备 |
CN110059579A (zh) * | 2019-03-27 | 2019-07-26 | 北京三快在线科技有限公司 | 用于活体检验的方法和装置,电子设备和存储介质 |
CN110059590A (zh) * | 2019-03-29 | 2019-07-26 | 努比亚技术有限公司 | 一种人脸活体验证方法、装置、移动终端及可读存储介质 |
CN110059590B (zh) * | 2019-03-29 | 2023-06-30 | 努比亚技术有限公司 | 一种人脸活体验证方法、装置、移动终端及可读存储介质 |
CN110059607A (zh) * | 2019-04-11 | 2019-07-26 | 深圳市华付信息技术有限公司 | 活体多重检测方法、装置、计算机设备及存储介质 |
CN110223338A (zh) * | 2019-06-11 | 2019-09-10 | 中科创达(重庆)汽车科技有限公司 | 基于图像提取的深度信息计算方法、装置及电子设备 |
CN110472487B (zh) * | 2019-07-03 | 2024-05-10 | 平安科技(深圳)有限公司 | 活体用户检测方法、装置、计算机设备和存储介质 |
WO2021000415A1 (zh) * | 2019-07-03 | 2021-01-07 | 平安科技(深圳)有限公司 | 活体用户检测方法、装置、计算机设备和存储介质 |
CN110472487A (zh) * | 2019-07-03 | 2019-11-19 | 平安科技(深圳)有限公司 | 活体用户检测方法、装置、计算机设备和存储介质 |
CN110532957B (zh) * | 2019-08-30 | 2021-05-07 | 北京市商汤科技开发有限公司 | 人脸识别方法及装置、电子设备和存储介质 |
CN110532957A (zh) * | 2019-08-30 | 2019-12-03 | 北京市商汤科技开发有限公司 | 人脸识别方法及装置、电子设备和存储介质 |
CN110555930B (zh) * | 2019-08-30 | 2021-03-26 | 北京市商汤科技开发有限公司 | 门锁控制方法及装置、电子设备和存储介质 |
CN110555930A (zh) * | 2019-08-30 | 2019-12-10 | 北京市商汤科技开发有限公司 | 门锁控制方法及装置、电子设备和存储介质 |
CN110942032B (zh) * | 2019-11-27 | 2022-07-15 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
CN110942032A (zh) * | 2019-11-27 | 2020-03-31 | 深圳市商汤科技有限公司 | 活体检测方法及装置、存储介质 |
CN111160178A (zh) * | 2019-12-19 | 2020-05-15 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN111160178B (zh) * | 2019-12-19 | 2024-01-12 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN113573038A (zh) * | 2020-04-29 | 2021-10-29 | 思特威(上海)电子科技股份有限公司 | 双目系统及深度图获取方法 |
CN111368944A (zh) * | 2020-05-27 | 2020-07-03 | 支付宝(杭州)信息技术有限公司 | 翻拍图像、证件照识别、模型训练方法、装置及电子设备 |
CN112183271A (zh) * | 2020-09-18 | 2021-01-05 | 海宁奕斯伟集成电路设计有限公司 | 一种图像处理的方法及装置 |
CN112200057A (zh) * | 2020-09-30 | 2021-01-08 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN112200056A (zh) * | 2020-09-30 | 2021-01-08 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN112200057B (zh) * | 2020-09-30 | 2023-10-31 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN114596599A (zh) * | 2020-11-20 | 2022-06-07 | 中移动信息技术有限公司 | 一种人脸识别活体检测方法、装置、设备及计算机存储介质 |
CN112651327A (zh) * | 2020-12-22 | 2021-04-13 | 平安普惠企业管理有限公司 | 一种无感的活体检测方法、装置、计算机设备及存储介质 |
CN112528949A (zh) * | 2020-12-24 | 2021-03-19 | 杭州慧芯达科技有限公司 | 一种基于多波段光的双目人脸识别方法和系统 |
CN112927307A (zh) * | 2021-03-05 | 2021-06-08 | 深圳市商汤科技有限公司 | 一种标定方法、装置、电子设备及存储介质 |
CN113052035A (zh) * | 2021-03-15 | 2021-06-29 | 上海商汤智能科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN113221842B (zh) * | 2021-06-04 | 2023-12-29 | 第六镜科技(北京)集团有限责任公司 | 模型训练方法、图像识别方法、装置、设备及介质 |
CN113221842A (zh) * | 2021-06-04 | 2021-08-06 | 第六镜科技(北京)有限公司 | 模型训练方法、图像识别方法、装置、设备及介质 |
WO2023273499A1 (zh) * | 2021-06-28 | 2023-01-05 | 上海商汤智能科技有限公司 | 深度检测方法及装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2020523665A (ja) | 2020-08-06 |
JP6844038B2 (ja) | 2021-03-17 |
CN108764091B (zh) | 2020-11-17 |
WO2019218621A1 (zh) | 2019-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764091A (zh) | 活体检测方法及装置、电子设备和存储介质 | |
US20210073953A1 (en) | Method for applying bokeh effect to image and recording medium | |
US10956714B2 (en) | Method and apparatus for detecting living body, electronic device, and storage medium | |
US9971955B2 (en) | Photographing method, photo management method and device | |
CN110084775A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
TWI766201B (zh) | 活體檢測方法、裝置以及儲存介質 | |
CN105580051B (zh) | 图像捕捉反馈 | |
CN107771336A (zh) | 基于颜色分布的图像中的特征检测和掩模 | |
CN105608425B (zh) | 对照片进行分类存储的方法及装置 | |
CN108846377A (zh) | 用于拍摄图像的方法和装置 | |
CN109977739A (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN108764069A (zh) | 活体检测方法及装置 | |
CN110503703A (zh) | 用于生成图像的方法和装置 | |
CN104580886B (zh) | 拍摄控制方法及装置 | |
CN106204435A (zh) | 图像处理方法及装置 | |
WO2023134743A1 (zh) | 调节智能灯光设备的方法、机器人、电子设备、存储介质及计算机程序 | |
CN108304789A (zh) | 脸部识别方法及装置 | |
CN110503023A (zh) | 活体检测方法及装置、电子设备和存储介质 | |
CN108154547A (zh) | 图像生成方法和装置 | |
CN109040605A (zh) | 拍摄引导方法、装置及移动终端和存储介质 | |
CN109977847A (zh) | 图像生成方法及装置、电子设备和存储介质 | |
CN109087238A (zh) | 图像处理方法和装置、电子设备以及计算机可读存储介质 | |
CN108985176A (zh) | 图像生成方法及装置 | |
CN108197585A (zh) | 脸部识别方法和装置 | |
CN108171206A (zh) | 信息生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |