CN112269975A - 物联网人工智能人脸验证方法、系统及物联网云服务器 - Google Patents
物联网人工智能人脸验证方法、系统及物联网云服务器 Download PDFInfo
- Publication number
- CN112269975A CN112269975A CN202011113894.7A CN202011113894A CN112269975A CN 112269975 A CN112269975 A CN 112269975A CN 202011113894 A CN202011113894 A CN 202011113894A CN 112269975 A CN112269975 A CN 112269975A
- Authority
- CN
- China
- Prior art keywords
- spectral
- feature
- living body
- information
- identification information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种物联网人工智能人脸验证方法、系统及物联网云服务器,通过确定出每个连续的时间节点的每个疑似活体区域以及与当前疑似活体区域存在关联性的关联疑似活体区域,因而可以基于疑似活体区域和关联疑似活体区域的关联关系进行光谱图像特征识别后,通过人工智能模型进行人脸验证,从而可以能够提高人脸部位区域在预设时间段内的光谱条件上的变化差异的判别准确性,提高活体检测的准确性。
Description
技术领域
本发明涉及物联网及人工智能技术领域,具体而言,涉及一种物联网人工智能人脸验证方法、系统及物联网云服务器。
背景技术
在人脸验证的过程中,需要验证目标对象用户是否为真实活体,从而避免检测出一些欺诈行为,避免造成用户账户财产的损失。随着5G技术的快速发展,人脸活体检测会大量使用到物联网控制验证过程中,在传统的人脸验证方案中,在活体检测的过程中往往难以准确判别人脸部位区域在一段时间段内的光谱条件上的变化差异,从而导致活体检测的准确性较低。
发明内容
为了至少克服现有技术中的上述不足,本发明的目的在于提供一种物联网人工智能人脸验证方法、系统及物联网云服务器,通过确定出每个连续的时间节点的每个疑似活体区域以及与当前疑似活体区域存在关联性的关联疑似活体区域,因而可以基于疑似活体区域和关联疑似活体区域的关联关系进行光谱图像特征识别后,通过人工智能模型进行人脸验证,从而可以能够提高人脸部位区域在预设时间段内的光谱条件上的变化差异的判别准确性,提高活体检测的准确性。
第一方面,本发明提供一种物联网人工智能人脸验证方法,应用于物联网云服务器,所述物联网云服务器与多个物联网人脸验证终端通信连接,所述方法包括:
获取所述物联网人脸验证终端在检测到人脸验证指令时采集到的目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流;
根据所述每个连续的时间节点的人脸图像数据流确定与所述目标采集区域对应的每个疑似活体区域,对于每个疑似活体区域,从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域,其中,所述疑似活体区域之外的区域为非活体区域;
对所述当前疑似活体区域进行光谱图像特征识别,并对所述关联疑似活体区域进行光谱图像特征识别,分别得到所述当前疑似活体区域的第一光谱图像特征识别信息和所述关联疑似活体区域的第二光谱图像特征识别信息,其中,所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息分别包括各自对应的光谱条件的光谱位置坐标信息,所述光谱条件分别为各自对应的光反射特征所关联的多个预设的光谱形式;
根据所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息;
根据所述活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,并将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列,并基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果。
在第一方面的一种可能的实现方式中,所述根据所述每个连续的时间节点的人脸图像数据流确定与所述目标采集区域对应的每个疑似活体区域的步骤,包括:
根据所述每个连续的时间节点的人脸图像数据流,确定包含有所述目标采集区域的光反射特性信息的光反射动态变化信息,并在所述光反射动态变化信息中确定具有第一光反射特征的第一动态变化信息,和具有第二光反射特征的第二动态变化信息,所述第一光反射特征用于表示光反射强度大于第一预设强度所对应的光反射特征,所述第二光反射特征用于表示光反射强度小于第二预设强度所对应的光反射特征;
在与所述目标采集区域的人脸位置相对应的所述光反射动态变化信息的光反射特征中,确定人脸位置关键点的光反射特征;
获取所述第一动态变化信息上的第一动态变化像素值区间的区间大小,以及所述第二动态变化信息上的第二动态变化像素值区间的区间大小;
若所述第一动态变化像素值区间的区间大小和所述第二动态变化像素值区间的区间大小都大于或等于设定长度,则将所述第一动态变化像素值区间的区间大小与所述第二动态变化像素值区间的区间大小进行比较,若所述第一动态变化像素值区间的区间大小大于所述第二动态变化像素值区间的区间大小,则将所述第一动态变化像素值区间作为疑似活体像素值区间;
若所述第二动态变化像素值区间的区间大小大于所述第一动态变化像素值区间的区间大小,则将所述第二动态变化像素值区间作为疑似活体像素值区间;
若所述第一动态变化像素值区间的区间大小等于所述第二动态变化像素值区间的区间大小,则将所述第一动态变化像素值区间或者所述第二动态变化像素值区间作为疑似活体像素值区间;
将匹配各所述疑似活体像素值区间且与所述人脸位置关键点的光反射特征匹配的区域,确定为待定疑似活体区域,根据确定的所述待定疑似活体区域,将所述光反射动态变化信息切分为多个分割动态变化信息,并根据各所述分割动态变化信息的变化范围与预设范围之间的关系,将满足条件的待定疑似活体区域确定为所述目标采集区域对应的疑似活体区域。
在第一方面的一种可能的实现方式中,所述对于每个疑似活体区域,从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域的步骤,包括:
对于每个疑似活体区域,获取所述疑似活体区域的至少一个局部特征组,并对所述至少一个局部特征组中每个局部特征组进行解析,获取每个局部特征组所包含的关键特征点,其中,所述局部特征组用于表示所述疑似活体区域的各个局部特征点以及每个局部特征点所对应的脸部部位信息;
获取每个关键特征点在对应的时间段内的特征点变化值、特征点深度值和特征点颜色值,其中,所述特征点变化值用于描述每个关键特征点的特征点变化值、所述特征点深度值用于描述每个关键特征点的特征点深度值,所述特征点颜色值用于描述每个关键特征点的特征点颜色值;
对每个关键特征点在对应的时间段内的特征点变化值、特征点深度值和特征点颜色值进行映射关联后进行合并,得到每个关键特征点对应的特征值映射序列,所述特征值映射序列用于表示每个关键特征点在对应的时间段内的特征点变化值、特征点深度值和特征点颜色值之间的对应关系;
根据每个关键特征点对应的特征值映射序列从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域。
在第一方面的一种可能的实现方式中,所述根据所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息的步骤,包括:
获取第一光谱图像特征识别信息和所述第二光谱图像特征识别信息各自对应的光谱条件的光谱位置坐标信息之间的共同光谱位置坐标信息的光照强度以及各光谱位置坐标集合;
在根据所述光照强度确定出所述共同光谱位置坐标信息中包含有目标光谱坐标区域的情况下,根据所述共同光谱位置坐标信息在目标光谱坐标区域下的光谱位置坐标集合确定所述共同光谱位置坐标信息在设定目标光谱坐标区域下的各光谱位置坐标集合与共同光谱位置坐标信息在目标光谱坐标区域下的各光谱位置坐标集合之间的坐标区域差异之差,并将共同光谱位置坐标信息在设定目标光谱坐标区域下的与在目标光谱坐标区域下的光谱位置坐标集合的坐标区域差异相同的光谱位置坐标集合调整到相应的目标光谱坐标区域下,其中,所述目标光谱坐标区域表示光照强度处于预设异常光照强度范围内的光谱坐标区域;
在共同光谱位置坐标信息的当前设定目标光谱坐标区域下包含有多个光谱位置坐标集合的情况下,根据所述共同光谱位置坐标信息在目标光谱坐标区域下的光谱位置坐标集合确定共同光谱位置坐标信息在当前设定目标光谱坐标区域下的各光谱位置坐标集合之间的坐标区域差异之差,并根据所述各光谱位置坐标集合之间的坐标区域差异之差对当前设定目标光谱坐标区域下的各光谱位置坐标集合进行筛选;
根据所述共同光谱位置坐标信息在目标光谱坐标区域下的光谱位置坐标集合为上述筛选得到的每一个光谱位置坐标集合设置目标光谱坐标区域的标签,并将所述每一个光谱位置坐标集合调整到所述目标光谱坐标区域下;
根据所述设定目标光谱坐标区域下的第一光谱位置坐标集合、所述目标光谱坐标区域下的第二光谱位置坐标集合、所述第一光谱图像特征识别信息的第一环境影响因素参数以及所述第二光谱图像特征识别信息的第二环境影响因素参数,确定所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息各自对应的第一光谱特征向量序列和第二光谱特征向量序列;其中,所述第一光谱特征向量序列包括所述第一光谱图像特征识别信息在所述共同光谱位置坐标信息的坐标区域差异内针对所述第二光谱图像特征识别信息的对比特征点,所述第二光谱特征向量序列包括所述第二光谱图像特征识别信息在所述共同光谱位置坐标信息的坐标区域差异内针对所述第一光谱图像特征识别信息所对应的对比特征点的关联特征点,所述第一环境影响因素参数和所述第二环境影响因素参数分别用于表示所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息各自关联的光谱条件向量所对应的环境影响因素参数;
分别从所述第一光谱特征向量序列和所述第二光谱特征向量序列中确定所述第一光谱图像特征识别信息的第一候选光谱特征向量和所述第二光谱图像特征识别信息的第二候选光谱特征向量;
当确定出所述第一候选光谱特征向量和所述第二候选光谱特征向量时,以所述第一候选光谱特征向量和所述第二候选光谱特征向量进行匹配,获得匹配信息,并根据所述匹配信息判断所述第一候选光谱特征向量和所述第二候选光谱特征向量是否为多结合光谱特征向量的候选光谱特征向量,若是,则按照每个结合光谱特征向量将所述第一候选光谱特征向量和所述第二候选光谱特征向量分别转换为多个具有所述结合光谱特征向量的第一结合光谱特征向量集合和第二结合光谱特征向量集合,而后分别按照所述第一结合光谱特征向量集合和所述第二结合光谱特征向量集合查找与所述第一结合光谱特征向量集合和第二结合光谱特征向量集合具有相同或相似结合光谱特征向量的特征部位区域,并将所述匹配信息和所述特征部位区域对应的光谱特征向量集合合成对应的映射集合;
根据所述映射集合生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息。
在第一方面的一种可能的实现方式中,所述根据所述映射集合生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息的步骤,包括:
根据所述映射集合中的特征部位区域和所述特征部位区域对应的光谱特征向量集合、以及所述第一光谱图像特征识别信息的光谱条件的光谱位置坐标信息对应的第一环境影响因素参数、所述第二光谱图像特征识别信息的光谱条件的光谱位置坐标信息对应的第二环境影响因素参数,确定出所述第一光谱图像特征识别信息的第一活体特征影响信息和所述第二光谱图像特征识别信息的第二活体特征影响信息;
分别对所述第一活体特征影响信息和所述第二活体特征影响信息进行等间隔分割,得到所述第一活体特征影响信息的第一分割参数集合以及所述第二活体特征影响信息的第二分割参数集合;其中,所述第一分割参数集合中包括所述第一活体特征影响信息的多个第一光谱特征向量的特征影响信息,所述第二分割参数集合中包括所述第二活体特征影响信息的多个第二光谱特征向量的特征影响信息;
分别将所述第一活体特征影响信息对应的第一分割参数集合中的每个第一光谱特征向量的特征影响信息和所述第二活体特征影响信息对应的第二分割参数集合中的每个第二光谱特征向量的特征影响信息与预设光谱特征向量识别特征集合中的每个预设光谱特征向量识别信息的光谱特征向量进行匹配,得到所述第一活体特征影响信息与所述预设光谱特征向量识别特征集合之间的第一匹配信息以及所述第二活体特征影响信息与所述预设光谱特征向量识别特征集合之间的第二匹配信息,所述预设光谱特征向量识别特征集合包括多个已验证光谱特征向量识别信息与对应的光谱特征向量之间的对应关系;
以所述第一匹配信息和所述第二匹配信息中得到的预设光谱特征向量识别信息为匹配对象,依次进行匹配,直至所述预设光谱特征向量识别特征集合中出现一个当前光谱特征向量识别信息,使得所述第一活体特征影响信息与所述当前光谱特征向量识别信息之间的第三匹配信息与所述第一活体特征影响信息与所述预设光谱特征向量识别特征集合之间的第一匹配信息的第一重合识别信息范围大于目标预设范围,且所述第二活体特征影响信息与所述当前光谱特征向量识别信息之间的第四匹配信息与所述第二活体特征影响信息与所述当前光谱特征向量识别信息之间的第二匹配信息的第二重合识别信息范围大于所述目标预设范围;
确定所述当前光谱特征向量识别信息对应的第三活体特征,根据所述第三活体特征对所述第一分割参数集合和所述第二分割参数集合进行特征提取,得到第一活体特征和第二活体特征;
在所述第一活体特征和所述第二活体特征不匹配时,基于所述第一光谱图像特征识别信息对应的第一光谱图像特征识别类型对所述第一活体特征进行识别得到第一识别信息,并基于所述第二光谱图像特征识别信息对应的第二光谱图像特征识别类型对所述第二活体特征进行识别得到第二识别信息;
确定所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息中分别存在的与所述第一识别信息和所述第二识别信息对应的目标光谱坐标区域的目标活体特征单元,从而生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息。
在第一方面的一种可能的实现方式中,所述基于所述第一光谱图像特征识别信息对应的第一光谱图像特征识别类型对所述第一活体特征进行识别得到第一识别信息,并基于所述第二光谱图像特征识别信息对应的第二光谱图像特征识别类型对所述第二活体特征进行识别得到第二识别信息的步骤,包括:
根据所述第一光谱图像特征识别信息的第一活体特征对应的第一脸部部位区域及所述第二光谱图像特征识别信息的第二活体特征对应的第二脸部部位区域,确定所述第一光谱图像特征识别信息相对于所述第二光谱图像特征识别信息的第一关联特征以及所述第二光谱图像特征识别信息相对于所述第一光谱图像特征识别信息的第二关联特征,以得到所述第一识别信息和所述第二识别信息。
在第一方面的一种可能的实现方式中,所述根据所述活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别的步骤,包括:
根据所述活体特征识别信息确定针对每个当前疑似活体区域与对应的关联疑似活体区域的目标位置区域;
按照所述目标位置区域中每个目标位置的脸部部位标签和扫描时序分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,获得识别到的活体特征单元;
将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列;
基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果;
其中,在活体特征单元识别过程中,根据每个目标位置的扫描时序对多个目标位置进行分区,得到多个位置分区,其中,每个位置分区分别对应于一种脸部部位标签;
针对每一位置分区,生成当前位置分区下的各个目标位置对应的脸部部位区域,以及针对每一位置分区,将在不同脸部部位区域中具有相同光谱反射点的目标位置分为一对象单元,当该对象单元的目标位置中的位置连续量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个目标位置在所属脸部部位区域中的光谱反射路径进行合并,获得第一光谱反射路径;
以及,将在所属脸部部位区域中只出现一次,且在不同脸部部位区域中具有相同脸部部位标签和光谱反射路径的节点分为一对象单元,当该对象单元的目标位置中的位置连续量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个节点在所属脸部部位区域中的光谱反射路径进行合并,获得第一光谱反射路径;
将在所述脸部部位区域中只出现一次,且在不同脸部部位区域中具有相同脸部部位标签和光谱反射路径的目标位置分为一对象单元,当该对象单元的目标位置中的目标位置数量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个目标位置在所述脸部部位区域中的光谱反射路径进行合并,获得第二光谱反射路径;
根据所述第一光谱反射路径或者所述第二光谱反射路径,确定当前位置分区中的第一目标位置,并将所述当前位置分区中的其它目标位置确定为第二目标位置;
根据所述当前位置分区中的第一目标位置和第二目标位置的光谱反射顺序,分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别。
在第一方面的一种可能的实现方式中,所述基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果的步骤,包括:
基于人工智能模型提取每个所述拼接光谱特征向量序列的特征信息,并将所述拼接光谱特征向量序列的特征信息输入到分类层进行分类,输出所述拼接光谱特征向量序列的特征信息在每个分类标签的置信度,其中,所述分类标签包括验证通过标签和验证不通过标签;
根据所述拼接光谱特征向量序列的特征信息在每个分类标签的置信度得到所述目标采集区域的人脸验证结果。
在第一方面的一种可能的实现方式中,所述人工智能模型通过预先配置的训练样本集合以及所述训练样本集合中每个训练样本对应的训练分类标签基于深度学习网络训练得到,所述训练样本为光谱特征向量序列。
第二方面,本发明实施例还提供一种物联网人工智能人脸验证系统,所述物联网人工智能人脸验证系统包括物联网云服务器以及与所述物联网云服务器通信连接的多个物联网人脸验证终端;
所述物联网人脸验证终端,用于在检测到人脸验证指令时,采集目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流并将所述预设时间段内每个连续的时间节点的人脸图像数据流发送给所述物联网云服务器;
所述物联网云服务器,用于获取所述物联网人脸验证终端在检测到人脸验证指令时采集到的目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流;
所述物联网云服务器,用于根据所述每个连续的时间节点的人脸图像数据流确定与所述目标采集区域对应的每个疑似活体区域,对于每个疑似活体区域,从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域,其中,所述疑似活体区域之外的区域为非活体区域;
所述物联网云服务器,用于对所述当前疑似活体区域进行光谱图像特征识别,并对所述关联疑似活体区域进行光谱图像特征识别,分别得到所述当前疑似活体区域的第一光谱图像特征识别信息和所述关联疑似活体区域的第二光谱图像特征识别信息,其中,所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息分别包括各自对应的光谱条件的光谱位置坐标信息,所述光谱条件分别为各自对应的光反射特征所关联的多个预设的光谱形式;
所述物联网云服务器,用于根据所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息;
所述物联网云服务器,用于根据所述活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,并将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列,并基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果。
第三方面,本发明实施例还提供一种物联网人工智能人脸验证装置,应用于物联网云服务器,所述物联网云服务器与多个物联网人脸验证终端通信连接,所述装置包括:
获取模块,用于获取所述物联网人脸验证终端在检测到人脸验证指令时采集到的目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流;
确定模块,用于根据所述每个连续的时间节点的人脸图像数据流确定与所述目标采集区域对应的每个疑似活体区域,对于每个疑似活体区域,从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域,其中,所述疑似活体区域之外的区域为非活体区域;
第一识别模块,用于对所述当前疑似活体区域进行光谱图像特征识别,并对所述关联疑似活体区域进行光谱图像特征识别,分别得到所述当前疑似活体区域的第一光谱图像特征识别信息和所述关联疑似活体区域的第二光谱图像特征识别信息,其中,所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息分别包括各自对应的光谱条件的光谱位置坐标信息,所述光谱条件分别为各自对应的光反射特征所关联的多个预设的光谱形式;
生成模块,用于根据所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息;
第二识别模块,用于根据所述活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,并将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列,并基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果。
第四方面,本发明实施例还提供一种物联网云服务器,所述物联网云服务器包括处理器、机器可读存储介质和网络接口,所述机器可读存储介质、所述网络接口以及所述处理器之间通过总线系统相连,所述网络接口用于与至少一个物联网人脸验证终端通信连接,所述机器可读存储介质用于存储程序、指令或代码,所述处理器用于执行所述机器可读存储介质中的程序、指令或代码,以执行第一方面或者第一方面中任意一个可能的设计中的物联网人工智能人脸验证方法。
第五方面,本发明实施例提供一种计算机可读存储介质,计算机可读存储介质中存储有指令,当其被执行时,使得计算机执行上述第一方面或者第一方面中任意一个可能的设计中的物联网人工智能人脸验证方法。
基于上述任意一个方面,本发明通过确定出每个连续的时间节点的每个疑似活体区域以及与当前疑似活体区域存在关联性的关联疑似活体区域,因而可以基于疑似活体区域和关联疑似活体区域的关联关系进行光谱图像特征识别后,通过人工智能模型进行人脸验证,从而可以能够提高人脸部位区域在预设时间段内的光谱条件上的变化差异的判别准确性,提高活体检测的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它相关的附图。
图1为本发明实施例提供的物联网人工智能人脸验证系统的应用场景示意图;
图2为本发明实施例提供的物联网人工智能人脸验证方法的流程示意图;
图3为本发明实施例提供的物联网人工智能人脸验证装置的功能模块示意图;
图4为本发明实施例提供的用于实现上述的物联网人工智能人脸验证方法的物联网云服务器的结构示意框图。
具体实施方式
下面结合说明书附图对本发明进行具体说明,方法实施例中的具体操作方法也可以应用于装置实施例或系统实施例中。
图1是本发明一种实施例提供的物联网人工智能人脸验证系统10的交互示意图。物联网人工智能人脸验证系统10可以包括物联网云服务器100以及与所述物联网云物联网云服务器100通信连接的物联网人脸验证终端200。图1所示的物联网人工智能人脸验证系统10仅为一种可行的示例,在其它可行的实施例中,该物联网人工智能人脸验证系统10也可以仅包括图1所示组成部分的其中一部分或者还可以包括其它的组成部分。
本实施例中,物联网人脸验证终端200可以包括移动设备、平板计算机、膝上型计算机等或其任意组合。在一些实施例中,移动设备可以包括智能家居设备、可穿戴设备、智能移动设备、虚拟现实设备、或增强现实设备等,或其任意组合。在一些实施例中,智能家居设备可以包括智能电器设备的控制设备、智能监控设备、智能电视、智能摄像机等,或其任意组合。在一些实施例中,可穿戴设备可包括智能手环、智能鞋带、智能玻璃、智能头盔、智能手表、智能服装、智能背包、智能配件等,或其任何组合。在一些实施例中,智能移动设备可以包括智能手机、个人数字助理、游戏设备等,或其任意组合。在一些实施例中,虚拟现实设备和/或增强现实设备可以包括虚拟现实头盔、虚拟现实玻璃、虚拟现实贴片、增强现实头盔、增强现实玻璃、或增强现实贴片等,或其任意组合。例如,虚拟现实设备和/或增强现实设备可以包括各种虚拟现实产品等。
本实施例中,物联网人工智能人脸验证系统10中的物联网云物联网云服务器100和物联网人脸验证终端200可以通过配合执行以下方法实施例所描述的物联网移动基站的网络安全防护方法,具体物联网云服务器100和物联网人脸验证终端200的执行步骤部分可以参照以下方法实施例的详细描述。
为了解决前述背景技术中的技术问题,图2为本发明实施例提供的物联网人工智能人脸验证方法的流程示意图,本实施例提供的物联网人工智能人脸验证方法可以由图1中所示的物联网云服务器100执行,下面对该物联网人工智能人脸验证方法进行详细介绍。
步骤S110,获取物联网人脸验证终端200在检测到人脸验证指令时采集到的目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流。
步骤S120,根据每个连续的时间节点的人脸图像数据流确定与目标采集区域对应的每个疑似活体区域,对于每个疑似活体区域,从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域。
步骤S130,对当前疑似活体区域进行光谱图像特征识别,并对关联疑似活体区域进行光谱图像特征识别,分别得到当前疑似活体区域的第一光谱图像特征识别信息和关联疑似活体区域的第二光谱图像特征识别信息。
步骤S140,根据第一光谱图像特征识别信息和第二光谱图像特征识别信息生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息。
步骤S150,根据活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,并将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列,并基于人工智能模型对每个拼接光谱特征向量序列进行识别得到目标采集区域的人脸验证结果。
本实施例中,物联网人脸验证终端200可以在各种物联网业务(例如智能家居控制、智慧医疗联动、智慧城市数据调取联动等业务)被启用之后,在检测到人脸验证指令时,采集目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流。其中,目标采集区域可以是指物联网人脸验证终端200能够采集到的区域,预设时间段可以根据不同的物联网业务需求进行灵活设置,例如可以设置5秒为一个预设时间段。每个时间节点可以是指某个具体的时刻,也可以是指在该预设时间段内的某个子时间段,在此不作具体限制。
本实施例中,疑似活体区域可以理解为需要进行活体检测的区域,而疑似活体区域之外的区域通常可以明显被确定为非活体区域。
本实施例中,第一光谱图像特征识别信息和第二光谱图像特征识别信息分别包括各自对应的光谱条件的光谱位置坐标信息,光谱条件可以分别为各自对应的光反射特征(例如光谱反射率等)所关联的多个预设的光谱形式,例如光谱条件下的不同光谱外环境的光谱反射形式。
基于上述设计,本实施例通过确定出每个连续的时间节点的每个疑似活体区域以及与当前疑似活体区域存在关联性的关联疑似活体区域,因而可以基于疑似活体区域和关联疑似活体区域的关联关系进行光谱图像特征识别后,通过人工智能模型进行人脸验证,从而可以能够提高人脸部位区域在预设时间段内的光谱条件上的变化差异的判别准确性,提高活体检测的准确性。
在一种可能的实现方式中,针对步骤S120,为了提高每个疑似活体区域在确定过程中的准确性,减少识别误差,本实施例进一步考虑到光谱反射过程中可能产生的动态变化,例如本实施例可以根据每个连续的时间节点的人脸图像数据流,确定包含有目标采集区域的光反射特性信息的光反射动态变化信息,并在光反射动态变化信息中确定具有第一光反射特征的第一动态变化信息,和具有第二光反射特征的第二动态变化信息。
其中,第一光反射特征可以用于表示光反射强度大于第一预设强度所对应的光反射特征,第二光反射特征可以用于表示光反射强度小于第二预设强度所对应的光反射特征。值得说明的是,第一预设强度和第二预设强度可以相同,也可以不同,具体可以灵活设置,当第一预设强度和第二预设强度不以相同时,那么第二预设强度小于第一预设强度。
接下来,在与目标采集区域的人脸位置相对应的光反射动态变化信息的光反射特征中,确定人脸位置关键点的光反射特征,并获取第一动态变化信息上的第一动态变化像素值区间的区间大小,以及第二动态变化信息上的第二动态变化像素值区间的区间大小。
若第一动态变化像素值区间的区间大小和第二动态变化像素值区间的区间大小都大于或等于设定长度,则将第一动态变化像素值区间的区间大小与第二动态变化像素值区间的区间大小进行比较,若第一动态变化像素值区间的区间大小大于第二动态变化像素值区间的区间大小,则将第一动态变化像素值区间作为疑似活体像素值区间。
或者,若第二动态变化像素值区间的区间大小大于第一动态变化像素值区间的区间大小,则将第二动态变化像素值区间作为疑似活体像素值区间。
或者,若第一动态变化像素值区间的区间大小等于第二动态变化像素值区间的区间大小,则将第一动态变化像素值区间或者第二动态变化像素值区间作为疑似活体像素值区间。
由此,可以将匹配各疑似活体像素值区间且与人脸位置关键点的光反射特征匹配的区域,确定为待定疑似活体区域,根据确定的待定疑似活体区域,将光反射动态变化信息切分为多个分割动态变化信息,并根据各分割动态变化信息的变化范围与预设范围之间的关系,将满足条件的待定疑似活体区域确定为目标采集区域对应的疑似活体区域。
例如,在一种可能的示例中,各分割动态变化信息的变化范围处于预设范围时,可以确定待定疑似活体区域满足条件,否则确定待定疑似活体区域不满足条件。
在一种可能的实现方式中,仍旧针对步骤S120,为了便于准确获取到与当前疑似活体区域存在关联性的关联疑似活体区域,对于每个疑似活体区域,可以获取疑似活体区域的至少一个局部特征组,并对至少一个局部特征组中每个局部特征组进行解析,获取每个局部特征组所包含的关键特征点。
其中,值得说明的是,局部特征组可以用于表示疑似活体区域的各个局部特征点以及每个局部特征点所对应的脸部部位信息,例如眼睛部位,鼻子部位,嘴唇部位等。
在此基础上,获取每个关键特征点在对应的时间段内的特征点变化值、特征点深度值和特征点颜色值。
其中,值得说明的是,特征点变化值可以用于描述每个关键特征点的特征点变化值,特征点深度值可以用于描述每个关键特征点的特征点深度值,特征点颜色值可以用于描述每个关键特征点的特征点颜色值。
由此,可以对每个关键特征点在对应的时间段内的特征点变化值、特征点深度值和特征点颜色值进行映射关联后进行合并,得到每个关键特征点对应的特征值映射序列。可以理解的是,合并得到的特征值映射序列可以用于表示每个关键特征点在对应的时间段内的特征点变化值、特征点深度值和特征点颜色值之间的对应关系。
最后,则可以根据每个关键特征点对应的特征值映射序列从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域。
例如,可以从剩余的时间节点的人脸图像数据流中查找与每个关键特征点对应的特征值映射序列存在匹配关系的区域作为与当前疑似活体区域存在关联性的关联疑似活体区域。
在一种可能的实现方式中,针对步骤S130,在对所述当前疑似活体区域进行光谱图像特征识别,并对所述关联疑似活体区域进行光谱图像特征识别的过程中,可以基于光谱重排的光谱特征提取方法对所述当前疑似活体区域进行光谱图像特征识别,并对所述关联疑似活体区域进行光谱图像特征识别,从而第一光谱图像特征识别信息和第二光谱图像特征识别信息,关于基于光谱重排的光谱特征提取方法为现有技术,在此不再赘述。
在一种可能的实现方式中,针对步骤S140,本实施例具体可以获取第一光谱图像特征识别信息和第二光谱图像特征识别信息各自对应的光谱条件的光谱位置坐标信息之间的共同光谱位置坐标信息的光照强度以及各光谱位置坐标集合。
在此基础上,可以在根据光照强度确定出共同光谱位置坐标信息中包含有目标光谱坐标区域的情况下,根据共同光谱位置坐标信息在目标光谱坐标区域下的光谱位置坐标集合确定共同光谱位置坐标信息在设定目标光谱坐标区域下的各光谱位置坐标集合与共同光谱位置坐标信息在目标光谱坐标区域下的各光谱位置坐标集合之间的坐标区域差异之差,并将共同光谱位置坐标信息在设定目标光谱坐标区域下的与在目标光谱坐标区域下的光谱位置坐标集合的坐标区域差异相同的光谱位置坐标集合调整到相应的目标光谱坐标区域下。
其中,值得说明的是,上述的目标光谱坐标区域可以表示光照强度处于预设异常光照强度范围内的光谱坐标区域。
接下来,可以在共同光谱位置坐标信息的当前设定目标光谱坐标区域下包含有多个光谱位置坐标集合的情况下,根据共同光谱位置坐标信息在目标光谱坐标区域下的光谱位置坐标集合确定共同光谱位置坐标信息在当前设定目标光谱坐标区域下的各光谱位置坐标集合之间的坐标区域差异之差,并根据各光谱位置坐标集合之间的坐标区域差异之差对当前设定目标光谱坐标区域下的各光谱位置坐标集合进行筛选。
然后,可以根据共同光谱位置坐标信息在目标光谱坐标区域下的光谱位置坐标集合为上述筛选得到的每一个光谱位置坐标集合设置目标光谱坐标区域的标签,并将每一个光谱位置坐标集合调整到目标光谱坐标区域下。
由此,可以根据设定目标光谱坐标区域下的第一光谱位置坐标集合、目标光谱坐标区域下的第二光谱位置坐标集合、第一光谱图像特征识别信息的第一环境影响因素参数以及第二光谱图像特征识别信息的第二环境影响因素参数,确定第一光谱图像特征识别信息和第二光谱图像特征识别信息各自对应的第一光谱特征向量序列和第二光谱特征向量序列。
其中,值得说明的是,第一光谱特征向量序列包括第一光谱图像特征识别信息在共同光谱位置坐标信息的坐标区域差异内针对第二光谱图像特征识别信息的对比特征点,第二光谱特征向量序列包括第二光谱图像特征识别信息在共同光谱位置坐标信息的坐标区域差异内针对第一光谱图像特征识别信息所对应的对比特征点的关联特征点,第一环境影响因素参数和第二环境影响因素参数分别用于表示第一光谱图像特征识别信息和第二光谱图像特征识别信息各自关联的光谱条件向量所对应的环境影响因素参数。
然后,分别从第一光谱特征向量序列和第二光谱特征向量序列中确定第一光谱图像特征识别信息的第一候选光谱特征向量和第二光谱图像特征识别信息的第二候选光谱特征向量。当确定出第一候选光谱特征向量和第二候选光谱特征向量时,以第一候选光谱特征向量和第二候选光谱特征向量进行匹配,获得匹配信息,并根据匹配信息判断第一候选光谱特征向量和第二候选光谱特征向量是否为多结合光谱特征向量的候选光谱特征向量,若是,则按照每个结合光谱特征向量将第一候选光谱特征向量和第二候选光谱特征向量分别转换为多个具有结合光谱特征向量的第一结合光谱特征向量集合和第二结合光谱特征向量集合,而后分别按照第一结合光谱特征向量集合和第二结合光谱特征向量集合查找与第一结合光谱特征向量集合和第二结合光谱特征向量集合具有相同或相似结合光谱特征向量的特征部位区域,并将匹配信息和特征部位区域对应的光谱特征向量集合合成对应的映射集合。
最后,可以根据映射集合生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息。
例如,在一种可能的实现方式中,本实施例可以根据映射集合中的特征部位区域和特征部位区域对应的光谱特征向量集合、以及第一光谱图像特征识别信息的光谱条件的光谱位置坐标信息对应的第一环境影响因素参数、第二光谱图像特征识别信息的光谱条件的光谱位置坐标信息对应的第二环境影响因素参数,确定出第一光谱图像特征识别信息的第一活体特征影响信息和第二光谱图像特征识别信息的第二活体特征影响信息。
值得说明的是,上述的第一环境影响因素参数和第二环境影响因素参可以是指各自对应的光谱环境下的参数,例如光谱环境温度等。
然后,分别对第一活体特征影响信息和第二活体特征影响信息进行等间隔分割,得到第一活体特征影响信息的第一分割参数集合以及第二活体特征影响信息的第二分割参数集合。
其中,第一分割参数集合中可以包括第一活体特征影响信息的多个第一光谱特征向量的特征影响信息,第二分割参数集合中可以包括第二活体特征影响信息的多个第二光谱特征向量的特征影响信息,上述的特征影响信息可以用于表征相对应的光谱环境下的参数。
然后,可以分别将第一活体特征影响信息对应的第一分割参数集合中的每个第一光谱特征向量的特征影响信息和第二活体特征影响信息对应的第二分割参数集合中的每个第二光谱特征向量的特征影响信息与预设光谱特征向量识别特征集合中的每个预设光谱特征向量识别信息的光谱特征向量进行匹配,得到第一活体特征影响信息与预设光谱特征向量识别特征集合之间的第一匹配信息以及第二活体特征影响信息与预设光谱特征向量识别特征集合之间的第二匹配信息。
其中,值得说明的是,上述的预设光谱特征向量识别特征集合可以包括多个已验证光谱特征向量识别信息与对应的光谱特征向量之间的对应关系。
接着,可以以第一匹配信息和第二匹配信息中得到的预设光谱特征向量识别信息为匹配对象,依次进行匹配,直至预设光谱特征向量识别特征集合中出现一个当前光谱特征向量识别信息,使得第一活体特征影响信息与当前光谱特征向量识别信息之间的第三匹配信息与第一活体特征影响信息与预设光谱特征向量识别特征集合之间的第一匹配信息的第一重合识别信息范围大于目标预设范围,且第二活体特征影响信息与当前光谱特征向量识别信息之间的第四匹配信息与第二活体特征影响信息与当前光谱特征向量识别信息之间的第二匹配信息的第二重合识别信息范围大于目标预设范围。
在此基础上,确定当前光谱特征向量识别信息对应的第三活体特征,根据第三活体特征对第一分割参数集合和第二分割参数集合进行特征提取,得到第一活体特征和第二活体特征,在第一活体特征和第二活体特征不匹配时,基于第一光谱图像特征识别信息对应的第一光谱图像特征识别类型对第一活体特征进行识别得到第一识别信息,并基于第二光谱图像特征识别信息对应的第二光谱图像特征识别类型对第二活体特征进行识别得到第二识别信息。
例如,在一种可能的实现方式中,可以根据第一光谱图像特征识别信息的第一活体特征对应的第一脸部部位区域及第二光谱图像特征识别信息的第二活体特征对应的第二脸部部位区域,确定第一光谱图像特征识别信息相对于第二光谱图像特征识别信息的第一关联特征以及第二光谱图像特征识别信息相对于第一光谱图像特征识别信息的第二关联特征,以得到第一识别信息和第二识别信息。
由此,可以确定第一光谱图像特征识别信息和第二光谱图像特征识别信息中分别存在的与第一识别信息和第二识别信息对应的目标光谱坐标区域的目标活体特征单元,从而生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息。
在一种可能的实现方式中,针对步骤S150,本实施例可以根据活体特征识别信息确定针对每个当前疑似活体区域与对应的关联疑似活体区域的目标位置区域,然后按照目标位置区域中每个目标位置的脸部部位标签和扫描时序分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,获得识别到的活体特征单元,在将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列,从而可以基于人工智能模型对每个拼接光谱特征向量序列进行识别得到目标采集区域的人脸验证结果。
其中,作为一种示例,在活体特征单元识别过程中,可以根据每个目标位置的扫描时序对多个目标位置进行分区,得到多个位置分区,其中,每个位置分区分别对应于一种脸部部位标签。
然后,可以针对每一位置分区,生成当前位置分区下的各个目标位置对应的脸部部位区域,以及针对每一位置分区,将在不同脸部部位区域中具有相同光谱反射点的目标位置分为一对象单元,当该对象单元的目标位置中的位置连续量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个目标位置在所属脸部部位区域中的光谱反射路径进行合并,获得第一光谱反射路径。
并且,可以将在所属脸部部位区域中只出现一次,且在不同脸部部位区域中具有相同脸部部位标签和光谱反射路径的节点分为一对象单元,当该对象单元的目标位置中的位置连续量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个节点在所属脸部部位区域中的光谱反射路径进行合并,获得第一光谱反射路径。
再例如,可以将在脸部部位区域中只出现一次,且在不同脸部部位区域中具有相同脸部部位标签和光谱反射路径的目标位置分为一对象单元,当该对象单元的目标位置中的目标位置数量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个目标位置在脸部部位区域中的光谱反射路径进行合并,获得第二光谱反射路径。
由此,可以根据第一光谱反射路径或者第二光谱反射路径,确定当前位置分区中的第一目标位置,并将当前位置分区中的其它目标位置确定为第二目标位置,从而可以根据当前位置分区中的第一目标位置和第二目标位置的光谱反射顺序,分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别。
其中,作为一种可能的示例,在基于人工智能模型对每个拼接光谱特征向量序列进行识别得到目标采集区域的人脸验证结果的过程中,本实施例可以基于人工智能模型提取每个拼接光谱特征向量序列的特征信息,并将拼接光谱特征向量序列的特征信息输入到分类层进行分类,输出拼接光谱特征向量序列的特征信息在每个分类标签的置信度。其中,分类标签包括验证通过标签和验证不通过标签。
然后,根据拼接光谱特征向量序列的特征信息在每个分类标签的置信度得到目标采集区域的人脸验证结果。
例如,假设拼接光谱特征向量序列的特征信息在验证通过标签的置信度大于设定置信度,则表示人脸验证结果为验证通过,又例如,假设拼接光谱特征向量序列的特征信息在验证不通过标签的置信度大于设定置信度,则表示人脸验证结果为验证不通过。
可选地,上述的人工智能模型可以通过预先配置的训练样本集合以及训练样本集合中每个训练样本对应的训练分类标签基于深度学习网络训练得到,训练样本即为光谱特征向量序列,具体的训练方式可以参照现有技术中的深度学习网络的常规训练方式即可,训练过程不是本发明实施例的重点,在此不作赘述。
图3为本发明实施例提供的物联网人工智能人脸验证装置300的功能模块示意图,本实施例可以根据上述物联网云服务器100执行的方法实施例对该物联网人工智能人脸验证装置300进行功能模块的划分,也即该物联网人工智能人脸验证装置300所对应的以下各个功能模块可以用于执行上述物联网云服务器100执行的各个方法实施例。其中,该物联网人工智能人脸验证装置300可以包括获取模块310、确定模块320、第一识别模块330、生成模块340以及第二识别模块350,下面分别对该物联网人工智能人脸验证装置300的各个功能模块的功能进行详细阐述。
获取模块310,用于获取物联网人脸验证终端200在检测到人脸验证指令时采集到的目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流。其中,获取模块310可以用于执行上述的步骤S110,关于获取模块310的详细实现方式可以参照上述针对步骤S110的详细描述即可。
确定模块320,用于根据每个连续的时间节点的人脸图像数据流确定与目标采集区域对应的每个疑似活体区域,对于每个疑似活体区域,从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域,其中,疑似活体区域之外的区域为非活体区域。其中,确定模块320可以用于执行上述的步骤S120,关于确定模块320的详细实现方式可以参照上述针对步骤S120的详细描述即可。
第一识别模块330,用于对当前疑似活体区域进行光谱图像特征识别,并对关联疑似活体区域进行光谱图像特征识别,分别得到当前疑似活体区域的第一光谱图像特征识别信息和关联疑似活体区域的第二光谱图像特征识别信息,其中,第一光谱图像特征识别信息和第二光谱图像特征识别信息分别包括各自对应的光谱条件的光谱位置坐标信息,光谱条件分别为各自对应的光反射特征所关联的多个预设的光谱形式。其中,第一识别模块330可以用于执行上述的步骤S130,关于第一识别模块330的详细实现方式可以参照上述针对步骤S130的详细描述即可。
生成模块340,用于根据第一光谱图像特征识别信息和第二光谱图像特征识别信息生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息。其中,生成模块340可以用于执行上述的步骤S140,关于生成模块340的详细实现方式可以参照上述针对步骤S140的详细描述即可。
第二识别模块350,用于根据活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,并将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列,并基于人工智能模型对每个拼接光谱特征向量序列进行识别得到目标采集区域的人脸验证结果。其中,第二识别模块350可以用于执行上述的步骤S150,关于第二识别模块350的详细实现方式可以参照上述针对步骤S150的详细描述即可。
进一步地,图4为本发明实施例提供的用于执行上述物联网人工智能人脸验证方法的物联网云服务器100的结构示意图。如图4所示,该物联网云服务器100可包括网络接口110、机器可读存储介质120、处理器130以及总线140。处理器130可以是一个或多个,图4中以一个处理器130为例。网络接口110、机器可读存储介质120以及处理器130可以通过总线140或其它方式连接,图4中以通过总线140连接为例。
机器可读存储介质120作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的物联网人工智能人脸验证方法对应的程序指令/模块(例如图3中所示的物联网人工智能人脸验证装置300的获取模块310、确定模块320、第一识别模块330、生成模块340以及第二识别模块350)。处理器130通过检测存储在机器可读存储介质120中的软件程序、指令以及模块,从而执行终端设备的各种功能应用以及数据处理,即实现上述的物联网人工智能人脸验证方法,在此不再赘述。
机器可读存储介质120可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,机器可读存储介质120可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-OnlyMemory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRateSDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambus RAM,DR RAM)。应注意,本文描述的系统和方法的存储器旨在包括但不限于这些和任意其它适合发布节点的存储器。在一些实例中,机器可读存储介质120可进一步包括相对于处理器130远程设置的存储器,这些远程存储器可以通过网络连接至物联网云服务器100。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器130可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器130中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器130可以是通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。
物联网云服务器100可以通过网络接口110和其它设备(例如物联网人脸验证终端200)进行信息交互。网络接口110可以是电路、总线、收发器或者其它任意可以用于进行信息交互的装置。处理器130可以利用网络接口110收发信息。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种物联网人工智能人脸验证方法,其特征在于,应用于物联网云服务器,所述物联网云服务器与多个物联网人脸验证终端通信连接,所述方法包括:
获取所述物联网人脸验证终端在检测到人脸验证指令时采集到的目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流;
根据所述每个连续的时间节点的人脸图像数据流确定与所述目标采集区域对应的每个疑似活体区域,对于每个疑似活体区域,从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域,其中,所述疑似活体区域之外的区域为非活体区域;
对所述当前疑似活体区域进行光谱图像特征识别,并对所述关联疑似活体区域进行光谱图像特征识别,分别得到所述当前疑似活体区域的第一光谱图像特征识别信息和所述关联疑似活体区域的第二光谱图像特征识别信息,其中,所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息分别包括各自对应的光谱条件的光谱位置坐标信息,所述光谱条件分别为各自对应的光反射特征所关联的多个预设的光谱形式;
根据所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息;
根据所述活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,并将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列,并基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果;
所述根据所述活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别的步骤,包括:
根据所述活体特征识别信息确定针对每个当前疑似活体区域与对应的关联疑似活体区域的目标位置区域;
按照所述目标位置区域中每个目标位置的脸部部位标签和扫描时序分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,获得识别到的活体特征单元;
将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列;
基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果;
其中,在活体特征单元识别过程中,根据每个目标位置的扫描时序对多个目标位置进行分区,得到多个位置分区,其中,每个位置分区分别对应于一种脸部部位标签;
针对每一位置分区,生成当前位置分区下的各个目标位置对应的脸部部位区域,以及针对每一位置分区,将在不同脸部部位区域中具有相同光谱反射点的目标位置分为一对象单元,当该对象单元的目标位置中的位置连续量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个目标位置在所属脸部部位区域中的光谱反射路径进行合并,获得第一光谱反射路径;
将在所属脸部部位区域中只出现一次,且在不同脸部部位区域中具有相同脸部部位标签和光谱反射路径的节点分为一对象单元,当该对象单元的目标位置中的位置连续量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个节点在所属脸部部位区域中的光谱反射路径进行合并,获得第一光谱反射路径;
将在脸部部位区域中只出现一次,且在不同脸部部位区域中具有相同脸部部位标签和光谱反射路径的目标位置分为一对象单元,当该对象单元的目标位置中的目标位置数量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个目标位置在脸部部位区域中的光谱反射路径进行合并,获得第二光谱反射路径;
根据第一光谱反射路径或者第二光谱反射路径,确定当前位置分区中的第一目标位置,并将当前位置分区中的其它目标位置确定为第二目标位置,从而根据当前位置分区中的第一目标位置和第二目标位置的光谱反射顺序,分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别。
2.根据权利要求1所述的物联网人工智能人脸验证方法,其特征在于,所述根据所述每个连续的时间节点的人脸图像数据流确定与所述目标采集区域对应的每个疑似活体区域的步骤,包括:
根据所述每个连续的时间节点的人脸图像数据流,确定包含有所述目标采集区域的光反射特性信息的光反射动态变化信息,并在所述光反射动态变化信息中确定具有第一光反射特征的第一动态变化信息,和具有第二光反射特征的第二动态变化信息,所述第一光反射特征用于表示光反射强度大于第一预设强度所对应的光反射特征,所述第二光反射特征用于表示光反射强度小于第二预设强度所对应的光反射特征;
在与所述目标采集区域的人脸位置相对应的所述光反射动态变化信息的光反射特征中,确定人脸位置关键点的光反射特征;
获取所述第一动态变化信息上的第一动态变化像素值区间的区间大小,以及所述第二动态变化信息上的第二动态变化像素值区间的区间大小;
若所述第一动态变化像素值区间的区间大小和所述第二动态变化像素值区间的区间大小都大于或等于设定长度,则将所述第一动态变化像素值区间的区间大小与所述第二动态变化像素值区间的区间大小进行比较,若所述第一动态变化像素值区间的区间大小大于所述第二动态变化像素值区间的区间大小,则将所述第一动态变化像素值区间作为疑似活体像素值区间;
若所述第二动态变化像素值区间的区间大小大于所述第一动态变化像素值区间的区间大小,则将所述第二动态变化像素值区间作为疑似活体像素值区间;
若所述第一动态变化像素值区间的区间大小等于所述第二动态变化像素值区间的区间大小,则将所述第一动态变化像素值区间或者所述第二动态变化像素值区间作为疑似活体像素值区间;
将匹配各所述疑似活体像素值区间且与所述人脸位置关键点的光反射特征匹配的区域,确定为待定疑似活体区域,根据确定的所述待定疑似活体区域,将所述光反射动态变化信息切分为多个分割动态变化信息,并根据各所述分割动态变化信息的变化范围与预设范围之间的关系,将满足条件的待定疑似活体区域确定为所述目标采集区域对应的疑似活体区域。
3.根据权利要求1所述的物联网人工智能人脸验证方法,其特征在于,所述对于每个疑似活体区域,从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域的步骤,包括:
对于每个疑似活体区域,获取所述疑似活体区域的至少一个局部特征组,并对所述至少一个局部特征组中每个局部特征组进行解析,获取每个局部特征组所包含的关键特征点,其中,所述局部特征组用于表示所述疑似活体区域的各个局部特征点以及每个局部特征点所对应的脸部部位信息;
获取每个关键特征点在对应的时间段内的特征点变化值、特征点深度值和特征点颜色值,其中,所述特征点变化值用于描述每个关键特征点的特征点变化值、所述特征点深度值用于描述每个关键特征点的特征点深度值,所述特征点颜色值用于描述每个关键特征点的特征点颜色值;
对每个关键特征点在对应的时间段内的特征点变化值、特征点深度值和特征点颜色值进行映射关联后进行合并,得到每个关键特征点对应的特征值映射序列,所述特征值映射序列用于表示每个关键特征点在对应的时间段内的特征点变化值、特征点深度值和特征点颜色值之间的对应关系;
根据每个关键特征点对应的特征值映射序列从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域。
4.根据权利要求1-3中任意一项所述的物联网人工智能人脸验证方法,其特征在于,所述根据所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息的步骤,包括:
获取第一光谱图像特征识别信息和所述第二光谱图像特征识别信息各自对应的光谱条件的光谱位置坐标信息之间的共同光谱位置坐标信息的光照强度以及各光谱位置坐标集合;
在根据所述光照强度确定出所述共同光谱位置坐标信息中包含有目标光谱坐标区域的情况下,根据所述共同光谱位置坐标信息在目标光谱坐标区域下的光谱位置坐标集合确定所述共同光谱位置坐标信息在设定目标光谱坐标区域下的各光谱位置坐标集合与共同光谱位置坐标信息在目标光谱坐标区域下的各光谱位置坐标集合之间的坐标区域差异之差,并将共同光谱位置坐标信息在设定目标光谱坐标区域下的与在目标光谱坐标区域下的光谱位置坐标集合的坐标区域差异相同的光谱位置坐标集合调整到相应的目标光谱坐标区域下,其中,所述目标光谱坐标区域表示光照强度处于预设异常光照强度范围内的光谱坐标区域;
在共同光谱位置坐标信息的当前设定目标光谱坐标区域下包含有多个光谱位置坐标集合的情况下,根据所述共同光谱位置坐标信息在目标光谱坐标区域下的光谱位置坐标集合确定共同光谱位置坐标信息在当前设定目标光谱坐标区域下的各光谱位置坐标集合之间的坐标区域差异之差,并根据所述各光谱位置坐标集合之间的坐标区域差异之差对当前设定目标光谱坐标区域下的各光谱位置坐标集合进行筛选;
根据所述共同光谱位置坐标信息在目标光谱坐标区域下的光谱位置坐标集合为上述筛选得到的每一个光谱位置坐标集合设置目标光谱坐标区域的标签,并将所述每一个光谱位置坐标集合调整到所述目标光谱坐标区域下;
根据所述设定目标光谱坐标区域下的第一光谱位置坐标集合、所述目标光谱坐标区域下的第二光谱位置坐标集合、所述第一光谱图像特征识别信息的第一环境影响因素参数以及所述第二光谱图像特征识别信息的第二环境影响因素参数,确定所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息各自对应的第一光谱特征向量序列和第二光谱特征向量序列;
分别从所述第一光谱特征向量序列和所述第二光谱特征向量序列中确定所述第一光谱图像特征识别信息的第一候选光谱特征向量和所述第二光谱图像特征识别信息的第二候选光谱特征向量;
当确定出所述第一候选光谱特征向量和所述第二候选光谱特征向量时,以所述第一候选光谱特征向量和所述第二候选光谱特征向量进行匹配,获得匹配信息,并根据所述匹配信息判断所述第一候选光谱特征向量和所述第二候选光谱特征向量是否为多结合光谱特征向量的候选光谱特征向量,若是,则按照每个结合光谱特征向量将所述第一候选光谱特征向量和所述第二候选光谱特征向量分别转换为多个具有所述结合光谱特征向量的第一结合光谱特征向量集合和第二结合光谱特征向量集合,而后分别按照所述第一结合光谱特征向量集合和所述第二结合光谱特征向量集合查找与所述第一结合光谱特征向量集合和第二结合光谱特征向量集合具有相同或相似结合光谱特征向量的特征部位区域,并将所述匹配信息和所述特征部位区域对应的光谱特征向量集合合成对应的映射集合;
根据所述映射集合生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息。
5.根据权利要求4所述的物联网人工智能人脸验证方法,其特征在于,所述根据所述映射集合生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息的步骤,包括:
根据所述映射集合中的特征部位区域和所述特征部位区域对应的光谱特征向量集合、以及所述第一光谱图像特征识别信息的光谱条件的光谱位置坐标信息对应的第一环境影响因素参数、所述第二光谱图像特征识别信息的光谱条件的光谱位置坐标信息对应的第二环境影响因素参数,确定出所述第一光谱图像特征识别信息的第一活体特征影响信息和所述第二光谱图像特征识别信息的第二活体特征影响信息;
分别对所述第一活体特征影响信息和所述第二活体特征影响信息进行等间隔分割,得到所述第一活体特征影响信息的第一分割参数集合以及所述第二活体特征影响信息的第二分割参数集合;其中,所述第一分割参数集合中包括所述第一活体特征影响信息的多个第一光谱特征向量的特征影响信息,所述第二分割参数集合中包括所述第二活体特征影响信息的多个第二光谱特征向量的特征影响信息;
分别将所述第一活体特征影响信息对应的第一分割参数集合中的每个第一光谱特征向量的特征影响信息和所述第二活体特征影响信息对应的第二分割参数集合中的每个第二光谱特征向量的特征影响信息与预设光谱特征向量识别特征集合中的每个预设光谱特征向量识别信息的光谱特征向量进行匹配,得到所述第一活体特征影响信息与所述预设光谱特征向量识别特征集合之间的第一匹配信息以及所述第二活体特征影响信息与所述预设光谱特征向量识别特征集合之间的第二匹配信息,所述预设光谱特征向量识别特征集合包括多个已验证光谱特征向量识别信息与对应的光谱特征向量之间的对应关系;
以所述第一匹配信息和所述第二匹配信息中得到的预设光谱特征向量识别信息为匹配对象,依次进行匹配,直至所述预设光谱特征向量识别特征集合中出现一个当前光谱特征向量识别信息,使得所述第一活体特征影响信息与所述当前光谱特征向量识别信息之间的第三匹配信息与所述第一活体特征影响信息与所述预设光谱特征向量识别特征集合之间的第一匹配信息的第一重合识别信息范围大于目标预设范围,且所述第二活体特征影响信息与所述当前光谱特征向量识别信息之间的第四匹配信息与所述第二活体特征影响信息与所述当前光谱特征向量识别信息之间的第二匹配信息的第二重合识别信息范围大于所述目标预设范围;
确定所述当前光谱特征向量识别信息对应的第三活体特征,根据所述第三活体特征对所述第一分割参数集合和所述第二分割参数集合进行特征提取,得到第一活体特征和第二活体特征;
在所述第一活体特征和所述第二活体特征不匹配时,基于所述第一光谱图像特征识别信息对应的第一光谱图像特征识别类型对所述第一活体特征进行识别得到第一识别信息,并基于所述第二光谱图像特征识别信息对应的第二光谱图像特征识别类型对所述第二活体特征进行识别得到第二识别信息;
确定所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息中分别存在的与所述第一识别信息和所述第二识别信息对应的目标光谱坐标区域的目标活体特征单元,从而生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息。
6.根据权利要求1所述的物联网人工智能人脸验证方法,其特征在于,所述基于所述第一光谱图像特征识别信息对应的第一光谱图像特征识别类型对所述第一活体特征进行识别得到第一识别信息,并基于所述第二光谱图像特征识别信息对应的第二光谱图像特征识别类型对所述第二活体特征进行识别得到第二识别信息的步骤,包括:
根据所述第一光谱图像特征识别信息的第一活体特征对应的第一脸部部位区域及所述第二光谱图像特征识别信息的第二活体特征对应的第二脸部部位区域,确定所述第一光谱图像特征识别信息相对于所述第二光谱图像特征识别信息的第一关联特征以及所述第二光谱图像特征识别信息相对于所述第一光谱图像特征识别信息的第二关联特征,以得到所述第一识别信息和所述第二识别信息。
7.根据权利要求1所述的物联网人工智能人脸验证方法,其特征在于,所述基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果的步骤,包括:
基于人工智能模型提取每个所述拼接光谱特征向量序列的特征信息,并将所述拼接光谱特征向量序列的特征信息输入到分类层进行分类,输出所述拼接光谱特征向量序列的特征信息在每个分类标签的置信度,其中,所述分类标签包括验证通过标签和验证不通过标签;
根据所述拼接光谱特征向量序列的特征信息在每个分类标签的置信度得到所述目标采集区域的人脸验证结果。
8.根据权利要求7所述的物联网人工智能人脸验证方法,其特征在于,所述人工智能模型通过预先配置的训练样本集合以及所述训练样本集合中每个训练样本对应的训练分类标签基于深度学习网络训练得到,所述训练样本为光谱特征向量序列。
9.一种物联网人工智能人脸验证系统,其特征在于,所述物联网人工智能人脸验证系统包括物联网云服务器以及与所述物联网云服务器通信连接的多个物联网人脸验证终端;
所述物联网人脸验证终端,用于在检测到人脸验证指令时,采集目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流并将所述预设时间段内每个连续的时间节点的人脸图像数据流发送给所述物联网云服务器;
所述物联网云服务器,用于获取所述物联网人脸验证终端在检测到人脸验证指令时采集到的目标采集区域在预设时间段内每个连续的时间节点的人脸图像数据流;
所述物联网云服务器,用于根据所述每个连续的时间节点的人脸图像数据流确定与所述目标采集区域对应的每个疑似活体区域,对于每个疑似活体区域,从剩余的时间节点的人脸图像数据流中分别确定与当前疑似活体区域存在关联性的关联疑似活体区域,其中,所述疑似活体区域之外的区域为非活体区域;
所述物联网云服务器,用于对所述当前疑似活体区域进行光谱图像特征识别,并对所述关联疑似活体区域进行光谱图像特征识别,分别得到所述当前疑似活体区域的第一光谱图像特征识别信息和所述关联疑似活体区域的第二光谱图像特征识别信息,其中,所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息分别包括各自对应的光谱条件的光谱位置坐标信息,所述光谱条件分别为各自对应的光反射特征所关联的多个预设的光谱形式;
所述物联网云服务器,用于根据所述第一光谱图像特征识别信息和所述第二光谱图像特征识别信息生成每个当前疑似活体区域与对应的关联疑似活体区域的活体特征识别信息;
所述物联网云服务器,用于根据所述活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,并将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列,并基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果;
所述物联网云服务器根据所述活体特征识别信息分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别的方式,包括:
根据所述活体特征识别信息确定针对每个当前疑似活体区域与对应的关联疑似活体区域的目标位置区域;
按照所述目标位置区域中每个目标位置的脸部部位标签和扫描时序分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别,获得识别到的活体特征单元;
将识别到的活体特征单元按照时序排列的方式进行拼接后,得到多个拼接光谱特征向量序列;
基于人工智能模型对每个所述拼接光谱特征向量序列进行识别得到所述目标采集区域的人脸验证结果;
其中,在活体特征单元识别过程中,所述物联网云服务器根据每个目标位置的扫描时序对多个目标位置进行分区,得到多个位置分区,其中,每个位置分区分别对应于一种脸部部位标签;
针对每一位置分区,生成当前位置分区下的各个目标位置对应的脸部部位区域,以及针对每一位置分区,将在不同脸部部位区域中具有相同光谱反射点的目标位置分为一对象单元,当该对象单元的目标位置中的位置连续量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个目标位置在所属脸部部位区域中的光谱反射路径进行合并,获得第一光谱反射路径;
将在所属脸部部位区域中只出现一次,且在不同脸部部位区域中具有相同脸部部位标签和光谱反射路径的节点分为一对象单元,当该对象单元的目标位置中的位置连续量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个节点在所属脸部部位区域中的光谱反射路径进行合并,获得第一光谱反射路径;
将在脸部部位区域中只出现一次,且在不同脸部部位区域中具有相同脸部部位标签和光谱反射路径的目标位置分为一对象单元,当该对象单元的目标位置中的目标位置数量与当前位置分区下的位置总数量的比值超过第一阈值时,将该对象单元的目标位置中的每个目标位置在脸部部位区域中的光谱反射路径进行合并,获得第二光谱反射路径;
根据第一光谱反射路径或者第二光谱反射路径,确定当前位置分区中的第一目标位置,并将当前位置分区中的其它目标位置确定为第二目标位置,从而根据当前位置分区中的第一目标位置和第二目标位置的光谱反射顺序,分别对每个当前疑似活体区域与对应的关联疑似活体区域进行活体特征单元识别。
10.一种物联网云服务器,其特征在于,所述物联网云服务器包括处理器、机器可读存储介质和网络接口,所述机器可读存储介质、所述网络接口以及所述处理器之间通过总线系统相连,所述网络接口用于与至少一个物联网人脸验证终端通信连接,所述机器可读存储介质用于存储程序、指令或代码,所述处理器用于执行所述机器可读存储介质中的程序、指令或代码,以执行权利要求1-8中任意一项的物联网人工智能人脸验证方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011113894.7A CN112269975A (zh) | 2020-03-31 | 2020-03-31 | 物联网人工智能人脸验证方法、系统及物联网云服务器 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010239943.5A CN111460419B (zh) | 2020-03-31 | 2020-03-31 | 物联网人工智能人脸验证方法及物联网云服务器 |
CN202011113894.7A CN112269975A (zh) | 2020-03-31 | 2020-03-31 | 物联网人工智能人脸验证方法、系统及物联网云服务器 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010239943.5A Division CN111460419B (zh) | 2020-03-31 | 2020-03-31 | 物联网人工智能人脸验证方法及物联网云服务器 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112269975A true CN112269975A (zh) | 2021-01-26 |
Family
ID=71683409
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011113906.6A Withdrawn CN112269976A (zh) | 2020-03-31 | 2020-03-31 | 物联网人工智能人脸验证方法及系统 |
CN202011113894.7A Withdrawn CN112269975A (zh) | 2020-03-31 | 2020-03-31 | 物联网人工智能人脸验证方法、系统及物联网云服务器 |
CN202010239943.5A Active CN111460419B (zh) | 2020-03-31 | 2020-03-31 | 物联网人工智能人脸验证方法及物联网云服务器 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011113906.6A Withdrawn CN112269976A (zh) | 2020-03-31 | 2020-03-31 | 物联网人工智能人脸验证方法及系统 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010239943.5A Active CN111460419B (zh) | 2020-03-31 | 2020-03-31 | 物联网人工智能人脸验证方法及物联网云服务器 |
Country Status (1)
Country | Link |
---|---|
CN (3) | CN112269976A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113569937A (zh) * | 2021-01-20 | 2021-10-29 | 廖彩红 | 基于大数据的人工智能模型机器学习方法及服务器 |
CN114463792B (zh) * | 2022-02-10 | 2023-04-07 | 厦门熵基科技有限公司 | 一种多光谱识别方法、装置、设备及可读存储介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8306265B2 (en) * | 2009-01-12 | 2012-11-06 | Eastman Kodak Company | Detection of animate or inanimate objects |
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
CN102622588B (zh) * | 2012-03-08 | 2013-10-09 | 无锡中科奥森科技有限公司 | 双验证人脸防伪方法及装置 |
CN103886301B (zh) * | 2014-03-28 | 2017-01-18 | 北京中科奥森数据科技有限公司 | 一种人脸活体检测方法 |
CN105447432B (zh) * | 2014-08-27 | 2019-09-13 | 杨健伟 | 一种基于局部运动模式的人脸防伪方法 |
US9396537B2 (en) * | 2014-09-09 | 2016-07-19 | EyeVerify, Inc. | Systems and methods for liveness analysis |
CN107111745A (zh) * | 2014-11-13 | 2017-08-29 | 英特尔公司 | 图像生物特征识别中的欺骗检测 |
CN104881632A (zh) * | 2015-04-28 | 2015-09-02 | 南京邮电大学 | 高光谱人脸识别方法 |
CN105160289A (zh) * | 2015-07-03 | 2015-12-16 | 深圳市金立通信设备有限公司 | 一种人脸识别方法及终端 |
CN105389553A (zh) * | 2015-11-06 | 2016-03-09 | 北京汉王智远科技有限公司 | 一种活体检测方法和装置 |
RU2741768C2 (ru) * | 2016-06-30 | 2021-01-28 | Конинклейке Филипс Н.В. | Способ и устройство для систем детектирования/распознавания лица |
CN106446772A (zh) * | 2016-08-11 | 2017-02-22 | 天津大学 | 一种人脸识别系统中的防欺骗方法 |
CN106778518B (zh) * | 2016-11-24 | 2021-01-08 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN107368810A (zh) * | 2017-07-20 | 2017-11-21 | 北京小米移动软件有限公司 | 人脸检测方法及装置 |
CN109492455B (zh) * | 2017-09-12 | 2020-11-13 | 中国移动通信有限公司研究院 | 活体对象检测及身份认证方法、介质、系统和相关装置 |
CN107808115A (zh) * | 2017-09-27 | 2018-03-16 | 联想(北京)有限公司 | 一种活体检测方法、装置及存储介质 |
CN107992842B (zh) * | 2017-12-13 | 2020-08-11 | 深圳励飞科技有限公司 | 活体检测方法、计算机装置及计算机可读存储介质 |
CN108038456B (zh) * | 2017-12-19 | 2024-01-26 | 中科视拓(北京)科技有限公司 | 一种人脸识别系统中的防欺骗方法 |
CN110659541A (zh) * | 2018-06-29 | 2020-01-07 | 深圳云天励飞技术有限公司 | 图像识别方法、装置及存储介质 |
CN109034102B (zh) * | 2018-08-14 | 2023-06-16 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
CN109697416B (zh) * | 2018-12-14 | 2022-11-18 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法和相关装置 |
CN110110597B (zh) * | 2019-04-02 | 2021-08-27 | 北京旷视科技有限公司 | 活体检测方法、装置及活体检测终端 |
CN110516616A (zh) * | 2019-08-29 | 2019-11-29 | 河南中原大数据研究院有限公司 | 一种基于大规模rgb以及近红外数据集的双重认证人脸防伪方法 |
CN111432410B (zh) * | 2020-03-31 | 2021-05-25 | 福建海峡基石科技集团有限公司 | 物联网移动基站的网络安全防护方法及物联网云服务器 |
-
2020
- 2020-03-31 CN CN202011113906.6A patent/CN112269976A/zh not_active Withdrawn
- 2020-03-31 CN CN202011113894.7A patent/CN112269975A/zh not_active Withdrawn
- 2020-03-31 CN CN202010239943.5A patent/CN111460419B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111460419B (zh) | 2020-11-27 |
CN112269976A (zh) | 2021-01-26 |
CN111460419A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325964B (zh) | 一种人脸追踪方法、装置及终端 | |
CN108961315B (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN111626123A (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
CN111641809B (zh) | 基于物联网和人工智能的安防监控方法及云通信服务器 | |
CN111460419B (zh) | 物联网人工智能人脸验证方法及物联网云服务器 | |
CN111695495B (zh) | 人脸识别方法、电子设备及存储介质 | |
CN111160275B (zh) | 行人重识别模型训练方法、装置、计算机设备和存储介质 | |
CN111432410B (zh) | 物联网移动基站的网络安全防护方法及物联网云服务器 | |
CN110046577B (zh) | 行人属性预测方法、装置、计算机设备和存储介质 | |
CN111444422B (zh) | 物流信息推荐方法、装置、物流配送系统及服务器 | |
CN111723226B (zh) | 基于大数据和互联网的信息管理方法及人工智能云服务器 | |
CN111191533A (zh) | 行人重识别的处理方法、装置、计算机设备和存储介质 | |
CN113496208B (zh) | 视频的场景分类方法及装置、存储介质、终端 | |
CN108200087B (zh) | web入侵检测方法、装置、计算机设备和存储介质 | |
CN114119460A (zh) | 半导体图像缺陷识别方法、装置、计算机设备和存储介质 | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子系统 | |
CN114359787A (zh) | 目标属性识别方法、装置、计算机设备及存储介质 | |
CN111881740A (zh) | 人脸识别方法、装置、电子设备及介质 | |
CN114565955A (zh) | 人脸属性识别模型训练、社区人员监控方法、装置、设备 | |
CN111353429A (zh) | 基于眼球转向的感兴趣度方法与系统 | |
CN111783812A (zh) | 违禁图像识别方法、装置和计算机可读存储介质 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN111723227B (zh) | 基于人工智能和互联网的数据分析方法及云计算服务平台 | |
CN113705559B (zh) | 基于人工智能的文字识别方法及装置、电子设备 | |
CN115660817A (zh) | 一种分类模型训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210126 |
|
WW01 | Invention patent application withdrawn after publication |