CN117558058A - 用户登录方法、系统、计算机设备及存储介质 - Google Patents

用户登录方法、系统、计算机设备及存储介质 Download PDF

Info

Publication number
CN117558058A
CN117558058A CN202410047289.6A CN202410047289A CN117558058A CN 117558058 A CN117558058 A CN 117558058A CN 202410047289 A CN202410047289 A CN 202410047289A CN 117558058 A CN117558058 A CN 117558058A
Authority
CN
China
Prior art keywords
features
user
face
light intensity
login
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410047289.6A
Other languages
English (en)
Inventor
董少灵
周星
赵勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Rabbit Exhibition Intelligent Technology Co ltd
Original Assignee
Shenzhen Rabbit Exhibition Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Rabbit Exhibition Intelligent Technology Co ltd filed Critical Shenzhen Rabbit Exhibition Intelligent Technology Co ltd
Priority to CN202410047289.6A priority Critical patent/CN117558058A/zh
Publication of CN117558058A publication Critical patent/CN117558058A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种用户登录方法、系统、计算机设备及存储介质,方法部分包括:在接收到用户的人脸登录请求时,对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像;分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征;基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。本发明基于用户的脸部光强图像和脸部深度图像进行图特征提取,能够提升对用户脸部特征的提取能力,得到更为准确的用户脸部特征,从而提高人脸识别的准确性,进而确保用户登录安全。

Description

用户登录方法、系统、计算机设备及存储介质
技术领域
本发明涉及图像数据处理技术领域,尤其是一种用户登录方法、系统、计算机设备及存储介质。
背景技术
传统的互联网平台用户登录方式,通常是用户名加密码的方式登录,一旦用户名和密码信息泄露,其他人均可以登录对应账号,危机个人账号信息甚至是财产安全。基于此,现有解决方案是获取登录用户的实时生物特征来进行身份验证,进而判断用户的合法性,以保护用户的登录安全性,例如,基于人脸识别技术的登录方式。人脸识别技术是通过摄像机或摄像头采集含有人脸的图像或视频,进行人脸跟踪检测,然后对检测到的人脸进行脸部识别的一系列相关技术。
但是发明人发现,对于软件系统来说,若使用人脸识别的方式登录账号,可能会被长相近似的人登录,或被他人采用静态照片、视频等方式破解,人脸识别登录方式的准确性不够,导致用户登录安全性不高。
发明内容
本发明提供一种用户登录方法、系统、计算机设备及存储介质,以解决现有人脸识别登录方式的准确性不够,导致用户登录安全性不高的问题。
提供一种用户登录方法,包括:
在接收到用户通过终端设备发送的人脸登录请求时,对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像;
分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;
基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征;
基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。
可选地,脸部光强特征包括多个光强子特征,脸部深度特征包括多个深度子特征;基于脸部深度特征对脸部光强特征进行自适应特征增加处理,得到脸部融合特征,包括:
基于多个光强子特征和多个深度子特征,对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据;特征距离数据包括各光强子特征与对应深度子特征的距离矩阵;
对特征距离数据中的各距离矩阵进行权重转换,得到特征权重数据,特征权重数据包括各光强子特征的权重值;
基于特征权重数据对多个光强子特征进行增强,并对增强后的特征进行融合处理,得到脸部融合特征。
可选地,基于多个光强子特征和多个深度子特征,对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据,包括:
根据各光强子特征和各深度子特征的数据尺寸大小,确定数据尺寸相同的光强子特征和深度子特征并记为特征组,遍历所有特征得到多个特征组;
对各特征组中的光强子特征和深度子特征进行特征压缩处理,得到压缩后的特征组;
对压缩后的各特征组中的光强子特征和深度子特征进行距离计算,得到各特征组的距离矩阵,并汇总为特征距离数据。
可选地,脸部光强特征包括多个光强子特征,脸部深度特征包括多个深度子特征;分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征,包括:
获取包括多个特征提取层的卷积特征模型,多个特征提取层具有不同的卷积核;
将脸部光强图像输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的光强特征图,得到数据尺寸不同的多个光强子特征;
将脸部深度特征输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的深度特征图,得到数据尺寸不同的多个深度子特征。
可选地,对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像,包括:
确定终端设备上是否安装有光强图像采集装置和深度图像采集装置;
若终端设备上安装有光强图像采集装置和深度图像采集装置,则分别调用光强图像采集装置、深度图像采集装置对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像。
可选地,确定终端设备上是否安装有光强图像采集装置和深度图像采集装置之后,方法还包括:
若终端设备上未安装有光强图像采集装置和/或深度图像采集装置,则提供光强图像采集软件和/或深度图像采集软件的安装包,以使用户在终端设备上安装光强图像采集软件和/或深度图像采集软件;
提示用户调用光强图像采集软件和/或深度图像采集软件,对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像。
可选地,接收到用户通过终端设备发送的人脸登录请求之前,该方法还包括:
在用户通过终端设备进入用户登录界面时,通过终端设备提示用户输入登录账号并提供多种登录模式,以使终端设备依据用户输入的登录账号和选择的登录模式生成用户登录请求;登录模式包括人脸识别登录模式;
在接收到终端设备发送的用户登录请求时,确定用户登录请求中的登录模式是否为人脸识别登录模式;
若用户登录请求中的登录模式为人脸识别登录模式,则确定接收到用户通过终端设备发送的人脸登录请求。
可选地,确定用户登录请求中的登录模式是否为人脸识别登录模式之后,该方法还包括:
若用户登录请求中的登录模式为密码登录模式,则对用户登录请求中的登录账号和登录密钥信息进行账号认证,得到账号认证信息,登录密钥信息包括登录密码和动态密钥;
若账号认证信息为登录账号已注册,且登录密钥信息错误,则通过终端设备向用户发送登录密钥错误提示,并提示用户是否确认执行人脸识别登录模式;
当接收到通过终端设备发送的人脸识别登录模式确认指令时,确定接收到人脸登录请求。
提供一种用户登录系统,包括服务器和终端设备,其中,服务器包括:
采集模块,用于在接收到用户通过终端设备发送的人脸登录请求时,对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像;
提取模块,用于分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;
融合模块,用于基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征;
识别模块,用于基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。
提供一种计算机设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上述用户登录方法的步骤。
提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现如上述用户登录方法的步骤。
上述用户登录方法、系统、计算机设备及存储介质所提供的一个技术方案中,在接收到用户通过终端设备发送的人脸登录请求时,通过对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像;分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征;基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。本发明实施例通过采集不同类型的脸部图像,然后基于用户的脸部光强图像和脸部深度图像进行图特征提取,能够提升对用户脸部特征的提取能力,再对脸部光强特征和脸部深度特征进行自适应特征增强、融合处理,可以实现不同类型的脸部特征的有效融合,以突出用户脸部的纹理特征,得到更为准确的用户脸部特征,从而能够提高人脸识别的准确性,进而确保用户登录安全。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中用户登录方法的应用环境示意图;
图2是本发明一实施例中用户登录方法的一流程示意图;
图3是图2中步骤S40的一实现流程示意图;
图4是图2中步骤S10的一实现流程示意图;
图5是图2中步骤S30的另一实现流程示意图;
图6是本发明一实施例中服务器的一结构示意图;
图7是本发明一实施例中计算机设备的一结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的图像检索方法,可应用在如图1所示的用户登录系统中,用户登录系统包括终端设备和服务器,终端设备通过网络与服务器进行通信。其中,终端设备为用户用于登录并使用相关软件、平台的设备,终端设备的数量可以是多个。
当用户需要进行账号登录时,用户通过终端设备进入服务器对应的前端的用户登录界面,并通过终端设备向服务器发送基于人脸识别的人脸登录请求;在接收到用户通过终端设备发送的人脸登录请求时,通过对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像;分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征;基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。本发明实施例通过采集不同类型的脸部图像,然后基于用户的脸部光强图像和脸部深度图像进行图特征提取,能够提升对用户脸部特征的提取能力,再对脸部光强特征和脸部深度特征进行自适应特征增强、融合处理,可以实现不同类型的脸部特征的有效融合,以突出用户脸部的纹理特征,得到更为准确的用户脸部特征,从而能够提高人脸识别的准确性,进而确保用户登录安全。
其中,终端设备装置可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑等设备;服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种用户登录方法,以该方法应用在图1中的用户登录系统为例进行说明,包括如下步骤:
S10:在接收到用户通过终端设备发送的人脸登录请求时,对用户的脸部进行不同类型的图像采集,得到脸部光强图像和脸部深度图像。
当用户需要进行账号登录时,用户通过终端设备进入服务器对应的前端的用户登录界面,并在用户登录界面上进行相关信息输入或按钮点击操作,以使得终端设备根据用户的操作生成人脸登录请求,终端设备将生成的人脸登录请求发送至服务器。服务器在接收到用户通过终端设备发送的人脸登录请求时,即响应人脸登录请求开始对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像。脸部光强图像可以是包括光强信息的彩色图像,也可以是包括光强信息的灰度图像。
需要理解的是,光强是指单位面积上所接受可见光的能量,用于指示光照的强弱和物体表面积被照明程度的量;深度是被检测物体各个点到图像采集装置的三维坐标信息,深度图像能够表达。本实施例中,脸部光强图像能够表达用户脸部不同位置的光照强弱和能量信息,可以通过传统相机或数码相机采集得到;脸部深度图像能够表达用户脸部不同位置的三维坐标信息,可以通过深度相机采集得到。
S20:分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征。
在得到用户的脸部光强图像和脸部深度图像之后,服务器需要分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征。例如,服务器需要调用传统的图像特征提取模型对脸部光强图像进行特征提取,得到脸部光强特征,并调用预先训练好的深度特征提取模型对脸部深度图像进行特征提取,得到脸部深度特征,简单方便。
S30:基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征。
在得到脸部光强特征、脸部深度特征之后,服务器需要基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征。
例如,脸部深度特征、脸部光强特征均包括不同像素点的特征,即脸部深度特征可以是一个由所有像素点深度特征组成的深度特征矩阵,脸部光强特征可以是一个由所有像素点光强特征组成的光强特征矩阵,可以直接计算对两个矩阵进行协方差计算,得到脸部深度特征与脸部光强特征的相似度矩阵,进而对相似度矩阵进行转换处理(包括线性转换处理和非线性转换处理),将相似度矩阵中的多个特征相似度转换为多个权重值,然后将各个权重值与脸部光强特征中对应的特征相乘,从而得到特征增强后的脸部融合特征,进而使用脸部融合特征进行 人脸识别的账号登录。在其他实施方式中,还可以直接将脸部深度特征与脸部光强特征拼接在一起,形成脸部融合特征,使得脸部融合特征包括两类不同的脸部特征,增加了特征多样性,从而提高脸部融合特征的准确性,简单方便。
本实施例中,现场采集的脸部深度图像能够采集被测物体的三维坐标信息,从而可以避免他人使用照片、视频等数据进行人脸识别的情况;而将脸部深度特征对脸部光强特征进行增强得到脸部融合特征,能够有效增强用户脸部各个位置的细微特征,突出用户脸部的细节纹理,使得脸部融合特征更为准确,降低长相相似人员误识别的可能,提高了人脸识别登录时的准确性,从而保证了用户账号安全和财产安全。
S40:基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。
在得到脸部融合特征之后,服务器需要基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。
例如,可以在用户数据库中拉取所有用户的脸部图像模板(该脸部图像模板至少包括标准脸部光强图),然后对脸部图像模板进行特征提取,进而将提取到的脸部模板特征与脸部融合特征进行匹配(如计算相似度,相似度大于或者阈值则匹配成功,反之小于阈值则匹配失败),若匹配到脸部模板特征,则用户识别成功,将匹配脸部模板特征对应的用户作为用户识别数据,进而生成登录成功的反馈数据;若为匹配到脸部模板特征,则用户识别失败,用户识别数据为识别失败,生成登录失败的反馈数据。本实施例中,脸部图像模板可以仅是标准脸部光强图,以减少提取脸部模板特征的数据处理量。
其中,还可以在用户数据库中预先存储每一脸部图像模板的脸部模板特征,该脸部模板特征与脸部图像模板、用户账号绑定。在得到脸部融合特征之后,从用户数据库获取所有用户的脸部模板特征,然后将脸部融合特征与每一脸部模板特征匹配,依据匹配结果生成用户识别数据,进而生成人脸登录请求的反馈数据,可以减少数据处理量,提高用户登录效率。其中,脸部模板特征为基于标准脸部光强图和标准脸部深度图进行特征提取得到的融合特征,脸部模板特征的获取过程参照脸部融合特征的获取过程,即先分别对标准脸部光强图和标准脸部深度图进行特征提取,得到标准光强特征、标准深度特征,然后基于标准光强特征和标准深度特征进行自适应特征增强处理,得到脸部模板特征,以保证脸部模板特征的准确性,从而提高脸部模板特征与脸部融合特征匹配的准确性,进而提高用户识别准确性,提高用户登录安全性。
本实施例中,在接收到用户通过终端设备发送的人脸登录请求时,通过对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像;分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征;基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。本发明实施例通过采集不同类型的脸部图像,然后基于用户的脸部光强图像和脸部深度图像进行图特征提取,能够提升对用户脸部特征的提取能力,再对脸部光强特征和脸部深度特征进行自适应特征增强、融合处理,可以实现不同类型的脸部特征的有效融合,以突出用户脸部的纹理特征,得到更为准确的用户脸部特征,从而能够提高人脸识别的准确性,进而确保用户登录安全。
在一实施例中,人脸登录请求中包括用户输入的登录账号。如图3所示,步骤S40中,即基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据,具体包括如下步骤:
S41:确定人脸登录请求中用户输入的登录账号,并在用户数据库中确定该登录账号对应的脸部图像模板。
本实施例中,人脸登录请求中包括用户输入的登录账号。服务器在得到脸部融合特征之后,需要确定人脸登录请求中用户输入的登录账号,并在用户数据库中确定该登录账号对应的脸部图像模板。其中,每一用户与其账号、脸部图像模板一同绑定存储在用户数据库中。
S42:确定该脸部图像模板对应的脸部模板特征,并将脸部模板特征与脸部融合特征进行相似度计算,得到特征相似度。
在确定该登录账号对应的脸部图像模板之后,确定该脸部图像模板对应的脸部模板特征。其中,脸部模板特征的获取方式可以是,确定脸部图像模板中的标准脸部光强图和标准脸部深度图,然后分别对标准脸部光强图和标准脸部深度图进行特征提取,得到标准光强特征、标准深度特征,然后基于标准光强特征和标准深度特征进行自适应特征增强处理,得到脸部模板特征。在其他实施例中,还可以先对每一用户的脸部图像模板进行特征提取,得到脸部模板特征,然后将每一用户与其账号、脸部图像模板、脸部模板特征一样绑定存储在用户数据库中,以便后续调用;当服务器在用户数据库中确定该登录账号对应的脸部图像模板之后,直接在用户数据库中拉取该脸部图像模板对应的脸部模板特征,简单方便。其中吗,该脸部模板特征为预先基于标准脸部光强图和标准脸部深度图进行特征提取得到的融合特征,提高脸部模板特征的准确性。
在得到脸部模板特征之后,需要将脸部模板特征与脸部融合特征进行相似度计算,得到特征相似度。具体地,将脸部模板特征与脸部融合特征进行协方差计算,得到脸部模板特征与脸部融合特征的协方差矩阵(相似度矩阵),然后对协方差矩阵进行线性转换(如直接就将协方差矩阵与线性函数相乘),得到特征相似度,使用线性函数转换可以减少数据转换量,提高处理速度,进而提高用户登录效率。在其他实施例中,也可以对协方差矩阵进行非线性转换(如直接就将协方差矩阵与非线性函数相乘),得到特征相似度,使用非线性函数转换,可以提高数据转换准确性,进而提高特征相似度的准确性。
S43:根据特征相似度确定用户识别数据,并根据用户识别数据生成人脸登录请求的反馈数据。
在将脸部模板特征与脸部融合特征进行相似度计算,得到特征相似度之后,服务器需要获取预设相似度,并确定特征相似度是否大于预设相似度,若大于或者等于预设相似度,确定当前用户与脸部图像模板对应的绑定用户为同一用户,则确定用户识别数据为用户识别成功,则确定当前登录合法,用户可以成功登录该登录账号,则根据用户识别数据生成的反馈数据为登录成功,以便后续执行登录成功的页面跳转操作。若小于预设相似度,确定当前用户与脸部图像模板对应的绑定用户不是同一用户,则确定用户识别数据为用户识别失败,则确定当前登录非法,用户不可以登录该登录账号,则根据用户识别数据生成的反馈数据为登录失败,提醒当前用户登录失败,以在此进行登录操作。
本实施例中,确定人脸登录请求中用户输入的登录账号,并在用户数据库中确定该登录账号对应的脸部图像模板,然后确定该脸部图像模板对应的脸部模板特征,并将脸部模板特征与脸部融合特征进行相似度计算,得到特征相似度,再根据特征相似度确定用户识别数据,并根据用户识别数据生成人脸登录请求的反馈数据。 通过获取登录账号以拉取绑定用户的脸部图像模板,进而进行特征提取、匹配等操作,实现用户识别,无需比对所有用户的脸部图像模板,在保证识别精度的基础上,大大减少了数据处理量,进一步地提高了用户登录的效率。
在一实施例中,步骤S10之前,即接收到用户通过终端设备发送的人脸登录请求之前,该方法还具体包括如下步骤:
S01:在用户通过终端设备进入用户登录界面时,通过终端设备提示用户输入登录账号并提供多种登录模式,以使终端设备依据用户输入的登录账号和选择的登录模式生成用户登录请求。
在用户通过终端设备进入用户登录界面时,通过终端设备提示用户输入登录账号并提供多种登录模式,以使终端设备依据用户输入的登录账号和选择的登录模式生成用户登录请求。即,当用户需要登录账号时,用户通过终端设备进入服务器对应的用户登录界面,此时,服务器向终端设备发送登录账号提示和登录模式选取提示,以通过终端设备提示用户在用户登录界面输入登录账号以供用户输入需要登录的账号,并通过用户登录界面提供多种登录模式,以供用户输入选择合适的登录模式。其中,多种登录模式包括人脸识别登录模式、账号密码登录模式、动态密钥登录模式(如手机验证码、服务器向绑定设备发送的字符串密钥等)。
当用户在用户登录界面输入登录账号,并选择登录模式时,终端设备根据用户选择的登录模式和输入信息(包括登录账号)生成对应的用户登录请求,该对应的用户登录请求包括登录模式和用户的输入信息,并将对应的用户登录请求发送给服务器,服务器接收到对应的用户登录请求后,根据对应的用户登录请求执行不同操作。
例如,当用户选择人脸识别登录模式,并输入登录账号时,终端设备生成包括人脸识别登录模式和登录账号的人脸登录请求,并发送给服务器,服务器接收到人脸登录请求后,执行步骤S10-S40;其中,在执行步骤S10-S40之前,可以先验证登录账号,若登录账号为已注册账号,才执行步骤S10-S40;若登录账号为未注册账号,则提示用户登录账号未注册并提示用户注册。当用户选择动态密钥登录模式,并输入登录账号时,终端设备生成包括动态密钥登录模式和登录账号的动态密钥密码登录请求,并发送给服务器,服务器接收到动态密钥登录请求后,在验证登录账号为以注册账号后,向登录账号绑定的手机号码或绑定设备发送动态密钥,并提示用户输入动态密钥,在用户输入动态密钥后验证用户输入的动态密钥信息,并在验证通过后向用户发送登录成功提示。
S02:在接收到终端设备发送的用户登录请求时,确定用户登录请求中的登录模式是否为人脸识别登录模式。
在通过终端设备提示用户输入登录账号并提供多种登录模式之后,服务器确定是否接收到终端设备发送的用户登录请求,并在接收到终端设备发送的用户登录请求时,确定用户登录请求中的登录模式是否为人脸识别登录模式。
S03:若用户登录请求中的登录模式为人脸识别登录模式,则确定接收到用户通过终端设备发送的人脸登录请求。
在确定用户登录请求中的登录模式是否为人脸识别登录模式之后,若用户登录请求中的登录模式为人脸识别登录模式,则确定接收到用户通过终端设备发送的人脸登录请求;若用户登录请求中的登录模式不是人脸识别登录模式,则确定未接收到人脸登录请求。
本实施例中,在用户通过终端设备进入用户登录界面时,通过终端设备提示用户输入登录账号并提供多种登录模式,以使终端设备依据用户输入的登录账号和选择的登录模式生成用户登录请求;登录模式包括人脸识别登录模式;在接收到终端设备发送的用户登录请求时,确定用户登录请求中的登录模式是否为人脸识别登录模式;若用户登录请求中的登录模式为人脸识别登录模式,则确定接收到用户通过终端设备发送的人脸登录请求。为用户提供了不同的账号登录方式,并明确了人脸登录请求的生成过程,在生成了人脸登录请求时还要求用户输入登录账号信息,以便后续进行登录账号验证和人脸识别验证,为后续进行人脸识别登录提供了准确的数据基础,并确保了用户登录的安全性。
在一实施例中,步骤S02之后,即确定用户登录请求中的登录模式是否为人脸识别登录模式之后,该方法还具体包括如下步骤:
S04:若用户登录请求中的登录模式为密码登录模式,则对用户登录请求中的登录账号和登录密钥信息进行账号认证,得到账号认证信息。
在确定用户登录请求中的登录模式是否为人脸识别登录模式之后,若用户登录请求中的登录模式为密码登录模式,则对用户登录请求中的登录账号和登录密钥信息进行账号认证,得到账号认证信息。其中,登录密钥信息包括登录密码和动态密钥的一种或者两种。
具体地,对用户登录请求中的登录账号和登录密钥信息进行账号认证,得到账号认证信息,包括:先对用户登录请求中的登录账号进行账号验证,确定该登录账号是否为用户数据库的账号匹配,若匹配到用户数据库的账号,则确定该登录账号为已注册账号,则进一步验证登录密钥信息中的登录密码是否为该登录账号绑定的密码,若是该登录账号绑定的密码,则确定账号验证通过,则生成账号认证信息:登录账号已注册,且登录密钥信息正确;若登录密码不是该登录账号绑定的密码,则确定账号验证未通过,则生成账号认证信息:登录账号已注册,且登录密钥信息错误。若未匹配到用户数据库的账号,则确定该登录账号为未注册账号,则确定账号验证未通过,则生成账号认证信息:登录账号未注册,请确认登录账号信息或请注册账号。
S05:若账号认证信息为登录账号已注册,且登录密钥信息错误,则通过终端设备向用户发送登录密钥错误提示,并提示用户是否确认执行人脸识别登录模式。
在对用户登录请求中的登录账号和登录密钥信息进行账号认证,得到账号认证信息之后,确定账号认证信息的内容,若确定账号认证信息为登录账号已注册,且登录密钥信息错误,则通过终端设备向用户发送登录密钥错误提示,并提示用户是否确认执行人脸识别登录模式,以使用户及时获知登录密钥信息错误且登录不成功的结果,并提醒用户选择人脸识别登录模式。
S06:当接收到通过终端设备发送的人脸识别登录模式确认指令时,确定接收到人脸登录请求。
在通过终端设备向用户发送登录密钥错误提示,并提示用户是否确认执行人脸识别登录模式之后,若确定是否接受到用户通过终端设备发送的人脸识别登录模式确认指令,当接收到通过终端设备发送的人脸识别登录模式确认指令时,确定接收到人脸登录请求。该人脸登录请求包括人脸识别登录模式和用户在上述步骤中输入的登录账号。
本实施例中,在确定用户登录请求中的登录模式是否为人脸识别登录模式之后,若用户登录请求中的登录模式为密码登录模式,则对用户登录请求中的登录账号和登录密钥信息进行账号认证,得到账号认证信息;若账号认证信息为登录账号已注册,且登录密钥信息错误,则通过终端设备向用户发送登录密钥错误提示,并提示用户是否确认执行人脸识别登录模式;当接收到通过终端设备发送的人脸识别登录模式确认指令时,确定接收到人脸登录请求。当用户登录时,在密码错误时进行人脸和账号双重认证,减少登录失败的可能,从而提升用户体验。
在一实施例中,在对用户登录请求中的登录账号和登录密钥信息进行账号认证,得到账号认证信息之后,若确定账号认证信息为登录账号已注册,且登录密钥信息正确,则获取该登录账号最近一次的登录信息,该登录信息包括登录时间、登录设备,并确定当前终端设备是否为登录信息中的登录设备,并确定当前时间与登录信息中登录时间的时间间隔;若当前终端设备不是登录信息中的登录设备,或者当前时间与登录信息中登录时间的时间间隔小于预设间隔,则生成登录再确认信息并提示用户,该登录再确认信息用于指示当前登录设备与上一次登录设备不一致或登录间隔过短,需执行人脸识别登录模式;在提示用户的登录再确认信息后,直接执行步骤S10-S40,进行人脸识别登录,保障账号安全。该过程可以使用户及时获知异常登录信息,并避免其他使用盗取的账户密码成功登录账号。
在一实施例中,如图4所示,步骤S10中,即对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像,具体包括如下步骤:
S11:确定终端设备上是否安装有光强图像采集装置和深度图像采集装置。
在接收到人脸登录请求后,服务器需要确定终端设备上是否安装有光强图像采集装置和深度图像采集装置。
具体地,可以通过如下方式确定,获取终端设备的设备型号,并确定该设备型号的设备是否安装有常规相机和深度相机,若该设备型号的设备安装有常规相机和深度相机,则确定终端设备上安装有光强图像采集装置和深度图像采集装置;若该设备型号的设备未安装有常规相机或深度相机,则获取终端设备上的安装软件信息,并根据终端设备上的安装软件信息确定终端设备上是否安装有光强图像采集软件或深度图像采集软件,若终端设备上安装有常规相机和深度图像采集软件,或终端设备上安装有深度相机和光强图像采集软件,则确定终端设备上安装有光强图像采集装置和深度图像采集装置。
S12:若终端设备上安装有光强图像采集装置和深度图像采集装置,则分别调用光强图像采集装置、深度图像采集装置对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像。
在确定终端设备上是否安装有光强图像采集装置和深度图像采集装置之后,若确定终端设备上安装有光强图像采集装置和深度图像采集装置,则分别调用光强图像采集装置、深度图像采集装置对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像,即调用光强图像采集装置对用户的脸部进行图像采集,得到脸部光强图像,并调用深度图像采集装置对用户的脸部进行图像采集,得到脸部深度图像。
S13:若终端设备上未安装有光强图像采集装置和/或深度图像采集装置,则提供光强图像采集软件和/或深度图像采集软件的安装包,以使用户在终端设备上安装光强图像采集软件和/或深度图像采集软件。
在确定终端设备上是否安装有光强图像采集装置和深度图像采集装置之后,若终端设备上未安装有光强图像采集装置和/或深度图像采集装置,即终端设备上未安装有光强图像采集装置,或者未安装有深度图像采集装置,或者同时未安装有光强图像采集装置和深度图像采集装置,则向用户提供光强图像采集软件和/或深度图像采集软件的安装包,以使用户在终端设备上安装光强图像采集软件和/或深度图像采集软件。
其中,向用户提供光强图像采集软件和/或深度图像采集软件的安装包时,需要根据终端设备的设备型号确定适应该终端设备安装的安装包,以便用户能够直接安装。例如,根据终端设备的设备型号确定终端设备为使用A操作系统的手机设备,则可以直接在用户数据库中调取适合A操作系统的手机设备安装的、光强图像采集软件和/或深度图像采集软件的安装包,然后发送给终端设备并提示用户下载并安装,直至用户确认光强图像采集软件和/或深度图像采集软件完成安装后。
S14:提示用户调用光强图像采集软件和/或深度图像采集软件,对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像。
当用户在终端设备上安装光强图像采集软件和/或深度图像采集软件之后,提示用户调用光强图像采集软件和/或深度图像采集软件,然后对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像。
本实施例中,确定终端设备上是否安装有光强图像采集装置和深度图像采集装置,若终端设备上安装有光强图像采集装置和深度图像采集装置,则分别调用光强图像采集装置、深度图像采集装置对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像,直接调用相应采集装置进行图像采集,可以确保能够采集到用户的脸部光强图像、脸部深度图像。此外,若终端设备上未安装有光强图像采集装置和/或深度图像采集装置,则提供光强图像采集软件和/或深度图像采集软件的安装包,以使用户在终端设备上安装光强图像采集软件和/或深度图像采集软件,提示用户调用光强图像采集软件和/或深度图像采集软件,对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像;在终端设备不具备相应的图像采集功能时,技术提供软件安装包,以使得用户根据需求安装相应软件,确保能够采集到相应图像进行人脸识别登录,避免因无法 采集相应图像导致是登录失败,也减少用户去其他地方搜索并下载对应采集软件所耗费的时间,提高了用户登录的体验和效率。
在一实施例中,步骤S20中,即分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征,具体包括如下步骤:
S21:获取包括多个特征提取层的卷积特征模型,多个特征提取层具有不同的卷积核。
在得到用户的脸部光强图像和脸部深度图像之后,服务器需要获取包括多个特征提取层的多个卷积特征模型,其中,该卷积特征模型为基于卷积神经网络的特征提取模型,该卷积特征模型包括多个特征提取层,各特征提取层的卷积核大小不同,即各特征提取层的感受野大小不同。感受野是指卷积神经网络中各层输出的特征图上的像素点映射回输入图像上的区域大小,特征提取层感受野大小不同,即其输出特征所对应输入图像的尺存不同,即其输出特征的数据尺寸不同。
其中,卷积特征模型中多个特征层的感受野大小依次增加,多个特征提取层输出特征的数据尺寸依次减小。其中,最后一个特征提取层的感受野大小与其卷积核大小相同,其他特征提取层的感受野依据其卷积核 大小和下一特征提取层的感受野确定,因此可以预先根据需求先确定最后一个特征提取层的感受野,进而依次确定其他特征提取层的感受野。
S22:将脸部光强图像输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的光强特征图,得到数据尺寸不同的多个光强子特征。
在获取卷积特征模型之后,服务器将脸部光强图像输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的光强特征图,并将各特征提取层输出的光强特征图作为一个光强子特征,从而得到数据尺寸不同的多个光强子特征。
S23:将脸部深度特征输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的深度特征图,得到数据尺寸不同的多个深度子特征。
此外,服务器将脸部深度特征输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的深度特征图,并将各特征提取层输出的深度特征图作为一个深度子特征,从而得到数据尺寸不同的多个深度子特征。
本实施例中,在进行分层特征提取的过程中,由于卷积特征模型中多个特征层的感受野大小依次增加,使得多个特征提取层输出特征的数据尺寸依次减小,不同特征提取层输出特征的数据尺寸不同,其对图像特征表达的信息不。例如,在感受野较小的前一个或几个特征层,其输出特征的数据尺寸较大,即输出的特征图上像素点映射回输入图像上的区域较大,其能够提取高细粒度的特征数据,也即其输出特征能够表达更为细微的用户脸部特征,如局部区域皮肤状态,如皮肤色素、毛孔、疤痕、凹陷等特征;在感受野较大的最后一个或最后几个特征层,其输出特征的数据尺寸较小,其能够提取高语义的特征数据,也即其输出特征能够表达更为全面、完整的用户脸部特征,如整体脸部轮廓、脸部五官等特征。
本实施例中,通过获取包括多个特征提取层的卷积特征模型,多个特征提取层具有不同的卷积核,然后将脸部光强图像输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的光强特征图,得到数据尺寸不同的多个光强子特征,并将脸部深度特征输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的深度特征图,得到数据尺寸不同的多个深度子特征,明确了脸部光强特征和脸部深度特征的提取过程,能够提取得到不同数据尺寸大小的多个强子特征和多个深度子特征,同时提高了脸部光强特征和脸部深度特征的信息表达能力,进而在后续基于多个光强子特征和多个深度子特征,对脸部光强特征和脸部深度特征进行特征融合得到脸部融合特征,使得脸部融合特征能够表达不同粒度的用户脸部信息,提高了脸部融合特征的准确性,从而提高了 后续进行用户脸部识别的准确性,进而提高了用户登录安全性。
在其他实施例中,脸部光强特征包括多个光强子特征,但脸部深度特征可以仅包括一个深度子特征,即,在得到数据尺寸不同的多个光强子特征之后,将脸部深度特征输入卷积特征模型进行特征提取,并将第一个特征提取层输出的深度特征图, 记为脸部深度特征,将信息最为完整的深度特征图记为脸部深度特,以便后续基于单个深度特征图和多个光强子特征,对脸部光强特征和脸部深度特征进行特征融合得到脸部融合特征,即可以保证融合特征的准确性,也可以降低后续特征融合的计算量,降低服务器负载并提供用户登录的效率。
在一实施例中,脸部光强特征包括多个光强子特征,脸部深度特征包括多个深度子特征。如图5所示,步骤S30中,即对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据,具体包括如下步骤:
S31:基于多个光强子特征和多个深度子特征,对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据。
本实施例中,脸部光强特征包括数据尺寸不同的多个光强子特征,脸部深度特征包括数据尺寸不同的多个深度子特征。在得到脸部光强特征和脸部深度特征之后,服务器需要基于多个光强子特征和多个深度子特征,对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据。其中,特征距离数据包括各光强子特征与对应深度子特征的距离矩阵。
其中,需要根据各光强子特征和各深度子特征的数据尺寸大小,确定数据尺寸相同的光强子特征和深度子特征,记为特征组,遍历所有特征得到多个特征组,然后计算各特征组中光强子特征和深度子特征的距离,即计算光强子特征中各 特征点(像素点)和深度子特征中各特征点的距离,从而得到各特征组的距离矩阵,也即得到各光强子特征与对应深度子特征的距离矩阵,进而汇总作为特征距离数据。
S32:对特征距离数据中的各距离矩阵进行权重转换,得到特征权重数据。
在对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据之后,服务器还需要对特征距离数据中的各距离矩阵进行权重转换,得到特征权重数据。
其中,可以先获取用于权重转换的激活函数(如Mish函数、线性整流函数等),然后将激活函数与特征距离数据相乘,即可将特征距离数据中各距离矩阵转换为对应的权重值,得到特征权重数据。特征权重数据包括多个权重值,也即包括用于对各光强子特征进行特征增强的权重值。
S33:基于特征权重数据对多个光强子特征进行增强,并对增强后的特征进行融合处理,得到脸部融合特征。
在得到特征权重数据之后,服务器需要基于特征权重数据对多个光强子特征进行增强处理,并对增强后的特征进行融合处理,得到脸部融合特征。
例如,将特征权重数据的多个权重值与脸部光强特征中的多个光强子特征相乘,得到多个增强子特征,然后对多个增强子特征进行卷积处理,得到信息准确且数据量较少的脸部融合特征。在得到多个增强子特征之后,还还可以对多个增强子特征进行拼接处理,得到具有不同数据尺寸的脸部融合特征,使得脸部融合特征更为准确。
本实施例中,基于多个光强子特征和多个深度子特征,对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据,然后对特征距离数据中的各距离矩阵进行权重转换,得到特征权重数据,最后基于特征权重数据对多个光强子特征进行增强,并对增强后的特征进行融合处理,得到脸部融合特征。其明确了基于脸部深度特征对脸部光强特征进行自适应特征增加处理,得到脸部融合特征的具体步骤,通过基于多个光强子特征和多个深度子特征,计算脸部光强特征和脸部深度特征的特征距离数据,进而进行权重转换,实现对脸部光强特征的全局特征增强,使得融合得到的脸部融合特征能够表达不同粒度的脸部信息,提高了脸部融合特征的准确性,从而提高了 后续进行用户脸部识别的准确性,进而提高了用户登录安全性。
在其他实施例中,脸部光强特征包括数据尺寸不同的多个光强子特征,脸部深度特征仅包括一个深度子特征,且该深度子特征的数据尺寸与数据尺寸最大的光强子特征的数据尺寸一致。步骤S30中,先对该深度子特征与各光强子特征进行距离计算,得到该深度子特征与各光强子特征的距离矩阵,从而汇总形成特征距离数据,通过基于数据尺寸最大(即信息颗粒度最小)的深度子特征和多个光强子特征,计算特征距离数据,在确保特征距离数据满足准确要求的基础上,可以减少特征距离数据的计算量;然后采用线性整流函数对特征距离数据中的各距离矩阵进行权重转换,得到特征权重数据,以减少权重转换数据计算量;最后基于特征权重数据对多个光强子特征进行加权处理,得到脸部融合特征。通过基于数据尺寸最大(即信息颗粒度最小)的深度子特征和多个光强子特征,进行特征距离数据计算,然后转换为多个权重值对多个光强子特征进行加权,可以实现对脸部光强特征的全局特征增强,即保证了脸部融合特征的准确性,还减少了特征融合的计算量,进而提高了用户登录的效率。
在一实施例中,步骤S31中,即基于多个光强子特征和多个深度子特征,对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据,具体包括如下步骤:
S311:根据各光强子特征和各深度子特征的数据尺寸大小,确定数据尺寸相同的光强子特征和深度子特征并记为特征组,遍历所有特征得到多个特征组。
在得到脸部光强特征和脸部深度特征中,根据各光强子特征和各深度子特征的数据尺寸大小,确定数据尺寸相同的光强子特征和深度子特征并记为特征组,遍历所有特征得到多个特征组。
例如,脸部光强特征包括数据尺寸依次减小的第一光强子特征、第二光强子特征和第三光强子特征,脸部深度特征对应包括数据尺寸依次减小的第一深度子特征、第二深度子特征和第三深度子特征,则将数据尺度相同的第一光强子特征和第一深度子特征记为一个特征组,并将数据尺度相同的第二光强子特征和第二深度子特征记为一个特征组,也将数据尺度相同的第三光强子特征和第三深度子特征记为一个特征组,得到三个特征组。
S312:对各特征组中的光强子特征和深度子特征进行特征压缩处理,得到压缩后的特征组。
在得到多个特征组之后,为减少数据处理量,需要对各特征组中的光强子特征和深度子特征进行特征压缩处理,得到压缩后的特征组。本实施例中,特征压缩处理可以包括输入通道压缩处理和/或维度压缩处理。
具体地,服务器可以获取通道压缩参数(该通道压缩参数一般为原始图像输入通道的n分之一),并根据通道压缩参数对各特征组中的光强子特征和深度子特征进行输入通道压缩,得到输入通道压缩后的光强子特征和深度子特征,即压缩后的特征压缩处理;通过对通道压缩参数对各特征组中的光强子特征和深度子特征进行输入通道压缩,在保证特征多样性的基础上降低特征数据量,以便后续进行距离计算。在其他实施例中,也可以获取预设维度,然后对各特征组中的光强子特征和深度子特征进行预设维度的全局平均池化操作,实现维度压缩,得到降维后的光强子特征和深度子特征,即压缩后的特征压缩处理,通过对预设维度对各特征组中的光强子特征和深度子特征进行全局平均池化操作,在保证特征多样性的基础上降低特征数据量,以便后续进行距离计算。此外,也还可以以获取通道压缩参数和预设维度,然后根据通道压缩参数对各特征组中的光强子特征和深度子特征进行输入通道压缩,得到输入通道压缩后的光强子特征和深度子特征,再对输入通道压缩后的光强子特征和深度子特征,进行预设维度的全局平均池化操作,得到降维后的降维后的光强子特征和深度子特征,即压缩后的特征压缩处理;通过各特征组中的光强子特征和深度子特征进行双重压缩处理,进一步降低了特征数据量,从而提高了后续距离计算的速度,进而提高后续操作的效率。
S313:对压缩后的各特征组中的光强子特征和深度子特征进行距离计算,得到各特征组的距离矩阵,并汇总为特征距离数据。
在对各特征组中的光强子特征和深度子特征进行特征压缩处理,得到压缩后的特征组之后,服务器还需要对压缩后的各特征组中,已被压缩的光强子特征和深度子特征进行距离计算,得到各特征组的距离矩阵,并将各特征组的距离矩阵汇总为特征距离数据。其中,距离计算方式可以是曼哈顿距离、海明距离、马氏距离等距离就计算方式。
本实施例中,根据各光强子特征和各深度子特征的数据尺寸大小,确定数据尺寸相同的光强子特征和深度子特征并记为特征组,遍历所有特征得到多个特征组;对各特征组中的光强子特征和深度子特征进行特征压缩处理,得到压缩后的特征组,对压缩后的各特征组中的光强子特征和深度子特征进行距离计算,得到各特征组的距离矩阵,并汇总为特征距离数据,明确了基于多个光强子特征和多个深度子特征,对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据的具体步骤。在该过程中,对各光强子特征和各深度子特征进行压缩后计算特征距离,在保证计算数据准确性的基础上,降低了数据处理量,能够有效提高用户登录的效率。
在其他实施例中,脸部光强特征包括数据尺寸不同的多个光强子特征,脸部深度特征仅包括一个深度子特征,且该深度子特征的数据尺寸与数据尺寸最大的光强子特征的数据尺寸一致。步骤S31中,先对该深度子特征进行压缩处理,得到压缩后的深度子特征,并对各光强子特征分别进行压缩处理,得到压缩后的多个光强子特征,然后对压缩后的深度子特征与压缩后的各光强子特征进行距离计算,得到压缩后的深度子特征与压缩后的各光强子特征的距离矩阵,从而汇总形成特征距离数据,可以进一步减少数据处理量,从而能够进一步提高用户登录的效率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种服务器,该服务器与上述实施例中图用户登录方法一一对应。如图6所示,该服务器包括采集模块601、提取模块602、融合模块603和识别模块604。各功能模块详细说明如下:
采集模块601,用于在接收到用户通过终端设备发送的人脸登录请求时,对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像;
提取模块602,用于分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;
融合模块603,用于基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征;
识别模块604,用于基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。
可选地,脸部光强特征包括多个光强子特征,脸部深度特征包括多个深度子特征;融合模块603具体用于:
基于多个光强子特征和多个深度子特征,对脸部光强特征和脸部深度特征进行距离计算,得到特征距离数据;特征距离数据包括各光强子特征与对应深度子特征的距离矩阵;
对特征距离数据中的各距离矩阵进行权重转换,得到特征权重数据,特征权重数据包括各光强子特征的权重值;
基于特征权重数据对多个光强子特征进行增强,并对增强后的特征进行融合处理,得到脸部融合特征。
可选地,融合模块603具体还用于:
根据各光强子特征和各深度子特征的数据尺寸大小,确定数据尺寸相同的光强子特征和深度子特征并记为特征组,遍历所有特征得到多个特征组;
对各特征组中的光强子特征和深度子特征进行特征压缩处理,得到压缩后的特征组;
对压缩后的各特征组中的光强子特征和深度子特征进行距离计算,得到各特征组的距离矩阵,并汇总为特征距离数据。
可选地,脸部光强特征包括多个光强子特征,脸部深度特征包括多个深度子特征;提取模块602具体用于:
获取包括多个特征提取层的卷积特征模型,多个特征提取层具有不同的卷积核;
将脸部光强图像输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的光强特征图,得到数据尺寸不同的多个光强子特征;
将脸部深度特征输入卷积特征模型进行分层特征提取,并获取各特征提取层输出的深度特征图,得到数据尺寸不同的多个深度子特征。
可选地,采集模块601具体用于:
确定终端设备上是否安装有光强图像采集装置和深度图像采集装置;
若终端设备上安装有光强图像采集装置和深度图像采集装置,则分别调用光强图像采集装置、深度图像采集装置对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像。
可选地,确定终端设备上是否安装有光强图像采集装置和深度图像采集装置之后,采集模块601还用于:
若终端设备上未安装有光强图像采集装置和/或深度图像采集装置,则提供光强图像采集软件和/或深度图像采集软件的安装包,以使用户在终端设备上安装光强图像采集软件和/或深度图像采集软件;
提示用户调用光强图像采集软件和/或深度图像采集软件,对用户的脸部进行图像采集,得到脸部光强图像、脸部深度图像。
可选地,服务器还包括确定模块605,接收到用户通过终端设备发送的人脸登录请求之前,确定模块605用于:
在用户通过终端设备进入用户登录界面时,通过终端设备提示用户输入登录账号并提供多种登录模式,以使终端设备依据用户输入的登录账号和选择的登录模式生成用户登录请求;登录模式包括人脸识别登录模式;
在接收到终端设备发送的用户登录请求时,确定用户登录请求中的登录模式是否为人脸识别登录模式;
若用户登录请求中的登录模式为人脸识别登录模式,则确定接收到用户通过终端设备发送的人脸登录请求。
可选地,确定用户登录请求中的登录模式是否为人脸识别登录模式之后,确定模块605还用于:
若用户登录请求中的登录模式为密码登录模式,则对用户登录请求中的登录账号和登录密钥信息进行账号认证,得到账号认证信息,登录密钥信息包括登录密码和动态密钥;
若账号认证信息为登录账号已注册,且登录密钥信息错误,则通过终端设备向用户发送登录密钥错误提示,并提示用户是否确认执行人脸识别登录模式;
当接收到通过终端设备发送的人脸识别登录模式确认指令时,确定接收到人脸登录请求。
关于服务器的具体限定可以参见上文中对于用户登录方法的限定,在此不再赘述。上述服务器中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,如图7所示,提供了一种计算机设备,该计算机设备可以是服务器,该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储上述用户登录方法用到、生成的数据,如脸部光强图像和脸部深度图像、脸部融合特征、脸部图像模板和反馈数据等等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种用户登录方法。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器或终端设备,该计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
在接收到用户通过终端设备发送的人脸登录请求时,对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像;
分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;
基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征;
基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
在接收到用户通过终端设备发送的人脸登录请求时,对用户的脸部进行不同类型的图像采集,得到用户的脸部光强图像和脸部深度图像;
分别对脸部光强图像和脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;
基于脸部深度特征对脸部光强特征进行自适应特征增强处理,得到脸部融合特征;
基于脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成人脸登录请求的反馈数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种用户登录方法,其特征在于,包括:
在接收到用户通过终端设备发送的人脸登录请求时,对所述用户的脸部进行不同类型的图像采集,得到所述用户的脸部光强图像和脸部深度图像;
分别对所述脸部光强图像和所述脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;
基于所述脸部深度特征对所述脸部光强特征进行自适应特征增强处理,得到脸部融合特征;
基于所述脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成所述人脸登录请求的反馈数据。
2.如权利要求1所述的用户登录方法,其特征在于,所述脸部光强特征包括多个光强子特征,所述脸部深度特征包括多个深度子特征;所述基于所述脸部深度特征对所述脸部光强特征进行自适应特征增加处理,得到脸部融合特征,包括:
基于多个所述光强子特征和多个所述深度子特征,对所述脸部光强特征和所述脸部深度特征进行距离计算,得到特征距离数据;所述特征距离数据包括各所述光强子特征与对应所述深度子特征的距离矩阵;
对所述特征距离数据中的各所述距离矩阵进行权重转换,得到特征权重数据;
基于所述特征权重数据对多个所述光强子特征进行增强,并对增强后的特征进行融合处理,得到所述脸部融合特征。
3.如权利要求2所述的用户登录方法,其特征在于,所述基于多个所述光强子特征和多个所述深度子特征,对所述脸部光强特征和所述脸部深度特征进行距离计算,得到特征距离数据,包括:
根据各所述光强子特征和各所述深度子特征的数据尺寸大小,确定数据尺寸相同的所述光强子特征和所述深度子特征并记为特征组,遍历所有特征得到多个所述特征组;
对各所述特征组中的所述光强子特征和所述深度子特征进行特征压缩处理,得到压缩后的各所述特征组;
对压缩后的各所述特征组中的光强子特征和深度子特征进行距离计算,得到各特征组的距离矩阵,并汇总为所述特征距离数据。
4.如权利要求1所述的用户登录方法,其特征在于,所述分别对所述脸部光强图像和所述脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征,包括:
获取包括多个特征提取层的卷积特征模型,多个所述特征提取层具有不同的卷积核;
将所述脸部光强图像输入所述卷积特征模型进行分层特征提取,并获取各所述特征提取层输出的光强特征图,得到数据尺寸不同的多个光强子特征;
将所述脸部深度特征输入所述卷积特征模型进行分层特征提取,并获取各所述特征提取层输出的深度特征图,得到数据尺寸不同的多个深度子特征。
5.如权利要求1所述的用户登录方法,其特征在于,所述对所述用户的脸部进行不同类型的图像采集,得到所述用户的脸部光强图像和脸部深度图像,包括:
确定所述终端设备上是否安装有光强图像采集装置和深度图像采集装置;
若所述终端设备上安装有所述光强图像采集装置和深度图像采集装置,则分别调用所述光强图像采集装置、所述深度图像采集装置对所述用户的脸部进行图像采集,得到所述脸部光强图像、所述脸部深度图像。
6.如权利要求1-5任一项所述的用户登录方法,其特征在于,所述接收到用户通过终端设备发送的人脸登录请求之前,所述方法还包括:
在所述用户通过所述终端设备进入用户登录界面时,通过所述终端设备提示所述用户输入登录账号并提供多种登录模式,以使所述终端设备依据所述用户输入的所述登录账号和选择的所述登录模式生成用户登录请求;所述登录模式包括人脸识别登录模式;
在接收到所述终端设备发送的所述用户登录请求时,确定所述用户登录请求中的所述登录模式是否为所述人脸识别登录模式;
若所述用户登录请求中的所述登录模式为所述人脸识别登录模式,则确定接收到所述用户通过所述终端设备发送的所述人脸登录请求。
7.如权利要求6所述的用户登录方法,其特征在于,所述确定所述用户登录请求中的所述登录模式是否为所述人脸识别登录模式之后,所述方法还包括:
若所述用户登录请求中的所述登录模式为密码登录模式,则对所述用户登录请求中的所述登录账号和登录密钥信息进行账号认证,得到账号认证信息,所述登录密钥信息包括登录密码和动态密钥;
若所述账号认证信息为所述登录账号已注册,且所述登录密钥信息错误,则通过所述终端设备向所述用户发送登录密钥错误提示,并提示所述用户是否确认执行所述人脸识别登录模式;
当接收到所述通过所述终端设备发送的所述人脸识别登录模式确认指令时,确定接收到所述人脸登录请求。
8.一种用户登录系统,其特征在于,包括服务器和终端设备,其中,所述服务器包括:
采集模块,用于在接收到用户通过终端设备发送的人脸登录请求时,对所述用户的脸部进行不同类型的图像采集,得到所述用户的脸部光强图像和脸部深度图像;
提取模块,用于分别对所述脸部光强图像和所述脸部深度图像进行特征提取,得到脸部光强特征、脸部深度特征;
融合模块,用于基于所述脸部深度特征对所述脸部光强特征进行自适应特征增强处理,得到脸部融合特征;
识别模块,用于基于所述脸部融合特征与预存的脸部图像模板进行用户识别,并基于用户识别数据生成所述人脸登录请求的反馈数据。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述用户登录方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述用户登录方法的步骤。
CN202410047289.6A 2024-01-12 2024-01-12 用户登录方法、系统、计算机设备及存储介质 Pending CN117558058A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410047289.6A CN117558058A (zh) 2024-01-12 2024-01-12 用户登录方法、系统、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410047289.6A CN117558058A (zh) 2024-01-12 2024-01-12 用户登录方法、系统、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN117558058A true CN117558058A (zh) 2024-02-13

Family

ID=89823733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410047289.6A Pending CN117558058A (zh) 2024-01-12 2024-01-12 用户登录方法、系统、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN117558058A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108306886A (zh) * 2018-02-01 2018-07-20 深圳市腾讯计算机系统有限公司 一种身份验证方法、装置及存储介质
CN110889094A (zh) * 2019-11-18 2020-03-17 中国银行股份有限公司 登录认证方法及装置
CN112036284A (zh) * 2020-08-25 2020-12-04 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN113140302A (zh) * 2020-01-20 2021-07-20 深圳市理邦精密仪器股份有限公司 移动心电设备的权限管理方法、移动心电设备及存储介质
CN114581978A (zh) * 2022-02-28 2022-06-03 支付宝(杭州)信息技术有限公司 人脸识别的方法和系统
CN115496975A (zh) * 2022-08-29 2022-12-20 锋睿领创(珠海)科技有限公司 辅助加权数据融合方法、装置、设备及存储介质
CN115641067A (zh) * 2022-09-05 2023-01-24 华通软件科技南京有限公司 一种基于云平台的学员信息综合管理系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108306886A (zh) * 2018-02-01 2018-07-20 深圳市腾讯计算机系统有限公司 一种身份验证方法、装置及存储介质
CN110889094A (zh) * 2019-11-18 2020-03-17 中国银行股份有限公司 登录认证方法及装置
CN113140302A (zh) * 2020-01-20 2021-07-20 深圳市理邦精密仪器股份有限公司 移动心电设备的权限管理方法、移动心电设备及存储介质
CN112036284A (zh) * 2020-08-25 2020-12-04 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN114581978A (zh) * 2022-02-28 2022-06-03 支付宝(杭州)信息技术有限公司 人脸识别的方法和系统
CN115496975A (zh) * 2022-08-29 2022-12-20 锋睿领创(珠海)科技有限公司 辅助加权数据融合方法、装置、设备及存储介质
CN115641067A (zh) * 2022-09-05 2023-01-24 华通软件科技南京有限公司 一种基于云平台的学员信息综合管理系统

Similar Documents

Publication Publication Date Title
CN109241868B (zh) 人脸识别方法、装置、计算机设备及存储介质
CN111191539B (zh) 证件真伪验证方法、装置、计算机设备和存储介质
US10664581B2 (en) Biometric-based authentication method, apparatus and system
CN106778525B (zh) 身份认证方法和装置
CN109389723B (zh) 利用人脸识别的访客管理方法、装置、计算机设备
TWI752418B (zh) 伺服器、客戶端、用戶核身方法及系統
US20200065460A1 (en) Method and computer readable storage medium for remote interview signature
CN110751025A (zh) 基于人脸识别的业务办理方法、装置、设备及介质
CN109801192A (zh) 电子合同签订方法、装置、计算机设备及存储介质
CN108429745B (zh) 登录的认证方法和认证系统、网页登录方法和系统
CN112001932A (zh) 人脸识别方法、装置、计算机设备和存储介质
CN110795714A (zh) 一种身份验证方法、装置、计算机设备及存储介质
CN110688878B (zh) 活体识别检测方法、装置、介质及电子设备
CN111339897B (zh) 活体识别方法、装置、计算机设备和存储介质
CN113656761B (zh) 基于生物识别技术的业务处理方法、装置和计算机设备
CN110247898B (zh) 身份验证方法、装置、介质及电子设备
US20220100839A1 (en) Open data biometric identity validation
CN113887408B (zh) 活化人脸视频的检测方法、装置、设备及存储介质
CN109325666B (zh) 业务处理方法、装置、计算机设备和存储介质
CN111368814A (zh) 一种身份识别方法及系统
CN110175500B (zh) 指静脉比对方法、装置、计算机设备及存储介质
CN110992155A (zh) 竞标入围处理方法及相关产品
CN112632504B (zh) 网页访问方法、装置、系统、计算机设备和存储介质
CN111931148A (zh) 图像处理方法、装置和电子设备
CN117558058A (zh) 用户登录方法、系统、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination