CN112132099A - 身份识别方法、掌纹关键点检测模型训练方法和装置 - Google Patents

身份识别方法、掌纹关键点检测模型训练方法和装置 Download PDF

Info

Publication number
CN112132099A
CN112132099A CN202011065005.4A CN202011065005A CN112132099A CN 112132099 A CN112132099 A CN 112132099A CN 202011065005 A CN202011065005 A CN 202011065005A CN 112132099 A CN112132099 A CN 112132099A
Authority
CN
China
Prior art keywords
palm print
palm
key point
model
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011065005.4A
Other languages
English (en)
Inventor
钟德星
罗凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GRASP TECHNOLOGY WUXI Co.,Ltd.
Original Assignee
Tencent Technology Shenzhen Co Ltd
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd, Xian Jiaotong University filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202011065005.4A priority Critical patent/CN112132099A/zh
Publication of CN112132099A publication Critical patent/CN112132099A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Abstract

本申请涉及一种身份识别方法、装置、计算机设备和存储介质。方法包括:获取待识别的目标用户对应的目标掌纹图像;将目标掌纹图像输入到已训练的掌纹关键点检测模型中,检测得到掌纹关键点对应的目标掌纹关键点位置,在训练时,根据样本掌纹图像对应的标准掌面展示角度调整掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整掌纹关键点检测模型的模型参数;基于目标掌纹关键点位置确定目标掌纹图像对应的目标掌纹图像区域;根据目标掌纹图像区域进行身份识别,得到目标用户对应的身份识别结果。本申请中的掌纹关键点检测模型可以部署于云服务器中,云服务器提供人工智能云服务,采用本方法能够提高身份识别的准确度。

Description

身份识别方法、掌纹关键点检测模型训练方法和装置
技术领域
本申请涉及计算机技术领域,特别是涉及一种身份识别方法、掌纹关键点检测模型训练方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,出现了身份识别技术。身份识别技术可以对用户的身份进行识别,可以保证用户的财产安全。例如,身份识别技术可以应用在支付领域,当需要支付时,可以先利用基于人工智能的身份识别模型进行身份识别,当确定用户的身份合法时,在进行支付。
传统技术中,身份识别技术主要依靠账户名和登录密码进行登录,账户名和登录密码一般由数字、字母或特殊符号等组成。然而,账户名和登录密码容易被盗取,盗取者可以使用盗取的密码进行身份识别,身份识别时并不能区分密码的真实拥有者与密码的盗取者,导致身份识别的准确度低。
发明内容
基于此,有必要针对上述身份识别准确度低的技术问题,提供一种能够提高身份识别准确度的掌纹关键点检测模型、身份识别方法、装置、计算机设备和存储介质。
一种身份识别方法,所述方法包括:获取待识别的目标用户对应的目标掌纹图像;将所述目标掌纹图像输入到已训练的掌纹关键点检测模型中,检测得到掌纹关键点对应的目标掌纹关键点位置,所述掌纹关键点检测模型是根据样本掌纹图像训练得到的,在训练时,根据所述样本掌纹图像对应的标准掌面展示角度调整所述掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整所述掌纹关键点检测模型的模型参数;基于所述目标掌纹关键点位置确定所述目标掌纹图像对应的目标掌纹图像区域;根据所述目标掌纹图像区域进行身份识别,得到所述目标用户对应的身份识别结果。
一种身份识别装置,所述装置包括:目标掌纹图像获取模块,用于获取待识别的目标用户对应的目标掌纹图像;目标掌纹关键点位置得到模块,用于将所述目标掌纹图像输入到已训练的掌纹关键点检测模型中,检测得到掌纹关键点对应的目标掌纹关键点位置,所述掌纹关键点检测模型是根据样本掌纹图像训练得到的,在训练时,根据所述样本掌纹图像对应的标准掌面展示角度调整所述掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整所述掌纹关键点检测模型的模型参数;目标掌纹图像区域确定模块,用于基于所述目标掌纹关键点位置确定所述目标掌纹图像对应的目标掌纹图像区域;身份识别结果得到模块,用于根据所述目标掌纹图像区域进行身份识别,得到所述目标用户对应的身份识别结果。
在一些实施例中,所述身份识别结果得到模块包括:掌纹相似度获取单元,用于获取所述目标掌纹图像区域与候选用户集合中,各个候选用户对应的参考掌纹图像的掌纹相似度;掌静脉相似度获取单元,用于获取所述目标用户对应的目标掌静脉图像,与所述候选用户集合中,各个所述候选用户对应的参考掌静脉图像的掌静脉相似度;身份相似度得到单元,用于基于所述掌纹相似度以及所述掌静脉相似度进行计算,得到所述目标用户与所述候选用户的身份相似度;身份识别结果得到单元,用于根据所述身份相似度,得到所述目标用户对应的身份识别结果。
在一些实施例中,所述装置还包括:当前掌纹图像获取模块,用于获取对当前用户的掌纹进行实时采集得到的当前掌纹图像;掌纹相似度获取模块,用于获取所述当前掌纹图像与候选用户集合中,各个候选用户对应的参考掌纹图像的掌纹相似度;身份认证用户确定模块,用于将掌纹相似度大于相似度阈值的候选用户,作为所述当前掌纹图像对应的身份认证用户;参考掌静脉图像确定模块,用于获取所述当前用户对应的当前掌静脉图像,将所述当前掌静脉图像作为所述身份认证用户对应的参考掌静脉图像。
在一些实施例中,已训练的所述掌纹关键点检测模型得到模块包括:样本掌纹图像获取单元,用于获取样本掌纹图像;预测掌纹关键点位置确定单元,用于将所述样本掌纹图像输入到待训练的掌纹关键点检测模型中,所述掌纹关键点检测模型利用特征提取层对所述样本掌纹图像进行特征提取,得到训练掌纹特征,基于所述训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置;预测掌面展示角度确定单元,用于将所述训练掌纹特征输入到角度确定模型中,确定所述样本掌纹图像对应的预测掌面展示角度;第一模型损失值确定单元,用于基于所述预测掌纹关键点位置与所述样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值;目标损失值确定单元,用于根据所述预测掌面展示角度与所述样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用所述模型损失调整数值对所述第一模型损失值进行调整,得到目标损失值;已训练的掌纹关键点检测模型得到单元,用于基于所述目标损失值对所述掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述身份识别方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述身份识别方法的步骤。
上述身份识别方法、装置、计算机设备和存储介质,获取待识别的目标用户对应的目标掌纹图像,将目标掌纹图像输入到已训练的掌纹关键点检测模型中,检测得到掌纹关键点对应的目标掌纹关键点位置,掌纹关键点检测模型是根据样本掌纹图像训练得到的,基于目标掌纹关键点位置确定目标掌纹图像对应的目标掌纹图像区域,根据目标掌纹图像区域进行身份识别,得到目标用户对应的身份识别结果,由于在训练时,根据样本掌纹图像对应的标准掌面展示角度调整掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整掌纹关键点检测模型的模型参数,因此掌纹关键点检测模型可以对不同掌面展示角度的掌面图像进行准确的关键点检测,提高了身份识别的准确度。
一种掌纹关键点检测模型训练方法,所述方法包括:获取样本掌纹图像;将所述样本掌纹图像输入到待训练的掌纹关键点检测模型中,所述掌纹关键点检测模型利用特征提取层对所述样本掌纹图像进行特征提取,得到训练掌纹特征,基于所述训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置;将所述训练掌纹特征输入到角度确定模型中,确定所述样本掌纹图像对应的预测掌面展示角度;基于所述预测掌纹关键点位置与所述样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值;根据所述预测掌面展示角度与所述样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用所述模型损失调整数值对所述第一模型损失值进行调整,得到目标损失值;基于所述目标损失值对所述掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
一种掌纹关键点检测模型训练装置,所述装置包括:样本掌纹图像获取模块,用于获取样本掌纹图像;预测掌纹关键点位置确定模块,用于将所述样本掌纹图像输入到待训练的掌纹关键点检测模型中,所述掌纹关键点检测模型利用特征提取层对所述样本掌纹图像进行特征提取,得到训练掌纹特征,基于所述训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置;预测掌面展示角度确定模块,用于将所述训练掌纹特征输入到角度确定模型中,确定所述样本掌纹图像对应的预测掌面展示角度;第一模型损失值确定模块,用于基于所述预测掌纹关键点位置与所述样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值;目标损失值确定模块,用于根据所述预测掌面展示角度与所述样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用所述模型损失调整数值对所述第一模型损失值进行调整,得到目标损失值;已训练的掌纹关键点检测模型得到模块,用于基于所述目标损失值对所述掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
在一些实施例中,所述目标损失值确定模块包括:角度差值得到单元,用于计算所述预测掌面展示角度与所述标准掌面展示角度之间的差异,得到角度差值;目标损失值调整系数得到单元,用于根据所述角度差值计算得到目标损失值调整系数;所述目标损失值调整系数与所述角度差异成正相关关系;目标损失值得到单元,用于根据所述目标损失值调整系数对所述第一模型损失值进行调整,得到所述目标损失值。
在一些实施例中,所述目标损失值调整系数得到单元,还用于计算所述角度差值对应的余弦值,根据所述余弦值计算得到第一损失值调整系数,所述第一损失值调整系数与所述余弦值成正相关关系;将预设损失值调整系数减去所述第一损失值调整系数,得到所述目标损失值调整系数。
在一些实施例中,所述掌纹关键点有多个,所述第一模型损失值确定模块包括:位置差异获取单元,用于获取所述掌纹关键点对应的预测掌纹关键点位置,与所述样本掌纹图像中,所述掌纹关键点对应的标准掌纹关键点位置的位置差异;关键点模型损失值确定单元,用于根据所述掌纹关键点对应的位置差异,确定所述掌纹关键点对应的关键点模型损失值;第一模型损失值得到单元,用于统计所述掌纹关键点对应的关键点模型损失值,得到所述第一模型损失值。
在一些实施例中,所述已训练的掌纹关键点检测模型得到模块包括:调整后的掌纹关键点检测模型得到单元,用于根据所述目标损失值对所述掌纹关键点检测模型中的模型参数进行调整,得到调整后的掌纹关键点检测模型;调整后的角度确定模型得到单元,用于根据所述目标损失值对所述角度确定模型中的模型参数进行调整,得到调整后的角度确定模型;已训练的掌纹关键点检测模型得到单元,用于返回获取样本掌纹图像的步骤,直至所述掌纹关键点检测模型收敛,得到所述已训练的掌纹关键点检测模型。
在一些实施例中,所述装置还包括:图像相似标签获取模块,用于获取第一掌纹图像以及第二掌纹图像,以及所述第一掌纹图像与第二掌纹图像之间的图像相似标签;掌纹特征得到模块,用于利用待训练的掌纹识别模型进行掌纹特征识别,得到所述第一掌纹图像对应的第一掌纹特征,以及所述第二掌纹图像对应的第二掌纹特征;第二模型损失值确定模块,用于根据所述第一掌纹特征与所述第二掌纹特征之间的特征相似度以及所述图像相似标签,确定所述掌纹识别模型对应的第二模型损失值;已训练的掌纹识别模型得到模块,用于根据所述掌纹识别模型对应的第二模型损失值对所述掌纹识别模型中的模型参数进行调整,得到已训练的掌纹识别模型。
在一些实施例中,所述掌纹特征得到模块包括:掌纹关键点位置得到单元,用于将所述第一掌纹图像以及所述第二掌纹图像分别输入到已训练的掌纹关键点检测模型,得到所述第一掌纹图像对应的第一掌纹关键点位置,以及所述第二掌纹图像对应的第二掌纹关键点位置;掌纹图像区域确定单元,用于基于所述第一掌纹关键点位置确定所述第一掌纹图像对应的第一掌纹图像区域,基于所述第二掌纹关键点位置确定所述第二掌纹图像对应的第二掌纹图像区域;掌纹特征得到单元,用于将所述第一掌纹图像区域以及所述第二掌纹图像区域分别输入到待训练的掌纹识别模型中,得到所述第一掌纹图像对应的第一掌纹特征,以及所述第二掌纹图像对应的第二掌纹特征。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述掌纹关键点检测模型训练的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述掌纹关键点检测模型训练的步骤。
上述掌纹关键点检测模型训练方法、装置、计算机设备和存储介质,获取样本掌纹图像,将样本掌纹图像输入到待训练的掌纹关键点检测模型中,掌纹关键点检测模型利用特征提取层对样本掌纹图像进行特征提取,得到训练掌纹特征,基于训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置,将训练掌纹特征输入到角度确定模型中,确定样本掌纹图像对应的预测掌面展示角度,基于预测掌纹关键点位置与样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值,根据预测掌面展示角度与样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用模型损失调整数值对第一模型损失值进行调整,得到目标损失值,基于目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型,从而使得掌纹关键点检测模型可以对不同掌面展示角度的掌面图像进行准确的关键点检测,提高了对掌纹关键点进行检测的准确度。
附图说明
图1为一些实施例中掌纹关键点检测模型训练方法和身份识别方法的应用环境图;
图2为一些实施例中掌纹关键点检测模型训练方法的流程示意图;
图3为一些实施例中得到感兴趣区域的原理图;
图4为一些实施例中样本类别的示意图;
图5为一些实施例中倒残差模块的示意图;
图6为一些实施例中掌纹关键点检测模型的示意图;
图7为一些实施例中掌纹识别模型的示意图;
图8为一些实施例中得到掌纹图像区域的原理图;
图9为一些实施例中身份识别方法的流程示意图;
图10为一些实施例中掌静脉特征的示意图;
图11为一些实施例中掌纹关键点检测模型训练装置的结构框图;
图12为一些实施例中身份识别装置的结构框图;
图13为一些实施例中计算机设备的内部结构图;
图14为一些实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的掌纹关键点检测模型训练方法,可以应用于如图1所示的应用环境中。其中,第一终端102以及第二终端106通过网络与服务器104进行通信。第一终端102可以采集用户的掌纹图像,第二终端106也可以采集用户的掌纹图像,第一终端102或第二终端106中的至少一个可以将采集到的掌纹图像传输至服务器104。服务器104可以获取样本掌纹图像,样本掌纹图像例如第一终端102或第二终端106采集到的掌纹图像。服务器104可以将样本掌纹图像输入到待训练的掌纹关键点检测模型中,掌纹关键点检测模型可以利用特征提取层对样本掌纹图像进行特征提取,得到训练掌纹特征,掌纹关键点检测模型可以基于训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置。服务器104可以将训练掌纹特征输入到角度确定模型中,确定样本掌纹图像对应的预测掌面展示角度,基于预测掌纹关键点位置与样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值,根据预测掌面展示角度与样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用模型损失调整数值对第一模型损失值进行调整,得到目标损失值,基于目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
其中,第一终端102和第二终端106可以是具有采集掌纹图像功能的终端,例如可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,第二终端106还可以具有采集其他生物特征图像的功能,例如可以具有采集掌静脉图像的功能。下面提到的终端可以是第一终端102,也可以是第二终端106。
服务器104可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。可以理解,本申请实施例提供的方法也可以是在终端中执行的。
本申请实施例提供的掌纹关键点检测模型是基于人工智能的模型,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
在一些实施例中,如图2所示,提供了一种掌纹关键点检测模型训练方法,以该方法应用于图1中的服务器104为例进行说明,包括以下步骤:
S202,获取样本掌纹图像。
其中,掌纹可以是手腕与手指之间的手掌表面上的各种纹线,或者脚腕与脚指之间的手掌表面上的各种纹线。掌纹所包含的信息通常比指纹包含的信息丰富。掌纹图像指的是包括掌纹的图像,可以是终端通过相机采集到的手掌图像、手心图像或脚掌图像中的至少一种,手掌图像指的是包括手掌的图像,手掌包括手心、手背和手指,手心图像指的是包括手心的图像。掌纹图像也可以是终端采集到的手掌图像进行处理得到的处理后的手掌图像,例如可以从采集到的手掌图像中获取手掌所在的区域,得到掌纹图像,从而可以使得掌纹图像中减少无关的图像区域,无关的图像区域例如手掌图像中的背景区域。如图3所示,手掌图像例如可以是图3(a)所示的图像,掌纹图像例如可以是图3(a)的矩形框中的图像区域。
样本掌纹图像指的是训练样本,用于训练模型。样本掌纹图像可以有多个。不同的样本掌纹图像可以是同一用户的掌纹图像,也可以是不同用户的掌纹图像。样本掌纹图像可以对应有样本类别。样本类别指的是样本掌纹图像的类别。可以按照手掌的舒展程度或者手掌与水平面的夹角中的至少一种将样本掌纹图像划分为不同的类别。例如,如图4所示,可以根据手掌与水平方向的夹角,将样本掌纹图像分为四个类别:-45°~45°为类别1,45°~135°为类别2,135°~-135°为类别3,-135°~-45°为类别4。
具体地,由于终端传输至服务器的采集图像中,可能存在手掌,也可能不存在手掌。当存在手掌时,可能是左手掌,也可能是右手掌。因此服务器可以获取终端采集到的采集图像,利用已训练的手掌检测模型对采集图像进行手掌检测,确定手掌在采集图像中的位置,从采集图像中得到手掌所在的图像区域,得到手掌图像。
手掌检测模型可以是自定义的神经网络模型,也可以是现有的神经网络模型,例如可以是基于YOLO的神经网络模型,例如可以为Tiny-Yolov2、Tiny-YOLOv3或YOLO-Lite中的任意一种。其中,Tiny-YOLOv3是YOLOv3的改进版本,YOLOv3有107个网络层,Tiny-YOLOv3有24个网络层。Tiny-YOLOv3中的YOLO16和YOLO23的每层有3个anchors(锚),实现了多尺度的检测。Tiny-YOLOv3的检测精度低于YOLOv3,检测速度高于YOLOv3。
S204,将样本掌纹图像输入到待训练的掌纹关键点检测模型中,掌纹关键点检测模型利用特征提取层对样本掌纹图像进行特征提取,得到训练掌纹特征,基于训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置。
其中,掌纹关键点检测模型用于检测掌纹关键点的位置。掌纹关键点指的是与掌纹区域相关的点。掌纹关键点可以有多个。掌纹关键点的数量可以是预先设置的,也可以是根据需要设置的,例如可以是14个。掌纹关键点的种类可以是预先设置的,也可以是根据需要设置的,例如可以包括食指与中指中间位置对应的点、中指与无名指中间位置对应的点、无名指与小指中间位置对应的点、手掌两侧的点或手指与手心连接处的点中的至少一种。其中,食指与中指中间位置对应的点也可以称为第一谷点,中指与无名指中间位置对应的点也可以称为第二谷点,无名指与小指中间位置对应的点也可以称为第三谷点。掌纹关键点例如可以是图3(b)中所示的点。掌纹关键点位置指的是掌纹关键点的位置,位置可以用坐标表示,例如可以用横坐标和纵坐标表示。预测掌纹关键点位置指的是掌纹关键点检测模型输出的掌纹关键点的位置,是对掌纹关键点的位置进行预测得到的预测值。
掌纹关键点检测模型可以包括多个网络层。掌纹关键点检测模型可以是自定义的神经网络模型,也可以是现有的神经网络模型,例如可以包括MobilenetV2。MobilenetV2的基本单元是bottleneck,bottleneck由深度可分离卷积和倒残差模块组成。倒残差模块首先对输入数据通过1*1的卷积进行升维,然后通过3*3的深度可分离卷积提取特征,再通过1*1卷积进行降维,最后将输入和输出特征叠加在一起作为最终的输出,保证了深度可分离卷积在高维空间中进行,使得减少参数的同时不损失精度,并且输入和输出的叠加使得特征得到复用。和常规卷积相比,深度可分离卷积的网络权重参数量以及运算次数少,缩减了模型尺寸。如图5所示,展示了一个倒残差模块。图中,3x3代表卷积核的尺寸,64代表通道数。圆圈内一个加号代表相加,即恒等映射。ReLU(Rectified Linear Unit,线性整流函数)表示利用激活函数进行激活。256-d代表输入为256维。
掌纹关键点检测模型中可以包括特征提取层,特征提取层可以是掌纹关键点检测模型中的任意的隐藏层,也可以是根据需要确定的特定的隐藏层,例如可以是掌纹关键点检测模型中的MobilenetV2模块。训练掌纹特征为特征提取层的输出数据。待训练的掌纹关键点检测模型指的是需要进行训练的掌纹关键点检测模型。掌纹关键点检测模型中特征提取层之后还可以接入一个或者多个卷积层,例如3个卷积层。为了得到多尺度的特征,可以将接入的卷积层的输出进行拼接,将拼接后的数据经过全连接层,得到预测掌纹关键点位置。掌纹关键点检测模型的损失函数可以是均方差损失函数,即可以是预测掌纹关键点位置与真实的掌纹关键点的位置的平方差的均值。掌纹关键点检测模型例如可以是图6所示的掌纹关键点检测模型。
具体地,服务器可以将训练掌纹特征作为掌纹关键点检测模型中特征提取层之后的网络的输入,掌纹关键点检测模型中特征提取层之后的网络,可以根据训练掌纹特征进行特征提取,确定各个掌纹关键点分别对应的预测掌纹关键点位置。
S206,将训练掌纹特征输入到角度确定模型中,确定样本掌纹图像对应的预测掌面展示角度。
其中,角度确定模型用于确定掌面展示角度。掌面展示角度指的是掌面所呈现的角度,例如可以是掌面与水平面的夹角。预测掌面展示角度指的是角度确定模型输出的掌面展示角度。角度确定模型例如可以是图6中展示的角度确定模块,图6中θ表示预测掌面展示角度。
具体地,由于不同的样本掌纹图像中掌面对应的掌面展示角度不尽相同,掌面展示角度对掌纹关键点的定位具有较大的影响。因此可以通过角度确定模型对训练掌纹特征进行识别,得到样本掌纹图像对应的预测掌面展示角度,从而可以在对掌纹关键点检测模型进行训练时,使用预测掌面展示角度提高训练的准确度。
S208,基于预测掌纹关键点位置与样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值。
其中,标准掌纹关键点位置指的是掌纹关键点的真实位置。标准掌纹关键点位置可以是通过人工标注确定的,也可以是通过已训练的神经网络模型检测得到的。位置的差异可以用位置之间的距离表示。位置之间的距离例如可以是欧式距离。例如,若预测掌纹关键点位置为(x1,y1),标准掌纹关键点位置为(x2,y2),则预测掌纹关键点位置与标准掌纹关键点位置之间的差异可以为(x1-x2)2+(y1-y2)2
损失值是根据损失函数得到的,损失函数(loss function)是用于表示事件的“风险”或“损失”的函数。第一模型损失值是根据预测掌纹关键点位置与对应的标准掌纹关键点位置之间的差异确定的。预测掌纹关键点位置对应的标准掌纹关键点位置指的是,预测掌纹关键点位置对应的掌纹关键点的标准掌纹关键点位置。第一模型损失值可以根据多个掌纹关键点分别对应的位置差异确定,例如可以根据多个掌纹关键点分别对应的位置差异进行统计运算,确定第一模型损失值。其中,掌纹关键点对应的位置差异指的是预测掌纹关键点位置与对应的标准掌纹关键点位置之间的差异。统计运算可以为均值运算、求和运算或求积运算中的任意一种。第一模型损失值与掌纹关键点对应的位置差异可以成正相关关系。
具体地,服务器可以获取样本掌纹图像对应的标准掌纹关键点位置集合,标准掌纹关键点位置集合中包括样本掌纹图像中各个掌纹关键点分别对应的标准掌纹关键点位置。服务器可以根据预测掌纹关键点位置对应的掌纹关键点,从标准掌纹关键点位置集合中确定预测掌纹关键点位置对应的标准掌纹关键点位置,计算预测掌纹关键点位置与对应的标准掌纹关键点位置之间的差异。例如,若标准掌纹关键点位置集合中包括掌纹关键点1对应的标准掌纹关键点位置1,以及掌纹关键点2对应标准掌纹关键点位置2。若预测掌纹关键点位置是对掌纹关键点1的位置的预测值,则预测掌纹关键点位置对应的标准掌纹关键点位置指的是标准掌纹关键点位置1。
S210,根据预测掌面展示角度与样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用模型损失调整数值对第一模型损失值进行调整,得到目标损失值。
其中,标准掌面展示角度指的是样本掌纹图像的真实的掌面展示角度。模型损失调整数值是根据预测掌面展示角度与标准掌面展示角度的差异确定的,模型损失调整数值可以与预测掌面展示角度与标准掌面展示角度的差异成正相关关系,例如模型损失调整数值可以为预测掌面展示角度与标准掌面展示角度的差异。模型损失调整数值可以与目标损失值成正相关关系。
目标损失值是根据模型损失调整数值以及第一模型损失值确定的,可以是根据模型损失调整数值与第一模型损失值的线性计算的结果或者非线性计算的结果确定的,例如可以是根据模型损失调整数值与第一模型损失值的乘积确定的,也可以是根据模型损失调整数值与第一模型损失值求和的结果确定的。
具体地,服务器可以计算预测掌面展示角度与标准掌面展示角度之间的差异,得到角度差异,对角度差异进行计算得到模型损失调整数值,例如对角度差异进行余弦计算得到模型损失调整数值。服务器可以计算模型损失调整数值与第一模型损失值的乘积或者相加后的结果,得到目标损失值。
在一些实施例中,在对掌纹关键点检测模型训练时,一次训练可以采用一批样本掌纹图像进行训练。为了克服样本类别不均衡会影响模型训练的效果,例如影响模型对稀少样本的检测的鲁棒性。目标损失值还可以根据模型损失调整数值、第一模型损失值和样本类别权重确定的。其中,样本类别权重指的是样本类别对应的权重。对于一批样本掌纹图像,样本类别对应的样本类别权重,与该批样本掌纹图像中该样本类别对应的样本掌纹图像的数量成负相关关系。例如,一批样本掌纹图像中,样本类别对应的样本类别权重可以为,该样本类别对应的样本掌纹图像的数量与该批样本掌纹图像中样本掌纹图像的总数的比值。例如,一批样本掌纹图像中共包括100个样本掌纹图像,其中30个为类别1,70个为类别2,则类别1对应的样本类别权重可以为30÷100=0.3,类别2对应的样本类别权重可以为70÷100=0.7。
在一些实施例中,目标损失值可以根据一批样本掌纹图像中各个样本掌纹图像分别对应的样本损失值确定,例如可以是各个样本损失值的平均值。其中,样本掌纹图像对应的样本损失值,根据样本掌纹图像对应的样本类别权重、第一模型损失值以及模型损失调整数值进行线性运算或者非线性运算得到,例如样本损失值可以为样本类别权重、第一模型损失值以及模型损失调整数值的乘积。
S212,基于目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
其中,在对模型参数进行调整时,是朝着使损失值下降的方向进行调整的。服务器可以使用梯度下降方法对模型参数进行调整,梯度下降方法可以是随机梯度下降方法或批量梯度下降方法中的任意一种。可以理解,服务器可以对掌纹关键点检测模型进行多次参数的调整,直至模型收敛,得到已训练的掌纹关键点检测模型。其中,在对掌纹关键点检测模型中的参数进行的调整时,可以同时对角度确定模型中的参数进行调整。角度确定模型用于提高掌纹关键点检测模型的准确度,在使用已训练的掌纹关键点检测模型进行掌纹关键点检测时,并不需要使用角度确定模型。
具体地,服务器可以对掌纹关键点检测模型进行多次的模型参数的调整,直至模型收敛,得到已训练的掌纹关键点检测模型。模型收敛例如可以是模型损失值小于预设损失值,也可以是模型参数的变化小于预设参数变化值。
上述掌纹关键点检测模型训练方法中,获取样本掌纹图像,将样本掌纹图像输入到待训练的掌纹关键点检测模型中,掌纹关键点检测模型利用特征提取层对样本掌纹图像进行特征提取,得到训练掌纹特征,基于训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置,将训练掌纹特征输入到角度确定模型中,确定样本掌纹图像对应的预测掌面展示角度,基于预测掌纹关键点位置与样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值,根据预测掌面展示角度与样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用模型损失调整数值对第一模型损失值进行调整,得到目标损失值,基于目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型,从而使得掌纹关键点检测模型可以对不同掌面展示角度的掌面图像进行准确的关键点检测,提高了对掌纹关键点进行检测的准确度。
在一些实施例中,步骤S210根据预测掌面展示角度与样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用模型损失调整数值对第一模型损失值进行调整,得到目标损失值包括:计算预测掌面展示角度与标准掌面展示角度之间的差异,得到角度差值;根据角度差值计算得到目标损失值调整系数;目标损失值调整系数与角度差异成正相关关系;根据目标损失值调整系数对第一模型损失值进行调整,得到目标损失值。
其中,角度差值指的是预测掌面展示角度与标准掌面展示角度之间的差异。目标损失值调整系数是根据角度差值计算得到的,例如可以是根据角度差值进行线性计算或者非线性计算得到的计算结果。例如,目标损失值调整系数可以是对角度差异进行余弦计算得到的。角度差值的取值范围为[0°,180°]。
目标损失值可以是根据目标损失值调整系数与第一模型损失值的线性计算的结果或者非线性计算的结果确定的,例如可以是根据目标损失值调整系数与第一模型损失值的乘积确定的,也可以是根据目标损失值调整系数与第一模型损失值求和的结果确定的。
具体地,目标损失值可以根据一批样本掌纹图像中各个样本掌纹图像分别对应的样本损失值确定,例如可以是各个样本损失值的平均值。其中,样本掌纹图像对应的样本损失值是,根据样本掌纹图像对应的样本类别权重、第一模型损失值以及目标损失值调整系数进行线性运算或者非线性运算得到,例如样本损失值可以为样本类别权重、第一模型损失值以及目标损失值调整系数的乘积。例如,目标损失值可以为公式(1),其中,L表示目标损失值,M表示一次训练中使用的样本掌纹图像的数量,一次训练中使用的样本掌纹图像的数量指的是同一个batch(批)中的样本掌纹图像的数量。
Figure BDA0002713501440000161
为一次训练中第m个样本对应的样本类别权重,c表示样本类别。N表示掌纹关键点的个数。θm表示模型损失调整数值,
Figure BDA0002713501440000162
Figure BDA0002713501440000163
表示预测掌面展示角度,
Figure BDA0002713501440000164
表示标准掌面展示角度。1-cosθm表示目标损失值调整系数。
Figure BDA0002713501440000165
表示第一模型损失值,
Figure BDA0002713501440000166
Figure BDA0002713501440000167
表示第n个掌纹关键点的预测掌纹关键点位置对应的横坐标,
Figure BDA0002713501440000168
表示第n个掌纹关键点的预测掌纹关键点位置对应的纵坐标,
Figure BDA0002713501440000169
表示第n个掌纹关键点的标准掌纹关键点位置对应的横坐标,
Figure BDA00027135014400001610
表示第n个掌纹关键点的标准掌纹关键点位置对应的纵坐标。
Figure BDA00027135014400001611
本实施例中,由于目标损失值调整系数与角度差异成正相关关系,因此目标损失值调整系数的变化可以反映角度差异的变化,从而根据目标损失值调整系数对第一模型损失值进行调整,得到目标损失值,提高了目标损失值的准确度。
在一些实施例中,根据角度差值计算得到目标损失值调整系数包括:计算角度差值对应的余弦值,根据余弦值计算得到第一损失值调整系数,第一损失值调整系数与余弦值成正相关关系;将预设损失值调整系数减去第一损失值调整系数,得到目标损失值调整系数。
其中,第一损失值调整系数是根据角度差值对应的余弦值确定的,第一损失值调整系数与余弦值成正相关关系,第一损失值调整系数例如可以是角度差值对应的余弦值。预设损失值调整系数可以是根据需要预先设置的,例如可以是1。目标损失值调整系数指的是预设损失值调整系数减去第一损失值调整系数得到的结果。
本实施例中,由于第一损失值调整系数与余弦值成正相关关系,在[0°,180°]的角度范围内,角度的余弦值与角度成负相关关系,从而将预设损失值调整系数减去第一损失值调整系数,得到目标损失值调整系数,可以使得目标损失值调整系数与角度差值成正相关关系。
在一些实施例中,掌纹关键点有多个,步骤S208基于预测掌纹关键点位置与样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值包括:获取掌纹关键点对应的预测掌纹关键点位置,与样本掌纹图像中,掌纹关键点对应的标准掌纹关键点位置的位置差异;根据掌纹关键点对应的位置差异,确定掌纹关键点对应的关键点模型损失值;统计掌纹关键点对应的关键点模型损失值,得到第一模型损失值。
其中,掌纹关键点对应的关键点模型损失值可以是根据掌纹关键点对应的位置差异进行线性计算或者非线性计算得到的,例如可以将掌纹关键点对应的位置差异作为掌纹关键点对应的关键点模型损失值,或者将掌纹关键点对应的位置差异与第一固定常数的乘积作为掌纹关键点对应的关键点模型损失值,或者将掌纹关键点对应的位置差异与第二固定常数求和的结果作为掌纹关键点对应的关键点模型损失值。第一固定常数以及第二固定常数可以是根据需要确定的,也可以是预先确定的。
具体地,服务器可以对掌纹关键点对应的关键点模型损失值进行统计运算,得到第一模型损失值。第一模型损失值与关键点模型损失值可以成正相关关系。
本实施例中,获取掌纹关键点对应的预测掌纹关键点位置,与样本掌纹图像中,掌纹关键点对应的标准掌纹关键点位置的位置差异,根据掌纹关键点对应的位置差异,确定掌纹关键点对应的关键点模型损失值,统计掌纹关键点对应的关键点模型损失值,得到第一模型损失值,从而根据掌纹关键点的预测出的位置与真实的位置之间的差异得到第一模型损失值,提高了第一模型损失值的准确度。
在一些实施例中,步骤S212基于目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型包括:根据目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到调整后的掌纹关键点检测模型;根据目标损失值对角度确定模型中的模型参数进行调整,得到调整后的角度确定模型;返回获取样本掌纹图像的步骤,直至掌纹关键点检测模型收敛,得到已训练的掌纹关键点检测模型。
其中,调整后的掌纹关键点检测模型是对掌纹关键点检测模型中的模型参数进行调整后得到的掌纹关键点检测模型。调整后的角度确定模型是对角度确定模型中的模型参数进行调整后得到的角度确定模型。
具体地,服务器在对掌纹关键点检测模型进行训练时,在每次调整参数时,可以根据目标损失值对掌纹关键点检测模型中的模型参数以及角度确定模型中的模型参数进行调整。从而使得角度确定模型也得到训练,使得角度确定模型的准确度不断提高,即提高了角度确定模型输出的角度的准确性,使得目标损失值的准确度不断提高,从而使得掌纹关键点检测模型的准确度不断提高,得到准确度高的已训练的掌纹关键点检测模型。
本实施例中,根据目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到调整后的掌纹关键点检测模型,根据目标损失值对角度确定模型中的模型参数进行调整,得到调整后的角度确定模型,返回获取样本掌纹图像的步骤,直至掌纹关键点检测模型收敛,得到已训练的掌纹关键点检测模型,从而使得角度确定模型也得到训练,使得角度确定模型的准确度不断提高,即提高了角度确定模型输出的角度的准确性,使得目标损失值的准确度不断提高,从而使得掌纹关键点检测模型的准确度不断提高,得到准确度高的已训练的掌纹关键点检测模型。
在一些实施例中,该方法还包括:获取第一掌纹图像以及第二掌纹图像,以及第一掌纹图像与第二掌纹图像之间的图像相似标签;利用待训练的掌纹识别模型进行掌纹特征识别,得到第一掌纹图像对应的第一掌纹特征,以及第二掌纹图像对应的第二掌纹特征;根据第一掌纹特征与第二掌纹特征之间的特征相似度以及图像相似标签,确定掌纹识别模型对应的第二模型损失值;根据掌纹识别模型对应的第二模型损失值对掌纹识别模型中的模型参数进行调整,得到已训练的掌纹识别模型。
其中,第一掌纹图像以及第二掌纹图像可以是对掌纹进行采集得到图像,也可以对采集得到的图像进行处理得到的掌纹图像区域。图像相似标签用于表示第一掌纹图像与第二掌纹图像之间的相似性,可以为相似或不相似中的任意一种。当图像相似标签为相似时,表示第一掌纹图像与第二掌纹图像为同一用户的同一手掌对应的掌纹图像。当图像相似标签为不相似时,表示第一掌纹图像与第二掌纹图像为同一用户的不同手掌对应的掌纹图像,或者表示第一掌纹图像与第二掌纹图像为不同用户的手掌对应的掌纹图像。
掌纹识别是一种基于掌纹的生物特征识别技术。掌纹识别是一种非侵犯性的识别方式,对采集设备要求较低,私密性较好。掌纹识别模型用于识别掌纹图像中的掌纹特征。待训练的掌纹识别模型指的是需要进行训练的掌纹识别模型。掌纹特征是掌纹所固有的生理特征,可以包括掌纹主线、皱纹、细小的纹理、脊末梢或分叉点中的至少一种,掌纹特征可以是用字符串表示的,例如可以是128维的哈希编码。第一掌纹特征是第一掌纹图像对应的掌纹特征,第二掌纹特征是第二掌纹图像对应的掌纹特征。第一掌纹特征用于反映第一掌纹图像中掌纹对应的掌纹特征。第二掌纹特征用于反映第二掌纹图像中掌纹对应的掌纹特征。
特征相似度指的是第一掌纹特征与第二掌纹特征之间的相似度,当掌纹特征是哈希编码时,可以通过计算第一掌纹特征与第二掌纹特征之间的汉明距离得到特征相似度。汉明距离与特征相似度是成负相关关系的,即汉明距离越大,特征相似度越小。汉明距离与特征相似度的对应关系可以是预先设置的,例如可以设置汉明距离为0时,特征相似度为1,汉明距离为1至3时,特征相似度为0.9,汉明距离为4至8时,特征相似度为0.75。其中,汉明距离指的是两个等长字符串对应位置的不同字符的个数。即汉明距离指的是将一个字符串变换成另外一个字符串所需要替换的字符个数。例如,如果第一掌纹特征对应的字符串为1101,第二掌纹特征对应的字符串为1011,由于1101与1011中的第2个字符以及第3个字符不一样,故汉明距离为2。
具体地,当图像相似标签为相似时,第二模型损失值与特征相似度成负相关关系;当图像相似标签为不相似时,第二模型损失值与特征相似度成正相关关系。
在一些实施例中,由于在实际应用中,掌纹识别需要耗费较多时间,为了提高掌纹识别的速度并且节约计算机资源,服务器可以通过知识蒸馏方法训练得到掌纹识别模型。从而可以将训练得到掌纹识别模型使用在终端中进行掌纹识别。知识蒸馏是一种模型压缩方法,知识蒸馏模型包括一个教师网络(Teacher网络)和一个学生网络(Student网络)。教师网络是一个具有强特征提取能力的复杂模型,学生网络就是一个轻量级模型。在训练过程中,将教师网络提取得到的特征作为知识迁移到学生网络,使得学生网络具有与教师网络同样的特征提取能力。教师网络模型例如可以是基于VGG16的深度哈希网络(DHN,DeepHashing Network),基于VGG16的深度哈希网络的输出为哈希编码。由于VGG16模型较大、难以部署于移动终端中,因此可以通过知识蒸馏的方法对模型进行压缩、在保证准确性的前提之下得到一个轻量级的模型。学生网络模型例如可以只包含三个卷积层和两个全连接层。
在一些实施例中,为了提高训练准确度,可以将教师网络模型以及学生网络模型的对应层的输出作为分类模块的输入,利用分类模块的输出结果进行训练。分类模块例如可以是softmax(柔性最大值)层。softmax的输入是one-hot离散特征,输出多个值,这些值的和为1,是一个概率分布。
训练时,首先训练教师网络模型,可以将训练样本以及训练样本对应的样本标签输入到教师网络模型中。训练样本可以是掌纹图像或者根据掌纹关键点确定的掌纹图像区域。样本标签用于表示样本对应的用户,可以为用户的标识,样本标签可以是独热编码,也可以称为硬标签。服务器可以根据教师网络模型对应的分类模块输出的独热编码与样本标签对应的独热编码之间的差异,得到分类损失值。服务器中可以预先存储有训练样本对应的真实的哈希编码,服务器可以根据样本标签获取预先存储的真实的哈希编码,根据真实的哈希编码与教师网络模型输出的预测的哈希编码之间的差异,得到验证损失值。服务器可以根据分类损失值以及验证损失值确定教师网络模型对应的教师模型损失值,根据教师模型损失值对教师网络模型中的模型参数进行调整,得到已训练的教师网络模型。
然后,利用已训练的教师网络模型对学生网络模型进行训练,得到已训练的学生网络模型。具体地,将训练样本输入到已训练的教师网络模型中,得到教师网络模型对应的分类模块输出的结果,得到第一标签,第一标签也可以称为软标签,以及得到教师网络模型输出的哈希编码,得到第二标签。将训练样本和对应的硬标签输入到学生网络模型中,得到学生网络模型中分类模块输出的结果,得到第一预测结果,以及得到学生网络模型输出的哈希编码,得到第二预测结果。服务器可以根据硬标签、第一标签以及第一预测结果确定分类损失值,例如可以根据交叉熵计算得到分类损失值,根据第二标签以及第二预测结果得到验证损失值,根据分类损失值以及验证损失值确定学生网络模型对应的模型损失值,利用学生网络模型对应的模型损失值,调整学生网络模型中的模型参数,得到已训练的学生网络模型。
在一些实施例中,由于softmax是通过最大化正确答案的概率去学习多分类的,模型通常会赋予非正确答案一定的概率,即使这些概率都很小但是有一些是明显大于其他的。因此可以获取教师网络模型对应的分类模块的输入数据,将输入数据除以一个固定常数,得到新的输入数据,将新的输入数据作为教师网络模型对应的分类模块的新的输入数据,得到分类模块的输出数据,作为第三标签,服务器可以根据硬标签、第三标签以及第一预测结果确定分类损失值。其中,固定常数可以根据需要确定的,也可以是预先确定的,例如可以是20。得到的已训练的学生网络模型可以将掌纹图像用哈希编码表示,使得样本标签相同的掌纹图像得到的哈希编码相似,样本标签不同类的掌纹图像得到的哈希编码相异。从而可以将待进行身份识别的用户的掌纹图像输入到已训练的学生网络模型中,得到学生网络模型输出的预测哈希编码,计算预测哈希编码与预先存储的多个用户分别对应的哈希编码之间的汉明距离,当预先存储的用户对应的汉明距离小于距离阈值时,可以确定该预先存储的用户与待进行身份识别的用户为同一用户,从而确定了待进行身份识别的用户的身份。如图7所示展示了一个知识蒸馏模型。掌纹识别模型可以是图7中所示的Student网络模型,图中的Lb表示损失函数。
本实施例中,根据第一掌纹特征与第二掌纹特征之间的特征相似度以及图像相似标签,确定掌纹识别模型对应的第二模型损失值,根据掌纹识别模型对应的第二模型损失值对掌纹识别模型中的模型参数进行调整,得到已训练的掌纹识别模型,从而可以使得已训练的掌纹识别模型的识别结果中,相似的掌纹图像对应一致的识别结果,不相似的掌纹图像对应不同的识别结果,提高了掌纹识别模型的识别准确度。
在一些实施例中,利用待训练的掌纹识别模型进行掌纹特征识别,得到第一掌纹图像对应的第一掌纹特征,以及第二掌纹图像对应的第二掌纹特征包括:将第一掌纹图像以及第二掌纹图像分别输入到已训练的掌纹关键点检测模型,得到第一掌纹图像对应的第一掌纹关键点位置,以及第二掌纹图像对应的第二掌纹关键点位置;基于第一掌纹关键点位置确定第一掌纹图像对应的第一掌纹图像区域,基于第二掌纹关键点位置确定第二掌纹图像对应的第二掌纹图像区域;将第一掌纹图像区域以及第二掌纹图像区域分别输入到待训练的掌纹识别模型中,得到第一掌纹图像对应的第一掌纹特征,以及第二掌纹图像对应的第二掌纹特征。
其中,掌纹图像区域指的是根据掌纹关键点位置从掌纹图像中确定的图像区域。第一掌纹图像区域是根据第一掌纹关键点位置从第一掌纹图像中确定的图像区域。第二掌纹图像区域是根据第二掌纹关键点位置从第二掌纹图像中确定的图像区域。掌纹图像区域也可以称为ROI(region of interest,感兴趣区域)。
具体地,服务器可以确定特定掌纹关键点,根据特定掌纹关键点对应的第一掌纹关键点位置确定参考坐标系,利用参考坐标系从第一掌纹图像中确定第一掌纹图像区域。特定掌纹关键点可以根据需要进行选择,也可以是预先确定的,特定掌纹关键点可以有多个,例如可以包括第一谷点、第二谷点或第三谷点中的至少一种。服务器可以将经过第一谷点以及第三谷点的直线作为横轴(即X轴),将经过第二谷点且与X轴垂直的直线作为纵轴(即Y轴),将X轴与Y轴的交点作为坐标原点,从而得到了参考坐标系。服务器可以得到形状为正方形的第一掌纹图像区域,例如服务器可以根据手掌两侧的点确定第一掌纹图像区域对应的正方形的中心位置,根据特定掌纹关键点确定第一掌纹图像区域对应的正方形的边长,从而得到第一掌纹图像区域。如图8所示,展示了根据掌纹关键点确定第一掌纹图像区域的示意图,图中展示了14个掌纹关键点,分别是0,1,2,3,4,5,6,7,8,9,10,11,12,13。服务器可以计算掌纹关键点0与掌纹关键点12之间的距离L1,根据L1确定第一掌纹图像区域的中心位置,中心位置例如可以是Y轴上与第二谷点之间的距离为L1×L的位置,根据第一谷点和第三谷点之间的距离L2,确定感第一掌纹图像区域对应的正方形区域的长度,例如第一掌纹图像区域的长度可以是L2×L。其中L可以根据需要进行设置,例如可以是L1和L2的加权平均值,也可以是预先设置的。第二掌纹图像区域的得到方式参考第一掌纹图像区域的得到方式,这里不再赘述。
本实施例中,将第一掌纹图像区域以及第二掌纹图像区域分别输入到待训练的掌纹识别模型中,得到第一掌纹图像对应的第一掌纹特征,以及第二掌纹图像对应的第二掌纹特征,由于第一掌纹图像区域是基于第一掌纹关键点位置确定的,第二掌纹图像区域是基于第二掌纹关键点位置确定的,从而第一掌纹图像区域以及第二掌纹图像区域可以更加真实的表示掌纹所在的图像区域,从而提高了第一掌纹特征以及第二掌纹特征的准确度。
本申请提供的身份识别方法中的已训练的掌纹关键点检测模型,可以是通过上述的掌纹关键点检测模型训练方法训练得到的。本申请提供的身份识别方法,可以应用于如图1所示的应用环境中。其中,服务器104可以将训练得到的掌纹关键点检测模型传输至第一终端102或第二终端106。第一终端102或第二终端106可以获取待识别的目标用户对应的目标掌纹图像,将目标掌纹图像输入到已训练的掌纹关键点检测模型中,利用掌纹关键点检测模型检测得到掌纹关键点对应的目标掌纹关键点位置。其中,掌纹关键点检测模型是根据样本掌纹图像训练得到的,在训练时,服务器106可以根据样本掌纹图像对应的标准掌面展示角度调整掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整掌纹关键点检测模型的模型参数。第一终端102或第二终端106可以基于目标掌纹关键点位置确定目标掌纹图像对应的目标掌纹图像区域,根据目标掌纹图像区域进行身份识别,得到目标用户对应的身份识别结果。
在一些实施例中,如图9所示,提供了一种身份识别方法,以该方法应用于图1中的第二终端106为例进行说明,包括以下步骤:
S902,获取待识别的目标用户对应的目标掌纹图像。
其中,目标用户指的是待进行身份识别的用户。目标掌纹图像可以对目标用户的手掌进行采集得到的采集图像,也可以利用已训练的手掌检测模型对采集图像进行手掌检测,得到的手掌图像。
S904,将目标掌纹图像输入到已训练的掌纹关键点检测模型中,检测得到掌纹关键点对应的目标掌纹关键点位置,掌纹关键点检测模型是根据样本掌纹图像训练得到的,在训练时,根据样本掌纹图像对应的标准掌面展示角度调整掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整掌纹关键点检测模型的模型参数。
其中,目标掌纹关键点位置指的是目标掌纹图像中掌纹关键点对应的位置。已训练的掌纹关键点检测模型,可以是通过上述的掌纹关键点检测模型训练方法训练得到的。
S906,基于目标掌纹关键点位置确定目标掌纹图像对应的目标掌纹图像区域。
其中,目标掌纹图像区域指的是根据目标掌纹关键点位置从目标掌纹图像中确定出的掌纹图像区域。从目标掌纹图像中确定目标掌纹图像区域的过程可以参考从第一掌纹图像中确定第一掌纹图像区域的过程,这里不再赘述。
S908,根据目标掌纹图像区域进行身份识别,得到目标用户对应的身份识别结果。
其中,身份识别结果可以包括识别成功或识别失败中的任意一种,当身份识别结果为识别成功时,身份识别结果中还可以包括用户身份标识。用户身份标识例如可以是身份证号、电话号码或工号中的至少一种。当身份识别结果为识别成功时,目标用户可以进行快捷支付或密码修改,或者顺利通过安检。
具体地,第二终端可以将目标掌纹图像区域输入到已训练的掌纹识别模型中,利用已训练的掌纹识别模型对目标掌纹图像区域进行特征提取,得到目标掌纹图像区域对应的目标掌纹特征,利用目标掌纹特征确定目标用户对应的身份识别结果。例如,第二终端中可以预先存储有目标用户对应的标准掌纹特征。标准掌纹特征为目标用户对应的真实的掌纹特征。第二终端可以将目标掌纹特征与标准掌纹特征进行对比,当对比一致时,确定身份识别结果为识别成功;当对比不一致时,确定身份识别结果为识别失败。第二终端还可以获取目标用户的掌静脉图像,根据目标用户的目标掌纹图像区域以及掌静脉图像,根据目标掌纹图像区域进行掌纹识别,根据掌静脉图像进行掌静脉识别,实现对目标用户的身份识别,得到目标用户对应的身份识别结果。掌静脉识别是静脉识别的一种,掌静脉识别需要通过近红外摄像头获取手掌静脉的图像,然后经过预处理并提取特征进行身份对比。掌静脉识别对采集设备要求较高,是一种非侵犯式的身份识别方式。
掌静脉可以是手掌的掌静脉,也可以是脚掌的掌静脉。手掌的掌静脉指的是透过手掌的皮肤隐约可见的青筋,包括手掌范围内的所有静脉系统。掌静脉图像指的是包括掌静脉的图像。掌静脉图像可以包括手掌静脉图像或脚掌静脉图像中的至少一种。掌静脉图像可以通过第二终端的可以采集掌静脉图像的相机采集得到的,例如可以是通过第二终端中的CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)相机采集得到的。
在一些实施例中,服务器中可以预先存储的多个用户分别对应的参考掌纹特征,第二终端可以将目标掌纹特征传输至服务器,服务器可以将目标掌纹特征与各个参考掌纹特征进行相似度计算,得到各个参考掌纹特征对应的参考相似度,当参考相似度大于等于相似度阈值时,确定身份识别结果为识别成功,当各个参考相似度均小于相似度阈值时,确定身份识别结果为识别失败。服务器可以将身份识别结果返回至第二终端。
上述身份识别方法中,获取待识别的目标用户对应的目标掌纹图像,将目标掌纹图像输入到已训练的掌纹关键点检测模型中,检测得到掌纹关键点对应的目标掌纹关键点位置,掌纹关键点检测模型是根据样本掌纹图像训练得到的,基于目标掌纹关键点位置确定目标掌纹图像对应的目标掌纹图像区域,根据目标掌纹图像区域进行身份识别,得到目标用户对应的身份识别结果,由于在训练时,根据样本掌纹图像对应的标准掌面展示角度调整掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整掌纹关键点检测模型的模型参数,因此掌纹关键点检测模型可以对不同掌面展示角度的掌面图像进行准确的关键点检测,提高了身份识别的准确度。
在一些实施例中,步骤S908根据目标掌纹图像区域进行身份识别,得到目标用户对应的身份识别结果包括:获取目标掌纹图像区域与候选用户集合中,各个候选用户对应的参考掌纹图像的掌纹相似度;获取目标用户对应的目标掌静脉图像,与候选用户集合中,各个候选用户对应的参考掌静脉图像的掌静脉相似度;基于掌纹相似度以及掌静脉相似度进行计算,得到目标用户与候选用户的身份相似度;根据身份相似度,得到目标用户对应的身份识别结果。
其中,候选用户集合中可以包括多个候选用户。候选用户对应的参考掌纹图像为候选用户的真实的掌纹图像,候选用户对应的参考掌静脉图像为候选用户的真实的掌静脉图像。
目标掌静脉图像为目标用户对应的掌静脉图像,可以是直接对目标用户的手掌进行采集得到的采集掌静脉图像,也可以是对采集掌静脉图像进行处理后得到的掌静脉图像。第二终端可以从采集掌静脉图像中提取出手部所在的手部图像区域,从手部图像区域中提取出手部的轮廓,利用手掌上的谷点建立坐标系得到掌静脉对应的感兴趣区域,得到目标掌静脉图像。服务器可以通过自适应直方图均衡化技术对掌静脉对应的感兴趣区域对应的图像进行归一化,得到目标掌静脉图像。其中,手掌上的谷点指的是上述的第一谷点、第二谷点和第三谷点。例如,第二终端可以通过K-means算法将采集掌静脉图像对应的灰度图像转换成二进制图像,从二进制图像的背景中提取出手部,再通过形态学操作提取出手部的轮廓,根据手掌中的三个谷点建立坐标系得到掌静脉对应的感兴趣区域。采集图像区域例如为图10(a)中的图像,掌静脉对应的感兴趣区域例如可以是图10(b)中的图像。
具体地,服务器中可以预先存储有参考掌纹图像对应的掌纹特征,以及参考掌静脉图像对应的掌静脉特征。掌静脉特征可以为静脉骨架对应的静脉骨架特征,静脉骨架特征如图10(d)所示。服务器可以对目标掌静脉图像进行特诊提取,得到目标掌静脉特征。例如服务器可以利用最大曲率点算法从目标掌静脉图像中提取得到静脉骨架,并对提取到的静脉骨架进行二值化处理完成降噪,得到降噪后的静脉骨架,根据降噪后的静脉骨架得到目标掌静脉特征。例如可以对降噪后的静脉骨架进行静脉细化,把静脉的宽度转化为一个像素。其中,静脉细化的方法例如可以为基于八邻域的连通算法。如图10(c)所示,展示使用最大曲率算法处理得到的静脉骨架。如图10(d)所示,展示了二值化处理后的静脉骨架。如图10(e)所示,展示了静脉细化后得到的静脉骨架。
第二终端可以将目标掌纹特征以及目标掌静脉特征传输至服务器,服务器可以根据目标掌纹特征以及参考掌纹图像对应的掌纹特征进行相似度计算,得到候选用户对应的掌纹特征相似度,作为目标掌纹图像区域与参考掌纹图像的掌纹相似度。服务器可以根据目标掌静脉特征以及参考掌静脉特征进行相似度计算,得到候选用户对应的掌静脉特征相似度,作为目标掌静脉图像与参考掌静脉图像的掌静脉相似度。第二终端可以从服务器获取候选用户对应的掌纹相似度以及掌静脉相似度,计算得到身份相似度。例如,第二终端可以获取掌纹相似度对应的掌纹权重以及掌静脉相似度对应的掌静脉权重,根据掌纹权重以及掌静脉权重对掌纹相似度以及掌静脉相似度进行加权求和,得到目标用户与候选用户的身份相似度。其中掌纹权重以及掌静脉权重可以根据需要进行确定,也可以是预先设置的。身份相似度例如可以根据公式Fd=w1dp+w2dh(2)计算得到。其中,Fd表示身份相似度,dp表示掌纹相似度,dh表示掌静脉相似度,w1表示掌纹权重,w2表示掌静脉权重。当然服务器也可以根据参考掌静脉图像对应的掌纹相似度以及掌静脉相似度进行加权求和,得到目标用户与候选用户的身份相似度。服务器可以将计算得到的身份相似度返回至第二终端。
在一些实施例中,获取目标用户对应的目标掌静脉图像,与候选用户集合中,各个候选用户对应的参考掌静脉图像的掌静脉相似度。第二终端可以采用生物特征图匹配法(Biometric Graph Matching,BGM)算法确定掌静脉相似度。BGM算法的基本思想是通过比较两幅用骨架特征(即静脉骨架)表示的静脉图像,得到衡量两幅图像相似程度的距离指标,从而判断两幅图像是否来自同一类。掌静脉特征可以包括特征点和特征边,特征边指的是静脉骨架中的线,特征点指的是静脉骨架中的点。目标掌静脉特征可以包括目标特征点和目标特征边。参考掌静脉特征可以包括参考特征点和参考特征边。目标掌静脉特征可以表示为g=(V,E,μ,ν),参考掌静脉特征可以表示为g'=(V',E',μ,ν),V={v1,v2,...vm}表示目标特征点集合,vm表示第m个目标特征点。V'={v’1,v’2,...v’m'}表示参考特征点集合,v’m'表示第m'个参考特征点。E={e1,e2,...en}表示目标特征边集合,en表示第n个目标特征边。E={e’1,e’2,...e’n}表示参考特征边集合,en表示第n'个参考特征边。每条特征边对应有长度和倾斜角。
第二终端可以基于特征边的坐标,用特征边的长度和倾斜角定义出一种衡量两幅图像差异性的距离,通过重新设定特征点的坐标来使该距离达到最小,得到一系列相匹配的特征边组合,将两幅图像转化到统一标准。例如,第二终端遍历目标掌静脉特征与参考掌静脉特征的特征边组合(ei,ej),其中ei表示目标特征边,ej表示参考特征边。可以通过特征边的长度和倾斜角计算两个特征边之间的欧式距离。例如ei与ej之间的欧式距离可以表示为
Figure BDA0002713501440000281
其中,li表示ei的长度,l’j表示ej的长度,θi表示ei的倾斜角,θ’j表示ej的倾斜角。
第二终端可以根据参考掌静脉特征图与目标掌静脉特征图之间的图编辑距离,寻找两幅特征图的最大共同子图。最大共同子图反映了两幅特征图之间的相似性,因此可以通过距离指标计算两者的相似性,若高于一定阈值,则匹配成功。其中两幅图像的图编辑是指运用一些操作将第一幅图转换为第二幅图的一组操作序列,比如点和特征边的替换、插入和删除操作,这些不同的操作会产生不同的代价。容易理解,如果两幅图的相似度越高,则编辑序列就会越短。两个图之间的图编辑距离指的是一幅图转化为另一幅图时进行的一组最短编辑操作序列。参考掌静脉特征图指的是参考掌静脉特征对应的图像。目标掌静脉特征图指的是目标掌静脉特征对应的图像。
在一些实施例中,第二终端或者服务器可以将身份相似度与身份相似度阈值进行对比,当确定身份相似度大于身份相似度阈值时,可以确定目标用户对应的身份识别结果为识别成功。当各个身份相似度均小于或等于身份相似度阈值时,可以确定目标用户对应的身份识别结果为识别失败。
本实施例中,基于掌纹相似度以及掌静脉相似度进行计算,得到目标用户与候选用户的身份相似度,根据身份相似度,得到目标用户对应的身份识别结果,将掌纹识别和掌静脉识别进行结合起来进行身份识别,提高了身份识别的准确度。另外,由于掌静脉特征是活体才存在的特征,因此无法造假,安全性高,因此通过掌纹以及掌静脉共同进行身份识别,可以提高身份识别的准确性以及安全性,使得身份识别结果更加准确。其中,掌纹识别和掌静脉识别相结合进行身份识别的技术可以称为双模识别。
在一些实施例中,该方法还包括:获取对当前用户的掌纹进行实时采集得到的当前掌纹图像;获取当前掌纹图像与候选用户集合中,各个候选用户对应的参考掌纹图像的掌纹相似度;将掌纹相似度大于相似度阈值的候选用户,作为当前掌纹图像对应的身份认证用户;获取当前用户对应的当前掌静脉图像,将当前掌静脉图像作为身份认证用户对应的参考掌静脉图像。
其中,当前用户指的是第二终端当前时刻进行身份识别或身份验证的用户。当前掌纹图像为当前用户对应的掌纹图像。身份认证用户指的是与当前用户为同一用户的用户。
具体地,当候选用户对应的掌纹相似度大于相似度阈值时,可以确定候选用户与当前用户为同一用户,因此第二终端可以将掌纹相似度大于相似度阈值的候选用户,作为当前掌纹图像对应的身份认证用户。第二终端可以采集当前用户的掌静脉图像,得到当前掌静脉图像。其中,第二终端可以在采集当前用户的掌纹图像时,同时采集当前用户的掌静脉图像。当然,也可以在不同的时刻分别对当前用户的掌纹图像以及掌静脉图像进行采集。第二终端可以将当前掌静脉图像与身份认证用户关联存储。第二终端还可以将当前掌静脉图像传输至服务器,服务器可以将当前掌静脉图像与身份认证用户关联存储。
在一些实施例中,为了保证当前掌静脉图像与当前掌纹图像是同一个用户的图像,在采集当前掌静脉图像时,可以同时采集掌纹图像,将采集到的掌纹图像与当前用户的当前掌纹图像进行对比,当对比一致时,将当前掌静脉图像作为身份认证用户对应的参考掌静脉图像。例如,当采集完用户A的掌纹图像,并确定了用户A对应的身份认证用户时,当对掌静脉图像进行采集时,若用户A突然离开而用户B出现,则采集到的是用户B的掌静脉图像,若不将用户B的掌纹图像与用户A掌纹图像进行对比,则可能发生将用户B的掌静脉图像作为用户A对应的参考掌静脉图像的情况。
本实施例中,将掌纹相似度大于相似度阈值的候选用户,作为当前掌纹图像对应的身份认证用户,获取当前用户对应的当前掌静脉图像,将当前掌静脉图像作为身份认证用户对应的参考掌静脉图像,能够方便快速的获取参考掌静脉图像。
在一些实施例中,得到已训练的掌纹关键点检测模型的步骤包括:获取样本掌纹图像;将样本掌纹图像输入到待训练的掌纹关键点检测模型中,掌纹关键点检测模型利用特征提取层对样本掌纹图像进行特征提取,得到训练掌纹特征,基于训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置;将训练掌纹特征输入到角度确定模型中,确定样本掌纹图像对应的预测掌面展示角度;基于预测掌纹关键点位置与样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值;根据预测掌面展示角度与样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用模型损失调整数值对第一模型损失值进行调整,得到目标损失值;基于目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
本实施例中,获取样本掌纹图像,将样本掌纹图像输入到待训练的掌纹关键点检测模型中,掌纹关键点检测模型利用特征提取层对样本掌纹图像进行特征提取,得到训练掌纹特征,基于训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置,将训练掌纹特征输入到角度确定模型中,确定样本掌纹图像对应的预测掌面展示角度,基于预测掌纹关键点位置与样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值,根据预测掌面展示角度与样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用模型损失调整数值对第一模型损失值进行调整,得到目标损失值,基于目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型,从而使得掌纹关键点检测模型可以对不同掌面展示角度的掌面图像进行准确的关键点检测,提高了身份识别的准确度。
在一些实施例中,提供了一种身份识别方法,包括如下步骤:
步骤1:第一终端采集目标用户的掌纹图像,通过掌纹识别模型对掌纹图像进行识别,得到标准掌纹特征,将标准掌纹特征与目标用户的身份信息关联存储,实现掌纹注册。
其中,第一终端中设置有掌纹识别模型并且第一终端可以采集掌纹图像。第一终端可以将目标用户的身份信息以及标准掌纹特征发送至服务器,以使得其他终端可以从服务器获取目标用户的身份信息以及对应的掌纹特征。
步骤2:第一终端再次采集目标用户的掌纹图像,通过掌纹识别模型对再次采集到的掌纹图像进行识别,得到待识别掌纹特征,将待识别掌纹特征与标准掌纹特征进行对比,当对比一致时,确定身份验证通过。
在一些实施例中,提供了一种身份识别方法,包括如下步骤:
步骤1:第二终端采集目标用户的掌纹图像,通过掌纹识别模型对掌纹图像进行识别,得到待识别掌纹特征。
其中,第二终端中设置有掌纹识别模型,并且可以对掌静脉图像进行识别,第二终端可以采集掌纹图像以及掌静脉图像。
步骤2:第二终端从服务器获取目标用户对应的标准掌纹特征,将待识别掌纹特征与标准掌纹特征进行对比,当对比一致时,确定掌纹验证通过。
步骤3:第二终端采集目标用户的掌静脉图像,提取掌静脉图像的特征,得到目标用户对应的标准掌静脉特征,将标准掌静脉特征与目标用户的身份信息关联存储,实现掌静脉注册。
步骤4:第二终端再次采集目标用户的掌纹图像以及掌静脉图像,提取掌静脉图像的特征,得到目标用户对应的待识别掌静脉特征,提取掌纹图像的特征,得到目标用户对应的待识别掌纹特征,第二终端计算待识别掌静脉特征与目标用户对应的标准掌静脉特征的相似度,得到掌静脉相似度。第二终端将待识别掌纹特征与目标用户对应的标准掌纹特征进行对比,得到掌纹相似度,根据掌静脉相似度以及掌纹相似度对目标用户进行身份识别,实现双模识别。
在一些实施例中,提供了一种身份识别方法,包括如下步骤:
步骤1:第二终端获取目标用户的身份信息,采集目标用户的掌纹图像以及掌静脉图像,得到目标用户对应的标准掌静脉特征以及标准掌纹特征,将标准掌静脉特征以及标准掌纹特征与目标用户的身份信息关联存储。
步骤2:第二终端采集目标用户的掌纹图像以及掌静脉图像,得到待识别掌静脉特征和待识别掌纹特征,根据待识别掌静脉特征和待识别掌纹特征进行身份识别,实现双模识别。
本申请实施例提出的身份识别方法,可以用于手机端实现掌纹识别,可以用于终端实现掌纹和掌静脉交叉验证,即可以分别应用于不同精度要求的场合,既保证身份识别的安全性又保证了便利性。当然,也可采用与其他生物认证方式相结合的交叉验证身份识别系统进行身份识别,其他生物认证方式例如可以包括人脸识别、虹膜识别或指纹识别中的至少一种。
应该理解的是,虽然图2-10的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-10中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一些实施例中,如图11所示,提供了一种掌纹关键点检测模型训练装置,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:样本掌纹图像获取模块1102、预测掌纹关键点位置确定模块1104、预测掌面展示角度确定模块1106、第一模型损失值确定模块1108、目标损失值确定模块1110和已训练的掌纹关键点检测模型得到模块1112,其中:
样本掌纹图像获取模块1102,用于获取样本掌纹图像。
预测掌纹关键点位置确定模块1104,用于将样本掌纹图像输入到待训练的掌纹关键点检测模型中,掌纹关键点检测模型利用特征提取层对样本掌纹图像进行特征提取,得到训练掌纹特征,基于训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置。
预测掌面展示角度确定模块1106,用于将训练掌纹特征输入到角度确定模型中,确定样本掌纹图像对应的预测掌面展示角度。
第一模型损失值确定模块1108,用于基于预测掌纹关键点位置与样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值。
目标损失值确定模块1110,用于根据预测掌面展示角度与样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用模型损失调整数值对第一模型损失值进行调整,得到目标损失值。
已训练的掌纹关键点检测模型得到模块1112,用于基于目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
在一些实施例中,目标损失值确定模块1110包括:
角度差值得到单元,用于计算预测掌面展示角度与标准掌面展示角度之间的差异,得到角度差值;
目标损失值调整系数得到单元,用于根据角度差值计算得到目标损失值调整系数;目标损失值调整系数与角度差异成正相关关系;
目标损失值得到单元,用于根据目标损失值调整系数对第一模型损失值进行调整,得到目标损失值。
在一些实施例中,目标损失值调整系数得到单元,还用于计算角度差值对应的余弦值,根据余弦值计算得到第一损失值调整系数,第一损失值调整系数与余弦值成正相关关系;将预设损失值调整系数减去第一损失值调整系数,得到目标损失值调整系数。
在一些实施例中,掌纹关键点有多个,第一模型损失值确定模块1108包括:
位置差异获取单元,用于获取掌纹关键点对应的预测掌纹关键点位置,与样本掌纹图像中,掌纹关键点对应的标准掌纹关键点位置的位置差异。
关键点模型损失值确定单元,用于根据掌纹关键点对应的位置差异,确定掌纹关键点对应的关键点模型损失值。
第一模型损失值得到单元,用于统计掌纹关键点对应的关键点模型损失值,得到第一模型损失值。
在一些实施例中,已训练的掌纹关键点检测模型得到模块1112包括:
调整后的掌纹关键点检测模型得到单元,用于根据目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到调整后的掌纹关键点检测模型。
调整后的角度确定模型得到单元,用于根据目标损失值对角度确定模型中的模型参数进行调整,得到调整后的角度确定模型。
已训练的掌纹关键点检测模型得到单元,用于返回获取样本掌纹图像的步骤,直至掌纹关键点检测模型收敛,得到已训练的掌纹关键点检测模型。
在一些实施例中,该装置还包括:
图像相似标签获取模块,用于获取第一掌纹图像以及第二掌纹图像,以及第一掌纹图像与第二掌纹图像之间的图像相似标签。
掌纹特征得到模块,用于利用待训练的掌纹识别模型进行掌纹特征识别,得到第一掌纹图像对应的第一掌纹特征,以及第二掌纹图像对应的第二掌纹特征。
第二模型损失值确定模块,用于根据第一掌纹特征与第二掌纹特征之间的特征相似度以及图像相似标签,确定掌纹识别模型对应的第二模型损失值。
已训练的掌纹识别模型得到模块,用于根据掌纹识别模型对应的第二模型损失值对掌纹识别模型中的模型参数进行调整,得到已训练的掌纹识别模型。
在一些实施例中,掌纹特征得到模块包括:
掌纹关键点位置得到单元,用于将第一掌纹图像以及第二掌纹图像分别输入到已训练的掌纹关键点检测模型,得到第一掌纹图像对应的第一掌纹关键点位置,以及第二掌纹图像对应的第二掌纹关键点位置。
掌纹图像区域确定单元,用于基于第一掌纹关键点位置确定第一掌纹图像对应的第一掌纹图像区域,基于第二掌纹关键点位置确定第二掌纹图像对应的第二掌纹图像区域。
掌纹特征得到单元,用于将第一掌纹图像区域以及第二掌纹图像区域分别输入到待训练的掌纹识别模型中,得到第一掌纹图像对应的第一掌纹特征,以及第二掌纹图像对应的第二掌纹特征。
在一些实施例中,如图12所示,提供了一种身份识别装置,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:目标掌纹图像获取模块1202、目标掌纹关键点位置得到模块1204、目标掌纹图像区域确定模块1206和身份识别结果得到模块1208,其中:
目标掌纹图像获取模块1202,用于获取待识别的目标用户对应的目标掌纹图像。
目标掌纹关键点位置得到模块1204,用于将目标掌纹图像输入到已训练的掌纹关键点检测模型中,检测得到掌纹关键点对应的目标掌纹关键点位置,掌纹关键点检测模型是根据样本掌纹图像训练得到的,在训练时,根据样本掌纹图像对应的标准掌面展示角度调整掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整掌纹关键点检测模型的模型参数。
目标掌纹图像区域确定模块1206,用于基于目标掌纹关键点位置确定目标掌纹图像对应的目标掌纹图像区域。
身份识别结果得到模块1208,用于根据目标掌纹图像区域进行身份识别,得到目标用户对应的身份识别结果。
在一些实施例中,身份识别结果得到模块1208包括:
掌纹相似度获取单元,用于获取目标掌纹图像区域与候选用户集合中,各个候选用户对应的参考掌纹图像的掌纹相似度。
掌静脉相似度获取单元,用于获取目标用户对应的目标掌静脉图像,与候选用户集合中,各个候选用户对应的参考掌静脉图像的掌静脉相似度。
身份相似度得到单元,用于基于掌纹相似度以及掌静脉相似度进行计算,得到目标用户与候选用户的身份相似度。
身份识别结果得到单元,用于根据身份相似度,得到目标用户对应的身份识别结果。
在一些实施例中,该装置还包括:
当前掌纹图像获取模块,用于获取对当前用户的掌纹进行实时采集得到的当前掌纹图像。
掌纹相似度获取模块,用于获取当前掌纹图像与候选用户集合中,各个候选用户对应的参考掌纹图像的掌纹相似度。
身份认证用户确定模块,用于将掌纹相似度大于相似度阈值的候选用户,作为当前掌纹图像对应的身份认证用户。
参考掌静脉图像确定模块,用于获取当前用户对应的当前掌静脉图像,将当前掌静脉图像作为身份认证用户对应的参考掌静脉图像。
在一些实施例中,已训练的掌纹关键点检测模型得到模块包括:
样本掌纹图像获取单元,用于获取样本掌纹图像。
预测掌纹关键点位置确定单元,用于将样本掌纹图像输入到待训练的掌纹关键点检测模型中,掌纹关键点检测模型利用特征提取层对样本掌纹图像进行特征提取,得到训练掌纹特征,基于训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置。
预测掌面展示角度确定单元,用于将训练掌纹特征输入到角度确定模型中,确定样本掌纹图像对应的预测掌面展示角度。
第一模型损失值确定单元,用于基于预测掌纹关键点位置与样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值。
目标损失值确定单元,用于根据预测掌面展示角度与样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用模型损失调整数值对第一模型损失值进行调整,得到目标损失值。
已训练的掌纹关键点检测模型得到单元,用于基于目标损失值对掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
关于掌纹关键点检测模型训练装置的具体限定可以参见上文中对于掌纹关键点检测模型训练方法的限定,在此不再赘述。上述掌纹关键点检测模型训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
关于身份识装置的具体限定可以参见上文中对于身份识别方法的限定,在此不再赘述。上述身份识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一些实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图13所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储掌纹关键点位置、样本掌纹图像、掌面展示角度、模型损失值、掌纹关键点检测模型和掌纹识别模型等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种掌纹关键点检测模型训练方法。
在一些实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图14该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种身份识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图13和14中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一些实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一些实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一些实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (15)

1.一种身份识别方法,其特征在于,所述方法包括:
获取待识别的目标用户对应的目标掌纹图像;
将所述目标掌纹图像输入到已训练的掌纹关键点检测模型中,检测得到掌纹关键点对应的目标掌纹关键点位置,所述掌纹关键点检测模型是根据样本掌纹图像训练得到的,在训练时,根据所述样本掌纹图像对应的标准掌面展示角度调整所述掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整所述掌纹关键点检测模型的模型参数;
基于所述目标掌纹关键点位置确定所述目标掌纹图像对应的目标掌纹图像区域;
根据所述目标掌纹图像区域进行身份识别,得到所述目标用户对应的身份识别结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标掌纹图像区域进行身份识别,得到所述目标用户对应的身份识别结果包括:
获取所述目标掌纹图像区域与候选用户集合中,各个候选用户对应的参考掌纹图像的掌纹相似度;
获取所述目标用户对应的目标掌静脉图像,与所述候选用户集合中,各个所述候选用户对应的参考掌静脉图像的掌静脉相似度;
基于所述掌纹相似度以及所述掌静脉相似度进行计算,得到所述目标用户与所述候选用户的身份相似度;
根据所述身份相似度,得到所述目标用户对应的身份识别结果。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取对当前用户的掌纹进行实时采集得到的当前掌纹图像;
获取所述当前掌纹图像与候选用户集合中,各个候选用户对应的参考掌纹图像的掌纹相似度;
将掌纹相似度大于相似度阈值的候选用户,作为所述当前掌纹图像对应的身份认证用户;
获取所述当前用户对应的当前掌静脉图像,将所述当前掌静脉图像作为所述身份认证用户对应的参考掌静脉图像。
4.根据权利要求1所述的方法,其特征在于,得到已训练的所述掌纹关键点检测模型的步骤包括:
获取样本掌纹图像;
将所述样本掌纹图像输入到待训练的掌纹关键点检测模型中,所述掌纹关键点检测模型利用特征提取层对所述样本掌纹图像进行特征提取,得到训练掌纹特征,基于所述训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置;
将所述训练掌纹特征输入到角度确定模型中,确定所述样本掌纹图像对应的预测掌面展示角度;
基于所述预测掌纹关键点位置与所述样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值;
根据所述预测掌面展示角度与所述样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用所述模型损失调整数值对所述第一模型损失值进行调整,得到目标损失值;
基于所述目标损失值对所述掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
5.一种掌纹关键点检测模型训练方法,其特征在于,所述方法包括:
获取样本掌纹图像;
将所述样本掌纹图像输入到待训练的掌纹关键点检测模型中,所述掌纹关键点检测模型利用特征提取层对所述样本掌纹图像进行特征提取,得到训练掌纹特征,基于所述训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置;
将所述训练掌纹特征输入到角度确定模型中,确定所述样本掌纹图像对应的预测掌面展示角度;
基于所述预测掌纹关键点位置与所述样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值;
根据所述预测掌面展示角度与所述样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用所述模型损失调整数值对所述第一模型损失值进行调整,得到目标损失值;
基于所述目标损失值对所述掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
6.根据权利要求5所述的方法,其特征在于,所述根据所述预测掌面展示角度与所述样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用所述模型损失调整数值对所述第一模型损失值进行调整,得到目标损失值包括:
计算所述预测掌面展示角度与所述标准掌面展示角度之间的差异,得到角度差值;
根据所述角度差值计算得到目标损失值调整系数;所述目标损失值调整系数与所述角度差异成正相关关系;
根据所述目标损失值调整系数对所述第一模型损失值进行调整,得到所述目标损失值。
7.根据权利要求6所述的方法,其特征在于,所述根据所述角度差值计算得到目标损失值调整系数包括:
计算所述角度差值对应的余弦值,根据所述余弦值计算得到第一损失值调整系数,所述第一损失值调整系数与所述余弦值成正相关关系;
将预设损失值调整系数减去所述第一损失值调整系数,得到所述目标损失值调整系数。
8.根据权利要求5所述的方法,其特征在于,所述掌纹关键点有多个,所述基于所述预测掌纹关键点位置与所述样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值包括:
获取所述掌纹关键点对应的预测掌纹关键点位置,与所述样本掌纹图像中,所述掌纹关键点对应的标准掌纹关键点位置的位置差异;
根据所述掌纹关键点对应的位置差异,确定所述掌纹关键点对应的关键点模型损失值;
统计所述掌纹关键点对应的关键点模型损失值,得到所述第一模型损失值。
9.根据权利要求5所述的方法,其特征在于,所述基于所述目标损失值对所述掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型包括:
根据所述目标损失值对所述掌纹关键点检测模型中的模型参数进行调整,得到调整后的掌纹关键点检测模型;
根据所述目标损失值对所述角度确定模型中的模型参数进行调整,得到调整后的角度确定模型;
返回获取样本掌纹图像的步骤,直至所述掌纹关键点检测模型收敛,得到所述已训练的掌纹关键点检测模型。
10.根据权利要求5所述的方法,其特征在于,所述方法还包括:
获取第一掌纹图像以及第二掌纹图像,以及所述第一掌纹图像与第二掌纹图像之间的图像相似标签;
利用待训练的掌纹识别模型进行掌纹特征识别,得到所述第一掌纹图像对应的第一掌纹特征,以及所述第二掌纹图像对应的第二掌纹特征;
根据所述第一掌纹特征与所述第二掌纹特征之间的特征相似度以及所述图像相似标签,确定所述掌纹识别模型对应的第二模型损失值;
根据所述掌纹识别模型对应的第二模型损失值对所述掌纹识别模型中的模型参数进行调整,得到已训练的掌纹识别模型。
11.根据权利要求10所述的方法,其特征在于,所述利用待训练的掌纹识别模型进行掌纹特征识别,得到所述第一掌纹图像对应的第一掌纹特征,以及所述第二掌纹图像对应的第二掌纹特征包括:
将所述第一掌纹图像以及所述第二掌纹图像分别输入到已训练的掌纹关键点检测模型,得到所述第一掌纹图像对应的第一掌纹关键点位置,以及所述第二掌纹图像对应的第二掌纹关键点位置;
基于所述第一掌纹关键点位置确定所述第一掌纹图像对应的第一掌纹图像区域,基于所述第二掌纹关键点位置确定所述第二掌纹图像对应的第二掌纹图像区域;
将所述第一掌纹图像区域以及所述第二掌纹图像区域分别输入到待训练的掌纹识别模型中,得到所述第一掌纹图像对应的第一掌纹特征,以及所述第二掌纹图像对应的第二掌纹特征。
12.一种身份识别装置,其特征在于,所述装置包括:
目标掌纹图像获取模块,用于获取待识别的目标用户对应的目标掌纹图像;
目标掌纹关键点位置得到模块,用于将所述目标掌纹图像输入到已训练的掌纹关键点检测模型中,检测得到掌纹关键点对应的目标掌纹关键点位置,所述掌纹关键点检测模型是根据样本掌纹图像训练得到的,在训练时,根据所述样本掌纹图像对应的标准掌面展示角度调整所述掌纹关键点检测模型对应的模型损失值,基于调整后的模型损失值调整所述掌纹关键点检测模型的模型参数;
目标掌纹图像区域确定模块,用于基于所述目标掌纹关键点位置确定所述目标掌纹图像对应的目标掌纹图像区域;
身份识别结果得到模块,用于根据所述目标掌纹图像区域进行身份识别,得到所述目标用户对应的身份识别结果。
13.一种掌纹关键点检测模型训练装置,其特征在于,所述装置包括:
样本掌纹图像获取模块,用于获取样本掌纹图像;
预测掌纹关键点位置确定模块,用于将所述样本掌纹图像输入到待训练的掌纹关键点检测模型中,所述掌纹关键点检测模型利用特征提取层对所述样本掌纹图像进行特征提取,得到训练掌纹特征,基于所述训练掌纹特征确定各个掌纹关键点分别对应的预测掌纹关键点位置;
预测掌面展示角度确定模块,用于将所述训练掌纹特征输入到角度确定模型中,确定所述样本掌纹图像对应的预测掌面展示角度;
第一模型损失值确定模块,用于基于所述预测掌纹关键点位置与所述样本掌纹图像对应的标准掌纹关键点位置的差异确定第一模型损失值;
目标损失值确定模块,用于根据所述预测掌面展示角度与所述样本掌纹图像对应的标准掌面展示角度的差异确定模型损失调整数值,利用所述模型损失调整数值对所述第一模型损失值进行调整,得到目标损失值;
已训练的掌纹关键点检测模型得到模块,用于基于所述目标损失值对所述掌纹关键点检测模型中的模型参数进行调整,得到已训练的掌纹关键点检测模型。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4或5至11中任一项所述的方法的步骤。
15.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中或5至11中任一项所述的方法的步骤。
CN202011065005.4A 2020-09-30 2020-09-30 身份识别方法、掌纹关键点检测模型训练方法和装置 Pending CN112132099A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011065005.4A CN112132099A (zh) 2020-09-30 2020-09-30 身份识别方法、掌纹关键点检测模型训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011065005.4A CN112132099A (zh) 2020-09-30 2020-09-30 身份识别方法、掌纹关键点检测模型训练方法和装置

Publications (1)

Publication Number Publication Date
CN112132099A true CN112132099A (zh) 2020-12-25

Family

ID=73843657

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011065005.4A Pending CN112132099A (zh) 2020-09-30 2020-09-30 身份识别方法、掌纹关键点检测模型训练方法和装置

Country Status (1)

Country Link
CN (1) CN112132099A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192127A (zh) * 2021-05-12 2021-07-30 北京市商汤科技开发有限公司 一种图像处理方法、装置、电子设备和存储介质
CN113673343A (zh) * 2021-07-19 2021-11-19 西安交通大学 一种基于加权元度量学习的开放集掌纹识别系统及方法
CN114581535A (zh) * 2022-03-03 2022-06-03 北京深光科技有限公司 图像中用户骨关键点标注方法、装置、存储介质及设备
CN115115843A (zh) * 2022-06-02 2022-09-27 马上消费金融股份有限公司 数据处理方法及装置
CN116309522A (zh) * 2023-04-06 2023-06-23 浙江大学 基于二阶段深度学习模型的全景片牙周炎智能分级系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341473A (zh) * 2017-07-04 2017-11-10 深圳市利众信息科技有限公司 手掌特征识别方法、手掌特征识别设备、及存储介质
CN107958242A (zh) * 2018-01-10 2018-04-24 深圳森阳环保材料科技有限公司 一种掌纹识别系统
CN109472213A (zh) * 2018-10-16 2019-03-15 平安科技(深圳)有限公司 掌纹识别方法、装置、计算机设备和存储介质
CN109829368A (zh) * 2018-12-24 2019-05-31 平安科技(深圳)有限公司 手掌特征的识别方法、装置、计算机设备及存储介质
CN109918532A (zh) * 2019-03-08 2019-06-21 苏州大学 图像检索方法、装置、设备及计算机可读存储介质
CN110175500A (zh) * 2019-04-03 2019-08-27 平安科技(深圳)有限公司 指静脉比对方法、装置、计算机设备及存储介质
CN110245669A (zh) * 2019-05-15 2019-09-17 平安科技(深圳)有限公司 手掌关键点的识别方法、装置、终端及可读存储介质
CN110263632A (zh) * 2019-05-10 2019-09-20 平安科技(深圳)有限公司 掌纹识别方法及装置
CN110298233A (zh) * 2019-05-15 2019-10-01 平安科技(深圳)有限公司 掌纹识别方法、装置、计算机设备及存储介质
CN110458218A (zh) * 2019-07-31 2019-11-15 北京市商汤科技开发有限公司 图像分类方法及装置、分类网络训练方法及装置
CN111274848A (zh) * 2018-12-04 2020-06-12 北京嘀嘀无限科技发展有限公司 一种图像检测方法、装置、电子设备及存储介质
CN111523621A (zh) * 2020-07-03 2020-08-11 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341473A (zh) * 2017-07-04 2017-11-10 深圳市利众信息科技有限公司 手掌特征识别方法、手掌特征识别设备、及存储介质
CN107958242A (zh) * 2018-01-10 2018-04-24 深圳森阳环保材料科技有限公司 一种掌纹识别系统
CN109472213A (zh) * 2018-10-16 2019-03-15 平安科技(深圳)有限公司 掌纹识别方法、装置、计算机设备和存储介质
CN111274848A (zh) * 2018-12-04 2020-06-12 北京嘀嘀无限科技发展有限公司 一种图像检测方法、装置、电子设备及存储介质
CN109829368A (zh) * 2018-12-24 2019-05-31 平安科技(深圳)有限公司 手掌特征的识别方法、装置、计算机设备及存储介质
CN109918532A (zh) * 2019-03-08 2019-06-21 苏州大学 图像检索方法、装置、设备及计算机可读存储介质
CN110175500A (zh) * 2019-04-03 2019-08-27 平安科技(深圳)有限公司 指静脉比对方法、装置、计算机设备及存储介质
CN110263632A (zh) * 2019-05-10 2019-09-20 平安科技(深圳)有限公司 掌纹识别方法及装置
CN110245669A (zh) * 2019-05-15 2019-09-17 平安科技(深圳)有限公司 手掌关键点的识别方法、装置、终端及可读存储介质
CN110298233A (zh) * 2019-05-15 2019-10-01 平安科技(深圳)有限公司 掌纹识别方法、装置、计算机设备及存储介质
CN110458218A (zh) * 2019-07-31 2019-11-15 北京市商汤科技开发有限公司 图像分类方法及装置、分类网络训练方法及装置
CN111523621A (zh) * 2020-07-03 2020-08-11 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192127A (zh) * 2021-05-12 2021-07-30 北京市商汤科技开发有限公司 一种图像处理方法、装置、电子设备和存储介质
CN113192127B (zh) * 2021-05-12 2024-01-02 北京市商汤科技开发有限公司 一种图像处理方法、装置、电子设备和存储介质
CN113673343A (zh) * 2021-07-19 2021-11-19 西安交通大学 一种基于加权元度量学习的开放集掌纹识别系统及方法
CN113673343B (zh) * 2021-07-19 2023-09-19 西安交通大学 一种基于加权元度量学习的开放集掌纹识别系统及方法
CN114581535A (zh) * 2022-03-03 2022-06-03 北京深光科技有限公司 图像中用户骨关键点标注方法、装置、存储介质及设备
CN115115843A (zh) * 2022-06-02 2022-09-27 马上消费金融股份有限公司 数据处理方法及装置
CN115115843B (zh) * 2022-06-02 2023-08-22 马上消费金融股份有限公司 数据处理方法及装置
CN116309522A (zh) * 2023-04-06 2023-06-23 浙江大学 基于二阶段深度学习模型的全景片牙周炎智能分级系统
CN116309522B (zh) * 2023-04-06 2024-01-26 浙江大学 基于二阶段深度学习模型的全景片牙周炎智能分级系统

Similar Documents

Publication Publication Date Title
CN112132099A (zh) 身份识别方法、掌纹关键点检测模型训练方法和装置
Basheer et al. FESD: An approach for biometric human footprint matching using fuzzy ensemble learning
Bhavana et al. Hand sign recognition using CNN
Kabir et al. A multi-biometric system based on feature and score level fusions
CN112001932B (zh) 人脸识别方法、装置、计算机设备和存储介质
Islam et al. A review of recent advances in 3D ear-and expression-invariant face biometrics
CN113515988B (zh) 掌纹识别方法、特征提取模型训练方法、设备及介质
Krishneswari et al. A review on palm print verification system
CN111178130A (zh) 一种基于深度学习的人脸识别方法、系统和可读存储介质
CN113011387A (zh) 网络训练及人脸活体检测方法、装置、设备及存储介质
CN110263726B (zh) 一种基于深度相关性特征学习的指静脉识别方法及装置
Galiyawala et al. Person retrieval in surveillance using textual query: a review
Jadhav et al. HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features
CN117058723A (zh) 掌纹识别方法、装置及存储介质
CN113706550A (zh) 图像场景识别和模型训练方法、装置和计算机设备
Kumar et al. Rank level integration of face based biometrics
Soldek et al. Image analysis and pattern recognition in biometric technologies
JP5279007B2 (ja) 照合システム、照合方法、プログラム及び記録媒体
Liu Fingerprint analysis and singular point definition by deep neural network
Trabelsi et al. A bi-modal palmvein palmprint biometric human identification based on fusing new CDSDP features
Szczepanik et al. Security lock system for mobile devices based on fingerprint recognition algorithm
Chyad et al. Hand Print Recognition System Based on FP-Growth Algorithm
CN116884045B (zh) 身份识别方法、装置、计算机设备和存储介质
Alobaidi et al. New In-Air Signature Datasets
Sugadev et al. Development of open-CV framework for minutiae Extraction and matching of fingerprints

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
TA01 Transfer of patent application right

Effective date of registration: 20210908

Address after: No. 28 Xianning West Road, Xianning stele area, Xi'an, Shaanxi

Applicant after: XI'AN JIAOTONG University

Address before: 518000 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 Floors

Applicant before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd.

Applicant before: XI'AN JIAOTONG University

Effective date of registration: 20210908

Address after: 214026 floor 7, building A3, No. 777, Jianzhu West Road, Binhu District, Wuxi City, Jiangsu Province

Applicant after: GRASP TECHNOLOGY WUXI Co.,Ltd.

Address before: No. 28 Xianning West Road, Xianning stele area, Xi'an, Shaanxi

Applicant before: XI'AN JIAOTONG University

TA01 Transfer of patent application right
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination