CN112861743B - 一种掌静脉图像防伪方法、装置和设备 - Google Patents
一种掌静脉图像防伪方法、装置和设备 Download PDFInfo
- Publication number
- CN112861743B CN112861743B CN202110192379.0A CN202110192379A CN112861743B CN 112861743 B CN112861743 B CN 112861743B CN 202110192379 A CN202110192379 A CN 202110192379A CN 112861743 B CN112861743 B CN 112861743B
- Authority
- CN
- China
- Prior art keywords
- image
- palm vein
- palm
- counterfeiting
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
- G06V40/1359—Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种掌静脉图像防伪方法、装置和设备,方法包括:获取待检测掌静脉图像;对待检测掌静脉图像进行图像预处理,得到掌静脉区域图像;将掌静脉区域图像输入到预设的掌静脉防伪模型,得到活体预测概率;若活体预测概率大于或等于预设阈值,则确定掌静脉区域图像所对应的手掌为活体手掌。从而能够精确有效地确定掌静脉区域图像之间的细微特征差别,有效提取掌静脉图像在不同尺度和偏转角度下的特征差异,同时采用样本自学习策略,更为有效提高掌静脉防伪精度和防伪性能。
Description
技术领域
本发明涉及掌静脉图像防伪技术领域,尤其涉及一种掌静脉图像防伪方法、装置和设备。
背景技术
手掌静脉识别是一种新兴的生物特征识别技术,利用人体手掌血液中血红素对近红外光具有较强的吸收特性,获得手掌静脉的分布纹路进行身份识别。掌静脉识别不仅具有非接触式认证和高可靠性的优点,而且必须活体检测,无法造假,安全级别高。随着技术的发展,掌静脉识别技术逐渐应用于安防系统、楼宇门禁、金融银行等领域。
现有的掌静脉防伪方法通常通过采集单一类型的掌静脉数据进行单一模型的训练识别,较为简单,但由于在数据采集的过程中,不同光照、不同偏转角度或设备距离不同等情况所导致的掌静脉数据过大或过小的问题,现有的掌静脉防伪方法对于手掌尺度、偏转角度敏感,难以精确有效地确定掌静脉图像之间的细微特征差别,导致防伪精度降低。
发明内容
本发明提供了一种掌静脉图像防伪方法、装置和设备,解决了现有的掌静脉防伪方法对于手掌尺度、偏转角度敏感,难以精确有效地确定掌静脉图像之间的细微特征差别,导致防伪精度降低的技术问题。
本发明提供的一种掌静脉图像防伪方法,包括:
获取待检测掌静脉图像;
对所述待检测掌静脉图像进行图像预处理,得到掌静脉区域图像;
将所述掌静脉区域图像输入到预设的掌静脉防伪模型,得到活体预测概率;
若所述活体预测概率大于或等于预设阈值,则确定所述掌静脉区域图像所对应的手掌为活体手掌。
可选地,还包括:
若所述活体预测概率小于所述预设阈值,则确定所述掌静脉区域图像对应的手掌为假体手掌。
可选地,还包括:
获取训练图像;
采用所述训练图像训练预设的多分支网络模型,生成所述掌静脉防伪模型。
可选地,所述采用所述训练图像训练预设的多分支网络模型,生成所述掌静脉防伪模型的步骤,包括:
通过预设的多分支网络模型读取所述训练图像,确定所述训练图像对应的像素读取量;
计算所述训练图像对应的像素真实量和所述像素读取量的差值作为噪声数据量;
计算所述噪声数据量对应的噪声方差,确定所述噪声方差对应的学习程度;
采用所述训练图像按照所述学习程度训练所述多分支网络模型,生成所述掌静脉防伪模型。
可选地,所述计算所述噪声数据量对应的噪声方差,确定所述噪声方差对应的学习程度的步骤,包括:
计算所述噪声数据量对应的噪声方差;
采用多个预设方差阈值划分多个方差区间;每个方差区间对应一个学习程度;
根据所述噪声方差所处的方差区间,确定所述噪声方差对应的学习程度。
可选地,所述对所述待检测掌静脉图像进行图像预处理,得到掌静脉区域图像的步骤,包括:
从所述待检测掌静脉图像中确定目标掌静脉图像;其中,所述目标掌静脉图像为所述手掌的掌心向上的所述待检测掌静脉图像;
对所述目标掌静脉图像进行缩放裁剪,得到统一尺寸的掌静脉区域图像。
可选地,所述掌静脉防伪模型包括第一网络分支、第二网络分支、第三网络分支和分类器,所述将所述掌静脉区域图像输入到预设的掌静脉防伪模型,得到活体预测概率的步骤,包括:
对所述掌静脉区域图像进行卷积,生成特征图像;
通过所述第一网络分支分别计算所述特征图像在不同尺度的卷积核下的注意力权重;
通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行特征提取,生成掌静脉图像特征图;
通过所述第三网络分支映射所述特征图像,生成原始特征图;
拼接所述掌静脉图像特征图和所述原始特征图,生成目标特征图;
采用所述分类器对所述目标特征图进行分类,确定所述目标特征图对应的活体预测概率。
可选地,所述通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行特征提取,生成掌静脉图像特征图的步骤,包括:
通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行卷积,生成多个不同尺度的第一特征图像;
对所述第一特征图像进行卷积升维,生成多个统一尺度的第二特征图像;
采用多个所述第二特征图像按照所述注意力权重进行拼接,生成掌静脉图像特征图。
本发明还提供了一种掌静脉图像防伪装置,包括:
待检测掌静脉图像获取模块,用于获取待检测掌静脉图像;
图像预处理模块,用于对所述待检测掌静脉图像进行图像预处理,得到掌静脉区域图像;
活体预测概率确定模块,用于将所述掌静脉区域图像输入到预设的掌静脉防伪模型,得到活体预测概率;
活体手掌判定模块,用于若所述活体预测概率大于或等于预设阈值,则确定所述掌静脉区域图像所对应的手掌为活体手掌。
本发明还提供了一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如上述任一项所述的掌静脉图像防伪方法的步骤。
从以上技术方案可以看出,本发明具有以下优点:
本发明通过获取待检测掌静脉图像,对待检测掌静脉图像进行图像预处理,以得到掌静脉区域图像,再采用预设的掌静脉防伪模型对掌静脉区域图像进行处理,以得到该手掌为活体的活体预测概率,若是活体预测概率大于预设阈值,则确定该手掌为活体手掌,能够进行进一步的注册验证。从而解决了现有的掌静脉防伪方法对于手掌尺度、偏转角度敏感,难以精确有效地确定掌静脉区域图像之间的细微特征差别,导致防伪精度降低的技术问题,进而能够精确有效地确定掌静脉区域图像之间的细微特征差别,更为有效地提高掌静脉防伪精度和防伪性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例一提供的一种掌静脉图像防伪方法的步骤流程图;
图2为本发明实施例二提供的一种掌静脉图像防伪方法的步骤流程图;
图3为本发明实施例二提供的一种多分支网络模型的结构示意图;
图4为本发明实施例三提供的一种掌静脉图像防伪装置的结构框图。
具体实施方式
本发明实施例提供了一种掌静脉图像防伪方法、装置和设备,用于解决现有的掌静脉检测防伪方法对于手掌尺度、偏转角度敏感,难以精确有效地确定掌静脉图像之间的细微特征差别,导致防伪精度降低的技术问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例一提供的一种掌静脉图像防伪方法的步骤流程图。
本发明提供的一种掌静脉图像防伪方法,包括:
步骤101,获取待检测掌静脉图像;
在本发明实施例中,当用户需要进行掌静脉验证时,通过摄像设备抓取有限距离内的手掌区域作为手掌的待检测掌静脉图像。
值得一提的是,待检测掌静脉图像可以在用户需要进行掌静脉验证时,通过考勤机等摄像设备获取,具体获取方式本发明实施例不作限制。
步骤102,对所述待检测掌静脉图像进行图像预处理,得到掌静脉区域图像;
在获取到待检测掌静脉图像后,由于用户在进行掌静脉验证的过程中,所获取到的待检测掌静脉图像可能受到角度、距离、光照等不同因素的影响,所得到的待检测掌静脉图像无法直接输入到掌静脉防伪模型进行处理,此时可以在模型处理的步骤之前,先对待检测掌静脉图像进行图像预处理,确定掌静脉的所在区域,以得到掌静脉区域图像。
步骤103,将所述掌静脉区域图像输入到预设的掌静脉防伪模型,得到活体预测概率;
在得到掌静脉区域图像后,直接将掌静脉区域图像输入到预设的掌静脉防伪模型,通过掌静脉防伪模型对掌静脉区域图像进行进一步的活体预测评分,从而得到掌静脉区域图像是否为活体的活体预测概率。
步骤104,若所述活体预测概率大于或等于预设阈值,则确定所述掌静脉区域图像所对应的手掌为活体手掌。
在具体实现中,若是活体预测概率大于或等于预设阈值,则说明此时的手掌大概率为活体手掌,可以进行后续的注册和身份验证;此时可以确定掌静脉区域图像所对应的手掌为活体手掌,完成手掌的注册。
在本发明实施例中,通过获取待检测掌静脉图像,对待检测掌静脉图像进行图像预处理,以得到掌静脉区域图像,再采用预设的掌静脉防伪模型对掌静脉区域图像进行处理,以得到该手掌为活体的活体预测概率,若是活体预测概率大于预设阈值,则确定该手掌为活体手掌,能够进行进一步的注册验证。从而解决了现有的掌静脉防伪方法对于手掌尺度、偏转角度敏感,难以精确有效地确定掌静脉图像之间的细微特征差别,难以精确有效地确定掌静脉区域图像之间的细微特征差别,导致防伪精度降低的技术问题,进而能够精确有效地确定掌静脉区域图像之间的细微特征差别,更为有效地提高掌静脉防伪精度和防伪性能。
请参阅图2,图2为本发明实施例二提供的一种掌静脉图像防伪方法的步骤流程图。
本发明提供的一种掌静脉图像防伪方法,包括:
步骤201,获取训练图像;
训练图像可以为多种掌静脉区域图像,包括但不限于不同光照、冉偏转角度、距离设备不同距离、不同肤色或手掌尺度不同等类型的掌静脉区域图像。
步骤202,采用所述训练图像训练预设的多分支网络模型,生成所述掌静脉防伪模型。
在本发明实施例中,可以在事前构建多分支网络模型,再采用多种训练图像对所构建的多分支网络模型进行训练,以得到掌静脉防伪模型。
请参见图3,图3示出了本发明实施例二的一种多分支网络模型的结构示意图。
多分支网络模型可以包括第一卷积模块、SE模块、多个不同尺度卷积核所构成的第二卷积模块、身份映射模块、BN层、自适应平均池化层、全连接层和分类器模块。
SE(Squeeze-and-Excitation Networks,挤压与激发网络)模块指的是通过显式地建模通道之间的相互依赖关系,自适应地重新校准通道式的特征响应,从而对特征进行重新校准,以实现使用全局信息来选择性地强调信息特征并抑制不太有用的特征的模块。其中包括依次排列的池化层、全连接层、激励层、全连接层和softmax层。
其中,SE模块构成了第一网络分支,多个不同尺度卷积核所构成的第二卷积模块构成第二网络分支,身份映射模块构成第三网络分支。
在本发明实施例中,步骤202可以包括以下子步骤S11-S14:
S11、通过预设的多分支网络模型读取所述训练图像,确定所述训练图像对应的像素读取量;
对于模糊手掌、污渍手掌、磨损手掌等由于图像包含太多噪声数据导致质量不高的困难样本,由于其掌纹纹理细节被破坏,以统一的学习程度进行学习,模型很难学习到统一的特征表达。而在实际操作中,每个人的掌纹纹理细节都有所区别,因此可以据此对模型训练过程进行进一步的优化。
在本发明实施例中,可以在训练图像中增加该类型的样本,通过多分支网络模型读取训练图像,以确定训练图像中能够被正常读取到的像素读取量。
S12、计算所述训练图像对应的像素真实量和所述像素读取量的差值作为噪声数据量;
对于任意类型的训练图像,或多或少都会存在一些噪声数据,可以通过计算训练图像对应的像素真实量和像素读取量的差值作为噪声数据量,以便于后续确定每种训练图像的学习程度。
在具体实现中,像素读取量y(It)可以如下表示:
y(It)=f(It)+n(It)
其中,f(It)表示训练图像对应的像素真实量,n(It)表示噪声数据量。
S13、计算所述噪声数据量对应的噪声方差,确定所述噪声方差对应的学习程度;
进一步地,步骤S13可以包括以下子步骤S111-S113:
S111、计算所述噪声数据量对应的噪声方差;
S112、采用多个预设方差阈值划分多个方差区间;每个方差区间对应一个学习程度;
S113、根据所述噪声方差所处的方差区间,确定所述噪声方差对应的学习程度。
在本发明实施例中,可以对全部训练图像进行噪声数据量的统计,而噪声数据量服从高斯分布,可以表示为n(It)~N(μ,σ2(It)),其中μ表示噪声数据量均值,σ2(It)表示噪声数据量对应的方差。
在具体实现中,以三个方差区间为例,用两个方差阈值λ1,λ2,将整个数据分布划分成三个区间,其中λ1<λ2,并将每一个区间中的样本学习程度设置为当噪声数据量分布在区间(μ-λ1,μ+λ1),说明此类数据噪声包含较少,为简单样本数据,因此将此类样本学习程度设置为1/6,模型通过简单学习便能提取到不错的特征;当噪声数据量分布在区间(μ-λ2,μ-λ1)与(μ+λ1,μ+λ2)时,说明此类数据包含一些噪声,但对图像本身类别影响也不大,为一般样本数据,将此类样本学习程度设置为1/3,模型需要关心此类样本数据的像素分布,以便提取到更为显著的细微特征区别;对于噪声数据量分布在(-∞,μ-λ2)与(μ+λ2,+∞)的数据,归为困难样本,模型必须更加注重此类样本的学习,才能提取到其可区分的特征表达,此处将该类样本学习程度设置为1/2,使模型在训练时更加关注困难样本的学习。
S14、采用所述训练图像按照所述学习程度训练所述多分支网络模型,生成所述掌静脉防伪模型。
在本发明实施例中,在采用训练图像进行训练时,根据训练图像中的噪声数据量,确定该图像在训练过程中的模型学习程度,以使得模型在学习到简单样本特征的基础上,更大程度地学习到困难样本的特征表达,从而提高模型对于困难样本的有效分类,提升模型的泛化性能。
步骤203,获取待检测掌静脉图像;
步骤204,对所述待检测掌静脉图像进行图像预处理,得到掌静脉区域图像;
可选地,步骤204可以包括以下子步骤:
从多个所述待检测掌静脉图像中确定目标掌静脉图像;其中,所述目标掌静脉图像为所述手掌的掌心向上的所述待检测掌静脉图像;
对所述目标掌静脉图像进行缩放裁剪,得到统一尺寸的掌静脉区域图像。
在本发明的一个示例中,当获取到手掌的多个待检测掌静脉图像后,从多个待检测掌静脉图像中确定手掌掌心向上的图像作为目标掌静脉图像,由于目标掌静脉图像具有不同的尺寸,可以对目标掌静脉图像进行缩放裁剪,以得到统一尺寸的掌静脉区域图像。
步骤205,将所述掌静脉区域图像输入到预设的掌静脉防伪模型,得到活体预测概率;
在本发明的另一个示例中,所述掌静脉防伪模型包括第一网络分支、第二网络分支、第三网络分支和分类器,步骤205可以包括以下子步骤S21-S26:
S21、对所述掌静脉区域图像进行卷积,生成特征图像;
S22、通过所述第一网络分支分别计算所述特征图像在不同尺度的卷积核下的注意力权重;
在本实施例中,可以对掌静脉区域图像进行卷积,以得到对应的特征图像;对特征图像进行全局平均池化,以获取特征图像的图像空间信息,通过两个全连接层和softmax层对卷积核权重进行计算,从而确定特征图像在不同尺度的卷积核下的注意力权重,计算过程如下所示:
其中si为全连接层输出值,xi(X)为特征图X通过第i个线性函数激活后的注意力权重,I为线性函数的个数。
因为si是手掌输入特征图X经过激活函数softmax后生成的特征对类别的概率响应,因此si会随着输入图像特征图X的变化而变化,所以每一张手掌特征图X经过线性激活后的特征注意力权重xi(X)是不一样的,概率响应越高,说明该尺度特征对图像分类正确的贡献越大。通过该网络分支可以获取每一张图像,在卷积过程中采用不同尺度卷积核作用后的特征对于图像分类正确的贡献。
S23、通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行特征提取,生成掌静脉图像特征图;
进一步地,步骤S23可以包括以下子步骤S231-S233:
S231、通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行卷积,生成多个不同尺度的第一特征图像;
S232、对所述第一特征图像进行卷积升维,生成多个统一尺度的第二特征图像;
S233、采用多个所述第二特征图像按照所述注意力权重进行拼接,生成掌静脉图像特征图。
在得到第一网络分支输出的各个卷积核的注意力权重后,通过第二网络分支基于不同尺度的卷积核和注意力权重,对特征图像进行卷积,以得到多个不同尺度的第一特征图像。
例如,可以采用卷积核尺度分别为{3*3,5*5,7*7,9*9},其中xi(X)i=1,2,3,4分别对应卷积核wi={3,5,7,9}尺度下的特注意力权重。通过4个不同尺度卷积核对图像特征图X,张量形状为(1*H*W),进行卷积后最终得到的第一特征图像可表示如下:
对第一特征图进行1x1卷积升维至第二特征图尺度1*H*W,最后将不同尺度卷积核卷积后得到的特征按照注意力权重进行拼接,得到不同程度的卷积处理后的掌静脉图像特征图。
S24、通过所述第三网络分支映射所述特征图像,生成原始特征图;
在本发明实施例中,可以通过第三网络分支直接映射特征图像,以使所生成的原始特征图保留手掌静脉区域图像的原始特征信息,包括但不限于图像轮廓、光照等原始特征信息。
S25、拼接所述掌静脉图像特征图和所述原始特征图,生成目标特征图;
在通过第二网络分支和第三网络分支得到掌静脉图像特征图和原始特征图后,可以将原始特征图和掌静脉图像特征图进行拼接串联,生成目标特征图像。
可选地,在对原始特征图和掌静脉图像特征图拼接完成后,还可以经过BN层、自适应平均池化层、全连接层,生成目标特征图像。
S26、采用所述分类器对所述目标特征图进行分类,确定所述目标特征图对应的活体预测概率。
最后采用分类器对目标特征图进行分类,以确定目标特征图对应的货活体预测概率。
步骤206,若所述活体预测概率大于或等于预设阈值,则确定所述掌静脉区域图像所对应的手掌为活体手掌。
可选地,本发明还包括以下步骤:
若所述活体预测概率小于所述预设阈值,则确定所述掌静脉区域图像对应的手掌为假体手掌。
在本发明实施例中,通过获取待检测掌静脉图像,对待检测掌静脉图像进行图像预处理,以得到掌静脉区域图像,再采用预设的掌静脉防伪模型对掌静脉区域图像进行处理,以得到该手掌为活体的活体预测概率,若是活体预测概率大于预设阈值,则确定该手掌为活体手掌,能够进行进一步的注册验证。从而解决了现有的掌静脉防伪方法对于手掌尺度、偏转角度敏感,难以精确有效地确定掌静脉图像之间的细微特征差别,导致防伪精度降低的技术问题,进而能够精确有效地确定掌静脉区域图像之间的细微特征差别,更为有效地提高掌静脉防伪精度和防伪性能。
请参阅图4,图4为本发明实施例三提供的一种掌静脉图像防伪装置的结构框图。
本发明实施例提供的一种掌静脉图像防伪装置,包括:
待检测掌静脉图像获取模块401,用于获取待检测掌静脉图像;
图像预处理模块402,用于对所述待检测掌静脉图像进行图像预处理,得到掌静脉区域图像;
活体预测概率确定模块403,用于将所述掌静脉区域图像输入到预设的掌静脉防伪模型,得到活体预测概率;
活体手掌判定模块404,用于若所述活体预测概率大于或等于预设阈值,则确定所述掌静脉区域图像所对应的手掌为活体手掌。
可选地,还包括:
假体手掌判定模块,用于若所述活体预测概率小于所述预设阈值,则确定所述掌静脉区域图像对应的手掌为假体手掌。
可选地,还包括:
训练图像获取模块,用于获取训练图像;
模型训练模块,用于采用所述训练图像训练预设的多分支网络模型,生成所述掌静脉防伪模型。
可选地,所述模型训练模块包括:
训练图像读取子模块,用于通过预设的多分支网络模型读取所述训练图像,确定所述训练图像对应的像素读取量;
噪声数据量确定子模块,用于计算所述训练图像对应的像素真实量和所述像素读取量的差值作为噪声数据量;
学习程度确定子模块,用于计算所述噪声数据量对应的噪声方差,确定所述噪声方差对应的学习程度;
训练子模块,用于采用所述训练图像按照所述学习程度训练所述多分支网络模型,生成所述掌静脉防伪模型。
可选地,所述学习程度确定子模块包括:
噪声方差计算单元,用于计算所述噪声数据量对应的噪声方差;
方差区间划分单元,用于采用多个预设方差阈值划分多个方差区间;每个方差区间对应一个学习程度;
学习程度确定单元,用于根据所述噪声方差所处的方差区间,确定所述噪声方差对应的学习程度。
可选地,所述图像预处理模块402包括:
目标掌静脉图像确定子模块,用于从多个所述待检测掌静脉图像中确定目标掌静脉图像;所述目标掌静脉图像为所述手掌的掌心向上的所述待检测掌静脉图像;
图像缩放裁剪子模块,用于对所述目标掌静脉图像进行缩放裁剪,得到统一尺寸的掌静脉区域图像。
可选地,所述掌静脉防伪模型包括第一网络分支、第二网络分支、第三网络分支和分类器,所述活体预测概率确定模块403包括:
特征图像绳子模块,用于对所述掌静脉区域图像进行卷积,生成特征图像;
注意力权重计算子模块,用于通过所述第一网络分支分别计算所述特征图像在不同尺度的卷积核下的注意力权重;
掌静脉图像特征图生成子模块,用于通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行特征提取,生成掌静脉图像特征图;
原始特征图生成子模块,用于通过所述第三网络分支映射所述特征图像,生成原始特征图;
特征图拼接子模块,用于拼接所述掌静脉图像特征图和所述原始特征图,生成目标特征图;
特征图分类子模块,用于采用所述分类器对所述目标特征图进行分类,确定所述目标特征图对应的活体预测概率。
可选地,所述掌静脉图像特征图生成子模块包括:
多尺度第一特征图像生成单元,用于通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行卷积,生成多个不同尺度的第一特征图像;
统一尺度特征图像生成单元,用于对所述第一特征图像进行卷积升维,生成多个统一尺度的第二特征图像;
拼接单元,用于采用多个所述第二特征图像按照所述注意力权重进行拼接,生成掌静脉图像特征图。
本发明实施例还提供了一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如上述任一实施例所述的掌静脉图像防伪方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (7)
1.一种掌静脉图像防伪方法,其特征在于,包括:
获取训练图像;
采用所述训练图像训练预设的多分支网络模型,生成掌静脉防伪模型;
其中,所述掌静脉防伪模型包括第一网络分支、第二网络分支、第三网络分支和分类器;
获取待检测掌静脉图像;
对所述待检测掌静脉图像进行图像预处理,得到掌静脉区域图像;
将所述掌静脉区域图像输入到所述掌静脉防伪模型,得到活体预测概率;
若所述活体预测概率大于或等于预设阈值,则确定所述掌静脉区域图像所对应的手掌为活体手掌;
所述将所述掌静脉区域图像输入到所述掌静脉防伪模型,得到活体预测概率的步骤为:
对所述掌静脉区域图像进行卷积,生成特征图像;
通过所述第一网络分支分别计算所述特征图像在不同尺度的卷积核下的注意力权重;
通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行特征提取,生成掌静脉图像特征图;
通过所述第三网络分支映射所述特征图像,生成原始特征图;
拼接所述掌静脉图像特征图和所述原始特征图,生成目标特征图;
采用所述分类器对所述目标特征图进行分类,确定所述目标特征图对应的活体预测概率;
所述采用所述训练图像训练预设的多分支网络模型,生成掌静脉防伪模型的步骤,包括:
通过预设的多分支网络模型读取所述训练图像,确定所述训练图像对应的像素读取量;
计算所述训练图像对应的像素真实量和所述像素读取量的差值作为噪声数据量;
计算所述噪声数据量对应的噪声方差,确定所述噪声方差对应的学习程度;
采用所述训练图像按照所述学习程度训练所述多分支网络模型,生成所述掌静脉防伪模型。
2.根据权利要求1所述的掌静脉图像防伪方法,其特征在于,还包括:
若所述活体预测概率小于所述预设阈值,则确定所述掌静脉区域图像对应的手掌为假体手掌。
3.根据权利要求1所述的掌静脉图像防伪方法,其特征在于,所述计算所述噪声数据量对应的噪声方差,确定所述噪声方差对应的学习程度的步骤,包括:
计算所述噪声数据量对应的噪声方差;
采用多个预设方差阈值划分多个方差区间;每个方差区间对应一个学习程度;
根据所述噪声方差所处的方差区间,确定所述噪声方差对应的学习程度。
4.根据权利要求1所述的掌静脉图像防伪方法,其特征在于,所述对所述待检测掌静脉图像进行图像预处理,得到掌静脉区域图像的步骤,包括:
从所述待检测掌静脉图像中确定目标掌静脉图像;其中,所述目标掌静脉图像为所述手掌的掌心向上的所述待检测掌静脉图像;
对所述目标掌静脉图像进行缩放裁剪,得到统一尺寸的掌静脉区域图像。
5.根据权利要求1所述的掌静脉图像防伪方法,其特征在于,所述通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行特征提取,生成掌静脉图像特征图的步骤,包括:
通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行卷积,生成多个不同尺度的第一特征图像;
对所述第一特征图像进行卷积升维,生成多个统一尺度的第二特征图像;
采用多个所述第二特征图像按照所述注意力权重进行拼接,生成掌静脉图像特征图。
6.一种掌静脉图像防伪装置,其特征在于,包括:
模型训练模块,获取训练图像;采用所述训练图像训练预设的多分支网络模型,生成掌静脉防伪模型;
其中,所述掌静脉防伪模型包括第一网络分支、第二网络分支、第三网络分支和分类器;
待检测掌静脉图像获取模块,用于获取待检测掌静脉图像;
图像预处理模块,用于对所述待检测掌静脉图像进行图像预处理,得到掌静脉区域图像;
活体预测概率确定模块,用于将所述掌静脉区域图像输入到所述掌静脉防伪模型,得到活体预测概率;
活体手掌判定模块,用于若所述活体预测概率大于或等于预设阈值,则确定所述掌静脉区域图像所对应的手掌为活体手掌;
所述将所述掌静脉区域图像输入到所述掌静脉防伪模型,得到活体预测概率的步骤为:
对所述掌静脉区域图像进行卷积,生成特征图像;
通过所述第一网络分支分别计算所述特征图像在不同尺度的卷积核下的注意力权重;
通过所述第二网络分支根据所述不同尺度的卷积核和所述注意力权重,对所述特征图像进行特征提取,生成掌静脉图像特征图;
通过所述第三网络分支映射所述特征图像,生成原始特征图;
拼接所述掌静脉图像特征图和所述原始特征图,生成目标特征图;
采用所述分类器对所述目标特征图进行分类,确定所述目标特征图对应的活体预测概率;
所述采用所述训练图像训练预设的多分支网络模型,生成掌静脉防伪模型的步骤,包括:
通过预设的多分支网络模型读取所述训练图像,确定所述训练图像对应的像素读取量;
计算所述训练图像对应的像素真实量和所述像素读取量的差值作为噪声数据量;
计算所述噪声数据量对应的噪声方差,确定所述噪声方差对应的学习程度;
采用所述训练图像按照所述学习程度训练所述多分支网络模型,生成所述掌静脉防伪模型。
7.一种电子设备,其特征在于,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1-5任一项所述的掌静脉图像防伪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110192379.0A CN112861743B (zh) | 2021-02-20 | 2021-02-20 | 一种掌静脉图像防伪方法、装置和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110192379.0A CN112861743B (zh) | 2021-02-20 | 2021-02-20 | 一种掌静脉图像防伪方法、装置和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112861743A CN112861743A (zh) | 2021-05-28 |
CN112861743B true CN112861743B (zh) | 2023-07-14 |
Family
ID=75989666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110192379.0A Active CN112861743B (zh) | 2021-02-20 | 2021-02-20 | 一种掌静脉图像防伪方法、装置和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112861743B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116631068B (zh) * | 2023-07-25 | 2023-10-20 | 江苏圣点世纪科技有限公司 | 一种基于深度学习特征融合的掌静脉活体检测方法 |
CN117037221B (zh) * | 2023-10-08 | 2023-12-29 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537135A (zh) * | 2018-03-16 | 2018-09-14 | 北京市商汤科技开发有限公司 | 对象识别及对象识别网络的训练方法和装置、电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019075601A1 (zh) * | 2017-10-16 | 2019-04-25 | 厦门中控智慧信息技术有限公司 | 一种掌静脉的识别方法及装置 |
CN108615002A (zh) * | 2018-04-22 | 2018-10-02 | 广州麦仑信息科技有限公司 | 一种基于卷积神经网络的手掌静脉认证方法 |
CN108985231B (zh) * | 2018-07-12 | 2021-08-13 | 广州麦仑信息科技有限公司 | 一种基于多尺度卷积核的掌静脉特征提取方法 |
CN111612083B (zh) * | 2020-05-26 | 2023-05-12 | 济南博观智能科技有限公司 | 一种手指静脉识别方法、装置及设备 |
CN112183510A (zh) * | 2020-12-01 | 2021-01-05 | 北京圣点云信息技术有限公司 | 基于Att-3CRB-Unet网络的指静脉图像分割方法及装置 |
-
2021
- 2021-02-20 CN CN202110192379.0A patent/CN112861743B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537135A (zh) * | 2018-03-16 | 2018-09-14 | 北京市商汤科技开发有限公司 | 对象识别及对象识别网络的训练方法和装置、电子设备 |
Non-Patent Citations (1)
Title |
---|
林坤 ; 雷印杰 ; .基于改进AlexNet卷积神经网络的手掌静脉识别算法研究.现代电子技术.2020,(第07期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN112861743A (zh) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Persello et al. | Kernel-based domain-invariant feature selection in hyperspectral images for transfer learning | |
Salman et al. | Classification of real and fake human faces using deep learning | |
CN112861743B (zh) | 一种掌静脉图像防伪方法、装置和设备 | |
Fathy et al. | Entropy with local binary patterns for efficient iris liveness detection | |
CN108875509A (zh) | 活体检测方法、装置和系统及存储介质 | |
CN111144425B (zh) | 检测拍屏图片的方法、装置、电子设备及存储介质 | |
CN112634246A (zh) | 一种口腔图像识别方法及相关设备 | |
CN108875549A (zh) | 图像识别方法、装置、系统及计算机存储介质 | |
CN116958637A (zh) | 图像检测模型的训练方法、装置、设备及存储介质 | |
CN107944363A (zh) | 人脸图像处理方法、系统及服务器 | |
Khoje et al. | Evaluation of ripplet transform as a texture characterization for Iris recognition | |
Lavanya et al. | Particle Swarm Optimization Ear Identification System | |
CN113378609B (zh) | 代理商代签名的识别方法及装置 | |
CN116386117A (zh) | 人脸识别方法、装置、设备及存储介质 | |
Sandotra et al. | Analyzing performance of deep learning models under the presence of distortions in identifying plant leaf disease | |
CN116503918A (zh) | 基于ViT网络的掌静脉图像分类方法、装置、设备及介质 | |
Verma et al. | Static Signature Recognition System for User Authentication Based Two Level Cog, Hough Tranform and Neural Network | |
Dubey et al. | Deconstructive Human Confront Acknowledgment Utilizing Profound Neural Arrange | |
CN113505716A (zh) | 静脉识别模型的训练方法、静脉图像的识别方法及装置 | |
Solomon | Face Anti-Spoofing and Deep Learning Based Unsupervised Image Recognition Systems | |
CN111723700A (zh) | 一种人脸识别方法、装置及电子设备 | |
CN111428670A (zh) | 人脸检测方法、装置、存储介质及设备 | |
CN117351579B (zh) | 基于多源信息融合的虹膜活体检测方法及装置 | |
Vivek et al. | Feature extraction for multimodal biometric and study of fusion using Gaussian mixture model | |
CN113205082B (zh) | 基于采集不确定性解耦的鲁棒虹膜识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |