CN111209850B - 一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法 - Google Patents

一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法 Download PDF

Info

Publication number
CN111209850B
CN111209850B CN202010007624.1A CN202010007624A CN111209850B CN 111209850 B CN111209850 B CN 111209850B CN 202010007624 A CN202010007624 A CN 202010007624A CN 111209850 B CN111209850 B CN 111209850B
Authority
CN
China
Prior art keywords
image
generator
finger vein
training
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010007624.1A
Other languages
English (en)
Other versions
CN111209850A (zh
Inventor
张烜
赵国栋
任湘
李学双
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Holy Point Century Technology Co ltd
Original Assignee
Holy Point Century Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Holy Point Century Technology Co ltd filed Critical Holy Point Century Technology Co ltd
Priority to CN202010007624.1A priority Critical patent/CN111209850B/zh
Publication of CN111209850A publication Critical patent/CN111209850A/zh
Application granted granted Critical
Publication of CN111209850B publication Critical patent/CN111209850B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明涉及基于改进cGAN网络生成适用多设备识别指静脉图像的方法,其包括以下步骤:1)采集或选取多个图像样本X0;2)对图像样本X0进行分割,静脉部分,获取静脉的背景二值图像Xbin;3)根据二值图像Xbin的大小及格式设计出与之相匹配的改进cGAN网络结构;4)训练改进cGAN网络,并根据所采集的数据量训练更新相适应的网络训练参数值;5)将分割细化后的指静脉细线二值图Xbin输入训练好的改进cGAN网络中,生成指静脉图像,用于指静脉注册识别。本发明通过设计改进cGAN网络结构,并通过生成器G根据输入的二值图描绘出指静脉灰度图像训练生成器和判别器D实现参数的更新,有效地解决了手指静脉在不同设备状态下引起的图像质量变化的指静脉识别性能降低的问题。

Description

一种基于改进cGAN网络生成适用多设备识别指静脉图像的 方法
技术领域
本发明属于信息安全的身份识别验证技术领域,尤其涉及一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法。
背景技术
手指静脉识别是一种前沿的生物特征识别技术,它是利用手指内静脉的红外图像来进行身份识别,具有生物活体识别、体内特征识别和非接触式识别三个特点。指静脉识别确保了被识别者的手指静脉难以伪造,因此手指静脉识别系统安全等级高,特别适用于高安全级别的场所,各种指静脉的识别有关技术也在不断提升识别的性能,识别的精度与速度的也在逐步提升。
目前,指静脉识别技术的过程如专利号为CN101840511B的中国发明公开的手指静脉特征提取与匹配识别方法,包括通过红外图像采集装置获取手指静脉图像,并对图像进行预处理,特征提取,识别分析步骤;所述预处理包括彩色图像进行灰度化、手指区域提取、采用方向滤波和增强、按照手指轮廓标记提取手指静脉纹路并二值化、采用面积消除法去噪、将图像的大小标准化为统一的图像;特征提取的方法为:对手指静脉纹路图进行子块划分,对于每个子块图像采用双向特征值加权分块的双向二维主成分分析的方法进行特征提取;识别分析是将各个子块的特征作为整体采用最近邻分类器进行识别。
在手指静脉识别中指静脉图像质量的高低直接影响到识别结果的好坏。主要原因是不同厂商的指静脉设备设计各不相同,例如设备打光方式有上打光、双侧打光以及单侧打光,没有统一标准的前提下导致所采集的指静脉图像存在不同程度差异;即使是同一种型号设备也会因个体的元件差异导致指静脉图像质量发生变化。因此,导致同手指静脉在不同设备所呈现图像存在不同程度差异,这也仍然是会影响指静脉识别性能的重要因素之一,尤其对于不同设备使用的注册验证。
近些年来,有关许多的手指静脉图像质量评估或增强方法被提出。在2010年哈尔滨工程大学王科俊等,提出一种手指静脉图像质量判别方法,即是通过获取手指静脉图像的对比质量分数、位置偏移质量分数有效区域质量分数、方向模糊度质量分数,将上述质量分数加权累加起来进行综合评价;在2011年中国人民解放军国防科技大学谢剑斌等,提出用于特征提取的静脉图像质量检测方法,其方法主要是对手指静脉图像划分区段后提取手指静脉区域平均梯度特征,以及手指静脉纹理细节点,由上述条件分级判断手指静脉图像的质量;在2017年重庆工商大学亲华锋等提出基于卷积神经网络的手指静脉图像质量评估方法及评估系统,该方法为首先对手指静脉灰度图像的质量进行标注,其次建立训练样本集合,然后利用训练样本集合对卷积神经网络模型进行训练,最后通过支持向量机来计算出所预测手指静脉图像的质量。
据调查了解,上述列举的方法大多是对指静脉图像质量的评估,从而判断出图像质量的好坏,并不能有效提高已经获得的指静脉图像质量与降低指静脉图像因设备差异在识别任务中的影响;在一个设备采集图像注册后另一个设备采集的图像进行验证的情况下未能根据因设备变化导致指静脉图像的变化进行注册模板更新,或者在使用人不方便直接对不同设备注册模板进行更新,由此导致指静脉识别率不同程度降低。对于由一个设备注册另一个设备验证导致的指静脉图像质量变化的指静脉识别性能降低情况,也未发现有研究人员提出相关的解决办法。
发明内容
本发明的目的是为了解决现有指静脉识别技术中一个设备状态下注册另一个设备状态下验证导致的指静脉图像质量变化识别率低的问题,提供一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法。
为了达到目的,本发明提供的技术方案为:
一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法,包括以下步骤:
1)采集或选取一个设备的多个图像样本X0
2)对图像样本X0进行分割,提取出静脉部分,获取静脉的背景二值图像Xbin
3)根据二值图像Xbin的大小及格式设计出与之相匹配的改进cGAN网络结构;
4)训练改进cGAN网络,并根据所采集的数据量训练更新相适应的网络参数值;
5)将分割细化后的指静脉细线二值图Xbin输入训练好的改进cGAN网络中,生成指静脉图像,用于指静脉注册识别。
优选地,所述的改进cGAN网络的结构主要包括生成器G和判别器D,每次训练改进cGAN网络时,首先对判别器D进行训练,再对生成器G进行训练,最后根据训练结果,更新判别器D和生成器G的参数;其中,在判别器D中的一部分参数只需要一次训练完成即可。
优选地,所述的生成器G输入的图像为二值图像Xbin,输出的图像为接近于另一台目标设备图像的指静脉灰度图像Xg,并根据目标设备的指静脉灰度图像Xt训练生成器。
优选地,所述的判别器D输入的是目标设备的图像Xt和生成器所生成的指静脉灰度图像Xg,判别器训练的是对目标图像Xt与生成器所生成的图像Xg中灰度的学习,判断目标图像Xt的灰度与成器所生成的指静脉灰度图像Xg的灰度之间的不同,获取判别图像生成图像Xg与目标图像Xt之间差异程度的能力,若生成器所生成的指静脉灰度图像Xg更接近于目标图像Xt,则用指静脉灰度图像Xg替换目标图像Xt
优选地,所述的生成器G由多个ENCODE编码块串联后与多个DECODE编码块串联构成,每个ENCODE编码块均由非对称卷积层、归一化层和激活层组成,每个DECODE编码块均由非对称反卷积层、归一化层和激活层组成,每两个ENCODE或者两个DECODE之间连接了非对称卷积自适应模块,起到编码模块之间特征图尺寸前后适应的作用。
优选地,所述的判别器D由第一部分和第二部分组成,其中第一部分由多个ENCODE编码块串联而成,每个ENCODE编码块均由非对称卷积层、归一化层和激活层组成,每两个ENCODE之间连接了非对称卷积自适应模块,起到编码模块之间特征图尺寸前后适应的作用,该第一部分起到鉴别真假的作用;第二部分是由只需一次性训练完成的非对称卷积网络构成,起到提取卷积特征向量并度量距离大小的作用。
上述生成器G和判别器D的非对称卷积层编码解码结构的设计,目的在于能够提取出图像的更高级别的特征,非对称卷积层的具体参数是根据输入图像的参数设定。
优选地,所述的步骤4)中,通过训练改进cGAN网络过程与原理得到目标函数,目标函数的计算方法如下:
Figure BDA0002355890870000041
Figure BDA0002355890870000042
Figure BDA0002355890870000043
式中,x为目标图,y为生成图,z为二值图,G(x,z)表示有生成器的生成图y,D(x,y)表示判别器的判别结果,
Figure BDA0002355890870000044
表示求G使得目标函数最小化和求D使得目标函数最大化,
Figure BDA0002355890870000045
表示两者通过识别网络后提取到的特征之间的欧式距离,G*表示最终的目标函数,即所求最值函数,λ为超参常数。
优选地,所述步骤4)中,在寻找最优的生成器中会给定一个判别器D,将G*作为训练生成器的损失函数L(G),然后采用Adam算法更新生成器的参数,梯度下降的参数优化过程的公式如下:
Figure BDA0002355890870000046
式中,θG表示改进cGAN网络中的生成器的参数;
当给定一个生成器的初始值G0需要寻找令
Figure BDA0002355890870000047
最大的D0,G*作为训练判别器的损失函数L(D),判别器的更新过程损失函数为-L(D)的训练过程,参数优化过程的公式如下:
Figure BDA0002355890870000048
式中,θD表示改进cGAN判别器中的第一部分网络的参数;
在训练的内部循环中,优化判别器D第一部分的步骤和优化生成器G的步骤间交替进行,更新判别器D第一部分和生成器G,并使判别器D第一部分和生成器G一直趋于最优解的附近。
采用本发明提供的技术方案,与现有技术相比,具有如下有益效果:
本发明涉及的基于改进cGAN网络生成适用多设备识别指静脉图像的方法通过设计改进cGAN网络结构,并通过生成器G根据输入的二值图描绘出指静脉灰度图像训练生成器和判别器D,在一台设备采集图像注册后另一台设备采集的图像进行验证的情况下未能根据因设备变化导致指静脉图像的变化进行注册模板更新,或者在使用人不方便直接对不同设备注册模板进行更新的情况下,实现注册模板的更新,有效地解决了手指静脉在不同设备状态下引起的图像质量变化的指静脉识别性能降低的问题。
附图说明
图1是本发明基于改进cGAN网络生成适用多设备识别指静脉图像的方法的流程图;
图2是生成器的功能示意图;
图3是判别器的功能示意图;
图4是ENCODE编码块结构示意图;
图5是生成器结构原理图;
图6是DECODE编码块结构示意图;
图7是判别器结构与原理示意图;
图8是判别器第一部分优化原理示意图;
图9是生成器优化原理示意图。
具体实施方式
为进一步了解本发明的内容,结合实施例对本发明作详细描述,以下实施例用于说明本发明,但不用于限制本发明的范围。
图1是本发明基于改进cGAN网络生成适用多设备识别指静脉图像的方法的流程图,结合附图1所示,基于改进cGAN网络生成适用多设备识别指静脉图像的方法包括以下步骤:
1)使用指静脉图像采集设备采集手指近红外图像作为图像样本X0,图像样本X0为尺寸为240×480像素的灰度图像。
2)采用自适应阈值方法对图像样本X0进行分割,提取出静脉部分,获取静脉的背景二值图像Xbin
3)根据二值图像Xbin的大小及格式设计出与之相匹配的改进cGAN网络结构,所述的改进cGAN网络的结构主要包括生成器G和判别器D;结合附图2、图4和图5所示,生成器G由多个ENCODE编码块串联后与多个DECODE编码块串联构成,每两个ENCODE或者两个DECODE之间连接了非对称卷积自适应模块;结合附图3、图6和图7所示,判别器D由第一部分和第二部分组成,其中第一部分由多个ENCODE编码块串联而成,每两个ENCODE之间连接了非对称卷积自适应模块,第二部分是由只需一次性训练完成的卷积网络构成;
在生成器的非对称卷积编码部分设计中,对输入的240×480的图像进行8次非对称卷积的ENCODE编码计算,计算得到1×2×512的张量;设计生成器的非对称反卷积解码部分时,首先对输入的1×2×512的张量进行非对称反卷积DECODE解码计算,的到1×2×512的张量,将连个1×2×512的张量连接成2×4×512的张量作为输出,依次进行其余的非对称反卷积解码计算,最后得到的输出为240×480矩阵;同时在非对称卷积编码部分,相同尺寸矩阵计算的卷积特征与非对称反卷积解码部分中同尺寸的反卷积特征连接作为非对称反卷积解码部分下一层的输入特征。至此生成对抗网络的生成器部分,网络中参数设置如表1所示;
表1生成器参数表
Figure BDA0002355890870000061
Figure BDA0002355890870000071
在判别器的部分设计中,第一部分的输入为两个240×480矩阵连接成的240×280×2的张量,然后经过一系列非对称卷积ENCODE编码计算最后得到8×16×1的张量,由此张量鉴别所输入图像时真实图像还是生成器生成的图像;至此生成对抗网络的判别器部分,网络中参数设置如表2所示。
表2判别器第一部分参数表
Figure BDA0002355890870000072
Figure BDA0002355890870000081
在判别器的第二部分设计中,第二部分的输入为一个240×480矩阵,然后经过一系列非对称卷积ENCODE编码计算最后得到1×128的向量,计算目标图与生成图卷积后的向量距离,该距离值用于参数更新;对抗网络的判别器第二部分网络中参数设置如表3所示。
表3判别器第二部分参数表
number layers shape strides future_size
1 input * * 240×480×1
2 layer_1 (2,3,1,64) [2,2} 120×240×64
3 layer_2 (2,3,64,128) [2,2} 60×120×128
4 layer_3 (2,3,128,256) [2,2] 30×60×256
5 layer_4 (2,3,256,512) [2,2] 16×30×512
6 layer_5 (2,3,512,256) [2,2] 8×16×256
7 layer_6 (2,3,256,256) [2,2] 4×8×256
8 layer_7 (2,3,256,256) [2,2] 2×4×256
9 layer_8 (2,3,256,128) [2,4] 1×1×128
10 output * * 1×128
4)训练改进cGAN网络,并根据所采集的数据量更新相适应的网络训练参数值,训练过程中,生成器G输入的图像为二值图像Xbin,输出的图像为接近于目标设备原始图像的指静脉灰度图像Xg,并根据指静脉灰度图像Xg训练生成器;判别器D输入的目标设备图像Xt和生成器所生成的指静脉灰度图像Xg,判别器训练的是对目标设备图像Xt与生成器所生成的图像Xg中灰度的学习,判断目标设备图像Xt的灰度与成器所生成的指静脉灰度图像Xg的灰度之间的不同,获取判别图像生成图像Xg与目标设备图像Xt之间差异程度的能力,若生成器所生成的指静脉灰度图像Xg更接近于目标设备图像Xt,则用指静脉灰度图像Xg替换目标设备图像Xt
每次训练改进cGAN网络时,首先对判别器D中的第二部分进行一次训练,之后该部分的参数不再改变;其次对判别器D中第一部分进行训练,再对生成器G进行训练,最后根据训练结果,更新判别器D第一部分和生成器G的参数;
判别器第一部分训练过程如图8所示,用Xin表示输入图像Input,用Xout表示生成器的输出图像Output,用Xt表示目标设备采集的图像Target,第一步由用Xin输入生成器得到生成图像用Xout;第二步先由Xout与Xin同时输入判别器通过对比计算判别出真假,再由Xt与Xin同时输入判别器通过对比计算判别出真假,分别统计判断错误率加权求和;第三步根据判别器判断错误率的总和采用梯度下降的方法调整判别器参数,即优化判别器,上述三步在样本不断输入的情况下,不断训练判别器;
判别器第二部分的训练,将该部分按照一般分类卷积网络特征提取部分进行训练,再用Xout与Xt分别输入该部分经卷积得到对应的卷积特征向量,使得该部分具备提取图像特征用于度量两张图像是否为同类的能力,一经训练完成后其参数不再改变;
生成器的训练过程如图9所示,用Xin表示输入图像Input,用Xout表示生成器的输出图像Output,用Xt表示目标设备图像Target。第一步由Xin输入生成器生成图像Xout;第二步先由Xout与Xin同时输入判别器第一部分通过对比计算判别出真假,再由Xt与Xin同时输入判别器第一部分通过对比计算判别出真假,后将Xout与Xt输入判别器的第二部分计算出两者之间的距离,分别统计判断错误率与距离值进行加权求和;第三步根据判别器判断错误率的总和采用梯度下降的方法调整生成器参数,即训练生成器;
通过对判别器和生成器的训练过程与原理得到目标函数,目标函数的计算方法如下:
Figure BDA0002355890870000101
Figure BDA0002355890870000102
Figure BDA0002355890870000103
式中,x为目标图,y为生成图,z为二值图,G(x,z)表示有生成器的生成图y,D(x,y)表示判别器的判别结果,
Figure BDA0002355890870000104
表示求G使得目标函数最小化和求D使得目标函数最大化,
Figure BDA0002355890870000105
表示两者通过识别网络后提取到的特征之间的欧式距离,G*表示最终的目标函数,即所求最值函数,λ为超参常数;
在寻找最优的生成器中会给定一个判别器D,将G*作为训练生成器的损失函数L(G),然后采用Adam算法更新生成器的参数,梯度下降的参数优化过程的公式如下:
Figure BDA0002355890870000106
式中,θG表示改进cGAN网络中的生成器的参数;
当给定一个生成器的初始值G0需要寻找令
Figure BDA0002355890870000107
最大的D0,G*作为训练判别器的损失函数L(D),判别器的更新过程损失函数为-L(D)的训练过程,参数优化过程的公式如下:
Figure BDA0002355890870000108
式中,θD表示改进cGAN判别器中的第一部分网络的参数;
在训练的内部循环中,优化判别器D第一部分的步骤和优化生成器G的步骤间交替进行,更新判别器D第一部分和生成器G,并使判别器D第一部分和生成器G一直趋于最优解的附近。
5)将分割细化后的指静脉细线二值图Xbin输入训练好的改进cGAN网络中,生成指静脉图像,用于指静脉注册识别。
本发明采用三台不同设备每台采集图像,采集了300根手指共3批图像。其中第一台设备的红外光源在手指上方,采集了第一批图像;第二台设备的红外光源在手指两侧,采集了第二批图像;第三台设备的红外光源在手指的左侧,采集了第三批图像。第一批每手指采集13张,第二与第三批每个手指每批采集10图像;随机抽取第一批图像中的3张用于注册,第一批(其余10张)、第二批、第三批原图图像用于验证,同时将上述验证图像均通过本发明的方法生成同样数量图像用于验证,对比上述验证通过率。根据表3所示,在采用原始图验证情况下,注册后采用第一批图像原始图(其余10张)进行验证的平均通过率为99.87%,注册后采用第二批图像的原始图验证的平均通过率下降2.26个百分点至97.61%,采用第三批图像的原始图验证的平均通过率降低6.07个百分点至93.80%;在采用本发明涉及的基于改进cGAN网络生成适用多设备识别指静脉图像的方法生成指静脉图像验证情况下,注册后采用第一批图像的生成图进行验证的平均通过率为99.66%,注册后采用第二批图像的生成图验证的平均通过率下降0.42个百分点至99.24%,采用第三批图像的生成图验证的平均通过率降低0.63个百分点至99.03%;最后对比发现,采用第一台设备的图像在注册后采用其他设备的原始图像进行验证的情况向验证通过率下降明显,但是其他设备状态下采用本发明方法的生成图像验证时验证通过率下降不明显,而且就下降幅度而言仍能满足使用要求。
表3通过率统计表
Figure BDA0002355890870000111
以上结合实施例对本发明进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍属于本发明的专利涵盖范围之内。

Claims (4)

1.一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法,其特征在于:其包括以下步骤:
1)采集或选取多个图像样本X0
2)对图像样本X0进行分割,提取出静脉部分,获取静脉的背景二值图像Xbin
3)根据二值图像Xbin的大小及格式设计出与之相匹配的改进cGAN网络结构,改进cGAN网络的结构主要包括生成器G和判别器D;所述的生成器G由多个ENCODE编码块串联后与多个DECODE编码块串联构成,每个ENCODE编码块均由非对称卷积层、归一化层和激活层组成,每个DECODE编码块均由非对称反卷积层、归一化层和激活层组成,每两个ENCODE或者两个DECODE之间连接了非对称卷积自适应模块,起到编码模块之间特征图尺寸前后适应的作用;所述的判别器D由第一部分和第二部分组成,其中第一部分由多个ENCODE编码块串联而成,每个ENCODE编码块均由非对称卷积层、归一化层和激活层组成,每两个ENCODE之间连接了非对称卷积自适应模块,起到编码模块之间特征图尺寸前后适应的作用,该第一部分起到鉴别真假的作用;第二部分是由只需一次性训练完成的非对称卷积网络构成,起到提取卷积特征向量并度量距离大小的作用;
4)训练改进cGAN网络,生成器G输入的图像为二值图像Xbin,输出的图像为接近于原始图像的指静脉灰度图像Xg,并根据指静脉灰度图像Xt训练生成器;所述的判别器D输入的目标设备图像Xt和生成器所生成的指静脉灰度图像Xg,判别器训练的是对目标设备图像Xt与生成器所生成的图像Xg中灰度的学习,判断目标设备图像Xt的灰度与成器所生成的指静脉灰度图像Xg的灰度之间的不同,获取判别图像生成图像Xg与目标设备图像Xt之间差异程度的能力,若生成器所生成的指静脉灰度图像Xg更接近于目标设备图像Xt,则用指静脉灰度图像Xg替换目标设备图像Xt;并根据所采集的数据量训练更新相适应的网络训练参数值;
5)将分割细化后的指静脉细线二值图Xbin输入训练好的改进cGAN网络中,生成指静脉图像,用于指静脉注册识别。
2.根据权利要求1所述的基于改进cGAN网络生成适用多设备识别指静脉图像的方法,其特征在于:每次训练改进cGAN网络时,首先对判别器D进行训练,再对生成器G进行训练,最后根据训练结果,更新判别器D和生成器G的参数;其中,在判别器D中的一部分参数只需要一次训练完成即可。
3.根据权利要求1所述的基于改进cGAN网络生成适用多设备识别指静脉图像的方法,其特征在于:所述的步骤4)中,通过训练改进cGAN网络过程与原理得到目标函数,目标函数的计算方法如下:
Figure DEST_PATH_IMAGE002
) (1),
Figure DEST_PATH_IMAGE004
(2),
Figure DEST_PATH_IMAGE006
(3),
式中,x为目标图,y为生成图,z为二值图,G(x, z)表示有生成器的生成图y,D(x, y)表示判别器的判别结果,
Figure DEST_PATH_IMAGE008
表示求G使得目标函数最小化和求D使得目标函数最大化,
Figure DEST_PATH_IMAGE010
表示两者通过识别网络后提取到的特征之间的欧式距离,
Figure DEST_PATH_IMAGE012
表示最终的目标函数,即所求最值函数,
Figure DEST_PATH_IMAGE014
为超参常数。
4.根据权利要求1或3所述的基于改进cGAN网络生成适用多设备识别指静脉图像的方法,其特征在于:所述步骤4)中,在寻找最优的生成器中会给定一个判别器D,将
Figure 812023DEST_PATH_IMAGE012
作为训练生成器的损失函数
Figure DEST_PATH_IMAGE016
,然后采用Adam算法更新生成器的参数,梯度下降的参数优化过程的公式如下:
Figure DEST_PATH_IMAGE018
(4)
式中,
Figure DEST_PATH_IMAGE020
表示改进cGAN网络中的生成器的参数;
当给定一个生成器的初始值G0需要寻找令
Figure DEST_PATH_IMAGE022
最大的
Figure DEST_PATH_IMAGE024
Figure 967979DEST_PATH_IMAGE012
作为训练判别器的损失函数L(D),判别器的更新过程损失函数为-L(D)的训练过程,参数优化过程的公式如下:
Figure DEST_PATH_IMAGE026
(5)
式中,
Figure DEST_PATH_IMAGE028
表示改进cGAN判别器中的第一部分网络的参数;
在训练的内部循环中,优化判别器D 第一部分的步骤和优化生成器G 的步骤间交替进行,更新判别器D第一部分和生成器G,并使判别器D第一部分和生成器G一直趋于最优解的附近。
CN202010007624.1A 2020-01-04 2020-01-04 一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法 Active CN111209850B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010007624.1A CN111209850B (zh) 2020-01-04 2020-01-04 一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010007624.1A CN111209850B (zh) 2020-01-04 2020-01-04 一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法

Publications (2)

Publication Number Publication Date
CN111209850A CN111209850A (zh) 2020-05-29
CN111209850B true CN111209850B (zh) 2021-02-19

Family

ID=70785576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010007624.1A Active CN111209850B (zh) 2020-01-04 2020-01-04 一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法

Country Status (1)

Country Link
CN (1) CN111209850B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111950454B (zh) * 2020-08-12 2024-04-02 辽宁工程技术大学 一种基于双向特征提取的手指静脉识别方法
CN113689344B (zh) * 2021-06-30 2022-05-27 中国矿业大学 基于特征解耦学习的低曝光图像增强方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109215123A (zh) * 2018-09-20 2019-01-15 电子科技大学 基于cGAN的无限地形生成方法、系统、存储介质和终端
CN110264424A (zh) * 2019-06-20 2019-09-20 北京理工大学 一种基于生成对抗网络的模糊视网膜眼底图像增强方法
CN110675353A (zh) * 2019-08-31 2020-01-10 电子科技大学 一种基于条件生成对抗网络的选择分割图像合成方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991368A (zh) * 2017-02-20 2017-07-28 北京大学 一种基于深度卷积神经网络的指静脉验证身份识别方法
CN109035149B (zh) * 2018-03-13 2021-07-09 杭州电子科技大学 一种基于深度学习的车牌图像去运动模糊方法
US10825219B2 (en) * 2018-03-22 2020-11-03 Northeastern University Segmentation guided image generation with adversarial networks
CN109166126B (zh) * 2018-08-13 2022-02-18 苏州比格威医疗科技有限公司 一种基于条件生成式对抗网络在icga图像上分割漆裂纹的方法
CN110223259A (zh) * 2019-06-14 2019-09-10 华北电力大学(保定) 一种基于生成式对抗网络的道路交通模糊图像增强方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109215123A (zh) * 2018-09-20 2019-01-15 电子科技大学 基于cGAN的无限地形生成方法、系统、存储介质和终端
CN110264424A (zh) * 2019-06-20 2019-09-20 北京理工大学 一种基于生成对抗网络的模糊视网膜眼底图像增强方法
CN110675353A (zh) * 2019-08-31 2020-01-10 电子科技大学 一种基于条件生成对抗网络的选择分割图像合成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks";Xiaohan Ding.et al;《arxiv:1908.03930v1》;20190811;期刊全文 *
"基于生成对抗网络的图像修复";孙全等;《计算机科学》;20181231;第45卷(第12期);全文 *
"生成对抗网络(GAN)相关笔记";Eree;《https://ereebay.me/posts/59881》;20190301;文章全文 *

Also Published As

Publication number Publication date
CN111209850A (zh) 2020-05-29

Similar Documents

Publication Publication Date Title
CN112580590B (zh) 一种基于多语义特征融合网络的指静脉识别方法
CN107392082B (zh) 一种基于深度学习的小面积指纹比对方法
CN105718889B (zh) 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法
CN111126240B (zh) 一种三通道特征融合人脸识别方法
CN106529504B (zh) 一种复合时空特征的双模态视频情感识别方法
CN102156887A (zh) 一种基于局部特征学习的人脸识别方法
CN101710383A (zh) 一种身份认证的方法及认证装置
CN102521575A (zh) 基于多方向Gabor和Adaboost虹膜识别方法
CN110443128A (zh) 一种基于surf特征点精确匹配的指静脉识别方法
CN111274915B (zh) 一种指静脉图像的深度局部聚合描述子提取方法及系统
CN111209850B (zh) 一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法
CN115994907B (zh) 用于食品检测机构综合信息的智能处理系统及方法
CN109614869A (zh) 一种基于多尺度压缩奖惩网络的病理图像分类方法
CN100351852C (zh) 基于小波变换和极大值检测的虹膜识别方法
CN108509927A (zh) 一种基于局部对称图结构的手指静脉图像识别方法
CN110046565A (zh) 一种基于Adaboost算法的人脸检测方法
CN106203373B (zh) 一种基于深度视觉词袋模型的人脸活体检测方法
Heidari et al. A new biometric identity recognition system based on a combination of superior features in finger knuckle print images
CN115311746A (zh) 一种基于多特征融合的离线签名真伪检测方法
Raghavendra et al. An efficient finger vein indexing scheme based on unsupervised clustering
Ko et al. Iris recognition using cumulative sum based change analysis
CN112101319A (zh) 一种基于地形点分类的静脉图像分类方法及装置
CN105512682B (zh) 一种基于Krawtchouk矩和KNN-SMO分类器的密级标识识别方法
CN107103289A (zh) 利用笔迹轮廓特征来进行笔迹鉴别的方法及系统
CN114863130B (zh) 一种指静脉生物特征识别方法、系统及匹配和识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A method of generating finger vein image suitable for multi device recognition based on improved cgan network

Effective date of registration: 20210927

Granted publication date: 20210219

Pledgee: Shanxi Financing Guarantee Co.,Ltd.

Pledgor: Holy Point Century Technology Co.,Ltd.

Registration number: Y2021140000037

PE01 Entry into force of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20221115

Granted publication date: 20210219

Pledgee: Shanxi Financing Guarantee Co.,Ltd.

Pledgor: Holy Point Century Technology Co.,Ltd.

Registration number: Y2021140000037

PC01 Cancellation of the registration of the contract for pledge of patent right