CN112488934A - 一种基于cs-tcgan的指静脉图像去噪方法 - Google Patents

一种基于cs-tcgan的指静脉图像去噪方法 Download PDF

Info

Publication number
CN112488934A
CN112488934A CN202011350788.0A CN202011350788A CN112488934A CN 112488934 A CN112488934 A CN 112488934A CN 202011350788 A CN202011350788 A CN 202011350788A CN 112488934 A CN112488934 A CN 112488934A
Authority
CN
China
Prior art keywords
noise
loss
finger vein
image
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011350788.0A
Other languages
English (en)
Other versions
CN112488934B (zh
Inventor
徐文贵
沈雷
何必锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202011350788.0A priority Critical patent/CN112488934B/zh
Publication of CN112488934A publication Critical patent/CN112488934A/zh
Application granted granted Critical
Publication of CN112488934B publication Critical patent/CN112488934B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于CS‑TCGAN的指静脉图像去噪方法。包括以下步骤:构造训练集;设计生成器网络结构;设计判别器网络结构;设计基于纹理损失的损失函数;训练整个模型;输入真实带噪指静脉图像生成去噪后的图像。本发明首先利用基于指静脉噪声特性构造的训练集提升去噪模型的泛化性。其次在损失函数中加入纹理损失项,解决原损失函数对于纹理模糊图像约束效果不佳的问题,并且生成器网络采用维度保持结构,解决使用反卷积带来的细节损失问题。较传统的去噪算法和经典的CGAN去噪模型,本发明的去噪模型对静脉信息保留的程度更好,去除噪声的同时更有效地恢复带噪图像的静脉信息,进一步提升了指静脉识别技术在噪声环境下的应用性能。

Description

一种基于CS-TCGAN的指静脉图像去噪方法
技术领域
本发明属于生物特征识别和计算机视觉领域,特别涉及到一种基于CS-TCGAN的指静脉图像去噪方法。
背景技术
指静脉识别是一种新兴的生物识别技术,由于其特征存在于手指内部并且难以复制的特性,使其在军工、金融领域的相关应用越来越广泛。在实际使用的过程,由于环境因素(粉尘容易附着于镜面),人为因素(手指携带皮裂纹),导致采集到的指静脉图像存在污染噪声。这些污染噪声作为干扰信息,影响指静脉识别技术在实际应用场景中的识别性能。因此,指静脉去噪算法的研究是至关重要的。
传统图像去噪算法主要分为两类,一类是变换域去噪算法,另一类是空间域去噪算法。变换域去噪算法通过将图像转换到变换域进行处理,之后再通过反变换得到目标图像,主要依据噪声与图像主体在变换域的分布差异性。Li等提出基于组稀疏编码理论的新型去噪模型,将图像转化到稀疏域,以秩最小化作为目标进行优化,用以恢复干净的图像,实现了更高的PSNR值。空间域去噪算法通过设计滤波核对图像进行直接卷积操作,达到去除噪声的目的。Thanh等提出自适应开关加权均值滤波的图像去噪算法,根据根据滤波窗口内噪声点与信息点的分布情况来自适应调整滤波核的参数。该方法对各类模拟噪声都有较好地去噪效果,且由于其开关特性,对于滤波带来的误识问题有一定的抑制作用。传统去噪算法对于噪声特征的挖掘以经验性设定为主,泛化能力较弱。而指静脉实际使用过程中由于受到屏幕脏污和手指起皮的多重影响,噪声特征比较复杂,难以用传统的经验特征去完整的构造静脉噪声分布。
随着深度学习在图像处理领域的应用逐渐成熟,使得愈来愈多的学者研究基于深度学习的去噪模型。基于深度学习的去噪模型通过网络参数训练使得去噪模型较传统去噪模型的泛化性更强,对特征的挖掘更准确。Burger等采用CNN对图像进行去噪,通过学习带噪图像到干净图像的映射关系,实现了图像的去噪,但由于对浅层信息利用较少,存在高频细节丢失问题。针对CNN去噪模型对于高频细节丢失的问题,Tian等提出一种基于注意力导向的CNN去噪模型,增加了浅层网络对深层网络的影响,在合成和真实的噪声场景中,都取得了不错的效果。CNN去噪模型通过堆叠更多的卷积层来获取带噪图像到清晰图像的映射,但当要求更具体的细节特征时,该方法就难以满足目标。Lyu等提出基于生成对抗网络的去噪模型,进一步改善了带噪图像的图像质量和视觉效果。生成对抗网络采用了对抗竞争的思想,通过生成器网络和判决器网络的竞争,来强化带噪图像到干净图像的映射效果。
尽管目前基于生成对抗网络的去噪方法在信噪比、视觉效果等评价指标上已经取得一定的成绩,但都是基于纹理清晰的图像进行的研究,对纹理不清晰的指静脉图像去噪性能下降。经典的生成对抗网络去噪模型的损失函数为对抗损失和内容损失,内容损失将图像之间的灰度差值作为约束,对于纹理较模糊的指静脉图像,仅依靠图像灰度差值作为约束难以在去除噪声的同时较好地恢复静脉细节信息,所以需要针对指静脉图像的纹理特性设计特定的去噪模型。
因此,本文提出了一种基于CS-TCGAN(Custom Sample Texture ConditionalGenerative Adversarial Nets)的指静脉去噪算法。
发明内容
本发明的目的在于解决经典CGAN去噪模型对于纹理较模糊的指静脉图像去噪效果不佳的问题,提出一种基于CS-TCGAN的指静脉图像去噪方法。
本发明所采用的技术方案为:
一种基于CS-TCGAN的指静脉图像去噪方法,包括以下步骤:
S1、构造训练数据集,将带噪指静脉图像Inoise作为待适配图像以及条件约束图像Ic,对应的正常指静脉图像Iclean作为目标图像;
由于现实中的带噪图像几乎不存在合适的标签图像,所以无法利用现实噪声图像构造训练集。因此,针对真实带噪指静脉图像,利用模拟噪声构造训练集。为了解决随机设定的噪声样本训练集所获取的模型泛化性弱的问题,针对实际噪声的噪声密度和噪声特性设计以椒盐噪声为主、高斯噪声、泊松噪声、斑点噪声为辅的训练集,以获取泛化性更强的去噪模型;
S1-1:采集真实带噪指静脉图像,统计噪声密度分布,对比真实噪声和模拟噪声颗粒大小;
S1-2:选择模拟噪声类型以及噪声密度,构造以椒盐噪声为主,高斯噪声、泊松噪声、斑点噪声为辅的训练集。
S2、设计生成器网络结构;
指静脉图像去噪的实际目的是将带噪图像映射为干净图像,同时尽可能保留图像中的静脉信息,故需围绕该目的设计网络结构。为了避免反卷积过程中上采样引起的伪影和棋盘化效应对静脉信息造成的损失,网络采用特征维度保持的结构,去噪的过程中特征的维度不发生变化。为了进一步增强静脉信息的恢复效果,卷积核的大小随通道数的变化而变化,以学习到不同感受野下的细节信息。
S2-1:生成器网络结构编码器部分包括五层结构,第一层到第四层是卷积核大小分别为r1*r1、r2*r2、r3*r3、r4*r4的卷积层。输入三通道带噪静脉图像,第一层输出通道数为d,后三层通道数依次为2d、4d和8d,每一层都经过BN层以及ReLU激活层,带噪指静脉图像Inoise的特征维度不变,第五层是一层残差结构,该残差结构将编码器输入的带噪指静脉图像Inoise与第四层卷积输出相加,残差结构的输出作为解码器的输入。
S2-2:生成器网络结构解码器部分包含四层反卷积层,卷积核大小分别为r4*r4、r3*r3、r2*r2、r1*r1,前三层均经过BN层以及ReLU激活层,第四层经过BN层以及Tanh激活层激活输出,获得去噪后的指静脉图像Ide-noise
S3、设计判决器网络结构;
判决器网络实际是二分类网络,对去噪的结果进行评价,0代表是去噪失败,1代表去噪成功,判决器网络评价的准确性影响着最终模型的去噪性能好坏。判决器过强会导致生成器竞争失败,无法进行正常去噪;判决器过弱会导致判决器的评价指标失去参考意义,最终得到的去噪模型去噪能力过弱。判决器网络结构需要注意结合生成器网络模型进行设计。
S3-1:结合生成器网络结构,设计的判别器网络由五层卷积层组成,卷积核大小均为r*r,每层卷积均包含BN层以及ReLU激活层。输入三通道的带噪指静脉图像Inoise,前四层输出通道数分别为d、2d、4d和8d,带噪指静脉图像Inoise大小逐层缩小为原来的1/4,第五层输出的特征维度为1*1*1,最后采用sigmoid函数将特征维度映射到0到1之间的概率。
S4、设计基于纹理损失的损失函数;
本发明提出的CS-TCGAN网络优化的目标函数为:
Figure BDA0002801261140000041
式(1)中,G代表生成器网络,D代表判决器网络,V(D,G)是目标函数,是被优化的目标,D(x|c)表示将真实样本x和条件样本c输入判决网络后判断为真实样本的概率,G(z|c)表示由输入样本z结合条件样本c输入到生成器网络后得到的生成样本,E(*)代表分布函数的数学期望值。G使得目标函数最小化,D使得目标函数最大化,二者产生对抗,使得G和D的性能更优。因此,CS-TCGAN的损失函数主要由生成损失和判决损失组成。
S4-1:判决器的损失函数如式(2)所示:
Figure BDA0002801261140000042
式中,S_CE(*)代表交叉熵损失函数,作用是计算经sigmoid函数激活之后的交叉熵,N代表图像的像素点数;Iclean代表正常指静脉图像,Inoise代表带噪指静脉图像,Ic代表条件约束图像;约束去噪的过程如下:
Figure BDA0002801261140000043
式中,logit表示输入图像,label表示分类结果。
对于纹理较为模糊的指静脉图像,除了考虑生成类似于正常指静脉图像的分布外,更多地需要考虑图像内容(图像灰度)、纹理(静脉信息)的恢复情况。
S4-2:本发明提出的CS-TCGAN采用网络对抗损失、内容损失、纹理损失加权和的生成器损失函数,如式(4)所示:
Figure BDA0002801261140000051
式中,losspixel为网络对抗损失,losscont为内容损失,lossLBP为纹理损失,λp、λc、λLBP分别为网络对抗损失、内容损失、纹理损失的加权系数。
losspixel采用经典的对抗损失函数,旨在通过去噪后的图像成功被判决器判为正常图像的概率描述对抗损失值,具体公式如式(5)所示:
Figure BDA0002801261140000052
内容损失losscont采用去噪图像和正常图像的均方差损失表示,表示图像整体灰度差异,具体公式如式(6)所示:
Figure BDA0002801261140000053
针对内容损失项对于纹理较模糊的指静脉图像约束效果不佳的问题,在损失函数中加入纹理损失项,以恢复更多的静脉纹理细节特征。lossLBP采用经典的LBP(局部二值化模式,Local Binary Pattern)对图像进行纹理特征表示,再用获取的特征进行均方差损失计算,对G起到纹理辅助的作用。公式如下所示:
Figure BDA0002801261140000054
式中,LBP(*)为局部二值模式纹理提取函数,其公式表示如下式所示:
Figure BDA0002801261140000055
式中,Ωc表示中心点(xc,yc)范围为1的邻域,s(*)为符号函数。
S5、训练整个模型,直至迭代训练整个训练集若干次;
S6、将测试集图像输入训练好的生成器中,获得去噪后的指静脉图像。
本发明有益效果如下:
本发明提出一种基于CS-TCGAN的指静脉图像去噪方法,首先针对实际噪声的噪声密度和噪声特性设计以椒盐噪声为主、高斯噪声、泊松噪声、斑点噪声为辅的训练集,以获取泛化性更强的去噪模型,解决了随机设定的噪声样本训练集所获取的模型泛化性弱的问题。其次,对生成器网络进行改善,针对内容损失项对于纹理较模糊的指静脉图像约束效果不佳的问题,在损失函数中加入纹理损失项,以恢复更多的静脉纹理细节特征。同时对生成器网络中指静脉图像的信息维度进行保持,避免了反卷积过程中上采样引起的伪影和棋盘化效应对静脉信息造成的损失。基于CS-TCGAN的指静脉去噪算法较传统去噪算法以及经典生成对抗网络去噪方法在视觉效果、PSNR、识别性能等评价指标上表现更优异,充分说明了本发明提出的基于CS-TCGAN的指静脉去噪算法的有效性,进一步提升了指静脉识别技术在噪声环境下的应用性能。
附图说明
图1为现实中带噪图像的噪声密度分布情况;
图2为真实携带粉尘和横纹噪声指静脉图像以及模拟带噪指静脉图像;
图3为本发明提出的CS-TCGAN的生成器网络结构;
图4为本发明提出的CS-TCGAN的判别器网络结构;
图5为本发明提出的CS-TCGAN的模型结构图;
图6为对于真实携带粉尘以及手指皮裂纹指静脉图像,基于CS-TCGAN的指静脉图像去噪方法与其他经典去噪方法的去噪效果比对图;
图7为四种模拟噪声经过基于CS-TCGAN的指静脉图像去噪方法与其他经典去噪方法处理下的PSNR值比较;
图8为四类模拟噪声在不同去噪模型处理下平均识别性能;
图9为粉尘噪声在不同去噪模型处理下平均识别性能;
图10为皮裂纹噪声在不同去噪模型处理下平均识别性能;
图11为本发明基于CS-TCGAN的指静脉图像去噪方法步骤图;
具体实施方式
下面结合附图对本发明的具体实施例作进一步的说明。
本实施例的基于一种基于CS-TCGAN的指静脉图像去噪方法,包括以下步骤:
S1、构造训练数据集,以及带噪指静脉图像测试集;
S1-1:采集现实中带噪图像,并统计噪声密度,比较真实噪声与模拟噪声颗粒大小,最接近真实噪声的是椒盐噪声,其次是高斯噪声,结果如图1、2;
S1-2:训练集组成结构为:噪声密度为0.02、0.06、0.1、0.14、0.18、0.22的椒盐噪声样本各68组,每组10幅,共680幅,噪声密度为0.1和0.2的高斯噪声样本各68组,每组10幅,共680幅,为了增加去噪模型对噪声复杂度的容忍性,训练集中亦加入泊松噪声和斑点噪声各68组,每组10幅,共680幅。
S2、设计生成器网络结构,如图3;
S2-1:生成器网络编码器部分包括五层结构,第一到第四层是卷积核大小分别为3*3,3*3,4*4,5*5的卷积层。输入160*64*3带噪指静脉图像,第一层输出通道数为64,后三层通道数依次为128,256,512,每一层都经过BN层以及ReLU激活层,第五层结构是一层残差结构,将编码器输入与第四层卷积输出相加,作为解码器的输入;
S2-2:生成器网络解码器部分包含四层反卷积层,卷积核大小分别为5*5,4*4,3*3,3*3,前三层均经过BN层以及ReLU激活层,第四层经过BN层以及Tanh激活层激活输出,获得去噪后的静脉图像;
S3、设计判决器网络结构,如图4;
S3-1:结合生成器网络结构,设计的判别器网络由五层卷积层组成,卷积核大小均为4*4,每层卷积均包含BN层以及ReLU激活层。输入160*64*3指静脉图像图像,前四层输出通道数分别为32,64,128,256,指静脉图像大小逐层缩小为原来的1/4,第五层输出特征维度为1*1*1,最后采用sigmoid函数将数据映射到0到1之间的概率。
S4、设计基于纹理损失的损失函数;
S4-1:根据式(2)、(3),计算判别器损失;
S4-2:根据式(4)、(5)、(6)、(7)、(8)计算生成器损失:
Figure BDA0002801261140000081
为了提升指静脉纹理恢复效果同时避免纹理损失项加权系数过大造成伪静脉的生成,本发明λp设为0.3,λc设为0.5,λLBP设为0.2。
S5、训练整个模型,如图5,直至迭代训练整个训练集若干次;
S6、将测试集图像输入训练好的生成器中,获得去噪后的指静脉图像。
以下是基于图像数据库对本发明所提算法的实验数据分析,本发明算法与现有几种经典图像去噪算法分别在模拟带噪指静脉图像与真实带噪指静脉图像上进行测试比对。
本发明实验所用服务器GPU为NVIDIA TITAN RTX,训练所使用的的深度学习框架是Pytorch,批次大小为32,迭代次数为100000次,全局学习率为0.004,通过ADAM优化器进行优化。
为了验证经过训练后去噪模型的性能,本发明实验的应用数据集包括两部分组成,首先是模拟噪声数据集,由携带椒盐噪声、高斯噪声、泊松噪声、斑点噪声的指静脉图像集各600张,其次是真实噪声数据集,由现实中采集得到的携带粉尘噪声、皮裂纹噪声的指静脉图像各600张。
本文从视觉效果、PSNR(Peak Signal-to-NoiseRatio,峰值信噪比)、识别性能三个指标来对基于自适应开关空间域滤波的传统去噪方法、采用随机选取的椒盐噪声作为训练集进行训练的CGAN去噪模型、采用本文设计的训练集进行训练的CGAN去噪模型(CustomSample-CGAN,CS-CGAN)、本文提出的基于CS-TCGAN的去噪模型进行评价。
图6中(a)、(b)分别为携带粉尘噪声、皮裂纹噪声的指静脉图像经过五种不同方式处理后的图像。
从图6(a)区块1中可以看到,经过传统去噪方法处理后,噪声被去除的同时,静脉信息特征也被模糊;从图6(a)区块2中可以看到,经过CGAN模型处理后,虽然相较于传统去噪方法边缘信息保持程度更高,但依旧存在静脉信息模糊化的问题;从图6(a)区块3中可以看到,经过CS-CGAN去噪模型处理后,静脉模糊化问题得到较大的改善,但静脉信息与周围背景区域的对比度仍需要进一步提升;从图6(a)区块4中可以看出,经过CS-TCGAN去噪模型处理后,静脉模糊化问题得到解决,同时静脉信息与周围背景区域的对比度有所提升。
从图6(b)区块1中可以看到,被皮裂纹损坏的静脉区域,经过传统去噪方法处理后静脉结构连贯性不佳;从图6(b)区块2中可以看到,CGAN去噪模型虽然提升了静脉结构的连贯性,但模型的泛化性弱导致了去噪后部分区域静脉断裂的现象;从图6(b)区块3中可以看到,CS-CGAN去噪模型泛化性有所增强,但去噪处理后,所恢复的静脉区域较浅,边缘信息保持程度不高;从图6(b)区块4中可以看出,经过CS-TCGAN去噪模型处理后,静脉区域被很好地还原,且静脉边缘锐化程度更高。
从图7的比较结果可以看出,对于不同的噪声类型,本文算法的去噪性能对比传统去噪、CGAN去噪模型、CS-CGAN去噪模型都有一定的提升,说明本文提出的基于CS-TCGAN的去噪模型对不同的噪声类型具有更强的鲁棒性。
图8、图9、图10中的ROC曲线表明,噪声对指静脉图像的静脉纹理信息损坏严重,导致当FAR为0时,携带模拟噪声、携带粉尘噪声、携带皮裂纹噪声的指静脉图像,不处理的情况下FRR仅为7.79%、7.83%、40.16%;经过传统去噪方法处理后,FRR提升到了32.54%、37.33%、48%,虽然经过该方法处理后识别性能得到一定提升,但依旧存在纹理修复不佳、噪声掩码不准确导致噪声处理不完全的问题;经过CGAN去噪模型处理后,解决了传统去噪方法需要准确的噪声掩码的问题,FRR提升到了48.11%、41.2%、48.16%;经过CS-CGAN去噪模型处理后,进一步提升了应对复杂的噪声类型的去噪性能,FRR提升到了57.88%、44.5%、50.16%,但依旧存在静脉纹理恢复不完全的问题;经过CS-TCGAN去噪模型处理后,解决了纹理修复不完全的问题,进一步提升了去噪模型对细节信息的恢复能力,FRR提升到了60.83%、47.5%、56.65%。
上面结合附图对本发明的实施例作了详细说明,但是本发明并不限于上述实施例,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出得各种变化,也应视为本发明的保护范围。

Claims (5)

1.一种基于CS-TCGAN的指静脉图像去噪方法,其特征在于包括以下步骤:
S1、构造训练集,将带噪指静脉图像Inoise作为待适配图像以及条件约束图像Ic,对应的正常指静脉图像Iclean作为目标图像;
S2、设计生成器网络结构;采用特征维度保持的网络结构,去噪的过程中特征的维度不发生变化,且卷积核的大小随通道数的变化而变化;
S3、设计判决器网络结构;
S4、设计基于纹理损失的损失函数;
S5、训练整个模型,直至迭代训练整个训练集若干次;
S6、将测试集的图像输入训练好的生成器中,获得去噪后的指静脉图像。
2.根据权利要求书1所述的一种基于CS-TCGAN的指静脉图像去噪方法,其特征在于步骤1具体实现如下:
S1-1:采集真实带噪指静脉图像,统计噪声密度分布,对比真实噪声和模拟噪声颗粒大小;
S1-2:选择模拟噪声类型以及噪声密度,构造以椒盐噪声为主,高斯噪声、泊松噪声、斑点噪声为辅的训练集。
3.根据权利要求书1或2所述的一种基于CS-TCGAN的指静脉图像去噪方法,其特征在于步骤2具体实现如下:
S2-1:生成器网络结构编码器部分包括五层结构,第一层到第四层是卷积核大小分别为r1*r1、r2*r2、r3*r3、r4*r4的卷积层;输入三通道带噪静脉图像,第一层输出通道数为d,后三层通道数依次为2d、4d和8d,每一层都经过BN层以及ReLU激活层,带噪指静脉图像Inoise的特征维度不变,第五层是一层残差结构,该残差结构将编码器输入的带噪指静脉图像Inoise与第四层卷积输出相加,残差结构的输出作为解码器的输入;
S2-2:生成器网络结构解码器部分包含四层反卷积层,卷积核大小分别为r4*r4、r3*r3、r2*r2、r1*r1,前三层均经过BN层以及ReLU激活层,第四层经过BN层以及Tanh激活层激活输出,获得去噪后的指静脉图像Ide-noise
4.根据权利要求书3所述的一种基于CS-TCGAN的指静脉图像去噪方法,其特征在于步骤3具体实现如下:
S3-1:结合生成器网络结构,设计的判别器网络由五层卷积层组成,卷积核大小均为r*r,每层卷积均包含BN层以及ReLU激活层;输入三通道的带噪指静脉图像Inoise,前四层输出通道数分别为d、2d、4d和8d,带噪指静脉图像Inoise大小逐层缩小为原来的1/4,第五层输出的特征维度为1*1*1,最后采用sigmoid函数将特征维度映射到0到1之间的概率。
5.根据权利要求书4所述的一种基于CS-TCGAN的指静脉图像去噪方法,其特征在于步骤4具体实现如下:
CS-TCGAN网络优化的目标函数为:
Figure FDA0002801261130000021
式(1)中,G代表生成器网络,D代表判决器网络,V(D,G)是目标函数,是被优化的目标,D(x|c)表示将真实样本x和条件样本c输入判决网络后判断为真实样本的概率,G(z|c)表示由输入样本z结合条件样本c输入到生成器网络后得到的生成样本,E(*)代表分布函数的数学期望值;G使得目标函数最小化,D使得目标函数最大化,二者产生对抗,使得G和D的性能更优;因此,CS-TCGAN的损失函数主要由生成损失和判决损失组成;
S4-1:判决器的损失函数如式(2)所示:
Figure FDA0002801261130000022
式中,S_CE(*)代表交叉熵损失函数,作用是计算经sigmoid函数激活之后的交叉熵,N代表图像的像素点数;Iclean代表正常指静脉图像,Inoise代表带噪指静脉图像,Ic代表条件约束图像;约束去噪的过程如下:
Figure FDA0002801261130000023
式中,logit表示输入图像,label表示分类结果;
S4-2:CS-TCGAN采用网络对抗损失、内容损失、纹理损失加权和的生成器损失函数,如式(4)所示:
Figure FDA0002801261130000031
式中,losspixel为网络对抗损失,losscont为内容损失,lossLBP为纹理损失,λp、λc、λLBP分别为网络对抗损失、内容损失、纹理损失的加权系数;
losspixel采用经典的对抗损失函数,具体公式如式(5)所示:
Figure FDA0002801261130000032
内容损失losscont采用去噪图像和正常图像的均方差损失表示,具体公式如式(6)所示:
Figure FDA0002801261130000033
lossLBP采用经典的LBP对图像进行纹理特征表示,再用获取的特征进行均方差损失计算,对G起到纹理辅助的作用;公式如下所示:
Figure FDA0002801261130000034
式中,LBP(*)为局部二值模式纹理提取函数,其公式表示如下式所示:
Figure FDA0002801261130000035
式中,Ωc表示中心点(xc,yc)范围为1的邻域,s(*)为符号函数。
CN202011350788.0A 2020-11-26 2020-11-26 一种基于cs-tcgan的指静脉图像去噪方法 Active CN112488934B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011350788.0A CN112488934B (zh) 2020-11-26 2020-11-26 一种基于cs-tcgan的指静脉图像去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011350788.0A CN112488934B (zh) 2020-11-26 2020-11-26 一种基于cs-tcgan的指静脉图像去噪方法

Publications (2)

Publication Number Publication Date
CN112488934A true CN112488934A (zh) 2021-03-12
CN112488934B CN112488934B (zh) 2024-02-09

Family

ID=74935214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011350788.0A Active CN112488934B (zh) 2020-11-26 2020-11-26 一种基于cs-tcgan的指静脉图像去噪方法

Country Status (1)

Country Link
CN (1) CN112488934B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949570A (zh) * 2021-03-26 2021-06-11 长春工业大学 一种基于残差注意力机制的指静脉识别方法
CN113111720A (zh) * 2021-03-17 2021-07-13 浙江工业大学 一种基于深度学习的电磁调制信号去噪方法及系统
CN114445295A (zh) * 2022-01-19 2022-05-06 海南大学 一种图像噪声去除方法、装置、设备及介质
CN114897733A (zh) * 2022-05-19 2022-08-12 中国科学院长春光学精密机械与物理研究所 基于dct和cgan的微弱光成像复原方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410149A (zh) * 2018-11-08 2019-03-01 安徽理工大学 一种基于并行特征提取的cnn去噪方法
WO2020128134A1 (en) * 2018-12-18 2020-06-25 Nokia Technologies Oy Data denoising based on machine learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410149A (zh) * 2018-11-08 2019-03-01 安徽理工大学 一种基于并行特征提取的cnn去噪方法
WO2020128134A1 (en) * 2018-12-18 2020-06-25 Nokia Technologies Oy Data denoising based on machine learning

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111720A (zh) * 2021-03-17 2021-07-13 浙江工业大学 一种基于深度学习的电磁调制信号去噪方法及系统
CN112949570A (zh) * 2021-03-26 2021-06-11 长春工业大学 一种基于残差注意力机制的指静脉识别方法
CN112949570B (zh) * 2021-03-26 2022-08-09 长春工业大学 一种基于残差注意力机制的指静脉识别方法
CN114445295A (zh) * 2022-01-19 2022-05-06 海南大学 一种图像噪声去除方法、装置、设备及介质
CN114897733A (zh) * 2022-05-19 2022-08-12 中国科学院长春光学精密机械与物理研究所 基于dct和cgan的微弱光成像复原方法

Also Published As

Publication number Publication date
CN112488934B (zh) 2024-02-09

Similar Documents

Publication Publication Date Title
CN110473154B (zh) 一种基于生成对抗网络的图像去噪方法
CN112488934B (zh) 一种基于cs-tcgan的指静脉图像去噪方法
Yeh et al. Multi-scale deep residual learning-based single image haze removal via image decomposition
CN108765319B (zh) 一种基于生成对抗网络的图像去噪方法
CN109360156B (zh) 基于生成对抗网络的图像分块的单张图像去雨方法
Gai et al. New image denoising algorithm via improved deep convolutional neural network with perceptive loss
CN104361328B (zh) 一种基于自适应多列深度模型的人脸图像正规化方法
CN110335290A (zh) 基于注意力机制的孪生候选区域生成网络目标跟踪方法
CN112509001A (zh) 一种多尺度和多特征融合的特征金字塔网络盲复原方法
CN112270654A (zh) 基于多通道gan的图像去噪方法
CN109377459A (zh) 一种生成式对抗网络的超分辨率去模糊方法
CN111915486B (zh) 基于图像超分辨重建的对抗样本防御方法
CN111127354A (zh) 一种基于多尺度字典学习的单图像去雨方法
CN104657951A (zh) 图像乘性噪声移除方法
CN110349112A (zh) 一种基于自适应奇异值阈值的两阶段图像去噪方法
CN116596792B (zh) 一种面向智能船舶的内河雾天场景恢复方法、系统及设备
CN112489168A (zh) 一种图像数据集生成制作方法、装置、设备及存储介质
Thakur et al. Multi scale pixel attention and feature extraction based neural network for image denoising
CN115358922A (zh) 一种基于生成对抗网络的太赫兹图像超分辨率重建方法
Le et al. LD-Net: An efficient lightweight denoising model based on convolutional neural network
CN111047537A (zh) 一种图像去噪中恢复细节的系统
ZhiPing et al. A new generative adversarial network for texture preserving image denoising
CN116977204A (zh) 一种基于选择性信息融合生成对抗网络的遥感图像去云方法
CN113487506B (zh) 基于注意力去噪的对抗样本防御方法、装置和系统
CN115689958A (zh) 一种基于深度学习的合成雷达图像去噪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant