CN116311403A - 一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法 - Google Patents
一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法 Download PDFInfo
- Publication number
- CN116311403A CN116311403A CN202310305558.XA CN202310305558A CN116311403A CN 116311403 A CN116311403 A CN 116311403A CN 202310305558 A CN202310305558 A CN 202310305558A CN 116311403 A CN116311403 A CN 116311403A
- Authority
- CN
- China
- Prior art keywords
- finger vein
- convolutional neural
- fecaghostnet
- neural network
- eca
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000003462 vein Anatomy 0.000 title claims abstract description 129
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000012360 testing method Methods 0.000 claims abstract description 21
- 230000007246 mechanism Effects 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 238000003708 edge detection Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Vascular Medicine (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及一种基于FECAGhostNet的轻量化深度卷积神经网络的指静脉识别方法,包括以下步骤:采集并建立指静脉图像数据库,并对指静脉图像进行感兴趣区域提取;对所获取的感兴趣区域图像样本进行扩增;对扩增后的指静脉图像进行图像增强;将指静脉数据集分为训练集和测试集;设计ECA与Ghost bootleneck相结合的ECA‑G‑bneck;使用多个ECA‑G‑bneck构建FECAGhostNet指静脉图像分类网络;模型参数迭代优化后,输入测试集中的指静脉图像测试,输出指静脉图像分类结果。本发明在基本不增加参数量的情况下比GhostNet网络能更快的加速网络收敛,有效提升指静脉识别的准确性。
Description
技术领域
本发明属于图像处理和生物特征识别技术领域,具体地说是涉及一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法。
背景技术
指静脉识别是利用人体手指静脉分布来进行个人身份识别,主要包括指静脉图像采集、图像预处理、图像扩增、图像增强、特征提取、特征匹配等步骤。不同于虹膜、人脸、声音、指纹等其他生物特征识别,指静脉识别具有活体检测、非接触式采集、不易伪造、设备便携、设备成本较低和安全等级高等优势,可广泛用于身份识别、智能锁具、智能安防等领域。
指静脉在人体手指内部,通过红外光照射,使用近红外摄像头对穿透手指的光线进行捕捉,会在成像上呈现亮度较低的阴影,从而得到手指静脉图像。对采集到的指静脉图像进行预处理后,使用重复线跟踪、Gabor滤波器、最大曲率法、局部二值模式等方式进行特征提取,最后根据提取到的特征进行匹配。这些传统的特征提取方法在一些数据库中取得过良好的表现,但这些方法的鲁棒性和可迁移性都极低。此外,传统指静脉识别的流程往往由多个模块组成,其中每个模块的好坏都会影响整个训练的结果。由于存在着上述问题,有着强大特征提取能力的深度卷积神经网络得到大家的关注。
近年来,随着深度学习技术不断发展,深度卷积神经网络被广泛应用于各个领域,越来越多的学者将深度卷积神经网络应用于指静脉识别中。陶志勇等人提出基于改进AlexNet的指静脉识别算法,引入空间金字塔池化模式的网络结构来应对AlexNet模型输入图像尺寸限制性强,自适应能力差的问题。包晓安等人提出改进残差网络的指静脉识别算法,通过扩展卷积神经网络的宽度和深度来提高静脉信息的提取能力和改进残差网络来提高指静脉识别精度。汪凯旋等人用深度超参数化卷积代替网络中的传统卷积,在减少模型参数的同时提高了网络识别率,并将空间注意力模型和挤压激励块融合,使用标签平滑的交叉熵损失函数来训练模型,使模型不易受图片质量的影响。虽然这些方法相比于传统的指静脉识别算法有很大的优势,但随着深度卷积神经网络的性能越来越高,深度越来越深,所需的参数量和计算量也在显著增加,这些问题限制了基于深度卷积神经网络的指静脉识别算法在资源受限的嵌入式设备上应用。
基于以上问题,本发明将以轻量化深度卷积神经网络为基础,针对指静脉识别任务设计适合应用于嵌入式设备的轻量化指静脉特征提取网络,并引入注意力机制使整个模型在更快收敛的同时具有更高的识别精度。
发明内容
为了克服现有技术存在的不足,本发明提供了一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别,即一种基于ECA注意力机制与GhostNet相结合的轻量化卷积神经网络的指静脉识别方法。本发明将ECA注意力机制与GhostNet相结合简称为FECAGhostNet。本发明不同于一般的深度卷积神经网络模型,应用了轻量化深度卷积神经网络模型的优势,减小了参数量和降低了计算量。本发明使用的FECAGhostNet模型,通过引入ECA注意力机制模块,使模型在不增加参数量的情况下,进一步提升模型识别的精度,有效提高识别效率、节省计算资源,同时模型还具有更强的学习能力和泛化能力。
一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,包括下述步骤:
S1:采集并建立甄别对象的指静脉图像数据库,并对数据库中的所有指静脉图像进行感兴趣区域提取;
S2:对所获取指静脉数据库的指静脉感兴趣区域图像样本进行扩增;
S3:对扩增后的指静脉图像进行图像增强;
S4:将符合质量要求的指静脉数据集分为训练集和测试集;
S5:设计注意力机制ECA(Effificent Channel Attention)与Ghost bootleneck相结合的ECAGhost bootleneck,简称ECA-G-bneck;
S6:使用多个ECA-G-bneck构建FECAGhostNet轻量化卷积神经网络(指静脉图像分类网络,FECAGhostNet模型),即构建ECA注意力机制与GhostNet相结合的轻量化卷积神经网络;
S7:模型参数迭代优化后,输入测试集中的指静脉图像测试,输出指静脉图像分类结果。
作为优选,S1包括以下子步骤:
S11:采用指静脉采集仪器取得指静脉的分布图,储存样板;
S12:通过采集到的指静脉图像建立指静脉图像数据库;
S13:对指静脉图像数据库里的指静脉图像进行Canny算子边缘检测,确定手指中心点,采用中心裁剪的方法提取出指静脉纹理信息丰富的部分,同时去掉图像中杂乱的背景物;
S14:指静脉图像归一化。
作为优选,S2包括以下子步骤:
S21:通过包括旋转、平移、伽马变换、仿射变换在内的方法对指静脉感兴趣区域数据库的指静脉图像样本进行扩增。
作为优选,S3包括以下子步骤:
S31:对扩增后的指静脉图像使用中值滤波和高斯滤波进行去噪;
S32:对扩增后的指静脉图像使用限制对比度自适应直方图均衡(ContrastLimited Adaptive Histogram Equalization,CLAHE)处理。
作为优选,S4包括以下子步骤:
S41:以7:3的比例将经过数据增强后的指静脉数据集分为训练集和测试集。
作为优选,S5包括以下子步骤:
S51:将Ghost bootleneck输出与ECA输入相结合,形成ECA-G-bneck。
作为优选,S6包括以下子步骤:
S61:使用多个ECA-G-bneck构建FECAGhostNet轻量化卷积神经网络进行指静脉特征提取;
S62:删除原网络的全连接层,用自定义的嵌入层替代。
作为优选,S7包括以下子步骤:
S71:选择优化器;
S72:选择学习率;
S73:选择损失函数;
S74:根据优化器、学习率和损失函数进行网络训练。
作为优选,FECAGhostNet轻量化卷积神经网络通过下述方法构建:基于ECA注意力机制与GhostNet相结合的轻量化卷积神经网络(FECAGhostNet的轻量化卷积神经网络)的框架,在Ghost bootleneck的基础上引入ECA注意力机制模块,形成ECAGhost bootleneck,使用多个ECAGhost bootleneck搭建FECAGhostNet轻量化卷积神经网络进行指静脉特征提取,并且删除原网络的全连接层,用自定义的嵌入层替代;前置的特征提取层包括卷积层和平均池化层,FECAGhostNet轻量化卷积神经网络含有19层卷积结构,其中每个卷积层包括卷积和ReLU激活函数,网络含有1个平均池化层,其中池化的水平和垂直步长皆为1;网络含有16个ECA注意力机制模块和7个SE注意力机制模块;分类层的维度是训练过程中考虑的被分类个数。
作为优选,优化器选用Adam优化器。
本发明的有益效果在于:
1、本发明将ECA注意力机制与GhostNet相结合形成FECAGhostNet轻量化卷积神经网络模型;该模型相比于一般的深度卷积神经网络具有更少的参数量和更低的计算量,能很好的部署在计算能力较低的嵌入式设备中,有效保证使用指静脉信息识别的智能锁具、安防、身份甄别等应用;
2、本发明在图像增强方面使用中值滤波和高斯滤波进行去噪,使用限制对比度自适应直方图均衡化对指静脉纹理进行增强处理,解决采集的指静脉图像纹理不清晰的问题,避免了图像质量问题对后续模型识别精度的影响;
3、本发明在使用轻量化深度卷积神经网络模型的基础上引入轻量级高效注意力模块,在原模型的基础上进一步提高特征提取能力,让模型识别精度得到更进一步的提高的同时使模型具有更强的学习能力和泛化能力。
附图说明
图1是本发明的流程图;
图2是收集到的原始指静脉图像;
图3是本发明对原始的手指静脉图像经过边缘检测提取的感兴趣区域的流程图;
图4是本发明对感兴趣区域提取后的图像做限制对比度自适应直方图均衡处理的效果图;
图5是本发明引入ECA注意力机制的结构示意图;
图6是本发明ECA-G-bneck结构图;
图7是本发明FECAGhostNet网络模型的结构示意图;
图8是本发明FECAGhostNet网络训练结果图。
具体实施方式
下面结合具体实施例对本发明做进一步说明,但本发明所要保护的范围并不限于此。
参照图1,一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,包括下述步骤:
S1:采集并建立甄别对象的手指静脉图像数据库,并对数据库中的所有手指静脉图像进行感兴趣区域提取;
S1包括以下子步骤:
S11:采用指静脉采集仪器取得指静脉的分布图,储存样板,采集的指静脉图像如图2所示;
S12:通过采集到的指静脉图像建立指静脉图像数据库;
S13:对指静脉图像数据库里的指静脉图像进行Canny算子边缘检测,确定手指中心点,采用中心裁剪的方法提取出指静脉纹理信息丰富的部分,同时去掉图像中杂乱的背景物,指静脉图像处理过程如图3所示,包括Canny边缘检测、感兴趣区域确定、感兴趣区域提取;
S14:指静脉图像归一化。
S2:对所获取指静脉数据库的指静脉感兴趣区域图像样本进行扩增;
S2包括以下子步骤:
S21:通过包括旋转、平移、伽马变换、仿射变换在内的方法对指静脉感兴趣区域数据库的指静脉图像样本进行扩增。
S3:对扩增后的指静脉图像进行图像增强;
S3包括以下子步骤:
S31:对扩增后的指静脉图像使用限制对比度自适应直方图均衡(ContrastLimited Adaptive Histogram Equalization,CLAHE)处理,处理效果如图4所示;从图4可以看出,经过CLAHE处理后指静脉图像的清晰度显著增加;
S4:对符合质量要求的指静脉数据集分为训练集和测试集;
S4包括以下子步骤:
S41:以7:3的比例将经过数据增强后的指静脉数据集分为训练集和测试集。
S5:设计轻量级高效注意力机制(Effificent Channel Attention,ECA)与Ghostbootleneck相结合的ECAGhost bootleneck(ECA-G-bneck);
S5包括以下子步骤:
S51:将Ghost bootleneck输出与ECA输入相结合,形成ECA-G-bneck;
ECA-G-bneck主要由两个堆叠的Ghost module和ECA组成,其中ECA如图5所示,ECA-G-bneck如图6所示。第一个Ghost module用作扩展层,增加通道数,第二个Ghostmodule减少通道数,使之可以和shortcut路径匹配。
S6:使用多个ECA-G-bneck搭建FECAGhostNet指静脉图像分类网络;
S6包括以下子步骤:
S61:使用多个ECA-G-bneck搭建FECAGhostNet轻量化深度卷积神经网络进行指静脉特征提取;
S62:删除原网络的全连接层,用自定义的嵌入层替代;
建立FECAGhostNet轻量化深度卷积神经网络模型,FECAGhostNet网络模型的结构如图7所示,具体方法是:在Ghost bottleneck的基础上引入ECA注意力机制模块,搭建ECA-G-bneck,并遵循了MobileNetV3的基本体系结构的优势,使用ECA-G-bneck替换MobileNetV3中的bottleneck。删除原网络的全连接层,用自定义的嵌入层替代;前置的特征提取层包括卷积层和平均池化层,FECAGhostNet网络含有19个卷积层,其中每个卷积层包括卷积和ReLU激活函数,网络含有1个平均池化层,其中池化的水平和垂直步长皆为1;分类层的维度是训练过程中考虑的被分类个数。使用轻量化深度卷积神经网络模型和轻量级高效通道注意力机制模块可以在提升模型精度的同时有效降低模型的参数量和计算量,部署到计算能力较低的嵌入式设备上时,比一般深度卷积神经网络具有更快的识别速度。
S7:模型参数迭代优化后,输入测试集中的指静脉图像测试,输出指静脉图像分类结果;
S7包括以下子步骤:
S71:选择优化器;
S72:选择学习率;
S73:选择损失函数;
S74:根据优化器、学习率和损失函数进行网络训练。
考虑到本模型主要应用于嵌入式设备,应该尽可能的降低模型的计算量,因此模型的优化器选用Adam优化器,Adam优化器结合AdaGrad和RMSProp两种优化算法的优点。对梯度的一阶矩估计和二阶矩估计进行综合考虑,计算出更新的步长,具有实现简单,计算高效的特点,能使网络较快的收敛。使用余弦退火学习率使模型在训练初期具有较大的学习率,加快模型训练速度,使模型在训练后期具有较小的学习率,有效降低模型的损失,提升模型精度。使用交叉熵损失函数来计算模型的损失值,用softmax函数将网络的输出处理为各类别的概率分布,使用交叉熵来计算实际输出概率与期望输出概率的距离,以此作为最终的分类层输出的依据。
用搭建好的FECAGhostNet轻量化深度卷积神经网络模型对处理后的指静脉数据集进行训练,根据欧式距离使用softmax函数进行分类,选择欧式距离最小的特征向量类别为匹配结果,并输出识别结果。
本发明包括以下步骤:对被采集者进行指静脉图像采集,对采集到的指静脉图像使用图像形态学处理获取不包含背景信息的指静脉前景区域;图像尺寸归一化;对指静脉感兴趣区域进行图像数据扩充;对所获取指静脉图像进行图像增强处理;对指静脉数据集以一定比例分为训练集和测试集;设计ECA与Ghost bootleneck相结合的ECA-G-bneck;使用多个ECA-G-bneck搭建FECAGhostNet轻量化深度卷积神经网络进行训练,可得到指静脉分类网络;测试集输出分类结果。本发明使用轻量化深度卷积神经网络模型的同时使用轻量级高效注意力机制,使改进后的模型在基本不增加参数量的情况下比GhostNet网络能更快的加速网络收敛,有效提升指静脉识别的准确性。模型训练的精度和损失如图8所示,在测试集上输出测试精度达到了98.47%,在测试集上输出测试损失降低到0.0984;实验结果表明本发明在基本不增加参数量的情况下加速网络的收敛,节约计算的代价,并且有效提高识别的精度,为轻量化深度卷积神经网络模型部署于嵌入式设备提供良好的基础;本发明使用轻量化深度卷积神经网络模型的参数量为5.183MB,计算量为150.725MB。相比于ResNet50的参数量25.557MB和计算量4133.743MB有了很大的改进和提升。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于包括下述步骤:
S1:采集并建立甄别对象的指静脉图像数据库,并对数据库中的所有指静脉图像进行感兴趣区域提取;
S2:对所获取指静脉数据库的指静脉感兴趣区域图像样本进行扩增;
S3:对扩增后的指静脉图像进行图像增强;
S4:将符合质量要求的指静脉数据集分为训练集和测试集;
S5:设计注意力机制ECA与Ghost bootleneck相结合的ECAGhost bootleneck,简称ECA-G-bneck;
S6:使用多个ECA-G-bneck构建FECAGhostNet轻量化卷积神经网络,即构建ECA注意力机制与GhostNet相结合的轻量化卷积神经网络;
S7:模型参数迭代优化后,输入测试集中的指静脉图像测试,输出指静脉图像分类结果。
2.根据权利要求1所述基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于S1包括以下子步骤:
S11:采用指静脉采集仪器取得指静脉的分布图,储存样板;
S12:通过采集到的指静脉图像建立指静脉图像数据库;
S13:对指静脉图像数据库里的指静脉图像进行Canny算子边缘检测,确定手指中心点,采用中心裁剪的方法提取出指静脉纹理信息丰富的部分,同时去掉图像中杂乱的背景物;
S14:指静脉图像归一化。
3.根据权利要求2所述基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于S2包括以下子步骤:
S21:通过包括旋转、平移、伽马变换、仿射变换在内的方法对指静脉感兴趣区域数据库的指静脉图像样本进行扩增。
4.根据权利要求3所述基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于S3包括以下子步骤:
S31:对扩增后的指静脉图像使用中值滤波和高斯滤波进行去噪;
S32:对扩增后的指静脉图像使用限制对比度自适应直方图均衡处理。
5.根据权利要求4所述基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于S4包括以下子步骤:
S41:以7:3的比例将经过数据增强后的指静脉数据集分为训练集和测试集。
6.根据权利要求5所述基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于S5包括以下子步骤:
S51:将Ghost bootleneck输出与ECA输入相结合,形成ECA-G-bneck。
7.根据权利要求6所述基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于S6包括以下子步骤:
S61:使用多个ECA-G-bneck构建FECAGhostNet轻量化卷积神经网络进行指静脉特征提取;
S62:删除原网络的全连接层,用自定义的嵌入层替代。
8.根据权利要求7所述基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于S7包括以下子步骤:
S71:选择优化器;
S72:选择学习率;
S73:选择损失函数;
S74:根据优化器、学习率和损失函数进行网络训练。
9.根据权利要求8所述基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于FECAGhostNet轻量化卷积神经网络通过下述方法构建:基于ECA注意力机制与GhostNet相结合的轻量化卷积神经网络的框架,在Ghost bootleneck的基础上引入ECA注意力机制模块,形成ECAGhost bootleneck,使用多个ECAGhost bootleneck搭建FECAGhostNet轻量化卷积神经网络进行指静脉特征提取,并且删除原网络的全连接层,用自定义的嵌入层替代;前置的特征提取层包括卷积层和平均池化层,FECAGhostNet轻量化卷积神经网络含有19层卷积结构,其中每个卷积层包括卷积和ReLU激活函数,网络含有1个平均池化层,其中池化的水平和垂直步长皆为1;网络含有16个ECA注意力机制模块和7个SE注意力机制模块;分类层的维度是训练过程中考虑的被分类个数。
10.根据权利要求8所述基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法,其特征在于:优化器选用Adam优化器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310305558.XA CN116311403A (zh) | 2023-03-27 | 2023-03-27 | 一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310305558.XA CN116311403A (zh) | 2023-03-27 | 2023-03-27 | 一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116311403A true CN116311403A (zh) | 2023-06-23 |
Family
ID=86784957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310305558.XA Pending CN116311403A (zh) | 2023-03-27 | 2023-03-27 | 一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116311403A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496562A (zh) * | 2024-01-02 | 2024-02-02 | 深圳大学 | 基于FV-MViT的指静脉识别方法、装置及相关介质 |
-
2023
- 2023-03-27 CN CN202310305558.XA patent/CN116311403A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496562A (zh) * | 2024-01-02 | 2024-02-02 | 深圳大学 | 基于FV-MViT的指静脉识别方法、装置及相关介质 |
CN117496562B (zh) * | 2024-01-02 | 2024-03-29 | 深圳大学 | 基于FV-MViT的指静脉识别方法、装置及相关介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | FV-GAN: Finger vein representation using generative adversarial networks | |
CN107729820B (zh) | 一种基于多尺度hog的手指静脉识别方法 | |
Sunny et al. | An efficient citrus canker detection method based on contrast limited adaptive histogram equalization enhancement | |
CN111507334B (zh) | 一种基于关键点的实例分割方法 | |
CN110555382A (zh) | 一种基于深度学习和Wasserstein距离度量的指静脉识别方法 | |
CN109978848B (zh) | 基于多光源颜色恒常模型检测眼底图像中硬性渗出的方法 | |
Pushpa et al. | Plant disease detection and classification using deep learning model | |
CN113011253B (zh) | 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质 | |
CN104751186A (zh) | 一种基于bp网络和小波变换的虹膜图像质量分类方法 | |
CN113077452B (zh) | 基于dnn网络和斑点检测算法的苹果树病虫害检测方法 | |
CN109190456A (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
CN116311403A (zh) | 一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法 | |
Zhu et al. | Towards automatic wild animal detection in low quality camera-trap images using two-channeled perceiving residual pyramid networks | |
Ibrahim et al. | Detection of diseases in rice leaf using deep learning and machine learning techniques | |
CN112200065B (zh) | 基于动作放大和自适应注意力区域选取的微表情分类方法 | |
CN113807237A (zh) | 活体检测模型的训练、活体检测方法、计算机设备及介质 | |
CN111881803B (zh) | 一种基于改进YOLOv3的畜脸识别方法 | |
CN117409259A (zh) | 一种基于ResNet改进的图像分类系统及方法 | |
CN111079585B (zh) | 图像增强结合伪孪生卷积神经网络的行人再识别方法 | |
CN117351578A (zh) | 一种非交互的人脸活体检测及人脸验证方法和系统 | |
CN114565593B (zh) | 基于半监督和注意力的全视野数字图像分类与检测方法 | |
CN116310796A (zh) | 一种基于深度学习模型的目标图像增广及作物病害识别方法 | |
CN114743278A (zh) | 一种基于生成对抗网络和卷积神经网络的指静脉识别方法 | |
CN115239695A (zh) | 一种基于时序图像的肺结节识别系统及方法 | |
Godse et al. | Detecting jute plant disease using image processing and machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |