CN117058727B - 一种基于图像增强的手部静脉图像识别方法及装置 - Google Patents
一种基于图像增强的手部静脉图像识别方法及装置 Download PDFInfo
- Publication number
- CN117058727B CN117058727B CN202310887173.9A CN202310887173A CN117058727B CN 117058727 B CN117058727 B CN 117058727B CN 202310887173 A CN202310887173 A CN 202310887173A CN 117058727 B CN117058727 B CN 117058727B
- Authority
- CN
- China
- Prior art keywords
- hand vein
- image
- vein image
- data set
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000003462 vein Anatomy 0.000 title claims abstract description 275
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000000605 extraction Methods 0.000 claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 26
- 238000004891 communication Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 6
- NAIXASFEPQPICN-UHFFFAOYSA-O p-nitrophenylphosphocholine Chemical compound C[N+](C)(C)CCOP(O)(=O)OC1=CC=C([N+]([O-])=O)C=C1 NAIXASFEPQPICN-UHFFFAOYSA-O 0.000 claims description 6
- 238000006731 degradation reaction Methods 0.000 description 8
- 230000015556 catabolic process Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- INGWEZCOABYORO-UHFFFAOYSA-N 2-(furan-2-yl)-7-methyl-1h-1,8-naphthyridin-4-one Chemical compound N=1C2=NC(C)=CC=C2C(O)=CC=1C1=CC=CO1 INGWEZCOABYORO-UHFFFAOYSA-N 0.000 description 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 108010002255 deoxyhemoglobin Proteins 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Abstract
本发明提出一种基于图像增强的手部静脉图像识别方法及装置,涉及静脉图像识别的技术领域,获取手部静脉图像;对手部静脉图像进行预处理,分别得到图像样本对数据集和待增强数据集;利用所述图像样本对数据集对预设的手部静脉图像增强模型进行训练,得到训练好的手部静脉图像增强模型;将所述待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集;将所述增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;利用所述特征提取结果进行特征匹配,得到人员识别结果,本发明降低了构建图像样本对的难度,提高了手部静脉图像识别精度,消除了隐私保护风险。
Description
技术领域
本发明涉及静脉图像识别的技术领域,特别涉及一种基于图像增强的手部静脉图像识别方法及装置。
背景技术
静脉识别是利用人体手部的静脉分布图像来进行身份识别,该技术是依据人类手部流动的血液可吸收特定波长的近红外光,当近红外光照射手部时,有一部分被血液中的脱氧血红蛋白吸收,从而使静脉纹路在图像成像时呈现深色阴影,其他非静脉区域呈现出较高亮度,进而得到清晰的手部静脉图像。
目前手部静脉图像识别的方法分为基于特征工程与基于深度相关特征学习两类,基于特征工程的方法是通过增强图像、提取纹路特征和相似度计算实现认证,但对图像清晰度要求高且难以应对旋转偏移问题;基于深度相关特征学习的方法是通过神经网络来自主学习手部静脉图像中的特征来进行身份识别,但其对数据质量和数据集规模要求较高;而传统对高质量数据集处理方法是对已有的高质量数据集中的每一张图像做退化操作,通过设定好的模糊核与噪声对高质量数据集进行处理,进而形成对应的低质量数据集,但是真实场景下的退化过程多种多样,很难用提前设置好的退化模型进行拟合,即高质量和低质量样本对的构建难度大。
现有技术公开了一种基于融合局部编码与神经网络模型的手部静脉图像识别方法,但该方法对局部编码选择有依赖性,而手部静脉图像质量较低,纹理模糊,容易与背景混合,导致局部编码无法完整提取相关纹理特征,降低手部静脉图像的识别精度,同时由于采集设备与采集环境的差异,容易导致同一只手所采集到的手部静脉图像质量参差不齐,进而增加类内差异性,同一只手所提取到的特征相差较大,影响手部静脉图像的识别精度。现有技术还公开了一种基于多模态融合的方法,但该方法需要对融合细节进行人工分析和设计,且需要收集更多的生物特征识别数据,存在隐私保护风险。
发明内容
为解决现有手部静脉图像识别中难以构建图像样本对、识别精度低和隐私保护风险高的问题,本发明提出一种基于图像增强的手部静脉图像识别方法及装置,降低了构建图像样本对的难度,提高了手部静脉图像识别精度,消除了隐私保护风险。
为了达到上述技术效果,本发明的技术方案如下:
一种基于图像增强的手部静脉图像识别方法,包括以下步骤:
S1.获取手部静脉图像;
S2.对手部静脉图像进行预处理,分别得到包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集以及待增强数据集;
S3.利用所述图像样本对数据集对预设的手部静脉图像增强模型进行训练,得到训练好的手部静脉图像增强模型;
S4.将所述待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集;
S5.将所述增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;
S6.利用所述特征提取结果进行特征匹配,得到人员识别结果。
优选地,所述手部静脉图像包括掌静脉图像和指静脉图像,获取掌静脉图像和指静脉图像的方式为:利用摄像头分别对手掌和手指进行拍摄,得到掌静脉图像和指静脉图像。
优选地,所述对手部静脉图像进行预处理,具体包括:
S21.将手部静脉图像中一定数量的图像转化为对应的灰度图;
S22.利用S21得到的灰度图,计算所述灰度图对应的一维信息熵,具体计算表达式如下:
其中,k表示灰度值,pk表示灰度图中灰度值为k的像素所占的比值;
S23.选择一维信息熵最低的灰度图对应原始的手部静脉图像作为低质量训练图像,选择一维信息熵最高的手部静脉图像作为高质量的目标监督图像,利用所述低质量训练图像和目标监督图像构建包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集,并利用手部静脉图像中剩余的未进行预处理的图像组成待增强数据集;其中所述图像样本对数据集用于对预设的手部静脉图像增强模型进行训练,所述待增强数据集用于输入训练好的手部静脉图像增强模型。
优选地,所述手部静脉图像增强模型为DRUNet网络模型,在训练手部静脉图像增强模型时,训练过程使用总损失函数对手部静脉图像增强模型的网络参数进行优化,所述总损失函数包括均方误差损失函数MSE与负皮尔逊相关系数损失函数NPCC,均方误差损失函数MSE的计算表达式如下:
其中,W表示输出图像的宽,H表示输出图像的高,,Y表示手部静脉图像增强模型的输出图像,G表示目标监督图像,i和j表示变量;
负皮尔逊相关系数损失函数NPCC的计算表达式如下:
其中,表示手部静脉图像增强模型的输出图像的平均像素值,,/>表示目标监督图像的平均像素值;直至所述总损失函数收敛,手部静脉图像增强模型训练结束。
优选地,所述手部静脉图像识别模型为mobilenetV2网络模型,所述特征提取结果为手部静脉图像的特征向量。
优选地,所述利用所述特征提取结果进行人员的特征匹配,具体特征匹配过程包括:
S61.获取已注册人员静脉的特征向量的数据库;
S62.将所述手部静脉图像的特征向量与数据库中已注册人员静脉的特征向量进行相似性度量;
S63.通过比较相似性,识别出与所述手部静脉图像的特征向量相似性最高的已注册人员,将识别出的已注册人员作为人员识别结果。
优选地,步骤S62所述进行相似性度量的方法为:采用欧式距离计算所述手部静脉图像的特征向量与数据库中已注册人员静脉的特征向量之间的相似性,与所述手部静脉图像的特征向量距离最近的已注册人员即为与所述手部静脉图像的特征向量相似性最高的已注册人员。
本发明还提出了一种基于图像增强的手部静脉图像识别装置,所述装置包括:
图像获取模块,用于获取手部静脉图像;
预处理模块,预处理模块,对手部静脉图像进行预处理,分别得到包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集以及待增强数据集;
训练模块,用于利用所述图像样本对数据集对预设的手部静脉图像增强模型进行训练,得到训练好的手部静脉图像增强模型;
数据增强模块,用于将所述待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集;
特征提取模块,用于将所述增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;
识别模块,用于利用所述特征提取结果进行特征匹配,得到人员识别结果。
本发明还提出了一种计算机设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如所述的基于图像增强的手部静脉图像识别方法的操作。
本发明还提出了一种计算机可读存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令在计算机设备上运行时,使得计算机设备执行如所述的基于图像增强的手部静脉图像识别方法的操作。
与现有技术相比,本发明技术方案的有益效果是:
本发明提出一种基于图像增强的手部静脉图像识别方法及装置,首先通过对手部静脉图像进行预处理,得到图像样本对数据集和待增强数据集,图像样本对数据集的建立避免了同一只手所采集到的手部静脉图像质量参差不齐,进而影响影响手部静脉图像的识别精度的问题;然后利用图像样本对数据集对预设的手部静脉图像增强模型进行训练,将待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集,将纹理不清晰的手部静脉图像进行数据增强;再将增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;最后利用利用特征提取结果进行特征匹配,得到人员识别结果,降低了构建图像样本对的难度,提高了手部静脉图像识别精度,消除了隐私保护风险。
附图说明
图1表示本发明实施例1中提出的一种基于图像增强的手部静脉图像识别方法的流程示意图;
图2表示本发明实施例中2提出的一种基于图像增强的手部静脉图像识别装置的结构示意图;
图3表示本发明实施例3中提出的一种计算机设备的结构示意图;
2.手部静脉图像识别装置;210.图像获取模块;220.预处理模块;230.训练模块;240.数据增强模块;250.特征提取模块;260.识别模块;301.处理器;302.存储器;303.通信接口;304.通信总线;305.可执行指令。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好地说明本实施例,附图某些部位会有省略、放大或缩小,并不代表实际尺寸,“上”“下”等部位方向的描述非对本专利的限制;
对于本领域技术人员来说,附图中某些公知内容说明可能省略是可以理解的;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,本实施例提出了一种基于图像增强的手部静脉图像识别方法,包括以下步骤:
S1.获取手部静脉图像;
在步骤S1中,所述手部静脉图像包括掌静脉图像和指静脉图像,获取掌静脉图像和指静脉图像的方式为:利用摄像头分别对手掌和手指进行拍摄,得到掌静脉图像和指静脉图像。
S2.对手部静脉图像进行预处理,分别得到包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集以及待增强数据集;
在步骤S2中,传统得到包含低质量图像和高质量图像的图像样本对数据集的做法是对已有的高分辨率数据集中的每一张图像做退化操作,通过设定好的模糊核与噪声对高分辨率图像进行处理,进而形成对应的低分辨率图像,这种操作在本质上是利用设定好的模糊核与噪声去模拟现实场景的退化过程,利用神经网络模型学习如何去除既定模糊核与噪声,进而将现实低分辨率图像重建成所期望的高分辨率图像,低分辨率图像即为低质量图像,高分辨率图像即为高质量图像,但是真实场景下的退化过程多种多样,很难用提前设置好的退化模型进行拟合,这意味着用退化模型构建的样本对所训练出的模型在现实图像的超分重建效果差,因此,本步骤设计了一种新型的图像样本对获取方法如下:对手部静脉图像进行预处理,具体包括:
S21.将手部静脉图像中一定数量的图像转化为对应的灰度图;
S22.利用S21得到的灰度图,计算所述灰度图对应的一维信息熵,具体计算表达式如下:
其中,k表示灰度值,pk表示灰度图中灰度值为k的像素所占的比值;
S23.选择一维信息熵最低的灰度图对应原始的手部静脉图像作为低质量训练图像,选择一维信息熵最高的手部静脉图像作为高质量的目标监督图像,利用所述低质量训练图像和目标监督图像构建包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集,并利用手部静脉图像中剩余的未进行预处理的图像组成待增强数据集;其中所述图像样本对数据集用于对预设的手部静脉图像增强模型进行训练,所述待增强数据集用于输入训练好的手部静脉图像增强模型。
S3.利用所述图像样本对数据集对预设的手部静脉图像增强模型进行训练,得到训练好的手部静脉图像增强模型;
在步骤S3中,所述手部静脉图像增强模型为DRUNet网络模型,利用DRUNet网络模型来增强掌静脉和指静脉图像,DRUNet网络模型的结构融合了UNet网络、残差结构和空洞卷积三种设计;其中,UNet网络是一种对称的编码解码,通过不同尺度的特征进行连接操作,进而实现多尺度的特征融合,全局残差连接可以加强浅层特征向深层卷积部分的流动,进而降低图像低频信息的流失,UNet网络通过引入全局残差与局部残差,将图像重建任务转换为高-低分辨率图像之间的残差估计任务,一旦模型估计残差图像,可通过低分辨率图像减去残差图像的方式来得到最终的高分辨率图像,低分辨率图像包含较多的低频信息,DRUNet网络模型作为一种超分辨率模型,是为了恢复低分辨率图像所缺少的高频信息;DRUNet网络模型利用残差结构为低频信息提供捷径,让其更加专注于高频信息的重建,提升手部静脉图像增强模型的重建性能;此外,DRUNet网络模型还设计了基于空洞卷积的局部残差块,用于扩大模型的感受野,进而关注更多的上下文信息。
在训练手部静脉图像增强模型时,训练过程使用总损失函数对手部静脉图像增强模型的网络参数进行优化,所述总损失函数包括均方误差损失函数MSE与负皮尔逊相关系数损失函数NPCC,均方误差损失函数MSE的计算表达式如下:
其中,W表示输出图像的宽,H表示输出图像的高,,Y表示手部静脉图像增强模型的输出图像,G表示目标监督图像,i和j表示变量;
负皮尔逊相关系数损失函数NPCC的计算表达式如下:
其中,表示手部静脉图像增强模型的输出图像的平均像素值,,/>表示目标监督图像的平均像素值;直至所述总损失函数收敛,手部静脉图像增强模型训练结束;由于超分辨率任务中常用的损失函数包含均方误差损失函数,它能直观地描述预测值与目标值之间的差异,对差异进行平方求和,这会使得模型倾向于产生平滑的像素值,而不是尖锐的边缘,然而本实施例所针对的掌静脉和指静脉图像具有丰富的纹理细节,如果只采用均方误差损失可能会导致重建图像纹理细节的丢失,而负皮尔逊相关系数损失函数可以帮助模型更好地保留图像的结构和细节,因此步骤S3在均方误差损失函数的基础上增加了负皮尔逊相关系数损失函数,提升手部静脉图像增强模型的重建性能。
S4.将所述待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集;
S5.将所述增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;
在步骤S5中,所述手部静脉图像识别模型为mobilenetV2网络模型,所述特征提取结果为手部静脉图像的特征向量。
S6.利用所述特征提取结果进行特征匹配,得到人员识别结果。
在步骤S6中,所述利用所述特征提取结果进行人员的特征匹配,具体特征匹配过程包括:
S61.获取已注册人员静脉的特征向量的数据库;
S62.将所述手部静脉图像的特征向量与数据库中已注册人员静脉的特征向量进行相似性度量;
步骤S62所述进行相似性度量的方法为:采用欧式距离计算所述手部静脉图像的特征向量与数据库中已注册人员静脉的特征向量之间的相似性,与所述手部静脉图像的特征向量距离最近的已注册人员即为与所述手部静脉图像的特征向量相似性最高的已注册人员。
S63.通过比较相似性,识别出与所述手部静脉图像的特征向量相似性最高的已注册人员,将识别出的已注册人员作为人员识别结果。
在本实施例中,首先通过对手部静脉图像进行预处理,得到图像样本对数据集和待增强数据集,图像样本对数据集的建立避免了同一只手所采集到的手部静脉图像质量参差不齐,进而影响影响手部静脉图像的识别精度的问题;然后利用图像样本对数据集对预设的手部静脉图像增强模型进行训练,将待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集,将纹理不清晰的手部静脉图像进行数据增强;再将增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;最后利用利用特征提取结果进行特征匹配,得到人员识别结果,降低了构建图像样本对的难度,提高了手部静脉图像识别精度,消除了隐私保护风险。另外,本实施提出的基于图像增强的手部静脉图像识别方法还能够消除环境给掌静脉和指静脉图像所带来的影响,能够统一同类别的掌静脉和指静脉图像质量,进而拉近掌静脉和指静脉图像的类内距离,提高识别准确率。
实施例2
参见图2,本实施例提出了一种基于图像增强的手部静脉图像识别装置2,所述装置包括:
图像获取模块210,用于获取手部静脉图像;
预处理模块220,用于对手部静脉图像进行预处理,分别得到包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集以及待增强数据集;
训练模块230,用于利用所述图像样本对数据集对预设的手部静脉图像增强模型进行训练,得到训练好的手部静脉图像增强模型;
数据增强模块240,用于将所述待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集;
特征提取模块250,用于将所述增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;
识别模块260,用于利用所述特征提取结果进行特征匹配,得到人员识别结果。
在本实施例中,首先通过对手部静脉图像进行预处理,得到图像样本对数据集和待增强数据集,图像样本对数据集的建立避免了同一只手所采集到的手部静脉图像质量参差不齐,进而影响影响手部静脉图像的识别精度的问题;然后利用图像样本对数据集对预设的手部静脉图像增强模型进行训练,将待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集,将纹理不清晰的手部静脉图像进行数据增强;再将增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;最后利用利用特征提取结果进行特征匹配,得到人员识别结果,降低了构建图像样本对的难度,提高了手部静脉图像识别精度,消除了隐私保护风险。
实施例3
参见图3,本实施例提出了一种计算机设备,包括:处理器301、存储器302、通信接口303和通信总线304,所述处理器301、所述存储器302和所述通信接口303通过所述通信总线304完成相互间的通信;
其中:处理器301、存储器302以及通信接口303通过通信总线304完成相互间的通信。通信接口303,用于与其它设备比如客户端或其它服务器等的网元通信。处理器301,用于执行可执行指令305,具体可以执行上述基于docker容器的微服务应用部署方法实施例中的相关步骤。
具体地,可执行指令305可以包括程序代码。处理器301可能是中央处理器CPU,或者是特定集成电路ASIC(Application Specific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算机设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器302,用于存放可执行指令305。存储器302可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
可执行指令305具体可以被处理器301调用使计算机设备执行以下操作:
获取手部静脉图像;
对手部静脉图像进行预处理,分别得到包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集以及待增强数据集;
利用所述图像样本对数据集对预设的手部静脉图像增强模型进行训练,得到训练好的手部静脉图像增强模型;
将所述待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集;
将所述增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;
利用所述特征提取结果进行特征匹配,得到人员识别结果。
本实施例还提出了一种计算机可读存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令在计算机设备上运行时,使得计算机设备执行如所述的基于图像增强的手部静脉图像识别方法的操作,具体包括以下步骤:
获取手部静脉图像;
对手部静脉图像进行预处理,分别得到包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集以及待增强数据集;
利用所述图像样本对数据集对预设的手部静脉图像增强模型进行训练,得到训练好的手部静脉图像增强模型;
将所述待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集;
将所述增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;
利用所述特征提取结果进行特征匹配,得到人员识别结果。
在本实施例中,首先通过对手部静脉图像进行预处理,得到图像样本对数据集和待增强数据集,图像样本对数据集的建立避免了同一只手所采集到的手部静脉图像质量参差不齐,进而影响影响手部静脉图像的识别精度的问题;然后利用图像样本对数据集对预设的手部静脉图像增强模型进行训练,将待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集,将纹理不清晰的手部静脉图像进行数据增强;再将增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;最后利用利用特征提取结果进行特征匹配,得到人员识别结果,降低了构建图像样本对的难度,提高了手部静脉图像识别精度,消除了隐私保护风险。
显然,本发明的上述实施例仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (9)
1.一种基于图像增强的手部静脉图像识别方法,其特征在于,包括以下步骤:
S1.获取手部静脉图像;
S2.对手部静脉图像进行预处理,分别得到包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集以及待增强数据集;
所述对手部静脉图像进行预处理,具体包括:
S21.将手部静脉图像中一定数量的图像转化为对应的灰度图;
S22.利用S21得到的灰度图,计算所述灰度图对应的一维信息熵,具体计算表达式如下:
其中,k表示灰度值,pk表示灰度图中灰度值为k的像素所占的比值;
S23.选择一维信息熵最低的灰度图对应原始的手部静脉图像作为低质量训练图像,选择一维信息熵最高的手部静脉图像作为高质量的目标监督图像,利用所述低质量训练图像和目标监督图像构建包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集,并利用手部静脉图像中剩余的未进行预处理的图像组成待增强数据集;其中所述图像样本对数据集用于对预设的手部静脉图像增强模型进行训练,所述待增强数据集用于输入训练好的手部静脉图像增强模型;
S3.利用所述图像样本对数据集对预设的手部静脉图像增强模型进行训练,得到训练好的手部静脉图像增强模型;
S4.将所述待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集;
S5.将所述增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;
S6.利用所述特征提取结果进行特征匹配,得到人员识别结果。
2.根据权利要求1所述的基于图像增强的手部静脉图像识别方法,其特征在于,所述手部静脉图像包括掌静脉图像和指静脉图像,获取掌静脉图像和指静脉图像的方式为:利用摄像头分别对手掌和手指进行拍摄,得到掌静脉图像和指静脉图像。
3.根据权利要求1所述的基于图像增强的手部静脉图像识别方法,其特征在于,所述手部静脉图像增强模型为DRUNet网络模型,在训练手部静脉图像增强模型时,训练过程使用总损失函数对手部静脉图像增强模型的网络参数进行优化,所述总损失函数包括均方误差损失函数MSE与负皮尔逊相关系数损失函数NPCC,均方误差损失函数MSE的计算表达式如下:
其中,W表示输出图像的宽,H表示输出图像的高,Y表示手部静脉图像增强模型的输出图像,G表示目标监督图像,i和j表示变量;
负皮尔逊相关系数损失函数NPCC的计算表达式如下:
其中,表示手部静脉图像增强模型的输出图像的平均像素值,/>表示目标监督图像的平均像素值;直至所述总损失函数收敛,手部静脉图像增强模型训练结束。
4.根据权利要求1所述的基于图像增强的手部静脉图像识别方法,其特征在于,所述手部静脉图像识别模型为mobilenetV2网络模型,所述特征提取结果为手部静脉图像的特征向量。
5.根据权利要求1所述的基于图像增强的手部静脉图像识别方法,其特征在于,所述利用所述特征提取结果进行人员的特征匹配,具体特征匹配过程包括:
S61.获取已注册人员静脉的特征向量的数据库;
S62.将所述手部静脉图像的特征向量与数据库中已注册人员静脉的特征向量进行相似性度量;
S63.通过比较相似性,识别出与所述手部静脉图像的特征向量相似性最高的已注册人员,将识别出的已注册人员作为人员识别结果。
6.根据权利要求5所述的基于图像增强的手部静脉图像识别方法,其特征在于,步骤S62所述进行相似性度量的方法为:采用欧式距离计算所述手部静脉图像的特征向量与数据库中已注册人员静脉的特征向量之间的相似性,与所述手部静脉图像的特征向量距离最近的已注册人员即为与所述手部静脉图像的特征向量相似性最高的已注册人员。
7.一种基于图像增强的手部静脉图像识别装置,其特征在于,所述装置包括:
图像获取模块,用于获取手部静脉图像;
预处理模块,对手部静脉图像进行预处理,分别得到包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集以及待增强数据集;所述对手部静脉图像进行预处理,具体包括:
S21.将手部静脉图像中一定数量的图像转化为对应的灰度图;
S22.利用S21得到的灰度图,计算所述灰度图对应的一维信息熵,具体计算表达式如下:
其中,k表示灰度值,pk表示灰度图中灰度值为k的像素所占的比值;
S23.选择一维信息熵最低的灰度图对应原始的手部静脉图像作为低质量训练图像,选择一维信息熵最高的手部静脉图像作为高质量的目标监督图像,利用所述低质量训练图像和目标监督图像构建包含低质量的手部静脉图像和高质量的手部静脉图像的图像样本对数据集,并利用手部静脉图像中剩余的未进行预处理的图像组成待增强数据集;其中所述图像样本对数据集用于对预设的手部静脉图像增强模型进行训练,所述待增强数据集用于输入训练好的手部静脉图像增强模型;
训练模块,用于利用所述图像样本对数据集对预设的手部静脉图像增强模型进行训练,得到训练好的手部静脉图像增强模型;
数据增强模块,用于将所述待增强数据集输入训练好的手部静脉图像增强模型,输出增强数据集;
特征提取模块,用于将所述增强数据集输入预训练的手部静脉图像识别模型,输出手部静脉图像的特征提取结果;
识别模块,用于利用所述特征提取结果进行特征匹配,得到人员识别结果。
8.一种计算机设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-6任意一项所述的基于图像增强的手部静脉图像识别方法的操作。
9.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一可执行指令,所述可执行指令在计算机设备上运行时,使得计算机设备执行如权利要求1-6任意一项所述的基于图像增强的手部静脉图像识别方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310887173.9A CN117058727B (zh) | 2023-07-18 | 2023-07-18 | 一种基于图像增强的手部静脉图像识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310887173.9A CN117058727B (zh) | 2023-07-18 | 2023-07-18 | 一种基于图像增强的手部静脉图像识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117058727A CN117058727A (zh) | 2023-11-14 |
CN117058727B true CN117058727B (zh) | 2024-04-02 |
Family
ID=88657990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310887173.9A Active CN117058727B (zh) | 2023-07-18 | 2023-07-18 | 一种基于图像增强的手部静脉图像识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117058727B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109409314A (zh) * | 2018-11-07 | 2019-03-01 | 济南浪潮高新科技投资发展有限公司 | 一种基于增强网络的手指静脉识别方法及系统 |
CN111368780A (zh) * | 2020-03-13 | 2020-07-03 | 浙江大华技术股份有限公司 | 一种基于指纹和指静脉的联合识别处理方法及系统 |
CN112418150A (zh) * | 2020-12-03 | 2021-02-26 | 佳都新太科技股份有限公司 | 掌静脉图像评估方法、装置、计算机设备及存储介质 |
CN114743278A (zh) * | 2022-04-24 | 2022-07-12 | 浙江科技学院 | 一种基于生成对抗网络和卷积神经网络的指静脉识别方法 |
CN114821682A (zh) * | 2022-06-30 | 2022-07-29 | 广州脉泽科技有限公司 | 一种基于深度学习算法的多样本混合掌静脉识别方法 |
CN114863499A (zh) * | 2022-06-30 | 2022-08-05 | 广州脉泽科技有限公司 | 一种基于联邦学习的指静脉与掌静脉识别方法 |
CN114973308A (zh) * | 2022-02-08 | 2022-08-30 | 西安交通大学 | 弹性权重固化和多元相似损失的手指静脉识别方法及系统 |
CN114998307A (zh) * | 2022-07-06 | 2022-09-02 | 重庆大学 | 基于双分辨率网络的两阶段全3d腹部器官分割方法及系统 |
WO2022183988A1 (en) * | 2021-03-03 | 2022-09-09 | The University Of Hong Kong | Systems and methods for magnetic resonance image reconstruction with denoising |
CN115775350A (zh) * | 2022-11-07 | 2023-03-10 | 上海理工大学 | 一种图像增强方法和装置、计算设备 |
-
2023
- 2023-07-18 CN CN202310887173.9A patent/CN117058727B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109409314A (zh) * | 2018-11-07 | 2019-03-01 | 济南浪潮高新科技投资发展有限公司 | 一种基于增强网络的手指静脉识别方法及系统 |
CN111368780A (zh) * | 2020-03-13 | 2020-07-03 | 浙江大华技术股份有限公司 | 一种基于指纹和指静脉的联合识别处理方法及系统 |
CN112418150A (zh) * | 2020-12-03 | 2021-02-26 | 佳都新太科技股份有限公司 | 掌静脉图像评估方法、装置、计算机设备及存储介质 |
WO2022183988A1 (en) * | 2021-03-03 | 2022-09-09 | The University Of Hong Kong | Systems and methods for magnetic resonance image reconstruction with denoising |
CN114973308A (zh) * | 2022-02-08 | 2022-08-30 | 西安交通大学 | 弹性权重固化和多元相似损失的手指静脉识别方法及系统 |
CN114743278A (zh) * | 2022-04-24 | 2022-07-12 | 浙江科技学院 | 一种基于生成对抗网络和卷积神经网络的指静脉识别方法 |
CN114821682A (zh) * | 2022-06-30 | 2022-07-29 | 广州脉泽科技有限公司 | 一种基于深度学习算法的多样本混合掌静脉识别方法 |
CN114863499A (zh) * | 2022-06-30 | 2022-08-05 | 广州脉泽科技有限公司 | 一种基于联邦学习的指静脉与掌静脉识别方法 |
CN114998307A (zh) * | 2022-07-06 | 2022-09-02 | 重庆大学 | 基于双分辨率网络的两阶段全3d腹部器官分割方法及系统 |
CN115775350A (zh) * | 2022-11-07 | 2023-03-10 | 上海理工大学 | 一种图像增强方法和装置、计算设备 |
Non-Patent Citations (4)
Title |
---|
DRUNET: A Dilated-Residual U-Net Deep Learning Network to Digitally Stain Optic Nerve Head Tissues in Optical Coherence Tomography Images;Sripad Krishna Devalla.et al;《Arxiv》;20180501;全文 * |
DRUNet: A Method for Infrared Point Target Detection;Wei, CA.et al;《APPLIED SCIENCES-BASEL》;20221231;全文 * |
基于改进U-net的视网膜血管分割方法研究;刘丽婷;《信息技术与信息化》;20230425;全文 * |
手部静脉图像深度特征学习及识别研究;潘在宇;《中国优秀硕士学位论文全文数据库 信息科技辑》;20230215(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117058727A (zh) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lei et al. | Coupled adversarial training for remote sensing image super-resolution | |
Sim et al. | MaD-DLS: mean and deviation of deep and local similarity for image quality assessment | |
CN107767358B (zh) | 一种图像中物体模糊度确定方法和装置 | |
CN112581370A (zh) | 人脸图像的超分辨率重建模型的训练及重建方法 | |
CN111079764A (zh) | 一种基于深度学习的低照度车牌图像识别方法及装置 | |
Wang et al. | Multi-direction dictionary learning based depth map super-resolution with autoregressive modeling | |
CN111340758A (zh) | 一种基于深度神经网络的高效虹膜图像质量评价新方法 | |
Zhou et al. | Sparse representation with enhanced nonlocal self-similarity for image denoising | |
CN111666813B (zh) | 基于非局部信息的三维卷积神经网络的皮下汗腺提取方法 | |
CN117274059A (zh) | 基于图像编码-解码的低分辨率图像重构方法及其系统 | |
CN117058727B (zh) | 一种基于图像增强的手部静脉图像识别方法及装置 | |
Kim et al. | Performance Comparison of SRCNN, VDSR, and SRDenseNet Deep Learning Models in Embedded Autonomous Driving Platforms | |
CN114708353B (zh) | 图像重建方法、装置、电子设备与存储介质 | |
CN112446835A (zh) | 图像恢复方法、图像恢复网络训练方法、装置和存储介质 | |
Zou et al. | DiffCR: A fast conditional diffusion framework for cloud removal from optical satellite images | |
CN114972016A (zh) | 图像处理方法、装置、计算机设备、存储介质及程序产品 | |
CN114219977A (zh) | 一种年龄估计方法、系统、电子设备及存储介质 | |
Wang et al. | Gradient information guided deraining with a novel network and adversarial training | |
Dey et al. | Variational Augmentation for Enhancing Historical Document Image Binarization✱ | |
Li et al. | Human detection via image denoising for 5G-enabled intelligent applications | |
Jiang et al. | Deep Learning-Based Scene Text Image Super-Resolution Methods: A Survey | |
CN110580451A (zh) | 一种基于三维优化子曲面的人脸识别方法及系统 | |
Jeon et al. | A restoration method of single image super resolution using improved residual learning with squeeze and excitation blocks | |
CN116362972B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
Nguyen et al. | LAWNet: A Lightweight Attention-Based Deep Learning Model for Wrist Vein Verification in Smartphones Using RGB Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |