CN110334566B - 一种基于三维全卷积神经网络的oct内外指纹提取方法 - Google Patents

一种基于三维全卷积神经网络的oct内外指纹提取方法 Download PDF

Info

Publication number
CN110334566B
CN110334566B CN201910219860.7A CN201910219860A CN110334566B CN 110334566 B CN110334566 B CN 110334566B CN 201910219860 A CN201910219860 A CN 201910219860A CN 110334566 B CN110334566 B CN 110334566B
Authority
CN
China
Prior art keywords
oct
neural network
convolution neural
fingerprint
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910219860.7A
Other languages
English (en)
Other versions
CN110334566A (zh
Inventor
梁荣华
丁宝进
陈朋
王海霞
张怡龙
刘义鹏
蒋莉
崔静静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910219860.7A priority Critical patent/CN110334566B/zh
Publication of CN110334566A publication Critical patent/CN110334566A/zh
Application granted granted Critical
Publication of CN110334566B publication Critical patent/CN110334566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于三维全卷积神经网络的OCT内外指纹提取方法,包括如下步骤:1)对每幅指纹OCT图像中的角质层区域位置和乳头层区域位置进行手工标注,得到与OCT图像对应的标注图片,进行ROI提取和数据增强,构成标注数据集;2)构建三维全卷积神经网络模型,设定训练参数和损失函数,使用标注好的数据集训练模型;3)通过训练好的全卷积神经网络模型预测未标注的OCT图像的角质层、乳头层;4)根据所有OCT图像的角质层和乳头层,按照相对深度以及OCT图像空间顺序,经过拼接,分别得到OCT指纹的外指纹和内指纹。本发明通过三维全卷积神经网络来学习提取OCT图像的角质层和乳头层特征,从而生成准确的内外指纹。

Description

一种基于三维全卷积神经网络的OCT内外指纹提取方法
技术领域
本发明涉及指纹识别领域,特别涉及一种基于三维全卷积神经网络的OCT内外指纹提取方法。
背景技术
因为指纹的独特性和永久性,指纹特征作为最常用的生物特征广泛应用到了个人身份识别当中。指纹识别系统是将指尖表面的纹路捕捉到二维图像上,然后对其的一些特征(脊线谷线的纹路、细节点等)进行识别。然而,当手指表面存在污垢、汗水以及受到不可修复的损伤时,指纹就会受到破坏,无法完成识别任务。另外,硅胶等材料制成的伪造指纹膜也常常能成功地欺骗这些系统。
研究表明,手指表皮上的指纹脊线和谷线,来源于真皮中与表皮的交界处的乳头层(真皮乳头),它是指纹结构的来源。手指表皮上的指纹即外部指纹就是该层起伏特征的精确复制品。由此可见,由乳头层轮廓得到的、不容易被破坏的内部指纹是外部指纹的有力补充。与此同时,光学相干断层扫描(optical coherencetomography,OCT)这项非侵入性成像技术,可以获取人体皮肤表面下1~3mm深度的信息,得到手指的指纹的3D体数据,这为采集到高分辨率三维内部指纹提供了可能。
现有的OCT内外指纹提取一般都是基于灰度值跳变,切面法或者聚类的方法,找到OCT图像中的角质层和乳头层,分别生成外指纹和内指纹。这些方法需要预设的参数多,难以适应OCT指纹数据角质层和乳头层复杂多变的情况。随着深度学习的发展,卷积神经网络越来越多的被应用到图像识别,语义分类等领域中。
发明内容
为了克服现有OCT内外指纹提取的鲁棒性不强的问题,本发明提出了一种基于三维全卷积神经网络的OCT内外指纹的提取方法,通过三维全卷积神经网络来学习和提取角质层和乳头层,从而生成准确的内外指纹。
为了实现上述目的,本发明采用的技术方案为:
一种基于三维全卷积神经网络的指纹汗孔提取方法,包括如下步骤:
1)设OCT指纹体数据大小为W×H×N,即由N张分辨率为W×H的OCT图像组成,表示空间上连续的N张手指指纹的竖切面。选择几组连续的OCT图像,对每幅指纹图像中的角质层区域位置和乳头层区域位置进行手工标注,得到与OCT图像对应的标注图片,并对标注好的OCT图像进行ROI提取和数据增强,构成三维全卷积神经网络模型训练所需的标注数据集;
2)构建三维全卷积神经网络模型,设定训练参数和损失函数,使用标注好的数据集训练三维全卷积神经网络的模型,得到训练好的三维全卷积神经网络模型;
3)通过训练好的全卷积神经网络模型预测未标注的OCT图像的角质层、乳头层;
4)根据所有OCT图像的角质层和乳头层,按照相对深度,以及OCT图像空间顺序,经过拼接,分别得到OCT指纹的外指纹和内指纹。
进一步,所述步骤1)中,OCT指纹图像增强过程中包括如下步骤:
1.1)首先对几组连续的OCT图像进行人工标注,在图像中标注出角质层和乳头层区域;
1.2)由于OCT图像大部分面积是背景,只有一部分为手指皮下结构,因此对每张OCT图像进行ROI提取,提取过程如下:利用大小相等的矩形框,大小为240×80(高为240,宽为80),在图像中将包含角质层和乳头层的区域依次截取,同样对标注图也进行相同操作,获得相匹配的标注。这样不仅提高算法效率,也能获得更多OCT图像训练数据;
1.3)对OCT的ROI图像及其对应的标注图都顺时钟旋转90度,180度,270度以及水平对折,获得更多的训练样本。
再进一步,所述步骤2)包括如下步骤:
2.1)构建一个三维全卷积神经网络模型,由于在连续的OCT图像中,角质层的位置以及乳头层的位置在空间上都具有连续性(角质层的位置与乳头层的位置缓慢变化),因此构建一个三维的全卷积神经网络,与普通的全卷积神经网络输入为单张图片时(不考虑批大小),三维全卷积神经网络输入为一组连续的OCT图像,从而考虑了连续图像之间的空间关系,其中输入图片的大小为240×80×8(取8张连续的ROI图像),整个三维全卷积神经网络的层包括8个部分:
对于第一部分到第三部分,每部分均是由两个三维的卷积层和一个三维的池化层组成,对于第i部分,1≤i≤3,每个三维卷积层经过16*2i个大小为3×3×3的卷积核和Rectified Linear Unit(RELU)激活函数以及Batch Normalization(BN)函数处理,三维池化层中将每2×2×2的像素合为一个像素并取其中的最大值,最后第i部分输出特征大小为(16*2i)×(240*2-i)×(80*2-i)×(8*2-i),则最后第三部分的输出为128×30×10×1;
第四部分为由两个卷积层组成,其中输入特征的大小为128×30×10×1,每个卷积层经过256个大小为3×3×3的卷积核和RELU激活函数以及BN函数处理,输出特征为256×30×10×1;
对于第五部分到第七部分,每部分均是由一个三维反卷积核以及两个三维的卷积层组成。对于第i部分,5≤i≤7,令t=i-4,则三维反卷积得到的输出特征大小为(256*2-t)×(30*2t)×(10*2t)×(1*2t),这里的维度大小与第8-i层两个三维卷积之后的维度大小一样,将这两个结果拼接起来,得到的特征大小为(256*2-t*2)×(30*2t)×(10*2t)×(1*2t)。在这之后经过两个三维卷积层,每个卷积层由256*2-t个大小为3×3×3的卷积核和RELU激活函数以及BN函数处理,得到的特征为(256*2-t)×(30*2t)×(10*2t)×(1*2t),这样最后第七部分的输出为32×240×80×8;
第八部分则是最后一个部分,由一个卷积层和softmax函数组成,卷积层只包括3个3×3×3的卷积核,得到的输出特征大小为3×240×80×8,最后经过softmax函数获得概率预测图,尺寸也为3×240×80×8,240×80×8代表的是输入的8张ROI图片,对于每张ROI图,生成3张概率图,分别代表像素为角质层、乳头层或背景的概率,哪个类别概率最大,则像素的预测就是该类别,对于某个像素,它是l类的概率pl计算如下:
Figure BDA0002003229580000041
其中hl是softmax的输入,1≤l≤3;
2.2)确定全卷积神经网络的参数,设置批的大小为2,将训练集中的图片以8张图片为一个批次,每次2批载入全卷积神经网络模型进行训练,迭代次数为100次即可得到训练好的网络;
计算各网络层的参数更新采用带有动量项的批量随机梯度下降算法
mini-batch-SGD,其中动量项的值设为为0.2;
使用dice损失函数;其函数形式如下:
Figure BDA0002003229580000042
上式中,pl(x)和gl(x)分别代表x属于l类的预测概率和真值概率。
再进一步,所述步骤3)中,为了配合训练好的三维全卷积神经网络的输入图片尺寸,对要预测的OCT图像进行尺寸为240×80分割,得到一系列子图片,将子图片输入到训练好的三维全卷积神经网络中,获得相对应的角质层,乳头层,然后将子图片还原到原来的OCT图像尺寸大小。
再进一步,所述步骤4)包括如下操作:
4.1)由于OCT图像预测的角质层和乳头层可能是不连续的,因此使用最近邻域插值来使其连续;
4.2)设角质层上表面轮廓曲线为Lsu(w),其中0≤w<W,代表横轴。同样,角质层下表面轮廓曲线为Lsd(w),再设乳头层上表面轮廓为Lpu(w),则根据相对深度,可由以下公式获得两条曲线LE(w),LI(w):
LE(w)=|Lsu(w)-Lsd(w)| (3)
LI(w)=|Lsu(w)-Lpu(w)| (4)
这样一张图像分别获得两条宽为W的线,最后再将一组OCT图像的两条线按照空间顺序分别拼接起来,得到内外指纹。其中,LE(w)用来生成外指纹,LI(w)用来生成内指纹。指纹图像的分辨率则为W×N。
与现有技术相比,本发明的有益效果表现在:通过三维全卷积神经网络提高了OCT内外指纹提取的鲁棒性;同时,相比普通的(二维)卷积,三维的卷积操作充分考虑了连续OCT图像的空间关系,可以获得更好的效果。
附图说明
图1是本发明基于全卷积神经网络的指纹汗孔提取方法的流程图;
图2是本发明中三维全卷积神经网络结构图;
图3(a)是OCT图像,图(b)是最后得到的角质层,图(c)是最后得到的乳头层,图(d)分别标出了角质层的上、下表面轮廓曲线和乳头层的上表面轮廓曲线;
图4是提取的外指纹图;
图5是提取的内指纹图。
具体实施方式
下面结合附图和实施方式对本发明作进一步说明:
参见图1~图5,一种基于全卷积神经网络的指纹汗孔提取方法,包括如下步骤:
1)设OCT指纹体数据大小为W×H×N,即由N张分辨率为W×H的OCT图像组成,表示空间上连续的N张手指指纹的竖切面。选择几组连续的OCT图像,对每幅指纹图像中的角质层区域位置和乳头层区域位置进行手工标注,得到与OCT图像对应的标注图片,并对标注好的OCT图像进行ROI提取和数据增强,构成三维全卷积神经网络模型训练所需的标注数据集,包括如下步骤:
1.1)首先对几组连续的OCT图像进行人工标注,在图像中标注出角质层和乳头层区域;
1.2)由于OCT图像大部分面积是背景,只有一部分为手指皮下结构。因此对每张OCT图像进行ROI提取,提取过程如下:利用大小相等的矩形框,大小为240×80(高为240,宽为80),在图像中将包含角质层和乳头层的区域依次截取,同样对标注图也进行相同操作,获得相匹配的标注。这样不仅提高算法效率,也能获得更多OCT图像训练数据;
1.3)对OCT的ROI图像及其对应的标注图都顺时钟旋转90度,180度,270度以及水平对折,获得更多的训练样本;
2)构建三维全卷积神经网络模型,设定训练参数和损失函数,使用标注好的数据集训练三维全卷积神经网络的模型,得到训练好的三维全卷积神经网络模型,包括如下步骤:
2.1)构建一个三维全卷积神经网络模型,由于在连续的OCT图像中,角质层的位置以及乳头层的位置在空间上都具有连续性(角质层的位置与乳头层的位置缓慢变化),因此构建一个三维的全卷积神经网络,与普通的全卷积神经网络输入为单张图片时(不考虑批大小),三维全卷积神经网络输入为一组连续的OCT图像,从而考虑了连续图像之间的空间关系,其中输入图片的大小为240×80×8(取8张连续的ROI图像),整个三维全卷积神经网络的层包括8个部分:
对于第一部分到第三部分,每部分均是由两个三维的卷积层和一个三维的池化层组成。对于第i部分(1≤i≤3),每个三维卷积层经过16*2i个大小为3×3×3的卷积核和Rectified Linear Unit(RELU)激活函数以及Batch Normalization(BN)函数处理,三维池化层中将每2×2×2的像素合为一个像素并取其中的最大值,第i部分最后输出特征大小为(16*2i)×(240*2-i)×(80*2-i)×(8*2-i),则最后第三部分的输出为128×30×10×1;
第四部分为由两个卷积层组成,其中输入特征的大小为128×30×10×1,每个卷积层经过256个大小为3×3×3的卷积核和RELU激活函数以及BN函数处理,输出特征为256×30×10×1;
对于第五部分到第七部分,每部分均是由一个三维反卷积核以及两个三维的卷积层组成。对于第i部分(5≤i≤7),令t=i-4,则三维反卷积得到的输出特征大小为(256*2-t)×(30*2t)×(10*2t)×(1*2t),这里的维度大小与第8-i层两个三维卷积之后的维度大小一样,将这两个结果拼接起来,得到的特征大小为(256*2-t*2)×(30*2t)×(10*2t)×(1*2t)。在这之后经过两个三维卷积层,每个卷积层由256*2-t个大小为3×3×3的卷积核和RELU激活函数以及BN函数处理,得到的特征为(256*2-t)×(30*2t)×(10*2t)×(1*2t),这样最后第七部分的输出为32×240×80×8;
第八部分则是最后一个部分,由一个卷积层和softmax函数组成,卷积层只包括3个3×3×3的卷积核,得到的输出特征大小为3×240×80×8,最后经过softmax函数获得概率预测图,尺寸也为3×240×80×8,240×80×8代表的是输入的8张ROI图片,对于每张ROI图,生成3张概率图,分别代表像素为角质层、乳头层或背景的概率。哪个类别概率最大,则像素的预测就是该类别。对于某个像素,它是l类的概率pl计算如下:
Figure BDA0002003229580000081
其中hl是softmax的输入,1≤l≤3;
2.2)确定全卷积神经网络的参数,设置批的大小为2,将训练集中的图片以8张图片为一个批次,每次2批载入全卷积神经网络模型进行训练,迭代次数为100次即可得到训练好的网络;
计算各网络层的参数更新采用带有动量项的批量随机梯度下降算法mini-batch-SGD,其中动量项的值设为0.2;
使用dice损失函数,其函数形式如下:
Figure BDA0002003229580000082
上式中,pl(x)和gl(x)分别代表x属于l类的预测概率和真值概率。
3)通过训练好的全卷积神经网络模型预测未标注的OCT图像的角质层、乳头层,过程如下:
为了配合训练好的三维全卷积神经网络的输入图片尺寸,对要预测的OCT图像进行尺寸为240×80分割,得到一系列子图片,将子图片输入到训练好的三维全卷积神经网络中,获得相对应的角质层,乳头层,然后将子图片还原到原来的OCT图像尺寸大小。
4)根据所有OCT图像的角质层和乳头层,按照相对深度,以及OCT图像空间顺序,经过拼接,分别得到OCT指纹的外指纹和内指纹,具体包括如下步骤:
4.1)由于OCT图像预测的角质层和乳头层可能是不连续的,因此使用最近邻域插值来使其连续。
4.2)设角质层上表面轮廓曲线为Lsu(w),其中0≤w<W,代表横轴。同样,角质层下表面轮廓曲线为Lsd(w),再设乳头层上表面轮廓为Lpu(w),则根据相对深度,可由以下公式获得两条曲线LE(w),LI(w):
LE(w)=|Lsu(w)-Lsd(w)|
LI(w)=|Lsu(w)-Lpu(w)|
这样一张图像分别获得两条宽为W的线,最后再将一组OCT图像的两条线按照空间顺序分别拼接起来,得到内外指纹。其中,LE(w)用来生成外指纹,LI(w)用来生成内指纹。指纹图像的分辨率则为W×N。

Claims (3)

1.一种基于三维全卷积神经网络的OCT内外指纹提取方法,其特征在于,所述方法包括如下步骤:
1)设OCT指纹体数据大小为W×H×N,即由N张分辨率为W×H的OCT图像组成,表示空间上连续的N张手指指纹的竖切面,选择几组连续的OCT图像,对每幅指纹图像中的角质层区域位置和乳头层区域位置进行手工标注,得到与OCT图像对应的标注图片,并对标注好的OCT图像进行ROI提取和数据增强,构成三维全卷积神经网络模型训练所需的标注数据集;
2)构建三维全卷积神经网络模型,设定训练参数和损失函数,使用标注好的数据集训练三维全卷积神经网络的模型,得到训练好的三维全卷积神经网络模型;
3)通过训练好的全卷积神经网络模型预测未标注的OCT图像的角质层、乳头层;
4)根据所有OCT图像的角质层和乳头层,按照相对深度,以及OCT图像空间顺序,经过拼接,分别得到OCT指纹的外指纹和内指纹;
所述步骤1)中,OCT指纹图像增强过程包括如下步骤:
1.1)首先对几组连续的OCT图像进行人工标注,在图像中标注出角质层和乳头层区域;
1.2)由于OCT图像大部分面积是背景,只有一部分为手指皮下结构,因此对每张OCT图像进行ROI提取,提取过程如下:利用大小相等的矩形框,大小为240×80,在图像中将包含角质层和乳头层的区域依次截取,同样对标注图也进行相同操作,获得相匹配的标注,这样不仅提高算法效率,也能获得更多OCT图像训练数据;
1.3)对OCT的ROI图像及其对应的标注图都顺时钟旋转90度,180度,270度以及水平对折,获得更多的训练样本;
所述步骤2)包括如下步骤:
2.1)构建一个三维全卷积神经网络模型,由于在连续的OCT图像中,角质层的位置以及乳头层的位置在空间上都具有连续性,因此构建一个三维的全卷积神经网络,与普通的全卷积神经网络输入为单张图片时,三维全卷积神经网络输入为一组连续的OCT图像,从而考虑了连续图像之间的空间关系,其中输入图片的大小为240×80×8,取8张连续的ROI图像,整个三维全卷积神经网络的层包括8个部分:
对于第一部分到第三部分,每部分均是由两个三维的卷积层和一个三维的池化层组成,对于第i部分,1≤i≤3,每个三维卷积层经过16*2i个大小为3×3×3的卷积核和RELU激活函数以及BN函数处理,三维池化层中将每2×2×2的像素合为一个像素并取其中的最大值,第i部分最后输出特征大小为(16*2i)×(240*2-i)×(80*2-i)×(8*2-i),则最后第三部分的输出为128×30×10×1;
第四部分为由两个卷积层组成,其中输入特征的大小为128×30×10×1,每个卷积层经过256个大小为3×3×3的卷积核和RELU激活函数以及BN函数处理,输出特征为256×30×10×1;
对于第五部分到第七部分,每部分均是由一个三维反卷积核以及两个三维的卷积层组成,对于第i部分,5≤i≤7,令t=i-4,则三维反卷积得到的输出特征大小为(256*2-t)×(30*2t)×(10*2t)×(1*2t),这里的维度大小与第8-i层两个三维卷积之后的维度大小一样,将这两个结果拼接起来,得到的特征大小为(256*2-t*2)×(30*2t)×(10*2t)×(1*2t),在这之后经过两个三维卷积层,每个卷积层由256*2-t个大小为3×3×3的卷积核和RELU激活函数以及BN函数处理,得到的特征为(256*2-t)×(30*2t)×(10*2t)×(1*2t),这样最后第七部分的输出为32×240×80×8;
第八部分则是最后一个部分,由一个卷积层和softmax函数组成,卷积层只包括3个3×3×3的卷积核,得到的输出特征大小为3×240×80×8,最后经过softmax函数获得概率预测图,尺寸也为3×240×80×8,240×80×8代表的是输入的8张ROI图片,对于每张ROI图,生成3张概率图,分别代表像素为角质层、乳头层或背景的概率,哪个类别概率最大,则像素的预测就是该类别,对于某个像素,它是l类的概率pl计算如下:
Figure FDA0003040826830000031
其中hl是softmax的输入,1≤l≤3;
2.2)确定全卷积神经网络的参数,设置批的大小为2,将训练集中的图片以8张图片为一个批次,每次2批载入全卷积神经网络模型进行训练,迭代次数为100次即可得到训练好的网络;
计算各网络层的参数更新采用带有动量项的批量随机梯度下降算法mini-batch-SGD,其中动量项的值设为0.2;
使用dice损失函数;其函数形式如下:
Figure FDA0003040826830000032
上式中,pl(x)和gl(x)分别代表x属于l类的预测概率和真值概率。
2.根据权利要求1所述的基于三维全卷积神经网络的OCT内外指纹提取方法,其特征在于,在所述步骤3)中,为了配合训练好的三维全卷积神经网络的输入图片尺寸,对要预测的OCT图像进行尺寸为分割,得到一系列子图片,将子图片输入到训练好的三维全卷积神经网络中,获得相对应的角质层,乳头层,然后将子图片还原到原来的OCT图像尺寸大小。
3.根据权利要求1所述的基于三维全卷积神经网络的OCT内外指纹提取方法,其特征在于,所述步骤4)包括以下步骤:
4.1)由于OCT图像预测的角质层和乳头层可能是不连续的,因此使用最近邻域插值来使其连续;
4.2)设角质层上表面轮廓曲线为Lsu(w),其中0≤w<W,代表横轴,同样,角质层下表面轮廓曲线为Lsd(w),再设乳头层上表面轮廓为Lpu(w),则根据相对深度,由以下公式获得两条曲线LE(w),LI(w):
LE(w)=|Lsu(w)-Lsd(w)| (3)
LI(w)=|Lsu(w)-Lpu(w)| (4)
这样一张图像分别获得两条宽为W的线,最后再将一组OCT图像的两条线按照空间顺序分别拼接起来,得到内外指纹,其中,LE(w)用来生成外指纹,LI(w)用来生成内指纹,指纹图像的分辨率则为W×N。
CN201910219860.7A 2019-03-22 2019-03-22 一种基于三维全卷积神经网络的oct内外指纹提取方法 Active CN110334566B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910219860.7A CN110334566B (zh) 2019-03-22 2019-03-22 一种基于三维全卷积神经网络的oct内外指纹提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910219860.7A CN110334566B (zh) 2019-03-22 2019-03-22 一种基于三维全卷积神经网络的oct内外指纹提取方法

Publications (2)

Publication Number Publication Date
CN110334566A CN110334566A (zh) 2019-10-15
CN110334566B true CN110334566B (zh) 2021-08-03

Family

ID=68139549

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910219860.7A Active CN110334566B (zh) 2019-03-22 2019-03-22 一种基于三维全卷积神经网络的oct内外指纹提取方法

Country Status (1)

Country Link
CN (1) CN110334566B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111317462B (zh) * 2020-03-20 2023-11-03 佛山科学技术学院 一种基于U-net神经网络的血流成像方法及装置
CN111666813B (zh) * 2020-04-29 2023-06-30 浙江工业大学 基于非局部信息的三维卷积神经网络的皮下汗腺提取方法
CN113034475B (zh) * 2021-03-30 2024-04-19 浙江工业大学 基于轻量级三维卷积神经网络的手指oct体数据去噪方法
CN112991232B (zh) * 2021-04-30 2021-07-23 深圳阜时科技有限公司 指纹图像修复模型的训练方法、指纹识别方法及终端设备
CN118552988B (zh) * 2024-07-24 2024-10-11 浙江工业大学 一种基于oct的内部指纹快速提取方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITUD20050152A1 (it) * 2005-09-23 2007-03-24 Neuricam Spa Dispositivo elettro-ottico per il conteggio di persone,od altro,basato su visione stereoscopica,e relativo procedimento
CN107480649B (zh) * 2017-08-24 2020-08-18 浙江工业大学 一种基于全卷积神经网络的指纹汗孔提取方法
CN107563364B (zh) * 2017-10-23 2021-11-12 清华大学深圳研究生院 基于汗腺的指纹真伪辨别方法以及指纹识别方法
CN109154961A (zh) * 2018-02-26 2019-01-04 深圳市汇顶科技股份有限公司 基于利用透镜-针孔模块和其他光学设计的光学成像的lcd屏上光学指纹感测

Also Published As

Publication number Publication date
CN110334566A (zh) 2019-10-15

Similar Documents

Publication Publication Date Title
CN110334566B (zh) 一种基于三维全卷积神经网络的oct内外指纹提取方法
Pitaloka et al. Enhancing CNN with preprocessing stage in automatic emotion recognition
Youssif et al. Automatic facial expression recognition system based on geometric and appearance features
CN112437926B (zh) 使用前馈卷积神经网络的快速鲁棒摩擦脊印痕细节提取
CN110348330A (zh) 基于vae-acgan的人脸姿态虚拟视图生成方法
JP6207210B2 (ja) 情報処理装置およびその方法
WO2006034256A9 (en) System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images
CN111429460A (zh) 图像分割方法、图像分割模型训练方法、装置和存储介质
CN113570684A (zh) 图像处理方法、装置、计算机设备和存储介质
CN104077742B (zh) 基于Gabor特征的人脸素描合成方法及系统
Shu et al. Age progression: Current technologies and applications
CN115862120B (zh) 可分离变分自编码器解耦的面部动作单元识别方法及设备
CN111666813B (zh) 基于非局部信息的三维卷积神经网络的皮下汗腺提取方法
CN113076905A (zh) 一种基于上下文交互关系的情绪识别方法
Bachay et al. Hybrid Deep Learning Model Based on Autoencoder and CNN for Palmprint Authentication.
Hadi et al. Comparison Between Convolutional Neural Network CNN and SVM in Skin Cancer Images Recognition
Kalita Designing of facial emotion recognition system based on machine learning
CN116758592A (zh) 基于soft-label的OCT内外指纹提取方法
Sun et al. Using backpropagation neural network for face recognition with 2D+ 3D hybrid information
Shukla et al. Deep Learning Model to Identify Hide Images using CNN Algorithm
Sharma et al. Solving image processing critical problems using machine learning
Zaidan et al. A novel hybrid module of skin detector using grouping histogram technique for Bayesian method and segment adjacent-nested technique for neural network
Kale et al. Face age synthesis: A review on datasets, methods, and open research areas
CN114627136A (zh) 一种基于特征金字塔网络的舌象分割与对齐方法
Ding et al. 3D face sparse reconstruction based on local linear fitting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant