CN112434574B - 一种非受限状态下的指节纹识别方法 - Google Patents

一种非受限状态下的指节纹识别方法 Download PDF

Info

Publication number
CN112434574B
CN112434574B CN202011254486.3A CN202011254486A CN112434574B CN 112434574 B CN112434574 B CN 112434574B CN 202011254486 A CN202011254486 A CN 202011254486A CN 112434574 B CN112434574 B CN 112434574B
Authority
CN
China
Prior art keywords
knuckle
convolution
image
layer
convolution kernels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011254486.3A
Other languages
English (en)
Other versions
CN112434574A (zh
Inventor
张二虎
段敬红
白朝晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202011254486.3A priority Critical patent/CN112434574B/zh
Publication of CN112434574A publication Critical patent/CN112434574A/zh
Application granted granted Critical
Publication of CN112434574B publication Critical patent/CN112434574B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明一种非受限状态下的指节纹识别方法,对于非受限状态下采集的指节纹图像,首先提取指节纹区域图像,然后采用所设计的基于弯曲Gabor滤波器提取指节纹ROI区域,进一步设计了卷积神经网络加持空间变换网络的指节纹深度学习网络模型,并用该模型进行指节纹图像识别。本发明方法根据指节纹弯曲纹理及其对称性的特点,解决了现有技术中指节纹ROI区域定位不够准确的问题;设计了基于卷积神经网络加持空间变换网络的指节纹深度学习网络模型,提高了识别的准确率。

Description

一种非受限状态下的指节纹识别方法
技术领域
本发明属于生物特征的身份识别技术领域,具体涉及一种非受限状态下的指节纹识别方法。
背景技术
生物特征识别技术是目前公认安全性及可靠性最高的个人身份识别技术,特别是指节纹识别作为一种新兴的生物特征识别技术近年来受到了高度关注,有望应用于各种身份认证场合。
相较于其他生物特征,指节纹具有其独特的优势,如纹理区域较小,使得指节纹识别计算量较小;与个人情绪无关,较人脸动态变化较小;指背指节纹不易磨损,因而特征更加稳定有效;采集方式较虹膜方式更廉价,相对静脉复杂的采集方式具有更友好的用户体验。虽然目前国内外学者提出不少用于指节纹的特征提取方法,但大多基于传统方法的特征工程不易构建,所提取的特征鲁棒性较差,识别率较低,且大多针对较为理想状态下的指节纹数据,与实际应用场景差距较大。
另外,现有的指节纹大多是采用固定手指的方式采集指节纹图像,是一种受限状态下的采集方法,具有采集不够自然、使用场合受限的缺点。本发明针对手指不受限制情况下采集的指节纹图像进行识别,更符合实际情况。相对于受限状态下的指节纹图像,需要抵抗旋转、形变及光照等因素的影响,具有更大的识别难度。
发明内容
本发明的目的是提供一种非受限状态下的指节纹识别方法,解决了指节纹采集时人手指弯曲程度、位置和角度的变化,导致指节纹图像光照不均匀、对比度低及感兴趣区域难于定位的问题。
本发明所采用的技术方案是,一种非受限状态下的指节纹识别方法,具体按照以下步骤实施:
步骤1、在非受限状态下采集指节纹图像,并进行预处理和感兴趣区域提取,得到感兴趣指节纹图像;
步骤2、设计卷积神经网络加持空间变换网络的指节纹深度学习网络模型;
步骤3、将感兴趣指节纹图像输入指节纹深度学习网络模型进行训练,得到优化的指节纹深度学习网络模型;
步骤4、对于待识别的指节纹图像,采用步骤1相同的预处理和感兴趣区域提取后,输入优化的指节纹深度学习网络模型进行识别。
本发明的特点还在于:
步骤1具体过程为:
步骤1.1、采集指节纹图像,对指节纹图像进行二值化处理,得到二值化图像;
步骤1.2、对二值化图像进行连通区域分析,求取最大连通区域的外接矩形,根据该外接矩形的坐标信息从原始采集的指节纹图像中裁切出只含有指节纹的区域图像;
步骤1.3、对只含有指节纹的区域图像进行对比度增强;
步骤1.4、采用基于弯曲Gabor变换的方法,提取对比度增强后的指节纹上的感兴趣区域图像,得到感兴趣指节纹图像。
步骤1.3对比度增强方法为对比度受限自适应直方图均衡化法。
步骤1.4的提取对比度增强后的指节纹上的感兴趣区域图像的具体步骤程为:
步骤1.4.1、所采用的弯曲Gabor滤波器形式为:
其中X=x*cos(θ)+y*sin(θ)+c*(-x*sin(θ)+y*cos(θ))2,Y=-x*sin(θ)+y*cos(θ),弯曲度参数c用来模拟指节纹的弯曲纹理;
步骤1.4.2、选取参数σ=20,θ=π,λ=20,ψ=0,γ=1,创建初始的Gabor滤波器,进一步将该滤波器水平镜像并和创建的初始Gabor滤波器进行拼接,以模拟指节纹的纹理对称性,形成最终的指节纹Gabor滤波器;
步骤1.4.3、将对比度增强后的指节纹区域图像与最终的指节纹Gabor滤波器进行卷积;
步骤1.4.4、将卷积后响应最大值的点作为指节纹感兴趣区域的中心点,裁切出220×110大小的区域即为感兴趣指节纹图像。
步骤2的指节纹深度学习网络模型的组成为:输入层为步骤1提取的指节纹ROI区域图像;卷积层1:卷积核个数为8、卷积核大小为5×5、卷积步长为2;卷积层2:卷积核个数为16、卷积核大小为3×3、卷积步长为2;全连接层1:神经元个数为64;全连接层2:神经元个数为6;双线性插值层;卷积层3:卷积核个数为32、卷积核大小为5×5、卷积步长为2;卷积层4:卷积核个数为64、卷积核大小为3×3、卷积步长为2;卷积层5:卷积核个数为128、卷积核大小为3×3、卷积步长为1;卷积层6:卷积核个数为512、卷积核大小为3×3、卷积步长为1;卷积层7:卷积核个数为分类的指节纹个数、卷积核大小为3×3、卷积步长为1;全局平均池化层及Softmax分类层。
空间变换网络对感兴趣指节纹图像进行仿射变换,生成统一的规范化的图像。
卷积神经网络用来对经空间变换后的指节纹图像进行识别。
指节纹深度学习网络模型训练时的损失函数为交叉熵损失函数,优化器为Adam,初始学习率为0.005,Mini-Batch为128,训练轮数为100。
本发明有益效果是:
本发明一种非受限状态下的指节纹识别方法,相比较于现有的方法,本发明基于弯曲Gabor的指节纹定位方法更能捕捉指节纹的弯曲纹路信息及指节纹中心线近似对称的特点,定位更为准确,有利于后续的处理及识别;设计的基于空间变换网络的深度学习识别模型,能够克服指节纹旋转、缩放及形变对识别结果的影响,提高了识别的准确率,有利于实际应用。
附图说明
图1是本发明一种非受限状态下的指节纹识别方法的流程图;
图2是本发明一种非受限状态下采集的某某的指节纹图像;
图3是对图2进行二值化得到的指节纹图;
图4是对图2进行裁切得到的只含有指节纹的区域图像;
图5是对图4的指节纹图像进行对比度增强得到的图像;
图6是采用步骤1.4设计的弯曲Gabor滤波器的形状;
图7是对图5所示的指节纹图像中裁切出感兴趣区域的指节纹图像。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种非受限状态下的指节纹识别方法,如图1所示,具体按照以下步骤实施:
步骤1、在非受限状态下采集指节纹图像,并进行预处理和感兴趣区域提取,得到感兴趣指节纹图像;
步骤1具体过程为:
步骤1.1、采集指节纹图像,对指节纹图像进行二值化处理,得到二值化图像;
步骤1.2、对二值化图像进行连通区域分析,求取最大连通区域的外接矩形,根据该外接矩形的坐标信息从原始采集的指节纹图像中裁切出只含有指节纹的区域图像;
步骤1.3、采用对比度受限自适应直方图均衡化法对只含有指节纹的区域图像进行对比度增强;
步骤1.4、采用基于弯曲Gabor变换的方法,提取对比度增强后的指节纹上的感兴趣区域图像,得到感兴趣指节纹图像。
提取对比度增强后的指节纹上的感兴趣区域图像的具体步骤程为:
步骤1.4.1、所采用的弯曲Gabor滤波器形式为:
其中X=x*cos(θ)+y*sin(θ)+c*(-x*sin(θ)+y*cos(θ))2,Y=-x*sin(θ)+y*cos(θ),弯曲度参数c用来模拟指节纹的弯曲纹理;
步骤1.4.2、选取参数σ=20,θ=π,λ=20,ψ=0,γ=1,创建初始的Gabor滤波器,进一步将该滤波器水平镜像并和创建的初始Gabor滤波器进行拼接,以模拟指节纹的纹理对称性,形成最终的指节纹Gabor滤波器;
步骤1.4.3、将对比度增强后的指节纹区域图像与最终的指节纹Gabor滤波器进行卷积;
步骤1.4.4、将卷积后响应最大值的点作为指节纹感兴趣区域的中心点,裁切出220×110大小的区域即为感兴趣指节纹图像。
步骤2、设计卷积神经网络加持空间变换网络的指节纹深度学习网络模型;空间变换网络对感兴趣指节纹图像进行仿射变换,生成统一的规范化的图像,卷积神经网络用来对经空间变换后的指节纹图像进行识别;
指节纹深度学习网络模型的组成为:输入层为步骤1提取的指节纹ROI区域图像;卷积层1:卷积核个数为8、卷积核大小为5×5、卷积步长为2;卷积层2:卷积核个数为16、卷积核大小为3×3、卷积步长为2;全连接层1:神经元个数为64;全连接层2:神经元个数为6;双线性插值层;卷积层3:卷积核个数为32、卷积核大小为5×5、卷积步长为2;卷积层4:卷积核个数为64、卷积核大小为3×3、卷积步长为2;卷积层5:卷积核个数为128、卷积核大小为3×3、卷积步长为1;卷积层6:卷积核个数为512、卷积核大小为3×3、卷积步长为1;卷积层7:卷积核个数为分类的指节纹个数、卷积核大小为3×3、卷积步长为1;全局平均池化层及Softmax分类层。
步骤3、将感兴趣指节纹图像输入指节纹深度学习网络模型进行训练,指节纹深度学习网络模型训练时的损失函数为交叉熵损失函数,优化器为Adam,初始学习率为0.005,Mini-Batch为128,训练轮数为100,得到优化的指节纹深度学习网络模型;
步骤4、对于待识别的指节纹图像,采用步骤1相同的预处理和感兴趣区域提取后,输入优化的指节纹深度学习网络模型进行识别。
实施例
采用本发明的方法对某某进行指纹节识别,在非受限状态下采集指节纹图像如图2所示,然后采用步骤1.1的方法对图2的指节纹图像进行二值化,得到如图3所示的二值化的指节纹图像;接着对图3的二值化的指节纹图像采用步骤1.2的方法求取其最大连通区域的外接矩形,根据该外接矩形的坐标信息,从图2所示的原始采集的指节纹图像中裁切出如图4所示的只含有指节纹的区域图像;采用步骤1.3给出的对比度受限自适应直方图均衡化法对图4的指节纹图像进行对比度增强,得到图5所示的增强后的指节纹图像;采用步骤1.4设计的弯曲Gabor滤波器,如图6所示,从图5所示的指节纹图像中裁切出感兴趣区域的指节纹图像,如图7所示,用于进行指节纹的识别。对于如图7所示的裁切出的指节纹图像,采用步骤2所设计的指节纹深度学习网络模型进行识别,便可以得到最终的识别结果。
本发明一种非受限状态下的指节纹识别方法,经过实验取得了较好的效果。实验首先对公开的指节纹图像数据集PolyU-FKP中的800余幅未能提取指节纹ROI的图像进行指节纹ROI区域提取,除了极少数出现大幅偏移和歪曲的质量较差的指节纹图像外,均能正确裁切出感兴趣区域的指节纹图像。对于指节纹的识别,采用对PolyU-FKP库中的指节纹图像进行放大、缩小、旋转等生成了26130幅图像;对于每一类使用9张训练图像,3张测试图像进行实验,在学习率为0.005,训练轮数为100轮,Mini-Batch为128的条件下,在放大数据集、缩小数据集及转转数据下的正确识别率分别为99.70%、99.62%和98.23%,总的平均正确识别为99.18%。从以上实验可以看出,所设计的识别方法能够在指节纹图像大小变化及各种旋转等自然情况下,具有非常高的识别率,能够抵抗非受限状态下的光照、缩放及旋转等因素的影响。
通过上述方式,本发明一种非受限状态下的指节纹识别方法,相比较于现有的方法,本发明基于弯曲Gabor的指节纹定位方法更能捕捉指节纹的弯曲纹路信息及指节纹中心线近似对称的特点,定位更为准确,有利于后续的处理及识别;设计的基于空间变换网络的深度学习识别模型,能够克服指节纹旋转、缩放及形变对识别结果的影响,提高了识别的准确率,有利于实际应用。

Claims (3)

1.一种非受限状态下的指节纹识别方法,其特征在于,具体按照以下步骤实施:
步骤1、在非受限状态下采集指节纹图像,并进行预处理和感兴趣区域提取,得到感兴趣指节纹图像;具体过程为:
步骤1.1、采集指节纹图像,对指节纹图像进行二值化处理,得到二值化图像;
步骤1.2、对二值化图像进行连通区域分析,求取最大连通区域的外接矩形,根据该外接矩形的坐标信息从原始采集的指节纹图像中裁切出只含有指节纹的区域图像;
步骤1.3、对只含有指节纹的区域图像进行对比度增强;所述对比度增强方法为对比度受限自适应直方图均衡化法;
步骤1.4、采用基于弯曲Gabor变换的方法,提取对比度增强后的指节纹上的感兴趣区域图像,得到感兴趣指节纹图像;
提取对比度增强后的指节纹上的感兴趣区域图像的具体步骤程为:
步骤1.4.1、所采用的弯曲Gabor滤波器形式为:
其中X=x*cos(θ)+*in(θ)+*(-*sin(θ)+*os(θ))2,Y=-x*sin(θ)+*cos(θ),弯曲度参数c用来模拟指节纹的弯曲纹理;
步骤1.4.2、选取参数σ=20,θ=π,λ=20,ψ=0,γ=1,创建初始的Gabor滤波器,进一步将该滤波器水平镜像并和创建的初始Gabor滤波器进行拼接,以模拟指节纹的纹理对称性,形成最终的指节纹Gabor滤波器;
步骤1.4.3、将对比度增强后的指节纹区域图像与最终的指节纹Gabor滤波器进行卷积;
步骤1.4.4、将卷积后响应最大值的点作为指节纹感兴趣区域的中心点,裁切出220×110大小的区域即为感兴趣指节纹图像;
步骤2、设计卷积神经网络加持空间变换网络的指节纹深度学习网络模型;
所述空间变换网络对感兴趣指节纹图像进行仿射变换,生成统一的规范化的图像;
所述卷积神经网络用来对经空间变换后的指节纹图像进行识别;
步骤3、将感兴趣指节纹图像输入指节纹深度学习网络模型进行训练,得到优化的指节纹深度学习网络模型;
步骤4、对于待识别的指节纹图像,采用步骤1相同的预处理和感兴趣区域提取后,输入优化的指节纹深度学习网络模型进行识别。
2.根据权利要求1所述的一种非受限状态下的指节纹识别方法,其特征在于,所述步骤2的指节纹深度学习网络模型的组成为:输入层为步骤1提取的指节纹ROI区域图像;卷积层1:卷积核个数为8、卷积核大小为5×5、卷积步长为2;卷积层2:卷积核个数为16、卷积核大小为3×3、卷积步长为2;全连接层1:神经元个数为64;全连接层2:神经元个数为6;双线性插值层;卷积层3:卷积核个数为32、卷积核大小为5×5、卷积步长为2;卷积层4:卷积核个数为64、卷积核大小为3×3、卷积步长为2;卷积层5:卷积核个数为128、卷积核大小为3×3、卷积步长为1;卷积层6:卷积核个数为512、卷积核大小为3×3、卷积步长为1;卷积层7:卷积核个数为分类的指节纹个数、卷积核大小为3×3、卷积步长为1;全局平均池化层及Softmax分类层。
3.根据权利要求1所述的一种非受限状态下的指节纹识别方法,其特征在于,所述指节纹深度学习网络模型训练时的损失函数为交叉熵损失函数,优化器为Adam,初始学习率为0.005,Mini-Batch为128,训练轮数为100。
CN202011254486.3A 2020-11-11 2020-11-11 一种非受限状态下的指节纹识别方法 Active CN112434574B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011254486.3A CN112434574B (zh) 2020-11-11 2020-11-11 一种非受限状态下的指节纹识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011254486.3A CN112434574B (zh) 2020-11-11 2020-11-11 一种非受限状态下的指节纹识别方法

Publications (2)

Publication Number Publication Date
CN112434574A CN112434574A (zh) 2021-03-02
CN112434574B true CN112434574B (zh) 2024-04-09

Family

ID=74700373

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011254486.3A Active CN112434574B (zh) 2020-11-11 2020-11-11 一种非受限状态下的指节纹识别方法

Country Status (1)

Country Link
CN (1) CN112434574B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107590497A (zh) * 2017-09-20 2018-01-16 重庆邮电大学 基于深度卷积神经网络的脱机手写汉字识别方法
KR20190014912A (ko) * 2017-08-04 2019-02-13 동국대학교 산학협력단 지정맥 인식 장치 및 방법
CN110348375A (zh) * 2019-07-09 2019-10-18 华南理工大学 一种基于神经网络的手指静脉感兴趣区域检测方法
CN110427832A (zh) * 2019-07-09 2019-11-08 华南理工大学 一种基于神经网络的小数据集手指静脉识别方法
EP3620970A1 (fr) * 2018-09-06 2020-03-11 Idemia Identity & Security France Procédé d'extraction de caractéristiques d'une empreinte digitale représentée par une image d'entrée

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190014912A (ko) * 2017-08-04 2019-02-13 동국대학교 산학협력단 지정맥 인식 장치 및 방법
CN107590497A (zh) * 2017-09-20 2018-01-16 重庆邮电大学 基于深度卷积神经网络的脱机手写汉字识别方法
EP3620970A1 (fr) * 2018-09-06 2020-03-11 Idemia Identity & Security France Procédé d'extraction de caractéristiques d'une empreinte digitale représentée par une image d'entrée
CN110348375A (zh) * 2019-07-09 2019-10-18 华南理工大学 一种基于神经网络的手指静脉感兴趣区域检测方法
CN110427832A (zh) * 2019-07-09 2019-11-08 华南理工大学 一种基于神经网络的小数据集手指静脉识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
何鎏一 ; 杨国为 ; .基于深度学习的光照不均匀文本图像的识别系统.计算机应用与软件.2020,(第06期),全文. *
林坤 ; 雷印杰 ; .基于改进AlexNet卷积神经网络的手掌静脉识别算法研究.现代电子技术.2020,(第07期),全文. *

Also Published As

Publication number Publication date
CN112434574A (zh) 2021-03-02

Similar Documents

Publication Publication Date Title
Bansal et al. The do's and don'ts for cnn-based face verification
WO2021227331A1 (zh) 一种基于地形凹凸特性的指静脉机器学习识别方法及装置
CN111160533B (zh) 一种基于跨分辨率知识蒸馏的神经网络加速方法
CN108694393A (zh) 一种基于深度卷积的证件图像文本区域提取方法
CN110555382A (zh) 一种基于深度学习和Wasserstein距离度量的指静脉识别方法
CN108009472B (zh) 一种基于卷积神经网络和贝叶斯分类器的指背关节纹识别方法
CN111445459A (zh) 一种基于深度孪生网络的图像缺陷检测方法及系统
CN111639560B (zh) 基于静脉骨架线和地形凹凸特性动态融合的指静脉特征提取方法及装置
CN102254188A (zh) 掌纹识别方法及装置
CN107992807A (zh) 一种基于cnn模型的人脸识别方法及装置
CN104091145A (zh) 人体掌脉特征图像采集方法
CN114529950A (zh) 指静脉识别方法、装置、计算机可读存储介质及设备
CN109740552A (zh) 一种基于平行特征金字塔神经网络的目标跟踪方法
CN112036382A (zh) 一种基于地形点分类的指静脉特征提取及识别方法和装置
CN110147769B (zh) 一种手指静脉图像匹配方法
CN106469300A (zh) 一种色斑检测识别方法
CN111612767A (zh) 一种基于视觉的精密结构件识别方法
CN112070009B (zh) 基于改进的lbp算子的卷积神经网络表情识别方法
CN113807237A (zh) 活体检测模型的训练、活体检测方法、计算机设备及介质
CN117809339A (zh) 一种基于可变形卷积编码网络和特征区域关注的人体姿态估计方法
CN113688842A (zh) 一种基于解耦合的局部图像特征提取方法
CN112434574B (zh) 一种非受限状态下的指节纹识别方法
CN115689993A (zh) 基于注意力与多特征融合的皮肤癌图像分割方法及系统
Harjanti et al. Study and research on the identification of the leaves of indonesian herbal medicines using manhattan distance and neural network algorithms
CN105095854B (zh) 低分辨率无接触的在线掌纹匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant