CN117475539B - 一种基于掌纹识别的门禁管理方法及系统 - Google Patents
一种基于掌纹识别的门禁管理方法及系统 Download PDFInfo
- Publication number
- CN117475539B CN117475539B CN202311825669.XA CN202311825669A CN117475539B CN 117475539 B CN117475539 B CN 117475539B CN 202311825669 A CN202311825669 A CN 202311825669A CN 117475539 B CN117475539 B CN 117475539B
- Authority
- CN
- China
- Prior art keywords
- palm print
- palm
- rotation angle
- image
- palmprint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007726 management method Methods 0.000 title claims description 10
- 238000000605 extraction Methods 0.000 claims abstract description 110
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims description 74
- 238000012795 verification Methods 0.000 claims description 30
- 241000287127 Passeridae Species 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 9
- 238000004088 simulation Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 238000010845 search algorithm Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000006978 adaptation Effects 0.000 claims description 3
- 238000004804 winding Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 208000032544 Cicatrix Diseases 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000037387 scars Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
- G07C9/00563—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及门禁管理领域,更具体的说,它涉及一种基于掌纹识别的门禁管理方法及系统。一种基于掌纹识别的门禁管理系统,包括:手掌图片采集模块、掌纹特征提取模型管理模块、待匹配掌纹特征输出模块、掌纹特征匹配模块、门禁控制模块和提醒模块。本发明通过基于深度学习的掌纹区域提取块对手掌中的掌纹区域进行提取,相较于传统基于关键点的方式,对于手掌的不同大小、手掌中的污渍等情况具备更高的适配性;同时本申请通过对不同掌纹图像进行融合,能够拟合用户输入的不同角度的掌纹,在实际运行中具备更高的识别准确率。
Description
技术领域
本发明涉及门禁管理领域,更具体的说,它涉及一种基于掌纹识别的门禁管理方法及系统。
背景技术
掌纹识别技术作为门禁系统中广泛使用的生物特征识别方法,其主要依赖于分析手掌的独特纹理。这种技术通常通过识别掌纹中的关键点信息来定位掌纹所在的具体区域。然而,这种基于关键点信息的识别方式在实际应用中会遇到一些挑战。由于个体间手掌的长度和宽度差异显著,以及手部可能存在的污渍或伤疤,这些因素都可能影响关键点的准确识别,从而导致识别过程中出现较大的误差。
发明内容
本发明通过基于深度学习的掌纹区域提取块对手掌中的掌纹区域进行提取,相较于传统基于关键点的方式,对于手掌的不同大小、手掌中的污渍等情况具备更高的适配性;同时本申请通过对不同掌纹图像进行融合,能够拟合用户输入的不同角度的掌纹,在实际运行中具备更高的识别准确率。
一种基于掌纹识别的门禁管理方法,包括:
获取来自于用户的手掌图片;
将手掌图片送入训练好的掌纹特征提取模型进行处理,输出待匹配掌纹特征;
掌纹特征提取模型包括掌纹区域提取块、多角度掌纹图像生成模块,二进制掌纹图像生成块、多角度二进制掌纹图像融合块和掌纹特征提取块,其中掌纹区域提取块用于从手掌图片中获取掌纹区域;多角度掌纹图像生成模块用于根据掌纹区域从手掌图片中生成不同角度的掌纹图像;二进制掌纹图像生成块用于将掌纹图像进行特征识别,并生成对应的二进制掌纹图像;多角度二进制掌纹图像融合块用于将不同角度的二进制掌纹图像进行融合,得到二进制掌纹特征图;掌纹特征提取块用于基于融合后的二进制掌纹特征图输出待匹配掌纹特征;
将输出的待匹配掌纹特征与本地掌纹特征库进行匹配,本地掌纹特征库中存储用户标签和对应的掌纹特征,若是匹配成功,控制门禁打开;否则,发出提醒信息。
优选地,将手掌图片送入训练好的掌纹特征提取模型进行处理,具体包括如下步骤:
将手掌图片送入掌纹区域提取块进行处理,得到掌纹区域,掌纹区域为位置信息,坐标轴为以手掌图片中左上角为坐标原点,以水平向右为X轴,以竖直向下为Y轴;
将掌纹区域送入多角度掌纹图像生成模块中,再将掌纹区域对手掌图片进行框选,并将框选的部分手掌图片记为掌纹图像F0,掌纹区域生成掌纹区域坐标集,掌纹区域坐标集中存储掌纹区域中所有像素点的掌纹区域坐标,记为fi,其中i=1,2,3…I,i为掌纹区域坐标的编号,I为掌纹区域坐标集中掌纹区域坐标的总个数,并将掌纹区域中心像素点的掌纹坐标记为fcenter;基于旋转角度集将手掌图片绕掌纹坐标fcenter进行旋转,再通过掌纹区域对旋转后的手掌图片进行框选,并将框选的部分手掌图片记为掌纹图像Fn,其中旋转角度集中存储旋转角度θn,每一个旋转角度θn对应一个掌纹图像Fn,n=1,2,3…N,n为旋转角度θn对应的编号,N为旋转角度的总个数,旋转角度θn为手掌图片逆时针旋转的角度,旋转角度集内的所有旋转角度θn通过麻雀搜索算法拟合得到;
将掌纹图像F0与掌纹图像Fn分别送入二进制掌纹图像生成块进行处理,得到掌纹图像F0与掌纹图像Fn对应的二进制掌纹图像G0与二进制掌纹图像Gn;
将二进制掌纹图像G0与二进制掌纹图像Gn送入多角度二进制掌纹图像融合块,构建二进制掌纹特征图,二进制掌纹特征图的大小为L×W×(N+1),其中L和W分别为二进制掌纹特征图的长和宽,(N+1)为二进制掌纹特征图的通道数,且与二进制掌纹图像的总个数一致。
将二进制掌纹特征图送入掌纹特征提取块进行处理,输出待匹配掌纹特征。
优选地,掌纹区域提取块基于Faster-RCNN建立,具体包括卷积层、RPN网络、ROIpooling层和分类层;
针对掌纹区域提取块的训练具体包括如下步骤:
获取通过矩形框标注好掌纹区域的第一训练手掌图片,将所有第一训练手掌图片划分成第一训练集和第一验证集;再将第一训练集送入参数初始化的掌纹区域提取块中进行训练,判断是否满足第一训练条件,若是满足第一训练条件,输出训练好的掌纹区域提取块;否则,继续迭代训练;通过第一验证集对掌纹区域提取块中的超参数进行调整。
优选地,通过掌纹区域对旋转后的手掌图片进行框选,具体包括如下步骤:
将掌纹区域坐标展开为(x(fi),y(fi)),其中x(fi)为掌纹区域坐标fi对应的X轴坐标,y(fi)为掌纹区域坐标fi对应的Y轴坐标;
计算掌纹区域坐标(x(fi),y(fi))对应的旋转前的手掌图片的像素点坐标(xi,yi),且满足如下公式:
其中/>为掌纹坐标fcenter中X轴的坐标值,b为掌纹坐标fcenter中Y轴的坐标值;
由于计算的像素点坐标(xi,yi)并不一定为整数,所以选择距离像素点坐标(xi,yi)最近的四个像素点坐标,并记为(xi_min,yi_min),(xi_max,yi_min),(xi_min,yi_max)和(xi_max,yi_max),根据(xi_min,yi_min),(xi_max,yi_min),(xi_min,yi_max)和(xi_max,yi_max)计算掌纹图像Fn内掌纹区域坐标(x(fi),y(fi))对应的像素值g(x(fi),y(fi)),计算公式如下:
其中g(xi_min,yi_min),g(xi_max,yi_min),g(xi_min,yi_max)和g(xi_max,yi_max)分别为未旋转的手掌图片中坐标点(xi_min,yi_min),(xi_max,yi_min),(xi_min,yi_max)和(xi_max,yi_max)对应的像素值。
优选地,二进制掌纹图像生成块基于U-Net网络建立,包括编码器和解码器;其中解码器中的最后一个激活函数替换为指标函数U;
掌纹特征提取块基于残差网络Resnet50建立,包括一个特征提取层;
针对掌纹特征提取模型的训练包括如下步骤:
向掌纹特征提取模型中的掌纹特征提取块末尾增加softmax分类层,构建待训练掌纹特征提取模型;
获取通过用户标签标注好的第二训练手掌图片;将所有第二训练手掌图片划分成第二训练集和第二验证集;再将第二训练集送入具备固定参数的掌纹区域提取块、二进制掌纹图像生成块和掌纹特征提取块参数初始化的掌纹特征提取模型进行训练,训练期间,以用户标签作为目标条件,判断是否满足第二训练条件,若是满足第二训练条件,输出训练好的掌纹特征提取模型;否则,继续迭代训练;第二验证集用于对掌纹区域提取块和二进制掌纹图像生成块中的超参数进行调整。
优选地,旋转角度集内的所有旋转角度θn通过麻雀搜索算法拟合得到,具体步骤如下;
S1:生成M个模拟旋转角度集Em,模拟旋转角度集Em的存储形式为{θm1,θm2…θmn…θmN},其中θmn为模拟旋转角度集Em中第n个旋转角度;将M个模拟旋转角度集Em组成种群集合;
S2:设置最大迭代次数Q,令q=1,q用于记录迭代次数;
S3:计算种群集合内的所有模拟旋转角度集Em对应的适应度δm,将种群集合内的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列,并将适应度δm最大的模拟旋转角度集Em记为模拟旋转角度集Ebest,将适应度δm最小的模拟旋转角度集Em记为模拟旋转角度集Eworst;再根据划分比例将排列好的所有模拟旋转角度集Em划分为发现者集合和跟随者集合;
S4:针对发现者集合中的所有模拟旋转角度集Em进行更新,更新公式如下:
其中为模拟旋转角度集Em更新后的旋转角度,j为发现者集合中的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列之后对应的序号值;β为位于区间(0,1)的随机数,u1为位于区间(0,1)的预警值,通过随机函数生成,ST为安全值;T为服从正态分布的随机数;B为1×I的矩阵,且矩阵内每个元素均为1;
S5:计算更新后发现者集合中的所有模拟旋转角度集Em的适应度δm,将发现者集合中的适应度值δm最大的模拟旋转角度集Em记为模拟旋转角度集Ep;针对跟随者集合的所有模拟旋转角度集Em进行更新,更新公式如下:
其中θworstn为模拟旋转角度集Eworst中第n个旋转角度,k为跟随者集合中的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列之后对应的序号值,K为跟随者集合中的所有模拟旋转角度集Em的总数;θpn为模拟旋转角度集Epart中第n个旋转角度;
S6:从种群集合中逐个选择模拟旋转角度集Em,针对选择的模拟旋转角度集Em,执行如下内容,通过随机函数生成一个0至1之间的随机数μ,判断“μ>Ptrans”是否成立,Ptrans为警戒阈值,若是“μ>Ptrans”不成立,无操作;否则通过如下公式对选择的模拟旋转角度集Em进行更新:
其中θbestn为模拟旋转角度集Ebest中第i项模拟控制参数,ε为步长调整系数,δbest为模拟旋转角度集Ebest对应的适应度值,λ为区间[-1,1]内的均匀随机数,δworst为模拟旋转角度集Eworst对应的适应度值;σ为一个小常数;
步骤S4、步骤S5和步骤S6中对于模拟旋转角度集Em的更新需要满足更新后的位于((n-1)π/N,nπ/N)区间内,否则重新进行更新;
S7:计算种群集合内的所有模拟旋转角度集Em对应的适应度δm,将种群集合内的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列,并将适应度δm最大的模拟旋转角度集Em记为模拟旋转角度集Ebest,将适应度δm最小的模拟旋转角度集Em记为模拟旋转角度集Eworst;将模拟旋转角度集Ebest存入最优模拟旋转角度库中,根据划分比例将排列好的所有模拟旋转角度集Em划分为发现者集合和跟随者集合;
S8:判断“q<Q”是否成立,若是“q<Q”成立,回到S4;否则,进入S9;
S9:将最优模拟旋转角度库中适应度δm最大的模拟旋转角度集Em中的所有旋转角度θn进行输出。
优选地,生成M个模拟旋转角度集Em,具体包括如下步骤:
S1.1:建立一个空的中间集合D,中间集合D的长度为N,中间集合D的存储形式为{d1,d2…dn…dN},逐个选择元素dn,针对选择的元素dn,选择一个位于((n-1)π/N,nπ/N)区间内的随机数对元素di进行赋值,当中间集合D中全部元素被赋值后,将中间集合D记为模拟旋转角度集Em;
S1.2:重复M次步骤S1.1,生成M个模拟旋转角度集Em;
计算种群集合内的所有模拟旋转角度集Em对应的适应度δm,具体为:将模拟旋转角度集Em送入掌纹特征提取模型中,并通过第二验证集对掌纹特征提取模型进行验证,同时输出验证过程中掌纹特征提取模型输出的损失值ζr,r=1,2,3…R,r为第二验证集中第二训练手掌图片对应的编号,R为第二验证集中第二训练手掌图片的总数量,计算模拟旋转角度集Em对应的适应度。
优选地,还包括对旋转角度的进一步优化,具体步骤如下:不断采集用户输入的手掌图片,当用户输入的手掌图片达到A张时,A为图片阈值,将A张用户输入的手掌图片重新组成第二验证集,并以此第二验证集对所有旋转角度θn进一步进行麻雀搜索算法模拟优化。
优选地,将输出的待匹配掌纹特征与本地掌纹特征库进行匹配,具体为:逐个计算待匹配掌纹特征与本地掌纹特征库中掌纹特征的相似度η,判断“η>C”是否成立,C为相似度阈值,若是“η>C”成立,控制门禁打开;否则继续计算待匹配掌纹特征与本地掌纹特征库中下一个掌纹特征的相似度η;若是本地掌纹特征库中的所有掌纹特征都被遍历完之后,不存在“η>C”的情况,发出提醒信息。
一种基于掌纹识别的门禁管理系统,包括:
手掌图片采集模块,用于获取来自于用户的手掌图片;
掌纹特征提取模型管理模块,用于存储和训练掌纹特征提取模型;
待匹配掌纹特征输出模块,用于将手掌图片送入训练好的掌纹特征提取模型进行处理,输出待匹配掌纹特征;
掌纹特征匹配模块,用于将输出的待匹配掌纹特征与本地掌纹特征库进行匹配,本地掌纹特征库中存储用户标签和对应的掌纹特征;
门禁控制模块,用于当输出的待匹配掌纹特征与本地掌纹特征库匹配成功时,控制门禁打开;
提醒模块,用于当输出的待匹配掌纹特征与本地掌纹特征库匹配失败时,发出提醒信息。
本发明具有以下优点:
1、本发明通过基于深度学习的掌纹区域提取块对手掌中的掌纹区域进行提取,相较于传统基于关键点的方式,对于手掌的不同大小、手掌中的污渍等情况具备更高的适配性;同时本申请通过对不同掌纹图像进行融合,能够拟合用户输入的不同角度的掌纹,在实际运行中具备更高的识别准确率。
2、本发明通过麻雀搜索算法对旋转角度进行优化,使得训练好的掌纹特征提取模型能够更加贴合实际用户输入的手掌图片的不同角度,进一步提升掌纹特征提取模型的准确率。
附图说明
图1为本发明实施例采用的基于掌纹识别的门禁管理系统的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
实施例
一种基于掌纹识别的门禁管理方法,包括:
获取来自于用户的手掌图片,需要说明的是,此处获取的手掌图片可以是用户通过接触的形式或者非接触的形式进行输入的,且由设置在门禁处的掌纹识别设备进行采集,不过,由于非接触的形式更加卫生,且避免了手掌与采集设备接触时由于挤压产生的褶皱对后续掌纹识别的影响,本实施例中都是以非接触的形式获取的掌纹图片;
将手掌图片送入训练好的掌纹特征提取模型进行处理,输出待匹配掌纹特征;
掌纹特征提取模型包括掌纹区域提取块、多角度掌纹图像生成模块,二进制掌纹图像生成块、多角度二进制掌纹图像融合块和掌纹特征提取块,其中掌纹区域提取块用于从手掌图片中获取掌纹区域,需要说明的是,掌纹区域提取块基于Faster-RCNN建立,通过深度学习从手掌图片照片中获取掌纹区域,与常用的基于关键点获取掌纹区域的方式不同;多角度掌纹图像生成模块用于根据掌纹区域从手掌图片中生成不同角度的掌纹图像;二进制掌纹图像生成块基于U-Net网络建立,用于将掌纹图像进行特征识别,并生成对应的二进制掌纹图像;多角度二进制掌纹图像融合块用于将不同角度的二进制掌纹图像进行融合,得到二进制掌纹特征图,能够实现拟合实际掌纹识别过程中用户输入的不同角度的掌纹,进而提升识别的准确率;掌纹特征提取块基于残差网络Resnet50建立,用于基于融合后的二进制掌纹特征图输出待匹配掌纹特征;
将输出的待匹配掌纹特征与本地掌纹特征库进行匹配,本地掌纹特征库中存储用户标签和对应的掌纹特征,若是匹配成功,说明对应用户具备开启此门禁的权限,控制门禁打开;否则,说明对应用户不具备开启此门禁的权限,发出提醒信息,例如“识别失败”等;
本申请通过基于深度学习的掌纹区域提取块对手掌中的掌纹区域进行提取,相较于传统基于关键点的方式,对于手掌的不同大小、手掌中的污渍等情况具备更高的适配性;同时本申请通过对不同掌纹图像进行融合,能够拟合用户输入的不同角度的掌纹,在实际运行中具备更高的识别准确率。
将手掌图片送入训练好的掌纹特征提取模型进行处理,具体包括如下步骤:
将手掌图片送入掌纹区域提取块进行处理,得到掌纹区域,掌纹区域为位置信息,例如(x,y,w,h)其中(x,y)为掌纹区域的中心点坐标,w为掌纹区域的宽,h为掌纹区域的高,抑或是{(xmin,ymin),(xmax,ymax)}其中xmin为掌纹区域中X轴坐标最小值,xmax为掌纹区域中X轴坐标最大值,ymin为掌纹区域中Y轴坐标最小值,ymax为掌纹区域中Y轴坐标最大值,(xmin,ymin)为掌纹区域左上角的坐标,(xmax,ymax)为掌纹区域的右下角坐标,此时坐标轴为以手掌图片中左上角为坐标原点,以水平向右为X轴,以竖直向下为Y轴;
将掌纹区域送入多角度掌纹图像生成模块中,再将掌纹区域对手掌图片进行框选,并将框选的部分手掌图片记为掌纹图像F0,掌纹区域生成掌纹区域坐标集,掌纹区域坐标集中存储掌纹区域中所有像素点的掌纹区域坐标,记为fi,其中i=1,2,3…I,i为掌纹区域坐标的编号,I为掌纹区域坐标集中掌纹区域坐标的总个数,并将掌纹区域中心像素点的掌纹坐标记为fcenter,需要说明的是,在生成掌纹区域坐标集的过程,具体可以为从左至右,从上至下遍历掌纹区域,将选择的像素点坐标存入掌纹区域坐标集;基于旋转角度集将手掌图片绕掌纹坐标fcenter进行旋转,再通过掌纹区域对旋转后的手掌图片进行框选,并将框选的部分手掌图片记为掌纹图像Fn,其中旋转角度集中存储旋转角度θn,每一个旋转角度θn对应一个掌纹图像Fn,n=1,2,3…N,n为旋转角度θn对应的编号,N为旋转角度的总个数,且N为超参数,由用户进行设定,一般来说,N值越大,训练难度越高,处理数据量越多,但是错误率越低,旋转角度θn为手掌图片逆时针旋转的角度,旋转角度集内的所有旋转角度θn通过麻雀搜索算法拟合得到;
将掌纹图像F0与掌纹图像Fn分别送入二进制掌纹图像生成块进行处理,得到掌纹图像F0与掌纹图像Fn对应的二进制掌纹图像G0与二进制掌纹图像Gn;
将二进制掌纹图像G0与二进制掌纹图像Gn送入多角度二进制掌纹图像融合块,构建二进制掌纹特征图,二进制掌纹特征图的大小为L×W×(N+1),其中L和W分别为二进制掌纹特征图的长和宽,(N+1)为二进制掌纹特征图的通道数,且与二进制掌纹图像的总个数一致;
将二进制掌纹特征图送入掌纹特征提取块进行处理,输出待匹配掌纹特征。
掌纹区域提取块基于Faster-RCNN建立,具体包括卷积层、RPN网络、ROI pooling层和分类层,其中卷积层用于对手掌图片进行特征提取,RPN网络用于选择感兴趣区域,ROIpooling层用于从手掌图片中划分掌纹区域,分类层用于输出对应区域为掌纹区域的置信度以及掌纹区域的位置,所需要输出的信息也是其中的掌纹区域的位置信息;
针对掌纹区域提取块的训练具体包括如下步骤:
获取通过矩形框标注好掌纹区域的第一训练手掌图片,需要说明的是,第一训练手掌图片可以来自于已授权的开源生物特征库,针对开源生物特征库的使用符合国家相关法律规定,并且通过人工或者其他方式对第一训练手掌图片中的掌纹区域进行标注,将所有第一训练手掌图片划分成第一训练集和第一验证集;再将第一训练集送入参数初始化的掌纹区域提取块中进行训练,判断是否满足第一训练条件,第一训练条件可以为计算训练过程中损失值,判断损失值在预期范围内,若是满足第一训练条件,输出训练好的掌纹区域提取块;否则,继续迭代训练;通过第一验证集对掌纹区域提取块中的超参数进行调整;
通过掌纹区域对旋转后的手掌图片进行框选,具体包括如下步骤:
将掌纹区域坐标展开为(x(fi),y(fi)),其中x(fi)为掌纹区域坐标fi对应的X轴坐标,y(fi)为掌纹区域坐标fi对应的Y轴坐标;
计算掌纹区域坐标(x(fi),y(fi))对应的旋转前的手掌图片的像素点坐标(xi,yi),且满足如下公式:
其中/>为掌纹坐标fcenter中X轴的坐标值,b为掌纹坐标fcenter中Y轴的坐标值;
由于计算的像素点坐标(xi,yi)并不一定为整数,所以选择距离像素点坐标(xi,yi)最近的四个像素点坐标,并记为(xi_min,yi_min),(xi_max,yi_min),(xi_min,yi_max)和(xi_max,yi_max),根据(xi_min,yi_min),(xi_max,yi_min),(xi_min,yi_max)和(xi_max,yi_max)计算掌纹图像Fn内掌纹区域坐标(x(fi),y(fi))对应的像素值g(x(fi),y(fi)),计算公式如下:
其中g(xi_min,yi_min),g(xi_max,yi_min),g(xi_min,yi_max)和g(xi_max,yi_max)分别为未旋转的手掌图片中坐标点(xi_min,yi_min),(xi_max,yi_min),(xi_min,yi_max)和(xi_max,yi_max)对应的像素值;
二进制掌纹图像生成块基于U-Net网络建立,包括编码器和解码器,其中解码器中的最后一个激活函数替换为指标函数U,需要说明的是,传统的U-Net网络中解码器的最后一层采用的激活函数为ReLU,而本申请为了生成二进制图像,强化掌纹特征,将解码器的最后一层的激活函数替换为指标函数U,指标函数U为当一个像素点对应的像素值超过操作人员设定的像素阈值时,将此像素点的像素值赋值为1,否则,赋值为0,且通常定义像素值1为黑色,像素值0为白色;
掌纹特征提取块基于残差网络Resnet50建立,包括一个特征提取层,需要说明的是,掌纹特征提取块相较于传统的残差网络Resnet50去除了最后的softmax层,即指具备特征提取功能;
针对掌纹特征提取模型的训练包括如下步骤:
向掌纹特征提取模型中的掌纹特征提取块末尾增加softmax分类层,构建待训练掌纹特征提取模型;
获取通过用户标签标注好的第二训练手掌图片,需要说明的是,第二训练手掌图片的标注方式是指通过每一个第二训练手掌图片所述的用户名称进行标注;将所有第二训练手掌图片划分成第二训练集和第二验证集;再将第二训练集送入具备固定参数的掌纹区域提取块、二进制掌纹图像生成块和掌纹特征提取块参数初始化的掌纹特征提取模型进行训练,训练期间,以用户标签作为目标条件,判断是否满足第二训练条件,第二训练条件可以为判断计算的损失值是否位于预期范围内,若是满足第二训练条件,输出训练好的掌纹特征提取模型;否则,继续迭代训练;第二验证集用于对掌纹区域提取块和二进制掌纹图像生成块中的超参数进行调整。
旋转角度集内的所有旋转角度θn通过麻雀搜索算法拟合得到,具体步骤如下;
S1:生成M个模拟旋转角度集Em,模拟旋转角度集Em的存储形式为{θm1,θm2…θmn…θmN},其中θmn为模拟旋转角度集Em中第n个旋转角度;将M个模拟旋转角度集Em组成种群集合;
生成M个模拟旋转角度集Em,具体包括如下步骤:
S1.1:建立一个空的中间集合D,中间集合D的长度为N,中间集合D的存储形式为{d1,d2…dn…dN},逐个选择元素dn,针对选择的元素dn,选择一个位于((n-1)π/N,nπ/N)区间内的随机数对元素di进行赋值,当中间集合D中全部元素被赋值后,将中间集合D记为模拟旋转角度集Em;
S1.2:重复M次步骤S1.1,生成M个模拟旋转角度集Em;
S2:设置最大迭代次数Q,令q=1,q用于记录迭代次数;
S3:计算种群集合内的所有模拟旋转角度集Em对应的适应度δm,将种群集合内的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列,并将适应度δm最大的模拟旋转角度集Em记为模拟旋转角度集Ebest,将适应度δm最小的模拟旋转角度集Em记为模拟旋转角度集Eworst;再根据划分比例将排列好的所有模拟旋转角度集Em划分为发现者集合和跟随者集合,划分比例人为设定,一般么为2:8;
计算种群集合内的所有模拟旋转角度集Em对应的适应度δm,具体为:将模拟旋转角度集Em送入掌纹特征提取模型中,并通过第二验证集对掌纹特征提取模型进行验证,同时输出验证过程中掌纹特征提取模型输出的损失值ζr,r=1,2,3…R,r为第二验证集中第二训练手掌图片对应的编号,R为第二验证集中第二训练手掌图片的总数量,计算模拟旋转角度集Em对应的适应度;
S4:针对发现者集合中的所有模拟旋转角度集Em进行更新,更新公式如下:
其中为模拟旋转角度集Em更新后的旋转角度,j为发现者集合中的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列之后对应的序号值;β为位于区间(0,1)的随机数,通过随机函数生成,u1为位于区间(0,1)的预警值,通过随机函数生成,ST为安全值,由用户提前设定;T为服从正态分布的随机数;B为1×I的矩阵,且矩阵内每个元素均为1;
S5:计算更新后发现者集合中的所有模拟旋转角度集Em的适应度δm,将发现者集合中的适应度值δm最大的模拟旋转角度集Em记为模拟旋转角度集Ep;针对跟随者集合的所有模拟旋转角度集Em进行更新,更新公式如下:
其中θworstn为模拟旋转角度集Eworst中第n个旋转角度,k为跟随者集合中的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列之后对应的序号值,K为跟随者集合中的所有模拟旋转角度集Em的总数;θpn为模拟旋转角度集Epart中第n个旋转角度;
S6:从种群集合中逐个选择模拟旋转角度集Em,针对选择的模拟旋转角度集Em,执行如下内容,通过随机函数生成一个0至1之间的随机数μ,判断“μ>Ptrans”是否成立,Ptrans为警戒阈值,由用户设定,可以设置为0.7,若是“μ>Ptrans”不成立,无操作;否则通过如下公式对选择的模拟旋转角度集Em进行更新:
其中θbestn为模拟旋转角度集Ebest中第i项模拟控制参数,ε为步长调整系数,具体为一个正态分布随机数,且均值为0,方差为1,λ为区间[-1,1]内的均匀随机数,δbest为模拟旋转角度集Ebest对应的适应度值,δworst为模拟旋转角度集Eworst对应的适应度值;σ为一个小常数;
步骤S4、步骤S5和步骤S6中对于模拟旋转角度集Em的更新需要满足更新后的位于((n-1)π/N,nπ/N)区间内,否则重新进行更新;
S7:计算种群集合内的所有模拟旋转角度集Em对应的适应度δm,将种群集合内的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列,并将适应度δm最大的模拟旋转角度集Em记为模拟旋转角度集Ebest,将适应度δm最小的模拟旋转角度集Em记为模拟旋转角度集Eworst;将模拟旋转角度集Ebest存入最优模拟旋转角度库中,根据划分比例将排列好的所有模拟旋转角度集Em划分为发现者集合和跟随者集合;
S8:判断“q<Q”是否成立,若是“q<Q”成立,说明还未达到最大迭代次数,回到S4;否则,说明已经达到最大迭代次数,进入S9;
S9:将最优模拟旋转角度库中适应度δm最大的模拟旋转角度集Em中的所有旋转角度θn进行输出。
同时,还包括对旋转角度的进一步优化,具体步骤如下:不断采集用户输入的手掌图片,当用户输入的手掌图片达到A张时,A为图片阈值,由用户进行提前设定,将A张用户输入的手掌图片重新组成第二验证集,并以此第二验证集对所有旋转角度θn进一步进行麻雀搜索算法模拟优化。
本申请通过麻雀搜索算法对旋转角度进行优化,使得训练好的掌纹特征提取模型能够更加贴合实际用户输入的手掌图片的不同角度,进一步提升掌纹特征提取模型的准确率。
将输出的待匹配掌纹特征与本地掌纹特征库进行匹配,具体为:逐个计算待匹配掌纹特征与本地掌纹特征库中掌纹特征的相似度η,可以采用余弦相似度算法,判断“η>C”是否成立,C为相似度阈值,由用户提前进行设置,若是“η>C”成立,说明对应用户具备开启此门禁的权限,控制门禁打开;否则继续计算待匹配掌纹特征与本地掌纹特征库中下一个掌纹特征的相似度η;若是本地掌纹特征库中的所有掌纹特征都被遍历完之后,不存在“η>C”的情况,说明对应用户不具备开启此门禁的权限,发出提醒信息。
实施例
一种基于掌纹识别的门禁管理系统,参见图1,包括:
手掌图片采集模块,用于获取来自于用户的手掌图片;
掌纹特征提取模型管理模块,用于存储和训练掌纹特征提取模型;
待匹配掌纹特征输出模块,用于将手掌图片送入训练好的掌纹特征提取模型进行处理,输出待匹配掌纹特征;
掌纹特征匹配模块,用于将输出的待匹配掌纹特征与本地掌纹特征库进行匹配,本地掌纹特征库中存储用户标签和对应的掌纹特征;
门禁控制模块,用于当输出的待匹配掌纹特征与本地掌纹特征库匹配成功时,控制门禁打开;
提醒模块,用于当输出的待匹配掌纹特征与本地掌纹特征库匹配失败时,发出提醒信息。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。本说明书中未作详细描述的部分属于本领域专业技术人员公知的现有技术。
Claims (8)
1.一种基于掌纹识别的门禁管理方法,其特征在于,包括:
获取来自于用户的手掌图片;
将手掌图片送入训练好的掌纹特征提取模型进行处理,输出待匹配掌纹特征;
掌纹特征提取模型包括掌纹区域提取块、多角度掌纹图像生成模块,二进制掌纹图像生成块、多角度二进制掌纹图像融合块和掌纹特征提取块,其中掌纹区域提取块用于从手掌图片中获取掌纹区域;多角度掌纹图像生成模块用于根据掌纹区域从手掌图片中生成不同角度的掌纹图像;二进制掌纹图像生成块用于将掌纹图像进行特征识别,并生成对应的二进制掌纹图像;多角度二进制掌纹图像融合块用于将不同角度的二进制掌纹图像进行融合,得到二进制掌纹特征图;掌纹特征提取块用于基于融合后的二进制掌纹特征图输出待匹配掌纹特征;
将输出的待匹配掌纹特征与本地掌纹特征库进行匹配,本地掌纹特征库中存储用户标签和对应的掌纹特征,若是匹配成功,控制门禁打开;否则,发出提醒信息;
将手掌图片送入训练好的掌纹特征提取模型进行处理,具体包括如下步骤:
将手掌图片送入掌纹区域提取块进行处理,得到掌纹区域,掌纹区域为位置信息,坐标轴为以手掌图片中左上角为坐标原点,以水平向右为X轴,以竖直向下为Y轴;
将掌纹区域送入多角度掌纹图像生成模块中,再将掌纹区域对手掌图片进行框选,并将框选的部分手掌图片记为掌纹图像F0,掌纹区域生成掌纹区域坐标集,掌纹区域坐标集中存储掌纹区域中所有像素点的掌纹区域坐标,记为fi,其中i=1,2,3…I,i为掌纹区域坐标的编号,I为掌纹区域坐标集中掌纹区域坐标的总个数,并将掌纹区域中心像素点的掌纹坐标记为fcenter;基于旋转角度集将手掌图片绕掌纹坐标fcenter进行旋转,再通过掌纹区域对旋转后的手掌图片进行框选,并将框选的部分手掌图片记为掌纹图像Fn,其中旋转角度集中存储旋转角度θn,每一个旋转角度θn对应一个掌纹图像Fn,n=1,2,3…N,n为旋转角度θn对应的编号,N为旋转角度的总个数,旋转角度θn为手掌图片逆时针旋转的角度,旋转角度集内的所有旋转角度θn通过麻雀搜索算法拟合得到;
将掌纹图像F0与掌纹图像Fn分别送入二进制掌纹图像生成块进行处理,得到掌纹图像F0与掌纹图像Fn对应的二进制掌纹图像G0与二进制掌纹图像Gn;
将二进制掌纹图像G0与二进制掌纹图像Gn送入多角度二进制掌纹图像融合块,构建二进制掌纹特征图,二进制掌纹特征图的大小为L×W×(N+1),其中L和W分别为二进制掌纹特征图的长和宽,(N+1)为二进制掌纹特征图的通道数,且与二进制掌纹图像的总个数一致;
将二进制掌纹特征图送入掌纹特征提取块进行处理,输出待匹配掌纹特征;
掌纹区域提取块基于Faster-RCNN建立,具体包括卷积层、RPN网络、ROI pooling层和分类层;
针对掌纹区域提取块的训练具体包括如下步骤:
获取通过矩形框标注好掌纹区域的第一训练手掌图片,将所有第一训练手掌图片划分成第一训练集和第一验证集;再将第一训练集送入参数初始化的掌纹区域提取块中进行训练,判断是否满足第一训练条件,若是满足第一训练条件,输出训练好的掌纹区域提取块;否则,继续迭代训练;通过第一验证集对掌纹区域提取块中的超参数进行调整。
2.根据权利要求1所述的一种基于掌纹识别的门禁管理方法,其特征在于,通过掌纹区域对旋转后的手掌图片进行框选,具体包括如下步骤:
将掌纹区域坐标展开为(x(fi),y(fi)),其中x(fi)为掌纹区域坐标fi对应的X轴坐标,y(fi)为掌纹区域坐标fi对应的Y轴坐标;
计算掌纹区域坐标(x(fi),y(fi))对应的旋转前的手掌图片的像素点坐标(xi,yi),且满足如下公式:其中/>为掌纹坐标fcenter中X轴的坐标值,b为掌纹坐标fcenter中Y轴的坐标值;
由于计算的像素点坐标(xi,yi)并不一定为整数,所以选择距离像素点坐标(xi,yi)最近的四个像素点坐标,并记为(xi_min,yi_min),(xi_max,yi_min),(xi_min,yi_max)和(xi_max,yi_max),根据(xi_min,yi_min),(xi_max,yi_min),(xi_min,yi_max)和(xi_max,yi_max)计算掌纹图像Fn内掌纹区域坐标(x(fi),y(fi))对应的像素值g(x(fi),y(fi)),计算公式如下:
其中g(xi_min,yi_min),g(xi_max,yi_min),g(xi_min,yi_max)和g(xi_max,yi_max)分别为未旋转的手掌图片中坐标点(xi_min,yi_min),(xi_max,yi_min),(xi_min,yi_max)和(xi_max,yi_max)对应的像素值。
3.根据权利要求2所述的一种基于掌纹识别的门禁管理方法,其特征在于,二进制掌纹图像生成块基于U-Net网络建立,包括编码器和解码器;其中解码器中的最后一个激活函数替换为指标函数U;
掌纹特征提取块基于残差网络Resnet50建立,包括一个特征提取层;
针对掌纹特征提取模型的训练包括如下步骤:
向掌纹特征提取模型中的掌纹特征提取块末尾增加softmax分类层,构建待训练掌纹特征提取模型;
获取通过用户标签标注好的第二训练手掌图片;将所有第二训练手掌图片划分成第二训练集和第二验证集;再将第二训练集送入具备固定参数的掌纹区域提取块、二进制掌纹图像生成块和掌纹特征提取块参数初始化的掌纹特征提取模型进行训练,训练期间,以用户标签作为目标条件,判断是否满足第二训练条件,若是满足第二训练条件,输出训练好的掌纹特征提取模型;否则,继续迭代训练;第二验证集用于对掌纹区域提取块和二进制掌纹图像生成块中的超参数进行调整。
4.根据权利要求3所述的一种基于掌纹识别的门禁管理方法,其特征在于,旋转角度集内的所有旋转角度θn通过麻雀搜索算法拟合得到,具体步骤如下;
S1:生成M个模拟旋转角度集Em,模拟旋转角度集Em的存储形式为{θm1,θm2…θmn…θmN},其中θmn为模拟旋转角度集Em中第n个旋转角度;将M个模拟旋转角度集Em组成种群集合;
S2:设置最大迭代次数Q,令q=1,q用于记录迭代次数;
S3:计算种群集合内的所有模拟旋转角度集Em对应的适应度δm,将种群集合内的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列,并将适应度δm最大的模拟旋转角度集Em记为模拟旋转角度集Ebest,将适应度δm最小的模拟旋转角度集Em记为模拟旋转角度集Eworst;再根据划分比例将排列好的所有模拟旋转角度集Em划分为发现者集合和跟随者集合;
S4:针对发现者集合中的所有模拟旋转角度集Em进行更新,更新公式如下:
其中/>为模拟旋转角度集Em更新后的旋转角度,j为发现者集合中的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列之后对应的序号值;β为位于区间(0,1)的随机数,u1为位于区间(0,1)的预警值,通过随机函数生成,ST为安全值;T为服从正态分布的随机数;B为1×I的矩阵,且矩阵内每个元素均为1;
S5:计算更新后发现者集合中的所有模拟旋转角度集Em的适应度δm,将发现者集合中的适应度值δm最大的模拟旋转角度集Em记为模拟旋转角度集Ep;针对跟随者集合的所有模拟旋转角度集Em进行更新,更新公式如下:
其中θworstn为模拟旋转角度集Eworst中第n个旋转角度,k为跟随者集合中的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列之后对应的序号值,K为跟随者集合中的所有模拟旋转角度集Em的总数;θpn为模拟旋转角度集Epart中第n个旋转角度;
S6:从种群集合中逐个选择模拟旋转角度集Em,针对选择的模拟旋转角度集Em,执行如下内容,通过随机函数生成一个0至1之间的随机数μ,判断“μ>Ptrans”是否成立,Ptrans为警戒阈值,若是“μ>Ptrans”不成立,无操作;否则通过如下公式对选择的模拟旋转角度集Em进行更新:
其中θbestn为模拟旋转角度集Ebest中第i项模拟控制参数,ε为步长调整系数,δbest为模拟旋转角度集Ebest对应的适应度值,λ为区间[-1,1]内的均匀随机数,δworst为模拟旋转角度集Eworst对应的适应度值;σ为一个小常数;
步骤S4、步骤S5和步骤S6中对于模拟旋转角度集Em的更新需要满足更新后的位于((n-1)π/N,nπ/N)区间内,否则重新进行更新;
S7:计算种群集合内的所有模拟旋转角度集Em对应的适应度δm,将种群集合内的所有模拟旋转角度集Em按照适应度δm从大到小的顺序排列,并将适应度δm最大的模拟旋转角度集Em记为模拟旋转角度集Ebest,将适应度δm最小的模拟旋转角度集Em记为模拟旋转角度集Eworst;将模拟旋转角度集Ebest存入最优模拟旋转角度库中,根据划分比例将排列好的所有模拟旋转角度集Em划分为发现者集合和跟随者集合;
S8:判断“q<Q”是否成立,若是“q<Q”成立,回到S4;否则,进入S9;
S9:将最优模拟旋转角度库中适应度δm最大的模拟旋转角度集Em中的所有旋转角度θn进行输出。
5.根据权利要求4所述的一种基于掌纹识别的门禁管理方法,其特征在于,生成M个模拟旋转角度集Em,具体包括如下步骤:
S1.1:建立一个空的中间集合D,中间集合D的长度为N,中间集合D的存储形式为{d1,d2…dn…dN},逐个选择元素dn,针对选择的元素dn,选择一个位于((n-1)π/N,nπ/N)区间内的随机数对元素di进行赋值,当中间集合D中全部元素被赋值后,将中间集合D记为模拟旋转角度集Em;
S1.2:重复M次步骤S1.1,生成M个模拟旋转角度集Em;
计算种群集合内的所有模拟旋转角度集Em对应的适应度δm,具体为:将模拟旋转角度集Em送入掌纹特征提取模型中,并通过第二验证集对掌纹特征提取模型进行验证,同时输出验证过程中掌纹特征提取模型输出的损失值ζr,r=1,2,3…R,r为第二验证集中第二训练手掌图片对应的编号,R为第二验证集中第二训练手掌图片的总数量,计算模拟旋转角度集Em对应的适应度。
6.根据权利要求5所述的一种基于掌纹识别的门禁管理方法,其特征在于,还包括对旋转角度的进一步优化,具体步骤如下:不断采集用户输入的手掌图片,当用户输入的手掌图片达到A张时,A为图片阈值,将A张用户输入的手掌图片重新组成第二验证集,并以此第二验证集对所有旋转角度θn进一步进行麻雀搜索算法模拟优化。
7.根据权利要求6所述的一种基于掌纹识别的门禁管理方法,其特征在于,将输出的待匹配掌纹特征与本地掌纹特征库进行匹配,具体为:逐个计算待匹配掌纹特征与本地掌纹特征库中掌纹特征的相似度η,判断“η>C”是否成立,C为相似度阈值,若是“η>C”成立,控制门禁打开;否则继续计算待匹配掌纹特征与本地掌纹特征库中下一个掌纹特征的相似度η;若是本地掌纹特征库中的所有掌纹特征都被遍历完之后,不存在“η>C”的情况,发出提醒信息。
8.一种基于掌纹识别的门禁管理系统,其特征在于,所述系统应用上述权利要求1-7任一项所述的一种基于掌纹识别的门禁管理方法,包括:
手掌图片采集模块,用于获取来自于用户的手掌图片;
掌纹特征提取模型管理模块,用于存储和训练掌纹特征提取模型;
待匹配掌纹特征输出模块,用于将手掌图片送入训练好的掌纹特征提取模型进行处理,输出待匹配掌纹特征;
掌纹特征匹配模块,用于将输出的待匹配掌纹特征与本地掌纹特征库进行匹配,本地掌纹特征库中存储用户标签和对应的掌纹特征;
门禁控制模块,用于当输出的待匹配掌纹特征与本地掌纹特征库匹配成功时,控制门禁打开;
提醒模块,用于当输出的待匹配掌纹特征与本地掌纹特征库匹配失败时,发出提醒信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311825669.XA CN117475539B (zh) | 2023-12-28 | 2023-12-28 | 一种基于掌纹识别的门禁管理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311825669.XA CN117475539B (zh) | 2023-12-28 | 2023-12-28 | 一种基于掌纹识别的门禁管理方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117475539A CN117475539A (zh) | 2024-01-30 |
CN117475539B true CN117475539B (zh) | 2024-04-12 |
Family
ID=89624184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311825669.XA Active CN117475539B (zh) | 2023-12-28 | 2023-12-28 | 一种基于掌纹识别的门禁管理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117475539B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101055618A (zh) * | 2007-06-21 | 2007-10-17 | 中国科学院合肥物质科学研究院 | 基于方向特征的掌纹识别方法 |
CN109829368A (zh) * | 2018-12-24 | 2019-05-31 | 平安科技(深圳)有限公司 | 手掌特征的识别方法、装置、计算机设备及存储介质 |
WO2021082684A1 (zh) * | 2019-10-30 | 2021-05-06 | 平安科技(深圳)有限公司 | 一种掌纹验证方法、装置、计算机设备及可读存储介质 |
CN116501168A (zh) * | 2023-04-13 | 2023-07-28 | 南京航空航天大学 | 基于混沌麻雀搜索优化模糊pid参数的无人机手势控制方法及控制系统 |
-
2023
- 2023-12-28 CN CN202311825669.XA patent/CN117475539B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101055618A (zh) * | 2007-06-21 | 2007-10-17 | 中国科学院合肥物质科学研究院 | 基于方向特征的掌纹识别方法 |
CN109829368A (zh) * | 2018-12-24 | 2019-05-31 | 平安科技(深圳)有限公司 | 手掌特征的识别方法、装置、计算机设备及存储介质 |
WO2021082684A1 (zh) * | 2019-10-30 | 2021-05-06 | 平安科技(深圳)有限公司 | 一种掌纹验证方法、装置、计算机设备及可读存储介质 |
CN116501168A (zh) * | 2023-04-13 | 2023-07-28 | 南京航空航天大学 | 基于混沌麻雀搜索优化模糊pid参数的无人机手势控制方法及控制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117475539A (zh) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112232241B (zh) | 一种行人重识别方法、装置、电子设备和可读存储介质 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
US11893781B2 (en) | Dual deep learning architecture for machine-learning systems | |
CN110837870B (zh) | 基于主动学习的声呐图像目标识别方法 | |
JP6708385B2 (ja) | 識別器作成装置、識別器作成方法、およびプログラム | |
CN109934847B (zh) | 弱纹理三维物体姿态估计的方法和装置 | |
US20050190963A1 (en) | Target object detecting method, apparatus, and program | |
WO2020164278A1 (zh) | 一种图像处理方法、装置、电子设备和可读存储介质 | |
CN109800756B (zh) | 一种用于中文历史文献密集文本的文字检测识别方法 | |
CN111985469B (zh) | 一种图像中文字的识别方法、装置及电子设备 | |
CN113111716B (zh) | 一种基于深度学习的遥感影像半自动标注方法和装置 | |
CN116935447B (zh) | 基于自适应师生结构的无监督域行人重识别方法及系统 | |
CN111488911A (zh) | 基于Mask R-CNN与GAN的图像实体抽取方法 | |
CN112861785A (zh) | 一种基于实例分割和图像修复的带遮挡行人重识别方法 | |
CN111126155B (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN112070181B (zh) | 一种基于图像流的协同检测方法及装置、存储介质 | |
CN117475539B (zh) | 一种基于掌纹识别的门禁管理方法及系统 | |
CN115984646B (zh) | 面向遥感跨卫星观测的分布式目标检测方法、装置和卫星 | |
CN111062406B (zh) | 一种面向异构领域适应的半监督最优传输方法 | |
CN111967383A (zh) | 年龄估计方法、年龄估计模型的训练方法和装置 | |
CN116612382A (zh) | 一种城市遥感图像目标检测方法和装置 | |
CN116503622A (zh) | 基于计算机视觉图像的数据采集读取方法 | |
CN116342968A (zh) | 一种双通道人脸识别方法及装置 | |
CN116246161A (zh) | 领域知识引导下的遥感图像目标精细类型识别方法及装置 | |
CN111612045B (zh) | 一种获取目标检测数据集的通用方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |