CN110287940B - 一种基于人工智能的掌纹识别方法及系统 - Google Patents

一种基于人工智能的掌纹识别方法及系统 Download PDF

Info

Publication number
CN110287940B
CN110287940B CN201910593900.4A CN201910593900A CN110287940B CN 110287940 B CN110287940 B CN 110287940B CN 201910593900 A CN201910593900 A CN 201910593900A CN 110287940 B CN110287940 B CN 110287940B
Authority
CN
China
Prior art keywords
neural network
layers
network model
palm print
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910593900.4A
Other languages
English (en)
Other versions
CN110287940A (zh
Inventor
戴鸿君
计晓贇
于治楼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Inspur Scientific Research Institute Co Ltd
Original Assignee
Shandong Inspur Scientific Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Inspur Scientific Research Institute Co Ltd filed Critical Shandong Inspur Scientific Research Institute Co Ltd
Priority to CN201910593900.4A priority Critical patent/CN110287940B/zh
Publication of CN110287940A publication Critical patent/CN110287940A/zh
Application granted granted Critical
Publication of CN110287940B publication Critical patent/CN110287940B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于人工智能的掌纹识别方法,涉及图像处理技术领域。针对现有识别速度慢且识别精确度不高的问题,采用技术方案包括:S1、建立数据集;S2、对数据集中的掌纹图片进行预处理,完成对数据集的标注;S3、建立由多个独立的卷积深度神经网络构成的级联深度神经网络模型;S4、使用步骤S2中标注完成的数据集训练步骤S3中的级联深度神经网络模型;S5、通过级联神经网络模型对员工进行身份识别,快速且高精确的获得员工身份信息。本发明还公开一种基于人工智能的掌纹识别系统,其与前述掌纹识别方法相结合,实现掌纹的快速且高精确度识别。

Description

一种基于人工智能的掌纹识别方法及系统
技术领域
本发明涉及图像处理技术领域,具体的说是一种基于人工智能的掌纹识别方法及系统。
背景技术
目前公司用于员工的身份识别方法多种多样,如指纹识别、人脸识别等,但是传统的指纹识别需要将手指按压在识别板且识别速度较慢,而人脸识别使用机器学习的深度学习技术识别速度较快但是人脸的特征不明显在有些情况下无法做到精确识别,会出现误差。因此,如何发明一种识别速度和识别精确度都得到满足的识别技术就成了急需解决的技术问题。
发明内容
本发明针对目前技术发展的需求和不足之处,提供一种基于人工智能的掌纹识别方法及系统,提高识别速度的同时提高识别精确度。
首先,本发明公开一种基于人工智能的掌纹识别方法,解决上述技术问题采用的技术方案如下:
一种基于人工智能的掌纹识别方法,掌纹识别方法的实现过程包括:
S1、建立数据集:将公司数据库中的员工信息和收集到的员工掌纹图片进行处理,形成数据集;
S2、对数据集中的掌纹图片进行预处理,完成对数据集的标注;
S3、建立由多个独立的卷积深度神经网络构成的级联深度神经网络模型;
S4、使用步骤S2中标注完成的数据集训练步骤S3中的级联深度神经网络模型;
S5、通过级联神经网络模型对员工进行身份识别,获得员工身份信息。
可选的,在步骤S2中,对数据集中的掌纹图片进行预处理,具体预处理操作为:
S201、进行数据集标注工作:将每个掌纹的图片标注上对应的员工编号、身份信息,并对每个掌纹进行one-hot编码处理定性特征;
S202、对数据集中的图片进行灰度化、降噪、二值化、字符切分以及归一化处理。
可选的,在步骤S3中,建立由多个独立的卷积深度神经网络构成的级联深度神经网络模型,具体操作为:
S301、选择三个独立的卷积神经网络,三个独立的卷积神经网络分别称为第一层卷积神经网络、第二层卷积神经网络、第三层卷积神经网络,三个独立的卷积神经网络均由卷积层、池化层和全连接层组成,将这三个独立的卷积神经网络依次组合构成级联深度神经网络模型;
S302、第一层卷积神经网络使用三层5x5的卷积、三层3x3的卷积和两层全连接层完成图像信息的特征提取,获得提取后的特征图;
S303、第二层卷积神经网络使用五层3x3的卷积、四层1x1的卷积和2层全连接层,其中,只有两层由池化层完成特征图降维,1x1的卷积用于降低特征图纬度,减少计算量;
S304、第三层卷积神经网络使用五层3x3卷积、三层全连接层,得到的特征图经过五层3x3卷积和三层全连接层,将最后得到的低维特征图与数据库中存储的掌纹图片特征图进行对比,相似度最大的就是该掌纹所属员工。
可选的,在步骤S4中,使用步骤S2中标注完成的数据集训练步骤S3中的级联深度神经网络模型,进行训练时,
将数据集使用十折交叉验证方法划分,使用小批量梯度下降算法训练级联深度神经网络模型,得到级联深度神经网络模型的计算错误率,根据错误率选择最优的级联深度神经网络模型。
可选的,使用步骤S2中标注完成的数据集训练步骤S3中的级联深度神经网络模型,具体训练流程包括:
S401、使用掌纹图片作为训练样本,将训练集按照1:5划分成训练测试集和验证集;
S402、训练测试集使用十折交叉验证法进行划分和验证,训练测试集中的十分之一作为测试集,剩余的十分之九作为训练集;
S403、训练过程使用训练集和测试集训练级联深度神经网络模型;
S404、使用投票法进行投票得到预测结果,使用验证集计算得到级联深度神经网络模型的准确率;
S405、根据计算所得准确率来选择最优的级联深度神经网络模型。
可选的,在步骤S5中,通过级联神经网络模型对员工进行身份识别,具体识别步骤包括:
S501、员工将手掌放入摄像头下,通过级联神经网络模型进行采样,得到级联神经网络模型处理后的低维特征图;
S502、使用python脚本查询数据库寻找与该特征图相似度最大的员工,将相似度最大的员工的信息返回给验证界面,如果没有通过验证则验证界面显示未通过,否则显示员工编号和身份信息。
其次,本发明还公开一种基于人工智能的掌纹识别系统,其结构包括:
数据集建立模块,用于收集公司数据库中的员工信息和员工掌纹图片,进行处理后存储到数据集中;
图片预处理模块,用于对数据集中的掌纹图片进行预处理,完成对数据集的标注;
级联深度神经网络模型建立模块,用于将多个独立的卷积深度神经网络组合构建为级联深度神经网络模型;
级联深度神经网络模型训练模块,用于使用标注完成的数据集训练级联深度神经网络模型;
识别显示模块,用于扫描员工手掌并获取级联神经网络模型的识别信息,随后通过查询数据库得到员工详细信息并显示。
具体的,所涉及级联深度神经网络模型建立模块选取三个独立的卷积神经网络,三个独立的卷积神经网络分别称为第一层卷积神经网络、第二层卷积神经网络、第三层卷积神经网络,第一层卷积神经网络、第二层卷积神经网络、第三层卷积神经网络顺序组合构成级联深度神经网络模型;
三个独立的卷积神经网络均由卷积层、池化层和全连接层组成;
第一层卷积神经网络使用三层5x5的卷积、三层3x3的卷积和两层全连接层完成图像信息的特征提取,随后获得提取后的特征图;
第二层卷积神经网络使用五层3x3的卷积、四层1x1的卷积和2层全连接层,其中,只有两层由池化层完成特征图降维,1x1的卷积用于降低特征图纬度,减少计算量;
第三层卷积神经网络使用五层3x3卷积、三层全连接层,得到的特征图经过五层3x3卷积和三层全连接层,将最后得到的低维特征图与数据库中存储的掌纹图片特征图进行对比,相似度最大的就是该掌纹所属员工。
具体的,所涉及级联深度神经网络模型训练模块将数据集使用十折交叉验证方法划分,随后使用小批量梯度下降算法训练级联深度神经网络模型,最后得到级联深度神经网络模型的计算错误率,根据错误率选择最优的级联深度神经网络模型。
具体的,所涉及识别显示模块包括:
扫描子模块,用于扫描员工的手掌,得到级联神经网络模型处理后的低维特征图;
查询子模块,用于使用python脚本查询数据库,以寻找与该特征图相似度最大的员工;
验证显示子模块,用于将相似度最大的员工的信息返回给验证界面进行验证,如果没有通过验证则验证界面显示未通过,否则显示员工编号和身份信息。
本发明的一种基于人工智能的掌纹识别方法及系统,与现有技术相比具有的有益效果是:
1)本发明在深度神经网络的基础上构建级联深度神经网络模型,通过对级联深度神经网络模型进行训练,实现对员工掌纹的自动识别,识别速度快、精度高;
2)本发明的级联深度神经网络模型由多个独立的卷积神经网络组合构成,可以对员工掌纹信息进行处理并输出低位特征图,同时,后一层卷积神经网络可以在前一层卷积神经网络的基础上完成更精确的预测和分类,再次提高识别精确度。
附图说明
附图1是本发明实施例一的流程框图;
附图2是本发明实施例二的连接框图。
附图2中各标号信息表示:
10、数据集建立模块,20、图片预处理模块,30、级联深度神经网络模型,
40、级联深度神经网络模型建立模块,50、级联深度神经网络模型训练模块,
60、识别显示模块;
31、第一层卷积神经网络,32、第二层卷积神经网络,
33、第三层卷积神经网络;
61、扫描子模块,62、查询子模块,63、验证显示子模块。
具体实施方式
为使本发明的技术方案、解决的技术问题和技术效果更加清楚明白,以下结合具体实施例,对本发明的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下获得的所有实施例,都在本发明的保护范围之内。
实施例一:
结合附图1,本实施例提出一种基于人工智能的掌纹识别方法,掌纹识别方法的实现过程包括:
S1、建立数据集:将公司数据库中的员工信息和收集到的员工掌纹图片进行处理,形成数据集。
S2、对数据集中的掌纹图片进行预处理,完成对数据集的标注。
在步骤S2中,对数据集中的掌纹图片进行预处理的具体操作为:
S201、进行数据集标注工作:将每个掌纹的图片标注上对应的员工编号、身份信息,并对每个掌纹进行one-hot编码处理定性特征;
S202、对数据集中的图片进行灰度化、降噪、二值化、字符切分以及归一化处理。
S3、建立由多个独立的卷积深度神经网络构成的级联深度神经网络模型。
在步骤S3中,建立级联深度神经网络模型的具体操作为:
S301、选择三个独立的卷积神经网络,三个独立的卷积神经网络分别称为第一层卷积神经网络、第二层卷积神经网络、第三层卷积神经网络,三个独立的卷积神经网络均由卷积层、池化层和全连接层组成,将这三个独立的卷积神经网络依次组合构成级联深度神经网络模型;
S302、第一层卷积神经网络使用三层5x5的卷积、三层3x3的卷积和两层全连接层完成图像信息的特征提取,获得提取后的特征图;
S303、第二层卷积神经网络使用五层3x3的卷积、四层1x1的卷积和2层全连接层,其中,只有两层由池化层完成特征图降维,1x1的卷积用于降低特征图纬度,减少计算量;
S304、第三层卷积神经网络使用五层3x3卷积、三层全连接层,得到的特征图经过五层3x3卷积和三层全连接层,将最后得到的低维特征图与数据库中存储的掌纹图片特征图进行对比,相似度最大的就是该掌纹所属员工。
S4、使用步骤S2中标注完成的数据集训练步骤S3中的级联深度神经网络模型。
训练级联深度神经网络模型时,
将数据集使用十折交叉验证方法划分,使用小批量梯度下降算法训练级联深度神经网络模型,得到级联深度神经网络模型的计算错误率,根据错误率选择最优的级联深度神经网络模型。
具体训练流程包括:
S401、使用掌纹图片作为训练样本,将训练集按照1:5划分成训练测试集和验证集;
S402、训练测试集使用十折交叉验证法进行划分和验证,训练测试集中的十分之一作为测试集,剩余的十分之九作为训练集;
S403、训练过程使用训练集和测试集训练级联深度神经网络模型;
S404、使用投票法进行投票得到预测结果,使用验证集计算得到级联深度神经网络模型的准确率;
S405、根据计算所得准确率来选择最优的级联深度神经网络模型。
S5、通过级联神经网络模型对员工进行身份识别,获得员工身份信息。
通过级联神经网络模型对员工进行身份识别的具体步骤包括:
S501、员工将手掌放入摄像头下,通过级联神经网络模型进行采样,得到级联神经网络模型处理后的低维特征图;
S502、使用python脚本查询数据库寻找与该特征图相似度最大的员工,将相似度最大的员工的信息返回给验证界面,如果没有通过验证则验证界面显示未通过,否则显示员工编号和身份信息。
实施例二:
结合附图2,本实施例提出一种基于人工智能的掌纹识别系统,其结构包括:
数据集建立模块10,用于收集公司数据库中的员工信息和员工掌纹图片,进行处理后存储到数据集中;
图片预处理模块20,用于对数据集中的掌纹图片进行预处理,完成对数据集的标注;
级联深度神经网络模型建立模块40,用于将多个独立的卷积深度神经网络组合构建为级联深度神经网络模型30;
级联深度神经网络模型训练模块50,用于使用标注完成的数据集训练级联深度神经网络模型30;
识别显示模块60,用于扫描员工手掌并获取级联神经网络模型的识别信息,随后通过查询数据库得到员工详细信息并显示。
在本实施例中,所涉及级联深度神经网络模型建立模块40选取三个独立的卷积神经网络,三个独立的卷积神经网络分别称为第一层卷积神经网络31、第二层卷积神经网络32、第三层卷积神经网络33,第一层卷积神经网络31、第二层卷积神经网络32、第三层卷积神经网络33顺序组合构成级联深度神经网络模型30;
三个独立的卷积神经网络均由卷积层、池化层和全连接层组成;
第一层卷积神经网络31使用三层5x5的卷积、三层3x3的卷积和两层全连接层完成图像信息的特征提取,随后获得提取后的特征图;
第二层卷积神经网络32使用五层3x3的卷积、四层1x1的卷积和2层全连接层,其中,只有两层由池化层完成特征图降维,1x1的卷积用于降低特征图纬度,减少计算量;
第三层卷积神经网络33使用五层3x3卷积、三层全连接层,得到的特征图经过五层3x3卷积和三层全连接层,将最后得到的低维特征图与数据库中存储的掌纹图片特征图进行对比,相似度最大的就是该掌纹所属员工。
在本实施例中,所涉及级联深度神经网络模型训练模块50将数据集使用十折交叉验证方法划分,随后使用小批量梯度下降算法训练级联深度神经网络模型30,最后得到级联深度神经网络模型30的计算错误率,根据错误率选择最优的级联深度神经网络模型30。
在本实施例中,所涉及识别显示模块60包括:
扫描子模块61,用于扫描员工的手掌,得到级联神经网络模型处理后的低维特征图;
查询子模块62,用于使用python脚本查询数据库,以寻找与该特征图相似度最大的员工;
验证显示子模块63,用于将相似度最大的员工的信息返回给验证界面进行验证,如果没有通过验证则验证界面显示未通过,否则显示员工编号和身份信息。
综上可知,采用本发明的一种基于人工智能的掌纹识别方法及系统,可以对员工掌纹的自动识别,识别速度快、精度高,解决了在深度神经网络的基础通过人工智能完成掌纹识别并提高识别速度和识别精确度的问题。
以上应用具体个例对本发明的原理及实施方式进行了详细阐述,这些实施例只是用于帮助理解本发明的核心技术内容,并不用于限制本发明的保护范围,本发明的技术方案不限制于上述具体实施方式内。基于本发明的上述具体实施例,本技术领域的技术人员在不脱离本发明原理的前提下,对本发明所作出的任何改进和修饰,皆应落入本发明的专利保护范围。

Claims (8)

1.一种基于人工智能的掌纹识别方法,其特征在于,所述掌纹识别方法的实现过程包括:
S1、建立数据集:将公司数据库中的员工信息和收集到的员工掌纹图片进行处理,形成数据集;
S2、对数据集中的掌纹图片进行预处理,完成对数据集的标注;
S3、建立由多个独立的卷积深度神经网络构成的级联深度神经网络模型,具体操作为:
S301、选择三个独立的卷积神经网络,三个独立的卷积神经网络分别称为第一层卷积神经网络、第二层卷积神经网络、第三层卷积神经网络,三个独立的卷积神经网络均由卷积层、池化层和全连接层组成,将这三个独立的卷积神经网络依次组合构成级联深度神经网络模型;
S302、第一层卷积神经网络使用三层5x5的卷积、三层3x3的卷积和两层全连接层完成图像信息的特征提取,获得提取后的特征图;
S303、第二层卷积神经网络使用五层3x3的卷积、四层1x1的卷积和2层全连接层,其中,只有两层由池化层完成特征图降维,1x1的卷积用于降低特征图纬度,减少计算量;
S304、第三层卷积神经网络使用五层3x3卷积、三层全连接层,得到的特征图经过五层3x3卷积和三层全连接层,将最后得到的低维特征图与数据库中存储的掌纹图片特征图进行对比,相似度最大的就是该掌纹所属员工;
S4、使用步骤S2中标注完成的数据集训练步骤S3中的级联深度神经网络模型;
S5、通过级联神经网络模型对员工进行身份识别,获得员工身份信息。
2.根据权利要求1所述的一种基于人工智能的掌纹识别方法,其特征在于,在步骤S2中,对数据集中的掌纹图片进行预处理,具体预处理操作为:
S201、进行数据集标注工作:将每个掌纹的图片标注上对应的员工编号、身份信息,并对每个掌纹进行one-hot编码处理定性特征;
S202、对数据集中的图片进行灰度化、降噪、二值化、字符切分以及归一化处理。
3.根据权利要求1所述的一种基于人工智能的掌纹识别方法,其特征在于,在步骤S4中,使用步骤S2中标注完成的数据集训练步骤S3中的级联深度神经网络模型,进行训练时,
将数据集使用十折交叉验证方法划分,使用小批量梯度下降算法训练级联深度神经网络模型,得到级联深度神经网络模型的计算错误率,根据错误率选择最优的级联深度神经网络模型。
4.根据权利要求3所述的一种基于人工智能的掌纹识别方法,其特征在于,使用步骤S2中标注完成的数据集训练步骤S3中的级联深度神经网络模型,具体训练流程包括:
S401、使用掌纹图片作为训练样本,将训练集按照1:5划分成训练测试集和验证集;
S402、训练测试集使用十折交叉验证法进行划分和验证,训练测试集中的十分之一作为测试集,剩余的十分之九作为训练集;
S403、训练过程使用训练集和测试集训练级联深度神经网络模型;
S404、使用投票法进行投票得到预测结果,使用验证集计算得到级联深度神经网络模型的准确率;
S405、根据计算所得准确率来选择最优的级联深度神经网络模型。
5.根据权利要求1所述的一种基于人工智能的掌纹识别方法,其特征在于,在步骤S5中,通过级联神经网络模型对员工进行身份识别,具体识别步骤包括:
S501、员工将手掌放入摄像头下,通过级联神经网络模型进行采样,得到级联神经网络模型处理后的低维特征图;
S502、使用python脚本查询数据库寻找与该特征图相似度最大的员工,将相似度最大的员工的信息返回给验证界面,如果没有通过验证则验证界面显示未通过,否则显示员工编号和身份信息。
6.一种基于人工智能的掌纹识别系统,其特征在于,所述掌纹识别系统包括:
数据集建立模块,用于收集公司数据库中的员工信息和员工掌纹图片,进行处理后存储到数据集中;
图片预处理模块,用于对数据集中的掌纹图片进行预处理,完成对数据集的标注;
级联深度神经网络模型建立模块,用于将多个独立的卷积深度神经网络组合构建为级联深度神经网络模型;级联深度神经网络模型建立模块具体包括三个独立的卷积神经网络,三个独立的卷积神经网络分别称为第一层卷积神经网络、第二层卷积神经网络、第三层卷积神经网络,第一层卷积神经网络、第二层卷积神经网络、第三层卷积神经网络顺序组合构成级联深度神经网络模型;三个独立的卷积神经网络均由卷积层、池化层和全连接层组成;第一层卷积神经网络使用三层5x5的卷积、三层3x3的卷积和两层全连接层完成图像信息的特征提取,随后获得提取后的特征图;第二层卷积神经网络使用五层3x3的卷积、四层1x1的卷积和2层全连接层,其中,只有两层由池化层完成特征图降维,1x1的卷积用于降低特征图纬度,减少计算量;第三层卷积神经网络使用五层3x3卷积、三层全连接层,得到的特征图经过五层3x3卷积和三层全连接层,将最后得到的低维特征图与数据库中存储的掌纹图片特征图进行对比,相似度最大的就是该掌纹所属员工;
级联深度神经网络模型训练模块,用于使用标注完成的数据集训练级联深度神经网络模型;
识别显示模块,用于扫描员工手掌并获取级联神经网络模型的识别信息,随后通过查询数据库得到员工详细信息并显示。
7.根据权利要求6所述的一种基于人工智能的掌纹识别系统,其特征在于,所述级联深度神经网络模型训练模块将数据集使用十折交叉验证方法划分,随后使用小批量梯度下降算法训练级联深度神经网络模型,最后得到级联深度神经网络模型的计算错误率,根据错误率选择最优的级联深度神经网络模型。
8.根据权利要求6所述的一种基于人工智能的掌纹识别系统,其特征在于,所述识别显示模块包括:
扫描子模块,用于扫描员工的手掌,得到级联神经网络模型处理后的低维特征图;
查询子模块,用于使用python脚本查询数据库,以寻找与该特征图相似度最大的员工;
验证显示子模块,用于将相似度最大的员工的信息返回给验证界面进行验证,如果没有通过验证则验证界面显示未通过,否则显示员工编号和身份信息。
CN201910593900.4A 2019-07-03 2019-07-03 一种基于人工智能的掌纹识别方法及系统 Active CN110287940B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910593900.4A CN110287940B (zh) 2019-07-03 2019-07-03 一种基于人工智能的掌纹识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910593900.4A CN110287940B (zh) 2019-07-03 2019-07-03 一种基于人工智能的掌纹识别方法及系统

Publications (2)

Publication Number Publication Date
CN110287940A CN110287940A (zh) 2019-09-27
CN110287940B true CN110287940B (zh) 2021-08-20

Family

ID=68020473

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910593900.4A Active CN110287940B (zh) 2019-07-03 2019-07-03 一种基于人工智能的掌纹识别方法及系统

Country Status (1)

Country Link
CN (1) CN110287940B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111158848A (zh) * 2019-12-05 2020-05-15 深圳市智象科技有限公司 基于ai技术的运维监控、分析处理平台
CN111105396A (zh) * 2019-12-12 2020-05-05 山东浪潮人工智能研究院有限公司 一种基于人工智能的印刷品质量检测方法及系统
CN111753662A (zh) * 2020-05-25 2020-10-09 济南浪潮高新科技投资发展有限公司 一种交通事故处理方法、设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122480A (ja) * 2003-10-16 2005-05-12 Konica Minolta Photo Imaging Inc Idカードシステム及び認証方法
CN105069622A (zh) * 2015-08-03 2015-11-18 福州海景科技开发有限公司 一种面向移动终端的人脸识别支付系统和方法
CN106295313A (zh) * 2016-08-03 2017-01-04 北京地平线机器人技术研发有限公司 对象身份管理方法、装置和电子设备
CN107545248A (zh) * 2017-08-24 2018-01-05 北京小米移动软件有限公司 生物特征活体检测方法、装置、设备及存储介质
CN108416338A (zh) * 2018-04-28 2018-08-17 深圳信息职业技术学院 一种非接触掌纹身份认证方法
CN109345553A (zh) * 2018-08-31 2019-02-15 厦门中控智慧信息技术有限公司 一种手掌及其关键点检测方法、装置和终端设备
CN109670471A (zh) * 2018-12-28 2019-04-23 广州市久邦数码科技有限公司 一种掌纹特征提取方法和手相识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122480A (ja) * 2003-10-16 2005-05-12 Konica Minolta Photo Imaging Inc Idカードシステム及び認証方法
CN105069622A (zh) * 2015-08-03 2015-11-18 福州海景科技开发有限公司 一种面向移动终端的人脸识别支付系统和方法
CN106295313A (zh) * 2016-08-03 2017-01-04 北京地平线机器人技术研发有限公司 对象身份管理方法、装置和电子设备
CN107545248A (zh) * 2017-08-24 2018-01-05 北京小米移动软件有限公司 生物特征活体检测方法、装置、设备及存储介质
CN108416338A (zh) * 2018-04-28 2018-08-17 深圳信息职业技术学院 一种非接触掌纹身份认证方法
CN109345553A (zh) * 2018-08-31 2019-02-15 厦门中控智慧信息技术有限公司 一种手掌及其关键点检测方法、装置和终端设备
CN109670471A (zh) * 2018-12-28 2019-04-23 广州市久邦数码科技有限公司 一种掌纹特征提取方法和手相识别方法

Also Published As

Publication number Publication date
CN110287940A (zh) 2019-09-27

Similar Documents

Publication Publication Date Title
CN109993160B (zh) 一种图像矫正及文本与位置识别方法及系统
CN110427937B (zh) 一种基于深度学习的倾斜车牌矫正和不定长车牌识别方法
CN110287940B (zh) 一种基于人工智能的掌纹识别方法及系统
CN110032654B (zh) 一种基于人工智能的超市商品录入方法及系统
CN116861014B (zh) 一种基于预训练语言模型的图像信息抽取方法及装置
CN112381175A (zh) 一种基于图像处理的电路板识别与分析方法
CN112329767A (zh) 基于联合预训练的合同文本图像关键信息提取系统和方法
CN109711441B (zh) 图像分类方法、装置、存储介质及电子设备
CN114038004A (zh) 一种证件信息提取方法、装置、设备及存储介质
CN113837151A (zh) 表格图像处理方法、装置、计算机设备及可读存储介质
CN114266881A (zh) 一种基于改进型语义分割网络的指针式仪表自动读数方法
CN109977834A (zh) 从深度图像中分割人手与交互物体的方法和装置
CN115063589A (zh) 基于知识蒸馏的车辆部件分割方法及相关设备
CN115937945A (zh) 基于视觉Transformer和卷积网络相融合的人脸表情识别方法
CN114219753A (zh) 一种基于深度学习的电力设备表面缺陷检测方法及终端
CN109145912A (zh) 一种数字仪表读数自动识别方法
CN112560902A (zh) 基于书脊视觉信息的图书识别方法及系统
CN111414889A (zh) 基于文字识别的财务报表识别方法及装置
CN117237681A (zh) 图像处理方法、装置及相关设备
CN116311299A (zh) 表格的结构化数据识别方法、装置及系统
CN110956174A (zh) 一种器件编号的识别方法
CN115588196A (zh) 基于机器视觉的指针型仪表读数方法和装置
CN111461130B (zh) 一种高精度图像语义分割算法模型及分割方法
CN111464743A (zh) 一种摄影构图匹配方法及系统
CN116452878B (zh) 一种基于深度学习算法与双目视觉的考勤方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20210729

Address after: 250100 building S02, No. 1036, Langchao Road, high tech Zone, Jinan City, Shandong Province

Applicant after: Shandong Inspur Scientific Research Institute Co.,Ltd.

Address before: North 6th floor, S05 building, Langchao Science Park, 1036 Langchao Road, hi tech Zone, Jinan City, Shandong Province, 250100

Applicant before: SHANDONG INSPUR ARTIFICIAL INTELLIGENCE RESEARCH INSTITUTE Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant