CN110309708A - 一种基于神经网络的智能皮纹采集分类识别方法 - Google Patents

一种基于神经网络的智能皮纹采集分类识别方法 Download PDF

Info

Publication number
CN110309708A
CN110309708A CN201910384955.4A CN201910384955A CN110309708A CN 110309708 A CN110309708 A CN 110309708A CN 201910384955 A CN201910384955 A CN 201910384955A CN 110309708 A CN110309708 A CN 110309708A
Authority
CN
China
Prior art keywords
dermatoglyph
image
neural network
identification method
intelligent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910384955.4A
Other languages
English (en)
Inventor
张丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Shangwen Jintai Education Technology Co Ltd
Original Assignee
Beijing Shangwen Jintai Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shangwen Jintai Education Technology Co Ltd filed Critical Beijing Shangwen Jintai Education Technology Co Ltd
Priority to CN201910384955.4A priority Critical patent/CN110309708A/zh
Publication of CN110309708A publication Critical patent/CN110309708A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于神经网络的智能皮纹采集分类识别方法,其将采集到的皮纹原始图像依次进行归一化处理、维纳滤波去噪处理、采用Sobel算子算法锐化并提取边缘、采用二值化算法处理、通过OPTA细化算法得到像素骨架化的皮纹图像;然后,采用GAN生成式对抗网络模型算法进行修补处理、增强处理;最后,引入ResNet深度学习神经网络模型算法进行皮纹分类识别处理,获取分类信息。本发明通过有利于从多维度、多特征的角度对不同皮纹特征图像进行分析,于皮纹图像信息中提取到更多的特征,在皮纹识别分类中达到较高的准确率;适合应用于儿童性格培养、特殊岗位人员选拔等多种场景,提高解读的准确率,报告解读的可参考性提升明显。

Description

一种基于神经网络的智能皮纹采集分类识别方法
技术领域
本发明涉及皮纹分类识别技术,尤其涉及一种基于神经网络的智能皮纹采集分类识别方法。
背景技术
皮纹是指生于手指、手掌以及脚趾、脚掌上凸起的纹路,我们常见的名称“指纹”是生于手指上的纹理,生于手掌及脚掌上的纹理分别叫手掌纹及脚掌纹。皮纹一经发育完成,至此,终生不变,现有各个领域在应用皮纹技术时所依赖的最多最有效的特性便是其独有的唯一性,可广泛应用于刑侦界、医学界、生物识别领域。
首先,其唯一性体现在拥有与其它皮纹相区别的独特性,不仅与他人不同,就是自己的十个手指纹也不相同,其中包括皮纹样式、皮膌高低、密度、数量及三叉点的位置都不相同;其次,还具备不变性,即使因劳动磨损后或者受伤后再生的皮纹样式、数量、纹形都还是与原来的相同;此外,其还具备遗传性,遗传物质、基因或染色体是决定皮纹特性的物质基础。
若对皮纹所存在的这些显著特性进一步展开研究,则皮纹检测技术具有很深重要的研究意义,对于非本技术领域所了解的皮纹,大多仅局限于利用其唯一性进行检测这项技术,然而,对于专业人士,本领域内的皮纹检测技术却是一门多学科的交叉学科,更重要的是其能够用于了解个体的先天遗传信息,被越来越多的教育工作者所接受,是实现“因材施教”的好帮手。
皮纹检测技术的研究首先要了解对皮纹的分类,从时间上可以追溯到在1892年,英国著名的人类学家、优生学创始人高尔顿出版的《指纹学》一书中首次提出:根据指嵴纹走向、有无中心点和三叉点的多少来识别指纹分类的方法,他的观点把纹型分成斗型纹、箕型纹、弧型纹三种,因而,皮纹之后的各种分类都是在这个基础上进行的细化。
现有的常见指纹分类体系将指纹图像按照其拓扑结构分成五种类型,即弓、账弓、左旋、右旋、和斗,人群分布分别是:3.7%、2.9%、33.8%、31.7%、27.9%,可通过认识指纹的脊线流入、流出特征、中心点、三角点的图形特征,形成:脊线流、方向场、奇异点、Gabor滤波响应的特征,对纹型进行合理的判断。
本领域技术人员通过长期对皮纹(指纹)的研究,结合纹型特征,能够总结出相应的皮纹解读系统,例如,通过长期地、广泛地、严谨地对而不同儿童皮纹的检测与分类识别,能够发现具有相同纹型的儿童其在性格、行为、潜质、以及大脑发展状态等方面的相似点,也能够发现具有不同纹型的儿童其在某一个或多个方面的不同点,因此,能够形成一套针对于儿童的皮纹解读系统。
在本发明中,技术方案之设计人员重点研发的方向便是利用皮纹形态以解读系统为参照来解读孩子的先天智能,包括学习行为、以及大脑发展状态,从而通过所获取的这些信息的分析来分别出个体差异,进而应用到指导孩子的学习上。
对于此研发方向的出发点,是源于目前的学校传统标准化教育难以真正实现个性化教育,市场上出现的各种各样的培训教育机构,就是要满足孩子个性化的教育需求;孩子个体化存在差异,差异在什么地方,通过皮纹基因检测并解读报告可得到答案。事实上,每个孩子都有自己独特的资质潜能,但是家长往往不了解资质潜能,因此,只能不断的增加传统的智能化的教育投入,给孩子增加了不必要的负担,同时,既不知道孩子需要什么样适当的学习环境,也不知道孩子到底脑细胞是如何分布的,哪些方面有优势,大脑能力各方面的强弱,更不要说如何和孩子沟通才能通过增强刺激来提升孩子的学习成绩和成果。
由于孩子的学习能力是有不同类型的,有的是认知型、有的是模仿型、有的对环境依赖度很强,有的孩子需要设定目标。经过长时间的实践与总结,可知,通过皮纹报告,能够为孩子选择更合适的启发方法来因材施教,做好配合和互动,减少不必要的争执,使得孩子学习事半功倍。
目前,在教育培训市场上,皮纹基因分析特别受到关注,但是实践操作起来难度很大,这个难度并不是来源于对目前已经成熟的用于分析参照的解读系统的解析,而是关于儿童群体的皮纹采集识别的准确度、以及继而利用采集识别皮纹的信息所进行的报告分析解读的可参考度。
对于所出现的准确度问题,实质上是由采集识别技术障碍诱发的,本发明技术方案人员通过分析可知,导致该障碍问题与几点因素有关:
第一个因素便是纹型录入的部分,目前的各类皮纹技术的应用均是针对成年人,采集器也是为成年人设计的,由于低龄群体的手指普遍较细,皮纹发育也不成熟,特征不明显,传统的指纹采集器达不到采集识别要求,低龄的孩子不可控,若开展批量、大量的采集工作根本无法顺利实现;
第二个因素便是皮纹采集过程,由于拍摄环境对图像效果影响较大,譬如灯光、角度、像素,采集到的皮纹很可能会有受损情况,均会导致有可能需要反复采集,或者因采集的图像不清晰、不全面而导致识别分类的效果不理想,缺乏引入相应的程序算法进行修补;
第三个因素是纹型量较大,其大类可分二十余种,纹型和纹型之间的差异比较小,用人工的方式,需要通过大量复杂的专业学习并结合长时间的实践才能够熟练掌握纹型辨识的能力。显然,人工方式会致使纹型辨识不准,最后形成的报告以及对报告的分析解读不够准确,报告结论的可参考度较低;
第四个因素是指纹识别分类一般使用浅结构模型来处理数据,且结构模型至多只有一层或两层的非线性特征的层,浅层结构模型已经用于解决一些在简单的实际问题,但是当遇到复杂的多维度、多特征的状况时,浅层模型难以完成很好的表达;
第五个问题便是报告解读的复杂度,由于不规范的采集分类识别问题,所形成的最终报告内容庞大,参数、指标均较多,难以进行综合分析,都需要专家做专业的一对一的解读。
近年来,计算机的运算力得到了大幅度提高,互联网上日益增长的海量数据和需求的不断推动,也得益于ImageNet大赛上CNN夺冠等事件的发生,基于深度学习的图像处理方法以迅雷不及掩耳的速度在各个图像处理领域都不断的有新的突破,在传统的图像识别领域,各种CNN(卷积神经网络)模型,准确率不断被刷新,正是基于模型识别准确率的提升,本发明技术方案之设计人员为了解决上述所存在问题,在现有公知技术的基础上结合实践应用,尝试将深度学习引入到皮纹识别的领域。
对于本发明拟实施的总体方案,其利用手机摄像头等互联网IT工具采集清晰的皮纹特征,先解决纹型录入的便捷度问题,使其采集清晰的符合要求的皮纹图像特征,再通过引入ResNet深度学习神经网络模型的图像识别技术,多维度、多特征的对皮纹特征图像进行学习分析,提取到更多特征,在指纹识别分类中达到较高的准确率。
发明内容
为克服上述问题或者至少部分地解决或缓减解决上述问题,本发明提供一种基于神经网络的智能皮纹采集分类识别方法,通过引入基于CNN的ResNet深度学习神经网络模型算法技术来处理皮纹分类识别,在进行数据处理时,有利于从皮纹图像信息中提取到更多的特征,在皮纹识别分类中达到较高的准确率。
为实现上述目的,本发明采用以下技术方案:
一种基于神经网络的智能皮纹采集分类识别方法,所采用的步骤包括:
步骤一,利用电子设备的摄像功能,充分采集得到皮纹原始图像并存储,准备进行对皮纹图像预处理环节,该预处理环节依次进行以下①②③④⑤五个处理步骤:
①进行归一化处理:对皮纹原始图像进行适宜的裁剪以得到固定分辨率的图像,将图像分辨率设置为512×512,得到皮纹图像Ⅰ;
②对皮纹图像Ⅰ对进行维纳滤波去噪处理,得到滤波平滑的皮纹图像Ⅱ;
③采用Sobel算子算法对皮纹图像Ⅱ锐化并提取边缘,得到皮纹图像Ⅲ;
④采用二值化算法处理皮纹图像Ⅲ,得到仅保留黑白像素纹理的皮纹图像Ⅳ;
⑤将皮纹图像Ⅳ通过OPTA细化算法,使其像素骨架化,抽取像素的骨架,得到像素骨架化的皮纹图像Ⅴ;
步骤二,采用目前成熟的GAN生成式对抗网络模型算法对像素骨架化的皮纹图像Ⅴ进行修补处理、增强处理,得到修补增强后的图像,其中的修补处理包括修补纹理的断点、残损段,其中的增强处理包括使像素骨架化的皮纹图像Ⅴ剔除掉背景、噪音,以便突出皮纹特征;
步骤三,引入ResNet深度学习神经网络模型算法对修补增强后的图像进行皮纹分类识别处理,将人物性格与皮纹关系进行归纳分类,预测人物性格特征;
步骤四,通过皮纹归纳分类获取的多组分类信息,形成利于解读的报告。
对于以上本发明所实施之技术方案进一步补充,包括:
对于ResNet深度学习神经网络模型算法,还包括残差网络模块,并且其引入皮纹采集分类识别方法中用于算法程序设计;
对于ResNet深度学习神经网络模型算法,其于残差网络中增加直连通道,残差网络将输入X通过X identity绕道传入下一层网络;
对于ResNet深度学习神经网络模型,其包括卷积层、池化层、以及若干全连接层;
进一步地,卷积层提取出每一层数据中的局部特征,池化层保留主要特征同时减少参数和计算量。
对于以上本发明所实施之技术方案还包括:
对于ResNet深度学习神经网络模型,其数据处理方式包括:
首先,使用8*8size的卷积核对第一层网络输入进行卷积、线性激活、池化,输出64*36*36的数据给第二层网络;
其次,使用4*4size的卷积核对第二层网络输入进行卷积、线性激活、池化,输出128*16*16的数据给第三层网络;
再次,使用4*4size的卷积核对第三层网络输入进行卷积、线性激活、池化,输出512*6*6的数据给第四层网络;
最后,使用size为256*32的全连接网络对图像进行分类。
本发明所实施之技术方案,还可相应地实施为:
智能皮纹采集分类识别方法通过ResNet深度学习神经网络预测人物性格特征,包括但不限于儿童性格特征、特殊岗位人员性格特征。
步骤中的Sobel算子算法用于检测水平边缘以及垂直边缘;
步骤中的二值化处理使图像上的点的灰度值为0或255,使图像呈现出明显的黑白效果,即将256个亮度等级的灰度图像通过适当的阈值选取而获得仍然可以反映图像整体和局部特征的二值化图像。
另外,步骤中的归纳分类包括至少二十个类型,即斗型纹、靶心斗、螺旋斗、伸长斗、双斗纹、双箕斗、內破斗、孔雀眼、侧向斗、箕型纹、正箕纹、反箕纹、下降箕、弧型纹、简单弧、围住弧、帐篷弧、弧反箕、弧正箕以及变形纹。
本发明有益效果为:
⑴通过引入基于CNN的ResNet深度学习神经网络模型算法技术来处理皮纹分类识别,形成了一套具备优越性的皮纹分类识别方法,在进行数据处理时,有利于从多维度、多特征的角度对不同皮纹特征图像进行学习分析,于皮纹图像信息中提取到更多的特征,在皮纹识别分类中达到较高的准确率;
⑵采用所形成的皮纹分类识别方法,将录入的指纹通过深度学习神经网络模型预测人物性格特征,尤其适合应用于儿童性格培养、特殊岗位人员选拔等多种场景,可通过皮纹获取的多组分类信息,进行报告解读,从全局上提高解读的准确率,报告解读的可参考性提升明显;
⑶于皮纹图像预处理环节之末,引用成熟的GAN生成式对抗网络模块对图像效果修补、增强,修补纹理的断点、残损段,使像素骨架化的皮纹图像样本剔除掉背景、噪音,呈现的更细腻,能够进一步突出皮纹特征,提高采集效率和预测准确度;
⑷于皮纹采集原始皮纹图像之后,通过依次采用归一化处理、维纳滤波去噪、Sobel算子锐化皮纹图像、二值化算法处理、OPTA细化算法,有利于在皮纹图像采集预处理环节即初步提升皮纹图像的处理质量,为后续环节处理的准确度奠定了基础。
附图说明
下面根据附图对本发明作进一步详细说明。
图1是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其处理流程示意图;
图2是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其通过手机采集原始皮纹进行归一化得到的皮纹图像示意图;
图2-1是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其通过维纳滤波处理之后得到的皮纹图像示意图;
图2-2是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其通过Sobel算子锐化处理之后得到的皮纹图像示意图;
图2-3是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其通过二值化算法处理之后得到的皮纹图像示意图;
图2-4是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其通过OPTA细化算法处理之后得到的皮纹图像示意图;
图2-5是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其修补增强之前的皮纹图像示意图;
图2-6是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其修补增强之后的皮纹图像示意图;
图3是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其ResNet网络模型的残差网络模块原理示意图;
图3-1是本发明实施例所述基于神经网络的智能皮纹采集分类识别方法,其指纹识别的ResNet网络模型处理流程示意图。
具体实施方式
如图1所示,本发明拟实施的基于神经网络的智能皮纹采集分类识别方法,要达到的目的在于,克服目前在对儿童进行皮纹采集分类识别时,因缺乏行之有效的系统性的实施方法而导致儿童皮纹采集识别的难度大、准确度低、以及利用采集识别皮纹的信息所形成报告分析解读的可参考度较差的问题,最终无法无助于了解不同儿童自身的学习行为、大脑发展状态以及资质潜能,不利于确定儿童个性化的教育需求。为此,本发明技术方案通过手机摄像头等便携设备充分采集皮纹图像信息,再基于合理的图像处理技术对皮纹信息进行多维度处理,利用监督学习的神经网络完成皮纹效果修补增强、分类模型建模,从而有效地实现对皮纹图像的分类识别。
针对本发明拟实施的基于神经网络的智能皮纹采集分类识别方法(由于皮纹包括指纹,故指纹采集分类识别与皮纹相同),其具体采用的技术手段包括:
㈠采用手机等电子设备之摄像头自动对焦,充分采集皮纹图像信息,存储皮纹图片,进行图像预处理:
⑴如图2所示,将采集到的原始皮纹图像通过应用软件实现归一化处理:处理原则是把需要处理的数据经过处理后限制在需要的一定范围内,以便为了后面数据处理的方便,归纳统一样本的统计分布性,由于采集到的指纹图像大小尺寸不一,分辨率有高有低,无法直接传入神经网络,需要对图像进行适宜的裁剪以得到固定分辨率的图像,同时,为了降低网络参数提升效率,将图像分辨率设置为512×512;
⑵如图2-1所示,于调整分辨率之后,进行维纳滤波(wiener filtering)去噪处理,得到滤波平滑的皮纹图像:是一种基于最小均方误差准则、对平稳过程的最优估计器,由于这种滤波器的输出与期望输出之间的均方误差为最小,因而用于去噪;
⑶如图2-2所示,通过应用软件采用Sobel算子锐化皮纹图像,并提取边缘:在边缘检测中,常用的一种模板是Sobel算子,Sobel算子有两个,一个是检测水平边缘的;另一个是检测垂直边缘的,与Prewitt算子相比,Sobel算子对于像素的位置的影响做了加权,可降低边缘模糊程度,效果更佳;
⑷如图2-3所示,采用应用软件将锐化皮纹图像通过二值化算法处理,处理之后的皮纹图像仅需要纹理,仅保留黑白像素:具体在处理时,图像的二值化处理使图像上的点的灰度值为0或255,也就是将整个图像呈现出明显的黑白效果,即将256个亮度等级的灰度图像通过适当的阈值选取而获得仍然可以反映图像整体和局部特征的二值化图像,要进行二值图像的处理与分析,首先要把灰度图像二值化,得到二值化图像,这样子有利于在对图像做进一步处理时,图像的集合性质只与像素值为0或255的点的位置有关,不再涉及像素的多级值,使处理变得简单,而且数据的处理和压缩量小;
⑸如图2-4所示,采用应用软件通过OPTA细化算法,使其像素骨架化,抽取样本像素的骨架,得到像素骨架化的皮纹图像:细化过程实则经过一层层的剥离,从原来的图中去掉一些点,但仍要保持原来的形状,直到得到图像的骨架,骨架可理解为图象的中轴;在采用OPTA细化算法的情况下,能够保证细化后细线的连通性、原图的基本形状、减少笔画相交处的畸变、以及细化的快速性和迭代次数少。
㈡如图2-5、图2-6所示,使用目前本领域内已成熟的GAN生成式对抗网络模型构建的算法程序对像素骨架化的皮纹图像进行修补增强处理,修补纹理的断点、残损段,使像素骨架化的皮纹图像样本剔除掉背景、噪音,呈现的更细腻,尤其是增加GAN生成式对抗网络的图像修补增强这一环节,进一步突出皮纹特征,提高采集效率和预测准确度。
㈢图像压缩加密,传至服务后端进行图像鉴别,采用相应的程序算法做指纹分类,该程序算法是基于CNN的ResNett深度学习网络模型(ResNett深度学习神经网络模型)设计的。
㈣基于CNN的ResNe深度学习网络模型程序算法通过大量指纹数据分析处理,将人物性格与指纹关系归纳为以下二十类,将录入的指纹通过ResNe深度学习网络预测人物性格特征,可以应用到儿童性格培养、特殊岗位人员选拔等多种场景;例如,所归纳的二十个类型包括(括号内为标记符号):斗型纹(w)、靶心斗(Wt)、螺旋斗(Ws)、伸长斗(We)、双斗纹(Wc)、双箕斗(Wd)、內破斗(Wi)、孔雀眼(Wp)、侧向斗(Wl)、箕型纹(L)、正箕纹(U)、反箕纹(R)、下降箕(Lf)、弧型纹(A)、简单弧(As)、围住弧(Ae)、帐篷弧(At)、弧反箕(Ar)、弧正箕(Au)、变形纹(Wx)。
㈤最后,再通过皮纹获取的多组分类信息,进行报告解读,从全局上提高解读的准确率,其可参考性提升明显。
现对以上本发明拟实施的基于神经网络的智能皮纹采集分类识别方法,其各相应步骤中所采用的技术手段进行解析:
针对步骤㈡:GAN生成式对抗网络:
GAN生成式对抗网络(Generative Adversarial Networks)是用于构造程序算法的一种深度学习模型,该类模型通过框架中(至少)两个模块:生成模型(GenerativeModel)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出,实用中一般均使用深度神经网络作为G和D,一个优秀的GAN一般具有良好的训练方法。
结合说明书附图3、图3-1,针对步骤㈢与㈣:
首先,CNN,即卷积神经网络,是一种常见的深度学习架构,受生物自然视觉认知机制启发而来,1959年,Hubel&Wiesel发现,动物视觉皮层细胞负责检测光学信号;受此启发,1980年Kunihiko Fukushima提出了CNN的前身——neocognitron;20世纪90年代,LeCun etal等人发表论文,确立了CNN的现代结构,后来又对其进行完善。目前的CNN卷积神经网络模型包括:
⑴卷积层:是CNN的核心,可从三个方面阐述:
①局部感知:实际上就是卷积核和图像卷积时,每次卷积核所覆盖的像素只是一小部分,是局部特征,所以说是局部感知。
②权重共享:传统的神经网络的参数量是非常巨大的,CNN除全连接层外,卷积层的参数完全取决于滤波器的设置大小,当然滤波器的个数不止一个,也就是下面要说的多卷积核,但与传统的神经网络相比,参数量小,计算量小。
③多卷积核:一种卷积核代表的是一种特征,为获得更多不同的特征集合,卷积层会有多个卷积核,生成不同的特征,每一个图片代表不同的特征。
⑵池化层:是CNN的重要组成部分,通过减少卷积层之间的连接,降低运算复杂程;
⑶激活函数:常用的非线性激活函数有sigmoid、tanh、relu等,激活函数用于增强函数的非线性表达能力;
⑷正则化,优化:dropout;随机丢失部分参数,防止过拟合,随机梯度下降,通过反向传播梯度,迭代优化模型的参数。
由于本发明所采用的CNN卷积神经网络模型用于皮纹的采集分类,因而,本领域技术人员能够根据不同的开发需求,以该技术为内核开展不同的程序算法设计,形成相应的用于皮纹图像修补的应用程序,对于具体的程序代码部分,不属于本发明技术方案之内,此处不再赘述。
然后,本发明所采用的基于CNN的ResNet深度学习网络模型,是CNN卷积神经网络模型的一种优化:
由于CNN网络模型在图像识别领域的出色的准确率,在2012年后CNN网络模型的各种变种和优化版本相继出现,比如google公司的GoogLeNe、VGG等,本发明技术方案采用的ResNet深度学习网络模型也是基于CNN提出的;
在计算机图像处理领域里,识别的特征的“抽象等级”随网络深度的加深而变高,研究表明,神经网络的深度越深,能提取到更多层次的抽象特征,然而,在实际的应用环境中,常常由于梯度弥散/爆炸成为训练深层次的网络的障碍,导致无法收敛。本发明技术方案通过采用ResNet深度学习网络模型着重解决了这一难题,使得CNN神经网络的深度能够设计的更深,进而大幅度的提升了特征抽象能力。经比较,在准确率上,基于CNN的ResNet深度学习网络模型在皮纹图像识别的领域能够超出以往任何其他基于深度学习或者基于模式识别的方法。
如图3所示,进一步地,采用ResNet深度学习网络模型与其他模型的差异,主要是残差网络的思想:ResNet的主要思想是在网络中增加了直连通道,即Highway Network的思想,此前的网络结构是性能输入做一个非线性变换,而Highway Network则允许保留之前网络层的一定比例的输出,输入、输出差别的那一部分,简化学习目标和难度,图3中,残差网络将输入X通过X identity绕道传入下一层网络。
如图3-1所示,对于皮纹图像裁剪、锐化、二值化、图像修补增强等环节进行之后,图像作为连续性的数据输入到基于CNN的ResNet深度学习网络模型算法程序,该网络模型包括一系列卷积层、池化层、以及若干全连接层。
①使用8*8size的卷积核对第一层网络输入进行卷积、线性激活、池化,输出64*36*36的数据给第二层网络;
②使用4*4size的卷积核对第二层网络输入进行卷积、线性激活、池化,输出128*16*16的数据给第三层网络;
③使用4*4size的卷积核对第三层网络输入进行卷积、线性激活、池化,输出512*6*6的数据给第四层网络;
④使用size为256*32的全连接网络对图像进行分类。
卷积层提取出每一层数据中的局部(高阶)特征,池化层保留主要的特征同时减少参数(降维)和计算量,防止过拟合,提高模型泛化能力。通过多层的卷积、池化层的组合,构建成指纹识分类的卷积神经网络模型,能够提取到更多的指纹特征,而传统的卷积层在信息传递时,会损失部分信息,ResNet引入了残差学习单元,很多旁路的支线将输入直接连接到后面的层,使得后面的层可以直接学习残差,这样的效果是误差会随着层数增大逐渐减小,并且在实际测试的效果也更好。由于本发明引入ResNet网络模型用于皮纹的分类识别,因而,本领域技术人员能够根据不同的开发需求,以该技术为内核开展不同的程序算法设计,形成相应的用于皮纹分类识别的应用程序,对于具体的程序代码部分,不属于本发明技术方案之内,此处不再赘述。
对于ResNet深度学习网络模型的构建,一般是通过对实践积累的上万皮纹样本分析,并注入ResNet神经网络训练,最终形成一定准确率的特征分类模型;经过多轮训练并参数调优,验证获取皮纹分类模型。
针对步骤㈣:所归纳的二十个类别及其对应的特点,具体为(以下仅作为提供的参考内容,其不包含在本发明技术方案之内):
斗型纹(w):主观意识强、吃软不吃硬;意志坚强、喜欢自己领悟和体验;危机处理能力强;外表坚强但内心需别人关怀;学习新事物、需转换成自己的语言才可理解接受;
靶心斗(Wt):自我为中心、见解独特、不轻易被说服;注重面子和尊严、外表刚强内心脆弱;企图心强、不达目的绝不终止;喜欢发号施令、不喜欢被说教;较强的领悟力、喜欢自己去发现或体会;独立性强、做事能贯彻到底;
螺旋斗(Ws):不喜欢被干扰;喜欢被指点;好胜心强、不易服输;喜欢说服别人接受自己的观点;喜欢以自己的感觉、去推测别人感受;对待朋友讲义气;
伸长斗(We):联想力丰富;情绪波动大(下决策不够果断);清楚自己的需求和方向;思想具创意和弹性;不喜欢别人说教;
双斗纹(Wc):喜欢双向思索(想法易摇摆,导致多疑);不满足现状、喜欢接受挑战;爱面子、好大喜功;习惯以利益、权力、地位、金钱来衡量;较缺乏意志力(毅力)愈挫折易放弃目标;喜欢询问别人意见、只是想得到肯定;
双箕斗(Wd):适应环境能力强、懂得随机应变;擅长社交;易受外在环境影响而改变立场;双向思考;强烈的企图心和目标性;危机处理能力强;
內破斗(Wi):专注力不足;缺乏按部就班之计划;联想力丰富;粗心大意、大而化之;
孔雀眼(Wp):追求完美、较重视外表形象;追根究底、重视细节;富有洞察力、理解力、判断力;高标准的要求自己和他人;偏才资优的倾向;
侧向斗(Wl):其特质和孔雀眼类似,但力度稍弱;对他人批评较多;
箕型纹(L):需要时间适应陌生环境;很在意别人的感受、关心别人并得到认可;很在意他人的看法;易受环境的影响;很强的模仿能力、但很少考虑是不适合自己
箕纹(U):思维弹性大、适应性强、可塑性高;易相处、易感动、倾向附合他人之意见;缺乏独立性、驱动力、专注、目标导向;敏感而细心、善於察言观色;超强的学习力与模仿力;不善于拒绝;
反箕纹(R):直言不讳、心直口快、易得罪他人而不自知;不受束缚、渴望自由;创意思维、打破传统、另类思考;我行我素、易挑剔他人、看问题片面、兴趣广泛但维持不久;喜欢以反证法来学习;
下降箕(Lf):最大的特质是专注、执着;原则性太强、思维弹性不足、偏倔强固执;喜欢钻牛角尖、陷入问题中不可自拔;情绪化;
弧型纹(A):遇挫折易停滞;思维模式简单、不喜欢复杂逻辑推理;无法承担过多的压力、易放弃;缺乏安全感、依赖性强;易压抑自己、敏感而脆弱;
简单弧(As):学习能力强;对周遭新鲜事物感兴趣、喜凑热闹;埋头苦干、脚踏实地、富责任心;对复杂之事敬而远之;缺乏安全感、不易推心置腹;内向者、易压抑自己的情绪;
围住弧(Ae):学习时需重复不断练习;埋头苦干、脚踏实地,但对复杂之事敬而远之;
帐篷弧(At):具艺术天赋或有艺术鉴赏力;学习比较被动、未达效果易放弃;对复杂之事敬而远之;外向者,主动、积极、热情、直率;
弧反箕(Ar):弧型和箕型纹的混合体,兼具两者特质;
弧正箕(Au):弧型和箕型纹的混合体,兼具两者特质;较强的环境适应能力及模仿力;包容力强且敏锐的察觉他人的需求和意图;思维敏捷、应变能力强、但略带倔强;
变形纹(Wx):内心世界充满悲观色彩;内心复杂、经常有许多想法,但都染上浓厚负面色彩;心智敏感,容易受它人行为或语言影响;较易冲动,情绪起伏大;性格捉摸不定、思维变化无常、不易控制。
在本说明书的描述中,若出现术语“本实施例”、“具体实施”等描述意指结合该实施例或示例描述的具体特征、结构、材料或特点包含于本发明或发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例;而且,所描述的具体特征、结构、材料或特点可以在任何一个或多个实施例或示例中以恰当的方式结合。
在本说明书的描述中,术语“连接”、“安装”、“固定”、“设置”、“具有”等均做广义理解,例如,“连接”可以是固定连接或在不影响部件关系与技术效果的基础上通过中间组件间接进行,也可以是一体连接或部分连接,如同此例的情形对于本领域普通技术人员而言,可根据具体情况理解上述术语在本发明中的具体含义。
上述对实施例的描述是为了便于该技术领域的普通技术人员能够理解和应用,熟悉本领域技术的人员显然可轻易对这些实例做出各种修改,并把在此说明的一般原理应用到其它实施例中而不必经过创造性的劳动。因此,本案不限于以上实施例,对于以下几种情形的修改,都应该在本案的保护范围内:①以本发明技术方案为基础并结合现有公知常识所实施的新的技术方案,该新的技术方案所产生的技术效果并没有超出本发明技术效果之外;②采用公知技术对本发明技术方案的部分特征的等效替换,所产生的技术效果与本发明技术效果相同;③以本发明技术方案为基础进行拓展,拓展后的技术方案的实质内容没有超出本发明技术方案之外;④利用本发明文本记载内容或说明书附图所作的等效变换,将所得技术手段应用在其它相关技术领域的方案。

Claims (10)

1.一种基于神经网络的智能皮纹采集分类识别方法,其特征在于,所采用的步骤包括:
步骤一,利用电子设备的摄像功能,充分采集得到皮纹原始图像并存储,准备进行对皮纹图像预处理环节,所述预处理环节依次进行以下①②③④⑤五个处理步骤:
①进行归一化处理:对皮纹原始图像进行适宜的裁剪以得到固定分辨率的图像,将图像分辨率设置为512×512,得到皮纹图像Ⅰ;
②对皮纹图像Ⅰ对进行维纳滤波去噪处理,得到滤波平滑的皮纹图像Ⅱ;
③采用Sobel算子算法对皮纹图像Ⅱ锐化并提取边缘,得到皮纹图像Ⅲ;
④采用二值化算法处理皮纹图像Ⅲ,得到仅保留黑白像素纹理的皮纹图像Ⅳ;
⑤将皮纹图像Ⅳ通过OPTA细化算法,使其像素骨架化,抽取像素的骨架,得到像素骨架化的皮纹图像Ⅴ;
步骤二,采用GAN生成式对抗网络模型算法对像素骨架化的皮纹图像Ⅴ进行修补处理、增强处理,得到修补增强后的图像,其中的修补处理包括修补纹理的断点、残损段,其中的增强处理包括使像素骨架化的皮纹图像Ⅴ剔除掉背景、噪音,以便突出皮纹特征;
步骤三,引入ResNet深度学习神经网络模型算法对修补增强后的图像进行皮纹分类识别处理,将人物性格与皮纹关系进行归纳分类,预测人物性格特征;
步骤四,通过皮纹归纳分类获取的多组分类信息,形成利于解读的报告。
2.根据权利要求1所述的基于神经网络的智能皮纹采集分类识别方法,其特征在于:所述ResNet深度学习神经网络模型算法还包括残差网络模块,并且其引入皮纹采集分类识别方法中用于算法程序设计。
3.根据权利要求2所述的基于神经网络的智能皮纹采集分类识别方法,其特征在于:所述ResNet深度学习神经网络模型算法于残差网络中增加直连通道,残差网络将输入X通过Xidentity绕道传入下一层网络。
4.根据权利要求1-3任一项所述的基于神经网络的智能皮纹采集分类识别方法,其特征在于:所述ResNet深度学习神经网络模型包括卷积层、池化层、以及若干全连接层。
5.根据权利要求4所述的基于神经网络的智能皮纹采集分类识别方法,其特征在于:所述卷积层提取出每一层数据中的局部特征,池化层保留主要特征同时减少参数和计算量。
6.根据权利要求1所述的基于神经网络的智能皮纹采集分类识别方法,其特征在于,所述ResNet深度学习神经网络模型的数据处理方式包括:
首先,使用8*8size的卷积核对第一层网络输入进行卷积、线性激活、池化,输出64*36*36的数据给第二层网络;
其次,使用4*4size的卷积核对第二层网络输入进行卷积、线性激活、池化,输出128*16*16的数据给第三层网络;
再次,使用4*4size的卷积核对第三层网络输入进行卷积、线性激活、池化,输出512*6*6的数据给第四层网络;
最后,使用size为256*32的全连接网络对图像进行分类。
7.根据权利要求1或6所述的基于神经网络的智能皮纹采集分类识别方法,其特征在于:所述智能皮纹采集分类识别方法通过基于CNN的ResNet神经网络预测人物性格特征,包括但不限于儿童性格特征、特殊岗位人员性格特征。
8.根据权利要求1所述的基于神经网络的智能皮纹采集分类识别方法,其特征在于:所述Sobel算子算法用于检测水平边缘以及垂直边缘。
9.根据权利要求1所述的基于神经网络的智能皮纹采集分类识别方法,其特征在于:所述二值化处理使图像上的点的灰度值为0或255,使图像呈现出明显的黑白效果,即将256个亮度等级的灰度图像通过适当的阈值选取而获得仍然可以反映图像整体和局部特征的二值化图像。
10.根据权利要求1所述的基于神经网络的智能皮纹采集分类识别方法,其特征在于:所述归纳分类包括至少二十个类型,即斗型纹、靶心斗、螺旋斗、伸长斗、双斗纹、双箕斗、內破斗、孔雀眼、侧向斗、箕型纹、正箕纹、反箕纹、下降箕、弧型纹、简单弧、围住弧、帐篷弧、弧反箕、弧正箕以及变形纹。
CN201910384955.4A 2019-05-09 2019-05-09 一种基于神经网络的智能皮纹采集分类识别方法 Pending CN110309708A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910384955.4A CN110309708A (zh) 2019-05-09 2019-05-09 一种基于神经网络的智能皮纹采集分类识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910384955.4A CN110309708A (zh) 2019-05-09 2019-05-09 一种基于神经网络的智能皮纹采集分类识别方法

Publications (1)

Publication Number Publication Date
CN110309708A true CN110309708A (zh) 2019-10-08

Family

ID=68074624

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910384955.4A Pending CN110309708A (zh) 2019-05-09 2019-05-09 一种基于神经网络的智能皮纹采集分类识别方法

Country Status (1)

Country Link
CN (1) CN110309708A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111932645A (zh) * 2020-06-12 2020-11-13 重庆大学 基于生成对抗网络gan自动生成水墨画的方法
WO2021072870A1 (zh) * 2019-10-15 2021-04-22 平安科技(深圳)有限公司 基于对抗网络的指纹模型生成方法以及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205540782U (zh) * 2016-01-22 2016-08-31 王顺社 一种皮纹检测分析装置
CN105975792A (zh) * 2016-05-21 2016-09-28 北京大脑智库教育科技有限公司 一种基于大数据的皮纹分析处理装置、方法
CN107862249A (zh) * 2017-10-18 2018-03-30 太原理工大学 一种分叉掌纹识别方法及装置
CN109472213A (zh) * 2018-10-16 2019-03-15 平安科技(深圳)有限公司 掌纹识别方法、装置、计算机设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205540782U (zh) * 2016-01-22 2016-08-31 王顺社 一种皮纹检测分析装置
CN105975792A (zh) * 2016-05-21 2016-09-28 北京大脑智库教育科技有限公司 一种基于大数据的皮纹分析处理装置、方法
CN107862249A (zh) * 2017-10-18 2018-03-30 太原理工大学 一种分叉掌纹识别方法及装置
CN109472213A (zh) * 2018-10-16 2019-03-15 平安科技(深圳)有限公司 掌纹识别方法、装置、计算机设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张恩光,: ""一种指纹图像预处理方法的研究"", 《科学时代》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021072870A1 (zh) * 2019-10-15 2021-04-22 平安科技(深圳)有限公司 基于对抗网络的指纹模型生成方法以及相关装置
CN111932645A (zh) * 2020-06-12 2020-11-13 重庆大学 基于生成对抗网络gan自动生成水墨画的方法
CN111932645B (zh) * 2020-06-12 2022-08-26 重庆大学 基于生成对抗网络gan自动生成水墨画的方法

Similar Documents

Publication Publication Date Title
Shaheen et al. Impact of automatic feature extraction in deep learning architecture
Li et al. Deep reinforcement learning for robust emotional classification in facial expression recognition
CN103258204B (zh) 一种基于Gabor和EOH特征的自动微表情识别方法
CN112784763B (zh) 基于局部与整体特征自适应融合的表情识别方法及系统
CN108875674A (zh) 一种基于多列融合卷积神经网络的驾驶员行为识别方法
CN109858032A (zh) 融合Attention机制的多粒度句子交互自然语言推理模型
CN104361363B (zh) 深度反卷积特征学习网络、生成方法及图像分类方法
CN101447020B (zh) 基于直觉模糊的色情图像识别方法
CN109815826A (zh) 人脸属性模型的生成方法及装置
CN106651915B (zh) 基于卷积神经网络的多尺度表达的目标跟踪方法
CN110197729A (zh) 基于深度学习的静息态fMRI数据分类方法和装置
DE112020004319T5 (de) Aktionserkennung mit interaktion hoher ordnung durch räumlich-zeitliche objektverfolgung
CN110349676A (zh) 时序生理数据分类方法、装置、存储介质和处理器
CN107145893A (zh) 一种基于卷积深度网络的图像识别算法及系统
CN109359608A (zh) 一种基于深度学习模型的人脸识别方法
CN110009057A (zh) 一种基于深度学习的图形验证码识别方法
CN110222634A (zh) 一种基于卷积神经网络的人体姿态识别方法
CN110321785A (zh) 一种引入ResNet深度学习网络构建皮纹分类预测模型的方法
CN110134765A (zh) 一种基于情感分析的餐厅用户评论分析系统及方法
CN106909938A (zh) 基于深度学习网络的视角无关性行为识别方法
CN110188654A (zh) 一种基于移动未裁剪网络的视频行为识别方法
CN106980830A (zh) 一种基于深度卷积网络自亲缘关系识别方法与装置
Wei et al. Bioinspired visual-integrated model for multilabel classification of textile defect images
CN110309708A (zh) 一种基于神经网络的智能皮纹采集分类识别方法
Salazar-Jurado et al. Towards the generation of synthetic images of palm vein patterns: A review

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191008

RJ01 Rejection of invention patent application after publication