CN110245669B - 手掌关键点的识别方法、装置、终端及可读存储介质 - Google Patents
手掌关键点的识别方法、装置、终端及可读存储介质 Download PDFInfo
- Publication number
- CN110245669B CN110245669B CN201910407231.7A CN201910407231A CN110245669B CN 110245669 B CN110245669 B CN 110245669B CN 201910407231 A CN201910407231 A CN 201910407231A CN 110245669 B CN110245669 B CN 110245669B
- Authority
- CN
- China
- Prior art keywords
- palm
- target
- neural network
- network model
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 238000003062 neural network model Methods 0.000 claims abstract description 110
- 230000006870 function Effects 0.000 claims description 129
- 238000012795 verification Methods 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 22
- 230000004044 response Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000002776 aggregation Effects 0.000 claims description 4
- 238000004220 aggregation Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 abstract description 12
- 238000013528 artificial neural network Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种手掌关键点的识别方法,包括:将特征点的热度Tn、特征点的局部卷积子网络输出结果Ln、内核函数K、特征点的全局卷积子网络输出结果Gn以及预设的权重ω代入损失函数中进行计算得到损失函数值;根据损失函数值与目标输出值调整神经网络模型的权重,直至损失函数值满足预设结束条件,得到目标神经网络模型;获取目标手掌图片,将目标手掌图片输入目标神经网络模型中,识别出对应的手掌关键点。本发明还提供一种手掌关键点的识别装置、终端及可读存储介质,本发明提出的技术方案基于神经网络对手掌关键点进行识别,能够提高目标神经网络模型的手掌关键点的识别准确性,并且,能够减少处理步骤。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及一种手掌关键点的识别方法、装置、终端及可读存储介质。
背景技术
图像形变、光照等都将会影响手掌关键点识别的准确性,常用的局部卷积神经网络(如FRCNN网络)识别手掌关键点的准确性与图像本身的分辨率有关,且识别关键点之前需要采用其他深度学习方法来获取手掌的范围,处理步骤繁琐,且识别方法的准确性不高。
因此,现有手掌关键点的识别方法处理步骤繁琐且准确性不高是一种亟待解决的问题。
发明内容
本发明的主要目的在于提供一种手掌关键点的识别方法、装置、终端及可读存储介质,旨在解决现有的手掌关键点的识别方法处理步骤繁琐且准确性不高的技术问题。
为实现上述目的,本发明提供一种手掌关键点的识别方法,所述手掌关键点的识别方法包括:
获取标有特征点的样本手掌图片,其中,所述样本手掌图片为灰度图片,特征点的热度为Tn,热度Tn为特征点的颜色从全黑到全白之间的级别;
将所述样本手掌图片输入神经网络模型中获取对应的目标输出值,所述目标输出值包括:特征点的局部卷积子网络输出结果Ln、内核卷积层中的内核函数K以及特征点的全局卷积子网络输出结果Gn;
将特征点的热度Tn、特征点的局部卷积子网络输出结果Ln、内核函数K、特征点的全局卷积子网络输出结果Gn以及预设的权重ω代入损失函数中进行计算得到损失函数值;
根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数值满足预设结束条件,得到目标神经网络模型;
获取目标手掌图片,将所述目标手掌图片输入所述目标神经网络模型中,识别出对应的手掌关键点。
优选地,所述将所述样本手掌图片输入神经网络模型中获取对应的目标输出值的步骤包括:
将所述样本手掌图片输入神经网络模型中;
通过局部卷积子网络提取所述样本手掌图片的特征点的局部特征,输出为Ln;
通过内核卷积层将Ln传输至全局卷积子网络,内核函数为K;
通过全局卷积子网络对Ln进行聚合输出,输出为Gn;
获得对应的输出目标值P=Ln*K+Gn。
优选地,所述损失函数为:
其中,ω为权重。
优选地,所述内核函数为:
其中,N为样本手掌图片的个数,s为高斯函数。
优选地,所述根据所述损失函数值与所述目标输出值调整所述神经网络模型中的权重,直至所述损失函数满足预设结束条件,得到目标神经网络模型的步骤包括:
判断所述损失函数值是否大于预设阈值;
若所述损失函数值大于所述预设阈值,则获取预设目标值,并计算输出目标值与预设目标值之间的响应误差;
将所述样本手掌图片的数据与所述响应误差相乘求取权重的梯度;
将所述梯度与训练因子相乘后取反并将其与所述权重相加以更新所述权重,直至所述损失函数值小于或等于预设阈值,将所述损失函数值小于或等于预设阈值时对应的神经网络模型作为目标神经网络模型。
优选地,所述获取目标手掌图片,将所述目标手掌图片输入所述目标神经网络模型中,得到对应的手掌关键点的步骤之后,还包括:
根据手掌关键点对所述目标手掌图片进行分割,得到与所述目标手掌图片对应的手掌特征图;
将所述手掌特征图与数据库中已保存的特征图进行匹配查询,获得匹配的特征图;
根据匹配的特征图查找到对应的人员信息。
优选地,所述根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数值满足预设结束条件,得到目标神经网络模型的步骤之后,还包括:
获取预设的验证图片,并将所述验证图片输入所述目标神经网络模型,识别出验证图片对应的手掌关键点;
将验证图片对应的手掌关键点与预设的正确的手掌关键点进行对比获得识别出的手掌关键点的准确率;
判断所述准确率是否小于预设的达标准确率;
若所述准确率小于预设的达标准确率,则修改所述预设结束条件来进行重新训练。
另外,本发明还提供一种手掌关键点的识别装置,所述手掌关键点的识别装置包括:
第一获取模块,所述第一获取模块用于获取标有特征点的样本手掌图片,其中,所述样本手掌图片为灰度图片,特征点的热度为Tn,热度Tn为特征点的颜色从全黑到全白之间的级别;
第二获取模块,所述第二取模块用于将所述样本手掌图片输入神经网络模型中获取对应的目标输出值,所述目标输出值包括:特征点的局部卷积子网络输出结果Ln、内核卷积层中的内核函数K以及特征点的全局卷积子网络输出结果Gn;
计算模块,所述计算模块用于将特征点的热度Tn、特征点的局部卷积子网络输出结果Ln、内核函数K、特征点的全局卷积子网络输出结果Gn以及预设的权重ω代入损失函数中进行计算得到损失函数值;
调整模块,所述调整模块用于根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数值满足预设结束条件,得到目标神经网络模型;
识别模块,所述识别模块用于获取目标手掌图片,将所述目标手掌图片输入所述目标神经网络模型中,识别出对应的手掌关键点。
本发明还提供一种终端,包括处理器、存储器、以及存储在所述存储器上的可被所述处理器执行的手掌关键点的识别程序,其中,所述手掌关键点的识别程序被所述处理器执行时,实现如上所述的手掌关键点的识别方法的步骤。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有手掌关键点的识别程序,其中,所述手掌关键点的识别程序被处理器执行时,实现如上所述的手掌关键点的识别方法的步骤。
本发明技术方案中,获取标有特征点的样本手掌图片,其中,样本手掌图片为灰度图片,特征点的热度为Tn,热度Tn为特征点的颜色从全黑到全白之间的级别;将样本手掌图片输入神经网络模型中获取对应的目标输出值,目标输出值包括:特征点的局部卷积子网络输出结果Ln、内核卷积层中的内核函数K、以及特征点的全局卷积子网络输出结果Gn;将特征点的热度Tn、特征点的局部卷积子网络输出结果Ln、内核函数K、特征点的全局卷积子网络输出结果Gn以及预设的权重ω代入损失函数中进行计算得到损失函数值;根据损失函数值与目标输出值调整神经网络模型的权重,直至损失函数值满足预设结束条件,得到目标神经网络模型;获取目标手掌图片,将目标手掌图片输入目标神经网络模型中,识别出对应的手掌关键点。本发明提出的技术方案基于神经网络对手掌关键点进行识别,本发明的神经网络模型中的目标输出值中包括了局部卷积子网络输出与全局卷积子网络输出,通过采用局部卷积子网络与全局卷积子网络相结合的方法,使得神经网络模型不仅能够提取局部特征,而且还能够进行全局检测验证,提高目标神经网络模型的手掌关键点的识别准确性。并且,训练好的目标神经网络模型可以直接识别手掌关键点,无需进行其他深度学习,能够减少处理步骤,从而提高手掌关键点的识别效率。
附图说明
图1为本发明实施例方案中涉及的终端的硬件结构示意图;
图2为本发明手掌关键点的识别方法第一实施例的流程示意图;
图3为本发明实施例中将所述样本手掌图片输入神经网络模型中获取对应的目标输出值的流程细化示意图;
图4为本发明实施例中根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数值满足预设结束条件,得到目标神经网络模型的步骤的流程细化示意图;
图5为本发明手掌关键点的识别方法第二实施例的流程示意图;
图6为本发明手掌关键点的识别方法第三实施例的流程示意图;
图7为本发明手掌关键点的识别方法第四实施例的流程示意图;
图8为本发明手掌关键点的识别装置的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例涉及的手掌关键点的识别方法主要应用于终端,该终端可以是PC、便携计算机、移动终端等具有显示和处理功能的设备。
参照图1,图1为本发明实施例方案中涉及的终端结构示意图。本发明实施例中,终端可以包括处理器1001(例如CPU),通信总线1002,用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信;用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard);网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口);存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器,存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的硬件结构并不构成对设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
继续参照图1,图1中作为一种计算机可读存储介质的存储器1005可以包括操作系统、网络通信模块以及手掌关键点的识别程序。
在图1中,网络通信模块主要用于连接服务器,与服务器进行数据通信;而处理器1001可以调用存储器1005中存储的手掌关键点的识别程序,并执行手掌关键点的识别方法的步骤。
基于上述终端的硬件结构,提出本发明手掌关键点的识别方法的各个实施例。
本发明提供一种手掌关键点的识别方法。
请参阅图2,在本发明第一实施例中,手掌关键点的识别方法包括以下步骤:
步骤S100,获取标有特征点的样本手掌图片,其中,所述样本手掌图片为灰度图片,特征点的热度为Tn,热度Tn为特征点的颜色从全黑到全白之间的级别;
需要说明的是,在对目标手掌图片进行识别之前,先需要对构建的神经网络模型进行训练得到目标神经网络模型。本实施例中的样本手掌图片为标有手掌的特征点的灰度图片,在灰度图片中,每一个特征点可表示为一个独立的热度图(热度图可看做[0,1]之间的灰度图),特征点的热度为Tn,热度Tn为特征点的颜色从全黑到全白之间的级别,黑色的热度为0,白色的热度为1。并且,实际的特征点坐标可以设置为白色,图片背景为黑色。
步骤S200,将所述样本手掌图片输入神经网络模型中获取对应的目标输出值,所述目标输出值包括:特征点的局部卷积子网络输出结果Ln、内核卷积层中的内核函数K以及特征点的全局卷积子网络输出结果Gn;
在获取到样本手掌图片后,将样本手掌图片输入神经网络模型中,神经网络模型中包括局部卷积子网络、内核卷积层以及全局卷积子网络,内核卷积层能够对目标输出值与期望目标之间的残差进行反向传播来对神经网络进行优化训练,而神经网络模型中该设置有止损函数,通过损失函数来判断训练是否结束。将样本手掌图片输入神经网络模型中得到对应的目标输出值,目标输出值包括:特征点的局部卷积子网络输出结果Ln、内核卷积层中的内核函数K以及特征点的全局卷积子网络输出结果Gn。
具体地,请参照图3,图3为本发明实施例中将所述样本手掌图片输入神经网络模型中获取对应的目标输出值的流程细化示意图,基于上述实施例,步骤S200包括:
步骤S210,将所述样本手掌图片输入神经网络模型中;
步骤S220,通过局部卷积子网络提取所述样本手掌图片的特征点的局部特征,输出为Ln;
通过局部卷积子网络能够提取样本手掌图片的的局部特征,输出为Ln,即,Ln表示特征点n的局部卷积子网络输出。该网络由5个5×5的卷积层和10个3×3的卷积层和1×1的卷积层组成,各卷积层作用是提取图片的特征点的局部特征,最后的1×1卷积层是为了补偿批量训练规范。
步骤S230,通过内核卷积层将Ln传输至全局卷积子网络,内核函数为K;
通过内核卷积层将局部卷积子网络的输出的信息传输至全局卷积子网络,并且将目标输出值与预设目标值之间的残差进行反向传播,衡量预测值与实际像素的平方损失值,使得局部卷积子网络能够产生清晰和突出的特征,且能够使得损失函数光滑,有利于网络的收敛。其中,内核卷积层的内核函数K由5个高斯函数和组成,其公式为堆成二元正态分布,其中,N为样本图片的个数,s为高斯函数。采用内核卷积对局部卷积子网络的输出进行传播,能够使得局部卷积子网络的关键点识别结果更加突出,实现较强的鲁棒性。
步骤S240,通过全局卷积子网络对Ln进行聚合输出,输出为Gn;
通过全局卷积子网络对局部卷积子网络的输出的信息进行聚合输出,输出为Gn,即,Gn表示特征点n的全局卷积子网络输出。该全局卷积子网络由7层连续的扩张卷积组成,每层的卷积核大小为3×3,膨胀因子为4(网络膨胀是通过一个二维核实现通道间智能卷积),最后一层为1×1的线性卷积层,用于批量归一化。
步骤S250,获得对应的输出目标值P=Ln*K+Gn。
将所述样本手掌图片输入神经网络模型中,最后获得对应的目标输出值为P=Ln*K+Gn。
步骤S300,将特征点的热度Tn、特征点的局部卷积子网络输出结果Ln、内核函数K、特征点的全局卷积子网络输出结果Gn以及预设的权重ω代入损失函数中进行计算得到损失函数值;
具体地,损失函数层为判断网络训练是否继续的依据,当计算出来的损失函数值小于或等于预设阈值时,神经网络模型停止训练;当计算出来的损失函数值大于预设阈值时,神经网络模型继续训练。
在本实施例中,损失函数的公式为在将特征点的热度Tn、特征点的局部卷积子网络输出Ln、内核函数K、特征点的全局卷积子网络输出Gn以及预设的权重ω代入损失函数中进行计算后,可以得到损失函数值。
步骤S400,根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数满足预设结束条件,得到目标神经网络模型;
具体地,可以根据损失函数值与目标输出值调整神经网络模型的权重,即,当计算出来的损失函数值大于预设阈值时,神经网络模型继续训练,而内核卷积层可以将目标输出值与预设目标值之间的残差进行反向传播来反复循环迭代更新神经网络模型中的权重ω,直至损失函数值满足预设结束条件,需要说明的是,在本实施例中,预设结束条件为损失函数值小于或等于预设阈值。在损失函数值满足预设结束条件后,将此时神经网络模型中的权重为ω的权重文件保存,从而获得目标神经网络模型。
具体地,请参照图4,图4为本发明实施例中根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数值满足预设结束条件,得到目标神经网络模型的步骤的流程细化示意图,基于上述实施例,步骤S400包括:
步骤S410,判断所述损失函数值是否大于预设阈值;
具体地,在计算出损失函数值后,需要计算获得的损失函数值是否大于预设阈值,当损失函数值小于或等于预设阈值时,说明损失函数值满足预设的结束条件,在此种情况下,停止训练,将此时神经网络模型中的权重为w的权重文件保存,将此时神经网络模型作为目标神经网络模型。
步骤S420,若所述损失函数值大于所述预设阈值,则获取预设目标值,计算输出目标值与预设目标值之间的响应误差;
步骤S430,将所述样本手掌图片的数据与所述响应误差相乘求取权重的梯度;
步骤S440,将所述梯度与训练因子相乘后取反并将其与所述权重相加以更新所述权重,直至所述损失函数值小于或等于预设阈值,并将所述损失函数值小于或等于预设阈值时对应的神经网络模型作为目标神经网络模型。
具体地,当损失函数值大于预设阈值时,说明还需要对神经网络模型进行训练,此时,可以获取预设目标值,预设目标值为根据样本手掌图片需要得到的输出值。在获取到预设目标值后,计算输出目标值与预设目标值之间的响应误差,即,将输出目标值与预设目标值的差值作为响应误差。在计算出响应误差后,将样本手掌图片的数据信息和响应误差相乘后求取权重的梯度,在将计算得到的权重的梯度与训练因子相乘后取反后加到权重上,使得权重更新为新的权重。需要说明的是,梯度的方向指明了误差扩大的方向,因此在更新权重的时候需要把梯度取反后加到权重上,从而减少权重引起的误差。此外,训练因子会影响到训练过程的速度和效果,训练因子可以是工作人员根据实际需要设置的一个具体比例值。在权重更新后,将样本手掌图片再次输入到神经网络模型中,再将获得的各种输出数据代入到损失函数中,当损失函数值大于预设阈值时,继续进行步骤S420,如此反复循环迭代的更新权重,直至损失函数值小于或等于预设阈值时,结束训练,将所述损失函数值小于或等于预设阈值时对应的神经网络模型作为目标神经网络模型。
步骤S500,获取目标手掌图片,将所述目标手掌图片输入所述目标神经网络模型中,识别出对应的手掌关键点。
具体地,在获得目标神经网络模型后,将需要识别的目标手掌图片输入到目标神经网络模型中,目标神经网络模型调用训练好的权重文件对目标手掌图片中的手掌关键点进行识别,获得与目标手掌图片对应的手掌关键点。
本发明技术方案中,获取标有特征点的样本手掌图片,其中,样本手掌图片为灰度图片,特征点的热度为Tn;将样本手掌图片输入神经网络模型中获取对应的目标输出值,目标输出值包括:特征点的局部卷积子网络输出Ln、内核函数K、以及特征点的全局卷积子网络输出Gn;将特征点的热度Tn、特征点的局部卷积子网络输出Ln、内核函数K、特征点的全局卷积子网络输出Gn以及预设的权重w代入损失函数中进行计算得到损失函数值;根据损失函数值与目标输出值调整神经网络模型的权重,直至损失函数值满足预设结束条件,得到目标神经网络模型;获取目标手掌图片,将目标手掌图片输入目标神经网络模型中,识别出对应的手掌关键点。本发明提出的技术方案基于神经网络对手掌关键点进行识别,本发明的神经网络模型中的目标输出值中包括了局部卷积子网络输出与全局卷积子网络输出,通过采用局部卷积子网络与全局卷积子网络相结合的方法,使得神经网络模型不仅能够提取局部特征,而且还能够进行全局检测验证,提高目标神经网络模型的手掌关键点的识别准确性。并且,训练好的目标神经网络模型可以直接识别手掌关键点,无需进行其他深度学习,能够减少处理步骤,从而提高手掌关键点的识别效率。
进一步地,请参照图5,图5为本发明手掌关键点的识别方法第二实施例的流程示意图,基于第一实施例,步骤S500之后,还包括:
步骤S600,根据手掌关键点对所述目标手掌图片进行分割,得到与所述目标手掌图片对应的手掌特征图;
具体地,在识别出目标手掌图片的手掌关键点后,根据识别出的手掌关键点对目标手掌图片进行分割,得到与目标手掌图片对应的手掌特征图。
步骤S700,将所述手掌特征图与数据库中已保存的特征图进行匹配查询,获得匹配的特征图;
具体地,可以在终端的数据库中预先保存有手掌特征图与人员信息的对应关系表,人员信息可以包括姓名、身份证号等。在获取到与目标手掌图片对应的手掌特征图后,将手掌特征图与数据库中已保存的特征图进行匹配查询,找到匹配度最高的手掌特征图图片作为匹配的特征图。
步骤S800,根据匹配的特征图查找到对应的人员信息。
在获得匹配的特征图后,根据匹配的特征图获取到对应的人员信息,即,获得目标手掌图片对应的人员信息。
进一步地,请参照图6,图6为本发明手掌关键点的识别方法第三实施例的流程示意图,基于第一实施例,步骤S400之后,还包括:
步骤S450,获取预设的验证图片,并将所述验证图片输入所述目标神经网络模型,识别出验证图片对应的手掌关键点;
具体地,终端可以获取预设的验证图片,并将验证图片输入目标神经网络模型中,识别出验证图片对应的手掌关键点。
步骤S460,将验证图片对应的手掌关键点与预设的正确的手掌关键点进行对比获得识别出的手掌关键点的准确率;
在识别出与验证图片对应的手掌关键点后,可以将识别出的手掌关键点与预设的正确的手掌关键点进行对比,获得通过目标神经网络模型识别出的验证图片的收官关键点的准确率。
步骤S470,判断所述准确率是否小于预设的达标准确率;
具体地,可以预先设置目标神经网络模型的达标准确率,在获得识别的验证图片对应的手掌关键点的准确率后,将获得的准确率与预设的达标朱略率相比较,判断获得的准确率是否超过预设的达标准确率。
步骤S480,若所述准确率小于预设的达标准确率,则修改所述预设结束条件来进行重新训练。
具体地,如果获得的准确率小于预设的达标准确率,说明训练完成的目标神经网络模型不达标,在此种情况下,可以修改预设结束条件来对目标神经网络模型进行重新训练,提高目标神经网络模型对手掌关键点的识别准确性。即,降低损失函数中设定的损失阈值来进行重新训练。在另一种实施例中,可以增加用于训练的样本手掌图片的个数,以此来提高目标神经网络模型的识别准确率。此外,如果获得的准确率大于或等于预设的达标准确率,说明训练完成的目标神经网络模型达标,无需在对目标神经网络模型进行训练。例如,预设的手掌关键点的达标准确率为90%,在对验证图片进行识别的准确率为80%,则说明训练完成的目标神经网络模型不达标。
进一步地,请参照图7,图7为本发明手掌关键点的识别方法第四实施例的流程示意图,基于第一实施例,步骤S100之前,还包括:
步骤S110,获取待处理的标有特征点的手掌图片;
具体地,在需要对神经网络模型进行训练时,待处理的标有特征点的手掌图片可以根据可以由工作人员输入,也可以由终端在数据库中获取。需要说明的是,本实施例中的待处理的标有特征点的手掌图片为彩色图片。工作人员可以先将标有特征点的彩色图片裁剪、缩放为方形图片,其中,本实施例中方形图片的大小为96*96pix。
步骤S120,对所述手掌图片进行边缘去噪处理;
具体地,对手掌图片的边缘进行去噪处理,使得手掌图片中的手掌图像更加清晰。
步骤S130,对边缘去噪处理后的手掌图片进行灰度值转化处理,得到灰度图片,并将所述灰度图片分为样本手掌图片和验证图片。
具体地,采用灰度转化公式Y=0.3R+0.59G+0.11B来将手掌图片转化为灰度图片,其中,R、G、B为三原色,Y为表征为图像的灰度值。因此,在获得边缘去噪处理后的手掌图片后,采用灰度转化公式对边缘去噪处理后的手掌图片进行灰度值转化处理,得到灰度图片,再将灰度图片分为样本手掌图片和验证图片,并且可以在转化后的灰度图片上分别添加表征训练和验证的特征标识,终端在针对用户输入的训练或验证指令来调用对应的图片。。
此外,请参照图8,本发明还提供一种手掌关键点的识别装置10,所述手掌关键点的识别装置10包括:
第一获取模块20,所述第一获取模块用于获取标有特征点的样本手掌图片,其中,所述样本手掌图片为灰度图片,特征点的热度为Tn,热度Tn为特征点的颜色从全黑到全白之间的级别;
第二获取模块30,所述第二取模块用于将所述样本手掌图片输入神经网络模型中获取对应的目标输出值,所述目标输出值包括:特征点的局部卷积子网络输出结果Ln、内核卷积层中的内核函数K以及特征点的全局卷积子网络输出结果Gn;
计算模块40,所述计算模块用于将特征点的热度Tn、特征点的局部卷积子网络输出结果Ln、内核函数K、特征点的全局卷积子网络输出结果Gn以及预设的权重ω代入损失函数中进行计算得到损失函数值;
调整模块50,所述调整模块用于根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数值满足预设结束条件,得到目标神经网络模型;
识别模块60,所述识别模块用于获取目标手掌图片,将所述目标手掌图片输入所述目标神经网络模型中,识别出对应的手掌关键点。
进一步地,所述第二获取模块还用于:
将所述样本手掌图片输入神经网络模型中;
通过局部卷积子网络提取所述样本手掌图片的特征点的局部特征,输出为Ln;
通过内核卷积层将Ln传输至全局卷积子网络,内核函数为K;
通过全局卷积子网络对Ln进行聚合输出,输出为Gn;
获得对应的输出目标值P=Ln*K+Gn。
进一步地,所述损失函数为:
其中,ω为权重。
进一步地,所述内核函数为:
其中,N为样本手掌图片的个数,s为高斯函数。
进一步的,所述调整模块还用于:
判断所述损失函数值是否大于预设阈值;
若所述损失函数值大于所述预设阈值,则获取预设目标值,并计算输出目标值与预设目标值之间的响应误差;
将所述样本手掌图片的数据与所述响应误差相乘求取权重的梯度;
将所述梯度与训练因子相乘后取反并将其与所述权重相加以更新所述权重,直至所述损失函数值小于或等于预设阈值,将所述损失函数值小于或等于预设阈值时对应的神经网络模型作为目标神经网络模型。
进一步地,所述手掌关键点的识别装置10还包括:
分割模块,所述分割模块用于根据手掌关键点对所述目标手掌图片进行分割,得到与所述目标手掌图片对应的手掌特征图;
查询模块,所述查询模块用于将所述手掌特征图与数据库中已保存的特征图进行匹配查询,获得匹配的特征图;
查找模块,所述查找模块用于根据匹配的特征图查找到对应的人员信息。
进一步地,所述手掌关键点的识别装置10还包括:
第三获取模块,所述第三获取模块用于获取预设的验证图片,并将所述验证图片输入所述目标神经网络模型,识别出验证图片对应的手掌关键点;
对比模块,所述对比模块用于将验证图片对应的手掌关键点与预设的正确的手掌关键点进行对比获得识别出的手掌关键点的准确率;
判断模块,所述判断模块用于判断所述准确率是否小于预设的达标准确率;
修改模块,所述修改模块用于若所述准确率小于预设的达标准确率,则修改所述预设结束条件来进行重新训练。
其中,上述手掌关键点的识别装置10中各个模块与上述手掌关键点的识别方法实施例中各步骤相对应,其功能和实现过程在此处不再一一赘述。
此外,本发明还提供一种计算机可读存储介质。
本发明计算机可读存储介质上存储有手掌关键点的识别程序,其中,手掌关键点的识别程序被处理器执行时,实现如上述的手掌关键点的识别方法的步骤。
其中,手掌关键点的识别程序被执行时所实现的方法可参照本发明手掌关键点的识别方法的各个实施例,此处不再赘述。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (7)
1.一种手掌关键点的识别方法,其特征在于,所述手掌关键点的识别方法包括:
获取标有特征点的样本手掌图片,其中,所述样本手掌图片为灰度图片,特征点的热度为Tn,热度Tn为特征点的颜色从全黑到全白之间的级别;
将所述样本手掌图片输入神经网络模型中获取对应的目标输出值,所述目标输出值包括:特征点的局部卷积子网络输出结果Ln、内核卷积层中的内核函数K以及特征点的全局卷积子网络输出结果Gn;
将特征点的热度Tn、特征点的局部卷积子网络输出结果Ln、内核函数K、特征点的全局卷积子网络输出结果Gn以及预设的权重代入损失函数中进行计算得到损失函数值;
根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数值满足预设结束条件,得到目标神经网络模型;
获取目标手掌图片,将所述目标手掌图片输入所述目标神经网络模型中,识别出对应的手掌关键点;
所述将所述样本手掌图片输入神经网络模型中获取对应的目标输出值的步骤包括:
将所述样本手掌图片输入神经网络模型中;
通过局部卷积子网络提取所述样本手掌图片的特征点的局部特征,输出为Ln;
通过内核卷积层将Ln传输至全局卷积子网络,内核函数为K;
通过全局卷积子网络对Ln进行聚合输出,输出为Gn;
获得对应的输出目标值P=Ln*K+Gn;
所述损失函数为:
,其中,/>为权重;
所述内核函数为:
,其中,N为样本手掌图片的个数,s为高斯函数。
2.如权利要求1所述的手掌关键点的识别方法,其特征在于,所述根据所述损失函数值与所述目标输出值调整所述神经网络模型中的权重,直至所述损失函数满足预设结束条件,得到目标神经网络模型的步骤包括:
判断所述损失函数值是否大于预设阈值;
若所述损失函数值大于所述预设阈值,则获取预设目标值,并计算输出目标值与预设目标值之间的响应误差;
将所述样本手掌图片的数据与所述响应误差相乘求取权重的梯度;
将所述梯度与训练因子相乘后取反并将其与所述权重相加以更新所述权重,直至所述损失函数值小于或等于预设阈值,将所述损失函数值小于或等于预设阈值时对应的神经网络模型作为目标神经网络模型。
3.如权利要求1所述的手掌关键点的识别方法,其特征在于,所述获取目标手掌图片,将所述目标手掌图片输入所述目标神经网络模型中,得到对应的手掌关键点的步骤之后,还包括:
根据手掌关键点对所述目标手掌图片进行分割,得到与所述目标手掌图片对应的手掌特征图;
将所述手掌特征图与数据库中已保存的特征图进行匹配查询,获得匹配的特征图;
根据匹配的特征图查找到对应的人员信息。
4.如权利要求1-3中任一项所述的手掌关键点的识别方法,其特征在于,所述根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数值满足预设结束条件,得到目标神经网络模型的步骤之后,还包括:
获取预设的验证图片,并将所述验证图片输入所述目标神经网络模型,识别出验证图片对应的手掌关键点;
将验证图片对应的手掌关键点与预设的正确的手掌关键点进行对比获得识别出的手掌关键点的准确率;
判断所述准确率是否小于预设的达标准确率;
若所述准确率小于预设的达标准确率,则修改所述预设结束条件来进行重新训练。
5.一种手掌关键点的识别装置,其特征在于,所述手掌关键点的识别装置包括:
第一获取模块,所述第一获取模块用于获取标有特征点的样本手掌图片,其中,所述样本手掌图片为灰度图片,特征点的热度为Tn,热度Tn为特征点的颜色从全黑到全白之间的级别;
第二获取模块,所述第二获取模块用于将所述样本手掌图片输入神经网络模型中获取对应的目标输出值,所述目标输出值包括:特征点的局部卷积子网络输出结果Ln、内核卷积层中的内核函数K以及特征点的全局卷积子网络输出结果Gn;
计算模块,所述计算模块用于将特征点的热度Tn、特征点的局部卷积子网络输出结果Ln、内核函数K、特征点的全局卷积子网络输出结果Gn以及预设的权重代入损失函数中进行计算得到损失函数值;
调整模块,所述调整模块用于根据所述损失函数值与所述目标输出值调整所述神经网络模型的权重,直至所述损失函数值满足预设结束条件,得到目标神经网络模型;
识别模块,所述识别模块用于获取目标手掌图片,将所述目标手掌图片输入所述目标神经网络模型中,识别出对应的手掌关键点;
所述第二获取模块,还用于将所述样本手掌图片输入神经网络模型中;通过局部卷积子网络提取所述样本手掌图片的特征点的局部特征,输出为Ln;通过内核卷积层将Ln传输至全局卷积子网络,内核函数为K; 通过全局卷积子网络对Ln进行聚合输出,输出为Gn;获得对应的输出目标值P=Ln*K+Gn;
所述损失函数为:
,其中,/>为权重;
所述内核函数为:
,其中,N为样本手掌图片的个数,s为高斯函数。
6.一种终端,其特征在于,包括处理器、存储器、以及存储在所述存储器上的可被所述处理器执行的手掌关键点的识别程序,其中,所述手掌关键点的识别程序被所述处理器执行时,实现如权利要求1至4中任一项所述的手掌关键点的识别方法的步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有手掌关键点的识别程序,其中,所述手掌关键点的识别程序被处理器执行时,实现如权利要求1至4中任一项所述的手掌关键点的识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910407231.7A CN110245669B (zh) | 2019-05-15 | 2019-05-15 | 手掌关键点的识别方法、装置、终端及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910407231.7A CN110245669B (zh) | 2019-05-15 | 2019-05-15 | 手掌关键点的识别方法、装置、终端及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110245669A CN110245669A (zh) | 2019-09-17 |
CN110245669B true CN110245669B (zh) | 2024-02-02 |
Family
ID=67884167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910407231.7A Active CN110245669B (zh) | 2019-05-15 | 2019-05-15 | 手掌关键点的识别方法、装置、终端及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110245669B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132099A (zh) * | 2020-09-30 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 身份识别方法、掌纹关键点检测模型训练方法和装置 |
CN113592041B (zh) * | 2021-09-29 | 2022-01-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备、存储介质及计算机程序产品 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107767419A (zh) * | 2017-11-07 | 2018-03-06 | 广州深域信息科技有限公司 | 一种人体骨骼关键点检测方法及装置 |
WO2018081135A1 (en) * | 2016-10-25 | 2018-05-03 | Vmaxx Inc. | Point to set similarity comparison and deep feature learning for visual recognition |
CN109697446A (zh) * | 2018-12-04 | 2019-04-30 | 北京字节跳动网络技术有限公司 | 图像关键点提取方法、装置、可读存储介质及电子设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8660368B2 (en) * | 2011-03-16 | 2014-02-25 | International Business Machines Corporation | Anomalous pattern discovery |
CN109684901B (zh) * | 2017-10-19 | 2023-06-06 | 富士通株式会社 | 图像处理装置和图像处理方法 |
-
2019
- 2019-05-15 CN CN201910407231.7A patent/CN110245669B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018081135A1 (en) * | 2016-10-25 | 2018-05-03 | Vmaxx Inc. | Point to set similarity comparison and deep feature learning for visual recognition |
CN107767419A (zh) * | 2017-11-07 | 2018-03-06 | 广州深域信息科技有限公司 | 一种人体骨骼关键点检测方法及装置 |
CN109697446A (zh) * | 2018-12-04 | 2019-04-30 | 北京字节跳动网络技术有限公司 | 图像关键点提取方法、装置、可读存储介质及电子设备 |
Non-Patent Citations (1)
Title |
---|
级联神经网络人脸关键点定位研究;井长兴;章东平;杨力;;中国计量大学学报(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110245669A (zh) | 2019-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11487995B2 (en) | Method and apparatus for determining image quality | |
CN112434721A (zh) | 一种基于小样本学习的图像分类方法、系统、存储介质及终端 | |
TWI752455B (zh) | 圖像分類模型訓練方法、影像處理方法、資料分類模型訓練方法、資料處理方法、電腦設備、儲存媒介 | |
CN110930296B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN110765882B (zh) | 一种视频标签确定方法、装置、服务器及存储介质 | |
CN113128419B (zh) | 一种障碍物识别方法和装置、电子设备及存储介质 | |
CN112614110B (zh) | 评估图像质量的方法、装置及终端设备 | |
CN111079847A (zh) | 一种基于深度学习的遥感影像自动标注方法 | |
JP2019211913A (ja) | 特徴量抽出装置、方法、及びプログラム | |
CN111061933A (zh) | 图片样本库构建方法、装置、可读存储介质及终端设备 | |
CN110245669B (zh) | 手掌关键点的识别方法、装置、终端及可读存储介质 | |
CN111223128A (zh) | 目标跟踪方法、装置、设备及存储介质 | |
CN114299363A (zh) | 图像处理模型的训练方法、图像分类方法及装置 | |
WO2021051562A1 (zh) | 人脸特征点定位方法、装置、计算设备和存储介质 | |
CN114358979A (zh) | 酒店匹配方法、装置、电子设备及存储介质 | |
CN113761262A (zh) | 图像的检索类别确定方法、系统以及图像检索方法 | |
CN116071625B (zh) | 深度学习模型的训练方法、目标检测方法及装置 | |
CN111104965A (zh) | 车辆目标识别的方法及装置 | |
CN112288748B (zh) | 一种语义分割网络训练、图像语义分割方法及装置 | |
CN113988316A (zh) | 对机器学习模型训练的方法和装置 | |
CN111325210A (zh) | 用于输出信息的方法和装置 | |
CN113610064B (zh) | 笔迹识别方法和装置 | |
CN118314363B (zh) | 目标跟踪方法、装置、存储介质及计算机设备 | |
CN116611033B (zh) | 基于ai数字作品版权的风控方法、系统、装置及存储介质 | |
CN110555173B (zh) | 一种基于poi的地域识别系统及其识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |