CN111178221A - 身份识别方法及装置 - Google Patents
身份识别方法及装置 Download PDFInfo
- Publication number
- CN111178221A CN111178221A CN201911349794.1A CN201911349794A CN111178221A CN 111178221 A CN111178221 A CN 111178221A CN 201911349794 A CN201911349794 A CN 201911349794A CN 111178221 A CN111178221 A CN 111178221A
- Authority
- CN
- China
- Prior art keywords
- finger vein
- image
- neural network
- network model
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 210000003462 vein Anatomy 0.000 claims abstract description 214
- 238000003062 neural network model Methods 0.000 claims abstract description 75
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000010801 machine learning Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 38
- 238000000605 extraction Methods 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 8
- 230000036541 health Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 18
- 238000010586 diagram Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 208000032544 Cicatrix Diseases 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000037387 scars Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Abstract
本发明公开了一种身份识别方法及装置。其中,该方法包括:获取拍摄设备采集到的目标对象的指静脉图像;使用指静脉神经网络模型对上述指静脉图像进行识别;基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。本发明解决了现有的指静脉识别技术存在抗伪能力差、识别率较低的技术问题。
Description
技术领域
本发明涉及识别技术领域,具体而言,涉及一种身份识别方法及装置。
背景技术
指静脉识别技术在二十一世纪逐步广泛应用,指静脉识别技术最早发明于上世纪九十年代的日本科学家,在本世纪初开始相继被日本、韩国逐渐应用到会员识别一体机,银行ATM机,门禁管理系统等进行个人身份认证的领域。不仅应用在身份鉴别、考勤门禁等传统领域,在医疗边境安防、娱乐领域也获得了很大的发展。
指静脉识别技术相比较现有的身份识别技术具有以下优势:(1)属于活体特征,无法利用非活体伪造,不会磨损,具有很高安全性(2)血管特征通常更明显,容易识别,抗干扰性好。(3)可实现非接触式测量,卫生性好,易于为用户接受。(4)不易受手表面伤痕或油污的影响。
然而,目前指静脉识别技术也存在一些问题,比如:采集图像设备稳定性差,识别率低;无法克服平移的影响且计算量大,抗伪能力差,识别率较低。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种身份识别方法及装置,以至少解决现有的指静脉识别技术存在抗伪能力差、识别率较低的技术问题。
根据本发明实施例的一个方面,提供了一种身份识别方法,包括:获取拍摄设备采集到的目标对象的指静脉图像;使用指静脉神经网络模型对上述指静脉图像进行识别;基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。
进一步地,使用指静脉神经网络模型对上述指静脉图像进行识别,包括:使用上述指静脉神经网络模型,确定与上述指静脉图像对应的语义信息;基于上述语义信息,采用语义分割算法对上述指静脉图像进行语义分割处理,得到分割处理后的目标指静脉图像;使用上述指静脉神经网络模型识别上述目标指静脉图像,得到上述识别结果。
进一步地,使用上述指静脉神经网络模型,确定与上述指静脉图像对应的语义信息,包括:使用上述指静脉神经网络模型的卷积网络编码层对上述指静脉图像进行图像变换处理,得到第一处理图像;使用上述指静脉神经网络模型的反卷积网络解码层对上述第一处理图像进行图像还原处理,得到第二处理图像,并提取上述第二处理图像的语义信息。
进一步地,使用上述指静脉神经网络模型识别上述目标指静脉图像,得到上述识别结果,包括:通过上述指静脉神经网络模型对上述目标指静脉图像进行静脉特征提取得到静脉特征提取图;通过上述指静脉神经网络模型识别上述静脉特征提取图所属的类别,其中,不同的类别对应不同的身份信息。
进一步地,在使用上述指静脉神经网络模型,确定与上述指静脉图像对应的语义信息之前,上述方法还包括:检测上述指静脉图像是否符合第一目标图像要求,上述第一目标图像要求包括以下至少之一:亮度要求、对比度要求;若检测结果指示上述指静脉图像不符合上述第一目标图像要求,则对上述指静脉图像进行预处理,其中,上述预处理包括以下至少之一:图像亮度处理、图像对比度处理。
进一步地,在使用上述指静脉神经网络模型识别上述目标指静脉图像,得到上述识别结果之前,上述方法还包括:检测上述目标指静脉图像是否符合第二目标图像要求,上述第二目标图像要求用于反映上述指静脉神经网络模型的识别要求;若检测结果指示上述目标指静脉图像不符合上述第二目标图像要求,则对上述目标指静脉图像进行以下至少之一的图像处理:提取感兴趣区域、滤波增强处理、纹理增强处理、图像标准化处理。
进一步地,在获取拍摄设备采集到的目标对象的指静脉图像之前,上述方法还包括:预先调整上述拍摄设备的设置信息,上述设置信息至少包括:红外摄像头模组的锐化信息、红外摄像头模组的亮度信息、红外摄像头模组的曝光度信息;控制调整后的上述拍摄设备采集上述目标对象的指静脉图像。
进一步地,在基于识别结果确定上述目标对象的身份信息之后,上述方法还包括:识别上述目标对象的健康状况信息和/或运动状况信息;输出上述健康状况信息和/或运动状况信息。
进一步地,在基于识别结果确定上述目标对象的身份信息之后,上述方法还包括:输出识别到的上述身份信息。
根据本发明实施例的另一方面,还提供了一种身份识别装置,包括:获取模块,用于获取拍摄设备采集到的目标对象的指静脉图像;识别模块,用于使用指静脉神经网络模型对上述指静脉图像进行识别;确定模块,用于基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。
根据本发明实施例的另一方面,还提供了一种存储介质,上述存储介质包括存储的程序,其中,在上述程序运行时控制上述存储介质所在设备执行任意一项上述的身份识别方法。
根据本发明实施例的另一方面,还提供了一种处理器,上述处理器用于运行程序,其中,上述程序运行时执行任意一项上述的身份识别方法。
在本发明实施例中,通过获取拍摄设备采集到的目标对象的指静脉图像;使用指静脉神经网络模型对上述指静脉图像进行识别;基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息,达到了增强指静脉识别技术的抗伪能力和识别准确性的目的,从而实现了采用指静脉识别技术识别用户身份信息的技术效果,进而解决了现有的指静脉识别技术存在抗伪能力差、识别率较低的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种身份识别方法的流程图;
图2是根据本发明实施例的一种可选的指静脉神经网络模型的示意图;
图3是根据本发明实施例的一种可选的指静脉神经网络模型的示意图;
图4是根据本发明实施例的一种身份识别装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先,为方便理解本发明实施例,下面将对本发明中所涉及的部分术语或名词进行解释说明:
提取ROI:即提取感兴趣区域,用于剔除图像中的背景和边缘。
语义信息:是信息的表现形式之一,指能够消除事物不确定性的有一定意义的信息,可以借助自然语言去领会和解释。
指静脉识别技术:是利用红外线穿透手指后所得的静脉纹路影响进行个人识别的技术。
实施例1
根据本发明实施例,提供了一种身份识别方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的一种身份识别方法的流程图,如图1所示,该方法包括如下步骤:
步骤S102,获取拍摄设备采集到的目标对象的指静脉图像;
步骤S104,使用指静脉神经网络模型对上述指静脉图像进行识别;
步骤S106,基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。
在本发明实施例中,通过获取拍摄设备采集到的目标对象的指静脉图像;使用指静脉神经网络模型对上述指静脉图像进行识别;基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息,达到了增强指静脉识别技术的抗伪能力和识别准确性的目的,从而实现了采用指静脉识别技术识别用户身份信息的技术效果,进而解决了现有的指静脉识别技术存在抗伪能力差、识别率较低的技术问题。
可选的,上述拍摄设备可以为红外摄像机,上述目标对象可以为待识别对象,例如,待识别其身份信息的用户,或者待识别其健康状况和/或运动状况的用户。使用指静脉神经网络模型对该目标对象的指静脉图像进行识别,可以得到该目标对象的身份信息、健康状况和/或运动状况,还可以在与指静脉识别设备连接的移动设备中进行信息输出(例如,播放语音的方式、在图形用户界面中展示文字/视频的方式),以便于用户知悉识别结果。
可选的,上述指静脉神经网络模型可以为采用语义分割算法、特征识别算法、LBP和特征权重算法的卷积神经网络模型;上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。在本申请实施例中,可以通过使用指静脉神经网络模型对上述指静脉图像进行识别,得到识别结果,进而基于识别结果确定上述目标对象的身份信息,可以解决现有的指静脉识别技术存在抗伪能力差、识别率较低的技术问题。
作为一种可选的实施例,在基于识别结果确定上述目标对象的身份信息之后,上述方法还包括:识别上述目标对象的健康状况信息和/或运动状况信息;输出上述健康状况信息和/或运动状况信息。
作为另一种可选的实施例,在基于识别结果确定上述目标对象的身份信息之后,上述方法还包括:输出识别到的上述身份信息。
作为一种可选的实施例,使用指静脉神经网络模型对上述指静脉图像进行识别,包括:
步骤S202,使用上述指静脉神经网络模型,确定与上述指静脉图像对应的语义信息;
步骤S204,基于上述语义信息,采用语义分割算法对上述指静脉图像进行语义分割处理,得到分割处理后的目标指静脉图像;
步骤S206,使用上述指静脉神经网络模型识别上述目标指静脉图像,得到上述识别结果。
可选的,在本申请实施例中,上述步骤S202,使用上述指静脉神经网络模型,确定与上述指静脉图像对应的语义信息,可以通过以下步骤实现:
步骤S302,使用上述指静脉神经网络模型的卷积网络编码层对上述指静脉图像进行图像变换处理,得到第一处理图像;
步骤S304,使用上述指静脉神经网络模型的反卷积网络解码层对上述第一处理图像进行图像还原处理,得到第二处理图像,并提取上述第二处理图像的语义信息。
在提取得到上述第二处理图像的语音信息之后,可以基于上述语义信息,采用语义分割算法对上述指静脉图像进行语义分割处理,得到分割处理后的目标指静脉图像,进而使用上述指静脉神经网络模型识别上述目标指静脉图像,得到上述识别结果。
作为一种可选的实施例,使用上述指静脉神经网络模型识别上述目标指静脉图像,得到上述识别结果,可以通过以下方法步骤实现:
步骤S402,通过上述指静脉神经网络模型对上述目标指静脉图像进行静脉特征提取得到静脉特征提取图;
步骤S404,通过上述指静脉神经网络模型识别上述静脉特征提取图所属的类别,其中,不同的类别对应不同的身份信息。
可选的,可以通过静脉神经网络模型对指静脉LBP特征进行分块并设置权重的方式,实现对上述目标指静脉图像进行静脉特征提取得到静脉特征提取图;进而可以通过上述指静脉神经网络模型识别上述静脉特征提取图所属的类别,其中,不同的类别对应不同的身份信息。
作为一种可选的实施例,在使用静脉神经网络模型识别目标对象的身份信息的过程中,主要采用的是语义分割算法和深度卷积神经网络算法,该静脉神经网络模型的具体结构可以为图2所示,该静脉神经网络模型可以包括:输入层(Input images)、卷积网络编码层(code module,多层的卷积编码网络)、反卷积解码层(decode module,对应编码层有相同层数的反卷积神经网络)和输出层(output images,像素级别分类层)。
其中,该输入层用于将图片输入到网络,卷积网络编码层作为一个全卷积神经网络,每层卷积层后均接有下采样层,该卷积编码网络结构与为物体分类而由自己调整设计的24层卷积神经层,在最深层的编码器中输出高分辨率的特征图,如图3所示,在特征提取之后连接有全链接层和逻辑回归层,并减少了网络的参数,从而减少网络的训练时间,与之对应的反卷积解码层也有24个卷积层,整个网络结构达到了48层。逻辑回归层之后连接有输出层,输出层可以为一个Softmax分类器,用于将对应位置的静脉特征提取图分为不同的类别,计算出静脉特征提取图归属于哪个类别的概率,对于障碍物信息的识别而言,即将输入图像像素分为N类(一种障碍物信息即为一种类别)。
作为一种可选的实施例,在使用上述指静脉神经网络模型,确定与上述指静脉图像对应的语义信息之前,上述方法还包括:
步骤S502,检测上述指静脉图像是否符合第一目标图像要求,上述第一目标图像要求包括以下至少之一:亮度要求、对比度要求;
步骤S504,若检测结果指示上述指静脉图像不符合上述第一目标图像要求,则对上述指静脉图像进行预处理,其中,上述预处理包括以下至少之一:图像亮度处理、图像对比度处理。
在上述一种可选的实施例中,在使用上述指静脉神经网络模型,确定与上述指静脉图像对应的语义信息之前,还可以检测上述指静脉图像是否符合亮度要求和/或对比度要求,若检测结果指示上述指静脉图像不符合亮度要求和/或对比度要求中任意之一,则对应对上述指静脉图像进行图像亮度处理和/或图像对比度处理。
作为一种可选的实施例,在使用上述指静脉神经网络模型识别上述目标指静脉图像,得到上述识别结果之前,上述方法还包括:
步骤S602,检测上述目标指静脉图像是否符合第二目标图像要求,上述第二目标图像要求用于反映上述指静脉神经网络模型的识别要求;
步骤S604,若检测结果指示上述目标指静脉图像不符合上述第二目标图像要求,则对上述目标指静脉图像进行以下至少之一的图像处理:提取感兴趣区域、滤波增强处理、纹理增强处理、图像标准化处理。
在上述一种可选的实施例中,在使用上述指静脉神经网络模型识别上述目标指静脉图像,得到上述识别结果之前,检测上述目标指静脉图像是否符合第二目标图像要求,即检测是否符合上述指静脉神经网络模型的识别要求,若检测结果指示上述目标指静脉图像不符合上述第二目标图像要求,则对上述目标指静脉图像进行以下至少之一的图像处理:提取感兴趣区域、滤波增强处理、纹理增强处理、图像标准化处理。
作为一种可选的实施例,在获取拍摄设备采集到的目标对象的指静脉图像之前,上述方法还包括:
步骤S702,预先调整上述拍摄设备的设置信息,上述设置信息至少包括:红外摄像头模组的锐化信息、红外摄像头模组的亮度信息、红外摄像头模组的曝光度信息;
步骤S704,控制调整后的上述拍摄设备采集上述目标对象的指静脉图像。
在上述可选的实施例中,为提升拍摄设备采集到的目标对象的指静脉图像的图像质量,在获取拍摄设备采集到的目标对象的指静脉图像之前,还可以预先调整上述拍摄设备的设置信息,例如,调整拍摄设备的以下至少之一设置信息:红外摄像头模组的锐化信息、红外摄像头模组的亮度信息、红外摄像头模组的曝光度信息;并控制调整后的上述拍摄设备采集上述目标对象的指静脉图像。
实施例2
根据本发明实施例,还提供了一种用于实施上述身份识别方法的装置实施例,图4是根据本发明实施例的一种身份识别装置的结构示意图,如图4所示,上述身份识别装置,包括:获取模块40、识别模块44和确定模块46,其中:
获取模块40,用于获取拍摄设备采集到的目标对象的指静脉图像;识别模块44,用于使用指静脉神经网络模型对上述指静脉图像进行识别;确定模块46,用于基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,例如,对于后者,可以通过以下方式实现:上述各个模块可以位于同一处理器中;或者,上述各个模块以任意组合的方式位于不同的处理器中。
此处需要说明的是,上述获取模块40、识别模块44和确定模块46对应于实施例1中的步骤S102至步骤S106,上述模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在计算机终端中。
需要说明的是,本实施例的可选或优选实施方式可以参见实施例1中的相关描述,此处不再赘述。
上述的身份识别装置还可以包括处理器和存储器,上述获取模块40、识别模块44和确定模块46等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元,上述内核可以设置一个或以上。存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。
根据本申请实施例,还提供了一种存储介质实施例。可选地,在本实施例中,上述存储介质包括存储的程序,其中,在上述程序运行时控制上述存储介质所在设备执行上述任意一种身份识别方法。
可选地,在本实施例中,上述存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中,上述存储介质包括存储的程序。
可选地,在程序运行时控制存储介质所在设备执行以下功能:获取拍摄设备采集到的目标对象的指静脉图像;使用指静脉神经网络模型对上述指静脉图像进行识别;基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。
根据本申请实施例,还提供了一种处理器实施例。可选地,在本实施例中,上述处理器用于运行程序,其中,上述程序运行时执行上述任意一种身份识别方法。
本申请实施例提供了一种设备,设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:获取拍摄设备采集到的目标对象的指静脉图像;使用指静脉神经网络模型对上述指静脉图像进行识别;基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:获取拍摄设备采集到的目标对象的指静脉图像;使用指静脉神经网络模型对上述指静脉图像进行识别;基于识别结果确定上述目标对象的身份信息,其中,上述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,上述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (12)
1.一种身份识别方法,其特征在于,包括:
获取拍摄设备采集到的目标对象的指静脉图像;
使用指静脉神经网络模型对所述指静脉图像进行识别;
基于识别结果确定所述目标对象的身份信息,其中,所述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,所述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。
2.根据权利要求1所述的方法,其特征在于,使用指静脉神经网络模型对所述指静脉图像进行识别,包括:
使用所述指静脉神经网络模型,确定与所述指静脉图像对应的语义信息;
基于所述语义信息,采用语义分割算法对所述指静脉图像进行语义分割处理,得到分割处理后的目标指静脉图像;
使用所述指静脉神经网络模型识别所述目标指静脉图像,得到所述识别结果。
3.根据权利要求2所述的方法,其特征在于,使用所述指静脉神经网络模型,确定与所述指静脉图像对应的语义信息,包括:
使用所述指静脉神经网络模型的卷积网络编码层对所述指静脉图像进行图像变换处理,得到第一处理图像;
使用所述指静脉神经网络模型的反卷积网络解码层对所述第一处理图像进行图像还原处理,得到第二处理图像,并提取所述第二处理图像的语义信息。
4.根据权利要求2所述的方法,其特征在于,使用所述指静脉神经网络模型识别所述目标指静脉图像,得到所述识别结果,包括:
通过所述指静脉神经网络模型对所述目标指静脉图像进行静脉特征提取得到静脉特征提取图;
通过所述指静脉神经网络模型识别所述静脉特征提取图所属的类别,其中,不同的类别对应不同的身份信息。
5.根据权利要求2所述的方法,其特征在于,在使用所述指静脉神经网络模型,确定与所述指静脉图像对应的语义信息之前,所述方法还包括:
检测所述指静脉图像是否符合第一目标图像要求,所述第一目标图像要求包括以下至少之一:亮度要求、对比度要求;
若检测结果指示所述指静脉图像不符合所述第一目标图像要求,则对所述指静脉图像进行预处理,其中,所述预处理包括以下至少之一:图像亮度处理、图像对比度处理。
6.根据权利要求2所述的方法,其特征在于,在使用所述指静脉神经网络模型识别所述目标指静脉图像,得到所述识别结果之前,所述方法还包括:
检测所述目标指静脉图像是否符合第二目标图像要求,所述第二目标图像要求用于反映所述指静脉神经网络模型的识别要求;
若检测结果指示所述目标指静脉图像不符合所述第二目标图像要求,则对所述目标指静脉图像进行以下至少之一的图像处理:提取感兴趣区域、滤波增强处理、纹理增强处理、图像标准化处理。
7.根据权利要求1所述的方法,其特征在于,在获取拍摄设备采集到的目标对象的指静脉图像之前,所述方法还包括:
预先调整所述拍摄设备的设置信息,所述设置信息至少包括:红外摄像头模组的锐化信息、红外摄像头模组的亮度信息、红外摄像头模组的曝光度信息;
控制调整后的所述拍摄设备采集所述目标对象的指静脉图像。
8.根据权利要求1所述的方法,其特征在于,在基于识别结果确定所述目标对象的身份信息之后,所述方法还包括:
识别所述目标对象的健康状况信息和/或运动状况信息;
输出所述健康状况信息和/或运动状况信息。
9.根据权利要求1所述的方法,其特征在于,在基于识别结果确定所述目标对象的身份信息之后,所述方法还包括:输出识别到的所述身份信息。
10.一种身份识别装置,其特征在于,包括:
获取模块,用于获取拍摄设备采集到的目标对象的指静脉图像;
识别模块,用于使用指静脉神经网络模型对所述指静脉图像进行识别;
确定模块,用于基于识别结果确定所述目标对象的身份信息,其中,所述指静脉神经网络模型为使用多组数据,通过机器学习训练得到的,所述多组数据中的每组数据均包括:指静脉图像和目标对象的身份信息。
11.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至9中任意一项所述的身份识别方法。
12.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至9中任意一项所述的身份识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911349794.1A CN111178221A (zh) | 2019-12-24 | 2019-12-24 | 身份识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911349794.1A CN111178221A (zh) | 2019-12-24 | 2019-12-24 | 身份识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111178221A true CN111178221A (zh) | 2020-05-19 |
Family
ID=70655668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911349794.1A Pending CN111178221A (zh) | 2019-12-24 | 2019-12-24 | 身份识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111178221A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801066A (zh) * | 2021-04-12 | 2021-05-14 | 北京圣点云信息技术有限公司 | 一种基于多姿态面部静脉的身份识别方法及装置 |
CN113298196A (zh) * | 2021-07-28 | 2021-08-24 | 深兰盛视科技(苏州)有限公司 | 健康监测方法、装置、设备及计算机可读存储介质 |
WO2021243926A1 (zh) * | 2020-06-05 | 2021-12-09 | 华南理工大学 | 指静脉识别与防伪一体化方法、装置、存储介质和设备 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101093539A (zh) * | 2007-07-27 | 2007-12-26 | 哈尔滨工程大学 | 手指静脉特征提取与匹配识别方法 |
CN103810490A (zh) * | 2014-02-14 | 2014-05-21 | 海信集团有限公司 | 一种确定人脸图像的属性的方法和设备 |
CN106650690A (zh) * | 2016-12-30 | 2017-05-10 | 东华大学 | 基于深度卷积‑反卷积神经网络的夜视图像场景识别方法 |
CN107392114A (zh) * | 2017-06-29 | 2017-11-24 | 广州智慧城市发展研究院 | 一种基于神经网络模型的手指静脉识别方法及系统 |
CN108009520A (zh) * | 2017-12-21 | 2018-05-08 | 东南大学 | 一种基于卷积变分自编码器神经网络的手指静脉识别方法及系统 |
CN108319890A (zh) * | 2017-12-01 | 2018-07-24 | 中国电子科技集团公司电子科学研究院 | 基于多视角图像处理的指静脉识别方法、设备及存储介质 |
CN108615002A (zh) * | 2018-04-22 | 2018-10-02 | 广州麦仑信息科技有限公司 | 一种基于卷积神经网络的手掌静脉认证方法 |
CN110084238A (zh) * | 2019-04-09 | 2019-08-02 | 五邑大学 | 基于LadderNet网络的指静脉图像分割方法、装置和存储介质 |
CN110135513A (zh) * | 2019-05-22 | 2019-08-16 | 广东工业大学 | 一种基于深度学习的焊接机器人的焊缝识别方法 |
CN110348375A (zh) * | 2019-07-09 | 2019-10-18 | 华南理工大学 | 一种基于神经网络的手指静脉感兴趣区域检测方法 |
CN110472667A (zh) * | 2019-07-19 | 2019-11-19 | 广东工业大学 | 基于反卷积神经网络的小目标分类方法 |
CN110532851A (zh) * | 2019-07-04 | 2019-12-03 | 珠海格力电器股份有限公司 | 指静脉识别方法、装置、计算机设备和存储介质 |
WO2020258981A1 (zh) * | 2019-06-28 | 2020-12-30 | 上海鹰瞳医疗科技有限公司 | 基于眼底图像的身份信息处理方法及设备 |
-
2019
- 2019-12-24 CN CN201911349794.1A patent/CN111178221A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101093539A (zh) * | 2007-07-27 | 2007-12-26 | 哈尔滨工程大学 | 手指静脉特征提取与匹配识别方法 |
CN103810490A (zh) * | 2014-02-14 | 2014-05-21 | 海信集团有限公司 | 一种确定人脸图像的属性的方法和设备 |
CN106650690A (zh) * | 2016-12-30 | 2017-05-10 | 东华大学 | 基于深度卷积‑反卷积神经网络的夜视图像场景识别方法 |
CN107392114A (zh) * | 2017-06-29 | 2017-11-24 | 广州智慧城市发展研究院 | 一种基于神经网络模型的手指静脉识别方法及系统 |
CN108319890A (zh) * | 2017-12-01 | 2018-07-24 | 中国电子科技集团公司电子科学研究院 | 基于多视角图像处理的指静脉识别方法、设备及存储介质 |
CN108009520A (zh) * | 2017-12-21 | 2018-05-08 | 东南大学 | 一种基于卷积变分自编码器神经网络的手指静脉识别方法及系统 |
CN108615002A (zh) * | 2018-04-22 | 2018-10-02 | 广州麦仑信息科技有限公司 | 一种基于卷积神经网络的手掌静脉认证方法 |
CN110084238A (zh) * | 2019-04-09 | 2019-08-02 | 五邑大学 | 基于LadderNet网络的指静脉图像分割方法、装置和存储介质 |
CN110135513A (zh) * | 2019-05-22 | 2019-08-16 | 广东工业大学 | 一种基于深度学习的焊接机器人的焊缝识别方法 |
WO2020258981A1 (zh) * | 2019-06-28 | 2020-12-30 | 上海鹰瞳医疗科技有限公司 | 基于眼底图像的身份信息处理方法及设备 |
CN110532851A (zh) * | 2019-07-04 | 2019-12-03 | 珠海格力电器股份有限公司 | 指静脉识别方法、装置、计算机设备和存储介质 |
CN110348375A (zh) * | 2019-07-09 | 2019-10-18 | 华南理工大学 | 一种基于神经网络的手指静脉感兴趣区域检测方法 |
CN110472667A (zh) * | 2019-07-19 | 2019-11-19 | 广东工业大学 | 基于反卷积神经网络的小目标分类方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021243926A1 (zh) * | 2020-06-05 | 2021-12-09 | 华南理工大学 | 指静脉识别与防伪一体化方法、装置、存储介质和设备 |
CN112801066A (zh) * | 2021-04-12 | 2021-05-14 | 北京圣点云信息技术有限公司 | 一种基于多姿态面部静脉的身份识别方法及装置 |
CN112801066B (zh) * | 2021-04-12 | 2022-05-17 | 北京圣点云信息技术有限公司 | 一种基于多姿态面部静脉的身份识别方法及装置 |
CN113298196A (zh) * | 2021-07-28 | 2021-08-24 | 深兰盛视科技(苏州)有限公司 | 健康监测方法、装置、设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109815850B (zh) | 基于深度学习的虹膜图像分割及定位方法、系统、装置 | |
CN110084238B (zh) | 基于LadderNet网络的指静脉图像分割方法、装置和存储介质 | |
CN111310705A (zh) | 图像识别方法、装置、计算机设备及存储介质 | |
CN112633144A (zh) | 人脸遮挡检测方法、系统、设备及存储介质 | |
CN108491848B (zh) | 基于深度信息的图像显著性检测方法和装置 | |
CN111178221A (zh) | 身份识别方法及装置 | |
CN110674824A (zh) | 基于R2U-Net的手指静脉分割方法、装置和存储介质 | |
EP4047509A1 (en) | Facial parsing method and related devices | |
CN111080670A (zh) | 图像提取方法、装置、设备及存储介质 | |
CN109635625B (zh) | 智能身份核验方法、设备、存储介质及装置 | |
CN113011253B (zh) | 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质 | |
CN109389076B (zh) | 图像分割方法及装置 | |
CN112836625A (zh) | 人脸活体检测方法、装置、电子设备 | |
CN111401134A (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN111178130A (zh) | 一种基于深度学习的人脸识别方法、系统和可读存储介质 | |
CN111353385B (zh) | 一种基于掩膜对齐与注意力机制的行人再识别方法和装置 | |
CN113255557A (zh) | 一种基于深度学习的视频人群情绪分析方法及系统 | |
CN111814682A (zh) | 人脸活体检测方法及装置 | |
CN108764248B (zh) | 图像特征点的提取方法和装置 | |
CN110008922A (zh) | 用于终端设备的图像处理方法、设备、装置、介质 | |
CN113221842A (zh) | 模型训练方法、图像识别方法、装置、设备及介质 | |
CN113706550A (zh) | 图像场景识别和模型训练方法、装置和计算机设备 | |
CN116798041A (zh) | 图像识别方法、装置和电子设备 | |
CN106682627B (zh) | 一种掌纹数据的识别方法和装置 | |
Bae et al. | Fingerprint image denoising and inpainting using convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |