CN116994325B - 一种虹膜识别方法、芯片及终端 - Google Patents
一种虹膜识别方法、芯片及终端 Download PDFInfo
- Publication number
- CN116994325B CN116994325B CN202310929339.9A CN202310929339A CN116994325B CN 116994325 B CN116994325 B CN 116994325B CN 202310929339 A CN202310929339 A CN 202310929339A CN 116994325 B CN116994325 B CN 116994325B
- Authority
- CN
- China
- Prior art keywords
- image
- iris
- pupil
- seed
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 239000013598 vector Substances 0.000 claims abstract description 45
- 230000011218 segmentation Effects 0.000 claims abstract description 36
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 238000003062 neural network model Methods 0.000 claims abstract description 19
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 15
- 210000001747 pupil Anatomy 0.000 claims description 44
- 230000008859 change Effects 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 13
- 238000011156 evaluation Methods 0.000 claims description 13
- 238000013441 quality evaluation Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 9
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 claims description 6
- 230000009191 jumping Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000010344 pupil dilation Effects 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000005119 centrifugation Methods 0.000 claims description 2
- 230000004478 pupil constriction Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241001632422 Radiola linoides Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000003102 growth factor Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Ophthalmology & Optometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种虹膜识别方法、芯片及终端,通过在人眼初始图像中确定初始种子点,采用聚集像素分割算法得到分割图像,确定满足条件的分割图像进行预处理得到待识别虹膜图像,基于待识别虹膜图像的频域特征和空域特征利用改进DenseNet神经网络模型得到特征向量,根据特征向量匹配实现虹膜识别,通过在人眼初始图像中合理确定初始种子点,以保证聚集像素分割算法对虹膜图形提取的效率和准确性,采用聚集像素分割算法对人眼初始图像提取虹膜图像,相对于传统灰度对比增强方式可以保留更多的原始图像信息,解决了当前虹膜图像提取信息丢失问题;同时利用改进的DenseNet神经网络模型对特征提取并融合处理进一步可提升模型精度。
Description
技术领域
本发明涉及虹膜识别技术领域,特别是涉及一种虹膜识别方法、芯片及终端。
背景技术
传统信息认证方法一定程度上己经无法满足人们对更安全便捷地进行身份认证的需求,生物信息识别技术己广泛应用于保护身份信息安全。同指纹、人脸、声音等生物特征相比较,虹膜生理结构特征更唯一、稳定、纹理细节信息丰富,应用于信息识别更安全可靠。
目前,在利用深度学习网络模型进行虹膜识别时,需要从人眼图像中提取虹膜特征,例如针对人眼图像,利用虹膜图像灰度与周围图像灰度的差异,采用灰度对比增强处理提取虹膜图像,这种处理方式提取出来的虹膜图像存在信息损失的问题,因此不利于深度学习网络模型的准确学习提取深层特征,因此模型识别的准确性。
发明内容
基于此,本发明提供一种虹膜识别方法、芯片及终端,解决了当前虹膜图像提取信息丢失问题,有利于提高模型识别精度。
第一方面,提供一种虹膜识别方法,包括:
获取针对同一人物目标连续采集的多张人眼初始图像;
在所述人眼初始图像中确定对应的待定种子点,判断所述人眼初始图像中设定方向上所包含像素点的灰度值变化形态是否符合设定变化形态;所述设定方向上包含所述待定种子点;
若所述设定方向上所包含像素点的灰度值变化形态符合所述设定变化形态,则将该符合所述设定变化形态对应的所述待定种子点作为初始种子点;否则,重新确定待定种子点,直至所述设定方向上所包含像素点的灰度值变化形态符合所述设定变化形态;
以所述初始种子点为中心,采用聚集像素分割算法在对应所述人眼初始图像中进行生长得到仅包含虹膜部分的第一分割图像;
基于所述第一分割图像计算对应所述人眼初始图像的设定质量评价指标;
根据计算得到的各所述人眼初始图像对应的设定质量评价指标,筛选出满足设定评价需求的第一分割图像,作为第二分割图像;
对各所述第二分割图像进行预处理,得到待识别虹膜图像;
提取所述待识别虹膜图像的Gabor频域特征和LBF(Local Binary Pattern,局部二值模式)空域特征;
将所述待识别虹膜图像的Gabor频域特征和LBF空域特征,输入改进的DenseNet神经网络模型,利用所述改进的DenseNet神经网络模型输出所述待识别虹膜图像的第一特征向量;
将各所述第一特征向量与第二特征向量进行比较,得到比较结果;所述第二特征向量为已知人物身份的虹膜图像对应的特征向量;
根据各所述第一特征向量对应的所述比较结果,判断所述人物目标与所述已知人物身份是否同属一个人,以实现虹膜识别。
可选的,所述采用聚集像素分割算法在对应所述人眼初始图像中进行生长得到仅包含虹膜部分的第一分割图像包括:
(1)将所述人眼初始图像的初始种子点放入种子点集seeds中;
(2)顶出所述种子点集seeds中的一个种子点,分别计算该种子点与其各邻域像素点的灰度值相似度;所述各邻域像素点包括该种子点上、下、左、右、左上、左下、右下、右上8个方向上相邻的像素点;
(3)将满足相似准则条件的邻域像素点,作为种子点放入所述种子点集seeds;
(4)将顶出的种子点存入种子集S;
(5)如果种子点集seeds内没有元素,则跳到步骤(6);如果种子点集中还有元素,则跳到步骤(2);
(6)从所述人眼初始图像中截取所述种子集S中各种子点对应坐标的像素值,其余部分丢弃,得到所述仅包含虹膜部分的第一分割图像。
可选的,所述设定变化形态包括:在所述设定方向上呈现出两端像素点的灰度值高,中间像素点的灰度值低的状态。
可选的,在所述基于所述第一分割图像计算对应所述人眼初始图像的设定质量评价指标之前,还包括:
基于所述人眼初始图像中截取仅包含瞳孔部分的第三分割图像。
可选的,所述设定质量评价指标包括:离心度L1、瞳孔放缩度T1、瞳孔有效区域T2中的至少一种;
所述离心度L1通过计算瞳孔圆心到图像中心距离Δd和图像对角半径的比值得到:
其中(x1,y1)表示图像中心点坐标,(xpupil,ypupil)表示瞳孔圆心坐标;
所述瞳孔放缩度T1采用如下方式计算得到:
其中,Spupil表示瞳孔区域面积,Siris分别表示虹膜区域面积;
所述瞳孔有效区域T2采用如下方式计算得到:
其中,SUMpupil表示瞳孔黑色素数量,Spupil表示瞳孔内圆面积。
可选的,所述对各所述第二分割图像进行预处理,得到待识别虹膜图像包括:
对所述第二分割图像进行归一化处理,将归一化处理后的图像提取ROI(regionofinterest,感兴趣区域)图像;将所述ROI图像作为所述待识别虹膜图像。
可选的,所述改进的DenseNet神经网络模型包括两个并联的特征提取支路和一个特征融合模块,一个所述特征提取支路用于提取所述Gabor频域特征的深层特征,另一个所述特征提取支路用于提取所述LBF空域特征的深层特征,特征融合模块用于将各所述深层特征进行融合处理。
可选的,所述根据各所述第一特征向量对应的所述比较结果,判断所述人物目标与所述已知人物身份是否同属一个人包括:
依次根据所述比较结果判断所述第一特征向量与所述第二特征向量是否匹配;
若是,则计数器执行+1操作;若否,则计数器不动作;
待各所述第一特征向量执行完毕,获取计数器值,并对所述计数器置零;
计算所述计数器值与所述第一特征向量的数量之比;
若比值大于等于设定阈值,则判定所述人物目标与所述已知人物身份同属一个人;
若所述比值小于所述设定阈值,则判定所述人物目标与所述已知人物身份不属同一个人。
第二方面,提供一种芯片,包括第一处理器,用于从第一存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行如上任一项所述的虹膜识别方法的各个步骤。
第三方面,提供一种终端,包括第二存储器、第二处理器以及存储在所述第二存储器中并可在所述第二处理器上运行的计算机程序,第二处理器执行所述计算机程序时实现如上任一项所述的虹膜识别方法的各个步骤。
上述虹膜识别方法、芯片及终端,通过在人眼初始图像中确定的设定方向上相关像素点的灰度值变化形态,合理确定初始种子点,以保证聚集像素分割算法对虹膜图形提取的效率和准确性,采用聚集像素分割算法对人眼初始图像提取虹膜图像,一方面相对于传统灰度对比增强方式可以保留更多的原始图像信息,解决了当前虹膜图像提取信息丢失问题;同时利用改进的DenseNet神经网络模型对提取的多特征进行深层特征提取并融合处理,进一步可提升模型精度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的虹膜识别方法的基本流程示意图;
图2为本发明实施例提供的人眼结构示意图;
图3为本发明实施例提供的设定方向示意图;
图4为本发明实施例提供的设定变化形态示意图;
图5为本发明实施例提供的坐标转换示意图;
图6为本发明实施例提供的归一化后虹膜ROI区域示意图;
图7为本发明实施例提供的经Gabor滤波处理后的图像示意图;
图8为本发明实施例提供的LBP计算示意图;
图9为本发明实施例提供的经LBP算法处理后的图像示意图;
图10为本发明实施例提供的一种改进的DenseNet神经网络模型结构示意图;
图11为本发明实施例提供的另一种改进的DenseNet神经网络模型结构示意图;
图12为本发明实施例提供的融合结构示意图;
图13为本发明实施例提供的终端结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
在本发明的说明书和权利要求书及上述附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如101、102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(AI:Artificial Intelligence)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
具体地请参阅图1,图1为本实施例提供的一种虹膜识别方法的基本流程示意图。
如图1所示,一种虹膜识别方法,包括:
S101、获取针对同一人物目标连续采集的多张人眼初始图像;
为便于理解,人眼结构可参见图2所示,主要包括位于中部的瞳孔,外围的虹膜和巩膜。
人眼初始图像的采集可采用相关设备进行采集。具体采用何种相关设备在此不做限制。
本申请实施例中,为提高虹膜识别准确性,通过对多张连续的人眼初始图像进行处理,以基于多张图像的处理结果综合识别,从而提高识别准确性。相关设备可基于采集频率的设置,实现对同一人物目标连续多张人眼初始图像的采集。例如设置为每秒采集10次,从而得到10张连续的人眼初始图像。
在本申请可选实施例中,多张人眼初始图像至少包括3张人眼初始图像。
S102、在人眼初始图像中确定对应的待定种子点,判断人眼初始图像中设定方向上所包含像素点的灰度值变化形态是否符合设定变化形态;设定方向上包含待定种子点;
在本申请可选实施例中,可将人眼初始图像的中心像素点作为待定种子点。为了提高区域生长的效率和准确性,在确定待定种子点之前,可对各人眼初始图像初步确定虹膜区域,具体可采用现有任意虹膜定位算法,包括但不限于Hough圆定位方法。从而选取区域内的中部(非边缘)的像素点作为待定种子点。
参考图3,设定方向需经过该待定种子点,例如设置为在待定种子点0°、45°、90°、135°等4个方向,只要存在至少一条设定方向上所包含像素点的灰度值变化形态符合设定变化形态,则将该待定种子点作为初始种子点。
在本申请的可选实施例中,还可直接将设定方向设置为经过该待定种子点和虹膜区域中心点,基于这两点确定设定方向,从而直接判断该设定方向上的像素点灰度值变化形态是否符合设定变化形态;如是,也可将其作为初始种子点,否则,重新确定待定种子点。
本申请实施例中,设定变化形态包括:在设定方向上呈现出两端像素点的灰度值高,中间像素点的灰度值低的状态。例如呈现如图4所示的灰度值变化状态。
S103、若设定方向上所包含像素点的灰度值变化形态符合设定变化形态,则将该符合设定变化形态对应的待定种子点作为初始种子点;
S104、否则,重新确定待定种子点,直至设定方向上所包含像素点的灰度值变化形态符合设定变化形态;
在需要重新确定待定种子点时,可灵活确认,只要不与前面确定的待定种子点重复即可。例如可在初始虹膜图像中选取与前面所选待定种子点距离相对较远的种子点作为当前待定种子点。种子点距离的计算可采用现有任意方式,在此不再赘述。
S105、以初始种子点为中心,采用聚集像素分割算法在对应人眼初始图像中进行生长得到仅包含虹膜部分的第一分割图像;
具体的,主要包括:
(1)将人眼初始图像的初始种子点放入种子点集seeds中;
(2)顶出种子点集seeds中的一个种子点,分别计算该种子点与其各邻域像素点的灰度值相似度;其中各邻域像素点包括该种子点上、下、左、右、左上、左下、右下、右上8个方向上相邻的像素点;
其中,灰度值的相似度可通过计算两者灰度差值得到,K=R0-Ri;当然,也可以采用其他灰度值相似度来表示,例如K=1-(R0-Ri)/256,其中k表示灰度值相似度,R0表示初始种子点的灰度值,Ri表示某相邻种子点的灰度值。
(3)将满足相似准则条件的邻域像素点,作为种子点放入种子点集seeds;
本申请相似准则条件设置为灰度值相似度在设定相似度阈值范围内,例如针对以灰度差值计算的灰度值相似度,则相似准则条件设置为小于等于5。应当理解的是,不同的灰度值相似度可采用不同的相似准则条件,具体的相似准则条件可基于实际实验情况或经验灵活设置,具体数值在此不在赘述。
(4)将顶出的种子点存入种子集S;
(5)如果种子点集seeds内没有元素,则跳到步骤(6);如果种子点集中还有元素,则跳到步骤(2);
(6)从人眼初始图像中截取种子集S中各种子点对应坐标的像素值,其余部分丢弃,得到仅包含虹膜部分的第一分割图像。
吧的思想就是把邻域相似的点化为一个区域。首先需要一个种子点作为生长的开始,然后将种子点邻域内满足相似准则要求的像素点合并到种子的区域,将这个区域的像素作为种子点,继续进行生长,直到没有符合相似准则要求的像素点,生长结束;所有种子点像素作为生长的区域。分割的好坏由初始种子点和相似准则条件决定。本申请实施例基于设定方向上像素点灰度值变化形态合理确定初始种子点,从而可以良好地分割得到仅包含虹膜区域的第一分割图像,且解决了当前灰度对比增强可能导致的信息丢失问题,降低对后续深度学习网络模型深层特征提取的不利影响。
原有灰度增强是划定瞳孔圆,随后进行外圆定位减去内圆定位,进而得到虹膜区域,但是在进行灰度增强的过程中或许会导致一部分信息的丢失,最终导致特征的丢失。区域生长法并不需要对图像进行灰度差异增强的操作,因此切割出来的虹膜区域或许能保留更多信息与特征。
S106、基于第一分割图像计算对应人眼初始图像的设定质量评价指标;
在计算设定质量评价指标之前,还包括:基于人眼初始图像中截取仅包含瞳孔部分的第三分割图像。其中,瞳孔部分的提取可采用现有任意方式,本实施例对此不做限制。
本申请可选实施例中,设定质量评价指标包括离心度L1、瞳孔放缩度T1、瞳孔有效区域T2中的至少一种。
其中,离心度L1通过计算瞳孔圆心到图像中心距离Δd和图像对角半径的比值得到:
其中(x1,y1)表示图像中心点坐标,(xpupil,ypupil)表示瞳孔圆心坐标。
瞳孔放缩度T1采用如下方式计算得到:
其中,Spupil表示瞳孔区域面积,Siris分别表示虹膜区域面积。
瞳孔有效区域T2采用如下方式计算得到:
其中,SUMpupil表示瞳孔黑色素数量,Spupil表示瞳孔内圆面积。
S107、根据计算得到的各人眼初始图像对应的设定质量评价指标,筛选出满足设定评价需求的第一分割图像,作为第二分割图像;
在本申请的可选实施例中,计算人眼初始图像的上述三个评价指标,若三个评价指标均满足设定评价需求,则将基于该人眼初始图像得到的第一分割图像作为第二分割图像。相反,若存在至少一个评价指标不满足设定评价需求,则丢弃,从下一人眼初始图像中进行筛选。
需要说明的是,设定评价需求可基于实际情况灵活设置。在本申请可选实施例中,针对上述三个评价指标,分别设置对应的指标阈值范围,若计算的评价指标值处于对应指标阈值范围内,则确定满足设定评价需求。
S108、对各第二分割图像进行预处理,得到待识别虹膜图像;
对第二分割图像进行归一化处理,将归一化处理后的图像提取ROI图像;将ROI图像作为待识别虹膜图像。
由于瞳孔受到不同光强影响会产生扩张和收缩,使得虹膜区域因形变而尺寸宽度不一致。归一化可消除缩放、平移和旋转的影响,而且考虑到神经网络对数据的计算量,因此对图像进行归一化处理。
本申请实施例中,采用橡皮圈模型,借助虹膜定位的参数信息,将第二分割图像的像素点的直角坐标(x(r,θ),y(r,θ))映射到极坐标系,即I(x(r,θ),y(r,θ))→I(r,θ),r为虹膜区域宽度,θ为从圆心出发的射线同x轴的夹角。
橡皮圈模型的坐标映射如图5所示。经归一化处理后的虹膜环状区域变为尺寸大小固定的矩形区域,且减弱了噪声影响,识别时精度会有明显提升。
经归一化处理后的虹膜环状区域变为尺寸大小固定的矩形区域。然后选取纹理最丰富的区域(特征信息密度高、噪声影响小)作为虹膜ROI区域,归一化后虹膜ROI区域的图像如图6所示。
S109、从第二分割图像中提取待识别虹膜图像的Gabor频域特征和LBF空域特征;
Gabor特征可以较好地表征图像纹理特征细节,其频率、方向表示都顺应人类视觉感受。此外,Gabor滤波器能够描述对生物信息特征最为有用的局部特征,而且针对图像变化(如:亮度、对比度等)表现出优秀的健壮性。
本申请实施例使用的是Gabor核函数的基础部分,其离散表达式如下:
其中,(G*P)表示图像P和滤波器G的卷积,虹膜通过Gabor处理得到频域特征图像,既保留了细节特征又去除了噪声。经Gabor滤波处理后的图像如图7所示。
LBP可以良好地表征图像局部纹理,基本不受光强变化和旋转影响。本申请实施例使用LBP原始结构,将3*3的窗口的中心值当作阂值,同相邻8方向的值比较,若大于阂值则置1,否则置0。由此,可产生8比特的无符号数,用顺时针拼接的二进制数表示虹膜纹理信息的LBP值。LBP计算示意如图8所示。
LBP算子计算方法如下公式:
其中,Ic和IP分别为中心和邻近像素的强度,s定义为:
通过LBP处理,可以实现对虹膜纹理空域特征的良好描述。经LBP算法处理后的图像如图9所示。
S110、将待识别虹膜图像的Gabor频域特征和LBF空域特征,输入改进的DenseNet神经网络模型,利用改进的DenseNet神经网络模型输出待识别虹膜图像的第一特征向量;
参考图10,改进的DenseNet神经网络模型包括两个并联的特征提取支路和一个特征融合模块,一个特征提取支路用于提取Gabor频域特征的深层特征,另一个特征提取支路用于提取LBF空域特征的深层特征,特征融合模块用于将各深层特征进行融合处理。
本申请实施例提供的改进的DenseNet神经网络模型,融合了虹膜图像的频域和空域特征,丰富了输入到网络模型的图像信息;通过改进DenseNet网络结构,使其更适用于虹膜的特征提取和识别,从而更具针对性地提升模型性能效果。DenseNet神经网络模型示意如图11所示。
DenseNet神经网络模型主要包括两个大结构:Dense Block(密集块)和TransitionLayer(过渡层)。
Dense Block是DenseNet的一个基本模块;在Dense Block中,每层输出较少的特征图,并且直接收到来自输入和损失的梯度;相较于其他网络宽度更窄,参数更少,更易训练网络。
DenseNet网络其中最优的思想:特征重用——每层的Bottleneck结构都利用了该层和该层之前所有层的输出信息。在处理经过Gabor处理过的频域特征图和LBP处理的空域特征图时,采用相同思想,利用两分支网络结构分别提取相应特征域的不同深度特征,并利用concat特性,完成对两分支特征的通道融合,有效结合频域特征和空域特征。
本申请实施例中,网络模型使用的超参数设置如下表1所示:
学习率(learningrate) | 1e-3 |
生长系数(growthk) | 24 |
批量大小(batchsize) | 16 |
动量(momentum) | 0.9 |
训练轮次(epoches) | 50 |
输入的频域特征图像和空域特征图像经特征提取后,在通道维度上罗列叠加(Concatenetion)得到通道为2×channels大小的特征图,形成了足够的频域响应和空域响应的统一融合图,其中Concat(.)表示特征图的拼接操作,其表达式如下:
{Output}=Concat({Gabor},{LBP})
融合示意图如图12所示。
本申请可选实施例采用的DenseNet-121,含121层权重,层数计算为:卷积1层+2*(6+12+24+16)dense block+3*transition layer,共计120层。
S111、将各第一特征向量与第二特征向量进行比较,得到比较结果;第二特征向量为已知人物身份的虹膜图像对应的特征向量;
已知人物身份的虹膜图像可以是预先录入到系统中的,利用该改进的DenseNet神经网络模型输出得到的特征向量,即为第二特征向量。每个已知人物身份对应一个第二特征向量。
在本申请实施例中,可计算第一特征向量与第二特征向量的欧式距离,将欧式距离作为比较结果。其中欧式距离的计算可如下公式:
其中,xi和yi分别表示第一特征向量和第二特征向量的值。
S112、根据各第一特征向量对应的比较结果,判断人物目标与已知人物身份是否同属一个人,以实现虹膜识别。
具体的,主要包括:
依次根据比较结果判断第一特征向量与第二特征向量是否匹配(若计算的欧式距离大于等于设定比较阈值,则不匹配;若小于设定比较阈值,则匹配);
若是,则计数器执行+1操作;若否,则计数器不动作;
待各第一特征向量执行完毕,获取计数器值,并对计数器置零;
计算计数器值与第一特征向量的数量之比;
若比值大于等于设定阈值,则判定人物目标与已知人物身份同属一个人;其中设定阈值可灵活设置,例如设置为80%;
若比值小于设定阈值,则判定人物目标与已知人物身份不属同一个人。
本申请实施例通过在人眼初始图像中确定的设定方向上相关像素点的灰度值变化形态,合理确定初始种子点,以保证聚集像素分割算法对虹膜图形提取的效率和准确性,采用聚集像素分割算法对人眼初始图像提取虹膜图像,一方面相对于传统灰度对比增强方式可以保留更多的原始图像信息,解决了当前虹膜图像提取信息丢失问题;同时利用改进的DenseNet神经网络模型对提取的多特征进行深层特征提取并融合处理,进一步可提升模型精度。
为解决上述技术问题,本发明实施例还提供一种芯片,该芯片可以为通用处理器,也可以为专用处理器。该芯片包括处理器,处理器用于支持终端执行上述相关步骤,例如从存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行,以实现上述各个实施例中的虹膜识别方法。
可选的在一些示例下,该芯片还包括收发器,收发器用于接受处理器的控制,用于支持终端执行上述相关步骤,以实现上述各个实施例中的虹膜识别方法。
可选的,该芯片还可以包括存储介质。
需要说明的是,该芯片可以使用下述电路或者器件来实现:一个或多个现场可编程门阵列(field programmable gate array,FPGA)、可编程逻辑器件(programmablelogicdevice,PLD)、控制器、状态机、门逻辑、分立硬件部件、任何其他适合的电路、或者能够执行本申请通篇所描述的各种功能的电路的任意组合。
本发明还提供一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,处理器执行所述计算机程序时实现如上实施例中虹膜识别方法的步骤。
具体请参阅图13,图13为示出的一种终端的基本结构框图,该终端包括通过系统总线连接的处理器、非易失性存储介质、存储器和网络接口。其中,该终端的非易失性存储介质存储有操作系统、数据库和计算机可读指令,数据库中可存储有控件信息序列,该计算机可读指令被处理器执行时,可使得处理器实现一种人脸表情识别方法。该终端的处理器用于提供计算和控制能力,支撑整个终端的运行。该终端的存储器中可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种人脸表情识别方法。该终端的网络接口用于与终端连接通信。本领域技术人员可以理解,图中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的终端的限定,具体的终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本技术领域技术人员可以理解,这里所使用的“终端”、“终端设备”既包括无线信号接收器的设备,其仅具备无发射能力的无线信号接收器的设备,又包括接收和发射硬件的设备,其具有能够在双向通信链路上,执行双向通信的接收和发射硬件的电子设备。这种电子设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备;PCS(Personal Communications Service,个人通信系统),其可以组合语音、数据处理、传真和/或数据通信能力;PDA(Personal DigitalAssistant,个人数字助理),其可以包括射频接收器、寻呼机、互联网/内联网访问、网络浏览器、记事本、日历和/或GPS(Global Positioning System,全球定位系统)接收器;常规膝上型和/或掌上型计算机或其他设备,其具有和/或包括射频接收器的常规膝上型和/或掌上型计算机或其他设备。这里所使用的“终端”、“终端设备”可以是便携式、可运输、安装在交通工具(航空、海运和/或陆地)中的,或者适合于和/或配置为在本地运行,和/或以分布形式,运行在地球和/或空间的任何其他位置运行。这里所使用的“终端”、“终端设备”还可以是通信终端、上网终端、音乐/视频播放终端,例如可以是PDA、MID(Mobile InternetDevice,移动互联网设备)和/或具有音乐/视频播放功能的移动电话,也可以是智能电视、机顶盒等设备。
本发明还提供一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述任一实施例所述虹膜识别方法的步骤。
本实施例还提供了一种计算机程序,该计算机程序可以分布在计算机可读介质上,由可计算装置来执行,以实现上述介绍的虹膜识别方法的至少一个步骤;并且在某些情况下,可以采用不同于上述实施例所描述的顺序执行所示出或描述的至少一个步骤。
本实施例还提供了一种计算机程序产品,包括计算机可读装置,该计算机可读装置上存储有如上所示的计算机程序。本实施例中该计算机可读装置可包括如上所示的计算机可读存储介质。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (9)
1.一种虹膜识别方法,其特征在于,包括:
获取针对同一人物目标连续采集的多张人眼初始图像;
在所述人眼初始图像中确定对应的待定种子点,判断所述人眼初始图像中设定方向上所包含像素点的灰度值变化形态是否符合设定变化形态;所述设定方向上包含所述待定种子点;
若所述设定方向上所包含像素点的灰度值变化形态符合所述设定变化形态,则将该符合所述设定变化形态对应的所述待定种子点作为初始种子点;否则,重新确定待定种子点,直至所述设定方向上所包含像素点的灰度值变化形态符合所述设定变化形态;
以所述初始种子点为中心,采用聚集像素分割算法在对应所述人眼初始图像中进行生长得到仅包含虹膜部分的第一分割图像;
基于所述第一分割图像计算对应所述人眼初始图像的设定质量评价指标;
根据计算得到的各所述人眼初始图像对应的设定质量评价指标,筛选出满足设定评价需求的第一分割图像,作为第二分割图像;
对各所述第二分割图像进行预处理,得到待识别虹膜图像;
提取所述待识别虹膜图像的Gabor频域特征和LBF空域特征;
将所述待识别虹膜图像的Gabor频域特征和LBF空域特征,输入改进的DenseNet神经网络模型,利用所述改进的DenseNet神经网络模型输出所述待识别虹膜图像的第一特征向量;
将各所述第一特征向量与第二特征向量进行比较,得到比较结果;所述第二特征向量为已知人物身份的虹膜图像对应的特征向量;
根据各所述第一特征向量对应的所述比较结果,判断所述人物目标与所述已知人物身份是否同属一个人,以实现虹膜识别;
所述采用聚集像素分割算法在对应所述人眼初始图像中进行生长得到仅包含虹膜部分的第一分割图像包括:
(1)将所述人眼初始图像的初始种子点放入种子点集seeds中;
(2)顶出所述种子点集seeds中的一个种子点,分别计算该种子点与其各邻域像素点的灰度值相似度;所述各邻域像素点包括该种子点上、下、左、右、左上、左下、右下、右上8个方向上相邻的像素点;
(3)将满足相似准则条件的邻域像素点,作为种子点放入所述种子点集seeds;
(4)将顶出的种子点存入种子集S;
(5)如果种子点集seeds内没有元素,则跳到步骤(6);如果种子点集中还有元素,则跳到步骤(2);
(6)从所述人眼初始图像中截取所述种子集S中各种子点对应坐标的像素值,其余部分丢弃,得到所述仅包含虹膜部分的第一分割图像。
2.如权利要求1所述的虹膜识别方法,其特征在于,所述设定变化形态包括:在所述设定方向上呈现出两端像素点的灰度值高,中间像素点的灰度值低的状态。
3.如权利要求1所述的虹膜识别方法,其特征在于,在所述基于所述第一分割图像计算对应所述人眼初始图像的设定质量评价指标之前,还包括:
基于所述人眼初始图像中截取仅包含瞳孔部分的第三分割图像。
4.如权利要求3所述的虹膜识别方法,其特征在于,所述设定质量评价指标包括:离心度L1、瞳孔放缩度T1、瞳孔有效区域T2中的至少一种;
所述离心度L1通过计算瞳孔圆心到图像中心距离Δd和图像对角半径d的比值得到:
其中(x1,y1)表示图像中心点坐标,(xpupil,ypupil)表示瞳孔圆心坐标;
所述瞳孔放缩度T1采用如下方式计算得到:
其中,Spupil表示瞳孔区域面积,Siris分别表示虹膜区域面积;
所述瞳孔有效区域T2采用如下方式计算得到:
其中,SUMpupil表示瞳孔黑色素数量,Spupil表示瞳孔内圆面积。
5.如权利要求1-4任一项所述的虹膜识别方法,其特征在于,所述对各所述第二分割图像进行预处理,得到待识别虹膜图像包括:
对所述第二分割图像进行归一化处理,将归一化处理后的图像提取ROI图像;将所述ROI图像作为所述待识别虹膜图像。
6.如权利要求1-4任一项所述的虹膜识别方法,其特征在于,所述改进的DenseNet神经网络模型包括两个并联的特征提取支路和一个特征融合模块,一个所述特征提取支路用于提取所述Gabor频域特征的深层特征,另一个所述特征提取支路用于提取所述LBF空域特征的深层特征,特征融合模块用于将各所述深层特征进行融合处理。
7.如权利要求1-4任一项所述的虹膜识别方法,其特征在于,所述根据各所述第一特征向量对应的所述比较结果,判断所述人物目标与所述已知人物身份是否同属一个人包括:
依次根据所述比较结果判断所述第一特征向量与所述第二特征向量是否匹配;
若是,则计数器执行+1操作;若否,则计数器不动作;
待各所述第一特征向量执行完毕,获取计数器值,并对所述计数器置零;
计算所述计数器值与所述第一特征向量的数量之比;
若比值大于等于设定阈值,则判定所述人物目标与所述已知人物身份同属一个人;
若所述比值小于所述设定阈值,则判定所述人物目标与所述已知人物身份不属同一个人。
8.一种芯片,其特征在于,包括:第一处理器,用于从第一存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行如权利要求1至7任一项所述的虹膜识别方法的各个步骤。
9.一种终端,其特征在于,包括第二存储器、第二处理器以及存储在所述第二存储器中并可在所述第二处理器上运行的计算机程序,其特征在于,所述第二处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的虹膜识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310929339.9A CN116994325B (zh) | 2023-07-27 | 2023-07-27 | 一种虹膜识别方法、芯片及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310929339.9A CN116994325B (zh) | 2023-07-27 | 2023-07-27 | 一种虹膜识别方法、芯片及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116994325A CN116994325A (zh) | 2023-11-03 |
CN116994325B true CN116994325B (zh) | 2024-02-20 |
Family
ID=88533179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310929339.9A Active CN116994325B (zh) | 2023-07-27 | 2023-07-27 | 一种虹膜识别方法、芯片及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116994325B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1584917A (zh) * | 2004-06-11 | 2005-02-23 | 清华大学 | 活体虹膜图像采集方法及采集装置 |
CN107408195A (zh) * | 2015-12-29 | 2017-11-28 | 厦门中控智慧信息技术有限公司 | 一种虹膜识别方法及装置 |
CN109325462A (zh) * | 2018-10-11 | 2019-02-12 | 深圳斐视沃德科技有限公司 | 基于虹膜的人脸识别活体检测方法及装置 |
CN110807364A (zh) * | 2019-09-27 | 2020-02-18 | 中国科学院计算技术研究所 | 三维人脸与眼球运动的建模与捕获方法及系统 |
CN112101199A (zh) * | 2020-09-15 | 2020-12-18 | 西安艾瑞生物识别科技有限公司 | 一种基于深度学习的长距离虹膜识别方法 |
CN112380966A (zh) * | 2020-11-12 | 2021-02-19 | 西安电子科技大学 | 基于特征点重投影的单眼虹膜匹配方法 |
KR20210084806A (ko) * | 2019-12-27 | 2021-07-08 | 주식회사 비즈모델라인 | 홍채 인식 기반 왜곡 영상 복원 처리 방법 |
CN114821743A (zh) * | 2022-05-23 | 2022-07-29 | 深圳市英锐芯电子科技有限公司 | 芯片的3d人脸识别方法、人脸识别芯片、可读存储介质 |
CN116152138A (zh) * | 2021-11-19 | 2023-05-23 | 北京眼神智能科技有限公司 | 身份识别方法、装置、存储介质及设备 |
WO2023088069A1 (zh) * | 2021-11-19 | 2023-05-25 | 北京眼神智能科技有限公司 | 虹膜识别方法、装置、存储介质及设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7333653B2 (en) * | 2003-08-29 | 2008-02-19 | Hewlett-Packard Development Company, L.P. | Detecting and correcting redeye in an image |
-
2023
- 2023-07-27 CN CN202310929339.9A patent/CN116994325B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1584917A (zh) * | 2004-06-11 | 2005-02-23 | 清华大学 | 活体虹膜图像采集方法及采集装置 |
CN107408195A (zh) * | 2015-12-29 | 2017-11-28 | 厦门中控智慧信息技术有限公司 | 一种虹膜识别方法及装置 |
CN109325462A (zh) * | 2018-10-11 | 2019-02-12 | 深圳斐视沃德科技有限公司 | 基于虹膜的人脸识别活体检测方法及装置 |
CN110807364A (zh) * | 2019-09-27 | 2020-02-18 | 中国科学院计算技术研究所 | 三维人脸与眼球运动的建模与捕获方法及系统 |
KR20210084806A (ko) * | 2019-12-27 | 2021-07-08 | 주식회사 비즈모델라인 | 홍채 인식 기반 왜곡 영상 복원 처리 방법 |
CN112101199A (zh) * | 2020-09-15 | 2020-12-18 | 西安艾瑞生物识别科技有限公司 | 一种基于深度学习的长距离虹膜识别方法 |
CN112380966A (zh) * | 2020-11-12 | 2021-02-19 | 西安电子科技大学 | 基于特征点重投影的单眼虹膜匹配方法 |
CN116152138A (zh) * | 2021-11-19 | 2023-05-23 | 北京眼神智能科技有限公司 | 身份识别方法、装置、存储介质及设备 |
WO2023088069A1 (zh) * | 2021-11-19 | 2023-05-25 | 北京眼神智能科技有限公司 | 虹膜识别方法、装置、存储介质及设备 |
CN114821743A (zh) * | 2022-05-23 | 2022-07-29 | 深圳市英锐芯电子科技有限公司 | 芯片的3d人脸识别方法、人脸识别芯片、可读存储介质 |
Non-Patent Citations (2)
Title |
---|
IrisDenseNet Robust Iris Segmentation Using Densely Connected Fully Convolutional Networks in the Images by Visible Light and Near-Infrared Light Camera Sensors;Muhammad Arsalan et al;《 Visual Sensors》;第1-30页 * |
面向目标识别的多特征融合研究与实现;张建虎;《中国优秀硕士学位论文全文数据库 信息科技辑》;第I138-1311页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116994325A (zh) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10282589B2 (en) | Method and system for detection and classification of cells using convolutional neural networks | |
CN111192201B (zh) | 一种生成人脸图像及其模型训练的方法、装置及电子设备 | |
CN106815853A (zh) | 对眼底图像中视网膜血管的分割方法和装置 | |
CN110263755B (zh) | 眼底图像识别模型训练方法、眼底图像识别方法和设备 | |
CN108509920A (zh) | 基于CNN的多patch多通道联合特征选择学习的人脸识别方法 | |
CN109583364A (zh) | 图像识别方法及设备 | |
CN111325766A (zh) | 三维边缘检测方法、装置、存储介质和计算机设备 | |
CN114926892A (zh) | 一种基于深度学习的眼底图像匹配方法、系统和可读介质 | |
CN113657195A (zh) | 人脸图像识别方法、设备、电子装置和存储介质 | |
CN113887494A (zh) | 用于嵌入式平台的实时高精度人脸检测识别系统 | |
CN111291700A (zh) | 一种人脸属性识别方法、装置、设备及可读存储介质 | |
CN116994325B (zh) | 一种虹膜识别方法、芯片及终端 | |
CN114596608A (zh) | 一种基于多线索的双流视频人脸伪造检测方法及系统 | |
CN110276333B (zh) | 眼底身份识别模型训练方法、眼底身份识别方法和设备 | |
Ali et al. | New algorithm for localization of iris recognition using deep learning neural networks | |
CN111612083A (zh) | 一种手指静脉识别方法、装置及设备 | |
CN116091844A (zh) | 一种基于边缘计算的图像数据处理方法及系统 | |
CN115775226A (zh) | 基于Transformer的医学图像分类方法 | |
CN115131858A (zh) | 模型训练方法、人脸识别方法、电子设备及存储介质 | |
Kaya et al. | Oak leaf classification: an analysis of features and classifiers | |
CN114698398A (zh) | 图像处理方法、图像处理装置、电子设备及可读存储介质 | |
CN110991223A (zh) | 一种基于迁移学习的美瞳识别方法及系统 | |
CN117058493B (zh) | 一种图像识别的安全防御方法、装置和计算机设备 | |
CN114283277B (zh) | 视差图获取方法、遮挡检测网络获取方法及电子设备 | |
CN110866532B (zh) | 对象的匹配方法和装置、存储介质及电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |