CN113947805A - 一种基于视频图像的眼震类型分类方法 - Google Patents
一种基于视频图像的眼震类型分类方法 Download PDFInfo
- Publication number
- CN113947805A CN113947805A CN202111137228.1A CN202111137228A CN113947805A CN 113947805 A CN113947805 A CN 113947805A CN 202111137228 A CN202111137228 A CN 202111137228A CN 113947805 A CN113947805 A CN 113947805A
- Authority
- CN
- China
- Prior art keywords
- image
- pupil
- eye
- frame
- radius
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于视频图像的眼震类型分类方法,包括以下步骤:读取眼震视频的一帧图像,结合U‑net神经网络和阈值分割方法实现图像中瞳孔的分割;对分割后的瞳孔图像进行圆拟合得到瞳孔边界,确定瞳孔中心和半径;提取瞳孔边界向外的部分虹膜图像;重复上述步骤对视频的每一帧图像进行处理,将每一帧图像提取的瞳孔中心和半径分别构成序列;以第一帧图像提取的虹膜图像作为参考模板,计算每一帧图像提取的虹膜图像与参考模板的余弦相似度值,并构成余弦相似度序列;将瞳孔中心序列、瞳孔半径序列、余弦相似度序列作为特征向量输入到分类网络中获得眼震类型。本发明基于视频图像实现眼震类型的自动分类,能够辅助医生对眩晕症等疾病进行辅助诊断。
Description
技术领域
本发明涉及数字图像处理技术和信息处理技术领域,特别涉及一种基于视频图像的眼震类型分类方法。
背景技术
眼震即眼球发生震颤,它是眼球的一种非自主性、有节律性的往返运动,是眩晕症状的一种表现形式。它的运动通常为水平的,但也有垂直的、旋转的和旋转与水平或垂直混合性眼震。眼震电图和视频眼震图都是对这种眼球运动的一种记录,对耳鼻喉科中眩晕性疾病的诊断具有重要意义。眼震电图是通过表皮电极引导微弱的角膜、视网膜电位差从而间接地获得眼球运动参数,然而这种方法不能判断眼震方向,噪声也比较大,这对眼震图记录的准确性和可靠性带来较大的影响。而基于视频采集的眼震图记录方法不需要利用生物电信号,而是使用红外摄像头直接获取眼球运动的图像并由计算机分析瞳孔运动轨迹,进而定量分析眼震。这种简捷方便的方法得到广大研究人员的关注,也逐渐替代了原有的眼震电图。而目前对眼震类型的识别分类主要依赖与医生的经验,因而无法避免人为的主观误差。
计算机辅助诊断已经成为医学疾病诊断的重要手段之一。计算机诊断可充分利用采集到的眼震视频中的信息,进行精确的定性、定量分析。目前对于计算机眼震视频分析技术关键在于瞳孔检测和定位以及旋转眼震的测量。在眼震视频中,传统的瞳孔定位方法主要有Hough变换法、Canny边缘检测法。Hough变换法主要利用瞳孔一般为圆形的特征,但这种方法不适用于眼球过多地被上眼睑遮挡或眼睛不完全睁开的情况,另外,这种方法是从二值边缘图像中定位眼睛,因此其性能与二值边缘图像提取过程中所采用的阈值有着直接的联系。Canny边缘检测法是利用瞳孔的颜色与眼白颜色较大差异性,所以这种方法不适用于红外图像下瞳孔颜色与眼白颜色较为相近的情况,另外,对于不同的视频图像,边缘分割所需的阈值需要实时变化,若采用固定的阈值很难获得理想效果。除了瞳孔检测,对于旋转眼震的测量也是一大难点。目前,主要利用光流估计眼震旋转轨迹,利用估计的眼震旋转轨迹建立眼球旋转强度置信图,可视运动趋势及强度等眼球旋转特征,在此基础上训练一个深度学习的网络来完成旋转眼震图像的判定。然而,光流法计算量大、耗时长,在对实时性要求苛刻的情况下并不适用。另外,由于变化的光线会被错误地识别为光流,因此该方法对光线敏感,从而会影响眼震轨迹识别效果。
此外,目前眼震类型分类的算法只能区分简单的眼震类型,基于人工提取的特征主观性和局限性强,且眼球的轴向转动特征提取困难。因此,精准定位瞳孔并提取相关瞳孔位置信息、准确提取旋转眼震旋转特征可以为眼震类型分类奠定坚实的基础。
发明内容
本发明的目的在于提供一种基于视频图像的眼震类型分类方法,该方法能够有效地提高瞳孔定位的精度以及提高计算眼球旋转角度的计算精度和速度,有效的区分眼震的类型。
实现本发明目的的具体技术方案是:
一种基于视频图像的眼震类型分类方法,特点是:所述方法包括以下步骤:
(1)读取眼震视频的一帧图像,采用U-net神经网络实现图像中瞳孔粗分割,并利用阈值分割方法进行细分割,获取瞳孔图像;具体为:
读取眼震视频的第i帧图像Ii;
采用U-net神经网络实现所述图像Ii中瞳孔粗分割,初步得到瞳孔二值化图像Bi;
根据所述瞳孔二值化图像Bi,利用4连通域方法判断Bi的最大连通域,根据最大连通域的轮廓并利用最小外接圆算法(minEnclosingCircle)拟合圆,初步得到瞳孔的圆心Oi以及半径ri;
以所述圆心Oi和1.3半径ri设置感兴趣区域,提取所述图像Ii中瞳孔区域图像Ri,并获取瞳孔区域绿色通道图像Gi;
采用同态滤波以及限制对比度自适应直方图均衡(Contrast Limited AdaptiveHistogram Equalization,CLAHE)对所述瞳孔区域绿色通道图像进行增强,得到G'i;
对增强后的图像进行阈值分割,获取最终的瞳孔二值图像B'i。
(2)对细分割后的瞳孔图像进行圆拟合得到瞳孔边界,确定圆心和半径,即瞳孔中心和半径;具体为:
利用4连通域方法判断所述瞳孔二值图像B'i的最大连通域;
对所述B'i的最大连通域的轮廓进行最小外接圆算法的圆拟合(minEnclosingCircle),获得瞳孔边界;
根据所述瞳孔边界确定圆心O'i(x'i,y'i)和半径r'i,即瞳孔中心和半径。
(3)提取瞳孔边界向外的部分虹膜图像;具体为:
以所述瞳孔边界以及所述圆心O'i(x'i,y'i)和1.2半径r'i的圆所构成的圆环提取虹膜图像;
通过水平和垂直线将圆环分成四部分,取右下角1/4圆环的虹膜图像,即所述部分虹膜图像hi。
(4)重复步骤(1)-(3),对眼震视频的每一帧图像进行处理,将每一帧图像提取的瞳孔中心和半径分别构成序列;具体为:
重复步骤(1)-(3)对眼震视频的每一帧图像进行处理,获取每一帧图像瞳孔中心和半径,提取部分虹膜图像;
由每一帧图像提取的瞳孔中心O'i(x'i,y'i)和半径构成的序列分别记为{x'1,x'2,x'3,…},{y'1,y'2,y'3,…},{r'1,r'2,r'3,…}。
(5)以第一帧图像提取的部分虹膜图像作为参考模板,分别计算每一帧图像提取的部分虹膜图像与参考模板的余弦相似度值,并构成余弦相似度序列;具体为:
以第一帧图像提取的部分虹膜图像h1作为参考模板;
分别计算每一帧图像提取的部分虹膜图像hi与所述参考模板h1的余弦相似度值ci,构成余弦相似度序列{c1,c2,c3,…}。
(6)将瞳孔中心序列、瞳孔半径序列、余弦相似度序列作为特征向量输入到分类网络训练得到分类模型,并通过该模型获得眼震类型;具体为:
通过已知眼震类型的批量眼震视频提取的瞳孔中心序列、瞳孔半径序列、余弦相似度序列作为输入特征向量,采用分类网络训练得到分类模型,并通过该模型得出眼震类型。
本发明提供的技术方案的有益效果是:本发明所提出的一种基于视频图像的眼震类型分类方法,在瞳孔定位上,首先利用深度学习方法进行瞳孔粗分割,不仅可以避免眼睫毛带来的干扰还可以解决传统方法中由于视频成像环境差异等因素的影响而需要不同分割阈值的问题,从而提高了瞳孔粗分割的精度和效率,在此基础上,利用阈值分割进行瞳孔细分割能够进一步提高瞳孔定位的精度;通过计算每一帧提取的部分虹膜图与参考模板图像的余弦相似度值的变化程度判断眼球是否发生旋转,该参数在后续还可以用来计算眼球旋转角度;同时,采用机器学习的分类方法提高了眼震类型判断的准确性与速度,为辅助医生进行正确判断眼震类型提供了参考依据。
附图说明
图1为本发明的流程图;
图2为本发明提供的获取瞳孔图像流程图;
图3为本发明实施例部分结果图。
具体实施方式
为了更加清楚明白地说明本发明所述的技术手段、技术改进及有益效益,以下结合附图对本发明进行详细的说明。
实施例
参见图1、图2和图3,本发明所提供的一种基于视频图像的眼震类型分类方法,包括以下具体步骤:
S101:读取眼震视频的一帧图像,采用U-net神经网络实现图像中瞳孔粗分割,并利用阈值分割方法进行细分割,获取瞳孔图像。
该步骤参见图2所示流程图,具体过程为:
读取眼震视频的第i帧图像Ii,见图3(a);
采用U-net神经网络实现所述图像Ii中瞳孔粗分割,初步得到瞳孔二值化图像Bi,见图3(b);
所述的U-net神经网络主要分为4个编码器即下采样过程和对应的4个解码器即上采样过程。下采样由两个3x3的卷积层(Convolutional Layer)上一个2x2的最大池化层(Maxpool Layer)组成,上采样由一个上采样的卷积层(去卷积层)结合特征拼接和两个3x3的卷积层反复构成。经过图像下采样和上采样,即结合图像低分辨率信息和高分辨率信息进行分割,初步得到瞳孔二值化图像Bi。本发明在此处主要利用了这个网络结构和已训练好的权重文件对瞳孔进行粗分割。
利用4连通域标记方法找到瞳孔粗分割得到的瞳孔二值化图像Bi的最大连通域,并根据最大连通域的轮廓利用最小外接圆拟合方法(minEnclosingCircle)拟合圆,初步得到其圆心Oi以及半径ri。
以所述圆心Oi和1.3半径ri设置感兴趣区域,提取所述图像Ii中瞳孔区域图像Ri,并获取瞳孔区域绿色通道图像Gi,见图3(c);
采用同态滤波以及限制对比度自适应直方图均衡对所述瞳孔区域绿色通道图像进行增强,得到G'i,见图3(d);
对增强后的图像进行阈值分割,获取最终的瞳孔二值图像B'i,见图3(e)。
其中,阈值选定在[10,20]之间,根据实际应用的需要进行设置,本发明实施例对此不做限制,此处以10为例进行说明。
S102:对细分割后的瞳孔图像进行圆拟合得到瞳孔边界,确定圆心和半径,即瞳孔中心和半径。
将上一步得到的瞳孔二值图像B'i继续利用4连通域标记方法找到B'i的最大连通域,并根据最大连通域的轮廓进行最小外接圆的拟合(minEnclosingCircle)即瞳孔拟合,见图3(f),得到瞳孔边界,确定瞳孔中心O'i(x'i,y'i)以及半径r'i。
S103:提取瞳孔边界向外的部分虹膜图像。
该步骤具体为:
将上述细分割后得到的瞳孔边界以及所述圆心O'i(x'i,y'i)和1.2半径r'i的圆所构成的圆环提取虹膜图像;
通过水平和垂直线将圆环分成四部分,取右下角1/4圆环的虹膜图像,即所述部分虹膜图像hi,见图3(g)。
S104:重复步骤S101-S103,对眼震视频的每一帧图像进行处理,将每一帧图像提取的瞳孔中心和半径分别构成序列。
该步骤具体为:
重复步骤S101-S103对眼震视频的每一帧图像进行处理,获取每一帧图像的瞳孔中心和半径,提取部分虹膜图像;
由每一帧图像提取的瞳孔中心O'i(x'i,y'i)和半径构成的序列分别记为{x'1,x'2,x'3,…},{y'1,y'2,y'3,…},{r'1,r'2,r'3,…},,见图3(h)-(j)。
S105:以第一帧图像提取的部分虹膜图像作为参考模板,分别计算每一帧图像提取的虹膜图像与参考模板的余弦相似度值,并构成余弦相似度序列。
该步骤具体为:
以第一帧图像提取的部分虹膜图像h1作为参考模板;
分别计算每一帧图像提取的部分虹膜图像hi与所述参考模板h1的余弦相似度值ci,构成余弦相似度序列{c1,c2,c3,…},见图3(k)。余弦相似度计算如下:
假设将参考模板h1表示成向量(a1,a2,…,an),n=h1水平像素×h1垂直像素,每一帧图像提取的部分虹膜图像hi表示成另一向量(b1,b2,…,bn),n=hi水平像素×hi垂直像素,而h1和hi之间的余弦相似度cosθ计算公式如下:
S106:将瞳孔中心序列、瞳孔半径序列、余弦相似度序列作为特征向量输入到分类网络训练得到分类模型,并通过该模型获得眼震类型。
该步骤中分类模型具体为:
通过已知眼震类型的批量眼震视频提取的瞳孔中心序列、瞳孔半径序列、余弦相似度序列作为输入特征向量,采用分类网络训练得到分类模型,并通过该模型获得眼震类型。
其中,所述分类网络可采用公知的算法如KNN(K-Nearest Neighbor)算法,随机森林(Random Forest,RF)等机器学习分类算法,在此不进行详细的介绍。
综上所述,本发明所提出的一种基于视频图像的眼震类型分类方法,在瞳孔定位方法上利用深度学习方法进行瞳孔粗分割不仅可以避免眼睫毛带来的干扰还可以解决传统方法中在不同视频中由于视频成像环境差异等因素需要不同分割阈值的缺点,从而提高了瞳孔粗分割的精度和效率;本发明在瞳孔粗分割的基础上利用阈值分割进行瞳孔细分割进一步提高瞳孔定位的精度;通过计算每一帧提取的部分虹膜图与参考模板图像的余弦相似度值的变化程度可以判断眼球是否发生旋转,该余弦相似度参数在后续可以进一步计算旋转角度;同时,采用机器学习的分类方法可以提高眼震类型的判断的准确性和效率。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于视频图像的眼震类型分类方法,其特征在于,所述方法包括以下步骤:
(1)读取眼震视频的一帧图像,采用U-net神经网络实现图像中瞳孔粗分割,并利用阈值分割方法进行细分割,获取瞳孔图像;
(2)对细分割后的瞳孔图像进行圆拟合得到瞳孔边界,确定圆心和半径,即瞳孔中心和半径;
(3)提取瞳孔边界向外的部分虹膜图像;
(4)重复步骤(1)-(3),对眼震视频的每一帧图像进行处理,将每一帧图像提取的瞳孔中心和半径分别构成序列;
(5)以第一帧图像提取的部分虹膜图像作为参考模板,分别计算每一帧图像提取的部分虹膜图像与参考模板的余弦相似度值,并构成余弦相似度序列;
(6)将瞳孔中心序列、瞳孔半径序列、余弦相似度序列作为特征向量输入到分类网络训练得到分类模型,并通过该模型获得眼震类型。
2.根据权利要求1所述的一种基于视频图像的眼震类型分类方法,其特征在于,所述步骤1具体为:
读取眼震视频的第i帧图像Ii;
采用U-net神经网络实现所述图像Ii中瞳孔粗分割,初步得到瞳孔二值化图像Bi;
根据所述瞳孔二值化图像Bi,利用4连通域方法判断Bi的最大连通域,根据最大连通域的轮廓并利用最小外接圆算法拟合圆,初步得到瞳孔的圆心Oi以及半径ri;
以所述圆心Oi和1.3半径ri设置感兴趣区域,提取所述图像Ii中瞳孔区域图像Ri,并获取瞳孔区域绿色通道图像Gi;
采用同态滤波以及限制对比度自适应直方图均衡对所述瞳孔区域绿色通道图像进行增强,得到G'i;
对增强后的图像进行阈值分割,获取最终的瞳孔二值图像B'i。
3.根据权利要求1所述的一种基于视频图像的眼震类型分类方法,其特征在于,所述步骤2具体为:
利用4连通域方法判断所述瞳孔二值图像B'i的最大连通域;
对所述B'i的最大连通域的轮廓进行最小外接圆算法的圆拟合,获得瞳孔边界;
根据所述瞳孔边界确定圆心O'i(x'i,y'i)和半径r'i,即瞳孔中心和半径。
4.根据权利要求1所述的一种基于视频图像的眼震类型分类方法,其特征在于,步骤3所述提取瞳孔边界向外的部分虹膜图像,具体为:
以所述瞳孔边界以及所述圆心O'i(x'i,y'i)和1.2半径r'i的圆所构成的圆环提取虹膜图像;
通过水平和垂直线将圆环分成四部分,取右下角1/4圆环的虹膜图像,即所述部分虹膜图像hi。
5.根据权利要求1所述的一种基于视频图像的眼震类型分类方法,其特征在于,所述步骤4具体为:
重复步骤(1)-(3)对眼震视频的每一帧图像进行处理,获取每一帧图像瞳孔中心和半径,提取部分虹膜图像;
由每一帧图像提取的瞳孔中心O'i(x'i,y'i)和半径构成的序列分别记为{x'1,x'2,x'3,…},{y'1,y'2,y'3,…},{r'1,r'2,r'3,…}。
6.根据权利要求1所述的一种基于视频图像的眼震类型分类方法,其特征在于,所述步骤5具体为:
以第一帧图像提取的部分虹膜图像h1作为参考模板;
分别计算每一帧图像提取的部分虹膜图像hi与所述参考模板h1的余弦相似度值ci,构成余弦相似度序列{c1,c2,c3,…}。
7.根据权利要求1所述的一种基于视频图像的眼震类型分类方法,其特征在于,所述步骤6具体为:
通过已知眼震类型的批量眼震视频提取的瞳孔中心序列、瞳孔半径序列、余弦相似度序列作为输入特征向量,采用分类网络训练得到分类模型,并通过该模型得出眼震类型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111137228.1A CN113947805A (zh) | 2021-09-27 | 2021-09-27 | 一种基于视频图像的眼震类型分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111137228.1A CN113947805A (zh) | 2021-09-27 | 2021-09-27 | 一种基于视频图像的眼震类型分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113947805A true CN113947805A (zh) | 2022-01-18 |
Family
ID=79329390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111137228.1A Pending CN113947805A (zh) | 2021-09-27 | 2021-09-27 | 一种基于视频图像的眼震类型分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113947805A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114617529A (zh) * | 2022-05-12 | 2022-06-14 | 上海志听医疗科技有限公司 | 一种用于眼罩设备的眼球眩晕数据识别方法及系统 |
CN114897898A (zh) * | 2022-07-13 | 2022-08-12 | 江苏绿泉装饰工程有限公司 | 一种基于图像处理的木板质量分类方法 |
-
2021
- 2021-09-27 CN CN202111137228.1A patent/CN113947805A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114617529A (zh) * | 2022-05-12 | 2022-06-14 | 上海志听医疗科技有限公司 | 一种用于眼罩设备的眼球眩晕数据识别方法及系统 |
CN114617529B (zh) * | 2022-05-12 | 2022-08-26 | 上海志听医疗科技有限公司 | 一种用于眼罩设备的眼球眩晕数据识别方法及系统 |
CN114897898A (zh) * | 2022-07-13 | 2022-08-12 | 江苏绿泉装饰工程有限公司 | 一种基于图像处理的木板质量分类方法 |
CN114897898B (zh) * | 2022-07-13 | 2022-09-30 | 江苏绿泉装饰工程有限公司 | 一种基于图像处理的木板质量分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shen et al. | Domain-invariant interpretable fundus image quality assessment | |
Lu et al. | Automatic optic disc detection from retinal images by a line operator | |
JP2008521122A (ja) | 虹彩識別のためのマルチスケール可変領域分解方法及びシステム | |
CN111460950B (zh) | 自然驾驶通话行为中基于头-眼证据融合的认知分心方法 | |
CN113947805A (zh) | 一种基于视频图像的眼震类型分类方法 | |
CN112102385B (zh) | 一种基于深度学习的多模态肝脏磁共振影像配准系统 | |
Zhou et al. | Optic disc and cup segmentation in retinal images for glaucoma diagnosis by locally statistical active contour model with structure prior | |
CN107563996A (zh) | 一种新型视神经盘分割方法及系统 | |
Mohammad et al. | Texture analysis for the segmentation of optic disc in retinal images | |
CN108665474B (zh) | 一种基于b-cosfire的眼底图像视网膜血管分割方法 | |
Xiong et al. | Automatic cataract classification based on multi-feature fusion and SVM | |
Zhao et al. | Attention residual convolution neural network based on U-net (AttentionResU-Net) for retina vessel segmentation | |
KR20030066512A (ko) | 노이즈에 강인한 저용량 홍채인식 시스템 | |
CN114020155A (zh) | 一种基于眼动仪的高精度视线定位方法 | |
CN106778499A (zh) | 一种虹膜采集过程中快速定位人眼虹膜的方法 | |
Badeka et al. | Evaluation of LBP variants in retinal blood vessels segmentation using machine learning | |
Jana et al. | A semi-supervised approach for automatic detection and segmentation of optic disc from retinal fundus image | |
Lin et al. | Res-UNet based optic disk segmentation in retinal image | |
Karmawat et al. | Glaucoma detection using fuzzy C-means optic cup segmentation and feature classification | |
Hasan et al. | A study of gender classification techniques based on iris images: A deep survey and analysis | |
CN111292285A (zh) | 一种基于朴素贝叶斯与支持向量机的糖网病自动筛查方法 | |
Honale et al. | A review of methods for blood vessel segmentation in retinal images | |
KR102282334B1 (ko) | 시신경 유두 분류 방법 | |
Farouk et al. | Iris recognition system techniques: A literature survey and comparative study | |
Verma et al. | Machine learning classifiers for detection of glaucoma |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |