CN111259986A - 自由瞬目条件下的眼表指标数据分类方法 - Google Patents

自由瞬目条件下的眼表指标数据分类方法 Download PDF

Info

Publication number
CN111259986A
CN111259986A CN202010104042.5A CN202010104042A CN111259986A CN 111259986 A CN111259986 A CN 111259986A CN 202010104042 A CN202010104042 A CN 202010104042A CN 111259986 A CN111259986 A CN 111259986A
Authority
CN
China
Prior art keywords
data
index
objective scattering
objective
free
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010104042.5A
Other languages
English (en)
Other versions
CN111259986B (zh
Inventor
廖胜辉
韩付昌
蒋义勇
邹忠全
张凡荣
温小斌
刘姝
赵于前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202010104042.5A priority Critical patent/CN111259986B/zh
Publication of CN111259986A publication Critical patent/CN111259986A/zh
Application granted granted Critical
Publication of CN111259986B publication Critical patent/CN111259986B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种自由瞬目条件下的眼表指标数据分类方法,包括获取历史数据中自由瞬目条件下的眼表指标数据、进行数据处理、进行混沌特性测试和映射相关运算,得到样本数据;对样本数据进行重要性权重排序和数据移除得到模型输入特征数据;将模型输入特征数据分为训练集和测试集并对分类模型进行训练、测试和修正得到自由瞬目条件下的眼表指标数据分类模型;利用自由瞬目条件下的眼表指标数据分类模型对待分类数据分类。本发明方法可靠性高、实用性好、稳定性强且适用范围广。

Description

自由瞬目条件下的眼表指标数据分类方法
技术领域
本发明属于数据处理领域,具体涉及一种自由瞬目条件下的眼表指标数据分类方法。
背景技术
随着经济技术的发展和人们生活水平的提高,眼睛相关的数据分类方法已经开始逐步受到人们的重视,也在相应的领域发挥着巨大的作用。
目前眼睛数据相关的分类方法,已经广泛采用了机器学习技术和智能算法。例如,Kim等人获取了各种算法候选特征,然后提出了四种有效的机器学习模型来诊断青光眼,分别为:C5.0,随机森林(RF),支持向量机(SVM)和k最近邻(KNN),结果表明RF具有最佳的诊断性能和可解释性。An等人从每只眼睛中提取91个参数,并使用四个机器学习分类器建立青光眼视盘的分类模型,包括:神经网络(NN),朴素贝叶斯(NB),支持向量机(SVM)和梯度提升决策树(GBDT)。实验结果表明,NN算法具有最佳的分类性能。Fageeri等人运用三种机器学习算法对眼病的类型进行分类,结果表明,J48决策树分类器的性能优于朴素贝叶斯和SVM。
眼表指标是眼睛数据中的一个重要部分,眼表指标的数据分类直接影响着眼表指标的数据应用。但是,目前并未见有相关的眼表指标数据分类方法出现,从而也直接影响了眼表指标的数据应用和进一步的数据挖掘工作。
发明内容
本发明的目的在于提供一种可靠性高、实用性好且适用范围广的自由瞬目条件下的眼表指标数据分类方法。
本发明提供的这种自由瞬目条件下的眼表指标数据分类方法,包括如下步骤:
S1.获取历史数据中,自由瞬目条件下的眼表指标数据并进行数据处理;
S2.将步骤S1进行处理后的数据进行混沌特性测试;
S3.将步骤S1进行处理后的数据进行映射相关运算,从而得到样本数据;
S4.对步骤S3得到的样本数据进行重要性权重排序和数据移除,从而得到模型输入特征数据;
S5.将步骤S4获取的模型输入特征数据分为训练集和测试集,并对分类模型进行训练、测试和修正,从而得到自由瞬目条件下的眼表指标数据分类模型;
S6.利用步骤S5得到的自由瞬目条件下的眼表指标数据分类模型,对待分类的自由瞬目条件下的眼表指标数据进行分类。
步骤S1所述的获取历史数据中,自由瞬目条件下的眼表指标数据并进行数据处理,具体为获取历史数据中,自由瞬目条件下的眼表指标数据中的客观散射指数和泪河高度数据;然后计算周期内瞬目频率与最长睁眼时长,并选取周期内维持最大睁眼时间的客观散射指数;最后将所获取的数据进行标识;从而构成原始样本数据。
步骤S2所述的将步骤S1进行处理后的数据进行混沌特性测试,具体为对步骤S1获取的客观散射指数,采用C-C法优化后的Wolf算法,获取客观散射指数的最大李雅普诺夫指数。
所述的采用C-C法优化后的Wolf算法,获取客观散射指数的最大李雅普诺夫指数,具体为采用如下步骤计算客观散射指数的最大李雅普诺夫指数:
A.获取输入的客观散射指数;
B.计算输入的客观散射指数的标准差,并设置参数范围;
C.通过算法函数disjoint function和correlation function计算C(1,N,r,t);所述算法函数disjoint function将时间序列分解成t个不相交的时间序列,算法函数correlation function为采用阶跃函数(heaviside function)和无穷范数(NORMfunction)计算关联积分值;结果C(1,N,r,t)的定义为原始时间序列的关联积分
Figure BDA0002387884440000031
D.通过算法函数correlation function计算C(m,N,r,t);所述结果C(m,N,r,t)的定义为嵌入时间序列的关联积分
Figure BDA0002387884440000032
E.计算C(m,N,r,t)与C(1,N,r,t)之间的差值;
F.根据步骤E的计算结果,分别计算测试统计值
Figure BDA0002387884440000033
和Scor(τ);其中
Figure BDA0002387884440000034
表示平均检验统计量;
Figure BDA0002387884440000035
表示平均差量;Scor(τ)表示
Figure BDA0002387884440000036
Figure BDA0002387884440000037
之和;
G.获取最终参数值:延迟时间t和嵌入维度m;
H.采用Wolf算法计算客观散射指数的最大李雅普诺夫指数;
I.判断客观散射指数的混沌特性,从而获取分类候选特征。
步骤S3所述的将步骤S1进行处理后的数据进行映射相关运算,从而得到样本数据,具体为计算得到中间数据:客观散射指数的中值、客观散射指数的极差、客观散射指数的平均值、客观散射指数的标准差、客观散射指数的相对全距、客观散射指数的变化率、客观散射指数的稳定性指数和泪膜客观散射指数的平均值;然后原始样本数据、最大李雅普诺夫指数和上述计算得到的中间数据一同构成样本数据。
所述的客观散射指数的相对全距为客观散射指数极差与客观散射指数平均值的比值;所述的客观散射指数的变化率的计算公式为
Figure BDA0002387884440000041
所述的客观散射指数的稳定性指数为客观散射指数的线性回归直线的斜率;所述的泪膜客观散射指数的平均值为总体客观散射指数平均值与基础客观散射指数平均值的差值。
步骤S4所述的对步骤S3得到的样本数据进行重要性权重排序和数据移除,从而得到模型输入特征数据,具体为利用工作特征曲线ROC的曲线下面积AUC对总体样本数据进行重要性权重排序,并移除权重小于预设阈值的特征,从而获得模型输入特征数据。
步骤S5所述的分类模型,具体为优化后的集成极限学习机算法;优化后的集成极限学习机算法采用旋转森林集成策略,包括利用遍历法获取极限学习机的最优隐含层数目,使用Bootstrap方法进行样本抽样,采用主成分分析法进行样本转换,并将集成数量设置为15。
本发明提供的这种自由瞬目条件下的眼表指标数据分类方法,通过采集自由瞬目条件下的客观散射指数和泪河高度这两项眼表指标,并进行混沌特性测试和数据映射相关运算,得到全面的样本数据;其次,利用AUC对其进行重要性权重排序,选择AUC大于阈值的特征作为诊断模型输入变量;而后,采用旋转森林集成策略来提升特征多样性,以克服极限学习机的输出结果不稳定问题;再而,利用优化后的集成极限学习机算法对训练集中的每个样本进行训练,得到最优的集成极限学习机泪囊炎诊断训练模型;最后,利用训练模型对实际待测的眼表指标进行检测和分类,从而得到最终的分类结果。本发明方法可靠性高、实用性好、稳定性强且适用范围广。
附图说明
图1为本发明方法的方法流程示意图。
图2为本发明方法的客观散射指数的测量结果示意图。
图3为本发明方法的泪河高度的测量结果示意图。
图4为本发明方法的旋转森林集成策略优化集成极限学习机的流程示意图。
具体实施方式
如图1所示为本发明方法的方法流程示意图:本发明提供的这种自由瞬目条件下的眼表指标数据分类方法,包括如下步骤:
S1.获取历史数据中,自由瞬目条件下的眼表指标数据并进行数据处理;具体为获取历史数据中,自由瞬目条件下的眼表指标数据中的客观散射指数(包括基础客观散射指数和总体客观散射指数)和泪河高度数据(如图2和图3所示);然后计算周期内瞬目频率与最长睁眼时长,并选取周期内维持最大睁眼时间的客观散射指数;最后将所获取的数据进行标识;从而构成原始样本数据;
S2.将步骤S1进行处理后的数据进行混沌特性测试;具体为对步骤S1获取的客观散射指数,采用C-C法优化后的Wolf算法,获取客观散射指数的最大李雅普诺夫指数;
在具体实施时,可以采用如下步骤计算客观散射指数的最大李雅普诺夫指数:
A.获取输入的客观散射指数;
B.计算输入的客观散射指数的标准差,并设置参数范围;
C.通过算法函数disjoint function和correlation function计算C(1,N,r,t);所述算法函数disjoint function将时间序列分解成t个不相交的时间序列,算法函数correlation function为采用阶跃函数(heaviside function)和无穷范数(NORMfunction)计算关联积分值;结果C(1,N,r,t)的定义为原始时间序列的关联积分
Figure BDA0002387884440000061
D.通过算法函数correlation function计算C(m,N,r,t);所述结果C(m,N,r,t)的定义为嵌入时间序列的关联积分
Figure BDA0002387884440000062
E.计算C(m,N,r,t)与C(1,N,r,t)之间的差值;
F.根据步骤E的计算结果,分别计算测试统计值
Figure BDA0002387884440000063
和Scor(τ);其中
Figure BDA0002387884440000064
表示平均检验统计量;
Figure BDA0002387884440000065
表示平均差量;Scor(τ)表示
Figure BDA0002387884440000066
Figure BDA0002387884440000067
之和;
G.获取最终参数值:延迟时间t和嵌入维度m;
H.采用Wolf算法计算客观散射指数的最大李雅普诺夫指数;
I.判断客观散射指数的混沌特性,从而获取分类候选特征;
S3.将步骤S1进行处理后的数据进行映射相关运算,从而得到样本数据;具体为计算得到中间数据:客观散射指数的中值、客观散射指数的极差、客观散射指数的平均值、客观散射指数的标准差、客观散射指数的相对全距、客观散射指数的变化率、客观散射指数的稳定性指数和泪膜客观散射指数的平均值;然后原始样本数据、最大李雅普诺夫指数和上述计算得到的中间数据一同构成样本数据;
在具体实施时,所述的客观散射指数的相对全距为客观散射指数极差与客观散射指数平均值的比值;所述的客观散射指数的变化率的计算公式为
Figure BDA0002387884440000071
所述的客观散射指数的稳定性指数为客观散射指数的线性回归直线的斜率;所述的泪膜客观散射指数的平均值为总体客观散射指数平均值与基础客观散射指数平均值的差值;
S4.对步骤S3得到的样本数据进行重要性权重排序和数据移除,从而得到模型输入特征数据;具体为利用工作特征曲线ROC的曲线下面积AUC对总体样本数据进行重要性权重排序,并移除权重小于预设阈值的特征,从而获得模型输入特征数据;
在具体实施时,重要性权重排序为对每个参数的AUC结果大小进行排序;同时,预设阈值可以设定为0.5;
S5.将步骤S4获取的模型输入特征数据分为训练集和测试集,并对分类模型进行训练、测试和修正,从而得到自由瞬目条件下的眼表指标数据分类模型;具体为优化后的集成极限学习机算法;优化后的集成极限学习机算法(如图4所示)采用旋转森林集成策略,包括利用遍历法获取极限学习机的最优隐含层数目,使用Bootstrap方法进行样本抽样,采用主成分分析法进行样本转换,并将集成数量设置为15;
此外,分类模型的输入数据为一个9维特征向量,具体包括基础客观散射指数、客观散射指数的中值、客观散射指数的平均值、客观散射指数的变化率、最长睁眼时间、瞬目频率、客观散射指数的最大李雅普诺夫指数、泪河高度、泪膜客观散射指数的平均值;
S6.利用步骤S5得到的自由瞬目条件下的眼表指标数据分类模型,对待分类的自由瞬目条件下的眼表指标数据进行分类。
以下结合一个具体实施时,对本发明方法进行进一步说明:
采用108例历史数据,其中54例数据为正常数据,54例数据为异常数据;卡方检验用于性别分析,单因素方差分析(ANOVA)用于年龄分析,人口学统计信息如表1所示,可以看出两组之间的性别和年龄没有统计学差异。
表1 108例历史数据的统计学计算结果
Figure BDA0002387884440000081
然后,采集历史数据的具体数据:如图3所示的瞬目频率为3(作为候选特征被选择),睁眼时间为5.5秒、8秒(最大的睁眼时长将被选择以避免各种不自然瞬目情形)、3.5秒;继而以不同的标识符对异常情况进行标识,在本实施例中,以阿拉伯数字0至1分别标识两种状态,即54例异常数据的标识符设置为1,54例正常数据的标识符设置为0;因此108例历史数据的客观散射指数、泪河高度、瞬目频率、最长睁眼时间和类别标识符构成原始样本数据;
然后,采用C-C法获得最优的延迟时间t和嵌入维度m,然后采用Wolf算法,获取客观散射指数的最大李雅普诺夫指数;
然后,计算得到样本数据,具体如表2所示:
表2总体样本数据
Figure BDA0002387884440000082
Figure BDA0002387884440000091
再然后,利用受试者工作特征曲线(ROC)的曲线下面积(AUC)对总体样本数据进行重要性权重排序,所述重要性权重排序为对每个参数的AUC结果大小进行排序,如表3所示;权重小于预设阈值的特征将被移除,所述预设阈值设为0.5,即AUC>0.5的特征会作为模型输入特征,从而获得最重要的模型输入特征;因此在本实施例中,一个9维的特征向量将作为诊断模型的输入变量,包括:OSI_Basic,OSI_Median,OSI_Mean,OSI_CR,OSI_TL,OSI_NB,OSI_MLE,TMH,TF-OSI_Mean;
表3每个参数的AUC结果
参数 AUC 标准错误 P值
OSI_Basic 0.5408 0.0556 0.2314
OSI_Median 0.5537 0.0554 0.1665
OSI_R 0.4481 0.3395 0.8252
OSI_Mean 0.5504 0.0555 0.1817
OSI_SD 0.4524 0.0555 0.8043
OSI_RR 0.4851 0.3758 0.6050
OSI_CR 0.5247 0.0557 0.3289
OSI_SI 0.4753 0.0557 0.6712
OSI_TL 0.5986 0.0545 0.0352
OSI_NB 0.5852 0.0548 0.0601
OSI_MLE 0.5131 0.0558 0.4075
TF-OSI_Mean 0.5213 0.0558 0.3516
TMH 0.8386 0.0388 0.0357
然后,将计算出的模型输入特征数据随机分成训练集和测试集,在本实施例中,将所述样本数据随机选取100组作为训练样本集,剩余8组作为测试样本集;样本中每组数据的第1-9维作为集成极限学习机诊断模型的输入向量,第10维(正常或异常)作为集成极限学习机诊断模型的输出;利用优化后的集成极限学习机算法对训练集中的每个样本进行训练,包括使用Bootstrap方法进行样本抽样,采用主成分分析法进行样本转换,较佳的,在本实施例中,集成数量设置为L=15,极限学习机的最优隐含层数目设置为30,最后得到集成极限学习机的数据分类模型。旋转森林集成策略优化集成极限学习机的流程示意图如图4所示;
最后,将得到的分类模型进行运用,对待分类的数据进行分类即可。
此外,在本实施例中,对旋转森林集成策略优化的极限学习机算法进行100次独立的运行,其平均训练精度和测试精度的结果如表4所示。除此之外,采用bagging集成策略优化的极限学习机、标准的极限学习机算法也同样经过100次独立的训练和测试,以进行三种算法的性能比较,其平均训练精度和测试精度的结果如表4所示。从表4中可以明显看出,本发明所提出的基于旋转森林集成策略的极限学习机的数据分类模型达到了最佳的测试精度,其在测试集上的总体分类准确率达到82.14%,正常组和异常组在测试集上的分类准确率分别达到87.48%和84.29%。值得注意的是,本发明提出方法的测试精度高于训练精度,这表明该模型在训练集上得到了很好的训练,并且训练后的模型具有很好的泛化能力。因此,本发明所提出的基于眼表指标与集成极限学习机的数据分类方法能够进行正确的数据分类,效果极好。
表4三种算法在100次独立运行中的平均训练精度和测试精度
Figure BDA0002387884440000111
在本发明的数据分类完毕后,使用者可以根据本发明最终给出的分类结果,结合自身的技术背景和技术水平,以及眼表指标的原始数据,对分类数据所对应的人员的眼睛健康程度作出判断。

Claims (8)

1.一种自由瞬目条件下的眼表指标数据分类方法,包括如下步骤:
S1.获取历史数据中,自由瞬目条件下的眼表指标数据并进行数据处理;
S2.将步骤S1进行处理后的数据进行混沌特性测试;
S3.将步骤S1进行处理后的数据进行映射相关运算,从而得到样本数据;
S4.对步骤S3得到的样本数据进行重要性权重排序和数据移除,从而得到模型输入特征数据;
S5.将步骤S4获取的模型输入特征数据分为训练集和测试集,并对分类模型进行训练、测试和修正,从而得到自由瞬目条件下的眼表指标数据分类模型;
S6.利用步骤S5得到的自由瞬目条件下的眼表指标数据分类模型,对待分类的自由瞬目条件下的眼表指标数据进行分类。
2.根据权利要求1所述的自由瞬目条件下的眼表指标数据分类方法,其特征在于步骤S1所述的获取历史数据中,自由瞬目条件下的眼表指标数据并进行数据处理,具体为获取历史数据中,自由瞬目条件下的眼表指标数据中的客观散射指数和泪河高度数据;然后计算周期内瞬目频率与最长睁眼时长,并选取周期内维持最大睁眼时间的客观散射指数;最后将所获取的数据进行标识;从而构成原始样本数据。
3.根据权利要求2所述的自由瞬目条件下的眼表指标数据分类方法,其特征在于步骤S2所述的将步骤S1进行处理后的数据进行混沌特性测试,具体为对步骤S1获取的客观散射指数,采用C-C法优化后的Wolf算法,获取客观散射指数的最大李雅普诺夫指数。
4.根据权利要求3所述的自由瞬目条件下的眼表指标数据分类方法,其特征在于所述的采用C-C法优化后的Wolf算法,获取客观散射指数的最大李雅普诺夫指数,具体为采用如下步骤计算客观散射指数的最大李雅普诺夫指数:
A.获取输入的客观散射指数;
B.计算输入的客观散射指数的标准差,并设置参数范围;
C.通过算法函数disjoint function和correlation function计算C(1,N,r,t);所述算法函数disjoint function将时间序列分解成t个不相交的时间序列,算法函数correlation function为采用阶跃函数(heaviside function)和无穷范数(NORMfunction)计算关联积分值;结果C(1,N,r,t)的定义为原始时间序列的关联积分
Figure FDA0002387884430000021
D.通过算法函数correlation function计算C(m,N,r,t);所述结果C(m,N,r,t)的定义为嵌入时间序列的关联积分
Figure FDA0002387884430000022
E.计算C(m,N,r,t)与C(1,N,r,t)之间的差值;
F.根据步骤E的计算结果,分别计算测试统计值
Figure FDA0002387884430000023
和Scor(τ);其中
Figure FDA0002387884430000024
表示平均检验统计量;
Figure FDA0002387884430000025
表示平均差量;Scor(τ)表示
Figure FDA0002387884430000026
Figure FDA0002387884430000027
之和;
G.获取最终参数值:延迟时间t和嵌入维度m;
H.采用Wolf算法计算客观散射指数的最大李雅普诺夫指数;
I.判断客观散射指数的混沌特性,从而获取分类候选特征。
5.根据权利要求4所述的自由瞬目条件下的眼表指标数据分类方法,其特征在于步骤S3所述的将步骤S1进行处理后的数据进行映射相关运算,从而得到样本数据,具体为计算得到中间数据:客观散射指数的中值、客观散射指数的极差、客观散射指数的平均值、客观散射指数的标准差、客观散射指数的相对全距、客观散射指数的变化率、客观散射指数的稳定性指数和泪膜客观散射指数的平均值;然后原始样本数据、最大李雅普诺夫指数和上述计算得到的中间数据一同构成样本数据。
6.根据权利要求5所述的自由瞬目条件下的眼表指标数据分类方法,其特征在于所述的客观散射指数的相对全距为客观散射指数极差与客观散射指数平均值的比值;所述的客观散射指数的变化率的计算公式为
Figure FDA0002387884430000031
所述的客观散射指数的稳定性指数为客观散射指数的线性回归直线的斜率;所述的泪膜客观散射指数的平均值为总体客观散射指数平均值与基础客观散射指数平均值的差值。
7.根据权利要求6所述的自由瞬目条件下的眼表指标数据分类方法,其特征在于步骤S4所述的对步骤S3得到的样本数据进行重要性权重排序和数据移除,从而得到模型输入特征数据,具体为利用工作特征曲线ROC的曲线下面积AUC对总体样本数据进行重要性权重排序,并移除权重小于预设阈值的特征,从而获得模型输入特征数据。
8.根据权利要求7所述的自由瞬目条件下的眼表指标数据分类方法,其特征在于步骤S5所述的分类模型,具体为优化后的集成极限学习机算法;优化后的集成极限学习机算法采用旋转森林集成策略,包括利用遍历法获取极限学习机的最优隐含层数目,使用Bootstrap方法进行样本抽样,采用主成分分析法进行样本转换,并将集成数量设置为15。
CN202010104042.5A 2020-02-20 2020-02-20 自由瞬目条件下的眼表指标数据分类方法 Active CN111259986B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010104042.5A CN111259986B (zh) 2020-02-20 2020-02-20 自由瞬目条件下的眼表指标数据分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010104042.5A CN111259986B (zh) 2020-02-20 2020-02-20 自由瞬目条件下的眼表指标数据分类方法

Publications (2)

Publication Number Publication Date
CN111259986A true CN111259986A (zh) 2020-06-09
CN111259986B CN111259986B (zh) 2023-10-31

Family

ID=70944446

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010104042.5A Active CN111259986B (zh) 2020-02-20 2020-02-20 自由瞬目条件下的眼表指标数据分类方法

Country Status (1)

Country Link
CN (1) CN111259986B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014100678A1 (en) * 2012-12-21 2014-06-26 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
CN104398234A (zh) * 2014-12-19 2015-03-11 厦门大学 一种基于专家系统的眼表综合分析仪
WO2016126556A1 (en) * 2015-02-02 2016-08-11 The Regents Of The University Of California Method and system for objective evaluation of dry eye syndrome
US20170202448A1 (en) * 2014-10-13 2017-07-20 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for predicting early onset glaucoma
CN109902717A (zh) * 2019-01-23 2019-06-18 平安科技(深圳)有限公司 病灶自动识别方法、装置及计算机可读存储介质
CN110188767A (zh) * 2019-05-08 2019-08-30 浙江大学 基于深度神经网络的角膜病图像序列化特征提取与分类方法及装置
US10468142B1 (en) * 2018-07-27 2019-11-05 University Of Miami Artificial intelligence-based system and methods for corneal diagnosis
CN110728312A (zh) * 2019-09-29 2020-01-24 浙江大学 一种基于区域自适应注意力网络的干眼症分级系统
US20200035362A1 (en) * 2018-07-27 2020-01-30 University Of Miami System and method for ai-based eye condition determinations
US20230079291A1 (en) * 2015-05-01 2023-03-16 Diagnostear, Ltd. Method for measuring tear constituents in a tear sample

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014100678A1 (en) * 2012-12-21 2014-06-26 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US20170202448A1 (en) * 2014-10-13 2017-07-20 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for predicting early onset glaucoma
CN104398234A (zh) * 2014-12-19 2015-03-11 厦门大学 一种基于专家系统的眼表综合分析仪
WO2016126556A1 (en) * 2015-02-02 2016-08-11 The Regents Of The University Of California Method and system for objective evaluation of dry eye syndrome
US20230079291A1 (en) * 2015-05-01 2023-03-16 Diagnostear, Ltd. Method for measuring tear constituents in a tear sample
US10468142B1 (en) * 2018-07-27 2019-11-05 University Of Miami Artificial intelligence-based system and methods for corneal diagnosis
US20200035362A1 (en) * 2018-07-27 2020-01-30 University Of Miami System and method for ai-based eye condition determinations
CN109902717A (zh) * 2019-01-23 2019-06-18 平安科技(深圳)有限公司 病灶自动识别方法、装置及计算机可读存储介质
CN110188767A (zh) * 2019-05-08 2019-08-30 浙江大学 基于深度神经网络的角膜病图像序列化特征提取与分类方法及装置
CN110728312A (zh) * 2019-09-29 2020-01-24 浙江大学 一种基于区域自适应注意力网络的干眼症分级系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHEN W ET AL.: "《a random forest model based classification scheme for neonatal amplitude-integrated EEG》" *
SINGH A ET AL.: "《Image processing based automatic diagnosis of glaucoma using wavelet features of segmented optic disc from fundus image》" *
马艳梅 等: "《不同程度干眼症患者视觉质量参数变化及临床意义》", vol. 22, no. 22 *

Also Published As

Publication number Publication date
CN111259986B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
Hassan et al. RAG-FW: A hybrid convolutional framework for the automated extraction of retinal lesions and lesion-influenced grading of human retinal pathology
CN105930663B (zh) 一种基于演化模糊规则的手部震颤信号及音频信号分类方法
CN112577747A (zh) 一种基于空间池化网络的滚动轴承故障诊断方法
Harini et al. Feature extraction and classification of retinal images for automated detection of Diabetic Retinopathy
CN111984817B (zh) 一种基于自注意力机制加权的细粒度图像检索方法
Khan et al. An automatic ocular disease detection scheme from enhanced fundus images based on ensembling deep CNN networks
Ramani et al. Automatic prediction of Diabetic Retinopathy and Glaucoma through retinal image analysis and data mining techniques
Joshua et al. Assessment of the cup-to-disc ratio method for glaucoma detection
CN117315379B (zh) 面向深度学习的医学影像分类模型公平性评估方法及装置
CN118173276A (zh) 一种出血性脑卒中临床智能预测方法
Priyanka et al. Comparative analysis of different machine learning classifiers for prediction of diabetic retinopathy
CN111259986B (zh) 自由瞬目条件下的眼表指标数据分类方法
CN111368686B (zh) 一种基于深度学习的脑电图情感分类方法
CN112700420A (zh) 一种眼底图像补全、分类方法及系统
CN111816298A (zh) 事件预测方法及其装置、存储介质、终端、云服务系统
Choudhary et al. Glaucoma detection using cross validation algorithm
CN111563411A (zh) 一种利用优化的AdaBoost加权方式和弱分类器对心电信号分类的方法
CN110010246A (zh) 一种基于神经网络和置信区间的疾病智能诊断技术
CN115670417A (zh) 一种面向跑步监测的健康评估方法及系统
Devi et al. Texture based feature extraction and classification of retinal fundus image for glaucoma detection
CN110265151B (zh) 一种基于ehr中异构时态数据的学习方法
Norouzifard et al. Unsupervised optic cup and optic disk segmentation for glaucoma detection by icica
Krishnan et al. Feature ranking procedure for automatic feature extraction
Prasad et al. MULTISTAGE CLASSIFICATION OF DIABETIC RETINOPATHY USING FUZZYNEURAL NETWORK CLASSIFIER.
CN112419256A (zh) 基于模糊图神经网络的糖网病眼底图像分级方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant