CN112446418A - 一种眼底分类模型集成系统、方法、电子设备及介质 - Google Patents

一种眼底分类模型集成系统、方法、电子设备及介质 Download PDF

Info

Publication number
CN112446418A
CN112446418A CN202011113052.1A CN202011113052A CN112446418A CN 112446418 A CN112446418 A CN 112446418A CN 202011113052 A CN202011113052 A CN 202011113052A CN 112446418 A CN112446418 A CN 112446418A
Authority
CN
China
Prior art keywords
classification model
classification
basic
fundus
confidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011113052.1A
Other languages
English (en)
Inventor
贺婉佶
王欣
熊健皓
赵昕
和超
张大磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Eaglevision Medical Technology Co Ltd
Original Assignee
Shanghai Eaglevision Medical Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Eaglevision Medical Technology Co Ltd filed Critical Shanghai Eaglevision Medical Technology Co Ltd
Priority to CN202011113052.1A priority Critical patent/CN112446418A/zh
Publication of CN112446418A publication Critical patent/CN112446418A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明实施例提供了一种眼底分类模型集成系统、方法、电子设备及介质,涉及医学影像分类技术领域。该系统包括基础网络集训练模块,用于将预先存储的视盘图像数据集作为训练样本,对多个不同的深度学习网络结构进行视盘异常分类训练,获得多个基础分类模型;基础网络置信度集成模块,用于将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量,并将各个基础分类模型的置信度向量组合,获得集成置信度向量;基础分类网络集成模块,用于将集成置信度向量作为输入特征,通过采用预设分类算法的分类器进行视盘异常分类训练,获得集成分类模型。本发明的方案通过融合不同的分类神经网络,提高了视盘异常分类性能。

Description

一种眼底分类模型集成系统、方法、电子设备及介质
技术领域
本发明涉及医学影像分类技术领域,尤其涉及一种眼底分类模型集成系统、方法、电子设备及介质。
背景技术
很多的眼底疾病,比如青光眼,年龄性黄斑退化,糖尿病性视网膜病变等都会导致不可挽回的视力损伤甚至失明。视网膜眼底图像是观察视网膜和诊断眼底疾病的一种重要影像手段。视盘是视网膜上视觉神经和血管汇集穿出眼球的部位。视盘区的异常通常与视神经和视网膜血管的异常密切相关。视盘区的大部分异常都可以通过眼底图像观察到,比如视盘前膜,视乳头水肿,青光眼,视神经萎缩,有髓神经纤维,牵牛花综合症等。
近年来,随着基于神经网络的深度学习算法的发展,深度学习模型在医疗影像领域,如基于眼底图像的病灶分类,得到了广泛的应用。尽管如此,由于眼底图像的多样性和病灶的多样性,基于眼底图像的病灶分类依然是一个很具有挑战性的任务,基于目前的深度学习模型仍然存在分类性能不高的问题。
发明内容
本发明提供一种眼底分类模型集成系统、方法、电子设备及介质,解决现有技术中由于眼底图像的多样性和病灶的多样性,基于目前的深度学习模型仍然存在分类性能不高的问题。
在本发明实施的第一方面,提供了一种眼底分类模型集成系统,包括:
基础网络集训练模块,用于将预先存储的视盘图像数据集作为训练样本,对多个不同的深度学习网络结构进行视盘异常分类训练,获得多个基础分类模型;其中所述视盘图像数据集包括多个异常类别的视盘图像;
基础网络置信度集成模块,用于将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量,并将各个基础分类模型的置信度向量组合,获得集成置信度向量;
基础分类网络集成模块,用于将所述集成置信度向量作为输入特征,通过采用预设分类算法的分类器进行视盘异常分类训练,获得集成分类模型。
优选的,所述基础网络置信度集成模块包括:
第一处理模块,用于将目标视盘图像样本输入到各个基础分类模型,获得各个基础分类模型的输出向量;
第二处理模块,用于对各个基础分类模型的输出向量进行校准,并对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
优选的,所述第二处理模块具体用于:
采用温度标定Temperature Scaling算法对各个基础分类模型的输出向量进行校准,并采用逻辑回归softmax函数对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
优选的,还包括:
视盘图像检测模块,用于对预先采集的眼底图像数据集中的眼底图像进行视盘检测,获得初始视盘图像数据集;
视盘图像增强模块,用于根据所述初始视盘图像数据集中属于各个异常类别的视盘图像的数量,对所述初始视盘图像数据集进行异常类别的平衡性增强和多样性增强处理,获得作为训练样本的视盘图像数据集。
优选的,所述采用预设分类算法的分类器为采用机器学习分类算法的分类器。
在本发明实施的第二方面,还提供了一种眼底分类模型集成方法,包括:
将预先存储的视盘图像数据集作为训练样本,对多个不同的深度学习网络结构进行视盘异常分类训练,获得多个基础分类模型;其中所述视盘图像数据集包括多个异常类别的视盘图像;
将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量,并将各个基础分类模型的置信度向量组合,获得集成置信度向量;
将所述集成置信度向量作为输入特征,通过采用预设分类算法的分类器进行视盘异常分类训练,获得集成分类模型。
优选的,所述将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量的步骤包括:
将目标视盘图像样本输入到各个基础分类模型,获得各个基础分类模型的输出向量;
对各个基础分类模型的输出向量进行校准,并对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
优选的,所述对各个基础分类模型的输出向量进行校准,并对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量的步骤包括:
采用温度标定Temperature Scaling算法对各个基础分类模型的输出向量进行校准,并采用逻辑回归softmax函数对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
在本发明实施的第三方面,还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现如上所述的眼底分类模型集成方法中的步骤。
在本发明实施的第四方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述的眼底分类模型集成方法。
在本发明实施例的第五方面,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如上所述的眼底分类模型集成方法。
针对在先技术,本发明具备如下优点:
本发明实施例中,眼底分类模型集成系统包括基础网络集训练模块、基础网络置信度集成模块和基础分类网络集成模块。首先基础网络集训练模块将预先存储的视盘图像数据集作为训练样本,对多个不同的深度学习网络结构进行视盘异常分类训练,获得多个基础分类模型,其中视盘图像数据集中包括多个异常类别的视盘图像;然后基础网络置信度集成模块将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量,并将各个基础分类模型的置信度向量组合,获得集成置信度向量;最后基础分类网络集成模块将集成置信度向量作为输入特征,通过采用预设分类算法的分类器进行视盘异常分类训练,从而对多个基础分类网络的置信度输出进行一个有机结合,获得一个性能更高的集成分类模型。该系统通过融合不同的分类神经网络,提高了视盘异常分类性能,能够更好地提供辅助诊断结果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。
图1为本发明实施例提供的眼底分类模型集成系统的示意框图;
图2为本发明实施例提供的眼底分类模型集成系统的另一示意框图;
图3为本发明实施例提供的眼底分类模型集成系统的工作流程示意图;
图4为本发明实施例提供的眼底分类模型集成方法的流程示意图;
图5为本发明实施例提供的电子设备的示意框图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解的是,还可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
目前,基于深度学习的图像分类算法已经多个研究组或者个人研究,也已经形成了多种多样的比较成熟的分类算法,比如基于不同的网络架构的分类网络。我们观察到,不同的网络架构如Resnet系列,Inception系列等,在同一个分类任务上的表现各有优劣。基于这个观察,本发明提出了一套利用机器学习算法融合不同的分类神经网络,从而实现眼底视盘的自动识别和分类的集成系统。这个系统通过网络融合,提高了视盘异常的分类性能,能够更好地提供辅助诊断结果。
图1是本发明实施例提供的一种眼底分类模型集成系统的示意框图,参照图1所示,该眼底分类模型集成系统100包括:
基础网络集训练模块101,用于将预先存储的视盘图像数据集作为训练样本,对多个不同的深度学习网络结构进行视盘异常分类训练,获得多个基础分类模型;其中所述视盘图像数据集包括多个异常类别的视盘图像。
这里,针对视盘异常识别的目的,基础网络集训练模块101训练了多个视盘异常分类的深度学习模型,获得了多个基础分类模型以进行网络融合。
其中,目前深度学习的分类算法和网络结构有多种,都可以应用到本发明实施例中。例如,本发明实施例可使用Resnet152,InceptionV3,IncxeptionV4,Inception-Resnet-v2,Xception这五种网络结构,通过基础网络集训练模块101对这五种深度学习网络结构进行视盘异常分类训练,获得5个基础分类模型。当然,上述五种网络结构仅为举例说明,任何通过训练能够实现视盘异常分类的深度学习网络结构均能够应用到本发明实施例中,在此不做限定。
其中,作为训练样本的视盘图像数据集包括了多个异常类别的视盘图像,以使训练出的网络模型能够识别不同异常类别的视盘图像。
基础网络置信度集成模块102,用于将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量,并将各个基础分类模型的置信度向量组合,获得集成置信度向量。
这里,基础网络置信度集成模块102将目标视盘图像样本输入到各个基础分类模型,获取到各个基础分类模型的置信度向量,其中置信度向量代表了分类模型对于目标视盘样本与各个视盘异常类别的相似性判断,一般置信度值最大的类作为预测类。
基础网络置信度集成模块102获取到各个基础分类模型的置信度向量之后,进一步将各个基础分类模型的置信度向量组合,获得集成置信度向量,作为后续网络融合的特征来训练性能更高的分类模型。
基础分类网络集成模块103,用于将所述集成置信度向量作为输入特征,通过采用预设分类算法的分类器进行视盘异常分类训练,获得集成分类模型。
这里,基础分类网络集成模块103将集成置信度向量作为输入特征,利用采用预设分类算法的分类器进行视盘异常分类学习训练,从而对多个基础分类网络的置信度输出进行一个有机结合,获得一个性能更高的集成分类模型。
其中,基础分类网络集成模块103将集成置信度向量作为输入特征,同时可将人工标注的视盘异常分类结果作为金标准,然后利用采用预设算法的分类器来学习进行视盘异常分类。
优选的,所述采用预设分类算法的分类器为采用机器学习分类算法的分类器。其中,各种不同的机器学习分类算法都可以使用,如SVM,GBDT,KNN等。此时,利用机器学习算法融合不同的分类神经网络,从而实现眼底视盘的自动识别和分类,提高了视盘分类性能。
本发明实施例提供的眼底分类模型集成系统100,通过融合不同的分类神经网络,实现了眼底视盘的自动识别和分类,且提高了视盘异常分类性能,能够更好地提供辅助诊断结果。
优选的,参见图2所示,本发明实施例的眼底分类模型集成系统100还包括:
视盘图像检测模块1001,用于对预先采集的眼底图像数据集中的眼底图像进行视盘检测,获得初始视盘图像数据集。
这里,首先对采集的眼底图像进行视盘检测,获得初始视盘图像数据集。
其中,本发明实施例对视盘检测的方式不做限定,任何能够实现视盘检测的方法都能应用到本发明实施例中。
视盘图像增强模块1002,用于根据所述初始视盘图像数据集中属于各个异常类别的视盘图像的数量,对所述初始视盘图像数据集进行异常类别的平衡性增强和多样性增强处理,获得作为训练样本的视盘图像数据集。
这里,由于视盘区各种异常的发病率差异较大,在收集到的数据集中,各类异常类别包含的图像数量可能极不平衡,为了减弱数据集的不平衡性,也为了增加图像的多样性,通过视盘图像增强模块1002对视盘图像数据集进行异常类别的平衡性增强和多样性增强处理后,获得的视盘图像数据集作为训练样本。
其中,进行异常类别的平衡性增强和多样性增强处理时,如可增加数量较少的异常类别的图像数量,或者补入其他异常类别的图像等,本发明实施例对具体的增强方式不做限定。
优选的,所述基础网络置信度集成模块102包括:
第一处理模块1021,用于将目标视盘图像样本输入到各个基础分类模型,获得各个基础分类模型的输出向量。
这里,目标视盘图像样本输入到基础分类模型,得到的输出向量一般为logits=[l1,l2,…,ln],n为视盘异常的类别数。
其中,目标视盘图像样本可从视盘图像数据集中提取,但不限于此。
第二处理模块1022,用于对各个基础分类模型的输出向量进行校准,并对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
这里,由于目前的深度学习网络往往会有过度训练的倾向,这导致模型往往会给出‘过于自信’的预测类别的置信度值,为了缓解这种情况,第二处理模块1022首先对各个模型输出的logits进行校准,再将校准后的scaled logits进行归一化处理,得到置信度向量[p1,p2,…,pn]。通过校准处理使得置信度和模型的预测准确率一致,纠正了分类网络‘过于自信’的现象。
其中,置信度向量代表了分类模型对于目标视盘样本与各个视盘异常类别的相似性判断,一般置信度值最大的类作为预测类。
优选的,所述第二处理模块1022具体用于:
采用温度标定Temperature Scaling算法对各个基础分类模型的输出向量进行校准,并采用逻辑回归softmax函数对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
此时,第二处理模块1022可使用Temperature Scaling算法对基础分类模型的置信度进行校准。原理是,以达到置信度和模型的预测准确率一致为目的,通过如下公式(1)所示对置信度进行调整,使置信度在不同类别之间的分布曲线更为平滑:
Figure BDA0002729228650000081
在公式(1)中,qk是校准后的类别k的置信度,T是校准需要使用的超参数,temperature。为了平滑置信度曲线,T需要取大于1的值。需要注意的是,TemperatureScaling的过程并没有改变不同类别的置信度的相对大小关系,所以在完成TemperatureScaling后,模型的预测结果不会改变。
通过校准得到scaled logits后,第二处理模块1022可将scaled logits输入softmax层进行归一化,获得置信度向量[p1,p2,…,pn]。
此时,通过第二处理模块1022获得各个基础分类模型的置信度向量[p1,p2,…,pn]之后,再将各个基础分类模型的置信度向量组合,获得最终的集成置信度向量。
参照图3所示,下面对本发明实施例的眼底分类模型集成系统的一具体工作流程举例说明如下:
S1视盘检测:首先视盘图像检测模块1001对预先采集的眼底图像数据集中的眼底图像进行视盘检测,获得初始视盘图像数据集。
S2视盘图像增强:然后视盘图像增强模块1002对初始视盘图像数据集进行异常类别的平衡性增强和多样性增强处理,获得作为训练样本的视盘图像数据集。
S3基础网络集训练:再由基础网络集训练模块101利用训练样本,对多个不同的深度学习分类网络结构进行视盘异常分类训练,如对Resnet152,InceptionV3,IncxeptionV4,Inception-Resnet-v2,Xception这五种网络结构进行视盘图像异常分类训练,获得多个基础分类模型。
S4基础网络置信度集成:然后基础网络置信度集成模块102将目标视盘图像样本输入到各个基础分类模型,获得各个基础分类模型的输出向量,再将输出向量通过Temperature Scaling算法进行校准处理以及通过softmax函数进行归一化处理,获得各个基础分类模型的置信度向量,然后将各个基础分类模型的置信度向量组合,形成集成置信度向量。
S5模型融合:最后基础分类网络集成模块103将集成置信度向量作为输入特征,同时将人工标注的视盘异常分类结果作为金标准,利用基于传统机器学习算法的分类器来学习进行视盘异常分类训练,从而对多个基础分类模型的置信度输出进行一个有机结合,融合多个分类网络,获得一个性能更高的集成分类模型。
S6异常分类:获得集成分类模型后,可利用集成分类模型完成高性能的视盘图像的异常分类。
本发明实施例的眼底分类模型集成系统100,通过融合不同的分类神经网络,提高了视盘异常分类性能,能够更好地提供辅助诊断结果。
参照图4所示,本发明实施例还提供了一种眼底分类模型集成方法,包括:
步骤401:将预先存储的视盘图像数据集作为训练样本,对多个不同的深度学习网络结构进行视盘异常分类训练,获得多个基础分类模型;其中所述视盘图像数据集包括多个异常类别的视盘图像;
步骤402:将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量,并将各个基础分类模型的置信度向量组合,获得集成置信度向量;
步骤403:将所述集成置信度向量作为输入特征,通过采用预设分类算法的分类器进行视盘异常分类训练,获得集成分类模型。
本发明实施例的眼底分类模型集成方法,通过融合不同的分类神经网络,提高了视盘异常分类性能,能够更好地提供辅助诊断结果。
优选的,上述步骤402中,所述将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量的步骤包括:
将目标视盘图像样本输入到各个基础分类模型,获得各个基础分类模型的输出向量;
对各个基础分类模型的输出向量进行校准,并对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
优选的,所述对各个基础分类模型的输出向量进行校准,并对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量的步骤包括:
采用温度标定Temperature Scaling算法对各个基础分类模型的输出向量进行校准,并采用逻辑回归softmax函数对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
优选的,还包括:
对预先采集的眼底图像数据集中的眼底图像进行视盘检测,获得初始视盘图像数据集;
根据所述初始视盘图像数据集中属于各个异常类别的视盘图像的数量,对所述初始视盘图像数据集进行异常类别的平衡性增强和多样性增强处理,获得作为训练样本的视盘图像数据集。
优选的,所述采用预设分类算法的分类器为采用机器学习分类算法的分类器。
本发明实施例的眼底分类模型集成方法,通过融合不同的分类神经网络,提高了视盘异常分类性能,能够更好地提供辅助诊断结果。
对于上述方法实施例而言,由于其与系统实施例基本相似,相关之处参见方法实施例的部分说明即可。
本发明实施例还提供了一种电子设备,该电子设备可以是服务器。如图5所示,包括处理器501、通信接口502、存储器503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信。
存储器503,用于存放计算机程序。
处理器501用于执行存储器503上所存放的程序时,实现如下步骤:
将预先存储的视盘图像数据集作为训练样本,对多个不同的深度学习网络结构进行视盘异常分类训练,获得多个基础分类模型;其中所述视盘图像数据集包括多个异常类别的视盘图像;
将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量,并将各个基础分类模型的置信度向量组合,获得集成置信度向量;
将所述集成置信度向量作为输入特征,通过采用预设分类算法的分类器进行视盘异常分类训练,获得集成分类模型。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中所述的眼底分类模型集成方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中所述的眼底分类模型集成方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,包含在本发明的保护范围内。

Claims (10)

1.一种眼底分类模型集成系统,其特征在于,包括:
基础网络集训练模块,用于将预先存储的视盘图像数据集作为训练样本,对多个不同的深度学习网络结构进行视盘异常分类训练,获得多个基础分类模型;其中所述视盘图像数据集包括多个异常类别的视盘图像;
基础网络置信度集成模块,用于将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量,并将各个基础分类模型的置信度向量组合,获得集成置信度向量;
基础分类网络集成模块,用于将所述集成置信度向量作为输入特征,通过采用预设分类算法的分类器进行视盘异常分类训练,获得集成分类模型。
2.根据权利要求1所述的眼底分类模型集成系统,其特征在于,所述基础网络置信度集成模块包括:
第一处理模块,用于将目标视盘图像样本输入到各个基础分类模型,获得各个基础分类模型的输出向量;
第二处理模块,用于对各个基础分类模型的输出向量进行校准,并对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
3.根据权利要求2所述的眼底分类模型集成系统,其特征在于,所述第二处理模块具体用于:
采用温度标定Temperature Scaling算法对各个基础分类模型的输出向量进行校准,并采用逻辑回归softmax函数对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
4.根据权利要求1所述的眼底分类模型集成系统,其特征在于,还包括:
视盘图像检测模块,用于对预先采集的眼底图像数据集中的眼底图像进行视盘检测,获得初始视盘图像数据集;
视盘图像增强模块,用于根据所述初始视盘图像数据集中属于各个异常类别的视盘图像的数量,对所述初始视盘图像数据集进行异常类别的平衡性增强和多样性增强处理,获得作为训练样本的视盘图像数据集。
5.根据权利要求1所述的眼底分类模型集成系统,其特征在于,所述采用预设分类算法的分类器为采用机器学习分类算法的分类器。
6.一种眼底分类模型集成方法,其特征在于,包括:
将预先存储的视盘图像数据集作为训练样本,对多个不同的深度学习网络结构进行视盘异常分类训练,获得多个基础分类模型;其中所述视盘图像数据集包括多个异常类别的视盘图像;
将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量,并将各个基础分类模型的置信度向量组合,获得集成置信度向量;
将所述集成置信度向量作为输入特征,通过采用预设分类算法的分类器进行视盘异常分类训练,获得集成分类模型。
7.根据权利要求6所述的眼底分类模型集成方法,其特征在于,所述将目标视盘图像样本输入到各个基础分类模型,获取各个基础分类模型的置信度向量的步骤包括:
将目标视盘图像样本输入到各个基础分类模型,获得各个基础分类模型的输出向量;
对各个基础分类模型的输出向量进行校准,并对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
8.根据权利要求7所述的眼底分类模型集成系统,其特征在于,所述对各个基础分类模型的输出向量进行校准,并对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量的步骤包括:
采用温度标定Temperature Scaling算法对各个基础分类模型的输出向量进行校准,并采用逻辑回归softmax函数对校准后的输出向量进行归一化处理,获得各个基础分类模型的置信度向量。
9.一种电子设备,其特征在于,包括:处理器、通信接口、存储器和通信总线;其中,处理器、通信接口以及存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现如权利要求6至8任一项所述的眼底分类模型集成方法中的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求6至8任一项所述的眼底分类模型集成方法。
CN202011113052.1A 2020-10-16 2020-10-16 一种眼底分类模型集成系统、方法、电子设备及介质 Pending CN112446418A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011113052.1A CN112446418A (zh) 2020-10-16 2020-10-16 一种眼底分类模型集成系统、方法、电子设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011113052.1A CN112446418A (zh) 2020-10-16 2020-10-16 一种眼底分类模型集成系统、方法、电子设备及介质

Publications (1)

Publication Number Publication Date
CN112446418A true CN112446418A (zh) 2021-03-05

Family

ID=74736154

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011113052.1A Pending CN112446418A (zh) 2020-10-16 2020-10-16 一种眼底分类模型集成系统、方法、电子设备及介质

Country Status (1)

Country Link
CN (1) CN112446418A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114677573A (zh) * 2022-05-30 2022-06-28 上海捷勃特机器人有限公司 视觉分类方法、系统、装置及计算机可读介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120257164A1 (en) * 2011-04-07 2012-10-11 The Chinese University Of Hong Kong Method and device for retinal image analysis
CN104809480A (zh) * 2015-05-21 2015-07-29 中南大学 一种基于分类回归树和AdaBoost的眼底图像视网膜血管分割方法
CN107229937A (zh) * 2017-06-13 2017-10-03 瑞达昇科技(大连)有限公司 一种视网膜血管分类方法及装置
CN108375344A (zh) * 2018-02-08 2018-08-07 成都蓝炬科技有限公司 基于机器智能预测多参数光纤传感器的测量系统及方法
CN111383210A (zh) * 2020-03-03 2020-07-07 上海鹰瞳医疗科技有限公司 眼底图像分类模型训练方法及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120257164A1 (en) * 2011-04-07 2012-10-11 The Chinese University Of Hong Kong Method and device for retinal image analysis
CN104809480A (zh) * 2015-05-21 2015-07-29 中南大学 一种基于分类回归树和AdaBoost的眼底图像视网膜血管分割方法
CN107229937A (zh) * 2017-06-13 2017-10-03 瑞达昇科技(大连)有限公司 一种视网膜血管分类方法及装置
CN108375344A (zh) * 2018-02-08 2018-08-07 成都蓝炬科技有限公司 基于机器智能预测多参数光纤传感器的测量系统及方法
CN111383210A (zh) * 2020-03-03 2020-07-07 上海鹰瞳医疗科技有限公司 眼底图像分类模型训练方法及设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114677573A (zh) * 2022-05-30 2022-06-28 上海捷勃特机器人有限公司 视觉分类方法、系统、装置及计算机可读介质
CN114677573B (zh) * 2022-05-30 2022-08-26 上海捷勃特机器人有限公司 视觉分类方法、系统、装置及计算机可读介质

Similar Documents

Publication Publication Date Title
Mayro et al. The impact of artificial intelligence in the diagnosis and management of glaucoma
CN109726743B (zh) 一种基于三维卷积神经网络的视网膜oct图像分类方法
US7077522B2 (en) Sharpness metric for vision quality
US20190258930A1 (en) Apparatus for ascertaining predicted subjective refraction data or predicted correction values, and computer program
Taj et al. An ensemble framework based on Deep CNNs architecture for glaucoma classification using fundus photography.
Khanna et al. Deep learning based computer-aided automatic prediction and grading system for diabetic retinopathy
Poly et al. Artificial intelligence in diabetic retinopathy: Insights from a meta-analysis of deep learning
CN112102940A (zh) 一种屈光检测方法、装置、计算机设备及存储介质
Sharma et al. Harnessing the Strength of ResNet50 to Improve the Ocular Disease Recognition
CN112446418A (zh) 一种眼底分类模型集成系统、方法、电子设备及介质
Jemima Jebaseeli et al. Retinal blood vessel segmentation from depigmented diabetic retinopathy images
CN113158822B (zh) 基于跨模态关系推理的眼部检测数据的分类方法及装置
Padalia et al. A CNN-LSTM combination network for cataract detection using eye fundus images
WO2021080804A1 (en) Machine-learning techniques for prediction of future visual acuity
TWI784688B (zh) 眼睛狀態評估方法及電子裝置
Meshram et al. Development And Analysis Of Deep Learning Model Based On Multiclass Classification Of Retinal Image For Early Detection Of Diabetic Retinopathy
WO2019168129A1 (ja) 情報処理装置、及び機械学習データの製造方法
Savu et al. Blood vessel segmentation in eye fundus images
Tabuchi et al. Discrimination ability of glaucoma via DCNNs models from ultra-wide angle fundus images comparing either full or confined to the optic disc
Danao et al. Machine learning-based glaucoma detection through frontal eye features analysis
Thomas et al. FunNet: a deep learning network for the detection of age-related macular degeneration
Venneti et al. Amdnet: Age-related macular degeneration diagnosis through retinal fundus images using lightweight convolutional neural network
Pavithra et al. Statistical Analysis of Deep Learning Models for Diabetic Macular Edema Classification using OCT Images
Trivedi et al. Binary Mode Multinomial Deep Learning Model for more efficient Automated Diabetic Retinopathy Detection
Devaraj et al. DEEP PERONA–MALIK DIFFUSIVE MEAN SHIFT IMAGE CLASSIFICATION FOR EARLY GLAUCOMA AND STARGARDT DISEASE DETECTION

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination