CN110188820B - 基于深度学习子网络特征提取的视网膜oct图像分类方法 - Google Patents

基于深度学习子网络特征提取的视网膜oct图像分类方法 Download PDF

Info

Publication number
CN110188820B
CN110188820B CN201910462063.1A CN201910462063A CN110188820B CN 110188820 B CN110188820 B CN 110188820B CN 201910462063 A CN201910462063 A CN 201910462063A CN 110188820 B CN110188820 B CN 110188820B
Authority
CN
China
Prior art keywords
model
sub
deep learning
last
inclusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910462063.1A
Other languages
English (en)
Other versions
CN110188820A (zh
Inventor
纪庆革
刘稳
黄捷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201910462063.1A priority Critical patent/CN110188820B/zh
Publication of CN110188820A publication Critical patent/CN110188820A/zh
Application granted granted Critical
Publication of CN110188820B publication Critical patent/CN110188820B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉技术,为基于深度学习子网络特征提取的视网膜OCT图像分类方法,对计算机辅助诊断提供算法支持,计算资源消耗小,训练速度快,准确率高;包括步骤:准备视网膜OCT图像数据;构建多个不同的深度学习模型子网络;对视网膜OCT图像数据用所构建的不同的深度学习模型子网络进行特征提取,将所提取的特征输入随机森林分类器进行训练和分类,并对训练和分类的结果进行评估筛选,获得准确率较高的几个模型;利用所评估筛选出来的模型,采用特征连接或多数投票的分类方法对视网膜OCT图像进行分类。

Description

基于深度学习子网络特征提取的视网膜OCT图像分类方法
技术领域
本发明涉及人工智能、计算机视觉技术,具体为基于深度学习子网络特征提取的视网膜OCT(Optical Coherence tomography,光学相干断层扫描)图像分类方法。
背景技术
OCT成像方法是眼部疾病诊断中最常用的成像方法,应用在两种首要致盲的疾病:糖尿病型黄斑水肿(DME)和老年性黄斑病变(AMD);目前,每年世界上大概会产生三千万张OCT图片。计算机辅助诊断技术与人工诊断相比,成本低,并且能快速诊断数百万张图像,这对辅助医生诊断非常有利。
在计算机辅助诊断技术中,基于特征工程的传统方法对视网膜OCT图像进行分类,虽然训练时间短,但是需要人工设计的特征描述子对图像进行特征提取,然后进行基础分类器的训练;人们为了寻求更好的分类结果,逐渐采用越来越复杂的组件和技术,算法流水线越来越长,使得算法越来越复杂,复现难度越来越大。
有些研究者通过自己搭建适合OCT分类领域的深度学习网络模型,如基于端到端的深度学习网络对视网膜OCT图像进行分类;采用新的深度学习网络模型,虽然准确率高,但是训练时间很长,计算资源消耗大,对计算机硬件要求高,训练时一般需要GPU。
也有人采用迁移学习的方法实现OCT图像的分类,即通过微调网络,将预训练好的深度学习模型迁移到OCT图像分类中。虽然迁移学习训练时间比训练新的深度学习网络模型用时大大缩减,但速度仍然比不上传统方法,训练时一般需要GPU。
发明内容
为解决现有技术所存在的技术问题,本发明提供基于深度学习子网络特征提取的视网膜OCT图像分类方法,对计算机辅助诊断提供算法支持,计算资源消耗小,训练速度快,准确率高。
本发明采用以下技术方案来实现:基于深度学习子网络特征提取的视网膜OCT图像分类方法,包括以下步骤:
S1、准备视网膜OCT图像数据;
S2、构建多个不同的深度学习模型子网络;
S3、对视网膜OCT图像数据用步骤S2所构建的不同的深度学习模型子网络进行特征提取,将所提取的特征输入随机森林分类器进行训练和分类,并对训练和分类的结果进行评估筛选,获得准确率较高的几个模型;
S4、利用步骤S3所评估筛选出来的模型,采用特征连接或多数投票的分类方法对视网膜OCT图像进行分类。
在优选的实施例中,步骤S2的构建过程为:在ImageNet数据集表现优秀的模型,通过迁移其在ImageNet数据集上预训练好的权重,通过去除较深层不同深度的模块,构建形成新的深度学习模型子网络。
在优选的实施例中,步骤S2的深度学习模型包括Inception-v3模型,利用Inception-v3模型所构建的深度学习模型子网络共11个,包括但不限于:
mixed10模型,为不去除Inception-v3模型的任何模块,仅替换掉最后一层分类层所形成的子网络;
mixed8模型,为除去Inception-v3模型中InceptionE1、Inception E2所形成的子网络;
mixed4模型,为除去Inception-v3模型中Inception E1、Inception E2、Inception D、Inception C2、Inception C3、Inception C4所形成的子网络。
在优选的实施例中,步骤S2的深度学习模型包括ResNet50模型,利用ResNet50模型所构建的深度学习模型子网络共16个,包括但不限于:
ac46模型,为除去ResNet50模型中最后一个identity模块所形成的子网络;
ac43模型,为除去ResNet50模型中最后两个identity模块所形成的子网络;
ac37模型,为除去ResNet50模型中最后两个identity模块、最后一个卷积模块以及最后一个卷积模块之前的一个identity模块所形成的子网络。
在优选的实施例中,步骤S2的深度学习模型包括DenseNet121模型,利用DenseNet121模型所构建的深度学习模型子网络共58个,包括但不限于:
C5_b16模型,为不去除DenseNet121模型的任何模块,只替换最后一层分类层所形成的子网络;
C5_b14模型,为去除DenseNet121模型中最后2个卷积模块所形成的子网络;
C5_b12模型,为去除DenseNet121模型中最后4个卷积模块所形成的子网络;
C5_b10模型,为去除DenseNet121模型中最后6个卷积模块所形成的子网络;
C5_b4模型,为去除DenseNet121模型中最后12个卷积模块所形成的子网络;
C4_b2模型,为去除DenseNet121模型中倒数第二个dense模块中最后22个卷积模块以及之后的层所形成的子网络。
步骤S4中特征连接的分类方法为:利用多个不同的深度学习模型子网络,对训练集图片提取多个不同的特征向量,然后用numpy库的concatenate函数进行串联得到新的特征向量,再运用训练好的随机森林分类器进行训练,得到特征连接的分类器;同理,利用多个不同的深度学习模型子网络对测试集图片进行特征提取和特征连接得到新的向量,运用训练好的随机森林分类器分类得到结果。
步骤S4中多数投票的分类方法为:基于多个不同的深度学习模型子网络进行特征提取,分别用随机森林方法进行训练得到多个分类器;对测试图片进行测试,每个分类器得到一维列向量;对于一维列向量中的每个元素,都有多个不同分类器得到的值,采取其中的众数作为最终的结果,得到1个的一维列向量作为分类结果。
从上述技术方案可知,本发明基于深度学习模型子网络的特征提取,用传统机器学习方法进行分类,筛选出几个最优的子模型;然后对这几个子模型提取的特征分别采用特征连接和多数投票的方式,实现训练速度快、准确率高的视网膜OCT图像分类。本发明与现有技术相比,具有如下优点和有益效果:
1、本发明运用深度学习子网络进行特征提取,无需进行手工设计特征提取器,也无需对网络参数进行训练,而是直接迁移深度学习模型训练好的权重,通过去除较深层不同深度的模块,构建新的子网络模型以进行特征提取;然后采用随机森林方法进行训练和分类,可以用较少的时间换取较高的准确率,并且只需用CPU就可以完成,不需要GPU进行训练,计算资源占用小,对电脑的硬件要求低。
2、运用mixed4、mixed8、ac43、C4_B2很好地提取视网膜OCT图片特征,且对所提取的特征,运用特征连接和多数投票的方式均能提高分类的准确率。
3、经过特征连接方法取得95.36%的准确率和经过多数投票的方式得到94.64%的准确率,均高于IBDL方法94.57%的准确率。此外,本发明分类方法耗时短,仅仅需要使用CPU训练;而IBDL方法需要微调最后一层,一般需要GPU训练,耗时也较长。
附图说明
图1是本发明的深度学习模型子网络评估和筛选流程图;
图2是本发明利用所筛选出的深度学习模型进行OCT图像分类的流程图;
图3是Inception-v3模型的结构示意图;
图4是ResNet50模型的结构示意图;
图5是DenseNet121模型的结构示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1、2所示,本发明对视网膜OCT图像进行分类,包括以下步骤:
S1、准备视网膜OCT图像数据
本实施例所收集的临床数据集包括了1680张图片,其中包含了560张AMD、560张DME和560张NOR;将临床数据集平均分为两份,一份为训练集(280张AMD、280张DME和280张NOR),另一份为测试集(280张AMD、280张DME和280张NOR)。
S2、构建多个不同的深度学习模型子网络
本发明采用的深度学习模型为Inception-v3、ResNet50和DenseNet12模型,它们都是在Image Net数据集表现优秀的模型,通过迁移其在Image Net大规模自然数据集上预训练好的权重,通过去除较深层不同深度的模块,构建形成新的深度学习模型子网络。例如,用Keras加载Inception-v3模型时,加载在ImageNet上预训练好的权重;然后通过传入不同的层的名字,如mixed4,即x=base_model.get_layer(mixed4).output,将x传入Keras库中全局平均池化层函数就可以得到子网络的输出,基于此方法,可以去除不同深度的模块,得到不同的子网络。本实施例用Keras库中的层名给这些子网络模型命名,即用去除模块之后的网络中最后一层的名字命名,例如:
1)在Inception-v3模型中,构建了mixed0~mixed10共11个子网络。如图3,mixed10表示不去除任何模块,仅仅替换掉最后一层分类层的子网络;mixed8代表除去InceptionE1、Inception E2的子网络;mixed4代表除去Inception E1、Inception E2、Inception D、Inception C2、Inception C3、Inception C4的子网络。
2)对于ResNet50模型,构建了ac4,ac7,ac10…ac46,ac49共16个子网络。如图4,在Keras中activation_46代表除去最后一个identity模块的子网络,为了简洁,我们在文章中用ac46表示;ac43代表除去最后两个identity模块的子网络;ac37代表除去最后两个identity模块、最后一个卷积模块以及最后一个卷积模块之前的一个identity模块的子网络。
3)在DenseNet121模型中,构建了C2_B1~C2_B6,C3_B1~C3_B12,C4_B1~C4_B24,C5_B1~C5_B16共58个子网络。如图5,在Keras中,conv5_block16_concat表示不去除任何模块,只替换最后一层分类层的子网络,我们用C5_b16来表示;C5_b14表示去除最后2个卷积模块的模型;C5_b12表示去除最后4个卷积模块的模型;C5_b10表示去除最后6个卷积模块的模型;C5_b4表示去除最后12个卷积模块的模型;C4_b2表示去除倒数第二个dense模块中最后22个卷积模块以及之后的层的模型。
S3、在临床数据集上用不同的深度学习模型子网络进行特征提取,将所提取的特征输入随机森林分类器进行训练和分类,并对训练和分类的结果进行评估筛选,获得准确率较高的几个模型。
在特征提取上,传统方法主要依靠设计者的先验知识,很难利用大数据的优势,并且特征设计中参数较少。深度学习与传统方法的最大不同在于它是自动学习特征,其中可以包含成千上万的参数,并非采用手工设计的特征提取器;并且深度学习网络可以提取到分级的逐层抽象的特征,在较浅层提取一些较小的细节特征,在较深层提取一些较大的特征。
好的特征会大大提高分类的准确率。为了利用深度学习特征提取的优势,本发明在临床数据集上用不同的深度学习模型子网络进行特征提取的实验。特征提取无需对网络进行任何训练,这极大程度上减少了算法对计算能力的要求,无需用GPU计算,特征提取的速度快,并且不需要人工设计复杂的特征提取器;而是用Keras迁移在ImageNet上预训练好的权重,对子网络采用固定权值,即不对迁移的网络进行任何训练,去除不同深度模块后添加全局平均池化层的方法,最后得到一个向量,作为随机森林分类器的输入。
随机森林分类器是一个包含多个决策树的分类器,其训练速度快,无需用GPU训练,并且实验表明它可以产生高准确度的分类器。本发明对子网络提取后的向量特征使用随机森林方法分别进行训练和分类。在实验中,我们使用了sklearn库的Random ForestClassifier(随机森林分类器),并将树的个数参数设置为1000。实验结果表明:运用Inception-v3子模型提取特征后进行分类,mixed4准确率94.40%最高,其次mixed8准确率93.33%;对于ResNet50子模型,ac43准确率最高,达到89.05%;对于Densenet121子模型,c4_B2准确率最高,达到92.14%。
基于Inception-v3,ResNet50和DenseNet121子模型作为特征提取器,准确率较高的子模型均不是完整网络,这说明了较深层特征比最深层特征更适用于医学图像任务。
S4、利用所评估筛选出来的模型,采用特征连接或多数投票的分类方法对视网膜OCT图像进行分类。
使用在临床数据集具有最优表现的深度学习模型的子网络,运用特征连接的分类方法或多数投票的分类方法对OCT图像进行分类。
特征连接的分类方法将mixed4、mixed8、ac43和C4_B2子模型提取的4个不同的向量。对于训练集图片,mixed4提取大小为(840,768)的特征向量;mixed8提取大小为(840,1280)的特征向量;ac43提取大小为(840,2048)的特征向量;C4_B2提取大小为(840,320)的特征向量。然后用numpy库的concatenate函数对训练集的特征向量进行串联得到(840,4416)这一新的特征向量,其中第一个数字代表图片张数即训练集的大小,第二个数字代表图片的特征值数量。然后用sklearn库Random Forest Classifier,将树的个数设置为1000,进行训练得到特征连接的分类器。同理,用四个子模型对测试集图片进行特征提取和特征连接得到(840,4416)这一新的向量,运用训练好的分类器分类得到结果,并且计算准确率。
多数投票的分类方法将基于mixed4、mixed8、ac43和C4_B2子模型提取的特征,mixed4提取的特征向量大小为(840,768);mixed8提取的特征向量大小为(840,1280);ac43提取的特征向量大小为(840,2048);C4_B2提取的特征向量大小为(840,320),然后分别用随机森林方法进行训练得到4个分类器。测试时,有840张测试图片(280张AMD、280张DME和280张NOR),每个分类器得到大小为(840,1)的一维列向量。对于每一个数字,0代表AMD,1代表DME,2代表NOR。本发明有四个分类器,可以得到4个(840,1)的向量。那么对于一维列向量中的每个元素,都有4个不同分类器得到的值,采取4个数字中的众数作为最终的结果,即多数投票的方法,最终得到1个(840,1)的一维列向量作为分类结果。
为了公平起见,训练集和测试集划分与之前保持一致。同时与IBDL(image-baseddeep learning)模型对比,这个模型出自于2018年Kermany D S等人发表在CELL上的一篇论文(Kermany D S,Goldbaum M,Cai W,et al.Identifying medical diagnoses andtreatable diseases by image-based deep learning[J].Cell,2018,172(5):1122-1131.e9.)。本发明将IBDL模型运用到临床数据集中:使用Inception-v3模型,替换最后一层的全连接层,在临床数据集上微调最后一层,实验结果如表1所示,将特征连接和多数投票进行了对比。
模型 准确率(%)
IBDL 94.57
mixed4 94.40
mixed8 93.33
ac43 89.05
C4_b2 92.14
特征连接 95.36
多数投票 94.64
表1
实验表明,特征连接和多数投票的分类方法对视网膜OCT分类效果均有提升。单个子网络特征表现最好的模型为mixed4,通过特征连接的方法将准确率提升至95.36%,另外通过多数投票的方法能将准确率提升至94.64%。经过优化的特征提取算法均高于IBDL94.57%的准确率,并且IBDL方法需要微调最后一层,耗时较长。
对微调方法和特征提取的分类方法的时间效率进行比较,微调方法需要使用CPU和GPU进行运算,而特征提取的分类方法只需要使用CPU,本发明统计了不同方法的训练时间,如表2所示。
Figure BDA0002078324760000071
表2
实验结果表明,本发明提出的分类方法耗时短,计算资源消耗小。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (2)

1.基于深度学习子网络特征提取的视网膜OCT图像分类方法,其特征在于,包括以下步骤:
S1、准备视网膜OCT图像数据;
S2、构建多个不同的深度学习模型子网络;
S3、对视网膜OCT图像数据用步骤S2所构建的不同的深度学习模型子网络进行特征提取,将所提取的特征输入随机森林分类器进行训练和分类,并对训练和分类的结果进行评估筛选,获得准确率较高的几个模型;
S4、利用步骤S3所评估筛选出来的模型,采用特征连接或多数投票的分类方法对视网膜OCT图像进行分类;
步骤S2中,深度学习模型包括Inception-v3模型,利用Inception-v3模型所构建的深度学习模型子网络包括:
mixed10模型,为不去除Inception-v3模型的任何模块,仅替换掉最后一层分类层所形成的子网络;
mixed8模型,为除去Inception-v3模型中InceptionE1、Inception E2所形成的子网络;
mixed4模型,为除去Inception-v3模型中Inception E1、Inception E2、Inception D、Inception C2、Inception C3、Inception C4所形成的子网络;
深度学习模型包括ResNet50模型,利用ResNet50模型所构建的深度学习模型子网络包括:
ac46模型,为除去ResNet50模型中最后一个identity模块所形成的子网络;
ac43模型,为除去ResNet50模型中最后两个identity模块所形成的子网络;
ac37模型,为除去ResNet50模型中最后两个identity模块、最后一个卷积模块以及最后一个卷积模块之前的一个identity模块所形成的子网络;
步骤S2中,深度学习模型包括DenseNet121模型,利用DenseNet121模型所构建的深度学习模型子网络包括:
C5_b16模型,为不去除DenseNet121模型的任何模块,只替换最后一层分类层所形成的子网络;
C5_b14模型,为去除DenseNet121模型中最后2个卷积模块所形成的子网络;
C5_b12模型,为去除DenseNet121模型中最后4个卷积模块所形成的子网络;
C5_b10模型,为去除DenseNet121模型中最后6个卷积模块所形成的子网络;
C5_b4模型,为去除DenseNet121模型中最后12个卷积模块所形成的子网络;
C4_b2模型,为去除DenseNet121模型中倒数第二个dense模块中最后22个卷积模块以及之后的层所形成的子网络;
步骤S4中特征连接的分类方法为:
利用多个不同的深度学习模型子网络,对训练集图片提取多个不同的特征向量,然后用numpy库的concatenate函数进行串联得到新的特征向量,再运用训练好的随机森林分类器进行训练,得到特征连接的分类器;同理,利用多个不同的深度学习模型子网络对测试集图片进行特征提取和特征连接得到新的向量,运用训练好的随机森林分类器分类得到结果;
步骤S4中多数投票的分类方法为:
基于多个不同的深度学习模型子网络进行特征提取,分别用随机森林方法进行训练得到多个分类器;对测试图片进行测试,每个分类器得到一维列向量;对于一维列向量中的每个元素,都有多个不同分类器得到的值,采取其中的众数作为最终的结果,得到1个的一维列向量作为分类结果。
2.根据权利要求1所述的视网膜OCT图像分类方法,其特征在于,步骤S2的构建过程为:在Image Net数据集表现优秀的模型,通过迁移其在Image Net数据集上预训练好的权重,通过去除较深层不同深度的模块,构建形成新的深度学习模型子网络。
CN201910462063.1A 2019-05-30 2019-05-30 基于深度学习子网络特征提取的视网膜oct图像分类方法 Active CN110188820B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910462063.1A CN110188820B (zh) 2019-05-30 2019-05-30 基于深度学习子网络特征提取的视网膜oct图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910462063.1A CN110188820B (zh) 2019-05-30 2019-05-30 基于深度学习子网络特征提取的视网膜oct图像分类方法

Publications (2)

Publication Number Publication Date
CN110188820A CN110188820A (zh) 2019-08-30
CN110188820B true CN110188820B (zh) 2023-04-18

Family

ID=67718899

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910462063.1A Active CN110188820B (zh) 2019-05-30 2019-05-30 基于深度学习子网络特征提取的视网膜oct图像分类方法

Country Status (1)

Country Link
CN (1) CN110188820B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110659673A (zh) * 2019-09-04 2020-01-07 清华大学 视网膜光学相干层析体数据自动识别方法及装置
CN111126435B (zh) * 2019-11-21 2023-11-21 中国兵器工业信息中心 基于深度学习的黄色培育钻石品级分类系统
CN112836315B (zh) * 2021-02-24 2022-11-29 上海交通大学 一种基于神经网络的限位开关生产流水线异常监控方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096654A (zh) * 2016-06-13 2016-11-09 南京信息工程大学 一种基于深度学习和结合策略的细胞异型性自动分级方法
CN106156793A (zh) * 2016-06-27 2016-11-23 西北工业大学 结合深层特征提取和浅层特征提取的医学图像分类方法
WO2017178059A1 (en) * 2016-04-14 2017-10-19 Universität Bern Automatic assessment of time-resolved oct images for selective retina therapy
WO2018094381A1 (en) * 2016-11-21 2018-05-24 Tecumseh Vision, Llc System and method for automatic assessment of disease condition using oct scan data
CN108388917A (zh) * 2018-02-26 2018-08-10 东北大学 一种基于改进深度学习模型的高光谱图像分类方法
CN108647741A (zh) * 2018-05-18 2018-10-12 湖北工业大学 一种基于迁移学习的图像分类方法和系统
CN108875811A (zh) * 2018-06-01 2018-11-23 平安科技(深圳)有限公司 动物种类的分类方法、装置、计算机设备和存储介质
CN108985365A (zh) * 2018-07-05 2018-12-11 重庆大学 基于深度子空间切换集成学习的多源异构数据融合方法
CN109087298A (zh) * 2018-08-17 2018-12-25 电子科技大学 一种阿尔兹海默病mri图像分类方法
CN109101994A (zh) * 2018-07-05 2018-12-28 北京致远慧图科技有限公司 一种卷积神经网络迁移方法、装置、电子设备及存储介质
CN109308692A (zh) * 2018-07-30 2019-02-05 西北大学 基于改进Resnet与SVR混合模型的OCT图像质量评价方法
CN109376767A (zh) * 2018-09-20 2019-02-22 中国科学技术大学 基于深度学习的视网膜oct图像分类方法
CN109754002A (zh) * 2018-12-24 2019-05-14 上海大学 一种基于深度学习的隐写分析混合集成方法
CN109816625A (zh) * 2018-11-27 2019-05-28 广东电网有限责任公司 一种视频质量评分实现方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017178059A1 (en) * 2016-04-14 2017-10-19 Universität Bern Automatic assessment of time-resolved oct images for selective retina therapy
CN106096654A (zh) * 2016-06-13 2016-11-09 南京信息工程大学 一种基于深度学习和结合策略的细胞异型性自动分级方法
CN106156793A (zh) * 2016-06-27 2016-11-23 西北工业大学 结合深层特征提取和浅层特征提取的医学图像分类方法
WO2018094381A1 (en) * 2016-11-21 2018-05-24 Tecumseh Vision, Llc System and method for automatic assessment of disease condition using oct scan data
CN108388917A (zh) * 2018-02-26 2018-08-10 东北大学 一种基于改进深度学习模型的高光谱图像分类方法
CN108647741A (zh) * 2018-05-18 2018-10-12 湖北工业大学 一种基于迁移学习的图像分类方法和系统
CN108875811A (zh) * 2018-06-01 2018-11-23 平安科技(深圳)有限公司 动物种类的分类方法、装置、计算机设备和存储介质
CN108985365A (zh) * 2018-07-05 2018-12-11 重庆大学 基于深度子空间切换集成学习的多源异构数据融合方法
CN109101994A (zh) * 2018-07-05 2018-12-28 北京致远慧图科技有限公司 一种卷积神经网络迁移方法、装置、电子设备及存储介质
CN109308692A (zh) * 2018-07-30 2019-02-05 西北大学 基于改进Resnet与SVR混合模型的OCT图像质量评价方法
CN109087298A (zh) * 2018-08-17 2018-12-25 电子科技大学 一种阿尔兹海默病mri图像分类方法
CN109376767A (zh) * 2018-09-20 2019-02-22 中国科学技术大学 基于深度学习的视网膜oct图像分类方法
CN109816625A (zh) * 2018-11-27 2019-05-28 广东电网有限责任公司 一种视频质量评分实现方法
CN109754002A (zh) * 2018-12-24 2019-05-14 上海大学 一种基于深度学习的隐写分析混合集成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Macular OCT Classification Using a Multi-Scale;Reza Rasti,et;《IEEE Transactions on Medical Imaging》;20180430;第1024-1034页 *

Also Published As

Publication number Publication date
CN110188820A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
Gavai et al. MobileNets for flower classification using TensorFlow
CN110188820B (zh) 基于深度学习子网络特征提取的视网膜oct图像分类方法
CN109584337B (zh) 一种基于条件胶囊生成对抗网络的图像生成方法
CN110188239B (zh) 一种基于跨模态注意力机制的双流视频分类方法和装置
CN107369160B (zh) 一种oct图像中脉络膜新生血管分割算法
CN109272507B (zh) 基于结构随机森林模型的相干光断层图像的层分割方法
CN112132817B (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
CN111656357A (zh) 基于人工智能的眼科疾病诊断建模方法、装置及系统
CN109344855B (zh) 一种基于排序引导回归的深度模型的人脸美丽评价方法
CN108319938A (zh) 用于高性能人脸识别系统的高质量训练数据准备系统
Casamitjana et al. 3d convolutional networks for brain tumor segmentation
CN109886965B (zh) 一种水平集和深度学习相结合的视网膜层分割方法及系统
CN107408209A (zh) 无需取样及特征选择的自动缺陷分类
CN110111325A (zh) 神经影像分类方法、计算机终端及计算机可读存储介质
US11176672B1 (en) Machine learning method, machine learning device, and machine learning program
CN111915629B (zh) 基于边界检测的超像素分割方法
CN111027590B (zh) 一种结合深度网络特征和机器学习模型的乳腺癌数据分类方法
CN110570394B (zh) 医学图像分割方法、装置、设备及存储介质
Naveen et al. Identification of calcification in MRI brain images by k-means algorithm
CN111161278A (zh) 一种基于深层网络聚合的眼底图像病灶分割方法
CN112634149A (zh) 一种基于图卷积网络的点云去噪方法
CN116503680A (zh) 基于脑图谱的脑影像结构化分析和脑疾病分类系统
CN112233102A (zh) 图像样本集中噪声的识别方法、装置、设备及存储介质
CN113705670A (zh) 基于磁共振成像和深度学习的脑部图像分类方法及设备
KR20200023673A (ko) 백내장 진단을 위한 토너먼트 기반의 랭킹 컨볼루셔널 뉴럴 네트워크

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant