CN112131420B - 一种基于图卷积神经网络的眼底图像分类方法及装置 - Google Patents
一种基于图卷积神经网络的眼底图像分类方法及装置 Download PDFInfo
- Publication number
- CN112131420B CN112131420B CN202010950833.XA CN202010950833A CN112131420B CN 112131420 B CN112131420 B CN 112131420B CN 202010950833 A CN202010950833 A CN 202010950833A CN 112131420 B CN112131420 B CN 112131420B
- Authority
- CN
- China
- Prior art keywords
- neural network
- graph
- fundus image
- fundus
- convolution neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 33
- 230000003902 lesion Effects 0.000 claims abstract description 25
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 53
- 230000006870 function Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000004140 cleaning Methods 0.000 claims description 4
- 238000013145 classification model Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000002207 retinal effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 206010003210 Arteriosclerosis Diseases 0.000 description 2
- 208000037111 Retinal Hemorrhage Diseases 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 208000011775 arteriosclerosis disease Diseases 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 206010012689 Diabetic retinopathy Diseases 0.000 description 1
- 208000009857 Microaneurysm Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000004220 fundus oculi Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Library & Information Science (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于图卷积神经网络的眼底图像分类方法及装置,该方法包括:根据关键词在预设资料库中搜索眼底病变相关信息并构建语料库;基于语料库和Glove模型构建词向量模型并得到标签有向图;通过GCN网络对标签有向图中的标签依赖性进行建模,得到GCN分类器;通过卷积神经网络提取眼底图像的图像特征并结合GCN分类器对眼底图像进行分类,得到分类结果。该装置包括存储器以及用于执行上述基于图卷积神经网络的眼底图像分类方法的处理器。通过使用本发明,能够同时检测患者眼底图像中存在的多种病变标签。本发明作为一种基于图卷积神经网络的眼底图像分类方法及装置,可广泛应用于及医学图像处理领域。
Description
技术领域
本发明涉及医学图像处理领域,尤其涉及一种基于图卷积神经网络的眼底图像分类方法及装置。
背景技术
糖尿病视网膜病变是糖尿病患者最为常见、严重的一种微血管并发症,已成为全球范围内工作年龄段人群的首位致盲因素,视网膜眼底图像是观察视网膜和诊断眼底疾病的一种重要影像手段,在实际的临床诊断中,这些病变可能在眼底图像中同时存在,解决这种多病变检测的一种简单方法是独立的看待各个病变,将多标签分类问题转为多个二分类问题,但这类方法忽视了各种病变间存在的潜在关联,因此在本质上存在局限性。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于图卷积神经网络的眼底图像分类方法及装置,能够同时检测患者眼底图像中存在的多种病变标签,从而对眼底图像进行分类。
本发明所采用的第一技术方案是:一种基于图卷积神经网络的眼底图像分类方法,包括以下步骤:
根据关键词在预设资料库中搜索眼底病变相关信息并构建语料库;
基于语料库和Glove模型构建词向量模型并得到标签有向图;
通过GCN网络对标签有向图中的标签依赖性进行建模,得到GCN分类器;
通过卷积神经网络提取眼底图像的图像特征并结合GCN分类器对眼底图像进行分类,得到分类结果。
进一步,所述根据关键词在预设资料库中搜索眼底病变相关信息并构建语料库这一步骤,其具体包括:
在预设资料库中搜索眼底病变相关文章,并提取文章的摘要,得到语料信息;
对语料信息进行清洗处理、分词处理和去除停用词处理,得到处理后的语料信息;
根据处理后的语料信息得到语料库。
进一步,所述基于语料库和Glove模型构建词向量模型并得到标签有向图这一步骤,其具体包括:
根据语料库中的语料信息对Glove模型进行训练并生成标签词向量;
根据标签词向量构建出眼底图像标签的特征矩阵。
进一步,所述GCN网络包括特征矩阵和相邻矩阵。
进一步,通过词向量模型构建得到特征矩阵,所述特征矩阵的表达式为用于描述节点的特征,N是图中节点的数量,d是节点的特征数目。
进一步,通过数据集中标签的共现模式的方法构建得到相邻矩阵,所述相邻矩阵的表达式为A是图的代表性描述,N是图中节点的数量。
进一步,所述通过数据集中标签的共现模式的方法构建得到相邻矩阵具体包括:
基于标签间的条件概率P(Li/Lj)构建相邻矩阵并得到在训练集中当标签Lj出现时标签Li出现的概率Pij=P(Li/Lj);
对Pij进行了二值化处理,得到二值化相邻矩阵A′;
对二值化相邻矩阵A′进行重新加权,得到最后的相邻矩阵A。
进一步,所述通过卷积神经网络提取眼底图像的图像特征并结合GCN分类器对眼底图像进行分类,得到分类结果这一步骤,其具体包括:
将1024×1024尺寸的眼底图像作为卷积神经网络的ResNet-101的输入,得到2048×32×32的特征图;
使用步长为2、核大小为3×3的两个卷积层对特征图进行下采样并得到一维图像特征;
结合GCN分类器的输出和一维图像特征对眼底图像分类,得到分类结果。
进一步,所述GCN分类器的表达式具体为:
其中是第l层图输出,N是图中节点的数量,dl是结点的维数,A是相邻矩阵,/>二值化相邻矩阵,Wl是第l层神经网络的权重矩阵,σ(·)是非线性激活函数,具体使用的是LeakyReLU作为激活函数。
本发明所采用的第二技术方案是:一种基于图卷积神经网络的眼底图像分类装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上所述一种基于图卷积神经网络的眼底图像分类方法。
本发明方法及装置的有益效果是:基于图卷积网络构建了多标签分类模型,同时构建了眼底病变相关的语料库并对模型进行对比验证,该模型对眼底图像的分类具有较高的准确率,从而实现快速高效的进行大规模眼底病变筛查。
附图说明
图1是本发明一种基于图卷积神经网络的眼底图像分类方法的步骤流程图;
图2是本发明具体实施例分类模型的框架图;
图3是本发明具体实施例GCN网络的架构图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
如图1所示,本发明提供了一种基于图卷积神经网络的眼底图像分类方法,该方法包括以下步骤:
S101、根据关键词在预设资料库中搜索眼底病变相关信息并构建语料库;
具体地,在中国知网通过关键词检索收集眼底病变相关的论文构建语料库。
S102、基于语料库和Glove模型构建词向量模型并得到标签有向图;
S103、通过GCN网络对标签有向图中的标签依赖性进行建模,得到GCN分类器;
S104、通过卷积神经网络提取眼底图像的图像特征并结合GCN分类器眼底图像进行分类,得到分类结果。
具体地,图2为本发明所述的基于图卷积神经网络的眼底图像多标签分类模型的框架。
进一步作为本方法的优选实施例,所述根据关键词在预设资料库中搜索眼底病变相关信息并构建语料库这一步骤,其具体包括:
在预设资料库中搜索眼底病变相关文章进行并提取文章的摘要,得到语料信息;
具体地,在中国知网对眼底病变相关文章进行检索并提取文章的摘要来得到语料信息,共收集到相关的文献10500篇。
对语料信息进行清洗处理、分词处理和去除停用词处理,得到处理后的语料信息;
具体地,对语料进行清洗,包括去除了除逗号、句号以外的符号,英文缩写替换为全称等,并基于HanLP的结构化感知机模型对语料进行分词处理,分词处理后的语料包含Tokens3M,为了避免停用词造成的权重干扰,去除了语料中的停用词,去除停用词后语料包含Tokens2M。
根据处理后的语料信息得到语料库。
进一步作为本方法的优选实施例,所述基于语料库和Glove模型构建词向量模型并得到标签有向图这一步骤,其具体包括:
根据语料库中的语料信息对Glove模型进行训练并生成标签词向量;
根据标签词向量构建出眼底图像标签的特征矩阵。
具体地,有向图的数学表示即矩阵,基于S1处理后的语料库对Glove模型进行训练并生成标签词向量,以此构建出眼底病变标签的特征矩阵其中词向量维度d设置为300。
进一步作为本方法优选实施例,所述GCN网络包括特征矩阵和相邻矩阵。
具体地,为了探索病变标签间复杂的拓扑结构,使用GCN网络对标签依赖性进行建模,图3为本发明所述的基于图卷积神经网络的眼底图像多标签分类模型中GCN的架构图,其中:GCN的输入由特征矩阵和相邻矩阵构成;GCN的输出为由Z转置得到,D是最终节点特征维度,D=2048。
进一步作为本方法优选实施例,通过词向量模型构建得到特征矩阵,所述特征矩阵的表达式为用于描述节点的特征,N是图中节点的数量,d是节点的特征数目。
进一步作为本方法优选实施例,通过数据集中标签的共现模式的方法构建得到相邻矩阵,所述相邻矩阵的表达式为A是图的代表性描述,N是图中节点的数量。
进一步作为本方法优选实施例,所述通过数据集中标签的共现模式的方法构建得到相邻矩阵具体包括:
基于标签间的条件概率P(Li/Lj)构建相邻矩阵并得到在训练集中当标签Lj出现时标签Li出现的概率Pij=P(Li/Lj);
对Pij进行了二值化处理,得到二值化相邻矩阵A′;
对二值化相邻矩阵A′进行重新加权,得到最后的相邻矩阵A。
具体地,L是类别标签。
另外,为了提高模型的泛化能力,对进行了二值化处理,得到二值化相邻矩阵A′,A′表达式如下:
为了避免二值化导致的标签特征过度平滑,又对二值化相邻矩阵进行重新加权,得到最后的相邻矩阵A,A的表达式如下:
A′是二值化相邻矩阵,A是最终的相邻矩阵,τ、p用于控制标签以及与其相关标签的权重,经过实验测试,最终令τ=0.3,p=0.25。
进一步作为本方法优选实施例,所述通过卷积神经网络提取眼底图像的图像特征并结合GCN分类器对眼底图像进行分类,得到分类结果这一步骤,其具体包括:
将1024×1024尺寸的眼底图像作为卷积神经网络的ResNet-101的输入,得到2048×32×32的特征图;
使用步长为2、核大小为3×3的两个卷积层对特征图进行下采样并得到一维图像特征;
结合GCN分类器的输出和一维图像特征对眼底图像分类,得到分类结果。
具体地,使用1024×1024尺寸的眼底图像作为ResNet-101的输入,从ResNet-101的“conv5_x”卷积层得到2048×32×32的特征图;使用步长为2、核大小为3×3的两个卷积层对特征图进行下采样;采用adaptive max-pooling方法得到一维图像特征其中D=2048。
进一步作为本方法优选实施例,所述GCN分类器的表达式具体为:
其中是第l层图输出,N是图中节点的数量,dl是结点的维数,A是相邻矩阵,/>二值化相邻矩阵,Wl是第l层神经网络的权重矩阵,σ(·)是非线性激活函数,具体使用的是LeakyReLU作为激活函数。
更具体地,本发明提出一种基于图卷积神经网络的眼底图像多标签分类的方法,其具体实施方式如下:
根据本发明的图卷积神经网络的眼底图像多标签分类模型,在广州市医疗协同创新重大专项项目的数据集上进行训练与测试,该数据集由2282名患者(1283名女性,999名男性)的7459张眼底影像资料组成,在对模型进行训练之前,将7459幅图像按照70%、15%和15%的比例分为训练集、验证集和测试集。模型训练选择了随机梯度下降作为优化器,动量为0.9,权值衰减系数为0.0001,ResNet-101预训练模型的学习率为0.01,整个模型其他部分的学习率为0.1。基于最大熵损失函数创建了一种优化多标签分类的损失函数,其表达式如下:
其中是模型预测结果,B是batch size,N是标签类别数,y[i]∈[0,1]模型输入的真实标签。使用F1平均值、AUC等作为最终评价指标,最终得到在F1整体平均得分和每类标签F1平均得分分别为0.808和0.792。AUC在激光斑,玻璃膜疣,杯盘比异常,视网膜出血,视网膜动脉硬化,微血管瘤,硬性渗出,软性渗出8类病变上分别达到0.986,0.954,0.946,0.957,0.952,0.889,0.937和0.926。
如上例所述,本发明能够很好的对眼底彩色图像中存在的多种病变进行检测,为辅助医生进行诊断奠定了基础,使得快速高效的进行大规模眼底病变筛查成为可能。
本发明一种基于图卷积神经网络的眼底图像分类方法能够对眼底图像进行分类,对眼底图像中存在的激光斑,玻璃膜疣,杯盘比异常,视网膜出血,视网膜动脉硬化,微血管瘤,硬性渗出,软性渗出等8类病变进行很好的检测,辅助医生进行诊断。
一种基于图卷积神经网络的眼底图像分类装置:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上所述一种基于图卷积神经网络的眼底图像分类方法。
上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (9)
1.一种基于图卷积神经网络的眼底图像分类方法,其特征在于,包括以下步骤:
根据关键词在预设资料库中搜索眼底病变相关信息并构建语料库;
基于语料库和Glove模型构建词向量模型并得到标签有向图;
通过GCN网络对标签有向图中的标签依赖性进行建模,得到GCN分类器;
通过卷积神经网络提取眼底图像的图像特征并结合GCN分类器对眼底图像进行分类,得到分类结果;
基于最大熵损失函数创建优化多标签分类的损失函数,其表达式如下:
其中是模型预测结果,B是batch size,N是标签类别数,y[i]∈[0,1]模型输入的真实标签;
所述根据关键词在预设资料库中搜索眼底病变相关信息并构建语料库这一步骤,其具体包括:
在预设资料库中搜索眼底病变相关文章,并提取文章的摘要,得到语料信息;
对语料信息进行清洗处理、分词处理和去除停用词处理,得到处理后的语料信息;
根据处理后的语料信息得到语料库。
2.根据权利要求1所述一种基于图卷积神经网络的眼底图像分类方法,其特征在于,所述基于语料库和Glove模型构建词向量模型并得到标签有向图这一步骤,其具体包括:
根据语料库中的语料信息对Glove模型进行训练并生成标签词向量;
根据标签词向量构建出眼底图像标签的特征矩阵。
3.根据权利要求2所述一种基于图卷积神经网络的眼底图像分类方法,其特征在于,所述GCN网络包括特征矩阵和相邻矩阵。
4.根据权利要求3所述一种基于图卷积神经网络的眼底图像分类方法,其特征在于,通过词向量模型构建得到特征矩阵,所述特征矩阵的表达式为用于描述节点的特征,N是图中节点的数量,d是节点的特征数目。
5.根据权利要求4所述一种基于图卷积神经网络的眼底图像分类方法,其特征在于,通过数据集中标签的共现模式的方法构建得到相邻矩阵,所述相邻矩阵的表达式为A是图的代表性描述,N是图中节点的数量。
6.根据权利要求5所述一种基于图卷积神经网络的眼底图像分类方法,其特征在于,所述通过数据集中标签的共现模式的方法构建得到相邻矩阵具体包括:
基于标签间的条件概率P(Li/Lj)构建相邻矩阵并得到在训练集中当标签Lj出现时标签Li出现的概率Pij=P(Li/Lj);
对Pij进行了二值化处理,得到二值化相邻矩阵A′;
对二值化相邻矩阵A′进行重新加权,得到最后的相邻矩阵A。
7.根据权利要求6所述一种基于图卷积神经网络的眼底图像分类方法,其特征在于,所述通过卷积神经网络提取眼底图像的图像特征并结合GCN分类器对眼底图像进行分类,得到分类结果这一步骤,其具体包括:
将1024×1024尺寸的眼底图像作为卷积神经网络的ResNet-101的输入,得到2048×32×32的特征图;
使用步长为2、核大小为3×3的两个卷积层对特征图进行下采样并得到一维图像特征;
结合GCN分类器的输出和一维图像特征对眼底图像分类,得到分类结果。
8.根据权利要求7所述一种基于图卷积神经网络的眼底图像分类方法,其特征在于,所述GCN分类器的表达式具体为:
其中是第l层图输出,N是图中节点的数量,dl是结点的维数,A是相邻矩阵,二值化相邻矩阵,Wl是第l层神经网络的权重矩阵,σ(·)是非线性激活函数,具体使用的是LeakyReLU作为激活函数。
9.一种基于图卷积神经网络的眼底图像分类装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-8任一项所述一种基于图卷积神经网络的眼底图像分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010950833.XA CN112131420B (zh) | 2020-09-11 | 2020-09-11 | 一种基于图卷积神经网络的眼底图像分类方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010950833.XA CN112131420B (zh) | 2020-09-11 | 2020-09-11 | 一种基于图卷积神经网络的眼底图像分类方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112131420A CN112131420A (zh) | 2020-12-25 |
CN112131420B true CN112131420B (zh) | 2024-04-16 |
Family
ID=73845710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010950833.XA Active CN112131420B (zh) | 2020-09-11 | 2020-09-11 | 一种基于图卷积神经网络的眼底图像分类方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112131420B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106611052A (zh) * | 2016-12-26 | 2017-05-03 | 东软集团股份有限公司 | 文本标签的确定方法及装置 |
CN109800789A (zh) * | 2018-12-18 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 基于图网络的糖尿病视网膜病变分类方法及装置 |
CN109816009A (zh) * | 2019-01-18 | 2019-05-28 | 南京旷云科技有限公司 | 基于图卷积的多标签图像分类方法、装置及设备 |
CN109977226A (zh) * | 2019-03-14 | 2019-07-05 | 南京邮电大学 | 基于卷积神经网络的高精度文本分类方法和系统 |
CN110598207A (zh) * | 2019-08-14 | 2019-12-20 | 华南师范大学 | 一种词向量获取方法、装置及存储介质 |
CN110705425A (zh) * | 2019-09-25 | 2020-01-17 | 广州西思数字科技有限公司 | 一种基于图卷积网络的舌象多标签分类学习方法 |
-
2020
- 2020-09-11 CN CN202010950833.XA patent/CN112131420B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106611052A (zh) * | 2016-12-26 | 2017-05-03 | 东软集团股份有限公司 | 文本标签的确定方法及装置 |
CN109800789A (zh) * | 2018-12-18 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 基于图网络的糖尿病视网膜病变分类方法及装置 |
CN109816009A (zh) * | 2019-01-18 | 2019-05-28 | 南京旷云科技有限公司 | 基于图卷积的多标签图像分类方法、装置及设备 |
CN109977226A (zh) * | 2019-03-14 | 2019-07-05 | 南京邮电大学 | 基于卷积神经网络的高精度文本分类方法和系统 |
CN110598207A (zh) * | 2019-08-14 | 2019-12-20 | 华南师范大学 | 一种词向量获取方法、装置及存储介质 |
CN110705425A (zh) * | 2019-09-25 | 2020-01-17 | 广州西思数字科技有限公司 | 一种基于图卷积网络的舌象多标签分类学习方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112131420A (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pereira et al. | COVID-19 identification in chest X-ray images on flat and hierarchical classification scenarios | |
de La Torre et al. | Weighted kappa loss function for multi-class classification of ordinal data in deep learning | |
Sharma et al. | A deep learning model for early prediction of pneumonia using VGG19 and neural networks | |
Sridhar et al. | A Torn ACL Mapping in Knee MRI Images Using Deep Convolution Neural Network with Inception‐v3 | |
Mohammedqasim et al. | Real-time data of COVID-19 detection with IoT sensor tracking using artificial neural network | |
Singh et al. | Collaboration of features optimization techniques for the effective diagnosis of glaucoma in retinal fundus images | |
Elashiri et al. | Ensemble of weighted deep concatenated features for the skin disease classification model using modified long short term memory | |
R-Prabha et al. | Design of hybrid deep learning approach for covid-19 infected lung image segmentation | |
Rudd | Application of support vector machine modeling and graph theory metrics for disease classification | |
Liu et al. | Application of convolution neural network in medical image processing | |
Nair et al. | Blood vessel segmentation and diabetic retinopathy recognition: an intelligent approach | |
Kazi et al. | Ia-gcn: Interpretable attention based graph convolutional network for disease prediction | |
Bandyopadhyay et al. | Machine learning and deep learning integration for skin diseases prediction | |
Nagadeepa et al. | Artificial intelligence based cervical cancer risk prediction using m1 algorithms | |
Ali et al. | COVID-19 pneumonia level detection using deep learning algorithm and transfer learning | |
Kaushik et al. | Performance evaluation of learning models for the prognosis of COVID-19 | |
Elmoufidi et al. | Deep multiple instance learning for automatic glaucoma prevention and auto-annotation using color fundus photography | |
Yenurkar et al. | Effective detection of COVID-19 outbreak in chest X-Rays using fusionnet model | |
Manav et al. | Deep learning approach for analyzing the COVID-19 chest X-rays | |
Owida et al. | Deep learning algorithms to improve COVID-19 classification based on CT images | |
Challab et al. | Ant colony optimization–rain optimization algorithm based on hybrid deep learning for diagnosis of lung involvement in coronavirus patients | |
CN112131420B (zh) | 一种基于图卷积神经网络的眼底图像分类方法及装置 | |
Yadav et al. | A novel approach towards early detection of alzheimer’s disease using deep learning on magnetic resonance images | |
Nalluri et al. | Pneumonia screening on chest X-rays with optimized ensemble model | |
Thomas et al. | Diabetic retinopathy detection using ensembled transfer learning based thrice CNN with SVM classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |