CN109377474B - 一种基于改进Faster R-CNN的黄斑定位方法 - Google Patents

一种基于改进Faster R-CNN的黄斑定位方法 Download PDF

Info

Publication number
CN109377474B
CN109377474B CN201811080814.5A CN201811080814A CN109377474B CN 109377474 B CN109377474 B CN 109377474B CN 201811080814 A CN201811080814 A CN 201811080814A CN 109377474 B CN109377474 B CN 109377474B
Authority
CN
China
Prior art keywords
network
cnn
feature extraction
macular
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811080814.5A
Other languages
English (en)
Other versions
CN109377474A (zh
Inventor
陈新建
黄旭东
朱伟芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou University
Original Assignee
Suzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou University filed Critical Suzhou University
Priority to CN201811080814.5A priority Critical patent/CN109377474B/zh
Publication of CN109377474A publication Critical patent/CN109377474A/zh
Application granted granted Critical
Publication of CN109377474B publication Critical patent/CN109377474B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开一种基于改进Faster R‑CNN的黄斑定位方法,包括采集训练样本、构建网络模型、训练网络模型、构建检测模型和黄斑检测与定位。本发明利用改进的Faster R‑CNN对于黄斑区域的有效定位,降低了视盘、血管对黄斑区域的影响,而且抗噪声干扰能力强,大大提高了黄斑区域的准确定位,对于眼底图像的后续分析和处理奠定了基础。

Description

一种基于改进Faster R-CNN的黄斑定位方法
技术领域
本发明属于视网膜图像处理与分析方法技术领域,尤其是对视网膜眼底彩照图像目标区域的定位,具体涉及一种基于改进Faster R-CNN的黄斑定位方法。
背景技术
眼底彩照技术在已经广泛应用于眼底相关疾病的临床检查中,并受到越来越多的关注与重视。例如:糖尿病性黄斑水肿(diabetic macular edema,DME),是糖尿病患者失明的主要原因,老年性黄斑变性(Age-related macular degeneration,AMD)是成年人失明的主要原因,中心性浆液性脉络膜视网膜病变(central serous chorioretinopathy,CSC)是大多数青壮年男性产生眼病的主要原因。因此早期的疾病检查对疾病的预防和治疗至关重要。这些黄斑疾病如果没有及时的发现和治疗都会导致永久性失明,因此早期发现病灶,跟踪病情发展尤为重要,其中准确的黄斑定位是这一过程中的关键步骤。
黄斑处于人眼的光学中心区,颜色偏暗、反光较弱,很容易受到干扰,黄斑定位算法通常依赖于形态学特征和位置约束。目前的黄斑定位算法主要有以下几种缺陷:(1)十分依赖视盘和血管的信息,受视盘和血管检测正确率的影响,存在一定的应用局限性;(2)由于利用了形态学特征,因此传统的一些方法通常很容易受到噪声的干扰,当黄斑区域发生较大形变或者拍摄效果不好时,现有的算法将失效。
发明内容
针对现有技术的不足,本发明提供了一种基于改进Faster R-CNN的黄斑定位方法,利用改进的Faster R-CNN对于黄斑区域的有效定位,降低了视盘、血管对黄斑区域的影响,而且抗噪声干扰能力强,大大提高了黄斑区域的准确定位,对于眼底图像的后续分析和处理奠定了基础。
本发明是通过以下技术方案予以实现的:
一种基于改进Faster R-CNN的黄斑定位方法,包括以下步骤:
S1、采集训练样本:从Kaggle数据集中获取眼底图像,对获取的眼底图像进行黄斑区域标记,并将标记好的图像制作成VOC2007数据集的格式,构建训练样本集;
S2、构建网络模型:构建CNN特征提取网络、级联区域建议网络、上下文网络和判别网络,其中,所述CNN特征提取网络采用ResNet残差网络,包括卷积层、残差块、激励函数和池化层;所述级联区域建议网络由2个区域建议网络级联形成,包括卷积层,Softmax分类层,bbox层;所述上下文网络包括残差块、池化层、全连接层、Softmax层和bbox层;所述判别网络包括池化层、全连接层、激励函数层、Softmax层和bbox层构成;
S3、训练网络模型:初始化所述的特征提取网络、区域建议网络、上下文网络和判别网络,然后,通过输入已标记黄斑区域的图像对所述特征提取网络进行训练,得到ResNet特征提取网络模型;所述区域建议网络利用所述ResNet特征提取网络模型输出的特征图进行训练,得到级联区域建议网络模型;所述级联区域建议网络模型输出的区域建议边框映射到特征提取网络输出的特征图的相应区域,对该区域进行池化并送入所述上下文网络进行训练,得到上下文网络模型;所述判别网络根据所述上下文网络模型提供的候选区域进行判别,得到判别网络模型;
S4、构建检测模型:将所述的ResNet特征提取网络模型、级联区域建议网络模型、上下文网络模型和判别网络模型组合成改进后的Faster R-CNN检测网络,利用训练样本集中的训练数据对所述改进后的Faster R-CNN检测网络进行训练,训练50次,得到黄斑区域检测和定位网络模型;
S5、黄斑检测与定位:利用所述黄斑区域检测和定位网络模型对待检测的眼底图像进行黄斑区域检测和定位,得到眼底图像黄斑区域的候选框,调整候选框阈值,采用非极大值抑制,得到最终的候选框。
优选地,所述CNN特征提取网络采用ResNet中的残差块加上Inception-v3多尺度结构作为特征提取网络。
优选地,构建网络模型的步骤中,所述卷积层采用两个尺度的卷积核。
优选地,所述两个尺度的卷积核包括:3*3卷积核和1*1卷积核。
优选地,训练网络模型的步骤进一步包括:训练模型分两步,第一步联合训练特征提取网络和区域建议网络,得到提取预选框的模型,其中特征提取网络是由ResNet网络进行的特征提取;第二步,利用由提取预选框模型预测出来的边框映射到特征提取网络输出特征图的相应区域,进行感兴趣区域池化,然后再训练特征提取网络以及上下文网络和判别网络。
优选地,在区域建议网络的训练过程中,为每一个锚点参考框分配一个二进制标签,将与金标准框的交并比(Intersection-over-Union;IoU)大于0.7的锚点参考框贴上正标签,将与金标准框的IoU小于0.3的锚点参考框贴上负标签,将处于二者之间的既不积极又不消极的锚点参考框直接丢弃。
优选地,在检测阶段,当候选框的交并比与金标准框的重叠度大于0.5时,认为所述候选框是一个真实的候选者。
优选地,所述方法采用误检率、漏检率和准确率这三个指标来评价黄斑定位结果,并计算如下:
Figure GDA0002946920020000031
Figure GDA0002946920020000032
Figure GDA0002946920020000033
其中FP为误检个数,FN为漏检个数,ALL为全部的眼底图像,FPR为误检率,MR为漏检率,ACC为准确率。
与现有技术相比,本发明的有益效果在于,1)本发明首次提供了一种具有可行性和有效性的基于改进的Faster R-CNN对于黄斑的准确定位,包括:①采用ResNet中的残差块加上Inception-v3多尺度结构代替原有的Faster R-CNN里的VGG-16网络作为特征提取网络,在特征提取时,不仅可以合适的获取目标,而且可以降低参数和计算的冗余,同时避免由于网络的加深而出现的梯度消失、梯度爆炸以及过拟合的问题;②将区域建议网络(Region Proposal Networks;RPN)进行了级联,形成了级联区域建议网络(CascadedRegion Proposal Networks;CRPN)代替原有的RPN结构,改善了浅层细节对于候选框的影响;③在得到候选框之后,加入上下文网络,使得在对黄斑进行定位时,既考虑了黄斑区域的形态学信息,又考虑了黄斑区域对于整个眼底的相对位置信息,提高了黄斑定位的有效性;2)本发明首次将深度学习方法应用于黄斑定位,利用改进的Faster R-CNN对于黄斑区域的有效定位,降低了视盘、血管对黄斑区域的影响,而且抗噪声干扰能力强,大大提高了黄斑区域的准确定位,对于眼底图像的后续分析和处理奠定了基础。
附图说明
图1为根据实施例的本发明方法的网络模型的结构示意图;
图2为根据实施例的本发明中特征提取网络的结构示意图;
图3为根据实施例的本发明中标准RPN的示意图;
图4为根据实施例的本发明中级联RPN的示意图;
图5为根据实施例的本发明中上下文网络的结构示意图;
图6(a)至图6(f)为根据实施例的本发明中黄斑定位结果的示意图。
具体实施方式
以下将结合附图对本发明各实施例的技术方案进行清楚、完整的描述,显然,所描述发实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施例,都属于本发明所保护的范围。
本发明提供一种基于改进Faster R-CNN的黄斑定位方法,包括以下步骤:
S1、采集训练样本:从Kaggle数据集中获取眼底图像,对获取的眼底图像进行黄斑区域标记,并将标记好的图像制作成VOC2007数据集的格式,构建训练样本集;
S2、构建网络模型:构建CNN特征提取网络、级联区域建议网络、上下文网络和判别网络,其中,所述CNN特征提取网络采用ResNet残差网络,包括卷积层、残差块、激励函数和池化层;所述级联区域建议网络由2个区域建议网络级联形成,包括卷积层,Softmax分类层,bbox层;所述上下文网络包括残差块、池化层、全连接层、Softmax层和bbox层;所述判别网络包括池化层、全连接层、激励函数层、Softmax层和bbox层构成;
S3、训练网络模型:初始化所述的特征提取网络、区域建议网络、上下文网络和判别网络,然后,通过输入已标记黄斑区域的图像对所述特征提取网络进行训练,得到ResNet特征提取网络模型;所述区域建议网络利用所述ResNet特征提取网络模型输出的特征图进行训练,得到级联区域建议网络模型;所述级联区域建议网络模型输出的区域建议边框映射到特征提取网络输出的特征图的相应区域,对该区域进行池化并送入所述上下文网络进行训练,得到上下文网络模型;所述判别网络根据所述上下文网络模型提供的候选区域进行判别,得到判别网络模型;
S4、构建检测模型:将所述的ResNet特征提取网络模型、级联区域建议网络模型、上下文网络模型和判别网络模型组合成改进后的Faster R-CNN检测网络,利用训练样本集中的训练数据对所述改进后的Faster R-CNN检测网络进行训练,训练50次,得到黄斑区域检测和定位网络模型;
S5、黄斑检测与定位:利用所述黄斑区域检测和定位网络模型对待检测的眼底图像进行黄斑区域检测和定位,得到眼底图像黄斑区域的候选框,调整候选框阈值,采用非极大值抑制,得到最终的候选框。
具体地,训练网络模型的步骤进一步包括:训练模型分两步,第一步联合训练特征提取网络和区域建议网络,得到提取预选框的模型,其中特征提取网络是由ResNet网络进行的特征提取;第二步,利用由提取预选框模型预测出来的边框映射到特征提取网络输出特征图的相应区域,进行感兴趣区域池化(ROI池化),然后再训练特征提取网络以及上下文网络和判别网络。所述的上下文网络和判别网络属于分类和边框回归模块。
作为一种优选的实施方案,如图1所示,本方法主要包括3个模块:特征提取网络、区域建议网络、上下文网络。
具体地,所述CNN特征提取网络采用ResNet中的残差块加上Inception-v3多尺度结构作为特征提取网络。在目标检测算法中,目前的进展主要得益于区域建议网络和基于区域的卷积神经网络(Region-basedConvolutional Neural Networks;R-CNN)的成功。另外,通过RPN和CNN之间共享特征提取网络,大大降低了计算成本。在特征提取模块中,由于ResNet采用残差连接和批归一化,使得网络更加深入,学习能力更强,使得深度学习模型的训练更加容易,可以很好的防止层数过多导致的过拟合。对于特征不明显的黄斑区域,具有很好的特征提取效果。同时,本发明参考了GoogLeNet的多尺度结构,发现Inception-v3是捕获输入图像中不同大小对象的最具有成本效益的构建模块之一,因为这样的结构可以减少冗余。本发明中采用的是3*3卷积核以及1*1卷积核,具体的结构见图2。
具体地,通过特征提取网络之后,便生成了一个多通道的特征图。下一步是在特征图上应用滑动窗口加上anchor(锚点)的机制。该部分借鉴了经典定位网络Faster R-CNN里的RPN结构,图3显示了标准的RPN结构。在每个滑动窗口位置,都会生成proposal(建议区域),并把每个位置的最大可能性的框的数量设置为K,所以reg(回归层)就会产生4*K个输出,这是由K个框的坐标产生的,(cls)分类层会产生2*K个输出,用于判断每个建议区域是否为目标。K个建议区域便有K个参考框,我们将其称之为锚点参考框。和原始的Faster R-CNN一样,我们的RPN使用了9个锚点参考框(K=9),并满足3种比例(1:1,1:2,2:1)和3种刻度(128,256,512)。滑动窗口加上锚的作用相当于Fast R-CNN生成建议区域时选择性搜索的作用类似。图4中的分数与图3中的得分表达相同的意义,每个区域都会有2K个得分,2是因为前景和背景,k就是有K个锚点参考框,然后每个区域根据得分进行排序,然后最后对特征图中所有的得分排序,在具体实施中,可以选取2000个proposal,最后采用非极大值抑制,得到最后的300个预选框。
同时,本发明对RPN进行了两次提取,提出了RPN级联结构,如图4所示,在原始RPN(RPN2)之前,添加一个子网络(RPN1)。级联RPN的目的主要是对目标区域进行深度提取,减少低层细节对最终得分框的影响。
具体地,黄斑中心是位于眼底中心的淡红色圆点,一些不太有效的眼底图像此区域是暗的,对于整个眼底,这个区域特别容易收到血管、阴影等干扰。因此,许多传统的算法会结合视盘的位置选择候选区域进行定位,然而,考虑到视盘的位置去推断黄斑的位置将不可避免的影响检测速度,因此在本发明中,考虑候选者的特殊性,加入一些限定性条件,以减少误判。在级联RPN后添加了上下文网络,该网络主要是将全局特征以及局部形态学特征结合起来,实现有效定位。具体的结构如图5所示。分别提取特征图中的目标信息和全局特征信息,然后在全连接层之前将其得到的特征图进行通道叠加。在上下文网络中,卷积过程使用的是残差模块。残差块可以参考图2的结构。
具体地,在区域建议网络的训练过程中,为每一个锚点参考框分配一个二进制标签,将与金标准框的IoU大于0.7的锚点参考框贴上正标签,将与金标准框的IoU小于0.3的锚点参考框贴上负标签,将处于二者之间的既不积极又不消极的锚点参考框直接丢弃。所谓“金标准”是指当前临床医学界公认的分析疾病的最可靠、最准确、最好的方法。金标准框也就是对应公认的最合适的框,也就是正确的框。
具体地,在检测阶段,当候选框的交并比与金标准框的重叠度大于0.5时,认为所述候选框是一个真实的候选者。
具体地,所述方法采用误检率、漏检率和准确率这三个指标来评价黄斑定位结果,并计算如下:
Figure GDA0002946920020000071
Figure GDA0002946920020000072
Figure GDA0002946920020000073
其中FP为误检个数,FN为漏检个数,ALL为全部的眼底图像,FPR为误检率,MR为漏检率,ACC为准确率。
作为一种优选的实施方案,本发明一共使用4140张图像,包括正常和异常眼底,数据来源于Kaggle数据集。我们随机选取3355张图像作为训练集,剩余785张图像作为测试集。其中黄斑的位置是由人工进行标记。本文中的网络主要与经典的Faster R-CNN(VGG+RPN)和改进后的Faster R-CNN(ResNet+RPN)进行比较,表1显示了采用这三个网络进行黄斑定位的对比结果。
Figure GDA0002946920020000081
表1
部分实验结果如图6(a)至图6(f)所示。图中矩形框即是定位结果,其中1表示正确识别目标,后面的数字表示该目标是黄斑的概率大小。与经典的定位算法Faster R-CNN相比,本发明中提出的算法,大大提升了定位的准确性,平均准确率达到了98.09%,为后续眼底彩照图像的进一步分析与处理奠定坚实基础。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案。

Claims (8)

1.一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,包括以下步骤:
S1、采集训练样本:从Kaggle数据集中获取眼底图像,对获取的眼底图像进行黄斑区域标记,并将标记好的图像制作成VOC2007数据集的格式,构建训练样本集;
S2、构建网络模型:构建CNN特征提取网络、级联区域建议网络、上下文网络和判别网络,其中,所述CNN特征提取网络采用ResNet残差网络,包括卷积层、残差块、激励函数和池化层;所述级联区域建议网络由2个区域建议网络级联形成,包括卷积层,Softmax分类层,bbox层;所述上下文网络包括残差块、池化层、全连接层、Softmax层和bbox层;所述判别网络包括池化层、全连接层、激励函数层、Softmax层和bbox层构成;
S3、训练网络模型:初始化所述的特征提取网络、区域建议网络、上下文网络和判别网络,然后,通过输入已标记黄斑区域的图像对所述特征提取网络进行训练,得到ResNet特征提取网络模型;所述区域建议网络利用所述ResNet特征提取网络模型输出的特征图进行训练,得到级联区域建议网络模型;所述级联区域建议网络模型输出的区域建议边框映射到特征提取网络输出的特征图的相应区域,对该区域进行池化并送入所述上下文网络进行训练,得到上下文网络模型;所述判别网络根据所述上下文网络模型提供的候选区域进行判别,得到判别网络模型;
S4、构建检测模型:将所述的ResNet特征提取网络模型、级联区域建议网络模型、上下文网络模型和判别网络模型组合成改进后的Faster R-CNN检测网络,利用训练样本集中的训练数据对所述改进后的Faster R-CNN检测网络进行训练,训练50次,得到黄斑区域检测和定位网络模型;
S5、黄斑检测与定位:利用所述黄斑区域检测和定位网络模型对待检测的眼底图像进行黄斑区域检测和定位,得到眼底图像黄斑区域的候选框,调整候选框阈值,采用非极大值抑制,得到最终的候选框。
2.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,所述CNN特征提取网络采用ResNet中的残差块加上Inception-v3多尺度结构作为特征提取网络。
3.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,构建网络模型的步骤中,所述卷积层采用两个尺度的卷积核。
4.根据权利要求3所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,所述两个尺度的卷积核包括:3*3卷积核和1*1卷积核。
5.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,训练网络模型的步骤进一步包括:训练模型分两步,第一步联合训练特征提取网络和区域建议网络,得到提取预选框的模型,其中特征提取网络是由ResNet网络进行的特征提取;第二步,利用由提取预选框模型预测出来的边框映射到特征提取网络输出特征图的相应区域,进行感兴趣区域池化,然后再训练特征提取网络以及上下文网络和判别网络。
6.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,在区域建议网络的训练过程中,为每一个锚点参考框分配一个二进制标签,将与金标准框的IoU大于0.7的锚点参考框贴上正标签,将与金标准框的IoU小于0.3的锚点参考框贴上负标签,将处于二者之间的既不积极又不消极的锚点参考框直接丢弃。
7.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,在检测阶段,当候选框的交并比与金标准框的重叠度大于0.5时,认为所述候选框是一个真实的候选者。
8.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,所述方法采用误检率、漏检率和准确率这三个指标来评价黄斑定位结果,并计算如下:
Figure FDA0002946920010000021
Figure FDA0002946920010000022
Figure FDA0002946920010000023
其中FP为误检个数,FN为漏检个数,ALL为全部的眼底图像,FPR为误检率,MR为漏检率,ACC为准确率。
CN201811080814.5A 2018-09-17 2018-09-17 一种基于改进Faster R-CNN的黄斑定位方法 Active CN109377474B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811080814.5A CN109377474B (zh) 2018-09-17 2018-09-17 一种基于改进Faster R-CNN的黄斑定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811080814.5A CN109377474B (zh) 2018-09-17 2018-09-17 一种基于改进Faster R-CNN的黄斑定位方法

Publications (2)

Publication Number Publication Date
CN109377474A CN109377474A (zh) 2019-02-22
CN109377474B true CN109377474B (zh) 2021-06-15

Family

ID=65404762

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811080814.5A Active CN109377474B (zh) 2018-09-17 2018-09-17 一种基于改进Faster R-CNN的黄斑定位方法

Country Status (1)

Country Link
CN (1) CN109377474B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934823A (zh) * 2019-03-25 2019-06-25 天津工业大学 一种基于深度学习的dr眼底图像黄斑水肿分级方法
CN110276754B (zh) * 2019-06-21 2021-08-20 厦门大学 一种表面缺陷检测方法、终端设备及存储介质
CN110555842A (zh) * 2019-09-10 2019-12-10 太原科技大学 一种基于锚点集优化的硅片图像缺陷检测方法
CN111046717B (zh) * 2019-10-11 2024-01-30 平安科技(深圳)有限公司 眼底图像黄斑中心定位方法、装置、电子设备及存储介质
CN110786824B (zh) * 2019-12-02 2021-06-15 中山大学 基于边界框修正网络的粗标注眼底照出血病变检测方法及系统
CN111080596A (zh) * 2019-12-11 2020-04-28 浙江工业大学 一种融合局部阴影与全局特征的尘肺病辅助筛查方法及系统
CN111311506B (zh) * 2020-01-21 2023-05-09 辽宁师范大学 基于双残差网络的低剂量ct牙齿图像去噪方法
CN111402246A (zh) * 2020-03-20 2020-07-10 北京工业大学 一种基于联合网络的眼底图像分类方法
CN111402243B (zh) * 2020-03-20 2023-08-11 智眸医疗(深圳)有限公司 黄斑中心凹识别方法及终端
CN111414896A (zh) * 2020-04-10 2020-07-14 吉林农业大学 一种基于卷积神经网络农作物病害图像识别方法
CN111507998B (zh) * 2020-04-20 2022-02-18 南京航空航天大学 基于深度级联的多尺度激励机制隧道表面缺陷分割方法
CN111812096B (zh) * 2020-06-02 2023-07-07 国网浙江嘉善县供电有限公司 一种绝缘子电弧烧伤的快速定位智能图像检测方法
CN112017187B (zh) * 2020-11-02 2021-02-05 平安科技(深圳)有限公司 眼底图像黄斑中心定位方法及装置、服务器、存储介质
TWI817121B (zh) * 2021-05-14 2023-10-01 宏碁智醫股份有限公司 分類老年性黃斑部退化的程度的分類方法和分類裝置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107346420A (zh) * 2017-06-19 2017-11-14 中国科学院信息工程研究所 一种基于深度学习的自然场景下文字检测定位方法
CN107463892A (zh) * 2017-07-27 2017-12-12 北京大学深圳研究生院 一种结合上下文信息和多级特征的图像中行人检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107346420A (zh) * 2017-06-19 2017-11-14 中国科学院信息工程研究所 一种基于深度学习的自然场景下文字检测定位方法
CN107463892A (zh) * 2017-07-27 2017-12-12 北京大学深圳研究生院 一种结合上下文信息和多级特征的图像中行人检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Couplenet: coupling global structure with local parts for object detection;ZHU Y等;《the IEEE International Conference》;20171231;全文 *

Also Published As

Publication number Publication date
CN109377474A (zh) 2019-02-22

Similar Documents

Publication Publication Date Title
CN109377474B (zh) 一种基于改进Faster R-CNN的黄斑定位方法
US20220076420A1 (en) Retinopathy recognition system
Islam et al. Applying supervised contrastive learning for the detection of diabetic retinopathy and its severity levels from fundus images
Yang et al. Efficacy for differentiating nonglaucomatous versus glaucomatous optic neuropathy using deep learning systems
CN114821189B (zh) 一种基于眼底图像的病灶图像分类与识别方法
CN112712531B (zh) 一种基于卷积循环神经网络的as-oct图像的房角分类方法
Sharif et al. Automatic screening of retinal lesions for grading diabetic retinopathy.
Chen et al. Combination of enhanced depth imaging optical coherence tomography and fundus images for glaucoma screening
Wang et al. Accurate disease detection quantification of iris based retinal images using random implication image classifier technique
Shojaeipour et al. Using image processing methods for diagnosis diabetic retinopathy
Dhakal et al. Detection and classification of diabetic retinopathy using adaptive boosting and artificial neural network
CN110276333B (zh) 眼底身份识别模型训练方法、眼底身份识别方法和设备
Sadhukhan et al. Optic disc localization in retinal fundus images using faster R-CNN
Ang et al. Computer-based identification of diabetic maculopathy stages using fundus images
Kumar et al. Automatic early glaucoma detection by extracting parapapillary atrophy and optic disc from fundus image using SVM
Zaidi et al. Retinal image analysis for diagnosis of macular edema using digital fundus images
Septiarini et al. Peripapillary atrophy detection in fundus images based on sectors with scan lines approach
Hanđsková et al. Diabetic rethinopathy screening by bright lesions extraction from fundus images
Duvvuri et al. Classification of Diabetic Retinopathy Using Image Pre-processing Techniques
Athab et al. Disc and Cup Segmentation for Glaucoma Detection
Pan et al. An optic disk semantic segmentation method based on weakly supervised learning
CN115170492A (zh) 一种基于ai技术的白内障患者术后视力智能预测评估系统
CN112862089A (zh) 一种具有可解释性的医学图像深度学习方法
Sharma et al. A system for grading diabetic maculopathy severity level
Hussein et al. Convolutional Neural Network in Classifying Three Stages of Age-Related Macula Degeneration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant