CN109377474A - 一种基于改进Faster R-CNN的黄斑定位方法 - Google Patents
一种基于改进Faster R-CNN的黄斑定位方法 Download PDFInfo
- Publication number
- CN109377474A CN109377474A CN201811080814.5A CN201811080814A CN109377474A CN 109377474 A CN109377474 A CN 109377474A CN 201811080814 A CN201811080814 A CN 201811080814A CN 109377474 A CN109377474 A CN 109377474A
- Authority
- CN
- China
- Prior art keywords
- network
- cnn
- feature extraction
- region
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开一种基于改进Faster R‑CNN的黄斑定位方法,包括采集训练样本、构建网络模型、训练网络模型、构建检测模型和黄斑检测与定位。本发明利用改进的Faster R‑CNN对于黄斑区域的有效定位,降低了视盘、血管对黄斑区域的影响,而且抗噪声干扰能力强,大大提高了黄斑区域的准确定位,对于眼底图像的后续分析和处理奠定了基础。
Description
技术领域
本发明属于视网膜图像处理与分析方法技术领域,尤其是对视网膜眼底彩照图像目标区域的定位,具体涉及一种基于改进Faster R-CNN的黄斑定位方法。
背景技术
眼底彩照技术在已经广泛应用于眼底相关疾病的临床检查中,并受到越来越多的关注与重视。例如:糖尿病性黄斑水肿(diabetic macular edema,DME),是糖尿病患者失明的主要原因,老年性黄斑变性(Age-related macular degeneration,AMD)是成年人失明的主要原因,中心性浆液性脉络膜视网膜病变(central serous chorioretinopathy,CSC)是大多数青壮年男性产生眼病的主要原因。因此早期的疾病检查对疾病的预防和治疗至关重要。这些黄斑疾病如果没有及时的发现和治疗都会导致永久性失明,因此早期发现病灶,跟踪病情发展尤为重要,其中准确的黄斑定位是这一过程中的关键步骤。
黄斑处于人眼的光学中心区,颜色偏暗、反光较弱,很容易受到干扰,黄斑定位算法通常依赖于形态学特征和位置约束。目前的黄斑定位算法主要有以下几种缺陷:(1)十分依赖视盘和血管的信息,受视盘和血管检测正确率的影响,存在一定的应用局限性;(2)由于利用了形态学特征,因此传统的一些方法通常很容易受到噪声的干扰,当黄斑区域发生较大形变或者拍摄效果不好时,现有的算法将失效。
发明内容
针对现有技术的不足,本发明提供了一种基于改进Faster R-CNN的黄斑定位方法,利用改进的Faster R-CNN对于黄斑区域的有效定位,降低了视盘、血管对黄斑区域的影响,而且抗噪声干扰能力强,大大提高了黄斑区域的准确定位,对于眼底图像的后续分析和处理奠定了基础。
本发明是通过以下技术方案予以实现的:
一种基于改进Faster R-CNN的黄斑定位方法,包括以下步骤:
S1、采集训练样本:从Kaggle数据集中获取眼底图像,对获取的眼底图像进行黄斑区域标记,并将标记好的图像制作成VOC2007数据集的格式,构建训练样本集;
S2、构建网络模型:构建CNN特征提取网络、级联区域建议网络、上下文网络和判别网络,其中,所述CNN特征提取网络采用ResNet残差网络,包括卷积层、残差块、激励函数和池化层;所述级联区域建议网络由2个区域建议网络级联形成,包括卷积层,So ftmax分类层,bbox层;所述上下文网络包括残差块、池化层、全连接层、Softmax层和b box层;所述判别网络包括池化层、全连接层、激励函数层、Softmax层和bbox层构成;
S3、训练网络模型:初始化所述的特征提取网络、区域建议网络、上下文网络和判别网络,然后,通过输入已标记黄斑区域的图像对所述特征提取网络进行训练,得到ResNet特征提取网络模型;所述区域建议网络利用所述ResNet特征提取网络模型输出的特征图进行训练,得到级联区域建议网络模型;所述级联区域建议网络模型输出的区域建议边框映射到特征提取网络输出的特征图的相应区域,对该区域进行池化并送入所述上下文网络进行训练,得到上下文网络模型;所述判别网络根据所述上下文网络模型提供的候选区域进行判别,得到判别网络模型;
S4、构建检测模型:将所述的ResNet特征提取网络模型、级联区域建议网络模型、上下文网络模型和判别网络模型组合成改进后的Faster R-CNN检测网络,利用训练样本集中的训练数据对所述改进后的Faster R-CNN检测网络进行训练,训练50次,得到黄斑区域检测和定位网络模型;
S5、黄斑检测与定位:利用所述黄斑区域检测和定位网络模型对待检测的眼底图像进行黄斑区域检测和定位,得到眼底图像黄斑区域的候选框,调整候选框阈值,采用非极大值抑制,得到最终的候选框。
优选地,所述CNN特征提取网络采用ResNet中的残差块加上Inception-v3多尺度结构作为特征提取网络。
优选地,构建网络模型的步骤中,所述卷积层采用两个尺度的卷积核。
优选地,所述两个尺度的卷积核包括:3*3卷积核和1*1卷积核。
优选地,训练网络模型的步骤进一步包括:训练模型分两步,第一步联合训练特征提取网络和区域建议网络,得到提取预选框的模型,其中特征提取网络是由ResNet网络进行的特征提取;第二步,利用由提取预选框模型预测出来的边框映射到特征提取网络输出特征图的相应区域,进行感兴趣区域池化,然后再训练特征提取网络以及上下文网络和判别网络。
优选地,在区域建议网络的训练过程中,为每一个锚点参考框分配一个二进制标签,将与金标准框的交并比(Intersection-over-Union;IoU)大于0.7的锚点参考框贴上正标签,将与金标准框的IoU小于0.3的锚点参考框贴上负标签,将处于二者之间的既不积极又不消极的锚点参考框直接丢弃。
优选地,在检测阶段,当候选框的交并比与金标准框的重叠度大于0.5时,认为所述候选框是一个真实的候选者。
优选地,所述方法采用误检率、漏检率和准确率这三个指标来评价黄斑定位结果,并计算如下:
其中FP为误检个数,FN为漏检个数,ALL为全部的眼底图像,FPR为误检率,MR为漏检率,ACC为准确率。
与现有技术相比,本发明的有益效果在于,1)本发明首次提供了一种具有可行性和有效性的基于改进的Faster R-CNN对于黄斑的准确定位,包括:①采用ResNet中的残差块加上Inception-v3多尺度结构代替原有的Faster R-CNN里的VGG-16网络作为特征提取网络,在特征提取时,不仅可以合适的获取目标,而且可以降低参数和计算的冗余,同时避免由于网络的加深而出现的梯度消失、梯度爆炸以及过拟合的问题;②将区域建议网络(Region Proposal Networks;RPN)进行了级联,形成了级联区域建议网络(CascadedRegion Proposal Networks;CRPN)代替原有的RPN结构,改善了浅层细节对于候选框的影响;③在得到候选框之后,加入上下文网络,使得在对黄斑进行定位时,既考虑了黄斑区域的形态学信息,又考虑了黄斑区域对于整个眼底的相对位置信息,提高了黄斑定位的有效性;2)本发明首次将深度学习方法应用于黄斑定位,利用改进的Faster R-CNN对于黄斑区域的有效定位,降低了视盘、血管对黄斑区域的影响,而且抗噪声干扰能力强,大大提高了黄斑区域的准确定位,对于眼底图像的后续分析和处理奠定了基础。
附图说明
图1为根据实施例的本发明方法的网络模型的结构示意图;
图2为根据实施例的本发明中特征提取网络的结构示意图;
图3为根据实施例的本发明中标准RPN的示意图;
图4为根据实施例的本发明中级联RPN的示意图;
图5为根据实施例的本发明中上下文网络的结构示意图;
图6(a)至图6(f)为根据实施例的本发明中黄斑定位结果的示意图。
具体实施方式
以下将结合附图对本发明各实施例的技术方案进行清楚、完整的描述,显然,所描述发实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施例,都属于本发明所保护的范围。
本发明提供一种基于改进Faster R-CNN的黄斑定位方法,包括以下步骤:
S1、采集训练样本:从Kaggle数据集中获取眼底图像,对获取的眼底图像进行黄斑区域标记,并将标记好的图像制作成VOC2007数据集的格式,构建训练样本集;
S2、构建网络模型:构建CNN特征提取网络、级联区域建议网络、上下文网络和判别网络,其中,所述CNN特征提取网络采用ResNet残差网络,包括卷积层、残差块、激励函数和池化层;所述级联区域建议网络由2个区域建议网络级联形成,包括卷积层,So ftmax分类层,bbox层;所述上下文网络包括残差块、池化层、全连接层、Softmax层和b box层;所述判别网络包括池化层、全连接层、激励函数层、Softmax层和bbox层构成;
S3、训练网络模型:初始化所述的特征提取网络、区域建议网络、上下文网络和判别网络,然后,通过输入已标记黄斑区域的图像对所述特征提取网络进行训练,得到ResNet特征提取网络模型;所述区域建议网络利用所述ResNet特征提取网络模型输出的特征图进行训练,得到级联区域建议网络模型;所述级联区域建议网络模型输出的区域建议边框映射到特征提取网络输出的特征图的相应区域,对该区域进行池化并送入所述上下文网络进行训练,得到上下文网络模型;所述判别网络根据所述上下文网络模型提供的候选区域进行判别,得到判别网络模型;
S4、构建检测模型:将所述的ResNet特征提取网络模型、级联区域建议网络模型、上下文网络模型和判别网络模型组合成改进后的Faster R-CNN检测网络,利用训练样本集中的训练数据对所述改进后的Faster R-CNN检测网络进行训练,训练50次,得到黄斑区域检测和定位网络模型;
S5、黄斑检测与定位:利用所述黄斑区域检测和定位网络模型对待检测的眼底图像进行黄斑区域检测和定位,得到眼底图像黄斑区域的候选框,调整候选框阈值,采用非极大值抑制,得到最终的候选框。
具体地,训练网络模型的步骤进一步包括:训练模型分两步,第一步联合训练特征提取网络和区域建议网络,得到提取预选框的模型,其中特征提取网络是由ResNet网络进行的特征提取;第二步,利用由提取预选框模型预测出来的边框映射到特征提取网络输出特征图的相应区域,进行感兴趣区域池化(ROI池化),然后再训练特征提取网络以及上下文网络和判别网络。所述的上下文网络和判别网络属于分类和边框回归模块。
作为一种优选的实施方案,如图1所示,本方法主要包括3个模块:特征提取网络、区域建议网络、上下文网络。
具体地,所述CNN特征提取网络采用ResNet中的残差块加上Inception-v3多尺度结构作为特征提取网络。在目标检测算法中,目前的进展主要得益于区域建议网络和基于区域的卷积神经网络(Region-basedConvolutional Neural Networks;R-CNN)的成功。另外,通过RPN和CNN之间共享特征提取网络,大大降低了计算成本。在特征提取模块中,由于ResNet采用残差连接和批归一化,使得网络更加深入,学习能力更强,使得深度学习模型的训练更加容易,可以很好的防止层数过多导致的过拟合。对于特征不明显的黄斑区域,具有很好的特征提取效果。同时,本发明参考了GoogLeNet的多尺度结构,发现Inceptio n-v3是捕获输入图像中不同大小对象的最具有成本效益的构建模块之一,因为这样的结构可以减少冗余。本发明中采用的是3*3卷积核以及1*1卷积核,具体的结构见图2。
具体地,通过特征提取网络之后,便生成了一个多通道的特征图。下一步是在特征图上应用滑动窗口加上anchor(锚点)的机制。该部分借鉴了经典定位网络Faster R-CNN里的RPN结构,图3显示了标准的RPN结构。在每个滑动窗口位置,都会生成proposal(建议区域),并把每个位置的最大可能性的框的数量设置为K,所以reg(回归层)就会产生4*K个输出,这是由K个框的坐标产生的,(cls)分类层会产生2*K个输出,用于判断每个建议区域是否为目标。K个建议区域便有K个参考框,我们将其称之为锚点参考框。和原始的Faster R-CNN一样,我们的RPN使用了9个锚点参考框(K=9),并满足3种比例(1:1,1:2,2:1)和3种刻度(128,256,512)。滑动窗口加上锚的作用相当于Fast R-CNN生成建议区域时选择性搜索的作用类似。图4中的分数与图3中的得分表达相同的意义,每个区域都会有2K个得分,2是因为前景和背景,k就是有K个锚点参考框,然后每个区域根据得分进行排序,然后最后对特征图中所有的得分排序,在具体实施中,可以选取2000个proposal,最后采用非极大值抑制,得到最后的300个预选框。
同时,本发明对RPN进行了两次提取,提出了RPN级联结构,如图4所示,在原始RPN(RPN2)之前,添加一个子网络(RPN1)。级联RPN的目的主要是对目标区域进行深度提取,减少低层细节对最终得分框的影响。
具体地,黄斑中心是位于眼底中心的淡红色圆点,一些不太有效的眼底图像此区域是暗的,对于整个眼底,这个区域特别容易收到血管、阴影等干扰。因此,许多传统的算法会结合视盘的位置选择候选区域进行定位,然而,考虑到视盘的位置去推断黄斑的位置将不可避免的影响检测速度,因此在本发明中,考虑候选者的特殊性,加入一些限定性条件,以减少误判。在级联RPN后添加了上下文网络,该网络主要是将全局特征以及局部形态学特征结合起来,实现有效定位。具体的结构如图5所示。分别提取特征图中的目标信息和全局特征信息,然后在全连接层之前将其得到的特征图进行通道叠加。在上下文网络中,卷积过程使用的是残差模块。残差块可以参考图2的结构。
具体地,在区域建议网络的训练过程中,为每一个锚点参考框分配一个二进制标签,将与金标准框的IoU大于0.7的锚点参考框贴上正标签,将与金标准框的IoU小于0.3的锚点参考框贴上负标签,将处于二者之间的既不积极又不消极的锚点参考框直接丢弃。所谓“金标准”是指当前临床医学界公认的分析疾病的最可靠、最准确、最好的方法。金标准框也就是对应公认的最合适的框,也就是正确的框。
具体地,在检测阶段,当候选框的交并比与金标准框的重叠度大于0.5时,认为所述候选框是一个真实的候选者。
具体地,所述方法采用误检率、漏检率和准确率这三个指标来评价黄斑定位结果,并计算如下:
其中FP为误检个数,FN为漏检个数,ALL为全部的眼底图像,FPR为误检率,MR为漏检率,ACC为准确率。
作为一种优选的实施方案,本发明一共使用4140张图像,包括正常和异常眼底,数据来源于Kaggle数据集。我们随机选取3355张图像作为训练集,剩余785张图像作为测试集。其中黄斑的位置是由人工进行标记。本文中的网络主要与经典的Faster R-CNN(V GG+RPN)和改进后的Faster R-CNN(ResNet+RPN)进行比较,表1显示了采用这三个网络进行黄斑定位的对比结果。
表1
部分实验结果如图6(a)至图6(f)所示。图中矩形框即是定位结果,其中1表示正确识别目标,后面的数字表示该目标是黄斑的概率大小。与经典的定位算法Faster R-CNN相比,本发明中提出的算法,大大提升了定位的准确性,平均准确率达到了98.09%,为后续眼底彩照图像的进一步分析与处理奠定坚实基础。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案。
Claims (8)
1.一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,包括以下步骤:
S1、采集训练样本:从Kaggle数据集中获取眼底图像,对获取的眼底图像进行黄斑区域标记,并将标记好的图像制作成VOC2007数据集的格式,构建训练样本集;
S2、构建网络模型:构建CNN特征提取网络、级联区域建议网络、上下文网络和判别网络,其中,所述CNN特征提取网络采用ResNet残差网络,包括卷积层、残差块、激励函数和池化层;所述级联区域建议网络由2个区域建议网络级联形成,包括卷积层,Softmax分类层,bbox层;所述上下文网络包括残差块、池化层、全连接层、Softmax层和bbox层;所述判别网络包括池化层、全连接层、激励函数层、Softmax层和bbox层构成;
S3、训练网络模型:初始化所述的特征提取网络、区域建议网络、上下文网络和判别网络,然后,通过输入已标记黄斑区域的图像对所述特征提取网络进行训练,得到ResNet特征提取网络模型;所述区域建议网络利用所述ResNet特征提取网络模型输出的特征图进行训练,得到级联区域建议网络模型;所述级联区域建议网络模型输出的区域建议边框映射到特征提取网络输出的特征图的相应区域,对该区域进行池化并送入所述上下文网络进行训练,得到上下文网络模型;所述判别网络根据所述上下文网络模型提供的候选区域进行判别,得到判别网络模型;
S4、构建检测模型:将所述的ResNet特征提取网络模型、级联区域建议网络模型、上下文网络模型和判别网络模型组合成改进后的Faster R-CNN检测网络,利用训练样本集中的训练数据对所述改进后的Faster R-CNN检测网络进行训练,训练50次,得到黄斑区域检测和定位网络模型;
S5、黄斑检测与定位:利用所述黄斑区域检测和定位网络模型对待检测的眼底图像进行黄斑区域检测和定位,得到眼底图像黄斑区域的候选框,调整候选框阈值,采用非极大值抑制,得到最终的候选框。
2.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,所述CNN特征提取网络采用ResNet中的残差块加上Inception-v3多尺度结构作为特征提取网络。
3.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,构建网络模型的步骤中,所述卷积层采用两个尺度的卷积核。
4.根据权利要求3所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,所述两个尺度的卷积核包括:3*3卷积核和1*1卷积核。
5.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,训练网络模型的步骤进一步包括:训练模型分两步,第一步联合训练特征提取网络和区域建议网络,得到提取预选框的模型,其中特征提取网络是由ResNet网络进行的特征提取;第二步,利用由提取预选框模型预测出来的边框映射到特征提取网络输出特征图的相应区域,进行感兴趣区域池化,然后再训练特征提取网络以及上下文网络和判别网络。
6.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,在区域建议网络的训练过程中,为每一个锚点参考框分配一个二进制标签,将与金标准框的IoU大于0.7的锚点参考框贴上正标签,将与金标准框的IoU小于0.3的锚点参考框贴上负标签,将处于二者之间的既不积极又不消极的锚点参考框直接丢弃。
7.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,在检测阶段,当候选框的交并比与金标准框的重叠度大于0.5时,认为所述候选框是一个真实的候选者。
8.根据权利要求1所述的一种基于改进Faster R-CNN的黄斑定位方法,其特征在于,所述方法采用误检率、漏检率和准确率这三个指标来评价黄斑定位结果,并计算如下:
其中FP为误检个数,FN为漏检个数,ALL为全部的眼底图像,FPR为误检率,MR为漏检率,ACC为准确率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811080814.5A CN109377474B (zh) | 2018-09-17 | 2018-09-17 | 一种基于改进Faster R-CNN的黄斑定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811080814.5A CN109377474B (zh) | 2018-09-17 | 2018-09-17 | 一种基于改进Faster R-CNN的黄斑定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109377474A true CN109377474A (zh) | 2019-02-22 |
CN109377474B CN109377474B (zh) | 2021-06-15 |
Family
ID=65404762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811080814.5A Active CN109377474B (zh) | 2018-09-17 | 2018-09-17 | 一种基于改进Faster R-CNN的黄斑定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109377474B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934823A (zh) * | 2019-03-25 | 2019-06-25 | 天津工业大学 | 一种基于深度学习的dr眼底图像黄斑水肿分级方法 |
CN110276754A (zh) * | 2019-06-21 | 2019-09-24 | 厦门大学 | 一种表面缺陷检测方法、终端设备及存储介质 |
CN110555842A (zh) * | 2019-09-10 | 2019-12-10 | 太原科技大学 | 一种基于锚点集优化的硅片图像缺陷检测方法 |
CN110786824A (zh) * | 2019-12-02 | 2020-02-14 | 中山大学 | 基于边界框修正网络的粗标注眼底照出血病变检测方法及系统 |
CN111080596A (zh) * | 2019-12-11 | 2020-04-28 | 浙江工业大学 | 一种融合局部阴影与全局特征的尘肺病辅助筛查方法及系统 |
CN111311506A (zh) * | 2020-01-21 | 2020-06-19 | 辽宁师范大学 | 基于双残差网络的低剂量ct牙齿图像去噪方法 |
CN111402246A (zh) * | 2020-03-20 | 2020-07-10 | 北京工业大学 | 一种基于联合网络的眼底图像分类方法 |
CN111402243A (zh) * | 2020-03-20 | 2020-07-10 | 林晨 | 黄斑中心凹识别方法及终端 |
CN111414896A (zh) * | 2020-04-10 | 2020-07-14 | 吉林农业大学 | 一种基于卷积神经网络农作物病害图像识别方法 |
CN111507998A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 基于深度级联的多尺度激励机制隧道表面缺陷分割方法 |
CN111812096A (zh) * | 2020-06-02 | 2020-10-23 | 国网浙江嘉善县供电有限公司 | 一种绝缘子电弧烧伤的快速定位智能图像检测方法 |
CN112017187A (zh) * | 2020-11-02 | 2020-12-01 | 平安科技(深圳)有限公司 | 眼底图像黄斑中心定位方法及装置、服务器、存储介质 |
WO2021068523A1 (zh) * | 2019-10-11 | 2021-04-15 | 平安科技(深圳)有限公司 | 眼底图像黄斑中心定位方法、装置、电子设备及存储介质 |
TWI817121B (zh) * | 2021-05-14 | 2023-10-01 | 宏碁智醫股份有限公司 | 分類老年性黃斑部退化的程度的分類方法和分類裝置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107346420A (zh) * | 2017-06-19 | 2017-11-14 | 中国科学院信息工程研究所 | 一种基于深度学习的自然场景下文字检测定位方法 |
CN107463892A (zh) * | 2017-07-27 | 2017-12-12 | 北京大学深圳研究生院 | 一种结合上下文信息和多级特征的图像中行人检测方法 |
-
2018
- 2018-09-17 CN CN201811080814.5A patent/CN109377474B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107346420A (zh) * | 2017-06-19 | 2017-11-14 | 中国科学院信息工程研究所 | 一种基于深度学习的自然场景下文字检测定位方法 |
CN107463892A (zh) * | 2017-07-27 | 2017-12-12 | 北京大学深圳研究生院 | 一种结合上下文信息和多级特征的图像中行人检测方法 |
Non-Patent Citations (1)
Title |
---|
ZHU Y等: "Couplenet: coupling global structure with local parts for object detection", 《THE IEEE INTERNATIONAL CONFERENCE》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934823A (zh) * | 2019-03-25 | 2019-06-25 | 天津工业大学 | 一种基于深度学习的dr眼底图像黄斑水肿分级方法 |
CN110276754A (zh) * | 2019-06-21 | 2019-09-24 | 厦门大学 | 一种表面缺陷检测方法、终端设备及存储介质 |
CN110276754B (zh) * | 2019-06-21 | 2021-08-20 | 厦门大学 | 一种表面缺陷检测方法、终端设备及存储介质 |
CN110555842A (zh) * | 2019-09-10 | 2019-12-10 | 太原科技大学 | 一种基于锚点集优化的硅片图像缺陷检测方法 |
JP7242906B2 (ja) | 2019-10-11 | 2023-03-20 | 平安科技(深▲せん▼)有限公司 | 眼底画像から黄斑中心を位置特定する方法、装置、電子機器及び記憶媒体 |
JP2022534209A (ja) * | 2019-10-11 | 2022-07-28 | 平安科技(深▲せん▼)有限公司 | 眼底画像から黄斑中心を位置特定する方法、装置、電子機器及び記憶媒体 |
WO2021068523A1 (zh) * | 2019-10-11 | 2021-04-15 | 平安科技(深圳)有限公司 | 眼底图像黄斑中心定位方法、装置、电子设备及存储介质 |
CN110786824A (zh) * | 2019-12-02 | 2020-02-14 | 中山大学 | 基于边界框修正网络的粗标注眼底照出血病变检测方法及系统 |
CN110786824B (zh) * | 2019-12-02 | 2021-06-15 | 中山大学 | 基于边界框修正网络的粗标注眼底照出血病变检测方法及系统 |
CN111080596A (zh) * | 2019-12-11 | 2020-04-28 | 浙江工业大学 | 一种融合局部阴影与全局特征的尘肺病辅助筛查方法及系统 |
CN111311506B (zh) * | 2020-01-21 | 2023-05-09 | 辽宁师范大学 | 基于双残差网络的低剂量ct牙齿图像去噪方法 |
CN111311506A (zh) * | 2020-01-21 | 2020-06-19 | 辽宁师范大学 | 基于双残差网络的低剂量ct牙齿图像去噪方法 |
CN111402243B (zh) * | 2020-03-20 | 2023-08-11 | 智眸医疗(深圳)有限公司 | 黄斑中心凹识别方法及终端 |
CN111402243A (zh) * | 2020-03-20 | 2020-07-10 | 林晨 | 黄斑中心凹识别方法及终端 |
CN111402246A (zh) * | 2020-03-20 | 2020-07-10 | 北京工业大学 | 一种基于联合网络的眼底图像分类方法 |
CN111414896A (zh) * | 2020-04-10 | 2020-07-14 | 吉林农业大学 | 一种基于卷积神经网络农作物病害图像识别方法 |
CN111507998A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 基于深度级联的多尺度激励机制隧道表面缺陷分割方法 |
CN111812096A (zh) * | 2020-06-02 | 2020-10-23 | 国网浙江嘉善县供电有限公司 | 一种绝缘子电弧烧伤的快速定位智能图像检测方法 |
CN111812096B (zh) * | 2020-06-02 | 2023-07-07 | 国网浙江嘉善县供电有限公司 | 一种绝缘子电弧烧伤的快速定位智能图像检测方法 |
WO2021190656A1 (zh) * | 2020-11-02 | 2021-09-30 | 平安科技(深圳)有限公司 | 眼底图像黄斑中心定位方法及装置、服务器、存储介质 |
CN112017187A (zh) * | 2020-11-02 | 2020-12-01 | 平安科技(深圳)有限公司 | 眼底图像黄斑中心定位方法及装置、服务器、存储介质 |
TWI817121B (zh) * | 2021-05-14 | 2023-10-01 | 宏碁智醫股份有限公司 | 分類老年性黃斑部退化的程度的分類方法和分類裝置 |
Also Published As
Publication number | Publication date |
---|---|
CN109377474B (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109377474A (zh) | 一种基于改进Faster R-CNN的黄斑定位方法 | |
Abdullah et al. | Localization and segmentation of optic disc in retinal images using circular Hough transform and grow-cut algorithm | |
Lim et al. | Automatic classification of diabetic macular edema in digital fundus images | |
Sopharak et al. | Automatic detection of diabetic retinopathy exudates from non-dilated retinal images using mathematical morphology methods | |
Masumoto et al. | Deep-learning classifier with an ultrawide-field scanning laser ophthalmoscope detects glaucoma visual field severity | |
Karegowda et al. | Exudates detection in retinal images using back propagation neural network | |
Palavalasa et al. | Automatic diabetic retinopathy detection using digital image processing | |
Feeny et al. | Automated segmentation of geographic atrophy of the retinal epithelium via random forests in AREDS color fundus images | |
Yang et al. | Efficacy for differentiating nonglaucomatous versus glaucomatous optic neuropathy using deep learning systems | |
CN110648344A (zh) | 一种基于局部病灶特征的糖尿病视网膜病变分类装置 | |
Qin et al. | Optic disc and cup segmentation based on deep learning | |
Nayak et al. | Automatic identification of diabetic maculopathy stages using fundus images | |
Yang et al. | Classification of diabetic retinopathy severity based on GCA attention mechanism | |
Sreejini et al. | Automatic grading of severity of diabetic macular edema using color fundus images | |
Suero et al. | Locating the Optic Disc in Retinal Images Using Morphological Techniques. | |
CN106780439A (zh) | 一种筛选眼底图像的方法 | |
Aljazaeri et al. | Faster R-CNN and DenseNet regression for glaucoma detection in retinal fundus images | |
Arslan et al. | Deep learning applied to automated segmentation of geographic atrophy in fundus autofluorescence images | |
Sigit et al. | Classification of cataract slit-lamp image based on machine learning | |
Tan et al. | Automatic detection of pathological myopia using variational level set | |
Mudaser et al. | Diabetic retinopathy classification with pre-trained image enhancement model | |
Septiarini et al. | Peripapillary atrophy detection in fundus images based on sectors with scan lines approach | |
Ang et al. | Computer-based identification of diabetic maculopathy stages using fundus images | |
Priya et al. | A novel approach to the detection of macula in human retinal imagery | |
Pan et al. | An optic disk semantic segmentation method based on weakly supervised learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |