CN110517235A - 一种基于GCS-Net进行OCT图像脉络膜自动分割方法 - Google Patents
一种基于GCS-Net进行OCT图像脉络膜自动分割方法 Download PDFInfo
- Publication number
- CN110517235A CN110517235A CN201910762318.6A CN201910762318A CN110517235A CN 110517235 A CN110517235 A CN 110517235A CN 201910762318 A CN201910762318 A CN 201910762318A CN 110517235 A CN110517235 A CN 110517235A
- Authority
- CN
- China
- Prior art keywords
- gcs
- net
- characteristic pattern
- choroid
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于GCS‑Net进行OCT图像脉络膜自动分割方法,包括以下步骤:数据获取和预处理;构建GCS‑Net网络模型,采用U‑Net结构作为基础网络,在编码路径与解码路径之间的每层跨越连接层采用组间通道膨胀模块(GCD)进行连接,在解码路径中每层反卷积层后采用组间空间膨胀模块(GSD)进行层间连接;对训练好的GCS‑Net网络模型进行测试,将待分割图像输入构建好的模型中,输出对应的脉络膜分割图。上述两个模块采用两种方式分别自动选择组间的多尺度信息,显著提高了脉络膜自动分割的准确性,且适用对象可扩展至病理性近视或含视神经乳头的视网膜图像,本发明有利于提高脉络膜定量分析的准确率以及有利于全面获取三维大视野数据中脉络膜的形态信息。
Description
技术领域
本发明涉及一种基于GCS-Net进行OCT图像脉络膜自动分割方法,属于眼底图像分割技术领域。
背景技术
脉络膜是介于视网膜色素上皮层(RPE)和巩膜之间的一层复杂血管系统,具有非常重要的生理功能。OCT图像中脉络膜厚度的分布和体积的变化已成为管理视网膜疾病的重要指标。很多疾病与脉络膜的形态息息相关,如病理性近视(PM)、青光眼、年龄相关性黄斑变性(AMD),中央浆液性脉络膜视网膜病变(CSC)、近视黄斑病变,脉络膜炎等。实现OCT图像中脉络膜的自动分割对发现早期病变、观测病程和研究病理都具有重要意义。
以1050纳米为中心波长的扫频光学相干断层成像(SS-OCT)是一种高分辨率、非接触性、无创性的生物组织成像技术,以微米分辨率进行眼前节和眼后节组织的断层成像,生成包括黄斑、视盘在内的眼生物组织的横断面图像,图像中能够看到完整的脉络膜结构以及部分巩膜结构。
目前传统算法和深度学习均能对OCT图像中脉络膜进行分割,但都有着一定的局限性和不足:(1)传统算法复杂且脉络膜下边界检测的准确率不高。(2)很多传统算法仅适用于正常视网膜,或仅适用于以黄斑为中心的图像,对于病理性近视或含视神经乳头(ONH)的视网膜,检测变得更加复杂且困难。(3)深度学习虽然能够弥补传统算法的不足,但现有的大部分网络都是对同层的所有特征图进行统一的处理,导致网络在同层中感受野相同,从而获取的局部信息单一。(4)随着网络连续的下采样以及带有步长的卷积操作,仅能在同层获取单一尺寸信息的缺陷越来越明显,从而导致脉络膜的分割不够精准。
发明内容
本发明所要解决的技术问题是,提供一种分割准确性更高的OCT图像脉络膜自动分割方法,且适用范围可扩大至病理性近视或含视神经乳头的视网膜图像分割。
为解决上述技术问题,本发明采用的技术方案为:
一种基于GCS-Net进行OCT图像脉络膜自动分割方法,此处GCS-Net定义为组间上下文选择网络,本方法包括以下步骤:
数据获取和预处理,数据集为人眼三维OCT图像,对上述数据进行预处理作为训练集样本;
构建GCS-Net网络模型,利用训练集样本对所述GCS-Net网络进行训练,所述GCS-Net网络采用U-Net结构作为基础网络,在编码路径与解码路径之间的每层跨越连接层采用组间通道膨胀模块(GCD)进行连接,在解码路径中每层反卷积层后采用组间空间膨胀模块(GSD)进行层间连接;
所述组间通道膨胀模块将输入的特征图分为多组,对分组的特征图分别进行不同膨胀率的膨胀卷积操作,同时对分组的特征图进行特征提取、输出,获得所有分组的通道信息,将其作为权重与膨胀卷积操作后的所有分组特征图对应相乘得到各组特征图,将所有分组特征图拼接后与输入的特征图进行残差操作输出该模块的预测图;
所述组间空间膨胀模块将输入的特征图分为多组,对分组的特征图分别进行不同膨胀率的膨胀卷积操作,同时对分组的特征图进行特征提取、输出,获得所有分组的空间信息,将其作为空间权重与膨胀卷积操作后的所有分组特征图对应相乘得到各组特征图,将所有分组特征图拼接后与输入的特征图进行残差操作输出该模块的预测图;
对训练好的GCS-Net网络模型进行测试;
将待分割图像输入构建好的模型中,输出对应的脉络膜分割图。
进一步的,所述GCS-Net网络模型采用的损失函数为二值交叉熵损失(BCE)和戴斯(Dice)损失组合构成的联合损失函数,Dice损失LDice和BCE损失LBCE的公式如下:
这里的N是预测图中总的像素数量,pi∈[0,1]和gi∈{0,1}分别表示像素i预测为目标前景的概率和金标准的真实标签,ε是平滑因子;
最终的联合损失函数LTotal的公式为:
LTotal=LDice+λLBCE (3)
这里的λ是Dice损失和BCE损失的平衡系数。
进一步的,所述数据预处理方法为将大小为512(B扫描宽度)×992(B扫描深度)的原始OCT图像双线性插值下采样到256(B扫描宽度)×512(B扫描深度),并通过对图像进行随机的左右翻转以模拟左右眼图像的方式进行数据增强。
进一步的,所述GCS-Net网络结构为4层结构的U-Net网络,编码路径每层采用两个3×3卷积层和最大池化层进行特征提取,每层特征图经所述组间通道膨胀模块连接对应的解码层,在解码路径每层采用3×3卷积层、上采样层以及1×1卷积层进行恢复,每层特征图经所述组间空间膨胀模块连接对应的解码层,输出层采用3×3卷积层以及1×1卷积层进行输出,除输出层以外的所有卷积层均加入批正则化(BN)和修正线性单元(ReLU)来校正数据分布。
进一步的,所述组间通道膨胀模块将特征图平均分为4组,每组分别进行膨胀率为1、2、4、6的膨胀卷积操作。
进一步的,所述组间通道膨胀模块中对分组的特征图进行特征提取输出步骤包括:平均池化、卷积、批正则化以及激活操作后,通过softmax回归获得所有分组的通道信息。
进一步的,所述组间空间膨胀模块将特征图平均分为3组,每组分别进行膨胀率为1、3、5的膨胀卷积操作。
进一步的,所述组间空间膨胀模块对分组的特征图进行特征提取输出步骤包括:下采样、卷积、批正则化、激活、上采样、卷积、批正则化、激活操作后,通过softmax回归获得所有分组的空间信息。
进一步的,所述分割方法用于病理性近视或含视神经乳头(ONH)的视网膜三维OCT图像分割。
本发明所达到的有益效果:
1)本发明设计一个端到端的网络GCS-Net并进行训练,得到感受野与脉络膜分割目标区域一致的脉络膜分割模型,再将正常或高度近视的OCT图像送入到训练好的脉络膜分割模型中,从而得到相应的脉络膜分割图;
2)在GCS-Net的跨越连接层处设计组间通道膨胀模块(GCD),该模块能够在通道信息的指导下,对组间不同膨胀率卷积得到的多尺度信息进行选择,从而增强感受野与脉络膜分割目标区域的一致性;
3)在GCS-Net的译码路径中设计组间空间膨胀模块(GSD),该模块能够在空间信息的指导下,对组间不同膨胀率卷积得到的多尺度信息进行选择,从而增强感受野与脉络膜分割目标区域的一致性;
本发明首次提出了一种具有可行性和有效性的针对中心波长为1050纳米的扫频光学相干断层成像扫描仪采集的大视野三维OCT图像中正常和高度近视的脉络膜的自动分割方法,该方法均能够自动且准确的分割出被定义为脉络膜上边界的布鲁赫膜(BM)以及被定义为下边界的脉络膜-巩膜分界面(CSI)。对正常或病变脉络膜的厚度和形态的定量分析具有重要作用。
附图说明
图1是实施例采用的组间通道膨胀模块(GCD)的内部组成;
图2是实施例采用的组间空间膨胀模块(GSD)的内部组成;
图3是实施例构建的GCS-Net的整体网络结构;
图4是脉络膜分割结果;其中,(a)和(b)分别是正常人眼不含视盘和含视盘的横向扫描图像的分割结果;(c)是高度近视人眼横向扫描图像的分割结果;(d)是病理性高度近视人眼的横向扫描图像的分割结果。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
一种基于GCS-Net进行OCT图像脉络膜自动分割方法,包括以下步骤:
数据获取和预处理,数据集为人眼三维OCT图像,对上述数据进行预处理作为训练集样本,数据集可采集自正常、病理性近视或含视神经乳头的视网膜图像,将采集数据进行统一规格处理用于模型输入。
构建GCS-Net网络模型,利用训练集样本对所述GCS-Net网络进行训练,所述GCS-Net网络采用U-Net结构作为基础网络,在编码路径与解码路径之间的每层跨越连接层采用组间通道膨胀模块(GCD)进行连接,在解码路径中每层反卷积层后采用组间空间膨胀模块(GSD)进行层间连接;
所述组间通道膨胀模块将输入的特征图分为多组,对分组的特征图分别进行不同膨胀率的膨胀卷积操作,同时对分组的特征图进行特征提取、输出,获得所有分组的通道信息,将其作为权重与膨胀卷积操作后的所有分组特征图对应相乘得到各组特征图,将所有分组特征图拼接后与输入的特征图进行残差操作输出该模块的预测图;
所述组间空间膨胀模块将输入的特征图分为多组,对分组的特征图分别进行不同膨胀率的膨胀卷积操作,同时对分组的特征图进行特征提取、输出,获得所有分组的空间信息,将其作为空间权重与膨胀卷积操作后的所有分组特征图对应相乘得到各组特征图,将所有分组特征图拼接后与输入的特征图进行残差操作输出该模块的预测图;
对训练好的GCS-Net网络模型进行测试,将待分割图像输入构建好的模型中,输出对应的脉络膜分割图。
实施例
1)数据预处理
实验的数据集是由中心波长为1050纳米的Topcon DRI-OCT扫描仪采集的大视野三维OCT图像组成,扫描范围包括黄斑中心和视神经乳头(ONH)的区域。图像大小为512(B扫描宽度)×256(B扫描次数)×992(B扫描深度),对应的体积为12×9×2.6mm3。数据集由专业医生标注的1650张包含金标准的B扫描OCT图像组成,其中1150张来自115只正常人眼,500张来自50只高度近视人眼,每只人眼提取10个均匀间隔的B扫描OCT图像。
在训练和验证过程中,为提高模型的计算效率,将大小为512(B扫描宽度)×992(B扫描深度)的原始OCT图像双线性插值下采样到256(B扫描宽度)×512(B扫描深度),并对图像进行随机的左右翻转模拟左右眼图像的方式进行数据增强。
2)网络模型的设计
a)组间通道膨胀模块(GCD)
如图1所示本发明网络模型中组间通道膨胀模块(GCD)的结构。该模块将输入的一组特征图平均分成四组,每组进行膨胀率为1、2、4、6的膨胀卷积操作。膨胀率的选择是由脉络膜分割目标区域的大小决定的。膨胀卷积操作后得到四组不同尺度的特征图。同时对输入的这组特征图进行全局平均池化、卷积、激活等操作,最后通过softmax回归返回四组通道信息。这里需要说明的是softmax回归是按组进行的,四组通道信息进行垂直方向的softmax操作从而自适应的选择不同尺度信息。然后将四组通道信息作为权重与前面得到的四组不同尺度的特征图相乘得到四组特征图,哪组通道信息权重越大,说明该组对应的感受野对最终网络预测的贡献越大。最后将得到的4组特征图拼接起来再与输入的特征图进行一个残差操作从而输出最终模块的预测图。因此,该模块利用分组的思想,在通道信息的指导下,自动对组间多尺度信息进行选择。
b)组间空间膨胀模块(GSD)
图2是组间空间膨胀模块(GSD)的结构。与GCD模块一样,本发明设计的GSD模块以另一种方式实现组间多尺度信息的选择,增强感受野与分割目标区域的一致性。该模块将输入的一组特征图分成三组,这里没必要使每组的通道数完全相同,然后每组进行膨胀率为1、3、5的膨胀卷积操作得到三组不同尺度的特征图。同时,将输入的这组特征图经过一系列操作得到三张具有空间权重的特征图,在这些操作中,下采样的目的是为了获取更多的全局信息,上采样的目的是恢复特征图的大小,softmax回归是使模块能够自动的对多尺度信息进行选择。然后将三张空间权重特征图与前面得到的三组不同尺度的特征图相乘得到三组特征图。最后将得到的三组特征图进行拼接再与输入的特征图进行一个残差操作输出最终模块的预测图。因此该模块是在空间信息的指导下,对一组特征图进行组间多尺度信息的选择。
c)网络模型整体框架
在GCD和GSD的基础上,本发明设计了一个微量型的深度学习网络框架(GCS-Net)来自动分割OCT图像中的脉络膜,网络模型的整体框架如图3所示。由于GCD和GSD具有强大的多尺度信息选择的能力,所以本发明仅使用基于编码-解码结构的4层U-net作为基础网络。在编码路径中仅使用两个3×3卷积和最大池化来快速的获取不同分辨率的特征图,在解码路径中使用多个简单的解码块快速有效地恢复出高分辨率的特征图,除了输出最终预测图的最后两个卷积层外,网络中其他卷积层都加了批正则化(BN)和修正线性单元(ReLU)来校正数据的分布。网络模型将发明的GCD模块放在网络的跨越连接层,目的是利用GCD,在编码路径的每层自动的对多尺度信息进行选择,从而弥补原来编码器将单一信息传递给译码器的不足。同时将发明的GSD放在解码器部分,目的是利用GSD进行多尺度信息的选择,从而来弥补上采样过程中全局信息丢失的缺陷。
d)损失函数
在像素级别的二值分割任务中,最常见的损失是二值交叉熵损失(BCE),它可以解决医学图像中数据不平衡的问题。而戴斯(Dice)损失更加侧重于小目标的分割,例如本文中高度近视的脉络膜分割。本次发明将BCE损失与Dice损失相结合作为联合损失函数,来解决脉络膜分割问题中数据不平衡以及脉络膜分割目标区域不均匀的问题。Dice损失LDice和BCE损失LBCE的具体公式如下:
这里的N是预测图中总的像素数量。pi∈[0,1]和gi∈{0,1}分别表示像素i预测为目标前景的概率和金标准的真实标签,ε是平滑因子,取值范围为[0.1,1]。
最终的联合损失函数LTotal的公式为:
LTotal=LDice+λLBCE (3)
这里的λ是Dice损失和BCE损失的平衡系数,这里的λ值设为1,为了公平,所有实验都采用这里的联合损失函数。
3)模型的训练和测试
我们对1650张含金标准的数据集进行5折交叉验证,每折将1320张不含脉络膜分割上下边界的OCT图像端对端的训练到含有脉络膜上下边界的OCT图像,训练过程中采用初始学习率为0.01,动量为0.9,权值衰减系数为0.0001的随机梯度下降(SGD)算法对网络进行优化,并且每次送入网络的图片数量为8,网络模型在迭代次数达到60次时即可训练好。训练结束后,将330张验证数据送入到训练好的模型中进行预测,得到这330张脉络膜分割图。
4)实验结果
为定量评价本发明的性能,将测试集预测的脉络膜分割结果与医生标注的金标准进行比较,采用四种分割评价指标:交并比(IoU)、Dice系数(DSC)、灵敏度(Sen)和特异性(Spe)进行评价,具体公式如表一所示。在与FCN网络做对比的过程中又添加脉络膜相对上边界误差、相对下边界误差、以及厚度误差三个指标进行评价。
表1评价指标的具体公式
IoU | TP/(TP+FP+FN) |
DSC | 2TP/(2TP+FP+FN) |
Sen | TP/(TP+FN) |
Spe | TN/(FP+TN) |
(TP:真阳性;FP:假阳性;TN:真阴性;FN:假阴性)
通过消融实验来细化本发明的两个模块对最终结果的贡献。如表2所示,就IoU指标来说,GCD模块加入基础网络后,性能提高0.67%,GSD模块加入基础网络后,性能提高0.94%,说明GSD贡献略大。将GCD和GSD都添加到基础网络,组成GCS-Net,参数量仅有6.7M,但性能总体提高了1.21%,说明本发明构建的微量型深度学习网络框架(GCS-Net)的性能优越。
表2消融实验的结果
方法 | IoU(%) | DSC(%) | Sen(%) | Spe(%) | 参数量 |
基础网络 | 90.38±0.80 | 94.67±0.59 | 95.36±0.95 | 94.31±1.27 | 4.88M |
基础网络+GCD | 91.05±0.90 | 95.06±0.62 | 95.40±0.47 | 94.95±1.17 | 6.02M |
基础网络+GSD | 91.32±1.10 | 95.16±0.80 | 96.10±0.59 | 94.64±0.93 | 5.56M |
GCS-Net | 91.59±0.83 | 95.36±0.58 | 96.02±0.46 | 95.01±0.55 | 6.70M |
表3是与传统的FCN网络进行比较的结果,可以看出,高度近视人眼相对于正常人眼的脉络膜厚度误差较小。这是因为在一般情况下,高度近视人眼相对于正常人眼的脉络膜厚度要更薄。就分割指标和误差指标来说,无论是正常人眼还是高度近视人眼的脉络膜,本发明方法的分割结果都比传统的FCN效果更好。从图4的可视化结果可以看出发明的GCS-Net无论是在边缘还是细节方面都做得更好。
表3与FCN网络对比的脉络膜分割结果分析
5)总结
本发明构建的用来自动分割OCT图像脉络膜的微量型深度学习网络框架(GCS-Net)得到了实现且验证,该网络能够自动的进行组间多尺度信息的选择,并根据分割目标区域的大小自动调节感受野的大小。在弥补传统算法分割高度近视脉络膜复杂且困难的缺点同时,本发明的方法也对现有的一些深度学习网络的缺点进行了改进。并且本发明的网络参数量非常小,发明的两个模块GCD和GSD,以两种不同的方式自动选择组间的多尺度信息。此外,本发明采用联合损失函数来解决数据不平衡和脉络膜分割目标区域不均匀的问题。
实验结果表明,本发明的这种自动进行组间多尺度信息选择的GCS-Net网络不仅能够准确的分割正常脉络膜还能分割高度近视脉络膜,并且网络不需要进行预处理就能够自动避免ONH区域和视网膜无效折叠的部分,这提高了脉络膜定量分析的准确率、有利于全面获取三维大视野数据中脉络膜的形态信息。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (9)
1.一种基于GCS-Net进行OCT图像脉络膜自动分割方法,其特征是,包括以下步骤:
数据获取和预处理,数据集为人眼三维OCT图像,对上述数据进行预处理作为训练集样本;
构建GCS-Net网络模型,利用训练集样本对所述GCS-Net网络进行训练,所述GCS-Net网络采用U-Net结构作为基础网络,在编码路径与解码路径之间的每层跨越连接层采用组间通道膨胀模块(GCD)进行连接,在解码路径中每层反卷积层后采用组间空间膨胀模块(GSD)进行层间连接;
所述组间通道膨胀模块将输入的特征图分为多组,对分组的特征图分别进行不同膨胀率的膨胀卷积操作,同时对分组的特征图进行特征提取、输出,获得所有分组的通道信息,将其作为权重与膨胀卷积操作后的所有分组特征图对应相乘得到各组特征图,将所有分组特征图拼接后与输入的特征图进行残差操作输出该模块的预测图;
所述组间空间膨胀模块将输入的特征图分为多组,对分组的特征图分别进行不同膨胀率的膨胀卷积操作,同时对分组的特征图进行特征提取、输出,获得所有分组的空间信息,将其作为空间权重与膨胀卷积操作后的所有分组特征图对应相乘得到各组特征图,将所有分组特征图拼接后与输入的特征图进行残差操作输出该模块的预测图;
对训练好的GCS-Net网络模型进行测试;
将待分割图像输入构建好的模型中,输出对应的脉络膜分割图。
2.根据权利要求1所述的一种基于GCS-Net进行OCT图像脉络膜自动分割方法,其特征是,所述GCS-Net网络模型采用的损失函数为二值交叉熵损失(BCE)和戴斯(Dice)损失组合构成的联合损失函数,Dice损失LDice和BCE损失LBCE的公式如下:
这里的N是预测图中总的像素数量,pi∈[0,1]和gi∈{0,1}分别表示像素i预测为目标前景的概率和金标准的真实标签,ε是平滑因子;
最终的联合损失函数LTotal的公式为:
LTotal=LDice+λLBCE (3)
这里的λ是Dice损失和BCE损失的平衡系数。
3.根据权利要求1所述的一种基于GCS-Net进行OCT图像脉络膜自动分割方法,其特征是,所述数据预处理方法为将大小为512(B扫描宽度)×992(B扫描深度)的原始OCT图像双线性插值下采样到256(B扫描宽度)×512(B扫描深度),并通过对图像进行随机的左右翻转以模拟左右眼图像的方式进行数据增强。
4.根据权利要求1所述的一种基于GCS-Net进行OCT图像脉络膜自动分割方法,其特征是,所述GCS-Net网络结构为4层结构的U-Net网络,编码路径每层采用两个3×3卷积层和最大池化层进行特征提取,每层特征图经所述组间通道膨胀模块连接对应的解码层,在解码路径每层采用3×3卷积层、上采样层以及1×1卷积层进行恢复,每层特征图经所述组间空间膨胀模块连接对应的解码层,输出层采用3×3卷积层以及1×1卷积层进行输出,除输出层以外的所有卷积层均加入批正则化(BN)和修正线性单元(ReLU)来校正数据分布。
5.根据权利要求4所述的一种基于GCS-Net进行OCT图像脉络膜自动分割方法,其特征是,所述组间通道膨胀模块将特征图平均分为4组,每组分别进行膨胀率为1、2、4、6的膨胀卷积操作。
6.根据权利要求1所述的一种基于GCS-Net进行OCT图像脉络膜自动分割方法,其特征是,所述组间通道膨胀模块中对分组的特征图进行特征提取输出步骤包括:平均池化、卷积、批正则化以及激活操作后,通过softmax回归获得所有分组的通道信息。
7.根据权利要求4所述的一种基于GCS-Net进行OCT图像脉络膜自动分割方法,其特征是,所述组间空间膨胀模块将特征图平均分为3组,每组分别进行膨胀率为1、3、5的膨胀卷积操作。
8.根据权利要求1所述的一种基于GCS-Net进行OCT图像脉络膜自动分割方法,其特征是,所述组间空间膨胀模块对分组的特征图进行特征提取输出步骤包括:下采样、卷积、批正则化、激活、上采样、卷积、批正则化、激活操作后,通过softmax回归获得所有分组的空间信息。
9.根据权利要求1所述的一种基于GCS-Net进行OCT图像脉络膜自动分割方法,其特征是,所述分割方法用于病理性近视或含视神经乳头(ONH)的视网膜三维OCT图像分割。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910762318.6A CN110517235B (zh) | 2019-08-19 | 2019-08-19 | 一种基于GCS-Net进行OCT图像脉络膜自动分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910762318.6A CN110517235B (zh) | 2019-08-19 | 2019-08-19 | 一种基于GCS-Net进行OCT图像脉络膜自动分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110517235A true CN110517235A (zh) | 2019-11-29 |
CN110517235B CN110517235B (zh) | 2021-10-19 |
Family
ID=68625762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910762318.6A Active CN110517235B (zh) | 2019-08-19 | 2019-08-19 | 一种基于GCS-Net进行OCT图像脉络膜自动分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110517235B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242928A (zh) * | 2020-01-14 | 2020-06-05 | 中国人民解放军陆军军医大学第二附属医院 | 基于多视角学习的心房全自动分割跟踪定位方法 |
CN111325755A (zh) * | 2020-01-21 | 2020-06-23 | 苏州大学 | 一种u型网络及角膜图像中神经纤维的分割方法 |
CN111444957A (zh) * | 2020-03-25 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置、计算机设备和存储介质 |
CN111815569A (zh) * | 2020-06-15 | 2020-10-23 | 广州视源电子科技股份有限公司 | 基于深度学习的图像分割方法、装置、设备和存储介质 |
CN111862114A (zh) * | 2020-07-10 | 2020-10-30 | 温州医科大学 | 一种基于光学相干断层扫描系统的脉络膜三维血管成像及定量化分析方法与装置 |
CN112168211A (zh) * | 2020-03-26 | 2021-01-05 | 成都思多科医疗科技有限公司 | 一种腹部超声图像的脂肪厚度和肌肉厚度测量方法及系统 |
CN112348825A (zh) * | 2020-10-16 | 2021-02-09 | 佛山科学技术学院 | 一种用于视网膜血流图像分割的DR-U-net网络方法及装置 |
CN112489048A (zh) * | 2020-12-01 | 2021-03-12 | 浙江工业大学 | 一种基于深度网络的视神经自动分割方法 |
CN112541878A (zh) * | 2020-12-24 | 2021-03-23 | 北京百度网讯科技有限公司 | 建立图像增强模型与图像增强的方法、装置 |
CN112712520A (zh) * | 2021-01-18 | 2021-04-27 | 佛山科学技术学院 | 一种基于ARU-Net脉络膜层分割方法 |
CN112750141A (zh) * | 2020-12-28 | 2021-05-04 | 中国科学院宁波材料技术与工程研究所慈溪生物医学工程研究所 | 基于as-oct图像的3d虹膜表面重建和量化方法及分割网络 |
CN112819831A (zh) * | 2021-01-29 | 2021-05-18 | 北京小白世纪网络科技有限公司 | 基于卷积Lstm及多模型融合的分割模型生成方法及装置 |
CN112884775A (zh) * | 2021-01-20 | 2021-06-01 | 推想医疗科技股份有限公司 | 一种分割方法、装置、设备及介质 |
CN113096166A (zh) * | 2019-12-17 | 2021-07-09 | 上海美杰医疗科技有限公司 | 一种医学影像配准的方法和装置 |
CN113610842A (zh) * | 2021-08-27 | 2021-11-05 | 苏州大学 | 基于CAS-Net的OCT图像视网膜脱离和劈裂自动分割方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648196A (zh) * | 2018-03-22 | 2018-10-12 | 广州多维魔镜高新科技有限公司 | 基于递归连接式卷积神经网络的图像分割方法及存储介质 |
CN109509178A (zh) * | 2018-10-24 | 2019-03-22 | 苏州大学 | 一种基于改进的U-net网络的OCT图像脉络膜分割方法 |
CN109685813A (zh) * | 2018-12-27 | 2019-04-26 | 江西理工大学 | 一种自适应尺度信息的u型视网膜血管分割方法 |
-
2019
- 2019-08-19 CN CN201910762318.6A patent/CN110517235B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648196A (zh) * | 2018-03-22 | 2018-10-12 | 广州多维魔镜高新科技有限公司 | 基于递归连接式卷积神经网络的图像分割方法及存储介质 |
CN109509178A (zh) * | 2018-10-24 | 2019-03-22 | 苏州大学 | 一种基于改进的U-net网络的OCT图像脉络膜分割方法 |
CN109685813A (zh) * | 2018-12-27 | 2019-04-26 | 江西理工大学 | 一种自适应尺度信息的u型视网膜血管分割方法 |
Non-Patent Citations (2)
Title |
---|
CHAO PENG 等: "large kernel matters——improve semantic segmentation by global convolutional network", 《ARXIV:1703.02719V1[CS.CV]》 * |
XUENA CHENG 等: "Choroid segmentation in OCT images based on improved U-net", 《PROCEEDINGS OF SPIE》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096166B (zh) * | 2019-12-17 | 2023-08-18 | 上海美杰医疗科技有限公司 | 一种医学影像配准的方法和装置 |
CN113096166A (zh) * | 2019-12-17 | 2021-07-09 | 上海美杰医疗科技有限公司 | 一种医学影像配准的方法和装置 |
CN111242928A (zh) * | 2020-01-14 | 2020-06-05 | 中国人民解放军陆军军医大学第二附属医院 | 基于多视角学习的心房全自动分割跟踪定位方法 |
CN111325755B (zh) * | 2020-01-21 | 2024-04-09 | 苏州大学 | 一种u型网络及角膜图像中神经纤维的分割方法 |
CN111325755A (zh) * | 2020-01-21 | 2020-06-23 | 苏州大学 | 一种u型网络及角膜图像中神经纤维的分割方法 |
CN111444957A (zh) * | 2020-03-25 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置、计算机设备和存储介质 |
CN111444957B (zh) * | 2020-03-25 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置、计算机设备和存储介质 |
CN112168211A (zh) * | 2020-03-26 | 2021-01-05 | 成都思多科医疗科技有限公司 | 一种腹部超声图像的脂肪厚度和肌肉厚度测量方法及系统 |
CN111815569A (zh) * | 2020-06-15 | 2020-10-23 | 广州视源电子科技股份有限公司 | 基于深度学习的图像分割方法、装置、设备和存储介质 |
CN111815569B (zh) * | 2020-06-15 | 2024-03-29 | 广州视源电子科技股份有限公司 | 基于深度学习的图像分割方法、装置、设备和存储介质 |
CN111862114A (zh) * | 2020-07-10 | 2020-10-30 | 温州医科大学 | 一种基于光学相干断层扫描系统的脉络膜三维血管成像及定量化分析方法与装置 |
CN112348825A (zh) * | 2020-10-16 | 2021-02-09 | 佛山科学技术学院 | 一种用于视网膜血流图像分割的DR-U-net网络方法及装置 |
CN112489048B (zh) * | 2020-12-01 | 2024-04-16 | 浙江工业大学 | 一种基于深度网络的视神经自动分割方法 |
CN112489048A (zh) * | 2020-12-01 | 2021-03-12 | 浙江工业大学 | 一种基于深度网络的视神经自动分割方法 |
CN112541878A (zh) * | 2020-12-24 | 2021-03-23 | 北京百度网讯科技有限公司 | 建立图像增强模型与图像增强的方法、装置 |
CN112750141A (zh) * | 2020-12-28 | 2021-05-04 | 中国科学院宁波材料技术与工程研究所慈溪生物医学工程研究所 | 基于as-oct图像的3d虹膜表面重建和量化方法及分割网络 |
CN112712520A (zh) * | 2021-01-18 | 2021-04-27 | 佛山科学技术学院 | 一种基于ARU-Net脉络膜层分割方法 |
CN112884775B (zh) * | 2021-01-20 | 2022-02-22 | 推想医疗科技股份有限公司 | 一种分割方法、装置、设备及介质 |
CN112884775A (zh) * | 2021-01-20 | 2021-06-01 | 推想医疗科技股份有限公司 | 一种分割方法、装置、设备及介质 |
CN112819831A (zh) * | 2021-01-29 | 2021-05-18 | 北京小白世纪网络科技有限公司 | 基于卷积Lstm及多模型融合的分割模型生成方法及装置 |
CN112819831B (zh) * | 2021-01-29 | 2024-04-19 | 北京小白世纪网络科技有限公司 | 基于卷积Lstm及多模型融合的分割模型生成方法及装置 |
CN113610842A (zh) * | 2021-08-27 | 2021-11-05 | 苏州大学 | 基于CAS-Net的OCT图像视网膜脱离和劈裂自动分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110517235B (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517235A (zh) | 一种基于GCS-Net进行OCT图像脉络膜自动分割方法 | |
Sadda et al. | Consensus definition for atrophy associated with age-related macular degeneration on OCT: classification of atrophy report 3 | |
Li et al. | Deep learning based early stage diabetic retinopathy detection using optical coherence tomography | |
CN109509178A (zh) | 一种基于改进的U-net网络的OCT图像脉络膜分割方法 | |
Norman et al. | Dimensions of the human sclera: thickness measurement and regional changes with axial length | |
Sigal et al. | Modeling individual-specific human optic nerve head biomechanics. Part I: IOP-induced deformations and influence of geometry | |
Hassan et al. | Deep learning based joint segmentation and characterization of multi-class retinal fluid lesions on OCT scans for clinical use in anti-VEGF therapy | |
CN109091167A (zh) | 冠状动脉粥样硬化斑块增长的预测方法 | |
JP2023145613A (ja) | 視力を予測するための眼の画像を処理するための深層学習の使用 | |
KR20070110837A (ko) | 심장판막 데이터 계측 방법 및 장치 | |
CN108765422A (zh) | 一种视网膜图像血管自动分割方法 | |
CN108618749A (zh) | 基于便携式数字化眼底照相机的视网膜血管三维重建方法 | |
Paul et al. | Octx: Ensembled deep learning model to detect retinal disorders | |
Chen et al. | Application of artificial intelligence and deep learning for choroid segmentation in myopia | |
CN109919932A (zh) | 目标对象的识别方法和装置 | |
Panda et al. | Changes in iris stiffness and permeability in primary angle closure glaucoma | |
Yao et al. | Joint segmentation of multi-class hyper-reflective foci in retinal optical coherence tomography images | |
Bai et al. | Cystoid macular edema segmentation of Optical Coherence Tomography images using fully convolutional neural networks and fully connected CRFs | |
Liu et al. | Semi-supervised automatic layer and fluid region segmentation of retinal optical coherence tomography images using adversarial learning | |
Alonso-Caneiro et al. | Automatic retinal and choroidal boundary segmentation in OCT images using patch-based supervised machine learning methods | |
Hassan et al. | Analysis of optical coherence tomography images using deep convolutional neural network for maculopathy grading | |
Liu et al. | A curriculum learning-based fully automated system for quantification of the choroidal structure in highly myopic patients | |
Alsaih et al. | Retinal fluids segmentation using volumetric deep neural networks on optical coherence tomography scans | |
JP7457315B2 (ja) | 情報処理装置、推論モデル生成方法、情報処理方法、及びプログラム | |
Leopold et al. | Deep learning for ophthalmology using optical coherence tomography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |