CN112712520A - 一种基于ARU-Net脉络膜层分割方法 - Google Patents

一种基于ARU-Net脉络膜层分割方法 Download PDF

Info

Publication number
CN112712520A
CN112712520A CN202110063276.4A CN202110063276A CN112712520A CN 112712520 A CN112712520 A CN 112712520A CN 202110063276 A CN202110063276 A CN 202110063276A CN 112712520 A CN112712520 A CN 112712520A
Authority
CN
China
Prior art keywords
choroid
aru
net
choroidal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110063276.4A
Other languages
English (en)
Inventor
王雪花
许祥丛
曾亚光
韩定安
林静怡
覃楚渝
刘明迪
翁祥涛
郭学东
王陆权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan University
Original Assignee
Foshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan University filed Critical Foshan University
Priority to CN202110063276.4A priority Critical patent/CN112712520A/zh
Publication of CN112712520A publication Critical patent/CN112712520A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于ARU‑Net脉络膜层分割方法,其包括如下步骤:采集OCT脉络膜图像;对OCT脉络膜图像进行处理以获取脉络膜数据集;将脉络膜数据集分成训练集、验证集以及测试集,并对训练集进行数据增强;构建ARU‑Net模型,并利用训练集以及验证集训练ARU‑Net模型;利用训练好的ARU‑Net模型对测试集进行预测,以获取脉络膜预测概率图;设定概率阈值,获取脉络膜分割预测图;根据脉络膜分割预测图获取脉络膜层边界。本发明可以对OCT脉络膜图像自动进行分割,以获取脉络膜层边界。

Description

一种基于ARU-Net脉络膜层分割方法
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种基于ARU-Net脉络膜层分割方法。
背景技术
脉络膜是一种重要的血管层,主要作用是为整个眼球提供氧气、养料,并具有隔光的功效使反射的物象更加清晰。脉络膜的变化对于临床和研究任务都是至关重要的。特别地,为了与年龄匹配的数据或先前测量的患者数据进行比较,为了疾病的检测和管理,经常需要对脉络膜层进行分割并随后测量层的厚度和体积,记录眼睛的正常老化变化。近年来,光学相干断层扫描(OCT,optical coherence tomography)的引入允许为这种分析捕获视网膜和脉络膜的非侵入性高分辨率图像。然而,现有技术通过人类专家对光学相干断层扫描图像的大数据集进行人工图像手动分割和分析,其存在耗时主观的问题。
发明内容
基于此,为了解决现有技术通过人类专家对光学相干断层扫描图像的大数据集进行人工图像手动分割和分析而存在耗时主观的问题,本发明提供了一种基于ARU-Net脉络膜层分割方法,其具体技术方案如下:
一种基于ARU-Net脉络膜层分割方法,其包括如下步骤:
采集OCT脉络膜图像;
对所述OCT脉络膜图像进行处理以获取脉络膜数据集;
将所述脉络膜数据集分成训练集、验证集以及测试集,并对所述训练集进行数据增强;
构建ARU-Net模型,并利用所述训练集以及验证集训练所述ARU-Net模型;
利用训练好的所述ARU-Net模型对所述测试集进行预测,以获取脉络膜预测概率图;
设定概率阈值,获取脉络膜分割预测图;
根据所述脉络膜分割预测图获取脉络膜层边界。
上述基于ARU-Net脉络膜层分割方法通过构建并训练所述ARU-Net模型,其可以对OCT脉络膜图像自动进行分割,以获取脉络膜层边界,克服了现有技术通过人类专家对光学相干断层扫描图像的大数据集进行人工图像手动分割和分析而存在耗时主观的问题,提高了工作效率。
另外,上述基于ARU-Net脉络膜层分割方法通过对所述训练集进行数据增强,可以在小数据的情况下取得较好的分割效果。
进一步地,构建ARU-Net模型的具体方法包括如下步骤:
构建U-Net神经网络;
以残差块替换所述U-Net神经网络中的卷积层;
在所述U-Net神经网络的解码器部分引入注意力门,构建所述ARU-Net模型。
进一步地,所述残差块的实际映射函数为H(x)=F(x)+x,其中,x为残差块的输入,F(x)为残差映射函数。
进一步地,所述注意力门的计算公式为
Figure BDA0002903135090000021
其中,g为门控信号,x为特征映射,Wg、Wx以及ψ为线性变换,bg和bψ偏置,Relu和Sigmoid为激活函数,α注意力系数。
进一步地,利用所述训练集以及验证集训练所述ARU-Net模型的具体方法包括如下步骤:
选择交叉熵函数作为代价函数对所述ARU-Net模型进行预训练;
采用梯度下降方法最小化损失函数;
更新所述ARU-Net模型的权重和偏置参数。
进一步地,对所述OCT脉络膜图像进行处理以获取脉络膜数据集的具体方法包括如下步骤:
采用3×3的中值滤波去除所述OCT脉络膜图像的散斑噪声;
以BM边界为基准线将中值滤波后的所述OCT脉络膜图像压平;
将压平后的所述OCT脉络膜图像分成三三段,裁剪出包含脉络膜的脉络膜感兴趣区域;
沿水平方向、以步幅12将所述脉络膜感兴趣区域分割成65个尺寸大小为256×256的图像块,获取所述脉络膜数据集。
进一步地,根据所述脉络膜分割预测图获取脉络膜层边界的具体方法为:通过边缘检测算法并通过不同的颜色通道对所述脉络膜分割预测图进行处理,以获取所述脉络膜层边界。
进一步地,所述概率阈值为0.5。
进一步地,所述训练集、所述验证集以及所述测试集之间的比例为8:1:1。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时实现如上述所述的基于ARU-Net脉络膜层分割方法。
附图说明
从以下结合附图的描述可以进一步理解本发明。图中的部件不一定按比例绘制,而是将重点放在示出实施例的原理上。在不同的视图中,相同的附图标记指定对应的部分。
图1是本发明一实施例中一种基于ARU-Net脉络膜层分割方法的整体流程示意图;
图2是本发明一实施例中一种基于ARU-Net脉络膜层分割方法中构建ARU-Net模型的流程示意图;
图3是本发明一实施例中一种基于ARU-Net脉络膜层分割方法中残差块的结构示意图;
图4是本发明一实施例中一种基于ARU-Net脉络膜层分割方法中注意力门的结构示意图;
图5是本发明一实施例中一种基于ARU-Net脉络膜层分割方法中对所述OCT脉络膜图像进行处理以获取脉络膜数据集的流程示意图;
图6是本发明一实施例中一种基于ARU-Net脉络膜层分割方法中ARU-Net模型的结构示意图。
具体实施方式
为了使得本发明的目的、技术方案及优点更加清楚明白,以下结合其实施例,对本发明进行进一步详细说明。应当理解的是,此处所描述的具体实施方式仅用以解释本发明,并不限定本发明的保护范围。
需要说明的是,当元件被称为“固定于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的,并不表示是唯一的实施方式。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
本发明中所述“第一”、“第二”不代表具体的数量及顺序,仅仅是用于名称的区分。
如图1所示,本发明一实施例中的一种基于ARU-Net脉络膜层分割方法,其包括如下步骤:
采集OCT脉络膜图像;
对所述OCT脉络膜图像进行处理以获取脉络膜数据集;
将所述脉络膜数据集分成训练集、验证集以及测试集,并对所述训练集进行数据增强;
构建ARU-Net模型,并利用所述训练集以及验证集训练所述ARU-Net模型;
利用训练好的所述ARU-Net模型对所述测试集进行预测,以获取脉络膜预测概率图;
设定概率阈值,获取脉络膜分割预测图;
根据所述脉络膜分割预测图获取脉络膜层边界。
上述基于ARU-Net(即Attention Re-Unet)脉络膜层分割方法通过构建并训练所述ARU-Net模型,其可以对OCT脉络膜图像自动进行快速精准的分割,以获取脉络膜层边界,克服了现有技术通过人类专家对光学相干断层扫描图像的大数据集进行人工图像手动分割和分析而存在耗时主观的问题,提高了工作效率。
另外,上述基于ARU-Net脉络膜层分割方法通过对所述训练集进行数据增强,可以在小数据的情况下取得较好的分割效果,进一步提高了所述基于ARU-Net脉络膜层分割方法的分割准确性以及泛化能力。
在其中一个实施例中,通过Topcon眼底断层扫描系统3D OCT-1采集所述OCT脉络膜图像。
在其中一个实施例中,利用所述训练集以及验证集训练所述ARU-Net模型的具体方法包括计算前向传播的输出与脉络膜标签之间的损失并通过反向传播的方式更新模型的参数。
在其中一个实施例中,在深度学习工具Tensorflow的Keras库中搭建ARU-Net(Attention Residual)
在其中一个实施例中,如图2所示,所述构建ARU-Net模型的具体方法包括如下步骤:
构建U-Net神经网络;
以残差块替换所述U-Net神经网络中的卷积层;
在所述U-Net神经网络的解码器部分引入注意力门,构建所述ARU-Net模型。具体而言,在所述U-Net神经网络的跳跃连接部分引入注意力门。
在其中一个实施例中,所述残差块的实际映射函数为H(x)=F(x)+x,其中,x为残差块的输入,F(x)为残差映射函数。
具体而言,当构建深层网络时,模型难以直接拟合实际映射H(x),残差网络通过引入快捷连接将问题转换为拟合残差映射函数F(x),此时实际映射函数H(x)=F(x)+x。如图3所示,所述残差块包括卷积层、Relu激活函数以及跳跃连接组成。其中,Relu是线性修正单元,是一个分段线性函数,可把所有负值变为0,正值维持不变。即Relu具有单侧抑制作用,可使神经网络中的神经元具备稀疏激活性。
在其中一个实施例中,所述注意力门的计算公式为
Figure BDA0002903135090000071
其中,g为门控信号,x为特征映射,Wg、Wx以及ψ为线性变换,bg和bψ为偏置参数,σ1为Relu激活函数,σ2为Sigmoid激活函数,α为注意力系数。
具体而言,如图4所示,注意力门的输入是门控信号g以及特征映射x。在U-Net结构上,将跳跃连接的特征信息作为特征映射x,解码器中上采样后的特征信息作为门控信号g。模块的构成包括线性变换Wg、Wx和ψ,偏置参数为bg和bψ,激活函数为Relu和Sigmoid。其中,线性变换通过1×1通道的卷积实现,线性变换Wg和Wx的结果通过相加的方式进行结合,其目标是对每个像素矢量xi计算注意力系数αi∈[0,1]。
利用注意力门和残差块,能够准确分割脉络膜层边界,有效解决了脉络膜下边界模糊不易分割的问题。
在其中一个实施例中,如图4所示,使用三线性插值进行网格重采样后得到注意力系数α。注意力门的输出为特征映射x和注意力系数αi的积。
在其中一个实施例中,所述利用所述训练集以及验证集训练所述ARU-Net模型的具体方法包括如下步骤:
选择交叉熵函数作为代价函数对所述ARU-Net模型进行预训练;
采用梯度下降方法最小化损失函数,即每次将一部分数据作为一批数据输入到网络中,完成该批数据前向运算后得到其平均的损失函数,然后利用该损失值进行梯度计算。
更新所述ARU-Net模型的权重和偏置参数。
具体而言,所述交叉熵函数为
Figure BDA0002903135090000081
其中,N为迭代次数,yn表示第n个样本标签值,
Figure BDA0002903135090000082
表示网络的预测结果值,w为网络中的待学习的参数。
在其中一个实施例中,通过公式
Figure BDA0002903135090000083
更新所述ARU-Net模型的权重和偏置参数,η为学习率设定为1e^-5,整个迭代过程中保持不变,Di为该批数据作为权重更新的输入。
在其中一个实施例中,如图5所示,所述对所述OCT脉络膜图像进行处理以获取脉络膜数据集的具体方法包括如下步骤:
采用3×3的中值滤波去除所述OCT脉络膜图像的散斑噪声;
以BM(Bruch's Membrane,布鲁赫膜)边界为基准线将中值滤波后的所述OCT脉络膜图像压平;
将压平后的所述OCT脉络膜图像分成三三段,裁剪出包含脉络膜的脉络膜感兴趣区域;
沿水平方向、以步幅12将所述脉络膜感兴趣区域分割成65个尺寸大小为256×256的图像块,获取所述脉络膜数据集。
通过将所述OCT脉络膜图像压平并裁剪出包含脉络膜的脉络膜感兴趣区域,可以有效去除与脉络膜无关的信息,减少计算量。
以步幅为12将脉络膜感兴趣区域裁剪成65个256×256的块,可以保障边界块包含脉络膜感兴趣的边界,同时补充数据集;而256×256的尺寸正好符合网络的输入,避免了图像缩放导致模型训练产生误差
在其中一个实施例中,所述根据所述脉络膜分割预测图获取脉络膜层边界的具体方法为:通过边缘检测算法并通过不同的颜色通道对所述脉络膜分割预测图进行处理,以获取所述脉络膜层边界。
在其中一个实施例中,所述概率阈值为0.5。
在其中一个实施例中,所述训练集、所述验证集以及所述测试集之间的数据量比例为8:1:1。
在其中一个实施例中,所述ARU-Net模型的迭代次数为100。
在其中一个实施例中,如图6所示,所述ARU-Net模型包括依次连接的卷积层、第一Encoder残差块、第一最大池化层、第二Encoder残差块、第二最大池化层、第三Encoder残差块、第三最大池化层、第四Encoder残差块、第四最大池化层、第五Encoder残差块、第一上采样块、第一Decoder残差块、第二上采样块、第二Decoder残差块、第三上采样块、第三Decoder残差块、第四上采样块、第四Decoder残差块以及Softmax层,所述第一Encoder残差块与第四Decoder残差块之间、所述第二Encoder残差块与第三Decoder残差块之间、所述第三Encoder残差块与第二Decoder残差块之间以及所述第四Encoder残差块与第一Decoder残差块之间设有所述注意力门。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时实现如上述所述的基于ARU-Net脉络膜层分割方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于ARU-Net脉络膜层分割方法,其特征在于,包括如下步骤:
采集OCT脉络膜图像;
对所述OCT脉络膜图像进行处理以获取脉络膜数据集;
将所述脉络膜数据集分成训练集、验证集以及测试集,并对所述训练集进行数据增强;
构建ARU-Net模型,并利用所述训练集以及验证集训练所述ARU-Net模型;
利用训练好的所述ARU-Net模型对所述测试集进行预测,以获取脉络膜预测概率图;
设定概率阈值,获取脉络膜分割预测图;
根据所述脉络膜分割预测图获取脉络膜层边界。
2.如权利要求1所述的一种基于ARU-Net脉络膜层分割方法,其特征在于,构建ARU-Net模型的具体方法包括如下步骤:
构建U-Net神经网络;
以残差块替换所述U-Net神经网络中的卷积层;
在所述U-Net神经网络的解码器部分引入注意力门,构建所述ARU-Net模型。
3.如权利要求2所述的一种基于ARU-Net脉络膜层分割方法,其特征在于,所述残差块的实际映射函数为H(x)=F(x)+x,其中,x为残差块的输入,F(x)为残差映射函数。
4.如权利要求3所述的一种基于ARU-Net脉络膜层分割方法,其特征在于,所述注意力门的计算公式为
Figure FDA0002903135080000011
其中,g为门控信号,x为特征映射,Wg、Wx以及ψ为线性变换,bg和bψ偏置,Relu和Sigmoid为激活函数,α注意力系数。
5.如权利要求4所述的一种基于ARU-Net脉络膜层分割方法,其特征在于,利用所述训练集以及验证集训练所述ARU-Net模型的具体方法包括如下步骤:
选择交叉熵函数作为代价函数对所述ARU-Net模型进行预训练;
采用梯度下降方法最小化损失函数;
更新所述ARU-Net模型的权重和偏置参数。
6.如权利要求5所述的一种基于ARU-Net脉络膜层分割方法,其特征在于,对所述OCT脉络膜图像进行处理以获取脉络膜数据集的具体方法包括如下步骤:
采用3×3的中值滤波去除所述OCT脉络膜图像的散斑噪声;
以BM边界为基准线将中值滤波后的所述OCT脉络膜图像压平;
将压平后的所述OCT脉络膜图像分成三三段,裁剪出包含脉络膜的脉络膜感兴趣区域;
沿水平方向、以步幅12将所述脉络膜感兴趣区域分割成65个尺寸大小为256×256的图像块,获取所述脉络膜数据集。
7.如权利要求6所述的一种基于ARU-Net脉络膜层分割方法,其特征在于,根据所述脉络膜分割预测图获取脉络膜层边界的具体方法为:通过边缘检测算法并通过不同的颜色通道对所述脉络膜分割预测图进行处理,以获取所述脉络膜层边界。
8.如权利要求7所述的一种基于ARU-Net脉络膜层分割方法,其特征在于,所述概率阈值为0.5。
9.如权利要求8所述的一种基于ARU-Net脉络膜层分割方法,其特征在于,所述训练集、所述验证集以及所述测试集之间的比例为8:1:1。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时实现如上述权利要求1至9中任意一项所述的基于ARU-Net脉络膜层分割方法。
CN202110063276.4A 2021-01-18 2021-01-18 一种基于ARU-Net脉络膜层分割方法 Pending CN112712520A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110063276.4A CN112712520A (zh) 2021-01-18 2021-01-18 一种基于ARU-Net脉络膜层分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110063276.4A CN112712520A (zh) 2021-01-18 2021-01-18 一种基于ARU-Net脉络膜层分割方法

Publications (1)

Publication Number Publication Date
CN112712520A true CN112712520A (zh) 2021-04-27

Family

ID=75549234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110063276.4A Pending CN112712520A (zh) 2021-01-18 2021-01-18 一种基于ARU-Net脉络膜层分割方法

Country Status (1)

Country Link
CN (1) CN112712520A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113554593A (zh) * 2021-06-15 2021-10-26 汕头大学 一种脉络膜厚度估计方法、装置、设备及介质
CN117952976A (zh) * 2024-03-26 2024-04-30 深圳亚太航空技术股份有限公司 一种高锁螺栓检测系统及其方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150213725A1 (en) * 2012-09-07 2015-07-30 Tractus Corporation Method, apparatus, and system for viewing multiple-slice medical images
CN109376767A (zh) * 2018-09-20 2019-02-22 中国科学技术大学 基于深度学习的视网膜oct图像分类方法
CN109509178A (zh) * 2018-10-24 2019-03-22 苏州大学 一种基于改进的U-net网络的OCT图像脉络膜分割方法
CN110517235A (zh) * 2019-08-19 2019-11-29 苏州大学 一种基于GCS-Net进行OCT图像脉络膜自动分割方法
WO2020165196A1 (en) * 2019-02-14 2020-08-20 Carl Zeiss Meditec Ag System for oct image translation, ophthalmic image denoising, and neural network therefor
CN111583291A (zh) * 2020-04-20 2020-08-25 中山大学 基于深度学习的视网膜层和积液区域的层分割方法及系统
CN112116065A (zh) * 2020-08-14 2020-12-22 西安电子科技大学 一种rgb图像光谱重建方法、系统、存储介质及应用
CN112233135A (zh) * 2020-11-11 2021-01-15 清华大学深圳国际研究生院 眼底图像中视网膜血管分割方法及计算机可读存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150213725A1 (en) * 2012-09-07 2015-07-30 Tractus Corporation Method, apparatus, and system for viewing multiple-slice medical images
CN109376767A (zh) * 2018-09-20 2019-02-22 中国科学技术大学 基于深度学习的视网膜oct图像分类方法
CN109509178A (zh) * 2018-10-24 2019-03-22 苏州大学 一种基于改进的U-net网络的OCT图像脉络膜分割方法
WO2020165196A1 (en) * 2019-02-14 2020-08-20 Carl Zeiss Meditec Ag System for oct image translation, ophthalmic image denoising, and neural network therefor
CN110517235A (zh) * 2019-08-19 2019-11-29 苏州大学 一种基于GCS-Net进行OCT图像脉络膜自动分割方法
CN111583291A (zh) * 2020-04-20 2020-08-25 中山大学 基于深度学习的视网膜层和积液区域的层分割方法及系统
CN112116065A (zh) * 2020-08-14 2020-12-22 西安电子科技大学 一种rgb图像光谱重建方法、系统、存储介质及应用
CN112233135A (zh) * 2020-11-11 2021-01-15 清华大学深圳国际研究生院 眼底图像中视网膜血管分割方法及计算机可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张文秀 等: "基于残差块和注意力机制的细胞图像分割方法", 光学学报, vol. 40, no. 17, pages 2 - 4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113554593A (zh) * 2021-06-15 2021-10-26 汕头大学 一种脉络膜厚度估计方法、装置、设备及介质
CN113554593B (zh) * 2021-06-15 2023-07-25 汕头大学 一种脉络膜厚度估计方法、装置、设备及介质
CN117952976A (zh) * 2024-03-26 2024-04-30 深圳亚太航空技术股份有限公司 一种高锁螺栓检测系统及其方法

Similar Documents

Publication Publication Date Title
CN110399929B (zh) 眼底图像分类方法、装置以及计算机可读存储介质
CN111627019B (zh) 一种基于卷积神经网络的肝脏肿瘤分割方法及系统
CN107767378B (zh) 基于深度神经网络的gbm多模态磁共振图像分割方法
CN110503630B (zh) 一种基于三维深度学习模型的脑出血分类、定位与预测方法
CN112132959B (zh) 数字岩心图像处理方法、装置、计算机设备及存储介质
CN111862009B (zh) 一种眼底oct图像的分类方法及计算机可读存储介质
CN111798462A (zh) 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法
CN111462191B (zh) 一种基于深度学习的非局部滤波器无监督光流估计方法
CN113421652A (zh) 对医疗数据进行分析的方法、训练模型的方法及分析仪
CN107766874B (zh) 一种超声容积生物学参数的测量方法及测量系统
CN110859624A (zh) 一种基于结构磁共振影像的大脑年龄深度学习预测系统
CN112465905A (zh) 基于深度学习的磁共振成像数据的特征脑区定位方法
CN113781640A (zh) 基于弱监督学习的三维人脸重建模型建立方法及其应用
CN112712520A (zh) 一种基于ARU-Net脉络膜层分割方法
CN106408550A (zh) 一种改进的自适应多字典学习的图像超分辨率重建方法
CN110866872B (zh) 一种路面裂缝图片预处理智能选择方法、装置及电子设备
TW202008211A (zh) 一種圖像處理方法、電子設備及儲存介質
CN113205537A (zh) 基于深度学习的血管图像分割方法、装置、设备及介质
CN114943721A (zh) 一种建立基于改进U-Net网络的颈部超声图像分割方法
CN113256592A (zh) 图像特征提取模型的训练方法、系统及装置
CN116342584A (zh) 一种基于AAMC-Net的图像裂缝分割检测方法及系统
CN117474796B (zh) 一种图像生成方法、装置、设备及计算机可读存储介质
Li et al. Robust deep 3D blood vessel segmentation using structural priors
Asyhar et al. Implementation LSTM Algorithm for Cervical Cancer using Colposcopy Data
CN111814644A (zh) 一种基于扰动视觉解释的视频异常事件检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination