CN110555856A - 一种基于深度神经网络的黄斑水肿病变区域分割方法 - Google Patents

一种基于深度神经网络的黄斑水肿病变区域分割方法 Download PDF

Info

Publication number
CN110555856A
CN110555856A CN201910846921.2A CN201910846921A CN110555856A CN 110555856 A CN110555856 A CN 110555856A CN 201910846921 A CN201910846921 A CN 201910846921A CN 110555856 A CN110555856 A CN 110555856A
Authority
CN
China
Prior art keywords
neural network
deep neural
sample data
macular edema
segmentation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910846921.2A
Other languages
English (en)
Inventor
章毅
陈媛媛
郭际香
胡俊杰
张炜
王璟玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Intelligent Diega Technology Partnership (limited Partnership)
Original Assignee
Chengdu Intelligent Diega Technology Partnership (limited Partnership)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Intelligent Diega Technology Partnership (limited Partnership) filed Critical Chengdu Intelligent Diega Technology Partnership (limited Partnership)
Priority to CN201910846921.2A priority Critical patent/CN110555856A/zh
Publication of CN110555856A publication Critical patent/CN110555856A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本申请提供一种基于深度神经网络的黄斑水肿病变区域分割方法,所述方法包括:获取黄斑水肿患者眼底的OCT图像;将所述OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。在本申请中,通过将所述OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。与现有技术相比,节省了大量的人力物力,同时,通过训练好的深度神经网络分割模型获取黄斑水肿患者眼底的OCT图像上的病灶区域,能够避免目前由于OCT图像噪声较大以及医生之间的经验差别,不同医生的勾画结果往往差异较大,从而导致黄斑水肿的评价误差较大的问题。

Description

一种基于深度神经网络的黄斑水肿病变区域分割方法
技术领域
本申请涉及医疗图像处理技术领域,具体而言,涉及一种基于深度神经网络的黄斑水肿病变区域分割方法、装置、电子设备及存储介质。
背景技术
黄斑区域是眼底对光线最敏感的部位,黄斑水肿是指眼底黄斑区域发生的炎性反应、液体渗入,形成的水肿病变,黄斑水肿是引起视力减退的重要原因之一,临床中常见的黄斑水肿病症包括:视网膜色素上皮脱离(Pigment Epithelium Detachment,PED),视网膜下水肿(Subretinal Fluid,SRF)等。目前,主要通过获取患者的OCT(Optical coherencetomography,光学相干断层扫描)图像对患者进行检查。为了定量地评价患者的病情,医生将基于OCT图像勾画出黄斑水肿的区域,如PED和SRF的具体区域。之后通过计算黄斑水肿区域的体积,从而定量地评价患者的病情,制定治疗方案。但是一次检查通常包含数十张至上百张的OCT图像,人工勾画黄斑水肿区域将耗费巨大的时间与人力成本,此外,由于OCT图像噪声较大以及医生之间的经验差别,不同医生的勾画结果往往差异较大,从而导致黄斑水肿的评价误差较大。
发明内容
本申请实施例的目的在于提供一种基于深度神经网络的黄斑水肿病变区域分割方法、装置、电子设备及存储介质。以改善上述“人工勾画黄斑水肿区域将耗费巨大的时间与人力成本,此外,由于OCT图像噪声较大以及医生之间的经验差别,不同医生的勾画结果往往差异较大,从而导致黄斑水肿的评价误差较大”的问题。
本发明是这样实现的:
第一方面,本申请实施例提供一种基于深度神经网络的黄斑水肿病变区域分割方法,所述方法包括:获取黄斑水肿患者眼底的OCT图像;将所述OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。
在本申请中,通过将黄斑水肿患者眼底的OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。与现有技术相比,节省了大量的人力物力,同时,通过训练好的深度神经网络分割模型获取黄斑水肿患者眼底的OCT图像上的病灶区域,能够避免目前由于OCT图像噪声较大以及医生之间的经验差别,不同医生的勾画结果往往差异较大,从而导致黄斑水肿的评价误差较大的问题。
结合上述第一方面提供的技术方案,在一些可能的实现方式中,在所述将所述OCT图像输入到训练好的深度神经网络分割模型中之前,所述方法还包括获得所述训练好的深度神经网络分割模型,所述获得所述训练好的深度神经网络分割模型,包括:获取训练样本数据;其中,所述训练样本数据包括预先标记好黄斑水肿病灶区域的OCT眼底图像;构建所述深度神经网络分割模型,将所述训练样本数据输入所述深度神经网络分割模型中,进行模型训练。
结合上述第一方面提供的技术方案,在一些可能的实现方式中,在所述获取训练样本数据之后,所述方法还包括:对所述训练样本数据进行预处理,以扩充所述训练样本数据的多样性。
在本申请中,通过对训练样本数据进行预处理,扩充了训练样本数据的多样性,从而使得深度神经网络分割模型可以学习到具有更强鲁棒性的特征,缓解模型的过拟合现象。
结合上述第一方面提供的技术方案,在一些可能的实现方式中,在所述获取训练样本数据之前,所述方法还包括:获取预先标记好黄斑水肿病灶区域的OCT眼底图像集合;将所述预先标记好黄斑水肿病灶区域的OCT眼底图像集合按照预设的比例分为训练样本数据和测试样本数据。
在本申请中,先获取预先标记好黄斑水肿病灶区域的OCT眼底图像集合,将同一集合中的OCT眼底图像集合按照预设的比例分为训练样本数据和测试样本数据,可以减小训练样本数据与测试样本数据之间的差异,提高深度网络分割模型的效果。
结合上述第一方面提供的技术方案,在一些可能的实现方式中,在所述构建所述深度神经网络分割模型,将所述训练样本数据输入所述深度神经网络分割模型中,进行模型训练之后,所述方法还包括:将所述测试样本数据输入到所述深度神经网络分割模型中,采用预设的评估指标对所述深度神经网络分割模型进行评估。
在本申请中,将测试样本数据输入到深度神经网络分割模型中,通过预设的评估指标对所述深度神经网络分割模型进行评估。便于后续对该深度神经网络分割模型进行调整,提高该深度神经网络分割模型的准确性。
第二方面,本申请实施例提供一种基于深度神经网络的黄斑水肿病变区域分割装置,所述装置包括:获取模块,用于获取黄斑水肿患者眼底的OCT图像;处理模块,用于将所述OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。
结合上述第二方面提供的技术方案,在一些可能的实现方式中,所述装置还包括:获得模块,所述获得模块用于在所述将所述OCT图像输入到训练好的深度神经网络分割模型中之前,获得所述训练好的深度神经网络分割模型;所述获得模块包括:获取单元,用于获取训练样本数据;其中,所述训练样本数据包括预先标记好黄斑水肿病灶区域的OCT眼底图像;训练单元,用于构建所述深度神经网络分割模型,将所述训练样本数据输入所述深度神经网络分割模型中,进行模型训练。
结合上述第二方面提供的技术方案,在一些可能的实现方式中,所述获得模块还包括预处理单元;所述预处理单元,用于在所述获取训练样本数据之后对所述训练样本数据进行预处理,以扩充所述训练样本数据的多样性。
结合上述第二方面提供的技术方案,在一些可能的实现方式中,所述获取单元,还用于在所述获取训练样本数据之前,获取预先标记好黄斑水肿病变区域的OCT眼底图像集合。所述获得模块还包括划分单元,所述划分单元用于将所述预先标记好黄斑水肿病灶区域的OCT眼底图像集合按照预设的比例分为训练样本数据和测试样本数据。
结合上述第二方面提供的技术方案,在一些可能的实现方式中,所述获得模块还包括评估单元,所述评估单元用于将所述测试样本数据输入到所述深度神经网络分割模型中,采用预设的评估指标对所述深度神经网络分割模型进行评估。
第三方面,本申请实施例提供一种电子设备,包括:处理器和存储器;所述处理器和所述存储器连接;所述存储器用于存储程序;所述处理器用于运行存储在所述存储器中的程序,执行如上述第一方面实施例和/或结合上述第一方面实施例的一些可能的实现方式提供的方法。
第四方面,本申请实施例提供一种存储介质,其上存储有计算机程序,所述计算机程序在被处理器运行时,执行如上述第一方面实施例和/或结合上述第一方面实施例的一些可能的实现方式提供的方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种基于深度神经网络的黄斑水肿病变区域分割方法的步骤流程图。
图2为本申请实施例提供的一种获得训练好的深度神经网络分割模型的步骤流程图。
图3为本申请实施例提供的一种深度神经网络分割模型的模型框图。
图4为本申请实施例提供的一种基于深度神经网络的黄斑水肿病变区域分割装置的模块框图。
图5为本申请实施例提供的一种电子设备的结构框图。
图标:100-基于深度神经网络的黄斑水肿病变区域分割装置;101-获取模块;102-处理模块;103-获得模块;10-电子设备;111-处理器;112-存储器;113-通信总线;200-深度神经网络分割模型;210-输入层;220-隐藏层;221-编码器;222-随机多尺度模块;230-输出层;231-解码器。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
黄斑区域是眼底对光线最敏感的部位,黄斑水肿是指眼底黄斑区域发生的炎性反应、液体渗入,形成的水肿病变,黄斑水肿是引起视力减退的重要原因之一,临床中常见的黄斑水肿病症包括:视网膜色素上皮脱离(Pigment Epithelium Detachment,PED),视网膜下水肿(Subretinal Fluid,SRF)等。
目前,主要通过获取患者的OCT(Optical coherence tomography,光学相干断层扫描)图像对患者进行检查。OCT图像利用光的干涉原理对生物组织进行扫描,从而获得微米级的三维图像。与传统的荧光造影检查手段相比,OCT图像具有非接触、非入侵、分辨率高等特点。
为了定量地评价患者的病情,医生将基于OCT图像勾画出黄斑水肿的区域,如PED和SRF的具体区域。之后通过计算黄斑水肿区域的体积,从而定量地评价患者的病情,制定治疗方案。
但是现有技术存在的问题在于一次检查通常包含数十张至上百张的OCT图像,人工勾画黄斑水肿区域将耗费巨大的时间与人力成本,此外,由于OCT图像噪声较大以及医生之间的经验差别,不同医生的勾画结果往往差异较大,从而导致黄斑水肿的评价误差较大。
鉴于上述问题,本申请发明人经过长期的研究,提出以下实施例以解决上述问题。
请参阅图1,本申请实施例提供一种基于深度神经网络的黄斑水肿病变区域分割方法。具体的,该方法包括:步骤S101-S102。
步骤S101:获取黄斑水肿患者眼底的OCT图像。
在上述说明中提到了OCT图像具有非接触、非入侵、分辨率高等特点,因此,本申请同样是基于OCT图像对黄斑水肿患者进行检查。通过医用的OCT检查设备对患者的眼部进行扫描,进而获取患者眼底的OCT图像。
步骤S102:将所述OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。
在获取到患者眼底的OCT图像之后,将该OCT图像输入到已经训练好的深度神经网络分割模型中。该训练好的深度神经网络分割模型会根据输入的OCT图像,对OCT图像上的特征进行分割,进而得到黄斑水肿患者眼底的OCT图像上的病灶区域。
需要说明的是,本申请提供的一种基于深度神经网络的黄斑水肿病变区域分割方法的核心是用深度神经网络分割模型来对黄斑水肿患者眼底的OCT图像进行分割,获取黄斑水肿患者眼底的OCT图像上的病灶区域。申请人在实验中发现,将黄斑水肿患者眼底的OCT图像输入到训练好的深度神经网络分割模型中,能够在1分钟内便可得到黄斑水肿患者眼底的OCT图像上的病灶区域。与现有技术相比,节省了大量的人力物力,同时,通过训练好的深度神经网络分割模型获取黄斑水肿患者眼底的OCT图像上的病灶区域,能够避免目前由于OCT图像噪声较大以及医生之间的经验差别,不同医生的勾画结果往往差异较大,从而导致黄斑水肿的评价误差较大的问题。
以上介绍的是训练好的深度神经网络分割模型在实际使用过程中的应用,即应用于获取黄斑水肿患者眼底的OCT图像上的病灶区域。可以理解的,在将OCT图像输入到训练好的深度神经网络分割模型中之前,首先要获得训练好的深度神经网络分割模型,也即首先要对深度神经网络分割模型进行训练,以使该深度神经网络分割模型能够根据输入的黄斑水肿患者眼底的OCT图像,获取黄斑水肿患者眼底的OCT图像上的病灶区域。请参阅图2,下面对获得训练好的深度神经网络分割模型的过程进行描述,该过程包括:步骤S201-S202。
步骤S201:获取训练样本数据。
需要解释的是,在训练深度神经网络分割模型时,对于模型的输入数据是已经事先让医生标记好黄斑水肿区域的OCT图像,而输出的数据是OCT图像上的病灶区域。而训练的目的是为了在输入与输出之间获取一个合适的权值,以使深度神经网络分割模型能够输出准确的病灶区域。
因此,首先需要获取大量的训练样本数据,该训练样本数据是事先让医生进行手动标记好黄斑水肿区域的OCT图像。该OCT图像上包括PED和SRF的具体区域。
可选地,为了扩充训练样本数据的多样性,在获取到训练样本数据之后,该方法还包括:对训练样本数据进行预处理。
其中,预处理的方式可以是对训练样本数据进行随机的翻折,也即对OCT图像进行翻折,翻折时可以是进行水平翻折,即图像左右颠倒。预处理的方式还可以是对训练样本数据进行平移,也即对OCT图像进行平移。预处理的方式还可以是对训练样本数据进行旋转,也即对OCT图像进行旋转。旋转的角度可以是40度、90度或者180度。在此,本申请不作限定。可以理解的是,对训练样本数据进行预处理可以只采用一种方式,比如只对训练样本数据进行随机的翻折,或者只对训练样本数据进行平移,又或者只对训练样本数据进行旋转;对训练样本数据进行预处理还可以采用其中的多种方式,比如对训练样本进行随机的翻折和平移,或者对训练样本进行旋转和平移,又或者对训练样本进行随机的翻折、平移以及旋转。为了避免累赘,在此不再继续举例。
在本申请实施例中,通过对训练样本数据进行预处理,扩充了训练样本数据的多样性,从而使得深度神经网络分割模型可以学习到具有更强鲁棒性的特征,缓解模型的过拟合现象。
可以理解的是,对预处理的方式还可以是对图像进行放大和缩小。因此,不应该将上述三种预处理的方式作为对本申请的限定。
可选地,为了消除异样样本数据导致的不良误差,在获取到训练样本数据之后,该方法还包括:对训练样本数据进行归一化,使得训练样本数据中图像的像素处于[0,1]中。
可以理解的是,若该方法同时包括对训练样本的预处理以及归一化,可以先对训练样本数据进行预处理,再对训练样本数据进行归一化;也可以先对训练样本数据进行归一化,再对训练样本数据进行预处理。对此,本申请不作限定。
步骤S202:构建所述深度神经网络分割模型,将所述训练样本数据输入所述深度神经网络分割模型中,进行模型训练。
本实施例中,在获取到训练样本数据之后,构建深度神经网络分割模型。
请参阅图3,具体的,本申请构建的深度神经网络分割模型200包括输入层210、隐藏层220和输出层230。
输入层210用于输入步骤S201中获取的训练样本数据。
隐藏层220本质上是在逼近输入数据与其特征之间的高度非线性关系。深度神经网络与浅层神经网络相比,“深度”体现在隐层数量更多,连接方式更加灵活和复杂,能够用相比浅层网络少得多的参数获得输入数据到其特征之间的映射关系。
隐藏层220包括编码器221。该编码器221包括一系列卷积层及池化层,用于从输入的训练样本数据(即已经事先让医生标记好黄斑水肿区域的OCT图像)中提取抽象特征。其中,抽象特征是从该OCT图像上提取的与黄斑水肿区域相关的特征,比如边缘、线条和角。
可选地,该隐藏层220还包括随机多尺度模块222。随机多尺度模块222能够实现4个具有不同空洞率的空洞卷积以及全局平均池化操作,这些操作均作用在由编码器221输出的特征上,用于进一步处理具有不同尺度的特征。之后随机地丢掉/保留这些操作的输出,用于提高模型对不同尺度特征的鲁棒性。空洞卷积即在传统的卷积核中插入了若干个0元素,空洞率可以简单理解为在卷积核各元素中插入了多少个0。空洞卷积与传统卷积的工作原理相同,但具有更大的感知野,有利于捕捉更大的病灶区域,同时不引入新的可学习参数。
输出层230包括解码器231,解码器231的目的是将输入的特征恢复到原始大小,并预测该OCT图像中的每个像素所属的类别,也即分析每个像素是否处于黄斑水肿区域。需要说明的是,输入到解码器231中的特征包括浅层特征和深层特征,浅层特征是编码器221中靠前的特征,比如从该OCT图像上提取到的形状,边缘等。浅层特征属于获取的抽象特征,而深层特征是通过随机多尺度模块222输出的特征,具有某种程度上的平移和尺度不变性。解码器231融合了深层特征和浅层特征,从而提高了模型的特征复用,加速模型的收敛。
在构建好深度神经网络分割模型200之后,将训练样本数据输入到构建好的深度神经网络分割模型中,进行模型训练。
模型训练的过程包括前向计算。下面对前向计算进行说明,通常,对一个L层的前馈神经网络,设其训练样本集合为X∈Rm×n,其中,m为单个样本的维度,n表示训练样本的个数,那么,第i个样本可表示为Xi。设第l层的第j个神经元到l+1层的第k个神经元连接权值记为那么,第l层到l+1层的连接权值矩阵W(l)。设第l层上神经元的激活函数为f(·),从输入层到输出层,不断进行前向计算,其过程为:
ai (0)=Xi
ai l+1=f(l)(W(l)·ai l);
其中,ai (l)表示第l层神经元对于第i个样本的激活值。那么,深度神经网络输出层神经元的激活值为:
ai L=f(L-1)(W(L-1)·f(L-2)(W(L-2)…ai (0)));
可选地,通过前向计算得到了连接权值之后还会对连接权值进行不断的更新,不断减小目标函数的值。
通常神经网络采用交叉熵作为分类/分割任务的目标函数,其定义如下:
其中ai (L)与di分别代表网络的最后一层的输出与标签。深度神经网络通过求目标函数J对于连接权值的梯度,并迭代采用梯度下降算法,即可不断减小目标函数的值,从而找到一组合适的连接权值。梯度下降算法如下:
其中,a代表的是学习率常数。J为目标函数,W为连接权值。
以上即为深度神经网络分割模型具体的训练过程。训练的目的是为了在输入与输出之间获取一个合适的连接权值,以使深度神经网络分割模型能够输出准确的病灶区域。
可选地,为了能够提高深度神经网络分割模型的效果,还需要对该深度神经网络分割模型进行评估。因此,在获取训练样本数据之前,所述方法还包括:获取预先标记好黄斑水肿病灶区域的OCT眼底图像集合;将预先标记好黄斑水肿病灶区域的OCT眼底图像集合按照预设的比例分为训练样本数据和测试样本数据。
为了减小训练样本数据与测试样本数据之间的差异,提高深度网络分割模型的分割效果,本申请先获取预先标记好黄斑水肿病灶区域的OCT眼底图像集合,该集合中的所有黄斑水肿病灶区域的OCT眼底图像可以是同一个医生进行标记的。当然,也可以是经验差别不大的医生进行标记的。
在本申请中预设的比例为3比1,也即将预先标记好黄斑水肿病灶区域的OCT眼底图像集合按照3比1的比例分为训练样本数据和测试样本数据,训练样本数据占3份,测试样本数据占1份。可以理解的是,在其他实施例中,预设的比例还可以是4比1、5比1,甚至还可以是1比1。对此,本申请不作限定。
然后根据比例,将训练样本数据输入深度神经网络分割模型中,进行模型训练。比如在本申请中预设比例为3比1,则将占3份的训练样本数据输入深度神经网络分割模型中,进行模型训练。在将训练样本数据输入深度神经网络分割模型中,进行模型训练之后,所述方法还包括:将测试样本数据输入到深度神经网络分割模型中,采用预设的评估指标对所述深度神经网络分割模型进行评估。
可选地,评估指标包括TPVF、PPV、DSC,其定义如下:
其中,VS代表该深度神经网络分割模型预测的正样本的像素数目、VG代表真实的正样本像素数目,也可以将VS理解为通过深度神经网络分割模型分割得到的病灶区域的大小,相应的将VG理解为实际的病灶区域的大小。TPVF代表所有真实的正样本像素中有多少被预测正确,PPV代表所有预测的正样本像素中有多少是真实的正样本,DSC则是一种同时权衡TPVF和PPV的指标。
在本申请实施例中,将测试样本数据输入到深度神经网络分割模型中,通过预设的评估指标对所述深度神经网络分割模型进行评估。便于后续对该深度神经网络分割模型进行调整,提高该深度神经网络分割模型的准确性。
综上所述,本申请实施例提供的基于深度神经网络的黄斑水肿病变区域分割方法,在实际应用过程中,黄斑水肿患者眼底的OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。进一步地,该模型可以直接分割出PED和SRF的具体区域。与现有技术相比,节省了大量的人力物力,同时,通过训练好的深度神经网络分割模型获取黄斑水肿患者眼底的OCT图像上的病灶区域,能够避免目前由于OCT图像噪声较大以及医生之间的经验差别,不同医生的勾画结果往往差异较大,从而导致黄斑水肿的评价误差较大的问题。
请参阅图4,基于同一发明构思,本申请实施例还提供基于深度神经网络的黄斑水肿病变区域分割装置100,包括:
获取模块101,用于获取黄斑水肿患者眼底的OCT图像。
处理模块102,用于将所述OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。
可选地,该装置还包括:获得模块103,所述获得模块103用于在所述将所述OCT图像输入到训练好的深度神经网络分割模型中之前,获得所述训练好的深度神经网络分割模型;所述获得模块103包括:获取单元,用于获取训练样本数据;其中,所述训练样本数据包括预先标记好黄斑水肿病灶区域的OCT眼底图像。训练单元,用于构建所述深度神经网络分割模型,将所述训练样本数据输入所述深度神经网络分割模型中,进行模型训练。
可选地,所述获得模块103还包括预处理单元;所述预处理单元,用于在所述获取训练样本数据之后对所述训练样本数据进行预处理,以扩充所述训练样本数据的多样性。
可选地,所述获取单元,还用于在所述获取训练样本数据之前,获取预先标记好黄斑水肿病变区域的OCT眼底图像集合。可选地,该获得模块103还包括划分单元,该划分单元用于将所述预先标记好黄斑水肿病灶区域的OCT眼底图像集合按照预设的比例分为训练样本数据和测试样本数据。
可选地,该获得模块103还包括评估单元,该评估单元用于将所述测试样本数据输入到所述深度神经网络分割模型中,采用预设的评估指标对所述深度神经网络分割模型进行评估。
请参与图5,基于同一发明构思,本申请实施例还提供一种电子设备10。该电子设备10包括:至少一个处理器111,至少一个存储器112、至少一个通信总线113。其中,通信总线113用于实现这些组件直接的连接通信。存储器112可以是高速RAM存储器,也可以是非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。其中,存储器112中存储有计算机可读取指令。所述处理器111用于执行存储器112中存储的可执行模块。例如处理器111用于获取黄斑水肿患者眼底的OCT图像。处理器111还用于将所述OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。
上述的处理器111可以是通用处理器,包括中央处理器(Central ProcessingUnit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
其中,本申请实施例中的电子设备10包括但不限于:电脑、一体机、计算机等设备。
基于同一发明构思,本申请实施例还提供一种存储介质,其上存储有计算机程序,计算机程序在被计算机运行时执行上述实施例中提供的方法。
该存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
再者,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种基于深度神经网络的黄斑水肿病变区域分割方法,其特征在于,所述方法包括:
获取黄斑水肿患者眼底的OCT图像;
将所述OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。
2.根据权利要求1所述的方法,其特征在于,在所述将所述OCT图像输入到训练好的深度神经网络分割模型中之前,所述方法还包括获得所述训练好的深度神经网络分割模型,所述获得所述训练好的深度神经网络分割模型,包括:
获取训练样本数据;其中,所述训练样本数据包括预先标记好黄斑水肿病灶区域的OCT眼底图像;
构建所述深度神经网络分割模型,将所述训练样本数据输入所述深度神经网络分割模型中,进行模型训练。
3.根据权利要求2所述的方法,其特征在于,在所述获取训练样本数据之后,所述方法还包括:
对所述训练样本数据进行预处理,以扩充所述训练样本数据的多样性。
4.根据权利要求2所述的方法,其特征在于,在所述获取训练样本数据之前,所述方法还包括:
获取预先标记好黄斑水肿病灶区域的OCT眼底图像集合;
将所述预先标记好黄斑水肿病灶区域的OCT眼底图像集合按照预设的比例分为训练样本数据和测试样本数据。
5.根据权利要求4所述的方法,其特征在于,在所述构建所述深度神经网络分割模型,将所述训练样本数据输入所述深度神经网络分割模型中,进行模型训练之后,所述方法还包括:
将所述测试样本数据输入到所述深度神经网络分割模型中,采用预设的评估指标对所述深度神经网络分割模型进行评估。
6.一种基于深度神经网络的黄斑水肿病变区域分割装置,其特征在于,所述装置包括:
获取模块,用于获取黄斑水肿患者眼底的OCT图像;
处理模块,用于将所述OCT图像输入到训练好的深度神经网络分割模型中,得到所述黄斑水肿患者眼底的OCT图像上的病灶区域。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:获得模块,所述获得模块用于在所述将所述OCT图像输入到训练好的深度神经网络分割模型中之前,获得所述训练好的深度神经网络分割模型;所述获得模块包括:
获取单元,用于获取训练样本数据;其中,所述训练样本数据包括预先标记好黄斑水肿病灶区域的OCT眼底图像;
训练单元,用于构建所述深度神经网络分割模型,将所述训练样本数据输入所述深度神经网络分割模型中,进行模型训练。
8.根据权利要求7所述的装置,其特征在于,所述获得模块还包括预处理单元;
所述预处理单元,用于在所述获取训练样本数据之后对所述训练样本数据进行预处理,以扩充所述训练样本数据的多样性。
9.一种电子设备,其特征在于,包括:处理器和存储器;所述处理器和所述存储器连接;
所述存储器用于存储程序;
所述处理器用于运行存储在所述存储器中的程序,执行所述权利要求1-5中任一项所述的方法。
10.一种存储介质,其特征在于,其上存储有计算机程序,所述计算机程序在被处理器运行时执行如权利要求1-5中任一项所述的方法。
CN201910846921.2A 2019-09-09 2019-09-09 一种基于深度神经网络的黄斑水肿病变区域分割方法 Pending CN110555856A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910846921.2A CN110555856A (zh) 2019-09-09 2019-09-09 一种基于深度神经网络的黄斑水肿病变区域分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910846921.2A CN110555856A (zh) 2019-09-09 2019-09-09 一种基于深度神经网络的黄斑水肿病变区域分割方法

Publications (1)

Publication Number Publication Date
CN110555856A true CN110555856A (zh) 2019-12-10

Family

ID=68739445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910846921.2A Pending CN110555856A (zh) 2019-09-09 2019-09-09 一种基于深度神经网络的黄斑水肿病变区域分割方法

Country Status (1)

Country Link
CN (1) CN110555856A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199194A (zh) * 2019-12-25 2020-05-26 吉林大学 基于机器视觉和深度学习的汽车智能座舱仪表测试方法
CN112270660A (zh) * 2020-09-30 2021-01-26 四川大学 基于深度神经网络的鼻咽癌放疗靶区自动分割方法
WO2021114817A1 (zh) * 2020-05-28 2021-06-17 平安科技(深圳)有限公司 基于神经网络的oct图像病灶检测方法、装置及介质
CN114782337A (zh) * 2022-04-08 2022-07-22 平安国际智慧城市科技股份有限公司 基于人工智能的oct图像推荐方法、装置、设备及介质
CN115019049A (zh) * 2022-08-08 2022-09-06 四川大学 基于深度神经网络的骨显像骨病灶分割方法、系统及设备
CN115393847A (zh) * 2022-10-31 2022-11-25 北京大学第三医院(北京大学第三临床医学院) 一种基质细胞功能状况的识别分析方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934823A (zh) * 2019-03-25 2019-06-25 天津工业大学 一种基于深度学习的dr眼底图像黄斑水肿分级方法
CN110211136A (zh) * 2019-06-05 2019-09-06 深圳大学 图像分割模型的构建方法、图像分割方法、装置及介质
CN110210483A (zh) * 2019-06-13 2019-09-06 上海鹰瞳医疗科技有限公司 医疗图像病变区域分割方法、模型训练方法和设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934823A (zh) * 2019-03-25 2019-06-25 天津工业大学 一种基于深度学习的dr眼底图像黄斑水肿分级方法
CN110211136A (zh) * 2019-06-05 2019-09-06 深圳大学 图像分割模型的构建方法、图像分割方法、装置及介质
CN110210483A (zh) * 2019-06-13 2019-09-06 上海鹰瞳医疗科技有限公司 医疗图像病变区域分割方法、模型训练方法和设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张建: "基于深度学习的图像语义分割方法", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
陈玉琨: "《人工智能入门 第3册》", 31 May 2019, 商务印书馆 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199194A (zh) * 2019-12-25 2020-05-26 吉林大学 基于机器视觉和深度学习的汽车智能座舱仪表测试方法
WO2021114817A1 (zh) * 2020-05-28 2021-06-17 平安科技(深圳)有限公司 基于神经网络的oct图像病灶检测方法、装置及介质
CN112270660A (zh) * 2020-09-30 2021-01-26 四川大学 基于深度神经网络的鼻咽癌放疗靶区自动分割方法
CN114782337A (zh) * 2022-04-08 2022-07-22 平安国际智慧城市科技股份有限公司 基于人工智能的oct图像推荐方法、装置、设备及介质
CN115019049A (zh) * 2022-08-08 2022-09-06 四川大学 基于深度神经网络的骨显像骨病灶分割方法、系统及设备
CN115019049B (zh) * 2022-08-08 2022-12-16 四川大学 基于深度神经网络的骨显像骨病灶分割方法、系统及设备
CN115393847A (zh) * 2022-10-31 2022-11-25 北京大学第三医院(北京大学第三临床医学院) 一种基质细胞功能状况的识别分析方法及装置

Similar Documents

Publication Publication Date Title
CN110555856A (zh) 一种基于深度神经网络的黄斑水肿病变区域分割方法
Burdick et al. Rethinking skin lesion segmentation in a convolutional classifier
Murakami et al. Automatic identification of bone erosions in rheumatoid arthritis from hand radiographs based on deep convolutional neural network
Hussein et al. Fully‐automatic identification of gynaecological abnormality using a new adaptive frequency filter and histogram of oriented gradients (HOG)
Patel Predicting invasive ductal carcinoma using a reinforcement sample learning strategy using deep learning
Song et al. Kidney segmentation in CT sequences using SKFCM and improved GrowCut algorithm
Gokulalakshmi et al. ICM-BTD: improved classification model for brain tumor diagnosis using discrete wavelet transform-based feature extraction and SVM classifier
Seo et al. A deep learning algorithm for automated measurement of vertebral body compression from X-ray images
Govindarajan et al. Extreme learning machine based differentiation of pulmonary tuberculosis in chest radiographs using integrated local feature descriptors
Lee et al. Comparison of segmentation-free and segmentation-dependent computer-aided diagnosis of breast masses on a public mammography dataset
CN114332132A (zh) 图像分割方法、装置和计算机设备
Albahli et al. AI-driven deep and handcrafted features selection approach for Covid-19 and chest related diseases identification
Tuyet et al. A Deep Bottleneck U-Net Combined with Saliency Map for Classifying Diabetic Retinopathy in Fundus Images.
Farajzadeh et al. A fully-convolutional residual encoder-decoder neural network to localize breast cancer on histopathology images
Arzhaeva et al. Computer‐aided detection of interstitial abnormalities in chest radiographs using a reference standard based on computed tomography
Rani et al. Radon transform-based improved single seeded region growing segmentation for lung cancer detection using AMPWSVM classification approach
Tavana et al. Classification of spinal curvature types using radiography images: deep learning versus classical methods
Casti et al. Cooperative strategy for a dynamic ensemble of classification models in clinical applications: the case of MRI vertebral compression fractures
Aguirre Nilsson et al. Classification of ulcer images using convolutional neural networks
Pang et al. Image segmentation based on the hybrid bias field correction
Kr Ghosh et al. Development of intuitionistic fuzzy special embedded convolutional neural network for mammography enhancement
Porisky et al. Grey matter segmentation in spinal cord MRIs via 3D convolutional encoder networks with shortcut connections
Iqbal et al. AMIAC: adaptive medical image analyzes and classification, a robust self-learning framework
Yektaei et al. Diagnosis of lung cancer using multiscale convolutional neural network
da Silva et al. Enhanced pre-processing for deep learning in MRI whole brain segmentation using orthogonal moments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191210