CN107392909A - 基于神经网络与约束图搜索算法的oct图像层分割方法 - Google Patents

基于神经网络与约束图搜索算法的oct图像层分割方法 Download PDF

Info

Publication number
CN107392909A
CN107392909A CN201710480352.5A CN201710480352A CN107392909A CN 107392909 A CN107392909 A CN 107392909A CN 201710480352 A CN201710480352 A CN 201710480352A CN 107392909 A CN107392909 A CN 107392909A
Authority
CN
China
Prior art keywords
mrow
msub
mtd
mover
oct image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710480352.5A
Other languages
English (en)
Other versions
CN107392909B (zh
Inventor
向德辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou University
Original Assignee
Suzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou University filed Critical Suzhou University
Priority to CN201710480352.5A priority Critical patent/CN107392909B/zh
Publication of CN107392909A publication Critical patent/CN107392909A/zh
Application granted granted Critical
Publication of CN107392909B publication Critical patent/CN107392909B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明涉及一种基于神经网络与约束图搜索算法的OCT图像分割方法,为了精确的分割视网膜层与新生血管而设计。本发明基于神经网络与约束图搜索算法的OCT图像分割方法,包括:得到OCT图像特征训练神经网络分类器;多分辨图搜索算法获得最终的SF1;提取OCT图像的24个特征,使用神经网络分类器找到初始表面S1,S2,…,S8;根据初始边界S2至S8,使用约束图搜索算法依次找到精确的SF2至SF8;在SF7与SF8之间分割新生血管与积液,本发明基于神经网络与约束图搜索算法的OCT图像分割方法,操作简单、检测结果准确。克服现有的对于病变OCT图像分割算法识别率较低、分割效果较差等问题。

Description

基于神经网络与约束图搜索算法的OCT图像层分割方法
技术领域
本发明属于医学图像处理算法领域,具体涉及一种基于神经网络与约束图搜索算法的OCT图像层分割方法。
背景技术
年龄相关性黄斑变性(又被称为老年性黄斑变性,AMD)是一种黄斑部退行性疾病,是我国岁以上人群主要致盲性眼病之一,也是英、美等西方发达国家岁以上人群中致盲的主要原因。AMD常双眼发病,色素上皮层(RPE)出现脱色素或色素增生的异常改变,色素上皮层和脉络膜毛细血管地图样萎缩,脉络膜新生血管(CNV)形成及其黄斑区渗出灶等特点。因此关于年龄相关性黄斑变性视网膜病变的定量分析研究在视网膜的研究中具有非常重要的意义。
光学相干断层扫描(OCT)可以快速、无创地清楚显示视网膜各层结构的病变,是唯一类似活体组织学的一种非侵入性检查。目前,OCT设备有了很大的进步,使得量化视网膜疾病更准确的量化、异常的视网膜层厚度计算研究更加成为可能。但是,OCT图像中视网膜层与CNV分割技术缺乏、分割精度不高,原因在于:首先,视网膜层的形状复杂的,它的内部边界是非光滑的。其次,有可能包含病变结构,如CNV、积液。这导致OCT图像视网膜层之间低对比度和模糊边界,也视网膜层结构变化很大。因此,使用传统的表面检测方法层分割可能会失败,同时,CNV分割使用传统的方法,如区域增长,也可能很容易泄漏到邻域。
鉴于上述,本设计人积极加以研究创新,以期创设一种基于神经网络与约束图搜索算法的OCT图像分割方法,使其更具有产业上的利用价值。
发明内容
为解决上述技术问题,本发明的目的是为提供一种分割准确性高的基于神经网络与约束图搜索算法的OCT图像层分割方法
为达到上述发明目的,本发明基于神经网络与约束图搜索算法的OCT图像层分割方法,包括:
训练随机森林分类器;在训练神经网络分类器时,将OCT图像的多个层结构分割为了n个分类标记区域,各区域分别具有上表面;提取了OCT图像中的m个特征;
确定待分割OCT图像区域1的上表面SF1的初始形状,基于多分辨图搜索算法得到上表面的最终形状SF1;
提取待分割OCT图像与训练神经网络分类器时相同的m个特征,使用神经网络分类器,对待分割OCT图像进行分类标记为n个区域,找到区域2至区域n中各个区域上表面的初始形状S2……Sn,基于各区域上表面的初始形状分别各自使用约束图搜索算法,得到各区域上表面的最终形状SF2……SFn,其中n为正整数;
其中,约束图搜索算法具体包括:
A1:待分割的OCT图像使用各向异性滤波后的OCT图像并根据多尺度亮层结构响应公式计算亮层结构响应σt表示尺度;根据多尺度暗层结构响应公式计算多尺度暗层结构响应其中,σt,mint,max表示最小和最大尺度;
A2:建立约束图,约束图中的结点V(x,y,z)与OCT图像中像素一一对应,另外添加两个虚拟结点:源结点S和汇结点T;约束图包含三类有向边:列内边Eintra、列间边Einter和终端边Eterminal,定义如下:
Eintra=<V(x,y,z),V(x,y,z-1)>
Einter=<V(x,y,z),V(x',y',z-u)>
其中,x'=x-1或者x+1,y'=y-1或者y+1,ω(V(x,y,z))表示结点的权重,定义为
其中,C(V(x,y,z))表示结点的代价,对应OCT图像的边界图像,使用Sobel算子计算合成图像的边界图像C(V(x,y,z)),合成图像计算为
其中,θ、表示合成加权系数;
列内边Eintra和列间边Einter的权重设为无穷大,终端边Eterminal的权重设为各结点V(x,y,z)权重的绝对值|ω(V(x,y,z))|,使用最大流/最小割算法找到上表面。
进一步地,还包括:确定上、下设置的两上表面SFi、SFj之间的新生血管与积液的步骤,具体方法包括:将上表面SFi、SFj之间由上至下划分为若干子区域,各子区域分别具有一上表面,且各子区域均位于该子区域上表面和相邻子区域上表面之间,对各区域的上表面的初始形状分别各自使用约束图搜索算法,得到各子区域上表面的最终形状;
使用凸包算法得到该子区域上表面的凸包上表面,计算该子区域上表面与凸上表面之间高度差,判断所述的高度差是否大于或等于预定个像素,
若大于或等于预定个像素,则确定该子区域存在新生血管,在该子区域使用阈值分割得到新生血管;
若小于预定个像素,则该子区域不存在新生血管;
在SFi与SFj之间使用阈值方法分割积液。
进一步地,训练神经网络分类器的训练包括:
将将脉络膜血管新生视网膜病变视网OCT图像分割为n个区域,区域1、区域2、……区域n;
提取OCT图像的24个特征,具体方式包括:
步骤B1:设OCT图像中体素的坐标向量从OCT图像标记区域中找到最上层上表面;从最上层上表面向下扫描,计算最上层上表面下面体素到最上层上表面的距离,作为一种距离特征;
OCT图像的横轴坐标x和纵轴坐标y作为另外两种特征,其中视网膜层的上表面由z表示;
步骤B2:OCT图像体素值也作为一种特征,使用各向异性滤波后的OCT图像体素值也作为一种特征;
步骤B3:各向异性滤波后的OCT图像进行归一化操作,作为特征:
其中,表示归一化后的图像,IN,max归一化后的图像最大值,If,s表示归一化起始OCT图像值,If,r表示归一化亮度区间宽度;得到5个归一化图像特征;
步骤B4:计算图像的每个像素三个特征值其中σt表示尺度也即高斯函数的标准差,并计算亮层结构响应:
暗层结构响应:
其中,α、β表示对称性参数;基于公式(2)和公式(3),按如下方式计算亮层和暗层结构的多尺度响应:
其中,σt,mint,max表示最小和最大尺度;示例神经网络与测试中,根据公式(2)-(4)计算OCT图像层结构响应图像特征14个;
提取特征后,使用分割标记区域和OCT图像特征训练神经网络分类器。
进一步地,得到OCT图像特征训练神经网络分类器,在训练神经网络分类器时,将OCT图像的多个层结构分割为了8个分类标记区域,分区情况以及各层结构对应的上表面标号如下:区域1:神经纤维层SF1;区域2:神经节细胞层SF2;区域3:内丛状层SF3;区域4:内核层SF4;区域5:外丛状层SF5;区域6:外核层+外界膜+样区SF6;区域7:椭球区+外光感受器节层+交错区+视网膜色素上皮/布鲁赫SF7;区域8:玻璃体+脉络膜SF8;
使用多分辨率图搜索算法获得标示区域1上表面的精确上表面SF1;
提取OCT图像的24个特征,使用已训练的神经网络分类器,对OCT图像进行分类标记8个区域,从上向下找到标记区域的上表面作为视网膜8个区域的初始边界S1,S2,…,S8;
根据初始边界S2至S8,使用约束图搜索算法依次找到精确的SF2至SF8;
在SF7与SF8之间,使用约束图搜索算法分割得到上表面SF7b;
在SF7b与SF8之间,使用约束图搜索算法分割得到上表面SF8t;
使用凸包算法得到上表面SF7的凸上表面SF7’,如果上表面SF7与凸上表面SF7’之间高度差大于a(a=20)个像素,则认为该区域存在新生血管,在SF7与SF7b之间使用阈值分割得到新生血管;否则,认为该区域不存在新生血管;
如果SF7b与SF8t之间高度差大于b(b=5)个像素,则认为该区域存在新生血管,SF7b与SF8t之间使用阈值分割得到新生血管;否则,认为该区域不存在新生血管;
使用凸包算法得到上表面SF8的凸上表面SF8’,如果上表面SF8t与凸上表面SF8’之间高度差大于c(c=8)个像素,则认为该区域存在新生血管,在SF8t与SF8’之间使用阈值分割得到新生血管;否则,认为该区域不存在新生血管;
在SF7与SF8之间使用阈值方法分割积液。
进一步地,步骤C3中:If,s表示归一化起始OCT图像值,设为50、55、60、65、70;If,r表示归一化亮度区间宽度,设为120;
步骤A2中:θ、表示合成加权系数均设为1.
步骤B4中:α、β表示对称性参数,都设为0.25;
σt,mint,max表示最小和最大尺度,设为1和4,σt=1,2,3,4)。
进一步地,所述的预定的像素点为经验值。
与现有技术相比,本发明基于神经网络与约束图搜索算法的OCT图像层分割方法具有以下优点:
提取OCT图像的24个特征,基于该24个特征训练得到随机森林分类器,基于该随机森林分类器,得到OCT图像各个标示区域的上表面的初始形状,基于各区域上表面的初始形状分别各自使用约束图搜索算法,得到各区域上表面的最终形状SF1、SF2……SFn。随机森林分类器训练精准,约束图搜索算法分割方法精确,分割视网膜层与新生血管,克服现有的对于病变OCT图像分割算法识别率较低、分割效果较差等问题。
附图说明
图1为OCT的一个脉络膜血管新生视网膜病变视网膜结构说明图像;
图2为约束图;
图3为说明了OCT图像坐标系、SF6和OCT图像三个平面切片图;
图4为表面分割对比图像,(a)原始OCT图像,(b)红色线为IF算法分割的表面而绿色线为专家手动分割的表面,(c)红色线为MGS算法分割的表面而绿色线为专家手动分割的表面,(d)红色线为神经网络方法找到的初始表面,(e)红色线为本发明神经网络与约束图搜索算法(NNMGS算法)分割的表面而绿色线为专家手动分割的表面,(f)红色线为NNCGS算法分割的表面与OCT滤波图像,(g)为红色线为NNCGS算法分割的表面与亮层结构响应图像,(h)为红色线为NNCGS算法分割的表面与暗层结构响应图像,(I)为红色线为NNCGS算法分割的最终表面与而绿色线为专家手动分割的表面;
图5为新生血管分割对比图像,(a)红色线为IF算法分割的积液而绿色线为专家手动分割的新生血管,(b)为MGS算法分割的新生血管而绿色线为专家手动分割的新生血管,(c)为NNMGS算法分割的新生血管而绿色线为专家手动分割的新生血管,(d)为NNCGS算法分割的SF7b和SF8t(黄色)而蓝色线为SF7’和SF8t’、最下方红色线为SF8’,(e)为NNCGS算法分割的新生血管而绿色线为专家手动分割的新生血管,(f)为NNCG算法分割的积液三维显示;
说明:鉴于本发明的特殊性,为了更清楚地说明本发明的技术方案,在附图中部分采用了彩图的绘制。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
实施例1
本实施例基于神经网络与约束图搜索算法的OCT图像分割方法,包括:
得到OCT图像特征训练神经网络分类器;
使用多分辨率图搜索算法获得最终的SF1;
提取OCT图像的24个特征,使用神经网络分类器,对OCT图像进行分类标记8个区域,从上向下找到标记区域的上表面作为视网膜8个区域的初始边界S1,S2,…,S8;
根据初始边界S2至S8,使用约束图搜索算法依次找到精确的SF2至SF8;
在SF7与SF8之间分割新生血管与积液。
其中,约束图搜索算法具体包括:
步骤1:待分割的OCT图像使用各向异性滤波后的OCT图像并根据多尺度亮层结构响应公式计算亮层结构响应根据多尺度暗层结构响应公式计算多尺度暗层结构响应其中,σt,mint,max表示最小和最大尺度;
步骤2:建立约束图,如图2所示。约束图中的结点V(x,y,z)与OCT图像中像素一一对应,另外添加两个虚拟结点:源结点S和汇结点T。约束图包含三类有向边:列内边Eintra、列间边Einter和终端边Eterminal。定义如下:
Eintra=<V(x,y,z),V(x,y,z-1)>
Einter=<V(x,y,z),V(x',y',z-u)>
其中,ω(V(x,y,z))表示结点的权重,定义为
其中,C(V(x,y,z))表示结点的代价,对应OCT图像的边界图像,使用Sobel算子计算合成图像的边界图像C(V(x,y,z))。合成图像计算为
列内边Eintra和列间边Einter的权重设为无穷大,终端边Eterminal的权重设为各结点V(x,y,z)权重的绝对值|ω(V(x,y,z))|。使用最大流/最小割算法可以找到表面。
其中,新生血管与积液分割包括:
在SF7与SF8之间,使用约束图搜索算法分割得到上表面SF7b;
在SF7b与SF8之间,使用约束图搜索算法分割得到上表面SF8t;
使用凸包算法得到上表面SF7的凸上表面SF7’,如果上表面SF7与凸上表面SF7’之间高度差大于a(a=20)个像素,则认为该区域存在新生血管,在SF7与SF7b之间使用阈值分割得到新生血管;否则,认为该区域不存在新生血管;
如果SF7b与SF8t之间高度差大于b(b=5)个像素,则认为该区域存在新生血管,SF7b与SF8t之间使用阈值分割得到新生血管;否则,认为该区域不存在新生血管;
使用凸包算法得到上表面SF8的凸上表面SF8’,如果上表面SF8t与凸上表面SF8’之间高度差大于c(c=8)个像素,则认为该区域存在新生血管,在SF8t与SF8’之间使用阈值分割得到新生血管;否则,认为该区域不存在新生血管;
在SF7与SF8之间使用阈值方法分割积液。
实施例2
本实施例基于神经网络与约束图搜索算法的OCT图像分割方法,在实施例1的基础上,得到OCT图像特征训练神经网络分类器具体包括:
将脉络膜血管新生视网膜病变视网膜OCT图像分割为8个区域;分区情况以及各层结构对应的上表面标号如下:区域1:神经纤维层SF1;区域2:神经节细胞层SF2;区域3:内丛状层SF3;区域4:内核层SF4;区域5:外丛状层SF5;区域6:外核层+外界膜+样区SF6;区域7:椭球区+外光感受器节层+交错区+视网膜色素上皮/布鲁赫SF7;区域8:玻璃体+脉络膜SF8。
提取OCT图像的24个特征,具体方式如下:
步骤1:设OCT图像中区域1的上表面为SF1。找到从SF1上向下扫描,计算SF1下面像素到SF1的距离,作为一种距离特征;OCT图像的横轴坐标x和纵轴坐标y作为另外两种特征,其中视网膜层的表面SF可以由z表示;图3说明了OCT图像坐标系、SF6和OCT图像三个平面切片图;
步骤2:OCT图像也作为一种特征,使用各向异性滤波后的OCT图像也作为一种特征;
步骤3:各向异性滤波后的OCT图像进行归一化操作,也可以作为特征:
其中,表示归一化后的图像,IN,max归一化后的图像最大值(示例中设为255),If,s表示归一化起始OCT图像值(示例中设为50、55、60、65、70),If,r表示归一化亮度区间宽度(示例中设为120);示例中得到5个归一化图像特征;
步骤3:计算图像的每个像素三个特征值其中σt表示尺度(高斯函数标准差),并计算亮层结构响应:
暗层结构响应:
其中,α、β表示对称性参数(示例中都设为0.25);基于公式(2)和公式(3),可按如下方式计算亮层结构的多尺度响应:
基于公式(3),可按如下方式计算暗层结构的多尺度响应:
其中,σt,mint,max表示最小和最大尺度(示例中都σt,min设为1.0,σt,max设为4.0,σt取值为1.0,2.0,3.0,4.0);示例神经网络与测试中,根据公式(2)-(4)计算OCT图像层结构响应图像特征14个;
提取特征后,使用专家手动分割OCT图像的8个区域标记和OCT图像特征训练神经网络分类器。
实施例3
本实施例基于神经网络与约束图搜索算法的OCT图像分割方法,在实施例1和实施例2的基础上,得到OCT图像特征使用神经网络分类器具体包括:
提取OCT图像的24个特征,具体方式如下:
步骤1:设OCT图像中像素的坐标向量使用高斯滤波器对OCT图像进行滤波,然后使用canny边缘检测算法找到Surface1的初始形状;基于初始形状和多分辨率图搜索算法Surface1的精确形状SF1。找到从SF1上向下扫描,计算SF1下面像素到SF1的距离,作为一种距离特征;OCT图像的横轴坐标x和纵轴坐标y作为另外两种特征,其中视网膜层的表面SF可以由z表示;
步骤2:如实施例2步骤2;
步骤3:如实施例2步骤3.
使用24个特征和实施例2中训练好的神经网络分类器,对OCT图像像素分类,可得到分类图像,分类图像中8个区域的上表面分别是S1,S2,…,S8,也即初始表面。
本发明所采用的OCT数据来自汕头大学-香港中文大学联合眼科中心,其中6个数据作为训练数据,42个数据作为分析此发明方法分割结果准确性的比较。通过真阳性分数TPF、假阳性分数FPF、DSC系数(Dice similarity coefficient)来直观统计新生血管分割结果与金标准的重合度,即分割的准确性,定义为:
|·|表示体素个数,Fr表示专家手动标记为积液,Br表示专家手动标记为非积液,Fa表示发明方法分割结果为新生血管。将此发明方法(NNCGS)与现有方法Iowa参考算法(IF)、多分辨率图搜素算法(MGS)以及神经网络+多分辨率图搜素算法(NNMGS)相比较新生血管分割准确性(%),如表1所示,做配对t-test测试,如表2所示,p值<0.05表示两种方法显著差异性大。表1至表2说明了本发明方法新生血管分割准确性高于现有方法。
表1
表2
通过计算专家手动标记表面与此发明方法分割表面之间的无符号距离和符号距离,评估此发明方法表面分割的精度。将此发明方法(NNCGS)与现有方法Iowa参考算法(IF)、多分辨率图搜素算法(MGS)以及神经网络+多分辨率图搜素算法(NNMGS)相比较,做配对t-test测试,p值<0.05表示两种方法显著差异性大。无符号距离对比如表3所示,符号距离如表5所示,表4为此发明方法无符号距离与其余方法的t-test测试p值,表6为此发明方法符号距离与其余方法的t-test测试p值.表3至表6说明了本发明方法在表面分割的精度高于现有方法。
表3
表4
表5
表6
以上所述仅是本发明的优选实施方式,并不用于限制本发明,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变型,这些改进和变型也应视为本发明的保护范围。

Claims (6)

1.一种基于神经网络与约束图搜索算法的OCT图像层分割方法,其特征在于,包括:
训练随机森林分类器;在训练神经网络分类器时,将OCT图像的多个层结构分割为了n个分类标记区域,各区域分别具有上表面;提取了OCT图像中的m个特征;
确定待分割OCT图像区域1的上表面SF1的初始形状,基于多分辨图搜索算法得到上表面的最终形状SF1;
提取待分割OCT图像与训练神经网络分类器时相同的m个特征,使用神经网络分类器,对待分割OCT图像进行分类标记为n个区域,找到区域2至区域n中各个区域上表面的初始形状S2……Sn,基于各区域上表面的初始形状分别各自使用约束图搜索算法,得到各区域上表面的最终形状SF2……SFn,其中n为正整数;
其中,约束图搜索算法具体包括:
A1:待分割的OCT图像使用各向异性滤波后的OCT图像并根据多尺度亮层结构响应公式计算亮层结构响应σt表示尺度;根据多尺度暗层结构响应公式计算多尺度暗层结构响应其中,σt,mint,max表示最小和最大尺度;
A2:建立约束图,约束图中的结点V(x,y,z)与OCT图像中像素一一对应,另外添加两个虚拟结点:源结点S和汇结点T;约束图包含三类有向边:列内边Eintra、列间边Einter和终端边Eterminal,定义如下:
Eintra=<V(x,y,z),V(x,y,z-1)>
Einter=<V(x,y,z),V(x',y',z-u)>
<mrow> <msup> <mi>E</mi> <mrow> <mi>t</mi> <mi>e</mi> <mi>r</mi> <mi>min</mi> <mi>a</mi> <mi>l</mi> </mrow> </msup> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mo>&lt;</mo> <mi>S</mi> <mo>,</mo> <mi>V</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>&amp;omega;</mi> <mrow> <mo>(</mo> <mi>V</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>&gt;</mo> <mn>0</mn> <mo>;</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>&lt;</mo> <mi>V</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> <mo>)</mo> </mrow> <mo>,</mo> <mi>T</mi> <mo>&gt;</mo> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>&amp;omega;</mi> <mrow> <mo>(</mo> <mi>V</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>&amp;le;</mo> <mn>0</mn> <mo>;</mo> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,x'=x-1或者x+1,y'=y-1或者y+1,ω(V(x,y,z))表示结点的权重,定义为
<mrow> <mi>&amp;omega;</mi> <mrow> <mo>(</mo> <mi>V</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mtable> <mtr> <mtd> <mrow> <mo>-</mo> <mi>C</mi> <mrow> <mo>(</mo> <mrow> <mi>V</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mi>C</mi> <mrow> <mo>(</mo> <mrow> <mi>V</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mrow> <mi>z</mi> <mo>&gt;</mo> <mn>1</mn> <mo>;</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mi>C</mi> <mrow> <mo>(</mo> <mrow> <mi>V</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>z</mi> <mo>=</mo> <mn>1</mn> <mo>;</mo> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,C(V(x,y,z))表示结点的代价,对应OCT图像的边界图像,使用Sobel算子计算合成图像的边界图像C(V(x,y,z)),合成图像计算为
其中,θ、表示合成加权系数;
列内边Eintra和列间边Einter的权重设为无穷大,终端边Eterminal的权重设为各结点V(x,y,z)权重的绝对值|ω(V(x,y,z))|,使用最大流/最小割算法找到上表面。
2.根据权利要求1所述的基于神经网络与约束图搜索算法的OCT图像层分割方法,其特征在于,还包括:确定上、下设置的两上表面SFi、SFj之间的新生血管与积液的步骤,具体方法包括:将上表面SFi、SFj之间由上至下划分为若干子区域,各子区域分别具有一上表面,且各子区域均位于该子区域上表面和相邻子区域上表面之间,对各区域的上表面的初始形状分别各自使用约束图搜索算法,得到各子区域上表面的最终形状;
使用凸包算法得到该子区域上表面的凸包上表面,计算该子区域上表面与凸上表面之间高度差,判断所述的高度差是否大于或等于预定个像素,
若大于或等于预定个像素,则确定该子区域存在新生血管,在该子区域使用阈值分割得到新生血管;
若小于预定个像素,则该子区域不存在新生血管;
在SFi与SFj之间使用阈值方法分割积液。
3.根据权利要求1所述的基于神经网络与约束图搜索算法的OCT图像层分割方法,其特征在于,训练神经网络分类器的训练包括:
将将脉络膜血管新生视网膜病变视网OCT图像分割为n个区域,区域1、区域2、……区域n;
提取OCT图像的24个特征,具体方式包括:
步骤B1:设OCT图像中体素的坐标向量从OCT图像标记区域中找到最上层上表面;从最上层上表面向下扫描,计算最上层上表面下面体素到最上层上表面的距离,作为一种距离特征;
OCT图像的横轴坐标x和纵轴坐标y作为另外两种特征,其中视网膜层的上表面由z表示;
步骤B2:OCT图像体素值也作为一种特征,使用各向异性滤波后的OCT图像体素值也作为一种特征;
步骤B3:各向异性滤波后的OCT图像进行归一化操作,作为特征:
<mrow> <msub> <mi>I</mi> <mi>N</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>I</mi> <mrow> <mi>N</mi> <mo>,</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <mo>;</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>I</mi> <mi>f</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <msub> <mi>I</mi> <mrow> <mi>f</mi> <mo>,</mo> <mi>s</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>I</mi> <mrow> <mi>f</mi> <mo>,</mo> <mi>r</mi> </mrow> </msub> <mo>;</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mfrac> <msub> <mi>I</mi> <mrow> <mi>N</mi> <mo>,</mo> <mi>max</mi> </mrow> </msub> <msub> <mi>I</mi> <mrow> <mi>f</mi> <mo>,</mo> <mi>r</mi> </mrow> </msub> </mfrac> <mrow> <mo>(</mo> <msub> <mi>I</mi> <mi>f</mi> </msub> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>)</mo> <mo>-</mo> <msub> <mi>I</mi> <mrow> <mi>f</mi> <mo>,</mo> <mi>s</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>;</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>I</mi> <mrow> <mi>f</mi> <mo>,</mo> <mi>s</mi> </mrow> </msub> <mo>&lt;</mo> <msub> <mi>I</mi> <mi>f</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>)</mo> </mrow> <mo>&lt;</mo> <msub> <mi>I</mi> <mrow> <mi>f</mi> <mo>,</mo> <mi>s</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>I</mi> <mrow> <mi>f</mi> <mo>,</mo> <mi>r</mi> </mrow> </msub> <mo>;</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>;</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>I</mi> <mi>f</mi> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>)</mo> </mrow> <mo>&lt;</mo> <msub> <mi>I</mi> <mrow> <mi>f</mi> <mo>,</mo> <mi>s</mi> </mrow> </msub> <mo>.</mo> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,表示归一化后的图像,IN,max归一化后的图像最大值,If,s表示归一化起始OCT图像值,If,r表示归一化亮度区间宽度;得到5个归一化图像特征;
步骤B4:计算图像的每个像素三个特征值其中σt表示尺度也即高斯函数的标准差,并计算亮层结构响应:
<mrow> <msup> <mi>L</mi> <mi>b</mi> </msup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mo>|</mo> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msubsup> <mi>&amp;alpha;&amp;lambda;</mi> <mn>1</mn> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>&amp;beta;&amp;lambda;</mi> <mn>2</mn> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mi>&amp;lambda;</mi> <mn>3</mn> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>&lt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
暗层结构响应:
<mrow> <msup> <mi>L</mi> <mi>d</mi> </msup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mo>|</mo> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msubsup> <mi>&amp;alpha;&amp;lambda;</mi> <mn>1</mn> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>&amp;beta;&amp;lambda;</mi> <mn>2</mn> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mi>&amp;lambda;</mi> <mn>3</mn> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>&lt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
其中,α、β表示对称性参数;基于公式(2)和公式(3),按如下方式计算亮层和暗层结构的多尺度响应:
<mrow> <msubsup> <mi>L</mi> <mi>m</mi> <mi>b</mi> </msubsup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> <mrow> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>t</mi> <mo>,</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> <mo>&amp;le;</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>&amp;le;</mo> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>t</mi> <mo>,</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> </mrow> </munder> <msup> <mi>L</mi> <mi>b</mi> </msup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>L</mi> <mi>m</mi> <mi>d</mi> </msubsup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> <mrow> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>t</mi> <mo>,</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> <mo>&amp;le;</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>&amp;le;</mo> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>t</mi> <mo>,</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> </mrow> </munder> <msup> <mi>L</mi> <mi>d</mi> </msup> <mrow> <mo>(</mo> <mover> <mi>x</mi> <mo>&amp;RightArrow;</mo> </mover> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,σt,mint,max表示最小和最大尺度;示例神经网络与测试中,根据公式(2)-(4)计算OCT图像层结构响应图像特征14个;
提取特征后,使用分割标记区域和OCT图像特征训练神经网络分类器。
4.根据权利要求3所述的基于神经网络与约束图搜索算法的OCT图像层分割方法,其特征在于,
得到OCT图像特征训练神经网络分类器,在训练神经网络分类器时,将OCT图像的多个层结构分割为了8个分类标记区域,分区情况以及各层结构对应的上表面标号如下:区域1:神经纤维层SF1;区域2:神经节细胞层SF2;区域3:内丛状层SF3;区域4:内核层SF4;区域5:外丛状层SF5;区域6:外核层+外界膜+样区SF6;区域7:椭球区+外光感受器节层+交错区+视网膜色素上皮/布鲁赫SF7;区域8:玻璃体+脉络膜SF8;
使用多分辨率图搜索算法获得标示区域1上表面的精确上表面SF1;
提取OCT图像的24个特征,使用已训练的神经网络分类器,对OCT图像进行分类标记8个区域,从上向下找到标记区域的上表面作为视网膜8个区域的初始边界S1,S2,…,S8;
根据初始边界S2至S8,使用约束图搜索算法依次找到精确的SF2至SF8;
在SF7与SF8之间,使用约束图搜索算法分割得到上表面SF7b;
在SF7b与SF8之间,使用约束图搜索算法分割得到上表面SF8t;
使用凸包算法得到上表面SF7的凸上表面SF7’,如果上表面SF7与凸上表面SF7’之间高度差大于a(a=20)个像素,则认为该区域存在新生血管,在SF7与SF7b之间使用阈值分割得到新生血管;否则,认为该区域不存在新生血管;
如果SF7b与SF8t之间高度差大于b(b=5)个像素,则认为该区域存在新生血管,SF7b与SF8t之间使用阈值分割得到新生血管;否则,认为该区域不存在新生血管;
使用凸包算法得到上表面SF8的凸上表面SF8’,如果上表面SF8t与凸上表面SF8’之间高度差大于c(c=8)个像素,则认为该区域存在新生血管,在SF8t与SF8’之间使用阈值分割得到新生血管;否则,认为该区域不存在新生血管;
在SF7与SF8之间使用阈值方法分割积液。
5.根据权利要求2所述的基于神经网络与约束图搜索算法的OCT图像层分割方法,其特征在于,步骤C3中:If,s表示归一化起始OCT图像值,设为50、55、60、65、70;If,r表示归一化亮度区间宽度,设为120;
步骤A2中:θ、表示合成加权系数均设为1.
步骤B4中:α、β表示对称性参数,都设为0.25;
σt,mint,max表示最小和最大尺度,设为1和4,σt=1,2,3,4)。
6.根据权利要求1所述的基于神经网络与约束图搜索算法的OCT图像层分割方法,其特征在于,所述的预定的像素点为经验值。
CN201710480352.5A 2017-06-22 2017-06-22 基于神经网络与约束图搜索算法的oct图像层分割方法 Active CN107392909B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710480352.5A CN107392909B (zh) 2017-06-22 2017-06-22 基于神经网络与约束图搜索算法的oct图像层分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710480352.5A CN107392909B (zh) 2017-06-22 2017-06-22 基于神经网络与约束图搜索算法的oct图像层分割方法

Publications (2)

Publication Number Publication Date
CN107392909A true CN107392909A (zh) 2017-11-24
CN107392909B CN107392909B (zh) 2020-11-06

Family

ID=60333592

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710480352.5A Active CN107392909B (zh) 2017-06-22 2017-06-22 基于神经网络与约束图搜索算法的oct图像层分割方法

Country Status (1)

Country Link
CN (1) CN107392909B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107945176A (zh) * 2017-12-15 2018-04-20 西安中科微光影像技术有限公司 一种彩色ivoct成像方法
CN107993229A (zh) * 2017-12-15 2018-05-04 西安中科微光影像技术有限公司 一种基于心血管ivoct图像的组织分类方法和装置
CN108765388A (zh) * 2018-05-17 2018-11-06 苏州大学 食道内窥oct图像层次结构的自动分割方法和系统
CN109091167A (zh) * 2018-06-29 2018-12-28 东南大学 冠状动脉粥样硬化斑块增长的预测方法
CN109615634A (zh) * 2018-12-13 2019-04-12 深圳大学 光学眼底图像分割方法、装置、计算机设备及存储介质
CN109859221A (zh) * 2018-12-06 2019-06-07 中国科学院苏州生物医学工程技术研究所 基于oct图像的皮肤多亚层结构自动分割方法
CN109886969A (zh) * 2019-01-15 2019-06-14 南方医科大学 一种呼吸道内窥光学相干断层图像的三维自动分割方法
CN109886965A (zh) * 2019-04-09 2019-06-14 山东师范大学 一种水平集和深度学习相结合的视网膜层分割方法及系统
CN110010219A (zh) * 2019-03-13 2019-07-12 杭州电子科技大学 光学相干层析图像视网膜病变智能检测系统及检测方法
CN110163838A (zh) * 2019-04-01 2019-08-23 江西比格威医疗科技有限公司 一种视网膜oct图像分层算法
CN110310284A (zh) * 2019-05-09 2019-10-08 济南浪潮高新科技投资发展有限公司 一种基于个性化的层级卷积神经网络的cnv分割方法
CN114155193A (zh) * 2021-10-27 2022-03-08 北京医准智能科技有限公司 一种基于特征强化的血管分割方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514605A (zh) * 2013-10-11 2014-01-15 南京理工大学 基于hd-oct视网膜图像的脉络膜层自动分割方法
CN105894517A (zh) * 2016-04-22 2016-08-24 北京理工大学 基于特征学习的ct图像肝脏分割方法及系统
CN106600614A (zh) * 2016-12-19 2017-04-26 南京理工大学 基于凹凸性的sd‑oct视网膜图像cnv分割方法
CN107016395A (zh) * 2017-03-18 2017-08-04 复旦大学 基于稀疏表示体系的原发性脑部淋巴瘤和胶质母细胞瘤的鉴别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514605A (zh) * 2013-10-11 2014-01-15 南京理工大学 基于hd-oct视网膜图像的脉络膜层自动分割方法
CN105894517A (zh) * 2016-04-22 2016-08-24 北京理工大学 基于特征学习的ct图像肝脏分割方法及系统
CN106600614A (zh) * 2016-12-19 2017-04-26 南京理工大学 基于凹凸性的sd‑oct视网膜图像cnv分割方法
CN107016395A (zh) * 2017-03-18 2017-08-04 复旦大学 基于稀疏表示体系的原发性脑部淋巴瘤和胶质母细胞瘤的鉴别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JING TIAN ET AL.: "Real-time automatic segmentation of optical coherence tomography volume data of the macular region", 《PLOS ONE》 *
李伟: "基于脑MR图像的三维组织自动分割", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107993229A (zh) * 2017-12-15 2018-05-04 西安中科微光影像技术有限公司 一种基于心血管ivoct图像的组织分类方法和装置
CN107945176A (zh) * 2017-12-15 2018-04-20 西安中科微光影像技术有限公司 一种彩色ivoct成像方法
CN107993229B (zh) * 2017-12-15 2021-11-19 中科微光医疗研究中心(西安)有限公司 一种基于心血管ivoct图像的组织分类方法和装置
CN107945176B (zh) * 2017-12-15 2021-05-11 西安中科微光影像技术有限公司 一种彩色ivoct成像方法
CN108765388B (zh) * 2018-05-17 2020-10-27 苏州大学 食道内窥oct图像层次结构的自动分割方法和系统
CN108765388A (zh) * 2018-05-17 2018-11-06 苏州大学 食道内窥oct图像层次结构的自动分割方法和系统
CN109091167A (zh) * 2018-06-29 2018-12-28 东南大学 冠状动脉粥样硬化斑块增长的预测方法
CN109859221A (zh) * 2018-12-06 2019-06-07 中国科学院苏州生物医学工程技术研究所 基于oct图像的皮肤多亚层结构自动分割方法
CN109859221B (zh) * 2018-12-06 2023-03-14 中国科学院苏州生物医学工程技术研究所 基于oct图像的皮肤多亚层结构自动分割方法
CN109615634A (zh) * 2018-12-13 2019-04-12 深圳大学 光学眼底图像分割方法、装置、计算机设备及存储介质
CN109886969A (zh) * 2019-01-15 2019-06-14 南方医科大学 一种呼吸道内窥光学相干断层图像的三维自动分割方法
CN110010219A (zh) * 2019-03-13 2019-07-12 杭州电子科技大学 光学相干层析图像视网膜病变智能检测系统及检测方法
CN110010219B (zh) * 2019-03-13 2021-12-10 杭州电子科技大学 光学相干层析图像视网膜病变智能检测系统及检测方法
CN110163838A (zh) * 2019-04-01 2019-08-23 江西比格威医疗科技有限公司 一种视网膜oct图像分层算法
CN110163838B (zh) * 2019-04-01 2023-04-18 江西比格威医疗科技有限公司 一种视网膜oct图像分层算法
CN109886965A (zh) * 2019-04-09 2019-06-14 山东师范大学 一种水平集和深度学习相结合的视网膜层分割方法及系统
CN110310284A (zh) * 2019-05-09 2019-10-08 济南浪潮高新科技投资发展有限公司 一种基于个性化的层级卷积神经网络的cnv分割方法
CN114155193A (zh) * 2021-10-27 2022-03-08 北京医准智能科技有限公司 一种基于特征强化的血管分割方法及装置

Also Published As

Publication number Publication date
CN107392909B (zh) 2020-11-06

Similar Documents

Publication Publication Date Title
CN107392909B (zh) 基于神经网络与约束图搜索算法的oct图像层分割方法
Zhang et al. Automated segmentation of intraretinal cystoid macular edema for retinal 3D OCT images with macular hole
CN105139027B (zh) 胶囊头缺陷检测方法和装置
Jaafar et al. Automated detection and grading of hard exudates from retinal fundus images
CN107506770A (zh) 糖尿病视网膜病变眼底照相标准图像生成方法
CN107392918B (zh) 基于随机森林与复合活性曲线的oct图像层分割方法
US20110243410A1 (en) Method and system for determining the position of an optic cup boundary
CN109215039B (zh) 一种基于神经网络的眼底图片的处理方法
CN109785321A (zh) 基于深度学习和Gabor滤波器的睑板腺区域提取方法
Rodrigues et al. Retinal vessel segmentation using parallel grayscale skeletonization algorithm and mathematical morphology
Argade et al. Automatic detection of diabetic retinopathy using image processing and data mining techniques
Bogunović et al. Geodesic graph cut based retinal fluid segmentation in optical coherence tomography
CN113920077A (zh) 一种训练眼底图像分割模型的方法以及动静脉分割方法
Zhu et al. Automated framework for intraretinal cystoid macular edema segmentation in three-dimensional optical coherence tomography images with macular hole
Aruchamy et al. Automated glaucoma screening in retinal fundus images
Fondón et al. Automatic optic cup segmentation algorithm for retinal fundus images based on random forest classifier
de Sisternes et al. A machine learning approach for device-independent automated segmentation of retinal cysts in spectral domain optical coherence tomography images
CN115272333B (zh) 一种杯盘比数据的存储系统
CN110378333B (zh) 一种sd-oct图像黄斑中央凹中心定位方法
Somasundaram et al. Detection of exudates for the diagnosis of diabetic retinopathy
Rodtook et al. Optic disc localization using graph traversal algorithm along blood vessel in polar retinal image
Yao et al. 3D colonic polyp segmentation using dynamic deformable surfaces
Listyalina et al. Automated localisation of optic disc in retinal colour fundus image for assisting in the diagnosis of glaucoma
Susetianingtias et al. An Approach to Exudates Detection using Color Reference Segmentation in Retinal Fundus Image
Medhi et al. Improved analysis of diabetic maculopathy using level set spatial fuzzy clustering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Xiang Dehui

Inventor after: Chen Xinjian

Inventor before: Xiang Dehui

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant