CN107480644A - 眼底图像中视盘的定位与分割方法、装置和存储介质 - Google Patents

眼底图像中视盘的定位与分割方法、装置和存储介质 Download PDF

Info

Publication number
CN107480644A
CN107480644A CN201710717821.0A CN201710717821A CN107480644A CN 107480644 A CN107480644 A CN 107480644A CN 201710717821 A CN201710717821 A CN 201710717821A CN 107480644 A CN107480644 A CN 107480644A
Authority
CN
China
Prior art keywords
mrow
msub
optic disk
mtd
mtr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710717821.0A
Other languages
English (en)
Other versions
CN107480644B (zh
Inventor
王欣
黄卓彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201710717821.0A priority Critical patent/CN107480644B/zh
Publication of CN107480644A publication Critical patent/CN107480644A/zh
Application granted granted Critical
Publication of CN107480644B publication Critical patent/CN107480644B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

眼底图像中视盘的定位与分割方法、装置和存储介质,所述方法在视盘的初定位阶段,首先对彩色眼底图像进行改进的加权灰度化;根据眼底半径与视盘半径的比例关系利用最小二乘法椭圆拟合预估视盘的半径;接着借助多次形态学操作来清除动静脉血管的干扰,采用直方图统计确定自适应阈值,据此分割出眼底中前0.01%亮的区域,将该区域的几何中心作为预估的视盘中心;最后确定视盘定位矩形框。在视盘的准确定位与分割阶段,使用GrabCut方法来分割视盘,对分割出的区域轮廓使用椭圆拟合确定视盘位置和大小参数,完成视盘的定位。对于GrabCut分割结果中视盘半径过大的情况进行二次分割,确定新的阈值,拟合轮廓得到最终分割结果。

Description

眼底图像中视盘的定位与分割方法、装置和存储介质
技术领域
本申请涉及图像分析领域,具体的涉及一种对彩色的眼底图像中的视盘进行精确的定位与分割的方法、装置和存储介质。
背景技术
从眼底图像中获得视盘,对视盘进行定位和分割是眼底图像测量的最迫切的需求。对于视盘的定位与分割,常规的方法为利用图像预处理、滤波、椭圆拟合和形态学等图像处理方法对视盘分割,上述的方法具有一定的效果,但仍然具有一定的缺陷。
例如,Lalonde(Lalonde M,Beaulieu M,Gagnon L.Fast and robust optic discdetection using pyramidal decomposition and Hausdorff-based template matching[J].Medical Imaging,IEEE Transactions on,2001,20(11):1193-1200)等对眼底边缘图像使用基于Hausdorff的模版匹配技术配合金字塔分解获得视盘的跟踪定位,该方法模版的选取受所选取的眼底图像限制,适用性不够好,而且模版样本的选取也具有一定的局限性。
Aquino(Aquino A,Gegúndez-Arias M E,Marín D.Detecting the optic discboundary in digital fundus images using morphological,edge detection,andfeature extraction techniques[J].Medical Imaging,IEEE Transactions on,2010,29(11):1860-1869)等采用形态学、边缘检测、霍夫圆变换和特征提取的方法识别视盘,首先采用了一种投票类型算法定位到视盘内的任意一点,接着使用形态学和霍夫圆变换去估计视盘的边界。形态学对于去除眼底血管效果比较明显,也不会对原本较亮的视盘造成较大的腐蚀,但是对视盘边缘检测分割后噪点较多,视盘边界不很分明,而且在眼底图像中视盘通常呈现不规则的椭圆形,霍夫圆变换不一定能准确估计视盘边界。
此外,主动轮廓模型、能量方程和结合图论的思想也常常被有效地用于目标分割领域。这些方法往往比较耗时,但目标边缘分割效果较好。Kumara(Kumara M,Meegama R GN.Active contour-based segmentation and removal of optic disk from retinalimages[C]//Advances in ICT for Emerging Regions(ICTer),2013InternationalConference on.IEEE,2013:15-20)等首先使用边缘检测、形态学和霍夫圆变换去粗略估计视盘边界,接着使用主动轮廓模型精确界定视盘边界。Boykov(Boykov Y,Veksler O,ZabihR.Fast approximate energy minimization via graph cuts[J].Pattern Analysis andMachine Intelligence,IEEE Transactions on,2001,23(11):1222-1239)等提出的GraphCut(即图割)是基于图论和能量优化的算法,对于前景分明的目标分割效果较好,但这依赖于图像的前期处理,把目标图像与前景图像分开。微软研究院提出的GrabCut(Rother C,Kolmogorov V,Blake A.Grabcut:Interactive foreground extractionusing iterated graph cuts[J].ACM Transactions on Graphics(TOG),2004,23(3):309-314)分割算法基于Graph Cut,在目标和背景建模方面使用高斯混合模型代替了GraphCut的直方图模型,支持多次迭代能量方程,只需要框定前景区域就能较好分割彩色和灰度图像,该方法交互性较少,适合半自动化操作。
目前的方法对其自身的测试数据集效果都较好,但是对于其他数据集未必取得较好的分割效果,这可能是由于训练的参数不一定适配各种类型和尺寸的彩色眼底图像。这些方法中采用的滤波、形态学、椭圆拟合和图论的分割思想和方法经测试对分割都具有明显的作用,但是需要有步骤合理地实施才能适应各类眼底图。而现实中所拍摄的眼底图像往往具有不同的情况,因此,如何适应不同的眼底图像情况,适应性强,计算量小,对于视盘的分割均具有较好的效果成为现有技术亟需解决的技术问题。
发明内容
本发明的目的在于提出一种眼底图像中视盘的定位与分割方法、装置和存储介质,对视盘的分割分成初定位和准确分割两个阶段,两个阶段优势互补,环环相扣,尽可能做到自动的计算确定较为准确的参数以适应各类眼底图,并提高分割的自动化程度。
为达此目的,本发明采用以下技术方案:
本发明公开了眼底图像中视盘的定位与分割方法,包括如下步骤:
加权灰度化步骤S110:对彩色眼底图像进行灰度化,去除效果不好的B通道,仅采用R通道和G通道进行加权灰度化,其中R通道的权值大于G通道;
预估视盘半径步骤S120:采用轮廓匹配和椭圆拟合的方法,确定眼底半径,并根据眼底半径与视盘半径之间的比例关系预估视盘半径R;
预估视盘中心步骤S130:迭代执行闭运算多次清除血管,采用直方图统计确定自适应阈值,据此分割出眼底中前0.01%的最亮区域Q,将该区域Q的几何中心(xc,yc)作为预估的视盘中心;
视盘定位矩形框确定步骤S140:根据如下公式确定视盘矩形框的位置(xr,yr,wr,hr),其中(xr,yr)表示实际确定的视盘矩形框的左上角坐标,wr表示矩形的宽,hr表示矩形的高;
在公式中,we和he表示彩色眼底图像的宽和高;
视盘的准确定位与分割步骤S150:将视盘定位矩形框框住的区域作为前景区域,使用GrabCut算法分割出视盘轮廓,使用轮廓匹配结合椭圆拟合得到光滑视盘边缘,最终分割得到视盘中心。
可选的,还包括二次分割步骤S160:将上一步骤,即GrabCut分割并椭圆拟合后的椭圆视盘的长半轴与预估视盘半径进行比较,对于拟合后椭圆视盘的长半轴是预估的视盘半径的1.3倍以上的结果二次分割,选取GrabCut结果图中前1.3%亮的像素,使用直方图统计的方法来自适应地选取合适的阈值,对得到的轮廓拟合椭圆,得到二次分割的视盘结果。
可选的,在加权灰度化步骤中,使用如下公式进行加权灰度化:
Gray(x,y)=0.6*R(x,y)+0.4*G(x,y)。
可选的,在预估视盘半径步骤中,采用眼底长半轴的1/7预估为视盘的半径R。
可选的,在预估视盘中心步骤中,迭代执行闭运算7次清除血管;
几何中心(xc,yc)通过如下公式计算得到,
本发明进一步公开了眼底图像中视盘的定位与分割装置,包括如下单元:
加权灰度化单元:对彩色眼底图像进行灰度化,去除效果不好的B通道,仅采用R通道和G通道进行加权灰度化,其中R通道的权值大于G通道;
视盘半径预估单元:采用轮廓匹配和椭圆拟合的方法,确定眼底半径,并根据眼底半径与视盘半径之间的比例关系预估视盘半径R;
视盘中心预估单元:迭代执行闭运算多次清除血管,采用直方图统计确定自适应阈值,据此分割出眼底中前0.01%的最亮区域Q,将该区域Q的几何中心(xc,yc)作为预估的视盘中心;
视盘定位矩形框确定单元:根据如下公式确定视盘矩形框的位置(xr,yr,wr,hr),其中(xr,yr)表示实际确定的视盘矩形框的左上角坐标,wr表示矩形的宽,hr表示矩形的高;
在公式中,we和he表示彩色眼底图像的宽和高;
视盘的准确定位与分割单元:将视盘定位矩形框框住的区域作为前景区域,使用GrabCut算法分割出视盘轮廓,使用轮廓匹配结合椭圆拟合得到光滑视盘边缘,最终分割得到视盘中心。
可选的,还包括二次分割单元:即GrabCut分割并椭圆拟合后的椭圆视盘的长半轴与预估视盘半径进行比较,对于拟合后椭圆视盘的长半轴是预估的视盘半径的1.3倍以上的结果二次分割,选取GrabCut结果图中前1.3%亮的像素,使用直方图统计的方法来自适应地选取合适的阈值,对得到的轮廓拟合椭圆,得到二次分割的视盘结果。
可选的,在加权灰度化单元中,使用如下公式进行加权灰度化:
Gray(x,y)=0.6*R(x,y)+0.4*G(x,y)。
可选的,在视盘半径预估单元中,采用眼底长半轴的1/7预估为视盘的半径R;和/或
在视盘中心预估单元中,迭代执行闭运算7次清除血管;
几何中心(xc,yc)通过如下公式计算得到,
本发明还公开了一种存储介质,用于存储计算机可执行指令,
其中所述计算机可执行指令在被处理器执行时执行上述的眼底图像中视盘的定位与分割方法。
本发明具有如下优点:
(1)本发明将视盘的定位与分割分成两个合理的阶段,初定位和准确定位与分割。初定位阶段提供了准确的视盘定位矩形框,其作为第二阶段的输入,为准确定位与分割创造了良好的条件。相对于现有技术中前期血管清除效果不好以及GrabCut结果不良,整体上提高分割准确率。
(2)在预估视盘中心时,设置极低比例的最亮像素以提前预估视盘中心,现有技术设置较大的比率试图直接提取整个视盘区域,可能把视盘外像素拉进来,不利于后续边界确定,边界扩大后修复难度较大。
(3)采取了间接的分割方法,先大概但是比较准确地预估视盘中心,由于该预估中心可能位于视盘内任意位置,接着比较保守地确定视盘定位矩形框,保证在任何情况下,视盘均在框内。最后把准确的定位与分割交给基于图论和能量优化的GrabCut算法执行,准确确定视盘的位置参数。
(4)视盘定位与分割方法可自动完成,不仅准确率较高,而且执行速度和资源占用良好。内部计算参数最优化,自动地预估视盘中心和确定预估的视盘半径,适应多种类型和尺寸的彩色眼底图。
附图说明
图1是根据本发明具体实施例的眼底图像中视盘的定位与分割方法的流程图;
图2是根据本发明具体实施例的眼底图像的灰度对比图,图(a)为常规灰度图,图(b)为改进的加权灰度图;
图3是根据本发明具体实施例的眼底图像的闭运算清除血管后的灰度图,图(a)1次闭运算结果,图(b)3次闭运算结果,图(c)5次闭运算结果,图(d)7次闭运算结果;
图4是根据本发明具体实施例的眼底图像的提取最亮区域图;
图5是根据本发明具体实施例的眼底图像的预估视盘中心图;
图6是根据本发明具体实施例的视盘矩形框定位示意图;
图7是根据本发明具体实施例的视盘定位矩形框位置图;
图8是根据本发明具体实施例的视盘分割结果图,图(a)GrabCut分割结果,图(b)最终分割结果;
图9是根据本发明具体实施例的视盘二次分割结果,图(a)彩色眼底图,图(b)GrabCut分割结果,图(c)GrabCut得到的最终结果,图(d)二次分割的最终结果;
图10是根据本发明具体实施例的眼底图像中视盘的定位与分割的装置的模块图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
本发明将眼底图像中视盘的定位分为了初定位阶段和精确定位阶段,在初定位阶段中,首先对彩色眼底图像预处理,采用改进的加权灰度化得到单通道图像;其次根据眼底半径与视盘半径的比例关系利用最小二乘法椭圆拟合预估视盘的半径;接着预估视盘中心,借助多次形态学操作来清除动静脉血管的干扰以进一步增强视盘区域,采用直方图统计确定自适应阈值,据此分割出眼底中前0.01%亮的区域,将该区域的几何中心作为预估的视盘中心;最后确定视盘定位矩形框,根据前面得到的视盘半径和视盘中心在考虑预估视盘中心所有可能出现位置的情况下确定矩形框的位置,将感兴趣的前景范围确定在一个较小的矩形框内。在视盘的准确定位与分割阶段,使用基于图论和能量优化的GrabCut方法来分割视盘,最后对分割出的区域轮廓使用椭圆拟合确定视盘位置和大小参数,完成视盘的定位。对于GrabCut分割结果中视盘半径过大的情况进行二次分割,确定新的阈值,拟合轮廓得到最终分割结果。
具体而言,参见图1,示出了根据本发明具体实施例的眼底图像中视盘的定位与分割方法的流程图,上述步骤中,包括视盘的初定位阶段,以及视盘的准确定位与分割阶段
首先是视盘的初定位阶段,该阶段对眼底图像进行预处理,对视盘初定位,即预估视盘的中心,确定视盘定位的矩形框,将视盘约束在里面,为后续准确定位与分割打下基础。
具体包括如下步骤:
加权灰度化步骤S110:对彩色眼底图像进行灰度化,去除效果不好的B通道,仅采用R通道和G通道进行加权灰度化,其中R通道的权值大于G通道。
在常见的彩色的眼底图中,视盘和眼底其他区域几乎都呈现血色,分割出视盘十分不易。在通用的计算机视觉处理过程中,往往是把图像转为单通道来处理。具体到RGB的三个通道中,B通道图效果不好,提取视盘几乎没有希望;G和R通道图中视盘都比较明显,但G通道血管干扰因素仍然较大,而R通道视盘区域含有较少血管像素。而本发明根据G通道和R通道不同的效果,使得R通道的权值大于G通道,突出R通道的较高亮度和血管像素少对定位和分割的意义。
进一步的,在该步骤中,使用如下公式进行加权灰度化:
Gray(x,y)=0.6*R(x,y)+0.4*G(x,y)。
图2是根据本发明具体实施例的眼底图像的灰度对比图,图(a)为常规灰度图,图(b)为改进的加权灰度图。从上述对比中可以明显看出,常规的灰度化由于血管干扰导致视盘区域中央较暗,容易使得视盘分割不完整。改进的加权灰度图视盘中央区域更加明亮,更加完整清晰。
预估视盘半径步骤S120:采用轮廓匹配和椭圆拟合的方法,确定眼底半径,并根据眼底半径与视盘半径之间的比例关系预估视盘半径R。
眼底检查拍摄的眼底照片大都比较规则,眼底大致呈圆形,因此可以使用圆形拟合出眼底的轮廓,但实际上受拍摄条件、图像缩放、误差等原因的影响,实验发现只有很少的几率能够匹配上正圆。因此,本发明使用轮廓匹配和椭圆拟合完成眼底半径的确定。进一步的,根据视盘的半径与眼底的半径之间一定的比例关系预估视盘半径。
优选的,在本步骤中可以采用眼底长半轴的1/7预估为视盘的半径R。
当然,本领域技术人员也可以知道采用眼底图像中的其它的比例关系来预估视盘的半径,例如采用眼底短半轴与视盘半径的比例关系来预估,上述方法都在本发明的保护范围之中。
预估视盘中心步骤S130:迭代执行闭运算多次清除血管,采用直方图统计确定自适应阈值,据此分割出眼底中前0.01%的最亮区域Q,将该区域Q的几何中心(xc,yc)作为预估的视盘中心。
该步骤首先使用形态学操作清除视盘内残余的血管,该操作能够增强视盘的连通性,并拉开视盘与其他区域的像素差异,便于后面初定位视盘中心和分割。
具体的,本步骤使用形态学中的迭代闭运算的方法来清除视盘中的血管。
相对于开运算,形态学有两个常见操作:开运算和闭运算。开运算是先对图像进行腐蚀,消除图像的“毛刺”,然后进行膨胀,使得图像规整。开运算可以统计连通区域的个数,例如统计显微镜图片里面的细胞个数。开运算使得原本亮的地方变暗了。与开运算相反,闭运算先对图像膨胀,填补图像的像素“黑洞”,然后执行腐蚀。闭运算是图像后处理过程中消除噪声、空洞填充的良好方法。闭运算使得原本暗的地方变亮了。视盘可以看成是一个完整的连通区域,闭运算可以较好的消除连通区域内的噪声,而且实验发现多次迭代可以改善噪声消除的效果。
参见图3,示出了根据本发明具体实施例的眼底图像的闭运算清除血管后的灰度图,图(a)是1次闭运算结果,图(b)是3次闭运算结果,图(c)是5次闭运算结果,图(d)是7次闭运算结果。从上述图中可以看出,随着闭运算的进行,灰度图中逐渐消除了血管的噪声影响。
优选的,闭运算执行7次。
为了预估视盘的几何中心,本发明提取眼底图像中最亮的部分来试图预估视盘的中心位置,且提取最亮部分像素占整个眼底图像素比率是0.01%,设置较低的比率能够更加准确地预估视盘几何中心,保证所计算得到的几何中心始终在视盘内,虽然有可能处于视盘区域远离实际中心的位置,但是后续的操作将准确地确定其位置。
参见图4,示出了根据本发明具体实施例的眼底图像的提取最亮区域图,在本发明的具体实施例中,得到的最亮区域较小,在图4的例子中,只有10个白色像素,区域越小意味着后续预估的视盘中心越准确。如果采用较大百分比,则提取到的部分比较大,反而不容易预估几何中心。
由于提取到的最亮部分不仅像素少而且形状也不规则,采用区域的几何中心作为预估的视盘中心。几何中心能够较为准确地反映一个区域的中心位置,对于一个含有有限点集的平面区域Q,几何中心是该区域中所有的点集的坐标分量的均值。设Q含有n个点,几何中心坐标元素(xc,yc)的计算公式如下:
参见图5,示出了在本发明具体实施例的眼底图像的预估视盘中心图。其中矩形框是最亮区域的外接矩形,可以看到,受多种因素影响,虽然预估的视盘中心不是真正的视盘中心,但已经将真正的视盘中心确定在内,这为下一步通过准确定位获得精确的视盘中心奠定了基础,且减少了计算量。
视盘定位矩形框确定步骤S140:根据如下公式确定视盘矩形框的位置(xr,yr,wr,hr),其中(xr,yr)表示实际确定的视盘矩形框的左上角坐标,wr表示矩形的宽,hr表示矩形的高;
在公式中,we和he表示彩色眼底图像的宽和高。
由于预估的视盘中心不处于中心,为了保证较好的鲁棒性,本发明将确定最小的矩形框来包含视盘区域。矩形框越小,后续的分割算法执行速度也快,所得的结果也越精确。
参见图6,示出了视盘矩形框定位示意图,(xc,yc)表示预估得到的视盘几何中心,实线标注的圆表示理想情况下的视盘,(xc,yc)位于圆内任意位置。虚线矩形框表示理想情况下确定的视盘矩形框,(x0,y0)表示理想情况下的视盘矩形框的左上角坐标,而(x0+2R,y0+2R)表示理想情况下的视盘矩形框的右下角坐标,其中R是前面预估得到的视盘半径。实线矩形框表示本发明确定的视盘矩形框的实际位置,(xr,yr)表示实际确定的视盘矩形框的左上角坐标,wr表示矩形的宽,hr表示矩形的高。
参见图7,示出了具体的视盘定位矩形框位置图。
接下来进行视盘的准确定位与分割,在该阶段,具体包括如下步骤:
视盘的准确定位与分割步骤S150:将视盘定位矩形框框住的区域作为前景区域,使用GrabCut算法分割出视盘轮廓,使用轮廓匹配结合椭圆拟合得到光滑视盘边缘,最终得到视盘中心、长半轴和短半轴参数。
其中GrabCut算法是基于图割(graph cut)改进的算法,该算法的交互操作非常简单,使用一个框住目标的矩形框,把框内像素暂时看成是目标区域,框外暂时看成是背景区域,算法后续自动完成框内背景像素的清除,目标分割效果较好。在该步骤中,利用以上步骤确定的视盘定位矩形框,使用GrabCut算法完成视盘定位与分割的自动化。
GrabCut算法是使用全协方差的高斯混合模型(Gaussian Mixture Model,GMM)计算某像素属于前景或者背景的概率,然后取负对数。高斯混合模型假设目前所得的样本集符合混合高斯分布(正态分布),通过这些样本集数据来估计其概率密度函数的参数从而确定GMM函数模型。GMM模型能够适应多次迭代而不断学习以调节参数,从而不断优化分割结果。
参见图8,示出了本发明具体实施例的视盘分割结果图,图(a)是GrabCut分割结果,图(b)是采用椭圆拟合后的最终分割结果。可见椭圆中心可以准确的定位视盘。
通常的情况下,使用GrabCut算法能够对视盘定位矩形框的视盘进行精确定位,但如果视盘边缘区域周围像素相似度较高,某些眼底图中视盘边缘不够锐利,会导致利用GrabCut分割得到的视盘区域比理想情况下的面积大,最终导致了轮廓拟合时得到的视盘半径较大。
因此,优选的,还包括二次分割步骤S160:将上一步骤,即GrabCut分割并椭圆拟合后的椭圆视盘的长半轴与预估视盘半径进行比较,对于拟合后椭圆视盘的长半轴是预估的视盘半径的1.3倍以上的结果二次分割,选取GrabCut结果图中前1.3%亮的像素,使用直方图统计的方法来自适应地选取合适的阈值,从而能够保证在眼底图整体偏亮或者偏暗的情况下都能获得较好的阈值,接着对得到的轮廓拟合椭圆,得到二次分割的视盘结果。合适的阈值能够获得更小的分割区域,阈值越大即分割出的白色区域越小,越可能准确反映视盘区域,从而剔除了边缘的背景像素。最后对变小的区域轮廓拟合。
参见图9,示出了一个示例性的视盘二次分割结果,图(a)是原始的彩色眼底图,图(b)是GrabCut分割结果,图(c)是GrabCut得到的最终结果,图(d)是二次分割的最终结果,比较图(c)和图(d)可以看出经过二次分割的结果图,相比与并未经过二次分割,所得到的视盘更加准确。
实施例1:
本实施例采用上述的方法,对Messidor眼底库的数据进行随机测试。Messidor眼底库的测试结果由法国研究和国防部资助的用于评估各类算法检测病变眼底图像效果及索引和管理各类眼底图像的数据库。该数据库主要用于针对糖尿病视网膜病变的计算机辅助诊断的研究。该数据库收集的眼底图像数量巨大而且具有多个分辨率版本,包含了1200张彩色眼底图。
本次测试从从Messidor眼底库的12个小数据集中随机选取10张,共计120张彩色眼底图进行实验。可以看出经形态学运算预处理后血管几乎被消除,由预估的视盘中心和视盘半径确定的视盘定位矩形框能够有效地把视盘框住,在两者的基础上,配合GrabCut算法可以准确地定位与分割视盘。
实施例2
西班牙韦尔瓦大学提供了针对Messidor眼底库的专家分割的视盘分割标准图(http://www.uhu.es/retinopathy/eng/bd.php),可作为视盘分割的金标准。和相关研究类似,使用本发明分割的视盘与金标准的视盘的面积重叠率衡量算法的优良。
具体而言,S表示重叠率,T和D分别表示金标准视盘和算法分割的视盘区域,Area表示求区域面积。因此两者面积的交集与两者面积的并集之比定义为重叠率即准确率,S在[0,1]区间内,S越接近于1表示算法分割出的视盘越接近于金标准,因而分割越准确。
表1统计了本发明的方法与现有技术的Lalonde法(Lalonde M,Beaulieu M,Gagnon L.Fast and robust optic disc detection using pyramidal decompositionand Hausdorff-based template matching[J].Medical Imaging,IEEE Transactionson,2001,20(11):1193-1200)不同重叠率区间下眼底图所占的百分比。从中看出,本发明相对于Lalonde法对于Messidor眼底库具有较高的分割精度。
表1不同重叠率区间下眼底图占比和平均重叠率(单位:%)
方法 S≥0.95 S≥0.90 S≥0.85 S≥0.80 S≥0.75 S≥0.70 总均值
Lalonde 2 25 45 70 77 85 81
本发明 3 17 63 75 81 91 83
因此,本发明具有如下的优点:
(1)本发明将视盘的定位与分割分成两个合理的阶段,初定位和准确定位与分割。初定位阶段提供了准确的视盘定位矩形框,其作为第二阶段的输入,为准确定位与分割创造了良好的条件。相对于现有技术中前期血管清除效果不好以及GrabCut结果不良,整体上提高分割准确率。
(2)在预估视盘中心时,设置极低比例的最亮像素以提前预估视盘中心,现有技术设置较大的比率试图直接提取整个视盘区域,可能把视盘外像素拉进来,不利于后续边界确定,边界扩大后修复难度较大。
(3)采取了间接的分割方法,先大概但是比较准确地预估视盘中心,由于该预估中心可能位于视盘内任意位置,接着比较保守地确定视盘定位矩形框,保证在任何情况下,视盘均在框内。最后把准确的定位与分割交给基于图论和能量优化的GrabCut算法执行,准确确定视盘的位置参数。
(4)视盘定位与分割方法可自行完成,不仅准确率较高,而且执行速度和资源占用良好。内部计算参数最优化,自动地预估视盘中心和确定预估的视盘半径,适应多种类型和尺寸的彩色眼底图。
进一步的,本发明还公开了一种眼底图像中视盘的定位与分割装置,包括如下单元:
加权灰度化单元210:对彩色眼底图像进行灰度化,去除效果不好的B通道,仅采用R通道和G通道进行加权灰度化,其中R通道的权值大于G通道;
视盘半径预估单元:采用轮廓匹配和椭圆拟合的方法,确定眼底半径,并根据眼底半径与视盘半径之间的比例关系预估视盘半径R;
视盘中心预估单元:迭代执行闭运算多次清除血管,采用直方图统计确定自适应阈值,据此分割出眼底中前0.01%的最亮区域Q,将该区域Q的几何中心(xc,yc)作为预估的视盘中心;
视盘定位矩形框确定单元:根据如下公式确定视盘矩形框的位置(xr,yr,wr,hr),其中(xr,yr)表示实际确定的视盘矩形框的左上角坐标,wr表示矩形的宽,hr表示矩形的高;
在公式中,we和he表示彩色眼底图像的宽和高;
视盘的准确定位与分割单元:将视盘定位矩形框框住的区域作为前景区域,使用GrabCut算法分割出视盘轮廓,使用轮廓匹配结合椭圆拟合得到光滑视盘边缘,最终分割得到视盘中心。
优选的,还包括二次分割单元:将GrabCut分割并椭圆拟合后的视盘半径与预估视盘半径进行比较,对于得到的视盘半径是预估的视盘半径的1.3倍以上的结果二次分割,选取GrabCut结果图中前1.3%亮的像素,使用直方图统计的方法来自适应地选取合适的阈值,对得到的轮廓拟合椭圆,得到二次分割的视盘结果。
优选的,在加权灰度化单元中,使用如下公式进行加权灰度化:
Gray(x,y)=0.6*R(x,y)+0.4*G(x,y)。
优选的,在视盘半径预估单元中,采用眼底长半轴的1/7预估为视盘的半径R;和/或
在视盘中心预估单元中,迭代执行闭运算7次清除血管;
几何中心(xc,yc)通过如下公式计算得到,
进一步的,本发明还公开了一种存储介质,用于存储计算机可执行指令,
所述计算机可执行指令在被处理器执行时执行本发明所述的眼底图像中视盘的定位与分割方法。
如本领域技术人员将意识到的,本发明的各个方面可以被实现为系统、方法或计算机程序产品。因此,本发明的各个方面可以采取如下形式:完全硬件实施方式、完全软件实施方式(包括固件、常驻软件、微代码等)或者在本文中通常可以都称为“电路”、“模块”或“系统”的将软件方面与硬件方面相结合的实施方式。此外,本发明的方面可以采取如下形式:在一个或多个计算机可读介质中实现的计算机程序产品,计算机可读介质具有在其上实现的计算机可读程序代码。
可以利用一个或多个计算机可读介质的任意组合。计算机可读介质可以是计算机可读信号介质或计算机可读存储介质。计算机可读存储介质可以是如(但不限于)电子的、磁的、光学的、电磁的、红外的或半导体系统、设备或装置,或者前述的任意适当的组合。计算机可读存储介质的更具体的示例(非穷尽列举)将包括以下各项:具有一根或多根电线的电气连接、便携式计算机软盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪速存储器)、光纤、便携式光盘只读存储器(CD-ROM)、光存储装置、磁存储装置或前述的任意适当的组合。在本文件的上下文中,计算机可读存储介质可以为能够包含或存储由指令执行系统、设备或装置使用的程序或结合指令执行系统、设备或装置使用的程序的任意有形介质。
计算机可读信号介质可以包括传播的数据信号,所述传播的数据信号具有在其中如在基带中或作为载波的一部分实现的计算机可读程序代码。这样的传播的信号可以采用多种形式中的任何形式,包括但不限于:电磁的、光学的或其任何适当的组合。计算机可读信号介质可以是以下任意计算机可读介质:不是计算机可读存储介质,并且可以对由指令执行系统、设备或装置使用的或结合指令执行系统、设备或装置使用的程序进行通信、传播或传输。
可以使用包括但不限于无线、有线、光纤电缆、RF等或前述的任意适当组合的任意合适的介质来传送实现在计算机可读介质上的程序代码。
用于执行针对本发明各方面的操作的计算机程序代码可以以一种或多种编程语言的任意组合来编写,所述编程语言包括:面向对象的编程语言如Java、Smalltalk、C++等;以及常规过程编程语言如“C”编程语言或类似的编程语言。程序代码可以作为独立软件包完全地在用户计算机上、部分地在用户计算机上执行;部分地在用户计算机上且部分地在远程计算机上执行;或者完全地在远程计算机或服务器上执行。在后一种情况下,可以将远程计算机通过包括局域网(LAN)或广域网(WAN)的任意类型的网络连接至用户计算机,或者可以与外部计算机进行连接(例如通过使用因特网服务供应商的因特网)。
还可以将这些计算机程序指令存储在可以指导计算机、其它可编程数据处理设备或其它装置以特定方式运行的计算机可读介质中,使得在计算机可读介质中存储的指令产生包括实现在流程图和/或框图块或块中指定的功能/动作的指令的制品。
计算机程序指令还可以被加载至计算机、其它可编程数据处理设备或其它装置上,以使在计算机、其它可编程设备或其它装置上执行一系列可操作步骤来产生计算机实现的过程,使得在计算机或其它可编程设备上执行的指令提供用于实现在流程图和/或框图块或块中指定的功能/动作的过程。
显然,本领域技术人员应该明白,上述的本发明的各单元或各步骤可以用通用的计算装置来实现,它们可以集中在单个计算装置上,可选地,他们可以用计算机装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件的结合。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施方式仅限于此,对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单的推演或替换,都应当视为属于本发明由所提交的权利要求书确定保护范围。

Claims (10)

1.眼底图像中视盘的定位与分割方法,包括如下步骤:
加权灰度化步骤S110:对彩色眼底图像进行灰度化,去除效果不好的B通道,仅采用R通道和G通道进行加权灰度化,其中R通道的权值大于G通道;
预估视盘半径步骤S120:采用轮廓匹配和椭圆拟合的方法,确定眼底半径,并根据眼底半径与视盘半径之间的比例关系预估视盘半径R;
预估视盘中心步骤S130:迭代执行闭运算多次清除血管,采用直方图统计确定自适应阈值,据此分割出眼底中前0.01%的最亮区域Q,将该区域Q的几何中心(xc,yc)作为预估的视盘中心;
视盘定位矩形框确定步骤S140:根据如下公式确定视盘矩形框的位置(xr,yr,wr,hr),其中(xr,yr)表示实际确定的视盘矩形框的左上角坐标,wr表示矩形的宽,hr表示矩形的高;
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mi>r</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>-</mo> <mn>2</mn> <mi>R</mi> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>-</mo> <mn>2</mn> <mi>R</mi> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mi>r</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>-</mo> <mn>2</mn> <mi>R</mi> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>-</mo> <mn>2</mn> <mi>R</mi> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>w</mi> <mi>r</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>4</mn> <mi>R</mi> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>+</mo> <mn>4</mn> <mi>R</mi> <mo>&amp;le;</mo> <msub> <mi>w</mi> <mi>e</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>w</mi> <mi>e</mi> </msub> <mo>-</mo> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>h</mi> <mi>r</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>4</mn> <mi>R</mi> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>+</mo> <mn>4</mn> <mi>R</mi> <mo>&amp;le;</mo> <msub> <mi>h</mi> <mi>e</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>h</mi> <mi>e</mi> </msub> <mo>-</mo> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> </mtable> </mfenced>
在公式中,we和he表示彩色眼底图像的宽和高;
视盘的准确定位与分割步骤S150:将视盘定位矩形框框住的区域作为前景区域,使用GrabCut算法分割出视盘轮廓,使用轮廓匹配结合椭圆拟合得到光滑视盘边缘,最终分割得到视盘中心。
2.根据权利要求1所述的眼底图像中视盘的定位与分割方法,其特征在于:
还包括二次分割步骤S160:将上一步骤,即GrabCut分割并椭圆拟合后的椭圆视盘的长半轴与预估视盘半径进行比较,对于拟合后椭圆视盘的长半轴是预估的视盘半径的1.3倍以上的结果二次分割,选取GrabCut结果图中前1.3%亮的像素,使用直方图统计的方法来自适应地选取合适的阈值,对得到的轮廓拟合椭圆,得到二次分割的视盘结果。
3.根据权利要求1或2所述的眼底图像中视盘的定位与分割方法,其特征在于:
在加权灰度化步骤中,使用如下公式进行加权灰度化:
Gray(x,y)=0.6*R(x,y)+0.4*G(x,y)。
4.根据权利要求3所述的眼底图像中视盘的定位与分割方法,其特征在于:
在预估视盘半径步骤中,采用眼底长半轴的1/7预估为视盘的半径R。
5.根据权利要求3所述的眼底图像中视盘的定位与分割方法,其特征在于:
在预估视盘中心步骤中,迭代执行闭运算7次清除血管;
几何中心(xc,yc)通过如下公式计算得到,
<mrow> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munder> <mo>&amp;Sigma;</mo> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>&amp;Element;</mo> <mi>Q</mi> </mrow> </munder> <msub> <mi>x</mi> <mi>i</mi> </msub> </mrow> <mi>n</mi> </mfrac> <mo>,</mo> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munder> <mo>&amp;Sigma;</mo> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>&amp;Element;</mo> <mi>Q</mi> </mrow> </munder> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mi>n</mi> </mfrac> <mo>.</mo> </mrow> 1
6.眼底图像中视盘的定位与分割装置,包括如下单元:
加权灰度化单元:对彩色眼底图像进行灰度化,去除效果不好的B通道,仅采用R通道和G通道进行加权灰度化,其中R通道的权值大于G通道;
视盘半径预估单元:采用轮廓匹配和椭圆拟合的方法,确定眼底半径,并根据眼底半径与视盘半径之间的比例关系预估视盘半径R;
视盘中心预估单元:迭代执行闭运算多次清除血管,采用直方图统计确定自适应阈值,据此分割出眼底中前0.01%的最亮区域Q,将该区域Q的几何中心(xc,yc)作为预估的视盘中心;
视盘定位矩形框确定单元:根据如下公式确定视盘矩形框的位置(xr,yr,wr,hr),其中(xr,yr)表示实际确定的视盘矩形框的左上角坐标,wr表示矩形的宽,hr表示矩形的高;
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mi>r</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>-</mo> <mn>2</mn> <mi>R</mi> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>-</mo> <mn>2</mn> <mi>R</mi> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mi>r</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>-</mo> <mn>2</mn> <mi>R</mi> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>-</mo> <mn>2</mn> <mi>R</mi> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>w</mi> <mi>r</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>4</mn> <mi>R</mi> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>+</mo> <mn>4</mn> <mi>R</mi> <mo>&amp;le;</mo> <msub> <mi>w</mi> <mi>e</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>w</mi> <mi>e</mi> </msub> <mo>-</mo> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>h</mi> <mi>r</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>4</mn> <mi>R</mi> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>+</mo> <mn>4</mn> <mi>R</mi> <mo>&amp;le;</mo> <msub> <mi>h</mi> <mi>e</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>h</mi> <mi>e</mi> </msub> <mo>-</mo> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> </mtable> </mfenced>
在公式中,we和he表示彩色眼底图像的宽和高;
视盘的准确定位与分割单元:将视盘定位矩形框框住的区域作为前景区域,使用GrabCut算法分割出视盘轮廓,使用轮廓匹配结合椭圆拟合得到光滑视盘边缘,最终分割得到视盘中心。
7.根据权利要求6所述的眼底图像中视盘的定位与分割装置,其特征在于:
还包括二次分割单元:即GrabCut分割并椭圆拟合后的椭圆视盘的长半轴与预估视盘半径进行比较,对于拟合后椭圆视盘的长半轴是预估的视盘半径的1.3倍以上的结果二次分割,选取GrabCut结果图中前1.3%亮的像素,使用直方图统计的方法来自适应地选取合适的阈值,对得到的轮廓拟合椭圆,得到二次分割的视盘结果。
8.根据权利要求6或7所述的眼底图像中视盘的定位与分割装置,其特征在于:
在加权灰度化单元中,使用如下公式进行加权灰度化:
Gray(x,y)=0.6*R(x,y)+0.4*G(x,y)。
9.根据权利要求8所述的眼底图像中视盘的定位与分割装置,其特征在于:
在视盘半径预估单元中,采用眼底长半轴的1/7预估为视盘的半径R;和/或
在视盘中心预估单元中,迭代执行闭运算7次清除血管;
几何中心(xc,yc)通过如下公式计算得到,
<mrow> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munder> <mo>&amp;Sigma;</mo> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>&amp;Element;</mo> <mi>Q</mi> </mrow> </munder> <msub> <mi>x</mi> <mi>i</mi> </msub> </mrow> <mi>n</mi> </mfrac> <mo>,</mo> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munder> <mo>&amp;Sigma;</mo> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>&amp;Element;</mo> <mi>Q</mi> </mrow> </munder> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mi>n</mi> </mfrac> <mo>.</mo> </mrow>
10.一种存储介质,用于存储计算机可执行指令,
其中所述计算机可执行指令在被处理器执行时执行权利要求1-5中的任意一项所述的方法。
CN201710717821.0A 2017-08-21 2017-08-21 眼底图像中视盘的定位与分割方法、装置和存储介质 Active CN107480644B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710717821.0A CN107480644B (zh) 2017-08-21 2017-08-21 眼底图像中视盘的定位与分割方法、装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710717821.0A CN107480644B (zh) 2017-08-21 2017-08-21 眼底图像中视盘的定位与分割方法、装置和存储介质

Publications (2)

Publication Number Publication Date
CN107480644A true CN107480644A (zh) 2017-12-15
CN107480644B CN107480644B (zh) 2019-11-19

Family

ID=60600892

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710717821.0A Active CN107480644B (zh) 2017-08-21 2017-08-21 眼底图像中视盘的定位与分割方法、装置和存储介质

Country Status (1)

Country Link
CN (1) CN107480644B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108185984A (zh) * 2017-12-28 2018-06-22 中山大学 眼底彩照进行眼底病灶识别的方法
CN108230306A (zh) * 2017-12-28 2018-06-29 中山大学 眼底彩照血管及动静脉的识别方法
CN108416344A (zh) * 2017-12-28 2018-08-17 中山大学中山眼科中心 眼底彩照视盘与黄斑定位识别方法
CN108492285A (zh) * 2018-03-13 2018-09-04 北京理工大学 一种基于灰度变化的径向线视盘萎缩弧分割方法
CN108961280A (zh) * 2018-06-29 2018-12-07 电子科技大学 一种基于slic超像素分割的眼底视盘精细分割方法
CN109389600A (zh) * 2018-10-29 2019-02-26 上海鹰瞳医疗科技有限公司 眼底图像规范化方法及设备
CN111257296A (zh) * 2020-03-20 2020-06-09 京东方科技集团股份有限公司 一种检测生物芯片样本的方法、装置及存储介质
CN112016421A (zh) * 2020-08-20 2020-12-01 上海志唐健康科技有限公司 一种基于三角匹配的快速视网膜身份识别方法
CN112967249A (zh) * 2021-03-03 2021-06-15 南京工业大学 一种基于深度学习的预制桥墩钢筋孔制造误差智能识别方法
CN113450341A (zh) * 2021-07-16 2021-09-28 依未科技(北京)有限公司 图像处理方法及装置、计算机可读存储介质及电子设备
CN113576399A (zh) * 2021-08-02 2021-11-02 北京鹰瞳科技发展股份有限公司 一种糖网分析方法、系统以及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102592268A (zh) * 2012-01-06 2012-07-18 清华大学深圳研究生院 一种分割前景图像的方法
CN103870838A (zh) * 2014-03-05 2014-06-18 南京航空航天大学 糖尿病视网膜病变的眼底图像特征提取方法
CN104463140A (zh) * 2014-12-23 2015-03-25 天津工业大学 一种彩色眼底图像视盘自动定位方法
US20150187070A1 (en) * 2012-08-24 2015-07-02 Singapore Health Services Pte Ltd. Methods and systems for automatic location of optic structures in an image of an eye, and for automatic retina cup-to-disc ratio computation
CN105718919A (zh) * 2016-02-02 2016-06-29 吉林大学 一种眼底图像视盘定位方法及系统
CN106204555A (zh) * 2016-06-30 2016-12-07 天津工业大学 一种结合Gbvs模型和相位一致性的视盘定位方法
US20170116742A1 (en) * 2015-10-26 2017-04-27 Pixart Imaging Inc. Image segmentation threshold value deciding method, gesture determining method, image sensing system and gesture determining system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102592268A (zh) * 2012-01-06 2012-07-18 清华大学深圳研究生院 一种分割前景图像的方法
US20150187070A1 (en) * 2012-08-24 2015-07-02 Singapore Health Services Pte Ltd. Methods and systems for automatic location of optic structures in an image of an eye, and for automatic retina cup-to-disc ratio computation
CN103870838A (zh) * 2014-03-05 2014-06-18 南京航空航天大学 糖尿病视网膜病变的眼底图像特征提取方法
CN104463140A (zh) * 2014-12-23 2015-03-25 天津工业大学 一种彩色眼底图像视盘自动定位方法
US20170116742A1 (en) * 2015-10-26 2017-04-27 Pixart Imaging Inc. Image segmentation threshold value deciding method, gesture determining method, image sensing system and gesture determining system
CN105718919A (zh) * 2016-02-02 2016-06-29 吉林大学 一种眼底图像视盘定位方法及系统
CN106204555A (zh) * 2016-06-30 2016-12-07 天津工业大学 一种结合Gbvs模型和相位一致性的视盘定位方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
MIRA PARK 等: "Locating the Optic Disc in Retinal Images", 《INTERNATIONAL CONFERENCE ON COMPUTER GRAPHICS, IMAGING AND VISUALISATION (CGIV"06)》 *
SHIJIAN LU: "Accurate and Efficient Optic Disc Detection and Segmentation by a Circular Transformation", 《IEEE TRANSACTIONS ON MEDICAL IMAGING》 *
WORAPAN KUSAKUNNIRAN 等: "Automatic quality assessment and segmentation of diabetic retinopathy images", 《2016 IEEE REGION 10 CONFERENCE (TENCON)》 *
周芹 等: "基于GrabCut的三维医学图像分割", 《电视技术》 *
邹北骥 等: "彩色眼底图像视盘自动定位与分割", 《光学精密工程》 *
齐嘉骏: "眼底图像中视盘的定位与分割方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416344B (zh) * 2017-12-28 2021-09-21 中山大学中山眼科中心 眼底彩照视盘与黄斑定位识别方法
CN108230306A (zh) * 2017-12-28 2018-06-29 中山大学 眼底彩照血管及动静脉的识别方法
CN108416344A (zh) * 2017-12-28 2018-08-17 中山大学中山眼科中心 眼底彩照视盘与黄斑定位识别方法
CN108185984A (zh) * 2017-12-28 2018-06-22 中山大学 眼底彩照进行眼底病灶识别的方法
CN108492285A (zh) * 2018-03-13 2018-09-04 北京理工大学 一种基于灰度变化的径向线视盘萎缩弧分割方法
CN108961280B (zh) * 2018-06-29 2021-11-02 电子科技大学 一种基于slic超像素分割的眼底视盘精细分割方法
CN108961280A (zh) * 2018-06-29 2018-12-07 电子科技大学 一种基于slic超像素分割的眼底视盘精细分割方法
CN109389600A (zh) * 2018-10-29 2019-02-26 上海鹰瞳医疗科技有限公司 眼底图像规范化方法及设备
CN109389600B (zh) * 2018-10-29 2022-02-08 上海鹰瞳医疗科技有限公司 眼底图像规范化方法及设备
CN111257296A (zh) * 2020-03-20 2020-06-09 京东方科技集团股份有限公司 一种检测生物芯片样本的方法、装置及存储介质
CN111257296B (zh) * 2020-03-20 2023-04-11 京东方科技集团股份有限公司 一种检测生物芯片样本的方法、装置及存储介质
CN112016421A (zh) * 2020-08-20 2020-12-01 上海志唐健康科技有限公司 一种基于三角匹配的快速视网膜身份识别方法
CN112967249A (zh) * 2021-03-03 2021-06-15 南京工业大学 一种基于深度学习的预制桥墩钢筋孔制造误差智能识别方法
CN112967249B (zh) * 2021-03-03 2023-04-07 南京工业大学 一种基于深度学习的预制桥墩钢筋孔制造误差智能识别方法
CN113450341A (zh) * 2021-07-16 2021-09-28 依未科技(北京)有限公司 图像处理方法及装置、计算机可读存储介质及电子设备
CN113576399A (zh) * 2021-08-02 2021-11-02 北京鹰瞳科技发展股份有限公司 一种糖网分析方法、系统以及电子设备
CN113576399B (zh) * 2021-08-02 2024-03-08 北京鹰瞳科技发展股份有限公司 一种糖网分析方法、系统以及电子设备

Also Published As

Publication number Publication date
CN107480644B (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
CN107480644B (zh) 眼底图像中视盘的定位与分割方法、装置和存储介质
CN109522908B (zh) 基于区域标签融合的图像显著性检测方法
Zhang et al. Object-oriented shadow detection and removal from urban high-resolution remote sensing images
CN109460754B (zh) 一种水面异物检测方法、装置、设备及存储介质
WO2022001571A1 (zh) 一种基于超像素图像相似度的计算方法
US9053537B2 (en) Classifier for use in generating a diffuse image
CN104463140A (zh) 一种彩色眼底图像视盘自动定位方法
CN108615239B (zh) 基于阈值技术和灰度投影的舌图像分割方法
CN107346545A (zh) 用于视杯图像分割的改进区域生长方法
CN110929728B (zh) 一种图像感兴趣区域划分方法、图像分割方法及装置
US20210264593A1 (en) Deformity edge detection
CN104766316B (zh) 中医望诊中新型嘴唇分割算法
Zhou et al. Optic disc and cup segmentation in retinal images for glaucoma diagnosis by locally statistical active contour model with structure prior
CN111507932B (zh) 高特异性的糖尿病性视网膜病变特征检测方法及存储设备
CN103198301B (zh) 虹膜定位方法及装置
CN108830856B (zh) 一种基于时间序列sd-oct视网膜图像的ga自动分割方法
Jaafar et al. Detection of exudates from digital fundus images using a region-based segmentation technique
CN104658003A (zh) 舌体图像的分割方法和装置
CN109583364A (zh) 图像识别方法及设备
Saleh et al. Automated segmentation of optic disc in fundus images
CN106960199A (zh) 一种真彩色眼象图白睛区域的完整提取方法
CN106372593B (zh) 一种基于血管收敛的视盘区定位方法
CN114943869B (zh) 风格迁移增强的机场目标检测方法
CN109241865B (zh) 一种弱对比度交通场景下的车辆检测分割算法
US20230386023A1 (en) Method for detecting medical images, electronic device, and storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant