CN112927242B - 基于区域定位与群体智能搜索算法的快速视盘定位方法 - Google Patents
基于区域定位与群体智能搜索算法的快速视盘定位方法 Download PDFInfo
- Publication number
- CN112927242B CN112927242B CN202110312819.1A CN202110312819A CN112927242B CN 112927242 B CN112927242 B CN 112927242B CN 202110312819 A CN202110312819 A CN 202110312819A CN 112927242 B CN112927242 B CN 112927242B
- Authority
- CN
- China
- Prior art keywords
- region
- blood vessel
- vessel
- image
- optic disc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 238000010845 search algorithm Methods 0.000 title claims abstract description 31
- 210000004204 blood vessel Anatomy 0.000 claims abstract description 310
- 239000006185 dispersion Substances 0.000 claims abstract description 28
- 230000000877 morphologic effect Effects 0.000 claims abstract description 25
- 230000006740 morphological transformation Effects 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 31
- 230000002792 vascular Effects 0.000 claims description 23
- 238000012937 correction Methods 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 17
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 229910003460 diamond Inorganic materials 0.000 claims description 5
- 239000010432 diamond Substances 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 238000002224 dissection Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 210000001525 retina Anatomy 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 34
- 238000010586 diagram Methods 0.000 description 18
- 230000013016 learning Effects 0.000 description 18
- 230000003902 lesion Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 12
- 238000005286 illumination Methods 0.000 description 10
- 201000010099 disease Diseases 0.000 description 6
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 210000003733 optic disk Anatomy 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000005457 optimization Methods 0.000 description 5
- 230000009326 social learning Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 210000004220 fundus oculi Anatomy 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 206010012689 Diabetic retinopathy Diseases 0.000 description 1
- 208000010412 Glaucoma Diseases 0.000 description 1
- 206010025421 Macule Diseases 0.000 description 1
- 208000017442 Retinal disease Diseases 0.000 description 1
- 206010038923 Retinopathy Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 206010064930 age-related macular degeneration Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 125000004432 carbon atom Chemical group C* 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000873 fovea centralis Anatomy 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 210000002189 macula lutea Anatomy 0.000 description 1
- 208000002780 macular degeneration Diseases 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008722 morphological abnormality Effects 0.000 description 1
- 230000004660 morphological change Effects 0.000 description 1
- 231100000915 pathological change Toxicity 0.000 description 1
- 230000036285 pathological change Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009885 systemic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开了一种基于区域定位与群体智能搜索算法的快速视盘定位方法。本发明方法的主要步骤包括:眼底图像预处理,利用形态学变换提取主血管图像,沿垂直方向将眼底图像的ROI区域划分为等面积的三个区域,根据主血管的区域平均厚度和血管分散程度等形态特征在这三个区域中确定一个视盘候选区域;根据主血管的数量和位置特征对视盘候选区域内的主血管进行血管补全;在视盘候选区域内采用群体智能搜索算法确定视盘的中心位置。本发明实现视网膜眼底图像的视盘自动定位,有效地提高视盘定位的准确度和速度,并对具有不同尺寸、不同图像质量的眼底图像均有很好的鲁棒性。
Description
技术领域
本发明涉及医学图像处理领域,具体涉及一种基于区域定位和群体智能搜索算法的快速视盘定位方法。
背景技术
眼底视网膜是眼球内部结构最复杂精细的结构。很多全身性的疾病会表现为视网膜中解剖结构的形态发生病变和异常,通过仔细观察分析视网膜能够有效预防一系列的疾病。眼底图像是指通过眼底相机对人眼视网膜进行拍摄而获得的图像,医疗人员可以通过眼底图像检测和诊断出患者的患病情况,如糖尿病视网膜病变、青光眼、老年性黄斑病变等眼科疾病。越早检测出这些疾病越有利于临床治疗。眼底图像主要包括血管、黄斑、中心凹和视盘等四个解剖结构,其中视盘是眼底图像中血管汇入的结构。视盘在正常的眼底图像中常常表现为一个占七分之一眼底图像大小的黄色明亮圆盘。视盘在位置上与黄斑和眼底血管存在一定的空间约束关系。正确地确定视盘的位置能够为标定其它眼底结构提供帮助。另一方面,视盘的大小、形状和颜色的变化是诊断各种眼底疾病的重要指标之一。因此,准确的视盘定位是眼底图像自动分析和眼科疾病计算机自动诊断的关键步骤。
近年来国内外学者对于视盘定位方法做了大量的研究,其方法可以被概括为四类,基于视盘外观特征的方法、基于血管形态的方法、基于多特征组合的方法和深度学习的方法。
基于视盘外观特征的视盘定位方法主要通过颜色、形状、亮度、大小等视盘的固有属性来确定视盘的位置。中国专利CN103006175A利用相位一致性函数对图像进行处理,并采用逻辑“与”增强处理结果。对增强处理后的眼底图像进行窗口扫描和灰度累积,进而定位视盘。中国专利CN108629769A公开了一种基于最佳兄弟相似度的眼底图像视盘定位方法及系统,计算模板图像和待匹配图像之间的最佳兄弟相似度,并选取最佳兄弟相似度最大值所对应的区域为最终的定位结果。中国专利CN111291706A计算视网膜灰度图像的纹理特征,并在其获得的二值图像中进行圆检测,最终确定圆心为最终的视盘中心位置。尽管基于视盘外观特征的方法在正常的眼底图像中表现良好,但是眼底图像中常常会出现因视网膜病变或者低质量的拍摄导致眼底图像出现比视盘更亮的区域;另一方面,病变图像中的视盘外形并不总是表现为一个明亮的圆盘。在病变较为严重的眼底图像中视盘的外观特征会产生明显的变化。这些原因导致基于视盘外观特征的方法在具有病变的眼底图像中表现不佳。
基于血管形态的视盘定位方法考虑了眼底血管的形态特征,即眼底的血管汇聚在视盘中心,而且视盘区域的血管以此汇聚点为顶点形成了一条或两条抛物线。中国专利CN109101950A对主血管进行抛物线拟合计算,根据计算结果定位了视盘中心。中国专利CN105718919B首先提取眼底图像中的血管区域,然后获取血管区域图像中每一像素的血管纹理方向,在血管区域图像中,按照预设规则对像素投票,以获得投票数最大的像素确定为视盘中心。中国专利CN104545792B通过使用模糊收敛方法计算血管的收敛区域,并选取所属收敛区域最多的像素点作为最终的视盘位置。中国专利CN103971369B首先基于血管汇聚趋势特征确定视盘的候选位置,然后再基于血管方向特征确定最终的视盘中心位置。相比于视盘的外观特征,当处理存在大量病变或者光照不均匀现象的病变图像时,按血管特征确定的视盘位置更为可靠。但从眼底图像中提取血管本身便是一个不简单的任务,如何克服因为病变和不均匀光照对血管提取造成的影响困扰着很多研究血管提取的学者。这导致基于血管形态的定位方法变得非常耗时和复杂。
由于眼底图像可能存在形态各异的病变或者眼底图像的拍摄质量不佳,仅依靠眼底图像中单个的特征无法可靠地解决视盘定位任务。于是,很多研究者把两种或者更多的特征组合到一起来解决视盘定位任务并且取得了很好的结果。中国专利CN107292868B利用视盘的自身特征以及视盘与血管网络的关系特征,对模糊收敛算法、边缘检测算法、明亮区域检测算法、模版匹配算法进行细节改进,并为每个独立算法产生一个或多个候选输出,对所有算法输出进行融合处理实现视盘定位。中国专利CN104794721B基于多尺度空间理论以及LOG斑点检测技术找到若干候选视盘区域,然后再结合候选区域外观特性和局部血管特性定位真正的视盘。中国专利CN106204555B提取亮度、亮度对比度和相位一致性三类特征构成显著图,再结合对血管进行抛物线拟合的结果最后确定视盘的位置。结合更多的特征固然可以提高定位方法的鲁棒性,但随着特征数量的增加,如何确定这些特征的组合方式和减少算法的时间消耗就成为了基于多特征组合的方法中两个值得注意的问题。
随着深度学习方法的发展,不少研究者将深度学习方法应用到眼底图像中的视盘定位中来,中国专利CN110110782A采用VGG网络模型构建神经网络对眼底图像进行训练和预测过程,最后通过计算概率较大的区域中心的方法确定视盘的最终位置。中国专利CN110097118A首先计算眼底图像的显著图,然后构建深度卷积神经网络对显著图进行训练与分类预测,最后选择概率最大的区域作为最终的视盘区域。中国专利CN108717693A首先采用深度卷积神经网络对眼底图像进行特征提取,然后采用RPN网络对视盘区域进行初步定位,最后再次通过深度卷积神经网络确定最终的视盘位置。基于深度学习的方法在视盘定位的准确度上有着良好的表现,但是该方法需要使用大量带标注的眼底图像作为训练集提高定位精度,而且训练周期长也是该方法在实际应用中的瓶颈。
发明内容
本发明目的在于针对现有技术的不足,提供一种基于区域定位和群体智能搜索算法的快速视盘定位方法,能够更加有效地提高视盘定位的准确度和速度,并对具有不同尺寸、不同图像质量的眼底图像均有很好的鲁棒性。
为实现上述发明目的,本发明采用的技术方案如下:
一种基于区域定位和群体智能搜索算法的快速视盘定位方法,操作步骤如下:
(1)眼底图像预处理:提取眼底图像的ROI区域并根据ROI区域大小进行图像尺寸的缩放预处理;
(2)主血管提取:利用形态学变换提取眼底图像中的主血管图像;
(3)视盘候选区域定位:沿垂直方向将眼底图像的ROI区域划分为等面积的三个纵向子区域,根据主血管的区域平均厚度和血管分散程度形态特征,在这三个区域中确定一个视盘候选区域;
(4)主血管补全:根据主血管的数量和位置特征,对视盘候选区域内的主血管进行血管补全;
(5)视盘定位:在视盘候选区域内采用群体智能搜索算法确定视盘的中心位置。
优选地,在所述步骤(1)中,所述眼底图像预处理主要包括提取眼底图像的ROI区域并根据ROI区域进行图像缩放处理;对眼底图像的红色通道图像Ir采用Otsu阈值分割法进行阈值分割得到原图像ROI区域的掩膜图像;光照不均匀的眼底图像可能导致生成的ROI掩膜出现一些黑色的孔洞,这会给后续算法处理带来误差。为此,本发明采用空洞填充操作来消除掩膜中可能会出现的孔洞,并将掩膜区域向内缩进pm个像素点后得到ROI区域的掩膜图像Imask。为了保证在不同大小的眼底图像上使用一致的参数值以获得接近的性能,本发明对眼底图像根据其ROI区域的直径DFOV进行图像缩放,使得缩放后图像的ROI区域面积基本保持一致。如式(1)所示:
其中DFOVmod为选定的标准眼底图像的DFOV大小,W和H为缩放前的眼底图像的宽和高,W'和H'为缩放后的眼底图像的宽和高。
优选地,在所述步骤(2)中,眼底图像主血管提取的方法包括如下步骤:
(2-1)阴影矫正:对原眼底图像的绿色通道图像Ig采用阴影矫正方法消除ROI区域内血管中的亮条纹,包括采用菱形结构的形态学开操作、获取背景图像、消除图像Ig的背景和像素值线性拉伸四个步骤,得到阴影矫正后的图像ISC;
(2-3)血管二值化处理:对血管增强图像IVE进行Otsu阈值分割得到血管二值图IV,再以圆形结构作为形态学因子对二值血管图IV进行形态学开操作分割出细血管,最后去除血管图IV中连通域面积小于细血管阈值Tv的区域,得到主血管二值图IVmain;
(2-4)分析主血管数量:
(2-4-1)计算主血管图IVmain中的连通域个数NC;
(2-4-2)当连通域个数NC为0时,对应执行如下步骤:
(2-4-2-1)若ROI区域未执行过对比度增强操作,则对ROI区域增强图像对比度后,跳转到步骤(1)重新进行主血管提取;
(2-4-2-2)若ROI区域已经执行过对比度增强操作,主血管图中的连通域个数NC仍然为0,则说明提取主血管失败,视盘定位算法结束,无法获取有效的视盘位置;
(2-4-2-3)当连通域个数NC为1或2,保留原有的主血管IVmain,完成主血管提取,执行后续步骤;
(2-4-2-4)当连通域个数NC大于2,保留其中面积最大的两个连通域,去除其余的血管连通域后得到更新后的主血管IVmain,完成主血管提取,执行后续步骤。
本发明的主血管提取利用形态学变换提取眼底图像中的主血管图像,包括了阴影矫正、血管增强、血管二值化和分析主血管数量四个步骤。因为眼底图像中只有在掩膜图像Imask内有图像信息,为了减少计算时间,提取主血管的所有操作均在掩膜图像Imask范围内进行。眼底图像绿色通道图像Ig中血管位置的像素值要低于其它位置的像素值。根据血管的这个亮度特征,采用形态学操作可以容易地把血管像素点提取出来。然而,眼底图像经常会因为不均匀光照而出现像素值的偏差。这种偏差在使用全局阈值提取主血管时会造成很大的干扰,导致主血管提取结果中会出现非血管像素点。虽然典型的血管横截面灰度值呈现出Guass型曲线,但有一些血管可能会存在一条贯穿其中部的亮条纹。为了消除血管中的这些亮条纹,所述的阴影矫正步骤首先以pd个像素大小的菱形结构对眼底图像的绿色通道图像Ig进行形态学开操作,得到图像Igamma,然后在绿色通道图像中使用一个窗口大小为pf*pf的均值滤波器生成背景图IB。最后,对图像Igamma和图像IB的差值图像的像素点亮度按[0,255]的范围进行线性拉伸,得到阴影校正后的图像ISC,如公式(2)表示:
Isc=LinStr[0,255](Igamma-IB) (2)
所述的血管二值化步骤先对血管增强图像IVE采用Otsu阈值分割法生成主血管二值图IV。为了消除血管图IV中的少量病变区域以及细血管,本发明首先以pc个像素大小为直径的圆形结构作为形态学因子对血管图IV进行形态学开操作分割,以此将细血管分割开来形成孤立的小区域;然后去除血管图IV中连通域面积小于细血管阈值TV的区域后得到最终的主血管分割结果IVmain,计算公式如(4)所示:
其中dV表示血管图IV中的所有连通域,A(dV)表示连通域的面积。在获得主血管的二值图IVmain后,为方便后续对于血管的分析工作,需要计算得出血管图像IVmain中连通域的个数并进行分析:
(a)计算得到主血管图IVmain中的连通域个数NC。
(b)当连通域个数NC为0:
(b.1)若ROI区域未执行过对比度增强操作,则对ROI区域采用对比度受限的自适应直方图均衡化(CLAHE)方法增强图像对比度后,跳转到步骤2重新进行主血管提取。
(b.2)若ROI区域已经执行过对比度增强操作,主血管图中的连通域个数NC仍然为0,则说明提取主血管失败,视盘定位算法结束,无法获取有效的视盘位置。
(c)当连通域个数NC为1或2,保留原有的主血管IVmain,完成主血管提取,执行后续步骤。
(d)当连通域个数NC大于2,保留其中面积最大的两个连通域,去除其余的血管连通域后得到更新后的主血管IVmain,完成主血管提取,执行后续步骤。
优选地,在所述步骤(3)中,视盘区域定位的方法包括如下步骤:
(3-1)划分ROI区域:
沿垂直方向将眼底图像ROI区域划分为面积相等的三个纵向子区域;
(3-2)确定视盘候选区域:
计算主血管IVmain在每个纵向子区域中的血管平均厚度;平均血管厚度最小的纵向子区域为存在眼底血管末梢的子区域,排除此子区域出现视盘的可能性;在其它两个纵向子区域中计算血管段的分散程度,以血管分散程度最小的纵向子区域作为视盘候选区域ZC,定义其左上角坐标值为(xct,yct),右下角坐标值为(xcb,ycb)。
本发明的视盘候选区域定位操作根据主血管的区域平均厚度和血管分散程度特征确定视盘候选区域。与现有发明的方法不同,本发明方法在得到主血管分割结果后没有直接根据主血管的信息展开视盘定位工作,而是对主血管形态进行了分析,实现了视盘候选区域的定位,有助于提高视盘定位的精度和速度。在眼底图像中,常常会因为光照不均匀、病变区域过大、视盘区域对比度较低等因素无法提取到完整的主血管。尽管本发明在血管提取时采用了阴影矫正的方法对眼底图像进行处理,但是对于上述情况有时仍然有可能无法提取出完整的主血管。所以,在分析血管形态的过程中,本发明方法对符合血管补全条件的眼底图像进行了主血管补全,丰富了主血管图IVmain中的血管信息,有助于提高病变或非正常曝光眼底图像中定位视盘候选区域的准确性。具体如下:
(1)首先沿垂直方向将眼底图像ROI区域划分为面积相等的三个纵向子区域,作为视盘可能会出现的三个候选区域。
(2)计算主血管IVmain在每个纵向子区域中的平均血管厚度。由于眼底图像中的血管发源于视盘处并延伸到眼底图像的各个部分形成眼底血管网络。在血管延伸过程中,血管会逐渐变细,所以视盘处的血管厚度一般要比其它位置的血管大得多,而位于血管网络末梢的血管厚度是最小的。通过计算每个子区域的平均血管厚度可以大致判断出该区域是否存在视盘。计算平均血管厚度的过程是先将每个纵向子区域内的血管图IVij骨骼化,使原来粗细程度不一的血管图IVij变为厚度为1的血管骨架图IVsij,然后将IVij中的血管总像素值除以IVsij中血管总像素值,得到区域内血管的平均厚度Ti。各纵向子区域内的平均血管厚度如式(5)所示。
(3)计算血管分散程度。定义通过主血管IVmain全局质心点的水平直线为L(ygc),其中,ygc表示全局质心点的纵坐标值。定义通过每个纵向子区域内每个主血管IVij的质心点的水平直线为L(ylcij)。其中,ylcij表示纵向子区域中每个连通域质心点的纵坐标值,i=1,2或3,代表每个纵向子区域,j=0,1,2…,N,N代表每个纵向子区域内的主血管连通域个数。眼底图像中主血管呈现的抛物线特征决定了整张眼底图主血管的全局质心线L(ygc)与不包含抛物线顶点的子区域内的局部质心线L(ylcij)之间的纵向距离要远大于全局质心线L(ygc)与包含抛物线顶点的子区域的局部质心线间的纵向距离。因此,通过计算每个纵向子区域内的局部质心线L(ylcij)与全局质心线L(ygc)的平均纵向距离dci可以来评估血管的分散程度,以此确定哪个纵向子区域可能出现视盘的区域。各纵向子区域内区域中血管的分散程度dci可由(6)式表示。
其中N代表第i个纵向子区域中血管连通域的个数,ylcij代表第i个纵向子区域中第j个血管连通域质心的纵坐标值,ygc表示主血管IVmain的全局质心点的纵坐标值。
(4)确定视盘候选区域。根据每个纵向子区域中的血管平均厚度Ti,确定平均血管厚度最小的子区域为存在眼底血管末梢的区域,排除此子区域出现视盘的可能性;对剩余两个纵向子区域计算主血管连通域的分散程度dci,以血管分散程度最小的区域作为视盘候选区域ZC。定义视盘候选区域ZC的左上角坐标值为(xct,yct),右下角坐标值为(xcb,ycb)。
优选地,在所述步骤(4)中,所述的主血管补全操作根据主血管的数量和位置特征对视盘候选区域ZC内的主血管进行补全。有些眼底图像会因为拍摄技术的问题导致曝光不均衡,使得眼底图像亮度出现亮度不均的情况,例如图像上半部亮度强下半部亮度弱,或者图像边缘亮中间暗。这些情况不利于提取到完整的主血管以及实现精确的视盘定位。针对这个问题,为了保证可以尽可能多的提取到视盘区域的血管,本发明通过分析血管连通域的数量与质心位置,对可能出现视盘的区域内的血管进行补全。主血管补全包括如下步骤:
(4-1)在眼底图像ROI区域中划分出三个横向子区域用于分析主血管的质心特征:
(4-1-1)设DOD为视盘直径的像素长度,定义ym为眼底图水平中心线的纵坐标;
(4-1-2)定义在ym-0.5*DOD到ym+0.5*DOD两条水平线间的横向子区域为ZM;
(4-1-3)定义ym-0.5*DOD至眼底图上边界的横向子区域为ZU;
(4-1-4)定义ym+0.5*DOD至眼底图下边界的横向子区域为ZD;
(4-2)分析主血管连通域质心位置,确定绿色通道图像Ig中需要进行血管补全的区域Zlocal:
(4-2-1)计算主血管IVmain中每个连通域的质心点p(xci,yci),i=1,2;
(4-2-2)当主血管IVmain中连通域个数NC为1;
(4-2-2-1)若质心点p(xc1,yc1)位于横向子区域ZM,不需要执行血管补全步骤,即Zlocal为空;
(4-2-2-2)若质心点p(xc1,yc1)位于横向子区域ZU,需要对横向子区域ZC与区域(ZM∪ZD)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZD);
(4-2-2-3)若质心点p(xc1,yc1)位于横向子区域ZD,需要对横向子区域ZC与区域(ZM∪ZU)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZU);
(4-2-3)当主血管IVmain中连通域个数NC为2,
(4-2-3-1)若两个质心点p(xc1,yc1)或p(xc2,yc2)位于横向子区域ZM,不需要执行血管补全步骤,即Zlocal为空;
(4-2-3-2)若两个质心点p(xc1,yc1)和p(xc2,yc2)都位于横向子区域ZU,需要对横向子区域ZC与区域(ZM∪ZD)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZD);
(4-2-3-3)若两个质心点p(xc1,yc1)和p(xc2,yc2)都位于横向子区域ZD,需要对横向子区域ZC与区域(ZM∪ZU)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZU);
(4-2-3-4)若质心点p(xc1,yc1)和p(xc2,yc2)中一个位于横向子区域ZD,另一个位于横向子区域ZU,需要对横向子区域ZC与横向子区域ZM的交集区域进行血管补全,即Zlocal=ZC∩ZM;
(4-3)血管补全:
(4-3-1)在绿色通道图像Ig中对区域Zlocal的范围内重新执行主血管提取步骤,得到局部的二值血管IVlocal,主血管提取步骤和步骤2所述的主血管提取步骤完全一致;
(4-3-2)将局部血管IVlocal与主血管IVmain进行并运算得到血管补全后的主血管二值图IVfinal,即IVfinal=IVmain∪IVlocal。
优选地,在所述步骤(5)中,所述的视盘定位是利用群体智能搜索算法在视盘候选区域ZC内确定视盘中心位置。群体智能搜索算法是指通过向大自然界中的某些生命现象或自然现象学习,实现对问题的优化或求解,这一类算法中包含了自然界生命现象所具有的自组织、自学习和自适应性等特性。本发明将邻域内的局部血管密度和局部图像平均亮度作为构成群体智能搜索算法适应度函数的两个自变量。采用群体智能算法寻找到视盘候选区域ZC内适应度函数最优点的位置,即认为该点为视盘中心点。群体智能搜索算法在视盘候选区域ZC中搜索视盘中心的步骤包括:
(5-1)从血管补全后的主血管二值图IVfinal中获取在视盘候选区域ZC范围内的候选血管图IVC;IVC内所有的血管像素点构成集合PVC={pvc(xvc,yvc)|pvc∈IVC,xct≤xvc≤xcb,ycb≤yvc≤yct};
(5-2)随机初始化NP个用于搜索个体pi(xi,yi),1≤i≤NP,使得这些个体随机分布在候选血管图IVC的血管像素点上,即pi∈PVC;
(5-3)根据每个个体Pi所在位置的局部血管密度特征和局部图像亮度特征构造适应度函数f(xi,yi),其表达式为:
f(xi,yi)=ω*Vd+(1-ω)*I (7)
其中,Vd代表局部血管密度特征值,计算方法为以个体pi(xi,yi)为中心,构造宽为最大血管厚度DV,高为2倍视盘直径DOD的矩形框,统计矩形框内包括血管图IVC的像素点数;I代表局部图像亮度特征值,计算方法为个体pi(xi,yi)为中心,构造边长为DOD的方形框内在绿色通道图像Ig中像素点亮度最高的前5%像素点的平均灰度值;w代表两个特征之间的权重值;
(5-4)计算每个个体pi所在位置的适应度函数值,用来衡量个体pi的优劣性,并通过群体中个体之间的合作和竞争以增大个体的适应度函数值为目标,迭代更新每个个体pi的位置;
(5-5)经过多次迭代后,找到的所有个体中适应度值最大的个体所在位置为视盘的中心位置。
本发明与现有技术相比较,具有如下显而易见的突出实质性特点和显著的优点:
1.本发明对眼底图像进行了主血管提取,并利用主血管的形态从眼底图的三个纵向子区域中确定了一个最可能存在视盘的区域,即视盘候选区域,实现了视盘区域的粗定位;这样的策略大大缩小了分析可能存在视盘区域的规模,减少了将病变区域误判为视盘区域的可能性,提高了算法鲁棒性和缩短了算法的运算时间;
2.为了在视盘候选区域内确定视盘中心位置,本发明以设定邻域内的主血管密度和图像平均亮度构成一个适应度函数,并采用群体智能搜索算法用少量的个体在二维的视盘候选区域内快速搜索到适应度函数的最优值,以此位置为视盘中心位置;
3.本发明算法所采用的两个方法显著地提升了视盘定位速度;首先,确定视盘候选区域的策略不但减少病变区域对于视盘定位算法的影响,而且也显著地缩小了搜索视盘区域面积。其次,采用了群体智能搜索算法进行视盘定位,以较少的迭代次数和较少的个体就可以找到搜索区域内的视盘中心点;本发明方法的时间损耗小,定位准确率高,对不同尺寸和不同环境下的眼底图像有着很高的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的整体流程图。
图2为本发明的眼底图像。其中,图(a)原始眼底图像,图(b)红色通道图像,图(c)绿色通道图像,图(d)由原始眼底图像(a)提取的掩模图像。
图3为本发明的主血管提取过程图。其中,图(a)图像Igamma,图(b)背景图像Ib,图(c)阴影矫正图像,图(d)顶帽变换之后的图像,图(e)二值血管图像。
图4为本发明的主血管后处理效果图,其中,图(a)原始眼底图像,图(b)原始的二值化主血管提取结果,图(c)后处理得到的血管提取结果。
图5为本发明的纵向子区域划分标准示意图。
图6为本发明的子区域血管平均厚度与血管分散程度的计算方法示意图。其中,图(a)骨骼化之前的子区域血管图像,图(b)骨骼化之后的子区域血管图像,图(c)子区域血管分散程度计算示意图。
图7为本发明的横向子区域划分标准示意图。
图8为本发明的血管补全效果图。其中,图(a)原始图像,图(b)未进行血管补全之前的原始主血管图像,图(c)血管补全之后的主血管图像。
图9为本发明的群体智能搜索算法流程图。
图10为本发明的个体适应度函数值计算示意图。其中,图(a)局部血管密度计算区域图示,图(b)局部图像亮度特征计算区域图示。
图11为本发明的视盘定位过程示意图,其中,图(a)原始图像,图(b)适应度函数等高线图,图(c)个体初始化结果,图(d-g)个体迭代过程图,图(h)实施例的视盘定位结果图。
图12为本发明在多个数据集中视盘定位测试结果图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明优选实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
实施例一:
参见图1,一种基于区域定位与群体智能搜索算法的快速视盘定位方法,包括以下步骤:
(1)眼底图像预处理:提取眼底图像的ROI区域并对眼底图像尺寸进行缩放预处理;
(2)眼底图像主血管提取;
(3)视盘候选区域定位:沿垂直方向将眼底图像的ROI区域划分为等面积的三个区域,根据主血管形态特征在这三个区域中确定一个视盘候选区域;
(4)主血管补全:对视盘候选区域内的主血管进行血管补全;
(5)采用群体智能搜索算法定位视盘;在视盘候选区域内采用群体智能搜索算法确定视盘的中心位置。
本实施例方法能够有效地提高视盘定位的准确度和速度,并对具有不同尺寸、不同图像质量的眼底图像均有很好的鲁棒性。
实施例二:
本实施例与实施例一基本相同,特别之处如下:
在本实施例中,在所述步骤(2)中,眼底图像主血管提取的方法包括如下步骤:
(2-1)阴影矫正:对原眼底图像的绿色通道图像Ig采用阴影矫正方法消除ROI区域内血管中的亮条纹,包括采用菱形结构的形态学开操作、获取背景图像、消除图像Ig的背景和像素值线性拉伸四个步骤,得到阴影矫正后的图像ISC;
(2-3)血管二值化处理:对血管增强图像IVE进行Otsu阈值分割得到血管二值图IV,再以圆形结构作为形态学因子对二值血管图IV进行形态学开操作分割出细血管,最后去除血管图IV中连通域面积小于细血管阈值Tv的区域,得到主血管二值图IVmain;
(2-4)分析主血管数量:
(2-4-1)计算主血管图IVmain中的连通域个数NC;
(2-4-2)当连通域个数NC为0时,对应执行如下步骤:
(2-4-2-1)若ROI区域未执行过对比度增强操作,则对ROI区域增强图像对比度后,跳转到步骤(1)重新进行主血管提取;
(2-4-2-2)若ROI区域已经执行过对比度增强操作,主血管图中的连通域个数NC仍然为0,则说明提取主血管失败,视盘定位算法结束,无法获取有效的视盘位置;
(2-4-2-3)当连通域个数NC为1或2,保留原有的主血管IVmain,完成主血管提取,执行后续步骤;
(2-4-2-4)当连通域个数NC大于2,保留其中面积最大的两个连通域,去除其余的血管连通域后得到更新后的主血管IVmain,完成主血管提取,执行后续步骤。
在本实施例中,在所述步骤(3)中,视盘区域定位的方法包括如下步骤:
(3-1)划分ROI区域:
沿垂直方向将眼底图像ROI区域划分为面积相等的三个纵向子区域;
(3-2)确定视盘候选区域:
计算主血管IVmain在每个纵向子区域中的血管平均厚度;平均血管厚度最小的纵向子区域为存在眼底血管末梢的子区域,排除此子区域出现视盘的可能性;在其它两个纵向子区域中计算血管段的分散程度,以血管分散程度最小的纵向子区域作为视盘候选区域ZC,定义其左上角坐标值为(xct,yct),右下角坐标值为(xcb,ycb)。
在本实施例中,在所述步骤(4)中,主血管补全包括如下步骤:
(4-1)在眼底图像ROI区域中划分出三个横向子区域用于分析主血管的质心特征:
(4-1-1)设DOD为视盘直径的像素长度,定义ym为眼底图水平中心线的纵坐标;
(4-1-2)定义在ym-0.5*DOD到ym+0.5*DOD两条水平线间的横向子区域为ZM;
(4-1-3)定义ym-0.5*DOD至眼底图上边界的横向子区域为ZU;
(4-1-4)定义ym+0.5*DOD至眼底图下边界的横向子区域为ZD;
(4-2)分析主血管连通域质心位置,确定绿色通道图像Ig中需要进行血管补全的区域Zlocal:
(4-2-1)计算主血管IVmain中每个连通域的质心点p(xci,yci),i=1,2;
(4-2-2)当主血管IVmain中连通域个数NC为1;
(4-2-2-1)若质心点p(xc1,yc1)位于横向子区域ZM,不需要执行血管补全步骤,即Zlocal为空;
(4-2-2-2)若质心点p(xc1,yc1)位于横向子区域ZU,需要对横向子区域ZC与区域(ZM∪ZD)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZD);
(4-2-2-3)若质心点p(xc1,yc1)位于横向子区域ZD,需要对横向子区域ZC与区域(ZM∪ZU)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZU);
(4-2-3)当主血管IVmain中连通域个数NC为2,
(4-2-3-1)若两个质心点p(xc1,yc1)或p(xc2,yc2)位于横向子区域ZM,不需要执行血管补全步骤,即Zlocal为空;
(4-2-3-2)若两个质心点p(xc1,yc1)和p(xc2,yc2)都位于横向子区域ZU,需要对横向子区域ZC与区域(ZM∪ZD)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZD);
(4-2-3-3)若两个质心点p(xc1,yc1)和p(xc2,yc2)都位于横向子区域ZD,需要对横向子区域ZC与区域(ZM∪ZU)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZU);
(4-2-3-4)若质心点p(xc1,yc1)和p(xc2,yc2)中一个位于横向子区域ZD,另一个位于横向子区域ZU,需要对横向子区域ZC与横向子区域ZM的交集区域进行血管补全,即Zlocal=ZC∩ZM;
(4-3)血管补全:
(4-3-1)在绿色通道图像Ig中对区域Zlocal的范围内重新执行主血管提取步骤,得到局部的二值血管IVlocal,主血管提取步骤和步骤2所述的主血管提取步骤完全一致;
(4-3-2)将局部血管IVlocal与主血管IVmain进行并运算得到血管补全后的主血管二值图IVfinal,即IVfinal=IVmain∪IVlocal。
在本实施例中,在所述步骤(5)中,采用群体智能搜索算法在视盘候选区域ZC中搜索视盘中心的方法包括如下步骤:
(5-1)从血管补全后的主血管二值图IVfinal中获取在视盘候选区域ZC范围内的候选血管图IVC;IVC内所有的血管像素点构成集合PVC={pvc(xvc,yvc)|pvc∈IVC,xct≤xvc≤xcb,ycb≤yvc≤yct};
(5-2)随机初始化NP个用于搜索个体pi(xi,yi),1≤i≤NP,使得这些个体随机分布在候选血管图IVC的血管像素点上,即pi∈PVC;
(5-3)根据每个个体Pi所在位置的局部血管密度特征和局部图像亮度特征构造适应度函数f(xi,yi),其表达式为:
f(xi,yi)=ω*Vd+(1-ω)*I
其中,Vd代表局部血管密度特征值,计算方法为以个体pi(xi,yi)为中心,构造宽为最大血管厚度DV,高为2倍视盘直径DOD的矩形框,统计矩形框内包括血管图IVC的像素点数;I代表局部图像亮度特征值,计算方法为个体pi(xi,yi)为中心,构造边长为DOD的方形框内在绿色通道图像Ig中像素点亮度最高的前5%像素点的平均灰度值;w代表两个特征之间的权重值;
(5-4)计算每个个体pi所在位置的适应度函数值,用来衡量个体pi的优劣性,并通过群体中个体之间的合作和竞争以增大个体的适应度函数值为目标,迭代更新每个个体pi的位置;
(5-5)经过多次迭代后,找到的所有个体中适应度值最大的个体所在位置为视盘的中心位置。
本实施例方法对眼底图像进行了主血管提取,并利用主血管的形态从眼底图的三个纵向子区域中确定了一个最可能存在视盘的区域,即视盘候选区域,实现了视盘区域的粗定位;这样的策略大大缩小了分析可能存在视盘区域的规模,减少了将病变区域误判为视盘区域的可能性,提高了算法鲁棒性和缩短了算法的运算时间;本实施例方法以设定邻域内的主血管密度和图像平均亮度构成一个适应度函数,并采用群体智能搜索算法用少量的个体在二维的视盘候选区域内快速搜索到适应度函数的最优值,以此位置为视盘中心位置。
实施例三:
在本实施例中,图1为本实施例提供的一种基于区域定位和群体智能搜索算法的快速视盘定位方法的流程图。本实施例提供的眼底图像视盘定位方法包括:
1.眼底图像预处理
以图2为例,图2(a)为一张视网膜眼底图像,图2(b)为该图像的红色通道分量Ir,图2(c)为该图像的绿色通道分量Ig。首先,本实施例对红色通道图像Ir采用Otsu阈值分割法进行阈值分割得到原图像ROI区域的掩膜图像,然后采用空洞填充操作来消除掩膜中可能会出现的孔洞。设pm值为5将掩膜区域向内缩进后得到ROI区域的掩膜图像Imask。最后对各个数据集中的眼底图像根据ROI区域的直径DFOV的大小进行图像缩放。图像缩放方法可由式(1)表示:
其中,DFOVmod为选定的模板图片的DFOV大小。本实施例中采用STARE数据集中的ROI区域直径为标准直径,即DFOVmod=634。缩放操作前,本实施例选用的原始眼底图像的宽W和高H分别为1500和1152,缩放后的眼底图像的宽W'和高H'分别为676和519。最终生成的掩模图像如图2(d)所示。
2.主血管提取
本实施例通过阴影校正方法消除了眼底图像中可能存在的不均匀光照,然后采用顶帽变换的形态学方法来增强了图像中的血管,接下来利用Otsu阈值分割法对血管增强后的图像进行二值化处理得到初始的血管二值图像,最后进行血管后处理获得了眼底图像中的主血管图像。
本实施例中,首先设置形态学开操作的菱形结构大小pd为5个像素,图2(c)的绿色通道图像Ig开操作得到图像Igamma,如图3(a)所示。然后使用一个窗口长度pf为89的均值滤波器对绿色通道图像Ig中生成背景图IB,如图3(b)所示。在均值滤波过程中,由于ROI边界外存在暗区域,边界部分的滤波结果会产生较大的偏差。在本实施例中将ROI外的区域用ROI内部区域的像素平均亮度值代替。本实施例中,ROI区域的像素平均亮度值为110。然后,计算图像Igamma和图像IB的像素点亮度的差值,并按[0,255]的范围进行线性拉伸,得到阴影校正后的图像ISC,如图3(c)所示。计算过程由公式(2)表示:
Isc=LinStr[0,255](Igamma-IB) (2)
接着,计算阴影矫正图像ISC的补集,并根据式(3)的形态学顶帽变换来生成血管增强图像IVE,如图3(d)所示。眼底图中亮结构被消除,而相对暗的结构被保留下来。
其中γnD代表用半径为n的结构因子来进行形态学开变换,在本实施例中n=12。
根据式(4),对血管增强图像IVE采用Otsu阈值分割法生成主血管二值图IV。式中t为Otsu阈值分割法自动生成的血管二值化的阈值,本实施例中,从Otsu算法得到的阈值t=19。
为了消除血管图IV中的少量病变区域以及细血管,本实施例对二值化血管图像进行了后处理。首先以直径pc为4个像素的圆形结构作为形态学因子对血管图IV进行形态学开操作,以此将细血管分割开来或者直接消除孤立的小区域;然后去除像素值少于TV的连通域后得到最终的主血管分割结果IVmain,计算公式如(5)所示:
其中dV表示血管图IV中的所有连通域,A(dV)表示连通域的面积。本实施例中TV=2000。主血管的分割结果如图3(e)所示。
在获得主血管的二值图后,为方便后续对于血管的分析工作,需要计算得出血管图像IVmain中连通域的个数并进行分析和调整,具体方法如下:
(a)计算主血管图IVmain中的连通域个数NC。
(b)连通域个数NC为0:
(b.1)若ROI区域未经过对比度增强操作,则对ROI区域增强图像对比度后,跳转到步骤2重新进行主血管提取。
(b.2)若ROI区域已经进行对比度增强操作,主血管图中的连通域个数NC仍然为0,则说明提取主血管失败,视盘定位算法结束,无法获取有效的视盘位置。
(c)连通域个数NC为1或2,保留原有的主血管IVmain,完成主血管提取,执行后续步骤。图3(e)所示的主血管图IVmain只包含1个连通域,将保留原有主血管。
(d)连通域个数NC大于2,保留其中面积最大的两个连通域,去除其余的血管连通域后得到更新后的主血管IVmain,完成主血管提取,执行后续步骤。如图4所示,图4(a)为示例原始眼底图像,图4(b)为该眼底图像的主血管IVmain。该眼底图像存在大面积的病变区域,在主血管提取操作后,病变区域边缘被误识别成了血管,因此主血管IVmain中存在大量错误的血管连通域。图4(c)为调整后的主血管,只保留了面积最大的两个连通域,其中一个连通域就是该眼底图真正的主血管。图4(c)消除了大部分的错误血管,减少了错误血管给后续视盘定位操作带来影响的可能性。
3.确定视盘候选区域
首先将ROI区域沿垂直方向按照面积均分为三个纵向子区域,用于判断视盘可能会出现在哪个子区域中。本实施例采用的面积分割算法如下,其示意图如图5所示。首先求出ROI区域中取值为“1”的像素点总数,然后取像素点总数的三分之一作为纵向子区域的大小,记为SROI。本实施例中SROI为95505。从ROI区域的最左端Lborder处开始作一条纵向直线Lleft,计算该直线左侧像素值为“1”点的数量Sleft。当SROI与Sleft的差值大于ROI区域高度HROI时,将直线Lleft右移一个像素值,直到SROI与Sleft的差值小于H'。此时,Sleft的值近似等于SROI。定义Lleft的位置的左侧区域为RA。本实施例中ROI区域高度HROI=H'=676。用同样的方法从ROI区域最右端Rborder作纵向直线Lright,通过计算SROI与Sright的差值确定出右侧区域为RC。Lleft与Lright中间的区域记为RB。本实施例中,最终确定的Lleft的横坐标为242,Lright的横坐标为428。对图3(e)进行ROI面积分割得到图6(a)所示的三个纵向子区域。每个纵向子区域内每个主血管连通域定义为IVij,其中,i=1,2或3,代表每个纵向子区域,j=0,1,2…,N,N代表纵向子区域内的主血管连通域个数。
本发明以三个纵向子区域内的血管平均厚度和子区域内血管分散程度作为视盘候选区域的判断依据。
(1)计算每一个纵向子区域内血管的平均厚度,如式(6)所示。首先将子区域内的血管图IVij利用MATLAB中的bwmorph函数进行骨骼化,使原来厚度均匀不一的血管图IVij变为厚度为1的血管图IVsij,如图6(b)所示。然后将每个子区域中IVij的血管总像素值除以IVsij的血管总像素值,得到三个区域内血管的平均厚度为T1=4.13,T2=5.69,T3=6.33。
(2)计算每一个纵向子区域内血管分散程度。RA、RB和RC这三个纵向子区域将抛物线状的主血管分割成若干个段,如图6(c)所示。每段血管都可以确定其质心,并得到通过每个质心点的水平线L(ylcij),称为局部质心线,如图6(c)中的黄线所示。通过完整的主血管IVmain的质心点可以做出一条水平质心线,称为全局质心线L(ygc),如图6(c)中红线所示。抛物线的曲线形状决定了全局质心线与远离抛物线顶点的局部质心线的垂直距离要远大于其与过抛物线顶点的局部质心线间的距离。根据主血管的抛物线特征,通过计算每个子区域内局部质心线与全局质心线的平均距离dci,可以来评估血管的分散程度,以此确定可能出现视盘的区域。各区域中血管的分散程度dci可由式(7)表示。其中N代表第i个纵向子区域中血管连通域的个数,ylcij代表第i个纵向子区域中第j个血管连通域质心的纵坐标值,ygc表示主血管IVmain的全局质心点的纵坐标值。为防止主血管被分割后可能产生的小连通域对计算血管分散程度的干扰,在计算血管分散程度前,需要去除RA、RB和RC三个子区域中像素值小于500的连通域。最终在本实施例中得到的三个区域的血管分散程度为dc1=203.4,dc2=204.6,dc3=10.9。
(3)确定视盘候选区域。由三个纵向子区域的血管平均厚度计算结果可以得到,平均血管厚度最小的区域RA为存在眼底血管末梢的区域,排除此区域出现视盘的可能性;考虑RB和RC两个区域中血管段的分散程度,以血管分散程度最小的RC区域作为视盘候选区域ZC,定义其左上角坐标值为(xct=428,yct=0),右下角坐标值为(xcb=676,ycb=519)。
4.血管分析与补全
血管补全的主要步骤包括:
(1)在眼底图像ROI区域中划分出三个水平区域用于分析主血管的质心特征,区域划分情况如图7所示:
(a)设DOD为视盘直径的像素长度,定义ym为眼底图中水平中心线的纵坐标;视盘直径DOD按照公式DOD=DFOV/6.5来计算。本发明方法中由于将所有的FOV直径都缩放成同样的大小,即DFOV=634,故在本实施例中DOD=98,ym==H'/2=260。
(b)定义在(ym-0.5*DOD)=211到(ym+0.5*DOD)=309两条水平线间的区域为ZM;
(c)定义(ym-0.5*DOD)=211至眼底图上边界0的区域为ZU;
(d)定义(ym+0.5*DOD)=309至眼底图下边界519的区域为ZD。
(2)分析主血管连通域质心位置,确定绿色通道图像Ig中需要进行血管补全的区域Zlocal:
(a)计算ZC区域主血管IVmain中每个连通域的质心点位置p(xci,yci),i=1,2;在本实施例中,只存在一个连通域,其质心位置为p(xc1=500,yc1=254)。
(b)当主血管IVmain中连通域个数NC为1,
(b.1)若质心点p(xci,yci)位于横向子区域ZM,不需要执行血管补全步骤,即Zlocal为空。
(b.2)若质心点p(xci,yci)位于横向子区域ZU,需要对视盘候选区域ZC与横向子区域(ZM∪ZD)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZD)。
(b.3)若质心点p(xci,yci)位于横向子区域ZD,需要对视盘候选区域ZC与横向子区域(ZM∪ZU)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZU)。
(c)当主血管IVmain中连通域个数NC为2,
(c.1)若两个质心点p(xc1,yc1)或p(xc2,yc2)位于横向子区域ZM,不需要执行血管补全步骤,即Zlocal为空。
(c.2)若两个质心点p(xc1,yc1)和p(xc2,yc2)都位于横向子区域ZU,需要对视盘候选区域ZC与横向子区域(ZM∪ZD)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZD)。
(c.3)若两个质心点p(xc1,yc1)和p(xc2,yc2)都位于横向子区域ZD,需要对视盘候选区域ZC与横向子区域(ZM∪ZU)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZU)。
(c.4)若质心点p(xc1,yc1)和p(xc2,yc2)中一个位于横向子区域ZD,另一个位于横向子区域ZU,需要对视盘候选区域ZC与横向子区域ZM的交集区域进行血管补全,即Zlocal=ZC∩ZM。
在本实施例中,主血管连通域质心位置p(xc1=500,yc1=254)位于区域ZM,符合条件(b.1)的情况,不需要执行血管补全步骤。
(3)血管补全:
(a)在绿色通道图像Ig的区域Zlocal的范围内重新执行主血管提取步骤,得到局部的二值血管IVlocal,主血管提取步骤和步骤2所述的主血管提取步骤完全一致。
(b)将局部血管IVlocal与主血管IVmain进行并运算得到血管补全后的主血管二值图IVfinal,即IVfinal=IVmain∪IVlocal。
在对局部区域Zlocal进行血管提取时,除了连通域细血管阈值TV设为400外,提取步骤和参数与步骤2所述的主血管提取过程保持一致。由于在局部区域Zlocal中,排除了可能存在的病变和光照干扰,阈值分割方法会自动选取到合适的数值,从而保证血管提取的完整性。血管补全的效果如图8所示,图8(a)为原始的眼底图像,图8(b)为通过主血管提取方法提取出来的原始主血管图,图8(c)为进行血管分析和补全之后的主血管图像。8(b)中的红色实线表示ZU、ZM和ZD的分界线,黄色实线表示RA、RB和RC的分界线,绿色实线表示各个连通域的质心线。,在图8第一行图片中,主血管IVmain中连通域个数NC为1,且质心点p(xc1,yc1)位于ZU区域,属于(b.2)情况。对Zlocal=ZC∩(ZM∪ZD)区域进行血管补充,补充出来的血管如第一行图的列(c)中红色虚线框所示。第二行图片所示的结果中,主血管IVmain中连通域个数NC为1,且质心点p(xc1,yc1)位于ZD区域,属于(b.3)情况,对Zlocal=ZC∩(ZM∪ZU)区域进行血管补充,补充出来的血管如第二行图的列(c)中红色虚线框所示。第三行图片的主血管IVmain中连通域个数NC为2,且质心点p(xc1,yc1)和p(xc2,yc2)一个位于区域ZD,另一个位于区域ZU,属于(c.4)情况,对Zlocal=ZC∩ZM区域进行血管补充,补充出来的血管如第三行图的列(c)中红色虚线框所示。从图8展示的实例可以看到,对于某些光照不均衡或存在严重病变或其它异常的眼底图,采用全局血管提取方法得到的主血管图往往在视盘附近的血管会出现不完整的情况。局部血管提取的步骤对可能存在视盘区域进行血管补全,视盘处的血管特征更为明显和丰富,有利于提高后续视盘定位的准确性。
5.群体智能搜索算法
在采用区域定位算法确定了视盘所在的候选区域ZC后,本实施例接下来在ZC区域内采用离散人类学习优化算法(DHLO)搜索视盘中心位置。传统的视盘定位方法在提出了一个视盘定位方法之后,往往需要遍历眼底图像中的每一个像素点进行计算和分析,找到最有可能是视盘中心的像素点,时间效率较低。当采用了群体智能算法之后,通过在少量个体上进行有方向性的适应度函数计算,快速而准确地找到图像中的最优值,减少大量的计算时间,从而在整体上提高视盘定位算法的效率。
人类学习优化算法(HumanLearningOptimization,HLO)是一种启发于人类学习过程的新兴智能优化算法,具有容易实现、控制参数少、全局搜索性能优等特点。本实施例将像素点邻域的血管密度和亮度特征融合成一个适应度函数,可以在区域内构建一个适应度函数曲面,通过应用人类学习算法可以快速准确地寻找到区域中适应度函数最大的位置,即候选区域中最有可能出现视盘中心的位置。考虑到本实施例中的适应度函数的自变量(图像像素点坐标值)为整数,本实施例将采用离散人类学习算法(DHLO)实现视盘中心坐标的搜索功能。
DHLO采用整数编码模式,每一个整数代表人类学习过程的一个知识。在初始化的过程中,考虑到视盘中心有极大的概率存在于血管及其周围区域,所以本实施例在初始化时将个体随机地分布在眼底血管上。每个个体候选解可以用整数数组表示,如公式(8)所示。
Pti=[xi yi],1≤i≤N,1≤xi≤WC,1≤yi≤HC (8)
其中,Pti表示第i个个体,N表示种群规模大小,本实施例中种群规模N取50。(xi,yi)是眼底图像中血管点所在像素点的位置,HC代表候选区域ZC的高度,WC表示候选区域ZC的宽度。为后续公式表达方便,采用xij的形式进行表示式中的xi和yi。
在解决一个没有经验的问题时,个体总是会不停地探索不同种策略寻找解决问题的方案。这种随机性地解决问题的方式有助于个体对新问题的探索。启发于此,DHLO随机学习如公式(9)所示。
xij=rand(m) (9)
针对离散型搜索问题,为防止生成不可行解,rand(m)表示未曾出现的整数。
通过个体学习,个体可以有效地从先验知识中获取经验或者避免错误。个体学习知识库(individualknowledge data,IKD)用来存储每个个体历史最优解,如公式(10)所示。在DHLO算法中,个体学习利用公式(11)进行学习产生新解。
xij=ikipj (11)
其中,IKDi表示第i个个体知识库,K表示IKDi的大小,ikip代表第i个个体所获得的第p个优解,M表示个体的维度。
社会环境中,个体学习掌握知识技能还可以直接或间接地从社会中其他个体获得。社会学习可以加快解决问题的速度特别是复杂问题。为了能提高DHLO的搜索速度,社会知识库(social knowledge database,SKD)用来保存群体最优知识如公式(12)。当执行社会学习时,DHLO执行公式(13)进行更新个体。
xij=skqj (13)
其中,skdq表示社会知识库第q个个体,S是SKD的大小。
在所有的解完成一次迭代后,适应度函数计算出新解的适应度值。如果新的候选解的适应度值比IKD中最差解的适应度值优,则会替换最差的解。同样地,SKD也以此方式进行更新。综上所述,DHLO算法以特定的概率进行随机学习、个体学习和社会学习,如公式(14)所示。
pr是随机学习的概率,(pi-pr)和(1-pi)代表个体学习和社会学习的概率,其中pr=0.4,pi=0.7。基于离散人类学习优化算法的视盘定位流程如图9所示。其主要流程如下所示:
STEP1:初始化。首先将个体的值看作是在候选区域ZC中的坐标,每个个体具有两个维度,其中xi代表个体在图像中的x坐标,yi代表图像中的y坐标。然后将种群中的个体随机初始化在视盘候选区域ZC主血管的位置上,并对IKD和SKD执行初始化步骤。
STEP2:计算适应度函数值。根据个体在图像中的位置,计算该位置的关于局部血管密度特征值和局部图像亮度特征值的适应度函数值f(xi,yi)。
STEP3:判断结束迭代条件。判断当前迭代次数是否达到了最大迭代次数MaxIteration,本实施例中最大迭代次数MaxIteration=10。若未达到则继续迭代,若达到则结束迭代,确定适应度函数值最大的个体所在位置为检测到的视盘位置。本实施例视盘定位结果的评价准则为:如果检测到的视盘坐标与标注的视盘中心间的距离在60个像素点以内,则认为定位正确,否则为定位失败。
STEP4:更新个体位置。对每个个体计算随机值,并根据式(14)对个体的执行随机学习、个体学习或者社会学习,并更新个体的位置。
STEP5:更新适应度函数值。根据更新后的个体位置计算每个个体的适应度函数f(xi,yi)。
STEP6:更新IKD和SKD。根据更新后的每个个体的适应度函数计算新的IKD和SKD。
STEP7:返回STEP3。重新执行判断结束迭代条件。
其中,个体在迭代过程中的适应度函数f(xi,yi)的计算如式(15)所示。
f(xi,yi)=ω*Vd+(1-ω)*I (15)
式中,Vd代表局部血管密度特征值。如图10(a)所示,以个体Pi(xi,yi)为中心,构造宽为血管的最大厚度DV=14,高为2倍视盘直径(2*DOD)大小,即高为196的矩形框,统计矩形框内血管连通域IVC的像素点数。如图10(b)所示,以个体Pi(xi,yi)为中心,构造边长为DOD=98的方形框内在绿色通道图像Ig中像素点亮度最高的前5%像素点的平均灰度值。w代表两个特征之间的权重值,本实施例中,w=0.7。血管的最大厚度DV和视盘直径DOD的计算公式如式(16)所示。
如图11展示了本实施例采用DHLO搜索视盘中心位置的过程。图11(a)显示了候选区域ZC的灰度值图像及视盘区域,其中红色“*”表示标定的视盘中心位置,红色圆内为视盘范围。图11(b)显示了候选区域ZC中每个像素点的适应度函数值等高线图。图中的横坐标和纵坐标代表像素点的坐标值,颜色越深表示其适应度函数值越小,适应度函数最大值位置用绿色圆点表示。图11(c)为群体智能算法的50个个体初始化后分布在主血管上的结果。图11(d)-(g)分别显示了第1、4、7和10次的迭代结果,绿色“*”显示了每次迭代后适应度函数值最高的个体位置。图11展示了随着迭代过程的进展,个体不断向视盘区域靠近,并最终搜索到视盘中心位置。在图11(h)中,最终确定的视盘位置落在了视盘边界内,距离标定的视盘中心位置33.56像素点,视盘定位正确。
图12选取多个数据集中部分病变较多或光照不均匀的眼底图像,应用本发明方法后获得的视盘定位结果。图12(a-c)为STARE数据集中实施例的定位结果;图12(d-f)为DRIVE数据集中实施例的定位结果;图12(g-i)为DIARETDB0数据集中实施例的定位结果;图12(j-l)为DIARETDB1数据集中实施例的定位结果;图11(m-o)为MESSIDOR数据集中实施例的定位结果;图12(p-r)为E-OPTHA-EX数据集中实施例的定位结果,其中黑色“*”表示标定的视盘中心的位置,绿色圆点表示本发明方法定位到的视盘中心位置。从上面的图例中可以看到这些视盘定位结果显示了对于病变较多或存在光照不均匀的眼底图像,本发明的方法具有较好的鲁棒性。
本实施例方法在不同数据集上所有眼底图像的视盘定位测试结果如下表所示。
表1.本发明实施例三方法在6个数据集上的正确率和平均定位时间表
本实施例方法在DRIVE、DIARETDB0、DIARETDB1、MESSIDOR、E-OPTHA-EX、STARE等六个常用眼底图像数据集上达到了99.3%的正确率,每幅眼底图像的平均定位时间是0.86s,定位得到的结果与视盘中心像素点的平均距离为27.73。测试结果证明了本发明方法在定位精确性和鲁棒性以及定位速度等方面均表现出优异的性能。
综上所述,上述实施例基于区域定位与群体智能搜索算法的快速视盘定位方法,进行眼底图像预处理,利用形态学变换提取主血管图像,沿垂直方向将眼底图像的ROI区域划分为等面积的三个区域,根据主血管的区域平均厚度和血管分散程度等形态特征在这三个区域中确定一个视盘候选区域;根据主血管的数量和位置特征对视盘候选区域内的主血管进行血管补全;在视盘候选区域内采用群体智能搜索算法确定视盘的中心位置。本发明上述实施例实现视网膜眼底图像的视盘自动定位,有效地提高视盘定位的准确度和速度,并对具有不同尺寸、不同图像质量的眼底图像均有很好的鲁棒性。
以上内容是结合具体的优选实施例对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (4)
1.一种基于区域定位与群体智能搜索算法的快速视盘定位方法,其特征在于,包括以下步骤:
(1)眼底图像预处理:提取眼底图像的ROI区域并对眼底图像尺寸进行缩放预处理;
(2)眼底图像主血管提取;
(3)视盘候选区域定位:沿垂直方向将眼底图像的ROI区域划分为等面积的三个区域,根据主血管形态特征在这三个区域中确定一个视盘候选区域;
(4)主血管补全:对视盘候选区域内的主血管进行血管补全;
(5)采用群体智能搜索算法定位视盘;在视盘候选区域内采用群体智能搜索算法确定视盘的中心位置;
在所述步骤(3)中,视盘区域定位的方法包括如下步骤:
(3-1)划分ROI区域:
沿垂直方向将眼底图像ROI区域划分为面积相等的三个纵向子区域;
(3-2)确定视盘候选区域:
计算主血管IVmain在每个纵向子区域中的血管平均厚度;平均血管厚度最小的纵向子区域为存在眼底血管末梢的子区域,排除此子区域出现视盘的可能性;在其它两个纵向子区域中计算血管段的分散程度,以血管分散程度最小的纵向子区域作为视盘候选区域ZC,定义其左上角坐标值为(xct,yct),右下角坐标值为(xcb,ycb);所述血管段的分散程度的计算方法如下:
定义通过主血管IVmain全局质心点的水平直线为L(ygc),其中,ygc表示全局质心点的纵坐标值;定义通过每个纵向子区域内每个主血管IVij的质心点的水平直线为L(ylcij);其中,ylcij表示纵向子区域中每个连通域质心点的纵坐标值,i=1,2或3,代表每个纵向子区域,j=0,1,2…,N,N代表每个纵向子区域内的主血管连通域个数;通过计算每个纵向子区域内的局部质心线L(ylcij)与全局质心线L(ygc)的平均纵向距离dci来评估血管的分散程度,以此确定哪个纵向子区域可能出现视盘的区域;各纵向子区域内区域中血管段的分散程度dci由(6)式表示:
其中N代表第i个纵向子区域中血管连通域的个数,ylcij代表第i个纵向子区域中第j个血管连通域质心的纵坐标值,ygc表示主血管IVmain的全局质心点的纵坐标值。
2.根据权利要求1所述的基于区域定位与群体智能搜索算法的快速视盘定位方法,其特征在于,在所述步骤(2)中,眼底图像主血管提取的方法包括如下步骤:
(2-1)阴影矫正:对原眼底图像的绿色通道图像Ig采用阴影矫正方法消除ROI区域内血管中的亮条纹,包括采用菱形结构的形态学开操作、获取背景图像、消除图像Ig的背景和像素值线性拉伸四个步骤,得到阴影矫正后的图像ISC;
(2-3)血管二值化处理:对血管增强图像IVE进行Otsu阈值分割得到血管二值图IV,再以圆形结构作为形态学因子对二值血管图IV进行形态学开操作分割出细血管,最后去除血管图IV中连通域面积小于细血管阈值Tv的区域,得到主血管二值图IVmain;
(2-4)分析主血管数量:
(2-4-1)计算主血管图IVmain中的连通域个数NC;
(2-4-2)当连通域个数NC为0时,对应执行如下步骤:
(2-4-2-1)若ROI区域未执行过对比度增强操作,则对ROI区域增强图像对比度后,跳转到步骤(2)重新进行主血管提取;
(2-4-2-2)若ROI区域已经执行过对比度增强操作,主血管图中的连通域个数NC仍然为0,则说明提取主血管失败,视盘定位算法结束,无法获取有效的视盘位置;
(2-4-3)当连通域个数NC为1或2,保留原有的主血管IVmain,完成主血管提取,执行后续步骤;
(2-4-4)当连通域个数NC大于2,保留其中面积最大的两个连通域,去除其余的血管连通域后得到更新后的主血管IVmain,完成主血管提取,执行后续步骤。
3.根据权利要求1所述的基于区域定位与群体智能搜索算法的快速视盘定位方法,其特征在于,在所述步骤(4)中,主血管补全包括如下步骤:
(4-1)在眼底图像ROI区域中划分出三个横向子区域用于分析主血管的质心特征:
(4-1-1)设DOD为视盘直径的像素长度,定义ym为眼底图水平中心线的纵坐标;
(4-1-2)定义在ym-0.5*DOD到ym+0.5*DOD两条水平线间的横向子区域为ZM;
(4-1-3)定义ym-0.5*DOD至眼底图上边界的横向子区域为ZU;
(4-1-4)定义ym+0.5*DOD至眼底图下边界的横向子区域为ZD;
(4-2)分析主血管连通域质心位置,确定绿色通道图像Ig中需要进行血管补全的区域Zlocal:
(4-2-1)计算主血管IVmain中每个连通域的质心点p(xci,yci),i=1,2;
(4-2-2)当主血管IVmain中连通域个数NC为1;
(4-2-2-1)若质心点p(xc1,yc1)位于横向子区域ZM,不需要执行血管补全步骤,即Zlocal为空;
(4-2-2-2)若质心点p(xc1,yc1)位于横向子区域ZU,需要对横向子区域ZC与区域(ZM∪ZD)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZD);
(4-2-2-3)若质心点p(xc1,yc1)位于横向子区域ZD,需要对横向子区域ZC与区域(ZM∪ZU)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZU);
(4-2-3)当主血管IVmain中连通域个数NC为2,
(4-2-3-1)若两个质心点p(xc1,yc1)或p(xc2,yc2)位于横向子区域ZM,不需要执行血管补全步骤,即Zlocal为空;
(4-2-3-2)若两个质心点p(xc1,yc1)和p(xc2,yc2)都位于横向子区域ZU,需要对横向子区域ZC与区域(ZM∪ZD)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZD);
(4-2-3-3)若两个质心点p(xc1,yc1)和p(xc2,yc2)都位于横向子区域ZD,需要对横向子区域ZC与区域(ZM∪ZU)的交集区域进行血管补全,即Zlocal=ZC∩(ZM∪ZU);
(4-2-3-4)若质心点p(xc1,yc1)和p(xc2,yc2)中一个位于横向子区域ZD,另一个位于横向子区域ZU,需要对横向子区域ZC与横向子区域ZM的交集区域进行血管补全,即Zlocal=ZC∩ZM;
(4-3)血管补全:
(4-3-1)在绿色通道图像Ig中对区域Zlocal的范围内重新执行主血管提取步骤,得到局部的二值血管IVlocal,主血管提取步骤和步骤2所述的主血管提取步骤完全一致;
(4-3-2)将局部血管IVlocal与主血管IVmain进行并运算得到血管补全后的主血管二值图IVfinal,即IVfinal=IVmain∪IVlocal。
4.根据权利要求1所述的基于区域定位与群体智能搜索算法的快速视盘定位方法,其特征在于,在所述步骤(5)中,采用群体智能搜索算法在视盘候选区域ZC中搜索视盘中心的方法包括如下步骤:
(5-1)从血管补全后的主血管二值图IVfinal中获取在视盘候选区域ZC范围内的候选血管图IVC;IVC内所有的血管像素点构成集合PVC={pvc(xvc,yvc)|pvc∈IVC,xct≤xvc≤xcb,ycb≤yvc≤yct};
(5-2)随机初始化NP个用于搜索个体pi(xi,yi),1≤i≤NP,使得这些个体随机分布在候选血管图IVC的血管像素点上,即pi∈PVC;
(5-3)根据每个个体Pi所在位置的局部血管密度特征和局部图像亮度特征构造适应度函数f(xi,yi),其表达式为:
f(xi,yi)=ω*Vd+(1-ω)*I
其中,Vd代表局部血管密度特征值,计算方法为以个体pi(xi,yi)为中心,构造宽为最大血管厚度DV,高为2倍视盘直径DOD的矩形框,统计矩形框内包括血管图IVC的像素点数;I代表局部图像亮度特征值,计算方法为个体pi(xi,yi)为中心,构造边长为DOD的方形框内在绿色通道图像Ig中像素点亮度最高的前5%像素点的平均灰度值;w代表两个特征之间的权重值;
(5-4)计算每个个体pi所在位置的适应度函数值,用来衡量个体pi的优劣性,并通过群体中个体之间的合作和竞争以增大个体的适应度函数值为目标,迭代更新每个个体pi的位置;
(5-5)经过多次迭代后,找到的所有个体中适应度值最大的个体所在位置为视盘的中心位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110312819.1A CN112927242B (zh) | 2021-03-24 | 2021-03-24 | 基于区域定位与群体智能搜索算法的快速视盘定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110312819.1A CN112927242B (zh) | 2021-03-24 | 2021-03-24 | 基于区域定位与群体智能搜索算法的快速视盘定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112927242A CN112927242A (zh) | 2021-06-08 |
CN112927242B true CN112927242B (zh) | 2022-11-22 |
Family
ID=76175690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110312819.1A Active CN112927242B (zh) | 2021-03-24 | 2021-03-24 | 基于区域定位与群体智能搜索算法的快速视盘定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112927242B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876801B (zh) * | 2024-03-13 | 2024-05-28 | 中国人民解放军总医院第一医学中心 | 基于眼底血管特征和人工智能预测糖尿病肾病的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109872337A (zh) * | 2019-03-19 | 2019-06-11 | 电子科技大学 | 一种基于快速均值移位的眼底图像视盘分割方法 |
CN112233789A (zh) * | 2020-10-12 | 2021-01-15 | 辽宁工程技术大学 | 一种区域特征融合的高血压视网膜病变分类方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120177262A1 (en) * | 2009-08-28 | 2012-07-12 | Centre For Eye Research Australia | Feature Detection And Measurement In Retinal Images |
CN104463140B (zh) * | 2014-12-23 | 2017-09-29 | 天津工业大学 | 一种彩色眼底图像视盘自动定位方法 |
CN104794721B (zh) * | 2015-04-30 | 2017-11-07 | 湘潭大学 | 一种基于多尺度斑点检测的快速视盘定位方法 |
CN107292868B (zh) * | 2017-05-31 | 2020-03-13 | 瑞达昇医疗科技(大连)有限公司 | 一种视盘定位方法及装置 |
-
2021
- 2021-03-24 CN CN202110312819.1A patent/CN112927242B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109872337A (zh) * | 2019-03-19 | 2019-06-11 | 电子科技大学 | 一种基于快速均值移位的眼底图像视盘分割方法 |
CN112233789A (zh) * | 2020-10-12 | 2021-01-15 | 辽宁工程技术大学 | 一种区域特征融合的高血压视网膜病变分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112927242A (zh) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503649B (zh) | 一种基于空间多尺度U-net与超像素修正的肝脏分割方法 | |
Al-Bander et al. | Multiscale sequential convolutional neural networks for simultaneous detection of fovea and optic disc | |
Sheng et al. | Retinal vessel segmentation using minimum spanning superpixel tree detector | |
Lu et al. | Automatic optic disc detection from retinal images by a line operator | |
CN106651888B (zh) | 基于多特征融合的彩色眼底图像视杯分割方法 | |
CN107506770A (zh) | 糖尿病视网膜病变眼底照相标准图像生成方法 | |
CN106530283A (zh) | 一种基于svm的医疗图像血管识别方法 | |
CN108961261B (zh) | 一种基于空间连续性约束的视盘区域oct图像层次分割方法 | |
US20110091083A1 (en) | Automatic cup-to-disc ratio measurement system | |
Wang et al. | Boundary aware U-Net for retinal layers segmentation in optical coherence tomography images | |
Okuwobi et al. | Automated quantification of hyperreflective foci in SD-OCT with diabetic retinopathy | |
Jaafar et al. | Automated detection and grading of hard exudates from retinal fundus images | |
CN107563996A (zh) | 一种新型视神经盘分割方法及系统 | |
Deepak et al. | Visual saliency based bright lesion detection and discrimination in retinal images | |
CN111047607A (zh) | 一种自动分割冠状动脉的方法 | |
Praveena et al. | Determination of cup to disc ratio using unsupervised machine learning techniques for glaucoma detection | |
CN112927242B (zh) | 基于区域定位与群体智能搜索算法的快速视盘定位方法 | |
Xue et al. | Optic disk detection and segmentation for retinal images using saliency model based on clustering | |
CN105894010B (zh) | 一种基于粗糙集和改进fcm算法的睑板腺功能测定方法 | |
Ghassabi et al. | A unified optic nerve head and optic cup segmentation using unsupervised neural networks for glaucoma screening | |
CN108665474A (zh) | 一种基于b-cosfire的眼底图像视网膜血管分割方法 | |
Balakrishnan | NDC-IVM: An automatic segmentation of optic disc and cup region from medical images for glaucoma detection | |
CN112712540A (zh) | 一种基于ct影像的肺部支气管提取方法 | |
CN112734769A (zh) | 基于交互信息引导的深度学习方法的医学图像分割和定量分析方法、计算机设备、存储介质 | |
CN108629780B (zh) | 基于颜色分解和阈值技术的舌图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |