CN102112044A - 自动杯盘比测量系统 - Google Patents
自动杯盘比测量系统 Download PDFInfo
- Publication number
- CN102112044A CN102112044A CN2008801292211A CN200880129221A CN102112044A CN 102112044 A CN102112044 A CN 102112044A CN 2008801292211 A CN2008801292211 A CN 2008801292211A CN 200880129221 A CN200880129221 A CN 200880129221A CN 102112044 A CN102112044 A CN 102112044A
- Authority
- CN
- China
- Prior art keywords
- optic
- data
- cup
- level
- adaptive model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/12—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10101—Optical tomography; Optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Eye Examination Apparatus (AREA)
Abstract
一只眼睛视网膜眼底的二维视网膜眼底图像,通过视盘分割(2)及随后的视杯分割(4),进行处理。视盘分割得到的数据(例如,视盘分割(2)的输出和/或从视盘分割步骤,如平滑操作(3),的输出得到的数据)和视杯分割输出得到的数据(例如,视杯分割(4)的输出和/或从视盘分割,如平滑操作(5),输出得到的数据),供给(6)给自适应模型,所述自适应模型受训以从这种输入产生一只眼睛杯盘比CDR的指示值。CDR是青光眼的指标。因此,本方法可用来筛查青光眼病人。
Description
技术领域
本发明涉及一种系统,该系统具有自动测量一只眼睛的视盘杯(在此称为视杯)和视盘各自直径的比值的方法和仪器。这就是,眼睛的“杯盘比”(cup-disc-ratio,CDR)。这项检测可用于青光眼的诊断或分析。
背景技术
青光眼是失明的主要原因,其特征是视神经持续损失轴突。根据世界卫生组织关于失明的全球数据库,全球范围内青光眼有510万,占估算失明人数3800万的约13.4%。随着世界人口快速老龄化,青光眼发病率将会上升,导致医疗保健费用增加和经济负担。青光眼是不治之症,因为对视神经轴突的伤害是永久性的,且目前不能康复。然而,早期检测,可将青光眼视神经病变的发展显著减缓甚至停止。因此,大规模筛查对于阻止青光眼损伤进一步发展是至关重要的。然而,没有找到理想的以社区为基础的筛查测试。这样的测试对于诊断和治疗目的都是有益的。青光眼视神经损伤在临床诊断视力丧失之前,所以借助医学影像技术的青光眼视神经损伤早期检测可以帮助眼科医师鉴定、监视和发现治疗病人的新方法,并减缓症状进度。这种检测理想情况下应该不依赖临床医生、快捷、无创,并有很高的专一性(specificity)。
青光眼的典型特点是视神经头特定的反常外观:视盘凹陷,视神经视网膜盘沿损失,典型的被认为是杯盘比(optic disc cup to disc ratio,CDR)增大。图1显示的是10年的时间内视杯的增大和CDR的增加。图1(a)显示的是一个正常眼睛,图1(b)显示的是10年后的同样的眼睛。图1(a)中中心亮区域就是视杯,而清晰可辨的椭圆就是视盘。如图1(b)所示,视杯逐渐扩大,填充了视盘的大部分。CDR被认为是检测病人出现青光眼以及青光眼视神经病变程度的一个重要指标。在目前临床实践中,CDR由眼科医生人工测量,由于观察者自身经验和训练的不同,测量是主观的。对人力的依赖限制了CDR在大规模筛查部署中的使用。
目前对青光眼诊断有三种主要的医学影像方法:视网膜眼底成像(retinal fundus photography),光学相干层析成像技术(opticalcoherence tomography,OCT)和海德堡视网膜断层扫描(heidelbergretinal tomography,HRT)。
视网膜眼底成像是利用一个眼底照相机来捕捉视网膜眼底的图像,包括视盘,并且是目前观察和诊断眼疾所采用的标准化方法。照相机是基于单眼间接眼底镜检查的理论。
OCT是一种干涉、非侵入性光学层析成像技术。由于其横断面成像能力,OCT能够实现亚微米级分辨率。HRT是为了后段3D图像的获取和分析而设计的共焦点激光扫描系统。HRT能够定量评估眼睛结构形貌和精确的后续形貌变化。然而,OCT和HRT系统具有许多缺点。首先,它们昂贵,且与基于眼底成像的系统相比,需要更多专业经验来操作。OCT对于青光眼诊断的效率被技术上有限的穿透深度和全彩数据的缺少所限制。通过OCT获得的图像质量也依赖操作者的技术,并会因媒介不透明度的存在而降低。由OCT获得的一些参数可能被视盘头附近的结构变形而影响。用于青光眼应用的变形分析软件没有完全开发出来,用来将眼睛和视网膜疾病与青光眼进行比对的年龄、性别、种族特异的规范数据也很少。对于HRT,虽然测试只需要几秒,但是结果对病人的移动非常敏感,包括眼部和头部运动,以及眨眼,这些会干扰激光路径,损害获得图像的质量。
在尝试使用视网膜眼底成像时,研究者将努力集中在视盘的自动分割。然而,对于视杯检测的研究工作就很少,因为视杯与血管和周围组织交织(interweavement)。
在引用的第一个先前技术中[1],视盘形状检测是通过“调整过的”活动形状模型(active shape model,ASM)来实现的。在由作者收集的100组数据中,它达到了94%的视盘边界检测率。该文中没有做视盘或CDR计算。ASM是一个搜索过程,其中,将“形状模型”(在图像空间由多个参数定义的平滑形状)拟合为数据,来产生一个模型,称为点分布模型(PDM)。修改过的ASM(如下所述)通过加入一个自调节权重并且从图像中排除外围点来改进常规活动形状模型。特别地,图像中定义了一系列n“界点”。这些点通过基于该模型的数值参数的变换,变成“形状空间”。对于每一个界点,使用图像强度的一阶导数来找到对应的“匹配点”(或者,对于视盘边界一部分的情况,所述视盘边界一部分由于图像中的血管而不是很好定义时,基于附近的匹配点或界点),随后使用能量函数来更新界点。反复重复这个过程。在一给定迭代中,代入一“匹配点”集合,如Y={Yi},其中i=1,...n,,通过化简下述能量函数可以得到一个对应集合的更新界点{Xi}
参数Wi的集合导致了标准ASM的修改。函数(1.2.1)在每次迭代中关于集合Xi化简(minimized)两次。第一次,参数Wi的集合初始化为
对于一些i值将Wi设为0避免了既不是Yi也不是附近的匹配点能被检测到的效应。第二次,Wi被调整如下:
其中Ei是Xi和Yi之间的欧氏距离,函数1.2.1再次被化简。
引用的第二个先前技术[2]是基于由Tony Chan和Luminita Vese引入的Chan-Vese(C-V)分割模型。这达到了94%的视盘检测,使用包括50个彩色眼底图像的数据库,其中有20个低对比度的彩色眼底图像。这个方法这样来阐述的:通过定义一个“拟合能量”函数E作为对图像空间中坐标轴(x,y)的Lipschitz函数φ(x,y)的图像空间的积分,并关于受椭圆形约束的φ(x,y)化简拟合能量。文中没有关于视杯和CDR的计算。
引用的第三个先前技术[3]描述了使用判别分析来确定阈值,接着利用这些阈值来分割视杯和视盘。虽然在该文中测量了杯盘比,但是没有给出明确结果,而且用于测试的图像集也没有清楚描述。
引用的第四个先前技术[4],描述视盘和视杯分割以及CDR计算。视盘中心通过应用圆霍夫变换(Circular Hough Transformation)找到,接着通过活动形状模型(ASM),先定义围绕视盘的72个点,来完成视盘边界检测。最后,第一能量函数用来将外形变形成最佳形状。所述能量函数取决于五个由各自参数加权的能量项。视杯检测使用基于先前检测的视盘外形进行初始估算,然后使用第二能量函数将此变形。此方法得到了如表1所示的百分比误差率的平均值和标准差:
表1 先前技术[4]的性能统计
发明内容
本发明提供一种新的且有用的从眼底图像中获取CDR值的方法。
总的来说,本发明提出,2D视网膜眼底图像经过一个视盘分割步骤后再经过一个视杯分割步骤来处理。由视盘分割步骤得到的数据(即,视盘分割步骤的输出和/或由视盘分割步骤输出得到的数据,例如,通过平滑处理)和由视杯分割步骤的输出得到的例如据(即,视杯分割步骤的输出和/或由视盘分割步骤的输出得到的数据,例如,通过平滑处理)供给一个自适应模型,该模型用以从这样的输入中产生一个表示CDR的值。
这样,本发明的实施例可以从视网膜照片中自动计算CDR值,为人口的大规模筛查提供一种快捷、客观和一致测量的可能。
典型地,视杯分割使用由所述视盘分割结果得到的数据来完成,虽然原则上有可能独立完成视杯分割。
自适应模型的训练(training)使用包括由临床医生获得的目标CDR值在内的训练数据。因此,本发明允许在构建系统时将临床知识直接包括进来。
实验上,本发明的一实施例方法(下面称之为“用于青光眼检测和分析的自动杯盘比测量”或“ARGALI”)能够提供一个快速和精确的CDR值,因此可在用于青光眼筛查的诊断系统中作为一项工具来使用。因为2D视网膜眼底图像可以通过使用现有的、可商业获得的、低成本的设备来获取,所述ARGALI系统可以作为经济有效的(cost effective)诊断系统,对于青光眼的筛查、诊断和分析具有临床意义。
本发明可以表示为一种方法,或者实施所述方法的设备,或者计算机程序产品(例如,有形存储介质),由电脑执行可读程序指令来由电脑实施所述方法。
附图说明
这里,仅以本发明的一实施例为例来描述,参照如下附图,其中:
图1是视网膜照片,显示10年过程中,由(a)正常的到(b)大的(青光眼的)视觉的CDR的发展;
图2是本发明一实施例方法的步骤的流程图;
图3是图2方法的简要流程图;
图4是在图2方法的一个步骤中将血管剥离后产生的三个视杯边界:(a)阈值水平集(threshold level-set)分割的边界,(b)使用MIC拟合产生的平滑边界,(c)使用椭圆拟合产生的平滑边界;和
图5是包括数据的实验结果,所述数据示出(a)对于23个病人中的每一个人,图2的实施例产生的CDR值的绝对误差;(b)23个病人的百分比误差分布。
具体实施方式
1、方法说明
这里,参照图2,将说明本发明一实施例的方法,图2显示了本发明的全部步骤。图3简要的示出了同一过程,对应的步骤使用相同的标号。本实施例在此以“ARGALI”指代。
本发明的输入是一个眼底图像。本方法的第一阶段是通过三个步骤识别视盘。开始,图像经过一个可选步骤,寻找以有用区域为形式的视盘的大致位置(步骤1)。然后,通过基于全局优化概念的变分水平集方法(variational level-set approach),执行分割步骤(步骤2),分割视盘边界,并将视盘区域从眼底图像中提取出来。之后,实施平滑边界的步骤(步骤3)。
在本方法的第2阶段,通过两个步骤识别视杯。视杯的分割比视盘更有挑战性,因为视杯与血管和周围组织交织。本方法的步骤4使用多模态方法(multi-modal)来进行视杯的分割。首先,实施图像的颜色柱状图分析,分别应用两个水平集算法分割视杯边界。步骤5,两个分割的视杯通过两个单独的方法进行平滑处理,一个使用椭圆拟合,另一个使用最大内切圆拟合。
最后,步骤6,是本方法的第3阶段,一个自适应模型(如神经网络),融合由步骤2和4的水平集算法得到的杯盘计算结果,和步骤3和5的不同的平滑处理后的结果。所述神经网络是使用结合了在临床实践中使用的知识的学习机制形成的,并且为青光眼的筛查、诊断和分析提供最优选的CDR。
下面将详细描述步骤1至6:
(i)第一阶段:视盘分割和边界平滑(步骤1至3)
步骤1,先划定出包括视盘的有用区域(region of interest)。这个步骤是可选的,因为视盘和视杯在整个图像上的提取可选择地(alternatively)进行。然而,由于在一个典型的视网膜眼底图像上,视盘一般只占据不到5%像素,定位有用区域(region of intesrest,ROI)可以帮助减少计算成本并提高分割精度。视盘区域通常比周围眼底区域更亮白或者色彩强度更高。这个特性用来在具有最高强度的图像中自动选择0.5%的像素。然后,眼底图像细分为64个区域,并且一个近似的ROI中心基于这样一个区域选择,该区域包括最多数目的预先选定像素。接着,ROI定义为围绕ROI中心的、尺寸为典型视盘直径两倍的矩形。这用于视盘分割的初始边界。
步骤2,本方法对ROI利用变分水平集算法(见参考文献[5])来分割视盘。使用变分水平集的好处是,它通过引入一个包括内部项和外部项的能量函数来描绘重新初始化,所述内部项使得水平集函数接近符号距离函数,所述外部项使轮廓朝向一图像中的目标移动。利用红色通道,因为如同观察到的那样,视盘区和非视盘区之间的红色通道比其他通道有更高对比度。
然而,分割过程中,注意到,由于穿过视盘边界的血管的影响,检测到的轮廓通常不均匀,导致检测到的视盘不精确,称为泄露。
尽管使用全局优化技术,在这个步骤中使用水平集检测到的视盘边界可能不能代表视盘的实际形状,因为视盘边界受到进入视盘的大量血管的影响。这通常会导致曲率突然改变。为了避免这点,步骤3应用椭圆拟合来重塑获得的视盘边界的形状。椭圆拟合帮助平滑在边界由血管引起的曲率突变,并帮助找到符合视盘边界的误差最小的椭圆。
(ii)第2阶段:视杯分割和边界平滑(步骤4和步骤5)
获取视杯边界比获得视盘分割更有挑战性,因为视杯与血管和周围组织密集的交织。另外,视杯与边缘之间的过渡通常也不像在视盘边界的过渡那么突出。
步骤4,应用变分水平集算法[5]和阈值水平集算法(thresholdlevel-set algorithm)来获得各自的视杯边界的估算。在阈值水平集方法中,视杯边界这样确定,先通过阈值技术得到视杯边界的估计,然后应用水平集方法(见附录)来优化检测到的视杯轮廓。特别地,提取出来的视盘中的绿色通道被选定用以进一步分割,因为该通道中在视杯和视盘之间最优的观察对比度。由该通道的像素强度信息,分割出对应灰度强度顶部1/3的像素的阈值,用来定义初始轮廓。这被认为为初步估计产生可接受的结果。然后,之前讨论的水平集方法应用到初始轮廓来分割视杯。
步骤5,步骤4中每个输出进一步单独平滑,首先使用椭圆拟合,并单独使用最大内切圆(Maximum inscribed circle,MIC)匹配来消除获得的视杯边界的一些曲率突变。当视杯之外的视神经视网膜边缘中的部分血管包含在检测到的边界内时,最大内切圆匹配特别有用。
视杯的一些不同已分割的边界如图4所示。图4(a)是由步骤4的阈值水平集方法分割的直接结果,而图4(b)和(c)分别表示椭圆拟合和MIC匹配应用到此分割的结果。
第3阶段:神经网络智能融合(步骤6)
在获得步骤2,3,4和5中的视盘和视杯边界输出以后,在步骤6中使用多层神经网络来融合CDR计算结果。所述神经网络的输出是所述系统的最理想的CDR值。所述网络是通过使用大量采集的视网膜眼底图像的学习算法产生的。CDR可为“垂直CDR”(基于垂直方向的直径)或者“水平CDR”。尽管本发明对于两者都可实施,临床上垂直CDR更常见,本实施例使用垂直CDR进行测试,因为只有垂直CDR可用于视网膜眼底图像的采集。
2、实验结果
收集了新加坡眼科研究所(Singapore Eye Research Institute,SERI)的2000个病人的视网膜眼底图像集。其中,149名是青光眼患者。目前,23个随机选择的青光眼患者的图像通过前述实施例进行处理。
本实施例的神经网络是通过一学习算法产生的。该学习算法使用了从新加坡眼科研究所收集的2000个病人的大量视网膜眼底图像,和由临场医生产生的被认为是最真实(to be″ground truth″)的对应目标CDR值。以这种方式,该神经网络学习机制结合了临床实践应用的知识,并为青光眼筛查、诊断和分析提供一个最优选的CDR。实验中,利用具有反向传播学习架构的多层感知器(8个输出节点,15个隐藏节点和1个输出节点)的前馈神经网络,通过对输入-输出对的训练,来学习输入到输出的最佳组合。所述网络由15个隐藏神经元和8个输出节点定义。隐藏神经元的输出是输出神经元的输入。对所述网络中的连接的权重进行训练,以使当对应输入数据施加到到输入节点时,所述输出节点给出目标CDR。为了减少局部最小效应,所述网络学习机制中还包括了一个动量项。
本实施例使用的垂直CDR,“CDRARGALI”,通过处理过的图像计算出来。由新加坡眼科研究所临床评估的CDR被认为是最真实的,“CDRGT”,并作为测量ARGALI系统工作性能的参考标准。包括误差分布在内的性能指标以绝对值(图5(a))和百分比(图5(b))的形式由图5表示。统计(Eabs=CDRARGALI-CDRGT和E%=E/CDRGT×100%的平均值和标准差)由表II表示。
表II绝对误差和百分比误差的性能统计
可以看出由ARGALI得到的CDR,CDRARGALi,达到与临床实况CDRGT平均98.6%的一致性。绝对误差率的平均值和标准差分别为-0.014和0.049。百分比误差率的平均值和标准差为-1.214%和5.903%。使用临床取得的CDR值0.6作为确定病人是否为青光眼的阈值,结果表明对23个病人,ARGALI诊断达到100%精确度。
在本实施例将来的改进中,意将其他图像也进行处理。随着更多来自SERI的眼底图像可利用,它们也会被处理,并且它们的结果也将被包括。通过这种方式,知识数据库持续增长,提高了获取的结果的质量。我们已经使用3288个图像,而不是2000个测试了所述系统。
3、所述方法与先前技术方法[1]-[4]的比较
下面的表将ARGALI与先前技术方法[1]-[4]做了对比。表III对比了各种方法的特性。表IV对比了先前技术[1]-[4]与ARGALI的性能。表V对比了先前技术[1]-[4]与ARGALI的方法。
表III先前技术方法[1]-[4]与ARGALI特性对比
表IV先前技术方法[1]-[4]与ARGALI性能对比
表V 先前技术方法[4]与ARGALI方法对比
由先前技术方法[1]-[4]与ARGALI的对比,表明全自动ARGALI利用混合方法、智能自适应融合,并得到了更好的实验结果。
参考文献:
[1]H.Li,O.Chutatape.A model-based approach for automatedfeature extraction in fundus images.In Proc.of the 9th IEEEInternational Conference on Computer Vision,2003.
[2]Y.Tang,X.Li,A.Freyberg,G.Goch.Automaticsegmentation of the papilla in a fundus image based on the C-V modeland a shape restraint.In Proc.of the 18th International Conferenceon Pattern Recognition,2006.
[3]N.Inoue,K.Yanashima,K.Magatani,T.Kurihara.Development of a simple diagnostic method for the glaucoma usingocular fundus pictures.In Proc.of the 27th IEEE engineering inmedicine and biology annual conference,2005.
[4]J.Xu,O.Chutatape,E.Sung,C.Zheng,P.C.T.Kuan.Opticdisc feature extraction via modified deformable model technique forglaucoma analysis.Pattern Recognition 40(2007)2063-2076,2006.
[5]C.Li,C.Xu,C.Gui,M.D.Fox.Level set evolution withoutre-initialization:a new variational formulation.In Proc.of the2005 IEEE Computer Society Conference on Computer Vision andPattern Recognition,2005.
附录
虽然本实施例使用了上面描述的分割技术,并将神经网络作为自适应模型,但是本发明并不限于这个方面,而本附录就是一个可用于本发明其他实施例的替代技术的非详尽清单。
(i)步骤2和4的图像分割方法
a)聚类方法(Clustering Methods)
K-均值算法(K-means algorithm)是一种用来将图像分为K个簇的迭代技术。基本算法是:
1、选择K个簇中心,随机或基于一些启发式
2、将图像中的每个像素分配给使所述像素与所述簇中心之间的方差最小的簇
3、将所述簇内的所述像素取平均来重新计算所述簇中心。
4、重复步骤2和步骤3直到达到收敛(即,没有像素改变簇)
这种情况下,方差是像素和簇中心的平方差或绝对差。差别典型地是基于像素颜色、强度、结构(texture)和位置,或者这些因素的加权组合。K可以人工选择,或者随机选择,或者通过一启发式选择。
这个算法保证收敛,但是并不一定能返回最优方案。方案质量取决于簇的初始设置和K值。
b)基于柱状图的方法(Histogram-Based Methods)
与其他图像分割方法相比,基于柱状图的方法非常有效,因为他们典型的只需要遍历一遍像素。在这个技术中,从图像中的所有像素计算柱状图,柱状图中的峰和谷用来定位图像中的簇(cluster)。颜色或强度可以用作衡量标准。
该技术的一种改良是对图像中的簇递归应用柱状图搜索方法,以将它们分为更小的簇。对更小的簇重复这种操作,直到没有更多的簇形成。
柱状图搜索方法的一个缺点是,对于识别图像中重要的峰和谷,可能有困难。
c)边缘检测方法(Edge Detection Methods)
边缘检测是在图像处理方面自身发展良好的领域。区域边界和边缘紧密相关,因为在区域边界常常存在强度的大幅度调整。边缘检测技术因此用作另一个分割技术的基础。
由边缘检测辨认出的边缘通常是不相互连接的。然而为了将一个目标从图像中分割,需要闭合的区域边界。
如果在两个边缘之间的距离是在预定阈值以内,就会把中断连接起来。
d)区域生长方法(Region Growing Methods)
第一个区域生长方法是种子区域生长法。该方法将一套种子随着图像作为输入。种子标记每个需要被分割的目标。通过将所有没有分配的临近像素与区域比较,所述区域迭代生长。一个像素的强度值与所述区域的平均值的差,δ,用来作为相似度的尺度。用这种方式测量的拥有最小差别的像素被分配给各自的区域。这个过程持续到所有像素都被分配了区域。
种子区域生长需要种子作为额外输入。分割结果依赖于种子的选择。图像中的噪声会导致种子放置不当。非种子区域生长是一种不需要明确种子的改进算法。由一片单一区域A1开始-这里选择的像素对最终分割没有显著影响。每次迭代(iteration),以与种子区域生长同样的方式考虑相邻的像素。与种子区域生长的区别在于,如果最小值δ小于一个接着一个预先定义的阈值T,它就被加入到各自的区域A j。如果不小于,该像素被认为与当前所有区域Ai都有显著差别,就随着这个像素建立一个新区域An+1。
该技术的一种变种,由Haralick和Shapiro(1985)提出,是基于像素强度的。所述区域和候选像素的强度的平均和散射,被用来计算检验统计量。如果该检验统计量相当小,该像素就加入该区域,并且该区域的平均和散射重新计算。否则,该像素被拒绝,并用来形成一个新区域。
e)水平集方法(Level Set Methods)
曲线传播是用于目标提取、目标追踪、三维重构等的一种常用图像分析技术。这种方法的中心思想是构建一个朝向成本函数的最低潜力(lowest potential of a cost function)为目标的曲线,在该最低潜力处,它的定义反映了要解决的任务并加上一些平滑约束。拉格朗日(Lagrangian)技术是基于根据一些抽样策略使轮廓参数化,随后根据图像和内部项构建每个要素。虽然这个技术非常有效,但是也有诸多不足,如取决于抽样策略,曲线的内部几何性质的估算,其拓扑的改变,在更高层面解决问题等。
水平集方法首先于1988年由Osher et Sethian提出,用来追踪移动界面,在90年代后期发展到许多图像领域。它以一种隐含方式用来解决曲线/平面等的传播问题。中心思想是使用符号函数来代表需构架的轮廓,其中函数的0级对应实际轮廓。然后,根据轮廓的运动方程,人们可以容易地得到隐式表面的相似流,当所述相似流应用到0级,会反映所述轮廓的传播。水平集方法具有众多优势:它是隐式的,不依赖参数,提供了一个直接的方法来估算不断变化的结构的几何性质,可以改变拓扑结构,并且是内在的。另外,它们可以被用来定义一个由Zhao,Merriman&Osher在1996年提出的优化框架。因此,结论是这是一个非常方便的解决计算机视觉和医学图像分析的众多应用的框架。
f)图形分割方法(Graph Partitioning Methods)
“归一化割准则”法,首次由Shi和Malik于1997年提出。这种方法中,待分割图像作一个加权无向图的模型。每个像素是图中的一个节点,每对像素之间形成一个边缘。每条边缘的权重是像素之间相似度的衡量尺度。图像通过移除连接片段的边缘,而被分为分割集(片段)。图像的最佳分割就是,移除(分割)边缘的权重最小的那一个。Shi的算法寻找最小化“归一化分割”,就是所述“分割”对集合中所有边缘的比值。
g)分水岭变换(Watershed Transformation)
分水岭变换认为是一个如地形表面的图像的梯度幅值具有最高梯度幅值强度(GMIs)的像素对应分水岭线,所述分水岭线代表区域边界。由一个共同分水岭线包围的任意像素上的水,会向下流到一个共同的局部强度最小点(local intensity minima,LMI)。漏到共同的最小点的像素形成一个汇水盆地,该汇水盆地代表所述区域。
h)基于模型的分割(Model based Segmentation)
这个方法的中心假定是器官结构具有重复的几何形式。因此,可以找到一个用以解释器官形状变化的概率模型,并且当分割附加约束的图像时,先使用这个模型。这个任务包括(i)将训练例子记录到一个共同的姿势(pose),(ii)记录的样本变化的概率表示,以及(iii)模型和图像之间的统计推断。对于基于知识的分割,文献中该技术方法的阐述包括活动形状和外观模型,活动轮廓和可变形模板以及基于水平集的方法。
i)多尺度分割(Multi-scale Segmentation)
在尺度空间的不同尺寸下计算图像分割,有时从较大尺寸向精细尺寸进行;参考尺度空间分割。
分割标准可以任意复杂,并且可以考虑全局和局部标准。通常的要求是,每个区域都必须在某种意义上连接。
2、执行融合步骤6的自适应模型
a)支持向量机(Support Vector Machine,SVM)
支持向量机(SVMs)是一组相关的监督学习的方法,用以分类和复原。他们属于一类广义的线性分类。也可被认为Tikhonov正则化的一种特例。SVMs的一个特殊性质是,它们同时最小化了经验分类错误和最大化了几何裕度;因此也被称为最大间隔分类器。
支持向量机将输入向量映射到高维空间,在那里会构造一个最大分离超平面。两个平行的超平面分别构造在分割数据的超平面的每一侧。分离的超平面是使两个平行超平面之间的距离最大化的超平面。做一个假定,平行的超平面之间的间隔或间距越大,分类器的泛化误差就越好。
b)神经网络
神经网络是基于联结(connectionistic)方法来计算的一组相互连接的人工神经元,其使用一个数学或计算模型来进行信息处理。多数情况一个神经网络(ANN)是一个自适应系统,该自适应系统会基于流过其网络的外部或内部信息来改变其结构。
更具体而言,神经网络是非线性统计数据模型或决策工具。它们可以被用来为输入和输出之间复杂关系建模或者在数据中寻找模式。
c)激励(boosting)
激励是一种通过将粗糙和一般的不准确“拇指规则”结合起来,用来产生非常精准预测规则的一般方法。弱学习机定义为跟真实分类轻微相关的分类器。相反,强学习机就是一个与真实分类具有任意良好相关的分类器。
激励并不在算法上受限,但是多数激励算法遵循一个模板。典型的激励发生在迭代中,重复为最终的强分类器增加弱分类器。每次迭代,弱学习机学习到关于分布的训练数据。弱学习机随后被加到最终的强学习机。典型的,是通过某些方式给弱学习机增加权重来完成,这通常与弱学习机的精确度有关。在将弱学习机加到最终的强学习机之后,数据重新加权:错误分类的例子加大权重,而正确分类的例子减小权重(一些激励算法实际上会降低重复错误分类例子的权重,如,多数激励和布朗激励(BrownBoost))。因此,未来的弱学习机集中应对之前的弱学习机分类错误的例子。
众多激励算法的主要不同是,训练数据点的权重和假定。阿达激励(AdaBoost)是一种常用的,也许历史上最著名的,因为它是第一个可以适应弱学习机的算法。然而,由很多新近的算法,如LPBoost,TotalBoost,BrownBoost,MadaBoost,LogitBoost,等。很多激励算法可以适应任意激励框架,这显示出激励在使用凸成本函数的函数空间梯度下降。
d)引导聚集(Bootstrap aggregating)
引导聚集是一种元算法,用来根据稳定性和分类精确度来改进分类和回归模型。聚集(Bagging)也减少矛盾,并帮助防止过度适应。尽管这种方法常用于决策树模型,它也可以用于任何类型的模型。Bagging是模型平均法的特例。
给定标准训练集D,其大小为N,我们通过均匀地从D中采样,产生L个大小为N′(N′<N)的新训练集Di,并替换。通过有放回抽样,很有可能一些例子在每个Di中重复。如果N′=N,对于大的N,集Di有望获得D中样本的63.2%,剩下的重复。这种样本被称为自举样本。L个模型使用L之上的自举样本拟合,并通过平均输出(在回归的情况下)或投票(在分类的情况下)结合。关于bagging的一个特殊的有趣点是,由于这个方法平均了一些预测因素,所以对于改进线性模型没有用。
Claims (24)
1.一种从二维(2D)视网膜眼底图像获得杯盘比(CDR)值的方法,包括步骤:
(i)进行视盘分割;
(ii)进行视杯分割;以及
(iii)将由视盘分割得到的数据和视杯分割得到的数据,输入到自适应模型运行以生成CDR值。
2.根据权利要求1所述的方法,其中,在所述步骤(i)之后,对所述视盘分割的结果进行一个平滑的步骤,以产生平滑的视盘分割数据,所述平滑的视盘分割数据用于所述步骤(ii),并作为输入到所述自适应模型的数据。
3.根据权利要求1或2所述的方法,其中,在所述步骤(ii)之后,对从所述视杯分割步骤(ii)中的输出数据执行一次或多次平滑算法,以产生平滑的视杯数据的各自集合,所述平滑的视杯数据的集合或各集合在步骤(iii)中输入到所述自适应模型。
4.根据权利要求3所述的方法,其中,有多个所述平滑算法,产生多个在步骤(iii)中输入到所述自适应模型的平滑视杯数据的各自集合。
5.根据权利要求3或4所述的方法,其中,所述平滑视杯数据和所述由所述视杯分割步骤(ii)输出的数据,均输入到所述自适应模型。
6.根据权利要求1所述的方法,其中,所述视盘分割步骤(i)包括一个基于所述图像中点的强度在所述眼底图像中识别一个有用区域的预备步骤。
7.根据前述任一项权利要求所述的方法,其中,所述视盘分割步骤(i)使用变分水平集算法。
8.根据前述任一项权利要求所述的方法,其中,所述视杯分割步骤(ii)包括使用阈值技术来估算视杯边界的第一分步,和随后的使用水平集技术的第二分步。
9.根据前述任一项权利要求所述的方法,其中,所述视杯分割步骤(ii)通过多个方法进行,每个方法产生各自的视杯分割,步骤(iii)包括将从这些视杯分割中的每一个中得到的数据输入到所述自适应模型中。
10.根据前述任一项权利要求所述的方法,其中,眼底图像包括多个色彩要素,所述分割步骤(i)和(ii)中的至少一个仅使用所述彩色图像的一单个要素进行。
11.根据前述任一项权利要求所述的方法,其中,所述自适应模型是一个多层神经网络。
12.根据前述任一项权利要求所述的方法,包括一个使用包括由临床产生的目标CDR值的训练集合、来训练所述自适应模型的预备阶段。
13.一种从2D视网膜眼底图像获得CDR值的设备,包括处理器,布置为执行下列步骤:
(i)进行视盘分割;
(ii)进行视杯分割;以及
(iii)将由视盘分割得到的数据和视杯分割得到的数据,输入到自适应模型工具以生成CDR值。
14.根据权利要求13所述的设备,其中,所述处理器配置为,以在所述步骤(i)之后,将视盘分割的结果平滑以产生平滑的视盘分割数据,所述平滑的视盘分割数据用作输入到所述自适应模型的数据。
15.根据权利要求13或14所述的设备,其中,所述处理器配置为,以在所述步骤(ii)之后,对从所述视杯分割步骤(ii)中输出的数据执行一次或多次平滑算法,以产生平滑的视杯数据的各自集合,所述平滑的视杯数据的集合或各集合在步骤(iii)中输入到所述自适应模型。
16.根据权利要求15所述的设备,其中,处理器配置为,执行多个所述平滑算法,产生多个在步骤(iii)中输入到所述自适应模型的平滑视杯数据的各自集合。
17.根据权利要求15或16所述的设备,其中,所述平滑的视杯数据和由所述视杯分割步骤(ii)输出的数据,均输入到所述自适应模型中。
18.根据权利要求13至17任一项所述的设备,其中,所述处理器配置为,作为视盘分割的所述步骤(i)的一部分,以执行一个基于所述图像中点的强度在所述眼底图像上识别一个有用区域的预备步骤。
19.根据权利要求13至18任一项所述的设备,其中,处理器配置为,在视盘分割的步骤(i)中使用变分水平集算法。
20.根据权利要求13至19任一项所述设备,其中,处理器配置为,在步骤(ii),执行使用阈值技术来估算视杯边界的第一分步,随后执行使用水平集技术的第二分步。
21.根据权利要求13至20任一项所述的设备,其中,所述处理器配置为,通过多个方法执行所述视杯分割步骤(ii),每个方法产生各自的视杯分割,步骤(iii)包括将从这些视杯分割中的每一个中得到的数据输入到所述自适应模型中。
22.根据权利要求13至21任一项所述的设备,其中,所述处理器配置为,将所述眼底图像作为多个色彩要素对待,并仅使用所述彩色图像的一单个要素来执行至少一个所述分割步骤(i)和(ii)。
23.根据权利要求13至22任一项所述的设备,其中,所述自适应模型是一个多层神经网络。
24.一种计算机程序产品,在所述计算机程序产品上存储有可由计算机读取以使所述计算机执行根据权利要求1至11任一项所述的方法的可读程序指令。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/SG2008/000186 WO2009139722A1 (en) | 2008-05-14 | 2008-05-14 | Automatic cup-to-disc ratio measurement system |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102112044A true CN102112044A (zh) | 2011-06-29 |
Family
ID=41318930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008801292211A Pending CN102112044A (zh) | 2008-05-14 | 2008-05-14 | 自动杯盘比测量系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8705826B2 (zh) |
EP (1) | EP2285266B1 (zh) |
JP (1) | JP2011520503A (zh) |
CN (1) | CN102112044A (zh) |
AU (1) | AU2008356237A1 (zh) |
WO (1) | WO2009139722A1 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102842136A (zh) * | 2012-07-19 | 2012-12-26 | 湘潭大学 | 一种综合血管分布和视盘外观特性的视盘投影定位方法 |
CN106372593A (zh) * | 2016-08-30 | 2017-02-01 | 上海交通大学 | 一种基于血管收敛的视盘区定位方法 |
CN106446805A (zh) * | 2016-09-08 | 2017-02-22 | 北京化工大学 | 一种眼底照中视杯的分割方法及系统 |
CN106529558A (zh) * | 2016-10-28 | 2017-03-22 | 北京化工大学 | 青光眼图像特征提取方法及装置 |
CN107680683A (zh) * | 2017-10-09 | 2018-02-09 | 上海睦清视觉科技有限公司 | 一种ai眼部健康评估方法 |
CN107832695A (zh) * | 2017-11-01 | 2018-03-23 | 齐鲁工业大学 | 在视网膜图像中基于纹理特征的视盘识别方法及装置 |
CN108229545A (zh) * | 2017-12-22 | 2018-06-29 | 北京市商汤科技开发有限公司 | 青光眼诊断的方法、装置及电子设备 |
CN109166095A (zh) * | 2018-07-11 | 2019-01-08 | 广东技术师范学院 | 一种基于生成对抗机制的眼底影像杯盘分割方法 |
CN109528155A (zh) * | 2018-11-19 | 2019-03-29 | 复旦大学附属眼耳鼻喉科医院 | 一种适用于高度近视并发开角型青光眼的智能筛查系统及其建立方法 |
CN110751634A (zh) * | 2019-10-11 | 2020-02-04 | 北京致远慧图科技有限公司 | 一种视杯视盘分割模型的确定方法、装置及存储介质 |
WO2020103289A1 (zh) * | 2018-11-23 | 2020-05-28 | 福州依影健康科技有限公司 | 一种高血压视网膜血管改变特征数据分析的方法和系统 |
CN111986202A (zh) * | 2020-10-26 | 2020-11-24 | 平安科技(深圳)有限公司 | 青光眼辅助诊断装置、方法及存储介质 |
WO2021189849A1 (zh) * | 2020-09-21 | 2021-09-30 | 平安科技(深圳)有限公司 | 基于神经网络的杯盘比确定方法、装置、设备及存储介质 |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG172159A1 (en) | 2008-12-15 | 2011-07-28 | Singapore Health Serv Pte Ltd | A method and system for determining the position of an optic cup boundary |
US9107617B2 (en) | 2009-11-16 | 2015-08-18 | Agency For Science, Technology And Research | Obtaining data for automatic glaucoma screening, and screening and diagnostic techniques and systems using the data |
JP5588291B2 (ja) * | 2010-09-29 | 2014-09-10 | キヤノン株式会社 | 情報処理装置、情報処理方法、情報処理システム、及びプログラム |
JP5628636B2 (ja) * | 2010-11-09 | 2014-11-19 | 株式会社トプコン | 眼底画像処理装置及び眼底観察装置 |
WO2012078636A1 (en) | 2010-12-07 | 2012-06-14 | University Of Iowa Research Foundation | Optimal, user-friendly, object background separation |
US10226174B2 (en) | 2011-03-02 | 2019-03-12 | Brien Holden Vision Institute | Ocular fundus imaging systems, devices and methods |
WO2015035175A1 (en) * | 2013-09-06 | 2015-03-12 | Brien Holden Vision Diagnostics | Ocular fundus imaging systems, devices and methods |
US8873835B2 (en) * | 2011-11-30 | 2014-10-28 | Adobe Systems Incorporated | Methods and apparatus for correcting disparity maps using statistical analysis on local neighborhoods |
JP5947561B2 (ja) * | 2012-02-20 | 2016-07-06 | キヤノン株式会社 | 画像形成装置及び画像形成方法 |
US9336302B1 (en) | 2012-07-20 | 2016-05-10 | Zuci Realty Llc | Insight and algorithmic clustering for automated synthesis |
EP2888718B1 (en) | 2012-08-24 | 2018-01-17 | Agency For Science, Technology And Research | Methods and systems for automatic location of optic structures in an image of an eye, and for automatic retina cup-to-disc ratio computation |
SG11201505600TA (en) | 2013-01-22 | 2015-08-28 | Agency Science Tech & Res | Cost-sensitive linear reconstruction based optic cup localization |
AU2014253687B2 (en) * | 2013-04-19 | 2019-10-10 | Commonwealth Scientific And Industrial Research Organisation | System and method of tracking an object |
WO2015043553A1 (en) * | 2013-09-30 | 2015-04-02 | xVYSOKE UCENI TECHNICKE V BRNE | Ophthalmic diagnostic apparatus and method of its operation |
CN104545792B (zh) * | 2014-12-31 | 2016-08-24 | 浙江大学 | 眼底图像的动静脉视网膜血管视盘定位方法 |
US10115194B2 (en) * | 2015-04-06 | 2018-10-30 | IDx, LLC | Systems and methods for feature detection in retinal images |
CN104835157B (zh) * | 2015-05-04 | 2018-10-12 | 北京工业大学 | 基于改进pde图像修补的眼底图像视杯自动分割方法 |
US9757023B2 (en) | 2015-05-27 | 2017-09-12 | The Regents Of The University Of Michigan | Optic disc detection in retinal autofluorescence images |
US10169864B1 (en) * | 2015-08-27 | 2019-01-01 | Carl Zeiss Meditec, Inc. | Methods and systems to detect and classify retinal structures in interferometric imaging data |
CN105411525B (zh) * | 2015-11-10 | 2017-05-31 | 广州河谷互动医疗科技有限公司 | 一种眼底照片图像智能获取识别系统 |
US9706917B1 (en) | 2016-03-24 | 2017-07-18 | Don C. Bagwell, Sr. | Eye examination template |
DE202017104953U1 (de) * | 2016-08-18 | 2017-12-04 | Google Inc. | Verarbeiten von Fundusbildern unter Verwendung von Maschinenlernmodellen |
EP3373798B1 (en) * | 2016-11-22 | 2020-05-27 | Delphinium Clinic Ltd. | Method and system for classifying optic nerve head |
US11205103B2 (en) | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
US10832402B2 (en) * | 2017-03-10 | 2020-11-10 | Carl Zeiss Meditec, Inc. | Methods for detection and enhanced visualization of pathologies in a human eye |
WO2018200840A1 (en) | 2017-04-27 | 2018-11-01 | Retinopathy Answer Limited | System and method for automated funduscopic image analysis |
JP6734475B2 (ja) * | 2017-10-10 | 2020-08-05 | 国立大学法人 東京大学 | 画像処理装置及びプログラム |
JP7178672B6 (ja) * | 2017-10-27 | 2022-12-20 | ビュノ インコーポレイテッド | 被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置 |
US11080850B2 (en) | 2018-01-16 | 2021-08-03 | Electronics And Telecommunications Research Institute | Glaucoma diagnosis method using fundus image and apparatus for the same |
KR102182641B1 (ko) * | 2018-01-16 | 2020-11-25 | 한국전자통신연구원 | 안저영상을 이용한 녹내장 진단 방법 및 이를 위한 장치 |
WO2020036182A1 (ja) * | 2018-08-14 | 2020-02-20 | キヤノン株式会社 | 医用画像処理装置、医用画像処理方法及びプログラム |
CN112868068B (zh) * | 2018-10-17 | 2024-05-10 | 谷歌有限责任公司 | 使用利用其它模式训练的机器学习模型处理眼底相机图像 |
CN109215039B (zh) * | 2018-11-09 | 2022-02-01 | 浙江大学常州工业技术研究院 | 一种基于神经网络的眼底图片的处理方法 |
CN109636809B (zh) * | 2018-12-03 | 2020-12-25 | 西南交通大学 | 一种基于尺度感知的图像分割层次选择方法 |
US10963757B2 (en) | 2018-12-14 | 2021-03-30 | Industrial Technology Research Institute | Neural network model fusion method and electronic device using the same |
CN110992309B (zh) * | 2019-11-07 | 2023-08-18 | 吉林大学 | 基于深层信息传递网络的眼底图像分割方法 |
KR102294786B1 (ko) * | 2019-11-27 | 2021-08-27 | 한양대학교 산학협력단 | 안구질환 구조적 진행 판단 방법 및 그 장치 |
WO2021202170A1 (en) * | 2020-03-30 | 2021-10-07 | University Of Florida Research Foundation | Collaborative feature ensembling adaptation for domain adaptation in unsupervised optic disc and cup segmentation |
CN112001920B (zh) * | 2020-10-28 | 2021-02-05 | 北京至真互联网技术有限公司 | 眼底图像识别方法及装置和设备 |
CN112890764B (zh) * | 2021-01-18 | 2022-12-13 | 哈尔滨工业大学 | 无人化低成本便携式眼底疾病检测系统 |
CN115578577A (zh) * | 2021-10-11 | 2023-01-06 | 深圳硅基智能科技有限公司 | 基于紧框标的眼底图像的识别装置及识别方法 |
CN116309549B (zh) * | 2023-05-11 | 2023-10-03 | 爱尔眼科医院集团股份有限公司 | 一种眼底区域检测方法、装置、设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6030079A (en) * | 1997-11-21 | 2000-02-29 | Nidek Co., Ltd. | Method for analyzing an image of a fundus, and an apparatus for executing that method |
US20040105074A1 (en) * | 2002-08-02 | 2004-06-03 | Peter Soliz | Digital stereo image analyzer for automated analyses of human retinopathy |
US20070230795A1 (en) * | 2006-04-03 | 2007-10-04 | Abramoff Michael D | Methods and Systems for Optic Nerve Head Segmentation |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2001288372A1 (en) * | 2000-08-23 | 2002-03-04 | Philadelphia Ophthalmologic Imaging Systems, Inc. | System and method for tele-ophthalmology |
US20020186818A1 (en) * | 2000-08-29 | 2002-12-12 | Osteonet, Inc. | System and method for building and manipulating a centralized measurement value database |
JP2006263127A (ja) * | 2005-03-24 | 2006-10-05 | Gifu Univ | 眼底画像診断支援システム、及び眼底画像診断支援プログラム |
US7524061B2 (en) * | 2005-10-12 | 2009-04-28 | Siemens Corporate Research, Inc. | System and method for robust optic disk detection in retinal images using vessel structure and radon transform |
FR2907327B1 (fr) | 2006-10-18 | 2009-06-12 | Patrick Nguyen | Methode de suivi de l'evolution d'un glaucome |
CA2690834C (en) * | 2007-06-15 | 2015-08-18 | University Of Southern California | Pattern analysis of retinal maps for the diagnosis of optic nerve diseases by optical coherence tomography |
US7992999B2 (en) * | 2008-04-23 | 2011-08-09 | University Of Pittsburgh - Of The Commonwealth System Of Higher Education | Automated assessment of optic nerve head with spectral domain optical coherence tomography |
-
2008
- 2008-05-14 JP JP2011509446A patent/JP2011520503A/ja active Pending
- 2008-05-14 WO PCT/SG2008/000186 patent/WO2009139722A1/en active Application Filing
- 2008-05-14 AU AU2008356237A patent/AU2008356237A1/en not_active Abandoned
- 2008-05-14 EP EP08754024.1A patent/EP2285266B1/en not_active Not-in-force
- 2008-05-14 US US12/992,299 patent/US8705826B2/en not_active Expired - Fee Related
- 2008-05-14 CN CN2008801292211A patent/CN102112044A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6030079A (en) * | 1997-11-21 | 2000-02-29 | Nidek Co., Ltd. | Method for analyzing an image of a fundus, and an apparatus for executing that method |
US20040105074A1 (en) * | 2002-08-02 | 2004-06-03 | Peter Soliz | Digital stereo image analyzer for automated analyses of human retinopathy |
US20070230795A1 (en) * | 2006-04-03 | 2007-10-04 | Abramoff Michael D | Methods and Systems for Optic Nerve Head Segmentation |
Non-Patent Citations (2)
Title |
---|
NAOTO INOUE ET. AL..: ""Development of a simple diagnostic method for the glaucoma using ocular Fundus pictures."", 《PROCEEDINGS OF THE 2005 IEEE, ENGINEERING IN MEDICINE AND BIOLOGY 27TH ANNUAL CONFERENCE, SHANGHAI, CHINA, SEPTEMBER 1-4, 2005》 * |
刘国才等: ""基于多层Mumford_Shah向量模型的彩色视乳头图像杯盘重建、分割与度量"", 《中国生物医学工程学报》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102842136B (zh) * | 2012-07-19 | 2015-08-05 | 湘潭大学 | 一种综合血管分布和视盘外观特性的视盘投影定位方法 |
CN102842136A (zh) * | 2012-07-19 | 2012-12-26 | 湘潭大学 | 一种综合血管分布和视盘外观特性的视盘投影定位方法 |
CN106372593A (zh) * | 2016-08-30 | 2017-02-01 | 上海交通大学 | 一种基于血管收敛的视盘区定位方法 |
CN106372593B (zh) * | 2016-08-30 | 2019-12-10 | 上海交通大学 | 一种基于血管收敛的视盘区定位方法 |
CN106446805A (zh) * | 2016-09-08 | 2017-02-22 | 北京化工大学 | 一种眼底照中视杯的分割方法及系统 |
CN106446805B (zh) * | 2016-09-08 | 2019-09-13 | 北京化工大学 | 一种眼底照中视杯的分割方法及系统 |
CN106529558B (zh) * | 2016-10-28 | 2019-05-24 | 北京化工大学 | 青光眼图像特征提取方法及装置 |
CN106529558A (zh) * | 2016-10-28 | 2017-03-22 | 北京化工大学 | 青光眼图像特征提取方法及装置 |
CN107680683A (zh) * | 2017-10-09 | 2018-02-09 | 上海睦清视觉科技有限公司 | 一种ai眼部健康评估方法 |
CN107832695A (zh) * | 2017-11-01 | 2018-03-23 | 齐鲁工业大学 | 在视网膜图像中基于纹理特征的视盘识别方法及装置 |
CN108229545B (zh) * | 2017-12-22 | 2021-09-14 | 北京市商汤科技开发有限公司 | 青光眼诊断的方法、装置及电子设备 |
CN108229545A (zh) * | 2017-12-22 | 2018-06-29 | 北京市商汤科技开发有限公司 | 青光眼诊断的方法、装置及电子设备 |
CN109166095A (zh) * | 2018-07-11 | 2019-01-08 | 广东技术师范学院 | 一种基于生成对抗机制的眼底影像杯盘分割方法 |
CN109166095B (zh) * | 2018-07-11 | 2021-06-25 | 广东技术师范学院 | 一种基于生成对抗机制的眼底影像杯盘分割方法 |
CN109528155A (zh) * | 2018-11-19 | 2019-03-29 | 复旦大学附属眼耳鼻喉科医院 | 一种适用于高度近视并发开角型青光眼的智能筛查系统及其建立方法 |
WO2020103289A1 (zh) * | 2018-11-23 | 2020-05-28 | 福州依影健康科技有限公司 | 一种高血压视网膜血管改变特征数据分析的方法和系统 |
GB2591919A (en) * | 2018-11-23 | 2021-08-11 | Fuzhou Yiying Health Tech Co Ltd | Method and system for analyzing hypertensive retinal blood vessel change feature data |
CN110751634A (zh) * | 2019-10-11 | 2020-02-04 | 北京致远慧图科技有限公司 | 一种视杯视盘分割模型的确定方法、装置及存储介质 |
WO2021189849A1 (zh) * | 2020-09-21 | 2021-09-30 | 平安科技(深圳)有限公司 | 基于神经网络的杯盘比确定方法、装置、设备及存储介质 |
JP2022533685A (ja) * | 2020-09-21 | 2022-07-25 | 平安科技(深▲せん▼)有限公司 | ニューラルネットワークに基づくc/d比決定方法、装置、機器及び記憶媒体 |
JP7260674B2 (ja) | 2020-09-21 | 2023-04-18 | 平安科技(深▲せん▼)有限公司 | ニューラルネットワークに基づくc/d比決定方法、コンピュータ機器及び記憶媒体 |
US12086982B2 (en) | 2020-09-21 | 2024-09-10 | Ping An Technology (Shenzhen) Co., Ltd. | Method for confirming cup-disc ratio based on neural network, apparatus, device, and computer readable storage medium |
CN111986202A (zh) * | 2020-10-26 | 2020-11-24 | 平安科技(深圳)有限公司 | 青光眼辅助诊断装置、方法及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2009139722A8 (en) | 2011-03-03 |
JP2011520503A (ja) | 2011-07-21 |
EP2285266A4 (en) | 2012-06-20 |
EP2285266B1 (en) | 2014-04-09 |
EP2285266A1 (en) | 2011-02-23 |
AU2008356237A1 (en) | 2009-11-19 |
US20110091083A1 (en) | 2011-04-21 |
US8705826B2 (en) | 2014-04-22 |
WO2009139722A1 (en) | 2009-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102112044A (zh) | 自动杯盘比测量系统 | |
Yan et al. | Joint segment-level and pixel-wise losses for deep learning based retinal vessel segmentation | |
Fraz et al. | Blood vessel segmentation methodologies in retinal images–a survey | |
Akbar et al. | Automated techniques for blood vessels segmentation through fundus retinal images: A review | |
CN110120033A (zh) | 基于改进的U-Net神经网络三维脑肿瘤图像分割方法 | |
CN109493954A (zh) | 一种基于类别判别定位的sd-oct图像视网膜病变检测系统 | |
CN106504253A (zh) | 一种医疗影像照片的处理方法及系统 | |
CN108416793B (zh) | 基于三维相干断层成像图像的脉络膜血管分割方法及系统 | |
CN104809480A (zh) | 一种基于分类回归树和AdaBoost的眼底图像视网膜血管分割方法 | |
Xu et al. | Automated geographic atrophy segmentation for SD-OCT images based on two-stage learning model | |
CN108618749A (zh) | 基于便携式数字化眼底照相机的视网膜血管三维重建方法 | |
Gaddipati et al. | Glaucoma assessment from oct images using capsule network | |
Matsopoulos et al. | Detection of glaucomatous change based on vessel shape analysis | |
Krishnamoorthi et al. | Hybrid feature vector based detection of Glaucoma | |
Surendiran et al. | Analysis and detection of glaucoma from fundus eye image by cup to disc ratio by unsupervised machine learning | |
US11481905B2 (en) | Atlas for automatic segmentation of retina layers from OCT images | |
Karnowski et al. | Automatic detection of retina disease: Robustness to image quality and localization of anatomy structure | |
CN115147273A (zh) | 一种基于域适应的眼科oct术后轮廓图生成方法及系统 | |
CN105205813A (zh) | 角膜老年环自动检测方法 | |
Kumari et al. | Automated process for retinal image segmentation and classification via deep learning based cnn model | |
Montillo | Context selective decision forests and their application to lung segmentation in CT images | |
Fraz et al. | Computer vision algorithms applied to retinal vessel segmentation and quantification of vessel caliber | |
Smida et al. | Classification of Fluid Filled Abnormalities In Retinal Optical Coherence Tomography Images Using Chicken Swarm Optimized Deep Learning Classifier | |
George et al. | Convolutional Neural Network for automatic segmentation of EDI OCT images | |
Srivastava et al. | Supervised 3D graph-based automated epidermal thickness estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20110629 |