CN112883962A - 眼底图像识别方法、装置、设备、存储介质以及程序产品 - Google Patents
眼底图像识别方法、装置、设备、存储介质以及程序产品 Download PDFInfo
- Publication number
- CN112883962A CN112883962A CN202110126001.0A CN202110126001A CN112883962A CN 112883962 A CN112883962 A CN 112883962A CN 202110126001 A CN202110126001 A CN 202110126001A CN 112883962 A CN112883962 A CN 112883962A
- Authority
- CN
- China
- Prior art keywords
- macular
- fundus image
- fundus
- region
- inputting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了眼底图像识别方法、装置、设备、存储介质以及程序产品,涉及计算机视觉、深度学习、智慧医疗等人工智能技术领域。该方法的一具体实施方式包括:获取眼底图像中的眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值;基于眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性;基于每个特征与黄斑区病变类型的相关性进行特征筛选;将筛选出的特征输入至预先训练出的黄斑区分类决策树,得到黄斑区的类别。该实施方式利用计算机辅助眼底图像识别,大大降低了人力成本。
Description
技术领域
本申请涉及计算机技术领域,具体涉及计算机视觉、深度学习、智慧医疗等人工智能技术领域,尤其涉及眼底图像识别方法、装置、设备、存储介质以及程序产品。
背景技术
糖尿病视网膜病变(Diabetic Retinopathy,DR)是指由糖尿病引起视网膜血管壁受损,导致视网膜上出现微血管瘤、硬渗和出血等病灶,使视觉功能下降,是主要致盲疾病之一。糖尿病性黄斑水肿(diabetic macular edema,DME)是导致糖尿病患者视力损害的常见原因,指由于糖尿病引起的黄斑中心凹一个视盘直径(papillary diameter,PD)范围内的细胞外液积聚所致的视网膜增厚或硬性渗出沉积。
目前,根据眼底图像进行DME的自动分类,其方法为根据早期治疗性糖尿病视网膜病变研究分级量表,将黄斑中央凹定位并标记黄斑区域,以及采用人工标记提取方法提取硬渗,并且标记提取物在黄斑区域上的位置,以将糖尿病性黄斑水肿分类为正常、1期和2期糖尿病性黄斑水肿。然而,对糖尿病性黄斑水肿分类,如果完全依赖医生是十分耗时耗力的,并且眼科医生人员匮乏。
发明内容
本申请提供了一种眼底图像识别方法、装置、设备、存储介质以及程序产品。
根据本申请的第一方面,提供了一种眼底图像识别方法,包括:获取眼底图像中的眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值;基于眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性;基于每个特征与黄斑区病变类型的相关性进行特征筛选;将筛选出的特征输入至预先训练出的黄斑区分类决策树,得到黄斑区的类别。
根据本申请的第二方面,提供了一种眼底图像识别装置,包括:获取模块,被配置成获取眼底图像中的眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值;建立模块,被配置成基于眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性;筛选模块,被配置成基于每个特征与黄斑区病变类型的相关性进行特征筛选;分类模块,被配置成将筛选出的特征输入至预先训练出的黄斑区分类决策树,得到黄斑区的类别。
根据本申请的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实现方式描述的方法。
根据本申请的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面中任一实现方式描述的方法。
根据本申请的第五方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现根据如第一方面中任一实现方式描述的方法。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请的眼底图像识别方法的一个实施例的流程图;
图2是眼底病灶的示意图;
图3是黄斑中心凹的示意图;
图4是眼底病灶位置获取方法的一个实施例的流程图;
图5是图4中的眼底病灶位置获取方法的网络结构图;
图6是黄斑中心凹位置获取方法的一个实施例的流程图;
图7是特征与黄斑区病变类型的相关性建立方法的一个实施例的流程图;
图8是黄斑区分类决策数训练方法的一个实施例的流程图;
图9是根据本申请的眼底图像识别装置的一个实施例的结构示意图;
图10是用来实现本申请实施例的眼底图像识别方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了根据本申请的眼底图像识别方法的一个实施例的流程100。该眼底图像识别方法包括以下步骤:
步骤101,获取眼底图像中的眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值。
在本实施例中,眼底图像识别方法的执行主体可以获取眼底图像中的眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值。其中,眼底图像可以是对眼底进行拍摄所得到的图像。
当眼底发生病变时,眼底图像中会存在眼底病灶。例如,当眼底发生糖尿病视网膜病变时,眼底图像中会存在微血管瘤(microangioma,MA)、出血(haemorrhagia,HA)、硬渗(hard exudates,HE)和软渗(soft exudates,SE)等的至少一项眼底病灶。为了便于理解,图2示出了眼底病灶的示意图。进而,获取到的眼底病灶的位置包括微血管瘤的位置(MA_location)、出血的位置(HA_location)、硬渗的位置(HE_location)和软渗的位置(SE_location)等的至少一项。
黄斑中心凹是视网膜上视觉最敏锐的部位。视网膜后极部有一直径约2mm的浅漏斗状小凹陷区,称为黄斑区。黄斑区中央有一小凹为黄斑中心凹。为了便于理解,图3示出了黄斑中心凹的示意图。
根据眼底病灶的种类、数量和病变程度等,可以将视网膜的病变划分为不同的等级。以糖尿病视网膜病变为例,分为5个病变等级:0-无DR、1-轻度非增殖期DR、2-重度非增殖期DR、3-重度非增殖期DR和4-增殖期DR。糖尿病性黄斑水肿(DME)是导致糖尿病患者视力损害的常见原因,指由于糖尿病引起的黄斑中心凹一个视盘直径范围内的细胞外液积聚所致的视网膜增厚或硬性渗出沉积。根据眼底病灶的种类、数量和病变程度等,可以确定黄斑区的病变概率。其中,黄斑区的病变概率越大,说明糖尿病性黄斑水肿的可能性越高。
在本实施例的一些可选的实现方式中,上述执行主体可以首先对眼底图像采用传统的形态学方法提取眼底病灶的位置和黄斑中心凹的位置;然后再将距离黄斑中心凹四个不同距离范围区域的图像特征及相应区域的眼底病灶面积等信息作为分类器的输入,利用人工神经网络分类器算法进行DR分级和DME预测。
在本实施例的一些可选的实现方式中,上述执行主体可以首先对眼底图像采用传统的形态学方法提取眼底病灶的位置和黄斑中心凹的位置;然后计算眼底病灶与黄斑中心凹之间的距离;最后根据距离进行DR分级和DME预测。
以上两种实现方式均严重依赖于黄斑中心凹和眼底病灶的位置的定位准确率和分割准确性,采用传统的图像处理方式进行黄斑中心凹和眼底病灶的定位及分割,例如形态学方法、阈值方法等图像处理方法。但是由于眼底图像的亮度不均匀,基于阈值分割的方法的难点在于选取合适的阈值,以及对于不同设备采集的眼底图像分布差异性较大,也造成了阈值法的泛化能力很差。基于形态学分割的方法,由于其在分割的时候仅仅根据眼底病灶的亮度和灰度等因素,没有考虑其他的特征,因而对噪声十分敏感,眼底图像中过暗、眼底的代谢分泌物、拍摄反光等都对渗出的分割造成干扰。
为了提高黄斑中心凹和眼底病灶的位置的定位准确率和分割准确性,可以基于深度学习技术,采用神经网络获取眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值。
在本实施例的一些可选的实现方式中,上述执行主体可以将眼底图像输入至预先训练的目标检测模型,输出眼底病灶的位置。其中,目标检测模型可以例如是Faster RCNN(Regions with CNN features,区域卷积神经网络)。基于深度学习技术,采用目标检测模型获取眼底病灶的位置,提高了眼底病灶的位置的定位准确度。
在本实施例的一些可选的实现方式中,上述执行主体可以将眼底图像输入至预先训练的深度学习分割模型,输出眼底图像的黄斑中心凹区域;计算黄斑中心凹区域的重心点位置,作为黄斑中心凹的位置(fovea_location)。基于深度学习技术,采用深度学习分割模型分割黄斑中心凹区域,提高了黄斑中心凹区域的分割准确度。其中,深度学习分割模型可以是Unet框架。Unet框架包括两部分,第一部分为特征提取结构,可采用Resnet、VGG等网络的特征提取层设计,其优点是可以利用预训练的成熟模型来加速Unet的训练。第二部分为上采样部分,这里采用反卷积处理。由于网络结构像U型,所以叫Unet框架。
在本实施例的一些可选的实现方式中,上述执行主体可以将眼底图像输入至预先训练的第一深度学习分类模型,输出视网膜的病变等级。其中,第一深度学习分类模型可以用于获取视网膜的病变等级,采用包括但不限于EfficientNet、ResNet等的深度学习分类网络。通常,第一深度学习分类模型可以包括第一卷积神经网络和第一全连接层。此时,上述执行主体可以首先将眼底图像输入至第一卷积神经网络,提取眼底图像的高层次特征;然后将高层次特征输入至第一全连接层,输出视网膜的病变等级。基于深度学习技术,采用深度学习分类模型进行视网膜病变分级,提高了视网膜病变分级准确度。
以糖尿病视网膜病变为例,训练第一深度学习分类模型的步骤如下:
首先,对眼底图像数据进行DR不同等级(标注5个等级:0-无DR、1-轻度非增殖期DR、2-重度非增殖期DR、3-重度非增殖期DR和4-增殖期DR)的分类标注,创建分类模型需要的训练数据集和测试数据集。
然后,将训练数据集输入深度学习的卷积神经网络中,网络对眼底图像信息进行高层次特征提取,特征信息输入到全连接层,特征通过全连接层后,经过softmax损失函数对模型进行训练优化。
模型训练结束后,给定输入眼底图像,则该模型能够输出该眼底图像的每个DR等级的概率值,最终取概率值最大的DR等级作为最终的DR等级(dr_grade)。
在本实施例的一些可选的实现方式中,上述执行主体可以将眼底图像输入至预先训练的第二深度学习分类模型,输出黄斑区的病变概率值。其中,第二深度学习分类模型可以用于获取黄斑区的病变概率值,采用包括但不限于EfficientNet、ResNet等的深度学习分类网络。通常,第一深度学习分类模型可以包括第二卷积神经网络和第二全连接层。此时,上述执行主体可以首先将眼底图像输入至第二卷积神经网络,提取眼底图像的高层次特征;然后将高层次特征输入至第二全连接层,输出黄斑区的病变概率值。基于深度学习技术,采用深度学习分类模型进行黄斑区病变分类,提高了黄斑区病变分类准确度。
以糖尿病性黄斑水肿为例,训练第二深度学习分类模型的步骤如下:
首先,对眼底图像数据进行DME不同类别(标注2个类别:0-无DME、1-DME)的分类标注,创建分类模型需要的训练数据集和测试数据集。
然后,将训练数据集输入深度学习的卷积神经网络中,网络对眼底图像信息进行高层次特征提取,特征信息输入到全连接层,特征通过全连接层后,经过sigmoid损失函数对模型进行训练优化。
模型训练结束后,给定输入眼底图像,则该模型能够输出该眼底图像为DME疾病的概率值(is_dme_prob)。
步骤102,基于眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性。
在本实施例中,上述执行主体可以基于眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性。其中,眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值分别属于不同的特征。对于每个特征,可以与黄斑区病变类型建立直接的关系。
步骤103,基于每个特征与黄斑区病变类型的相关性进行特征筛选。
在本实施例中,上述执行主体可以基于每个特征与黄斑区病变类型的相关性进行特征筛选。通常,会筛选相关性高的特征。例如,上述执行主体可以首先基于每个特征与黄斑区病变类型的相关性进行特征排序;然后从排序后的特征中筛选出相关性大于预设阈值(例如0.05)的特征,从而能够筛选出与黄斑区病变类型的相关性较强的特征。
步骤104,将筛选出的特征输入至黄斑区分类决策树,得到黄斑区的类别。
在本实施例中,上述执行主体可以将筛选出的特征输入至黄斑区分类决策树,得到黄斑区的类别。其中,黄斑区分类决策树是一种用于分类的经典机器学习模型,易于理解且可解释性强。黄斑区分类决策树将筛选出的特征作为输入,输出黄斑区是否为DME疾病的分类结果(is_dme_final为0或1)。
本申请提供的眼底图像识别方法,首先获取眼底图像中的眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值;之后基于眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性;然后基于每个特征与黄斑区病变类型的相关性进行特征筛选;最后将筛选出的特征输入至黄斑区分类决策树,得到黄斑区的类别。利用计算机辅助眼底图像识别,大大降低了人力成本。不仅利用黄斑中心凹的位置、视网膜的病变等级等特征,还结合黄斑区的病变概率值,更进一步地考虑到黄斑区病变与能够从眼底图像获得的重要特征存在相关性,对这些特征进行了数据驱动的相关性数据挖掘,能够更好地为黄斑区分类提供更丰富的可参考信息。这些挖掘到的与黄斑区病变相关的特征,采用搭建黄斑区分类决策树的方式,将这些特征以一种可解释、易理解的方式生成黄斑区的类别,使得分类结果易于理解且可解释性强。
进一步地,若结合深度学习技术,还能够提供一种基于深度学习与决策树的黄斑区分类技术,兼顾了准确性和可解释性,使得识别结果准确度高且可解释强。不仅在算法精度上优于单纯使用深度学习模型和单纯使用决策树的方法,更重要的是还能够提供对分类结果的解释。一方面,与单纯利用人工设计的眼底图像特征结合传统分类器的方法相比,利用深度学习进行特征提取,准确度更高,深度学习较传统的特征提取及分类器鲁棒性更佳。另一方面,与利用传统图像处理的方式获取黄斑中心凹及硬渗信息的方法比,利用深度学习获取黄斑中心凹的位置及硬渗的位置等特征,同样具有更高的算法精度。
继续参考图4,其示出了眼底病灶位置获取方法的一个实施例的流程400。该眼底病灶位置获取方法包括以下步骤:
步骤401,将眼底图像输入至卷积神经网络,以及前向传播至共享卷积层,得到特征图。
在本实施例中,眼底病灶位置获取方法的执行主体可以将眼底图像输入至CNN(Recurrent Neural Network,卷积神经网络),以及前向传播至共享卷积层,得到特征图。
通常,眼底图像经过CNN,前向传播至共享卷积层。一方面得到特征图,继续执行步骤402;一方面继续前向传播,继续执行步骤403。其中,卷积神经网络可以例如是VGG(Visual Graphics Generator,目视图像生成器)-16,支持任意大小的眼底图像的输入。
步骤402,将特征图输入至区域建议网络,得到区域建议和区域得分,以及对区域得分进行非极大值抑制,选取区域得分排在前预设位的区域建议。
在本实施例中,上述执行主体可以将步骤401得到的特征图输入至RPN(RegionProposal Network,区域建议网络),特征图经过RPN得到区域建议和区域得分。随后,对区域得分进行非极大值抑制,选取区域得分排在前N位的区域建议。其中,非极大值抑制采用的阈值可以例如是0.5,输出Top-N得分的区域建议,N为正整数,例如是100。
步骤403,将特征图继续前向传播至特有卷积层,得到高维特征图。
在本实施例中,上述执行主体可以将步骤401得到的特征图继续前向传播至特有卷积层,得到高维特征图。
步骤404,将所选取的区域建议和高维特征图输入至感兴趣区域池化层,提取所选取的区域建议的特征。
在本实施例中,上述执行主体可以将步骤402所选取的区域建议和步骤403得到的高维特征图输入至ROI池化层,提取所选取的区域建议的特征。
步骤405,将所选取的区域建议的特征输入至全连接层,输出所选取的区域建议的分类得分和回归后的边框,作为眼底病灶的位置。
在本实施例中,上述执行主体可以将步骤404得到的所选取的区域建议的特征输入至全连接层,输出所选取的区域建议的分类得分和回归后的边框。
为了便于理解,图5示出了图4中的眼底病灶位置获取方法的网络结构图。如图5所示,眼底病灶位置获取方法的网络结构包括Faster RCNN网络结构和RPN网络结构。在Faster RCNN网络结构中,对于任意尺寸的眼底图像501,前向传播至共享卷积层502。一方面得到供RPN输入的特征图503;另一方面继续前向传播至特有卷积层504,得到高维特征图505。在RPN网络结构中,特征图503通过滑窗506后,依次经过卷积层/全连接层507和卷积层/全连接层508,得到区域建议509和区域得分510。在Faster RCNN网络结构中,将高维特征图505和区域建议509输入至ROI池化层511,再经过全连接层512,输出分类得分513和边框回归514。
本申请实施例提供的眼底病灶位置获取方法,基于边框的目标弱监督分割算法,能够克服眼底病灶形状差异大、边界模糊难以分割的问题。与无监督的传统分割方法不同,增加了边框的弱监督信息,尽可能低成本、高效地排除眼底病灶区域周围的干扰信息,提高算法的精度。
继续参考图6,其示出了黄斑中心凹位置获取方法的一个实施例的流程600。该黄斑中心凹位置获取方法中的深度学习分割模型可以包括特征提取卷积层、上采样反卷积层、共享卷积层和像素分类卷积层。该黄斑中心凹位置获取方法包括以下步骤:
步骤601,将眼底图像输入至特征提取网络。
在本实施例中,黄斑中心凹位置获取方法的执行主体可以将眼底图像输入至特征提取卷积层。其中,特征提取层可以用于提取眼底图像的特征图,支持任意大小的眼底图像的输入。
步骤602,将特征提取网络的输出前向传播至上采样反卷积层和共享卷积层。
在本实施例中,上述执行主体可以将特征提取卷积层的输出前向传播至上采样反卷积层和共享卷积层。其中,共享卷积层可以用于产生更高维的特征图。上采样反卷积层可以用于将特征图上采样至与眼底图像的尺寸相同。
步骤603,将共享卷积层的输出融合进上采样反卷积层。
在本实施例中,上述执行主体可以将共享卷积层的输出融合进上采样反卷积层。这样,上采样反卷积层的输出信息更加丰富,并且能够保留眼底图像中的重要信息。
步骤604,将上采样反卷积层的输出输入至像素分类卷积层,输出眼底图像的像素分类得分图。
在本实施例中,上述执行主体可以将上采样反卷积层的输出输入至像素分类卷积层,输出眼底图像的像素分类得分图。其中,像素分类卷积层可以用于对每个像素进行分类。经过像素分类卷积层,能够输出每个像素点属于黄斑中心凹的分数。像素分类得分图中的得分表征对应的像素点属于黄斑中心凹的分数。
步骤605,对像素分类得分图进行阈值化分割,得到黄斑中心凹区域。
在本实施例中,上述执行主体可以对像素分类得分图进行阈值化分割,得到黄斑中心凹区域。通常,可以预先设定阈值(例如0.5)。将像素分类得分图中不小于阈值的像素点的像素值设置为1,将小于阈值的像素点的像素值设置为0,即可得到黄斑中心凹区域的二值化掩膜(Segmented_fovea_mask)。利用黄斑中心凹区域的二值化掩膜对眼底图像进行分割,即可得到黄斑中心凹区域。
通常,训练深度学习分割模型的优化损失函数可以包括以下至少一项:二元加权交叉熵损失函数、分割损失函数(如Dice损失函数)等。在一些实施例中,采用二元加权交叉熵损失函数联合分割损失函数训练深度学习分割模型。两种优化损失函数联合,能够提升训练出的深度学习分割模型的精度。
步骤606,计算黄斑中心凹区域的重心点位置,作为黄斑中心凹的位置。
在本实施例中,上述执行主体可以计算黄斑中心凹区域的重心点位置,即可得到黄斑中心凹的位置。
本申请实施例提供的黄斑中心凹位置获取方法,利用Unet框架的深度学习分割模型,融合共享卷积层产生更高维的特征图进行黄斑中心凹分割,使得进行黄斑中心凹分割的信息内容更加丰富,并且保留眼底图像中的重要信息,从而提升了分割出的黄斑中心凹的准确度。
继续参考图7,其示出了特征与黄斑区病变类型的相关性建立方法的一个实施例的流程700。该特征与黄斑区病变类型的相关性建立方法包括以下步骤:
步骤701,利用眼底病灶的位置和黄斑中心凹的位置,得到以黄斑中心凹为圆心的不同半径范围内的眼底病灶数量。
在本实施例中,特征与黄斑区病变类型的相关性建立方法的执行主体可以利用眼底病灶的位置和黄斑中心凹的位置,得到以黄斑中心凹为圆心的不同半径范围内的眼底病灶数量。
以眼底图像中存在硬渗为例,利用硬渗的位置(HE_location)和黄斑中心凹的位置(fovea_location),可以得到以黄斑中心凹为圆心的不同半径范围内的硬渗数量。例如,分别统计1PD半径范围内的硬渗数量(num_1pd_HE)、1.5PD半径范围内的硬渗数量(num_1.5pd_HE)和2PD半径范围内的硬渗数量(num_2pd_HE)。类似地,以眼底图像中存在出血为例,可以得到以黄斑中心凹为圆心的不同半径范围内的出血数量。例如,分别统计1PD半径范围内的出血数量(num_1pd_HA)、1.5PD半径范围内的出血数量(num_1.5pd_HA)和2PD半径范围内的出血数量(num_2pd_HA)。
步骤702,确定黄斑区域是否在眼底图像的范围内,作为黄斑区域是否存在的信息。
在本实施例中,上述执行主体可以确定黄斑区域是否在眼底图像的范围内,作为黄斑区域是否存在的信息(is_macular_detected)。
在一个具体的实施例中,黄斑区域可以在以黄斑中心凹为中心的两个视盘直径范围内。若大于50%的黄斑区域的面积在眼底图像的范围内,则认为黄斑区域被检测到,存在黄斑区域。若仅小于50%的黄斑区域的面积在眼底图像的范围内,则认为黄斑区域未被检测到,不存在黄斑区域。
步骤703,对眼底病灶数量、黄斑区域是否存在的信息、黄斑区的病变概率值、视网膜的病变等级、黄斑中心凹的位置和眼底病灶的位置进行皮尔逊相关系数计算,统计每个特征与黄斑区病变类型的相关性。
在本实施例中,上述执行主体可以对眼底病灶数量、黄斑区域是否存在的信息、黄斑区的病变概率值、视网膜的病变等级、黄斑中心凹的位置和眼底病灶的位置进行皮尔逊(pearson)相关系数计算,统计每个特征与黄斑区病变类型的相关性。
其中,眼底病灶数量、黄斑区域是否存在的信息、黄斑区的病变概率值、视网膜的病变等级、黄斑中心凹的位置和眼底病灶的位置分别属于不同的特征。对于每个特征,可以进行皮尔逊相关系数计算。例如,对于num_1pd_HE、num_1.5pd_HE、num_2pd_HE、num_1pd_HA、num_1.5pd_HA、num_2pd_HA、is_macular_detected、is_dme_prob、dr_grade、fovea_location、HE_location、HA_location和MA_location等特征进行皮尔逊相关系数计算,挑选相关性大于0.05的特征,按照相关性排序为:is_dme_prob、num_2pd_HE、dr_grade和is_macular_detected。
本申请实施例提供的特征与黄斑区病变类型的相关性建立方法,除黄斑区的病变概率值、视网膜的病变等级、黄斑中心凹的位置和眼底病灶的位置之外,还将以黄斑中心凹为圆心的不同半径范围内的眼底病灶数量和黄斑区域是否存在的信息作为特征,使得特征更加丰富。并且,每个特征都进行皮尔逊相关系数计算,能够建立每个特征与黄斑区病变之间更直接的关系。
继续参考图8,其示出了黄斑区分类决策数训练方法的一个实施例的流程800。该黄斑区分类决策数训练方法包括以下步骤:
步骤801,获取标注训练数据。
在本实施例中,黄斑区分类决策数训练方法的执行主体可以获取标注训练数据。
通常,为了训练出黄斑区分类决策树,可以获取大量样本眼底图像。对于每幅样本眼底图像,可以执行图1所示的眼底图像识别方法中的步骤101-103,得到样本特征。对样本特征标注黄斑区的类别,即可得到标注训练数据。例如,对于is_dme_prob,num_2pd_HE,dr_grade,is_macular_detected等特征,进行DME不同类别(标注2个类别:0-无DME、1-DME)的分类标注,创建训练数据集。
步骤802,计算标注训练数据的每个特征的熵。
在本实施例中,上述执行主体可以计算标注训练数据的每个特征的熵。
步骤803,计算标注训练数据的熵与每个特征的熵的差值,作为每个特征的信息增益。
在本实施例中,上述执行主体可以计算标注训练数据的熵与每个特征的熵的差值,作为每个特征的信息增益。即,特征的信息增益=标注训练数据的熵-特征的熵。
步骤804,选取信息增益最大的特征作为当前节点。
在本实施例中,上述执行主体可以选取信息增益最大的特征作为当前节点。其中,信息增益越大,对应的特征越优。信息增益最大的特征最优。
步骤805,排除当前节点,递归的计算每个特征的信息增益和选取当前节点,直至满足停止条件,生成黄斑区分类决策树。
在本实施例中,上述执行主体可以排除当前节点,递归的调用步骤802-804,来计算每个特征的信息增益和选取当前节点,直至满足停止条件,即可生成黄斑区分类决策树。
其中,停止条件可以是根据需求预先设置的各种条件。在一些实施例中,停止条件可以包括但不限于以下至少一项:当前节点下目标变量唯一、所有特征循环完毕等等。在一个具体的实施例中,满足当前节点下目标变量唯一与所有特征循环完毕中的任一项,即可生成黄斑区分类决策树。
本申请实施例提供的黄斑区分类决策数训练方法,对于标注训练数据,选取信息增益最大的特征作为当前节点,排除当前节点,递归的计算每个特征的信息增益和选取当前节点,直至满足停止条件,即可生成黄斑区分类决策树,从而能够生成具备可解释性的模型。
进一步参考图9,作为对上述各图所示方法的实现,本申请提供了一种眼底图像识别装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图9所示,本实施例的眼底图像识别装置900可以包括:获取模块901、建立模块902、筛选模块903和分类模块904。其中,获取模块901,被配置成获取眼底图像中的眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值;建立模块902,被配置成基于眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性;分类模块903,被配置成基于每个特征与黄斑区病变类型的相关性和预先训练出的黄斑区分类决策树,得到黄斑区的类别。
在本实施例中,眼底图像识别装置900中:获取模块901、建立模块902和分类模块903的具体处理及其所带来的技术效果可分别参考图1对应实施例中的步骤101-103的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,获取模块901包括第一获取子模块,第一获取子模块,被配置成:将眼底图像输入至预先训练的目标检测模型,输出眼底病灶的位置。
在本实施例的一些可选的实现方式中,第一获取子模块进一步被配置成:将眼底图像输入至卷积神经网络,以及前向传播至共享卷积层,得到特征图;将特征图输入至区域建议网络,得到区域建议和区域得分,以及对区域得分进行非极大值抑制,选取区域得分排在前预设位的区域建议;将特征图继续前向传播至特有卷积层,得到高维特征图;将所选取的区域建议和高维特征图输入至感兴趣区域池化层,提取所选取的区域建议的特征;将所选取的区域建议的特征输入至全连接层,输出所选取的区域建议的分类得分和回归后的边框,作为眼底病灶的位置。
在本实施例的一些可选的实现方式中,获取模块901包括第二获取子模块,第二获取子模块包括:分割单元,被配置成将眼底图像输入至预先训练的深度学习分割模型,输出眼底图像的黄斑中心凹区域;计算单元,被配置成计算黄斑中心凹区域的重心点位置,作为黄斑中心凹的位置。
在本实施例的一些可选的实现方式中,分割单元进一步被配置成:将眼底图像输入至特征提取网络;将特征提取网络的输出前向传播至上采样反卷积层和共享卷积层;将共享卷积层的输出融合进上采样反卷积层;将上采样反卷积层的输出输入至像素分类卷积层,输出眼底图像的像素分类得分图,其中,像素分类得分图中的得分表征对应的像素点属于黄斑中心凹的分数;对像素分类得分图进行阈值化分割,得到黄斑中心凹区域。
在本实施例的一些可选的实现方式中,获取模块901包括第三获取子模块,第三获取子模块,被配置成:将眼底图像输入至预先训练的第一深度学习分类模型,输出视网膜的病变等级。
在本实施例的一些可选的实现方式中,第三获取子模块进一步被配置成:将眼底图像输入至第一卷积神经网络,提取眼底图像的高层次特征;将高层次特征输入至第一全连接层,输出视网膜的病变等级。
在本实施例的一些可选的实现方式中,获取模块901包括第四获取子模块,第四获取子模块,被配置成:将眼底图像输入至预先训练的第二深度学习分类模型,输出黄斑区的病变概率值。
在本实施例的一些可选的实现方式中,第四获取子模块进一步被配置成:将眼底图像输入至第二卷积神经网络,提取眼底图像的高层次特征;将高层次特征输入至第二全连接层,输出黄斑区的病变概率值。
在本实施例的一些可选的实现方式中,建立模块902进一步被配置成:利用眼底病灶的位置和黄斑中心凹的位置,得到以黄斑中心凹为圆心的不同半径范围内的眼底病灶数量;确定黄斑区域是否在眼底图像的范围内,作为黄斑区域是否存在的信息,其中,黄斑区域在以黄斑中心凹为中心的两个视盘直径范围内;对眼底病灶数量、黄斑区域是否存在的信息、黄斑区的病变概率值、视网膜的病变等级、黄斑中心凹的位置和眼底病灶的位置进行皮尔逊相关系数计算,统计每个特征与黄斑区病变类型的相关性。
在本实施例的一些可选的实现方式中,分类模块903包括:筛选子模块,被配置成基于每个特征与黄斑区病变类型的相关性进行特征筛选;分类子模块,被配置成将筛选出的特征输入至黄斑区分类决策树,得到黄斑区的类别。
在本实施例的一些可选的实现方式中,筛选子模块进一步被配置成:基于每个特征与黄斑区病变类型的相关性进行特征排序;从排序后的特征中筛选出相关性大于预设阈值的特征。
在本实施例的一些可选的实现方式中,黄斑区分类决策树通过如下步骤训练:获取标注训练数据,其中,标注训练数据标注有黄斑区的类别;计算标注训练数据的每个特征的熵;计算标注训练数据的熵与每个特征的熵的差值,作为每个特征的信息增益;选取信息增益最大的特征作为当前节点;排除当前节点,递归的计算每个特征的信息增益和选取当前节点,直至满足停止条件,生成黄斑区分类决策树。
在本实施例的一些可选的实现方式中,停止条件包括以下至少一项:当前节点下目标变量唯一、所有特征循环完毕。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示出了可以用来实施本申请的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如眼底图像识别方法。例如,在一些实施例中,眼底图像识别方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的眼底图像识别方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行眼底图像识别方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (29)
1.一种眼底图像识别方法,包括:
获取眼底图像中的眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值;
基于所述眼底病灶的位置、所述黄斑中心凹的位置、所述视网膜的病变等级和所述黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性;
基于每个特征与黄斑区病变类型的相关性进行特征筛选;
将筛选出的特征输入至预先训练出的黄斑区分类决策树,得到所述黄斑区的类别。
2.根据权利要求1所述的方法,其中,所述获取眼底图像中的眼底病灶的位置,包括:
将所述眼底图像输入至预先训练的目标检测模型,输出所述眼底病灶的位置。
3.根据权利要求2所述的方法,其中,所述将所述眼底图像输入至预先训练的目标检测模型,输出所述眼底病灶的位置,包括:
将所述眼底图像输入至卷积神经网络,以及前向传播至共享卷积层,得到特征图;
将所述特征图输入至区域建议网络,得到区域建议和区域得分,以及对所述区域得分进行非极大值抑制,选取区域得分排在前预设位的区域建议;
将所述特征图继续前向传播至特有卷积层,得到高维特征图;
将所选取的区域建议和所述高维特征图输入至感兴趣区域池化层,提取所选取的区域建议的特征;
将所选取的区域建议的特征输入至全连接层,输出所选取的区域建议的分类得分和回归后的边框,作为所述眼底病灶的位置。
4.根据权利要求1所述的方法,其中,所述获取眼底图像中的黄斑中心凹的位置,包括:
将所述眼底图像输入至预先训练的深度学习分割模型,输出所述眼底图像的黄斑中心凹区域;
计算所述黄斑中心凹区域的重心点位置,作为所述黄斑中心凹的位置。
5.根据权利要求4所述的方法,其中,所述将所述眼底图像输入至预先训练的深度学习分割模型,输出所述眼底图像的黄斑中心凹区域,包括:
将所述眼底图像输入至特征提取网络;
将所述特征提取网络的输出前向传播至上采样反卷积层和共享卷积层;
将所述共享卷积层的输出融合进所述上采样反卷积层;
将所述上采样反卷积层的输出输入至像素分类卷积层,输出所述眼底图像的像素分类得分图,其中,所述像素分类得分图中的得分表征对应的像素点属于黄斑中心凹的分数;
对所述像素分类得分图进行阈值化分割,得到所述黄斑中心凹区域。
6.根据权利要求1所述的方法,其中,所述获取眼底图像中的视网膜的病变等级,包括:
将所述眼底图像输入至预先训练的第一深度学习分类模型,输出所述视网膜的病变等级。
7.根据权利要求6所述的方法,其中,所述将所述眼底图像输入至预先训练的第一深度学习分类模型,输出所述视网膜的病变等级,包括:
将所述眼底图像输入至第一卷积神经网络,提取所述眼底图像的高层次特征;
将所述高层次特征输入至第一全连接层,输出所述视网膜的病变等级。
8.根据权利要求1所述的方法,其中,所述获取眼底图像中的黄斑区的病变概率值,包括:
将所述眼底图像输入至预先训练的第二深度学习分类模型,输出所述黄斑区的病变概率值。
9.根据权利要求8所述的方法,其中,所述将所述眼底图像输入至预先训练的第二深度学习分类模型,输出所述黄斑区的病变概率值,包括:
将所述眼底图像输入至第二卷积神经网络,提取所述眼底图像的高层次特征;
将所述高层次特征输入至第二全连接层,输出所述黄斑区的病变概率值。
10.根据权利要求1所述的方法,其中,所述基于所述眼底病灶的位置、所述黄斑中心凹的位置、所述视网膜的病变等级和所述黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性,包括:
利用所述眼底病灶的位置和所述黄斑中心凹的位置,得到以所述黄斑中心凹为圆心的不同半径范围内的眼底病灶数量;
确定黄斑区域是否在所述眼底图像的范围内,作为所述黄斑区域是否存在的信息,其中,所述黄斑区域在以所述黄斑中心凹为中心的两个视盘直径范围内;
对所述眼底病灶数量、所述黄斑区域是否存在的信息、所述黄斑区的病变概率值、所述视网膜的病变等级、所述黄斑中心凹的位置和所述眼底病灶的位置进行皮尔逊相关系数计算,统计每个特征与黄斑区病变类型的相关性。
11.根据权利要求1所述的方法,其中,所述基于每个特征与黄斑区病变类型的相关性进行特征筛选,包括:
基于每个特征与黄斑区病变类型的相关性进行特征排序;
从排序后的特征中筛选出相关性大于预设阈值的特征。
12.根据权利要求1所述的方法,其中,所述黄斑区分类决策树通过如下步骤训练:
获取标注训练数据,其中,所述标注训练数据标注有黄斑区的类别;
计算所述标注训练数据的每个特征的熵;
计算所述标注训练数据的熵与每个特征的熵的差值,作为每个特征的信息增益;
选取信息增益最大的特征作为当前节点;
排除当前节点,递归的计算每个特征的信息增益和选取当前节点,直至满足停止条件,生成所述黄斑区分类决策树。
13.根据权利要求12所述的方法,其中,所述停止条件包括以下至少一项:当前节点下目标变量唯一、所有特征循环完毕。
14.一种眼底图像识别装置,包括:
获取模块,被配置成获取眼底图像中的眼底病灶的位置、黄斑中心凹的位置、视网膜的病变等级和黄斑区的病变概率值;
建立模块,被配置成基于所述眼底病灶的位置、所述黄斑中心凹的位置、所述视网膜的病变等级和所述黄斑区的病变概率值,建立每个特征与黄斑区病变类型的相关性;
筛选模块,被配置成基于每个特征与黄斑区病变类型的相关性进行特征筛选;
分类模块,被配置成将筛选出的特征输入至预先训练出的黄斑区分类决策树,得到所述黄斑区的类别。
15.根据权利要求14所述的装置,其中,所述获取模块包括第一获取子模块,所述第一获取子模块,被配置成:
将所述眼底图像输入至预先训练的目标检测模型,输出所述眼底病灶的位置。
16.根据权利要求15所述的装置,其中,所述第一获取子模块进一步被配置成:
将所述眼底图像输入至卷积神经网络,以及前向传播至共享卷积层,得到特征图;
将所述特征图输入至区域建议网络,得到区域建议和区域得分,以及对所述区域得分进行非极大值抑制,选取区域得分排在前预设位的区域建议;
将所述特征图继续前向传播至特有卷积层,得到高维特征图;
将所选取的区域建议和所述高维特征图输入至感兴趣区域池化层,提取所选取的区域建议的特征;
将所选取的区域建议的特征输入至全连接层,输出所选取的区域建议的分类得分和回归后的边框,作为所述眼底病灶的位置。
17.根据权利要求14所述的装置,其中,所述获取模块包括第二获取子模块,所述第二获取子模块包括:
分割单元,被配置成将所述眼底图像输入至预先训练的深度学习分割模型,输出所述眼底图像的黄斑中心凹区域;
计算单元,被配置成计算所述黄斑中心凹区域的重心点位置,作为所述黄斑中心凹的位置。
18.根据权利要求17所述的装置,其中,所述分割单元进一步被配置成:
将所述眼底图像输入至特征提取网络;
将所述特征提取网络的输出前向传播至上采样反卷积层和共享卷积层;
将所述共享卷积层的输出融合进所述上采样反卷积层;
将所述上采样反卷积层的输出输入至像素分类卷积层,输出所述眼底图像的像素分类得分图,其中,所述像素分类得分图中的得分表征对应的像素点属于黄斑中心凹的分数;
对所述像素分类得分图进行阈值化分割,得到所述黄斑中心凹区域。
19.根据权利要求14所述的装置,其中,所述获取模块包括第三获取子模块,所述第三获取子模块,被配置成:
将所述眼底图像输入至预先训练的第一深度学习分类模型,输出所述视网膜的病变等级。
20.根据权利要求19所述的装置,其中,所述第三获取子模块进一步被配置成:
将所述眼底图像输入至第一卷积神经网络,提取所述眼底图像的高层次特征;
将所述高层次特征输入至第一全连接层,输出所述视网膜的病变等级。
21.根据权利要求14所述的装置,其中,所述获取模块包括第四获取子模块,所述第四获取子模块,被配置成:
将所述眼底图像输入至预先训练的第二深度学习分类模型,输出所述黄斑区的病变概率值。
22.根据权利要求21所述的装置,其中,所述第四获取子模块进一步被配置成:
将所述眼底图像输入至第二卷积神经网络,提取所述眼底图像的高层次特征;
将所述高层次特征输入至第二全连接层,输出所述黄斑区的病变概率值。
23.根据权利要求14所述的装置,其中,所述建立模块进一步被配置成:
利用所述眼底病灶的位置和所述黄斑中心凹的位置,得到以所述黄斑中心凹为圆心的不同半径范围内的眼底病灶数量;
确定黄斑区域是否在所述眼底图像的范围内,作为所述黄斑区域是否存在的信息,其中,所述黄斑区域在以所述黄斑中心凹为中心的两个视盘直径范围内;
对所述眼底病灶数量、所述黄斑区域是否存在的信息、所述黄斑区的病变概率值、所述视网膜的病变等级、所述黄斑中心凹的位置和所述眼底病灶的位置进行皮尔逊相关系数计算,统计每个特征与黄斑区病变类型的相关性。
24.根据权利要求14所述的装置,其中,所述筛选模块进一步被配置成:
基于每个特征与黄斑区病变类型的相关性进行特征排序;
从排序后的特征中筛选出相关性大于预设阈值的特征。
25.根据权利要求14所述的装置,其中,所述黄斑区分类决策树通过如下步骤训练:
获取标注训练数据,其中,所述标注训练数据标注有黄斑区的类别;
计算所述标注训练数据的每个特征的熵;
计算所述标注训练数据的熵与每个特征的熵的差值,作为每个特征的信息增益;
选取信息增益最大的特征作为当前节点;
排除当前节点,递归的计算每个特征的信息增益和选取当前节点,直至满足停止条件,生成所述黄斑区分类决策树。
26.根据权利要求25所述的装置,其中,所述停止条件包括以下至少一项:当前节点下目标变量唯一、所有特征循环完毕。
27.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-13中任一项所述的方法。
28.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-13中任一项所述的方法。
29.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-13中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110126001.0A CN112883962B (zh) | 2021-01-29 | 2021-01-29 | 眼底图像识别方法、装置、设备、存储介质以及程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110126001.0A CN112883962B (zh) | 2021-01-29 | 2021-01-29 | 眼底图像识别方法、装置、设备、存储介质以及程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112883962A true CN112883962A (zh) | 2021-06-01 |
CN112883962B CN112883962B (zh) | 2023-07-18 |
Family
ID=76053668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110126001.0A Active CN112883962B (zh) | 2021-01-29 | 2021-01-29 | 眼底图像识别方法、装置、设备、存储介质以及程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112883962B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344894A (zh) * | 2021-06-23 | 2021-09-03 | 依未科技(北京)有限公司 | 眼底豹纹斑特征提取及特征指数确定的方法和装置 |
CN113807236A (zh) * | 2021-09-15 | 2021-12-17 | 北京百度网讯科技有限公司 | 车道线检测的方法、装置、设备、存储介质及程序产品 |
CN113989215A (zh) * | 2021-10-25 | 2022-01-28 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备和存储介质 |
CN114155306A (zh) * | 2021-08-27 | 2022-03-08 | 北京工业大学 | 一种计算机视觉和深度学习的眼底疾病可视化分析方法 |
CN114494734A (zh) * | 2022-01-21 | 2022-05-13 | 平安科技(深圳)有限公司 | 基于眼底图像的病变检测方法、装置、设备及存储介质 |
CN115588100A (zh) * | 2022-12-09 | 2023-01-10 | 温州谱希基因科技有限公司 | 基于深度学习的豹纹斑自动分级方法、系统及设备 |
CN115953637A (zh) * | 2023-03-13 | 2023-04-11 | 杭州目乐医疗科技股份有限公司 | 眼底亮病灶区域识别装置 |
WO2023143628A1 (zh) * | 2022-01-26 | 2023-08-03 | 南通大学 | 基于遗传模糊树的视网膜糖尿病变深度网络检测方法 |
CN117877692A (zh) * | 2024-01-02 | 2024-04-12 | 珠海全一科技有限公司 | 一种视网膜病变个性化差异分析方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014074178A1 (en) * | 2012-11-08 | 2014-05-15 | The Johns Hopkins University | System and method for detecting and classifying severity of retinal disease |
CN105868298A (zh) * | 2016-03-23 | 2016-08-17 | 华南理工大学 | 一种基于二叉决策树的手机游戏推荐方法 |
CN105931224A (zh) * | 2016-04-14 | 2016-09-07 | 浙江大学 | 基于随机森林算法的肝脏平扫ct图像病变识别方法 |
WO2017031099A1 (en) * | 2015-08-20 | 2017-02-23 | Ohio University | Devices and methods for classifying diabetic and macular degeneration |
CN107203774A (zh) * | 2016-03-17 | 2017-09-26 | 阿里巴巴集团控股有限公司 | 对数据的归属类别进行预测的方法及装置 |
CN107729929A (zh) * | 2017-09-30 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 用于获取信息的方法及装置 |
CN108185984A (zh) * | 2017-12-28 | 2018-06-22 | 中山大学 | 眼底彩照进行眼底病灶识别的方法 |
CN109300121A (zh) * | 2018-09-13 | 2019-02-01 | 华南理工大学 | 一种心血管疾病诊断模型的构建方法、系统及该诊断模型 |
CN109858562A (zh) * | 2019-02-21 | 2019-06-07 | 腾讯科技(深圳)有限公司 | 一种医学影像的分类方法、装置和存储介质 |
CN109934823A (zh) * | 2019-03-25 | 2019-06-25 | 天津工业大学 | 一种基于深度学习的dr眼底图像黄斑水肿分级方法 |
CN110400289A (zh) * | 2019-06-26 | 2019-11-01 | 平安科技(深圳)有限公司 | 眼底图像识别方法、装置、设备和存储介质 |
CN111046835A (zh) * | 2019-12-24 | 2020-04-21 | 杭州求是创新健康科技有限公司 | 一种基于区域特征集合神经网络的眼底照多病种检测系统 |
US20200234445A1 (en) * | 2018-04-13 | 2020-07-23 | Bozhon Precision Industry Technology Co., Ltd. | Method and system for classifying diabetic retina images based on deep learning |
CN111507932A (zh) * | 2019-01-31 | 2020-08-07 | 福州依影健康科技有限公司 | 高特异性的糖尿病性视网膜病变特征检测方法及存储设备 |
-
2021
- 2021-01-29 CN CN202110126001.0A patent/CN112883962B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014074178A1 (en) * | 2012-11-08 | 2014-05-15 | The Johns Hopkins University | System and method for detecting and classifying severity of retinal disease |
WO2017031099A1 (en) * | 2015-08-20 | 2017-02-23 | Ohio University | Devices and methods for classifying diabetic and macular degeneration |
CN107203774A (zh) * | 2016-03-17 | 2017-09-26 | 阿里巴巴集团控股有限公司 | 对数据的归属类别进行预测的方法及装置 |
CN105868298A (zh) * | 2016-03-23 | 2016-08-17 | 华南理工大学 | 一种基于二叉决策树的手机游戏推荐方法 |
CN105931224A (zh) * | 2016-04-14 | 2016-09-07 | 浙江大学 | 基于随机森林算法的肝脏平扫ct图像病变识别方法 |
CN107729929A (zh) * | 2017-09-30 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 用于获取信息的方法及装置 |
CN108185984A (zh) * | 2017-12-28 | 2018-06-22 | 中山大学 | 眼底彩照进行眼底病灶识别的方法 |
US20200234445A1 (en) * | 2018-04-13 | 2020-07-23 | Bozhon Precision Industry Technology Co., Ltd. | Method and system for classifying diabetic retina images based on deep learning |
CN109300121A (zh) * | 2018-09-13 | 2019-02-01 | 华南理工大学 | 一种心血管疾病诊断模型的构建方法、系统及该诊断模型 |
CN111507932A (zh) * | 2019-01-31 | 2020-08-07 | 福州依影健康科技有限公司 | 高特异性的糖尿病性视网膜病变特征检测方法及存储设备 |
CN109858562A (zh) * | 2019-02-21 | 2019-06-07 | 腾讯科技(深圳)有限公司 | 一种医学影像的分类方法、装置和存储介质 |
CN109934823A (zh) * | 2019-03-25 | 2019-06-25 | 天津工业大学 | 一种基于深度学习的dr眼底图像黄斑水肿分级方法 |
CN110400289A (zh) * | 2019-06-26 | 2019-11-01 | 平安科技(深圳)有限公司 | 眼底图像识别方法、装置、设备和存储介质 |
CN111046835A (zh) * | 2019-12-24 | 2020-04-21 | 杭州求是创新健康科技有限公司 | 一种基于区域特征集合神经网络的眼底照多病种检测系统 |
Non-Patent Citations (4)
Title |
---|
YEHUI YANG ET AL: "Robust Collaborative Learning of Patch-level and Image-level Annotations for Diabetic Retinopathy Grading from Fundus Image", 《ARXIV》 * |
曹新容;林嘉雯;薛岚燕;余轮;: "基于形态特征和k均值聚类的黄斑检测与定位", 中国生物医学工程学报, no. 06 * |
梁平;熊彪;冯娟娟;廖瑞端;汪天富;刘维湘;: "糖尿病视网膜病变眼底图像分类方法", 深圳大学学报(理工版), no. 03 * |
龙邹荣;魏彪;刘平;冯鹏;柯鑫;米德伶;: "基于决策树的眼底图像渗出自动检测方法", 重庆大学学报, no. 07 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344894A (zh) * | 2021-06-23 | 2021-09-03 | 依未科技(北京)有限公司 | 眼底豹纹斑特征提取及特征指数确定的方法和装置 |
CN113344894B (zh) * | 2021-06-23 | 2024-05-14 | 依未科技(北京)有限公司 | 眼底豹纹斑特征提取及特征指数确定的方法和装置 |
CN114155306A (zh) * | 2021-08-27 | 2022-03-08 | 北京工业大学 | 一种计算机视觉和深度学习的眼底疾病可视化分析方法 |
CN113807236A (zh) * | 2021-09-15 | 2021-12-17 | 北京百度网讯科技有限公司 | 车道线检测的方法、装置、设备、存储介质及程序产品 |
CN113807236B (zh) * | 2021-09-15 | 2024-05-17 | 北京百度网讯科技有限公司 | 车道线检测的方法、装置、设备、存储介质及程序产品 |
CN113989215A (zh) * | 2021-10-25 | 2022-01-28 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备和存储介质 |
CN113989215B (zh) * | 2021-10-25 | 2022-12-06 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备和存储介质 |
CN114494734A (zh) * | 2022-01-21 | 2022-05-13 | 平安科技(深圳)有限公司 | 基于眼底图像的病变检测方法、装置、设备及存储介质 |
WO2023143628A1 (zh) * | 2022-01-26 | 2023-08-03 | 南通大学 | 基于遗传模糊树的视网膜糖尿病变深度网络检测方法 |
CN115588100A (zh) * | 2022-12-09 | 2023-01-10 | 温州谱希基因科技有限公司 | 基于深度学习的豹纹斑自动分级方法、系统及设备 |
CN115953637A (zh) * | 2023-03-13 | 2023-04-11 | 杭州目乐医疗科技股份有限公司 | 眼底亮病灶区域识别装置 |
CN117877692A (zh) * | 2024-01-02 | 2024-04-12 | 珠海全一科技有限公司 | 一种视网膜病变个性化差异分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112883962B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112883962B (zh) | 眼底图像识别方法、装置、设备、存储介质以及程序产品 | |
Galdran et al. | Uncertainty-aware artery/vein classification on retinal images | |
CN108133476B (zh) | 一种肺结节自动检测方法及系统 | |
Pathan et al. | Automated segmentation and classifcation of retinal features for glaucoma diagnosis | |
CN112132817A (zh) | 一种混合注意力机制的眼底图像视网膜血管分割方法 | |
CN111754481B (zh) | 眼底图像识别方法、装置、设备以及存储介质 | |
Mahapatra et al. | A novel framework for retinal vessel segmentation using optimal improved frangi filter and adaptive weighted spatial FCM | |
CN111161287A (zh) | 基于对称双向级联网络深度学习的视网膜血管分割方法 | |
CN110751636A (zh) | 一种基于改进型编解码网络的眼底图像视网膜动脉硬化检测方法 | |
Yang et al. | Discriminative dictionary learning for retinal vessel segmentation using fusion of multiple features | |
Toğaçar et al. | Use of dominant activations obtained by processing OCT images with the CNNs and slime mold method in retinal disease detection | |
Chen et al. | Retina image vessel segmentation using a hybrid CGLI level set method | |
CN111861999A (zh) | 动静脉交叉压迫征的检测方法、装置、电子设备及可读存储介质 | |
Biswal et al. | Robust retinal optic disc and optic cup segmentation via stationary wavelet transform and maximum vessel pixel sum | |
CN112541924A (zh) | 眼底图像生成方法、装置、设备以及存储介质 | |
Qin et al. | A review of retinal vessel segmentation for fundus image analysis | |
Lin et al. | Blu-gan: Bi-directional convlstm u-net with generative adversarial training for retinal vessel segmentation | |
Yang et al. | Retinal vessel segmentation based on an improved deep forest | |
Mahdi et al. | Glaucoma Diagnosis Based on Retinal Fundus Image: A Review | |
Kumar et al. | A novel glaucoma detection model using Unet++-based segmentation and ResNet with GRU-based optimized deep learning | |
Tuyet et al. | Improving the curvelet saliency and deep convolutional neural networks for diabetic retinopathy classification in fundus images | |
Radha et al. | Retinal vessel segmentation to diagnose diabetic retinopathy using fundus images: A survey | |
Bhuvaneswari et al. | Contrast enhancement of retinal images using green plan masking and whale optimization algorithm | |
Jana et al. | A semi-supervised approach for automatic detection and segmentation of optic disc from retinal fundus image | |
Binh et al. | Improving U-Net architecture and graph cuts optimization to classify arterioles and venules in retina fundus images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |