CN115082414A - 一种基于视觉质量分析的便携式检测方法和装置 - Google Patents

一种基于视觉质量分析的便携式检测方法和装置 Download PDF

Info

Publication number
CN115082414A
CN115082414A CN202210801845.5A CN202210801845A CN115082414A CN 115082414 A CN115082414 A CN 115082414A CN 202210801845 A CN202210801845 A CN 202210801845A CN 115082414 A CN115082414 A CN 115082414A
Authority
CN
China
Prior art keywords
fundus
vector
patient
map
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210801845.5A
Other languages
English (en)
Other versions
CN115082414B (zh
Inventor
邓宏伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN OPHTHALMOLOGY HOSPITAL
Original Assignee
SHENZHEN OPHTHALMOLOGY HOSPITAL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN OPHTHALMOLOGY HOSPITAL filed Critical SHENZHEN OPHTHALMOLOGY HOSPITAL
Priority to CN202210801845.5A priority Critical patent/CN115082414B/zh
Publication of CN115082414A publication Critical patent/CN115082414A/zh
Application granted granted Critical
Publication of CN115082414B publication Critical patent/CN115082414B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供了一种基于视觉质量分析的便携式检测方法和装置,其中,方法包括:通过获取多个黄斑病变患者就诊后的第一眼底图集和眼轴长度,找取第一眼底图中的病变区域和劈裂处,并基于眼轴长度生成第一注意力权重,以及基于相邻两幅图第一向量的位置差生成第二注意力权重,以训练视觉质量判断模型,对当前患者进行视觉质量的检测。本发明的有益效果:实现了利用视网膜劈裂处来检测患者视觉质量,提高了视觉质量的检测时间和质量。

Description

一种基于视觉质量分析的便携式检测方法和装置
技术领域
本发明涉及人工智能领域,特别涉及一种基于视觉质量分析的便携式检测方法和装置。
背景技术
视网膜破裂是眼底病变的常见并发症。高度近视黄斑区视网膜劈裂有两种情况,其一是视网膜的神经上皮层发生层间分离,其二是视网膜的神经上皮层增厚,神经上皮层间有无光学反射暗区,暗区间可有斜行或者垂直的柱状或者桥状的光带与内层、外层神经上皮层相连。严重者可能会出现黄斑裂孔、视网膜脱离。近年来,随着技术的不断提升,高度近视视网膜劈裂的诊出率不断提高,研究人员发现,视网膜劈裂与高度近视其他眼底退行性病变之间存在一些相关性;然而现有技术中并没有相关的技术方案和研究,大多数的研究人员只是将其视为一个病患指标,无法利用其作为视觉质量分析的方式。
发明内容
本发明的主要目的为提供一种基于视觉质量分析的便携式检测方法和装置,旨在解决现有技术中无法利用视网膜破裂来检测患者的视觉质量的问题。
本发明提供了一种基于视觉质量分析的便携式检测方法包括:
获取多个黄斑病变患者就诊后的第一眼底图集,以及所述第一眼底图集中每张第一眼底图对应的眼轴长度;
通过预设的提取方法提取所述第一眼底图集中各张第一眼底图的病变区域,以及视网膜的劈裂处;
获取所述病变区域重心点,并根据所述劈裂处与所述重心点的坐标,获取所述劈裂处与所述重心点的第一向量;其中所述劈裂处的坐标为劈裂处上的视网膜上断点的坐标点;
根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到劈裂处对应的第一向量集合;其中,所述第一向量集合中任意两个第一向量的劈裂处相同;
基于所述各张第一眼底图的眼轴长度设定各个所述第一向量的第一注意力权重,从而得到第一向量集合对应的中间第一向量集合;
计算所述中间第一向量集合中相邻两个第一向量的位置差;
根据所述位置差设置后一个第一向量的第二注意力权重,并将第一张第一眼底图的第二注意力权重设置为常数;
将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型;
获取当前患者的一张或者多张第二眼底图,将所述第二眼底图输入至所述视觉质量判断模型中,得到所述当前患者的视觉质量。
进一步地,所述将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型的步骤,包括:
将各个黄斑病变患者对应的多个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至所述判别网络输入层中,以及根据所述各个第一眼底图的判断结果生成对应所述黄斑病变患者的病变趋势向量,作为所述判别网络的输出;其中,所述病变趋势向量为将各个病变患者的判断结果按照预设的向量转换方法转换成对应的结果数值,并基于各个结果数值进行排列以生成对应的向量;
根据所述训练数据采用有监督学习的方式对所述判别网络进行训练,得到所述视觉质量监督模型。
进一步地,所述根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到各个劈裂处对应的第一向量集合的步骤,包括:
根据所述第一眼底图集判断对应的黄斑病变患者是否出现劈裂处变多的情况;
若是,则根据后出现的劈裂处在对应目标第一眼底图中的位置,为在所述目标第一眼底图之前的第一眼底图进行标记,并将其对应的第一向量设置为单位向量。
进一步地,所述将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型的步骤之后,还包括:
获取测试集;
将所述测试集中的眼底图输入至所述视觉质量判断模型中,得到预测输出;
根据公式
Figure BDA0003738078580000031
计算所述视觉质量判断模型损失值,y为预测输出,
Figure BDA0003738078580000032
为所述测试集中的实际输出;
判断所述视觉质量判断模型损失值是否小于预设的损失值;
若是,则判定所述视觉质量判断模型可以用于患者的视觉质量检测。
进一步地,所述获取多个黄斑病变患者就诊后的第一眼底图集的步骤,包括:
从预设的数据库中获取各个黄斑病变患者的彩色眼底照;
根据预设的识别方式识别所述彩色眼底照中的眼底特征;
按照预设的特征类型将所述眼底特征分为多个类型;
分别获取各个类型的黄斑病变患者的第一眼底图集,以训练不同类型的视觉质量判断模型。
本发明还提供了一种基于视觉质量分析的便携式检测装置,包括:
第一获取模块,用于获取多个黄斑病变患者就诊后的第一眼底图集,以及所述第一眼底图集中每张第一眼底图对应的眼轴长度;
提取模块,用于通过预设的提取方法提取所述第一眼底图集中各张第一眼底图的病变区域,以及视网膜的劈裂处;
第二获取模块,用于获取所述病变区域重心点,并根据所述劈裂处与所述重心点的坐标,获取所述劈裂处与所述重心点的第一向量;其中所述劈裂处的坐标为劈裂处上的视网膜上断点的坐标点;
排序模块,用于根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到劈裂处对应的第一向量集合;其中,所述第一向量集合中任意两个第一向量的劈裂处相同;
设定模块,用于基于所述各张第一眼底图的眼轴长度设定各个所述第一向量的第一注意力权重,从而得到第一向量集合对应的中间第一向量集合;
计算模块,用于计算所述中间第一向量集合中相邻两个第一向量的位置差;
设置模块,用于根据所述位置差设置后一个第一向量的第二注意力权重,并将第一张第一眼底图的第二注意力权重设置为常数;
输入模块,用于将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型;
第三获取模块,用于获取当前患者的一张或者多张第二眼底图,将所述第二眼底图输入至所述视觉质量判断模型中,得到所述当前患者的视觉质量。
进一步地,所述输入模块,包括:
输入子模块,用于将各个黄斑病变患者对应的多个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至所述判别网络输入层中,以及根据所述各个第一眼底图的判断结果生成对应所述黄斑病变患者的病变趋势向量,作为所述判别网络的输出;其中,所述病变趋势向量为将各个病变患者的判断结果按照预设的向量转换方法转换成对应的结果数值,并基于各个结果数值进行排列以生成对应的向量;
训练子模块,用于根据所述训练数据采用有监督学习的方式对所述判别网络进行训练,得到所述视觉质量监督模型。
进一步地,所述排序模块,包括:
判断子模块,用于根据所述第一眼底图集判断对应的黄斑病变患者是否出现劈裂处变多的情况;
标记子模块,用于若出现劈裂处变多的情况,则根据后出现的劈裂处在对应目标第一眼底图中的位置,为在所述目标第一眼底图之前的第一眼底图进行标记,并将其对应的第一向量设置为单位向量。
进一步地,所述基于视觉质量分析的便携式检测装置,还包括:
测试集获取模块,用于获取测试集;
测试集输入模块,用于将所述测试集中的眼底图输入至所述视觉质量判断模型中,得到预测输出;
视觉质量判断模型损失值计算模块,用于根据公式
Figure BDA0003738078580000051
Figure BDA0003738078580000052
计算所述视觉质量判断模型损失值,y为预测输出,
Figure BDA0003738078580000053
为所述测试集中的实际输出;
视觉质量判断模型损失值判断模块,用于判断所述视觉质量判断模型损失值是否小于预设的损失值;
判定模块,用于若小于预设的损失值,则判定所述视觉质量判断模型可以用于患者的视觉质量检测。
进一步地,所述第一获取模块,包括:
彩色眼底照获取子模块,用于从预设的数据库中获取各个黄斑病变患者的彩色眼底照;
识别子模块,用于根据预设的识别方式识别所述彩色眼底照中的眼底特征;
类型分类模块,用于按照预设的特征类型将所述眼底特征分为多个类型;
训练模块,用于分别获取各个类型的黄斑病变患者的第一眼底图集,以训练不同类型的视觉质量判断模型。
本发明还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本发明的有益效果:通过获取多个黄斑病变患者就诊后的第一眼底图集和眼轴长度,找取第一眼底图中的病变区域和劈裂处,,并基于眼轴长度生成第一注意力权重,以及基于相邻两幅图第一向量的位置差生成第二注意力权重,以训练视觉质量判断模型,对当前患者进行视觉质量的检测,从而实现了利用视网膜劈裂处来检测患者视觉质量,提高了视觉质量的检测时间和质量。
附图说明
图1是本发明一实施例的一种基于视觉质量分析的便携式检测方法的流程示意图;
图2是本发明一实施例的一种基于视觉质量分析的便携式检测装置的结构示意框图;
图3为本申请一实施例的计算机设备的结构示意框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后等)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变,所述的连接可以是直接连接,也可以是间接连接。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
参照图1,本发明提出一种基于视觉质量分析的便携式检测方法,包括:
S1:获取多个黄斑病变患者就诊后的第一眼底图集,以及所述第一眼底图集中每张第一眼底图对应的眼轴长度;
S2:通过预设的提取方法提取所述第一眼底图集中各张第一眼底图的病变区域,以及视网膜的劈裂处;
S3:获取所述病变区域重心点,并根据所述劈裂处与所述重心点的坐标,获取所述劈裂处与所述重心点的第一向量;其中所述劈裂处的坐标为劈裂处上的视网膜上断点的坐标点;
S4:根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到劈裂处对应的第一向量集合;其中,所述第一向量集合中任意两个第一向量的劈裂处相同;
S5:基于所述各张第一眼底图的眼轴长度设定各个所述第一向量的第一注意力权重,从而得到第一向量集合对应的中间第一向量集合;
S6:计算所述中间第一向量集合中相邻两个第一向量的位置差;
S7:根据所述位置差设置后一个第一向量的第二注意力权重,并将第一张第一眼底图的第二注意力权重设置为常数;
S8:将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型;
S9:获取当前患者的一张或者多张第二眼底图,将所述第二眼底图输入至所述视觉质量判断模型中,得到所述当前患者的视觉质量。
如上述步骤S1所述,获取多个黄斑病变患者就诊后的第一眼底图集,以及所述第一眼底图集中每张第一眼底图对应的眼轴长度。其中眼底图为黄斑病变患者在检查过程中,所得到的多个第一眼底图,即第一眼底图集,需要说明的是,由于病变的类型分为多种类型,有C0无近视退行性改变型、C1豹纹状眼底型、C2弥漫视网膜脉络膜萎缩型、C3片状视网膜脉络膜萎缩型、C4黄斑萎缩型,为了提高后续模型的精度,可以将其进行分类训练,即获取其中其中一种类型的第一眼底图集训练一种模型,然后后续可以根据病患的类型输入对应类型的模型中进行计算,从而可以得到更加精确的预测结果。至于眼轴长度在检查过程中也可以根据相关的检测仪器得到,此处不再详细说明,现有的眼轴长度检测方式均可以。至于第一眼底图集可以采用OQASTM II(欧卡斯)------视觉质量分析系统,其原理是通过双通道技术直接采集分析点光源在视网膜成像的形状及不同区域的能量分布,来反映像差和散射对人眼光学质量的综合影响。另外,需要说明的是,眼底图可以是三维图也可以是二维图。
如上述步骤S2所述,通过预设的提取方法提取所述第一眼底图集中各张第一眼底图的病变区域,以及视网膜的劈裂处。预设的提取方法可以是将各种病变类型以及对应的眼底图,以及眼底图的病变区域输入至神经网络模型中,从而得到训练完成后的神经网络模型,从而根据训练完成后的神经网络模型对其进行识别,得到对应的病变区域,在一些实施例中,医生或相关人员会对眼底图上的病变区域进行标记,因此获取到的第一眼底图中可能会直接具有相关的病变区域信息,从中可以直接得到对应的病变区域,同理,劈裂处也可以直接得到,得到的方式与病变区域的获取方式相似,此处不再赘述。
如上述步骤S3所述,获取所述病变区域重心点,并根据所述劈裂处与所述重心点的坐标,获取所述劈裂处与所述重心点的第一向量。由于病变区域已经得到,因此可以获取到各个病变区域的重心点,其重心点的获取可以是将病变区域内所有的点的坐标进行求和平均,从而得到重心点的坐标,即若是二维图,则直接将病变区域内所有的点的横坐标进行求和平均,得到重心点的横坐标,同理可得重心点的纵坐标,由于劈裂处的坐标以及重心点的坐标已知,从而可以根据其获取到对于的第一向量,至于坐标系的建立,可以以眼底的其中任意一个点进行建立,由于通过第一向量进行表示,第一眼底图集中各个坐标系的建立,可以相同,也可以不同,这不会影响到第一向量的结果。至于劈裂处的坐标点为视网膜上断点的坐标点,即视网膜上最接近劈裂处的点,假设视网膜为一段圆弧,则圆弧上发生断裂,而劈裂处的坐标点为圆弧上除劈裂处上最接近劈裂处的一个点,当然这样的点一般包括两个,可以求取这两个点的平均数作为坐标点,在一个较佳的实施例中,由于劈裂处的大小与视觉质量息息相关,因此也可以将这两个点都记为劈裂处,因此,可以认为发生一次劈裂后,在视网膜上有成对出现的劈裂处坐标,当然一般而言,视网膜上发生劈裂一般只有一处,很难具有多处劈裂的情况,因此获取到的劈裂处的坐标一般为两个。
如上述步骤S4所述,根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到劈裂处对应的第一向量集合;其中,所述第一向量集合中任意两个第一向量的劈裂处相同。本实施例中,由于一个患者具有多张第一眼底图,因此,对于其对应的第一向量的变化情况,也具有一些判定视觉质量的信息,需要将其进行排序,从而知晓其视觉质量的变化情况。
如上述步骤S5所述,基于所述各张第一眼底图的眼轴长度设定各个所述第一向量的第一注意力权重,从而得到第一向量集合对应的中间第一向量集合,其中可以通过公式αi=softmax(si)基于所述眼轴长度设定各个所述第一向量的第一注意力权重,其中,si表示第i张第一眼底图对应的眼轴长度,αi表示第i个第一向量所对应的第一注意力权重,因此,当眼轴长度越长,说明其病变区域对劈裂处的影响越大,softmax为归一化函数,其得到的值取值范围为[0,1]。
如上述步骤S6所述,计算所述中间第一向量集合中相邻两个第一向量的位置差,其计算公式为
Figure BDA0003738078580000101
Figure BDA0003738078580000102
计算相邻的两个第一向量的位置差Δx;其中,an,bn为第n张第一眼底图中第m个第一向量所对应的劈裂处和重心点,an+1,bn+1为第n+1张第一眼底图中第m个第一向量所对应的劈裂处和重心点,
Figure BDA0003738078580000103
表示预设的位置差计算函数。需要说明的是,在过程中,其病变区域可能会发生变化,因此,其对应的重心点也会发生变化,至于劈裂处可能会出现增多的情况,其位置一般不会发生变化。
如上述步骤S7所述,根据所述位置差设置后一个第一向量的第二注意力权重,并将第一张第一眼底图的第二注意力权重设置为常数。位置差越大,表明其变化的视觉质量变化的可能性也就越大,设置第二注意力权重的方式也可以是根据公式bi=softmax(Δxn+1,m)设置第n+1张第一眼底图中第m个第一向量对应的第二注意力权重,bi表示第i个第一向量所对应的第二注意力权重。
如上述步骤S8-S9所述,将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型,由于其中第一向量具有第一注意力权重和第二注意力权重,因此训练而成的视觉质量判断模型具有更好的识别度,从而可以实现利用视网膜劈裂处来检测患者视觉质量的问题。
本实施例中,视网膜劈裂虽然与视觉质量的关系并不明确,但是研究表明多个高度近视的黄斑病患者一般都具有视网膜劈裂的现象,而且随着视网膜劈裂的情况变化,其视觉质量也随着变化,部分患者视觉质量下降较快,数据表明,劈裂处的变化与视觉质量的变化具有显著的相关性,因此,可以采用神经网络模型进行预测,其中,神经网络模型中是采用有监督的训练方法,将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,一组数据训练完成后对判别网络中各层神经元中的参数进行更新,直至满足训练结果。
在一个实施例中,所述将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型的步骤S8,包括:
S801:将各个黄斑病变患者对应的多个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至所述判别网络输入层中,以及根据所述各个第一眼底图的判断结果生成对应所述黄斑病变患者的病变趋势向量,作为所述判别网络的输出;其中,所述病变趋势向量为将各个病变患者的判断结果按照预设的向量转换方法转换成对应的结果数值,并基于各个结果数值进行排列以生成对应的向量;
S802:根据所述训练数据采用有监督学习的方式对所述判别网络进行训练,得到所述视觉质量监督模型。
如上述步骤S801-S802所述,由于第一向量的变化情况可以反应出患者的视觉质量的变化情况,因此,可以将其生成对应的病变趋势向量,生成的方式为为将各个病变患者的判断结果按照预设的向量转换方法转换成对应的结果数值,并基于各个结果数值进行排列以生成对应的向量。即根据检测结果,提取其中的程度信息然后进行数值转换,或者直接获取到医生进行视觉质量的评分,以作为该结果数值,采用有监督学习的方式对所述判别网络进行训练,得到所述视觉质量监督模型。
在一个实施例中,所述根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到各个劈裂处对应的第一向量集合的步骤S4,包括:
S401:根据所述第一眼底图集判断对应的黄斑病变患者是否出现劈裂处变多的情况;
S402:若是,则根据后出现的劈裂处在对应目标第一眼底图中的位置,为在所述目标第一眼底图之前的第一眼底图进行标记,并将其对应的第一向量设置为单位向量。
如上述步骤S401-S402所述,随着黄斑病变的不断加深,其劈裂处可能会变多,由于之前的第一眼底图不具有该新增的劈裂处,因此,需要针对其后出现的劈裂处在所述目标第一眼底图之前的第一眼底图进行标记,目标第一眼底图为第一眼底图集中的一幅图片,然后对其进行标记,从而便于生成第一向量,避免后续无法继续计算,对其进行标记主要是为了便于生成对应的第一向量,由于其长度可以设置成单位长度,若没有进行标记,其方向无法知晓,从而需要进行标记,以便于生成第一向量。
在一个实施例中,所述将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型的步骤S8之后,还包括:
S901:获取测试集;
S902:将所述测试集中的眼底图输入至所述视觉质量判断模型中,得到预测输出;
S903:根据公式
Figure BDA0003738078580000121
计算所述视觉质量判断模型损失值,y为预测输出,
Figure BDA0003738078580000122
为所述测试集中的实际输出;
S904:判断所述视觉质量判断模型损失值是否小于预设的损失值;
S905:若是,则判定所述视觉质量判断模型可以用于患者的视觉质量检测。
如上述步骤S901-S905所述,实现了对视觉质量判断模型的精度检测。即获取到测试集,该测试集一般为人为上传的测试集,其中,测试集也可以从训练集中提取,但是这种得到的损失值误差会较大,故而一般采用人为上传的测试集。根据公式
Figure BDA0003738078580000123
Figure BDA0003738078580000124
计算模型损失值,
Figure BDA0003738078580000125
为所述测试集中的实际输出,L为损失值,所述y为预测输出,判断所述模型损失值是否小于预设的损失值,预设的损失值为事先设定的损失值,若小于该损失值,则认为模型具有很好识别效果,可以使用,若大于该损失值,则表明该模型的精度不够,还需要继续训练。从而实现了对模型精度的检测,对视觉质量判断模型的识别效果进行了判断,从而保证得到的视觉质量判断模型具有很好的识别精度。
在一个实施例中,所述获取多个黄斑病变患者就诊后的第一眼底图集的步骤S1,包括:
S101:从预设的数据库中获取各个黄斑病变患者的彩色眼底照;
S102:根据预设的识别方式识别所述彩色眼底照中的眼底特征;
S103:按照预设的特征类型将所述眼底特征分为多个类型;
S104:分别获取各个类型的黄斑病变患者的第一眼底图集,以训练不同类型的视觉质量判断模型。
在一个实施例中,根据其彩色眼底照可以获取到各个黄斑病患者的眼底特征,本申请中将其分为了C1豹纹状眼底型、C2弥漫视网膜脉络膜萎缩型、C3片状视网膜脉络膜萎缩型、C4黄斑萎缩型四种类型,识别的方式可以是任意的识别方式,例如可以通过医生进行识别进行分类,也可以通过相关的模型进行识别。将其进行分类训练,即获取其中其中一种类型的第一眼底图集训练一种模型,然后后续可以根据病患的类型输入对应类型的模型中进行计算,从而可以得到更加精确的预测结果。
参照图2,本发明还提供了一种基于视觉质量分析的便携式检测装置,包括:
第一获取模块10,用于获取多个黄斑病变患者就诊后的第一眼底图集,以及所述第一眼底图集中每张第一眼底图对应的眼轴长度;
提取模块20,用于通过预设的提取方法提取所述第一眼底图集中各张第一眼底图的病变区域,以及视网膜的劈裂处;
第二获取模块30,用于获取所述病变区域重心点,并根据所述劈裂处与所述重心点的坐标,获取所述劈裂处与所述重心点的第一向量;其中所述劈裂处的坐标为劈裂处上的视网膜上断点的坐标点;
排序模块40,用于根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到劈裂处对应的第一向量集合;其中,所述第一向量集合中任意两个第一向量的劈裂处相同;
设定模块50,用于基于所述各张第一眼底图的眼轴长度设定各个所述第一向量的第一注意力权重,从而得到第一向量集合对应的中间第一向量集合;
计算模块60,用于计算所述中间第一向量集合中相邻两个第一向量的位置差;
设置模块70,用于根据所述位置差设置后一个第一向量的第二注意力权重,并将第一张第一眼底图的第二注意力权重设置为常数;
输入模块80,用于将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型;
第三获取模块90,用于获取当前患者的一张或者多张第二眼底图,将所述第二眼底图输入至所述视觉质量判断模型中,得到所述当前患者的视觉质量。
在一个实施例中,所述输入模块80,包括:
输入子模块,用于将各个黄斑病变患者对应的多个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至所述判别网络输入层中,以及根据所述各个第一眼底图的判断结果生成对应所述黄斑病变患者的病变趋势向量,作为所述判别网络的输出;其中,所述病变趋势向量为将各个病变患者的判断结果按照预设的向量转换方法转换成对应的结果数值,并基于各个结果数值进行排列以生成对应的向量;
训练子模块,用于根据所述训练数据采用有监督学习的方式对所述判别网络进行训练,得到所述视觉质量监督模型。
在一个实施例中,所述排序模块40,包括:
判断子模块,用于根据所述第一眼底图集判断对应的黄斑病变患者是否出现劈裂处变多的情况;
标记子模块,用于若出现劈裂处变多的情况,则根据后出现的劈裂处在对应目标第一眼底图中的位置,为在所述目标第一眼底图之前的第一眼底图进行标记,并将其对应的第一向量设置为单位向量。
在一个实施例中,所述基于视觉质量分析的便携式检测装置,还包括:
测试集获取模块,用于获取测试集;
测试集输入模块,用于将所述测试集中的眼底图输入至所述视觉质量判断模型中,得到预测输出;
视觉质量判断模型损失值计算模块,用于根据公式
Figure BDA0003738078580000151
Figure BDA0003738078580000152
计算所述视觉质量判断模型损失值,y为预测输出,
Figure BDA0003738078580000153
为所述测试集中的实际输出;
视觉质量判断模型损失值判断模块,用于判断所述视觉质量判断模型损失值是否小于预设的损失值;
判定模块,用于若小于预设的损失值,则判定所述视觉质量判断模型可以用于患者的视觉质量检测。
在一个实施例中,所述第一获取模块10,包括:
彩色眼底照获取子模块,用于从预设的数据库中获取各个黄斑病变患者的彩色眼底照;
识别子模块,用于根据预设的识别方式识别所述彩色眼底照中的眼底特征;
类型分类模块,用于按照预设的特征类型将所述眼底特征分为多个类型;
训练模块,用于分别获取各个类型的黄斑病变患者的第一眼底图集,以训练不同类型的视觉质量判断模型。
本发明的有益效果:通过获取多个黄斑病变患者就诊后的第一眼底图集和眼轴长度,找取第一眼底图中的病变区域和劈裂处,,并基于眼轴长度生成第一注意力权重,以及基于相邻两幅图第一向量的位置差生成第二注意力权重,以训练视觉质量判断模型,对当前患者进行视觉质量的检测,从而实现了利用视网膜劈裂处来检测患者视觉质量,提高了视觉质量的检测时间和质量。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储各种第一眼底图等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时可以实现上述任一实施例所述的基于视觉质量分析的便携式检测方法。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时可以实现上述任一实施例所述的基于视觉质量分析的便携式检测方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM一多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

Claims (10)

1.一种基于视觉质量分析的便携式检测方法,其特征在于,包括:
获取多个黄斑病变患者就诊后的第一眼底图集,以及所述第一眼底图集中每张第一眼底图对应的眼轴长度;
通过预设的提取方法提取所述第一眼底图集中各张第一眼底图的病变区域,以及视网膜的劈裂处;
获取所述病变区域重心点,并根据所述劈裂处与所述重心点的坐标,获取所述劈裂处与所述重心点的第一向量;其中所述劈裂处的坐标为劈裂处上的视网膜上断点的坐标点;
根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到劈裂处对应的第一向量集合;其中,所述第一向量集合中任意两个第一向量的劈裂处相同;
基于所述各张第一眼底图的眼轴长度设定各个所述第一向量的第一注意力权重,从而得到第一向量集合对应的中间第一向量集合;
计算所述中间第一向量集合中相邻两个第一向量的位置差;
根据所述位置差设置后一个第一向量的第二注意力权重,并将第一张第一眼底图的第二注意力权重设置为常数;
将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型;
获取当前患者的一张或者多张第二眼底图,将所述第二眼底图输入至所述视觉质量判断模型中,得到所述当前患者的视觉质量。
2.如权利要求1所述的基于视觉质量分析的便携式检测方法,其特征在于,所述将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型的步骤,包括:
将各个黄斑病变患者对应的多个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至所述判别网络输入层中,以及根据所述各个第一眼底图的判断结果生成对应所述黄斑病变患者的病变趋势向量,作为所述判别网络的输出;其中,所述病变趋势向量为将各个病变患者的判断结果按照预设的向量转换方法转换成对应的结果数值,并基于各个结果数值进行排列以生成对应的向量;
根据所述训练数据采用有监督学习的方式对所述判别网络进行训练,得到所述视觉质量监督模型。
3.如权利要求1所述的基于视觉质量分析的便携式检测方法,其特征在于,所述根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到各个劈裂处对应的第一向量集合的步骤,包括:
根据所述第一眼底图集判断对应的黄斑病变患者是否出现劈裂处变多的情况;
若是,则根据后出现的劈裂处在对应目标第一眼底图中的位置,为在所述目标第一眼底图之前的第一眼底图进行标记,并将其对应的第一向量设置为单位向量。
4.如权利要求1所述的基于视觉质量分析的便携式检测方法,其特征在于,所述将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型的步骤之后,还包括:
获取测试集;
将所述测试集中的眼底图输入至所述视觉质量判断模型中,得到预测输出;
根据公式
Figure FDA0003738078570000021
计算所述视觉质量判断模型损失值,y为预测输出,
Figure FDA0003738078570000022
为所述测试集中的实际输出;
判断所述视觉质量判断模型损失值是否小于预设的损失值;
若是,则判定所述视觉质量判断模型可以用于患者的视觉质量检测。
5.如权利要求1所述的基于视觉质量分析的便携式检测方法,其特征在于,所述获取多个黄斑病变患者就诊后的第一眼底图集的步骤,包括:
从预设的数据库中获取各个黄斑病变患者的彩色眼底照;
根据预设的识别方式识别所述彩色眼底照中的眼底特征;
按照预设的特征类型将所述眼底特征分为多个类型;
分别获取各个类型的黄斑病变患者的第一眼底图集,以训练不同类型的视觉质量判断模型。
6.一种基于视觉质量分析的便携式检测装置,其特征在于,包括:
第一获取模块,用于获取多个黄斑病变患者就诊后的第一眼底图集,以及所述第一眼底图集中每张第一眼底图对应的眼轴长度;
提取模块,用于通过预设的提取方法提取所述第一眼底图集中各张第一眼底图的病变区域,以及视网膜的劈裂处;
第二获取模块,用于获取所述病变区域重心点,并根据所述劈裂处与所述重心点的坐标,获取所述劈裂处与所述重心点的第一向量;其中所述劈裂处的坐标为劈裂处上的视网膜上断点的坐标点;
排序模块,用于根据各个所述第一眼底图集中各张第一眼底图的时间顺序,按照劈裂处将所述第一向量进行排序,得到劈裂处对应的第一向量集合;其中,所述第一向量集合中任意两个第一向量的劈裂处相同;
设定模块,用于基于所述各张第一眼底图的眼轴长度设定各个所述第一向量的第一注意力权重,从而得到第一向量集合对应的中间第一向量集合;
计算模块,用于计算所述中间第一向量集合中相邻两个第一向量的位置差;
设置模块,用于根据所述位置差设置后一个第一向量的第二注意力权重,并将第一张第一眼底图的第二注意力权重设置为常数;
输入模块,用于将各个黄斑病变患者的每个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至预设的判别网络输入层中,并将各个第一眼底图的判断结果转换成向量作为所述判别网络的输出进行训练,得到视觉质量判断模型;
第三获取模块,用于获取当前患者的一张或者多张第二眼底图,将所述第二眼底图输入至所述视觉质量判断模型中,得到所述当前患者的视觉质量。
7.如权利要求6所述的基于视觉质量分析的便携式检测装置,其特征在于,所述输入模块,包括:
输入子模块,用于将各个黄斑病变患者对应的多个第一向量及其对应的第一注意力权重和所述第二注意力权重输入至所述判别网络输入层中,以及根据所述各个第一眼底图的判断结果生成对应所述黄斑病变患者的病变趋势向量,作为所述判别网络的输出;其中,所述病变趋势向量为将各个病变患者的判断结果按照预设的向量转换方法转换成对应的结果数值,并基于各个结果数值进行排列以生成对应的向量;
训练子模块,用于根据所述训练数据采用有监督学习的方式对所述判别网络进行训练,得到所述视觉质量监督模型。
8.如权利要求6所述的基于视觉质量分析的便携式检测装置,其特征在于,所述排序模块,包括:
判断子模块,用于根据所述第一眼底图集判断对应的黄斑病变患者是否出现劈裂处变多的情况;
标记子模块,用于若出现劈裂处变多的情况,则根据后出现的劈裂处在对应目标第一眼底图中的位置,为在所述目标第一眼底图之前的第一眼底图进行标记,并将其对应的第一向量设置为单位向量。
9.如权利要求6所述的基于视觉质量分析的便携式检测装置,其特征在于,所述基于视觉质量分析的便携式检测装置,还包括:
测试集获取模块,用于获取测试集;
测试集输入模块,用于将所述测试集中的眼底图输入至所述视觉质量判断模型中,得到预测输出;
视觉质量判断模型损失值计算模块,用于根据公式
Figure FDA0003738078570000051
Figure FDA0003738078570000052
计算所述视觉质量判断模型损失值,y为预测输出,
Figure FDA0003738078570000053
为所述测试集中的实际输出;
视觉质量判断模型损失值判断模块,用于判断所述视觉质量判断模型损失值是否小于预设的损失值;
判定模块,用于若小于预设的损失值,则判定所述视觉质量判断模型可以用于患者的视觉质量检测。
10.如权利要求6所述的基于视觉质量分析的便携式检测装置,其特征在于,所述第一获取模块,包括:
彩色眼底照获取子模块,用于从预设的数据库中获取各个黄斑病变患者的彩色眼底照;
识别子模块,用于根据预设的识别方式识别所述彩色眼底照中的眼底特征;
类型分类模块,用于按照预设的特征类型将所述眼底特征分为多个类型;
训练模块,用于分别获取各个类型的黄斑病变患者的第一眼底图集,以训练不同类型的视觉质量判断模型。
CN202210801845.5A 2022-07-08 2022-07-08 一种基于视觉质量分析的便携式检测方法和装置 Active CN115082414B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210801845.5A CN115082414B (zh) 2022-07-08 2022-07-08 一种基于视觉质量分析的便携式检测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210801845.5A CN115082414B (zh) 2022-07-08 2022-07-08 一种基于视觉质量分析的便携式检测方法和装置

Publications (2)

Publication Number Publication Date
CN115082414A true CN115082414A (zh) 2022-09-20
CN115082414B CN115082414B (zh) 2023-01-06

Family

ID=83257504

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210801845.5A Active CN115082414B (zh) 2022-07-08 2022-07-08 一种基于视觉质量分析的便携式检测方法和装置

Country Status (1)

Country Link
CN (1) CN115082414B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018045363A1 (en) * 2016-09-02 2018-03-08 Gargeya Rishab Screening method for automated detection of vision-degenerative diseases from color fundus images
US20190180441A1 (en) * 2016-08-18 2019-06-13 Google Llc Processing fundus images using machine learning models
CN111095261A (zh) * 2017-04-27 2020-05-01 视网膜病答案有限公司 眼底图像自动分析系统和方法
CN112053321A (zh) * 2020-07-30 2020-12-08 中山大学中山眼科中心 一种识别高度近视视网膜病变的人工智能系统
CN114511738A (zh) * 2022-01-25 2022-05-17 阿里巴巴(中国)有限公司 眼底病变识别方法、装置、电子设备和可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190180441A1 (en) * 2016-08-18 2019-06-13 Google Llc Processing fundus images using machine learning models
WO2018045363A1 (en) * 2016-09-02 2018-03-08 Gargeya Rishab Screening method for automated detection of vision-degenerative diseases from color fundus images
CN111095261A (zh) * 2017-04-27 2020-05-01 视网膜病答案有限公司 眼底图像自动分析系统和方法
CN112053321A (zh) * 2020-07-30 2020-12-08 中山大学中山眼科中心 一种识别高度近视视网膜病变的人工智能系统
CN114511738A (zh) * 2022-01-25 2022-05-17 阿里巴巴(中国)有限公司 眼底病变识别方法、装置、电子设备和可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梁平等: "糖尿病视网膜病变眼底图像分类方法", 《深圳大学学报(理工版)》 *

Also Published As

Publication number Publication date
CN115082414B (zh) 2023-01-06

Similar Documents

Publication Publication Date Title
Issarti et al. Computer aided diagnosis for suspect keratoconus detection
CN106529442A (zh) 一种行人识别方法和装置
KR101984995B1 (ko) 인공지능 시야분석 방법 및 장치
CN111862020B (zh) 一种眼前节生理年龄预测方法、装置、服务器及存储介质
CN111611851B (zh) 模型生成方法、虹膜检测方法及装置
Lu et al. Automated strabismus detection for telemedicine applications
CN111340087A (zh) 图像识别方法、装置、计算机可读存储介质和计算机设备
Zia et al. A multilevel deep feature selection framework for diabetic retinopathy image classification
Yugha et al. An automated glaucoma detection from fundus images based on deep learning network
CN117764957A (zh) 基于人工神经网络的青光眼图像特征提取的训练系统
Wang et al. Explainable deep learning for biomarker classification of oct images
Alagirisamy Micro statistical descriptors for glaucoma diagnosis using neural networks
CN117116434B (zh) 人脑白质结构连接组的个体差异评估方法、应用及装置
EP3858245B1 (en) Automatic recognition method for measurement point in cephalo image
Rakhmetulayeva et al. IMPLEMENTATION OF CONVOLUTIONAL NEURAL NETWORK FOR PREDICTING GLAUCOMA FROM FUNDUS IMAGES.
CN115082414B (zh) 一种基于视觉质量分析的便携式检测方法和装置
Giraddi et al. Role of GLCM features in identifying abnormalities in the retinal images
Tălu et al. Characterization of human retinal vessel arborisation in normal and amblyopic eyes using multifractal analysis
Paunksnis et al. The use of information technologies for diagnosis in ophthalmology
CN111862091A (zh) 一种基于表型测量早期发现综合征的系统
CN113570545A (zh) 一种视觉识别疼痛分级评估的方法
KR20220102672A (ko) 딥러닝 기반 두꺼운 맥락막 질환 진단 방법, 장치 및 프로그램
CN113658152B (zh) 脑卒中风险的预测设备、方法、计算机设备及存储介质
García et al. Analysis of hand-crafted and automatic-learned features for glaucoma detection through raw circumpapillary oct images
Toledo-Cortés et al. Deep Density Estimation for Cone Counting and Diagnosis of Genetic Eye Diseases From Adaptive Optics Scanning Light Ophthalmoscope Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant