CN112220445A - 一种基于移动终端的白内障和后发性白内障的分析系统和装置 - Google Patents

一种基于移动终端的白内障和后发性白内障的分析系统和装置 Download PDF

Info

Publication number
CN112220445A
CN112220445A CN202011046275.0A CN202011046275A CN112220445A CN 112220445 A CN112220445 A CN 112220445A CN 202011046275 A CN202011046275 A CN 202011046275A CN 112220445 A CN112220445 A CN 112220445A
Authority
CN
China
Prior art keywords
cataract
image
mobile terminal
fundus
labeling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011046275.0A
Other languages
English (en)
Inventor
陈蔚
王雷
谢荷
郑钦象
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eye Medicine Wenzhou Biotechnology Co ltd
Original Assignee
Eye Hospital of Wenzhou Medical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eye Hospital of Wenzhou Medical University filed Critical Eye Hospital of Wenzhou Medical University
Priority to CN202011046275.0A priority Critical patent/CN112220445A/zh
Publication of CN112220445A publication Critical patent/CN112220445A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • A61B3/1173Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens
    • A61B3/1176Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens for determining lens opacity, e.g. cataract
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

一种基于移动终端的白内障和后发性白内障的分析系统和装置,本发明基于眼底图像的清晰程度来评判白内障/后发性白内障的严重程度,相较于通过眼前节图像评判白内障和后发性白内障的混浊程度,眼底图像的清晰程度和视力的匹配程度更相关更直接,而且对操作者要求更低,利用深度学习人工智能系统进行病情评估,使得白内障混浊程度的分级的准确率更高,构建了诊治建议模块,将获取眼部图像的权利赋予智能终端使用者,而非各级医疗机构,在一定程度上,受众面更广更普及,也缓解广大普通患者检查费时费力,且价格昂贵的问题,实现了一种具有前景的便携性新兴医疗解决方案。

Description

一种基于移动终端的白内障和后发性白内障的分析系统和 装置
技术领域
本发明涉及医疗图像处理设备技术领域,具体涉及一种基于移动终端的白内障和后发性白内障的分析系统和装置。
背景技术
白内障是全球首位致盲疾病,根据最近的一项研究,到2025年,全世界因白内障而失去视力的人数可能达到4000万。目前白内障常见的诊断主要依靠眼科医生使用裂隙灯观察患者眼部晶状体的透明情况,并将其与一组标准照片(如LOCS III和Wisconsin白内障分级系统)进行比较,评估病情的严重性。但是,目前眼科医生相对有限,并且白内障检查较为耗时,并且由于卫生支出低,中低收入国家和地区的白内障致盲率较高,难以预防和避免广泛的白内障盲。因此,利用手机的照相功能配合分析系统对白内障进行诊断及分级,并在基层医院和老百姓中推广使用,是改善欠发达地区眼科保健服务,为白内障患者带来光明的重要手段。
近年来,医疗市场快速发展,尤其是借助人工智能技术完成疾病的诊断及预防已成为医疗发展的新趋势。若能实现白内障病情的自动分级,则可大大提高诊断准确性,降低治疗成本。基于眼底图像的人工智能辅助诊断技术越来越受到人们的关注,目前已有多项关于基于眼底图像的白内障自动检测与分类的研究报道。然而,这些研究大多使用医疗单位的眼底成像设备,这些设备通常体积庞大、便携性差且成本较高。因此,基于智能终端的眼底成像,在一定程度上,可以缓解广大普通患者检查费时费力的问题,实现了一种具有前景的便携性新兴医疗解决方案,可为每个个人用户提供完整的医疗保健。
发明内容
为了解决现有技术的缺陷,本发明提供了一种基于移动终端的白内障和后发性白内障的分析系统和装置,能够简单、快速、准确地评估出患者的白内障和后发性白内障的严重程度,从而实现用户自我监察、自我检查的就医模式,提高就医效率,降低就医的时间和医疗成本。
本发明采用的技术解决方案是:一种基于移动终端的白内障和后发性白内障的分析系统,所述的分析系统包括:
信息采集模块:输入个体用户基本信息、白内障手术史、瞳孔模式信息;
眼底图像采集模块:采集用户的眼底图像;
图像标注模块:根据瞳孔是否散瞳对信息采集模块输入的瞳孔模式信息进行分类标注;对眼底图像采集模块中采集用户的眼底图像的模糊程度进行分级标注;
图像智能分类模块:根据在瞳孔模式信息的分类标注和眼底图像的模糊程度的分类标注的基础上,通过深度卷积神经网络对眼底图像进行分类标注和分级标注处理,获得深度学习模型;
病情评估模块:根据图像智能分类模块获得的深度学习模型,通过信息采集模块拍摄的眼底图像,对白内障和后发性白内障的严重程度进行评估分级。
所述的分析系统还包括诊治建议模块,所述的诊治建议模块根据病情评估模块,给予白内障和后发性白内障患者必要的诊疗建议。
所述的眼底图像采集模块中的采集用户的眼底图像通过移动终端的摄像头结合眼底成像装置拍摄获得,利用智能手机的拍照功能结合在后置摄像头前安置的眼底成像装置,以视盘或黄斑为中心,自动聚焦自动拍摄获取眼底图像 (病情的严重性与图像的模糊程度密切相关,病情越严重图像越模糊)。
所述的图像标注模块中对采集用户的眼底图像的模糊程度进行分类标注具体为:通过2-3名专业的眼科医生对移动终端拍摄的眼底图像的模糊程度进行6 级标注,分别为0级、1级、2级、3级、4级和5级。
所述的图像智能分类模块中通过深度卷积神经网络对眼底图像进行分类标注和分级标注处理,获得深度学习模型具体为:利用深度卷积神经网络对训练集中的采集的眼底图像按瞳孔模式信息分类和模糊程度的6级标注进行判读训练,最终得到深度学习模型。
所述的训练集位为通过移动终端的摄像头和眼底成像装置拍摄获得的并通过模糊程度进行6级标注后的大量患者的眼底图像的集合数据。
所述的深度卷积神经网络位InceptionV3分类网络,使用InceptionV3分类网络进行判读训练具体步骤为:使用随机梯度下降法为优化算法,算法对应的初始学习比率(learning rate,lr)设为lr0=1.0×10-3,momentum为0.9, weight decay为5×10-4,epoch为100,batch size为16。训练过程中,lr根据迭代次数k进行如下调整:
Figure RE-GDA0002831419020000031
其中,IterN为总迭代次数,模型的训练过程中,眼底图像大小设为 299*299,同时对图像进行必要的平移、旋转、仿射变换增强处理,以降低模型的过拟合;
在瞳孔状态分类时,使用二元交叉熵(binary cross entropy,BCE)为代价函数;在眼底图像模糊程度分类时,使用多元交叉熵(categorical cross entropy,CCE)为代价函数。这两个函数可统一使用下式:
Figure RE-GDA0002831419020000032
其中,C表示总的分类数目,pi和yi分别表示分类模型评估图像为第i类时的预测概率和手工标注。当C=2时,Loss函数可进一步表示为:
Figure RE-GDA0002831419020000033
所述的移动终端为便携式手持终端。
所述的便携式手持终端为手机。
一种用于分析白内障和后发性白内障的便携式手持装置,所述的便携式手持装置包括用于拍摄眼底图像的摄像头,所述的便携式手持装置还包括处理单元,所述的处理单元内具有所述的白内障和后发性白内障的分析系统。
本发明的有益效果是:本发明提供了一种基于移动终端的白内障和后发性白内障的分析系统和装置,本发明先采集白内障手术史、瞳孔模式信息,建立图像标注模块、图像智能分类模块,根据不同的眼部特征对眼底图像进行智能归类,可以提高分析结果的准确性,本发明基于眼底图像的清晰程度来评判白内障/后发性白内障的严重程度,相较于通过眼前节图像评判白内障和后发性白内障的混浊程度,眼底图像的清晰程度和视力的匹配程度更相关更直接,而且对操作者要求更低,利用深度学习人工智能系统进行病情评估,使得白内障混浊程度的分级的准确率更高,构建了诊治建议模块,将获取眼部图像的权利赋予智能终端使用者,而非各级医疗机构,在一定程度上,受众面更广更普及,也缓解广大普通患者检查费时费力,且价格昂贵的问题,实现了一种具有前景的便携性新兴医疗解决方案。
附图说明
图1为本发明实施例的分析流程示意图。
图2为本发明实施例的信息采集模块中瞳孔状态(散瞳和小瞳)和白内障手术史采集(晶状体眼和非晶状体眼)示意图。
图3为本发明实施例的眼屈光成像示意图。
图4为本发明实施例和Wisconsin白内障分级系统相对应的眼底图像模糊程度分级示意图。注:水平线上方为Wisconsin白内障分级系统的标准裂隙灯照片。从0到5的数字表示浑浊的严重程度。较低的数字意味着较低的严重程度。请注意,虽然有4幅标准图像对应于等级1至4,但等级范围为0至5。水平线下方为相对应不同浑浊严重的眼底图像。
图5为本发明实施例的InceptionV3分类模型的网络架构示意图。
图6为本发明的实施例的InceptionV3分类模型中使用的Inception block A、Inception block B以及Inception block C示意图。
具体实施方式
下面结合附图以及具体实施例,可以更好地说明本发明。
实施例
如图1所示,本实施例提供一种基于智能手机的白内障和后发性白内障的分析系统,包括:信息采集模块、眼底图像采集模块、图像标注模块、图像智能分类模块、病情评估模块和诊治建议模块。
信息采集模块包括个体用户基本信息、白内障手术史、瞳孔模式(是否为散瞳状态)和眼底图像拍摄采集。其中基本信息、病史、瞳孔模式是利用系统填报方式采集获得。
个人基本信息包括:姓名、性别、年龄等,用于资料完善。
“白内障手术史”的信息采集,包括回答“是否有行白内障手术”或“是否有行白内障手术联合其他眼部手术”的问题,若以上两个问题均回答为“否”,则为“晶状体眼”,若以上两个问题任一个问题回答为“是”,则为“非晶状体眼”。“晶状体眼”的晶状体发生浑浊,我们称之为白内障,“非晶状体眼”为白内障摘除术后,由残留的皮质及晶状体上皮细胞增生形成的后囊膜的浑浊,我们称之为后发性白内障。白内障和后发性白内障,都会影响光线通过眼屈光介质,引起眼底成像质量的下降,导致视功能的下降。如图3所示,为眼球成像过程/通路示意图,眼底图像的成像受屈光介质的影响,其成像质量的清晰度受到晶状体的浑浊情况影响,因此,我们意图通过眼底图像成像质量的清晰情况,来间接评判白内障和后发性白内障的浑浊严重程度,而且其和用户个体矫正视力密切相关。
瞳孔模式的信息采集,根据个体是否进行散瞳处理,分为“小瞳”和“散瞳”两种模式。“小瞳”为自然状态下的瞳孔,其大小为2-4mm范围,“散瞳”为局部点用散瞳滴眼液20分钟后或全身服用引起瞳孔散大的药物后的瞳孔状态,其直径一般>4mm。
眼底图像拍摄采集,是利用智能手机前置摄像头的“拍照”功能,结合在其前置摄像头前安置的眼底成像系统,来进行眼底图像的拍摄。眼底图像需以视盘或黄斑为中心,拍摄采取自动聚焦自动拍摄自动评估获取的模式,实现眼底图像的质量和大小符合深度学习模技术的要求。利用智能手机的拍照功能结合在后置摄像头前安置的眼底成像系统,以视盘或黄斑为中心,自动聚焦自动拍摄获取眼底图像。
图像标注模块:将所采集的眼底图像,首先根据“信息采集模块”获得的“瞳孔模式”,将瞳孔分级分别标注为“散瞳”状态或“小瞳”状态;再经2 名专业的医生在互不干扰的情况下对眼底图像的模糊程度进行分级标注。若2 名专业的医生标注的结果不一致,则请第3名专业的医生对其进行核实比较标注,最后确认分级。眼底图像分级采用6级制,根据采集的眼底图像模糊程度,由清晰至模糊依次定义为0级、1级、2级、3级、4级和5级(如图4所示),和Wisconsin白内障分级系统的白内障的浑浊程度相对应。后发性白内障患者的眼底图像模糊程度评级和白内障患者的评级标准一致。
图像智能分类模块是基于彩色眼底图像分析白内障的严重程度,首先需要对患者成像时眼部是否为‘小瞳’或者‘散瞳’进行2分类,因为两种瞳孔状态虽然均与眼底图像的模糊程度密切相关,但它们对应的瞳孔状态是十分不同的。对不同瞳孔状态进行区分,有助于眼部晶状体组织的浑浊程度评估和白内障严重性的分析。
在瞳孔状态分类的基础上,对每种状态下对应的眼底图像的模糊程度进行 6分类(即0级、1级、2级、3级、4级和5级)处理,借助眼底图像的模糊程度分析患者眼部晶状体的浑浊测度,进而对患者是否存在白内障以及白内障的严重程度进行评估。
上述两种基于彩色眼底图像的分类问题虽然分类标签是不同的,但是可以使用相同的深度卷积神经网络进行处理。本文以经典的InceptionV3分类网络为例(如图5所示),执行上述两种分类问题,即瞳孔状态分类和眼底图像模糊程度分类。
为了有效训练InceptionV3分类网络,使用随机梯度下降法(StochasticGradient Descent,SGD)为优化算法,算法对应的初始学习比率(learning rate,lr)设为lr0=1.0×10-3,momentum为0.9,weight decay为5×10-4,epoch 为100,batch size为16。训练过程中,lr根据迭代次数k进行如下调整:
Figure RE-GDA0002831419020000071
其中,IterN为总迭代次数。模型的训练过程中,眼底图像大小设为 299*299,同时对图像进行必要的增强处理(如平移、旋转、仿射变换等),以降低模型的过拟合。
在瞳孔状态分类时,使用二元交叉熵(binary cross entropy,BCE)为代价函数;在眼底图像模糊程度分类时,使用多元交叉熵(categorical cross entropy,CCE)为代价函数。这两个函数可统一使用下式:
Figure RE-GDA0002831419020000072
其中,C表示总的分类数目,pi和yi分别表示分类模型评估图像为第i类时的预测概率和手工标注。当C=2时,Loss函数可进一步表示为:
Figure RE-GDA0002831419020000073
本实施例中的病情评估模块,就是在利用已建成的深度学习人工智能系统对所采集的眼底图像进行判读,获得瞳孔分级和眼底图像的模糊程度分级,并将眼底图像的模糊程度分级对应于相应的白内障/后发性白内障的严重程度,给出评估结果,分别为0级、1级、2级、3级、4级和5级。
在本实施例的诊治建议模块中,根据“病情评估模块”的分级评估结果,给予相应的诊治建议。当系统评估等级<3级时,表明白内障或后发性白内障目前没有或轻度浑浊,系统生成随访观察的建议;当系统评估等级≥3级时,表明白内障或后发性白内障目前有中度或重度的浑浊,对视功能造成中度或严重的影响,系统生成医院就诊的建议。
系统显示评估结果,包括白内障或后发性白内障的浑浊程度的评估情况、预设的相应的矫正视力范围和给予的诊治建议(包括白内障手术或YAG后囊膜切除术)。
备注:因瞳孔区的浑浊对视力影响更大,而散瞳状态模式下,周边的透明区域会弥补中央区的浑浊,提高眼底成像的质量。因此,小瞳模式下可以提供更有价值的参考意义。
本实施例集成了六个功能模块:信息采集模块、眼底图像采集模块、图像标注模块、图像智能分类模块、病情评估模块和诊治建议模块。使得对白内障和后发性白内障的分析形成智能化的一站式服务,将白内障和后发性白内障的前期筛选以及中间分析环节实现智能化,用户个体可以通过智能手机进行眼底的图像拍摄,输入本实施例中的各个模块运行,并得到处理建议。个体用户可以实现眼睛健康的自我检测、自我检测,缺乏专业眼科医院基层医院可以实现初筛和诊疗建议,实现了一种具有前景的便携性新兴医疗解决方案,可为每个个人用户提供完整的医疗保健。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种基于移动终端的白内障和后发性白内障的分析系统,其特征在于,所述的分析系统包括:
信息采集模块:输入个体用户基本信息、白内障手术史、瞳孔模式信息;
眼底图像采集模块:采集用户的眼底图像;
图像标注模块:根据瞳孔是否散瞳对信息采集模块输入的瞳孔模式信息进行分类标注;对眼底图像采集模块中采集用户的眼底图像的模糊程度进行分级标注;
图像智能分类模块:根据在瞳孔模式信息的分类标注和眼底图像的模糊程度的分类标注的基础上,通过深度卷积神经网络对眼底图像进行分类标注和分级标注处理,获得深度学习模型;
病情评估模块:根据图像智能分类模块获得的深度学习模型,通过信息采集模块拍摄的眼底图像,对白内障和后发性白内障的严重程度进行评估分级。
2.根据权利要求1所述的一种基于移动终端的白内障和后发性白内障的分析系统,其特征在于,所述的分析系统还包括诊治建议模块,所述的诊治建议模块根据病情评估模块,给予白内障和后发性白内障患者给予必要的诊疗建议。
3.根据权利要求1所述的一种基于移动终端的白内障和后发性白内障的分析系统,其特征在于,所述的眼底图像采集模块中的采集用户的眼底图像通过移动终端的摄像头结合眼底成像装置拍摄获得。
4.根据权利要求3所述的一种基于移动终端的白内障和后发性白内障的分析系统,其特征在于,所述的图像标注模块中对采集用户的眼底图像的模糊程度进行分类标注具体为:通过2-3名专业的眼科医生对移动终端拍摄的眼底图像的模糊程度进行6级标注,分别为0级、1级、2级、3级、4级和5级。
5.根据权利要求4所述的一种基于移动终端的白内障和后发性白内障的分析系统,其特征在于,所述的图像智能分类模块中通过深度卷积神经网络对眼底图像进行分类标注和分级标注处理,获得深度学习模型具体为:利用深度卷积神经网络对训练集中的采集的眼底图像按瞳孔模式信息分类和模糊程度的6级标注进行判读训练,最终得到深度学习模型。
6.根据权利要求5所述的一种基于移动终端的白内障和后发性白内障的分析系统,其特征在于,所述的训练集位为通过移动终端的摄像头和眼底成像装置拍摄获得的并通过模糊程度进行6级标注后的大量患者的眼底图像的集合数据。
7.根据权利要求5所述的一种基于移动终端的白内障和后发性白内障的分析系统,其特征在于,所述的深度卷积神经网络位InceptionV3分类网络,使用InceptionV3分类网络进行判读训练具体步骤为:使用随机梯度下降法为优化算法,算法对应的初始学习比率(learning rate,lr)设为lr0=1.0×10-3,momentum为0.9,weight decay为5×10-4,epoch为100,batch size为16;训练过程中,lr根据迭代次数k进行如下调整:
Figure FDA0002708094500000021
其中,IterN为总迭代次数,模型的训练过程中,眼底图像大小设为299*299,同时对图像进行必要的平移、旋转、仿射变换增强处理,以降低模型的过拟合;
在瞳孔状态分类时,使用二元交叉熵(binary cross entropy,BCE)为代价函数;在眼底图像模糊程度分类时,使用多元交叉熵(categorical cross entropy,CCE)为代价函数;这两个函数可统一使用下式:
Figure FDA0002708094500000022
其中,C表示总的分类数目,pi和yi分别表示分类模型评估图像为第i类时的预测概率和手工标注;当C=2时,Loss函数可进一步表示为:
Figure FDA0002708094500000023
8.根据权利要求1所述的一种基于移动终端的白内障和后发性白内障的分析系统,其特征在于,所述的移动终端为便携式手持终端。
9.根据权利要求8所述的一种基于移动终端的白内障和后发性白内障的分析系统,其特征在于,所述的便携式手持终端为手机。
10.一种用于分析白内障和后发性白内障的便携式手持装置,其特征在于,所述的便携式手持装置包括用于拍摄眼底图像的摄像头,所述的便携式手持装置还包括处理单元,所述的处理单元内具有权利要求1-9中所述的任意一项白内障和后发性白内障的分析系统。
CN202011046275.0A 2020-09-29 2020-09-29 一种基于移动终端的白内障和后发性白内障的分析系统和装置 Pending CN112220445A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011046275.0A CN112220445A (zh) 2020-09-29 2020-09-29 一种基于移动终端的白内障和后发性白内障的分析系统和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011046275.0A CN112220445A (zh) 2020-09-29 2020-09-29 一种基于移动终端的白内障和后发性白内障的分析系统和装置

Publications (1)

Publication Number Publication Date
CN112220445A true CN112220445A (zh) 2021-01-15

Family

ID=74120733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011046275.0A Pending CN112220445A (zh) 2020-09-29 2020-09-29 一种基于移动终端的白内障和后发性白内障的分析系统和装置

Country Status (1)

Country Link
CN (1) CN112220445A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470815A (zh) * 2021-06-30 2021-10-01 温州医科大学附属眼视光医院 基于ai技术的白内障患者视力损害程度评估系统
CN113962995A (zh) * 2021-12-21 2022-01-21 北京鹰瞳科技发展股份有限公司 一种白内障模型的训练方法及白内障识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470815A (zh) * 2021-06-30 2021-10-01 温州医科大学附属眼视光医院 基于ai技术的白内障患者视力损害程度评估系统
CN113962995A (zh) * 2021-12-21 2022-01-21 北京鹰瞳科技发展股份有限公司 一种白内障模型的训练方法及白内障识别方法

Similar Documents

Publication Publication Date Title
Karakaya et al. Comparison of smartphone-based retinal imaging systems for diabetic retinopathy detection using deep learning
Khan et al. Cataract detection using convolutional neural network with VGG-19 model
CN109528155B (zh) 一种适用于高度近视并发开角型青光眼的智能筛查系统及其建立方法
CN110013216B (zh) 一种人工智能白内障分析系统
CN109998477A (zh) 一种高度近视白内障手术预后智能预判系统
CN112220445A (zh) 一种基于移动终端的白内障和后发性白内障的分析系统和装置
Ram et al. The relationship between Fully Connected Layers and number of classes for the analysis of retinal images
CN111199794A (zh) 一种适用于高度近视白内障的手术智能决策系统及其建立方法
Zhang et al. DeepUWF: an automated ultra-wide-field fundus screening system via deep learning
CN111700582A (zh) 一种基于智能终端的常见眼表疾病诊断系统
CN110211686A (zh) 一种高度近视白内障人工晶状体精准选择系统
Rim et al. Deep learning for automated sorting of retinal photographs
Hassan et al. Exploiting the transferability of deep learning systems across multi-modal retinal scans for extracting retinopathy lesions
Raza et al. Classification of eye diseases and detection of cataract using digital fundus imaging (DFI) and inception-V4 deep learning model
Triyadi et al. Deep learning in image classification using vgg-19 and residual networks for cataract detection
CN214484464U (zh) 基于移动终端的白内障和后发性白内障的分析系统和装置
CN113470815A (zh) 基于ai技术的白内障患者视力损害程度评估系统
Galveia et al. Computer aided diagnosis in ophthalmology: Deep learning applications
CN113854957A (zh) 一种基于眼部图像的人工智能屈光度精准测量方法
Neelima et al. Classification of Diabetic Retinopathy Fundus Images using Deep Neural Network
CN215534276U (zh) 基于ai的白内障患者视力损害程度评估系统
Latha et al. Diagnosis of diabetic retinopathy and glaucoma from retinal images using deep convolution neural network
CN113273959A (zh) 一种便携式糖尿病视网膜病变诊疗仪
Nagaraj et al. A Comparative Analysis of Retinal Disease Image Classification for OCT Using Deep Learning Techniques
Hakeem et al. Inception V3 and CNN Approach to Classify Diabetic Retinopathy Disease

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230906

Address after: Room 513, Building D, No. 100, Luodong North Street, Yongzhong Street, Longwan District, Wenzhou City, Zhejiang Province, 325000

Applicant after: Eye Medicine (Wenzhou) Biotechnology Co.,Ltd.

Address before: 325000 No. 270 College West Road, Zhejiang, Wenzhou

Applicant before: THE EYE HOSPITAL OF WENZHOU MEDICAL University