CN109599166A - 基于深度学习的睑板腺红外图像辅助识别系统及方法 - Google Patents
基于深度学习的睑板腺红外图像辅助识别系统及方法 Download PDFInfo
- Publication number
- CN109599166A CN109599166A CN201811430905.7A CN201811430905A CN109599166A CN 109599166 A CN109599166 A CN 109599166A CN 201811430905 A CN201811430905 A CN 201811430905A CN 109599166 A CN109599166 A CN 109599166A
- Authority
- CN
- China
- Prior art keywords
- image
- meibomian gland
- client
- server
- infrared image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000004175 meibomian gland Anatomy 0.000 title claims abstract description 91
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 21
- 210000004907 gland Anatomy 0.000 claims description 21
- 230000002159 abnormal effect Effects 0.000 claims description 18
- 210000000744 eyelid Anatomy 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 11
- 210000000795 conjunctiva Anatomy 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 claims description 7
- 241000150100 Margo Species 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 210000000720 eyelash Anatomy 0.000 claims description 5
- 238000007689 inspection Methods 0.000 claims description 5
- 230000000762 glandular Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000003745 diagnosis Methods 0.000 claims description 3
- 210000000457 tarsus Anatomy 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000000903 blocking effect Effects 0.000 claims description 2
- 238000011337 individualized treatment Methods 0.000 claims description 2
- 230000003902 lesion Effects 0.000 claims 2
- 238000012797 qualification Methods 0.000 claims 2
- 230000004069 differentiation Effects 0.000 claims 1
- 238000003384 imaging method Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 2
- 208000003556 Dry Eye Syndromes Diseases 0.000 description 8
- 206010013774 Dry eye Diseases 0.000 description 8
- 206010065062 Meibomian gland dysfunction Diseases 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 208000002193 Pain Diseases 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004393 prognosis Methods 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 238000002560 therapeutic procedure Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 208000004998 Abdominal Pain Diseases 0.000 description 1
- 208000002881 Colic Diseases 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001684 chronic effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002089 crippling effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 239000003889 eye drop Substances 0.000 description 1
- 229940012356 eye drops Drugs 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 238000001631 haemodialysis Methods 0.000 description 1
- 230000000322 hemodialysis Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002757 inflammatory effect Effects 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Radiology & Medical Imaging (AREA)
- Evolutionary Computation (AREA)
- Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于深度学习的睑板腺红外图像辅助识别系统及方法,系统包括客户端、服务端、数据库;客户端,用于将红外摄像设备采集的睑板腺图像上传给服务端,并接收和显示服务端反馈的分析结果;服务端,根据从客户端采集的图像,即时判断图像对应的部位以及部位特征,将分析结果反馈给客户端;数据库,用于存储红外摄像设备采集的图像、服务端反馈的分析结果。本发明通过卷积神经网络模型对于采集的睑板腺图像进行即时识别图片质量、识别部位和部位特征的识别,在图像显示系统上进行实时提示,为医师提供准确可靠的参考,提高检测的准确度和有效性,简单易用,具有显著的社会及经济价值。
Description
技术领域
本发明属于图像识别技术领域,涉及一种睑板腺红外图像辅助识别系统及方法,具体涉及一种基于深度学习的睑板腺异常范围的辅助识别系统及方法。
背景技术
随着生活水平提高,视屏终端设备种类增多,人均使用频次增多、时间增长,以及环境污染、眼药水滥用等诸多社会问题影响,干眼在人群中发生率日益升高,波及全球范围内上亿人口。干眼引起的眼部不适包括致残性疼痛与视觉波动,严重限制驾驶、阅读、娱乐等日常正常活动。有文献显示,中重度干眼在生活质量方面对患者的影响等同于Ⅲ/Ⅳ级心绞痛,干眼患者生活不便程度与血液透析患者相似。巨大的社会成本与患者因其所致强烈的身心折磨促使社会各界对干眼的诊治予以重视。干眼分为蒸发过强型和分泌不足型,其中蒸发过强型干眼是主要类型,通常由睑板腺功能障碍所致。睑板腺功能障碍(Meibomiangland dysfunction,MGD)是一种睑板腺的慢性、特异性炎症,以睑板腺导管的阻塞或睑板腺分泌物异常为特征。
非接触式睑板腺照相技术作为一种新兴的辅助检查手段,能够观察结膜面睑板腺形态、睑缘处睑板腺开口特征变化。但受制于技术水平与人力资源,针对睑板腺结构异常的具体问题,现阶段仅能根据照相操作医师的粗略估算对其情况进行评价,缺乏具体量化指标。
如果可以对睑板腺结构的异常部位和范围进行识别和估算,对患者情况进行具体的分级评定,从而帮助临床医师进一步选择适合患者的个体化疗法,将大大改善如今囿于人力物力限制而导致的MGD检出率低、患者预后不佳的现实情况。
发明内容
本发明要解决的技术问题是:提供一种基于深度学习的睑板腺异常范围的辅助识别系统及方法,对睑板腺红外图像进行识别,及时判断结构异常的部位,提示异常范围的大小,必要时辅以显微镜下细胞结构检查,从而辅助操作者与临床医师明确睑板腺异常范围及程度,选择适宜患者的个体化疗法。
本发明的系统所采用的技术方案是:一种基于深度学习的睑板腺红外图像辅助识别系统,其特征在于:包括客户端、服务端、数据库;
所述客户端,用于将红外摄像设备采集的睑板腺图像上传给所述服务端,并接收和显示所述服务端反馈的分析结果;
所述服务端,根据从所述客户端采集的图像,即时判断图像对应的部位以及部位特征,将分析结果反馈给所述客户端;
所述数据库,用于存储红外摄像设备采集的图像、所述服务端反馈的分析结果。
本发明的方法所采用的技术方案是:一种基于深度学习的睑板腺红外图像辅助识别方法,其特征在于,包括以下步骤:
步骤1:客户端将红外摄像设备采集的睑板腺图像上传给所述服务端;
步骤2:服务端接收睑板腺图像作为参数,调用Mask R-CNN卷积神经网络模型进行识别分析;将分析结果反馈给客户端;
步骤3:客户端接收并显示分析结果;
步骤4:操作人员根据客户端显示的分析结果进行下一步操作。
本发明的有益效果为:通过本发明可以对睑板腺图像所记录的部位图像进行识别,当发现结构异常的病变部位时,系统提示操作者,并启用“类激活图覆盖技术”,自动识别并标记异常范围,同时计算异常范围占比,节约操作者时间,精细化检查报告结果,为个体化治疗提供可靠依据,为提高干眼检出率和改善预后提供帮助。
附图说明
图1为本发明实施例的系统结构图;
图2为本发明实施例的卷积神经网络模型的训练过程流程图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明提供的一种基于深度学习的睑板腺红外图像辅助识别系统,包括客户端、服务端、数据库;
客户端,用于将红外摄像设备采集的睑板腺图像上传给服务端,并接收和显示服务端反馈的分析结果;
本实施例至少包括一个客户端,用于监测并通过网络上传当前眼表分析设备采集的睑板腺图像,接收和显示反馈的分析结果。每个客户端均包括通信模块和图像演示模块;其中,通信模块用于发送请求到服务端,及从服务端货去分析结果,具体实现为http通信方式,图像演示模块用于根据获取的分析结果,调用表示各部分的图片和部位特征的标记进行叠加展示。本实施案例中,图像演示模块包括一张睑板腺整体的背景示意图;十张用于表示各个部位的PNG格式的示意图;用于表示存在结构异常(即部位特征)的红点图片。根据服务端发回的信息调用表示各部位的图片和结构异常(即部位特征)的红点图片在背景示意图上覆盖以表示睑板腺照相已覆盖的部位及存在结构异常的部位。
服务端,根据从客户端采集的图像,即时判断图像对应的部位以及部位特征,将分析结果反馈给客户端;
本实施例的服务端包括样本数据库、Mask R-CNN卷积神经网络和Web服务模块;
样本数据库用于存储典型的睑板腺图像的样本,包括合格图片库、部位库和部位特征库,合格图片库中存储的是拍摄清楚的睑板腺图像,部位库中存储的是对合格图片的物体形态进行部位标注的睑板腺图像,部位特征库中存储的是对合格图片中睑板腺图像进行异常结构标注的睑板腺图像。通常一份完整的睑板腺图像分析报告需要包含睫毛、上睑缘、上睑缘腺、上睑结膜、上睑睑板腺腺体、下睑睑板腺腺体、下睑结膜、下睑缘腺、下睑缘等部位的4张图片,若发现结构异常或可疑结构异常还需要对异常结构所占比例进行估算。因此,本实施例中,所述的部位库中包含所需要的所有部位,即:睫毛、上睑缘、上睑缘腺、上睑结膜、上睑睑板腺腺体、下睑睑板腺腺体、下睑结膜、下睑缘腺、下睑缘;在进行部位判断时,必须包含所有上述部位的睑板腺图像的识别,若缺少其中的部位,则发出提示给客户端。部位特征包括睑板腺结构丢失(包括上睑板腺结构丢失、下睑板腺结构丢失、睑板腺结构均丢失)、睑板腺结构正常、睑板腺开口堵塞。
Mask R-CNN卷积神经网络模型包括根据合格图片库、部位库和部位特征库训练好的三个模型:判别睑板腺图像是否合格模型、部位判断模型和部位特征识别模型,分别用于判别睑板腺图像是否合格、部位判断和部位特征识别;采用Python为主要开发语言,结合Keras、TensorFlow作为深度学习卷积神经网络底层的方式构建。卷积神经网络模型的训练过程如图2所示,卷积神经网络模型用于图像识别领域为常规技术手段,在此不再复述。
Web服务模块用于接收客户端的请求,将接收到的睑板腺图像作为参数调用卷积神经网络模型依次进行睑板腺图像是否合格、部位判断和部位特征识别的分析,得到分析结果反馈给客户端。
数据库,用于存储红外摄像设备采集的图像、服务端反馈的分析结果。
本发明提供的一种基于深度学习的睑板腺红外图像辅助识别方法,包括以下步骤:
步骤1:客户端将红外摄像设备采集的睑板腺图像上传给服务端;
本实施例中,当红外摄像设备进行图像采集,客户端被触发获取所采集的睑板腺图像,并上传至服务端。具体而言,当用户踩踏脚踏板或点击相应按钮时会触发摄像系统的图像采集,客户端则被触发。
步骤2:服务端接收睑板腺图像作为参数,调用Mask R-CNN卷积神经网络模型进行识别分析;将分析结果反馈给客户端;
首先判断睑板腺图像是否为合格图片,若不合格则输出分析结果为不合格。具体来说,判断睑板腺图像是否清晰完整,能够提供有用的诊断信息,若合格则继续进行判断,若为不合格图片则跳过其它步骤直接输出结果“不合格”。
当睑板腺图像判断为合格图片后,识别该睑板腺图像中的具体部位并输出。所述的部位包括睫毛、上睑缘、上睑缘腺、上睑结膜、上睑睑板腺腺体、下睑睑板腺腺体、下睑结膜、下睑缘腺、下睑缘;在进行部位判断时,必须包含所有上述部位的睑板腺图像的识别,若缺少其中的部位,则发出提示。
识别出具体部位后的睑板腺图像,进一步识别部位特征并输出。
当检测到异常部位时,启用“类激活图覆盖技术”,准确提取并储存异常部位的图像,圈出异常范围,实时显示异常的部位及范围,将分析结果反馈给客户端。
“类激活图覆盖技术”,是将输出层的权重投影回卷积特征映射来识别图像的重要区域,全局平均汇集输出最后一个卷积层每个单元的特征映射的空间平均值,计算最后一个卷积图层的特征图的加权和以获得类激活图;类激活图的颜色深度与预测的置信度正相关。
步骤3:客户端接收并显示分析结果;
根据获取的分析结果,调用表示各部位的图片和部位特征的标记进行叠加展示。在本实施例中,客户端根据服务端发回的分析结果调用表示各部位(即睫毛、上睑缘、上睑缘腺、上睑结膜、上睑睑板腺腺体、下睑睑板腺腺体、下睑结膜、下睑缘腺、下睑缘)的图片和异常结构红点(即部位特征的标记)图片在背景示意图上覆盖以表示眼表分析操作已检查的部位及存在异常结构的部位。
步骤4:操作人员根据客户端显示的分析结果进行下一步操作;
客户端提示存在检查部位存在异常时,根据“类激活图覆盖技术”实时显示异常部位的范围,操作者可以进一步详细检查提示部位,必要时可以结合共聚焦检查结果观察细胞结构,以达到确诊和个体化治疗的目标。
当分析结果为不合格时,继续采集睑板腺图像;当识别出的具体部位不够完整时继续采集遗漏的部位;当识别出的具体部位完整时,结束操作。
本实施例的客户端实时记录采集的睑板腺图像的数量、服务端发回的部位数量及部位特征数量,并进行显示,对部位特征占全部部位比例进行精确计算。
本发明具有如下优点:解决睑板腺图像估算粗略,占用医师时间精力、且结果不准确的问题,通过卷积神经网络模型对于采集的睑板腺图像进行即时识别图片质量、识别部位和部位特征的识别,在图像显示系统上进行实时提示,为医师提供准确可靠的参考,提高检测的准确度和有效性,简单易用,具有显著的社会及经济价值。一个服务器能够对应若干个客户端,每个客户端对应一台眼表分析设备。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (9)
1.一种基于深度学习的睑板腺红外图像辅助识别系统,其特征在于:包括客户端、服务端、数据库;
所述客户端,用于将红外摄像设备采集的睑板腺图像上传给所述服务端,并接收和显示所述服务端反馈的分析结果;
所述服务端,根据从所述客户端采集的图像,即时判断图像对应的部位以及部位特征,将分析结果反馈给所述客户端;
所述数据库,用于存储红外摄像设备采集的图像、所述服务端反馈的分析结果。
2.根据权利要求1所述的基于深度学习的睑板腺红外图像辅助识别系统,其特征在于:所述服务端包括样本数据库、Mask R-CNN卷积神经网络和Web服务模块;
所述样本数据库用于存储睑板腺图像的样本,包括合格图片库、部位库和部位特征库;所述合格图片库中存储的是拍摄清晰的高分辨率红外图像,所述部位库中存储的是对合格图片中物体形态进行部位标注的红外图像,所述部位特征库中存储的是对合格图片中的红外图像进行病变标注的图像;
所述Mask R-CNN卷积神经网络模型,包括根据合格图片库、部位库和部位特征库训练好的三个模型:判别睑板腺图像是否合格模型、部位判断模型和部位特征识别模型,分别用于判别睑板腺图像是否合格、部位判断和部位特征识别;
所述Web服务板块,用于接收所述客户端的请求,将接收到的睑板腺图像作为参数调用卷积神经网络模型进行睑板腺图像是否合格辨别、部位判断及部位特征识别的分析,将分析结果反馈给客户端。
3.权利要求2所述的基于深度学习的睑板腺红外图像辅助识别系统,其特征在于:所述部位库中存储的是对合格图片中物体形态进行部位标注的红外图像,部位包括睫毛、上睑缘、上睑缘腺、上睑结膜、上睑睑板腺腺体、下睑睑板腺腺体、下睑结膜、下睑缘腺、下睑缘。
4.权利要求2所述的基于深度学习的睑板腺红外图像辅助识别系统,其特征在于:所述部位特征库中存储的是对合格图片中的红外图像进行病变标注的图像,其中部位特征包括睑板腺结构丢失、睑板腺结构正常、睑板腺开口堵塞;睑板腺结构丢失包括上睑板腺结构丢失、下睑板腺结构丢失、睑板腺结构均丢失。
5.权利要求1-4任意一项所述的基于深度学习的睑板腺红外图像辅助识别系统,其特征在于:所述客户端包括通信模块和图像演示模块;
所述通信模块用于发送请求到服务端,及从服务端获取分析结果;
所述图像演示模块用于根据获取的分析结果,调用表示各部位的图片和部位特征的标记进行叠加展示。
6.一种基于深度学习的睑板腺红外图像辅助识别方法,其特征在于,包括以下步骤:
步骤1:客户端将红外摄像设备采集的睑板腺图像上传给所述服务端;
步骤2:服务端接收睑板腺图像作为参数,调用Mask R-CNN卷积神经网络模型进行识别分析;将分析结果反馈给客户端;
步骤3:客户端接收并显示分析结果;
步骤4:操作人员根据客户端显示的分析结果进行下一步操作。
7.根据权利要求6所述的基于深度学习的睑板腺红外图像辅助识别方法,其特征在于:步骤2中,首先判断睑板腺图像是否为合格图片,若不合格则输出分析结果为不合格;当睑板腺图像判断为合格图片后,识别该图像中的具体部位和部位特征并输出;当检测到异常部位时,启用“类激活图覆盖技术”,准确提取并储存异常部位的图像,圈出异常范围,实时显示异常的部位及范围,将分析结果反馈给客户端。
8.根据权利要求7所述的基于深度学习的睑板腺红外图像辅助识别方法,其特征在于:所述“类激活图覆盖技术”,是将输出层的权重投影回卷积特征映射来识别图像的重要区域,全局平均汇集输出最后一个卷积层每个单元的特征映射的空间平均值,计算最后一个卷积图层的特征图的加权和以获得类激活图;类激活图的颜色深度与预测的置信度正相关。
9.根据权利要求6-8任意一项所述的基于深度学习的睑板腺红外图像辅助识别方法,其特征在于:步骤4中,客户端提示存在检查部位存在异常时,根据“类激活图覆盖技术”实时显示异常部位的范围,操作者进一步详细检查提示部位,结合共聚焦检查结果观察细胞结构,以达到确诊和个体化治疗的目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811430905.7A CN109599166A (zh) | 2018-11-28 | 2018-11-28 | 基于深度学习的睑板腺红外图像辅助识别系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811430905.7A CN109599166A (zh) | 2018-11-28 | 2018-11-28 | 基于深度学习的睑板腺红外图像辅助识别系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109599166A true CN109599166A (zh) | 2019-04-09 |
Family
ID=65960451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811430905.7A Pending CN109599166A (zh) | 2018-11-28 | 2018-11-28 | 基于深度学习的睑板腺红外图像辅助识别系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109599166A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111127431A (zh) * | 2019-12-24 | 2020-05-08 | 杭州求是创新健康科技有限公司 | 一种基于区域自适应多任务神经网络的干眼症分级评估系统 |
CN111160238A (zh) * | 2019-12-27 | 2020-05-15 | 上海杏脉信息科技有限公司 | 显微图像质量分析方法、训练方法、系统、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080081996A1 (en) * | 2006-09-29 | 2008-04-03 | Grenon Stephen M | Meibomian gland imaging |
CN102682305A (zh) * | 2012-04-25 | 2012-09-19 | 深圳市迈科龙医疗设备有限公司 | 宫颈液基细胞学自动筛查方法和系统 |
CN105996986A (zh) * | 2016-04-21 | 2016-10-12 | 厦门大学 | 一种基于多光谱检测人眼睑板腺模型的装置及其方法 |
CN106530294A (zh) * | 2016-11-04 | 2017-03-22 | 中山大学中山眼科中心 | 一种对睑板腺图像进行处理以获得腺体参数的信息的方法 |
CN107563123A (zh) * | 2017-09-27 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 用于标注医学图像的方法和装置 |
CN107967946A (zh) * | 2017-12-21 | 2018-04-27 | 武汉大学 | 基于深度学习的胃镜操作实时辅助系统及方法 |
CN108695001A (zh) * | 2018-07-16 | 2018-10-23 | 武汉大学人民医院(湖北省人民医院) | 一种基于深度学习的癌症病灶范围预测辅助系统及方法 |
-
2018
- 2018-11-28 CN CN201811430905.7A patent/CN109599166A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080081996A1 (en) * | 2006-09-29 | 2008-04-03 | Grenon Stephen M | Meibomian gland imaging |
CN102682305A (zh) * | 2012-04-25 | 2012-09-19 | 深圳市迈科龙医疗设备有限公司 | 宫颈液基细胞学自动筛查方法和系统 |
CN105996986A (zh) * | 2016-04-21 | 2016-10-12 | 厦门大学 | 一种基于多光谱检测人眼睑板腺模型的装置及其方法 |
CN106530294A (zh) * | 2016-11-04 | 2017-03-22 | 中山大学中山眼科中心 | 一种对睑板腺图像进行处理以获得腺体参数的信息的方法 |
CN107563123A (zh) * | 2017-09-27 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 用于标注医学图像的方法和装置 |
CN107967946A (zh) * | 2017-12-21 | 2018-04-27 | 武汉大学 | 基于深度学习的胃镜操作实时辅助系统及方法 |
CN108695001A (zh) * | 2018-07-16 | 2018-10-23 | 武汉大学人民医院(湖北省人民医院) | 一种基于深度学习的癌症病灶范围预测辅助系统及方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111127431A (zh) * | 2019-12-24 | 2020-05-08 | 杭州求是创新健康科技有限公司 | 一种基于区域自适应多任务神经网络的干眼症分级评估系统 |
CN111160238A (zh) * | 2019-12-27 | 2020-05-15 | 上海杏脉信息科技有限公司 | 显微图像质量分析方法、训练方法、系统、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110021009A (zh) | 一种评估眼底图像质量的方法、装置及存储介质 | |
CN107967946B (zh) | 基于深度学习的胃镜操作实时辅助系统及方法 | |
US10115191B2 (en) | Information processing apparatus, information processing system, information processing method, program, and recording medium | |
CN102626305B (zh) | 图像处理设备和图像处理方法 | |
CN109615633A (zh) | 一种基于深度学习的肠镜下克罗恩病辅助诊断系统及方法 | |
CN106780814A (zh) | 一种教室内使用的全程自动考勤系统 | |
CN108553081A (zh) | 一种基于舌苔图像的诊断系统 | |
AU2018438719A1 (en) | Fundus image automatic analysis and comparison method and storage device | |
WO2014186838A1 (en) | A system and method for remote medical diagnosis | |
CN109411084A (zh) | 一种基于深度学习的肠结核辅助诊断系统及方法 | |
CN103717122A (zh) | 眼科诊断支持设备和眼科诊断支持方法 | |
CN109684981A (zh) | 青光眼图像识别方法、设备和筛查系统 | |
CN111127848A (zh) | 一种人体坐姿检测系统及方法 | |
CN109273088A (zh) | 一种基于物联网和云计算的快速智能体检系统 | |
CN112472089A (zh) | 一种基于眼动技术判断心理测试可靠性的系统及方法 | |
CN109599166A (zh) | 基于深度学习的睑板腺红外图像辅助识别系统及方法 | |
CN110660454A (zh) | 一种癌痛实时评估仪及其评估方法 | |
CN111553189A (zh) | 基于视频信息的数据验证方法、装置及存储介质 | |
CN111402184B (zh) | 一种实现远程眼底筛查和健康服务的方法和系统 | |
WO2022247067A1 (zh) | 智能视力测试方法、装置及系统 | |
CN109411092A (zh) | 基于深度学习的睑板腺共聚焦显微镜智能分析评估系统及方法 | |
CN108962356A (zh) | 基于深度学习的肠镜操作实时辅助系统及其操作方法 | |
CN109199334B (zh) | 一种基于深度神经网络的舌象体质辨别方法及设备 | |
CN114220543A (zh) | 一种肿瘤患者身心痛苦指数评估方法以及系统 | |
CN115035086A (zh) | 一种基于深度学习的结核皮试智能筛查分析方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190409 |
|
RJ01 | Rejection of invention patent application after publication |