CN110210286A - 基于眼底图像的异常识别方法、装置、设备及存储介质 - Google Patents

基于眼底图像的异常识别方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN110210286A
CN110210286A CN201910308163.9A CN201910308163A CN110210286A CN 110210286 A CN110210286 A CN 110210286A CN 201910308163 A CN201910308163 A CN 201910308163A CN 110210286 A CN110210286 A CN 110210286A
Authority
CN
China
Prior art keywords
eye fundus
fundus image
training
image
high myopia
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910308163.9A
Other languages
English (en)
Other versions
CN110210286B (zh
Inventor
王关政
王立龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910308163.9A priority Critical patent/CN110210286B/zh
Priority claimed from CN201910308163.9A external-priority patent/CN110210286B/zh
Publication of CN110210286A publication Critical patent/CN110210286A/zh
Application granted granted Critical
Publication of CN110210286B publication Critical patent/CN110210286B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本申请属于检测技术领域,公开了一种基于眼底图像的异常识别方法、装置、设备及存储介质。该方法包括获取眼底图像;将眼底图像输入到预先训练好的二分类模型,获取二分类模型响应眼底图像而输出的是否为高度近视的眼底图像的判断结果;将判断结果确认为高度近视的眼底图像输入到预先训练好的异常检测模型中,获取异常检测模型响应所述高度近视的眼底图像而输出的识别结果,所述识别结果包括所述高度近视的眼底图像中包含异常或不包含异常;基于所述识别结果,输出检测结论。该方法能够更加准确的分类高度近视和非高度近视;并通过训练过的异常检测模型对分类后的高度近视图像进行眼底异常检测,作为眼底诊断的中间结果,可应用于临床分析。

Description

基于眼底图像的异常识别方法、装置、设备及存储介质
技术领域
本申请属于图像检测技术领域,涉及基于眼底图像的异常识别方法、装置、 设备及存储介质。
背景技术
近视是指在调节放松的状态下,平行光线经眼球屈光系统后聚焦在视网膜 之前,在视网膜上不能清晰成像。屈光度为-6D(D指屈光度)或以上的近视眼 为高度近视。根据世界卫生组织的调查统计显示,到2020年我国人口的近视发 生率将会高达50%,其中高度近视人口将会高达7000万。近视眼的形成原因比 较复杂,有先天遗传原因和后天环境因素。父母双方若有一方为高度近视,子 女遗传率为56%,若双方均为高度近视,遗传率为100%。而环境因素是可以通 过改善用眼环境和注意养成良好用眼习惯来加强对近视的预防。
目前人们检查高度近视通常需要到大医院进行散瞳、裂隙灯、眼底彩照等 一系列检查,时间长,费用贵,检查者痛苦不堪。现有的其他检查高度近视的 方法通常时间慢、检测费用高、实用性低。例如CN 102251045A一种检测高度 近视的筛查试剂盒,该方法采用昂贵的化学试剂对基因组进行检测,观察检查 者的基因是否变异。该方法费用昂贵,且需要检查者的DNA,检查者无法立即获 得结果。
发明内容
本申请实施例公开了一种基于眼底图像的的异常识别方法、装置、设备及 存储介质,旨在实现能够实时获得高度近视识别结果以及当确定为高度近视时 进一步识别是否发生眼底异常的目的,并且降低成本、提升检测效率。
本申请的一些实施例公开了一种基于眼底图像的异常识别方法,包括获取 眼底图像;
将所述眼底图像输入到预先训练好的二分类模型,获取所述二分类模型响应 所述眼底图像而输出的是否为高度近视的眼底图像的判断结果;
将判断结果确认为高度近视的眼底图像输入到预先训练好的异常检测模型 中,获取所述异常检测模型响应所述高度近视的眼底图像而输出的识别结果, 所述识别结果包括所述高度近视的眼底图像中包含异常或不包含异常;
基于所述识别结果,输出检测结论。
进一步的,所述将所述眼底图像输入到预先训练好的二分类模型,获取所 述二分类模型响应所述眼底图像而输出的是否为高度近视的眼底图像的判断结 果的步骤具体包括:
将所述眼底图像输入到预先训练好的二分类模型,进行特征提取和特征分 类;
基于所述特征提取和特征分类,输出所述眼底图像属于高度近视类别的概 率;
将输出所述眼底图像属于高度近视类别的概率与预设阈值进行比较;
若概率高于预设阈值,则判断结果为高度近视的眼底图像;
若概率小于或等于预设阈值,则判断结果为非高度近视的眼底图像。
进一步的,所述方法还包括:
获取标记有高度近视的样本图像和非高度近视的样本图像;
将所述标记有高度近视的样本图像和非高度近视的样本图像分别按预设比 例随机组成训练样本集和测试样本集,所述训练样本集和测试样本集中均包含 至少一个高度近视的样本图像和至少一个非高度近视的样本图像,其中,训练 样本集的高度近视样本图像和非高度近视样本图像的比例大于测试样本集的高 度近视样本图像和非高度近视样本图像的比例;
将训练样本集和测试样本集分别输入到设置好初始参数的二分类模型进行 训练,记录训练样本集每一个训练回合的损失函数值,并基于训练样本集中的 训练回合个数和损失函数值绘制训练损失函数曲线图,记录测试样本集每一个 训练回合的损失函数值,并基于测试样本集中训练回合个数和损失函数值绘制 测试损失函数曲线图;
确定训练损失函数是否收敛;
在训练损失函数收敛时,选取训练损失函数曲线图和测试损失函数曲线图 相交的交点中训练损失函数值最小、且确保所述交点后的测试损失函数值维持 平稳所对应的训练回合下的参数模型作为训练好的二分类模型。
进一步的,
所述确定训练损失函数是否收敛的步骤具体包括:
当训练损失函数曲线图逐渐降低直到基本保持平稳不再降低时,确定训练 损失函数收敛;
当达到预设训练回合个数,训练损失函数仍无法收敛时,增加训练回合个 数至训练损失函数收敛为止。
可选的,所述预先训练好的异常检测模型通过以下步骤进行训练:
获取标注有异常区域的高度近视眼底图像样本;
将眼底图像样本按照预设比例随机分成训练集和验证集,其中训练集中的 眼底图像的数量比验证集的眼底图像的数量多;
将训练集输入到YOLOv3模型进行训练,直到达到预设的迭代次数停止训练;
记录训练集每一次迭代的损失函数值,并基于训练集中的迭代次数和损失 函数值绘制训练损失函数曲线图,确定损失函数收敛时所对应的迭代次数的合 格范围;
将验证集的每一张图像输入迭代次数在合格范围内的每一个YOLOv3网络模 型;
选取识别效果最好的迭代次数值对应的YOLOv3网络模型作为训练好的异常 检测模型。
进一步的,所述获取标注有异常区域的高度近视眼底图像样本的步骤之前, 还包括:
获取有异常的高度近视眼底图像作为训练样本;
利用图像标注工具在每个图像中框选出异常区域,得到VOC格式的xml文 件;
将xml文件转换为YOLO格式的txt文件。
进一步的,所述基于所述识别结果,输出检测结论的步骤包括:
当识别结果为所述高度近视的眼底图像中不包含异常,则输出眼底图像未 见异常的结论;
如果识别结果为所述待高度近视的眼底图像中包含异常,则输出包括异常 的位置、类型、数量信息的眼底图像异常的结论。
本申请的一些实施例还公开了一种基于眼底图像的异常识别装置,包括: 眼底图像获取模块,用于获取眼底图像;
高度近视识别模块,用于将眼底图像输入到预先训练好的二分类模型,获 取所述二分类模型响应所述眼底图像而输出的是否为高度近视的眼底图像的判 断结果;
异常识别模块,用于将判断结果确认为高度近视的眼底图像输入到预先训 练好的异常检测模型中,获取所述异常检测模型响应所述高度近视的眼底图像 而输出的识别结果,所述识别结果包括所述高度近视的眼底图像中包含异常或 不包含异常;
结论输出模块,用于基于所述识别结果,输出检测结论。
本申请的一些实施例还公开了一种计算机设备,所述存储器中存储有计算 机程序,所述处理器执行所述计算机程序时实现如前所述基于眼底图像的异常 识别方法的步骤。
本申请的一些实施例还公开了一种计算机可读存储介质,所述计算机可读 存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述 基于眼底图像的异常识别方法的步骤。
与现有技术相比,本申请公开的技术方案主要有以下有益效果:
在本申请的实施例中,使用深度学习的二分类模型可以很好的学习到高度 近视眼底的结构,可以迅速、准确的分类高度近视和非高度近视;并通过训练 过的异常检测模型对分类后的高度近视图像进行眼底异常检测,作为眼底诊断 的中间结果,可应用于临床分析,操作简便、迅速,费用低廉。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使 用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些 实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还 可以根据这些附图获得其它的附图。
图1为本申请实施例提供的基于眼底图像的异常识别方法的示意图;
图2为本申请提供的训练得到二分类模型的一种实施方式的流程图;
图3为图2中的训练和测试损失函数曲线示意图;
图4为本申请提供的训练得到异常检测模型的一种实施方式的流程图;
图5为图4中的迭代次数(iteration)值与损失函数(loss)值之间的曲 线图示意图;
图6为本申请实施例所述基于眼底图像的异常识别装置的示意图;
图7为本申请实施例中计算机设备100基本结构框图。
具体实施方式
为了便于理解本申请,下面将参照相关附图对本申请进行更全面的描述。 附图中给出了本申请的较佳实施例。但是,本申请可以以许多不同的形式来实 现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本 申请的公开内容的理解更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术 领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术 语只是为了描述具体的实施例的目的,不是旨在于限制本申请。
本申请实施例提供了一种基于眼底图像的异常识别方法。
参阅图1,为本申请实施例提供的基于眼底图像的异常识别方法的示意图;
如图1中所示意的,所述基于眼底图像的异常识别方法包括:
S101.获取眼底图像。
其中,拍摄眼底图像中的设备可以为OCT(英文全称:Optical Coherencetomography,光学相干层析技术)眼底扫描设备,所述眼底图像是包括黄斑区 和视盘区的Bscan(水平方向扫描)图像,具体地,服务器可以在OCT眼底扫描 设备拍摄检查者的眼底图像之后,获取OCT眼底扫描设备发送至服务器的该眼 底图像,以使预先训练好的二分类模型和异常检测模型对所述眼底图像进行识 别,可理解地,OCT眼底扫描设备拍摄的检查者的眼底图像之后,可以直接存储 至服务器的数据库中,以供后续进行检测时直接进行调取即可。
S102.将所述眼底图像输入到预先训练好的二分类模型,获取所述二分类 模型响应所述眼底图像而输出的是否为高度近视的眼底图像的判断结果。
具体的,S102步骤包括:
将眼底图像输入到预先训练好的二分类模型,进行特征提取和特征分类;
基于所述特征提取和特征分类,输出所述眼底图像属于高度近视类别的概 率;
将输出所述眼底图像属于高度近视类别的概率与预设阈值进行比较;
若概率高于预设阈值,则判断结果为高度近视的眼底图像;
若概率小于或等于预设阈值,则判断结果为非高度近视的眼底图像。
在本申请的一些实施例中,所述基于眼底图像的异常识别方法还包括:经 过训练得到二分类模型。
请参阅图2,图2为本申请提供的训练得到二分类模型的一种实施方式的流 程图;
训练深度学习网络可以理解成让计算机不断尝试深度学习网络的参数,也 就是神经网络的卷积核的参数。神经网络的参数可能有一百万个以上。训练的 过程就是每一步微微调整一下参数,使损失函数的值不断降低直到无法降低为 止,损失函数的值无限趋近于某一值,也称为损失函数收敛。
在本实施方式中,所述预先训练好的二分类模型是通过以下步骤进行训练:
S201.获取标记有高度近视的样本图像和非高度近视的样本图像。
S202.将所述标记有高度近视的样本图像和非高度近视的样本图像分别按 预设比例随机组成训练样本集和测试样本集,所述训练样本集和测试样本集中 均包含至少一个高度近视的样本图像和至少一个非高度近视的样本图像,其中, 训练样本集的高度近视样本图像和非高度近视样本图像的比例大于测试样本集 的高度近视样本图像和非高度近视样本图像的比例。
其中,可以由像医生一样的专业人士对OCT扫描的黄斑区BScan(B型扫描) 图像进行分类,分为高度近视和非高度近视两类图像。再进一步将两类图像分 别按照预设比例随机分成两部分,一部分为训练集一部分为测试集,共得到高度 近视的训练样本集、测试样本集和非高度近视的训练样本集、测试样本集四类 样本集,训练样本集中高度近视图像和非高度近视图像的比例要大于测试样本 集中的高度近视图像和非高度近视图像。具体的,例如将5000张高度近视图像 中例如70%作为训练样本集,30%作为测试样本集,同样的将5000张非高度近视 图像中也按训练样本集占70%,测试样本集占30%的比例随机分成两部分,当然 也可以按照其他比例例如训练样本集60%和测试样本集40%等。将高度近视的训 练样本集、测试样本集和非高度近视的训练样本集、测试样本集分别存储在指 定的数据库中,根据配置好的图片路径获取图像。
其中,高度近视图像和非高度近视图像的比例一致时训练效果更优。
S203.将训练样本集和测试样本集分别输入到设置好初始参数的二分类模 型进行训练,记录训练样本集每一个训练回合的损失函数值,并基于训练样本 集中的训练回合个数和损失函数值绘制训练损失函数曲线图,记录测试样本集 每一个训练回合的损失函数值,并基于测试样本集中训练回合个数和损失函数 值绘制测试损失函数曲线图。
具体的,在本实施例中,二分类模型通过基于深度学习的卷积神经网络构 建而成;具体采用resnet50模型(resnet全称residual network,即残差网 络结构),在其他一些实施例中,可以使用mobilenet模型(MobileNets是Google 针对手机等嵌入式设备提出的一种轻量级的深层神经网络),resnet50模型和 mobilenet模型都是用于图像分类的预训练模型。
设置的初始参数包括学习率(初始学习率为0.045)、衰减方式(每个epoch 后衰减0.98)、批处理图像数量(32)、训练次数(300个epochs)、图像尺 寸(224*224)、激活函数(softmax(归一化指数函数))、初始模型参数 (pre-trained model(预训练模型)),loss函数(categorical_crossentropy (多分类的对数损失函数))等等。
S204.确定训练损失函数是否收敛。
S204步骤具体包括:
当训练损失函数曲线图逐渐降低直到基本保持平稳不再降低时,确定训练 损失函数收敛;
当达到预设训练回合个数,训练损失函数仍无法收敛时,增加训练回合个 数至训练损失函数收敛为止。由于训练回合个数设置不合理,导致还没有收敛 就训练结束,增加训练回合个数至训练损失函数收敛为止。
S205.在训练损失函数收敛时,选取训练损失函数曲线图和测试损失函数曲 线图相交的交点中训练损失函数值最小、且确保所述交点后的测试损失函数值 维持平稳所对应的训练回合下的参数模型作为训练好的二分类模型。
具体的,请参考图3,图3为图2中的训练和测试损失函数曲线示意图;
其中,横坐标为epoch值,纵坐标为loss值,如图3所示,右上角标注为 “loss”的曲线为训练损失函数曲线图,标注为“val_loss”为测试损失函数 曲线图。
具体的,随着不断的训练,训练损失函数曲线图中的loss值一直在慢慢 收敛但由于该二分类模型中设置有early stop(早停止)机制,early stop(早停 止)机制指当训练过程中如果10(可以设置为其他数值)个epoch的loss值相 差很小,说明训练效果已经很好了,再训练训练损失函数也难继续降低了,再 训练就没有意义了,所以就会停止训练。从图中可以大概看出epoch从100时 开始一直收敛直到160时停止训练,但是从数据记录中发现loss值不断降低, 且142以后测试损失函数曲线图中的val_loss值基本上维持平稳,直到160 由于早停机制而停止训练,因此本实施例中的epoch在140~160为最优的二分 类模型参数。
S103.将判断结果确认为高度近视的眼底图像输入到预先训练好的异常检 测模型中,获取所述异常检测模型响应所述高度近视的眼底图像而输出的识别 结果,所述识别结果包括所述高度近视的眼底图像中包含异常或不包含异常。
由于高度近视的眼底异常和非高度近视的眼底异常差异较大,例如色素上 皮层萎缩异常、色素上皮层不规则等在高度近视和非高度近视中都可能出现, 但是在高度近视和非高度近视中异常差异比较大,例如说色素上皮层萎缩在非 高度近视中就是表现变薄,甚至萎缩成一条线,但是在高度近视中就会伴有白 色的区域,且有一些异常例如视网膜劈裂、后巩膜葡萄肿(视网膜劈裂和后巩 膜葡萄肿是对异常的一种描述)等只会在高度近视眼底出现。所以本申请针对 高度近视异常训练了一个检测高度近视眼底图像中是否包含有异常的异常检测 模型,具体的,通过将标注过的OCT扫描的高度近视黄斑区Bscan眼底图像送 入深度学习的目标检测网络YOLOv3中进行训练,学习到高度近视图像的异常位 置、形状、灰度等特征,实现高度近视异常的自动检测。
YOLO,是You Only Look Once的缩写,中文是目标检测,YOLO目标检测 网络基于深度卷积网络学习的特征,以检测目标物体,YOLO v3是YOLO的第3 个版本,检测算法相比前两个版本更快更准。
具体的,在本实施例中,所述预先训练好的异常检测模型的输入的识别对 象为高度近视的眼底图像,所述预先训练好的异常检测模型的输出为所述识别 结果。
参阅图4,图4为本申请实施例提供的训练得到异常检测模型的流程图;所 述预先训练好的异常检测模型是通过以下步骤进行训练:
S401.获取并标注有异常区域的高度近视眼底图像样本。
其中,所述眼底图像样本可以是预先存储在数据库中的多个高度近视而且 已被标注出异常区域的眼底图像。且每一个所述眼底图像样本均对应于一个识 别结果。
所述获取标注有异常区域的高度近视眼底图像样本的步骤之前,还包括:
获取有异常的高度近视眼底图像作为训练样本;
利用图像标注工具在每个图像中框选出异常区域,得到VOC格式的xml文 件;
将xml文件转换为YOLO格式的txt文件。
具体的,在本实施例中,利用图像标注工具Labelmaster(Labemaster是 一种图像识别打标签工具的名字,功能与LabelImg类似)对所有眼底图像中4 种类型的异常区域进行标注。具体方法是:在每个图片中框选出异常区域,得 到VOC(英文全称:Visual OnlineCommunication,视觉在线通讯)格式的xml (英文全称:Extensible Markup Language,可扩展标记语言)文件,将xml文 件转换为YOLO格式的txt(英文全称:Text txt即文本文件)文件。
其中,本实施例中的4类异常为色素上皮层萎缩异常、色素上皮层不规则、 视网膜劈裂以及后巩膜葡萄肿。
当然在其他实施例中,还可以用其他异常类别的眼底图像进行训练进而用 于其他异常类别的检测识别。
在其他一些实施例中,还可以次采用图像标注工具LabelImg(一种图像识 别打标签工具)进行标注。
S402.将眼底图像按照预设比例随机分成训练集和验证集,其中训练集中的 眼底图像的数量比验证集的眼底图像的数量多。
其中,训练集用来训练所需YOLOv3网络模型,验证集用来测试所训练出来 的模型的性能。
具体的,本实施例中选取2000张高度近视但是没有高度近视异常的眼底图 像和2000张高度近视且发生有高度近视异常的眼底图像,其中有高度近视异常 的眼底图像共包括4类异常,每个异常各400张眼底图像。将2000张高度近视 但是没有高度近视异常的眼底图像按比例随机分成1600张做训练集,400张做 验证集,再把高度近视异常的眼底图像的每个类别的异常各按照比例随机分成 400张作为训练集和100张作为验证集。
S403.将训练集输入到YOLOv3模型进行训练,直到达到预设的迭代次数停 止训练。
具体的,将训练集输入到YOLOv3深度学习网络(Redmon J,FarhadiA.YOLOv3:AnIncremental Improvement[J].2018.)中训练。
YOLOv3使用在ImageNet数据集上预训练好的模型参数(文件名称:darknet53.conv.74,大小76MB)基础上继续训练,采用小批量随机梯度下降算 法,并设置初始化学习率为0.001,批处理图像数量64,类别设为5,权重衰减 设置为0.0005,最大迭代次数设为50000。
ImageNet数据集是一种数据集,是目前深度学习图像领域应用得非常多的 一个领域,关于图像分类、定位、检测等研究工作大多基于此数据集展开; Imagenet数据集文档详细,有专门的团队维护,使用非常方便,在计算机视觉 领域研究论文中应用非常广,几乎成为了目前深度学习图像领域算法性能检验 的“标准”数据集;Imagenet数据集有1400多万幅图片,涵盖2万多个类别; 其中有超过百万的图片有明确的类别标注和图像中物体位置的标注。
S404.记录训练集每一次迭代的损失函数值,并基于训练集中的迭代次数和 损失函数值绘制训练损失函数曲线图,确定损失函数收敛时所对应的迭代次数 的合格范围。
参阅图5,图5为本申请一实施例中训练得出来的迭代次数(iteration) 值与损失函数(loss)值之间的曲线图示意图。具体的,本实施例中的loss曲 线为cross entropy(交叉熵损失函数)。其中,横坐标为iteration(迭代次 数)值,纵坐标为loss值。
从图中可以大概看出loss值不断的降低后面基本上保持平稳无法接着降 低,从模型训练的数据记录中发现迭代次数40000~50000的YOLOv3网络模型 无法继续降低,因此可以将40000~50000作为合格范围。
S405.将验证集的每一张图像输入迭代次数在合格范围的每一个YOLOv3网 络模型。
这里只需要将批处理图像数量(也就是batchSize)从64改为1,其他都 不变。实际上就是将验证集的每一张图像输入iteration值在40000~50000的 每一个YOLOv3网络模型,看哪一个iteration值对应的YOLOv3网络模型对眼 底图像的识别效果最好。
S406.选取识别效果最好的迭代次数值所对应的YOLOv3网络模型作为训练 好的异常检测模型。
在本实施例中,比较每个iteration下的YOLOv3网络模型对每一张图像的 识别出来的效果,最后发现45000的YOLOv3网络模型对异常图像的识别效果最 好。以所述iteration值为45000所对应的YOLOv3网络模型作为训练好的异常 检测模型。
S104.基于所述识别结果,输出检测结论。
具体的,输出的所述检测结论包括:
如果识别结果为所述待检测人员的眼底图像中不包含异常,就输出不包含 异常的结果;如果包含异常,就输出包括异常位置、类型、数量、大小(定性 结果,较大或较小)等信息的结果。
需要特别说明的是,在本申请中涉及的4种异常,例如色素上皮层萎缩异 常、色素上皮层不规则、视网膜劈裂以及后巩膜葡萄肿,均是为了描述并区分异 常而特别起的名称,并不能代表疾病的名称、种类,医生在看到输出的检测结论 时无法直接得出疾病的诊断结果,须要配合检查者的既往病史、家族、生活习惯、 甚至询问检查者最近是否做过什么特别事情,甚至有些异常需要做一些特殊检 查才能确定检查者是否患病。
比如说后巩膜葡萄肿这种异常,医生需要根据检查者的既往病史、眼底彩 照、基因等事项才可能确定检查者是否真的患病,后巩膜葡萄肿异常仅是中间 的辅助结果。在本申请的实施例中,使用深度学习的二分类模型可以很好的学 习到高度近视眼底的结构,可以迅速、准确的分类高度近视和非高度近视;并 通过训练好的异常检测模型对分类后的高度近视图像进行异常检测;作为眼底 诊断的中间结果,可应用于临床分析,操作简便、迅速,费用低廉。
本申请实施例提供了一种基于眼底图像的异常识别装置,参阅图6,图6为 本申请实施例所述基于眼底图像的异常识别装置的示意图;
所述基于眼底图像的异常识别装置包括:眼底图像获取模块1、高度近视识 别模块2、异常识别模块3、结论输出模块4。
眼底图像获取模块1,用于获取眼底图像。
高度近视识别模块2,用于将所述眼底图像输入到预先训练好的二分类模 型,获取所述二分类模型响应所述眼底图像而输出的是否为高度近视的眼底图 像的判断结果。
异常识别模块3,用于将判断结果确认为高度近视的眼底图像输入到预先训 练好的异常检测模型中,获取所述异常检测模型响应所述高度近视的眼底图像 而输出的识别结果,所述识别结果包括所述高度近视的眼底图像中包含异常或 不包含异常。
结论输出模块4,用于根据所述识别结果,输出检测结论。
在本申请的实施例中,使用深度学习的二分类模型可以很好的学习到高度 近视眼底的结构,可以迅速、准确的分类高度近视和非高度近视;并通过训练 过的异常检测模型对分类后的高度近视图像进行眼底异常检测,作为眼底诊断 的中间结果,可应用于临床分析,操作简便、迅速,费用低廉。
进一步的,高度近视识别模块2还包括:
特征提取模块(图未示),用于将所述眼底图像输入到预先训练好的二分 类模型,进行特征提取和特征分类。
输出图像属于的类别的概率模块(图未示),用于基于所述特征提取和特 征分类,输出所述眼底图像属于高度近视类别的概率。
阈值比对模块(图未示),用于将输出所述眼底图像属于高度近视类别的 概率与预设阈值进行比较;若概率高于预设阈值,则判断结果为高度近视的眼 底图像;若概率小于或等于预设阈值,则判断结果为非高度近视的眼底图像。
进一步的,本申请实施例还包括用于训练得到二分类模型的二分类模型训 练模块(图未示)。
二分类模型训练模块包括:
获取两类图像模块(图未示),用于获取标记有高度近视的样本图像和非 高度近视的样本图像。
制作样本集模块(图未示),用于将所述标记有高度近视的样本图像和非 高度近视的样本图像分别按预设比例随机组成训练样本集和测试样本集,所述 训练样本集和测试样本集中均包含至少一个高度近视的样本图像和至少一个非 高度近视的样本图像。其中,训练样本集的高度近视样本图像和非高度近视样 本图像的比例大于测试样本集的高度近视样本图像和非高度近视样本图像的比 例。
训练并绘制曲线模块(图未示),用于将训练样本集和测试样本集分别输 入到设置好初始参数的二分类模型进行训练,记录训练样本集每一个训练回合 的损失函数值,并基于训练样本集中的训练回合个数和损失函数值绘制训练损 失函数曲线图,记录测试样本集每一个训练回合的损失函数值,并基于测试样 本集中训练回合个数和损失函数值绘制测试损失函数曲线图。
确定收敛模块(图未示),用于确定训练损失函数是否收敛。
所述确定收敛模块还用于当训练损失函数曲线图逐渐降低直到基本保持平 稳不再降低时,确定训练损失函数收敛;
当达到预设训练回合个数,训练损失函数仍无法收敛时,增加训练回合个 数至训练损失函数收敛为止。
选取二分类模型模块(图未示),用于在训练损失函数收敛时,选取训练 损失函数曲线图和测试损失函数曲线图相交的交点中训练损失函数值最小、且 确保所述交点后的测试损失函数值维持平稳所对应的训练回合下的参数模型作 为训练好的二分类模型。
进一步的,本申请实施例还包括用于训练得到异常检测模型的异常检测模 型训练模块(图未示),具体包括:
获取高度近视图像模块(图未示),用于获取标注有异常区域的高度近视 眼底图像样本。
制作训练集和验证集模块(图未示),用于将眼底图像样本按照预设比例 随机分成训练集和验证集,其中训练集中的眼底图像的数量比验证集的眼底图 像的数量多。
异常检测模型训练子模块(图未示),用于将训练集输入到YOLOv3模型进 行训练,达到预设的迭代次数停止训练。
绘制曲线图模块(图未示),用于记录训练集每一次迭代的损失函数值, 并基于训练集中的迭代次数和损失函数值绘制训练损失函数曲线图,确定损失 函数收敛时所对应的迭代次数的合格范围。
模型验证模块(图未示),用于将验证集的每一张图像输入迭代次数在合 格范围内的每一个YOLOv3网络模型。
选取异常检测模型模块(图未示),用于选取识别效果最好的迭代次数值 对应的YOLOv3网络模型作为训练好的异常检测模型。
进一步的,本申请实施例还包括图像标注模块(图未示),用于获取有异 常的高度近视眼底图像作为训练样本;利用图像标注工具在每个图像中框选出 异常区域,得到VOC格式的xml文件;将xml文件转换为YOLO格式的txt文件。
所述结论输出模块4还用于当识别结果为所述高度近视的眼底图像中不包 含异常,则输出眼底图像未见异常的结论;如果识别结果为所述待高度近视的 眼底图像中包含异常,则输出包括异常的位置、类型、数量信息的眼底图像异 常的结论。
本申请的一实施例公开了一种计算机设备。具体请参阅图7,为本申请的一 实施例中计算机设备100基本结构框图。
如图7中所示意的,所述计算机设备100包括通过系统总线相互通信连接 存储器101、处理器102、网络接口103。需要指出的是,图7中仅示出了具有 组件101-103的计算机设备100,但是应理解的是,并不要求实施所有示出的组 件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理 解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值 计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路 (Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field- Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等 计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声 控设备等方式进行人机交互。
所述存储器101至少包括一种类型的可读存储介质,所述可读存储介质包 括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问 存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦 除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、 磁盘、光盘等。在一些实施例中,所述存储器101可以是所述计算机设备100 的内部存储单元,例如该计算机设备100的硬盘或内存。在另一些实施例中, 所述存储器101也可以是所述计算机设备100的外部存储设备,例如该计算机 设备100上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全 数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储 器101还可以既包括所述计算机设备100的内部存储单元也包括其外部存储设 备。本实施例中,所述存储器101通常用于存储安装于所述计算机设备100的 操作系统和各类应用软件,例如上述基于眼底图像的异常识别方法等。此外, 所述存储器101还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器102在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器 102通常用于控制所述计算机设备100的总体操作。本实施例中,所述处理器 102用于运行所述存储器101中存储的程序代码或者处理数据,例如运行上述基 于眼底图像的异常识别方法的程序代码。
所述网络接口103可包括无线网络接口或有线网络接口,该网络接口103 通常用于在所述计算机设备100与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述 计算机可读存储介质存储有单据信息录入程序,所述单据信息录入程序可被至 少一个处理器执行,以使所述至少一个处理器执行上述任意一种基于眼底图像 的异常识别方法的步骤。
最后应说明的是,显然以上所描述的实施例仅仅是本申请一部分实施例, 而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请 的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例 的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对 本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述 各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等 效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用 在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种基于眼底图像的异常识别方法,其特征在于,包括:
获取眼底图像;
将所述眼底图像输入到预先训练好的二分类模型,获取所述二分类模型响应所述眼底图像而输出的是否为高度近视的眼底图像的判断结果;
将判断结果确认为高度近视的眼底图像输入到预先训练好的异常检测模型中,获取所述异常检测模型响应所述高度近视的眼底图像而输出的识别结果,所述识别结果包括所述高度近视的眼底图像中包含异常或不包含异常;
基于所述识别结果,输出检测结论。
2.根据权利要求1所述的基于眼底图像的异常识别方法,其特征在于,所述将所述眼底图像输入到预先训练好的二分类模型,获取所述二分类模型响应所述眼底图像而输出的是否为高度近视的眼底图像的判断结果的步骤具体包括:
将所述眼底图像输入到预先训练好的二分类模型,进行特征提取和特征分类;
基于所述特征提取和特征分类,输出所述眼底图像属于高度近视类别的概率;
将输出所述眼底图像属于高度近视类别的概率与预设阈值进行比较;
若概率高于预设阈值,则判断结果为高度近视的眼底图像;
若概率小于或等于预设阈值,则判断结果为非高度近视的眼底图像。
3.根据权利要求1所述的基于眼底图像的异常识别方法,其特征在于,所述方法还包括:
获取标记有高度近视的样本图像和非高度近视的样本图像;
将所述标记有高度近视的样本图像和非高度近视的样本图像分别按预设比例随机组成训练样本集和测试样本集,所述训练样本集和测试样本集中均包含至少一个高度近视的样本图像和至少一个非高度近视的样本图像,其中,训练样本集的高度近视样本图像和非高度近视样本图像的比例大于测试样本集的高度近视样本图像和非高度近视样本图像的比例;
将训练样本集和测试样本集分别输入到设置好初始参数的二分类模型进行训练,记录训练样本集每一个训练回合的损失函数值,并基于训练样本集中的训练回合个数和损失函数值绘制训练损失函数曲线图,记录测试样本集每一个训练回合的损失函数值,并基于测试样本集中训练回合个数和损失函数值绘制测试损失函数曲线图;
确定训练损失函数是否收敛;
在训练损失函数收敛时,选取训练损失函数曲线图和测试损失函数曲线图相交的交点中训练损失函数值最小、且确保所述交点后的测试损失函数值维持平稳所对应的训练回合下的参数模型作为训练好的二分类模型。
4.根据权利要求3所述的基于眼底图像的异常识别方法,其特征在于,所述确定训练损失函数是否收敛的步骤具体包括:
当训练损失函数曲线图逐渐降低直到基本保持平稳不再降低时,确定训练损失函数收敛;
当达到预设训练回合个数,训练损失函数仍无法收敛时,增加训练回合个数至训练损失函数收敛为止。
5.根据权利要求1所述的基于眼底图像的异常识别方法,其特征在于,所述预先训练好的异常检测模型通过以下步骤进行训练:
获取标注有异常区域的高度近视眼底图像样本;
将眼底图像样本按照预设比例随机分成训练集和验证集,其中训练集中的眼底图像的数量比验证集的眼底图像的数量多;
将训练集输入到YOLOv3模型进行训练,直到达到预设的迭代次数停止训练;
记录训练集每一次迭代的损失函数值,并基于训练集中的迭代次数和损失函数值绘制训练损失函数曲线图,确定损失函数收敛时所对应的迭代次数的合格范围;
将验证集的每一张图像输入迭代次数在合格范围内的每一个YOLOv3网络模型;
选取识别效果最好的迭代次数值对应的YOLOv3网络模型作为训练好的异常检测模型。
6.根据权利要求5所述的基于眼底图像的异常识别方法,其特征在于,所述获取标注有异常区域的高度近视眼底图像样本的步骤之前,还包括:
获取有异常的高度近视眼底图像作为训练样本;
利用图像标注工具在每个图像中框选出异常区域,得到VOC格式的xml文件;
将xml文件转换为YOLO格式的txt文件。
7.根据权利要求1至6任一项所述基于眼底图像的异常识别方法,其特征在于,所述基于所述识别结果,输出检测结论的步骤包括:
当识别结果为所述高度近视的眼底图像中不包含异常,则输出眼底图像未见异常的结论;
如果识别结果为所述待高度近视的眼底图像中包含异常,则输出包括异常的位置、类型、数量信息的眼底图像异常的结论。
8.一种基于眼底图像的异常识别装置,其特征在于,包括:
眼底图像获取模块,用于获取眼底图像;
高度近视识别模块,用于将眼底图像输入到预先训练好的二分类模型,获取所述二分类模型响应所述眼底图像而输出的是否为高度近视的眼底图像的判断结果;
异常识别模块,用于将判断结果确认为高度近视的眼底图像输入到预先训练好的异常检测模型中,获取所述异常检测模型响应所述高度近视的眼底图像而输出的识别结果,所述识别结果包括所述高度近视的眼底图像中包含异常或不包含异常;
结论输出模块,用于基于所述识别结果,输出检测结论。
9.一种计算机设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述基于眼底图像的异常识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项基于眼底图像的异常识别方法的步骤。
CN201910308163.9A 2019-04-17 基于眼底图像的异常识别方法、装置、设备及存储介质 Active CN110210286B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910308163.9A CN110210286B (zh) 2019-04-17 基于眼底图像的异常识别方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910308163.9A CN110210286B (zh) 2019-04-17 基于眼底图像的异常识别方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN110210286A true CN110210286A (zh) 2019-09-06
CN110210286B CN110210286B (zh) 2024-05-31

Family

ID=

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796161A (zh) * 2019-09-18 2020-02-14 平安科技(深圳)有限公司 识别模型训练、眼底特征的识别方法、装置、设备及介质
CN110927167A (zh) * 2019-10-31 2020-03-27 北京海益同展信息科技有限公司 一种禽蛋检测方法、装置、电子设备及存储介质
CN111028230A (zh) * 2019-12-24 2020-04-17 贵州大学 一种基于yolo-v3的眼底图像视盘及黄斑定位检测算法
CN111046835A (zh) * 2019-12-24 2020-04-21 杭州求是创新健康科技有限公司 一种基于区域特征集合神经网络的眼底照多病种检测系统
CN111091559A (zh) * 2019-12-17 2020-05-01 山东大学齐鲁医院 基于深度学习的小肠镜下淋巴瘤辅助诊断系统
CN111192679A (zh) * 2019-12-25 2020-05-22 上海联影智能医疗科技有限公司 一种影像数据异常的处理方法、装置及存储介质
CN111814862A (zh) * 2020-06-30 2020-10-23 平安国际智慧城市科技股份有限公司 果蔬识别方法及装置
CN112381012A (zh) * 2020-11-18 2021-02-19 中山大学中山眼科中心 眼部图像中目标区域的识别方法、装置及电子设备
CN112734701A (zh) * 2020-12-28 2021-04-30 深圳市优必选科技股份有限公司 眼底病灶检测方法、检测装置及终端设备
CN113449774A (zh) * 2021-06-02 2021-09-28 北京鹰瞳科技发展股份有限公司 眼底图像质量控制方法、装置、电子设备及存储介质
WO2022134362A1 (zh) * 2020-12-24 2022-06-30 平安科技(深圳)有限公司 视盘图像分类模型的训练方法、装置、设备及存储介质
CN115622787A (zh) * 2022-10-24 2023-01-17 中国电信股份有限公司 异常流量检测方法、装置、电子设备及存储介质
CN116687338A (zh) * 2023-08-01 2023-09-05 杭州目乐医疗科技股份有限公司 眼底相机状态检测方法、眼底相机与存储介质
CN117437231A (zh) * 2023-12-21 2024-01-23 依未科技(北京)有限公司 近视眼底结构改变的定位方法及装置、图像处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105310645A (zh) * 2014-06-18 2016-02-10 佳能株式会社 图像处理装置及图像处理方法
CN107045720A (zh) * 2017-05-04 2017-08-15 深圳硅基智能科技有限公司 用于识别眼底图像病变的人工神经网络及系统
CN109376636A (zh) * 2018-10-15 2019-02-22 电子科技大学 基于胶囊网络的眼底视网膜图像分类方法
CN109602391A (zh) * 2019-01-04 2019-04-12 平安科技(深圳)有限公司 眼底出血点的自动检测方法、装置及计算机可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105310645A (zh) * 2014-06-18 2016-02-10 佳能株式会社 图像处理装置及图像处理方法
CN107045720A (zh) * 2017-05-04 2017-08-15 深圳硅基智能科技有限公司 用于识别眼底图像病变的人工神经网络及系统
CN109376636A (zh) * 2018-10-15 2019-02-22 电子科技大学 基于胶囊网络的眼底视网膜图像分类方法
CN109602391A (zh) * 2019-01-04 2019-04-12 平安科技(深圳)有限公司 眼底出血点的自动检测方法、装置及计算机可读存储介质

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796161A (zh) * 2019-09-18 2020-02-14 平安科技(深圳)有限公司 识别模型训练、眼底特征的识别方法、装置、设备及介质
CN110927167A (zh) * 2019-10-31 2020-03-27 北京海益同展信息科技有限公司 一种禽蛋检测方法、装置、电子设备及存储介质
CN111091559A (zh) * 2019-12-17 2020-05-01 山东大学齐鲁医院 基于深度学习的小肠镜下淋巴瘤辅助诊断系统
CN111028230A (zh) * 2019-12-24 2020-04-17 贵州大学 一种基于yolo-v3的眼底图像视盘及黄斑定位检测算法
CN111046835A (zh) * 2019-12-24 2020-04-21 杭州求是创新健康科技有限公司 一种基于区域特征集合神经网络的眼底照多病种检测系统
CN111192679A (zh) * 2019-12-25 2020-05-22 上海联影智能医疗科技有限公司 一种影像数据异常的处理方法、装置及存储介质
CN111192679B (zh) * 2019-12-25 2024-04-19 上海联影智能医疗科技有限公司 一种影像数据异常的处理方法、装置及存储介质
CN111814862A (zh) * 2020-06-30 2020-10-23 平安国际智慧城市科技股份有限公司 果蔬识别方法及装置
CN112381012A (zh) * 2020-11-18 2021-02-19 中山大学中山眼科中心 眼部图像中目标区域的识别方法、装置及电子设备
WO2022134362A1 (zh) * 2020-12-24 2022-06-30 平安科技(深圳)有限公司 视盘图像分类模型的训练方法、装置、设备及存储介质
CN112734701A (zh) * 2020-12-28 2021-04-30 深圳市优必选科技股份有限公司 眼底病灶检测方法、检测装置及终端设备
CN113449774A (zh) * 2021-06-02 2021-09-28 北京鹰瞳科技发展股份有限公司 眼底图像质量控制方法、装置、电子设备及存储介质
CN115622787A (zh) * 2022-10-24 2023-01-17 中国电信股份有限公司 异常流量检测方法、装置、电子设备及存储介质
CN116687338A (zh) * 2023-08-01 2023-09-05 杭州目乐医疗科技股份有限公司 眼底相机状态检测方法、眼底相机与存储介质
CN116687338B (zh) * 2023-08-01 2023-11-03 杭州目乐医疗科技股份有限公司 眼底相机状态检测方法、眼底相机与存储介质
CN117437231A (zh) * 2023-12-21 2024-01-23 依未科技(北京)有限公司 近视眼底结构改变的定位方法及装置、图像处理方法
CN117437231B (zh) * 2023-12-21 2024-04-26 依未科技(北京)有限公司 近视眼底结构改变的定位方法及装置、图像处理方法

Similar Documents

Publication Publication Date Title
CN107203778A (zh) 视网膜病变程度等级检测系统及方法
JP2022541199A (ja) データテーブルの画像表現に基づいて構造化されたデータベースにデータ挿入するためのシステムおよび方法。
CN111028934B (zh) 诊断质检方法、装置、电子设备和存储介质
EP4172803A1 (en) Computerized information extraction from tables
CN113724848A (zh) 基于人工智能的医疗资源推荐方法、装置、服务器及介质
CN110335668A (zh) 基于深度学习的甲状腺癌细胞病理图辅助分析方法及系统
CN109345553A (zh) 一种手掌及其关键点检测方法、装置和终端设备
CN111524144A (zh) 一种基于GAN和Unet网络的肺结节智能诊断方法
CN110210625A (zh) 基于迁移学习的建模方法、装置、计算机设备和存储介质
CN110046264A (zh) 一种面向手机文档的自动分类方法
CN113240655B (zh) 一种自动检测眼底图像类型的方法、存储介质及装置
CN112927776A (zh) 一种面向医学检验报告的人工智能自动解读系统
CN110443105A (zh) 自体免疫抗体的免疫荧光影像型态识别方法
EP4091101A1 (en) System and method for interactively and iteratively developing algorithms for detection of biological structures in biological samples
CN113762269A (zh) 基于神经网络的中文字符ocr识别方法、系统、介质及应用
CN108897614A (zh) 一种基于卷积神经网络的内存预警方法及服务端
Rose et al. The linguistic analysis of scene semantics: LASS
CN114511759A (zh) 一种皮肤状态图像的类别识别和特征确定方法及系统
CN113642562A (zh) 基于图像识别的数据解读方法、装置、设备及存储介质
CN110110622A (zh) 一种基于图像处理的医疗文本检测方法、系统和存储介质
CN110188662A (zh) 一种水表数字的ai智能识别方法
CN111597336B (zh) 训练文本的处理方法、装置、电子设备及可读存储介质
CN113707304A (zh) 分诊数据处理方法、装置、设备及存储介质
CN107305565A (zh) 信息处理装置、信息处理方法以及信息处理设备
CN110210286A (zh) 基于眼底图像的异常识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant