CN110728312A - 一种基于区域自适应注意力网络的干眼症分级系统 - Google Patents

一种基于区域自适应注意力网络的干眼症分级系统 Download PDF

Info

Publication number
CN110728312A
CN110728312A CN201910934218.7A CN201910934218A CN110728312A CN 110728312 A CN110728312 A CN 110728312A CN 201910934218 A CN201910934218 A CN 201910934218A CN 110728312 A CN110728312 A CN 110728312A
Authority
CN
China
Prior art keywords
dry eye
training
grading
image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910934218.7A
Other languages
English (en)
Other versions
CN110728312B (zh
Inventor
徐雯
吴健
林琳
陆逸飞
晋秀明
黄晓丹
吴星镝
罗陈启
马雅娟
陈香
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201910934218.7A priority Critical patent/CN110728312B/zh
Publication of CN110728312A publication Critical patent/CN110728312A/zh
Application granted granted Critical
Publication of CN110728312B publication Critical patent/CN110728312B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

本发明公开了一种基于区域自适应注意力网络的干眼症分级系统,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,所述计算机存储器中存有训练好的干眼症分级模型,所述干眼症分级模型基于区域自适应注意力网络;所述计算机处理器执行所述计算机程序时实现以下步骤:获取待测的原始眼睑板红外图像进行灰度预处理,并将预处理后得到的单通道灰度图进行双边滤波处理;将处理后的图像输入干眼症分级模型,得到眼睑板定位和干眼症分级结果。利用本发明,可以实现了对眼睑板红外照片的自动分析,可有效对干眼症分级进行辅助诊断。

Description

一种基于区域自适应注意力网络的干眼症分级系统
技术领域
本发明属于医学图像分析及机器学习领域,尤其是涉及一种基于区域自适应注意力网络的干眼症分级系统。
背景技术
干眼是眼表的多因素疾病,特征是泪膜稳态的丧失,伴随眼表症状,其发病机制包括泪膜不稳定、泪液高渗透压、眼表炎症与损失和神经感觉异常。多项研究表明,干眼的发病率波动于5~50%。
传统的干眼症诊断和评价方式是通过眼表疾病指数(Ocular Surface DiseaseIndex,OSDI)、NIBUT、泪河高度、睑板腺形态等指标,可以客观的对干眼进行诊断和分类。然而,这一评价方法存在的缺陷是:相关评价指标较多、计算繁琐、诊断效率低。
如公开号为CN106510615A的中国专利文献公开了一种干眼症综合分析系统,包括:成像系统,其包括照明光源、成像组件、控制板以及摄像模组,所述照明光源透过所述成像组件照射患者眼睛处,所述摄像模组对患者眼睛成像,并将生成的所述图像通过USB接口传输至所述PC机;分析系统,其布置在所述PC机端,包括通信模块、图像数据采集模块、泪膜破裂时间检查模块、泪河高度测量模块、睑板腺图像采集及增强模块、脂质层分析模块、数据分析模块及信息管理输出模块,视频终端,其与分析系统连接。
目前研究仅从睑板腺腺体的大小、弯曲度、数量等方面进行定量分析,而一些潜藏的特征如腺体间的相对位置关系等却因为难以提取量化而经常不被引起重视。造成这种现象的原因之一是研究人员尚未找到这些特征与结果之间的直接联系,而另一个更主要的原因是图像所包含的语义特征信息可能远远超过像大小、形态、数量这类低维纹理特征信息,但语义特征信息难以挖掘,更无从对其进行定量分析。
发明内容
为了克服现有干眼症分级需要多种检测辅助、效率低下、精度较低的不足,本发明提出了一种速度快、效率高、精度较高的基于区域自适应注意力网络的干眼症分级系统,实现了对眼睑板红外照片的自动分析,可有效对干眼症分级进行辅助诊断。
本发明的技术方案如下:
一种基于区域自适应注意力网络的干眼症分级系统,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,所述计算机存储器中存有训练好的干眼症分级模型,所述干眼症分级模型基于区域自适应注意力网络,包括1个卷积层,1个批次化归一层,1个ReLU激活函数,1个最大池化层,5个注意力模块,两个全局池化层,两个全连接层;
所述计算机处理器执行所述计算机程序时实现以下步骤:
获取待测的原始眼睑板红外图像进行灰度预处理,并将预处理后得到的单通道灰度图进行双边滤波处理;
将处理后的图像输入干眼症分级模型,得到眼睑板定位和干眼症分级结果。
本发明的系统基于区域自适应注意力网络,利用卷积神经网络提取干眼症红外眼睑板图像特征,从而实现干眼症分级。
所述干眼症分级模型的训练过程为:
建立训练集:获取不同干眼症级别的上、下眼睑板红外图像作为样本,将所有样本图像下采样至相同大小后处理为单通道灰度图;并通过双边滤波处理对灰度图像进行图像增强;将处理后的样本图像分为训练集、验证集和测试集;
训练网络结构:利用Pytorch框架搭建网络,模型采用分批次训练的方式,训练集全部经过模型后作为一个轮次epoch,一个轮次训练完成后,验证集经过模型运算并计算验证集损失,定位损失函数为smoothL1函数,分级损失函数为均方误差,总损失为两者之和;模型优化器为Adam,验证与训练损失收敛后停止训练,并保存模型作为最终训练结果。
建立训练集时,获取无干眼症、轻度、中度和重度四种不同干眼症级别的眼睑板红外图像作为样本,训练集中的样本包含两种标注,分别为眼睑板区域定位标注和干眼症分级标注,其中,眼睑板区域定位标注为图像中眼睑板矩形边界框的图像坐标点,干眼症分级标注为[0,1,2,3]分别代表无干眼症、轻度、中度和重度。
建立训练集时,还包括计算训练集中所有图像的综合均值和标准差,然后对数据进行标准化。
进行双边滤波处理的时,双边滤波器的滤波核尺寸为8,色彩空间标准差为75,坐标空间标准差为75。
网络中,第一层卷积层中卷积核大小为3*3,滑动步长为1,padding为0,通道数为64;注意力模块中,所有卷积核与第一层卷积层的卷积核参数配置相同;最大池化的池化核尺寸为2*2,滑动步长为2,padding为0;全局池化采用均值池化。
卷积层中所有参数权重初始化为随机正交矩阵初始化,权重正则化方式为L2正则,偏置值初始化为0;全连接层中,权重初始化为随机正态分布,权重正则化方式为L2正则,偏置值初始化为0。
与现有技术相比,本发明具有以下有益效果:
1、本发明通过区域自适应注意力网络对眼睑板红外图像进行分析,自动提取眼睑板图像特征,相比传统方法需要预先人工设计特征,诊断效率高,速度快;
2、本发明采用区域自适应网络,可以利用神经网络模型回归产生眼睑板的边界框,无需预先设置边界框尺寸,根据图像实际情况自动生成。因此,上下眼睑板面积差异较大的情况下可以使用单一模型;
3、本发明通过引入注意力模块,在特征通道维度对图像特征进行加权,进而让网络自动关注更重要的特征通道,提高准确率。
附图说明
图1为本发明一种基于区域自适应注意力网络的干眼症分级系统进行分级的流程图;
图2为本发明实施例中的区域自适应注意力网络结构示意图;
图3为本发明实施例中的注意力模块结构示意图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细描述,需要指出的是,以下所述实施例旨在便于对本发明的理解,而对其不起任何限定作用。
本实施例提供了一种基于区域自适应注意力网络的干眼症分级系统,包括计算机存储器、计算机处理器以及存储在计算机存储器中并可在计算机处理器上执行的计算机程序,计算机存储器中存有训练好的干眼症分级模型,该模型在通过以下三个阶段获得:
阶段1:训练集的构建
本实施例中使用的眼睑板红外图像分为上、下睑板,分别包含4个干眼症级别,包括:无干眼症、轻度、中度和重度干眼症。眼睑板红外图想共有11584例样本,上下眼睑板数量相同,其中无干眼症样本2545个,轻度干眼症3623个,中度干眼症3242个,重度干眼症2174个。从正负样本中分别随机选取7823个样本作为训练集,1180个样本作为验证集,1181个样本作为测试集。下面具体介绍眼睑板图像预处理及增强。
将图像下采样至尺寸为512*512,避免图像过大导致模型训练时内存溢出;并将图像转换为灰度图。对灰度图像进行双边滤波处理,平滑图像,但保留边界,起到增强边界平滑噪声的作用。其中,滤波核尺寸为8,色彩空间标准差为75,坐标空间标准差为75。
通过自适应直方图均衡化方法增强对比度,并将数据归一化为[0,1];计算训练集中所有图像的综合均值和标准差,然后对数据进行标准化,用以提高模型实际使用时的泛化性。
阶段2:建立网络结构
区域自适应注意力网络的构建和训练,具体结构如图2所示。利用Pytorch框架搭建网络,网络架构由1个卷积层(Conv),1个批次化归一层(batch normalization),1个ReLU激活函数,1个最大池化层(Max Pooling),5个注意力模块(attention block),两个全局池化层(global pooling),两个全连接层(FC)组成。
第一层卷积层中卷积核大小为3*3,滑动步长为1,padding为0,通道数为64。注意力模块中,所有卷积核与第一层卷积核参数配置相同。最大池化的池化核尺寸为2*2,滑动步长为2,padding为0。全局池化采用均值池化。
卷积层中所有参数权重初始化为随机正交矩阵初始化,权重正则化方式为L2正则,偏置值初始化为0。全连接层中,权重初始化为随机正态分布,权重正则化方式为L2正则,偏置值初始化为0。
阶段3:训练网络结构
模型采用batch训练的方式。训练集生成器和验证集生成器每个batch的样本数batch size均为4,训练集全部经过模型后作为一个轮次(epoch),一个轮次训练完成后,验证集经过模型运算并计算验证集损失,定位损失函数为smoothL1函数,分级损失函数为均方误差,总损失为两者之和。模型优化器为Adam,参数为lr=0.001,betas=(0.9,0.999),eps=1e-08,weight_decay=0,amsgrad=False。模型最大训练轮次为60,验证与训练损失收敛后停止训练,并保存模型为.dat文件,作为最终训练结果。
训练区域自适应注意力网络所用的定位标注和分级标注需要处理生成。根据标注的边界框生成边界框回归标注,设边界框的中心坐标为(x,y),边界框的宽度和高度分别为(w,h)。利用多种尺寸和长宽比的滑窗在图像上滑动,尺寸包含为[128,256],长宽比包含[2,1,0.5],滑窗与标注边界框的重合率(intersection over union,IoU)大于0.75时,设定该位置的滑窗为标注滑窗,其中心坐标为(xa,ya),长宽为(wa,ha),计算其与边界框的相对位置关系,计算方式如下:
模型通过全连接层向定位标注回归。分级标注为[0,1,2,3]分别代表无干眼症、轻度、中度和重度。
区域自适应注意力网络中的注意力模块(attention block)结构如图3。尺寸为W*H*T的模块输入经过两种路径运算,其中一条经过卷积-batch norm-ReLU激活-卷积-batchnorm-ReLU-max pooling激活后得到尺寸减半的一个特征输出。另一个路径中,模块特征经过全局池化(global pooling/pool)后,经过全连接层得到长度为T的特征,该特征作为权重,与之前的输入特征进行按通道逐像素相乘加权,得到最终模块输出。该模块输出利用通道加权,突出了其中部分通道的特征,起到了特征增强的作用。
训练区域自适应注意力网络中边界框定位的损失函数为smooth L1损失函数,分级的损失函数为均方误差函数(mean square error,MSE)。
模型训练完毕后进行测试,载入模型,将预处理完毕的眼睑板红外图像测试集样本输入模型分析,将识别结果与其标签对比得到模型的识别准确率。
经过上述步骤的操作,即可实现用于干眼症分级的区域自适应注意力网络的构建、训练与测试。
如图1所示,利用本发明的干眼症分级系统进行应用时,具体过程如下:
步骤1,对进行原始眼睑板红外图像进行预处理;
步骤1-1:对检测原始图像进行下采样,将尺寸降采样至512*512,再将其转化为单通道灰度图。
步骤2,对步骤1中的灰度图像进行双边滤波处理,平滑图像,但保留边界,起到增强边界平滑噪声的作用;
步骤3,将处理完毕的待检测图像输入到上述训练完的干眼症分级模型中,利用区域自适应注意力网络进行分级,具体过程为:
步骤3-1:输入一组大小为512*512*1的眼睑板灰度图像;
步骤3-2:先经过3*3大小的卷积操作,通道数为64,随后进行批次归一化(batchnormalization/norm),再经过激活函数(ReLU);
步骤3-3:经过最大池化(MaxPooling)操作,将图像降采样;
步骤3-4:提取的特征经过注意力模块(attention block),该模块包括2组3*3的卷积操作和batch norm及ReLU;
步骤3-5:再重复步骤3-3到3-4四次,第五次经过步骤3-4后,经过全局池化(Global pooling),将特征尺寸压缩至1*1;
步骤3-6:将步骤3-5输出的特征分别通过两个全连接层(fully-connectedlayer,FC),分别得到眼睑板定位和干眼症分级结果。
以上所述的实施例对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的具体实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于区域自适应注意力网络的干眼症分级系统,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,其特征在于:
所述计算机存储器中存有训练好的干眼症分级模型,所述干眼症分级模型基于区域自适应注意力网络,包括1个卷积层,1个批次化归一层,1个ReLU激活函数,1个最大池化层,5个注意力模块,两个全局池化层,两个全连接层;
所述计算机处理器执行所述计算机程序时实现以下步骤:
获取待测的原始眼睑板红外图像进行灰度预处理,并将预处理后得到的单通道灰度图进行双边滤波处理;
将处理后的图像输入干眼症分级模型,得到眼睑板定位和干眼症分级结果。
2.根据权利要求1所述的基于区域自适应注意力网络的干眼症分级系统,其特征在于,所述干眼症分级模型的训练过程为:
建立训练集:获取不同干眼症级别的上、下眼睑板红外图像作为样本,将所有样本图像下采样至相同大小后处理为单通道灰度图;并通过双边滤波处理对灰度图像进行图像增强;将处理后的样本图像分为训练集、验证集和测试集;
训练网络结构:利用Pytorch框架搭建网络,模型采用分批次训练的方式,训练集全部经过模型后作为一个轮次epoch,一个轮次训练完成后,验证集经过模型运算并计算验证集损失,定位损失函数为smoothL1函数,分级损失函数为均方误差,总损失为两者之和;模型优化器为Adam,验证与训练损失收敛后停止训练,并保存模型作为最终训练结果。
3.根据权利要求2所述的基于区域自适应注意力网络的干眼症分级系统,其特征在于,建立训练集时,获取无干眼症、轻度、中度和重度四种不同干眼症级别的眼睑板红外图像作为样本,训练集中的样本包含两种标注,分别为眼睑板区域定位标注和干眼症分级标注,其中,眼睑板区域定位标注为图像中眼睑板矩形边界框的图像坐标点,干眼症分级标注为[0,1,2,3]分别代表无干眼症、轻度、中度和重度。
4.根据权利要求2所述的基于区域自适应注意力网络的干眼症分级系统,其特征在于,建立训练集时,还包括计算训练集中所有图像的综合均值和标准差,然后对数据进行标准化。
5.根据权利要求1或2所述的基于区域自适应注意力网络的干眼症分级系统,其特征在于,进行双边滤波处理的时,双边滤波器的滤波核尺寸为8,色彩空间标准差为75,坐标空间标准差为75。
6.根据权利要求1所述的基于区域自适应注意力网络的干眼症分级系统,其特征在于,网络中,第一层卷积层中卷积核大小为3*3,滑动步长为1,padding为0,通道数为64;注意力模块中,所有卷积核与第一层卷积层的卷积核参数配置相同;最大池化的池化核尺寸为2*2,滑动步长为2,padding为0;全局池化采用均值池化。
7.根据权利要求1所述的基于区域自适应注意力网络的干眼症分级系统,其特征在于,卷积层中所有参数权重初始化为随机正交矩阵初始化,权重正则化方式为L2正则,偏置值初始化为0;全连接层中,权重初始化为随机正态分布,权重正则化方式为L2正则,偏置值初始化为0。
CN201910934218.7A 2019-09-29 2019-09-29 一种基于区域自适应注意力网络的干眼症分级系统 Active CN110728312B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910934218.7A CN110728312B (zh) 2019-09-29 2019-09-29 一种基于区域自适应注意力网络的干眼症分级系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910934218.7A CN110728312B (zh) 2019-09-29 2019-09-29 一种基于区域自适应注意力网络的干眼症分级系统

Publications (2)

Publication Number Publication Date
CN110728312A true CN110728312A (zh) 2020-01-24
CN110728312B CN110728312B (zh) 2022-04-29

Family

ID=69219629

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910934218.7A Active CN110728312B (zh) 2019-09-29 2019-09-29 一种基于区域自适应注意力网络的干眼症分级系统

Country Status (1)

Country Link
CN (1) CN110728312B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111259986A (zh) * 2020-02-20 2020-06-09 中南大学 自由瞬目条件下的眼表指标数据分类方法
CN111539325A (zh) * 2020-04-23 2020-08-14 四川旅游学院 基于深度学习的森林火灾探测方法
CN111860949A (zh) * 2020-06-12 2020-10-30 深圳市新产业眼科新技术有限公司 基于时序图像的预测方法及装置
CN112084911A (zh) * 2020-08-28 2020-12-15 安徽清新互联信息科技有限公司 一种基于全局注意力的人脸特征点定位方法及系统
CN112885456A (zh) * 2021-01-20 2021-06-01 武汉爱尔眼科医院有限公司 基于深度学习的睑板腺量化分析及其在mgd诊疗中的应用
CN114913099A (zh) * 2021-12-28 2022-08-16 天翼数字生活科技有限公司 视频文件处理的方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021916A (zh) * 2017-12-31 2018-05-11 南京航空航天大学 基于注意力机制的深度学习糖尿病视网膜病变分类方法
CN108229580A (zh) * 2018-01-26 2018-06-29 浙江大学 一种基于注意力机制及特征融合的眼底图中糖网特征分级装置
CN108537282A (zh) * 2018-04-13 2018-09-14 东北大学 一种使用超轻量级SqueezeNet网络的糖尿病视网膜病变分级方法
CN108960257A (zh) * 2018-07-06 2018-12-07 东北大学 一种基于深度学习的糖尿病视网膜病变等级分级方法
CN109376767A (zh) * 2018-09-20 2019-02-22 中国科学技术大学 基于深度学习的视网膜oct图像分类方法
CN110084794A (zh) * 2019-04-22 2019-08-02 华南理工大学 一种基于注意力卷积神经网络的皮肤癌图片识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021916A (zh) * 2017-12-31 2018-05-11 南京航空航天大学 基于注意力机制的深度学习糖尿病视网膜病变分类方法
CN108229580A (zh) * 2018-01-26 2018-06-29 浙江大学 一种基于注意力机制及特征融合的眼底图中糖网特征分级装置
CN108537282A (zh) * 2018-04-13 2018-09-14 东北大学 一种使用超轻量级SqueezeNet网络的糖尿病视网膜病变分级方法
CN108960257A (zh) * 2018-07-06 2018-12-07 东北大学 一种基于深度学习的糖尿病视网膜病变等级分级方法
CN109376767A (zh) * 2018-09-20 2019-02-22 中国科学技术大学 基于深度学习的视网膜oct图像分类方法
CN110084794A (zh) * 2019-04-22 2019-08-02 华南理工大学 一种基于注意力卷积神经网络的皮肤癌图片识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TAI-YUAN SU等: "Tear Film Break-Up Time Measurement Using Deep Convolutional Neural Networks for Screening Dry Eye Disease", 《IEEE SENSORS JOURNAL》 *
万加龙等: "应用视觉注意力的糖尿病视网膜病变眼底影像筛查及分级", 《中华实验眼科杂志》 *
于凤丽: "基于深度学习的糖尿病性视网膜图像分类研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111259986A (zh) * 2020-02-20 2020-06-09 中南大学 自由瞬目条件下的眼表指标数据分类方法
CN111259986B (zh) * 2020-02-20 2023-10-31 中南大学 自由瞬目条件下的眼表指标数据分类方法
CN111539325A (zh) * 2020-04-23 2020-08-14 四川旅游学院 基于深度学习的森林火灾探测方法
CN111860949A (zh) * 2020-06-12 2020-10-30 深圳市新产业眼科新技术有限公司 基于时序图像的预测方法及装置
CN112084911A (zh) * 2020-08-28 2020-12-15 安徽清新互联信息科技有限公司 一种基于全局注意力的人脸特征点定位方法及系统
CN112084911B (zh) * 2020-08-28 2023-03-07 安徽清新互联信息科技有限公司 一种基于全局注意力的人脸特征点定位方法及系统
CN112885456A (zh) * 2021-01-20 2021-06-01 武汉爱尔眼科医院有限公司 基于深度学习的睑板腺量化分析及其在mgd诊疗中的应用
CN112885456B (zh) * 2021-01-20 2022-08-16 武汉爱尔眼科医院有限公司 基于深度学习的睑板腺量化分析及其在mgd诊疗中的应用
CN114913099A (zh) * 2021-12-28 2022-08-16 天翼数字生活科技有限公司 视频文件处理的方法和系统

Also Published As

Publication number Publication date
CN110728312B (zh) 2022-04-29

Similar Documents

Publication Publication Date Title
CN110728312B (zh) 一种基于区域自适应注意力网络的干眼症分级系统
US11295178B2 (en) Image classification method, server, and computer-readable storage medium
US20200250491A1 (en) Image classification method, computer device, and computer-readable storage medium
CN113344849B (zh) 一种基于YOLOv5的微乳头检测系统
CN110428432B (zh) 结肠腺体图像自动分割的深度神经网络算法
CN112132817B (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
CN111127431A (zh) 一种基于区域自适应多任务神经网络的干眼症分级评估系统
CN109613002B (zh) 一种玻璃缺陷检测方法、装置和存储介质
CN110648334A (zh) 一种基于注意力机制的多特征循环卷积显著性目标检测方法
TWI687937B (zh) 染色體異常檢測模型之建立方法、染色體異常檢測系統及染色體異常檢測方法
CN111160269A (zh) 一种人脸关键点检测方法及装置
CN108960257A (zh) 一种基于深度学习的糖尿病视网膜病变等级分级方法
CN108346145A (zh) 一种病理切片中非常规细胞的识别方法
CN111680706A (zh) 一种基于编码和解码结构的双通道输出轮廓检测方法
CN111369523B (zh) 显微图像中细胞堆叠的检测方法、系统、设备及介质
CN109191434A (zh) 一种细胞分化中的图像检测系统及检测方法
CN114287878A (zh) 一种基于注意力模型的糖尿病性视网膜病变病灶图像识别方法
CN111695463A (zh) 人脸面部杂质检测模型的训练方法、人脸面部杂质检测方法
Damer et al. Cascaded generation of high-quality color visible face images from thermal captures
CN111428655A (zh) 一种基于深度学习的头皮检测方法
CN113240655A (zh) 一种自动检测眼底图像类型的方法、存储介质及装置
CN112712122A (zh) 基于神经网络模型的角膜溃疡的分类检测方法及系统
CN115546187A (zh) 基于YOLO v5的农业病虫害检测方法及装置
Zhang et al. Automatic counting of retinal ganglion cells in the entire mouse retina based on improved YOLOv5
WO2020087434A1 (zh) 一种人脸图像清晰度评价方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant