CN115100187A - 一种基于联邦学习的青光眼图像检测方法 - Google Patents

一种基于联邦学习的青光眼图像检测方法 Download PDF

Info

Publication number
CN115100187A
CN115100187A CN202210892726.5A CN202210892726A CN115100187A CN 115100187 A CN115100187 A CN 115100187A CN 202210892726 A CN202210892726 A CN 202210892726A CN 115100187 A CN115100187 A CN 115100187A
Authority
CN
China
Prior art keywords
glaucoma
cup
image
stage
disc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210892726.5A
Other languages
English (en)
Other versions
CN115100187B (zh
Inventor
叶娟
王琳艳
卓晓玲
程志明
宋思远
金凯
邵安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202210892726.5A priority Critical patent/CN115100187B/zh
Publication of CN115100187A publication Critical patent/CN115100187A/zh
Application granted granted Critical
Publication of CN115100187B publication Critical patent/CN115100187B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种基于联邦学习的青光眼图像检测方法。建立了一个两阶段的青光眼诊断网络模型,通过两阶段的青光眼诊断网络模型对眼底图像进行处理,第一阶段用于获得杯盘比结果,第二阶段用于获得青光眼分类概率结果;收集眼底图像数据并预处理,用预处理后的眼底图像数据对两阶段的青光眼诊断网络模型中的第二阶段进行训练,获得训练后的两阶段的青光眼诊断网络模型;针对待测的眼底图像输入训练后的两阶段的青光眼诊断网络模型获得两阶段的结果,综合两阶段的结果对眼底图像中的青光眼情况进行分类判断。本发明实现了快速高效的青光眼图像检测,方法大大减少了医生的诊断周期。

Description

一种基于联邦学习的青光眼图像检测方法
技术领域
本发明属于计算机辅助医学图像处理领域的一种医学图像处理方法,涉及一种对青光眼图像进行分类的方法。
背景技术
眼底图像数据对判断其是否为青光眼患者有着至关重要的作用。目前青光眼的诊断没有明确的标准,主要由临床医生对青光眼影像进行主观分析,如是否存在杯盘比增大等情况。青光眼影像包括眼底图像和OCT,其解读都需要大量有经验的青光眼专家或训练有素的技术员,既费时又费力,很难对其进行筛查和诊断。同时,基于隐私保护政策,很多来自不同医院患者的数据是不可访问的,这种情况下,对患者数据进行的计算都必须保持本地化,而传统的无监督多源领域自适应方法假设所有源域数据都可以直接访问。目前通过借助深度学习方法对青光眼图像进行分类的方法通常围绕对眼底图像中的视杯和视盘进行分割,获得杯盘比进行分类。从UNET分割网络提出至今,越来越多的基于UNET网络的变种分割网络也被提出,它们对应的分割精度也越来越高,比如UNET++和UNET3+。这些方法的输入是一张病理图像,输出是一张带有所需病理区域分割结果的二值图像。然而,青光眼的诊断过程是极其严格和复杂的,单一的考虑杯盘比的单一结果是不可靠的。除了从眼底图像中观察杯盘比,还应该考虑视网膜神经纤维的改变对青光眼诊断的影响。
上述提到的方法通常诊断是否为青光眼只来源于图像分割的视杯视盘比。但是,实际青光眼诊断中,眼底图像中的其他特征同样也非常具有参考价值。同时,隐私保护政策要求所有数据和计算都必须在本地进行,限制了现有域适应方法的应用。
发明内容
本发明针对现有的基于分割杯盘的单一诊断信息不足的基础上,提出了一种基于联邦学习的青光眼图像检测方法,用于解决在隐私保护政策的要求下,现有方法对青光眼图像检测准确率较低的技术问题。
本发明提出了一种联合杯盘比和青光眼特征挖掘的二阶段网络架构。在第一阶段,提议了一种杯盘比分割方法,方法在现有分割网络基础上,添加了一个实时输出杯盘比的后置处理结构。尤其在青光眼特征挖掘阶段,出于隐私保护的目的,提议了一种无源领域自适应网络,该网络中提议了一种新的对齐源域和目标域分布风格的方法名为BatchNormSMMD。具体来说,它不在考虑单一的均值的影响,而是全面考虑了影响目标风格的均值和方差的共同影响。
本发明采用的技术方案如下:
本发明是建立了一个两阶段的青光眼诊断网络模型,第一阶段是针对眼底图像分割了杯盘比,第二阶段是针对青光眼特征进行挖掘,两阶段分别主要在于后置处理模块和批量归一化函数BatchNorm SMMD;最后通过信息融合模块,对眼底图像进行检测。此方法将大大减少医生的诊断周期,解决了数据量在隐私保护政策的要求下无法随意使用而导致有效数据量缺少而使得现有方法对青光眼图像检测准确率较低的技术问题。
方法包括以下步骤:
步骤1:建立了一个两阶段的青光眼诊断网络模型,通过两阶段的青光眼诊断网络模型对眼底图像进行处理,第一阶段用于获得杯盘比结果,第二阶段用于获得青光眼分类概率结果;
步骤2:收集眼底图像数据,并对眼底图像数据进行预处理,用预处理后的眼底图像数据对两阶段的青光眼诊断网络模型中的第二阶段进行训练,获得训练后的两阶段的青光眼诊断网络模型;
步骤3:针对待测的眼底图像输入训练后的两阶段的青光眼诊断网络模型获得两阶段的结果,综合两阶段的结果对眼底图像中的青光眼情况进行分类判断。
所述步骤1中的第一阶段包括依次设置的AG-Net分割网络和后置处理模块,通过AG-Net分割网络将每幅眼底图像分割为三个通道图像,将三个通道图像输入后置处理模块获得纵向杯盘比,具体为:
1.1)将眼底图像输入AG-Net分割网络获得输出图像X,在输出图像X中,舍弃背景通道图像,保留视杯通道图像Xcup和视盘通道图像Xdisc
1.2)提取视杯通道图像Xcup和视盘通道图像Xdisc的连通区域并各自进行大小排序,取面积最大的N个连通区域,对于视杯通道图像Xcup和视盘通道图像Xdisc共计获得2N个连通区域;
1.3)统计视杯通道图像Xcup和视盘通道图像Xdisc中的连通区域的每个像素的像素值均设置为1,连通区域以外的其它区域的每个像素的像素值均设置0,获得视杯通道二值化图像和视盘通道二值化图像;
1.4)将视杯通道二值化图像和视盘通道二值化图像均依次进行腐蚀、膨胀的操作,得到最终的视杯通道后处理图像Ycup和视盘通道后处理图像Ydisc
1.5)计算视杯通道后处理图像Ycup和视盘通道后处理图像Ydisc的外接矩形Zcup和Zdisc:
1.6)根据外接矩形计算纵向杯盘比:
vC/D=Hcup/Hdisc
其中,v表示纵向,Hcup、Hdisc分别表示视杯通道外接矩形Zcup和视盘通道外接矩形Zdisc的高H,vC/D表示视杯外接矩形的高和视盘外接矩形的高之间的比例,作为纵向杯盘比。
所述步骤1.4)中,是计算视杯通道后处理图像Ycup和视盘通道后处理图像Ydisc中像素值设置为1的区域求取在图像水平方向和图像竖直方向上的最大值和最小值点,共计四个点,外接矩形的四边分别经过所述四个点而设置出外接矩形。
所述步骤1中的第二阶段具体包括ResNet-50模型,所述的ResNet-50模型输入的是眼底图像,输出的是青光眼的分类概率值,将眼底图像输入到ResNet-50模型中输出获得青光眼的分类概率值。
所述步骤2,具体为:
2.1)收集的眼底图像数据,收集的眼底图像数据分为一个目标域眼底图像数据集和多个源域眼底图像数据集的两类;
所述的源域眼底图像数据集是指无法公众共享的数据且预先带有青光眼的分类标签,目标域眼底图像数据集是指可以公众共享的数据但不带有青光眼的分类标签。
2.2)先用多个源域眼底图像数据分别对本地离线的ResNet-50模型进行本地化训练,获得训练后的各个源域模型;
2.3)然后将目标域眼底图像数据集中的每幅眼底图像输入到训练后的各个源域模型进行预测处理,输出获得各个源域模型各自的青光眼分类概率值;
2.4)对所有源域模型各自的青光眼分类概率值进行筛选处理,筛选保留下来的所有青光眼分类概率值求平均值作为该幅眼底图像的软标签;
2.5)最后将目标域眼底图像数据集的所有幅眼底图像及其软标签输入到ResNet-50模型中采用批量归一化函数BatchNorm SMMD进行训练优化获得目标域模型。
所述2.4)中,对所有源域模型各自的青光眼分类概率值进行筛选处理,具体为:对所有源域模型各自的青光眼分类概率值对应的置信度和预设的置信度阈值进行比较进行第一次筛选,去除小于置信度阈值的青光眼分类概率值;然而对第一次筛选后保留的所有青光眼分类概率值进行一致性判断而进行第二次筛选,去除不一致的青光眼分类概率值。
所述2.5)中,在训练过程中在目标域模型和各个源域模型之间采用批量归一化函数BatchNorm SMMD进行以下处理:
从每个源域模型中提取获得各层批量归一化层BatchNorm存储的均值和方差
Figure BDA0003768232690000041
从目标域模型中提取获得各层批量归一化层BatchNorm存储的均值和方差
Figure BDA0003768232690000042
其中,
Figure BDA0003768232690000043
表示l从1到L取值,L是包含BatchNorm层的总数,l是第l个BatchNorm层,所以
Figure BDA0003768232690000044
表示l从1到L取值;
然后按照以下公式处理计算总损失Loss:
Figure BDA0003768232690000045
其中,Loss表示总损失,
Figure BDA0003768232690000046
表示第k个源域模型在第l个BatchNorm层上的特征,μ()表示特征的均值,σ2()表示特征的方差,l表示ResNet-50模型中的批量归一化层BatchNorm的层序数,L表示ResNet-50模型中的批量归一化层BatchNorm的总层数;
Figure BDA0003768232690000047
表示目标域模型T在第l个BatchNorm层上的特征,T表示目标域模型,
Figure BDA0003768232690000048
表示对所包含的内容先求平方再计算平方根,k表示各源域模型中批量归一化层BatchNorm的层序数,K表示各源域模型中批量归一化层BatchNorm的总层数,K+1表示共含K+1个源域模型,第K+1个源域模型是通过所述2.4)获得目标域的软标签,然后在ResNet-50模型基础上利用KL散度方法优化获得的一个额外模型;
然后采用Adam方法进行反向传播优化更新目标域模型的模型参数使得总损失Loss最小。
这样通过多次迭代,减小总损失,训练获得最终的目标域模型。
本发明设置了神经网络KD3A中的新的基于风格对齐的指标函数BatchNorm SMMD,通过拉近目标域和每个源域在BatchNorm中均值和方差距离来缩进目标域和每个源域分布的方式,拉近作用能够使目标域数据和源域数据的特征分布尽量接近,实现了基于源域数据训练的模型,用到目标域数据上时有较好的效果。
所述步骤3中,将两个阶段的结果输入信息融合模块获得综合的青光眼判断结果,具体如下:
若满足Y1≥0.6且Y2≥0.5则为强青光眼;
若满足Y1<0.6且Y2≥0.5或者Y1≥0.6且Y2<0.5则为怀疑青光眼;
若满足Y1<0.6且Y2<0.5则为正常眼;
其中,Y1表示第一阶段的杯盘比结果,Y2表示第二阶段的青光眼分类概率结果。
通常青光眼图像的解读都需要大量有经验的青光眼专家或训练有素的技术员,既费时又费力,很难对其进行筛查和诊断。本发明针对现有的基于分割杯盘的单一诊断信息不足的基础上,公开了一个两阶段的青光眼诊断网络模型,通过眼底图像进行检测是否为青光眼结果。
本发明建立了一个两阶段的青光眼诊断网络模型,第一阶段获得眼底图像分割杯盘比的信息,第二阶段获得青光眼特征挖掘的信息,两阶段的重点部分分别为后置处理模块和BatchNorm SMMD算法;最后通过信息融合模块,对眼底图像进行检测诊断,此方法大大减少了医学诊断周期。
本发明建立的两阶段的青光眼诊断网络模型特色之处有以下方面:
1)综合处理了杯盘比信息和考虑到视网膜神经纤维的改变对青光眼诊断的影响,通过挖掘眼底图像特征来进行观察该图像是否为青光眼;
2)通过后置处理模块获得分割后的视杯视盘的外接矩形的宽高比;
3)提议了一种新的基于风格对齐的指标函数BatchNorm SMMD,拉近目标域和每个源域在BatchNorm中均值和方差的距离。
本发明相比于现有技术而言,具有以下有益效果:
本发明实现了快速高效的从眼底图像检测青光眼的效果,方法大大减少了医生的诊断周期,解决了在基于隐私保护政策的要求下,许多青光眼数据集只能进行本地访问,使现有方法无法对青光眼图像进行较好检测的技术问题。
附图说明
图1为4个源域青光眼的图像数据图;
图2(a)为应用AG-Net分割网络获得的视杯和视盘的分割结果图;
图2(b)为通过后置处理方法,将视杯和视盘的分割结果分成单独的视杯掩膜和视盘掩膜;
图2(c)为计算得到的视杯和视盘掩膜的外接矩形框;
图3为第二阶段青光眼特征挖掘网络的设计图;
图4为整体网络的设计图。
具体实施方式
下面结合附图和具体实施对本发明作进一步说明。
本发明的实施例如下:
步骤1:建立了一个两阶段的青光眼诊断网络模型,如图4所示,通过两阶段的青光眼诊断网络模型对眼底图像进行处理,第一阶段用于获得杯盘比结果,第二阶段用于获得青光眼分类概率结果;
第一阶段包括依次设置的AG-Net分割网络和后置处理模块,通过AG-Net分割网络将每幅眼底图像分割为三个通道图像,将三个通道图像输入后置处理模块获得纵向杯盘比,具体为:
1.1)将眼底图像输入AG-Net分割网络获得输出图像X,输出图像X作为后置处理模块的输入,在输出图像X中,舍弃背景通道图像,保留视杯通道图像Xcup和视盘通道图像Xdisc
1.2)提取视杯通道图像Xcup和视盘通道图像Xdisc的连通区域并各自进行大小排序,取面积最大的N个连通区域,去掉面积小的连通区域,对于视杯通道图像Xcup和视盘通道图像Xdisc共计获得2N个连通区域;具体实施中,这里N选择3。
1.3)统计视杯通道图像Xcup和视盘通道图像Xdisc中的连通区域的每个像素的像素值均设置为1,连通区域以外的其它区域的每个像素的像素值均设置0,获得视杯通道二值化图像和视盘通道二值化图像;
1.4)将视杯通道二值化图像和视盘通道二值化图像均依次进行腐蚀、膨胀的操作,以去除连通区域的毛边,得到最终的视杯通道后处理图像Ycup和视盘通道后处理图像Ydisc
具体是计算视杯通道后处理图像Ycup和视盘通道后处理图像Ydisc中像素值设置为1的区域求取在图像水平方向和图像竖直方向上的最大值和最小值点,共计四个点,外接矩形的四边分别经过四个点而设置出外接矩形。
1.5)计算视杯通道后处理图像Ycup和视盘通道后处理图像Ydisc的外接矩形Zcup和Zdisc
1.6)根据外接矩形计算纵向杯盘比:
vC/D=Hcup/Hdisc
其中,v表示纵向,Hcup、Hdisc分别表示视杯通道外接矩形Zcup和视盘通道外接矩形Zdisc的高H,vC/D表示视杯外接矩形的高和视盘外接矩形的高之间的比例,作为纵向杯盘比。
如图3所示,第二阶段具体包括ResNet-50模型和批量归一化函数BatchNormSMMD,ResNet-50模型输入的是眼底图像,输出的是青光眼的分类概率值,将眼底图像输入到ResNet-50模型中输出获得青光眼的分类概率值。
步骤2:收集眼底图像数据,并对眼底图像数据进行预处理,用预处理后的眼底图像数据对两阶段的青光眼诊断网络模型中的第二阶段进行训练,获得训练后的两阶段的青光眼诊断网络模型;
2.1)收集的眼底图像数据,收集的眼底图像数据分为一个目标域眼底图像数据集和多个源域眼底图像数据集的两类;
将浙江大学第二附属医院Zer数据集和3个公共数据集LAG、Mic和Odir共4个数据集作为源域眼底图像数据,图像样例见图1。其中Zer数据集共有1865张图像,青光眼图像共有997张,正常眼图像共有868张;LAG数据集共有4854张图像,青光眼图像共有1711张,正常眼图像共有3143张;Mic数据集共有400张图像,青光眼图像共有40张,正常眼图像共有360张;Odir数据集共有3447张图像,青光眼图像共有325张,正常眼图像共有3122张;4个源域数据集共有10566张图像,青光眼图像共有3073张,正常眼图像共有7493张。将北京大学第三医院收集的By数据集作为目标域数据集,共有4388张图像,青光眼图像共有873张,正常眼图像共有3515张。
对数据进行预处理:
操作1、数据集中有一些不同文件夹中存在相同图片的情况,去掉了这些重复样本(上述5个数据集信息为已经去除重复样本后的眼底图像数量);
操作2、统一图片尺度:先缩放到(256,256),然后随机剪裁到(224,224);
操作3、对图片进行水平翻转;
操作4、标准化处理(其中mean=[0.485,0.456,0.406],std=[0.229,0.224,0.225])。
2.2)先用多个源域眼底图像数据分别对本地离线的ResNet-50模型进行本地化训练,获得训练后的各个源域模型;
2.3)然后将目标域眼底图像数据集中的每幅眼底图像输入到训练后的各个源域模型进行预测处理,输出获得各个源域模型各自的青光眼分类概率值及其置信度;
2.4)对所有源域模型各自的青光眼分类概率值进行筛选处理,筛选保留下来的所有青光眼分类概率值求平均值作为该幅眼底图像的软标签;
具体是对所有源域模型各自的青光眼分类概率值进行筛选处理,具体为:对所有源域模型各自的青光眼分类概率值对应的置信度和预设的置信度阈值进行比较进行第一次筛选,去除小于置信度阈值的青光眼分类概率值;然而对第一次筛选后保留的所有青光眼分类概率值进行一致性判断而进行第二次筛选,去除不一致的青光眼分类概率值;将第二次筛选后保留的所有青光眼分类概率值作为保留下来的青光眼分类概率值。
2.5)最后将目标域眼底图像数据集的所有幅眼底图像及其软标签输入到ResNet-50模型中采用批量归一化函数BatchNorm SMMD进行训练优化获得目标域模型。
如图3所示,具体是在训练过程中在目标域模型和各个源域模型之间采用批量归一化函数BatchNorm SMMD进行以下处理:
从每个源域模型中提取获得各层批标准化层BatchNorm存储的均值和方差
Figure BDA0003768232690000081
从目标域模型中提取获得各层批标准化层BatchNorm存储的均值和方差
Figure BDA0003768232690000082
其中,
Figure BDA0003768232690000083
表示l从1到L取值,L是包含BatchNorm层的总数,l是第l个BatchNorm层,所以
Figure BDA0003768232690000084
表示l从1到L取值。
然后按照以下公式处理计算总损失Loss:
Figure BDA0003768232690000085
其中,Loss表示总损失,
Figure BDA0003768232690000086
表示第k个源域模型在第l个BatchNorm层上的特征,μ()表示特征的均值,σ2()表示特征的方差,l表示ResNet-50模型中的批量归一化层BatchNorm的层序数,L表示ResNet-50模型中的批量归一化层BatchNorm的总层数;
Figure BDA0003768232690000087
表示目标域模型T在第l个BatchNorm层上的特征,T表示目标域模型,
Figure BDA0003768232690000088
表示对所包含的内容先求平方再计算平方根,k表示各源域模型中批量归一化层BatchNorm的层序数,K表示各源域模型中批量归一化层BatchNorm的总层数,K+1表示共含K+1个源域模型,第K+1个源域模型是通过所述2.4)获得目标域的软标签,然后在ResNet-50模型基础上利用KL散度方法优化获得的一个额外模型。
然后采用Adam方法进行反向传播优化更新目标域模型的模型参数使得总损失Loss最小。具体实施中,直到达到预设的迭代次数,则停止反向传播优化更新。
步骤3:针对待测的眼底图像输入训练后的两阶段的青光眼诊断网络模型获得两阶段的结果,综合两阶段的结果对眼底图像中的青光眼情况进行分类判断。
针对第一阶段:
将步骤2各源域眼底图像数据中随机抽取544张眼底图像,由医生进行视杯和视盘的标注,作为训练用的图像和真实值,输入AG-Net分割网络中训练,保存最后训练好的AG-Net分割网络模型;
待测的眼底图像输入训练好的AG-Net分割网络模型,获得视杯和视盘的分割结果X,如图2(a)所示,通过后置处理方法,分成单独的视杯掩膜和视盘掩膜Ycup和Ydisc,如图2(b)所示,随后获得视杯和视盘的外接矩形Zcup和Zdisc,如图2(c)所示,并计算纵向杯盘比Y1。
针对第二阶段:
将待测的眼底图像输入最终训练后的ResNet-50模型获得第二阶段青光眼特征分类概率结果Y2。
步骤3中,将两个阶段的结果输入信息融合模块获得综合的青光眼判断结果,具体如下:
若满足Y1≥0.6且Y2≥0.5则为强青光眼;
若满足Y1<0.6且Y2≥0.5或者Y1≥0.6且Y2<0.5则为怀疑青光眼;
若满足Y1<0.6且Y2<0.5则为正常眼;
其中,Y1表示第一阶段的杯盘比结果,Y2表示第二阶段的青光眼分类概率结果。
由此将眼底图像判断分为三类结果:强青光眼、怀疑青光眼和正常眼。
由此,本发明针对现有基于分割杯盘的单一诊断信息不足的基础上和数据出于隐私保护的目的,提出了一种联合杯盘比和青光眼特征挖掘的二阶段网络架构。尤其在青光眼特征挖掘阶段,出于隐私保护的目的,提议了一种无源领域自适应网络,该网络中提议了一种新的对齐源域和目标域分布风格的方法名为BatchNorm SMMD,用于解决在隐私保护政策的要求下,现有方法对青光眼图像检测准确率较低的技术问题。

Claims (8)

1.一种基于联邦学习的青光眼图像检测方法,其特征在于:方法包括以下步骤:
步骤1:建立了一个两阶段的青光眼诊断网络模型,通过两阶段的青光眼诊断网络模型对眼底图像进行处理,第一阶段用于获得杯盘比结果,第二阶段用于获得青光眼分类概率结果;
步骤2:收集眼底图像数据,并对眼底图像数据进行预处理,用预处理后的眼底图像数据对两阶段的青光眼诊断网络模型中的第二阶段进行训练,获得训练后的两阶段的青光眼诊断网络模型;
步骤3:针对待测的眼底图像输入训练后的两阶段的青光眼诊断网络模型获得两阶段的结果,综合两阶段的结果对眼底图像中的青光眼情况进行分类判断。
2.根据权利要求1所述的一种基于联邦学习的青光眼图像检测方法,其特征在于:
所述步骤1中的第一阶段包括依次设置的AG-Net分割网络和后置处理模块,通过AG-Net分割网络将每幅眼底图像分割为三个通道图像,将三个通道图像输入后置处理模块获得纵向杯盘比,具体为:
1.1)将眼底图像输入AG-Net分割网络获得输出图像X,在输出图像X中,舍弃背景通道图像,保留视杯通道图像Xcup和视盘通道图像Xdisc
1.2)提取视杯通道图像Xcup和视盘通道图像Xdisc的连通区域并各自进行大小排序,取面积最大的N个连通区域,对于视杯通道图像Xcup和视盘通道图像Xdisc共计获得2N个连通区域;
1.3)统计视杯通道图像Xcup和视盘通道图像Xdisc中的连通区域的每个像素的像素值均设置为1,连通区域以外的其它区域的每个像素的像素值均设置0,获得视杯通道二值化图像和视盘通道二值化图像;
1.4)将视杯通道二值化图像和视盘通道二值化图像均依次进行腐蚀、膨胀的操作,得到最终的视杯通道后处理图像Ycup和视盘通道后处理图像Ydisc
1.5)计算视杯通道后处理图像Ycup和视盘通道后处理图像Ydisc的外接矩形Zcup和Zdisc:
1.6)根据外接矩形计算纵向杯盘比:
vC/D=Hcup/Hdisc
其中,v表示纵向,Hcup、Hdisc分别表示视杯通道外接矩形Zcup和视盘通道外接矩形Zdisc的高H,vC/D表示视杯外接矩形的高和视盘外接矩形的高之间的比例,作为纵向杯盘比。
3.根据权利要求2所述的一种基于联邦学习的青光眼图像检测方法,其特征在于:所述步骤1.4)中,是计算视杯通道后处理图像Ycup和视盘通道后处理图像Ydisc中像素值设置为1的区域求取在图像水平方向和图像竖直方向上的最大值和最小值点,共计四个点,外接矩形的四边分别经过所述四个点而设置出外接矩形。
4.根据权利要求1所述的一种基于联邦学习的青光眼图像检测方法,其特征在于:所述步骤1中的第二阶段具体包括ResNet-50模型,所述的ResNet-50模型输入的是眼底图像,输出的是青光眼的分类概率值,将眼底图像输入到ResNet-50模型中输出获得青光眼的分类概率值。
5.根据权利要求1所述的一种基于联邦学习的青光眼图像检测方法,其特征在于:所述步骤2,具体为:
2.1)收集的眼底图像数据,收集的眼底图像数据分为一个目标域眼底图像数据集和多个源域眼底图像数据集的两类;
2.2)先用多个源域眼底图像数据分别对本地离线的ResNet-50模型进行本地化训练,获得训练后的各个源域模型;
2.3)然后将目标域眼底图像数据集中的每幅眼底图像输入到训练后的各个源域模型进行预测处理,输出获得各个源域模型各自的青光眼分类概率值;
2.4)对所有源域模型各自的青光眼分类概率值进行筛选处理,筛选保留下来的所有青光眼分类概率值求平均值作为该幅眼底图像的软标签;
2.5)最后将目标域眼底图像数据集的所有幅眼底图像及其软标签输入到ResNet-50模型中采用批量归一化函数BatchNorm SMMD进行训练优化获得目标域模型。
6.根据权利要求5所述的一种基于联邦学习的青光眼图像检测方法,其特征在于:所述2.4)中,对所有源域模型各自的青光眼分类概率值进行筛选处理,具体为:对所有源域模型各自的青光眼分类概率值对应的置信度和预设的置信度阈值进行比较进行第一次筛选,去除小于置信度阈值的青光眼分类概率值;然而对第一次筛选后保留的所有青光眼分类概率值进行一致性判断而进行第二次筛选,去除不一致的青光眼分类概率值。
7.根据权利要求5所述的一种基于联邦学习的青光眼图像检测方法,其特征在于:所述2.5)中,在训练过程中在目标域模型和各个源域模型之间采用批量归一化函数BatchNormSMMD进行以下处理:
从每个源域模型中提取获得各层批量归一化层BatchNorm存储的均值和方差
Figure FDA0003768232680000031
从目标域模型中提取获得各层批量归一化层BatchNorm存储的均值和方差
Figure FDA0003768232680000032
其中,
Figure FDA0003768232680000033
表示l从1到L取值,L是包含BatchNorm层的总数,l是第l个BatchNorm层,所以
Figure FDA0003768232680000034
表示l从1到L取值;
然后按照以下公式处理计算总损失Loss:
Figure FDA0003768232680000035
其中,Loss表示总损失,
Figure FDA0003768232680000036
表示第k个源域模型在第l个BatchNorm层上的特征,μ( )表示特征的均值,σ2( )表示特征的方差,l表示ResNet-50模型中的批量归一化层BatchNorm的层序数,L表示ResNet-50模型中的批量归一化层BatchNorm的总层数;
Figure FDA0003768232680000037
表示目标域模型T在第l个BatchNorm层上的特征,T表示目标域模型,
Figure FDA0003768232680000038
表示对所包含的内容先求平方再计算平方根,k表示各源域模型中批量归一化层BatchNorm的层序数,K表示各源域模型中批量归一化层BatchNorm的总层数,K+1表示共含K+1个源域模型;
然后采用Adam方法进行反向传播优化更新目标域模型的模型参数使得总损失Loss最小。
8.根据权利要求1所述的一种基于联邦学习的青光眼图像检测方法,其特征在于:所述步骤3中,将两个阶段的结果输入信息融合模块获得综合的青光眼判断结果,具体如下:
若满足Y1≥0.6且Y2≥0.5则为强青光眼;
若满足Y1<0.6且Y2≥0.5或者Y1≥0.6且Y2<0.5则为怀疑青光眼;
若满足Y1<0.6且Y2<0.5则为正常眼;
其中,Y1表示第一阶段的杯盘比结果,Y2表示第二阶段的青光眼分类概率结果。
CN202210892726.5A 2022-07-27 2022-07-27 一种基于联邦学习的青光眼图像检测方法 Active CN115100187B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210892726.5A CN115100187B (zh) 2022-07-27 2022-07-27 一种基于联邦学习的青光眼图像检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210892726.5A CN115100187B (zh) 2022-07-27 2022-07-27 一种基于联邦学习的青光眼图像检测方法

Publications (2)

Publication Number Publication Date
CN115100187A true CN115100187A (zh) 2022-09-23
CN115100187B CN115100187B (zh) 2024-06-11

Family

ID=83299380

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210892726.5A Active CN115100187B (zh) 2022-07-27 2022-07-27 一种基于联邦学习的青光眼图像检测方法

Country Status (1)

Country Link
CN (1) CN115100187B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665447A (zh) * 2018-04-20 2018-10-16 浙江大学 一种基于眼底照相深度学习的青光眼图像检测方法
CN111753820A (zh) * 2019-03-27 2020-10-09 天津工业大学 一种基于深度学习的彩色眼底图像视杯分割方法
CN112288720A (zh) * 2020-10-29 2021-01-29 苏州体素信息科技有限公司 一种基于深度学习的彩色眼底图像青光眼筛查方法及系统
WO2021053656A1 (en) * 2019-09-19 2021-03-25 Artificial Learning Systems India Pvt Ltd System and method for deep network-based glaucoma prediction
CN113256638A (zh) * 2021-05-11 2021-08-13 北京航空航天大学 基于卷积神经网络模型的眼球角膜神经分割方法及装置
US20220047159A1 (en) * 2018-12-19 2022-02-17 Shanghai Eaglevision Medical Technology Co., Ltd. Glaucoma image recognition method and device and diagnosis system
WO2022125175A1 (en) * 2020-12-07 2022-06-16 F. Hoffmann-La Roche Ag Techniques for generating predictive outcomes relating to oncological lines of therapy using artificial intelligence

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665447A (zh) * 2018-04-20 2018-10-16 浙江大学 一种基于眼底照相深度学习的青光眼图像检测方法
US20220047159A1 (en) * 2018-12-19 2022-02-17 Shanghai Eaglevision Medical Technology Co., Ltd. Glaucoma image recognition method and device and diagnosis system
CN111753820A (zh) * 2019-03-27 2020-10-09 天津工业大学 一种基于深度学习的彩色眼底图像视杯分割方法
WO2021053656A1 (en) * 2019-09-19 2021-03-25 Artificial Learning Systems India Pvt Ltd System and method for deep network-based glaucoma prediction
CN112288720A (zh) * 2020-10-29 2021-01-29 苏州体素信息科技有限公司 一种基于深度学习的彩色眼底图像青光眼筛查方法及系统
WO2022125175A1 (en) * 2020-12-07 2022-06-16 F. Hoffmann-La Roche Ag Techniques for generating predictive outcomes relating to oncological lines of therapy using artificial intelligence
CN113256638A (zh) * 2021-05-11 2021-08-13 北京航空航天大学 基于卷积神经网络模型的眼球角膜神经分割方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AOGUANG GU等: "Federated Ophthalmic Disease Diagnosis Based on Weighted Averaging and Local Optimization", 《2023 CHINA AUTOMATION CONGRESS (CAC)》, 19 March 2024 (2024-03-19) *
MIAO ZHANG等: "SplitAVG: A Heterogeneity-Aware Federated Deep Learning Method for Medical Imaging", 《 IEEE JOURNAL OF BIOMEDICAL AND HEALTH INFORMATICS》, 22 June 2022 (2022-06-22) *
刘少鹏;洪佳明;梁杰鹏;贾西平;欧阳佳;印鉴;: "面向医学图像分割的半监督条件生成对抗网络", 软件学报, no. 08, 15 August 2020 (2020-08-15) *
王琳艳: "眼睑肿瘤病理特征分析及基于新型人工智能算法的诊断应用研究", 《中国博士学位论文全文数据库 医药卫生科技辑》, 15 January 2021 (2021-01-15) *

Also Published As

Publication number Publication date
CN115100187B (zh) 2024-06-11

Similar Documents

Publication Publication Date Title
CN111985536B (zh) 一种基于弱监督学习的胃镜病理图像分类方法
CN112101451B (zh) 一种基于生成对抗网络筛选图像块的乳腺癌组织病理类型分类方法
CN111798425B (zh) 基于深度学习的胃肠道间质瘤中核分裂象智能检测方法
CN112365973B (zh) 基于对抗网络和Faster R-CNN的肺结节辅助诊断系统
KR102537470B1 (ko) 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(ct)을 이용한 갑상선안병증(go) 진단 방법
CN113012163A (zh) 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质
CN113782184A (zh) 一种基于面部关键点与特征预学习的脑卒中辅助评估系统
CN110033448B (zh) 一种aga临床图像的ai辅助雄秃汉密尔顿分级预测分析方法
CN113538422B (zh) 一种基于染色强度矩阵的病理图像自动分类方法
CN114332910A (zh) 一种面向远红外图像的相似特征计算的人体部位分割方法
Syed et al. Detection of tumor in MRI images using artificial neural networks
CN113241154A (zh) 一种人工智能血液涂片细胞标注系统及方法
CN112634221A (zh) 基于图像和深度的角膜层次识别及病变定位方法和系统
CN115100187A (zh) 一种基于联邦学习的青光眼图像检测方法
CN115132275B (zh) 基于端到端三维卷积神经网络预测egfr基因突变状态方法
Desiani et al. A robust techniques of enhancement and segmentation blood vessels in retinal image using deep learning
Lekshmi et al. Detection of glaucoma and diabetic retinopathy using image processing technique by Raspberry pi
Hsu et al. A comprehensive study of age-related macular degeneration detection
Singhal et al. Detection of Diabetic Retinopathy using Machine Learning
CN116758068B (zh) 一种基于人工智能的骨髓图片细胞形态分析方法
Geethalakshmi et al. Mathematical morphology and optimum principal curvature based segmentation of blood vessels in human retinal fundus images
Peng et al. Residual Module and Multi-scale Feature Attention Module for Exudate Segmentation
CN116705289B (zh) 基于语义分割网络的宫颈病理诊断装置
Devaraj et al. Early Detection Glaucoma and Stargardt's Disease Using Deep Learning Techniques.
CN116883397B (zh) 一种应用于解剖病理学的自动精益方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant