CN116934747A - 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 - Google Patents
眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 Download PDFInfo
- Publication number
- CN116934747A CN116934747A CN202311188007.6A CN202311188007A CN116934747A CN 116934747 A CN116934747 A CN 116934747A CN 202311188007 A CN202311188007 A CN 202311188007A CN 116934747 A CN116934747 A CN 116934747A
- Authority
- CN
- China
- Prior art keywords
- network
- segmentation
- fundus image
- domain
- image segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 120
- 238000012549 training Methods 0.000 title claims abstract description 52
- 238000003709 image segmentation Methods 0.000 title claims abstract description 39
- 208000010412 Glaucoma Diseases 0.000 title claims abstract description 17
- 238000003745 diagnosis Methods 0.000 title claims abstract description 5
- 230000011218 segmentation Effects 0.000 claims abstract description 76
- 230000006870 function Effects 0.000 claims description 19
- 230000004913 activation Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000010354 integration Effects 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 abstract description 25
- 230000008569 process Effects 0.000 abstract description 12
- 230000003044 adaptive effect Effects 0.000 abstract description 10
- 230000015556 catabolic process Effects 0.000 abstract description 4
- 238000006731 degradation reaction Methods 0.000 abstract description 4
- 230000002708 enhancing effect Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 abstract description 3
- 230000006978 adaptation Effects 0.000 description 20
- 239000010410 layer Substances 0.000 description 19
- 238000011156 evaluation Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 238000013461 design Methods 0.000 description 7
- 238000012216 screening Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000002679 ablation Methods 0.000 description 5
- 238000010200 validation analysis Methods 0.000 description 5
- 238000012800 visualization Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 101100326595 Arabidopsis thaliana CAD6 gene Proteins 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000008485 antagonism Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010835 comparative analysis Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 101100001677 Emericella variicolor andL gene Proteins 0.000 description 1
- 101100095841 Escherichia coli (strain K12) sixA gene Proteins 0.000 description 1
- 208000022873 Ocular disease Diseases 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003054 catalyst Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007634 remodeling Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000009666 routine test Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007423 screening assay Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机图像处理领域,提供了眼底图像分割模型训练方法、设备和青光眼辅助诊断系统。首先,设计一种多尺度沃瑟斯坦块判别器(MWPD)网络用于在多尺度上提取领域特定特征,从而增强领域分类性能并为分割网络提供有价值的指导。其次,设计一种自适应加权领域约束(AWDC)模块,在训练过程中,该模块为不同尺度动态分配变化的权重,使模型能够自适应地关注大量信息性特征。最后,设计一种像素级特征增强(PFE)模块,该模块通过融合精细的高层特征来增强浅层网络提取的浅层特征确保保留不变域信息。在两个公开可用的眼底图像数据库上进行全面的实验,验证了本发明的方法具有解决模型退化和改善分割性能的能力。
Description
技术领域
本发明涉及计算机图像处理领域,具体涉及眼底图像分割模型训练方法、设备以及青光眼辅助诊断系统。
背景技术
青光眼是一种日益普遍的眼部疾病,将会导致不可逆转的视觉损伤。早期和精确的筛查对于预防视力受损至关重要。在大规模青光眼筛查中,视神经盘(ONH)评估是一种常规检测方法,其中杯盘比(CDR)作为诊断标准起着非常重要的作用。CDR值是通过计算垂直视杯直径(VCD)和垂直盘直径(VDD)比值来确定的,它有助于诊断青光眼病例,当其值超过0.65时,视为指示性阈值。因此,如何准确地分割视盘和视杯是青光眼有效筛查的关键。
近年来,卷积神经网络(CNNs)在自动化视盘和视杯分割方面展现出较好的效果。然而,这些方法的性能通常依赖于符合一致分布的大量带有标注的训练数据。在实际场景中,若要在医学影像领域获取广泛而精确的标注数据,既开销高又具有挑战性。此外,不同医疗机构使用各种各样的成像设备和协议,导致眼底图像存在外观差异,包括分辨率、色调、对比度和亮度的差异(如图1所示),这些问题将会导致在训练的分割模型与实际临床应用之间存在域偏移的重要挑战。
解决上述域偏移问题的最直接方法就是使用来自源域和目标域的数据训练网络。然而,在实际应用中,特别是在医学图像分割环境中,标注目标域数据可能是非常困难的。此时,无监督域自适应(UDA)方法作为一种新的方案被引入用于解决此问题,使得能够在具有标注的源域上进行学习,并将其应用于具有不同外观的未标注的目标域。但是,传统的单尺度或单层对抗适应方法无法有效地考虑眼底图像中视盘(OD)和视杯(OC)之间在亮度、颜色、形状等方面的差异,从而导致模型的域适应性差。为此,最近大量多尺度域自适应方法被提出,这些方法通常涉及在不同尺度上提取特征并将其纳入自适应框架中;尽管这些方法在解决域偏移方面展现出优越性,但仍然存在相关挑战:
(1)目前大量基于多尺度域自适应方法通常依赖于基于CNNs的分割模型,可能无法完全捕捉空间信息;
(2)现有方法需要引入额外的判别器,导致模型复杂性增加和训练困难,而对抗学习本身也面临着训练不稳定和缺乏适当距离度量等问题;
(3)现有方法为不同尺度的特征分配相等的权重或手动设置权重,对于多尺度特征的利用来说并不理想,因为每个不同尺度对域自适应过程的贡献是不同的;
(4)来自浅层的底层特征易受域偏移的影响,因为它们既包含不变域的信息,也包含特定域的信息,完全忽略这些特征将忽视它们在语义分割任务中的潜力。
发明内容
为了解决上述的至少一个技术问题,本发明提供眼底图像分割模型训练方法以及相关设备或系统,来实现视盘和视杯联合分割。
第一方面,本发明提供一种眼底图像分割模型训练方法,其包括以下步骤:
获取带标注的源域数据集和无标注的目标域数据集,所述源域数据集包含源域图像和与所述源域图像对应的标注图像,所述目标域数据集包含目标域图像;
构建分割网络和判别网络,所述分割网络包含AWDC模块和PFE模块;
使用所述源域图像和目标域图像对所述分割网络进行训练,其中,由所述PFE模块将所述分割网络提取的高级特征整合到低级特征中,并由所述分割网络生成多尺度输出;由所述AWDC模块根据所述多尺度输出生成加权多尺度输出;
使用所述加权多尺度输出对所述判别网络进行训练,由所述判别网络判断所述多尺度输出源自所述源域图像或目标域图像的概率;
计算所述分割网络的总损失和所述判别网络的总损失,根据所述分割网络的总损失更新所述分割网络的参数,根据所述判别网络的总损失更新所述判别网络的参数。
在一些优选的实施例中,所述分割网络为基于Transformer的语义分割模型SegFormer-B5,而且采用LeakyReLU激活函数替换原始的ReLU激活函数,采用层归一化层替换批归一化层。
在一些优选的实施例中,所述判别网络为多尺度沃瑟斯坦图像块判别器,其包括五个卷积层,卷积核大小为4,步长为2,所述五个卷积层的通道数分别设置为N×2、N×4、N×6、N×8和1,其中N为32、64、128或256。
在一些优选的实施例中,所述由所述PFE模块将所述分割网络提取的高级特征整合到低级特征中包括以下步骤:
对具有H×W×C维度的高级特征图进行MLP操作,将H和W维度进行组合,其中H、W和C分别表示高度、宽度和通道数;
在所有通道上应用平均池化操作来计算每个像素的权重,生成像素级权重图;
将所述像素级权重图在维度上扩展,并与所述高级特征图进行逐元素乘法,然后进行重塑操作。
在一些优选的实施例中,所述由所述AWDC模块根据所述多尺度输出生成加权多尺度输出包括以下步骤:
将所述多尺度输出中的特征图在通道维度上连接成特征块F;
对所述特征块F执行全局平均池化操作;
由式(5)计算权重:
其中,α和β分别表示Sigmoid和LeakyReLU激活函数,和/>分别表示1×1卷积操作;
将计算得到的权重应用于所述特征块F,得到加权多尺度输出。
在一些优选的实施例中,所述判别网络的总损失和分割网络的总损失分别由式(6)和式(7)计算得到:
其中,所述、L adv(x t)和L adv(x s)分别由式(1)、式(4-1)和式(4-2)计算得到:
其中,和/>分别由式(2)和式(3)计算得到:
其中,L D表示所述判别网络的总损失,L S表示所述分割网络的总损失,λ和γ分别表示平衡系数;x s和y s分别表示所述源域图像和与所述源域图像对应的标注图像,x t表示所述目标域图像,表示将x s输入到所述分割网络后输出的概率;H p和W p分别表示所述判别网络输出特征图的高度和宽度,B表示批量大小,h p和w p分别表示所述判别网络输出特征图的维度且h p∈[1,H p]、w p∈[1,W p];S(·)表示所述分割网络,D(·)表示所述判别网络;K表示所述分割网络中分割任务的类别数,k表示正整数;h表示标签的高,w表示标签的宽。
在一些优选的实施例中,所述λ为0.001,所述γ为0.1,所述K为3。
第二方面,本发明提供一种眼底图像分割模型训练设备,其包括:
至少一个处理器;
以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有指令,所述指令在被所述至少一个处理器执行时实现所述眼底图像分割模型训练方法。
第三方面,本发明提供一种眼底图像分割方法,其包括以下步骤:将包含视盘和视杯的眼底图像输入到所述眼底图像分割模型训练方法得到的眼底图像分割模型中,并由所述眼底图像分割模型输出目标图像。
第四方面,本发明提供一种眼底图像分割设备,其包括:
至少一个处理器;
以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有指令,所述指令在被所述至少一个处理器执行时实现所述眼底图像分割方法。
第五方面,本发明提供一种青光眼辅助诊断系统,其包括所述眼底图像分割设备。
由于采用了以上技术方案,本发明的实施例至少具有以下有益效果:
(1)将SegFormer架构集成到本发明的眼底图像分割模型中,以便促进实现OD和OC联合分割;SegFormer架构整合了全局上下文信息和空间关系,能够提高分割结果的鲁棒性;
(2)设计了一种多尺度沃瑟斯坦图像块判别器(MWPD)模块,改善了域自适应以及确保了对抗学习的稳定性;尤为重要的是,仅利用单个判别器在多尺度输出域上提取不变域特征,从而增强域分类性能并引导分割网络的学习过程;
(3)设计了一种自适应加权域约束(AWDC)模块,实现了动态分配权重赋予不同尺度特征,减轻了域偏移引起的模型退化问题,同时实现了重要信息的特征选择;该过程确保了模型专注于最相关的特征,有效解决变域问题以及增强适应性能;
(4)设计了一种像素级特征增强(PFE)模块,通过整合深层获得的高层特征,PFE模块增强了浅层提取的低层特征,且有效地保留了不变域的信息,并改善了网络适应域偏移的能力;此外,PFE模块还解决了SegFormer中分割操作导致的浅层全局特征丢失的问题;
(5)与现有分割方法相比,本发明的分割方法在两个公开且广泛使用的视网膜图像数据集Drishti-GS和REFUGE的评估结果显示出有效性和健壮性。
附图说明
图1显示了不同医疗机构采集的眼底图像产生的域偏移现象。
图2为本发明实施例中多尺度自适应对抗学习无监督域自适应(MAAL-UDA)方法的总体框架图。
图3为本发明实施例中自适应加权域约束模块结构图。
图4为本发明实施例中像素级特征增强模块结构图。
图5为本发明实施例中SegS和SegT方法在两个数据库的分割结果。
图6为本发明实施例中不同无监督自适应方法在两个数据集中部分图像的分割可视化结果。
图7为本发明实施例中不同方法以REFUGE的训练集为源域和Drishti-GS数据集为目标域的Dice分数盒图。
图8显示了本发明实施例中不同消融实验与基线方法在两个数据集中部分图像的分割可视化结果。
图9显示了本发明实施例中不同损失函数在两个数据集的Dice分值结果。
图10为本发明实施例中基线方法与MAAL-UDA方法所提取特征分布示意图。
图11为本发明实施例中不同方法的AUC曲线图。
具体实施方式
以下将结合实施例和附图对本发明的构思及产生的技术效果进行清楚、完整的描述,以充分地阐述本发明的目的、方案和效果。
在本发明中,眼底图像分割方法又可以称为多尺度自适应对抗学习无监督域自适应(MAAL-UDA)方法。该方法首先需要训练出眼底图像分割模型,然后利用眼底图像分割模型对包含视盘和视杯的眼底图像进行分割。
如图2所示,眼底图像分割模型包括一个简称为S的分割网络和一个简称为D的判别网络(MWPD模块),其中分割网络S包含一个AWDC模块和一个PFE模块。
在本发明中,带标注的源域数据集表示为,其中,/>和/>分别表示输入图像(源域图像)和对应的标注图像;而无标注的目标域数据集表示为/>,其中,/>表示输入图像(目标域图像)。/>和/>分别表示源域和目标域中图像的数量。表示源域中的第n张图像,/>表示其相应的二值标注图,同样,表示目标域中的第n张图像。本发明的MAAL-UDA方法在/>上进行训练,并在/>上进行评估,具体过程如下:
首先,依次将来自和/>的图像/>和/>作为输入传递给分割网络S,该分割网络生成用于OD和OC分割的多尺度输出,并且通过PFE模块进行高效增强;
随后,经过AWDC模块,该模块自适应为不同尺度特征赋予权重,从而获得域偏移不变特征;
最后,通过加权的多尺度输出再经过MWPD模块处理,该模块在多个尺度上挖掘特定域特征,从而提高域分类的性能。
(1)分割网络
在本发明中,将基于Transformer的语义分割模型SegFormer作为分割网络,该网络由一个无位置编码分层的Transformer编码器和一个轻量级All-MLP解码器组成。鉴于SegFormer的变体SegFormer-B5在Cityscapes验证集上表现出色的性能,因此,将SegFormer-B5作为网络骨干并进行特定改进以增强网络模型的表示能力。所述特定改进具体包括:首先,为了解决网络的死神经元问题,采用LeakyReLU激活函数替换原始的ReLU激活函数;其次,考虑传统批归一化(BN)层中的等通道设计可能不适用于域自适应,所以本发明采用层归一化(LN)层替换BN层。
在训练阶段,分割网络在有标注的源域数据上通过有监督的方式进行训练。该训练过程采用将多类交叉熵损失和Dice损失相结合的融合损失,多类交叉熵损失用于评估模型预测和相应的真值标注间的相似性,而Dice损失量化两个区域间的相似性。对于来自的具有尺寸w和h以及对应的真值/>的图像/>,分割损失/>表示如下:
其中,
其中,分割损失包括多类交叉熵损失/>和Dice损失/>两个关键组成部分,两个损失项之间的平衡由因子γ控制,实验证明将γ设置为0.1即可;变量K表示分割任务中涉及的类别数,在当前任务(OD和OC分割任务)中K= 3,包括OD、OC和背景三大类。
(2)判别网络
判别网络(判别器)为多尺度沃瑟斯坦图像块判别器(MWPD模块),MWPD模块的设计目的是对齐多尺度的不变域特征,有助于分割网络产生与源域类似的目标域分割结果。与现有的多尺度方法相比,本发明仅采用单一鉴别器,能够在不给模型增加额外负担的情况下有效地挖掘多尺度域信息。
为了考虑每个解码器层中输出空间对域自适应的影响,本发明基于PatchGAN进行改进,并通过串联得到了多尺度输入。MWPD模块由五个卷积层组成,卷积核大小为4,步长为2,通道数分别设置为N×2、N×4、N×6、N×8和1(经验性地将N设置为64)。每个卷积层后紧接LeakyReLU激活函数,以确保稳定训练。
PatchGAN对大小为m×n的图像块进行分类,可以有效区分源域和目标域的图像块。为了确保训练的稳定性以及加强域相关特征的挖掘,将沃瑟斯坦(Wasserstein)距离集成到判别器中。沃瑟斯坦距离是一种可靠的度量概率分布之间的不相似性指标,它能够克服在对抗学习中的梯度消失和训练不稳定等问题。因此,采用沃瑟斯坦距离作损失训练分割网络S(·)。判别器D(·)的主要目标提高其域分类能力。通过准确识别输入数据,判别器引导分割网络产生与源域相匹配的目标域分割结果。基于沃瑟斯坦距离的对抗性损失定义如下所示:
其中,x代表输入图像,B代表批量大小,判别器输出图像块的维度为h p∈[1,H p]和w p∈[1,W p],H p和W p分别表示所述判别网络输出特征图的高度和宽度。
(3)自适应加权域约束(AWDC)模块
对抗性学习技术在域自适应中具有重要潜力,可以促进不变域特征的一致学习。因此,鉴于每个尺度对域自适应过程的贡献可能不同,本发明设计AWDC模块(如图3所示),动态分配权重赋予不同的尺度的特征,使其能够自适应地关注信息丰富的特征。
在AWDC模块中,从分割网络中得到的特征图f 1、f 2、f 3、f 4、f 5具有相同的大小和通道输出,因此,首先通过在通道维度上进行连接形成一个统一的特征块F。然后为了建立通道间的初始权重W,特征块F执行全局平均池化(GAP)操作。随后,通过两个1×1卷积操作对初始权重进行优化调整,得到最终的权重。确定最终权重的计算过程定义如下:
其中,α和β是Sigmoid和LeakyReLU激活函数,和/>是1×1卷积操作。最后,将得到权重/>应用于特征块F的加权的特征/>。由于加权策略考虑了每个特征图对域自适应的影响,将这些加权特征块纳入MWPD判别器可以有效捕获不变域特征,从而增强模型的域自适应过程。
(4)像素级特征增强(PFE)模块
在分割网络的浅层提取的底层特征中,既包含不变域的信息,也包含变异域的信息,这对网络跨域泛化能力具有重要影响。此外,在Transformer中的分割操作会导致浅层网络层失去全局特征。为了解决域变异的影响并抵消网络浅层的全局特征丧失,本发明设计一个PFE模块。该PFE模块将包含深层全局和域不变信息的高级特征图与分割网络的多尺度特征结合起来,如图4所示。
在PFE模块中,首先通过对高级特征进行调整,得到一个包含域不变和全局信息的高级特征细化图。初始步骤是通过对具有H×W×C(分别表示高度、宽度和通道数)维度的高级特征图进行MLP操作,将H和W维度进行组合。通过该转换将单通道特征图转换为一维表示,以便后续进行像素加权。接着,在所有通道上应用平均池化(AvgPool)操作来计算每个像素的权重,生成一个像素级权重图。为了生成最终的像素级权重图,进行两个具有激活函数的MLP操作。这些MLP操作可以通过缩小因子(比例因子)r有效地减少模型参数数量,同时增强模型的非线性。然后,将像素级权重图在维度上扩展,并与高级特征图进行逐元素乘法。最后,进行重塑操作来恢复生成具有原始特征图大小的高级特征图。利用生成的高级特征图来增强底层特征,以减少域变异的影响,同时避免网络浅层的全局特征丢失。
(5)总损失函数
在本发明中,判别器D(·)的损失函数结合了源域和目标域的对抗损失。另一方面,分割网络S(·)的损失函数由两个部分构成,第一部分是使用源域的标注数据进行计算的分割损失,第二部分是使用目标域的未标注数据进行计算的对抗损失。在总体训练过程中,判别器D(·)和分割网络S(·)的损失函数按照下面给出的表达式交替更新:
其中,L D和L S分别表示判别器和分割网络的损失;λ是平衡系数,根据经验设置为0.001,控制分割损失和对抗损失之间的权衡。
表1 总体训练过程
为了验证本发明的技术效果,发明人进行了以下实验。
(a)MAAL-UDA方法与现有方法的对比实验
数据集:为评估MAAL-UDA方法的有效性,在两个不同的数据集Drishti-GS和REFUGE进行相关实验。源域数据来自REFUGE数据集的训练集,而目标域数据包括来自Drishti-GS数据集和REFUGE数据集的验证集样本。但由于上述数据采集所使用不同的成像设备,这些数据集在图像特征上呈现出差异,包括颜色和纹理。有关数据集的详细信息如下表所示。
表2 不同数据具体信息
Drishti-GS数据集包含50张图像的训练集和51张图像的测试集,REFUGE数据集的验证集包含360张正常图像和40张青光眼图像。为了确保实验的公平性,实验中随机选取10张青光眼图像和30张正常图像进行测试,而剩余的图像则用于训练。为了保证稳健可靠的评估,通过计算五次随机选取的样本集的平均结果来评估方法的性能。
数据预处理:初始步骤涉及通过使用预训练的U-Net网络实现眼底图像中的定位视盘(OD)区域。随后,将原图像和相应的真实标注裁剪对齐到确定的区域上。为了确保实验的一致性,Drishti-GS数据集和REFUGE数据集的训练集的图像预处理为512×512像素的标准化尺寸。然而,由于不同成像设备之间可能存在图像分辨率的差异,REFUGE数据集的验证集在进行初步的预处理后调整为350×350像素的尺寸,然后重新调整为所需的512×512像素尺寸。此外,为了解决训练图像有限的问题并减少过拟合的风险,在网络训练过程中采用了数据增强技术,例如随机翻转和旋转。
实施细节:MAAL-UDA方法使用Python编程语言实现,并运行在配有NVIDIA TITANRTX GPU、Intel Xeon Silver 4210R CPU和512GB内存的服务器。为了初始化分割网络,使用预训练的Segformer-B5模型,并使用Adam优化器进行权重学习与优化。在训练阶段,学习率和批大小分别设置为1e-4和2。考虑到两个数据集间的域特征变化,在Drishti-GS数据集上进行2000次迭代,而在REFUGE数据集上进行1000次迭代。整个训练过程实施交替方案(即源域和目标域数据交替提供给模型)和以端到端的方式全面训练MAAL-UDA方法,使模型能够有效适应两个域。
评价指标:实验中采用Dice系数(DC)、Jaccard指数(JAC)、像素精度(ACC)和视杯视盘比例(CDR)的绝对误差(δ)作为评估指标。DC和JAC指标常用于衡量预测掩膜与真实标注之间的相似性,评估模型的分割性能。ACC指标进一步验证模型预测的准确性。为了评估方法在临床青光眼筛查中的有效性,通过计算预测的CDR()与真实CDR(/>)之间的绝对误差(δ)来评估。较低的δ值表示在临床应用中体现优越性。上述评估指标的计算公式如下:
其中,TP、TN、FN和FP分别对应于真正阳性、真阴性、假阴性和假阳性像素的数目,和/>分别表示OD和OC的垂直直径。
在实验中,REFUGE数据集的训练集作为源域,Drishti-GS数据集和REFUGE数据集的验证集作为目标域。首先,与当前八种监督方法进行比较。此实验中采用符号SegS表示在源域数据集进行训练并在目标域数据集进行评估,而SegT仅在同目标域进行训练和评估。然后,与九种UDA方法进行比较分析。
1)与SOTA监督分割方法比较:为了评估所提出基于SegFormer的分割网络(SegT)性能,使用上述数据集对本发明设计的网络与SOTA监督分割方法进行比较评估。实验中,采用目标域的带标注图像进行分割网络的监督训练。然后,使用相同的域测试图像评估分割网络的性能。此外,实验中使用源域数据专门训练SegS模型,并在两个目标域上进行了测试。上述实验结果如下表所示。
表3 不同监督分割方法在两个数据集的对比结果
实验结果表明,SegT方法在Drishti GS和REFUGE数据集上的多个评估指标表现突出。然而,它在δ指标上的表现略低于M-Ada方法。图5中的轮廓图直观地展示了本发明的SegT结果与真实标注的差异很小,结果凸显了本发明设计的网络能够实现精确分割结果的卓越能力。此外,SegS仅使用源域数据进行训练而没有进行域适应。从上表中可以看出,SegS和SegT在目标分割方面没有显著的差异。然而,在OC分割方面存在明显差异,尤其是在Drishti GS数据集中,指标显示差异为13.3%。图5展示了SegS方法中分割性能的明显下降,尤其是在OC区域。这种退化在评估Drishti-GS数据集的测试样本时特别明显,其中存在显著的域偏移(从第1列到第3列)。实验结果强调了OC区域对域偏差的敏感性,它还表明了Drishti-GS数据集与源域数据集(REFUGE训练集)在领域特性方面存在显著差异。领域的变化可以显著影响分割模型的性能,特别是在OC分割方面。
2)与SOTA UDA分割方法比较:该实验在两个数据集上与九种SOTA UDA方法进行定量分析,其实验结果分别如表4和表5所示。pOSAL、WGAN、ECSD-Net、BEAL、MPSCL和CLR是六种使用对抗学习来对齐输出空间特征的方法。另外,IOSUDA方法关注于对齐输入和输出的空间特征;ODADA方法使用分解方法将输入特征分为不变域和特定域表示,实现有效的域适应;CADA方法使用多个判别器来对齐特征和输出的多尺度特征。表4和表5显示本发明的方法在DC、JAC、ACC和δ四个指标的性能优于所有比较方法,尤为对于存在显著域差异的Drishti-GS数据集。值得注意的是,与最新的多尺度CADA方法相比,本发明的方法在DC和OC分割上表现出优越的性能,具体表现为Drishti-GS数据集上分别提高了8.23%和5.27%,而在REFUGE数据集上分别提高了0.85%和1.78%。而且,δ分数在Drishti GS和REFUGE数据集上分别降低了5.33%和0.50%,实验结果再次说明本发明设计的分割网络设计的优越性以及能够有效应对领域偏移带来的挑战。
表4 不同无监督域自适应分割方法在Drishti-GS数据集的对比结果
表5 不同无监督域自适应分割方法在REFUGE数据集的对比结果
图6展示了两个数据集中部分图像的分割结果的可视化。该可视化结果清楚地呈现本发明设计的方法能够实现更准确和更接近正确结果的OD和OC分割任务,在Drishti-GS数据集中尤为显著,因为该数据集存在显著的域差异(如第1至第3列)。此外,为了评估本发明的方法在Drishti-GS数据集上的稳定性,对包括pOSAL、BEAL、MPSCL、ODADA和CLR在内SOTA方法进行比较分析。图7显示了这六种方法得到的Dice分数。结果清楚地表明,本发明设计的方法获得最高的中位数和上下四分位数,突出了其准确性、健壮性和稳定性。
总而言之,本发明的方法在大多数情况下明显优于pOSAL、WGAN、ECSD-Net、BEAL、MPSCL和CLR,特别是在具有巨大域差异的Drishti-GS数据集。其性能显著改善的原因在于多尺度输出空间对抗学习的应用可以有效地提取不同尺度的特定域特征。因此,它能够提升域分类性能,并为分割网络提供了有价值的指导,从而增强了模型在不同域中的适应性。此外,与基于多尺度对抗学习的CADA方法相比,本发明的MAAL-UDA方法在OD和OC分割方面表现更出色,这正因为AWDC模块的动态加权机制能够有效地利用多尺度特征。而且,PFE模块在浅层网络的操作能够增强底层特征的判别能力,进一步促使了本发明的方法获得更为优秀的结果。
(b)消融研究实验
本实验主要对MAAL-UDA方法中各个不同模块进行消融测试,以评估各个不同模块的贡献。为了进行公平比较,本次实验与UDA实验中使用相同的源域数据集和目标域数据集。同时,使用一种将DeepLabv2作为AdaptSegNet的骨干网络架构的常用UDA分割方法。而且,还在最后两个输出层中加入了两个额外的判别器,以增强模型的判别能力。
第一阶段,评估了Segformer架构和Patch判别器的有效性。该评估涉及将基线模型中使用的分割网络替换为Segformer。而且将Patch鉴别器集成到模型中得到SP模型。因此,这种集成允许在块级别捕捉精细的细节以及改善分割性能。使用不同的评分指标对SP模型与基线模型进行比较如表6所示。结果表明利用Segformer捕捉的长期依赖关系并结合Patch判别器可以显著增强领域适应性能。
表6 两个数据库上的消融实验结果
第二阶段,为了评估MWPD、AWDC和PFE三个模块的有效性,实验中根据不同组合设计了四个不同的方法,分别为:SP + MWPD(SP-M)、无多尺度输入SP-M模型(SP-M*)、SP +MWPD + AWDC(SP-MA)和SP + MWPD + AWDC + PFE(MAAL)。表6列出了消融实验的结果。具体而言,SP-M方法在分割准确性方面表现比SP方法更好;这表明沃瑟斯坦距离有效地量化域不一致性,并指导分割网络提取不变域特征。而且,SP-M方法集成了多尺度输入,在大多数指标上表现优于SP-M*,但在Drishti-GS数据集的DC OC指标上略微下降了0.51%;这意味着在多尺度输出适应中给予不同尺度相等权重可能会导致性能下降。相反,SP-MA方法包含AWDC模块能够改善分割结果,Drishti-GS数据集的DC OC指标比SP-M显著提高了1.98%。此外,从图8中的第1列和第3列的结果可以看出,SP-MA在OC区域的分割边界与真实值非常接近,而SP-M的效果稍微逊色。这表明AWDC模块在平衡多尺度信息的作用和减少域偏差方面的有效性。最后,为了评估PFE模块的影响,表6中给出MAAL-UDA方法和去除PFE模块的SP-MA模型进行性能比较。结果表明引入PFE模块能够显著提高Dice系数指标,如:在Drishti-GS数据集上,MAAL-UDA方法在OD分割的性能提升了0.28%,而在OC分割性能提升了1.36%。实验结果表明,PFE模块有效的保留了浅层网络层次上不变域信息,从而避免了不变域和全局特征的损失。因此,该模型具有提取不变域特征以增强分割准确性的能力。此外,如图8所示,随着各个模块逐渐集成,分割结果逐渐改善并且接近于真实值(如图8中的第2列和第4列)。而且当本发明的各模块应用于具有域差异的Drishti-GS数据集时,各模块都展现出更有希望的结果。即使对于REFUGE数据集中相对较小的域差异,各模块的性能也有所提高。上述结果表明MWPD、AWDC和PFE模块的有效性,各模块对本发明的方法的性能提升都起着非常重要的作用。
第三阶段,本实验评估本发明的MAAL-UDA方法在使用不同损失函数的性能(如图9所示)。图9中的结果清楚显示,组合损失函数在大多数评估指标上优于其它损失函数。此外,通过使用t-SNE可视化从源域和目标域图像中提取的特征进一步分析本发明的方法对域适应的影响(如图10所示)。图10分别展示了基线方法和本发明的MAAL-UDA方法提取的特征分布。基线方法在不同领域的特征之间存在明显区别度。相反,本发明的方法提取的特征分布显示出目标域和源域图像之间的可区分性显著降低。这些可视化结果为本发明的方法能够最小化域差异和保持不变域信息提供有力证据。因此,本发明的方法成功地解决域偏移相关的问题,并提高域适应性能力。
(c)青光眼筛查实验
鉴于CDR在青光眼检测中的重要性,实验中根据本发明的方法生成的分割掩码计算CDR值。为了确定给定图像的垂直CDR标记为,则使用如下公式计算/>的归一化值:
其中,和/>分别是从数据集中的整个测试图像中获取的垂直CDR的最小和最大值。
为了评估本发明的方法在青光眼筛查中的效果,实验中使用接受者操作特征ROC曲线,并计算相应的曲线下的面积(AUC)。同时,与pOSAL、BEAL、MPSCL、ODADA和CLR方法进行了性能比较,其AUC值分别为0.8279、0.8603、0.8522、0.7611和0.8725,结果如图11所示。结果表明,本发明的方法的AUC值在Drishti-GS数据集上达到了0.9049,显著超过现有的SOTA方法的性能,表明本发明的方法具有早期青光眼筛查的潜力。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,都应属于本发明的保护范围。在本发明的保护范围内其技术方案和/或实施方式可以有各种不同的修改和变化。
Claims (10)
1.一种眼底图像分割模型训练方法,其特征在于,包括以下步骤:
获取带标注的源域数据集和无标注的目标域数据集,所述源域数据集包含源域图像和与所述源域图像对应的标注图像,所述目标域数据集包含目标域图像;
构建分割网络和判别网络,所述分割网络包含AWDC模块和PFE模块;
使用所述源域图像和目标域图像对所述分割网络进行训练,其中,由所述PFE模块将所述分割网络提取的高级特征整合到低级特征中,并由所述分割网络生成多尺度输出;由所述AWDC模块根据所述多尺度输出生成加权多尺度输出;
使用所述加权多尺度输出对所述判别网络进行训练,由所述判别网络判断所述多尺度输出源自所述源域图像或目标域图像的概率;
计算所述分割网络的总损失和所述判别网络的总损失,根据所述分割网络的总损失更新所述分割网络的参数,根据所述判别网络的总损失更新所述判别网络的参数。
2.根据权利要求1所述的眼底图像分割模型训练方法,其特征在于,所述分割网络为基于Transformer的语义分割模型SegFormer-B5,而且采用LeakyReLU激活函数替换原始的ReLU激活函数,采用层归一化层替换批归一化层;所述判别网络为多尺度沃瑟斯坦图像块判别器,其包括五个卷积层,卷积核大小为4,步长为2,所述五个卷积层的通道数分别设置为N×2、N×4、N×6、N×8和1,其中N为32、64、128或256。
3.根据权利要求1所述的眼底图像分割模型训练方法,其特征在于,所述由所述PFE模块将所述分割网络提取的高级特征整合到低级特征中包括以下步骤:
对具有H×W×C维度的高级特征图进行MLP操作,将H和W维度进行组合,其中H、W和C分别表示高度、宽度和通道数;
在所有通道上应用平均池化操作来计算每个像素的权重,生成像素级权重图;
将所述像素级权重图在维度上扩展,并与所述高级特征图进行逐元素乘法,然后进行重塑操作。
4.根据权利要求1所述的眼底图像分割模型训练方法,其特征在于,所述由所述AWDC模块根据所述多尺度输出生成加权多尺度输出包括以下步骤:
将所述多尺度输出中的特征图在通道维度上连接成特征块F;
对所述特征块F执行全局平均池化操作;
由式(5)计算权重:
其中,α和β分别表示Sigmoid和LeakyReLU激活函数,和/>分别表示1×1卷积操作;
将计算得到的权重应用于所述特征块F,得到加权多尺度输出。
5.根据权利要求1所述的眼底图像分割模型训练方法,其特征在于,所述判别网络的总损失和分割网络的总损失分别由式(6)和式(7)计算得到:
其中,、L adv(x t)和L adv(x s)分别由式(1)、式(4-1)和式(4-2)计算得到:
其中,和/>分别由式(2)和式(3)计算得到:
其中,L D表示所述判别网络的总损失,L S表示所述分割网络的总损失,λ和γ分别表示平衡系数;x s和y s分别表示所述源域图像和与所述源域图像对应的标注图像,x t表示所述目标域图像,表示将x s输入到所述分割网络后输出的概率;H p和W p分别表示所述判别网络输出特征图的高度和宽度,B表示批量大小,h p和w p分别表示所述判别网络输出特征图的维度且h p∈[1, H p]、w p∈[1, W p];S(·)表示所述分割网络,D(·)表示所述判别网络;K表示所述分割网络中分割任务的类别数,k表示正整数;h表示标签的高,w表示标签的宽。
6.根据权利要求5所述的眼底图像分割模型训练方法,其特征在于,λ为0.001,γ为0.1,K为3。
7.一种眼底图像分割模型训练设备,其特征在于,包括:
至少一个处理器;
以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有指令,所述指令在被所述至少一个处理器执行时实现根据权利要求1~6任一权利要求所述的眼底图像分割模型训练方法。
8.一种眼底图像分割方法,其特征在于,包括以下步骤:将包含视盘和视杯的眼底图像输入到根据权利要求1~6任一权利要求所述的眼底图像分割模型训练方法得到的眼底图像分割模型中,并由所述眼底图像分割模型输出目标图像。
9.一种眼底图像分割设备,其特征在于,包括:
至少一个处理器;
以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有指令,所述指令在被所述至少一个处理器执行时实现根据权利要求8所述的眼底图像分割方法。
10.一种青光眼辅助诊断系统,其特征在于,包括根据权利要求9所述的眼底图像分割设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311188007.6A CN116934747B (zh) | 2023-09-15 | 2023-09-15 | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311188007.6A CN116934747B (zh) | 2023-09-15 | 2023-09-15 | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116934747A true CN116934747A (zh) | 2023-10-24 |
CN116934747B CN116934747B (zh) | 2023-11-28 |
Family
ID=88375662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311188007.6A Active CN116934747B (zh) | 2023-09-15 | 2023-09-15 | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116934747B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117764985A (zh) * | 2024-02-01 | 2024-03-26 | 江西师范大学 | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 |
CN118334062A (zh) * | 2024-06-13 | 2024-07-12 | 江西师范大学 | 无源域自适应眼底图像分割方法和设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110992382A (zh) * | 2019-12-30 | 2020-04-10 | 四川大学 | 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统 |
WO2020143309A1 (zh) * | 2019-01-09 | 2020-07-16 | 平安科技(深圳)有限公司 | 分割模型训练方法、oct图像分割方法、装置、设备及介质 |
CN112541923A (zh) * | 2020-12-03 | 2021-03-23 | 南开大学 | 一种基于眼底图数据集迁移学习的视杯视盘分割方法 |
WO2021202170A1 (en) * | 2020-03-30 | 2021-10-07 | University Of Florida Research Foundation | Collaborative feature ensembling adaptation for domain adaptation in unsupervised optic disc and cup segmentation |
CN114648806A (zh) * | 2022-05-19 | 2022-06-21 | 山东科技大学 | 一种多机制自适应的眼底图像分割方法 |
CN115205300A (zh) * | 2022-09-19 | 2022-10-18 | 华东交通大学 | 基于空洞卷积和语义融合的眼底血管图像分割方法与系统 |
WO2022227407A1 (zh) * | 2021-04-26 | 2022-11-03 | 武汉大学 | 一种基于注意力的联合图像与特征自适应的语义分割方法 |
CN115601751A (zh) * | 2022-10-31 | 2023-01-13 | 中国人民解放军国防科技大学(Cn) | 一种基于领域泛化的眼底图像语义分割方法 |
-
2023
- 2023-09-15 CN CN202311188007.6A patent/CN116934747B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020143309A1 (zh) * | 2019-01-09 | 2020-07-16 | 平安科技(深圳)有限公司 | 分割模型训练方法、oct图像分割方法、装置、设备及介质 |
CN110992382A (zh) * | 2019-12-30 | 2020-04-10 | 四川大学 | 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统 |
WO2021202170A1 (en) * | 2020-03-30 | 2021-10-07 | University Of Florida Research Foundation | Collaborative feature ensembling adaptation for domain adaptation in unsupervised optic disc and cup segmentation |
CN112541923A (zh) * | 2020-12-03 | 2021-03-23 | 南开大学 | 一种基于眼底图数据集迁移学习的视杯视盘分割方法 |
WO2022227407A1 (zh) * | 2021-04-26 | 2022-11-03 | 武汉大学 | 一种基于注意力的联合图像与特征自适应的语义分割方法 |
CN114648806A (zh) * | 2022-05-19 | 2022-06-21 | 山东科技大学 | 一种多机制自适应的眼底图像分割方法 |
CN115205300A (zh) * | 2022-09-19 | 2022-10-18 | 华东交通大学 | 基于空洞卷积和语义融合的眼底血管图像分割方法与系统 |
CN115601751A (zh) * | 2022-10-31 | 2023-01-13 | 中国人民解放军国防科技大学(Cn) | 一种基于领域泛化的眼底图像语义分割方法 |
Non-Patent Citations (2)
Title |
---|
侯向丹;赵一浩;刘洪普;郭鸿?;于习欣;丁梦园;: "融合残差注意力机制的UNet视盘分割", 中国图象图形学报, no. 09 * |
刘少鹏;洪佳明;梁杰鹏;贾西平;欧阳佳;印鉴;: "面向医学图像分割的半监督条件生成对抗网络", 软件学报, no. 08 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117764985A (zh) * | 2024-02-01 | 2024-03-26 | 江西师范大学 | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 |
CN117764985B (zh) * | 2024-02-01 | 2024-05-14 | 江西师范大学 | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 |
CN118334062A (zh) * | 2024-06-13 | 2024-07-12 | 江西师范大学 | 无源域自适应眼底图像分割方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116934747B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Seeböck et al. | Unsupervised identification of disease marker candidates in retinal OCT imaging data | |
Elangovan et al. | Glaucoma assessment from color fundus images using convolutional neural network | |
Madani et al. | Fast and accurate view classification of echocardiograms using deep learning | |
US20210390706A1 (en) | Detection model training method and apparatus, computer device and storage medium | |
CN109145921B (zh) | 一种基于改进的直觉模糊c均值聚类的图像分割方法 | |
Schlegl et al. | Unsupervised anomaly detection with generative adversarial networks to guide marker discovery | |
Bhanu et al. | Deep learning for biometrics | |
CN106803247B (zh) | 一种基于多级筛选卷积神经网络的微血管瘤图像识别方法 | |
CN116934747B (zh) | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 | |
Mozafari et al. | A SVM-based model-transferring method for heterogeneous domain adaptation | |
EP3567547A1 (en) | Method for characterizing images acquired through a video medical device | |
Melo et al. | Microaneurysm detection in color eye fundus images for diabetic retinopathy screening | |
CN113128271A (zh) | 脸部图像的伪造检测 | |
Lin et al. | A visual-attention model using earth mover's distance-based saliency measurement and nonlinear feature combination | |
EP3859666A1 (en) | Classification device, classification method, program, and information recording medium | |
Nie et al. | Recent advances in diagnosis of skin lesions using dermoscopic images based on deep learning | |
Liang et al. | Weakly supervised deep nuclei segmentation with sparsely annotated bounding boxes for dna image cytometry | |
Azizah et al. | Tajweed-YOLO: Object detection method for Tajweed by applying HSV color model augmentation on Mushaf images | |
Hao et al. | Iris segmentation using feature channel optimization for noisy environments | |
CN113486925A (zh) | 模型训练方法、眼底图像生成方法、模型评估方法及装置 | |
CN112861881A (zh) | 一种基于改进MobileNet模型的蜂窝肺识别方法 | |
CN116452812A (zh) | 一种伪装物体识别及语义分割方法 | |
Szijártó et al. | Design of a Machine Learning System to Predict the Thickness of a Melanoma Lesion in a Non-Invasive Way from Dermoscopic Images | |
Méndez-Llanes et al. | On the use of local fixations and quality measures for deep face recognition | |
Hahmann et al. | Combination of facial landmarks for robust eye localization using the Discriminative Generalized Hough Transform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |