CN110443815B - 结合生成对抗网络的半监督视网膜oct图像层分割方法 - Google Patents
结合生成对抗网络的半监督视网膜oct图像层分割方法 Download PDFInfo
- Publication number
- CN110443815B CN110443815B CN201910723889.9A CN201910723889A CN110443815B CN 110443815 B CN110443815 B CN 110443815B CN 201910723889 A CN201910723889 A CN 201910723889A CN 110443815 B CN110443815 B CN 110443815B
- Authority
- CN
- China
- Prior art keywords
- network
- loss function
- semi
- dice
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10101—Optical tomography; Optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉、图像处理技术,为结合生成对抗网络的半监督视网膜OCT图像层分割方法,包括步骤:准备视网膜OCT图像数据,将部分病人的标注图片和全部病人的未标注图片作为训练集,其余病人的标注图片作为测试集;构建生成对抗网络,生成对抗网络包括分割网络和鉴别器网络,分割网络的输出端与鉴别器网络的输入端连接;设计生成对抗网络的损失函数;设置评估指标;利用所设计的损失函数,引入所准备的训练集,对生成对抗网络进行训练。本发明同时利用标注数据和未标注数据对生成对抗网络进行训练,增强了网络的鲁棒性,提高了语义分割的准确率。
Description
技术领域
本发明涉及人工智能、计算机视觉、图像处理技术,具体为结合生成对抗网络的半监督视网膜OCT(Optical Coherence tomography)图像层分割方法。
背景技术
近年来,基于卷积神经网络(CNN)的方法,如Unet在医学图像语义分割任务上取得了显著的成绩。尽管基于CNN的方法取得了惊人的效果,但它们需要大量的训练数据。与图像分类和目标检测不同,语义分割要求对每个训练图像进行精确的逐像素标注,并且医学图像需要专业的医生标注,这会花费大量的成本和时间,因此造成了视网膜OCT图像层分割方向的训练数据少。
视网膜OCT图片的高分辨率有利于视网膜的各种组成层的清晰可视化,是视网膜横截面成像的首选方式。由于两个视网膜层之间的边界的高度分散性,这导致层边界的手动标注十分主观且非常耗时。从OCT图像中分割视网膜层各层的自动分割方法,有助于准确诊断,同时主体变化最小。计算机自动分割方法与人工标注的方法相比,成本低,并且能快速分割数百万张图像,这对辅助医生诊断非常有利。然而目前训练数据少,自动分割方法模型泛化能力偏低。
总的来说,现有技术存在如下缺点:
1.基于特征工程的传统分割方法,往往需要手工设计特征提取器,并且分割的准确率不高。
2.基于卷积神经网络(CNN)的方法,虽然取得了不错的分割效果,但由于训练数据匮乏,模型泛化能力偏低。
发明内容
为解决现有技术所存在的技术问题,本发明提供结合生成对抗网络的半监督视网膜OCT图像层分割方法,同时利用标注数据和未标注数据对生成对抗网络进行训练,增强了网络的鲁棒性,提高了语义分割的准确率。
本发明采用以下技术方案来实现:结合生成对抗网络的半监督视网膜OCT图像层分割方法,包括以下步骤:
S1、准备视网膜OCT图像数据,将部分病人的标注图片和全部病人的未标注图片作为训练集,其余病人的标注图片作为测试集;
S2、构建生成对抗网络,生成对抗网络包括分割网络和鉴别器网络,分割网络的输出端与鉴别器网络的输入端连接;
S3、设计生成对抗网络的损失函数;
S4、设置评估指标;
S5、利用所设计的损失函数,引入步骤S1所准备的训练集,对生成对抗网络进行训练。
优选地,步骤S3中所设计的损失函数包括分割网络的损失函数和鉴别器网络的损失函数。
鉴别器网络的损失函数为:
其中,D(Pn)为鉴别器网络输出的置信度图;Pn为概率图,当yn=0时,Pn为来自分割网络的输出,当yn=1时,Pn来自于原始标签。
分割网络的损失函数为:
Lseg=λceLce+λdiceLdice+λadvLadv+λsemiLsemi
其中,λce、λdice、λadv及λsemi分别为权重系数;Lce和Ldice都是计算分割网络的输出和标签YOh之间的损失,Lce代表加权交叉熵损失函数;Lsemi表示半监督训练损失函数;标签YOh为对原始标签采用one-hot编码后得到的标签。
本发明与现有技术相比,具有如下优点和有益效果:
1、提出半监督生成对抗网络,在两个基准网络U-Net和Unet++上均有提升,增强了层分割的鲁棒性。
2、视网膜OCT层分割的标注训练集小,训练的网络鲁棒性不够,本发明通过引入未标注图片的损失函数Lsemi对分割网络进行训练,可以在有限的标注训练图片下增强分割网络的鲁棒性。
附图说明
图1是本发明的分割流程图;
图2是OCT训练图片Xn的示意图;
图3是原始标签Yn的示意图;
图4是各像素权重Wn的示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本发明通过对抗性学习提出了一种半监督的视网膜OCT图像层(也叫视网膜OCT图像语义)分割算法。典型的GAN由两个子网络组成,即发生器(generator)和鉴别器(discriminator),这两个子网络在训练过程中相互博弈。在本发明中,引入分割网络和鉴别器网络,它们都是全卷积网路,通过引入未标注的训练图片,以提高分割的准确性。
如图1-4所示,本发明包括如下步骤:
1、视网膜OCT图像数据准备
本方法在Chiu等人公开可用的DME患者SD-OCT数据集(Chiu S J,Allingham M J,Mettu P S,et al.Kernel regression based segmentation of optical coherencetomography images with diabetic macular edema[J].Biomedical Optics Express,2015,6(4):1172.)上进行评估。该数据集包含10位患者,每位患者包含61张SD-OCT图像;每位患者的61张图像中,有11张图像由两位专家临床医生标注为视网膜层和流体区域,另外50张没有标注。本发明采用专家1的标注,因此我们可以得到110张标注图片;其中,每张OCT图片可以分为十层即十类,分别为:
1.RaR:视网膜上方区域(Region above the retina)(上背景)
2.ILM:内结膜(Inner Limiting Membrane)
3.NFL-IPL:神经纤维层(Nerve Fiber Layer)
4.INL:内核层(Inner Nuclear Layer)
5.OPL:外丛层(Outer Plexiform Layer)
6.ONL-ISM:外核层(Outer Nuclear Layer to inner segment myeloid)
7.ISE:内段椭球体(Inner segment ellipsoid)
8.OS-RPE:视网膜色素上皮层(Outer segment to Retinal pigmentepithelium)
9.RbR:视网膜色素上皮层下方区域(Region below RPE)(下背景)
10.Fluid:积液层(Accumulated Fluid)
每张图像原始大小为496×768,由于每张图片的标注都不完整,最后裁定每张图片大小为496×512。
本发明将DME患者SD-OCT数据集中前五位病人的55张标注图片和十位病人共250张未标注图片作为训练集,后五位病人的55张标注图片作为测试集。
对于训练集中有标注的55张图片,进行数据增强;首先以0.5的概率进行水平翻转,然后以0.3的概率进行弹性形变。对于250张未标注训练集图片和55张测试集图片,不做任何处理。
2、构建生成对抗网络
本发明提出的生成对抗网络包括两部分,即分割网络和鉴别器网络,它们都是全卷积网络,分割网络的输出端与鉴别器网络的输入端连接。
2.1分割网络
本实施例采取Ronneberger O等人在2015年提出的U-Net网络(Ronneberger O,Fischer P,Brox T.U-Net:Convolutional Networks for Biomedical ImageSegmentation[J].2015.)或Zhou Z等人在2018年提出的UNet++网络(Zhou Z,SiddiqueeMMR,Tajbakhsh N,et al.UNet++:ANested U-NetArchitecture for Medical ImageSegmentation[J].2018.)作为分割网络。实验论证在视网膜层分割的应用上,Unet++网络比Unet网络更具有鲁棒性,效果更佳。
2.2鉴别器网络
本发明参考Ronneberger O等人在2015年提出的U-Net网络结构,然后对U-Net网络做了轻微改动,形成鉴别器网络。首先将卷积通道数固定为64,然后将最后输出通道数设为2,并且将所有的ReLU层替换成Leaky-ReLU层。
3、设计生成对抗网络的损失函数
给定一张496×512×1大小的输入图像Xn,将分割网络表示为S(·),预测概率图表示为496×512×10大小的S(Xn),其中10是类别数。
对于全卷积鉴别器,本实施例将其表示为D(.),它输出一个大小为496×512×2的两类置信度图D(Pn),其中Pn是大小为496×512×10的概率图,来自标签YOh或分割网络的输出S(Xn)。这里的Yoh大小为496×512×10,而原始标签Yn大小为496×512×1。因此对原始标签Yn采用one-hot编码,由于一共有十类,可以得到one-hot编码后的标签YOh大小为496×512×10。
3.1设计鉴别器网络的损失函数
鉴别器网络区分概率图Pn来自于标签YOh还是分割网络的输出为S(Xn),如果来自于标签YOh则预测为1,如果来自于分割网络的输出则预测为0。为了训练鉴别器网络,本实施例将交叉熵损失降到最小。损失函数可以写为:
LD=-∑h,w(1-yn)log(D(Pn)(h,w,0))+ynlog(D(Pn)(h,w,1)) (1)
其中yn用来标注Pn的来源。当yn=0,Pn来自于分割网络的输出S(Xn)。当yn=1时,Pn来自于原始标签Yn。
3.2设计分割网络的损失函数
分割网络将如下损失函数降到最小:
Lseg=λceLce+λdiceLdice+λadvLadv+λsemiLsemi (2)
其中,λce、λdice、λadv及λsemi分别为权重系数;Lce和Ldice都是计算分割网络的输出S(Xn)和标签YOh之间的损失。Lce代表加权交叉熵损失函数,定义如下:
分割网络预测Xn (h,w)像素属于c类的概率为S(Xn)(h,w,c),当前像素的权重为Wn (h,w)。由于图片大部分为背景,类别不均衡,又因为边界区域识别难度高,这里为每个像素引入了一个权重Wn:
其中I(logic)表示当logic为真时,I(logic)=1,否则I(logic)=0。实验中λ1=10代表边界区域像素权重加10。考虑到不同层识别难度不一样,当L=1、2、5、6或7时,λ2=5;当L=3、4或9时,λ2=15;否则λ2=0。
Ldice代表Dice系数损失函数,定义如下:
Ladv是对抗损失函数,定义如下:
Ladv=-∑(h,w)log(D(S(Xn))(h,w,1)) (6)
表明分割网络使输出S(Xn)尽可能令全卷积鉴别器D(S(Xn)的预测为1,即分割网络输出分布向标签YOh分布靠近。
Lsemi表示半监督训练损失函数,定义如下:
Lsemi=-∑h,w∑c∈CWmask (h,w)Ypred (h,w,c)log(S(Xn)(h,w,c)) (7)
其中Ypred=argmax(S(Xn)),即对于每个像素,预测概率最大的那一维为1,其余均为0。Wmask (h,w)表示鉴别器D()将分割网络的输出S(Xn)(h,w,c)预测为1的概率大于阈值T,则Wmask (h,w)=1,否则Wmask (h,w)=0。
Wmask (h,w)=I(D(S(Xn))(h,w,1)>T) (8)
在训练两种基准网络U-Net和Unet++时,采取Adam优化器,初始学习率为0.001,每20次迭代学习率缩小0.5倍,共迭代300次。
在生成对抗网络的训练中,令(2)式中的权重系数λCe=1,λdice=0.5,λadv=0.01;对于λsemi,考虑到开始训练时鉴别器D识别能力还不够高,因此本实施例采用λsemi在实验开始时较小,随着训练步数iter增大而逐渐增大的策略,最终令令(8)式中阈值T=0.1。在训练时,鉴别器网络和分割网络都采取Adam优化器,学习率衰减策略为:其中power=0.9,maxiter为最大迭代系数。在鉴别器网络中初始化学习率init_lr=0.0001,在分割网络中init_lr=0.000055。
4、设置评估指标
本发明采取了Dice系数评估每张OCT图片中每个类的重叠情况,Dicec表示第c类的Dice系数,计算方式具体如下:
5、利用所设计的损失函数,引入步骤1所准备的训练集,对生成对抗网络进行训练。
首先用有标注的训练集图片单独训练分割网络,即两种基准网络U-Net和Unet++,保存Dice系数最好的两种基准网络模型,并且以此Dice系数为基准。
然后引入250张未标注图片扩充训练集,训练生成对抗网络。训练过程中,分别加载所保存的两种基准网络模型权重作为分割网络初始权重。在分割网络的训练中,有标注的训练集图片对应的损失函数为Lce、Ldice和Ladv;未标注的训练集图片对应的损失函数为Ladv和Lsemi。
6、实验结果
实验在Ubuntu16.04操作系统下运行,基于pytorch1.0版本,使用具有8G显存的RTX2080GPU进行训练,实验结果如下表所示。
其中平均值代表除去背景(RaR和RbR)后的8类平均值。由实验结果可以看出,本发明的半监督生成对抗网络通过引入未标注的训练图片,效果比基准均有提高。其中U-Net网络的Dice系数平均值0.8454通过Semi-U-Net提高到0.8499;Unet++网络的Dice系数平均值0.8471通过Semi-Unet++提高到0.8540。
实验结果表明,Unet++网络比U-Net网络的效果更好。在层分割标签数据匮乏的情况下,本发明通过半监督生成对抗网络引入未标注的训练图片,能够进一步增强网络的鲁棒性,很好地弥补了OCT层分割标签数据匮乏对网络鲁棒性造成的影响。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.结合生成对抗网络的半监督视网膜OCT图像层分割方法,其特征在于,包括以下步骤:
S1、准备视网膜OCT图像数据,将部分病人的标注图片和全部病人的未标注图片作为训练集,其余病人的标注图片作为测试集;
S2、构建生成对抗网络,生成对抗网络包括分割网络和鉴别器网络,分割网络的输出端与鉴别器网络的输入端连接;
S3、设计生成对抗网络的损失函数;
S4、设置评估指标;
S5、利用所设计的损失函数,引入步骤S1所准备的训练集,对生成对抗网络进行训练;
步骤S3中所设计的损失函数包括分割网络的损失函数和鉴别器网络的损失函数;
分割网络的损失函数为:
Lseg=λceLce+λdiceLdice+λadvLadv+λsemiLsemi
其中,λce、λdice、λadv及λsemi分别为权重系数;Lce和Ldice都是计算分割网络的输出和标签YOh之间的损失,Lce代表加权交叉熵损失函数;Lsemi表示半监督训练损失函数;标签YOh为对原始标签采用one-hot编码后得到的标签;Ladv是对抗损失函数;
分割网络预测xn (h,w)像素属于c类的概率为S(Xn)(h,w,c),当前像素的权重为Wn (h,w);
为每个像素引入一个权重Wn:
其中I(logic)表示当logic为真时,I(logic)=1,否则I(logic)=0;考虑到不同层识别难度不一样,当L=1、2、5、6或7时,λ2=5;当L=3、4或9时,λ2=15;否则λ2=0;
Ldice代表Dice系数损失函数,定义如下:
步骤S4采用Dice系数评估每张OCT图片中每个类的重叠情况,Dice系数的计算方式如下:
其中,Dicec表示第c类的Dice系数。
2.根据权利要求1所述的半监督视网膜OCT图像层分割方法,其特征在于,步骤S1中视网膜OCT图像数据来自DME患者SD-OCT数据集,将DME患者SD-OCT数据集中前五位病人的55张标注图片和十位病人共250张未标注图片作为训练集,后五位病人的55张标注图片作为测试集。
3.根据权利要求1所述的半监督视网膜OCT图像层分割方法,其特征在于,步骤S2中鉴别器网络为做如下修改后的U-Net网络:将卷积通道数固定为64,然后将最后输出通道数设为2,将所有的ReLU层替换成Leaky-ReLU层。
4.根据权利要求1所述的半监督视网膜OCT图像层分割方法,其特征在于,步骤S2中分割网络为U-Net网络或UNet++网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910723889.9A CN110443815B (zh) | 2019-08-07 | 2019-08-07 | 结合生成对抗网络的半监督视网膜oct图像层分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910723889.9A CN110443815B (zh) | 2019-08-07 | 2019-08-07 | 结合生成对抗网络的半监督视网膜oct图像层分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110443815A CN110443815A (zh) | 2019-11-12 |
CN110443815B true CN110443815B (zh) | 2023-04-21 |
Family
ID=68433612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910723889.9A Active CN110443815B (zh) | 2019-08-07 | 2019-08-07 | 结合生成对抗网络的半监督视网膜oct图像层分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110443815B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111027575B (zh) * | 2019-12-13 | 2022-06-17 | 广西师范大学 | 一种自注意对抗学习的半监督语义分割方法 |
CN111161272B (zh) * | 2019-12-31 | 2022-02-08 | 北京理工大学 | 一种基于生成对抗网络的胚胎组织分割方法 |
US11386298B2 (en) * | 2020-01-09 | 2022-07-12 | International Business Machines Corporation | Uncertainty guided semi-supervised neural network training for image classification |
CN111507993B (zh) * | 2020-03-18 | 2023-05-19 | 南方电网科学研究院有限责任公司 | 一种基于生成对抗网络的图像分割方法、装置及存储介质 |
CN111583291B (zh) * | 2020-04-20 | 2023-04-18 | 中山大学 | 基于深度学习的视网膜层和积液区域的层分割方法及系统 |
CN111598174B (zh) * | 2020-05-19 | 2020-12-29 | 中国科学院空天信息创新研究院 | 基于半监督对抗学习的模型训练方法及图像变化分析方法 |
CN112001928B (zh) * | 2020-07-16 | 2023-12-15 | 北京化工大学 | 一种视网膜血管分割方法及系统 |
CN112102323B (zh) * | 2020-09-17 | 2023-07-07 | 陕西师范大学 | 基于生成对抗网络和Caps-Unet网络的粘连细胞核分割方法 |
CN112837338B (zh) * | 2021-01-12 | 2022-06-21 | 浙江大学 | 一种基于生成对抗网络的半监督医学图像分割方法 |
CN113177950A (zh) * | 2021-04-22 | 2021-07-27 | 燕山大学 | 基于半监督对抗学习的冠脉造影血管图像分割的方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108836257A (zh) * | 2018-06-15 | 2018-11-20 | 杭州富扬科技有限公司 | 一种眼底oct图像中视网膜分层方法 |
CN109614921A (zh) * | 2018-12-07 | 2019-04-12 | 安徽大学 | 一种基于对抗生成网络的半监督学习的细胞分割方法 |
CN109949317A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
-
2019
- 2019-08-07 CN CN201910723889.9A patent/CN110443815B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108836257A (zh) * | 2018-06-15 | 2018-11-20 | 杭州富扬科技有限公司 | 一种眼底oct图像中视网膜分层方法 |
CN109614921A (zh) * | 2018-12-07 | 2019-04-12 | 安徽大学 | 一种基于对抗生成网络的半监督学习的细胞分割方法 |
CN109949317A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110443815A (zh) | 2019-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443815B (zh) | 结合生成对抗网络的半监督视网膜oct图像层分割方法 | |
CN109191476B (zh) | 基于U-net网络结构的生物医学图像自动分割新方法 | |
Chakrabarty | A deep learning method for the detection of diabetic retinopathy | |
CN109615632B (zh) | 一种基于半监督条件生成式对抗网络的眼底图视盘和视杯分割方法 | |
CN111597946B (zh) | 图像生成器的处理方法、图像生成方法及装置 | |
CN108765392B (zh) | 一种基于滑动窗口的消化道内镜病变检测和识别方法 | |
CN110930416A (zh) | 一种基于u型网络的mri图像前列腺分割方法 | |
CN107977605B (zh) | 基于深度学习的眼部区域边界特征提取方法及装置 | |
CN106846306A (zh) | 一种超声图像自动描述方法和系统 | |
EP4307221A1 (en) | Hierarchical segmentation method and apparatus for tissue structure in medical image, device, and medium | |
CN114897780A (zh) | 一种基于mip序列的肠系膜上动脉血管重建方法 | |
CN117237279A (zh) | 一种非均匀失真全景图像盲质量评价方法及系统 | |
Li et al. | Nui-go: Recursive non-local encoder-decoder network for retinal image non-uniform illumination removal | |
Guo et al. | CAFR-CNN: coarse-to-fine adaptive faster R-CNN for cross-domain joint optic disc and cup segmentation | |
CN114972211A (zh) | 图像分割模型的训练方法、分割方法、装置、设备和介质 | |
CN117315258A (zh) | 基于图卷积网络和部分卷积的轻量级视网膜血管分割方法 | |
CN112541566B (zh) | 一种基于重构损失的图像翻译方法 | |
CN113222975A (zh) | 一种基于改进U-net的高精度视网膜血管分割方法 | |
CN116486465A (zh) | 用于人脸结构分析的图像识别方法及其系统 | |
Zhou et al. | Automatic segmentation of lung noudles using improved U-Net NetWork | |
CN115018780B (zh) | 一种融合全局推理和mlp架构的甲状腺结节分割方法 | |
CN114612484B (zh) | 基于无监督学习的视网膜oct图像分割方法 | |
Ghosh et al. | Classification of diabetic retinopathy using few-shot transfer learning from imbalanced data | |
Huang et al. | Co-seg: An image segmentation framework against label corruption | |
Abeyrathna et al. | Directed fine tuning using feature clustering for instance segmentation of toxoplasmosis fundus images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |