CN110097131B - 一种基于对抗协同训练的半监督医疗图像分割方法 - Google Patents

一种基于对抗协同训练的半监督医疗图像分割方法 Download PDF

Info

Publication number
CN110097131B
CN110097131B CN201910378091.5A CN201910378091A CN110097131B CN 110097131 B CN110097131 B CN 110097131B CN 201910378091 A CN201910378091 A CN 201910378091A CN 110097131 B CN110097131 B CN 110097131B
Authority
CN
China
Prior art keywords
medical image
training
segmentation
loss
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910378091.5A
Other languages
English (en)
Other versions
CN110097131A (zh
Inventor
李武军
房康
陈龙意
周嵩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201910378091.5A priority Critical patent/CN110097131B/zh
Publication of CN110097131A publication Critical patent/CN110097131A/zh
Application granted granted Critical
Publication of CN110097131B publication Critical patent/CN110097131B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于对抗协同训练的半监督医疗图像分割方法,使用少量有标注的医疗图像数据以及大量无标注的医疗图像数据来训练神经网络分割模型从而提升模型性能。模型使用了两个结构不同的解码器分支,这两个解码器分支共享同一个编码器,通过协同训练的方法可以使得两个解码器分支互相学习。同时,模型还使用对抗学习方法来训练一个判别器,判别器可以学习到分割结果和真实标签之间的高阶连续性,从而使得分割网络的输出在视觉上更接近真实标签。同时判别器还可以选择无标注数据的伪标签中置信度较高的部分来训练分割模型。本发明提供的方法不受疾病和病灶种类的限制,可以用于肝脏、口腔等各种部位疾病的医疗图像分割,具有很好的普适性和通用性。

Description

一种基于对抗协同训练的半监督医疗图像分割方法
技术领域
本发明涉及一种基于对抗协同训练的半监督医疗图像分割方法,适用于有标签数据较少而无标签数据较多的医疗图像数据集。并且本发明的方法不受疾病种类的限制,可以应用于肝脏、口腔等各种部位疾病的医疗图像分割,具有普适性和通用性。
背景技术
语义分割是医疗影像分析中一个很重要的任务,它可以检测生理结构以及病灶区域的位置和大小,帮助制定医疗方案。随着深度学习的发展,深度神经网络尤其是全卷积网络在分割自然场景图片和医疗图像上都展示了很好的性能。但是目前主流的神经网络结构中都包含了大量需要优化的参数,因此需要大规模的带有像素级标签的数据集来进行训练。但是在医疗领域中获得大规模带标签的数据集是很难的,一方面是因为标注医疗图像需要专业的医学知识,另一方面的原因是标注数据是一项很耗时的重复性劳动;然而大部分的医生都没有很多时间来进行标注。
目前主流的解决医疗图像分割领域中标注数据较少问题的半监督方法大多都是基于自训练的方法,也就是首先使用有标签的数据预训练一个分割模型,然后使用这个模型对无标签数据进行预测产生分割结果。接着选择这些结果中质量较好的那些数据加入到训练集中形成新的训练集,对分割模型重新训练。重复上述步骤直至模型收敛。
但是基于自训练的方法会受限于预训练模型的性能。
发明内容
发明目的:针对现有技术中存在的问题与不足,本发明提供一种基于对抗协同训练的半监督医疗图像分割方法,采用了基于协同训练的方法,使两个结构不同的解码器分支互相学习。同时还引入了对抗训练来选择无标签数据的伪标签中置信度较高的区域来更新分割网络。而且本发明提供的方法可以用于肝脏、口腔等各种部位疾病的医疗图像分割,不受疾病和病灶种类的限制,具有很好的普适性和通用性。
技术方案:一种基于对抗协同训练的半监督医疗图像分割方法,包括使用含有两个解码器分支的编码器-解码器结构的网络进行协同训练的步骤,使用对抗训练来训练判别器,使得判别器可以学习到输出结果和医疗图像真实标签之间的高阶连续性从而可以使得分割网络产生的结果更加接近医疗图像真实标签,同时可以使用判别器选择无标注医疗图像数据的伪标签中置信度较高的区域来更新分割网络的步骤。
所述使用含有两个解码器分支的编码器-解码器网络进行协同训练的具体步骤为:
步骤100,输入有标记的医疗图像和其对应的标签(X,Y)以及无标签的医疗图像U,其中
Figure BDA0002052355620000021
H,W表示图像的高度和宽度,K表示类别数,Y是经过独热编码的表示;
步骤101,对输入数据进行预处理以及数据增广,包括将数据规范化到[0,1]区间,将输入的医疗图像进行随机水平翻转;
步骤102,对于有标签的医疗图像数据X以及无标签医疗图像数据U分别使用共享的编码器对其进行编码处理,然后使用两个解码器分支分别对处理后医疗图像的编码进行解码得到各自的两个分割结果
Figure BDA0002052355620000022
步骤103,对于有标签的数据X,使用其标签Y,基于Dice损失以及对抗损失对分割模型产生的输出
Figure BDA0002052355620000023
进行监督,训练分割模型;
步骤104,对于无标签数据,利用协同训练的方法,基于类似于Dice损失的损失函数以及对抗损失来使得
Figure BDA0002052355620000024
互相学习,互相训练。协同训练时使用判别器选择出的高置信度区域(在步骤203中详细描述)来更新分割网络。
步骤105,使用训练得到的模型对输入图像进行预测:输入一张医疗图像,计算得到两个分割结果
Figure BDA0002052355620000025
然后取这两个结果的平均值作为最后的输出结果。
使用对抗训练来训练判别器以及使用判别器选择伪标签中置信度较高区域(用于步骤104中的协同训练)的具体步骤为:
步骤200,对于有标签的医疗图像数据,分割网络会输出两个伪标签
Figure BDA0002052355620000026
步骤201,判别器的目的是区分出输入的是医疗图像的真实标签还是分割网络产生的伪标签,因此
Figure BDA0002052355620000036
都是负例,而医疗图像数据的真实标签是正例。使用二分类的交叉熵损失函数对判别器进行训练;
步骤202,对于无标签的医疗图像数据,只有两个伪标签,即分割网络的输出。将两个伪标签作为负例,使用二分类交叉熵损失函数对判别器进行训练;
步骤203,判别器对于无标签医疗图像数据的两个伪标签的判别结果中,置信度都大于某一个阈值的区域就是判别器选择出的置信度较高的区域。该区域被用于步骤104中的协同训练。
所述整体模型(包括分割网络和判别器)训练的具体流程为:首先初始化机器学习平台,然后随机初始化所要训练的模型参数,进入训练过程:在每轮迭代中首先计算有标签的医疗图像数据和无标签的医疗图像数据的输出,然后基于输出计算相对于分割网络的损失LS以及相对于判别器的损失Ldis,接着计算分割网络和判别器的整体损失L,最后使用这个损失对分割网络和判别器进行更新;整个训练过程使用自适应矩估计法更新网络参数。
定义模型的目标方程
Figure BDA0002052355620000031
其中θs和θd分别表示分割网络和判别器的参数。LS和Ldis分别表示分割网络和判别器的优化目标。Ldis定义如下:
Figure BDA0002052355620000032
其中D(*)为判别器,Lbce为二分类的交叉熵损失,对于输入
Figure BDA0002052355620000035
Figure BDA0002052355620000034
定义如下:
Figure BDA0002052355620000033
其中H,W表示输入医疗图像以及输出结果的高度和宽度。
LS定义如下:
LS=Ldice1Ladv2Lsemi
其中Ldice表示对于有标签的医疗图像数据的分割损失,使用Dice损失,Ladv表示对于有标签的医疗图像数据和无标签的医疗图像数据的对抗损失,Lsemi表示对于无标签的医疗图像数据的协同训练损失。λ12用来对三项损失函数进行均衡。Ls中的三个损失函数分别定义如下:
Figure BDA0002052355620000041
Figure BDA0002052355620000042
Figure BDA0002052355620000043
其中O表示有标签的医疗图像数据或者无标签的医疗图像数据;
Figure BDA0002052355620000046
Figure BDA0002052355620000045
Yh,w,k表示Y在第k个通道上(h,w)位置上的值,
Figure BDA0002052355620000047
表示第i个解码器分支输出结果在第k个通道上(h,w)位置上的值。M表示判别器用来选择高置信度区域的掩码,定义如下:
Figure BDA0002052355620000044
γ表示选择区域的阈值。
有益效果:与现有技术相比,本发明提供的基于对抗协同训练的半监督医疗图像分割方法,利用了协同训练和对抗训练的方法,使得模型能够使用无标签的医疗图像数据来提升模型的分割性能。并且本方法不受疾病和病灶种类的限制,可以应用于肝脏、口腔等疾病的医疗图像分割,具有很好的普适性和通用性。
附图说明
图1为本发明所使用的网络结构示意图;
图2为本发明方法的训练流程图;
图3为使用训练好的模型进行预测的流程图;
图4为本发明在KiTS肝部数据集上的可视化结果。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
基于对抗协同训练的医疗图像半监督分割方法,网络结构示意图如图1所示。该网络由两个子网络组成:一个分割网络和一个判别器。分割网络使用了两个编码器-解码器架构的网络,并且将它们的编码器部分共享。两个解码器分支可以使用协同训练方法来互相监督,提升性能。判别器采用了常规的全卷积结构网络,它由若干个下采样模块以及对应的上采样模块构成。使用对抗训练方法来使得判别器学习到输出结果和真实标签之间的高阶连续性,同时使得分割网络产生视觉上更接近真实标签的输出。
基于对抗协同训练的半监督医疗图像分割方法,训练工作流程如图2所示。输入一张有标签的医疗图像数据X及其标签Y和一张无标签的医疗图像数据U,对输入数据进行预处理,将数据规范化,同时使用随机水平翻转作为医疗图像数据增广的方法。对于有标签的医疗图像数据X以及无标签的医疗图像数据U分别使用共享的编码器对其进行编码处理,然后使用两个解码器分支分别对处理后的编码进行解码得到各自的两个分割结果
Figure BDA0002052355620000051
对于有标签的医疗图像数据,计算分割网络的Dice损失Ldice以及相对于判别器的对抗损失Ladv,然后使用有标签的医疗图像数据的两个分割结果以及真实标签来计算判别器的判别损失Ldis。对于无标签的医疗图像数据U,基于判别器选择出的高置信度区域计算半监督协同损失Lsemi以及相对于判别器的对抗损失Ladv,然后计算两个分割结果的判别损失Ldis。基于上述计算出的所有损失计算出网络的整体损失LS+Ldis,使用这个损失值对分割网络和判别器进行更新。
使用训练得到的模型对输入图像进行预测的流程如图3所示。输入一张医疗图像,计算得到两个分割结果
Figure BDA0002052355620000052
然后取这两个结果的平均值作为最后的输出结果。
本发明在KiTS肝部数据集上进行了实验,对比了本发明的方法和已有最好方法的效果,已有的最好方法是Wenjia Bai在2017年医疗图像处理国际顶级会议MICCAI论文中提出的“半监督全卷积网络方法”以及Agisilaos Chartsias在2018年MICCAI论文中提出的“空间信息分解方法”。这里进行的实验只是以肝脏分割为例来验证本发明的有效性,但是本发明的应用范围不仅限于肝脏分割,还可以应用于其他的病灶区域分割。
KiTS肝部数据集包含了210个有标注的3D CT数据,这些数据是从2010年至2018年间进行过肝部肿瘤切除术的病人中收集的。对于每个病人,我们选取一张切片及其对应的标签作为有标签数据,选取两张切片作为无标签数据。无标签数据仅参与到训练过程,和预测过程无关。实验所使用的评测指标为平均交并比(mIoU)
实验结果如表1所示,其中“监督学习方法”表示本发明提供的方法,但是不使用无标签数据以及对抗训练。“基于对抗训练的监督学习方法”表示本发明提供的方法,但是不使用无标签数据。通过对比可以发现本发明所提供的方法相比于已有的最好方法有较大的性能提升。并且本发明所提供的方法中使用的每个部分都能带来性能提升。
表1为本发明在KiTS肝部数据集上的实验结果
Figure BDA0002052355620000061
可视化结果图见图4,其中第一列是原图,第二列是真实标签,第三列表示训练时只使用10%的有标签数据,第四列表示训练时只使用30%的有标签数据,第五列表示训练时只使用50%的有标签数据,第六列表示训练时使用100%的有标签数据。从可视化结果可以看出,随着使用的有标签数据的增加,本发明所提供的方法可以稳定的提升分割的效果。

Claims (4)

1.一种基于对抗协同训练的半监督医疗图像分割方法,其特征在于:包括使用含有两个解码器分支的编码器-解码器结构的网络进行协同训练的步骤,使用对抗训练来训练判别器,使得判别器学习到输出结果和医疗图像真实标签之间的高阶连续性从而使得分割网络产生的结果更加接近医疗图像真实标签,同时使用判别器选择无标注医疗图像数据的伪标签中置信度较高的区域来更新分割网络的步骤;
所述使用含有两个解码器分支的编码器-解码器网络进行协同训练的具体步骤为:
步骤100,输入有标记的医疗图像和其对应的标签(X,Y)以及无标签的医疗图像U,其中
Figure FDA0004085351780000011
H,W表示图像的高度和宽度,K表示类别数,Y是经过独热编码的表示;
步骤101,对输入数据进行预处理以及数据增广,包括将数据规范化到[0,1]区间,将输入的医疗图像进行随机水平翻转;
步骤102,对于有标签的医疗图像数据X以及无标签医疗图像数据U分别使用共享的编码器对其进行编码处理,然后使用两个解码器分支分别对处理后医疗图像的编码进行解码得到各自的两个分割结果
Figure FDA0004085351780000012
步骤103,对于有标签数据X,使用其标签Y,基于Dice损失以及对抗损失对分割模型产生的输出
Figure FDA0004085351780000013
进行监督,训练分割模型;
步骤104,对于无标签数据,利用协同训练的方法,基于类似于Dice损失的损失函数以及对抗损失来使得
Figure FDA0004085351780000014
互相学习,互相训练;协同训练时使用判别器选择出的高置信度区域来更新分割网络;
步骤105,使用训练得到的模型对输入图像进行预测:输入一张医疗图像,计算得到两个分割结果
Figure FDA0004085351780000015
然后取这两个结果的平均值作为最后的输出结果。
2.如权利要求1所述的基于对抗协同训练的半监督医疗图像分割方法,其特征在于,使用对抗训练来训练判别器以及使用判别器选择伪标签中置信度较高区域的具体步骤为:
步骤200,对于有标签的医疗图像数据,分割网络会输出两个伪标签
Figure FDA0004085351780000016
步骤201,判别器的目的是区分出输入的是医疗图像的真实标签还是分割网络产生的伪标签,因此
Figure FDA0004085351780000021
都是负例,而医疗图像数据的真实标签是正例;使用二分类的交叉熵损失函数对判别器进行训练;
步骤202,对于无标签的医疗图像数据,只有两个伪标签,即分割网络的输出;将两个伪标签作为负例,使用二分类交叉熵损失函数对判别器进行训练;
步骤203,判别器对于无标签医疗图像数据的两个伪标签的判别结果中,置信度都大于某一个阈值的区域就是判别器选择出的置信度较高的区域。
3.如权利要求1所述的基于对抗协同训练的半监督医疗图像分割方法,其特征在于,所述分割网络和判别器训练的具体流程为:首先初始化机器学习平台,然后随机初始化所要训练的模型参数,进入训练过程:在每轮迭代中首先计算有标签的医疗图像数据和无标签的医疗图像数据的输出,然后基于输出计算相对于分割网络的损失LS以及相对于判别器的损失Ldis,接着计算分割网络和判别器的整体损失L,最后使用这个损失对分割网络和判别器进行更新;整个训练过程使用自适应矩估计法更新网络参数。
4.如权利要求3所述的基于对抗协同训练的半监督医疗图像分割方法,其特征在于,定义模型的目标方程
Figure FDA0004085351780000022
其中θs和θd分别表示分割网络和判别器的参数;Ls和Ldis分别表示分割网络和判别器的优化目标;Ldis定义如下:
Figure FDA0004085351780000023
其中D(*)为判别器,Lbce为二分类的交叉熵损失,对于输入
Figure FDA0004085351780000024
Figure FDA0004085351780000025
定义如下:
Figure FDA0004085351780000026
其中H,W表示输入医疗图像以及输出结果的高度和宽度;
LS定义如下:
Ls=Ldice1Ladv2Lsemi
其中Ldice表示对于有标签的医疗图像数据的分割损失,使用Dice损失,Ladv表示对于有标签的医疗图像数据和无标签的医疗图像数据的对抗损失,Lsemi表示对于无标签的医疗图像数据的协同训练损失;λ12用来对三项损失函数进行均衡;LS中的三个损失函数分别定义如下:
Figure FDA0004085351780000031
Figure FDA0004085351780000032
Figure FDA0004085351780000033
其中O表示有标签的医疗图像数据或者无标签的医疗图像数据;
Figure FDA0004085351780000034
Figure FDA0004085351780000035
Yh,w,k表示Y在第k个通道上(h,w)位置上的值,
Figure FDA0004085351780000036
表示第i个解码器分支输出结果在第k个通道上(h,w)位置上的值;M表示判别器用来选择高置信度区域的掩码,定义如下:
Figure FDA0004085351780000037
γ表示选择区域的阈值。
CN201910378091.5A 2019-05-08 2019-05-08 一种基于对抗协同训练的半监督医疗图像分割方法 Active CN110097131B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910378091.5A CN110097131B (zh) 2019-05-08 2019-05-08 一种基于对抗协同训练的半监督医疗图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910378091.5A CN110097131B (zh) 2019-05-08 2019-05-08 一种基于对抗协同训练的半监督医疗图像分割方法

Publications (2)

Publication Number Publication Date
CN110097131A CN110097131A (zh) 2019-08-06
CN110097131B true CN110097131B (zh) 2023-04-28

Family

ID=67447257

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910378091.5A Active CN110097131B (zh) 2019-05-08 2019-05-08 一种基于对抗协同训练的半监督医疗图像分割方法

Country Status (1)

Country Link
CN (1) CN110097131B (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110517759B (zh) * 2019-08-29 2022-03-25 腾讯医疗健康(深圳)有限公司 一种待标注图像确定的方法、模型训练的方法及装置
CN110706793A (zh) * 2019-09-25 2020-01-17 天津大学 一种基于注意力机制的甲状腺结节半监督分割方法
CN111161848B (zh) * 2019-10-31 2023-08-29 杭州深睿博联科技有限公司 Ct图像的病灶标注方法及装置、存储介质
CN110880176B (zh) * 2019-11-19 2022-04-26 浙江大学 一种基于对抗生成网络的半监督工业图像缺陷分割方法
CN111429464B (zh) * 2020-03-11 2023-04-25 深圳先进技术研究院 医学图像分割方法、医学图像分割装置及终端设备
CN111507993B (zh) * 2020-03-18 2023-05-19 南方电网科学研究院有限责任公司 一种基于生成对抗网络的图像分割方法、装置及存储介质
CN111489366B (zh) * 2020-04-15 2024-06-11 上海商汤临港智能科技有限公司 神经网络的训练、图像语义分割方法及装置
CN113763393A (zh) * 2020-06-05 2021-12-07 阿里巴巴集团控股有限公司 数据处理方法和系统、存储介质及移动设备
CN111931591B (zh) * 2020-07-15 2024-01-12 北京百度网讯科技有限公司 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质
CN111898696B (zh) * 2020-08-10 2023-10-27 腾讯云计算(长沙)有限责任公司 伪标签及标签预测模型的生成方法、装置、介质及设备
CN112381098A (zh) * 2020-11-19 2021-02-19 上海交通大学 基于目标分割领域自学习的半监督学习方法和系统
CN112396588A (zh) * 2020-11-23 2021-02-23 中国人民大学 一种基于对抗网络的眼底图像识别方法、系统及可读介质
CN112416293B (zh) * 2020-11-24 2024-05-31 深圳市人工智能与机器人研究院 一种神经网络增强方法、系统及其应用
CN112651974A (zh) * 2020-12-29 2021-04-13 上海联影智能医疗科技有限公司 图像分割方法及系统、电子设备及存储介质
CN112699965B (zh) * 2021-01-14 2022-08-30 中国人民解放军海军航空大学 基于卷积自编码的雷达hrrp目标类别标注方法
CN112765354B (zh) * 2021-01-26 2023-04-07 深圳追一科技有限公司 模型训练方法、模型训练装置、计算机设备和存储介质
CN112954399B (zh) * 2021-02-09 2021-12-17 腾讯科技(深圳)有限公司 一种图像处理方法、装置以及计算机设备
CN113113119A (zh) * 2021-03-23 2021-07-13 中国科学院深圳先进技术研究院 语义分割网络的训练方法、图像处理方法及其设备
CN113139974B (zh) * 2021-04-13 2023-08-22 广东工业大学 基于半监督学习的病灶分割模型训练、应用方法
CN113344044B (zh) * 2021-05-21 2024-05-28 北京工业大学 一种基于领域自适应的跨物种医疗影像分类方法
CN113496496B (zh) * 2021-07-07 2023-04-07 中南大学 基于多种损失和多尺度特征的mri影像海马体区域分割方法
CN113870258B (zh) * 2021-12-01 2022-03-25 浙江大学 一种基于对抗学习的无标签胰腺影像自动分割系统
CN114862878B (zh) * 2022-05-30 2023-06-06 北京百度网讯科技有限公司 图像分割模型生成方法和装置、图像分割方法和装置
CN115331012B (zh) * 2022-10-14 2023-03-24 山东建筑大学 基于零样本学习的联合生成式图像实例分割方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839309B2 (en) * 2015-06-04 2020-11-17 Accusonus, Inc. Data training in multi-sensor setups
CN108549895A (zh) * 2018-04-17 2018-09-18 深圳市唯特视科技有限公司 一种基于对抗网络的半监督语义分割方法
CN109522973A (zh) * 2019-01-17 2019-03-26 云南大学 基于生成式对抗网络与半监督学习的医疗大数据分类方法及系统

Also Published As

Publication number Publication date
CN110097131A (zh) 2019-08-06

Similar Documents

Publication Publication Date Title
CN110097131B (zh) 一种基于对抗协同训练的半监督医疗图像分割方法
Jin et al. Generative adversarial network technologies and applications in computer vision
Liu et al. Twin adversarial contrastive learning for underwater image enhancement and beyond
US11908244B2 (en) Human posture detection utilizing posture reference maps
CN108062753B (zh) 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法
CN115049936B (zh) 一种面向高分遥感影像的边界增强型语义分割方法
Zhang et al. Efficient inductive vision transformer for oriented object detection in remote sensing imagery
CN109829443A (zh) 基于图像增强与3d卷积神经网络的视频行为识别方法
CN108520503A (zh) 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法
CN113012172A (zh) 一种基于AS-UNet的医学图像分割方法及系统
CN111325750B (zh) 一种基于多尺度融合u型链神经网络的医学图像分割方法
CN111968127B (zh) 一种基于全切片病理图像的癌灶区域识别方法及系统
CN110675421B (zh) 基于少量标注框的深度图像协同分割方法
CN106780453A (zh) 一种基于深度信任网络实现对脑肿瘤分割的方法
Cheng et al. DDU-Net: A dual dense U-structure network for medical image segmentation
Dong et al. Semi-supervised domain alignment learning for single image dehazing
CN116682120A (zh) 基于深度学习的多语种马赛克图像文本识别方法
CN114972313B (zh) 图像分割网络预训练方法及装置
CN115222748A (zh) 一种基于并联深度u形网络和概率密度图的多器官分割方法
CN115761574A (zh) 基于边框标注的弱监督视频目标分割方法及装置
CN111784713A (zh) 一种引入注意力机制的u形心脏分割方法
CN113033410B (zh) 基于自动数据增强的域泛化行人重识别方法、系统及介质
Li et al. FA-GAN: A feature attention GAN with fusion discriminator for non-homogeneous dehazing
Wang et al. A dual-branch joint learning network for underwater object detection
CN117523194A (zh) 一种基于稀疏标注的图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant