CN113591867B - 一种无监督领域自适应图像分割方法及系统 - Google Patents

一种无监督领域自适应图像分割方法及系统 Download PDF

Info

Publication number
CN113591867B
CN113591867B CN202110869520.6A CN202110869520A CN113591867B CN 113591867 B CN113591867 B CN 113591867B CN 202110869520 A CN202110869520 A CN 202110869520A CN 113591867 B CN113591867 B CN 113591867B
Authority
CN
China
Prior art keywords
segmentation
image
model
label
domain data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110869520.6A
Other languages
English (en)
Other versions
CN113591867A (zh
Inventor
李强
王植炜
吕进鑫
梁愿怀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Wuhan United Imaging Zhirong Medical Technology Co Ltd
Original Assignee
Huazhong University of Science and Technology
Wuhan United Imaging Zhirong Medical Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology, Wuhan United Imaging Zhirong Medical Technology Co Ltd filed Critical Huazhong University of Science and Technology
Priority to CN202110869520.6A priority Critical patent/CN113591867B/zh
Publication of CN113591867A publication Critical patent/CN113591867A/zh
Application granted granted Critical
Publication of CN113591867B publication Critical patent/CN113591867B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种无监督领域自适应图像分割方法及其系统,该方法包括:根据源域数据中带分割标签的图像训练分割模型和生成模型;将目标域数据中不带分割标签的图像输入分割模型,得到对应的分割预测标签;将目标域数据和对应的分割预测标签输入生成模型,得到匹配的参考图像和分割参考标签;将与分割参考标签重叠率符合预设值的分割预测标签作为准分割标签,根据准分割标签和对应的目标域数据再次训练分割模型并重新确定准分割标签,直至分割模型的分割精度满足预设条件时结束训练。本发明是结合源域数据中带标签的图像和目标域数据中不带标签的图像共同训练分割模型,降低训练分割模型对带标签图案的数量要求,使得该方法能够广泛应用。

Description

一种无监督领域自适应图像分割方法及系统
技术领域
本发明属于医学图像分割领域,更具体地,涉及一种无监督领域自适应图像分割方法及系统。
背景技术
医学图像分割是将医学图像中医生感兴趣的区域从图像中提取出来,在临床的术前规划、术中导航和术后评估中都有很重要的应用价值。传统的分割方法比如基于阈值的分割、基于区域生长的分割和基于可变形模型的分割等方法在自动性、准确性和分割速度上都不能达到令人满意的效果。
近年来,随着深度学习在图像处理领域的长足发展,其在医学图像领域的突出表现也逐渐使其成为医学图像处理领域的主流。目前基于深度学习常用的分割方法为有监督的深度学习图像分割,其基于对大量的带有分割标签的医学图像数据进行训练形成分割模型。然而,由于医学图像的特殊性,很多医学图像并没有标签或者没有质量较高的标签,这就限制了有监督的深度学习图像分割的广泛应用。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种无监督领域自适应图像分割方法及系统,其目的在于结合带有分割标签的图像和不带分割标签的图像共同进行训练,由此解决带分割标签的图像数量不够而限制深度学习图像分割应用的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种无监督领域自适应图像分割方法,其包括:
确定源域数据和目标域数据,所述源域数据包括带分割标签的图像,所述目标域数据包括不带分割标签的图像;
根据源域数据训练分割模型和生成模型,所述分割模型用于预测无标签图像的分割标签,所述生成模型用于生成与输入图像相匹配的带分割标签的图像;
将目标域数据输入分割模型,得到对应的分割预测标签;
将目标域数据和对应的分割预测标签输入生成模型,得到匹配的参考图像和分割参考标签;
计算分割预测标签作和分割参考标签的重叠率,将重叠率符合预设值的分割预测标签作为准分割标签,
根据准分割标签和对应的目标域数据再次训练分割模型并重新确定准分割标签,直至分割模型的分割精度满足预设条件时结束训练,得到训练后的分割模型。
优选地,所述方法还包括:
利用训练后的分割模型对无标签图像进行分割。
优选地,所述分割模型为基于U-net分割网络的分割模型。
优选地,所述生成模型为基于变分自编码器的生成模型。
优选地,所述将目标域数据和对应的分割预测标签输入生成模型,得到匹配的参考图像和分割参考标签,包括:
将目标域数据和对应的分割预测标签输入生成模型,在生成模型内匹配初始编码;
对初始编码进行解码,生成带分割标签的图案;
将生成的图像与输入的图案进行相似度比较,当相似度未达到预设程度时,优化初始编码得到新编码并进行解码,重新生成图案,直至生成的图像与输入的图案的相似度达到预设程度时,判定生成模型生成匹配的参考图像和分割参考标签。
优选地,判定生成的图像与输入的图案的相似度达到预设程度,包括:利用结构相似性损失函数来衡量生成图像与输入图像的相似度,当前后两次编码迭代得到的结构相似性损失函数的差值小于或等于预设收敛值,则判定生成的图像与输入的图案的相似度达到预设程度,所述结构相似性损失函数为
其中,x和y分别表示两幅图,μx和μy分别表示x和y的均值,σx和σy分别表示x和y的标准差,σxy表示x和y的协方差。
优选地,计算分割预测标签作和分割参考标签的重叠率,包括:
根据Dice损失函数和豪斯道夫距离函数分析分割预测标签作和分割参考标签的匹配度,其中,
Dice损失函数yi是分割参考标签,/>是分割预测标签,TDice为第一预设值;
豪斯道夫距离函数h(A,B)=maxa∈A{minb∈B{d(a,b)}}≤THD,A、B分别是两副图像,a、b分别是A和B中的像素点,d(a,b)表示a、b两点的距离,THD为第二预设值。
优选地,判定分割模型的分割精度满足预设条件,包括,利用分割模型对目标域数据的多组无标签图像进行分割,得到对应的多组分割预测标签,计算多组分割预测标签与对应的分割参考标签的Dice损失函数并求平均值,当平均值大于等于第三预设值时,判定为分割模型的分割精度满足预设条件,其中,
Dice损失函数yi是分割参考标签,/>是分割预测标签。
优选地,所述根据源域数据训练分割模型和生成模型,还包括:
在源域数据带分割标签的图像中提取感兴趣区域作为训练数据训练分割模型和生成模型。
按照本发明的另一方面,提供了一种无监督领域自适应图像分割系统,包括:
训练单元,用于根据源域数据训练分割模型和生成模型,所述源域数据包括带分割标签的图像,所述分割模型用于预测无标签图像的分割标签,所述生成模型用于生成与输入图像相匹配的带分割标签的图像;
分割预测单元,用于将目标域数据输入分割模型,得到对应的分割预测标签,所述目标域数据包括不带分割标签的图像;
生成单元,用于将目标域数据和对应的分割预测标签输入生成模型,得到匹配的参考图像和分割参考标签;
准标签确定单元,用于计算分割预测标签作和分割参考标签的重叠率,将重叠率符合预设值的分割预测标签作为准分割标签;
迭代单元,用于根据准分割标签和对应的目标域数据再次训练分割模型并重新确定准分割标签,直至分割模型的分割精度满足预设条件时结束训练,得到训练后的分割模型。
本发明是结合源域数据中带标签的图像和目标域数据中不带标签的图像共同训练分割模型。在训练分割模型时,首先利用源域数据中带分割标签的图像进行训练得到生成模型和初期的分割模型,然后将最新训练好的分割模型迁移至目标域不带分割标签的图像上,预测无标签图像上的分割标签,即获得目标域数据对应的分割预测标签,由于初期形成的分割模型的分割效果可能并不理想,部分预测的分割标签可能不准确,因此,本发明中还通过训练生成模型,通过生成模型获取用于评估分割预测标签准确度的参考标签,通过对比分割预测标签作和分割参考标签的匹配度,排除掉准确度不高的预测标签,将匹配程度符合预设值的分割预测标签作为准分割标签,将获得的准分割标签和对应的目标域的图像作为训练数据继续训练分割模型,以提高分割模型的分割精度。在本发明中,由于在训练分割模型时,通过预测目标域数据中不带标签的图像的分割标签,并将目标域数据作为部分训练数据继续训练分割模型,降低了训练分割模型时对源域数据的数量要求,即使是在无法获得大量带标签的图像的场景下也能应用,使得该无监督领域自适应图像分割方法能够广泛应用。同时,由于本发明中通过生成模型生成参考标签来判断分割标签的准确性,只有准确度高的预测标签和对应的图像才能用于对分割模型继续训练,因此,通过该无监督领域自适应方法最终训练出的分割模型,其分割精度较高。
附图说明
图1是本发明一实施例中无监督领域自适应图像分割方法的步骤流程图;
图2中的(a)~(b)分别是本发明一实施例中盆骨的DRR图像和X-ray图像;
图3是本发明一实施例中通过生成模型搜索最接近图像的流程图;
图4是本发明一实施例中迭代训练的流程图;
图5中的(a)~(g)分别是本发明一实施例中通过不同模型得到的盆骨分割标签;
图6中的(a)~(g)分别是本发明一实施例中通过不同模型得到的右心室心内膜分割标签。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示为一实施例中无监督领域自适应图像分割方法的步骤流程图,该方法包括
步骤S100:确定源域数据和目标域数据。
其中,所述源域数据包括带分割标签的图像,所述目标域数据包括不带分割标签的图像。
在一实施例中,源域数据中的图像均带有分割标签,而目标域中的图像未带分割标签。
在一具体的实施例中,先获取少量带分割标签的CT图像,然后利用光线投射法从多个角度对CT图像进行投影,获得大量带有分割标签的数字重建放射(DigitallyReconstructured Radiograph,DRR)投影图像,以DRR图像作为源域数据。在本实施例中,在人体骨组织成像方式中,CT图像中骨组织成像要比其他影像方式,比如超声、核磁共振(MRI)等的骨组织成像更加清晰,对比度更强,由于CT图像中的骨组织边界明显,在获取CT图像后,可使用传统的分割算法并手动微调即可得到较为准确的分割标签,由此获得带有分割标签的CT图像,然后利用光线投射法从多个角度对CT图像进行投影,获得大量带有分割标签的DRR图像作为源域数据。
在一具体的实施例中,可以获取无标签的X-ray图像作为目标域数据。
进一步的,源域数据和目标域数据中的图像均是针对同一区域骨组织的成像。例如,源域数据为利用光线投射法投影盆骨CT得到的DRR图像,如图2中的(a)所示;目标域数据则可以为骨盆的X-ray图像,如图2中的(b)所示。由图2中的(a)~(b)可以看出,DRR投影图像与X-ray图像有一些相似特征,比如图像灰度整体偏小,骨盆的大致形状类似等。
步骤S200:根据源域数据训练分割模型和生成模型。
在一实施例中,在步骤S200中,对模型进行训练之前,可以对源域数据进行预处理,先从源域数据图像中先提取出感兴趣(R0I)区域作为有效区域进行分析;同理,针对目标域数据,也可以提取感兴趣(R0I)区域作为有效区域进行后续操作。由于感兴趣区域在图像中面积较小导致类别不平衡,进而影响分割精度,因此我们在获得源域数据和目标域数据后需要提取ROI以提升分割效果。
如图1所示,步骤S200可拆分为两个步骤,分别为:
步骤S210:训练分割模型。
步骤S220:训练生成模型。
需要说明的是,训练分割模型和训练生成模型是两个独立的过程,对其训练的先后顺序不做限定,两者可同时进行训练,也可先后训练,即步骤S210和步骤S220的先后顺序不做限定。
在一实施例中,步骤S210训练分割模型,具体可以基于U-net分割网络进行训练。U-net神经网络是很多医学图像分割的主干网络,本发明使用U-net模型作为分割模型,利用预处理后带有分割标签的源域数据训练U-net分割模型。U-net网络结构的编码路径可以有效提取图像中的特征信息,其解码路径可以生成像素/体素级的分割结果。在训练过程中,优化器使用的是AdaBelief优化器,两个动量超参数β_1=0.9,β_2=0.999,初始学习率为5e-4,训练20个epoch。
在一实施例中,步骤S220训练生成模型,具体可以基于变分自编码器(Variational Auto-Encoder,VAE)训练,VAE拥有和U-net相似的编码-解码结构,通过在脖颈处选择不同的编码可以生成特定的图像。为了方便后续对数据的筛选,我们在这里利用源域数据训练生成模型VAE。训练VAE生成模型时,将源域图像及其分割标签按通道叠加后输入到VAE生成模型中,模型的输出是重建的图像和分割标签,通过计算重建的图像和分割标签与输入的图像和分割标签的损失来监督VAE模型,以使训练后的生成模型最终能生成与输入类似风格的图像和分割标签。损失函数使用均方根误差(Mean Square Error,MSE)损失LMSE和二值交叉熵(Binary Cross Entropy,BCE)损失LBCE,其中,
其中,xi是输入图像,yi是输入分割标签,是VAE生成的图像,/>是VAE生成的分割标签。
在训练过程中,使用AdaBelief优化器,两个动量超参数β_1=0.9,β_2=0.999,初始学习率为5e-4,训练250个epoch。
步骤S300:将目标域数据输入分割模型,得到对应的分割预测标签。
在一实施例中,步骤S300是将最新训练出的分割模型迁移至目标域数据,利用分割模型预测目标域图像的分割标签,针对每一目标域图像形成对应的预测分割标签。
步骤S400:将目标域数据和对应的分割预测标签输入生成模型,得到匹配的参考图像和分割参考标签。
在一实施例中,步骤S400是将目标域数据和对应的分割预测标签输入生成模型,得到与输入图像最相近的参考图像和分割参考标签。
具体地,步骤400可包括以下步骤:
步骤S410:将目标域数据和对应的分割预测标签输入生成模型,在生成模型内匹配初始编码。
具体地,将目标域数据输入生成模型的编码器中,得到一个初始的潜空间编码。
步骤S420:对初始编码进行解码,生成带分割标签的参考图案。
具体地,将潜空间编码输入到生成模型的解码器中,生成与该编码对应的带分割标签的参考图像。
步骤S430:将生成的图像与输入的图案进行相似度比较,当相似度未达到预设程度时,优化初始编码得到新编码并进行解码,重新生成图案,直至生成的图像与输入的图案的相似度达到预设程度时,判定生成模型生成匹配的参考图像和分割参考标签。
具体地,当将目标域数据输入生成模型,生成模型会判断其生成的图像是否为与输入图像最接近的图像,当输入图像与输出图像的相似度未达到预设程度时,需调整编码,具体以前次得到的编码为中心搜索周围的编码,并进行解码生成新的图像后继续判断新生成图像与输入图像的相似度,当相似度达到预设条件,则判定当前生成的图像为参考图像,当相似度未达到预设条件,重复上述过程,直至生成的图像与输入的图案的相似度达到预设程度。需要说明的是,生成模型进行解码生成的是带分割标签的图像,确定参考图像后,也同时确定了参考图像对应的分割参考标签。
进一步地,判定生成的图像与输入的图案的相似度达到预设程度,包括:利用结构相似性(Structual Similarity,SSIM)损失函数来衡量生成图像与输入图像的相似度,当前后两次编码迭代得到的结构相似性损失函数的差值小于或等于预设收敛值,则判定生成的图像与输入的图案的相似度达到预设程度,所述结构相似性损失函数为
其中,x和y分别表示两幅图,μx和μy分别表示x和y的均值,σx和σy分别表示x和y的标准差,σxy表示x和y的协方差。具体地,预设收敛值可为5e-3。即为提高搜索效率,使用了早停策略,当前后两次迭代的误差小于5e-3时结束搜索。
在搜索最相似图像的过程中,使用AdaBelief优化器,超参数β_1=0.9,β_2=0.999,学习率为5e-3,迭代3000次。由于SSIM通常是对两幅图像的全局求相似性,但医学图像中对图像细节更为关注,因此我们选择使用局部SSIM,即对整幅图使用移动窗求SSIM,窗宽为11。
为了进一步理解步骤S400,结合图3所示,该过程为:
将目标域图像和对应的分割预测标签输入生成模型中;
生成模型通过编码器(Encoder)在潜空间内搜索初始编码;
通过解码器(Decoder)对编码进行解码,生成参考图像和对应的分割参考标签;
求生成的参考图像和输入的目标域图像的结构相似度(SSIM)损失,当前后两次编码迭代得到的结构相似性损失函数的差值小于或等于预设收敛值,结束搜索,否则,重复在潜空间内优化编码直至搜索结果收敛。
在一实施例中,通过步骤S400获得与分割预测标签对应的分割参考标签后,会执行
步骤S500:判断当前分割模型的分割精度是否满足预设条件。
在一实施例中,分割模型的分割精度满足预设条件,包括,利用分割模型对目标域数据的多组无标签图像进行分割,得到对应的多组分割预测标签,计算多组分割预测标签与对应的分割参考标签的Dice损失函数并求平均值,当平均值大于等于第三预设值时,判定为分割模型的分割精度满足预设条件,其中,Dice损失函数为
其中,yi是分割参考标签,是分割预测标签。
具体地,第三预设值可以为0.95,即损失函数的平均值大于等于0.95时,判定当前分割模型的分割精度较好,不需继续训练。
在迭代训练过程中,为进一步增强分割模型泛化能力,训练数据做了数据增强,包括伽马变换,水平翻转,垂直翻转,随机旋转(旋转角度在-45°~45°之间),图像缩放,高斯模糊,图像平移(平移比例0~20%)等。我们选择AdaBelief优化器,两个超参数β_1=0.9,β_2=0.999,学习率为5e-5,损失函数依然选择Dice损失。当分割模型的精度不在上升时结束训练,得到最终在目标域图像上的分割模型。
当当前分割模型的分割精度满足预设条件时,结束训练,得到最终的分割模型;当当前分割模型的分割精度不满足预设条件时,则继续执行步骤S600和步骤S700。
步骤S600:计算分割预测标签作和分割参考标签的重叠率,将重叠率符合预设值的分割预测标签作为准分割标签。
由于不同图像域之间风格差异的影响,直接将预训练分割模型迁移至目标域上的分割效果可能并不理想;但会存在部分目标域图像的分割效果较好。因此,可以通过步骤S600筛选出这部分易分割的图像作为新的训练数据继续迭代训练分割模型。
在一实施例中,计算分割预测标签作和分割参考标签的重叠率,包括:根据Dice损失函数和豪斯道夫距离函数分析分割预测标签作和分割参考标签的匹配度,其中,
Dice损失函数yi是分割参考标签,/>是分割预测标签,TDice为第一预设值;
豪斯道夫距离函数h(A,B)=maxa∈A{minb∈B{d(a,b)}}≤THD,A、B分别是两副图像,a、b分别是A和B中的像素点,d(a,b)表示a、b两点的距离,THD为第二预设值。
具体地,本发明中选择Dice的TDice阈值0.9,HD的阈值THD=15。
当分割预测标签作和分割参考标签的重叠率满足上述预设值时,说明当前目标域图像的分割效果较好,可以该目标域图像和对应的分割预测标签作为准分割数据。
步骤S700:根据准分割标签和对应的目标域数据再次训练分割模型并重新确定准分割标签,直至分割模型的分割精度满足预设条件时结束训练,得到训练后的分割模型。
如图1所示,当确定准分割数据之后,再次跳转至步骤S210,以确定的准分割数据作为新的训练数据,继续训练分割模型,优化分割精度,重复步骤S210~步骤S700,直至分割模型的分割精度满足预设条件时结束训练,得到最终的分割模型。
在一实施例中,在得到最终的分割模型后,可以分割模型应用于实际分割操作中,即,该方法还包括:
步骤S800:利用训练后的分割模型对无标签图像进行分割。
为了进一步理解步骤S600~步骤S800,结合图4所示,该过程为:
求分割预测标签和分割参考标签的Dice损失函数和豪斯道夫距离函数,确定准标签,利用准标签和对应的目标域图像对分割模型继续训练,直至分割模型的分割精度达到预设条件,然后利用最终形成的分割模型,对无标签的图像进行分割,得到最终分割标签。
为了验证分割效果,利用训练好的分割模型预测了目标域测试数据,同时将预测结果和现有技术中取得较好结果的模型(Cyclegan、Advent、Intrada)的预测结果做了对比。
对于骨盆的测试结果如附图5所示,其中,(a)表示测试图像,(b)表示人工勾画的金标准,(c)表示仅源域训练分割模型的预测结果(d)表示Cyclegan源域图像分割模型的预测结果,(e)表示Advent模型的预测结果,(f)表示Intrada模型的预测结果,(g)表示本发明分割模型的预测结果。从附图6可以看出,仅源域训练的分割模型直接预测目标域图像有较多的假阳性,其他其中方法则假阴性较多,我们的预测结果在整体形状和骨盆下方的闭孔细节上效果较好,且边界锐度更大,分割效果接近金标准。
对于右心室心内膜的测试结果如附图6所示,其中,图6中的(a)~(g)的模型和图5中的(a)~(g)的模型分别一一对应。可以看出源域训练的分割模型和Cyclegan模型的假阴性更多,而Advent和Intrada模型有少量假阳性,本发明模型的预测效果在整体和细节上相比其他模型更准确。
按照本发明的另一方面,提供了一种无监督领域自适应图像分割系统,包括:
训练单元,用于根据源域数据训练分割模型和生成模型,所述源域数据包括带分割标签的图像,所述分割模型用于预测无标签图像的分割标签,所述生成模型用于生成与输入图像相匹配的带分割标签的图像;
分割预测单元,用于将目标域数据输入分割模型,得到对应的分割预测标签,所述目标域数据包括不带分割标签的图像;
生成单元,用于将目标域数据和对应的分割预测标签输入生成模型,得到匹配的参考图像和分割参考标签;
准标签确定单元,用于计算分割预测标签作和分割参考标签的重叠率,将重叠率符合预设值的分割预测标签作为准分割标签;
迭代单元,用于根据准分割标签和对应的目标域数据再次训练分割模型并重新确定准分割标签,直至分割模型的分割精度满足预设条件时结束训练,得到训练后的分割模型。
本发明是结合源域数据中带标签的图像和目标域数据中不带标签的图像共同训练分割模型。在训练分割模型时,首先利用源域数据中带分割标签的图像进行训练得到生成模型和初期的分割模型,然后将最新训练好的分割模型迁移至目标域不带分割标签的图像上,预测无标签图像上的分割标签,即获得目标域数据对应的分割预测标签,由于初期形成的分割模型的分割效果可能并不理想,部分预测的分割标签可能不准确,因此,本发明中还通过训练生成模型,通过生成模型获取用于评估分割预测标签准确度的参考标签,通过对比分割预测标签作和分割参考标签的匹配度,排除掉准确度不高的预测标签,将匹配程度符合预设值的分割预测标签作为准分割标签,将获得的准分割标签和对应的目标域的图像作为训练数据继续训练分割模型,以提高分割模型的分割精度。在本发明中,由于在训练分割模型时,通过预测目标域数据中不带标签的图像的分割标签,并将目标域数据作为部分训练数据继续训练分割模型,降低了训练分割模型时对源域数据的数量要求,即使是在无法获得大量带标签的图像的场景下也能应用,使得该无监督领域自适应图像分割方法能够广泛应用。同时,由于本发明中通过生成模型生成参考标签来判断分割标签的准确性,只有准确度高的预测标签和对应的图像才能用于对分割模型继续训练,因此,通过该无监督领域自适应方法最终训练出的分割模型,其分割精度较高。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种无监督领域自适应图像分割方法,其特征在于,包括:
确定源域数据和目标域数据,所述源域数据包括带分割标签的图像,所述目标域数据包括不带分割标签的图像;
根据源域数据训练分割模型和生成模型,所述分割模型用于预测无标签图像的分割标签,所述生成模型用于生成与输入图像相匹配的带分割标签的图像;
将目标域数据输入分割模型,得到对应的分割预测标签;
将目标域数据和对应的分割预测标签输入生成模型,得到匹配的参考图像和分割参考标签;
计算分割预测标签作和分割参考标签的重叠率,将重叠率符合预设值的分割预测标签作为准分割标签,
根据准分割标签和对应的目标域数据再次训练分割模型并重新确定准分割标签,直至分割模型的分割精度满足预设条件时结束训练,得到训练后的分割模型;
其中,所述将目标域数据和对应的分割预测标签输入生成模型,得到匹配的参考图像和分割参考标签,包括:
将目标域数据和对应的分割预测标签输入生成模型,在生成模型内匹配初始编码;
对初始编码进行解码,生成带分割标签的图案;
将生成的图像与输入的图案进行相似度比较,当相似度未达到预设程度时,优化初始编码得到新编码并进行解码,重新生成图案,直至生成的图像与输入的图案的相似度达到预设程度时,判定生成模型生成匹配的参考图像和分割参考标签。
2.如权利要求1所述的无监督领域自适应图像分割方法,其特征在于,所述方法还包括:
利用训练后的分割模型对无标签图像进行分割。
3.如权利要求1所述的无监督领域自适应图像分割方法,其特征在于,所述分割模型为基于U-net分割网络的分割模型。
4.如权利要求1所述的无监督领域自适应图像分割方法,其特征在于,所述生成模型为基于变分自编码器的生成模型。
5.如权利要求1所述的无监督领域自适应图像分割方法,其特征在于,判定生成的图像与输入的图案的相似度达到预设程度,包括:利用结构相似性损失函数来衡量生成图像与输入图像的相似度,当前后两次编码迭代得到的结构相似性损失函数的差值小于或等于预设收敛值,则判定生成的图像与输入的图案的相似度达到预设程度,所述结构相似性损失函数为
其中,x和y分别表示两幅图,μx和μy分别表示x和y的均值,σx和σy分别表示x和y的标准差,σxy表示x和y的协方差。
6.如权利要求1所述的无监督领域自适应图像分割方法,其特征在于,计算分割预测标签作和分割参考标签的重叠率,包括:
根据Dice损失函数和豪斯道夫距离函数计算分割预测标签作和分割参考标签的重叠率,其中,
Dice损失函数yi是分割参考标签,/>是分割预测标签,TDice为第一预设值;
豪斯道夫距离函数h(A,B)=maxa∈A{minb∈B{d(a,b)}}≤THD,A、B分别是两副图像,a、b分别是A和B中的像素点,d(a,b)表示a、b两点的距离,THD为第二预设值。
7.如权利要求1所述的无监督领域自适应图像分割方法,其特征在于,分割模型的分割精度满足预设条件,包括,利用分割模型对目标域数据的多组无标签图像进行分割,得到对应的多组分割预测标签,计算多组分割预测标签与对应的分割参考标签的Dice损失函数并求平均值,当平均值大于等于第三预设值时,判定为分割模型的分割精度满足预设条件,其中,
Dice损失函数yi是分割参考标签,/>是分割预测标签。
8.如权利要求1所述的无监督领域自适应图像分割方法,其特征在于,所述根据源域数据训练分割模型和生成模型,还包括:
在源域数据带分割标签的图像中提取感兴趣区域作为训练数据训练分割模型和生成模型。
9.一种无监督领域自适应图像分割系统,包括:
训练单元,用于根据源域数据训练分割模型和生成模型,所述源域数据包括带分割标签的图像,所述分割模型用于预测无标签图像的分割标签,所述生成模型用于生成与输入图像相匹配的带分割标签的图像;
分割预测单元,用于将目标域数据输入分割模型,得到对应的分割预测标签,所述目标域数据包括不带分割标签的图像;
生成单元,用于将目标域数据和对应的分割预测标签输入生成模型,得到匹配的参考图像和分割参考标签,具体包括:将目标域数据和对应的分割预测标签输入生成模型,在生成模型内匹配初始编码;对初始编码进行解码,生成带分割标签的图案;将生成的图像与输入的图案进行相似度比较,当相似度未达到预设程度时,优化初始编码得到新编码并进行解码,重新生成图案,直至生成的图像与输入的图案的相似度达到预设程度时,判定生成模型生成匹配的参考图像和分割参考标签;
准标签确定单元,用于计算分割预测标签作和分割参考标签的重叠率,将重叠率符合预设值的分割预测标签作为准分割标签;
迭代单元,用于根据准分割标签和对应的目标域数据再次训练分割模型并重新确定准分割标签,直至分割模型的分割精度满足预设条件时结束训练,得到训练后的分割模型。
CN202110869520.6A 2021-07-30 2021-07-30 一种无监督领域自适应图像分割方法及系统 Active CN113591867B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110869520.6A CN113591867B (zh) 2021-07-30 2021-07-30 一种无监督领域自适应图像分割方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110869520.6A CN113591867B (zh) 2021-07-30 2021-07-30 一种无监督领域自适应图像分割方法及系统

Publications (2)

Publication Number Publication Date
CN113591867A CN113591867A (zh) 2021-11-02
CN113591867B true CN113591867B (zh) 2024-02-06

Family

ID=78252409

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110869520.6A Active CN113591867B (zh) 2021-07-30 2021-07-30 一种无监督领域自适应图像分割方法及系统

Country Status (1)

Country Link
CN (1) CN113591867B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112150469A (zh) * 2020-09-18 2020-12-29 上海交通大学 一种基于无监督领域自适应的激光散斑衬比图像分割方法
AU2020103905A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning
CN112699892A (zh) * 2021-01-08 2021-04-23 北京工业大学 一种无监督领域自适应语义分割方法
WO2021114130A1 (zh) * 2019-12-11 2021-06-17 中国科学院深圳先进技术研究院 一种无监督自适应乳腺病变分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021114130A1 (zh) * 2019-12-11 2021-06-17 中国科学院深圳先进技术研究院 一种无监督自适应乳腺病变分割方法
CN112150469A (zh) * 2020-09-18 2020-12-29 上海交通大学 一种基于无监督领域自适应的激光散斑衬比图像分割方法
AU2020103905A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning
CN112699892A (zh) * 2021-01-08 2021-04-23 北京工业大学 一种无监督领域自适应语义分割方法

Also Published As

Publication number Publication date
CN113591867A (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
US11593943B2 (en) RECIST assessment of tumour progression
CN110245721B (zh) 神经网络模型的训练方法、装置和电子设备
US20230186476A1 (en) Object detection and instance segmentation of 3d point clouds based on deep learning
CN111882560B (zh) 一种基于加权全卷积神经网络的肺实质ct图像分割方法
CN114120102A (zh) 边界优化的遥感图像语义分割方法、装置、设备及介质
US7929739B2 (en) Image processing method, apparatus, and program
US7783092B2 (en) Method for enhancing diagnostic images using vessel reconstruction
JP5159818B2 (ja) 画像分割方法
US9269139B2 (en) Rib suppression in radiographic images
US8150119B2 (en) Method and system for left ventricle endocardium surface segmentation using constrained optimal mesh smoothing
CN109978882A (zh) 一种基于多模态融合的医疗影像目标检测方法
Wang et al. Nodule-plus R-CNN and deep self-paced active learning for 3D instance segmentation of pulmonary nodules
US8913817B2 (en) Rib suppression in radiographic images
JP2016505298A (ja) 空間コンテキストに基づく三次元イメージにおける多物体の自動的なセグメンテーション
Yuan et al. Prostate segmentation with encoder-decoder densely connected convolutional network (Ed-Densenet)
US7680335B2 (en) Prior-constrained mean shift analysis
CN112419343B (zh) 用于图像分割的系统和方法
US9317926B2 (en) Automatic spinal canal segmentation using cascaded random walks
CN114359642A (zh) 基于一对一目标查询Transformer的多模态医学图像多器官定位方法
CN118115507B (zh) 基于跨域类别感知图卷积对齐的图像分割方法
CN116310812A (zh) 基于半监督语义分割对比学习的高分辨遥感图像语义变化检测方法
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
JP4130915B2 (ja) グラフィカルオブジェクトの境界情報の処理
CN113591867B (zh) 一种无监督领域自适应图像分割方法及系统
CN117593275A (zh) 一种医学图像分割系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant