CN114373532A - 基于目标感知生成对抗网络的多模态医学图像翻译方法 - Google Patents
基于目标感知生成对抗网络的多模态医学图像翻译方法 Download PDFInfo
- Publication number
- CN114373532A CN114373532A CN202111679850.5A CN202111679850A CN114373532A CN 114373532 A CN114373532 A CN 114373532A CN 202111679850 A CN202111679850 A CN 202111679850A CN 114373532 A CN114373532 A CN 114373532A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- loss function
- translated
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013519 translation Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000008447 perception Effects 0.000 title claims abstract description 24
- 230000006870 function Effects 0.000 claims abstract description 79
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000005457 optimization Methods 0.000 claims abstract description 7
- 230000003044 adaptive effect Effects 0.000 claims abstract description 5
- 230000003042 antagnostic effect Effects 0.000 claims abstract 4
- 239000004576 sand Substances 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 241001522296 Erithacus rubecula Species 0.000 claims description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims 1
- 238000013507 mapping Methods 0.000 abstract 1
- 230000011218 segmentation Effects 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000002591 computed tomography Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003187 abdominal effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000005865 ionizing radiation Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于目标感知生成对抗网络的多模态医学图像翻译方法。所述方法具体如下:给定来自源模态的整体图像及其对应的目标区域标签,通过二值化操作获得一个只包含目标区域的目标区域图像;构建基于目标感知的生成对抗网络框架;使用后向传播算法和自适应矩估计优化算法训练生成对抗网络框架;给定任意目标模态,采用训练完成的生成器,将来自源模态的任何输入整体图像转换为目标模态对应的翻译后的整体图像,并翻译来自源模态的目标区域图像到相应的目标模态对应的翻译后的局部区域图像。本发明的生成器同时学习整体翻译和局部翻译两条映射路径,再配合提出的交叉一致性损失函数来进一步优化,最终生成整体和局部均高质量的多模态医学图像。
Description
技术领域
本发明涉及计算机视觉与生成对抗学习技术领域,涉及图像重构领域,具体涉及基于目标感知生成对抗网络的多模态医学图像翻译方法。
背景技术
不同医学成像方式/协议之间的图像翻译是一个活跃的研究领域,放射肿瘤学和放射学对其有极大的临床兴趣。图像翻译的目的在于缓解实际临床下无法直接采集到成对模态数据的问题,减少花费额外的时间/劳动力/费用,避免电离辐射暴露或避免引入不同模态之间的图像配准带来的不确定性,从而通过绕过或替换某些成像程序来促进特定的临床工作流程。图像翻译的好处已引起人们对许多潜在临床应用的关注,并且在进一步的医学图像分析中,其对于后续的临床诊断辅助治疗也带来很大帮助。
最近的研究中,Zhang等人于CVPR 2018会议上提出一个通用跨模态医学图像翻译方法,即《Translating and segmenting multimodal medical volumes with cycle-andshape-consistency generative adversarial network》,主要解决跨模态翻译中常见组织结构几何变形问题,并验证了合成的医学图像数据可以用于数据增强,来帮助提升有限训练样本下算法的分割效果。
然而基于生成对抗学习的图像翻译方法应用在医学图像领域仍有以下问题亟待解决:1、目前大部分研究只针对跨模态翻译或基于成对的多模态样本下的多模态翻译,前者在扩展到多模态翻译应用上有明显的局限性,后者则未能反映实际的临床条件;2、目前大部分研究也主要考虑到全图的翻译效果而忽视了局部目标区域(器官、病灶等等)的表现,导致其局部呈现模糊、扭曲、甚至添加了不合理的解剖特征。
发明内容
在分析以上问题的基础上,围绕多模态医学图像翻译问题进行研究,本次发明旨在探索利用非成对的训练样本和目标区域标签的先验信息,研究基于目标感知的生成对抗网络,改善图像翻译在局部目标区域出现的内容失真问题的可行性,完成多模态医学图像翻译任务。
本发明的目的至少通过如下技术方案之一实现。
基于目标感知生成对抗网络的多模态医学图像翻译方法,包括以下步骤:
S1、给定来自源模态s的整体图像xs及其对应的目标区域标签y,通过二值化操作y·xs获得一个只包含目标区域的目标区域图像rs;
S2、构建基于目标感知的生成对抗网络框架,生成对抗网络框架包括一个生成器G、第一判别器Dx和第二判别器Dr;
S3、分别构建生成器G、第一判别器Dx和第二判别器Dr的损失函数;
S4、使用后向传播算法和自适应矩估计(adaptive moment estimation,ADAM)优化算法训练生成对抗网络框架,得到训练完成的生成器G;
S5、给定任意目标模态t,采用训练完成的生成器G,将来自源模态s的任何输入整体图像xs转换为目标模态t对应的翻译后的整体图像xt,并翻译来自源模态s的目标区域图像rs到相应的目标模态t对应的翻译后的局部区域图像rt,用公式表示为G(xs,rs,t)→(xt,rt)。
进一步地,步骤S2中,生成器G用于生成翻译模态后的整体图像和局部图像,同时把生成的整体图像和局部图像还原回原始输入图像,第一判别器Dx和第二判别器Dr分别用于判别输入的整体图像和局部图像分别属于什么模态以及是否像真实图像。
进一步地,生成器G为双输入输出流生成器,包括一个特征共享层和两对编码器/解码器;
给定目标模态t,生成器G中,一个输入输出流中,结合特征共享层,一对编码器/解码器将输入的来自源模态s的整体图像xs转换为目标模态t对应的翻译后的整体图像xt;另一个输入输出流中,结合特征共享层,另一对编码器/解码器将输入的目标区域图像rs转换为目标模态t对应的翻译后的局部区域图像rt。
特征共享层旨在潜在地使生成器G能够在整体图像翻译中关注于目标区域;有一点需要说明的是,目标区域标签y在测试阶段假设不可获得,因此测试阶段不会使用到局部图像翻译流即转换得到局部区域图像rt的输入输出流。
进一步地,第一判别器Dx和第二判别器Dr的主干网络使用PatchGAN思想的架构,其中,第一判别器Dx以翻译后的整体图像xt为输入,输出翻译后的整体图像xt的模态分类结果和真实性结果;第二判别器Dr以翻译后的局部区域图像rt为输入,输出翻译后的局部区域图像rt的模态分类结果和真实性结果。
进一步地,步骤S3中采用对抗损失函数和域分类损失函数作为生成器G、第一判别器Dx和第二判别器Dr的公共损失函数,采用循环一致性损失函数和交叉一致性损失函数作为生成器G的额外损失函数,对抗损失函数用于约束第一判别器Dx和第二判别器Dr判别输入的图像是否真实的误差,域分类损失函数用于约束第一判别器Dx和第二判别器Dr对输入的图像进行模态分类的误差,循环一致性损失函数用于约束模态翻译图像重构的误差,交叉一致性损失函数用于约束整体图像翻译的目标区域是否接近目标图像生成的误差。
进一步地,对抗损失函数形式如下所示:
Ladv_x=E[logDsrc_x(xs)]+E[log(1-Dsrc_x(xt))]
Ladv_r=E[logDscr_r(rs)]+E[log(1-Dscr_r(rt))]
其中,Ladv_x表示整体图像xs和翻译后的整体图像xt的对抗损失;Ladv_r表示目标区域图像rs和翻译后的局部区域图像rt的对抗损失;E代表所求值的期望,Dsrc_x(xs)和Dsrc_x(xt)分别表示整体图像xs和翻译后的整体图像xt的真实性的概率分布;Dscr_r(rs)和Dscr_r(rt)分别表示目标区域图像rs和翻译后的局部区域图像rt的真实性的概率分布。
进一步地,域分类损失函数形式如下:
Lcls_x=E[-logDcls_x(c|x)]
Lcls_r=E[-logDcls_r(c|r)]
其中,Lcls_x和Lcls_r分别对应图像x和区域图像r的域分类损失函数,其中,图像x=[xs,xt],区域图像r=[rs,rt];E代表所求值的期望,Dcls_x(c|x)和Dcls_r(c|r)分别代表判别器Dx和Dr计算输入的图像x和区域图像r为c模态的概率。
进一步地,循环一致性损失函数Lrec如下所示:
Lrec=E[||xs-x′s||1]+E[||rs-r′s||1]
其中,E代表所求值的期望,x′s和r′s来自G(xt,rt,s),分别表示源模态s对应的重构整体图像和重构目标区域图像,即给定成对的翻译后的整体图像xt和翻译后的局部区域图像rt,以及原模态类别标签s,生成器G试图去重构来自源模态s的整体图像xs和目标区域图像rs。
进一步地,交叉一致性损失函数Lcross如下所示:
Lcross=E[||xt·y-rt||1]
其中,翻译后的整体图像xt和翻译后的局部区域图像rt均为生成器G生成的图像,y为整体图像xs对应的目标标签。
进一步地,步骤S4中,将对抗损失函数、域分类损失函数、循环一致性损失函数和交叉一致性损失函数相加并赋予权重系数从而得到整体损失函数,并使用后向传播算法和ADAM优化算法去最小化整体损失函数从而训练生成对抗网络框架,整体目标函数形式如下:
LDx=-Ladv_x+λclsLcls_x
LDr=-Ladv_r+λclsLcls_r
LG=Ladv_x+Ladv_r+λclsLcls_x+λclsLcls_r+λrecLrec+λcLcross
相比与现有技术,本发明的优点在于:
本发明的框架是灵活的,并且由于具有统一的模型结构,因此可以在两种及其以上的多模态场景上使用。
本发明训练时无需成对多模态医学图像数据,更能贴合实际的使用场景。
本发明通过独特的双输入输出流生成器结构和交叉一致性损失函数设计,改善了整体图像翻译易出现的内容失真问题,最终在全图和局部上达到较好的翻译效果。
附图说明
图1是本发明的基于目标感知生成对抗网络的多模态医学图像翻译方法的具体流程图。
图2是本发明的基于目标感知生成对抗网络的多模态医学图像翻译方法的生成器G的具体模型结构图。
具体实施方式
结合附图及实施例,进一步对基于目标感知生成对抗网络的多模态医学图像翻译方法进行描述,旨在清楚说明其特征和优势。
实施例1:
本实施例的应用对象为多模态医学图像,常见的多模态有CT(ComputedTomography,计算机断层扫描)和MRI(Magnetic Resonance Imaging,磁共振成像),MRI模态内根据不同成像方式和成像时间可再细分为T1、T2等等。
训练生成对抗网络框架时,只需要非成对的多模态医学图像及其对应的目标区域标签(如器官分割标签)。测试时,通过训练好的生成器G,给定某一模态的医学图像和一个模态类别标签,即可得到属于该模态类别的医学图像。
基于目标感知生成对抗网络的多模态医学图像翻译方法,如图1所示,包括以下步骤:
S1、给定来自源模态s的整体图像xs及其对应的目标区域标签y,通过二值化操作y·xs获得一个只包含目标区域的目标区域图像rs;
S2、构建基于目标感知的生成对抗网络框架,生成对抗网络框架包括一个生成器G、第一判别器Dx和第二判别器Dr;
生成器G用于生成翻译模态后的整体图像和局部图像,同时把生成的整体图像和局部图像还原回原始输入图像,第一判别器Dx和第二判别器Dr分别用于判别输入的整体图像和局部图像分别属于什么模态以及是否像真实图像。
如图2所示,生成器G为双输入输出流生成器,包括一个特征共享层和两对编码器/解码器;
给定目标模态t,生成器G中,一个输入输出流中,结合特征共享层,一对编码器/解码器将输入的来自源模态s的整体图像xs转换为目标模态t对应的翻译后的整体图像xt;另一个输入输出流中,结合特征共享层,另一对编码器/解码器将输入的目标区域图像rs转换为目标模态t对应的翻译后的局部区域图像rt。
特征共享层旨在潜在地使生成器G能够在整体图像翻译中关注于目标区域;有一点需要说明的是,目标区域标签y在测试阶段假设不可获得,因此测试阶段不会使用到局部图像翻译流即转换得到局部区域图像rt的输入输出流。
本实施例中,在代码实现上,生成器G的模型结构主要由卷积模块,平均池化模块和上采样模块组成。卷积模块的卷积核大小为3×3,填充(padding)值为1。平均池化模块用以对图像进行下采样,其大小为2×2。上采样模块正好对应池化模块的逆操作,保证输入图像的大小和最终输出的一致。生成器G有两组输入数据,第一组数据为整体图像,第二组数据为整体图像对应的目标区域图像。在生成器G的最后,生成器G分成两个分支,一个分支输出整体图像的翻译结果,另一个输出目标区域图像的翻译结果。
第一判别器Dx和第二判别器Dr的主干网络使用PatchGAN思想的架构,其中,第一判别器Dx以翻译后的整体图像xt为输入,输出翻译后的整体图像xt的模态分类结果和真实性结果;第二判别器Dr以翻译后的局部区域图像rt为输入,输出翻译后的局部区域图像rt的模态分类结果和真实性结果。
S3、分别构建生成器G、第一判别器Dx和第二判别器Dr的损失函数;
采用对抗损失函数和域分类损失函数作为生成器G、第一判别器Dx和第二判别器Dr的公共损失函数,采用循环一致性损失函数和交叉一致性损失函数作为生成器G的额外损失函数,对抗损失函数用于约束第一判别器Dx和第二判别器Dr判别输入的图像是否真实的误差,域分类损失函数用于约束第一判别器Dx和第二判别器Dr对输入的图像进行模态分类的误差,循环一致性损失函数用于约束模态翻译图像重构的误差,交叉一致性损失函数用于约束整体图像翻译的目标区域是否接近目标图像生成的误差。
对抗损失函数形式如下所示:
Ladv_x=E[logDsrc_x(xs)]+E[log(1-Dsrc_x(xt))]
Ladv_r=E[logDscr_r(rs)]+E[log(1-Dscr_r(rt))]
其中,Ladv_x表示整体图像xs和翻译后的整体图像xt的对抗损失;Ladv_r表示目标区域图像rs和翻译后的局部区域图像rt的对抗损失;E代表所求值的期望,Dsrc_x(xs)和Dsrc_x(xt)分别表示整体图像xs和翻译后的整体图像xt的真实性的概率分布;Dscr_r(rs)和Dscr_r(rt)分别表示目标区域图像rs和翻译后的局部区域图像rt的真实性的概率分布。
域分类损失函数形式如下:
Lcls_x=E[-logDcls_x(c|x)]
Lcls_r=E[-logDcls_r(c|r)]
其中,Lcls_x和Lcls_r分别对应图像x和区域图像r的域分类损失函数,其中,图像x=[xs,xt],区域图像r=[rs,rt];E代表所求值的期望,Dcls_x(c|x)和Dcls_r(c|r)分别代表判别器Dx和Dr计算输入的图像x和区域图像r为c模态的概率。
循环一致性损失函数Lrec如下所示:
Lrec=E[||xs-x′s||1]+E[||rs-r′s||1]
其中,E代表所求值的期望,xs′和rs′来自G(xt,rt,s),分别表示源模态s对应的重构整体图像和重构目标区域图像,即给定成对的翻译后的整体图像xt和翻译后的局部区域图像rt,以及原模态类别标签s,生成器G试图去重构来自源模态s的整体图像xs和目标区域图像rs。
交叉一致性损失函数Lcross如下所示:
Lcross=E[||xt·y-rt||1]
其中,翻译后的整体图像xt和翻译后的局部区域图像rt均为生成器G生成的图像,y为整体图像xs对应的目标标签。
S4、使用后向传播算法和自适应矩估计(adaptive moment estimation,ADAM)优化算法训练生成对抗网络框架,得到训练完成的生成器G;
将对抗损失函数、域分类损失函数、循环一致性损失函数和交叉一致性损失函数相加并赋予权重系数从而得到整体损失函数,并使用后向传播算法和ADAM优化算法去最小化整体损失函数从而训练生成对抗网络框架,整体目标函数形式如下:
LG=Ladv_x+Ladv_r+λclsLcls_x+λclsLcls_r+λrecLrec+λcLcross
S5、给定任意目标模态t,采用训练完成的生成器G,将来自源模态s的任何输入整体图像xs转换为目标模态t对应的翻译后的整体图像xt,并翻译来自源模态s的目标区域图像rs到相应的目标模态t对应的翻译后的局部区域图像rt,用公式表示为G(xs,rs,t)→(xt,rt)。
在使用训练好的生成器G时,将待翻译的图像输入至训练好的生成器G中得到模态翻译结果图。本发明在Combined Healthy Abdominal Organ Segmentation(CHAOS)Challenge中使用CT、T1加权和T2加权的腹部数据集的多模态翻译效果如下表所示,其中的权重参数分别为λcls=1、λrec=1和λc=50:
其中评价指标中的S-score为分割准确性(Segmentation score)。
实施例2:
为了验证本发明生成器G双输入输出流结构设计的有效性,本实施例中,只保留整体图像翻译流,即包含一个特征共享层和一对编解码器。最终,与实施例1相比,不同之处在于生成对抗网络框架的整体目标函数,如下:
LG=Ladv_x+λclsLcls_x+λrecLrec
其中,LG、分别代表生成器G、判断器Dx的最终目标函数。λcls、λrec为平衡域损失不同目标函数之间重要性的权重系数,具体地,λcls代表域分类损失函数的权重、λrec代表循环一致性损失函数的权重。
重新训练,在使用训练好的生成器G时,将待翻译的图像输入至训练好的生成器G中得到模态翻译结果图。本发明在Combined Healthy Abdominal Organ Segmentation(CHAOS)Challenge中使用CT、T1加权和T2加权的腹部数据集的多模态翻译效果如下表所示,其中的权重参数分别为λcls=1、λrec=1:
其中评价指标中的S-score为分割准确性(Segmentation score)。
这结果与实施例1的结果相比,均值出现显著下跌,说明本发明生成器G双输入输出流的结构设计是有效的。
实施例3:
为了验证本发明提出的交叉一致性目标函数的有效性,在实施例3中对权重参数上进行相应设置。最终,与实施例1相比,不同之处仅在于交叉一致性损失函数的权重设为零,即λc=0:
重新训练,在使用训练好的生成器G时,将待翻译的图像输入至训练好的生成器G中得到模态翻译结果图。本发明在Combined Healthy Abdominal Organ Segmentation(CHAOS)Challenge中使用CT、T1加权和T2加权的腹部数据集的多模态翻译效果如下表所示:
其中评价指标中的S-score为分割准确性(Segmentation score)。
实施例1的结果与其相比,均值从51.03%上升到64.18%,说明本发明提出的交叉一致性损失函数是有效的且起到关键作用的。
以上所述,仅为本发明的具体实施方式之一,本发明的保护范围并不局限于此。任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或者替换,都应涵盖在本发明的范围之内。因此,本发明的保护范围应以权利要求书的保护范围为准。
Claims (10)
1.基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于,包括以下步骤:
S1、给定来自源模态s的整体图像xs及其对应的目标区域标签y,通过二值化操作y·xs获得一个只包含目标区域的目标区域图像rs;
S2、构建基于目标感知的生成对抗网络框架,生成对抗网络框架包括一个生成器G、第一判别器Dx和第二判别器Dr;
S3、分别构建生成器G、第一判别器Dx和第二判别器Dr的损失函数;
S4、使用后向传播算法和自适应矩估计优化算法训练生成对抗网络框架,得到训练完成的生成器G;
S5、给定任意目标模态t,采用训练完成的生成器G,将来自源模态s的任何输入整体图像xs转换为目标模态t对应的翻译后的整体图像xt,并翻译来自源模态s的目标区域图像rs到相应的目标模态t对应的翻译后的局部区域图像rt,用公式表示为G(xs,rs,t)→(xt,rt)。
2.根据权利要求1所述的基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于:步骤S2中,生成器G用于生成翻译模态后的整体图像和局部图像,同时把生成的整体图像和局部图像还原回原始输入图像,第一判别器Dx和第二判别器Dr分别用于判别输入的整体图像和局部图像分别属于什么模态以及是否像真实图像。
3.根据权利要求2所述的基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于:生成器G为双输入输出流生成器,包括一个特征共享层和两对编码器/解码器;
给定目标模态t,生成器G中,一个输入输出流中,结合特征共享层,一对编码器/解码器将输入的来自源模态s的整体图像xs转换为目标模态t对应的翻译后的整体图像xt;另一个输入输出流中,结合特征共享层,另一对编码器/解码器将输入的目标区域图像rs转换为目标模态t对应的翻译后的局部区域图像rt。
4.根据权利要求2所述的基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于:第一判别器Dx和第二判别器Dr的主干网络使用PatchGAN思想的架构,其中,第一判别器Dx以翻译后的整体图像xt为输入,输出翻译后的整体图像xt的模态分类结果和真实性结果;第二判别器Dr以翻译后的局部区域图像rt为输入,输出翻译后的局部区域图像rt的模态分类结果和真实性结果。
5.根据权利要求1所述的基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于:步骤S3中采用对抗损失函数和域分类损失函数作为生成器G、第一判别器Dx和第二判别器Dr的公共损失函数,采用循环一致性损失函数和交叉一致性损失函数作为生成器G的额外损失函数,对抗损失函数用于约束第一判别器Dx和第二判别器Dr判别输入的图像是否真实的误差,域分类损失函数用于约束第一判别器Dx和第二判别器Dr对输入的图像进行模态分类的误差,循环一致性损失函数用于约束模态翻译图像重构的误差,交叉一致性损失函数用于约束整体图像翻译的目标区域是否接近目标图像生成的误差。
6.根据权利要求5所述的基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于:对抗损失函数形式如下所示:
Ladv_x=E[log Dsrc_x(xs)]+E[log(1-Dsrc_x(xt))]
Ladv_r=E[log Dscr_r(rs)]+E[log(1-Dscr_r(rt))]
其中,Ladv_x表示整体图像xs和翻译后的整体图像xt的对抗损失;Ladv_r表示目标区域图像rs和翻译后的局部区域图像rt的对抗损失;E代表所求值的期望;Dsrc_x(xs)和Dsrc_x(xt)分别表示整体图像xs和翻译后的整体图像xt的真实性的概率分布;Dscr_r(rs)和Dscr_r(rt)分别表示目标区域图像rs和翻译后的局部区域图像rt的真实性的概率分布。
7.根据权利要求5所述的基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于:域分类损失函数形式如下:
Lcls_x=E[-log Dcls_x(c|x)]
Lcls_r=E[-log Dcls_r(c|r)]
其中,Lcls_x和Lcls_r分别对应图像x和区域图像r的域分类损失函数,其中,图像x=[xs,xt],区域图像r=[rs,rt];E代表所求值的期望;Dcls_x(c|x)和Dcls_r(c|r)分别代表判别器Dx和Dr计算输入的图像x和区域图像r为c模态的概率。
8.根据权利要求5所述的基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于:循环一致性损失函数Lrec如下所示:
Lrec=E[||xs-x′s||1]+E[||rs-rs′||1]
其中,E代表所求值的期望,x′s和rs′来自G(xt,rt,s),分别表示源模态s对应的重构整体图像和重构目标区域图像,即给定成对的翻译后的整体图像xt和翻译后的局部区域图像rt,以及原模态类别标签s,生成器G试图去重构来自源模态s的整体图像xs和目标区域图像rs。
9.根据权利要求5所述的基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于:交叉一致性损失函数Lcross如下所示:
Lcross=E[||xt·y-rt||1]
其中,翻译后的整体图像xt和翻译后的局部区域图像rt均为生成器G生成的图像,y为整体图像xs对应的目标标签。
10.根据权利要求1~9任一项所述的基于目标感知生成对抗网络的多模态医学图像翻译方法,其特征在于:步骤S4中,将对抗损失函数、域分类损失函数、循环一致性损失函数和交叉一致性损失函数相加并赋予权重系数从而得到整体损失函数,并使用后向传播算法和ADAM优化算法去最小化整体损失函数从而训练生成对抗网络框架,整体目标函数形式如下:
LG=Ladv_x+Ladv_r+λclsLcls_x+λclsLcls_r+λrecLrec+λcLcross
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111679850.5A CN114373532B (zh) | 2021-12-31 | 基于目标感知生成对抗网络的多模态医学图像翻译方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111679850.5A CN114373532B (zh) | 2021-12-31 | 基于目标感知生成对抗网络的多模态医学图像翻译方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114373532A true CN114373532A (zh) | 2022-04-19 |
CN114373532B CN114373532B (zh) | 2024-07-02 |
Family
ID=
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111833359A (zh) * | 2020-07-13 | 2020-10-27 | 中国海洋大学 | 基于生成对抗网络的脑瘤分割数据增强方法 |
US20210012486A1 (en) * | 2019-07-09 | 2021-01-14 | Shenzhen Malong Technologies Co., Ltd. | Image synthesis with generative adversarial network |
WO2021022752A1 (zh) * | 2019-08-07 | 2021-02-11 | 深圳先进技术研究院 | 一种多模态三维医学影像融合方法、系统及电子设备 |
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210012486A1 (en) * | 2019-07-09 | 2021-01-14 | Shenzhen Malong Technologies Co., Ltd. | Image synthesis with generative adversarial network |
WO2021022752A1 (zh) * | 2019-08-07 | 2021-02-11 | 深圳先进技术研究院 | 一种多模态三维医学影像融合方法、系统及电子设备 |
CN111833359A (zh) * | 2020-07-13 | 2020-10-27 | 中国海洋大学 | 基于生成对抗网络的脑瘤分割数据增强方法 |
Non-Patent Citations (1)
Title |
---|
刘建伟;丁熙浩;罗雄麟;: "多模态深度学习综述", 计算机应用研究, no. 06, 30 June 2020 (2020-06-30), pages 7 - 20 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Faragallah et al. | A comprehensive survey analysis for present solutions of medical image fusion and future directions | |
Armanious et al. | MedGAN: Medical image translation using GANs | |
Morís et al. | Data augmentation approaches using cycle-consistent adversarial networks for improving COVID-19 screening in portable chest X-ray images | |
CN111368849B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111369562B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
Chen et al. | OctopusNet: a deep learning segmentation network for multi-modal medical images | |
CN107292858B (zh) | 一种基于低秩分解和稀疏表示的多模态医学图像融合方法 | |
Wang et al. | Unsupervised learning for cross-domain medical image synthesis using deformation invariant cycle consistency networks | |
CN114863225B (zh) | 图像处理模型训练方法、生成方法、装置、设备及介质 | |
Bairagi | Symmetry-based biomedical image compression | |
Su et al. | Local style preservation in improved gan-driven synthetic image generation for endoscopic tool segmentation | |
Dayarathna et al. | Deep learning based synthesis of MRI, CT and PET: Review and analysis | |
Geng et al. | PMS-GAN: Parallel multi-stream generative adversarial network for multi-material decomposition in spectral computed tomography | |
Yang et al. | A unified hyper-GAN model for unpaired multi-contrast MR image translation | |
Chan et al. | An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction | |
Zhou et al. | Handheld ultrasound video high-quality reconstruction using a low-rank representation multipathway generative adversarial network | |
Nneji et al. | Fine-tuned siamese network with modified enhanced super-resolution gan plus based on low-quality chest x-ray images for covid-19 identification | |
Xia et al. | Deep residual neural network based image enhancement algorithm for low dose CT images | |
Lei et al. | CT image denoising and deblurring with deep learning: current status and perspectives | |
Wang et al. | An attentive-based generative model for medical image synthesis | |
Kim et al. | Updated primer on generative artificial intelligence and large language models in medical imaging for medical professionals | |
CN109035137A (zh) | 一种基于最优传输理论的多模态医学图像融合方法 | |
Guo et al. | Material decomposition of spectral CT images via attention-based global convolutional generative adversarial network | |
CN114373532A (zh) | 基于目标感知生成对抗网络的多模态医学图像翻译方法 | |
CN114373532B (zh) | 基于目标感知生成对抗网络的多模态医学图像翻译方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |