CN116563189B - 一种基于深度学习的医学图像跨对比度合成方法及系统 - Google Patents
一种基于深度学习的医学图像跨对比度合成方法及系统 Download PDFInfo
- Publication number
- CN116563189B CN116563189B CN202310820636.XA CN202310820636A CN116563189B CN 116563189 B CN116563189 B CN 116563189B CN 202310820636 A CN202310820636 A CN 202310820636A CN 116563189 B CN116563189 B CN 116563189B
- Authority
- CN
- China
- Prior art keywords
- image
- contrast
- training
- network
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 39
- 238000001308 synthesis method Methods 0.000 title claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 71
- 238000012549 training Methods 0.000 claims abstract description 47
- 230000004927 fusion Effects 0.000 claims abstract description 43
- 238000007781 pre-processing Methods 0.000 claims abstract description 15
- 239000000203 mixture Substances 0.000 claims description 22
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 16
- 238000003786 synthesis reaction Methods 0.000 claims description 16
- 230000015572 biosynthetic process Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- JXSJBGJIGXNWCI-UHFFFAOYSA-N diethyl 2-[(dimethoxyphosphorothioyl)thio]succinate Chemical compound CCOC(=O)CC(SP(=S)(OC)OC)C(=O)OCC JXSJBGJIGXNWCI-UHFFFAOYSA-N 0.000 claims description 4
- 238000011049 filling Methods 0.000 claims description 4
- 238000003756 stirring Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 230000009977 dual effect Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 2
- 230000007170 pathology Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于深度学习的医学图像跨对比度合成方法及系统,该方法包括获取同一部位的两种对比度图像,并对两种对比度图像进行预处理,用做训练集;使用训练集训练双流融合生成网络;对待合成的图像进行预处理,输入到已训练的双流融合生成网络中;根据已训练的所述双流融合生成网络获取合成图像。通过双流融合生成网络使用双分支,全局分支专注于全局图像生成,局部分支用于局部区域生成并精细化轮廓和纹理细节。全局分支将多尺度的上下文信息融合到局部分支,提高局部区域细节的生成质量。本发明提出的方法能降低合成图像的模糊程度,图像质量更高。
Description
技术领域
本发明涉及医学图像领域,具体为一种基于深度学习的医学图像跨对比度合成方法及系统。
背景技术
磁共振图像(Magenetic Resonance Image, MRI)是一种重要诊断工具,利用各种脉冲序列获取强调特定组织的多对比度图像,以检测解剖异常。放射科医生根据具体病理综合使用多对比度MRI进行分析诊断。然而,受设备缺乏、价格昂贵或存在辐射等因素的影响,很难获取所有对比度MRI。
图像合成是解决该问题的主流方法,即根据已获取的对比度MRI合成缺失的对比度MRI。现有医学图像合成方法主要分为三类,即基于地图集配准方法、基于强度变换方法和基于深度学习方法。基于地图集配准方法,从配准图集中获得输入图像与其最近邻之间的形变场,然后利用形变场对图集中目标图像的最近邻进行几何扭曲,合成目标图像。该方法操作简单,但对配准精度十分敏感,易受异常解剖组织影响。基于强度变换方法,用输入图像地图集中图像块的最佳线性组合作为目标图像,即将图像合成作为稀疏字典重建任务,该方法中字典的推导过程较难,可能会丢失图像细节细节。
基于深度学习方法,利用卷积神经网络(Convolutional Neural Network,CNN)端到端地学习输入图像与输出图像之间的非线性映射,展现出较其他方法更高的准确率。基于UNet的深度编解码网络能取得较高的合成图像质量,但对高频分量的合成能力不足,因此图像较为模糊。基于生成对抗网络(Generative Adversarial Network,GAN)的无监督方法,利用判别器和生成器之间的博弈学习,改善了图像边界模糊和纹理不清晰的问题,但是对数据分布敏感,容易生成不存在组织特征,造成更多误诊。基于扩散模型(DiffusionModel)方法合成的图像质量最优,但是存在迭代采样时间长、效率低下、容易出现棋盘效应的问题。另外,有方法采用CT图像、图像的边缘检测图或者多种对比度图像,作为先验信息,为神经网络提供更丰富的结构组织信息,进而提高合成图像的质量,但会增加繁杂的数据准备和处理过程。因此,构建一对一的,用于快速合成高质量缺失对比度MRI的卷积神经网络具有重大应用价值。
发明内容
鉴于以上所述现有技术的缺点,本发明提供一种基于深度学习的医学图像跨对比度合成方法及系统,以解决上述技术问题。
本发明提供的一种基于深度学习的医学图像跨对比度合成方法,包括以下步骤:
S110:获取同一部位的两种对比度图像,并对两种对比度图像进行预处理,用作训练集;
S120: 使用训练集训练双流融合生成网络;
S130:对待合成的图像进行预处理,并输入到已训练的双流融合生成网络中;
S140:根据已训练的所述双流融合生成网络获取合成图像。
于本发明的一实施例中,所述两种对比度图像来自T1加权、T2加权、STIR、FLAIR、T2 FS、PD和GRE磁共振成像中的不同两种。
于本发明的一实施例中,步骤S110具体包括:
S210:将两种对比度图像进行配准,使图像中关键点的空间位置和解剖位置一致;
S220:将配准后的两种对比度图像的尺寸调整一致;
S230:将尺寸一致两种对比度图像归一化;
S240:将归一化后的两种对比度图像中的任一张作为第一对比度图像,另一张作为第二对比度图像,制作与第一对比度图像尺寸相同的全0值图像,并在该图像上随机生成一个不超过图像范围的任意大小的正方形区域,用1值填充,作为掩码图像。将第一对比度图像、第二对比度图像分别作为输入/>和标签图像/>。
于本发明的一实施例中,双流融合生成网络包括全局分支和局部分支,所述全局分支和所述局部分支拥有不同的输入和输出,其中,全局分支的输入为,局部分支的输入/>,全局分支的输出为/>,局部分支的输出为/>。
于本发明的一实施例中,在训练时,所述局部分支的输入的计算逻辑为:
。
于本发明的一实施例中,训练时,全局分支和局部分支的输出与标签之间的损失的计算逻辑为:
其中,和/>分别是SSIM损失和L1损失,/>代表输出图像,即/>或/>,/>代表标签图像,即/>,/>,/>分别为图像/>的均值和标准差,/>表示图像中的像素个数,/>表示/>中的第/>个像素值,其中/>和/>是常数,避免分母接近于0时造成的不稳定性,分别为0.0004和0.0036,/>、/>表示/>、/>中第/>个像素值,/>表示/>、/>中的像素个数。
于本发明的一实施例中,所述局部分支损失的计算逻辑为计算图像中对应掩码值为1的区域的损失,即:
其中,代表局部分支的输出图像,即/>,/>代表标签图像,即/>。
本发明还提供一种基于深度学习的医学图像跨对比度合成系统,所述系统包括:
预处理模块:获取同一部位的两种对比度图像,并对两种对比度图像进行预处理,用作训练集;
训练模块:使用训练集训练双流融合生成网络;
处理模块:对待合成的图像进行预处理,并输入到已训练的双流融合生成网络中;
合成模块:根据所述已训练的双流融合生成网络获取合成图像。
本发明还提供一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述电子设备实现如上述实施例中任一项所述的一种基于深度学习的医学图像跨对比度合成方法。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序被计算机的处理器执行时,使计算机执行如上述实施例中任一项所述的一种基于深度学习的医学图像跨对比度合成方法。
本发明的有益效果:本发明提供的一种基于深度学习的医学图像跨对比度合成方法及系统,通过获取同一部位的两种对比度图像,并对两种对比度图像进行预处理,用作训练集;使用训练集训练双流融合生成网络;对待合成的图像进行预处理,并输入到已训练的双流融合生成网络中;根据所述已训练的双流融合生成网络获取合成图像产生的有益效果包括:
1、本发明提出的方法使用双分支,全局分支专注于全局图像生成,局部分支用于局部区域生成并精细化轮廓和纹理细节。全局分支将多尺度的上下文信息融合到局部分支,提高局部区域细节的生成质量。本发明提出的方法能降低合成图像的模糊程度,图像质量更高。
2、本发明提出的方法未使用生成对抗损失,不需要判别器,不易生成不存在的组织结构,并且训练难度更低。
3、与现有的基于Diffusion模型的方法相比,本发明提出的方法的模型训练时间短,效率更高,并且不会产生棋盘效应。
4、与其他需要CT图像、边缘检测图和多种对比度图像作为先验信息的多对一方法相比,本发明提出的方法实现方法更加简单,只需单一的对比度图像,即可生成目标对比度图像。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成方法的流程图;
图2为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成方法中生成局部分支的输入的过程示意图;
图3为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成方法中双流融合生成网络训练过程流程图;
图4为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成方法中双流融合生成网络合成过程流程图;
图5为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成系统结构示意图;
图6为本发明的一示例性实施例示出的电子设备的计算机系统的结构示意图。
具体实施方式
以下将参照附图和优选实施例来说明本发明的实施方式,本领域技术人员可由本说明书中所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。应当理解,优选实施例仅为了说明本发明,而不是为了限制本发明的保护范围。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
在下文描述中,探讨了大量细节,以提供对本发明实施例的更透彻的解释,然而,对本领域技术人员来说,可以在没有这些具体细节的情况下实施本发明的实施例是显而易见的,在其他实施例中,以方框图的形式而不是以细节的形式来示出公知的结构和设备,以避免使本发明的实施例难以理解。
首先需要说明的是,磁共振图像(Magenetic Resonance Image, MRI)是一种重要诊断工具,利用各种脉冲序列获取强调特定组织的多对比度图像,以检测解剖异常。放射科医生根据具体病理综合使用多对比度MRI进行分析诊断。然而,受设备缺乏、价格昂贵或存在辐射等因素的影响,很难获取所有对比度MRI。
图像合成是解决该问题的主流方法,即根据已获取的对比度MRI合成缺失的对比度MRI。现有医学图像合成方法主要分为三类,即基于地图集配准方法、基于强度变换方法和基于深度学习方法。基于地图集配准方法,从配准图集中获得输入图像与其最近邻之间的形变场,然后利用形变场对图集中目标图像的最近邻进行几何扭曲,合成目标图像。该方法操作简单,但对配准精度十分敏感,易受异常解剖组织影响。基于强度变换方法,用输入图像地图集中图像块的最佳线性组合作为目标图像,即将图像合成作为稀疏字典重建任务,该方法中字典的推导过程较难,可能会丢失图像细节。
双流融合生成网络是一种神经网络模型,用于将两个输入流合并并生成一个输出流。这种网络结构常用于计算机视觉任务,其中两个输入流表示不同类型的信息,并分别由网络的两个分支提取不同的特征并进行融合和整合,网络可以生成更准确、更丰富的输出。
双流融合生成网络的基本思想是将两个独立的输入流送入网络的不同分支,并在后续层级中逐渐融合它们的表示。这个过程可以通过卷积神经网络(CNN)或其他神经网络结构来实现。具体的网络架构可以根据任务需求和数据特点进行设计。
在网络的后续层级中,可以使用不同的融合策略来整合两个输入流的表示。常见的方法包括特征串联、特征相加、特征相乘等。这些融合操作有助于提取不同信息之间的相关性,从而增强网络的表达能力。
双流融合生成网络在许多任务中都有广泛的应用,例如图像分割、图像生成、图像修复等。通过不同分支对信息的提取和融合,网络可以更好地理解和利用图像信息,提高任务的性能和效果。
总结而言,双流融合生成网络是一种利用多个输入流进行信息融合和生成的神经网络模型。它可以利用不同分支提取不同类型的信息并整合,从而提高任务的性能和表现。
图1为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成方法的流程图;
如图1所示,本发明提供的一种基于深度学习的医学图像跨对比度合成方法,包括以下步骤:
S110:获取同一部位的两种对比度图像,并对两种对比度图像进行预处理,用作训练集;
S120: 使用训练集训练双流融合生成网络;
S130:对待合成的图像进行预处理,并输入到已训练的双流融合生成网络中;
S140:根据已训练的所述双流融合生成网络获取合成图像。
于一示例性的实施例中,所述两种对比度图像来自T1加权、T2加权、STIR、FLAIR、T2 FS、PD和GRE磁共振成像中的不同两种。
于一示例性的实施例中,步骤S110具体包括:
S210:将两种对比度图像进行配准,使图像中关键点的空间位置和解剖位置一致;
S220:将配准后的两种对比度图像的尺寸调整一致;
S230:将尺寸一致两种对比度图像归一化;
S240:将归一化后的两种对比度图像中的任一张作为第一对比度图像,另一张作为第二对比度图像,制作与第一对比度图像尺寸相同的全0值图像,并在该图像上随机生成一个不超过图像范围的任意大小的正方形区域,用1值填充,作为掩码图像。将第一对比度图像、第二对比度图像分别作为输入/>和标签图像/>。
具体的,于一示例性的实施例中,两种对比度图像的尺寸设置为256x256。
于本发明的令一示例性的实施例中,在数据预处理时,可采用其他方式完成图像配准,如基于尺度不变特征变换(Scale-invariant feature transform,SIFT)的方法等;可采用其他的归一化方式,如归一划到0-1之间;可随机生成其他形状的区域用1值填充,如矩形、圆形、椭圆形和其他不规则图形。
图3为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成方法中双流融合生成网络训练过程流程图;
如图3所示,双流融合生成网络包括全局分支和局部分支,每个分支都是一个UNet,所述全局分支和所述局部分支拥有不同的输入和输出,其中,全局分支的输入为,局部分支的输入/>,全局分支的输出为/>,局部分支的输出为/>。具体的,UNet是一种常用的深度学习网络架构,特别适用于图像分割任务。
UNet的网络结构呈U形,它具有自编码器的结构,包括一个编码器路径和一个解码器路径。编码器路径用于逐步提取输入图像的特征,并将特征层级逐渐降低。解码器路径则通过上采样和跳跃连接的方式将特征逐渐恢复到原始输入图像的分辨率,并生成分割结果。
UNet的主要特点是引入了跳跃连接,即将编码器路径中的特征与对应解码器路径中的特征进行连接。这种跳跃连接的设计使得网络可以更好地利用不同层级的特征信息,从而提高分割的准确性和细节保留能力。
UNet的基本单元是由两个卷积层、一个ReLU激活函数和一个最大池化层组成的下采样块(encoder block)。解码器路径则由上采样层、卷积层和跳跃连接组成。在最后的输出层,通常采用一个逐像素分类的卷积层,输出与输入图像尺寸相同的分割结果。
双流融合生成网络的训练过程如下:
前向传播:将输入数据送入网络,并通过前向传播计算输出。
计算损失:将网络输出与目标数据计算损失值。
反向传播:通过反向传播算法计算网络参数的梯度,并更新参数以最小化损失函数。
迭代训练:重复上述步骤,对训练数据进行多次迭代训练,直到达到预设的停止条件,这里的预设的停止条件可以为达到最大迭代次数或损失函数收敛。
于一示例性的实施例中,在训练时,所述局部分支的输入的计算逻辑为:
。
图2为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成方法中生成局部分支的输入的过程示意图;
如图2所示,以SAG T2 FS MRI和SAG T2 FS MRI作为输入图像和标签图像为例,展示了生成局部分支的输入的过程。
于一示例性的实施例中,全局分支与局部分支的输出与输入之间的损失的计算逻辑为:
其中,和/>分别是SSIM损失和L1损失,/>代表输出图像,即/>或/>,代表标签图像,即/>,/>,/>分别为图像/>的均值和标准差,/>表示图像中的像素个数,表示/>中的第/>个像素值,其中/>和/>是常数,避免分母接近于0时造成的不稳定性,分别为0.0004和0.0036,/>、/>表示/>、/>中第/>个像素值,/>表示/>、/>中的像素个数。
具体的,通过定义损失函数衡量输出与目标之间的差异,并指导网络的学习过程。
于一示例性的实施例中,所述局部分支损失的计算逻辑为计算图像中对应掩码值为1的区域的损失,即:
其中,代表局部分支的输出图像,即/>,/>代表标签图像,即/>。
图4为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成方法中双流融合生成网络合成过程流程图;
如图4所示,训练时,全局分支和局部分支拥有不同的输入和输出,并且根据输出图像和/>与标签图像/>计算损失,衡量输出与目标之间的差异,并指导网络的学习过程。
具体的,在实际应用即合成时,由于缺失,通常无法根据公式计算局部分支的输入图像/>,因此直接令为全0值掩码图像,则局部分支的输入图像/>公式变为:
因此,在实际应用即合成时,局部分支与全局分支的输入共享,都是。将同时输入双流融合网络的两个分支,取局部分支的输出/>作为合成结果。
合成结果的取值范围在-1到1之间,为将其保存为dicom格式,首先将归一化到0-1之间,并乘以1000,最后利用pydicom的save_as函数将其保存为dicom格式,得到最终的合成结果。
图5为本发明的一示例性实施例示出的一种基于深度学习的医学图像跨对比度合成系统结构示意图;
如图5所示,该示例性的一种基于深度学习的医学图像跨对比度合成系统包括:
预处理模块501:获取同一部位的两种对比度图像,并对两种对比度图像进行预处理,用作训练集;
训练模块502:使用训练集训练双流融合生成网络;
处理模块503:对待合成的图像进行预处理,并输入到已训练的双流融合生成网络中;
合成模块504:根据所述已训练的双流融合生成网络获取合成图像。
需要说明的是,上述实施例所提供的一种基于深度学习的医学图像跨对比度合成系统与上述实施例所提供的一种基于深度学习的医学图像跨对比度合成方法属于同一构思,其中各个模块和单元执行操作的具体方式已经在方法实施例中进行了详细描述,此处不再赘述。上述实施例所提供的一种基于深度学习的医学图像跨对比度合成系统在实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将系统的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能,本处也不对此进行限制。
本申请的实施例还提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述电子设备实现上述各个实施例中提供的一种基于深度学习的医学图像跨对比度合成方法。
图6示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。需要说明的是,图6示出的电子设备的计算机系统600仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(Central Processing Unit,CPU)601,其可以根据存储在只读存储器(Read-Only Memory,ROM)602中的程序或者从储存部分608加载到随机访问存储器(Random Access Memory,RAM)603中的程序而执行各种适当的动作和处理,例如执行上述实施例中所述的方法。在RAM 603中,还存储有系统操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(Input/Output,I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分607;包括硬盘等的储存部分608;以及包括诸如LAN(Local Area Network,局域网)卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入储存部分608。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的计算机程序。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的系统中限定的各种功能。
需要说明的是,本申请实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的计算机程序。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的计算机程序可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。其中,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
本申请的另一方面还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如前所述的一种基于深度学习的医学图像跨对比度合成方法。该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的,也可以是单独存在,而未装配入该电子设备中。
本申请的另一方面还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各个实施例中提供的一种基于深度学习的医学图像跨对比度合成方法。
上述实施例仅示例性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,但凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (7)
1.一种基于深度学习的医学图像跨对比度合成方法,其特征在于,包括:
S110:获取同一部位的两种对比度图像,并对两种对比度图像进行预处理,用作训练集,其中,所述两种对比度图像来自T1加权、T2加权、STIR、FLAIR、T2 FS、PD和GRE磁共振成像中的不同两种,S110具体包括:S210:将两种对比度图像进行配准,使图像中关键点的空间位置和解剖位置一致;S220:将配准后的两种对比度图像的尺寸调整一致;S230:将尺寸一致两种对比度图像归一化;S240:将归一化后的两种对比度图像中的任一张作为第一对比度图像,另一张作为第二对比度图像,制作与第一对比度图像尺寸相同的全0值图像,并在该图像上随机生成一个不超过图像范围的任意大小的正方形区域,用1值填充,作为掩码图像;将第一对比度图像、第二对比度图像分别作为输入/>和标签图像/>;
S120:使用训练集训练双流融合生成网络,其中,所述双流融合生成网络包括全局分支和局部分支,所述全局分支和所述局部分支拥有不同的输入和输出,其中,全局分支的输入为,局部分支的输入/>,全局分支的输出为/>,局部分支的输出为/>,所述训练过程包括:将输入数据送入网络,并通过前向传播计算输出;将网络输出与目标数据计算损失值;通过反向传播算法计算网络参数的梯度,并更新参数以最小化损失函数;重复上述步骤,对训练数据进行多次迭代训练,直到达到预设的停止条件,这里的预设的停止条件为达到最大迭代次数或损失函数收敛;
S130:对待合成的图像进行预处理,并输入到已训练的双流融合生成网络中;
S140:根据已训练的所述双流融合生成网络获取合成图像。
2.根据权利要求1所述的一种基于深度学习的医学图像跨对比度合成方法,其特征在于,所述局部分支的输入的计算逻辑为:
。
3.根据权利要求2所述的一种基于深度学习的医学图像跨对比度合成方法,其特征在于,在训练时,全局分支和局部分支的输出与标签之间的损失的计算逻辑为:
其中,和/>分别是SSIM损失和L1损失,/>代表输出图像,即/>或/>,/>代表标签图像,即/>,/>,/>分别为图像/>的均值和标准差,/>表示图像中的像素个数,/>表示/>中的第/>个像素值,其中/>和/>是常数,避免分母接近于0时造成的不稳定性,分别为0.0004和0.0036,/>、/>表示/>、/>中第/>个像素值,/>表示/>、/>中的像素个数。
4.根据权利要求3所述的一种基于深度学习的医学图像跨对比度合成方法,其特征在于,在训练时,所述局部分支损失的计算逻辑为计算图像中对应掩码值为1的区域的损失,即:
其中,表示局部分支的输出图像,即/>,/>代表标签图像,即/>。
5.一种基于深度学习的医学图像跨对比度合成系统,其特征在于,包括:
预处理模块:获取同一部位的两种对比度图像,并对两种对比度图像进行预处理,作为训练集,其中,所述两种对比度图像来自T1加权、T2加权、STIR、FLAIR、T2 FS、PD和GRE磁共振成像中的不同两种,具体包括:将两种对比度图像进行配准,使图像中关键点的空间位置和解剖位置一致;将配准后的两种对比度图像的尺寸调整一致;将尺寸一致两种对比度图像归一化;将归一化后的两种对比度图像中的任一张作为第一对比度图像,另一张作为第二对比度图像,制作与第一对比度图像尺寸相同的全0值图像,并在该图像上随机生成一个不超过图像范围的任意大小的正方形区域,用1值填充,作为掩码图像;将第一对比度图像、第二对比度图像分别作为输入/>和标签图像/>;
训练模块:使用训练集训练双流融合生成网络,其中,所述双流融合生成网络包括全局分支和局部分支,所述全局分支和所述局部分支拥有不同的输入和输出,其中,全局分支的输入为,局部分支的输入/>,全局分支的输出为/>,局部分支的输出为,所述训练过程包括:将输入数据送入网络,并通过前向传播计算输出;将网络输出与目标数据计算损失值;通过反向传播算法计算网络参数的梯度,并更新参数以最小化损失函数;重复上述步骤,对训练数据进行多次迭代训练,直到达到预设的停止条件,这里的预设的停止条件为达到最大迭代次数或损失函数收敛;
处理模块:对待合成的图像进行预处理,并输入到已训练的双流融合生成网络中;
合成模块:根据所述已训练的双流融合生成网络获取合成图像。
6.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述电子设备实现如权利要求1至4中任一项所述的一种基于深度学习的医学图像跨对比度合成方法。
7.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,当所述计算机程序被计算机的处理器执行时,使计算机执行权利要求1至4中任一项所述的一种基于深度学习的医学图像跨对比度合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310820636.XA CN116563189B (zh) | 2023-07-06 | 2023-07-06 | 一种基于深度学习的医学图像跨对比度合成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310820636.XA CN116563189B (zh) | 2023-07-06 | 2023-07-06 | 一种基于深度学习的医学图像跨对比度合成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116563189A CN116563189A (zh) | 2023-08-08 |
CN116563189B true CN116563189B (zh) | 2023-10-13 |
Family
ID=87503883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310820636.XA Active CN116563189B (zh) | 2023-07-06 | 2023-07-06 | 一种基于深度学习的医学图像跨对比度合成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116563189B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116740216B (zh) * | 2023-08-09 | 2023-11-07 | 始终(无锡)医疗科技有限公司 | 一种眼科光学相干断层图像修复方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163897A (zh) * | 2019-04-24 | 2019-08-23 | 艾瑞迈迪科技石家庄有限公司 | 一种基于合成超声图像的多模态图像配准方法 |
CN113269702A (zh) * | 2021-05-21 | 2021-08-17 | 中国矿业大学 | 基于跨尺度特征融合的低曝光静脉图像增强方法 |
CN115311183A (zh) * | 2022-08-08 | 2022-11-08 | 广东工业大学 | 一种医学图像跨模态合成方法、系统及可读存储介质 |
CN115457015A (zh) * | 2022-09-28 | 2022-12-09 | 南京邮电大学 | 一种基于视觉交互感知双流网络的图像无参考质量评估方法及装置 |
CN116129235A (zh) * | 2023-04-14 | 2023-05-16 | 英瑞云医疗科技(烟台)有限公司 | 一种脑梗ct到mri常规序列的医学图像跨模态合成方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10902343B2 (en) * | 2016-09-30 | 2021-01-26 | Disney Enterprises, Inc. | Deep-learning motion priors for full-body performance capture in real-time |
CN112488976B (zh) * | 2020-12-11 | 2022-05-17 | 华中科技大学 | 一种基于darts网络的多模态医学图像融合方法 |
-
2023
- 2023-07-06 CN CN202310820636.XA patent/CN116563189B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163897A (zh) * | 2019-04-24 | 2019-08-23 | 艾瑞迈迪科技石家庄有限公司 | 一种基于合成超声图像的多模态图像配准方法 |
CN113269702A (zh) * | 2021-05-21 | 2021-08-17 | 中国矿业大学 | 基于跨尺度特征融合的低曝光静脉图像增强方法 |
CN115311183A (zh) * | 2022-08-08 | 2022-11-08 | 广东工业大学 | 一种医学图像跨模态合成方法、系统及可读存储介质 |
CN115457015A (zh) * | 2022-09-28 | 2022-12-09 | 南京邮电大学 | 一种基于视觉交互感知双流网络的图像无参考质量评估方法及装置 |
CN116129235A (zh) * | 2023-04-14 | 2023-05-16 | 英瑞云医疗科技(烟台)有限公司 | 一种脑梗ct到mri常规序列的医学图像跨模态合成方法 |
Non-Patent Citations (2)
Title |
---|
Noise-Aware Standard-Dose PET Reconstruction Using General and Adaptive Robust Loss;Lei Xiang.et.;《 MLMI 2020: Machine Learning in Medical Imaging》;第12436卷;第654-662页 * |
用于肿瘤调强放射治疗影像分析与转换的深度学习方法;刘国才等;《中国生物医学工程学报》;第41卷(第2期);第224-237页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116563189A (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nie et al. | Medical image synthesis with deep convolutional adversarial networks | |
Ghodrati et al. | MR image reconstruction using deep learning: evaluation of network structure and loss functions | |
CN109978037B (zh) | 图像处理方法、模型训练方法、装置、和存储介质 | |
US12100157B2 (en) | Systems and methods for image processing | |
US20190378607A1 (en) | System and method for patient privacy protection in medical images | |
CN116563189B (zh) | 一种基于深度学习的医学图像跨对比度合成方法及系统 | |
Kim et al. | Unsupervised feature elimination via generative adversarial networks: application to hair removal in melanoma classification | |
CN111091575B (zh) | 一种基于强化学习方法的医学图像分割方法 | |
CN110956632A (zh) | 钼靶图像中胸大肌区域自动检测方法及装置 | |
Shan et al. | SCA-Net: A spatial and channel attention network for medical image segmentation | |
Han et al. | Perceptual CT loss: implementing CT image specific perceptual loss for CNN-based low-dose CT denoiser | |
CN117649400B (zh) | 一种异常检测框架下的影像组学分析方法及系统 | |
Lu et al. | Combination of convolutional and generative adversarial networks for defect image demoiréing of thin-film transistor liquid-crystal display image | |
Shi et al. | Dual dense context-aware network for hippocampal segmentation | |
Zhong et al. | PMFSNet: Polarized Multi-scale Feature Self-attention Network For Lightweight Medical Image Segmentation | |
Couteaux et al. | Synthetic MR image generation of macrotrabecular-massive hepatocellular carcinoma using generative adversarial networks | |
Chiu et al. | Integrating DeblurGAN and CNN to improve the accuracy of motion blur X-Ray image classification | |
Guo et al. | Thyroid nodule ultrasonic imaging segmentation based on a deep learning model and data augmentation | |
CN116128895A (zh) | 医学图像分割方法、装置和计算机可读存储介质 | |
CN113409324B (zh) | 一种融合微分几何信息的脑分割方法 | |
Dogra et al. | Effective image fusion strategies in scientific signal processing disciplines: Application to cancer and carcinoma treatment planning | |
Wang et al. | Spatial attention-based implicit neural representation for arbitrary reduction of MRI slice spacing | |
Zhang et al. | Salient detection network for lung nodule detection in 3D Thoracic MRI Images | |
Zhu et al. | A Multimodal Fusion Generation Network for High-quality MR Image Synthesis | |
CN113936191B (zh) | 图片分类模型训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |