CN115239588A - 基于生成对抗式网络的极度稀疏视图ct重建的抑制伪影方法 - Google Patents

基于生成对抗式网络的极度稀疏视图ct重建的抑制伪影方法 Download PDF

Info

Publication number
CN115239588A
CN115239588A CN202210884578.2A CN202210884578A CN115239588A CN 115239588 A CN115239588 A CN 115239588A CN 202210884578 A CN202210884578 A CN 202210884578A CN 115239588 A CN115239588 A CN 115239588A
Authority
CN
China
Prior art keywords
image
discriminator
network
convolution
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210884578.2A
Other languages
English (en)
Inventor
邸江磊
李佳霖
林俊成
江文隽
秦玉文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202210884578.2A priority Critical patent/CN115239588A/zh
Publication of CN115239588A publication Critical patent/CN115239588A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明属于医学图像处理领域,公开了一种基于WGAN‑GP稀疏角度计算机断层扫描(Computed Tomography,CT)重建抑制伪影的方法,用于解决传统重建方法无法在极度稀疏采样视图条件下重建出清晰CT图像的难题,本发明的CT重建抑制方法先使用CT成像系统中的探测器以均匀角度间隔扫描得到的x射线衰减系数分布的投影图放入图像集A;接着将图像集A利用FBP滤波反投影算法得到稀疏视图的重建CT图像集B;将图像集B送入基于WGAN‑GP生成对抗网络训练好的结合Transformers块的UNet生成器网络,获得高精度的CT重建图像。本发明的方法可以实现对极度稀疏采样下的CT图进行重建,重建的CT图像边缘信息和细节保留更丰富。

Description

基于生成对抗式网络的极度稀疏视图CT重建的抑制伪影方法
技术领域
本发明涉及一种CT图像重建方法,具体涉及一种基于WGAN-GP的极度稀疏角度CT重建去伪影的方法。
背景技术
计算机断层扫描(CT,Computed Tomography)技术能够反映细微病变部位,是患者身体检查,诊断疾病的有效手段。虽然CT扫描在诊断疾病上为人们带来极大便利,但在CT检查过程中产生的射线会对人体带来伤害,过高的X射线辐射剂量可能存在终身诱发癌症的风险,所以有效地控制人体单次照射剂量或年照射剂量至关重要。实现低剂量CT的方法主要有降低射线装置管电流(或电压)和等间隔稀疏采集投影图像两种,然而,两种方法在降低辐射剂量后,CT成像过程中都会产生不属于组织结构的伪影,影响医疗诊断结果。相比于降低管电流,均匀稀疏采样的方式扫描更快。
目前针对稀疏角度CT重建的算法主要分为迭代重建算法和基于深度学习重建算法两大类。迭代重建算法需要利用线性方程组求解,采用逐步逼近的方法将理论投影值同测量投影值不断比较和迭代更新获得最优解再进行图像重建,计算量大,且重建速度慢。基于深度学习重建方法,通过利用网络学习稀疏视图和全视图图像的映射函数来提高数据重建质量,虽然能够恢复低剂量图像丢失的结构信息,抑制重建过程中的条纹伪影,但针对极度稀疏视图条件下,由于CT图像几乎仅剩全局条纹伪影信息,传统的网络结构即使能在全局信息中捕获大量的局部信息,但由于感受野的局限,难以从几乎全是严重条纹伪影的全局信息中清晰恢复出微弱的特征结构,完全抑制条纹伪影。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,所述CT重建算法可以实现对极度稀疏角度采样条件进行重建,重建图像边缘信息和细节保留更丰富。
本发明解决上述技术问题的技术方案是:
一种基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,包括以下步骤:
(S1)、使用CT成像系统中的探测器以均匀角度间隔扫描得到的x射线衰减系数分布的投影数据图像放入图像集A;
(S2)、使用FBP滤波反投影算法将投影数据集A重建成稀疏视图CT图像集B;
(S3)、将图像集B作为输入送入基于WGAN-GP训练好的结合Transformers块的UNet生成器网络,获得高精度的CT重建图像。
优选的,在步骤(S1)中,其稀疏视图角度可以为平行X光CT重建中所需满角度180个的1/6至1/60范围。
优选的,在步骤(S3)中,所述生成对抗网络结构的搭建与预训练步骤如下:
(S3-1)、CT成像系统扫描物体采集的完全角度CT图放入图像集Label中;
(S3-2)、构建基于WGAN-GP的生成对抗网络,其中包括结合Transformers块的UNet生成器网络和图像、边缘和融合的多鉴别器网络的构建;
(S3-3)、以CT成像系统采集的完全角度CT图像集Label作为标签,稀疏视图CT图像集B作为输入送入生成对抗网络训练。
优选的,在步骤(S3-2)中,所述的生成器网络结构深度为5层,包括卷积和Transformers组合的特征提取层、最大池化下采样层、亚像素卷积上采样层、编码器和解码器中对应维度特征提取层的通道拼接和输入与输出层之间的直连接,其中1、2层的特征提取层为浅层提取层由卷积核大小为3*3卷积块、线性整流激活函数和批量归一化层组成,3、4、5层的特征提取层为深层特征提取层由卷积块和Transfomers块组成,其由卷积核大小为3*3的卷积进行维度缩减,随后自注意力机制块利用深度可分离卷积计算输入特征图中的Q、K、V值,通过softmax函数计算特征图对应区域中的自适应权重,最后使用卷积核大小为3*3的卷积进行维度还原,以此加强捕获上下文信息的能力;下采样层由最大池化进行2倍像素降采样;亚像素卷积上采样部分利用卷积核大小为3*3的卷积层,线性整流激活函数和批量归一化层,通过4倍维度信息补偿得到2倍像素信息;整体网络其下采样通道数分别为64,128,256,512,上采样与其相反。
优选的,在步骤(S3-2)中,所述的多鉴别器网络由三部分组成,包括图像鉴别器、边缘鉴别器和图像融合鉴别器,所述图像鉴别器由输入层,若干由卷积核大小为3*3,步长为2,零填充为1的卷积层和带泄露线性整流函数构成的网络层和输出部分双曲正切激励层组成,一端若干层网络层通道数由输入层通道数1增至512最后降至1输出,另一端在卷积特征提取处理部分输出512*8*8大小特征图,并对鉴别器网络中通道数大于1的卷积层进行谱归一化;边缘鉴别器网络对图像鉴别器进行复制;融合图像鉴别器将边缘特征图和特征图进行卷积拼接,接着由上述若干网络层组成,最终输出判别的单点像素值。
优选的,在步骤(S3-2)中,所述的多鉴别器网络的损失函数由三部分损失组成,图像鉴别器和边缘鉴别器采用WGAN-GP的Wasserstein距离损失和梯度惩罚损失组合,融合鉴别器损失使用Wasserstein距离损失,整体的鉴别器损失由三者加权联合。
优选的,在步骤(S3-2)中,所述生成器网络采用的损失函数由对抗损失函数和内容损失函数加权组成,对抗损失函数为三个鉴别器伪图判别输出的Wasserstein距离损失加权,内容损失函数为输入标签和生成网络输出对应图像的均方差损失。
优选的,在步骤(S3-3)中,所述的生成对抗网络训练中多鉴别器输入为三部分,其中图像鉴别器,以CT成像系统采集的完全角度CT图像集Label作为标签,稀疏视图CT图像集B作为输入送入生成网络初步得到重建的去噪CT图像C作为输入;边缘鉴别器部分,利用Sobel算子分别与完全角度CT图Label和图像集C卷积,通过像素点上下、左右邻点灰度加权差,获取完全角度CT图的边缘图像集Sobel-Label作为标签和生成CT图像的边缘图像集D作为输入送入网络;上述两个鉴别器为双输出端,一端输出真伪判别分数,一端输出特征图像,将两个鉴别器输出的特征图作为融合鉴别器输入。
优选的,在步骤(S3-3)中,所述的生成对抗网络训练分为生成器网络和鉴别器网络两部分,初始化神经网络权重和偏置参数,首先进行鉴别器训练,以完全角度CT图像集Label作为真图输入图像鉴别器,生成网络利用稀疏视图图像集B输出的图像C作为生成伪图输入图像鉴别器,通过定义的损失计算得到判别器真伪损失及梯度惩罚值并进行加权作为该鉴别器整体损失,随后对损失函数的梯度进行多次反向传播以更新神经网络的权重和偏置参数,边缘鉴别器与联合鉴别器亦如此;生成器网络训练与上述过程相似,初始化神经网络权重和偏置参数,根据所定义的损失函数,计算图像Label中的图像与图像集B中对应的图像之间的差异值的损失,随后对损失函数的梯度值进行多次反向传播以更新神经网络的权重和偏置参数;根据预设的交替训练轮次反复训练鉴别器和生成器网络,直到整体训练轮次达到预设值,停止更新神经网络的权重和偏置参数,得到训练的生成对抗网络。
优选的,所述的生成对抗式网络采用Adam优化算法,其中鉴别器优化学习率比生成器学习率大4倍但不仅限于4倍,两个网络以一比一交替更新权重和偏置参数,停止更新网络权重和偏置参数的训练轮次预设大于150次。
本发明与现有技术相比具有以下的有益效果:
1、本发明的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法在设计生成器网络中,将CNN与Vision Transformers结合,保留CNN本身具有的位置信息性能的同时,利用自注意力机制计算特征图对应区域的自适应权重,使得特征图能够关联全局信息,扩大网络感受野,进而更好地解决由于扫描角度有限的欠定问题,有效消除极度稀疏角度重建中严重的噪声与伪影。
2、本发明的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法利用Sobel算子对图像集B和图像集Label进行边缘检测提取,将获取的边缘图像集C和Sobel-Label输入边缘鉴别器网络,联合生成网络对抗训练,能够进一步加强生成器神经网络还原重建图像边缘能力,减小生成图像过平滑问题。
3、本发明的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法使用三个鉴别器网络共同作用,能够将图像数据从原有模型中解耦,提高模型对图像的可解释性,进一步提高图像的输出质量。
附图说明
图1为本发明的用于极度稀疏视图CT重建去伪影方法的流程框图。
图2为本发明提供的生成对抗式网络的模型示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
参见图1,本发明的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法包括以下步骤:
(S1)、使用CT成像系统中的探测器以均匀角度间隔扫描得到的x射线衰减系数分布的投影数据图像放入图像集A;
(S2)、使用FBP滤波反投影算法将投影数据集A重建成稀疏视图CT图像集B;
(S3)、将图像集B作为输入送入基于WGAN-GP训练好的结合Transformers块的UNet生成器网络,获得高精度的CT重建图像。
参见图1,在步骤(S3)中,所述生成对抗网络结构的搭建与预训练步骤如下:
(S3-1)、CT成像系统扫描物体采集的完全角度CT图放入图像集Label中;
(S3-2)、构建基于WGAN-GP的生成对抗网络,其中包括结合Transformers块的UNet生成器网络和图像、边缘和融合的多鉴别器网络的构建;
(S3-3)、以CT成像系统采集的完全角度CT图像集Label作为标签,稀疏视图CT图像集B作为输入送入生成对抗网络训练。
参见图1,对于极度稀疏角度采样条件下重建CT图像,得到的CT图像具有极其严重的伪影信息,几乎无具体特征信息,传统的全卷积神经网络编解码器在重建过程中,虽然能够在全局信息中提取大量的局部信息,由于感受野的限制,在几乎仅剩条纹伪影的全局信息下,从微弱特征信息表征清晰图像特征成为难题,因此难以把控特征细节重建。
为此,本实施例中的神经网络采用CNN与Vision Transformers结合的生成网络,通过加入Transformers的自注意力机制,提高神经网络的感受野,来获取更高的捕获全局上下文信息的能力,从而更精确地重建出极度稀疏角度下的CT图像。因此,所述的神经网络包括浅层特征提取层、深层特征提取层、最大池化下采样层、亚像素卷积上采样层、编码器和解码器中对应维度特征提取层的通道拼接和输入与输出层之间的直连接,其中,所述的浅层特征提取层是通过卷积核大小为3*3的卷积、线性整流激活函数、归一化层组合而成来实现;所述的深层特征提取层由Convolutional Vision Transformers构成,其由卷积核大小为3*3的卷积进行维度缩减,随后自注意力机制块利用深度可分离卷积计算输入特征图中的Q、K、V值,通过softmax函数计算特征图对应区域中的自适应权重,最后使用卷积核大小为3*3的卷积进行维度还原,以此加强捕获上下文信息的能力;所述的亚像素卷积上采样由卷积核大小为3*3的卷积,线性整流激活函数和批量归一化层组成,利用4倍维度信息补偿得到2倍像素信息,由低分辨率还原至高分辨率。
参见图1,对于极度稀疏角度采样条件下重建CT图像,生成器网络部分损失主要采用的是均方差损失,单独的图像鉴别器联合对抗生成器网络重建的CT图像存在部分细节过度平滑的问题,可能导致医生观察图像病理信息存在判断有误的情况,因此采用边缘鉴别器与生成器对抗训练提升细节边缘信息的重建极为重要。
为此,本实施例中的神经网络采用三部分鉴别器联合,包括图像鉴别器、边缘鉴别器和融合鉴别器,以完全角度CT图像集Label作为标签,图像集B作为输入送入图像鉴别器判别,以完全角度CT图的边缘图像集Sobel-Label作为标签,图像C作为输入送入边缘鉴别器判别,两个鉴别器为双输出端,一端输出真伪判别分数,一端输出特征图像,将两个鉴别器输出的特征图作为融合鉴别器输入进行拼接判别,输出联合特征图像真伪分数。其中,所述图像鉴别器由输入层,若干由卷积核大小为3*3,步长为2,零填充为1的卷积层和带泄露线性整流函数构成的网络层和输出部分双曲正切激励层组成,一端若干层网络层通道数由输入层通道数1增至512最后降至1输出,另一端在卷积特征提取处理部分输出512*8*8大小特征图,并对完备的鉴别器网络中通道数大于1的卷积层进行谱归一化;边缘鉴别器网络对图像鉴别器进行复制;融合鉴别器将边缘特征图和特征图进行卷积拼接,接着由上述若干网络层组成,最终输出单点像素判别分数。
参见图1,所述生成对抗网络的损失函数由两部分损失函数构成,两部分损失函数分别为鉴别器网络损失和生成网络损失,其中鉴别器网络损失采用基于WGAN-GP的图像鉴别器和边缘鉴别器的Wasserstein距离损失和梯度惩罚损失组合,融合鉴别器损失使用Wasserstein距离损失,三者加权联合;所述的生成器网络损失由对抗损失函数和内容损失函数加权组成,对抗损失函数为三个鉴别器伪图输判别输出的Wasserstein距离损失加权,内容损失函数为标签和生成网络输出图像对应像素的均方差损失。
参见图1,所述的生成对抗式网络采用Adam优化算法,其中鉴别器优化学习率比生成器学习率大4倍,两个网络以一比一交替更新权重和偏置参数,当训练轮次达到预设值停止更新网络权重和偏置参数。本实施例中训练轮次设置为200,生成器网络优化学习率为0.0001,鉴别器网络优化学习率为0.0004。
参见图2,以下则以具体案例对本发明的CT重建方法进行阐述:
首先,使用CT成像系统中的探测器以均匀角度间隔扫描得到的x射线衰减系数分布的投影图像放入图像集A;利用FBP滤波反投影算法将图像集A重建为系数视图CT图像集B;CT成像系统扫描物体采集的完全角度CT图放入图像集Label中;然后,将图像集A和图像集Label送入生成对抗式网络进行训练,网络包括生成器和鉴别器两部分,送入的两个图像集先通过生成器网络进行初步重建去噪处理,生成较清晰的伪图,此时的输出图像集为B;接着利用Sobel算子与输出图像集B和图像集Label进行卷积运算,得到纵向和横向边缘检测的灰度值,通过像素点上下、左右邻点灰度加权差,获得边缘图像集C和标签边缘图像集Sobel-Label;然后以图像集B和Label,图像集C和Sobel-Label分别送入图像鉴别器和边缘鉴别器,两个鉴别器为双输出端,一端输出真伪判别分数,一端输出特征图;最后将两个鉴别器输出的特征图送入融合鉴别器进行CT重建边缘特征图和CT重建特征图拼接判别,三个鉴别器输出的真伪分数求均值并加权作为对抗损失函数,与生成器轮流交替训练,训练时先进行鉴别器训练再进行生成器训练,达到预设训练轮次停止更新网络权重和偏置参数,得到训练完备的生成对抗网络;通过对该预训练的CT重建网络输入稀疏角度CT图,即实现对极度稀疏角度的CT图像重建。
上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,包括以下步骤:
(S1)、使用CT成像系统中的探测器以均匀角度间隔扫描得到的x射线衰减系数分布的投影数据图像放入图像集A;
(S2)、使用FBP滤波反投影算法将投影数据集A重建成稀疏视图CT图像集B;
(S3)、将图像集B作为输入送入基于WGAN-GP生成对抗网络训练好的结合Transformers块的UNet生成器网络,获得高精度的CT重建图像。
2.根据权利要求1所述的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,在步骤(S1)中,其稀疏视图角度可以为平行X光CT重建中所需满角度180个的1/6至1/60范围。
3.根据权利要求1所述的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,在步骤(S3)中,所述生成对抗网络结构的搭建与预训练步骤如下:
(S3-1)、CT成像系统扫描物体采集的完全角度CT图放入图像集Label中;
(S3-2)、构建基于WGAN-GP的生成对抗网络,其中包括结合Transformers块的UNet生成器网络和图像、边缘和融合的多鉴别器网络的构建;
(S3-3)、以CT成像系统采集的完全角度CT图像集Label作为标签,稀疏视图CT图像集B作为输入送入生成对抗网络训练。
4.根据权利要求3所述的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,在步骤(S3-2)中,所述的生成器网络结构深度为5层,包括卷积和Transformers组合的特征提取层,最大池化下采样层、亚像素卷积上采样层及编码器和解码器中对应维度特征提取层的通道拼接和输入与输出层之间的直连接,其中1、2层的特征提取层为浅层提取层由卷积核大小为3*3卷积块、线性整流激活函数和批量归一化层组成,3、4、5层的特征提取层为深层特征提取层由卷积块和Transfomers块组成,其由卷积核大小为3*3的卷积进行维度缩减,随后自注意力机制块利用深度可分离卷积计算输入特征图中的Q、K、V值,通过softmax函数计算特征图对应区域中的自适应权重,最后使用卷积核大小为3*3的卷积进行维度还原,以此加强捕获上下文信息的能力;下采样层由最大池化进行2倍像素降采样;亚像素卷积上采样部分利用卷积核大小为3*3的卷积层,线性整流激活函数和批量归一化层,通过4倍维度信息补偿得到2倍像素信息;整体网络其下采样通道数分别为64,128,256,512,上采样与其相反。
5.根据权利要求3所述的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,在步骤(S3-2)中,所述的多鉴别器网络由三部分组成,包括图像鉴别器、边缘鉴别器和图像融合鉴别器,所述图像鉴别器由输入层,若干由卷积核大小为3*3,步长为2,零填充为1的卷积层和带泄露线性整流函数构成的网络层和输出部分双曲正切激励层组成,一端若干层网络层通道数由输入层通道数1增至512最后降至1输出,另一端在卷积特征提取处理部分输出512*8*8大小特征图,并对鉴别器网络中通道数大于1的卷积层进行谱归一化;边缘鉴别器网络对图像鉴别器进行复制;融合图像鉴别器将边缘特征图和特征图进行卷积拼接,接着由上述若干网络层组成,最终输出判别的单点像素值。
6.根据权利要求3所述的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,在步骤(S3-2)中,所述的多鉴别器网络的损失函数由三部分损失组成,图像鉴别器和边缘鉴别器采用WGAN-GP的Wasserstein距离损失和梯度惩罚损失组合,融合鉴别器损失使用Wasserstein距离损失,整体的鉴别器损失由三者加权联合。
7.根据权利要求3所述的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,在步骤(S3-2)中,所述生成器网络采用的损失函数由对抗损失函数和内容损失函数加权组成,对抗损失函数为三个鉴别器伪图判别输出的Wasserstein距离损失加权,内容损失函数为输入标签和生成网络输出对应图像的均方差损失。
8.根据权利要求3所述的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,在步骤(S3-3)中,所述的生成对抗网络训练中多鉴别器输入为三部分,其中图像鉴别器,以CT成像系统采集的完全角度CT图像集Label作为标签,稀疏视图CT图像集B作为输入送入生成网络初步得到重建的去噪CT图像C作为输入;边缘鉴别器部分,利用Sobel算子分别与完全角度CT图Label和图像集C卷积,通过像素点上下、左右邻点灰度加权差,获取完全角度CT图的边缘图像集Sobel-Label作为标签和生成CT图像的边缘图像集D作为输入送入网络;上述两个鉴别器为双输出端,一端输出真伪判别分数,一端输出特征图像,将两个鉴别器输出的特征图作为融合鉴别器输入。
9.根据权利要求3所述的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,在步骤(S3-3)中,所述的生成对抗网络训练分为生成器网络和鉴别器网络两部分,初始化神经网络权重和偏置参数,首先进行鉴别器训练,以完全角度CT图像集Label作为真图输入图像鉴别器,生成网络利用稀疏视图图像集B输出的图像C作为生成伪图输入图像鉴别器,通过定义的损失计算得到判别器真伪损失及梯度惩罚值并进行加权作为该鉴别器整体损失,随后对损失函数的梯度进行多次反向传播以更新神经网络的权重和偏置参数,边缘鉴别器与联合鉴别器亦如此;生成器网络训练与上述过程相似,初始化神经网络权重和偏置参数,根据所定义的损失函数,计算图像Label中的图像与图像集B中对应的图像之间的差异值的损失,随后对损失函数的梯度值进行多次反向传播以更新神经网络的权重和偏置参数;根据预设的交替训练轮次反复训练鉴别器和生成器网络,直到整体训练轮次达到预设值,停止更新神经网络的权重和偏置参数,得到训练的生成对抗网络。
10.根据权利要求3所述的基于WGAN-GP的极度稀疏角度CT重建去伪影的方法,其特征在于,所述的生成对抗式网络采用Adam优化算法,其中鉴别器优化学习率比生成器学习率大4倍但不仅限于4倍,两个网络以一比一交替更新权重和偏置参数,停止更新网络权重和偏置参数的训练轮次预设大于150次。
CN202210884578.2A 2022-07-25 2022-07-25 基于生成对抗式网络的极度稀疏视图ct重建的抑制伪影方法 Pending CN115239588A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210884578.2A CN115239588A (zh) 2022-07-25 2022-07-25 基于生成对抗式网络的极度稀疏视图ct重建的抑制伪影方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210884578.2A CN115239588A (zh) 2022-07-25 2022-07-25 基于生成对抗式网络的极度稀疏视图ct重建的抑制伪影方法

Publications (1)

Publication Number Publication Date
CN115239588A true CN115239588A (zh) 2022-10-25

Family

ID=83674661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210884578.2A Pending CN115239588A (zh) 2022-07-25 2022-07-25 基于生成对抗式网络的极度稀疏视图ct重建的抑制伪影方法

Country Status (1)

Country Link
CN (1) CN115239588A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115984106A (zh) * 2022-12-12 2023-04-18 武汉大学 一种基于双边生成对抗网络的线扫描图像超分辨率方法
CN116502060A (zh) * 2023-04-25 2023-07-28 浙江大学长三角智慧绿洲创新中心 一种基于WGANGP-Unet的结构健康监测缺失数据重构方法
CN116977473A (zh) * 2023-09-21 2023-10-31 北京理工大学 一种基于投影域和图像域的稀疏角ct重建方法及装置
CN117036533A (zh) * 2023-10-10 2023-11-10 北京理工大学 一种用于同轴相位衬度成像的稀疏角ct重建方法和系统
CN117152365A (zh) * 2023-10-31 2023-12-01 中日友好医院(中日友好临床医学研究所) 一种口腔cbct超低剂量成像的方法、系统及装置
CN117523095A (zh) * 2023-11-09 2024-02-06 深圳技术大学 一种基于深度学习的稀疏角度THz-CT图像重建方法
CN117876817A (zh) * 2023-12-25 2024-04-12 北京化工大学 一种对抗样本生成方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115984106A (zh) * 2022-12-12 2023-04-18 武汉大学 一种基于双边生成对抗网络的线扫描图像超分辨率方法
CN115984106B (zh) * 2022-12-12 2024-04-02 武汉大学 一种基于双边生成对抗网络的线扫描图像超分辨率方法
CN116502060A (zh) * 2023-04-25 2023-07-28 浙江大学长三角智慧绿洲创新中心 一种基于WGANGP-Unet的结构健康监测缺失数据重构方法
CN116502060B (zh) * 2023-04-25 2024-04-23 浙江大学长三角智慧绿洲创新中心 一种基于WGANGP-Unet的结构健康监测缺失数据重构方法
CN116977473A (zh) * 2023-09-21 2023-10-31 北京理工大学 一种基于投影域和图像域的稀疏角ct重建方法及装置
CN116977473B (zh) * 2023-09-21 2024-01-26 北京理工大学 一种基于投影域和图像域的稀疏角ct重建方法及装置
CN117036533A (zh) * 2023-10-10 2023-11-10 北京理工大学 一种用于同轴相位衬度成像的稀疏角ct重建方法和系统
CN117036533B (zh) * 2023-10-10 2024-02-13 北京理工大学 一种用于同轴相位衬度成像的稀疏角ct重建方法和系统
CN117152365A (zh) * 2023-10-31 2023-12-01 中日友好医院(中日友好临床医学研究所) 一种口腔cbct超低剂量成像的方法、系统及装置
CN117152365B (zh) * 2023-10-31 2024-02-02 中日友好医院(中日友好临床医学研究所) 一种口腔cbct超低剂量成像的方法、系统及装置
CN117523095A (zh) * 2023-11-09 2024-02-06 深圳技术大学 一种基于深度学习的稀疏角度THz-CT图像重建方法
CN117876817A (zh) * 2023-12-25 2024-04-12 北京化工大学 一种对抗样本生成方法

Similar Documents

Publication Publication Date Title
CN115239588A (zh) 基于生成对抗式网络的极度稀疏视图ct重建的抑制伪影方法
Kuanar et al. Low dose abdominal CT image reconstruction: an unsupervised learning based approach
WO2021077997A1 (zh) 图像去噪的多生成器生成对抗网络学习方法
CN109146988B (zh) 基于vaegan的非完全投影ct图像重建方法
CN109166161B (zh) 一种基于噪声伪影抑制卷积神经网络的低剂量ct图像处理系统
Hu et al. Artifact correction in low‐dose dental CT imaging using Wasserstein generative adversarial networks
CN112258415B (zh) 一种基于生成对抗网络的胸部x光片超分辨率和去噪方法
Yuan et al. SIPID: A deep learning framework for sinogram interpolation and image denoising in low-dose CT reconstruction
CN111311704A (zh) 图像重建方法、装置、计算机设备和存储介质
CN112837244B (zh) 一种基于渐进式生成对抗网络的低剂量ct图像降噪及去伪影方法
CN115953494B (zh) 基于低剂量和超分辨率的多任务高质量ct图像重建方法
CN113516586A (zh) 一种低剂量ct图像超分辨率去噪方法和装置
CN108038840B (zh) 一种图像处理方法、装置、图像处理设备及存储介质
CN116645283A (zh) 基于自监督感知损失多尺度卷积神经网络的低剂量ct图像去噪方法
Zhao et al. Sparse-view CT reconstruction via generative adversarial networks
CN116863014A (zh) 一种基于深度双域联合引导学习的ldct图像重建方法
CN113592745B (zh) 一种基于对抗性域自适应的无监督mri图像复原方法
CN112070856B (zh) 基于非下采样轮廓波变换的有限角c型臂ct图像重建方法
CN116563554A (zh) 基于混合表征学习的低剂量ct图像去噪方法
CN111860836A (zh) 一种自监督学习方法及应用
CN116523739A (zh) 一种无监督的隐式建模盲超分辨重建方法及装置
CN115456890A (zh) 基于多尺度双域判别器的生成对抗医学ct图像去噪方法
CN116542868A (zh) 基于注意力的生成对抗网络的x胸片肋骨影像的抑制方法
Liang et al. A model-based unsupervised deep learning method for low-dose CT reconstruction
CN113436118B (zh) 一种基于多尺度卷积编码网络的低剂量ct图像复原方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination