CN114283088A - 低剂量ct图像降噪方法及装置 - Google Patents

低剂量ct图像降噪方法及装置 Download PDF

Info

Publication number
CN114283088A
CN114283088A CN202111602471.6A CN202111602471A CN114283088A CN 114283088 A CN114283088 A CN 114283088A CN 202111602471 A CN202111602471 A CN 202111602471A CN 114283088 A CN114283088 A CN 114283088A
Authority
CN
China
Prior art keywords
convolution
dose
image
low
iteration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111602471.6A
Other languages
English (en)
Inventor
刘祎
桂志国
颜溶標
张鹏程
张权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North University of China
Original Assignee
North University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North University of China filed Critical North University of China
Priority to CN202111602471.6A priority Critical patent/CN114283088A/zh
Publication of CN114283088A publication Critical patent/CN114283088A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种低剂量CT图像降噪方法及装置,对图像数据集进行预处理;初始化卷积稀疏图X和卷积字典D;通过超参数预测模块产生每次的迭代参数;基于所述迭代参数,迭代更新卷积稀疏图X和卷积字典D,直至获得预训练模型;选取低剂量CT图像数据集,基于所述预训练模型在低剂量CT图像数据集上训练,直至获得降噪模型;基于所述降噪模型,对低剂量CT图像进行降噪处理。本发明能够有效提高低剂量CT图像降噪处理效果。

Description

低剂量CT图像降噪方法及装置
技术领域
本发明涉及一种低剂量CT图像降噪方法及装置。
背景技术
现在公开且较流行的低剂量CT图像降噪方法包括投影域过滤、迭代重建和图像域后处理。基于投影域过滤的方法,大多采用惩罚加权最小二乘算法、双边滤波和结构自适应滤波等图像处理方法进行去噪,这可能导致图像域的边缘模糊和空间分辨率损失。基于迭代重建的算法计算量大且和投影域滤波一样需要访问对大多数用户不透明的原始投影数据。后处理方法不需要访问低剂量CT的投影数据,很容易集成到临床低剂量CT的工作流程中,移植性强,但是传统的后处理方法容易在抑制噪声/伪影的同时模糊细节信息。基于分块的K-SVD算法属于传统字典学习范畴,它交替更新字典中的原子和字典的稀疏表示,以此来抑制图像中的噪声/伪影,但基于分块且独立重建图像块会缺乏平移不变性,容易忽略不同块之间的结构依赖性,相邻甚至重叠块的独立稀疏也使得整个图像的稀疏表示高度冗余。
随着深度学习技术的快速发展,基于卷积神经网络的方法在图像分类,目标检测,图像去噪和图像融合等领域取得了长足的进步。卷积神经网络能够在输入图像中提取多张特征图,具有强大的特征提取能力,其训练过程是输入数据和标签数据之间误差函数的最小化过程,但这种输入数据到标签数据的学习映射缺乏可解释性。深度学习技术下的去噪方法的差异性往往在于精心设计的复杂网络,但它们都需要较大的训练数据集,用于医学图像降噪时也会产生过度模糊的现象,造成细节信息的丢失。
目前比较流行的图像降噪算法中基于卷积字典学习的方法,用卷积运算代替信号表示中的矩阵乘法,使用多个滤波器和相应特征图的卷积总和对整张图像进行分解,克服了基于块的缺点。现有的卷积字典学习方法大多没有严格遵循字典学习的图像表示模型,使用手工先验,训练得到的通用字典细微结构表达能力有限,去噪效果逊于深度学习的方法且应用领域局限在自然图像上。
发明内容
本发明的发明目的在于提供一种低剂量CT图像降噪方法及装置,能够有效提高低剂量CT图像降噪处理效果。
基于同一发明构思,本发明具有两个独立的技术方案:
1、一种低剂量CT图像降噪方法,包括如下步骤:
步骤1:对图像数据集进行预处理;
步骤2:初始化卷积稀疏图X和卷积字典D;
步骤3:通过超参数预测模块产生每次迭代参数;基于所述迭代参数,迭代更新卷积稀疏图X和卷积字典D,直至获得预训练模型;
步骤4:选取低剂量CT图像数据集,对图像数据集进行预处理,基于所述预训练模型在低剂量CT图像数据集上训练,直至获得降噪模型;
步骤5:基于所述降噪模型,对低剂量CT图像进行降噪处理。
进一步地,步骤2中,通过初始化模块获得初始化卷积稀疏图X,所述初始化模块由不同卷积层的拼接和级联组成,输入带噪声图像和噪声标准差至所述初始化模块,获得初始化卷积稀疏图X。
进一步地,步骤3中,超参数预测模块由两个卷积层和两个激活函数组成,输入噪声标准差至所述超参数预测模块,并将其和超参数预测模块末端的输出相乘,以获得更新卷积稀疏图X和卷积字典D所需的迭代参数。
进一步地,步骤3中,卷积字典D的求解网络由4个卷积层、Relu激活函数和多尺度Inception模块组成。
进一步地,步骤3中,卷积稀疏图X的求解网络以密集旁路连接下的U-Net结构为基础,相邻两层之间设有残差模块,每个残差模块包括多个残差单元。
进一步地,步骤3中,引入X'和D'作为辅助变量,迭代更新卷积稀疏图X和卷积字典D;在第t次迭代中,输入的含噪图像Y同前一次迭代后的卷积稀疏图X(t-1)、卷积字典D(t-1)和本次迭代的超参数αX(t),经辅助变量X'求解模块求解获得X'(t),X'(t)再与超参数βX(t)拼接,并用卷积稀疏图求解网络得出该次迭代后的卷积稀疏图X(t);
含噪图像Y、超参数αD(t)、前一次迭代后的卷积字典D(t-1)和该次迭代后的卷积稀疏图X(t),经辅助变量D'求解模块求解获得D'(t),D'(t)与超参数βD(t)拼接并用卷积字典求解网络得出该次迭代后的D(t),D(t)与X(t)逐层卷积并求和以重构出该次迭代后的图像Y(t);
所述超参数αX(t)、βX(t)、αD(t)、βD(t)均通过超参数预测模块获得。
进一步地,辅助变量X'求解模块与辅助变量D'求解模块分别基于快速傅里叶变换和最小二乘法,以求获得相应的闭合解。
进一步地,步骤3中,每次迭代的损失函数由L1损失和MS-SSIM损失组成,两者比例的取值范围为[0,1];第一次迭代的损失函数权重记为1,其余T-1次迭代的损失函数权重记为
Figure BDA0003432331850000041
反向传播时使用所有T次迭代的损失函数总和。
进一步地,步骤4中,基于预训练模型在低剂量CT图像数据集上训练,根据网络收敛情况调节初始学习率、学习率衰减时的迭代次数阈值和学习率衰减比例。
2、一种低剂量CT图像降噪装置,用于执行上述方法。
本发明具有的有益效果:
本发明低剂量CT图像降噪方法基于迁移学习思想,其包括如下步骤:对图像数据集进行裁剪、旋转和镜像等预处理操作;初始化卷积稀疏图X和卷积字典D;通过超参数预测模块产生每次迭代参数;基于所述迭代参数,迭代更新卷积稀疏图X和卷积字典D,直至获得预训练模型;选取低剂量CT图像数据集,基于所述预训练模型在低剂量CT图像数据集上训练,直至获得降噪模型;基于所述降噪模型,对低剂量CT图像进行降噪处理。本发明提出一种基于卷积字典学习和神经网络的低剂量CT图像降噪方法,将卷积字典学习可解释性强的优点和神经网络强大特征提取能力的优势有效结合,有助于在去除噪声的同时保护图像边缘细节信息,克服了基于分块的传统字典学习信息冗余的问题和现有基于卷积字典学习理论的降噪方法由于使用手工先验和通用字典难以在降噪效果上媲美深度学习方法的缺点,同时也弥补了卷积神经网络进行低剂量CT图像降噪时需要大量CT数据集且容易造成图像过度平滑和细节信息丢失的不足,很好的完成了对噪声类型复杂并伴有伪影的低剂量CT图像降噪任务。本发明先在带噪声的自然图像上训练网络以获得最好的降噪模型,再使用有限的低剂量CT数据集在预训练获得的模型上继续训练,让模型能够完成低剂量CT图像的降噪任务,有效提高低剂量CT图像降噪模型建立效率。
本发明超参数预测模块由两个卷积层和两个激活函数组成,输入噪声标准差至所述超参数预测模块,并将其和超参数预测模块末端的输出相乘,以获得更新卷积稀疏图X和卷积字典D所需的迭代参数;卷积字典D的求解网络由4个卷积层、Relu激活函数和多尺度Inception模块组成;卷积稀疏图X的求解网络以密集旁路连接下的U-Net结构为基础,相邻两层之间设有残差模块,每个残差模块包括多个残差单元;引入X'和D'作为辅助变量,迭代更新卷积稀疏图X和卷积字典D;在第t次迭代中,输入的含噪图像Y同前一次迭代后的卷积稀疏图X(t-1)、卷积字典D(t-1)和超参数αX(t),经辅助变量X'求解模块求解获得X'(t),X'(t)再与超参数βX(t)拼接,并用卷积稀疏图求解网络得出该次迭代后的卷积稀疏图X(t);含噪图像Y、超参数αD(t)、前一次迭代后的卷积字典D(t-1)和该次迭代后的卷积稀疏图X(t),经辅助变量D'求解模块求解获得D'(t),D'(t)与超参数βD(t)拼接并用卷积字典求解网络得出该次迭代后的D(t),D(t)与X(t)逐层卷积并求和,以重构出该次迭代后的图像Y(t);所述超参数αX(t)、βX(t)、αD(t)、βD(t)均通过超参数预测模块获得;辅助变量X'求解模块与辅助变量D'求解模块分别基于快速傅里叶变换和最小二乘法,以求获得相应的闭合解。本发明通过超参数预测模块、卷积字典D的求解网络、卷积稀疏图X的求解网络以及引入X'和D'作为辅助变量的具体设置,进一步保证低剂量CT图像降噪模型的可靠性,保证在去除噪声的同时保护图像边缘细节信息。
附图说明
图1是本发明低剂量CT图像降噪方法的流程示意图;
图2是本发明每次迭代时卷积字典和卷积稀疏图学习更新的示意图;
图3是本发明超参数预测模块示意图;
图4是本发明卷积稀疏图X初始化模块示意图;
图5是本发明卷积稀疏图X求解网络示意图;
图6是本发明卷积字典D求解网络示意图;
图7是本发明卷积稀疏图X求解网络中的残差模块示意图;
图8是本发明卷积字典D求解网络的多尺度Inception模块示意图。
具体实施方式
下面结合附图所示的各实施方式对本发明进行详细说明,但应当说明的是,这些实施方式并非对本发明的限制,本领域普通技术人员根据这些实施方式所作的功能、方法、或者结构上的等效变换或替代,均属于本发明的保护范围之内。
实施例一:
低剂量CT图像降噪方法
本发明低剂量CT图像降噪方法欲在图像域内对低剂量CT图像进行降噪,结合卷积字典学习的可解释性和神经网络强大的特征提取能力,将低剂量CT图像的降噪过程拆分为预训练阶段和模型微调阶段。本发明先对易获取的自然图像数据集添加一定标准差范围的高斯噪声,在带噪声的自然图像上训练网络以获得最好的降噪模型,再使用有限的低剂量CT数据集在预训练获得的模型上继续训练,让模型能够完成低剂量CT图像的降噪任务。如图1所示,本发明低剂量CT图像降噪方法包括如下步骤:
步骤1:对图像数据集进行预处理。
假设原始数据集的图像大小为A×A,对其随机添加[0,α]的高斯噪声,并在带噪声图像上随机裁剪若干a×a大小的区域作为训练图像,结合旋转、镜像等数据增强操作以增大数据集。
步骤2:初始化卷积稀疏图X和卷积字典D。
如图4所示,通过初始化模块获得初始化卷积稀疏图X,所述初始化模块由不同卷积层的拼接和级联组成,输入带噪声图像和噪声标准差至所述初始化模块,获得初始化卷积稀疏图X。输入是噪声标准差σ经repeat操作并与噪声图像Y拼接的结果。由于是对整张图进行表示,而在输入和输出层之间包含更短的连接,卷积网络能训练更深的结构,能提取更高维的特征来降噪。具体实施时,将含噪图像和相应的噪声标注差σ输入到卷积稀疏图初始化模块,初始化m通道大小为a×a的卷积稀疏图X。相应的卷积字典也定为m通道并用全0初始化,每通道的卷积字典原子大小远小于卷积稀疏图。其中m为卷积稀疏图的初始化通道数,同时也是卷积字典原子的数量,卷积字典原子尺寸取值范围为[3,7](比如,128×128大小的稀疏系数图可选择数量为64且大小为5×5的卷积字典原子)。
步骤3:通过超参数预测模块产生每次迭代参数;基于所述迭代参数,迭代更新卷积稀疏图X和卷积字典D,直至获得预训练模型。
如图3所示,超参数预测模块由两个卷积层和两个激活函数组成,超参数预测模块的输入和模块末端的输出相乘作为最终的预测结果。本实施例中,超参数预测网络使用sigmoid和SoftPlus作为激活函数,以确保所有超参数都是正值。输入噪声标准差σ至所述超参数预测模块,获得更新卷积稀疏图X和卷积字典D所需的迭代参数αX(t)、αD(t)、βX(t)和βD(t)
如图6、图8所示,卷积字典D的求解网络由4个卷积层、Relu激活函数和多尺度Inception模块组成。卷积字典的字典原子可取5×5大小,浅层的网络就能提供足够的感受野,为通过多个尺度同时提取低维和高维特征,在卷积字典D求解网络的尾部添加多尺度模块。多尺度模块使用1×1卷积核降低特征通道数以减少参数量,用两个3×3卷积代替5×5卷积核在达到相同作用的同时继续减少参数量,经拼接操作融合多个尺度上提取的特征后,使用1×1卷积核进行降维。。卷积核初始化权重的实现方式为:随机初始化、高斯初始化等。批量归一化层的批量大小可根据模型收敛情况判定调节。激活函数可采用sigmoid函数,Relu函数,Leaky Relu函数,softplus等函数中的一种。
如图5、图7所示,卷积稀疏图X的求解网络以密集旁路下的U-Net结构为基础,相邻两层之间设有残差模块,每个残差模块包括多个残差单元。比如,128×128的图像,结合实际感受野占理论感受野的比重,每个残差模块包含4个残差单元。为防止图像经过下采样丢失过大的信息,卷积稀疏图X求解网络采用卷积下采样操作而不是传统的池化下采样,同样在上采样时使用卷积上采样。卷积稀疏图X求解网络的输入经包含n组k×k卷积核的残差模块,会产生n个大小为a×a的特征图,再经过卷积下采样操作,特征图大小减半,继续经包含2n组k×k卷积核的残差模块,会产生新的2n个大小为a/2×a/2的特征图,以此类推,到达网络的卷积上采样部分时特征图大小加倍,与卷积上采样相邻的残差模块中卷积核通道数逐层减半,网络最后一个卷积上采样操作衔接包含m组k×k卷积核的残差模块,输出学习更新后的m通道大小为a×a的卷积稀疏图。网络设计中的密集旁路连接部分是采用跨层连接方式连接两个有一定间隔的特征层,间隔的大小和旁路连接的个数可根据模型降噪情况判定调节。其中m为卷积稀疏图的输入和输出通道数;n为卷积层的卷积核数量,k×k为卷积核大小,m、n和k都可根据模型收敛情况灵活选取。
如图2所示,引入X'和D'作为辅助变量,迭代更新卷积稀疏图X和卷积字典D;在第t次迭代中,输入的含噪图像Y同前一次迭代后的卷积稀疏图X(t-1)、卷积字典D(t-1)和本次迭代的超参数αX(t),经辅助变量X'求解模块求解获得X'(t),X'(t)再与超参数βX(t)拼接,并用卷积稀疏图求解网络得出该次迭代后的卷积稀疏图X(t);含噪图像Y、超参数αD(t)、前一次迭代后的卷积字典D(t-1)和该次迭代后的卷积稀疏图X(t),经辅助变量D'求解模块求解获得D'(t),D'(t)与超参数βD(t)拼接并用卷积字典求解网络得出该次迭代后的D(t),D(t)与X(t)逐层卷积并求和以重构出该次迭代后的图像Y(t);所述超参数αX(t)、βX(t)、αD(t)、βD(t)均通过超参数预测模块获得。辅助变量X'求解模块与辅助变量D'求解模块分别基于快速傅里叶变换和最小二乘法,以求获得相应的闭合解。
每次迭代的损失函数由L1损失和MS-SSIM损失组成,两者比例的取值范围为[0,1];第一次迭代的损失函数权重记为1,其余T-1次迭代的损失函数权重记为
Figure BDA0003432331850000091
反向传播时使用所有T次迭代的损失函数总和,在模型稳定后保存预训练模型。本实施例中,使用的复合损失采用0.85倍的L1损失和0.15倍的MS-SSIM损失。
L1误差函数和MS-SSIM损失函数:
Figure BDA0003432331850000101
Figure BDA0003432331850000102
Figure BDA0003432331850000103
Figure BDA0003432331850000104
其中p为所处理图像P上的像素索引,
Figure BDA0003432331850000105
为图像P的中心像素,N为P上的像素点数量,x(p)和y(p)是预测图像和标签图像的像素值,μx和μy表示图像的平均值,σx和σy表示图像的标注差,σxy表示图像间的协方差,M为金字塔阶数,α和βj通常设为1。
步骤4:选取低剂量CT图像数据集,基于所述预训练模型在低剂量CT图像数据集上训练,直至获得降噪模型。
模型微调阶段可使用Mayo数据集中的正常剂量CT图作为标签,噪声图像为数据集中的模拟四分之一剂量CT图像。假设输入的低剂量CT图像大小为B×B,随机裁剪若干a×a大小的区域作为训练图像,结合旋转、镜像等数据增强操作以增大数据集。
调整学习率,用迁移学习的方式微调预训练模型。此时的噪声标准差σ通过相应的正常剂量CT图像和低剂量CT图像作差计算得到。选取合适的学习率,在预训练模型的基础上继续训练,基于预训练模型在低剂量CT图像数据集上训练,根据网络收敛情况调节初始学习率、学习率时衰减的迭代次数阈值和学习率衰减比例,以求稳定模型的同时缩短训练时间并克服低剂量CT图像有限的问题。观察验证集的降噪结果和损失函数变化,在模型达到最优时保存最终的降噪模型。
预训练和模型微调阶段的初始学习率及训练次数可根据网络的收敛情况判定调节,按照线性缩放规则,当批量大小batch_size增加为原来的N倍时,学习率应该增加为原来的N倍(比如batch_size=4时,预训练的学习率可初始化取值范围为[4e-5,8e-5],模型微调阶段的学习率可初始化取值范围为[1e-6,2e-6],训练次数初始化取值范围分别为[20,30]epoch和[10,20]epoch,也可根据验证集指标手动停止训练)。
网络参数更新的实现方式为:随机梯度下降算法(SGD算法)、Adam算法等,训练过程中,可根据网络的收敛情况和测试结果不断调节学习率、卷积核数量、卷积核大小,权重、网络层数等其中的一种或多种。
步骤5:基于所述降噪模型,对低剂量CT图像进行降噪处理。
测试时,假设测试图像大小为B×B,由于测试图像不再裁剪,卷积字典D的正则化强度需相应调整,即αD(t)缩放B/a倍。将测试图像依次输入到网络中,获得各自卷积字典和卷积稀疏图,输出降噪后的CT图像。
实施例二:
低剂量CT图像降噪装置
所述低剂量CT图像降噪装置用于执行上述的低剂量CT图像降噪方法。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。

Claims (10)

1.一种低剂量CT图像降噪方法,其特征在于,包括如下步骤:
步骤1:对图像数据集进行预处理;
步骤2:初始化卷积稀疏图X和卷积字典D;
步骤3:通过超参数预测模块产生每次的迭代参数;基于所述迭代参数,迭代更新卷积稀疏图X和卷积字典D,直至获得预训练模型;
步骤4:选取低剂量CT图像数据集,基于所述预训练模型在低剂量CT图像数据集上训练,直至获得降噪模型;
步骤5:基于所述降噪模型,对低剂量CT图像进行降噪处理。
2.根据权利要求1所述的低剂量CT图像降噪方法,其特征在于:步骤2中,通过初始化模块获得初始化卷积稀疏图X,所述初始化模块由不同卷积层的拼接和级联组成,输入带噪声图像和噪声标准差至所述初始化模块,获得初始化卷积稀疏图X,相应的卷积字典D用全0初始化。
3.根据权利要求1所述的低剂量CT图像降噪方法,其特征在于:步骤3中,超参数预测模块由两个卷积层和两个激活函数组成,输入噪声标准差至所述超参数预测模块,并将其和超参数预测模块末端的输出相乘,以获得更新卷积稀疏图X和卷积字典D所需的迭代参数。
4.根据权利要求1所述的低剂量CT图像降噪方法,其特征在于:步骤3中,卷积字典D的求解网络由4个卷积层、Relu激活函数和多尺度Inception模块组成。
5.根据权利要求1所述的低剂量CT图像降噪方法,其特征在于:步骤3中,卷积稀疏图X的求解网络以密集旁路连接下的U-Net结构为基础,相邻两层之间设有残差模块,每个残差模块包括多个残差单元。
6.根据权利要求1所述的低剂量CT图像降噪方法,其特征在于:步骤3中,引入X'和D'作为辅助变量,迭代更新卷积稀疏图X和卷积字典D;在第t次迭代中,输入的含噪图像Y同前一次迭代后的卷积稀疏图X(t-1)、卷积字典D(t-1)和超参数αX(t),经辅助变量X'求解模块求解获得X'(t),X'(t)再与超参数βX(t)拼接,并用卷积稀疏图求解网络得出该次迭代后的卷积稀疏图X(t);
含噪图像Y、超参数αD(t)、前一次迭代后的卷积字典D(t-1)和该次迭代后的卷积稀疏图X(t),经辅助变量D'求解模块求解获得D'(t),D'(t)与超参数βD(t)拼接并用卷积字典求解网络得出该次迭代后的D(t),D(t)与X(t)逐层卷积并求和以重构出该次迭代后的图像Y(t);
所述超参数αX(t)、βX(t)、αD(t)、βD(t)均通过超参数预测模块获得。
7.根据权利要求6所述的低剂量CT图像降噪方法,其特征在于:辅助变量X'求解模块与辅助变量D'求解模块分别基于快速傅里叶变换和最小二乘法,以求获得相应的闭合解。
8.根据权利要求1所述的低剂量CT图像降噪方法,其特征在于:步骤3中,每次迭代的损失函数由L1损失和MS-SSIM损失组成,两者比例的取值范围为[0,1];第一次迭代的损失函数权重记为1,其余T-1次迭代的损失函数权重记为
Figure FDA0003432331840000031
反向传播时使用所有T次迭代的损失函数总和。
9.根据权利要求1所述的低剂量CT图像降噪方法,其特征在于:步骤4中,基于预训练模型在低剂量CT图像数据集上训练,根据网络收敛情况调节初始学习率、学习率衰减时的迭代次数阈值和学习率衰减比例。
10.一种低剂量CT图像降噪装置,其特征在于,用于执行权利要求1-9任何一项所述的方法。
CN202111602471.6A 2021-12-24 2021-12-24 低剂量ct图像降噪方法及装置 Pending CN114283088A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111602471.6A CN114283088A (zh) 2021-12-24 2021-12-24 低剂量ct图像降噪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111602471.6A CN114283088A (zh) 2021-12-24 2021-12-24 低剂量ct图像降噪方法及装置

Publications (1)

Publication Number Publication Date
CN114283088A true CN114283088A (zh) 2022-04-05

Family

ID=80875278

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111602471.6A Pending CN114283088A (zh) 2021-12-24 2021-12-24 低剂量ct图像降噪方法及装置

Country Status (1)

Country Link
CN (1) CN114283088A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114757847A (zh) * 2022-04-24 2022-07-15 汕头市超声仪器研究所股份有限公司 多信息提取的扩展U-Net及其在低剂量X射线成像的应用方法
CN114781445A (zh) * 2022-04-11 2022-07-22 山东省人工智能研究院 一种基于可解释性的深度神经网络的心电信号降噪方法
CN115345803A (zh) * 2022-10-19 2022-11-15 合肥视微科技有限公司 基于残差网络的ct断层图中环形伪影校正方法
WO2023202265A1 (zh) * 2022-04-19 2023-10-26 腾讯科技(深圳)有限公司 用于伪影去除的图像处理方法、装置、设备、产品和介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114781445A (zh) * 2022-04-11 2022-07-22 山东省人工智能研究院 一种基于可解释性的深度神经网络的心电信号降噪方法
WO2023202265A1 (zh) * 2022-04-19 2023-10-26 腾讯科技(深圳)有限公司 用于伪影去除的图像处理方法、装置、设备、产品和介质
CN114757847A (zh) * 2022-04-24 2022-07-15 汕头市超声仪器研究所股份有限公司 多信息提取的扩展U-Net及其在低剂量X射线成像的应用方法
CN115345803A (zh) * 2022-10-19 2022-11-15 合肥视微科技有限公司 基于残差网络的ct断层图中环形伪影校正方法

Similar Documents

Publication Publication Date Title
US10984565B2 (en) Image processing method using convolutional neural network, image processing device and storage medium
CN114283088A (zh) 低剂量ct图像降噪方法及装置
US10970887B2 (en) Tomographic image reconstruction via machine learning
CN109035142B (zh) 一种对抗网络结合航拍图像先验的卫星图像超分辨方法
Yin et al. Highly accurate image reconstruction for multimodal noise suppression using semisupervised learning on big data
Chun et al. Convolutional analysis operator learning: Acceleration and convergence
Robert et al. Hybridnet: Classification and reconstruction cooperation for semi-supervised learning
WO2022041521A1 (zh) 基于教师-学生生成器的低剂量Sinogram去噪与PET图像重建方法
CN110728729A (zh) 一种基于注意机制的无监督ct投影域数据恢复方法
Jiang et al. Low-dose CT lung images denoising based on multiscale parallel convolution neural network
Kim et al. Unsupervised training of denoisers for low-dose CT reconstruction without full-dose ground truth
CN111325695B (zh) 基于多剂量等级的低剂量图像增强方法、系统及存储介质
CN115564649B (zh) 一种图像超分辨率重建方法、装置及设备
US20240161251A1 (en) Image denoising method and apparatus based on wavelet high-frequency channel synthesis
CN114648048B (zh) 基于变分自编码和PixelCNN模型的心电信号降噪方法
Liu et al. Multi-filters guided low-rank tensor coding for image inpainting
US20220164927A1 (en) Method and system of statistical image restoration for low-dose ct image using deep learning
CN114418987A (zh) 一种多阶段特征融合的视网膜血管分割方法及系统
Wen et al. The power of complementary regularizers: Image recovery via transform learning and low-rank modeling
CN116152373A (zh) 一种结合神经网络和卷积字典学习的低剂量ct图像重建方法
CN116703750A (zh) 基于边缘注意力和多阶微分损失的图像去雾方法及系统
CN112270650A (zh) 基于稀疏自编码器的图像处理方法、系统、介质、设备
Yang et al. Mixed noise removal by residual learning of deep cnn
CN114862982A (zh) 一种基于生成对抗网络的混合域无监督有限角ct重建方法
CN114219738A (zh) 单幅图像多尺度超分辨重建网络结构及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination