CN112489156B - 一种基于插值卷积神经网络的低剂量ct重建方法 - Google Patents

一种基于插值卷积神经网络的低剂量ct重建方法 Download PDF

Info

Publication number
CN112489156B
CN112489156B CN202011498450.XA CN202011498450A CN112489156B CN 112489156 B CN112489156 B CN 112489156B CN 202011498450 A CN202011498450 A CN 202011498450A CN 112489156 B CN112489156 B CN 112489156B
Authority
CN
China
Prior art keywords
interpolation
dose
projection
sinogram
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011498450.XA
Other languages
English (en)
Other versions
CN112489156A (zh
Inventor
杨波
牛培昕
郑文锋
刘珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011498450.XA priority Critical patent/CN112489156B/zh
Publication of CN112489156A publication Critical patent/CN112489156A/zh
Application granted granted Critical
Publication of CN112489156B publication Critical patent/CN112489156B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种基于插值卷积神经网络的低剂量CT重建方法,利用插值卷积神经网络在超分辨率重建上的应用,通过插值卷积神经网络预测CT投影正弦图上缺失的投影数据,再加上已知的投影数据,得到完备的CT投影正弦图,最后再经过滤波反投影得到重建的CT图像,这样可以有效地去除低剂量CT图像上的噪声,得到更好的重建效果。

Description

一种基于插值卷积神经网络的低剂量CT重建方法
技术领域
本发明属于图像处理技术领域,更为具体地讲,涉及一种基于插值卷积神经网络的低剂量CT重建方法。
背景技术
目前,人们对CT辐射剂量对人体可能造成的潜在危害问题越来越重视。通过降低管电流强度(低剂量CT)和减少采样的次数(稀疏角度CT),能够实现降低辐射剂量。但这样破坏了投影数据的完备性,由传统重建算法直接重建出的图像质量会严重退化。因此,如何在降低辐射剂量的同时保证重建图像的质量成为近年来CT研究的一个热点。
针对于低剂量投影数据中的噪声的问题和重建图像中出现条形伪影和噪声的问题,从解决方法上,可以分为投影域数据恢复和图像后处理方法。本发明针对投影域的噪声,提出一种基于插值卷积神经网络的低剂量CT重建方法。降低采样角度后,对角度缺失的投影数据进行插值后再进行滤波反投影重建,得到重建的CT图像。
随着深度学习的发展,将卷积神经网络应用于投影数据的恢复引起了广大研究者的兴趣。正弦图像中的每一列都对应于一个角度的投影值,降低采样角度后,正弦图信息缺失,重建的CT图像会出现伪影。本说明受到基于卷积神经网络的超分辨率技术的启发,将超分辨率技术应用于投影数据重建,重建完备的投影数据,优化CT重建效果。
超分辨率就是有一张尺寸比较小的图,当我们将其放大的时候,会出现模糊的现象,超分辨率重建就是将放大之后的图像尽可能地清晰。ESPCN又称亚像素卷积神经网络,是一种应用于超分辨率分析的神经网络模型,可以直接在低分辨率图像尺寸上提取特征,计算得到高分辨率图像。利用超分辨率网络在性能上的优势,对角度缺失的投影数据进行插值后再进行滤波反投影重建,得到重建的CT图像。有了更加完整的投影数据,可以得到更好的重建效果。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于插值卷积神经网络的低剂量CT重建方法,利用超分辨率网络在性能上的优势,对角度缺失的投影数据进行插值后再进行滤波反投影重建,得到重建的CT图像。
为实现上述发明目的,本发明一种基于插值卷积神经网络的低剂量CT重建方法,其特征在于,包括以下步骤:
(1)、构建训练数据集
(1.1)、采集不同患者的标准剂量CT图像,对每张图像进行Radon变换,得到标准剂量的投影正弦图;
(1.2)、将投影正弦图量化至(0,1),然后提取其奇数列,得到模拟的低剂量投影正弦图,剩余的偶数列作为期望插值图;
(1.3)、将低剂量投影正弦图与期望插值图用大小为M×N的滑窗,按纵向步长M-h,横向步长N-h进行滑动分块,滑动分块后得到若干组M×N的低剂量投影正弦图块与期望插值图像块,其中h为偶数,h=L1+L2+L3-3,L1,L2,L3为插值卷积神经网络模型中各层卷积核的尺寸;
(1.4)、对每一组M×N的期望插值图像块进行边界裁剪,截取中心为(M-h)×(N-h)的区域,得到样本期望插值图像块;
(1.5)、将每一组低剂量投影正弦图记为Xi,每一组样本期望插值图块记为Yi,然后将其构成训练数据集中的一个样本记为{Xi,Yi},下标i表示样本组数;
(2)、构建插值卷积神经网络模型
插值卷积神经网络模型由三层卷积层组成,其中,第一层采用c1个L1×L1卷积核,滤波步长为1,第二层采用c2个L2×L2×c1的卷积核,步长为1,第三层采用1个L3×L3×c2的卷积核,步长为1,每层卷积后取有效区并采用Sigmoid函数激活;
(3)、训练插值卷积神经网络模型
训练数据集中选取一组训练样本{Xi,Yi},将Xi输入至插值卷积神经网络模型,经第一层卷积后得到c1张(M-L1+1)×(N-L1+1)的特征图,再经过第二层卷积后得到c2张(M-L1-L2+2)×(N-L1-L2+2)的特征图,最后经过第三层卷积后输出一张(M-h)×(N-h)的预测插值图Yi *;然后计算预测插值图Yi *与样本期望插值图Yi之间的像素误差的平方和,以像素误差的平方和为损失值,利用梯度下降算法对插值卷积神经网络进行权重更新;再选取下一组训练样本重复上述步骤,直至遍历所有训练样本完成一轮训练;判断所有训练样本的累积像素误差平方和是否小于预设阈值,如果小于,则训练结束,得到训练完成的插值卷积神经网络模型;否则,进行下一轮训练,直到累积像素误差的平方和小于预设阈值时,训练结束;
(4)、利用插值卷积神经网络重建低剂量CT图像
(4.1)、实时CT扫描时,仅在标准剂量CT的奇数投影角度进行采样,获得低剂量投影正弦图Po,设其大小为M1×N1
(4.2)、对低剂量投影正弦图Po进行列扩展:复制原图Po的前1~(h/2)列到Po的末端,扩展出第(N1+1)~(N1+h/2)列,再复制原图Po最后的(N1-h/2+1)~N1列到Po的前端,扩展出第1~(h/2)列,从而得到列扩展后的低剂量投影正弦图P1
(4.3)、对低剂量投影正弦图P1进行行扩展,其中上下各扩展(h/2)行,扩展行的元素值均用零填充,最终得到(M1+h)×(N1+h)的扩展正弦图Pg
(4.4)、将扩展正弦图Pg输入至训练好的插值卷积神经网络,得到偶数投影角度的预测正弦图Pe,其大小为M1×N1
(4.5)、以低剂量投影正弦图Po各列为奇数行,预测正弦图Pe各列依次作为偶数行,组合得到M1×(2N1)的标准剂量投影正弦图P;
(4.6)、将标准剂量投影正弦图P量化至原图像空间,并进行反Radon变换,得到重建的CT图像。
本发明的发明目的是这样实现的:
本发明为一种基于插值卷积神经网络的低剂量CT重建方法,利用插值卷积神经网络在超分辨率重建上的应用,通过插值卷积神经网络预测CT投影正弦图上缺失的投影数据,再加上已知的投影数据,得到完备的CT投影正弦图,最后再经过滤波反投影得到重建的CT图像,这样可以有效地去除低剂量CT图像上的噪声,得到更好的重建效果。
同时,本发明基于插值卷积神经网络的低剂量CT重建方法还具有以下有益效果:
(1)、本发明受到插值卷积神经网络在超分辨率应用上的启发,在CT图像的正弦域上重建完备的投影数据,再经过滤波反投影算法得到重建的CT图像,可以有效地去除低剂量CT图像上的噪声,得到更好的重建效果;
(2)、本发明仅需要用神经网络预测缺失部分的投影数据,然后与已知的投影数据组合,可以得到完备的投影数据图像;相较于用神经网络直接输出完备的投影数据图像,可以减小网络计算量,加快了速度;
(3)、本发明采用全卷积网络作为去噪网络,这样不受输入图像尺寸的影响,可以直接输入完整的CT图像进行去噪,这样使用图像块进行训练可以加快网络的训练速度;
(4)、完整的CT图像数量有限,可能导致训练的网络过拟合,但将完整的CT图像裁剪为图像块,增加训练样本的数量,可以产生更好的学习效果,增加网络模型稳定性。
附图说明
图1是本发明一种基于插值卷积神经网络的低剂量CT重建方法流程图;
图2是构建训练数据集的流程图;
图3是利用插值卷积神经网络重建低剂量CT图像的流程图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明一种基于插值卷积神经网络的低剂量CT重建方法流程图。
在本实施例中,如图1所示,本发明一种基于插值卷积神经网络的低剂量CT重建方法,包括以下步骤:
S1、构建训练数据集,具体如图2所示,包括以下步骤:
S1.1、采集不同患者的标准剂量CT图像,对每张图像进行Radon变换,得到标准剂量的投影正弦图;
S1.2、将投影正弦图量化至(0,1),从而得到512×512的标准剂量投影正弦图;
S1.3、提取其奇数列,得到模拟的低剂量投影正弦图,大小为512×256,剩余的偶数列作为期望插值图,大小为512×256;
S1.4、将低剂量投影正弦图与期望插值图用大小为M×N=16×16的滑窗,按纵向步长M-h=8,横向步长N-h=8进行滑动分块,滑动分块后得到1953组16×16的低剂量投影正弦图块与期望插值图像块;
S1.5、对每一组16×16的期望插值图像块进行边界裁剪,截取中心为8×8的区域,得到样本期望插值图像块;
S1.6、将每一组低剂量投影正弦图记为Xi,每一组样本期望插值图块记为Yi,然后将其构成训练数据集中的一个样本记为{Xi,Yi},下标i表示样本组数,最终每张CT切片形成1953个训练样本;
S2、构建插值卷积神经网络模型
插值卷积神经网络模型由三层卷积层组成,其中,第一层采用c1=64个L1×L1=5×5卷积核,滤波步长为1,第二层采用c2=32个L2×L2×c1=3×3×64的卷积核,步长为1,第三层采用1个L3×L3×c2=3×3×32的卷积核,步长为1,每层卷积后取有效区并采用Sigmoid函数激活;
S3、训练插值卷积神经网络模型
训练数据集中选取一组训练样本{Xi,Yi},将Xi输入至插值卷积神经网络模型,对于16×16的输入图像,经第一层卷积后得到64张12×12的特征图;经第二层卷积后得到32张10×10的特征图;经第三层卷积后最终输出1张8×8的预测插值图Yi *;然后计算预测插值图Yi *与样本期望插值图Yi之间的像素误差的平方和,以像素误差的平方和为损失值,利用梯度下降算法对插值卷积神经网络进行权重更新;再选取下一组训练样本重复上述步骤,直至遍历所有训练样本完成一轮训练;判断所有训练样本的累积像素误差平方和是否小于预设阈值,如果小于,则训练结束,得到训练完成的插值卷积神经网络模型;否则,进行下一轮训练,直到累积像素误差的平方和小于预设阈值时,训练结束;
S4、利用插值卷积神经网络重建低剂量CT图像,具体如图3所示,包括以下步骤:
S4.1、实时CT扫描时,仅在标准剂量CT的奇数投影角度进行采样,获得低剂量投影正弦图Po,设其大小为M1×N1=512×256;
S4.2、对低剂量投影正弦图Po进行列扩展:复制原图Po的前1~4列到Po的末端,扩展出第257~260列,再复制原图Po最后的253~256列到Po的前端,扩展出第1~4列,从而得到列扩展后的低剂量投影正弦图P1
S4.3、对低剂量投影正弦图P1进行行扩展,其中上下各扩展4行,扩展行的元素值均用零填充,最终得到520×264的扩展正弦图Pg
S4.4、将扩展正弦图Pg输入至训练好的插值卷积神经网络,得到偶数投影角度的预测正弦图Pe,其大小为512×256;
S4.5、以低剂量投影正弦图Po各列为奇数行,预测正弦图Pe各列依次作为偶数行,组合得到512×512的标准剂量投影正弦图P;
S4.6、将标准剂量投影正弦图P量化至原图像空间,并进行反Radon变换,得到重建的CT图像。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (1)

1.一种基于插值卷积神经网络的低剂量CT重建方法,其特征在于,包括以下步骤:
(1)、构建训练数据集
(1.1)、采集不同患者的标准剂量CT图像,对每张图像进行Radon变换,得到标准剂量的投影正弦图;
(1.2)、将投影正弦图量化至(0,1),然后提取其奇数列,得到模拟的低剂量投影正弦图,剩余的偶数列作为期望插值图;
(1.3)、将低剂量投影正弦图与期望插值图用大小为M×N的滑窗,按纵向步长M-h,横向步长N-h进行滑动分块,滑动分块后得到若干组M×N的低剂量投影正弦图块与期望插值图像块,其中h为偶数,h=L1+L2+L3-3,L1,L2,L3为插值卷积神经网络模型中各层卷积核的尺寸;
(1.4)、对每一组M×N的期望插值图像块进行边界裁剪,截取中心为(M-h)×(N-h)的区域,得到样本期望插值图像块;
(1.5)、将每一组低剂量投影正弦图记为Xi,每一组样本期望插值图块记为Yi,然后将其构成训练数据集中的一个样本记为{Xi,Yi},下标i表示样本组数;
(2)、构建插值卷积神经网络模型
插值卷积神经网络模型由三层卷积层组成,其中,第一层采用c1个L1×L1卷积核,滤波步长为1,第二层采用c2个L2×L2×c1的卷积核,步长为1,第三层采用1个L3×L3×c2的卷积核,步长为1,每层卷积后取有效区并采用Sigmoid函数激活;
(3)、训练插值卷积神经网络模型
从训练数据集中选取一组训练样本{Xi,Yi},将Xi输入至插值卷积神经网络模型,经第一层卷积后得到c1张(M-L1+1)×(N-L1+1)的特征图,再经过第二层卷积后得到c2张(M-L1-L2+2)×(N-L1-L2+2)的特征图,最后经过第三层卷积后输出一张(M-h)×(N-h)的预测插值图然后计算预测插值图与样本期望插值图Yi之间的像素误差的平方和,以像素误差的平方和为损失值,利用梯度下降算法对插值卷积神经网络进行权重更新;再选取下一组训练样本重复上述步骤,直至遍历所有训练样本完成一轮训练;判断所有训练样本的累积像素误差平方和是否小于预设阈值,如果小于,则训练结束,得到训练完成的插值卷积神经网络模型;否则,进行下一轮训练,直到累积像素误差的平方和小于预设阈值时,训练结束;
(4)、利用插值卷积神经网络重建低剂量CT图像
(4.1)、实时CT扫描时,仅在标准剂量CT的奇数投影角度进行采样,获得低剂量投影正弦图Po,设其大小为M1×N1
(4.2)、对低剂量投影正弦图Po进行列扩展:复制原图Po的前1~(h/2)列到Po的末端,扩展出第(N1+1)~(N1+h/2)列,再复制原图Po最后的(N1-h/2+1)~N1列到Po的前端,扩展出第1~(h/2)列,从而得到列扩展后的低剂量投影正弦图P1
(4.3)、对低剂量投影正弦图P1进行行扩展,其中上下各扩展(h/2)行,扩展行的元素值均用零填充,最终得到(M1+h)×(N1+h)的扩展正弦图Pg
(4.4)、将扩展正弦图Pg输入至训练好的插值卷积神经网络,得到偶数投影角度的预测正弦图Pe,其大小为M1×N1
(4.5)、以低剂量投影正弦图Po各列为奇数行,预测正弦图Pe各列依次作为偶数行,可以组合得到M1×(2N1)的标准剂量投影正弦图P;
(4.6)、将标准剂量投影正弦图P量化至原图像空间,并进行反Radon变换,得到重建的CT图像。
CN202011498450.XA 2020-12-17 2020-12-17 一种基于插值卷积神经网络的低剂量ct重建方法 Active CN112489156B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011498450.XA CN112489156B (zh) 2020-12-17 2020-12-17 一种基于插值卷积神经网络的低剂量ct重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011498450.XA CN112489156B (zh) 2020-12-17 2020-12-17 一种基于插值卷积神经网络的低剂量ct重建方法

Publications (2)

Publication Number Publication Date
CN112489156A CN112489156A (zh) 2021-03-12
CN112489156B true CN112489156B (zh) 2023-04-18

Family

ID=74916555

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011498450.XA Active CN112489156B (zh) 2020-12-17 2020-12-17 一种基于插值卷积神经网络的低剂量ct重建方法

Country Status (1)

Country Link
CN (1) CN112489156B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115953494B (zh) * 2023-03-09 2023-05-30 南京航空航天大学 基于低剂量和超分辨率的多任务高质量ct图像重建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898642A (zh) * 2018-06-01 2018-11-27 安徽工程大学 一种基于卷积神经网络的稀疏角度ct成像方法
CN110288671A (zh) * 2019-06-25 2019-09-27 南京邮电大学 基于三维对抗性生成网络的低剂量cbct图像重建方法
CN110992295A (zh) * 2019-12-20 2020-04-10 电子科技大学 基于小波-red卷积神经网络的低剂量ct重建方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109300166B (zh) * 2017-07-25 2023-04-25 同方威视技术股份有限公司 重建ct图像的方法和设备以及存储介质
US10937206B2 (en) * 2019-01-18 2021-03-02 Canon Medical Systems Corporation Deep-learning-based scatter estimation and correction for X-ray projection data and computer tomography (CT)

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898642A (zh) * 2018-06-01 2018-11-27 安徽工程大学 一种基于卷积神经网络的稀疏角度ct成像方法
CN110288671A (zh) * 2019-06-25 2019-09-27 南京邮电大学 基于三维对抗性生成网络的低剂量cbct图像重建方法
CN110992295A (zh) * 2019-12-20 2020-04-10 电子科技大学 基于小波-red卷积神经网络的低剂量ct重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Zhiping Qu等.Sparse-View CT Reconstruction Based on Mojette Transfrom Using Convolutional Neural Network.《2019 IEEE 16th International Symposium on Biomedical Imaging (ISBI 2019)》.2019,第1664-1668页. *
牛培昕等.基于深度学习的低剂量CT重建方法研究.《中国优秀硕士学位论文全文数据库 医药卫生科技辑》.2022,第E060-448页. *
邓春燕等.基于神经网络学习的锥形束CT图像超分辨率重建算法.《中国医学物理学杂志》.2020,第878-882页. *

Also Published As

Publication number Publication date
CN112489156A (zh) 2021-03-12

Similar Documents

Publication Publication Date Title
CN110660123B (zh) 基于神经网络的三维ct图像重建方法和设备以及存储介质
CN108492269B (zh) 基于梯度正则卷积神经网络的低剂量ct图像去噪方法
CN107481297B (zh) 一种基于卷积神经网络的ct图像重建方法
CN109509235B (zh) Ct图像的重建方法、装置、设备及存储介质
CN112435309A (zh) 一种基于深度学习的增强ct图像质量和分辨率的方法
CN111553867B (zh) 一种图像去模糊方法、装置、计算机设备及存储介质
CN112396672B (zh) 一种基于深度学习的稀疏角度锥束ct图像重建方法
CN109146813B (zh) 一种多任务图像重建方法、装置、设备和介质
Cao et al. New architecture of deep recursive convolution networks for super-resolution
CN112489156B (zh) 一种基于插值卷积神经网络的低剂量ct重建方法
CN113516586A (zh) 一种低剂量ct图像超分辨率去噪方法和装置
He et al. Remote sensing image super-resolution using deep–shallow cascaded convolutional neural networks
Ma et al. Generalized Gibbs priors based positron emission tomography reconstruction
CN111553861B (zh) 一种图像超分辨率重构方法、装置、设备及可读存储介质
Hou et al. CT image quality enhancement via a dual-channel neural network with jointing denoising and super-resolution
CN111369433A (zh) 基于可分离卷积和注意力的三维图像超分辨率重建方法
KR102357350B1 (ko) 딥러닝을 이용한 저선량 ct 영상의 통계적 영상 복원 방법 및 시스템
Chan et al. An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction
CN117575915A (zh) 一种图像超分辨率重建方法、终端设备及存储介质
CN109118555B (zh) 计算机断层成像的金属伪影校正方法和系统
Fan et al. Single image super resolution method based on edge preservation
Hu et al. Super-resolution PET image reconstruction with sparse representation
CN114170087A (zh) 一种基于跨尺度低秩约束的图像盲超分辨率方法
Li Simplified square to hexagonal lattice conversion based on 1-D multirate processing
CN116312983B (zh) 基于噪声生成机制的隐正则化低剂量ct图像重建方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant