CN117372565A - 一种基于神经网络时相判别的呼吸门控ct成像方法 - Google Patents

一种基于神经网络时相判别的呼吸门控ct成像方法 Download PDF

Info

Publication number
CN117372565A
CN117372565A CN202311660344.0A CN202311660344A CN117372565A CN 117372565 A CN117372565 A CN 117372565A CN 202311660344 A CN202311660344 A CN 202311660344A CN 117372565 A CN117372565 A CN 117372565A
Authority
CN
China
Prior art keywords
projection data
time phase
neural network
original projection
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311660344.0A
Other languages
English (en)
Other versions
CN117372565B (zh
Inventor
杨义瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Ruishi Medical Technology Co ltd
Original Assignee
Hefei Ruishi Medical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Ruishi Medical Technology Co ltd filed Critical Hefei Ruishi Medical Technology Co ltd
Priority to CN202311660344.0A priority Critical patent/CN117372565B/zh
Publication of CN117372565A publication Critical patent/CN117372565A/zh
Application granted granted Critical
Publication of CN117372565B publication Critical patent/CN117372565B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/541Control of apparatus or devices for radiation diagnosis involving acquisition triggered by a physiological signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及生命科学和医学影像设备技术领域,尤其涉及一种基于神经网络时相判别的呼吸门控CT成像方法;包括以下步骤:S1、根据原始投影数据,构建并训练基于深度神经网络的时相判别模型;S2、利用基于深度神经网络的时相判别模型对新输入的原始投影数据的时相进行分组,得到相应的原始投影数据的时相分组;S3、对原始投影数据的时相分组进行重建,得到重建CT图像;在现有的Micro‑CT设备基础上,不依赖于外部增设的门控装置,仅从投影数据中进行快速自动门控,且易于实现,门控可以作为后处理步骤来执行,而不需要对现有硬件设备进行更改,利用人工智能可以快速准确实现自动门控,进而提高了成像速率。

Description

一种基于神经网络时相判别的呼吸门控CT成像方法
技术领域
本发明涉及生命科学和医学影像设备技术领域,尤其涉及一种基于神经网络时相判别的呼吸门控CT成像方法。
背景技术
计算机断层成像(computed tomography,CT)系统主要由X射线球管、平板探测器或者多排阵列探测器、旋转系统和图像处理系统等组成。由于其具有成像速度快、易于集成等优势,CT成像系统在科研和临床中应用广泛,如科研用的动物CT成像系统、临床64排螺旋CT成像系统。然而,CT扫描时,由于动物或患者呼吸引起的运动,导致重建的图像出现运动伪影,降低了图像质量,进而限制CT的应用场景。为得到高质量的CT图像,需要开发新的方法和技术来抑制运动伪影。
基于硬件的呼吸门控依据外接硬件设备探测的呼吸信号,进行时相分割、截取,然后将所有呼吸周期中同一时相的投影数据进行合并重建,获得多幅或单幅“静止”CT图像,从而减少运动伪影,改善CT图像的分辨率、信噪比及对比度。用这个方法,可提高CT图像中器官和病灶边界识别的准确性,从而提升诊断和疗效评价的准确性。
基于软件的呼吸门控则基于图像处理方法从采集投影数据流中分析、计算呼吸门控信号。计算的方法包括主成分分析法(PCA)、质心法(COM)、谱分析法(SAM)等等。
但是现有CT设备在进行呼吸门控的时候,外部增设门控装置不便,且成本昂贵,而传统的基于软件的呼吸门控方法图像处理速度较慢,影响成像的效率。
因此,亟需提供一种基于神经网络时相判别的呼吸门控CT成像方法,相对于现有技术,实现自动门控,以及提高成像速率。
发明内容
本发明解决现有技术存在的技术问题,本发明提供了一种基于神经网络时相判别的呼吸门控CT成像方法。
为实现上述目的,本发明采用的技术方案如下:
一种基于神经网络时相判别的呼吸门控CT成像方法,包括以下步骤:
S1、构建并训练基于深度神经网络的时相判别模型;
S2、向基于深度神经网络的时相判别模型中输入原始投影数据,利用基于深度神经网络的时相判别模型对新输入的原始投影数据的时相进行分组,得到相应的原始投影数据的时相分组;
S3、对原始投影数据的时相分组进行重建,得到重建CT图像,具体方法为:对每组原始投影数据的时相分组进行插值,然后采用滤波反投影方法对插值后的原始投影数据的时相分组进行处理后获得重建CT图像。
进一步地,S1还包括以下步骤:
S201、使用CT设备对待测目标旋转扫描,获取原始投影数据;
S202、在获取的原始投影数据中设定固定的感兴趣区域;
S203、根据所设定的感兴趣区域,对原始投影数据进行分组,得到原始投影数据的时相分组;
S204、选择训练样本数据,对原始投影数据进行归一化处理后得到归一化后的投影数据,设定归一化后的投影数据作为深度神经网络的输入图像,原始投影数据所属的时相作为深度神经网络的输出结果,将归一化后的投影数据和原始投影数据所属的时相作为一个训练样本数据;
S205、将训练样本数据输入深度神经网络进行训练,构建基于深度神经网络的时相判别模型。
更进一步地,S203具体包括以下步骤:
S2031、计算得出原始投影数据中运动靶区在所选感兴趣区域上的位置;
S2032、将原始投影数据中运动靶区在所选的感兴趣区域上的位置与相应的投影角度绘制成曲线;
S2033、根据绘制的曲线对原始投影数据进行分组,获得原始投影数据的时相分组,i=1,2,3,…,n,n为呼吸时相个数,i表示呼吸时相。
更进一步地,对原始投影数据进行分组的具体方法为:将绘制的曲线的纵坐标划分多个区域,区域的数量对应i,划分后的区域形成了原始投影数据的时相分组,每个分组中包含同一相位的多角度呼吸投影图。
更进一步地,原始投影数据中运动靶区在所选感兴趣区域上的位置通过下式计算得出:
上式中,表示原始投影数据中运动靶区在所选感兴趣区域上的位置;P表示原始投影数据;/>表示原始投影数据的像素值;Z表示原始投影数据的像素值沿Z方向的位置;表示原始投影数据的像素值乘以其沿Z方向的位置得到的加权投影值,M表示感兴趣区域的像素值总和。
更进一步地,通过下式对原始投影数据进行归一化处理:
上式中,表示第j张归一化后的投影数据,/>表示第j张原始投影数据,/>表示第j张原始投影图像中的最小值,/>表示第j张原始投影图像中的最大值。
更进一步地,所述深度神经网络采用多尺度Resnte网络架构,所述多尺度Resnte网络架构包括多个多尺度级联卷积模块和时相感知模块,所述多尺度级联卷积模块包括多尺度并联卷积模块和下采样模块;
所述多尺度并联卷积模块用于处理输入的图像、提取多尺度图像特征;
所述下采样模块用于缩小深度神经网络参数、最大程度的保留图像特征;
所述时相感知模块用于提取图像特征后输出最终的时相分类结果。
更进一步地,所述多尺度并联卷积模块包括四层并联设置的卷积层,四层并联设置的卷积层依次为卷积核为的卷积层、卷积核为/>的卷积层、卷积核为/>的卷积层、卷积核为/>且扩展率为2的卷积层。
更进一步地,所述下采样模块包括卷积核为、步长为2的卷积层。
更进一步地,所述时相感知模块包括池化层和线性输出层,所述池化层还包括并联设置的全局最大池化层和全局平均池化层;所述池化层用于提取图像特征,所述线性输出层用于输出最终的时相分类结果。
与现有技术相比,本发明的有益效果为:
(1)本发明在现有的Micro-CT设备基础上,不依赖于外部增设的门控装置,仅从投影数据中进行快速自动门控,且易于实现,实现了自动门控。本发明提供的方法意味着门控可以作为后处理步骤来执行,而不需要对现有硬件设备进行任何更改,相较于传统算法,利用人工智能可以快速准确实现自动门控,进而也提高了成像速率。
附图说明
图1是本发明整体步骤的流程图。
图2是本发明表示原始投影数据中运动靶区在所选的感兴趣区域上的位置与相应的投影角度关系的示意图。
图3是本发明深度神经网络的结构框图。
图4是本发明多尺度级联卷积模块的结构框图。
图5是本发明时相感知模块的结构框图。
具体实施方式
下面将结合附图说明对本发明的技术方案进行清楚的描述,显然,所描述的实施例并不是本发明的全部实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
如图1所示,本发明提供一种基于神经网络时相判别的呼吸门控CT成像方法,包括以下步骤:
S1、构建并训练基于深度神经网络的时相判别模型。具体包括以下步骤:
S101、获取原始投影数据:使用现有CT设备对待测目标旋转扫描,获取二维的原始投影数据,记作P;上述CT设备采用平板探测器或者多排阵列探测器,可直接获取原始投影数据P。
S102、设定固定的感兴趣区域:在获取到的原始投影数据P中设定固定的感兴趣区域,感兴趣区域包含因呼吸运动而导致发生较大变化的区域;具体地说,感兴趣区域包括覆盖运动靶区区域和覆盖运动靶区相邻结构区域,运动靶区可分为隔膜和其他运动靶区,本发明中的感兴趣区域优选包括覆盖隔膜区域和覆盖隔膜相邻结构区域,但本发明也适用于其他除了隔膜以外的运动靶区。同时,感兴趣区域具备足够的面积,使得感兴趣区域能够覆盖待测目标的运动幅度。
S103、通过对原始投影数据分组获得原始投影数据的时相分组:根据感兴趣区域,为原始投影数据P进行分组,得到原始投影数据的时相分组,具体方法为:
S1031、通过下式计算得出原始投影数据中的全部数据在感兴趣区域中沿Z方向上的质心位置或任意选取的一点或任意选取的一个区域,本实施例中优选质心位置,也即为原始投影数据中运动靶区在所选感兴趣区域上的位置,该位置反映了运动靶区沿Z方向的呼吸偏移:
上式中,表示原始投影数据中运动靶区在所选感兴趣区域上的位置;P表示原始投影数据;/>表示原始投影数据的像素值;Z表示原始投影数据的像素值沿Z方向的位置;表示原始投影数据的像素值乘以其沿Z方向的位置得到的加权投影值,M表示感兴趣区域的像素值总和。
另外,还可以通过采用手动寻找的方法得到。
S1032、将原始投影数据中运动靶区在所选的感兴趣区域上的位置与相应的投影角度绘制成曲线(如图2所示),随投影角度的变化反应了呼吸的相位变化。
S1033、随后根据绘制的曲线对原始投影数据P进行分组,获得原始投影数据的时相分组,i=1,2,3,…,n,n为呼吸时相个数,i表示呼吸时相。
具体地说,将绘制出的曲线按照纵坐标的不同划分成多个区域,区域的数量是i,划分后的区域形成了,例如划分成4个区域则有/>、/>、/>与/>,四个原始投影数据的时相分组,每个分组内包含了同一相位的多角度呼吸投影图。
S104、选取训练样本数据,对原始数据P进行归一化处理得到归一化后的投影数据N,其中,归一化公式如下:
上式中,表示第j张归一化后的投影数据,/>表示第j张原始投影数据,/>表示第j张原始投影图像中的最小值,/>表示第j张原始投影图像中的最大值。
使用归一化后的投影数据N作为深度神经网络的输入图像,使用原始投影数据P所属的时相i作为深度神经网络的输出结果,将投影数据N和相应的时相i作为一个训练样本数据。
S105、如图3所示,输入训练样本数据并训练模型:将训练样本数据输入深度神经网络进行训练,构建基于深度神经网络的时相判别模型。
深度神经网络采用多尺度Resnet网络架构,多尺度Resnet网络架构包括多个多尺度级联卷积模块和时相感知模块,本发明优选设置四个多尺度级联卷积模块,分别为多尺度卷积模块1、多尺度卷积模块2、多尺度卷积模块3、多尺度卷积模块4。
其中,如图4、图5所示,多尺度级联卷积模块包括多尺度并联卷积模块和一个下采样模块,多尺度并联卷积模块包括四层并联卷积层;四层并联卷积层依次为卷积核为的卷积层、卷积核为/>的卷积层、卷积核为/>的卷积层、卷积核为/>且扩展率为2的卷积层;通过并联不用尺度的卷积层可以更好的处理输入图片,提取多尺度图像特征。卷积核为/>的卷积层及简单的残差结构可以缓解深度神经网络在训练过程中梯度消失的问题,还能加速深度神经网络收敛;通过扩张率为2的卷积层可以增加深度神经网络的感受野,避免传统池化操作导致的信息丢失。下采样模块为卷积核为/>、步长为2的卷积层,可以在缩小深度神经网络参数的同时,最大程度的保留了图像特征。
时相感知模块包括池化层和线性输出层,池化层还包括全局最大池化层和全局平均池化层,全局最大池化层和全局平均池化层并联设置;通过并联的全局最大池化层和全局平均池化层可以尽可能提取丰富且多样的图像特征,将池化层提取的图像特征输入线性输出层即可得到最终的时相分类结果。
进一步说,考虑到在实际扫面中的位置可能有所不同,因此在原始训练样本数据基础上进行数据增强,随机进行一定程度的平移、旋转,以模拟真实扫描位置和状态并能避免Resnet发生过拟合,通过训练可以调节Resnet各网络层的参数使得深度神经网络输出的时相结果与训练样本数据中的真实时相结果差异最小,这种差异包括但不限于交叉熵。
S2、利用基于深度神经网络的时相判别模型对新输入的原始投影数据P的时相进行分组,得到相应的原始投影数据的时相分组。
S3、对原始投影数据的时相分组分别进行重建,得到重建CT图像,具体方法为:对每组原始投影数据的时相分组进行插值,然后采用滤波反投影方法对插值后的原始投影数据的时相分组进行处理后获得重建CT图像。
本发明的方法不局限于CT成像,也可以用于核医学成像、磁共振成像、超声成像等其他成像方法的呼吸门控图像重建中。
本发明在现有的Micro-CT设备基础上,不依赖于外部增设的门控装置,仅从投影数据中进行快速自动门控,且易于实现,实现了自动门控。本发明所述方法意味着门控可以作为后处理步骤来执行,而不需要对现有硬件设备进行任何更改,相较于传统算法,本发明提供的方法利用人工智能可以快速准确实现自动门控。进而也提高了成像速率。
最后应当说明的是,以上内容仅用以说明本发明的技术方案,而非对本发明保护范围的限制,本领域的普通技术人员对本发明的技术方案进行的简单修改或者等同替换,均不脱离本发明技术方案的实质和范围。

Claims (10)

1.一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,包括以下步骤:
S1、构建并训练基于深度神经网络的时相判别模型;
S2、向基于深度神经网络的时相判别模型中输入原始投影数据,利用基于深度神经网络的时相判别模型对新输入的原始投影数据的时相进行分组,得到相应的原始投影数据的时相分组;
S3、对原始投影数据的时相分组进行重建,得到重建CT图像,具体方法为:对每组原始投影数据的时相分组进行插值,然后采用滤波反投影方法对插值后的原始投影数据的时相分组进行处理后获得重建CT图像。
2.根据权利要求1所述的一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,S1还包括以下步骤:
S201、使用CT设备对待测目标旋转扫描,获取原始投影数据;
S202、在获取的原始投影数据中设定固定的感兴趣区域;
S203、根据所设定的感兴趣区域,对原始投影数据进行分组,得到原始投影数据的时相分组;
S204、选择训练样本数据,对原始投影数据进行归一化处理后得到归一化后的投影数据,设定归一化后的投影数据作为深度神经网络的输入图像,原始投影数据所属的时相作为深度神经网络的输出结果,将归一化后的投影数据和原始投影数据所属的时相作为一个训练样本数据;
S205、将训练样本数据输入深度神经网络进行训练,构建基于深度神经网络的时相判别模型。
3.根据权利要求2所述的一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,S203具体包括以下步骤:
S2031、计算得出原始投影数据中运动靶区在所选感兴趣区域上的位置;
S2032、将原始投影数据中运动靶区在所选的感兴趣区域上的位置与相应的投影角度绘制成曲线;
S2033、根据绘制的曲线对原始投影数据进行分组,获得原始投影数据的时相分组,i=1,2,3,…,n,n为呼吸时相个数,i表示呼吸时相。
4.根据权利要求3所述的一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,对原始投影数据进行分组的具体方法为:将绘制的曲线的纵坐标划分多个区域,区域的数量对应i,划分后的区域形成了原始投影数据的时相分组,每个分组中包含同一相位的多角度呼吸投影图。
5.根据权利要求3所述的一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,原始投影数据中运动靶区在所选感兴趣区域上的位置通过下式计算得出:
上式中,表示原始投影数据中运动靶区在所选感兴趣区域上的位置;P表示原始投影数据;/>表示原始投影数据的像素值;Z表示原始投影数据的像素值沿Z方向的位置;/>表示原始投影数据的像素值乘以其沿Z方向的位置得到的加权投影值,M表示感兴趣区域的像素值总和。
6.根据权利要求2所述的一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,通过下式对原始投影数据进行归一化处理:
上式中,表示第j张归一化后的投影数据,/>表示第j张原始投影数据,/>表示第j张原始投影图像中的最小值,/>表示第j张原始投影图像中的最大值。
7.根据权利要求2所述的一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,所述深度神经网络采用多尺度Resnte网络架构,所述多尺度Resnte网络架构包括多个多尺度级联卷积模块和时相感知模块,所述多尺度级联卷积模块包括多尺度并联卷积模块和下采样模块;
所述多尺度并联卷积模块用于处理输入的图像、提取多尺度图像特征;
所述下采样模块用于缩小深度神经网络参数、最大程度的保留图像特征;
所述时相感知模块用于提取图像特征后输出最终的时相分类结果。
8.根据权利要求7所述的一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,所述多尺度并联卷积模块包括四层并联设置的卷积层,四层并联设置的卷积层依次为卷积核为的卷积层、卷积核为/>的卷积层、卷积核为/>的卷积层、卷积核为且扩展率为2的卷积层。
9.根据权利要求7所述的一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,所述下采样模块包括卷积核为、步长为2的卷积层。
10.根据权利要求7所述的一种基于神经网络时相判别的呼吸门控CT成像方法,其特征在于,所述时相感知模块包括池化层和线性输出层,所述池化层还包括并联设置的全局最大池化层和全局平均池化层;所述池化层用于提取图像特征,所述线性输出层用于输出最终的时相分类结果。
CN202311660344.0A 2023-12-06 2023-12-06 一种基于神经网络时相判别的呼吸门控ct成像方法 Active CN117372565B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311660344.0A CN117372565B (zh) 2023-12-06 2023-12-06 一种基于神经网络时相判别的呼吸门控ct成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311660344.0A CN117372565B (zh) 2023-12-06 2023-12-06 一种基于神经网络时相判别的呼吸门控ct成像方法

Publications (2)

Publication Number Publication Date
CN117372565A true CN117372565A (zh) 2024-01-09
CN117372565B CN117372565B (zh) 2024-03-15

Family

ID=89398822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311660344.0A Active CN117372565B (zh) 2023-12-06 2023-12-06 一种基于神经网络时相判别的呼吸门控ct成像方法

Country Status (1)

Country Link
CN (1) CN117372565B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210007695A1 (en) * 2019-07-12 2021-01-14 Canon Medical Systems Corporation Apparatus and method using physical model based deep learning (dl) to improve image quality in images that are reconstructed using computed tomography (ct)
CN112435307A (zh) * 2020-11-26 2021-03-02 浙江大学 一种深度神经网络辅助的四维锥束ct影像重建方法
CN115049752A (zh) * 2021-12-30 2022-09-13 昆明理工大学 一种基于三维卷积神经网络的pet呼吸运动图像伪影配准校正方法
CN115100306A (zh) * 2022-05-19 2022-09-23 浙江大学 针对胰腺区域的四维锥束ct成像方法和装置
CN115690255A (zh) * 2023-01-04 2023-02-03 浙江双元科技股份有限公司 基于卷积神经网络的ct图像去伪影方法、装置及系统
CN115996668A (zh) * 2022-11-23 2023-04-21 北京肿瘤医院(北京大学肿瘤医院) 一种基于四维体表呼吸信号的非接触式四维成像方法和系统
CN116012581A (zh) * 2022-12-19 2023-04-25 上海师范大学 一种基于双重注意力融合的图像分割方法
CN116740215A (zh) * 2023-07-10 2023-09-12 清华大学 四维ct图像重建方法、装置、医疗设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210007695A1 (en) * 2019-07-12 2021-01-14 Canon Medical Systems Corporation Apparatus and method using physical model based deep learning (dl) to improve image quality in images that are reconstructed using computed tomography (ct)
CN112435307A (zh) * 2020-11-26 2021-03-02 浙江大学 一种深度神经网络辅助的四维锥束ct影像重建方法
CN115049752A (zh) * 2021-12-30 2022-09-13 昆明理工大学 一种基于三维卷积神经网络的pet呼吸运动图像伪影配准校正方法
CN115100306A (zh) * 2022-05-19 2022-09-23 浙江大学 针对胰腺区域的四维锥束ct成像方法和装置
CN115996668A (zh) * 2022-11-23 2023-04-21 北京肿瘤医院(北京大学肿瘤医院) 一种基于四维体表呼吸信号的非接触式四维成像方法和系统
CN116012581A (zh) * 2022-12-19 2023-04-25 上海师范大学 一种基于双重注意力融合的图像分割方法
CN115690255A (zh) * 2023-01-04 2023-02-03 浙江双元科技股份有限公司 基于卷积神经网络的ct图像去伪影方法、装置及系统
CN116740215A (zh) * 2023-07-10 2023-09-12 清华大学 四维ct图像重建方法、装置、医疗设备及存储介质

Also Published As

Publication number Publication date
CN117372565B (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
CN109753866A (zh) 机器学习中具有密集特征金字塔网络架构的医学图像对象检测
US8873819B2 (en) Method for sorting CT image slices and method for constructing 3D CT image
Whiteley et al. FastPET: near real-time reconstruction of PET histo-image data using a neural network
CN113516210B (zh) 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置
CN112258415B (zh) 一种基于生成对抗网络的胸部x光片超分辨率和去噪方法
Fu et al. A deep learning reconstruction framework for differential phase-contrast computed tomography with incomplete data
CN114723842B (zh) 基于深度融合神经网络的稀疏视角ct成像方法和设备
CN110070612B (zh) 一种基于生成对抗网络的ct图像层间插值方法
Kong et al. Automated maxillofacial segmentation in panoramic dental x-ray images using an efficient encoder-decoder network
Zhang et al. PET image reconstruction using a cascading back-projection neural network
CN112465905A (zh) 基于深度学习的磁共振成像数据的特征脑区定位方法
Gajera et al. CT-scan denoising using a charbonnier loss generative adversarial network
CN110211143A (zh) 一种基于计算机视觉的医学图像分析方法
CN110930378A (zh) 基于低数据需求的肺气肿影像处理方法及系统
CN109741254A (zh) 字典训练及图像超分辨重建方法、系统、设备及存储介质
CN108498110B (zh) 用于检测器官运动的系统和方法
Arslan et al. Breast cancer classification using a constructed convolutional neural network on the basis of the histopathological images by an interactive web-based interface
CN113313714B (zh) 一种基于改进U-Net网络的冠脉OCT图像病变斑块分割方法
Hashimoto et al. Deep learning-based PET image denoising and reconstruction: a review
CN117372565B (zh) 一种基于神经网络时相判别的呼吸门控ct成像方法
Whiteley et al. FastPET: Near real-time PET reconstruction from histo-images using a neural network
Malczewski PET image reconstruction using compressed sensing
CN117197349A (zh) 一种ct图像重建方法及装置
CN104000618A (zh) 一种用环真光子数门控方法进行呼吸运动门控校正技术
Hou et al. Respiratory Motion Correction on PET Images Based on 3D Convolutional Neural Network.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant