CN115702801A - 用于减少计算机断层摄影成像中的混叠伪影的方法和系统 - Google Patents
用于减少计算机断层摄影成像中的混叠伪影的方法和系统 Download PDFInfo
- Publication number
- CN115702801A CN115702801A CN202210887433.8A CN202210887433A CN115702801A CN 115702801 A CN115702801 A CN 115702801A CN 202210887433 A CN202210887433 A CN 202210887433A CN 115702801 A CN115702801 A CN 115702801A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- images
- neural network
- slice thickness
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 139
- 238000013170 computed tomography imaging Methods 0.000 title claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 119
- 238000005070 sampling Methods 0.000 claims abstract description 25
- 238000003384 imaging method Methods 0.000 claims description 105
- 238000012545 processing Methods 0.000 claims description 37
- 238000012549 training Methods 0.000 claims description 33
- 238000002591 computed tomography Methods 0.000 abstract description 21
- 238000002059 diagnostic imaging Methods 0.000 description 20
- 230000005855 radiation Effects 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 11
- 238000013136 deep learning model Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 239000000463 material Substances 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 210000003484 anatomy Anatomy 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000009467 reduction Effects 0.000 description 6
- 238000002600 positron emission tomography Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000002238 attenuated effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 239000002872 contrast media Substances 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 210000004872 soft tissue Anatomy 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 239000004053 dental implant Substances 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5258—Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01T—MEASUREMENT OF NUCLEAR OR X-RADIATION
- G01T1/00—Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
- G01T1/29—Measurement performed on radiation beams, e.g. position or section of the beam; Measurement of spatial distribution of radiation
- G01T1/2914—Measurement of spatial distribution of radiation
- G01T1/2985—In depth localisation, e.g. using positron emitters; Tomographic imaging (longitudinal and transverse section imaging; apparatus for radiation diagnosis sequentially in different planes, steroscopic radiation diagnosis)
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/005—Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4076—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N23/00—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
- G01N23/02—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
- G01N23/04—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
- G01N23/046—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material using tomography, e.g. computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/006—Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/441—AI-based methods, deep learning or artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- High Energy & Nuclear Physics (AREA)
- Radiology & Medical Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明提供了用于计算机断层摄影成像的各种方法和系统。在一个实施方案中,一种方法包括:当受检者移动穿过机架的孔并且机架围绕受检者旋转耦接到机架的x射线检测器和x射线源时,使用x射线检测器和x射线源来采集受检者的三维图像体积;将三维图像体积输入到受过训练的深度神经网络,以生成减少了存在于三维图像体积中的混叠伪影的经校正的三维图像体积;以及输出经校正的三维图像体积。这样,可从计算机断层摄影图像中去除由子采样引起的混叠伪影,同时保留计算机断层摄影图像中的细节、纹理和清晰度。
Description
技术领域
本文所公开的主题的实施方案涉及计算机断层摄影成像系统,并且更具体地讲,涉及校正计算机断层摄影图像中的混叠伪影。
背景技术
非侵入式成像技术允许获取患者或对象的内部结构的图像,而无需对该患者或对象执行侵入式程序。具体地,诸如计算机断层摄影(CT)的技术使用各种物理原理(诸如通过靶体积的x射线的差分传输)来采集图像数据和构建断层析图像(例如,人体或其他成像结构的内部的三维表示)。
发明内容
在一个实施方案中,一种方法包括:当受检者移动穿过机架的孔并且机架围绕受检者旋转耦接到机架的x射线检测器和x射线源时,使用x射线检测器和x射线源来采集受检者的三维图像体积;将三维图像体积输入到受过训练的深度神经网络,以生成减少了存在于三维图像体积中的混叠伪影的经校正的三维图像体积;以及输出经校正的三维图像体积。这样,可从计算机断层摄影图像中去除由子采样引起的混叠伪影,同时保留计算机断层摄影图像中的细节、纹理和清晰度。
应当理解,提供上面的简要描述来以简化的形式介绍在具体实施方式中进一步描述的精选概念。这并不意味着识别所要求保护的主题的关键或必要特征,该主题的范围由具体实施方式后的权利要求书唯一地限定。此外,所要求保护的主题不限于解决上文或本公开的任何部分中提到的任何缺点的实施方式。
附图说明
通过参考附图阅读以下对非限制性实施方案的描述将更好地理解本发明,其中以下:
图1示出了根据一个实施方案的示例性医疗成像系统的绘画视图;
图2示出了根据一个实施方案的示例性医疗成像系统的框图;
图3示出了根据一个实施方案的示例性医学图像处理系统的框图;
图4示出了框图,该框图示出了根据一个实施方案的用于训练深度学习模型以减少伪影的示例性深度学习系统;
图5示出了框图,该框图示出了根据一个实施方案的用于深度神经网络的示例性架构,该深度神经网络被配置为生成用于训练深度学习模型以减少伪影的基本真实图像;
图6示出了框图,该框图示出了根据一个实施方案的用于深度学习神经网络的示例性架构,该深度学习神经网络被配置用于减少伪影;
图7示出了框图,该框图示出了根据一个实施方案的用于使用受过训练的深度学习模型来减少伪影的示例性方法;
图8示出了高级流程图,该高级流程图示出了根据一个实施方案的用于训练深度学习模型以减少伪影的示例性方法;
图9示出了高级流程图,该高级流程图示出了用于校正三维图像体积中的混叠伪影的示例性方法;并且
图10示出了高级流程图,该高级流程图示出了根据一个实施方案的用于使用受过训练的深度学习模型来校正伪影的示例性方法。
具体实施方式
以下描述涉及计算机断层摄影(CT)成像的各种实施方案。具体地,提供了用于去除CT成像中的混叠伪影的系统和方法。当使用CT成像系统(诸如图1和图2所示的CT成像系统)对受检者(诸如患者)进行成像时,可使受检者移动穿过机架孔,同时安装在机架上的x射线源和x射线检测器围绕受检者旋转。由于受检者穿过成像系统的这种运动,因此在重建的图像中可能由于子采样而出现混叠伪影。图像处理系统(诸如图3所示的图像处理系统)可包括一个或多个深度神经网络,该一个或多个深度神经网络被配置为自动从所采集的图像中去除此类混叠伪影。为了训练深度神经网络以减少混叠伪影,如图4所示的训练系统可包括超分辨率神经网络,该超分辨率神经网络被配置为生成没有混叠伪影的基本真实图像。分别如图5和图6所示的超分辨率神经网络和混叠伪影减少神经网络可包括卷积神经网络。一旦受过训练,混叠伪影减少神经网络就可在垂直于机架平面或成像平面的方向上处理二维切片以去除混叠伪影,如图7所示。用于训练混叠伪影减少神经网络的方法在图8中示出,并且用于使用混叠伪影减少神经网络来校正图像体积的方法在图9和图10中示出。
现在参考图1,描绘了根据一个实施方案的示例性成像系统100。在例示的实施方案中,成像系统100是被配置为执行CT成像的X射线成像系统。虽然例示的实施方案主动采集医学图像,但应当理解,其他实施方案不主动采集医学图像。相反,实施方案可以检索先前由成像系统采集的图像或成像数据,并且如本文所述处理成像数据。
成像系统100可被配置为对受检者112(诸如患者、无生命对象、一个或多个制造部件)和/或外来对象(诸如存在于身体内的牙科植入物、支架和/或造影剂)进行成像。在一个实施方案中,成像系统100可包括机架102,该机架继而还可包括至少一个X射线源104,该至少一个X射线源被配置为投射X射线辐射束106(参见图2)以用于对放置在检查台114上的受检者112进行成像。具体地,X射线源104可被配置为将X射线106朝向定位在机架102的相对侧上的检测器阵列108投射。尽管图1示出了弯曲检测器阵列108,但在某些实施方案中,可采用平板检测器。另外,尽管图1示出了单个X射线源104,但在某些实施方案中,可采用多个X射线源和/或检测器来投射多个X射线辐射束106,以用于采集不同能级或角取向下对应于受检者112的投影数据。在一些CT成像实施方案中,X射线源104可通过快速峰值千伏电压(kVp)切换来实现双能量成像。在一些实施方案中,所采用的X射线检测器是能够区分不同能量的X射线光子的光子计数检测器。在其他实施方案中,使用两组X射线源和检测器来生成双能量投影,其中一组在低kVp设置下采集,而另一组在高kVp设置下采集。因此应当理解的是,本文所述的方法可用单能量采集技术以及双能量采集技术来实现。
在某些实施方案中,成像系统100还包括图像处理器单元110,该图像处理器单元被配置为使用迭代或分析图像重建方法或两者的组合来重建受检者112的靶体积的图像。例如,在一些CT成像应用中,图像处理器单元110可以使用分析图像重建方法诸如滤波反投影(FBP)来重建患者的靶体积的图像。作为另一示例,图像处理器单元110可以使用迭代图像重建方法诸如高级统计迭代重建(ASIR)或基于模型的迭代重建(MBIR)等来重建受检者112的靶体积的图像。在一些示例中,除了迭代图像重建方法之外,图像处理器单元110还可以使用分析图像重建方法,诸如FBP。在一个实施方案中,并且如下文详细讨论,图像处理器单元110可以使用迭代图像重建方法,该方法利用一维单应重采样变换。
在一些CT成像系统配置中,X射线源投射锥形X射线辐射束,该锥形X射线辐射束被准直成位于笛卡尔坐标系的X-Y-Z平面内(通常被称为“成像平面”)。X射线辐射束穿过正在被成像的对象,诸如患者或受检者。X射线辐射束在被对象衰减之后照射在辐射检测器阵列上。在检测器阵列处接收的衰减X射线辐射束的强度取决于对象对X射线辐射束的衰减。阵列的每个检测器元件产生单独的电信号,该单独的电信号是检测器位置处的X射线束衰减的测量值(例如,线积分测量值)。单独地采集来自所有检测器元件的衰减测量值,以产生传输分布。
在一些CT成像系统中,使用机架使X射线源和检测器阵列围绕成像平面在待成像的对象周围旋转,使得辐射束与对象相交的角度不断变化。来自机架的一个角位置处的检测器阵列的一组X射线辐射衰减测量值(例如,投影数据)被称为“视图”。对象的“扫描”包括在X射线源和检测器围绕对象的一次旋转期间在不同的角位置或视角处得到的一组视图。可以设想的是,本文所述的方法的益处源于许多医疗成像模态,因此如本文所用,术语“视图”不限于上文关于来自一个机架角度的投影数据所述的用途。术语“视图”用于意指每当存在来自不同角度的多个数据采集(无论是来自CT、X射线放射成像、正电子发射断层摄影(PET)还是单光子发射CT(SPECT)采集)时的一个数据采集,和/或任何其他模态(包括尚待开发的模态)以及它们在融合实施方案中的组合。
处理投影数据以重建与通过对象获取的一个或多个二维切片对应的图像,或者在投影数据包括扩展的轴向覆盖范围(例如,Z轴照明)的一些示例中,重建与对象的三维图像体积对应的图像。一种用于根据投影数据集来重建图像的方法在本领域中称为滤波反投射技术。传输和发射断层摄影重建技术还包括统计迭代方法,诸如最大似然预期最大化(MLEM)和有序子集预期最大化重建技术以及迭代重建技术。该方法将来自扫描的衰减测量值转换成整数(就CT成像系统而言称为“CT数”或“亨氏单位(Hounsfield unit)”),该整数用于控制显示设备上的对应像素的亮度。
为了减少总扫描时间,可执行“螺旋”扫描。为了执行“螺旋”扫描,在采集到规定的轴向覆盖的数据时,移动患者。此类系统从锥形束螺旋扫描产生单个螺旋。由锥形束绘制出(mapped out)的螺旋产生了投影数据,根据该投影数据可重建每个规定切片中的图像。
如本文所用,短语“重建图像”并非旨在排除其中生成表示图像的数据而非可视图像的本公开的实施方案。因此,如本文所用,术语“图像”广义地是指可视图像和表示可视图像的数据两者。然而,许多实施方案生成(或被配置为生成)至少一个可视图像。
现在参考图2,描绘了类似于图1的成像系统100的示例性成像系统200。如图所示,成像系统200可以包括多个部件。这些部件可彼此耦接以形成单个结构,可为分开的但位于公共房间内,或者可相对于彼此远离。例如,本文所述的模块中的一个或多个模块可以在数据服务器中操作,该数据服务器相对于成像系统200的其他部件具有不同的和远程的位置。
根据本公开的各方面,成像系统200可被配置用于对受检者204(例如,图1的受检者112)进行成像。在一个实施方案中,成像系统200可以包括检测器阵列108(参见图1)。检测器阵列108还可包括多个检测器元件202,这些多个检测器元件一起感测穿过受检者204(诸如患者)的X射线辐射束106以采集对应的投影数据。因此,在一个实施方案中,可以包括多行单元或检测器元件202的多切片配置来制造检测器阵列108。在此类配置中,一个或多个附加行的检测器元件202可以并行配置布置,以采集投影数据。
机架102能够移动地支撑彼此相对地安装在相对端部上的X射线源104和检测器阵列108。受检者204可因此由检查台114支撑着地设置在X射线源104与检测器阵列108之间。
应当理解,在一些实施方案中,检查台114还可能够移动以实现所需的图像采集。在此类图像数据采集期间,机架102能够移动以改变X射线源104和/或检测器阵列108相对于受检者204的位置和/或取向。
因此,在一些实施方案中,机架102可在给定成像会话期间保持固定,以便对受检者204的单个2D投影进行成像。在此类实施方案中,机架102和/或检查台114的位置可在成像会话之间进行调整,以便对受检者204的另一视图进行成像。
在其他实施方案中,诸如在CT成像应用中,成像系统200可被配置为遍历受检者204周围的不同角位置以采集所需的投影数据。因此,机架102和安装在其上的部件可以被配置为围绕旋转中心206旋转,以采集例如不同能级下的投影数据。另选地,在相对于受检者204的投影角度随时间的推移变化的实施方案中,所安装的部件可被配置为沿大致曲线而不是沿一段圆周移动。
在此类实施方案中,随着X射线源104和检测器阵列108旋转,检测器阵列108可收集衰减的X射线束的数据。由检测器阵列108收集的数据可经历预处理和校准以对数据进行调节和处理,以表示所扫描的受检者204的衰减系数的线积分。经处理的数据通常被称为投影。
在一些示例中,检测器阵列108中的单独检测器或检测器元件202可包括光子计数检测器,该光子计数检测器将单独光子的交互寄存到一个或多个能量区间(energy bin)中。应当理解,本文所述的方法还可使用能量积分检测器来实现。
所采集的投影数据集可用于基础材料分解(BMD)。在BMD期间,可将所测量的投影转换为一组材料密度投影。可将材料密度投影重建以形成每种相应的基础材料的一对或一组材料密度图或图像(诸如骨、软组织和/或造影剂图)。材料密度图或图像可继而相关联以形成对成像体积中的基础材料(例如骨、软组织和/或造影剂)的体绘制。
一旦重建,由成像系统200产生的基础材料图像就可以显露出以两种基础材料的密度表示的受检者204的内部特征。可以显示密度图像或多个密度图像的组合以示出这些特征。在诊断医学病症(诸如疾病状态),并且更一般地诊断医学事件的传统方法中,放射科医生或医师将考虑密度图像的硬拷贝或显示或其组合,以辨别感兴趣的特性特征。此类特征可以包括特定解剖结构或器官的病灶、尺寸和形状,以及基于个体从业者的技能和知识应在图像中可辨别的其他特征。
在一个实施方案中,成像系统200可包括控制机构208,以控制部件的移动,诸如机架102的旋转和X射线源104的操作。在某些实施方案中,控制机构208还可包括X射线控制器210,该X射线控制器被配置为向X射线源104提供功率和定时信号。另外,控制机构208可包括机架马达控制器212,该机架马达控制器被配置为基于成像要求来控制机架102或其各种部件(例如,X射线源104、检测器阵列108等)的旋转速度和/或位置。
在某些实施方案中,控制机构208还可以包括数据采集系统(DAS)214,该DAS被配置为对从检测器元件202接收的模拟数据进行采样,并且将模拟数据转换为数字信号以用于后续处理。对于光子计数成像系统,DAS 214可从检测器阵列108下载一个或多个能量区间中的测量光子计数。DAS 214还可被配置为选择性地将来自检测器元件202的子集的模拟数据聚集到所谓的宏检测器中,如本文进一步描述。
可将由DAS 214采样和数字化的数据传输到计算机或计算设备216。在例示的实施方案中,计算设备216可被配置为与成像系统200的各种部件进行交互。这样,计算设备216可被配置为控制成像系统200的操作。在各种实施方案中,计算设备216可以采用大型计算机、服务器计算机、台式计算机、膝上型计算机、平板设备、网络计算设备、移动计算设备、移动通信设备等的形式。在一个实施方案中,计算设备216可以采用边缘设备的形式,用于在图2的各种部件之间进行交互。在一些实施方案中,被配置为采集X射线辐射的成像系统200的一个或多个部件可被视为整个成像系统200的X射线成像子系统(例如,X射线源104、检测器阵列108等),该子系统可以是被进一步配置为与用户进行交互并执行各种计算过程(例如,成像或非成像)的计算系统。因此,成像系统200的其他部件(例如,计算设备216等)能够通信地耦接到X射线成像子系统。
在一些实施方案中,计算设备216可将数据存储在存储设备或大容量存储装置218中,该存储设备或大容量存储装置包括在计算设备216中(在此类示例中,计算设备216可被称为控制器)或者是能够通信地耦接到计算设备216的独立设备(在此类示例中,计算设备216可被称为处理器)。存储设备218可以包括可移动介质和/或内置设备。具体地,存储设备218可以包括一个或多个物理的非暂态的设备,其被配置为在其上保存能够由计算设备216执行的数据和/或指令,以实现本文描述的方法。因此,当实现此类方法时,存储设备218的状态可以被转换(例如,以保存不同的或变更的数据)。存储设备218例如可以包括磁阻式随机存取存储器(MRAM)、硬盘驱动器、软盘驱动器、磁带驱动器、光盘-读/写(CD-R/W)驱动器、数字通用光盘(DVD)驱动器、高清DVD(HD-DVD)驱动器、蓝光驱动器、闪存驱动器和/或固态存储驱动器。应当理解,存储设备218可以是非暂态存储介质。
另外,计算设备216可向DAS 214、X射线控制器210和机架马达控制器212中的一者或多者提供命令和参数,以控制系统操作,诸如数据采集和/或处理。在某些实施方案中,计算设备216基于操作员输入例如经由用户界面234来控制系统操作。计算设备216经由可操作地耦接到计算设备216的操作员控制台220来接收操作员输入,该操作员输入例如包括命令和/或扫描参数。操作员控制台220可以包括物理键盘、鼠标、触摸板和/或触摸屏,以允许操作员指定命令和/或扫描参数。
虽然图2仅示出了一个操作员控制台220,但多于一个操作员控制台220可以耦接到成像系统200,例如用于输入或输出系统参数、请求检查、绘制数据和/或查看图像。此外,在某些实施方案中,成像系统200可以经由一个或多个可配置的有线和/或无线网络(诸如互联网和/或虚拟专用网络、无线电话网络、无线局域网、有线局域网、无线广域网、有线广域网等)耦接到例如在机构或医院内或者处于完全不同位置的本地或远程地定位的多个显示器、打印机、工作站和/或类似设备。
在一个实施方案中,例如,成像系统200可以包括图片存档和通信系统(PACS)224或者可以耦接到该PACS。在示例性实施方式中,PACS224可以进一步耦接到远程系统,诸如放射信息系统(例如RIS)、电子健康或医疗记录和/或医院信息系统(例如EHR/HIS),以及/或者耦接到内部或外部网络(未示出),以允许位于不同位置的操作员提供命令和参数和/或能够访问图像数据。
计算设备216可使用操作员供应的和/或系统定义的命令和参数来操作检查台马达控制器226,该检查台马达控制器继而可以控制检查台114,该检查台可以是电动检查台。具体地,检查台马达控制器226可以移动检查台114以将受检者204适当地定位在机架102中,以采集对应于受检者204的靶体积的投影数据。
如前所述,DAS 214对由检测器元件202采集的投影数据进行采样和数字化。随后,图像重建器230使用所采样和数字化的X射线数据来执行高速重建。虽然图2将图像重建器230示出为单独实体,但在某些实施方案中,图像重建器230可以形成计算设备216的一部分。另选地,图像重建器230可以不存在于成像系统200中,并且替代地计算设备216可以执行图像重建器230的一种或多种功能。此外,图像重建器230可以本地或远程地定位,并且可以使用有线或无线网络来可操作地连接到成像系统200。例如,一个实施方案可以将“云”网络集群中的计算资源用于图像重建器230。
在一个实施方案中,图像重建器230可经由如图2所示的计算设备216或者经由直接连接(未示出)将重建的图像存储在存储设备218中。另选地,图像重建器230可将重建的图像传输到计算设备216,以生成用于诊断和评估的可用患者信息。在某些实施方案中,计算设备216可将重建的图像和/或患者信息传输到显示器或显示设备232,该显示器或显示设备通信地耦接到计算设备216和/或图像重建器230。在一些实施方案中,重建的图像可以从计算设备216或图像重建器230传输到存储设备218,以进行短期或长期存储。
本文进一步描述的各种方法或过程(诸如下文参考图7描述的方法)可作为可执行指令存储在成像系统200中的计算设备(或控制器)上的非暂态存储器中或者与计算设备(或处理器)通信。在一个实施方案中,图像重建器230可以在非暂态存储器中包括此类可执行指令,并且可应用本文所述的方法来根据扫描数据重建图像。在另一个实施方案中,计算设备216可以在非暂态存储器中包括指令,并且可以在从图像重建器230接收到重建的图像之后至少部分地将本文所述的方法应用于该重建的图像。在又一个实施方案中,本文所述的方法和过程可分布在图像重建器230和计算设备216上。
在操作中,计算设备216可采集成像数据和其他医疗数据,该成像数据和其他医疗数据可经由例如用户界面234被转变以用于在显示设备232上显示给用户(例如,医疗专业人员)。作为示例,可以将医疗数据作为面向用户的图形和/或文本格式转换并且显示在显示设备232处,该面向用户的图形和/或文本格式可以在成像系统200的所有实施方式中进行标准化,或者可以特定于给定的机构、部门、专业人员或个人用户。作为另一示例,成像数据(例如,三维(3D)体积数据集、二维(2D)成像切片等)可用于在计算设备216处生成一个或多个图像,然后可以在显示设备232处将其显示给操作员或用户。这样,显示设备232可允许操作员评估成像的解剖结构。显示设备232还可以允许操作员例如经由图形用户界面(GUI)来选择感兴趣体积(VOI)以及/或者请求患者信息,以供后续扫描或处理。
参考图3,示出了根据示例性实施方案的医学图像处理系统300。医学图像处理系统300包括图像处理设备302、显示设备320、用户输入设备330和医疗成像设备340。在一些实施方案中,医学图像处理系统300的至少一部分设置在经由有线连接和/或无线连接通信地耦接到医疗成像系统300的远程设备(例如,边缘设备、服务器等)处。在一些实施方案中,图像处理设备302的至少一部分设置在被配置为从存储由医疗成像设备340采集的图像的存储设备接收图像的单独的设备(例如,工作站)处。
图像处理设备302包括处理器304,该处理器被配置为执行存储在非暂态存储器306中的机器可读指令。处理器304可以是单核或多核处理器,并且在其上执行的程序可以被配置用于并行处理或分布式处理。在一些实施方案中,处理器304可任选地包括分布在两个或更多个设备中的单独部件,这些设备可远程定位和/或被配置用于协调处理。在一些实施方案中,处理器304的一个或多个方面可由在云计算配置中配置的能够远程访问的联网计算设备虚拟化和执行。
非暂态存储器306可存储深度神经网络模块308、训练模块312和图像数据314。深度神经网络模块308可包括一个或多个深度神经网络,该一个或多个深度神经网络包括多个权重和偏差、激活函数以及用于实现一个或多个深度神经网络以减少由于子采样引起的混叠伪影的指令。例如,深度神经网络模块308可存储用于实现被配置为减少CT图像中的混叠伪影的一个或多个深度神经网络的指令。本文关于图6进一步描述了被配置用于减少混叠伪影的示例性深度神经网络。深度神经网络模块308还可包括一个或多个深度神经网络,该一个或多个深度神经网络被配置为通过在轴向方向和/或垂直于成像平面的平面上通过超分辨率从厚切片图像模拟减少的伪影图像,来生成用于训练伪影减少神经网络的基本真实图像。本文关于图5进一步描述了被配置用于生成此类基本真实图像的示例性深度神经网络。
深度神经网络模块308可包括受过训练和/或未受过训练的深度神经网络。在一些实施方案中,深度神经网络模块308不设置在图像处理设备302处,而是设置在经由有线或无线连接与图像处理设备302能够通信地耦接的远程设备处。深度神经网络模块308可包括与受过训练和/或未受过训练的网络有关的各种深度神经网络元数据。在一些实施方案中,深度神经网络元数据可包括用于训练深度神经网络的训练数据的指示、用于训练深度神经网络的训练方法,以及受过训练的深度神经网络的准确性/验证得分。在一些实施方案中,深度神经网络模块308可包括用于受过训练的深度神经网络的元数据,该元数据指示可应用受过训练的深度神经网络的解剖结构的类型和/或成像模态的类型。
非暂态存储器306还包括训练模块312,该训练模块包括用于训练存储在深度神经网络模块308中的深度神经网络中的一个或多个深度神经网络的机器可执行指令。在一个实施方案中,训练模块312可包括梯度下降算法、损失函数和用于生成和/或选择训练数据以用于训练深度神经网络的规则。训练模块312还可包括指令,该指令在由处理器104执行时使图像处理设备302通过执行下面将参考图8更详细讨论的方法800的操作中的一个或多个操作来训练具有减少偏差的损失函数的深度神经网络。在一些实施方案中,训练模块312不设置在图像处理设备302处,而是远程设置,并且与图像处理设备302能够通信地耦接。本文关于图4进一步描述了用于使用训练模块312来训练深度神经网络的示例性架构。
非暂态存储器306还可存储图像数据314,该图像数据包括由医疗成像设备340采集的医学图像/成像数据。图像数据314还可以包括经由与其他医疗成像系统通信耦接而从其他医疗成像系统接收的医学图像/成像数据。存储在图像数据314中的医学图像可包括来自各种成像模态或来自各种医疗成像设备模型的医学图像,并且可包括一个或多个患者的解剖区域的各种视图的图像。在一些实施方案中,存储在图像数据314中的医学图像可包括识别采集医学图像的成像模态和/或成像设备(例如,成像设备的模型和制造商)的信息。如本文所述,图像数据314可包括由CT成像系统捕获的CT图像。应当理解,在一些实施方案中,图像数据314可包括由x射线设备采集的x射线图像、由MRI系统捕获的MR图像、由CT成像系统捕获的CT图像、由PET系统捕获的PET图像和/或一种或多种附加类型的医学图像。
在一些实施方案中,非暂态存储器306可包括设置在两个或更多个设备上的部件,这些部件可被远程定位和/或配置用于协调处理。在一些实施方案中,非暂态存储器306的一个或多个方面可包括在云计算配置中配置的能够远程访问的联网存储设备。
医学图像处理系统300还包括医疗成像设备340,该医疗成像设备可包括诸如成像系统200的CT成像系统。应当理解,医疗成像设备340可包括基本上任何类型的医疗成像设备,包括x射线、MRI、CT、PET、混合PET/MR、超声等。成像设备340可采集患者的解剖区域的测量数据,该测量数据可用于生成医学图像。根据由医疗成像设备340采集的测量数据生成的医学图像可包括二维(2D)或三维(3D)成像数据,其中所述成像数据可包括多个像素强度值(就2D医学图像而言)或体素强度值(就3D医学图像而言)。由医疗成像设备340采集的医学图像可包括灰度或彩色图像,因此存储在图像数据314中的医学图像可包括用于灰度图像的单个颜色通道,或者用于彩色的医学图像的多个颜色通道。
医学图像处理系统300还可包括用户输入设备330。用户输入设备330可包括触摸屏、键盘、鼠标、触控板、运动感测相机或被配置为使用户能够与图像处理设备302内的数据交互并且操纵该数据的其他设备中的一者或多者。
显示设备320可包括利用几乎任何类型的技术的一个或多个显示设备。在一些实施方案中,显示设备320可包括计算机监视器,该计算机监视器被配置为显示各种类型和样式的医学图像。显示设备320可与处理器304、非暂态存储器306和/或用户输入设备330结合在共用的外壳中,或者可以是外围显示设备,并且可包括监视器、触摸屏、投影仪或本领域中已知的其他显示设备,所述其他显示设备可使用户能够查看具有根据当前公开的一个或多个实施方案的改进的结构细节、同时为放射科医生保持纹理线索的医学图像,并且/或者与存储在非暂态存储器306中的各种数据进行交互。
应当理解,图3所示的医学图像处理系统300是用于说明而非限制。另一种合适的医疗成像系统300可包括更多、更少或不同的部件。
图4示出了框图,该框图示出了根据一个实施方案的用于训练深度学习模型以减少伪影的示例性深度学习系统400。如图所示,深度学习系统400包括超分辨率(SURE)模型400和深度学习伪影减少(DLAR)模型430。从相同的投影数据集重建具有第二切片厚度的低分辨率图像405和具有小于第二切片厚度的第一切片厚度的高分辨率图像425。低分辨率图像405被输入到SURE模型410以获得SURE预测图像415,该SURE预测图像包括对应于低分辨率图像405的超分辨率预测图像。使用沿着矢状/冠状方向的厚切片和薄切片之间的轴向数据,对SURE模型410进行超分辨率训练。换句话讲,SURE模型410从切片间隔为2zmm的输入图像405生成切片间隔为zmm的图像。通过对输入图像405使用较厚的切片间隔,输入图像405受子采样的影响较小。因此,SURE模型410被配置为增加输入图像405的分辨率而不是减少输入图像405中的混叠伪影。
高分辨率图像425被输入到DLAR模型430以获得伪影校正图像或DLAR预测图像435。由于高分辨率图像425的高分辨率或切片厚度,因此高分辨率图像425包括混叠伪影,而DLAR预测图像435包括去除了或减少了混叠伪影的高分辨率图像425。高分辨率图像425包括沿矢状和冠状方向的二维切片,因为混叠是沿系统轴方向采样的结果。通过在子采样方向上操作,DLAR模型430起匹配滤波器的作用并且仅学习不相关的高频分量,并且因此DLAR模型430对于显示视场(DFOV)、重建内核和解剖结构的数据变化是弹性变化的。因此,DLAR模型430识别对应于混叠的高频分量,并且仅校正那些高频分量,从而在完全或至少部分地去除混叠伪影的同时保持经校正的图像中的细节、纹理和清晰度。
SURE预测图像415被用作训练DLAR模型430的基本真实图像。为此,作为例示性示例,在SURE预测图像415和DLAR预测图像435之间确定损失440,并且执行反向传播442以更新DLAR模型430的权重和偏差。在一些示例中,损失440的损失函数可包括平均绝对误差(MAE)损失函数,但应当理解,在不脱离本公开的范围的情况下,可使用诸如结构相似性指数度量(SSIM)的其他损失函数。
一旦受过训练,DLAR模型430就可用于推理。也就是说,一旦受过训练,DLAR模型430就被配置为获取具有混叠伪影的二维切片,并且生成具有减少的混叠伪影的二维切片。DLAR模型430取决于采样的性质,其由于混叠而影响频率特性。对于CT图像,采样直接对应于螺旋扫描的节距以及检测器特性。
应当理解,本文提供的用于使用SURE模型410来生成基本真实图像的方法是例示性而非限制性的,并且该基本真实图像可使用其他方法生成,包括但不限于模拟和/或测量(例如,摆动z焦点)。例如,可通过增强低分辨率图像的空间分辨率的硬件方法来生成基本真实图像,包括但不限于焦点摆动。因此,可通过基于硬件的处理方法或基于软件的处理方法中的一者或一者来生成基本真实图像。
作为SURE模型410的例示性示例,图5示出了框图,该框图示出了根据一个实施方案的用于深度神经网络500的示例性架构,该深度神经网络被配置为生成用于训练深度学习模型以减少伪影的基本真实图像。具体地,深度神经网络500可包括超分辨率(SURE)神经网络,该超分辨率(SURE)神经网络被配置为将包括第二切片厚度和第二分辨率的图像(即,低分辨率图像)的输入502转换为包括第一切片厚度和第一分辨率的图像(即,高分辨率图像)的输出552。例如,第二切片厚度可大于第一切片厚度,这对应于第二分辨率低于第一分辨率。这样,通过生成具有较小切片厚度的对应图像,深度神经网络500提高了图像分辨率。
如在上文所提及的,深度神经网络500的输入502包括具有第二切片厚度或厚切片厚度的图像。作为例示性和非限制性示例,切片厚度和切片间隔可分别包括1.25mm和0.625mm。输入502被输入到执行浅特征选择的深度神经网络500的卷积块层506。卷积块层506的虚线输出指示一个或多个附加层(诸如一个或多个附加卷积块层)可在卷积块层506之后串联布置。一个或多个卷积块层506的输出被输入到残差密集块(RDB)510。RDB510的虚线输出指示多个RDB可在RDB 510之后串联布置。在一些示例中,深度神经网络500可包括十三个RDB,包括串联布置的RDB 510,但应当理解,在不脱离本公开的范围的情况下,深度神经网络500可包括更多或更少的RDB。
卷积块层506的输出和RDB 510的输出在级联层516处组合。对于全局残差学习,级联层516的输出和卷积块层506的输出然后被提供给全局残差学习层518。
然后将全局残差学习层518的输出提供给上采样层520以进行上采样,其中上采样层520的虚线输出指示一个或多个附加层可在上采样层520之后串联布置。上采样层520和其后的一个或多个层的输出被输入到卷积块层522,其中卷积块层522的虚线输出指示一个或多个附加层可在卷积块层522之后串联布置。卷积块层522和一个或多个附加层的输出是包括第一切片厚度和第一分辨率的图像的输出552。作为例示性和非限制性示例,如果输入502的第二切片厚度和第二切片间隔分别是1.25mm和0.625mm,则输出552的第一切片厚度和第一切片间隔分别是0.625mm和0.3125mm。换句话讲,作为例示性和非限制性示例,深度神经网络500可将输入502的切片厚度和切片间隔减半,从而导致图像分辨率的相应增加。
图6示出了框图,该框图示出了根据一个实施方案的用于深度学习神经网络600的示例性架构,该深度学习神经网络被配置用于减少伪影。具体地,深度神经网络600可包括DLAR神经网络,该DLAR神经网络被配置为将包括包含混叠伪影的图像的输入602转换为包括具有减少的混叠伪影的图像的输出652。
深度神经网络600的输入602包括具有第一切片厚度(即,相对于输入到SURE模型410或深度神经网络500的厚切片的薄切片)的图像。输入602被输入到执行浅特征选择的深度神经网络600的卷积块层606。卷积块层606的虚线输出指示一个或多个附加层可在卷积块层606之后串联布置。卷积块层606和一个或多个附加层的输出然后被输入到RDB 610。RDB 610的虚线输出指示多个RDB可在RDB 610之后串联布置。在一些示例中,深度神经网络600可包括六个RDB,包括串联布置的RDB 610,但应当理解,在不脱离本公开的范围的情况下,深度神经网络600可包括更多或更少的RDB。
卷积块层606的输出和RDB 610的输出在级联层616处组合以进行密集特征融合。对于全局残差学习,级联层616的输出和用于浅特征选择的卷积块层606的输出然后被提供给全局残差学习层618。
全局残差学习层618的输出然后被提供给一系列尾部卷积层,包括卷积块层622。卷积块层622的虚线输出指示一个或多个附加层可在卷积块层622之后串联布置。包括卷积块层622的尾部卷积层的输出是包括具有减少的混叠伪影的图像的输出652。与深度神经网络500的输出552相比,输出652的切片厚度包括与输入602相同的切片厚度(即,第一切片厚度)。
图7示出了框图,该框图示出了用于使用诸如深度神经网络600的受过训练的深度学习模型来减少伪影的示例性方法700。将包含混叠伪影的三维(3D)体积702布置到包括多个矢状切片712和多个冠状切片714的矢状/冠状切片710中以进行处理。矢状/冠状切片710被输入到受过训练的DLAR模型720,该受过训练的DLAR模型输出包括多个经处理的矢状切片732和多个经处理的冠状切片734的经处理的矢状/冠状切片730。然后将经处理的矢状/冠状切片730输出为经处理的3D体积740,其对应于具有减少的混叠伪影的3D体积702。
尽管方法700示出了对三维图像体积702进行二维(2D)处理以执行混叠校正,但应当理解,受过训练的深度神经网络可被配置为对三维图像体积702执行二维(2D)、二点五维(2.5D)或三维(3D)处理以沿垂直于由x射线检测器和x射线源形成的成像平面的方向过滤三维图像体积702的图像数据,诸如示例中的成像平面与轴向平面对齐的矢状和冠状平面。
图8示出了高级流程图,该高级流程图示出了根据一个实施方案的用于训练深度学习模型以减少伪影的示例性方法800。参考图1至图6的系统和部件描述了方法800,但是应当理解,在不脱离本公开的范围的情况下可用其他系统和部件实现方法800。方法800可以例如作为可执行指令在非暂态存储器306中实现,并且可以由处理器304执行以执行本文所述的动作。此外,方法800可在训练模块312中实现,用于训练深度神经网络以减少由子采样引起的混叠伪影。
方法800在805处开始。在805处,方法800采集三维图像体积。例如,方法800在受检者的螺旋扫描期间采集三维图像体积,其中当受检者移动穿过机架的孔时,机架围绕受检者旋转x射线检测器和x射线源。
在810处,方法800以第一切片厚度和第一分辨率从三维图像体积重建第一组二维图像。第一切片厚度可包括重建的图像的期望切片厚度,其中可能由于相对于期望切片厚度对所采集数据的子采样而出现混叠伪影。此外,在815处,方法800以第二切片厚度和第二分辨率从三维图像体积重建第二组二维图像,其中第二切片厚度大于第一切片厚度,使得不发生子采样误差和由此导致的混叠伪影。第一组二维图像和第二组二维图像的切片可以对齐,使得除了切片厚度的差异之外,第一组二维图像中的每个切片对应于第二组二维图像中的切片。
在820处,方法800将第二组二维图像输入到超分辨率网络,以生成具有第一切片厚度和第一分辨率的一组超分辨率图像。即,可包括例如超分辨率神经网络500的超分辨率神经网络将具有第二切片厚度的第二组二维图像中的每个图像转变为具有第一切片厚度的超分辨率图像。因为第二组二维图像中的图像由于较厚的切片厚度而不包括混叠伪影,所以超分辨率图像类似地不包括混叠伪影,尽管切片厚度有所变化。
在825处,方法800将第一组二维图像输入到伪影减少神经网络,以生成具有第一切片厚度和第一分辨率的一组经校正的图像。可包括例如神经网络600的伪影减少神经网络处理第一组二维图像,以减少二维图像中的混叠伪影。
在830处,方法800基于该组经校正的图像与该组超分辨率图像之间的损失来更新伪影减少神经网络的参数。具体地,方法800根据该组经校正的图像与该组超分辨率图像之间的差异来确定损失。然后根据所述损失经由反向传播来更新伪影减少神经网络的权重和偏差。应当理解,虽然关于一个三维成像体积描述了方法800,但在伪影减少神经网络的训练期间,可使用包括多个三维图像体积的训练数据集来为每个三维图像体积生成相应的二维切片集合。通过以这种方式使用包括多个三维图像体积的训练数据集来更新伪影减少神经网络,并使训练期间的损失最小化,伪影减少神经网络因此被训练以减少混叠伪影。在更新伪影减少神经网络的参数以最小化经校正的图像与基本真实图像之间的损失之后,方法800返回。
图9示出了高级流程图,该高级流程图示出了根据一个实施方案的用于使用受过训练的深度学习模型来校正三维图像体积中的混叠伪影的示例性方法900。参考图1至图6的系统和部件描述了方法900,但是应当理解,在不脱离本公开的范围的情况下可用其他系统和部件实现方法900。方法900可以作为可执行指令在非暂态存储器306中实现,并且作为例示性和非限制性示例,可以由处理器304执行以执行本文所述的动作。
方法900在905处开始。在905处,方法900采集三维图像体积。例如,方法900可通过控制诸如成像系统200的医疗成像设备340采集三维图像体积来采集三维图像体积。作为另一示例,例如,方法900可检索存储在非暂态存储器中的三维图像体积作为图像数据314,其中该三维图像体积先前由诸如成像系统200的医疗成像设备340采集。
此外,在910处,方法900评估用于采集三维图像体积的采集或成像参数。作为例示性和非限制性示例,采集或成像参数可包括扫描类型(例如螺旋扫描,轴向扫描等)、机架旋转速度、检查台速度、重建内核、切片厚度、x射线源参数、x射线检测器参数等。
方法900可基于采集参数来确定是否执行混叠伪影校正。例如,在915处,方法900可确定采集是否包括螺旋扫描。如果采集不包括螺旋扫描(“否”),则三维图像体积中可能不存在混叠伪影,因为在受检者和成像平面之间没有相对运动,并且因此方法900前进至920。在920处,方法900输出三维图像体积而不执行任何混叠伪影校正。然后,方法900返回。
然而,再次参考915,如果采集包括螺旋扫描(“是”),则方法900前进至930。在930处,方法900可根据包括螺旋节距值(例如,检查台114的速度和机架102的旋转)的节距值来选择模型。例如,可针对相应的螺旋节距值来训练多个深度神经网络中的每个深度神经网络。在基于节距值选择模型之后,方法900前进至935。
在935处,方法900将三维图像体积输入到受过训练的伪影减少神经网络,以生成减少了混叠伪影的经校正的图像体积。受过训练的伪影减少神经网络可包括例如在930处选择的模型。例如,方法900可将三维图像体积输入到深度学习伪影减少模型430,该深度学习伪影减少模型可包括如上文关于图4和图8所述那样训练的深度学习神经网络600。如本文关于图10进一步描述的,将三维图像体积输入到受过训练的伪影减少神经网络可包括:沿垂直于成像平面的平面重建二维切片;以及将该二维切片输入到受过训练的伪影减少神经网络以获得具有减少的混叠伪影的经校正的二维切片。由于混叠伪影可能不会出现在成像平面中,该成像平面可包括用于对直接沿垂直于成像平面或机架平面的z轴移动穿过机架孔的受检者进行临床扫描的轴向平面(即,机架和受检者之间没有倾斜或角度)。在其中成像平面或机架平面包括用于重建的轴向平面的此类示例中,沿矢状和冠状平面重建二维切片。然而,对于其中未定义轴向平面的非临床扫描,或者对于其中机架相对于移动穿过机架孔的受检者倾斜的扫描(即,使得受检者的移动方向不与z轴直接对齐),成像平面不在x-y平面中,而是具有z分量,因此沿第一平面和垂直于其中出现混叠伪影的成像平面的第二平面重建二维切片。换句话讲,不管机架、受检者和固定坐标系的相对取向如何,在垂直于机架的成像平面的平面中都出现混叠伪影,并且因此沿垂直于成像平面的平面重建二维切片。在其他示例中,三维图像体积可按体积而不是逐切片处理。例如,可将三维图像体积直接输入到配置有滤波器的受过训练的伪影减少神经网络以处理三维图像体积,以沿混叠方向减少混叠伪影。
在940处,方法900输出经校正的图像体积。经校正的图像体积包括用于切片处理的经校正的二维切片,或用于体积处理的经校正的三维图像体积。方法900例如向诸如显示设备320的显示设备、诸如非暂态存储器306的图像数据314的非暂态存储器、或另一模块(其用于对经校正的图像体积进行附加处理,诸如其他伪影校正、分割、重建等)中的一者或多者输出经校正的图像体积。然后,方法900返回。
图10示出了高级流程图,该高级流程图示出了根据一个实施方案的用于使用受过训练的深度学习模型来校正伪影的示例性方法1000。具体地,方法1000涉及逐切片地处理三维图像体积以减少三维图像体积中的混叠伪影。参考图1至图6的系统和部件描述了方法1000,但是应当理解,在不脱离本公开的范围的情况下可用其他系统和部件实现方法1000。方法1000可以例如作为可执行指令在非暂态存储器306中实现,并且可以由处理器304执行以执行本文所述的动作。此外,方法1000可在深度神经网络模块308中实现,用于减少由医疗成像设备340的子采样引起的混叠伪影。
方法1000在1005处开始。在1005处,方法1000采集三维图像体积。采集三维图像体积可包括例如控制诸如成像系统200的医疗成像设备340采集三维图像体积。作为另一示例,方法1000可从非暂态存储器306的图像数据314检索三维图像体积。
在1010处,方法1000沿垂直于成像平面的平面,从三维图像体积重建一组二维图像。例如,如果成像平面与三维图像体积的轴向平面对齐,则方法1000沿矢状和冠状平面重建二维切片,该矢状和冠状平面垂直于轴向平面并且因此垂直于成像平面。例如,对于其中成像平面由于机架倾斜或非临床受检者而不包括轴向平面的扫描,方法1000沿垂直于成像平面的第一平面和垂直于成像平面的第二平面重建二维切片。二维图像可包括由相对于二维图像的切片厚度而对三维图像体积的采集进行子采样引起的混叠伪影。二维图像的切片厚度可足够薄,使得不包括足够的投影数据以避免子采样,并且因此在二维图像中存在混叠伪影。例如,二维图像的切片厚度可低于上文关于图9描述的切片厚度阈值。应当理解,在不脱离本公开的范围的情况下,二维图像或切片的切片间隔可针对不同的示例而变化。例如,由于用于生成二维切片的数据量,混叠伪影可能出现在每个二维切片中,并且这种伪影的出现与相邻切片之间的重叠量或由于所选切片间隔而导致的相邻切片之间的距离无关。
在1015处,方法1000将该组二维图像输入到受过训练的伪影减少神经网络以生成一组经校正的图像。受过训练的伪影减少神经网络包括(例如)如上文关于图4和图8所述那样训练的深度神经网络600。由受过训练的伪影减少神经网络输出的经校正的图像表现出混叠伪影的减少。在1020处,方法1000输出包括该组经校正的图像的经校正的三维图像体积。然后,方法1000返回。
本公开的一个技术效果包括减少计算机断层摄影图像中的混叠伪影。本公开的另一技术效果包括去除计算机断层摄影图像中的混叠伪影,同时保留计算机断层摄影图像中的细节、纹理和清晰度。本公开的又一技术效果包括显示高分辨率计算机断层摄影图像而没有由子采样引起的混叠伪影。
在一个实施方案中,一种方法包括:当受检者移动穿过机架的孔并且机架围绕受检者旋转耦接到机架的x射线检测器和x射线源时,使用x射线检测器和x射线源来采集受检者的三维图像体积;将三维图像体积输入到受过训练的深度神经网络,以生成减少了存在于三维图像体积中的混叠伪影的经校正的三维图像体积;以及输出经校正的三维图像体积。
在该方法的第一示例中,该方法还包括使用受过训练的深度神经网络对三维图像体积执行二维处理,以沿垂直于由x射线检测器和x射线源形成的成像平面的方向过滤三维图像体积的图像数据。在任选地包括第一示例的该方法的第二示例中,将三维图像体积输入到受过训练的深度神经网络以生成经校正的三维图像体积包括:沿垂直于由x射线检测器和x射线源形成的成像平面的平面从三维图像体积重建多个二维图像;将多个二维图像输入到受过训练的深度神经网络以生成多个经校正的二维图像;以及从多个经校正的二维图像生成经校正的三维图像体积。在任选地包括第一示例和第二示例中的一者或多者的该方法的第三示例中,该方法还包括以第一切片厚度重建多个二维图像,其中由于相对于第一切片厚度针对给定x射线检测器尺寸和扫描配置对所采集数据的子采样而出现存在于多个二维图像中的混叠伪影。在任选地包括第一示例至第三示例中的一者或多者的该方法的第四示例中,使用由超分辨率神经网络生成的基本真实图像来训练受过训练的深度神经网络,该超分辨率神经网络被配置为将具有第二切片厚度的输入图像转变为具有第一切片厚度的输出图像,其中第二切片厚度大于第一切片厚度。在任选地包括第一示例至第四示例中的一者或多者的该方法的第五示例中,该方法还包括选择输入图像的第二切片厚度,以避免由相对于第一切片厚度针对给定x射线检测器尺寸和扫描配置对所采集数据的子采样引起的伪影。在任选地包括第一示例至第五示例中的一者或多者的该方法的第六示例中,该方法还包括在输入图像的采集期间,根据包括x射线检测器的计算机断层摄影成像系统的螺旋节距来选择输入图像的第二切片厚度。在任选地包括第一示例至第六示例中的一者或多者的该方法的第七示例中,受过训练的深度神经网络校正对应于混叠伪影的三维图像体积的高频分量。在任选地包括第一示例至第七示例中的一者或多者的该方法的第八示例中,使用二维图像、二点五维图像和三维图像中的一者或多者来训练受过训练的深度神经网络,以沿垂直于由x射线检测器和x射线源形成的成像平面的方向过滤三维图像体积的图像数据。
在另一个实施方案中,一种方法包括:当受检者在相对于由x射线检测器和x射线源限定的成像平面的方向上移动时,使用x射线检测器来采集受检者的三维图像体积;沿垂直于成像平面的平面,以第一切片厚度从三维图像体积重建第一多个二维图像;沿垂直于成像平面的平面,以第二切片厚度从三维图像体积重建第二多个二维图像,第二切片厚度大于第一切片厚度;以及基于从第二多个二维图像生成的基本真实图像来训练深度神经网络,以减少第一多个二维图像中的混叠伪影。
在该方法的第一示例中,训练深度神经网络包括:将第二多个二维图像输入到第二深度神经网络以生成具有第一切片厚度的多个超分辨率图像,其中基本真实图像包括多个超分辨率图像;将第一多个二维图像输入到深度神经网络以生成多个经校正的图像;以及基于多个超分辨率图像与多个经校正的图像之间的损失来更新深度神经网络的参数。在任选地包括第一示例的该方法的第二示例中,由于相对于第一切片厚度针对给定x射线检测器尺寸和扫描配置对所采集数据的子采样而出现存在于多个二维图像中的混叠伪影。在任选地包括第一示例和第二示例中的一者或多者的该方法的第三示例中,该方法还包括在三维图像体积的采集期间,根据包括x射线检测器和x射线源的计算机断层摄影成像系统的螺旋节距来选择第一切片厚度。在任选地包括第一示例至第三示例中的一者或多者的该方法的第四示例中,该方法还包括通过基于硬件的处理或基于软件的处理中的一者或多者增强第二多个二维图像的空间分辨率,来从第二多个二维图像生成基本真实图像。
在又一个实施方案中,一种成像系统包括:机架,该机架具有孔;x射线源,该x射线源安装到机架并且被配置为生成x射线;x射线检测器,该x射线检测器安装到机架并且被配置为检测x射线;以及处理器,该处理器在非暂态存储器中配置有指令,该指令在被执行时使处理器:当受检者移动穿过孔时,随着机架围绕受检者旋转x射线检测器和x射线源,使用x射线检测器来采集受检者的三维图像体积;将三维图像体积输入到受过训练的深度神经网络,以生成减少了混叠伪影的经校正的三维图像体积;以及输出经校正的三维图像体积。
在该系统的第一示例中,处理器在非暂态存储器中进一步配置有指令,这些指令在被执行时使处理器:沿垂直于由x射线检测器和x射线源形成的成像平面的平面从三维图像体积重建多个二维图像;将多个二维图像输入到受过训练的深度神经网络以生成多个经校正的图像;以及从多个经校正的图像生成经校正的三维图像体积。在任选地包括第一示例的该系统的第二示例中,处理器在非暂态存储器中进一步配置有指令,这些指令在被执行时使处理器:以第一切片厚度重建多个二维图像,其中由于相对于第一切片厚度针对给定x射线检测器尺寸和扫描配置对所采集数据的子采样而出现存在于多个二维图像中的混叠伪影。在任选地包括第一示例和第二示例中的一者或多者的该系统的第三示例中,使用由超分辨率神经网络生成的基本真实图像来训练受过训练的深度神经网络,该超分辨率神经网络被配置为将具有第二切片厚度的输入图像转变为具有第一切片厚度的输出图像,其中第二切片厚度大于第一切片厚度。在任选地包括第一示例至第三示例中的一者或多者的该系统的第四示例中,处理器在非暂态存储器中进一步配置有指令,这些指令在被执行时使处理器:选择输入图像的第二切片厚度以避免相对于第二切片厚度对所采集数据进行子采样。在任选地包括第一示例至第四示例中的一者或多者的该系统的第五示例中,处理器在非暂态存储器中进一步配置有指令,这些指令在被执行时使处理器:在输入图像的采集期间,根据螺旋节距选择输入图像的第二切片厚度。在任选地包括第一示例至第五示例中的一者或多者的该系统的第六示例中,使用螺旋节距来采集三维图像体积。在任选地包括第一示例至第四示例中的一者或多者的该系统的第七示例中,受过训练的深度神经网络校正对应于混叠伪影的三维图像体积的高频分量。
如本文所用,以单数形式列举并且以单词“一个”或“一种”开头的元件或步骤应当被理解为不排除多个该元件或步骤,除非明确说明此类排除。此外,对本发明的“一个实施方案”的引用不旨在被解释为排除也包含所引用特征的附加实施方案的存在。此外,除非明确地相反说明,否则“包含”、“包括”或“具有”具有特定特性的元件或多个元件的实施方案可包括不具有该特性的附加此类元件。术语“包括”和“在...中”用作相应的术语“包含”和“其中”的简明语言等同形式。此外,术语“第一”、“第二”和“第三”等仅用作标记,而不旨在对其对象施加数字要求或特定位置次序。
该书面描述使用示例来公开本发明,包括最佳模式,并且还使相关领域中的普通技术人员能够实践本发明,包括制造和使用任何设备或系统以及执行任何包含的方法。本发明可取得专利权的范围由权利要求书限定,并且可包括本领域普通技术人员想到的其他示例。如果此类其他示例具有与权利要求书的字面语言没有区别的结构元素,或者如果它们包括与权利要求书的字面语言具有微小差别的等效结构元素,则此类其他示例旨在落入权利要求书的范围内。
Claims (20)
1.一种方法,包括:
当受检者移动穿过机架的孔并且所述机架围绕所述受检者旋转耦接到所述机架的x射线检测器和x射线源时,使用所述x射线检测器和所述x射线源来采集所述受检者的三维图像体积;
将所述三维图像体积输入到受过训练的深度神经网络,以生成减少了存在于所述三维图像体积中的混叠伪影的经校正的三维图像体积;以及
输出所述经校正的三维图像体积。
2.根据权利要求1所述的方法,还包括使用所述受过训练的深度神经网络对所述三维图像体积执行二维处理,以沿垂直于由所述x射线检测器和所述x射线源形成的成像平面的方向过滤所述三维图像体积的图像数据。
3.根据权利要求2所述的方法,其中将所述三维图像体积输入到所述受过训练的深度神经网络以生成所述经校正的三维图像体积包括:
沿垂直于由所述x射线检测器和所述x射线源形成的所述成像平面的平面从所述三维图像体积重建多个二维图像;
将所述多个二维图像输入到所述受过训练的深度神经网络以生成多个经校正的二维图像;以及
从所述多个经校正的二维图像生成所述经校正的三维图像体积。
4.根据权利要求3所述的方法,还包括以第一切片厚度重建所述多个二维图像,其中由于相对于所述第一切片厚度针对给定x射线检测器尺寸和扫描配置对所采集数据的子采样而出现存在于所述多个二维图像中的所述混叠伪影。
5.根据权利要求4所述的方法,其中使用由超分辨率神经网络生成的基本真实图像来训练所述受过训练的深度神经网络,所述超分辨率神经网络被配置为将具有第二切片厚度的输入图像转变为具有所述第一切片厚度的输出图像,其中所述第二切片厚度大于所述第一切片厚度。
6.根据权利要求5所述的方法,还包括选择所述输入图像的所述第二切片厚度,以避免由相对于所述第一切片厚度针对所述给定x射线检测器尺寸和所述扫描配置对所采集数据的子采样引起的伪影。
7.根据权利要求6所述的方法,还包括在所述输入图像的采集期间,根据包括所述x射线检测器的计算机断层摄影成像系统的螺旋节距来选择所述输入图像的所述第二切片厚度。
8.根据权利要求1所述的方法,其中使用二维图像、二点五维图像和三维图像中的一者或多者来训练所述受过训练的深度神经网络,以沿垂直于由所述x射线检测器和所述x射线源形成的成像平面的方向过滤所述三维图像体积的图像数据。
9.一种方法,包括:
当受检者在相对于由x射线检测器和x射线源限定的成像平面的方向上移动时,使用所述x射线检测器来采集所述受检者的三维图像体积;
沿垂直于所述成像平面的平面,以第一切片厚度从所述三维图像体积重建第一多个二维图像;
沿垂直于所述成像平面的所述平面,以第二切片厚度从所述三维图像体积重建第二多个二维图像,所述第二切片厚度大于所述第一切片厚度;以及
基于从所述第二多个二维图像生成的基本真实图像来训练深度神经网络,以减少所述第一多个二维图像中的混叠伪影。
10.根据权利要求9所述的方法,其中训练所述深度神经网络包括:
将所述第二多个二维图像输入到第二深度神经网络以生成具有所述第一切片厚度的多个超分辨率图像,其中所述基本真实图像包括所述多个超分辨率图像;
将所述第一多个二维图像输入到所述深度神经网络以生成多个经校正的图像;以及
基于所述多个超分辨率图像与所述多个经校正的图像之间的损失来更新所述深度神经网络的参数。
11.根据权利要求9所述的方法,其中由于相对于所述第一切片厚度针对给定x射线检测器尺寸和扫描配置对所采集数据的子采样而出现存在于所述多个二维图像中的所述混叠伪影。
12.根据权利要求9所述的方法,还包括通过基于硬件的处理或基于软件的处理中的一者或多者增强所述第二多个二维图像的空间分辨率,来从所述第二多个二维图像生成所述基本真实图像。
13.一种成像系统,包括:
机架,所述机架具有孔;
x射线源,所述x射线源安装到所述机架并且被配置为生成x射线;
x射线检测器,所述x射线检测器安装到所述机架并且被配置为检测所述x射线;和
处理器,所述处理器在非暂态存储器中配置有指令,所述指令在被执行时使所述处理器:
当受检者移动穿过所述孔时,随着所述机架围绕所述受检者旋转所述x射线检测器和所述x射线源,使用所述x射线检测器来采集所述受检者的三维图像体积;
将所述三维图像体积输入到受过训练的深度神经网络,以生成减少了混叠伪影的经校正的三维图像体积;以及
输出所述经校正的三维图像体积。
14.根据权利要求13所述的系统,其中所述处理器在所述非暂态存储器中进一步配置有指令,所述指令在被执行时使所述处理器:
沿垂直于由所述x射线检测器和所述x射线源形成的成像平面的平面从所述三维图像体积重建多个二维图像;
将所述多个二维图像输入到所述受过训练的深度神经网络以生成多个经校正的图像;以及
从所述多个经校正的图像生成所述经校正的三维图像体积。
15.根据权利要求14所述的系统,其中所述处理器在所述非暂态存储器中进一步配置有指令,所述指令在被执行时使所述处理器:
以第一切片厚度重建所述多个二维图像,其中由于相对于所述第一切片厚度针对给定x射线检测器尺寸和扫描配置对所采集数据的子采样而出现存在于所述多个二维图像中的所述混叠伪影。
16.根据权利要求15所述的系统,其中使用由超分辨率神经网络生成的基本真实图像来训练所述受过训练的深度神经网络,所述超分辨率神经网络被配置为将具有第二切片厚度的输入图像转变为具有所述第一切片厚度的输出图像,其中所述第二切片厚度大于所述第一切片厚度。
17.根据权利要求16所述的系统,其中所述处理器在所述非暂态存储器中进一步配置有指令,所述指令在被执行时使所述处理器:
选择所述输入图像的所述第二切片厚度以避免相对于所述第二切片厚度对所采集数据进行子采样。
18.根据权利要求17所述的系统,其中所述处理器在所述非暂态存储器中进一步配置有指令,所述指令在被执行时使所述处理器:
在所述输入图像的采集期间,根据螺旋节距选择所述输入图像的所述第二切片厚度。
19.根据权利要求18所述的系统,其中使用所述螺旋节距来采集所述三维图像体积。
20.根据权利要求13所述的系统,其中所述受过训练的深度神经网络校正对应于所述混叠伪影的所述三维图像体积的高频分量。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/444,881 US20230048231A1 (en) | 2021-08-11 | 2021-08-11 | Method and systems for aliasing artifact reduction in computed tomography imaging |
US17/444,881 | 2021-08-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115702801A true CN115702801A (zh) | 2023-02-17 |
Family
ID=82786767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210887433.8A Pending CN115702801A (zh) | 2021-08-11 | 2022-07-26 | 用于减少计算机断层摄影成像中的混叠伪影的方法和系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230048231A1 (zh) |
EP (1) | EP4134008A1 (zh) |
CN (1) | CN115702801A (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104978717A (zh) * | 2015-06-11 | 2015-10-14 | 沈阳东软医疗系统有限公司 | Ct重建图像的处理方法、装置及设备 |
WO2019005180A1 (en) * | 2017-06-26 | 2019-01-03 | Elekta, Inc. | METHOD FOR ENHANCING CT QUALITY QUALITY WITH CONIC BEAM THROUGH DEEP CONVOLUTIVE NEURAL NETWORK |
US10803984B2 (en) * | 2017-10-06 | 2020-10-13 | Canon Medical Systems Corporation | Medical image processing apparatus and medical image processing system |
DE102018221943A1 (de) * | 2018-12-17 | 2020-06-18 | Siemens Healthcare Gmbh | Verfahren zur Artefaktkorrektur von dreidimensionalen Volumenbilddaten |
US11026642B2 (en) * | 2019-03-29 | 2021-06-08 | Canon Medical Systems Corporation | Apparatuses and a method for artifact reduction in medical images using a neural network |
CN110992373B (zh) * | 2019-11-25 | 2022-04-01 | 杭州电子科技大学 | 一种基于深度学习的胸腔器官分割方法 |
-
2021
- 2021-08-11 US US17/444,881 patent/US20230048231A1/en active Pending
-
2022
- 2022-07-26 CN CN202210887433.8A patent/CN115702801A/zh active Pending
- 2022-08-02 EP EP22188413.3A patent/EP4134008A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230048231A1 (en) | 2023-02-16 |
EP4134008A1 (en) | 2023-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220117570A1 (en) | Systems and methods for contrast flow modeling with deep learning | |
JP2004105728A (ja) | コンピュータを利用した医療用画像の収集 | |
US10755407B2 (en) | Systems and methods for capturing deep learning training data from imaging systems | |
JP2004105731A (ja) | コンピュータを利用した医療用画像の処理 | |
US10679346B2 (en) | Systems and methods for capturing deep learning training data from imaging systems | |
US11141079B2 (en) | Systems and methods for profile-based scanning | |
JP7463317B2 (ja) | ホモグラフィ再サンプリング変換による再投影および逆投影のためのシステムおよび方法 | |
US9984476B2 (en) | Methods and systems for automatic segmentation | |
US20220375038A1 (en) | Systems and methods for computed tomography image denoising with a bias-reducing loss function | |
CN112005314A (zh) | 用于训练成像系统的深度学习模型的系统和方法 | |
JP2005103263A (ja) | 断層撮影能力のある画像形成検査装置の作動方法およびx線コンピュータ断層撮影装置 | |
US20240029207A1 (en) | Systems and methods for adaptive blending in computed tomography imaging | |
US10383589B2 (en) | Direct monochromatic image generation for spectral computed tomography | |
CN112004471A (zh) | 用于成像系统快捷模式的系统和方法 | |
CN113940691A (zh) | 用于图像采集的患者定位的系统和方法 | |
US20240029415A1 (en) | Simulating pathology images based on anatomy data | |
CN111919264A (zh) | 用于使成像系统和边缘计算系统同步的系统和方法 | |
US20230320688A1 (en) | Systems and methods for image artifact mitigation with targeted modular calibration | |
EP3809376A2 (en) | Systems and methods for visualizing anatomical structures | |
EP4134008A1 (en) | Method and systems for aliasing artifact reduction in computed tomography imaging | |
US11270477B2 (en) | Systems and methods for tailored image texture in iterative image reconstruction | |
WO2016186746A1 (en) | Methods and systems for automatic segmentation | |
US12004893B2 (en) | Systems and methods for artifact detection for images | |
US20240249414A1 (en) | 3d interactive annotation using projected views | |
EP4216160A1 (en) | Methods and systems for real-time image 3d segmentation regularization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |