CN117224154A - Pet中加速动态成像的系统和方法 - Google Patents
Pet中加速动态成像的系统和方法 Download PDFInfo
- Publication number
- CN117224154A CN117224154A CN202310706257.8A CN202310706257A CN117224154A CN 117224154 A CN117224154 A CN 117224154A CN 202310706257 A CN202310706257 A CN 202310706257A CN 117224154 A CN117224154 A CN 117224154A
- Authority
- CN
- China
- Prior art keywords
- pet
- neural network
- dynamic
- time
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000003384 imaging method Methods 0.000 title claims abstract description 37
- 238000002600 positron emission tomography Methods 0.000 claims abstract description 247
- 238000013528 artificial neural network Methods 0.000 claims abstract description 129
- 238000012879 PET imaging Methods 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims description 57
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 35
- 238000004891 communication Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 11
- 239000000700 radioactive tracer Substances 0.000 description 11
- 230000002123 temporal effect Effects 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 238000012633 nuclear imaging Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000241 respiratory effect Effects 0.000 description 6
- 239000008280 blood Substances 0.000 description 5
- 210000004369 blood Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012905 input function Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000005855 radiation Effects 0.000 description 5
- 230000000747 cardiac effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000005674 electromagnetic induction Effects 0.000 description 3
- 230000037323 metabolic rate Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 230000002526 effect on cardiovascular system Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000209094 Oryza Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000037406 food intake Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 230000006461 physiological response Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000005258 radioactive decay Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/006—Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/441—AI-based methods, deep learning or artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- High Energy & Nuclear Physics (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Algebra (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Nuclear Medicine (AREA)
Abstract
公开了动态PET成像的系统和方法。一种系统包括被配置成执行第一扫描以采集第一PET数据集的正电子发射断层摄影(PET)成像模态和处理器。第一PET数据集包括动态PET数据。该处理器被配置成反投影第一PET数据集以生成多个直方图像帧,将多个直方图像帧中的每一个输入到经训练的神经网络,以及从经训练的神经网络接收动态PET输出。每个直方图像帧对应于PET成像模态的第一轴向位置。
Description
背景技术
根据传统的正电子发射断层摄影(PET)成像,通过注射或摄入将包括放射性核素的示踪剂化合物引入患者体内。放射性核素的放射性衰变生成正电子,所述正电子最终遇到电子并由此被湮灭。湮灭事件产生以大致相对的方向传播的两个伽马光子。因此,当设置在患者身体相对侧的两个检测器在特定的符合时间窗内检测到两个相反传播的伽马光子的到达时,识别出湮灭事件。
因为两个伽马光子以近似相反的方向传播,所以两个检测器的位置确定了湮灭事件发生所沿的响应线(LOR)。飞行时间(TOF)PET测量由湮灭事件产生的两个伽马光子的检测时间之间的差异。这种差异可以用于估计沿着LOR的湮灭事件发生处的特定位置。
在PET中的动态成像包括长扫描的采集,并且数据集被分成连续的时间帧。多个PET图像被重建以动态研究PET信号随时间的发展。动态成像可用于校正运动、评估不同心脏或呼吸周期中的分布、研究示踪剂动力学(也通过称为参数成像的方法)以及其他应用。具有许多帧来重建的要求意味着需要快速重建,以允许图像在合理的时间内准备好。
发明内容
在各种实施例中,一种系统包括被配置成执行第一扫描以采集第一PET数据集的PET成像模态和处理器。第一PET数据集包括动态PET数据。该处理器被配置成反投影第一PET数据集以生成多个直方图像(histo-image)帧,将多个直方图像帧中的每一个输入到经训练的神经网络,并从经训练的神经网络接收动态PET输出。每个直方图像帧对应于PET成像模态的第一轴向位置。
在各种实施例中,公开了一种用于PET成像设备的动态成像的方法。该方法包括以下步骤:执行第一扫描以采集第一PET数据集,反投影第一PET数据集以生成多个直方图像帧,将多个直方图像帧中的每一个输入到经训练的神经网络,从经训练的神经网络接收动态PET输出。第一PET数据集包括动态PET数据,并且每个直方图像帧对应于PET成像模态的第一轴向位置。
在各种实施例中,公开了一种训练用于动态正电子发射断层摄影(PET)成像的神经网络的方法。该方法包括以下步骤:接收包括多个动态PET数据集和多个动态PET输出的训练数据集,将多个动态PET数据集中的每一个输入到神经网络,以及基于每个动态PET数据集的估计的动态PET输出和对应动态PET输出之间的差异来修改神经网络。多个动态PET数据集中的每个动态PET数据集具有多个动态PET输出中的对应动态PET输出,并且神经网络被配置为针对多个动态PET数据集中的每个动态PET数据集生成估计的动态PET输出。
附图说明
通过对优选实施例的以下详细描述,本发明的特征和优点将被更充分地公开,或者变得显而易见,所述优选实施例将与附图一起考虑,其中相同的数字表示相同的部分,并且其中:
图1示出了根据一些实施例的核成像系统。
图2示出了根据一些实施例的人工神经网络的实施例。
图3是示出根据一些实施例,使用时间参考的PET数据和经训练的神经网络生成动态重建PET图像的方法的流程图。
图4是根据一些实施例的基于PET数据和可选mu图生成重建PET图像的系统的框图。
图5是示出根据一些实施例的使用经训练的神经网络从直方图像帧估计参数图像的方法的流程图。
图6是示出根据一些实施例的被配置成实现图5中所示的方法的各个部分的系统的框图。
图7是示出了根据一些实施例的使用经训练的神经网络生成PET扫描的动态参数的方法的流程图。
图8是示出根据一些实施例的被配置成实现图7中所示的方法的各个部分的系统的框图。
图9是示出根据各种实施例的训练神经网络的方法的流程图。
图10是示出根据一些实施例的图9中所示的训练神经网络的方法的各个步骤的流程图。
图11示出了根据一些参数的卷积神经网络架构。
图12示出了根据一些实施例的被配置成实现一个或多个过程的计算机系统。
具体实施方式
示例性实施例的该描述旨在结合附图来阅读,所述附图被认为是整个书面描述的一部分。
在下文中,关于要求保护的系统以及关于要求保护的方法描述了各种实施例。本文的特征、优点或替代实施例可以分配给其他要求保护的对象,反之亦然。换句话说,系统的权利要求可以用在方法的上下文中描述或要求保护的特征来改进。在这种情况下,该方法的功能特征由系统的目的单元来体现。
此外,在下文中,关于用于使用时间参考的PET数据和经训练的神经网络生成重建PET图像的方法和系统,以及关于用于训练神经网络以使用时间参考的PET数据生成重建PET图像的方法和系统,描述了各种实施例。本文的特征、优点或替代实施例可以分配给其他要求保护的对象,反之亦然。换句话说,用于训练神经网络以使用时间参考的PET数据生成重建PET图像的方法和系统的权利要求可以用在使用时间参考的PET数据生成重建PET图像的方法和系统的上下文中描述或要求的特征来改进,反之亦然。
一般来说,经训练的函数模仿人类与其他人类思维相关联的认知功能。特别地,通过基于训练数据的训练,经训练的函数能够适应新的环境,并且检测和外推模式。
一般来说,可以通过训练来调整经训练的函数的参数。特别地,可以使用监督训练、半监督训练、无监督训练、强化学习和/或主动学习的组合。此外,可以使用表示学习(替代术语是“特征学习”)。特别地,经训练的函数的参数可以通过训练的若干步骤迭代地适应。
特别地,经训练的函数可以包括神经网络、支持向量机、决策树和/或贝叶斯网络,和/或经训练的函数可以基于k均值聚类、q学习、遗传算法和/或关联规则。特别地,神经网络可以是深度神经网络、卷积神经网络或卷积深度神经网络。此外,神经网络可以是对抗网络、深度对抗网络和/或生成对抗网络。
在各种实施例中,公开了一种神经网络,其对直方图像进行去卷积以获得模拟的重建PET图像。该神经网络被配置成接收在时间段内时间参考的变化的PET信息,并且基于该时间参考的PET数据生成一系列动态生成的PET图像。动态生成的PET图像被配置成提供对在时间段内变化的身体状态的分析,诸如例如可应用于运动校正、评估示踪剂在不同心脏和/或呼吸周期内的分布、研究示踪剂动力学和/或其他合适的应用。动态生成的PET图像是实时生成的,以允许同时监视时间参考的PET数据的动态变化。利用直方图像获得模拟重建PET图像的现有方法需要将在轴向位置获得的所有PET数据合并到单个直方图像中的直方图像,并且不能计及动态变化的PET数据。例如,2021年11月2日授权的题为“使用TOF数据和神经网络的PET图像重建(PET image reconstruction using TOF data and neuralnetwork)”的美国专利11,164,344和William Whitley等人的“快速PET:使用神经网络的PET直方图像数据的近实时重建(FastPET:Near Real-Time Reconstruction of PETHisto-Image Data Using a Neural Network)”,IEEE Transactions on Radiation andPlasma Medical Sciences,vol.5,no.1,2021年1月均通过引用以其整体并入本文。
图1示出了根据一些实施例的核成像系统2的一个实施例。核成像系统2包括在第一台架16a中提供的用于至少第一模态12的扫描仪。第一模态12可以包括任何合适的成像模态,诸如正电子发射断层摄影(PET)模态。患者17躺在可在台架19内移动的可移动患者床18上。在一些实施例中,核成像系统2包括在第二台架16b中提供的用于第二成像模态14的扫描仪。第二成像模态14可以是任何合适的成像模态,诸如例如PET模态、SPECT模态、CT模态、磁共振(MR)模态和/或任何其他合适的成像模态。第一模态12和/或第二模态14中的每一个可以包括一个或多个检测器50,其被配置为检测湮灭光子、伽马射线和/或其他核成像事件。在一些实施例中,一个或多个检测器50在扫描期间生成背景辐射数据。
来自第一模态12和/或第二模态14的扫描数据存储在一个或多个计算机数据库40处,并由计算机系统30的一个或多个计算机处理器60处理。图1中的计算机系统30的图形描述仅作为图示提供,并且计算机系统30可以包括一个或多个单独的计算设备。核成像数据集可以由第一模态12、第二模态14提供,和/或可以作为单独的数据集提供,诸如例如来自耦合到计算机系统30的存储器。计算机系统30可以包括一个或多个处理电子设备,用于处理从多个检测器50之一接收的信号。在一些实施例中,扫描数据包括基于背景辐射的衰减。计算机系统30可以在图像重建期间使用一个或多个基于背景辐射的衰减图来校正背景辐射衰减。
在一些实施例中,计算机系统30被配置成使用时间参考的动态PET数据生成动态重建PET图像。基于对应于扫描体积内固定轴向位置的时间参考的直方图像帧,生成动态重建PET图像。动态重建PET图像可以由经训练的神经网络(或函数)生成。在一些实施例中,应用卷积神经网络来生成动态重建PET图像,但是应当理解,可以应用其他网络。
图2显示了人工神经网络100的实施例。“人工神经网络”的替代术语是“神经网络”、“人工神经网”、“神经网”或“经训练的函数”。人工神经网络100包括节点120-132和边140-142,其中每个边140-142是从第一节点120-132到第二节点120-132的有向连接。通常,第一节点120-132和第二节点120-132是不同的节点120-132,尽管第一节点120-132和第二节点120-132也可能是相同的。例如,在图2中,边140是从节点120到节点123的有向连接,并且边142是从节点130到节点132的有向连接。从第一节点120-132到第二节点120-132的边140-142也被表示为第二节点120-132的“进入(ingoing)边”和第一节点120-132的“外出(outgoing)边”。
在该实施例中,人工神经网络100的节点120-132可以布置在层110-113中,其中所述层可以包括由节点120-132之间的边140-142引入的固有顺序。特别地,边140-142可以仅存在于节点的相邻层之间。在所显示的实施例中,存在仅包括节点120-122而没有进入边的输入层110,仅包括节点131、132而没有外出边的输出层113,和位于输入层110和输出层113之间的隐藏层111、112。通常,隐藏层111、112的数量可以任意选择。输入层110内的节点120-122的数量通常与神经网络的输入值的数量有关,并且输出层113内的节点131、132的数量通常与神经网络的输出值的数量有关。
特别地,(实)数可以作为值分配给神经网络100的每个节点120-132。这里,x(n) i表示第n层110-113的第i节点120-132的值。输入层110的节点120-122的值相当于神经网络100的输入值,输出层113的节点131、132的值相当于神经网络100的输出值。此外,每个边140-142可以包括作为实数的权重,特别地,该权重是区间[-1,1]内或区间[0,1]内的实数。这里,w(m,n) i,j表示第m层110-113的第i节点120-132和第n层110-113的第j节点120-132之间的边的权重。此外,缩写w(n) i,j被定义用于权重w(n,n+1) i,j,。
特别地,为了计算神经网络100的输出值,输入值传播通过神经网络。特别地,第(n+1)层110-113的节点120-132的值可以基于第n层110-113的节点120-132的值通过下式来计算
这里,函数f是传递函数(另一个术语是“激活函数”)。已知的传递函数是阶跃函数、S形(sigmoid)函数(例如,逻辑函数、广义逻辑函数、双曲正切函数、反正切函数、误差函数、平滑阶跃函数)或整流器函数。传递函数主要用于标准化目的。
特别地,所述值逐层传播通过神经网络,其中输入层110的值由神经网络100的输入给出,其中第一隐藏层111的值可以基于神经网络的输入层110的值来计算,其中第二隐藏层112的值可以基于第一隐藏层111的值来计算,等等。
为了设置边的值w(m,n) i,j,必须使用训练数据来训练神经网络100。特别地,训练数据包括训练输入数据和训练输出数据(表示为ti)。对于训练步骤,神经网络100被应用于训练输入数据以生成计算的输出数据。特别地,训练数据和计算的输出数据包括某个数量的值,所述数量等于输出层的节点的数量。
特别地,计算的输出数据和训练数据之间的比较用于递归地适配神经网络100内的权重(反向传播算法)。特别地,权重根据以下而变化
其中γ是学习率,并且数δ(n) j可以基于δ(n+1) j递归地计算为
如果第(n+1)层不是输出层的话,并且
如果第(n+1)层是输出层113,其中f′是激活函数的一阶导数,y(n+1) j是输出层113的第j节点的比较训练值。
在一些实施例中,神经网络100被配置或训练成生成动态重建PET图像和/或动态PET参数。例如,在一些实施例中,神经网络100被配置成接收从扫描体积内固定轴向位置处的动态PET数据生成的多个直方图像帧。神经网络100被训练以生成动态重建PET图像或动态PET参数。
图3是示出了根据一些实施例使用时间参考的PET数据和被配置为将各个帧转换成重建图像的经训练的神经网络来生成动态重建PET图像的方法的流程图200。图4是示出了根据一些实施例的系统250的框图,该系统250被配置成实现图3中所示方法的各个部分。参考图3和4讨论生成动态重建PET图像的方法。
在步骤202,从扫描模态,诸如PET扫描模态12,获得核成像数据,特别是TOF PET数据252。在预定的时间段内获得TOF PET数据252。如本领域已知的那样采集TOF PET数据252。例如,可以在将放射性示踪剂注入对象体积(例如,患者或体模(phantom))之后由PET扫描仪(例如,成像模态12和计算机30)采集和/或生成TOF正弦图和/或TOF列表模式数据。TOF PET数据252,诸如特定的TOF正弦图和/或TOF列表模式数据的特定部分,对应于对象体积的相应轴向位置,在所述位置上方检测到体积内的符合(coincident)湮灭事件。TOF PET数据252包括每个符合事件的响应线(LOR)的位置。
在一些实施例中,TOF PET数据252包括将TOF PET数据252的特定部分与特定扫描时间相关的时间参考,例如,将TOF PET数据252分成帧。例如,在一些实施例中,每个TOF正弦图可以包括时间参考,例如时间戳,其识别对应于TOF PET数据252内的单个帧的采集TOF正弦图内的数据的特定时间和/或时间范围。类似地,在包括列表模式数据的实施例中,每个条目可以包括时间戳或被配置成识别获得列表模式条目的特定时间的其他时间参考。在给定时间范围内获得的列表模式数据可以对应于TOF PET数据252内的单个帧。时间参考可以是相对时间参考,诸如参考自数据采集开始以来的时间(例如,扫描开始、自前一次数据采集以来的时间等),或者可以是绝对时间参考(例如,参考外部参考系,诸如本地时间、格林威治标准时间等)。
在一些实施例中,记录位置-时间坐标对,以贯穿PET成像扫描精确跟踪对象体积的位置和时间信息。例如,在一些实施例中,位置-时间坐标对可以包括对应于可移动床的位置、可移动台架的位置、可移动对象体积的位置的位置信息、任何其他合适的位置信息和/或其组合。在一些实施例中,对于每个位置-时间坐标对,相对于初始条件(p0,t0)确定位置和时间,诸如当示踪剂被注射到对象体积中时,在时间t0=0时z=0.0的轴向初始位置p0。位置可以由位置传感器(例如,激光干涉仪等)精确确定。在一些实施例中,以均匀的时间间隔(例如,10毫秒或100毫秒)收集位置-时间对。在其他实施例中,位置-时间对之间的时间间隔随着速度而变化(例如,当速度小于阈值时,间隔可以是100毫秒,并且当速度大于阈值时,间隔可以是10毫秒)。在其他实施例处,在预定位置(诸如均匀间隔和/或不均匀间隔的位置)收集位置-时间对。
在一些实施例中,成像模态12可以在连续床运动(CBM)协议(例如,单向、多次通过模式、双向模式或混合模式)和/或步进拍摄(step-and-shoot)协议中利用患者床18和机架19之间的相对运动来操作。速度可以作为时间的连续函数(例如,锯齿或正弦)变化,或者作为时间的不连续函数(例如,交替阶跃函数)变化。速度可以具有更复杂的分布;例如,加速度(速度的时间导数)可以是连续函数,或者可以有一个或多个不连续性,加速度在所述不连续性处跳跃或停止。
在一些实施例中,使用连续床运动(CBM)扫描协议采集TOF PET数据252,在此期间床的速度和/或加速度可以是恒定的和/或可变的,使得作为时间的函数的床的位置不容易计算。位置-时间坐标对可以被周期性地记录(例如,以固定的时间间隔记录床或其他可移动组件的当前位置)或者可以被定位地记录(例如,记录床或其他可移动组件到达预定位置的当前时间),提供位置对时间的精确记录。位置-时间坐标对可以记录在TOF PET数据252内和/或作为单独的数据,该数据稍后与TOF PET数据252匹配。
在一些实施例中,对应于扫描模态12的至少一个固定轴向位置的TOF PET数据252在预定时间段内变化,例如,TOF PET数据252是表示对象体积内固定轴向位置处的变化的动态数据。在典型的PET扫描中,扫描模态被配置成在某一时间段内获得PET数据,所述时间段防止或最小化轴向位置处的变化,并试图在整个扫描时段内最小化变化,诸如示踪剂浓度。相反,动态TOF PET数据252旨在捕获在至少一个固定轴向位置处在预定时间段内的变化。TOF PET数据252在预定时间段内的变化可以对应于由患者的运动、示踪剂在不同心脏和/或呼吸周期内的分布、示踪剂动力学和/或其他生理反应引起的变化。
在一些实施例中,基于TOF PET数据252中的时间参考和位置-时间坐标对中的时间坐标之间的比较来确定固定轴向位置。例如,在一些情况下,对应于固定轴向位置(例如,预定切片)的边界和固定轴向位置的中点的时间可以对应于TOF PET数据252中切片内的类似边界,并且可以基于时间参考的TOF PET数据252内的时间数据与位置-时间坐标对的匹配来对准。
然而,在一些实施例中,TOF PET数据252内的切片边界可能不同于由位置-时间坐标对描述的边界。在这样的实施例中,对于TOF PET数据中的每个切片,基于对应的位置-时间坐标对,将成像开始时间计算为切片进入扫描仪视场(FOV)时的点。类似地,对于每个图像切片,基于位置-时间坐标对,成像结束时间被计算为切片离开扫描仪FOV时的点。切片的成像持续时间被定义为切片的成像开始时间和成像结束时间之间的差。然后将图像切片参考时间计算为由于示踪剂衰变而出现平均活动时的时间点,同时假设在该持续时间内没有由于示踪剂动力学的活动变化。
时间参考正弦图包括在对象体积的特定轴向位置处在特定时间段内每个LOR的角度相对于位移的数据阵列。每个时间参考的TOF正弦图包括一行,该行包含特定方位角的LOR。这些行中的每一行对应于不同坐标处的示踪剂化合物分布的一维平行投影。列表模式数据包括每个检测到的符合事件的坐标。
在步骤204,TOF PET数据252被实时或近实时地提供给事件反投影模块254。在步骤206,事件反投影模块254将反投影算法应用于TOF PET数据252,以生成时间参考直方图像帧256a-256c。所生成的时间参考的直方图像帧256a-256c中的每一个都包括在对象体积的特定轴向位置处的预期分布(例如直方图像)的模糊图像。
事件反投影模块254可以被配置成应用任何合适的反投影算法,例如,由接收的TOF PET数据252的格式,例如正弦图或列表模式数据确定的。所生成的时间参考的直方图像帧256a-256c对应于相对于作为PET数据采集的目标的对象体积(例如,患者或体模)的相同轴向位置。时间参考的直方图像帧256a-256c可以在预定的时间段内以设定的间隔划分和/或以可变的间隔划分。所述间隔可以在执行TOF PET数据采集之前确定,和/或可以在TOF PET数据采集期间调整,以在特定轴向位置和特定时间(例如,在呼吸和/或心动周期的特定阶段期间)获得TOF PET数据252。
例如,当TOF PET数据252包括时间参考的正弦图时,事件反投影模块254可以应用Joseph的方法(P.M.Joseph,“用于重新投影射线通过像素图像的改进算法(An improvedalgorithm for reprojecting rays through pixel images)”,IEEE Transactions onMedical Imaging,第1卷第3期,第192-196页,1982年11月,其全部内容通过引用结合于此)来生成直方图像帧256a-256c。作为另一个示例,当TOF PET数据252包括时间参考的列表模式数据时,事件反投影模块254可以根据预定范围内的定时信息将预定时间帧和/或范围内的事件分配给沿LOR的图像体素。通过反投影列表模式数据生成的直方图像帧可能比通过反投影从列表模式数据生成的正弦图生成的直方图像帧更精确,因为列表模式数据可能比从其生成的TOF正弦图数据呈现更高分辨率的定时数据。
在一些实施例中,无论是正弦图形式还是列表模式形式的TOF PET数据252,可以在反投影之前使用衰减校正和/或归一化因子校正以获得修改的直方图像帧256a-256c。在这种情况下,经修改的直方图像帧256a-256c作为输入被提供给经训练的神经网络258,如下所述。
在步骤208,将时间参考的直方图像帧256a-256c中的每一个提供给经训练的神经网络258。可以顺序地提供时间参考的直方图像帧256a-256c,例如,当它们由事件反投影模块254生成时。如下面更详细讨论的,使用包括时间参考的直方图像帧和/或时间参考的TOFPET数据和相关重建图像(例如,基础真实图像、使用现有技术方法生成的临床图像等)的训练数据集,通过迭代训练过程生成经训练的神经网络258。经训练的神经网络258被配置成接收对应于对象体积的至少一个固定轴向位置的时间参考的直方图像帧256a-256c。
在可选步骤210,经训练的神经网络258接收衰减图260,诸如mu图。每个衰减图260对应于时间参考的直方图像帧256a-256c之一的轴向位置和/或时间参考。如本领域中已知的,衰减图260可以从由单独的成像模态实现的第二成像过程中导出,诸如在与从中导出时间参考TOF PET数据252的PET扫描相同的成像会话期间执行的CT扫描。由于衰减图260提供的额外的结构信息,在由经训练的神经网络258实现的图像重建过程中包括衰减图260可以提供比其他方式更高质量的图像。
在步骤212,经训练的神经网络256生成时间特定的重建PET图像262a-262c。时间特定的重建PET图像262a-262c包括在对应于输入直方图像帧256a-256c的时间的预定时间在对象体积的特定轴向位置的重建图像。每个时间特定的重建PET图像262a-262c表示在PET扫描期间特定时刻在轴向位置的对象体积。经训练的神经网络258将经训练的函数应用于接收的时间参考的直方图像帧256a-256c,以生成对应的时间特定重建PET图像262a-262c。在包括衰减图260的实施例中,经训练的神经网络258被配置成在重建期间应用衰减校正。
借助于经训练的函数,并且根据一些实施例,所生成的时间特定重建PET图像262a-262c中的每一个将在质量和分辨率上类似于用于生成经训练的神经网络258的基础真实图像。在一些实施例中,经训练的神经网络258被配置成近实时地生成时间特定的重建PET图像262a-262c,从而允许随着对应扫描进行而查看时间特定的重建PET图像262a-262c,从而提供实时临床信息。在一些实施例中,经训练的神经网络258被配置成应用解剖引导重建过程。例如,在一些实施例中,经训练的神经网络258被训练来模仿Bowsher重建的部分。在步骤214,输出时间特定的重建PET图像262a-262c,用于进一步的临床操作,诸如例如,在扫描时段内检查对象体积的动态方面。
图5是示出了根据一些实施例的使用经训练的神经网络从直方图像帧估计参数图像的方法的流程图200a。图6是示出了根据一些实施例的系统250a的框图,该系统250a被配置成实现图5中所示的方法的各个部分。参考图5和6讨论估计参数图像的方法。估计参数图像的方法类似于上面参考图3讨论的使用时间参考的PET数据和被配置成将单独的帧转换成重建图像的经训练的神经网络生成动态重建PET图像的方法。类似地,系统250a类似于上面关于图4讨论的系统250。这里不再重复对该方法和系统的类似描述。
估计参数图像的方法通过上面参考图3讨论的步骤202-210进行。精确的成像时间信息对于估计的参数成像的精确结果是重要的,因为动力学参数,例如代谢率、呼吸和/或心血管相位等与时间信息密切相关。时间参考的PET图像数据252a中的跟踪的时间信息提供了一种机制,所述机制用于跟踪数据采集期间的动态变化,并使诸如血液输入函数的附加参数与动态PET数据同步。
在一些实施例中,使用一种或多种扫描模式生成时间参考的TOF PET图像数据252a,包括但不限于连续床运动(CBM)扫描(诸如单向、多扫描运动、双向运动或其组合)、步进拍摄扫描和/或静态扫描。CBM和/或步进拍摄模式中的每一个可以包括可变和/或固定的速度分布。理想情况下,通过不同扫描模式获得的参数图像应该是相同的,因为底层的生理学与扫描无关。然而,如果扫描没有被精确地跟踪并且时间信息没有被适当地考虑,参数图像可能会变化。在2020年7月28日授权的题为“具有灵活扫描模式的全身连续床运动参数PET的系统和方法(System and method for Whole Body Continuous Bed motionParametric PET With Flexible Scan Modes)”的美国专利10,722,189中讨论了各种CBM扫描协议,其公开内容通过引用整体结合于此。
在一些实施例中,经训练的神经网络258a被配置成利用时间精确的信息,诸如如上所述的位置-时间对,以基于直方图像帧256a-256c生成参数图像。如下面更详细讨论的,使用包括时间参考的直方图像帧和/或时间参考的TOF PET数据和相关参数图像(例如,使用现有技术方法生成的参数图像)的训练数据集,通过迭代训练过程生成经训练的神经网络258a。经训练的神经网络258a被配置成接收对应于对象体积的至少一个固定轴向位置的时间参考的直方图像帧256a-256c。
在一些实施例中,经训练的神经网络258a被配置成生成两个参数图像:一个用于代谢率(缩写为“Ki”),并且一个用于分布体积(缩写为“dv”)。在一些实施例中,为了计算动力学速率,CBM系统以位置-时间坐标对的形式记录精确的时间和位置信息,如上所述。被提供给经训练的神经网络的识别对应于直方图像帧256a-256c的固定轴向位置的轴向位置信息可以因体素而异。
在可选步骤216,经训练的神经网络258a被配置为接收至少一个参数化血液输入函数270。参数化血液输入函数270可以用于帮助从接收的直方图像帧256a-256c重建参数图像。
在步骤212a,经训练的神经网络258a生成估计的参数图像272a-272c。估计的参数PET图像272a-272c包括对应于输入直方图像帧256a-256c的对象体积的特定轴向位置处的参数图像。每个估计的参数PET图像272a-272c表示在PET扫描期间在轴向位置的对象体积的参数图像。经训练的神经网络258a将经训练的函数应用于接收到的时间参考的直方图像帧256a-256c,以生成对应的估计参数PET图像272a-272c。在一些实施例中,经训练的神经网络258a被配置成使用衰减图260在重建期间应用衰减校正,和/或被配置成在重建期间利用参数化血液输入函数270。在步骤214a,输出参数PET图像272a-272c,用于进一步的临床操作,诸如例如,在扫描时段内检查对象体积的动态方面。
借助于经训练的函数,并且根据一些实施例,每个生成的估计参数图像272a-272c在质量和分辨率方面类似于用于生成经训练的神经网络258a的参数图像。在一些实施例中,经训练的神经网络258a被配置成近实时地生成估计的参数图像272a-272c,允许随着对应扫描进行而查看估计的参数图像272a-272c,从而提供实时临床信息。
图7是示出了根据一些实施例的使用经训练的神经网络生成PET扫描的动态参数的方法的流程图200b。图8是示出了根据一些实施例的系统250b的框图,该系统250b被配置成实现图7中所示方法的各个部分。参考图7和8讨论生成PET数据的动态参数的方法。生成PET数据的动态参数的方法类似于上面参考图5讨论的估计参数图像的方法。类似地,系统250b类似于上面关于图6讨论的系统250a。这里不再重复该方法和系统的类似描述。
生成PET数据的动态参数的方法进行通过上面关于图3讨论的步骤202-210、216。精确的成像时间信息对于估计的参数成像的精确结果是重要的,因为动力学参数,例如代谢率、呼吸和/或心血管相位等与时间信息密切相关。时间参考的PET图像数据252a中的跟踪的时间信息提供了一种机制,所述机制用于跟踪数据采集期间的动态变化,并使诸如血液输入函数的附加参数与动态PET数据同步。
在一些实施例中,经训练的神经网络258b被配置成利用时间精确的信息,诸如如上所述的位置-时间对,来生成多组动态PET参数282a-282c。如下面更详细讨论的,使用包括时间参考的直方图像帧和/或时间参考的TOF PET数据和相关动态参数(例如,已知的动力学参数,诸如直方图像帧随时间的变化)的训练数据集,通过迭代训练过程生成经训练的神经网络258b。经训练的神经网络258b被配置成接收对应于对象体积的至少一个固定轴向位置的时间参考的直方图像帧256a-256c。
在一些实施例中,经训练的神经网络258b被配置成基于PET数据集252中的直方图像帧254a-254c的子集和动态PET参数282a-282c来估计PET数据集252内任何给定时间点的直方图像帧284a-284c。经训练的神经网络258b被配置成使用动态PET参数282a-282c来估计除了直方图像帧254a-254c的子集中包括的那些之外的时间的直方图像帧284a-284c。在一些实施例中,动态PET参数282a-282c和/或估计的直方图像帧284a-284c被用于在额外的时间点创建去模糊图像,而没有额外的计算负担(例如,没有使用额外的计算资源用于那些特定时间段)。
在各种实施例中,经训练的神经网络258b可以实现间接和/或直接参数成像过程来生成动态参数。在间接参数成像过程中,模型的参数拟合到图像体素值时间序列中。在直接参数成像过程中,模型参数被直接拟合到测量数据(例如,TOF PET数据和/或正弦图)而不是重建图像。动力学图像的使用确保了直方图像帧之间的时间相关性。在一些实施例中,用于参数图像去模糊的训练数据集可通过全参数图像重建获得。经训练的神经网络258b提供减少的计算时间,以提供实时动态成像。经训练的神经网络258b被配置成将去模糊应用于动态演化图像以用于动态成像应用。
图9是示出根据各种实施例的训练神经网络的方法的流程图300。图10是示出根据一些实施例的图9中所示的训练神经网络的方法的各个步骤的流程图350。图9中示出的方法可用于训练本文讨论的任何神经网络,诸如例如神经网络258-258b,尽管将意识到训练神经网络的方法可被配置成训练任何合适的神经网络。
在步骤302,采集包括多个时间参考的TOF PET数据集354的训练数据集352。所采集的时间参考的TOF PET数据集354可以包括列表模式数据的PET采集和/或可以包括从TOFPET列表模式数据生成的PET正弦图。在一些实施例中,还接收对应于TOF PET数据集354(或集成在其中)的一组位置-时间坐标对356。还可以在步骤302针对每个PET数据集采集可选的对应CT数据集358,以提供衰减校正,如本领域已知的。
训练数据集352可以包括从PET数据集的储存库中获取的数据,诸如训练数据数据库或其他非暂时性存储机制。训练数据集352和/或多个时间参考的TOF PET数据集354的每一个可以描绘任何类型的体积,并且可以已经使用任何数量的PET扫描仪和PET采集设置采集的。在一些实施例中,所采集的PET数据集与相同的体积(例如,解剖区域)、PET扫描仪和PET采集参数相关联,如将使用经训练的神经网络成像/利用的。
在可选步骤304,每个时间参考的TOF PET数据集354被直方图化成TOF正弦图。在可选步骤306,由PET重建模块362生成基础真实值364a-364c。在一些实施例中,PET重建模块362被配置成使用已知的或变为已知的一个或多个重建算法来重建原始PET数据(列表模式或正弦图)。这种算法的示例可以包括经滤波的反投影(FBP)和有序子集期望最大化(OSEM)。如本领域已知的,原始PET数据可以在重建之前经受各种数据处理算法(衰减校正、运动校正、去噪等)。在一些实施例中,PET重建模块362被配置成使用已知或变得已知的一种或多种参数重建算法来生成参数PET重建。这种算法的示例在美国专利10,722,789中公开,该专利通过引用整体结合于此。在一些实施例中,PET重建模块362被配置成例如通过执行参数PET重建并从重建中提取动态参数,针对训练数据集352中的每组PET数据生成动态PET参数。
在一些实施例中,可以省略步骤304和/或306,并且训练数据集352可以包括预先生成的TOF正弦图和/或预先生成的基础真实值364。例如,在一些实施例中,预先生成的基础真实值364包括用于生成对应TOF PET数据的体模(或其他体积)的基础真实图像。作为另一个示例,预先生成的基础真实值364包括使用一种或多种已知方法从参数重建生成的参数图像和/或动态PET参数。应当理解,基于经训练的神经网络的期望输出,可以使用任何合适的预先生成的基础真实值364。
在可选步骤308,事件反投影模块366将每组TOF正弦图和/或PET列表模式数据反投影到图像空间中,以生成对应于TOF PET数据中特定轴向位置(例如,特定帧)的三维直方图像帧368a-368c。可以在步骤308使用任何合适的方法,诸如例如约瑟夫方法,来执行TOF反投影。在一些实施例中,可选步骤308被省略,并且训练数据集352包括预先生成的直方图像帧368。如果训练数据集352包括预先生成的直方图像帧356a-356c,则训练数据集352也可以省略原始PET数据,诸如列表模式PET数据和/或TOF正弦图。
在步骤310,每个直方图像帧368a-368c(以及可选地,每个对应的mu图)被输入到未训练和/或部分训练的神经网络370中,该神经网络370被配置成生成选定的估计输出,诸如例如估计输出图像体积、一个或多个估计参数图像和/或估计动态PET参数中的一个或多个。即,神经网络370可以生成基于每个输入直方图像帧体积368a-368c的估计的输出图像体积372,基于每个输入直方图像帧体积368a-368c的估计的参数图像374,和/或基于每个输入直方图像帧体积368a-368c的一组估计的动态PET参数376。
在步骤312,基于所选输出(例如,输出图像372、参数图像374和/或动态参数376)和基础真实364a-364c之间的差异来训练(例如,迭代地修改)神经网络370。例如,在一些实施例中,基础真实比较模块380被配置为将基础真实值364a-364c与输出值进行比较,以确定差异并向神经网络370提供修改值。例如,在一些实施例中,基础真实比较模块380被配置为将每个TOF PET数据集(例如,每个动态PET数据集)的估计的动态PET输出与来自多个动态PET输出的对应的动态PET输出(例如,动态PET参数)进行比较,以确定每个估计的动态PET输出与对应于输入到神经网络的动态PET数据集的动态PET输出之间的任何差异。尽管用单独的基础真实比较模块380示出了实施例,但是应当理解,许多神经网络模型被配置成在训练过程期间在内部执行基础真实比较。该方法迭代地重复步骤310和312,直到神经网络370产生可接受范围内的输出(例如,相对于基础真实值364a-364c在某个百分比误差内)。
图9-10中示出的迭代训练过程可以利用已知的或变得已知的任何合适的神经网络训练。例如,被配置为实施图9-10中所示的迭代训练过程的系统可以基于由神经网络370生成的输出图像体积372和基础真实PET图像体积364a-364c中对应的基础真实PET训练图像体积之间的比较来确定损失。该损失可以包括L1损失和L2损失,或者总损失的任何其他合适的度量。L1损失是每个输出图像和其对应的基础真实PET图像之间的绝对差之和,并且L2损失是每个输出图像和其对应的基础真实PET图像之间的平方差之和。在一些实施例中,可以采用类似于上面结合图2描述的训练过程。
在步骤312,所确定的损失被反向传播到神经网络370,神经网络370基于反向传播的损失改变其内部权重或内核参数值。步骤310和312可以重复,直到确定损失已经达到可接受的水平或者训练以其他方式终止。在终止时,神经网络370可以被认为是经训练的,并且在步骤314,输出经训练的神经网络382以用于一种或多种方法,诸如结合图3-6描述的那些方法。
这里描述的神经网络可以使用已知的或变得已知的任何神经网络架构来实现。例如,如上所述,图2示出了可以在一些实施例中实现的神经网络架构100。类似地,图11示出了根据一些实施例的神经网络架构500。架构500类似于U-NET架构,但完全是卷积的。具体来说,U-Net架构的池化已经用跨步(strided)卷积替代,并且“上卷积”已经用PixelShuffle(像素置乱)上采样方法替代。实施例不限于架构500的特定元素。
根据一些实施例,使用Adam(亚当)优化器在步骤310和312执行训练,以最小化目标PET图像xi*和来自直方图像帧yi的输出图像xi=Fr(yi)之间的平均绝对误差(MAE)和多尺度结构相似性差异(SSIMΔ)的平衡组合,其中每个帧包含p个像素。对应的损失函数如下所示。
Loss=(1-α)MAE+αSSIMΔ
上述损失函数动态地平衡了每个对应像素(即MAE)和感知损失函数(SSIM)之间的绝对误差的最小化,该感知损失函数评估图像之间的均值μ、方差σ2和协方差σ。每种损失类型的n个样本的滑动平均值用于计算每个训练步骤的平衡损失标量α。
图12示出了根据一些实施例的被配置成实现一个或多个过程的计算机系统30。系统30是代表性设备,并且可以包括处理器子系统72、输入/输出子系统74、存储器子系统76、通信接口78和系统总线80。在一些实施例中,可以组合或省略系统30组件中的一个或多个,诸如例如不包括输入/输出子系统74。在一些实施例中,系统30可以包括图12中未示出的其他组件。例如,系统30还可以包括例如电力子系统。在其他实施例中,系统30可以包括图12所示组件的几个实例。例如,系统30可以包括多个存储器子系统76。为了简明和清楚,而不是限制,在图12中示出了每种组件一个。
处理器子系统72可以包括用于控制系统30的操作和性能的任何处理电路。在各个方面,处理器子系统72可以被实现为通用处理器、芯片多处理器(CMP)、专用处理器、嵌入式处理器、数字信号处理器(DSP)、网络处理器、输入/输出(I/O)处理器、媒体访问控制(MAC)处理器、无线电基带处理器、协处理器、诸如复杂指令集计算机(CISC)微处理器、精简指令集计算(RISC)微处理器和/或甚长指令字(VLIW)微处理器之类的微处理器,或者其他处理设备。处理器子系统72也可以由控制器、微控制器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)等来实现。
在各个方面,处理器子系统72可以被安排成运行操作系统(OS)和各种应用。OS的示例包括,例如,通常以Apple OS、Microsoft Windows OS、Android OS、Linux OS和任何其他专有或开源OS的商标名而为人所知的操作系统。应用的示例包括例如网络应用、本地应用、数据输入/输出应用、用户交互应用等。
在一些实施例中,系统30可以包括耦合各种系统组件的系统总线80,所述系统组件包括处理子系统72、输入/输出子系统74和存储器子系统76。系统总线80可以是若干类型的(多个)总线结构中的任何一种,包括存储器总线或存储器控制器、外围总线或外部总线、和/或使用任何种类的可用总线架构的本地总线,包括但不限于9位总线、工业标准架构(ISA)、微通道架构(MSA)、扩展ISA(EISA)、智能驱动电子设备(IDE)、VESA本地总线(VLB)、外围组件互连卡国际协会总线(PCMCIA)、小型计算机接口(SCSI)或其他专有总线、或适用于计算设备应用的任何定制总线。
在一些实施例中,输入/输出子系统74可以包括任何合适的机制或组件,以使得用户能够向系统30提供输入,并且系统30能够向用户提供输出。例如,输入/输出子系统74可以包括任何合适的输入机制,包括但不限于按钮、小键盘、键盘、点拨轮、触摸屏、运动传感器、麦克风、相机等。
在一些实施例中,输入/输出子系统74可以包括视觉外围输出设备,用于提供对用户可见的显示。例如,视觉外围输出设备可以包括屏幕,诸如例如液晶显示器(LCD)屏幕。作为另一个示例,视觉外围输出设备可以包括可移动显示器或投影系统,用于在远离系统30的表面上提供内容显示。在一些实施例中,视觉外围输出设备可以包括编码器/解码器,也称为编解码器,以将数字媒体数据转换成模拟信号。例如,视觉外围输出设备可以包括视频编解码器、音频编解码器或任何其他合适类型的编解码器。
视觉外围输出设备可以包括显示驱动器、用于驱动显示驱动器的电路或者两者。视觉外围输出设备可以可操作于在处理器子系统72的指导下显示内容。例如,视觉外围输出设备能够播放媒体回放信息、在系统30上实现的应用的应用屏幕、关于正在进行的通信操作的信息、关于传入通信请求的信息或设备操作屏幕,仅举几个示例。
在一些实施例中,通信接口78可以包括能够将系统30耦合到一个或多个网络和/或附加设备的任何合适的硬件、软件或硬件和软件的组合。通信接口78可以被安排成利用任何合适的技术来操作,以便使用一组期望的通信协议、服务或操作程序来控制信息信号。通信接口78可以包括适当的物理连接器,以与对应的通信介质连接,无论是有线的还是无线的。
通信的载体包括网络。在各个方面,网络可以包括局域网(LAN)以及广域网(WAN),包括但不限于因特网、有线信道、无线信道、包括电话、计算机、电线、无线电、光或其他电磁信道的通信设备及其组合,包括能够传送数据/与传送数据相关联的其他设备和/或组件。例如,通信环境包括体内通信、各种设备和各种通信模式,诸如无线通信、有线通信及其组合。
无线通信模式包括至少部分利用无线技术的点(例如,节点)之间的任何通信模式,所述无线技术包括与无线传输、数据和设备相关联的各种协议和协议组合。所述点包括例如无线设备,诸如无线耳机;音频和多媒体设备和装置,诸如音频播放器和多媒体播放器;电话,包括移动电话和无绳电话;以及计算机和计算机相关的设备和组件,诸如打印机、网络连接的机器和/或任何其他合适的设备或第三方设备。
有线通信模式包括利用有线技术的点之间的任何通信模式,所述有线技术包括与有线传输、数据和设备相关联的各种协议和协议组合。所述点包括例如诸如音频和多媒体设备的设备,诸如音频播放器和多媒体播放器备,包括移动电话和无绳电话的电话,以及计算机和计算机相关的设备和组件,诸如打印机、网络连接的机器和/或任何其他合适的设备或第三方设备。在各种实施方式中,有线通信模块可以根据多种有线协议进行通信。有线协议的示例可以包括通用串行总线(USB)通信、RS-232、RS-422、RS-423、RS-485串行协议、FireWire、以太网、光纤信道、MIDI、ATA、串行ATA、快速PCI、T-1(及其变体)、工业标准架构(ISA)并行通信、小型计算机系统接口(SCSI)通信或外围组件互连(PCI)通信,仅举几个示例。
因此,在各个方面,通信接口78可以包括一个或多个接口,诸如例如无线通信接口、有线通信接口、网络接口、发射接口、接收接口、媒体接口、系统接口、组件接口、交换接口、芯片接口、控制器等等。例如,当由无线设备或在无线系统内实现时,通信接口78可以包括无线接口,该无线接口包括一个或多个天线、发射器、接收器、收发器、放大器、滤波器、控制逻辑等等。
在各个方面,通信接口78可以根据多种协议提供数据通信功能。协议的示例可以包括各种无线局域网(WLAN)协议,包括电气和电子工程师协会(IEEE)802.xx系列协议,诸如IEEE 802.11a/b/g/n/ac、IEEE 802.16、IEEE 802.20等等。无线协议的其他示例可以包括各种无线广域网(WWAN)协议,诸如具有GPRS的GSM蜂窝无线电话系统协议、具有1xRTT的CDMA蜂窝无线电话通信系统、EDGE系统、EV-DO系统、EV-DV系统、HSDPA系统等等。无线协议的另外的示例可以包括无线个域网(PAN)协议,诸如红外协议、来自蓝牙特别兴趣组(SIG)系列协议的协议(例如,蓝牙规范版本5.0、6、7、传统蓝牙协议等)以及一个或多个蓝牙简档等等。无线协议的又一示例可以包括近场通信技术和协议,诸如电磁感应(EMI)技术。EMI技术的一个示例可以包括无源或有源射频识别(RFID)协议和设备。其他合适的协议可以包括超宽带(UWB)、数字办公室(DO)、数字家庭、可信平台模块(TPM)、ZigBee等等。
在一些实施例中,提供了其上包含计算机可执行指令的至少一种非暂时性计算机可读存储介质,其中,当由至少一个处理器执行时,计算机可执行指令使得至少一个处理器执行本文描述的方法的实施例。该计算机可读存储介质可以包含在存储器子系统76中。
在一些实施例中,存储器子系统76可以包括能够存储数据的任何机器可读或计算机可读介质,包括易失性/非易失性存储器和可移除/不可移除存储器二者。存储器子系统76可以包括至少一个非易失性存储器单元。非易失性存储器单元能够存储一个或多个软件程序。软件程序可以包含例如应用、用户数据、设备数据和/或配置数据,或者它们的组合,仅举几个示例。软件程序可以包含可由系统30的各种组件执行的指令。
在各个方面,存储器子系统76可以包括能够存储数据的任何机器可读或计算机可读介质,包括易失性/非易失性存储器和可移除/不可移除存储器二者。例如,存储器可以包括只读存储器(ROM)、随机存取存储器(RAM)、动态RAM(DRAM)、双数据速率DRAM(DDR-RAM)、同步DRAM(SDRAM)、静态RAM(SRAM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、闪速存储器(例如NOR或NAND闪速存储器)、内容可寻址存储器(CAM)、聚合物存储器(例如铁电聚合物存储器)、相变存储器(例如奥氏存储器)、铁电存储器、硅-氧化物-氮化物-氧化物-硅(SONOS)存储器、盘存储器(例如,软盘、硬驱动器、光盘、磁盘)或卡(例如,磁卡、光卡)或适于存储信息的任何其他类型的介质。
在一个实施例中,存储器子系统76可以包含用于执行各种方法的文件形式的指令集,所述方法诸如包括使用经训练的神经网络的动态PET成像的方法,如本文所述。指令集可以以任何可接受的机器可读指令形式存储,包括源代码或各种适当的编程语言。可用于存储指令集的编程语言的一些示例包括但不限于:Java、C、C++、C#、Python、Objective-C、Visual Basic或.NET编程。在一些实施例中,包括编译器或解释器,以将指令集转换成由处理子系统72执行的机器可执行代码。
本文描述的每个功能组件可以以计算机硬件、以程序代码和/或以执行这种程序代码的一个或多个计算系统来实现,如本领域已知的。如上文关于图1和图12所讨论的,这样的计算系统可以包括执行存储在存储器系统中的处理器可执行程序代码的一个或多个处理单元。类似地,这里描述的每个公开的方法和其他过程可以使用硬件和软件的任何合适的组合来执行。体现这些过程的软件程序代码可以由任何非暂时性有形介质存储,如以上参考图1和12所讨论的。
尽管已经根据示例性实施例描述了主题,但是其不限于此。相反,所附权利要求应当被宽泛地解释,以包括本领域技术人员可以做出的其他变型和实施例。
Claims (20)
1.一种系统,包括:
正电子发射断层摄影(PET)成像模态,其被配置为执行第一扫描以采集第一PET数据集,其中所述第一PET数据集包括动态PET数据;和
处理器,被配置为:
反投影第一PET数据集以生成多个直方图像帧,其中每个直方图像帧对应于PET成像模态的第一轴向位置;
将多个直方图像帧中的每一个输入到经训练的神经网络;和
从经训练的神经网络接收估计的动态PET输出。
2.根据权利要求1所述的系统,其中,所述估计的动态PET输出包括多个时间特定的重建PET图像。
3.根据权利要求1所述的系统,其中,所述估计的动态PET输出包括动态PET参数。
4.根据权利要求1所述的系统,其中,所述估计的动态PET输出包括多个参数重建图像。
5.根据权利要求1所述的系统,其中,所述经训练的神经网络是经训练的卷积神经网络。
6.根据权利要求1所述的系统,其中,所述第一PET数据集包括列表模式数据集。
7.根据权利要求1所述的系统,其中,所述第一PET数据集包括多个飞行时间正弦图或时间参考的直方图像。
8.根据权利要求1所述的系统,其中,所述经训练的神经网络由训练数据集生成,所述训练数据集包括从由以下各项组成的组中选择的训练输入:PET列表模式数据、时间参考的飞行时间正弦图和时间参考的直方图像帧。
9.根据权利要求8所述的系统,其中,所述训练数据集包括基础真实输出图像。
10.一种用于正电子发射断层摄影(PET)成像设备的动态成像的方法,包括:
执行第一扫描以采集第一PET数据集,其中所述第一PET数据集包括动态PET数据;
反投影第一PET数据集以生成多个直方图像帧,其中每个直方图像帧对应于PET成像模态的第一轴向位置;
将多个直方图像帧中的每一个输入到经训练的神经网络;和
从经训练的神经网络接收估计的动态PET输出。
11.根据权利要求10所述的方法,其中,所述估计的动态PET输出包括多个时间特定的重建PET图像。
12.根据权利要求10所述的方法,其中,所述估计的动态PET输出包括动态PET参数。
13.根据权利要求10所述的方法,其中,所述估计的动态PET输出包括多个参数重建图像。
14.根据权利要求10所述的方法,其中,所述经训练的神经网络是经训练的卷积神经网络。
15.根据权利要求10所述的方法,其中,所述第一PET数据集包括列表模式数据集。
16.根据权利要求10所述的方法,其中,所述第一PET数据集包括多个飞行时间正弦图。
17.根据权利要求10所述的方法,其中所述经训练的神经网络由训练数据集生成,所述训练数据集包括从由以下各项组成的组中选择的训练输入:PET列表模式数据、时间参考的飞行时间正弦图和时间参考的直方图像帧。
18.根据权利要求10所述的方法,其中,所述训练数据集包括基础真实输出图像。
19.一种训练用于动态正电子发射断层摄影(PET)成像的神经网络的方法,包括:
接收包括多个动态PET数据集和多个动态PET输出的训练数据集,其中多个动态PET数据集中的每个动态PET数据集在多个动态PET输出中具有对应的动态PET输出;
将所述多个动态PET数据集的每一个输入到神经网络,其中所述神经网络被配置为针对所述多个动态PET数据集中的每个动态PET数据集生成估计的动态PET输出;
将每个动态PET数据集的估计的动态PET输出与来自多个动态PET输出的对应动态PET输出进行比较,以确定每个估计的动态PET输出与对应于输入到神经网络的动态PET数据集的动态PET输出之间的任何差异;和
基于每个动态PET数据集的估计的动态PET输出和对应的动态PET输出之间的所确定的差异来修改神经网络。
20.根据权利要求19所述的方法,其中所述多个动态PET输出中的每个动态PET输出包括一个或多个动态参数。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/806,743 US20230401769A1 (en) | 2022-06-14 | 2022-06-14 | Systems and methods of accelerated dynamic imaging in pet |
US17/806743 | 2022-06-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117224154A true CN117224154A (zh) | 2023-12-15 |
Family
ID=89077873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310706257.8A Pending CN117224154A (zh) | 2022-06-14 | 2023-06-14 | Pet中加速动态成像的系统和方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230401769A1 (zh) |
CN (1) | CN117224154A (zh) |
-
2022
- 2022-06-14 US US17/806,743 patent/US20230401769A1/en active Pending
-
2023
- 2023-06-14 CN CN202310706257.8A patent/CN117224154A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230401769A1 (en) | 2023-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Würfl et al. | Deep learning computed tomography: Learning projection-domain weights from image domain in limited angle problems | |
US11315221B2 (en) | Apparatus and method for image reconstruction using feature-aware deep learning | |
US11010938B2 (en) | Systems and methods for positron emission tomography image reconstruction | |
CN107133549B (zh) | Ect运动门控信号获取方法及ect图像重建方法 | |
US9305379B2 (en) | Methods and systems for tomographic reconstruction | |
CN110809782A (zh) | 衰减校正系统和方法 | |
CN115605915A (zh) | 一种图像重建系统和方法 | |
CN110363797B (zh) | 一种基于过度形变抑制的pet与ct图像配准方法 | |
US11222447B2 (en) | Inter-frame motion correction in whole-body direct parametric image reconstruction | |
CN105894550B (zh) | 一种基于tv和稀疏约束的动态pet图像和示踪动力学参数同步重建方法 | |
CN110996800B (zh) | 用于确定pet成像动力学参数的系统、方法及非暂时性计算机可读介质 | |
CN111937080B (zh) | 从成像数据中导出的运动信号 | |
CN114092589B (zh) | 图像重建方法及训练方法、装置、设备及存储介质 | |
Hashimoto et al. | Deep learning-based PET image denoising and reconstruction: a review | |
Nichols et al. | Continuous time dynamic PET imaging using list mode data | |
CN112529977B (zh) | 一种pet图像重建的方法和系统 | |
CN114494479A (zh) | 利用神经网络对低剂量pet图像进行同时衰减校正、散射校正和去噪声的系统和方法 | |
US11164344B2 (en) | PET image reconstruction using TOF data and neural network | |
US20230401769A1 (en) | Systems and methods of accelerated dynamic imaging in pet | |
Iskender et al. | A physics-motivated DNN for X-ray CT scatter correction | |
US20220309718A1 (en) | Continuous bed motion acquisition with axially short phantom for pet imaging system setup and quality control | |
CN114359431A (zh) | 一种参数图像的直接重建方法和系统 | |
WO2023219650A1 (en) | Systems and methods for super time-of-flight resolution | |
O'Briain et al. | FlowNet-PET: unsupervised learning to perform respiratory motion correction in PET imaging | |
US20220296194A1 (en) | Pet imaging using multiple organ specific short ct scans |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |