CN116977458A - 一种产生多通道空间支持图的方法与系统 - Google Patents

一种产生多通道空间支持图的方法与系统 Download PDF

Info

Publication number
CN116977458A
CN116977458A CN202310436153.XA CN202310436153A CN116977458A CN 116977458 A CN116977458 A CN 116977458A CN 202310436153 A CN202310436153 A CN 202310436153A CN 116977458 A CN116977458 A CN 116977458A
Authority
CN
China
Prior art keywords
image
channel
dataset
deep learning
reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310436153.XA
Other languages
English (en)
Inventor
吴学奎
易哲源
胡嘉豪
梁志伦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Hong Kong HKU
Original Assignee
University of Hong Kong HKU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Hong Kong HKU filed Critical University of Hong Kong HKU
Publication of CN116977458A publication Critical patent/CN116977458A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T12/00Tomographic reconstruction from projections
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及用于快速和无校准低秩磁共振成像(MRI)图像重建的基于深度学习的方法,其包括从具有和没有空间对齐的k‑空间数据导出多通道空间支持,和/或从具有和没有空间对齐的完全采样的k‑空间数据导出最佳秩作为目标;训练深度学习模型以从欠采样的k空间数据中估计多通道空间支持和/或最佳秩;应用经过训练的模型从欠采样的k空间数据中估计多通道空间支持和/或最佳秩;以及通过低秩矩阵补全方法利用深度学习模型估计的多通道空间支持或最优秩恢复缺失的k空间样本。本发明的方法能够快速可靠地重建高度欠采样的多通道MRI数据,而无需线圈灵敏度校准数据,从而允许以更高效和健壮的方式进行无校准并行成像。

Description

一种产生多通道空间支持图的方法与系统
背景技术
并行成像因其在图像重建中的数值稳定性而经常应用于许多磁共振成像(MRI)应用中(参见本说明书后所附的参考文献1和2,后面简称为参考文献),图像重建中的数值稳定性是在临床实践中必须充分考虑的。为了进行重建,传统的并行成像技术需要从校准扫描或自动校准信号(ACS)中明确了解线圈灵敏度(参考文献3)或k空间(参考文献4)中的对应关系。通常,需要获取此类校准数据,从而延长了数据获取时间,有时还会增加对运动的敏感性(参考文献5)。
低秩并行成像(参考文献6-8)已成为一种无校准的替代方案,无需获取校准数据即可同时进行自动校准和k空间逼近。例如,局部k空间邻域法(LORAKS,参考文献7)的低秩建模通过识别结构化低秩矩阵的零空间基和以顺序迭代的方式逼近缺失样本,从本质上探讨了用于图像重建的有限图像支持和线圈灵敏度调制。然而,这种缓慢的迭代过程对计算量要求很高,并且可能导致高加速度下的重建不准确。有几种方法采用ACS数据作为加速迭代低秩重建(参考文献9)或诸如Nyquist ghost(参考文献10)的补偿采集缺陷的约束。但是,这些方法以校准方式利用来自完全采样的中心k空间区域的MRI数据的线性关系,使低秩重建不可避免地依赖于足够的ACS采集。最近,有人已经提出了无校准低秩重建的图像空间替代方案,它明确地估计多通道空间支持,该多通道空间支持嵌入了有限图像支持和来自结构化低秩矩阵(参考文献11-13)或张量(参考文献14)的MR图像的线圈灵敏度信息以用于快速重建,但仍然需要繁琐的迭代过程才能获得准确的多通道空间支持。这种限制显著影响了无校准重建在实践中的应用,特别是对于具有体积覆盖率的高分辨率成像(参考文献15,16)。
随着计算成像技术的进步,在研究大型数据库中MR数据关系以进行图像形成(参考文献17-22)、k空间插值(参考文献23)和域变换重建(参考文献24)方面,深度学习展示出了其独特能力。深度学习数据驱动的方法最近还被采用以将迭代低秩重建算法展开到网络结构中。例如,已经构想将结构化低秩矩阵的构造和分解应用到卷积神经网络,通过深度学习提供非线性k空间插值方法(参考文献25)。另一种用于插值缺失k空间数据的卷积神经网络是通过将迭代低秩重建构造成回归架构来提供(参考文献26)。为了探索MR数据的复数性质,人们提出了用于深度学习部分傅里叶重建的复值卷积神经网络,展示出了相位敏感MRI应用中的准确的图像幅度和相位恢复(参考文献27)。
最近,人们发现了深度学习端到端重建的不稳定性与图像域或k空间中某些微小或不可检测的扰动相关(参考文献2),这可能会导致伪影并影响深度学习重建在实践中的稳健使用。另外,与端到端重建方法不同,作为替代,可以将深度学习作为先验约束结合进去,以促进或改进传统的MR图像重建。例如,人们已经应用变分自动编码器来捕获MR图像块的分布(参考文献28)或图像结构的梯度(参考文献29),这为压缩感知重建(参考文献30)中更好的图像恢复提供了先验约束。类似的策略也已经通过将深度学习的正则化项结合到图像去噪中去,以保留图像结构细节(参考文献31)。这些使用深度学习的先验知识或约束的方法优于单独的传统重建方法,这表明深度学习有可能改善无校准低秩并行成像重建(参考文献32-33)。
发明内容
通过对改进的深度学习变换进行估计,本发明的实施例可以提供欠采样多通道二维磁共振(MR)数据的快速且无校准的低秩并行成像重建。在某些实施例中,这种变换可以包括多通道空间支持图(MCSSM)或一组ESPIRiT图。就用于ESPIRiT图或空间支持图的深度学习预测的相似或几乎相同的系统和方法而言,多通道空间支持图和ESPIRiT图的实施例是相关的。某些实施例也可以在应用方面部分或完全独立。
无校准并行成像重建,例如局部k空间邻域低秩建模(LORAKS)方法,可以通过估计零空间基和以顺序迭代的方式逼近在结构化低秩矩阵中的欠采样数据来利用MR图像的线圈灵敏度和有限图像支持(表征为多通道空间支持)。但是,此迭代过程对计算量要求很高,并且可能导致高加速度下的重建不准确。使用来自同一MR接收线圈系统的完全采样的多切片数据集,一些实施例提供深度学习框架,以直接从欠采样数据估计多通道空间支持以用于后续低秩重建。奈奎斯特(Nyquist)速率指定的采样率(本领域已知)等于给定函数或信号的最高频率(带宽)的两倍(例如,以每秒采样数或赫兹为单位)。可以以奈奎斯特速率或大约奈奎斯特速率对完全采样的数据集进行采样。高于奈奎斯特速率采样的数据集可以认为是过采样。过采样数据集也是完全采样的。低于奈奎斯特速率采样的数据集是欠采样的。欠采样数据集也不是完全采样的。可以从完全采样的数据集中创建回溯性欠采样数据集,方法是移除足够的数据点以产生保留完全采样的数据集中部分值的数据集版本;回溯性欠采样数据集的净有效采样率低于奈奎斯特率。在某些实施例中,由同一MR接收线圈系统获取的具有接近成像方向的数据集可以固有地表现出它们的线圈灵敏度的强烈相似性,这可以根据相对于MR线圈系统的规定成像位置和方向进行对齐。为了进一步利用每个数据集可用的这种线圈-对象几何参数(例如,如标准图像头部中所定义的),一些实施例提供了可以通过最小化从每个数据集导出的多通道空间支持上的混合损失来训练的复值网络,无论数据集是否与线圈系统进行空间对齐。这个深度学习框架可以与LORAKS重建集成在一起。例如,可以使用目前公开可用的梯度回波T1加权轴脑数据集来评估系统性能。
本发明的一些实施例提供了多通道空间支持的结构化低秩矩阵估计,可以明确地表征MR图像的有限图像支持和线圈灵敏度信息。所提供的深度学习框架的一些实施例已经从欠采样数据中产生了高质量的多通道空间支持,因此无需迭代即可直接进行LORAKS重建。与现有技术的方法相比,本发明的一些实施例进一步提供了更有效的伪影和噪声放大的减少,尤其是在高加速度下。
在某些实施例中,经由深度学习通过估计多通道空间支持可以实现快速准确的2DLORAKS重建。某些实施例提供了一种新策略,包括一些系统和方法,以提升低秩无校准并行成像,同时保持图像重建的数值稳定性。
经由深度学习通过估计多通道空间支持,本发明的一些实施例可以提供快速且无校准的2D低秩并行成像重建。具体而言,使用来自同一MR接收线圈系统的标准方向的完全采样的多切片数据集,一些实施例可以包括深度学习框架,以直接从欠采样数据估计高质量多通道空间支持,用于后续LORAKS重建。为了利用每个数据集可用的线圈-对象几何参数,可以通过最小化从每个数据集导出的多通道空间支持上的混合损失来训练复值网络,无论数据集是否与线圈系统进行空间对齐。因此,通过经由深度学习直接估计多通道空间支持,无需迭代即可使用本发明的一些实施例实现快速LORAKS重建。此外,该策略已被证明可以更有效地减少残留伪影和噪声放大,尤其是在高加速度下。
附图说明
图1A示出了根据本发明的一个实施例的多通道空间支持的结构化低秩矩阵估计。
图1B示出了根据本发明的一个实施例的用于直接从欠采样数据估计多通道空间支持的深度学习框架。
图1C示出了根据本发明的一个实施例的使用经由深度学习估计的多通道空间支持的LORAKS 2D重建。
图2示出了根据本发明的一个实施例的复值网络的结构。该网络采用典型的U-net架构,并对每一层采用复数卷积扩展。
图3示出了根据本发明的一个实施例的在应用于空间对齐的旋转和平移方面的线圈-对象几何参数。
图4比较了根据本发明的一个实施例的使用深度学习估计的多通道空间支持的直接LORAKS重建和在(R=2到5)时的常规迭代LORAKS。
图5示出了根据本发明的一个实施例在不同加速因子下对应于图4中示出的切片所估计的多通道空间支持的大小,包括(A)完全采样;(B)R=3时的无校准一维随机欠采样;以及(C)R=4时的无校准一维随机欠采样。
图6示出了根据本发明的一个实施例从具有最大俯仰旋转(10度)的6通道数据集中的4个所选择切片的重建。
图7示出了根据本发明的一个实施例从具有最大头部旋转(6度)的6通道数据集中的4个所选择切片的重建。
图8示出了根据本发明的一个实施例的在具有和没有经由深度学习所估计的初始多通道空间支持的情况下迭代LORAKS重建的中间结果(第1、2、3、5、10、50、100和200次迭代)。
图9示出了根据本发明的一个实施例的对应于图5的所估计的多通道空间支持的相位。
图10示出了与相关技术方法相比,根据本发明的一个实施例的对应于图4中的重建结果的残差直方图。
图11示出了根据本发明的一个实施例的在有和没有对从与线圈系统对齐的数据集导出的多通道空间支持上的损失同时进行最小化的情况下的学习曲线。
图12示出了根据本发明的一个实施例的从具有最不紧凑空间支持的6通道数据集中的4个所选择切片的重建。
图13A-13M示出了根据本发明的一个实施例的从6通道数据集中选择的两个通道中的每一个通道的图像的13x13网格。
图14示出了根据本发明的一个实施例的流水线。
图15A-15C示出了根据本发明的一个实施例的图14的流水线中涉及的某些实现细节。
图16A和16B示出了参考ESPIRiT图和估计的ESPIRiT图(R=2、3、4、5)的比较。
图17示出了对应于图16A中的参考图和估计图的ESPIRiT重建图像的比较(R=2、3、4、5;线圈=6)。
图18示出了使用参考和估计的ESPIRiT图(R=4,线圈=6)的具有最大俯仰旋转(10度)的ESPIRiT重建图像的比较。
图19示出了使用有/无掩蔽的SENSE重建和使用参考和估计图的ESPIRiT重建(R=4,线圈=6)的重建图像的比较。SENSE是一种经典的重建方法,它利用线圈灵敏度图展开线圈图像和平方和(sum-of-squares,SOS)来重建图像。
图20A-20D示出了对来自两个对象(R=4,线圈=6)的测试数据的重建性能的定量分析。
图21示出了使用参考ESPIRiT和估计的ESPIRiT图(R=4,线圈=6)的具有最大滚动旋转(6度)的重建图像的比较。
图22A-22C示出了该研究的工作流程以及涉及的模型架构和数据空间对齐。
具体实施方式
本发明的实施例解决了无校准低秩重建方法的技术问题,该方法明确地估计用于快速重建的多通道空间支持(例如,嵌入了来自结构化低秩矩阵或张量的磁共振成像(MRI)图像的有限图像支持和线圈灵敏度信息),这种快速重建需要繁琐的迭代过程以获得准确的多通道空间支持或最佳秩。这种限制极大地影响了无校准重建在实践中的应用,特别是对于具有体积覆盖率的高分辨率成像。
这个问题是通过应用一种新的基于深度学习的方法来准确和直接地从欠采样的k空间数据中估计多通道空间支持或最佳秩来解决的,从而允许以更有效和健壮的方式进行无校准并行成像。
从以下示例中可以更好地理解本发明的实施例及其许多优点,这些示例以说明的方式给出。以下示例说明了本发明的一些方法、应用、实施例和本发明的一些变体。当然,它们不应被认为是对本发明的限制。可以对本发明的实施例进行许多改变和修改。
实施例1.一种经由用于图像处理的深度学习产生多通道空间支持图(MCSSM)的方法,该方法包括以下步骤:
执行所引导的深度学习过程的一次或多次迭代,以通过最小化混合损失测量(HLM)来训练一组复值网络;
其中HLM包括HLM公式,该公式包括第一MCSSM第二MCSSM(Sij)和第三MCSSM
其中是从具有空间对齐信息的第一组完全采样的多通道多切片图像导出的;
其中(Sij)是从没有空间对齐信息的第一组完全采样的多通道多切片图像导出的;
其中是从一组复值网络到第二组多通道多切片图像的应用导出的。
实施例2.根据实施例1所述的方法,HLM将和(Sij)之间的第一差与之间的第二差相结合。
实施例3.根据实施例1所述的方法,HLM公式包括以下公式:
其中λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子。
其中控制权重必须服从λ12=1的约束,以提供两项之间的有效平衡。
实施例4.根据实施例1所述的方法,第二组多通道多切片图像是第一组完全采样的多通道多切片图像的回溯性欠采样。
实施例5.根据实施例4所述的方法,第一组完全采样的多通道多切片图像包括从MR接收线圈系统生成的磁共振(MR)数据。
实施例6.根据实施例5所述的方法,空间对齐信息包括或源自MR接收线圈系统的线圈-对象几何参数,其在可用于完全采样的多通道多切片图像的医学数字成像和通信(DICOM)格式头部中定义。
实施例7.根据实施例6所述的方法,其中经由具有与MR接收线圈系统空间对齐的空间支持的结构化低秩矩阵估计来导出。
实施例8.根据实施例6所述的方法,其中(Sij)经由没有与MR接收线圈系统空间对齐的空间支持的结构化低秩矩阵估计来导出。
实施例9.一种经由用于图像处理的深度学习产生多通道空间支持图的系统,该系统包括:
处理器;以及
机器可读介质,其能够操作来与处理器通信并在其上存储指令,当指令由处理器执行时,执行以下操作:
a)将(i)定义为大于零的第一整数;
b)将(j)定义为大于零的第二整数;
c)从机器可读介质读取第一图像数据集,第一图像数据集是完全采样的并且包括(j)个图像切片、(i)个图像通道和一组空间对齐参数,所述一组空间对齐参数将每个图像切片(j)和每个图像通道(i)的一些或全部分别与用于创建第一图像数据集的成像系统相关;
d)从机器可读介质读取第二图像数据集,第二图像数据集是欠采样的并且包括(j)个图像切片和(i)个图像通道;
e)从机器可读介质读取复值网络(CVN)数据集,CVN数据集包括(i)个CVN,每个相应的CVN(i)与来自第二图像数据集的相应图像通道(i)相关联;
f)从第一图像数据集并基于所述一组空间对齐参数导出每个图像切片(j)和每个图像通道(i)的包括空间对齐信息的第一多通道空间支持矩阵
g)从第一图像数据集导出每个图像切片(j)和每个图像通道(i)的没有空间对齐的第二多通道空间支持矩阵(Sij);
h)通过与第二图像数据集的每个相应图像通道(i)相关联的相应CVN(i)处理该通道,以产生对于每个图像切片(j)和每个图像通道(i)的第三多通道空间支持矩阵
i)通过深度学习过程训练每个相应的CVN产生经过训练的CVN数据集,其包括(i)个经过训练的CVN,每个经过训练的CVN(i)分别与相应的图像通道(i)相关联;以及
j)通过与第二图像数据集的每个相应图像通道(i)相关联的相应的经过训练的CVN(i)处理该通道,以产生对于每个图像切片(j)和每个图像通道(i)的用于图像处理的深度学习多通道空间支持图
实施例10.根据实施例9所述的系统,该成像系统包括磁共振(MR)接收线圈系统。
实施例11.根据实施例10所述的系统,所述一组空间对齐参数包括与磁共振(MR)接收线圈系统相关的线圈-对象几何参数。
实施例12.根据实施例9所述的系统,所述第二图像数据集包括第一数量(j)的图像切片和从所述第一图像数据集回溯性欠采样的第二数量(i)的图像通道。
实施例13.根据实施例9所述的系统,训练包括一次或多次迭代,每次迭代包括:
i.将当前和Sij中之一或两者进行比较,以产生损失测量,
ii.更新每个相应的CVN(i)以减少损失测量,由此产生包含
(i)个经过训练的CVN的经过训练的CVN数据集,
iii.通过与第二图像数据集的每个相应图像通道(i)相关联的相应的经过训练的CVN(i)处理该通道,以产生和更新每个图像切片(j)和每个图像通道(i)的用于图像处理的深度学习多通道空间支持矩阵
实施例14.根据实施例13所述的系统,所述损失测量是混合损失测量(HLM),其将当前和Sij两者进行比较。
实施例15.根据实施例14所述的系统,所述HLM将和(Sij)之间的第一差与之间的第二差相结合。
实施例16.根据实施例15所述的系统,所述HLM公式包括以下公式:
其中,λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子;
其中,控制权重必须服从λ12=1的约束,以提供两项之间的有效平衡。
实施例17.一种用于产生重建图像的方法,该方法包括:
提供图像数据集,该图像数据集是欠采样的多通道多切片图像数据集,其包括第一数量的成像通道和第二数量的图像切片;
提供经过训练的网络,该经过训练的网络包括一组经过训练的复值网络,该复值网络包括经过训练以处理图像数据集中第一数量的成像通道中的每一个相应通道的独特复值网络;
通过经过训练的网络处理图像数据集以产生针对图像数据集中的相应第二数量的图像切片中的每一个的第一空间支持;以及
基于第一空间支持执行每个相应图像切片的重建,以产生重建图像。
实施例18.根据实施例17所述的方法,每个相应图像切片的重建是迭代重建。
实施例19.根据实施例18所述的方法,所述迭代重建包括每个图像切片的局部k空间邻域(LORAKS)2D重建的低秩建模的一次或多次迭代。
实施例20.根据实施例19所述的方法,每个图像切片的LORAKS 2D重建包括选自包括以下的列表的至少一个步骤:
使用基于FFT的计算进行最小二乘重建;
加强数据一致性的约束;
结构化低秩矩阵构造和分解;以及
估计零空间基以更新多通道空间支持。
实施例21.根据实施例19所述的方法,每个相应的图像切片的重建使用经由深度学习估计的高质量多通道空间支持并且包括在LORAKS方法中的直接最小二乘重建。
实施例22.根据实施例21所述的方法,其中没有迭代的直接最小二乘重建不包括零空间基的估计,并且该方法不包括在LORAKS方法中手动调整目标秩。
实施例23.根据实施例18所述的方法,迭代重建包括针对每个相应图像切片的少于六次的迭代。
实施例24.根据实施例18所述的方法,迭代重建包括针对每个相应图像切片的少于三次的迭代。
实施例25.根据实施例17所述的方法,每个相应的图像切片的重建使用经由深度学习估计的高质量多通道空间支持并且包括没有迭代的直接最小二乘重建。
实施例26.一种用于经由用于图像处理的深度学习产生ESPIRiT图的方法,该方法包括:
执行所引导的深度学习过程的一次或多次迭代,以通过最小化混合损失测量(HLM)来训练神经网络;
其中HLM公式包括第一组ESPIRiT图第二组ESPIRiT图(Eij)和第三组ESPIRiT图
其中是从来自具有空间对齐信息的多切片图像的第一组完全采样的多通道ESPIRiT图导出的;
其中(Eij)是从来自没有空间对齐信息的多切片图像的第一组完全采样的多通道ESPIRiT图导出的;以及
其中是从神经网络对来自多切片图像的第二组多通道ESPIRiT图的应用导出的。
实施例27.根据实施例26所述的方法,所述HLM将和(Eij)之间的第一差与之间的第二差相结合。
实施例28.根据实施例26所述的方法,所述HLM公式包括以下公式:
其中,λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子;
其中,相应的第一控制权重和第二控制权重被λ12=1约束以提供两项之间的有效平衡。
实施例29.根据实施例26所述的方法,第二组多通道多切片图像是第一组完全采样的多通道多切片图像的回溯性欠采样。
实施例30.根据实施例29所述的方法,第一组完全采样的多通道多切片图像包括从MR接收线圈系统生成的磁共振(MR)数据。
实施例31.根据实施例30所述的方法,空间对齐信息包括或源自MR接收线圈系统的线圈-对象几何参数,其在用于完全采样的多通道多切片图像的DICOM头部中定义。
实施例32.根据实施例31所述的方法,其中经由具有与MR接收线圈系统的空间对齐的空间支持的结构化低秩矩阵估计来导出。
实施例33.根据实施例31所述的方法,其中(Eij)经由没有与MR接收线圈系统的空间对齐的空间支持的结构化低秩矩阵估计来导出。
实施例34.一种产生用于图像处理的深度学习估计的ESPIRiT图的系统,该系统包括:
处理器;以及
机器可读介质,其能够操作来与处理器通信并在其上存储指令,指令当由处理器执行时,执行以下操作:
从机器可读介质读取第一图像数据集,第一图像数据集是完全采样的并且包括图像切片、图像通道和一组空间对齐参数,所述一组空间对齐参数将每个图像切片和每个图像通道中的一些或全部分别与用于创建第一图像数据集的成像系统相关;
从机器可读介质读取第二图像数据集,第二图像数据集是欠采样的并且包括多个图像切片和多个图像通道;
从机器可读介质读取卷积神经网络(CNN);
从第一图像数据集并基于一组空间对齐参数导出对于每个图像切片和每个图像通道的包括空间对齐信息的第一组ESPIRiT图
从第一图像数据集导出对于每个图像切片和每个图像通道的没有空间对齐的第二组ESPIRiT图(Eij);
通过CNN处理第二图像数据集的每个相应图像通道,以产生第三组ESPIRiT图
通过深度学习过程训练CNN以产生经过训练的CNN;以及
通过CNN处理第二图像数据集的每个相应图像通道,以产生用于图像处理的深度学习估计的ESPIRiT图
实施例35.根据实施例34所述的系统,成像系统包括磁共振(MR)接收线圈系统。
实施例36.根据实施例35所述的系统,所述一组空间对齐参数包括与磁共振(MR)接收线圈系统相关的线圈-对象几何参数。
实施例37.根据实施例34所述的系统,所述第二图像数据集包括第一数量的图像切片和从所述第一图像数据集回溯性欠采样的第二数量的图像通道。
实施例38.根据实施例34所述的系统,所述训练包括一次或多次迭代,每次迭代包括:
将当前和Eij中之一或两者进行比较,以产生损失测量;
更新CNN以减少损失测量,由此产生经过训练的CNN;以及
通过经过训练的CNN处理第二图像数据集的每个相应图像通道,以产生和更新用于图像处理的深度学习估计的ESPIRiT图
实施例39.根据实施例38所述的系统,所述损失测量是混合损失测量(HLM),其将当前和Eij两者进行比较。
实施例40.根据实施例39所述的系统,所述HLM将和(Eij)之间的第一差与之间的第二差相结合。
实施例41.根据实施例40所述的系统,所述HLM公式包括以下公式:
其中,λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子;
其中,相应的第一控制权重和第二控制权重被λ12=1约束以提供两项之间的有效平衡。
实施例42.一种用于产生重建图像的方法,该方法包括:
提供图像数据集,该图像数据集是欠采样的多通道多切片图像数据集,其包括第一数量的成像通道和第二数量的图像切片;
提供经过训练的网络,该经过训练的网络包括经过训练以处理图像数据集中的第一数量的成像通道中的每一个相应通道的卷积神经网络;
通过经过训练的网络处理图像数据集以产生一组估计的ESPIRiT图;以及
基于一组估计的ESPIRiT图执行每个相应图像切片的重建,以产生重建图像。
实施例43.根据实施例42所述的方法,每个相应图像切片的重建是迭代重建。
实施例44.根据实施例43所述的方法,所述迭代重建包括每个图像切片的局部k空间邻域(LORAKS)2D重建的低秩建模的一次或多次迭代。
实施例45.根据实施例44所述的方法,每个图像切片的LORAKS 2D重建包括选自以下的至少一个步骤:
使用基于FFT的计算进行最小二乘重建;
加强数据一致性的约束;
结构化低秩矩阵构造和分解;以及
估计零空间基以更新多通道空间支持。
实施例46.根据实施例44所述的方法,每个相应图像切片的重建使用一组估计的ESPIRiT图并且包括LORAKS方法中的直接最小二乘重建。
实施例47.根据实施例46所述的方法,其中直接最小二乘重建在没有迭代的情况下进行并且不包括零空间基的估计并且该方法不包括在LORAKS 2D重建中手动调整目标秩。
实施例48.根据实施例43所述的方法,所述迭代重建包括针对每个相应图像切片的少于六次迭代。
实施例49.根据实施例43所述的方法,所述迭代重建包括针对每个相应图像切片的少于三次迭代。
实施例50.根据实施例42所述的方法,每个相应图像切片的重建使用经由深度学习估计的一组ESPIRiT图并且包括没有迭代的直接最小二乘重建。
实施例51.一种用于产生用于图像处理的改进的深度学习变换(TDL)的方法,该方法包括:
执行引导深度学习过程的一次或多次迭代,以通过最小化混合损失测量(HLM)来训练神经网络;
其中HLM包括HLM公式,HLM公式包括第一变换(Tref)、第二变换(T)和第三变换(TDL);
其中(Tref)是从具有空间对齐信息的第一组完全采样的多通道多切片图像导出的;
其中(T)是从没有空间对齐信息的第一组完全采样的多通道多切片图像导出的;以及
其中(TDL)是从神经网络对第二组多通道多切片图像的应用导出的。
实施例52.根据实施例51所述的方法,所述HLM将(TDL)和(T)之间的第一差与(TDL)和(Tref)之间的第二差相结合。
实施例53.根据实施例51所述的方法,HLM公式包括以下公式:
λ1|TDL-T|+λ2|MTDL-Tref|
其中,λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子;
其中,相应的第一控制权重和第二控制权重被λ12=1约束以提供两项之间的有效平衡。
实施例54.根据实施例51所述的方法,第二组多通道多切片图像是第一组完全采样的多通道多切片图像的回溯性欠采样。
实施例55.根据实施例54所述的方法,第一组完全采样的多通道多切片图像包括从MR接收线圈系统生成的磁共振(MR)数据。
实施例56.根据实施例55所述的方法,所述空间对齐信息包括或源自MR接收线圈系统的线圈-对象几何参数,其在用于完全采样的多通道多切片图像的DICOM头部中定义。
实施例57.根据实施例56所述的方法,其中(Tref)经由具有与MR接收线圈系统的空间对齐的空间支持的结构化低秩矩阵估计来导出。
实施例58.根据实施例56所述的方法,其中(T)经由没有与MR接收线圈系统的空间对齐的空间支持的结构化低秩矩阵估计来导出。
实施例59.一种产生用于图像处理的改进的深度学习变换(TDL)的系统,该系统包括:
处理器;以及
机器可读介质,其能够操作来与处理器通信并在其上存储指令,指令当由处理器执行时,执行以下操作:
从机器可读介质读取第一图像数据集,第一图像数据集是完全采样的并且包括图像切片、图像通道和一组空间对齐参数,所述一组空间对齐参数将每个图像切片和每个图像通道中的一些或全部分别与用于创建第一图像数据集的成像系统相关;
从机器可读介质读取第二图像数据集,第二图像数据集是欠采样的并且包括多个图像切片和多个图像通道;
从机器可读介质读取卷积神经网络(CNN);
从第一图像数据集并基于一组空间对齐参数导出对于每个图像切片和每个图像通道的包括空间对齐信息的第一变换(Tref);
从第一图像数据集导出对于每个图像切片和每个图像通道的没有空间对齐的第二变换(T);
通过CNN处理第二图像数据集的每个相应图像通道,以产生第三变换(TDL);
通过深度学习过程训练CNN以产生经过训练的CNN;以及
通过经过训练的CNN处理第二图像数据集的每个相应图像通道,以产生用于图像处理的改进的深度学习变换(TDL)。
实施例60.根据实施例59所述的系统,成像系统包括磁共振(MR)接收线圈系统。
实施例61.根据实施例60所述的系统,所述一组空间对齐参数包括与磁共振(MR)接收线圈系统相关的线圈-对象几何参数。
实施例62.根据实施例59所述的系统,第二图像数据集包括第一数量的图像切片和从第一图像数据集回溯性欠采样的第二数量的图像通道。
实施例63.根据实施例59所述的系统,所述训练包括一次或多次迭代,每次迭代包括:
将当前TDL与Tref和T中之一或两者进行比较,以产生损失测量;
更新CNN以减少损失测量,由此产生经过训练的CNN;以及
通过经过训练的CNN处理第二图像数据集的每个相应图像通道,以产生和更新用于图像处理的改进的深度学习变换(TDL)。
实施例64.根据实施例63所述的系统,所述损失测量是混合损失测量(HLM),其将当前TDL与Tref和T两者进行比较。
实施例65.根据实施例64所述的系统,所述HLM将(TDL)和(T)之间的第一差与(TDL)和(Tref)之间的第二差相结合。
实施例66.根据实施例65所述的系统,所述HLM公式包括以下公式:
λ1|TDL-T|+λ2|MTDL-Tref|
其中,λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子;
其中,相应的第一控制权重和第二控制权重被λ12=1约束以提供两项之间的有效平衡。
实施例67.一种用于产生重建图像的方法,该方法包括:
提供图像数据集,该图像数据集是欠采样的多通道多切片图像数据集,其包括第一数量的成像通道和第二数量的图像切片;
提供经过训练的网络,该经过训练的网络包括经过训练以处理图像数据集中的第一数量的成像通道中的每一个相应通道的卷积神经网络;
通过经过训练的网络处理图像数据集以产生改进的深度学习变换(TDL);以及
基于改进的深度学习变换(TDL)执行每个相应图像切片的重建,以产生重建图像。
实施例68.根据实施例67所述的方法,每个相应图像切片的重建是迭代重建。
实施例69.根据实施例68所述的方法,所述迭代重建包括每个图像切片的局部k空间邻域(LORAKS)2D重建的低秩建模的一次或多次迭代。
实施例70.根据实施例69所述的方法,每个图像切片的LORAKS 2D重建包括选自以下的至少一个步骤:
使用基于FFT的计算进行最小二乘重建;
加强数据一致性的约束;
结构化低秩矩阵构造和分解;以及
估计零空间基以更新多通道空间支持。
实施例71.根据实施例69所述的方法,每个相应图像切片的重建使用改进的深度学习变换(TDL)并且包括LORAKS方法中的直接最小二乘重建。
实施例72.根据实施例71所述的方法,其中没有迭代的直接最小二乘重建不包括零空间基的估计,并且该方法不包括在LORAKS 2D重建中手动调整目标秩。
实施例73.根据实施例68所述的方法,迭代重建包括针对每个相应图像切片的少于六次的迭代。
实施例74.根据实施例68所述的方法,迭代重建包括针对每个相应图像切片的少于三次的迭代。
实施例75.根据实施例67所述的方法,每个相应图像切片的重建使用改进的深度学习变换(TDL)并且包括没有迭代的直接最小二乘重建。
实施例76.根据实施例67所述的方法,改进的深度学习变换(TDL)包括多通道空间支持图或一组ESPIRiT图。
实施例77.根据实施例59所述的系统,改进的深度学习变换(TDL)包括多通道空间支持图或一组ESPIRiT图。
实施例78.根据实施例51所述的方法,改进的深度学习变换(TDL)包括多通道空间支持图或一组ESPIRiT图。
图1A-1C中介绍了用于实施所提供的深度学习框架的一个实施例的工作流程以及其与LORAKS2D重建的集成。具体来说,使用由同一MR接收线圈系统获取的多切片数据集,可以训练复值网络在回溯性欠采样数据和通过结构化低秩矩阵估计从原始完全采样的数据导出的多通道空间支持之间进行非线性投射。为了进一步利用线圈-对象几何参数,每个完全采样的多切片数据集可以与线圈系统对齐,并且可以获得相应的具有最小化的线圈灵敏度变化的多通道空间支持,以通过混合损失测量促进深度学习。随后,通过使用经由深度学习估计的多通道空间支持,无需迭代即可执行简单直接的最小二乘(least-square)LORAKS重建。
一些实施例提供多通道空间支持的结构化低秩矩阵估计。在无校准并行成像重建(参考文献7)中,通常形成块式Hankel矩阵,使得列项可以是k空间内的多通道向量化块。如参考文献34中所公开的,平滑的线圈灵敏度调制和多通道MR图像的有限图像支持都可以产生k空间数据的一致卷积关系,并且这种结构化矩阵应该是固有地对于逼近缺失样本所缺少的秩。这种类型的重建,例如LORAKS方法,可以识别酉矩阵,其基U跨越结构化低秩矩阵Γ的零空间,如公式[1]中所述。这里,X和Y可以是对应于采样模式D的低秩逼近和获取的k空间数据。P表示将k空间数据构造为低秩矩阵的运算符。表示保证数据保真度的Frobenius范数。
可替代地,一些实施例通过明确估计MR图像的多通道空间支持来构造新的无校准并行成像重建的基本形式以用于图像空间重建。具体来说,由于每个零空间基U表征了部分卷积关系,将所有基转换回图像空间并对每个图像位置执行逐像素特征分解(35)可以估计多通道空间支持S,其包含有限图像支持和线圈灵敏度信息(见图1A)。该策略与将跨k空间执行的卷积运算符UH U转换为传统的并行成像(参考文献36)和LORAKS重建(参考文献12)中实现的高效图像空间乘法基本相同。因此,图像空间替代方案可以表示为以下公式,其中F-1表示傅里叶逆变换,以将低秩矩阵补全问题转换为图像空间最小二乘重建(例如,使用基于FFT的计算的最小二乘重建)。
SHSF-1X=0
在某些实施例中,重建公式可以由上面的公式[2]以及如下显式地定义。在这里,SHS表示最小二乘形式的多通道空间支持。X表示通过快速傅里叶逆变换F-1在图像空间中重建的欠采样数据。
为保证数据保真度,根据采样模式D重构数据X必须与获取的数据保持一致。此数据一致性约束也已在上面的公式[2]以及如下显式地定义。在这里,ε是一个代表噪声边界的小数。强制执行严格数据一致性的一种简单方法是通过选择适当较小的δ(德尔塔)来最小化重建数据和采集数据之间的差异。
请注意,通过结构化低秩矩阵估计从欠采样数据导出的多通道空间支持可能会被伪影破坏,因此这种无校准低秩重建(参考文献11和14)仍然需要顺序迭代过程以获得更准确的多通道空间支持估计和缺失k空间样本逼近。此外,估计多通道空间支持在每次迭代中可能会变得次优,并可能导致高加速度下的重建不准确。尽管已经有几种方法试图从完全采样的中心k空间区域获得零空间基(参考文献9和36)或图像支持(参考文献37),但重建可能不可避免地依赖于足够的ACS采集,并且在某些情况下可能会由于对象运动(参考文献38)或几何失真(参考文献39)而受到欠采样和校准数据之间不一致的影响,导致伪影或/和信噪比(SNR)恶化。
一些实施例提供来自欠采样数据的多通道空间支持的深度学习估计。如图1B所示,提供了一个深度学习框架,用于直接从欠采样数据中估计高质量的多通道空间支持,用于后续的LORAKS重建。请注意,在本发明的一些实施例中,学习到从欠采样数据到从完全采样数据导出的多通道空间支持的直接非线性投射是可能且合理的,因为由同一MR接收系统获取的标准方向的数据集在线圈灵敏度和有限图像支持方面表现出很强的相关性(参考文献32和33)。一方面,线圈灵敏度非常平滑,并且包含低的面内(in-plane)和穿面(through-plane)空间变化,因此由同一MR接收线圈系统获取的具有接近方向的数据集可以在线圈灵敏度上表现出很强的相似性。另一方面,有限图像支持可能潜在表现出数据集之间的相关性,因为解剖结构具有空间连续性,对象轮廓变化缓慢,并且不同对象之间的相同解剖结构可以固有地共同配准。
在某些实施例中,可以通过最小化从数据集导出的多通道空间支持上的混合损失(参考文献40)将线圈-对象几何参数结合到深度学习中,无论有或者没有与线圈系统是否空间对齐,而大多数相关技术的深度学习重建模型尚未利用此类空间几何信息。具体而言,在空间对齐中,可以通过执行公式[3]中公式化的刚体旋转和平移来对齐来自同一MR接收系统的完全采样的多切片数据集,其中线圈-对象几何形状具有微小变化。这里,α、β和γ表示旋转角度,m、n和t表示与对齐前后三维坐标相关的平移参数,这些参数通常在数据采集中可用。
通过每个数据集的空间对齐,可以获得多通道空间支持,其中涉及同一MR接收线圈系统的线圈灵敏度信息的变化最小。因此,所提供的深度学习框架是通过最小化公式[4]中描述的多通道空间支持的混合l1损失来制定的,其中混合损失也表示为HLM。在混合损失函数的某些实施例中,Sij可以是从与线圈系统有或者没有空间对齐的数据集导出的两组多通道空间支持。λ1和λ2是控制它们之间的贡献的可学习参数,M表示空间对齐操作。在具有混合损失的某些实施例中(参考文献40),所提供的框架不仅从每个数据集本身学习多通道空间支持,而且还利用与线圈-对象几何参数相关联的相关性。
其中,
所提供框架的基础是将多通道空间支持的达代估计展开到具有网络参数θ的大型网络架构f中(参考文献41)。为了从欠采样数据中提取潜在的平滑和紧凑的多通道空间支持,一些实施例可以实现复值U-net(例如,图2),它在特征提取中展示了强大的能力(参考文献42)。一些实施例可以为网络的每一层采用复值卷积块(27),它可以自然地利用复数MR图像的领域特定知识并产生多通道空间支持而不丢失相位信息。根据分布性质(参考文献43-45),执行复值卷积相当于如下公式中描述的几个实值卷积,其中Zreal和Zimag代表特征图的实部和虚部。u和v是分别应用于实部和虚部的卷积核。
(u*Zreal-v*Zimag)+i(u*Zimag+v*Zreal) [5]
现在参考附图,图1A示出了根据本发明的一个实施例的多通道空间支持的结构化低秩矩阵估计。块式Hankel矩阵由k空间数据构建,分解相应的零空间基。然后,可以将这些分解的零空间向量重新整形为可以将k空间数据零化的卷积滤波器集。将此类滤波器转换到图像空间并执行逐像素特征分解可以显式地估计MR图像的多通道空间支持。
在某些实施例中,构造结构化低秩矩阵和执行奇异值分解(SVD)的过程可以如图1A所示。具体来说,可以通过在整个k空间上滑动窗口块来生成数据矩阵的各个列向量。由于采用滑动窗口技术,所构造的数据矩阵可以具有块式Hankel结构,因此该矩阵可以是一个可以通过SVD分解的固有秩亏矩阵。
如图1A中所示,某些实施例可以提供用于估计零空间基以更新多通道空间支持的过程。具体来说,奇异值分解可以识别具有零空间向量的酉矩阵U。将所有向量转换回图像空间然后执行逐像素特征分解可以显式地识别多通道空间支持S。
图1B示出了根据本发明的一个实施例的用于直接从欠采样数据估计多通道空间支持的深度学习框架。为了利用线圈-对象几何参数,可以通过最小化从每个完全采样的多切片数据集导出的多通道空间支持的混合l1损失来训练复值网络,无论数据集是否与MR接收线圈系统进行空间对齐。这些复值网络可以针对每个通道单独训练,以捕获不同的线圈相位特征。
图1C示出了根据本发明的一个实施例的使用经由深度学习估计的多通道空间支持的LORAKS 2D重建。本实施例中所训练的复值网络直接从欠采样数据中产生高质量的多通道空间支持用于后续重建,而传统的迭代LORAKS是通过估计零空间基并以顺序迭代的方式逼近欠采样数据来进行的。
图2示出了根据本发明的一个实施例的复值网络的结构。该网络采用典型的U-net架构,并对每一层采用复数卷积扩展。为了利用MR数据的复数性质并在不损失相位信息的情况下产生每个通道的空间支持,可以分别对实部和虚部进行卷积,然后根据分布特性进行组合。
图2中所示出的复值网络的结构包括了用于最小化混合损失(HLM)的多个多通道空间支持图(MCSSM),包括第一MCSSM第二MCSSM(Sij)和第三MCSSM)。
根据图2的实施例所示出的复值网络的结构,可以利用以下形式的函数通过混合损失计算(包括例如用于空间对齐的参数M、用于控制权重的λ1和λ2)来评估
其中λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子。
其中控制权重必须服从λ12=1的约束,以提供两项之间的有效平衡。
图3示出了根据本发明的一个实施例的在应用于空间对齐的旋转和平移方面的线圈-对象几何参数。通过执行刚体旋转和平移,可以将不同对象之间线圈-对象几何形状变化很小的完全采样的多切片数据集与MR接收线圈系统对齐。可以绘制一些或所有数据集的旋转和平移范围。线圈-对象几何参数可以是相对于线圈系统所规定的成像位置和方向。这些参数可以在图像头部中定义,可用于每个数据集。为了可视化为每个数据集所执行的空间对齐,可以根据相对于参考方向的旋转和平移来显示成像位置和方向参数。
图4比较了根据本发明的一个实施例在R=2到5时使用深度学习估计的多通道空间支持的直接LORAKS重建和常规迭代LORAKS。无校准一维欠采样模式是通过根据加速因子随机丢弃k空间数据而不保留任何连续的中心线来生成的。请注意,两种重建方法都在相对较低的加速度(R=2或3)下产生了具有可比性能的高质量重建图像,而根据本发明的一个实施例所提供的方法减少了归一化均方根误差(NRMSE)和在相对较高的加速度(R=4或5)时的大量伪影。
图5示出了根据本发明的一个实施例在不同加速因子下对应于图4中显示的切片所估计的多通道空间支持的量度,包括(A)完全采样;(B)R=3时的无校准一维随机欠采样;以及(C)R=4时的无校准一维随机欠采样。与从完全采样数据中导出的结果相比,通过结构化低秩矩阵估计从欠采样数据中导出的多通道空间支持被严重的伪影所破坏。在迭代LORAKS重建(第200次迭代)之后,多通道空间支持得到恢复,但在R=3时(由绿色箭头表示)的背景中仍然表现出误差,在R=4时大脑区域(由红色箭头表示)更明显。每列显示一个所选择通道的估计空间支持。
图6示出根据本发明的一个实施例从具有最大俯仰旋转(10度)的6通道数据集中的4个所选择切片的重建。传统的迭代LORAKS产生了明显的残余伪影,这与在相对较高的加速度(R=4)时迭代重建的不准确性有关。使用经由深度学习估计的多通道空间支持,直接LORAKS重建有效地减少了那些残留的伪影。
图7示出了根据本发明的一个实施例从具有最大头部旋转(6度)的6通道数据集中的4个所选择切片的重建。使用经由深度学习估计的多通道空间支持的直接LORAKS重建再次产生更少的伪影和低NRMSE。相比之下,传统的迭代方法具有严重的残留混叠和噪声放大的缺点,如在重建图像和误差图中都观察到的。
图8示出了根据本发明的一个实施例的在有和没有经由深度学习估计的初始多通道空间支持的情况下迭代LORAKS重建的中间结果(第1、2、3、5、10、50、100和200次迭代)。如所展示的,在早期(例如,第一次或第二次)迭代中极快或完全收敛是通过经由深度学习估计的初始多通道空间支持所实现的。
图9示出根据本发明的一个实施例的对应于图5的所估计的多通道空间支持的相位。通过深度学习从欠采样数据中也能够正确估计多通道空间的相位图,从而实现了高保真LORAKS重建(图4)。相比之下,迭代重建(第200次迭代)后估计的多通道空间支持在大脑和背景区域仍然表现不准确,导致混叠伪影和噪声放大。每个通道的相位图显示在[-π,π]范围内。
图10示出了与相关技术方法相比根据本发明的一个实施例的对应于图4中的重建结果的残差直方图。误差分布的峰值通常与噪声放大相关联,并通过使用经由深度学习估计的多通道空间支持得到有效抑制。请注意,在相对较高的加速度(R=4和5)下,与混叠伪影相关的大的重建误差已大大减少。
图11示出了根据本发明的一个实施例的在有和没有同时最小化从与线圈系统对齐的数据集导出的多通道空间支持损失(例如,传统的L1损失与混合损失)的情况下的学习曲线。通过测量混合损失所学习的网络有效地减少了训练集和验证集中的估计误差,收敛速度快,这表明通过空间对齐可以更好地表示线圈灵敏度信息。
图12示出了根据本发明的一个实施例从具有最不紧凑空间支持的6通道数据集中的4个所选择切片的重建。
图13A-13M示出了根据本发明的一个实施例跨越从6通道数据集中选择的两个通道中的每一个关于一个对象的完全采样连续图像切片的13x13网格。图13A示出了两个通道的完整图像数据集。图13B示出了通道I的完整图像数据集。图13G示出了通道II的完整图像数据集。图13B-13F和13L示出了通道I图像的更详细视图,如所示出的。例如,图13C的内容包括图13B中指示为“细节-C”的图像。图13G-13K和13M示出了通道II图像的更详细视图,如所示出的。对于此数据集,数据集大小为67个对象(包括训练/验证/测试集)。每个数据集的通道数为6。每个对象的切片数为140。图像大小/分辨率为218mm2x180 mm2
图14示出了根据本发明的一个实施例的流水线。欠采样的多通道2D图像可以通过2D注意力U-net进行训练,以产生深度学习估计的多通道ESPIRiT图。ESPIRiT是一种利用ACS中的ESPIRiT图在并行成像中迭代地实现图像重建的重建方法。然后可以对使用FFT计算的最小二乘重建、强制数据一致性约束和使用来自ESPIRiT图的运算符矩阵进行K空间填充进行迭代,以进行重建。
图15A-15C示出了根据本发明的一个实施例图14的流水线中涉及的某些实现细节。如图15A所示,MR接收线圈系统产生一组完全采样的多通道2D图像,从中可以导出三个独立的输出。(1)图像数据集可以通过将线圈-对象几何参数和3D空间对齐应用于接收线圈系统来创建,以产生几何参考的ESPIRiT图估计;(2)非几何参考图像数据集Eij可以在没有几何参数或空间对齐数据或两者都没有的情况下创建;以及(3)回溯性均匀欠采样可以产生一组欠采样的多通道2D图像。Eij可用于创建混合损失测量函数。然后可以将欠采样图像传递通过2D注意力U-Net以产生深度学习估计的图像集然后可以利用以下形式的函数通过混合损失计算(包括例如用于空间对齐的参数M、用于控制权重的λ1和λ2)来评估
类似地,参照图2的实施例所示出的复值网络的结构,可以利用以下形式的函数通过混合损失计算(包括例如用于空间对齐的参数M、用于控制权重的λ1和λ2)来评估
其中λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子。
其中控制权重必须服从λ12=1的约束,以提供两项之间的有效平衡。
图15B示出了根据本发明的2D注意力U-Net的细节。图15C示意性地示出了根据本发明的线圈-对象几何参数和与线圈系统的3D空间对齐的细节。3D空间对齐可以使用DICOM文件中记录的参数对3D大脑数据执行平移/旋转变换,以减轻线圈灵敏度的偏差。
图16A和16B示出了参考ESPIRiT图和估计的ESPIRiT图在R=2、3、4、5时的比较。在图16A中,幅度图颜色条的范围从[-1,1]从暗到亮,相位图颜色条的范围从[-π,π]。在图16B中,y轴上的估计图和x轴上的参考图之间显示了相关性。将没有附加连续中心k空间线的欠采样数据输入模型进行训练,损失是混合L2损失。在测试阶段,该模型可以有效地从欠采样数据中预测ESPIRiT图。此处参考图和估计图是以像素强度比较的。
图17示出了对应于图16A中的参考图和估计图的ESPIRiT重建图像的比较(R=2、3、4、5;线圈=6)。PSNR和NRMSE显示在误差图中。PSNR表示峰值信噪比。NRMSE表示归一化均方误差。使用参考ESPIRiT图和估计图,在MATLAB中实现具有L1正则化的标准ESPIRiT重建,以产生相应的两个重建结果。
图18示出了使用参考和估计的ESPIRiT图(R=4,线圈=6)的具有最大俯仰旋转(10度)的ESPIRiT重建图像的比较。PSNR和NRMSE显示在误差图中。PSNR表示峰值信噪比。NRMSE表示归一化均方误差。具有最大俯仰旋转的一个对象的大脑数据被从模型训练数据集中排除。训练模型在一个对象的大脑数据上进行测试,以进行ESPIRiT图估计和顺序ESPIRiT重建性能比较。
图19示出了使用有/无掩蔽的SENSE重建和使用参考和估计图的ESPIRiT重建(R=4,线圈=6)的重建图像的比较。PSNR和NRMSE显示在误差图中。PSNR表示峰值信噪比。NRMSE表示归一化均方误差。这里多通道线圈灵敏度图是从数据中连续的中心k空间线导出的,这些图用于SENSE重建,在线圈灵敏度图上有或没有掩蔽。掩蔽与对象的真实大脑区域相匹配。
图20A-20D示出了对来自两个对象的测试数据的重建性能的定量分析(R=4,线圈=6)。重建性能根据PSNR和NMSE对从训练数据集中排除的两个对象的数据进行评估。这里显示了每个对象中所有切片的重建性能,以便进行全面和公平的评估。第一个对象的大脑与其他人没有特别的区别。第二个对象的大脑具有最大的俯仰旋转。
图21示出了使用参考ESPIRiT和估计的ESPIRiT图的具有最大倾侧旋转(6度)的重建图像的比较(R=4,线圈=6)。具有最大倾侧旋转的一名对象的大脑数据被从模型训练数据集中排除。训练模型在一个对象的大脑数据上进行测试,以进行ESPIRiT图估计和顺序ESPIRiT重建性能比较。
图22A-22C示出了本发明研究的工作流程以及涉及的模型架构和数据空间对齐。图22A示出了ESPIRiT图估计和ESPIRiT或SENSE重建的流水线。图22B示出了注意力U-Net的架构。图22C示出了数据空间对齐的图示。
本发明的实施例解决了无校准并行成像重建的技术问题,例如局部k空间邻域方法的低秩建模(LORAKS)中存在的问题,解决了其计算量要求高并导致重建不准确的问题,特别是在高加速度下。通过利用深度学习框架直接从欠采样数据估计多通道空间支持以进行后续并行成像重建,解决了这个问题。这种深度学习框架可以很容易地与现有的重建方法(即LORAKS)集成,以促进和改进无校准并行成像。所提供的深度学习框架的实施例已经从欠采样数据中产生了高质量的多通道空间支持,因此无需迭代即可进行直接LORAKS重建。与现有技术的方法相比,本发明的实施例进一步提供了更有效的伪影和噪声放大的减少,尤其是在高加速度下。
过渡性术语“包含”、“包括”或“具有”是包容性的或开放式的,其不排除额外的、未列举的元素或方法步骤。相比之下,过渡短语“由...组成”排除了权利要求中未指定的任何元素、步骤或成分。短语“由...组成”或“基本上由...组成”表示权利要求涵盖包含特定材料或步骤的实施例以及不实质影响权利要求的基本和新颖特征的实施例。术语“包含”的使用考虑了“由”或“基本上由”所列举的组件“组成”的其他实施例。
当在本文中使用范围时,例如用于剂量范围、范围的组合和子组合(例如,所公开范围内的子范围),其中的具体实施例意在被明确地包括在内。当术语“约”在本文中与数值结合使用时,应理解该值可以在该值的95%至该值的105%的范围内,即,该值可以是标示值的+/-5%。例如,“约1千克”表示从0.95千克到1.05千克。
本文描述的方法和过程可以实现为代码和/或数据。本文描述的软件代码和数据可以存储在一个或多个机器可读介质(例如,计算机可读介质)上,其包括可以存储以供计算机系统使用的代码和/或数据的任何设备或介质。当计算机系统和/或处理器读取和执行存储在计算机可读介质上的代码和/或数据时,计算机系统和/或处理器执行实现为存储在计算机可读存储介质中的数据结构和代码的方法和过程。
本领域技术人员应当理解,计算机可读介质包括可用于存储诸如计算机可读指令、数据结构、程序模块和其他由计算系统/环境使用的数据的信息的可移动和不可移动结构/设备。计算机可读介质包括但不限于随机存取存储器(RAM、DRAM、SRAM)等易失性存储器;以及非易失性存储器,例如闪存、各种只读存储器(ROM、PROM、EPROM、EEPROM)、磁性和铁磁/铁电存储器(MRAM、FeRAM)以及磁性和光学存储设备(硬盘驱动器、磁带、CD、DVD);网络设备;或现在已知或以后开发的能够存储计算机可读信息/数据的其他介质。计算机可读介质不应被理解或解释为包括任何传播信号。本发明的实施例的计算机可读介质可以是例如密致盘(CD)、数字视频盘(DVD)、闪存设备、易失性存储器或硬盘驱动器(HDD),例如外部HDD或计算设备的HDD,但实施例不限于此。计算设备可以是例如膝上型计算机、台式计算机、服务器、手机或平板电脑,但实施例不限于此。
材料和方法
从以下示例中可以更好地理解本发明的各个实施例及其许多优点,这些示例以图示的方式给出。以下示例说明了本发明的一些方法、应用、实施例和变体。当然,它们不应被认为是对本发明的限制。本领域普通技术人员可以对本发明的实施例进行许多改变和修改。
示例1--与相关技术方法相比,根据本发明的一个实施例评估磁共振(MR)成像数据分析的研究。
磁共振数据准备
使用公开可用的Calgary-Campinas MR数据库(参考文献46)评估所提供的深度学习框架的一个实施例的所选择性能参数,包括来自67名健康对象的完全采样(例如,以奈奎斯特采样率)人脑数据集,其使用12通道头部线圈在1.5T临床扫描仪(GE Healthcare,Waukesha,WI)上收集。对于T1加权(T1W)采集,应用3D梯度回波,其中TE/TR/TI=6.3/2.6/650ms或TE/TR/TI=7.4/3.1/400ms,和FOV=256×218×180mm3。通过裁剪没有有用解剖信息的周边,将每个数据集获得的3D体积视为140个连续的轴向切片。通过线圈组合实施时(参考文献47),数据集减少到6个通道。54、7和6个对象(每个对象有140个轴向切片)分别用于训练、验证和测试。
可以回溯性地对完全采样的数据集进行欠采样,以对本发明的实施例进行定性和定量评估。为了评估所提供的深度学习框架,对完全采样的连续轴向2D图像切片(例如,图4中所示的参考图像)进行回溯性欠采样(例如,图8B中所示的具有欠采样伪影的图像),并将欠采样数据输入到复值网络。为了生成输入-输出对,通过结构化低秩矩阵估计获得了两组多通道空间支持,其对应于与线圈系统有和没有空间对齐的完全采样数据集。空间对齐是通过根据其线圈-对象几何参数对每个数据集执行刚体旋转和平移(见图3)来进行的。
复值网络的训练和测试
为了实现前面描述的深度学习框架,本发明采用了典型的U-net架构,并扩展到复值输入-输出对。可以采用复数卷积来代替U-net在每一层中原来的实值卷积。对于U-net架构的每一层,应用了一个复值卷积块,它由两个3×3复值卷积组成,中间有ReLU激活和实例归一化。U-net架构是通过步幅为2的2倍下采样和2倍上采样卷积实现的。从欠采样数据到潜在特征空间的各层的通道数分别为64、128、256、512和1024,用于将潜在特征转换为对所选择的MR图像通道的空间支持的各层其通道数分别为512、256、128、64和1。深度学习训练过程是通过最小化每个通道和切片的空间支持上的混合l1损失函数来实现的。λ1和λ2是用0.5初始化的可学习参数。对Adam优化器进行训练,动量β1=0.9,β2=0.999,初始学习率=0.01。所提供的网络在Geforce RTX 3090GPU上进行了训练,进行100代训练(epoch),批大小(batch size)为32。
比较了传统迭代LORAKS重建和使用深度学习估计的多通道空间支持的LORAKS之间的结果。为了评估图像质量,使用NRMSE计算完全采样图像和重建图像之间的10倍亮度误差图以进行定量评估。对于迭代LORAKS重建,实施典型的“C矩阵”并执行基于快速傅里叶变换的计算(参考文献11和13)。核半径设置为8,并根据经验确定迭代LORAKS重建中的目标秩以保证在NRMSE方面的最佳性能。
结果
图4示出了6通道T1w轴向切片在不同加速因子(例如,相对于完全采样数据的欠采样率,R=2、3、4或5)下的重建结果。所提供的方法通过经由深度学习从欠采样数据估计多通道空间支持来在该切片上进行简单的最小二乘重建,而传统的LORAKS方法以顺序迭代的方式估计结构化低秩矩阵中的零空间基和逼近欠采样数据。对于相对较低的加速度(R=2),这两种方法都产生了高保真重建,其图像质量与完全采样参考图相当。随着加速因子增加(R=3),在根据本发明的一个实施例所提供的方法中,与噪声传播和放大相关联的类噪声残差减少。注意,在相对较高的加速度(R=4)下,根据本发明的一个实施例经由深度学习估计多通道空间支持对于残留伪影抑制有了显著改进。这种改进在更高的加速度(R=5)下更加突出。迭代LORAKS重建具有严重的伪影,而根据本发明的一个实施例所提供的方法仍然保留了图像结构细节。
如图5所示,根据本发明的一个实施例,经由深度学习从欠采样数据直接和正确地估计了多通道空间支持,这导致了该切片的高保真重建(参见图4)。由于欠采样伪影,通过结构化低秩矩阵估计从欠采样数据导出的多通道空间支持被严重破坏。在传统的迭代重建(200次迭代)之后,多通道空间支持被恢复,但在R=3时背景中仍然表现出估计误差(由绿色箭头表示),并且在R=4时大脑区域中也很明显(由红色箭头表示)。相比之下,根据本发明的一个实施例的深度学习产生了准确的多通道空间支持,其质量在幅度和相位方面与从完全采样数据估计的图像质量相当(参见图9)。
图6比较了来自相对于图3中描绘的线圈系统具有最大俯仰旋转(约10度)的6通道数据集的4个所选择切片的重建性能。根据相关技术方法的迭代LORAKS重建在R=4时产生了与重建不准确性相关联的显著的残留伪影。而使用本发明的深度学习估计的多通道空间支持,所提供的方法有效地减少了一些或所有切片中的伪影,NRMSE提高了约40%。
图7中示出了相对于线圈系统具有最大头部旋转(~6度)的6通道数据集的重建结果。结果再次表明,根据本发明的一个实施例所提供的方法在减少的伪影水平和抑制噪声放大方面对于所有切片始终优于传统的迭代重建。
图8展示了根据本发明的一个实施例使用深度学习估计的多通道空间支持对LORAKS重建的影响。根据本发明的某些实施例,经由深度学习估计多通道空间支持的策略也可以与迭代重建相结合,作为提供初始估计,尽管这种结合在某些情况下可能是不必要的,因为在几乎第一次迭代时就非常快速或完全地收敛(即,在第一次迭代、第二次迭代或第三次迭代时收敛在指定的公差内)。如果没有本发明的一些实施例提供的这种良好的初始估计,在R=3时传统的LORAKS需要超过100迭代以产生相当的重建(即,与相关现有技术或传统LORAKS方法的重建相比,可通过本发明的一些实施例以小于约50%、小于约25%、小于约10%、小于约5%、小于约4%、小于约3%、小于约1%或小于约0.5%的迭代次数或计算周期数、计算时间或计算资源分配来实现与其相当的重建)。
讨论
本发明评估了深度学习框架的性能,以根据本发明的一个实施例直接从欠采样数据估计高质量多通道空间支持以进行无校准低秩重建。这是通过探索由同一线圈系统获取的完全采样的多切片数据集中的MR先验信息来实现的,例如它们在线圈灵敏度和有限图像支持方面的相关性。通过最小化从每个数据集导出的多通道空间支持的混合损失,可以进一步利用线圈-对象几何参数,无论数据集是否与线圈系统进行空间对齐。所提供的框架与LORAKS方法集成在一起,可以通过经由深度学习估计的多通道空间支持进行快速低秩重建。由此产生的直接LORAKS方法也有利地绕过了在传统的迭代低秩矩阵完成过程中对繁琐的秩确定的需要,这种确定是特定于切片的并且通常是手动完成的。该研究表明,这种预处理的低秩重建可以有效减少伪影和噪声放大,尤其是在高加速度下。
用于快速重建的多通道空间支持的深度学习估计
无校准低秩并行成像技术(如LORAKS)通过结构化低秩矩阵完成进行重建,这涉及零空间基的估计和以顺序迭代方式逼近欠采样数据。理论上,这种缓慢的迭代过程对计算量要求很高且是非凸的,可能导致重建不准确,尤其是在高加速度下。与传统的LORAKS方法不同,根据本发明的一个实施例所提供的深度学习框架可以将来自欠采样数据的多通道空间支持的繁琐迭代估计展开到复值网络架构中。可以将该所提供的深度学习框架有利地进行应用,以提供多通道空间支持作为先验知识,以促进和改进后续的低秩分析重建,而相关现有技术的深度学习方法利用直接端到端图像重建(参考文献20)、k-空间插值(参考文献25、26和48)、或跨域重构(参考文献23、24)。
利用根据本发明的一个实施例的经由深度学习估计的多通道空间支持,LORAKS在第一次迭代时表现出极快、几乎完全或完全收敛(参见图8),而传统重建需要超过100次迭代才能实现相当的性能。本申请的表1总结了在各种加速因子(R=2、3、4或5)时使用个人台式机(16GB RAM和4核i5-6500)进行重建的计算时间。随着加速度从2增加到5,传统LORAKS分别需要每个切片大约2、3、5和10分钟来用于重建6通道数据集,而根据本发明的一个实施例,经由深度学习估计的多通道空间支持的重建几乎实现了实时重建,每个切片仅花费2.5秒左右。此外,低秩重建需要专业知识和针对目标秩选择的大量手动微调。通过经过训练的网络获得多通道空间支持,本发明所提供的方法可以有利地避免了重建期间这种繁琐的秩确定过程,从而节省时间和资源,同时提供相当或改进的结果。
经由深度学习估计的高质量多通道空间支持
由于多通道空间支持的平滑条件,学习从欠采样数据到从完全采样数据导出的多通道空间支持上的直接非线性投射是可能且合理的。理论上,紧凑型卷积核可以捕获线圈灵敏度调制和有限图像支持(参考文献34和49)。此外,本研究中的根据本发明的一个实施例提供的深度学习框架旨在应用于由具有固有线圈灵敏度相关性的同一MR接收线圈系统获取的标准方向的数据集。根据本发明的一个实施例的经过训练的复值网络可以直接从欠采样数据产生高质量的多通道空间支持,与迭代重建后估计的那些图像相比,在幅度和相位方面的误差更少(图5和图9)。因此,与重建不准确相关的残留伪影可以大大减少,特别是对于高加速度(图4-7)。
此外,通过根据本发明的一个实施例的经由深度学习估计的具有多通道空间支持的LORAKS重建可以提供噪声放大的有效减少,这在重建图像中是明显的(图4)并且进一步得到误差分布的支持(图10)。尽管没有理论支持,发明人猜测这种对迭代重建的改进可能源于经由深度学习估计的每个通道的更紧凑的空间支持(图5)。通常,排除目标外部的线圈灵敏度对于最小化并行成像重建中的噪声放大是必要的,同时对目标进行手动或半手动掩蔽(参考文献35和50-52)。所提供的深度学习框架可以估计高质量的多通道空间支持,其具有清晰的背景区域,可以抑制后续LORAKS重建中的噪声传播。
线圈-对象几何参数在深度学习中的应用
在相关技术的低秩方法中(参考文献32、33),为提供具有多个连续切片的体积覆盖而获取的数据集,或在同一切片位置获取但具有不同对比度信息的数据集在图像支持和线圈灵敏度方面都表现出强的相关性,这可以通过联合重建得到有效利用。在这项研究中,由于线圈灵敏度和解剖结构的相似性,在其线圈-对象几何形状上具有微小变化的从同一MR接收系统收集的数据集也应该固有地驻留在低秩子空间中(参考文献53)。通过根据本发明的一个实施例根据线圈-对象几何参数对每个数据集进行空间对齐,可以获得参考同一接收线圈系统的具有最小化线圈灵敏度信息变化的多通道空间支持。为了证明利用此类线圈-对象几何参数的有效性,一些实施例可以提供深度学习的损失曲线,其中有和没有将从具有空间对齐的数据集导出的多通道空间支持的损失最小化(图11)。正如预期的那样,根据本发明的一个实施例的具有混合损失测量的深度学习在训练和验证集中都表现出快速收敛和最小误差水平,表明通过空间对齐更好地表示了线圈灵敏度信息。有限图像支持可以根据先验知识展示相关性,即不同对象之间的相同解剖结构可以固有地共同配准。对于具有最少紧凑图像支持的数据集,根据本发明一个实施例的低秩重建空间支持的深度学习估计可以始终优于迭代重建(图12)。
提供的深度学习框架的广义化和扩展
本研究提出了一种新颖且有效的深度学习框架,该框架根据本发明的一个实施例被有利地应用以估计用于无校准低秩重建的高质量多通道空间支持,同时保持其数值稳定性。尽管没有理论的支持,发明人假设通过深度学习推进分析重建的一般策略也与其他传统的并行成像方法兼容。例如,可以采用根据本发明一个实施例的深度学习框架来估计在广义自动校准部分并行采集(GRAPPA)类型的方法中应用的k空间插值权重(参考文献4和54)。所提供的框架还可以扩展从欠采样数据获得线圈灵敏度图以用于SENSE类型的重建(参考文献55)。一些实施例已被证明可用作后图像处理工具工作,并考虑用于在线或实时应用。在某些实施例中,该深度学习框架很容易与现有的分析重建方法一起作为后图像处理工具应用,其中特定MR扫描仪/线圈上的大约100个3D数据集及其线圈-对象几何参数可用。还可以使用其他数据集。如果MR扫描仪/线圈供应商可以提供用于合成训练数据集的校准数据库,则可以预期通过深度学习估计多通道空间支持的在线能力。尽管多通道空间支持的深度学习估计也可能由于某些微小或不可检测的扰动而具有不稳定性并变得不准确(参考文献2),但深度学习估计的多通道空间支持仍然可以为快速迭代低秩重建提供适当的初始化(图8),并在某些情况下优于相关技术方法。
一些实施例提供了一种仅使用T1W GRE数据改进低秩并行成像的方法,如果通过相应的数据集进行训练,则有望普遍应用于多对比度场景。不同的对比度图像可以包含不同的相位特征,并且利用在顺序特定或器官特定数据集上有利地训练的网络的某些实施例可以为某些应用提供独特的好处。可替代地,可以采用通过深度学习从一个对比度估计的多通道空间支持来重建在相同切片位置获取的其他对比度数据,如在我们之前的多对比度联合重建方法中所示(参考文献33)。此外,相位也可以在空气-组织边界附近发生显著变化,尤其是在超高场MR系统(7T/14T)中。也可以应用其他成像系统。某些实施例可能需要使用大的内核大小来捕获快速图像相变。在这种情况下,一些实施例可以提供相对较大的内核(图1A),更好地表示非线性相位变化,以便在训练期间准备多通道空间支持。对于频繁应用的人体成像,由于对象的呼吸等生理运动,获取一百组完全采样的训练数据集是不适用的。然而,训练数据库可以从自动校准数据或/和校准扫描中合成,尽管在某些情况下校准会由于某些错误传播而损害重建性能。
结论
该研究展示了根据本发明的一个实施例通过深度学习直接估计多通道空间支持来进行的快速且无校准的低秩并行成像重建。本实施例中提供的深度学习框架有利地利用了从同一MR接收系统获取的数据集的相关性,并在随后的LORAKS重建中展示了有效的伪影和噪声放大抑制,无需迭代。一些实施例可以提供通用且有效的策略以通过使其在实践中计算高效、简单和鲁棒来推进低秩并行成像。
表1.在各种加速因子下的训练和重建时间的总结
示例2---与相关技术方法相比,根据本发明一个实施例使用ESPIRiT图的深度学习估计来评估均匀欠采样多通道MR数据的无校准重建的研究。
主要发现的总结
根据本发明的一些实施例,本研究提出了高效无校准重建系统和方法,其通过深度学习从均匀欠采样的多通道2D MR数据中导出ESPIRiT图,并将该图应用于ESPIRiT重建。结果表明,ESPIRiT图可以从无校准MR数据中估计出来,并用于ESPIRiT图像重建。
概要
传统的ESPIRiT重建需要从自动校准信号准确估计ESPIRiT图,但自动校准信号的采集有一些缺点,包括耗时和成像前或成像期间增加的复杂性。本研究旨在通过深度学习从没有自动校准信号的均匀欠采样多通道2D MR数据估计ESPIRiT图,并将估计的图用于ESPIRiT图像重建。结果表明,估计的ESPIRiT图可以从均匀欠采样的MR数据中获得,这些图可以用于ESPIRiT和SENSE重建。
介绍
传统的并行成像技术需要明确了解线圈灵敏度[参考文献3]或来自校准扫描或自动校准信号(ACS)的k空间中的对应关系以进行重建。这些方法都受到对象的呼吸或运动以及额外的成像时间的不利影响。ESPIRiT[参考文献35]是实践中的一种并行成像技术,可以通过与线圈空间信息密切相关的ESPIRiT图从欠采样MR数据重建图像。然而,对主要特征值的ESPIRiT图的准确估计需要额外的自动校准信号[参考文献56]。因此,开发无校准重建方法有利于推进并行成像。此外,ESPIRiT图可以是可共享的且依赖于线圈的信息,但每个对象在MR接收线圈系统中的线圈-对象几何形状略有不同,导致现实中ESPIRiT图的微小变化。通过空间数据对齐来最小化此类变化然后利用此特定于线圈的可共享信息可能是有益的。目前,深度学习可以帮助捕获数据中的潜在模式,并已广泛应用于医学MR图像重建。可以将深度学习嵌入经典重建框架以改进MR图像重建。因此,在本研究中,旨在通过具有U-Net架构的2D卷积神经网络(CNN)从均匀欠采样的空间对齐多通道2D MR数据中估计ESPIRiT图,并将这些图应用于ESPIRiT图像重建。
提议的框架
ESPIRiT图与MRI系统中的线圈空间信息密切相关,可用于从图像空间中的欠采样数据重建图像。然而,ESPIRiT图是依赖于线圈的信息,不同的对象可以有不同的线圈-对象几何形状。不同对象之间可共享的ESPIRiT图可能存在变化。一些实施例可以结合线圈-对象几何参数来执行空间对齐以最小化不同对象之间的ESPIRiT图的变化。在图22A中总结了如本示例中所使用的所提出方法的框架的一个实施例。
实验准备
本研究中使用的多通道线圈数据来自Calgary-Campinas公共数据库[参考文献57],包括在1.5T临床扫描仪(GE Healthcare,Waukesha,WI)上收集的67名健康对象的完全采样的人脑数据集。对于T1加权(T1W)采集参数,TE/TR/TI=6.3/2.6/650ms或TE/TR/TI=7.4/3.1/400ms。通过线圈组合[参考文献47],数据集减少到6个通道。每个通道的矩阵大小为Nx x Ny x Nz=128x128x100。复数数据的两部分被视为两个通道。所有数据都被随机分配到训练/验证/测试集中。多通道MR数据可以通过执行刚体旋转和平移在空间上对齐,以将ESPIRiT图中的变化最小化。数据对齐的细节在图22C中展示。中心k空间中的二十四(24)条校准线用于内核大小为6x6的主要特征值的参考ESPIRiT图(标注数据(ground truth))生成。欠采样模式为均匀采样,缩减因子范围为2-4。使用的模型是从典型的U-Net[参考文献42]修改而来的,并引入了注意力模块以有效地组合来自不同通道的信息[参考文献58]。
结果
如图16A所示,当加速因子为4时,估计的ESPIRiT图与参考ESPIRiT图逐个线圈类似,相关分析还表明估计的ESPIRiT图与参考ESPIRiT图一致,如图16B所示。在加速因子R=2、3和4时,估计的ESPIRiT图用于ESPIRiT图像空间重建,与使用参考ESPIRiT图重建的图像相比,使用ESPIRiT图重建的图像显示出一些残留误差但没有明显的伪影。如图17中的误差图像所示,使用估计的ESPIRiT图重建的图像的PSNR和NRMSE随着加速因子从2增加到4而变差。此外,估计的ESPIRiT图用于SENSE图像空间重建,在图19中可以观察到与ESPIRiT重建类似的结果。在图7中,示出了MR线圈接收系统中具有大的头部旋转的重建图像。
讨论和结论
在没有自动校准信号(ACS)的情况下,可以通过深度学习从均匀欠采样的MR数据中估计ESPIRiT图,并将这些图应用于ESPIRiT/SENSE图像重建。所估计的ESPIRiT图可以与参考图相媲美,并逐线圈展示高相关性。使用基于ESPIRiT和SENSE重建的ESPIRiT图重建的图像没有显示明显的伪影。
ESPIRiT图可以包括可共享的和线圈相关的信息。然而,每个对象都有不同的线圈-对象几何形状,导致特定于线圈的ESPIRiT图发生变化。一些实施例可以利用线圈-对象几何信息来最小化ESPIRiT图中的变化。这种先验信息在研究领域经常被忽视。不同对象的扫描也存在相位变化。通过使用混合损失可以在一定程度上保留相位变化,混合损失函数的第一项可以与最小化线圈特定ESPIRiT灵敏度图中的变化有关,混合损失函数的第二项可以与保留线圈灵敏度图中自然发生的相位变化有关。
可以估计主要特征值的ESPIRiT图并将其用于MR图像重建。可以估计不同特征值的ESPIRiT图并将其用于MR图像重建。这可以提供更多的灵敏度信息,进一步帮助提高图像重建性能。
应当理解,本文所描述的示例和实施例仅用于说明目的,并且将向本领域技术人员建议根据其进行各种修改或变化,并且这些修改或变化将被包括在本申请的精神和文件范围以及所附权利要求的范围内。此外,本文公开的任何发明或其实施例的任何要素或限制可与任何和/或所有其他要素或限制(单独或以任何组合)或本文公开的任何其他发明或其实施例组合,并且所有此类组合是考虑在本发明的范围内而不限于此。
本文提及或引用的所有专利、专利申请、临时申请和出版物(包括但不限于参考文献1-58)均通过引用整体并入,包括所有图形和表格,只要它们不与本说明书的明确教导不一致。
参考文献
[1]Daniell GJ,Gull SF.Image reconstruction from incomplete and noisydata.Nature 1978;272(5655):686-690.
[2]Antun V,Renna F,Poon C,Adcock B,Hansen AC.On instabilities of deeplearning in image reconstruction and the potential costs of AI.Proceedings ofthe National Academy of Sciences 2020;117(48):30088-30095.
[3]Pruessmann KP,Weiger M,Scheidegger MB,Boesiger P.SENSE:Sensitivityencoding for fast MRI.Magn Reson Med 1999;42(5):952-962.
[4]Griswold MA,Jakob PM,Heidemann RM,Nittka M,Jellus V,Wang J,KieferB,Haase A.Generalized autocalibrating partially parallel acquisitions(GRAPPA).Magn Reson Med 2002;47(6):1202-1210.
[5]Zhao B,Lu W,Hitchens TK,Lam F,Ho C,Liang Z-P.Accelerated MRparameter mapping with low-rank and sparsity constraints.Magn Reson Med 2015;74(2):489-498.
[6]Shin PJ,Larson PEZ,Ohliger MA,Elad M,Pauly JM,Vigneron DB,LustigM.Calibrationless parallel imaging reconstruction based on structured low-rank matrix completion.Magn Reson Med 2014;72(4):959-970.
[7]Haldar JP,Zhuo J.P-LORAKS:Low-rank modeling of local k-spaceneighborhoods with parallel imaging data.Magn Reson Med 2016;75(4):1499-1514.
[8]Lee D,Jin KH,Kim EY,Park SH,Ye JC.Acceleration of MR parametermapping using annihilating filter-based low rank hankel matrix(ALOHA).MagnReson Med 2016;76(6):1848-1864.
[9]Haldar JP.Autocalibrated loraks for fast constrained MRIreconstruction.IEEE 12th International Symposium on Biomedical Imaging(ISBI)2015:910-913.
[10]Lobos RA,Hoge WS,Javed A,Liao C,Setsompop K,Nayak KS,HaldarJP.Robust autocalibrated structured low-rank EPI ghost correction.Magn ResonMed 2021;85(6):3403-3419.
[11]Kim T,Haldar J.LORAKS software version 2.0:Faster implementationand enhanced capabilities.University of Southern California,Los Angeles,CA,Tech Rep USC-SIPI-443 2018.
[12]Kim TH,Bilgic B,Polak D,Setsompop K,Haldar JP.Wave-LORAKS:Combining wave encoding with structured low-rank matrix modeling for morehighly accelerated 3D imaging.Magn Reson Med 2019;81(3):1620-1633.
[13]Ongie G,Jacob M.A Fast Algorithm for Convolutional StructuredLow-Rank Matrix Recovery.IEEE Transactions on Computational Imaging 2017;3(4):535-550.
[14]Yi Z,Zhao Z,Liu Y,Gao Y,Lyu M,Chen F,Wu E.Fast CalibrationlessImage-space Reconstruction by Structured Low-rank Tensor Estimation of CoilSensitivity and Spatial Support.In:Proceedings of the 29th Annual Meeting ofISMRM,2021,p 0067.
[15]Lam F,Liang Z-P.A subspace approach to high-resolutionspectroscopic imaging.Magn Reson Med 2014;71(4):1349-1357.
[16]Fu M,Zhao B,Carignan C,Shosted RK,Perry JL,Kuehn DP,Liang Z-P,Sutton BP.High-resolution dynamic speech imaging with joint low-rank andsparsity constraints.Magn Reson Med 2015;73(5):1820-1832.
[17]Lin DJ,Johnson PM,Knoll F,Lui YW.Artificial Intelligence for MRImage Reconstruction:An Overview for Clinicians.J Magn Reson Imaging 2021;53(4):1015-1028.
[18]Wang S,Su Z,Ying L,Peng X,Zhu S,Liang F,Feng D,LiangD.Accelerating magnetic resonance imaging via deep learning.IEEE 13thInternational Symposium on Biomedical Imaging(ISBI)2016:514-517.
[19]Yang Y,Sun J,Li H,Xu Z.Deep ADMM-Net for compressive sensingMRI.In:Proceedings of the 30th international conference on neural informationprocessing systems,2016,p 10-18.
[20]Hammernik K,Klatzer T,Kobler E,Recht MP,Sodickson DK,Pock T,KnollF.Learning a variational network for reconstruction of accelerated MRIdata.Magn Reson Med 2018;79(6):3055-3071.
[21]Aggarwal HK,Mani MP,Jacob M.MoDL:Model-Based Deep LearningArchitecture for Inverse Problems.TMI 2019;38(2):394-405.
[22]Luo G,Zhao N,Jiang W,Hui ES,Cao P.MRI reconstruction using deepBayesian estimation.Magn Reson Med 2020;84(4):2246-2261.
[23]Eo T,Jun Y,Kim T,Jang J,Lee HJ,Hwang D.KIKI-net:cross-domainconvolutional neural networks for reconstructing undersampled magneticresonance images.Magn Reson Med 2018;80(5):2188-2201.
[24]Zhu B,Liu JZ,Cauley SF,Rosen BR,Rosen MS.Image reconstruction bydomain-transform manifold learning.Nature 2018;555(7697):487-492.
[25]Han Y,Sunwoo L,Ye JC.k-Space Deep Learning for AcceleratedMRI.IEEE Trans Med Imaging 2020;39(2):377-386.
[26]Kim TH,Garg P,Haldar JP.LORAKI:Autocalibrated recurrent neuralnetworks for autoregressive MRI reconstruction in k-space.arXiv preprint2019;arXiv:1904.09390.
[27]Xiao L,Liu Y,Yi Z,Zhao Y,Xie L,Cao P,Leong ATL,Wu EX.PartialFourier reconstruction of complex MR images using complex-valuedconvolutional neural networks.Magn Reson Med 2021;00:1-16.
[28]Tezcan KC,Baumgartner CF,Luechinger R,Pruessmann KP,KonukogluE.MR Image Reconstruction Using Deep Density Priors.TMI 2019;38(7):1633-1642.
[29]Liu Q,Yang Q,Cheng H,Wang S,Zhang M,Liang D.Highly undersampledmagnetic resonance imaging reconstruction using autoencoding priors.MagnReson Med 2020;83(1):322-336.
[30]Lustig M,Donoho D,Pauly JM.Sparse MRI:The application ofcompressed sensing for rapid MR imaging.Magn Reson Med 2007;58(6):1182-1195.
[31]Bigdeli SA,Zwicker M.Image Restoration using AutoencodingPriors.arXiv preprint 2017;arXiv:1703.09964.
[32]Liu Y,Yi Z,Zhao Y,Chen F,Feng Y,Guo H,Leong ATL,WuEX.Calibrationless parallel imaging reconstruction for multislice MR datausing low-rank tensor completion.Magn Reson Med 2021;85(2):897-911.
[33]Yi Z,Liu Y,Zhao Y,Xiao L,Leong ATL,Feng Y,Chen F,Wu EX.Jointcalibrationless reconstruction of highly undersampled multicontrast MRdatasets using a low-rank Hankel tensor completion framework.Magn Reson Med2021;85(6):3256-3271.
[34]Haldar JP,Setsompop K.Linear Predictability in Magnetic ResonanceImaging Reconstruction:Leveraging Shift-Invariant Fourier Structure forFaster and Better Imaging.IEEE Signal Processing Magazine2020;37(1):69-82.
[35]Uecker M,Lai P,Murphy MJ,Virtue P,Elad M,Pauly JM,Vasanawala SS,Lustig M.ESPIRiT-an eigenvalue approach to autocalibrating parallel MRI:whereSENSE meets GRAPPA.Magn Reson Med 2014;71(3):990-1001.
[36]Zhang J,Liu C,Moseley ME.Parallel reconstruction using nulloperations:Parallel Imaging Reconstruction.Magn Reson Med 2011;66(5):1241-1253.
[37]Ongie G,Jacob M.Super-resolution MRI using finite rate ofinnovation curves.IEEE;2015.p 1248-1251.
[38]Blaimer M,Breuer F,Mueller M,Heidemann RM,Griswold MA,JakobPM.SMASH,SENSE,PILS,GRAPPA:how to choose the optimal method.Top Magn ResonImaging 2004;15(4):223-236.
[39]Polimeni JR,Bhat H,Witzel T,Benner T,Feiweier T,Inati SJ,RenvallV,Heberlein K,Wald LL.Reducing sensitivity losses due to respiration andmotion in accelerated echo planar imaging by reordering the autocalibrationdata acquisition.Magn Reson Med 2016;75(2):665-679.
[40]Ruder S.An overview of multi-task learning in deep neuralnetworks.arXiv preprint 2017;arXiv:1706.05098.
[41]Monga V,Li Y,Eldar YC.Algorithm Unrolling:Interpretable,EfficientDeep Learning for Signal and Image Processing.MSP 2021;38(2):18-44.
[42]Ronneberger O,Fischer P,Brox T.U-Net:Convolutional Networks forBiomedical Image Segmentation.Cham:Cham:Springer International Publishing;2015.p 234-241.
[43]Trabelsi C,Bilaniuk O,Zhang Y,Serdyuk D,Subramanian S,Santos JF,Mehri S,Rostamzadeh N,Bengio Y,Pal CJ.Deep Complex Networks.arXiv preprint2017;arXiv:1705.09792
[44]Wang S,Cheng H,Ying L,Xiao T,Ke Z,Zheng H,Liang D.DeepcomplexMRI:Exploiting deep residual network for fast parallel MR imaging with complexconvolution.Magn Reson Imaging 2020;68:136-147.
[45]Cole E,Cheng J,Pauly J,Vasanawala S.Analysis of deep complex-valued convolutional neural networks for MRI reconstruction and phase-focusedapplications.Magn Reson Med 2021;86(2):1093-1109.
[46]Souza R,Lucena O,Garrafa J,Gobbi D,Saluzzi M,Appenzeller S,Rittner L,Frayne R,Lotufo R.An open,multi-vendor,multi-field-strength brainMR dataset and analysis of publicly available skull stripping methodsagreement.Neuroimage 2018;170:482-494.(Source of certain publicly availabledatasets.)
[47]Buehrer M,Pruessmann KP,Boesiger P,Kozerke S.Array compressionfor MRI with large coil arrays.Magn Reson Med 2007;57(6):1131-1139.
[48]M,Moeller S,S,K.Scan-specific robustartificial-neural-networks for k-space interpolation(RAKI)reconstruction:Database-free deep learning for fast imaging.Magn Reson Med2019;81(1):439-453.
[49]Ye JC.Compressed sensing MRI:a review from signal processingperspective.BMC Biomedical Engineering 2019;1(1):8.
[50]Larkman DJ,Nunes RG.Parallel magnetic resonance imaging.Physicsin Medicine&Biology 2007;52(7):R15.
[51]Yanasak NE,Kelly MJ.MR Imaging Artifacts and Parallel ImagingTechniques with Calibration Scanning:A New Twist on OldProblems.RadioGraphics 2014;34(2):532-548.
[52]Lyu M,Barth M,Xie VB,Liu Y,Ma X,Feng Y,Wu EX.Robust SENSEreconstruction of simultaneous multislice EPI with low-rank enhanced coilsensitivity calibration and slice-dependent 2D Nyquist ghost correction.MagnReson Med 2018;80(4):1376-1390.
[53]Li Y,Dumoulin C.Correlation imaging for multiscan MRI withparallel data acquisition.Magn Reson Med 2012;68(6):2005-2017.
[54]Lustig M,Pauly JM.SPIRiT:Iterative self-consistent parallelimaging reconstruction from arbitrary k-space.Magn Reson Med 2010;64(2):457-471.
[55]Samsonov AA,Kholmovski EG,Parker DL,Johnson CR.POCSENSE:POCS-based reconstruction for sensitivity encoded magnetic resonance imaging.MagnReson Med 2004;52(6):1397-1406.
[56]Sodickson,D.,Parallel magnetic resonance imaging(or,scanners,cellphones,and the surprising guises of modern tomography).Medical Physics,2007.34(6):p.2598-2598.
[57]Warfield,S.K.,K.H.Zou,and W.M.Wells,Simultaneous truth andperformance level estimation(STAPLE):An algorithm for the validation of imagesegmentation.Ieee Transactions on Medical Imaging,2004.23(7):p.903-921.
[58]Hu,J.,L.Shen,and G.Sun,Squeeze-and-Excitation Networks.2018 Ieee/Cvf Conference on Computer Vision and Pattern Recognition(Cvpr),2018:p.7132-7141.

Claims (10)

1.一种经由用于图像处理的深度学习来产生多通道空间支持图MCSSM的方法,所述方法包括:
执行所引导的深度学习过程的一次或多次迭代,以通过最小化混合损失测量HLM来训练一组复值网络;
其中所述HLM包括HLM公式,所述HLM公式包括第一MCSSM第二MCSSMij和第三MCSSM
其中是从具有空间对齐信息的第一组完全采样的多通道多切片图像导出的;
其中Sij是从没有空间对齐信息的第一组完全采样的多通道多切片图像导出的;
其中是从所述一组复值网络到第二组多通道多切片图像的应用导出的。
2.根据权利要求1所述的方法,所述HLM公式包括以下公式:
其中λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子。
其中控制权重必须服从λ12=1的约束,以提供两项之间的有效平衡。
3.一种经由用于图像处理的深度学习产生多通道空间支持图的系统,所述系统包括:
处理器;以及
机器可读介质,其能够操作来与所述处理器通信并在其上存储指令,当所述指令由所述处理器执行时,执行以下操作:
将i定义为大于零的第一整数;
将j定义为大于零的第二整数;
从所述机器可读介质读取第一图像数据集,所述第一图像数据集是完全采样的并且包括j个图像切片、i个图像通道和一组空间对齐参数,所述一组空间对齐参数将每个图像切片j和每个图像通道i的一些或全部分别与用于创建所述第一图像数据集的成像系统相关;
从所述机器可读介质读取第二图像数据集,所述第二图像数据集是欠采样的并且包括j个图像切片和i个图像通道;
从所述机器可读介质读取复值网络CVN数据集,所述CVN数据集包括i个CVN,每个相应的CVNi与来自所述第二图像数据集的相应图像通道i相关联;
从所述第一图像数据集并基于所述一组空间对齐参数导出对于每个图像切片j和每个图像通道i的包括空间对齐信息的第一多通道空间支持矩阵
从所述第一图像数据集导出对于每个图像切片j和每个图像通道i的没有空间对齐的第二多通道空间支持矩阵Sij
通过与所述第二图像数据集的每个相应图像通道i相关联的相应CVN i处理所述通道,以产生对于每个图像切片j和每个图像通道i的第三多通道空间支持矩阵
通过深度学习过程训练每个相应的CVN以产生经过训练的CVN数据集,其包括i个经过训练的CVN,每个经过训练的CVNi分别与相应的图像通道i相关联;以及
通过与所述第二图像数据集的每个相应图像通道i相关联的相应的经过训练的CVNi处理所述通道,以产生对于每个图像切片j和每个图像通道i的用于图像处理的深度学习多通道空间支持图
4.根据权利要求3所述的系统,所述训练包括一次或多次迭代,每次迭代包括:
将当前和Sij中之一或两者进行比较,以产生损失测量;
更新每个相应的CVNi以减少所述损失测量,由此产生包含i个经过训练的CVN的经过训练的CVN数据集;以及
通过与所述第二图像数据集的每个相应图像通道i相关联的相应的经过训练的CVNi处理所述通道,以产生和更新对于每个图像切片j和每个图像通道i的用于图像处理的深度学习多通道空间支持图
5.一种用于经由用于图像处理的深度学习产生ESPIRiT图的方法,所述方法包括:
执行所引导的深度学习过程的一次或多次迭代,以通过最小化混合损失测量HLM来训练神经网络;
其中所述HLM包括HLM公式,所述HLM公式包括第一ESPIRiT图第二ESPIRiT图Eij和第三ESPIRiT图
其中是从具有空间对齐信息的第一组完全采样的多通道多切片图像导出的;
其中Eij是从没有空间对齐信息的第一组完全采样的多通道多切片图像导出的;以及
其中是从所述神经网络对第二组多通道多切片图像的应用导出的。
6.根据权利要求5所述的方法,所述HLM公式包括以下公式:
其中,λ1是第一控制权重,λ2是第二控制权重,M是空间对齐因子;
其中,相应的第一控制权重和第二控制权重被λ12=1约束以提供两项之间的有效平衡。
7.一种产生用于图像处理的深度学习估计的ESPIRiT图的系统,所述系统包括:
处理器;以及
机器可读介质,其能够操作来与所述处理器通信并在其上存储指令,所述指令当由所述处理器执行时,执行以下操作:
从所述机器可读介质读取第一图像数据集,所述第一图像数据集是完全采样的并且包括图像切片、图像通道和一组空间对齐参数,所述一组空间对齐参数将每个图像切片和每个图像通道中的一些或全部分别与用于创建所述第一图像数据集的成像系统相关;
从所述机器可读介质读取第二图像数据集,所述第二图像数据集是欠采样的并且包括多个图像切片和多个图像通道;
从所述机器可读介质读取卷积神经网络CNN;
从所述第一图像数据集并基于所述一组空间对齐参数导出对于每个图像切片和每个图像通道的包括空间对齐信息的第一组主要特征值的ESPIRiT图
从所述第一图像数据集导出对于每个图像切片和每个图像通道的没有空间对齐的第二组主要特征值的ESPIRiT图Eij
通过深度学习过程训练所述CNN以产生经过训练的CNN;以及
通过所述CNN处理所述第二图像数据集的每个相应图像通道,以产生用于图像处理的主要特征值的深度学习估计的ESPIRiT图
8.一种用于产生重建图像的方法,所述方法包括:
提供图像数据集,所述图像数据集是欠采样的多通道多切片图像数据集,其包括第一数量的成像通道和第二数量的图像切片;
提供经过训练的网络,所述经过训练的网络包括经过训练以处理所述图像数据集中的所述第一数量的成像通道中的每一个相应通道的卷积神经网络;
通过所述经过训练的网络处理所述图像数据集以产生一组ESPIRiT图;以及
基于一组产生的ESPIRiT图执行每个相应图像切片的重建,以产生所述重建图像。
9.一种用于产生用于图像处理的改进的深度学习变换TDL的方法,所述方法包括:
执行引导深度学习过程的一次或多次迭代,以通过最小化混合损失测量HLM来训练神经网络;
其中所述HLM包括HLM公式,所述HLM公式包括第一变换Tref、第二变换T和第三变换TDL
其中Tref是从具有空间对齐信息的第一组完全采样的多通道多切片图像导出的;
其中T是从没有空间对齐信息的第一组完全采样的多通道多切片图像导出的;以及
其中TDL是从所述神经网络对第二组多通道多切片图像的应用导出的。
10.一种产生用于图像处理的改进的深度学习变换TDL的系统,所述系统包括:
处理器;以及
机器可读介质,其能够操作来与所述处理器通信并在其上存储指令,所述指令当由所述处理器执行时,执行以下操作:
从所述机器可读介质读取第一图像数据集,所述第一图像数据集是完全采样的并且包括图像切片、图像通道和一组空间对齐参数,所述一组空间对齐参数将每个图像切片和每个图像通道中的一些或全部分别与用于创建所述第一图像数据集的成像系统相关;
从所述机器可读介质读取第二图像数据集,所述第二图像数据集是欠采样的并且包括多个图像切片和多个图像通道;
从所述机器可读介质读取卷积神经网络CNN;
从所述第一图像数据集并基于所述一组空间对齐参数导出对于每个图像切片和每个图像通道的包括空间对齐信息的第一变换Tref
从所述第一图像数据集导出对于每个图像切片和每个图像通道的没有空间对齐的第二变换T;
通过所述CNN处理所述第二图像数据集的每个相应图像通道,以产生第三变换TDL
通过深度学习过程训练所述CNN以产生经过训练的CNN;以及
通过所述经过训练的CNN处理所述第二图像数据集的每个相应图像通道,以产生用于图像处理的改进的深度学习变换TDL
CN202310436153.XA 2022-04-28 2023-04-21 一种产生多通道空间支持图的方法与系统 Pending CN116977458A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263363790P 2022-04-28 2022-04-28
US63/363790 2022-04-28

Publications (1)

Publication Number Publication Date
CN116977458A true CN116977458A (zh) 2023-10-31

Family

ID=88482100

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310436153.XA Pending CN116977458A (zh) 2022-04-28 2023-04-21 一种产生多通道空间支持图的方法与系统

Country Status (1)

Country Link
CN (1) CN116977458A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118627573A (zh) * 2024-08-12 2024-09-10 山东矩阵软件工程股份有限公司 一种模型训练的改进方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118627573A (zh) * 2024-08-12 2024-09-10 山东矩阵软件工程股份有限公司 一种模型训练的改进方法及装置

Similar Documents

Publication Publication Date Title
Tezcan et al. MR image reconstruction using deep density priors
US10671939B2 (en) System, method and computer-accessible medium for learning an optimized variational network for medical image reconstruction
Uecker et al. ESPIRiT—an eigenvalue approach to autocalibrating parallel MRI: where SENSE meets GRAPPA
Shi et al. Parallel imaging and compressed sensing combined framework for accelerating high‐resolution diffusion tensor imaging using inter‐image correlation
Zhang et al. Multi-channel generative adversarial network for parallel magnetic resonance image reconstruction in k-space
Lee et al. Deep artifact learning for compressed sensing and parallel MRI
US20200341094A1 (en) Multi-contrast mri image reconstruction using machine learning
CN103584864B (zh) 一种磁共振成像方法和装置
Huang et al. Self-supervised deep unrolled reconstruction using regularization by denoising
US20210264645A1 (en) Multi-contrast mri image reconstruction using machine learning
Knoll et al. Deep learning methods for parallel magnetic resonance image reconstruction
Singh et al. Joint frequency and image space learning for MRI reconstruction and analysis
EP2773985A1 (en) Method for calibration-free locally low-rank encouraging reconstruction of magnetic resonance images
US12521033B2 (en) Method and system for low-field MRI denoising with a deep complex-valued convolutional neural network
Falvo et al. A multimodal dense u-net for accelerating multiple sclerosis mri
Yi et al. Fast and calibrationless low-rank parallel imaging reconstruction through unrolled deep learning estimation of multi-channel spatial support maps
Cheng et al. Model-based deep medical imaging: the roadmap of generalizing iterative reconstruction model using deep learning
Gan et al. SS-JIRCS: Self-supervised joint image reconstruction and coil sensitivity calibration in parallel MRI without ground truth
CN116977458A (zh) 一种产生多通道空间支持图的方法与系统
CN113628298B (zh) 基于特征向量的自一致性和非局部低秩的并行mri重构方法
CN109920017A (zh) 基于特征向量的自一致性的联合全变分Lp伪范数的并行磁共振成像重构方法
Schauman et al. Deep learning initialized compressed sensing (Deli-CS) in volumetric spatio-temporal subspace reconstruction
Hu et al. SPICE: Self-supervised learning for MRI with automatic coil sensitivity estimation
CN113866694A (zh) 一种快速三维磁共振t1定量成像方法、系统及介质
Ryu et al. K-space refinement in deep learning MR reconstruction via regularizing scan specific SPIRiT-based self consistency

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination