CN113344799A - 用于使用深度神经网络减少医学图像中的有色噪声的系统和方法 - Google Patents

用于使用深度神经网络减少医学图像中的有色噪声的系统和方法 Download PDF

Info

Publication number
CN113344799A
CN113344799A CN202110187509.1A CN202110187509A CN113344799A CN 113344799 A CN113344799 A CN 113344799A CN 202110187509 A CN202110187509 A CN 202110187509A CN 113344799 A CN113344799 A CN 113344799A
Authority
CN
China
Prior art keywords
medical image
noise
image
space
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110187509.1A
Other languages
English (en)
Inventor
丹尼尔·利特威勒
王新增
阿里·埃尔索兹
罗伯特·马克·莱贝尔
埃尔辛·拜拉姆
格雷姆·科林·麦金农
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Precision Healthcare LLC
Original Assignee
GE Precision Healthcare LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Precision Healthcare LLC filed Critical GE Precision Healthcare LLC
Publication of CN113344799A publication Critical patent/CN113344799A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/70
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • G06T5/60
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明提供了用于使用深度神经网络对医学图像进行去噪的方法和系统。在一个实施方案中,一种方法包括:接收由成像系统采集的医学图像,其中医学图像包括有色噪声;使用经训练的卷积神经网络(CNN)将医学图像映射到去噪医学图像;以及经由显示设备显示去噪医学图像。深度神经网络因此可减少采集的有噪医学图像中的有色噪声,从而提高图像的清晰度和诊断质量。

Description

用于使用深度神经网络减少医学图像中的有色噪声的系统和 方法
技术领域
本文所公开的主题的实施方案涉及处理医学图像,诸如磁共振图像(MRI)、CT图像等,并且更具体地讲,涉及使用深度神经网络减少医学图像中的噪声。
背景技术
医学成像系统通常用于获得受检者(诸如患者)的解剖学和/或内部生理信息。例如,医学成像系统可用于获得患者的骨骼结构、脑部、心脏、肺部和各种其他特征的医学图像。医学图像可以是由医学成像系统生成的图像。医学成像系统可以包括磁共振成像(MRI)系统、计算机断层摄影(CT)系统、x射线系统、超声系统和各种其他成像模态。
通过某些成像模式(诸如MRI)获得的医学图像可包含一种或多种类型的噪声,这可降低图像清晰度和分辨率。医学图像中噪声的存在可影响诊断质量。具体地讲,k空间采样图案、图像重建和后处理可以在磁共振(MR)图像中产生具有有色噪声(例如,在空间频域中不均匀分布的噪声)的医学图像,这些有色噪声可能难以通过现有的图像处理方法来减少。已提出将深度学习方法用于从医学图像去除有色噪声,然而当前深度学习方法在去除有色噪声中的执行是不一致的,并且通常不能产生足够程度的噪声减少。因此,通常期望探索深度学习技术以识别用于一致地减少医学图像中的有色噪声的新方法。
发明内容
本公开至少部分地解决了上述问题。在一个实施方案中,本公开提供了一种方法,包括:经由成像系统采集医学图像,其中该医学图像包括有色噪声;使用经训练的卷积神经网络(CNN)将医学图像映射到去噪医学图像;以及经由显示设备显示去噪医学图像。通过使用经训练的CNN将包括有色噪声的医学图像映射到去噪医学图像,可以显著减少图像中的有色噪声,从而提高图像的清晰度和诊断质量。
在单独或与附图联系时,本说明书的以上优势以及其他优势和特征将从以下具体实施方式中显而易见。应当理解,提供以上发明内容是为了以简化的形式介绍在具体实施方式中进一步描述的概念的选择。这并不意味着识别所要求保护的主题的关键或必要特征,该主题的范围由具体实施方式后的权利要求书唯一地限定。此外,所要求保护的主题不限于解决上文或本公开的任何部分中提到的任何缺点的实施方式。
附图说明
通过阅读以下详细描述并且参考附图,可以更好地理解本公开的各个方面,其中:
图1是示出根据示例性实施方案的用于使用深度神经网络从医学图像去除有色噪声的图像处理系统的示意图;
图2是示出根据示例性实施方案的可在图1的图像处理系统中使用的深度神经网络的实施方案的布局的示意图;
图3是根据示例性实施方案的示出了可在图1的系统中使用的深度神经网络的架构的示意图;
图4是示出根据示例性实施方案的用于使用深度神经网络从医学图像去除有色噪声的方法的流程图;
图5是示出根据示例性实施方案的用于基于k空间采样图案的噪声功率来合成有色噪声的方法的流程图;
图6示出了根据示例性实施方案的空间频域中的采样密度的示例、空间频域中的噪声功率的示例、空间频域中的合成有色噪声的示例以及空间域中的合成有色噪声的示例;
图7示出了根据示例性实施方案的附加的示例性k空间采样图案;
图8是根据示例性实施方案的示出用于为深度神经网络生成训练数据的方法的流程图;
图9示出了根据示例性实施方案的具有噪声的医学图像、白噪声减少之后的医学图像以及有色噪声减少之后的医学图像之间的比较;并且
图10示出了根据示例性实施方案的具有噪声的医学图像与有色噪声减少之后的医学图像之间的比较。
附图示出了用于使用深度神经网络减少医学图像中的有色噪声的所述系统和方法的具体方面。连同以下描述,附图示出并且解释了本文描述的结构、方法和原理。在附图中,为了清楚起见,部件的大小可以被放大或以其他方式修改。没有示出或详细描述众所周知的结构、材料或操作以避免模糊所描述的部件、系统和方法的各方面。
具体实施方式
在磁共振成像(MRI)中,将受检者放置在磁体中。受检者是人(活的或死的)、动物(活的或死的)或人或动物的一部分。当受检者处于由磁体生成的磁场中时,核诸如质子的磁矩尝试与磁场对准,但会以核的拉莫尔频率以随机顺序围绕磁场进动。磁体的磁场被称为B0并且沿纵向或z方向延伸。在采集MRI图像的过程中,在x-y平面中且接近拉莫尔频率的磁场(称为激励磁场B1)由射频(RF)线圈生成,并且可用于使核的净磁矩Mz从z方向旋转或“倾斜”到横向或x-y平面。在激励信号B1终止之后,核发射被称为MR信号的信号。为了使用MR信号来生成受检者的图像,使用磁场梯度脉冲(Gx、Gy和Gz)。梯度脉冲用于扫描通过k空间、空间频率的空间或距离的倒数。在采集的MR信号与受检者的图像之间存在傅立叶关系,因此可以通过重建MR信号来导出受检者的图像。如本文所用,频率具体地讲是指空间频率,而不是时间频域。
医学图像可能包含噪声,这限制了图像分辨率并且降低了诊断质量。在一个示例中,磁共振(MR)图像可能包含由于在成像过程期间由患者提供的热能引起的白噪声。白噪声均匀分布在图像的空间频域(例如,k空间)中。采集的射频MR数据通常包含均匀噪声,并且如果该数据用于以均匀方式填充k空间,则k空间中的噪声是均匀的(例如,白噪声)。然而,某些图像采集和图像处理程序可能在医学图像中产生有色噪声。有色噪声不均匀地分布在图像的k空间中,并且使用现有方法可能更难以减少。例如,磁共振(MR)图像中的有色噪声可由不均匀的过采样引起,其中一些采样与频域的至少一个区域中的奈奎斯特采样标准重叠并且/或者超过该奈奎斯特采样标准。又如,MR图像中的有色噪声可能是由于在图像重建期间(诸如在基于核的并行成像重建期间)的噪声放大引起的不均匀欠采样引起的。又如,MR图像中的有色噪声可能是可变接收带宽或可变读出速度引起的。又如,MR图像中的有色噪声可能是图像后处理技术诸如图像平滑化、图像清晰化等引起的。又如,噪声着色可能是组合多个图像(或多个k空间图像表示)引起的。例如,可在图像后处理技术期间平均多个图像,这可能会改变噪声着色。在另一个示例中,MR图像中的有色噪声可能是不均匀的空间加权引起的,其中医学图像的不同部分可具有不同的噪声分布,从而导致噪声着色。
当噪声的类型/来源未知时,或者当存在有色噪声的多个来源时,从医学图像去除有色噪声的过程可能是复杂的。例如,MR图像可包含由于不均匀采样图案(诸如具有增强重建的周期性旋转重叠平行线(PROPELLER)采样图案)引起的第一类型的有色噪声,以及由于后处理期间的图像清晰化引起的第二类型的有色噪声。噪声固有地是随机的,并且可能难以经由传统计算方法准确地减少,尤其是在没有对k空间采样图案和所执行的任何其他图像处理的完全了解的情况下。
以下描述涉及用于使用深度神经网络从医学图像去除有色噪声的各种实施方案,这至少部分地解决上述问题。具体地讲,医学图像由成像系统采集,并且可经受重建和后处理。然后使用经训练的深度神经网络处理采集的可能包含有色噪声的医学图像,该经训练的深度神经网络可任选地被赋予图像的一个或多个噪声参数。包含有色噪声的医学图像在本文中被定义为有噪图像。噪声参数可与医学图像中的有色噪声的类型和分布相关,并且可包括用于采集医学图像的各种成像系统设置,诸如k空间采样图案。噪声参数还可包括例如空间频域中的噪声功率,以及关于有噪图像的其他信息。换句话讲,噪声参数可对应于医学图像中的有色噪声的来源。深度神经网络可减少图像中的有色噪声并输出具有显著较少的有色噪声的图像(例如,去噪图像)。以这种方式,可从对应的有噪医学图像产生去噪医学图像。此外,深度神经网络可以在投入使用之前被训练。在一个实施方案中,可通过基于噪声参数(诸如基于k空间采样图案)合成有色噪声来生成神经网络的训练数据。
如本文所用,去噪是减少医学图像中的噪声诸如有色噪声的过程。噪声可根据噪声功率在频域中合成,并且可基于噪声的特性在频域中不同地分布。因此,去噪包括至少部分地减少图像中至少一种类型的有色噪声的存在以提高图像分辨率和诊断质量的过程。去噪图像可通过对有噪图像(例如,具有有色噪声的医学图像)去噪来产生,并且相反地,有噪图像可通过将有色噪声的一个或多个来源引入原始图像(例如,没有有色噪声的医学图像)中来产生。具体地讲,有噪图像可基于k空间采样图案和/或预期噪声特性从对应的原始图像产生,并且所得的图像对(例如,有噪图像和对应的原始图像)可用作深度神经网络的训练数据。应当理解,在一些情况下,可使用成像系统直接采集原始医学图像。
参考图1,示出了根据示例性实施方案的医学图像处理系统100。在一些实施方案中,医学图像处理系统100结合到医学成像系统诸如MR系统中。在一些实施方案中,医学图像处理系统100设置在经由有线连接和/或无线连接可通信地联接到医学成像系统的设备(例如,边缘设备、服务器等)处。在一些实施方案中,医学图像处理系统100设置在单独的设备(例如,工作站)处,该设备可从医学成像系统或者从存储由医学成像系统生成的图像的存储设备接收图像。医学图像处理系统100可包括图像处理系统31、用户输入设备32和显示设备33。
图像处理系统31包括处理器104,该处理器被配置为执行存储在非暂态存储器106中的机器可读指令。处理器104可以是单核或多核的,并且在其上执行的程序可以被配置用于进行并行或分布式处理。在一些实施方案中,处理器104可以可选地包括分布在两个或更多个设备中的单独组件,其可以被远程定位和/或配置用于协调处理。在一些实施方案中,处理器104的一个或多个方面可被虚拟化并由以云计算配置进行配置的可远程访问的联网计算设备执行。
非暂态存储器106可存储深度神经网络模块108、有色噪声模块116、训练模块112和医学图像数据114。深度神经网络模块108可包括一个或多个深度神经网络,该一个或多个深度神经网络包括多个参数(包括权重、偏差、激活函数),以及用于实现一个或多个深度神经网络以接收有噪医学图像并且将有噪医学图像映射到输出的指令,其中可从输出中产生对应于有噪医学图像的去噪医学图像。例如,深度神经网络模块108可存储用于实现神经网络(诸如图3所示的卷积神经网络(CNN)架构300的CNN)的指令。然而,也可使用其他架构,诸如完全连接网络和CNN或生成对抗网络及其变型的组合。
深度神经网络模块108可包括经训练和/或未经训练的神经网络,并且还可包括与存储在其中的一个或多个神经网络有关的各种数据或标签。在一些实施方案中,深度神经网络标签可包括用于训练深度神经网络的训练数据的指示、用以训练深度神经网络的训练方法、深度神经网络的准确性/验证得分、以及可应用深度神经网络的解剖结构/成像协议的类型。
非暂态存储器106还存储有色噪声模块116,该有色噪声模块包括用于基于预期k空间采样图案合成有色噪声的指令。有色噪声模块116可包括指令,该指令在由处理器104执行时使图像处理系统31进行在下面详细讨论的方法500的步骤中的一个或多个步骤。在一些实施方案中,有色噪声模块116包括用于通过利用从采样密度图导出的噪声功率对白噪声的k空间(例如,空间频域)表示进行加权来基于k空间采样图案生成有色噪声的空间表示,然后将所得的k空间表示变换为空间域的指令。有色噪声减少模块116可被训练模块112用于生成训练图像以用于训练深度神经网络。
非暂态存储器106还可存储训练模块112,该训练模块包括用于训练存储在深度神经网络模块108中的深度神经网络中的一个或多个深度神经网络的指令。训练模块112可包括指令,该指令在由处理器104执行时使图像处理系统31进行在下面详细讨论的方法700的步骤中的一个或多个步骤。在一些实施方案中,训练模块112包括用于实现一个或多个梯度下降算法、应用一个或多个损失函数和/或训练例程以用于调整深度神经网络模块108的一个或多个深度神经网络的指令。在一些实施方案中,训练模块112包括用于从医学图像数据114生成训练数据对的指令。在一些实施方案中,训练数据对包括同一解剖区域的对应的噪声和原始医学图像对。在一些实施方案中,训练模块112包括用于通过将由有色噪声模块116合成的噪声应用于/添加到原始医学图像来生成有噪医学图像的指令。在一些实施方案中,训练模块112不设置在图像处理系统31处。深度神经网络模块108包括训练和验证的网络。
非暂态存储器106还存储医学图像数据114。医学图像数据114包括例如使用MRI系统采集的MR图像、由超声系统采集的超声图像等。例如,医学图像数据114可存储噪声和/或原始医学图像。在一些实施方案中,医学图像数据114可包括多个训练数据对,该多个训练数据对包括噪声和原始医学图像对。
在一些实施方案中,非暂态存储器106可以包括设置在两个或更多个设备上的组件,这些组件可以被远程定位和/或配置用于协调处理。在一些实施方案中,非暂态存储器106的一个或多个方面可以包括以云计算配置进行配置的可远程访问的联网存储设备。
图像处理系统100还可包括用户输入设备32。用户输入设备32可包括触摸屏、键盘、鼠标、触控板、运动感测相机或被配置为使用户能够与图像处理系统31内的数据交互并操纵该数据的其他设备中的一者或多者。例如,用户输入设备32可使用户能够选择要在其上执行有色噪声减少的医学图像。
显示设备33可以包括利用几乎任何类型技术的一个或多个显示设备。在一些实施方案中,显示设备33可包括计算机监视器,并且可显示未处理的和已处理的MR图像和/或参数标测图。显示设备33可与处理器204、非暂态存储器206和/或用户输入设备32组合在共享壳体中,或者可以是外围显示设备,并且可包括监视器、触摸屏、投影仪或本领域已知的其他显示设备,其可使用户能够查看医学图像,和/或与存储在非暂态存储器206中的各种数据交互。
应当理解,图1所示的图像处理系统100是用于说明而非限制。另一种合适的图像处理系统可以包括更多、更少或不同的部件。
例如,系统包括:磁共振成像(MRI)系统、存储经训练的深度神经网络的存储器、显示设备以及可通信地联接到存储器并且被配置为从医学图像去除有色噪声的处理器。
转到图2,示出了用于减少医学图像中的噪声的有色噪声减少过程200的第一实施方案的示意图。有色噪声减少过程200可由图像处理系统100实现,以至少部分地减少有噪医学图像中的有色噪声。有色噪声减少过程200用于示出噪声减少系统的实施方案,其中深度神经网络224用于减少有噪医学图像206中的有色噪声。在一些实施方案中,噪声参数204可结合到深度神经网络224中。噪声参数204可表征有噪医学图像206中的有色噪声。例如,噪声参数204可包括k空间采样图案、k空间采样密度、噪声密度、图像处理参数等。通过结合噪声参数204,深度神经网络224可以接收关于有噪医学图像206中的有色噪声的程度、类型和分布的至少部分信息,以便增加有色噪声减少的量和准确度。在一些实施方案中,噪声参数204可不结合到深度神经网络224中,并且深度神经网络可以在没有关于图像的噪声特性的信息的情况下减少有噪医学图像206中的有色噪声。
有色噪声减少系统200包括接收包括噪声参数204和有噪医学图像206的输入的深度神经网络224,并且产生去噪图像(例如,具有减少的有色噪声的图像)作为输出。输入由深度神经网络224接收,并且被映射到去噪图像220。深度神经网络224包括学习的卷积滤波器214(在训练过程期间学习)和学习的解卷积滤波器218(在训练过程期间学习)。通过将输入传播通过深度神经网络224的卷积层和解卷积层,产生去噪图像220。
噪声参数204可包括至少部分地表征有噪医学图像206中的噪声的一个或多个参数。例如,噪声参数204可包括k空间噪声功率。又如,噪声参数204可包括k空间中的噪声功率的空间映射。在一些示例中,可基于采集方法来确定噪声参数204,而在其他示例中,可独立于采集方法来确定噪声参数204。例如,噪声参数204可包括是否基于在去噪之前应用于有噪医学图像206的图像处理技术来预期某种类型的有色噪声。
在一个实施方案中,噪声参数204包括有噪医学图像206的采集数据。医学图像的采集数据包括成像系统在有噪医学图像206的采集期间所使用的一个或多个设置和/或成像组织/患者的一个或多个生理属性和/或环境条件。例如,如果有噪医学图像206为MR图像,则采集数据可包括MRI系统在有噪医学图像206的采集期间所使用的或与成像患者相关的回波列长度、重复时间、回波时间、回波间隔、目标翻转角、k空间采样图案、k空间采样密度、采集顺序、生理信号或其他参数/设置中的一者或多者。采集数据还可以包括是否已经对有噪医学图像206应用后处理(例如,诸如图像清晰化)。具体地讲,k空间采样图案和k空间采样密度可以影响医学图像中有色噪声的类型和分布,尤其是当k空间采样图案的特征在于不均匀的过采样或不均匀的欠采样时。例如,具有不均匀过采样的k空间采样图案可由于不均匀的噪声减少而产生噪声着色。
有噪医学图像206为解剖区域的医学图像,包括多个值,其中每个值都可被称为像素(对于2D图像)或体素(对于3D图像)。有噪医学图像206包括噪声,其通常可被描述为降低医学图像的质量的不需要的视觉数据。此外,噪声可在数学上被描述为频域中的随机性程度,其中噪声的颜色由其在频域中的分布来确定。例如,有噪医学图像206包括人腹部的MR图像,该MR图像包括一种或多种有色噪声,其中噪声的程度和/或类型在有噪医学图像206的k空间表示内变化。即,有噪医学图像206的k空间表示可包括具有噪声分布的第一区域,以及包括第二噪声分布的第二区域,其中第一噪声分布和第二噪声分布不同。
可包括噪声参数204的输入可传播通过深度神经网络224内的多个层,以将有噪医学图像206的强度值映射到去噪图像220的强度值。例如,深度神经网络224可基于噪声参数204来确定待应用的一组权重。深度神经网络224包括学习的卷积滤波器214和学习的解卷积滤波器218。深度神经网络224还可包括一个或多个密集连接的层(未示出)以及一个或多个池化层(未示出)、一个或多个上采样层(未示出)以及一个或多个ReLU层(未示出)或机器学习领域中常规的任何层。可通过基于噪声参数204设置卷积滤波器214和/或解卷积滤波器218来将噪声参数204直接结合到深度神经网络224中。在其他实施方案中,噪声参数204可各自经由多个不同的机构/通道结合到深度神经网络324中。在其他实施方案中,噪声参数204可不被提供给深度神经网络224。
深度神经网络224的输出可用于产生去噪图像220,该去噪图像包括与有噪医学图像206相同的解剖区域的图像,但其中有色噪声被至少部分地减少。
转到图3,示出了用于将有噪医学图像映射到去噪医学图像的示例性CNN架构300。CNN架构300提供了深度神经网络(诸如深度神经网络224)的更详细说明,该深度神经网络可执行有噪医学图像的有色噪声减少。在一些实施方案中,CNN架构300的参数的子集可基于噪声参数来选择/确定。例如,如图2所示的有色噪声减少系统200中所指出的,CNN架构300可结合有一个或多个噪声参数。
图3所示的CNN架构300代表U-net架构,该U-net架构可分为自动编码器部分(下降部分,元件302b-330)和自动解码器部分(上升部分,元件332-356a)。CNN架构300被配置为接收包括有色噪声的医学图像,其可以是磁共振(MR)图像。在一个实施方案中,CNN架构300被配置为从包括多个像素/体素的解剖区域的有噪医学图像(诸如有噪医学图像302a)接收数据,并且将输入的有噪医学图像数据映射到同一解剖区域的去噪医学图像(诸如去噪医学图像356b)。CNN架构300包括从可由输入层接收的输入图像图块302b通过多个特征标测图最后到可基于输出层356a的输出而产生的输出的去噪医学图像356b的一系列映射。
图例358中标记了包括CNN架构300的各种元件。如图例358所指出的,CNN架构300包括通过一个或多个操作(由箭头指出)连接的多个特征标测图(和/或复制的特征标测图)。箭头/操作接收来自外部文件或先前特征标测图的输入,并且将所接收的输入变换/映射到输出以产生下一个特征标测图。每个特征标测图都可包括多个神经元,其中在一些实施方案中,每个神经元都可接收来自前一层/特征标测图的神经元的子集的输入,并且可基于所接收的输入来计算单个输出,其中输出可传播/映射到下一层/特征标测图中的神经元的子集或全部。
可使用术语长度、宽度和深度来描述特征标测图,其中每个术语都是指包括特征标测图的神经元的数量(例如,指定的特征标测图是多少神经元长、多少神经元宽、以及多少神经元深)。参考特征标测图所使用的长度和宽度对应于正在处理的图像的空间尺寸,并且在一些情况下可对应于图像的像素/体素的数量。参考特征标测图所使用的深度可对应于每个特征通道中的特征的数量。
在每个特征标测图之间执行的变换/映射由箭头指出,其中每种不同类型的箭头对应于不同类型的变换,如图例358所指出的。向右指向的实心黑色箭头指示步幅为1的3×3卷积,其中通过在特征通道的3×3网格的输出/激活与3×3滤波器(紧接着先前的特征标测图的每个层/每个单位深度包括9个权重)之间执行点积,将来自紧接着先前的特征标测图的特征的3×3网格的输出(其中3×3网格延伸穿过紧接着先前的特征标测图的所有层)映射到当前特征标测图的在单个深度处的单个特征。在一些实施方案中,可基于噪声参数204来选择卷积滤波器权重。在一些实施方案中,可在训练过程期间学习卷积滤波器权重。用于执行3×3卷积的滤波器在本文被称为卷积滤波器(convolution filter/convolutional filter)或卷积核(convolution kernel/convolutional kernel)。
向下指向的箭头指示2×2最大池化操作,其中来自单个深度处的特征通道的2×2网格的最大值从紧接着先前的特征标测图传播到当前特征标测图的单个深度处的单个特征,从而导致与紧接着先前的特征标测图相比,产生空间分辨率减少3倍的输出特征标测图。在一个示例中,来自紧接着先前的特征标测图的2×2激活网格的最大池化(其中2×2激活网格包括(2,1.3,10,3.3))产生(10)的输出,因为10是2×2网格内的最大激活值。
向上指向的箭头指示步幅为2的2×2向上卷积,这些向上卷积包括使用包括多个权重的解卷积滤波器执行转置卷积(在本文也称为解卷积)(用于执行转置卷积的滤波器在本文也被称为解卷积滤波器(deconvolutional filter/deconvolution filter)),将来自紧接着先前的特征标测图的每个特征深度处的单个特征通道的输出映射到当前特征标测图中的单个特征深度处的2×2特征网格,从而将紧接着先前的特征标测图的空间分辨率增大3倍。
向右指向的虚线箭头指示复制和裁剪特征标测图以与另一个以后出现的特征标测图级联。裁剪使复制的特征标测图的维度能够与待与复制的特征标测图级联的特征通道的维度匹配。应当理解,当正复制的第一特征标测图的尺寸和待与第一特征标测图级联的第二特征标测图的尺寸相等时,可不执行裁剪。例如,级联的特征标测图可具有相同的尺寸,并且可不执行裁剪。
具有中空头部的向右指向的箭头指示步幅为1的1×1卷积,其中紧接着先前的特征标测图中的每个特征通道被映射到当前特征标测图的单个特征通道,或者换句话讲,其中在紧接着先前的特征标测图与当前特征标测图之间发生了特征通道的1对1映射。每个特征标测图处的处理可包括上述的卷积和解卷积以及激活,其中激活函数是将处理的输出值限制在边界范围内的非线性函数。
除了图例358内的箭头所指示的操作之外,CNN架构300还包括对应于特征标测图的实心填充矩形,其中特征标测图包括高度(如图3所示的从上到下的长度,对应于x-y平面中的y空间维度)、宽度(图3中未示出,假设量值与高度相等,对应于x-y平面中的x空间维度)和深度(如图3所示的左右长度,对应于每个特征通道内的特征的数量)。同样,CNN架构300包括对应于复制和裁剪的特征标测图的中空(未填充)矩形,其中复制的特征标测图包括高度(如图3所示的从上到下的长度,对应于x-y平面中的y空间维度)、宽度(图3中未示出,假设量值与高度相等,对应于x-y平面中的x空间维度)和深度(如图3所示从左侧到右侧的长度,对应于每个特征通道内的特征的数量)。
从输入图像图块302b(在本文也称为输入层)处开始,输入对应于有噪医学图像302a的数据并且将其映射到第一特征集。在一些实施方案中,有噪医学图像302a包括对应于图像的一个或多个特征(诸如多色图像的每个强度值)的一个或多个层。在一些实施方案中,与有噪医学图像302a级联的噪声参数层可以指示有噪医学图像302a的每个像素位置处的有色噪声的预期/期望类型或强度。有噪医学图像302a可包括患者解剖区域的二维(2D)或三维(3D)图像/标测图。在一些实施方案中,对来自有噪医学图像302a的输入数据进行预处理(例如,归一化),然后再由神经网络进行处理。
输出层356a可包括神经元的输出层,其中每个神经元可对应于预测的去噪医学图像356b的像素(或残差),其中每个神经元的输出可对应于输出的去噪医学图像356b内指定位置的预测像素强度。
以这种方式,CNN架构300可实现来自有噪医学图像302a的多个强度值到去噪医学图像356b的多个强度值的映射,其中在去噪医学图像356b中减少或消除了有噪医学图像302a中存在的有色噪声的程度。在一些实施方案中,CNN架构300可实现有噪医学图像的像素/体素的一个或多个特征到去噪医学图像的一个或多个属性的映射。CNN架构300示出了在输入图像图块传播通过卷积神经网络的神经元层时发生的特征标测图变换,以产生去噪医学图像。在一个示例中,CNN架构300可实现有噪医学图像的多个像素/体素强度值到残差标测图的映射,其中可通过将残差标测图与输入的有噪医学图像302a组合(诸如通过值的逐像素相加)来产生去噪医学图像。
CNN架构300中的卷积层的权重(和偏差)可在训练期间学习,这将在下面参考图7进行详细讨论。可通过计算预测的去噪医学图像和地面实况去噪医学图像之间的差异来训练CNN架构300,其中地面实况去噪医学图像可包括无有色噪声的医学图像。此外,在一些实施方案中,例如,CNN架构300可基于噪声参数204在训练中学习的多个权重之间进行选择,以便选择经校准的权重,以利用噪声参数204进行准确的有色噪声减少。当未提供噪声参数204并且仅将有噪医学图像206提供给CNN架构300时,CNN架构可选择在训练中学习和经校准的一组权重,以针对各种类型的有色噪声进行准确的噪声去除。可使用预测的去噪医学图像和地面实况去噪医学图像之间的差异来确定损失,并且可使用梯度下降或机器学习领域中已知的任何其他参数优化方法来通过神经网络反向传播损失以更新每个特征标测图的权重(和偏差)。在CNN架构300的训练过程期间,可使用多个训练数据对,包括有噪医学图像和对应的地面实况去噪医学图像。
尽管图3中未示出,但应当理解,本公开涵盖神经网络架构,这些神经网络架构包括一个或多个正则化层,该一个或多个正则化层包括批归一化层、丢弃层、高斯噪声层和机器学习领域中已知的其他正则化层,它们可在训练期间使用以减轻过度拟合并且提高训练效率,同时减少训练时间。
应当理解,图3中所示的CNN架构300是用于说明而非限制。在本文中可使用任何合适的神经网络(诸如ResNet、递归神经网络、广义回归神经网络(GRNN)等)来从有噪医学图像预测去噪医学图像。上面描述了本公开的一个或多个具体实施方案以便提供透彻的理解。这些描述的实施方案仅仅是用于使用深度神经网络和一个或多个噪声参数来从有噪医学图像预测去噪医学图像的系统和方法的示例。本领域技术人员将理解,在不脱离本公开的实质的情况下,可以在实施时修改实施方案中描述的具体细节。
参考图4,示出了根据示例性实施方案的用于使用深度神经网络减少有噪医学图像中的有色噪声的方法400的流程图。方法400可由成像处理系统100、连接到成像设备的边缘设备、与成像设备通信的云或它们的任何适当的组合实现。此外,深度神经网络可以是图2所示的深度神经网络224,并且可具有上文所述图3的CNN架构300。
方法400在操作402处开始,在该操作中采集有噪医学图像。在一些实施方案中,图像处理系统经由通信联接(诸如通过网络)从成像系统采集有噪医学图像。在一些实施方案中,图像处理系统从非暂态存储器采集有噪医学图像。尽管为了简单起见参考单个有噪医学图像进行描述,但应当理解,本公开提供了将多个有噪医学图像映射到多个(或单个)去噪医学图像。例如,可增加与多个有噪医学图像对应的输入层的数量,以适应要去噪的有噪医学图像的数量,而不背离本文提供的公开内容。
在操作404处,方法400任选地包括采集与一个或多个有噪医学图像相关联的一个或多个噪声参数。与有噪医学图像相关联或对应的噪声参数可包括在有噪医学图像的采集期间所使用或存在的一个或多个设置、参数或条件。因此,在一些实施方案中,噪声参数包括在扫描/图像采集期间所使用的成像设备的设置,诸如k空间采样图案。与有噪医学图像相关联或对应的噪声参数可包括关于有噪医学图像中噪声的类型和分布的一个或多个参数。噪声参数可与它们所对应的医学图像一起存储或由其索引,使得可以实现与有噪医学图像相关联的一个或多个噪声参数的快速且计算有效的检索。具体地讲,噪声参数可包括用于采集医学图像的k空间采样图案,并且k空间采样图案可以是具有增强重建的并行线(PROPELLER)采样图案、星堆叠采样图案和可变密度螺旋采样图案中的一种。另外的k空间采样图案将在图7中更详细地描述。
在操作406处,使用深度神经网络将有噪医学图像映射到输出。将有噪医学图像映射到输出包括:将来自有噪医学图像的数据(包括任何附加的级联数据(例如,噪声参数))输入到深度神经网络的输入层/输入图块中;以及通过深度神经网络的每个层传播输入数据,直到由深度神经网络的输出层产生输出。在一些实施方案中,深度神经网络包括卷积神经网络,其中基于噪声参数来设置一个或多个滤波器(卷积滤波器或解卷积滤波器),并且当数据传播通过深度神经网络时,将该一个或多个滤波器应用于来自有噪医学图像的数据。
此外,当在404处采集噪声参数时,在406处将有噪医学图像映射到输出还可包括将噪声参数与深度神经网络相结合。在一些实施方案中,将噪声参数与深度神经网络相结合包括:将噪声参数与有噪医学图像级联;以及将有噪图像和模糊医学图像两者输入到经训练的深度神经网络的输入层中。在一些实施方案中,噪声参数包括多个值,并且将噪声参数结合到深度神经网络中包括基于多个值在经训练的深度神经网络中设置多个权重,其中在一些实施方案中,深度神经网络包括CNN,并且该多个权重包括卷积神经网络的解卷积层的解卷积滤波器或卷积层的卷积滤波器。在一些实施方案中,噪声参数可用于输入层和滤波器的权重两者。
在操作408处,使用来自深度神经网络的输出来生成去噪医学图像。在一些实施方案中,该输出包括残差标测图,并且使用该输出来从有噪医学图像产生去噪医学图像包括将残差标测图与有噪医学图像组合以产生去噪医学图像。换句话讲,残差标测图可包括多个值,即输入的有噪医学图像的一个或每个像素或体素,其描述了有噪图像的每个像素或体素与对应的去噪医学图像的每个像素或体素的强度之间的强度差异。将残差标测图与有噪医学图像组合以产生去噪医学图像可包括残差标测图和有噪医学图像之间的值的逐像素相加。在一些实施方案中,来自深度神经网络的输出包括去噪医学图像的像素/体素强度值的标测图。
在操作410处,图像处理系统经由显示设备显示去噪医学图像。在一些实施方案中,用户可使用在原始医学图像上训练的模型,经由用户输入设备选择去噪图像以用于进一步的图像处理,诸如图像分割、病理学识别、超分辨率等。确定深度神经网络所输出的去噪医学图像和对应的有噪医学图像之间的差异并且反向传播通过深度神经网络的层/特征标测图。
以这种方式,方法400使得能够经由对具有有色噪声的训练数据训练的深度神经网络以时间有效且更一致的方式减少有噪医学图像中的有色噪声。此外,通过包括噪声参数,深度神经网络可通过选择针对噪声参数校准的一组权重来从有噪医学图像更准确地去除有色噪声。此外,可通过另外的下游图像处理模型来更有效地处理去噪医学图像,这些下游图像处理模型可能已使用去有噪医学图像进行了训练。
例如,一种方法包括:经由成像系统采集医学图像,其中该医学图像包括有色噪声;使用经训练的CNN将医学图像映射到去噪医学图像;以及经由显示设备显示去噪医学图像。在前述示例中,附加地或任选地,使用经训练的CNN将医学图像映射到去噪医学图像还包括采集对应于有色噪声的来源的一个或多个噪声参数,并且将一个或多个噪声参数结合到经训练的CNN中。在前述示例中的一个或两个中,将一个或多个噪声参数结合到经训练的CNN中包括基于一个或多个噪声参数选择经训练的CNN的一组预训练的权重和偏差,并且一个或多个噪声参数包括用于采集医学图像的k空间采样图案和用于采集医学图像的k空间采样密度中的一者或多者。
又如,一种方法包括:经由成像系统采集医学图像,该医学图像包括有色噪声;由深度神经网络将有噪医学图像映射到输出;以及使用该输出来生成去噪医学图像。在前述示例中,附加地或任选地,采集有噪医学图像还包括选择一个或多个噪声参数,以及将一个或多个噪声参数结合到经训练的深度神经网络中。例如,一个或多个噪声参数包括用于采集医学图像的k空间采样图案和用于采集医学图像的k空间采样密度中的一者或多者,并且医学图像是磁共振(MR)图像。
深度神经网络可通过使用多对有噪医学图像和对应的原始图像(例如,图像对)来训练,在本文中称为训练数据。每个图像对中的有噪图像用作深度神经网络的输入,并且每个图像对中的原始图像用作地面实况以供参考。在一些示例中,可通过将有色噪声应用于原始图像,从而生成对应的有噪图像来产生图像对。有色噪声可通过由从采样密度导出的噪声功率对白噪声图像的k空间表示进行加权,然后将噪声变换回图像空间来合成。例如,有色噪声的图像空间表示(例如,空间域中有色噪声的表示)可通过基于k空间采样图案的噪声功率的k空间表示缩放白噪声场,并且将所得的噪声从k空间(频域)变换回图像空间来产生。以这种方式,可以为原始图像生成具有基于k空间采样图案的有色噪声的有噪图像。
因此,图5示出了用于基于k空间采样图案的噪声功率合成由不均匀采样产生的有色噪声的方法500的流程图。方法500可由成像处理系统100、连接到成像设备的边缘设备、与成像设备通信的云、与成像设备有线通信的计算设备或它们的任何适当的组合实现。方法500的元件可以顺序地或同时地执行。
在操作502处,方法500包括合成图像空间(例如,空间域)中的白噪声。例如,合成的白噪声可以是合成的白噪声图像,使得合成的白噪声中的噪声跨所有频率均匀分布。在一些示例中,白噪声可以在k空间中而不是在图像空间中直接合成。
在操作504处,方法500包括经由二维(2D)傅立叶变换将合成的白噪声图像变换为k空间(例如,频域)。2D傅立叶变换是可将数据从空间域(例如,图像空间)变换为频域(也称为k空间)的数学函数。例如,图像的2D频域表示中的每个点对应于图像的空间域表示中的特定空间频率下的正弦波的振幅。可应用数字和/或分析方法的组合来经由傅立叶变换将合成的白噪声图像变换为k空间,并且可将所得的合成的白噪声k空间存储在存储器中。
在操作506处,方法500包括确定k空间采样密度。k空间采样密度可基于k空间采样图案来确定。可使用任何合适的k空间采样图案来生成k空间采样密度,包括具有增强重建的平行线(PROPELLER)采样图案、星堆叠采样图案、斜坡采样图案、加权平均采样图案和可变密度螺旋采样图案。简要地转到图6,示出了k空间采样图案的示例性k空间采样密度602。图6所示的示例性k空间采样密度602是PROPELLER采样图案的结果,其特征在于多个相交的叶片,使得中心区域具有相对较高的k空间采样密度,而外部区域具有相对较低的k空间采样密度。例如,具有PROPELLER采样图案的医学图像的采样密度可以基于叶片几何形状、叶片角度、旋转运动校正和叶片排斥来确定。对于k空间采样图案,k空间采样密度可基于预期采样图案的特性通过计算和/或分析来确定。
在操作508处,方法500包括基于k空间采样密度确定k空间采样图案的噪声功率的k空间表示(例如,k空间噪声功率掩模)。继续图6的示例性k空间采样图案,k空间采样图案可以具有对应的示例性k空间噪声功率掩模604,如图6所示。如图6所示,示例性噪声功率掩模604可与k空间采样密度负相关。例如,示例性k空间采样密度602的中心区域中的高采样密度与示例性k空间噪声功率掩模604的中心区域中的低噪声功率相关,因为重复多轮采样减少了所收集的数据中的随机噪声。然而,在k空间表示的外部区域中,低采样密度与高噪声功率相关。
在操作510处,方法500包括基于示例性k空间噪声功率掩模对合成的白噪声k空间进行加权以生成有色噪声k空间。因此,有色噪声k空间(例如,合成的有色噪声的k空间表示)可基于示例性k空间噪声功率掩模的k空间表示来进行加权,如508处所确定的。基于噪声功率掩模对合成的白噪声k空间进行加权的输出是有色噪声k空间。图6中示出了用于采样图案的示例性有色噪声k空间606。
在512处,方法500包括经由2D傅立叶逆变换将有色噪声k空间变换为图像空间。2D傅立叶逆变换是504处使用的2D傅立叶变换的数学逆变换,并且可将信号从k空间(例如,频域)表示变换为图像空间(例如,空间域)表示。例如,可应用数字和/或分析方法的组合来经由傅立叶逆变换将k空间中的合成的有色噪声变换为图像空间,并且可将图像空间中的所得的合成的有色噪声存储在存储器中。图6中示出了用于预期采样图案的图像空间608中的合成的有色噪声的示例性表示。
以这种方式,有色噪声可基于k空间采样图案来合成。在其他示例中,可应用类似的方法基于图像处理方法、图像重建方法、噪声颜色或噪声图案来合成有色噪声。此外,在一些示例中,有色噪声可根据基于噪声参数的噪声功率图在k空间中直接合成。通过将合成的有色噪声添加到原始图像(例如,无噪声的图像),可以生成对应的有噪图像。因此,图像对包括原始图像和对应的有噪图像,并且深度神经网络的训练数据可包括多个此类图像对。此外,应当指出的是,可使用多种k空间采样图案来生成有色噪声。因此,可以从单个原始图像生成多个不同的有噪图像。例如,第一有噪图像可以包括有色噪声的第一图案,而第二有噪图像可以包括有色噪声的第二图案。
例如,合成图像空间中的有色噪声包括:选择k空间采样图案,选择k空间采样密度,基于k空间采样图案和k空间采样密度产生k空间噪声功率掩模,合成白噪声图像,对白噪声图像进行二维傅立叶变换以产生白噪声k空间,将k空间噪声功率掩模应用于白噪声k空间以产生有色噪声k空间,以及对有色噪声k空间进行二维傅立叶逆变换以产生合成的有色噪声。又如,对于非笛卡尔k空间采样图案,可以基于用于将MRI数据重新采样到笛卡尔坐标系中的重栅格化算法来生成k空间噪声的笛卡尔表示,而不是对白噪声的k空间表示进行加权,其中所述重栅格化算法包括图像重建领域中已知的一种或多种重栅格化算法。
又如,基于噪声参数合成有色噪声图像包括:基于噪声参数选择k空间采样图案,选择k空间采样密度,基于k空间采样图案和k空间采样密度产生k空间振幅掩模,合成白噪声图像,基于白噪声图像生成白噪声k空间,将k空间噪声功率掩模应用于白噪声k空间以产生有色噪声k空间,基于有色噪声k空间生成有色噪声图像,以及将k空间采样图案索引到有色噪声图像。
尽管图6示出了基于PROPELLER采样图案合成噪声的示例,但是在不脱离本公开的范围的情况下,可以使用各种其他k空间采样图案。现在转向图7,示出了三个示例性k空间采样图案。图7所示的示例性k空间采样图案可以在MR图像的图像采集期间使用,并且因此可以用于合成有色噪声以用于训练深度神经网络对图像进行去噪。第一示例性采样图案702示出笛卡尔采样图案。在第一示例性采样图案702中,k空间采样图案包括在k空间表示中具有竖直取向的一系列平行线。此外,如图所示,k空间表示的中心部分中的采样密度较大,使得较高采样密度的竖直带跨越k空间表示。在诸如第一示例性采样图案702的k空间采样图案中,由于采样密度较大,噪声功率可在k空间表示的外部部分中具有第一较高值,并且可在中心部分中具有第二较低值。第二示例性采样图案704示出径向采样图案。在第二示例性采样图案704中,沿起源于k空间表示的中心的径向线在k空间中执行采样。在此类k空间采样图案中,随着采样密度减小,噪声功率可作为半径的函数(例如,距k空间表示的中心的距离)而增大。第三示例性采样图案706示出了可变密度螺旋采样图案。在第三示例性采样图案06中,沿可变密度螺旋在k空间中执行采样,其中沿可变密度螺旋执行采样。在此类k空间采样图案中,随着采样密度减小,噪声功率可作为螺旋曲率和距螺旋中心的距离的函数而增大。对于每个预期的采样图案,可通过计算或分析来确定采样密度。
尽管图6至图7所示的k空间采样图案为二维(2D)k空间采样图案,但是在一些实施方案中,可合成三维(3D)采样方法的有色噪声。具体地讲,k空间采样图案可以是3D采样图案,但是可以在2D图像上执行图像去噪,该2D图像由3D k空间数据的3D傅立叶逆变换产生。需注意,图像噪声是随机的,因此可以通过将各个样本的噪声平方、噪声功率相加,然后取平方根来计算合并独立噪声样本的结果。因此,可通过计算穿过3D体积到2D图像平面上的噪声功率的投影或线积分的平方根,由3D k空间噪声计算2D图像的2D k空间中的有色噪声。因此,可合成用于经由2D k空间采样图案和3D k空间采样图案两者采集的2D医学图像的有色噪声。
现在转到图8,示出了用于训练深度神经网络(诸如图3所示的CNN300)以减少医学图像中的有色噪声的示例性方法800的流程图。方法800可由上文讨论的系统中的一个或多个系统来执行。在一些实施方案中,方法800可由图1所示的系统10或图2所示的系统200来实现。在一些实施方案中,方法800可由存储在图像处理系统31的非暂态存储器106中的训练模块112来实现。
在操作802处,采集原始训练图像。例如,原始图像可存储在存储器中,或者可经由有线或无线连接采集。训练图像可为原始(例如,原始)图像,并且可包括医学图像、自然图像、合成图像等。例如,可选择训练图像以有效地训练神经网络以识别特定类型的医学图像中的噪声。
在操作804处,根据图5的方法合成多个预期k空间采样图案的有色噪声。合成多个预期k空间采样图案的有色噪声包括根据多个预期k空间采样图案中的每个预期k空间采样图案的噪声功率对合成白噪声进行加权。例如,可以针对多个预期k空间采样图案中的每个预期k空间采样图案合成有色噪声。此外,可合成附加的有色噪声以说明有色噪声的其他来源,诸如图像后处理、图像重建等。
在操作806处,该方法包括使用在804处合成的有色噪声来创建有噪训练图像。例如,有噪图像可通过将合成的有色噪声应用于原始图像而生成。有噪图像和对应的原始图像包括图像对。训练数据可包括多个图像对,每个图像对包括原始图像和有噪图像。此外,训练数据中的每个图像对可以被索引为记录k空间采样图案或用于生成有噪图像的其他噪声参数的数据。例如,每个图像对可以被索引到记录用于合成有噪图像的有色噪声的k空间采样图案的数据。又如,每个图像对可以被索引到记录用于合成有噪图像的有色噪声的k空间采样图案的数据。训练数据可存储在例如存储器中。
在操作808处,使用在806处生成的训练图像来训练深度神经网络。可根据本领域中已知的任何方法使用训练图像来训练深度神经网。在一个实施方案中,训练深度神经网络包括将训练数据中的每个图像对中的有噪图像与对应的原始图像进行映射。例如,对于训练数据中的每个图像对,有噪图像连同关于用于生成有噪图像的k空间采样图案的信息被输入到深度神经网络的输入层中,并且被映射到预测的去噪图像。此外,由深度神经网络计算预测的去噪图像和对应的原始图像(例如,地面实况图像)之间的差值度量,从而确定预测的去噪图像相对于对应的原始图像的误差。在一些实施方案中,差值度量可以包括DICE分数、均方误差、绝对距离误差和角度误差中的一者或多者或它们的加权组合。在一些实施方案中,训练深度神经网络还包括确定来自深度神经网络的每个输出神经元的每个输出与地面实况图像中的对应值之间的差值。此外,基于在去噪图像与原始图像之间确定的差值度量来调整深度神经网络的权重和偏差。差值度量可通过深度神经网络的层反向传播,以更新层的权重(和偏差)。在一些实施方案中,损失的反向传播可根据梯度下降算法或本领域已知的另一种反向传播方法发生。此外,在一些实施方案中,可以基于用于生成图像对中的有噪图像的合成的有色噪声来调整不同组的权重和偏差。例如,深度神经网络可包括多组权重和偏差,多组权重和偏差中的每组权重和偏差对应于特定采样图案和/或其他噪声参数。在其他实施方案中,深度神经网络可根据本领域已知的其他方法进行训练。
在操作808之后,方法800可结束。应当注意,808可重复,直到深度神经网络的权重和偏差收敛,获得阈值差值度量(对于训练数据或在单独验证数据集上),或者对于每次迭代,深度神经网络的权重和/或偏差的变化率都在阈值以下。以这种方式,方法800使得深度神经网络能够被训练以识别医学图像中的有色噪声,并且产生具有显著较少有色噪声的去噪图像,从而提高图像分辨率和诊断质量。
例如,用于训练深度神经网络以减少医学图像中的有色噪声的方法包括:选择不含有色噪声的第一医学图像,基于噪声参数合成有色噪声图像,通过将合成的有色噪声添加到第一医学图像来生成第二医学图像,经由深度神经网络将第二医学图像映射到预测的去噪医学图像,基于预测的去噪图像与第一医学图像之间的差异来确定损失,以及基于损失来更新深度神经网络的参数。在前述示例中,附加地或任选地,经由深度神经网络将第二医学图像映射到预测的去噪医学图像还包括将噪声参数索引到第二医学图像,以及基于噪声参数为深度神经网络选择预训练的权重和偏差。
又如,医学图像为第一医学图像,并且方法包括:训练卷积神经网络(CNN)以产生经训练的CNN,使用包括有色噪声的第二医学图像和对应于该第二医学图像的原始医学图像,其中该原始医学图像不含有色噪声,并且其中训练CNN包括:选择原始医学图像,合成图像空间中的有色噪声,通过将合成的有色噪声添加到原始医学图像来生成第二医学图像,将第二医学图像映射到预测的去噪医学图像,基于预测的去噪医学图像与原始医学图像之间的差异来确定损失,以及基于损失来更新CNN的参数。
转到图9,示出了根据本公开的实施方案产生的有噪医学图像和对应的去噪医学图像的示例。具体地讲,有噪医学图像902包括人脑的MR横截面图像,并且包括降低成像解剖区域的清晰度的一种或多种类型的噪声。有噪医学图像902可能已经经由k空间采样图案(诸如PROPELLER采样图案)产生,该k空间采样图案包括不均匀的采样密度并且可包含有色噪声。无白噪声的医学图像904包括与有噪医学图像902中所示相同的解剖区域,然而,根据现有的白噪声去除方法(例如,滤波、深度神经网络等),白色原始医学图像904不含白噪声。虽然无白噪声的医学图像904的噪声比有噪医学图像902少,但是在无白噪声的医学图像904中仍存在可见噪声区域。相比之下,根据本文所公开的有色噪声减少方法(诸如方法400),无有色噪声的医学图像906包括与有噪医学图像902和无白噪声的医学图像904中所示相同的解剖区域,但不含有色噪声。可以看出,无有色噪声的医学图像906比有噪医学图像902和无白噪声的医学图像904中的任一者更清晰且噪声更少,这可使得能够基于成像解剖区域进行更精确的分析和/或诊断。例如,在有色噪声减少之后,医学图像可以以更高的分辨率查看,或者可用于患者状况的更详细的分析。
接下来,在图10中,示出了根据本公开的实施方案产生的有噪医学图像和对应的去噪医学图像的其他示例。具体地讲,有噪医学图像1002包括人腹部的MR横截面图像,并且包括降低成像解剖区域的清晰度的一种或多种类型的噪声。有噪医学图像1002可能已经经由k空间采样图案(诸如“星堆叠”采样图案)产生,该k空间采样图案包括不均匀采样并且可产生有色噪声。相比之下,根据本文所公开的有色噪声减少方法(诸如方法400),无噪声的医学图像1004包括与有噪医学图像902中所示相同的解剖区域,但不含有色噪声。可以看出,无有色噪声的医学图像1004比有噪医学图像1002和无白噪声的医学图像904更清晰且噪声更少,这可使得能够基于成像解剖区域进行更精确的分析和/或诊断。
尽管图9和图10提供了经由MRI成像的解剖区域的两个具体示例,这些解剖区域可使用本文所公开的系统和方法进行去噪,但应当理解,本公开提供了任何解剖区域的基本上任何医学图像的去噪。在一个实施方案中,可使用基本上类似的解剖区域的训练数据对来训练单个深度神经网络(这些基本上类似的解剖区域使用单个医学成像模态来捕获/采集),并且可将该深度神经网络用于对基本上类似于训练数据对的解剖区域的有噪医学图像进行去噪。在其他实施方案中,可使用包括不同解剖区域的多个不同医学成像模态的训练数据对来训练单个深度神经网络,从而产生更一般化的深度神经网络,该更一般化的深度神经网络可使得能够使用单个深度神经网络对各种解剖区域的广泛范围的医学图像进行去噪。以这种方式,可经由深度神经网络显著降低医学图像中的有色噪声,从而提高图像分辨率。
训练深度神经网络以基于k空间采样图案对具有合成的有色噪声的图像进行去噪的技术效果是,可以使深度神经网络准确地减少具有多种类型的有色噪声的医学图像中的有色噪声。
以上描述本公开的一个或多个具体实施方案以提供透彻的理解。这些描述的实施方案仅是用于通过使用深度神经网络来选择性地对医学图像进行去噪的系统和方法的示例。本领域技术人员将理解,在不脱离本公开的实质的情况下,可以在实施时修改实施方案中描述的具体细节。
当介绍本公开的各种实施方案的元件时,词语“一个”、“一种”和“该”旨在意指存在这些元件中的一个或多个元件。术语“第一”、“第二”等不表示任何顺序、量或重要性,而是用于将一个元件与另一个元件区分开。术语“包括”、“包含”和“具有”旨在是包含性的,并且意指除了列出的元件之外还可存在附加元件。如本文使用术语“连接到”、“联接到”等,一个对象(例如,材料、元件、结构、构件等)可以连接到或联接到另一个对象,而无论该一个对象是否直接连接或联接到另一个对象,或者在该一个对象和另一个对象之间是否存在一个或多个介入对象。此外,应当理解,对本公开的“一个实施方案”或“实施方案”的引用不旨在被解释为排除也包含所引用特征的附加实施方案的存在。
除了任何先前指示的修改之外,本领域技术人员可以在不脱离本描述的实质和范围的情况下设计出许多其他变型和替换布置,并且所附权利要求书旨在覆盖此类修改和布置。因此,尽管上面已经结合当前被认为是最实际和最优选的方面对信息进行了具体和详细的描述,但对于本领域的普通技术人员将显而易见的是,在不脱离本文阐述的原理和概念的情况下,可以进行许多修改,包括但不限于形式、功能、操作方式和使用。同样,如本文所使用的,在所有方面,示例和实施方案仅意图是说明性的,并且不应以任何方式解释为限制性的。

Claims (20)

1.一种方法,包括:
接收由成像系统采集的医学图像,其中所述医学图像包括有色噪声;
使用经训练的卷积神经网络(CNN)将所述医学图像映射到无有色噪声的去噪医学图像;以及
经由显示设备显示所述去噪医学图像。
2.根据权利要求1所述的方法,其中使用所述经训练的CNN将所述医学图像映射到所述去噪医学图像还包括:
采集对应于所述有色噪声的来源的一个或多个噪声参数;以及
将所述一个或多个噪声参数结合到所述经训练的CNN中。
3.根据权利要求2所述的方法,其中将所述一个或多个噪声参数结合到所述经训练的CNN中包括基于所述一个或多个噪声参数来选择所述经训练的CNN的一组预训练的权重和偏差。
4.根据权利要求3所述的方法,其中所述一个或多个噪声参数包括用于采集所述医学图像的k空间采样图案和用于采集所述医学图像的k空间采样密度中的一者或多者。
5.根据权利要求4所述的方法,其中所述k空间采样图案是具有增强重建的并行线(PROPELLER)采样图案、星堆叠采样图案、斜坡采样图案、加权平均采样图案和可变密度螺旋采样图案中的一种。
6.根据权利要求1所述的方法,其中所述方法还包括:
使用包括有色噪声的训练医学图像和对应于所述训练医学图像的原始医学图像训练CNN以产生所述经训练的CNN,其中所述原始医学图像不含有色噪声,并且其中训练所述CNN包括:
选择所述原始医学图像;
合成图像空间中的有色噪声;
通过将合成的有色噪声添加到所述原始医学图像来生成所述训练医学图像;
将所述训练医学图像映射到预测的去噪医学图像;
基于所述预测的去噪医学图像与所述原始医学图像之间的差异来确定损失;以及
基于所述损失来更新所述CNN的参数。
7.根据权利要求6所述的方法,其中合成图像空间中的有色噪声包括:
选择k空间采样图案;
选择k空间采样密度;
基于所述k空间采样图案、重栅格化算法和所述k空间采样密度中的一者或多者来产生k空间噪声功率掩模;
合成白噪声图像;
对所述白噪声图像进行傅立叶变换以产生白噪声k空间;
将所述k空间噪声功率掩模应用于所述白噪声k空间以产生有色噪声k空间;以及
对所述有色噪声k空间进行傅立叶逆变换以产生合成有色噪声。
8.根据权利要求7所述的方法,其中将所述训练医学图像映射到所述预测的去噪医学图像包括:
将所述k空间采样图案索引到所述训练医学图像;以及
基于所述k空间采样图案来选择所述CNN的一组权重和偏差。
9.一种用于训练深度神经网络以减少医学图像中的有色噪声的方法,包括:
选择不含有色噪声的第一医学图像;
基于噪声参数合成有色噪声图像;
通过将合成的有色噪声添加到所述第一医学图像来生成第二医学图像;
经由所述深度神经网络将所述第二医学图像映射到预测的去噪医学图像;
基于所述预测的去噪医学图像与所述第一医学图像之间的差异来确定损失;以及
基于所述损失来更新所述深度神经网络的参数。
10.根据权利要求9所述的方法,其中经由所述深度神经网络将所述第二医学图像映射到所述预测的去噪医学图像还包括:
将所述噪声参数索引到所述第二医学图像;以及
基于所述噪声参数为所述深度神经网选择一组权重和偏差。
11.根据权利要求9所述的方法,其中基于所述噪声参数来合成所述有色噪声图像还包括:
基于所述噪声参数来选择k空间采样图案;
选择k空间采样密度;
基于所述k空间采样图案、重栅格化算法和所述k空间采样密度中的一者或多者来产生k空间噪声功率掩模;
合成白噪声图像;
基于所述白噪声图像来生成白噪声k空间;
将所述k空间噪声功率掩模应用于所述白噪声k空间以产生有色噪声k空间;
基于所述有色噪声k空间来生成所述有色噪声图像;以及
将所述k空间采样图案索引到所述有色噪声图像。
12.根据权利要求11所述的方法,还包括:
接收使用成像系统采集的医学图像,所述医学图像包括有色噪声;
由所述深度神经网络将所述医学图像映射到输出;以及
使用所述输出生成去噪医学图像。
13.根据权利要求12所述的方法,其中接收所述医学图像还包括:
选择一个或多个噪声参数;以及
将所述一个或多个噪声参数结合到所述经训练的深度神经网络中。
14.根据权利要求13所述的方法,其中所述一个或多个噪声参数包括用于采集所述医学图像的k空间采样图案和用于采集所述医学图像的k空间采样密度中的一者或多者。
15.根据权利要求9所述的方法,其中所述k空间采样图案是3D(三维)k空间采样图案,并且所述k空间噪声功率掩模是3D噪声功率在k空间中的二维(2D)投影。
16.一种系统,包括:
存储器,所述存储器存储深度神经网络;
显示设备;和
处理器,所述处理器可通信地联接到所述存储器并且被配置为:
接收使用磁共振成像(MRI)系统采集的医学图像,其中所述医学图像包括有色噪声;
使用经训练的深度神经网络将所述医学图像映射到去噪医学图像;以及
经由所述显示设备显示所述去噪医学图像。
17.根据权利要求16所述的系统,其中所述处理器被进一步配置为:
接收与所述有色噪声相关联的一个或多个噪声参数;以及
将所述一个或多个噪声参数结合到所述经训练的深度神经网络中。
18.根据权利要求16所述的系统,其中所述一个或多个噪声参数包括用于采集所述医学图像的k空间采样图案和用于采集所述医学图像的k空间采样密度中的一者或多者。
19.根据权利要求18所述的系统,其中所述医学图像为第一医学图像,并且其中所述处理器被进一步配置为使用原始医学图像和具有有色噪声的第二医学图像来训练深度神经网络,以产生所述经训练的深度神经网络。
20.根据权利要求19所述的系统,其中所述处理器被配置为通过以下步骤使用所述原始医学图像和所述具有有色噪声的第二医学图像来训练所述深度神经网络:
从多个原始医学图像中选择所述原始医学图像;
合成图像空间中的有色噪声;
将所述合成的有色噪声添加到所述原始医学图像以产生包括所述合成的有色噪声的第二医学图像;
将所述第二医学图像映射到预测的去噪医学图像;
基于所述预测的去噪医学图像与所述原始图像之间的差异来确定损失;以及
基于所述损失来更新所述CNN的参数。
CN202110187509.1A 2020-03-02 2021-02-18 用于使用深度神经网络减少医学图像中的有色噪声的系统和方法 Pending CN113344799A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/806,689 2020-03-02
US16/806,689 US11783451B2 (en) 2020-03-02 2020-03-02 Systems and methods for reducing colored noise in medical images using deep neural network

Publications (1)

Publication Number Publication Date
CN113344799A true CN113344799A (zh) 2021-09-03

Family

ID=77463871

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110187509.1A Pending CN113344799A (zh) 2020-03-02 2021-02-18 用于使用深度神经网络减少医学图像中的有色噪声的系统和方法

Country Status (2)

Country Link
US (1) US11783451B2 (zh)
CN (1) CN113344799A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11540798B2 (en) 2019-08-30 2023-01-03 The Research Foundation For The State University Of New York Dilated convolutional neural network system and method for positron emission tomography (PET) image denoising

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113557526A (zh) 2018-08-15 2021-10-26 海珀菲纳股份有限公司 用于抑制磁共振图像中的伪影的深度学习技术
US11344219B2 (en) * 2019-03-14 2022-05-31 Hyperfine Operations, Inc. Deep learning techniques for alignment of magnetic resonance images
JP7458857B2 (ja) * 2020-04-01 2024-04-01 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US11672498B2 (en) * 2020-07-29 2023-06-13 Canon Medical Systems Corporation Information processing method, medical image diagnostic apparatus, and information processing system
JP2022077991A (ja) * 2020-11-12 2022-05-24 ザ ユニバーシティ コート オブ ザ ユニバーシティ オブ エジンバラ 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、モデルトレーニング装置、およびトレーニング方法
US11972511B2 (en) * 2021-07-09 2024-04-30 Carl Zeiss X-ray Microscopy, Inc. Accessible neural network image processing workflow
US11869118B2 (en) * 2021-09-22 2024-01-09 Samsung Electronics Co., Ltd. Generating a synthetic ground-truth image using a dead leaves model
JP2023077988A (ja) * 2021-11-25 2023-06-06 キヤノン株式会社 放射線画像処理装置、放射線画像処理方法、画像処理装置、学習装置、学習データの生成方法、及びプログラム
US20230177747A1 (en) * 2021-12-06 2023-06-08 GE Precision Healthcare LLC Machine learning generation of low-noise and high structural conspicuity images
US20230196526A1 (en) * 2021-12-16 2023-06-22 Mediatek Inc. Dynamic convolutions to refine images with variational degradation
WO2023220169A1 (en) * 2022-05-10 2023-11-16 New York University System, method and computer-accessible medium for direct visualization with power spectrum regularization
CN116385280B (zh) * 2023-01-09 2024-01-23 爱芯元智半导体(上海)有限公司 一种图像降噪系统、方法及降噪神经网络训练方法
CN115908204B (zh) * 2023-02-21 2023-06-06 北京唯迈医疗设备有限公司 用于放射成像设备获取的医学图像的降噪处理方法及装置
CN116912139B (zh) * 2023-07-04 2024-04-26 华中科技大学 一种基于生成对抗网络的噪声合成及其模型训练方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11540798B2 (en) 2019-08-30 2023-01-03 The Research Foundation For The State University Of New York Dilated convolutional neural network system and method for positron emission tomography (PET) image denoising

Also Published As

Publication number Publication date
US11783451B2 (en) 2023-10-10
US20210272240A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
US11783451B2 (en) Systems and methods for reducing colored noise in medical images using deep neural network
US10859657B2 (en) MRI reconstruction using deep learning, generative adversarial network and acquisition signal model
US11120584B2 (en) System and method for removing Gibbs artifact in medical imaging system
US20220237748A1 (en) Methods and system for selective removal of streak artifacts and noise from images using deep neural networks
US11257191B2 (en) Systems and methods for deblurring medical images using deep neural network
CN108537794B (zh) 医学图像数据处理方法、装置和计算机可读存储介质
US10638951B2 (en) Systems and methods for magnetic resonance imaging
CN109754394B (zh) 三维医学图像处理装置及方法
JP5902317B2 (ja) 磁気共鳴イメージング装置および定量的磁化率マッピング法
US20210033688A1 (en) Multi-resolution quantitative susceptibility mapping with magnetic resonance imaging
US20210123999A1 (en) Systems and methods of reconstructing magnetic resonance images using deep learning
US20220130084A1 (en) Systems and methods for medical image processing using deep neural network
Ouchi et al. Reconstruction of compressed-sensing MR imaging using deep residual learning in the image domain
Rousseau et al. A supervised patch-based image reconstruction technique: Application to brain MRI super-resolution
CN111681297B (zh) 图像重建方法、计算机设备和存储介质
Rashid et al. Single MR image super-resolution using generative adversarial network
US11941732B2 (en) Multi-slice MRI data processing using deep learning techniques
JP7139397B2 (ja) ディープニューラルネットワークおよび測定データの再帰的間引きを使用して医用画像を再構築するためのシステムおよび方法
CN115081637A (zh) 用于生成合成成像数据的机器学习算法的现场训练
CN114494014A (zh) 一种磁共振图像超分辨率重建方法及装置
US20240077561A1 (en) Noise adaptive data consistency in deep learning image reconstruction via norm ball projection
Hu et al. Second-order regression-based MR image upsampling
Ding et al. Medical Image Quality Assessment
US20230367850A1 (en) Systems and methods for mri data processing
Zhao Medical Image Modality Synthesis and Resolution Enhancement Based on Machine Learning Techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination