CN114255289A - 用于将磁共振图像转换成伪计算机断层摄影术图像的方法和系统 - Google Patents

用于将磁共振图像转换成伪计算机断层摄影术图像的方法和系统 Download PDF

Info

Publication number
CN114255289A
CN114255289A CN202111016987.2A CN202111016987A CN114255289A CN 114255289 A CN114255289 A CN 114255289A CN 202111016987 A CN202111016987 A CN 202111016987A CN 114255289 A CN114255289 A CN 114255289A
Authority
CN
China
Prior art keywords
image
bone
neural network
pseudo
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111016987.2A
Other languages
English (en)
Inventor
桑迪普·考希克
D·尚巴格
C·科齐尼
弗洛里安·维辛格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Precision Healthcare LLC
Original Assignee
GE Precision Healthcare LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/033,183 external-priority patent/US12008695B2/en
Application filed by GE Precision Healthcare LLC filed Critical GE Precision Healthcare LLC
Publication of CN114255289A publication Critical patent/CN114255289A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/441AI-based methods, deep learning or artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Mathematical Physics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Fuzzy Systems (AREA)
  • Algebra (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)

Abstract

本发明题为“用于将磁共振图像转换成伪计算机断层摄影术图像的方法和系统。”本发明提供了用于将磁共振(MR)图像转换成伪计算机断层摄影术(CT)图像的各种方法和系统。在一个实施方案中,一种方法包括:获取MR图像;使用多任务神经网络生成对应于MR图像的伪CT图像;以及输出MR图像和伪CT图像。以这种方式,CT成像相对于准确密度信息(尤其是在表现出具有高动态范围的骨的稀疏区域中)的益处可以在仅MR工作流中获得,从而实现MR图像中增强的软组织对比度的益处,同时消除患者的CT剂量暴露。

Description

用于将磁共振图像转换成伪计算机断层摄影术图像的方法和 系统
技术领域
本文所公开的主题的实施方案涉及磁共振成像,并且更具体地讲,涉及将磁共振图像转换成类计算机断层摄影术图像。
背景技术
体内的电子密度信息对于放射治疗计划中的准确剂量计算以及对于在正电子发射断层摄影术(PET)成像中计算衰减校正图是必不可少的。在传统放射治疗计划和PET成像中,计算机断层摄影术(CT)图像提供组织的电子密度和衰减特征的必要信息。具体地,CT成像使得能够同时准确描绘内部解剖结构,诸如骨、软组织和血管。
发明内容
在一个实施方案中,一种方法包括:获取磁共振(MR)图像;使用多任务神经网络生成对应于MR图像的伪CT图像;以及输出MR图像和伪CT图像。以这种方式,CT成像相对于准确密度信息(尤其是在表现出高动态范围的骨的稀疏区域中)的益处可以在仅MR工作流中获得,从而实现MR图像中增强的软组织对比度的益处,同时消除患者的CT剂量暴露。
应当理解,提供上面的简要描述来以简化的形式介绍在具体实施方式中进一步描述的精选概念。这并不意味着识别所要求保护的主题的关键或必要特征,该主题的范围由具体实施方式后的权利要求书唯一地限定。此外,所要求保护的主题不限于解决上文或本公开的任何部分中提到的任何缺点的实施方式。
附图说明
通过参考附图阅读以下对非限制性实施方案的描述将更好地理解本公开,其中以下:
图1是根据本公开的实施方案的MRI系统的框图;
图2是示出根据本公开的实施方案的用于使用深度多任务神经网络将MR图像转换成伪CT图像的图像处理系统的示意图;
图3是示出根据本公开的实施方案的用于将MR图像转换成伪CT图像的多任务神经网络的实施方案的布局的示意图;
图4是示出根据本公开的实施方案的可在图2的图像处理系统中使用的深度多任务神经网络的布局的示意图;
图5是示出根据本公开的实施方案的用于训练深度多任务神经网络以从具有聚焦感兴趣区域准确性的MR图像生成伪CT图像的示例性方法的高级流程图;
图6是示出根据本公开的实施方案的用于使用深度多任务神经网络从MR图像生成伪CT图像的示例性方法的高级流程图;
图7示出了示出与输入MR图像和地面实况CT图像相比根据不同技术生成的示例性伪CT图像的一组图像;
图8示出了示出针对多个病例的伪CT和CT图像的软组织和骨区域的归一化柱状图的一组曲线图;并且
图9示出了示出多个情况下不同骨密度阈值处的伪CT骨区域的Dice系数的曲线图的一组曲线图。
具体实施方式
以下描述涉及用于将MR图像转换成伪CT或类CT图像的各种实施方案。体内的电子密度信息对于放射治疗(RT)计划中的准确剂量计算以及对于在正电子发射断层摄影术(PET)成像中计算衰减校正图是必不可少的。在传统RT治疗计划和PET/CT成像中,CT图像提供组织的电子密度和衰减特征的必要信息。然而,使用仅MR临床工作流来利用MR图像中增强的软组织对比度的益处的趋势不断增加。为了替换CT图像,需要从MRI推断用于RT剂量计算和PET/MR衰减校正的密度图。使用MRI替换CT的一种方法可以包括将MR图像映射到对应的CT图像,以提供类CT Hounsfield单位(HU)值作为伪CT(pCT)图像。以这种方式,可以仅使用MRI系统(诸如图1所描绘的MR装置)来获得CT成像的某些益处。然而,在CT图像中,骨值可在250Hu至超过2000HU的范围内,同时仅占据身体区域的一部分。因此,先前基于机器学习模型生成pCT图像的方法例如由于骨区域的大动态范围和空间稀疏度而趋于偏向训练来自软组织和背景区域的空间主值,从而导致骨区域内的准确性降低。此外,骨区域在更高的密度下变得更稀疏,并且对网络优化的贡献甚至更小。伪CT图像中的不准确骨值分配可导致例如RT治疗计划的剂量计算中的一系列误差。为了更好地利用MRI进行RT治疗计划,图像处理系统(诸如图2所描绘的图像处理系统)可包括被配置为生成具有准确骨值分配的pCT图像的深度多任务神经网络模块。具体地,深度多任务神经网络模块将MR图像作为输入,并且输出具有跨不同密度和组织类别的准确HU值分配的pCT图像。在一个示例中,为了增加合成CT的骨估计的准确性,向多任务神经网络分配整个图像转换、感兴趣区域的准确分割和感兴趣区域内的图像值估计的任务。例如,如图3所描绘,多任务神经网络因此输出用于三个相应任务的伪CT图像、骨掩模和骨HU图像或骨密度图。多任务神经网络可被实现为具有多个输出层的二维U-Net卷积神经网络,例如如图4所描绘。多任务神经网络可例如根据训练方法(诸如图5所描绘的方法)进行训练,以同时执行多个任务,使得相关任务改善网络的归一化。一种用于在训练之后实现此类多任务神经网络的方法(诸如图6所描绘的方法)可以包括从MR图像生成伪CT图像,并且用也由多任务神经网络生成的骨HU图像更新伪CT图像。通过构建如本文所述的神经网络并训练神经网络以执行多个相关任务,相对于其他方法甚至其他基于深度神经网络的方法,pCT生成的准确性得到改善,如图7至图9中的定性比较和定量比较所描绘。
现在转到图片,图1示出了磁共振成像(MRI)装置10,该磁共振成像装置包括静磁场磁体单元12、梯度线圈单元13、RF线圈单元14、RF体或体积线圈单元15、传输/接收(T/R)开关20、RF驱动器单元22、梯度线圈驱动器单元23、数据获取单元24、控制器单元25、患者检查床或床26、数据处理单元31、操作控制台单元32和显示单元33。在一些实施方案中,该RF线圈单元14是表面线圈,其是通常被放置在受检者16的感兴趣的解剖结构附近的局部线圈。此处,RF体线圈单元15是传输RF信号的传输线圈,并且局部表面RF线圈单元14接收MR信号。因此,传输体线圈(例如,RF体线圈单元15)和表面接收线圈(例如,RF线圈单元14)是独立但电磁耦接的部件。MRI装置10将电磁脉冲信号传输到放置在成像空间18中的受检者16,其中形成静态磁场以执行扫描来从受检者16获得磁共振信号。可基于由此通过扫描获得的磁共振信号来重建受检者16的一个或多个图像。
静磁场磁体单元12包括例如安装在环形真空容器内的环形超导磁体。磁体限定了围绕受检者16的圆柱形空间,并且生成恒定的主静磁场B0
MRI装置10还包括梯度线圈单元13,该梯度线圈单元在成像空间18中形成梯度磁场,以便为由RF线圈阵列(例如,RF线圈单元14和/或RF体线圈单元15)接收的磁共振信号提供三维位置信息。梯度线圈单元13包括三个梯度线圈系统,每个梯度线圈系统生成沿彼此垂直的三个空间轴线中的一者的梯度磁场,并且根据成像条件在频率编码方向、相位编码方向和切片选择方向中的每一方向上生成梯度场。更具体地,梯度线圈单元13在受检者16的切片选择方向(或扫描方向)上施加梯度场,以选择切片;并且RF体线圈单元15或局部RF线圈阵列可以将RF脉冲传输到受检者16的所选择的切片。梯度线圈单元13还在受检者16的相位编码方向上施加梯度场,以对来自由RF脉冲激发的切片的磁共振信号进行相位编码。然后梯度线圈单元13在受检者16的频率编码方向上施加梯度场,以对来自由RF脉冲激发的切片的磁共振信号进行频率编码。
RF线圈单元14被设置为例如包围受检者16的待成像区域。在一些示例中,RF线圈单元14可被称为表面线圈或接收线圈。在由静磁场磁体单元12形成静磁场B0的静磁场空间或成像空间18中,RF线圈单元15基于来自控制器单元25的控制信号将作为电磁波的RF脉冲传输到受检者16,并且从而生成高频磁场B1。这激发了受检者16的待成像的切片中的质子自旋。RF线圈单元14接收当在受检者16的待成像的切片中由此激发的质子自旋返回到与初始磁化矢量对准时生成的电磁波作为磁共振信号。在一些实施方案中,RF线圈单元14可传输RF脉冲并接收MR信号。在其他实施方案中,RF线圈单元14可仅用于接收MR信号,而不用于传输RF脉冲。
RF体线圈单元15被设置为例如包围成像空间18,并且在成像空间18内产生与由静磁场磁体单元12产生的主磁场B0正交的RF磁场脉冲以激发核。与RF线圈单元14相比,其可以与MRI装置10断开并且用另一个RF线圈单元替换,RF体线圈单元15固定地附接并连接到MRI装置10。此外,尽管局部线圈诸如RF线圈单元14可以仅从受检者16的局部区域传输或接收信号,但是RF体线圈单元15通常具有更大的覆盖区。例如,RF体线圈单元15可用于向受检者16的全身传输或接收信号。使用仅接收的局部线圈和传输体线圈提供均匀的RF激发和良好的图像均匀性,代价是沉积在受检者中的RF功率较高。对于传输-接收局部线圈,局部线圈向感兴趣区域提供RF激发并接收MR信号,从而减少沉积在受检者中的RF功率。应当理解,RF线圈单元14和/或RF体线圈单元15的特定用途取决于成像应用。
当以接收模式操作时,T/R开关20可以选择性地将RF体线圈单元15电连接到数据获取单元24,并且当以传输模式操作时,T/R开关20可以选择性地将RF体线圈单元15电连接到RF驱动器单元22。类似地,当RF线圈单元14以接收模式操作时,T/R开关20可以选择性地将RF线圈单元14电连接到数据获取单元24,并且当以传输模式操作时,T/R开关20可以选择性地将RF线圈单元14电连接到RF驱动器单元22。当RF线圈单元14和RF体线圈单元15都用于单次扫描时,例如,如果RF线圈单元14被配置为接收MR信号并且RF体线圈单元15被配置为传输RF信号,则T/R开关20可以将来自RF驱动器单元22的控制信号引导到RF体线圈单元15,同时将接收的MR信号从RF线圈单元14引导到数据获取单元24。RF体线圈单元15的线圈可以被配置为以仅传输模式或传输-接收模式操作。局部RF线圈单元14的线圈可以被配置为以传输-接收模式或仅接收模式操作。
RF驱动器单元22包括栅极调制器(未示出)、RF功率放大器(未示出)和RF振荡器(未示出),它们用于驱动RF线圈(例如,RF线圈单元15)并在成像空间18中形成高频磁场。RF驱动器单元22基于来自控制器单元25的控制信号并且使用栅极调制器,将从RF振荡器接收的RF信号调制成具有预定包络的预定定时的信号。由栅极调制器调制的RF信号由RF功率放大器放大,然后输出到RF线圈单元15。
梯度线圈驱动器单元23基于来自控制器单元25的控制信号驱动梯度线圈单元13,从而在成像空间18中生成梯度磁场。梯度线圈驱动器单元23包括与梯度线圈单元13中包括的三个梯度线圈系统对应的三个驱动器电路系统(未示出)。
数据获取单元24包括前置放大器(未示出)、相位检测器(未示出)和用于获取由RF线圈单元14接收的磁共振信号的模拟/数字转换器(未示出)。在数据获取单元24中,相位检测器相位将来自RF驱动器单元22的RF振荡器的输出用作参考信号来检测从RF线圈单元14接收并由前置放大器放大的磁共振信号,并将相位检测的模拟磁共振信号输出到模拟/数字转换器,以转换成数字信号。由此获得的数字信号被输出到数据处理单元31。
MRI装置10包括用于在其上放置受检者16的检查床26。通过基于来自控制器单元25的控制信号移动检查床26,可以使受检者16在成像空间18的内部和外部移动。
控制器单元25包括计算机和其上记录有要由计算机执行的程序的记录介质。程序在被计算机执行时使装置的各个部分执行与预定扫描对应的操作。记录介质可包括例如ROM、软盘、硬盘、光盘、磁光盘、CD-ROM或非易失性存储卡。控制器单元25连接到操作控制台单元32并且处理输入到操作控制台单元32的操作信号,并且还通过向它们输出控制信号来控制检查床26、RF驱动器单元22、梯度线圈驱动器单元23和数据获取单元24。控制器单元25还基于从操作控制台单元32接收的操作信号来控制数据处理单元31和显示单元33以获得期望的图像。
操作控制台单元32包括用户输入设备,诸如触摸屏、键盘和鼠标。操作者使用操作控制台单元32,例如,输入此类数据作为成像协议,并且设置要执行成像序列的区域。关于成像协议和成像序列执行区域的数据被输出到控制器单元25。
数据处理单元31包括计算机和记录介质,在该记录介质上记录由计算机执行以执行预定数据处理的程序。数据处理单元31连接到控制器单元25,并且基于从控制器单元25接收的控制信号执行数据处理。数据处理单元31还连接到数据获取单元24,并且通过对从数据获取单元24输出的磁共振信号施加各种图像处理操作来生成光谱数据。
显示单元33包括显示设备,并且基于从控制器单元25接收的控制信号在显示设备的显示屏幕上显示图像。显示单元33显示例如关于操作者从操作控制台单元32输入操作数据的输入项目的图像。显示单元33还显示由数据处理单元31生成的受检者16的二维(2D)切片图像或三维(3D)图像。
参考图2,示出了根据示例性实施方案的医学图像处理系统200。在一些实施方案中,医学图像处理系统200结合到医学成像系统中,例如MRI系统、CT系统、X射线系统、PET系统、超声系统等。在一些实施方案中,医学图像处理系统200设置在经由有线连接和/或无线连接可通信地耦接到医学成像系统的设备(例如,边缘设备、服务器等)处。在一些实施方案中,医学图像处理系统200设置在单独的设备(例如,工作站)处,该设备可从医学成像系统或者从存储由医学成像系统生成的图像的存储设备接收图像。医学图像处理系统200可包括图像处理系统202、用户输入设备216和显示设备214。
图像处理系统202包括处理器204,该处理器被配置为执行存储在非暂态存储器206中的机器可读指令。处理器204可以是单核或多核的,并且在其上执行的程序可以被配置用于进行并行或分布式处理。在一些实施方案中,处理器204可以任选地包括分布在两个或更多个设备中的单独组件,其可以被远程定位和/或配置用于协调处理。在一些实施方案中,处理器204的一个或多个方面可被虚拟化并由以云计算配置进行配置的能够远程访问的联网计算设备执行。
非暂态存储器206可存储深度多任务神经网络模块208、训练模块210和医学图像数据212,诸如磁共振图像数据。深度多任务神经网络模块208可包括一个或多个深度多任务神经网络,该一个或多个深度多任务神经网络包括多个参数(包括权重、偏差、激活函数),以及用于实现一个或多个深度多任务神经网络以接收MR图像并且将MR图像映射到输出的指令,其中可从输出中产生对应于MR图像的伪CT图像。例如,深度多任务神经网络模块208可存储用于实现多任务神经网络(诸如图4所示的CNN架构400的多任务卷积神经网络(CNN))的指令。深度神经网络模块208可包括经训练和/或未经训练的多任务神经网络,并且还可包括与存储在其中的一个或多个多任务神经网络有关的各种数据或元数据。
非暂态存储器206还可存储训练模块210,该训练模块包括用于训练存储在深度多任务神经网络模块208中的深度神经网络中的一个或多个深度神经网络的指令。训练模块210可包括指令,该指令在由处理器204执行时使图像处理系统202进行在下面详细讨论的方法500的步骤中的一个或多个步骤。在一些实施方案中,训练模块210包括用于以下操作的指令:实现一个或多个梯度下降算法;应用用于每个任务的一个或多个损失函数以及基于用于每个任务的一个或多个损失函数的复合损失函数;和/或训练例程以用于调整深度多任务神经网络模块208的一个或多个深度多任务神经网络的参数。在一些实施方案中,训练模块210包括用于从医学图像数据212智能地选择训练数据集的指令。在一些实施方案中,训练数据集包括同一患者的同一解剖区域的对应的MR和CT医学图像对。此外,在一些实施方案中,训练模块210包括用于通过基于医学图像数据212中的CT图像生成骨掩模和骨HU图像来生成训练数据集的指令。在一些实施方案中,训练模块210不设置在图像处理系统202处。深度多任务神经网络模块208包括训练和验证的网络。
非暂态存储器206还存储医学图像数据212。医学图像数据212包括例如从MRI系统捕获的MR图像、由CT成像系统获取的CT图像等。例如,医学图像数据212可以存储患者的对应MR图像和CT图像。在一些实施方案中,医学图像数据212可包括多个训练数据对,该多个训练数据对包括MR图像和CT图像对。
在一些实施方案中,非暂态存储器206可以包括设置在两个或更多个设备上的组件,这些组件可以被远程定位和/或配置用于协调处理。在一些实施方案中,非暂态存储器206的一个或多个方面可以包括以云计算配置进行配置的能够远程访问的联网存储设备。
图像处理系统200还可包括用户输入设备216。用户输入设备216可包括触摸屏、键盘、鼠标、触控板、运动感测相机或被配置为使用户能够与图像处理系统202内的数据交互并操纵该数据的其他设备中的一者或多者。例如,用户输入设备216可使用户能够选择医学图像(诸如MR图像)以转换成伪CT图像。
显示设备214可以包括利用几乎任何类型技术的一个或多个显示设备。在一些实施方案中,显示设备214可包括计算机监视器,并且可显示未处理的和已处理的MR图像和/或伪CT图像。显示设备214可与处理器204、非暂态存储器206和/或用户输入设备216组合在共享壳体中,或者可以是外围显示设备,并且可包括监视器、触摸屏、投影仪或本领域已知的其他显示设备,其可使用户能够查看医学图像,和/或与存储在非暂态存储器206中的各种数据交互。
应当理解,图2所示的图像处理系统200是用于说明而非限制。另一种合适的图像处理系统可以包括更多、更少或不同的部件。
转到图3,示出了用于将MR图像310转换成伪CT或pCT图像330的转换过程300的第一实施方案的示意图。具体地,转换过程300包括将MR图像310输入到多任务神经网络320,该多任务神经网络继而输出对应于输入MR图像310的伪CT图像330、骨掩模340和骨HU图像350。
因此,多任务神经网络320将MR图像310映射到其对应的与地面实况CT图像(未示出)匹配的伪CT图像330。CT图像(ICT)可被视为具有三种不同密度类别的空间不重叠集合:
ICT=(I空气∪I组织∪I),
其中I空气对应于空气,I组织对应于组织,并且I对应于骨。假设MR图像IMR(例如,MR图像310)和CT图像ICT为空间对准的,从而意味着伪CT图像IpCT(例如,伪CT图像330)的空间对准,CT图像与pCT图像330之间的误差可被定义为
e=ICT-IpCT
较小的e值导致某一类别内的密度偏差。然而,较大的e值导致被不同地分类的像素;此类误差更可能发生在两个类别之间的边界位置处,并且可导致累积分类误差。因此,误差e可被视为包括不同类别之间的分类误差和每个类别内的图像值估计误差两者。网络的总体目标是通过最小化地面实况CT图像与pCT图像330之间的误差e来将MR图像310映射到pCT图像330。
多任务神经网络320被配置有多个任务,使得分类和回归的任务分离,而不是配置具有将MR图像310映射到pCT图像330的单个任务的神经网络。通过分离分类和回归的任务,并且通过优化多任务神经网络320以同时减少两个误差,可以针对相关任务中的每个相关任务实现隐式增强。尽管任务是相关的,但预期多任务神经网络320以彼此不同的方式学习它们,并且为了单独地优化任务,每个任务由专用损失函数驱动。如本文进一步所述,多任务神经网络320被配置有三个任务:整个图像转换、感兴趣区域的准确分割和感兴趣区域内的图像值估计。每个任务由损失函数驱动,该损失函数被调制为使特定误差最小化,从而有助于多任务神经网络320的总体最佳状态。
平均绝对误差(MAE)是用于图像回归的合适的损失函数。然而,MAE是全局量度,其既不考虑图像中每个类别的区域体积之间的不平衡,也不能够按需聚焦在图像的区域上。MAE可适于通过对与图像的其余部分相比对区域损失进行正向加权来包括空间聚焦的能力,其中区域的相对体积可用作隐式权重因子。例如,对于具有Nk个样本的给定区域k,区域k内的平均绝对误差(MAE)计算为:
Figure BDA0003240219740000101
其中yi为真值,并且
Figure BDA0003240219740000102
为估计值。然后可将用于具有包括第一类别k和第二类别k'的两个互补空间类别{k,k’}的图像的加权MAE定义为:
Figure BDA0003240219740000103
其中
Nk+Nk′=N
是整个图像的体积。在第一类别的体积N-k远小于第二类别的体积Nk'的类别不平衡的场景中,第一类别的平均绝对误差MAE-k的值被第二类别的体积Nk'强调,使得第一类别的平均绝对误差MAE-k相当于第二类别的平均绝对误差MAEk'。该结果可被视为由第一类别被k表示的图像内的区域上的空间聚焦。当第一类别的体积Nk等于第二类别的体积Nk',例如使得每个体积等于图像的总体积N的一半时,则上述加权平均绝对误差(例如,wMAEk)变成为全局平均绝对误差MAE。
对于分割任务,平滑的Dice系数损失通常是优选的损失函数。在给定的一对分割概率图之间,将Dice损失定义为:
Figure BDA0003240219740000111
其中xi
Figure BDA0003240219740000112
在图像中分别为真骨概率值和预测骨概率值。
如上文所提及的,多任务神经网络320被配置为学习具有生成伪CT图像330的主要目的的多个任务。该任务包括生成伪CT图像330的第一任务,生成骨掩模340的第二任务,以及生成骨HU图像350(例如,就HU而言的感兴趣的骨区域内的图像值)的第三任务。为了生成伪CT图像IpCT,多任务神经网络320的主要任务是对应于不同类别的整个CT值(HU)范围的整个图像回归。因此,该第一任务或pCT图像任务由身体区域的回归损失驱动:
Figure BDA0003240219740000113
为了生成骨掩模X,多任务神经网络的辅助任务是从图像的其余部分分割骨区域。具体地,第二任务的损失通过对将其他区域作为骨的错误分类进行罚分来使骨区域的形状正则化。为此,第二任务或骨掩模任务因此由分割损失驱动,其可包括上文所讨论的Dice损失LD
Figure BDA0003240219740000114
为了生成骨HU值图或骨HU图像I,多任务神经网络的辅助任务是在骨区域内生成连续密度值图。尽管第三任务是第一任务的子集,但考虑到目标动态范围大,则第三任务的损失使感兴趣区域(例如,骨区域)中的回归明确地正则化。为了聚焦在骨区域上,身体区域的其余部分连同背景被视为互补类别。因此,第三任务或骨HU图像任务由聚焦在值的子范围上的回归损失驱动,由下式定义:
Figure BDA0003240219740000115
多任务神经网络的总体目标由从输入MR图像IMR生成伪CT图像IpCT、骨图X和骨HU图像I的复合任务来定义:
IMR→{IpCT;X;I}。
为此,通过最小化多任务神经网络320的复合损失函数L来优化多任务神经网络:
Figure BDA0003240219740000121
其中损失系数权重w1、w2和w3可根据对应的任务的重要性凭经验选择或通过对每个任务的不确定性进行建模来选择。作为例示性示例,可以通过将主要任务的权重w1设置为一并且对骨分割和回归损失进行上加权来凭经验选择损失系数权重。例如,w1可被设置为1.0,w2可被设置为1.5,并且w3可被设置为1.3。
虽然在图3中描绘并且在上文描述了单个输入MR图像310,但是应当理解,在一些示例中,可以将多于一个MR图像310输入到多任务神经网络320。输入MR图像310因此可以包括多个MR图像310。例如,输入MR图像310可包括单个二维MR图像切片和/或三维MR图像体积(例如,包括多个二维MR图像切片)。因此,应当理解,如本文关于MR图像所用的术语“图像”因此可以指二维切片或三维体积。
如本文参照图4进一步所述,作为例示性和非限制性示例,多任务神经网络320可包括具有多个输出层的二维U-Net卷积神经网络。在一些例示性和非限制性示例中,编码器网络可包括具有两个卷积-批归一化-指数线性单元(ELU)-最大池化操作块的四个层级。这些层之后可以是瓶颈层中的两个卷积-批归一化-ELU操作块。解码器网络可包括具有两个升采样-卷积-批归一化-丢弃操作块的四个层级。输入MR图像310由卷积层块编码,该卷积层块在每个分辨率下在两个不同标度(例如,7×7和5×5的滤波器大小)下操作。这种在每个分辨率下的标度空间特征棱锥比在单个标度下的单个特征更好地编码特征。解码器路径被设计为具有共享层直到最终层。在最终层处,经由卷积-线性操作获得pCT图像330,经由卷积-S形操作获得骨掩模340,并且经由卷积-整流线性单元(ReLU)操作获得骨HU值图或骨图像350,其中每个输出层以1×1滤波器大小操作。
如本文进一步所述,本文所述的特定于具体实现的参数(诸如滤波器的数量、U-Net层、滤波器大小、最大池化大小和学习速率)是例示性的和非限制性的。实际上,可实现被配置用于多任务学习的任何合适的神经网络。本文描述本公开的一个或多个具体实施方案以便提供透彻的理解。本领域技术人员将理解,在不脱离本公开的实质的情况下,可以在实施时修改实施方案中描述的具体细节。
转到图4,示出了示例性多任务卷积神经网络(CNN)400的架构。多任务CNN 400,本文简单且可互换地称为CNN 400,表示根据本公开的机器学习模型的一个示例,其中可使用根据本文公开的一种或多种方法产生的训练数据来学习CNN 400的参数。CNN 400包括U-net架构,该U-net架构可分为自动编码器部分(下降部分,元件402-430)和自动解码器部分(上升部分,元件432-458)。CNN 400被配置为接收包括多个像素/体素的MR图像,并将输入MR图像映射到多个预定类型的输出。CNN 400包括一系列映射,这些映射从可由输入层接收的输入图像图块402,穿过多个特征标测图,且最后映射到输出层458a至458c。尽管本文描述了二维输入,但应当理解,本文所述的多任务神经网络(包括多任务CNN 400)可被配置为附加地或另选地接受三维图像作为输入。换句话讲,多任务CNN 400可以接受二维MR图像切片和/或三维MR图像体积作为输入。
图例460中标记了包括CNN 400的各种元件。如图例460所指示,CNN 400包括多个特征标测图(和/或复制的特征标测图),其中每个特征标测图可接收来自外部文件或先前的特征标测图的输入,并且可将所接收的输入转换/映射成输出以产生下一特征标测图。每个特征标测图都可包括多个神经元,其中在一些实施方案中,每个神经元都可接收来自前一层/特征标测图的神经元的子集的输入,并且可基于所接收的输入来计算单个输出,其中输出可传播到下一层/特征标测图中的神经元的子集。可以使用空间维度诸如长度、宽度和深度来描述特征标测图,其中维度是指包括特征标测图的神经元的数量(例如,指定的特征标测图是多少神经元长、多少神经元宽、以及多少神经元深)。
在一些实施方案中,特征标测图的神经元可通过使用学习权重集(每个学习权重集在本文中可被称为滤波器)执行所接收的输入的点积来计算输出,其中每个所接收的输入具有唯一的对应的学习权重,其中该学习权重是在CNN的训练期间学习的。
由每个特征标测图执行的转换/映射由箭头指示,其中每种类型的箭头对应于不同的转换,如图例460所指示。向右指向的实心黑色箭头指示步幅为1的3×3卷积,其中来自紧接着先前的特征标测图的特征通道的3×3网格的输出被映射到当前特征标测图的单个特征通道。每个3×3卷积都可跟随有激活函数,其中在一个实施方案中,激活函数包括整流线性单元(ReLU)。
向下指向的中空箭头指示2×2最大池化,其中来自特征通道的2×2网格的最大值从紧接着先前的特征标测图传播到当前特征标测图的单个特征通道,从而导致紧接着先前特征标测图的空间分辨率降低4倍。
向上指向的中空箭头指示2×2上卷积,其包括将来自紧接着先前的特征标测图的单个特征通道的输出映射到当前特征标测图中的特征通道的2×2网格,从而将紧接着先前的特征标测图的空间分辨率提高4倍。
向右指向的虚线箭头指示复制和裁剪特征标测图以与另一个以后出现的特征标测图级联。裁剪使复制的特征标测图的维度能够与待与复制的特征标测图级联的特征通道的维度匹配。应当理解,当正复制的第一特征标测图的大小和待与第一特征标测图级联的第二特征标测图的大小相等时,可不执行裁剪。
具有中空细长三角形头部的向右指向的箭头指示1×1卷积,其中紧接着先前的特征标测图中的每个特征通道被映射到当前特征标测图的单个特征通道,或者换句话讲,其中在紧接着先前的特征标测图与当前特征标测图之间发生了特征通道的1对1映射。如图所描绘,具有中空三角形头部的其他向右指向的箭头指示具有不同激活函数的卷积,包括线性激活函数、整流线性单元(ReLU)激活函数和S形激活函数。
除了图例460内的箭头所指示的操作之外,CNN 400还包括在图4中用实心填充矩形表示的特征标测图,其中特征标测图包括高度(如图4所示的从上到下的长度,其对应于x-y平面中的y空间维度)、宽度(图4中未示出,假设量值与高度相等,并且对应于x-y平面中的x空间维度)和深度(如图4所示的左右长度,其对应于每个特征通道内的特征的数量)。同样,CNN 400包括在图4中用中空(未填充)矩形表示的复制和裁剪的特征标测图,其中复制的特征标测图包括高度(如图4所示的从上到下的长度,其对应于x-y平面中的y空间维度)、宽度(图4中未示出,假设量值与高度相等,并且对应于x-y平面中的x空间维度)和深度(如图4所示从左侧到右侧的长度,其对应于每个特征通道内的特征的数量)。
在输入图像图块402(在本文也称为输入层)处开始,可输入对应于MR图像的数据并将其映射到第一特征集。在一些实施方案中,输入数据在由神经网络处理之前被预处理(例如,归一化)。可在训练过程期间学习CNN 400的每一层的权重/参数,其中将输入和预期输出(地面实况输出)的匹配对馈送到CNN 400。可基于梯度下降算法或其他算法来调整参数,直到CNN 400的输出在阈值准确性内与预期输出(地面实况输出)匹配为止。
如紧接着输入图像图块402右侧的实心黑色向右指向的箭头所指示,执行输入图像图块402的特征通道的3×3卷积以产生特征标测图404。如上面所讨论的,3×3卷积包括使用学习的权重将输入从特征通道的3×3网格映射到当前特征标测图的单个特征通道,其中将学习的权重称为卷积滤波器。CNN架构400中的每个3×3卷积可包括后续激活函数,在一个实施方案中,该后续激活函数包括将每个3×3卷积的输出通过ReLU。在一些实施方案中,可采用ReLU之外的激活函数诸如Softplus(也称为SmoothReLU)、泄漏ReLU、嘈杂ReLU、指数线性单元(ELU)、Tanh、高斯、Sinc、Bent identity、逻辑函数和机器学习领域中已知的其他激活功能。
如紧接着特征标测图404右侧的实心黑色向右指向的箭头所指示,在特征标测图404上执行3×3卷积以产生特征标测图406。
如特征标测图406下方的向下指向的箭头所指示,在特征标测图406上执行2×2最大池化操作以产生特征标测图408。简而言之,2×2最大池化操作包括从紧接着先前的特征标测图的特征通道的2×2网格确定最大特征值,以及将当前特征标测图的单个特征通道中的单个特征设置为如此确定的最大值。另外,特征标测图406被复制并与来自特征标测图448的输出级联以产生特征标测图450,如紧接着特征标测图406右侧的虚线向右指向的箭头所指示。
如紧接着特征标测图408右侧的实心黑色向右指向的箭头所指示,在特征标测图408上执行步幅为1的3×3卷积以产生特征标测图410。如紧接着特征标测图410右侧的实心黑色向右指向的箭头所指示,在特征标测图410上执行步幅为1的3×3卷积以产生特征标测图412。
如特征标测图412下方的向下指向的中空头部箭头所指示,在特征标测图412上执行2×2最大池化操作以产生特征标测图414,其中特征标测图414是特征标测图412的空间分辨率的四分之一。另外,特征标测图412被复制并与来自特征标测图442的输出级联以产生特征标测图444,如紧接着特征标测图412右侧的虚线向右指向的箭头所指示。
如紧接着特征标测图414右侧的实心黑色向右指向的箭头所指示,在特征标测图414上执行步幅为1的3×3卷积以产生特征标测图416。如紧接着特征标测图316右侧的实心黑色向右指向的箭头所指示,在特征标测图416上执行步幅为1的3×3卷积以产生特征标测图418。
如特征标测图418下方的向下指向的箭头所指示,在特征标测图418上执行2×2最大池化操作以产生特征标测图420,其中特征标测图420是特征标测图419的空间分辨率的一半。另外,特征标测图418被复制并与来自特征标测图436的输出级联以产生特征标测图438,如紧接着特征标测图418右侧的虚线向右指向的箭头所指示。
如紧接着特征标测图420右侧的实心黑色向右指向的箭头所指示,在特征标测图420上执行步幅为1的3×3卷积以产生特征标测图422。如紧接着特征标测图422右侧的实心黑色向右指向的箭头所指示,在特征标测图422上执行步幅为1的3×3卷积以产生特征标测图424。
如特征标测图424下方的向下指向的箭头所指示,在特征标测图424上执行2×2最大池化操作以产生特征标测图426,其中特征标测图426是特征标测图424的空间分辨率的四分之一。另外,特征标测图424被复制并与来自特征标测图430的输出级联以产生特征标测图432,如紧接着特征标测图424右侧的虚线向右指向的箭头所指示。
如紧接着特征标测图426右侧的实心黑色向右指向的箭头所指示,在特征标测图426上执行3×3卷积以产生特征标测图428。如紧接着特征标测图428右侧的实心黑色向右指向的箭头所指示,在特征标测图428上执行步幅为1的3×3卷积以产生特征标测图430。
如特征标测图430正上方的向上指向的箭头所指示,在特征标测图430上执行2×2上卷积以产生特征标测图432的第一半部,同时使用来自特征标测图424的复制的特征以产生特征标测图432的第二半部。简而言之,步幅为2的2×2上卷积(在本文也称为反卷积或上采样)包括将紧接着先前的特征标测图的单个特征通道中的特征标测图到在当前特征标测图中的四个特征通道之间分布的四个特征(即,来自单个特征通道的输出被当作四个特征通道的输入)。上卷积/解卷积/上采样包括通过去卷积滤波器(在本文也称为去卷积内核)从单个特征通道投影特征值以产生多个输出。
如紧接着特征标测图432右侧的实心黑色向右指向的箭头所指示,在特征标测图432上执行3×3卷积以产生特征标测图434。
如图4所指示,在特征标测图434上执行3×3卷积以产生特征标测图436并且在特征标测图436上执行2×2上卷积以产生特征标测图438的一半,而来自特征标测图418的复制的特征产生特征标测图438的第二半部。此外,在特征标测图438上执行3×3卷积以产生特征标测图440,在特征标测图440上执行3×3卷积以产生特征标测图442,并且在特征标测图442上执行2×2上卷积以产生特征标测图444的第一半部,同时使用来自特征标测图412的复制和裁剪的特征以产生特征标测图444的第二半部。在特征标测图444上执行3×3卷积以产生特征标测图446,在特征标测图446上执行3×3卷积以产生特征标测图348,并且在特征标测图448上执行2×2上卷积以产生特征标测图450的第一半部,同时使用来自特征标测图406的复制的特征以产生特征标测图450的第二半部。在特征标测图450上执行3×3卷积以产生特征标测图452,在特征标测图452上执行3×3卷积以产生特征标测图454,在特征标测图454上执行1×1卷积以产生输出层456。简而言之,1×1卷积包括第一特征空间中的特征通道与第二特征空间中的特征通道的1对1映射,其中不会发生空间分辨率的降低。
如由远离输出层456指向的多个箭头所描绘,可通过执行具有不同激活函数的二维卷积来从输出层456获得多个输出。首先,在输出层456上执行具有线性激活函数的二维卷积以产生伪CT图像输出458a。第二,在输出层456上执行具有S形激活函数的二维卷积以产生骨掩模输出458b。第三,在输出层456上执行具有ReLU激活函数的二维卷积以产生骨图像输出458c。
伪CT图像输出层458a包括神经元的输出层,其中每个神经元的输出对应于伪CT图像的像素。骨掩模输出层458b包括神经元的输出层,其中每个神经元的输出对应于骨掩模或骨掩模图像的像素。骨HU图像输出层458c包括神经元的输出层,其中每个神经元的输出对应于包括在骨区域内的HU值并且在骨区域之外为空的像素。
以这种方式,多任务CNN 400可使MR图像能够映射到多个输出。图4中所示的CNN400的架构包括特征标测图转换,随着输入图像图块传播通过卷积神经网络的神经元层,发生该特征标测图转换,以产生多个预测输出。
CNN 400中的卷积层的权重(和偏差)是在训练期间学习的,这将在下面参考图5进行详细讨论。简而言之,定义损失函数以反映每个预测输出与每个地面实况输出之间的差值。可将多任务CNN 400的基于用于每个任务的损失函数的复合差值/损失反投影8到CNN400以更新卷积层的权重(和偏差)。可使用包括MR图像和对应的地面实况输出的多个训练数据集来训练CNN 400。
应当理解,本公开包含神经网络架构,这些神经网络架构包括一个或多个正则化层,该一个或多个正则化层包括批归一化层、丢弃层、高斯噪声层和机器学习领域中已知的其他正则化层,它们可在训练期间使用以减轻过度拟合并提高训练效率,同时减少训练时间。在CNN训练期间使用正则化层,并且在CNN的训练后实施方式期间将其停用或移除。这些层可散布在图4所示的层/特征标测图之间,或者可替换所示层/特征标测图中的一者或多者。
应当理解,图4所示的CNN 400的架构和配置是用于说明而非限制。可使用任何合适的多任务神经网络。以上描述本公开的一个或多个具体实施方案以提供透彻的理解。本领域技术人员将理解,在不脱离本公开的实质的情况下,可以在实施时修改实施方案中描述的具体细节。
图5是示出根据本公开的实施方案的用于训练深度多任务神经网络(诸如图4所示的CNN 400)以从具有聚焦感兴趣区域准确性的MR图像生成伪CT图像的示例性方法500的高级流程图。可由训练模块210实现方法500。
方法500在505处开始。在505处,方法500将包括MR图像、地面实况CT图像、地面实况骨掩模和地面实况骨HU图像的训练数据集馈送到多任务神经网络。MR图像和地面实况CT图像包括分别经由MR和CT成像模态获取的相同患者的相同感兴趣区域的医学图像,使得MR图像和地面实况CT图像彼此对应。从地面实况CT图像生成地面实况骨掩模和地面实况骨HU图像。例如,地面实况CT图像可以被分割以获得包含骨的地面实况CT图像的片段,并且地面实况骨掩模可以包括包含骨的地面实况CT图像的片段。地面实况骨掩模因此包括图像掩模,该图像掩模例如通过将骨片段表示为黑色像素并且将非骨片段表示为白色像素,或者反之亦然,指示对应于骨的地面实况CT图像的位置并且进一步指示不对应于骨的地面实况CT图像的位置。类似地,尽管地面实况骨掩模包括指示骨片段的图像掩模,但是地面实况骨HU值图或地面实况骨HU图像包括骨片段内的HU值。
地面实况可包括基于MR图像的输入,从多任务神经网络获得的预期的、理想的或“正确的”结果。包括地面实况CT图像、地面实况骨掩码和地面实况骨HU图像的地面实况输出对应于MR图像,使得可以在多个任务上训练本文所述的多任务神经网络,该多个任务包括生成对应于MR图像的伪CT图像,生成指示伪CT图像内的骨的位置的骨掩模,以及生成指示伪CT图像内的骨HU值的骨HU图像。训练数据集和包括该训练数据集的多个训练数据集可以存储在图像处理系统中,诸如在图像处理系统202的医学图像数据212中。
在510处,方法500将MR图像输入到多任务神经网络的输入层。例如,MR图像被输入到多任务CNN 400的输入层402。在一些示例中,MR图像的每个体素或像素值被输入到多任务神经网络的输入层的不同节点/神经元。
在515处,方法500确定包括pCT图像、骨掩模和骨HU图像的多任务神经网络的当前输出。例如,多任务神经网络通过从输入层穿过一个或多个隐藏层来传播输入MR图像,直到到达多任务神经网络的输出层,来将输入MR图像映射到pCT图像、骨掩模和骨HU图像。pCT图像、骨掩模和骨HU图像包括多任务神经网络的输出。
在520处,方法500计算pCT图像和地面实况CT图像的第一损失。方法500可通过计算由多任务神经网络输出的pCT图像与地面实况CT图像之间的差值来计算第一损失。例如,由于多任务神经网络的第一任务是对应于不同类别的整个CT值(HU)范围的整个图像回归,因此可根据下式计算第一损失
Figure BDA0003240219740000201
Figure BDA0003240219740000202
其中MAE身体包括整个身体区域的平均绝对误差,该整个身体区域包括骨区域、组织区域等,如上文参照图3所述。
在525处,方法500计算骨掩模和地面实况骨掩模的第二损失。方法500可通过计算由多任务神经网络输出的骨掩模与地面实况骨掩模之间的差值来计算第二损失。例如,由于多任务神经网络的第二任务是分割MR图像的骨区域,因此第二损失通过对将其他区域作为骨的错误分类进行罚分来使骨区域的形状正则化。为此,第二损失
Figure BDA0003240219740000203
可以计算为:
Figure BDA0003240219740000204
其中Dice损失LD可包括平滑的Dice系数损失,如上文参照图3所述。
在530处,方法500计算骨HU图像和地面实况骨HU图像的第三损失。方法500可以通过计算由多任务神经网络输出的骨HU图像与地面实况骨HU图像之间的差值来计算第三损失。例如,第三损失使感兴趣区域(例如,骨区域)中的回归明确地正则化,并且为了聚焦在骨区域上,身体区域的其余部分连同背景被视为互补类别。因此,方法500可以通过计算聚焦在值的子范围上的回归损失来计算第三损失,由下式定义:
Figure BDA0003240219740000205
其中wMAE包括如上文参照图3所述的骨区域的加权平均绝对误差。
在535处,方法500基于第一损失、第二损失和第三损失计算复合损失。例如,方法500计算多任务神经网络的复合损失函数L:
Figure BDA0003240219740000211
其中损失系数权重w1、w2和w3可基于对应任务的重要性或通过对每个任务的不确定性进行建模来确定。
在540处,方法500基于在535处计算的复合损失来调整多任务神经网络的权重和偏差。可通过多任务神经网络将复合损失反向传播以更新卷积层的权重和偏差。在一些示例中,根据梯度下降算法可发生复合损失的反向传播,其中针对多任务神经网络的每个权重和偏差确定复合损失函数的梯度(一阶导数或一阶导数的近似)。然后,通过将针对权重或偏差确定(或近似)的梯度乘积的负数与预定步长大小相加来更新每个权重和偏差。然后,方法500返回。应当理解,方法500可重复进行,直到多任务神经网络的权重和偏差收敛,或者对于方法500的每次迭代,多任务神经网络的权重和/或偏差的变化率都在阈值以下。
以这种方式,方法500使得多任务神经网络能够被训练以在具有不同电子密度的区域中生成具有增加的结构准确性和定量准确性的伪CT图像,其中特别聚焦在准确骨值预测上。
一旦如上文所述训练了多任务神经网络,就可部署多任务神经网络以用于生成伪CT图像,该伪CT图像继而可用于改善具有单个成像模态的临床工作流。作为例示性示例,图6是示出根据本公开的实施方案的用于使用深度多任务神经网络从MR图像生成伪CT图像的示例性方法600的高级流程图。参照图1至图4的系统和部件描述了方法600,但应当理解,方法600可在不脱离本公开的范围的情况下用其他系统和部件来实现。方法600可被实现为非暂态存储器206中的可执行指令,该可执行指令可由图像处理系统202的处理器204执行,例如,该图像处理系统可被集成到成像系统(诸如MRI装置10)中。
方法600在605处开始。在605处,方法600获取MR图像。在医学图像处理系统200被集成到成像系统(诸如MRI装置10)中的示例中,例如,方法600可以通过生成RF信号并测量MR信号来控制MRI装置10以执行受试者(诸如患者)的扫描。在此类示例中,方法600还可以根据如上文参照图1所述的测得的MR信号来构造受试者的MR图像。在其他示例中,其中图像处理系统200被设置在单独的设备(例如,工作站)处,该设备通信地耦接到成像系统(诸如MRI装置10)并且被配置为从成像系统接收MR图像,方法600可以通过从成像系统检索或接收MR图像来获取MR图像。在其他示例中,方法600可以通过从存储装置检索MR图像(例如经由图片归档和通信系统(PACS))来获取MR图像。
在610处,方法600将MR图像输入到经训练的多任务神经网络。在一些示例中,经训练的多任务神经网络包括被配置有多个输出层的U-Net二维卷积神经网络架构,诸如上文参照图4所述的CNN 400,其具有根据上文参照图5所述的训练方法500训练的自动编码器-自动解码器类型架构。经训练的多任务神经网络基于输入MR图像至少生成对应于MR图像的伪CT(pCT)图像,以及与其它任务相关的附加输出,诸如如上文所述的骨掩模和骨HU图像。
因此,在615处,方法600从经训练的多任务神经网络接收对应于MR图像的pCT图像、骨HU图像和骨掩模。由于骨HU图像是使用定量准确性的特定目标生成的,因此由骨掩模指示的骨区域的HU值可能比pCT图像中相同区域的HU值更准确。因此,在620处,方法600使用骨HU图像更新pCT图像。例如,方法600可将骨HU图像粘贴到在一些示例中由骨掩模引导的pCT图像上,使得骨HU图像中描绘的骨HU值替换pCT图像中的对应像素。另选地,骨HU图像可与pCT图像共混以改善pCT图像的定量准确性,而无需替换pCT图像的像素。
在620处,方法600输出MR图像和更新的pCT图像。例如,方法600可以经由显示设备(诸如显示设备214或显示单元33)显示MR图像和更新的pCT图像。然后,方法600返回。
图7示出了示出与输入MR图像705和地面实况CT图像710相比根据不同技术生成的示例性伪CT图像的一组图像700。输入MR图像705包括患者的零回波时间(ZTE)MR图像,该图像通过使用适于在单对比度MRI中捕获骨信息的ZTE协议在MR扫描期间控制MR装置来获取。地面实况CT图像710包括通过控制CT成像系统以执行患者的CT扫描而获取的患者的CT图像。
还执行MR图像705与地面实况CT图像710之间的图像配准。例如,通过将仿射转换应用于CT图像,对准CT图像710以匹配MR图像705的MR图像空间。作为例示性示例,可通过使相互信息和互相关量度的组合最小化来执行配准。可以具体地针对MR-CT图像训练对来执行此类配准,以进一步改善由本文所述的多任务神经网络执行的来自MR图像的pCT图像回归、骨分割和骨图像回归的准确性。
如上文所提及的,该组图像700还包括根据不同技术生成的示例性伪CT图像。例如,第一伪CT图像720包括使用多任务神经网络从输入MR图像705生成的多任务伪CT图像720,如上文所述。差异图722描绘了地面实况CT图像710与多任务伪CT图像720之间的像素级差异或残余误差(例如,ICT–IpCT)。
此外,第二伪CT图像730包括使用单任务神经网络从输入MR图像705生成的单任务伪CT图像730,该单任务神经网络适于与本文所述的多任务神经网络类似的架构,但仅针对伪CT图像回归的单个任务进行训练。差异图732描绘了地面实况CT图像710与单任务伪CT图像730之间的差异。
又如,第三伪CT图像740包括使用标准回归网络从输入MR图像705生成的标准伪CT图像740,具体地为经训练以执行伪CT图像回归的完全连接的DenseNet56神经网络。差异图742描绘了地面实况CT图像710与标准伪CT图像740之间的差异。
如图所描绘,由差异图722针对多任务伪CT图像720所描绘的残余误差低于由差异图732和差异图742所描绘的残余误差。多任务伪CT图像720和单任务伪CT图像730看起来相似,但是差异图722和差异图732的比较指示多任务伪CT图像720在图像的整个骨区域,特别是颅骨的额骨和鼻骨区域的较低误差,如差异图732中的较暗区域所描绘。差异图742指示在整个骨区域中(诸如在颅骨的枕骨区域中)的更广泛的残余误差。
作为本文提供的多任务神经网络与标准单任务神经网络的使用之间的定性差异的另一个例示性示例,图8示出了示出针对多个病例的伪CT和CT图像的软组织和骨区域的归一化柱状图的一组曲线图800。具体地,该组曲线图800包括:用于第一种情况的第一组曲线图810,包括软组织区域的曲线图812和骨区域的曲线图814;用于第二种情况的一组曲线图820,包括软组织区域的曲线图822和骨区域的曲线图824;用于第三种情况的一组曲线图830,包括软组织区域的曲线图832和骨区域的曲线图834;以及用于第四种情况的第四组曲线图840,包括软组织区域的曲线图842和骨区域的曲线图844。
每个曲线图示出了经由上文所述的各种技术(包括本文所述的多任务神经网络、单任务神经网络和标准DenseNet神经网络)获取的地面实况CT图像以及伪CT图像的归一化柱状图的曲线图。具体地,如图例880所描绘,具有实线的曲线图对应于多任务神经网络的测量,具有较长虚线的曲线图对应于地面实况CT图像的测量,具有短虚线的曲线图对应于单任务神经网络的测量,并且具有最短虚线的曲线图对应于DenseNet56神经网络的测量。
预测图像柱状图与每个区域中的CT柱状图的接近度是该范围内在不同值处的图像相似度的指标。如该组曲线图800的每个曲线图所描绘,在所有HU值中,相对于软组织区域和骨区域两者的其他伪CT柱状图(由较短虚线曲线图描绘),多任务神经网络的伪CT柱状图(由实线曲线图描绘)更紧密地匹配地面实况CT柱状图(由较长虚线曲线图描绘)。
图7和图8所描绘的定性分析表明,本文所述的多任务神经网络向伪CT图像回归提供了优于其他基于神经网络的方法的实质定性改善。此外,不同技术的定量分析还确认如本文所述针对伪CT图像回归配置和训练的多任务神经网络相对于其他方法实现了更好的性能。例如,对于使用五种情况评估的所提出的多任务神经网络,身体区域中的平均绝对误差(MAE)MAE身体为90.21±8.06,软组织区域中的MAE MAE软组织为61.60±7.20,并且骨区域中的MAE MAE为159.38±12.48。相比之下,对于使用相同的五种情况评估的单任务神经网络,身体区域中的MAE MAE身体为103.05±10.55,软组织区域中的MAE MAE软组织为66.90±8.24,并且骨区域中的MAE MAE为214.50±16.05。类似地,对于使用相同的五种情况评估的DenseNet56神经网络,身体区域中的MAE MAE身体为109.92±12.56,软组织区域中的MAEMAE软组织为64.88±8.36,并且骨区域中的MAE MAE为273.66±24.88。身体中的MAE MAE身体是预测的总体准确性的指示。软组织区域中的MAE MAE-软组织(在-200Hu至250HU范围内)指示低密度值中的预测的准确性。骨区域中的MAE MAE(在250Hu至3000HU范围内)指示骨值范围内的预测的准确性。因此,多任务神经网络优于其他网络的特定优点在骨区域误差中是显而易见的。经由骨分割和骨图像回归的附加任务,多任务神经网络的减少的误差可归因于ROI聚焦的损失的优点,从而驱动骨区域中的图像回归。
此外,作为附加的例示性示例,图9示出了示出在多个情况下不同骨密度阈值处的伪CT骨区域的Dice系数的曲线图的一组曲线图900。该组曲线图900包括用于第一种情况的曲线图910、用于第二种情况的曲线图920、用于第三种情况的曲线图930和用于第四种情况的曲线图940,其中每个曲线图描绘了用于多任务神经网络的曲线图(实线)、用于单任务神经网络的曲线图(较长虚线)和用于DenseNet56神经网络的曲线图(较短虚线),如图例980所描绘。曲线在较高CT数或HU值下的恶化指示低估了高密度骨值。虽然多任务神经网络对于高密度骨值表现出轻微恶化,但是单任务神经网络和DenseNet56对于相同的骨值表现出显著更差的估计。因此,与用于pCT图像回归的标准神经网络方法相比,本文提出和描述的对骨具有增强的聚焦的多任务神经网络确保了跨所有HU值的准确预测。
为了评估多任务神经网络在放射治疗计划中的实用性,对放射治疗计划中的pCT剂量测定性能执行比较分析。在收集患有脑肿瘤的两个患者的MR和CT数据之后,使用标准临床指南并使用医师绘制的ROI基于CT图像来制定治疗计划。然后使用治疗计划系统基于CT和pCT数据(由本文所述的多任务神经网络生成)两者来评估治疗计划,并且比较结果。发现计划目标体积(PTV)的平均剂量相对于规定剂量的差值分别为0.18%和-0.13%。因此,使用多任务神经网络从MR图像生成准确的伪CT图像使得能够替换CT成像以获得用于放射治疗剂量计算的密度图,并且因此使得用于放射治疗的仅MR临床工作流成为可能。
本公开的技术效应包括从MR图像生成伪CT图像。本公开的另一个技术效应包括在包含骨的区域中以增强的准确性从MR图像生成类CT图像。本公开的又一个技术效应包括基于输入MR图像使用多任务神经网络生成伪CT图像、骨掩模和骨图像。
在一个实施方案中,一种方法包括:获取磁共振(MR)图像;使用多任务神经网络生成对应于MR图像的伪CT图像;以及输出MR图像和伪CT图像。
在该方法的第一示例中,使用MR图像中包括骨的感兴趣区域的聚焦损失来训练多任务神经网络。在任选地包括第一示例的方法的第二示例中,该方法还包括使用多任务神经网络生成对应于MR图像的骨掩模和骨图像。在任选地包括第一示例和第二示例中的一者或多者的方法的第三示例中,使用伪CT图像的整个图像回归损失、骨掩模的分割损失和骨图像的聚焦在骨片段上的回归损失来训练多任务神经网络。在任选地包括第一示例至第三示例中的一者或多者的方法的第四示例中,该方法还包括使用包括整个图像回归损失、分割损失和聚焦在骨片段上的回归损失的复合损失来训练多任务神经网络,其中每种损失在复合损失中被加权。在任选地包括第一示例至第四示例中的一者或多者的方法的第五示例中,该方法还包括使用骨图像更新伪CT图像,并且使用MR图像输出更新的伪CT图像。在任选地包括第一示例至第五示例中的一者或多者的方法的第六示例中,多任务神经网络包括被配置有多个输出层的U-Net卷积神经网络,其中多个输出层中的一个输出层输出伪CT图像。
在另一个实施方案中,磁共振成像(MRI)系统包括MRI扫描仪;显示设备;控制器单元,该控制器单元通信地耦接到MRI扫描仪和显示设备;以及存储器,该存储器存储可执行指令,该可执行指令在被执行时,使得控制器单元:经由MRI扫描仪来获取磁共振(MR)图像;使用多任务神经网络生成对应于MR图像的伪CT图像;以及向显示设备输出MR图像和伪CT图像。
在MRI系统的第一示例中,使用MR图像中包括骨的感兴趣区域的聚焦损失来训练多任务神经网络。在任选地包括第一示例的MRI系统的第二示例中,存储器还存储可执行指令,该可执行指令在被执行时,使得控制器单元使用多任务神经网络生成对应于MR图像的骨掩模和骨图像。在任选地包括第一示例和第二示例中的一者或多者的MRI系统的第三示例中,使用伪CT图像的整个图像回归损失、骨掩模的分割损失和骨图像的聚焦在骨片段上的回归损失来训练多任务神经网络。在任选地包括第一示例至第三示例中的一者或多者的MRI系统的第四示例中,存储器还存储可执行指令,该可执行指令在被执行时,使得控制器单元使用包括整个图像回归损失、分割损失和聚焦在骨片段上的回归损失的复合损失来训练多任务神经网络,其中每种损失在复合损失中被加权。在任选地包括第一示例至第四示例中的一者或多者的MRI系统的第五示例中,存储器还存储可执行指令,该可执行指令在被执行时,使得控制器单元使用骨图像更新伪CT图像,并且使用MR图像向显示设备输出更新的伪CT图像。
在又一个实施方案中,一种非暂态计算机可读介质包括指令,该指令在被执行时,使得处理器:获取磁共振(MR)图像;使用多任务神经网络生成对应于MR图像的伪CT图像;以及向显示设备输出MR图像和伪CT图像。
在非暂态计算机可读介质的第一示例中,使用MR图像中包括骨的感兴趣区域的聚焦损失来训练多任务神经网络。在任选地包括第一示例的非暂态计算机可读介质的第二示例中,该指令在被执行时,进一步使得处理器使用多任务神经网络生成对应于MR图像的骨掩模和骨图像。在任选地包括第一示例和第二示例中的一者或多者的非暂态计算机可读介质的第三示例中,使用伪CT图像的整个图像回归损失、骨掩模的分割损失和骨图像的聚焦在骨片段上的回归损失来训练多任务神经网络。在任选地包括第一示例至第三示例中的一者或多者的非暂态计算机可读介质的第四示例中,该指令在被执行时,进一步使得处理器使用包括整个图像回归损失、分割损失和聚焦在骨片段上的回归损失的复合损失来训练多任务神经网络,其中每种损失在复合损失中被加权。在任选地包括第一示例至第四示例中的一者或多者的非暂态计算机可读介质的第五示例中,该指令在被执行时,进一步使得处理器使用骨图像更新伪CT图像,并且使用MR图像向显示设备输出更新的伪CT图像。在任选地包括第一示例至第五示例中的一者或多者的非暂态计算机可读介质的第六示例中,多任务神经网络包括被配置有多个输出层的U-Net卷积神经网络,其中多个输出层中的一个输出层输出伪CT图像。
如本文所用,以单数形式列举并且以单词“一个”或“一种”开头的元件或步骤应当被理解为不排除多个所述元件或步骤,除非明确说明此类排除。此外,对本发明的“一个实施方案”的引用不旨在被解释为排除也包含所引用特征的附加实施方案的存在。此外,除非明确地相反说明,否则“包含”、“包括”或“具有”具有特定特性的元件或多个元件的实施方案可包括不具有该特性的附加此类元件。术语“包括”和“在…中”用作相应的术语“包含”和“其中”的简明语言等同形式。此外,术语“第一”、“第二”和“第三”等仅用作标记,而不旨在对其对象施加数字要求或特定位置次序。
该书面描述使用示例来公开本发明,包括最佳模式,并且还使相关领域中的普通技术人员能够实践本发明,包括制造和使用任何设备或系统以及执行任何包含的方法。本发明可取得专利权的范围由权利要求书限定,并且可包括本领域普通技术人员想到的其他示例。如果此类其他示例具有与权利要求书的字面语言没有区别的结构元件,或者如果它们包括与权利要求书的字面语言具有微小差别的等效结构元件,则此类其他示例旨在落入权利要求书的范围内。

Claims (20)

1.一种方法,包括:
获取磁共振(MR)图像;
使用多任务神经网络生成对应于所述MR图像的伪CT图像;以及
输出所述MR图像和所述伪CT图像。
2.根据权利要求1所述的方法,其中使用所述MR图像中包括骨的感兴趣区域的聚焦损失来训练所述多任务神经网络。
3.根据权利要求1所述的方法,还包括使用所述多任务神经网络生成对应于所述MR图像的骨掩模和骨图像。
4.根据权利要求3所述的方法,其中使用所述伪CT图像的整个图像回归损失、所述骨掩模的分割损失和所述骨图像的聚焦在骨片段上的回归损失来训练所述多任务神经网络。
5.根据权利要求4所述的方法,还包括使用包括所述整个图像回归损失、所述分割损失和聚焦在所述骨片段上的所述回归损失的复合损失来训练所述多任务神经网络,其中每种损失在所述复合损失中被加权。
6.根据权利要求3所述的方法,还包括使用所述骨图像更新所述伪CT图像,并且使用所述MR图像输出所述更新的伪CT图像。
7.根据权利要求1所述的方法,其中所述多任务神经网络包括被配置有多个输出层的U-Net卷积神经网络,其中所述多个输出层中的一个输出层输出所述伪CT图像。
8.一种磁共振成像(MRI)系统,包括:
MRI扫描仪;
显示设备;
控制器单元,所述控制器单元通信地耦接到所述MRI扫描仪和所述显示设备;和
存储器,所述存储器存储可执行指令,所述可执行指令在被执行时,使得所述控制器单元:
经由所述MRI扫描仪来获取磁共振(MR)图像;
使用多任务神经网络生成对应于所述MR图像的伪CT图像;以及
向所述显示设备输出所述MR图像和所述伪CT图像。
9.根据权利要求8所述的MRI系统,其中使用所述MR图像中包括骨的感兴趣区域的聚焦损失来训练所述多任务神经网络。
10.根据权利要求8所述的MRI系统,所述存储器还存储可执行指令,所述可执行指令在被执行时,使得所述控制器单元使用所述多任务神经网络生成对应于所述MR图像的骨掩模和骨图像。
11.根据权利要求10所述的MRI系统,其中使用所述伪CT图像的整个图像回归损失、所述骨掩模的分割损失和所述骨图像的聚焦在骨片段上的回归损失来训练所述多任务神经网络。
12.根据权利要求11所述的MRI系统,所述存储器还存储可执行指令,所述可执行指令在被执行时,使得所述控制器单元使用包括所述整个图像回归损失、所述分割损失和聚焦在所述骨片段上的所述回归损失的复合损失来训练所述多任务神经网络,其中每种损失在所述复合损失中被加权。
13.根据权利要求10所述的MRI系统,所述存储器还存储可执行指令,所述可执行指令在被执行时,使得所述控制器单元使用所述骨图像更新所述伪CT图像,并且使用所述MR图像向所述显示设备输出所述更新的伪CT图像。
14.一种非暂态计算机可读介质,所述非暂态计算机可读介质包括指令,所述指令在被执行时使得处理器:
获取磁共振(MR)图像;
使用多任务神经网络生成对应于所述MR图像的伪CT图像;以及
向显示设备输出所述MR图像和所述伪CT图像。
15.根据权利要求14所述的非暂态计算机可读介质,其中使用所述MR图像中包括骨的感兴趣区域的聚焦损失来训练所述多任务神经网络。
16.根据权利要求14所述的非暂态计算机可读介质,其中所述指令在被执行时,进一步使得所述处理器使用所述多任务神经网络生成对应于所述MR图像的骨掩模和骨图像。
17.根据权利要求16所述的非暂态计算机可读介质,其中使用所述伪CT图像的整个图像回归损失、所述骨掩模的分割损失和所述骨图像的聚焦在骨片段上的回归损失来训练所述多任务神经网络。
18.根据权利要求17所述的非暂态计算机可读介质,其中所述指令在被执行时,进一步使得所述处理器使用包括所述整个图像回归损失、所述分割损失和聚焦在所述骨片段上的所述回归损失的复合损失来训练所述多任务神经网络,其中每种损失在所述复合损失中被加权。
19.根据权利要求16所述的非暂态计算机可读介质,其中所述指令在被执行时,进一步使得所述处理器使用所述骨图像更新所述伪CT图像,并且使用所述MR图像向所述显示设备输出所述更新的伪CT图像。
20.根据权利要求14所述的非暂态计算机可读介质,其中所述多任务神经网络包括被配置有多个输出层的U-Net卷积神经网络,其中所述多个输出层中的一个输出层输出所述伪CT图像。
CN202111016987.2A 2020-09-25 2021-08-31 用于将磁共振图像转换成伪计算机断层摄影术图像的方法和系统 Pending CN114255289A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/033,183 US12008695B2 (en) 2020-09-25 Methods and systems for translating magnetic resonance images to pseudo computed tomography images
US17/033,183 2020-09-25

Publications (1)

Publication Number Publication Date
CN114255289A true CN114255289A (zh) 2022-03-29

Family

ID=80791390

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111016987.2A Pending CN114255289A (zh) 2020-09-25 2021-08-31 用于将磁共振图像转换成伪计算机断层摄影术图像的方法和系统

Country Status (1)

Country Link
CN (1) CN114255289A (zh)

Also Published As

Publication number Publication date
US20220101576A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
US11756160B2 (en) ML-based methods for pseudo-CT and HR MR image estimation
CN111724904B (zh) 用于针对医学扫描的患者建模的多任务渐进式网络
US11478212B2 (en) Method for controlling scanner by estimating patient internal anatomical structures from surface data using body-surface and organ-surface latent variables
EP3444776B1 (en) Topogram prediction from surface data in medical imaging
EP3399501B1 (en) Multi-scale deep reinforcement machine learning for n-dimensional segmentation in medical imaging
US11508059B2 (en) Methods and systems for detecting a centerline of a vessel
CN109906470B (zh) 使用神经网络方法的图像分割
US11341616B2 (en) Methods and system for selective removal of streak artifacts and noise from images using deep neural networks
JP7325954B2 (ja) 医用画像処理装置、医用画像処理プログラム、学習装置及び学習プログラム
EP3089664B1 (en) Adaptive replanning based on multimodality imaging
JP2022544229A (ja) オブジェクト検出を用いて位置特定された医用画像の三次元オブジェクトセグメンテーション
US11506739B2 (en) Systems and methods for generating localizer scan settings from calibration images
US11464491B2 (en) Shape-based generative adversarial network for segmentation in medical imaging
US11410374B2 (en) Synthetic parameterized computed tomography from surface data in medical imaging
US20210177295A1 (en) Systems and methods for generating diagnostic scan parameters from calibration images
US11100611B2 (en) Systems and methods for background noise reduction in magnetic resonance images
CN110797112A (zh) 利用深度神经网络的自动图形处方的系统和方法
CN112240995A (zh) 用于从磁共振校准图像预测b1+标测图的系统和方法
Villarini et al. 3d deep learning for anatomical structure segmentation in multiple imaging modalities
US12008695B2 (en) Methods and systems for translating magnetic resonance images to pseudo computed tomography images
US20220101576A1 (en) Methods and systems for translating magnetic resonance images to pseudo computed tomography images
KR102574761B1 (ko) 선명성을 향상시킨 의료영상 변환방법 및 그 장치
US20240005451A1 (en) Methods and systems for super-resolution with progressive sub-voxel up-sampling
Roy et al. Generation of Synthetic Computed Tomography from Magnetic Resonance Images: A Literature Review
CN117831716A (zh) 一种放疗决策的方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination