CN112967379B - 一种基于感知一致生成对抗网络的三维医学图像重建方法 - Google Patents

一种基于感知一致生成对抗网络的三维医学图像重建方法 Download PDF

Info

Publication number
CN112967379B
CN112967379B CN202110235474.4A CN202110235474A CN112967379B CN 112967379 B CN112967379 B CN 112967379B CN 202110235474 A CN202110235474 A CN 202110235474A CN 112967379 B CN112967379 B CN 112967379B
Authority
CN
China
Prior art keywords
image
dimensional
model
dimensional image
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110235474.4A
Other languages
English (en)
Other versions
CN112967379A (zh
Inventor
夏勇
潘永生
黄静玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University, Shenzhen Institute of Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110235474.4A priority Critical patent/CN112967379B/zh
Publication of CN112967379A publication Critical patent/CN112967379A/zh
Application granted granted Critical
Publication of CN112967379B publication Critical patent/CN112967379B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于感知一致生成对抗网络的三维医学图像重建方法,提出用二维图像的三视图重建三维图像的方法,融合感知一致约束的感知一致生成对抗网络(Sense‑consistency Generative Adversarial Network,SGAN)去学习潜在的由粗到细的感知信息。首先,沿着投影方向展开一组二维图像三视图中的每一个切片,然后将其连接起来,形成与实际三维图像对应的相同形状的三通道三维图像;然后,采用感知一致性约束提供在训练生成模型时需要的潜在的从粗到细的感知信息,对SGAN模型进行训练;最终训练完成得到最终的SGAN模型,实现将二维图像转换为真实三维图像。本发明能够从一组三视角二维图像重建三维图像,一定程度上解决了UR任务。

Description

一种基于感知一致生成对抗网络的三维医学图像重建方法
技术领域
本发明属于医学图像处理技术领域,具体涉及一种三维医学图像重建方法。
背景技术
三维图像重建技术构成了常用成像方式的基础,如CT、MRI和PET,它们在医学图像分析中非常有用。这些技术通常需要从相对运动中获得一系列的二维切片/断层图,从而提供足够的三维信息。然而,如何有效地获取最有用的三维信息,以减少辐射剂量或成像时间,一直没有得到很好的研究。例如,在一个人的身体中定位异常物体如医疗植入物或损伤,完成这一任务就需要三维图像提供的三维空间。采用现有技术可行的一种方案是用二维切片序列扫描三维图像。但是,这些二维切片提供了大量冗余的对于定位没有用处的信息,并且在一定程度上造成了资源的浪费。由于一组正交的多视角二维图像就能够提供三维空间信息,因此,本发明提出了极限重建任务(Ultimate Reconstruction,UR)任务——仅从一组正交的三视角二维图像中重建三维图像。目前现有的技术并没有能够实现这一任务的。
发明内容
为了克服现有技术的不足,本发明提供了一种基于感知一致生成对抗网络的三维医学图像重建方法,提出用二维图像的三视图重建三维图像的方法,融合感知一致约束的感知一致生成对抗网络(Sense-consistency Generative Adversarial Network,SGAN)去学习潜在的由粗到细的感知信息。首先,沿着投影方向展开一组二维图像三视图中的每一个切片,然后将其连接起来,形成与实际三维图像对应的相同形状的三通道三维图像;然后,采用感知一致性约束提供在训练生成模型时需要的潜在的从粗到细的感知信息,对SGAN模型进行训练;最终训练完成得到最终的SGAN模型,实现将二维图像转换为真实三维图像。本发明能够从一组三视角二维图像重建三维图像,一定程度上解决了UR任务。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:构建采用感知一致性约束的SGAN模型;
所述SGAN模型包括一个采用UNet神经网络的生成模型和具有两个分支的判别模型,判别模型的两个分支分别由两个相同的五层卷积神经网络构成;
步骤2:二维图像预处理;
源图像为一组正交的三视角二维图像,将正视图Xf沿正视方向延展D个副本,左视图Xl沿左视方向延展H个副本,俯视图Xt沿俯视方向延展W个副本,生成大小H×W×D的三维图像;将生成的三维图像再按通道维度堆叠形成3通道3D图像,表示为
Figure BDA0002959840280000021
大小为H×W×D×3;缩放三维图像使其在每个方向具有相同的空间分辨率;再将三维图像在三个方向上以滑动窗的方式裁剪出大小为N×N×N的多个图像块;
对所有的源图像进行上述处理后和源图像对应的真实三维图像一起构成图像数据集;
步骤3:SGAN模型训练;
以步骤2构成的图像数据集为样本,将处理后的源图像裁剪出的N×N×N大小的多个图像块输入生成模型,生成模型的输出为重建的三维目标图像;
将源图像生成的三维目标图像和源图像对应的真实三维图像分别输入判别模型的两个分支,计算两个分支所有相同层输出特征图的差异评分,得到两个分支所有相同层输出特征图的相似性,作为感知一致性约束调整网络参数;判别模型最终的输出为三维目标图像是否为真的结果;
生成模型和判别模型以相互对抗的方式进行学习,使用交替迭代的方式进行训练;训练完成,得到最终的SGAN模型;
步骤4:将待处理三视角二维图像经过步骤2预处理后输入步骤3得到的最终SGAN模型的生成网络,输出为重建的真实三维图像。
优选地,所述生成模型由编码、迁移、解码三部分组成,编码部分实现从源图像提取信息的功能,迁移模型负责将信息从源图像迁移到目标图像,解码部分实现目标图像的重建;
优选地,所述生成模型的编码部分由三个分别为8、16和32通道的卷积层构建,迁移部分包含了6个残差网络块,解码部分包含了2个分别是16和32通道的反卷积层及一个单通道的卷积层,两个反卷积层卷积核大小都为3×3×3;
解码部分32通道的反卷积层的输入由迁移部分的特征映射和编码部分32通道卷积层的特征映射联结构成;解码部分16通道的反卷积层的输入由解码部分32通道的反卷积层的特征映射和编码部分16通道卷积层的特征映射联结构成;解码部分单通道的卷积层的输入由解码部分16通道的反卷积层的特征映射和编码部分8通道卷积层的特征映射联结构成。
优选地,所述判别模型的两个相同的五层卷积神经网络由五个通道大小依次为16、32、64、128和1的卷积层组成。
优选地,所述N=128。
本发明的有益效果如下:
1、本发明对于三维图像重建具有重要意义,仅从一组正交的三视角二维图像中重建三维图像,很大程度上避免了大量冗余信息带来的资源浪费,同时,有效地获取最有用的三维信息,能够减少辐射剂量或成像时间,对人体的健康也有一定程度的积极作用。
2、三维图像重建技术在医学图像分析中具有重要的作用。多平面的三维图像重建,有助于医生多方位多角度观察病灶整体形态及其与周围结构的关系,根据经过三维重建后的图像更容易诊断患者病情,同时使用低成本的快速三维重建有望提高原来使用多张二维图像的早筛精准度。
附图说明
图1为本发明方法的SGAN模型网络结构示意图。
图2为本发明方法感知一致性约束的可视化示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
如图1所示,一种基于感知一致生成对抗网络的三维医学图像重建方法,包括以下步骤:
步骤1:构建采用感知一致性约束的SGAN模型;
所述SGAN模型包括一个采用UNet神经网络的生成模型和具有两个分支的判别模型,判别模型的两个分支分别由两个相同的五层卷积神经网络构成;
UNet神经网络组成的生成模型由编码、迁移、解码三部分组成。编码部分主要实现从源图像提取信息的功能,迁移模型负责将信息从源图像迁移到目标图像,解码部分实现目标图像的重建。解码部分的每一个反卷积层的输入都是前面的特征映射和对应编码部分的卷积层的特征映射的连接。这样的跳跃式连接赋予了生成模型学习从粗到精纹理信息的能力。
判别模型主要用来自动地从数据中学习感知描述信息,其输入为一个真实三维图像和源图像扩展生成的三维目标图像,输出为预测图像是否为真实图像的二值结果。然后考虑不同的约束条件下不同位置的差异来训练生成模型,每个约束都依赖于判别模型的两个分支,这两个分支输入一对真实图像和目标图像,并在每层输出一个差异评分来表明相似性。在判别模型中,每层的步长逐渐增大,这是一个由粗到精的约束来增强合成图像和对应真实图像的感知一致性。通过这种方法,可以增强同构模型中学习到的感知表征,有助于图像合成,从而更好地传递感知信息。
步骤2:二维图像预处理;
源图像为一组正交的三视角二维图像,在将图像输入SGAN模型之前,因为判别模型要求输入和输出具有相同的维度,当前图像与输入图像之间仍然存在一定的差距,即二维切片到三维图像之间的维度不一致。为了解决这个问题,采用了一个延展这些2D切片维度的策略。将正视图Xf沿正视方向延展D个副本,左视图Xl沿左视方向延展H个副本,俯视图Xt沿俯视方向延展W个副本,生成大小H×W×D的三维图像;将生成的三维图像再按通道维度堆叠形成3通道3D图像,表示为
Figure BDA0002959840280000041
大小为H×W×D×3;缩放三维图像使其在每个方向具有相同的空间分辨率;再将三维图像在三个方向上以滑动窗的方式裁剪出大小为N×N×N的多个图像块;
对所有的源图像进行上述处理后和源图像对应的真实三维图像一起构成图像数据集;
步骤3:SGAN模型训练;
以步骤2构成的图像数据集为样本,将处理后的源图像裁剪出的N×N×N大小的多个图像块输入生成模型,生成模型的输出为重建的三维目标图像;
将源图像生成的三维目标图像和源图像对应的真实三维图像分别输入判别模型的两个分支,计算两个分支所有相同层输出特征图的差异评分,得到两个分支所有相同层输出特征图的相似性,作为感知一致性约束调整网络参数;判别模型最终的输出为三维目标图像是否为真的结果;
生成模型和判别模型以相互对抗的方式进行学习,使用交替迭代的方式进行训练;训练完成,得到最终的SGAN模型;
步骤4:将待处理三视角二维图像经过步骤2预处理后输入步骤3得到的最终SGAN模型的生成网络,输出为重建的真实三维图像。
具体实施例:
1、构建采用感知一致性约束的SGAN网络
如图1所示,SGAN模型包含了一个UNet形式的生成模型和一个五层的判别模型。这两个模型是用交替迭代的方式进行训练的,它们之间是相互对抗的关系,因此可以同时学习,共同提高。
生成模型包含了编码、迁移、解码三部分。编码部分由三个分别为16、32和64通道的卷积层构建,主要实现从源图像提取信息的功能。迁移部分包含了6个残差网络块(Residual Network Block,RNB),迁移模型负责将信息从源图像迁移到目标图像。解码部分包含了2个分别是16、32通道的反卷积层及一个单通道的卷积层,反卷积层卷积核大小为3×3×3。解码部分实现目标图像的重建。解码部分的每一个反卷积层的输入都是前面的特征映射和对应编码部分的卷积层的特征映射的连接。这样的跳跃式连接赋予了生成模型学习从粗到精纹理信息的能力。
如图2所示,判别模型包含了五个通道大小分别为1,16,32,64,128的卷积层。用Fj(X)(j=1,…,5)表示判别模型中第j层的特征映射,然后考虑到不同的约束条件下不同位置的差异来训练生成模型。每个约束都依赖于判别模型的两个分支,这两个分支输入一对真实图像和目标图像,并在每层输出一个差异评分来表明相似性。除了在相关工作中使用的这些约束,每层的步长逐渐增大,引入了一个粗到精的约束来增强合成图像和对应真实图像的感知一致性。通过这种方法,可以增强同构模型中学习到的感觉表征,有助于图像合成,从而更好地传递感觉信息。反过来,判别模型也有效地改善了合成图像更具体的感知信息。
2、二维图像预处理
在将图像输入SGAN模型之前,因为判别模型要求输入和输出具有相同的维度,当前图像与输入图像之前仍然存在一定的差距,即二维切片到三维图像之间的维度不一致。为了解决这个问题,提出了一个扩展这些2D切片维度的策略。
将正视图(Xf)沿正视方向延展D个副本,左视图(Xl)沿左视方向延展H个副本,俯视图(Xt)沿俯视方向延展W个副本,延展后的图像都具有相同的大小(即H×W×D)。将延展后的图像再按通道维度堆叠起来形成3通道3D图像(表示为
Figure BDA0002959840280000051
大小为H×W×D×3)。然后,缩放扫描图像使其在每个方向具有相同的空间分辨率(例如,2×2×2mm3)。然后,将这些图像在轴向上采用滑窗方式裁剪为128×128×128,以聚焦于椎骨。
3、三维图像重建
经过第2步处理后的源图像输入生成模型,经过编码、迁移、解码三个阶段完成从源图像到目标图像的图像重建过程。
判别模型的两个分支输入一对真实图像和目标图像,在训练过程中在每层输出一个差异评分来表明相似性,每个约束都依赖于判别模型的两个分支,本发明提出的SGAN模型的同时采用感知一致性约束和配对体素一致性约束(即由粗到精的约束)。
4、测试阶段
本方法在KiTS19 Challenge公开的数据集上进行了一组实验,以验证SGAN在骨骼定位任务上的效果,分别在训练集和评估集上训练和测试模型。本发明能够从一组三视角二维图像重建三维图像,一定程度地实现UR目的。
本发明提出了极限重建任务(Ultimate Reconstruction,UR)任务——仅从一组正交的三视角二维图像中重建三维图像,目前现有的技术并没有能够实现这一任务的。本发明对于三维图像重建具有重要意义,仅从一组正交的三视角二维图像中重建三维图像,很大程度上避免了大量冗余信息带来的资源浪费,冗余信息指原始三维图像中对定位没有用处的信息。同时,有效地获取最有用的三维信息,能够减少辐射剂量或成像时间,对人体的健康也有一定程度的积极作用。三维图像重建技术在医学图像分析中具有重要的作用。多平面的三维图像重建,有助于医生多方位多角度观察病灶整体形态及其与周围结构的关系。对于基层医生或者临床实习医生来说,根据经过三维重建后的图像更容易诊断患者病情;对于患者来说也很容易看明白自己病情的具体情况。从疾病早筛的角度来讲,使用低成本的快速三维重建有望提高原来使用多张二维图像的早筛精准度。从精准医疗的角度来讲,多一种验证手段保证手术的精准度是可取的并且很有必要的。此外,三维可视化不仅仅用于术前的医患沟通,还可以用于术中导航。三维影像在某些科室也可用于量化分析,例如骨外科进行骨骼固定的手术中,术前可根据三维影像精准定位断骨的位置,术后可用于评估骨骼的愈合效果。

Claims (5)

1.一种基于感知一致生成对抗网络的三维医学图像重建方法,其特征在于,包括以下步骤:
步骤1:构建采用感知一致性约束的SGAN模型;
所述SGAN模型包括一个采用UNet神经网络的生成模型和具有两个分支的判别模型,判别模型的两个分支分别由两个相同的五层卷积神经网络构成;
步骤2:二维图像预处理;
源图像为一组正交的三视角二维图像,将正视图Xf沿正视方向延展D个副本,左视图Xl沿左视方向延展H个副本,俯视图Xt沿俯视方向延展W个副本,生成大小H×W×D的三维图像;将生成的三维图像再按通道维度堆叠形成3通道3D图像,表示为
Figure FDA0002959840270000011
大小为H×W×D×3;缩放三维图像使其在每个方向具有相同的空间分辨率;再将三维图像在三个方向上以滑动窗的方式裁剪出大小为N×N×N的多个图像块;
对所有的源图像进行上述处理后和源图像对应的真实三维图像一起构成图像数据集;
步骤3:SGAN模型训练;
以步骤2构成的图像数据集为样本,将处理后的源图像裁剪出的N×N×N大小的多个图像块输入生成模型,生成模型的输出为重建的三维目标图像;
将源图像生成的三维目标图像和源图像对应的真实三维图像分别输入判别模型的两个分支,计算两个分支所有相同层输出特征图的差异评分,得到两个分支所有相同层输出特征图的相似性,作为感知一致性约束调整网络参数;判别模型最终的输出为三维目标图像是否为真的结果;
生成模型和判别模型以相互对抗的方式进行学习,使用交替迭代的方式进行训练;训练完成,得到最终的SGAN模型;
步骤4:将待处理三视角二维图像经过步骤2预处理后输入步骤3得到的最终SGAN模型的生成网络,输出为重建的真实三维图像。
2.根据权利要求1所述的一种基于感知一致生成对抗网络的三维医学图像重建方法,其特征在于,所述生成模型由编码、迁移、解码三部分组成,编码部分实现从源图像提取信息的功能,迁移模型负责将信息从源图像迁移到目标图像,解码部分实现目标图像的重建。
3.根据权利要求2所述的一种基于感知一致生成对抗网络的三维医学图像重建方法,其特征在于,所述生成模型的编码部分由三个分别为8、16和32通道的卷积层构建,迁移部分包含了6个残差网络块,解码部分包含了2个分别是16和32通道的反卷积层及一个单通道的卷积层,两个反卷积层卷积核大小都为3×3×3;
解码部分32通道的反卷积层的输入由迁移部分的特征映射和编码部分32通道卷积层的特征映射联结构成;解码部分16通道的反卷积层的输入由解码部分32通道的反卷积层的特征映射和编码部分16通道卷积层的特征映射联结构成;解码部分单通道的卷积层的输入由解码部分16通道的反卷积层的特征映射和编码部分8通道卷积层的特征映射联结构成。
4.根据权利要求1所述的一种基于感知一致生成对抗网络的三维医学图像重建方法,其特征在于,所述判别模型的两个相同的五层卷积神经网络由五个通道大小依次为16、32、64、128和1的卷积层组成。
5.根据权利要求1所述的一种基于感知一致生成对抗网络的三维医学图像重建方法,其特征在于,所述N=128。
CN202110235474.4A 2021-03-03 2021-03-03 一种基于感知一致生成对抗网络的三维医学图像重建方法 Active CN112967379B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110235474.4A CN112967379B (zh) 2021-03-03 2021-03-03 一种基于感知一致生成对抗网络的三维医学图像重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110235474.4A CN112967379B (zh) 2021-03-03 2021-03-03 一种基于感知一致生成对抗网络的三维医学图像重建方法

Publications (2)

Publication Number Publication Date
CN112967379A CN112967379A (zh) 2021-06-15
CN112967379B true CN112967379B (zh) 2022-04-22

Family

ID=76276325

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110235474.4A Active CN112967379B (zh) 2021-03-03 2021-03-03 一种基于感知一致生成对抗网络的三维医学图像重建方法

Country Status (1)

Country Link
CN (1) CN112967379B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035001B (zh) * 2022-08-11 2022-12-09 北京唯迈医疗设备有限公司 基于dsa成像设备的术中导航系统、计算装置和程序产品

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413351B (zh) * 2013-07-26 2016-08-10 南京航空航天大学 基于压缩感知理论的三维人脸快速重建方法
CN108765512B (zh) * 2018-05-30 2022-04-12 清华大学深圳研究生院 一种基于多层级特征的对抗图像生成方法
CN109711442B (zh) * 2018-12-15 2021-04-16 中国人民解放军陆军工程大学 无监督逐层生成对抗特征表示学习方法
CN111383325B (zh) * 2018-12-29 2023-06-30 深圳市丰驰顺行信息技术有限公司 车厢三维图像生成方法及装置
CN110335337B (zh) * 2019-04-28 2021-11-05 厦门大学 一种基于端到端半监督生成对抗网络的视觉里程计的方法
CN110119780B (zh) * 2019-05-10 2020-11-27 西北工业大学 基于生成对抗网络的高光谱图像超分辨重建方法
CN110390638B (zh) * 2019-07-22 2023-07-28 北京工商大学 一种高分辨率三维体素模型重建方法
CN110517353B (zh) * 2019-08-30 2022-09-23 西南交通大学 基于二维矢量图及少量高程点的快速建筑物三维重建方法
CN111899328B (zh) * 2020-07-10 2022-08-09 西北工业大学 一种基于rgb数据与生成对抗网络的点云三维重建方法

Also Published As

Publication number Publication date
CN112967379A (zh) 2021-06-15

Similar Documents

Publication Publication Date Title
Ying et al. X2CT-GAN: reconstructing CT from biplanar X-rays with generative adversarial networks
EP3726467B1 (en) Systems and methods for reconstruction of 3d anatomical images from 2d anatomical images
Oulbacha et al. MRI to CT synthesis of the lumbar spine from a pseudo-3D cycle GAN
US11080895B2 (en) Generating simulated body parts for images
EP3550515A1 (en) Cross-modality image synthesis
CN112967379B (zh) 一种基于感知一致生成对抗网络的三维医学图像重建方法
Kyung et al. Perspective projection-based 3d CT reconstruction from biplanar X-rays
WO2020198854A1 (en) Method and system for producing medical images
Fotsin et al. Shape, pose and density statistical model for 3D reconstruction of articulated structures from X-ray images
Whitmarsh et al. 3D bone mineral density distribution and shape reconstruction of the proximal femur from a single simulated DXA image: an in vitro study
US11704796B2 (en) Estimating bone mineral density from plain radiograph by assessing bone texture with deep learning
US20240185509A1 (en) 3d reconstruction of anatomical images
US20230071033A1 (en) Method for obtaining a ct-like representation and virtual x-ray images in arbitrary views from a two-dimensional x-ray image
Gao et al. 3DSRNet: 3D Spine Reconstruction Network Using 2D Orthogonal X-ray Images Based on Deep Learning
Oulbacha et al. MRI to C‐arm spine registration through Pseudo‐3D CycleGANs with differentiable histograms
Wang et al. TPG-rayGAN: CT reconstruction based on transformer and generative adversarial networks
Chen et al. Development of Automatic Assessment Framework for Spine Deformity using Freehand 3D Ultrasound Imaging System
CN116848549A (zh) 经由降维投影的图像结构的检测
Pan et al. Ultimate reconstruction: understand your bones from orthogonal views
Kadoury Three-dimensional spine reconstruction from radiographs
Cheng et al. Sdct-gan: reconstructing CT from biplanar x-rays with self-driven generative adversarial networks
Wang et al. Shape Reconstruction for Abdominal Organs based on a Graph Convolutional Network
Kalyan Deep Learning & CNN in Imaging of Medical Surgeries
Kumar et al. 3D Volumetric Computed Tomography from 2D X-Rays: A Deep Learning Perspective
MONTEIRO DEEP LEARNING APPROACH FOR THE SEGMENTATION OF SPINAL STRUCTURES IN ULTRASOUND IMAGES

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant