CN113780519A - 生成对抗网络训练方法、装置、计算机设备和存储介质 - Google Patents

生成对抗网络训练方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN113780519A
CN113780519A CN202110930101.9A CN202110930101A CN113780519A CN 113780519 A CN113780519 A CN 113780519A CN 202110930101 A CN202110930101 A CN 202110930101A CN 113780519 A CN113780519 A CN 113780519A
Authority
CN
China
Prior art keywords
data
loss value
image data
result
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110930101.9A
Other languages
English (en)
Inventor
韦子权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen United Imaging Research Institute of Innovative Medical Equipment
Original Assignee
Shenzhen United Imaging Research Institute of Innovative Medical Equipment
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen United Imaging Research Institute of Innovative Medical Equipment filed Critical Shenzhen United Imaging Research Institute of Innovative Medical Equipment
Priority to CN202110930101.9A priority Critical patent/CN113780519A/zh
Publication of CN113780519A publication Critical patent/CN113780519A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本申请涉及一种生成对抗网络训练方法、装置、计算机设备和存储介质。所述方法包括:获取训练样本集;所述训练样本集包括多个第一样本数据和对应的第二样本数据;所述第二样本数据对应的重建图像的层厚小于所述第一样本数据对应的重建图像的层厚;基于所述训练样本集进行神经网络训练,得到循环生成对抗网络。采用本方法训练出的循环生成对抗网络恢复准确性较高,利用该循环生成对抗网络截图解决层厚方向信息丢失问题,重建出质量较好的图像,满足分析任务的需求。

Description

生成对抗网络训练方法、装置、计算机设备和存储介质
技术领域
本申请涉及数据重建技术领域,特别是涉及一种生成对抗网络训练方法、装置、计算机设备和存储介质。
背景技术
CT(Computed Tomography),即电子计算机断层扫描,它是利用精确准直的X线束等,与灵敏度极高的探测器一同围绕人体的某一部位作一个接一个的断面扫描。由于具有扫描时间快,图像清晰等特点,因此应用于多种疾病的检查。临床上,CT图像通常采用较大层厚(5mm)的数据进行储存以节约存储空间。但是,由于CT图像层厚较大,因此在层厚方向上存在信息丢失,无法应用于某些特定分析任务的问题。
目前,为了解决层厚方向信息丢失的问题,常采用的方式包括:先对厚层CT图像进行层间插值,并根据插值得到的图像训练出神经网络模型,然后再使用该神经网络模型进行层厚方向信息的恢复。
然而,插值计算可能会出现误差,因此训练出的神经网络模型可能出现恢复准确性低的问题,利用神经网络模型重建出的图像质量不佳,难以满足分析任务的需求。
发明内容
基于此,有必要针对上述技术问题,提供一种生成对抗网络训练方法、装置、计算机设备和存储介质,以训练出层厚方向信息恢复准确性较高的循环生成对抗网络,利用该循环生成对抗网络重建出质量较好的图像,从而满足分析任务的需求。
第一方面,本公开实施例提供了一种生成对抗网络训练方法,该方法包括:
获取训练样本集;训练样本集包括多个第一样本数据和对应的第二样本数据;第二样本数据对应的重建图像的层厚小于第一样本数据对应的重建图像的层厚;
基于训练样本集进行神经网络训练,得到循环生成对抗网络。
在其中一个实施例中,上述基于训练样本集进行神经网络训练,得到循环生成对抗网络,包括:
分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据;
基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络;
其中,分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据,包括:
根据第一预设尺寸分别计算第一样本数据对应的第一层数和第二样本数据对应的第二层数;
从第一样本数据中选取出与第一层数对应的第一块数据;
从第二样本数据中选取出与第二层数对应的第二块数据。
在其中一个实施例中,还包括:
根据多个第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
在其中一个实施例中,循环生成对抗网络包括第一生成器和第二生成器,上述基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络,包括:
将第一块数据输入到第一生成器进行重建,得到第一生成结果;
将第二块数据输入到第二生成器进行重建,得到第二生成结果;
将第一生成结果输入到第二生成器进行重建,得到第三生成结果;
将第二生成结果输入到第一生成器进行重建,得到第四生成结果;
基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络。
在其中一个实施例中,循环生成对抗网络还包括第一判别器和第二判别器,总损失值包括第一损失值和第二损失值,上述基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络,包括:
基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算出第一损失值,基于第一块数据、第二块数据、第一生成结果和第二生成结果计算出第二损失值;
利用第一损失值调整第一生成器和第二生成器的网络参数,利用第二损失值调整第一判别器和第二判别器的网络参数,得到循环生成对抗网络。
在其中一个实施例中,上述第一损失值的计算过程包括:
将第二生成结果输入到第一判别器中,得到第一判别器输出的第一判别结果,计算第一判别结果与相同尺寸的全一数据之间的损失,得到第一生成对抗损失值;第一判别结果用于指示第二生成结果是否为真的第一块数据;
将第一生成结果输入到第二判别器中,得到第二判别器输出的第二判别结果,计算第二判别结果与相同尺寸的全一数据之间的损失,得到第二生成对抗损失值;第二判别结果用于指示第一生成结果是否为真的第二块数据;
计算第一块数据与第三生成结果之间的损失,得到第一循环对抗损失值,计算第二块数据与第四生成结果之间的损失,得到第二循环对抗损失值;
对第一生成对抗损失值、第二生成对抗损失值、第一循环对抗损失值和第二循环对抗损失值进行加权求和计算,得到第一损失值。
在其中一个实施例中,上述第二损失值的计算过程包括:
计算第一判别结果与相同尺寸的全零数据之间的损失,得到第三生成对抗损失值;
将第一块数据输入到第一判别器中,得到第一判别器输出的第三判别结果,计算第三判别结果与相同尺寸的全一数据之间的损失,得到第四生成对抗损失值;
计算第二判别结果与相同尺寸的全零数据之间的损失,得到第五生成对抗损失值;
将第二块数据输入到第二判别器中,得到第二判别器输出的第四判别结果,计算第四判别结果与相同尺寸的全一数据之间的损失,得到第六生成对抗损失值;
对第三生成对抗损失值、第四生成对抗损失值、第五生成对抗损失值和第六生成对抗损失值进行加权求和计算,得到第二损失值。
第二方面,本公开实施例提供了一种医疗影像数据生成方法,该方法包括:
获取第一医疗影像数据;
利用预先训练的影像数据生成模型对第一医疗影像数据进行重建,得到第二医疗影像数据;
其中,影像数据生成模型包括第一方面所述的循环生成对抗网络。
在其中一个实施例中,上述利用预先训练的影像数据生成模型对第一医疗影像数据进行重建,得到第二医疗影像数据,包括:
根据第二预设尺寸和第一医疗影像数据得到多个输入影像数据;
将多个输入影像数据依次输入到影像数据生成模型中进行重建,得到影像数据生成模型输出的各输入影像数据对应的输出影像数据;
对多个输出影像数据进行合成处理,得到第二医疗影像数据。
在其中一个实施例中,上述对多个输出影像数据进行合成处理,得到第二医疗影像数据,包括:
对各输出影像数据进行高斯加权计算,得到各输出影像数据对应的加权影像数据;
对多个加权影像数据进行平均计算,得到第二医疗影像数据。
第三方面,本公开实施例提供了一种生成对抗网络的训练装置,其特征在于,该装置包括:
样本获取模块,用于获取训练样本集;所述训练样本集包括多个第一样本数据和对应的第二样本数据;所述第二样本数据对应的重建图像的层厚小于所述第一样本数据对应的重建图像的层厚;
训练模块,用于基于所述训练样本集进行神经网络训练,得到循环生成对抗网络。
在其中一个实施例中,上述训练模块包括:
数据选取子模块,用于分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据;
训练子模块,用于基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络;
其中,数据选取子模块,具体用于根据第一预设尺寸分别计算第一样本数据对应的第一层数和第二样本数据对应的第二层数;从第一样本数据中选取出与第一层数对应的第一块数据;从第二样本数据中选取出与第二层数对应的第二块数据。
在其中一个实施例中,上述训练模块,还用于根据多个第一预设尺寸和/或多个第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
在其中一个实施例中,循环生成对抗网络包括第一生成器和第二生成器,上述训练子模块,包括:
第一重建单元,用于将第一块数据输入到第一生成器进行重建,得到第一生成结果;
第二重建单元,用于将第二块数据输入到第二生成器进行重建,得到第二生成结果;
第三重建单元,用于将第一生成结果输入到第二生成器进行重建,得到第三生成结果;
第四重建单元,用于将第二生成结果输入到第一生成器进行重建,得到第四生成结果;
训练单元,用于基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络。
在其中一个实施例中,循环生成对抗网络还包括第一判别器和第二判别器,总损失值包括第一损失值和第二损失值,上述训练单元,具体用于基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算出第一损失值,基于第一块数据、第二块数据、第一生成结果和第二生成结果计算出第二损失值;利用第一损失值调整第一生成器和第二生成器的网络参数,利用第二损失值调整第一判别器和第二判别器的网络参数,得到循环生成对抗网络。
在其中一个实施例中,上述训练单元,具体用于将第二生成结果输入到第一判别器中,得到第一判别器输出的第一判别结果,计算第一判别结果与相同尺寸的全一数据之间的损失,得到第一生成对抗损失值;第一判别结果用于指示第二生成结果是否为真的第一块数据;将第一生成结果输入到第二判别器中,得到第二判别器输出的第二判别结果,计算第二判别结果与相同尺寸的全一数据之间的损失,得到第二生成对抗损失值;第二判别结果用于指示第一生成结果是否为真的第二块数据;计算第一块数据与第三生成结果之间的损失,得到第一循环对抗损失值,计算第二块数据与第四生成结果之间的损失,得到第二循环对抗损失值;对第一生成对抗损失值、第二生成对抗损失值、第一循环对抗损失值和第二循环对抗损失值进行加权求和计算,得到第一损失值。
在其中一个实施例中,上述训练单元,具体用于计算第一判别结果与相同尺寸的全零数据之间的损失,得到第三生成对抗损失值;将第一块数据输入到第一判别器中,得到第一判别器输出的第三判别结果,计算第三判别结果与相同尺寸的全一数据之间的损失,得到第四生成对抗损失值;计算第二判别结果与相同尺寸的全零数据之间的损失,得到第五生成对抗损失值;将第二块数据输入到第二判别器中,得到第二判别器输出的第四判别结果,计算第四判别结果与相同尺寸的全一数据之间的损失,得到第六生成对抗损失值;对第三生成对抗损失值、第四生成对抗损失值、第五生成对抗损失值和第六生成对抗损失值进行加权求和计算,得到第二损失值。
第四方面,本公开实施例提供了一种医疗影像数据生成装置,该装置包括:
数据获取模块,用于获取第一医疗影像数据;
数据生成模块,用于利用预先训练的影像数据生成模型对第一医疗影像数据进行重建,得到第二医疗影像数据;
其中,影像数据生成模型包括第一方面所述的循环生成对抗网络。
在其中一个实施例中,上述数据生成模块包括:
数据获得子模块,用于根据第二预设尺寸和第一医疗影像数据得到多个输入影像数据;
重建子模块,用于将多个输入影像数据依次输入到影像数据生成模型中进行重建,得到影像数据生成模型输出的各输入影像数据对应的输出影像数据;
合成子模块,用于对多个输出影像数据进行合成处理,得到第二医疗影像数据。
在其中一个实施例中,上述合成子模块,具体用于对各输出影像数据进行高斯加权计算,得到各输出影像数据对应的加权影像数据;对多个加权影像数据进行平均计算,得到第二医疗影像数据。
第五方面,本公开实施例提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取训练样本集;训练样本集包括多个第一样本数据和对应的第二样本数据;第二样本数据对应的重建图像的层厚小于第一样本数据对应的重建图像的层厚;
基于训练样本集进行神经网络训练,得到循环生成对抗网络。
第六方面,本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取训练样本集;训练样本集包括多个第一样本数据和对应的第二样本数据;第二样本数据对应的重建图像的层厚小于第一样本数据对应的重建图像的层厚;
基于训练样本集进行神经网络训练,得到循环生成对抗网络。
上述生成对抗网络训练方法、装置、计算机设备和存储介质,终端获取训练样本集;基于训练样本集进行神经网络训练,得到循环生成对抗网络。其中,训练样本集包括多个第一样本数据和对应的第二样本数据,并且第二样本数据对应的重建图像的层厚小于第一样本数据对应的重建图像的层厚,由于与现有技术相比无需进行插值计算,因此训练出的循环生成对抗网络恢复准确性较高,并可以应用于不同层厚分辨率的图像重建,比如将低层厚分辨率图像重建为高层厚分辨率图像,这样,利用循环生成对抗网络就可以解决层厚方向信息丢失问题,重建出质量较好的图像,从而满足分析任务的需求。
附图说明
图1为一个实施例中生成对抗网络训练方法的应用环境图;
图2为一个实施例中生成对抗网络训练方法的流程示意图;
图3为一个实施例中基于训练样本集进行神经网络训练步骤的流程示意图;
图4为一个实施例中循环生成对抗网络的结构示意图;
图5为一个实施例中基于第一块数据和第二块数据进行神经网络训练步骤的流程示意图;
图6为一个实施例中总生成对抗损失值的计算步骤的流程示意图;
图7为一个实施例中总循环对抗损失值的计算步骤的流程示意图;
图8为一个实施例中医疗影像数据生成方法的流程示意图;
图9为一个实施例中利用预先训练的影像数据生成模型对第一医疗影像数据进行重建步骤的流程示意图;
图10为一个实施例中矩阵的示意图;
图11为一个实施例中生成对抗网络训练装置的结构框图;
图12为一个实施例中医疗影像数据生成装置的结构框图;
图13为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的生成对抗网络训练方法,可以应用于如图1所示的应用环境中。该应用环境可以包括终端101和图像获取设备。其中,终端101可以通过网络与图像获取设备进行通信。上述终端101可以但不限于是各种个人计算机、笔记本电脑和平板电脑;上述图像获取设备可以是医学扫描设备,可以但不限于是CT(Computed Tomography,即电子计算机断层扫描)设备、PET(Positron Emission Computed Tomography,正电子发射型计算机断层显像)-CT设备和MR(Magnetic Resonance,磁共振)设备,也可以是其他扫描设备,如地质探测、地理测绘等三维扫描设备,还可以是其他任何获取三维图像的设备,如游戏、电影电视等三维图像显示终端。
以图像获取设备是医学扫描设备102为例,该应用环境还可以包括PACS(PictureArchiving and Communication Systems,影像归档和通信系统)服务器103,终端101和医学扫描设备102均可以通过网络与PACS服务器103进行通信。上述PACS服务器103可以用独立的服务和器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种生成对抗网络训练方法,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
步骤201,获取训练样本集。
其中,训练样本集包括多个第一样本数据和对应的第二样本数据;第二样本数据对应的重建图像的层厚小于第一样本数据对应的重建图像的层厚。
可选地,第一样本数据和第二样本数据可以为不同诊疗对象相同部位的医疗影像数据。例如,第一样本数据为诊疗对象A的胸部CT影像数据,第二样本数据为诊疗对象B的胸部CT影像数据,诊疗对象A的胸部CT影像数据对应的重建图像的层厚为5mm,诊疗对象B的胸部CT影像数据对应的重建图像的层厚为2mm。
可选地,第一样本数据和第二样本数据可以为同一诊疗对象不同部位的医疗影像数据。例如,第一样本数据为诊疗对象A的胸部CT影像数据,第二样本数据为诊疗对象A的腹部CT影像数据,胸部CT影像数据对应的重建图像的层厚为5mm,腹部CT影像数据对应的重建图像的层厚为2mm。
可选地,第一样本数据和第二样本数据可以为不同诊疗对象不同部位的医疗影像数据。例如,第一样本数据为诊疗对象A的胸部CT影像数据,第二样本数据为诊疗对象B的腹部CT影像数据,胸部CT影像数据对应的重建图像的层厚为5mm,腹部CT影像数据对应的重建图像的层厚为2mm。
可选地,多个第二样本数据对应的重建图像的层厚不同。例如,第二样本数据包括诊疗对象A的腹部CT影像数据1和腹部CT影像数据2,腹部CT影像数据1对应的重建图像的层厚为2mm,腹部CT影像数据2对应的重建图像的层厚为3mm。
本公开实施例对第一样本数据和第二样本数据不做限定,对第一样本数据对应的重建图像的层厚以及第二样本数据对应的重建图像的层厚也不做限定。
终端可以从医疗扫描设备获取多个第一样本数据和对应的第二样本数据,也可以从PACS服务器获取多个第一样本数据和对应的第二样本数据。然后,终端将获取到的多个第一样本数据和对应的第二样本数据组成训练样本集。
步骤202,基于训练样本集进行神经网络训练,得到循环生成对抗网络。
终端获取到训练样本集后,根据训练样本集中的第一样本数据和第二样本数据进行神经网络的训练,得到循环生成对抗网络(Cycle Generative Adversarial Networks)。
在实际应用中,可以利用循环生成对抗网络对第一医疗影像数据进行重建得到第二医疗影像数据,其中,第二医疗影像数据对应的重建图像的层厚小于第一医疗影像数据对应的重建图像的层厚。
上述生成对抗网络训练方法中,终端获取训练样本集;基于训练样本集进行神经网络训练,得到循环生成对抗网络。其中,训练样本集包括多个第一样本数据和对应的第二样本数据,并且第二样本数据对应的重建图像的层厚小于第一样本数据对应的重建图像的层厚,由于与现有技术相比无需进行插值计算,因此训练出的循环生成对抗网络恢复准确性较高,并且可以应用于不同层厚分辨率的图像重建,比如将低层厚分辨率图像重建为高层厚分辨率图像,这样,利用循环生成对抗网络就可以解决层厚方向信息丢失问题,重建出质量较好的图像,从而满足分析任务的需求。
在一个实施例中,如图3所示,上述基于训练样本集进行神经网络训练,得到循环生成对抗网络的步骤,可以包括:
步骤301,分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据。
终端从第一样本数据中选取出第一块数据,从第二样本数据中选取出第二块数据,其中,第一块数据与第二块数据尺寸相同,并且需要考虑到终端的硬件条件,第一块数据和第二块数据的尺寸不能过大。上述选取操作可以是随机选取,也可以是按照预设规则进行选取。本公开实施例对选取操作不做限定。
在其中一个实施例中,上述分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据的过程,可以包括:根据第一预设尺寸分别计算第一样本数据对应的第一层数和第二样本数据对应的第二层数;从第一样本数据中选取出与第一层数对应的第一块数据;从第二样本数据中选取出与第二层数对应的第二块数据。
例如,第一样本数据对应的重建图像的层厚为5mm,且第一样本数据中每个体素的尺寸是1*1*5,第二样本数据对应的重建图像的层厚为2mm,且第二样本数据中每个体素的尺寸是1*1*2。根据预设尺寸为256*256*4,可以计算出第一样本数据对应的第一层数为4层,第二样本数据对应的第二层数为10层。之后,从第一样本数据中选取出与第一层数对应的第一块数据大小为256*256*4,从第二样本数据中选取出与第二层数对应的第二块数据大小为256*256*10。本公开实施例对预设尺寸不做限定。
步骤302,基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
在每一轮训练过程中,均按照上述步骤选取出第一块数据和第二块数据。之后,根据第一块数据和第二块数据进行神经网络训练,若确定训练结果不满足预设收敛条件,则调整神经网络中的网络参数,并进行下一轮第一块数据和第二块数据的选取以及神经网络的训练。直到确定训练结果满足预设收敛条件时结束训练,并将结束训练时的神经网络确定为循环生成对抗网络。上述网络参数即为循环生成对抗网络的网络参数。
在其中一个实施例中,从第二样本数据中选取出第二块数据后,对第二块数据进行插值得到第三块数据;基于第一块数据和第三块数据进行神经网络训练,得到循环生成对抗网络。其中,第二块数据对应的重建图像的层厚小于第三块数据对应的重建图像的层厚。
例如,第一样本数据对应的重建图像的层厚为5mm,第二样本数据对应的重建图像的层厚为2mm。对第二块数据进行插值处理得到第三块数据,第三块数据对应的重建图像的层厚为3mm。若基于第一块数据和第二块数据进行神经网络训练得到循环生成对抗网络,该循环生成对抗网络对第一医疗影像数据进行重建得到第二医疗影像数据,第一医疗影像数据对应的重建图像的层厚为5mm,第二医疗影像数据对应的重建图像的层厚为2mm。若基于第一块数据和第三块数据进行神经网络训练得到循环生成对抗网络,该循环生成对抗网络对第一医疗影像数据进行重建得到第二医疗影像数据,第一医疗影像数据对应的重建图像的层厚为5mm,第二医疗影像数据对应的重建图像的层厚为3mm。
在其中一个实施例中,根据多个第一预设尺寸和/或多个第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
例如,根据第一预设尺寸a选取出第一块数据和第二块数据进行第一轮神经网络训练;根据第一预设尺寸b选取出第一块数据和第二块数据进行第二轮神经网络训练;根据第一预设尺寸c选取出第一块数据和第三块数据进行第三轮神经网络训练,以此类推,直到训练出的神经网络满足预设收敛条件,得到循环生成对抗网络。其中,第一预设尺寸a、b、c可以为不同的尺寸。
上述基于训练样本集进行神经网络训练,得到循环生成对抗网络的过程中,终端分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据;基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
在一个实施例中,如图4所示,循环生成对抗网络包括第一生成器、第二生成器、第一判别器和第二判别器,如图5所示,上述基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络的步骤,可以包括:
步骤401,将第一块数据输入到第一生成器进行重建,得到第一生成结果。
终端将第一块数据输入到第一生成器中,第一生成器根据第一块数据进行数据重建处理得到第一生成结果。
其中,第一生成结果与第二块数据对应。例如,第一块数据是从诊疗对象A的胸部CT影像数据中选取出的厚层数据,第二块数据是从诊疗对象B的胸部CT影像数据中选取出的薄层数据,则由第一生成器进行重建得到与第二块数据层厚相同的薄层的第一生成结果,如图4所示。
步骤402,将第二块数据输入到第二生成器进行重建,得到第二生成结果。
终端将第二块数据输入到第二生成器中,第二生成器根据第二块数据进行数据重建处理得到第二生成结果。
其中,第二生成结果与第一块数据对应。例如,第一块数据是从诊疗对象A的胸部CT影像数据中选取出的厚层数据,第二块数据是从诊疗对象B的胸部CT影像数据中选取出的薄层数据,则由第二生成器进行重建得到与第一块数据层厚相同的厚层的第二生成结果,如图4所示。
本公开实施例对重建过程中第一生成器和第二生成器对输入数据的部位、器官不做限定。
步骤403,将第一生成结果输入到第二生成器进行重建,得到第三生成结果。
终端得到第一生成结果后,将第一生成结果输入到第二生成器,第二生成器根据第一生成结果进行数据重建得到第三生成结果。
其中,第三生成结果与第一块数据对应。例如,第一块数据是从诊疗对象A的胸部CT影像数据中选取出的厚层数据,第一生成结果是由诊疗对象A的胸部CT影像厚层数据重建得到的薄层数据,而第三生成结果则是由第二生成器对该重建薄层数据进行重建,得到与第一块数据相似的诊疗对象A的胸部CT影像重建厚层数据,如图4所示。
步骤404,将第二生成结果输入到第一生成器进行重建,得到第四生成结果。
终端得到第二生成结果后,将第二生成结果输入到第一生成器,第一生成器根据第二生成结果进行数据重建得到第四生成结果。
其中,第四生成结果与第二块数据对应。例如,第二块数据是从诊疗对象B的胸部CT影像数据中选取出的薄层数据,第二生成结果是由诊疗对象B的胸部CT影像数据薄层数据重建得到的厚层数据,而第四生成结果则是由第一生成器对该重建厚层数据进行重建,得到与第二块数据相似的诊疗对象B的胸部CT影像重建薄层数据,如图4所示。
步骤405,基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络。
其中,总损失值包括第一损失值和第二损失值。
终端得到第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果后,可以基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算出第一损失值,基于第一块数据、第二块数据、第一生成结果和第二生成结果计算出第二损失值;再利用第一损失值调整第一生成器和第二生成器的网络参数,利用第二损失值调整第一判别器和第二判别器的网络参数,得到循环生成对抗网络。
具体地,先固定第一判别器和第二判别器的网络参数,根据第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算第一损失值,根据第一损失值调整第一生成器和第二生成器的网络参数。之后,固定第一生成器和第二生成器的网络参数,根据第一块数据、第二块数据、第一生成结果和第二生成结果计算出第二损失值,根据第二损失值调整第一判别器和第二判别器的网络参数。以此类推,直到第一生成器、第二生成器、第一判别器和第二判别器的输出符合预设收敛条件,则结束训练,并将结束训练时得到的神经网络确定为循环生成对抗网络。
上述实施例中,终端将第一块数据输入到第一生成器进行重建,得到第一生成结果;将第二块数据输入到第二生成器进行重建,得到第二生成结果;将第一生成结果输入到第二生成器进行重建,得到第三生成结果;将第二生成结果输入到第一生成器进行重建,得到第四生成结果;基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络。在本公开实施例中,第一块数据和第二块数据之间是相对独立的,可以来自不同的诊疗对象的相同部位,也可以来自同一诊疗对象的不同部位,优选的是来自不同诊疗对象的不同部位,不仅可以减低数据获取的难度,而且训练之前无需预先对第一块数据和第二块数据进行配准或者建立对应关系等操作,因此,可以实现神经网络的无监督训练,从而节省训练标签的准备过程,进而提高循环生成对抗网络的训练效率。
在一个实施例中,如图6所示,上述第一损失值的计算过程包括:
步骤4051,将第二生成结果输入到第一判别器中,得到第一判别器输出的第一判别结果,计算第一判别结果与相同尺寸的全一数据之间的损失,得到第一生成对抗损失值。
其中,第一判别结果用于指示第二生成结果是否为真的第一块数据。例如,第一判别结果趋向于1,则表明第一判别器判断第二生成结果为真的第一块数据的概率较大;第一判别结果趋向于0,则表明第一判别器判断第二生成结果为假的第一块数据的概率较大;第一判别结果趋向于0.5,则表明第一判别器较难判别出第二生成结果是否为真的第一块数据。
终端将第二生成结果输入到第一判别器中,第一判别器判断第二生成结果是否为真的第一块数据,并输出第一判别结果,如图4所示。然后利用预先设置的损失函数计算第一判别结果与相同尺寸的全一数据之间的损失,得到第一生成对抗损失值。其中,全一数据为每个像素对应的概率均为1的数据。
步骤4052,将第一生成结果输入到第二判别器中,得到第二判别器输出的第二判别结果,计算第二判别结果与相同尺寸的全一数据之间的损失,得到第二生成对抗损失值。
其中,第二判别结果用于指示第一生成结果是否为真的第二块数据。例如,第二判别结果趋向于1,则表明第二判别器判断第一生成结果为真的第二块数据的概率较大;第二判别结果趋向于0,则表明第二判别器判断第一生成结果为假的第二块数据的概率较大;第二判别结果趋向于0.5,则表明第二判别器较难判别出第一生成结果是否为真的第二块数据。
终端将第一生成结果输入到第二判别器中,第二判别器判断第一生成结果是否为真的第二块数据,并输出第二判别结果,如图4所示。利用预先设置的损失函数计算第二判别结果与相同尺寸的全一数据之间的损失,得到第二生成对抗损失值。
步骤4053,计算第一块数据与第三生成结果之间的损失,得到第一循环对抗损失值,计算第二块数据与第四生成结果之间的损失,得到第二循环对抗损失值。
利用预先设置的损失函数计算第一块数据与第三生成结果之间的损失,得到第一循环对抗损失值。利用预先设置的损失函数计算第二块数据与第四生成结果之间的损失,得到第二循环对抗损失值。
上述损失函数可以为MSE(均方误差)函数,也可以为其他损失函数。本公开实施例对损失函数不做限定,可以根据实际情况进行选取。
步骤4054,对第一生成对抗损失值、第二生成对抗损失值、第一循环对抗损失值和第二循环对抗损失值进行加权求和计算,得到第一损失值。
例如,第一生成对抗损失值为l1、第二生成对抗损失值为l2、第一循环对抗损失值为l1’、第二循环对抗损失值为l2’,并且第一生成对抗损失值和第二生成对抗损失值的权重为k1,第一循环对抗损失值和第二循环对抗损失值的权重为k2,则第一损失值为L1=k1*(l1+l2)+k2*(l1’+l2’)。其中,k1:k2可以为1:10。本公开实施例对权重不做限定,可以根据实际情况进行设置。
上述l1可以采用如下公式计算:
l1=Ey[log(1-D1(G21(y)))]
上述l2可以采用如下公式计算:
l2=Ex[log(1-D2(G12(x)))]
上述l1’可以采用如下公式计算:
l1′=Ex[||x-G21(G12(x))||1]
上述l2’可以采用如下公式计算:
l2′=Ey[||y-G12(G21(y))||1]
其中,x为第一块数据,y为第二块数据,G12(x)为第一生成结果,G21(y)为第二生成结果,G21(G12(x))为第三生成结果,G12(G21(y))为第四生成结果,D1(G21(y))为第一判别结果,D2(G12(x))为第二判别结果。
上述实施例中,终端基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算第一失值。在这个过程中,利用生成器的生成结果和判别器的判别结果得到第一损失值,可以更好地调节神经网络中第一生成器和第二生成器的网络参数,进而提高生成器生成的准确度。
在一个实施例中,如图7所示,上述第二损失值的计算过程,可以包括:
步骤4055,计算第一判别结果与相同尺寸的全零数据之间的损失,得到第三生成对抗损失值。
终端利用预先设置的损失函数计算第一判别结果与相同尺寸的全零数据之间的损失,得到第三生成对抗损失值。其中,全零数据为每个像素对应的概率均为0的数据。
步骤4056,将第一块数据输入到第一判别器中,得到第一判别器输出的第三判别结果,计算第三判别结果与相同尺寸的全一数据之间的损失,得到第四生成对抗损失值。
其中,第三判别结果用于指示输入的第一块数据是否为真的第一块数据。例如,第三判别结果趋向于1,则表明第一判别器判断输入的第一块数据为真的第一块数据的概率较大;第三判别结果趋向于0,则表明第一判别器判断输入的第一块数据为假的第一块数据的概率较大;第三判别结果趋向于0.5,则表明第一判别器较难判别出输入的第一块数据是否为真的第一块数据。
终端将第一块数据输入到第一判别器中,得到第一判别器输出的第三判别结果,之后,利用预先设置的损失函数计算第三判别结果与相同尺寸的全一数据之间的损失,得到第四生成对抗损失值。
步骤4057,计算第二判别结果与相同尺寸的全零数据之间的损失,得到第五生成对抗损失值。
终端利用预先设置的损失函数计算第二判别结果与相同尺寸的全零数据之间的损失,得到第五生成对抗损失值。
步骤4058,将第二块数据输入到第二判别器中,得到第二判别器输出的第四判别结果,计算第四判别结果与相同尺寸的全一数据之间的损失,得到第六生成对抗损失值。
其中,第四判别结果用于指示输入的第二块数据是否为真的第二块数据。例如,第四判别结果趋向于1,则表明第二判别器判断输入的第二块数据为真的第二块数据的概率较大;第四判别结果趋向于0,则表明第二判别器判断输入的第二块数据为假的第二块数据的概率较大;第四判别结果趋向于0.5,则表明第二判别器较难判别出输入的第二块数据是否为真的第二块数据。
终端将第二块数据输入到第二判别器中,得到第二判别器输出的第四判别结果,之后,利用预先设置的损失函数计算第四判别结果与相同尺寸的全一数据之间的损失,得到第六生成对抗损失值。
步骤4059,对第三生成对抗损失值、第四生成对抗损失值、第五生成对抗损失值和第六生成对抗损失值进行加权求和计算,得到第二损失值。
例如,第三年生成对抗损失值为l3、第四生成对抗损失值为l4、第五生成对抗损失值为l5、第六生成对抗损失值为l6,并且第三生成对抗损失值、第四生成对抗损失值的权重值为k3、第五生成对抗损失值和第六生成对抗损失值的权重值为k4,则第二损失值为L2=k3*(l3+l4)+k4*(l5+l6)。其中,k3和k4可以为0.5。本公开实施例对权重不做限定,可以根据实际情况进行设置。
上述l3可以采用如下公式计算:
l3=Ey[log(0-D1(G21(y)))]
上述l4可以采用如下公式计算:
l4=Ex[log(1-D1(x))]
上述l5可以采用如下公式计算:
l5=Ex[log(0-D2(G12(x)))]
上述l6可以采用如下公式计算:
l6=Ey[log(1-D2(y))]
其中,,x为第一块数据,y为第二块数据,G12(x)为第一生成结果,G21(y)为第二生成结果,G21(G12(x))为第三生成结果,G12(G21(y))为第四生成结果,D1(G21(y))为第一判别结果,D2(G12(x))为第二判别结果,D1(x)为第三判别结果,D2(y)为第四判别结果。
上述实施例中,终端根据第一块数据、第二块数据、第一生成结果和第二生成结果计算出第二损失值。在这个过程中,利用生成器的生成结果和判别器的判别结果得到损失值,从而可以更好地调节神经网络中的第一判别器和第二判别器的网络参数,进而提高判别器判断的准确度。
在一个实施例中,如图8所示,提供了一种医疗影像数据生成方法,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
步骤501,获取第一医疗影像数据。
终端可以从医学扫描设备获取第一医疗影像,也可以从PACS服务器获取第一医疗影像数据。本公开实施例对此不做限定。
步骤502,利用预先训练的影像数据生成模型对第一医疗影像数据进行重建,得到第二医疗影像数据。
其中,影像数据生成模型包括循环生成对抗网络。
在实际使用中,可以根据实际情况利用循环生成对抗网络中的不同部分。例如,期望对低分辨率的医疗影像数据进行重建,得到高分辨率的医疗影像数据,则可以将第一医疗影像数据输入到循环生成对抗网络中的第一生成器,由第一生成器根据第一医疗影像数据进行重建并输出第二医疗影像数据。第二医疗影像数据的层厚分辨率高于第一医疗影像数据的层厚分辨率,即第二医疗影像数据对应的重建图像的层厚小于第一医疗影像数据对应的重建图像的层厚。
或者,期望对高分辨率的医疗影像数据进行重建,得到低分辨率的医疗影像数据,则可以将第一医疗影像数据输入到循环生成对抗网络中的第二生成器,由第二生成器根据第一医疗影像数据进行重建并输出第二医疗影像数据。第二医疗影像数据的分辨率低于第一医疗影像数据的分辨率,即第二医疗影像数据对应的重建图像的层厚大于第一医疗影像数据对应的重建图像的层厚。
其中,循环生成对抗网络的训练过程,可以包括:获取训练样本集;训练样本集包括多个第一样本数据和对应的第二样本数据;基于训练样本集进行神经网络训练,得到循环生成对抗网络。上述第二样本数据对应的重建图像的层厚小于上述第一样本数据对应的重建图像的层厚。
在其中一个实施例中,上述基于训练样本集进行神经网络训练,得到循环生成对抗网络的过程,可以包括:分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据;基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
在其中一个实施例中,上述分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据的过程,可以包括:根据第一预设尺寸分别计算第一样本数据对应的第一层数和第二样本数据对应的第二层数;从第一样本数据中选取出与第一层数对应的第一块数据;从第二样本数据中选取出与第二层数对应的第二块数据。
在其中一个实施例中,还可以包括:根据多个第一预设尺寸和/或多个第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
在其中一个实施例中,循环生成对抗网络包括第一生成器和第二生成器,上述基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络的过程,可以包括:将第一块数据输入到第一生成器进行重建,得到第一生成结果;将第二块数据输入到第二生成器进行重建,得到第二生成结果;将第一生成结果输入到第二生成器进行重建,得到第三生成结果;将第二生成结果输入到第一生成器进行重建,得到第四生成结果;基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络。
在其中一个实施例中,循环生成对抗网络还包括第一判别器和第二判别器,总损失值包括第一损失值和第二损失值,上述基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络的过程,可以包括:基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算出第一损失值,基于第一块数据、第二块数据、第一生成结果和第二生成结果计算出第二损失值;利用第一损失值调整第一生成器和第二生成器的网络参数,利用第二损失值调整第一判别器和第二判别器的网络参数,得到循环生成对抗网络。
在其中一个实施例中,第一损失值的计算过程包括:将第二生成结果输入到第一判别器中,得到第一判别器输出的第一判别结果,计算第一判别结果与相同尺寸的全一数据之间的损失,得到第一生成对抗损失值;第一判别结果用于指示第二生成结果是否为真的第一块数据;将第一生成结果输入到第二判别器中,得到第二判别器输出的第二判别结果,计算第二判别结果与相同尺寸的全一数据之间的损失,得到第二生成对抗损失值;第二判别结果用于指示第一生成结果是否为真的第二块数据;计算第一块数据与第三生成结果之间的损失,得到第一循环对抗损失值,计算第二块数据与第四生成结果之间的损失,得到第二循环对抗损失值;对第一生成对抗损失值、第二生成对抗损失值、第一循环对抗损失值和第二循环对抗损失值进行加权求和计算,得到第一损失值。
在其中一个实施例中,第二损失值的计算过程包括:计算第一判别结果与相同尺寸的全零数据之间的损失,得到第三生成对抗损失值;将第一块数据输入到第一判别器中,得到第一判别器输出的第三判别结果,计算第三判别结果与相同尺寸的全一数据之间的损失,得到第四生成对抗损失值;计算第二判别结果与相同尺寸的全零数据之间的损失,得到第五生成对抗损失值;将第二块数据输入到第二判别器中,得到第二判别器输出的第四判别结果,计算第四判别结果与相同尺寸的全一数据之间的损失,得到第六生成对抗损失值;对第三生成对抗损失值、第四生成对抗损失值、第五生成对抗损失值和第六生成对抗损失值进行加权求和计算,得到第二损失值。
上述医疗影像数据生成方法中,终端获取第一医疗影像数据;利用预先训练的影像数据生成模型对第一医疗影像数据进行重建,得到第二医疗影像数据。与现有技术中的插值方式相比,本公开实施例利用预先训练的影像数据生成模型可以生成分辨率满足用户需求的图像,不仅可以得到质量较佳的图像,而且可以满足分析任务的需求。
在一个实施例中,如图9所示,上述利用预先训练的影像数据生成模型对第一医疗影像数据进行重建,得到第二医疗影像数据的步骤,可以包括:
步骤5021,根据第二预设尺寸和第一医疗影像数据得到多个输入影像数据。
终端获取到第一医疗影像数据后,根据第二预设尺寸从第一医疗影像数据中选取出多个输入影像数据。其中,每相邻两个输入影像数据之间可以重叠,也可以不重叠。
例如,输入影像数据1与输入影像数据2之间存在50%重叠部分;输入影像数据2与输入影像数据3之间存在50%重叠部分。本公开实施例对重叠部分的大小不做限定。
其中,第二预设尺寸可以是上述实施例中多个第一预设尺寸中的任意一个。
步骤5022,将多个输入影像数据依次输入到影像数据生成模型中进行重建,得到影像数据生成模型输出的各输入影像数据对应的输出影像数据。
在获得多个输入影像数据之后,如果要对低分辨率的医疗影像数据进行重建得到高分辨率的医疗影像数据,则将多个输入影像数据依次输入到影像数据生成模型的第一生成器中,得到第一生成器输出的各输入影像数据对应的输出影像数据。
如果要对高分辨率的医疗影像数据进行重建得到低分辨率的医疗影像数据,则将多个输入影像数据依次输入到影像数据生成模型的第二生成器中,得到第二生成器输出的各输入影像数据对应的输出影像数据。
步骤5023,对多个输出影像数据进行合成处理,得到第二医疗影像数据。
如果多个输入影像数据之间不存在重叠部分,在得到多个输出影像数据后,可以将多个输出影像数据按照输入影像数据的位置进行拼接处理,得到第二医疗影像数据。
如果多个输入影像数据之间存在重叠部分,在得到多个输出影像数据后,可以对各输出影像数据进行高斯加权计算,得到各输出影像数据对应的加权影像数据;然后,对多个加权影像数据进行平均计算,得到第二医疗影像数据。
如图10所示,首先构建两个第一医疗影像数据尺寸维度的矩阵,一个矩阵放置网络输出的结果,称为结果矩阵,一个矩阵放置权重,称为权重矩阵。例如在第一医疗影像数据左上角开始提取两个重叠块,如第一色块和第二色块经网络处理。假定输出的尺寸是256*256*10。那么构建同样256*256*10大小的,归一化到0到1之间的两个高斯矩阵。拼接回去的时候,在结果矩阵中第一色块和第二色块的位置放置网络对应的输出结果,在权重矩阵同样位置放置高斯矩阵结果。两个块的输出在结果矩阵和权重矩阵重叠部位直接相加。重复上述过程直到遍历完整个第一医疗影像数据后,直接将结果矩阵对应位置的值除以权重矩阵,就得到加权平均后的第二医疗影像数据。
在实际应用中,还可以采用其他合成处理方式,本公开实施例对此不做限定。
上述实施例中,根据第二预设尺寸从第一医疗影像数据中选取出输入影像数据,利用影像数据生成模型生成输出影像数据,进而根据多个输出影像得到分辨率满足用户需求的第二医疗影像数据。这样,不仅可以得到质量较佳的图像,还可以满足分析任务的需求。
应该理解的是,虽然图2至图9的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2至图9中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图11所示,提供了一种生成对抗网络训练装置,包括:
样本获取模块601,用于获取训练样本集;所述训练样本集包括多个第一样本数据和对应的第二样本数据;所述第二样本数据对应的重建图像的层厚小于所述第一样本数据对应的重建图像的层厚;
训练模块602,用于基于所述训练样本集进行神经网络训练,得到循环生成对抗网络。
在其中一个实施例中,上述训练模块602包括:
数据选取子模块,用于分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据;
训练子模块,用于基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络;
其中,数据选取子模块,具体用于根据第一预设尺寸分别计算第一样本数据对应的第一层数和第二样本数据对应的第二层数;从第一样本数据中选取出与第一层数对应的第一块数据;从第二样本数据中选取出与第二层数对应的第二块数据。
在其中一个实施例中,上述训练模块,还用于根据多个第一预设尺寸和/或多个第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
在其中一个实施例中,循环生成对抗网络包括第一生成器和第二生成器,上述训练子模块,包括:
第一重建单元,用于将第一块数据输入到第一生成器进行重建,得到第一生成结果;
第二重建单元,用于将第二块数据输入到第二生成器进行重建,得到第二生成结果;
第三重建单元,用于将第一生成结果输入到第二生成器进行重建,得到第三生成结果;
第四重建单元,用于将第二生成结果输入到第一生成器进行重建,得到第四生成结果;
训练单元,用于基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络。
在其中一个实施例中,循环生成对抗网络还包括第一判别器和第二判别器,总损失值包括第一损失值和第二损失值,上述训练单元,基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算出第一损失值,基于第一块数据、第二块数据、第一生成结果和第二生成结果计算出第二损失值;利用第一损失值调整第一生成器和第二生成器的网络参数,利用第二损失值调整第一判别器和第二判别器的网络参数,得到循环生成对抗网络。
在其中一个实施例中,上述训练单元,具体用于将第二生成结果输入到第一判别器中,得到第一判别器输出的第一判别结果,计算第一判别结果与相同尺寸的全一数据之间的损失,得到第一生成对抗损失值;第一判别结果用于指示第二生成结果是否为真的第一块数据;将第一生成结果输入到第二判别器中,得到第二判别器输出的第二判别结果,计算第二判别结果与相同尺寸的全一数据之间的损失,得到第二生成对抗损失值;第二判别结果用于指示第一生成结果是否为真的第二块数据;计算第一块数据与第三生成结果之间的损失,得到第一循环对抗损失值,计算第二块数据与第四生成结果之间的损失,得到第二循环对抗损失值;对第一生成对抗损失值、第二生成对抗损失值、第一循环对抗损失值和第二循环对抗损失值进行加权求和计算,得到第一损失值。
在其中一个实施例中,上述训练单元,具体用于计算第一判别结果与相同尺寸的全零数据之间的损失,得到第三生成对抗损失值;将第一块数据输入到第一判别器中,得到第一判别器输出的第三判别结果,计算第三判别结果与相同尺寸的全一数据之间的损失,得到第四生成对抗损失值;计算第二判别结果与相同尺寸的全零数据之间的损失,得到第五生成对抗损失值;将第二块数据输入到第二判别器中,得到第二判别器输出的第四判别结果,计算第四判别结果与相同尺寸的全一数据之间的损失,得到第六生成对抗损失值;对第三生成对抗损失值、第四生成对抗损失值、第五生成对抗损失值和第六生成对抗损失值进行加权求和计算,得到第二损失值。
关于生成对抗网络训练装置的具体限定可以参见上文中对于生成对抗网络训练方法的限定,在此不再赘述。上述生成对抗网络训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,如图12所示,一种医疗影像数据生成装置,该装置包括:
数据获取模块701,用于获取第一医疗影像数据;
数据生成模块702,用于利用预先训练的影像数据生成模型对第一医疗影像数据进行重建,得到第二医疗影像数据;
其中,影像数据生成模型包括上述实施例的循环生成对抗网络。
在其中一个实施例中,上述数据生成模块702包括:
数据获得子模块,用于根据第二预设尺寸和第一医疗影像数据得到多个输入影像数据;
重建子模块,用于将多个输入影像数据依次输入到影像数据生成模型中进行重建,得到影像数据生成模型输出的各输入影像数据对应的输出影像数据;
合成子模块,用于对多个输出影像数据进行合成处理,得到第二医疗影像数据。
在其中一个实施例中,上述合成子模块,具体用于对各输出影像数据进行高斯加权计算,得到各输出影像数据对应的加权影像数据;对多个加权影像数据进行平均计算,得到第二医疗影像数据。
关于医疗影像数据生成装置的具体限定可以参见上文中对于医疗影像数据生成方法的限定,在此不再赘述。上述医疗影像数据生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图13所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种生成对抗网络训练方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图13中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取训练样本集;训练样本集包括多个第一样本数据和对应的第二样本数据;第二样本数据对应的重建图像的层厚小于第一样本数据对应的重建图像的层厚;
基于训练样本集进行神经网络训练,得到循环生成对抗网络。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据;
基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络;
其中,分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据,包括:
根据第一预设尺寸分别计算第一样本数据对应的第一层数和第二样本数据对应的第二层数;
从第一样本数据中选取出与第一层数对应的第一块数据;
从第二样本数据中选取出与第二层数对应的第二块数据。
在其中一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据多个第一预设尺寸和/或多个第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将第一块数据输入到第一生成器进行重建,得到第一生成结果;
将第二块数据输入到第二生成器进行重建,得到第二生成结果;
将第一生成结果输入到第二生成器进行重建,得到第三生成结果;
将第二生成结果输入到第一生成器进行重建,得到第四生成结果;
基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络。
在一个实施例中,总损失值包括第一损失值和第二损失值,处理器执行计算机程序时还实现以下步骤:
基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算出第一损失值,基于第一块数据、第二块数据、第一生成结果和第二生成结果计算出第二损失值;
利用第一损失值调整第一生成器和第二生成器的网络参数,利用第二损失值调整第一判别器和第二判别器的网络参数,得到循环生成对抗网络。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将第二生成结果输入到第一判别器中,得到第一判别器输出的第一判别结果,计算第一判别结果与相同尺寸的全一数据之间的损失,得到第一生成对抗损失值;第一判别结果用于指示第二生成结果是否为真的第一块数据;
将第一生成结果输入到第二判别器中,得到第二判别器输出的第二判别结果,计算第二判别结果与相同尺寸的全一数据之间的损失,得到第二生成对抗损失值;第二判别结果用于指示第一生成结果是否为真的第二块数据;
计算第一块数据与第三生成结果之间的损失,得到第一循环对抗损失值,计算第二块数据与第四生成结果之间的损失,得到第二循环对抗损失值;
对第一生成对抗损失值、第二生成对抗损失值、第一循环对抗损失值和第二循环对抗损失值进行加权求和计算,得到第一损失。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
计算第一判别结果与相同尺寸的全零数据之间的损失,得到第三生成对抗损失值;
将第一块数据输入到第一判别器中,得到第一判别器输出的第三判别结果,计算第三判别结果与相同尺寸的全一数据之间的损失,得到第四生成对抗损失值;
计算第二判别结果与相同尺寸的全零数据之间的损失,得到第五生成对抗损失值;
将第二块数据输入到第二判别器中,得到第二判别器输出的第四判别结果,计算第四判别结果与相同尺寸的全一数据之间的损失,得到第六生成对抗损失值;
对第三生成对抗损失值、第四生成对抗损失值、第五生成对抗损失值和第六生成对抗损失值进行加权求和计算,得到第二损失值。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取训练样本集;训练样本集包括多个第一样本数据和对应的第二样本数据;第二样本数据对应的重建图像的层厚小于第一样本数据对应的重建图像的层厚;
基于训练样本集进行神经网络训练,得到循环生成对抗网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据;
基于第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络;
其中,分别从第一样本数据和第二样本数据中选取出第一块数据和第二块数据,包括:
根据第一预设尺寸分别计算第一样本数据对应的第一层数和第二样本数据对应的第二层数;
从第一样本数据中选取出与第一层数对应的第一块数据;
从第二样本数据中选取出与第二层数对应的第二块数据。
在其中一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据多个第一预设尺寸和/或多个第一块数据和第二块数据进行神经网络训练,得到循环生成对抗网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将第一块数据输入到第一生成器进行重建,得到第一生成结果;
将第二块数据输入到第二生成器进行重建,得到第二生成结果;
将第一生成结果输入到第二生成器进行重建,得到第三生成结果;
将第二生成结果输入到第一生成器进行重建,得到第四生成结果;
基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算总损失值,并根据总损失值调整网络参数得到循环生成对抗网络。
在一个实施例中,总损失值包括第一损失值和第二损失值,计算机程序被处理器执行时还实现以下步骤:
基于第一块数据、第二块数据、第一生成结果、第二生成结果、第三生成结果和第四生成结果计算出第一损失值,基于第一块数据、第二块数据、第一生成结果和第二生成结果计算出第二损失值;
利用第一损失值调整第一生成器和第二生成器的网络参数,利用第二损失值调整第一判别器和第二判别器的网络参数,得到循环生成对抗网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将第二生成结果输入到第一判别器中,得到第一判别器输出的第一判别结果,计算第一判别结果与相同尺寸的全一数据之间的损失,得到第一生成对抗损失值;第一判别结果用于指示第二生成结果是否为真的第一块数据;
将第一生成结果输入到第二判别器中,得到第二判别器输出的第二判别结果,计算第二判别结果与相同尺寸的全一数据之间的损失,得到第二生成对抗损失值;第二判别结果用于指示第一生成结果是否为真的第二块数据;
计算第一块数据与第三生成结果之间的损失,得到第一循环对抗损失值,计算第二块数据与第四生成结果之间的损失,得到第二循环对抗损失值;
对第一生成对抗损失值、第二生成对抗损失值、第一循环对抗损失值和第二循环对抗损失值进行加权求和计算,得到第一损失。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
计算第一判别结果与相同尺寸的全零数据之间的损失,得到第三生成对抗损失值;
将第一块数据输入到第一判别器中,得到第一判别器输出的第三判别结果,计算第三判别结果与相同尺寸的全一数据之间的损失,得到第四生成对抗损失值;
计算第二判别结果与相同尺寸的全零数据之间的损失,得到第五生成对抗损失值;
将第二块数据输入到第二判别器中,得到第二判别器输出的第四判别结果,计算第四判别结果与相同尺寸的全一数据之间的损失,得到第六生成对抗损失值;
对第三生成对抗损失值、第四生成对抗损失值、第五生成对抗损失值和第六生成对抗损失值进行加权求和计算,得到第二损失值。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (14)

1.一种生成对抗网络训练方法,其特征在于,所述方法包括:
获取训练样本集;所述训练样本集包括多个第一样本数据和对应的第二样本数据;所述第二样本数据对应的重建图像的层厚小于所述第一样本数据对应的重建图像的层厚;
基于所述训练样本集进行神经网络训练,得到循环生成对抗网络。
2.根据权利要求1所述的方法,其特征在于,所述基于所述训练样本集进行神经网络训练,得到所述循环生成对抗网络,包括:
分别从所述第一样本数据和所述第二样本数据中选取出第一块数据和第二块数据;
基于所述第一块数据和所述第二块数据进行神经网络训练,得到所述循环生成对抗网络。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
根据多个所述第一块数据和所述第二块数据进行神经网络训练,得到所述循环生成对抗网络。
4.根据权利要求2所述的方法,其特征在于,所述循环生成对抗网络包括第一生成器和第二生成器,所述基于所述第一块数据和所述第二块数据进行神经网络训练,得到所述循环生成对抗网络,包括:
将所述第一块数据输入到所述第一生成器进行重建,得到第一生成结果;
将所述第二块数据输入到所述第二生成器进行重建,得到第二生成结果;
将所述第一生成结果输入到所述第二生成器进行重建,得到第三生成结果;
将所述第二生成结果输入到所述第一生成器进行重建,得到第四生成结果;
基于所述第一块数据、所述第二块数据、所述第一生成结果、所述第二生成结果、所述第三生成结果和所述第四生成结果计算总损失值,并根据所述总损失值调整网络参数得到所述循环生成对抗网络。
5.根据权利要求4所述的方法,其特征在于,所述循环生成对抗网络还包括第一判别器和第二判别器,所述总损失值包括第一损失值和第二损失值,所述基于所述第一块数据、所述第二块数据、所述第一生成结果、所述第二生成结果、所述第三生成结果和所述第四生成结果计算总损失值,并根据所述总损失值调整网络参数得到所述循环生成对抗网络,包括:
基于所述第一块数据、所述第二块数据、所述第一生成结果、所述第二生成结果、所述第三生成结果和所述第四生成结果计算出所述第一损失值,基于所述第一块数据、所述第二块数据、所述第一生成结果和所述第二生成结果计算出所述第二损失值;
利用所述第一损失值调整所述第一生成器和所述第二生成器的网络参数,利用所述第二损失值调整所述第一判别器和所述第二判别器的网络参数,得到所述循环生成对抗网络。
6.根据权利要求5所述的方法,其特征在于,所述第一损失值的计算过程包括:
将所述第二生成结果输入到所述第一判别器中,得到所述第一判别器输出的第一判别结果,计算所述第一判别结果与相同尺寸的全一数据之间的损失,得到第一生成对抗损失值;所述第一判别结果用于指示所述第二生成结果是否为真的第一块数据;
将所述第一生成结果输入到所述第二判别器中,得到所述第二判别器输出的第二判别结果,计算所述第二判别结果与相同尺寸的全一数据之间的损失,得到第二生成对抗损失值;所述第二判别结果用于指示所述第一生成结果是否为真的第二块数据;
计算所述第一块数据与所述第三生成结果之间的损失,得到第一循环对抗损失值,计算所述第二块数据与所述第四生成结果之间的损失,得到第二循环对抗损失值;
对所述第一生成对抗损失值、所述第二生成对抗损失值、所述第一循环对抗损失值和所述第二循环对抗损失值进行加权求和计算,得到所述第一损失值。
7.根据权利要求5所述的方法,其特征在于,所述第二损失值的计算过程包括:
计算所述第一判别结果与相同尺寸的全零数据之间的损失,得到第三生成对抗损失值;
将所述第一块数据输入到所述第一判别器中,得到所述第一判别器输出的第三判别结果,计算所述第三判别结果与相同尺寸的全一数据之间的损失,得到第四生成对抗损失值;
计算所述第二判别结果与相同尺寸的全零数据之间的损失,得到第五生成对抗损失值;
将所述第二块数据输入到所述第二判别器中,得到所述第二判别器输出的第四判别结果,计算所述第四判别结果与相同尺寸的全一数据之间的损失,得到第六生成对抗损失值;
对所述第三生成对抗损失值、所述第四生成对抗损失值、所述第五生成对抗损失值和所述第六生成对抗损失值进行加权求和计算,得到所述第二损失值。
8.一种医疗影像数据生成方法,其特征在于,所述方法包括:
获取第一医疗影像数据;
利用预先训练的影像数据生成模型对所述第一医疗影像数据进行重建,得到第二医疗影像数据;
其中,所述影像数据生成模型包括循环生成对抗网络。
9.根据权利要求8所述的方法,其特征在于,所述利用预先训练的影像数据生成模型对所述第一医疗影像数据进行重建,得到第二医疗影像数据,包括:
根据第二预设尺寸和所述第一医疗影像数据得到多个输入影像数据;
将所述多个输入影像数据依次输入到所述影像数据生成模型中进行重建,得到所述影像数据生成模型输出的各所述输入影像数据对应的输出影像数据;
对多个所述输出影像数据进行合成处理,得到所述第二医疗影像数据。
10.根据权利要求9所述的方法,其特征在于,所述对多个所述输出影像数据进行合成处理,得到所述第二医疗影像数据,包括:
对各所述输出影像数据进行高斯加权计算,得到各所述输出影像数据对应的加权影像数据;
对多个所述加权影像数据进行平均计算,得到所述第二医疗影像数据。
11.一种生成对抗网络的训练装置,其特征在于,所述装置包括:
样本获取模块,用于获取训练样本集;所述训练样本集包括多个第一样本数据和对应的第二样本数据;所述第二样本数据对应的重建图像的层厚小于所述第一样本数据对应的重建图像的层厚;
训练模块,用于基于所述训练样本集进行神经网络训练,得到循环生成对抗网络。
12.一种医疗影像数据生成装置,其特征在于,所述装置包括:
数据获取模块,用于获取第一医疗影像数据;
数据生成模块,用于利用预先训练的影像数据生成模型对所述第一医疗影像数据进行重建,得到第二医疗影像数据;
其中,所述影像数据生成模型包括循环生成对抗网络。
13.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至10中任一项所述的方法的步骤。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至10中任一项所述的方法的步骤。
CN202110930101.9A 2021-08-13 2021-08-13 生成对抗网络训练方法、装置、计算机设备和存储介质 Pending CN113780519A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110930101.9A CN113780519A (zh) 2021-08-13 2021-08-13 生成对抗网络训练方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110930101.9A CN113780519A (zh) 2021-08-13 2021-08-13 生成对抗网络训练方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN113780519A true CN113780519A (zh) 2021-12-10

Family

ID=78837626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110930101.9A Pending CN113780519A (zh) 2021-08-13 2021-08-13 生成对抗网络训练方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN113780519A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116579414A (zh) * 2023-03-24 2023-08-11 北京医准智能科技有限公司 模型训练方法、mri薄层数据重建方法、装置及设备
CN117351032A (zh) * 2023-10-23 2024-01-05 杭州核新软件技术有限公司 一种印章去除方法和系统
CN117351032B (zh) * 2023-10-23 2024-06-07 杭州核新软件技术有限公司 一种印章去除方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178502A (zh) * 2019-12-12 2020-05-19 中国科学院深圳先进技术研究院 循环生成对抗网络模型的训练方法、系统以及电子设备
CN112767505A (zh) * 2020-12-31 2021-05-07 深圳市联影高端医疗装备创新研究院 图像处理方法、训练方法、装置、电子终端及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178502A (zh) * 2019-12-12 2020-05-19 中国科学院深圳先进技术研究院 循环生成对抗网络模型的训练方法、系统以及电子设备
CN112767505A (zh) * 2020-12-31 2021-05-07 深圳市联影高端医疗装备创新研究院 图像处理方法、训练方法、装置、电子终端及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吴良斌: "SAR图像处理与目标识别", 31 January 2013, 航空工业出版社, pages: 4 *
汪鸿浩等: "基于改进循环对抗网络的异质人脸合成配准", 计算机工程与设计, vol. 42, no. 6, 30 June 2021 (2021-06-30), pages 1 - 3 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116579414A (zh) * 2023-03-24 2023-08-11 北京医准智能科技有限公司 模型训练方法、mri薄层数据重建方法、装置及设备
CN116579414B (zh) * 2023-03-24 2024-04-02 浙江医准智能科技有限公司 模型训练方法、mri薄层数据重建方法、装置及设备
CN117351032A (zh) * 2023-10-23 2024-01-05 杭州核新软件技术有限公司 一种印章去除方法和系统
CN117351032B (zh) * 2023-10-23 2024-06-07 杭州核新软件技术有限公司 一种印章去除方法和系统

Similar Documents

Publication Publication Date Title
CN111462020B (zh) 心脏图像的运动伪影校正方法、系统、存储介质和设备
CN111080584B (zh) 医学图像的质控方法、计算机设备和可读存储介质
US20140350953A1 (en) Method for sharing medical image data based on cloud platform, cloud platform and system
CN111179372B (zh) 图像衰减校正方法、装置、计算机设备和存储介质
CN109754447A (zh) 图像生成方法、装置、设备和存储介质
CN112435341B (zh) 三维重建网络的训练方法及装置、三维重建方法及装置
CN113272869A (zh) 医学成像中从定位片进行三维形状重构
CN111028212B (zh) 关键点检测方法、装置、计算机设备和存储介质
CN110415310A (zh) 医学扫描成像方法、装置、存储介质及计算机设备
CN112150571A (zh) 一种图像运动伪影消除方法、装置、设备及存储介质
CN111243052A (zh) 图像重建方法、装置、计算机设备和存储介质
CN113192031B (zh) 血管分析方法、装置、计算机设备和存储介质
CN111223158A (zh) 心脏冠脉图像的伪影校正方法和可读存储介质
CN113780519A (zh) 生成对抗网络训练方法、装置、计算机设备和存储介质
CN110673070B (zh) 磁共振信号校正网络的训练方法和磁共振信号处理方法
CN111161369B (zh) 图像重建存储方法、装置、计算机设备和存储介质
CN115836872A (zh) 扫描舱偏移确定方法、装置、系统、计算机设备及介质
CN115375840A (zh) 图像重建方法、装置、系统、计算机设备和存储介质
CN115205415A (zh) Ct均值图像生成方法、装置、系统和计算机设备
CN112669405B (zh) 图像重建方法、系统、可读存储介质和设备
CN117355850A (zh) 机器学习模型的训练方法、装置、计算机设备和存储介质
CN114926513A (zh) 图像配准融合方法、装置、系统、计算机设备和存储介质
US20230099906A1 (en) Image registration method, computer device, and storage medium
US20220406047A1 (en) Probabilistic regularization of convolutional neurual networks for multiple-feature detection based on correlations
CN115861470A (zh) 图像伪影校正方法、装置、设备、存储介质和程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination