CN116579414A - 模型训练方法、mri薄层数据重建方法、装置及设备 - Google Patents

模型训练方法、mri薄层数据重建方法、装置及设备 Download PDF

Info

Publication number
CN116579414A
CN116579414A CN202310310405.4A CN202310310405A CN116579414A CN 116579414 A CN116579414 A CN 116579414A CN 202310310405 A CN202310310405 A CN 202310310405A CN 116579414 A CN116579414 A CN 116579414A
Authority
CN
China
Prior art keywords
layer data
reconstructed
thin layer
generator
dense
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310310405.4A
Other languages
English (en)
Other versions
CN116579414B (zh
Inventor
孙安澜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yizhun Medical AI Co Ltd
Original Assignee
Beijing Yizhun Medical AI Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yizhun Medical AI Co Ltd filed Critical Beijing Yizhun Medical AI Co Ltd
Priority to CN202310310405.4A priority Critical patent/CN116579414B/zh
Publication of CN116579414A publication Critical patent/CN116579414A/zh
Application granted granted Critical
Publication of CN116579414B publication Critical patent/CN116579414B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本说明书公开了一种模型训练方法、MRI薄层数据重建方法、装置及设备,包括:获取厚层数据和薄层数据;所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的第一厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第一薄层数据;基于稀疏判别器对所述重建的第一厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数。

Description

模型训练方法、MRI薄层数据重建方法、装置及设备
技术领域
本说明书涉及医学影像及计算机技术领域,尤其涉及一种模型训练方法、MRI薄层数据重建方法、装置及设备。
背景技术
一般在医院检查中,最常见的扫描都是厚层扫描,尤其在膝关节MRI检查中,设备检测输出的图像都是10mm等厚度的厚层图。这就使得一些需要依据组织三维结构进行分析的算法难以实施,比如,精确的知道一个半月板层面属于前角后角还是体部,就需要明确知道半月板的三维结构;再比如,对于软骨病和膝关节表面结构的一些分析工作也需要薄层的扫描影像才能得到结果。但薄层扫描相当费时,对于一些受伤的患者是难以完成的任务,所以从厚层扫描中重建薄层影像数据成为了一个很有价值的任务。
目前基于厚层影像数据重建薄层影像数据,常用的一种方法是基于3D-Unet和LSTM(Long short-term memory,长短期记忆)对配准后的厚层数据进行重建,该方法很难保证生成高清结果;另一种常用的方法是使用全连接网络和特殊位置编码的方式进行重建,该方法尽管在理论上能够生成高清结果,但是现有严重依赖于超参数的选取,并且需要针对每一幅影像重新训练,非常耗时。
基于此,需要一种新的薄层重建的方法。
发明内容
本说明书实施例提供一种膝关节MRI薄层重建的方法、装置及设备,用于解决以下技术问题:现有技术中,高清的薄层影像的重建过程中,需要严重依赖于超参数的选取,且需要针对每一幅影像重新训练,耗时巨大,无法推广使用。
为解决上述技术问题,本说明书实施例是这样实现的:
本说明书实施例提供的一种模型训练方法,该方法包括:
获取厚层数据和薄层数据;
所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据;
基于稀疏判别器对所述重建的第一厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型;
其中,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数。
本说明书实施例提供一种MRI薄层数据重建方法,该方法包括:
获得MRI厚层影像数据;
将所述MRI厚层影像数据输入薄层数据重建模型的稠密生成器,获得重建的MRI薄层影像数据。
本说明书实施例提供一种模型训练装置,该装置包括:
获取模块,获取厚层数据和薄层数据;
数据重建模块,所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据;
循环训练模块,基于稀疏判别器对所述重建的第一厚层数据与所述厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型;
其中,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数。
本说明书实施例还提供一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取厚层数据和薄层数据;
所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据;
基于稀疏判别器对所述重建的第一厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型;
其中,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数。
本说明书实施例还提供一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获得MRI厚层影像数据;
将所述MRI厚层影像数据输入薄层数据重建模型的稠密生成器,获得重建的MRI薄层影像数据。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:获取厚层数据和薄层数据;所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据;基于稀疏判别器对所述重建的第一厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型;其中,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数,能够提升图像重建的效果,且能够提升重建图像清晰度及边缘表现。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术中的一种循环生成对抗网络模型的训练示意图;
图2为本说明书实施例提供的模型训练方法的系统架构示意图;
图3为本说明书实施例提供的一种模型训练方法的流程图;
图4为本说明书实施例提供的重建的厚层数据及重建的薄层数据的生成示意图;
图5为本说明书实施例提供的一种模型训练的架构图;
图6为本说明书实施例提供的一种模型训练的结构图;
图7为本说明书实施例提供的一种模型训练装置的流程图;
图8为本说明书实施例提供的一种MRI薄层数据重建装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
图1为现有技术中的一种循环生成对抗网络模型的训练示意图。如图1所示,CycleGAN是一种利用生成对抗网络,或者说GAN模型架构进行训练的无监督学习模型。CycleGAN模型中包括第一生成器GB、第二生成器GA和判别器DB。其中,第一生成器GB和第二生成器GA用于实现两个不同类别的图像之间的相互转换,例如第一生成器GB用于将第一类别的马的图像转换为第二类别的斑马图像,第二生成器GA用于将第二类别的斑马图像转换为第一类别的马的图像。判别器DB用于判断第一生成器GB转换得到的图像属于第二类别的斑马图像的概率。CycleGAN模型为现有技术,在此不再赘述。
本说明书实施例提供的模型训练方法是基于CycleGAN的图像重建算法。
图2为本说明书实施例提供的模型训练方法的系统架构示意图。
如图2所示,系统架构200可以包括终端设备201、202、203,网络204和服务器205。网络204用以在终端设备201、202、203和服务器205之间提供通信链路的介质。网络204可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备201、202、203通过网络204与服务器205交互,以接收或发送消息等。终端设备201、202、203上可以安装有各种客户端应用。
终端设备201、202、203可以是硬件,也可以是软件。当终端设备201、202、203为硬件时,可以是各种专用或通用的电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备201、202、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。
服务器205可以是提供各种服务的服务器,例如为终端设备201、202、203上所安装的客户端应用提供服务的后端服务器。例如,服务器可以训练并运行薄层数据重建模型,实现MRI薄层数据重建的功能,以便将自动测量的结果显示在终端设备201、202、203上。
服务器205可以是硬件,也可以是软件。当服务器205为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器205为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。
本公开实施例提供的模型训练方法例如可以由服务器205执行,也可以由终端设备201、202、203执行。或者,本公开实施例的模型训练方法可以部分地由终端设备201、202、203执行,其他部分由服务器205执行。
应该理解,图2中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图3为本说明书实施例提供的一种模型训练方法的流程图。如图3所示,该方法包括如下步骤:
步骤S301:获取厚层数据和薄层数据。
在本说明书实施例中,厚层数据为三维稀疏矩阵,所述厚层数据包括厚层影像数据对应的三维稀疏矩阵及基于薄层影像数据下采样获得的厚层影像数据对应的三维稀疏矩阵。该厚层影像数据及薄层影像数据均为真实测量的MRI影像数据。薄层数据亦为真实测量的薄层影像数据。厚层数据中的薄层影像数据与薄层数据中的薄层影像数据,可以为相同的影像数据,也可以不是相同的影像数据。
厚层数据Msparce的生成是基于厚层影像数据及基于薄层影像数据下采样获得的厚层影像数据,生成三维稀疏矩阵获得的。由于厚层影像数据的真实坐标是已知的,因此,可以根据厚层影像数据的真实坐标推算出厚层数据的大小。具体地,可以按照厚层影像数据的真实坐标将其填充到厚层数据的对应层面。比如某轴位图像slice的真实z轴坐标是z1,则Msparce[:,:,z]=slice。随后对没有真实厚层数据填充的点取0,即获得了一个厚层数据。需要特别说明的是,厚层数据中应包括厚层影像数据的所有信息,例如,坐标信息、锐化的轮廓信息等。
步骤S303:所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据。
在本说明书实施例中,所述稀疏生成器及所述稠密生成器采用3D-Unet++网络,所述稀疏判别器及所述稠密判别器采用ResNext50网络。当然,稀疏生成器及稠密生成器也可以为其他基于3D-Unet骨架的网络。
在本说明书实施例中,所述稀疏生成器、所述稠密生成器、所述稀疏判别器与所述稠密生成器通过CycleGAN的方式连接,所述稀疏生成器与所述稠密生成器的参数不能共享,所述稀疏判别器与所述稠密判别器的参数不能共享。
如前所述,生成器包括稠密生成器和稀疏生成器,共两个生成器。在本说明书实施例中,在模型训练过程中,是沿两个训练方向顺序进行的。具体的,第一训练方向,厚层数据经所述稠密生成器,生成重建的第一薄层数据;第一训练方向,所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据。随后,第一训练方向,所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据;第一训练方向,所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据。其中,第一训练方向与第一训练方向相反。
需要说明的是,重建的第二厚层数据,是基于重建的第一薄层数据生成的,而重建的第一薄层数据是基于厚层数据生成的,因此,重建的第二厚层数据是基于厚层数据,是先经过稠密生成器,随后经过稀疏生成器而重建的厚层数据;重建的第二薄层数据,是基于重建的第一厚层数据生成的,而重建的第一厚层数据是基于薄层数据生成的,因此,重建的第二薄层数据是基于薄层数据,是先经过稀疏生成器,随后经过稠密生成器而重建的薄层数据。
为了进一步理解,重建的厚层数据及重建的薄层数据的生成,下面以具体的例子予以说明。
图4为本说明书实施例提供的重建的厚层数据及重建的薄层数据的生成示意图。
Grecon为稠密生成器、Gsparce为稀疏生成器,Msparce为厚层数据,Mdense为薄层数据,MRdense为重建的厚层数据,MRdense为重建的薄层数据。CycleGAN的计算方法如下所示:
生成器的计算按照以下公式进行循环,
MRdense1=Grecon(Msparce)
MRsparce1=Gsparce(Mdense)
MRdense2=Grecon(MRsparce1)
MRsparce2=Gsparce(MRdense1)
相应的,判别器的计算公式为:
Pr=Drecon(MRdense1)
Pr=Drecon(Mdense)
Ps=Dsparce(MRsparce1)
Ps=Dsparce(Msparce)
其中:P代表生成概率。
也就是说,对于图4的左半部分,将厚层数据输入(第一训练方向)稠密生成器,生成重建的第一薄层数据(即目标域数据),然后再将重建的第一薄层数据输入(第二训练方向)稀疏生成器,生成重建的第一厚层数据(即源域数据),获得重建的第一薄层数据的目的在于:将该数据与输入的薄层数据进行循环一致性损失函数的判断及边缘损失强化函数的判断。
同理,对于图4的右半部分,将薄层数据输入(第二训练方法)稀疏生成器,生成重建的第一厚层数据,然后再将重建的第一厚层数据输入(第一训练方向)稠密生成器,生成重建的第一薄层数据,获得重建的第一厚层数据的目的在于:将该数据与输入的厚层数据进行循环一致性损失函数的判断。
步骤S305:基于稀疏判别器对所述重建的第一厚层数据与所述厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型;
其中,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数。
厚层数据经过一个稠密生成器,生成重建的第一薄层数据,随后经过一个稀疏生成器,获得重建的第二厚层数据,薄层数据经过一个稀疏生成器,生成重建的第一厚层数据,随后经过一个稠密生成器,获得重建的第二薄层数据。
基于前述步骤获得重建的第一厚层数据后,稀疏判别器对重建的第一厚层数据与所述厚层数据进行判断前,需要将重建的第一厚层数据加入到厚层数据所在的矩阵集合中。
相应的,获得重建的第一薄层数据后,稠密判别器对重建的第一薄层数据与所述薄层数据进行判断前,需要将重建的第一薄层数据加入到薄层数据所在的矩阵集合中。
为了使得生成的第一厚层数据能够接近厚层数据,使得生成的第一薄层数据能够接近薄层数据,我们可以利用循环一致性损失函数来监督训练过程。
在本说明书实施例中,所述循环一致性损失函数的计算公式为:
Losscyc=Exp(Mdense)[logDrecon(x)]+Exp(MRdense)[log(1-Drecon(x))]
+Exp(Msparce)[logDsparce(x)]+Exp(MRsparce)[log(1-Dsparce(x))]
其中,
Losscyc为循环一致性损失函数;
Drecon表示稠密判别器;
Dsparce表示稀疏判别器;
Exp(Mdense)[logDrecon(x)]表示稠密判别器将真实薄层数据判别为真实薄层数据的概率;
Exp(MRdense)[log(1-Drecon(x))表示稠密判别器将重建的第二薄层数据判别为虚假薄层数据的概率;
Exp(Msparce)[logDsparce(x)]表示稀疏判别器将真实厚层数据判别为真实厚层数据的概率;
Exp(MRsparce)[log(1-Dsparce(x))]表示稀疏判别器将重建的第二厚层数据判别为虚假厚层数据的概率。
此外,为了使得由厚层数据重建为薄层数据的过程中,保证重建的薄层数据的边缘清晰,我们采用边缘强化损失函数监督训练过程。
在本说明书实施例中,所述边缘强化损失函数的计算公式为:
Loss边缘强化=Exp(MsparceSub)[(Laplacian(Grecon(x))+Laplacian(MdenseGT[x]))*
(MRdense-MdenseGT)α]
其中:
Loss边缘强化表示边缘强化损失函数;
MsparceSub表示基于薄层影像数据下采样获得的厚层影像数据;
MdenseGT表示MsparceSub采样前的真值;
MRdense表示重建的第一薄层数据;
Grecon表示稠密生成器;
Grecon(x)表示x使用稠密生成器生成的值;
Exp表示数学期望,x~p表示从x分布中采样p;
Laplacian表示拉普拉斯算子。
在本说明书实施例中,所述α取值为2。
为了进一步理解本说明书实施例提供的模型训练方法,下面将结合架构图予以说明。图5为本说明书实施例提供的一种模型训练的架构图,如图5所示,在图5的左半部分,是稠密生成器和稀疏判别器进行第一训练方向的训练过程,图5的右半部分,是稀疏生成器和稠密判别器进行第二训练方向的训练过程。
为了进一步理解本说明书实施例提供的模型训练方法,下面将结合具体的实例予以说明。
图6为本说明书实施例提供的一种模型训练的结构图,如图6所示,在图6的上半部分,厚层数据经稠密生成器,生成薄层重建结果(即前述重建的第一薄层数据);薄层重建结果与薄层数据在稠密判别器进行循环一致性损失函数判断及边缘强化损失函数判断,进而完成训练过程。
在图6的中间部分,薄层数据经稀疏生成器,生成厚层重建结果(即前述重建的第一厚层数据);厚层重建结果与厚层数据在稀疏判别器进行循环一致性损失函数判断,进而完成训练过程。
在图6的下半部分,稀疏生成器为3D-Unet++网络的详细设计,当然,稠密生成器的详细设计与稀疏生成器相同。
采用本说明书实施例提供的模型训练方法,能够提升图像重建的效果,且能够提升重建图像清晰度及边缘表现。
本说明书实施例还提供一种MRI薄层数据重建方法,所述方法包括:
获得MRI厚层影像数据;
将所述MRI厚层影像数据输入薄层数据重建模型的稠密生成器,获得重建的MRI薄层影像数据。
本说明书实施例提供了一种模型训练方法,基于同样的思路,本说明书实施例还提供一种模型训练装置。图7为本说明书实施例提供的一种模型训练装置的示意图,如图7所示,该装置包括:
获取模块701,获取厚层数据和薄层数据;
数据重建模块703,所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据;
循环训练模块605,基于稀疏判别器对所述重建的第一厚层数据与所述厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型;
其中,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数。
本说明书实施例提供了一种MRI薄层数据重建方法,基于同样的思路,本说明书实施例还提供一种MRI薄层数据重建装置。图8为本说明书实施例提供的一种MRI薄层数据重建装置的示意图,如图8所示,该装置包括:
获取模块801,获得MRI厚层影像数据;
薄层数据重建模块803,将所述MRI厚层影像数据输入薄层数据重建模型的稠密生成器,获得重建的MRI薄层影像数据。
本说明书实施例还提供一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取厚层数据和薄层数据;
所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据;
基于稀疏判别器对所述重建的第一厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型;
其中,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数。
本说明书实施例还提供一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获得MRI厚层影像数据;
将所述MRI厚层影像数据输入薄层数据重建模型的稠密生成器,获得重建的MRI薄层影像数据。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、非易失性计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书实施例提供的装置、电子设备、非易失性计算机存储介质与方法是对应的,因此,装置、电子设备、非易失性计算机存储介质也具有与对应方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述对应装置、电子设备、非易失性计算机存储介质的有益技术效果。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书实施例可提供为方法、系统、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据优化设备的处理器以产生一个机器,使得通过计算机或其他可编程数据优化设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据优化设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据优化设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种模型训练方法,其特征在于,所述方法包括:
获取厚层数据和薄层数据;
所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的二厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据;
基于稀疏判别器对所述重建的第一厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型;
其中,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数。
2.如权利要求1所述的方法,其特征在于,所述厚层数据为三维稀疏矩阵,所述厚层数据包括厚层影像数据对应的三维稀疏矩阵及基于薄层影像数据下采样获得的厚层影像数据对应的三维稀疏矩阵。
3.如权利要求1所述的方法,其特征在于,所述稀疏生成器及所述稠密生成器采用3D-Unet++网络,所述稀疏判别器及所述稠密判别器采用ResNext50网络。
4.如权利要求1所述的方法,其特征在于,所述稀疏生成器、所述稠密生成器、所述稀疏判别器及所述稠密生成器通过CycleGAN的方式连接,所述稀疏生成器与所述稠密生成器的参数不能共享,所述稀疏判别器与所述稠密判别器的参数不能共享。
5.如权利要求1所述的方法,其特征在于,所述循环一致性损失函数的计算公式为:
Losscyc=Exp(Mdense)[logDrecon(x)]+Exp(MRdense)[log(1-Drecon(x))]
+Exp(Msparce)[logDsparce(x)]+Exp(MRsparce)[log(1-Dsparce(x))]
其中,
Losscyc为循环一致性损失函数;
Drecon表示稠密判别器;
Dsparce表示稀疏判别器;
Exp(Mdense)[logDrecon(x)]表示稠密判别器将真实薄层数据判别为真实薄层数据的概率;
Exp(MRdense)[log(1-Drecon(x))表示稠密判别器将重建的第一薄层数据判别为虚假薄层数据的概率;
Exp(Msparce)[logDsparce(x)]表示稀疏判别器将真实厚层数据判别为真实厚层数据的概率;
Exp(MRsparce)[log(1-Dsparce(x))]表示稀疏判别器将重建的第一厚层数据判别为虚假厚层数据的概率。
6.如权利要求1所述的方法,其特征在于,所述边缘强化损失函数的计算公式为:
Loss边缘强化=Exp(MsparceSub)[(Laplacian(Grecon(x))+Laplacian(MdenseGT[x]))*
(MRdense-MdenseGT)α]
其中:
Loss边缘强化表示边缘强化损失函数;
MsparceSub表示基于薄层影像数据下采样获得的厚层影像数据;
MdenseGT表示MsparceSub采样前的真值;
MRdense表示重建的第一薄层数据;
Grecon表示稠密生成器;
Grecon(x)表示x使用稠密生成器生成的值;
Exp表示数学期望,x~p表示从x分布中采样p;
Laplacian表示拉普拉斯算子。
7.如权利要求6所述的方法,其特征在于,所述α取值为2。
8.一种MRI薄层数据重建方法,其特征在于,所述方法包括:
获得MRI厚层影像数据;
将所述MRI厚层影像数据输入如权利要求1~7任一项所述的薄层数据重建模型的稠密生成器,获得重建的MRI薄层影像数据。
9.一种模型训练装置,其特征在于,所述装置包括:
获取模块,获取厚层数据和薄层数据;
数据重建模块,所述厚层数据经所述稠密生成器,生成重建的第一薄层数据;所述薄层数据经稀疏生成器,生成重建的第一厚层数据;所述重建的第一薄层数据经所述稀疏生成器,生成重建的第二厚层数据;所述重建的第一厚层数据经所述稠密生成器,生成重建的第二薄层数据;
循环训练模块,基于稀疏判别器对所述重建的第一厚层数据与所述厚层数据进行判断,基于所述稠密判别器对所述重建的第一薄层数据与所述薄层数据进行判断,循环操作,进行模型训练,生成薄层数据重建模型;
其中,所述稀疏生成器的判别函数为循环一致性损失函数及边缘强化损失函数,所述稠密判别器的判别函数为循环一致性损失函数。
10.一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
实现如权利要求1~7任一项所述的模型训练方法;
或者,实现如权利要求8所述的薄层数据重建方法。
CN202310310405.4A 2023-03-24 2023-03-24 模型训练方法、mri薄层数据重建方法、装置及设备 Active CN116579414B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310310405.4A CN116579414B (zh) 2023-03-24 2023-03-24 模型训练方法、mri薄层数据重建方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310310405.4A CN116579414B (zh) 2023-03-24 2023-03-24 模型训练方法、mri薄层数据重建方法、装置及设备

Publications (2)

Publication Number Publication Date
CN116579414A true CN116579414A (zh) 2023-08-11
CN116579414B CN116579414B (zh) 2024-04-02

Family

ID=87542011

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310310405.4A Active CN116579414B (zh) 2023-03-24 2023-03-24 模型训练方法、mri薄层数据重建方法、装置及设备

Country Status (1)

Country Link
CN (1) CN116579414B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047138A (zh) * 2019-04-24 2019-07-23 复旦大学 一种磁共振薄层图像重建方法
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
US20200372351A1 (en) * 2019-05-23 2020-11-26 Htc Corporation Method for training generative adversarial network (gan), method for generating images by using gan, and computer readable storage medium
CN112991341A (zh) * 2021-04-28 2021-06-18 江苏瑞尔医疗科技有限公司 基于厚层ct图像生成薄层ct图像的系统及方法
CN113780519A (zh) * 2021-08-13 2021-12-10 深圳市联影高端医疗装备创新研究院 生成对抗网络训练方法、装置、计算机设备和存储介质
CN115100308A (zh) * 2022-06-17 2022-09-23 明峰医疗系统股份有限公司 用于去除ct伪影的神经网络训练方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047138A (zh) * 2019-04-24 2019-07-23 复旦大学 一种磁共振薄层图像重建方法
US20200372351A1 (en) * 2019-05-23 2020-11-26 Htc Corporation Method for training generative adversarial network (gan), method for generating images by using gan, and computer readable storage medium
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
CN112991341A (zh) * 2021-04-28 2021-06-18 江苏瑞尔医疗科技有限公司 基于厚层ct图像生成薄层ct图像的系统及方法
CN113780519A (zh) * 2021-08-13 2021-12-10 深圳市联影高端医疗装备创新研究院 生成对抗网络训练方法、装置、计算机设备和存储介质
CN115100308A (zh) * 2022-06-17 2022-09-23 明峰医疗系统股份有限公司 用于去除ct伪影的神经网络训练方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XIAOTING FAN ET AL: "Unsupervised stereoscopic image retargeting via view synthesis and stereo cycle consistency losses", 《NEUROCOMPUTING》, pages 161 - 171 *
曹兵: "基于深度学习的图像跨模态重建与识别", 《中国博士学位论文全文数据库(电子期刊)》, vol. 2021, no. 05 *

Also Published As

Publication number Publication date
CN116579414B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN110766769B (zh) 一种磁共振图像重建方法、装置、设备和介质
CN107957989B (zh) 基于集群的词向量处理方法、装置以及设备
CN109062782B (zh) 一种回归测试用例的选择方法、装置及设备
CN112330779A (zh) 一种生成角色模型舞蹈动画的方法和系统
CN110827369B (zh) 欠采样模型生成方法、图像重建方法、设备和存储介质
CN112734910A (zh) 基于rgb单图实时人脸三维图像重建方法、装置及电子设备
CN114913262B (zh) 采样模式与重建算法联合优化的核磁共振成像方法及系统
CN117635822A (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN117409466B (zh) 一种基于多标签控制的三维动态表情生成方法及装置
CN116579414B (zh) 模型训练方法、mri薄层数据重建方法、装置及设备
CN115809696B (zh) 虚拟形象模型训练方法及装置
Faghihpirayesh et al. Deep learning framework for real-time fetal brain segmentation in MRI
CN116758093B (zh) 一种图像分割方法、模型训练方法、装置、设备及介质
CN116402165B (zh) 一种算子检测的方法、装置、存储介质以及电子设备
CN116091895B (zh) 一种面向多任务知识融合的模型训练方法及装置
CN116630480A (zh) 一种交互式文本驱动图像编辑的方法、装置和电子设备
CN112365551A (zh) 一种图像质量处理系统、方法、设备和介质
CN114494484A (zh) 数据识别模型的训练方法、数据识别方法、装置及设备
CN116341642A (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN107220710B (zh) 稀缺样本数据集条件下bn模型参数的计算方法
CN115082405A (zh) 颅内病灶的检测模型的训练方法、检测方法、装置及设备
CN115115722A (zh) 图像重建模型生成及图像重建方法、装置、设备和介质
CN112862071A (zh) 一种数据处理方法及装置
CN115063500B (zh) 基于生成对抗网络的磁性纳米粒子成像重建方法
CN117455015B (zh) 一种模型优化的方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 3011, 2nd Floor, Building A, No. 1092 Jiangnan Road, Nanmingshan Street, Liandu District, Lishui City, Zhejiang Province, 323000

Applicant after: Zhejiang Yizhun Intelligent Technology Co.,Ltd.

Address before: No. 301, 3rd Floor, Zhizhen Building, No. 7 Zhichun Road, Haidian District, Beijing, 100000

Applicant before: Beijing Yizhun Intelligent Technology Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant