CN113763442B - 一种可变形医学图像配准方法及系统 - Google Patents

一种可变形医学图像配准方法及系统 Download PDF

Info

Publication number
CN113763442B
CN113763442B CN202111042983.1A CN202111042983A CN113763442B CN 113763442 B CN113763442 B CN 113763442B CN 202111042983 A CN202111042983 A CN 202111042983A CN 113763442 B CN113763442 B CN 113763442B
Authority
CN
China
Prior art keywords
image
loss function
registration
discriminant
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111042983.1A
Other languages
English (en)
Other versions
CN113763442A (zh
Inventor
张桂梅
王杰
黄军阳
龙邦耀
陶辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Hangkong University
Original Assignee
Nanchang Hangkong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Hangkong University filed Critical Nanchang Hangkong University
Priority to CN202111042983.1A priority Critical patent/CN113763442B/zh
Publication of CN113763442A publication Critical patent/CN113763442A/zh
Application granted granted Critical
Publication of CN113763442B publication Critical patent/CN113763442B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明涉及一种可变形医学图像配准方法及系统。该方法包括:获取医学影像数据集,并对其进行预处理,然后划分为训练集和测试集;构建基于双判别器对抗学习的可变形图像配准模型,包括一个生成器和两个判别器;构建目标损失函数,分别包括正则项损失、重加权损失、全局判别器的对抗损失和局部判别器的对抗损失;将训练集中的待配准图像对作为网络模型的输入,基于目标损失函数对网络模型进行迭代训练,得到预训练的配准模型;将测试集中的待配准图像对输入至预训练的配准模型中,得到配准图像。本发明能够在医学图像训练样本缺乏标注信息的情况下,提高医学图像配准精度,并增强配准方法和系统的泛化能力。

Description

一种可变形医学图像配准方法及系统
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于双判别器对抗学习的可变形医学图像配准方法及系统。
背景技术
可变形图像配准试图建立待配准图像对之间密集非线性的空间对应关系,它对图像融合、器官图谱创建和肿瘤生长监测等临床任务至关重要。人工配准费时费力,且缺乏再现性,不利于临床诊断。因此,为了解决人工配准的局限性,已经提出了自动图像配准方法。一般来说,对来自不同模态、不同时间、不同视点甚至不同患者的一对图像进行分析时,都需要配准。但是,由于医学图像的高变异性,设计一个鲁棒的图像配准模型具有挑战性。
尽管在过去的几十年里研究人员提出了各种各样的配准方法,但由于高维优化和每对图像之间的大形变,可变形图像配准仍然是一项具有挑战性的任务。传统配准方法是通过优化目标函数来估计形变场,而该方法的局限性是优化的计算成本较高。在已提出的深度学习方法中,通常存在以下问题:用于医学图像分析的生成对抗网络主要集中在生成器的设计上,未能充分利用判别器及其监督能力。如判别器很容易被生成器欺骗,就不能驱动生成器产生更好的配准图像。
发明内容
本发明的目的是提供一种可变形医学图像配准方法及系统,具有两个不同尺度输入的判别器通过互补信息增强判别器的决策能力,能够充分利用判别器及其监督能力,得到质量更好的配准图像。
为实现上述目的,本发明提供了如下方案:
一种可变形医学图像配准方法,所述配准方法包括:
获取数据集;所述数据集包括训练集和测试集;所述训练集和所述测试集均包括待配准图像对;每一所述待配准图像对包括固定图像和浮动图像;
构建待训练配准模型;所述待训练配准模型包括生成器和双判别器;所述双判别器包括全局判别器和局部判别器;
构建目标损失函数;
以所述训练集中的待配准图像对作为输入,基于所述目标损失函数对所述待训练配准模型进行迭代训练,得到配准模型;
将所述测试集中的待配准图像对输入至所述配准模型,得到配准图像。
一种可变形医学图像配准系统,所述配准系统包括:
数据集获取模块,用于获取数据集;所述数据集包括训练集和测试集;所述训练集和所述测试集均包括待配准图像对;每一所述待配准图像对包括固定图像和浮动图像;
待训练配准模型构建模块,用于构建待训练配准模型;所述待训练配准模型包括生成器和双判别器;所述双判别器包括全局判别器和局部判别器;
目标损失函数构建模块,用于构建目标损失函数;
训练模块,用于以所述训练集中的待配准图像对作为输入,基于所述目标损失函数对所述待训练配准模型进行迭代训练,得到配准模型;
配准模块,用于将所述测试集中的待配准图像对输入至所述配准模型,得到配准图像。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明用于提供一种可变形医学图像配准方法及系统,先获取数据集,数据集包括训练集和测试集。然后构建待训练配准模型,待训练配准模型包括生成器和双判别器,双判别器包括全局判别器和局部判别器,并构建目标损失函数。再以训练集中的待配准图像对作为输入,基于目标损失函数对待训练配准模型进行迭代训练,得到配准模型,最后将测试集中的待配准图像对输入至配准模型,得到配准图像。通过改进生成对抗网络的判别器结构,采用双判别器,利用局部判别器和全局判别器来共同鉴别判别器的输入是真还是假,充分利用判别器及其监督能力,提高配准模型的配准精度,利用该配准模型所生成的配准图像的质量更好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。以下附图并未刻意按实际尺寸等比例缩放绘制,重点在于示出本发明的主旨。
图1示出了本发明实施例1所提供的配准方法的方法流程图;
图2示出了本发明实施例1所提供的生成器的网络结构图;
图3示出了本发明实施例1所提供的密集残差扩张卷积模块的网络结构图;
图4示出了本发明实施例1所提供的全局判别器的网络结构图;
图5示出了本发明实施例1所提供的局部判别器的网络结构图;
图6示出了本发明实施例1所提供的配准模型的网络结构图;
图7示出了本发明实施例2所提供的配准系统的系统框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如本发明和权利要求书中所示,一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其他的步骤或元素。
本发明中使用了流程图来说明所执行的操作。应当理解的是,前面或下面操作不一定按照顺序来精确地执行。相反,根据需要,可以按照倒序或同时处理各种步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
本发明的目的是提供一种可变形医学图像配准方法及系统,具有两个不同尺度输入的判别器通过互补信息增强判别器的决策能力,能够充分利用判别器及其监督能力,提高配准图像的生成质量。同时,对待训练配准模型的生成器网络结构以及目标损失函数进行改进,能够在医学图像训练样本缺乏标注信息的情况下,提高医学图像配准的精度,并增强配准方法和系统的泛化能力。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
传统的可变形医学图像配准方法通常采用迭代优化策略,按照预定义的相似性度量进行图像变换,需要耗费大量的计算时间。此外,这些方法不能生成所有图像对的通用模型,只能对每个图像对进行优化。随着卷积神经网络等深度学习技术的不断发展,为了满足临床上的实时性要求,提出了基于深度学习的方法,并将其应用于图像配准领域。目前基于深度学习的图像配准方法主要分为三类:(1)结合传统配准方法的深度迭代配准,其基本思想是仅使用神经网络来提取特征或学习相似性度量,仍需要在传统配准框架下进行迭代优化完成训练。(2)监督或弱监督学习,其原理是在网络模型训练时,需要提供待配准图像对所对应的标签参与训练,然后利用预测的形变场作用于浮动图像,获得配准图像。(3)无监督学习。与监督或弱监督学习不同,配准网络仅作用于输入图像,获得预测的形变场,在重采样层对浮动图像进行插值,得到配准图像。与传统的配准方法相比,无监督的配准方法在速度上具有显著的优势,此外,配准过程中不需要标签,一定程度上缓解了有监督配准方法的局限性。因此,目前该领域的研究主要集中在提高无监督图像配准模型的精度和泛化性能上。
生成对抗网络也属于无监督学习的范畴,通过其两个组成模块,即生成模块和判别模块之间的博弈对抗,进行训练。生成模块学习从数据分布中抽取的样本,并用于合成新的样本。判别模块用于区分合成样本和真实样本,从而与生成模块进行竞争。在图像配准领域,生成对抗网络常用作以下两种用途:(1)作为一种可学习的相似性度量,评估配准图像和固定图像之间的相似性。(2)在多模态配准任务中,通过将多模态配准问题转化为单模态配准问题,简化了选择合适的相似度指标的任务。因此,基于生成对抗网络的配准方法在医学图像配准领域得到广泛的应用。
实施例1:
本实施例用于提供一种可变形医学图像配准方法,如图1所示,所述训练方法包括:
S1:获取数据集;所述数据集包括训练集和测试集;所述训练集和所述测试集均包括待配准图像对;每一所述待配准图像对包括固定图像和浮动图像;
具体的,S1是在深度学习的Tensorflow框架下执行完成,可从公开数据集中获取医学图像。在获取医学图像之后,先对获取到的医学图像进行预处理,常用的预处理步骤包括颅骨剥离、空间重采样、图像增强、灰度归一化、裁剪和仿射配准等,预处理步骤往往因研究对象而异,得到预处理后的医学图像,所有预处理后的医学图像组成数据集。然后对数据集进行划分,得到训练集和测试集。
S2:构建待训练配准模型;所述待训练配准模型包括生成器和双判别器;所述双判别器包括全局判别器和局部判别器;
现有的无监督学习方法中,存在以下问题:(1)网络模型往往只能提取到原图像的单一尺度特征,从而导致模型的精度较低;(2)在使用卷积神经网络学习医学图像特征时,连续的卷积和池化会损失原图像的空间结构信息,导致配准图像中轮廓边缘部位的较大形变区域的矫正效果差。
针对上述问题,本实施例对待训练配准模型的网络结构和目标损失函数进行改进。具体的,本实施例的待训练配准模型采用基于对抗学习的生成对抗网络,待训练配准模型包括生成器和双判别器,双判别器包括全局判别器和局部判别器。本实施例的待训练配准模型采用双判别器网络结构,使用全局判别器和局部判别器来共同鉴别判别模块的输入是真还是假,通过具有两个不同尺度输入的判别器的互补信息来增强判别模块的决策能力,使用全局判别器和局部判别器的联合响应去最小化配准图像和固定图像之间的差异,从而驱使生成器产生与固定图像在空间和解剖信息上更一致的配准图像。
生成器采用改进后的U-Net网络。改进后的U-Net网络采用多尺度输入,尺度与编码器的层一一对应,每一尺度下的待配准图像对通过一卷积层与尺度的对应层相连接,同时,改进后的U-Net网络采用密集残差扩张卷积模块代替U-Net网络的底层瓶颈结构。进而本实施例的生成器结合多尺度信息融合、残差和扩张卷积的优势,既增强了有效特征的传递,又保留了更多细粒度的结构信息以实现准确的配准。
具体的,如图2所示,与现有U-Net网络相同,本实施例的生成器包括编码器和解码器,编解码器的网络部分构成对称结构。编码器的每一层均应用两个连续的卷积单元,每一卷积单元均包括依次连接的一个卷积层、一个批归一化层和一个ReLU激活函数层,然后通过最大池化层进行最大池化操作,以进行下采样。在每一次下采样后,特征图的通道数增加,空间维度减少。相应的,在解码器中执行相同数量的上采样操作,用以逐渐恢复目标的细节及空间维度,每次上采样都是通过反卷积层来实现,特征图的数量减半。为了协助解码过程,通过跳跃连接将编码器每一层的浅层特征和解码器相对应层的深层特征进行连接,然后使用两个连续的卷积单元进行特征提取,类似的,每一卷积单元包括依次连接的一个卷积层、一个批归一化层和一个ReLU激活函数层。最后通过一个1×1×1的卷积操作,获得形变场。
现有的U-Net网络仅包括上述编码器和解码器,虽然可以实现图像对之间的对齐,但网络的鲁棒性较差,使得输出的形变场对浮动图像的矫正能力较弱。为了解决这一问题,本实施例对现有U-Net网络进行改进。具体的,如图2所示,传统U-Net网络是一个单尺度输入,为了使网络能够表达不同尺度下的图像特征,将网络改为多尺度输入,通过对待配准图像对进行三线性插值,得到不同尺度下的待配准图像对,多尺度输入分为5个支路,每个分支的通道数为2,图像的分辨率尺寸分别为原始待配准图像对大小的1、1/2、1/4、1/8和1/16。在编码器的每一层上添加一个卷积层,以直接从不同尺度下的待配准图像对中提取特征,然后将这些特征与编码器中具有相同分辨率的特征层进行连接,将不同尺度下的待配准图像对经过一个卷积层运算后所提取到的特征送至编码器中具有相同分辨率的特征层中进行融合,弥补下采样过程的信息丢失。多尺度输入在学习和提取图像派生特征方面具有很强的能力,并且提取的特征有助于图像配准模型的训练。
此外,对U-Net网络的底层瓶颈结构进行改进,使用密集残差扩张卷积模块代替原来的两个卷积层。如图3所示,密集残差扩张卷积模块包括密集连接的多个空洞卷积单元,每一空洞卷积单元包括空洞卷积层、批归一化层和ReLU激活函数,多个空洞卷积单元的扩张速率均不同。不同扩张速率的空洞卷积单元进行密集连接,可以有效增加感受野,同时获取多尺度上下文信息。其中,通过对多个不同扩张速率的空洞卷积单元进行级联,实现了不同大小感受野下特征信息的融合,充分提取多尺度上下文信息,有效减少了参数的数量,并且为每个空洞卷积单元添加密集残差连接,有利于网络优化。该密集残差扩张卷积模块采用可变扩张速率来替代固定的扩张速率来自适应地改变卷积核的感受野,可以克服标准空洞卷积的网格效应,四个可变扩张速率分别为1、2、5和7。
本实施例的生成器的编码器经历四次下采样操作,每一层接收一个经过一卷积层提取到的不同尺度下的待配准图像对的特征作为输入后,再经过两个连续的卷积单元,然后进行最大池化操作。在编解码器中间的瓶颈处,接收所有来自编码器提取的特征信息,并作为解码器的输入。为了融合不同尺度的空间上下文信息,使用不同速率的扩张卷积进行密集连接,替换原来的两个普通卷积层。由于解码器与编码器具有对称性,因此也包含四次上采样操作,对来自编码部分的特征图进行上采样,逐层通过反卷积和两个连续的卷积操作,直至达到原始输入图像的大小。最后使用一个1×1×1的卷积层,输出形变场(也称为位移矢量场)。除了最后一个卷积层外,生成器网络中所有卷积层都使用3×3×3的卷积核,最大池化层和反卷积层的卷积核尺寸为2×2×2。
本实施例的全局判别器采用CNN网络,全局判别器包括依次连接的多个卷积池化单元、多个全连接层以及激活函数。局部判别器采用U-Net网络,局部判别器包括依次连接的编码器、解码器以及激活函数。由全局判别器和局部判别器组成双判别器网络,通过引入不同且互补的判别器来提高生成对抗网络的性能,所提出的双重判别策略在图像全局区域和图像局部区域鉴别配准图像和固定图像之间的差异性,使得生成器更难欺骗判别器,鼓励生成器在训练过程中提高其性能。
全局判别器(Global Discriminator,GD)在固定图像和配准图像的整个图像区域内寻找全局相似性,将生成器输出的配准图像和固定图像输入到全局判别器,全局判别器的输出是一个分类结果,表明输入的配准图像是固定图像的概率。如图4所示,全局判别器是一个CNN网络结构,包含五个连续的卷积池化单元,三个全连接层和一个sigmoid激活函数层。每一卷积池化单元包括连续的两个卷积块和一个最大池化层,每一卷积块包括依次连接的卷积层、批归一化层和激活函数层。卷积层中的卷积核大小为3×3×3,最大池化层的卷积核尺寸为2×2×2。
局部判别器(Local Discriminator,LD)在固定图像和配准图像的局部区域上寻找局部相似性,将生成器输出的配准图像和固定图像进行裁剪并连接,然后输入到局部判别器,局部判别器的输出表示输入配准图像被认为是真实固定图像的概率。如图5所示,局部判别器的网络结构包括四个下采样、两个卷积层、四个上采样、1×1×1卷积层和sigmoid激活层。一个下采样包括两个卷积层和一个最大池化层,一个上采样包括一个上采样层和两个卷积层,卷积层中卷积核大小为3×3×3,除1×1×1卷积层外,其余的每个卷积层后都采用批归一化和激活操作,最大池化层和上采样层的卷积核尺寸为2×2×2。
S3:构建目标损失函数;
S3包括:分别构建正则项损失函数、重加权损失函数、全局判别器的对抗损失函数以及局部判别器的对抗损失函数,再以它们的的加权和作为目标损失函数。
如图6所示,正则项损失函数通过惩罚形变场的x,y和z分量来惩罚不规则的形变,使生成的形变场更加平滑。正则项损失函数如下:
Figure BDA0003250134190000081
式(1)中,LSmooth(φ)为正则项损失函数;p表示形变场中的体素;Ω代表形变场所处空间区域;φ表示形变场;φ(p)表示形变场中p体素的值。
在空间变换层(Spatial Transformer Network,STN)中将形变场作用于浮动图像,重采样后即可得到配准图像。重加权损失函数通过局部判别器所提供的每个区域相似度的局部置信度信息去改变体素的权重,可以使网络更好地关注于有较大非线性形变难以对齐的区域。重加权损失函数如下:
Figure BDA0003250134190000082
式(2)中,LRew为重加权损失函数;E(*)表示分布函数对应的期望值;pdata(IF,IM)表示真实数据集;IF,IM~pdata(IF,IM)表示输入的固定图像和浮动图像属于真实数据集;W=(1-F)β;W为权重因子;F为注意力权重,即局部判别器输出的局部置信度信息;β为控制因子的强度;IM和IF分别为浮动图像和固定图像;G表示生成器;G(IM)表示配准图像。
由于交叉熵损失函数会造成梯度消失问题,导致原始生成对抗网络的训练不充分。而最小二乘GAN采用最小二乘损失,能够使训练过程更加稳定,同时能缓解梯度消失和过拟合,因此使用最小二乘损失替代交叉熵损失。
全局判别器GD的全局损失函数具体如下:
Figure BDA0003250134190000091
式(3)中,LGD为全局损失函数;pdata(IF)代表真实数据集中固定图像的数据分布;IF~pdata(IF)代表输入的固定图像服从固定图像的数据分布;pdata(IM)代表真实数据集中浮动图像的数据分布;IM~pdata(IM)代表输入的浮动图像服从浮动图像的数据分布;D1表示全局判别器;D1(A,B)表示全局判别器所得到的A图像和B图像之间相似的概率值。
其中,全局判别器GD的对抗损失函数LAdv1如下:
Figure BDA0003250134190000092
局部判别器LD的局部损失函数具体如下:
Figure BDA0003250134190000093
式(5)中,LLD为局部损失函数;pdata(Ih F)代表真实数据集中固定图像中所提取的图像块的数据分布;Ih F~pdata(Ih F)代表输入的固定图像中所提取的图像块服从固定图像中所提取的图像块的数据分布;pdata(Ih M)代表真实数据集中浮动图像中所提取的图像块的数据分布;Ih M~pdata(Ih M)代表输入的浮动图像中所提取的图像块服从浮动图像中所提取的图像块的数据分布;
Figure BDA0003250134190000094
表示从固定图像中提取的图像块;/>
Figure BDA0003250134190000095
表示从浮动图像中提取的图像块;
Figure BDA0003250134190000096
表示从配准图像中提取的图像块;D2表示局部判别器;D2(A,B)表示局部判别器所得到的A图像和B图像之间相似的概率值。
其中,局部判别器LD的对抗损失LAdv2如下:
Figure BDA0003250134190000101
目标损失函数如下:
LAll=LAdv1+LAdv21LSmooth2LRew; (7)
式(7)中,LAll为总损失函数;λ1和λ2均为超参数,具体的λ1为正则化损失的权重;λ2为重加权损失的权重。
S4:以所述训练集中的待配准图像对作为输入,基于所述目标损失函数对所述待训练配准模型进行迭代训练,得到配准模型;
将训练集中的待配准图像对作为生成器的输入,根据目标损失函数,对双判别器和生成器的参数进行迭代更新,得到配准模型。S4中将训练集中的待配准图像对输入待训练配准模型中进行训练,输出配准图像,将配准图像输入到双判别器,全局判别器和局部判别器共享同一个生成器,并且全局判别器和局部判别器是独立的网络,分别寻找配准图像和固定图像在整个图像上的全局相似性和局部区域上的局部相似性,同时训练全局判别器和局部判别器,两个判别器的联合响应反向传播去更新生成器的参数,生成器和双判别器以对抗方式进行学习,使用交替迭代的方式进行训练,直至判别器分辨不出样本是生成的还是真实的,达到收敛,得到最优的网络模型。
根据目标损失函数,对双判别器和生成器的参数进行迭代更新可以包括:在一次迭代更新中,固定生成器参数,根据目标损失函数对双判别器的参数进行调整,得到更新后的双判别器;再固定更新后的双判别器参数,对生成器进行反向传播去更新生成器的参数,得到更新后的生成器。利用上述目标损失函数,通过反向传播的方式,对双判别器和生成器中的参数不断进行更新优化,直至目标损失函数收敛,则结束迭代,以当前迭代所得到的更新后的生成器作为配准模型。
S5:将所述测试集中的待配准图像对输入至所述配准模型,得到配准图像。
将待配准图像对输入至配准模型,利用生成器得到这一待配准图像对对应的形变场,将形变场作用于浮动图像,即可得到配准图像。
本实施例公开一种基于双判别器对抗学习的可变形医学图像配准方法,获取医学图像并对其进行预处理,将预处理后的医学图像组成数据集。构建基于对抗学习的待训练配准模型,待训练配准模型由生成器和双判别器组成。生成器结合多尺度信息融合、残差和扩张卷积的优势,能有效提升生成对抗网络的特征表达能力。双判别器使用局部判别器和全局判别器来共同鉴别判别模块的输入是真还是假,具有两个不同尺度输入的判别器通过互补信息增强判别模块的决策能力。在对配准模型进行训练的阶段,全局判别器和局部判别器共享同一个生成器,且是两个独立的网络,同时训练全局和局部判别器,然后用这两个判别器的联合响应去迭代更新生成器,生成器和双判别器以交替的方式进行训练,直至收敛。本实施例采用双重鉴别策略,以提高判别器的鉴别能力,从而在对抗学习的驱使下使生成器产生更好的配准结果。两个判别器的对抗损失、形变场的正则项损失和重加权损失应用于最小化配准图像和固定图像之间的差异,其中全局判别器是在整个图像上寻找全局相似性,而局部判别器将配准图像的局部区域与固定图像的局部区域进行比较,从而获得配准图像和固定图像之间的局部相似性,进一步改善难以对齐的区域。
本实施例对生成器网络中采用的U-Net结构进行改进,不同于以往单一尺度图像对的输入,本实施例采用多尺度图像对作为网络模型的输入,然后通过在编码器每层的左侧添加一个卷积层,提取的多尺度图像特征分别与编码器上具有相同分辨率的特征层进行融合,能够补偿连续卷积和下采样操作导致的信息丢失。此外,使用密集残差扩张卷积模块去代替编解码器中间瓶颈结构中原有的两个普通卷积操作,既增强了有效特征的传递,又保留了更多细粒度的结构信息以实现准确的配准。将双判别器引入对抗学习网络模型的训练中,以提高判别器的鉴别能力。具有不同尺度输入的两个判别器通过联合响应的互补信息,既能增加判别器的决策能力,又能通过对抗学习来反向更新网络模型的变换参数,从而改善生成的配准图像。在目标损失函数的构建中,由于交叉熵损失函数可能会造成梯度消失问题,导致生成对抗网络的训练不稳定,因此,使用最小二乘GAN的最小二乘损失去替换交叉熵损失,可以缓解梯度消失和过拟合问题。本实施例中的上述方法采用双判别器对抗学习实现可变形医学图像的配准,能够在医学图像训练样本缺乏标注信息的情况下,提高医学图像配准的精度,从而增强配准方法和系统的泛化能力。
实施例2:
本实施例用于提供一种可变形医学图像配准系统,如图7所示,所述配准系统包括:
数据集获取模块M1,用于获取数据集;所述数据集包括训练集和测试集;所述训练集和所述测试集均包括待配准图像对;每一所述待配准图像对包括固定图像和浮动图像;
待训练配准模型构建模块M2,用于构建待训练配准模型;所述待训练配准模型包括生成器和双判别器;所述双判别器包括全局判别器和局部判别器;
目标损失函数构建模块M3,用于构建目标损失函数;
训练模块M4,用于以所述训练集中的待配准图像对作为输入,基于所述目标损失函数对所述待训练配准模型进行迭代训练,得到配准模型;
配准模块M5,用于将所述测试集中的待配准图像对输入至所述配准模型,得到配准图像。
除非另有定义,这里使用的所有术语(包括技术和科学术语)具有与本发明所属领域的普通技术人员共同理解的相同含义。还应当理解,诸如在通常字典里定义的那些术语应当被解释为具有与它们在相关技术的上下文中的含义相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地这样定义。
上面是对本发明的说明,而不应被认为是对其的限制。尽管描述了本发明的若干示例性实施例,但本领域技术人员将容易地理解,在不背离本发明的新颖教学和优点的前提下可以对示例性实施例进行许多修改。因此,所有这些修改都意图包含在权利要求书所限定的本发明范围内。应当理解,上面是对本发明的说明,而不应被认为是限于所公开的特定实施例,并且对所公开的实施例以及其他实施例的修改意图包含在所附权利要求书的范围内。本发明由权利要求书及其等效物限定。

Claims (6)

1.一种可变形医学图像配准方法,其特征在于,所述配准方法包括:
获取数据集;所述数据集包括训练集和测试集;所述训练集和所述测试集均包括待配准图像对;每一所述待配准图像对包括固定图像和浮动图像;
构建待训练配准模型;所述待训练配准模型包括生成器和双判别器;所述双判别器包括全局判别器和局部判别器;
构建目标损失函数;
以所述训练集中的待配准图像对作为输入,基于所述目标损失函数对所述待训练配准模型进行迭代训练,得到配准模型;
将所述测试集中的待配准图像对输入至所述配准模型,得到配准图像;
所述生成器采用改进后的U-Net网络;所述改进后的U-Net网络采用多尺度输入,尺度与编码器的层一一对应;每一尺度下的待配准图像对通过一卷积层与所述尺度的对应层相连接;所述改进后的U-Net网络采用密集残差扩张卷积模块代替U-Net网络的底层瓶颈结构;所述密集残差扩张卷积模块包括密集连接的多个空洞卷积单元;多个所述空洞卷积单元的扩张速率均不同;
所述全局判别器采用CNN网络;所述全局判别器包括依次连接的多个卷积池化单元、多个全连接层以及激活函数;
所述局部判别器采用U-Net网络;所述局部判别器包括依次连接的编码器、解码器以及激活函数;
所述构建目标损失函数具体包括:分别构建正则项损失函数、重加权损失函数、全局判别器的对抗损失函数以及局部判别器的对抗损失函数;以所述正则项损失函数、所述重加权损失函数、所述全局判别器的对抗损失函数以及所述局部判别器的对抗损失函数的加权和作为目标损失函数。
2.根据权利要求1所述的配准方法,其特征在于,所述获取数据集具体包括:
从公开数据集中获取医学图像;
对所述医学图像进行预处理,得到预处理后的医学图像;所有所述预处理后的医学图像组成数据集,并将所述数据集划分为训练集和测试集。
3.根据权利要求1所述的配准方法,其特征在于,所述正则项损失函数包括:
Figure FDA0004175693590000011
其中,LSmooth(φ)为正则项损失函数;p表示形变场中的体素;Ω代表形变场所处空间区域;φ表示形变场;φ(p)表示形变场中p体素的值;
所述重加权损失函数包括:
Figure FDA0004175693590000021
其中,LRew为重加权损失函数;E表示分布函数对应的期望值;pdata(IF,IM)表示真实数据集;W=(1-F)β;W为权重因子;F为注意力权重;β为控制因子的强度;IM为浮动图像;IF为固定图像;G表示生成器;G(IM)为配准图像;
全局判别器的对抗损失函数包括:
Figure FDA0004175693590000022
其中,LAdv1为全局判别器的对抗损失函数;pdata(IM)代表真实数据集中浮动图像的数据分布;D1表示全局判别器;
局部判别器的对抗损失函数包括:
Figure FDA0004175693590000023
其中,LAdv2为局部判别器的对抗损失函数;pdata(Ih M)代表真实数据集中浮动图像中所提取的图像块的数据分布;D2表示局部判别器;
Figure FDA0004175693590000024
为从固定图像中提取的图像块;/>
Figure FDA0004175693590000025
为从浮动图像中提取的图像块;/>
Figure FDA0004175693590000026
为从配准图像中提取的图像块。
4.根据权利要求1所述的配准方法,其特征在于,所述以所述训练集中的待配准图像对作为输入,基于所述目标损失函数对所述待训练配准模型进行迭代训练,得到配准模型具体包括:
将所述训练集作为所述生成器的输入,根据所述目标损失函数,对所述双判别器和所述生成器的参数进行迭代更新,得到配准模型。
5.根据权利要求4所述的配准方法,其特征在于,所述根据所述目标损失函数,对所述双判别器和所述生成器的参数进行迭代更新具体包括:
在一次迭代更新中,固定所述生成器的参数,根据所述目标损失函数对所述双判别器的参数进行更新,得到更新后的双判别器;固定所述更新后的双判别器的参数,根据所述目标损失函数对所述生成器的参数进行更新,得到更新后的生成器。
6.一种可变形医学图像配准系统,其特征在于,所述配准系统包括:
数据集获取模块,用于获取数据集;所述数据集包括训练集和测试集;所述训练集和所述测试集均包括待配准图像对;每一所述待配准图像对包括固定图像和浮动图像;
待训练配准模型构建模块,用于构建待训练配准模型;所述待训练配准模型包括生成器和双判别器;所述双判别器包括全局判别器和局部判别器;所述生成器采用改进后的U-Net网络;所述改进后的U-Net网络采用多尺度输入,尺度与编码器的层一一对应;每一尺度下的待配准图像对通过一卷积层与所述尺度的对应层相连接;所述改进后的U-Net网络采用密集残差扩张卷积模块代替U-Net网络的底层瓶颈结构;所述密集残差扩张卷积模块包括密集连接的多个空洞卷积单元;多个所述空洞卷积单元的扩张速率均不同;所述全局判别器采用CNN网络;所述全局判别器包括依次连接的多个卷积池化单元、多个全连接层以及激活函数;所述局部判别器采用U-Net网络;所述局部判别器包括依次连接的编码器、解码器以及激活函数;
目标损失函数构建模块,用于构建目标损失函数,具体包括:分别构建正则项损失函数、重加权损失函数、全局判别器的对抗损失函数以及局部判别器的对抗损失函数;以所述正则项损失函数、所述重加权损失函数、所述全局判别器的对抗损失函数以及所述局部判别器的对抗损失函数的加权和作为目标损失函数;
训练模块,用于以所述训练集中的待配准图像对作为输入,基于所述目标损失函数对所述待训练配准模型进行迭代训练,得到配准模型;
配准模块,用于将所述测试集中的待配准图像对输入至所述配准模型,得到配准图像。
CN202111042983.1A 2021-09-07 2021-09-07 一种可变形医学图像配准方法及系统 Active CN113763442B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111042983.1A CN113763442B (zh) 2021-09-07 2021-09-07 一种可变形医学图像配准方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111042983.1A CN113763442B (zh) 2021-09-07 2021-09-07 一种可变形医学图像配准方法及系统

Publications (2)

Publication Number Publication Date
CN113763442A CN113763442A (zh) 2021-12-07
CN113763442B true CN113763442B (zh) 2023-06-13

Family

ID=78793473

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111042983.1A Active CN113763442B (zh) 2021-09-07 2021-09-07 一种可变形医学图像配准方法及系统

Country Status (1)

Country Link
CN (1) CN113763442B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114693753B (zh) * 2022-03-24 2024-05-03 北京理工大学 基于纹理保持约束的三维超声弹性配准方法及装置
CN114820733A (zh) * 2022-04-21 2022-07-29 北京航空航天大学 一种可解释的热红外可见光图像配准方法及系统
CN116109496A (zh) * 2022-11-15 2023-05-12 济南大学 基于双流结构保护网络的x光片增强方法及系统
CN116071401B (zh) * 2023-01-28 2023-08-01 中日友好医院(中日友好临床医学研究所) 基于深度学习的虚拟ct图像的生成方法及装置
CN116402865B (zh) * 2023-06-06 2023-09-15 之江实验室 一种利用扩散模型的多模态影像配准方法、装置和介质
CN116881639A (zh) * 2023-07-10 2023-10-13 国网四川省电力公司营销服务中心 一种基于生成对抗网络的窃电数据合成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903299A (zh) * 2019-04-02 2019-06-18 中国矿业大学 一种条件式生成对抗网络的异源遥感图像配准方法及装置
CN110021037A (zh) * 2019-04-17 2019-07-16 南昌航空大学 一种基于生成对抗网络的图像非刚性配准方法及系统
CN110163897A (zh) * 2019-04-24 2019-08-23 艾瑞迈迪科技石家庄有限公司 一种基于合成超声图像的多模态图像配准方法
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903299A (zh) * 2019-04-02 2019-06-18 中国矿业大学 一种条件式生成对抗网络的异源遥感图像配准方法及装置
CN110021037A (zh) * 2019-04-17 2019-07-16 南昌航空大学 一种基于生成对抗网络的图像非刚性配准方法及系统
CN110163897A (zh) * 2019-04-24 2019-08-23 艾瑞迈迪科技石家庄有限公司 一种基于合成超声图像的多模态图像配准方法
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Image registration method based on Generative Adversarial Networks;Yujie Sun;《IEEE》;全文 *
深度学习在医学影像中的研究进展及发展趋势;王丽会;《大数据》;第06卷(第06期);全文 *
融合密集残差块和GAN变体的医学图像非刚性配准;张桂梅;《中国图象图形学报》(第10期);全文 *

Also Published As

Publication number Publication date
CN113763442A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
CN113763442B (zh) 一种可变形医学图像配准方法及系统
CN111192245B (zh) 一种基于U-Net网络的脑肿瘤分割网络及分割方法
CN110889852B (zh) 基于残差-注意力深度神经网络的肝脏分割方法
CN109685768B (zh) 基于肺部ct序列的肺结节自动检测方法及系统
Biffi et al. Explainable anatomical shape analysis through deep hierarchical generative models
CN112862830B (zh) 一种多模态图像分割方法、系统、终端及可读存储介质
CN110599461B (zh) 一种基于子空间特征学习的丘脑功能分区方法
CN112529870B (zh) 基于源域与频域结合的多尺度CNNs肺结节假阳性剔除方法
CN112446891A (zh) 基于U-Net网络脑胶质瘤的医学图像分割方法
CN112163599B (zh) 一种基于多尺度多层次融合的图像分类方法
Matejek et al. Biologically-constrained graphs for global connectomics reconstruction
CN115841607A (zh) 一种基于图注意力网络的脑网络结构和相似度的联合学习方法
CN115375711A (zh) 基于多尺度融合的全局上下文关注网络的图像分割方法
CN111524140A (zh) 基于cnn和随机森林法的医学图像语义分割方法
CN116797618A (zh) 基于多模态mri心脏图像的多阶段分割方法
CN114463320B (zh) 一种磁共振成像脑胶质瘤idh基因预测方法及系统
CN106709921B (zh) 一种基于空间Dirichlet混合模型的彩色图像分割方法
CN114022521A (zh) 一种非刚性多模医学图像的配准方法及系统
Pal et al. A brief survey on image segmentation based on quantum inspired neural network
CN114581459A (zh) 一种基于改进性3D U-Net模型的学前儿童肺部影像感兴趣区域分割方法
Yu et al. 3D convolutional networks based automatic diagnosis of Alzheimer's disease using structural MRI
Eybposh et al. Segmentation and classification of cine-mr images using fully convolutional networks and handcrafted features
CN117649422B (zh) 多模态图像分割模型的训练方法和多模态图像分割方法
CN112669329B (zh) 图像分割方法及图像分割系统
CN112330642B (zh) 基于双输入全卷积网络的胰腺图像分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Zhang Guimei

Inventor after: Wang Jie

Inventor after: Huang Junyang

Inventor after: Long Bangyao

Inventor after: Tao Hui

Inventor before: Zhang Guimei

Inventor before: Huang Junyang

Inventor before: Long Bangyao

Inventor before: Tao Hui

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant