CN115546270A - 多尺度特征融合的图像配准方法、模型训练方法及设备 - Google Patents
多尺度特征融合的图像配准方法、模型训练方法及设备 Download PDFInfo
- Publication number
- CN115546270A CN115546270A CN202211231125.6A CN202211231125A CN115546270A CN 115546270 A CN115546270 A CN 115546270A CN 202211231125 A CN202211231125 A CN 202211231125A CN 115546270 A CN115546270 A CN 115546270A
- Authority
- CN
- China
- Prior art keywords
- image
- registered
- registration
- rigid
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供多尺度特征融合的图像配准方法、模型训练方法及设备,该方法包括:获取待配准的图像;将待配准的图像和指定图像输入到预先训练的图像配准模型中,以得到配准图像;图像配准模型的参数是基于从多个训练样本中选出的待配准图像和固定图像对预先构建的网络模型进行训练,并基于固定图像与配准后的图像之间的相似度损失函数值确定的;其中,预先构建的网络模型包括刚性配准网络和非刚性配准网络,非刚性配准网络的编码器包括自适应感受野卷积模组和卷积层,非刚性配准网络的解码器包括多尺度特征融合路径和跳跃链接,跳跃连接用于保留在编码阶段原始的图像特征。本发明可以在保证配准的准确度的同时,还可以快速完成配准。
Description
技术领域
本发明涉及医学图像处理技术领域,尤其涉及一种多尺度特征融合的图像配准方法、模型训练方法及设备。
背景技术
图像配准就是将不同时间、不同传感器或不同条件下获取的两幅或多幅图像进行匹配、叠加的过程,它已经被广泛地应用于遥感数据分析、计算机视觉、图像处理等领域。图像配准的关键在于寻找多幅待配准图像间的空间变换关系,从而使待配准图像上对应点处在同一坐标系中。
传统的配准方法主要是通过对图像对进行特征提取为每对图像设定一个目标函数,然后通过迭代优化算法得到最优的空间变换。然而,迭代优化虽然可以得到较精确的结果,但是需要对每一对图像对进行迭代优化,需要很长的迭代处理时间。
随着深度学习的迅猛发展,亟需一种可以快速配准的图像配准方法。
发明内容
本发明实施例提供了一种多尺度特征融合的图像配准方法、模型训练方法及设备,以解决目前的配准方法处理时间较长的问题。
第一方面,本发明实施例提供了一种多尺度特征融合的图像配准方法,包括:
获取待配准的图像和指定图像;
将待配准的图像和指定图像输入到预先训练的图像配准模型中,以得到配准图像;
其中,图像配准模型的参数是基于从多个训练样本中选出的待配准图像和固定图像对预先构建的网络模型进行训练,并基于固定图像与配准后的图像之间的相似度损失函数值确定的;其中,预先构建的网络模型包括刚性配准网络和非刚性配准网络,非刚性配准网络的编码器包括自适应感受野卷积模组和卷积层,非刚性配准网络的解码器包括多尺度特征融合路径和跳跃链接,跳跃连接用于保留在编码阶段原始的图像特征。
在一种可能的实现方式中,获取待配准的图像和指定图像之后,包括:
对待配准的图像和指定图像进行预处理,预处理包括下述一项或多项:降噪、阈值分割、增强对比度以及缩放裁剪处理。
在一种可能的实现方式中,固定图像与配准后的图像之间的相似度损失函数值满足以下公式:
待配准的图像为单模态三维CT图像。
第二方面,本发明实施例提供了一种图像配准模型的训练方法,图像配准模型包括刚性配准网络和非刚性配准网络,方法包括:
获取训练样本,训练样本中包括多个图像;
将固定图像和浮动图像拼接后输入到刚性配准网络中,基于刚性配准网络的刚性配准形变场对浮动图像进行采样处理,得到第一浮动图像;其中,固定图像和浮动图像分别为训练样本中的任意两幅不同的图像;
将第一浮动图像和固定图像拼接后输入到非刚性配准网络的编码器中,得到第一浮动图像的三维图像特征;其中,非刚性配准网络的编码器包括自适应感受野卷积模组和卷积层;
将三维图像特征输入到非刚性配准网络的解码器中,对第一浮动图像进行采样处理,得到配准后的图像;其中,非刚性配准网络的解码器包括多尺度特征融合路径和跳跃链接,跳跃连接用于保留在编码阶段原始的图像特征;
基于固定图像与配准后的图像之间的相似度损失函数值确定最终的图像配准模型。
在一种可能的实现方式中,非刚性配准网络的编码器包括五组编码块,每一组编码块包含一层自适应感受野卷积层和一层三维卷积层;
自适应感受野卷积层包括多个不同尺度特征的三维卷积层、全局最大池化层和两层全连接层,多个不同尺度特征的三维卷积层用于对特征图进行卷积以提取不同感受野和运动大小的特征信息,全局最大池化层用于获取每一个特征通道的最大值作为其标志,两层全连接层用于为不同尺度特征的不同特征通道生成权重系数;
三维卷积层用于将得到的不同感受野和运动大小的特征信息拼接、卷积以及激活处理。
在一种可能的实现方式中,非刚性配准网络的多尺度特征融合路径包括五组解码块,每组解码块用于在上采样恢复特征图大小的同时,预测不同尺度特征下的特征形变场,并利用多组反卷积操作上采样每一层预测的特征形变场至得到最终的非刚性形变场;
将三维图像特征输入到非刚性配准网络的解码器中,对第一浮动图像进行采样处理,得到配准后的图像,包括:
将三维图像特征输入到非刚性配准网络的解码器中,得到非刚性形变场;
将非刚性形变场施加到第一浮动图像上,并进行差值采样,得到配准后的图像。
在一种可能的实现方式中,固定图像与配准后的图像之间的相似度损失函数值满足以下公式:
在一种可能的实现方式中,获取训练样本,包括:
对训练样本中的所有图像分别进行预处理,预处理包括下述一项或多项:
降噪、阈值分割、增强对比度以及缩放裁剪处理;
训练样本中的图像为为单模态三维CT图像。
第三方面,本发明实施例提供了一种多尺度特征融合的图像配准装置,包括:
获取图像模块,用于获取待配准的图像和指定图像;
配准模块,用于将待配准的图像和指定图像输入到预先训练的图像配准模型中,以得到配准图像;
其中,图像配准模型的参数是基于从多个训练样本中选出的待配准图像和固定图像对预先构建的网络模型进行训练,并基于固定图像与配准后的图像之间的相似度损失函数值确定的;其中,预先构建的网络模型包括刚性配准网络和非刚性配准网络,非刚性配准网络的编码器包括自适应感受野卷积模组和卷积层,非刚性配准网络的解码器包括多尺度特征融合路径和跳跃链接,跳跃连接用于保留在编码阶段原始的图像特征。
在一种可能的实现方式中,获取图像模块,用于对待配准的图像和指定图像进行预处理,预处理包括下述一项或多项:降噪、阈值分割、增强对比度以及缩放裁剪处理。
在一种可能的实现方式中,固定图像与配准后的图像之间的相似度损失函数值满足以下公式:
待配准的图像为单模态三维CT图像。
第四方面,本发明实施例提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。
第五方面,本发明实施例提供了另一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第二方面或第二方面的任一种可能的实现方式所述方法的步骤。
第六方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。
本发明实施例提供一种多尺度特征融合的图像配准方法、模型训练方法及设备,在对待配准的图像进行配准之前,需要首先对预先构建的网络模型进行训练,图像配准模型训练完成后,即可将待配准的图像和指定图像输入至图像配准模型中,得到配准图像。预先构建的网络模型包括刚性配准网络和非刚性配准网络,首先,通过刚性配准网络对全局形变场进行预测,得到初步的“粗”配准结果,然后输入到非刚性配准网络进行更精确的像素级位移场,进而在保证配准的准确度的同时,还可以快速完成配准。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种图像配准模型的训练方法的实现流程图;
图2是本发明实施例提供的自适应感受野卷积过程框图;
图3是本发明实施例提供的多尺度特征融合解码过程框图;
图4是本发明实施例提供的多尺度特征融合的图像配准方法的实现流程图;
图5是本发明实施例提供的多种方法对待配准图像的处理示意图;
图6是本发明实施例提供的多尺度特征融合的图像配准装置的结构示意图;
图7是本发明实施例提供的电子设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
图像配准是将同一传感器拍摄的不同时间、不同视角或利用不同传感器得到的同一场景的两幅或多幅图像在空间位置上对齐的图像处理过程。图像配准的关键在于寻找多幅待配准图像间的空间变换关系,从而使待配准图像上对应点处在同一坐标系中。
以医学图像配准为例进行说明,随着医学成像设备的进步,对于同一患者,可以采集含有准确解剖信息的图像诸如CT或MRI。同时,也可以采集到含有功能信息的图像诸如SPECT。然而,通过观察不同的图像进行诊断需要凭着空间想象和医生的主观经验。采用正确的图像配准方法则可以将多种多样的信息准确地融合到同一图像中,使医生更方便更精确地从各个角度观察病灶和结构。同时,通过对不同时刻采集的动态图像的配准,可以定量分析病灶和器官的变化情况,使得医疗诊断、制定手术计划、放射治疗计划更准确可靠。
目前的配准方法通过对图像对进行特征提取(灰度值,SIFT,Harris角点等)为每对图像设定一个目标函数,通过优化算法(Powell算法,伪牛顿法,梯度下降法等)得到最优的空间变换。传统配准方法往往能够得出更加精确的结果但由于需要迭代优化每一对图像对,因此非常耗时。
随着深度学习的不断发展,深度学习可以把迭代时间转移到模型训练时间中,其实际推理时间可以大大少于传统配准方法的迭代时间。
基于深度学习的配准方法大体分为有监督配准与无监督配准。有监督配准的一大难题是标准的难以获得。还以医学图像配准为例进行说明,手工标签的标注往往需要大量的专业医师,这不仅非常耗时与昂贵,往往还具有主观性。虽然也有利用传统算法得到的形变场或利用人工生成的形变场作为监督数据,但是前者的配准精度很难突破瓶颈,而人工生成的形变场可能会导致训练的偏倚,因为人工形变场往往是不现实的,很难模拟真实的生理运动。
无监督配准则是通过定义为一个函数,通过输入图像对得到图像间进行对齐映射的变形场。利用一个卷积神经网络对函数进行参数化,并通过相似性测度反向传播优化神经网络的参数。
因此,亟需一种可以快速配准的图像配准方法。
为了解决现有技术问题,本发明实施例提供了一种多尺度特征融合的图像配准方法、模型训练方法及设备。
在介绍多尺度特征融合的图像配准方法之前,首先介绍图像配准模型的训练方法。
参见图1,其示出了本发明实施例提供的图像配准模型的训练方法的实现流程图,图像配准模型包括刚性配准网络和非刚性配准网络,方法详述如下:
步骤S110、获取训练样本。
图像可以为遥感图像,也可以为单模态三维CT图像,只要是涉及到配准的都可以将其图像作为训练样本,训练样本中包括多个图像。
训练样本包括训练集和测试集。其中,训练集中仅包括图像,测试集中不仅包括图像,还包括该图像目标物的分割标签,便于测试训练完成的网络的准确性。
在一些实施例中,在获取到训练样本后,还需要对训练样本进行预处理。将训练样本中的所有图像经过降噪、阈值分割、增强对比度以及缩放裁剪处理中的一项或多项处理后,将处理后得到的训练样本存储在Numpy数组中。其中,Numpy数组是一种常用的数学运算库,包含着各种对数组矩阵的基本操作。
示例性的,可以首先利用标准差为2的高斯平滑对训练样本中的图像进行降噪处理,然后使用多组阈值进行阈值分割,获取其最大分割边界的连通区域将目标区域边界进行裁剪,将裁剪后的三维图像域进行拉伸缩放到统一维度,并调整窗宽窗位进行对比度增强。将经过预处理的训练样本的图像存储到Numpy数组中保存为HDF5文件格式。
步骤S120、将固定图像和浮动图像拼接后输入到刚性配准网络中,基于刚性配准网络的刚性配准形变场对浮动图像进行采样处理,得到第一浮动图像。
其中,为了保证训练的鲁棒性,可以在经过预处理的训练样本中的所有图像中随机选取任意一张图像作为固定图像,选取另外一张图像作为浮动图像。浮动图像是需要进行形变的图像。固定图像是参考图像,不需要形变的图像。
刚性配准网络主要是对图像进行全局的总体的线性变换。
在一些实施例中,为了得到粗配准后的图像,可以首先,将固定图像和浮动图像拼接后输入到刚性配准网络中,得到刚性配准变换参数。然后,将刚性配准变换参数施加到单位矩阵中,得到刚性配准形变场。最后,将刚性配准形变场施加到浮动图像进行差值采样处理,得到全局粗配准后的第一浮动图像。
在此实施例中,首先,对固定图像IFixed,浮动图像IMoving对进行拼接,然后进行三维卷积下采样提取特征,最后通过一个全连通层产生12个参数作为输出,这些参数表示一个3×3的刚性配准变换参数矩阵W和一个三维偏移向量B。
具体的,刚性配准网络的卷积层的设置如下:
进行Conv1卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为16,步长为2;
进行Conv2卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为32,步长为2;
进行Conv3卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为64,步长为2;
进行Conv3_1卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为64,步长为1;
进行Conv4卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为128,步长为2;
进行Conv4_1卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为128,步长为1;
进行Conv5卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为256,步长为2;
进行Conv5_1卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为256,步长为1;
进行Conv6卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为512,步长为2;
进行Conv6_1卷积操作:进行一次3×3×3的卷积,接着进行LeakyReLU激活函数,通道数设为512,步长为1;
进行Conv_W全连接操作:通道数设为9,激活函数为Linear激活函数,输出为3×3的刚性配准变换参数矩阵W;
进行Conv_B全连接操作:通道数设为3,激活函数为Linear激活函数,输出三维偏移向量B;
步骤S130、将第一浮动图像和固定图像拼接后输入到非刚性配准网络的编码器中,得到第一浮动图像的三维图像特征。
其中,非刚性配准网络的编码器包括自适应感受野卷积模组和卷积层。
非刚性配准网络的编码器包括五组编码块,每一组编码块包含一层自适应感受野卷积层和一层三维卷积层;
自适应感受野卷积层包括多个不同尺度特征的三维卷积层、全局最大池化层和两层全连接层,多个不同尺度特征的三维卷积层用于对特征图进行卷积以提取不同感受野和运动大小的特征信息,全局最大池化层用于获取每一个特征通道的最大值作为其标志,两层全连接层用于为不同尺度特征的不同特征通道生成权重系数。三维卷积层用于将得到的不同感受野和运动大小的特征信息拼接、卷积以及激活处理。
在一些实施例中,如图2所示,自适应感受野卷积编码层是由不同尺度的三维卷积层分别对特征图进行卷积(例:3×3×3,5×5×5,7×7×7)以提取不同感受野和运动大小的信息,然后将上述多种信息进行融合,利用全局最大池化层(GAP)取得每一个特征通道的最大值作为其标志,通过两层全连接层,第一层全连接激活函数为ReLu激活函数,第二层激活函数为Softmax激活函数。全连接层为不同尺度特征的不同特征通道生成一个权重系数,即代表了不同感受野下不同图像特征的权重比,使网络可以自行调节感受野的大小、学习不同运动特征的重要程度。
三维卷积层则是将自适应感受野卷积编码层得到的不同感受野和运动大小的特征信息进行拼接,进行3×3×3的卷积,接着使用LeakyReLU激活函数,步长为1,通道数分别设为16、32、64、128、256。
步骤S140、将三维图像特征输入到非刚性配准网络的解码器中,对第一浮动图像进行采样处理,得到配准后的图像。
其中,非刚性配准网络的解码器包括多尺度特征融合路径和跳跃链接,跳跃连接用于保留在编码阶段原始的图像特征。
非刚性配准网络的多尺度特征融合路径包括五组解码块,每组解码块用于在上采样恢复特征图大小的同时,预测不同尺度特征下的特征形变场,并利用多组反卷积操作上采样每一层预测的特征形变场至得到最终的非刚性形变场。
在一些实施例中,如图3所示,多尺度特征融合解码路径由五组解码块组成,每一解码块在上采样2倍恢复特征图大小的同时,预测不同尺度下的特征形变场,并利用多组步长为2的反卷积操作上采样每一层预测的形变场至最终的非刚性形变场大小。通过将不同尺度的特征进行融合,得到最终的形变场。同时为了避免在编码阶段下采样的特征丢失,利用跳跃链接保留在编码阶段原始的图像特征。将解码路径得到的非刚性形变场施加在经过刚性配准后的第一浮动图像上进行三线性插值采样,取得非刚性配准后的图像该图像即为配准后的图像。
具体的,首先,将三维图像特征输入到非刚性配准网络的解码器中,得到非刚性形变场。然后,将非刚性形变场施加到第一浮动图像上,并进行差值采样,得到配准后的图像。
步骤S150、基于固定图像与配准后的图像之间的相似度损失函数值确定最终的图像配准模型。
Ω代表着输入的三维图像的像素域,x和y分别为图像中的像素。
相关系数为:
图像被视为随机变量,其样本空间是其三维空间像素域中的点。相关系数的取值范围为[-1,1],表示两幅图像线性相关的程度,当且仅当两幅图像互为线性函数时,得到±1。1代表两幅三维图像完全相关,0代表不相关,-1代表完全反相关。相关系数损失定义为:
通过计算固定图像与非刚性配准后的图像的相似性损失函数,并利用反向传播梯度求导更新网络参数,在迭代100000步后结束网络模型训练,保存模型参数,该模型即为最终的图像配准模型。
此外,为了对训练完成的图像配准模型进行评价,选用戴斯系数为评价标准。
从测试集中随机挑选2幅图像,分别将其中一个设为固定图像IFixed)另一个设为浮动图像IMoving)将两张图像对进行预处理后作为输入送入图像配准模型中,得到形变后的配准后的图像IWarped。需要说明的是,测试集中除包括图像外,还包括图片中的目标物的分割标签。
将戴斯(Dice)系数作为评价标准对配准进行评价,其中戴斯(Dice)系数定义为:
其中,分别为固定图像与配准后的图像的医学解剖分割标签。两幅图像完全重叠区域的戴斯(Dice)系数得分为1。Dice系数明确地衡量了两个医学解剖区域之间的一致性,从而反映了配准的质量。是与之间的交集,和分表表示和中三维空间域中体素的个数,其中,分子的系数为2,是因为分母存在重复计算和之间的共同元素。
图像配准模型训练完成后,即可用于对待配准的图像进行配准。
参见图4,其示出了本发明实施例提供的一种多尺度特征融合的图像配准方法的实现流程图,详述如下:
步骤S410、获取待配准的图像和指定图像。
指定图像为固定图像,不需要形变的图像,待配准的图像为需要根据指定图像进行形变的图像。
确定待配准的图像和指定图像后,还需要对待配准的图像和指定图像进行预处理,预处理包括下述一项或多项:降噪、阈值分割、增强对比度以及缩放裁剪处理。
步骤S420、将待配准的图像和指定图像输入到预先训练的图像配准模型中,以得到配准图像。
图像配准模型的参数是基于从多个训练样本中选出的待配准图像和固定图像对预先构建的网络模型进行训练,并基于固定图像与配准后的图像之间的相似度损失函数值确定的;其中,预先构建的网络模型包括刚性配准网络和非刚性配准网络,非刚性配准网络的编码器包括自适应感受野卷积模组和卷积层,非刚性配准网络的解码器包括多尺度特征融合路径和跳跃链接,跳跃连接用于保留在编码阶段原始的图像特征。
图像配准模型的训练过程,此处不再赘述。
通过将指定图像和待配准的图像输入至图像配准模型中,即可以得到配准图像。在第一配准阶段,采用刚性配准变换对全局刚性的形变场进行预测,在取得初步的“粗”配准结果的同时,为接下来的非刚性配准网络提供了可靠的先验知识。为了获得更“精确”的像素级位移场,在第二阶段,采用自适应感受野卷积编码层,以提取不同感受野和运动大小的信息,并进行融合以获得不同结构和空间的增强特征,解码器部分通过将不同尺度的特征进行融合,累加了多种尺度下的形变信息。同时为了避免在编码阶段下采样的特征丢失,利用跳跃链接保留在编码阶段原始的图像特征。从而不仅可以缩短配准的时间,且配准的准确度也较高。
本发明提供的图像配准方法,在对待配准的图像进行配准之前,需要首先对预先构建的网络模型进行训练,图像配准模型训练完成后,即可将待配准的图像和指定图像输入至图像配准模型中,得到配准图像。预先构建的网络模型包括刚性配准网络和非刚性配准网络,首先,通过刚性配准网络对全局形变场进行预测,得到初步的“粗”配准结果,然后输入到非刚性配准网络进行更精确的像素级位移场,进而保证配准的准确度以及配准的时间,可以快速完成配准。
以下,以单模态三维CT图像配准过程为例,进行详细的说明:
CPU为Xeon(R)W-22553.70GHz,显卡为NVIDIA Geforce RTX 3090,内存为64GB的计算机中实现,实现方式为Python,深度学习框架为Tensorflow。
首先介绍图像配准模型的训练过程:
步骤S510、选取训练样本,训练样本包括训练集和测试集。训练集包含多组刚脏三维CT影像,测试集则包括多组肝脏CT影像,以及肝脏分割标签。
将训练样本分别利用标准差为2的高斯平滑对图像进行降噪,之后使用多组阈值进行阈值分割,获取其最大分割边界的连通区域将目标区域(肝脏)边界进行裁剪,将裁剪后的三维图像域进行拉伸缩放到统一维度,并调整窗宽窗位进行对比度增强。将经过预处理的三维CT医学图像存储到Numpy数组中保存为HDF5文件格式。
步骤S520、将固定图像和浮动图像拼接后输入到刚性配准网络中,基于刚性配准网络的刚性配准形变场对浮动图像进行采样处理,得到第一浮动图像。
首先,将固定图像IFixed和浮动图像IMoving拼接后输入到刚性配准网络中,得到刚性配准变换参数。然后,将刚性配准变换参数施加到单位矩阵中,得到刚性配准形变场。最后,将刚性配准形变场施加到浮动图像进行三线性差值采样处理,得到全局粗配准后的第一浮动图像此处不再赘述,请参照图像配准模型的训练方法的内容。
步骤S530、将第一浮动图像和固定图像拼接后输入到非刚性配准网络的编码器中,得到第一浮动图像的三维图像特征。
其中编码路径由五组编码块组成,其中每一编码块包含一层感受野自适应卷积层与一层三维卷积层。此处不再赘述,请参照图像配准模型的训练方法的内容。
步骤S540、将三维图像特征输入到非刚性配准网络的解码器中,对第一浮动图像进行采样处理,得到配准后的图像。
步骤S550、基于固定图像与配准后的图像之间的相似度损失函数值确定最终的图像配准模型。
对于固定图像IFixed,非刚性配准后的图像的相似度,并计算损失函数反向传播优化预先构建的网络参数。通过计算固定图像与非刚性配准后的图像的相似性损失函数,并利用反向传播梯度求导更新网络参数,在迭代100000步后结束网络模型训练,保存模型参数,该模型即为最终的图像配准模型。
模型构建完成后,在测试集中随机挑选2张三维CT图像,分别将其中一个设为固定图像IFixed,另一个设为浮动图像IMoving,将两张图像对进行预处理后作为输入送入图像配准模型中,得到形变后的配准后的图像IWarped。采用戴斯评价训练的图像配准模型。
图像配准模型训练完成后,即可对待配准的图像进行配准。
为了验证本发明提供的图像配准模型的准确性,采用测试集中的图像分别采用不同的算法进行测试。
其中,测试集包括三种分别为:
SLIVER数据集:20组肝脏CT与肝脏分割标签。
LiTS:Liver tumor segmentation challenge,131组CT影像与肝脏分割标签。
LSPIG:由哈尔滨医科大学第一附属医院提供,包含17对猪的CT数据与肝脏分割标签。
分别采用的算法,以及配准准确度如表1所示:
表1对比结果
需要说明的是,SyN和B-spline为非深度学习配准方法,故无法统计参数量。
从表5和图5中均可以看出,本发明提供的图像配准模型的配准精度明显优于其他方案。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
基于上述实施例提供的多尺度特征融合的图像配准方法,相应地,本发明还提供了应用于该多尺度特征融合的图像配准方法的多尺度特征融合的图像配准装置的具体实现方式。请参见以下实施例。
如图6所示,提供了一种多尺度特征融合的图像配准装置600,该装置包括:
获取图像模块610,用于获取待配准的图像和指定图像;
配准模块620,用于将待配准的图像和指定图像输入到预先训练的图像配准模型中,以得到配准图像;
其中,图像配准模型的参数是基于从多个训练样本中选出的待配准图像和固定图像对预先构建的网络模型进行训练,并基于固定图像与配准后的图像之间的相似度损失函数值确定的;其中,预先构建的网络模型包括刚性配准网络和非刚性配准网络,非刚性配准网络的编码器包括自适应感受野卷积模组和卷积层,非刚性配准网络的解码器包括多尺度特征融合路径和跳跃链接,跳跃连接用于保留在编码阶段原始的图像特征。
在一种可能的实现方式中,获取图像模块610,用于对待配准的图像和指定图像进行预处理,预处理包括下述一项或多项:降噪、阈值分割、增强对比度以及缩放裁剪处理。
在一种可能的实现方式中,固定图像与配准后的图像之间的相似度损失函数值满足以下公式:
待配准的图像为单模态三维CT图像。
图7是本发明实施例提供的电子设备的示意图。如图7所示,该实施例的电子设备7包括:处理器70、存储器71以及存储在所述存储器71中并可在所述处理器70上运行的计算机程序72。所述处理器70执行所述计算机程序72时实现上述各个多尺度特征融合的图像配准方法实施例中的步骤,例如图4所示的步骤410至步骤420。或者,所述处理器70执行所述计算机程序72时实现上述各装置实施例中各模块的功能,例如图6所示模块610至620的功能。
示例性的,所述计算机程序72可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器71中,并由所述处理器70执行,以完成本发明。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序72在所述电子设备7中的执行过程。例如,所述计算机程序72可以被分割成图6所示的模块610至620。
所述电子设备7可包括,但不仅限于,处理器70、存储器71。本领域技术人员可以理解,图7仅仅是电子设备7的示例,并不构成对电子设备7的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器70可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器71可以是所述电子设备7的内部存储单元,例如电子设备7的硬盘或内存。所述存储器71也可以是所述电子设备7的外部存储设备,例如所述电子设备7上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器71还可以既包括所述电子设备7的内部存储单元也包括外部存储设备。所述存储器71用于存储所述计算机程序以及所述电子设备所需的其他程序和数据。所述存储器71还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个多尺度特征融合的图像配准方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种多尺度特征融合的图像配准方法,其特征在于,包括:
获取待配准的图像和指定图像;
将所述待配准的图像和指定图像输入到预先训练的图像配准模型中,以得到配准图像;
其中,所述图像配准模型的参数是基于从多个训练样本中选出的待配准图像和固定图像对预先构建的网络模型进行训练,并基于所述固定图像与配准后的图像之间的相似度损失函数值确定的;其中,所述预先构建的网络模型包括刚性配准网络和非刚性配准网络,所述非刚性配准网络的编码器包括自适应感受野卷积模组和卷积层,所述非刚性配准网络的解码器包括多尺度特征融合路径和跳跃链接,所述跳跃连接用于保留在编码阶段原始的图像特征。
2.如权利要求1所述的图像配准方法,其特征在于,所述获取待配准的图像和指定图像之后,包括:
对所述待配准的图像和指定图像进行预处理,所述预处理包括下述一项或多项:降噪、阈值分割、增强对比度以及缩放裁剪处理。
4.一种图像配准模型的训练方法,其特征在于,所述图像配准模型包括刚性配准网络和非刚性配准网络,所述方法包括:
获取训练样本,所述训练样本中包括多个图像;
将固定图像和浮动图像拼接后输入到刚性配准网络中,基于所述刚性配准网络的刚性配准形变场对所述浮动图像进行采样处理,得到第一浮动图像;其中,所述固定图像和浮动图像分别为所述训练样本中的任意两幅不同的图像;
将所述第一浮动图像和所述固定图像拼接后输入到非刚性配准网络的编码器中,得到所述第一浮动图像的三维图像特征;其中,所述非刚性配准网络的编码器包括自适应感受野卷积模组和卷积层;
将所述三维图像特征输入到所述非刚性配准网络的解码器中,对所述第一浮动图像进行采样处理,得到配准后的图像;其中,所述非刚性配准网络的解码器包括多尺度特征融合路径和跳跃链接,所述跳跃连接用于保留在编码阶段原始的图像特征;
基于所述固定图像与所述配准后的图像之间的相似度损失函数值确定最终的图像配准模型。
5.如权利要求4所述的训练方法,其特征在于,所述非刚性配准网络的编码器包括五组编码块,每一组编码块包含一层自适应感受野卷积层和一层三维卷积层;
所述自适应感受野卷积层包括多个不同尺度特征的三维卷积层、全局最大池化层和两层全连接层,所述多个不同尺度特征的三维卷积层用于对特征图进行卷积以提取不同感受野和运动大小的特征信息,所述全局最大池化层用于获取每一个特征通道的最大值作为其标志,所述两层全连接层用于为不同尺度特征的不同特征通道生成权重系数;
所述三维卷积层用于将得到的不同感受野和运动大小的特征信息拼接、卷积以及激活处理。
6.如权利要求5所述的训练方法,其特征在于,所述非刚性配准网络的多尺度特征融合路径包括五组解码块,每组解码块用于在上采样恢复特征图大小的同时,预测不同尺度特征下的特征形变场,并利用多组反卷积操作上采样每一层预测的特征形变场至得到最终的非刚性形变场;
所述将所述三维图像特征输入到所述非刚性配准网络的解码器中,对所述第一浮动图像进行采样处理,得到配准后的图像,包括:
将所述三维图像特征输入到所述非刚性配准网络的解码器中,得到非刚性形变场;
将所述非刚性形变场施加到所述第一浮动图像上,并进行差值采样,得到所述配准后的图像。
8.如权利要求4至7任一项所述的训练方法,其特征在于,所述获取训练样本,包括:
对所述训练样本中的所有图像分别进行预处理,预处理包括下述一项或多项:降噪、阈值分割、增强对比度以及缩放裁剪处理;
所述训练样本中的图像为为单模态三维CT图像。
9.一种电子设备,其特征在于,包括存储器和处理器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,执行如权利要求1至8任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211231125.6A CN115546270A (zh) | 2022-10-09 | 2022-10-09 | 多尺度特征融合的图像配准方法、模型训练方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211231125.6A CN115546270A (zh) | 2022-10-09 | 2022-10-09 | 多尺度特征融合的图像配准方法、模型训练方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115546270A true CN115546270A (zh) | 2022-12-30 |
Family
ID=84734453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211231125.6A Pending CN115546270A (zh) | 2022-10-09 | 2022-10-09 | 多尺度特征融合的图像配准方法、模型训练方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115546270A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117670951A (zh) * | 2023-11-14 | 2024-03-08 | 北京长木谷医疗科技股份有限公司 | 基于多模态交叉注意力机制的膝关节图像配准方法及装置 |
-
2022
- 2022-10-09 CN CN202211231125.6A patent/CN115546270A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117670951A (zh) * | 2023-11-14 | 2024-03-08 | 北京长木谷医疗科技股份有限公司 | 基于多模态交叉注意力机制的膝关节图像配准方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11488021B2 (en) | Systems and methods for image segmentation | |
US11200424B2 (en) | Space-time memory network for locating target object in video content | |
Liu et al. | Robust color guided depth map restoration | |
CN111488865B (zh) | 图像优化方法、装置、计算机存储介质以及电子设备 | |
CN110570426B (zh) | 使用深度学习的图像联合配准和分割 | |
An et al. | Medical image segmentation algorithm based on multilayer boundary perception-self attention deep learning model | |
CN109815931B (zh) | 一种视频物体识别的方法、装置、设备以及存储介质 | |
CN113674146A (zh) | 图像超分辨率 | |
Wang et al. | Super-resolution of multi-observed RGB-D images based on nonlocal regression and total variation | |
CN113450396A (zh) | 基于骨骼特征的三维/二维图像配准方法及装置 | |
CN112102294A (zh) | 生成对抗网络的训练方法及装置、图像配准方法及装置 | |
CN115035093A (zh) | 基于注意力对称自编码的脑肿瘤自监督预训练方法、装置 | |
CN112348819A (zh) | 模型训练方法、图像处理及配准方法以及相关装置、设备 | |
CN115546270A (zh) | 多尺度特征融合的图像配准方法、模型训练方法及设备 | |
CN115115772A (zh) | 基于三维影像的关键结构重建方法、装置和计算机设备 | |
CN117315210B (zh) | 一种基于立体成像的图像虚化方法及相关装置 | |
CN112489048B (zh) | 一种基于深度网络的视神经自动分割方法 | |
CN114565953A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN116740081A (zh) | Ct图像中肺血管分割方法、装置、终端设备及介质 | |
CN113409324B (zh) | 一种融合微分几何信息的脑分割方法 | |
CN116128895A (zh) | 医学图像分割方法、装置和计算机可读存储介质 | |
CN116051813A (zh) | 全自动智能腰椎定位与识别方法及应用 | |
CN114972382A (zh) | 一种基于轻量级UNet++网络的脑肿瘤分割算法 | |
CN115861250A (zh) | 自适应数据集的半监督医学图像器官分割方法及系统 | |
CN115115900A (zh) | 图像重建模型的训练方法、装置、设备、介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |