CN109272443B - 一种基于全卷积神经网络的pet与ct图像配准方法 - Google Patents

一种基于全卷积神经网络的pet与ct图像配准方法 Download PDF

Info

Publication number
CN109272443B
CN109272443B CN201811160982.5A CN201811160982A CN109272443B CN 109272443 B CN109272443 B CN 109272443B CN 201811160982 A CN201811160982 A CN 201811160982A CN 109272443 B CN109272443 B CN 109272443B
Authority
CN
China
Prior art keywords
convolution
image
pet
deformation field
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811160982.5A
Other languages
English (en)
Other versions
CN109272443A (zh
Inventor
姜慧研
康鸿健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201811160982.5A priority Critical patent/CN109272443B/zh
Publication of CN109272443A publication Critical patent/CN109272443A/zh
Application granted granted Critical
Publication of CN109272443B publication Critical patent/CN109272443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及一种基于全卷积神经网络的PET与CT图像配准方法;包括:获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;其中,训练全卷积神经网络包括以下步骤:101、获取用于训练的PET和CT样本图像块;102、构建全卷积神经网络,获取形变场;103、通过形变场和PET图像块获取训练配准图像;104、获取总损失函数L,并通过L更新网络权重参数;105、遍历用于训练的PET和CT样本图像块,更新网络权重参数,获全卷积神经网络;本发明计算成本小,结合相似性度量和限制形变场平滑度,从而限制图像的过度形变,配准效率高。

Description

一种基于全卷积神经网络的PET与CT图像配准方法
技术领域
本发明属于医学图像配准领域,具体涉及一种基于全卷积神经网络的PET与CT图像配准方法。
背景技术
正电子断结构扫描(Positron Emission Computer Tomography,以下简称 PET)利用回旋加速器产生放射性同位素18F、13N,静脉注射后参与人体的新陈代谢。代谢率高的组织或病变,在PET上呈现明确的高代谢亮信号;代谢率低的组织或病变在PET上呈低代谢暗信号。计算机断结构扫描(Computed Tomography,以下简称CT)是用X线束对人体的某一部分按一定厚度的结构面进行扫描,当X线射向人体组织时,部分射线被组织吸收,部分射线穿过人体被检测器官接收,产生信号,能准确对图像进行定位。
PET/CT可以进行功能与解剖结构的同机图像融合,是影像医学的一个重要进展。多模态图像配准利用各种成像方式的特点,为不同的影像提供互补信息,增加图像信息量,有助于更全面地了解病变的性质及与周围解剖结构的关系,为临床诊断和治疗的定位提供有效的方法。
医学图像配准在许多医学图像处理任务中起着重要的作用。通常将图像配准制定为优化问题以寻求空间变换,该空间变换通过最大化图像之间的空间对应的替代度量(例如配准图像之间的图像强度相关性)来建立一对固定和移动图像之间的像素/体素对应。由于图像配准优化问题通常使用迭代优化算法来解决,所以传统的图像配准算法通常在计算上成本很高。与传统的图像配准算法不同,基于深度学习的图像配准算法将图像配准定义为多输出回归问题,预测来自一对图像的像素/体素之间的空间关系。训练后的预测模型可以应用于像素/体素级别的图像以实现整体图像配准。
目前,基于全卷积网络(Fully Convolutional Networks以下简称FCN)的体素到体素的学习是Hongming Li等人提出的图像配准方法。通过最大化图像对的相似性度量训练FCN来估计用于配准图像的体素到体素空间变换。为了解决图像之间潜在的较大形变,采用多分辨率策略来联合优化和学习不同分辨率下的空间变换;而以往方法对PET/CT的图像配准存在失真情况,即没有对形变场加以限制导致图像扭曲幅度过大。
发明内容
(一)要解决的技术问题
为了解决现有技术的上述问题,本发明提供一种基于全卷积神经网络的PET与CT图像配准方法。
(二)技术方案
为了达到上述目的,本发明采用的主要技术方案包括:
获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;
其中,训练全卷积神经网络包括以下步骤:
101、预先获取多幅PET和CT二维样本图像,进行尺寸预处理,获取用于训练的PET和CT样本图像块;
102、构建全卷积神经网络,初始化网络权重参数,设置迭代次数,将用于训练的PET和CT样本图像块作为全卷积神经网络的输入,通过多次卷积、池化和反卷积生成形变场;
103、通过对形变场和PET图像块进行空间变换获取训练的配准图像;
104、根据训练配准图像和PET图像块获取相似度Lsim,根据形变场获取限制形变场平滑度Lsmooth,根据公式一和公式二获取总损失函数L,通过总损失函数L更新网络权重参数;
公式一:L=m1*L1+m2*L2......+mn*Ln
式中,m1+m2.....+mn=1,m1、m2……mn均为常数;
公式二:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
105、遍历用于训练的PET和CT样本图像块,重复执行步骤 103-105,多次迭代训练并更新网络权重参数,直至迭代次数达到预设值,获取预先训练的全卷积神经网络。
可选地,尺寸预处理包括:
B1、针对预处理的图像,根据公式三和公式四,分别计算SUV值和 Hu值,设置Hu值窗宽窗位和SUV限制范围;
公式三:SUV=Pixels×LBM×1000/injected dose;
式中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式四:Hu=Pixels×slopes+intercepts;
式中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
B2、调整分辨率至图像尺寸等于预设值生成三维数组;
B3、将三维数组据变换成五维数组,通过剪裁和采样获取预设尺寸的图像块。
可选地,步骤103中构建全卷积神经网络包括:
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构、第一池化结构和第二池化结构;
全卷积神经网络的输入作为第一卷积结构的输入;
第一卷积结构、第二卷积结构、第三卷积结构和第四卷积结构依次排列;
第一池化结构设置在第一卷积结构和第二卷积结构之间,第二池化结构设置在第二卷积结构和第三卷积结构之间;
第一反卷积结构设置在第三卷积结构和第四卷积结构之间,第二反卷积结构设置在第四卷积结构之后。
可选地,
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构均包括卷积层、批量化归一层和激活层;
第一池化结构和第二池化结构包括卷积层;
其中,卷积层的卷积核为3×3×3,步长为2。
可选地,形变场包括:
第一形变场、第二形变场和三形变场;
将第二反卷积结构的输出进行卷积操作,获取第一形变场;
将第四卷积结构的输出进行卷积操作,获得第二形变场;
将第三卷积结构的输出进行卷积操作,获得第三形变场;
其中,卷积操作的卷核为3×3×3,步长为1。
可选地,
在训练过程中通过上采样调整第一形变场尺寸使得其与PET图像块尺寸相同;
将具有相同尺寸的第一形变场和PET图像块通过空间变换作为训练的配准图像。
可选地,
将PET和CT样本图像块以及待配准的PET与CT图像块输入至全卷积神经网络之前,根据公式四对每个图像块进行归一化;
公式五:
Figure BDA0001820020510000041
式中,μ为均值,σ为标准差。
可选地,
通过公式六获取Lsim,通过公式七获取Lsmooth
公式六:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
Figure BDA0001820020510000051
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和 Z均为常数,r和z均为坐标索引;
Figure BDA0001820020510000052
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
Figure BDA0001820020510000053
wpi表示P的权重,wqj表示Q的权重;
公式七:
Figure BDA0001820020510000054
其中,Ω为,p为,Dv为位移矢量矩阵,
Figure BDA0001820020510000055
为一阶梯度。
可选地,其特征在于,
Hu值窗宽窗位为[-90,300],SUV限制范围为[0,5]。
可选地,
尺寸预处理获取的图像块的大小为64×64×64。
(三)有益效果
本发明的有益效果是:
本发明利用全卷积神经网络实现端到端的的多分辨率的弹性配准,本发明通过多目标优化来进行不同分辨率下的空间变换,即同时结合CT 图像和配准图像对之间的相似性度量以及限制形变场平滑度,从而限制图像的过度形变;本发明计算量小,配准效率高。
附图说明
图1为本发明一实施例提供的一种基于全卷积神经网络的PET与CT 图像配准方法示意图;
图2为本发明一实施例提供的全卷积神经网络内部结构示意图;
图3为本发明一实施例提供的配准方法模块流程示意图;
图4为本发明一实施例提供的配准发明的具体流程图。
具体实施方式
为了更好的解释本发明,以便于理解,下面结合附图,通过具体实施方式,对本发明作详细描述。
实施例一
本发明提出了一种基于全卷积神经网络的PET与CT图像配准方法,具体的包括:
如图1所示,获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;
其中,训练全卷积神经网络包括以下步骤:
101、预先获取多幅PET和CT二维样本图像,进行尺寸预处理,获取用于训练的PET和CT样本图像块;
特别的,将PET和CT样本图像块以及待配准的PET与CT图像块输入至全卷积神经网络之前,根据公式四对每个图像块进行归一化;
公式五:
Figure BDA0001820020510000061
式中,μ为均值,σ为标准差。
举例来说,在具体实施过程中,尺寸预处理包括:
B1、针对预处理的图像,根据公式三和公式四,分别计算SUV值和 Hu值,设置Hu值窗宽窗位和SUV限制范围;
举例来说,Hu值窗宽窗位可设置为[-90,300],SUV限制范围为可设置为[0,5];
公式三:SUV=Pixels×LBM×1000/injected dose;
式中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式四:Hu=Pixels×slopes+intercepts;
式中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
B2、调整分辨率至图像尺寸等于预设值生成三维数组;
B3、将三维数组据变换成五维数组,通过剪裁和采样获取预设尺寸的图像块;
举例来说,在具体实施过程中尺寸预处理获取的图像块的大小为64 ×64×64。
102、构建全卷积神经网络,初始化网络权重参数,设置迭代次数,将用于训练的PET和CT样本图像块作为全卷积神经网络的输入,通过多次卷积、池化和反卷积生成形变场;
举例来说,如图2所示,在本实施例中构建全卷积神经网络包括:
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构、第一池化结构和第二池化结构;
全卷积神经网络的输入作为第一卷积结构的输入;
第一卷积结构、第二卷积结构、第三卷积结构和第四卷积结构依次排列;
第一池化结构设置在第一卷积结构和第二卷积结构之间,第二池化结构设置在第二卷积结构和第三卷积结构之间;
第一反卷积结构设置在第三卷积结构和第四卷积结构之间,第二反卷积结构设置在第四卷积结构之后。
可选地,
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构均包括卷积层、批量化归一层和激活层;
第一池化结构和第二池化结构包括卷积层;
其中,卷积层的卷积核为3×3×3,步长为2。
进一步的,第一形变场、第二形变场和三形变场;
将第二反卷积结构的输出进行卷积操作,获取第一形变场;
将第四卷积结构的输出进行卷积操作,获得第二形变场;
将第三卷积结构的输出进行卷积操作,获得第三形变场;
其中,卷积操作的卷核为3×3×3,步长为1。
103、通过对形变场和PET图像块进行空间变换获取训练配准图像;
具体地,举例来说,在具体实施过程中,通过上采样调整第一形变场尺寸使得其与PET图像块尺寸相同;
同理对第二形变场和第三形变场进行相同的操作获取参考的获取参考的两个配准图像,特殊说明,本实施例仅用获取三个形变场举例说明,本发明还可包括多个形变场;
在本实施例中,训练网络时,每一次训练过程中多个形变场都能与 PET图像块进行空间变换获得多个参考的配准图,其中只有与第四反卷积连接生成的第一形变场与PET图像块生成的匹配图像作为一次训练的输出,并作为此次训练的配准结果即,其他参考配准图用于计算损失函数数值,进一步的可以获取总损失函数的数值。
104、根据训练配准图像和PET图像块获取相似度Lsim,根据形变场获取限制形变场平滑度Lsmooth,根据公式一和公式二获取总损失函数L,通过总损失函数L更新网络权重参数;
公式一:L=m1*L1+m2*L2......+mn*L2
式中,m1+m2.....+mn=1,m1、m2……mn均为常数;
公式二:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
通过公式五获取Lsim,通过公式六获取Lsmooth
公式六:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
Figure BDA0001820020510000091
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和 Z均为常数,r和z均为坐标索引;
Figure BDA0001820020510000092
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
Figure BDA0001820020510000093
wpi表示P的权重,wqj表示Q的权重;
公式七:
Figure BDA0001820020510000094
其中,Ω为位移矢量矩阵空间,p为当前位移矢量矩阵,Dv为位移矢量矩阵,
Figure BDA0001820020510000095
为一阶梯度;
举例来说,在本实施例中,n=3,m1=0.7,m2=0.2,m3=0.1即分别获取第一形变场、第二形变场和第三形变场与当前输入的PET图像块的相似度Lsim1、Lsim2和Lsim3,获取第一形变场、第二形变场和第三形变场的限制形变场平滑度Lsmooth1、Lsmooth2和Lsmooth3
相应的可知,L1=Lsim1+λLsmooth1,L2=Lsim2+λLsmooth2,L3=Lsim3+λLsmooth3
举例来说,总损失函数L=0.7*L1+0.2*L2......+0.1*L3,利用总损失函数对当前网络的权重比进行修正,并在下一次训练时使用更新后的网络的权重比。
105、遍历用于训练的PET和CT样本图像块,重复执行步骤103-105,多次迭代训练并更新网络权重参数,直至迭代次数达到预设值,获取预先训练的全卷积神经网络。
实施例二
S1、读取每个患者的每一幅二维PET、CT图像,分别计算出SUV值和 Hu值,调整SUV值和Hu值显示范围,并且调整图像分辨率,以上操作能够增强对比度。
具体地,如图3所示,举例来说,在本实施例中S1还包括:
S11、遍历读取全部91个患者的PET、CT二维图像,根据公式分别计算出SUV值和Hu值;
S12、增强图像对比度,调整Hu值窗宽窗位,SUV值限制在[0,5]范围内;
S13、调整512×512大CT图像分辨率至PET图像相同大小,即128× 128。
S2、对于PE和CT经过尺寸预处理后的图像分别生成三维体数据,重新调整形状为五维数组,基于规则在三个方向上裁剪生成若干1×64×64× 64×1大小的图像块用于训练和验证;
举例来说,S2具体包括:
S21、将PET、CT经过处理后的SUV、Hu值图像分别生成三维体数据存在ndarray中,以下称为3D图像块,体数据大小为128×128×n,其中n 为对应患者PET、CT图像切片数量;
S22、根据维度[N,H,W,D,C]将三维数组重新变换为五维数组,形状为[1,128,128,28,1];
S23、对体数据进行裁剪,采样间隔为32个像素,在图像高度/宽度/深度三个方向上裁剪生成1×64×64×64×1大小的图像块;
S24、根据全部91个患者的PET、CT图像裁剪3D图像块共6084个,随机采样5237个3D图像块作为训练集,随机采样847个3D图像块作为验证集。
S3、定义同时优化图像相似性度量和正则化项形变场平滑度,其中正则化项形变场平滑度为位移矢量场矩阵中元素的一阶偏导,构建多分辨率全卷积神经网络,并调整网络结构;
举例来说,S3具体包括:
S31、定义同时优化图像相似性度量和正则化项形变场平滑度的损失函数,其中相似性度量为归一化互相关NCC和Wasserstein距离,正则化项形变场平滑度为位移矢量场矩阵中元素的一阶偏导;
S32、构建多全卷积神经网络,调整网络结构。
S4、设置全卷积神经网络参数,具有的包括以下参数:输入图像大小、训练batch_size、正则化项权重λ、迭代次数、网络学习率,设置优化器并初始化权重参数,图像块归一化后输入网络中,训练网络,保存模型权重;
举例来说,S4具体包括:
S41、设置神经网络参数,其中输入图像的大小为64×64×64,训练时 batch_size设置为16,正则化项权重为设置为0.5,迭代次数为设置为500,网络学习速率设置为0.001;
S42、设置神经网络优化器,并初始化权重参数;
S43、网络读入数据时将每个图像块进行归一化,变为均值为0标准差为1的正态分布;
S44、开始训练网络,迭代500次后,保存模型权重。
S5、输入待配准PET、CT图像对,通过网络进行预测,生成配准PET 图像;
举例来说,S5具体包括:
S51、加载网络模型和网络权重,输入待配准图像对;
S52、得到配准后输出图像块,进行可视化。
实施例三
运行在Intel内核的Windows10系统环境中,基于Python和Tensorflow 框架进行医学图像配准。如图4所示,本实施的操作步骤如下:
301、读取每个患者的每一幅二维PET、CT图像,分别计算出SUV值和Hu 值,调整SUV值和Hu值显示范围,并且调整图像分辨率。
301a、遍历读取全部91个患者的PET、CT二维图像,根据GE公司给出的公式1和公式2分别计算出SUV值和Hu值。
公式1:SUV=Pixels×LBM×1000/injected dose
其中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式2:Hu=Pixels×slopes+intercepts
其中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
301b、增强图像对比度,通过np.clip函数调整Hu值窗宽窗位[-90,300] SUV值限制在[0,5]范围内。
301c、通过cv2.resize函数调整512×512大小CT图像分辨率至PET图像相同大小,即128×128。
302、对于PET、CT经过处理后的图像分别生成三维体数据,重新调整形状为五维数组,基于规则在三个方向上裁剪生成若干1×64×64×64×1 大小的图像块用于训练和验证,具体步骤如下:
302a、将PET、CT经过处理后的SUV、Hu值图像分别生成三维体数据存在ndarray中,体数据大小为128×128×n,其中n为对应患者PET、CT 图像切片数量。
302b、根据维度[N,H,W,D,C]将三维数组通过np.reshape函数调整为五维数组,形状为[1,128,128,n,1],其中n为对应患者PET和CT图像切片数量。
302c、通过gen_3d_volume函数对体数据进行裁剪,采样间隔为32个像素,在图像高度/宽度/深度三个方向上裁剪生成1×64×64×64×1大小的图像块。
302d、根据全部91个患者的PET、CT图像裁剪3D图像块共6084个,随机采样5237个3D图像块作为训练集,随机采样847个3D图像块作为验证集。
303、定义同时优化图像相似性度量和正则化项形变场平滑度,即位移矢量场矩阵中元素的一阶偏导,获取损失函数,构建多分辨率全卷积神经网络,调整网络结构,具体步骤如下:、
303a、定义同时优化图像相似性度量和正则化项形变场平滑度的损失函数如公式3所示:
公式3:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
通过公式4可知,相似性度量Lsim包括归一化互相关NCC部分和Wasser stein距离EMD部分;
公式4:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
公式5:
Figure BDA0001820020510000131
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和 Z均为常数,r和z均为坐标索引;
公式6:
Figure BDA0001820020510000132
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
Figure BDA0001820020510000133
wpi表示P的权重,wqj表示Q的权重;
用于进行失真校正的正则化项形变场平滑度Lsmooth为位移矢量场矩阵中元素的一阶偏导如公式7所示:
公式7:
Figure BDA0001820020510000141
其中,Ω为位移矢量矩阵空间,p为当前位移矢量矩阵,Dv为位移矢量矩阵,
Figure BDA0001820020510000142
为一阶梯度;
303b、构建多分辨率全卷积神经网络,调整网络结构。
304:设置神经网络参数,包括:输入图像大小、训练batch_size、正则化项权重λ、迭代次数、网络学习率,设置优化器并初始化权重参数,将3D 图像块归一化后输入网络中,训练网络,保存模型权重,具体步骤如下:
304a、设置神经网络参数,其中输入图像的大小image_size为64×64 ×64,训练时batch_size为16,正则化项权重λ为0.5,迭代次数epoch_num 为500,网络学习速率learning_rate为0.001。
304b、通过设置神经网络优化器,并初始化权重参数。
304c、网络读入数据时将每个图像块进行归一化,根据公式8变为均值为0标准差为1的正态分布。
公式8:
Figure BDA0001820020510000143
式中,μ为均值,σ为标准差。
304d、开始训练网络,迭代500次后,保存模型权重。
305、输入待配准PET、CT图像对,通过网络进行预测,生成配准后 PET图像,具体步骤如下:
305a、加载网络模型和网络权重,输入待配准图像对;
305b:得到配准后输出图像块,进行可视化。
本发明利用全卷积神经网络实现端到端的的多分辨率的弹性配准,本发明通过多目标优化来进行不同分辨率下的空间变换,即同时结合CT图像和配准图像对之间的相似性度量以及限制形变场平滑度,从而限制图像的过度形变;本发明计算量小,配准效率高。
最后应说明的是:以上所述的各实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (9)

1.一种基于全卷积神经网络的PET与CT图像配准方法,其特征在于,包括:
获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;
其中,尺寸预处理包括:
B1、针对预处理的图像,根据公式三和公式四,分别计算SUV值和Hu值,设置Hu值窗宽窗位和SUV限制范围;
公式三:SUV=Pixels×LBM×1000/injected dose;
式中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式四:Hu=Pixels×slopes+intercepts;
式中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
B2、调整分辨率至图像尺寸等于预设值生成三维数组;
B3、将三维数组变换成五维数组,通过剪裁和采样获取预设尺寸的图像块;
训练全卷积神经网络包括以下步骤:
101、预先获取多幅PET和CT二维样本图像,进行尺寸预处理,获取用于训练的PET和CT样本图像块;
102、构建全卷积神经网络,初始化网络权重参数,设置迭代次数,将用于训练的PET和CT样本图像块作为全卷积神经网络的输入,通过多次卷积、池化和反卷积生成形变场;
103、通过对形变场和PET图像块进行空间变换获取训练的配准图像;
104、根据训练配准图像和PET图像块获取相似性度量Lsim,根据形变场获取限制形变场平滑度Lsmooth,根据公式一和公式二获取总损失函数L,通过总损失函数L更新网络权重参数;
公式一:L=m1*L1+m2*L2......+mn*Ln
式中,L1为基于第一形变场得到的配准图像计算得到的损失函数,L2为基于第二形变场得到的配准图像计算得到的损失函数,Ln为基于第n形变场得到的配准图像计算得到的损失函数,m1+m2.....+mn=1,m1、m2……mn均为常数;
公式二:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,M为PET图像块,MDv为形变场与PET图像块进行空间变换得到的配准图,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
105、遍历用于训练的PET和CT样本图像块,重执行步骤103-步骤104,多次迭代训练并更新网络权重参数,直至迭代次数达到预设值,获取预先训练的全卷积神经网络。
2.如权利要求1所述的方法,其特征在于,步骤102中构建全卷积神经网络包括:
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构、第一池化结构和第二池化结构;
全卷积神经网络的输入作为第一卷积结构的输入;
第一卷积结构、第二卷积结构、第三卷积结构和第四卷积结构依次排列;
第一池化结构设置在第一卷积结构和第二卷积结构之间,第二池化结构设置在第二卷积结构和第三卷积结构之间;
第一反卷积结构设置在第三卷积结构和第四卷积结构之间,第二反卷积结构设置在第四卷积结构之后。
3.如权利要求2所述的方法,其特征在于,
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构均包括卷积层、批量化归一层和激活层;
第一池化结构和第二池化结构包括卷积层;
其中,卷积层的卷积核为3×3×3,步长为2。
4.如权利要求3所述的方法,其特征在于,形变场包括:
第一形变场、第二形变场和第三形变场;
将第二反卷积结构的输出进行卷积操作,获取第一形变场;
将第四卷积结构的输出进行卷积操作,获得第二形变场;
将第三卷积结构的输出进行卷积操作,获得第三形变场;
其中,卷积操作的卷核为3×3×3,步长为1。
5.如权利要求4所述的方法,其特征在于,
在训练过程中通过上采样调整第一形变场尺寸使得其与PET图像块尺寸相同;
将具有相同尺寸的第一形变场和PET图像块通过空间变换作为训练的配准图像。
6.如权利要求5所述的方法,其特征在于,
将PET和CT样本图像块以及待配准的PET与CT图像块输入至全卷积神经网络之前,根据公式五对每个图像块进行归一化;
公式五:
Figure FDA0002507942710000031
式中,μ为均值,σ为标准差。
7.如权利要求6所述的方法,其特征在于,在步骤104中,包括:
通过公式六获取Lsim,通过公式七获取Lsmooth
公式六:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
Figure FDA0002507942710000032
T表示模板,S表示子图,S(r,z)表示子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和Z均为常数,r和z均为坐标索引;
Figure FDA0002507942710000041
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
Figure FDA0002507942710000042
wpi表示P的权重,wqj表示Q的权重;
公式七:
Figure FDA0002507942710000043
其中,Ω为位移矢量矩阵空间,p为当前位移矢量矩阵,Dv为位移矢量矩阵,
Figure FDA0002507942710000044
为一阶梯度。
8.如权利要求7所述的方法,其特征在于,
Hu值窗宽窗位为[-90,300],SUV限制范围为[0,5]。
9.如权利要求8所述的方法,其特征在于,
尺寸预处理获取的图像块的大小为64×64×64。
CN201811160982.5A 2018-09-30 2018-09-30 一种基于全卷积神经网络的pet与ct图像配准方法 Active CN109272443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811160982.5A CN109272443B (zh) 2018-09-30 2018-09-30 一种基于全卷积神经网络的pet与ct图像配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811160982.5A CN109272443B (zh) 2018-09-30 2018-09-30 一种基于全卷积神经网络的pet与ct图像配准方法

Publications (2)

Publication Number Publication Date
CN109272443A CN109272443A (zh) 2019-01-25
CN109272443B true CN109272443B (zh) 2020-07-28

Family

ID=65195055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811160982.5A Active CN109272443B (zh) 2018-09-30 2018-09-30 一种基于全卷积神经网络的pet与ct图像配准方法

Country Status (1)

Country Link
CN (1) CN109272443B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109872332B (zh) * 2019-01-31 2022-11-11 广州瑞多思医疗科技有限公司 一种基于u-net神经网络的三维医学图像配准方法
CN109993709B (zh) * 2019-03-18 2021-01-12 绍兴文理学院 一种基于深度学习的图像配准误差校正方法
CN110223247B (zh) * 2019-05-20 2022-06-24 上海联影医疗科技股份有限公司 图像衰减校正方法、装置、计算机设备和存储介质
CN110189369B (zh) * 2019-06-05 2023-06-13 深圳大学 一种超声与磁共振图像融合配准方法及终端设备
CN110363797B (zh) * 2019-07-15 2023-02-14 东北大学 一种基于过度形变抑制的pet与ct图像配准方法
CN110544274B (zh) * 2019-07-18 2022-03-29 山东师范大学 一种基于多光谱的眼底图像配准方法及系统
CN110503110A (zh) * 2019-08-12 2019-11-26 北京影谱科技股份有限公司 特征匹配方法和装置
CN110544523A (zh) * 2019-08-28 2019-12-06 桂林电子科技大学 一种用于卷积神经网络训练的假彩色医学图像合成方法
CN110610486B (zh) * 2019-08-28 2022-07-19 清华大学 单目图像深度估计方法及装置
EP3800612A1 (en) * 2019-10-03 2021-04-07 Koninklijke Philips N.V. Method, apparatus and system for normalizing pixel intensity of images
CN110827335B (zh) * 2019-11-01 2020-10-16 北京推想科技有限公司 乳腺影像配准方法和装置
CN110838139B (zh) * 2019-11-04 2022-10-25 上海联影智能医疗科技有限公司 图像配准模型的训练方法、图像配准方法和计算机设备
CN111436958B (zh) * 2020-02-27 2021-06-01 之江实验室 一种用于pet图像衰减校正的ct图像生成方法
CN112183325B (zh) * 2020-09-27 2021-04-06 哈尔滨市科佳通用机电股份有限公司 基于图像对比的公路车辆检测方法
CN112634250B (zh) * 2020-12-29 2023-05-16 上海联影医疗科技股份有限公司 多能ct系统图像配准方法、装置、计算机设备和存储介质
CN113436708B (zh) * 2021-07-22 2022-10-25 杭州电子科技大学 一种基于深度学习算法的延迟ct图像生成方法
CN114359360B (zh) * 2022-03-17 2022-06-10 成都信息工程大学 一种基于对抗的双向一致性约束医学图像配准算法
CN116740218B (zh) * 2023-08-11 2023-10-27 南京安科医疗科技有限公司 一种心脏ct成像图像质量优化方法、设备及介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7420675B2 (en) * 2003-06-25 2008-09-02 The University Of Akron Multi-wavelength imaging system
CN104036452B (zh) * 2013-03-06 2017-12-05 东芝医疗系统株式会社 图像处理装置和方法以及医学图像设备
US9760807B2 (en) * 2016-01-08 2017-09-12 Siemens Healthcare Gmbh Deep image-to-image network learning for medical image analysis
CN107480702B (zh) * 2017-07-20 2021-03-30 东北大学 面向hcc病理图像识别的特征选择与特征融合方法
CN107610194B (zh) * 2017-08-14 2020-08-04 成都大学 基于多尺度融合cnn的磁共振图像超分辨率重建方法
CN108596247A (zh) * 2018-04-23 2018-09-28 南方医科大学 一种融合放射组学和深度卷积特征进行图像分类的方法

Also Published As

Publication number Publication date
CN109272443A (zh) 2019-01-25

Similar Documents

Publication Publication Date Title
CN109272443B (zh) 一种基于全卷积神经网络的pet与ct图像配准方法
US11756160B2 (en) ML-based methods for pseudo-CT and HR MR image estimation
US10751548B2 (en) Automated image segmentation using DCNN such as for radiation therapy
RU2720440C1 (ru) Способ сегментации изображения с использованием нейронной сети
CN110363797B (zh) 一种基于过度形变抑制的pet与ct图像配准方法
AU2016339009B2 (en) Pseudo-CT generation from MR data using tissue parameter estimation
US11514573B2 (en) Estimating object thickness with neural networks
CN109584254A (zh) 一种基于深层全卷积神经网络的心脏左心室分割方法
EP3362984A1 (en) Pseudo-ct generation from mr data using a feature regression model
CN111105424A (zh) 淋巴结自动勾画方法及装置
CN114359642A (zh) 基于一对一目标查询Transformer的多模态医学图像多器官定位方法
CN116612174A (zh) 软组织的三维重建方法、系统及计算机存储介质
He et al. Downsampled imaging geometric modeling for accurate CT reconstruction via deep learning
US20210393229A1 (en) Single or a few views computed tomography imaging with deep neural network
US20230177746A1 (en) Machine learning image reconstruction
CN116563096B (zh) 用于图像配准的形变场的确定方法、装置以及电子设备
US20210074034A1 (en) Methods and apparatus for neural network based image reconstruction
Yang et al. Quasi-supervised learning for super-resolution PET
CN116309806A (zh) 一种基于CSAI-Grid RCNN的甲状腺超声图像感兴趣区域定位方法
Lei et al. Generative adversarial networks for medical image synthesis
Zhou et al. LTS-NET: Lung Tissue Segmentation from CT Images using Fully Convolutional Neural Network
Karani et al. Reducing navigators in free-breathing abdominal MRI via temporal interpolation using convolutional neural networks
Hou et al. Respiratory Motion Correction on PET Images Based on 3D Convolutional Neural Network.
Alam et al. Generalizable cone beam ct esophagus segmentation using in silico data augmentation
WO2023131061A1 (en) Systems and methods for positron emission computed tomography image reconstruction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant