CN109272443B - 一种基于全卷积神经网络的pet与ct图像配准方法 - Google Patents
一种基于全卷积神经网络的pet与ct图像配准方法 Download PDFInfo
- Publication number
- CN109272443B CN109272443B CN201811160982.5A CN201811160982A CN109272443B CN 109272443 B CN109272443 B CN 109272443B CN 201811160982 A CN201811160982 A CN 201811160982A CN 109272443 B CN109272443 B CN 109272443B
- Authority
- CN
- China
- Prior art keywords
- convolution
- image
- pet
- deformation field
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000007781 pre-processing Methods 0.000 claims abstract description 14
- 238000011176 pooling Methods 0.000 claims description 21
- 238000006073 displacement reaction Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 18
- 238000005070 sampling Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 10
- 238000011524 similarity measure Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 4
- 239000000700 radioactive tracer Substances 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000002347 injection Methods 0.000 claims description 3
- 239000007924 injection Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 238000002600 positron emission tomography Methods 0.000 description 57
- 238000002591 computed tomography Methods 0.000 description 50
- 230000006870 function Effects 0.000 description 14
- 238000005259 measurement Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 5
- 239000000243 solution Substances 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000002503 metabolic effect Effects 0.000 description 2
- 230000037323 metabolic rate Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004060 metabolic process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明涉及一种基于全卷积神经网络的PET与CT图像配准方法;包括:获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;其中,训练全卷积神经网络包括以下步骤:101、获取用于训练的PET和CT样本图像块;102、构建全卷积神经网络,获取形变场;103、通过形变场和PET图像块获取训练配准图像;104、获取总损失函数L,并通过L更新网络权重参数;105、遍历用于训练的PET和CT样本图像块,更新网络权重参数,获全卷积神经网络;本发明计算成本小,结合相似性度量和限制形变场平滑度,从而限制图像的过度形变,配准效率高。
Description
技术领域
本发明属于医学图像配准领域,具体涉及一种基于全卷积神经网络的PET与CT图像配准方法。
背景技术
正电子断结构扫描(Positron Emission Computer Tomography,以下简称 PET)利用回旋加速器产生放射性同位素18F、13N,静脉注射后参与人体的新陈代谢。代谢率高的组织或病变,在PET上呈现明确的高代谢亮信号;代谢率低的组织或病变在PET上呈低代谢暗信号。计算机断结构扫描(Computed Tomography,以下简称CT)是用X线束对人体的某一部分按一定厚度的结构面进行扫描,当X线射向人体组织时,部分射线被组织吸收,部分射线穿过人体被检测器官接收,产生信号,能准确对图像进行定位。
PET/CT可以进行功能与解剖结构的同机图像融合,是影像医学的一个重要进展。多模态图像配准利用各种成像方式的特点,为不同的影像提供互补信息,增加图像信息量,有助于更全面地了解病变的性质及与周围解剖结构的关系,为临床诊断和治疗的定位提供有效的方法。
医学图像配准在许多医学图像处理任务中起着重要的作用。通常将图像配准制定为优化问题以寻求空间变换,该空间变换通过最大化图像之间的空间对应的替代度量(例如配准图像之间的图像强度相关性)来建立一对固定和移动图像之间的像素/体素对应。由于图像配准优化问题通常使用迭代优化算法来解决,所以传统的图像配准算法通常在计算上成本很高。与传统的图像配准算法不同,基于深度学习的图像配准算法将图像配准定义为多输出回归问题,预测来自一对图像的像素/体素之间的空间关系。训练后的预测模型可以应用于像素/体素级别的图像以实现整体图像配准。
目前,基于全卷积网络(Fully Convolutional Networks以下简称FCN)的体素到体素的学习是Hongming Li等人提出的图像配准方法。通过最大化图像对的相似性度量训练FCN来估计用于配准图像的体素到体素空间变换。为了解决图像之间潜在的较大形变,采用多分辨率策略来联合优化和学习不同分辨率下的空间变换;而以往方法对PET/CT的图像配准存在失真情况,即没有对形变场加以限制导致图像扭曲幅度过大。
发明内容
(一)要解决的技术问题
为了解决现有技术的上述问题,本发明提供一种基于全卷积神经网络的PET与CT图像配准方法。
(二)技术方案
为了达到上述目的,本发明采用的主要技术方案包括:
获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;
其中,训练全卷积神经网络包括以下步骤:
101、预先获取多幅PET和CT二维样本图像,进行尺寸预处理,获取用于训练的PET和CT样本图像块;
102、构建全卷积神经网络,初始化网络权重参数,设置迭代次数,将用于训练的PET和CT样本图像块作为全卷积神经网络的输入,通过多次卷积、池化和反卷积生成形变场;
103、通过对形变场和PET图像块进行空间变换获取训练的配准图像;
104、根据训练配准图像和PET图像块获取相似度Lsim,根据形变场获取限制形变场平滑度Lsmooth,根据公式一和公式二获取总损失函数L,通过总损失函数L更新网络权重参数;
公式一:L=m1*L1+m2*L2......+mn*Ln;
式中,m1+m2.....+mn=1,m1、m2……mn均为常数;
公式二:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
105、遍历用于训练的PET和CT样本图像块,重复执行步骤 103-105,多次迭代训练并更新网络权重参数,直至迭代次数达到预设值,获取预先训练的全卷积神经网络。
可选地,尺寸预处理包括:
B1、针对预处理的图像,根据公式三和公式四,分别计算SUV值和 Hu值,设置Hu值窗宽窗位和SUV限制范围;
公式三:SUV=Pixels×LBM×1000/injected dose;
式中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式四:Hu=Pixels×slopes+intercepts;
式中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
B2、调整分辨率至图像尺寸等于预设值生成三维数组;
B3、将三维数组据变换成五维数组,通过剪裁和采样获取预设尺寸的图像块。
可选地,步骤103中构建全卷积神经网络包括:
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构、第一池化结构和第二池化结构;
全卷积神经网络的输入作为第一卷积结构的输入;
第一卷积结构、第二卷积结构、第三卷积结构和第四卷积结构依次排列;
第一池化结构设置在第一卷积结构和第二卷积结构之间,第二池化结构设置在第二卷积结构和第三卷积结构之间;
第一反卷积结构设置在第三卷积结构和第四卷积结构之间,第二反卷积结构设置在第四卷积结构之后。
可选地,
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构均包括卷积层、批量化归一层和激活层;
第一池化结构和第二池化结构包括卷积层;
其中,卷积层的卷积核为3×3×3,步长为2。
可选地,形变场包括:
第一形变场、第二形变场和三形变场;
将第二反卷积结构的输出进行卷积操作,获取第一形变场;
将第四卷积结构的输出进行卷积操作,获得第二形变场;
将第三卷积结构的输出进行卷积操作,获得第三形变场;
其中,卷积操作的卷核为3×3×3,步长为1。
可选地,
在训练过程中通过上采样调整第一形变场尺寸使得其与PET图像块尺寸相同;
将具有相同尺寸的第一形变场和PET图像块通过空间变换作为训练的配准图像。
可选地,
将PET和CT样本图像块以及待配准的PET与CT图像块输入至全卷积神经网络之前,根据公式四对每个图像块进行归一化;
式中,μ为均值,σ为标准差。
可选地,
通过公式六获取Lsim,通过公式七获取Lsmooth;
公式六:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和 Z均为常数,r和z均为坐标索引;
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
wpi表示P的权重,wqj表示Q的权重;
可选地,其特征在于,
Hu值窗宽窗位为[-90,300],SUV限制范围为[0,5]。
可选地,
尺寸预处理获取的图像块的大小为64×64×64。
(三)有益效果
本发明的有益效果是:
本发明利用全卷积神经网络实现端到端的的多分辨率的弹性配准,本发明通过多目标优化来进行不同分辨率下的空间变换,即同时结合CT 图像和配准图像对之间的相似性度量以及限制形变场平滑度,从而限制图像的过度形变;本发明计算量小,配准效率高。
附图说明
图1为本发明一实施例提供的一种基于全卷积神经网络的PET与CT 图像配准方法示意图;
图2为本发明一实施例提供的全卷积神经网络内部结构示意图;
图3为本发明一实施例提供的配准方法模块流程示意图;
图4为本发明一实施例提供的配准发明的具体流程图。
具体实施方式
为了更好的解释本发明,以便于理解,下面结合附图,通过具体实施方式,对本发明作详细描述。
实施例一
本发明提出了一种基于全卷积神经网络的PET与CT图像配准方法,具体的包括:
如图1所示,获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;
其中,训练全卷积神经网络包括以下步骤:
101、预先获取多幅PET和CT二维样本图像,进行尺寸预处理,获取用于训练的PET和CT样本图像块;
特别的,将PET和CT样本图像块以及待配准的PET与CT图像块输入至全卷积神经网络之前,根据公式四对每个图像块进行归一化;
式中,μ为均值,σ为标准差。
举例来说,在具体实施过程中,尺寸预处理包括:
B1、针对预处理的图像,根据公式三和公式四,分别计算SUV值和 Hu值,设置Hu值窗宽窗位和SUV限制范围;
举例来说,Hu值窗宽窗位可设置为[-90,300],SUV限制范围为可设置为[0,5];
公式三:SUV=Pixels×LBM×1000/injected dose;
式中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式四:Hu=Pixels×slopes+intercepts;
式中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
B2、调整分辨率至图像尺寸等于预设值生成三维数组;
B3、将三维数组据变换成五维数组,通过剪裁和采样获取预设尺寸的图像块;
举例来说,在具体实施过程中尺寸预处理获取的图像块的大小为64 ×64×64。
102、构建全卷积神经网络,初始化网络权重参数,设置迭代次数,将用于训练的PET和CT样本图像块作为全卷积神经网络的输入,通过多次卷积、池化和反卷积生成形变场;
举例来说,如图2所示,在本实施例中构建全卷积神经网络包括:
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构、第一池化结构和第二池化结构;
全卷积神经网络的输入作为第一卷积结构的输入;
第一卷积结构、第二卷积结构、第三卷积结构和第四卷积结构依次排列;
第一池化结构设置在第一卷积结构和第二卷积结构之间,第二池化结构设置在第二卷积结构和第三卷积结构之间;
第一反卷积结构设置在第三卷积结构和第四卷积结构之间,第二反卷积结构设置在第四卷积结构之后。
可选地,
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构均包括卷积层、批量化归一层和激活层;
第一池化结构和第二池化结构包括卷积层;
其中,卷积层的卷积核为3×3×3,步长为2。
进一步的,第一形变场、第二形变场和三形变场;
将第二反卷积结构的输出进行卷积操作,获取第一形变场;
将第四卷积结构的输出进行卷积操作,获得第二形变场;
将第三卷积结构的输出进行卷积操作,获得第三形变场;
其中,卷积操作的卷核为3×3×3,步长为1。
103、通过对形变场和PET图像块进行空间变换获取训练配准图像;
具体地,举例来说,在具体实施过程中,通过上采样调整第一形变场尺寸使得其与PET图像块尺寸相同;
同理对第二形变场和第三形变场进行相同的操作获取参考的获取参考的两个配准图像,特殊说明,本实施例仅用获取三个形变场举例说明,本发明还可包括多个形变场;
在本实施例中,训练网络时,每一次训练过程中多个形变场都能与 PET图像块进行空间变换获得多个参考的配准图,其中只有与第四反卷积连接生成的第一形变场与PET图像块生成的匹配图像作为一次训练的输出,并作为此次训练的配准结果即,其他参考配准图用于计算损失函数数值,进一步的可以获取总损失函数的数值。
104、根据训练配准图像和PET图像块获取相似度Lsim,根据形变场获取限制形变场平滑度Lsmooth,根据公式一和公式二获取总损失函数L,通过总损失函数L更新网络权重参数;
公式一:L=m1*L1+m2*L2......+mn*L2;
式中,m1+m2.....+mn=1,m1、m2……mn均为常数;
公式二:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
通过公式五获取Lsim,通过公式六获取Lsmooth;
公式六:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和 Z均为常数,r和z均为坐标索引;
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
wpi表示P的权重,wqj表示Q的权重;
举例来说,在本实施例中,n=3,m1=0.7,m2=0.2,m3=0.1即分别获取第一形变场、第二形变场和第三形变场与当前输入的PET图像块的相似度Lsim1、Lsim2和Lsim3,获取第一形变场、第二形变场和第三形变场的限制形变场平滑度Lsmooth1、Lsmooth2和Lsmooth3;
相应的可知,L1=Lsim1+λLsmooth1,L2=Lsim2+λLsmooth2,L3=Lsim3+λLsmooth3;
举例来说,总损失函数L=0.7*L1+0.2*L2......+0.1*L3,利用总损失函数对当前网络的权重比进行修正,并在下一次训练时使用更新后的网络的权重比。
105、遍历用于训练的PET和CT样本图像块,重复执行步骤103-105,多次迭代训练并更新网络权重参数,直至迭代次数达到预设值,获取预先训练的全卷积神经网络。
实施例二
S1、读取每个患者的每一幅二维PET、CT图像,分别计算出SUV值和 Hu值,调整SUV值和Hu值显示范围,并且调整图像分辨率,以上操作能够增强对比度。
具体地,如图3所示,举例来说,在本实施例中S1还包括:
S11、遍历读取全部91个患者的PET、CT二维图像,根据公式分别计算出SUV值和Hu值;
S12、增强图像对比度,调整Hu值窗宽窗位,SUV值限制在[0,5]范围内;
S13、调整512×512大CT图像分辨率至PET图像相同大小,即128× 128。
S2、对于PE和CT经过尺寸预处理后的图像分别生成三维体数据,重新调整形状为五维数组,基于规则在三个方向上裁剪生成若干1×64×64× 64×1大小的图像块用于训练和验证;
举例来说,S2具体包括:
S21、将PET、CT经过处理后的SUV、Hu值图像分别生成三维体数据存在ndarray中,以下称为3D图像块,体数据大小为128×128×n,其中n 为对应患者PET、CT图像切片数量;
S22、根据维度[N,H,W,D,C]将三维数组重新变换为五维数组,形状为[1,128,128,28,1];
S23、对体数据进行裁剪,采样间隔为32个像素,在图像高度/宽度/深度三个方向上裁剪生成1×64×64×64×1大小的图像块;
S24、根据全部91个患者的PET、CT图像裁剪3D图像块共6084个,随机采样5237个3D图像块作为训练集,随机采样847个3D图像块作为验证集。
S3、定义同时优化图像相似性度量和正则化项形变场平滑度,其中正则化项形变场平滑度为位移矢量场矩阵中元素的一阶偏导,构建多分辨率全卷积神经网络,并调整网络结构;
举例来说,S3具体包括:
S31、定义同时优化图像相似性度量和正则化项形变场平滑度的损失函数,其中相似性度量为归一化互相关NCC和Wasserstein距离,正则化项形变场平滑度为位移矢量场矩阵中元素的一阶偏导;
S32、构建多全卷积神经网络,调整网络结构。
S4、设置全卷积神经网络参数,具有的包括以下参数:输入图像大小、训练batch_size、正则化项权重λ、迭代次数、网络学习率,设置优化器并初始化权重参数,图像块归一化后输入网络中,训练网络,保存模型权重;
举例来说,S4具体包括:
S41、设置神经网络参数,其中输入图像的大小为64×64×64,训练时 batch_size设置为16,正则化项权重为设置为0.5,迭代次数为设置为500,网络学习速率设置为0.001;
S42、设置神经网络优化器,并初始化权重参数;
S43、网络读入数据时将每个图像块进行归一化,变为均值为0标准差为1的正态分布;
S44、开始训练网络,迭代500次后,保存模型权重。
S5、输入待配准PET、CT图像对,通过网络进行预测,生成配准PET 图像;
举例来说,S5具体包括:
S51、加载网络模型和网络权重,输入待配准图像对;
S52、得到配准后输出图像块,进行可视化。
实施例三
运行在Intel内核的Windows10系统环境中,基于Python和Tensorflow 框架进行医学图像配准。如图4所示,本实施的操作步骤如下:
301、读取每个患者的每一幅二维PET、CT图像,分别计算出SUV值和Hu 值,调整SUV值和Hu值显示范围,并且调整图像分辨率。
301a、遍历读取全部91个患者的PET、CT二维图像,根据GE公司给出的公式1和公式2分别计算出SUV值和Hu值。
公式1:SUV=Pixels×LBM×1000/injected dose
其中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式2:Hu=Pixels×slopes+intercepts
其中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
301b、增强图像对比度,通过np.clip函数调整Hu值窗宽窗位[-90,300] SUV值限制在[0,5]范围内。
301c、通过cv2.resize函数调整512×512大小CT图像分辨率至PET图像相同大小,即128×128。
302、对于PET、CT经过处理后的图像分别生成三维体数据,重新调整形状为五维数组,基于规则在三个方向上裁剪生成若干1×64×64×64×1 大小的图像块用于训练和验证,具体步骤如下:
302a、将PET、CT经过处理后的SUV、Hu值图像分别生成三维体数据存在ndarray中,体数据大小为128×128×n,其中n为对应患者PET、CT 图像切片数量。
302b、根据维度[N,H,W,D,C]将三维数组通过np.reshape函数调整为五维数组,形状为[1,128,128,n,1],其中n为对应患者PET和CT图像切片数量。
302c、通过gen_3d_volume函数对体数据进行裁剪,采样间隔为32个像素,在图像高度/宽度/深度三个方向上裁剪生成1×64×64×64×1大小的图像块。
302d、根据全部91个患者的PET、CT图像裁剪3D图像块共6084个,随机采样5237个3D图像块作为训练集,随机采样847个3D图像块作为验证集。
303、定义同时优化图像相似性度量和正则化项形变场平滑度,即位移矢量场矩阵中元素的一阶偏导,获取损失函数,构建多分辨率全卷积神经网络,调整网络结构,具体步骤如下:、
303a、定义同时优化图像相似性度量和正则化项形变场平滑度的损失函数如公式3所示:
公式3:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,MDv为,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
通过公式4可知,相似性度量Lsim包括归一化互相关NCC部分和Wasser stein距离EMD部分;
公式4:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
T表示模板,S表示子图,S(r,z)表示模子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和 Z均为常数,r和z均为坐标索引;
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
wpi表示P的权重,wqj表示Q的权重;
用于进行失真校正的正则化项形变场平滑度Lsmooth为位移矢量场矩阵中元素的一阶偏导如公式7所示:
303b、构建多分辨率全卷积神经网络,调整网络结构。
304:设置神经网络参数,包括:输入图像大小、训练batch_size、正则化项权重λ、迭代次数、网络学习率,设置优化器并初始化权重参数,将3D 图像块归一化后输入网络中,训练网络,保存模型权重,具体步骤如下:
304a、设置神经网络参数,其中输入图像的大小image_size为64×64 ×64,训练时batch_size为16,正则化项权重λ为0.5,迭代次数epoch_num 为500,网络学习速率learning_rate为0.001。
304b、通过设置神经网络优化器,并初始化权重参数。
304c、网络读入数据时将每个图像块进行归一化,根据公式8变为均值为0标准差为1的正态分布。
式中,μ为均值,σ为标准差。
304d、开始训练网络,迭代500次后,保存模型权重。
305、输入待配准PET、CT图像对,通过网络进行预测,生成配准后 PET图像,具体步骤如下:
305a、加载网络模型和网络权重,输入待配准图像对;
305b:得到配准后输出图像块,进行可视化。
本发明利用全卷积神经网络实现端到端的的多分辨率的弹性配准,本发明通过多目标优化来进行不同分辨率下的空间变换,即同时结合CT图像和配准图像对之间的相似性度量以及限制形变场平滑度,从而限制图像的过度形变;本发明计算量小,配准效率高。
最后应说明的是:以上所述的各实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (9)
1.一种基于全卷积神经网络的PET与CT图像配准方法,其特征在于,包括:
获取待配准的PET与CT二维图像,通过尺寸预处理后获取待配准的PET与CT图像块并输入到预先训练的全卷积神经网络中,获取配准图像;
其中,尺寸预处理包括:
B1、针对预处理的图像,根据公式三和公式四,分别计算SUV值和Hu值,设置Hu值窗宽窗位和SUV限制范围;
公式三:SUV=Pixels×LBM×1000/injected dose;
式中,Pixels为PET图像的像素值,LBM为瘦体重,injected dose为注射示踪剂计量;
公式四:Hu=Pixels×slopes+intercepts;
式中,Pixels为CT图像的像素值,slopes为Hu值计算公式中的斜率;intercepts为Hu值计算公式中的截距;
B2、调整分辨率至图像尺寸等于预设值生成三维数组;
B3、将三维数组变换成五维数组,通过剪裁和采样获取预设尺寸的图像块;
训练全卷积神经网络包括以下步骤:
101、预先获取多幅PET和CT二维样本图像,进行尺寸预处理,获取用于训练的PET和CT样本图像块;
102、构建全卷积神经网络,初始化网络权重参数,设置迭代次数,将用于训练的PET和CT样本图像块作为全卷积神经网络的输入,通过多次卷积、池化和反卷积生成形变场;
103、通过对形变场和PET图像块进行空间变换获取训练的配准图像;
104、根据训练配准图像和PET图像块获取相似性度量Lsim,根据形变场获取限制形变场平滑度Lsmooth,根据公式一和公式二获取总损失函数L,通过总损失函数L更新网络权重参数;
公式一:L=m1*L1+m2*L2......+mn*Ln;
式中,L1为基于第一形变场得到的配准图像计算得到的损失函数,L2为基于第二形变场得到的配准图像计算得到的损失函数,Ln为基于第n形变场得到的配准图像计算得到的损失函数,m1+m2.....+mn=1,m1、m2……mn均为常数;
公式二:L(F,M,Dv)=Lsim(F,MDv)+λLsmooth(Dv);
式中,Lsim为相似性度量,F为CT图像块,M为PET图像块,MDv为形变场与PET图像块进行空间变换得到的配准图,Lsmooth为形变场的平滑度,Dv为位移矢量矩阵,λ为常数;
105、遍历用于训练的PET和CT样本图像块,重执行步骤103-步骤104,多次迭代训练并更新网络权重参数,直至迭代次数达到预设值,获取预先训练的全卷积神经网络。
2.如权利要求1所述的方法,其特征在于,步骤102中构建全卷积神经网络包括:
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构、第一池化结构和第二池化结构;
全卷积神经网络的输入作为第一卷积结构的输入;
第一卷积结构、第二卷积结构、第三卷积结构和第四卷积结构依次排列;
第一池化结构设置在第一卷积结构和第二卷积结构之间,第二池化结构设置在第二卷积结构和第三卷积结构之间;
第一反卷积结构设置在第三卷积结构和第四卷积结构之间,第二反卷积结构设置在第四卷积结构之后。
3.如权利要求2所述的方法,其特征在于,
第一卷积结构、第二卷积结构、第三卷积结构、第四卷积结构、第一反卷积结构、第二反卷积结构均包括卷积层、批量化归一层和激活层;
第一池化结构和第二池化结构包括卷积层;
其中,卷积层的卷积核为3×3×3,步长为2。
4.如权利要求3所述的方法,其特征在于,形变场包括:
第一形变场、第二形变场和第三形变场;
将第二反卷积结构的输出进行卷积操作,获取第一形变场;
将第四卷积结构的输出进行卷积操作,获得第二形变场;
将第三卷积结构的输出进行卷积操作,获得第三形变场;
其中,卷积操作的卷核为3×3×3,步长为1。
5.如权利要求4所述的方法,其特征在于,
在训练过程中通过上采样调整第一形变场尺寸使得其与PET图像块尺寸相同;
将具有相同尺寸的第一形变场和PET图像块通过空间变换作为训练的配准图像。
7.如权利要求6所述的方法,其特征在于,在步骤104中,包括:
通过公式六获取Lsim,通过公式七获取Lsmooth;
公式六:Lsim=NCC+EMD;
其中,NCC表示归一化互相关,EMD为Wasserstein距离;
T表示模板,S表示子图,S(r,z)表示子图的像素值,T(r,z)表示模板图像素值,E(S)表示子图的平均灰度,E(T)表示模板的平均灰度,R和Z均为常数,r和z均为坐标索引;
P表示一幅图像的特征,Q表示另一幅图像的特征,dij表示两个图之间的距离,fij表示P和Q特征权重总和的最小值,M和N均为常数;
wpi表示P的权重,wqj表示Q的权重;
8.如权利要求7所述的方法,其特征在于,
Hu值窗宽窗位为[-90,300],SUV限制范围为[0,5]。
9.如权利要求8所述的方法,其特征在于,
尺寸预处理获取的图像块的大小为64×64×64。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811160982.5A CN109272443B (zh) | 2018-09-30 | 2018-09-30 | 一种基于全卷积神经网络的pet与ct图像配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811160982.5A CN109272443B (zh) | 2018-09-30 | 2018-09-30 | 一种基于全卷积神经网络的pet与ct图像配准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109272443A CN109272443A (zh) | 2019-01-25 |
CN109272443B true CN109272443B (zh) | 2020-07-28 |
Family
ID=65195055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811160982.5A Active CN109272443B (zh) | 2018-09-30 | 2018-09-30 | 一种基于全卷积神经网络的pet与ct图像配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109272443B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109872332B (zh) * | 2019-01-31 | 2022-11-11 | 广州瑞多思医疗科技有限公司 | 一种基于u-net神经网络的三维医学图像配准方法 |
CN109993709B (zh) * | 2019-03-18 | 2021-01-12 | 绍兴文理学院 | 一种基于深度学习的图像配准误差校正方法 |
CN110223247B (zh) * | 2019-05-20 | 2022-06-24 | 上海联影医疗科技股份有限公司 | 图像衰减校正方法、装置、计算机设备和存储介质 |
CN110189369B (zh) * | 2019-06-05 | 2023-06-13 | 深圳大学 | 一种超声与磁共振图像融合配准方法及终端设备 |
CN110363797B (zh) * | 2019-07-15 | 2023-02-14 | 东北大学 | 一种基于过度形变抑制的pet与ct图像配准方法 |
CN110544274B (zh) * | 2019-07-18 | 2022-03-29 | 山东师范大学 | 一种基于多光谱的眼底图像配准方法及系统 |
CN110503110A (zh) * | 2019-08-12 | 2019-11-26 | 北京影谱科技股份有限公司 | 特征匹配方法和装置 |
CN110544523A (zh) * | 2019-08-28 | 2019-12-06 | 桂林电子科技大学 | 一种用于卷积神经网络训练的假彩色医学图像合成方法 |
CN110610486B (zh) * | 2019-08-28 | 2022-07-19 | 清华大学 | 单目图像深度估计方法及装置 |
EP3800612A1 (en) * | 2019-10-03 | 2021-04-07 | Koninklijke Philips N.V. | Method, apparatus and system for normalizing pixel intensity of images |
CN110827335B (zh) * | 2019-11-01 | 2020-10-16 | 北京推想科技有限公司 | 乳腺影像配准方法和装置 |
CN110838139B (zh) * | 2019-11-04 | 2022-10-25 | 上海联影智能医疗科技有限公司 | 图像配准模型的训练方法、图像配准方法和计算机设备 |
CN111436958B (zh) * | 2020-02-27 | 2021-06-01 | 之江实验室 | 一种用于pet图像衰减校正的ct图像生成方法 |
CN112183325B (zh) * | 2020-09-27 | 2021-04-06 | 哈尔滨市科佳通用机电股份有限公司 | 基于图像对比的公路车辆检测方法 |
CN112634250B (zh) * | 2020-12-29 | 2023-05-16 | 上海联影医疗科技股份有限公司 | 多能ct系统图像配准方法、装置、计算机设备和存储介质 |
CN113436708B (zh) * | 2021-07-22 | 2022-10-25 | 杭州电子科技大学 | 一种基于深度学习算法的延迟ct图像生成方法 |
CN114359360B (zh) * | 2022-03-17 | 2022-06-10 | 成都信息工程大学 | 一种基于对抗的双向一致性约束医学图像配准算法 |
CN116740218B (zh) * | 2023-08-11 | 2023-10-27 | 南京安科医疗科技有限公司 | 一种心脏ct成像图像质量优化方法、设备及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7420675B2 (en) * | 2003-06-25 | 2008-09-02 | The University Of Akron | Multi-wavelength imaging system |
CN104036452B (zh) * | 2013-03-06 | 2017-12-05 | 东芝医疗系统株式会社 | 图像处理装置和方法以及医学图像设备 |
US9760807B2 (en) * | 2016-01-08 | 2017-09-12 | Siemens Healthcare Gmbh | Deep image-to-image network learning for medical image analysis |
CN107480702B (zh) * | 2017-07-20 | 2021-03-30 | 东北大学 | 面向hcc病理图像识别的特征选择与特征融合方法 |
CN107610194B (zh) * | 2017-08-14 | 2020-08-04 | 成都大学 | 基于多尺度融合cnn的磁共振图像超分辨率重建方法 |
CN108596247A (zh) * | 2018-04-23 | 2018-09-28 | 南方医科大学 | 一种融合放射组学和深度卷积特征进行图像分类的方法 |
-
2018
- 2018-09-30 CN CN201811160982.5A patent/CN109272443B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109272443A (zh) | 2019-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109272443B (zh) | 一种基于全卷积神经网络的pet与ct图像配准方法 | |
US11756160B2 (en) | ML-based methods for pseudo-CT and HR MR image estimation | |
US10751548B2 (en) | Automated image segmentation using DCNN such as for radiation therapy | |
RU2720440C1 (ru) | Способ сегментации изображения с использованием нейронной сети | |
CN110363797B (zh) | 一种基于过度形变抑制的pet与ct图像配准方法 | |
AU2016339009B2 (en) | Pseudo-CT generation from MR data using tissue parameter estimation | |
US11514573B2 (en) | Estimating object thickness with neural networks | |
CN109584254A (zh) | 一种基于深层全卷积神经网络的心脏左心室分割方法 | |
EP3362984A1 (en) | Pseudo-ct generation from mr data using a feature regression model | |
CN111105424A (zh) | 淋巴结自动勾画方法及装置 | |
CN114359642A (zh) | 基于一对一目标查询Transformer的多模态医学图像多器官定位方法 | |
CN116612174A (zh) | 软组织的三维重建方法、系统及计算机存储介质 | |
He et al. | Downsampled imaging geometric modeling for accurate CT reconstruction via deep learning | |
US20210393229A1 (en) | Single or a few views computed tomography imaging with deep neural network | |
US20230177746A1 (en) | Machine learning image reconstruction | |
CN116563096B (zh) | 用于图像配准的形变场的确定方法、装置以及电子设备 | |
US20210074034A1 (en) | Methods and apparatus for neural network based image reconstruction | |
Yang et al. | Quasi-supervised learning for super-resolution PET | |
CN116309806A (zh) | 一种基于CSAI-Grid RCNN的甲状腺超声图像感兴趣区域定位方法 | |
Lei et al. | Generative adversarial networks for medical image synthesis | |
Zhou et al. | LTS-NET: Lung Tissue Segmentation from CT Images using Fully Convolutional Neural Network | |
Karani et al. | Reducing navigators in free-breathing abdominal MRI via temporal interpolation using convolutional neural networks | |
Hou et al. | Respiratory Motion Correction on PET Images Based on 3D Convolutional Neural Network. | |
Alam et al. | Generalizable cone beam ct esophagus segmentation using in silico data augmentation | |
WO2023131061A1 (en) | Systems and methods for positron emission computed tomography image reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |