CN107133997B - 一种基于深度神经网络的双示踪剂pet重建方法 - Google Patents
一种基于深度神经网络的双示踪剂pet重建方法 Download PDFInfo
- Publication number
- CN107133997B CN107133997B CN201710233344.0A CN201710233344A CN107133997B CN 107133997 B CN107133997 B CN 107133997B CN 201710233344 A CN201710233344 A CN 201710233344A CN 107133997 B CN107133997 B CN 107133997B
- Authority
- CN
- China
- Prior art keywords
- tracer
- tac
- pet
- dynamic
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Nuclear Medicine (AREA)
Abstract
本发明公开了一种基于深度神经网络的双示踪剂PET重建方法,其通过建立了对双示踪剂混合TAC进行分类的深度神经网络实现了双示踪剂PET图像重建;对动态PET的测量数据进行重建后重组成以像素点为基准的时间放射性曲线组合后,基于房室模型理论,确定深度神经网络的输入输出标签,并使用了符合双示踪剂混合TAC的损失函数利用误差的反向传播的方法对整个网络的参数进行调整。针对不同的数据组合,本发明利用深度神经网络分别学习出最优的隐藏表达从而实现目标TAC的重建。
Description
技术领域
本发明属于PET成像技术领域,具体涉及一种基于深度神经网络的双示踪剂PET重建方法。
背景技术
正电子发射断层成像(Positron emission tomography,PET)是核医学成像的一种,它采用放射性同位素标记的示踪剂来显示标记物分子在生物体内参与的生化反应过程。常用的放射性同位素有18F、11C、13N等,为了显示活体的生命活动状态,这些核素一般标记在适当的生物大分子上(比如葡萄糖、G蛋白偶联受体、酶、核酸等)参与到各项生化反应中。这些示踪物质能反映生物体内某个特定的生命活动,比如参与的合成与代谢过程、分布状态与对应的功能以及基因表达等,应用到诊断治疗中时能够在疾病早期、细胞的功能与代谢发生了变化但是还未出现病症的时候就发现病变,比临床提前数月甚至数年。
由于单一的示踪剂往往只能提供某一特定的生命活动信息,对于复杂的情况仅靠一种示踪物的分布信息无法准确判断,还需要来自其他示踪物质的辅助信息才能对发生异常的原因进行分析。一方面考虑到每次扫描的成本,另一方面考虑到生物系统的反应也时刻发生着变化:由于来自外界环境的影响、生物体自身状态的改变,在不同时刻的测量结果也会相应地发生变化,因此如果无法同时使用多示踪剂对生物体进行成像,不同的示踪剂之间也无法获得相匹配的信息,甚至还会因为示踪顺序的不同而对生物状态造成影响。因此,对多示踪剂进行单次PET扫描的技术在临床应用中有着重要的意义。
目前,比较理想地对多示踪剂的时间放射性曲线(time-activity curve,TAC)进行信号分离的主要有房室模型外推法和平行房室模型分离法这两种模型。房室模型外推法的思想虽然简单,但是有一个缺点:在两次示踪剂注射之间不仅需要间隔一段时间还需要对这段时间内第一个注射的示踪剂的浓度有一个准确的估计才能不影响后注射的示踪剂定量分析的准确性。另一种常用的平行房室模型分离法利用房室模型是一种线性时不变模型这一特点,将多示踪剂的TAC认为是每个单示踪剂TAC在时间上的延迟和累加。相对于房室模型外推信号分离法,平行房室模型分离法不需要先注射第一种示踪剂,能缩短成像时间;同时两种示踪剂叠加的部分由所有示踪剂共同分担。
基于合适的模型,大部分的双示踪剂研究都采用相似的数值解法,即通过非线性最小二乘法来拟合感兴趣区域或者所有像素的TAC从而实现房室模型中的参数估计。由于不同示踪剂在匹配示踪剂动力学模型时对应的动力学参数不同,基于不同的动力学参数表现出不同的时间放射性强度变化来实现对双示踪剂成像的区分也成为了一种可行的方案。
发明内容
鉴于上述,本发明提供了一种基于深度神经网络的双示踪剂PET重建方法,能够从混合的TAC中分离出单示踪剂的TAC。
一种基于深度神经网络的双示踪剂PET重建方法,包括如下步骤:
(5)根据步骤(1)和(3)获得用于实际测试且反映双示踪剂混合分布情况的动态PET图像序列将动态PET图像序列中各像素点的TAC依次输入所述双示踪剂PET重建模型中,从而得到对应示踪剂I和示踪剂II的动态PET图像序列和
所述的步骤(4)中通过深度神经网络进行训练的具体过程如下:
4.1初始化构建一个由输入层、隐藏层和输出层组成的神经网络;
4.2从动态PET图像序列中取第j个像素点所对应的TAC代入上述神经网络,计算得到该像素点关于双示踪剂的TAC输出结果计算与之间的误差函数L;其中,为动态PET图像序列中对应第j个像素点的TAC,为动态PET图像序列中对应第j个像素点的TAC,j为自然数且1≤j≤n,n为PET图像的像素总数;
4.4根据步骤4.2和4.3遍历动态PET图像序列中所有像素点所对应的TAC,取误差函数L最小时所对应的神经网络作为双示踪剂PET重建模型。
所述误差函数L的表达式如下:
其中:ξ为权重系数。
本发明通过建立了对双示踪剂混合TAC进行分类的深度神经网络实现了双示踪剂PET图像重建;对动态PET的测量数据进行重建后重组成以像素点为基准的时间放射性曲线组合后,基于房室模型理论,确定深度神经网络的输入输出标签,并使用了符合双示踪剂混合TAC的损失函数利用误差的反向传播的方法对整个网络的参数进行调整。针对不同的数据组合,本发明利用深度神经网络分别学习出最优的隐藏表达从而实现目标TAC的重建。
附图说明
图1(a)为作为训练集的六球模板示意图。
图1(b)为作为测试集的脑部模板示意图。
图2(a)为第7帧18F-FDG示踪剂的真实分布示意图。
图2(b)为使用高斯模型重建数据为训练集,使用泊松模型重建数据为测试集得到的第7帧18F-FDG示踪剂分布示意图。
图2(c)为使用高斯模型重建数据为训练集,使用高斯模型重建数据为测试集得到的第7帧18F-FDG示踪剂分布示意图。
图2(d)为使用泊松模型重建数据为训练集,使用泊松模型重建数据为测试集得到的第7帧18F-FDG示踪剂分布示意图。
图2(e)为使用泊松模型重建数据为训练集,使用高斯模型重建数据为测试集得到的第7帧18F-FDG示踪剂分布示意图。
图3(a)为第7帧62Cu-ATSM示踪剂的真实分布示意图。
图3(b)为使用高斯模型重建数据为训练集,使用泊松模型重建数据为测试集得到的第7帧62Cu-ATSM示踪剂分布示意图。
图3(c)为使用高斯模型重建数据为训练集,使用高斯模型重建数据为测试集得到的第7帧62Cu-ATSM示踪剂分布示意图。
图3(d)为使用泊松模型重建数据为训练集,使用泊松模型重建数据为测试集得到的第7帧62Cu-ATSM示踪剂分布示意图。
图3(e)为使用泊松模型重建数据为训练集,使用高斯模型重建数据为测试集得到的第7帧62Cu-ATSM示踪剂分布示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本发明基于深度神经网络的双示踪剂PET重建方法,包括如下步骤:
(1)准备训练集数据。
(2)准备测试集数据。
2.3重组动态PET图像序列矩阵,获得基于像素点的TAC组合。
(3)基于房室模型理论,当由单示踪剂扩展到双示踪剂的情况时存在:
基于深度学习理论,将双示踪剂TAC作为输入向量,两组单示踪剂TAC作为输出标签向量对深度神经网络进行训练,得到学习后的深度神经网络。
其中:Wl和bl分别是权重矩阵和偏差向量,f()是一个非线性的激活函数;
3.2输出层计算公式为:
其中:L是输出层所在层数,c是参数向量;
3.3通过误差的反向传播的方法对整个网络的参数进行调整,误差函数如下:
以下我们通过对六球模板(如图1(a)所示)进行蒙特卡洛模拟生成训练集,对脑部模板(如图1(b)所示)进行蒙特卡洛模拟生成测试集来验证本发明。实验运行环境为:8G内存,3.40GHz,64位操作系统,CPU为intel i7-3770。所模拟的PET扫描仪型号为HamamatsuSHR-22000,设定的放射性核素及药物组合为18F-FDG和62Cu-ATSM,设置sinogram为64个投影角度在每个角度下64条射束采集到的数据结果。系统矩阵G为4096×4096维事先计算好的矩阵。
为了观察不同的重建方法对深度神经网络学习效果的影响,分别使用基于高斯和泊松的重建模型分别对训练测量数据和测试测量数据进行重建,表1为具体设置情况。
表1
图2和图3分别为双示踪剂PET重建得到的第7帧18F-FDG和62Cu-ATSM示踪剂分布结果:图2(a)和图3(a)为分布真值;图2(b)~图2(c)和图3(b)~图3(c)分别为以高斯重建数据为训练集,使用泊松和高斯重建数据为测试集的图像结果;图2(d)~图2(e)和图3(d)~图3(e)分别为以泊松重建数据为训练集,使用泊松和高斯重建数据为测试集的图像结果。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。
Claims (4)
1.一种基于深度神经网络的双示踪剂PET重建方法,包括如下步骤:
(1)向生物组织同时注入示踪剂I和示踪剂II并进行动态PET探测,得到对应不同时刻的符合计数向量,进而组成用以反映双示踪剂混合分布情况的动态符合计数序列
3.根据权利要求1所述的双示踪剂PET重建方法,其特征在于:所述的步骤(4)中通过深度神经网络进行训练的具体过程如下:
4.1初始化构建一个由输入层、隐藏层和输出层组成的神经网络;
4.2从动态PET图像序列中取第j个像素点所对应的TAC代入上述神经网络,计算得到该像素点关于双示踪剂的TAC输出结果计算与之间的误差函数L;其中,为动态PET图像序列中对应第j个像素点的TAC,为动态PET图像序列中对应第j个像素点的TAC,j为自然数且1≤j≤n,n为PET图像的像素总数;
4.4根据步骤4.2和4.3遍历动态PET图像序列中所有像素点所对应的TAC,取误差函数L最小时所对应的神经网络作为双示踪剂PET重建模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710233344.0A CN107133997B (zh) | 2017-04-11 | 2017-04-11 | 一种基于深度神经网络的双示踪剂pet重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710233344.0A CN107133997B (zh) | 2017-04-11 | 2017-04-11 | 一种基于深度神经网络的双示踪剂pet重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107133997A CN107133997A (zh) | 2017-09-05 |
CN107133997B true CN107133997B (zh) | 2019-10-15 |
Family
ID=59716601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710233344.0A Active CN107133997B (zh) | 2017-04-11 | 2017-04-11 | 一种基于深度神经网络的双示踪剂pet重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107133997B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106887025B (zh) * | 2017-01-16 | 2019-06-11 | 浙江大学 | 一种基于栈式自编码器的混合示踪剂动态pet浓度分布图像重建的方法 |
CN109009179B (zh) * | 2018-08-02 | 2020-09-18 | 浙江大学 | 基于深度置信网络的相同同位素标记双示踪剂pet分离方法 |
CN109615674B (zh) * | 2018-11-28 | 2020-09-18 | 浙江大学 | 基于混合损失函数3d cnn的动态双示踪pet重建方法 |
CN109993808B (zh) * | 2019-03-15 | 2020-11-10 | 浙江大学 | 一种基于dsn的动态双示踪pet重建方法 |
CN111166368B (zh) * | 2019-12-19 | 2021-07-23 | 浙江大学 | 基于预训练gru的单扫描双示踪剂pet信号分离方法 |
CN111325686B (zh) * | 2020-02-11 | 2021-03-30 | 之江实验室 | 一种基于深度学习的低剂量pet三维重建方法 |
CN111476859B (zh) * | 2020-04-13 | 2022-09-16 | 浙江大学 | 一种基于3D Unet的动态双示踪PET成像方法 |
CN111920436A (zh) * | 2020-07-08 | 2020-11-13 | 浙江大学 | 基于多任务学习三维卷积编解码网络的双示踪剂pet分离方法 |
CN113160347B (zh) * | 2021-04-14 | 2022-04-26 | 浙江大学 | 一种基于注意力机制的低剂量双示踪剂pet重建方法 |
CN113379863B (zh) * | 2021-06-10 | 2022-06-07 | 浙江大学 | 基于深度学习的动态双示踪pet图像联合重建与分割方法 |
CN113647969B (zh) * | 2021-09-16 | 2023-07-07 | 上海联影医疗科技股份有限公司 | 一种放射性示踪剂成分分析方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103295207A (zh) * | 2013-05-30 | 2013-09-11 | 浙江大学 | 一种基于h无穷滤波的双示踪剂pet浓度的动态重建方法 |
CN103876773A (zh) * | 2014-03-24 | 2014-06-25 | 浙江大学 | 一种基于Logan Plot的大脑多示踪剂代谢参数的估计方法 |
CN103932789A (zh) * | 2013-01-23 | 2014-07-23 | 西门子公司 | 用于执行正电子发射断层成像的方法和装置 |
CN105894550A (zh) * | 2016-03-31 | 2016-08-24 | 浙江大学 | 一种基于tv和稀疏约束的动态pet图像和示踪动力学参数同步重建方法 |
CN105943070A (zh) * | 2016-05-24 | 2016-09-21 | 深圳先进技术研究院 | 一种pet系统及其成像方法 |
CN106510744A (zh) * | 2016-04-27 | 2017-03-22 | 上海联影医疗科技有限公司 | Pet扫描中多示踪剂动态参数的估计方法 |
-
2017
- 2017-04-11 CN CN201710233344.0A patent/CN107133997B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103932789A (zh) * | 2013-01-23 | 2014-07-23 | 西门子公司 | 用于执行正电子发射断层成像的方法和装置 |
CN103295207A (zh) * | 2013-05-30 | 2013-09-11 | 浙江大学 | 一种基于h无穷滤波的双示踪剂pet浓度的动态重建方法 |
CN103876773A (zh) * | 2014-03-24 | 2014-06-25 | 浙江大学 | 一种基于Logan Plot的大脑多示踪剂代谢参数的估计方法 |
CN105894550A (zh) * | 2016-03-31 | 2016-08-24 | 浙江大学 | 一种基于tv和稀疏约束的动态pet图像和示踪动力学参数同步重建方法 |
CN106510744A (zh) * | 2016-04-27 | 2017-03-22 | 上海联影医疗科技有限公司 | Pet扫描中多示踪剂动态参数的估计方法 |
CN105943070A (zh) * | 2016-05-24 | 2016-09-21 | 深圳先进技术研究院 | 一种pet系统及其成像方法 |
Non-Patent Citations (5)
Title |
---|
Reconstruction for 3D PET Based on Total Variation Constrained Direct Fourier Method;Haiqing Y , Zhi C , Heye Z , et al.;《PLOS ONE》;20151231;全文 * |
基于自编码器的高时空分辨PET图像重建;王祎乐;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;20170315;全文 * |
基于鲁棒自适应Kalman滤波的PET放射性浓度重建;沈云霞, 刘华锋;《中国图象图形学报》;20110228;第16卷(第2期);全文 * |
结构先验约束的动态PET图像重建;张俊超,岳茂雄,刘华锋;《浙江大学学报(工学版)》;20120630;第46卷(第6期);全文 * |
自适应双重点阵DOT图像重建;王嵩,上田之雄,山下丰,刘华锋;《浙江大学学报(工学版)》;20130131;第47卷(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107133997A (zh) | 2017-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107133997B (zh) | 一种基于深度神经网络的双示踪剂pet重建方法 | |
CN106887025B (zh) | 一种基于栈式自编码器的混合示踪剂动态pet浓度分布图像重建的方法 | |
US11445992B2 (en) | Deep-learning based separation method of a mixture of dual-tracer single-acquisition PET signals with equal half-lives | |
Kenett et al. | Driving the brain towards creativity and intelligence: A network control theory analysis | |
Strange et al. | The National echocardiography database Australia (NEDA): rationale and methodology | |
CN109993808B (zh) | 一种基于dsn的动态双示踪pet重建方法 | |
CN109615674A (zh) | 基于混合损失函数3d cnn的动态双示踪pet重建方法 | |
CN105894550B (zh) | 一种基于tv和稀疏约束的动态pet图像和示踪动力学参数同步重建方法 | |
CN106204674B (zh) | 基于结构字典和动力学参数字典联合稀疏约束的动态pet图像重建方法 | |
CN105678821B (zh) | 一种基于自编码器图像融合的动态pet图像重建方法 | |
CN108986916B (zh) | 基于栈式自编码器的动态pet图像示踪剂动力学宏参数估计方法 | |
CN107146218B (zh) | 一种基于图像分割的动态pet图像重建及示踪动力学参数估计方法 | |
Xu et al. | Three-dimensional convolutional neural networks for simultaneous dual-tracer PET imaging | |
CN108550172A (zh) | 一种基于非局部特性和全变分联合约束的pet图像重建方法 | |
CN107146263B (zh) | 一种基于张量字典约束的动态pet图像重建方法 | |
Muscogiuri et al. | Multimodality imaging in ischemic chronic cardiomyopathy | |
CN111166368B (zh) | 基于预训练gru的单扫描双示踪剂pet信号分离方法 | |
Zhang et al. | Learning from multiple annotators for medical image segmentation | |
O’farrell et al. | Luminal fluid motion inside an in vitro dissolution model of the human ascending colon assessed using magnetic resonance imaging | |
Hamzaraj et al. | Patient selection and clinical indication for chronic total occlusion revascularization—a workflow focusing on non-invasive cardiac imaging | |
Laspas et al. | Cardiac magnetic resonance versus single-photon emission computed tomography for detecting coronary artery disease and myocardial ischemia: comparison with coronary angiography | |
Tong et al. | Single-scan dual-tracer separation network based on pre-trained GRU | |
Wan et al. | Deep-learning based joint estimation of dual-tracer PET image activity maps and clustering of time activity curves | |
CN111920436A (zh) | 基于多任务学习三维卷积编解码网络的双示踪剂pet分离方法 | |
Ferrari et al. | Estimating Muscle Power of the Lower Limbs through the 5-Sit-to-Stand Test: A Comparison of Field vs. Laboratory Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |