CN111968108A - 基于智能扫描协议的ct智能成像方法、装置及系统 - Google Patents
基于智能扫描协议的ct智能成像方法、装置及系统 Download PDFInfo
- Publication number
- CN111968108A CN111968108A CN202010908823.XA CN202010908823A CN111968108A CN 111968108 A CN111968108 A CN 111968108A CN 202010908823 A CN202010908823 A CN 202010908823A CN 111968108 A CN111968108 A CN 111968108A
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- imaging
- network model
- patient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 112
- 238000003062 neural network model Methods 0.000 claims abstract description 92
- 238000000034 method Methods 0.000 claims abstract description 56
- 210000000056 organ Anatomy 0.000 claims abstract description 56
- 238000005259 measurement Methods 0.000 claims abstract description 24
- 238000013170 computed tomography imaging Methods 0.000 claims abstract description 12
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 75
- 238000012549 training Methods 0.000 claims description 30
- 230000000306 recurrent effect Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000003044 adaptive effect Effects 0.000 claims description 12
- 230000002457 bidirectional effect Effects 0.000 claims description 10
- 238000013135 deep learning Methods 0.000 claims description 10
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000000877 morphologic effect Effects 0.000 claims description 6
- 238000001228 spectrum Methods 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 238000002591 computed tomography Methods 0.000 abstract description 19
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 231100000628 reference dose Toxicity 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种基于智能扫描协议的CT智能成像方法、装置及系统,其中,所述方法包括:启动CT成像系统,获得CT三维定位像及病人文本信息;基于第一神经网络模型提取CT三维定位像中的解剖器官特征,以及基于第二神经网络模型提取病人文本信息中的病人体征信息;根据解剖器官特征和病人体征信息相结合确定用于优化辨别解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数;基于每个角度下扫描协议参数来对病人进行扫描测量,获得测量数据;基于每个角度下图像成像参数及测量数据进行CT图像重建,获得CT图像。在本发明实施例中,可实现优化CT扫描协议,在不增大计算量的前提下得到感兴趣区域的高质量成像。
Description
技术领域
本发明涉及医疗图像处理技术领域,尤其涉及一种基于智能扫描协议的CT智能成像方法、装置及系统。
背景技术
在目前医学CT影像装置中,影像医生或技师根据患者身材和脏器解剖形态的个体差异手动修改扫描协议来降低X射线辐射剂量同时保证CT影像质量,比如降低球管管电流、调节球管管电压等;X射线动态调制(dynamic fluence field modulation,DFFM)技术,包括硬件导向的DFFM技术和软件技术导向的DFFM技术,可以用于优化CT扫描协议。
上述两种DFFM技术均在不同程度上优化CT扫描协议,实现微辐射剂量扫描;但是,硬件导向的DFFM技术需要重新设计CT影像装置中硬件部分,这不利于新技术在已有设备上推广使用;而软件技术导向的DFFM技术则只针对全局图像,不能保证局部感兴趣区域成像质量,缺乏临床任务导向,且计算量巨大。
发明内容
本发明的目的在于克服现有技术的不足,本发明提供了一种基于智能扫描协议的CT智能成像方法、装置及系统,可实现优化CT扫描协议,在不增大计算量的前提下得到感兴趣区域的高质量成像。
为了解决上述中至少一个技术问题,本发明实施例提供了一种基于智能扫描协议的CT智能成像方法,所述方法包括:
启动CT成像系统,获得CT三维定位像及病人文本信息;
基于第一神经网络模型智能提取所述CT三维定位像中的解剖器官特征,以及基于第二神经网络模型智能提取所述病人文本信息中的病人体征信息;
根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数;
基于所述每个角度下扫描协议参数来对病人进行扫描测量,获得测量数据;
基于所述每个角度下图像成像参数及所述测量数据进行CT图像重建,获得CT图像。
可选的,所述第一神经网络模型为U-Net神经网络模型,所述U-Net神经网络模型包含编码过程和解码过程,其中,所述编码过程采用残差块的结构,所述解码过程采用全卷积网络;
所述第一神经网络模型的训练过程如下:
定义训练集为S={(Xi,Yi),i=1,2,3,...,n},其中,Xi表示第i幅输入三维定位像,Yi∈{0,1,…,m,…,M}表示第i幅输入三维定位像的脏器标签,其中Yi=m定义为不同的重建目标区域,所述第一神经网络模型是以端到端的方式进行训练,采用的第一损失函数为第一交叉熵函数,所述第一交叉熵函数定义如下:
其中,表示第i幅输入三维定位像的第k个像素的概率,k={1,2,3,...,|Xi|};|Xi|表示Xi总的像素个数;表示三维定位像水平预测的概率图,可以通过像素水平的所有计算得到;所述第一损失函数采用Adam算法迭代更新所述第一神经网络模型权值参数。
可选的,所述第二神经网络模型为双向递归神经网络模型,所述双向递归神经网络模型包含向前推算的递归神经网络和向后推算的递归神经网络;
所述第二神经网络模型的训练过程如下:
定义训练集为D={(xj,yj),j=1,2,3,...,h},其中,xj表示j个病人输入的文本信息;yj为j个病人输入的体征标签信息;所述第二神经网络模型是以端到端的方式进行训练,采用的第二损失函数为第二交叉熵损失函数,所述第二交叉熵损失函数定义如下:
可选的,所述解剖器官特征包括位置、方位、大小、形状和深度;所述病人体征信息包括年龄、性别、身高和体态。
可选的,所述根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数,包括:
构建目标方程进行优化,其中所述目标方程如下:
式中,ΩA表示待求解的自适应扫描协议参数;ΩR表示待求解的自适应图像成像参数;S表示局部噪声功率谱的估计;T表示局部调制传递函数的估计;表示基于任务驱动结合病人驱动的参数估计,包含病人核心信息和CT三维定位像高维形态学特征、纹理特征即j表示成像任务索引序号;fx、fy、fz分别表示沿待重建三维图像f的x轴、y轴、z轴的方向分量;
基于所述解剖器官特征和所述病人体征信息通过深度学习网络优化出所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数。
可选的,所述图像成像参数包括滤波反投影、迭代重建和滤波核大小。
可选的,所述滤波反投影的重建算法为:
其中,f表示待重建的CT图像;P(w,θ)表示对应θ角度的单位投影的傅里叶变换;重建算法的里层的积分是P(w,θ)|w|的逆傅里叶变换,在空间域中,表示单位投影被一频域相应|w|的函数做滤波运输。
可选的,所述迭代重建的重建算法目标函数为:
另外,本发明实施例还提供了一种基于智能扫描协议的CT智能成像装置,所述装置包括:
信息获得模块:用于启动CT成像系统,获得CT三维定位像及病人文本信息;
智能提取模块:用于基于第一神经网络模型智能提取所述CT三维定位像中的解剖器官特征,以及基于第二神经网络模型智能提取所述病人文本信息中的病人体征信息;
参数确定模块:用于根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数;
扫描测量模块:用于基于所述每个角度下扫描协议参数来对病人进行扫描测量,获得测量数据;
图像重建模块:用于基于所述每个角度下图像成像参数及所述测量数据进行CT图像重建,获得CT图像。
另外,本发明实施例还提供了一种基于智能扫描协议的CT智能成像系统,所述系统包括计算机终端和CT设备终端,其中所述计算机终端和所述CT设备终端被配置为执行上述中任意一项所述的CT智能成像方法。
在本发明实施例中,可实现优化CT扫描协议,在不增大计算量的前提下得到感兴趣区域的高质量成像。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的基于智能扫描协议的CT智能成像方法的流程示意图;
图2是本发明实施例中的基于智能扫描协议的CT智能成像装置的结构组成示意图;
图3是本发明实施例中的基于智能扫描协议的CT智能成像系统的结构组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例
请参阅图1,图1是本发明实施例中的基于智能扫描协议的CT智能成像方法的流程示意图。
如图1所示,一种基于智能扫描协议的CT智能成像方法,所述方法包括:
S11:启动CT成像系统,获得CT三维定位像及病人文本信息;
在本发明具体实施过程中,用户在计算机设备上启动CT程序系统,通过计算机设备得到控制CT设备生成CT三维定位像,具体是低剂量的CT扫描并重建,从而得到低剂量CT扫描重建图像,然后通过成像网络对该低剂量CT扫描重建图像进行恢复,得到三维定位图像;其中,低剂量CT扫描为低于临床CT检查设定剂量或CT设备厂商设定的参考剂量;成像网络为采用配对的高低剂量三维定位像数据集以端到端的方式进行训练,并采用Adam算法对均方误差损失函数和网络权重参数进行优化而获得;通过上述方式得到的三维CT定位像可以实现低剂量三维定位像中的噪声伪影的去除;通过计算机输入或者在对应的病人数据库中调用得到人文本信息。
S12:基于第一神经网络模型智能提取所述CT三维定位像中的解剖器官特征,以及基于第二神经网络模型智能提取所述病人文本信息中的病人体征信息;
在本发明具体实施过程中,所述第一神经网络模型为U-Net神经网络模型,所述U-Net神经网络模型包含编码过程和解码过程,其中,所述编码过程采用残差块的结构,所述解码过程采用全卷积网络;
所述第一神经网络模型的训练过程如下:
定义训练集为S={(Xi,Yi),i=1,2,3,...,n},其中,Xi表示第i幅输入三维定位像,Yi∈{0,1,…,m,…,M}表示第i幅输入三维定位像的脏器标签,其中Yi=m定义为不同的重建目标区域,所述第一神经网络模型是以端到端的方式进行训练,采用的第一损失函数为第一交叉熵函数,所述第一交叉熵函数定义如下:
其中,表示第i幅输入三维定位像的第k个像素的概率,k={1,2,3,...,|Xi|};|Xi|表示Xi总的像素个数;表示三维定位像水平预测的概率图,可以通过像素水平的所有计算得到;所述第一损失函数采用Adam算法迭代更新所述第一神经网络模型权值参数。
所述第二神经网络模型为双向递归神经网络模型,所述双向递归神经网络模型包含向前推算的递归神经网络和向后推算的递归神经网络;
所述第二神经网络模型的训练过程如下:
定义训练集为D={(xj,yj),j=1,2,3,...,h},其中,xj表示j个病人输入的文本信息;yj为j个病人输入的体征标签信息;所述第二神经网络模型是以端到端的方式进行训练,采用的第二损失函数为第二交叉熵损失函数,所述第二交叉熵损失函数定义如下:
所述解剖器官特征包括位置、方位、大小、形状和深度;所述病人体征信息包括年龄、性别、身高和体态。
具体的,通过将该CT三维定位像输入第一神经网络模型中,输出该CT三维定位像中的解剖器官特征;该第一神经网络模型为U-Net神经网络模型,该网络包含编码过程和解码过程,其中编码过程采用残差块的结构,解码过程采用全卷积网络;该第一神经网络模型在训练的时候,定义训练集为S={(Xi,Yi),i=1,2,3,...,n},其中,Xi表示第i幅输入三维定位像,Yi∈{0,1,…,m,…,M}表示第i幅输入三维定位像的脏器标签,其中Yi=m定义为不同的重建目标区域,第一神经网络模型是以端到端的方式进行训练,采用的第一损失函数为第一交叉熵函数,所述第一交叉熵函数定义如下:
其中,表示第i幅输入三维定位像的第k个像素的概率,k={1,2,3,...,|Xi|};|Xi|表示Xi总的像素个数;表示三维定位像水平预测的概率图,可以通过像素水平的所有计算得到;所述第一损失函数采用Adam算法迭代更新所述第一神经网络模型权值参数。
在训练之后的第一神经网络模型用于辨别CT三维定位像中的区域内一或多个解剖器官特征。
通过将病人文本信息输入第二神经网络模型中,输出病人特征信息,该病人体征信息至少包括生化指标、年龄、身高、性别、体态等;并将该病人体征信息实现二维向量化的表达,作为高维体征信息辅助于CT扫描协议参数的优化;在此,第二神经网络模型可以为双向递归神经网络(BRNN)模型,该网络包含向前推算的递归神经网络和向后推算的递归神经网络,具体的,该第二神经网络模型训练如下:定义训练集为D={(xj,yj),j=1,2,3,...,h},其中,xj表示j个病人输入的文本信息;yj为j个病人输入的体征标签信息;第二神经网络模型是以端到端的方式进行训练,采用的第二损失函数为第二交叉熵损失函数,所述第二交叉熵损失函数定义如下:
得到的病人体征信息包括生化指标、年龄、性别、身高和体态等。
S13:根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数;
在本发明具体实施过程中,所述根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数,包括:
构建目标方程进行优化,其中所述目标方程如下:
式中,ΩA表示待求解的自适应扫描协议参数;ΩR表示待求解的自适应图像成像参数;S表示局部噪声功率谱的估计;T表示局部调制传递函数的估计;表示基于任务驱动结合病人驱动的参数估计,包含病人核心信息和CT三维定位像高维形态学特征、纹理特征即j表示成像任务索引序号;fx、fy、fz分别表示沿待重建三维图像f的x轴、y轴、z轴的方向分量;
基于所述解剖器官特征和所述病人体征信息通过深度学习网络优化出所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数。
所述图像成像参数包括滤波反投影、迭代重建和滤波核大小。
进一步的,所述滤波反投影的重建算法为:
其中,f表示待重建的CT图像;P(w,θ)表示对应θ角度的单位投影的傅里叶变换;重建算法的里层的积分是P(w,θ)|w|的逆傅里叶变换,在空间域中,表示单位投影被一频域相应|w|的函数做滤波运输。
进一步的,所述迭代重建的重建算法目标函数为:
具体的,每个角度下扫描协议参数及每个角度下图像成像参数可以通过深度学习网络中一个目标方程进行优化,该目标方程如下:
式中,ΩA表示待求解的自适应扫描协议参数;ΩR表示待求解的自适应图像成像参数;S表示局部噪声功率谱的估计;T表示局部调制传递函数的估计;表示基于任务驱动结合病人驱动的参数估计,包含病人核心信息和CT三维定位像高维形态学特征、纹理特征即j表示成像任务索引序号;fx、fy、fz分别表示沿待重建三维图像f的x轴、y轴、z轴的方向分量;
将解剖器官特征和病人体征信息联合通过该深度学习网络中的目标方程进行优化,进而优化出,解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数。
该图像成像参数包括重建方法(例如滤波反投影,迭代重建)、滤波核大小等。
滤波反投影重建算法公式可表示为:
其中,f表示待重建的CT图像;P(w,θ)表示对应θ角度的单位投影的傅里叶变换;重建算法的里层的积分是P(w,θ)|w|的逆傅里叶变换,在空间域中,表示单位投影被一频域相应|w|的函数做滤波运输。
迭代重建的重建算法目标函数为:
S14基于所述每个角度下扫描协议参数来对病人进行扫描测量,获得测量数据;
在本发明具体实施过程中,在得到每个角度下扫描协议参数之后,通过在计算机终端上设置CT设备终端相关扫描功能的扫描协议参数,然后进行CT扫描测量,得到测量数据。
S15:基于所述每个角度下图像成像参数及所述测量数据进行CT图像重建,获得CT图像。
在本发明具体实施过程中,然后根据每个角度下图像成像参数及测量数据来进行CT图像重建,得到CT图像
在本发明中,一个或多个图像成像参数及测量数据都是根据任务驱动,病人驱动的深度学习或神经网络模型进行多目标优化确定的,一个或多个扫描协议参数和图像成像参数包括扫描范围、管电流、管电压、重建范围等,目的在于降低病人辐射损伤的同时,保证重建图像质量、诊断精度。
在本发明实施例中,可实现优化CT扫描协议,在不增大计算量的前提下得到感兴趣区域的高质量成像。
实施例
请参阅图2,图2是本发明实施例中的基于智能扫描协议的CT智能成像装置的结构组成示意图。
如图2所示,一种基于智能扫描协议的CT智能成像装置,所述装置包括:
信息获得模块21:用于启动CT成像系统,获得CT三维定位像及病人文本信息;
在本发明具体实施过程中,用户在计算机设备上启动CT程序系统,通过计算机设备得到控制CT设备生成CT三维定位像,具体是低剂量的CT扫描并重建,从而得到低剂量CT扫描重建图像,然后通过成像网络对该低剂量CT扫描重建图像进行恢复,得到三维定位图像;其中,低剂量CT扫描为低于临床CT检查设定剂量或CT设备厂商设定的参考剂量;成像网络为采用配对的高低剂量三维定位像数据集以端到端的方式进行训练,并采用Adam算法对均方误差损失函数和网络权重参数进行优化而获得;通过上述方式得到的三维CT定位像可以实现低剂量三维定位像中的噪声伪影的去除;通过计算机输入或者在对应的病人数据库中调用得到人文本信息。
智能提取模块22:用于基于第一神经网络模型智能提取所述CT三维定位像中的解剖器官特征,以及基于第二神经网络模型智能提取所述病人文本信息中的病人体征信息;
在本发明具体实施过程中,所述第一神经网络模型为U-Net神经网络模型,所述U-Net神经网络模型包含编码过程和解码过程,其中,所述编码过程采用残差块的结构,所述解码过程采用全卷积网络;
所述第一神经网络模型的训练过程如下:
定义训练集为S={(Xi,Yi),i=1,2,3,...,n},其中,Xi表示第i幅输入三维定位像,Yi∈{0,1,…,m,…,M}表示第i幅输入三维定位像的脏器标签,其中Yi=m定义为不同的重建目标区域,所述第一神经网络模型是以端到端的方式进行训练,采用的第一损失函数为第一交叉熵函数,所述第一交叉熵函数定义如下:
其中,表示第i幅输入三维定位像的第k个像素的概率,k={1,2,3,...,|Xi|};|Xi|表示Xi总的像素个数;表示三维定位像水平预测的概率图,可以通过像素水平的所有计算得到;所述第一损失函数采用Adam算法迭代更新所述第一神经网络模型权值参数。
所述第二神经网络模型为双向递归神经网络模型,所述双向递归神经网络模型包含向前推算的递归神经网络和向后推算的递归神经网络;
所述第二神经网络模型的训练过程如下:
定义训练集为D={(xj,yj),j=1,2,3,...,h},其中,xj表示j个病人输入的文本信息;yj为j个病人输入的体征标签信息;所述第二神经网络模型是以端到端的方式进行训练,采用的第二损失函数为第二交叉熵损失函数,所述第二交叉熵损失函数定义如下:
所述解剖器官特征包括位置、方位、大小、形状和深度;所述病人体征信息包括年龄、性别、身高和体态。
具体的,通过将该CT三维定位像输入第一神经网络模型中,输出该CT三维定位像中的解剖器官特征;该第一神经网络模型为U-Net神经网络模型,该网络包含编码过程和解码过程,其中编码过程采用残差块的结构,解码过程采用全卷积网络;该第一神经网络模型在训练的时候,定义训练集为S={(Xi,Yi),i=1,2,3,...,n},其中,Xi表示第i幅输入三维定位像,Yi∈{0,1,…,m,…,M}表示第i幅输入三维定位像的脏器标签,其中Yi=m定义为不同的重建目标区域,第一神经网络模型是以端到端的方式进行训练,采用的第一损失函数为第一交叉熵函数,所述第一交叉熵函数定义如下:
其中,表示第i幅输入三维定位像的第k个像素的概率,k={1,2,3,...,|Xi|};|Xi|表示Xi总的像素个数;表示三维定位像水平预测的概率图,可以通过像素水平的所有计算得到;所述第一损失函数采用Adam算法迭代更新所述第一神经网络模型权值参数。
在训练之后的第一神经网络模型用于辨别CT三维定位像中的区域内一或多个解剖器官特征。
通过将病人文本信息输入第二神经网络模型中,输出病人特征信息,该病人体征信息至少包括生化指标、年龄、身高、性别、体态等;并将该病人体征信息实现二维向量化的表达,作为高维体征信息辅助于CT扫描协议参数的优化;在此,第二神经网络模型可以为双向递归神经网络(BRNN)模型,该网络包含向前推算的递归神经网络和向后推算的递归神经网络,具体的,该第二神经网络模型训练如下:定义训练集为D={(xj,yj),j=1,2,3,...,h},其中,xj表示j个病人输入的文本信息;yj为j个病人输入的体征标签信息;第二神经网络模型是以端到端的方式进行训练,采用的第二损失函数为第二交叉熵损失函数,所述第二交叉熵损失函数定义如下:
得到的病人体征信息包括生化指标、年龄、性别、身高和体态等。
参数确定模块23:用于根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数;
在本发明具体实施过程中,所述根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数,包括:
构建目标方程进行优化,其中所述目标方程如下:
式中,ΩA表示待求解的自适应扫描协议参数;ΩR表示待求解的自适应图像成像参数;S表示局部噪声功率谱的估计;T表示局部调制传递函数的估计;表示基于任务驱动结合病人驱动的参数估计,包含病人核心信息和CT三维定位像高维形态学特征、纹理特征即j表示成像任务索引序号;fx、fy、fz分别表示沿待重建三维图像f的x轴、y轴、z轴的方向分量;
基于所述解剖器官特征和所述病人体征信息通过深度学习网络优化出所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数。
所述图像成像参数包括滤波反投影、迭代重建和滤波核大小。
进一步的,所述滤波反投影的重建算法为:
其中,f表示待重建的CT图像;P(w,θ)表示对应θ角度的单位投影的傅里叶变换;重建算法的里层的积分是P(w,θ)|w|的逆傅里叶变换,在空间域中,表示单位投影被一频域相应|w|的函数做滤波运输。
进一步的,所述迭代重建的重建算法目标函数为:
具体的,每个角度下扫描协议参数及每个角度下图像成像参数可以通过深度学习网络中一个目标方程进行优化,该目标方程如下:
式中,ΩA表示待求解的自适应扫描协议参数;ΩR表示待求解的自适应图像成像参数;S表示局部噪声功率谱的估计;T表示局部调制传递函数的估计;表示基于任务驱动结合病人驱动的参数估计,包含病人核心信息和CT三维定位像高维形态学特征、纹理特征即j表示成像任务索引序号;fx、fy、fz分别表示沿待重建三维图像f的x轴、y轴、z轴的方向分量;
将解剖器官特征和病人体征信息联合通过该深度学习网络中的目标方程进行优化,进而优化出,解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数。
该图像成像参数包括重建方法(例如滤波反投影,迭代重建)、滤波核大小等。
滤波反投影重建算法公式可表示为:
其中,f表示待重建的CT图像;P(w,θ)表示对应θ角度的单位投影的傅里叶变换;重建算法的里层的积分是P(w,θ)|w|的逆傅里叶变换,在空间域中,表示单位投影被一频域相应|w|的函数做滤波运输。
迭代重建的重建算法目标函数为:
扫描测量模块24:用于基于所述每个角度下扫描协议参数来对病人进行扫描测量,获得测量数据;
在本发明具体实施过程中,在得到每个角度下扫描协议参数之后,通过在计算机终端上设置CT设备终端相关扫描功能的扫描协议参数,然后进行CT扫描测量,得到测量数据。
图像重建模块25:用于基于所述每个角度下图像成像参数及所述测量数据进行CT图像重建,获得CT图像。
在本发明具体实施过程中,然后根据每个角度下图像成像参数及测量数据来进行CT图像重建,得到CT图像
在本发明中,一个或多个图像成像参数及测量数据都是根据任务驱动,病人驱动的深度学习或神经网络模型进行多目标优化确定的,一个或多个扫描协议参数和图像成像参数包括扫描范围、管电流、管电压、重建范围等,目的在于降低病人辐射损伤的同时,保证重建图像质量、诊断精度。
在本发明实施例中,可实现优化CT扫描协议,在不增大计算量的前提下得到感兴趣区域的高质量成像。
实施例
请参阅图3,图3是本发明实施例中的基于智能扫描协议的CT智能成像系统的结构组成示意图。
如图3所示,一种基于智能扫描协议的CT智能成像系统,所述系统包括计算机终端和CT设备终端,其中所述计算机终端和所述CT设备终端被配置为执行上述中任意一项所述的CT智能成像方法。
具体的,CT智能成像系统的具体实施方式可以参详上述实施例,在此不再赘述。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
另外,以上对本发明实施例所提供的一种基于智能扫描协议的CT智能成像方法、装置及系统进行了详细介绍,本文中应采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于智能扫描协议的CT智能成像方法,其特征在于,所述方法包括:
启动CT成像系统,获得CT三维定位像及病人文本信息;
基于第一神经网络模型智能提取所述CT三维定位像中的解剖器官特征,以及基于第二神经网络模型智能提取所述病人文本信息中的病人体征信息;
根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数;
基于所述每个角度下扫描协议参数来对病人进行扫描测量,获得测量数据;
基于所述每个角度下图像成像参数及所述测量数据进行CT图像重建,获得CT图像。
2.根据权利要求1所述的CT智能成像方法,其特征在于,所述第一神经网络模型为U-Net神经网络模型,所述U-Net神经网络模型包含编码过程和解码过程,其中,所述编码过程采用残差块的结构,所述解码过程采用全卷积网络;
所述第一神经网络模型的训练过程如下:
定义训练集为S={(Xi,Yi),i=1,2,3,...,n},其中,Xi表示第i幅输入三维定位像,Yi∈{0,1,…,m,…,M}表示第i幅输入三维定位像的脏器标签,其中Yi=m定义为不同的重建目标区域,所述第一神经网络模型是以端到端的方式进行训练,采用的第一损失函数为第一交叉熵函数,所述第一交叉熵函数定义如下:
4.根据权利要求1所述的CT智能成像方法,其特征在于,所述解剖器官特征包括位置、方位、大小、形状和深度;所述病人体征信息包括生化指标、年龄、性别、身高和体态。
5.根据权利要求1所述的CT智能成像方法,其特征在于,所述根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数,包括:
构建目标方程进行优化,其中所述目标方程如下:
式中,ΩA表示待求解的自适应扫描协议参数;ΩR表示待求解的自适应图像成像参数;S表示局部噪声功率谱的估计;T表示局部调制传递函数的估计;表示基于任务驱动结合病人驱动的参数估计,包含病人核心信息和CT三维定位像高维形态学特征、纹理特征即j表示成像任务索引序号;fx、fy、fz分别表示沿待重建三维图像f的x轴、y轴、z轴的方向分量;
基于所述解剖器官特征和所述病人体征信息通过深度学习网络优化出所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数。
6.根据权利要求1所述的CT智能成像方法,其特征在于,所述图像成像参数包括滤波反投影、迭代重建和滤波核大小。
9.一种基于智能扫描协议的CT智能成像装置,其特征在于,所述装置包括:
信息获得模块:用于启动CT成像系统,获得CT三维定位像及病人文本信息;
智能提取模块:用于基于第一神经网络模型智能提取所述CT三维定位像中的解剖器官特征,以及基于第二神经网络模型智能提取所述病人文本信息中的病人体征信息;
参数确定模块:用于根据所述解剖器官特征和所述病人体征信息相结合自动确定用于优化辨别所述解剖器官特征的成像质量的每个角度下扫描协议参数及每个角度下图像成像参数;
扫描测量模块:用于基于所述每个角度下扫描协议参数来对病人进行扫描测量,获得测量数据;
图像重建模块:用于基于所述每个角度下图像成像参数及所述测量数据进行CT图像重建,获得CT图像。
10.一种基于智能扫描协议的CT智能成像系统,其特征在于,所述系统包括计算机终端和CT设备终端,其中所述计算机终端和所述CT设备终端被配置为执行权利要求1-8任意一项所述的CT智能成像方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010908823.XA CN111968108B (zh) | 2020-09-02 | 2020-09-02 | 基于智能扫描协议的ct智能成像方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010908823.XA CN111968108B (zh) | 2020-09-02 | 2020-09-02 | 基于智能扫描协议的ct智能成像方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111968108A true CN111968108A (zh) | 2020-11-20 |
CN111968108B CN111968108B (zh) | 2024-04-16 |
Family
ID=73392364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010908823.XA Active CN111968108B (zh) | 2020-09-02 | 2020-09-02 | 基于智能扫描协议的ct智能成像方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111968108B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113379868A (zh) * | 2021-07-08 | 2021-09-10 | 安徽工程大学 | 基于卷积稀疏编码网络的低剂量ct图像噪声伪影分解方法 |
CN113707312A (zh) * | 2021-09-16 | 2021-11-26 | 人工智能与数字经济广东省实验室(广州) | 一种基于深度学习的血管定量识别的方法及装置 |
CN113781461A (zh) * | 2021-09-16 | 2021-12-10 | 人工智能与数字经济广东省实验室(广州) | 一种病人智能监控排序方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180071452A1 (en) * | 2016-09-13 | 2018-03-15 | Siemens Healthcare Gmbh | System and Method for Optimizing Contrast Imaging of a Patient |
CN109427058A (zh) * | 2017-08-17 | 2019-03-05 | 西门子保健有限责任公司 | 医学图像中的自动变化检测 |
US20190099148A1 (en) * | 2017-09-29 | 2019-04-04 | General Electric Company | Ct imaging system and method using a task-based image quality metric to achieve a desired image quality |
CN110114834A (zh) * | 2016-11-23 | 2019-08-09 | 通用电气公司 | 用于医疗程序的深度学习医疗系统和方法 |
CN111493909A (zh) * | 2020-04-30 | 2020-08-07 | 上海联影医疗科技有限公司 | 医学图像扫描方法、装置、计算机设备和存储介质 |
-
2020
- 2020-09-02 CN CN202010908823.XA patent/CN111968108B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180071452A1 (en) * | 2016-09-13 | 2018-03-15 | Siemens Healthcare Gmbh | System and Method for Optimizing Contrast Imaging of a Patient |
CN110114834A (zh) * | 2016-11-23 | 2019-08-09 | 通用电气公司 | 用于医疗程序的深度学习医疗系统和方法 |
CN109427058A (zh) * | 2017-08-17 | 2019-03-05 | 西门子保健有限责任公司 | 医学图像中的自动变化检测 |
US20190099148A1 (en) * | 2017-09-29 | 2019-04-04 | General Electric Company | Ct imaging system and method using a task-based image quality metric to achieve a desired image quality |
CN111493909A (zh) * | 2020-04-30 | 2020-08-07 | 上海联影医疗科技有限公司 | 医学图像扫描方法、装置、计算机设备和存储介质 |
Non-Patent Citations (6)
Title |
---|
GRACE J GANG等: "Task-driven image acquisition and reconstruction in cone-beam CT", 《INSTITUTE OF PHYSICS AND ENGINEERING IN MEDICINE》, vol. 60, pages 3129, XP020282742, DOI: 10.1088/0031-9155/60/8/3129 * |
MANTOVANI A等: "Macrophage plasticity and polarization in tissue repair and remodelling", 《THE JOURNAL OF PATHOLOGY》, vol. 229, no. 2, pages 176 - 185 * |
刘丰等: "低剂量灌注 CT 成像诊断胰腺癌的研究进展", 《现代生物医学进展》, vol. 19, no. 3, pages 593 - 595 * |
张垒等: "单光子发射型计算机断层扫描术图像重建方法的应用", 《医学研究生学报》, no. 2, pages 113 - 116 * |
牛善洲: "基于变分正则化的低剂量CT成像方法研究", 《中国博士学位论文全文数据库 (医药卫生科技辑)》, no. 3, pages 076 - 2 * |
陆忠华等: "CT灌注成像对非小细胞肺癌放疗靶区确定的临床意义", 《实用癌症杂志》, no. 4, pages 67 - 69 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113379868A (zh) * | 2021-07-08 | 2021-09-10 | 安徽工程大学 | 基于卷积稀疏编码网络的低剂量ct图像噪声伪影分解方法 |
CN113707312A (zh) * | 2021-09-16 | 2021-11-26 | 人工智能与数字经济广东省实验室(广州) | 一种基于深度学习的血管定量识别的方法及装置 |
CN113781461A (zh) * | 2021-09-16 | 2021-12-10 | 人工智能与数字经济广东省实验室(广州) | 一种病人智能监控排序方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111968108B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348515B (zh) | 图像分类方法、图像分类模型训练方法及装置 | |
US10387765B2 (en) | Image correction using a deep generative machine-learning model | |
CN107886508B (zh) | 差分减影方法和医学图像处理方法及系统 | |
CN109754394B (zh) | 三维医学图像处理装置及方法 | |
CN111968108B (zh) | 基于智能扫描协议的ct智能成像方法、装置及系统 | |
US10867375B2 (en) | Forecasting images for image processing | |
JP2022517769A (ja) | 三次元ターゲット検出及びモデルの訓練方法、装置、機器、記憶媒体及びコンピュータプログラム | |
CN110414607A (zh) | 胶囊内窥镜图像的分类方法、装置、设备及介质 | |
CN114241077B (zh) | 一种ct图像分辨率优化方法及装置 | |
CN112070785A (zh) | 一种基于计算机视觉的医学图像分析方法 | |
CN107845079A (zh) | 基于紧支撑的3D‑shearlet医学CT视频去噪方法 | |
CN114693561A (zh) | 一种基于卷积神经网络的核磁共振图像处理方法与系统 | |
Yancheng et al. | RED-MAM: A residual encoder-decoder network based on multi-attention fusion for ultrasound image denoising | |
CN110517249A (zh) | 超声弹性图像的成像方法、装置、设备及介质 | |
CN113989551A (zh) | 一种基于改进ResNet网络的阿尔茨海默病分类方法 | |
CN116091412A (zh) | 一种从pet/ct图像中分割肿瘤的方法 | |
Chan et al. | An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction | |
CN113269774B (zh) | 一种mri图像的帕金森病分类及标注病灶区域的方法 | |
US20240078643A1 (en) | Systems and methods for denoising medical images | |
Yu et al. | Deep conditional generative model for longitudinal single-slice abdominal computed tomography harmonization | |
CN111798452A (zh) | 颈动脉手持超声图像分割方法、系统及装置 | |
CN116309754A (zh) | 一种基于局部-全局信息协作的大脑医学图像配准方法及系统 | |
CN113222985B (zh) | 一种图像处理方法、装置、计算机设备和介质 | |
CN115601535A (zh) | 联合Wasserstein距离与差异度量的胸片异常识别域自适应方法及系统 | |
CN115131361A (zh) | 目标分割模型的训练、病灶分割方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |