CN114266926A - 一种基于平扫ct的物质分解方法、智能终端及存储介质 - Google Patents

一种基于平扫ct的物质分解方法、智能终端及存储介质 Download PDF

Info

Publication number
CN114266926A
CN114266926A CN202111549593.3A CN202111549593A CN114266926A CN 114266926 A CN114266926 A CN 114266926A CN 202111549593 A CN202111549593 A CN 202111549593A CN 114266926 A CN114266926 A CN 114266926A
Authority
CN
China
Prior art keywords
generator
image
result
obtaining
inputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111549593.3A
Other languages
English (en)
Inventor
王国帅
刘周
胡战利
罗德红
罗虹虹
梁栋
郑海荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN202111549593.3A priority Critical patent/CN114266926A/zh
Publication of CN114266926A publication Critical patent/CN114266926A/zh
Priority to PCT/CN2022/138164 priority patent/WO2023109702A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种基于平扫CT的物质分解方法、智能终端及存储介质,属于医疗影像诊断技术领域,其方法包括获取原始图像;基于预设的Transformer生成器模块、预设的判别器结构模块和预设的损失函数构建生成对抗网络的整体框架;将原始图像输入整体框架,并得到物质分离图像。本申请具有基于传统平扫CT的原始图像学习到物质分离后的图像,实现从传统平扫CT到双能CT的物质分离效果并提高物质分解精度的效果。

Description

一种基于平扫CT的物质分解方法、智能终端及存储介质
技术领域
本发明涉及医疗影像诊断技术领域,尤其是涉及一种基于平扫CT的物质分解方法、智能终端及存储介质。
背景技术
计算机断层成像(CT)作为我国重要的医疗影像诊断技术,已经成为各大医院最为普遍的医学检查手段之一,目前CT技术主要分为传统平扫CT和双能CT,其区别点在于双能CT可对物质进行精准定量分析,而传统平扫CT不具有物质定量功能,其次双能CT相比于传统平扫CT造价昂贵。目前大部分医疗单位为减轻成本,对在传统CT的基础上额外提供物质分离定量信息的方法进行研究,即研究将传统平扫CT合成双能CT物质分离图像的方法,从而在传统平扫CT的基础上发挥双能CT物质定量功能的优势。
在现有技术中,传统平扫CT合成双能CT物质分离图像主要采取直接物质分解成像的方法,直接物质分解成像方法指采取从X射线能谱直接重建得到特定物质的图像的方法。
针对上述中的相关技术,发明人认为直接分解成像方法的结果对参数的选择敏感程度高,即最终物质分解的结果较容易受多种参数影响,从而影响最终物质分解的结果的精度。
发明内容
为了提高最终物质分解的结果的精度,本发明提供一种基于平扫CT的物质分解方法、智能终端及存储介质。
第一方面,本申请提供的一种基于平扫CT的物质分解方法采用如下的技术方案:
一种基于平扫CT的物质分解方法,包括:
获取原始图像;
基于预设的Transformer生成器模块、预设的判别器结构模块和预设的损失函数构建生成对抗网络的整体框架;
将所述原始图像输入所述整体框架,并得到物质分离图像。
通过采用上述技术方案,通过将原始图像输入基于编解码结构的Transformer生成器模块、预设的判别器结构模块和预设的损失函数构建的生成对抗网络的整体框架内,得到物质分离图像,从而实现双能CT效果。其中Transformer生成器模块可逐步提高原始图像特征分辨率,故基于Transformer生成器模块得到的物质分离图像相比于传统平扫CT提高精度;同时采用生成对抗网络,有利于基于传统平扫CT的原始图像学习到物质分离后的图像,故可实现从传统平扫CT到双能CT的物质分离效果。
可选的,所述损失函数包括生成器损失,设计损失函数的步骤包括:
在生成器损失上加入预设的感知损失;
所述生成器损失的计算公式为:
Figure 295749DEST_PATH_IMAGE001
其中,
Figure 563920DEST_PATH_IMAGE002
为可调参数,G为生成器,D为判别器;
所述感知损失的计算公式为:
Figure 228250DEST_PATH_IMAGE003
其中,Φj为j输出的特征图,
Figure 189253DEST_PATH_IMAGE004
为标准图像X与生成器生成图像G(X)像素之间的L2范数;L2范数为向量各元素平方和的平方根。
通过采用上述技术方案,在生成器损失中加入感知损失,有利于提高算法的鲁棒性。
可选的,所述将所述原始图像输入所述整体框架,并得到物质分离图像的步骤包括:
将所述原始图像输入至所述Transformer生成器模块,并得到生成器结果图像;
将所述生成器结果图像输入至所述判别器结构模块,并得到输出结果;
基于所述输出结果和所述损失函数,得到物质分离图像。
通过采用上述技术方案,整体框架由Transformer生成器模块、判别器结构模块和损失函数组成,将原始图像输入至整体框架内,原始图像依次经过Transformer生成器模块和判别器结构模块,进而得到原始图像的物质分离图像,从而实现双能CT效果。
可选的,所述将所述原始图像输入至所述Transformer生成器模块,并得到生成器结果图像的步骤包括:
将所述原始图像通过卷积神经网络层提取特征并生成特征图;
将所述特征图输入Transformer层得到输出矢量,基于预设的编码器对所述输出矢量进行编码得到编码特征;
将所述编码特征基于预设的解码器还原至原始尺寸,得到所述生成器结果图像。
通过采用上述技术方案,在将原始图像通过卷积神经网络层提取特征并生成特征图后,Transformer生成器模块中使用编码器和解码器对原始图像进行处理,即对原始图像首先进行编码,以便于提取原始图像的特征图,将特征图经过Transformer层,便于提高特征图的精度,再经过解码器,有利于将特征图解码还原至原始尺寸。
可选的,所述Transformer层包括多头自注意层、层归一化模块和前馈多层感知器,所述将所述特征图输入Transformer层并得到输出矢量的步骤包括:
将所述特征图经过所述层归一化模块形成向量;
将所述向量输入至所述多头注意力层,输出生成结果;
将所述生成结果输入至所述前馈多层感知器,并得到输出矢量。
通过采用上述技术方案,多头自注意层、层归一化模块和前馈多层感知器构成Transformer层,层归一化模块指根据数据的均值和方差对特征图进行归一化,多头注意力层有利于使生成对抗网络注意到不同子空间的信息,进而使生成对抗网络捕捉更丰富的特征。
可选的,所述将所述生成器结果图像输入至所述判别器结构模块,并得到输出结果的步骤包括:
将所述生成器结果图像经过所述卷积神经网络层的卷积层得到输出特征图;
将所述输出特征图映射为N×N矩阵X;
基于所述矩阵X,得到若干元素Xij
将若干所述元素Xij求平均值,得到输出结果。
通过采用上述技术方案,判别器结构模块使用卷积将生成器结果映射为矩阵,无需将生成器结果输入至全连接层或通过激活函数激活,从而增加判别器结构模块的处理高效性。
可选的,在所述将所述生成器结果图像输入至所述判别器结构模块,并得到输出结果的步骤之后,还包括:
基于所述输出结果,训练所述生成器,得到新生成器结果图像;
基于所述新生成器结果图像,训练所述判别器,得到新输出结果。
通过采用上述技术方案,通过训练判别器和优化生成器,有利于提高原始图像经过生成对抗网络的精度。
可选的,在所述基于所述新生成器结果图像,训练所述判别器,并得到新输出结果的步骤之后,还包括:
获取损失函数;
交替更新新生成器结果图像和新输出结果,至所述损失函数达到近似收敛。
通过采用上述技术方案,由于在生成对抗网络中,生成器与判别器相互对抗,并逐渐到达平衡,故通过交替更新所述新生成器结果图像和所述新输出结果的方式直至所述数值接近一个具体即损失函数的数值达到近似收敛,并根据近似收敛,处理模块判定生成对抗网络训练完成。
第二方面,本申请提供的一种智能终端采用如下的技术方案:
一种智能终端,包括存储器和处理器,所述存储器存储有基于平扫CT的物质分解方法的程序,所述处理器用于在执行程序时采用上述基于平扫CT的物质分解方法。
第三方面,本申请提供的一种存储介质采用如下的技术方案:
一种存储介质,存储有能够被处理器加载并执行上述基于平扫CT的物质分解方法的计算机程序。
综上所述,本申请具有以下至少一种有益技术效果:
1.采用基于编解码的Transformer结构,实现从传统平扫CT到模拟双能CT物质分解,使传统平扫CT具备物质分解的能力。
2.采用基于编解码的Transformer结构,有效提取图像的特征,学习到图像特征多样性,有利于提高物质分解精度。
3.采用基于编解码的Transformer结构作为生成器的生成对抗网络,通过物质分离图和原始常规CT之间的映射关系,模拟双能CT的物质分解过程,实现从传统平扫CT到物质分离图的合成,从而得到一个较高精度物质分解的模型。
附图说明
图1是本申请实施例中一种基于平扫CT的物质分解方法的整体流程图。
图2是本申请实施例中一种基于平扫CT的物质分解方法中将生成器结果图像输入至判别器结构模块,并得到输出结果的流程图。
图3是本申请实施例中一种基于平扫CT的物质分解方法中在将生成器结果图像输入至判别器结构模块,并得到输出结果的步骤之后的流程图。
具体实施方式
本申请实施例公开一种基于平扫CT的物质分解方法、智能终端及存储介质。
参照图1,一种基于平扫CT的物质分解方法,包括:
S100、获取原始图像。
在具体实施中,可人为将原始图像输入至智能终端由处理模块进行处理,或处理模块直接获取普通平扫CT的原始图像。
S200、基于预设的Transformer生成器模块、预设的判别器结构模块和预设的损失函数构建生成对抗网络的整体框架。
生成对抗网络整体框架由基于编解码结构的Transformer生成器模块、判别器结构模块和预设的损失函数构成,其中Transformer生成器模块采用两层Transformer层。
具体的,生成对抗网络损失函数一般包括生成器损失,本方法设计损失函数的步骤包括:
S201、在生成器损失上再加入预设的感知损失。
在具体实施中,不同于传统生成对抗网络,在本实施例中,在生成器损失上加入感知损失。具体的,感知损失的计算公式为:
Figure 86671DEST_PATH_IMAGE005
其中Φj代表ImageNet数据集上预先训练好的VGG19网络的j中间层输出的特征图,
Figure 158532DEST_PATH_IMAGE006
为原始图像即标准图像X与生成器生成图像G(X)像素之间的L2范数。其中,L2范数是指对向量各元素的平方和求平方根。
生成器损失的计算公式为:
Figure 208528DEST_PATH_IMAGE007
其中,
Figure 74853DEST_PATH_IMAGE008
为可调参数,G为生成器,D为判别器。
具体的,损失函数所使用的为原始条件生成对抗网络(cGAN)的对抗损失和L1损失以及感知损失的加和。其中,所使用的L1损失指最小绝对值误差(LAE),即把目标值与估计值的绝对差值的总和最小化。使用LI损失,便于增加算法的鲁棒性。而感知损失则更有利于恢复图像的细节,重建生成图像质量更高。在本实施例中,损失函数用来指导模型学习更新参数。
参照图1,S300、将原始图像输入整体框架,并得到物质分离图像。
基于步骤S200,原始图像依次经过Transformer生成器模块和判别器结构模块并得到物质分离图像。
具体的,将原始图像输入整体框架,并得到物质分离图像的步骤包括:
S300a、将原始图像输入至Transformer生成器模块,并得到生成器结果图像。
在本实施例中,Transformer生成器模块采用编解码结构。在编解码结构中包括编码阶段和解码阶段。
具体的,将原始图像输入至Transformer生成器模块,并得到生成器结果图像的步骤包括:
S301a、将原始图像通过卷积神经网络层提取特征并生成特征图。
卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,其人工神经元可以响应一部分覆盖范围内的周围单元,用于图像处理。卷积层用于提取输入图像的不同特征,本方法卷积层采用了密集连接的思想,用于提取图像初步的特征。在具体实施中,卷积层为若干层,多层卷积层便于从图像的低级特征中迭代提取更复杂的特征,同时通过密集连接的思想,建立了不同层之间的连接关系,更有利于特征提取。由以上可知,经过多层卷积层,可以得到一系列的特征图。
S302a、将特征图输入Transformer层得到输出矢量。
由步骤S301a可知,经过卷积层可以生成特征图,特征图有若干个,若干个特征图被切分为若干图像块,此过程可以看作处理模块通过编码器对若干通过Transformer层的图像块进行编码,并将若干编码后的图像块作为输入序列,用于提取特征图的全局特征。具体的,Transformer层包括一个多头自注意层、一个前馈多层感知器和两个层归一化模块。层归一化模块用于根据数据的均值和方差进行归一化,多头注意力层用于使神经网络注意不同子空间的信息,捕捉更加丰富的特征信息。在具体实施中,输入特征图前需要嵌入图像块并附加图像块的位置信息,处理模块将特征图经过一个层归一化模块形成的向量从多头注意力层输入,依次经过一个层归一化模块与前馈多层感知器,并输出编码图像。Transformer层还采用残差的思想,即使用直接映射连接神经网络不同层的思想,使神经网络更易学习相应的特征。
具体的,将特征图输入Transformer层并得到输出矢量的步骤包括:
S302a.1、将特征图的图像块经过层归一化模块形成向量。
层归一化(Layer Normalization)指将输入跨特征进行归一化,即计算单个训练案例中所有层中神经元的累加输入归一化的均值和方差。具体的,输入和训练案例均指输出特征图。输出特征图经过层归一化模块,即形成向量。
S302a.2、将向量输入至多头注意力层,输出生成结果。
多头注意力层(Multi-head Attention)用于在不改变参数量的情况下增强每一层的表现力,实质为寻找序列之间不同角度的关联关系,最后将不同子空间中捕获到的关联关系再综合起来。具体的,参数量指向量的数量,生成结果指具备关联关系的向量集合。
S302a.3、将生成结果输入至前馈多层感知器,并得到输出矢量。
前馈多层感知器指一种前馈人工神经网络模型,其将输入的多个数据集映射到单一的输出的数据集上。具体的,输入节点之间通过权值和输出信号进行连接,权值与输出信号均为简单的非线性传递节点输入和的函数。即输出为若干简单非线性传递函数的叠加。生成结果经过前馈多层感知器输出输出矢量。
在具体实施中,前馈多层感知器可有一个或多个隐藏层,最后为输出层。前馈多层感知器在用于完全连接下一层和上一层的每个节点。具体的,节点的输出按连接权值进行缩放,并作为下一层网络节点的输入。
S303a、将编码特征基于预设的解码器还原至原始尺寸,得到生成器结果图像。
经过编码之后,编码特征的输出通道变为256,编码特征指经编码器,Transformer层编码后生成的图像。在具体实施中,编码后生成的图像需通过解码将图像重新生成。具体步骤为使编码特征经过解码器即经过若干卷积层解码,还原至原始图像的尺寸。在具体实施中,对编码特征解码后得到通道为1的生成器结果图像。
S300b、将生成器结果图像输入至判别器结构模块,并得到输出结果。
在具体实施中,判别器结构模块采用Patch-GAN结构,即把生成器结果图像等分成若干个固定大小的图像块(Patch),并由判别器分别判断每个图像块的真假,并计算得到真假概率,最后取真假概率的平均值作为判别器的最后输出结果。
参照图2,具体的,将生成器结果图像输入至判别器结构模块,并得到输出结果的步骤包括:
S301b、将生成器结果图像输入判别器的卷积层
在本实施例中,生成器结果图像经过4层卷积层,即卷积核为4×4,经过卷积层的生成结果不会到全连接层或用激活函数激活。
S302b、将输入映射为N×N矩阵X。
矩阵代表原始图像中其中一块区域,将输入映射为N×N的矩阵X,在本实施例中,得到特征图的大小为62×62。
S303b、基于矩阵X,得到若干元素Xij
矩阵中Xij指矩阵中第i行第j列的元素。在本实施例中,每一个Xij均具有真或假两种选择。
S304b、将若干元素Xij求平均值,得到输出结果。
处理模块对矩阵X中若干元素Xij求平均值,作为判别器的最后输出结果。
具体的,矩阵中每一个元素Xij均对应一个生成器结果图像中的一个patch块的判定。
参照图3,在将生成器结果图像输入至判别器结构模块,并得到输出结果的步骤之后,还包括:
S300b.1、基于输出结果,训练生成器,并得到新生成器结果图像。
S300b.2、基于新生成器结果图像,训练判别器,并得到新输出结果。
在生成对抗网络中,基于生成器训练判别器,基于判别器训练生成器,步骤S300b.1和步骤S300b.2为循环进行。
判别器用于判断生成图像是真样本或假样本,例如输入为真样本,则判断结果输出接近1,输入假样本,判断结果输出接近0。
S300b.3、获取损失函数。
S300b.4、交替更新新生成器结果图像和新输出结果,至损失函数达到近似收敛。
在具体实施中,训练判别器的目的用于最小化生成器损失,步骤S300b中Patch-GAN结构中的GAN(Generative Adversarial Networks)为一种数据分布拟合器,主要由生成器和判别器组成。生成器主要用于从一个低维度的数据分布中不断拟合真实的高维数据分布,判别器主要用于区分数据来源于真样本或生成器生成的假样本,生成器与判别器之间相互对抗,不断学习,最终达到Nash均衡,即任意一方的改进不会导致总体的收益增加,此时判别器无法区分是生成器生成的假样本或真样本。训练生成器的目的,利用极小极大博弈,即在生成器最大损失的情况下的可能损失降至最低,即最小化生成器损失。
在GAN初期训练阶段,生成器与判别器的能力均较弱,生成器与判别器之间的相互对抗的不稳定性较高,具体体现为损失函数的数值呈现不稳定性,通过交替更新生成器结果图像和新输出结果,有助于增强生成器与判别器的能力,进而使损失函数接近一个稳定数值,即损失函数达到近似收敛,处理模块即判定为训练完成。
具体的,损失函数达到近似收敛指损失函数的函数值趋于一个稳定数值。在本实施例中,判别器输出的概率接近0.5时即表示判别器无法分辨生成器生成的为假样本或真样本,故判别器随机分辨,最终达到稳态的Nash平衡,即损失函数的函数图像由之前的大幅波动变为在一稳定的数值处小幅波动,此时由人为判断损失函数的数值达到近似收敛,具体实施中,由于生成器与判别器的制约,导致每一次损失函数趋于稳定数值的数值通常不同,故由人为基于损失函数的函数值趋于某一稳定数值的函数图像判断损失函数达到近似收敛,而非人为基于某一稳定数值判断。在达到稳态的Nash平衡后,形成的效果为生成器的生成器结果图像与输入图像即原始图像十分接近。
S300b.5、基于预设的Adam优化器优化损失函数。
在本实施例中,初始设置Adam优化器的学习率为0.00005,Adam优化器为生成对抗网络的基础优化器,主要特点为收敛速度快和易调参。Adam优化器的学习率可根据生成对抗网络的训练逐步减小。在本实施例中,优化器的学习率由人为设置,训练总共200轮,在100轮次之后,学习率按照Lambda函数开始衰减,直至到200轮训练完成。
S300c、基于输出结果,得到物质分离图像。
在本实施例中,输出结果为动态变化,直至损失函数的数值达到一个稳定数值,即此步骤中的输出结果包括步骤S300b.1的新生成器结果图像和步骤S300b.2的新输出结果。
原始图像为CT图像,钙图和水图这两种基物质对的物质分离图像由原始图像分别映射到钙图和水图的神经网络映射模型得到。
本申请实施例一种基于平扫CT的物质分解方法、智能终端及存储介质的实施原理为:采用基于编解码的Transformer结构作为生成器的生成对抗网络,将原始图像依次经过编码器、Transformer层、解码器和判别器的处理,使生成对抗网络学习原始图像全局和局部特征,并通过物质分离图和传统平扫CT之间的映射关系,模拟双能CT的物质分解过程,实现从传统平扫CT到物质分离图的合成。
本申请实施例还公开一种智能终端。
一种智能终端,包括存储器和处理器,存储器存储有基于平扫CT的物质分解方法的程序,处理器用于在执行程序时采用上述基于平扫CT的物质分解方法。
本申请实施例还公开一种存储介质。
一种存储介质,存储有能够被处理器加载并执行上述基于平扫CT的物质分解方法的计算机程序。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。

Claims (10)

1.一种基于平扫CT的物质分解方法,其特征在于,包括:
获取原始图像;
基于预设的Transformer生成器模块、预设的判别器结构模块和预设的损失函数构建生成对抗网络的整体框架;
将所述原始图像输入所述整体框架,并得到物质分离图像。
2.根据权利要求1所述的一种基于平扫CT的物质分解方法,其特征在于,所述损失函数包括生成器损失,设计损失函数的步骤包括:
在生成器损失上加入预设的感知损失;
所述生成器损失的计算公式为:
Figure 121485DEST_PATH_IMAGE001
其中,
Figure 851544DEST_PATH_IMAGE002
为可调参数,G为生成器,D为判别器;
所述感知损失的计算公式为:
Figure 926947DEST_PATH_IMAGE003
其中,Φj为j输出的特征图,
Figure 451470DEST_PATH_IMAGE004
为标准图像X与生成器生成图像G(X)像素之间的L2范数;L2范数为向量各元素平方和的平方根。
3.根据权利要求1所述的一种基于平扫CT的物质分解方法,其特征在于,所述将所述原始图像输入所述整体框架,并得到物质分离图像的步骤包括:
将所述原始图像输入至所述Transformer生成器模块,并得到生成器结果图像;
将所述生成器结果图像输入至所述判别器结构模块,并得到输出结果;
基于所述输出结果和所述损失函数,得到物质分离图像。
4.根据权利要求3所述的一种基于平扫CT的物质分解方法,其特征在于,所述将所述原始图像输入至所述Transformer生成器模块,并得到生成器结果图像的步骤包括:
将所述原始图像通过卷积神经网络层提取特征并生成特征图;
将所述特征图输入Transformer层得到输出矢量,基于预设的编码器对所述输出矢量进行编码得到编码特征;
将所述编码特征基于预设的解码器还原至原始尺寸,得到所述生成器结果图像。
5.根据权利要求4所述的一种基于平扫CT的物质分解方法,其特征在于,所述Transformer层包括多头自注意层、层归一化模块和前馈多层感知器,所述将所述特征图输入Transformer层并得到输出矢量的步骤包括:
将所述特征图经过所述层归一化模块形成向量;
将所述向量输入至所述多头注意力层,输出生成结果;
将所述生成结果输入至所述前馈多层感知器,得到输出矢量。
6.根据权利要求3所述的一种基于平扫CT的物质分解方法,其特征在于,所述将所述生成器结果图像输入至所述判别器结构模块,并得到输出结果的步骤包括:
将所述生成器结果图像经过所述卷积神经网络层的卷积层得到输出特征图;
将所述输出特征图映射为N×N矩阵X;
基于所述矩阵X,得到若干元素Xij
将若干所述元素Xij求平均值,得到输出结果。
7.根据权利要求3所述的一种基于平扫CT的物质分解方法,其特征在于,在所述将所述生成器结果图像输入至所述判别器结构模块,并得到输出结果的步骤之后,还包括:
基于所述输出结果,训练所述生成器,得到新生成器结果图像;
基于所述新生成器结果图像,训练所述判别器,得到新输出结果。
8.根据权利要求7所述的一种基于平扫CT的物质分解方法,其特征在于,在所述基于所述新生成器结果图像,训练所述判别器,并得到新输出结果的步骤之后,还包括:
获取损失函数;
交替更新新生成器结果图像和新输出结果,至所述损失函数达到近似收敛。
9.一种智能终端,其特征在于:包括存储器和处理器,所述存储器存储有基于平扫CT的物质分解方法的程序,所述处理器用于在执行程序时采用权利要求1-8的任一种方法。
10.一种存储介质,其特征在于:存储有能够被处理器加载并执行如权利要求1-8中任一种方法的计算机程序。
CN202111549593.3A 2021-12-17 2021-12-17 一种基于平扫ct的物质分解方法、智能终端及存储介质 Pending CN114266926A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111549593.3A CN114266926A (zh) 2021-12-17 2021-12-17 一种基于平扫ct的物质分解方法、智能终端及存储介质
PCT/CN2022/138164 WO2023109702A1 (zh) 2021-12-17 2022-12-09 一种基于平扫ct的物质分解方法、智能终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111549593.3A CN114266926A (zh) 2021-12-17 2021-12-17 一种基于平扫ct的物质分解方法、智能终端及存储介质

Publications (1)

Publication Number Publication Date
CN114266926A true CN114266926A (zh) 2022-04-01

Family

ID=80827668

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111549593.3A Pending CN114266926A (zh) 2021-12-17 2021-12-17 一种基于平扫ct的物质分解方法、智能终端及存储介质

Country Status (2)

Country Link
CN (1) CN114266926A (zh)
WO (1) WO2023109702A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023109702A1 (zh) * 2021-12-17 2023-06-22 深圳先进技术研究院 一种基于平扫ct的物质分解方法、智能终端及存储介质
CN116369959A (zh) * 2023-06-05 2023-07-04 杭州医策科技有限公司 基于双模态ct的甲状旁腺术前定位方法和装置
CN116977466A (zh) * 2023-07-21 2023-10-31 北京大学第三医院(北京大学第三临床医学院) 一种增强ct图像生成模型的训练方法和存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10937206B2 (en) * 2019-01-18 2021-03-02 Canon Medical Systems Corporation Deep-learning-based scatter estimation and correction for X-ray projection data and computer tomography (CT)
CN110706299B (zh) * 2019-09-16 2023-04-07 天津大学 一种用于双能ct的物质分解成像方法
CN113205461B (zh) * 2021-04-02 2023-07-07 上海慧虎信息科技有限公司 一种低剂量ct影像去噪模型训练方法、去噪方法及装置
CN113487657B (zh) * 2021-07-29 2022-02-01 广州柏视医疗科技有限公司 一种基于深度学习的模态转换方法
CN114266926A (zh) * 2021-12-17 2022-04-01 深圳先进技术研究院 一种基于平扫ct的物质分解方法、智能终端及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023109702A1 (zh) * 2021-12-17 2023-06-22 深圳先进技术研究院 一种基于平扫ct的物质分解方法、智能终端及存储介质
CN116369959A (zh) * 2023-06-05 2023-07-04 杭州医策科技有限公司 基于双模态ct的甲状旁腺术前定位方法和装置
CN116369959B (zh) * 2023-06-05 2023-08-11 杭州医策科技有限公司 基于双模态ct的甲状旁腺术前定位方法和装置
CN116977466A (zh) * 2023-07-21 2023-10-31 北京大学第三医院(北京大学第三临床医学院) 一种增强ct图像生成模型的训练方法和存储介质

Also Published As

Publication number Publication date
WO2023109702A1 (zh) 2023-06-22

Similar Documents

Publication Publication Date Title
CN114266926A (zh) 一种基于平扫ct的物质分解方法、智能终端及存储介质
CN107730474B (zh) 图像处理方法、处理装置和处理设备
CN111798369B (zh) 一种基于循环条件生成对抗网络的人脸衰老图像合成方法
CN108875459B (zh) 一种基于稀疏系数相似的加权稀疏表示人脸识别方法及系统
CN111819568A (zh) 人脸旋转图像的生成方法及装置
Jiang et al. Blind image quality measurement by exploiting high-order statistics with deep dictionary encoding network
CN110930378B (zh) 基于低数据需求的肺气肿影像处理方法及系统
CN114120041A (zh) 一种基于双对抗变分自编码器的小样本分类方法
CN113012811A (zh) 一种结合深度卷积网络和图神经网络的中医证候诊断和健康评价方法
CN114398972A (zh) 一种基于联合表示注意力机制的深度学习图像匹配方法
CN113128527A (zh) 基于变换器模型和卷积神经网络的图像场景分类方法
CN116469561A (zh) 一种基于深度学习的乳腺癌生存预测方法
CN116596150A (zh) 基于多分支自注意力的Transformer霍克斯过程模型的事件预测方法
CN114358249A (zh) 目标识别模型训练、目标识别方法及装置
WO2021179198A1 (zh) 图像特征可视化方法、图像特征可视化装置及电子设备
CN116957921A (zh) 图像渲染方法、装置、设备及存储介质
CN111461303A (zh) 基于生成对抗神经网络的数字岩心重构方法及系统
CN110378291A (zh) 一种基于半监督学习的人体特征参数预测方法
CN116092005A (zh) 鱼的识别方法、系统、计算机设备及存储介质
CN115346091A (zh) 一种Mura缺陷图像数据集的生成方法和生成装置
CN110363287B (zh) 一种面向内存计算和室内是否有人的神经网络设计方法
CN110739030A (zh) 一种乙烯生产过程小样本的软测量方法
CN112766212B (zh) 高光谱遥感图像水体固有属性反演方法、装置和设备
CN116959617A (zh) 分子生成方法、装置、设备和存储介质
Бориндо Structural-parametric synthesis of convolutional neural networks under the presence of noise in the input data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination