CN112508808B - 基于生成对抗网络的ct双域联合金属伪影校正方法 - Google Patents
基于生成对抗网络的ct双域联合金属伪影校正方法 Download PDFInfo
- Publication number
- CN112508808B CN112508808B CN202011351539.3A CN202011351539A CN112508808B CN 112508808 B CN112508808 B CN 112508808B CN 202011351539 A CN202011351539 A CN 202011351539A CN 112508808 B CN112508808 B CN 112508808B
- Authority
- CN
- China
- Prior art keywords
- projection
- domain
- image
- network
- artifact correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 229910052751 metal Inorganic materials 0.000 title claims abstract description 65
- 239000002184 metal Substances 0.000 title claims abstract description 65
- 238000012937 correction Methods 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000006243 chemical reaction Methods 0.000 claims abstract description 5
- 238000005457 optimization Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 230000000295 complement effect Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 8
- 230000009977 dual effect Effects 0.000 claims description 5
- 238000011084 recovery Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 abstract description 16
- 238000004519 manufacturing process Methods 0.000 abstract 1
- 238000002591 computed tomography Methods 0.000 description 50
- 230000006870 function Effects 0.000 description 14
- 150000002739 metals Chemical class 0.000 description 4
- 229910052755 nonmetal Inorganic materials 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009659 non-destructive testing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/006—Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/04—Constraint-based CAD
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Algebra (AREA)
- Geometry (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明涉及一种基于生成对抗网络的CT双域联合金属伪影校正方法,首先基于投影图像特性,制作匹配的训练样本数据集,利用深度神经网络的生成模块结合投影图像特性完成对投影图像的补全,引入基于ASTRA模块的具有反向传播能力的反投影模块,利用反投影模块完成投影正弦图像到CT重建图像的转换,在投影域和图像域分别利用鉴别网络进行图像的特征提取和区分,通过生成器和判别器在训练中交替训练,完成金属投影区域数值的补全和CT图像的重建。本发明所述对抗网络经过训练后获得网络参数,利用所得参数可以快速准确的完成投影域中金属投影迹线的补全和图像域CT图像的重建,提高了重建CT图像的精确度及清晰度。
Description
技术领域
本发明属于计算机医学成像技术领域,具体涉及基于生成对抗网络的CT双域联合金属伪影校正方法。
背景技术
计算机断层扫描(CT)作为无损检测的主要手段之一,在医学、工业等众多领域得到广泛应用。X射线在穿过物体后强度会发生改变,由于不同材料对X射线具有不同的衰减系数,因此我们可以获得包含物体内部材料信息的投影数据。被扫描物体包含单个金属时,金属伪影在投影正弦图中表现为按正弦规律分布的迹线,在重建图像中表现为金属周围的放射状伪影。当被扫描物体中的金属数量较多且金属所占面积较大时,会造成正弦图像中金属投影迹线的交叉重叠,在重建图像上不仅表现出金属周围明显的放射状伪影,还会在不同金属的连线方向上出现严重的带状伪影。尤其是当金属区域中包含非金属区域,金属对射线的高衰减特性会使非金属区域的投影信息严重丢失,难以恢复其内部的有效信息。CT成像的物理特性和数学关系表明了CT采集到的投影域投影图像和重建后的图像域图像都包含丰富的有效信息,现有的伪影校正方法都仅基于单个域进行处理,未能充分利用上述有效信息,从而导致重建后的CT图像存在金属伪影,其清晰度不理想。
如专利文献CN105528766A公开了一种CT金属伪影去除及CT重建方法,仅对单域特征进行提取,由于补全信息有限,在补全时易在拟合位置留下伪影,造成重建图像不清晰。
发明内容
本发明为解决现有CT图像金属伪影校正方法精度低的问题,提供了一种基于生成对抗网络的CT双域联合金属伪影校正方法,首先基于投影图像特性,制作匹配的训练样品数据集,利用深度神经网络的生成模块结合投影图像特性完成对投影图像的补全,引入基于ASTRA模块的具有反向传播能力的反投影模块,利用反投影模块完成投影正弦图像到CT重建图像的转换,在投影域和图像域分别利用鉴别网络进行图像的特征提取和区分,通过生成器和判别器在训练中交替训练,完成金属投影区域数值的补全和CT图像的重建,网络经过训练后获得网络参数,利用所得参数可以快速准确的完成投影域中金属投影迹线的补全和图像域CT图像的重建,提高了重建CT的精确度及清晰度。
本发明的技术方案是:
基于生成对抗网络的CT双域联合金属伪影校正方法,所述方法包括:
步骤1:基于投影图像特性,制作匹配的训练样本数据集;
步骤2:基于深度神经网络,对去除金属投影迹线的投影正弦图进行数据补全、并引入ASTRA工具箱模型通过反投影模块完成补全投影正弦图像到CT重建图像的转换;
步骤3:构建投影域和图像域的鉴别网络模型、并设计双域伪影校正网络模型的损失约束条件;所述双域伪影校正网络模型包括生成器、投影域判别器和图像域判别器;
步骤4:基于模型损失约束条件对深度神经网络的参数进行优化及训练;通过双域鉴别网络的约束,对补全后的投影正弦图进行补全优化、并完成完整CT图像的重建。
进一步地,所述步骤1具体包括:
步骤1.1:对被测物体进行多角度CT取样,获得同类物体的N张CT图片;
步骤1.2:对N张所述CT图片进行处理得到投影正弦图,将CT图片中金属投影迹线部分的投影数据置零,生成不完整的投影正弦图;
将同一物体的不具备金属伪影的投影正弦图与经过处理生成的不完整的投影正弦图一一对应生成训练样本数据集。
进一步地,所述生成器用于对CT图片特征进行提取,并完成去除金属投影部分的投影正弦图像补全;
所述投影域判别器用于判别去除金属投影部分的投影正弦图像在补全校正后投影值是否接近无金属伪影的投影正弦图的投影值;
所述图像域判别器用于判别重建后的CT图像是否具有金属伪影。
进一步地,按照公式(1)和(2)建立投影域判别器的损失函数Lsino和图像域判别器的损失函数Lrecon:
其中Lsino为投影域判别器的损失函数,Lrecon为图像域判别器的损失函数,G代表生成器,x表示生成器的输入,D代表投影域判别器或图像域判别器,y表示投影域判别器或图像域判别器的输入,Psino表示投影正弦图的数据分布,Pz表示噪声的数据分布,Precon表示重建图像的数据分布;
基于公式(1)和(2)的双域鉴别网络模型损失函数L表示为:
L=λ1·Lsino+λ2·Lrecon (3);
其中,λ1和λ2是损失函数的权重参数。
进一步地,所述步骤3中,双域伪影校正网络模型的训练目标为公式(4):
进一步地,所述步骤4具体包括:
步骤4.1:所述深度神经网络基于双域伪影校正网络模型、双域伪影校正网络模型损失约束条件及训练样本数据集信息进行深度优化及训练;
步骤4.2:将补全后的投影正弦图数据输入深度神经网络,所述深度神经网络通过双域鉴别网络模型进行特征提取,对补全后的投影正弦图进行补全优化;
步骤4.3:对最终补全的投影正弦图进行FBP重建生成完整CT图片。
进一步地,所述生成器为U型网络,生成器包含多个卷积层,所述卷积层用于构建降维块及升维块,所述降维块用于特征提取,所述升维块用于特征拼接和图像维度恢复。
进一步地,所述投影域判别器和图像域判别器均为CNN结构网络。
通过上述技术方案,本发明的有益效果为:
本发明提出了一种基于生成对抗网络的双域金属伪影校正方法,首先通过深度神经网络对投影图像中的有效数据进行特征提取,完成对金属投影迹线区域的补全,然后通过双域鉴别网络的约束,进一步提升投影补全的精度。为了在网络训练过程中实现CT图像的快速重建,利用ASTRA工具箱通过反投影模块实现投影正弦图与CT图像间的相互转化,在网络训练过程中,投影域判别器和图像域判别器共同作用,充分利用图像双域信息,提升生成器在投影处理上的效果,从而有效消除金属伪影,提高了重建CT图像的清晰度。
附图说明
图1为基于生成对抗网络的CT双域联合金属伪影校正方法的流程图。
图2为基于生成对抗网络的CT双域联合金属伪影校正方法的网络整体框架示意图。
图3为基于生成对抗网络的CT双域联合金属伪影校正方法的投影域判别器和图像域判别器结构示意图。
图4为基于生成对抗网络的CT双域联合金属伪影校正方法的胸腔部位仿真结果对比图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步说明:
如图1~4所示,基于生成对抗网络的CT双域联合金属伪影校正方法,所述方法包括:
步骤1:基于投影图像特性,制作匹配的训练样本数据集;
步骤2:基于深度神经网络,对去除金属投影迹线的投影正弦图进行数据补全、并引入ASTRA工具箱模型通过反投影模块完成补全投影正弦图像到CT重建图像的转换;
步骤3:构建投影域和图像域的鉴别网络模型、并设计生成双域伪影校正网络模型的损失约束条件;所述双域伪影校正网络模型包括生成器、投影域判别器和图像域判别器;
步骤4:基于模型损失约束条件对深度神经网络的参数进行优化及训练;通过双域鉴别网络的约束,对补全后的投影正弦图进行补全优化、并完成完整CT图像的重建。
为使深度神经网络进行数据特征提取,所述步骤1具体包括:
步骤1.1:对被测物体进行多角度CT取样,获得同类物体的N张CT图片;
步骤1.2:对N张所述CT图片进行处理得到投影正弦图,将CT图片中金属投影迹线部分的投影数据置零,生成不完整的投影正弦图;
将同一物体的不具备金属伪影的投影正弦图与经过处理生成的不完整的投影正弦图一一对应生成训练样本数据集。
在本实施例中,设定CT投影的尺寸为512×360、重建CT图像尺寸为512×512,通过深度神经网络对训练样本数据集进行数据提取,完成去除金属伪影部分的投影正弦图的补全,引入ASTRA工具箱,运用其反投影模块对一次补全投影正弦图进行反投影生成对应的CT图像。(ASTRA工具箱构建的重建方法具有良好的扩展性,可以嵌入到其它现有的代码库中,且运算处理速度较快,所得到的重建方法可以高效地部署在大规模计算集群上,用于大的、高分辨率数据集。)
为充分利用CT采样双域信息对补全投影正弦图进行高精度补全优化,所述双域伪影校正网络模型包括生成器、投影域判别器和图像域判别器,所述生成器用于对CT图片特征进行提取,并完成去除伪影部分的投影正弦图像补全;所述生成器为U型网络,生成器包含多个卷积层,所述卷积层用于构建降维块及升维块,所述降维块用于特征提取,所述升维块用于特征拼接和图像维度恢复;
在本实施例中,所述生成器包括十层卷积层,利用两个卷积核大小为3×3,步长为1的卷积操作,进行CT采样的特征提取,待特征提取完成后,采用一个卷积核大小为3×3,步长为2的卷积操作实现对特征数据的降维;通过十层的卷积降维操作,深度神经网络提取了丰富的图像特征,为了充分利用图像信息并获得处理后的图像,加入升维操作,升维块中第一部分为特征层拼接,将其与来自降维操作对应的特征层拼接在一起,然后通过两次卷积,完成图像维度的恢复。
为了实现对双域信息的提取、利用,所述投影域判别器用于判别去除金属投影部分的投影正弦图像在补全校正后投影值是否接近无金属伪影的投影正弦图的投影值,所述图像域判别器用于判别重建后的CT图像是否具有金属伪影,所述投影域判别器和图像域判别器均为CNN结构网络;
在本实施例中,所述投影域判别器和图像域判别器用一个大小为N×N的图像块代替传统GAN结构网络中单一的数值,以表示将生成器生成的补全投影正弦图判别为真实投影正弦图的概率。这种基于图像块感知的判别器有利于减少网络训练参数,提升训练效率,并且可以放宽对输入图像尺寸的限制,在本实施例中,图像块大小设置为64×64,如图3所示,在投影域判别器和图像域判别器的网络中均含有五层卷积层,均采用尺寸为3×3的卷积核,同时激活函数均为Leaky-Relu;其中前3层网络的卷积步长为2,通道数分别设置为64、128、256。第4层网络的卷积步长为1,通道数为512。最后一层网络采用卷积步长为1,通道数为1的卷积网络,输出结果是以所有图像块的平均概率决定的,相当于对图像块的平均概率进行0-1二分类,进而判别生成的补全投影数据与完整投影数据匹配程度。
按照公式(1)和(2)建立投影域判别器的损失函数Lsino和图像域判别器的损失函数Lrecon:
其中Lsino为投影域判别器的损失函数,Lrecon为图像域判别器的损失函数,G代表生成器,x表示生成器的输入,D代表投影域判别器或图像域判别器,y表示投影域判别器或图像域判别器的输入,Psino表示投影正弦图的数据分布,Pz表示噪声的数据分布,Precon表示重建图像的数据分布;
基于公式(1)和(2)的双域鉴别网络模型损失函数L表示为:
L=λ1·Lsino+λ2·Lrecon (3);
其中,λ1和λ2是损失函数的权重参数。
所述步骤3中,双域伪影校正网络模型的训练目标为公式(4):
为消除金属伪影,所述步骤4具体包括:
步骤4.1:所述深度神经网络基于双域伪影校正网络模型、双域伪影校正网络模型损失约束条件及训练样本数据集信息进行深度优化及训练;
步骤4.2:将补全后的投影正弦图数据输入深度神经网络,所述深度神经网络通过双域鉴别网络模型进行特征提取,对补全后的投影正弦图进行补全优化;
步骤4.3:对最终补全的投影正弦图进行FBP(filtered-back projection滤波反投影)重建生成完整CT图片。
为证明本发明效果,进行如下实验设置:
深度神经网络基于双域鉴别网络模型、双域鉴别网络模型损失约束条件及训练样本数据集信息进行深度优训练及测试均是在AMAX工作站上的PyTorch(版本0.4.1)环境下进行。AMAX工作站的两个CPU型号均为Intel Xeon E5-2640 v4,可用内存为64GB。网络训练和测试使用了四个型号为GeForce GTX 1080 Ti的计算显卡,该显卡处理内存为11GB。网络选择的目标函数优化器为Adam,首先在偏差较大时设置较大的学习率,以加快训练速度。在本实施例中,首先将学习率设置为2×10-3。在达到前期训练轮数的约束之后,学习率开始逐渐减小,直到减小到0。
为了准确分析本发明提出方法的有效性,基于上述方法对胸腔CT金属伪影进行去除及重建,同时使用LI-MAR、U-net作为对比算法。
其中U-net的金属伪影重建,采用步骤1所得训练样本数据集进行特征提取,其重建结果如图4所示;
图4中a列图像为不具备金属伪影的投影正弦图和与其对应的FBP重建结果(样本图),b列为仅将金属迹线区域置零的投影正弦图和与其对应的FBP重建结果(待重建样标图),c列为采用LI-MAR校正方法重建后的投影正弦图和与其对应的FBP重建结果,d列为U-net校正方法重建后的投影正弦图和与其对应的FBP重建结果,e列为采用基于生成对抗网络的CT双域联合金属伪影校正方法重建后的投影正弦图和与其对应的FBP重建结果。
通过4的c~e列投影补全结果可以看出,相对于原始未校正的图像,本发明的校正结果更加精确,有效地去除了复杂金属CT图像中的金属伪影,尤其是较好地消除了金属边缘的残留伪影。
以上所述之实施例,只是本发明的较佳实施例而已,并非限制本发明的实施范围,故凡依本发明专利范围所述的构造、特征及原理所做的等效变化或修饰,均应包括于本发明申请专利范围内。
Claims (6)
1.基于生成对抗网络的CT双域联合金属伪影校正方法,其特征在于,所述方法包括:
步骤1:基于投影图像特性,制作匹配的训练样本数据集;
步骤2:基于双域伪影校正网络模型中的生成器,对去除金属伪影迹线的投影正弦图进行数据补全、并引入ASTRA工具箱模型通过反投影模块完成补全投影正弦图像到CT重建图像的转换;
步骤3:构建投影域和图像域的双域鉴别网络模型、并设计双域伪影校正网络模型的损失约束条件;所述双域伪影校正网络模型包括生成器、投影域鉴别网络和图像域鉴别网络;
步骤4:基于所述损失约束条件对双域伪影校正网络的参数进行优化及训练;对补全后的投影正弦图进行补全优化、并完成完整CT图像的重建;
所述生成器用于对CT图片特征进行提取,并完成去除金属投影迹线的投影正弦图像补全;
所述投影域鉴别网络用于判别去除金属伪影部分的投影正弦图像在补全校正后投影值是否接近无金属伪影的投影正弦图的投影值;
所述图像域鉴别网络用于判别重建后的CT图像是否具有金属伪影;
按照公式(1)和(2)建立投影域鉴别网络的损失函数Lsino和图像域鉴别网络的损失函数Lrecon:
其中,Lsino为投影域鉴别网络的损失函数,Lrecon为图像域鉴别网络的损失函数,G代表生成器,x表示生成器的输入,D代表投影域鉴别网络或图像域鉴别网络,y表示投影域鉴别网络或图像域鉴别网络的输入,Psino表示投影正弦图的数据分布,Pz表示噪声的数据分布,Precon表示重建图像的数据分布;
基于公式(1)和(2)的双域鉴别网络模型损失函数表示为:
L=λ1·Lsino+λ2·Lrecon (3);
其中,λ1和λ2是损失函数的权重参数。
2.根据权利要求1所述的基于生成对抗网络的CT双域联合金属伪影校正方法,其特征在于,所述步骤1具体包括:
步骤1.1:对被测物体进行多角度CT取样,获得同类物体的N张CT图片;
步骤1.2:对N张所述CT图片进行处理得到投影正弦图,将CT图片中金属投影迹线部分的投影数据置零,生成不完整的投影正弦图;
将同一物体的不具备金属伪影的投影正弦图与经过处理生成的不完整的投影正弦图一一对应生成训练样本数据集。
3.根据权利要求1所述的基于生成对抗网络的CT双域联合金属伪影校正方法,其特征在于,所述步骤3中,双域伪影校正网络的训练目标为公式(4):
其中,L为双域伪影校正网络模型损失函数,G为生成器。
4.根据权利要求1~3任一所述的基于生成对抗网络的CT双域联合金属伪影校正方法,其特征在于,所述步骤4具体包括:
步骤4.1:对双域伪影校正网络基于损失约束条件及训练样本数据集信息进行深度优化及训练;
步骤4.2:将补全后的投影正弦图数据输入双域伪影校正网络,对补全后的投影正弦图进行补全优化;
步骤4.3:对最终补全的投影正弦图进行FBP重建生成完整CT图片。
5.根据权利要求1所述的基于生成对抗网络的CT双域联合金属伪影校正方法,其特征在于,所述生成器为U型网络,生成器包含多个卷积层,所述卷积层用于构建降维块及升维块,所述降维块用于特征提取,所述升维块用于特征拼接和图像维度恢复。
6.根据权利要求1所述的基于生成对抗网络的CT双域联合金属伪影校正方法,其特征在于,所述投影域鉴别网络和图像域鉴别网络均为CNN结构网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011351539.3A CN112508808B (zh) | 2020-11-26 | 2020-11-26 | 基于生成对抗网络的ct双域联合金属伪影校正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011351539.3A CN112508808B (zh) | 2020-11-26 | 2020-11-26 | 基于生成对抗网络的ct双域联合金属伪影校正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112508808A CN112508808A (zh) | 2021-03-16 |
CN112508808B true CN112508808B (zh) | 2023-08-01 |
Family
ID=74966418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011351539.3A Active CN112508808B (zh) | 2020-11-26 | 2020-11-26 | 基于生成对抗网络的ct双域联合金属伪影校正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112508808B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256752B (zh) * | 2021-06-07 | 2022-07-26 | 太原理工大学 | 一种基于双域交织网络的低剂量ct重建方法 |
CN113592968B (zh) * | 2021-07-09 | 2022-10-18 | 清华大学 | 断层扫描图像中金属伪影的消减方法和装置 |
CN113570586A (zh) * | 2021-08-02 | 2021-10-29 | 苏州工业园区智在天下科技有限公司 | 神经网络系统的创建、处理ct图像的方法及其装置 |
CN113554570B (zh) * | 2021-08-04 | 2023-12-19 | 西安交通大学 | 一种基于深度学习的双域ct图像环状伪影去除方法 |
CN115984106B (zh) * | 2022-12-12 | 2024-04-02 | 武汉大学 | 一种基于双边生成对抗网络的线扫描图像超分辨率方法 |
CN116385582A (zh) * | 2023-03-30 | 2023-07-04 | 重庆理工大学 | 基于深度学习的x射线荧光ct自吸收校正方法 |
CN117011191B (zh) * | 2023-09-12 | 2024-06-18 | 经智信息科技(山东)有限公司 | 一种ct图像的修复处理方法及装置 |
CN116977473B (zh) * | 2023-09-21 | 2024-01-26 | 北京理工大学 | 一种基于投影域和图像域的稀疏角ct重建方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204673A (zh) * | 2016-06-29 | 2016-12-07 | 中国人民解放军信息工程大学 | 基于能谱滤波和图像残差重投影的ct图像金属伪影校正方法 |
CN109146988A (zh) * | 2018-06-27 | 2019-01-04 | 南京邮电大学 | 基于vaegan的非完全投影ct图像重建方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017223560A1 (en) * | 2016-06-24 | 2017-12-28 | Rensselaer Polytechnic Institute | Tomographic image reconstruction via machine learning |
CN109816742B (zh) * | 2018-12-14 | 2022-10-28 | 中国人民解放军战略支援部队信息工程大学 | 基于全连接卷积神经网络的锥束ct几何伪影去除方法 |
CN110288671A (zh) * | 2019-06-25 | 2019-09-27 | 南京邮电大学 | 基于三维对抗性生成网络的低剂量cbct图像重建方法 |
CN110728727B (zh) * | 2019-09-03 | 2023-04-18 | 天津大学 | 一种低剂量能谱ct投影数据的恢复方法 |
CN110675461A (zh) * | 2019-09-03 | 2020-01-10 | 天津大学 | 一种基于无监督学习的ct图像恢复方法 |
CN110728729B (zh) * | 2019-09-29 | 2023-05-26 | 天津大学 | 一种基于注意机制的无监督ct投影域数据恢复方法 |
CN111292386B (zh) * | 2020-01-15 | 2023-05-23 | 中国人民解放军战略支援部队信息工程大学 | 一种基于U-net的CT投影金属迹线补全金属伪影校正方法 |
-
2020
- 2020-11-26 CN CN202011351539.3A patent/CN112508808B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204673A (zh) * | 2016-06-29 | 2016-12-07 | 中国人民解放军信息工程大学 | 基于能谱滤波和图像残差重投影的ct图像金属伪影校正方法 |
CN109146988A (zh) * | 2018-06-27 | 2019-01-04 | 南京邮电大学 | 基于vaegan的非完全投影ct图像重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112508808A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112508808B (zh) | 基于生成对抗网络的ct双域联合金属伪影校正方法 | |
Zhang et al. | A sparse-view CT reconstruction method based on combination of DenseNet and deconvolution | |
EP3480730A1 (en) | 3d anisotropic hybrid network: transferring convolutional features from 2d images to 3d anisotropic volumes | |
Lee et al. | Machine friendly machine learning: interpretation of computed tomography without image reconstruction | |
Cuadros et al. | Coded aperture optimization for compressive X-ray tomosynthesis | |
Costarelli et al. | A segmentation procedure of the pervious area of the aorta artery from CT images without contrast medium | |
Xie et al. | SERU: A cascaded SE‐ResNeXT U‐Net for kidney and tumor segmentation | |
Yan et al. | Symmetric convolutional neural network for mandible segmentation | |
CN111223160A (zh) | 图像重建方法、装置、设备、系统及计算机可读存储介质 | |
Yamanakkanavar et al. | MF2-Net: A multipath feature fusion network for medical image segmentation | |
CN115601268A (zh) | 基于多尺度自注意力生成对抗网络的ldct图像去噪方法 | |
Ziabari et al. | Beam hardening artifact reduction in X-ray CT reconstruction of 3D printed metal parts leveraging deep learning and CAD models | |
Shi et al. | A semi‐supervised learning method of latent features based on convolutional neural networks for CT metal artifact reduction | |
CN109035137B (zh) | 一种基于最优传输理论的多模态医学图像融合方法 | |
Alam et al. | Image data augmentation for improving performance of deep learning-based model in pathological lung segmentation | |
Liu et al. | Unsupervised CT metal artifact reduction by plugging diffusion priors in dual domains | |
Minutti-Martinez et al. | Pumamednet-cxr: An explainable generative artificial intelligence for the analysis and classification of chest x-ray images | |
Fitriyah et al. | Pulmonary Disease Pattern Recognition on X-Ray Radiography Image Using Artificial Neural Network (ANN) Method | |
EP2642449A2 (en) | Method, arrangement, and computer program product for efficient production of tomographic images | |
Zeegers et al. | A tomographic workflow to enable deep learning for X-ray based foreign object detection | |
Wang et al. | HFCF‐Net: a hybrid‐feature cross fusion network for COVID‐19 lesion segmentation from CT volumetric images | |
Shaffie et al. | A new system for lung cancer diagnosis based on the integration of global and local CT features | |
Selim et al. | Sparsity-based method for ring artifact elimination in computed tomography | |
Sa’idah et al. | Modification of convolutional neural network GoogLeNet architecture with dull razor filtering for classifying skin cancer | |
Das et al. | Light-UNet++: A Simplified U-NET++ Architecture for Multimodal Biomedical Image Segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |