CN116883247B - 一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法 - Google Patents

一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法 Download PDF

Info

Publication number
CN116883247B
CN116883247B CN202311145634.1A CN202311145634A CN116883247B CN 116883247 B CN116883247 B CN 116883247B CN 202311145634 A CN202311145634 A CN 202311145634A CN 116883247 B CN116883247 B CN 116883247B
Authority
CN
China
Prior art keywords
resolution
super
image
network
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311145634.1A
Other languages
English (en)
Other versions
CN116883247A (zh
Inventor
陈云开
刘光辉
易惊涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ganyue Medical Technology Chengdu Co ltd
Original Assignee
Ganyue Medical Technology Chengdu Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ganyue Medical Technology Chengdu Co ltd filed Critical Ganyue Medical Technology Chengdu Co ltd
Priority to CN202311145634.1A priority Critical patent/CN116883247B/zh
Publication of CN116883247A publication Critical patent/CN116883247A/zh
Application granted granted Critical
Publication of CN116883247B publication Critical patent/CN116883247B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于Cycle‑GAN的未配对CBCT图像超分辨率生成算法,涉及计算机视觉领域的图像处理技术,其基于域转换对未配对图像进行训练,从而使得网络对真实CT图像有较佳的超分辨率效果。

Description

一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法
技术领域
本发明属于计算机视觉领域的图像处理与生成技术,具体涉及一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法。
背景技术
CBCT(Cone-beam computed tomography,锥形束计算机断层扫描)是一种近年来发展迅速的医学成像技术,其能够产生高质量的三维图像,并在许多临床应用中发挥重要作用,如口腔、颌面部和头颈部成像等。然而,CBCT图像在成像时同样存在着一些问题,如低分辨率、噪声和伪影等,这些问题可能影响CBCT图像的可视化效果和诊断准确性。因此,CBCT图像超分辨率处理也成为了一个研究热点。CBCT图像超分BU辨率处理的目的是通过对低分辨率CBCT图像进行增强处理,从而得到更高分辨率的图像,提高CBCT图像的质量和分辨率,从而提高医学诊断的准确性。
近年来,基于深度学习的图像超分辨率处理方法已经得到广泛研究和应用,它以低分辨率图像作为输入,高分辨率图像作为输出,研究表明深度学习应用于图像超分辨率领域具有巨大潜力。然而在实际生活中,特别是医疗影像领域,难以采集到配对的高分辨率和低分辨率图像(如CT图像),因而无法根据现有方法训练深度神经网络。
现有方法难以基于未配对的CT图像训练超分辨率网络,而在实际环境中很难采集到配对的训练数据,限制了图像超分辨率处理的应用。
发明内容
为解决现有技术中存在的现有方法难以基于未配对的CT图像训练超分辨率网络,而在实际环境中很难采集到配对的训练数据的问题,本发明提出一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法。本发明通过以下技术方案实现:
一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法,其特征在于,包括以下步骤:
S1. 构造训练数据集:采集低分辨率的CBCT图像以及高分辨率Micro-CT图像,两者无需像素级对应,但应来自相同物体,通过双线性插值算法对采集到的Micro-CT图像进行缩放,使得Micro-CT图像单个像素点代表的实际物理距离为CBCT图像单个像素点代表的实际物理距离的0.25倍,同时将CBCT图像相邻的每三个断层拼接为一个三通道的图像,将缩放后的Micro-CT图像相邻的每三个断层拼接为一个三通道的图像;由此CBCT图像生成的三通道图像和Micro-CT图像生成的三通道图像共同构成未配对CT图像超分辨率数据集,并送入网络训练框架;S2. 构建训练框架:训练框架包括两个生成器G与F,两个判别器DX和DY,在训练时需要不断更新生成器G、F和判别器DX和DY;在一次迭代过程中其参数更新方式如下:
S2-1. 将输入生成器G,输出/>,即由低分辨率图像X生成对应的高分辨率图像,再将此高分辨率图像/>输入生成器F得到低分辨率图像/>
S2-2.将输入生成器F,输出/>,即由高分辨率图像Y生成对应的低分辨率图像/>,再将此低分辨率图像/>输入生成器G得到高分辨率图像/>
S2-3.将判别器DY的梯度置0,将其参数设为需要更新;将与/>作为判别器DY的输入,分别得到输出/>和输出/>,/>和/>均为介于0到1之间的浮点数;计算与判别器DY有关的二分类网络的损失:
;根据/>计算梯度,并更新判别器DY的参数;
S2-4.将判别器DX的梯度置0,将其参数设为需要更新;将与/>作为判别器DX的输入,分别得到输出/>和输出/>,/>和/>均为介于0到1之间的浮点数;计算与判别器DX有关的二分类网络的损失:/>;根据/>计算梯度,并更新判别器DX的参数;
S2-5.将判别器DX和DY的参数均设置为无需更新,将生成器G和生成器F的梯度置0,根据步骤S2-3得到的计算生成器G的对抗损失:
,根据步骤S2-4得到的/>计算生成器F的对抗损失:
S2-6.根据步骤S2-1和步骤S2-2得到的和/>计算循环一致性损失:
;并求得更新生成器参数的总损失:
;其中/>为超参数;根据/>计算梯度,并更新生成器G与生成器F的参数;
S3.构建超分辨率网络:超分辨率网络由浅层特征提取模块、深层特征提取模块和超分辨率模块构成;具体步骤如下:
S3-1.构建浅层特征提取模块:浅层特征提取模块能够提取图片浅层特征,设输入图片为,其中/>、/>和/>分别为输入图片/>的高、宽和通道数,通过这种方式得到特征图/>,其中D是特征图的通道数,特征图/>中高、宽和通道数分别为h、w、d处的元素为/>,将特征图/>按通道展开,得到/>;其中,/>),即浅层特征提取模块的输出;
S3-2. 深层特征提取模块由4个级联的残差的滑动窗口自注意力模块和卷积层构成;深层特征提取模块的输入为步骤S3-1中的,输出为深层特征/>;将提取的浅层特征分成多个大小为/>的块,即窗口大小为/>,一共/>个窗口,宽和高分别分为/>和/>,即/>,/>为重组操作,即将/>中的行按照规律重组为/>;其中/>、/>)为窗口特征图,表示为:;滑动窗口自注意力模块由LayerNorm层、移动窗口模块、窗口自注意力层和全连接层组合而成,其输入为/>),输出为/>(/>);LayerNorm层对一个Batch里的所有数据进行归一化操作,表示为/>(/>);每个窗口自注意力模块均为多头自注意力层,设窗口自注意力模块输入为/>,则窗口自注意力模块输出为:/>;其中/>为多头自注意力层运算,/> 为归一化指数函数,h表示多头注意力的抽头个数,head表示每个抽头的输出特征,k的取值为1-h,Concat表示拼接操作,/>表示输出映射矩阵,/>、/>、/>分别表示第k个头的查询映射矩阵、键映射矩阵、值映射矩阵,/>表示第k个头的位置编码矩阵;全连接层又称线性层,设其输入为K,则输出可以表示为:,其中/>和/>均为可学习参数;移动窗口将原始窗口同时向右下方移动/>个像素点的距离,即将所述/>改为
S3-3. 构建超分辨率模块:超分辨率模块由卷积模块和Pixelshuffle模块构成;
S4.构建下采样网络:下采样网络由卷积层、BatchNormal、Leaky ReLU、下采样四部分组成,下采样使用双三次插值,四倍下采样;
S5. 训练:利用步骤S1构建的数据集和步骤S2的训练框架训练步骤S3和步骤S4构建的超分辨率网络和下采样网络;使用Adam优化器,设置两个生成器参数学习率为lr 1 ,两个判别器参数学习率为lr 2 ,学习率在训练过程中随着迭代次数线性递减,最大迭代次数100000,最终得到超分辨率网络参数W G;
S6. 测试:使用步骤S3构建的超分辨率网络对输入图片进行超分辨率,网络参数为步骤S5训练得到的网络参数W G ;将待超分辨率处理的CBCT图像每相邻三层堆叠作为超分辨率网络的一个输入,在网络输出的三通道图像中选取中间通道作为相应输入的中间通道的输出。
进一步地,步骤S1中,生成器G为4倍超分辨率网络,生成器F为4倍下采样网络,判别器DX和DY均为二分类网络。
进一步地,S3-1中浅层特征提取由卷积操作构成,该操作输入通道数为,输出通道数为/>,卷积核大小为/>,padding为1;S3-2中深层特征提取模块通道数均为D,卷积核大小为/>,padding为1;S3-3中超分辨率构建模块除最后一个卷积层外的其余卷积层通道数均为D,卷积核大小为/>,padding为1;最后一个卷积层输入通道数为D,输出通道数为3,卷积核大小为/>,padding为1;Pixelshuffle模块为两倍上采样,执行n次两倍上采样操作,即整个网络2n倍超分辨率。
进一步地,S4构建下采样网络中的Leaky ReLU中,P与Q分别表示激活函数的输入与输出,P与Q的关系表达式为:
进一步地,所述S5中,待训练的高分辨率图像Y随机裁剪至分辨率,低分辨率图像X随机裁剪至/>分辨率。
本发明的有益效果是:通过对低分辨率CBCT图像进行增强处理,从而得到更高分辨率的图像,提高CBCT图像的质量和分辨率,解决了图像超分辨率处理在实际中的应用限制,从而提高医学诊断的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明总体流程图;
图2是本发明网络训练框架图;
图3是本发明超分辨率网络框架图;
图4是本发明的浅层特征提取模块图;
图5是本发明的深层特征提取模块图;
图6是本发明的切分窗口示意图;
图7是本发明的滑动窗口自注意力模块图;
图8是本发明的窗口自注意力模块图;
图9是本发明的移动窗口操作示意图;
图10是本发明超分辨率模块的示意图;
图11是本发明下采样网络框架的示意图;
图12是通过本发明技术方案处理前的根管尖1/3图像;
图13是通过本发明技术方案处理后的根管尖1/3图像;
图14是通过本发明技术方案处理前的根管中1/3图像;
图15是通过本发明技术方案处理后的根管中1/3图像;
图16是通过本发明技术方案处理前的根管冠1/3图像;
图17是通过本发明技术方案处理后的根管冠1/3图像;
图18是通过本发明技术方案处理前的髓角图像;
图19是通过本发明技术方案处理后的髓角图像。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
如图1-图19所示,本发明的一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法,包括以下步骤:
S1. 构造训练数据集:采集低分辨率的CBCT图像以及高分辨率Micro-CT图像,两者无需像素级对应,但应来自相同物体,通过双线性插值算法对采集到的Micro-CT图像进行缩放,使得Micro-CT图像单个像素点代表的实际物理距离为CBCT图像单个像素点代表的实际物理距离的0.25倍,同时将CBCT图像相邻的每三个断层拼接为一个三通道的图像,将缩放后的Micro-CT图像相邻的每三个断层拼接为一个三通道的图像;由此CBCT图像生成的三通道图像和Micro-CT图像生成的三通道图像共同构成未配对CT图像超分辨率数据集,并送入网络训练框架;S2. 构建训练框架:训练框架包括两个生成器G与F,两个判别器DX和DY,在训练时需要不断更新生成器G、F和判别器DX和DY;在一次迭代过程中其参数更新方式如下:
S2-1. 将输入生成器G,输出/>,即由低分辨率图像X生成对应的高分辨率图像,再将此高分辨率图像/>输入生成器F得到低分辨率图像/>
S2-2.将输入生成器F,输出/>,即由高分辨率图像Y生成对应的低分辨率图像/>,再将此低分辨率图像/>输入生成器G得到高分辨率图像/>
S2-3.将判别器DY的梯度置0,将其参数设为需要更新;将与/>作为判别器DY的输入,分别得到输出/>和输出/>,/>和/>均为介于0到1之间的浮点数;计算与判别器DY有关的二分类网络的损失:
;根据/>计算梯度,并更新判别器DY的参数;
S2-4.将判别器DX的梯度置0,将其参数设为需要更新;将与/>作为判别器DX的输入,分别得到输出/>和输出/>,/>和/>均为介于0到1之间的浮点数;计算与判别器DX有关的二分类网络的损失:/>;根据/>计算梯度,并更新判别器DX的参数;
S2-5.将判别器DX和DY的参数均设置为无需更新,将生成器G和生成器F的梯度置0,根据步骤S2-3得到的计算生成器G的对抗损失:
,根据步骤S2-4得到的/>计算生成器F的对抗损失:
S2-6.根据步骤S2-1和步骤S2-2得到的和/>计算循环一致性损失:
;并求得更新生成器参数的总损失:
;其中/>为超参数;根据/>计算梯度,并更新生成器G与生成器F的参数;
S3.构建超分辨率网络:超分辨率网络由浅层特征提取模块、深层特征提取模块和超分辨率模块构成;具体步骤如下:
S3-1.构建浅层特征提取模块:浅层特征提取模块能够提取图片浅层特征,设输入图片为,其中/>、/>和/>分别为输入图片/>的高、宽和通道数,通过这种方式得到特征图/>,其中D是特征图的通道数,特征图/>中高、宽和通道数分别为h、w、d处的元素为/>,将特征图/>按通道展开,得到/>;其中,/>),即浅层特征提取模块的输出;
S3-2. 深层特征提取模块由4个级联的残差的滑动窗口自注意力模块和卷积层构成;深层特征提取模块的输入为步骤S3-1中的,输出为深层特征/>;将提取的浅层特征分成多个大小为/>的块,即窗口大小为/>,一共/>个窗口,宽和高分别分为/>和/>,即/>,/>为重组操作,即将/>中的行按照规律重组为/>;其中/>、/>)为窗口特征图,表示为:;滑动窗口自注意力模块由LayerNorm层、移动窗口模块、窗口自注意力层和全连接层组合而成,其输入为/>),输出为/>(/>);LayerNorm层对一个Batch里的所有数据进行归一化操作,表示为/>(/>);每个窗口自注意力模块均为多头自注意力层,设窗口自注意力模块输入为/>,则窗口自注意力模块输出为:/>;其中/>为多头自注意力层运算,/> 为归一化指数函数,h表示多头注意力的抽头个数,head表示每个抽头的输出特征,k的取值为1-h,Concat表示拼接操作,/>表示输出映射矩阵,/>、/>、/>分别表示第k个头的查询映射矩阵、键映射矩阵、值映射矩阵,/>表示第k个头的位置编码矩阵;全连接层又称线性层,设其输入为K,则输出可以表示为:,其中/>和/>均为可学习参数;移动窗口将原始窗口同时向右下方移动/>个像素点的距离,即将所述/>改为
S3-3. 构建超分辨率模块:超分辨率模块由卷积模块和Pixelshuffle模块构成;
S4.构建下采样网络:下采样网络由卷积层、BatchNormal、Leaky ReLU、下采样四部分组成,下采样使用双三次插值,四倍下采样;
S5. 训练:利用步骤S1构建的数据集和步骤S2的训练框架训练步骤S3和步骤S4构建的超分辨率网络和下采样网络;使用Adam优化器,设置两个生成器参数学习率为lr 1 ,两个判别器参数学习率为lr 2 ,学习率在训练过程中随着迭代次数线性递减,最大迭代次数100000,最终得到超分辨率网络参数W G;
S6. 测试:使用步骤S3构建的超分辨率网络对输入图片进行超分辨率,网络参数为步骤S5训练得到的网络参数W G ;将待超分辨率处理的CBCT图像每相邻三层堆叠作为超分辨率网络的一个输入,在网络输出的三通道图像中选取中间通道作为相应输入的中间通道的输出。
进一步地,步骤S1中,生成器G为4倍超分辨率网络,生成器F为4倍下采样网络,判别器DX和DY均为二分类网络。
进一步地,S3-1中浅层特征提取由卷积操作构成,该操作输入通道数为,输出通道数为/>,卷积核大小为/>,padding为1;S3-2中深层特征提取模块通道数均为D,卷积核大小为/>,padding为1;S3-3中超分辨率构建模块除最后一个卷积层外的其余卷积层通道数均为D,卷积核大小为/>,padding为1;最后一个卷积层输入通道数为D,输出通道数为3,卷积核大小为/>,padding为1;Pixelshuffle模块为两倍上采样,执行n次两倍上采样操作,即整个网络2n倍超分辨率。
进一步地,S4构建下采样网络中的Leaky ReLU中,P与Q分别表示激活函数的输入与输出,P与Q的关系表达式为:
进一步地,所述S5中,待训练的高分辨率图像Y随机裁剪至分辨率,低分辨率图像X随机裁剪至/>分辨率。
实施例1:
1. 按照步骤S1构造训练数据集。其中数据为同一批离体牙齿的CBCT扫描图像与Micro-CT扫描图像。
2. 按照步骤S2构建训练框架,其中超参数取10。
3. 按照步骤S3所述构建超分辨率。其中超参数C取3,超参数D取96,窗口大小取/>,自注意力模块多头数量均取6。
4. 按照步骤S4所述构建下采样网络。
5. 训练:利用步骤S1构建的数据集和步骤S2的训练框架训练步骤S3和步骤S4构建的超分辨率网络和下采样网络。使用Adam优化器,设置两个生成器参数学习率为,两个判别器参数学习率为/>,学习率在训练过程中随着迭代次数线性递减,最大迭代次数100000,待训练的高分辨率CT图像(步骤1中的Y)随机裁剪至分辨率,低分辨率CT图像(步骤1中的X)随机裁剪至/>分辨率。最终得到超分辨率网络参数WG。
6. 测试:使用步骤S3构建的超分辨率网络对输入图片进行超分辨率,网络参数为步骤S5训练得到的网络参数WG。将待超分辨率处理的CBCT图像每相邻三层堆叠作为超分辨率网络的一个输入,在网络输出的三通道图像中选取中间通道作为相应输入的中间通道的输出。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法,其特征在于,包括以下步骤:
S1. 构造训练数据集:采集低分辨率的CBCT图像以及高分辨率Micro-CT图像,两者无需像素级对应,但应来自相同物体,通过双线性插值算法对采集到的Micro-CT图像进行缩放,使得Micro-CT图像单个像素点代表的实际物理距离为CBCT图像单个像素点代表的实际物理距离的0.25倍,同时将CBCT图像相邻的每三个断层拼接为一个三通道的图像,将缩放后的Micro-CT图像相邻的每三个断层拼接为一个三通道的图像;由此CBCT图像生成的三通道图像和Micro-CT图像生成的三通道图像共同构成未配对CT图像超分辨率数据集,并送入网络训练框架;S2. 构建训练框架:训练框架包括两个生成器G与F,两个判别器DX和DY,在训练时需要不断更新生成器G、F和判别器DX和DY;在一次迭代过程中其参数更新方式如下:
S2-1. 将输入生成器G,输出/>,即由低分辨率图像X生成对应的高分辨率图像/>,再将此高分辨率图像/>输入生成器F得到低分辨率图像/>
S2-2.将输入生成器F,输出/>,即由高分辨率图像Y生成对应的低分辨率图像/>,再将此低分辨率图像/>输入生成器G得到高分辨率图像/>
S2-3.将判别器DY的梯度置0,将其参数设为需要更新;将与/>作为判别器DY的输入,分别得到输出/>和输出/>,/>和/>均为介于0到1之间的浮点数;计算与判别器DY有关的二分类网络的损失:
;根据/>计算梯度,并更新判别器DY的参数;
S2-4.将判别器DX的梯度置0,将其参数设为需要更新;将与/>作为判别器DX的输入,分别得到输出/>和输出/>,/>和/>均为介于0到1之间的浮点数;计算与判别器DX有关的二分类网络的损失:/>;根据/>计算梯度,并更新判别器DX的参数;
S2-5.将判别器DX和DY的参数均设置为无需更新,将生成器G和生成器F的梯度置0,根据步骤S2-3得到的计算生成器G的对抗损失:
,根据步骤S2-4得到的/>计算生成器F的对抗损失:
S2-6.根据步骤S2-1和步骤S2-2得到的和/>计算循环一致性损失:
;并求得更新生成器参数的总损失:
;其中/>为超参数;根据/>计算梯度,并更新生成器G与生成器F的参数;
S3.构建超分辨率网络:超分辨率网络由浅层特征提取模块、深层特征提取模块和超分辨率模块构成;具体步骤如下:
S3-1.构建浅层特征提取模块:浅层特征提取模块能够提取图片浅层特征,设输入图片为,其中/>、/>和/>分别为输入图片/>的高、宽和通道数,通过这种方式得到特征图/>,其中D是特征图的通道数,特征图/>中高、宽和通道数分别为h、w、d处的元素为/>,将特征图/>按通道展开,得到/>;其中,/>),即浅层特征提取模块的输出;
S3-2. 深层特征提取模块由4个级联的残差的滑动窗口自注意力模块和卷积层构成;深层特征提取模块的输入为步骤S3-1中的,输出为深层特征/>;将提取的浅层特征分成多个大小为/>的块,即窗口大小为/>,一共/>个窗口,宽和高分别分为/>和/>,即/>,/>为重组操作,即将/>中的行按照规律重组为/>;其中/>、/>)为窗口特征图,表示为:;滑动窗口自注意力模块由LayerNorm层、移动窗口模块、窗口自注意力层和全连接层组合而成,其输入为/>),输出为/>(/>);LayerNorm层对一个Batch里的所有数据进行归一化操作,表示为/>(/>);每个窗口自注意力模块均为多头自注意力层,设窗口自注意力模块输入为/>,则窗口自注意力模块输出为:/>;其中/>为多头自注意力层运算,/> 为归一化指数函数,h表示多头注意力的抽头个数,head表示每个抽头的输出特征,k的取值为1-h,Concat表示拼接操作,/>表示输出映射矩阵,/>、/>、/>分别表示第k个头的查询映射矩阵、键映射矩阵、值映射矩阵,/>表示第k个头的位置编码矩阵;全连接层又称线性层,设其输入为K,则输出表示为:,其中/>和/>均为可学习参数;移动窗口将原始窗口同时向右下方移动/>个像素点的距离,即将所述/>改为
S3-3. 构建超分辨率模块:超分辨率模块由卷积模块和Pixelshuffle模块构成;
S4.构建下采样网络:下采样网络由卷积层、BatchNormal、Leaky ReLU、下采样四部分组成,下采样使用双三次插值,四倍下采样;
S5. 训练:利用步骤S1构建的数据集和步骤S2的训练框架训练步骤S3和步骤S4构建的超分辨率网络和下采样网络;使用Adam优化器,设置两个生成器参数学习率为lr 1 ,两个判别器参数学习率为lr 2 ,学习率在训练过程中随着迭代次数线性递减,最大迭代次数100000,最终得到超分辨率网络参数W G;
S6. 测试:使用步骤S3构建的超分辨率网络对输入图片进行超分辨率,网络参数为步骤S5训练得到的网络参数W G ;将待超分辨率处理的CBCT图像每相邻三层堆叠作为超分辨率网络的一个输入,在网络输出的三通道图像中选取中间通道作为相应输入的中间通道的输出。
2.根据权利要求1所述的一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法,其特征在于,步骤S1中,生成器G为4倍超分辨率网络,生成器F为4倍下采样网络,判别器DX和DY均为二分类网络。
3.根据权利要求1所述的一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法,其特征在于,S3-1中浅层特征提取由卷积操作构成,该操作输入通道数为,输出通道数为/>,卷积核大小为/>,padding为1;S3-2中深层特征提取模块通道数均为D,卷积核大小为,padding为1;S3-3中超分辨率构建模块除最后一个卷积层外的其余卷积层通道数均为D,卷积核大小为/>,padding为1;最后一个卷积层输入通道数为D,输出通道数为3,卷积核大小为/>,padding为1;Pixelshuffle模块为两倍上采样,执行n次两倍上采样操作,即整个网络2n倍超分辨率。
4.根据权利要求1所述的一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法,其特征在于,S4构建下采样网络中的Leaky ReLU中,P与Q分别表示激活函数的输入与输出,P与Q的关系表达式为:
5.根据权利要求1所述的一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法,其特征在于,所述S5中,待训练的高分辨率图像Y随机裁剪至分辨率,低分辨率图像X随机裁剪至/>分辨率。
CN202311145634.1A 2023-09-06 2023-09-06 一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法 Active CN116883247B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311145634.1A CN116883247B (zh) 2023-09-06 2023-09-06 一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311145634.1A CN116883247B (zh) 2023-09-06 2023-09-06 一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法

Publications (2)

Publication Number Publication Date
CN116883247A CN116883247A (zh) 2023-10-13
CN116883247B true CN116883247B (zh) 2023-11-21

Family

ID=88272022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311145634.1A Active CN116883247B (zh) 2023-09-06 2023-09-06 一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法

Country Status (1)

Country Link
CN (1) CN116883247B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785243A (zh) * 2018-11-28 2019-05-21 西安电子科技大学 基于对抗生成网络未配准低剂量ct的去噪方法、计算机
CN110288609A (zh) * 2019-05-30 2019-09-27 南京师范大学 一种注意力机制引导的多模态全心脏图像分割方法
CN112308770A (zh) * 2020-12-29 2021-02-02 北京世纪好未来教育科技有限公司 人像转换模型生成方法及人像转换方法
CN112771581A (zh) * 2018-07-30 2021-05-07 纪念斯隆凯特琳癌症中心 用于对免疫疗法和放射疗法的分割、结果预测和纵向应答监测的多模态、多分辨率深度学习神经网络
CN112862738A (zh) * 2021-04-09 2021-05-28 福建自贸试验区厦门片区Manteia数据科技有限公司 多模态图像的合成方法、装置、存储介质及处理器
CN115170427A (zh) * 2022-07-18 2022-10-11 中山火炬职业技术学院 基于弱监督学习的图像镜面高光去除方法
CN115619645A (zh) * 2022-11-21 2023-01-17 哈尔滨理工大学 一种基于多级残差跳跃连接网络的图像超分辨率重建方法
CN115797611A (zh) * 2023-02-10 2023-03-14 真健康(北京)医疗科技有限公司 三维医学图像模态转换模型训练方法及设备
CN116091313A (zh) * 2022-12-20 2023-05-09 无锡学院 一种图像超分辨率网络模型和重建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112022003391A2 (pt) * 2019-08-23 2022-05-17 Subtle Medical Inc Sistemas e métodos para a tomografia precisa e rápida de emissão de positron utilizando o aprendizado pro-fundo

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112771581A (zh) * 2018-07-30 2021-05-07 纪念斯隆凯特琳癌症中心 用于对免疫疗法和放射疗法的分割、结果预测和纵向应答监测的多模态、多分辨率深度学习神经网络
CN109785243A (zh) * 2018-11-28 2019-05-21 西安电子科技大学 基于对抗生成网络未配准低剂量ct的去噪方法、计算机
CN110288609A (zh) * 2019-05-30 2019-09-27 南京师范大学 一种注意力机制引导的多模态全心脏图像分割方法
CN112308770A (zh) * 2020-12-29 2021-02-02 北京世纪好未来教育科技有限公司 人像转换模型生成方法及人像转换方法
CN112862738A (zh) * 2021-04-09 2021-05-28 福建自贸试验区厦门片区Manteia数据科技有限公司 多模态图像的合成方法、装置、存储介质及处理器
CN115170427A (zh) * 2022-07-18 2022-10-11 中山火炬职业技术学院 基于弱监督学习的图像镜面高光去除方法
CN115619645A (zh) * 2022-11-21 2023-01-17 哈尔滨理工大学 一种基于多级残差跳跃连接网络的图像超分辨率重建方法
CN116091313A (zh) * 2022-12-20 2023-05-09 无锡学院 一种图像超分辨率网络模型和重建方法
CN115797611A (zh) * 2023-02-10 2023-03-14 真健康(北京)医疗科技有限公司 三维医学图像模态转换模型训练方法及设备

Also Published As

Publication number Publication date
CN116883247A (zh) 2023-10-13

Similar Documents

Publication Publication Date Title
Wu et al. Learning sheared EPI structure for light field reconstruction
CN109389552A (zh) 一种基于上下文相关多任务深度学习的图像超分辨算法
CN106683067B (zh) 一种基于残差子图像的深度学习超分辨率重建方法
Li et al. VolumeNet: A lightweight parallel network for super-resolution of MR and CT volumetric data
CN106339998A (zh) 基于对比度金字塔变换的多聚焦图像融合方法
Gao et al. A deep convolutional network for medical image super-resolution
CN110889895A (zh) 一种融合单帧重建网络的人脸视频超分辨率重建方法
CN111861886B (zh) 一种基于多尺度反馈网络的图像超分辨率重建方法
CN111507462A (zh) 一种端对端的三维医学图像超分辨率重建方法及系统
CN113706388B (zh) 图像超分辨率重建方法及装置
CN116664397B (zh) TransSR-Net结构化图像超分辨重建方法
CN111696042B (zh) 基于样本学习的图像超分辨重建方法
CN113469884A (zh) 基于数据仿真的视频超分辨方法、系统、设备及存储介质
CN116682120A (zh) 基于深度学习的多语种马赛克图像文本识别方法
CN115496663A (zh) 基于d3d卷积组内融合网络的视频超分辨率重建方法
CN116883247B (zh) 一种基于Cycle-GAN的未配对CBCT图像超分辨率生成算法
Wang et al. Brain MR image super-resolution using 3D feature attention network
Peng et al. Deep slice interpolation via marginal super-resolution, fusion, and refinement
Fan et al. SGUNet: Style-guided UNet for adversely conditioned fundus image super-resolution
Sun et al. A lightweight dual-domain attention framework for sparse-view CT reconstruction
Lyn Multi-level feature fusion mechanism for single image super-resolution
CN113421188B (zh) 一种图像均衡增强的方法、系统、装置及存储介质
CN104463793B (zh) 一种视频超分辨率重建方法及其系统
CN116883246B (zh) 一种用于cbct图像的超分辨率方法
CN113538231B (zh) 一种基于像素分布估计的单张图像超分辨重建系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant