CN111652803B - 一种横向束流截面超分辨率重建方法 - Google Patents
一种横向束流截面超分辨率重建方法 Download PDFInfo
- Publication number
- CN111652803B CN111652803B CN202010438573.8A CN202010438573A CN111652803B CN 111652803 B CN111652803 B CN 111652803B CN 202010438573 A CN202010438573 A CN 202010438573A CN 111652803 B CN111652803 B CN 111652803B
- Authority
- CN
- China
- Prior art keywords
- transverse beam
- resolution
- beam cross
- image
- section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4046—Scaling the whole image or part thereof using neural networks
Abstract
本发明公开了一种横向束流截面超分辨率重建方法,该方法包括:制作所述高分辨率横向束流截面图像与对应低分辨率横向束流截面图像的训练数据集;构建生成对抗网络模型,包括生成器网络和判别器网络,所述生成器网络后端加入像素重组模块;用预处理后的训练数据集训练所述生成对抗网络模型,训练收敛时得到训练好的生成对抗网络模型;将获取的低分辨率横向束流截面图像进行预处理,然后输入到所述训练好的生成对抗网络模型的生成器网络得到超分辨率重建后的高分辨率横向束流截面图像。本发明解决了横向束流截面的测量受到光学成像系统点扩散函数影响及成像传感器像元尺寸限制,导致分辨率低,尺寸测量不精确的问题,该方法可靠性高,研发成本低,实用性强。
Description
技术领域
本发明涉及同步辐射光源束流诊断技术领域,尤其涉及一种横向束流截面的超分辨率重建的方法。
背景技术
横向束流截面为同步辐射光源的重要参数,通过测量横向束流截面及尺寸可以间接得到同步辐射光源的发射度参数,该参数是表征光源性能的核心要素。此外在同步辐射光源上,由于横向束流截面直观反映束流横向分布特征,因此横向束流截面的测量还可以用于监测束流轨道及束流不稳定性,可以作为逐束团反馈系统及轨道反馈系统调试的重要参照依据。下一代先进同步辐射光源如基于衍射极限储存环的同步辐射光源,横向完全相干需要储存环中的束流具有极低的发射度,其横向束流尺寸为微米量级,需要具有超高空间分辨率测量能力的技术才能实现如此微小的横向束流截面及尺寸的精确测量,因此横向束流截面的测量是一项非常重要又极具挑战性的任务。
当前,基于同步辐射光成像的已有横向束流截面测量方法由于受到成像系统点扩散函数及成像传感器像元尺寸限制的影响,导致横向束流截面的测量分辨率受限,横向束流尺寸测量的精度无法满足实际需求。由于基于同步辐射光的横向束流截面图像的失真模型可以通过建模得到,因此可以通过图像处理的手段对横向束流截面图像进行超分辨率重建,从而使得横向束流截面的测量突破光学分辨率及几何分辨率限制。
发明内容
本发明为了解决上述技术问题,本发明提供一种横向束流截面的超分辨率重建方法。本发明通过以下技术方案实现:
一种横向束流截面超分辨重建方法,包括以下步骤:
步骤S101、制作横向束流截面超分辨率重建训练数据集;
步骤S102、构建生成对抗网络模型,包括生成器网络及判别器网络,所述生成器网络末端加入像素重组模块;
步骤S103、对所述训练数据集进行预处理,利用所述预处理后的训练数据集训练所述生成对抗网络模型,训练收敛时得到训练好的生成对抗网络模型;
步骤S104、获取待处理的低分辨率横向束流截面图像;
步骤S105、对所述待处理的低分辨率横向束流截面图像进行预处理;
步骤S106、将所述预处理后的低分辨率横向束流截面图像输入到训练好的生成器网络,经所述生成器网络超分辨重建后输出高分辨率横向束流截面图像;
作为优选的,步骤S101具体为:
1a、仿真得到高分辨率横向束流截面图像;
2a、将所述高分辨率横向束流截面图像与成像系统点扩散函数进行卷积运算,然后进行下采样得到低分辨率横向束流截面图像;
3a、由一系列高分辨率横向束流截面图像与对应的低分辨率横向束流截面图像构成训练数据集;
进一步的,步骤2a中得到所述低分辨率横向束流截面图像的计算方法为:
ILR=Dr(IHR*F)
其中,IHR为高分辨率横向束流截面图像,ILR为低分辨率横向束流截面图像,F为成像系统点扩散函数,*表示为卷积运算,Dr为降采样方法具体为双三次插值方法,r为降采样因子;
作为优选的,步骤S102具体为:
1b、由一连串顺序连接的残差块构成生成器网络主体结构,每个残差块由若干残差密集块组成,残差密集块之间通过密集连接的方式连在一起,每个残差密集块包含一个卷积层和一个激活层;
2b、在生成器网络主体结构的末端加入像素重组模块,所述像素重组模块包含卷积层及亚像素卷积层,通过所述卷积层先得到r2个通道的与输入低分辨率图像尺寸大小一致的特征图像,然后再通过亚像素卷积层将每个像素点的r2个通道依次转换为对应的r×r的图像块,最终得到放大r倍的图像,其中r为上采样因子;
3b、判别器网络为相对平均判别器,所述判别器网络主体结构由若干卷积层及激活层组成,最终通过全连接层及sigmoid激活函数得到判别结果;
步骤S103所述的利用所述预处理后的训练数据集训练所述生成对抗网络模型,具体包括以下步骤:
1c、所述训练数据集由一系列“第一横向束流截面图像/第二横向束流截面图像对”组成,所述第一横向束流截面图像为低分辨率横向束流截面图像,所述第二横向束流截面图像为高分辨率横向束流截面图像;
2c、将所述训练数据集中的第一横向束流截面图像输入所述生成对抗网络模型的生成器网络,经所述生成器网络处理输出放大r倍的第三横向束流截面图像,计算所述第二横向束流截面图像与第三横向束流截面图像的距离误差作为内容损失,由所述内容损失与生成器网络的对抗损失以及感知损失之和构成生成器损失;
3c、将所述“第二横向束流截面图像/第三横向束流截面图像对”输入生成对抗网络模型的判别器网络,根据所述判别器网络的输出结果计算判别器损失;
4c、根据所述生成器损失及判别器损失,利用Adam优化器以及反向传播算法最小化生成器损失及判别器损失,交替更新生成器网络参数及判别器网络参数。
作为优选的,步骤2c所述生成器网络的对抗损失,具体为:
作为优选的,步骤3c所述判别器损失,具体包括:
步骤S105所述对所述待处理的低分辨率横向束流截面图像进行预处理,具体为:
将待处理的低分辨率横向束流截面图像的大小进行裁剪,将大小裁剪后的低分辨率横向束流截面图像再进行归一化处理。
本发明与现有技术相比,具有以下优点和有益效果:
本方法通过构建生成对抗网络模型,制作的低分辨率横向束流截面图像及高分辨率横向束流截面图像训练数据集,利用训练数据集对生成对抗网络模型进行训练,使得训练完成的具有像素重组的生成器网络可以进行低分辨率横向束流截面图像到高分辨率横向束流截面图像的映射,使得横向束流截面的测量可以突破衍射极限及图像传感器像元尺寸的限制,可实现横向束流截图图像的光学超分辨率及几何超分辨率重建,此外该方法在可见光成像范围内即可实现高分辨率的横向束流截面测量,系统研发成本低,且可以在线实时处理。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。在附图中:
图1为本发明实施例提供的横向束流截面超分辨率重建方法流程图。
具体实施方式
为使得本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为本发明的限定。
实施例
一种横向束流截面图像超分辨率重建方法,包括以下步骤:
步骤S101、制作横向束流截面超分辨率重建训练数据集;
步骤S102、构建生成对抗网络模型,包括生成器网络及判别器网络,所述生成器网络末端加入像素重组模块;
步骤S103、对所述训练数据集进行预处理,利用所述预处理后的训练数据集训练所述生成对抗网络模型,训练收敛时得到训练好的生成对抗网络模型;
步骤S104、获取待处理的低分辨率横向束流截面图像;
步骤S105、对所述待处理的低分辨率横向束流截面图像进行预处理;
步骤S106、将所述预处理后的低分辨率横向束流截面图像输入到训练好的生成器网络,经所述生成器网络超分辨重建后输出高分辨率横向束流截面图像;
下面详细描述上述步骤的具体实现过程。
步骤S101制作训练数据集具体包括以下步骤:
1a、仿真得到高分辨率横向束流截面图像;
具体为,由于横向束流截面满足二维高斯分布,根据理论上的束流横向尺寸,通过数值计算的方法仿真得到高出传感器采样分辨率r倍的横向束流截面图像,r为正整数,高分辨率横向束流截面图像尺寸的大小为M×N,其中M为行数,N为列数,M和N都为正整数。
2a、将所述高分辨率横向束流截面图像与成像系统点扩散函数进行卷积运算,然后进行下采样得到低分辨率横向束流截面图像;
3a、由一系列高分辨率横向束流截面图像与对应的低分辨率横向束流截面图像构成训练数据集;
低分辨率横向束流截面图像的计算方法为:
ILR=Dr(IHR*F)
其中,IHR为高分辨率横向束流截面图像,ILR为低分辨率横向束流截面图像,F为成像系统点扩散函数,*表示为卷积运算,Dr为降采样方法具体为双三次插值方法,r为降采样因子。所述成像系统的点扩散函数可以通过计算单电子辐射同步光经过成像系统在观察平面的强度分布得到。低分辨率横向束流截面图像的大小为m×n,其中m为行数,n为列数,m和n都为正整数,且满足m=M/r,n=N/r。
步骤S102具体包括以下步骤:
1b、由一连串顺序连接的残差块构成生成器网络主体结构,每个残差块由若干残差密集块组成,残差密集块之间通过密集连接的方式连在一起,每个残差密集块包含一个卷积层和一个激活层;
2b、在生成器网络主体结构的末端加入像素重组模块,所述像素重组模块包含卷积层及亚像素卷积层,通过所述卷积层先得到r2个通道的与输入低分辨率图像尺寸大小一致的特征图像,然后再通过亚像素卷积层将每个像素点的r2个通道依次转换为对应的r×r的图像块,最终得到放大r倍的图像,其中r为上采样因子;
3b、判别器网络为相对平均判别器,所述判别器网络主体结构由若干卷积层及激活层组成,最终通过全连接层及sigmoid激活函数得到判别结果;
步骤S103具体包括以下步骤:
1c、所述训练数据集由一系列“第一横向束流截面图像/第二横向束流截面图像对”组成,所述第一横向束流截面图像为低分辨率横向束流截面图像,所述第二横向束流截面图像为高分辨率横向束流截面图像;
2c、将所述训练数据集中的第一横向束流截面图像输入所述生成对抗网络模型的生成器网络,经所述生成器网络处理输出放大r倍的第三横向束流截面图像,计算所述第二横向束流截面图像与第三横向束流截面图像的距离误差作为内容损失,由所述内容损失与生成器网络的对抗损失以及感知损失之和构成生成器损失;
3c、将所述“第二横向束流截面图像/第三横向束流截面图像对”输入生成对抗网络模型的判别器网络,根据所述判别器网络的输出结果计算判别器损失;
4c、根据所述生成器损失及判别器损失,利用Adam优化器以及反向传播算法最小化生成器损失及判别器损失,交替更新生成器网络参数及判别器网络参数。
在本发明中生成器损失由内容损失与生成器网络的对抗损失以及感知损失之和构成,具体可描述为:
生成器网络的对抗损失,具体为:
步骤3c所述判别器损失,具体为:
步骤S105中,由于不同的图像传感器获取的横向束流截面图像的大小可能有所不同,首先需要将获取的待处理低分辨率横向束流截面图像的大小进行裁剪,例如在本实施例中获取的待处理低分辨率横向束流截面大小为p×q,其中p>m,q>n,p和q都为正整数,经裁剪后得到的待处理低分辨率横向束流截面大小为p1×q1,此处p1=m,q1=n;将大小裁剪后的低分辨率横向束流截面图像再进行归一化处理,使得低分辨率横向束流截面图像的像素值在0~1范围内,以便能够输入到生成器网络进行处理。
由步骤S105得到的预处理后的低分辨率横向束流截面图像输入到步骤S106中所述的训练好的生成器网络,得到的输出即为超分辨率重建后的高分辨率横向束流截面图像。所得的高分辨率横向束流截面图像的大小是低分辨率横向束流截面图像的r倍,且所述高分辨率横向束流截面图像中去除了成像系统点扩散函数的影响。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种横向束流截面超分辨率重建方法,其特征在于,包括如下步骤:
步骤S101、制作横向束流截面超分辨率重建训练数据集;
步骤S102、构建生成对抗网络模型,包括生成器网络及判别器网络,所述生成器网络末端加入像素重组模块;
步骤S103、对所述训练数据集进行预处理,利用所述预处理后的训练数据集训练所述生成对抗网络模型,训练收敛时得到训练好的生成对抗网络模型;
其中步骤S103所述的利用所述预处理后的训练数据集训练所述生成对抗网络模型,具体包括以下步骤:
1c、所述训练数据集由一系列“第一横向束流截面图像/第二横向束流截面图像对”组成,所述第一横向束流截面图像为低分辨率横向束流截面图像,所述第二横向束流截面图像为高分辨率横向束流截面图像;
2c、将所述训练数据集中的第一横向束流截面图像输入所述生成对抗网络模型的生成器网络,经所述生成器网络处理输出放大r倍的第三横向束流截面图像,计算所述第二横向束流截面图像与第三束流横向截面图像的距离误差作为内容损失,由所述内容损失与生成器网络的对抗损失以及感知损失之和构成生成器损失;
3c、将“第二横向束流截面图像/第三横向束流截面图像对”输入生成对抗网络模型的判别器网络,根据所述判别器网络的输出结果计算判别器损失;
4c、根据所述生成器损失及判别器损失,利用Adam优化器以及反向传播算法最小化生成器损失及判别器损失,交替更新生成器网络参数及判别器网络参数;
步骤S104、获取待处理的低分辨率横向束流截面图像;
步骤S105、对所述待处理的低分辨率横向束流截面图像进行预处理;
步骤S106、将所述预处理后的低分辨率横向束流截面图像输入到训练好的生成器网络,经所述生成器网络超分辨重建后输出高分辨率横向束流截面图像。
2.根据权利要求1所述的一种横向束流截面超分辨率重建方法,其特征在于,步骤S101具体为:
1a、仿真得到高分辨率横向束流截面图像;
2a、将所述高分辨率横向束流截面图像与成像系统点扩散函数进行卷积运算,然后进行下采样得到低分辨率横向束流截面图像;
3a、由一系列高分辨率横向束流截面图像与对应的低分辨率横向束流截面图像构成训练数据集。
3.根据权利要求2所述的一种横向束流截面超分辨率重建方法,其特征在于,步骤2a中得到所述低分辨率横向束流截面图像的计算方法为:
ILR=Dr(IHR*F)
其中,IHR为高分辨率横向束流截面图像,ILR为低分辨率横向束流截面图像,F为成像系统点扩散函数,*表示为卷积运算,Dr为双三次插值降采样方法,r为降采样因子。
4.根据权利要求1所述的一种横向束流截面超分辨率重建方法,其特征在于,步骤S102具体为:
1b、由一连串顺序连接的残差块构成生成器网络主体结构,每个残差块包括若干残差密集块,残差密集块之间通过密集连接的方式连在一起,每个残差密集块包括一个卷积层和一个激活层;
2b、在生成器网络主体结构的末端加入像素重组模块,所述像素重组模块包含卷积层及亚像素卷积层,通过所述卷积层先得到r2个通道的与输入低分辨率图像尺寸大小一致的特征图像,然后再通过亚像素卷积层将每个像素点的r2个通道依次转换为对应的r×r的图像块,最终得到放大r倍的图像,其中r为上采样因子;
3b、判别器网络为相对平均判别器,所述判别器网络主体结构包括若干卷积层及激活层,最终通过全连接层及sigmoid激活函数得到判别结果。
7.根据权利要求1所述的一种横向束流截面超分辨率重建方法,其特征在于,步骤S105所述对所述待处理的低分辨率横向束流截面图像进行预处理,具体为:
将待处理的低分辨率横向束流截面图像的大小进行裁剪,将大小裁剪后的低分辨率横向束流截面图像再进行归一化处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010438573.8A CN111652803B (zh) | 2020-05-22 | 2020-05-22 | 一种横向束流截面超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010438573.8A CN111652803B (zh) | 2020-05-22 | 2020-05-22 | 一种横向束流截面超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111652803A CN111652803A (zh) | 2020-09-11 |
CN111652803B true CN111652803B (zh) | 2023-04-25 |
Family
ID=72348267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010438573.8A Active CN111652803B (zh) | 2020-05-22 | 2020-05-22 | 一种横向束流截面超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111652803B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308781A (zh) * | 2020-11-23 | 2021-02-02 | 中国科学院深圳先进技术研究院 | 一种基于深度学习的单幅图像三维超分辨率重构方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
EP3319039A1 (en) * | 2016-11-07 | 2018-05-09 | UMBO CV Inc. | A method and system for providing high resolution image through super-resolution reconstruction |
CN110570492A (zh) * | 2019-09-11 | 2019-12-13 | 清华大学 | 神经网络训练方法和设备、图像处理方法和设备以及介质 |
-
2020
- 2020-05-22 CN CN202010438573.8A patent/CN111652803B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3319039A1 (en) * | 2016-11-07 | 2018-05-09 | UMBO CV Inc. | A method and system for providing high resolution image through super-resolution reconstruction |
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
CN110570492A (zh) * | 2019-09-11 | 2019-12-13 | 清华大学 | 神经网络训练方法和设备、图像处理方法和设备以及介质 |
Non-Patent Citations (1)
Title |
---|
丁明航 ; 邓然然 ; 邵恒 ; .基于注意力生成对抗网络的图像超分辨率重建方法.计算机系统应用.2020,(02),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111652803A (zh) | 2020-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108765296B (zh) | 一种基于递归残差注意力网络的图像超分辨率重建方法 | |
CN109509152B (zh) | 一种基于特征融合的生成对抗网络的图像超分辨率重建方法 | |
CN111353940B (zh) | 一种基于深度学习迭代上下采样的图像超分辨率重建方法 | |
CN112861729B (zh) | 一种基于伪深度图引导的实时深度补全方法 | |
CN110782395A (zh) | 图像处理方法及装置、电子设备和计算机可读存储介质 | |
CN112862689B (zh) | 一种图像超分辨率重建方法及系统 | |
CN101080747A (zh) | 来自单纯形网格的高质量的精确的曲面三角剖分 | |
CN111652803B (zh) | 一种横向束流截面超分辨率重建方法 | |
CN115100148B (zh) | 一种基于轻量型卷积神经网络的农作物害虫检测方法 | |
CN112241937B (zh) | 一种基于神经网络的高光谱图像重构方法 | |
CN117252761A (zh) | 一种跨传感器遥感图像超分辨率增强方法 | |
CN113435474A (zh) | 一种基于双生成对抗网络的遥感图像融合方法 | |
Wu et al. | A novel perceptual loss function for single image super-resolution | |
CN114677263A (zh) | Ct图像与mri图像的跨模态转换方法和装置 | |
CN111861870B (zh) | 一种面向图像翻译的端到端的并行生成器网络构建方法 | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN113658046B (zh) | 基于特征分离的超分辨率图像生成方法、装置、设备和介质 | |
CN114972033A (zh) | 一种提高光学相干层析图像纵向分辨率的自监督方法 | |
CN113593007B (zh) | 一种基于变分自编码的单视图三维点云重建方法及系统 | |
CN115641263A (zh) | 基于深度学习的单幅电力设备红外图像超分辨率重建方法 | |
Yang et al. | Remote sensing image super‐resolution based on convolutional blind denoising adaptive dense connection | |
CN114529476A (zh) | 基于解耦-融合网络的无透镜全息显微成像相位恢复方法 | |
CN113112585B (zh) | 一种从单幅图像中重建高质量目标三维形状的方法 | |
CN112967184B (zh) | 一种基于双尺度卷积神经网络的超分辨放大方法 | |
CN115278263B (zh) | 一种高效的大数据实时传输方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |