CN113538307B - 基于多视角超分辨深度网络的合成孔径成像方法 - Google Patents

基于多视角超分辨深度网络的合成孔径成像方法 Download PDF

Info

Publication number
CN113538307B
CN113538307B CN202110684742.0A CN202110684742A CN113538307B CN 113538307 B CN113538307 B CN 113538307B CN 202110684742 A CN202110684742 A CN 202110684742A CN 113538307 B CN113538307 B CN 113538307B
Authority
CN
China
Prior art keywords
image
depth network
residual
convolution
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110684742.0A
Other languages
English (en)
Other versions
CN113538307A (zh
Inventor
裴炤
廖心为
金敏
张艳宁
王淼
马苗
武杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN202110684742.0A priority Critical patent/CN113538307B/zh
Publication of CN113538307A publication Critical patent/CN113538307A/zh
Application granted granted Critical
Publication of CN113538307B publication Critical patent/CN113538307B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

一种基于基于多视角超分辨深度网络的合成孔径成像方法,由构建深度网络、获取数据集、训练网络、采集并重建图像、生成合成孔径图像步骤组成,本发明采用特征提取模块进行特征提取;采用特征时序插值模块,根据提取特征图获得插值特征图;采用可变形卷积长短期记忆模块,根据插值特征图获得卷积特征图;采用图像重建模块,根据卷积特征图获取重建后的图像,将Vimeo‑90k数据集划分为训练集和测试集,训练集通过最小化损失函数训练深度网络,将相机阵列采集的图像输入训练后的深度网络,获得深度网络输出图像并合成,提高了合成图像的质量。具有图像处理时间短、运算速度快、结构相似性以及峰值信噪比高、合成的图像质量好等优点,可用于合成孔径成像。

Description

基于多视角超分辨深度网络的合成孔径成像方法
技术领域
本发明属于图像处理技术领域,具体涉及到多视角超分辨深度网络的合成孔径成像方法。
背景技术
合成孔径成像技术使用相机阵列来模拟大型虚拟凸透镜,充分利用相机的多视角信息来获得可以聚焦于图像不同深度的能力。目前在许多研究中使用单相机自标定方法,应用在合成孔径成像中,可以处理明显遮挡。目前的研究中还使用一种基于视差的相机阵列标定方法,同样应用于合成孔径成像中,可以处理明显遮挡。然而使用现有合成孔径成像技术获取的图像质量仍然有待提升,并且在现实情况中无法依靠单一地增加相机数量或性能来提升最终的合成孔径成像质量。另外在现有的超分辨方法中缺少对多尺度特征的关注,不利于对具有多尺度特征的图像进行超分辨处理。
在图像处理技术领域,当前需迫切解决的一个技术问题是对深度网络的合成孔径成像提供一种成像质量好的方法。
发明内容
本发明所要解决的技术问题在于克服上述技术的不足,提供一种合成速度快、图像处理时间短、结构相似性以及峰值信噪比高、合成孔径成像质量好的基于多视角超分辨深度网络的合成孔径成像方法。
解决上述技术问题所采用的技术方案是由以下步骤组成:
(1)构建深度网络
深度网络由2个并联的特征提取模块依次与特征时序插值模块、可变形卷积长短期记忆模块、图像重建模块串联构成。
(2)获取数据集
从Vimeo-90k数据集中选取的场景图像分为训练集、测试集,训练集中的图像幅数与测试集的图像幅数比为9:1。
(3)训练网络
用训练集训练深度网络,将训练集中的场景图像输入特征提取模块,通过特征提取模块获得提取特征图,提取特征图输入特征时序插值模块,通过特征时序插值模块插值获得插值特征图,插值特征图与提取特征图输入可变形卷积长短期记忆模块获得卷积特征图,将卷积特征图输入图像重建模块,通过图像重建模块获得重建图像,完成前向传播;设置深度网络的损失函数loss:
Figure BDA0003124101960000021
式中,Ui表示第i幅真实图像,Gi表示重建后的图像,i∈[1,N],||·||为一范数,α为常数,α取值为1×10-5~1×10-3,采用链式求导法迭代更新深度网络各模块卷积核权重,完成反向传播,使损失函数loss值达到最小,优化深度网络。
(4)采集并重建图像
将相机阵列采集图像输入训练后的深度网络,获得深度网络输出图像Ft,t∈[1,N]。
(5)生成合成孔径图像
将深度网络输出图像Ft按式(2)变换,得到变换后的第t幅仿射图像Wt
Wt=Ht·Ft (2)
Figure BDA0003124101960000022
式中Ht为将输入图像变换到参考视角的第t个最优单映射变换矩阵,t为有限的正整数,将仿射图像Wt按式(3)得到第t幅仿射图像像素平移后的图像Pt
Figure BDA0003124101960000023
Figure BDA0003124101960000024
式中v为单位矩阵,θT为零向量的转置,Δp为横向视差dx和纵向视差dy构成的二维向量,按式(4)得到合成孔径图像中像素e的像素值S(e):
Figure BDA0003124101960000031
式中Pm(q)为第m幅图像中的像素q对应的像素值,m∈[1,N],N是视角数量、为有限的正整数。
在本发明的(1)构建深度网络步骤中,所述的特征提取模块至少包括2个残差块、与残差块个数相同的卷积层、比残差块个数少于1个的采样层连接构成,每1个残差块依次串连,每1个残差块的输出分别通过每1个卷积层与对应的每1个采样层的输入相连,每1个采样层依次串连后与特征时序插值模块的输入相连;最后1个残差块的输出与最后1个卷积层的输入相连,最后1个卷积层的输出与特征时序插值模块的输入相连。
在本发明的(1)构建深度网络步骤中,所述的特征提取模块最佳由4个串连的残差块、4个卷积层、3个采样层连接构成:第一残差块依次与第二残差块、第三残差块、第四残差块串连,第一残差块的输出通过第一卷积层与第一采样层的输入相连,第二残差块的输出通过第二卷积层与第二采样层的输入相连,第三残差块的输出通过第三卷积层与第三采样层的输入相连,第一采样层依次与第二采样层、第三采样层串连后与特征时序插值模块的输入相连;第四残差块的输出与第四卷积层的输入相连,第四卷积层的输出与特征时序插值模块的输入相连。
在本发明的(1)构建深度网络步骤中,所述的第一残差块为:第一残差卷积层与第二残差卷积层串连,第三残差卷积层的输入与第一残差卷积层的输入相连、输出与第二残差卷积层的输出以及第一卷积层的输入相连,第一残差卷积层和第二残差卷积层的尺寸为3×3,第三残差卷积层的尺寸为1×1;所述的第二残差块、第三残差块、第四残差块的结构与第一残差块的结构相同。
由于本发明构建了特征提取模块,并利用该模块进行特征提取;采用特征时序插值模块,根据提取特征图获得插值特征图;采用可变形卷积长短期记忆模块,根据插值特征图获得卷积特征图;采用图像重建模块,根据卷积特征图获取重建后的图像,将Vimeo-90k数据集划分为训练集和测试集,训练集通过最小化损失函数训练深度网络,将相机阵列采集的图像输入训练后的深度网络,获得深度网络输出图像,并进行合成,提高了合成图像的质量。与现有的方法相比,本发明缩短了图像处理时间,提高了运算速度和结构相似性以及峰值信噪比。本发明具有图像处理时间短、运算速度快、结构相似性以及峰值信噪比高、合成的图像质量好等优点,可用于合成孔径成像。
附图说明
图1是本发明实施例1的流程图。
图2是图1中深度网络的结构示意图。
图3是图2中特征提取模块的结构示意图。
图4是图3中残差块的结构示意图。
具体实施方式
下面结合附图和实施例对本发明进一步详细说明,但本发明不限于下述的实施方式。
实施例1
本实施例的基于多视角超分辨深度网络的合成孔径成像方法由下述步骤组成(参见图1):
(1)构建深度网络
在图2中,本实施例的深度网络由2个并联的特征提取模块依次与特征时序插值模块、可变形卷积长短期记忆模块、图像重建模块串联构成。
图3给出了特征提取模块的结构示意图。在图3中,本实施例的特征提取模块由4个串连的残差块、4个卷积层、3个采样层连接构成:第一残差块依次与第二残差块、第三残差块、第四残差块串连,第一残差块的输出通过第一卷积层与第一采样层的输入相连,第二残差块的输出通过第二卷积层与第二采样层的输入相连,第三残差块的输出通过第三卷积层与第三采样层的输入相连,第一采样层依次与第二采样层、第三采样层串连后与特征时序插值模块的输入相连。第四残差块的输出与第四卷积层的输入相连,第四卷积层的输出与特征时序插值模块的输入相连。
图4给出了图3中第一残差块的结构示意图。在图4中,本实施例的第一残差块为:第一残差卷积层与第二残差卷积层串连,第三残差卷积层的输入与第一残差卷积层的输入相连、输出与第二残差卷积层的输出以及第一卷积层的输入相连,第一残差卷积层和第二残差卷积层的尺寸为3×3,第三残差卷积层的尺寸为1×1。
第二残差块、第三残差块、第四残差块的结构与第一残差块的结构相同。
(2)获取数据集
从Vimeo-90k数据集中选取的场景图像分为训练集、测试集,训练集中的图像幅数与测试集的图像幅数比为9:1。
(3)训练网络
用训练集训练深度网络,将训练集中的场景图像输入特征提取模块,通过特征提取模块获得提取特征图,提取特征图输入特征时序插值模块,通过特征时序插值模块插值获得插值特征图,插值特征图与提取特征图输入可变形卷积长短期记忆模块获得卷积特征图,将卷积特征图输入图像重建模块,通过图像重建模块获得重建图像,完成前向传播;设置深度网络的损失函数loss:
Figure BDA0003124101960000051
式中Ui表示第i幅真实图像,Gi表示重建后的图像,i∈[1,N],本实施例的N取值为8,即i∈[1,8],||·||为一范数,α为常数,α取值为1×10-5~1×10-3,本实施例的α取值为1×10-4,采用链式求导法迭代更新深度网络各模块卷积核权重,完成反向传播,使损失函数loss值达到最小,优化深度网络。
(4)采集并重建图像
将相机阵列采集图像输入训练后的深度网络,获得深度网络输出图像Ft,t∈[1,N]本实施例的t取值为8,即t∈[1,8]。
(5)生成合成孔径图像
将深度网络输出图像Ft按式(2)变换,得到变换后的第t幅仿射图像Wt
Wt=Ht·Ft (2)
Figure BDA0003124101960000052
式中Ht为将输入图像变换到参考视角的第t个最优单映射变换矩阵,t为有限的正整数,本实施例的t取值为8,将仿射图像Wt按式(3)得到第t幅仿射图像像素平移后的图像Pt
Figure BDA0003124101960000053
Figure BDA0003124101960000054
式中v为单位矩阵,θT为零向量的转置,Δp为横向视差dx和纵向视差dy构成的二维向量,按式(4)得到合成孔径图像中像素e的像素值S(e):
Figure BDA0003124101960000061
式中Pm(q)为第m幅图像中的像素q对应的像素值,m∈[1,N],N是视角数量、为有限的正整数,本实施例的N取值为8,即m∈[1,8]。
完成基于多视角超分辨深度网络的合成孔径成像方法。
实施例2
本实施例的基于多视角超分辨深度网络的合成孔径成像方法由下述步骤组成:
(1)构建深度网络
该步骤与实施例1相同。
(2)获取数据集
该步骤与实施例1相同。
(3)训练网络
用训练集训练深度网络,将训练集中的场景图像输入特征提取模块,通过特征提取模块获得提取特征图,提取特征图输入特征时序插值模块,通过特征时序插值模块插值获得插值特征图,插值特征图与提取特征图输入可变形卷积长短期记忆模块获得卷积特征图,将卷积特征图输入图像重建模块,通过图像重建模块获得重建图像,完成前向传播;设置深度网络的损失函数loss:
Figure BDA0003124101960000062
式中Ui表示第i幅真实图像,Gi表示重建后的图像,i∈[1,N],本实施例的N取值为8,即i∈[1,8],||·||为一范数,α为常数,α取值为1×10-5~1×10-3,本实施例的α取值为1×10-5,采用链式求导法迭代更新深度网络各模块卷积核权重,完成反向传播,使损失函数loss值达到最小,优化深度网络。
其它步骤与实施例1相同。完成基于多视角超分辨深度网络的合成孔径成像方法。
实施例3
本实施例的基于多视角超分辨深度网络的合成孔径成像方法由下述步骤组成:
(1)构建深度网络
该步骤与实施例1相同。
(2)获取数据集
该步骤与实施例1相同。
(3)训练网络
用训练集训练深度网络,将训练集中的场景图像输入特征提取模块,通过特征提取模块获得提取特征图,提取特征图输入特征时序插值模块,通过特征时序插值模块插值获得插值特征图,插值特征图与提取特征图输入可变形卷积长短期记忆模块获得卷积特征图,将卷积特征图输入图像重建模块,通过图像重建模块获得重建图像,完成前向传播;设置深度网络的损失函数loss:
Figure BDA0003124101960000071
式中Ui表示第i幅真实图像,Gi表示重建后的图像,i∈[1,N],本实施例的N取值为8,即i∈[1,8],||·||为一范数,α为常数,α取值为1×10-5~1×10-3,本实施例的α取值为1×10-3,采用链式求导法迭代更新深度网络各模块卷积核权重,完成反向传播,使损失函数loss值达到最小,优化深度网络。
其它步骤与实施例1相同。完成基于多视角超分辨深度网络的合成孔径成像方法。
实施例4
在以上的实施例1~3中,本实施例的基于多视角超分辨深度网络的合成孔径成像方法由下述步骤组成:
(1)构建深度网络
本实施例的深度网络由2个并联的特征提取模块依次与特征时序插值模块、可变形卷积长短期记忆模块、图像重建模块串联构成。
本实施例的特征提取模块由2个串连的残差块、2个卷积层、1个采样层连接构成。第一残差块与第二残差块串连,第一残差块的输出通过第一卷积层与第一采样层的输入相连,第一采样层的输出与特征时序插值模块的输入相连;第二残差块的输出与第二卷积层输入相连,第二卷积层输出与特征时序插值模块的输入相连。
残差块的结构与实施例1相同。
其它步骤与相应的实施例相同。完成基于多视角超分辨深度网络的合成孔径成像方法。

Claims (3)

1.一种基于多视角超分辨深度网络的合成孔径成像方法,其特征在于由以下步骤组成:
(1)构建深度网络
深度网络由2个并联的特征提取模块依次与特征时序插值模块、可变形卷积长短期记忆模块、图像重建模块串联构成;
所述的特征提取模块至少包括2个残差块、与残差块个数相同的卷积层、比残差块个数少于1个的采样层连接构成,每1个残差块依次串连,每1个残差块的输出分别通过每1个卷积层与对应的每1个采样层的输入相连,每1个采样层依次串连后与特征时序插值模块的输入相连;最后1个残差块的输出与最后1个卷积层的输入相连,最后1个卷积层的输出与特征时序插值模块的输入相连;
(2)获取数据集
从Vimeo-90k数据集中选取的场景图像分为训练集、测试集,训练集中的图像幅数与测试集的图像幅数比为9:1;
(3)训练网络
用训练集训练深度网络,将训练集中的场景图像输入特征提取模块,通过特征提取模块获得提取特征图,提取特征图输入特征时序插值模块,通过特征时序插值模块插值获得插值特征图,插值特征图与提取特征图输入可变形卷积长短期记忆模块获得卷积特征图,将卷积特征图输入图像重建模块,通过图像重建模块获得重建图像,完成前向传播;设置深度网络的损失函数loss:
Figure FDA0004208165820000011
式中,Ui表示第i幅真实图像,Gi表示重建后的图像,i∈[1,N],||·||为一范数,α为常数,α取值为1×10-5~1×10-3,采用链式求导法迭代更新深度网络各模块卷积核权重,完成反向传播,使损失函数loss值达到最小,优化深度网络;
(4)采集并重建图像
将相机阵列采集图像输入训练后的深度网络,获得深度网络输出图像Ft,t∈[1,N];
(5)生成合成孔径图像
将深度网络输出图像Ft按式(2)变换,得到变换后的第t幅仿射图像Wt
Wt=Hj·Ft (2)
Figure FDA0004208165820000021
式中Hj为将输入图像变换到参考视角的第j个最优单映射变换矩阵,j为有限的正整数,将仿射图像Wt按式(3)得到第t幅仿射图像像素平移后的图像Pt
Figure FDA0004208165820000022
Figure FDA0004208165820000023
式中v为单位矩阵,θT为零向量的转置,Δp为横向视差dx和纵向视差dy构成的二维向量,按式(4)得到合成孔径图像中像素e的像素值Se:
Figure FDA0004208165820000024
式中Pm(q)为第m幅图像中的像素q对应的像素值,m∈[1,N],N是视角数量、为有限的正整数。
2.根据权利要求1所述的基于多视角超分辨深度网络的合成孔径成像方法,其特征在于:在(1)构建深度网络步骤中,所述的特征提取模块由4个串连的残差块、4个卷积层、3个采样层连接构成:第一残差块依次与第二残差块、第三残差块、第四残差块串连,第一残差块的输出通过第一卷积层与第一采样层的输入相连,第二残差块的输出通过第二卷积层与第二采样层的输入相连,第三残差块的输出通过第三卷积层与第三采样层的输入相连,第一采样层依次与第二采样层、第三采样层串连后与特征时序插值模块的输入相连;第四残差块的输出与第四卷积层的输入相连,第四卷积层的输出与特征时序插值模块的输入相连。
3.根据权利要求2所述的基于多视角超分辨深度网络的合成孔径成像方法,其特征在于在(1)构建深度网络步骤中,所述的第一残差块为:第一残差卷积层与第二残差卷积层串连,第三残差卷积层的输入与第一残差卷积层的输入相连、输出与第二残差卷积层的输出以及第一卷积层的输入相连,第一残差卷积层和第二残差卷积层的尺寸为3×3,第三残差卷积层的尺寸为1×1;所述的第二残差块、第三残差块、第四残差块的结构与第一残差块的结构相同。
CN202110684742.0A 2021-06-21 2021-06-21 基于多视角超分辨深度网络的合成孔径成像方法 Active CN113538307B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110684742.0A CN113538307B (zh) 2021-06-21 2021-06-21 基于多视角超分辨深度网络的合成孔径成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110684742.0A CN113538307B (zh) 2021-06-21 2021-06-21 基于多视角超分辨深度网络的合成孔径成像方法

Publications (2)

Publication Number Publication Date
CN113538307A CN113538307A (zh) 2021-10-22
CN113538307B true CN113538307B (zh) 2023-06-20

Family

ID=78096341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110684742.0A Active CN113538307B (zh) 2021-06-21 2021-06-21 基于多视角超分辨深度网络的合成孔径成像方法

Country Status (1)

Country Link
CN (1) CN113538307B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047038A (zh) * 2019-02-27 2019-07-23 南京理工大学 一种基于层级递进网络的单图像超分辨重建方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103675817B (zh) * 2013-11-21 2015-10-21 中国科学院电子学研究所 一种基于变换域稀疏的合成孔径雷达侧视三维成像方法
CN106846253A (zh) * 2017-02-14 2017-06-13 深圳市唯特视科技有限公司 一种基于反向传播神经网络的图像超分辨率重建方法
CN108074218B (zh) * 2017-12-29 2021-02-23 清华大学 基于光场采集装置的图像超分辨率方法及装置
CN108364345B (zh) * 2018-02-11 2021-06-15 陕西师范大学 基于像素标记和合成孔径成像的遮挡目标三维重建方法
CN108427961B (zh) * 2018-02-11 2020-05-29 陕西师范大学 基于卷积神经网络的合成孔径聚焦成像深度评估方法
CN108805814B (zh) * 2018-06-07 2020-05-19 西安电子科技大学 基于多频段深度卷积神经网络的图像超分辨重建方法
CN109064396B (zh) * 2018-06-22 2023-04-07 东南大学 一种基于深度成分学习网络的单幅图像超分辨率重建方法
CN110163802B (zh) * 2019-05-20 2020-09-01 电子科技大学 一种基于神经网络的sar图像超分辨方法
CN110675321A (zh) * 2019-09-26 2020-01-10 兰州理工大学 一种基于渐进式的深度残差网络的超分辨率图像重建方法
CN110568442B (zh) * 2019-10-15 2021-08-20 中国人民解放军国防科技大学 一种基于对抗外推神经网络的雷达回波外推方法
CN111369466B (zh) * 2020-03-05 2023-06-16 福建帝视信息科技有限公司 基于可变形卷积的卷积神经网络的图像畸变矫正增强方法
CN112750076B (zh) * 2020-04-13 2022-11-15 奕目(上海)科技有限公司 一种基于深度学习的光场多视角图像超分辨率重建方法
CN111754403B (zh) * 2020-06-15 2022-08-12 南京邮电大学 一种基于残差学习的图像超分辨率重构方法
CN111948652B (zh) * 2020-07-17 2023-05-05 北京理工大学 一种基于深度学习的sar智能参数化超分辨成像方法
CN112270644B (zh) * 2020-10-20 2024-05-28 饶金宝 基于空间特征变换和跨尺度特征集成的人脸超分辨方法
CN112734644A (zh) * 2021-01-19 2021-04-30 安徽工业大学 一种多个注意力结合光流的视频超分辨模型及方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047038A (zh) * 2019-02-27 2019-07-23 南京理工大学 一种基于层级递进网络的单图像超分辨重建方法

Also Published As

Publication number Publication date
CN113538307A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
Chen et al. Real-world single image super-resolution: A brief review
CN110461228B (zh) 使用多对比度和深度学习改进医学图像的质量
CN109697697B (zh) 基于优化启发的神经网络的光谱成像系统的重构方法
CN108257089B (zh) 一种基于迭代最近点的大视场视频全景图拼接的方法
Ruan et al. Aifnet: All-in-focus image restoration network using a light field-based dataset
CN112102173B (zh) 光场图像角度超分辨率重建方法
CN114746895A (zh) 用于图像去噪的噪声重构
CN109886898B (zh) 基于优化启发的神经网络的光谱成像系统的成像方法
CN113538243B (zh) 基于多视差注意力模块组合的超分辨图像重建方法
Guan et al. Srdgan: learning the noise prior for super resolution with dual generative adversarial networks
Majumdar et al. Algorithms to approximately solve NP hard row-sparse MMV recovery problem: Application to compressive color imaging
CN116486074A (zh) 一种基于局部和全局上下文信息编码的医学图像分割方法
de Stoutz et al. Fast perceptual image enhancement
Yanshan et al. OGSRN: Optical-guided super-resolution network for SAR image
CN113379606B (zh) 一种基于预训练生成模型的人脸超分辨方法
CN114359041A (zh) 一种光场图像空间超分辨率重建方法
CN113538307B (zh) 基于多视角超分辨深度网络的合成孔径成像方法
CN116071239B (zh) 一种基于混合注意力模型的ct图像超分辨方法和装置
CN111696167A (zh) 自范例学习引导的单张影像超分辨率重构方法
CN116823610A (zh) 一种基于深度学习的水下图像超分辨率生成方法和系统
CN116245968A (zh) 基于Transformer的LDR图像生成HDR图像的方法
CN114463176B (zh) 基于改进esrgan的图像超分辨重建方法
CN113205005B (zh) 一种面向低光照低分辨率的人脸图像幻构方法
CN114708281B (zh) 基于自适应非局部特征融合网络的图像压缩感知重建方法
CN112184850B (zh) 图像处理方法、装置、控制台设备及ct系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant