CN117522692A - 一种基于无监督学习的低分辨率钻孔图像超分方法 - Google Patents

一种基于无监督学习的低分辨率钻孔图像超分方法 Download PDF

Info

Publication number
CN117522692A
CN117522692A CN202311573949.6A CN202311573949A CN117522692A CN 117522692 A CN117522692 A CN 117522692A CN 202311573949 A CN202311573949 A CN 202311573949A CN 117522692 A CN117522692 A CN 117522692A
Authority
CN
China
Prior art keywords
image
module
feature
resolution
granularity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311573949.6A
Other languages
English (en)
Inventor
陈佳
徐学平
胡新荣
方菲
李赵勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Textile University
Original Assignee
Wuhan Textile University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Textile University filed Critical Wuhan Textile University
Priority to CN202311573949.6A priority Critical patent/CN117522692A/zh
Publication of CN117522692A publication Critical patent/CN117522692A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于无监督学习的低分辨率钻孔图像超分方法,本发明提出了一个用于低分辨率钻孔图像连续超分的盲图像超分扩散模型BL‑SR3,通过粗粒度的DNCNN模型和细粒度的MCU‑Net模型进行图像超分,在真实图像的基础上,用于单图像盲超分。在不同的模型和训练集大小下,对真实图像的超分优于其他方法。本发明结合了多粒度注意力机制,可以将特征图划分为不同大小的空间区域,分别计算出相应的注意力权重并进行信息聚合,在特征图增大时能够节省相当多的计算资源,并且能够在不同的领域模块下提取出不同的特征点显著性信息,使用缩放因子s作为扩散过程的条件来使放大倍率具有连续的分辨率,更能够获取高分辨率图像。

Description

一种基于无监督学习的低分辨率钻孔图像超分方法
技术领域
本发明涉及图像处理方法领域,具体涉及的是一种基于无监督学习的低分辨率钻孔图像超分方法。
背景技术
低分辨率钻孔图像超分(Low resolution image super resolution钻孔图像超分,LRISR)用于获得完整的钻孔内壁高分辨率图像,对于岩土工程中的安全分析和自然灾害防治以及智能地质勘探具有重要意义。给定一个钻孔视频序列,将每一帧图像展开成矩形图像,最后通过特征匹配和加噪去噪操作将图像超分成清晰的内墙扩展图。但由于低分辨率的钻孔图像本身模糊不清,光照强度变化较大,多倍率超分结果导致效果不理想,甚至达到了无法超分的情况。因此,LRISR仍然是尚未完全解决的问题。本专利是为了解决低分辨率钻孔图像不清晰问题,结合扩散模型,提高图像分辨率。
发明内容
本发明要解决的技术问题是针对以上问题和要求,提供一种基于无监督学习的低分辨率钻孔图像超分方法。
为解决以上技术问题,本发明采用以下技术方案:
一种基于无监督学习的低分辨率钻孔图像超分方法,包括以下步骤:
步骤1、采集钻孔图像,并将钻孔图像以经纬度为标准,将圆形孔图像沿着一条半径展开,得到一幅矩形钻孔图像LR;
步骤2、利用EDSR模型学习低分辨率和高分辨率图像之间的映射关系,利用金字塔稠密注意力模块恢复LR图像中丢失的细节和纹理后得到图像blur;
步骤3、对图像blur进行特征提取,得到特征图,并将特征图输送到扩散模型的多粒度注意力机制和条件去噪模块;
步骤4、多粒度注意力机制输出不同模块大小下的注意力调整特征融合后的特征图,条件去噪模块利用改良后的DNCNN模块和MCU-NET模块分别进行粗粒度和细粒度的去噪,得到去噪后的特征图;
步骤5、将多粒度注意力机制输出的特征图与条件去噪模块去噪后的特征图进行融合叠加,得到同时保留了多粒度注意力机制和条件去噪模块处理效果的图像,即为超分结果图像SR。
进一步的,步骤4中,多粒度注意力机制首先在每个分支中将特征图分别均匀地划分为S×S的空间区域,然后将每个区域分别传递到模块SE的通道注意力中,依次经过特征平均池化,两个1×1卷积的信息交互以及Sigmoid激活获得相应的通道调整权重,最后,每个空间位置在不同领域模块大小下的调整特征被级联融合,得到融合后的特征图。
进一步的,所述多粒度注意力机制的工作过程具体包括以下步骤:
步骤4.1、计算S对应不同数值时,即不同模块大小下的注意力调整特征:
当S=1时,直接将特征图输入到通道注意力模块fSE(.)中,实现特征的调整,即,得到S=1条件下的输出结果
当S=2时,先将特征图平均地划分成2×2个区域,得到X1,X2,X3,X4四个特征块,然后将这四个特征块Xi(i=1,2,3,4)分别被传递到注意力模块fSE(.)中得到相应的加权调整特征最后再将这四个调整特征重新组合/>为/>得到的/>与原来的特征图X大小一致;具体公式为:
其中[]表示的是特征组合操作;
当S=4时,先将输入特征平均地划分为4×4区域,得到X1,X2,…,X15,X16十六个特征块,然后将这些特征块分别传递到fSE(.)中得到相应的加权调整特征,随后再将其重新组合恢复成原来的特征图大小,公式如下:
当S=8时,先将输入特征平均地划分为8×8区域,得到X1,X2,…,X63,X64六十四个特征块,然后将这些特征块分别传递到fSE(.)中得到相应的加权调整特征,随后再将其重新组合恢复成原来的特征图大小,公式如下:
步骤4.2、采用1×1卷积的方法将四种不同模块大小下的注意力调整特征进行融合,得到融合后的特征图
其中w1×1与b1×1分别表示1×1卷积的权重与偏置项。
进一步的,所述步骤4中,改良后的DNCNN模块的是通过增加原有的DNCNN网络的深度,即在原有的基础上增加两层后卷积层后得到,所述MCU-NET模块采用交叉熵损失,通过最小化交叉熵损失,调整条件去噪模块的权重和偏差。
本发明采用以上技术方案后,与现有技术相比,具有以下优点:
1.本发明提出了一个用于低分辨率钻孔图像连续超分的盲图像超分扩散模型BL-SR3,通过粗粒度的DNCNN模型和细粒度的MCU-Net模型进行图像超分,在真实图像的基础上,用于单图像盲超分。在不同的模型和训练集大小下,对真实图像的超分优于其他方法。
2.本发明结合了多粒度注意力机制,通道注意力忽视了空间位置的相关信息,而空间注意力的逐特征点计算方式会浪费较多的计算资源,而多粒度注意力机制可以将特征图划分为不同大小的空间区域,分别计算出相应的注意力权重并进行信息聚合。在特征图增大时能够节省相当多的计算资源,并且能够在不同的领域模块下提取出不同的特征点显著性信息。
3.本发明使用缩放因子s作为扩散过程的条件来使放大倍率具有连续的分辨率,调整网络的原始输入信息与去噪网络的输出信息的比值,相比于其他方法,更能够获取高分辨率(HR)图像。
下面结合附图和实施例对本发明进行详细说明。
附图说明
图1为本发明的总体技术方案示意图;
图2为多粒度注意力机制工作流程示意图;
图3为不同工程场地的井眼数据集。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
一、本项目的总体技术方案如图1所示,具体如下叙述:
1.本项目的框架为一个改良的Diffusion Model框架,通过Diffusion Model框架对输入的低分辨率LR图像进行超分,从而得到超分辨率SR图像。
2.首先我们将钻孔图像预处理,每一帧分割成图像,以经纬度为标准,展开圆形图像,得到一幅矩形钻孔图像。将矩形图像展开得到原始图像进行训练,将原始图像下采样得到高分辨率图像,得到图像对HR-XP,生成相应的低分辨率输入。
3.然后经过特征处理提取网络得到待超分的钻孔图像的特征图。BL-SR3是一种用于盲图像超分辨率的自监督扩散模型。在BL-SR3中,在输入X图像后,使用EDSR模型,通过学习低分辨率和高分辨率图像之间的映射关系,恢复图像中丢失的细节和纹理,然后将图像blur进行特征提取。将特征图传输到连续超分辨率的盲图像超分的扩散模型中,分别经过多粒度注意力机制进行特征提取,DNCNN、MCU-NET模块进行去噪,然后将它们的输出级联在一起。两个操作的结果都被保留下来,级联操作最终得到超分结果图像。
二、实现方法
本发明了设计了一种新的名为BL-SR3的扩散模型,分为三个部分:1.LR图像特征提取;2.多粒度注意力机制;3.条件去噪扩散模块。
2.1LR图像特征提取
为了获取低分辨率图像的特征,首先我们对图像进行预处理,使用滤波器去除图像中的噪声。特征提取过程是在低分辨率空间进行。首先将低分辨率图像输入到一个3*3卷积层来提取图像的初始特征信息,公式为:
F0=P0(ILR)
其中F0表示一个3×3的卷积层,然后初始特征被输入到一系列金字塔稠密注意力模块中,可以进一步地提取深层次地特征信息
F0=PD(PD-1(…P1(F0)))
其中Pd(d=1,2,…,D)表示第d个PDAB模块。随后进行残差跳跃链接,最后再利用亚像素卷积(Sub-Pixel Convolution)与3×3卷积实现特征的上采样和图像的超分辨率重构。低分辨率输入图像ILR与超分辨率重构图像ISR之间的关系可以表示为
ISR=FPDAN(ILR,θ)=FUP(Fe(ILR))
其中FPDAN表示所提的金字塔稠密注意力网络函数,θ是网络学习的参数,Fe指的是特征提取步骤,FUP是上采样重构部分。
恢复图像中丢失的细节和纹理使用金字塔稠密注意力模块(PDAB),主要有两部分组成:(1)金字塔稠密连接结构,(2)联合注意力机制(Joint Attention,JA)。此外,为了进一步提高网络的学习效率,在每个PDAB模块中均采用了残差学习策略。假设Hd-1与Hd分別表示第d个金字塔稠密注意力模块的特征输入与输出,它们之间的关系表示如下:
Hd=Hd-1+Pd(Hd-1)
其中Pd表示所提第d个PDAB模块的映射函数。同时,在每个PDAB模块的最后位置均添加了一个1x1卷积层来保证网络输出的特征维数与输入维数是一样的,从而有利于残差相加。
2.2多粒度注意力机制
如图2所示,首先在每个分支中将特征图分别均匀地划分为S×S的空间区域(实验中将S设置为1,2,4,8)。然后将每个区域分别传递到模块SE的通道注意力中,依次经过特征平均池化,两个1×1卷积的信息交互以及Sigmoid激活获得相应的通道调整权重。最后,每个空间位置在不同领域模块大小下的调整特征被级联融合,进而实现模型鉴别性表示能力的进一步增强。
具体的,当S=1时,直接将特征图输入到上述的通道注意力模块fSE(.)中,实现特征的调整,即
当S=2时,所提处的方法首先将特征图平均地划分成2×2区域(即:X1,X2,X3,X4),然后这四个区域Xi(i=1,2,3,4)分别被传递到上述的注意力模块fSE(.)中得到相应的加权调整特征最后再将这四个调整特征重新组合/>为/>它与原来的特征图X大小一致。具体公式可以表示为:
其中[……]表示的是特征组合步骤。
当S=4时,类似于S=2的情况,所提算法首先将输入特征平均地划分为4×4区域(即:X1,X2,…,X15,X16),然后将这些特征块分别传递到fSE(.)中得到相应的加权调整特征,随后再将其重新组合恢复成原来的特征图大小,公式如下:
当S=8时,类似于S=4的情况,所提算法首先将输入特征平均地划分为8×8区域(即:X1,X2,…,X63,X64),然后将这些特征块分别传递到fSE(.)中得到相应的加权调整特征,随后再将其重新组合恢复成原来的特征图大小,公式如下:
随后,采用1×1卷积的方法将四种不同模块大小下的注意力调整特征进行融合,
实现进一步的特征提取,
其中w1×1与b1×1分别表示1×1卷积的权重与偏置项。
每个多粒度注意力模块的输出特征都被传递到网络的卷积层来实现全局信息的融合。在上采样模块中,利用ESPCNN进行上采样操作。在网络的最后,多粒度注意力模块利用3个3×3卷积滤波器来重构出所需要的高分辨率图像。
2.3条件去噪扩散模块
条件去噪扩散模块作为一种图像去噪的深度学习模块,通过充分利用上下文信息,结合了条件信息和扩散过程,用于去噪图像。这样的模块可以接受带有噪声的图像和条件信息(干净图像或其他上下文信息),然后通过扩散过程来逐渐去除图像中的噪声,同时利用条件信息来指导去噪过程。在条件去噪中,可以使用其他相关信息来帮助网络去除噪声。这些条件信息可以是原始图像的特定部分,标签信息,或其他额外信息。条件去噪可以提高去噪的效果,因为它让模型了解图像中的上下文和语义信息。
多粒度注意力机制得到特征图,通过条件去噪扩散模块中的卷积层提取图像的特征,每一个卷积层都会生成一组特征图,这些特征图可以捕捉到图像在S=1,2,4,8上的抽象特征(边缘、纹理、形状)。然后进行特征图融合,通过将高层特征和底层特征结合在一起,融合成不同层次的语义信息,可以获取更加丰富和全局的语义信息。
通过上采样获得高分辨率HR图像,通过改良后的DNCNN模块(增加DNCNN的网络的深度,在原来的基础上增加两层,更深的网络有助于学习更复杂的特征,能够在去噪时预测边缘噪声,有效去除多余的边缘信息,性能更优。)和MCU-NET模块(优化损失函数,使用交叉熵损失,通过最小化交叉熵损失,模型会逐渐调整权重和偏差,使得预测结果更接近真实标签,从而提高模型的准确性。)分别进行粗粒度和细粒度的去噪,从而获得超分SR图像。
本发明相较过往的方法,使用了扩散模型来对低分辨率的钻孔图像进行超分辨率重建,在超分辨率能力上带来了更大的改进。此外,使用了多粒度注意力机制,在特征图增大时能够节省相当多的计算资源,并且能够在不同的领域模块下提取出不同的特征点显著性信息。
在本发明的扩散模型中,针对不同的特征采取了特征提取方法,条件去噪扩散模块将低分辨率的钻孔图像中的图像细节退化,颜色失真,噪声严重等问题进行了改进,解决了严重影响图像美学质量和下游高层视觉任务的问题。
三、钻孔图像
如图3所示,该实例采集了不同工程场地的图像共15万张,如花岗岩钻孔图像2.6万张、煤炭勘探钻孔图像2.1万张、朵坝电站岩样钻孔图像5.6万张,作为分辨率为480p和720p的数据集。
以上所述为本发明最佳实施方式的举例,其中未详细述及的部分均为本领域普通技术人员的公知常识。本发明的保护范围以权利要求的内容为准,任何基于本发明的技术启示而进行的等效变换,也在本发明的保护范围之内。

Claims (4)

1.一种基于无监督学习的低分辨率钻孔图像超分方法,其特征在于,包括以下步骤:
步骤1、采集钻孔图像,并将钻孔图像以经纬度为标准,将圆形孔图像沿着一条半径展开,得到一幅矩形钻孔图像LR;
步骤2、利用EDSR模型学习低分辨率和高分辨率图像之间的映射关系,利用金字塔稠密注意力模块恢复LR图像中丢失的细节和纹理后得到图像blur;
步骤3、对图像blur进行特征提取,得到特征图,并将特征图输送到扩散模型的多粒度注意力机制和条件去噪模块;
步骤4、多粒度注意力机制输出不同模块大小下的注意力调整特征融合后的特征图,条件去噪模块利用改良后的DNCNN模块和MCU-NET模块分别进行粗粒度和细粒度的去噪,得到去噪后的特征图;
步骤5、将多粒度注意力机制输出的特征图与条件去噪模块去噪后的特征图进行融合叠加,得到同时保留了多粒度注意力机制和条件去噪模块处理效果的图像,即为超分结果图像SR。
2.根据权利要求1所述的基于无监督学习的低分辨率钻孔图像超分方法,其特征在于,步骤4中,多粒度注意力机制首先在每个分支中将特征图分别均匀地划分为S×S的空间区域,然后将每个区域分别传递到模块SE的通道注意力中,依次经过特征平均池化,两个1×1卷积的信息交互以及Sigmoid激活获得相应的通道调整权重,最后,每个空间位置在不同领域模块大小下的调整特征被级联融合,得到融合后的特征图。
3.根据权利要求1所述的基于无监督学习的低分辨率钻孔图像超分方法,其特征在于,所述多粒度注意力机制的工作过程具体包括以下步骤:
步骤4.1、计算S对应不同数值时,即不同模块大小下的注意力调整特征:
当S=1时,直接将特征图输入到通道注意力模块fSE(.)中,实现特征的调整,即,得到S=1条件下的输出结果
当S=2时,先将特征图平均地划分成2×2个区域,得到X1,X2,X3,X4四个特征块,然后将这四个特征块Xi(i=1,2,3,4)分别被传递到注意力模块fSE(.)中得到相应的加权调整特征最后再将这四个调整特征重新组合/>为/>得到的/>与原来的特征图X大小一致;具体公式为:
其中[]表示的是特征组合操作;
当S=4时,先将输入特征平均地划分为4×4区域,得到X1,X2,…,X15,X16十六个特征块,然后将这些特征块分别传递到fSE(.)中得到相应的加权调整特征,随后再将其重新组合恢复成原来的特征图大小,公式如下:
当S=8时,先将输入特征平均地划分为8×8区域,得到X1,X2,…,X63,X64六十四个特征块,然后将这些特征块分别传递到fSE(.)中得到相应的加权调整特征,随后再将其重新组合恢复成原来的特征图大小,公式如下:
步骤4.2、采用1×1卷积的方法将四种不同模块大小下的注意力调整特征进行融合,得到融合后的特征图
其中w1×1与b1×1分别表示1×1卷积的权重与偏置项。
4.根据权利要求1所述的基于无监督学习的低分辨率钻孔图像超分方法,其特征在于,所述步骤4中,改良后的DNCNN模块是通过增加原有的DNCNN网络的深度,即在原有的基础上增加两层卷积层后得到的,所述MCU-NET模块采用交叉熵损失,通过最小化交叉熵损失,调整条件去噪模块的权重和偏差。
CN202311573949.6A 2023-11-23 2023-11-23 一种基于无监督学习的低分辨率钻孔图像超分方法 Pending CN117522692A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311573949.6A CN117522692A (zh) 2023-11-23 2023-11-23 一种基于无监督学习的低分辨率钻孔图像超分方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311573949.6A CN117522692A (zh) 2023-11-23 2023-11-23 一种基于无监督学习的低分辨率钻孔图像超分方法

Publications (1)

Publication Number Publication Date
CN117522692A true CN117522692A (zh) 2024-02-06

Family

ID=89752844

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311573949.6A Pending CN117522692A (zh) 2023-11-23 2023-11-23 一种基于无监督学习的低分辨率钻孔图像超分方法

Country Status (1)

Country Link
CN (1) CN117522692A (zh)

Similar Documents

Publication Publication Date Title
US11928792B2 (en) Fusion network-based method for image super-resolution and non-uniform motion deblurring
CN111028177B (zh) 一种基于边缘的深度学习图像去运动模糊方法
CN111709895A (zh) 基于注意力机制的图像盲去模糊方法及系统
CN111179167A (zh) 一种基于多阶段注意力增强网络的图像超分辨方法
CN112801901A (zh) 基于分块多尺度卷积神经网络的图像去模糊算法
CN111696033B (zh) 基于角点引导级联沙漏网络结构学习的真实图像超分辨率模型及方法
CN110942424A (zh) 一种基于深度学习的复合网络单图像超分辨率重建方法
CN101635047A (zh) 基于小波变换的纹理合成图像修复方法
CN109034198B (zh) 基于特征图恢复的场景分割方法和系统
CN112669214B (zh) 一种基于交替方向乘子算法的模糊图像超分辨率重建方法
CN111768340A (zh) 一种基于密集多路径网络的超分辨图像重构方法和系统
CN103971354A (zh) 低分辨率红外图像重建高分辨率红外图像的方法
He et al. Remote sensing image super-resolution using deep–shallow cascaded convolutional neural networks
CN112001843A (zh) 一种基于深度学习的红外图像超分辨率重建方法
CN116152120A (zh) 一种融合高低频特征信息的低光图像增强方法及装置
CN116029902A (zh) 一种基于知识蒸馏的无监督真实世界图像超分辨方法
CN106910215A (zh) 一种基于分数阶梯度插值的超分辨率方法
CN116777764A (zh) 一种基于扩散模型的光学遥感图像去云雾方法及系统
CN115526779A (zh) 一种基于动态注意力机制的红外图像超分辨率重建方法
Zhang et al. SDBAD-Net: A spatial dual-branch attention dehazing network based on meta-former paradigm
CN111242999A (zh) 基于上采样及精确重匹配的视差估计优化方法
Lin et al. A Deep Neural Network Based on Prior Driven and Structural-Preserving for SAR Image Despeckling
Wang et al. Lightweight feedback convolution neural network for remote sensing images super-resolution
CN117274059A (zh) 基于图像编码-解码的低分辨率图像重构方法及其系统
CN100382567C (zh) 从因隔行采样引起降质的图像中重建超分辨率图像的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication