CN113793262A - 一种基于残差特征聚合注意块的图像去马赛克方法 - Google Patents
一种基于残差特征聚合注意块的图像去马赛克方法 Download PDFInfo
- Publication number
- CN113793262A CN113793262A CN202110911894.XA CN202110911894A CN113793262A CN 113793262 A CN113793262 A CN 113793262A CN 202110911894 A CN202110911894 A CN 202110911894A CN 113793262 A CN113793262 A CN 113793262A
- Authority
- CN
- China
- Prior art keywords
- image
- output
- residual
- feature
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000002776 aggregation Effects 0.000 title claims abstract description 40
- 238000004220 aggregation Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000011084 recovery Methods 0.000 claims abstract description 28
- 238000005070 sampling Methods 0.000 claims abstract description 14
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 22
- 238000013507 mapping Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 3
- 230000003287 optical effect Effects 0.000 abstract description 3
- 239000010410 layer Substances 0.000 description 25
- 238000010586 diagram Methods 0.000 description 8
- 230000010339 dilation Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 2
- 239000011229 interlayer Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4015—Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于残差特征聚合注意块的图像去马赛克方法,步骤包括:步骤1,构建绿通道恢复网络,输入为Bayer滤光片阵列采样后的raw图,输出为重建的绿通道图;步骤2,构建红通道恢复网络,输入为红采样图和重建的绿通道图;输出为重建的红通道图;步骤3,构建蓝通道恢复网络;步骤4,将重建得到的红通道图、绿通道图和蓝通道图融合成重建的RGB图;步骤5,根据上述搭建的基于残差特征聚合注意块的网络模型,计算重建的RGB图与相对应的真实图像之间的平均绝对误差,以最小化L1损失函数为目标,优化该网络模型。本发明的方法,可以使网络学习更多的特征,提高重建效果,获得高质量的重建图像。
Description
技术领域
本发明属于图像处理与深度学习技术领域,涉及一种基于残差特征聚合注意块的图像去马赛克方法。
背景技术
彩色图像一般是由红(R)绿(G)蓝(B)三种颜色成分表示出来的,每种颜色成分称为一个颜色通道。现如今RGB数码相机记录彩色图像最普遍,而大部分的数码相机采用单个传感器的成像结构,传感器表面覆盖滤光片,曝光成像时,传感器的每个像素位置只采集一种颜色,这种直接采样获取的图像称为raw图,而重建出每个像素位置上没有直接采样到的其他两种颜色成分信息的过程被称为图像去马赛克。
当前RGB数码相机中,最常见的彩色滤光片阵列是Bayer滤光片阵列,其成像区域是由2×2的重复阵列组成,每组2×2阵列包含2个绿(G)、1个红(R)、1个蓝(B)像素。这样就会造成2/3的颜色信息丢失,而采样到的1/3的颜色信息大部分被噪声所污染,从而影响重建图像的质量。图像去马赛克处于图像处理流程中的第一步,应为后续一系列的图像处理任务打好基础,因此重建得到高质量的图像具有重要意义。
当前图像去马赛克的方法可大致分为三类:基于插值的方法、基于稀疏表示的方法和基于深度学习的方法。基于插值的方法中,有的算法忽略了通道间的相关性,而有的算法即使考虑到通道间的相关性,其在边缘、纹理等区域的重建效果也不令人满意。基于稀疏表示的方法,虽然精度高,但是也具有较高的复杂度,在实际应用中有所限制。基于深度学习的方法,通过设计神经网络,学习raw图中的特征以及各通道各相邻像素之间的相关性,进行重建图像,取得了一定的进步;但有的网络会先将raw图下采样到半尺寸的四通道图,使得分辨率降低,图像细节丢失,RGB之间的相对位置信息丢失,使重建图像不准确;而且有的网络模型存在复杂且训练困难的问题。
发明内容
本发明的目的是提供一种基于残差特征聚合注意块的图像去马赛克方法,解决了现有技术基于深度学习去马赛克时,重建图像出现伪影、模糊、训练困难和重建精度低的问题。
本发明的技术方案是,一种基于残差特征聚合注意块的图像去马赛克方法,按照以下步骤具体实施:
步骤1,构建绿通道恢复网络,该绿通道恢复网络的输入为Bayer滤光片阵列采样后的raw图,输出为重建的绿通道图;
步骤2,构建红通道恢复网络,输入为红采样图和重建的绿通道图,输出为重建的红通道图;
步骤3,构建蓝通道恢复网络;
步骤4,将重建得到的红通道图、绿通道图和蓝通道图融合成重建的RGB图;
步骤5,计算重建的RGB图与相对应的真实图像之间的平均绝对误差,以最小化L1损失函数为目标,优化该网络模型。
本发明的有益效果是,包括以下几个方面:
1)本发明提出通过级联残差特征聚合块构建网络模型学习raw图的特征重建绿通道图,与绿采样图相比,raw图拥有更多的图像信息,使网络学习更多的特征,提高重建效果。
2)本发明提出将残差块中提取的特征进行特征聚合处理,传统残差块中的前块特征必须经过很长的路径传播到后块,经过一系列的操作形成更复杂的融合特征,从而未完全利用较干净的残差特征;而特征聚合处理可以充分利用残差分支的分层特征和中间层的信息。
3)本发明提出多尺度注意块,学习特征图之间的层间和层内依赖关系,在多尺度上根据它们的相对重要性进行加权,使得网络可以重点学习有用特征,抑制无用特征。
4)现有技术中,将重建得到的绿通道图用作引导图像或作为先验信息来重建红通道和蓝通道的图像时,大多采用简单的操作,如拼接、加法和元素乘法等操作,但不能有效地挖掘先验信息的特征。本发明提出特征引导块,在特征域里运用非齐次线性映射模型来有效地融合绿通道图的先验信息,从而能够获得高质量的重建图像。
附图说明
图1是本发明方法的总体流程框图;
图2是本发明构建的绿通道恢复网络的框图;
图3是本发明构建的残差特征聚合注意块的框图;
图4是本发明构建的残差块的框图;
图5是本发明构建的多尺度注意块的框图;
图6是本发明构建的红/蓝通道恢复网络的框图;
图7是本发明构建的特征引导块的框图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明主要是一种基于残差特征聚合注意块的去马赛克方法,整体思路为:首先,将图片进行预处理操作,运用Bayer滤光片阵列将图片进行采样操作,得到raw图,并将得到的raw图进行通道拆分得到红采样图、绿采样图和蓝采样图;然后,进行绿通道的恢复,raw图通过残差特征聚合注意块学习特征,重建绿通道图;其次,将重建得到的绿通道图作为先验信息,用于指导红通道和蓝通道的特征学习,分别重建红通道图和蓝通道图;最后,将得到的三通道图进行合并,得到最终重建的RGB图。
如图1所示,本发明方法主要包括四部分,分别为绿通道恢复、红通道恢复、蓝通道恢复和融合成重建的RGB图。绿通道恢复主要是通过级联残差特征聚合注意块构建网络模型,充分利用残差分支的分层特征和来自中间层的信息,有效学习特征,从而得到重建的绿通道图。红通道恢复主要是由特征引导块和残差特征聚合注意块组成,特征引导块用于指导基于绿通道先验信息的红通道特征学习。蓝通道恢复方法与红通道恢复过程相同。最后将得到的重建红通道图、绿通道图和蓝通道图融合成RGB三通道图,最终得到重建的RGB图。
本发明的方法,利用上述原理及网络框架,按照以下步骤具体实施:
步骤1,构建绿通道恢复网络,绿通道恢复网络的主要作用是重建绿通道图,该绿通道恢复网络的输入为Bayer滤光片阵列采样后的raw图,大小为H×W×3,其中H和W分别表示输入图像的高度和宽度;输出为重建的绿通道图,大小为H×W×1,
如图2所示,绿通道恢复网络由级联的残差特征聚合注意块组成,图2中的为在维度为1上进行拼接,为按元素进行加法操作;绿通道恢复网络结构依次为:raw图(H×W×3)作为输入→第一个卷积层(Conv1)→第二个卷积层(Conv2)→残差特征聚合注意块1→第二个卷积层(Conv2)的输出与残差特征聚合注意块1的输出在维度为1上进行拼接操作→第三个卷积层(Conv3)→残差特征聚合注意块2→上一个拼接操作的输出与残差特征聚合注意块2的输出在维度为1上进行拼接操作→第四个卷积层(Conv4)→残差特征聚合注意块3→上一个拼接操作的输出与残差特征聚合注意块3的输出在维度为1上进行拼接操作→第五个卷积层(Conv5)→第二个卷积层(Conv2)的输出与第五个卷积层(Conv5)的输出按元素进行加法操作→第六个卷积层(Conv6)→第七个卷积层(Conv7)→输出重建的绿通道图(H×W×1);
其中,Conv1卷积核大小为1×1,步长为1,特征映射总数为3个;Conv2卷积核大小为3×3,步长为3,特征映射总数为64个;Conv3、Conv4和Conv5卷积核大小均为3×3,步长均为3,特征映射总数均为64个,并且均通过ReLU激活;Conv6卷积核大小为3×3,步长为3,特征映射总数为3个;Conv7卷积核大小为1×1,步长为1,特征映射总数为1个。
残差特征聚合注意块的作用是充分利用中间层的信息,学习特征图之间的层间和层内依赖关系。
如图3所示,残差特征聚合注意块的结构依次为:输入→残差块1→残差块2→残差块3→第一个卷积层(Conv1)→最初输入与Conv1输出按元素进行加法操作→第二个卷积层(Conv2)→多尺度注意块→最初输入与多尺度注意块的输出按元素进行加法操作→输出;其中,残差块1、残差块2和残差块3的结构均相同,其结构见下文;Conv1的作用是将三个残差块的输出进行合并,输入为三个残差块的输出,卷积核大小为1×1,步长为1,特征映射总数均为64个;Conv2卷积核大小为3×3,步长为3,特征映射总数为64个,并通过ReLU激活;多尺度注意块的作用是在多尺度上根据它们的相对重要性进行加权,其结构见下文。
残差块的作用是学习残差特征,如图4所示,残差块的结构依次为:输入→第一个卷积层(Conv1)→第二个卷积层(Conv2)→最初的输入与Conv2的输出按元素进行加法操作→输出;其中,Conv1和Conv2卷积核大小均为3×3,步长均为3,特征映射总数均为64个,并且均通过ReLU激活。
多尺度注意块的作用是学习多尺度特征,并根据其相对重要性进行加权。如图5所示,多尺度注意块的结构依次为:输入→自适应平均池化→并行通过三个膨胀卷积层提取特征(Conv1、Conv2、Conv3)→将三个卷积层的输出在维度为1上进行拼接操作→第四个卷积层(Conv4)→最初输入与Conv4的输出按元素进行相乘操作→输出;其中,Conv1的卷积核大小为3×3,步长为3,特征映射总数为4个,膨胀率(dilation)为3,并通过ReLU激活;Conv2的卷积核大小为3×3,步长为3,特征映射总数为4个,膨胀率(dilation)为5,并通过ReLU激活;Conv3的卷积核大小为3×3,步长为3,特征映射总数为4个,膨胀率(dilation)为7,并通过ReLU激活;Conv4的卷积核大小为3×3,步长为3,特征映射总数为64个,并通过Sigmoid激活函数得到多尺度特征的权重。
步骤2,构建红通道恢复网络,该红通道恢复网络的输入为红采样图(大小为H×W×1)和重建的绿通道图(大小为H×W×1);输出为重建的红通道图,大小为H×W×1;红通道恢复网络的作用是将重建的绿通道图作为先验信息,来引导红通道图的重建。
如图6所示,红通道恢复网络的结构依次为:红采样图和重建的绿通道图作为输入→特征引导块→残差特征聚合注意块→红采样图与残差特征聚合注意块的输出按元素进行加法操作→第一个卷积层(Conv1)→重建的红通道图;其中,特征引导块用作基于绿通道先验信息的红通道的特征提取,其结构见下文;本实施例中,Conv1的卷积核大小为1×1,步长为1,特征映射总数为1个。
由于大部分去马赛克方法通常使用简单的操作,如拼接、加法和元素乘法等操作来融合绿通道图的先验信息来重建红通道和蓝通道图,不能有效的挖掘先验信息来获得高质量图像。特征引导块主要是在特征域里运用非齐次线性映射模型来有效地融合的绿通道图的先验信息。
如图7所示,特征引导块的结构依次为:红采样图作为输入→第一个卷积层(Conv1)→Conv1的输出与重建的绿通道图经过第三个卷积(Conv3)操作的输出按元素做乘法操作→上一个乘法操作的输出与重建的绿通道图经过第四个卷积(Conv4)操作的输出按元素做加法操作→第二个卷积层(Conv2)→输出;本实施例中,Conv1和Conv4的卷积核大小均为3×3,步长均为3,特征映射总数均为64个;Conv2的卷积核大小为3×3,步长为3,特征映射总数为3个;Conv3的卷积核大小为3×3,步长为3,特征映射总数为64个,并通过Sigmoid函数激活。
步骤3,构建蓝通道恢复网络,如图6所示,蓝通道恢复网络的结构与红通道恢复网络的结构相似,区别是,输入为蓝采样图(大小为H×W×1)和重建的绿通道图(大小为H×W×1);输出为重建的蓝通道图,大小为H×W×1。
步骤4,将重建得到的红通道图(大小为H×W×1)、绿通道图(大小为H×W×1)和蓝通道图(大小为H×W×1)融合成重建的RGB图(大小为H×W×3)。
步骤5,根据上述搭建的基于残差特征聚合注意块的网络模型,计算重建的RGB图与相对应的真实图像(Ground Truth)之间的平均绝对误差,以最小化L1损失函数为目标,优化该网络模型;
Claims (5)
1.一种基于残差特征聚合注意块的图像去马赛克方法,其特征在于,按照以下步骤具体实施:
步骤1,构建绿通道恢复网络,该绿通道恢复网络的输入为Bayer滤光片阵列采样后的raw图,输出为重建的绿通道图;
步骤2,构建红通道恢复网络,输入为红采样图和重建的绿通道图,输出为重建的红通道图;
步骤3,构建蓝通道恢复网络;
步骤4,将重建得到的红通道图、绿通道图和蓝通道图融合成重建的RGB图;
步骤5,计算重建的RGB图与相对应的真实图像之间的平均绝对误差,以最小化L1损失函数为目标,优化该网络模型。
2.根据权利要求1所述的基于残差特征聚合注意块的图像去马赛克方法,其特征在于,在步骤1中,所述的绿通道恢复网络由级联的残差特征聚合注意块组成,绿通道恢复网络结构依次为:raw图作为输入→第一个卷积层Conv1→第二个卷积层Conv2→残差特征聚合注意块1→第二个卷积层Conv2的输出与残差特征聚合注意块1的输出在维度为1上进行拼接操作→第三个卷积层Conv3→残差特征聚合注意块2→上一个拼接操作的输出与残差特征聚合注意块2的输出在维度为1上进行拼接操作→第四个卷积层Conv4→残差特征聚合注意块3→上一个拼接操作的输出与残差特征聚合注意块3的输出在维度为1上进行拼接操作→第五个卷积层Conv5→第二个卷积层Conv2的输出与第五个卷积层Conv5的输出按元素进行加法操作→第六个卷积层Conv6→第七个卷积层Conv7→输出重建的绿通道图;其中,Conv1卷积核大小为1×1,步长为1,特征映射总数为3个;Conv2卷积核大小为3×3,步长为3,特征映射总数为64个;Conv3、Conv4和Conv5卷积核大小均为3×3,步长均为3,特征映射总数均为64个,并且均通过ReLU激活;Conv6卷积核大小为3×3,步长为3,特征映射总数为3个;Conv7卷积核大小为1×1,步长为1,特征映射总数为1个;
所述的残差特征聚合注意块的结构依次为:输入→残差块1→残差块2→残差块3→第一个卷积层Conv1→最初输入与Conv1输出按元素进行加法操作→第二个卷积层Conv2→多尺度注意块→最初输入与多尺度注意块的输出按元素进行加法操作→输出;其中,残差块1、残差块2和残差块3的结构均相同,其结构见下文;Conv1的作用是将三个残差块的输出进行合并,输入为三个残差块的输出,卷积核大小为1×1,步长为1,特征映射总数均为64个;Conv2卷积核大小为3×3,步长为3,特征映射总数为64个,并通过ReLU激活;
所述的残差块的结构依次为:输入→第一个卷积层Conv1→第二个卷积层Conv2→最初的输入与Conv2的输出按元素进行加法操作→输出;其中,Conv1和Conv2卷积核大小均为3×3,步长均为3,特征映射总数均为64个,并且均通过ReLU激活;
所述的多尺度注意块的结构依次为:输入→自适应平均池化→并行通过三个膨胀卷积层提取特征,包括Conv1、Conv2、Conv3→将三个卷积层的输出在维度为1上进行拼接操作→第四个卷积层Conv4→最初输入与Conv4的输出按元素进行相乘操作→输出;其中,Conv1的卷积核大小为3×3,步长为3,特征映射总数为4个,膨胀率为3,并通过ReLU激活;Conv2的卷积核大小为3×3,步长为3,特征映射总数为4个,膨胀率为5,并通过ReLU激活;Conv3的卷积核大小为3×3,步长为3,特征映射总数为4个,膨胀率为7,并通过ReLU激活;Conv4的卷积核大小为3×3,步长为3,特征映射总数为64个,并通过Sigmoid激活函数得到多尺度特征的权重。
3.根据权利要求1所述的基于残差特征聚合注意块的图像去马赛克方法,其特征在于,在步骤2中,所述的红通道恢复网络的结构依次为:红采样图和重建的绿通道图作为输入→特征引导块→残差特征聚合注意块→红采样图与残差特征聚合注意块的输出按元素进行加法操作→第一个卷积层Conv1→重建的红通道图;其中,Conv1的卷积核大小为1×1,步长为1,特征映射总数为1个;
所述的特征引导块的结构依次为:红采样图作为输入→第一个卷积层Conv1→Conv1的输出与重建的绿通道图经过第三个卷积Conv3操作的输出按元素做乘法操作→上一个乘法操作的输出与重建的绿通道图经过第四个卷积Conv4操作的输出按元素做加法操作→第二个卷积层Conv2→输出;其中,Conv1和Conv4的卷积核大小均为3×3,步长均为3,特征映射总数均为64个;Conv2的卷积核大小为3×3,步长为3,特征映射总数为3个;Conv3的卷积核大小为3×3,步长为3,特征映射总数为64个,并通过Sigmoid函数激活。
4.根据权利要求1所述的基于残差特征聚合注意块的图像去马赛克方法,其特征在于,在步骤3中,所述的蓝通道恢复网络的结构与红通道恢复网络的结构相似,区别是,输入为蓝采样图和重建的绿通道图,输出为重建的蓝通道图,大小为H×W×1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110911894.XA CN113793262A (zh) | 2021-08-10 | 2021-08-10 | 一种基于残差特征聚合注意块的图像去马赛克方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110911894.XA CN113793262A (zh) | 2021-08-10 | 2021-08-10 | 一种基于残差特征聚合注意块的图像去马赛克方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113793262A true CN113793262A (zh) | 2021-12-14 |
Family
ID=79181607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110911894.XA Withdrawn CN113793262A (zh) | 2021-08-10 | 2021-08-10 | 一种基于残差特征聚合注意块的图像去马赛克方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113793262A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359105A (zh) * | 2022-08-01 | 2022-11-18 | 荣耀终端有限公司 | 景深扩展图像生成方法、设备及存储介质 |
-
2021
- 2021-08-10 CN CN202110911894.XA patent/CN113793262A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359105A (zh) * | 2022-08-01 | 2022-11-18 | 荣耀终端有限公司 | 景深扩展图像生成方法、设备及存储介质 |
CN115359105B (zh) * | 2022-08-01 | 2023-08-11 | 荣耀终端有限公司 | 景深扩展图像生成方法、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Brooks et al. | Unprocessing images for learned raw denoising | |
CN108537733B (zh) | 基于多路径深度卷积神经网络的超分辨率重建方法 | |
Tan et al. | Color image demosaicking via deep residual learning | |
Liu et al. | A spectral grouping and attention-driven residual dense network for hyperspectral image super-resolution | |
CN111709895A (zh) | 基于注意力机制的图像盲去模糊方法及系统 | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN113139898B (zh) | 基于频域分析和深度学习的光场图像超分辨率重建方法 | |
CN114119444B (zh) | 一种基于深度神经网络的多源遥感图像融合方法 | |
Hu et al. | Underwater image restoration based on convolutional neural network | |
CN111815516B (zh) | 一种弱监督红外遥感图像超分辨率重建方法 | |
CN111127374A (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
CN114494821B (zh) | 基于特征多尺度感知与自适应聚合的遥感影像云检测方法 | |
CN113554032B (zh) | 基于高度感知的多路并行网络的遥感图像分割方法 | |
CN114746895A (zh) | 用于图像去噪的噪声重构 | |
CN112241939B (zh) | 一种基于多尺度和非局部的轻量去雨方法 | |
CN114913101B (zh) | 多光谱光场重建方法、装置、电子设备及存储介质 | |
Karadeniz et al. | Burst photography for learning to enhance extremely dark images | |
CN112215753A (zh) | 基于双分支边缘保真网络的图像去马赛克增强方法 | |
CN111833261A (zh) | 一种基于注意力的生成对抗网络的图像超分辨率复原方法 | |
CN114418850A (zh) | 一种融合图卷积的有参考图像超分辨率重构方法 | |
CN115526779A (zh) | 一种基于动态注意力机制的红外图像超分辨率重建方法 | |
CN113793262A (zh) | 一种基于残差特征聚合注意块的图像去马赛克方法 | |
CN114359041A (zh) | 一种光场图像空间超分辨率重建方法 | |
Shen et al. | RSHAN: Image super-resolution network based on residual separation hybrid attention module | |
CN117237207A (zh) | 针对动态场景的无鬼影高动态范围光场成像方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20211214 |
|
WW01 | Invention patent application withdrawn after publication |