CN112215753A - 基于双分支边缘保真网络的图像去马赛克增强方法 - Google Patents

基于双分支边缘保真网络的图像去马赛克增强方法 Download PDF

Info

Publication number
CN112215753A
CN112215753A CN202011143894.1A CN202011143894A CN112215753A CN 112215753 A CN112215753 A CN 112215753A CN 202011143894 A CN202011143894 A CN 202011143894A CN 112215753 A CN112215753 A CN 112215753A
Authority
CN
China
Prior art keywords
network
image
edge
branch
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011143894.1A
Other languages
English (en)
Inventor
文玲
王星智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Univeristy of Technology
Original Assignee
Chengdu Univeristy of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Univeristy of Technology filed Critical Chengdu Univeristy of Technology
Priority to CN202011143894.1A priority Critical patent/CN112215753A/zh
Publication of CN112215753A publication Critical patent/CN112215753A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明公开基于双分支边缘保真网络的图像去马赛克增强方法。解决当前图像恢复中彩色伪影、细节丢失、边缘模糊的问题。具体为:步骤1、构造训练数据集,得到数量充足的训练数据集;步骤2、搭建双分支边缘保真网络;步骤3、设置步骤2中搭建网络框架的超参数、损失函数、选择优化算法对网络进行学习和优化;步骤4、对双分支边缘保真网络进行训练;步骤5、对马赛克图像用残差插值法重建图像,得到初步彩色图像;步骤6、将步骤5所得到的初始彩色图像作为步骤4中已经训练好的网络模型的输入,进行测试实验,采用彩色峰值信噪比和结构相似性指数度量去马赛克测试图像,说明网络性能。该方法在图像质量和细节方面得到明显的提升和增强。

Description

基于双分支边缘保真网络的图像去马赛克增强方法
技术领域
本发明属于图像处理方法技术领域,具体涉及一种基于双分支边缘保真网络的图像去马赛克增强方法。
背景技术
在科技发展迅速的今天,视觉处理技术被广泛运用于各个领域,视觉处理技术的关键环节是图像提取,而图像的提出离不开各种类型摄像头。为了降低成本,数码相机大都采用单个表面覆盖彩色阵列的CCD芯片来获取彩色图像。往往在采集的过程中,由于单个表面覆盖彩色阵列采集原理的缺陷,所以造成某些像素点颜色像素值不完全的情况,称这些颜色像素值不完全的像素点为马赛克。为得到完整的彩色图像,将缺失的像素填补修复的过程称为去马赛克。而传统的一些去马赛克算法存在细节丢失、彩色伪影、边缘模糊等问题,所以本发明为解决上述问题提出了一种基于双分支边缘保真网络的图像去马赛克增强方法。
发明内容
本发明的目的在于克服现有技术的不足,提供基于双分支边缘保真网络的图像去马赛克增强方法,具有效率高、质量高、修复强的优势。
本发明的目的是通过以下技术方案来实现的:基于双分支边缘保真网络的图像去马赛克增强方法,包括以下步骤:
步骤1、构建训练数据集,并对数据进行预处理操作,得到数量充足的训练数据集。
步骤1.1、从常用数据库中随机找出若干幅彩色图像作为理想彩色图像数据集,实验中所用的马赛克图像是按照bayer格式由理想彩色图像下采样得到。将得到的马赛克图像用残差插值方法对其进行彩色恢复得到初步去马赛克图像,将所有的初步去马赛克图像组成初步去马赛克图像数据集,理想彩色图像数据集与初步去马赛克图像数据集组成训练数据集;
步骤1.2、对步骤1.1得到的训练数据集进行预处理操作,将训练数据集中的每张图像进行0.7、0.8、0.9、1倍的缩放,根据训练数据集中图像的大小,选择适合尺度的滑动窗口进行平移操作,即完成对图像的小块分割得到若干个小块图像,以提高网络训练性能;紧接着对每个小块图像进行90度旋转、180度旋转、270度旋转和上下翻转的增广操作,从而得到数量充足的训练数据集。
步骤2、搭建双分支边缘保真网络,它由双分支稠密残差模块和基于多特征融合的边缘提取模块组成。针对双分支稠密残差模块所得结果,采用边缘提取网络提取边缘细节;通过多层次边缘损失代价最小化,反向优化双分支稠密残差网络性能,引导其生成具有更多边缘细节信息的干净图像,构成整的网络框架。
步骤2.1、双分支稠密残差模块由卷积层构成,一个稠密残差块包含5个卷积层,第一层由64个大小为3*3的卷积核组成,其余4层由32个大小为3*3的卷积核组成。该模块的主体由两个卷积层和4个稠密残差块设计成包含两条分支的结构,第二条分支用于补充第一条分支没有提到的特征,将两条网络分支融合操作后输出。
步骤2.2、基于多特征融合的边缘提取模块,采用改进HED网络,将同一个深度学习网络的不同层级侧面输出,将侧输出层与每一组卷积层的最后一层卷积层相连,然后网络把高层特征边缘图进行反卷积,使其大小扩大到与原图相同,为了最好地利用该算法提出的结构中的每个侧输出层的结果,增加了一个“权重混合层”用来将所有的侧输出层的预测结果连接到一起并且在训练的过程中学习混合权重。
步骤2.3、将步骤2.1得到的输出结果与网络的输入(初始去马赛克图像)做相减操作做为步骤2.2网络的输入。
步骤2.4、将步骤2.2搭建的基于多特征融合的边缘提取模块的输出又反向做为双分支稠密残差模块的输入,优化双分支稠密残差网络性能,引导其生成具有更多边缘细节信息的干净图像,得到最终的去马赛克增强图像。
步骤3、设置步骤2中搭建网络框架的超参数、损失函数、选择优化算法对网络进行学习和优化。
步骤3.1、将网络训练集中的图像分批次输入到步骤2搭建的网络框架中,设置网络的超参数,包括网络输入的批次、学习速率、迭代次数;将输入批次设置为64,使用Adam优化器更新参数,每个训练周期迭代1000次,总共训练200个周期,学习率设为0.0001,当网络训练趋于稳定时,学习率再降为0.00001,再训练直至收敛,其余参数保持默认值。
步骤3.2、双分支稠密残差模块训练的损失函数设置为:
Figure BDA0002739093710000021
其中,M表示图像样本数,xi表示网络的输入(初始彩色图像),yi表示理想图像,θ为当前网络参数值,F(xi;θ)为网络输出的残差图像。
步骤3.3、在一幅自然图像中,百分之九十区域都是非边缘,为了解决边缘和非边缘不对称的问题,基于多特征融合的边缘提取模块采用二分类平衡交叉熵损失函数。
Figure BDA0002739093710000022
β是平衡参数,W是特征提取网络前4层的权重,w(m)为网络训练权重,Y+是样本图像真实标签在像素点j处为边缘值,Y-是样本图像真实标签在像素点j处为非像素值,yi表示网络在i处的预测值,(1-β)为边缘真值图像中非边缘像素点与总像素点之间的比值。
Figure BDA0002739093710000033
Lfuse为不同尺度侧输出融合后的边缘图像与边缘真值之间的二分类平衡交叉损失函数。
基于多特征融合的边缘提取模块损失函数表示为:
Figure BDA0002739093710000031
步骤3.4、该网络框架损失函数定义为两个模块损失函数之和,为:
Figure BDA0002739093710000032
步骤4、根据步骤3设置的网络超参数、损失函数、网络优化算法对训练数据集进行训练,得到训练好的网络模型。
步骤5、对马赛克图像用残差插值法重建图像,得到初步彩色图像。
步骤6、将步骤5所得到的初始彩色图像作为步骤4中已经训练好的网络模型的输入,进行去马赛克增强的测试实验,并用彩色峰值信噪比和结构相似性指数度量去马赛克图像,说明网络性能。
步骤6.1、将步骤5所得到的初始彩色图像输入到已经训练好的网络模型中,进行去马赛克增强的测试实验,获得网络的输出图像即去马赛克增强图像。
步骤6.2、为了说明网络的性能,并用彩色峰值信噪比和结构相似性指数度量步骤5.1输出图像。
附图说明
图1为本发明的方法流程图;
图2为整体网络框架图;
图3为稠密残差块网络结构图;
图4为多特征融合边缘提取块网络结构图;
图5为输出结果对比图;
图6为输出结果对比图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
由于数码相机大都采用单个表面覆盖彩色阵列的CCD芯片来获取彩色图像。往往在采集的过程中,由于单个表面覆盖彩色阵列采集原理的缺陷,所以造成某些像素点颜色像素值不完全的情况,称这些颜色像素值不完全的像素点为马赛克。而传统的一些去马赛克算法存在细节丢失、彩色伪影、边沿模糊等问题。鉴于此种情况,本发明提出了一种效率高、质量高、修复强的去马赛克增强方法。
本发明提出双分支稠密残差网络模块,双分支稠密残差网络模块是由稠密残差网络改进而来,由卷积层构成,一个稠密残差块包含5个卷积层,第一层由64个大小为3*3的卷积核组成,其余4层由32个大小为3*3的卷积核组成。该模块的主体由两个卷积层和4个稠密残差块设计成包含两条分支的结构,第二条分支用于补充第一条分支没有提到的特征,将两条网络分支融合操作后输出。基于多特征融合的边缘提取模块,是以VGG16网络结构为基础,采用HED网络模型的思想改进而来,将同一个深度学习网络的不同层级侧面输出,将侧输出层与每一组卷积层的最后一层卷积层相连,然后网络把高层特征边缘图进行反卷积,使其大小扩大到与原图相同,为了最好地利用该算法提出的结构中的每个侧输出层的结果,增加了一个“权重混合层”用来将所有的侧输出层的预测结果连接到一起并且在训练的过程中学习混合权重。具体如下:
如图2所示,基于双分支边缘保真网络的图像去马赛克增强方法,包括以下步骤:
步骤1、从常用数据库中随机找出若干幅彩色图像作为理想彩色图像数据集,按照bayer格式下采样得到bayer格式图像(马赛克图像)。将得到的马赛克图像用残差插值方法对其进行彩色恢复得到初步去马赛克图像,将所有的初步去马赛克图像组成初步去马赛克图像数据集,理想彩色图像数据集与初步去马赛克图像数据集组成训练数据集。
步骤2、对步骤1得到的训练数据集进行预处理操作,得到数量充足的训练数据集。
步骤3、搭建双分支边缘保真网络,它由双分支稠密残差模块和基于多特征融合的边缘提取模块组成。针对双分支稠密残差模块所得结果,采用边缘提取网络提取边缘细节;通过多层次边缘损失代价最小化,反向优化双分支稠密残差网络性能,引导其生成具有更多边缘细节信息的干净图像,构成整的网络框架。
步骤4、设置步骤3中搭建网络框架的超参数、损失函数、选择优化算法对网络进行学习和优化。
步骤5、根据步骤4设置的网络超参数、损失函数、网络优化算法对训练数据集进行训练,得到训练好的网络模型。
步骤6、对马赛克图像用残差插值法重建图像,得到初步彩色图像。将这个初步彩色图像作为步骤5中已经训练好的网络模型的输入,进行去马赛克增强的测试实验,并用彩色峰值信噪比和结构相似性指数度量去马赛克图像,说明网络性能。
综上,本发明是以VGG16网络结构为基础,采用HED网络模型的思想改进而来,减少算法计算量的同时增加了算法的高效性,实现了对马赛克图像的高度增强,为图像处理技术图片提取环节提供图像优化方法;方法可靠性高,具有较高的精度和速度,在图像质量和细节方面得到明显的提升和增强。
以上所述的仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例外排除,而可用于各种其他组和、修改和环境,并能够在本文所述构想范围内,通过上述相关领域的技术或知识进行改动。而本领域人员所进行的改动和变换不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (5)

1.基于双分支边缘保真网络的图像去马赛克增强方法,其特征在于,具体按照以下步骤实施:
步骤1、构建训练数据集,并对数据进行预处理操作,得到数量充足的训练数据集。
步骤2、搭建双分支边缘保真网络,它由双分支稠密残差模块和基于多特征融合的边缘提取模块组成。针对双分支稠密残差模块所得结果,采用边缘提取网络提取边缘细节;通过多层次边缘损失代价最小化,反向优化双分支稠密残差网络性能,引导其生成具有更多边缘细节信息的干净图像,构成整的网络框架。
步骤3、设置步骤2中搭建网络框架的超参数、损失函数、选择优化算法对网络进行学习和优化。
步骤4、根据步骤3设置的网络超参数、损失函数、网络优化算法对训练数据集进行训练,得到训练好的网络模型。
步骤5、对马赛克图像用残差插值法重建图像,得到初步彩色图像。
步骤6、将步骤5所得到的初始彩色图像作为步骤4中已经训练好的网络模型的输入,进行去马赛克增强的测试实验,并用彩色峰值信噪比和结构相似性指数度量去马赛克图像,说明网络性能。
2.根据权利要求1所述的基于双分支边缘保真网络的图像去马赛克增强方法,其特征在于,所诉步骤1具体包括以下步骤:
步骤1.1、从常用数据库中随机找出若干幅彩色图像作为理想彩色图像数据集,实验中所用的马赛克图像是按照bayer格式由理想彩色图像下采样得到。将得到的马赛克图像用残差插值方法对其进行彩色恢复得到初步去马赛克图像,将所有的初步去马赛克图像组成初步去马赛克图像数据集,理想彩色图像数据集与初步去马赛克图像数据集组成训练数据集。
步骤1.2、对步骤1.1得到的训练数据集进行预处理操作,将训练数据集中的每张图像进行0.7、0.8、0.9、1倍的缩放,根据训练数据集中图像的大小,选择适合尺度的滑动窗口进行平移操作,即完成对图像的小块分割得到若干个小块图像,以提高网络训练性能;紧接着对每个小块图像进行90度旋转、180度旋转、270度旋转和上下翻转的增广操作,从而得到数量充足的训练数据集。
3.根据权利要求2所述的基于双分支边缘保真网络的图像去马赛克增强方法,其特征在于,所述步骤2具体操作包括以下步骤:
步骤2.1、双分支稠密残差模块由卷积层构成,一个稠密残差块包含5个卷积层,第一层由64个大小为3*3的卷积核组成,其余4层由32个大小为3*3的卷积核组成。该模块的主体由两个卷积层和4个稠密残差块设计成包含两条分支的结构,第二条分支用于补充第一条分支没有提到的特征,将两条网络分支融合操作后输出。
步骤2.2、基于多特征融合的边缘提取模块,采用改进HED网络,将同一个深度学习网络的不同层级侧面输出,将侧输出层与每一组卷积层的最后一层卷积层相连,然后网络把高层特征边缘图进行反卷积,使其大小扩大到与原图相同,为了最好地利用该算法提出的结构中的每个侧输出层的结果,增加了一个“权重混合层”用来将所有的侧输出层的预测结果连接到一起并且在训练的过程中学习混合权重。网络模块结构为第一层:有两个卷积层,一个最大池化层;卷积层使用的是3*3*3卷积核,卷积数量为64。第二层:有两个卷积层,一个最大池化层;卷积层使用的是3*3*3卷积核,卷积数量为128。第三层:有三个卷积层,一个最大池化层;卷积层使用的是3*3*3卷积核,卷积数量为512。第四层:有三个卷积层;卷积层使用的是3*3*3卷积核,卷积数量为512。
步骤2.3、将步骤2.1得到的输出结果与网络的输入(初始去马赛克图像)做相减操作做为步骤2.2网络的输入。
步骤2.4、将步骤2.2搭建的基于多特征融合的边缘提取模块的输出又反向做为双分支稠密残差模块的输入,优化双分支稠密残差网络性能,引导其生成具有更多边缘细节信息的干净图像,得到最终的去马赛克增强图像。
4.根据权利要求1所述的基于双分支边缘保真网络的图像去马赛克增强方法,其特征在于,所述步骤3具体包括以下步骤:
步骤3.1、将网络训练集中的图像分批次输入到步骤2搭建的网络框架中,设置网络的超参数,包括网络输入的批次、学习速率、迭代次数;将输入批次设置为64,使用Adam优化器更新参数,每个训练周期迭代1000次,总共训练200个周期,学习率设为0.0001,当网络训练趋于稳定时,学习率再降为0.00001,再训练直至收敛,其余参数保持默认值。
步骤3.2、双分支稠密残差模块训练的损失函数设置为:
Figure FDA0002739093700000021
其中,M表示图像样本数,xi表示网络的输入(初始彩色图像),yi表示理想图像,θ为当前网络参数值,F(xi;θ)为网络输出的残差图像。
步骤3.3、在一幅自然图像中,百分之九十区域都是非边缘,为了解决边缘和非边缘不对称的问题,基于多特征融合的边缘提取模块采用二分类平衡交叉熵损失函数。
Figure FDA0002739093700000022
β是平衡参数,W是特征提取网络前4层的权重,w(m)为网络训练权重,Y+是样本图像真实标签在像素点j处为边缘值,Y-是样本图像真实标签在像素点j处为非像素值,yi表示网络在i处的预测值,(1-β)为边缘真值图像中非边缘像素点与总像素点之间的比值。
Figure FDA0002739093700000031
Lfuse为不同尺度侧输出融合后的边缘图像与边缘真值之间的二分类平衡交叉损失函数。
基于多特征融合的边缘提取模块损失函数表示为:
Figure FDA0002739093700000032
步骤3.4、该网络框架损失函数定义为两个模块损失函数之和,表示为:
LCL=lossC(θ)+lossL(W,w) (5)
5.根据权利要求1所述的基于双分支边缘保真网络的图像去马赛克增强方法,其特征在于,所述步骤6具体包括以下步骤:
步骤6.1、将步骤5所得到的初始彩色图像输入到已经训练好的网络模型中,进行去马赛克增强的测试实验,获得网络的输出图像即去马赛克增强图像。
步骤6.2、为了说明网络的性能,并用彩色峰值信噪比和结构相似性指数度量步骤5.1输出图像。
CN202011143894.1A 2020-10-23 2020-10-23 基于双分支边缘保真网络的图像去马赛克增强方法 Pending CN112215753A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011143894.1A CN112215753A (zh) 2020-10-23 2020-10-23 基于双分支边缘保真网络的图像去马赛克增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011143894.1A CN112215753A (zh) 2020-10-23 2020-10-23 基于双分支边缘保真网络的图像去马赛克增强方法

Publications (1)

Publication Number Publication Date
CN112215753A true CN112215753A (zh) 2021-01-12

Family

ID=74054646

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011143894.1A Pending CN112215753A (zh) 2020-10-23 2020-10-23 基于双分支边缘保真网络的图像去马赛克增强方法

Country Status (1)

Country Link
CN (1) CN112215753A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966748A (zh) * 2021-03-09 2021-06-15 中国电子科技集团公司第五十四研究所 基于边缘感知双分支fcn的极化sar图像分类方法
CN115439795A (zh) * 2022-11-08 2022-12-06 浙江慧享信息科技有限公司 一种涉及人像的视频打码方法、介质及设备
CN115546614A (zh) * 2022-12-02 2022-12-30 天津城建大学 一种基于改进yolov5模型的安全帽佩戴检测方法
CN117058536A (zh) * 2023-07-19 2023-11-14 中公高科养护科技股份有限公司 一种基于双分支网络的路面病害识别方法、装置及介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966748A (zh) * 2021-03-09 2021-06-15 中国电子科技集团公司第五十四研究所 基于边缘感知双分支fcn的极化sar图像分类方法
CN115439795A (zh) * 2022-11-08 2022-12-06 浙江慧享信息科技有限公司 一种涉及人像的视频打码方法、介质及设备
CN115439795B (zh) * 2022-11-08 2023-10-13 浙江慧享信息科技有限公司 一种涉及人像的视频打码方法、介质及设备
CN115546614A (zh) * 2022-12-02 2022-12-30 天津城建大学 一种基于改进yolov5模型的安全帽佩戴检测方法
CN115546614B (zh) * 2022-12-02 2023-04-18 天津城建大学 一种基于改进yolov5模型的安全帽佩戴检测方法
CN117058536A (zh) * 2023-07-19 2023-11-14 中公高科养护科技股份有限公司 一种基于双分支网络的路面病害识别方法、装置及介质
CN117058536B (zh) * 2023-07-19 2024-04-30 中公高科养护科技股份有限公司 一种基于双分支网络的路面病害识别方法、装置及介质

Similar Documents

Publication Publication Date Title
CN112215753A (zh) 基于双分支边缘保真网络的图像去马赛克增强方法
CN109711413B (zh) 基于深度学习的图像语义分割方法
CN115049936B (zh) 一种面向高分遥感影像的边界增强型语义分割方法
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
CN112435191B (zh) 一种基于多个神经网络结构融合的低照度图像增强方法
CN106910161A (zh) 一种基于深度卷积神经网络的单幅图像超分辨率重建方法
Tang et al. Single image dehazing via lightweight multi-scale networks
CN112819705B (zh) 一种基于网状结构与长距离相关性的真实图像去噪方法
CN112241939B (zh) 一种基于多尺度和非局部的轻量去雨方法
CN113066027B (zh) 面向Raw域的屏摄图像摩尔纹去除方法
CN116051396B (zh) 一种基于特征增强网络和gru网络的图像去噪方法
CN112561799A (zh) 一种红外图像超分辨率重建方法
Hu et al. Hyperspectral image super resolution based on multiscale feature fusion and aggregation network with 3-D convolution
CN115526779A (zh) 一种基于动态注意力机制的红外图像超分辨率重建方法
CN111553856A (zh) 基于深度估计辅助的图像去雾方法
CN113178010B (zh) 基于深度学习的高分影像阴影区域恢复重建方法
CN117392065A (zh) 一种云边协同太阳能板覆灰状况自主评估方法
CN116563157A (zh) 一种基于深度学习的面向空间卫星低照度图像增强方法
CN111539885A (zh) 一种基于多尺度网络的图像增强去雾方法
CN108550111B (zh) 一种基于多级字典学习的残差实例回归超分辨重建方法
CN116228576A (zh) 基于注意力机制与特征增强的图像去雾方法
CN112396598B (zh) 一种基于单阶段多任务协同学习的人像抠图方法及系统
CN115100076A (zh) 基于上下文感知注意力的低光图像去雾方法
CN113793262A (zh) 一种基于残差特征聚合注意块的图像去马赛克方法
Yang et al. MCFD: A hardware-efficient noniterative multicue fusion demosaicing algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210112

WD01 Invention patent application deemed withdrawn after publication