CN112132760A - 基于可学习可微分矩阵逆及矩阵分解的图像恢复方法 - Google Patents

基于可学习可微分矩阵逆及矩阵分解的图像恢复方法 Download PDF

Info

Publication number
CN112132760A
CN112132760A CN202010960192.6A CN202010960192A CN112132760A CN 112132760 A CN112132760 A CN 112132760A CN 202010960192 A CN202010960192 A CN 202010960192A CN 112132760 A CN112132760 A CN 112132760A
Authority
CN
China
Prior art keywords
matrix
learnable
image
minv
differentiable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010960192.6A
Other languages
English (en)
Other versions
CN112132760B (zh
Inventor
林宙辰
谢星宇
孔浩
吴建龙
刘光灿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN202010960192.6A priority Critical patent/CN112132760B/zh
Publication of CN112132760A publication Critical patent/CN112132760A/zh
Application granted granted Critical
Publication of CN112132760B publication Critical patent/CN112132760B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公布了一种基于可学习可微分矩阵逆及矩阵分解的图像恢复方法,通过设计可学习的可微分矩阵逆模块LD‑Minv、可学习的可微分奇异值分解模块D‑SVD和基于学习的近邻算子,对输入的待恢复图像进行图像恢复,输出清晰图像。采用本发明的技术方案,能够以更小的计算消耗实现更卓越的图像恢复性能,并且模型具有可解释性以及更好的泛化性能。

Description

基于可学习可微分矩阵逆及矩阵分解的图像恢复方法
技术领域
本发明属于模式识别、机器学习、人工智能技术领域,涉及图像分类恢复方法,尤其涉及一种基于可学习的可微分矩阵逆及矩阵分解框架的图像恢复方法。
背景技术
矩阵逆(包括矩阵伪逆)和奇异值分解(SVD)是最基本的线性代数矩阵运算,其广泛应用于机器学习、统计学、信号处理等领域。一般来说,解决科学计算或优化问题(Solvea optimization problem)通常需要执行这两种运算,例如最小二乘回归算法需要矩阵(伪)逆,数据降维算法需要奇异值分解(SVD),基于低秩的图像恢复算法以及基于图的聚类算法都需要矩阵逆以及SVD。
尽管在传统机器学习领域,矩阵逆以及SVD深受欢迎。然而,在深度学习主导的现代机器学习中,他们被使用的频率却越来越低。这其中主要有两个原因。
第一个是效率原因。一般的矩阵逆以及SVD算法的计算效率很低。对于大规模问题,计算SVD和矩阵逆非常耗时。然而,在当前大数据和深度学习时代,高效率是算法应用与实际问题的一个重要前提
第二个原因是矩阵逆和SVD的不可微性。目前,主流的深度神经网络(DNN)的训练算法大多数基于反向传播,即是基于一阶梯度的。然而,矩阵逆和SVD是矩阵秩不连续函数。因此,除了一些特殊的常数秩矩阵,普通的矩阵逆和SVD的一阶梯度并不总是存在。虽然有的时候特殊的实现策略能使得矩阵逆以及SVD变得可反向传播,但这种策略极其不稳定。总的来说,矩阵逆以及大部分矩阵分解操作本质上不是连续可微的,因此,当反向传播时,梯度在经过这些算子的时候会出现不可预测的问题。
经典的图像恢复最后都归结为解决一个欠定的逆问题。具体来说,图像恢复可以表示为式(1):
Figure BDA0002680264750000011
其中,
Figure BDA0002680264750000012
是需要恢复的图像,即不带噪声和缺失的原图像,
Figure BDA0002680264750000013
是给定的线性变换算子(如卷积变换,傅里叶变换等),
Figure BDA0002680264750000014
分别是观测到的图像以及随机的噪声(y可以是带噪声的模糊图像或有缺失区域的图像)。图像恢复任务是试图从y中恢复出x。一般情况下,在给定先验信息的情况下,式(1)中的图像恢复可以通过解决如下优化问题来解决:
Figure BDA0002680264750000021
其中,f(·)度量当前x对方程(1)拟合的拟合程度,g(·)是基于先验信息添加的正则项。从传统机器学习的角度,解决式(2)表示的优化问题,一般会引入辅助变量之后采用交替更新的优化算法,例如线性交替方向乘子法(Linearized ADMM)。然而,在深度学习主导的现代机器学习中,算法的可学习性被视作一个重要的特性。通过引入可学习参数,相较于传统的算法,可学习算法能基于给定数据,在服从某个特定分布的数据上,以十分之一甚至百分之一的计算消耗得到性能近似的解。
因此,一方面,现有经典的图像恢复算法大多包含矩阵的逆或者矩阵分解的步骤。现有的技术无法同时解决矩阵分解在大规模数据上低分解效率,以及不可微分性的问题。另一方面,现有经典的基于优化的图像恢复算法不包含可学习的参数。因此,经典的算法无法依据给定的数据,自适应的调整优化的策略与参数,即不具备可学习性。除了基于优化的图像恢复算法,还有一部分是基于一般深度神经网络的图像恢复算法,该类方法大部分情况下是去直接拟合不带噪声目标图像。因此,该类方法的可解释性较差,并且对噪声不鲁棒。更重要的是,对训练数据要求很大并且泛化性能一般。
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,称作“可学习可微分图像恢复神经网络模型”,能够以更小的计算消耗实现更卓越的图像恢复性能,并且该模型具有可解释性以及更好的泛化性能。可学习可微分图像恢复神经网络模型解决了矩阵分解不可微分的问题,使得基于学习的分解算法成为可能;同时本发明还提高了矩阵分解的效率。其次,模型中引入的可学参数,使得本发明可以根据给定数据自适应的调整图像恢复的参数与策略。此外,本发明提出的可学习可微分图像恢复神经网络模型结构由传统的优化算法展开拓展而来,更具有解释性和鲁棒性,因此对训练数据的要求量较少。最后,同一般的有监督训练的图像恢复神经网络模型不同的是,本发明提出的模型是基于无监督的训练学习网络参数,即不需要预先取得无噪声无缺失的原图像,训练成本较低。
本发明的核心包括:设计可学习的可微分矩阵逆(LD-Minv),设计可学习的可微分奇异值分解(D-SVD),以及基于学习的近邻算子(Learning-based Proximal Operator)。利用本发明提供的可学习可微分的模块,即可实现基于学习的可微分矩阵逆及矩阵分解的图像恢复方法---可学习可微分的图像恢复神经网络模型。本方法中,输入是观测到的带噪声的图像数据,包括模糊图像,带噪声图像,带缺失图像等,输出为恢复出的清晰图像。由于本发明方法的可学习性,输入的图像可以是单张的也可以是批量的。具体实施表明,在基准数据集上,本发明设计的方法相对于现有传统的基于优化的图像恢复方法,以更小的计算消耗实现了更卓越的性能。
本发明提供的技术方案是:
一种基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,通过设计可学习的可微分矩阵逆(LD-Minv)、可学习的可微分奇异值分解(D-SVD)和基于学习的近邻算子,对输入的待恢复图像进行图像恢复,输出清晰图像;包括:
1、构建“可学习可微分图像恢复神经网络模型”,解决式(2)表示的优化问题。具体包括:引入可学习的可微分矩阵逆(LD-Minv)模块,用来解决优化过程中可能遇到的矩阵逆操作不可微的问题;引入可学习的可微分奇异值分解(D-SVD)模块,用来解决优化过程中可能遇到的奇异值分解操作不可微的问题;以及采用基于学习的近邻算子模块用来加强模型的可学习性能。三个模块均在保持其原来操作功能的基础上提高模型的可学习性以及提高模型的运算效率。
2、训练可学习可微分图像恢复神经网络模型,得到训练好的可学习可微分图像恢复神经网络模型
3、将观测图像/待恢复图像输入到训练好的可学习可微分图像恢复神经网络模型中,输出恢复好的图像。
以下描述具体过程:
1、构建“可学习可微分图像恢复神经网络模型”包括如下步骤,即步骤1)-步骤10):
1)输入是观测图像,
Figure BDA0002680264750000043
即待恢复的图像,为了方便说明,这里将单张图像向量化成一个d维向量。依据等式(1),我们这里有
Figure BDA0002680264750000045
其中
Figure BDA0002680264750000044
是最终可能恢复出的图像,
Figure BDA0002680264750000046
是给定的线性变换算子,
Figure BDA0002680264750000047
是随机的噪声。这里,期望从观测的图像y中恢复出x。
2)引入辅助变量
Figure BDA0002680264750000048
并将式(2)表示的优化改写成如下形式:
Figure BDA0002680264750000041
其中,
Figure BDA0002680264750000049
Figure BDA00026802647500000418
是依据上下文指定的线性或者非线性变换算子。
3)初始化x=x0,z=z0,其中令x0=y
Figure BDA00026802647500000410
并引入拉格朗日乘子项
Figure BDA00026802647500000411
初始化为全0向量。
4)选取增广项系数β>0,可在集合{0.01,0.1,1.0,10,100}中依据图像恢复效果手工调节,分别用于步骤5),步骤6)以及步骤9)中的参数更新。
5)选取关于函数f(·)的近端算子proxαf(·)中的惩罚系数α>0,可在集合{0.01,0.1,1.0,10,100}中依据图像恢复效果手工调节,该系数还用于步骤5=a)与5b)的计算。指定一个可学习可微分的算子
Figure BDA00026802647500000412
将其初始化为恒等映射
Figure BDA00026802647500000413
记关于函数f(·)的近端算子proxαf(·)输入为a,输出为b;将下述步骤5a)到5b)称为“基于学习的近邻算子”。利用基于学习的近邻算子更新辅助变量z,具体执行如下操作:
5a)计算关于f(·)的近端算子输入
Figure BDA00026802647500000414
5b)计算关于f(·)的近端算子输出b=proxαf(a),其中:
Figure BDA0002680264750000042
对于任意函数
Figure BDA00026802647500000415
Figure BDA00026802647500000416
的结果是使得函数
Figure BDA00026802647500000417
取得最小值的自变量的集合。
5c)利用z=b更新辅助变量z。
6)选取关于函数g(·)的近端算子proxγg(·)中的惩罚系数γ>0,可在集合{0.01,0.1,1.0,10,100}中依据图像恢复效果手工调节,该系数还用于步骤6a)和步骤6b)中计算。指定另一个可学习可微分的算子
Figure BDA0002680264750000054
Figure BDA00026802647500000512
将其初始化为
Figure BDA0002680264750000055
的伴随映射
Figure BDA0002680264750000056
其中
Figure BDA0002680264750000057
由式(3)给出。记关于函数g(·)的近端算子proxβg(·)输入为
Figure BDA0002680264750000058
输出为
Figure BDA0002680264750000059
注意,下述步骤6a)到6b)仍然为“基于学习的近邻算子”,只是参数有不同。利用基于学习的近邻算子更新变量x;具体执行如下操作:
6a)计算关于g(·)的近端算子输入
Figure BDA0002680264750000051
其中,
Figure BDA00026802647500000510
Figure BDA00026802647500000511
是另一个可学习可微分的算子,其初始化为
Figure BDA00026802647500000514
的伴随映射
Figure BDA00026802647500000513
6b)计算关于g(·)的近端算子输出
Figure BDA00026802647500000515
其中:
Figure BDA0002680264750000052
对于任意函数
Figure BDA00026802647500000516
Figure BDA00026802647500000517
的结果是使得函数
Figure BDA00026802647500000518
取得最小值的自变量的集合。
6c)利用
Figure BDA00026802647500000519
更新变量x。
7)若步骤5b)、步骤6b)中的近端算子proxγg(·)、proxαf(·)实际计算过程中需要进行传统矩阵逆的运算,则将5b)和6b)实际计算过程中的传统矩阵逆运算替换成如下LD-Minv模块。上述5b)和6b)中的prox是算子,依据式(2)(
Figure BDA00026802647500000520
中f或g,prox算子有不同的表式。如果prox算子的实际计算过程中有矩阵逆,即替换这些矩阵逆,没有则不替换。LD-Minv模块是一个K层神经网络,每一层为一个L阶矩阵多项式,表示为式(6),这里神经网络层数K可取10-20之间正整数,阶数L可取4-15之间正整数:
Figure BDA0002680264750000053
其中,A是需要执行矩阵逆操作的矩阵,下标0≤k≤K表示神经网络的当前层数,
Figure BDA00026802647500000521
是可学习的参数。由迭代式(6)定义的K层神经网络共包含K×L个可学参数,这里L指的是神经网络每一层的矩阵多项式的阶数。这里对Xk进行初始化,即
Figure BDA0002680264750000063
Figure BDA0002680264750000064
指的是矩阵A的最大奇异值。
8)若步骤5b)、6b)中的近端算子proxγg(·)、proxαf(·)实际计算过程中需要进行传统SVD的运算,则将步骤5b)和6b)实际计算过程中的传统SVD运算替换成下述步骤8a)至步骤8j)中定义的Ksvd层神经网络,这里神经网络的层数Ksvd可以取10-20之间的正整数。初始化奇异值向量矩阵U=U0,V=V0,其中U0,V0为任意满足条件
Figure BDA0002680264750000065
的矩阵,I是合适维度的恒等矩阵。Ksvd层神经网络的每一层均执行如下步骤:
8a)假定需要进行奇异值分解的矩阵为A,计算
GU=τ(AVVTATU-AVdiag(VTATU))-AV, (7)其中,GU为模型训练中定义的训练损失函数相对于U的梯度矩阵;τ>0是平衡系数;AT表示矩阵A的转置diag(·)表示的是输入矩阵对角元组成的对角矩阵,U,V为迭代中的左右奇异值向量矩阵。
8b)计算矩阵
Figure BDA0002680264750000066
PU为梯度矩阵GU在施蒂费尔流形(Stiefelmanifold)上U处切空间(Tangent Space)中的投影。对于任意正整数k,k维施蒂费尔流形是指通过坐标空间的原点的所有k维平面的集合。
8c)计算步长
Figure BDA0002680264750000067
Figure BDA0002680264750000061
其中,||·||是矩阵谱范数,||·||F是矩阵Frobenius范数,<·,·>表示的是矩阵内积。这里
Figure BDA0002680264750000068
是D-SVD模块的当前层针对于变量U的可学习参数,每一层的
Figure BDA0002680264750000069
可取不同的值;对于任意的
Figure BDA00026802647500000610
min{c,d}表示
Figure BDA0002680264750000062
8d)实例化一个步骤7)中定义的LD-Minv模块,记为LD-MinvU(·),用来计算矩阵
Figure BDA0002680264750000076
的近似逆,即
Figure BDA0002680264750000071
这里CU是当前LD-MinvU(·)模块的可学参数;HU是利用LD-MinvU(·)模块计算出的矩阵
Figure BDA0002680264750000077
的近似逆。
8e)利用如下等式更新U:
Figure BDA0002680264750000072
8f)计算梯度矩阵:
GV=τ(ATUUTAV-ATUdiag(UTAV))-ATU, (11)
其中,G为式(16)中定义的训练损失函数相对于V梯度矩阵;τ>0是平衡系数;AT表示矩阵A的转置,diag(·)表示的是输入矩阵对角元组成的对角矩阵,U,V为迭代中的左右奇异值向量矩阵。
8g)计算矩阵
Figure BDA0002680264750000078
PV为梯度矩阵GV在施蒂费尔流形上V处切空间中的投影。
8h)计算步长
Figure BDA0002680264750000079
Figure BDA0002680264750000073
其中,||·||是矩阵谱范数,||·||F是矩阵Frobenius范数,<·,·>表示的是矩阵内积。这里
Figure BDA00026802647500000710
是D-SVD模块当前层的针对于变量V可学习参数,每一层的
Figure BDA00026802647500000711
可取不同的值。对于任意的
Figure BDA00026802647500000712
min表示
Figure BDA0002680264750000074
8i)实例化一个步骤7)中定义的LD-Minv模块LD-MinvV(·),用来计算矩阵
Figure BDA00026802647500000713
的近似逆,即
Figure BDA0002680264750000075
这里CV是当前LD-MinvV(·)模块的可学参数。HV是利用LD-MinvV(·)模块计算出的矩阵
Figure BDA0002680264750000083
的近似逆。
8j)利用如下等式更新V:
Figure BDA0002680264750000081
9)更新
Figure BDA0002680264750000084
这里的β由步骤4)得到。
10)重复步骤4)-9)N次,N的大小可依据实验效果和计算效率综合考虑以后选取,可在10-20的正整数中选取,构建一个包含:多个LD-Minv模块,多个D-SVD模块以及2N个可学习近端算子组成的N层神经网络,得到可学习可微分的图像恢复神经网络模型。N为神经网络的层数,也等于迭代执行步骤4)-7)的次数;
2、训练可学习可微分图像恢复神经网络模型,具体是对可学习可微分的图像恢复神经网络模型中可学习的模块的训练,包括LD-Minv模块、D-SVD模块以及基于学习的近邻算子,具体的训练可学习可微分图像恢复神经网络模型步骤如下,即步骤a)-步骤f):
a)训练某一LD-Minv模块:固定其余所有可学模块(D-SVD模块、其余LD-Minv模块以及基于学习的近邻算子)中可学的参数,收集该LD-Minv实例对应的所有输入,组成训练数据,即将需要进行矩阵逆转换的所有矩阵记为训练数据,设训练数据的数量为nMinv。基于训练数据,用任意一阶无约束梯度算法(例如,梯度下降,随机梯度下降,ADAM算法等)训练LD-Minv模块,其最小化目标(训练损失函数)定义如下:
Figure BDA0002680264750000082
其中C是LD-Minv实例中所有的可学参数(见公式(6)),Ai表示的是第i个训练数据,X{k,i}指的是LD-Minv实例在第i个训练数据上第k层的输出(参见公式(6))。
b)重复训练a)步骤直到所有LD-Minv模块均得到一次参数更新。
c)训练某一D-SVD模块:固定其余所有可学模块(LD-Minv模块、其余D-SVD模块以及基于学习的近邻算子)中可学的参数,收集该D-SVD实例的对应的所有输入,组成训练数据,即需要进行奇异值分解的所有矩阵,将其记为训练数据,设其数量为nsvd。基于训练数据,用任意一阶无约束梯度算法训练D-SVD模块,其最小化目标(训练损失函数)定义如下:
Figure BDA0002680264750000091
其中t是该实例中所有的可学参数(见公式(8)和公式(12)),Ai表示的是第i个训练数据,Uk,i,Vk,i指的是D-SVD模块实例在第i个训练数据上第k层的输出(参见公式(10)和公式(14))。
d)重复训练步骤c)直到所有D-SVD模块均得到一次参数更新。
e)训练基于学习的近邻算子:固定其余所有可学模块(LD-Minv以及D-SVD)中可学的参数,收集步骤1中所有输入,组成训练数据,即需要进行图像恢复的所有图像数据,将其记为训练数据,设其数量为n。基于训练数据,用任意一阶无约束梯度算法训练基于学习的近邻算子模块,其最小化目标(训练损失函数)定义如下:
Figure BDA0002680264750000092
其中
Figure BDA0002680264750000093
是2N个基于学习的近邻算子中所有的可学参数(见步骤5和步骤6),yi表示的是第i个待恢复图像,即可学习可微分图像恢复神经网络模型的第i个输入数据,xk,i指的是可学习可微分图像恢复神经网络模型在第i个训练数据上第k层的输出(见步骤6c)。
f)重复训练步骤a)-e)T>0次以完成训练,得到训练好的可学习可微分的图像恢复神经网络模型;这里T可选100-3000之间的正整数,可依据图像恢复最终效果选取。如果训练数据较多,T可选取较大的值。
3、在得到训练好的可学习可微分的图像恢复神经网络模型后,将观测图像输入训练好的可学习可微分的图像恢复神经网络模型,网络模型的输出层即输出恢复好的图像。这里模型的输入是待恢复图像的图像数据,包括模糊图像,带噪声图像,带缺失图像等,输出为恢复出的清晰图像。
与现有技术相比,本发明的有益效果是:
本发明将经典的优化算法和数值迭代算法展开,与此同时,引入可学习参数,最终得到一个可学习的深层神经网络。通过对数据的训练,本发明方法的每一层运算的成本与原始算法一次迭代相似,但是本发明提供的方法可以在更少的迭代次数下获得更好的性能。与原算法相比,本发明提供的方法,在训练结束以后可以在少于一个甚至两个数量级的运算复杂度下提供与经典的基于优化的图像恢复几乎同样好的结果。
总的来说,本发明中的策略是将经典的优化或迭代算法与现代机器学习联系了起来。对于图像恢复任务,能够实现算法的自动设计。具体来说,本发明能够依据图像恢复任务的具体情况,实现自动设计网络结构,并且能够避免一般深度神经网络的黑盒效应,每一层的运算的功能都与经典算法相同,但是可学习性又让本发明中的方法能基于数据找到更适合的运算参数。因此本发明设计既避免了手工调参,又提高了运算效率。最后,本发明中的方法具有可微性,这意味着我们可以联合训练整个机器学习框架,而不是单独调整每个模块。
附图说明
图1是是本发明具体实施基于可学习可微分矩阵逆及矩阵分解的图像恢复方法的流程框图。
图2是在100×100的随机生成的矩阵上训练不同参数的LD-Minv模块实例得到的测试误差和网络参数的关系图;纵坐标是对数测试误差,K指的是LD-Minv(神经网络)模块的深度,L是指的每一层网络中多项式的阶数(见式(6))。可以看到,LD-Minv越深(K越大),每一层的多项式的阶数越高(L越大),效果越好,但是增加深度K带来的益处更明显。
具体实施方式
下面结合实施例进一步描述本发明,但不以任何方式限制本发明的范围。
本发明提供一种可学习的图像恢复方法,这里对于式(2)表示的优化,我们以非盲反卷积为例来为本发明提供一个实例,非盲反卷积是经典图像恢复任务之一。这里选取
Figure BDA0002680264750000113
其中B是给定卷积变换b的矩阵形式,W,WT分别为小波变换和小波逆变换。我们让
Figure BDA0002680264750000114
令g(x)=||Mt(x)||*,其中Mt(·)表示的是将向量化的图像数据转换为矩阵的形式,||·||*表示的是矩阵核范数,||·||2表示的是向量的l2范数。对于这里的非盲反卷积的图像恢复任务,构建本专利的可学习可微分图像恢复神经网络模型的包括如下步骤:
1)输入观测图像
Figure BDA0002680264750000115
为了方便说明,这里将单张图像向量化成一个d维向量。依据等式(1),我们这里有y=BWTx+n。其中
Figure BDA0002680264750000116
是最终可能恢复出的图像,
Figure BDA0002680264750000117
是随机的噪声。这里,期望从观测的图像y中恢复出x
2)引入辅助变量
Figure BDA0002680264750000118
并将式(2)表示的优化改写成如下形式:
Figure BDA0002680264750000111
其中
Figure BDA0002680264750000119
是小波变换的矩阵形式。
3)初始化x=x0,z=z0,其中令x0=y,z0=WTx0。并引入拉格朗日乘子项
Figure BDA00026802647500001110
初始化为全0向量。
4)选取增广项系数β>0,可在集合{0.01,0.1,1.0,10,100}中依据图像恢复效果手工调节,分别用于步骤5),步骤6)以及步骤7)中的参数更新。
5)选取近端算子中函数f(·)的惩罚系数α>0,可在集合{0.01,0.1,1.0,10,100}中依据图像恢复效果手工调节,用于步骤5a)和5c)的计算,并指定一个可学习可微分的算子
Figure BDA00026802647500001111
将其初始化为恒等映射
Figure BDA00026802647500001112
利用基于学习的近邻算子更新变量z;具体执行如下操作:
a)计算关于f(·)的近端算子输入:
Figure BDA0002680264750000112
b)实例化一个发明内容的步骤7中的LD-Minv模块,并利用这个可微可学习的矩阵逆模块实例计算矩阵(2αBTB+I)的近似逆TB=LD-Minv(2αBTB+I)。
c)计算关于f(·)的近端算子输出:b=proxαf(a)=TB(a+2αBTy)。
d)利用z=b更新辅助变量z。
6)选取近端算子中函数g(·)的惩罚系数γ>0,可在集合{0.01,0.1,1.0,10,100}中依据图像恢复效果手工调节。该系数用于步骤6-a)和步骤6-c)中的计算。指定另一个可学习可微分的矩阵
Figure BDA0002680264750000121
将其初始化为逆小波变换的矩阵形式WT。利用基于学习的近邻算子更新变量x;具体执行如下操作:
a)计算关于g(·)的近端算子输入
Figure BDA0002680264750000122
b)实例化一个发明内容的步骤8中的D-SVD模块,并利用这个可微可学习的奇异值分解模块实例计算[U,A,V]=D-SVD(Mt(a))。
c)计算关于g(·)的近端算子输出b=proxγg(a)=Usign(Λ)⊙(|A|-γI)VT,其中|·|表示的是对矩阵按矩阵元进行取绝对值操作,sign(·)表示的是对矩阵按矩阵元进行取符号操作,⊙表示的矩阵按矩阵元相乘操作。
d)利用x=b更新变量x。
7)更新λ=λ+β(z-WTx),这里的β由步骤4和5给出。
8)重复步骤4-715次,构建一个包含:多个LD-Minv模块,多个D-SVD模块以及30个可学习近端算子组成的15层神经网络,以实现可学习可微分的图像恢复神经网络模型。
9)输入的是批量的训练数据,利用发明内容的训练步骤a)-d)训练可学习可微分图像恢复神经网络模型,得到训练好的可学习可微分图像恢复神经网络模型。
10)在得到训练好的可学习可微分的图像恢复神经网络模型后,将观测图像输入训练好的可学习可微分的图像恢复神经网络模型,网络模型的输出层即输出恢复好的图像。。
本发明中的所有可学习模块均使用Adam算法训练。整个训练过程迭代300轮,批处理大小为100,即每次输入的待恢复图像为100张。学习速率初始值为1e-4,每30轮衰减为原来的1/2。
为进一步说明本专利所设计的方法的高效性,现对其中LD-Minv的模块的运算效率进行测试,针对于不同尺度大小的矩阵输入,表1对比了本发明中使用的LD-Minv模块进行矩阵逆所消耗的时间和目前主流的深度学习框架PyTorch进行矩阵逆所消耗的时间。
表1本发明方法与现有采用深度学习框架PyTorch进行矩阵逆消耗时间对比
10×10 50×50 100×100 200×200 500×500 1000×1000
L=4,K=4 0.0029 0.0068 0.01 0.026 0.39 1.2
L=4,K=8 0.0055 0.0087 0.013 0.045 0.54 2.19
L=4,K=12 0.0081 0.0133 0.018 0.054 0.62 3.03
L=4,K=5 0.0034 0.0049 0.01 0.023 0.36 1.36
L=8,K=5 0.0057 0.0073 0.013 0.049 0.52 2.38
L=12,K=5 0.0081 0.0107 0.018 0.059 0.66 3.51
PyTorch 0.46 0.57 1.19 2.55 11.22 38.48
表1中展示了LD-Minv选取不同参数(K和L)所进行矩阵逆运算所需要的时间。可以看到,随着输入矩阵尺度的增大,LD-Minv相较于PyTorch实现的精准矩阵逆的优势越来越明显。另外,在参数K和L都选取很大的值时,本发明中所设计的模块的计算消耗仍远小于对比的方法。可以看到本发明设计在效率方面的优势。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。

Claims (9)

1.一种基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,通过设计可学习的可微分矩阵逆模块LD-Minv、可学习的可微分奇异值分解模块D-SVD和基于学习的近邻算子,对输入的待恢复图像进行图像恢复,输出清晰图像;包括:
S1)通过设计可学习的可微分矩阵逆模块LD-Minv、可学习的可微分奇异值分解模块D-SVD和基于学习的近邻算子,构建可学习可微分图像恢复神经网络模型;包括步骤1)-步骤10):
1)将单张图像向量化成一个d维向量,图像恢复过程表示为:
Figure FDA0002680264740000011
其中
Figure FDA0002680264740000012
是最终可能恢复出的图像;
Figure FDA0002680264740000013
为输入观测图像,即待恢复的图像;
Figure FDA0002680264740000014
是给定的线性变换算子;
Figure FDA0002680264740000015
是随机噪声;
Figure FDA0002680264740000016
图像恢复过程转化为对
Figure FDA0002680264740000017
进行优化,其中,f(·)表示当前x的拟合程度;g(·)是基于先验信息添加的正则项;
2)引入辅助变量
Figure FDA0002680264740000018
并将对
Figure FDA0002680264740000019
进行优化转换成式(3):
Figure FDA00026802647400000110
其中,
Figure FDA00026802647400000111
是依据上下文指定的线性或者非线性变换算子;
3)初始化x=x0,z=z0,令x0=y,
Figure FDA00026802647400000113
并引入拉格朗日乘子项
Figure FDA00026802647400000114
初始化为全0向量;
4)选取增广项系数β>0;
5)选取关于函数f(·)的近端算子proxαf(·)中的惩罚系数α>0;设定可学习可微分的算子
Figure FDA00026802647400000115
将其初始化为恒等映射
Figure FDA00026802647400000116
记近端算子输入为a,近端算子输出为b;利用基于学习的近邻算子方法更新辅助变量z,具体执行如下操作:
5a)计算关于f(·)的近端算子输入
Figure FDA00026802647400000117
5b)计算关于f(·)的近端算子输出b=proxαf(a),其中:
Figure FDA00026802647400000118
5c)通过z=b更新辅助变量z;
6)选取关于函数g(·)的近端算子proxγg(·)中的惩罚系数γ>0,利用基于学习的近邻算子更新变量x;具体执行如下操作:
6a)计算关于g(·)的近端算子输入
Figure FDA0002680264740000021
其中,
Figure FDA0002680264740000022
是另一个可学习可微分的算子,初始化为
Figure FDA0002680264740000024
的伴随映射
Figure FDA0002680264740000025
6b)计算关于g(·)的近端算子输出
Figure FDA0002680264740000026
其中:
Figure FDA0002680264740000027
6c)通过
Figure FDA0002680264740000028
更新变量x;
7)若步骤5b)、6b)中的近端算子proxγg(·)、proxαf(·)输出计算中需要进行矩阵逆运算,则给定正整数K和L,使用式(6)表示的LD-Minv模块:
Figure FDA0002680264740000029
LD-Minv模块是一个K层神经网络,每一层为一个L阶矩阵多项式,共包含K×L个可学参数;其中,L指的是神经网络每一层的矩阵多项式的阶数;A是需要执行矩阵逆操作的矩阵,下标0≤k≤K表示神经网络的当前层数,
Figure FDA00026802647400000210
是可学习的参数;对Xk进行初始化,即
Figure FDA00026802647400000211
Figure FDA00026802647400000212
指的是矩阵A的最大奇异值;
8)若步骤5b)、6b)中的近端算子proxγg(·)、proxαf(·)输出计算中需要进行SVD运算,则使用步骤8a)至步骤8j)中定义的Ksvd层神经网络;初始化奇异值向量矩阵U=U0,V=V0,其中U0,V0为任意满足条件
Figure FDA00026802647400000213
的矩阵,I是合适维度的恒等矩阵;
Ksvd层神经网络的每一层均执行如下步骤:
8a)假定需要进行奇异值分解的矩阵为A,计算得到训练损失函数相对于U的梯度矩阵GU
8b)计算梯度矩阵GU在施蒂费尔Stiefel流形上的投影PU
8c)计算步长
Figure FDA00026802647400000214
8d)实例化步骤7)中定义的LD-Minv模块,记为LD-MinvU(·),计算矩阵
Figure FDA0002680264740000031
的近似逆HU
8e)根据HU更新U;
8f)计算得到训练损失函数相对于V梯度矩阵G;
8g)计算得到梯度矩阵GV在Stiefel流形上的投影矩阵PV
8h)计算步长
Figure FDA0002680264740000032
8i)实例化LD-Minv模块LD-MinvV(·),计算得到矩阵
Figure FDA0002680264740000033
的近似逆HV
8j)根据HV更新V:
9)更新
Figure FDA0002680264740000035
β为步骤4)选取的增广项系数;
10)重复步骤4)-7)N次,构建得到N层神经网络,包含:多个LD-Minv模块,多个D-SVD模块及2N个可学习近端算子,即得到可学习可微分的图像恢复神经网络模型;
S2)对可学习可微分的图像恢复神经网络模型中可学习的模块进行训练,包括LD-Minv模块、D-SVD模块以及可学习近端算子;包括步骤a)-d):
a)训练LD-Minv模块:
固定可学模块D-SVD及可学习近端算子中可学的参数,收集LD-Minv实例的所有输入组成训练数据,即将需要进行矩阵逆转换的所有矩阵记为训练数据,设训练数据的数量为nMinv;基于训练数据,用任意一阶无约束梯度算法训练LD-Minv模块,其最小化目标即训练损失函数定义如下:
Figure FDA0002680264740000034
其中,C是LD-Minv实例中所有的可学参数,Ai表示的是第i个训练数据,X{k,i}指的是LD-Minv实例在第i个训练数据上第k层的输出;
b)训练D-SVD模块:
固定可学模块LD-Minv和可学习的近端算子中可学的参数,收集D-SVD实例的所有输入组成训练数据,将需要进行奇异值分解的所有矩阵记为训练数据,设训练数据数量为nsvd;基于训练数据,用任意一阶无约束梯度算法训练D-SVD模块,最小化目标即训练损失函数定义如下:
Figure FDA0002680264740000041
其中,t是该实例中所有的可学参数,Ai表示的是第i个训练数据,Uk,i,Vk,i指的是D-SVD实例在第i个训练数据上第k层的输出;
c)训练可学习的近端算子:
固定可学模块LD-Minv及D-SVD中可学的参数,收集步骤1)中所有输入组成训练数据,将需要进行图像恢复的所有图像数据记为训练数据,设数量为n;用任意一阶无约束梯度算法训练可学近端算子模块,最小化目标即训练损失函数定义如下:
Figure FDA0002680264740000042
其中,
Figure FDA0002680264740000043
是2N个可学习近端算子实例中所有的可学参数,yi表示的是第i个待恢复图像,xk,i指的是可学习近端算子实例在第i个训练数据上第k层的输出;
d)重复训练步骤a)-c)T次,T>0,得到训练好的可学习可微分的图像恢复神经网络模型;
S3)将观测图像输入训练好的可学习可微分的图像恢复神经网络模型,网络模型的输出层即输出恢复好的清晰图像;
通过上述步骤,实现基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法。
2.如权利要求1所述基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,其特征是,输入待恢复图像的图像数据包括模糊图像,带噪声图像,带缺失图像。
3.如权利要求1所述基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,其特征是,步骤4)中,增广项系数β可在集合{0.01,0.1,1.0,10,100}中依据图像恢复效果选取并调节。
4.如权利要求1所述基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,其特征是,步骤5)中,近端算子中函数f(·)的惩罚系数α可在集合{0.01,0.1,1.0,10,100}中依据图像恢复效果选取并调节。
5.如权利要求1所述基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,其特征是,步骤6)中,近端算子中函数g(·)的惩罚系数γ可在集合{0.01,0.1,1.0,10,100}中依据图像恢复效果选取。
6.如权利要求1所述基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,其特征是,步骤8)中,神经网络的层数Ksvd的取值为10-20之间的正整数。
7.如权利要求1所述基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,其特征是,步骤8a)具体通过式(7)计算得到训练损失函数相对于U的梯度矩阵:
Figure FDA0002680264740000059
其中,GU为式(16)中定义的训练损失函数相对于U的梯度矩阵;τ>0是平衡系数;
Figure FDA00026802647400000510
表示矩阵A的转置diag(·)表示的是输入矩阵对角元组成的对角矩阵,U,V为迭代中的左右奇异值向量矩阵;
步骤8b)具体利用
Figure FDA0002680264740000051
计算得到梯度矩阵GU在Stiefel流形上的投影;
步骤8c)通过式(8)计算得到步长
Figure FDA0002680264740000052
Figure FDA0002680264740000053
其中,||·||是矩阵谱范数,||·||F是矩阵Frobenius范数,<·,·>表示的是矩阵内积;
Figure FDA0002680264740000054
是D-SVD模块的当前层针对于变量U的可学习参数;
步骤8d)通过式(9)计算得到矩阵
Figure FDA0002680264740000055
的近似逆:
Figure FDA0002680264740000056
其中,CU是当前LD-MinvU(·)模块的可学参数;HU是利用LD-MinvU(·)模块计算出的矩阵
Figure FDA0002680264740000057
的近似逆;
步骤8e)具体利用式(10)更新U:
Figure FDA0002680264740000058
步骤8f)具体利用式(11)计算得到梯度矩阵:
Figure FDA0002680264740000068
其中,G为训练损失函数相对于V梯度矩阵;τ>0是平衡系数;
Figure FDA0002680264740000069
表示矩阵A的转置,diag(·)表示的是输入矩阵对角元组成的对角矩阵,U,V为迭代中的左右奇异值向量矩阵;
步骤8g)具体通过
Figure FDA00026802647400000610
计算得到梯度矩阵GV在Stiefel流形上的投影PV
步骤8h)具体通过式(12)计算得到步长
Figure FDA0002680264740000061
Figure FDA0002680264740000062
其中,||·||是矩阵谱范数,||·||F是矩阵Frobenius范数,<·,·>表示的是矩阵内积;
Figure FDA0002680264740000063
是D-SVD模块当前层的针对于变量V可学习参数;
步骤8i)具体通过式(13)计算矩阵
Figure FDA0002680264740000064
的近似逆:
Figure FDA0002680264740000065
其中,CV是当前LD-MinvV(·)模块的可学参数;HV是利用LD-MinvV(·)模块计算出的矩阵
Figure FDA0002680264740000066
的近似逆;
步骤8j)具体等式更新V:
Figure FDA0002680264740000067
8.如权利要求1所述基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,其特征是,步骤10)中,N为神经网络的层数,等于迭代次数,取值为10-20的正整数。
9.如权利要求1所述基于可学习的可微分矩阵逆及矩阵分解的图像恢复方法,其特征是,步骤d)中,T取值为100-3000之间的正整数。
CN202010960192.6A 2020-09-14 2020-09-14 基于可学习可微分矩阵逆及矩阵分解的图像恢复方法 Active CN112132760B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010960192.6A CN112132760B (zh) 2020-09-14 2020-09-14 基于可学习可微分矩阵逆及矩阵分解的图像恢复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010960192.6A CN112132760B (zh) 2020-09-14 2020-09-14 基于可学习可微分矩阵逆及矩阵分解的图像恢复方法

Publications (2)

Publication Number Publication Date
CN112132760A true CN112132760A (zh) 2020-12-25
CN112132760B CN112132760B (zh) 2024-02-27

Family

ID=73845698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010960192.6A Active CN112132760B (zh) 2020-09-14 2020-09-14 基于可学习可微分矩阵逆及矩阵分解的图像恢复方法

Country Status (1)

Country Link
CN (1) CN112132760B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113240596A (zh) * 2021-05-07 2021-08-10 西南大学 一种基于高阶张量奇异值分解的彩色视频恢复方法及系统
CN113256519A (zh) * 2021-05-20 2021-08-13 北京沃东天骏信息技术有限公司 图像的恢复方法、设备、存储介质及程序产品
CN114580648A (zh) * 2022-03-09 2022-06-03 北京百度网讯科技有限公司 消除广义振幅阻尼噪声的方法及装置、电子设备和介质
CN114580649A (zh) * 2022-03-09 2022-06-03 北京百度网讯科技有限公司 消除量子泡利噪声的方法及装置、电子设备和介质
CN114972802A (zh) * 2022-04-18 2022-08-30 北京理工大学 一种基于混合监督模型的高光谱图像恢复方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107067380A (zh) * 2017-03-28 2017-08-18 天津大学 基于低秩张量和层次化字典学习的高分辨率图像重构方法
US20180158177A1 (en) * 2016-12-07 2018-06-07 Idemia Identity & Security France System for processing images
CN108615225A (zh) * 2018-04-11 2018-10-02 浙江传媒学院 一种基于svd近似矩阵约束的图像深度学习修复方法
CN111062474A (zh) * 2018-10-16 2020-04-24 北京大学 一种求解提升邻近算子机的神经网络优化方法
CN111337893A (zh) * 2019-12-19 2020-06-26 江苏大学 一种基于实值稀疏贝叶斯学习的离格doa估计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180158177A1 (en) * 2016-12-07 2018-06-07 Idemia Identity & Security France System for processing images
CN107067380A (zh) * 2017-03-28 2017-08-18 天津大学 基于低秩张量和层次化字典学习的高分辨率图像重构方法
CN108615225A (zh) * 2018-04-11 2018-10-02 浙江传媒学院 一种基于svd近似矩阵约束的图像深度学习修复方法
CN111062474A (zh) * 2018-10-16 2020-04-24 北京大学 一种求解提升邻近算子机的神经网络优化方法
CN111337893A (zh) * 2019-12-19 2020-06-26 江苏大学 一种基于实值稀疏贝叶斯学习的离格doa估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周俊秀;裘国永;刘侍刚;梁新刚: "迭代张量高阶奇异值分解的图像恢复方法", 计算机应用研究, vol. 30, no. 11, pages 3488 - 3491 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113240596A (zh) * 2021-05-07 2021-08-10 西南大学 一种基于高阶张量奇异值分解的彩色视频恢复方法及系统
CN113240596B (zh) * 2021-05-07 2023-10-27 西南大学 一种基于高阶张量奇异值分解的彩色视频恢复方法及系统
CN113256519A (zh) * 2021-05-20 2021-08-13 北京沃东天骏信息技术有限公司 图像的恢复方法、设备、存储介质及程序产品
CN114580648A (zh) * 2022-03-09 2022-06-03 北京百度网讯科技有限公司 消除广义振幅阻尼噪声的方法及装置、电子设备和介质
CN114580649A (zh) * 2022-03-09 2022-06-03 北京百度网讯科技有限公司 消除量子泡利噪声的方法及装置、电子设备和介质
CN114580648B (zh) * 2022-03-09 2024-07-16 北京百度网讯科技有限公司 消除广义振幅阻尼噪声的方法及装置、电子设备和介质
CN114580649B (zh) * 2022-03-09 2024-07-19 北京百度网讯科技有限公司 消除量子泡利噪声的方法及装置、电子设备和介质
CN114972802A (zh) * 2022-04-18 2022-08-30 北京理工大学 一种基于混合监督模型的高光谱图像恢复方法和系统
CN114972802B (zh) * 2022-04-18 2024-05-31 北京理工大学 一种基于混合监督模型的高光谱图像恢复方法和系统

Also Published As

Publication number Publication date
CN112132760B (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
CN112132760A (zh) 基于可学习可微分矩阵逆及矩阵分解的图像恢复方法
Yang et al. Feed-forward neural network training using sparse representation
CN107516129B (zh) 基于维度自适应的Tucker分解的深度网络压缩方法
Huang et al. WINNet: Wavelet-inspired invertible network for image denoising
Yuan et al. High-order tensor completion via gradient-based optimization under tensor train format
CN104866900B (zh) 一种反卷积神经网络训练方法
Zuo et al. A Generalized Accelerated Proximal Gradient Approach for Total-Variation-Based Image Restoration<? query valign="-12pt" COPYEDITED="" FILE=""?
Bohra et al. Learning activation functions in deep (spline) neural networks
CN111369487B (zh) 一种高光谱和多光谱图像融合方法、系统及介质
Garrigues et al. An homotopy algorithm for the Lasso with online observations
CN112700389B (zh) 一种活性污泥微生物彩色显微图像去噪方法
CN110717519A (zh) 训练、特征提取、分类方法、设备及存储介质
CN109977989B (zh) 一种图像张量数据的处理方法
CN110782019A (zh) 基于分解和剪枝的卷积神经网络压缩方法、系统、装置
Jia et al. Dual non-autonomous deep convolutional neural network for image denoising
CN105551005B (zh) 耦合了梯度保真项的总变差模型快速图像复原方法
CN111476346A (zh) 一种基于牛顿共轭梯度法的深度学习网络架构
CN106067165A (zh) 基于聚类化稀疏随机场的高光谱图像去噪方法
Wu Online tensor low-rank representation for streaming data clustering
Sheng et al. SRNet: Sparse representation-based network for image denoising
CN108876750B (zh) 一种基于非局部相似性低秩矩阵的图像去除泊松噪声的方法
Wang et al. Partial-update strictly linear, semi-widely linear, and widely linear geometric-algebra adaptive filters
CN113869503A (zh) 一种基于深度矩阵分解补全的数据处理方法及存储介质
Liao et al. Tensor completion via convolutional sparse coding with small samples-based training
CN106296583A (zh) 基于图像块组稀疏编码与成对映射的含噪高光谱图像超分辨率重构方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant