CN112164011A - 基于自适应残差与递归交叉注意力的运动图像去模糊方法 - Google Patents
基于自适应残差与递归交叉注意力的运动图像去模糊方法 Download PDFInfo
- Publication number
- CN112164011A CN112164011A CN202011085140.5A CN202011085140A CN112164011A CN 112164011 A CN112164011 A CN 112164011A CN 202011085140 A CN202011085140 A CN 202011085140A CN 112164011 A CN112164011 A CN 112164011A
- Authority
- CN
- China
- Prior art keywords
- feature
- attention
- image
- module
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000008569 process Effects 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 17
- 230000003044 adaptive effect Effects 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 208000023445 Congenital pulmonary airway malformation Diseases 0.000 claims description 7
- 230000009467 reduction Effects 0.000 claims description 6
- 230000017105 transposition Effects 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000009471 action Effects 0.000 claims description 3
- 230000003321 amplification Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008447 perception Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自适应残差与递归交叉注意力的运动图像去模糊方法,其特征在于,包括:1)去模糊网络框架的建立;2)浅层特征提取;3)自适应残差过程;4)递归交叉注意力过程;5)图像重建;6)判别网络模型。这种方法能解决运动模糊图像的非均匀性问题,去除伪影且获取更多的图像高频特征,重建出纹理细节丰富的高质量图像。
Description
技术领域
本发明涉及智能图像处理技术领域,具体是一种基于自适应残差与递归交叉注意力的运动图像去模糊方法。
背景技术
运动模糊图像是由于拍照时相机抖动和物体运动造成的降质图像。运动图像去模糊的目的则是在给定运动模糊图像的情况下,对未知的清晰图像进行重建估计,该应用有利于其他计算机视觉任务,如目标检索、图像恢复、动作识别、事件检测、图像质量评价等。
近年来,得益于深度学习在图像恢复方面的优越性能,将其运用在运动图像去模糊应用中获得不错的效果。Gong等人将非均匀的运动模糊表示为像素方向的线性运动模糊,所提出的方法利用全卷积神经网络(Fully-Convolutional deep Neural Network)估计密集运动流图进行模糊去除。与添加图像先验来估计模糊核相比,学习运动流可以使模型专注于模糊的原因,而不需要对图像内容进行建模,减少了学习的复杂度;Noroozi等人利用端到端的多尺度CNN策略来分解去模糊任务的复杂性,能够在遮挡、运动视差和相机旋转等动态情况下恢复清晰的图像。另一方面,随着生成对抗网络(Generative AdversarialNetwork,简称GAN)的提出,将其用于各种图像转换任务表现出强大的生成能力。受此启发,Kupyn等人使用条件对抗网络结合感知损失进行盲运动去模糊,对抗网络通过对图形结构的学习,能够快速的重建出逼真的生成图像,与此同时,利用感知损失对对抗网络进行约束,保证了生成图像的感知保真度。
尽管当前一些基于深度学习的运动图像去模糊方法已经获得了一定的效果,但在设计CNN结构时未考虑到由运动模糊图像形变引起的非均匀性,使用标准卷积中相同的卷积核参数来处理非均匀的模糊内容,会导致网络在对一些复杂场景下生成的模糊图像去模糊效果较差。其次,随着网络加深,容易导致网络难以训练,无法有效的提取高频信息,除此之外,目前基于卷积神经网络的方法在学习运动模糊图像与清晰图像的非线性映射函数时,受卷积局部操作的限制,无法捕捉每一特征像素与距离较远的特征像素间的相似性信息,只能在局部范围内捕获相关的上下文信息,即无法对所有位置的全局相似特征信息进行联系。这种通过局部特征所提取的上下文信息往往只是局部性的,未能充分表达特征的全局性,对于纹理特征的表达往往不能达到令人满意的效果。
发明内容
本发明的目的是针对现有运动图像去模糊技术的不足,而提供一种基于自适应残差与递归交叉注意力的运动图像去模糊方法。这种方法能解决运动模糊图像的非均匀性问题,去除伪影且获取更多的图像高频特征,重建出纹理细节丰富的高质量图像。
实现本发明目的的技术方案是:
一种基于自适应残差与递归交叉注意力的运动图像去模糊方法,包括如下步骤:
1)去模糊网络框架的建立:基于对抗博弈的思想,去模糊网络包括生成网络G和判别网络D,所述生成网络G设有浅层特征提取模块Me、自适应残差模块即ARM、递归交叉注意力模块即RCCAM和特征重建模块Mr,所述判别网络D对所学习的去模糊图像和清晰图像进行判别;
2)浅层特征提取:步骤1)中生成网络G的输入为原始的模糊图像B,
首先采用Me对输入的模糊图像B进行浅层特征提取,得到浅层特征P0如公式(1)所示:
P0=Me(B) (1);
3)自适应残差过程:在步骤1)之后加入9个自适应残差模块ARM,对浅层特征P0进行深层次特征学习,如公式(2)所示:
Pr=Pl(Pl-1(…P1(P0)…)) (2);
4)递归交叉注意力过程:将步骤3)中得到的Pr送入递归交叉注意力模块即RCCAM中,得到全局性特征PRCCAM如公式(3)所示:
5)图像重建:特征重建模块Mr采用PRCCAM进行图像重建,并结合全局跳跃连接GSC得到去模糊图像y;
6)判别网络模型:判别网络D的输入是步骤5)中生成的去模糊图像y与真实的清晰图像,对两者进行判别。
步骤1)中所述的浅层特征提取模块Me设有一个7×7卷积层和两个3×3的卷积层,在每个卷积层后面都加入实例归一化IN(Instance Normalization,简称IN))和ReLU函数。
步骤1)中所述的特征重建模块Mr设有转置卷积和7×7卷积,转置卷积后面加入实例归一化IN)和ReLU,采用tanh作为激活函数。
步骤1)中所述的判别网络D设有5个卷积层、卷积核大小都设置为4×4,除了第一层和最后一层卷积外,每一卷积层后面都加入实例归一化IN)和非线性激活函数LeakyReLU,判别网络D采用PatchGAN方式,在图像中64×64大小的图像块上判别出此图像是属于生成的去模糊图像还是清晰图像。
步骤3)中所述的自适应残差过程包括形变卷积模块和通道注意力模块组成且输入和输出之间又通过短跳连接SSC进行联系,具体如下:输入为步骤2)中的浅层特征P0,先经由两层3×3卷积以及实例归一化IN和ReLU层组成的残差基本块进行特征提取得到残差特征Pc,并送入形变卷积模块:
标准卷积结构对输入的特征进行特征提取时,所获取的特征映射fs的每个位置Pb表示如公式(4)所示:
R表示标准的卷积结构,Pn为R的枚举位置,在形变卷积模块中,采用常规卷积Pa学习输入特征的偏移量ΔPn,随后把偏移量ΔPn加入到原先的规则采样位置得到新的采样位置,并采用(w1,w2,...w9)表示3×3大小的卷积核,根据新的采样位置而进行动态变化,最终得到的形变特征fc如公式(5)所示:
随后,将所提取的形变特征fc送入通道注意力模块中进行通道筛选,首先,采用全局平均池化yp将形变特征fc由大小为H×W×C减小到1×1×C,fc变成一个实数yc,具体过程如公式(6)所示:
为了建模图像特征各通道间的相关性,引入门控机制Fex,它使用sigmoid函数和ReLU函数来现如公式(7)所示:
其中β和δ分别表示sigmoid函数和ReLU函数,HD和HU分别代表卷积层的降维和升维权重集,yc首先经由HD以缩减比r=16进行通道缩减得到描述各通道特征的通道描述符,其大小为在经ReLU函数激活后,随后由权重设置为HU的通道放大层以比率r=16增加,恢复到大小1×1×C,然后通过sigmoid函数将其范围缩放至0到1之间,最终得到通道特征的权重集合rc,它表示经过特征选择后每个通道特征的重要性,将rc与输入的形变特征fc进行通道元素相乘,得到筛选后的特征其大小为H×W×C如公式(8)所示:
前一阶段输入的形变特征fc通过通道注意力模块的提取后被自适应地重新缩放选择,可以使网络更加关注于含有高频特征的通道,增加对冗余特征的抑制,从而提升网络性能。
步骤1)中所述的递归交叉注意力模块即RCCAM设有两个串联的单交叉注意力模块即CCAM,而每个单交叉注意力模块CCAM具体动作过程如下:
交叉注意力模块分为两条支路,第一条支路称为注意力生成支路,可以生成注意力图A,首先,注意力生成支路输入为步骤3)的Pr,为方便表示,注意力图A大小为H×W×C,先利用两个1×1卷积层,得到大小为H×W×C'的两个特征图Q、K,在特征图Q的每个位置u,在所有通道可以得到向量Qu∈RC′,同样的,在特征图K中,可以提取与u位置相同的行或列的特征向量集合Ωu∈R(H+W-1)×C',其中,Ωi,u是Ωu的第i个元素,为得到每个位置Qu与Ωi,u相似性程度,进行如公式(9)所示的操作:
di,u=QuΩi,u T (9),
Ωi,u经转置操作后与Qu进行乘法运算得到表示特征相似度di,u,最后通过softmax层对di,u进行归一化操作计算得到注意力图A;
第二条支路同样是用1×1卷积层对特征H进行操作以获取特征V,且V∈RC×W×H,同理,在特征映射V的每个位置u可以得到特征向量Vu∈RC,且其与每一位置u同一行或同一列的向量集合为Φu∈R(H+W-1)×C,由此,对上下文信息的聚合操作可如公式(10)所示表达:
Ai,u表示注意力特征图A在位置u的第i个通道的标量值,也代表着位置u的上下文信息,或者说是与位置u同行或者同列的特征元素与u的关联程度,Hu'表示输出特征H'∈RC ×W×H在位置u时的特征,也即表示每一特征元素在经聚合上下文信息增强后的特征表示,通过交叉注意力从空间上有选择的聚合上下文信息,可以实现特征之间的相互增益,在经过两个CCAM级联形成的RCCAM能更好的捕捉全局特征,增强去模糊图像纹理细节的表达能力。
上述技术方案,有效地实现了模糊伪影的去除,能够重建出纹理丰富的高质量去模糊图像:
(1)形变卷积模块通过对空间采样的位置信息作进一步位移调整,以自适应动态采样的方式解决了卷积神经网络在抓取图像特征时无法有效的适应运动模糊图像的非均性问题;
(2)通道注意力模块通过学习的方式来自动获取到每个通道特征的重要程度,提升对重要特征的学习并抑制用处不大的特征。能使网络在训练过程中更加关注含有丰富高频信息的通道,有助于纹理细节的重建。
(3)由(1)和(2)组成的自适应残差模块能够充分融合两者的优势,实现高效的模糊图像复原;
(4)递归交叉注意力模块通过所提取的全局上下文信息,实现特征增益,进一步增强对于纹理细节的表达能力。
这种方法能解决运动模糊图像的非均匀性问题,去除伪影且获取更多的图像高频特征,重建出纹理细节丰富的高质量图像。
附图说明
图1为实施例中方法流程示意图;
图2为实施例中自适应残差模块示意图;
图3为实施例中形变卷积模块示意图;
图4为实施例中通道注意力模块示意图;
图5为实施例递归交叉注意力模块示意图。
具体实施方式
下面结合附图和实施例对本发明内容作进一步的说明,但不是对本发明的限定。
实施例:
参照图1,一种基于自适应残差与递归交叉注意力的运动图像去模糊方法,包括如下步骤:
1)去模糊网络框架的建立:基于对抗博弈的思想,去模糊网络包括生成网络G和判别网络D,所述生成网络G设有浅层特征提取模块Me、自适应残差模块即ARM、递归交叉注意力模块即RCCAM和特征重建模块Mr,所述判别网络D对所学习的去模糊图像和清晰图像进行判别;
2)浅层特征提取:步骤1)中生成网络G的输入为原始的模糊图像B,
首先采用Me对输入的模糊图像B进行浅层特征提取,得到浅层特征P0如公式(1)所示:
P0=Me(B) (1);
3)自适应残差过程:在步骤1)之后加入9个自适应残差模块ARM,对浅层特征P0进行深层次特征学习,如公式(2)所示:
Pr=Pl(Pl-1(…P1(P0)…)) (2);
4)递归交叉注意力过程:将步骤3)中得到的Pr送入递归交叉注意力模块即RCCAM中,得到全局性特征PRCCAM如公式(3)所示:
5)图像重建:图像重建模块Mr采用PRCCAM进行图像重建,并结合全局跳跃连接GSC得到去模糊图像y;
6)判别网络模型:判别网络D的输入是步骤5)中生成的去模糊图像y与真实的清晰图像,对两者进行判别。
步骤1)中所述的浅层特征提取模块Me设有一个7×7卷积层和两个3×3的卷积层,在每个卷积层后面都加入实例归一化IN)和ReLU函数。
步骤1)中所述的特征重建模块Mr设有转置卷积和7×7卷积,转置卷积后面加入实例归一化IN)和ReLU,采用tanh作为激活函数。
步骤1)中所述的判别网络D设有5个卷积层、卷积核大小都设置为4×4,除了第一层和最后一层卷积外,每一卷积层后面都加入实例归一化IN)和非线性激活函数LeakyReLU,判别网络D采用PatchGAN方式,在图像中64×64大小的图像块上判别出此图像是属于生成的去模糊图像还是清晰图像。
如图2所示,步骤3)中所述的自适应残差过程包括形变卷积模块和通道注意力模块组成且输入和输出之间又通过短跳连接SSC进行联系,具体如下:输入为步骤2)中的浅层特征P0,先经由两层3×3卷积以及实例归一化IN和ReLU层组成的残差基本块进行特征提取得到残差特征Pc,并送入如图3所示的形变卷积模块:
标准卷积结构对输入的特征进行特征提取时,所获取的特征映射fs的每个位置Pb表示如公式(4)所示:
R表示标准的卷积结构,Pn为R的枚举位置,在形变卷积模块中,采用常规卷积Pa学习输入特征的偏移量ΔPn,随后把偏移量ΔPn加入到原先的规则采样位置得到新的采样位置,并采用(w1,w2,...w9)表示3×3大小的卷积核,根据新的采样位置而进行动态变化,最终得到的形变特征fc如公式(5)所示:
随后,将所提取的形变特征fc送入如图4所示的通道注意力模块中进行通道筛选,首先,采用全局平均池化yp将形变特征fc由大小为H×W×C减小到1×1×C,fc变成一个实数yc,具体过程如公式(6)所示:
为了建模图像特征各通道间的相关性,引入门控机制Fex,它使用sigmoid函数和ReLU函数来现如公式(7)所示:
其中β和δ分别表示sigmoid函数和ReLU函数,HD和HU分别代表卷积层的降维和升维权重集,yc首先经由HD以缩减比r=16进行通道缩减得到描述各通道特征的通道描述符,其大小为在经ReLU函数激活后,随后由权重设置为HU的通道放大层以比率r=16增加,恢复到大小1×1×C,然后通过sigmoid函数将其范围缩放至0到1之间,最终得到通道特征的权重集合rc,它表示经过特征选择后每个通道特征的重要性,将rc与输入的形变特征fc进行通道元素相乘,得到筛选后的特征其大小为H×W×C如公式(8)所示:
前一阶段输入的形变特征fc通过通道注意力模块的提取后被自适应地重新缩放选择,可以使网络更加关注于含有高频特征的通道,增加对冗余特征的抑制,从而提升网络性能。
步骤1)中所述的递归交叉注意力模块即RCCAM如图5所示,设有两个串联的单交叉注意力模块即CCAM,而每个单交叉注意力模块CCAM具体动作过程如下:
交叉注意力模块分为两条支路,第一条支路称为注意力生成支路,可以生成注意力图A,首先,注意力生成支路输入为步骤3)的Pr,为方便表示,注意力图A大小为H×W×C,先利用两个1×1卷积层,得到大小为H×W×C'的两个特征图Q、K,在特征图Q的每个位置u,在所有通道可以得到向量Qu∈RC′,同样的,在特征图K中,可以提取与u位置相同的行或列的特征向量集合Ωu∈R(H+W-1)×C',其中,Ωi,u是Ωu的第i个元素,为得到每个位置Qu与Ωi,u相似性程度,进行如公式(9)所示的操作:
di,u=QuΩi,u T (9),
Ωi,u经转置操作后与Qu进行乘法运算得到表示特征相似度di,u,最后通过softmax层对di,u进行归一化操作计算得到注意力图A;
第二条支路同样是用1×1卷积层对特征H进行操作以获取特征V,且V∈RC×W×H,同理,在特征映射V的每个位置u可以得到特征向量Vu∈RC,且其与每一位置u同一行或同一列的向量集合为Φu∈R(H+W-1)×C,由此,对上下文信息的聚合操作可如公式(10)所示表达:
Ai,u表示注意力特征图A在位置u的第i个通道的标量值,也代表着位置u的上下文信息,或者说是与位置u同行或者同列的特征元素与u的关联程度,Hu′表示输出特征H'∈RC ×W×H在位置u时的特征,也即表示每一特征元素在经聚合上下文信息增强后的特征表示,通过交叉注意力从空间上有选择的聚合上下文信息,可以实现特征之间的相互增益,在经过两个CCAM级联形成的RCCAM能更好的捕捉全局特征,增强去模糊图像纹理细节的表达能力。
Claims (6)
1.一种基于自适应残差与递归交叉注意力的运动图像去模糊方法,其特征在于,包括如下步骤:
1)去模糊网络框架的建立:去模糊网络包括生成网络G和判别网络D,所述生成网络G设有浅层特征提取模块Me、自适应残差模块即ARM、递归交叉注意力模块即RCCAM和特征重建模块Mr,所述判别网络D对所学习的去模糊图像和清晰图像进行判别;
2)浅层特征提取:步骤1)中生成网络G的输入为原始的模糊图像B,
首先采用Me对输入的模糊图像B进行浅层特征提取,得到浅层特征P0如公式(1)所示:
P0=Me(B) (1);
3)自适应残差过程:在步骤1)之后加入9个自适应残差模块ARM,对浅层特征P0进行深层次特征学习,如公式(2)所示:
Pr=Pl(Pl-1(…P1(P0)…)) (2);
4)递归交叉注意力过程:将步骤3)中得到的Pr送入递归交叉注意力模块即RCCAM中,得到全局性特征PRCCAM如公式(3)所示:
5)图像重建:图像重建模块Mr采用PRCCAM进行图像重建,并结合全局跳跃连接GSC得到去模糊图像y;
6)判别网络模型:判别网络D的输入是步骤5)中生成的去模糊图像y与真实的清晰图像,对两者进行判别。
2.根据权利要求1所述的基于自适应残差与递归交叉注意力的运动图像去模糊方法,其特征在于,步骤1)中所述的浅层特征提取模块Me设有一个7×7卷积层和两个3×3的卷积层,在每个卷积层后面都加入实例归一化IN)和ReLU函数。
3.根据权利要求1所述的基于自适应残差与递归交叉注意力的运动图像去模糊方法,其特征在于,步骤1)中所述的特征重建模块Mr设有转置卷积和7×7卷积,转置卷积后面加入实例归一化IN)和ReLU,采用tanh作为激活函数。
4.根据权利要求1所述的基于自适应残差与递归交叉注意力的运动图像去模糊方法,其特征在于,步骤1)中所述的判别网络D设有5个卷积层、卷积核大小都设置为4×4,除了第一层和最后一层卷积外,每一卷积层后面都加入实例归一化IN)和非线性激活函数LeakyReLU,判别网络D采用PatchGAN方式,在图像中64×64大小的图像块上判别出此图像是属于生成的去模糊图像还是清晰图像。
5.根据权利要求1所述的基于自适应残差与递归交叉注意力的运动图像去模糊方法,其特征在于,步骤3)中所述的自适应残差过程包括形变卷积模块和通道注意力模块组成且输入和输出之间又通过短跳连接SSC进行联系,具体如下:输入为步骤2)中的浅层特征P0,先经由两层3×3卷积以及实例归一化IN和ReLU层组成的残差基本块进行特征提取得到残差特征Pc,并送入形变卷积模块:
标准卷积结构对输入的特征进行特征提取时,所获取的特征映射fs的每个位置Pb表示如公式(4)所示:
R表示标准的卷积结构,Pn为R的枚举位置,在形变卷积模块中,采用常规卷积Pa学习输入特征的偏移量ΔPn,随后把偏移量ΔPn加入到原先的规则采样位置得到新的采样位置,并采用(w1,w2,...w9)表示3×3大小的卷积核,根据新的采样位置而进行动态变化,最终得到的形变特征fc如公式(5)所示:
随后,将所提取的形变特征fc送入通道注意力模块中进行通道筛选,首先,采用全局平均池化yp将形变特征fc由大小为H×W×C减小到1×1×C,fc变成一个实数yc,具体过程如公式(6)所示:
引入门控机制Fex,它使用sigmoid函数和ReLU函数来现如公式(7)所示:
其中β和δ分别表示sigmoid函数和ReLU函数,HD和HU分别代表卷积层的降维和升维权重集,yc首先经由HD以缩减比r=16进行通道缩减得到描述各通道特征的通道描述符,其大小为在经ReLU函数激活后,随后由权重设置为HU的通道放大层以比率r=16增加,恢复到大小1×1×C,然后通过sigmoid函数将其范围缩放至0到1之间,最终得到通道特征的权重集合rc,它表示经过特征选择后每个通道特征的重要性,将rc与输入的形变特征fc进行通道元素相乘,得到筛选后的特征其大小为H×W×C如公式(8)所示:
6.根据权利要求1所述的基于自适应残差与递归交叉注意力的运动图像去模糊方法,其特征在于,步骤1)中所述的递归交叉注意力模块即RCCAM设有两个串联的单交叉注意力模块即CCAM,而每个单交叉注意力模块CCAM具体动作过程如下:
交叉注意力模块分为两条支路,第一条支路称为注意力生成支路,可以生成注意力图A,首先,注意力生成支路输入为步骤3)的Pr,注意力图A大小为H×W×C,先利用两个1×1卷积层,得到大小为H×W×C'的两个特征图Q、K,在特征图Q的每个位置u,在所有通道可以得到向量Qu∈RC′,同样的,在特征图K中,可以提取与u位置相同的行或列的特征向量集合Ωu∈R(H+W-1)×C',其中,Ωi,u是Ωu的第i个元素,为得到每个位置Qu与Ωi,u相似性程度,进行如公式(9)所示的操作:
di,u=QuΩi,u T (9),
Ωi,u经转置操作后与Qu进行乘法运算得到表示特征相似度di,u,最后通过softmax层对di,u进行归一化操作计算得到注意力图A;
第二条支路同样是用1×1卷积层对特征H进行操作以获取特征V,且V∈RC×W×H,同理,在特征映射V的每个位置u可以得到特征向量Vu∈RC,且其与每一位置u同一行或同一列的向量集合为Φu∈R(H+W-1)×C,由此,对上下文信息的聚合操作可如公式(10)所示表达:
Ai,u表示注意力特征图A在位置u的第i个通道的标量值,也代表着位置u的上下文信息,或者说是与位置u同行或者同列的特征元素与u的关联程度,Hu′表示输出特征H'∈RC×W×H在位置u时的特征,也即表示每一特征元素在经聚合上下文信息增强后的特征表示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011085140.5A CN112164011B (zh) | 2020-10-12 | 2020-10-12 | 基于自适应残差与递归交叉注意力的运动图像去模糊方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011085140.5A CN112164011B (zh) | 2020-10-12 | 2020-10-12 | 基于自适应残差与递归交叉注意力的运动图像去模糊方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112164011A true CN112164011A (zh) | 2021-01-01 |
CN112164011B CN112164011B (zh) | 2023-02-28 |
Family
ID=73866420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011085140.5A Active CN112164011B (zh) | 2020-10-12 | 2020-10-12 | 基于自适应残差与递归交叉注意力的运动图像去模糊方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112164011B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112925935A (zh) * | 2021-04-13 | 2021-06-08 | 电子科技大学 | 基于模态内及模态间混合融合的图像菜谱检索方法 |
CN114255359A (zh) * | 2022-03-01 | 2022-03-29 | 深圳市北海轨道交通技术有限公司 | 一种基于运动图像识别的智能报站校验方法和系统 |
CN116228623A (zh) * | 2022-09-08 | 2023-06-06 | 上海贝特威自动化科技有限公司 | 一种基于等变正则化自监督注意力网络的金属表面缺陷检测方法、设备和储存介质 |
WO2023123108A1 (en) * | 2021-12-29 | 2023-07-06 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Methods and systems for enhancing qualities of images |
CN116563147A (zh) * | 2023-05-04 | 2023-08-08 | 北京联合大学 | 一种水下图像增强系统及方法 |
CN116645287A (zh) * | 2023-05-22 | 2023-08-25 | 北京科技大学 | 一种基于扩散模型的图像去模糊方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2009107487A1 (ja) * | 2008-02-25 | 2011-06-30 | 三菱電機株式会社 | 動きぼやけ検出装置及び方法、画像処理装置、並びに画像表示装置 |
US10593021B1 (en) * | 2019-09-11 | 2020-03-17 | Inception Institute of Artificial Intelligence, Ltd. | Motion deblurring using neural network architectures |
CN111583107A (zh) * | 2020-04-03 | 2020-08-25 | 长沙理工大学 | 一种基于注意力机制的图像超分辨率重建方法和系统 |
CN111709895A (zh) * | 2020-06-17 | 2020-09-25 | 中国科学院微小卫星创新研究院 | 基于注意力机制的图像盲去模糊方法及系统 |
-
2020
- 2020-10-12 CN CN202011085140.5A patent/CN112164011B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2009107487A1 (ja) * | 2008-02-25 | 2011-06-30 | 三菱電機株式会社 | 動きぼやけ検出装置及び方法、画像処理装置、並びに画像表示装置 |
US10593021B1 (en) * | 2019-09-11 | 2020-03-17 | Inception Institute of Artificial Intelligence, Ltd. | Motion deblurring using neural network architectures |
CN111583107A (zh) * | 2020-04-03 | 2020-08-25 | 长沙理工大学 | 一种基于注意力机制的图像超分辨率重建方法和系统 |
CN111709895A (zh) * | 2020-06-17 | 2020-09-25 | 中国科学院微小卫星创新研究院 | 基于注意力机制的图像盲去模糊方法及系统 |
Non-Patent Citations (3)
Title |
---|
PRIYA KANSAL等: "《Eyenet: Attention based Convolutional Encoder-Decoder Network for Eye Region》", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOP (ICCVW)》 * |
ZILONG HUANG等: "《CCNet: Criss-Cross Attention for Semantic Segmentation》", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
陈小莉: "《基于交替乘子法的图像去模糊技术研究》", 《电子设计工程》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112925935A (zh) * | 2021-04-13 | 2021-06-08 | 电子科技大学 | 基于模态内及模态间混合融合的图像菜谱检索方法 |
CN112925935B (zh) * | 2021-04-13 | 2022-05-06 | 电子科技大学 | 基于模态内及模态间混合融合的图像菜谱检索方法 |
WO2023123108A1 (en) * | 2021-12-29 | 2023-07-06 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Methods and systems for enhancing qualities of images |
CN114255359A (zh) * | 2022-03-01 | 2022-03-29 | 深圳市北海轨道交通技术有限公司 | 一种基于运动图像识别的智能报站校验方法和系统 |
CN116228623A (zh) * | 2022-09-08 | 2023-06-06 | 上海贝特威自动化科技有限公司 | 一种基于等变正则化自监督注意力网络的金属表面缺陷检测方法、设备和储存介质 |
CN116228623B (zh) * | 2022-09-08 | 2024-05-03 | 上海贝特威自动化科技有限公司 | 一种基于等变正则化自监督注意力网络的金属表面缺陷检测方法、设备和储存介质 |
CN116563147A (zh) * | 2023-05-04 | 2023-08-08 | 北京联合大学 | 一种水下图像增强系统及方法 |
CN116563147B (zh) * | 2023-05-04 | 2024-03-26 | 北京联合大学 | 一种水下图像增强系统及方法 |
CN116645287A (zh) * | 2023-05-22 | 2023-08-25 | 北京科技大学 | 一种基于扩散模型的图像去模糊方法 |
CN116645287B (zh) * | 2023-05-22 | 2024-03-29 | 北京科技大学 | 一种基于扩散模型的图像去模糊方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112164011B (zh) | 2023-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112164011B (zh) | 基于自适应残差与递归交叉注意力的运动图像去模糊方法 | |
CN112233038B (zh) | 基于多尺度融合及边缘增强的真实图像去噪方法 | |
CN110969577B (zh) | 一种基于深度双重注意力网络的视频超分辨率重建方法 | |
CN110782399B (zh) | 一种基于多任务cnn的图像去模糊方法 | |
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN111709895A (zh) | 基于注意力机制的图像盲去模糊方法及系统 | |
US20230080693A1 (en) | Image processing method, electronic device and readable storage medium | |
CN111028163A (zh) | 一种基于卷积神经网络的联合图像去噪与弱光增强方法 | |
CN111861894B (zh) | 基于生成式对抗网络的图像去运动模糊方法 | |
EP2164040B1 (en) | System and method for high quality image and video upscaling | |
CN111127336A (zh) | 一种基于自适应选择模块的图像信号处理方法 | |
CN111091503A (zh) | 基于深度学习的图像去失焦模糊方法 | |
CN112541877B (zh) | 基于条件生成对抗网络的去模糊方法、系统、设备及介质 | |
CN110796622B (zh) | 一种基于串联神经网络多层特征的图像比特增强方法 | |
CN113450290B (zh) | 基于图像修补技术的低照度图像增强方法及系统 | |
CN112507617A (zh) | 一种SRFlow超分辨率模型的训练方法及人脸识别方法 | |
CN116051428B (zh) | 一种基于深度学习的联合去噪与超分的低光照图像增强方法 | |
CN114331886A (zh) | 一种基于深度特征的图像去模糊方法 | |
CN112991227A (zh) | 基于U-net++网络的弱光图像增强方法和装置 | |
Liu et al. | PD-GAN: perceptual-details gan for extremely noisy low light image enhancement | |
Zheng et al. | T-net: Deep stacked scale-iteration network for image dehazing | |
Xin et al. | Video face super-resolution with motion-adaptive feedback cell | |
US20220122225A1 (en) | Image quality improvement method and image processing apparatus using the same | |
CN114494050A (zh) | 一种基于事件相机的自监督视频去模糊和图像插帧方法 | |
CN117333398A (zh) | 一种基于自监督的多尺度图像去噪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |