CN104077761B - 基于自适应稀疏表示的多聚焦图像融合方法 - Google Patents

基于自适应稀疏表示的多聚焦图像融合方法 Download PDF

Info

Publication number
CN104077761B
CN104077761B CN201410293009.6A CN201410293009A CN104077761B CN 104077761 B CN104077761 B CN 104077761B CN 201410293009 A CN201410293009 A CN 201410293009A CN 104077761 B CN104077761 B CN 104077761B
Authority
CN
China
Prior art keywords
image
alpha
block
fusion
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410293009.6A
Other languages
English (en)
Other versions
CN104077761A (zh
Inventor
陈利霞
李子
袁华
莫建文
张彤
首照宇
欧阳宁
赵晖
林乐平
王学文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN201410293009.6A priority Critical patent/CN104077761B/zh
Publication of CN104077761A publication Critical patent/CN104077761A/zh
Application granted granted Critical
Publication of CN104077761B publication Critical patent/CN104077761B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种基于自适应稀疏表示的多聚焦图像融合方法,根据原始图像中结构特征的不同将子块进行分类,使原始图像分为相同模型、平滑模型和细节模型。然后将相同模型直接放入融合结果图像中,对平滑模型和细节模型分别采用算术平均法和稀疏表示法进行图像块融合。本发明的有优点是能够分割出平滑模型和细节模型,减少稀疏编码的图像块数,从而在确保融合图像主观效果和客观性能指标均优的基础上,缩短了运算时间。

Description

基于自适应稀疏表示的多聚焦图像融合方法
技术领域
本发明属于数字图像处理技术领域,具体是一种基于自适应稀疏表示的多聚焦图像融合方法。
背景技术
多聚焦图像融合作为图像融合的一个重要分支,正日益广泛地应用于机器视觉、目标识别、数码相机等领域。在实际应用中,一些光学镜头往往不能使得同一场景的多个目标都在同一聚焦区域,因此需要将多幅图像中的清晰模型结合起来,生成一幅所有目标都清晰的图像,以满足对图像更深层次应用的需要。多聚焦图像融合正是解决这一问题的有效途径。
多聚焦融合图像拥有大量的冗余信息,能够更加清晰地描述出一幅场景。传统的融合方法包括小波变换、轮廓波变换等,但是在变换与反变换的过程中可能发生图像信息的丢失,从而影响最终的融合效果。目前,稀疏表示作为一种有效的表示模型广泛应用于图像领域。B.Yang等在“B.Yang,and S.Li,“Multifocus image fusion and restorationwith sparse representation,”IEEE Transactions on Instrumentation andMeasurement,2010,59(4):884-892.”提出了一种基于过完备稀疏表示的图像融合算法,融合效果较好,但DCT字典的适应性不强,运算复杂度高;N.Yu等在“N.Yu,T.Qiu,F.Bi,andA.Wang,“Image Features Extraction and Fusion Based on Joint SparseRepresentation,”IEEE Journal of Selected Topics in Signal Processing,2011,5(5):1074-1082.”采用K-SVD方法对选取的图像库进行训练得到适应性强的过完备字典,并利用稀疏系数中非零元素所对应的基向量作为图像特征,分离相同特征和相异特征分别进行融合,克服了融合图像中相异特征清晰度下降问题。但是稀疏表示图像融合算法需要对每个图像块进行稀疏表示,其复杂度高的问题,依然没有得到较好解决。
发明内容
本发明的目的在于克服上述现有的稀疏表示图像融合技术运算复杂度高的缺点,提出了一种基于自适应稀疏表示的多聚焦图像融合方法,以提高稀疏表示算法融合图像的效率。
为实现上述目的,本发明在自适应稀疏表示的框架下实现多聚焦图像融合,其技术方案是根据图像的结构特征将子块分为相似模型、平滑模型和细节模型。然后对三种模型采取不同的处理,相似模型直接放入融合图像,平滑模型和细节模型分别采用加权平均法和稀疏表示法进行融合,从而减少了稀疏编码的图像块数,以提高融合效率。
本发明一种基于自适应稀疏表示的多聚焦图像融合方法,包括如下步骤:
1、利用成像设备获得焦距不同的待融合自然图像。
2、对源图像预处理
将获取的配准待融合图像归一化,再按照一定大小进行滑动分块处理。
3、图像块分类处理
先将待融合图像子块划分为相似块和异同块,将步骤2获得的所有对应位图像子块进行像素值对比,区分相似块和异同块,相似块属于相似模型;
再将待融合图像的异同块进一步划分,将获得的异同块计算出各块的梯度值,若块的梯度都小于等于阈值μ,属于源图像的平滑模型,反之属于细节模型。
4、训练K-SVD过完备字典
选择一些信息丰富的自然图像,利用K-SVD(Aharon M,Elad M,Bruckstein A.K-SVD:An algorithm for designing overcomplete dictionaries for sparserepresentation[J].IEEE Transaction on Signal Processing,2006,54(11):4311-4322)的方法对这些自然图像进行字典学习,获得过完备字典。
5、利用正交匹配追踪算法(Rosenblum K,Zelnik-Manor L,Eldar Y.DictionaryOptimization for Block-Sparse Representations[J].Signal Processing,IEEETransactions on,2012,60(5):2386-2395)分别求解利用步骤3获得的各源图像细节模型在K-SVD过完备字典下的稀疏系数。
6、将步骤3获得的相似模型直接放入融合结果图的对应位。
7、将步骤3获得的平滑模型利用算术加权平均法进行融合。
8、利用步骤5获得的源图像的细节模型、稀疏系数以及稀疏度和绝对值组合,取大的融合规则获得细节模型的融合稀疏系数。
9、重构细节模型
利用步骤8获得的融合稀疏系数与K-SVD过完备字典相乘,得到列向量化的细节模型融合图像。
10、重构融合图像
将列向量化的三种模型融合图像转化为图像块,叠加到对应位置,再除以每个位置像素值叠加的次数,最终获得融合结果图像。
本发明的有益效果是:
1、本发明将稀疏表示引入多聚焦图像融合领域,克服了传统技术在变换过程中信息丢失的情况,使得本发明拥有更良好的融合效果。
2、本发明根据图像特征对图像块进行分类处理,克服了稀疏表示算法运算复杂度高的问题,本发明的融合效率比传统稀疏表示算法明显提高,使得稀疏表示算法可以更好地应用到实际的图像融合中。
附图说明
图1是本发明基于自适应稀疏表示的多聚焦图像融合方法的流程图。
图2是本发明基于自适应稀疏表示的多聚焦图像融合方法的仿真图;图2(a)和图2(b)是一组待融合图像,2(a)为聚焦在左边的源图像,2(b)为聚焦在右边的源图像;图2(c)~(e)分别为传统的小波变换法、轮廓波变换法和稀疏表示算法;图2(f)为采用本发明对图2(a)和2(b)待融合图像进行融合后获得的多聚焦图像。
具体实施方式
以下结合附图和实施例对本发明作详细说明:本实施例在以本发明技术方案为前提下进行实施的例子,给出了详细的实施方式和过程,但本发明的保护范围不应限于下述的实施例。
实施例
参照图1,本发明一种基于自适应稀疏表示的多聚焦图像融合方法,包括如下步骤:
1、利用成像设备获得焦距不同的待融合自然图像
本发明实施例中待融合的多焦距自然图像大小为256×256,灰度范围是0~255。
2、对源图像预处理
将配准的待融合图像进行归一化,再采用具有位移不变特性的滑动窗口技术对源图像进行分块,步长取1。假设源图像大小为N×M,选取n×n大小对源图像A,B分块各得到(N+n-1)×(M+n-1)个图像子块。
3、图像块分类处理
按照待融合图像的结构特性,对图像子块进行分类。图像f可分为相似模型fe、平滑模型fc和细节模型fd,即
f=fe+fc+fd (1)
先将步骤2获得的图像子块划分为相似块和异同块。对比各源图像对应位置图像子块的像素值,如果相应子块的每个像素点都相等,该子块属于相似模型;反之为异同块,进行下一步区分。
再将待融合图像的异同块进一步划分。不同子块之间包含边缘和纹理越多的图像块,信息更丰富,体现的细节更清晰,属于细节模型。相反包含信息量较少的子块,属于平滑模型。本发明选择梯度作为图像块进一步分类的判断准则。图像的梯度G(x,y)定义为式(2)所示:
G ( x , y ) = 1 N × M Σ x = 1 N - 1 Σ y = 1 M [ f ( x + 1 , y ) - f ( x , y ) ] 2 + [ f ( x , y + 1 ) - f ( x , y ) ] 2 2 - - - ( 2 )
其中,M,N是分块的大小,f(x,y)是子块中(x,y)处的像素值。梯度值G越大,代表图像块的边缘和纹理信息越丰富,图像块的信息量越大。相反梯度G越小,也就图像块的信息量越少。
根据梯度定义公式计算出每个异同子块的梯度值G,设定阈值μ,若对应位置子块的梯度值都小于等于μ,属于平滑模型;否则子块属于细节模型。
4、训练K-SVD过完备字典
首先选择一组信息丰富的自然图像,再在这些自然图像上以块的方式随机提取大小为6×6大小的样本块,并列向量化,在本发明实施例中,共随机抽取1000个样本块。
假设上述提取的样本表示为X,则对应的过完备字典表示为D可以通过下列目标方程得到:
min D , α { | | X - DA | | F 2 } s . t . ∀ i , | | α i | | 0 ≤ T 0 - - - ( 3 )
5、本发明实施例中K-SVD过完备字典的大小为36×256。相关系数min{}表示最小化,||||F为矩阵的F范数,A为稀疏系数矩阵,αi表示A中第i列稀疏系数,T0为稀疏表示系数中非零分量数目的上限。利用正交匹配追踪算法求解各源图像细节模型在K-SVD过完备字典下的稀疏系数。
所述的正交匹配追踪算法的具体步骤如下:
用大小为6×6的窗口从左至右,从上至下遍历各个待融合的多聚焦图像。并将每个图像块转换为长度为36的列向量,表示为其中N为单幅图像中图像块的数目。
对于利用过完备字典D及OMP算法进行稀疏表示系数的求解,即可获得相应的待融合多聚焦图像稀疏表示系数αA和αB
α A = arg min α A | | α A | | 0 , s . t . | | x i A - D α A | | 2 2 ≤ ϵ - - - ( 4 )
α B = arg min α B | | α B | | 0 , s . t . | | x i B - D α B | | 2 2 ≤ ϵ - - - ( 5 )
6、将步骤3获得的相似模型的每个图像块转换为长度36的列向量,直接放入融合样本的对应位。
7、将步骤3获得的平滑模型先转换为长度36的列向量,再利用算术加权平均法进行融合。平滑模型fc的加权平均融合可表示为
f c = ω 1 f c a + ω 2 f c b - - - ( 6 )
其中权系数选取ω1=ω2=0.5。平滑模型的融合图像放入融合样本的对应位。
8、利用步骤5获得的待融合图像的细节模型稀疏系数以及稀疏度和绝对值组合取大的融合规则得到细节模型的融合稀疏系数。当稀疏度一致时,可用l1范数进行系数选取。利用结合系数稀疏度和l1范数的融合规则求融合稀疏系数αF,如式(7)所示
&alpha; F = &alpha; B , if | | &alpha; A | | 0 < | | &alpha; B | | 0 &alpha; A , if | | &alpha; A | | 0 > | | &alpha; B | | 0 &alpha; B , if | | &alpha; A | | 0 = | | &alpha; B | | 0 and | | &alpha; A | | 1 < | | &alpha; B | | 1 &alpha; A , otherwise - - - ( 7 )
9、细节模型的稀疏系数αF与字典D相乘得到列向量化的融合细节模型,再放入融合样本的对应位。细节模型fd可表示为
fd=DαF (8)
10、将列向量化的三种融合图像模型转化为6×6图像块,恢复叠加到对应位置,再除以每个像素值叠加的次数,最终获得融合结果图像。
本发明实例中融合后的多聚焦图像大小为256×256。
本发明的效果可以通过以下仿真实验作进一步说明。
实验在MATLAB2012a上实现,运行环境为CPU P42.1G,操作系统Windows7。
参照图2,图2(a)和图2(b)是一组待融合图像,2(a)为聚焦在左边的源图像,2(b)为聚焦在右边的源图像;图2(c)~(e)分别为传统的小波变换法、轮廓波变换法和稀疏表示算法;图2(f)为采用本发明对图2(a)和2(b)待融合图像进行融合后获得的多聚焦图像。
从图中可以看出,2(c)中数字“9”明显模糊,说明小波变换的融合图像会缺失模型信息;轮廓波变换融合图像相对小波变换要清晰,但是2(d)中闹钟的边缘出现了严重的虚影现象,这些虚影是图像在分解中进行下采样引起的;稀疏表示和本发明的融合图像明显优于前两种方法,清晰度都很好,而本发明比稀疏表示融合图像的对比度更好一些。
为了证明本发明的融合效果还进行了客观评价,客观评价包括了相关系数、空间频率、梯度的指标。如下表:
上表中相关系数越大,说明结果图与源图像相关性越大,而空间频率和梯度的指标值越高,说明图像越清晰。由表可见,稀疏表示和本发明的指标都压倒性地超越了小波变换和轮廓波变换,融合的质量有明显的改善。而本发明比较于稀疏表示也都有提高,由此可见本发明的融合效果很理想。
为了证明本发明在效率上的提高,下表还给出了传统稀疏算法和本文算法在同样实验环境下分别对图2中两组图像进行融合的执行时间比较。
在实验中,稀疏算法耗费了1319s,而本发明仅耗费870s,本发明相对传统稀疏方法减少了近三分之一的时间。由此可见,本发明确实大大加快了图像融合的速度。综上所述,在确保融合的主观效果和客观性能参数均优的情况下,该发明大大加快了运算速度,使得稀疏表示图像融合算法可以更好地应用于实际中。

Claims (5)

1.一种基于自适应稀疏表示的多聚焦图像融合方法,其特征在于,包括下列步骤:
(1)利用成像设备获得焦距不同的待融合自然图像;
(2)对源图像预处理
将获取的配准待融合图像归一化,再按照一定大小进行滑动分块处理;
(3)图像块分类处理
将步骤(2)获得的所有对应位图像子块进行像素值对比,区分相似块和异同块,相似块属于相似模型,再计算各异同块的梯度值,若都小于等于阈值μ,属于源图像的平滑模型,反之属于细节模型;
(4)训练K-SVD过完备字典
选择一些信息丰富的自然图像,利用K-SVD的方法对这些自然图像进行字典学习,获得过完备字典;
(5)利用正交匹配追踪算法分别求解利用步骤(3)获得的各源图像细节模型在K-SVD过完备字典下的稀疏系数;
(6)将步骤(3)获得的相似模型直接放入融合结果图的对应位;
(7)将步骤(3)获得的平滑模型利用算术加权平均法进行融合;
(8)利用步骤(5)获得的源图像的细节模型稀疏系数、以及稀疏度和绝对值组合取大的融合规则获得细节模型的融合稀疏系数;
(9)重构细节模型
将步骤(8)获得的稀疏系数与K-SVD过完备字典相乘,得到列向量化的细节模型融合图像;
(10)重构融合图像
将列向量化的三种模型融合图像转化为图像块,叠加到对应位置,再除以每个位置像素值叠加的次数,最终获得融合结果图像;
其中,步骤(3)所述的图像块分类处理的具体步骤如下:
先将待融合图像子块划分为相似块和异同块,对比各源图像对应位置图像子块的像素值,如果相应子块的每个像素点都相等,该子块属于相似模型fe;反之为异同块,进行下一步区分;
再将待融合图像的异同块进一步划分,选择梯度作为图像块进一步分类的判断准则,图像的梯度G(x,y)定义为式(1)所示:
G ( x , y ) = 1 N &times; M &Sigma; x = 1 N - 1 &Sigma; y = 1 M &lsqb; f ( x + 1 , y ) - f ( x , y ) &rsqb; 2 + &lsqb; f ( x , y + 1 ) - f ( x , y ) &rsqb; 2 2 - - - ( 1 )
其中,M,N是分块的大小,f(x,y)是子块中(x,y)处的像素值,梯度值G越大,代表图像块的信息量越大,相反,图像块的信息量越少;
根据梯度定义公式计算出每个异同子块的梯度值G,设定阈值μ,若对应位置子块的梯度值都小于等于μ,属于平滑模型fc;否则子块属于细节模型fd
2.根据权利要求1所述的基于自适应稀疏表示的多聚焦图像融合方法,其特征在于:步骤(4)所述的训练K-SVD过完备字典的具体步骤如下:
选择一组信息丰富的自然图像,再在这些自然图像上以块的方式随机提取大小为N×N大小的样本块并列向量化,提取的样本表示为X,则对应的过完备字典表示为D可以通过下列目标方程得到:
m i n D , &alpha; { | | X - D A | | F 2 } s . t . &ForAll; i , | | &alpha; i | | 0 &le; T 0 - - - ( 2 )
相关系数min{}表示最小化,|| ||F为矩阵的F范数,A为稀疏系数矩阵,αi表示A中第i列稀疏系数,T0为稀疏表示系数中非零分量数目的上限。
3.根据权利要求1所述的基于自适应稀疏表示的多聚焦图像融合方法,其特征在于:步骤(5)所述的利用正交匹配追踪算法求解源图像细节模型在K-SVD过完备字典下的稀疏系数的具体步骤如下:
用大小为的窗口从左至右,从上至下遍历各个待融合的多聚焦图像,并将每个图像块转换为长度为n的列向量,表示为其中n为窗口内的像素个数,N为单幅图像中图像块的数目;
对于利用过完备字典D及OMP算法进行稀疏表示系数的求解,即可获得相应的待融合多聚焦图像稀疏表示系数αA和αB
&alpha; A = arg m i n &alpha; A | | &alpha; A | | 0 , s . t . | | x i A - D&alpha; A | | 2 2 &le; &epsiv; - - - ( 3 )
&alpha; B = arg m i n &alpha; B | | &alpha; B | | 0 , s . t . | | x i B - D&alpha; B | | 2 2 &le; &epsiv; - - - ( 4 ) .
4.根据权利要求1所述的基于自适应稀疏表示的多聚焦图像融合方法,其特征在于:步骤(7)所述的平滑模型利用算术加权平均法进行融合的具体步骤如下:
平滑模型fc的加权平均融合可表示为
f c = &omega; 1 f c a + &omega; 2 f c b - - - ( 5 )
其中权系数选取ω1=ω2=0.5,分别代表两个源图像的平滑模型,平滑模型的融合图像fc放入融合图像的对应位。
5.根据权利要求1所述的基于自适应稀疏表示的多聚焦图像融合方法,其特征在于:步骤(8)所述的利用细节模型稀疏系数以及稀疏度和绝对值组合取大的融合规则得到细节模型融合稀疏系数的具体步骤如下:
当稀疏度一致时,可用l1范数进行系数选取,利用结合系数稀疏度和l1范数的融合规则求细节模型的融合稀疏系数αF,如式(6)所示
&alpha; F = &alpha; B , i f | | &alpha; A | | 0 < | | &alpha; B | | 0 &alpha; A , i f | | &alpha; A | | 0 > | | &alpha; B | | 0 &alpha; B , i f | | &alpha; A | | 0 = | | &alpha; B | | 0 a n d | | &alpha; A | | 1 < | | &alpha; B | | 1 &alpha; A , o t h e r w i s e - - - ( 6 ) .
CN201410293009.6A 2014-06-26 2014-06-26 基于自适应稀疏表示的多聚焦图像融合方法 Active CN104077761B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410293009.6A CN104077761B (zh) 2014-06-26 2014-06-26 基于自适应稀疏表示的多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410293009.6A CN104077761B (zh) 2014-06-26 2014-06-26 基于自适应稀疏表示的多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN104077761A CN104077761A (zh) 2014-10-01
CN104077761B true CN104077761B (zh) 2017-01-11

Family

ID=51599003

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410293009.6A Active CN104077761B (zh) 2014-06-26 2014-06-26 基于自适应稀疏表示的多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN104077761B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809714A (zh) * 2015-04-29 2015-07-29 华东交通大学 基于多形态稀疏表示的图像融合方法
CN105678723B (zh) * 2015-12-29 2018-06-15 内蒙古科技大学 基于稀疏分解和差分图像的多聚焦图像融合方法
CN106056564B (zh) * 2016-05-27 2018-10-16 西华大学 基于联合稀疏模型的边缘清晰图像融合方法
CN107341501B (zh) * 2017-05-31 2019-10-08 三峡大学 一种基于pcnn和分级聚焦技术的图像融合方法及装置
CN107292316B (zh) * 2017-05-31 2020-08-25 昆明理工大学 一种基于稀疏表示的提升图像清晰度的方法
CN107689038A (zh) * 2017-08-22 2018-02-13 电子科技大学 一种基于稀疏表示和循环引导滤波的图像融合方法
CN108171273B (zh) * 2018-01-12 2022-04-19 西安电子科技大学 基于k-svd和深度堆栈网络的极化sar图像分类方法
CN109785282B (zh) * 2019-01-22 2021-03-26 厦门大学 一种多聚焦图像融合方法
CN109934794B (zh) * 2019-02-20 2020-10-27 常熟理工学院 一种基于显著稀疏表示和邻域信息的多聚焦图像融合方法
CN110111292B (zh) * 2019-04-30 2023-07-21 淮阴师范学院 一种红外与可见光图像融合方法
CN113486365B (zh) * 2021-05-31 2022-06-17 桂林电子科技大学 一种彩色图像光学加密方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1588445A (zh) * 2004-07-22 2005-03-02 上海交通大学 基于方向滤波器组的图像融合方法
CN101540045A (zh) * 2009-03-25 2009-09-23 湖南大学 基于同步正交匹配追踪的多源图像融合方法
CN102509280A (zh) * 2011-11-10 2012-06-20 重庆大学 多聚焦图像融合方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9152881B2 (en) * 2012-09-13 2015-10-06 Los Alamos National Security, Llc Image fusion using sparse overcomplete feature dictionaries

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1588445A (zh) * 2004-07-22 2005-03-02 上海交通大学 基于方向滤波器组的图像融合方法
CN101540045A (zh) * 2009-03-25 2009-09-23 湖南大学 基于同步正交匹配追踪的多源图像融合方法
CN102509280A (zh) * 2011-11-10 2012-06-20 重庆大学 多聚焦图像融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于过完备字典与稀疏表示的多聚焦图像融合研究;陈垚佳;《中国硕士学位论文库》;20120915;第8,12,29,31-33页,附图4-2 *
多聚焦图像融合方法研究;李娟;《中国硕士学位论文库》;20061115;第29-30页 *

Also Published As

Publication number Publication date
CN104077761A (zh) 2014-10-01

Similar Documents

Publication Publication Date Title
CN104077761B (zh) 基于自适应稀疏表示的多聚焦图像融合方法
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
Li et al. Unsupervised learning of edges
CN110910447B (zh) 一种基于动静态场景分离的视觉里程计方法
CN110188239A (zh) 一种基于跨模态注意力机制的双流视频分类方法和装置
CN110097115B (zh) 一种基于注意力转移机制的视频显著性物体检测方法
CN106228528B (zh) 一种基于决策图与稀疏表示的多聚焦图像融合方法
Wang et al. Multifocus image fusion using convolutional neural networks in the discrete wavelet transform domain
CN106447640B (zh) 基于字典学习、旋转引导滤波的多聚焦图像融合方法及装置
CN104077742B (zh) 基于Gabor特征的人脸素描合成方法及系统
CN107730482A (zh) 一种基于区域能量和方差的稀疏融合算法
CN114972312A (zh) 基于YOLOv4-Tiny改进的绝缘子缺陷检测方法
CN109272577A (zh) 一种基于Kinect的视觉SLAM方法
CN113506224A (zh) 基于多尺度生成对抗网络的图像修复方法
CN103984954A (zh) 基于多特征融合的图像合成方法
Zhu et al. Pmatch: Paired masked image modeling for dense geometric matching
Li et al. Image reflection removal using end‐to‐end convolutional neural network
CN106056599B (zh) 一种基于物体深度数据的物体识别算法及装置
Pan et al. Residual network based aggregation model for skin lesion classification
CN112200853A (zh) 一种基于三维卷积神经网络的渐进式实时立体匹配方法
Tan et al. DBSwin: Transformer based dual branch network for single image deraining
Peng et al. Combining interior and exterior characteristics for remote sensing image denoising
Zhang et al. ShuffleTrans: Patch-wise weight shuffle for transparent object segmentation
CN116912649B (zh) 基于相关注意力引导的红外与可见光图像融合方法及系统
Zhu et al. Rgb-d saliency detection based on cross-modal and multi-scale feature fusion

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant