CN114926719A - 一种基于超图低秩表示的复杂动态系统感知特征融合方法 - Google Patents

一种基于超图低秩表示的复杂动态系统感知特征融合方法 Download PDF

Info

Publication number
CN114926719A
CN114926719A CN202210579395.XA CN202210579395A CN114926719A CN 114926719 A CN114926719 A CN 114926719A CN 202210579395 A CN202210579395 A CN 202210579395A CN 114926719 A CN114926719 A CN 114926719A
Authority
CN
China
Prior art keywords
hypergraph
image
low
matrix
laplace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210579395.XA
Other languages
English (en)
Other versions
CN114926719B (zh
Inventor
张强
陶体伟
王鹏飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202210579395.XA priority Critical patent/CN114926719B/zh
Publication of CN114926719A publication Critical patent/CN114926719A/zh
Application granted granted Critical
Publication of CN114926719B publication Critical patent/CN114926719B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于超图低秩表示的复杂动态系统感知特征融合方法,属于复杂动态系统感知研究技术领域。本发明通过在潜在低秩表示算法中添加超图拉普拉斯正则项来获取感知模态数据高阶关系,能够有效地把握不同模态数据间的高阶关系及互补性信息,潜在低秩表示有效的去噪能力避免了无效信息干扰,从而更好地提升复杂动态系统的数据分析决策能力;同时,对获取的多模态数据进行了特征融合后再传递,降低了相互间的通讯传输成本。

Description

一种基于超图低秩表示的复杂动态系统感知特征融合方法
技术领域
本发明属于复杂动态系统感知研究技术领域,具体涉及一种基于超图低秩表示的复杂动态系统感知特征融合方法。
背景技术
在基于多智能体的复杂动态系统研究中,感知层面一直是数据通讯处理的重要节点,因此,如何有效的利用感知层面获得的多模态信息,使其尽可能多的降低通讯成本并能有效的辅助决策是一个研究的重点。目前,一个有效的解决办法是特征融合,即将获取到的多模态信息进行融合后传输,这样可以有效的降低通讯代价。
在复杂动态系统智能感知方面,当前工作主要围绕多智能体协同感知进行研究,根据研究方法的不同大致可分为三类:一类是合并迭代最近点并使用扩展卡尔曼滤波器融合进行感知;第二类是通过因子图融合实现感知;第三类是基于超图的感知。然而,前两种方法未充分表示出复杂系统中多智能体间的高阶关系,而基于超图的方法尽管能够提高复杂动态系统中感知对象的表达能力,但是仍然没有突破基于统计与动态线性化的建模思想框架,对感知数据进行单模态建模,不能反演复杂对象的真实规律。同时由于复杂动态系统中感知到的数据具有非线性、动态、随机特征,当有新数据感知和融合时,会严重制约数据质量和数据分析结果。此外,未知环境随时间动态变化,多智能体间需多回合交互进行信息感知,使得感知模型在未知场景产生了极高的通讯代价。
因此,针对以上问题,设计一种能够有效利用多种模态感知信息,捕获其潜在的复杂(如高阶非线性特征)关系,通过特征融合的方式减低通讯成本并将其应用于多智能体的复杂动态系统决策研究,具有重大的意义。
发明内容
针对现有基于超图的感知特征融合存在的问题,本发明提供一种基于超图低秩表示的复杂动态系统感知特征融合方法,通过在潜在低秩表示算法中添加超图拉普拉斯正则项来获取感知模态数据高阶关系,具体优势如下:1)超图构造了不同的感知模态数据高阶关系;2)采用潜在低秩表示算法可以有效的挖掘感知信息中的潜在子空间信息,同时降低噪声数据的负面影响;3)对感知信息进行特征融合后传递,降低通讯代价。
本发明针对上述技术问题提出的技术方案如下:
一种基于超图低秩表示的复杂动态系统感知特征融合方法,包括以下步骤:
步骤一,使用智能体中常用的红外传感器和可见光传感器采集的图像数据作为主要融合对象,使用国际公共数据TNO数据集,其链接为https://figshare.com/articles/dataset/TNO_Image_Fusion_Dataset/1008029。针对两种不同模态的信息,构造两个超图,并计算每个超图的相关矩阵H(m),其中m表示不同模态的图像,m=1,2,分别表示红外图像和可见光图像。
步骤二,将超图相关矩阵串联,求取统一的超图拉普拉斯矩阵。
步骤三,将得到的超图拉普拉斯矩阵构造正则项,并引入到潜在低秩表示模型框架中,得到高阶超拉普拉斯潜在低秩表示模型。
步骤四,对高阶超拉普拉斯潜在低秩表示模型使用自适应惩罚线性化交替方向方法(LADMAP)迭代求解,得到不同模态图像的基础部分(X1Z1和X2Z2)和显著部分(L1X1和L2X2),同时对噪声部分(E1,E2)进行舍弃。
步骤五,将高阶超拉普拉斯潜在低秩表示模型分解后的基础部分图像Fa1=X1Z1和Fa2=X2Z2进行融合,得到基础部分融合图像Fa
步骤六,将高阶超拉普拉斯潜在低秩表示模型分解后的显著部分图像Fb1=L1X1和Fb2=L2X2进行融合,得到显著性部分融合图像Fb
步骤七,将Fa和Fb进行融合,得到最终融合图像F。
所述步骤一中,构造超图的方法具体步骤如下:
对于每种模态m的特征描述,构造每个超图G(m)=(v(m),ε(m),w(m)),m=1,2;其中v(m)表示顶点集,数据集中的每个样本对应超图中的一个顶点;ε(m)表示超边集,在该超图中,依次以每个顶点为中心,找到与其最近的k个点构建对应的超边,每条超边对应一个中心点,且每条超边链接k个顶点;w(m)表示超边的权重值集合,每个超边的权重用w(ej)表示。超图G(m)的相关矩阵
Figure BDA0003663258470000031
N表示超图G的顶点数,等价于N=|v|;Ne表示超边的总数,等价于Ne=|ε|。H(m)中的元素hij表示顶点vi是否与超边ej中的顶点连接,计算公式如下:
Figure BDA0003663258470000032
分别使用如下公式计算超图中顶点的度
Figure BDA0003663258470000033
和超边的度
Figure BDA0003663258470000034
Figure BDA0003663258470000035
Figure BDA0003663258470000036
所述步骤二,具体过程如下:
设Dv是包含顶点度的对角矩阵,De为超边度的对角矩阵,W为超边权值的对角矩阵,同时将获得的超图相关矩阵使用串联的方式拼接在一起,即
Figure BDA0003663258470000037
这极大地拓宽了特征空间,从而得到更加丰富的特征表示。然后求取统一的超图拉普拉斯矩阵L,计算公式如下:
Figure BDA0003663258470000041
其中,
Figure BDA0003663258470000042
表示
Figure BDA0003663258470000043
的转置矩阵,I为单位矩阵。
所述步骤三的具体过程如下:
将超图拉普拉斯正则项引入潜在低秩表示模型框架中,根据超图的定义,使同一超边内的数据点对应的低秩系数彼此相似,用
Figure BDA0003663258470000044
对每个超边e内给定数据点之间的成对距离的总和进行加权。高阶拉普拉斯正则化潜在低秩表示模型形式为:
Figure BDA0003663258470000045
st.X=XZ+TZ+E
最后,通过代数运算,得到矩阵形式的高阶拉普拉斯正则化潜在低秩表示(High-order Laplacian regularizationLatLRR)模型:
Figure BDA0003663258470000046
st.X=XZ+TZ+E
其中,X表示源图像,Z表示图像的低秩矩阵,T表示图像的显著性矩阵,E表示图像的噪声部分,||Z||*表示Z的核范数,||T||*表示T的核范数;||E||2,1表示分别对红外图像的噪声部分和可见光的噪声部分进行L2,1范数正则化约束;Z′表示Z的转置矩阵,γ为平衡噪声参数,β为超图拉普拉斯正则化平衡系数;L表示求得的超拉普拉斯矩阵。γ和β为经验值,在一个示意性实施例中,γ和β的取值范围均为[0.001,0.01,0.1,1,10,100],优选,γ和β均等于0.1。
由上式,在经过分解处理后,得到每幅图像的基础部分XmZm、显著部分LmXm和噪声部分Em;其中m=1,2,表示红外图像和可见光数据。在融合处理中,只采用分解得到的基础部分和显著部分信息,对分离的噪声部分进行舍弃。
所述步骤四中,高阶超拉普拉斯正则化潜在低秩表示模型的优化求解步骤如下:
4.1采用LADMAP优化算法进行优化,构造目标函数的增广拉格朗日函数:
Figure BDA0003663258470000051
其中,
Figure BDA0003663258470000052
为F范数的平方,用来约束误差;<Y,X-XZ-TZ+E>表示tr(Y′*(X-XZ-TZ+E));μ>0是惩罚参数;Y为拉格朗日乘子,在其他变量不变的情况下,通过最小化增广拉格朗日函数交替更新变量。
4.2按照如下条件迭代交替更新各个变量,直至满足收敛条件:
Figure BDA0003663258470000053
Figure BDA0003663258470000054
Figure BDA0003663258470000055
其中,η1为逼近项参数,取值如下所示:
Figure BDA0003663258470000056
更新拉格朗日乘子Y:
Yk+1=Ykk(X-XZk+1-Tk+1X-Ek+1)
更新惩罚参数μ:
μk+1=min(μmax,ρμk)
优选,u0=10-6,umax=1010
Figure BDA0003663258470000061
ρ为迭代步长,优选,ρ=1.9。
进一步地,所述收敛条件满足;
Figure BDA0003663258470000062
max{η1||Zk+1-Zk||,η1||Tk+1-Tk||,μk||Ek+1-Ek||}<ε2
其中,ε为预设值,优选ε1=10-6,ε2=10-5
在本发明实施例中,可将Z、T、E、Y的初始值均设置为0。
所述步骤五中,采用多尺度分解对得到的Fa1=X1Z1和Fa2=X2Z2进行深度特征提取并进行融合,得到基础部分融合图像Fa。具体步骤如下:
5.1使用非下采样轮廓波变换(NSCT)对得到的基础部分进行分解,得到了高频子带Um和低频子带Om;其中m表示不同模态的图像,m=1,2,分别表示红外图像和可见光图像。
5.2高频子带包含了输入图像丰富的边缘和纹理细节信息,选取最大选择策略进行融合,具体方程如下:
Figure BDA0003663258470000063
其中,p为方向子带数;l为尺度数;
Figure BDA0003663258470000064
为融合后的高频图像;
Figure BDA0003663258470000065
Figure BDA0003663258470000066
为l尺度上第j个方向子带的高频元素,选取其中绝对值大的元素作为最终融合元素,并对得到的
Figure BDA0003663258470000067
Figure BDA0003663258470000068
进行求和策略,得到最终的融合高频元素
Figure BDA0003663258470000069
5.3由NSCT分解得到的低频子带拥有主要的轮廓、背景等信息,低频系数融合策略为加权平均求均值。首先对两幅图像的低频分量使用3×3的窗口模块K进行加权,然后再对加权平均后的系数求均值得到低频融合系数。具体计算公式如下:
Figure BDA0003663258470000071
Figure BDA0003663258470000072
其中,OF
Figure BDA0003663258470000073
OF(x,y)为融合后的低频图像;O1(x,y)为红外低频图像元素;O2(x,y)为可见光低频图像元素。
5.4在UF和OF上进行相应的逆NSCT变换,重建得到最终的基础部分融合图像Fa
所述步骤六中,采用加权求和策略对Fb1=L1X1和Fb2=L2X2进行融合,得到显著性部分融合图像Fb=Fb1+Fb2
所述步骤七中,采用加权求和策略将Fa和Fb进行融合,得到最终融合图像F=Fa+Fb
本发明的有益效果:相比其他基于超图的感知特征融合模型,通过本发明设计的基于超图的潜在低秩表示算法模型在能够有效地把握不同模态数据间的高阶关系及互补性信息,潜在低秩表示有效的去噪能力避免了无效信息干扰,从而更好地提升复杂动态系统的数据分析决策能力。同时,对获取的多模态数据进行了特征融合后再传递,降低了相互间的通讯传输成本。
附图说明
图1为本发明实施例提供的基于超图低秩表示的复杂动态系统感知特征融合方法的流程示意图。
图2为本发明实施例提供的高阶拉普拉斯正则化潜在低秩表示算法流程示意图。
图3为采用本发明实施例提供的基于超图低秩表示的复杂动态系统感知特征的多模态融合方法得到的融合图像图;其中(a)表示红外传感器获得的红外图,(b)表示可见光传感器获得的可见光图,(c)表示经过特征融合后的融合图。
具体实施方式
下面结合附图以及技术方案对本发明实例做进步的详细说明。
本发明的具体步骤如下:
如图1,为本发明基于超图低秩表示的复杂动态系统感知特征融合方法的流程示意图,该算法由智能体传感器收集到的红外可见光图像作为数据输入,根据不同的模态信息构建超图群组,并将获得的超图进行矩阵串联,求解一个统一的拉普拉斯矩阵。并将其应用于潜在低秩表示中,对不同的模态的数据进行分解,然后采用相应的融合策略进行特征融合。
如图2中所示,本发明提供一种高阶拉普拉斯正则化潜在低秩表示方法,具体包括以下步骤:
步骤一,针对两种不同模态的信息,构造两个超图,并计算每个超图的相关矩阵H(m),m=1,2。超图构造方法具体如下:
对于每种模态m的特征描述,构造每个超图G(m)=(v(m),ε(m),w(m)),m=1,2;其中v(m)表示顶点集,数据集中的每个样本对应超图中的一个顶点;ε(m)表示超边集,在该超图中,依次以每个顶点为中心,找到与其最近的k个点构建对应的超边,每条超边对应一个中心点,且每条超边链接k个顶点;w(m)表示超边的权重值集合,每个超边的权重用w(ej)表示。超图G(m)的相关矩阵
Figure BDA0003663258470000091
N表示超图G的顶点数,等价于N=|v|;Ne表示超边的总数,等价于Ne=|ε|。H(m)中的元素hij表示顶点vi是否与超边ej中的顶点连接,计算公式如下:
Figure BDA0003663258470000092
分别使用如下公式计算超图中顶点的度
Figure BDA0003663258470000093
和超边的度
Figure BDA0003663258470000094
Figure BDA0003663258470000095
Figure BDA0003663258470000096
步骤二,将获得的超图相关矩阵使用串联的方式拼接在一起,即
Figure BDA0003663258470000097
这极大地拓宽了特征空间,从而得到更加丰富的特征表示。然后求取统一的超图拉普拉斯矩阵:
Figure BDA0003663258470000098
其中,I为单位矩阵;W是对角矩阵,其对角线上的元素为超边的权重。
步骤三,将得到的超图拉普拉斯矩阵构造正则项,并引入到潜在低秩表示模型框架中,得到高阶超拉普拉斯潜在低秩表示模型。具体过程如下:
将超图拉普拉斯正则项引入潜在低秩表示模型框架中,根据超图的定义,使同一超边内的数据点对应的低秩系数彼此相似,用
Figure BDA0003663258470000099
对每个超边e内给定数据点之间的成对距离的总和进行加权。高阶拉普拉斯正则化潜在低秩表示模型形式为:
Figure BDA0003663258470000101
st.X=XZ+TZ+E
最后,通过代数运算,得到矩阵形式的高阶拉普拉斯正则化潜在低秩表示(High-order Laplacian regularizationLatLRR)模型:
Figure BDA0003663258470000102
st.X=XZ+TZ+E
其中,X表示源图像,Z表示图像的低秩矩阵,T表示图像的显著性矩阵,E表示图像的噪声部分,||Z||*表示Z的核范数,||T||*表示T的核范数;||E||2,1表示分别对红外图像的噪声部分和可见光的噪声部分进行L2,1范数正则化约束;Z′表示Z的转置矩阵,γ为平衡噪声参数,β为超图拉普拉斯正则化平衡系数;L表示求得的超拉普拉斯矩阵。γ和β为经验值,在一个示意性实施例中,γ和β的取值范围均为[0.001,0.01,0.1,1,10,100],优选,γ和β均等于0.1。
由上式,在经过分解处理后,可得到每幅图像的基础部分XmZm、显著部分LmXm和噪声部分Em,m=1,2,表示红外图像和可见光数据。在融合处理中,我们只采用分解得到的基础部分和显著部分信息,对分离的噪声部分进行舍弃。
步骤四,对高阶超拉普拉斯潜在低秩表示模型使用自适应惩罚线性化交替方向方法(LADMAP)迭代求解,得到不同模态图像的基础部分(X1Z1和X2Z2)和显著部分(L1X1和L2X2),同时对噪声部分(E1,E2)进行舍弃。
4.1采用LADMAP优化算法进行优化,构造目标函数的增广拉格朗日函数:
Figure BDA0003663258470000103
其中,
Figure BDA0003663258470000104
为F范数的平方,用来约束误差;<Y,X-XZ-TZ+E>表示tr(Y′*(X-XZ-TZ+E));μ>0是惩罚参数;Y为拉格朗日乘子,在其他变量不变的情况下,通过最小化增广拉格朗日函数交替更新变量。
4.2按照如下条件迭代交替更新各个变量,直至满足收敛条件:
首先,固定其它变量更新Z:
Figure BDA0003663258470000111
Zk+1的闭式解可使用奇异值分解(SVD)分解,由此得到的闭式解为
Figure BDA0003663258470000112
Figure BDA0003663258470000113
Figure BDA0003663258470000114
其中,
Figure BDA0003663258470000115
为Zk的梯度;η1为逼近项参数,必须要大于0且尽可能的小。L′、X′分别为L、X的转置矩阵。
4.3固定其他变量,使用Zk+1更新T
Figure BDA0003663258470000116
同理,可以用SVD分解求得闭式解为
Figure BDA0003663258470000117
4.4更新E
使用Zk+1,Tk+1更新Ek
Figure BDA0003663258470000118
求得闭式解为
Figure BDA0003663258470000119
4.5更新拉格朗日乘子Y
使用迭代后的Zk+1,Tk+1,Ek+1进行更新,其解为
Yk+1=Ykk(X-XZk+1-Tk+1X-Ek+1)
4.6更新惩罚参数μ
μk+1=min(μmax,ρμk)
在本发明实施例中,u0=10-6,umax=1010
Figure BDA0003663258470000121
在本发明实施例中,ρ=1.9。
4.7在本发明实施例中,所述收敛条件满足:
Figure BDA0003663258470000122
max{η1||Zk+1-Zk||,η1||Tk+1-Tk||,μk||Ek+1-Ek||}<ε2其中,ε为预设值,ε1=10-6,ε2=10-5;将Z、T、E、Y的初始值均设置为0。
步骤五,将高阶超拉普拉斯潜在低秩表示模型分解后的基础部分图像Fa1=X1Z1和Fa2=X2Z2进行深度特征提取并进行融合,得到基础部分融合图像Fa
5.1使用非下采样轮廓波变换(NSCT)对得到的基础部分进行分解,得到了高频子带Um和低频子带Om;其中m表示不同模态的图像,m=1,2,分别表示红外图像和可见光图像。
5.2高频子带包含了输入图像丰富的边缘和纹理细节信息,选取最大选择策略进行融合,具体方程如下:
Figure BDA0003663258470000123
其中,p为方向子带数;l为尺度数;
Figure BDA0003663258470000131
为融合后的高频图像;
Figure BDA0003663258470000132
Figure BDA0003663258470000133
为l尺度上第j个方向子带的高频元素,选取其中绝对值大的元素作为最终融合元素,并对得到的
Figure BDA0003663258470000134
Figure BDA0003663258470000135
进行求和策略,得到最终的融合高频元素
Figure BDA0003663258470000136
5.3由NSCT分解得到的低频子带拥有主要的轮廓、背景等信息,低频系数融合策略为加权平均求均值。首先对两幅图像的低频分量使用3×3的窗口模块K进行加权,然后再对加权平均后的系数求均值得到低频融合系数。具体计算公式如下:
Figure BDA0003663258470000137
Figure BDA0003663258470000138
其中,OF
Figure BDA0003663258470000139
OF(x,y)为融合后的低频图像。O1(x,y)为红外低频图像元素;O2(x,y)为可见光低频图像元素。
5.4在UF和OF上进行相应的逆NSCT变换,重建得到最终的基础部分融合图像Fa
步骤六,将高阶超拉普拉斯潜在低秩表示模型分解后的显著部分图像Fb1=L1X1和Fb2=L2X2进行融合,得到显著性部分融合图像Fb
在本发明实施例中,采用加权求和策略进行图像融合,即Fb=Fb1+Fb2
步骤七,将Fa和Fb进行融合,得到最终融合图像F。
在本发明实施例中,采用加权求和策略进行图像融合,即F=Fa+Fb
图3为融合结果图,其中,其中(a)表示红外传感器获得的红外图,大小为15.3kb;(b)表示可见光传感器获得的可见光图大小为20.1kb;(c)表示经过特征融合后的融合图,大小为15kb。融合图像清晰度高、层次鲜明,场景中的显著区域、目标相对更加突出,且质量更小。
本发明对复杂动态系统感知的多模态数据特征进行融合,既能够发现不同模态数据之间的高阶关系,又能够对数据进行去噪处理,同时对特征进行融合后传送,降低了智能体之间的通讯代价,为超图低秩学习技术在复杂动态系统感知领域的应用提供了理论依据和实践经验。

Claims (9)

1.一种基于超图低秩表示的复杂动态系统感知特征融合方法,其特征在于,该方法包括以下步骤:
步骤一,使用智能体中红外传感器和可见光传感器采集的图像数据作为主要融合对象,使用国际公共数据TNO数据集;针对两种不同模态的信息,构造两个超图,并计算每个超图的相关矩阵H(m),其中m表示不同模态的图像,m=1,2,分别表示红外图像和可见光图像;
步骤二,将超图相关矩阵串联,求取统一的超图拉普拉斯矩阵;
步骤三,将得到的超图拉普拉斯矩阵构造正则项,并引入到潜在低秩表示模型框架中,得到高阶超拉普拉斯潜在低秩表示模型;
步骤四,对高阶超拉普拉斯潜在低秩表示模型使用自适应惩罚线性化交替方向方法迭代求解,得到不同模态图像的基础部分XmZm和显著部分LmXm,同时对噪声部分Em进行舍弃;
步骤五,将高阶超拉普拉斯潜在低秩表示模型分解后的基础部分图像Fa1=X1Z1和Fa2=X2Z2进行融合,得到基础部分融合图像Fa
步骤六,将高阶超拉普拉斯潜在低秩表示模型分解后的显著部分图像Fb1=L1X1和Fb2=L2X2进行融合,得到显著性部分融合图像Fb
步骤七,将Fa和Fb进行融合,得到最终融合图像F。
2.根据权利要求1所述的方法,其特征在于,所述步骤一中,构造超图的方法如下:
对于每种模态m的特征描述,构造每个超图G(m)=(v(m),ε(m),w(m)),m=1,2;其中v(m)表示顶点集,数据集中的每个样本对应超图中的一个顶点;ε(m)表示超边集,在该超图中,依次以每个顶点为中心,找到与其最近的k个点构建对应的超边,每条超边对应一个中心点,且每条超边链接k个顶点;w(m)表示超边的权重值集合,每个超边的权重用w(ej)表示;超图G(m)的相关矩阵
Figure FDA0003663258460000021
N表示超图G的顶点数,等价于N=|v|;Ne表示超边的总数,等价于Ne=|ε|;H(m)中的元素hij表示顶点vi是否与超边ej中的顶点连接,计算公式如下:
Figure FDA0003663258460000022
分别使用如下公式计算超图中顶点的度d(vi)和超边的度d(ej):
Figure FDA0003663258460000023
Figure FDA0003663258460000025
3.根据权利要求1或2所述的方法,其特征在于,所述步骤二的具体过程如下:
设Dv是包含顶点度的对角矩阵,De为超边度的对角矩阵,W为超边权值的对角矩阵,同时将获得的超图相关矩阵使用串联的方式拼接在一起,即
Figure FDA0003663258460000026
然后求取统一的超图拉普拉斯矩阵L,计算公式如下:
Figure FDA0003663258460000024
其中,
Figure FDA0003663258460000027
表示
Figure FDA0003663258460000028
的转置矩阵,I为单位矩阵。
4.根据权利要求1或2所述的方法,其特征在于,所述步骤三的具体过程如下:
将超图拉普拉斯正则项引入潜在低秩表示模型框架中,根据超图的定义,使同一超边内的数据点对应的低秩系数彼此相似,用
Figure FDA0003663258460000031
对每个超边e内给定数据点之间的成对距离的总和进行加权;高阶拉普拉斯正则化潜在低秩表示模型形式为:
Figure FDA0003663258460000032
最后,通过代数运算,得到矩阵形式的高阶拉普拉斯正则化潜在低秩表示模型:
Figure FDA0003663258460000033
其中,X表示源图像,Z表示图像的低秩矩阵,T表示图像的显著性矩阵,E表示图像的噪声部分,||Z||*表示Z的核范数,||T||*表示T的核范数;||E||2,1表示分别对红外图像的噪声部分和可见光的噪声部分进行L2,1范数正则化约束;Z′表示Z的转置矩阵,γ为平衡噪声参数,β为超图拉普拉斯正则化平衡系数;L表示求得的超拉普拉斯矩阵;γ和β为经验值,γ和β的取值范围均为[0.001,0.01,0.1,1,10,100];
由上式,在经过分解处理后,得到每幅图像的基础部分XmZm、显著部分LmXm和噪声部分Em;在融合处理中,只采用分解得到的基础部分和显著部分信息,对分离的噪声部分进行舍弃。
5.根据权利要求3所述的方法,其特征在于,所述步骤三的具体过程如下:
将超图拉普拉斯正则项引入潜在低秩表示模型框架中,根据超图的定义,使同一超边内的数据点对应的低秩系数彼此相似,用
Figure FDA0003663258460000041
对每个超边e内给定数据点之间的成对距离的总和进行加权;高阶拉普拉斯正则化潜在低秩表示模型形式为:
Figure FDA0003663258460000042
最后,通过代数运算,得到矩阵形式的高阶拉普拉斯正则化潜在低秩表示模型:
Figure FDA0003663258460000043
其中,X表示源图像,Z表示图像的低秩矩阵,T表示图像的显著性矩阵,E表示图像的噪声部分,||Z||*表示Z的核范数,||T||*表示T的核范数;||E||2,1表示分别对红外图像的噪声部分和可见光的噪声部分进行L2,1范数正则化约束;Z′表示Z的转置矩阵,γ为平衡噪声参数,β为超图拉普拉斯正则化平衡系数;L表示求得的超拉普拉斯矩阵;γ和β为经验值,γ和β的取值范围均为[0.001,0.01,0.1,1,10,100];
由上式,在经过分解处理后,得到每幅图像的基础部分XmZm、显著部分LmXm和噪声部分Em;在融合处理中,只采用分解得到的基础部分和显著部分信息,对分离的噪声部分进行舍弃。
6.根据权利要求1、2或5所述的方法,其特征在于,所述步骤四中,高阶超拉普拉斯正则化潜在低秩表示模型的优化求解步骤如下:
4.1采用LADMAP优化算法进行优化,构造目标函数的增广拉格朗日函数:
Figure FDA0003663258460000051
其中,
Figure FDA0003663258460000052
为F范数的平方,用来约束误差;<Y,S-SZ-TZ+E>表示tr(Y′*(X-XZ-TZ+E));μ>0是惩罚参数;Y为拉格朗日乘子,在其他变量不变的情况下,通过最小化增广拉格朗日函数交替更新变量;
4.2按照如下条件迭代交替更新各个变量,直至满足收敛条件:
Figure FDA0003663258460000053
Figure FDA0003663258460000054
Figure FDA0003663258460000055
其中,η1为逼近项参数,取值如下所示:
Figure FDA0003663258460000056
更新拉格朗日乘子Y:
Yk+1=Ykk(X-XZk+1-Tk+1X-Ek+1)
更新惩罚参数μ:
μk+1=min(μmax,ρμk)
Figure FDA0003663258460000057
ρ为迭代步长;
所述收敛条件满足:
Figure FDA0003663258460000061
其中,ε1和ε2为预设值。
7.根据权利要求1、2或5所述的方法,其特征在于,所述步骤五的具体步骤如下:
5.1使用非下采样轮廓波变换NSCT对得到的基础部分进行分解,得到了高频子带Um和低频子带Om
5.2高频子带包含了输入图像丰富的边缘和纹理细节信息,选取最大选择策略进行融合,具体方程如下:
Figure FDA0003663258460000062
其中,p为方向子带数;l为尺度数;
Figure FDA0003663258460000063
为融合后的高频图像;
Figure FDA0003663258460000064
Figure FDA0003663258460000065
为l尺度上第j个方向子带的高频元素,选取其中绝对值大的元素作为最终融合元素,并对得到的
Figure FDA0003663258460000066
Figure FDA0003663258460000067
进行求和策略,得到最终的融合高频元素
Figure FDA0003663258460000068
5.3由NSCT分解得到的低频子带拥有包括主要的轮廓、背景在内的信息,低频系数融合策略为加权平均求均值;首先对两幅图像的低频分量使用3×3的窗口模块K进行加权,然后再对加权平均后的系数求均值得到低频融合系数,具体计算公式如下:
Figure FDA0003663258460000071
Figure FDA0003663258460000072
其中,
Figure FDA0003663258460000073
为融合后的低频图像;O1(x,y)为红外低频图像元素;O2(x,y)为可见光低频图像元素;
5.4在UF和OF上进行相应的逆NSCT变换,重建得到最终的基础部分融合图像Fa
8.根据权利要求1、2或5所述的方法,其特征在于,所述步骤六和步骤七中,均采用加权求和策略进行图像融合。
9.根据权利要求7所述的方法,其特征在于,所述步骤四中,u0=10-6,umax=1010;ρ=1.9;ε1=10-6,ε2=10-5;Z、T、E、Y的初始值均设置为0。
CN202210579395.XA 2022-05-26 2022-05-26 一种基于超图低秩表示的复杂动态系统感知特征融合方法 Active CN114926719B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210579395.XA CN114926719B (zh) 2022-05-26 2022-05-26 一种基于超图低秩表示的复杂动态系统感知特征融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210579395.XA CN114926719B (zh) 2022-05-26 2022-05-26 一种基于超图低秩表示的复杂动态系统感知特征融合方法

Publications (2)

Publication Number Publication Date
CN114926719A true CN114926719A (zh) 2022-08-19
CN114926719B CN114926719B (zh) 2024-06-14

Family

ID=82811185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210579395.XA Active CN114926719B (zh) 2022-05-26 2022-05-26 一种基于超图低秩表示的复杂动态系统感知特征融合方法

Country Status (1)

Country Link
CN (1) CN114926719B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107657217A (zh) * 2017-09-12 2018-02-02 电子科技大学 基于运动目标检测的红外与可见光视频的融合方法
CN109215780A (zh) * 2018-08-24 2019-01-15 齐鲁工业大学 高拉普拉斯正则化低秩表示的多模态数据分析方法及系统
CN110148104A (zh) * 2019-05-14 2019-08-20 西安电子科技大学 基于显著性分析与低秩表示的红外与可见光图像融合方法
AU2020100178A4 (en) * 2020-02-04 2020-03-19 Huang, Shuying DR Multiple decision maps based infrared and visible image fusion
CN114298950A (zh) * 2021-12-20 2022-04-08 扬州大学 一种基于改进的GoDec算法的红外与可见光图像融合方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107657217A (zh) * 2017-09-12 2018-02-02 电子科技大学 基于运动目标检测的红外与可见光视频的融合方法
CN109215780A (zh) * 2018-08-24 2019-01-15 齐鲁工业大学 高拉普拉斯正则化低秩表示的多模态数据分析方法及系统
CN110148104A (zh) * 2019-05-14 2019-08-20 西安电子科技大学 基于显著性分析与低秩表示的红外与可见光图像融合方法
AU2020100178A4 (en) * 2020-02-04 2020-03-19 Huang, Shuying DR Multiple decision maps based infrared and visible image fusion
CN114298950A (zh) * 2021-12-20 2022-04-08 扬州大学 一种基于改进的GoDec算法的红外与可见光图像融合方法

Also Published As

Publication number Publication date
CN114926719B (zh) 2024-06-14

Similar Documents

Publication Publication Date Title
Grathwohl et al. Ffjord: Free-form continuous dynamics for scalable reversible generative models
CN109118564B (zh) 一种基于融合体素的三维点云标记方法和装置
CN108830818B (zh) 一种快速多聚焦图像融合方法
CN108171279B (zh) 一种多视角视频自适应乘积Grassmann流形子空间聚类方法
CN108182260B (zh) 一种基于语义选择的多变量时间序列分类方法
CN110852393A (zh) 一种遥感图像的分割方法及系统
CN108510013A (zh) 基于低秩核心矩阵的改进稳健张量主成分分析方法
Yang et al. Simplicial convolutional filters
CN112614070B (zh) 一种基于DefogNet的单幅图像去雾方法
Jiao et al. Guided-Pix2Pix: End-to-end inference and refinement network for image dehazing
CN113221794A (zh) 一种训练数据集生成方法、装置、设备及存储介质
CN111598822A (zh) 一种基于gfrw与iscm的图像融合方法
CN110414560A (zh) 一种用于高维图像数据的自主子空间聚类方法
CN112241938A (zh) 基于光滑塔克分解与高阶张量汉克化的图像修复方法
CN114926719A (zh) 一种基于超图低秩表示的复杂动态系统感知特征融合方法
Xie et al. Novel hybrid low-rank tensor approximation for hyperspectral image mixed denoising based on global-guided-nonlocal prior mechanism
CN111428555A (zh) 一种分关节的手部姿态估计方法
CN116543229A (zh) 基于自适应累积系数的深度学习优化器的图像分类方法
CN116543259A (zh) 一种深度分类网络噪声标签建模与纠正方法、系统及存储介质
CN114863548B (zh) 基于人体运动姿态非线性空间特征的情绪识别方法及装置
CN116188428A (zh) 一种桥接多源域自适应的跨域组织病理学图像识别方法
Reimherr et al. Optimal function-on-scalar regression over complex domains
CN115984595A (zh) 一种基于拉普拉斯秩约束的多元图聚类方法
CN115631361A (zh) 一种融合低秩核学习和自适应超图的图像聚类方法
CN113312838B (zh) 一种基于数据重建的可靠多视图学习方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant