CN114005046A - 基于Gabor滤波器和协方差池化的遥感场景分类方法 - Google Patents
基于Gabor滤波器和协方差池化的遥感场景分类方法 Download PDFInfo
- Publication number
- CN114005046A CN114005046A CN202111299649.4A CN202111299649A CN114005046A CN 114005046 A CN114005046 A CN 114005046A CN 202111299649 A CN202111299649 A CN 202111299649A CN 114005046 A CN114005046 A CN 114005046A
- Authority
- CN
- China
- Prior art keywords
- gabor
- remote sensing
- convolution
- matrix
- covariance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011176 pooling Methods 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000010606 normalization Methods 0.000 claims abstract description 12
- 238000012360 testing method Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 45
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000000354 decomposition reaction Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 238000009827 uniform distribution Methods 0.000 claims description 2
- 230000010363 phase shift Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 19
- 230000000694 effects Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及遥感图像处理领域技术领域,公开了基于Gabor滤波器和协方差池化的遥感场景分类方法,包括以下步骤:将高分辨率遥感图像分为训练集和测试集,训练集用于训练卷积神经网络模型;将训练集中的高分辨率遥感图像进行归一化处理,归一化处理后的高分辨率遥感图像输入Gabor函数的卷积层提取特征;将提取的特征输入协方差池化模块,获得图像的深层特征;根据图像的深层特征,通过反向传播得到卷积神经网络模型的模型参数,通过全连接层对图像的深层特征进行分类;使用测试集验证卷积神经网络模型对遥感场景的分类精度,这种基于Gabor滤波器和协方差池化的遥感场景分类方法,能够提高在高分辨率场景下的分类精度。
Description
技术领域
本发明涉及遥感图像处理领域技术领域,特别涉及基于Gabor滤波器和协方差池化的遥感场景分类方法。
背景技术
随着遥感技术的飞速发展,高分辨率遥感分类问题成为热门问题。
传统方法使用普通卷积方式,普通神经网络卷积方式在进行卷积的同时会遗漏特征信息。尤其针对高分辨率遥感场景分类问题来说,这种遗漏会更加明显,导致场景分类的效果不够理想。
传统方法使用全局池化的方式,限制了深层CNN网络的表示和泛化能力。深度CNN网络的最后一个卷积层的输出尺寸通常很大,但是特征数很少。在这种情况下,全局池化的方式并不优秀。
本发明能够进一步提高在高分辨率场景下的分类精度。
发明内容
本发明提供基于Gabor滤波器和协方差池化的遥感场景分类方法,达到可以捕获更丰富的特征信息,提高CNN网络的表示能力和泛化能力,从而达到更好的分类效果。
本发明提供基于Gabor滤波器和协方差池化的遥感场景分类方法,包括以下步骤:
S1、获取高分辨率遥感图像;
S2、将高分辨率遥感图像分为训练集和测试集,训练集用于训练卷积神经网络模型;
S3、将训练集中的高分辨率遥感图像进行归一化处理,归一化处理后的高分辨率遥感图像输入卷积神经网络模型中的Gabor函数的卷积层提取特征;
S4、将提取的特征输入卷积神经网络模型中协方差池化模块,进行采样操作,获得图像的深层特征;
S5、根据图像的深层特征,通过反向传播得到卷积神经网络模型的模型参数,模型参数包括:卷积神经网络模型中卷积层的权重和偏置,根据模型参数通过全连接层对图像的深层特征进行分类,从而实现对遥感场景的分类;
S6、使用测试集验证卷积神经网络模型对遥感场景的分类精度。
上述Gabor函数为:
x'=x cosθm+y sinθm (2)
y'=-x sinθm+y cosθm (3)
Gabor函数的实数部分为:
Gabor函数的虚数部分为:
Gabor函数并行条纹的方向用θ表示,且θ的取值范围为0到360度,相位偏移满足均匀分布的U(0,π);σ表示函数内的高斯因子的标准差,i为虚数单位,其中Gabor滤波器的频率ωn和方向θM通过以下公式计算得到:
上述步骤S3中将训练集中的高分辨率遥感图像进行归一化处理后输入Gabor函数的卷积层提取特征的具体步骤包括:
S31、输入的高分辨率遥感图像经过归一化层的处理后,归一化至均值为0,方差为1;
S32、随机初始化Gabor卷积层的权重;
S33、再将归一化处理之后的高分辨率遥感图像送入初始化权重后的Gabor卷积层;
S34、通过Gabor卷积提取输入的高分辨率遥感图像的方向和比例信息。
上述Gabor卷积层的权重,其尺寸为:Cout×Cin×N×H×W,Cout和Cin分别表示输出和输入特征图的通道,其中,N为卷积核的通道数,H和W为输出特征图的高和宽;
为了在前向卷积过程中使特征图的通道数量保持一致,这里将N看作U,对于给定的频率v,定义不同尺度的Gabor卷积为:
式(8)中Ci,o是一个能够自学习的卷积核,G(u,v)代表一组具有不同方向和比例的Gabor卷积,u表示方向,v表示频率,为表示G(u,v)2和Ci,o之间的逐元素乘积运算,因此Gabor卷积被定义为:
Gabor卷积中的前向计算中涉及的权重尺寸是Cout×Cin×N×W×W,但是保存的权重是自学习后得到的,因此,在反向传播过程中,只有Ci,o需要更新,需要将Gabor卷积得到的参数进行梯度求和,卷积得到的参数梯度求和是为了在卷积神经网络中能够进行反向传播,进而使得整个网络在损失函数上找到一个最优解,参数梯度求和如下:
其中L是损失函数,从式(12)发现Gabor卷积这种更新Ci,o的方式更加紧凑和高效,能够有效提取并保存图像中更多的特征信息。
上述步骤S4中协方差池化模块采用全局协方差池化,属于二阶池化,捕捉图像的深层特征,具体方法如下:
输入特征矩阵X∈RC×M,其中R表示维度空间,表示X的维度空间为X*M,C为通道数,M=W×H,则其协方差计算结果为:
式(13)中I代表M×M的单位矩阵,1为M×M的全是1的矩阵,T代表矩阵的转置;
由于协方差矩阵的平方根是正定矩阵,并且能够进行特征值分解EIG(EigenDecomposition);使用迭代式的矩阵平方根算法对EIG进行计算,计算EIG是为了求解矩阵的逆;
对于一个给定的正定矩阵A,EIG分解为:
A=Udiag(λi)UT (14)
式(14)中diag(λi)是一个对角矩阵,U是一个正交矩阵,则A的平方根Y为:
使用牛顿舒尔茨迭代式的矩阵平方根算法对EIG进行计算;
假设对于k=1,…,N,Y0=A,Z0=I,则其迭代式为:
Yk=Yk-1Plm(Zk-1Yk-1)qlm(Zk-1Yk-1)-1
Zk=Plm(Zk-1Yk-1)qlm(Zk-1Yk-1)-1Zk-1 (16)
在式(16)中,lmPlm和qlm代表不同的多项式,l和m是非负整数,当l=0,m=1时,即为牛顿舒尔茨迭代式,因此有:
经过几次迭代得到与EIG计算极为接近的结果。
上述步骤S5中根据图像的深层特征,通过反向传播得到卷积神经网络的模型参数的具体步骤包括:
对所述协方差∑进行如下处理:
特征F由下式推得:
dF=dU log(∑)UT+Ud(log(∑))UT+U log(∑)dUT (20)
联立得:
所以:
dC=dU∑UT+Ud∑UT+U∑dUT (23)
过矩阵的特征值分解性质推得:
其中K的计算公式为:
式(26)中I代表M×M的单位矩阵,通过反向传播得到最好的模型参数,更好地实现对遥感场景图片的分类。
与现有技术相比,本发明的有益效果在于:
本发明利用Gabor滤波器的可转向性增强特征,使得传统卷积方式提取不到的浅层特征被提取出来。
本发明用协方差池化代替传统的全局池化,从而达到可以捕获更丰富的特征信息,提高CNN网络的表示能力和泛化能力,从而达到更好的分类效果,能够提高在高分辨率场景下的分类精度。
附图说明
图1为本发明提供的基于Gabor滤波器和协方差池化的遥感场景分类方法的步骤图。
图2为本发明提供的Gabor卷积方式中输入和输出的关系图。
图3为本发明提供的基于Gabor滤波器和协方差池化的算法结构图。
具体实施方式
下面结合附图1,对本发明的一个具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
如图1所示,本发明实施例提供的基于Gabor滤波器和协方差池化的遥感场景分类方法,包括以下步骤:
S1、获取高分辨率遥感图像;
S2、将高分辨率遥感图像分为训练集和测试集;
S3、将训练集的高分辨率遥感图像进行归一化处理后输入Gabor卷积层提取特征;
由上述公式推导发现,Gabor函数从理论上对神经网络提取遥感图像的结构特征起到帮助,进而提升网络的分类性能,接下来需要将这种算法转换为Gabor卷积。Gabor卷积核的定义为:
其中u是方向,v指的是频率,且σ=2π,其中z=(x,y), 由上述公式发现Gabor卷积捕获了输入图片的方向和比例信息,从而使相应的卷积功能得到了增强;使用Gabor卷积不仅使参数明显减少,而且能够增强深度模型;
与标准CNN中的卷积方式不同,Gabor卷积要对定向通道进行编码,因此该方式的卷积是三维的。这里令卷积的尺寸为N×W×W,其中W×W为卷积的大小,N表示通道数。如果传统CNN中每层的权重尺寸表示为Cout×Cin×W×W,则Gabor卷积的权重尺寸为Cout×Cin×N×W×W,Cout和Cin分别表示输出和输入特征图的通道。为了在前向卷积过程中使特征图的通道数量保持一致,这里将N看作U,对于给定的v,定义不同尺度的Gabor卷积为
其中Ci,o是一个可以自学习的卷积核,G(u,v)代表一组具有不同方向和比例的Gabor卷积,表示G(u,v)2和Ci,o之间的逐元素乘积运算,因此Gabor卷积被定义为
与传统的CNN不同,Gabor卷积中的前向计算中涉及的权重尺寸是Cout×Cin×N×W×W,但是保存的权重是自学习后得到的,因此,在BP(反向传播)过程中,只有Ci,0需要更新,需要将Gabor卷积得到的参数进行梯度求和,有
Ci,o=Ci,o-ηδ,
其中L是损失函数,从上述公式发现Gabor卷积这种尽更新Ci,o的方式更加紧凑和高效,能够有效提取并保存图像中更多的特征信息。
通过反向传播得到最好的模型参数,模型参数包括:卷积网络中卷积层的权重和偏置,更好地实现对遥感场景图片的分类。
池化层的作用是对卷积计算得到的大量特征进行过滤,由于传统CNN中的全局平均池化是一种低阶池化形式,相当于一种低通滤波的方法,会丢失大量特征,降低网络的表示学习能力,而全局协方差池化属于二阶池化,更能捕捉到图像的深层特征,其设计策略设计如下:
其中I代表M×M的单位矩阵,T代表矩阵的转置;
由于协方差矩阵的平方根是正定矩阵,并且能够进行特征值分解EIG(EigenDecomposition)和奇异值分解SVD(Singular Value Decomposition);但是当前的GPU对EIG和SVD的计算速度太过缓慢,需要提高计算速度,因此使用迭代式的矩阵平方根算法对其进行计算;
对于一个给定的正定矩阵A,EIG分解为:
A=Udiag(λi)UT,
其中diag(λi)是一个对角矩阵,U是一个正交矩阵,则A的平方根Y为:
由于当前GPU对EIG和SVD的计算速度太过缓慢,因此使用牛顿舒尔茨迭代式的矩阵平方根算法对其进行计算;
假设对于k=1,…,N,Y0=A,Z0=I,则其迭代式为:
Yk=Yk-1Plm(Zk-1Yk-1)qlm(Zk-1Yk-1)-1
Zk=Plm(Zk-1Yk-1)qlm(Zk-1Yk-1)-1Zk-1,
在上述公式中,l和m是非负整数,Plm和qlm代表不同的多项式,当l=0,m=1时,即为牛顿舒尔茨迭代式,所以有:
使用这种方法在经过几次迭代即可得到与EIG计算极为接近的结果,并且这种方法在GPU上的运算速度远快于EIG。
但是上述操作会降低输入数据的数量级,会对神经网络产生不可预知的影响,因此需要对上述得到的数据进行下述处理:
即可满足后续网络需要;
特征F同时由下式推得:
dF=dU log(∑)UT+Ud(log(∑))UT+U log(∑)dUT
联立可得
所以
dC=dU∑UT+Ud∑UT+U∑dUT.
过矩阵的特征值分解性质可以推得
其中K的计算公式为
将通过Gabor滤波器获取的信息输入如图所示的模块中。
本发明利用Gabor滤波器的可转向性增强特征,使得传统卷积方式提取不到的浅层特征被提取出来。
本发明用协方差池化代替传统的全局池化,从而达到可以捕获更丰富的特征信息,提高CNN网络的表示能力和泛化能力,从而达到更好的分类效果。
本发明提高CNN网络在面对高分辨率遥感图像场景分类时的尺度变化和泛化能力,进而提高分类精度。
本发明减少模型的复杂度,提高训练速度。
本发明提供了基于Gabor滤波器和协方差池化的遥感场景分类方法,包括:以ResNet为主干网络,利用Gabor滤波器强大的特征提取能力。在此基础上设计一种自学习的Gabor卷积,并用之替换ResNet的第一层卷积,提取出传统卷积方式无法提取到的复杂特征。与之同时,用协方差池化作为网络的最后一层,提高CNN网络的表示能力和泛化能力,从而达到更好的分类效果,能够提高在高分辨率场景下的分类精度。
以上公开的仅为本发明的几个具体实施例,但是,本发明实施例并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (6)
1.基于Gabor滤波器和协方差池化的遥感场景分类方法,其特征在于,包括以下步骤:
S1、获取高分辨率遥感图像;
S2、将高分辨率遥感图像分为训练集和测试集,训练集用于训练卷积神经网络模型;
S3、将训练集中的高分辨率遥感图像进行归一化处理,归一化处理后的高分辨率遥感图像输入卷积神经网络模型中的Gabor函数的卷积层提取特征;
S4、将提取的特征输入卷积神经网络模型中协方差池化模块,进行采样操作,获得图像的深层特征;
S5、根据图像的深层特征,通过反向传播得到卷积神经网络模型的模型参数,模型参数包括:卷积神经网络模型中卷积层的权重和偏置,根据模型参数通过全连接层对图像的深层特征进行分类,从而实现对遥感场景的分类;
S6、使用测试集验证卷积神经网络模型对遥感场景的分类精度。
3.如权利要求1所述的基于Gabor滤波器和协方差池化的遥感场景分类方法,其特征在于,所述步骤S3中将训练集中的高分辨率遥感图像进行归一化处理后输入Gabor函数的卷积层提取特征的具体步骤包括:
S31、输入的高分辨率遥感图像经过归一化层的处理后,归一化至均值为0,方差为1;
S32、随机初始化Gabor卷积层的权重;
S33、再将归一化处理之后的高分辨率遥感图像送入初始化权重后的Gabor卷积层;
S34、通过Gabor卷积提取输入的高分辨率遥感图像的方向和比例信息。
4.如权利要求3所述的基于Gabor滤波器和协方差池化的遥感场景分类方法,其特征在于,所述Gabor卷积层的权重,其尺寸为:Cout×Cin×N×H×W,Cout和Cin分别表示输出和输入特征图的通道,其中,N为卷积核的通道数,H和W为输出特征图的高和宽;
为了在前向卷积过程中使特征图的通道数量保持一致,这里将N看作U,对于给定的频率v,定义不同尺度的Gabor卷积为:
式(8)中Ci,o是一个能够自学习的卷积核,G(u,v)代表一组具有不同方向和比例的Gabor卷积,u表示方向,v表示频率,为表示G(u,v)2和Ci,o之间的逐元素乘积运算,因此Gabor卷积被定义为:
Gabor卷积中的前向计算中涉及的权重尺寸是Cout×Cin×N×W×W,但是保存的权重是自学习后得到的,因此,在反向传播过程中,只有Ci,o需要更新,需要将Gabor卷积得到的参数进行梯度求和,卷积得到的参数梯度求和是为了在卷积神经网络中能够进行反向传播,进而使得整个网络在损失函数上找到一个最优解,参数梯度求和如下:
其中L是损失函数,从式(12)发现Gabor卷积这种更新Ci,o的方式更加紧凑和高效,能够有效提取并保存图像中更多的特征信息。
5.如权利要求1所述的基于Gabor滤波器和协方差池化的遥感场景分类方法,其特征在于,所述步骤S4中协方差池化模块采用全局协方差池化,属于二阶池化,捕捉图像的深层特征,具体方法如下:
输入特征矩阵X∈RC×M,其中R表示维度空间,表示X的维度空间为X*M,C为通道数,M=W×H,则其协方差计算结果为:
式(13)中I代表M×M的单位矩阵,1为M×M的全是1的矩阵,T代表矩阵的转置;
由于协方差矩阵的平方根是正定矩阵,并且能够进行特征值分解EIG(EigenDecomposition);使用迭代式的矩阵平方根算法对EIG进行计算,计算EIG是为了求解矩阵的逆;
对于一个给定的正定矩阵A,EIG分解为:
A=Udiag(λi)UT (14)
式(14)中diag(λi)是一个对角矩阵,U是一个正交矩阵,则A的平方根Y为:
使用牛顿舒尔茨迭代式的矩阵平方根算法对EIG进行计算;
假设对于k=1,…,N,Y0=A,Z0=I,则其迭代式为:
在式(16)中,lmPlm和qlm代表不同的多项式,l和m是非负整数,当l=0,m=1时,即为牛顿舒尔茨迭代式,因此有:
经过几次迭代得到与EIG计算极为接近的结果。
6.如权利要求5所述的基于Gabor滤波器和协方差池化的遥感场景分类方法,其特征在于,所述步骤S5中根据图像的深层特征,通过反向传播得到卷积神经网络的模型参数的具体步骤包括:
对所述协方差∑进行如下处理:
特征F由下式推得:
dF=dUlog(∑)UT+Ud(log(∑))UT+Ulog(∑)dUT (20)
联立得:
所以:
dC=dU∑UT+Ud∑UT+U∑dUT (23)
过矩阵的特征值分解性质推得:
其中K的计算公式为:
式(26)中I代表M×M的单位矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111299649.4A CN114005046B (zh) | 2021-11-04 | 2021-11-04 | 基于Gabor滤波器和协方差池化的遥感场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111299649.4A CN114005046B (zh) | 2021-11-04 | 2021-11-04 | 基于Gabor滤波器和协方差池化的遥感场景分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114005046A true CN114005046A (zh) | 2022-02-01 |
CN114005046B CN114005046B (zh) | 2024-07-02 |
Family
ID=79927294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111299649.4A Active CN114005046B (zh) | 2021-11-04 | 2021-11-04 | 基于Gabor滤波器和协方差池化的遥感场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114005046B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116562358A (zh) * | 2023-03-16 | 2023-08-08 | 中国人民解放军战略支援部队航天工程大学士官学校 | 一种图像处理Gabor核卷积神经网络构建方法 |
CN117058507A (zh) * | 2023-08-17 | 2023-11-14 | 浙江航天润博测控技术有限公司 | 基于傅里叶卷积可见光和红外图像多尺度特征融合方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108388904A (zh) * | 2018-03-13 | 2018-08-10 | 中国海洋大学 | 一种基于卷积神经网络和协方差张量矩阵的降维方法 |
CN110728224A (zh) * | 2019-10-08 | 2020-01-24 | 西安电子科技大学 | 一种基于注意力机制深度Contourlet网络的遥感图像分类方法 |
WO2020244261A1 (zh) * | 2019-06-05 | 2020-12-10 | 中国科学院长春光学精密机械与物理研究所 | 高分辨率遥感图像的场景识别系统及模型生成方法 |
-
2021
- 2021-11-04 CN CN202111299649.4A patent/CN114005046B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108388904A (zh) * | 2018-03-13 | 2018-08-10 | 中国海洋大学 | 一种基于卷积神经网络和协方差张量矩阵的降维方法 |
WO2020244261A1 (zh) * | 2019-06-05 | 2020-12-10 | 中国科学院长春光学精密机械与物理研究所 | 高分辨率遥感图像的场景识别系统及模型生成方法 |
CN110728224A (zh) * | 2019-10-08 | 2020-01-24 | 西安电子科技大学 | 一种基于注意力机制深度Contourlet网络的遥感图像分类方法 |
Non-Patent Citations (1)
Title |
---|
叶珍;白璘;粘永健: "基于Gabor特征与局部保护降维的高光谱图像分类算法", 光学学报, no. 010, 8 July 2016 (2016-07-08) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116562358A (zh) * | 2023-03-16 | 2023-08-08 | 中国人民解放军战略支援部队航天工程大学士官学校 | 一种图像处理Gabor核卷积神经网络构建方法 |
CN116562358B (zh) * | 2023-03-16 | 2024-01-09 | 中国人民解放军战略支援部队航天工程大学士官学校 | 一种图像处理Gabor核卷积神经网络构建方法 |
CN117058507A (zh) * | 2023-08-17 | 2023-11-14 | 浙江航天润博测控技术有限公司 | 基于傅里叶卷积可见光和红外图像多尺度特征融合方法 |
CN117058507B (zh) * | 2023-08-17 | 2024-03-19 | 浙江航天润博测控技术有限公司 | 基于傅里叶卷积可见光和红外图像多尺度特征融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114005046B (zh) | 2024-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111583284B (zh) | 一种基于混合模型的小样本图像语义分割方法 | |
CN111325165B (zh) | 考虑空间关系信息的城市遥感影像场景分类方法 | |
CN110929736B (zh) | 多特征级联rgb-d显著性目标检测方法 | |
CN107844795A (zh) | 基于主成分分析的卷积神经网络特征提取方法 | |
CN111028292B (zh) | 一种亚像素级图像匹配导航定位方法 | |
CN112967210B (zh) | 一种基于全卷积孪生网络的无人机图像去噪方法 | |
CN114005046A (zh) | 基于Gabor滤波器和协方差池化的遥感场景分类方法 | |
CN113743269B (zh) | 一种轻量化识别视频人体姿态的方法 | |
CN112634163A (zh) | 基于改进型循环生成对抗网络去图像运动模糊方法 | |
CN112232134A (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN110503113B (zh) | 一种基于低秩矩阵恢复的图像显著性目标检测方法 | |
CN112785626A (zh) | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 | |
CN113902622A (zh) | 基于深度先验联合注意力的光谱超分辨率方法 | |
CN113449612A (zh) | 一种基于子流型稀疏卷积的三维目标点云识别的方法 | |
CN116052025A (zh) | 一种基于孪生网络的无人机视频图像小目标跟踪方法 | |
CN107292855A (zh) | 一种结合自适应非局部样本和低秩的图像去噪方法 | |
CN112329818B (zh) | 基于图卷积网络嵌入表征的高光谱图像非监督分类方法 | |
CN117611428A (zh) | 一种时装人物图像风格变换方法 | |
CN116416649A (zh) | 一种基于多尺度分辨率对齐的视频行人重识别方法 | |
CN114663861B (zh) | 一种基于维度解耦和非局部关系的车辆重识别方法 | |
CN106570911B (zh) | 一种基于daisy描述子的脸部卡通画合成方法 | |
CN115294182A (zh) | 一种基于双交叉注意力机制的高精度立体匹配方法 | |
CN113887385A (zh) | 一种基于多视角注意力卷积池化的三维点云分类方法 | |
CN113658236A (zh) | 一种基于图注意力机制的残缺点云配准方法 | |
Wang et al. | Deep attention-based lightweight network for aerial image deblurring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |