CN112801192B - 一种基于深度神经网络的扩展LargeVis图像特征降维方法 - Google Patents
一种基于深度神经网络的扩展LargeVis图像特征降维方法 Download PDFInfo
- Publication number
- CN112801192B CN112801192B CN202110148551.2A CN202110148551A CN112801192B CN 112801192 B CN112801192 B CN 112801192B CN 202110148551 A CN202110148551 A CN 202110148551A CN 112801192 B CN112801192 B CN 112801192B
- Authority
- CN
- China
- Prior art keywords
- data
- dimension
- low
- dimensional data
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009467 reduction Effects 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 25
- 238000013507 mapping Methods 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 28
- 210000002569 neuron Anatomy 0.000 claims description 20
- 238000010276 construction Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000001603 reducing effect Effects 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 5
- 238000013461 design Methods 0.000 claims description 4
- 238000013506 data mapping Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 12
- 238000005070 sampling Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 238000013079 data visualisation Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
一种基于深度神经网络的扩展LargeVis图像特征降维方法属于图像处理领域。现有Largevis降维方法是利用数据间的距离关系而进行降维操作过程,因此无法实现对单一的高维数据进行降维。该方法利用深度神经网络对LargeVis隐式的高维数据到低维数据的映射关系进行建模,构建出映射函数f,使得LargeVis算法能够实现对单一高维数据的降维,同时能够取得更优良的降维性能。
Description
技术领域
本发明属于图像处理领域,具体涉及数据降维、深度神经网络等技术。
背景技术
随着计算机处理和图采集技术的不断进步,各类数字图像的数据量在近年来呈指数型增长,图像质量也有了极大得提升。在对图像进行处理的过程中,由于图像数据本身具有海量性和内容复杂性,导致提取出的图像特征维度往往过高。若直接将这些高维度特征应用于分类、识别等任务中,会导致“维度灾难”。此时,可以利用降维技术来克服这一问题。
降维的本质是学习一个映射函数f:x->y,其中x是原始高维数据,y是映射后的低维数据,通常y的维度小于x的维度。f可能是显式的或隐式的、线性的或非线性的。按照使用的映射函数f,可以将降维方法分为线性降维与非线性降维两大类。其中,线性降维根据初始样本集构造出线性映射函数f,将高维数据映射至低维空间上。这类降维方法是将所有特征作为一个整体去处理,更关注数据的全局特征结构;而非线性降维是根据初始样本集构造出非线性映射函数f,可以实现对数据局部特征结构的表征。
近年来,多位专家学者通过探索研究,相继提出了一系列数据降维方法。其中,SNE、t-SNE和LargeVis是面向大规模高维数据的可视化而设计的三种非线性降维方法,受到了人们的广泛关注。
Hinton于2002年提出了SNE降维方法,该方法是将高维空间相似的数据点映射到低维空间后,可实现不同维度下的点间距离仍是相似的。但SNE方法存在两个不足:一是不对称的问题,其代价函数更关注局部结构,而忽视了全局结构;二是该方法的可视化结果中存在拥挤问题。
Maaten于2008年提出了t-SNE方法,该方法从两个方面对SNE方法进行了改进:一是把SNE变为对称SNE,解决了SNE的不对称问题;二是在低维空间中采用了t分布代替原来的高斯分布,高维空间不变,解决了SNE的拥挤问题。但t-SNE仍存在两个不足:一是处理大规模高维数据时,t-SNE的计算效率降低;二是t-SNE的通用性较差,算法中的参数对不同数据集较为敏感。
针对t-SNE的不足,唐建等人于2016年提出了LargeVis降维方法,该方法的改进点包括两个方面:高效的KNN图构建算法和优化的低维空间可视化算法。与t-NSE相比,该方法大大降低了计算复杂度,可以更高效地处理更大规模的高维数据。但是Largevis降维方法是利用数据间的距离关系而进行降维操作过程,因此无法实现对单一的高维数据进行降维。
发明内容
针对Largevis方法存在的问题,本发明提出了一种基于深度神经网络的扩展LargeVis降维方法。该方法利用深度神经网络对LargeVis隐式的高维数据到低维数据的映射关系进行建模,构建出映射函数f,使得LargeVis算法能够实现对单一高维数据的降维。
本发明提出的基于深度神经网络的扩展LargeVis降维方法主要包括三个步骤:训练数据集的构建、深度神经网络的设计以及高维到低维映射模型的构建等。
步骤1:训练数据集的构建
本发明采用深度神经网络来拟合Largevis高维数据到低维数据的映射函数f。为了训练深度神经网络,需要建立数据集。首先采用Largevis算法对待处理的大规模高维数据进行降维,得到相应的低维数据。将高维数据与低维数据相对应,构建出训练数据集。
步骤2:深度神经网络的设计
步骤2.1深度神经网络整体架构。本发明采用的深度神经网络是由多个全连接层组成。全连接层的前向计算过程为一个线性的加权求和过程,全连接层的每一个输出ym都可看成前一层的每一个结点xn乘以一个权重系数Wmn,最后加上一个偏置值bm得到,具体计算公式如下:
y1=W11*x1+W12*x2+…+W1n-1*xn-1+W1n*xn+b1 (1)
y2=W21*x1+W22*x2+…+W2n-1*xn-1+W2n*xn+b2 (2)
……
ym-1=Wm-11*x1+Wm-12*x2+…+Wm-1n-1*xn-1+Wm-1n*xn+bm-1 (3)
ym=Wm1*x1+Wm2*x2+…+Wmn-1*xn-1+Wmn*xn+bm (4)
上述公式可写成如下矩阵形式:
在网络训练过程中,需要利用设置的损失函数对权重系数Wmn和偏置值bm进行迭代更新,同时也要向前传递梯度,即全连接层的反向传播。更新时需要计算三个偏导数,包括上一层输出的导数,权重系数Wmn的导数和偏置系数bm的导数。第一层全连接层输入的是待降维处理的高维数据,此后每一层全连接层都对高维数据进行一次降维拟合,输出拟合降维后的低维数据。
步骤2.2:深度神经网络的全连接层数目T的确定
深度神经网络的全连接层数目会对降维结果产生直接影响,而不同的全连接层数T也对应着不同的网络结构。本发明设置的DNN全连接层数T通常可在2至6之间选取,通过多层全连接层结构将高维数据逐步降至低维数据,这样的设置可以更便捷地对DNN网络结构进行调整,同时也更有利于针对不同数据集而寻求最优的网络架构。
步骤2.3:DNN全连接层的各层工作神经元百分比α的设定
深度神经网络的每层全连接层中工作的神经元数量也直接影响到降维处理的性能。本发明可以对各全连接层工作神经元百分比α进行设置,便于对各全连接层的工作神经元数量进行调整,从而更有利于寻求最优的DNN网络架构。各全连接层工作神经元百分比α的值通常可在0至1之间选取。
步骤3:高维数据到低维数据映射模型的构建
利用训练数据集对DNN网络进行训练。DNN输入为高维数据,输出为对应的低维数据,通过训练,得到二者之间的映射模型。降维时,将高维数据作为DNN的输入,其输出即为降维后的低维数据。
需要说明的是,该发明中所处理图像数据的高维维度和低维维度是相对的,认为大于或等于512维的数据为高维数据,小于512维的数据为低维数据。
此外,对于同样的高维数据,如果需要降维到不同的维度,则需要针对全连接层数目T和各层工作神经元百分比α来设计不同的网络结构,构建不同的映射模型。具体实现方式为:设置80%的数据对作为训练集,20%作为测试集,设置训练的最大迭代轮数为500轮。对于全连接层数目T,通过在[2,6]的范围内以步长为1进行取值设定;每层全连接层的神经元总数取2的整数次幂,且要求从与高维维度数相同的神经元总数逐层递减至与所设定的低维维度数相同的神经元总数;对于各全连接层工作神经元百分比α,通过在(0,1]的范围内以步长为0.1进行取值设定。每训练一轮进行一次测试,利用测试结果与数据标签进行欧氏距离运算,最终根据欧氏距离运算所得最小值结果,来认定对应的网络参数为最优的参数组合。
与现有的PCA、LPP等降维方法相比,本发明具有以下明显的优势和有益的效果:
1、降维效果好。LargeVis可以拉大原来在高维空间中相距较远的簇之间的距离,对于图像检索、图像分类等应用来说,降维后的特征具有更强的区分能力,可以有效提升性能。
2、处理速度快。有效解决了现有发明的降维处理速度慢的问题,能够在极短时间内实现对高维数据的降维,满足相关应用对数据降维处理效率的需求;
3、扩大了应用范围。利用本发明的扩展Largevis降维方法可实现对单一高维数据的处理,不仅可以用于高维数据的可视化,还适用于图像检索、图像分类等各种应用。
附图说明
图1基于深度神经网络的扩展LargeVis降维方法整体框图
图2训练数据集构建示意图
图3 DNN网络结构图
图4高清遥感图像检索框图
具体实施方式
以下结合附图,详细介绍本发明的具体实施方式。
本发明提出的基于深度神经网络的扩展LargeVis降维方法整体框图如图1所示。具体包括以下步骤:
步骤1:建立训练数据集
训练数据集构建过程如图2所示。采用Largevis对原始维度为N的高维数据DN进行降维,输出为维度M的低维数据DM(N>M)。DN和DM构成训练数据集,用于训练DNN拟合网络。
步骤1.1:利用LargeVis降维方法对原始高维数据进行降维。
LargeVis降维方法首先利用随机投影树对高维空间进行划分,在此基础上寻找每个点的k近邻,得到一个初始的KNN图;然后利用邻居搜索算法寻找目标点潜在的邻近点,利用欧氏距离计算方式得到邻近点与目标点、邻近点的邻近点与目标点的距离,取距离最小的k个点作为目标点的k近邻,得到最终的KNN图。
在KNN图中,目标点与其邻近点构成正样本,与非邻近点构成负样本。对于高维空间中的两个数据点xi和xj,xi以条件概率pj|i选择xj作为它的邻近点。对于以xi为中心点的高斯分布,若xj越靠近xi,则pj|i越大,条件概率pj|i和正样本权重ωij的定义式分别为:
其中,σi表示以xi为中心点的高斯分布的方差,N表示总的数据量。
在低维空间中,LargeVis降维方法依靠观测的概率来决定坐标位置。在无权值网络的情况下,对于低维空间中的两个数据点yi和yj,二者在KNN图中有一条权值为1的二元边eij=1的概率定义为:
P(eij=1)=f(||yi-yj||) (8)
其中,f(.)函数为距离计算函数,为若yi和yj之间的距离越小,则两点在KNN图中有二元边的概率越大。因此,在高维空间中若两点距离越近,则在低维空间中,两点也更接近。
LargeVis降维方法在此基础上定义有权值网络中边权值为wij的概率P(eij=ωij)为:
设通过KNN图获得的目标点i与其邻近点j构成的正样本集合为E,与非邻近点构成的负样本集合为将正样本的点对在KNN图中有连接边的概率最大化,将负样本的点对在KNN图中有连接边的概率最小化,则优化目标函数可以定义为:
其中,γ表示统一为负样本边设定的权值。为降低计算复杂度,LargeVis降维方法利用负采样算法进行优化。负采样算法根据点j的度来决定被采样到的概率,即度越大的点被当作另一个点的负样本的概率越大,概率满足噪声分布:
优化的目标函数则重新定义为:
其中,E为KNN图中目标点i与其邻近点j构成的正样本集合,wij为正样本E中两个点i和j所构成边的权重,P(eij=1)表示正样本E中两个点i和j映射到低维空间中的两个数据点yi和yj在KNN图中有一条权值为1的二元边eij=1的概率,L为在KNN图中根据噪声分布Pn(j)随机选取的与点i构成负样本的点jk的个数,表示在KNN图中点i与根据噪声分布Pn(j)随机选取的L个点jk构成的负样本集合,/>表示低维空间中的两个数据点yi和yjk在KNN图中有一条权值为1的二元边/>的概率。
步骤1.2:利用LINE算法中的边采样技术将正样本E中两点权值为wij的边转换为wij个重叠的二元边,对这些二元边进行遵循带权采样策略的随机采样。
步骤1.3:利用异步随机梯度下降法进行训练,得到利用原始的LargeVis降维方法进行降维处理后的低维数据。
步骤1.4:将原始高维数据和相应的低维数据相对应,构成训练数据集,用于后续DNN训练。
步骤2:DNN网络结构设计
本发明设计的通用DNN网络结构如图3所示。通过调整全连接层的层数T和工作神经元百分比α等参数,可设计出不同的DNN模型。
为了使本发明提出的方法能够满足不同维度的降维需求,需根据目标维度值设计DNN网络结构,以满足将高维数据降至不同维度的目的。
步骤3:高维数据到低维数据映射模型的构建
步骤3.1:利用步骤1得到的数据集训练DNN,得到映射网络模型。即,将高维-低维数据分别作为DNN的输入和输出,通过训练,确定网络最优参数,获得高维数据到低维数据的映射模型。网络训练时,采用均方误差(mean-square error,MSE)作为损失函数,具体计算公式为:
其中,MSE是低维数据真实值与预测值的差值的平方,然后求和、取平均。yi表示低维数据的真实值,即数据集中的标签值,表示利用本发明提出的扩展Largevis方法降维后得到的低维数据的预测值,m表示所进行降维处理的数据总个数。
降维时,根据目标维度值,选择最优的DNN拟合模型,将单一高维数据作为输入,输出即为降维后的低维数据。
本发明提出的扩展Largevis方法可对数字图像的单一高维度特征进行高效降维。为了验证本发明提出的扩展Largevis方法的性能,将其应用于高清遥感图像检索中,并在UCM、WHU-RS19、RSSCN7三个数据集上与现有的各种降维方法进行了对比实验。图4所示的是高清遥感图像检索方案,该方案采用ResNet50作为骨干网络,提取全连接层输出的高维特征作为深度特征,即DN为2048维。采用本发明提出的扩展Largevis对其进行降维,分别降至DM为16、32、64、128和256维的低维特征,对应网络的全连接层结构及主要参数T和α如表1所示。
表1
表1中,“×”表示网络没有对应全连接层;“全连接层结构”中,以“2048-1024-512-256”为例,其表示该网络的第一全连接层的总神经元数目为1024,第二全连接层的总神经元数目为512,第三全连接层的总神经元数目为256。
该方案采用L2距离对降维后的特征进行相似性度量。对于检索性能,采用图像平均检索精度mAP进行评价,具体计算公式为:
其中,Q为查询项的总个数,平均准确率AveP通过下式计算:
其中,n为某一检测类别待测图像的总张数,P(k)为准确率,rel(k)为一个分段函数,当第k张图像为相关图像时,其值为1,否则为0。
表2
表2所示的是在UCM、WHU-CS19和RSSCN7等三个数据集上的实验对比结果。可以看出,与未降维相比,采用本发明提出的扩展Largevis方法进行降维,在各种维度下均可以显著提升mAP值。另外,与PCA、LPP、LLE等降维方法相比,扩展Largevis方法也可以获得更高的mAP值。
表3
表3所示的是采用不同的建模方法得到的拟合精度对比结果。可以看出,与Lasso、岭回归和SVR等拟合方法相比,在各种不同的维度下,采用DNN可以获得更高的mAP值,说明采用DNN进行数据拟合的精度更高。
表4
其中,拟合速度的数据格式为:天,时:分:秒。
表4所示的是采用不同的建模方法得到的拟合速度对比结果。可以看出,与Lasso、岭回归和SVR等拟合方法相比,在各种不同的维度下,采用DNN进行拟合用时最短,说明采用DNN进行数据拟合的速度更快。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭示的技术范围内可以轻易想到的替换或变化都应涵盖在本发明的保护范围之内。
Claims (1)
1.一种基于深度神经网络的扩展LargeVis图像特征降维方法,其特征在于包括以下步骤:
步骤1:训练数据集的构建
采用深度神经网络来拟合Largevis高维数据到低维数据的映射函数f;首先采用Largevis算法对待处理的大规模高维数据进行降维,得到相应的低维数据;将高维数据与低维数据相对应,构建出训练数据集;
步骤2:深度神经网络的设计
步骤2.1深度神经网络整体架构;采用的深度神经网络是由多个全连接层组成;全连接层的前向计算过程为一个线性的加权求和过程,全连接层的每一个输出ym都可看成前一层的每一个结点xn乘以一个权重系数Wmn,最后加上一个偏置值bm得到,具体计算公式如下:
y1=W11*x1+W12*x2+…+W1n-1*xn-1+W1n*xn+b1 (1)
y2=W21*x1+W22*x2+…+W2n-1*xn-1+W2n*xn+b2 (2)
……
ym-1=Wm-11*x1+Wm-12*x2+…+Wm-1n-1*xn-1+Wm-1n*xn+bm-1 (3)
ym=Wm1*x1+Wm2*x2+…+Wmn-1*xn-1+Wmn*xn+bm (4)
上述公式可写成如下矩阵形式:
在网络训练过程中,需要利用设置的损失函数对权重系数Wmn和偏置值bm进行迭代更新,同时也要向前传递梯度,即全连接层的反向传播;更新时需要计算三个偏导数,包括上一层输出的导数,权重系数Wmn的导数和偏置系数bm的导数;第一层全连接层输入的是待降维处理的高维数据,此后每一层全连接层都对高维数据进行一次降维拟合,输出拟合降维后的低维数据;
步骤2.2:深度神经网络的全连接层数目T的确定
设置的DNN全连接层数T通常可在2至6之间选取,通过多层全连接层结构将高维数据逐步降至低维数据;
步骤2.3:DNN全连接层的各层工作神经元百分比α的设定
各全连接层工作神经元百分比α的值在0至1之间选取;
步骤3:高维数据到低维数据映射模型的构建
利用训练数据集对DNN网络进行训练;DNN输入为高维数据,输出为对应的低维数据,通过训练,得到二者之间的映射模型;降维时,将高维数据作为DNN的输入,其输出即为降维后的低维数据;
所处理图像数据的高维维度和低维维度是相对的,大于或等于512维的数据为高维数据,小于512维的数据为低维数据;
设置训练的最大迭代轮数为500轮;对于全连接层数目T,通过在[2,6]的范围内以步长为1进行取值设定;每层全连接层的神经元总数取2的整数次幂,且要求从与高维维度数相同的神经元总数逐层递减至与所设定的低维维度数相同的神经元总数;对于各全连接层工作神经元百分比α,通过在(0,1]的范围内以步长为0.1进行取值设定;每训练一轮进行一次测试,利用测试结果与数据标签进行欧氏距离运算,最终根据欧氏距离运算所得最小值结果,来认定对应的网络参数为最优的参数组合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110148551.2A CN112801192B (zh) | 2021-01-26 | 2021-01-26 | 一种基于深度神经网络的扩展LargeVis图像特征降维方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110148551.2A CN112801192B (zh) | 2021-01-26 | 2021-01-26 | 一种基于深度神经网络的扩展LargeVis图像特征降维方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112801192A CN112801192A (zh) | 2021-05-14 |
CN112801192B true CN112801192B (zh) | 2024-03-19 |
Family
ID=75813939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110148551.2A Active CN112801192B (zh) | 2021-01-26 | 2021-01-26 | 一种基于深度神经网络的扩展LargeVis图像特征降维方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112801192B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909924A (zh) * | 2017-02-18 | 2017-06-30 | 北京工业大学 | 一种基于深度显著性的遥感影像快速检索方法 |
CN108388904A (zh) * | 2018-03-13 | 2018-08-10 | 中国海洋大学 | 一种基于卷积神经网络和协方差张量矩阵的降维方法 |
CN109558899A (zh) * | 2018-11-13 | 2019-04-02 | 中国石油天然气股份有限公司 | 数据降维方法及装置 |
CN110555446A (zh) * | 2019-08-19 | 2019-12-10 | 北京工业大学 | 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法 |
CN112241478A (zh) * | 2020-11-12 | 2021-01-19 | 广东工业大学 | 一种基于图神经网络的大规模数据可视化降维方法 |
-
2021
- 2021-01-26 CN CN202110148551.2A patent/CN112801192B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909924A (zh) * | 2017-02-18 | 2017-06-30 | 北京工业大学 | 一种基于深度显著性的遥感影像快速检索方法 |
CN108388904A (zh) * | 2018-03-13 | 2018-08-10 | 中国海洋大学 | 一种基于卷积神经网络和协方差张量矩阵的降维方法 |
CN109558899A (zh) * | 2018-11-13 | 2019-04-02 | 中国石油天然气股份有限公司 | 数据降维方法及装置 |
CN110555446A (zh) * | 2019-08-19 | 2019-12-10 | 北京工业大学 | 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法 |
CN112241478A (zh) * | 2020-11-12 | 2021-01-19 | 广东工业大学 | 一种基于图神经网络的大规模数据可视化降维方法 |
Non-Patent Citations (3)
Title |
---|
Low Dimensional Discriminative Representation of Fully Connected Layer Features Using Extended LargeVis Method for High-Resolution Remote Sensing Image Retrieva;Zheng Zhuo等;《Sensors》;20200821;全文 * |
基于Autoencoder网络的数据降维和重构;胡昭华;宋耀良;;电子与信息学报;20090515(第05期);全文 * |
知识图谱在商业银行风险管理中的应用;黄炜;周骏;冯云青;李丽;金杨一叶;王天蓝;;信息技术与标准化;20200510(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112801192A (zh) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2020104006A4 (en) | Radar target recognition method based on feature pyramid lightweight convolutional neural network | |
CN111612066B (zh) | 基于深度融合的卷积神经网络的遥感图像分类方法 | |
CN111242208B (zh) | 一种点云分类方法、分割方法及相关设备 | |
CN108805200B (zh) | 基于深度孪生残差网络的光学遥感场景分类方法及装置 | |
CN111695467B (zh) | 基于超像素样本扩充的空谱全卷积高光谱图像分类方法 | |
CN109800692B (zh) | 一种基于预训练卷积神经网络的视觉slam回环检测方法 | |
CN112818969B (zh) | 一种基于知识蒸馏的人脸姿态估计方法及系统 | |
Yang et al. | ANFIS construction with sparse data via group rule interpolation | |
CN111008224B (zh) | 一种基于深度多任务表示学习的时间序列分类和检索方法 | |
CN112330158B (zh) | 基于自回归差分移动平均-卷积神经网络的识别交通指数时间序列的方法 | |
CN112488128A (zh) | 一种基于贝塞尔曲线的任意畸变图像线段检测方法 | |
CN114973678B (zh) | 一种基于图注意力神经网络和时空大数据的交通预测方法 | |
Wang et al. | Lightweight deep neural networks for ship target detection in SAR imagery | |
CN116152678A (zh) | 小样本条件下基于孪生神经网络的海洋承灾体识别方法 | |
CN111325259A (zh) | 一种基于深度学习和二进制编码的遥感图像分类方法 | |
CN111242028A (zh) | 基于U-Net的遥感图像地物分割方法 | |
CN114399642A (zh) | 一种卷积神经网络荧光光谱特征提取方法 | |
CN114488069A (zh) | 基于图神经网络的雷达高分辨率距离像识别方法 | |
CN117611838A (zh) | 一种基于自适应超图卷积网络的多标签图像分类方法 | |
CN110837787B (zh) | 一种三方生成对抗网络的多光谱遥感图像检测方法及系统 | |
CN112801192B (zh) | 一种基于深度神经网络的扩展LargeVis图像特征降维方法 | |
CN117291250A (zh) | 一种用于图像分割的神经网络剪枝方法 | |
CN117131991A (zh) | 基于混合神经网络的城市降雨量预测方法及平台 | |
CN116580279A (zh) | 基于混合自注意力机制的番茄病害检测方法及系统 | |
CN115375941A (zh) | 基于gat和3d-cnn的多特征融合高光谱图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |