CN109657704B - 一种基于稀疏融合的核化场景特征提取方法 - Google Patents
一种基于稀疏融合的核化场景特征提取方法 Download PDFInfo
- Publication number
- CN109657704B CN109657704B CN201811424167.5A CN201811424167A CN109657704B CN 109657704 B CN109657704 B CN 109657704B CN 201811424167 A CN201811424167 A CN 201811424167A CN 109657704 B CN109657704 B CN 109657704B
- Authority
- CN
- China
- Prior art keywords
- image
- sparse
- features
- feature
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于稀疏融合的核化场景特征提取方法,包括对输入的场景图像进行预处理操作,分别提取处理图像的稠密SIFT特征和LBP特征;利用离线场景图像集,逐层计算出提取层级式稀疏融合特征所需的字典矩阵,结合字典矩阵对处理图像进行层级式稀疏编码与融合,形成图像的局部稀疏融合特征表达;对图像的局部稀疏融合特征表达进行SPM池化,形成图像的全局稀疏融合特征表达;对图像的全局稀疏融合特征表达进行归一化;对归一化的全局稀疏融合特征表达进行近似核变换,形成图像的全局核化场景特征表达。本发明优点:可实现对稠密SIFT和LBP两种不同类型的特征进行有效融合,且能提高特征的的辨别能力,进而可提高后期分类任务的精度。
Description
技术领域
本发明涉及一种场景特征提取方法,特别涉及一种基于稀疏融合的核化场景特征提取方法。
背景技术
场景特征提取是指利用计算机视觉等相关技术从场景图像中抽取有用的信息,并利用这些信息来完成后期的场景识别等高级任务。换句话说,场景特征提取是后期场景识别等任务成功的关键。场景特征提取一直以来都是热点研究方向,近几年来,场景特征提取研究已经取得了较大的进展,也因此涌现出很多场景特征提取的方法。场景特征提取技术主要可以分为传统手工设计的场景特征提取技术和基于深度学习的场景特征提取技术;基于手工设计的场景特征提取技术又可以分为基于底层特征的场景特征提取技术和基于中层特征的场景特征提取技术。
(1)基于底层特征的场景特征提取技术
在2005年之前,基于底层特征的场景特征提取技术已有广泛的应用,基于底层特征的场景特征提取技术又可分为基于局部的场景特征提取技术和基于全局的场景特征提取技术。
基于局部的场景特征包含颜色和灰度(例如,RGB模型、HSV模型等)、边缘(例如,sobel算子、canny算子等)、关键点(例如,SIFT关键点、Harris角点等)和运动特征(例如,光流等)。由于颜色和灰度特征极易受光照的影响,为了提高针对光照变化的鲁棒性能,梯度信息(一阶或者二阶微分的组合)被近一步用于提取边缘特征。为了提高边缘特征的抗噪声能力,通过加入高斯低通滤波构成LoG和DoG算子。
基于全局的场景特征包含形状(例如,HOG和形状上下文)和纹理(例如,LBP和Haar-like)。为了能够表达场景的整体信息,直方图技术被广泛的用于基于局部特征构建目标的全局特征。
(2)基于中层特征的场景特征提取技术
基于中层特征的场景特征提取技术主要依赖的是视觉词袋技术,比如:DenseSIFT、SparseSIFT、HOG词袋、texton词袋等。视觉词袋技术将所有局部特征表达(例如关键点)进行聚类、以聚类中心为编码本对局部特征表达进行再编码。该技术的优势在于每个局部特征的词袋编码表达了它在局部特征空间中的大致分布位置。所以,词袋编码对各种观测条件的变化具有一定的鲁棒性能。但是,词袋编码技术的缺点在于丧失了空间位置信息。不过,根据每个局部特征的空间位置,利用直方图统计每一维编码在空间区域的分布情况,从而可以在词袋编码中融入空间位置信息,例如DenseSIFT和SparseSIFT。
(3)基于深度学习的场景特征提取技术
随着计算机技术的发展,深度学习技术在计算机视觉领域取得了巨大成功。因此,很多学者将深度学习用于场景特征提取,目前,基于深度学习的场景特征提取主要包括监督式和非监督式两种,监督式场景特征提取方式直接将场景特征提取与后期任务结合,整个框架可同时完成特征的提取和后期任务,该类框架首先构建多层非线性网络,然后通过最小化网络输出与真实标签损失值,反向传播调整网络参数,自动学习高级特征。其中,卷积神经网络是最成功的模型,比较典型的卷积神经网络模型有Alexnet,GoogleNet,VGGNet等,但是这类监督式方法需要大量标签数据。
非监督式场景特征学习方法可以无监督地自动提取图像的高层次语义特征,其中最典型的是深度自编码器模型,该类模型的网络输入和输出有相同维度,特征输入到网络,通过正向非线性网络到达中间层,然后由中间层反向通过重构网络,得到输出。为了学习到较鲁棒的特征,学者往往引入随机噪声,即用被破坏的输入数据重构出原始数据,从而使得训练出来的特征会更鲁棒,具有更好的泛化能力,这类非监督式场景特征提取方法虽然具有较好的重构能力,但却缺乏辨别能力。
基于以上分析,现有的特征提取技术主要存在如下缺陷:1、现有的特征融合技术大部分是直接将底层的特征进行融合,或者先经过底层融合后再进行进一步映射,而这种方法由于本身底层特征存在噪声干扰,所以融合特征很容易被噪声污染到;同时,现有的特征融合技术对不同类型的特征融合效果差,鲁棒性比较低;2、为了提高特征的辨别能力,以往都是采用高斯核等核函数进行核变换,使得特征在高维核空间线性可分,进而提高后期分类任务的精度,但是,采用高斯核等核函数进行核变换不仅复杂度极高,而且对辨别能力的提高也比较有限,这导致后期分类任务的精度仍然偏低。
发明内容
本发明要解决的技术问题,在于提供一种基于稀疏融合的核化场景特征提取方法,通过本发明方法可实现对稠密SIFT和LBP两种不同类型的特征进行有效融合,且能够提高特征的的辨别能力,进而可提高后期分类任务的精度。
本发明是这样实现的:一种基于稀疏融合的核化场景特征提取方法,所述方法包括如下步骤:
步骤S1、对输入的场景图像进行预处理操作,并分别提取预处理后的处理图像的稠密SIFT特征和LBP特征;
步骤S2、利用离线场景图像集,逐层计算出提取层级式稀疏融合特征所需的字典矩阵,并结合字典矩阵对处理图像进行层级式稀疏编码与融合,形成图像的局部稀疏融合特征表达;
步骤S3、对图像的局部稀疏融合特征表达进行SPM池化,形成图像的全局稀疏融合特征表达;
步骤S4、对图像的全局稀疏融合特征表达进行归一化处理;
步骤S5、对归一化后的全局稀疏融合特征表达进行近似核变换,形成图像的全局核化场景特征表达。
进一步地,在所述步骤S1中,所述预处理操作包括图像对比度归一化处理、Gamma校正处理以及图像均衡化处理。
进一步地,所述步骤S2具体包括:
步骤S21、利用离线场景图像集,计算出提取第一层级稀疏融合特征所需的第一层级字典矩阵,并结合第一层级字典矩阵对处理图像进行第一层级的稀疏编码与融合,形成图像的第一层级稀疏融合特征表达;
步骤S22、收集离线场景图像集的第一层级稀疏融合特征,计算出提取第二层级稀疏融合特征所需的第二层级字典矩阵,并结合第二层级字典矩阵对经过第一层级处理的图像进行第二层级的稀疏编码与融合,形成图像的第二层级稀疏融合特征表达。
进一步地,所述步骤S21具体包括:
步骤S211、分别提取并收集离线场景图像集的稠密SIFT特征和LBP特征,分别形成稠密SIFT特征集和LBP特征集;
步骤S212、分别使用K-means聚类算法对稠密SIFT特征集和LBP特征集进行聚类,其中,类的个数均设置为K1,K1为正整数;同时,将对稠密SIFT特征集的聚类结果当作基于稠密SIFT特征字典矩阵的初始值,将对LBP特征集的聚类结果当作基于LBP特征字典矩阵的初始值;
步骤S213、采用K-SVD算法,分别代入基于稠密SIFT特征字典矩阵的初始值和基于LBP特征字典矩阵的初始值,计算得到基于稠密SIFT特征字典矩阵和基于LBP特征字典矩阵;
步骤S214、将从处理图像提取的稠密SIFT特征与基于稠密SIFT特征字典矩阵结合,将从处理图像提取的LBP特征与基于LBP特征字典矩阵结合,并采用OMP稀疏编码算法,分别计算基于稠密SIFT特征的稀疏表达和基于LBP特征的稀疏表达,且基于稠密SIFT特征的稀疏表达与基于LBP特征的稀疏表达均为K1维向量;
步骤S215、将基于稠密SIFT特征的稀疏表达和基于LBP特征的稀疏表达进行最大化操作,形成图像的第一层级稀疏融合特征表达。
进一步地,所述步骤S22具体包括:
步骤S221、收集离线场景图像集的第一层级稀疏融合特征;
步骤S222、在经过第一层级处理的图像中,将每2×2区域中的4个第一层级稀疏融合特征进行串联操作,形成图像的4K1维串联特征向量;
步骤S223、使用K-means聚类算法对4K1维串联特征进行聚类,类的个数设置为K2,K2为正整数;同时,将对4K1维串联特征的聚类结果当作串联特征字典矩阵的初始值;
步骤S224、采用K-SVD算法,代入串联特征字典矩阵的初始值计算得到串联特征字典矩阵;
步骤S225、将图像的4K1维串联特征向量与串联特征字典矩阵结合,并采用OMP稀疏编码算法,计算出图像的第二层级稀疏融合特征表达,该图像的第二层级稀疏融合特征表达即为图像的局部稀疏融合特征表达。
进一步地,所述步骤S5具体包括:
步骤S51、对归一化后的全局稀疏融合特征表达设置量化级数;
步骤S52、对归一化后的全局稀疏融合特征表达进行量化操作;
步骤S53、对归一化后的全局稀疏融合特征表达进行二值化操作;
步骤S54、将二值化后所有的0-1向量组合起来形成图像的全局核化场景特征表达。
本发明具有如下优点:
1、通过采用双层级的稀疏融合策略,并在稀疏层进行融合,不仅可以更好地提取特征本质属性,并实现对稠密SIFT和LBP两种不同类型的特征进行有效融合,而且可以有效去除干扰;
2、通过组合小区域内的特征进行二次稀疏编码映射,可融合更多的上下文信息,并提高特征信息量,进而提高表征能力;
3、通过采用近似核变换操作,可以高效率地将特征进行核映射,从而提高特征的的辨别能力,进而提高后期分类任务的精度。
附图说明
下面参照附图结合实施例对本发明作进一步的说明。
图1为本发明一种基于稀疏融合的核化场景特征提取方法的总体流程框图。
图2为本发明中进行第一层级稀疏融合的流程示意图。
图3为本发明中进行第二层级稀疏融合的流程示意图。
图4为本发明中近似核变换的示意图。
具体实施方式
下面先对本发明具体实施方式中涉及到的一些名词作解释说明:
SIFT:即尺度不变特征变换(Scale-invariant feature transform,简称SIFT),是用于图像处理领域的一种描述。这种描述具有尺度不变性,可在图像中检测出关键点,是一种局部特征描述子。
LBP:即线性反投影算法(Linear Back Projection,简称LBP),又称累加法,是最早使用的一种简单(ECT图像重建)成像算法。它将通过某点的所有投影射线进行累加,再反向估算出该点的密度值。从成像观点分析,它是不完全的雷登逆变换(完整的雷登逆变换包括微分、希尔伯特变换、反投影和归一化等步骤)。
SPM:简称Spatial Pyramid Matching,它是一种利用空间金字塔进行图像匹配、识别、分类的算法。SPM是BOF(Bag Of Features)的改进,因为BOF是在整张图像中计算特征点的分布特征,进而生成全局直方图,所以会丢失图像的局部/细节信息,无法对图像进行精确地识别。为了克服BOF的固有缺点,作者提出了SPM算法,它是在不同分辨率上统计图像特征点分布,从而获取图像的局部信息。
K-SVD:K-SVD算法是2006年由以色列理工学院的Michal Aharon、Michael Elad等人提出来的,它是一种经典的字典训练算法,依据误差最小原则,对误差项进行SVD分解,选择使误差最小的分解项作为更新的字典原子和对应的原子系数,经过不断的迭代从而得到优化的解。
稀疏编码(Sparse Coding):是一种模拟哺乳动物视觉系统主视皮层V1区简单细胞感受野人工神经网络方法。该方法具有空间的局部性、方向性和频域的带通性,是一种自适应的图像统计方法。
归一化:归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量。在多种计算中都经常用到这种方法。
OMP:正交匹配追踪(Orthogonal Matching Pursuit),OMP算法的改进之处在于:在分解的每一步对所选择的全部原子进行正交化处理,这使得在精度要求相同的情况下,OMP算法的收敛速度更快。
K-means聚类算法:它属于硬聚类算法,是典型的基于原型的目标函数聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数,利用函数求极值的方法得到迭代运算的调整规则。K-means聚类算法以欧式距离作为相似度测度,它是求对应某一初始聚类中心向量V最优分类,使得评价指标J最小;算法采用误差平方和准则函数作为聚类准则函数。
请参阅图1至图4所示,本发明一种基于稀疏融合的核化场景特征提取方法的较佳实施例,所述方法包括如下步骤:
步骤S1、对输入的场景图像进行预处理操作,并分别提取预处理后的处理图像的稠密SIFT特征和LBP特征;
在所述步骤S1中,所述预处理操作包括图像对比度归一化处理、Gamma校正处理以及图像均衡化处理。
在深度学习中,对比度通常指的是图像或图像区域中像素的标准差,图像对比度归一化处理包括全局对比度归一化处理和局部对比度归一化处理,是深度学习中常用的一种数据预处理方法,用以减少数据中的变化量,从而减少泛化误差和拟合训练集所需模型的大小。
Gamma校正是对输入图像灰度值进行的非线性操作,使输出图像灰度值与输入图像灰度值呈指数关系,Gamma校正可以使图像的整体亮度值得到提升,同时使低灰度处的对比度得到增加,可更利于分辩低灰度值时的图像细节。
直方图均衡化处理(即图像均衡化处理)的“中心思想”是把原始图像的灰度直方图从比较集中的某个灰度区间变成在全部灰度范围内的均匀分布;直方图均衡化就是对图像进行非线性拉伸,重新分配图像像素值,使一定灰度范围内的像素数量大致相同;直方图均衡化就是把给定图像的直方图分布改变成“均匀”分布直方图分布。
步骤S2、利用离线场景图像集,逐层计算出提取层级式稀疏融合特征所需的字典矩阵,并结合字典矩阵对处理图像进行层级式稀疏编码与融合,形成图像的局部稀疏融合特征表达;
所述步骤S2具体包括:
步骤S21、利用离线场景图像集,计算出提取第一层级稀疏融合特征所需的第一层级字典矩阵,并结合第一层级字典矩阵对处理图像进行第一层级的稀疏编码与融合,形成图像的第一层级稀疏融合特征表达;
步骤S22、收集离线场景图像集的第一层级稀疏融合特征,计算出提取第二层级稀疏融合特征所需的第二层级字典矩阵,并结合第二层级字典矩阵对经过第一层级处理的图像进行第二层级的稀疏编码与融合,形成图像的第二层级稀疏融合特征表达。
请重点参照图2所示,所述步骤S21具体包括:
步骤S211、分别提取并收集离线场景图像集的稠密SIFT特征和LBP特征(即先提取离线场景图像集的稠密SIFT特征和LBP特征,并分别收集稠密SIFT特征和LBP特征),分别形成稠密SIFT特征集和LBP特征集;
步骤S212、分别使用K-means聚类算法对稠密SIFT特征集和LBP特征集进行聚类,其中,类的个数(即字典个数)均设置为K1,K1为正整数;同时,将对稠密SIFT特征集的聚类结果当作基于稠密SIFT特征字典矩阵的初始值,将对LBP特征集的聚类结果当作基于LBP特征字典矩阵的初始值;
步骤S213、采用K-SVD算法,分别代入基于稠密SIFT特征字典矩阵的初始值和基于LBP特征字典矩阵的初始值,计算得到基于稠密SIFT特征字典矩阵和基于LBP特征字典矩阵;
步骤S214、将从处理图像提取的稠密SIFT特征与基于稠密SIFT特征字典矩阵结合,将从处理图像提取的LBP特征与基于LBP特征字典矩阵结合,并采用OMP稀疏编码算法,分别计算基于稠密SIFT特征的稀疏表达和基于LBP特征的稀疏表达,且基于稠密SIFT特征的稀疏表达与基于LBP特征的稀疏表达均为K1维向量;
步骤S215、将基于稠密SIFT特征的稀疏表达和基于LBP特征的稀疏表达进行最大化操作,形成图像的第一层级稀疏融合特征表达,该第一层级稀疏融合特征表达也是一个K1维向量。
请重点参照图3所示,所述步骤S22具体包括:
步骤S221、收集离线场景图像集的第一层级稀疏融合特征;
步骤S222、为了融合更多上下文信息,在经过第一层级处理的图像中,将每2×2区域中的4个第一层级稀疏融合特征进行串联操作,形成图像的4K1维串联特征向量;
步骤S223、使用K-means聚类算法对4K1维串联特征进行聚类,类的个数(即字典个数)设置为K2,K2为正整数;同时,将对4K1维串联特征的聚类结果当作串联特征字典矩阵的初始值;
步骤S224、采用K-SVD算法,代入串联特征字典矩阵的初始值计算得到串联特征字典矩阵;
步骤S225、将图像的4K1维串联特征向量与串联特征字典矩阵结合,并采用OMP稀疏编码算法,计算出图像的第二层级稀疏融合特征表达(该第二层级稀疏融合特征表达是一个K2维向量),该图像的第二层级稀疏融合特征表达即为图像的局部稀疏融合特征表达。
也就是说,在本发明中,形成图像的局部稀疏融合特征表达需要逐层完成两个层级的稀疏编码与融合,其中,第一层级的稀疏编码与融合是将稠密SIFT特征和LBP特征先分别进行稀疏编码,然后在稀疏层中进行融合形成第一层级稀疏融合特征;第二层级的稀疏编码与融合是先将2×2区域内所有形成的第一层级稀疏融合特征组合起来,然后进行稀疏编码,并在稀疏层进行融合形成第二层级稀疏融合特征,即最终的图像的局部稀疏融合特征表达。
通过采用双层级的稀疏融合策略,并在稀疏层进行融合,不仅可以更好地提取特征本质属性,并实现对稠密SIFT和LBP两种不同类型的特征进行有效融合,而且可以有效去除干扰;同时,本发明通过组合小区域内的特征进行二次稀疏编码映射,可融合更多的上下文信息,并提高特征信息量,进而提高表征能力。
步骤S3、对图像的局部稀疏融合特征表达进行SPM池化,即通过在不同分辨率上统计图像特征点分布,从而获取图像的局部信息,形成图像的全局稀疏融合特征表达;
步骤S4、对图像的全局稀疏融合特征表达进行归一化处理,即将有量纲的图像的全局稀疏融合特征表达,经过变换,化为无量纲的表达式,成为标量;
步骤S5、对归一化后的全局稀疏融合特征表达进行近似核变换,形成图像的全局核化场景特征表达。
所述步骤S5具体包括:
步骤S51、对归一化后的全局稀疏融合特征表达设置量化级数;
步骤S52、对归一化后的全局稀疏融合特征表达进行量化操作;
步骤S53、对归一化后的全局稀疏融合特征表达进行二值化操作;
步骤S54、将二值化后所有的0-1向量组合起来形成图像的全局核化场景特征表达。
本发明结合核映射思想,通过采用近似核变换操作,可以高效率地将特征进行核映射,从而提高特征的的辨别能力,进而提高后期分类任务的精度。
如图4所示,下面以抽取三维特征为例来用于解释说明,其具体进行近似核变换的步骤如下:
(1)设置量化级数M=5,所以每个bin=1/5=0.2;
(2)进行量化操作R(·),如3=R(0.6),具体步骤为3=round(0.6/0.2);
(3)进行二值化操作U(·),如[1,1,1,0,0]=U(3),即每维特征最后形成的0-1向量,从左到右,量化后的数值是几,就有几位为1,其他全为0;
(4)将所有的0-1向量组合起来形成最后的核特征。
综上所述,本发明具有如下优点:
1、通过采用双层级的稀疏融合策略,并在稀疏层进行融合,不仅可以更好地提取特征本质属性,并实现对稠密SIFT和LBP两种不同类型的特征进行有效融合,而且可以有效去除干扰;
2、通过组合小区域内的特征进行二次稀疏编码映射,可融合更多的上下文信息,并提高特征信息量,进而提高表征能力;
3、通过采用近似核变换操作,可以高效率地将特征进行核映射,从而提高特征的的辨别能力,进而提高后期分类任务的精度。
虽然以上描述了本发明的具体实施方式,但是熟悉本技术领域的技术人员应当理解,我们所描述的具体的实施例只是说明性的,而不是用于对本发明的范围的限定,熟悉本领域的技术人员在依照本发明的精神所作的等效的修饰以及变化,都应当涵盖在本发明的权利要求所保护的范围内。
Claims (3)
1.一种基于稀疏融合的核化场景特征提取方法,其特征在于:所述方法包括如下步骤:
步骤S1、对输入的场景图像进行预处理操作,并分别提取预处理后的处理图像的稠密SIFT特征和LBP特征;
步骤S2、利用离线场景图像集,逐层计算出提取层级式稀疏融合特征所需的字典矩阵,并结合字典矩阵对处理图像进行层级式稀疏编码与融合,形成图像的局部稀疏融合特征表达;
步骤S3、对图像的局部稀疏融合特征表达进行SPM池化,形成图像的全局稀疏融合特征表达;
步骤S4、对图像的全局稀疏融合特征表达进行归一化处理;
步骤S5、对归一化后的全局稀疏融合特征表达进行近似核变换,形成图像的全局核化场景特征表达;
所述步骤S2具体包括:
步骤S21、利用离线场景图像集,计算出提取第一层级稀疏融合特征所需的第一层级字典矩阵,并结合第一层级字典矩阵对处理图像进行第一层级的稀疏编码与融合,形成图像的第一层级稀疏融合特征表达;
步骤S22、收集离线场景图像集的第一层级稀疏融合特征,计算出提取第二层级稀疏融合特征所需的第二层级字典矩阵,并结合第二层级字典矩阵对经过第一层级处理的图像进行第二层级的稀疏编码与融合,形成图像的第二层级稀疏融合特征表达;
所述步骤S21具体包括:
步骤S211、分别提取并收集离线场景图像集的稠密SIFT特征和LBP特征,分别形成稠密SIFT特征集和LBP特征集;
步骤S212、分别使用K-means聚类算法对稠密SIFT特征集和LBP特征集进行聚类,其中,类的个数均设置为K1,K1为正整数;同时,将对稠密SIFT特征集的聚类结果当作基于稠密SIFT特征字典矩阵的初始值,将对LBP特征集的聚类结果当作基于LBP特征字典矩阵的初始值;
步骤S213、采用K-SVD算法,分别代入基于稠密SIFT特征字典矩阵的初始值和基于LBP特征字典矩阵的初始值,计算得到基于稠密SIFT特征字典矩阵和基于LBP特征字典矩阵;
步骤S214、将从处理图像提取的稠密SIFT特征与基于稠密SIFT特征字典矩阵结合,将从处理图像提取的LBP特征与基于LBP特征字典矩阵结合,并采用OMP稀疏编码算法,分别计算基于稠密SIFT特征的稀疏表达和基于LBP特征的稀疏表达,且基于稠密SIFT特征的稀疏表达与基于LBP特征的稀疏表达均为K1维向量;
步骤S215、将基于稠密SIFT特征的稀疏表达和基于LBP特征的稀疏表达进行最大化操作,形成图像的第一层级稀疏融合特征表达;
所述步骤S22具体包括:
步骤S221、收集离线场景图像集的第一层级稀疏融合特征;
步骤S222、在经过第一层级处理的图像中,将每2×2区域中的4个第一层级稀疏融合特征进行串联操作,形成图像的4K1维串联特征向量;
步骤S223、使用K-means聚类算法对4K1维串联特征进行聚类,类的个数设置为K2,K2为正整数;同时,将对4K1维串联特征的聚类结果当作串联特征字典矩阵的初始值;
步骤S224、采用K-SVD算法,代入串联特征字典矩阵的初始值计算得到串联特征字典矩阵;
步骤S225、将图像的4K1维串联特征向量与串联特征字典矩阵结合,并采用OMP稀疏编码算法,计算出图像的第二层级稀疏融合特征表达,该图像的第二层级稀疏融合特征表达即为图像的局部稀疏融合特征表达。
2.根据权利要求1所述的一种基于稀疏融合的核化场景特征提取方法,其特征在于:在所述步骤S1中,所述预处理操作包括图像对比度归一化处理、Gamma校正处理以及图像均衡化处理。
3.根据权利要求1所述的一种基于稀疏融合的核化场景特征提取方法,其特征在于:所述步骤S5具体包括:
步骤S51、对归一化后的全局稀疏融合特征表达设置量化级数;
步骤S52、对归一化后的全局稀疏融合特征表达进行量化操作;
步骤S53、对归一化后的全局稀疏融合特征表达进行二值化操作;
步骤S54、将二值化后所有的0-1向量组合起来形成图像的全局核化场景特征表达。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811424167.5A CN109657704B (zh) | 2018-11-27 | 2018-11-27 | 一种基于稀疏融合的核化场景特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811424167.5A CN109657704B (zh) | 2018-11-27 | 2018-11-27 | 一种基于稀疏融合的核化场景特征提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109657704A CN109657704A (zh) | 2019-04-19 |
CN109657704B true CN109657704B (zh) | 2022-11-29 |
Family
ID=66111437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811424167.5A Active CN109657704B (zh) | 2018-11-27 | 2018-11-27 | 一种基于稀疏融合的核化场景特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109657704B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837779A (zh) * | 2019-10-12 | 2020-02-25 | 平安科技(深圳)有限公司 | 车辆外观智能诊断方法、装置及计算机可读存储介质 |
KR102411173B1 (ko) * | 2019-11-01 | 2022-06-21 | 국방과학연구소 | 태스크 할당 방법 및 장치 |
CN112991669A (zh) * | 2021-02-04 | 2021-06-18 | 西安美格智联软件科技有限公司 | 一种危险作业预警方法、系统、存储介质及处理终端 |
CN116580063B (zh) * | 2023-07-14 | 2024-01-05 | 深圳须弥云图空间科技有限公司 | 目标追踪方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105139028A (zh) * | 2015-08-13 | 2015-12-09 | 西安电子科技大学 | 基于分层稀疏滤波卷积神经网络的sar图像分类方法 |
CN105844292A (zh) * | 2016-03-18 | 2016-08-10 | 南京邮电大学 | 一种基于条件随机场和二次字典学习的图像场景标注方法 |
CN107273919A (zh) * | 2017-05-27 | 2017-10-20 | 南京理工大学 | 一种基于置信度构造类属字典的高光谱无监督分类方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9152881B2 (en) * | 2012-09-13 | 2015-10-06 | Los Alamos National Security, Llc | Image fusion using sparse overcomplete feature dictionaries |
-
2018
- 2018-11-27 CN CN201811424167.5A patent/CN109657704B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105139028A (zh) * | 2015-08-13 | 2015-12-09 | 西安电子科技大学 | 基于分层稀疏滤波卷积神经网络的sar图像分类方法 |
CN105844292A (zh) * | 2016-03-18 | 2016-08-10 | 南京邮电大学 | 一种基于条件随机场和二次字典学习的图像场景标注方法 |
CN107273919A (zh) * | 2017-05-27 | 2017-10-20 | 南京理工大学 | 一种基于置信度构造类属字典的高光谱无监督分类方法 |
Non-Patent Citations (2)
Title |
---|
基于分层特征融合的行人分类;孙锐等;《计算机工程与科学》;20161015(第10期);全文 * |
核字典学习在软件缺陷预测中的应用;王铁建等;《小型微型计算机系统》;20170715(第07期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109657704A (zh) | 2019-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107609601B (zh) | 一种基于多层卷积神经网络的舰船目标识别方法 | |
Barz et al. | Deep learning on small datasets without pre-training using cosine loss | |
Fang et al. | A Method for Improving CNN-Based Image Recognition Using DCGAN. | |
Liu et al. | C-CNN: Contourlet convolutional neural networks | |
CN109657704B (zh) | 一种基于稀疏融合的核化场景特征提取方法 | |
CN107066559B (zh) | 一种基于深度学习的三维模型检索方法 | |
CN110414377B (zh) | 一种基于尺度注意力网络的遥感图像场景分类方法 | |
Duchenne et al. | Segmentation by transduction | |
Konishi et al. | Statistical edge detection: Learning and evaluating edge cues | |
Ali et al. | A hybrid geometric spatial image representation for scene classification | |
CN105184298B (zh) | 一种快速局部约束低秩编码的图像分类方法 | |
CN110633708A (zh) | 一种基于全局模型和局部优化的深度网络显著性检测方法 | |
CN107085731B (zh) | 一种基于rgb-d融合特征与稀疏编码的图像分类方法 | |
CN112163114B (zh) | 一种基于特征融合的图像检索方法 | |
CN108460400A (zh) | 一种结合多种特征信息的高光谱图像分类方法 | |
CN113269224A (zh) | 一种场景图像分类方法、系统及存储介质 | |
CN110738672A (zh) | 一种基于分层高阶条件随机场的图像分割方法 | |
CN110111365B (zh) | 基于深度学习的训练方法和装置以及目标跟踪方法和装置 | |
Al-Hmouz et al. | Enhanced numeral recognition for handwritten multi-language numerals using fuzzy set-based decision mechanism | |
CN113657414A (zh) | 一种物体识别方法 | |
Yuan | Remote sensing image classification methods based on CNN: Challenge and trends | |
Sowmya et al. | Significance of processing chrominance information for scene classification: a review | |
CN115995040A (zh) | 一种基于多尺度网络的sar图像小样本目标识别方法 | |
Zhu et al. | [Retracted] Basketball Object Extraction Method Based on Image Segmentation Algorithm | |
Norelyaqine et al. | Architecture of Deep Convolutional Encoder‐Decoder Networks for Building Footprint Semantic Segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |