CN105654122B - 基于核函数匹配的空间金字塔物体识别方法 - Google Patents

基于核函数匹配的空间金字塔物体识别方法 Download PDF

Info

Publication number
CN105654122B
CN105654122B CN201511002911.9A CN201511002911A CN105654122B CN 105654122 B CN105654122 B CN 105654122B CN 201511002911 A CN201511002911 A CN 201511002911A CN 105654122 B CN105654122 B CN 105654122B
Authority
CN
China
Prior art keywords
image
sample
sift
training sample
kernel function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201511002911.9A
Other languages
English (en)
Other versions
CN105654122A (zh
Inventor
孔军
张迎午
蒋敏
高坤
柳晨华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN201511002911.9A priority Critical patent/CN105654122B/zh
Publication of CN105654122A publication Critical patent/CN105654122A/zh
Application granted granted Critical
Publication of CN105654122B publication Critical patent/CN105654122B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明专利公开了一种基于核函数匹配的空间金字塔物体识别方法。包含以下步骤:提取物体图像的ED‑SIFT(Efficient Dense Scale‑invariant Feature Transform)描述子;使用k‑means++聚类算法将训练样本的ED‑SIFT描述子聚类,获得视觉词典;引入空间金字塔,使用核函数匹配获得训练样本和测试样本的视觉单词直方图;使用SVM分类器完成训练样本的训练和测试样本的识别。本专利提出的算法对物体图像的识别具有较高的辨识度,并且在训练样本较少的情况下,采用简单的SVM分类器就可以获得良好的分类效果。

Description

基于核函数匹配的空间金字塔物体识别方法
技术领域:
本发明涉及机器视觉领域,特别涉及一种基于核函数匹配的空间金字塔物体识别方法。
背景技术:
随着计算机和多媒体技术的飞速发展,数字图像和视频的规模急剧膨胀。海量的图像数据虽然方便了人们的生活,但是也给人们的生活带来了很大困扰。如何从海量的图像数据中快速准确的寻找我们自己感兴趣的物体图像,变得越来越困难。因此,如何充分准确的理解图像,如何有序、高效、合理的组织图像数据并检索到所需要的图像逐渐成为计算机视觉研究的热点之一。
近年来,以词袋模型(Bag of Words,BoW)为关键技术的物体识别算法取得的进步最为突出。近几十年来各国专家学者提出了很多方法,大大促进了该领域的进展。但是高精度的物体识别仍然是一项极具挑战的任务。原因之一就是物体的图像容易受到光线变化、视角变化、物体遮挡和背景等因素的影响。另外,同类物体间的差异进一步加剧了物体识别的难度。
本专利针对如何获得具有代表性的视觉单词和如何构建具有判别力的视觉单词直方图的问题,提出了一种基于核函数匹配的空间金字塔物体识别方法,大大提高了物体识别的准确率。
发明内容:
本发明为了克服上述现有技术中的缺陷和提高物体识别的准确率,提供了一种基于核函数匹配的空间金字塔物体识别方法。
为了实现上述目的,本发明提供如下技术方案:
步骤一、采集物体样本图像,将待识别的样本图像数据分为训练样本和测试样本;
步骤二、将训练样本和测试样本的图像转换为灰度图像,并将灰度图像的数据类型转化为双精度浮点类型。然后将图像的尺寸进行缩放处理,使其高度和宽度在[50,200]之间;
步骤三、提取训练样本和测试样本图像的ED-SIFT(Efficient Dense Scale-invariant Feature Transform)描述子;
步骤四、使用k-means++聚类算法将训练样本的ED-SIFT描述子聚类,获得视觉单词。所有的视觉单词构成了视觉词典;
步骤五、引入空间金字塔[1],将训练样本的ED-SIFT描述子、测试样本的ED-SIFT描述子和视觉词典映射到高维空间,然后使用核函数匹配来获得训练样本和测试样本的视觉单词直方图;
步骤六、将训练样本的视觉单词直方图输入到SVM分类器中进行训练;
步骤七、基于训练后的SVM分类器,将测试样本的视觉单词直方图输入SVM分类器,完成物体的识别。
与现有的技术相比,本发明具有以下有益效果:
1.通过步骤三提取样本的ED-SIFT描述子的兴趣点多、信息量丰富、均匀采样提取关键点、计算复杂度低。能够有效提高视觉单词的代表性,提高识别的准确度。
2.通过步骤五引入空间金字塔,充分利用了图像的空间信息。将训练样本、测试样本和聚类的视觉单词映射到高维空间,然后使用核函数匹配来获得训练样本和测试样本的视觉单词直方图,大大提高了匹配精度。
3.结合ED-SIFT特征的提取,k-means++聚类算法和空间金字塔核函数匹配共同构建了一个鲁棒的物体识别算法。通过实验结果表明本专利方法在物体的图像受到噪声、光照、尺度、视角和遮挡等因素的情况下,具有良好的识别效果。另外,本专利的方法可以在训练图片较少的情况下仍然保持良好的识别效果。
因此,本发明在物体识别、图像分类和图像检索等领域都具有广泛的应用前景。
附图说明:
图1本发明的方法流程图;
图2ED-SIFT描述子提取方法流程图;
图3基于高斯核函数映射的梯度方向三维网格图表示;
图4空间位置权重的伪彩图表示;
图5基于空间金字塔匹配的词袋模型表示;
图6本专利算法在Caltech-101数据集上的混淆矩阵;
图7本专利算法在Caltech-256数据集上的混淆矩阵。
具体实施方式
为了更好的说明本发明的目的、具体步骤以及特点,下面结合附图对本发明作进一步详细的说明:
参考图1,本发明提出的一种基于核函数匹配的空间金字塔物体识别方法,主要包含以下步骤:
步骤一、采集待识别物体的样本图像,将采集的样本图像数据分为训练样本和测试样本;
步骤二、将训练样本和测试样本的图像转换为灰度图像,并将灰度图像的数据类型转化为双精度浮点类型;然后对图像的尺寸进行缩放处理,使其高度和宽度在[50,200]之间;
步骤三、提取训练样本和测试样本的ED-SIFT(Efficient Dense Scale-invariant Feature Transform)描述子;
步骤四、使用k-means++聚类算法将训练样本的ED-SIFT描述子聚类,获得视觉单词;所有的视觉单词构成了视觉词典;
步骤五、引入空间金字塔[1],将训练样本的ED-SIFT描述子、测试样本的ED-SIFT描述子和视觉词典映射到高维空间,然后使用核函数匹配来获得训练样本和测试样本的视觉单词直方图;
步骤六、将训练样本的视觉单词直方图输入到SVM分类器中进行训练;
步骤七、基于训练后的SVM分类器,将测试样本的视觉单词直方图输入SVM分类器,完成物体的识别。
上述技术方案中,步骤一将物体图像样本分为训练样本和测试样本。对于图像样本,我们可以自己使用照相机拍摄物体来获得物体的图像,也可以使用计算机视觉中物体识别的经典的数据集。
上述技术方案中,步骤三中ED-SIFT描述子的提取过程如图2所示。
上述技术方案中,步骤三中ED-SIFT描述子的提取方法为:
1.将样本图像划分为均匀大小的单元格,每个单元格由4×4个像素组成;
2.对样本图像进行高斯滤波,计算每个像素的梯度。本专利中高斯滤波器的尺寸为5×5,标准差为1。然后归一化梯度向量;
3.依次从图像中选取4×4个单元格,步长为8个像素,遍历整个图像,使用高斯核函数将每个单元格中的像素的梯度方向映射到梯度方向基向量中。其中z为图像中的像素点,为梯度方向基向量。如图3所示,本专利中梯度方向基向量是在平面直角坐标系的水平和垂直方向分别将区间[-1,1]平均分成九等分,得到的100个点坐标,然后使用高斯核函数将图像梯度的方向映射到梯度方向基向量中。取α=5,并使用梯度的模加权,得到样本图像的梯度方向直方图。对于图像中每个选取的4×4大小的单元格,对其中每一个像素z的梯度模归一化的公式为:(ε为小常量,防止分母为0);
4.使用高斯核函数来增大靠近关键点的像素点的空间位置权重,减小远离关键点的像素点的空间位置权重。其中α为调节因子,本专利中取α=5。在4×4大小的单元格中,pz为关键点z的空间位置,qz′为像素点z′的空间位置。如图4所示,关键点pz的空间位置的选择为在直角坐标系中的水平和垂直方向分别将区间[0,1]平均分成四等分后得到的25个点坐标。像素点qz′的空间位置的选择为在直角坐标系中将水平和垂直方向上分别将区间平均分成十五等分后得到的256个点坐标。通过高斯核函数gs(pz,qz′)计算每个关键点与所有像素点的欧式距离作为空间位置的权重;
5.每隔8个像素遍历整幅图像,计算所有4×4单元格的ED-SIFT向量,最后得到图像的ED-SIFT特征;
6.使用KPCA(kernel principal component analysis)算法[2]对步骤5中的ED-SIFT特征降维。在一个4×4单元格图像块p中,基于高斯核匹配的梯度方向直方图的第k个分量为:
其中m为梯度方向基向量的长度,n为空间位置向量的长度。λk是高斯核矩阵的第k个特征值和特征向量,高斯核矩阵为[G]ijmn=gθ(pi,pj)gs(zm,zn)-2∑i′m′gθ(pi′,pj)gs(zm′,zn)+∑i′j′m′n′gθ(pi′pj′)gs(zm′,zn′)。本专利中k=200。
上述技术方案中,步骤四中k-means++算法的实现过程如下:
1.从训练样本中的ED-SIFT特征点集合X中随机选择一个特征点c1作为初始“种子点”;
2.计算下一个特征点x′被选为“种子点”ci的概率,概率其中x′=ci∈X。其中D(x)表示特征点x到已选聚类中心的最短距离;
3.重复步骤2和3,到所有的K个“种子点”都被选出来;
4.对每个特征点,计算其和K个“种子点”的欧式距离,并将其分配到欧式距离最小的那个“种子点”中;
5.对于每一类,重新计算类的中心,以每类的平均值更新原来的“种子点”;
6.重复步骤4和步骤5,直到“种子点”不再变换或者达到实验迭代的次数为止。
上述技术方案中,步骤五中引入空间金字塔,通过在多分辨率上计算物体的视觉单词直方图,从而获得了物体图像的局部信息,可以对物体进行精确的识别。实现过程如下:
1.如图5所示,将物体的图像在不同的层级上划分为相同大小的块,在本专利中,我们取空间金字塔的层数L=3。本专利中将物体图像从左到右分解的块数为:1×1,2×2,4×4;
2.基于步骤四获得的视觉词典,统计每个块中的视觉单词直方图,然后将每层获得的视觉单词直方图连接起来,并且给不同层分配相应的权重。本专利中从左到右各层分配的权重分别为
由图5可知,当聚类生成K个视觉单词时,对图像进行L层划分,生成的视觉单词直方图的维数为
可以看出,当L=0时,该模型退化为标准的BoW模型。实验表明,当L>3时,计算复杂度增加,而且子区域由于划分过于稠密而导致每个子区域中的匹配对过少。
3.基于空间金字塔核函数匹配的视觉单词直方图的实现过程如下:
我们把所有样本的ED-SIFT特征表示为X={x1,x2,…,xn},使用k-means++算法聚类生成的K个视觉单词表示为C={c1,c2,…,ck}。
本专利的方法是在通过将ED-SIFT特征和视觉单词映射到高维空间中,通过在高维空间中引入核函数来更加精确地完成将ED-SIFT特征映射到视觉单词中。本专利中的核函数为高斯核函数,即k(x,y)=e-α‖x-y‖,其中α=5。将样本的特征和视觉单词映射到高维空间分别表示为Ψ(X)={Ψ(x1),Ψ(x2),…,Ψ(xn)}、Ψ(C)={Ψ(c1),Ψ(c2),…,Ψ(ck)}。我们在高维空间中用视觉单词来更加精确的表示Ψ(X)。即求下面的凸二次规划问题:
其中H={Ψ(c1),Ψ(c2),…,Ψ(ck)},α是映射系数。
求ν对α的偏导数,并令其等于0。
得到α=(HTH)-1(HTΨ(x))。
使用核函数,将α代入到核函数中,得到
k(x,y)=[Hαx]T[Hαy]=kC(x)TKCC -1kC(y)
其中kC(x)=HTΨ(x),kC(y)=HTΨ(y),KCC=HTH。
由于Kcc -1是一个正定矩阵。我们可以使用Cholesky分解,即GTG=KCC -1,其中G是一个上三角矩阵。核函数可以化简为如下的式子:
k(x,y)=kC(x)TKCC -1kC(y)=kC(x)TGTGkC(y)=[GkC(x)]T[GkC(y)]
在高维空间中,ED-SIFT特征映射到视觉单词中的表示为:
Ψ(x)=GkC(x)
归一化后每个样本的视觉单词直方图为
其中
为了验证本专利方法的有效性,我们的实验使用物体识别的经典数据库Caltech-101以及更富有难度的Caltech-256数据库。为了使实验结果更具有说服力,我们分别从Caltech-101和Caltech-256数据库随机抽取十类物体进行实验。首先从每类物体中随机抽取十幅图像作为训练样本,再另外随机抽取十幅图像作为测试样本。每次实验在训练时将对应类别的十个训练样本作为正样本,剩下的所有训练样本作为负样本。每一个实验做十次,最后取其平均值作为最后的识别率。识别的正确率通过计算混淆矩阵来表示。本专利提出的算法在Caltech-101和Caltech-256数据库上的混淆矩阵如图6和图7所示。表明本专利提出的算法对物体图像的识别具有较高的辨识度,并且在训练样本较少的情况下,本专利方法获得了较好的识别效果。
本专利结合ED-SIFT特征的提取,k-means++聚类算法和空间金字塔核函数匹配共同构建了一个鲁棒的物体识别算法。提取物体图像的ED-SIFT特征,得到的特征点丰富,能够更加充分的利用图像的信息。空间金字塔核函数匹配不仅充分利用了图像的空间信息,而且大大提高了匹配精度。本专利提出的算法对物体图像的识别具有较高的辨识度,并且在训练样本较少的情况下,采用简单的SVM分类器获得了良好的分类效果。
本专利在遥感图像识别、医学图像分类和互联网图像检索等领域都具有广泛的应用前景。
以上公开的仅为本发明的几个具体实施例,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
[1]S.Lazebnik,C.Schmid,J.Ponce.Beyond bags of features:spatialpyramid matching for recognizing natural scene categories,IEEE ComputerSociety Conference on Computer Vision and Pattern Recognition,2(2006):2169-2178.
[2]Online Kernel Principal Component Analysis:A Reduced-Order ModelHoneine,P.,Pattern Analysis and Machine Intelligence,34(2012):1814-1826.

Claims (2)

1.基于核函数匹配的空间金字塔物体识别方法,其特征在于,包括下列步骤:
步骤一、采集物体样本图像,将待识别的样本图像数据分为训练样本和测试样本;
步骤二、将训练样本和测试样本的图像转换为灰度图像,并将灰度图像的数据类型转化为双精度浮点类型;然后将图像的尺寸进行缩放处理,使其高度和宽度在[50,200]之间;
步骤三、提取训练样本和测试样本图像的ED-SIFT(Efficient Dense Scale-invariant Feature Transform)描述子;
步骤四、使用k-means++聚类算法将训练样本的ED-SIFT描述子聚类,获得视觉单词;所有的视觉单词构成了视觉词典;
步骤五、引入空间金字塔,将训练样本的ED-SIFT描述子、测试样本的ED-SIFT描述子和视觉词典映射到高维空间,然后使用核函数匹配来获得训练样本和测试样本的视觉单词直方图;
步骤六、将训练样本的视觉单词直方图输入到SVM分类器中进行训练;
步骤七、基于训练后的SVM分类器,将测试样本的视觉单词直方图输入SVM分类器,完成物体的识别;
步骤三中提取训练样本和测试样本的ED-SIFT(Efficient Dense Scale-invariantFeature Transform)描述子的方法为:
1)将样本图像划分为均匀大小的单元格,每个单元格由4×4个像素组成,依次从图像中选取4×4个单元格,步长为8个像素,遍历整个图像,使用高斯核函数将每个单元格中像素的梯度方向映射到梯度方向基向量中,得到样本图像的梯度方向直方图;
其中z为图像中的像素点,为梯度方向基向量;
α为调节因子,取α=5,梯度方向基向量为在平面直角坐标系的水平和垂直方向分别将区间[-1,1]平均分成九等分,得到的100个点坐标;
使用归一化的梯度的模加权,每个4×4大小的单元格中每一个像素z的梯度模归一化的公式为:ε为小常量,防止分母为0;
2)使用高斯核函数来增大靠近关键点的像素点的空间位置权重,减小远离关键点的像素点的空间位置权重;
α为调节因子,取α=5,pz为关键点z的空间位置,qz′为像素点z′的空间位置;
关键点pz的空间位置为在直角坐标系中的水平和垂直方向分别将区间[0,1]平均分成四等分后得到的25个点坐标,像素点qz′的空间位置的选择为在直角坐标系中将水平和垂直方向上分别将区间平均分成十五等分后得到的256个点坐标;
3)每隔8个像素遍历整幅图像,计算所有4×4单元格的ED-SIFT向量,最后得到图像的ED-SIFT特征;
4)使用KPCA(kernel principal component analysis)算法对得到的ED-SIFT向量降维;在一个4×4单元格图像块p中,基于高斯核匹配的梯度方向直方图的第k个分量为:
其中m为梯度方向基向量的长度,n为空间位置向量的长度,λk是高斯核矩阵的第k个特征值和特征向量,高斯核矩阵为[G]ijmn=gθ(pi,pj)gs(zm,zn)-2∑i′m′gθ(pi′,pj)gs(zm′,zn)+∑i′j′m′n′gθ(pi′pj′)gs(zm′,zn′),取k=200。
2.根据权利要求1所述的基于核函数匹配的空间金字塔物体识别方法,其特征在于,步骤五引入空间金字塔,将训练样本的ED-SIFT描述子、测试样本的ED-SIFT描述子和视觉词典映射到高维空间,然后使用核函数匹配来获得训练样本和测试样本的视觉单词直方图的方法为:
1)取空间金字塔的层数L=3,将物体的图像从左到右分解的块数分别为:1×1,2×2,4×4;分配的权重依次为
2)对所有样本的ED-SIFT特征向量X={x1,x2,…,xn},使用k-means++算法聚类生成的K个视觉单词表示为C={c1,c2,…,ck},将其映射到高维空间分别表示为Ψ(X)={Ψ(x1),Ψ(x2),…,Ψ(xn)}、Ψ(C)={Ψ(c1),Ψ(c2),…,Ψ(ck)};
3)在高维空间中将Ψ(X)映射到Ψ(C)中,归一化后每个样本的视觉单词直方图为
其中GTG=KCC -1,
CN201511002911.9A 2015-12-28 2015-12-28 基于核函数匹配的空间金字塔物体识别方法 Active CN105654122B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201511002911.9A CN105654122B (zh) 2015-12-28 2015-12-28 基于核函数匹配的空间金字塔物体识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201511002911.9A CN105654122B (zh) 2015-12-28 2015-12-28 基于核函数匹配的空间金字塔物体识别方法

Publications (2)

Publication Number Publication Date
CN105654122A CN105654122A (zh) 2016-06-08
CN105654122B true CN105654122B (zh) 2018-11-16

Family

ID=56478127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201511002911.9A Active CN105654122B (zh) 2015-12-28 2015-12-28 基于核函数匹配的空间金字塔物体识别方法

Country Status (1)

Country Link
CN (1) CN105654122B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326903A (zh) * 2016-08-31 2017-01-11 中国科学院空间应用工程与技术中心 一种基于仿射尺度不变特征和稀疏表示的典型目标识别方法
CN106682690B (zh) * 2016-12-20 2019-11-05 电子科技大学 一种基于支持向量回归的视觉映射方法
CN106909895B (zh) * 2017-02-17 2020-09-22 华南理工大学 一种基于随机投影多核学习的手势识别方法
CN106951471B (zh) * 2017-03-06 2020-05-05 浙江工业大学 一种基于svm的标签发展趋势预测模型的构建方法
CN109299652B (zh) * 2018-07-30 2020-11-13 华晓精密工业(苏州)有限公司 一种用于图像定位的模型训练方法、图像定位方法及装置
CN109359678B (zh) * 2018-10-09 2022-08-30 四川轻化工大学 一种白酒图谱的高精度分类识别算法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8447119B2 (en) * 2010-03-16 2013-05-21 Nec Laboratories America, Inc. Method and system for image classification
CN102208038B (zh) * 2011-06-27 2012-12-26 清华大学 基于视觉词典的图像分类方法
CN103218621B (zh) * 2013-04-21 2015-12-02 北京航空航天大学 一种室外视频监控中多尺度车辆的识别方法
CN103839074B (zh) * 2014-02-24 2017-02-08 西安电子科技大学 一种基于素描线段信息和空间金字塔匹配的图像分类方法
CN104715254B (zh) * 2015-03-17 2017-10-10 东南大学 一种基于2d和3d sift特征融合的一般物体识别方法
CN105005789B (zh) * 2015-07-01 2018-04-03 北京理工大学 一种基于视觉词汇的遥感图像地物分类方法

Also Published As

Publication number Publication date
CN105654122A (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
CN105654122B (zh) 基于核函数匹配的空间金字塔物体识别方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN112418074B (zh) 一种基于自注意力的耦合姿态人脸识别方法
CN104090972B (zh) 用于三维城市模型检索的图像特征提取和相似性度量方法
CN108108751B (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
CN106503727B (zh) 一种高光谱图像分类的方法及装置
CN103279768B (zh) 一种基于增量学习人脸分块视觉表征的视频人脸识别方法
CN107368807A (zh) 一种基于视觉词袋模型的监控视频车型分类方法
CN103077512A (zh) 基于主成分析的数字图像的特征提取与匹配方法及装置
CN108564092A (zh) 基于sift特征提取算法的向日葵病害识别方法
CN104966081B (zh) 书脊图像识别方法
CN107944459A (zh) 一种rgb‑d物体识别方法
CN105205135B (zh) 一种基于主题模型的3d模型检索方法及其检索装置
CN111652273B (zh) 一种基于深度学习的rgb-d图像分类方法
CN112580480B (zh) 一种高光谱遥感影像分类方法及装置
CN111414958B (zh) 一种视觉词袋金字塔的多特征图像分类方法及系统
He et al. Object-oriented mangrove species classification using hyperspectral data and 3-D Siamese residual network
CN107085731A (zh) 一种基于rgb‑d融合特征与稀疏编码的图像分类方法
CN109614866A (zh) 基于级联深度卷积神经网络的人脸检测方法
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
CN106897722A (zh) 一种基于区域形状特征的商标图像检索方法
CN106096658A (zh) 基于无监督深度空间特征编码的航拍图像分类方法
CN111680579A (zh) 一种自适应权重多视角度量学习的遥感图像分类方法
Chen et al. Multi-view feature combination for ancient paintings chronological classification
CN116091946A (zh) 一种基于YOLOv5的无人机航拍图像目标检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant