CN101369316B - 基于全局和局部结构融合的图像特征提取方法 - Google Patents
基于全局和局部结构融合的图像特征提取方法 Download PDFInfo
- Publication number
- CN101369316B CN101369316B CN2008100403789A CN200810040378A CN101369316B CN 101369316 B CN101369316 B CN 101369316B CN 2008100403789 A CN2008100403789 A CN 2008100403789A CN 200810040378 A CN200810040378 A CN 200810040378A CN 101369316 B CN101369316 B CN 101369316B
- Authority
- CN
- China
- Prior art keywords
- matrix
- data
- summit
- class
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2137—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
- G06F18/21375—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps involving differential geometry, e.g. embedding of pattern manifold
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
基于全局和局部结构融合的图像特征提取方法,其特征在于,包括以下步骤:1)构造加权邻接图,2)确定相似矩阵、度矩阵和图的拉普拉斯矩阵,3)确定类内散布矩阵和类间散布矩阵,4)确定投影矩阵,5)识别。本发明的优点是提出了一种融合全局结构信息和局部结构信息的特征提取方法,该方法可以提取出融合全局特征和局部特征的复合特征,因而更具有鉴别力。而且该方法不但具有局部保留映射法特点,即能够保留数据的流形结构的特性;而且具有线性鉴别分析方法的特点,即能使类内数据聚集地更紧凑而拉大类间距离。将本发明应用在图像识别中,可以提高识别性能。
Description
技术领域
本发明涉及一种基于全局和局部结构融合的图像特征提取方法,属于智能信息处理领域。
背景技术
图像识别技术已经成为当今研究和应用的热点之一。该项技术已成功应用于人脸识别、车牌识别、视频监控、目标跟踪识别等领域。
作为图像识别关键环节之一的特征提取方法,就是将原始的高维图像数据映射到一个低维的特征空间。该技术已经成为机器学习和模式识别领域的一个研究热点。常用的特征提取方法有线性鉴别分析方法(Linear Discriminant Analysis,简称LDA),局部保留映射方法(Locality Preserving Projection,简称LPP)等。
线性鉴别分析方法是模式识别中的经典算法(K.Fukunaga.“Introduction tostatistical pattern classification”.Academic Press,San Diego,California,USA,1990.“统计模式识别导论”)。这种方法通过最大化类间散布矩阵而最小化类内散布矩阵,获取目标图像数据的全局结构信息,使得投影后的模式样本的类间散布最大而类内散布最小,也就是说,投影后保证模式样本在新的空间中有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。
最近,局部几何结构在特征提取领域引起了广泛的关注,而局部几何结构可以通过拉普拉斯矩阵获得。局部保留映射(X.He,P.Niyogi.“Locality Preserving Projections”.In Proc.Conf.Advances in Neural Information Processing Systems,2003.“局部保留映射”)法正是根据这一思想发展起来的一种新的特征提取方法,它基于图的拉普拉斯矩阵计算数据的低维流形,其方法是:首先构造原始数据的邻接图,建立图的拉普拉斯矩阵,然后以在原始空间中距离接近的两个数据点,投影后在特征空间中的距离更近为准则,求得变换矩阵,获取目标图像数据集的局部结构信息。
以上两种方法用于图像识别,都取得了令人满意的识别结果。但是LDA、LPP分别主要提取图像数据集的全局信息、局部信息,仅能反映数据集某方面的特征,而在现实世界中,目标图像数据集的结构通常非常复杂,仅仅靠全局信息或仅仅靠局部结构信息,可能不足以揭示目标图像数据集内在的真实结构。而且在图像识别中,全局结构特征相对更重要,还是局部结构特征相对更重要,随着应用对象的不同而不同。因此寻求一种兼顾全局结构信息和局部结构信息的特征融合提取方法具有重要的意义。在进一步的检索中尚未发现融合这两种特征的图像识别方法。
发明内容
本发明的目的在于针对现有方法中存在的不足,提出一种融合全局结构信息和局部结构信息特征的提取方法,称之为一种基于全局和局部特征融合的图像分析方法(Global andLocal feature fusion Analysis,简称GLA),使其达到同时兼顾全局和局部结构信息,提取更具鉴别力的特征的目的,将该方法用于图像识别,能够提高识别的精度。
为了达到上述目的,本发明提供了一种基于全局和局部结构融合的图像特征提取方法,其技术原理是,首先是构造训练图像数据的加权邻接图,确定相似矩阵、度矩阵和图的拉普拉斯矩阵;然后确定训练图像数据的类内散布矩阵和类间散布矩阵;根据全局和局部特征融合分析方法的目标函数,得到投影矩阵;最后利用该投影矩阵把训练图像和测试图像分别投影到特征空间中,采用最小距离分类器,进行图像识别。
具体步骤如下:
步骤1、构造训练数据的加权邻接图
步骤1.1、在现有的数据集的每一类数据中,选取任意个数n的数据点组成训练图像数据集,并在剩余的数据点中选取任意个数的数据点组成测试图像数据集,其中每一个数据点为一幅图像;
步骤1.2、通过顶点以及每个顶点与其最近邻点之间边的权值构造加权邻接图;
步骤1.2.1、加权邻接图的每个顶点对应于训练图像数据集中的一个数据点;
步骤1.2.2、若顶点xj属于顶点xi的k-最近邻点,k为最近邻范围,即xj是xi的k范围内的最近邻点,则在xi和xj之间建立一条边e=ij,其权值通过下式求出:
其中,若顶点xj属于顶点xi的k-最近邻点或顶点xi属于顶点xj的k-最近邻点,则w(i,j)为通过式(1)求出,其他情况下,w(i,j)=式(2);β为任一正实数;w(i,j)大于0并小于等于1,其反映了相邻接的两个图像数据点间的相似程度,w(i,j)越大说明这两点越相似;
步骤2、根据步骤1得到的加权邻接图确定相似矩阵W、度矩阵D和加权邻接图的拉普拉斯矩阵L
步骤2.1、相似矩阵W中的每个元素的值为通过步骤1.2.2求得的w(i,j),即Wij=w(i,j),其中i=1,2,3,…,n、j=1,2,3,…,n;
步骤2.2、度矩阵D=diag(d1,d2,L,dn),其中,di为顶点xi的度,其值通过以下公式求出:
步骤2.3、加权邻接图的拉普拉斯矩阵L=D-W,即
相似矩阵W的每行的元素值,只考虑了该行所代表的数据点与其最近邻范围内的k个数据点的相似程度,即只有k个元素值非零,其余值均为零,这样W体现了数据集的局部结构,而k定义了W的局部特性,L和D都是在W的基础上生成的;
步骤3、确定训练图像数据集的类内散布矩阵Sw和类间散布矩阵Sb类内散布矩阵Sw和类间散布矩阵Sb分别通过以下公式求出:
Sw和Sb反映的是数据集的二阶统计信息,它们每个元素都是由数据集的所有数据点综合而成的,因此Sw和Sb都是对数据集的一种全局描述;并且可以通过公式 求出Sw的迹,它度量了类的内聚程度,其中e∈RD,且e的元素全为1,eT表示该列向量的转置,Sw的迹是大于等于零的数,越大表示类内散布越大,越小表示类内散布越小,亦可以通过公式 求出Sb的迹,它度量了类间的分离程度,其值是大于等于零的数,越大表示类间散布越大,越小表示类间散布越小;
步骤4、确定投影矩阵A
投影矩阵A通过通过以下公式求出:
引入n是为了消除Sw和XLXT计算上的差异;ATSwA为投影后的类内散布矩阵,表示投影后的数据之间的全局特性;ATSbA表示投影以后的类间散布矩阵;由步骤3中对Sw的迹和Sb的迹的说明可以得知,上述公式中ATSwA的迹trace(ATSwA)可以用来度量投影后类的内聚程度,ATSbA的迹trace(ATSbA)可以用来度量投影后类间的分离程度;矩阵XLXT的每个元素都只是对局部信息的反映,反应了数据之间的局部特性,ATXLXTA表示投影后的数据之间的局部特性;
通过上述公式可以提取出全局结构特征和局部结构特征综合后所得到的复合特征,这些特征可以更全面地表达目标数据,即可以转化为求解如下广义特征值问题的最小特征值对应的特征向量:
其中,调节因子ρ的最佳取值可以通过试验确定;λ是矩阵A的特征值;α是λ对应的特征向量;
步骤5、识别
将训练图像和测试图像分别利用上述投影矩阵A映射到特征空间中,得到训练系数矩阵和测试系数矩阵,采用最小距离分类器,即可获得识别结果。
进一步,步骤5中所述的采用最小距离分类器是指把各类别样本的均值向量作为各类的代表点,根据待识样本到各类别代表点的最小距离判别其类别。
附图说明
图1为本发明处理方法总体框图;
图2为调节因子ρ对算法识别性能的影响(Satimage库),图中:
*线:GLA方法(全局局部特征融合分析方法);
△线:LPP方法(局部保留映射方法);
○线:LDA方法(线性鉴别分析方法);
图4为Satimage数据集的部分数据采用局部保留映射方法降维后的二维可视化结果,其中:●红土;*棉作物;灰土;×湿地;☆植被覆盖区;□重湿地;
图5为Satimage数据集的部分数据采用全局局部融合特征分析方法降维后的二维可视化结果,其中:●红土;*棉作物;灰土;×湿地;☆植被覆盖区;□重湿地。
具体实施方式
以下结合实施例来具体说明本发明:
Satimage数据库实验
Satimage是UCI提供的用于机器学习研究的数据集之一,它包含6类数据,样本的属性特征个数为36,本实验使用了Satimage中的2400个数据点,每类400个,训练样本数为180,测试样本数为2220。图1为实验方法总体框架,框架中的预处理主要是对数据的规范化,将数据的模规范化到0到1之间。如图1所示,本发明的可以分为下列步骤:
步骤1.构造训练数据的加权邻接图
在6类数据每类400个数据点中,选取前30个数据组成训练库,并用剩余的数据组成测试库。对训练数据构造邻接图时,取最近邻范围为k=15。
根据公式(1)计算出邻接图中每条边的权值w(i,j),也即相邻接的两个图像数据点间的相似程度。β作为参数主要是用来控制数据空间的尺度或光滑性,β的选取尚没有一般性的结论,在本实验中,选取β为所有数据间平均欧氏距离的平方根。
步骤2.确定相似矩阵W、度矩阵D和图的拉普拉斯矩阵L
由步骤1中的邻接图中计算得到的权值w(i,j)可以得到相似矩阵W,W的元素Wij=w(i,j)。
邻接图中每个顶点i的度di由公式 求得,其中n为训练图像数据点的个数,这里为n=180。求得度di后,则邻接图的度矩阵可由公式D=diag(d1,d2,L,dn)得到。
上面求出W和D后,图的拉普拉斯矩阵可由公式L=D-W可计算得到。
步骤3.确定类内散布矩阵Sw和类间散布矩阵Sb。
类内散布矩阵可由公式 计算得到。类间散布矩阵可由公式 计算得到。其中,c为目标类别,在Satimage数据库里为c=6;n为训练图像数据点的个数,这里为n=180;ni表示第i类目标Xi(i=1,2,L,c)的训练样本有ni个,这里为ni=30。Xi表示第i类目标,i的范围为从1到6。 为第i类目标的均值向量。 为总体的均值向量,xi为训练图像数据点,i的范围从1到180。
步骤4.确定投影矩阵A
由步骤3求得Sw和Sb后,投影矩阵A通过解全局和局部特征融合分析方法的准则函数
可以得到A。上式可以转化为求解如下广义特征值问题的最小特征值对应的特征向量:
其中调节因子ρ的最佳取值可以通过试验确定。α是A的一列,是特征向量,组合起来就构成A,和λ是特征值,是大于等于零的实数。
由于调节因子ρ的最佳取值需要通过试验确定,所以在ρ从0到1的取值范围内以0.01为间距从0递增到1在Satimage训练库和测试库上重复实验,记录识别结果,实验中运用求得的前两列特征向量构成投影矩阵将数据降至两维。实验结果如图2所示,可以看出GLA方法比LDA和LPP方法具有更高的识别率,并且当ρ=0.08时,全局局部融合特征分析方法取得了最佳的识别性能。因此在以后的Satimage库实验中,全局局部融合特征分析方法的调节因子ρ均取0.08。表1列出了在该实验下LDA、LPP、GLA三种方法的识别结果,实验中固定取每类的前30个数据作为训练库,k=15。表中的1级识别率表示运用最小距离分类器求得的与测试数据距离最小的类别均值向量的类别作为识别结果时的识别率;表中的2级识别率表示运用最小距离分类器求得的与测试数据距离最小的类别均值向量的类别或与测试数据距离次最小的类别均值向量的类别作为识别结果时的识别率;表中的3级识别率表示运用最小距离分类器求得的与测试数据距离最小的类别均值向量的类别或与测试数据距离次最小的类别均值向量的类别或与测试数据距离第三最小的类别均值向量的类别作为识别结果时的识别率。当ρ=0.08时,GLA取得了73.74%的识别率,比LDA、LPP分别高了6.7个、4.5个百分点,显示出了良好的性能。
表1各识别算法在Satimage库上的识别性能比较
(固定取每类的前30个数据作为训练库,k=15)
步骤5.识别
由步骤4求得投影矩阵A后,将训练图像180个数据和测试图像2220个数据分别利用投影矩阵映射到特征空间中,得到训练系数矩阵和测试系数矩阵,采用最小距离分类器,即可获得识别结果。
为了能进一步比较线性鉴别分析、局部保留映射和全局局部特征融合三种方法的性能,我们进行了100次随机实验。每次实验从数据集中随机选择30个数据点作为训练库,剩余的数据作为测试库,三种方法均降至两维,仍取k=15构造最近邻图,记录识别结果,最后取100次结果的平均值作为最终结果。实验中全局局部特征融合分析方法均取ρ=0.08。
表2列出了三种方法的最终识别结果,可以看出GLA取得了78.83%的识别率,比LDA、LPP分别高了16个、7个百分点。
表2各识别算法在Satimage库上的识别性能比较
(随机实验,k=15)
为了更直观地观察三种方法的分类性能,分别用这三种方法求取两列特征向量构成的投影矩阵将数据降至两维。用每类中选取的前30个数据组成训练库,剩余的数据作测试,k=15,ρ=0.08。三种方法对训练库中的数据降维后的可视化结果如图3、图4和图5所示。
从图3中可以看出,LDA分离出了红土和棉作物,灰土和植被覆盖区的大部分也分离了出来,但是灰土、植被覆盖区的一部分和湿地、重湿地混叠在一起。从图4中可以看出LPP分离出了红土、棉作物和灰土,但是红土和灰土分开的距离不大,部分数据陷入对方区域,其他三类混叠在一起,区分难度大。
图5与图3和图4比较可以显示GLA取得了最佳的分类结果,完全分离出了红土、棉作物和灰土,而且这三者的区分非常明显,尤其是红土和灰土之间距离非常大,克服了LPP的不足,其余三类虽然也混叠在一起,但是明显比LPP区分度大,可以将植被覆盖区的大部分分离出来。
从图3、图4和图5也可以看出,LPP能够保留数据的流形结构,将数据分布在其流形上,而LDA可以使每类聚集地更紧凑,不同类别之间分开的距离也相对最大。而GLA兼具两者的特性,既可以保留数据的流形结构,又能使每类数据尽可能聚集地更紧凑,通过对比可以发现,GLA利用保流形特性,将灰土和湿地完全分开(LPP也是如此),而利用聚类特性将每一类的分布范围明显缩小,同时将不同类别间的距离拉开。
Claims (3)
1.基于全局和局部结构融合的图像特征提取方法,其特征在于,分为下列步骤:
步骤1、构造训练数据的加权邻接图
步骤1.1、在现有的数据集的每一类数据中,选取任意个数n的数据点组成训练图像数据集,并在剩余的数据点中选取任意个数的数据点组成测试图像数据集,其中每一个数据点为一幅图像;
步骤1.2、通过顶点以及每个顶点与其最近邻点之间边的权值构造加权邻接图;
步骤1.2.1、加权邻接图的每个顶点对应于训练图像数据集中的一个数据点;
步骤1.2.2、若顶点xj属于顶点xi的k-最近邻点,k为最近邻范围,即xj是xi的k范围内的最近邻点,则在xi和xj之间建立一条边e=ij,其权值通过下式求出:
其中,若顶点xj属于顶点xi的k-最近邻点或顶点xi属于顶点xj的k-最近邻点,
则w(i,j)为通过式(1)求出,其他情况下,w(i,j)=式(2);β为任一正实数;
步骤2、根据步骤1得到的加权邻接图确定相似矩阵W、度矩阵D和加权邻接图的拉普拉斯矩阵L
步骤2.1、相似矩阵W中的每个元素的值为通过步骤1.2.2求得的w(i,j),即Wij=w(i,j),其中i=1,2,3,…,n、j=1,2,3,…,n;
步骤2.3、加权邻接图的拉普拉斯矩阵L=D-W,即
步骤3、确定训练图像数据集的类内散布矩阵Sw和类间散布矩阵Sb
类内散布矩阵Sw和类间散布矩阵Sb分别通过以下公式求出:
其中,数据集X包含n个训练图像数据点,有c个目标类别,则第i类目标的数据集为Xi(i=1,2,…,c),其数据点个数为ni,则X=[X1,X2,…,Xc];x是指n个数据点中属于第i类目标的各个数据点;为第i类目标的均值向量,为总体的均值向量,其中,i=1,2,…,c;
步骤4、确定投影矩阵A
投影矩阵A通过通过以下公式求出:
0≤ρ≤1,若ρ=0,上述公式表示全局特征,若ρ=1,上述公式表示局部特征;n为训练图像数据集中数据点的总数;X为训练图像数据集以及测试图像数据集中所有的数据点构成的矩阵,trace为求迹;
步骤5、识别
将训练图像和测试图像分别利用所述投影矩阵A映射到特征空间中,得到训练系数矩阵和测试系数矩阵,采用最小距离分类器,即可获得识别结果。
3.如权利要求1所述的基于全局和局部结构融合的图像特征提取方法,其特征在于,步骤5中所述的采用最小距离分类器是指把各类别样本的均值向量作为各类的代表点,根据待识样本到各类别代表点的最小距离判别其类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008100403789A CN101369316B (zh) | 2008-07-09 | 2008-07-09 | 基于全局和局部结构融合的图像特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008100403789A CN101369316B (zh) | 2008-07-09 | 2008-07-09 | 基于全局和局部结构融合的图像特征提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101369316A CN101369316A (zh) | 2009-02-18 |
CN101369316B true CN101369316B (zh) | 2011-08-31 |
Family
ID=40413125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008100403789A Expired - Fee Related CN101369316B (zh) | 2008-07-09 | 2008-07-09 | 基于全局和局部结构融合的图像特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101369316B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165679A (zh) * | 2018-07-31 | 2019-01-08 | 咪咕文化科技有限公司 | 一种数据处理方法及装置 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102346847B (zh) * | 2011-09-26 | 2013-01-23 | 青岛海信网络科技股份有限公司 | 一种支持向量机的车牌字符识别方法 |
CN102930300B (zh) * | 2012-11-21 | 2015-07-15 | 北京航空航天大学 | 一种飞机目标识别方法及系统 |
CN103034869B (zh) * | 2012-12-05 | 2015-05-06 | 湖州师范学院 | 一种邻域自适应的局部保持投影方法 |
CN107273915B (zh) * | 2017-05-17 | 2019-10-29 | 西北工业大学 | 一种局部信息与全局信息融合的目标分类识别方法 |
CN107678007B (zh) * | 2017-09-06 | 2020-05-12 | 电子科技大学 | 一种指数域紧密子空间的雷达真假目标一维距离像特征提取方法 |
CN108009478B (zh) * | 2017-11-17 | 2020-03-06 | 天津大学 | 一种基于局部特征投影的表情识别方法 |
CN108121965B (zh) * | 2017-12-21 | 2020-04-21 | 深圳大学 | 基于鲁棒联合稀疏特征提取的图像识别方法 |
CN108228761B (zh) * | 2017-12-21 | 2021-03-23 | 深圳市商汤科技有限公司 | 支持区域自定义的图像检索方法和装置、设备、介质 |
CN108388918B (zh) * | 2018-02-28 | 2020-06-12 | 中国科学院西安光学精密机械研究所 | 具有结构保持特性的数据特征选择方法 |
CN108921181B (zh) * | 2018-08-02 | 2022-05-10 | 广东工业大学 | 一种局部图像特征提取方法、装置、系统及可读存储介质 |
CN109711399B (zh) * | 2018-11-05 | 2021-04-27 | 北京三快在线科技有限公司 | 基于图像的店铺识别方法、装置,电子设备 |
CN109948652A (zh) * | 2019-02-14 | 2019-06-28 | 天津科技大学 | 一种基于叶花融合的局部判别cca的植物物种识别方法 |
CN112132164B (zh) * | 2020-11-20 | 2021-03-09 | 北京易真学思教育科技有限公司 | 目标检测方法、系统、计算机装置及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1996346A (zh) * | 2005-12-29 | 2007-07-11 | 电子科技大学 | 基于轮廓的车型识别方法 |
CN101079105A (zh) * | 2007-06-14 | 2007-11-28 | 上海交通大学 | 基于流形学习的人脸识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100714724B1 (ko) * | 2005-08-17 | 2007-05-07 | 삼성전자주식회사 | 얼굴 포즈 추정 장치와 추정 방법 그리고 상기 방법에 의한얼굴 인식 시스템 |
US7840076B2 (en) * | 2006-11-22 | 2010-11-23 | Intel Corporation | Methods and apparatus for retrieving images from a large collection of images |
US8472699B2 (en) * | 2006-11-22 | 2013-06-25 | Board Of Trustees Of The Leland Stanford Junior University | Arrangement and method for three-dimensional depth image construction |
-
2008
- 2008-07-09 CN CN2008100403789A patent/CN101369316B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1996346A (zh) * | 2005-12-29 | 2007-07-11 | 电子科技大学 | 基于轮廓的车型识别方法 |
CN101079105A (zh) * | 2007-06-14 | 2007-11-28 | 上海交通大学 | 基于流形学习的人脸识别方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165679A (zh) * | 2018-07-31 | 2019-01-08 | 咪咕文化科技有限公司 | 一种数据处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN101369316A (zh) | 2009-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101369316B (zh) | 基于全局和局部结构融合的图像特征提取方法 | |
CN111553387B (zh) | 一种基于Yolov3的人员目标检测方法 | |
CN111612008B (zh) | 基于卷积网络的图像分割方法 | |
CN110796168A (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN100530222C (zh) | 图像匹配方法 | |
Luo et al. | Learning high-level features by fusing multi-view representation of MLS point clouds for 3D object recognition in road environments | |
CN102662949B (zh) | 一种基于多特征融合的指定目标检索方法及系统 | |
CN102622607A (zh) | 一种基于多特征融合的遥感图像分类方法 | |
CN103116762A (zh) | 一种基于自调制字典学习的图像分类方法 | |
CN104680173A (zh) | 一种遥感图像场景分类方法 | |
CN115049944A (zh) | 一种基于多任务优化的小样本遥感图像目标检测方法 | |
CN107092884A (zh) | 一种快速粗精级联行人检测方法 | |
Bhagya et al. | An overview of deep learning based object detection techniques | |
CN113484875B (zh) | 一种基于混合高斯排序的激光雷达点云目标分级识别方法 | |
CN103020658A (zh) | 二维图像中的物体识别方法 | |
CN113988198B (zh) | 一种基于地标约束的多尺度城市功能分类方法 | |
CN115393293A (zh) | 基于UNet网络与分水岭算法的电镜红细胞分割与定位方法 | |
CN113870160A (zh) | 一种基于变换器神经网络的点云数据处理方法 | |
CN116028884A (zh) | 一种小样本下基于原型网络的车辆换道风险评估方法 | |
CN115131580A (zh) | 基于注意力机制的空间目标小样本识别方法 | |
CN114283326A (zh) | 一种结合局部感知和高阶特征重构的水下目标重识别方法 | |
CN101441716A (zh) | 面向鉴别的整体和局部特征融合识别系统 | |
CN103208010A (zh) | 一种基于视觉特征的交通状态量化识别方法 | |
CN102609732B (zh) | 基于泛化视觉词典图的物体识别方法 | |
CN105718858A (zh) | 一种基于正负广义最大池化的行人识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110831 Termination date: 20140709 |
|
EXPY | Termination of patent right or utility model |