CN104899604A - 一种基于数据集合并的特征级融合方法 - Google Patents

一种基于数据集合并的特征级融合方法 Download PDF

Info

Publication number
CN104899604A
CN104899604A CN201510306292.6A CN201510306292A CN104899604A CN 104899604 A CN104899604 A CN 104899604A CN 201510306292 A CN201510306292 A CN 201510306292A CN 104899604 A CN104899604 A CN 104899604A
Authority
CN
China
Prior art keywords
feature
data set
data
matrix
phi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510306292.6A
Other languages
English (en)
Other versions
CN104899604B (zh
Inventor
邢向磊
阎涛
王科俊
吕卓纹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201510306292.6A priority Critical patent/CN104899604B/zh
Publication of CN104899604A publication Critical patent/CN104899604A/zh
Application granted granted Critical
Publication of CN104899604B publication Critical patent/CN104899604B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于数据集合并的特征级融合方法。包括训练过程和识别过程,从两个传感器分别获取数据集,基于耦合映射方法的特性将耦合空间里的所有数据合并为同一个数据集,其数据容量为原始两个集合的样本数之和,之后进行二次特征提取,得到一个最终所需的特征集合,而后加入常规特征级融合方法得到另一个更具分类判别能力的特征集合,从而提高模式识别系统的识别率。对任意形式的测试对象进行变换得到最终特征,并采用这一特征与训练特征集合里的特征进行匹配,得到识别结果。本发明能够扩大特征级融合的应用范围,提高识别率。

Description

一种基于数据集合并的特征级融合方法
技术领域
本发明属于模式识别和数据融合领域,尤其涉及基于双模态的生物特征融合与识别的,一种基于数据集合并的特征级融合方法。
背景技术
在生物特征识别系统中,采用单一数据进行处理时,性能并不稳定,并且错误率高,此时常用的解决方法是数据融合技术。目前在数据融合技术中,特征级融合是研究的热点。特征级融合首先对预处理后的原始数据进行特征提取,再将提取到的特征进行融合,得到相对稳定的特征从而完成所需的识别目的。例如,上海交通大学的发明专利——基于目标检测的红外与可见光序列图像特征级融合方法,专利公开号CN1932882A,对红外与可见光两种图像提取的小波系数进行加权平均得到融合特征。
常规的特征级融合存在诸多不足,主要表现在两个方面:一方面在特征提取过程中,大多数方法只能对两个数据集合分别进行处理,最终得到的两组特征矢量是完全独立的,仍然是两种不同的特征,将这样的特征进行融合仅仅是增加了特征所包含的信息量,从理论上并不能保证所得特征具有更好的分类效果;另一方面常规的特征级融合方法在应用时都必须要求测试数据包含两个集合的数据,然而在实际应用中,这一点并不一定能够满足,例如有时测试数据只有一种,或者虽然有两种,但其中一种数据由于信息采集错误等原因无法正常使用,因此限制了特征级融合的应用范围。
发明内容
本发明的目的是针对常规特征级融合方法在实际应用中的不足,提出一种能够扩大应用范围、识别率高的,基于数据集合并的特征级融合方法。
本发明是通过以下技术方案实现的:
一种基于数据集合并的特征级融合方法,包括训练过程和识别过程,利用两个视频传感器采集数据,
所述的训练过程包括以下几个步骤:
a1两个视频传感器采集的原始数据分别为数据集采用耦合映射方法将数据集投影到一个公共的耦合空间,求得数据集X的耦合特征Zx和数据集Y的耦合特征Zy
a2将上一步得到的所有耦合特征合并成一个数据集Z=[Zx,Zy],该数据集容量为数据集X和数据集Y的样本数之和;
a3对数据集Z进行二次特征提取,得到一个融合的特征集
a4对步骤a3中得到的特征集Z′进行特征级融合,得到最终特征集合Z″;
所述的识别过程包括以下几个步骤:
b1对任意测试对象进行变换得到最终特征,
当测试对象只有单一集合的数据时,通过二次特征提取,得到的当前测试对象的融合的特征Z0′为最终特征;
当测试对象为两个集合的数据时,先分别对两个集合的数据进行二次特征提取,然后进行特征级融合,得到最终特征Z0″;
所述的二次特征提取的方法与步骤a3中的一致,所述的特征级融合与步骤a3中的一致;b2将得到的最终特征Z0′与训练过程得到的融合的特征集Z′里的特征进行匹配,采用最近邻分类器得到识别结果;
将得到的最终特征Z0″与训练过程得到的融合的特征集Z″里的特征进行匹配,采用最近邻分类器得到识别结果。
本发明一种基于数据集合并的特征级融合方法还可以包括:
1、求得数据集X的耦合特征Zx和数据集Y的耦合特征Zy的方法为:
c1、两个数据集分别来自两个视频传感器,样本数分别为Nx和Ny,利用非线性映射将原始数据映射到高维的Hilbert空间F中,并定义两个核函数 K i , j x = ( φ x ( x i ) · φ x ( x j ) ) , K i , j y = ( φ y ( y i ) · φ y ( y j ) ) , 则耦合映射的目标函数为:
min J ( A x , A y ) = min Tr ( A x A y T K ~ x K ~ y G x C - C T G y K ~ x K ~ y T A x A y )
其中,Tr(·)表示求矩阵的迹,Ax和Ay为耦合变换矩阵对,为中心化后的核矩阵,C为集合X和Y之间的相关关系矩阵,矩阵Gx和Gy都是对角阵,其对角线元素分别为矩阵C的对应行的累加和,对应列的累加和,
求得数据集X的变换矩阵Ax,其大小为Nx×Dc,数据集Y的变换矩阵Ay,其大小为Ny×Dc
c2、利用变换矩阵Ax和Ay,求得数据集X的耦合特征其大小为Dc×Nx,数据集Y的耦合特征其大小为Dc×Ny
2、二次特征提取方法包括主成分分析PCA和线性判别分析LDA。
3、特征级融合方法包含特征串联、特征并联和特征加权平均。
有益效果
本发明提供一种基于数据集合并的特征级融合方法,该方法中的数据集从两个传感器中分别获取(如从两个视频传感器中获取的不同视角的行人视频数据),本发明可广泛应用于模式识别领域,以得到稳定的特征进行分类识别。
采用耦合映射同时处理两个数据集合,所得到的特征具有较强的相关性,将两个集合的特征很好地统一到一起,对这样的特征进行融合,从理论上讲更为合理。
在识别时,测试数据既可以包含两个集合的数据,也可以只有单一集合的数据,即:可对任意测试对象进行处理,从而大大扩展了特征级融合的应用范围。
在处理多视角的步态识别时,传统方法(传统处理单集合的PCA、KPCA方法以及常规特征级融合方法)与本专利所提方法的识别率比较如图4所示,从图中可以看出本发明所提方法的识别性能优于传统方法,尤其是在步态特征较差的视角下,识别率有了较大提升,其中采用LDA进行二次特征提取取得了最为优越的效果。由此可见,相对于传统方法,本发明所提方法在识别性能方面具有较好的优越性。
基于数据集合并的特征级融合方法的测试数据既可以包含两个集合的数据,也可以只有单一集合的数据,即:可对任意形式的测试对象进行变换得到最终特征,并采用这一特征与训练特征集合里的特征进行匹配,得到识别结果。
附图说明
图1基于数据集合并的特征级融合方法流程图;
图2耦合映射示意图;
图3同一行人不同视角下的步态能量图;
图4在处理多视角的步态识别时传统方法与本专利所提方法的识别率(%)比较图,图4(a)为视角分别为0°和18°的识别率比较图;图4(b)视角分别为36°和54°的识别率比较图;图4(c)视角分别为72°和90°的识别率比较图;
图5为0°和18°两种步态视角时,二次特征提取与直接匹配的性能比较图,图5(a)为识别率的比较图;图5(b)为识别时间的比较图。
具体实施方式
下面将结合附图对本发明做进一步详细说明。
本发明包括训练过程和识别过程如下:
训练过程S1为:采用耦合映射方法将训练集中不同的数据集投影到一个公共的耦合空间,基于耦合映射方法的特性将耦合空间里的所有数据合并为同一个数据集,其数据容量为原始两个集合的样本数之和,之后进行二次特征提取,得到一个最终所需的特征集合,而后加入常规特征级融合方法得到另一个更具分类判别能力的特征集合,从而提高模式识别系统的识别率。
识别过程S2为:对任意形式的测试对象进行变换得到最终特征,并采用这一特征与训练特征集合里的特征进行匹配,得到识别结果。
本发明基于数据集合并的特征级融合方法,如图1所示,本发明中的数据集从两个传感器中分别获取(如从两个视频传感器中获取的不同视角的行人视频数据),本发明具体包括训练过程和测试过程,具体描述如下:
训练过程:
步骤S11,采用耦合映射方法将训练集中不同的数据集投影到一个公共的耦合空间,从而得到原始数据所对应的耦合特征。
耦合映射是一种为直接处理来自不同集合间的元素之间的距离测度问题所提出的方法。其核心思想是在使不同集合间具有关联性的元素投影后尽可能接近的约束下,将来自两个不同集合的数据投影到同一个耦合空间,而后在这个公共的耦合空间中引入传统的度量学习。图2为耦合映射示意图,其中左图为原始数据分布,右图为耦合空间数据分布,实心与空心表示不同集合,相同形状的数据具有相关关系,不同形状的数据不具有相关关系。
由此可见,这种方法能够很好地将两个集合统一到一起,这里采用核耦合映射,其算法步骤为:
对于两个集合样本数分别为Nx和Ny,利用非线性映射将原始数据映射到高维的Hilbert空间F中,并定义两个核函数 K i , j x = ( φ x ( x i ) · φ x ( x j ) ) , K i , j y = ( φ y ( y i ) · φ y ( y j ) ) , 则根据耦合映射的定义,核耦合映射的目标函数为:
min J = min Σ ( i , j ) ∈ Ξ | | W a T φ x ( x i ) - W a T φ y ( y j ) | | 2
其中,Ξ为集合X和Y之间的相关关系集合,Wa为传统度量学习的变换矩阵。
Φ x ( x ) = [ φ x ( x 1 ) , φ x ( x 2 ) , . . . , φ x ( x N x ) ] , Φ y ( y ) = [ φ y ( y 1 ) , φ y ( y 2 ) , . . . , φ y ( y N y ) ] , 则经过等价操作上式可变换为:
min J = min Tr ( W a T Φ x ( x ) G x Φ x ( x ) T W a + W a T Φ y ( y ) G y Φ y ( y ) T W a - W a T Φ x ( x ) C Φ y ( y ) T W a - W a T Φ y ( y ) C T Φ x ( x ) T W a )
其中,Tr(·)表示求矩阵的迹,C为集合X和Y之间的相关关系矩阵,矩阵Gx和Gy都是对角阵,其对角线元素分别为矩阵C的对应行的累加和,对应列的累加和。进一步变换得到:
min J = min Tr ( W a W a T Φ x ( x ) Φ y ( y ) G x - C - C T G y Φ x ( x ) Φ y ( y ) T W a W a )
由核空间理论可知,Wa可由集合Φx(x)或Φy(y)张成,因此令Wa=Φx(x)Ax,Wa=Φy(y)Ay,则:
min J = min Tr ( Φ x ( x ) A x Φ y ( y ) A y T Φ x ( x ) Φ y ( y ) G x - C - C T G y Φ x ( x ) Φ y ( y ) T Φ x ( x ) A x Φ y ( y ) A y )
由于在高维的特征空间F中很难进行常规的运算,需要利用核函数隐含地描述非线性变换。定义两个核函数 K i , j x = ( φ x ( x i ) · φ x ( x j ) ) , K i , j y = ( φ y ( y i ) · φ y ( y j ) ) , 这里采用高斯核函数,即:原始数据映射到高维空间后首先需要进行中心化处理,而这一过程可以通过对核矩阵Kx和Ky的中心化来完成。
K ~ = K - 1 n k 1 nn - 1 n 1 nn K + 1 n 2 1 nn K 1 nn
其中,n为核矩阵K的维数,1nn为元素全为1大小为n×n的矩阵。利用上式对Kx和Ky中心化,得到则核耦合映射的目标函数最终可变换为:
min J ( A x , A y ) = min Tr ( A x A y T K ~ x K ~ y G x C - C T G y K ~ x K ~ y T A x A y )
A = A x A y , K = K ~ x K ~ y , Ω = G x - C - C T G y
所述的耦合变换矩阵对Ax和Ay,可以通过求解广义特征值问题:Ea=λFa来求解,其中E=KΩKT,F=KKT,a为对应于特征值λ的变换向量。A为对应Dc个最小特征值的特征向量组成的变换矩阵,Dc为耦合特征空间的维数。按照A的定义,能够得到对应于数据集合X的变换矩阵Ax,其大小为Nx×Dc,对应于数据集合Y的变换矩阵Ay,其大小为Ny×Dc
步骤S12,将步骤S11提取的所有耦合特征合并成一个数据集,其数据容量为原始两个集合的样本数之和。
数据集X和Y经过Ax和Ay进行非线性耦合变换得到耦合空间里的特征矩阵为其大小分别为Dc×Nx和Dc×Ny。将整个耦合空间里的数据合并为一个集合,则该集合拥有Nx+Ny个Dc维的特征向量,组成矩阵Z=[Zx,Zy]。由于耦合变换是在监督信息的指导下进行,因此得到的特征集合具有较好的可分性。
步骤S13,对步骤S12得到的数据集采用常规方法进行二次特征提取,最终得到一个融合的特征集合。这里的常规方法可以选择主成分分析(PCA)、线性判别分析(LDA)或者其他方法。令变换矩阵为Pd,其大小为Dc×d(d≤Dc),则经过提取到的最终特征集合为Nx+Ny个d维的特征向量。最终所得到的特征将原始两个集合的特征统一到一起,因此实质上进行了隐含的特征级融合。
步骤S14,采用常规特征级融合方法对步骤S13得到的特征集合里的特征进行融合,得到另一个最终所需的特征集合。这里的常规特征级融合方法包含特征串联、特征并联、特征加权平均等。将Z′中具有对应关系的特征进行融合得到最终特征集合Z″。
对于特征空间W1和W2中的两个特征w1∈W1和w2∈W2,特征串联的表达式为特征并联的表达式为w=w1+iw2(i为虚数单位),特征加权平均的表达式为w=αw1+(1-α)w2(α∈[0,1])。
识别过程:
步骤S21,对任意测试对象进行变换得到最终特征。
假设测试样本只存在对应于数据集X的测试数据xi,则可以通过变换得到一个维数为d的特征向量,显然该特征可直接与集合Z′中的特征进行匹配,获得分类结果。而当测试样本包含两个集合的数据xi、yi时,采用步骤S14中的常规特征级融合方法对xi和yi进行融合,得到融合特征zi″,显然该特征可直接与集合Z″中的特征进行匹配,获得分类结果。
步骤S22,采用步骤S21得到的最终特征与训练特征集合里的特征进行匹配,采用最近邻分类器得到识别结果。该方法采用特征空间中与测试样本最邻近(距离最小)的注册样本所属的类别作为测试样本的归类,也就是说每个测试样本与离它最近的注册样本归为了一类。
应用本发明提出的特征级融合方法在中科院自动化所提供的CASIA(B)步态数据库上进行试验。CASIA(B)步态数据库包含124个人在0°、18°、36°…180°11个视角下行走的视频序列,其中每个人包含6个正常行走视频序列,2个背包视频序列,2个穿外套视频序列。这里采用正常行走状态下不同视角的步态图像来测试所提特征级融合方法的性能,对视频序列提取步态能量图特征,得到不同视角下的步态能量图,如图3。
本实验选取CASIA(B)步态数据库中的0°和18°、36°和54°、72°和90°三组视角进行融合。训练集和注册集选取每个视角的前三组图像,测试集则为后三组图像,采用最近邻分类器分类识别。实验中PCA和KPCA(Kernel PCA)仅对单一视角下的数据集合分别进行训练,在测试视角只有一种时采用单一视角进行识别,而在测试视角有两种时,对PCA和KPCA所得特征采用常规特征级融合方法进行融合。耦合映射对两种视角的训练数据集合进行训练,识别时分别采用三种测试数据集合,以0°和18°为例测试视角分别为0°、18°、0°+18°视角。实验中高斯核函数的参数c=0.02,二次特征提取方法分别选取PCA和LDA算法,常规特征级融合方法采用加权平均的方法,发明专利CN1932882A中所提方法,其中的权值为α=0.5。
在处理多视角的步态识别时,传统方法,传统处理单集合的PCA、KPCA方法以及常规特征级融合方法,与本专利所提方法的识别率比较如图4所示,从图中可以看出本发明所提方法的识别性能优于传统方法,尤其是在步态特征较差的视角下,识别率有了较大提升,其中采用LDA进行二次特征提取取得了最为优越的效果。由此可见,相对于传统方法,本发明所提方法在识别性能方面具有较好的优越性。由于本发明所提方法需要进行二次特征提取,从理论上讲其识别速度会受到影响,因此这里对进行二次特征提取与直接匹配的性能做了对比,如图5所示,该数据是在CPU2.93GHz,2GB内存,MATLAB7.1环境下得到的,从图中可以看出经过二次特征提取后,识别性能有了一定提升,而所需的识别时间并未大幅增加。这是由于一方面二次特征提取的处理对象是低维特征向量,所需时间较少;另一方面经过二次特征提取得到的特征维数也会低于原特征,从而降低特征匹配所需时间。因此,本发明所提方法能够满足实时性需求。
本发明提出一种新颖的特征级融合方法。与传统方法相比,由于本发明所提方法采用耦合映射方法将两个集合的特征进行了统一,从理论上得到了更适合融合的特征;同时在应用时,本发明所提方法既可以对两个集合的数据进行测试,也可以只对单一集合的数据进行测试,因此比常规特征级融合方法有更加广泛的应用空间。
本发明从两个传感器分别获取数据集,在训练时,采用耦合映射方法将不同的数据集投影到一个公共的耦合空间,基于耦合映射方法的特性将耦合空间里的所有数据合并为同一个数据集,其数据容量为原始两个集合的样本数之和,之后进行二次特征提取,得到一个最终所需的特征集合,而后加入常规特征级融合方法得到另一个最终所需的特征集合。而在识别时,与常规特征级融合方法要求测试数据必须包含两个集合的数据不同,基于数据集合并的特征级融合方法的测试数据既可以包含两个集合的数据,也可以只有单一集合的数据,即:可对任意形式的测试对象进行变换得到最终特征,并采用这一特征与训练特征集合(单一数据采用前一种特征集合,两种数据采用后一种特征集合)里的特征进行匹配,得到识别结果。该方法可广泛应用于模式识别领域,以得到稳定的特征进行分类识别。本发明提出的特征级融合方法可以广泛应用于模式识别领域,尤其是基于双模态的生物特征融合与识别。

Claims (4)

1.一种基于数据集合并的特征级融合方法,其特征在于:包括训练过程和识别过程,利用两个视频传感器采集数据,
所述的训练过程包括以下几个步骤:
a1两个视频传感器采集的原始数据分别为数据集采用耦合映射方法将数据集投影到一个公共的耦合空间,求得数据集X的耦合特征Zx和数据集Y的耦合特征Zy
a2将上一步得到的所有耦合特征合并成一个数据集Z=[Zx,Zy],该数据集容量为数据集X和数据集Y的样本数之和;
a3对数据集Z进行二次特征提取,得到一个融合的特征集
a4对步骤a3中得到的特征集Z′进行特征级融合,得到最终特征集合Z″;
所述的识别过程包括以下几个步骤:
b1对任意测试对象进行变换得到最终特征,
当测试对象只有单一集合的数据时,通过二次特征提取,得到的当前测试对象的融合的特征Z′0为最终特征;
当测试对象为两个集合的数据时,先分别对两个集合的数据进行二次特征提取,然后进行特征级融合,得到最终特征Z″0
所述的二次特征提取的方法与步骤a3中的一致,所述的特征级融合与步骤a3中的一致;b2将得到的最终特征Z′0与训练过程得到的融合的特征集Z′里的特征进行匹配,采用最近邻分类器得到识别结果;
将得到的最终特征Z″0与训练过程得到的融合的特征集Z″里的特征进行匹配,采用最近邻分类器得到识别结果。
2.根据权利要求1所述的一种基于数据集合并的特征级融合方法,其特征在于:所述求得数据集X的耦合特征Zx和数据集Y的耦合特征Zy的方法为:
c1、两个数据集分别来自两个视频传感器,样本数分别为Nx和Ny,利用非线性映射将原始数据映射到高维的Hilbert空间F中,并定义两个核函数 K i , j x = ( φ x ( x i ) · φ x ( x j ) ) , K i , j y = ( φ y ( y i ) · φ y ( y j ) ) , 则耦合映射的目标函数为:
min J ( A x , A y ) = min Tr ( A x A y T K ~ x K ~ y G x - C - C T G y K ~ x K ~ y T A x A y )
其中,Tr(·)表示求矩阵的迹,Ax和Ay为耦合变换矩阵对,为中心化后的核矩阵,C为集合X和Y之间的相关关系矩阵,矩阵Gx和Gy都是对角阵,其对角线元素分别为矩阵C的对应行的累加和,对应列的累加和,
求得数据集X的变换矩阵Ax,其大小为Nx×Dc,数据集Y的变换矩阵Ay,其大小为Ny×Dc
c2、利用变换矩阵Ax和Ay,求得数据集X的耦合特征其大小为Dc×Nx,数据集Y的耦合特征其大小为Dc×Ny
3.根据权利要求1所述的一种基于数据集合并的特征级融合方法,其特征在于:所述的二次特征提取方法包括主成分分析PCA和线性判别分析LDA。
4.根据权利要求1所述的一种基于数据集合并的特征级融合方法,其特征在于:所述的特征级融合方法包含特征串联、特征并联和特征加权平均。
CN201510306292.6A 2015-06-08 2015-06-08 一种基于数据集合并的特征级融合方法 Active CN104899604B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510306292.6A CN104899604B (zh) 2015-06-08 2015-06-08 一种基于数据集合并的特征级融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510306292.6A CN104899604B (zh) 2015-06-08 2015-06-08 一种基于数据集合并的特征级融合方法

Publications (2)

Publication Number Publication Date
CN104899604A true CN104899604A (zh) 2015-09-09
CN104899604B CN104899604B (zh) 2018-07-24

Family

ID=54032258

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510306292.6A Active CN104899604B (zh) 2015-06-08 2015-06-08 一种基于数据集合并的特征级融合方法

Country Status (1)

Country Link
CN (1) CN104899604B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224649A (zh) * 2015-09-29 2016-01-06 北京奇艺世纪科技有限公司 一种数据处理方法和装置
CN106446778A (zh) * 2016-08-27 2017-02-22 天津大学 基于加速度传感器的人体运动识别方法
CN109635754A (zh) * 2018-12-17 2019-04-16 四川师范大学 基于非线性耦合度量学习的步态特征融合方法
CN110210018A (zh) * 2019-05-14 2019-09-06 北京百度网讯科技有限公司 挂号科室的匹配方法和装置
WO2020155584A1 (zh) * 2019-01-31 2020-08-06 北京声智科技有限公司 声纹特征的融合方法及装置,语音识别方法,系统及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663371A (zh) * 2012-04-25 2012-09-12 山东大学 一种耦合步态特征的低分辨率人脸识别方法
CN104217211A (zh) * 2014-08-07 2014-12-17 哈尔滨工程大学 基于最优判别耦合投影的多视角步态识别方法
CN104463099A (zh) * 2014-11-05 2015-03-25 哈尔滨工程大学 一种基于图的半监督耦合度量的多角度步态识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663371A (zh) * 2012-04-25 2012-09-12 山东大学 一种耦合步态特征的低分辨率人脸识别方法
CN104217211A (zh) * 2014-08-07 2014-12-17 哈尔滨工程大学 基于最优判别耦合投影的多视角步态识别方法
CN104463099A (zh) * 2014-11-05 2015-03-25 哈尔滨工程大学 一种基于图的半监督耦合度量的多角度步态识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KEJUN WANG等: "An improved kernelized discriminative canonical correlation analysis and its application to gait recognition", 《PROCEEDINGS OF THE 10TH WORLD CONGRESS ON INTELLIGENT CONTROL AND AUTOMATION》 *
王科俊等: "基于耦合度量学习的特征级融合方法及在步态识别中的应用", 《东南大学学报(自然科学版)》 *
王科俊等: "核耦合度量学习方法及其在步态识别中的应用", 《模式识别与人工智能》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224649A (zh) * 2015-09-29 2016-01-06 北京奇艺世纪科技有限公司 一种数据处理方法和装置
CN105224649B (zh) * 2015-09-29 2019-03-26 北京奇艺世纪科技有限公司 一种数据处理方法和装置
CN106446778A (zh) * 2016-08-27 2017-02-22 天津大学 基于加速度传感器的人体运动识别方法
CN109635754A (zh) * 2018-12-17 2019-04-16 四川师范大学 基于非线性耦合度量学习的步态特征融合方法
WO2020155584A1 (zh) * 2019-01-31 2020-08-06 北京声智科技有限公司 声纹特征的融合方法及装置,语音识别方法,系统及存储介质
US11875799B2 (en) 2019-01-31 2024-01-16 SoundAI Technology Co., Ltd. Method and device for fusing voiceprint features, voice recognition method and system, and storage medium
CN110210018A (zh) * 2019-05-14 2019-09-06 北京百度网讯科技有限公司 挂号科室的匹配方法和装置
CN110210018B (zh) * 2019-05-14 2023-07-11 北京百度网讯科技有限公司 挂号科室的匹配方法和装置

Also Published As

Publication number Publication date
CN104899604B (zh) 2018-07-24

Similar Documents

Publication Publication Date Title
Lu et al. Deep metric learning for visual understanding: An overview of recent advances
Doumanoglou et al. Recovering 6D object pose and predicting next-best-view in the crowd
CN108447078B (zh) 基于视觉显著性的干扰感知跟踪算法
CN104899604A (zh) 一种基于数据集合并的特征级融合方法
CN101930537B (zh) 基于弯曲不变量相关特征的三维人脸识别方法及系统
Cui et al. 3D semantic map construction using improved ORB-SLAM2 for mobile robot in edge computing environment
CN102663371B (zh) 一种耦合步态特征的低分辨率人脸识别方法
CN102930300B (zh) 一种飞机目标识别方法及系统
Di Martino et al. Novel classifier scheme for imbalanced problems
CN103218609A (zh) 一种基于隐最小二乘回归的多姿态人脸识别方法及其装置
CN106096528B (zh) 一种基于二维耦合边距Fisher分析的跨视角步态识别方法
CN103295025A (zh) 一种三维模型最优视图的自动选择方法
Zhong et al. Combining multilevel feature extraction and multi-loss learning for person re-identification
CN105095880A (zh) 一种基于lgbp编码的手指多模态特征融合方法
CN103020658B (zh) 二维图像中的物体识别方法
CN103268500A (zh) 一种对行走状态变化具有鲁棒性的步态识别方法
CN103699874A (zh) 基于surf流和lle稀疏表示的人群异常行为识别方法
CN109978042A (zh) 一种融合特征学习的自适应快速K-means聚类方法
CN113378675A (zh) 一种同时检测和特征提取的人脸识别方法
Yu et al. Sparse 3D directional vertices vs continuous 3D curves: efficient 3D surface matching and its application for single model face recognition
Tong et al. Cross-view gait recognition based on a restrictive triplet network
Shao et al. A deep learning-based semantic filter for RANSAC-based fundamental matrix calculation and the ORB-SLAM system
CN102708589B (zh) 一种基于特征聚类的三维目标多视点视图建模方法
Ma et al. 3D convolutional auto-encoder based multi-scale feature extraction for point cloud registration
CN103177264B (zh) 基于视觉词典全局拓扑表达的图像分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant