CN103500342A - 一种基于加速度计的人体行为识别方法 - Google Patents
一种基于加速度计的人体行为识别方法 Download PDFInfo
- Publication number
- CN103500342A CN103500342A CN201310428353.7A CN201310428353A CN103500342A CN 103500342 A CN103500342 A CN 103500342A CN 201310428353 A CN201310428353 A CN 201310428353A CN 103500342 A CN103500342 A CN 103500342A
- Authority
- CN
- China
- Prior art keywords
- sample
- formula
- sigma
- distance
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开一种基于加速度计的人体行为识别分类方法,包括如下步骤:1)收集人体行为样本作为训练集;2)寻找对该训练集识别分类最优的投影矩阵U;3)对无标注数据进行投影;4)对投影后的数据采用最小距离分类器分类,获得识别结果。本发明对标注数据形成的近邻块做局部近似线性的假设,并使块上不同类别之间样本距离足够大,相同类别样本位置顺序信息通过类sigmoid函数惩罚因子尽可能的保留,最后在所有块上目标函数的基础上建立全局目标函数。利用本发明提出的方法能够合适的保留高维空间中样本之间距离的信息,减少识别模型对人工标注样本的依赖,其识别效果优于有代表性的基于线性判别分析的人体行为识别方法。
Description
技术领域
本发明涉及一种模式识别与人工智能技术,特别涉及一种基于加速度计的人体行为识别方法。
背景技术
人类行为识别是一个复杂的问题,横跨很多学科,并且受到了工业信息化领域的极大关注。基本步骤包括感知信号的获取,信息处理和模式分类。最近几年,人们提出了很多有效的方法来自动识别人类行为。这些方法可以归为两类:一类是基于计算机视觉的,另一类是基于加速度传感器的。基于计算机视觉的人类行为分析系统不能很好地应用于工业环境,这是因为该类系统对于光照条件非常敏感。最近几年来基于加速度计的人类行为识别在工业环境中的应用受到越来越多的关注,它可以替代基于计算机视觉的人体行为识别系统。通过固定在人体上的加速度计上的加速度信号,我们可以很好地分析并区分人类的行为,例如走路、跑步和站立。
通常的基于加速度计人体行为是一种监督学习方法,即通过学习人工标注数据,以获得人体行为识别模型,然后对新的数据进行自动人体行为识别。通常采集到的人体行为特征维数非常高,因此降维方法有助于识别性能的提高。传统的全局线性降维的方法主要是基于线性的,其中线性判别分析被广泛地应用在模式分类问题上。线性判别分析法主要通过全局最大化类间距离的同时使类内样本间距离最小,从而实现不同类别之间的可分性。但是,手工标定人体行为样本数据是费时费力的。采用线性判别分析模型进行训练需要人工大量的标注样本,这使得人体行为模型开发成本大量增加,需要人工大量的标注样本。因此,寻找一个需要标注少量样本即可得到满足要求的人体行为分类方法是非常必要的。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于加速度计的人体行为识别方法,该方法是一种只需要少量人工标注样本的基于加速度计人体行为识别方法。
本发明的目的通过下述技术方案实现:一种基于加速度计的人体行为识别方法,可以包括以下步骤:
1)收集N个人体行为样本作为训练集X,即X=[x1,x2,…,xN]∈RD×N,样本维数为D,每个样本有相应的类别标志Ci∈Zn;
2)建立局部优化目标函数:
对每一个已标注的样本xi,可以找到同类样本的k1近邻和不同类别样本的k2近邻来形成一个局部块,即 另外,我们定义Rij为第j个样本相对第i个样本里的位置顺序。我们希望每个局部块的新的低维空间表达,即 满足不同类别间样本距离足够大,同时相同类内样本位置顺序信息尽可能的保留。
对类间样本距离建立(1)式:
对类内样本的位置顺序信息建立(2)式:
其中,(wi)j表示区别小距离和大距离之间的惩罚因子,当原始空间的距离小时,我们赋予低维子空间较大的权重,当距离大时,我们赋予较小的权重。
惩罚因子定义为类-sigmoid函数如下:
这里f(u|μ,σ)是均值为μ,标准差为σ的高斯概率密度函数。均值μ和标准差σ可以分别由以下两条公式估计得到:
这里,dij是高维空间样本之间的距离。参数λ∈[0,1]是由人为定义的,λ越大,位置顺序信息保持的效果更好,但会影响降维性能。另外,参数λ一般可以通过交叉验证得到;
由于局部块Xi是近似线性的,由公式(1)(2)和一个权衡参数γ,可以得到局部优化的目标函数(6):
其中γ∈[0,1]是一个用于整合类内样本和类间样本贡献值的权衡系数。
公式(6)可以进一步化为以下形式:
3)建立全局优化目标函数:
通过样本选择矩阵,低维空间表达Yi的坐标是从全局坐标Y=UTX=[y1,y2,…yN]∈Rd×N中选择出来的,即
Yi=YSi, (8)
这里Si∈RN×(K+1)是选择矩阵。令Fi={i,i1,…iK}为指示集合,则选择矩阵的定义如下:
根据公式(9),公式(7)可以写为:
通过对公式(10)的局部优化求和,我们可以得到整体调整公式(11):
令Y=UTX,而UTU=Id。Id是d×d的单位矩阵。因此公式(9)可以写成:
s.t.UTU=Id,
4)利用拉格朗日乘数法,我们可以将求公式(12)的问题转换为求广义特征值的问题,投影矩阵U由式子XLXT的前d个最小特征值对应的d个特征向量得到;
5)通过对无标注人体行为数据集Xu进行投影,即Yu=UTXu,并对Yu采用最小距离分类器(Minimum Euclidean Distance Classifier,MEDC)分类,可以获得人体行为识别的结果。
本发明也可以包括以下步骤:
1)收集人体行为样本作为训练集X,即X=[x1,x2,…,xN]∈RD×N,样本维数为D,样本个数为N,每个样本有相应的类别标志Ci∈Zn;
2)寻找基于加速度计的人体行为识别分类最优的投影矩阵U;
3)通过对无标注数据Xu进行投影,即Yu=UTXu;
4)对Yu采用最小距离分类器(Minimum Euclidean Distance Classifier,MEDC)分类,以获得人体行为识别的结果;
其特征在于,所述寻找基于加速度计的人体行为识别分类最优的投影矩阵的方法包括以下步骤:
步骤1:建立局部优化目标函数;
步骤2:建立全局优化目标函数;
步骤3:利用拉格朗日乘数法,将求公式(12)的问题转换为求广义特征值的问题,投影矩阵U由式子XLXT的前d个最小特征值对应的d个特征向量得到。
所述步骤1中,建立局部优化目标函数的方法为:对每一个已标注的样本xi,找到同类样本的k1近邻和不同类别样本的k2近邻来形成一个局部块,即 另外,定义Rij为第j个样本相对第i个样本里的位置顺序;我们希望每个局部块的新的低维空间表达,即 满足不同类别样本(类间样本)距离足够大,同时相同类样本(类内样本)位置顺序信息尽量保留;
对类间样本距离建立(1)式:
对类内样本的位置顺序信息建立(2)式:
其中,(wi)j表示区别小距离和大距离之间的惩罚因子,当原始空间的距离小时,我们赋予低维子空间较大的权重,当距离大时,我们赋予较小的权重。
惩罚因子定义为类-sigmoid函数如下:
这里f(u|μ,σ)是均值为μ,标准差为σ的高斯概率密度函数。均值μ和标准差σ可以分别由以下两条公式估计得到:
这里,dij是高维空间样本之间的距离,参数λ∈[0,1]是由人为定义的,λ越大,位置顺序信息保持的效果更好,但会影响降维性能,另外,参数λ一般可以通过交叉验证得到;
由于局部块Xi是近似线性的,由公式(1)(2)和一个权衡参数γ,可以得到局部优化的目标函数(6):
其中,γ∈[0,1]是一个用于整合类内样本和类间样本贡献值的权衡系数;
公式(6)可以进一步化为以下形式:
所述步骤2中,建立全局优化目标函数的方法为:通过样本选择矩阵,低维空间表达Yi的坐标是从全局坐标Y=UTX=[y1,y2,…yN]∈Rd×N中选择出来的,即
Yi=YSi, (8)
这里Si∈RN×(K+1)是选择矩阵。令Fi={i,i1,…iK}为指示集合,则选择矩阵的定义如下:
根据公式(9),公式(7)可以写为:
通过对公式(10)的局部优化求和,我们可以得到整体调整公式(11):
令Y=UTX,而UTU=Id。Id是d×d的单位矩阵。因此公式(9)可以写成:
s.t.UTU=Id,
本发明相对于现有技术具有如下的优点及效果:
1、通过对标注数据形成的近邻块做局部近似线性的假设,并使块上不同类别之间样本距离足够大,相同类别样本位置顺序信息通过类sigmoid函数惩罚因子尽可能的保留,最后在所有块上目标函数的基础上建立全局目标函数。这样设计与有代表性的基于线性判别分析的识别方法而言,能够合适的保留高维空间中样本之间的距离信息,其识别效果优于基于线性判别分析的人体行为识别方法。
2、本发明可以用少量样本获得很好的识别率,因此减少了人体行为识别模型对人工标注样本的依赖。
3、相对于传统的基于线性判别分析全局线性降维方法,采用本发明可以有效减少训练和测试过程中的存储成本。
附图说明
图1是本发明实施例的流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
为了清楚说明本发明对于基于加速度计的人体行为识别的有效性,如图1所示,在本实施例中进行了人体行为识别的试验,并与经典的线性判别分析(LDA)进行对比。
试验数据选择常见的SCUT NAA数据集,华南理工大学自然的基于加速度传感器的人体动作(SCUT NAA)数据库是第一款公开的基于三轴加速度传感器的人体动作数据库。该数据库是在完全自然的条件下,仅用一个三轴加速度传感器,放置在采集者的腰带位置采集的数据,包括44个不同采集者(34个男性,10个女性)的1278个样本,总共10类动作。这些动作覆盖了很大的运动范围,例如静态动作坐、较轻的动作走路和剧烈活动动作跳跃和跑步。
另外,我们对加速度传感器的数据,提取了FFT特征,提取特征的窗口大小为512个点,连续窗口之间重叠了256个采样点。对于滑动窗口来说,提取前64个FFT系数,由于第一个系数是直流成分,因此被舍弃。每个基于加速度计的人体行为动作连续采样4096点,最终的FFT特征有945维。
具体实施步骤如下:(将实施例与图1结合来具体阐述试验步骤以及列举试验结果)
步骤1:由于每类的样本数量最多为44个,所以我们每类保留一个作为测试样本生成测试集数据Xu,剩余的样本作为人体行为识别模型的训练样本集X,即X=[x1,x2…,xN]∈RD×N,样本维数为D=945维,训练样本个数为1234,每个样本有相应的类别标志Ci∈Zn。
2)建立局部优化目标函数:
对每一个已标注的样本xi,我们可以找到类内样本的k1近邻和类间样本的k2近邻来形成一个局部块,即 另外,我们定义Rij为第j个样本相对第i个样本里的位置顺序。我们希望每个局部块的新的低维空间表达,即 满足不同类别间样本距离足够大,同时相同类内样本位置顺序信息尽可能的保留。
我们对类间样本距离建立(1)式:
我们对类内样本的位置顺序信息建立(2)式:
其中(wi)j表示区别小距离和大距离之间的惩罚因子,当原始空间的距离小时,我们赋予低维子空间较大的权重,当距离大时,我们赋予较小的权重。
惩罚因子定义为类-sigmoid函数如下:
这里f(u|μ,σ)是均值为μ,标准差为σ的高斯概率密度函数。均值μ和标准差σ可以分别由以下两条公式估计得到:
这里,dij是高维空间样本之间的距离。参数λ∈[0,1]是由人为定义的,λ越大,位置顺序信息保持的效果更好,但会影响降维性能。另外,参数λ一般可以通过交叉验证得到。
由于局部块Xi是近似线性的,由公式(1)(2)和一个权衡参数γ,可以得到局部优化的目标函数(6):
其中γ∈[0,1]是一个用于整合类内样本和类间样本贡献值的权衡系数。
公式(6)可以进一步化为以下形式:
其中,tr(·)是迹算子,
3)建立全局优化目标函数:
通过样本选择矩阵,低维空间表达Yi的坐标是从全局坐标Y=UTX=[y1,y2,…yN]∈Rd×N中选择出来的,即:
Yi=YSi, (8)
这里Si∈RN×(K+1)是选择矩阵。令Fi={i,i1,…iK}为指示集合,则选择矩阵的定义如下:
根据公式(9),公式(7)可以写为:
通过对公式(10)的局部优化求和,我们可以得到整体调整公式(11):
令Y=UTX,而UTU=Id。Id是d×d的单位矩阵。因此公式(9)可以写成:
s.t.UTU=Id,
4)利用拉格朗日乘数法,可以将求公式(12)的问题转换为求广义特征值的问题。投影矩阵U由式子XLXT的前d=41个最小特征值对应的d=41个特征向量得到。
5)通过对无标注人体行为数据测试Xu进行投影,即Yu=UTXu,并对Yu采用最小距离分类器(Minimum Euclidean Distance Classifier,MEDC)分类,可以获得人体行为识别的结果。
表1对本专利方法与常见的基于线性判别分析的方法进行了对比,可以看出本专利方法有明显的优势。
表1为本专利方法与常见的基于线性判别分析的方法在SCUT NAA数据库的实验结果:
方法 | 线性判别分析(LDA) | 本专利方法 |
识别率 | 78.7% | 88.4% |
表1
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (3)
1.一种基于加速度计的人体行为识别方法,包括以下步骤:
1)收集人体行为样本作为训练集X,即:X=[x1,x2,…,xN]∈RD×N,样本维数为D,样本个数为N,每个样本有相应的类别标志Ci∈Zn;
2)寻找基于加速度计的人体行为识别分类最优的投影矩阵U;
3)通过对无标注数据Xu进行投影,即:Yu=UTXu;
4)对Yu采用最小距离分类器分类,以获得人体行为识别的结果;
其特征在于,所述寻找基于加速度计的人体行为识别分类最优的投影矩阵的方法包括以下步骤:
步骤1:建立局部优化目标函数;
步骤2:建立全局优化目标函数;
步骤3:利用拉格朗日乘数法,投影矩阵U由式子XLXT的前d个最小特征值对应的d个特征向量得到。
2.根据权利要求1所述的基于加速度计的人体行为识别方法,其特征在于,所述步骤1中,建立局部优化目标函数的方法为:对每一个已标注的样本xi,找到同类样本的k1近邻和不同类别样本的k2近邻来形成一个局部块,即 另外,定义Rij为第j个样本相对第i个样本里的位置顺序;当 时,满足不同类别样本距离足够大,同时,相同类样本位置顺序信息尽量保留;
对类间样本距离建立(1)式:
对类内样本的位置顺序信息建立(2)式:
式中,(wi)j表示区别小距离和大距离之间的惩罚因子,当原始空间的距离小时,赋予低维子空间较大的权重,当距离大时,赋予较小的权重;
所述惩罚因子定义为类-sigmoid函数,所述惩罚因子的表达式如下:
式中,f(u|μ,σ)是均值为μ,标准差为σ的高斯概率密度函数,均值μ和标准差σ可以分别由以下两条公式估计得到:
式中,dij是高维空间样本之间的距离,参数λ∈[0,1],并且,参数λ通过交叉验证得到;
由于局部块Xi是近似线性的,由公式(1)(2)和一个权衡参数γ,得到局部优化的目标函数(6):
式中,γ∈[0,1]是一个用于整合类内样本和类间样本贡献值的权衡系数;公式(6)进一步化为以下形式:
式中,tr(·)是迹算子,
3.根据权利要求1所述的基于加速度计的人体行为识别方法,其特征在于,所述步骤2中,建立全局优化目标函数的方法为:通过样本选择矩阵,低维空间表达Yi的坐标是从全局坐标Y=UTX=[y1,y2,…yN]∈Rd×N中选择出来的,即:
Yi=YSi, (8)
式中,Si∈RN×(K+1)是选择矩阵,令Fi={i,i1,…iK}为指示集合,则选择矩阵的定义如下:
根据公式(9),公式(7)写为:
通过对公式(10)的局部优化求和,得到整体调整公式(11):
令Y=UTX,而UTU=Id,这里Id是d×d维的单位矩阵,因此公式(9)写成:
s.t.UTU=Id,
式中,U为投影矩阵;X为训练集;为全局校准矩阵;s.t.为subject to,即满足约束;Id为d×d维的单位矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310428353.7A CN103500342B (zh) | 2013-09-18 | 2013-09-18 | 一种基于加速度计的人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310428353.7A CN103500342B (zh) | 2013-09-18 | 2013-09-18 | 一种基于加速度计的人体行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103500342A true CN103500342A (zh) | 2014-01-08 |
CN103500342B CN103500342B (zh) | 2017-01-04 |
Family
ID=49865547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310428353.7A Active CN103500342B (zh) | 2013-09-18 | 2013-09-18 | 一种基于加速度计的人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103500342B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810496A (zh) * | 2014-01-09 | 2014-05-21 | 江南大学 | 基于图像深度信息的3d高斯空间人体行为识别方法 |
CN104537252A (zh) * | 2015-01-05 | 2015-04-22 | 深圳市腾讯计算机系统有限公司 | 用户状态单分类模型训练方法和装置 |
WO2015165260A1 (zh) * | 2014-04-29 | 2015-11-05 | 华南理工大学 | 一种用于人体动作识别的三轴特征融合方法 |
CN105447467A (zh) * | 2015-12-01 | 2016-03-30 | 北京航空航天大学 | 一种用户行为模式的识别系统和识别方法 |
CN105590108A (zh) * | 2016-02-25 | 2016-05-18 | 云南大学 | 一种有噪环境下的场景识别方法 |
CN105956558A (zh) * | 2016-04-26 | 2016-09-21 | 陶大鹏 | 一种基于三轴加速度传感器人体动作识别方法 |
CN106574830A (zh) * | 2014-04-22 | 2017-04-19 | 博拉斯特运动有限公司 | 使用软约束和惩罚函数初始化惯性传感器 |
CN106919947A (zh) * | 2015-12-25 | 2017-07-04 | 中国移动通信集团公司 | 一种用户吃饭行为识别的方法及装置 |
WO2020098119A1 (zh) * | 2018-11-13 | 2020-05-22 | 平安科技(深圳)有限公司 | 加速度识别方法、装置、计算机设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101159019A (zh) * | 2007-11-08 | 2008-04-09 | 复旦大学 | 一种用于k近邻分类的线性特征提取方法 |
US20120134532A1 (en) * | 2010-06-08 | 2012-05-31 | Gorilla Technology Inc. | Abnormal behavior detection system and method using automatic classification of multiple features |
CN102867191A (zh) * | 2012-09-04 | 2013-01-09 | 广东群兴玩具股份有限公司 | 一种基于流形子空间学习的降维方法 |
CN103077405A (zh) * | 2013-01-18 | 2013-05-01 | 浪潮电子信息产业股份有限公司 | 一种基于Fisher判别分析的贝叶斯分类方法 |
-
2013
- 2013-09-18 CN CN201310428353.7A patent/CN103500342B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101159019A (zh) * | 2007-11-08 | 2008-04-09 | 复旦大学 | 一种用于k近邻分类的线性特征提取方法 |
US20120134532A1 (en) * | 2010-06-08 | 2012-05-31 | Gorilla Technology Inc. | Abnormal behavior detection system and method using automatic classification of multiple features |
CN102867191A (zh) * | 2012-09-04 | 2013-01-09 | 广东群兴玩具股份有限公司 | 一种基于流形子空间学习的降维方法 |
CN103077405A (zh) * | 2013-01-18 | 2013-05-01 | 浪潮电子信息产业股份有限公司 | 一种基于Fisher判别分析的贝叶斯分类方法 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810496A (zh) * | 2014-01-09 | 2014-05-21 | 江南大学 | 基于图像深度信息的3d高斯空间人体行为识别方法 |
CN103810496B (zh) * | 2014-01-09 | 2017-01-25 | 江南大学 | 基于图像深度信息的3d高斯空间人体行为识别方法 |
CN106574830A (zh) * | 2014-04-22 | 2017-04-19 | 博拉斯特运动有限公司 | 使用软约束和惩罚函数初始化惯性传感器 |
CN106574830B (zh) * | 2014-04-22 | 2019-06-11 | 博拉斯特运动有限公司 | 使用软约束和惩罚函数初始化惯性传感器 |
WO2015165260A1 (zh) * | 2014-04-29 | 2015-11-05 | 华南理工大学 | 一种用于人体动作识别的三轴特征融合方法 |
CN104537252A (zh) * | 2015-01-05 | 2015-04-22 | 深圳市腾讯计算机系统有限公司 | 用户状态单分类模型训练方法和装置 |
CN104537252B (zh) * | 2015-01-05 | 2019-09-17 | 深圳市腾讯计算机系统有限公司 | 用户状态单分类模型训练方法和装置 |
CN105447467A (zh) * | 2015-12-01 | 2016-03-30 | 北京航空航天大学 | 一种用户行为模式的识别系统和识别方法 |
CN106919947A (zh) * | 2015-12-25 | 2017-07-04 | 中国移动通信集团公司 | 一种用户吃饭行为识别的方法及装置 |
CN106919947B (zh) * | 2015-12-25 | 2019-12-13 | 中国移动通信集团公司 | 一种用户吃饭行为识别的方法及装置 |
CN105590108B (zh) * | 2016-02-25 | 2018-08-17 | 云南大学 | 一种有噪环境下的场景识别方法 |
CN105590108A (zh) * | 2016-02-25 | 2016-05-18 | 云南大学 | 一种有噪环境下的场景识别方法 |
CN105956558A (zh) * | 2016-04-26 | 2016-09-21 | 陶大鹏 | 一种基于三轴加速度传感器人体动作识别方法 |
CN105956558B (zh) * | 2016-04-26 | 2019-07-23 | 深圳市联合视觉创新科技有限公司 | 一种基于三轴加速度传感器人体动作识别方法 |
WO2020098119A1 (zh) * | 2018-11-13 | 2020-05-22 | 平安科技(深圳)有限公司 | 加速度识别方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103500342B (zh) | 2017-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103500342A (zh) | 一种基于加速度计的人体行为识别方法 | |
CN108615010B (zh) | 基于平行卷积神经网络特征图融合的人脸表情识别方法 | |
CN106611169B (zh) | 一种基于深度学习的危险驾驶行为实时检测方法 | |
CN104143079B (zh) | 人脸属性识别的方法和系统 | |
CN103268495B (zh) | 计算机系统中基于先验知识聚类的人体行为建模识别方法 | |
CN105894047A (zh) | 一种基于三维数据的人脸分类系统 | |
CN106408030B (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN102982321B (zh) | 人脸库采集方法及装置 | |
CN105205501B (zh) | 一种多分类器联合的弱标注图像对象检测方法 | |
CN103984948B (zh) | 一种基于人脸图像融合特征的软双层年龄估计方法 | |
CN109902590A (zh) | 深度多视图特征距离学习的行人重识别方法 | |
CN111291604A (zh) | 面部属性识别方法、装置、存储介质及处理器 | |
CN105005765A (zh) | 一种基于Gabor小波和灰度共生矩阵的人脸表情识别方法 | |
CN104463100A (zh) | 基于面部表情识别模式的智能轮椅人机交互系统及方法 | |
CN111008583A (zh) | 一种利用肢体特征辅助的行人和骑车人姿态估计方法 | |
CN103971106B (zh) | 多视角人脸图像性别识别方法及装置 | |
CN103366160A (zh) | 融合肤色、人脸和敏感部位检测的不良图像判别方法 | |
CN101799875B (zh) | 一种目标检测方法 | |
CN103268485A (zh) | 基于稀疏正则化的实现多波段人脸图像信息融合的人脸识别方法 | |
CN106203450A (zh) | 基于深度学习框架对图像进行特征提取的目标检测方法 | |
CN111199202B (zh) | 基于循环注意力网络的人体动作识别方法及识别装置 | |
CN109472226A (zh) | 一种基于深度学习的睡觉行为检测方法 | |
CN104598885A (zh) | 街景图像中的文字标牌检测与定位方法 | |
CN106203296B (zh) | 一种属性辅助的视频动作识别方法 | |
CN104778482A (zh) | 基于张量半监督标度切维数约减的高光谱图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |