CN105868711B - 一种基于稀疏低秩的人体行为识别方法 - Google Patents

一种基于稀疏低秩的人体行为识别方法 Download PDF

Info

Publication number
CN105868711B
CN105868711B CN201610184336.7A CN201610184336A CN105868711B CN 105868711 B CN105868711 B CN 105868711B CN 201610184336 A CN201610184336 A CN 201610184336A CN 105868711 B CN105868711 B CN 105868711B
Authority
CN
China
Prior art keywords
rank
low
value
motion
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610184336.7A
Other languages
English (en)
Other versions
CN105868711A (zh
Inventor
解梅
程石磊
王博
周扬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Houpu Clean Energy Group Co ltd
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201610184336.7A priority Critical patent/CN105868711B/zh
Publication of CN105868711A publication Critical patent/CN105868711A/zh
Application granted granted Critical
Publication of CN105868711B publication Critical patent/CN105868711B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2136Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于数字图像处理技术领域,涉及计算机视觉、模式识别、机器学习和数据挖掘等相关理论知识。本发明首先利用光流直方图对相邻两帧图片提取光流特征,并对单帧图像提取梯度直方图信息,获得监测场景内的运动特征信息,采用低维空间的特征信息并按照[动作1|动作2|动作3|……]的方式排列;然后用K均值的方式聚类,得到聚类中心后,将聚类中心作为过完备字典,求解测试样本在过完备字典下的稀疏低秩表达,得到表达矩阵;最后根据表达矩阵中的最大值求解出该测试样本所属的行为类别。本发明采用基于低秩稀疏的人体动作识别,采用交叉验证的方法,识别率92.3~98.79%,误识率1.21~7.6%。本发明具有具有低秩特点,且识别率上达到92.3~98.79%,误识率1.21~7.6%。

Description

一种基于稀疏低秩的人体行为识别方法
技术领域
本发明属于数字图像处理技术领域,涉及计算机视觉、模式识别、机器学习和数据挖掘等相关理论知识。
背景技术
视频人体动作的分析与表示是计算机视觉领域的一个研究热点,其主要任务是从视频中检测、提取和表示人体运动信息,它涉及图像处理、机器学习、应用物理、数学等多个学科,具有重要的理论和实际应用价值。由于人体运动的复杂性和多样性,尽管经历了十几年的研究,视频人体动作识别仍然难以应用于实际环境。作为人体动作识别的核心,动作表示和识别仍然存在大量亟待解决的问题。
人体动作识别通常可以分为两个步骤:行为描述(表示)和行为分类,行为分类问题通常采用支持向量机(SVM),最近邻分类法(KNN),但根据不同的行为特征提取方法,行为描述也相应的有不同的表示方法,行为描述方法涉及行为特征的排列组合,聚合与抽象,因此行为描述的是否恰当直接影响行为识别的优劣。
行为描述存在的问题有:
1、当视频画面中存在较大人体运动信息时,这时运动信息的初级特征会呈现快速膨胀,这就意味着需要消耗大量时间和内存资源进行聚类运算,而且聚类中心个数的确定也是一个较难处理的问题,尤其是在数据集容量很大的情况下。
2、在复杂背景环境下,人体行为既存在大量遮挡,同时光照强度的频繁变化都不利于对人体行为进行正确的描述。
当前行为表达主要有以下几种方法:
一、基于特征袋模型(Bag-of-Features, BOF)结合局部时空形状信息用于动作描述,然后对这些动作描述子进行聚类,形成可视化的聚类中心,因此可将不同的行为以不同的聚类中心进行表达,最后应用K近邻法,计算行为描述子与聚类中心的距离,根据距离大小进行图像分类的方法,获得很好的识别率。这种方法的将完整的运动图像割裂为等长排列的向量,忽略了运动信息的时空特性,因此对于“跳跃”和“奔跑”等相近动作识别效果不佳。
二、基于低秩的行为表达,这种表达方法首先提取不同动作的行为特征,然后用这些特征建立过完备字典,并假定待分类的动作可以用过完备字典进行线性表达,并且这种线性表达存在低秩性质,也即过完备字典中的某些列向量对表示待分类样本起作用,而其他列向量不起作用,同样这种行为描述法也取得了很好的效果,但这种方法,忽略了表达的稀疏性,因此表达存在信息冗余。
目前行为识别算法主要是采用图像分类的处理方法,即先将训练样本中的运动视频提取特征,然后将这些特征按照时间顺序依次排列,从而得到若干时空立方体,为了保证有保留视频中的局部信息的往往将这些立方体分割成小的立方体,然后将这些立方体向量化,同样按照时间顺序依次排列,对每个动作视频都采用上述方式进行处理后,得到一个样本字典,接下来对样本字典进行聚类,聚类的结果是得到特征均值,相当于得到了训练样本的模板,最后对测试样本同样采用提取特征,分割的处理后,得到测试视频的样本集,最后计算测试样本集与模板之间的距离,根据距离大小判定测试样本所属的类别。这种方法由于采用了向量化的处理方法,忽略了运动特征的时空分布特性,因此存在明显的信息损失,而且这种方法需要大量的距离运算,运算复杂度较高,同时聚类中心的数目也对识别结果产生很大的影响。
发明内容
针对上述存在问题或不足,本发明提出了一种基于稀疏低秩的人体行为识别方法。
该基于稀疏低秩的人体行为识别方法,包括场景特征提取,特征聚类,低秩稀疏表达和行为识别四个步骤。如图1所示,具体步骤如下:
步骤1、视频图像灰度转换并提取场景特征
步骤1-1:首先接收监测设备采集到的视频流,对得到的单帧图像进行灰度化处理。
步骤1-2:将每帧图片归一化成96*48的大小;每个cell的大小为8*8的像素点,每个block中包含2*2个cell即16*16的像素点;相邻block有一半的区域是重叠的;梯度方向分为9个方向,这样得到的一张图片的HOG特征向量为1980维。
HOF的计算是对连续两帧灰度图像在3*3的网格中提取光流直方图特征,即每3*3的网格求出一个光流特征向量,根据视频帧的不同大小可以得到
Figure DEST_PATH_IMAGE002
个光流特征向量,将光流范围0~2
Figure DEST_PATH_IMAGE004
等分成32个子空间,构建32维的直方图
Figure DEST_PATH_IMAGE006
,在统计直方图时,根据角度值对应位置投票,投票所得结果作为权值,因此得权值向量
Figure DEST_PATH_IMAGE008
,其中
Figure DEST_PATH_IMAGE010
为每个网格的索引值,
Figure DEST_PATH_IMAGE012
是网格总数,
Figure DEST_PATH_IMAGE014
为第
Figure 618282DEST_PATH_IMAGE010
个网格中32维直方图
Figure 269844DEST_PATH_IMAGE006
对应的权值。
步骤2、特征聚类
设光流特征向量
Figure DEST_PATH_IMAGE016
,对于每一个特征向量,动作类型计算公式:
Figure DEST_PATH_IMAGE018
对于每类j,重新计算该类质心
Figure DEST_PATH_IMAGE020
步骤3、低秩稀疏表达
步骤3-1:将聚类中心构成的字典
Figure DEST_PATH_IMAGE022
Figure DEST_PATH_IMAGE024
为一个
Figure DEST_PATH_IMAGE026
的矩阵,
Figure DEST_PATH_IMAGE028
为特征维度,测试样本集
Figure DEST_PATH_IMAGE030
Figure 830007DEST_PATH_IMAGE024
中的任意一列
Figure DEST_PATH_IMAGE032
都可以用
Figure DEST_PATH_IMAGE034
进行线性表达,将这种关系式写为:
Figure DEST_PATH_IMAGE036
,其中
Figure DEST_PATH_IMAGE038
的每一列表示
Figure 38265DEST_PATH_IMAGE024
的对应列用
Figure 587058DEST_PATH_IMAGE034
进行线性表达的系数,矩阵
Figure 143942DEST_PATH_IMAGE038
称之为表达子,
Figure DEST_PATH_IMAGE040
为由噪声引起的误差。
步骤3-2:据此建立目标方程:
Figure DEST_PATH_IMAGE042
式(1)
其中
Figure DEST_PATH_IMAGE044
Figure DEST_PATH_IMAGE046
分别表示各项的关注因子,它们的值越大,表示相关项越受关注。这里
Figure DEST_PATH_IMAGE048
,公式中分别用核范数和L1范数求解低秩和稀疏问题。
步骤3-3:求解步骤3-2中的公式(1),这里用到了增广拉格朗日乘数法,得到目标函数后分别对各个参数进行迭代优化,则参数的迭代过程为:
Figure DEST_PATH_IMAGE050
;
其中
Figure DEST_PATH_IMAGE052
Figure DEST_PATH_IMAGE054
,
Figure DEST_PATH_IMAGE056
,
Figure DEST_PATH_IMAGE058
,
Figure DEST_PATH_IMAGE060
,
Figure DEST_PATH_IMAGE062
,
其中函数
Figure DEST_PATH_IMAGE064
Figure DEST_PATH_IMAGE066
分别表示奇异值压缩算子和压缩算子,
Figure DEST_PATH_IMAGE068
=
Figure DEST_PATH_IMAGE070
,
Figure DEST_PATH_IMAGE072
,各参量的初始值为
Figure DEST_PATH_IMAGE074
Figure DEST_PATH_IMAGE076
步骤4、行为识别
步骤4-1、通过步骤3求得的稀疏低秩矩阵Z,其中Z的每一列就是测试样本在D中的线性表达,现在只需要找出表达最大的那个系数即可知道测试样本所属的类别,采用最大池化法,即找出矩阵Z中每一行的最大值。
Figure DEST_PATH_IMAGE078
表示从
Figure DEST_PATH_IMAGE080
个行向量中,提取T个最大值,形成向量
Figure DEST_PATH_IMAGE084
步骤4-2、分别找出这T个值所对应的相应类别,并计算该类别在矩阵
Figure DEST_PATH_IMAGE086
中对应的系数,并把相同类别的系数叠加起来,得到的最大值所对应的类别即为最终的识别结果。相应的计算公式如下:
Figure DEST_PATH_IMAGE088
上式表示取
Figure 210129DEST_PATH_IMAGE038
中行向量中最大值的前T个。
Figure DEST_PATH_IMAGE090
步骤2的聚类结果。
PreC =
Figure DEST_PATH_IMAGE092
, 其中
Figure DEST_PATH_IMAGE094
是DiracDelta函数,PreC即为最终的识别结果,T取5~10。
所述步骤4-1中最大池化法是指:选择图像区域的最大值作为该区域池化后的值,所谓池化,是指对图像中不重合区域的聚合操作。
本发明首先利用光流直方图对相邻两帧图片提取光流特征,并对单帧图像提取梯度直方图信息,获得监测场景内的运动特征信息,为了保持场景分析的时空一致性,因而采用低维空间的特征信息,对特征信息按照[动作1|动作2|动作3|……]的方式排列;然后用K均值的方式聚类,得到聚类中心后,将聚类中心作为过完备字典,求解测试样本在过完备字典下的稀疏低秩表达,得到表达矩阵;最后根据表达矩阵中的最大值求解出该测试样本所属的行为类别。本发明采用基于低秩稀疏的人体动作识别,采用交叉验证的方法,识别率92.3~98.79%,误识率1.21~7.6%。
本发明通过使用基于稀疏低秩表达的行为识别方法,该方法的主要特点是,模板字典的建立并不是特征向量的堆叠而是采用聚类中心为过完备字典,字典具有更好的凝聚作用,并且在字典于测试样本的距离计算上,并不是采用欧式距离直接计算,而是找出测试样本在字典下的线性表达,通过线性表达具有的稀疏性与低秩性,以此来表征行为类别的距离。
综上所述,本发明具有具有低秩特点,且识别率上达到92.3~98.79%,误识率1.21~7.6%。
附图说明
图1为稀疏低秩表达的人体行为识别总体流程示意图;
图2为当T =10时,不同聚类数目下的识别率;
图3为聚类中心数K=2000时,不同T值的识别率;
图4分别为:图4A运用词袋法,图4B运用低秩表示和图4C运用稀疏低秩表示的在实际拍摄视频中得到的混淆矩阵;
图5为低秩稀疏表达流程伪代码。
具体实施方式
实现语言:Matlab
硬件平台:Intel i3 2120+4G DDR RAM
本发明方法通过在Matlab上进行直观、有效的算法验证。
通过在学校广场采集行人活动对词袋法,低秩法以及本专利描述的方法进行测试,行人活动主要包括:弯腰、跌倒、拍手、挥手、跑步、蹲下、走路7种行为,测试结果,如图4所示。相比之下,运用本专利描述的方法取得了较好的识别效果。其中运用词袋法(图4A)识别效果明显低于低秩表示法和本专利所述方法,而低秩表示法在弯腰,跌倒动作上和低秩稀疏表示法基本持平,但在其他动作识别上要略低于本专利所述方法。
图2为当T =10时,不同聚类数目下的识别率。
图3为聚类中心数K=2000时,不同T值的识别率。
图5为低秩稀疏表达流程伪代码。
通过大量的有效测试,与传统的异常行为检测算法相比较,本发明的方法具很高的正确识别率以及在简单环境中具有很好的鲁棒性。

Claims (2)

1.一种基于稀疏低秩的人体行为识别方法,具体步骤如下:
步骤1、视频图像灰度转换并提取场景特征;
步骤1-1:首先接收监测设备采集到的视频流,对得到的单帧图像进行灰度化处理;
步骤1-2:将每帧图片归一化成96*48的大小;每个cell的大小为8*8的像素点,每个block中包含2*2个cell即16*16的像素点;相邻block有一半的区域是重叠的;梯度方向分为9个方向,这样得到的一张图片的HOG特征向量为1980维;
HOF的计算是对连续两帧灰度图像在3*3的网格中提取光流直方图特征,即每3*3的网格求出一个光流特征向量,根据视频帧的不同大小可以得到N个光流特征向量,将光流范围0~2π等分成32个子空间,构建32维的直方图B,在统计直方图时,根据角度值对应位置投票,投票所得结果作为权值,因此得权值向量h=[hk],k={1,2,3...,K},其中k为每个网格的索引值,K是网格总数,hk为第k个网格中32维直方图B对应的权值;
步骤2、特征聚类
设特征向量x=[xi],i={1,2,3...,m},对于每一个特征向量,动作类型计算公式:
Figure FDA0002198740790000011
对于每类j,重新计算该类质心
Figure FDA0002198740790000012
步骤3、低秩稀疏表达
步骤3-1:将聚类中心构成的字典D=[dk],k={1,2,3...,n},则X为一个ds×n的矩阵,ds为特征维度,测试样本集X=[xk],k={1,2,3...,n},X中的任意一列xi都可以用D进行线性表达,将这种关系式写为:X=DZ+E,其中Z的每一列表示X的对应列用D进行线性表达的系数,矩阵Z称之为表达子,E为由噪声引起的误差;
步骤3-2:据此建立目标函数:
argminZ,E||Z||*+β||Z||1+γ||E||1 s.t.X=DZ+E (1)
其中β和γ分别表示各项的关注因子,它们的值越大,表示相关项越受关注,这里β=2,γ=2,公式中分别用核范数和L1范数求解低秩和稀疏问题;
步骤3-3:求解步骤3-2中的公式(1),这里用到了增广拉格朗日乘数法,得到目标函数后分别对各个参数进行迭代优化,则参数的迭代过程为:
Figure FDA0002198740790000013
其中
Figure FDA0002198740790000014
Figure FDA0002198740790000015
Figure FDA0002198740790000021
Y1,k+1=Y1,kk(X-DZk+1-Ek+1),
Y2,k+1=Y2,kk(Zk+1-WK+1),
μk+1=ρμk
其中函数J和Θ分别表示奇异值压缩算子和压缩算子,
Figure FDA0002198740790000024
ρ=1.1,各参量的初始值为Z0=W0=E0=Y1,0=Y2,0=0;μk为惩罚参数,μk=10-6
步骤4、行为识别
步骤4-1、通过步骤3求得的稀疏低秩矩阵Z,其中Z的每一列就是测试样本在D中的线性表达,现在只需要找出表达最大的那个系数即可知道测试样本所属的类别,采用最大池化法,即找出矩阵Z中每一行的最大值;令yi=max(|zi1|,|zi2|,...|zin|),i=1,2,...T,in=1,2...l表示从Z的l个行向量中,提取T个最大值,形成向量yi,i=1,2,...T;
步骤4-2、分别找出这T个值所对应的相应类别,并计算该类别在矩阵Z中对应的系数,并把相同类别的系数叠加起来,得到的最大值所对应的类别即为最终的识别结果;
分别找出对应的
Figure FDA0002198740790000022
i=1,2,...T<K;C为之前步骤2的聚类结果;
Figure FDA0002198740790000023
i=1,2,...T,j∈Pj其中δ(·)是Dirac Delta函数,PreC即为最终的识别结果,T取5~10。
2.如权利要求1所述基于稀疏低秩的人体行为识别方法,其特征在于:所述步骤4-1中最大池化法是指:选择图像区域的最大值作为该区域池化后的值;所谓池化,是指对图像中不重合区域的聚合操作。
CN201610184336.7A 2016-03-28 2016-03-28 一种基于稀疏低秩的人体行为识别方法 Active CN105868711B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610184336.7A CN105868711B (zh) 2016-03-28 2016-03-28 一种基于稀疏低秩的人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610184336.7A CN105868711B (zh) 2016-03-28 2016-03-28 一种基于稀疏低秩的人体行为识别方法

Publications (2)

Publication Number Publication Date
CN105868711A CN105868711A (zh) 2016-08-17
CN105868711B true CN105868711B (zh) 2020-04-17

Family

ID=56625069

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610184336.7A Active CN105868711B (zh) 2016-03-28 2016-03-28 一种基于稀疏低秩的人体行为识别方法

Country Status (1)

Country Link
CN (1) CN105868711B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107092875B (zh) * 2017-04-11 2020-02-07 福州大学 一种新的场景识别方法
CN107766790B (zh) * 2017-08-31 2021-04-30 电子科技大学 一种基于局部约束低秩编码的人体行为识别方法
TWI662514B (zh) 2018-09-13 2019-06-11 緯創資通股份有限公司 跌倒偵測方法以及使用此方法的電子系統
CN111414868B (zh) * 2020-03-24 2023-05-16 北京旷视科技有限公司 时序动作片段的确定方法、动作检测方法及装置
CN111639674B (zh) * 2020-04-29 2023-10-31 安徽师范大学 一种基于半监督学习图像聚类的数据处理方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103440471A (zh) * 2013-05-05 2013-12-11 西安电子科技大学 基于低秩表示的人体行为识别方法
CN104036287A (zh) * 2014-05-16 2014-09-10 同济大学 一种基于人类运动显著轨迹的视频分类方法
CN104298977A (zh) * 2014-10-24 2015-01-21 西安电子科技大学 一种基于不相关性约束的低秩表示人体行为识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103440471A (zh) * 2013-05-05 2013-12-11 西安电子科技大学 基于低秩表示的人体行为识别方法
CN104036287A (zh) * 2014-05-16 2014-09-10 同济大学 一种基于人类运动显著轨迹的视频分类方法
CN104298977A (zh) * 2014-10-24 2015-01-21 西安电子科技大学 一种基于不相关性约束的低秩表示人体行为识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于结构化低秩表示的人体行为识别方法";贾航华;《中国优秀硕士学位论文全文数据库信息科技辑》;20160315;第I138-6657页 *

Also Published As

Publication number Publication date
CN105868711A (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
CN109344736B (zh) 一种基于联合学习的静态图像人群计数方法
CN108108751B (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
CN105868711B (zh) 一种基于稀疏低秩的人体行为识别方法
CN107085716A (zh) 基于多任务生成对抗网络的跨视角步态识别方法
CN104123560B (zh) 基于相位编码特征和多度量学习的模糊人脸图像验证方法
CN103136516B (zh) 可见光与近红外信息融合的人脸识别方法及系统
CN104298977B (zh) 一种基于不相关性约束的低秩表示人体行为识别方法
CN103699874B (zh) 基于surf流和lle稀疏表示的人群异常行为识别方法
CN110097029B (zh) 基于Highway网络多视角步态识别的身份认证方法
CN109376787B (zh) 流形学习网络及基于其的计算机视觉图像集分类方法
CN109241813B (zh) 基于判别稀疏保持嵌入的非约束人脸图像降维方法
CN103177265B (zh) 基于核函数与稀疏编码的高清图像分类方法
CN104298974A (zh) 一种基于深度视频序列的人体行为识别方法
CN105069478A (zh) 基于超像素张量稀疏编码的高光谱遥感地物分类方法
CN111414958B (zh) 一种视觉词袋金字塔的多特征图像分类方法及系统
Puthenputhussery et al. A sparse representation model using the complete marginal fisher analysis framework and its applications to visual recognition
CN103761537A (zh) 基于低秩优化特征字典模型的图像分类方法
CN107316005A (zh) 基于稠密轨迹核协方差描述子的行为识别方法
CN108280421A (zh) 基于多特征深度运动图的人体行为识别方法
CN105160290A (zh) 一种基于改进型稠密轨迹的移动边界采样的行为识别方法
CN113095305A (zh) 一种医药异物高光谱分类检测方法
CN108875448B (zh) 一种行人再识别方法及装置
CN108985161A (zh) 一种基于拉普拉斯正则化的低秩稀疏表征图像特征学习方法
Sheng et al. Action recognition using direction-dependent feature pairs and non-negative low rank sparse model
CN103310208A (zh) 基于局部几何视觉短语描述的鉴别性人脸姿态识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210518

Address after: No.3, 11th floor, building 6, no.599, shijicheng South Road, Chengdu hi tech Zone, China (Sichuan) pilot Free Trade Zone, Chengdu, Sichuan 610041

Patentee after: Houpu clean energy Co.,Ltd.

Address before: 611731, No. 2006, West Avenue, Chengdu hi tech Zone (West District, Sichuan)

Patentee before: University of Electronic Science and Technology of China

TR01 Transfer of patent right
CP01 Change in the name or title of a patent holder

Address after: No.3, 11th floor, building 6, no.599, shijicheng South Road, Chengdu hi tech Zone, China (Sichuan) pilot Free Trade Zone, Chengdu, Sichuan 610041

Patentee after: Houpu clean energy (Group) Co.,Ltd.

Address before: No.3, 11th floor, building 6, no.599, shijicheng South Road, Chengdu hi tech Zone, China (Sichuan) pilot Free Trade Zone, Chengdu, Sichuan 610041

Patentee before: Houpu clean energy Co.,Ltd.

CP01 Change in the name or title of a patent holder