CN106529477A - 基于显著轨迹和时空演化信息的视频人体行为识别方法 - Google Patents
基于显著轨迹和时空演化信息的视频人体行为识别方法 Download PDFInfo
- Publication number
- CN106529477A CN106529477A CN201610994438.5A CN201610994438A CN106529477A CN 106529477 A CN106529477 A CN 106529477A CN 201610994438 A CN201610994438 A CN 201610994438A CN 106529477 A CN106529477 A CN 106529477A
- Authority
- CN
- China
- Prior art keywords
- track
- video
- conspicuousness
- frame
- follows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Abstract
本发明提供一种基于显著轨迹和时空演化信息的视频人体行为识别方法,该方法充分利用视频中的光流信息,在改进密集轨迹的基础上,通过定义轨迹的静态显著性和动态显著性,并以线性融合方式,计算得到轨迹的组合显著性,从而有效移除背景运动轨迹,提取前景运动轨迹;针对传统基于底层视觉特征表示方法忽略了行为视频中丰富的中高层语义信息问题,提出中层视觉特征表示即轨迹束,从中提取人体行为时空演化信息作为视频特征表示,有效去除背景轨迹,提取前景运动轨迹并显著提高算法的识别效果。
Description
技术领域
本发明涉及计算机视觉技术领域,更具体地,涉及一种基于显著轨迹和时空演化信息的视频人体行为识别方法。
背景技术
随着互联网以及多媒体的发展,视频成为人们获取信息的主要途径,基于视频的人体行为识别技术已广泛应用于智能视频监控、视频检索、虚拟现实和人际交互等系列场景。近年来涌现出大量从监控场景到自然场景的人体行为识别方法,各个公开数据集的识别准确率也在不断地提高。但自然场景下视频运动的复杂性(如摄像机运动)导致严重的光流偏差,人体定位算法不准确导致前景背景运动混杂,且人体运动存在多变性、多义性,因此人体行为识别仍是计算机视觉领域的难点问题。
目前基于密集轨迹方法,包含大量混杂的前景和背景运动,因此需要一种方法来分离前景和背景运动,从而进行后续分类过程。此外,基于底层视觉特征的表示方法在监控场景人体行为识别问题上取得了不错的效果,但是这类方法通常忽略行为视频中丰富的中高层语义信息。在自然场景中,人体运动行为有着丰富的时空演化信息。为缩短底层的特征描述与高层行为模式间的语义鸿沟,目前亟需一种能充分利用时空演化信息进行视频特征表示的方法。
发明内容
本发明提供一种基于显著轨迹和时空演化信息的视频人体行为识别方法,该方法可以有效去除背景轨迹,提取前景运动轨迹。
为了达到上述技术效果,本发明的技术方案如下:
一种基于显著轨迹和时空演化信息的视频人体行为识别方法,包括以下步骤:
S1:对每一帧视频图像进行人体检测并构建多尺度时空金字塔,再对视频帧中的时空兴趣点密集采样,并判断时空兴趣点所在后续帧的位置,将其加入到轨迹序列中,采用中心点-外围显著性方法计算视频帧的静态显著性和动态显著性,并通过线性融合方式得到视频帧的组合显著性;
S2:将轨迹显著性定义为轨迹每点在组合显著性图像中显著性的均值,计算显著性阈值,当轨迹显著性小于阈值时,则认为是背景轨迹而予以删除,从而有效提取前景运动轨迹;
S3:采用最大似然估计算法建立高斯混合模型,对于每一视频帧序列,利用提取到的前景运动轨迹,生成中层视觉特征表示即轨迹束;
S4:根据视频中所有的特征表示轨迹束,利用大数据线性分类模型,求解分类超平面,提取其中的运动时空演化信息作为视频特征表示。
进一步地,所述步骤S1的具体过程如下:
S11:对给定视频帧,计算梯度矩阵,初始化密集采样时空兴趣点作为轨迹起始点;
S12:将第j帧上每个特征点pj=(xj,yj),通过中值滤波后的密集光流场f=(ut,vt)跟踪至第j+1帧,公式计算如下:
S13:采用中心点-外围区域的灰度差异计算单帧的静态显著性CA,公式计算如下:
CA(xli)=|g(xli)-g(A(xli))|
其中g为经过高斯滤波处理的灰度图像,g(A(xli))是点xli的外围区域的灰度平均值;
记CM为单帧的运动显著性,计算中心点和外围区域光流直方图的卡方距离,得到轨迹单帧的运动显著性,公式计算如下:
其中hj(xli)为点xli处,HOF描述符第j个bin的值,而hj(A(xli))为外围区域的光流平均值;
记CC为单帧的组合显著性,通过线性组合的方式来计算CC:
进一步地,所述步骤S2的具体过程如下:
S21:给定一个轨迹,记作表示以第j帧为起始帧,第i个点,形成的长度为L的轨迹;记C(xli)为单帧的显著性,取轨迹在各帧的均值作为轨迹的显著性,公式计算如下:
S22:阈值的确定过程为:计算每一帧的平均显著性E(CC(xl)),取各帧平均显著性的平均值的μ倍作为显著性阈值,并根据轨迹显著性筛选轨迹;记T0为初始改进轨迹集,公式如下:
进一步地,所述步骤S3中,利用高斯混合模型表示视频帧序列,包括生成字典模型和表示视频帧序列;
生成字典模型的过程如下:
S311:随机选取25.6万条前景轨迹,利用原始视频特征串联为轨迹特征;
S312:采用主成分分析对轨迹特征进行降维,设置高斯混合模型参数K=256,通过最大似然估计方法训练得到高斯混合模型;
视频帧序列表示的过程如下:
利用费舍尔向量编码和高斯混合模型,得到中层视觉特征表示—轨迹束,即视频帧表示。
进一步地,所述步骤S4的具体过程如下:
S41:利用线性函数F(TS)=wTTS+b,定义如果轨迹束TSi发生在轨迹束TSi+1之前,那么定义这种时序关系为TSi+1>TSi,公式如下:
S42:通过结构风险最小化和最大化边缘计算框架,得到如下目标函数:
其中C是惩罚因子,ξij是松弛变量,w为视频特征表示,P={(TSi,TSj):TSi>TSj},m=|P|。
与现有技术相比,本发明技术方案的有益效果是:
本发明方法充分利用视频中的光流信息,在改进密集轨迹的基础上,计算轨迹的静态显著性和动态显著性,并通过线性融合方式得到轨迹的组合显著性,从而有效移除背景运动轨迹,提取前景运动轨迹;针对传统基于底层视觉特征表示方法忽略了行为视频中丰富的中高层语义信息问题,提出中层视觉特征表示即轨迹束,从中提取人体行为时空演化信息作为视频特征表示,有效去除背景轨迹,提取前景运动轨迹并显著提高算法的识别效果。
附图说明
图1为本发明的基于显著轨迹和时空演化信息的视频人体行为识别框架;
图2为基于显著轨迹特征提取前景运动轨迹示意图;
图3为基于显著轨迹特征提取前景运动轨迹效果图;
图4为基于时空显著信息得到视频特征表示示意图;
图5为本发明人体行为识别方法在Hollywood2数据集分类效果示意图;
图6为本发明人体行为识别方法在HMDB51数据集分类效果示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,本发明基于显著轨迹和时空演化信息的视频人体行为识别方法首先在改进密集轨迹的基础上提取密集轨迹,通过显著性检测定义帧和轨迹的显著性;其次通过自适应筛选去除背景轨迹,得到显著前景轨迹;然后利用高斯混合模型和费舍尔向量,得到视频帧表示即轨迹束;利用大数据线性分类器挖掘轨迹束之间的时间结构信息,作为视频表示,最后进行特征训练和识别。
如图1,图2所示,基于显著轨迹特征提取前景运动轨迹的步骤中,设定轨迹长度最长连续帧数L为15,通过定义帧的静态显著性和动态显著性得到帧的组合显著性,通过显著性阈值筛选,得到显著轨迹。
本发明基于显著轨迹和时空演化信息的视频人体行为识别方法的具体步骤如下:
1、如图1所示,首先对视频提取改进密集轨迹,之后计算视频帧的静态显著性和动态显著性,具体包括:
A1:使用OPENCV采集视频序列中的每一帧图像并构建时空金字塔;对视频帧中的时空兴趣点密集采样作为轨迹起始点;
A2:将第j帧上每个特征点pj=(xj,yj),通过中值滤波后的密集光流场f=(ut,vt)跟踪至第j+1帧;
A3:采用中心点-外围区域的灰度差异计算单帧的静态显著性;计算中心点和外围区域光流直方图的卡方距离,得到单帧的动态显著性;通过线性组合的方式计算单帧的组合显著性;
2、如图1、图2所示,将轨迹显著性定义为轨迹每点在组合显著性图像中显著性的均值;计算轨迹的静态显著性和动态显著性,及其组合显著性,当轨迹显著性小于阈值时,则认为是背景轨迹而予以删除,从而有效提取前景运动轨迹;从图3可以看出,显著轨迹大部分集中于前景运动区域:
B1:给定一个轨迹,记作表示以第j帧为起始帧,第i个点,形成的长度为L的轨迹;记C(xli)为单帧的显著性,取轨迹在各帧的均值作为轨迹的显著性,公式计算如下:
B2:阈值的确定过程为:计算每一帧的平均显著性E(CC(xli)),取各帧平均显著性的平均值的μ倍作为显著性阈值,并根据轨迹显著性筛选轨迹;记T0为初始改进轨迹集,公式如下:
3、如图1、图4所示,建立高斯混合模型生成视觉词典,对于每一视频帧序列,生成中层视觉特征表示即轨迹束:
生成视觉字典模型步骤如下:
C1:首先随机选取25.6万条前景轨迹,利用原始视频特征(如HOG/HOF/MBH)串联为轨迹特征;
C2:采用主成分分析对轨迹特征进行降维,设置高斯混合模型参数K=256,通过最大似然估计方法训练得到高斯混合模型;
视频帧序列表示方法步骤如下:
C3:利用费舍尔向量编码和高斯混合模型,得到中层视觉特征表示即轨迹束,其维度为2DK,D是主成分分析降维后的维度,K为高斯混合模型参数。
4、提取轨迹束中的运动时空演化信息作为视频特征表示,方法步骤如下:
D1:利用线性函数F(TS)=wTTS+b,定义TSi发生在TSi+1之前的这种时序关系为TSi+1>TSi,公式如下:
D2:通过结构风险最小化和最大化边缘计算框架,得到如下目标函数:
其中C是惩罚因子,ξij是松弛变量,w为视频特征表示,P={(TSi,TSj):TSi>TSj},m=|P|。
采用本发明方法的识别效果实验:
1、实验数据集:包括Hollywood2电影数据集(共12个运动类别)和HMDB51数据集(共51个运动类别);
2、实验环境:Matlab 2010a平台和C++11;
3、实验工具集:改进密集轨迹开源代码、VLFeat开源库和Liblinear工具箱;
4、实验方法:对于Hollywood2电影数据集,823个视频用来训练,884个视频用来测试分类效果,采用二类SVM分类器;对HMDB51,6766个视频分为三组分别进行训练和测试,采用多类分类SVM分类器。
5、评价标准:
(1)平均识别率:其公式如下所示:
其中Vk为视频序列,Ci为属于类别i的视频序列集,h(Vk)为序列Vk的预测类别,|V|为视频序列的总数,NC为运动类别的数量。
(2)平均识别精度:其公式如下所示:
其中Q是训练视频的个数,AveP为识别精度。
6、实验结果:如图5所示,图中表示使用本发明识别方法在Hollywood2电影数据集上的平均识别精度直方图,平均识别精度为68.1%。如图6所示,图中表示使用本发明识别方法在HMDB51数据集上的平均识别率折线图,平均识别率为62.4%。实验结果表明,本发明识别方法取得较好的识别效果,与现有的方法比较,具有显著性的进步。相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (5)
1.一种基于显著轨迹和时空演化信息的视频人体行为识别方法,其特征在于,包括以下步骤:
S1:对每一帧视频图像进行人体检测并构建多尺度时空金字塔,再对视频帧中的时空兴趣点密集采样,并判断时空兴趣点所在后续帧的位置,将其加入到轨迹序列中,采用中心点-外围显著性方法计算视频帧的静态显著性和动态显著性,并通过线性融合方式得到视频帧的组合显著性;
S2:将轨迹显著性定义为轨迹每点在组合显著性图像中显著性的均值,计算显著性阈值,当轨迹显著性小于该阈值时,则认为是背景轨迹而予以删除,从而有效提取前景运动轨迹;
S3:采用最大似然估计算法建立高斯混合模型,对于每一视频帧序列,利用提取到的前景运动轨迹,生成中层视觉特征表示即轨迹束;
S4:根据视频中所有的特征表示轨迹束,利用大数据线性分类模型,求解分类超平面,提取其中的运动时空演化信息作为视频特征表示。
2.根据权利要求1所述的基于显著轨迹和时空演化信息的视频人体行为识别方法,其特征在于,所述步骤S1的具体过程如下:
S11:对给定视频帧,计算梯度矩阵,初始化密集采样时空兴趣点作为轨迹起始点;
S12:将第j帧上每个特征点pj=(xj,yj),通过中值滤波后的密集光流场f=(ut,vt)跟踪至第j+1帧,公式计算如下:
S13:采用中心点-外围区域的灰度差异计算单帧的静态显著性CA,公式计算如下:
CA(xli)=|g(xli)-g(A(xli))|
其中g为经过高斯滤波处理的灰度图像,g(A(xli))是点xli的外围区域的灰度平均值;
记CM为单帧的运动显著性,计算中心点和外围区域光流直方图的卡方距离,得到单帧的运动显著性,公式计算如下:
其中hj(xli)为点xli处,HOF描述符第j个bin的值,而hj(A(xli))为外围区域的光流平均值;
记CC为单帧的组合显著性,通过线性组合的方式来计算CC:
3.根据权利要求2所述的基于显著轨迹和时空演化信息的视频人体行为识别方法,其特征在于,所述步骤S2的具体过程如下:
S21:给定一个轨迹,记作表示以第j帧为起始帧,第i个点,形成长度为L的轨迹;记C(xli)为单帧的显著性,取轨迹在各帧轨迹点组合显著性的均值作为轨迹的显著性,公式计算如下:
S22:阈值的确定过程为:计算每一帧的平均显著性E(CC(xl)),取各帧平均显著性的平均值的μ倍作为显著性阈值,并根据轨迹显著性筛选轨迹;记T0为初始改进轨迹集,公式如下:
4.根据权利要求3所述的基于显著轨迹和时空演化信息的视频人体行为识别方法,其特征在于,所述步骤S3中,利用高斯混合模型表示视频帧序列,包括生成字典模型和表示视频帧序列;
生成字典模型的过程如下:
S311:随机选取25.6万条前景轨迹,利用原始视频特征串联为轨迹特征;
S312:采用主成分分析对轨迹特征进行降维,设置高斯混合模型参数K=256,通过最大似然估计方法训练得到高斯混合模型;
表示视频帧序列的过程如下:
利用费舍尔向量编码和高斯混合模型,得到中层视觉特征表示—轨迹束,即视频帧表示。
5.根据权利要求4所述的基于显著轨迹和时空演化信息的视频人体行为识别方法,其特征在于,所述步骤S4的具体过程如下:
S41:利用线性函数F(TS)=wTTS+b,定义如果轨迹束TSi发生在轨迹束TSi+1之前,那么定义这种时序关系为TSi+1>TSi,公式如下:
S42:通过结构风险最小化和最大化边缘计算框架,得到如下目标函数:
其中C是惩罚因子,ξij是松弛变量,w为视频特征表示,P={(TSi,TSj):TSi>TSj},m=|P|。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610994438.5A CN106529477B (zh) | 2016-11-11 | 2016-11-11 | 基于显著轨迹和时空演化信息的视频人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610994438.5A CN106529477B (zh) | 2016-11-11 | 2016-11-11 | 基于显著轨迹和时空演化信息的视频人体行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106529477A true CN106529477A (zh) | 2017-03-22 |
CN106529477B CN106529477B (zh) | 2019-10-25 |
Family
ID=58351188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610994438.5A Active CN106529477B (zh) | 2016-11-11 | 2016-11-11 | 基于显著轨迹和时空演化信息的视频人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106529477B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107203788A (zh) * | 2017-06-20 | 2017-09-26 | 安徽大学 | 一种中级视觉毒品图像识别方法 |
CN107346414A (zh) * | 2017-05-24 | 2017-11-14 | 北京航空航天大学 | 行人属性识别方法和装置 |
CN107451553A (zh) * | 2017-07-26 | 2017-12-08 | 北京大学深圳研究生院 | 一种基于超图转变的视频中暴力事件检测方法 |
CN107563345A (zh) * | 2017-09-19 | 2018-01-09 | 桂林安维科技有限公司 | 一种基于时空显著性区域检测的人体行为分析方法 |
CN108537131A (zh) * | 2018-03-15 | 2018-09-14 | 中山大学 | 一种基于人脸特征点和光流场的人脸识别活体检测方法 |
CN108564579A (zh) * | 2018-04-20 | 2018-09-21 | 石家庄铁道大学 | 一种基于时空相关的混凝土裂缝检测方法及检测装置 |
CN108875756A (zh) * | 2017-05-08 | 2018-11-23 | 上海荆虹电子科技有限公司 | 一种视频的行为类别获取方法及装置 |
CN109508684A (zh) * | 2018-11-21 | 2019-03-22 | 中山大学 | 一种视频中人体行为识别的方法 |
CN109583335A (zh) * | 2018-11-16 | 2019-04-05 | 中山大学 | 一种基于时空信息融合的视频人体行为识别方法 |
CN109583360A (zh) * | 2018-11-26 | 2019-04-05 | 中山大学 | 一种基于时空信息和层级表示的视频人体行为识别方法 |
CN110163103A (zh) * | 2019-04-18 | 2019-08-23 | 中国农业大学 | 一种基于视频图像的生猪行为识别方法和装置 |
CN110188594A (zh) * | 2019-04-12 | 2019-08-30 | 南昌嘉研科技有限公司 | 一种基于计算机视觉的目标识别与定位方法 |
CN110399808A (zh) * | 2019-07-05 | 2019-11-01 | 桂林安维科技有限公司 | 一种基于多目标跟踪的人体行为识别方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598890A (zh) * | 2015-01-30 | 2015-05-06 | 南京邮电大学 | 一种基于rgb-d视频的人体行为识别方法 |
CN104951793A (zh) * | 2015-05-14 | 2015-09-30 | 西南科技大学 | 一种基于stdf特征的人体行为识别算法 |
CN104992168A (zh) * | 2015-07-28 | 2015-10-21 | 中国科学院自动化研究所 | 一种基于图核的人体行为识别方法 |
CN105069434A (zh) * | 2015-08-12 | 2015-11-18 | 河海大学常州校区 | 一种视频中人体动作行为识别方法 |
-
2016
- 2016-11-11 CN CN201610994438.5A patent/CN106529477B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598890A (zh) * | 2015-01-30 | 2015-05-06 | 南京邮电大学 | 一种基于rgb-d视频的人体行为识别方法 |
CN104951793A (zh) * | 2015-05-14 | 2015-09-30 | 西南科技大学 | 一种基于stdf特征的人体行为识别算法 |
CN104992168A (zh) * | 2015-07-28 | 2015-10-21 | 中国科学院自动化研究所 | 一种基于图核的人体行为识别方法 |
CN105069434A (zh) * | 2015-08-12 | 2015-11-18 | 河海大学常州校区 | 一种视频中人体动作行为识别方法 |
Non-Patent Citations (2)
Title |
---|
周思超 等: "基于稠密轨迹聚类的人体交互行为识别", 《采矿技术》 * |
程海粟 等: "基于改进密集轨迹的人体行为识别算法", 《计算机工程》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875756A (zh) * | 2017-05-08 | 2018-11-23 | 上海荆虹电子科技有限公司 | 一种视频的行为类别获取方法及装置 |
CN108875756B (zh) * | 2017-05-08 | 2021-01-05 | 深圳荆虹科技有限公司 | 一种视频的行为类别获取方法及装置 |
CN107346414A (zh) * | 2017-05-24 | 2017-11-14 | 北京航空航天大学 | 行人属性识别方法和装置 |
CN107346414B (zh) * | 2017-05-24 | 2020-06-12 | 北京航空航天大学 | 行人属性识别方法和装置 |
CN107203788A (zh) * | 2017-06-20 | 2017-09-26 | 安徽大学 | 一种中级视觉毒品图像识别方法 |
US10679067B2 (en) | 2017-07-26 | 2020-06-09 | Peking University Shenzhen Graduate School | Method for detecting violent incident in video based on hypergraph transition |
CN107451553A (zh) * | 2017-07-26 | 2017-12-08 | 北京大学深圳研究生院 | 一种基于超图转变的视频中暴力事件检测方法 |
WO2019019678A1 (zh) * | 2017-07-26 | 2019-01-31 | 北京大学深圳研究生院 | 一种基于超图转变的视频中暴力事件检测方法 |
CN107451553B (zh) * | 2017-07-26 | 2019-08-02 | 北京大学深圳研究生院 | 一种基于超图转变的视频中暴力事件检测方法 |
CN107563345A (zh) * | 2017-09-19 | 2018-01-09 | 桂林安维科技有限公司 | 一种基于时空显著性区域检测的人体行为分析方法 |
CN108537131A (zh) * | 2018-03-15 | 2018-09-14 | 中山大学 | 一种基于人脸特征点和光流场的人脸识别活体检测方法 |
CN108537131B (zh) * | 2018-03-15 | 2022-04-15 | 中山大学 | 一种基于人脸特征点和光流场的人脸识别活体检测方法 |
CN108564579A (zh) * | 2018-04-20 | 2018-09-21 | 石家庄铁道大学 | 一种基于时空相关的混凝土裂缝检测方法及检测装置 |
CN109583335A (zh) * | 2018-11-16 | 2019-04-05 | 中山大学 | 一种基于时空信息融合的视频人体行为识别方法 |
CN109508684A (zh) * | 2018-11-21 | 2019-03-22 | 中山大学 | 一种视频中人体行为识别的方法 |
CN109508684B (zh) * | 2018-11-21 | 2022-12-27 | 中山大学 | 一种视频中人体行为识别的方法 |
CN109583360A (zh) * | 2018-11-26 | 2019-04-05 | 中山大学 | 一种基于时空信息和层级表示的视频人体行为识别方法 |
CN109583360B (zh) * | 2018-11-26 | 2023-01-10 | 中山大学 | 一种基于时空信息和层级表示的视频人体行为识别方法 |
CN110188594A (zh) * | 2019-04-12 | 2019-08-30 | 南昌嘉研科技有限公司 | 一种基于计算机视觉的目标识别与定位方法 |
CN110188594B (zh) * | 2019-04-12 | 2021-04-06 | 南昌嘉研科技有限公司 | 一种基于计算机视觉的目标识别与定位方法 |
CN110163103A (zh) * | 2019-04-18 | 2019-08-23 | 中国农业大学 | 一种基于视频图像的生猪行为识别方法和装置 |
CN110163103B (zh) * | 2019-04-18 | 2021-07-30 | 中国农业大学 | 一种基于视频图像的生猪行为识别方法和装置 |
CN110399808A (zh) * | 2019-07-05 | 2019-11-01 | 桂林安维科技有限公司 | 一种基于多目标跟踪的人体行为识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106529477B (zh) | 2019-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106529477A (zh) | 基于显著轨迹和时空演化信息的视频人体行为识别方法 | |
Zhai et al. | DF-SSD: An improved SSD object detection algorithm based on DenseNet and feature fusion | |
CN104123545B (zh) | 一种实时表情特征提取及表情识别方法 | |
CN105787458B (zh) | 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 | |
CN104094279B (zh) | 大范围优先的跨摄像机视觉目标再识别方法 | |
CN108830252A (zh) | 一种融合全局时空特征的卷积神经网络人体动作识别方法 | |
CN105046195B (zh) | 基于非对称广义高斯模型的人体行为识别方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN103440668B (zh) | 一种在线视频目标跟踪方法和装置 | |
CN108960059A (zh) | 一种视频动作识别方法及装置 | |
Bouchard et al. | Semantic segmentation of motion capture using laban movement analysis | |
CN106204646A (zh) | 基于bp神经网络的多运动目标跟踪方法 | |
CN104281853A (zh) | 一种基于3d卷积神经网络的行为识别方法 | |
CN103164694A (zh) | 一种人体动作识别的方法 | |
CN101866429A (zh) | 多运动目标动作行为识别的训练方法和识别方法 | |
Wang et al. | Improving human action recognition by non-action classification | |
CN101894276A (zh) | 人体动作识别的训练方法和识别方法 | |
CN103605986A (zh) | 一种基于局部特征的人体动作识别方法 | |
CN106709419A (zh) | 一种基于显著轨迹空间信息的视频人体行为识别方法 | |
CN105989358A (zh) | 一种自然场景视频识别方法 | |
CN104680193B (zh) | 基于快速相似性网络融合算法的在线目标分类方法与系统 | |
CN104298974A (zh) | 一种基于深度视频序列的人体行为识别方法 | |
CN105512618A (zh) | 视频跟踪方法 | |
CN111738218B (zh) | 人体异常行为识别系统及方法 | |
Dai et al. | Tan: Temporal aggregation network for dense multi-label action recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |