CN109543590B - 一种基于行为关联度融合特征的视频人体行为识别算法 - Google Patents
一种基于行为关联度融合特征的视频人体行为识别算法 Download PDFInfo
- Publication number
- CN109543590B CN109543590B CN201811368213.4A CN201811368213A CN109543590B CN 109543590 B CN109543590 B CN 109543590B CN 201811368213 A CN201811368213 A CN 201811368213A CN 109543590 B CN109543590 B CN 109543590B
- Authority
- CN
- China
- Prior art keywords
- video
- track
- association degree
- behavior
- video frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 14
- 230000006399 behavior Effects 0.000 claims abstract description 82
- 238000000034 method Methods 0.000 claims abstract description 12
- 230000000875 corresponding effect Effects 0.000 claims description 24
- 230000003068 static effect Effects 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 19
- 230000003287 optical effect Effects 0.000 claims description 15
- 238000006073 displacement reaction Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012706 support-vector machine Methods 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 4
- 230000003542 behavioural effect Effects 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 3
- 230000004888 barrier function Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 abstract description 3
- 239000011159 matrix material Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241000287196 Asthenes Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于行为关联度融合特征的视频人体行为识别算法,本发明在考虑视频帧之间时序关系的基础上,通过分别定义轨迹和视频帧与目标行为之间的关联度,突出了更具表达力的特征在形成视频表示过程中的重要性,并且与基于时间分割网络得到的视频表示进行融合,得到更具判别力的视频表示,有利于更有效地识别自然场景下视频中的人体行为。
Description
技术领域
本发明涉及计算机视觉学习领域,更具体的,涉及一种基于行为关联度融合特征的视频人体行为识别算法。
背景技术
在人体行为识别的研究中,局部特征对背景噪声、光照变化和局部遮挡等干扰具有较好的鲁棒性,其中轨迹特征包含了丰富的与人体行为相关的时空域信息,受到了很多研究者的青睐。然而,虽然改进密集轨迹中去除了摄像机的运动,但其仍包含属于背景区域和非运动区域的轨迹。研究在密集轨迹中过滤属于低关联区域的轨迹来进行轨迹提纯,能够在一定程度上提升动作识别的准确率,但是合理的过滤阈值难以确定。
显著性图谱可以突出场景中的前景物体并且同时抑制背景信息,静态显著性图谱可以有效的利用视频帧的静态信息,然而,在视频中的动态信息对于人体行为的识别具有重要的作用,但是静态显著性图谱却忽略了视频帧的动态信息。
由于视频数据的多变性和复杂性,对跨越整个视频的时空演化信息进行建模一直是一项具有挑战性的工作。基于排序的时空演化信息的方法虽然能够捕获到视频中丰富的时间维度上的演化信息,但是其对具有高行为关联度的特征和具有较低行为关联度的特征在视频表示中不加区别地进行对待,会降低人体行为识别的准确率。
发明内容
本发明涉及一种基于行为关联度融合特征的视频人体行为识别算法,本发明在考虑视频帧之间时序关系的基础上,通过分别定义轨迹和视频帧与目标行为之间的关联度,突出了更具表达力的特征在形成视频表示过程中的重要性,并且与基于时间分割网络得到的视频表示进行融合,得到更具判别力的视频表示,有利于更有效地识别自然场景下视频中的人体行为。
为实现以上发明目的,采用的技术方案是:
一种基于行为关联度融合特征的视频人体行为识别算法,包括以下步骤:
步骤S1:输入视频,计算视频中轨迹的行为关联度;
步骤S2:根据轨迹的行为关联度生成基于轨迹关联度的视频帧表示;
步骤S3:根据基于轨迹关联度的视频帧表示计算视频帧的行为关联度;
步骤S4:生成基于视频帧行为关联度的视频表示;
步骤S5:从视频中提取光流以及将时间分割网络作为特征提取器;
步骤S6:生成基于时间分割网络的视频表示;
步骤S7:结合基于视频帧行为关联度的视频表示以及基于时间分割网络的视频表示,利用支持向量机进行学习和分类,产生视频相应的动作类别标签。
优选的,所述的步骤S1具体包括一下步骤:
步骤S101:对视频帧进行时空金字塔的构建;
步骤S102:在改进密集轨迹的基础上,提取时空多尺度的轨迹特征;
步骤S103:计算静态显著性图谱和动态显著性图谱,静态显著性图谱S利用快速最小障碍距离变换算法得到,动态显著性图谱的计算方法是由静态显著性图谱的计算方法改进得到;
步骤S104:以光流作为输入,截取视频帧上下左右四个边缘区域
步骤S105:计算像素相对于每一个边缘区域的距离图谱z:
其中px表示像素点,χ2表示卡方距离,bi表示边缘区域(i=1,2,3,4),hj(px)是px处的平滑光流向量直方图的第j个bin值,hj(bi)为边缘区域对应bin的平均,j表示bin值的个数;
步骤S106:定义M为视频帧的动态显著性图谱,将基于四个区域的距离图谱进行融合:
步骤S107:设轨迹所在序列位于空间金字塔的第z层,时间尺度为s,起始帧为w,轨迹的长度为L,且轨迹的起始帧位于该序列的第j帧;定义轨迹整体的静态行为关联度为多帧的静态显著性图谱对应像素显著值的平均值:
步骤S108:得到轨迹的行为关联度定义如下:
优选的,步骤S2具体包括以下步骤:
步骤S201:利用步骤S108得到的轨迹的行为关联度对轨迹相对于高斯分布k的权重γn(k)进行加权:
γ′n(k)=γn(k)R(T)
其中FV表示费舍尔向量,SFV表示堆叠的费舍尔向量,HOG、HOF和MBH分别表示方向梯度直方图、光流直方图和运动边界直方图。
优选的,步骤S3具体包括以下步骤:
步骤S301:将轨迹采用相邻轨迹点的位移进行表示:
T=(ΔPt,ΔPt+1,…,ΔPt+L-1)
步骤S302:若一条轨迹穿过某一视频帧,则这条轨迹对于该视频帧的隶属度定义为
W(T,Fi)=e-|l-0.5L|
其中T表示轨迹,L表示轨迹的长度,l表示轨迹的第l个点穿过视频帧Fi;则视频帧Fi的行为关联度定义为
其中K表示穿过视频帧Fi的轨迹的数目。
优选的,步骤S4具体包括以下步骤:
在生成基于轨迹行为关联度的视频帧表示之后,将视频表示为一系列视频帧表示的序列,利用层次化的排列池化的方法对视频帧表示之间的动态信息进行建模,得到基于视频帧行为关联度的视频表示:
其中HRP表示使用层次化的排列池化方法对视频中的动态信息进行建模。
优选的,步骤S5具体包括以下步骤:
步骤S501:从视频中提取光流后;
步骤S502:将训练数据集中的每个视频分成三个分段,在三个分段中均匀采样25个视频片段,其中在第一视频分段中采样9个片段,在第二、三个视频分段中分别采样8个片段;
步骤S503:将带有视频动作标签的片段被用来训练时间分割网络,并将训练好的时间分割网络中用于产生视频片段级别分类的部分作为局部特征提取器。
优选的,步骤S6具体包括以下步骤:
将局部特征被聚合形成全局的特征表示为:
fg=H(f1,f2,…,fn)
其中f1,f2,…,fn表示局部特征,n表示局部特征的个数,H表示特征聚合函数,fg表示视频的全局特征。
优选的,步骤S7具体包括以下步骤:
步骤S701:结合两种视频表示、利用支持向量机进行学习和分类,并产生视频相应的动作类别标签:将基于视频帧行为关联度的视频表示c和基于时间分割网络的视频表示fg进行拼接,得到结合的视频表示P:
P={c,fg}
步骤S702:利用SVM分类器对该表示进行分类,得到视频相应的动作类别标签。
与现有技术相比,本发明的有益效果是:
本发明通过捕捉视频中不同轨迹和视频帧与目标行为之间的相关度,突出与目标行为相关度较高的轨迹和视频帧在形成视频表示过程中的重要性,可以减少视频中的冗余信息对行为识别效果的干扰,形成具有表达力的视频表示。本发明还通过使用时间分割网络形成以视频片段为基础的视频表示,通过以上两种视频表示,在不同的层次对视频中的信息进行描述,通过结合两种表示可以得到判别力更强的视频表示,有助于提高人体行为识别的准确率。
附图说明
图1为本发明的流程图。
图2为本发明本发明识别方法得到的JHMDB数据集上的混淆矩阵。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
如图1所示,一种基于行为关联度融合特征的视频人体行为识别算法,包括以下步骤:
步骤S1:输入视频,计算视频中轨迹的行为关联度;
步骤S2:根据轨迹的行为关联度生成基于轨迹关联度的视频帧表示;
步骤S3:根据基于轨迹关联度的视频帧表示计算视频帧的行为关联度;
步骤S4:生成基于视频帧行为关联度的视频表示;
步骤S5:从视频中提取光流以及将时间分割网络作为特征提取器;
步骤S6:生成基于时间分割网络的视频表示;
步骤S7:结合基于视频帧行为关联度的视频表示以及基于时间分割网络的视频表示,利用支持向量机进行学习和分类,产生视频相应的动作类别标签。
优选的,所述的步骤S1具体包括一下步骤:
步骤S101:对视频帧进行时空金字塔的构建;
步骤S102:在改进密集轨迹的基础上,提取时空多尺度的轨迹特征;
步骤S103:计算静态显著性图谱和动态显著性图谱,静态显著性图谱S利用快速最小障碍距离变换算法得到,动态显著性图谱的计算方法是由静态显著性图谱的计算方法改进得到;
步骤S104:以光流作为输入,截取视频帧上下左右四个边缘区域
步骤S105:计算像素相对于每一个边缘区域的距离图谱z:
其中px表示像素点,χ2表示卡方距离,bi表示边缘区域(i=1,2,3,4),hj(px)是px处的平滑光流向量直方图的第j个bin值,hj(bi)为边缘区域对应bin的平均,j表示bin值的个数;
步骤S106:定义M为视频帧的动态显著性图谱,将基于四个区域的距离图谱进行融合:
步骤S107:设轨迹所在序列位于空间金字塔的第z层,时间尺度为s,起始帧为w,轨迹的长度为L,且轨迹的起始帧位于该序列的第j帧;定义轨迹整体的静态行为关联度为多帧的静态显著性图谱对应像素显著值的平均值:
步骤S108:得到轨迹的行为关联度定义如下:
优选的,步骤S2具体包括以下步骤:
步骤S201:利用步骤S108得到的轨迹的行为关联度对轨迹相对于高斯分布k的权重γn(k)进行加权:
γ′n(k)=γn(k)R(T)
其中FV表示费舍尔向量,SFV表示堆叠的费舍尔向量,HOG、HOF和MBH分别表示方向梯度直方图、光流直方图和运动边界直方图。
优选的,步骤S3具体包括以下步骤:
步骤S301:将轨迹采用相邻轨迹点的位移进行表示:
T=(ΔPt,ΔPt+1,…,ΔPt+L-1)
步骤S302:若一条轨迹穿过某一视频帧,则这条轨迹对于该视频帧的隶属度定义为
W(T,Fi)=e-|l-0.5L|
其中T表示轨迹,L表示轨迹的长度,l表示轨迹的第l个点穿过视频帧Fi;则视频帧Fi的行为关联度定义为
其中K表示穿过视频帧Fi的轨迹的数目。
优选的,步骤S4具体包括以下步骤:
在生成基于轨迹行为关联度的视频帧表示之后,将视频表示为一系列视频帧表示的序列,利用层次化的排列池化的方法对视频帧表示之间的动态信息进行建模,得到基于视频帧行为关联度的视频表示:
其中HRP表示使用层次化的排列池化方法对视频中的动态信息进行建模。
优选的,步骤S5具体包括以下步骤:
步骤S501:从视频中提取光流后;
步骤S502:将训练数据集中的每个视频分成三个分段,在三个分段中均匀采样25个视频片段,其中在第一视频分段中采样9个片段,在第二、三个视频分段中分别采样8个片段;
步骤S503:将带有视频动作标签的片段被用来训练时间分割网络,并将训练好的时间分割网络中用于产生视频片段级别分类的部分作为局部特征提取器。
优选的,步骤S6具体包括以下步骤:
将局部特征被聚合形成全局的特征表示为:
fg=H(f1,f2,…,fn)
其中f1,f2,…,fn表示局部特征,n表示局部特征的个数,H表示特征聚合函数,fg表示视频的全局特征。
优选的,步骤S7具体包括以下步骤:
步骤S701:结合两种视频表示、利用支持向量机进行学习和分类,并产生视频相应的动作类别标签:将基于视频帧行为关联度的视频表示c和基于时间分割网络的视频表示fg进行拼接,得到结合的视频表示P:
P={c,fg}
步骤S702:利用SVM分类器对该表示进行分类,得到视频相应的动作类别标签。
实施例2
如图1、图2所示,本实施例提供的环境如下:
实验数据集:JHMDB(共21类人体行为动作类别)。
实验环境:Matlab2014b,c++14,python3.6。
实验工具集:OpenCV2.3,vlfeat开源库,Libsvm工具箱,Tensorflow开源库。
实验方法:将JHMDB数据集划分为3组,在每次划分中,每个行为约有45个视频,其中部分视频用于训练,剩余的21个用于测试。训练模型时采用一对多模式,最后的识别准确率为三个划分的识别准确率的均值。
评价标准:
(1)混淆矩阵,其公式如下所示:
其中混淆矩阵中的一行对应于某一类行为的分类结果,且矩阵每一行的和为1。对角线的元素表示正确分类的百分比,即某类行为的准确率。
(2)平均准确率
平均准确率表示所有行为分类准确率的平均值。
实验结果:如图2所示,图中所示的是使用本发明识别方法得到的JHMDB数据集上的混淆矩阵,平均识别准确率为68.7%。实验结果表明,本发明识别方法取得了较好的识别效果,与现有的方法进行比较,识别准确率有显著的提高。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (7)
1.一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,包括以下步骤:
步骤S1:输入视频,计算视频中轨迹的行为关联度;
步骤S2:根据轨迹的行为关联度生成基于轨迹关联度的视频帧表示;
步骤S3:根据基于轨迹关联度的视频帧表示计算视频帧的行为关联度;
步骤S4:生成基于视频帧行为关联度的视频表示;
步骤S5:从视频中提取光流以及将时间分割网络作为特征提取器;
步骤S6:生成基于时间分割网络的视频表示;
步骤S7:结合基于视频帧行为关联度的视频表示以及基于时间分割网络的视频表示,利用支持向量机进行学习和分类,产生视频相应的动作类别标签;
所述的步骤S1具体包括一下步骤:
步骤S101:对视频帧进行时空金字塔的构建;
步骤S102:在改进密集轨迹的基础上,提取时空多尺度的轨迹特征;
步骤S103:计算静态显著性图谱和动态显著性图谱,静态显著性图谱S利用快速最小障碍距离变换算法得到,动态显著性图谱的计算方法是由静态显著性图谱的计算方法改进得到;
步骤S104:以光流作为输入,截取视频帧上下左右四个边缘区域
步骤S105:计算像素相对于每一个边缘区域的距离图谱z:
其中,px表示像素点;χ2表示卡方距离;bi表示边缘区域,i=1,2,3,4;hj(px)是px处的平滑光流向量直方图的第j个bin值;hj(bi)为边缘区域对应bin的平均,j表示bin值的个数;
步骤S106:定义M为视频帧的动态显著性图谱,将基于四个区域的距离图谱进行融合:
步骤S107:设轨迹所在序列位于空间金字塔的第z层,时间尺度为s,起始帧为w,轨迹的长度为L,且轨迹的起始帧位于该序列的第a帧;定义轨迹整体的静态行为关联度为多帧的静态显著性图谱对应像素显著值的平均值:
步骤S108:得到轨迹的行为关联度定义如下:
3.根据权利要求2所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S3具体包括以下步骤:
步骤S301:将轨迹采用相邻轨迹点的位移进行表示:
T=(ΔPt,ΔPt+1,...,ΔPt+L-1)
步骤S302:若一条轨迹穿过某一视频帧,则这条轨迹对于该视频帧的隶属度定义为W(T,Fr)=e-|l-0.5L|
其中T表示轨迹,L表示轨迹的长度,l表示轨迹的第l个点穿过视频帧Fr;则视频帧Fr的行为关联度定义为
其中K表示穿过视频帧Fr的轨迹的数目。
5.根据权利要求4所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S5具体包括以下步骤:
步骤S501:从视频中提取光流后;
步骤S502:将训练数据集中的每个视频分成三个分段,在三个分段中均匀采样25个视频片段,其中在第一视频分段中采样9个片段,在第二、三个视频分段中分别采样8个片段;
步骤S503:将带有视频动作标签的片段被用来训练时间分割网络,并将训练好的时间分割网络中用于产生视频片段级别分类的部分作为局部特征提取器。
6.根据权利要求5所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S6具体包括以下步骤:
将局部特征被聚合形成全局的特征表示为:
fg=H(f1,f2,...,fn)
其中f1,f2,...,fn表示局部特征,n表示局部特征的个数,H表示特征聚合函数,fg表示视频的全局特征。
7.根据权利要求6所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S7具体包括以下步骤:
步骤S701:结合两种视频表示、利用支持向量机进行学习和分类,并产生视频相应的动作类别标签:将基于视频帧行为关联度的视频表示c和基于时间分割网络的视频表示fg进行拼接,得到结合的视频表示P:
P={c,fg}
步骤S702:利用SVM分类器对该表示进行分类,得到视频相应的动作类别标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811368213.4A CN109543590B (zh) | 2018-11-16 | 2018-11-16 | 一种基于行为关联度融合特征的视频人体行为识别算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811368213.4A CN109543590B (zh) | 2018-11-16 | 2018-11-16 | 一种基于行为关联度融合特征的视频人体行为识别算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109543590A CN109543590A (zh) | 2019-03-29 |
CN109543590B true CN109543590B (zh) | 2023-04-18 |
Family
ID=65847809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811368213.4A Active CN109543590B (zh) | 2018-11-16 | 2018-11-16 | 一种基于行为关联度融合特征的视频人体行为识别算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109543590B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796071B (zh) * | 2019-10-28 | 2021-02-19 | 广州云从博衍智能科技有限公司 | 行为检测方法、系统、机器可读介质及设备 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009049314A2 (en) * | 2007-10-11 | 2009-04-16 | Trustees Of Boston University | Video processing system employing behavior subtraction between reference and observed video image sequences |
SG11201510254VA (en) * | 2013-06-12 | 2016-01-28 | Agency Science Tech & Res | Method and system for human motion recognition |
CN103854016B (zh) * | 2014-03-27 | 2017-03-01 | 北京大学深圳研究生院 | 基于方向性共同发生特征的人体行为分类识别方法及系统 |
CN105989358A (zh) * | 2016-01-21 | 2016-10-05 | 中山大学 | 一种自然场景视频识别方法 |
JP6895276B2 (ja) * | 2017-03-03 | 2021-06-30 | 株式会社日立製作所 | 行動認識システムおよび行動認識方法 |
CN108734475B (zh) * | 2017-04-19 | 2022-01-04 | 中山大学 | 一种基于大数据关联度分析的溯源防伪方法 |
CN107609460B (zh) * | 2017-05-24 | 2021-02-02 | 南京邮电大学 | 一种融合时空双重网络流和attention机制的人体行为识别方法 |
CN107463912A (zh) * | 2017-08-10 | 2017-12-12 | 武汉大学深圳研究院 | 基于运动显著性的视频人体行为识别方法 |
KR101914717B1 (ko) * | 2017-09-28 | 2018-11-02 | 전남대학교산학협력단 | 대칭 양정치 행렬의 곱 다양체에 대해 재생 커널 힐버트 공간을 이용한 인간 행동 인식 방법 |
CN108345846A (zh) * | 2018-01-29 | 2018-07-31 | 华东师范大学 | 一种基于卷积神经网络的人体行为识别方法及识别系统 |
CN112966646B (zh) * | 2018-05-10 | 2024-01-09 | 北京影谱科技股份有限公司 | 基于双路模型融合的视频分割方法、装置、设备及介质 |
-
2018
- 2018-11-16 CN CN201811368213.4A patent/CN109543590B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109543590A (zh) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kim et al. | Unsupervised learning of image segmentation based on differentiable feature clustering | |
CN109508684B (zh) | 一种视频中人体行为识别的方法 | |
CN107609459B (zh) | 一种基于深度学习的人脸识别方法及装置 | |
CN111310731B (zh) | 基于人工智能的视频推荐方法、装置、设备及存储介质 | |
Zhang et al. | Learning semantic scene models by object classification and trajectory clustering | |
CN108596211B (zh) | 一种基于集中学习与深度网络学习的遮挡行人再识别方法 | |
Seguin et al. | Instance-level video segmentation from object tracks | |
CN105354565A (zh) | 基于全卷积网络人脸五官定位与判别的方法及系统 | |
CN108491766B (zh) | 一种端到端的基于深度决策森林的人群计数方法 | |
KR20160096460A (ko) | 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법 | |
Zheng et al. | Aware progressive clustering for unsupervised vehicle re-identification | |
CN112836640A (zh) | 一种单摄像头多目标行人跟踪方法 | |
JP4567660B2 (ja) | 電子画像内で物体のセグメントを求める方法 | |
CN109753884A (zh) | 一种基于关键帧提取的视频行为识别方法 | |
CN112699834A (zh) | 交通标识检测方法、装置、计算机设备和存储介质 | |
Ahmed et al. | Robust Object Recognition with Genetic Algorithm and Composite Saliency Map | |
CN114399731B (zh) | 一种单粗点监督下的目标定位方法 | |
Pervaiz et al. | Tracking and Analysis of Pedestrian's Behavior in Public Places. | |
Xu et al. | Representative feature alignment for adaptive object detection | |
CN109543590B (zh) | 一种基于行为关联度融合特征的视频人体行为识别算法 | |
CN112446417B (zh) | 基于多层超像素分割的纺锤形果实图像分割方法及系统 | |
CN104331700B (zh) | 基于轨迹能量扩散图的组行为识别方法 | |
CN105956604A (zh) | 一种基于两层时空邻域特征的动作识别方法 | |
CN112418358A (zh) | 一种强化深度融合网络的车辆多属性分类方法 | |
CN109583360B (zh) | 一种基于时空信息和层级表示的视频人体行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |