CN110163127A - 一种由粗到细的视频目标行为识别方法 - Google Patents
一种由粗到细的视频目标行为识别方法 Download PDFInfo
- Publication number
- CN110163127A CN110163127A CN201910375228.1A CN201910375228A CN110163127A CN 110163127 A CN110163127 A CN 110163127A CN 201910375228 A CN201910375228 A CN 201910375228A CN 110163127 A CN110163127 A CN 110163127A
- Authority
- CN
- China
- Prior art keywords
- classification
- thick
- behavior
- video
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种由粗到细的视频目标行为识别方法,该方法首先利用姿态估计算法或者视频内标注信息获取人体关键点,裁剪缩放人体不同身体部位。以深度神经网络作为特征提取网络,提取不同部位区域的特征向量。利用提取出的不同部位特征向量,迭代训练分类器,寻找行为的最优粗类别划分。对于粗分类器和每个细粒度分类器,选取不同部位与全局特征向量进行级联。单独训练各个分类器。将粗粒度分类器和细粒度分类器分类结果概率融合,得到整个行为识别最终结果。本发明通过构造一个由粗到细的行为识别框架,利用级联行为人不同身体部位不同粒度的特征表达,针对性的训练分类器,从而有效的降低分错相似行为概率,提高了整体行为识别准确率。
Description
技术领域
本发明涉及视频中行为识别领域,尤其是涉及一种由粗到细的视频目标行为识别方法。
背景技术
不同于基于图像的识别和检测,基于视频的内容和人体行为分析是人类视觉理解目前具有较大困难和挑战的任务。视频人体行为识别作为视频异常行为检测、关系推理与内容深度理解的基础研究,一直以来受到研究者的广泛关注。
目前较为成熟的行为识别方案根据应用场景和信息源的不同可以分为两类:(1)基于背景建模的模板匹配。该方法主要将视频中运动目标,即将输入的静态图像进行场景分割,利用帧差法或背景建模方法,分割出视频前景与背景,再在前景中提取特定运动目标,生成运动模板,利用巴氏距离(Bhattacharyya Distance)等匹配相似运动。这类方法适用于简单的实验室环境行为,分辨识别的行为种类数受限。(2)基于统计学习。即将所有已知属于某一类行为的视频收集起来形成训练集,基于一个人工设计的算法对训练集视频提取特征。提取的特征一般为视频行为人的轨迹、纹理、梯度直方图和轨迹直方图等信息。继而根据大量的训练样本的特征库来构建行为识别分类器。分类器一般可用支持向量机(Support Vector Machine,SVM)和神经网络等模型。
综合而言近年来基于统计学习的行为识别算法表现较优,基于统计学习的行为识别算法可以分为传统人工特征行为识别算法以及深度网络特征行为识别算法。
传统人工特征行为识别算法主要是指利用人工设计的特征,来进行行为建模和分类。可根据运动前景和视频中的连续序列特点构建运动能量图(Motion Energy Image,MEI)和运动历史图(Motion History Image,MHI)模板(The Recognition of HumanMovement Using Temporal Templates.IEEE Transactions on Pattern Analysis andMachine Intelligence,2001,23(3):257–267),继而通过计算其二值图的轮廓和灰度图的梯度直方图等信息,对运动进行分类判断;但该算法实验环境为室内,背景单一,人的行为具有特例性,无法在现实生活场景中得到有效利用。基于局部特征的方法主要是基于视频序列中时空兴趣点(Spatio-temporal Interest Points,STIP)如Wang等人提出的密集轨迹(Improved Dense Trajectories,IDT)特征(Action Recognition with ImprovedTrajectories.IEEE International Conference on Computer Vision.2013:3551–3558.)。该特征通过采集图像金字塔上的密集轨迹,提取轨迹邻域像素的特征描述子如梯度直方图(Histogram of Gradient,HOG)和光流直方图(Histogram of Flow,HOF)等作为该轨迹的特征。IDT描述子设计复杂且对现实多变场景行为仍具有局限性。
随着深度学习在图像领域取得了巨大进步,研究者也开始在视频上应用卷积神经网络。根据提取时域信息方式不同,基于深度学习视频行为识别可分为多流网络特征融合、时空注意力特征(包括循环神经网络,结合人体姿态特征网络)和3D时空网络特征。例如:基于Simonyan等人提出的双流法(Two-Stream Convolutional Networks for ActionRecognition in Videos.Advances in Neural Information Processing Systems,2014,1(4):568–576),Wang提出(Temporal Segment Networks,TSN)将视频分成多段(clips),对每个分段的视频帧密集采样,融合多段序列的CNN特征,加强视频中时域上特征的学习。基于循环神经网络主要将时域上多帧输入到记忆网络,通过训练记忆网络学习时域上不同视频行为特征;并且结合人体姿态关节点信息,进一步学习时空特征。Tran等人提出C3D(Learning spatiotemporal features with 3d convolutional networks.Proceedingsof the IEEE international conference on computer vision.2015:4489–4497.)与Carreira等人提出的I3D(Quo Vadis,Action Recognition?A New Model and theKinetics Dataset.IEEE Computer Vision and Pattern Recognition.2017:4724–4733.)等指出由于目前行为视频数据集数据量少,3D神经网络较难学到较好特征。后续的P3D(Learning Spatio-Temporal Representation with Pseudo-3D ResidualNetworks.2017IEEE International Conference on Computer Vision(ICCV).2017:5534–5542.)和S3D(Rethinking spatiotemporal feature learning for videounderstanding.ArXiv preprint,2017)进一步优化3D神经网络结构,提高识别精确率。但是该类方法缺少语义、注意力机制等信息指导,需要大规模视频数据集来训练,增加了存储消耗和计算量。
上述行为识别方法旨在通过单阶段识别框架对行为视频进行分类识别。在实际应用中我们发现,视频中某些行为具有相似性,可以将相似细粒度类别行为聚类成同一个粗粒度类别,针对性的训练不同分类器,使得分类器具有识别该细粒度类似行为之间的差异特性。利用全局特征如全身和上下文信息,加权具有较大差异的行为类别的特征表达,训练一个粗粒度分类器,以便能更好的区分粗粒度类行为。即加权全局信息训练粗粒度分类器,加权具体身体部位信息训练细粒度分类器,最后结合二者分类识别结果形成层次化的行为识别框架。
发明内容
针对上述发现并针对单阶段视频行为识别方法存在的相似行为易分类错误的不足,本发明的目的是提供一种由粗到细的视频目标行为识别方法,该识别方法不仅可以分析不同身体部位及身体部位组合对不同行为识别的影响,也可以针对性分类相似行为,降低相似行为识别错误率。
本发明的目的是这样实现的:
一种由粗到细的视频目标行为识别方法,特征是:具体步骤如下:
A、利用现有成熟的姿态估计算法或者视频内标注信息获取人体关键点信息,裁剪缩放人体不同身体部位图像:上半身,左手部,右手部,下半身部和全身部五个部位;
B、以深度神经网络(Deep Neural Networks,DNN)作为特征提取网络,通过卷积神经网络(Convolutional Neural Network,CNN)对输入视频的连续帧和光流帧中的不同部位区域进行多层卷积、池化和全连接运算,提取不同视频i中不同部位Pj视频的特征向量
C、利用提取出的不同部位和全局视频特征向量迭代训练粗分类器,寻找最优粗分类类别与粗粒度行为类别里所包含的细粒度行为种类;
D、训练细粒度分类器;每个细粒度分类器选取不同部位特征向量级联针对当前包含的多种细粒度行为训练分类器;
E、将粗粒度分类器概率和细粒度分类器分类结果概率融合,得到整个行为识别最终结果。
在步骤C中,利用提取出的不同部位和全局视频特征向量,迭代训练分类器,寻找最优粗分类类别与粗粒度行为类别里所包含的细粒度行为种类,是指:利用真值映射方案,迭代训练粗粒度分类器,将行为类别映射至不同粗类别,直到粗分类器输出粗类别错误率低于阈值。
在步骤D中,每个细粒度分类器选取不同部位视频特征向量级联,针对当前包含的多种细粒度行为训练,是指:针对相似行为聚合成的一个细粒度行为集合,组合加权行为人身体部位特征表达,达到细粒度分类更准确的目的。
在步骤E中,将两级即粗粒度分类器和细粒度分类器分类结果概率融合,得到整个行为识别最终结果,是指:将在步骤C和在步骤D得到的粗粒度结果和多个细粒度分类器结合,形成由粗到细的行为识别框架;利用细粒度分类器分类相似行为的特点,提高行为识别准确率。
本发明将某些具有相似性行为类别聚类成同一个粗粒度类别,针对性的训练不同细粒度分类器,使得分类器具有识别该细粒度类似行为之间的差异特性。利用身体部位信息加权细粒度分类器特征表达,利用全局特征如全身和上下文信息,加权这些具有较大差异的粗粒度行为类别的特征表达。即加权全局信息训练粗粒度分类器,加权具体身体部位信息训练细粒度分类器,最后结合二者分类识别结果形成层次化的行为识别框架。
因此,本发明通过构造一个由粗到细的行为识别框架,利用级联行为人不同身体部位不同粒度的特征表达,针对性的训练行为分类器,从而有效地降低分错相似行为概率,提高了整体行为识别准确率。
附图说明
图1为由粗到细的视频目标行为识别的示意图。
具体实施方式
下面对照实施例并结合附图对本发明作进一步的说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
一种由粗到细的视频目标行为识别方法,将某些具有相似性行为类别聚类成同一个粗粒度类别,针对性的训练不同细粒度分类器,使得不同细粒度分类器具有识别该细粒度类似行为之间的差异特性。利用身体部位信息加权细粒度分类器特征表达,利用全局特征如全身和上下文信息,加权这些具有较大差异的粗粒度行为类别的特征表达。即加权全局信息训练粗粒度分类器,加权具体身体部位信息训练细粒度分类器,最后结合二者分类识别结果形成由粗到细的行为识别框架。
以标注关节点人体运动数据集(Joint-annotated Human Motion Data Base,JHMDB)行为数据集分类识别为例。JHMDB数据集特点:特点1、视频数据量少。由于JHMDB数据集是从人体运动数据集(Human Motion Data Base 51,HMDB51)行为数据集筛选出的单人为主行为,且行为人关键点信息已经标注。该行为数据集包含21类行为,928个有效视频,如果训练神经网络易发生过拟合现象,导致分类器性能较差。特点2、行为类别分布广泛且存在相似行为。JHMDB行为由于单人运动为主,行为类别有限但跨度较大,有梳妆类、体育类和日常行为类。但相似行为存在较多,例如抓和篮球、射击和射箭,跑、走、跳和踢球等。
本发明提出的由粗到细框架结合不同粒度特征方法,正是从人为语义理解出发,将行为数据集按照主要执行行为部位不同,将JHMDB数据集分为上半身类行为、下半身类行为和其他行为。对相似行为例如上半身类行为,选择加权左手部、右手部、上半身特征,对于差异性较大的不同粗类行为,加权全身和上下文信息全局信息的表示。
本发明包括构建利用行为人身体部位关键点,裁剪视频帧和计算好的光流图像,获取不同身体部位图像与光流区域图像,送入CNN网络提取全连接层网络特征,聚合多帧特征和不同身体部位特征,针对性的训练行为识别分类器,此处选用SVM分类器。对于粗类别分类器中粗类别真值的获取,即如何将相似行为归为同一个粗类问题,本发明采用真值映射方案,迭代训练粗分类器,将行为类别映射至不同粗类别,直到粗分类器输出粗类别错误率低于阈值。对于每个细粒度分类器,聚合不同身体部位特征,这里粗类别分类器特征和细粒度分类器最后的特征向量都包含原始图像的结构纹理特征和光流图像的运动特征。最后将粗粒度分类器结果概率和细粒度分类器结果概率结合,形成最后分类结果,具体步骤细节为:
A、利用现有成熟的姿态估计算法或者视频内标注信息获取人体关键点信息,裁剪缩放人体不同身体部位图像:上半身,左手部,右手部,下半身部和全身部五个部位。具体以左手手腕、左手臂关键点确定左手部在图像的位置区域;以右手腕、右手臂确定右手部区域;以腰处、头颈处、左右手腕和左右手臂关键点确定人体上半身部区域;以腰处、左右膝关节处和左右脚腕处确定人体下半身区域;以人体所有关键点包括左右手、左右腿、头颈处、腰处关键点处确定全身区域。放大五个部位区域1.2倍左右,使子图像完全包含部位信息,裁剪后并缩放存储,例如网络输入大小为224*224,可裁剪成256*256大小,输入时可以通过随机偏移裁剪的数据增强手段至标准输入大小;
B、以视觉计算组网络(Visual Geometry Group Network,VGG)网络作为特征提取网络,通过卷积神经网络对输入视频的连续帧和光流帧中不同部位区域进行多层卷积和池化运算,提取VGG网络倒数第二层4096维的全连接层向量,利用最大、最小聚合策略聚合多帧的特征,级联视频帧和光流图像的特征,形成最后的不同视频i中不同部位Pj视频的特征向量
C、利用提取出的不同部位特征与全局视频向量迭代训练支持向量机(Support Vector Machine,SVM)分类器,寻找最优粗分类类别与粗类别里所包含的细粒度行为种类;在JHMDB数据集中,利用公式(1)迭代分类后,将数据集行为分为三个粗类:上半身类行为、下半身类行为和其他类行为三个粗类。其中,上半身类行为包含梳头、抓、拍手、打高尔夫、倾倒、射击、射箭、击球、打棒球、扔和挥手行为;下半身类行为包含爬楼梯、跳跃、踢球、奔跑和走路行为;其他类行为包含捡起、引体向上、推、坐下和站立行为。
训练粗分类器中,采用真值映射方案,迭代训练粗分类器,将行为类别映射至不同粗类别,直到粗分类器输出粗类别错误率低于阈值;
其中,N表示第j类行为包含的测试样本数,T表示行为类别总数,K表示划分的粗类别数。划分JHMDB数据集为K=3个粗类别。表示j类行为的粗类别。其中:
迭代训练粗粒度分类器,并且每个类别粗粒度分类错误率控制在0.3以下。测试时,测试视频得到粗粒度分类器识别结果概率
D、训练细粒度分类器:每个细粒度分类器选取不同部位视频特征向量级联,针对当前包含的多种细粒度行为进行分类器训练,遍历视频的不同身体部位区域特征向量组合,找到针对当前细粒度行为分类器的身体部位最佳组合。例如训练区别射击与射箭类运动的上半身类行为分类器,测试时,测试视频得到细粒度分类器识别结果概率最后特征向量级联了上半身、左右手部位区域和全图上下文区域特征向量。分类器选择1对多的线性核SVM分类器;
五、利用公式(3)将两级即粗粒度分类器和细粒度分类器分类结果概率融合,得到整个行为识别最终结果:
其中,表示粗类别概率k表示预测的粗类别。表示细类别概率Ik(xi)表示预测的粗类别k是否相等于视频序列xi的粗类别
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (4)
1.一种由粗到细的视频目标行为识别方法,其特征在于:具体步骤如下:
A、利用现有成熟的姿态估计算法或者视频内标注信息获取人体关键点信息,裁剪缩放人体不同身体部位图像:上半身,左手部,右手部,下半身部和全身部五个部位;
B、以视觉计算组网络网络作为特征提取网络,通过卷积神经网络对输入视频的连续帧和光流帧中不同部位区域进行多层卷积和池化运算,提取VGG网络倒数第二层4096维的全连接层向量,利用最大、最小聚合策略聚合多帧的特征,级联视频帧和光流图像的特征,形成最后的不同视频i中不同部位Pj视频的特征向量
C、利用提取出的不同部位特征与全局视频向量迭代训练支持向量机(SupportVector Machine,SVM)分类器,寻找最优粗分类类别与粗类别里所包含的细粒度行为种类;在JHMDB数据集中,利用公式(1)迭代分类后,将数据集行为分为三个粗类:上半身类行为、下半身类行为和其他类行为三个粗类;
训练粗分类器中,采用真值映射方案,迭代训练粗分类器,将行为类别映射至不同粗类别,直到粗分类器输出粗类别错误率低于阈值;
其中,N表示第j类行为包含的测试样本数,T表示行为类别总数,K表示划分的粗类别数;划分JHMDB数据集为K=3个粗类别。表示j类行为的粗类别。其中:
迭代训练粗粒度分类器,并且每个类别粗粒度分类错误率控制在0.3以下;测试时,测试视频得到粗粒度分类器识别结果概率
D、训练细粒度分类器:每个细粒度分类器选取不同部位视频特征向量级联,针对当前包含的多种细粒度行为进行分类器训练,遍历视频的不同身体部位区域特征向量组合,找到针对当前细粒度行为分类器的身体部位最佳组合,最后特征向量级联了上半身、左右手部位区域和全图上下文区域特征向量;
五、利用公式(3)将两级即粗粒度分类器和细粒度分类器分类结果概率融合,得到整个行为识别最终结果:
其中,表示粗类别概率k表示预测的粗类别。表示细类别概率Ik(xi)表示预测的粗类别k是否相等于视频序列xi的粗类别
2.根据权利要求1所述的一种由粗到细的视频目标行为识别方法,其特征在于:在步骤C中,利用提取出的不同部位和全局视频特征向量,迭代训练粗分类器,寻找最优粗分类类别与粗粒度行为类别里所包含的细粒度行为种类,是指:利用真值映射方案,迭代训练粗粒度分类器,将行为类别映射至不同粗类别,直到粗分类器输出粗类别错误率低于阈值。
3.根据权利要求1所述的一种由粗到细的视频目标行为识别方法,其特征在于:在步骤D中,每个细粒度分类器选取不同部位视频特征向量级联,针对当前包含的多种细粒度行为训练,是指:针对相似行为聚合成的一个细粒度行为集合,组合加权行为人身体部位特征表达,达到细粒度分类更准确的目的。
4.根据权利要求1所述的一种由粗到细的视频目标行为识别方法,其特征在于:在步骤E中,将两级即粗粒度分类器和细粒度分类器分类结果概率融合,得到整个行为识别最终结果,是指:将在步骤C和在步骤D得到的粗粒度结果和多个细粒度分类器结果结合,形成由粗到细的行为识别框架;利用细粒度分类器分类相似行为的特点,提高行为识别准确率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910375228.1A CN110163127A (zh) | 2019-05-07 | 2019-05-07 | 一种由粗到细的视频目标行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910375228.1A CN110163127A (zh) | 2019-05-07 | 2019-05-07 | 一种由粗到细的视频目标行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110163127A true CN110163127A (zh) | 2019-08-23 |
Family
ID=67633556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910375228.1A Pending CN110163127A (zh) | 2019-05-07 | 2019-05-07 | 一种由粗到细的视频目标行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163127A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674874A (zh) * | 2019-09-24 | 2020-01-10 | 武汉理工大学 | 基于目标精细组件检测的细粒度图像识别方法 |
CN111144378A (zh) * | 2019-12-30 | 2020-05-12 | 众安在线财产保险股份有限公司 | 一种目标对象的识别方法及装置 |
CN111182208A (zh) * | 2019-12-31 | 2020-05-19 | Oppo广东移动通信有限公司 | 拍照方法、装置、存储介质及电子设备 |
CN111444812A (zh) * | 2020-03-23 | 2020-07-24 | 星汉智能科技股份有限公司 | 一种用于公安日常训练的人体姿态评估方法及系统 |
CN111507403A (zh) * | 2020-04-17 | 2020-08-07 | 腾讯科技(深圳)有限公司 | 图像分类方法、装置、计算机设备和存储介质 |
CN111666857A (zh) * | 2020-05-29 | 2020-09-15 | 平安科技(深圳)有限公司 | 基于环境语义理解的人体行为识别方法、装置及存储介质 |
CN111860620A (zh) * | 2020-07-02 | 2020-10-30 | 苏州富鑫林光电科技有限公司 | 一种用于深度学习的多层递阶式神经网络架构系统 |
CN112199501A (zh) * | 2020-10-13 | 2021-01-08 | 华中科技大学 | 一种科技信息文本分类方法 |
CN112487957A (zh) * | 2020-11-27 | 2021-03-12 | 广州华多网络科技有限公司 | 视频行为检测、响应方法及装置、设备、介质 |
CN112699841A (zh) * | 2021-01-13 | 2021-04-23 | 华南理工大学 | 一种基于行车视频的交通标志检测识别方法 |
CN112818805A (zh) * | 2021-01-26 | 2021-05-18 | 四川天翼网络服务有限公司 | 一种基于特征融合的细粒度车辆属性分析系统及方法 |
WO2021098585A1 (en) * | 2019-11-22 | 2021-05-27 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image search based on combined local and global information |
CN113076846A (zh) * | 2021-03-26 | 2021-07-06 | 山东大学 | 心音分类识别方法及系统 |
CN113139467A (zh) * | 2021-04-23 | 2021-07-20 | 西安交通大学 | 基于分级式结构的细粒度视频动作识别方法 |
CN113157974A (zh) * | 2021-03-24 | 2021-07-23 | 西安维塑智能科技有限公司 | 一种基于文字表述的行人检索方法 |
CN113762221A (zh) * | 2021-11-05 | 2021-12-07 | 通号通信信息集团有限公司 | 人体检测方法及装置 |
WO2022062243A1 (zh) * | 2020-09-25 | 2022-03-31 | 上海商汤智能科技有限公司 | 目标重识别方法、装置、设备、存储介质及程序产品 |
CN114782538A (zh) * | 2022-06-16 | 2022-07-22 | 长春融成智能设备制造股份有限公司 | 一种应用于灌装领域兼容不同桶型视觉定位方法 |
CN115035462A (zh) * | 2022-08-09 | 2022-09-09 | 阿里巴巴(中国)有限公司 | 视频识别方法、装置、设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150206026A1 (en) * | 2014-01-23 | 2015-07-23 | Samsung Electronics Co., Ltd. | Method of generating feature vector, generating histogram, and learning classifier for recognition of behavior |
CN105740773A (zh) * | 2016-01-25 | 2016-07-06 | 重庆理工大学 | 基于深度学习和多尺度信息的行为识别方法 |
CN106951872A (zh) * | 2017-03-24 | 2017-07-14 | 江苏大学 | 一种基于无监督深度模型与层次属性的行人再识别方法 |
CN108108699A (zh) * | 2017-12-25 | 2018-06-01 | 重庆邮电大学 | 融合深度神经网络模型和二进制哈希的人体动作识别方法 |
CN108960140A (zh) * | 2018-07-04 | 2018-12-07 | 国家新闻出版广电总局广播科学研究院 | 基于多区域特征提取和融合的行人再识别方法 |
-
2019
- 2019-05-07 CN CN201910375228.1A patent/CN110163127A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150206026A1 (en) * | 2014-01-23 | 2015-07-23 | Samsung Electronics Co., Ltd. | Method of generating feature vector, generating histogram, and learning classifier for recognition of behavior |
CN105740773A (zh) * | 2016-01-25 | 2016-07-06 | 重庆理工大学 | 基于深度学习和多尺度信息的行为识别方法 |
CN106951872A (zh) * | 2017-03-24 | 2017-07-14 | 江苏大学 | 一种基于无监督深度模型与层次属性的行人再识别方法 |
CN108108699A (zh) * | 2017-12-25 | 2018-06-01 | 重庆邮电大学 | 融合深度神经网络模型和二进制哈希的人体动作识别方法 |
CN108960140A (zh) * | 2018-07-04 | 2018-12-07 | 国家新闻出版广电总局广播科学研究院 | 基于多区域特征提取和融合的行人再识别方法 |
Non-Patent Citations (4)
Title |
---|
GUILHEM CHERON 等: "P-CNN: Pose-based CNN Features for Action Recognition", 《ARXIV:1506.03607V2》 * |
WEIWEI LIU 等: "Global for Coarse and Part for Fine: A Hierarchical Action Recognition Framework", 《2018 25TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 * |
YANG QIN 等: "Skeleton-based action recognition by part-aware graph convolutional networks", 《SPRINGERLINK》 * |
王钰翔 等: "基于Wi-Fi的非接触式行为识别研究综述", 《浙江大学学报》 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674874A (zh) * | 2019-09-24 | 2020-01-10 | 武汉理工大学 | 基于目标精细组件检测的细粒度图像识别方法 |
WO2021098585A1 (en) * | 2019-11-22 | 2021-05-27 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image search based on combined local and global information |
CN111144378A (zh) * | 2019-12-30 | 2020-05-12 | 众安在线财产保险股份有限公司 | 一种目标对象的识别方法及装置 |
CN111144378B (zh) * | 2019-12-30 | 2023-10-31 | 众安在线财产保险股份有限公司 | 一种目标对象的识别方法及装置 |
CN111182208A (zh) * | 2019-12-31 | 2020-05-19 | Oppo广东移动通信有限公司 | 拍照方法、装置、存储介质及电子设备 |
CN111182208B (zh) * | 2019-12-31 | 2021-09-10 | Oppo广东移动通信有限公司 | 拍照方法、装置、存储介质及电子设备 |
CN111444812A (zh) * | 2020-03-23 | 2020-07-24 | 星汉智能科技股份有限公司 | 一种用于公安日常训练的人体姿态评估方法及系统 |
CN111507403A (zh) * | 2020-04-17 | 2020-08-07 | 腾讯科技(深圳)有限公司 | 图像分类方法、装置、计算机设备和存储介质 |
CN111666857A (zh) * | 2020-05-29 | 2020-09-15 | 平安科技(深圳)有限公司 | 基于环境语义理解的人体行为识别方法、装置及存储介质 |
CN111666857B (zh) * | 2020-05-29 | 2023-07-04 | 平安科技(深圳)有限公司 | 基于环境语义理解的人体行为识别方法、装置及存储介质 |
CN111860620A (zh) * | 2020-07-02 | 2020-10-30 | 苏州富鑫林光电科技有限公司 | 一种用于深度学习的多层递阶式神经网络架构系统 |
WO2022062243A1 (zh) * | 2020-09-25 | 2022-03-31 | 上海商汤智能科技有限公司 | 目标重识别方法、装置、设备、存储介质及程序产品 |
CN112199501B (zh) * | 2020-10-13 | 2024-03-19 | 华中科技大学 | 一种科技信息文本分类方法 |
CN112199501A (zh) * | 2020-10-13 | 2021-01-08 | 华中科技大学 | 一种科技信息文本分类方法 |
CN112487957A (zh) * | 2020-11-27 | 2021-03-12 | 广州华多网络科技有限公司 | 视频行为检测、响应方法及装置、设备、介质 |
CN112699841A (zh) * | 2021-01-13 | 2021-04-23 | 华南理工大学 | 一种基于行车视频的交通标志检测识别方法 |
CN112818805A (zh) * | 2021-01-26 | 2021-05-18 | 四川天翼网络服务有限公司 | 一种基于特征融合的细粒度车辆属性分析系统及方法 |
CN113157974B (zh) * | 2021-03-24 | 2023-05-26 | 西安维塑智能科技有限公司 | 一种基于文字表述的行人检索方法 |
CN113157974A (zh) * | 2021-03-24 | 2021-07-23 | 西安维塑智能科技有限公司 | 一种基于文字表述的行人检索方法 |
CN113076846A (zh) * | 2021-03-26 | 2021-07-06 | 山东大学 | 心音分类识别方法及系统 |
CN113139467A (zh) * | 2021-04-23 | 2021-07-20 | 西安交通大学 | 基于分级式结构的细粒度视频动作识别方法 |
CN113762221B (zh) * | 2021-11-05 | 2022-03-25 | 通号通信信息集团有限公司 | 人体检测方法及装置 |
CN113762221A (zh) * | 2021-11-05 | 2021-12-07 | 通号通信信息集团有限公司 | 人体检测方法及装置 |
CN114782538A (zh) * | 2022-06-16 | 2022-07-22 | 长春融成智能设备制造股份有限公司 | 一种应用于灌装领域兼容不同桶型视觉定位方法 |
CN114782538B (zh) * | 2022-06-16 | 2022-09-16 | 长春融成智能设备制造股份有限公司 | 一种应用于灌装领域兼容不同桶型视觉定位方法 |
CN115035462A (zh) * | 2022-08-09 | 2022-09-09 | 阿里巴巴(中国)有限公司 | 视频识别方法、装置、设备和存储介质 |
CN115035462B (zh) * | 2022-08-09 | 2023-01-24 | 阿里巴巴(中国)有限公司 | 视频识别方法、装置、设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163127A (zh) | 一种由粗到细的视频目标行为识别方法 | |
Huang et al. | Tracknet: A deep learning network for tracking high-speed and tiny objects in sports applications | |
CN106778854B (zh) | 基于轨迹和卷积神经网络特征提取的行为识别方法 | |
CN107944431B (zh) | 一种基于运动变化的智能识别方法 | |
CN109919122A (zh) | 一种基于3d人体关键点的时序行为检测方法 | |
CN110097103A (zh) | 基于生成对抗网络的半监督图像分类方法 | |
CN108399380A (zh) | 一种基于三维卷积和Faster RCNN的视频动作检测方法 | |
CN108133188A (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN107067413B (zh) | 一种时空域统计匹配局部特征的运动目标检测方法 | |
CN108765394A (zh) | 基于质量评价的目标识别方法 | |
Zhai et al. | Action coherence network for weakly-supervised temporal action localization | |
CN109446922B (zh) | 一种实时鲁棒的人脸检测方法 | |
CN108280436A (zh) | 一种基于堆叠递归单元的多级残差网络的动作识别方法 | |
CN110348364A (zh) | 一种无监督聚类与时空域深度网络相结合的篮球视频群体行为识别方法 | |
CN108664838A (zh) | 基于改进rpn深度网络的端到端的监控场景行人检测方法 | |
Khan et al. | Learning deep C3D features for soccer video event detection | |
CN110490109A (zh) | 一种基于单目视觉的在线人体康复动作识别方法 | |
CN108154113A (zh) | 基于全卷积网络热度图的跌倒事件检测方法 | |
Mo et al. | Background noise filtering and distribution dividing for crowd counting | |
CN110163131A (zh) | 混合卷积神经网络与小生境灰狼优化的人体动作分类方法 | |
Jin et al. | Cvt-assd: convolutional vision-transformer based attentive single shot multibox detector | |
Vainstein et al. | Modeling video activity with dynamic phrases and its application to action recognition in tennis videos | |
CN112613472B (zh) | 一种基于深度搜索匹配的行人检测方法及系统 | |
Zhang et al. | Research on pose recognition algorithm for sports players based on machine learning of sensor data | |
CN113537164A (zh) | 一种实时的动作时序定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190823 |
|
WD01 | Invention patent application deemed withdrawn after publication |