CN108846365B - 视频中打架行为的检测方法、装置、存储介质及处理器 - Google Patents

视频中打架行为的检测方法、装置、存储介质及处理器 Download PDF

Info

Publication number
CN108846365B
CN108846365B CN201810656523.XA CN201810656523A CN108846365B CN 108846365 B CN108846365 B CN 108846365B CN 201810656523 A CN201810656523 A CN 201810656523A CN 108846365 B CN108846365 B CN 108846365B
Authority
CN
China
Prior art keywords
preset
model
human body
detection
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810656523.XA
Other languages
English (en)
Other versions
CN108846365A (zh
Inventor
周文明
王志鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhongyue Technology Co ltd
Original Assignee
Shenzhen Zhongyue Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zhongyue Technology Co ltd filed Critical Shenzhen Zhongyue Technology Co ltd
Priority to CN201810656523.XA priority Critical patent/CN108846365B/zh
Publication of CN108846365A publication Critical patent/CN108846365A/zh
Application granted granted Critical
Publication of CN108846365B publication Critical patent/CN108846365B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种视频中打架行为的检测方法、装置、存储介质及处理器。其中,该方法包括:对待检测视频进行解码,得到多张单帧图片;根据预设深度学习姿态估计模型对多张单帧图片进行提取处理,得到多张单帧图片中的人体关键节点的位置信息;基于位置信息得到多张人体骨架序列图;将多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;对一个或多个初步检测结果进行计算,得到目标检测结果。本发明解决了现有技术中的视频中打架行为检测存在的检测精度较低、检测效率较差的技术问题。

Description

视频中打架行为的检测方法、装置、存储介质及处理器
技术领域
本发明涉及视频处理领域,具体而言,涉及一种视频中打架行为的检测方法、装置、存储介质及处理器。
背景技术
近年来,随着监控摄像头数量猛增,对海量视频进行实时高效分析处理的需求日益迫切。在传统的人工分析监管模式中,一个安保人员通常需要时刻关注多个监控视频画面,人员的视觉疲劳、精力分散等极易造成判别能力的降低,带来误检或漏检等诸多问题。为了第一时间发现打架斗殴等异常行为,进行实时预警,视频的智慧分析成为了研究重点。
针对视频的打架斗殴等异常行为检测,现有技术中通过时空兴趣点来描述视频中的人体动作,通过分析时空兴趣点的分布及其质心的平均位移量来检测人体交互的剧烈程度,从而判别是否发生打架行为。该方法将质心作为判断打架行为的唯一依据,信息量有限,误判率较高。此外,现有技术中还通过光流法从输入视频序列中提取光流运动矢量,结合聚类分析进行打架斗殴的检测识别。然而光流法对于外界照明变化较为敏感,准确性难以得到保证。综上,现有技术中的视频中打架行为检测存在检测精度较低、检测效率较差的技术问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种视频中打架行为的检测方法、装置、存储介质及处理器,以至少解决现有技术中的视频中打架行为检测存在的检测精度较低、检测效率较差的技术问题。
根据本发明实施例的一个方面,提供了一种视频中打架行为的检测方法,该方法包括:对待检测视频进行解码,得到多张单帧图片;根据预设深度学习姿态估计模型对上述多张单帧图片进行提取处理,得到上述多张单帧图片中的人体关键节点的位置信息;基于上述位置信息得到多张人体骨架序列图;将上述多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与上述多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;对上述一个或多个初步检测结果进行计算,得到目标检测结果。
进一步地,在根据预设深度学习姿态估计模型对上述多张单帧图片进行提取处理之前,上述方法还包括:创建预设人体姿态估计数据集和第一预设模型;根据上述预设人体姿态估计数据集训练上述第一预设模型,得到上述预设深度学习姿态估计模型,其中,上述预设深度学习姿态估计模型为达到收敛状态的上述第一预设模型。
进一步地,在根据预设三维卷积神经网络异常行为检测模型对上述多张人体骨架序列图进行检测之前,上述方法还包括:创建预设人体异常行为检测数据集和第二预设模型;根据上述预设人体异常行为检测数据集训练上述第二预设模型,得到上述预设三维卷积神经网络异常行为检测模型,其中,上述预设三维卷积神经网络异常行为检测模型为达到收敛状态的上述第二预设模型。
进一步地,上述对上述一个或多个初步检测结果进行计算,得到目标检测结果包括:计算上述多个初步检测结果的平均值或极大值,得到上述目标检测结果。
根据本发明实施例的另一方面,还提供了一种视频中打架行为的检测装置,该装置包括:解码单元,用于对待检测视频进行解码,得到多张单帧图片;处理单元,用于根据预设深度学习姿态估计模型对上述多张单帧图片进行提取处理,得到上述多张单帧图片中的人体关键节点的位置信息;获取单元,用于基于上述位置信息得到多张人体骨架序列图;检测单元,用于将上述多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与上述多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;计算单元,用于对上述一个或多个初步检测结果进行计算,得到目标检测结果。
进一步地,上述装置还包括:第一创建单元,用于创建预设人体姿态估计数据集和第一预设模型;第一训练单元,用于根据上述预设人体姿态估计数据集训练上述第一预设模型,得到上述预设深度学习姿态估计模型,其中,上述预设深度学习姿态估计模型为达到收敛状态的上述第一预设模型。
进一步地,上述装置还包括:第二创建单元,用于创建预设人体异常行为检测数据集和第二预设模型;第二训练单元,用于根据上述预设人体异常行为检测数据集训练上述第二预设模型,得到上述预设三维卷积神经网络异常行为检测模型,其中,上述预设三维卷积神经网络异常行为检测模型为达到收敛状态的上述第二预设模型。
进一步地,上述计算单元包括:计算子单元,用于计算上述多个初步检测结果的平均值或极大值,得到上述目标检测结果。
根据本发明实施例的另一方面,又提供了一种存储介质,上述存储介质包括存储的程序,其中,在上述程序运行时控制上述存储介质所在设备执行上述的视频中打架行为的检测方法。
根据本发明实施例的另一方面,又提供了一种处理器,上述处理器用于运行程序,其中,上述程序运行时执行上述的视频中打架行为的检测方法。
在本发明实施例中,采用对待检测视频进行解码,得到多张单帧图片的方式;进而根据预设深度学习姿态估计模型对多张单帧图片进行提取处理,得到多张单帧图片中的人体关键节点的位置信息;基于位置信息得到多张人体骨架序列图;通过将多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;达到了对一个或多个初步检测结果进行计算,得到目标检测结果的目的,从而实现了提升现有技术中的视频中打架行为检测的检测精度、提高检测效率的技术效果,进而解决了现有技术中的视频中打架行为检测存在的检测精度较低、检测效率较差的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种视频中打架行为的检测方法的流程示意图;
图2是根据本发明实施例的另一种视频中打架行为的检测方法的流程示意图;
图3是根据本发明实施例的又一种视频中打架行为的检测方法的流程示意图;
图4是根据本发明实施例的一种视频中打架行为的检测装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
实施例1
根据本发明实施例,提供了一种视频中打架行为的检测方法的实施例。
图1是根据本发明实施例的一种视频中打架行为的检测方法的流程示意图,如图1所示,该方法包括如下步骤:
步骤S102,对待检测视频进行解码,得到多张单帧图片;
步骤S104,根据预设深度学习姿态估计模型对多张单帧图片进行提取处理,得到多张单帧图片中的人体关键节点的位置信息;
步骤S106,基于位置信息得到多张人体骨架序列图;
步骤S108,将多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;
步骤S110,对一个或多个初步检测结果进行计算,得到目标检测结果。
在本发明实施例中,采用对待检测视频进行解码,得到多张单帧图片的方式;进而根据预设深度学习姿态估计模型对多张单帧图片进行提取处理,得到多张单帧图片中的人体关键节点的位置信息;基于位置信息得到多张人体骨架序列图;通过将多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;达到了对一个或多个初步检测结果进行计算,得到目标检测结果的目的,从而实现了提升现有技术中的视频中打架行为检测的检测精度、提高检测效率的技术效果,进而解决了现有技术中的视频中打架行为检测存在的检测精度较低、检测效率较差的技术问题。
可选地,步骤S102中的待检测视频可以为彩色视频,包含R、G、B三通道,不含深度信息。
可选地,步骤S106中的人体骨架序列图可以分为多段,每段包含M张人体骨架图片,其中,人体骨架序列图包含R、G、B三个通道,背景为黑色,人体不同位置的关键节点和肢体可以用不同颜色进行表示。其中,M为大于1的整数。优选地,本实施例中M为8。
可选地,步骤S108中,预设三维卷积神经网络异常行为检测模型的输入可以是多张图(M张),从而得到1个初步检测结果。例如:M取8,那么输入8张图得到1个初步检测结果,输入12张图得到2个结果;若待检测视频包含80张图,那么共得到10个初步检测结果。人体骨架序列图的数目和初步检测结果的数目之间存在数值匹配关系。
可选地,图2是根据本发明实施例的另一种视频中打架行为的检测方法的流程示意图,如图2所示,在根据预设深度学习姿态估计模型对多张单帧图片进行提取处理之前,该方法还可以包括:
步骤S202,创建预设人体姿态估计数据集和第一预设模型;
步骤S204,根据预设人体姿态估计数据集训练第一预设模型,得到预设深度学习姿态估计模型,其中,预设深度学习姿态估计模型为达到收敛状态的第一预设模型。
可选地,步骤S202中的预设人体姿态估计数据集中包含多张单帧图片,可以基于深度学习技术构建第一预设模型。
可选地,预设人体姿态估计数据集可以是LSP、FLIC、MPII、MSCOCO、AIChallenge等开源基准数据集。第一预设模型可以采用Convolutional Pose Machines、OpenPose等模型结构。优选地,本实施例采用OpenPose。
可选地,图3是根据本发明实施例的又一种视频中打架行为的检测方法的流程示意图,如图3所示,在根据预设三维卷积神经网络异常行为检测模型对多张人体骨架序列图进行检测之前,方法还包括:
步骤S302,创建预设人体异常行为检测数据集和第二预设模型;
步骤S304,根据预设人体异常行为检测数据集训练第二预设模型,得到预设三维卷积神经网络异常行为检测模型,其中,预设三维卷积神经网络异常行为检测模型为达到收敛状态的第二预设模型。
可选地,步骤S302中的预设人体异常行为检测数据集包含多段视频,每段视频的帧数长度为M,标签为每段视频中出现的行为类别,如打架、摔倒、奔跑等。可以基于深度学习技术构建第二预设模型,该第二预设模型采用三维卷积核,输入部分包含M个分支。
可选地,第二预设模型可以包含8个输入分支、5个三维卷积层、3个三维池化层、1个全连接层,分别是:
输入层:包含8个通道分支,输入图片尺寸为240x320x3;
第一三维卷积层:卷积核尺寸为3x3x3,通道数为32;
第二三维卷积层:卷积核尺寸为3x3x3,通道数为64;
第一三维池化层:池化核尺寸为2x2x2,步长为2;
第三三维卷积层:卷积核尺寸为3x3x3,通道数为128;
第四三维卷积层:卷积核尺寸为3x3x3,通道数为128;
第二三维池化层:池化核尺寸为2x2x2,步长为2;
第五三维卷积层:卷积核尺寸为3x3x3,通道数为256;
第三三维池化层:池化核尺寸为2x2x2,步长为2;
全连接层:神经元个数为1024。
可选地,对一个或多个初步检测结果进行计算,得到目标检测结果包括:计算多个初步检测结果的平均值或极大值,得到目标检测结果。
可选地,视频中打架斗殴等异常行为识别,其主要特征在于多个人体目标之间的动作交互过程。本申请采用深度学习技术构建深度学习姿态估计模型,提取图片中的人体关键节点位置信息,保留了输入图片中最为重要的判别特征,适用于多种场景。此外,本申请基于多张单帧图片中的人体关键节点的位置信息获得多张人体骨架序列图,用人体骨架序列图代替原始图片作为后续网络的输入,避免了背景变化、复杂环境、光线等对于识别精度的影响。再者,基于深度学习构建三维卷积神经网络异常行为检测模型,该模型包含多个输入分支,采用三维卷积核,可同时从输入的多张人体骨架序列图中提取时间信息和空间信息,其中,时间信息对于动作的判别分析具有重要作用。
在本发明实施例中,采用对待检测视频进行解码,得到多张单帧图片的方式;进而根据预设深度学习姿态估计模型对多张单帧图片进行提取处理,得到多张单帧图片中的人体关键节点的位置信息;基于位置信息得到多张人体骨架序列图;通过将多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;达到了对一个或多个初步检测结果进行计算,得到目标检测结果的目的,从而实现了提升现有技术中的视频中打架行为检测的检测精度、提高检测效率的技术效果,进而解决了现有技术中的视频中打架行为检测存在的检测精度较低、检测效率较差的技术问题。
实施例2
根据本发明实施例的另一方面,还提供了一种视频中打架行为的检测装置,如图4所示,该装置包括:解码单元401,用于对待检测视频进行解码,得到多张单帧图片;处理单元403,用于根据预设深度学习姿态估计模型对多张单帧图片进行提取处理,得到多张单帧图片中的人体关键节点的位置信息;获取单元405,用于基于位置信息得到多张人体骨架序列图;检测单元407,用于将多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;计算单元409,用于对一个或多个初步检测结果进行计算,得到目标检测结果。
可选地,该装置还可以包括:第一创建单元,用于创建预设人体姿态估计数据集和第一预设模型;第一训练单元,用于根据预设人体姿态估计数据集训练第一预设模型,得到预设深度学习姿态估计模型,其中,预设深度学习姿态估计模型为达到收敛状态的第一预设模型。
可选地,该装置还可以包括:第二创建单元,用于创建预设人体异常行为检测数据集和第二预设模型;第二训练单元,用于根据预设人体异常行为检测数据集训练第二预设模型,得到预设三维卷积神经网络异常行为检测模型,其中,预设三维卷积神经网络异常行为检测模型为达到收敛状态的第二预设模型。
可选地,该计算单元可以包括:计算子单元,用于计算多个初步检测结果的平均值或极大值,得到目标检测结果。
可选地,本申请中的存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行本申请实施例1中的视频中打架行为的检测方法。
可选地,本申请中的处理器用于运行程序,其中,程序运行时执行本申请实施例1中的视频中打架行为的检测方法。
在本发明实施例中,采用对待检测视频进行解码,得到多张单帧图片的方式;进而根据预设深度学习姿态估计模型对多张单帧图片进行提取处理,得到多张单帧图片中的人体关键节点的位置信息;基于位置信息得到多张人体骨架序列图;通过将多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;达到了对一个或多个初步检测结果进行计算,得到目标检测结果的目的,从而实现了提升现有技术中的视频中打架行为检测的检测精度、提高检测效率的技术效果,进而解决了现有技术中的视频中打架行为检测存在的检测精度较低、检测效率较差的技术问题。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种视频中打架行为的检测方法,其特征在于,包括:
对待检测视频进行解码,得到多张单帧图片;
根据预设深度学习姿态估计模型对所述多张单帧图片进行提取处理,得到所述多张单帧图片中的人体关键节点的位置信息;
基于所述位置信息得到多张人体骨架序列图;
将所述多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与所述多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;
对所述一个或多个初步检测结果进行计算,得到目标检测结果;
所述人体骨架序列图包含R、G、B三个通道;所述人体骨架序列图的背景为黑色,所述人体骨架序列图中人体不同位置的关键节点和肢体用不同颜色进行表示;
所述预设深度学习姿态估计模型为达到收敛状态的第一预设模型;所述第一预设模型包括:Convolutional Pose Machines;
所述预设三维卷积神经网络异常行为检测模型为达到收敛状态的第二预设模型;所述第二预设模型包含8个输入分支、5个三维卷积层、3个三维池化层、1个全连接层。
2.根据权利要求1所述的方法,其特征在于,在根据预设深度学习姿态估计模型对所述多张单帧图片进行提取处理之前,所述方法还包括:
创建预设人体姿态估计数据集和第一预设模型;
根据所述预设人体姿态估计数据集训练所述第一预设模型,得到所述预设深度学习姿态估计模型,其中,所述预设深度学习姿态估计模型为达到收敛状态的所述第一预设模型。
3.根据权利要求1所述的方法,其特征在于,在根据预设三维卷积神经网络异常行为检测模型对所述多张人体骨架序列图进行检测之前,所述方法还包括:
创建预设人体异常行为检测数据集和第二预设模型;
根据所述预设人体异常行为检测数据集训练所述第二预设模型,得到所述预设三维卷积神经网络异常行为检测模型,其中,所述预设三维卷积神经网络异常行为检测模型为达到收敛状态的所述第二预设模型。
4.根据权利要求1所述的方法,其特征在于,所述对所述一个或多个初步检测结果进行计算,得到目标检测结果包括:
计算所述多个初步检测结果的平均值或极大值,得到所述目标检测结果。
5.一种视频中打架行为的检测装置,其特征在于,包括:
解码单元,用于对待检测视频进行解码,得到多张单帧图片;
处理单元,用于根据预设深度学习姿态估计模型对所述多张单帧图片进行提取处理,得到所述多张单帧图片中的人体关键节点的位置信息;
获取单元,用于基于所述位置信息得到多张人体骨架序列图;
检测单元,用于将所述多张人体骨架序列图输入至预设三维卷积神经网络异常行为检测模型,得到与所述多张人体骨架序列图的数目相匹配的一个或多个初步检测结果;
计算单元,用于对所述一个或多个初步检测结果进行计算,得到目标检测结果;
所述人体骨架序列图包含R、G、B三个通道;所述人体骨架序列图的背景为黑色,所述人体骨架序列图中人体不同位置的关键节点和肢体用不同颜色进行表示;
所述预设深度学习姿态估计模型为达到收敛状态的第一预设模型;所述第一预设模型包括:Convolutional Pose Machines;
所述预设三维卷积神经网络异常行为检测模型为达到收敛状态的第二预设模型;所述第二预设模型包含8个输入分支、5个三维卷积层、3个三维池化层、1个全连接层。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
第一创建单元,用于创建预设人体姿态估计数据集和第一预设模型;
第一训练单元,用于根据所述预设人体姿态估计数据集训练所述第一预设模型,得到所述预设深度学习姿态估计模型,其中,所述预设深度学习姿态估计模型为达到收敛状态的所述第一预设模型。
7.根据权利要求5所述的装置,其特征在于,所述装置还包括:
第二创建单元,用于创建预设人体异常行为检测数据集和第二预设模型;
第二训练单元,用于根据所述预设人体异常行为检测数据集训练所述第二预设模型,得到所述预设三维卷积神经网络异常行为检测模型,其中,所述预设三维卷积神经网络异常行为检测模型为达到收敛状态的所述第二预设模型。
8.根据权利要求5所述的装置,其特征在于,所述计算单元包括:
计算子单元,用于计算所述多个初步检测结果的平均值或极大值,得到所述目标检测结果。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至权利要求4中任意一项所述的视频中打架行为的检测方法。
10.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至权利要求4中任意一项所述的视频中打架行为的检测方法。
CN201810656523.XA 2018-06-24 2018-06-24 视频中打架行为的检测方法、装置、存储介质及处理器 Active CN108846365B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810656523.XA CN108846365B (zh) 2018-06-24 2018-06-24 视频中打架行为的检测方法、装置、存储介质及处理器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810656523.XA CN108846365B (zh) 2018-06-24 2018-06-24 视频中打架行为的检测方法、装置、存储介质及处理器

Publications (2)

Publication Number Publication Date
CN108846365A CN108846365A (zh) 2018-11-20
CN108846365B true CN108846365B (zh) 2022-04-22

Family

ID=64203618

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810656523.XA Active CN108846365B (zh) 2018-06-24 2018-06-24 视频中打架行为的检测方法、装置、存储介质及处理器

Country Status (1)

Country Link
CN (1) CN108846365B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558832B (zh) * 2018-11-27 2021-03-26 广州市百果园信息技术有限公司 一种人体姿态检测方法、装置、设备及存储介质
CN109919032B (zh) * 2019-01-31 2021-03-30 华南理工大学 一种基于动作预测的视频异常行为检测方法
CN109857114A (zh) * 2019-02-26 2019-06-07 温州市职业中等专业学校 校园移动智能机器人及校园智能管理系统
CN110087099B (zh) * 2019-03-11 2020-08-07 北京大学 一种保护隐私的监控方法和系统
CN110427811A (zh) * 2019-06-21 2019-11-08 武汉倍特威视系统有限公司 基于视频流数据的人体骨骼化打架识别方法
CN110853272A (zh) * 2019-09-29 2020-02-28 五邑大学 公交车安全监测方法、装置、设备及存储介质
CN110781771A (zh) * 2019-10-08 2020-02-11 北京邮电大学 一种基于深度学习的异常行为实时监测方法
CN111429304A (zh) * 2020-02-28 2020-07-17 鄂尔多斯市斯创网络科技有限责任公司 一种食品安全监管平台
CN114201029A (zh) * 2020-09-02 2022-03-18 中国电信股份有限公司 动作检测方法、装置和存储介质
CN112370045B (zh) * 2020-10-15 2022-04-05 北京大学 基于人工智能的功能性动作检测方法及系统
CN112381004B (zh) * 2020-11-17 2023-08-08 华南理工大学 一种基于骨架的双流自适应图卷积网络行为识别方法
CN112489129A (zh) * 2020-12-18 2021-03-12 深圳市优必选科技股份有限公司 位姿识别模型训练方法、装置、位姿识别方法和终端设备
CN112651330B (zh) * 2020-12-23 2023-11-24 平安银行股份有限公司 目标对象行为检测方法、装置和计算机设备
CN113505680B (zh) * 2021-07-02 2022-07-15 兰州理工大学 基于内容的高时长复杂场景视频不良内容检测方法
CN116563939A (zh) * 2023-03-20 2023-08-08 南通锡鼎智能科技有限公司 基于深度信息的实验人员不规范行为检测方法及检测装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105069423A (zh) * 2015-07-29 2015-11-18 北京格灵深瞳信息技术有限公司 一种人体姿态检测方法及装置
CN105160310A (zh) * 2015-08-25 2015-12-16 西安电子科技大学 基于3d卷积神经网络的人体行为识别方法
CN106203283A (zh) * 2016-06-30 2016-12-07 重庆理工大学 基于三维卷积深度神经网络和深度视频的动作识别方法
CN107943276A (zh) * 2017-10-09 2018-04-20 广东工业大学 基于大数据平台的人体行为检测和预警

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345984B2 (en) * 2010-01-28 2013-01-01 Nec Laboratories America, Inc. 3D convolutional neural networks for automatic human action recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105069423A (zh) * 2015-07-29 2015-11-18 北京格灵深瞳信息技术有限公司 一种人体姿态检测方法及装置
CN105160310A (zh) * 2015-08-25 2015-12-16 西安电子科技大学 基于3d卷积神经网络的人体行为识别方法
CN106203283A (zh) * 2016-06-30 2016-12-07 重庆理工大学 基于三维卷积深度神经网络和深度视频的动作识别方法
CN107943276A (zh) * 2017-10-09 2018-04-20 广东工业大学 基于大数据平台的人体行为检测和预警

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition;Sijie Yan et al.;《arXiv》;20180125;第1-9页 *
Two-Stream 3D Convolutional Neural Network for Human Skeleton-Based Action Recognition;Hong Liu et al.;《JOURNAL OF LATEX CLASS FILES》;20150831;第14卷(第8期);第1-5页 *

Also Published As

Publication number Publication date
CN108846365A (zh) 2018-11-20

Similar Documents

Publication Publication Date Title
CN108846365B (zh) 视频中打架行为的检测方法、装置、存储介质及处理器
CN110298231B (zh) 一种用于篮球比赛视频进球判定的方法及系统
US11704888B2 (en) Product onboarding machine
CN105405150B (zh) 基于融合特征的异常行为检测方法和装置
CN111054080B (zh) 智能检测透视外挂方法、装置、设备及其存储介质
US20150092981A1 (en) Apparatus and method for providing activity recognition based application service
CN107169106B (zh) 视频检索方法、装置、存储介质及处理器
CN111444828A (zh) 一种模型训练的方法、目标检测的方法、装置及存储介质
CN103365936A (zh) 视频推荐系统及其方法
CN114202646A (zh) 一种基于深度学习的红外图像吸烟检测方法与系统
CN114885119A (zh) 一种基于计算机视觉的智能监控报警系统及方法
CN114926781A (zh) 支持实时监控场景的多人时空域异常行为定位方法及系统
CN111860457A (zh) 一种斗殴行为识别预警方法及其识别预警系统
CN111046213B (zh) 一种基于图像识别的知识库构建方法
CN113516102A (zh) 基于视频的深度学习抛物行为检测方法
Gupta et al. A modular multimodal architecture for gaze target prediction: Application to privacy-sensitive settings
CN109740527B (zh) 一种视频帧中图像处理方法
CN108876824B (zh) 目标跟踪方法、装置、系统及球机
Cao et al. YOLO-SF: YOLO for fire segmentation detection
Dotti et al. Unsupervised discovery of normal and abnormal activity patterns in indoor and outdoor environments
CN112712051A (zh) 对象跟踪方法、装置、计算机设备及存储介质
CN112949451A (zh) 通过模态感知特征学习的跨模态目标跟踪方法及系统
CN113569594A (zh) 一种人脸关键点的标注方法及装置
CN110956097A (zh) 遮挡人体提取方法及模块、场景转换方法及装置
CN109727218B (zh) 一种完整图形提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant