CN113569766A - 一种面向无人机巡逻的行人异常行为检测方法 - Google Patents

一种面向无人机巡逻的行人异常行为检测方法 Download PDF

Info

Publication number
CN113569766A
CN113569766A CN202110873102.4A CN202110873102A CN113569766A CN 113569766 A CN113569766 A CN 113569766A CN 202110873102 A CN202110873102 A CN 202110873102A CN 113569766 A CN113569766 A CN 113569766A
Authority
CN
China
Prior art keywords
pedestrian
abnormal
space
patrol
abnormal behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110873102.4A
Other languages
English (en)
Other versions
CN113569766B (zh
Inventor
仇梓峰
耿虎军
郝亚峰
姜亚龙
王雅涵
胡炎
杨福琛
张泽勇
熊恒斌
李方用
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 54 Research Institute
Original Assignee
CETC 54 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 54 Research Institute filed Critical CETC 54 Research Institute
Priority to CN202110873102.4A priority Critical patent/CN113569766B/zh
Publication of CN113569766A publication Critical patent/CN113569766A/zh
Application granted granted Critical
Publication of CN113569766B publication Critical patent/CN113569766B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向无人机巡逻的行人异常行为检测方法,属于计算机视觉技术领域。该方法使用多层时空图卷积架构来有效地编码人类骨架之间的时空关系,并预测未来帧中的人类轨迹,从而监测人的异常行为。多层时空图卷积架构结合超像素分割对多层次的图进行表示,低层图形结构描述人体关节的空间和时间嵌入,高级图结构通过观察多重身份之间的相互作用来表示行为的不规则性。通过加权合并多个层次,提高这些层次在不同的场景中表现的灵活性和鲁棒性,最终实现多场景理解,并为异常检测服务。该方法面向无人机全自主警戒巡逻、业务巡检、环境巡查及社情巡视,为公共区域的安全治理提供创新手段,对公共场所中异常行为进行有效监测。

Description

一种面向无人机巡逻的行人异常行为检测方法
技术领域
本发明涉及计算机视觉技术领域,特别是指一种面向无人机巡逻的行人异常行为检测方法。
背景技术
使用无人机巡逻来保障公共场所行人的安全,避免由于突发事件造成人员伤亡,监测公共区域的暴力行为,对于提高公共安全具有重要的意义。因此,为了维护公共秩序,保障人民安全,可基于无人机巡逻来预警并间接扼制异常行为犯罪。在此背景下,面向公共安全的行人异常行为监测系统的建立越来越受到重视。
对行人进行异常行为检测是计算机视觉中的一个重要任务,学者们对此进行了深入研究。目前,异常行为检测方法主要分为基于姿态估计和视频理解2种方法。
基于人体姿态估计的异常行为检测方法通过人体姿态估计算法得到人体的骨架信息,即关节点位置。通过分析视频序列中人体骨架信息能够定位到视频中行为发生的时序位置,并对视频行为进行分类。然而,实现人体姿态估计面临一系列难题。首先,每个图像包含未知数量的人,且人可能以任意尺寸出现在任何位置。其次,由于人与人之间的相互作用会引起复杂的空间干扰,从而使将关节连接成完整人的过程变得困难。另外,将人体姿态估计算法移植到嵌入式设备,并应用人体姿态信息进行视频行为分析,对人体姿态估计算法实时性提出较高要求。实现无人机巡逻视角下的公共区域异常行为监测面临两项挑战。首先,传统的视频监控采用固定安装的摄像头进行监测,公共区域异常行为发生地点的不确定性使传统固定摄像头监控不能满足监测要求;其次,异常行为发生时往往存在各种不同的、难以事先预测的形式的肢体动作变化,如何在缺乏标注数据和先验信息的前提下对视频中人体行为进行分析成为了必要。
基于视频理解的异常行为检测方法根据应用场景不同可以分为以下三大类: (1)视频行为识别:主要目的是为一个视频进行分类,类别是视频中人的行为,这可以类比于二维图像领域的图片分类。但此类方法仅能用于人工剪辑好的视频,且整个视频都包含某种固定行为,无法实际部署在监控场景;(2)视频时序行为检测:与行为识别不同的是,这里的输入视频较长,可能存在一个甚至多个行为类别,因此其主要目的是,对于给定的一段未分割的长视频,检测其中的行为实例,包括它的开始时间、结束时间以及类别。这点类似于二维图像领域中的目标检测,找出图像中目标所在的区域,并给这个区域内的目标进行分类。但此类方法仅能在完成对整个视频的观察之后才能做出判断,不能实时监测;(3)视频描述:之前两个任务是对视频中层语义的理解,这里主要是去理解视频的高层语义。该任务的目的是实现用文字来描述视频内容,也就是输入一个视频,输出一段描述文字。同样这可类比于二维图像领域的图片文字描述,这两者的主要区别是,这里引入了时序信息,也就是利用了帧间的关系。此类方法也是仅能在完成整个视频的观测之后,根据前后帧线索推断某一帧的异常程度。但是,上述异常检测都是基于常规训练数据的重建,尽管它适用于许多事件,但是由于标签集的不完整以及与标签中无关信息的区别,其方法在很多情况下都表现不佳。
由于现有行为识别模型通常只能针对给定的剪辑好的仅包含某种固定行为的视频进行分类识别,且即使是专用于行为检测的模型也只能在完成对整个视频的观测之后才能对包含感兴趣行为的时间段进行提取,所以需要对实时输入的视频流进行即时分析并实时做出预测。除此之外,由于日常的无人机巡逻视频主要包含正常行为,仅有极少数视频会出现异常行为,因而通过人力将异常行为挑选出来的过程需要耗费极大的成本。
发明内容
有鉴于此,本发明提供了一种面向无人机巡逻的行人异常行为检测方法,该方法使用时空图卷积架构来完整地描述由人类骨架构成的图随时间变化的信息,进而能够根据历史轨迹预测未来帧内所有人类骨架特征的模型。
为了实现上述目的,本发明采用的技术方案为:
一种面向无人机巡逻的行人异常行为检测方法,包括以下步骤:
(1)利用图结构对行人姿态进行建模,形成图卷积模型;
(2)建立时空图卷积异常行为检测模型,所述时空图卷积异常行为检测模型包括时空图特征提取器、未来运动轨迹预测器和异常值判决器三个部分,其中,时空图特征提取器即为步骤(1)得到的图卷积模型;
(3)将行人关键节点在历史帧中的位置信息输入到时空图卷积异常行为检测模型的时空图特征提取器中,对其进行归一化处理,获得不同关键节点相对于行人中心位置的归一化坐标数值,并得到行为随时间的变化规律;
(4)将行为随时间的变化规律输入到时空图卷积异常行为检测模型的未来运动轨迹预测器中,预测未来一帧的行人姿态;
(5)通过时空图卷积异常行为检测模型的异常值判决器,将未来一帧和历史帧中的行人姿态与训练集中正常行为对应的姿态进行无监督相似度分析,输出行人异常分数。
进一步的,所述步骤(1)的具体方式为:
(101)将单个行人建模为图结构G={g,ε},其中g={ji∈RC|i=1,...,N} 表示人体关键节点坐标集合,其中j表示人体关键节点坐标,N为人体关键节点总数,R表示人体关键节点所属的特征范围,C表示每个关键节点的特征维度,ε={ei|i=1,...,N}表示g中各关键节点的关联的集合;
(102)将每个关键节点的特征、其近邻关键节点的特征以及关键节点之间的关联进行融合,形成图卷积模型GCN;所述图卷积模型GCN有两种表达形式:
1)
Figure RE-GDA0003255759840000031
其中,W0、W1表示卷积层权重,N(ji)表示关键节点ji的邻域,ci,k用于对邻域内的向量进行模值归一化,抵消邻域内关键节点及特征向量过多造成的影响,σ()是卷积层的非线性激活函数;
2)
Figure RE-GDA0003255759840000032
其中,
Figure RE-GDA0003255759840000033
W为卷积层权重,矩阵
Figure RE-GDA0003255759840000034
表示N个人体关键节点之间的连接关系,
Figure RE-GDA0003255759840000035
是连接关系的集合,I表示自身连接的单位矩阵,矩阵A中的元素Am,n=0时表示jm和jn无语义连接关系,矩阵A中的元素 Am,n=1时表示jm和jn具有语义连接关系,Λ=∑A+α是归一化对角矩阵,α=0.001。
进一步的,步骤(3)的具体方式为:
利用行人尺寸以及行人的中心位置,对行人关键节点的位置进行归一化处理,获得不同关键节点相对于中心位置的归一化坐标数值,得到行为随时间的变化规律。
进一步的,步骤(4)的具体方式为:
通过归一化坐标数值获得历史帧中行人姿态的运动规律线索和速度线索,预测未来一帧的行人姿态。
进一步的,步骤(5)的具体方式为:
(501)对正常姿态进行聚类,得到各聚类簇的簇中心;
(502)基于下式进行无监督相似度分析:
Figure RE-GDA0003255759840000041
其中,aj表示第j个行人的姿态特征,ce表示对正常姿态进行聚类的第e个簇中心,E为聚类簇的总个数,Dist即为行人异常分数;
(503)在正常行为的视频中统计行人异常分数的均值和方差,然后按照 3sigma法则,以99.7%的上界作为阈值;若被检测行人的异常分数大于阈值,则判定其行为异常。
本发明的有益效果在于:
1、本发明使用的方法无需标注信息,只需要在包含正常行为的视频中进行训练,将学习到的关于正常行为的特征表达与实时采集到的行为进行比对,对差异较大的行为给出异常判断;由于无标签的训练数据可以从互联网大量获得,因而训练处的模型能够泛化到多类场景,特别适用于无人机巡逻领域。
2、本发明使用的时空图卷积异常行为检测模型对行人姿态随时间的变化进行建模,创新性的将空间关键点语义关系与多关键点随时间的位置变化信息结合,通过模型判断每一帧行人姿态与历史若干帧姿态的连贯性以及行人姿态与大量正常行为对应姿态的加权相似度来判断异常程度,获得优于当前同类方法的精度。
附图说明
图1为本发明实施例中行人动作轨迹建模示意图。
图2为本发明实施例中时空图卷积异常行为检测模型结构示意图。
具体实施方式
下面,结合附图对本发明的技术方案做进一步说明。显然,这些内容仅是本发明的一部分实施例,而不是全部的实施例。基于以下实施例,本领域普通技术人员在没有做出创造性劳动前提下所获取的所有其他实施例,都属于本发明的保护范围。
一种面向无人机巡逻的行人异常行为检测方法,该方法包括以下步骤:
(1)针对行人肢体关键节点之间相对位置不规则、随机变化但语义相关性不变的特征,利用图结构对行人姿态进行建模;
(2)将图卷积方法对空间关联关键节点的建模扩展到对时间-空间关联节点,并形成时空图卷积异常行为检测模型;
(3)将行人关键点在多帧中的位置信息以及不同时刻关键点之间的语义关联作为时空图卷积异常行为检测模型的输入;
(4)时空图卷积异常行为检测模型还对每一帧中行人姿态与训练集中正常行为对应的姿态进行无监督相似度分析,通过时空图卷积模型输出行人异常分数表征。
具体来说,步骤(1)的具体方式为:
将单个行人建模为图结构G={g,ε},其中g={ji∈RC|i=1,...,N}表示人体关键点坐标集合,其中C表示每个关键点的特征维度,ε={ei}表示上述节点的关联;
将每个关键节点的特征、其近邻关键节点的特征以及这些点之间的关联进行融合得到更丰富的语义特征并形成图卷积模型(Graph Convolutional Network, GCN),GCN的结构可以表示为
Figure RE-GDA0003255759840000051
其中W0, W1∈RC×C’表示卷积层权重,N(ji)表示关键点ji的邻域,ci,k用于对邻域内的向量进行模值归一化,抵消邻域内关键点及特征向量过多造成的影响,σ()是卷积层的非线性激活函数;
每个节点的邻域表示和此节点具有语义连接关系的节点集合,因此,GCN可以表示为
Figure RE-GDA0003255759840000061
其中
Figure RE-GDA0003255759840000062
矩阵
Figure RE-GDA0003255759840000063
表示N个人体关键节点之间的连接关系,Am,n=0表示jm和jn无语义连接关系,Am,n=1表示jm和jn具有语义连接关系。
Figure RE-GDA0003255759840000064
实现归一化功能。
步骤(2)的具体方式为:
时空图卷积异常行为检测模型可以表示为:
N(ji,t)→N(ji,t)∪{ji,t'||t’-t|≤T0};
时空图卷积异常行为检测模型的输入尺寸为CP(2T0+1),输出尺寸为 C'P(2T0+1),C和C'分别代表输入和输出的特征维度,P表示每张图的人数,T0代表第0帧,t和t′分别表示输入帧和输出帧的帧计数。
步骤(3)的具体方式为:
利用行人尺寸以及中心位置对于关键点位置进行包含归一化的预处理,获得不同关键点相对于中心位置的归一化坐标数值;
通过历史若干帧中的行人姿态预测未来一帧的姿态,预测依赖于运动规律线索和速度线索;具体方式为:
将预测的图结构分为全局图和局部图两部分,使用层级图推理的方式提供了多维且独立的损失计算方式,可以更加精确地描述预期值和真实值之间的差异;
如图1所示,需要测量不同人类骨架的大小和它们的几何中心点,其中:
人体骨架表示为:f=(xm,n,ym,n),由于行走等动作而产生较大的横向形变,因此只测量骨架的身高h及其Y坐标高低差值的绝对值,如公式:h=max(yn)- min(yn);
为了避免四肢快速变化对速度测量的影响,选取变化平稳的躯干的四个点XY 坐标均值作为其几何中心P,如公式:
Figure RE-GDA0003255759840000065
Figure RE-GDA0003255759840000066
k∈[5,6,11,12]
式中,k代表躯干的四个点的索引;
收集预测值和真值中所有人的关键点信息,计算其几何中心以构成全局图 fg,其包含所有人的中心点位置信息,
Figure RE-GDA0003255759840000071
每个节点表示一个人;
将几何中心映射到每个局部图fl,其表示一个独立的归一化后的人体所有关
Figure RE-GDA0003255759840000072
人群。局部图对姿态变化有更好的识别效果,例如打斗、摔倒等行为;
异常事件通常包含多种复杂因素,彼此具有一定的相关性,层级图推理打破其相关性而互不干扰,提高了方法的鲁棒性;
步骤(4)的具体方式为:
无监督相似度分析可以表达为
Figure RE-GDA0003255759840000073
其中aj表示第j个行人的姿态特征,ce表示对正常姿态进行聚类的第e个簇中心;
通过加权获得当前行为与所有正常行为的距离;
时空图卷积异常行为检测模型主要由时空图特征提取器、未来运动轨迹预测器和异常值判决器组成,当前行为与所有正常行为的距离越大,异常值判决器得分越高,最终每个行人的异常程度通过时空图卷积模型输出的异常分数表征。
上述方法中,通过加权获得当前行为与所有正常行为的距离的具体方式为:
先构建一组空间图Gt,以表示S。Gt定义为Gt=(gt,εt),其中
Figure RE-GDA0003255759840000074
Figure RE-GDA0003255759840000075
是图Gt的一组顶点,顶点的属性为坐标位置信息
Figure RE-GDA0003255759840000076
εt是图Gt中的一组边,表示为
Figure RE-GDA0003255759840000077
Figure RE-GDA0003255759840000078
Figure RE-GDA0003255759840000079
连接,则
Figure RE-GDA00032557598400000710
否则
Figure RE-GDA00032557598400000711
利用一种新颖的核函数
Figure RE-GDA00032557598400000712
表示两个节点之间相互影响的强烈程度,该值由以下公式定义:
Figure RE-GDA0003255759840000081
针对每个
Figure RE-GDA0003255759840000082
进行赋值,从而构造出加权邻接矩阵A。
时空图卷积异常行为检测模型如图2所示,主要由时空图特征提取器、未来运动轨迹预测器和异常值判决器组成,当前行为与所有正常行为的距离越大,异常值判决器得分越高,最终每个行人的异常程度通过时空图卷积模型输出的异常分数表征包括:
时空图特征提取器由时空图卷积神经网络构成,对历史帧中的所有人类骨架的图形表示进行时空卷积运算以提取特征;
未来运动轨迹预测器由时序卷积网络构成,将这些图形特征用作输入可以通过卷积运算来推算未来的行人关键点运动轨迹;
异常值判决器通过层级图推理的方式对未来的骨架轨迹计算得到异常分数。
总之,本发明通过简单线性迭代聚类算法对异常行为检测前置处理进行综合优化,从而获得了优于当前公开行为检测分析方法的速度。此外,本发明将空间关键点语义关系与多关键点随时间的位置变化信息结合,通过模型判断每一帧行人姿态与历史若干帧姿态的连贯性以及行人姿态与大量正常行为对应姿态的加权相似度来判断异常程度,从而获得了优于当前同类方法的精度。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (5)

1.一种面向无人机巡逻的行人异常行为检测方法,其特征在于,包括以下步骤:
(1)利用图结构对行人姿态进行建模,形成图卷积模型;
(2)建立时空图卷积异常行为检测模型,所述时空图卷积异常行为检测模型包括时空图特征提取器、未来运动轨迹预测器和异常值判决器三个部分,其中,时空图特征提取器即为步骤(1)得到的图卷积模型;
(3)将行人关键节点在历史帧中的位置信息输入到时空图卷积异常行为检测模型的时空图特征提取器中,对其进行归一化处理,获得不同关键节点相对于行人中心位置的归一化坐标数值,并得到行为随时间的变化规律;
(4)将行为随时间的变化规律输入到时空图卷积异常行为检测模型的未来运动轨迹预测器中,预测未来一帧的行人姿态;
(5)通过时空图卷积异常行为检测模型的异常值判决器,将未来一帧和历史帧中的行人姿态与训练集中正常行为对应的姿态进行无监督相似度分析,输出行人异常分数。
2.根据权利要求1所述的一种面向无人机巡逻的行人异常行为检测方法,其特征在于,所述步骤(1)的具体方式为:
(101)将单个行人建模为图结构G={g,ε},其中g={ji∈RC|i=1,...,N}表示人体关键节点坐标集合,其中j表示人体关键节点坐标,N为人体关键节点总数,R表示人体关键节点所属的特征范围,C表示每个关键节点的特征维度,ε={ei|i=1,...,N}表示g中各关键节点的关联的集合;
(102)将每个关键节点的特征、其近邻关键节点的特征以及关键节点之间的关联进行融合,形成图卷积模型GCN;所述图卷积模型GCN有两种表达形式:
1)
Figure FDA0003189398930000011
其中,W0、W1表示卷积层权重,N(ji)表示关键节点ji的邻域,ci,k用于对邻域内的向量进行模值归一化,抵消邻域内关键节点及特征向量过多造成的影响,σ()是卷积层的非线性激活函数;
2)
Figure FDA0003189398930000021
其中,/=[j1,j2,...,jN]T
Figure FDA0003189398930000022
W为卷积层权重,矩阵
Figure FDA0003189398930000023
表示N个人体关键节点之间的连接关系,
Figure FDA0003189398930000025
是连接关系的集合,I表示自身连接的单位矩阵,矩阵A中的元素Am,n=0时表示jm和jn无语义连接关系,矩阵A中的元素Am,n=1时表示jm和jn具有语义连接关系,Λ=∑A+α是归一化对角矩阵,α=0.001。
3.根据权利要求1所述的一种面向无人机巡逻的行人异常行为检测方法,其特征在于,步骤(3)的具体方式为:
利用行人尺寸以及行人的中心位置,对行人关键节点的位置进行归一化处理,获得不同关键节点相对于中心位置的归一化坐标数值,得到行为随时间的变化规律。
4.根据权利要求1所述的一种面向无人机巡逻的行人异常行为检测方法,其特征在于,步骤(4)的具体方式为:
通过归一化坐标数值获得历史帧中行人姿态的运动规律线索和速度线索,预测未来一帧的行人姿态。
5.根据权利要求1所述的一种面向无人机巡逻的行人异常行为检测方法,其特征在于,步骤(5)的具体方式为:
(501)对正常姿态进行聚类,得到各聚类簇的簇中心;
(502)基于下式进行无监督相似度分析:
Figure FDA0003189398930000024
其中,aj表示第j个行人的姿态特征,ce表示对正常姿态进行聚类的第e个簇中心,E为聚类簇的总个数,Dist即为行人异常分数;
(503)在正常行为的视频中统计行人异常分数的均值和方差,然后按照3sigma法则,以99.7%的上界作为阈值;若被检测行人的异常分数大于阈值,则判定其行为异常。
CN202110873102.4A 2021-07-30 2021-07-30 一种面向无人机巡逻的行人异常行为检测方法 Active CN113569766B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110873102.4A CN113569766B (zh) 2021-07-30 2021-07-30 一种面向无人机巡逻的行人异常行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110873102.4A CN113569766B (zh) 2021-07-30 2021-07-30 一种面向无人机巡逻的行人异常行为检测方法

Publications (2)

Publication Number Publication Date
CN113569766A true CN113569766A (zh) 2021-10-29
CN113569766B CN113569766B (zh) 2022-10-04

Family

ID=78169539

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110873102.4A Active CN113569766B (zh) 2021-07-30 2021-07-30 一种面向无人机巡逻的行人异常行为检测方法

Country Status (1)

Country Link
CN (1) CN113569766B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114485666A (zh) * 2022-01-10 2022-05-13 北京科技大学顺德研究生院 基于物体关联关系认知推理的盲人辅助导航方法及装置
CN114565784A (zh) * 2022-03-15 2022-05-31 平安科技(深圳)有限公司 基于聚类算法的行人异常行为检测方法及装置、存储介质
CN115494865A (zh) * 2022-09-22 2022-12-20 中国科学技术大学 基于时空图卷积网络的无人机集群态势分析方法及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522793A (zh) * 2018-10-10 2019-03-26 华南理工大学 基于机器视觉的多人异常行为检测与识别方法
US20210103742A1 (en) * 2019-10-08 2021-04-08 Toyota Research Institute, Inc. Spatiotemporal relationship reasoning for pedestrian intent prediction
CN112699771A (zh) * 2020-12-26 2021-04-23 南京理工大学 基于人体姿态预测的异常行为检测算法
CN112800944A (zh) * 2021-01-26 2021-05-14 北京市商汤科技开发有限公司 人群行为检测方法及装置、电子设备和存储介质
CN112991656A (zh) * 2021-02-04 2021-06-18 北京工业大学 基于姿态估计的全景监控下人体异常行为识别报警系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522793A (zh) * 2018-10-10 2019-03-26 华南理工大学 基于机器视觉的多人异常行为检测与识别方法
US20210103742A1 (en) * 2019-10-08 2021-04-08 Toyota Research Institute, Inc. Spatiotemporal relationship reasoning for pedestrian intent prediction
CN112699771A (zh) * 2020-12-26 2021-04-23 南京理工大学 基于人体姿态预测的异常行为检测算法
CN112800944A (zh) * 2021-01-26 2021-05-14 北京市商汤科技开发有限公司 人群行为检测方法及装置、电子设备和存储介质
CN112991656A (zh) * 2021-02-04 2021-06-18 北京工业大学 基于姿态估计的全景监控下人体异常行为识别报警系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈璐: "基于姿态估计的航拍场景暴力行为监测", 《中国优秀硕士学位论文全文数据库》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114485666A (zh) * 2022-01-10 2022-05-13 北京科技大学顺德研究生院 基于物体关联关系认知推理的盲人辅助导航方法及装置
CN114565784A (zh) * 2022-03-15 2022-05-31 平安科技(深圳)有限公司 基于聚类算法的行人异常行为检测方法及装置、存储介质
CN115494865A (zh) * 2022-09-22 2022-12-20 中国科学技术大学 基于时空图卷积网络的无人机集群态势分析方法及介质
CN115494865B (zh) * 2022-09-22 2024-05-14 中国科学技术大学 基于时空图卷积网络的无人机集群态势分析方法及介质

Also Published As

Publication number Publication date
CN113569766B (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
Chackravarthy et al. Intelligent crime anomaly detection in smart cities using deep learning
Singh et al. Deep spatio-temporal representation for detection of road accidents using stacked autoencoder
CN113569766B (zh) 一种面向无人机巡逻的行人异常行为检测方法
Coşar et al. Toward abnormal trajectory and event detection in video surveillance
Swathi et al. Crowd behavior analysis: A survey
Huang et al. Vs-star: A visual interpretation system for visual surveillance
CN114202803A (zh) 一种基于残差网络的多阶段人体异常动作检测方法
Tomar et al. Crowd analysis in video surveillance: A review
Zhou et al. A review of multiple-person abnormal activity recognition
Bhardwaj et al. Machine Learning-Based Crowd Behavior Analysis and Forecasting
Wu et al. Computer vision-based intelligent elevator information system for efficient demand-based operation and optimization
Fan et al. Video anomaly detection using CycleGan based on skeleton features
Mishra et al. Real-Time pedestrian detection using YOLO
Hao et al. Human behavior analysis based on attention mechanism and LSTM neural network
Singh et al. An intelligent video surveillance system using edge computing based deep learning model
Alzahrani et al. Anomaly detection in crowds by fusion of novel feature descriptors
Halim Intelligent Human Anomaly Identification and Classification in Crowded Scenes via Multi-fused Features and Restricted Boltzmann Machines
Akilandasowmya et al. Human action analysis using K-NN classifier
Patel et al. Predictive convolutional long short-term memory network for detecting anomalies in smart surveillance
Agrawal et al. Suspicious event detection in real-time video surveillance system
Hajari et al. Motion Pattern Based Anomalous Pedestrian Activity Detection
Yan et al. Dangerous Action Recognition for Spatial-Temporal Graph Convolutional Networks
Khel et al. Hybridized YOLOv4 for detecting and counting people in congested crowds
Borja-Borja et al. Architecture for Automatic Recognition of Group Activities Using Local Motions and Context
Schuster et al. Multi-cue learning and visualization of unusual events

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant