CN114677638B - 一种基于深度学习和聚类人群异常聚集的检测方法 - Google Patents
一种基于深度学习和聚类人群异常聚集的检测方法 Download PDFInfo
- Publication number
- CN114677638B CN114677638B CN202210260542.7A CN202210260542A CN114677638B CN 114677638 B CN114677638 B CN 114677638B CN 202210260542 A CN202210260542 A CN 202210260542A CN 114677638 B CN114677638 B CN 114677638B
- Authority
- CN
- China
- Prior art keywords
- list
- pedestrians
- abnormal
- crowd
- aggregation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 230000002159 abnormal effect Effects 0.000 title claims abstract description 43
- 230000002776 aggregation Effects 0.000 title claims abstract description 26
- 238000004220 aggregation Methods 0.000 title claims abstract description 26
- 238000013135 deep learning Methods 0.000 title claims abstract description 7
- 238000000034 method Methods 0.000 claims abstract description 22
- 230000005856 abnormality Effects 0.000 claims abstract description 9
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000012952 Resampling Methods 0.000 claims description 2
- 230000001351 cycling effect Effects 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 238000004088 simulation Methods 0.000 description 11
- 238000003909 pattern recognition Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000012634 fragment Substances 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 206010000117 Abnormal behaviour Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- FKOQWAUFKGFWLH-UHFFFAOYSA-M 3,6-bis[2-(1-methylpyridin-1-ium-4-yl)ethenyl]-9h-carbazole;diiodide Chemical compound [I-].[I-].C1=C[N+](C)=CC=C1C=CC1=CC=C(NC=2C3=CC(C=CC=4C=C[N+](C)=CC=4)=CC=2)C3=C1 FKOQWAUFKGFWLH-UHFFFAOYSA-M 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明本发明涉及人群异常检测方法技术领域,公开了一种基于深度学习和聚类的聚集人群异常的检测方法,其技术方案要点是:利用YOLOv5方法提取视频中的所有行人,随后利用聚类算法选取聚集的行人,经过FlowNet2处理后输入到DeepOC模型获得异常检测结果,通过高精度目标检测方法将行人与背景分开,通过聚集算法挑选参与聚集的行人,通过学习聚集人群的外观特征和时域特征,判断融合时空特征是否为离群点,是则为异常聚集人群,否则为正常,实现人群异常聚集检测;本发明解决了现实监控视频录像中的人群异常聚集问题。
Description
技术领域
本发明涉及人群异常检测方法技术领域,尤其是一种基于深度学习和聚类人群异常聚集的检测方法。
背景技术
异常事件检测目前存在两大主流方法。一种基于半监督学习方法,一种基于弱监督学习方法。半监督学习网络是利用堆叠卷积降噪自编码器或者对抗生成网络学习正常视频的特征分布,通过比较正常特征与异常特征的差异,完成异常事件检测。弱监督的学习网络根据弱标记的数据学习正常事件和异常事件的特征分布,并主动使得正常特征和异常特征的差异最大化,实现异常事件检测。
神经网络具有多层网络结构,能够自动提取出数据更高阶的特征,常用于文本、图像和视频的处理。通常来说人群异常事件总是发生在人与人之间,因此背景可视为数据噪声滤去,可以提高网络计算效率的同时减小背景噪声对网络性能的影响。基于深度学习的人群异常检测方法的主要思想为:利用高精度的目标检测网络检测原始数据中的行人,通过聚集算法挑选出参与聚集的行人,所有提取行人的外观和运动特征,通过比较正常事件特征与异常事件特征之间的差异,得出输入数据的异常概率,完成异常人群聚集的检测。
D.Xu,Y.Yan,E.Ricci和N.Sebe在其发表的论文“Learning Deep Representationof Appearance and Motion for Anomalous Event Detection”(British MachineVision Conference(BMVC),2015)中提出一种基于堆叠降噪自编码器的半监督异常事件检测方法。该方法通过多个降噪自编码器同时学习数据中的空域特征和时域特征,然后利用解码器对空域数据和时域数据进行重构,使用一类分类SVM分类器对时空特征分别进行分类,最终经过后期融合获得异常分数。该方法虽然能同时学习空域与时域的信息,但是由于采用的是基于线性层的自编码器无法提取深层的特征信息,影响缺陷检测模型,导致在复杂场景中检测效果不理想。
W.Sultani,C.Chen和M.Shah在其论文“Real-World Anomaly Detection inSurveillance Videos”(Conference on Computer Vision and Pattern Recognition(CVPR),2018)中提出一种基于多实例学习的弱监督异常事件检测方法。该方法设置两种视频片段包,异常视频包至少含有一个异常片段,正常视频包只含有正常视频片段,通过C3D提取每个视频的深度特征然后使用线性链接层计算异常得分,在训练中使得异常包的特征分布始终远离正常包的特征分布,实现异常事件检测。该方法虽然可以有效检测异常事件,但是在训练中需要大量异常视频和标注成本,而在缺乏异常数据的实际场景中,无法提供大量的异常数据用来训练,不利于实际部署。
发明内容
针对背景技术中提到的问题,本发明的目的是提供一种基于深度学习和聚类人群异常聚集检测方法,解决现实监控视频录像中的人群异常聚集问题。
本发明的上述技术目的是通过以下技术方案得以实现的:
(1)使用YOLOv5检测并截取出视频中的行人,将所有Bounding Box(x0,y0,x1,y1)信息保存为List_bbx。
(2)使用聚集算法检测聚集人群,并选取出参与聚集的行人;
(2a)按顺序计算List_bbx中所有元素的对角线距离平方R,并按顺序存储为List_r,计算方式如下公式:
R=(x1-x0)2+(y1-y0)2
其中,x0,y0和x1,y1,分别为Bounding Box的左上角和右下角横纵坐标。
(2b)按顺序计算List_bbx中所有元素的中心点C(c_x,c_y),并按顺序存储为List_c,计算方式如下公式:
其中,x0,y0和x1,y1,分别为Bounding Box的左上角和右下角横纵坐标。
(2c)对于List_c中的一点,将其加入空列表List_tmp,计算该点与其他任意一点之间的距离平方D,计算方法如下:
D=(c_x1-c_x0)2+(c_y1-c_y0)2
其中,c_x0,c_y0和c_x1,c_y1分别表示任意两个Bounding Box的中心点横纵坐标。定义一个调节参数λ,若D<λR,则将该点加入List_tmp,否则换下一个点,若所有List_c遍历完毕,则将List_tmp加入List_Cluster并清空List_tmp;
(2c)循环(2b)步骤,直至计算完毕List_c中任意两点之间的距离;
(2d)对于List_Cluster中任意两个子列表,若两者交集为非空,则将两子列表合并,最后滤除所有长度小于2的子列表,之后输出List_Cluster,并通过List_cluster中保存的索引值在List_bbx中提取出相应行人的Bounding Box。
(3)使用FlowNet2计算每个被选中的行人的光流信息;
(3a)根据每个行人第一帧的Bounding Box坐标截取接下来连续的16帧图像,重采样所有图像大小64×32pixel,并存储为List1;
(3b)复制上一步的List1为List2,并将List2的第一帧删除,并复制最后一帧添加到List2的最后;
(3c)将List1和List2分别按’Z’型顺序拼接成4×4(图像)的拼接图A和B。
(3d)A作为第一帧,B作为第二帧输入到FlowNet2模型中,输出两张张量Flow_x和Flow_y分别描述横纵方向上的行人运动模式;
(4)数据预处理:
(4a)将A归一化到[0,1]区间内;
(4b)将A、Flow_x和Flow_y分别按’Z’型顺序拆分为16张64×32的图像;
(4c)将A拆分后的16张图像按顺序存储为List_A;
(4d)将Flow_x和Flow_y拆分后的32张图像(f_x,f_y),以一张f_x和一张f_y的顺序间隔存储为列表List_M;
(5)异常检测:
(5a)训练阶段:将List_A和List_M输入DeepOC模型,使得损失函数优化至最小,等到模型收敛,保存训练好的模型;
(5b)测试阶段:加载训练好的模型,将List_A和List_M输入DeepOC模型,若提取到的特征中存在离群点,则报警出现异常,否则为正常。
综上所述,本发明主要具有以下有益效果:
第一,首先,由于本发明采用高精度目标检测方法将行人从背景中分割出来,避免被背景噪声的干扰;一般来说,聚集异常只发生在行人之间,只需要对人群行为进行识别,因此将行人与背景分离可以提升模型检测准确率和运算效率,同时使得本发明在各个场景下具有通用性,性能不会因为背景改变发生太大的性能变化,抗背景干扰能力较高。
第二,由于本发明采用聚集算法挑选参与聚集的行人进行检测,提升硬件计算效率。一般来说,诸如打架等异常行为均为两个人以上的聚集行为,因此我们只需要关注参与两个人以上聚集行为的行人的运动和外观信息就可以达到异常聚集行为的目的,因此不但节约了计算成本还提升了运算效率。
附图说明
为了更清楚地说明本发明实施方式的技术方案,下面将对实施方式中所需要使用的附图作简单的介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图,在附图中:
图1是本发明的系统原理图。
具体实施方式
为了使本发明的目的、技术方案进行清楚、完整地描述,及优点更加清楚明白,以下结合附图对本发明实施例进行进一步详细说明。
实施例1
参照附图1,对本发明的步骤做进一步的详细描述。
本发明通过高精度目标检测方法将行人与背景分开,通过聚集算法挑选参与聚集的行人,通过学习聚集人群的外观特征和时域特征,判断融合时空特征是否为离群点,是则为异常聚集人群,否则为正常,实现人群异常聚集检测,一种基于深度学习和聚类人群异常聚集的检测方法,具体如下:
步骤1,利用YOLOv5模型将行人截取出来。
加载训练好的YOLOv5模型,输入待检测的视频数据,对于第t帧ft,检测结果为一系列边界框数据记为bbxk,格式为(x0,y0,x1,y1)分别表示边界框左上角和右下角坐标值,所有的边界框数据存入空列表List_bbx中,格式为[bbx1,bbx2,…,bbxn],其中n表示该帧图像中检测到行人的数量。
步骤2,聚集算法选取聚集的行人。
首先按照下式计算每个行人的中心点坐标ck,将所有中心点数据按照和纵坐标组成的元组按顺序存入一个空列表List_c中,形式为[(x1,y1),(x2,y2),...,(xn,yn)]。
其中,x0,y0和x1,y1,分别为bbxk的左上角和右下角横纵坐标。
随后按照下式计算聚集最大半径rk,若该点的中心点到其他点的中心点距离小于rk,这两点形成聚集。将所有最大半径存入一个空列表List_r中,形式为[r1,r2,...,rn]。
r=(x1-x0)2+(y1-y0)2
其中,x0,y0和x1,y1,分别为bbxk的左上角和右下角横纵坐标。
对于第k点,其中1≤k<n,初始化k=1,对于第l点,其中k+1≤l≤n,初始化l=k+1。
将k加入一个空的临时列表List_tmp中;若k点与l点之间的距离小于rk则将l加入列表List_tmp中,下一步;否则直接继续下一步。
若l>n,将List_tmp作为子列表加入结果列表List_out中,并将临时列表List_tmp置空,k=k+1,l=k+1重复以上三步;否则,l=l+1,重复以上两步。
执行完毕之后,将列表List_out中任意两个交集为非空的子列表合并为一个列表并置换原来的两个子列表,直到List_out中任意两个子列表交集为空;
滤除列表List_out中所有长度小于2的子列表。
对列表List_out中的索引,利用它们提取存储在列表List_bbx中的边界框数据,截取每个行人连续16帧的图像figure k i(表示第k个行人的第i帧图像)数据,并将每一帧图像重置为大小为64×32像素的图像,将每个行人的16帧图像记为pk,形如并存入一个空列表List_A中,形式如[p1,p2,...,pn],其中n表示此时可以检测到参与聚集行人数量。
复制pk另存为nk,将pk最后一帧替换为将nk第一帧删除,并复制一帧添加在列表尾部。具体形式表示如下:
为了提高下一步的运算效率,需要将pk和nk按“Z”型拼接为一张大图,此时pk,nk做出如下变化:
步骤3,利用FlowNet2计算每个行人的光流。
加载训练好的FlowNet2模型,将pk作为第一帧,nk作为第二帧输入到模型中计算每个行人的光流图像,得到两张张量Flow_x和Flow_y分别用来表示x轴方向和y轴方向的运动量。
按照步骤2的逆向方式分别将Flow_x和Flow_y按“Z”型分割为连续的16帧光流图存入列表List_x和List_y中,其中:
List_x∈[flow_x1,flow_x2,...,flow_x16]
List_y∈[flow_y1,flow_y2,...,flow_y16]
随后,将List_x和List_y间隔合并成一个新列表fk中,其中:
最后,将所有人的光流图像存到一个新列表List_M中,其中:
List_M∈[f1,f2,...,fn]
步骤4,获取训练集。
将List_A归一化到[0,1]区间,List_M不需要归一化;最后都转为张量形式。
步骤5,输入待训练的DeepOC模型。
搭建DeepOC网络结构,将List_A加载进DeepOC的外观网络通道,将List_M加载进DeepOC的运动网络通道,获取融合特征List_Y和重构图像列表List_M*和List_A*,其中:
List_Y=[y1,y2,...,yn]
这里yk是第k个人长度为256的一位特征向量。
步骤6,计算离群点损失和重构损失并优化。
设置一个可优化变量R,第k个行人的特征yk,按照下式计算离群点损失Lr:
对于第k个人的重构图像pk*和fk*,按照下式计算重构损失:
其中pk,pk*分别表示第k个行人的RGB图像与其对应的重构图;fk,fk*分别表示第k个行人的光流图像与其对应的重构图。
为了同时优化两个损失函数,需要按下式计算联合损失进行优化:
L=10×Lr+1000×Lc
在训练过程中,我们使用Adam优化器,优化联合损失函数,学习率为1e-4,训练迭代次数为50。
步骤7,获取测试集。
将List_A归一化到[0,1]区间内,List_M不需要归一化;最后都转为张量形式。
步骤8,加载训练完毕的DeepOC模型,输入List_A和List_M到模型中,并获取融合特征向量列表List_Y。
步骤9,对于特征向量列表的任意一个行人的特征向量yk,按下式计算yk是否为离群点:
若Flag>0则该行人行为异常,否则为正常。
若n个人中存在一个异常行为的行人,则发出异常警报,否则不做反应。
步骤10,完成异常检测。
将输入的待检测视频的每一帧都输入该系统中,并完成检测,输出对应的检测结果,选择是否触发异常警报。
本发明的效果可通过以下仿真进一步说明。
1.仿真条件:
本发明的仿真实验的硬件平台为:NVIDIA GEFORCE RTX 3090 GPU。
本发明的仿真实验的软件平台为:Ubuntu18.04操作系统和Pytorch1.7.1。
2.仿真内容及仿真结果分析:.
本发明仿真实验采用UCF-Crime大型视频异常检测,该数据集视频总量为1900个,共128小时,平均帧率为7274帧。其中的异常事件类型包括虐待、抓捕、纵火、突袭、打架、抢劫、枪击、盗窃等共13种。我们把突袭、打架、当街抢劫、商店抢劫和枪击当作人群聚集异常事件,共400个异常视频,此外还有800个正常视频。总数的20%作为测试数据,80%作为训练数据。
本发明仿真实验是采用本发明和三个现有技术(基于重构的异常检测方法、基于未来帧预测的异常检测方法、基于多实例学习的视频异常检测方法)分别检测视频中的聚集异常事件
在仿真实验中,采用的三个现有技术是指:
现有技术基于重构的异常检测方法是指,M.Hasan等人在“Learning TemporalRegularity in Video Sequences,In:Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition(CVPR),2016,pp.733-742”中提出的视频异常检测方法,简称基于重构的视频异常检测测方法(AE)。
现有技术基于未来帧预测的视频异常检测方法是指,W.Liu等人在“Future FramePrediction for Anomaly Detection–A New Baseline,In:Proceedings of the IEEEConference on Computer Vision and Pattern Recognition(CVPR),2018,pp.6536-6545”中提出的视频异常检测方法,简称基于未来帧预测的视频异常检测方法(FFP)。
现有技术基于多实例学习的视频异常检测方法是指,W.Sultani等人在“Real-world Anomaly Detection in Surveillance Videos,In:Proceedings of the IEEEConference on Computer Vision and Pattern Recognition(CVPR),2018,pp.6479-6488”中提出的视频异常检测方法,简称基于多实例学习的视频异常检测方法(MIL)。
为了对本发明仿真结果的效果进行评估,本发明采用AUC作为性能评价指标与现有的三种技术进行对比,对比结果如表1所示。
表1本发明和三个现有技术AUC值的对比表
方法 | AUC |
AE | 50.6% |
FFP | 65.51% |
MIL | 75.41% |
提出的方法 | 86.2% |
表1是采用现有技术基于AUC评估标准方法得到的仿真结果,用基于重构的异常检测方法、基于未来帧预测的异常检测方法、基于多实例学习的异常检测方法对比实验后,得到的统计结果。
从表1可以看出,本发明方法在测试数据集上的AUC为86.2%,明显高于3种已有的技术方法,证明本方法可以有效的检测人群聚集异常事件。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种基于深度学习和聚类的聚集人群异常的检测方法,其特征在于,利用YOLOv5方法提取视频中的所有行人,随后利用聚类算法选取聚集的行人,经过FlowNet2处理后输入到DeepOC模型获得异常检测结果,具体步骤包括如下:
(1)使用YOLOv5检测并截取出视频中的行人,将所有Bounding Box(x0,y0,x1,y1)信息保存为List_bbx;
(2)使用聚集算法检测聚集人群,并选取出参与聚集的行人;
(2a)按顺序计算List_bbx中所有元素的对角线距离平方R,并按顺序存储为List_r,计算方式如下公式:
R=(x1-x0)2+(y1-y0)2
其中,x0,y0和x1,y1,分别为Bounding Box的左上角和右下角横纵坐标;
(2b)按顺序计算List_bbx中所有元素的中心点C(c_x,c_y),并按顺序存储为List_c,计算方式如下公式:
其中,x0,y0和x1,y1,分别为Bounding Box的左上角和右下角横纵坐标;
(2c)对于List_c中的一点,将其加入空列表List_tmp,计算该点与其他任意一点之间的距离平方D,计算方法如下:
D=(c_x1-c_x0)2+(c_y1-c_y0)2
其中,c_x0,c_y0和c_x1,c_y1分别表示任意两个Bounding Box的中心点横纵坐标;定义一个调节参数λ,若D<λR,则将该点加入List_tmp,否则换下一个点,若所有List_c遍历完毕,则将List_tmp加入List_Cluster并清空List_tmp;
(2c)循环(2b)步骤,直至计算完毕List_c中任意两点之间的距离;
(2d)对于List_Cluster中任意两个子列表,若两者交集为非空,则将两子列表合并,最后滤除所有长度小于2的子列表,之后输出List_Cluster,并通过List_cluster中保存的索引值在List_bbx中提取出相应行人的Bounding Box;
(3)使用FlowNet2计算每个被选中的行人的光流信息;
(3a)根据每个行人第一帧的Bounding Box坐标截取接下来连续的16帧图像,重采样所有图像大小64×32pixel,并存储为List1;
(3b)复制上一步的List1为List2,并将List2的第一帧删除,并复制最后一帧添加到List2的最后;
(3c)将List1和List2分别按’Z’型顺序拼接成4×4(图像)的拼接图A和B;
(3d)A作为第一帧,B作为第二帧输入到FlowNet2模型中,输出两张张量Flow_x和Flow_y分别描述横纵方向上的行人运动模式;
(4)数据预处理:
(4a)将A归一化到[0,1]区间内;
(4b)将A、Flow_x和Flow_y分别按’Z’型顺序拆分为16张64×32的图像;
(4c)将A拆分后的16张图像按顺序存储为List_A;
(4d)将Flow_x和Flow_y拆分后的32张图像(f_x,f_y),以一张f_x和一张f_y的顺序间隔存储为列表List_M;
(5)异常检测:
(5a)训练阶段:将List_A和List_M输入DeepOC模型,使得损失函数优化至最小,等到模型收敛,保存训练好的模型;
(5b)测试阶段:加载训练好的模型,将List_A和List_M输入DeepOC模型,若提取到的特征中存在离群点,则报警出现异常,否则为正常。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210260542.7A CN114677638B (zh) | 2022-03-16 | 2022-03-16 | 一种基于深度学习和聚类人群异常聚集的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210260542.7A CN114677638B (zh) | 2022-03-16 | 2022-03-16 | 一种基于深度学习和聚类人群异常聚集的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114677638A CN114677638A (zh) | 2022-06-28 |
CN114677638B true CN114677638B (zh) | 2024-04-05 |
Family
ID=82074526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210260542.7A Active CN114677638B (zh) | 2022-03-16 | 2022-03-16 | 一种基于深度学习和聚类人群异常聚集的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114677638B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115810178B (zh) * | 2023-02-03 | 2023-04-28 | 中电信数字城市科技有限公司 | 人群异常聚集预警方法、装置、电子设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警系统 |
CN110378233A (zh) * | 2019-06-20 | 2019-10-25 | 上海交通大学 | 一种基于人群行为先验知识的双分支异常检测方法 |
CN112115769A (zh) * | 2020-08-05 | 2020-12-22 | 西安交通大学 | 一种基于视频的无监督稀疏人群异常行为检测算法 |
CN112307895A (zh) * | 2020-09-27 | 2021-02-02 | 青岛邃智信息科技有限公司 | 一种社区监控场景下人群聚集异常行为检测方法 |
RU2742701C1 (ru) * | 2020-06-18 | 2021-02-09 | Самсунг Электроникс Ко., Лтд. | Способ интерактивной сегментации объекта на изображении и электронное вычислительное устройство для его реализации |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5400718B2 (ja) * | 2010-07-12 | 2014-01-29 | 株式会社日立国際電気 | 監視システムおよび監視方法 |
US8724904B2 (en) * | 2011-10-25 | 2014-05-13 | International Business Machines Corporation | Anomaly detection in images and videos |
CN107273872B (zh) * | 2017-07-13 | 2020-05-05 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
WO2020210504A1 (en) * | 2019-04-09 | 2020-10-15 | Avigilon Corporation | Anomaly detection method, system and computer readable medium |
-
2022
- 2022-03-16 CN CN202210260542.7A patent/CN114677638B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警系统 |
CN110378233A (zh) * | 2019-06-20 | 2019-10-25 | 上海交通大学 | 一种基于人群行为先验知识的双分支异常检测方法 |
RU2742701C1 (ru) * | 2020-06-18 | 2021-02-09 | Самсунг Электроникс Ко., Лтд. | Способ интерактивной сегментации объекта на изображении и электронное вычислительное устройство для его реализации |
CN112115769A (zh) * | 2020-08-05 | 2020-12-22 | 西安交通大学 | 一种基于视频的无监督稀疏人群异常行为检测算法 |
CN112307895A (zh) * | 2020-09-27 | 2021-02-02 | 青岛邃智信息科技有限公司 | 一种社区监控场景下人群聚集异常行为检测方法 |
Non-Patent Citations (2)
Title |
---|
基于深度学习的异常事件检测研究综述;符祖峰;刘松;王德红;牟珍;郑维鑫;;安顺学院学报;20200415(02);全文 * |
基于社会力异常检测改进算法的人群行为模型;卢丽;许源平;卢军;黄健;张朝龙;王晶;;成都信息工程大学学报;20180215(01);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114677638A (zh) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112396027B (zh) | 基于图卷积神经网络的车辆重识别方法 | |
CN111951212A (zh) | 对铁路的接触网图像进行缺陷识别的方法 | |
CN111626128A (zh) | 一种基于改进YOLOv3的果园环境下行人检测方法 | |
CN108491856B (zh) | 一种基于多尺度特征卷积神经网络的图像场景分类方法 | |
Masurekar et al. | Real time object detection using YOLOv3 | |
CN109919032A (zh) | 一种基于动作预测的视频异常行为检测方法 | |
CN112215128A (zh) | 融合fcos的r-cnn城市道路环境识别方法及装置 | |
CN108846852B (zh) | 基于多示例和时间序列的监控视频异常事件检测方法 | |
CN101872415A (zh) | 适用于iptv的视频拷贝检测方法 | |
CN114677638B (zh) | 一种基于深度学习和聚类人群异常聚集的检测方法 | |
CN114419413A (zh) | 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法 | |
CN114821374A (zh) | 一种知识与数据协同驱动的无人机航拍目标检测方法 | |
CN114693607A (zh) | 基于多域块特征标志点配准的篡改视频检测方法及系统 | |
CN113326862A (zh) | 审计大数据融合聚类与风险数据检测方法、介质、设备 | |
CN112329764A (zh) | 一种基于tv-l1模型的红外弱小目标检测方法 | |
Liu et al. | Traffic sign recognition algorithm based on improved YOLOv5s | |
CN117455855A (zh) | 一种基于YOLOv8的轻量级管纱检测模型构建方法 | |
CN109657577B (zh) | 一种基于熵和运动偏移量的动物检测方法 | |
CN116543333A (zh) | 电力系统的目标识别方法、训练方法、装置、设备和介质 | |
CN116310359A (zh) | 复杂环境光电成像弱小目标智能检测方法 | |
CN114120198A (zh) | 一种伪造视频检测方法、系统及存储介质 | |
CN114565752A (zh) | 一种基于类不可知前景挖掘的图像弱监督目标检测方法 | |
CN114494272A (zh) | 一种基于深度学习的金属零件快速分割方法 | |
CN118097517B (zh) | 一种基于双流时空编码器的自监督视频异常检测方法 | |
Timoshin et al. | Analysis of features of application of neural networks for intellectual processing of video flows of technical vision systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |