CN112613359A - 用于人员异常行为检测的神经网络的构建方法 - Google Patents

用于人员异常行为检测的神经网络的构建方法 Download PDF

Info

Publication number
CN112613359A
CN112613359A CN202011425659.3A CN202011425659A CN112613359A CN 112613359 A CN112613359 A CN 112613359A CN 202011425659 A CN202011425659 A CN 202011425659A CN 112613359 A CN112613359 A CN 112613359A
Authority
CN
China
Prior art keywords
neural network
network
features
constructing
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011425659.3A
Other languages
English (en)
Other versions
CN112613359B (zh
Inventor
田青
唐绍鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Jiuhe Intelligent Technology Co ltd
Original Assignee
Suzhou Jiuhe Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Jiuhe Intelligent Technology Co ltd filed Critical Suzhou Jiuhe Intelligent Technology Co ltd
Priority to CN202011425659.3A priority Critical patent/CN112613359B/zh
Publication of CN112613359A publication Critical patent/CN112613359A/zh
Application granted granted Critical
Publication of CN112613359B publication Critical patent/CN112613359B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种用于人员异常行为检测的神经网络的构建方法,所述神经网络是编码器‑解码器架构神经网络,神经网络的输入为采集到的图像,神经网络的构建方法为:步骤1、基于多分支卷积模块,生成不同的尺度下的特征映射图;步骤2、构建一个卷积神经网络,为编码器‑解码器架构,其中编码器提取语义和细节信息,解码器恢复特征图尺寸,获得最终分割结果;步骤3、对不同分支上的特征进行融合,获得准确的目标分割结果。该神经网络可用于工地场景的人员异常行为的实时检测应用。

Description

用于人员异常行为检测的神经网络的构建方法
技术领域
本技术方案是计算机技术在安监场景中的应用方法,具体是一种适用于人员异常行为检测的神经网络的构建方法,该神经网络是编码器-解码器架构神经网络。该神经网络可用于工地场景的人员异常行为的实时检测。
背景技术
传统工地管理面临建筑工地环境复杂、从业人员管理难、事故多发且调查取证难、项目安全管理难等问题。
随着手机使用的普及,工地工人进行作业时使用手机,会增加安全事故发生的可能性。而依靠人员监督难以起到实时的监督作用,如果采用事后监控视频进行检查,也需要大量的人力和时间成本,而且对预防安全事故来说,其效果远不如即时发现、即时处理。
发明内容
为了解决上述技术问题,本发明提出一种用于人员异常行为检测的神经网络的构建方法。所述神经网络是编码器-解码器架构神经网络,神经网络的输入为采集到的图像,神经网络的构建方法为:
步骤1、基于多分支卷积模块,生成不同的尺度下的特征映射图;
步骤2、构建一个卷积神经网络,为编码器-解码器架构,其中编码器提取语义和细节信息,解码器恢复特征图尺寸,获得最终分割结果;
步骤3、对不同分支上的特征进行融合,获得准确的目标分割结果;
所述步骤1中,把低分辨率、高语义信息的高层特征和高分辨率、低语义信息的低层特征进行自上而下的侧边连接,使得所有尺度下的特征都有丰富的语义信息;
所述步骤2中,采用FPN特征金字塔网络进行多尺度目标检测;不同尺度的ROI,使用不同特征层作为ROI pooling层的输入;
对于输入图像中不同尺寸的目标的不同特征,利用浅层的特征将简单的目标的区分开;利用深层的特征将复杂的目标区分开;
增加两个1024维的轻量级全连接层,跟上分类器和边框回归;对检测到的各个目标形成一个边界框即Boundingbox,返回检测到目标的位置信息,位置信息包括边界框四个顶点的坐标信息;
步骤3中,解码器输出的特征图经过Softmax函数,得到目标区域的分布概率图,在通过交叉熵函数与分割真值图比较计算损失;损失在网络中反向传播,得到网络中参数的梯度,再根据梯度下降法来调整参数,使损失值减小;网络达到最佳。
所述步骤3中,交叉熵损失函数计算如下:
Figure BDA0002824730060000021
其中,W和H分别为分割真值图宽和高,yij代表像素(i,j)的真实类别,pij代表像素(i,j)的目标概率。
所述步骤3后还包括步骤4、过滤虚警检测,方法为:
采用基于不同目标的相对位置约束惩罚函数,筛选最优分布组合:
设安全帽、安全服和手机的位置中心点分别表示为:Z1(x1,y1),Z2(x2,y2)和Z3(x3,y3);
最优分布方法为:
F={(x,y)|(x,y)∈R}
f((x,y)*)=min{D=(x1-x2)2+(y1-y2)2|(x,y)∈F}
其中,F中的任何一个元素为可行解,(x,y)*为最优解;
建立相对位置约束惩罚函数表达如下:
min(f(x,y)),(x,y)=[(x1,y1),...,(xn,yn)]T
yM>yF,y>0
其中,(x,y)=[(x1,y1),...,(xn,yn)]T为决策变量,f((x,y))为目标函数。
本神经网络应用于工地人员异常行为实时检测方法,步骤包括:
1)在工地现场部署摄像机,用于采集人员图像信息;获取工地现场摄像机视频信流,并截取单帧图片;
2)按照预先设定的输入图像的尺寸要求,改变输入图像大小(采用resize函数,常见的插值算法有:最近邻、双线性、双三次、基于像素区域关系以及兰索斯插值算法);其特征是步骤还包括:
3)采用编码器-解码器架构神经网络对经过步骤2)处理的图像进行处理,生成不同的尺度下的特征映射图;
所述编码器-解码器架构神经网络的构建方法为:
首先基于多分支卷积模块,生成不同的尺度下的特征映射图;
然后构建一个卷积神经网络,为编码器-解码器架构;其中编码器提取语义和细节信息,解码器恢复特征图尺寸,获得最终分割结果;
最后对不同分支上的特征进行融合,获得准确的目标分割结果;
4)基于不同尺度下的特征映射图,获取不同尺寸目标的位置区域;不同尺寸目标分别为:人体、人脸、手机、安全帽;
5)过滤虚警检测;
6)根据感兴趣目标的存在状态,推断异常行为是否发生;
目标的状态与异常行为之间的对应关系为:
若手机位置与人脸位置很接近,则判断为打电话,为异常;反之正常;
若安全帽位置与人体位置接近,则判断为异常;
若安全帽位置与人脸位置很接近,则判断为正常;反之异常;
7)输出异常行为实时检测结果。
所述步骤3)中,步骤2)得到的图像送入FPN特征网络(特征图金字塔网络)中,不同尺度的ROI使用不同特征层作为ROI pooling层的输入;
对于输入图像中的不同尺寸目标的不同特征,利用浅层的特征将简单的目标的区分开,利用深层的特征将复杂的目标区分开;
增加两个1024维的轻量级全连接层,跟上分类器和边框回归;对检测到的各个目标形成一个边界框即Boundingbox,返回检测到目标的位置信息,位置信息包括边界框四个顶点的坐标信息;
所述步骤5)中,过滤虚警检测的方法为:采用基于不同目标的相对位置约束惩罚函数,筛选最优分布组合:
设安全帽、安全服、手机的位置中心点分别表示为:M(x,y),F(x,y),J(x,y)最优分布算法为:
Figure BDA0002824730060000031
其中,F中的任何一个元素为可行解,(x,y)*为最优解。
建立相对位置约束惩罚函数的方法为:
约束优化问题的一般形式可表达如下:
min(f(x,y)),(x,y)=[(x1,y1),...,(xn,yn)]T
yM>yF,y>0
其中,(x,y)=[(x1,y1),...,(xn,yn)]T为决策变量,f((x,y))为目标函数。
应用场景中,规定安全服与安全帽的位置为:安全帽在安全服之上是正常;手机在安全帽附近是异常;
所述决策变量是安全帽安全服与手机的位置坐标(x,y);
空间位置约束模型参考图2,M、F、J分别代表安全帽、安全服、手机的位置。
所述步骤2)中,确定输入图像的尺寸的步骤为:
2.1)统计感兴趣目标在图像中的分布尺寸,确定输入图像的尺寸;(感兴趣的目标即为人员以及附属物,附属物是手机、安全帽、安全服等)
2.2)统计感兴趣目标位置分布规律,用来统计安全帽安全服及手机之间的相对位置关系,确定异常事件分类。
采用公开数据集预训练好的深度学习目标检测网络,根据部署场景微调训练后,得到部署后目标检测网络,再进行实时人员、各个物体检测。根据部署场景微调训练,方法为:现场场景与实验时会存在误检测和漏检测的情况,则根据实际场景数据进行调参处理。
检测到的人员和各个物体形成一个边界框即Boundingbox,返回检测到的人员、各个物体的位置信息,位置信息包括边界框四个顶点的坐标信息;
采用微小目标检测网络即特征金字塔网络FPN,进行实时人员、各个物体检测;返回检测到的人员、各个物体的位置信息。
所述步骤3)中的网络构建方法具体可以为:
3.1、把低分辨率、高语义信息的高层特征和高分辨率、低语义信息的低层特征进行自上而下的侧边连接,使得所有尺度下的特征都有丰富的语义信息;
3.2、采用FPN特征金字塔网络进行多尺度目标检测;不同尺度的ROI,使用不同特征层作为ROI pooling层的输入;
图像中不同尺寸的目标的不同特征,利用浅层的特征将简单的目标的区分开;利用深层的特征将复杂的目标区分开;
增加两个1024维的轻量级全连接层,跟上分类器和边框回归;对检测到的各个目标形成一个边界框即Boundingbox,返回检测到目标的位置信息,位置信息包括边界框四个顶点的坐标信息;
3.3、解码器输出的特征图经过Softmax函数,得到目标区域的分布概率图,在通过交叉熵函数与分割真值图比较计算损失;损失在网络中反向传播,得到网络中参数的梯度,再根据梯度下降法来调整参数,使损失值减小;网络达到最佳;交叉熵损失函数计算如下:
Figure BDA0002824730060000041
其中,W和H分别为分割真值图宽和高,yij代表像素(i,j)的真实类别,pij代表像素(i,j)的目标概率。
过滤虚警检测的方法为:采用基于不同目标的相对位置约束惩罚函数,筛选最优分布组合:
设安全帽、安全服、手机的位置中心点分别表示为:Z1(x1,y1),Z2(x2,y2),Z3(x3,y3)。
最优分布算法为:
F={(x,y)|(x,y)∈R}
Figure BDA0002824730060000051
其中,F中的任何一个元素为可行解,(x,y)*为最优解。
建立相对位置约束惩罚函数的方法为:约束优化问题的一般形式可表达如下:
min(f(x,y)),(x,y)=[(x1,y1),...,(xn,yn)]T
yM>yF,y>0
其中,(x,y)=[(x1,y1),...,(xn,yn)]T为决策变量,f((x,y))为目标函数。
采用本发明,再结合物联网及区块链等技术,可以达到提升工地管理智能化、透明化程度的效果,解决工地管理难度大的问题。
附图说明
图1为本方法构建神经网络应用于智慧工地场景的人员异常行为实时检测方法流程图。
图2是空间位置约束模型示意图,其中,Z1,Z2,Z3代表目标相对位置。
具体实施方式
参考图1以及本方法构建神经网络的应用,对技术方案进一步说明。
本检测方法可以针对不同目标尺寸的差异,通过在不同尺度上的目标检测、不同目标相对位置约束惩罚等处理,实现对安全帽、安全服、手机等不同尺寸特定目标的一体化检测,从而判断是否存在异常行为。
具体地,智慧工地人员异常行为实时检测方法的步骤为:
步骤S1:获取摄像机视频信流,并截取单帧图片;
步骤S2:统计感兴趣目标在图像中的分布尺寸,确定输入图像的尺寸;
步骤S3:统计感兴趣目标位置分布规律;
采用公开数据集预训练好的深度学习目标检测网络模型,根据部署场景微调训练后,得到部署后目标检测网络,再进行实时人员、各个物体检测;
检测到的人员和各个物体形成一个边界框即Boundingbox,返回检测到的人员、各个物体的位置信息,位置信息包括边界框四个顶点的坐标信息;
进一步优选的,采用微小目标检测网络进行实时人员、各个物体检测,返回检测到的人员、各个物体的位置信息。
步骤S4:按照步骤2)中确定的尺寸要求,resize输入图像;
步骤S5:基于多分支卷积模块,生成不同的尺度下的特征映射图;
构建一个卷积神经网络,为编码器-解码器架构,其中编码器提取语义和细节信息,解码器恢复特征图尺寸,获得最终分割结果;最后对不同分支上的特征进行融合,获得准确的目标分割结果;
解码器输出的特征图经过Softmax函数,得到目标区域的分布概率图,在通过交叉熵函数与分割真值图比较计算损失;损失在网络中反向传播,得到网络中参数的梯度,再根据梯度下降法来调整参数,使损失值减小。网络达到最佳;交叉熵损失函数计算如下:
Figure BDA0002824730060000061
其中,W和H分别为分割真值图宽和高,yij代表像素(i,j)的真实类别,pij代表像素(i,j)的目标概率。
步骤S6:建立相对位置约束惩罚函数;
约束优化问题的一般形式可表达如下:
minf(x),x=[x1,...,xn]T
其满足以下m个约束条件:
gj(x)≤0,j=1,...,q
hj(x)=0,j=q+1,...,m
其中,x=[x1,...,xn]T为决策变量,f(x)为目标函数,q为不等式约束条件个数,m-q为等式约束条件个数。如果在候选解x处gj(x)=0,则约束条件gj(x)≤0称为候选解的积极约束条件。
步骤S7:基于不同尺度下的特征映射图,获取不同尺寸目标的位置区域;
步骤S8:基于步骤4)中建立的不同目标的相对位置约束惩罚函数,筛选最优分布组合,过滤虚警检测;最优分布算法如下:
F={x|x∈D,g(x)≥0}
f(x*)=min{f(x)|x∈F}
其中,F中的任何一个元素为可行解,x*为最优解。
步骤S9:根据感兴趣目标的存在状态,推断异常行为是否发生;
步骤S10:输出异常行为实时检测结果。

Claims (3)

1.一种用于人员异常行为检测的神经网络的构建方法,其特征是所述神经网络是编码器-解码器架构神经网络,神经网络的输入为采集到的图像,神经网络的构建方法为:
步骤1、基于多分支卷积模块,生成不同的尺度下的特征映射图;
步骤2、构建一个卷积神经网络,为编码器-解码器架构,其中编码器提取语义和细节信息,解码器恢复特征图尺寸,获得最终分割结果;
步骤3、对不同分支上的特征进行融合,获得准确的目标分割结果;
所述步骤1中,把低分辨率、高语义信息的高层特征和高分辨率、低语义信息的低层特征进行自上而下的侧边连接,使得所有尺度下的特征都有丰富的语义信息;
所述步骤2中,采用FPN特征金字塔网络进行多尺度目标检测;不同尺度的ROI,使用不同特征层作为ROIpooling层的输入;
对于输入图像中不同尺寸的目标的不同特征,利用浅层的特征将简单的目标的区分开;利用深层的特征将复杂的目标区分开;
增加两个1024维的轻量级全连接层,跟上分类器和边框回归;对检测到的各个目标形成一个边界框即Boundingbox,返回检测到目标的位置信息,位置信息包括边界框四个顶点的坐标信息;
步骤3中,解码器输出的特征图经过Softmax函数,得到目标区域的分布概率图,在通过交叉熵函数与分割真值图比较计算损失;损失在网络中反向传播,得到网络中参数的梯度,再根据梯度下降法来调整参数,使损失值减小;网络达到最佳。
2.根据权利要求1所述的用于人员异常行为检测的神经网络的构建方法,其特征是所述步骤3中,交叉熵损失函数计算如下:
Figure FDA0002824730050000011
其中,W和H分别为分割真值图宽和高,yij代表像素(i,j)的真实类别,pij代表像素(i,j)的目标概率。
3.根据权利要求1或2所述的用于人员异常行为检测的神经网络的构建方法,其特征是所述步骤3后还包括步骤4、过滤虚警检测,方法为:
采用基于不同目标的相对位置约束惩罚函数,筛选最优分布组合:
设安全帽、安全服和手机的位置中心点分别表示为:Z1(x1,y1),Z2(x2,y2)和Z3(x3,y3);
最优分布方法为:
F={(x,y)|(x,y)∈R}
Figure FDA0002824730050000021
其中,F中的任何一个元素为可行解,(x,y)*为最优解;
建立相对位置约束惩罚函数表达如下:
min(f(x,y)),(x,y)=[(x1,y1),...,(xn,yn)]T
yM>yF,y>0
其中,(x,y)=[(x1,y1),...,(xn,yn)]T为决策变量,f((x,y))为目标函数。
CN202011425659.3A 2020-12-09 2020-12-09 用于人员异常行为检测的神经网络的构建方法 Active CN112613359B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011425659.3A CN112613359B (zh) 2020-12-09 2020-12-09 用于人员异常行为检测的神经网络的构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011425659.3A CN112613359B (zh) 2020-12-09 2020-12-09 用于人员异常行为检测的神经网络的构建方法

Publications (2)

Publication Number Publication Date
CN112613359A true CN112613359A (zh) 2021-04-06
CN112613359B CN112613359B (zh) 2024-02-02

Family

ID=75229596

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011425659.3A Active CN112613359B (zh) 2020-12-09 2020-12-09 用于人员异常行为检测的神经网络的构建方法

Country Status (1)

Country Link
CN (1) CN112613359B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469146A (zh) * 2021-09-02 2021-10-01 深圳市海清视讯科技有限公司 目标检测方法及设备
CN115630771A (zh) * 2022-12-07 2023-01-20 广东邦盛北斗科技股份公司 应用于智慧工地的大数据分析方法及系统

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180063695A (ko) * 2016-12-02 2018-06-12 주식회사 네오드림스 신경망 이론을 활용하여 이상 동작을 탐지하는 IoT 시스템
CN108399362A (zh) * 2018-01-24 2018-08-14 中山大学 一种快速行人检测方法及装置
CN109063609A (zh) * 2018-07-18 2018-12-21 电子科技大学 一种基于光流特征与全卷积语义分割特征结合的异常行为检测方法
CN109886986A (zh) * 2019-01-23 2019-06-14 北京航空航天大学 一种基于多分支卷积神经网络的皮肤镜图像分割方法
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110321923A (zh) * 2019-05-10 2019-10-11 上海大学 不同尺度感受野特征层融合的目标检测方法、系统及介质
CN111027440A (zh) * 2019-12-03 2020-04-17 北京师范大学珠海分校 一种基于神经网络的人群异常行为检测装置和检测方法
CN111062297A (zh) * 2019-12-11 2020-04-24 青岛科技大学 基于eann深度学习模型的暴力异常行为检测方法
CN111339892A (zh) * 2020-02-21 2020-06-26 青岛联合创智科技有限公司 一种基于端到端3d卷积神经网络的泳池溺水检测方法
CN111582092A (zh) * 2020-04-27 2020-08-25 西安交通大学 一种基于人体骨架的行人异常行为检测方法
CN111611937A (zh) * 2020-05-22 2020-09-01 陈金山 基于bim和神经网络的监狱人员异常行为监测方法
CN111723694A (zh) * 2020-06-05 2020-09-29 广东海洋大学 基于cnn-lstm时空特征融合的异常驾驶行为识别方法
CN112016500A (zh) * 2020-09-04 2020-12-01 山东大学 基于多尺度时间信息融合的群体异常行为识别方法及系统

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180063695A (ko) * 2016-12-02 2018-06-12 주식회사 네오드림스 신경망 이론을 활용하여 이상 동작을 탐지하는 IoT 시스템
CN108399362A (zh) * 2018-01-24 2018-08-14 中山大学 一种快速行人检测方法及装置
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN109063609A (zh) * 2018-07-18 2018-12-21 电子科技大学 一种基于光流特征与全卷积语义分割特征结合的异常行为检测方法
CN109886986A (zh) * 2019-01-23 2019-06-14 北京航空航天大学 一种基于多分支卷积神经网络的皮肤镜图像分割方法
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110321923A (zh) * 2019-05-10 2019-10-11 上海大学 不同尺度感受野特征层融合的目标检测方法、系统及介质
CN111027440A (zh) * 2019-12-03 2020-04-17 北京师范大学珠海分校 一种基于神经网络的人群异常行为检测装置和检测方法
CN111062297A (zh) * 2019-12-11 2020-04-24 青岛科技大学 基于eann深度学习模型的暴力异常行为检测方法
CN111339892A (zh) * 2020-02-21 2020-06-26 青岛联合创智科技有限公司 一种基于端到端3d卷积神经网络的泳池溺水检测方法
CN111582092A (zh) * 2020-04-27 2020-08-25 西安交通大学 一种基于人体骨架的行人异常行为检测方法
CN111611937A (zh) * 2020-05-22 2020-09-01 陈金山 基于bim和神经网络的监狱人员异常行为监测方法
CN111723694A (zh) * 2020-06-05 2020-09-29 广东海洋大学 基于cnn-lstm时空特征融合的异常驾驶行为识别方法
CN112016500A (zh) * 2020-09-04 2020-12-01 山东大学 基于多尺度时间信息融合的群体异常行为识别方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LIMIN XIA1: "《A new method of abnormal behavior detection using LSTM network with temporal attention mechanism》", 《THE JOURNAL OF SUPERCOMPUTING》 *
吉训生;吴凡;: "基于混合卷积神经网络的人头检测方法", 高技术通讯, no. 04 *
吴帆: "《地铁应用场景中群体异常行为检测研究》", 《东南大学》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469146A (zh) * 2021-09-02 2021-10-01 深圳市海清视讯科技有限公司 目标检测方法及设备
CN115630771A (zh) * 2022-12-07 2023-01-20 广东邦盛北斗科技股份公司 应用于智慧工地的大数据分析方法及系统

Also Published As

Publication number Publication date
CN112613359B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN110119676B (zh) 一种基于神经网络的驾驶员疲劳检测方法
CN110135269B (zh) 一种基于混合颜色模型与神经网络的火灾图像检测方法
CN112216049B (zh) 一种基于图像识别的施工警戒区监测预警系统及方法
US9104914B1 (en) Object detection with false positive filtering
CN104378582B (zh) 一种基于ptz摄像机巡航的智能视频分析系统及方法
US20190012547A1 (en) Congestion-state-monitoring system
CN101406390B (zh) 检测人体部位和人的方法和设备以及对象检测方法和设备
CN109190475B (zh) 一种人脸识别网络与行人再识别网络协同训练方法
CN101635835A (zh) 智能视频监控方法及系统
CN106373146B (zh) 一种基于模糊学习的目标跟踪方法
CN106778645A (zh) 一种图像处理方法及装置
CN112613359B (zh) 用于人员异常行为检测的神经网络的构建方法
CN111539343B (zh) 一种基于卷积注意力网络的黑烟车检测方法
Kumar et al. Automatic vehicle number plate recognition system using machine learning
CN112183472A (zh) 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法
CN111738336A (zh) 基于多尺度特征融合的图像检测方法
CN111539351B (zh) 一种多任务级联的人脸选帧比对方法
CN111582074A (zh) 一种基于场景深度信息感知的监控视频树叶遮挡检测方法
CN116343077A (zh) 一种基于注意力机制与多尺度特征的火灾检测预警方法
CN111626199A (zh) 面向大型多人车厢场景的异常行为分析方法
CN112270381A (zh) 基于深度学习的人流量检测方法
CN115171022A (zh) 一种施工场景下的安全帽佩戴检测方法及系统
CN116030361A (zh) 一种基于cim-t架构的高分辨率影像变化检测方法
CN116895098A (zh) 基于深度学习和隐私保护的视频人体动作识别系统与方法
CN115761618A (zh) 一种重点场所安防监控图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant