CN115240142A - 基于跨媒体的室外重点场所人群异常行为预警系统和方法 - Google Patents
基于跨媒体的室外重点场所人群异常行为预警系统和方法 Download PDFInfo
- Publication number
- CN115240142A CN115240142A CN202210896343.5A CN202210896343A CN115240142A CN 115240142 A CN115240142 A CN 115240142A CN 202210896343 A CN202210896343 A CN 202210896343A CN 115240142 A CN115240142 A CN 115240142A
- Authority
- CN
- China
- Prior art keywords
- audio
- voice
- crowd
- early warning
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B31/00—Predictive alarm systems characterised by extrapolation or other computation using updated historic data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Emergency Management (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Emergency Alarm Devices (AREA)
Abstract
本发明涉及一种基于跨媒体的室外重点场所人群异常行为预警系统和方法。本发明采用跨媒体即音视频媒体,提取固定片段内的音频烈度信息、视频人群聚集信息以及肢体动作信息,实现室外重点场所人群异常行为预警方法。该方法除避免了现有方法无法区别音频是否为人声以及人声烈度、无法在室外监控场景下自适应计算人员聚集度以及无法快速识别聚集人员是否变化,采用跨媒体融合方法提高了复杂环境室外下重点场所人群异常行为识别能力,大幅降低误识率。
Description
技术领域
本发明属于音视频处理领域,具体涉及一种基于跨媒体的室外重点场所人群异常行为预警系统和方法。
背景技术
当前视频监控以及远程喊话系统已被广泛的用于公共场所实现治安辅助,提升社会治安管理能力。视频监控系统实时将监控现场信息传回监控中心,视频存储系统将视频场景数据录制并存储,在需要的时候监控中心管理人员可以根据需要将现场实时视频显示在监控屏幕上。目前城市中安装了大量监控摄像机,管理人员无法实时查看所有监控场景下所发生的事情,仅在接到报警的情况下将监控屏接入现场视频,或通过回看监控历史数据,辅助事件的解决处理。然而,对于酒吧、KTV等重点场所以及周边,出现的人群以青年人为主,而青年人群本身性格上容易冲动,在酒精等物质刺激下,几句无关紧要的言语或轻微的肢体接触,就可能导致双方产生纠纷,进而导致激烈肢体冲突,造成社会治安事件的严重后果。因此如何充分发挥当前已经部署监控视频网络,加强对重点场所人群异常行为监视能力,及时发现异常行为,在事态没有进一步恶化之前干预,遏制治安事件发生。这对提高社会治安管理水平,建设和谐社会有重要意义。
重点场所中活动人群之间陌生人较多,所产生的异常事件具有很高的偶发性。事件发生普遍具有从小纠纷到相互争吵,最终肢体冲突的逐步发展过程。在这个过程中,一般会出现人群聚集、激烈争吵、肢体接触等异样状态,面对这些异常情况如何利用视频监控网络,发现并通知治安人员在前期介入如在人群聚集、激烈争吵或肢体接触阶段,进行预警与干预。然而,重点场所如街道、菜场等,行人熙熙攘攘、车来车往、人声鼎沸等,环境十分嘈杂,如何从监控系统所拍摄音视频信息中,及时检测出异常状况是一个具体挑战性的问题。
现有的人群异常行为识别方法主要基于视频图像分析技术,通过提取视频中人群密度、人数、动作等信息,然后采用规则或机器学习算法判断是否存在异常。这些方法仅利用视觉信息,基于人群密度、人数等信息进行判断,面对街道、校门口等人群密集场所,误报率很高,完全无法在实际中应用。因此,要实现重点场所人群异常行为进行检测和识别,仅依赖单一视觉媒体信息进行分析,无法满足实际治安预警应用需求。
发明内容
当前针对人群的异常检测主要基于视频图像人群聚集等特点来实现,这些方法在面对街道、菜场、集市等复杂场景中,使用人群聚集等方法无法识别出场景中是否出现异常,而这些公共场所是日常治安事件高发场所。
本发明提供一种基于跨媒体的室外重点场所人群异常行为预警系统和方法,通过基于音频和视频两种媒体的检测和识别算法实现预警功能,目标是在初始阶段准确发现人群异常,并通过自动语音喊话功能实时干预,实现早期介入处理,防止事态发展造成严重后果。通过提取音频和视频两种媒体融合信息,采用人工智能预测算法,实现复杂场景下的人群异常行为的预警功能。
为了达到上述目标,本发明采用了如下技术方案:
本发明的一方面提供了一种基于跨媒体的室外重点场所人群异常行为预警方法,该方法包括以下步骤:
S1.配置云台摄像机,摄像机按照预设值的点位,定时巡检各预置点位;
S2.配置定向拾音器,拾音器拾音方向跟随摄像机转动,实现定向音频数据采集;
S3.定时间长度采集预置点位视角范围内的音视频数据混合数据流;
S4.服务器接收音视频数据并分离,获得视频流和音频流数据;
S5.提取视频流的关键帧,对预设区域进行人体和头部目标检测;
S6.对检测出的人体和头部分别采用自适应聚集密度评估算法得到监控区域范围内的最高人群密度值;
S7.采用背景声音去除算法对音频数据进行预处理;
S8.将固定时间长度的音频数据分割为指定采集频率的音频片段数据;
S9.将音频片段数据通过深度学习的卷积神经网络模型进行分类,确定该音频片段数据是否为人的说话音频;
S10.根据固定时间长度内的所有音频片段数据的音频分类结果,通过人声的比率是否超过设定阈值,确定本段音频是否为人的说话音频;
假如不是人的说话声则确定为背景音,采用原始音频计算背景音频声音强度等级;
S11.针对判断为人说话的音频,采用声音强度计算算法,对整段音频采用设定频率计算片内的声音强度,得到整个固定时间长度内音频强度值列表;
S12.将音频强度值列表输入音频烈度判别模型,得到人声烈度等级;
S13.根据背景音频声音强度等级,自动调整人群密度阈值;
S14.将自动调整后的人群密度阈值与S6中得到最高人群密度值进行比较,如果S6中得到最高人群密度值大于等于人群密度阈值,则对最高人群密度区域采用人员变动识别算法,判断这个时段内,该区域的大多数人员是否有变化;
S15.融合S12得到人声烈度等级、S6中得到最高人群密度值以及S14人员变化判断结果,判断在摄像机监控区域内是否出现争吵,实现跨媒体音视频流的处理能力;
S16.根据S15的结果,判断是否满足预警要求,假如需要预警,输出预警类型并启动远程喊话,提前干预现场;
S17.重复S3~S16上述步骤完成室外重点场所人群异常行为的实时预警。
本发明的另一方面提供了一种基于跨媒体的室外重点场所人群异常行为预警系统,该系统包括:
视频数据采集模块,由带有云台摄像机按照预设值的点位,定时巡检各预置点位采集监控区域范围内的视频数据;
音频采集模块,拾音器跟随摄像机转动,定向采集音频数据;
音视频数据合成模块,通过将音视频数据按时间同步合成音视频流,实现网络传输;
音视频数据分离模块,服务器接收网络传输的音视频数据并分离,获得视频流和音频流数据;
人体和头部目标检测模块,对视频流解码后获得的帧图像,在预设区域范围内检测所有人体和头部的位置坐标;
自适应人群聚集密度估算模块,根据场景中人群的远近采用与距离相关的自适应聚集密度算法估算人群密度;
背景声音去除模块,对接收的音频数据,采用背景声音去除算法,去除背景声音;
音频分割模块,将固定时间长度的音频分割为指定采集频率的音频片段数据;
人声片段识别模块,对音频片段数据采用深度学习的卷积神经网络模型判断是否为人声;
人声整段识别模块,根据固定时间长度内的所有音频片段数据的音频分类结果,通过人声的比率是否超过设定阈值,确定本段音频是否为人的说话音频;假如不是人的说话声则确定为背景音,采用原始音频计算背景音频声音强度等级;
音频强度值列表计算模块,针对判断为人说话的音频,采用声音强度计算算法,对整段音频采用设定频率计算片内的声音强度,得到整个固定时间长度内音频强度值列表;
人声烈度等级识别模块,根据音频强度列表采用智能判别模型,得到人声烈度等级;
人群密度阈值调整模块,根据背景音频强度等级,自动调整人群密度阈值;
人员流动识别模块,针对高密度人群区域范围,采用人员变化识别算法,判断聚集的人群是否流动;
争吵行为识别模块,根据声音烈度等级、人群密度以及人员流动结果,判断在是否出现争吵行为;
预警远程喊话模块,输出行为异常预警信息,并启动远程网络语音播放系统,自动播放预设语音内容。
本发明的有益效果:本发明采用跨媒体即音视频媒体,提取固定片段内的音频烈度信息、视频人群聚集信息以及肢体动作信息,实现室外重点场所人群异常行为预警方法。该方法除避免了现有方法无法区别音频是否为人声以及人声烈度、无法在室外监控场景下自适应计算人员聚集度以及无法快速识别聚集人员是否变化,采用跨媒体融合方法提高了复杂环境室外下重点场所人群异常行为识别能力,大幅降低误识率。
附图说明
图1为室外设备安装示意图。
图2为部分典型场景的音频频谱对比图。
图3为本发明的音视频流分析处理流程图。
具体实施方式
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单介绍,对于本领域一般技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他的附图。
一种基于跨媒体的室外重点场所人群异常行为预警方法,包括以下步骤:
S1.配置云台摄像机,摄像机按照预设值的点位,定时巡检各预置点位;
S2.配置定向拾音器,拾音器拾音方向跟随摄像机转动,实现定向音频数据采集;
S3.按参数配置方式定时间长度采集预置点位视角范围内的音视频数据混合数据流;
S4.服务器接收音视频数据并分离,获得视频流和音频流数据;
S5.提取视频流的关键帧,对预设区域进行人体和头部目标检测;
S6.对检测出的人体和头部分别采用自适应聚集密度评估算法得到监控区域范围内的最高人群密度值;
进一步的,还可以调节摄像机焦距以及云台,将相机拍摄区域定位到高密度人群区域范围,拍摄更加清晰的视频数据,检测区域范围内的人体骨骼关键点,将得到的多人骨骼关键点输入肢体冲突行为识别模型,判断是否存在肢体冲突行为;
S7.采用背景声音去除算法对音频数据进行预处理;
S8.将固定时间长度的音频分割为指定采集频率(F1)的片段数据;
S9.将音频片段数据通过深度学习的卷积神经网络模型进行分类,确定片段是否为人的说话音频;
S10.根据固定时间长度内的所有片段数据的音频分类结果进行判断,通过人声的比率是否超过设定阈值,确定本段音频是否为人的说话音频;
假如不是人的说话声则确定为背景音,采用原始音频计算背景音频声音强度等级;
S11.针对判断为人说话的音频,采用声音强度计算算法,对整段音频采用设定频率(F2)计算片内的声音强度,得到整个固定时间长度内音频强度值列表;
S12.将音频强度值列表输入音频烈度判别模型,得到人声烈度等级;
S13.根据背景音频强度等级,自动调整人群密度阈值;
S14.假如S6中得到最高人群密度值大于等于人群密度阈值,则对最高人群密度区域采用人员变动识别算法,判断这个时段内,该区域的大多数人员是否有变化;
S15.融合S12得到声音烈度等级、S6中得到最高人群密度值以及S14人员变化判断结果,判断在该摄像机监控区域内是否出现争吵,实现跨媒体音视频流的异常行为识别能力;
S16.根据S15的结果,判断是否满足预警要求,假如需要预警,输出预警类型并启动远程喊话,提前干预现场;
S17.重复S3~S16上述步骤完成室外重点场所人群异常行为的实时预警功能。
本发明提供一种基于跨媒体的室外重点场所人群异常行为预警系统,它包括:
视频数据采集模块,由带有云台摄像机按照预设值的点位,定时巡检各预置点位采集监控区域范围内的视频数据;
音频采集模块,拾音器跟随摄像机转动,定向采集音频数据;
音视频数据合成模块,通过将音视频数据按时间同步合成音视频流,实现网络传输;
音视频数据分离模块,服务器接收网络传输的音视频数据并分离,获得视频流和音频流数据;
人体和头部目标检测模块,对视频流解码后获得的帧图像,在预设区域范围内检测所有人体和头部的位置坐标;
自适应人群聚集密度估算模块,根据场景中人群的远近采用与距离相关的自适应聚集密度算法估算人群密度;
背景声音去除模块,对接收的音频数据,采用人声与背景声音分离算法,去除背景声音;
音频分割模块,将固定时间长度的音频分割为指定采集频率的音频片段数据;
人声片段识别模块,对音频片段采用深度学习的卷积神经网络模型判断是否为人声还是其它声音;
人声整段识别模块,根据固定时间长度内的所有音频片段数据的音频分类结果,通过人声的比率是否超过设定阈值,确定本段音频是否为人的说话音频;假如不是人的说话声则确定为背景音,采用原始音频计算背景音频声音强度等级;
音频强度值列表计算模块,针对判断为人说话的音频,采用声音强度计算算法,对整段音频采用设定频率计算片内的声音强度,得到整个固定时间长度内音频强度值列表;
人声烈度等级识别模块,根据音频强度列表采用智能判别模型,得到人声烈度等级;
人群密度阈值调整模块,根据背景音频强度等级,自动调整人群密度阈值;
人声烈度等级识别模块,根据音频强度列表采用智能判别模型,该模型基于说话声音快慢高低变化判断烈度等级;
人员流动识别模块,针对高密度人群区域范围,采用人员变化识别算法,判断聚集的人群是否流动;
争吵行为识别模块,根据声音烈度等级、人群密度以及人员流动结果,判断在是否出现争吵行为;
预警远程喊话模块,输出行为异常预警信息,并启动远程网络语音播放系统,自动播放预设语音内容。
还可以包括肢体冲突行为识别模块,根据高密度人群区域范围内的人员骨骼关键点,采用智能推理算法,判断是否出现肢体冲突行为;
进一步说,S5中采用基于深度学习端到端的目标检测模型,对模型利用FP16半精度计算方法以及Tensor RT加速技术实现在图像的预设区域中快速检测人体和头部区域并输出矩形区域坐标。
进一步说,S6中根据S5检测人体或头部矩形,求得矩形中心点坐标。本发明所涉及场景的摄像机由于采用倾斜安装并且安装高度和角度固定,拍摄范围的近处人员轮廓比较大,而远程人员轮廓比较小。但是在同一个Y坐标轴位置的人员成像大小基本是一致的。根据这个应用特殊要求,本发明设计一种基于Y轴距离的自适应密度评估算法,具体是:
根据拍摄到人体的正面或背面,或者根据拍摄到的未戴帽子的人头区域坐标,将拍摄到的多个人的肩宽或人头的X方向宽度进行平均,基于均值像素估计人员位置以及人员之间的距离,对检测区域内的人员距离进行归一化,然后利用公式(1)计算出场景中人群的最高密度值,式中D为设定阈值。通过该算法实现不同场景、不同摄像机架设角度等复杂应用场景下的自适应处理能力。
进一步说,S7中采用基于深度学习端到端的非人声的背景去除算法,实现在复杂环境中提取说话人声音,完成对原始音频数据进行预处理。
进一步说,S9中将S8所获取的音频片段,分别按顺序输入判断是否为人的说话音频的卷积神经网络模型。针对相同类型声音内部差异性大、部分声音类型之间相似性高的特点,为提升模型的分类效果,提出一种基于空间向量距离的中心间隔距离目标函数用于模型的训练。目标函数新增加的部分如公式(2)所示,该函数实现强化相同类型内部特征的聚集,不同类型特征距离增加的目标。
公式中cyi为声音类型的中心,该中心在训练过程中动态变化,cj为不等于cyi的其它声音类型的中心,函数h(x)=max(x,0),K为声音类型个数,n为训练每批次的数量,OL为卷积神经网络的输出特征向量,mrg为最小距离约束参数。
进一步说,S11中对音频按照设定时长如四分之一秒,计算该时长内的声音平均强度,得到一个音频强度列表A[M],M为个数。A[M]生成采用公式(3)计算所得,式中avg为平均值函数,f(x)为求声音强度方法,segi为第i个音频切片。
进一步说,S12中将S11中获得的音频强度列表A[M]输入音频烈度判别模型,该模型根据人的声音强度值的高低以及强度高的人声出现频度,采用智能分类算法输出等级。
进一步说,S13中,根据背景音响度等级,自动调整人群密度阈值,其目的在于针对不同场景条件下人流量差异大,如夜深人静时,发生争吵行为围观的人员会比较少,这样人群密度阈值就需要调小。
进一步说,S14中采用人员变动识别算法,得到不同时刻同一行人的位置坐标,其目的在于确定高密度人群是否为流动人群。针对节假日期间景点流量大时,虽然人群密度高于阈值,但是该场景为正常场景不需要预警。流动判别方法如公式(4),式中dist为距离公式,N为人员个数,D为阈值,pi(t)为第i个人在t时刻的位置坐标。
公式中pi(t+1)可能已经消失,则直接采用一个远点坐标替换,使得距离计算结果远大于D。本发明在如何判断不同时刻所拍摄的目标为同一个人员时,与现有直接采用人员轨迹跟踪算法不同,本发明采用基于外形识别的方法,实现人员轨迹分析近似效果。该方法在室外开放环境下,在不影响系统响应的基础上,大幅度降低计算复杂度,降低了系统的部署成本。原来目标跟踪算法一般需要每秒检测三帧以上,本发明可以间隔5-10秒检测一帧,需要的计算量大大降低。
综上,本发明针对发明中需要面对的人群聚集、音频识别、人员变化识别等核心问题,结合应用场景的特殊要求,分别设计了基于Y轴距离的自适应密度评估算法、基于空间向量距离的中心间隔距离模型以及人员变动识别算法。基于Y轴距离的自适应密度评估算法解决了在倾斜视角下的人员密度快速估计问题;基于空间向量距离的中心间隔距离模型实现在不改变推理计算复杂度的前提下,提高分类识别效果;基于外形的人员变化识别算法则是采用外形对比以及欧式距离公式实现了传统人员轨迹跟踪算法的效果,大幅度地降低了方法的算力。表1展示了空间向量距离的中心间隔距离模型与非改进前在测试数据集上的改进效果,重复10次取平均值。
表1空间向量距离的中心间隔距离模型实验结果
方法名称 | 识别准确率 |
VGG标准模型 | 89.16+0.21 |
空间向量距离的中心间隔距离模型(VGG骨干网络) | 93.58+0.25 |
表2为在相同硬件(GeForce GTX 1050,I5处理器),处理视频的速度对比。
表2基于外形的人员变化识别算法速度对比
方法名称 | 识别速度 |
基于Deep SORT轨迹跟踪的人员变化识别算法 | 40帧 |
基于外形的人员变化识别算法 | 813帧 |
说明:帧数是实际视频处理过程中通过的帧总数(包括跳过的帧)。
如图1所示,本实施例需要在室外监管场所中安装了一个面向监控区域的摄像机1、一个远距离拾音器2和一个扩音器3。其中摄像机要求带有云台以及变焦控制功能,拾音器能够清晰采集设定区域范围的说话声音,扩音器在设定范围能以震慑的音量喊话,三者都安装在立杆4上。
本实施例内容处理内容涉及以下几个方面:音频类型识别、说话声音烈度等级分类、人群密度估计、肢体冲突行为推断、人员流动分析以及跨媒体信息融合的人群异常行为预测。
1)音频类型识别是针对室外场景中存在大量复杂声音,如汽车声、下雨声、鸟叫声、切割声、电钻声等,采用海量不同场景下音频数据训练声音类型识别模型,实现准确识别监控场景音频类型,判断场景中是否有人说话,在第一时间排除非说话声的场景,避免算力浪费。
2)说话声音烈度等级分类是根据图2中展示部分不同类型声音,它们的频谱特点有显著差异,根据日常生活经验,处于争吵的人情绪都比较激动,说话声音的频率高且声音大,本算法基于这个特点进行设计。通过采集大量不同类型说话场景,基于声音强度和语义激烈程度采用人工智能算法预测说话声音烈度等级。
3)人群密度估计采用深度卷积神经网络方法对监控场景中人体目标进行识别,一般而言普通行人之间会保持一定的社交距离,一旦有异常事件发生如争吵,部分行人就会驻留造成人群聚集。算法分别统计人头和人体,通过人体或人头尺寸,估计行人之间距离,采用归一化方法重新构建人员位置分布图,降低了摄像机因倾斜拍而影响密度估计结果。其中人群聚集密度估计采用欧氏距离算法遍历计算每个人员周边的密度指数,距离越小指数越高,得到人群密度最高的区域范围。
4)肢体冲突行为推断需要在一段时间内根据肢体动作的变化来识别是否存在打架的冲突行为。对视频流按照设定时间间隔(F3)抽取帧,对人群密度最高的区域范围的人体采用肢体关键点识别,分别求出人群中相互位置最近的人,将所获关键点位置对分别输入肢体动作识别模型。假如识别为冲突行为动作比例超过阈值,则推断为发生肢体冲突行为。
5)人员流动分析是针对当某个区域出现聚集,而且聚集区域的人体位置在视频流中变化不大时,需要进一步确定人群中的个体是否出现变化。分析算法采用人员变动识别算法对视频片段聚集区域的人群进行跟踪并获得平均移动距离,当距离超过阈值,判定聚集区域人群为流动人群,否则判定人群未移动。
6)跨媒体融合信息的人群异常行为预测则是基于上述音视频分析和识别的结果,采用信息融合以及人工智能推理模型,对监控范围内是否出现人群异常行为进行预测。
上述内容可以采用图3的处理流程进行描述,具体如下:
1)V0为现场音视频采集设备,分别采集音频流和视频流数据,并分别进行编码按时间同步生成音视频流,采用流媒体协议进行传输;
2)服务器或边缘处理设备通过网络采集到音视频流媒体数据,将音视频流分离,并分别解码,分别进入VD2和SD3处理步骤;
3)VD2步骤中采用人体和头部目标检测算法,检测出监控区域范围内是否有人的出现;
4)VD3步骤中,对VD2中检测的结果采用自适应人群密度检测算法,获得人群密度最高的区域,并对密度最高区域的人群提取肢体关键点;
5)VD4步骤中对视频流提取肢体关键点流,通过肢体冲突行为识别算法,识别是否存在肢体冲突行为;
6)VD5步骤中采用人员变化识别算法对最高密度人群区域的人群进行跟踪,判断该区域的人群是流动还是停留;
7)SD2步骤中,对音频流采用去背景音算法提取人的说话声音,降低背景噪音对后续处理的影响;
8)SD3步骤中,对去背景音后的音频流采用声音类别分类模型,判断是否为人的说话音频;
9)SD4步骤中,采用声音强度计算方法,将音频流转化为一组数值;
10)SD5步骤中,采用声音烈度计算模型对音频流的对话激烈程度进行分级;
11)OUT步骤中,融合视频流和音频流的相关分析和识别信息,输出预警类型。
综上所述,本发明通过采用跨媒体智能技术处理监控场景中采集的音视频流数据,对所获取的音视频数据分离处理;其中视频数据帧检测出包含的人体和头部目标,利用自适应聚集密度评估算法,得到监控范围内最高人群密度值以及区域范围,对所获区域范围的人体进行关键点检测,采用基于肢体关键点的冲突行为识别模型判断是否存在肢体冲突行为。
音频数据在去除背景噪音以及切成片段后,采用深度卷积神经网络模型直接分类确定音频内容是否为人的说话声音。基于固定时间内所有片段的分类结果确定是否为人在说话,假如不是则计算原始音频背景音强度等级,否则按设定频率计算去除背景音的音频强度,得到强度值列表;将强度值列表输入音频烈度判别模型得到人声烈度等级。
最终融合人声烈度、人群密度和人流变化信息,实现室外重点场所人群异常行为的实时预警的目标。
以上为本发明的最佳实施方式,依据本发明公开的内容,本领域的普通技术人员能够显而易见地想到的一些雷同、替代方案,均应落入本发明保护的范围。
Claims (7)
1.基于跨媒体的室外重点场所人群异常行为预警方法,其特征在于该方法包括以下步骤:
S1.配置云台摄像机,摄像机按照预设值的点位,定时巡检各预置点位;
S2.配置定向拾音器,拾音器拾音方向跟随摄像机转动,实现定向音频数据采集;
S3.定时间长度采集预置点位视角范围内的音视频数据混合数据流;
S4.服务器接收音视频数据并分离,获得视频流和音频流数据;
S5.提取视频流的关键帧,对预设区域进行人体和头部目标检测;
S6.对检测出的人体和头部分别采用自适应聚集密度评估算法得到监控区域范围内的最高人群密度值;
S7.采用背景声音去除算法对音频数据进行预处理;
S8.将固定时间长度的音频数据分割为指定采集频率的片段数据;
S9.将音频片段数据通过深度学习的卷积神经网络模型进行分类,确定该音频片段数据是否为人的说话音频;
S10.根据固定时间长度内的所有音频片段数据的音频分类结果进行判断,通过人声的比率是否超过设定阈值,确定本段音频是否为人的说话音频;
假如不是人的说话声则确定为背景音,采用原始音频计算背景音频声音强度等级;
S11.针对判断为人说话的音频,采用声音强度计算算法,对整段音频采用设定频率计算片内的声音强度,得到整个固定时间长度内音频强度值列表;
S12.将音频强度值列表输入音频烈度判别模型,得到人声烈度等级;
S13.根据背景音频声音强度等级,自动调整人群密度阈值;
S14.将自动调整后的人群密度阈值与S6中得到最高人群密度值进行比较,如果S6中得到最高人群密度值大于等于人群密度阈值,则对最高人群密度区域采用人员变动识别算法,判断这个时段内,该区域的大多数人员是否有变化;
S15.融合S12得到人声烈度等级、S6中得到最高人群密度值以及S14人员变化判断结果,判断在摄像机监控区域内是否出现争吵,实现跨媒体音视频流的处理能力;
S16.根据S15的结果,判断是否满足预警要求,假如需要预警,输出预警类型并启动远程喊话,提前干预现场;
S17.重复S3~S16上述步骤完成室外重点场所人群异常行为的实时预警。
2.根据权利要求1所述的基于跨媒体的室外重点场所人群异常行为预警方法,其特征在于:S5中采用基于深度学习端到端的目标检测模型,对目标检测模型利用FP16半精度计算方法以及Tensor RT加速技术实现在图像的预设区域中快速检测人体和头部区域,并输出矩形区域坐标。
4.根据权利要求1所述的基于跨媒体的室外重点场所人群异常行为预警方法,其特征在于:S6中还包括:调节摄像机焦距以及云台,将摄像机拍摄区域定位到高密度人群范围,拍摄更加清晰的视频数据;
检测区域范围内的人体骨骼关键点,将得到的多人骨骼关键点输入肢体冲突行为识别模型,判断是否存在肢体冲突行为。
7.基于跨媒体的室外重点场所人群异常行为预警系统,其特征在于,包括:
视频数据采集模块,由带有云台摄像机按照预设值的点位,定时巡检各预置点位采集监控区域范围内的视频数据;
音频采集模块,拾音器跟随摄像机转动,定向采集音频数据;
音视频数据合成模块,通过将音视频数据按时间同步合成音视频流,实现网络传输;
音视频数据分离模块,服务器接收网络传输的音视频数据并分离,获得视频流和音频流数据;
人体和头部目标检测模块,对视频流解码后获得的帧图像,在预设区域范围内检测所有人体和头部的位置坐标;
自适应人群聚集密度估算模块,根据场景中人群的远近采用与距离相关的自适应聚集密度算法估算人群密度;
背景声音去除模块,对接收的音频数据,采用背景声音去除算法,去除背景声音;
音频分割模块,将固定时间长度的音频分割为指定采集频率的音频片段数据;
人声片段识别模块,对音频片段数据采用深度学习的卷积神经网络模型判断是否为人声;
人声整段识别模块,根据固定时间长度内的所有音频片段数据的音频分类结果,通过人声的比率是否超过设定阈值,确定本段音频是否为人的说话音频;假如不是人的说话声则确定为背景音,采用原始音频计算背景音频声音强度等级;
音频强度值列表计算模块,针对判断为人说话的音频,采用声音强度计算算法,对整段音频采用设定频率计算片内的声音强度,得到整个固定时间长度内音频强度值列表;
人声烈度等级识别模块,根据音频强度列表采用智能判别模型,得到人声烈度等级;
人群密度阈值调整模块,根据背景音频强度等级,自动调整人群密度阈值;
人员流动识别模块,针对高密度人群区域范围,采用人员变化识别算法,判断聚集的人群是否流动;
争吵行为识别模块,根据声音烈度等级、人群密度以及人员流动结果,判断在是否出现争吵行为;
预警远程喊话模块,输出行为异常预警信息,并启动远程网络语音播放系统,自动播放预设语音内容。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210896343.5A CN115240142B (zh) | 2022-07-28 | 2022-07-28 | 基于跨媒体的室外重点场所人群异常行为预警系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210896343.5A CN115240142B (zh) | 2022-07-28 | 2022-07-28 | 基于跨媒体的室外重点场所人群异常行为预警系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115240142A true CN115240142A (zh) | 2022-10-25 |
CN115240142B CN115240142B (zh) | 2023-07-28 |
Family
ID=83676423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210896343.5A Active CN115240142B (zh) | 2022-07-28 | 2022-07-28 | 基于跨媒体的室外重点场所人群异常行为预警系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115240142B (zh) |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101799876A (zh) * | 2010-04-20 | 2010-08-11 | 王巍 | 一种视音频智能分析管控系统 |
CN101835034A (zh) * | 2010-05-27 | 2010-09-15 | 王巍 | 一种人群特征统计系统 |
US20120063641A1 (en) * | 2009-04-01 | 2012-03-15 | Curtin University Of Technology | Systems and methods for detecting anomalies from data |
CN102508288A (zh) * | 2011-10-18 | 2012-06-20 | 浙江工业大学 | 基于物联网技术的地震预测辅助系统 |
CN103913193A (zh) * | 2012-12-28 | 2014-07-09 | 中国科学院沈阳自动化研究所 | 一种基于工业无线技术的设备故障预维护方法 |
US20140372348A1 (en) * | 2011-12-15 | 2014-12-18 | Northeastern University | Real-time anomaly detection of crowd behavior using multi-sensor information |
CN110110710A (zh) * | 2019-06-03 | 2019-08-09 | 北京启瞳智能科技有限公司 | 一种场景异常状态识别方法、系统和智能终端 |
CN110427855A (zh) * | 2019-07-25 | 2019-11-08 | 浙江树人学院(浙江树人大学) | 一种利用累积光流对人群异常行为识别定位的算法 |
CN110519637A (zh) * | 2019-08-27 | 2019-11-29 | 西北工业大学 | 基于音频视频监控结合的异常监测方法 |
US20200136846A1 (en) * | 2014-06-26 | 2020-04-30 | Ainemo Inc | Terminal and method for bidirectional live sharing and smart monitoring |
CN111597974A (zh) * | 2020-05-14 | 2020-08-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于tof相机车厢内人员活动的监控方法及系统 |
CN111753651A (zh) * | 2020-05-14 | 2020-10-09 | 南京熊猫电子股份有限公司 | 一种基于车站二维人群密度分析的地铁群体异常行为检测方法 |
CN112991656A (zh) * | 2021-02-04 | 2021-06-18 | 北京工业大学 | 基于姿态估计的全景监控下人体异常行为识别报警系统及方法 |
CN113255481A (zh) * | 2021-05-11 | 2021-08-13 | 北方工业大学 | 一种基于无人巡逻车的人群状态检测方法 |
CN114373189A (zh) * | 2021-12-20 | 2022-04-19 | 深圳市锐明技术股份有限公司 | 一种行为检测方法、装置、终端设备及存储介质 |
CN114596591A (zh) * | 2022-03-17 | 2022-06-07 | 重庆邮电大学 | 一种语音识别触发的服务人员手势规范识别及检测方法 |
-
2022
- 2022-07-28 CN CN202210896343.5A patent/CN115240142B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120063641A1 (en) * | 2009-04-01 | 2012-03-15 | Curtin University Of Technology | Systems and methods for detecting anomalies from data |
CN101799876A (zh) * | 2010-04-20 | 2010-08-11 | 王巍 | 一种视音频智能分析管控系统 |
CN101835034A (zh) * | 2010-05-27 | 2010-09-15 | 王巍 | 一种人群特征统计系统 |
CN102508288A (zh) * | 2011-10-18 | 2012-06-20 | 浙江工业大学 | 基于物联网技术的地震预测辅助系统 |
US20140372348A1 (en) * | 2011-12-15 | 2014-12-18 | Northeastern University | Real-time anomaly detection of crowd behavior using multi-sensor information |
CN103913193A (zh) * | 2012-12-28 | 2014-07-09 | 中国科学院沈阳自动化研究所 | 一种基于工业无线技术的设备故障预维护方法 |
US20200136846A1 (en) * | 2014-06-26 | 2020-04-30 | Ainemo Inc | Terminal and method for bidirectional live sharing and smart monitoring |
CN110110710A (zh) * | 2019-06-03 | 2019-08-09 | 北京启瞳智能科技有限公司 | 一种场景异常状态识别方法、系统和智能终端 |
CN110427855A (zh) * | 2019-07-25 | 2019-11-08 | 浙江树人学院(浙江树人大学) | 一种利用累积光流对人群异常行为识别定位的算法 |
CN110519637A (zh) * | 2019-08-27 | 2019-11-29 | 西北工业大学 | 基于音频视频监控结合的异常监测方法 |
CN111597974A (zh) * | 2020-05-14 | 2020-08-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于tof相机车厢内人员活动的监控方法及系统 |
CN111753651A (zh) * | 2020-05-14 | 2020-10-09 | 南京熊猫电子股份有限公司 | 一种基于车站二维人群密度分析的地铁群体异常行为检测方法 |
CN112991656A (zh) * | 2021-02-04 | 2021-06-18 | 北京工业大学 | 基于姿态估计的全景监控下人体异常行为识别报警系统及方法 |
CN113255481A (zh) * | 2021-05-11 | 2021-08-13 | 北方工业大学 | 一种基于无人巡逻车的人群状态检测方法 |
CN114373189A (zh) * | 2021-12-20 | 2022-04-19 | 深圳市锐明技术股份有限公司 | 一种行为检测方法、装置、终端设备及存储介质 |
CN114596591A (zh) * | 2022-03-17 | 2022-06-07 | 重庆邮电大学 | 一种语音识别触发的服务人员手势规范识别及检测方法 |
Non-Patent Citations (4)
Title |
---|
GEETHA PALANISAMY等: "Group Behaviour Profiling for Detection of Anomaly in Crowd", 《2017 INTERNATIONAL CONFERENCE ON TECHNICAL ADVANCEMENTS IN COMPUTERS AND COMMUNICATIONS》, pages 11 - 15 * |
刘学谦: "基于DM3730平台的智能数字音视频监控系统设计", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 5, pages 136 - 849 * |
徐元等: "面向突发事件应急管理的社交媒体多模态信息分析研究", 《情报学报》, vol. 40, no. 11, pages 1150 - 1163 * |
魏凯: "基于群体的人群异常事件检测方法研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 8, pages 138 - 784 * |
Also Published As
Publication number | Publication date |
---|---|
CN115240142B (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108062349B (zh) | 基于视频结构化数据及深度学习的视频监控方法和系统 | |
CN110738127B (zh) | 基于无监督深度学习神经网络算法的安全帽识别方法 | |
CN108053427B (zh) | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 | |
CN110942545B (zh) | 基于人脸识别和视频围栏的人员密集出入口门禁控制系统及方法 | |
CN108052859B (zh) | 一种基于聚类光流特征的异常行为检测方法、系统及装置 | |
CN104123544B (zh) | 基于视频分析的异常行为检测方法及系统 | |
US7646401B2 (en) | Video-based passback event detection | |
CN108564052A (zh) | 基于mtcnn的多摄像头动态人脸识别系统与方法 | |
CN101635835A (zh) | 智能视频监控方法及系统 | |
Conte et al. | An ensemble of rejecting classifiers for anomaly detection of audio events | |
CN111401311A (zh) | 一种基于图像检测的高空抛物识别方法 | |
CN111523397B (zh) | 一种智慧灯杆视觉识别装置、方法及其系统和电子设备 | |
CN108230607B (zh) | 一种基于区域特征分析的图像火灾探测方法 | |
US11132532B1 (en) | System and method for facial recognition accuracy | |
CN113362374A (zh) | 一种基于目标跟踪网络的高空抛物检测方法及系统 | |
CN111460940A (zh) | 一种陌生人落脚点研判方法与系统 | |
CN113963301A (zh) | 一种时空特征融合的视频火灾烟雾探测方法及系统 | |
CN112800975A (zh) | 一种基于图像处理的安检通道内行为识别方法 | |
CN116798176A (zh) | 基于大数据和智慧安防的数据管理系统 | |
CN113657250A (zh) | 一种基于监控视频的火焰检测方法及系统 | |
CN113989732A (zh) | 基于深度学习的实时监控方法、系统、设备和可读介质 | |
CN115240142B (zh) | 基于跨媒体的室外重点场所人群异常行为预警系统和方法 | |
CN113362851A (zh) | 基于深度学习交通场景声音分类的方法及系统 | |
CN116597394A (zh) | 一种基于深度学习的铁路异物侵限检测系统及方法 | |
CN110533889A (zh) | 一种敏感区域电子设备监测定位装置与方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |