CN111144291B - 基于目标检测的视频监控区域人员入侵判别方法及装置 - Google Patents
基于目标检测的视频监控区域人员入侵判别方法及装置 Download PDFInfo
- Publication number
- CN111144291B CN111144291B CN201911364177.9A CN201911364177A CN111144291B CN 111144291 B CN111144291 B CN 111144291B CN 201911364177 A CN201911364177 A CN 201911364177A CN 111144291 B CN111144291 B CN 111144291B
- Authority
- CN
- China
- Prior art keywords
- intrusion
- area
- module
- detection
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 126
- 238000012544 monitoring process Methods 0.000 title claims description 121
- 238000012850 discrimination method Methods 0.000 title claims description 9
- 238000010276 construction Methods 0.000 claims description 66
- 238000000034 method Methods 0.000 claims description 48
- 238000012937 correction Methods 0.000 claims description 13
- 230000009545 invasion Effects 0.000 claims description 11
- 238000013439 planning Methods 0.000 claims description 11
- 238000010219 correlation analysis Methods 0.000 claims description 10
- 238000009430 construction management Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 7
- 238000012423 maintenance Methods 0.000 description 6
- 238000012806 monitoring device Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000006698 induction Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 101000932768 Conus catus Alpha-conotoxin CIC Proteins 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 206010000117 Abnormal behaviour Diseases 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 101000983970 Conus catus Alpha-conotoxin CIB Proteins 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及基于目标检测的视频监控区域人员入侵判别装置,至少包括视频帧获取模块、识别模块和入侵判别模块,所述视频帧获取模块,其被配置为从至少一个摄像机中获取关于真实目标区域的至少一个监控视频帧,所述识别模块,其被配置为通过预设的关于所述真实目标区域的虚拟监控区域对所述视频帧获取模块获取到的监控视频帧进行移动对象入侵事件识别,所述识别模块还被配置为动态规划所述虚拟监控区域,以使得所述入侵判别模块能够基于动态规划下的该虚拟监控区域与进入该真实目标区域的移动对象来判别移动对象入侵事件和/或警报事件。
Description
技术领域
本发明涉及安全防范技术领域,尤其涉及基于目标检测的视频监控区域人员入侵判别方法及装置。
背景技术
随着人们对安全性要求的提高以及经济条件的改善,监控摄像头的个数增长速度越来越快,覆盖的范围也越来越广。传统的视频监控仅提供视频的捕获、存储和回放等简单的功能,用来记录发生的事情,很难起到预警和报警的作用。若要保证实时监控异常行为并及时采取有效措施,就需要监控人员一刻不停的监看视频,这种情况下,监控人员容易疲惫,尤其面对多路监控视频时,往往目不暇接,很难及时对异常做出反应。因此这就迫切需要智能视频监控,来辅助监控人员的工作。众多的摄像头,庞大的监控网络,瞬间就会产生海量视频数据,如何从这些海量数据中高效地提取出有用的信息,就成为智能视频监控技术要解决的问题。具体地讲,智能视频监控技术就是为了让计算机像人的大脑,让摄像头像人的眼睛,由计算机智能地分析从摄像头中获取的图像序列,对被监控场景中的内容进行理解,实现对异常行为的自动预警和报警。
20世纪末以来,随着计算机视觉的发展,智能视频监控技术得到广泛的关注和研究,并随着安全的日益重视,也成为当前的研究热点。智能视频监控包括在底层上对动态场景中的感兴趣目标进行检测、分类、跟踪和识别,在高层上对感兴趣目标的行为进行识别、分析和理解。智能视频监控技术可以广泛应用于公共安全监控、工业现场监控、居民小区监控、交通状态监控等各种监控场景中,实现犯罪预防、交通管制、意外防范和检测、老幼病残监护等功能,能够显著提高监控效率,降低监控成本,具有广泛的研究意义和应用前景。视频监控是安全防范的重要组成部分,监控的第一要务是用最短时间从被监控的地方获取尽可能多的信息反馈,从信息获取和处理对象的角度而言,早期完全依靠人来获取和处理信息,直到19世纪70年代真正发展出的视频监控,开始利用摄像头来获取信息,与这些大部分的信息处理是依靠人来进行处理决策不同的是,智能视频监控开始尝试利用机器智能来辅助人类进行信息处理。智能视频监控系统应运而生,其中最核心的部分是基于计算机视觉的视频内容理解技术,通过对原始视频图像经过背景建模、目标检测与识别、目标跟踪等一系列算法分析,进而分析其中的目标行为以及事件,从而回答人们感兴趣的“是谁、在哪、干什么”的问题,然后按照预先设定的安全规则,及时发出报警信号。智能视频监控系统有别于传统视频监控系统最大的优势是能自动地全天候进行实时分析报警,彻底改变了以往完全由安保人员对监控画面进行监视和分析的模式;同时,智能技术将一般监控系统的事后分析变成了事中分析和预警,不仅能识别可疑活动,还能在安全威胁发生之前提示安保人员关注相关监控画面并提前做好准备,从而提高反应速度,减轻人的负担,达到用电脑来辅助人脑的目的。
多目标跟踪检测技术最早的是在上世纪五十年代提出,至1964年,美国的科学家Siltor完善了此理论,用贝叶斯分类方法解决了目标航迹和数据关联等难题。多目标在同一背景运动时,经常出现相互遮挡甚至重合等意外情况,导致目标之间的轨迹模糊紊乱,计算复杂度极高,给多目标的跟踪检测增加了难度。面对多目标检测与跟踪中遇到的困难和问题,现有的解决方案主要通过建立模型,提取目标特征进行匹配后再针对性的进行跟踪估计,最终实现某一特定目标运动轨迹的跟踪,其主要分为两类:基于图像空间的方法和基于融合空间的方法。其中,基于图像空间的方法的特点是在各视角的二维图像空间分别进行目标检测,检测结果容易因为遮挡而发生错误,依据该结果实施对应和定位也很容易发生错误,因此性能往往不好。基于融合空间的方法不直接在各视角上检测目标,而是先融合各视角信息,在融合空间进行检测和对应,它处理遮挡能力较强,但计算负担重,往往不能满足实时性要求。
海量监控节点不断增加,监控数据的类型也从单一性扩展到多样性,监控数据海量混杂。监控数据的类型已经不仅仅局限在监控摄像头,图像、语言、文本等信息都夹杂其中,这些数据作为监控的载体,都起到重要的作用。如何在各种载体中获取有用信息,将大数据变成小数据是急需克服的问题。
公开号为CN110136378A的专利文件公开了一种机场周界入侵报警系统及入侵报警方法,属于机场安全防范技术领域,其中系统包括入侵监测设备、入侵行为报警设备和监控操作台,方法采用入侵行为分析算法。该系统和方法通过合理部署多种不同的信号感应设备,并基于各个信号感应设备监测到的入侵信号,准确分析目标的入侵行为类型,实时向工作人员发出入侵警报。降低了劳动强度,提高了入侵识别的灵活性和准确性。其信号感应设备至少包括风速传感器、雨量传感器、九轴振动传感器、非制冷红外焦平面探测器、视频监控摄像头等多个运维成本较高的智能设备,成本要求较高且计算数据量庞大。
公开号为CN107277443A的专利文件公开了一种大范围周边安全监控方法和系统,监控方法至少包括:预先创建入侵特征库,采集微扰数据并得到量化振幅后,与入侵特征库内的入侵数据特征对比,便可确定受监控区域是否被入侵以及确定对应的入侵事件类型;进一步,再通过微扰数据分析出入侵者数量、移动轨迹和移动速度等入侵信息,并结合入侵事件类型和入侵信息确定处理方案。入侵者在行进的过程中会产生震动信号,实时监测受监控区域边界,就能在被入侵时采集到震动信号所带来的微扰数据。通过上述方法获取并分析微扰数据,仅需要采集微扰数据并进行处理便可确定受监控区域是否遭到入侵、入侵事件类型和入侵信息。
现有的如上述专利文件中所提供的监控系统,由于该监控系统依赖于振动传感器所收集的振动信息,即其要求监控区域的四周至少布置有用于防范外物入侵的安全网,并且要求监控区域的四周无可能造成振动传感器误报的大型作业设备。然而实际上对于轨道交通线路上正在进行基坑施工的监控区域而言,由于此类监控区域具有施工空间有限、各种工序交叉、大型作业设备多、施工人员安全意识薄弱、施工操作难以规范等特点,难以保证进行基坑施工的监控区域的四周及时地安装安全网或基坑防护栏杆,因此现有如上述基于振动传感器的监控系统无法适用于轨道交通线路施工监控。
此外,一方面由于对本领域技术人员的理解存在差异;另一方面由于发明人做出本发明时研究了大量文献和专利,但篇幅所限并未详细罗列所有的细节与内容,然而这绝非本发明不具备这些现有技术的特征,相反本发明已经具备现有技术的所有特征,而且申请人保留在背景技术中增加相关现有技术之权利。
发明内容
针对目前利用智能视频监控技术进行周界安全防范的监控系统,其所采用的红外探测、微波探测、张力围栏探测等探测方法存在易受到外界客观因素干扰而误警率高的问题,现有技术中所提供的监控系统大多通过采用感应性能更为优异的振动传感器的方式来提高系统对入侵识别的准确性,或通过增加监控设备数量的方式提高系统对入侵识别的准确性。一方面感应性能更为优异的振动传感器反而严重限制了此类监控系统的入侵识别准确性;另一方面,监控设备数量的增加成本要求较高、计算数据量庞大。因此,尤其针对轨道交通线路上正在进行基坑施工的监控区域而言,现有监控系统无法为轨道交通线路施工监控提供可靠的入侵识别。对此,本发明利用轨道交通线路施工环境的复杂动态特点与特殊入侵识别需求提出了一种不同于现有监控系统的基于目标检测的视频监控区域人员入侵判别装置,致力于在最小化监控设备数量减轻运维人力成本和计算数据量负担的基础上为轨道交通线路施工监控提供可靠性高防范性适当的入侵识别功能。具体地:
基于目标检测的视频监控区域人员入侵判别装置,至少包括视频帧获取模块、识别模块和入侵判别模块,所述视频帧获取模块,其被配置为从至少一个摄像机中获取关于真实目标区域的至少一个监控视频帧,所述识别模块,其被配置为通过预设的关于所述真实目标区域的虚拟监控区域对所述视频帧获取模块获取到的监控视频帧进行移动对象入侵事件识别,所述识别模块还被配置为动态规划所述虚拟监控区域,以使得所述入侵判别模块能够基于动态规划下的该虚拟监控区域与进入该真实目标区域的移动对象来判别移动对象入侵事件和/或警报事件。
根据一种优选实施方式,所述人员入侵判别装置至少包括自定义标定模块与移动对象检测模块,所述自定义标定模块,其被配置为在所述视频帧获取模块获取到的监控视频帧的基础上由用户自定义标定禁止移动对象进入的矩形区域,并确定所述矩形区域上至少一个顶点的顶点坐标信息,所述移动对象检测模块,其被配置为在标定出的禁止移动对象进入的矩形区域的基础上进行移动对象检测,确定包括至少一个移动对象的检测框,其中,所述入侵判别模块用于判断禁止移动对象进入的所述矩形区域与包括至少一个移动对象的所述检测框之间的交集情况是否满足至少一个判别条件。
根据一种优选实施方式,所述现场施工管控系统通过其与至少一个施工设备相连接的方式获取施工相关时空信息,以使得所述识别模块能够基于该施工相关时空信息对由用户自定义标定的禁止移动对象进入的矩形区域进行拓展性修正和/或将所述矩形区域转换为用于判别移动对象是否有入侵倾向的套框区域A。
根据一种优选实施方式,所述人员入侵判别装置通过所述入侵判别模块来确定未进入该真实目标区域的移动对象的预测隐患级别和/或已经进入该真实目标区域的移动对象的预测危险级别,并由所述入侵判别模块分别输出与该隐患级别阈值相对应的摄像模式Q和/或与该危险的级别阈值相对应的警报事件W。
根据一种优选实施方式,所述入侵判别模块通过关于环境的时间事件来描述在所述识别模块的动态规划下的第一时空特性和/或通过关于移动对象的时间事件来描述进入该真实目标区域的移动对象的第二时空特性,其中,所述入侵判别模块是通过衡量由关于环境的时间事件与关于移动对象的时间事件所共同引起的所述隐患级别阈值和/或所述危险级别阈值的变化程度来进行所述相关性分析的。
基于目标检测的视频监控区域人员入侵判别方法,所述入侵判别方法中至少包括视频帧获取模块、识别模块和入侵判别模块,所述视频帧获取模块,其被配置为从至少一个摄像机中获取关于真实目标区域的至少一个监控视频帧,所述识别模块,其被配置为通过预设的关于所述真实目标区域的虚拟监控区域对所述视频帧获取模块获取到的监控视频帧进行移动对象入侵事件识别,所述入侵判别方法至少包括以下步骤中的一个或几个:所述识别模块对所述虚拟监控区域进行动态规划,以使得所述入侵判别模块能够基于动态规划下的该虚拟监控区域与进入该真实目标区域的移动对象来判别移动对象入侵事件和/或警报事件。
根据一种优选实施方式,所述入侵判别方法中至少包括自定义标定模块与移动对象检测模块,其中,所述入侵判别方法至少包括以下步骤中的一个或几个:所述自定义标定模块在所述视频帧获取模块获取到的监控视频帧的基础上由用户自定义标定禁止移动对象进入的矩形区域,并确定所述矩形区域上至少一个顶点的顶点坐标信息,其包括(xAmin,yAmin)、(xAmin,yAmax)、(xAmax,yAmin)、(xAmax,yAmax);所述移动对象检测模块在标定出的禁止移动对象进入的矩形区域的基础上进行移动对象检测,确定包括至少一个移动对象的检测框,其包括(xBmin,yBmin)、(xBmin,yBmax)、(xBmax,yBmin)、(xBmax,yBmax),所述入侵判别模块用于判断禁止移动对象进入的所述矩形区域与包括至少一个移动对象的所述检测框之间的交集情况是否满足至少一个判别条件。
根据一种优选实施方式,所述入侵判别方法至少包括以下步骤中的一个或几个:在所述入侵判别模块判断得到所述矩形区域与所述检测框之间的交集情况满足至少一个判别条件且其持续时间超过设定的阈值t时,则输出警报事件W;在所述入侵判别模块判断得到所述矩形区域与所述检测框之间的交集情况不满足任何一个判别条件或其交集情况满足至少一个判别条件的持续时间小于设定的阈值t时,则获取下一监控视频帧中矩形区域与检测框之间的交集情况。
根据一种优选实施方式,在由所述移动对象检测模块进行移动对象检测以确定包括至少一个移动对象的检测框的步骤中,进行移动对象检测的方法为:在keras环境下,使用基于YOLOv3算法的目标检测方法来确定包括至少一个移动对象的检测框。
根据一种优选实施方式,所述人员入侵判别方法中基于YOLOv3算法的目标检测方法至少包括以下步骤中的一个或几个:S4.1、将从视频中提取的帧作为YOLOv3算法的输入;S4.2、将输入图像分割成S×S个网格,每个单元格负责检测中心点落在该格子内的目标;S4.3、每个单元格预测B个bounding box,每个bounding box包含4个预测值:tx、ty、tw、th。并由此得到bounding box坐标、bounding box中包含物体的置信度和类别概率;S4.4、设置置信度阈值,去掉置信度低的bounding box;S4.5、对保留下来的bounding box进行NMS非极大值抑制,去掉重复的bounding box,选取目标类别出现概率最高的bounding box作为最终检测框。
附图说明
图1是本发明所提供的视频监控区域人员入侵判别方法中矩形区域和检测框之间存在交集的情况C1示意图;
图2是本发明所提供的视频监控区域人员入侵判别方法中矩形区域和检测框之间存在交集的情况C2示意图;
图3是本发明所提供的视频监控区域人员入侵判别方法中矩形区域和检测框之间存在交集的情况C3示意图;
图4是本发明提供的基于目标检测的视频监控区域人员入侵判别装置的简化模块连接关系示意图;和
图5是本发明所提供的确定检测框的顶点坐标、宽和高的计算示意图。
附图标记列表
1:视频帧获取模块 2:识别模块
3:入侵判别模块 4:摄像机
5:自定义标定模块 6:移动对象检测模块
A:矩形区域 B:检测框
具体实施方式
下面结合附图对本发明进行详细说明。
针对目前利用智能视频监控技术进行周界安全防范的监控系统,其所采用的红外探测、微波探测、张力围栏探测等探测方法存在易受到外界客观因素干扰而误警率高的问题,现有技术中所提供的监控系统大多通过采用感应性能更为优异的振动传感器的方式来提高系统对入侵识别的准确性,或通过增加监控设备数量的方式提高系统对入侵识别的准确性。
一方面,由于此类监控系统严重依赖于振动传感器所收集的振动信息,即其要求监控区域的四周至少布置有用于防范外物入侵的安全网,并且要求监控区域的四周无可能造成振动传感器误报的大型作业设备,因此感应性能更为优异的振动传感器反而严重限制了此类监控系统的入侵识别准确性;另一方面,监控设备数量的增加不仅成本要求较高、计算数据量庞大,并且就其较高的运维人力成本而言,违背了智能视频监控技术的减少运维人力成本的使用初衷。因此,尤其针对轨道交通线路上正在进行基坑施工的监控区域而言,由于此类监控区域具有施工空间有限、各种工序交叉、大型作业设备多、施工人员安全意识薄弱、施工操作难以规范等特点,难以保证进行基坑施工的监控区域的四周可以及时地安装安全网或基坑防护栏杆,同样难以在基坑施工的复杂动态环境下安装数量过多的监控设备,因此现有监控系统无法为轨道交通线路施工监控提供可靠的入侵识别。
对此,本发明利用轨道交通线路施工环境的复杂动态特点与特殊入侵识别需求提出了一种不同于现有监控系统的基于目标检测的视频监控区域人员入侵判别装置,致力于在最小化监控设备数量减轻运维人力成本和计算数据量负担的基础上为轨道交通线路施工监控提供可靠性高防范性适当的入侵识别功能。本发明所提出的人员入侵判别装置通过对动态规划下的该虚拟监控区域的第一时空特性与进入该真实目标区域的移动对象的第二时空特性进行相关性分析,综合衡量了施工环境的可规划时空特性与施工场地上移动对象的不可规划时空特性,区别于未发生入侵但存在入侵隐患的、以及已发生入侵而存在入侵危险的两种人群,分别地分级地来发布不同程度的警报。
如图4所示,基于目标检测的视频监控区域人员入侵判别装置,至少包括视频帧获取模块1、识别模块2和入侵判别模块3。
视频帧获取模块1从至少一个摄像机4中获取关于真实目标区域的至少一个监控视频帧。摄像机4至少包括两个摄像头,在摄像机4的单目模式下只开启一个摄像头,在其双目模式下两个摄像头同时开启。单目模式下的摄像机4能够用于对日常的人数较少的时间段进行监控,而双目模式下的摄像机4是用于对例如下班、用饭等易出现大流量高密集度高移动速度的移动对象的特殊时间段进行密切监控,此类特殊时间段下监控对象多且安全隐患增大。
识别模块2通过预设的关于真实目标区域的虚拟监控区域对视频帧获取模块1获取到的监控视频帧进行移动对象入侵事件识别。真实目标区域指的是通过摄像机4视野所能及的部分施工现场区域。而虚拟监控区域为用户自定义标定和/或系统标定的位于真实目标区域中的部分施工现场区域。虚拟监控区域主要是通过用户自定义标定的方式确定大概的模糊范围,用户自定义标定的方式可以是通过自定义标定模块5在所获取到的视频上圈出危险区域或危险设备的方式,通过系统对施工相关时空信息的分析进一步地修正确定虚拟监控区域的准确周界范围。
根据一种优选实施方式,识别模块2是根据其与现场施工管控系统进行信息交互所获取到的位于真实目标区域中的施工相关时空信息来动态规划虚拟监控区域的。入侵判别模块3能够基于动态规划下的该虚拟监控区域与进入该真实目标区域的移动对象来判别移动对象入侵事件和/或警报事件。具体地,入侵判别模块3是基于其对动态规划下的该虚拟监控区域的第一时空特性与进入该真实目标区域的移动对象的第二时空特性进行的相关性分析来判别移动对象入侵事件和/或警报事件。
根据一种优选实施方式,人员入侵判别装置通过入侵判别模块3来确定未进入该真实目标区域的移动对象的预测隐患级别和/或已经进入该真实目标区域的移动对象的预测危险级别。优选地,入侵判别模块3是基于其对动态规划下的该虚拟监控区域的第一时空特性与进入该真实目标区域的移动对象的第二时空特性进行的相关性分析来确定未进入该真实目标区域的移动对象的预测隐患级别和/或已经进入该真实目标区域的移动对象的预测危险级别的。基于其对动态规划下的该虚拟监控区域的第一时空特性与进入该真实目标区域的移动对象的第二时空特性进行的相关性分析,首先能够确定的是该移动对象是否已经发生入侵行为,以此区别开未发生入侵的、以及已发生入侵的两种人群。针对未发生入侵行为的移动对象而言,基于该移动对象的关于其与虚拟监控区域之间的距离/移动速度等的不可规划时空特性以及虚拟监控区域的关于其特殊监控时间段/设备运作等的可规划时空特性,分别地分级地来发布不同程度的警报。
根据一种优选实施方式,由入侵判别模块3分别输出与该隐患级别阈值相对应的摄像模式Q和/或与该危险的级别阈值相对应的警报事件W。优选地,入侵判别模块3针对未进入该真实目标区域的但其预测隐患级别达到至少一个隐患级别阈值的移动对象和/或针对已经进入该真实目标区域的且其预测危险级别达到至少一个危险级别阈值的移动对象分别输出与该隐患级别阈值相对应的摄像模式Q和/或与该危险的级别阈值相对应的警报事件W。其中,所确定得到的监控模式Q用来指示至少一个摄像机4的单目模式或双目模式。区别于单一的单目模式或单一的双目模式,单双目模式的切换不仅能够缩短能耗延长使用寿命且能够适应施工场景下的特殊要求,尤其是在下班、用饭等人群数量大密集程度高移动速度快的时间段,当人群移动至真实目标区域附近时发生危险或误入虚拟监控区域的隐患较大,因此在此类时间段下需要采用监控效果更优异的摄像机4双目模式进行密切关注,及时对人群中的异常情况作出警示或警报。
根据一种优选实施方式,入侵判别模块3是通过在虚拟监控区域所处的空间位置中可能引起隐患级别阈值和/或危险级别阈值变化的关于环境的时间事件来描述在识别模块2的动态规划下的第一时空特性的。其中,关于环境的时间事件至少包括施工设备运作期间、返点/下班期间、环境昏暗期间三个时间事件。上述关于环境的时间事件用于描述可以通过与现场施工管控系统进行信息交互所确定的可规划的第一时空特性。具体地,现场施工管控系统通过其与至少一个施工设备相连接的方式获取至少包括施工设备的位置信息、施工范围信息、实时天气信息与施工设备运作信息等的施工相关时空信息。所获取到的施工相关时空信息一方面能够提供系统对虚拟监控区域进行修正的修正依据,另一方面又为系统提供了对当前虚拟监控区域内施工设备的运作情况。例如,在确定真实目标区域中的施工设备的施工范围后,适当地对由用户自定义标定的大概区域进行拓展性修正。其中优选地,针对满足施工设备处于非运作状态的施工相关时空信息,识别模块2将由用户自定义标定的禁止移动对象进入的矩形区域A转换为用于判别移动对象是否有入侵倾向的套框区域A。套框区域A区别于矩形区域A,套框区域A将原本的虚拟监控区域区分为两部分,一部分为内部矩形区域,一部分为围绕改动内部矩形区域的外部套框区域,区别于两部分区域分别设定不同隐患级别阈值和/或危险级别阈值。由于施工设备处于非运作状态而此时的潜在风险明显低于施工设备处于运动状态时的潜在风险,因此,基于施工相关时空信息能够在最小化监控设备数量减轻运维人力成本和计算数据量负担的基础上为轨道交通线路施工监控提供可靠性高防范性适当的入侵识别功能,适当的防范功能能够针当前情况选择提醒当前移动对象或是警告当前移动对象或是通知警务室,在减小了误警率的同时极大地降低了警务室对严重程度较低的入侵行为所花费的时间人力成本。
根据一种优选实施方式,入侵判别模块3是通过在虚拟监控区域所处的空间位置中可能引起隐患级别阈值和/或危险级别阈值变化的关于移动对象的时间事件来描述进入该真实目标区域的移动对象的第二时空特性的。其中,关于移动对象的时间事件至少包括低密度移动对象、高密度移动对象、正常移动速度、快速移动速度和长时间滞留的时间事件。优选地,每个时间事件均对应有相应的隐患级别阈值和/或危险级别阈值。入侵判别模块3是通过衡量由关于环境的时间事件与关于移动对象的时间事件所共同引起的隐患级别阈值和/或危险级别阈值的变化程度来进行相关性分析的。衡量由关于环境的时间事件与关于移动对象的时间事件所共同引起的隐患级别阈值和/或危险级别阈值的变化程度的方法可以是将两者的隐患级别阈值和/或危险级别阈值进行加权计算得到综合隐患级别阈值和/或综合危险级别阈值。
根据一种优选实施方式,人员入侵判别装置至少包括自定义标定模块5与移动对象检测模块6。自定义标定模块5在视频帧获取模块1获取到的监控视频帧的基础上由用户自定义标定禁止移动对象进入的矩形区域A,并确定矩形区域A上至少一个顶点的顶点坐标信息。移动对象检测模块6在标定出的禁止移动对象进入的矩形区域A的基础上进行移动对象检测,确定包括至少一个移动对象的检测框B。移动对象检测模块6在标定出的禁止移动对象进入的矩形区域A的基础上标注得到移动对象为主动移动对象的概率。入侵判别模块3被配置为在识别模块2确定至少一个时空特性之间的相关性分析结果为有效入侵的情况下判断禁止移动对象进入的矩形区域A与包括至少一个移动对象的检测框B之间的交集情况是否满足至少一个判别条件。
根据一种优选实施方式,现场施工管控系统通过其与至少一个施工设备相连接的方式获取施工相关时空信息,以使得识别模块2能够基于该施工相关时空信息对由用户自定义标定的禁止移动对象进入的矩形区域A进行拓展性修正和/或将矩形区域A转换为用于判别移动对象是否有入侵倾向的套框区域A。施工相关时空信息至少包括施工设备的位置信息、施工范围信息、实时天气信息与运作信息。识别模块2在将其位置信息及视野信息传输至现场施工管控系统时能够调取到位于与该识别模块2相对应的真实目标区域中的施工相关时空信息且能够基于该施工相关时空信息对由用户自定义标定的禁止移动对象进入的矩形区域A进行拓展性修正和/或将矩形区域A转换为用于判别移动对象是否有入侵倾向的套框区域A。优选地,所述拓展性修正还包括基于由所述入侵判别模块3输出的与该隐患级别阈值相对应的摄像模式Q所进行的拓展性修正。在摄像模式Q中单双目之间转换的情况下,基于单目摄像模式下的监控区域对矩形区域A进行拓展性修正,以使得在人员潜在危险和/或环境潜在危险较小的情况下能够对较大范围的监控区域进行安全监控;在摄像模式Q中单双目之间转换的情况下,基于双目摄像模式下的监控区域对矩形区域A进行拓展性修正,以使得在人员潜在危险和/或环境潜在危险较大的情况下能够进一步缩小其监控区域进行安全监控,以此对所监控大范围区域进行安全监控的同时能够在具体某一区域的潜在危险过高时将矩形区域A缩小,进而有效提高监控的有效性,并进一步地降低了系统的误警率。优选地,所述拓展性修正还可以包括基于由所述入侵判别模块3输出的与该危险的级别阈值相对应的警报事件W所进行的拓展性修正。
根据一种优选实施方式,本发明还提供了一种基于目标检测的视频监控区域人员入侵判别方法。入侵判别方法中至少包括视频帧获取模块1、识别模块2和入侵判别模块3。视频帧获取模块1,其被配置为从至少一个摄像机4中获取关于真实目标区域的至少一个监控视频帧。识别模块2,其被配置为通过预设的关于真实目标区域的虚拟监控区域对视频帧获取模块1获取到的监控视频帧进行移动对象入侵事件识别。入侵判别方法至少包括以下步骤中的一个或几个:识别模块2根据其与现场施工管控系统进行信息交互所获取到的位于真实目标区域中的施工相关时空信息来动态规划虚拟监控区域,以使得入侵判别模块3能够基于其对动态规划下的该虚拟监控区域的第一时空特性与进入该真实目标区域的移动对象的第二时空特性进行的相关性分析来判别移动对象入侵事件和/或警报事件。
根据一种优选实施方式,入侵判别方法中至少包括自定义标定模块5与移动对象检测模块6。入侵判别方法至少包括以下步骤中的一个或几个:
S1、从监控视频中获取初始帧;
S2、自定义标定模块5在视频帧获取模块1获取到的监控视频帧的基础上由用户自定义标定禁止移动对象进入的矩形区域A,并确定矩形区域A上至少一个顶点的顶点坐标信息,其包括(xAmin,yAmin)、(xAmin,yAmax)、(xAmax,yAmin)、(xAmax,yAmax);
S3、继续对监控视频进行提帧;
S4、移动对象检测模块6在标定出的禁止移动对象进入的矩形区域A的基础上进行移动对象检测,确定包括至少一个移动对象的检测框B,其包括(xBmin,yBmin)、(xBmin,yBmax)、(xBmax,yBmin)、(xBmax,yBmax),并标注得到移动对象为主动移动对象的概率;
S5、在识别模块2确定至少一个时空特性之间的相关性分析结果为有效入侵的情况下,由入侵判别模块3判断禁止移动对象进入的矩形区域A与包括至少一个移动对象的检测框B之间的交集情况是否满足至少一个判别条件。
根据一种优选实施方式,入侵判别方法至少包括以下步骤中的一个或几个:
S6、在入侵判别模块3判断得到矩形区域A与检测框B之间的交集情况满足至少一个判别条件且其持续时间超过设定的阈值t时,则输出警报事件W;
在入侵判别模块3判断得到矩形区域A与检测框B之间的交集情况不满足任何一个判别条件或其交集情况满足至少一个判别条件的持续时间小于设定的阈值t时,则获取下一监控视频帧中矩形区域A与检测框B之间的交集情况。
根据一种优选实施方式,在由移动对象检测模块6进行移动对象检测以确定包括至少一个移动对象的检测框B的S4步骤中,进行移动对象检测的方法为:
在keras环境下,使用基于YOLOv3算法的目标检测方法来确定包括至少一个移动对象的检测框B。
如图5所示,根据一种优选实施方式,人员入侵判别方法中基于YOLOv3算法的目标检测方法至少包括以下步骤中的一个或几个:
S4.1、将从视频中提取的帧作为YOLOv3算法的输入;
S4.2、将输入图像分割成S×S个网格,每个单元格负责检测中心点落在该格子内的目标;
S4.3、每个单元格预测B个bounding box,每个bounding box包含4个预测值:tx、ty、tw、th。并由此得到bounding box坐标、bounding box中包含物体的置信度和类别概率;
S4.4、设置置信度阈值,去掉置信度低的bounding box;
S4.5、对保留下来的bounding box进行NMS非极大值抑制,去掉重复的boundingbox,选取目标类别出现概率最高的bounding box作为最终检测框。
根据一种优选实施方式,步骤S5中判断矩形区域A与检测框B是否有交集,包含以下三种情况:
C1、检测框B的长边小于矩形框A的短边,如图1所示;
C2、检测框B的长边大于矩形框A的短边,但小于矩形框A的长边,如图2所示;
C3、检测框B的短边大于矩形框A的长边,如图3所示。
根据一种优选实施方式,上述情况C1还包括以下三种情况:
C1.1、仅检测框B的一个顶点在矩形区域A中;
C1.2、检测框B的两个顶点在矩形区域A中;
C1.3、检测框B的四个顶点均在矩形区域A中;
根据一种优选实施方式,上述情况C1.1的判断方法为:
e、xAmin≤xBmin<xBmax≤xAmax且yBmin<yAmin≤yBmax≤yAmax
f、xAmin≤xBmin<xBmax≤xAmax且yAmin≤yBmin≤yAmax<yBmax
h、yBmin<yAmin≤yBmax≤yAmax且yAmin≤yBmin<yBmax≤yAmax
i、xAmin≤xBmin≤xAmax≤xBmax且yAmin≤yBmin<yBmax≤yAmax
根据一种优选实施方式,上述情况C1.3的判断方法为:
g、xAmin≤xBmin<xBmax≤xAmax且yAmin≤yBmin<yBmax≤yAmax
根据一种优选实施方式,上述情况C2还包括以下情况:C2.1检测框B没有顶点在矩形区域A中。
根据一种优选实施方式,上述情况C2.1的判断方法为:
j、xBmin≤xAmin≤xBmax≤xAmax且yBmin≤yAmin≤yAmax≤yBmax
k、xAmin≤xBmin≤xAmax≤xBmax且yBmin≤yAmin<yAmax≤yBmax
l、xAmin≤xBmin<xBmax≤xAmax且yBmin≤yAmin<yAmax≤yBmax
根据一种优选实施方式,上述情况C3还包括以下三种情况:
C3.1、仅矩形区域A的一个顶点在检测框B中;
C3.2、矩形区域A的两个顶点在检测框B中;
C3.3、矩形区域A的四个顶点均在检测框B中。
根据一种优选实施方式,上述情况C3.1、C3.2的判断方法,同C1.1、C1.2的判断方法。
根据一种优选实施方式,上述情况C3.3的判断方法为:
m、xBmin≤xAmin<xAmax≤xBmax且yBmin≤yAmin<yAmax≤yBmax
根据一种优选实施方式,满足权利要求4的三种情况中的任一判断方法,即可认为发生人员入侵行为,入侵时间超过设定的阈值t,则输出报警信息W。
根据一种优选实施方式,方法还包括检测目标的类型:从视频中获取帧,对帧进行检测定位的同时,判断目标所属类别为人的概率。
根据一种优选实施方式,步骤S4中检测出的检测框B为检测目标的外部轮廓的外切矩形。
需要注意的是,上述具体实施例是示例性的,本领域技术人员可以在本发明公开内容的启发下想出各种解决方案,而这些解决方案也都属于本发明的公开范围并落入本发明的保护范围之内。本领域技术人员应该明白,本发明说明书及其附图均为说明性而并非构成对权利要求的限制。本发明的保护范围由权利要求及其等同物限定。
Claims (9)
1.基于目标检测的视频监控区域人员入侵判别装置,至少包括视频帧获取模块(1)、识别模块(2)和入侵判别模块(3),
所述视频帧获取模块(1),其被配置为从至少一个摄像机(4)中获取关于真实目标区域的至少一个监控视频帧,
所述识别模块(2),其被配置为通过预设的关于所述真实目标区域的虚拟监控区域对所述视频帧获取模块(1)获取到的监控视频帧进行移动对象入侵事件识别,
其特征是,
所述识别模块(2)还被配置为动态规划所述虚拟监控区域,以使得所述入侵判别模块(3)能够基于动态规划下的该虚拟监控区域与进入该真实目标区域的移动对象来判别移动对象入侵事件和/或警报事件;
现场施工管控系统通过其与至少一个施工设备相连接的方式获取至少包括施工设备的位置信息、施工范围信息、实时天气信息与施工设备运作信息的施工相关时空信息,以使得所述识别模块(2)能够基于该施工相关时空信息对由用户自定义标定的禁止移动对象进入的矩形区域(A)进行拓展性修正和/或将所述矩形区域(A)转换为用于判别移动对象是否有入侵倾向的套框区域A;
其中,套框区域A区别于矩形区域(A),套框区域A将原本的虚拟监控区域区分为两部分,一部分为内部矩形区域,一部分为围绕改动内部矩形区域的外部套框区域,区别于两部分区域分别设定不同隐患级别阈值和/或危险级别阈值。
2.根据权利要求1所述的人员入侵判别装置,其特征是,所述人员入侵判别装置至少包括自定义标定模块(5)与移动对象检测模块(6),
所述自定义标定模块(5),其被配置为在所述视频帧获取模块(1)获取到的监控视频帧的基础上由用户自定义标定禁止移动对象进入的矩形区域(A),并确定所述矩形区域(A)上至少一个顶点的顶点坐标信息,
所述移动对象检测模块(6),其被配置为在标定出的禁止移动对象进入的矩形区域(A)的基础上进行移动对象检测,确定包括至少一个移动对象的检测框(B),其中,
所述入侵判别模块(3)用于判断禁止移动对象进入的所述矩形区域(A)与包括至少一个移动对象的所述检测框(B)之间的交集情况是否满足至少一个判别条件。
3.根据权利要求1所述的人员入侵判别装置,其特征是,
所述人员入侵判别装置通过所述入侵判别模块(3)来确定未进入该真实目标区域的移动对象的预测隐患级别和/或已经进入该真实目标区域的移动对象的预测危险级别,并由所述入侵判别模块(3)分别输出与该隐患级别阈值相对应的摄像模式Q和/或与该危险级别阈值相对应的警报事件W。
4.根据权利要求3所述的人员入侵判别装置,其特征是,
所述入侵判别模块(3)通过关于环境的时间事件来描述在所述识别模块(2)的动态规划下的第一时空特性和/或通过关于移动对象的时间事件来描述进入该真实目标区域的移动对象的第二时空特性,其中,
所述入侵判别模块(3)是通过衡量由关于环境的时间事件与关于移动对象的时间事件所共同引起的隐患级别阈值和/或危险级别阈值的变化程度来进行相关性分析的。
5.基于目标检测的视频监控区域人员入侵判别方法,所述入侵判别方法中至少包括视频帧获取模块(1)、识别模块(2)和入侵判别模块(3),
所述视频帧获取模块(1),其被配置为从至少一个摄像机(4)中获取关于真实目标区域的至少一个监控视频帧,
所述识别模块(2),其被配置为通过预设的关于所述真实目标区域的虚拟监控区域对所述视频帧获取模块(1)获取到的监控视频帧进行移动对象入侵事件识别,
其特征是,所述入侵判别方法至少包括以下步骤中的一个或几个:
所述识别模块(2)对所述虚拟监控区域进行动态规划,以使得所述入侵判别模块(3)能够基于动态规划下的该虚拟监控区域与进入该真实目标区域的移动对象来判别移动对象入侵事件和/或警报事件;
通过其与至少一个施工设备相连接的方式获取至少包括施工设备的位置信息、施工范围信息、实时天气信息与施工设备运作信息的施工相关时空信息,以使得所述识别模块(2)能够基于该施工相关时空信息对由用户自定义标定的禁止移动对象进入的矩形区域(A)进行拓展性修正和/或将所述矩形区域(A)转换为用于判别移动对象是否有入侵倾向的套框区域A;
其中,套框区域A区别于矩形区域(A),套框区域A将原本的虚拟监控区域区分为两部分,一部分为内部矩形区域,一部分为围绕改动内部矩形区域的外部套框区域,区别于两部分区域分别设定不同隐患级别阈值和/或危险级别阈值。
6.根据前述权利要求5所述的人员入侵判别方法,其特征是,所述入侵判别方法中至少包括自定义标定模块(5)与移动对象检测模块(6),
其中,
所述入侵判别方法至少包括以下步骤中的一个或几个:
所述自定义标定模块(5)在所述视频帧获取模块(1)获取到的监控视频帧的基础上由用户自定义标定禁止移动对象进入的矩形区域(A),并确定所述矩形区域(A)上至少一个顶点的顶点坐标信息,其包括(xAmin,yAmin)、(xAmin,yAmax)、(xAmax,yAmin)、(xAmax,yAmax);
所述移动对象检测模块(6)在标定出的禁止移动对象进入的矩形区域(A)的基础上进行移动对象检测,确定包括至少一个移动对象的检测框(B),其包括(xBmin,yBmin)、(xBmin,yBmax)、(xBmax,yBmin)、(xBmax,yBmax),
所述入侵判别模块(3)用于判断禁止移动对象进入的所述矩形区域(A)与包括至少一个移动对象的所述检测框(B)之间的交集情况是否满足至少一个判别条件。
7.根据权利要求6所述的人员入侵判别方法,其特征是,所述入侵判别方法至少包括以下步骤中的一个或几个:
在所述入侵判别模块(3)判断得到所述矩形区域(A)与所述检测框(B)之间的交集情况满足至少一个判别条件且其持续时间超过设定的阈值t时,则输出警报事件W;
在所述入侵判别模块(3)判断得到所述矩形区域(A)与所述检测框(B)之间的交集情况不满足任何一个判别条件或其交集情况满足至少一个判别条件的持续时间小于设定的阈值t时,则获取下一监控视频帧中矩形区域(A)与检测框(B)之间的交集情况。
8.根据权利要求6所述的人员入侵判别方法,其特征是,
在由所述移动对象检测模块(6)进行移动对象检测以确定包括至少一个移动对象的检测框(B)的步骤中,进行移动对象检测的方法为:
在keras环境下,使用基于YOLOv3算法的目标检测方法来确定包括至少一个移动对象的检测框(B)。
9.根据权利要求8所述的人员入侵判别方法,其特征是,
所述人员入侵判别方法中基于YOLOv3算法的目标检测方法至少包括以下步骤中的一个或几个:
S4.1、将从视频中提取的帧作为YOLOv3算法的输入;
S4.2、将输入图像分割成S×S个网格,每个单元格负责检测中心点落在该单元格内的目标;
S4.3、每个单元格预测B个bounding box,每个bounding box包含4个预测值:tx、ty、tw、th,并由此得到bounding box坐标、bounding box中包含物体的置信度和类别概率,其中,tx和ty为预测的坐标偏移值,tw和th为尺度缩放值;
S4.4、设置置信度阈值,去掉置信度低的bounding box;
S4.5、对保留下来的bounding box进行NMS非极大值抑制,去掉重复的bounding box,选取目标类别出现概率最高的bounding box作为最终检测框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911364177.9A CN111144291B (zh) | 2019-12-25 | 2019-12-25 | 基于目标检测的视频监控区域人员入侵判别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911364177.9A CN111144291B (zh) | 2019-12-25 | 2019-12-25 | 基于目标检测的视频监控区域人员入侵判别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111144291A CN111144291A (zh) | 2020-05-12 |
CN111144291B true CN111144291B (zh) | 2023-06-09 |
Family
ID=70520309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911364177.9A Active CN111144291B (zh) | 2019-12-25 | 2019-12-25 | 基于目标检测的视频监控区域人员入侵判别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111144291B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112417946A (zh) * | 2020-09-17 | 2021-02-26 | 国网天津静海供电有限公司 | 电力施工现场指定区域的越界检测方法及系统 |
CN112287754A (zh) * | 2020-09-23 | 2021-01-29 | 济南浪潮高新科技投资发展有限公司 | 一种基于神经网络的暴力检测方法、装置、设备及介质 |
CN114619443B (zh) * | 2020-12-14 | 2023-07-21 | 苏州大学 | 机器人主动安全系统 |
CN112633157B (zh) * | 2020-12-22 | 2024-05-24 | 江苏智库智能科技有限公司 | 一种agv工作区域安全性的实时检测方法及系统 |
CN112669497A (zh) * | 2020-12-24 | 2021-04-16 | 南京熊猫电子股份有限公司 | 基于立体视觉技术的人行通道感知系统及方法 |
CN112800947A (zh) * | 2021-01-27 | 2021-05-14 | 上海电气集团股份有限公司 | 视频监控方法、系统、电子设备及存储介质 |
CN113792665B (zh) * | 2021-09-16 | 2023-08-08 | 山东大学 | 一种针对不同角色权限的违禁区域侵入检测方法 |
CN115186881B (zh) * | 2022-06-27 | 2023-08-01 | 红豆电信有限公司 | 一种基于大数据的城市安全预测管理方法及系统 |
CN115334327B (zh) * | 2022-07-12 | 2024-02-13 | 重庆甲智甲创科技有限公司 | 控制双视角视频存储的方法及电子设备 |
CN115935003B (zh) * | 2022-11-22 | 2023-09-19 | 国网山东省电力公司 | 一种基于大数据的信息收集方法与系统 |
CN117197757B (zh) * | 2023-11-07 | 2024-01-23 | 华雁智能科技(集团)股份有限公司 | 变电站禁区闯入监测方法、系统及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109257569A (zh) * | 2018-10-24 | 2019-01-22 | 广东佳鸿达科技股份有限公司 | 安防视频监控分析方法 |
CN109903503A (zh) * | 2019-04-16 | 2019-06-18 | 上海天诚比集科技有限公司 | 一种视频监控物体入侵检测区域的检测方法 |
CN110348304A (zh) * | 2019-06-06 | 2019-10-18 | 武汉理工大学 | 一种可搭载于无人机的海事遇险人员搜索系统以及目标识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2002361483A1 (en) * | 2002-02-06 | 2003-09-02 | Nice Systems Ltd. | System and method for video content analysis-based detection, surveillance and alarm management |
CN107818651A (zh) * | 2017-10-27 | 2018-03-20 | 华润电力技术研究院有限公司 | 一种基于视频监控的非法越界报警方法及装置 |
-
2019
- 2019-12-25 CN CN201911364177.9A patent/CN111144291B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109257569A (zh) * | 2018-10-24 | 2019-01-22 | 广东佳鸿达科技股份有限公司 | 安防视频监控分析方法 |
CN109903503A (zh) * | 2019-04-16 | 2019-06-18 | 上海天诚比集科技有限公司 | 一种视频监控物体入侵检测区域的检测方法 |
CN110348304A (zh) * | 2019-06-06 | 2019-10-18 | 武汉理工大学 | 一种可搭载于无人机的海事遇险人员搜索系统以及目标识别方法 |
Non-Patent Citations (1)
Title |
---|
李彦 ; .基于监控系统的入侵检测方法研究.福建电脑.(02),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111144291A (zh) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111144291B (zh) | 基于目标检测的视频监控区域人员入侵判别方法及装置 | |
CN107911653B (zh) | 驻所智能视频监控模组、系统、方法以及存储介质 | |
CN103108159B (zh) | 一种电力智能视频分析监控系统和方法 | |
EP3002741B1 (en) | Method and system for security system tampering detection | |
CN103384321B (zh) | Cctv和综合安全系统中的后事件/警报分析的系统和方法 | |
CN107645652A (zh) | 一种基于视频监控的非法越界报警系统 | |
US20050168574A1 (en) | Video-based passback event detection | |
CN106454250A (zh) | 智能识别及预警处理的信息平台 | |
JP2005506740A (ja) | ビデオトリップワイヤ | |
KR101036947B1 (ko) | 컴퓨터 영상 분석기술을 이용한 범죄 및 사고예방 자동경비 시스템 | |
CN106815958A (zh) | 报警系统、报警分析/显示装置,报警分析/显示方法 | |
KR20060031832A (ko) | 실시간 행위분석 및 상황인지 기반 스마트 영상 보안시스템 | |
CN114973140A (zh) | 基于机器视觉的危险区域人员闯入监测方法及系统 | |
CN113593161A (zh) | 一种周界入侵检测方法 | |
US8379086B2 (en) | Surveillance module for a video surveillance system, method for monitoring the state of a surveillance region, and computer program | |
KR20190035187A (ko) | 감시 지역 음성 경고 방송 시스템 | |
CN210222962U (zh) | 一种智能电子围栏系统 | |
CN211630273U (zh) | 用于铁路环境的图像智能识别装置 | |
CN116704411A (zh) | 一种基于物联网的安防管控方法、系统及存储介质 | |
KR102434154B1 (ko) | 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법 | |
CN112885013A (zh) | 监控预警方法、装置和可读存储介质 | |
CN111696291A (zh) | 一种视频联动监控系统、方法、设备和存储介质 | |
CN115019463B (zh) | 基于人工智能技术的水域监管系统 | |
CN207530963U (zh) | 一种基于视频监控的非法越界报警系统 | |
KR20130047131A (ko) | 이동형 단말기를 이용한 영상감시 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |