CN108052859A - 一种基于聚类光流特征的异常行为检测方法、系统及装置 - Google Patents

一种基于聚类光流特征的异常行为检测方法、系统及装置 Download PDF

Info

Publication number
CN108052859A
CN108052859A CN201711055938.3A CN201711055938A CN108052859A CN 108052859 A CN108052859 A CN 108052859A CN 201711055938 A CN201711055938 A CN 201711055938A CN 108052859 A CN108052859 A CN 108052859A
Authority
CN
China
Prior art keywords
target
cluster
light stream
detection
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711055938.3A
Other languages
English (en)
Other versions
CN108052859B (zh
Inventor
谢维信
王鑫
高志坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201711055938.3A priority Critical patent/CN108052859B/zh
Publication of CN108052859A publication Critical patent/CN108052859A/zh
Application granted granted Critical
Publication of CN108052859B publication Critical patent/CN108052859B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于聚类光流特征的异常行为检测方法,该方法包括:利用深度学习目标检测方法获取目标的位置区域;获取相邻至少两帧图像中的目标区域的光流信息;为提取的目标区域光流信息建立一个时空模型;获取各检测目标所对应的时空模型的平均信息熵;对时空模型中的光流点进行聚类得到聚类光流点以及聚类点的平均动能;根据聚类点平均动能以及信息熵与预先训练的正常模型的偏差判定目标是否出现诸如打架、奔跑等异常行为。通过上述方式,本发明可以准确、快速的实现异常视频帧以及异常目标的检测。本发明还提供了一种异常行为检测系统以及装置,可应用于智能视频分析领域,且具有较好的实际价值。

Description

一种基于聚类光流特征的异常行为检测方法、系统及装置
技术领域
本发明涉及计算机视觉领域,特别是涉及一种基于聚类光流特征的异常行为检测方法、系统及装置。
背景技术
随着智能监控技术的发展,计算机视觉领域中对于异常行为的分析尤为重要。现有技术中,多采用光流法对异常行为进行分析。一般而言,常用的光流法主要有Horn-Schunck(HS)光流和Lucas-Kanade(LK)光流。HS光流对一帧图像所有像素点的光流矢量进行计算,因此该算法的时间开销也较大,实时性较差;现有的LK光流法是基于局部约束进行的,其可以解决稀疏光流的计算(即指定像素点集合的光流计算),提高算法的实时性,但是该方法需要满足三个约束条件,分别为亮度恒定、时间连贯、空间一致,因此该方法的局限是无法对大幅度运动的像素点进行光流跟踪。所以,为实现在智慧城市安防中的异常行为的检测,需要一种实时性好、适应性强的方法及系统。
发明内容
本发明主要解决的技术问题是,提供一种基于聚类光流特征的异常行为检测方法,能够解决计算量大,实时性差、适应性差等技术问题。
为解决上述技术问题,本发明采用的技术方案是提供一种基于聚类光流特征的异常行为检测方法,包括以下步骤:
对一个或多个目标的检测框进行光流检测;
提取至少连续两帧图像中所述检测框对应的特征点的光流运动信息,计算所述检测框所在区域的信息熵;
根据所述光流运动信息和所述信息熵建立聚类点;
计算所述聚类点的动能或所述目标检测框所在区域的动能;
根据所述聚类点的动能和/或所述信息熵判断异常行为。
为解决上述技术问题,本发明采用的另一个技术方案是,提供一种具有存储功能的装置,存储有程序数据,所述程序数据被执行时实现如上述的异常行为检测的方法。
为解决上述技术问题,本发明采用的另一个技术方案是,提供一种异常行为检测系统,包括:处理器和存储器,所述处理器耦合所述存储器,所述处理器在工作时执行指令以实现上述的异常行为检测的方法,并将所述执行指令产生的处理结果保存在所述存储器中。
以上技术方案的有益效果是:区别于现有技术的情况,本发明通过对一个或多个目标的检测框进行光流检测,提取至少连续两帧图像中检测框对应的特征点的光流运动信息,计算检测框所在区域的信息熵,根据光流运动信息和信息熵建立聚类点,计算聚类点的动能或目标检测框所在区域的动能,根据聚类点的动能和/或信息熵判断异常行为。本方法通过对一个或多个目标的检测框进行光流检测,提取至少连续两帧图像中检测框对应的特征点的光流运动信息,依据动能和信息熵来判断目标的异常行为,可以减少判断异常行为的计算量,解决计算量大、实时性差等问题。
附图说明
图1是本发明一种基于聚类光流特征的异常行为检测方法的一实施方式的流程示意图;
图2是本发明一种基于聚类光流特征的异常行为检测方法的另一实施例的流程示意图;
图3是本发明一种基于聚类光流特征的异常行为检测方法的又一实施例的流程示意图;
图4是本发明一种基于聚类光流特征的异常行为检测方法的又一实施例的流程示意图;
图5是本发明一种基于聚类光流特征的异常行为检测方法的再一实施例的流程示意图;
图6是本发明一种基于聚类光流特征的异常行为检测方法的又一实施例的流程示意图;
图7是本发明一种基于聚类光流特征的异常行为检测方法的又一实施例的流程示意图;
图8是图7提供的实施例中步骤S243的一实施例的流程示意图;
图9是本发明一种基于聚类光流特征的异常行为检测方法的一实施例中的运动时空容器的示意图;
图10是本发明一种具有存储功能的装置的一实施例的示意图;
图11是本发明一种异常行为检测系统的的一实施例的结构示意图。
具体实施方式
在下文中,将参照附图来描述本申请的示例性实施例。为了清楚和简要的目的,不详细描述公知的功能和构造。考虑到本申请中的功能而限定的下面描述的术语可以根据用户和操作者的意图或实施而不同。因此,应该在整个说明书的公开的基础上来限定所述术语。
请参阅图1,为本发明基于视频结构化数据及深度学习的视频监控方法的方法的第一实施方式的流程示意图。该方法包括:
S10:读取视频。
可选地,读取视频包括读取摄像头采集的实时视频和/或预先录制保存的视频的数据。其中,采集实时视频的摄像头,可以是USB摄像头和基于rtsp协议流的网络摄像头其中的一种,或者其他种类的摄像头。
在一实施例,读取的视频是USB摄像头或者是基于rtsp协议流的网络摄像头实时拍摄采集的视频。
在另一实施例中,读取的视频是预先录制保存的视频,通过从本地存储器或者是如U盘、硬盘等外部存储设备输入读取的,也可以是从网络上调取的视频,在此不一一详述。
S20:对视频进行结构化处理,得到结构化数据。
可选地,对视频进行结构化处理,得到结构化数据具体是指,将步骤S10中读取的非结构化的视频数据转化成结构化的数据,具体的,结构化数据是指对于后续分析比较重要的数据。可选地,结构化数据包括目标的位置、目标类别、目标属性、目标运动状态、目标运动轨迹、目标驻留时间中等最基本信息中的至少一个信息,其中,可以理解的是,结构化数据也可以包括用户(使用本发明的中所述的方法或系统的人)需要的其他类别的信息,其他可以通过所获取的结构化数据等相关信息进行挖掘得到或计算得到的数据。结构化信息的具体包括哪些信息,根据不同需求而定。关于如何将结构化数据处理,以得到结构化数据,下文会做详细的阐述。
S30:将结构化数据上传至云端服务器,并对结构化数据进行深入分析,以得到预设结果。
可选地,在步骤S20将视频结构化处理之后,将所得到的结构化的数据上传至云端服务器,存储到云端服务器的存储区。
在一实施例中,将视频结构化处理的所得到的数据,直接保存到云端服务器的存储区,用以留存档案,也用作完善本系统的数据库。
可选地,在步骤S20将视频处理之后,将得到的结构化数据上传至云端服务器,云端服务器对这些结构化数据进行进一步的深入分析。
可选地,云端服务器对从各个监控节点上传的结构化的数据进行的进一步的深入分析,其中,深入分析包括目标轨迹分析和目标流量分析或其他所需的分析,目标包括人、车以及动物等其中的至少一种。
在一实施例中,云端服务器对对从各个监控节点上传的结构化的数据进行的进一步的深入分析是轨迹分析,根据上传的目标的轨迹的规律、在该场景驻留时间来进一步判定该目标是否可疑,该目标是否是长时间滞留在某一区域,是否发生区域入侵等异常行为。
在另一实施例中,云端服务器对对从各个监控节点上传的结构化的数据进行的进一步的深入分析是目标流量分析,根据各个监控点上传的结构化的数据,对出现在某一监控点的目标进行统计,并通过统计得到该监控节点各个时间段内目标的流量。其中的目标可以是行人和车辆,同时可以得到目标流量的高峰期或者是低峰时期。通过计算目标流量相关数据,用来合理的提示行人和司机的,避开交通高峰期,也可以为公共资源如照明提供参考依据。
本方法通过将视频结构化处理得到对深入分析起到关键性的结构化数据,然后仅将结构化数据上传至云端,而不是将整个视频传输至云端,解决了网络传输压力大、数据流量成本高的问题。
在一实施例中,根据预先的设定,当各个监控节点将经过视频处理系统处理所得结构化数据上传至云端服务器时,云端服务器在保存结构化数据之后,对结构化数据进行深入分析。
在另一实施例中,当各个监控节点将经过视频处理系统处理所得的结构化数据上传至云端服务器时,云端服务器在保存结构化数据之后需要用户选择是否进行深入分析。
在又一实施例中,当用户有需要时,可以将已经在最初上传的时候已经完成一次深入分析的结构化数据,再次重新进行设定的深入分析。
可选地,对各个监控节点上传的结构化数据进行的深入分析进一步包括:对结构化数据进行统计、分析以得到一个或多个目标的行为类型以及异常行为,并对异常行为进行报警等,或者其他用户需要的分析处理的内容。
关于如何将视频结构化数据处理,以得到结构化数据,以下详细阐述,即本申请还提供一种基于目标行为属性的视频结构化处理的方法。在一实施例中,视频结构化数据处理是利用嵌入了深度学习的目标检测识别算法、多目标跟踪算法、基于运动光流特征的异常行为识别等算法的智能分析模块,将步骤S10中读取的非结构化的视频数据转化成结构化的数据。
参见图2,为本申请提供的一种视频处理方法一实施例的流程示意图,该方法同时也是以上实施例的步骤S20包括步骤S22至步骤S23。
S22:对单帧图片进行目标检测识别。
可选地,步骤S22是对单帧图片中所有目标进行目标检测识别。其中,目标检测识别对象的包括行人检测识别、车辆检测识别和动物检测识别等。
可选地,步骤S22对单帧图片进行目标检测识别包括:提取单帧图片中目标的特征信息。提取单帧图片中所有目标的特征信息、目标的类别和目标的位置信息等,其中目标可以是行人、车辆和动物等。
在一实施例中,当单帧图片中只包含行人时,目标检测识别是对行人的检测识别,即提取图片中所有行人的特征信息。
在另一实施例中,当单帧图片中包含行人、车辆等多种类的目标时,目标检测识别是对行人、车辆等多种种类进行检测识别,即提取单帧图片中行人、车辆等的特征信息,可以理解的,目标识别的种类可以由用户的特定指定。
可选地,步骤S22对单帧图片进行目标检测识别所采用的算法是优化后的基于深度学习的目标检测算法。具体的,可以采用YOLOV2深度学习目标检测框架进行目标检测识别,该算法的核心是利用整张图像作为作为网络输入,直接在输出层回归bounding box的位置和bounding box所属的类别。
可选地,目标检测的是由模型训练和模型测试两部分构成。
在一实施例中,在模型训练的方面,采用的取50%的来自VOC数据集和COCO数据集的行人图像或者车辆图像,剩下的50%的数据取自真实的街道、室内通道、广场等监控数据。可以理解的是,模型训练的中的所采用的公共数据集上(VOC数据集和COCO数据集)数据与真实的监控数据集中的数据的比例可以根据需要进行调整的,其中当公共数据集中的数据所取的比例越高,相对来说,所得数据模型在真是监控场景下的精度就会相对略差,反之,当真实的监控数据集中所取的比例越高,精度会相对来说有提高。
可选地,在一实施例中,当步骤S22在单帧图片中检测到目标后,将该行人目标放入到跟踪队列中(下文也称跟踪链)中,然后还会采用目标跟踪算法对目标进行预设的跟踪与分析。
可选地,上述提取单帧图片中目标的特征信息的步骤之前进一步包括:构建元数据结构。可选地,目标的特征信息是根据元数据结构进行提取,即根据元数据结构提取单帧图片中的目标的特征信息。在一实施例中,元数据结构包括行人的基本属性单元,如:摄像头地址、目标进出摄像头的时间、目标在当前监控节点的轨迹信息、目标穿着的颜色或者目标的截图中的至少一种。例如,行人的元数据结构可以参见下表1所示,其中元数据结构还可以包括其他用户所需的但表中未包含的信息。
可选地,在一实施例中,为了节省网络传输的资源,元数据结构中只包含一些基本的属性信息,其他属性可以通过目标轨迹等相关信息进行挖掘计算即可得到。
表1行人的元数据结构
属性名称 类型 描述
摄像头ID short 摄像头节点编号
目标出现时间 long 目标进入监控节点时间
目标离开时间 long 目标离开监控节点时间
目标运动轨迹 point 目标在当前节点运动轨迹
目标ID short 目标ID识别编号
目标上衣颜色 short 预先定义10种颜色
目标裤子颜色 short 预先定义5中颜色
目标整体截图 image 记录目标整体截图
目标头肩截图 image 记录目标头部截图
在另一实施例中,元数据结构还可以包括车辆的基本属性信息,如:摄像头地址、目标进出摄像头的时间、目标在当前监控节点的轨迹信息、目标的外观颜色、目标的车牌号或者是目标的截图中的至少一种。
可以理解的是,元数据结构具体包含的信息和元数据的数据类型的定义是根据需要进行初始设定,也可以是在初始设定之后根据用户的需要在已设定的众多信息中特别指定需要获取的特定属性信息。
在一实施例中,元数据的结构初始设定的是摄像头地址、目标进出摄像头的时间、目标在当前监控节点的轨迹信息、目标穿着的颜色或者目标的截图等类别,在进行目标识别时,用户可以根据自己的需要特别指定获取目标进出摄像头的时间。
在一实施例中,当单帧图片中的目标是行人时,根据预先设定的行人的元数据的结构进行提取行人的特征信息,即提取行人进出摄像头的时间、行人所处当前摄像头地址、行人进出摄像头的时间、行人在当前监控节点的轨迹信息、行人穿着的颜色或者行人当前的截图中的至少一种,也可以是根据用户的特别指定的其他的目标属性信息,如行人进出摄像头的时间和行人的穿着颜色等。
可选地,当从单帧图片中检测识别到目标,在获取目标的特征信息的同时,从原始的视频帧中截取出目标的图像,然后利用基于yolov2(yolov2是Joseph Redmon在2016年提出的一种基于深度学习的目标检测识别的方法)的框架进行模型训练。
在一实施例中,当对单帧图片进行目标检测时,所检测到的目标是行人,则从原始的视频帧中截取出检测的行人的图像,然后利用基于yolov2的框架训练好头肩、上半身、下半身检测模型将行人进行部位切分,判断其上下半身部位的衣着颜色信息,并且截取出行人的头肩图片。
在另一实施例中,当对单帧图片进行目标检测时,所检测到的目标是车辆,则从原始的视频帧中截取出检测的车辆的图像,然后利用基于yolov2的框架训练好车辆的检测模型对车辆进行检测识别,判断其车身外观颜色、识别车牌信息,并且截取出车辆的图片。可以理解的是,因为识别的目标种类可以由用户设定选择,所以对车辆的检测识别由管理者决定是否进行。
在又一实施例中,当对单帧图片进行目标检测时检测到的目标是动物,则从原始的视频帧中截取出检测的动物的图像,然后利用基于yolov2的框架训练好动物的检测模型对动物进行检测识别,判断其外观颜色、品种等信息,并且截取出动物的图片。可以理解的是,因为识别的目标种类可以由用户设定选择,所以对动物的检测识别由用户决定是否进行。
可选地,每次目标检测识别的单帧图片可以是一张,也可以是多张单帧图片同时进行。
在一实施例中,每次进行目标检测识别的单帧图片是一张,即每次只对一张单帧图片中的目标进行目标检测识别。
在另一实施例中,每次可以对多张图片进行目标检测识别,即每次同时对多张单帧图片中的目标进行目标检测识别。
可选地,对基于yolov2的框架所进行模型训练后对检测到的目标进行ID(IDentity)标号,以方便在后续跟踪时进行关联。其中,不同的目标的类别的ID号可以预先设定,且ID号的上限是由用户设定。
可选地,对检测识别到的目标自动进行ID标号,也可以是人为进行ID标号。
在一实施例中,对检测识别到的目标进行标号,其中,根据检测目标的类别的而定,标记的ID号会有差距,例如行人的ID号可以设定为:数字+数字,车辆:大写字母+数字,动物:小写的字母+数字,方便在后续跟踪时进行关联。其中的设定的规则可以根据用户的习惯和喜好设定,在此不一一赘述。
在另一实施例中,对检测识别到的目标进行标号,其中,根据检测到的目标的类别的而定,对目标所标记的ID号所属于的区间不同。例如,将所检测的行人目标的ID标号设定在区间1到1000000,将所检测到的车辆目标的ID标号设定在区间1000001到2000000。具体的,可以根据初始设定人员设定而定,也可以根据需要进行调整和改变的。
可选地,对检测的目标进行ID标号,可以是由预先设定由系统自动完成,也可以是由用户进行手动ID标号。
在一实施例中,当在单帧图片中检测识别到行人或者是车辆的目标时,系统会自动将所检测到的目标,根据检测的目标的类别,并接着之前已经标号的ID号自动进行ID标号。
在另一实施例中,用户手动对图片中的目标进行ID标号。可以是对没有经过系统自动ID标号的单帧图片目标进行ID标号,也可以是遗漏的目标或者是其他在预先设定的检测目标类别之外的目标,可以由用户自主进行ID标号。
可选地,在步骤S22对单帧图片进行目标检测识别之前还包括:
S21:将视频切分成单帧图片。
可选地,步骤S21将视频切分成单帧图片是将步骤S10中读取的视频切分成单帧图片,为步骤S22做准备。
可选地,在一实施例中,将视频切分成单帧图片的步骤是将步骤S10中读取的视频等间距跳帧或不等间距跳帧的切分。
在一实施例中,将视频切分成单帧图片的步骤是将步骤S10中读取的视频等间距的跳帧的切分,所跳过的帧数是相同的,即等间距的跳过相同的帧数进行切分成单帧图片,其中所跳过的帧数是不包含重要信息的帧数,即可以忽略的帧数。例如,等间距的中间跳过1帧,进行视频切分,即取第t帧,第t+2帧,第t+4帧,所跳过的帧数是第t+1帧,第t+3帧,上述所跳过的帧数是经过判断不包含的重要信息的帧数,或者是上述所跳过的帧数的是与所取的帧数重合的帧数或者是重合度很高的帧数。
在另一实施例中,将视频切分成单帧图片的步骤是将步骤S10中读取的视频不等间距的跳帧的切分,即所跳过的帧数可以是不相同的,不等间距的跳过不同的帧数进行切分成单帧图片,其中所跳过的帧数是不包含重要信息的帧数,即是可以忽略的帧数,其中不包含重要信息的帧数是经过判定,且判定结果确实是不重要的帧数。例如,不等间距的跳帧切分,即取第t帧,然后跳过2帧取t+3帧,再跳过1帧取t+5帧,再跳过3帧取t+9帧,其中,所跳过的帧数分别有t+1帧、t+2帧、t+4帧、t+6帧、t+7帧、t+8帧等帧数,上述跳过的帧数是经过判断没有包含此次分析所需的信息的帧数。
在不同的实施例中,将视频切分成单帧图片的步骤可以是由系统自动将读取的视频切分成单帧图片,也可以是由用户选择是否将视频切分成单帧图片,还可以是用户手动输入已经预先完成切分的单帧图片。
可选地,在一实施例中,将视频切分成单帧图片的步骤完成后,即完成对读入的视频切分成单帧图片时,自动对切分得到的单帧图片执行步骤S22,即对切分所得单帧图片进行目标检测识别,也可以是由用户选择决定是否要将切分所得的单帧图片进行步骤S22所述的目标检测识别。
可选地,在对目标进行检测识别的过程中,会对各个目标的检测识别的值按照一定的规律进行的统计计算。
在一实施例中,在步骤S22后,对检测到某一目标在当前监控节点中合计帧数(共计出现的帧数),其中检测值为A的帧数、检测值为B的帧数等等的统计(检测值可以有多种或一种,以检测结果为准),并保存统计的结果,以备调用。
可选地,校正的方法主要分为轨迹校正和目标属性校正。
可选地,经过对目标检测得到各个目标的结构化数据后,对所得结构化数据进行校正。即是对结构化数据中的误检数据的进行校正,校正是按照权重比进行投票,最终多数的概率的数据值为准确值,少数结果的数据值为误检值。
在一实施例中,经统计计算后(调用上述统计结果),发现步骤S22中检测识别到某一目标的在当前监控节点出现的帧数为200帧,其中有180帧检测出该目标的上衣颜色为红色,20帧中检测出该目标的上衣颜色为黑色,按照权重比进行投票,最终校正该目标的准确值上衣颜色为红色,并将结构化数据中对应的值修改为红色,最终完成校正。
可选地,轨迹校正具体如下:假设一个目标在某一监控场景下出现时长为T帧,故可得到其轨迹点集合为G={p1,p2,……,pN},计算轨迹点在X轴和Y轴的均值以及偏差,然后剔除异常以及噪声轨迹点,具体表达式为:
在一实施例中,轨迹校正中剔除偏差或者均值很小的轨迹点,减少噪声点干扰。
可选地,目标属性校正具体如下:目标属性校正是基于加权判定法校正同一个目标的属性值。假设某一个目标的上衣颜色标签为label={“红色”,“黑色”,“白色”,……},即某一个属性值有T个分类。先将其转换为数字编码L=[m1,m2,m3,……,mT];然后求出频率最高的编码值x以及其频次F,最后直接输出目标的属性值Y(准确值)。具体表达式如下:
F=T-||M-mx||0
Y=label[mx]
上式需要满足,
可选地,在一实施例中,本发明结合YOLO目标检测框架进行目标识别与定位,并使用GoogLeNet网络提取出每一个目标的特征向量,以便后续目标匹配。GoogLeNet是2014年Google公司提出的一个22层深的CNN神经网络,其广泛运用于图像分类、识别等领域。由于深层次深度学习网络提取的特征向量具有较好的鲁棒性、可区分性,所以上述步骤可以较好的提高后续对于目标的跟踪的准确性。
S23:对目标进行跟踪,以得到跟踪结果。
可选地,对检测到的目标进行跟踪,以得到跟踪结果的步骤中,所跟踪的目标是步骤S22检测到的目标或用户特别指定的其他目标,步骤S23进一步包括:对目标进行跟踪,记录目标进入或者离开该监控节点的时间,以及目标经过的各个位置,以得到目标的运动轨迹。具体如何对目标进行跟踪,以得到跟踪结果,本申请基于此提供了一种基于KCF与Kalman的改进型多目标跟踪方法,下文将做详细阐述。
另一实施例中,本申请提供的视频处理方法在以上实施例包括步骤S21、S22和S23的基础之上进一步包括步骤S24,或者该实施例仅包括步骤S21、S22和S24,参见图4和图5。步骤S24如下:
S24:对目标进行异常行为检测。
可选地,步骤S24是对上述步骤S21中检测识别出的目标进行异常行为检测的操作。
可选地,异常行为检测包括行人异常行为检测和车辆异常行为检测,其中行人的异常行为包括:奔跑、打架和骚乱,交通异常行为包括:撞击和超速等。
通过以上方法将视频处理,以得到重要数据,进而能够避免数据量过大,大大减轻网络传输的压力。
在一实施例中,当对步骤S21中检测到的行人目标进行异常行为检测时,判定一监控节点中大于等于预设数量的人发生奔跑时,可以判定发生人群骚乱。如:可以设定当步骤S24判定10人发生奔跑异常时,可以判定发生人群骚乱,其他实施例中,判定骚乱的人数阈值根据具体情况而定。
在另一实施例中,可以设定当步骤S24判定2辆车发生撞击异常时,可以以此判定发生交通事故,当步骤S24判定超过3辆车发生撞击异常行为时,可以判定发生重大车祸。可以理解的,判定的关于车的数量是可以的根据需要设定调整的。
在又一实施例中,当步骤S24中检测出车辆的速度超过预设的速度值时,既可以判定该车辆为超速车辆,即可将该车辆的对应的视频进行截图保存,识别的车辆的信息。其中车辆的信息包括车牌号。
可选地,一实施例中,当步骤S24检测出异常行为时,监控节点会进行声光报警处理。
在一实施例中,声光报警的内容包括播报语音提示内容:如“请大家不要拥挤,注意安全!”或其他预先设定的语音提示内容;声光报警的内容还包括:打开对应监控节点的警示灯,用以提醒过往人群和车辆,注意安全。
可选地,根据发生异常行为的人数的多少进行设定异常行为恶劣的等级,不同的恶劣等级对应不同的应急处理措施。异常行为的恶劣等级可以划分为黄色、橙色和红色。黄色等级的异常行为对应的应急措施是进行声光报警,橙色等级的异常行为对应的应急措施是进行声光报警的同时连线监控负责点的安保人员,红色预警的异常行为措施是进行声光报警、连线监控负责点的安保人员同时会及时线上报警。
在一实施例中,当发生异常行为的人数是3人或3人以下时,设定为黄色等级的人群异常行为;当发生异常行为的人数大于3人超过小于等于5人时橙色等级的人群异常行为;当发生异常行为的人数超过5人时设定为红色等级的人群异常行为。其中,具体的设定人数可以根据实际的需要进行调整,在此不一一赘述。
可选地,一实施例中,对目标进行异常行为检测的步骤之后还包括以下步骤:若检测出异常行为,则将当前视频帧图像截图保存并和所检测到发生异常行为的目标的特征信息打包发送至云端服务器。
可选地,对发生异常行为的目标的所对应的特征信息可以包括:摄像头ID,异常事件类型、异常行为发生事件、异常行为截图等等信息,也可以包括所需要的其他类型的信息。其中发送至云端服务器的异常行为的元数据结构所包含的信息包括下表2中的结构,也可以包括包括其他的类别的信息。
表2异常行为的元数据结构
属性名称 数据类型 描述
摄像头ID short 摄像头唯一ID标识
异常事件类型 short 预先定义两种异常行为
异常发生时间 long 异常情况发生时间
异常情况截图 image 记录异常行为截图
在一实施例中,对目标进行异常行为检测时,检测出有行人发生打架的异常行为,则将对应的当前视频帧图像截图保存,并将截图及发生异常行为的目标所对应的结构化数据一起打包发送至云端服务器。在将所检测到的异常行为的截图发送至云端服务器的同时,这一监控节点进行声光报警处理,并根据异常行为的等级启动对应的应急措施。
在另一实施例中,在对目标进行异常行为检测时,检测出发生人群骚乱时,将当前视频帧图像截图保存并发送至云端服务器,以备云端服务器进行进一步的处理,同时监控节点进行声光报警,并根据异常行为的等级启动对应的应急措施。
具体的,一实施例中,对目标进行异常行为检测的步骤包括:提取一个或多个目标的多个特征点的光流运动信息,并根据光流运动信息进行聚类以及异常行为检测。基于此,本申请还提供一种基于聚类光流特征的异常行为检测方法,下文将做详细阐述。
参见图6,为本申请还提供的一种基于KCF与Kalman的改进型多目标跟踪方法一实施例的流程示意图,该方法同时也是以上实施例中的步骤S23,具体包括步骤S231至步骤S234。具体包括以下步骤:
S231:结合跟踪链以及上一帧图片中第一多个目标对应的检测框预测第一多个目标中各个目标在当前帧的跟踪框。
可选地,跟踪链是根据对当前帧图片之前的所有从视频中切分所得的单帧图片或部分连续单帧图片中的多个目标跟踪计算所得的,汇集之前所有图片中的多个目标的轨迹信息和经验值。
在一实施例中,跟踪链是根据对当前帧图片之前的所有帧图片的目标跟踪计算所得,包含当前帧图片之前的所有帧图片中的所有目标的所有的信息。
在另一实施例中,跟踪链是根据对当前帧图片之前的部分连续的图片的目标跟踪计算所得。其中跟踪计算的连续的图片数越多,预算的准确率就越高。
可选地,结合跟踪链中的目标的特征信息,以及根据上一帧图片中第一多个目标对应的检测框,预测所跟踪的第一多个目标在当前帧图片中的跟踪框,例如预测第一多个目标在当前帧中可能出现的位置。
在一实施例中,上述步骤可以预测第一多个目标在当前帧中的跟踪框的位置,即得到第一多个目标的预测值。
在另一实施例中,上述步骤可以预测第一多个目标在当前帧的下一帧中的跟踪框的位置。其中,所预测的第一多个目标在当前帧的下一帧的跟踪框的位置相比于,所预测的第一多个目标在当前帧中的跟踪框的位置的误差要略大。
可选地,第一多个目标是指上一帧图片中的所有检测到的目标。
S232:获取上一帧图片中的第一多个目标在当前帧中对应的跟踪框,以及当前帧图片中第二多个目标的检测框。
具体的,第二多个目标是指当前帧图片中的所检测到的所有目标。
可选地,获取上一帧图片中的第一多个目标在当前帧中对应的跟踪框,以及当前帧图片中第二多个目标的检测框。其中跟踪框是在预测第一多个目标在当前帧中将会出现的位置时的矩形框,或者其他形状的框,框中包括一个或多个目标。
可选地,获取上一帧图片中的第一多个目标在当前帧中对应的跟踪框,以及当前帧图片中第二多个目标的检测框时,所获取的跟踪框和检测框包含跟踪框和检测框分别对应的目标的特征信息。例如目标的位置信息、颜色特征和纹理特征等。可选地,对应的特征信息可以由用户根据需要进行设定。
S233:建立第一多个目标在当前帧中的跟踪框和当前帧中第二多个目标的检测框的目标关联矩阵。
可选地,根据步骤S232中获取的上一帧图片中的第一多个目标在当前帧中的对应的跟踪框与当前帧图片中所检测到的第二多个目标对应的检测框,建立目标关联矩阵。
在一实施例中,例如上一帧图片中第一多个目标数量为N,当前帧检测到的目标数量为M,则建立一个大小M×N的目标关联矩阵W,其中:
Aij(0<i≤M;0<j≤N)的值是由dist(i,j)、IOU(i,j)、m(i,j)决定,具体来说,可表示以下公式:
其中,IW、Ih为图像帧的宽度和高度;dist(i,j)为上一帧中得到的跟踪链中第j个目标所预测的下一帧跟踪框与当前帧中检测识别得到的第i个目标的检测框的质心距离,d(i,j)为采用图像帧对角线1/2距离进行归一化后的质心距离,m(i,j)为两个目标特征向量的欧式距离,为基于GoogLeNet网络所提取的特征向量,该特征向量采用CNN框架的模型进行特征提取相比传统的手工特征提取更加具有鲁棒性和可区分性。其中,归一化的目的主要是为了保证d(i,j)与IOU(i,j)对A(i,j)的影响是一致的。IOU(i,j)表示上一帧的跟踪链中第j个目标预测的在当前帧中跟踪框与当前帧中检测识别得到的第j个目标的检测框的重叠率,即上述跟踪框与检测框的交集比上其并集。IOU具体表达式为:
可选地,IOU(i,j)其取值范围为0≤IOU(i,j)≤1,该值越大,表明上述跟踪框与检测框重叠率越大。
在一实施例中,当目标静止的时候,同一目标在前后两帧所检测出的质心位置应该是在同一个点或者偏差很小,因此IOU的值应该近似为1,d(i,j)也应该趋于0,故Aij的值较小,且当目标匹配时,m(i,j)的取值较小,因此在进行匹配的时候跟踪链中ID=j的目标与检测链ID=i的检测目标匹配成功的可能性就越大;若前后两帧同一个目标检测框的位置相差很远,没有重叠,则IOU应该为0,m(i,j)取值较大,故d(i,j)的值就越大,因此跟踪链中ID=j的目标与检测链ID=i的检测目标匹配成功的可能性就越小。
可选地,目标关联矩阵的建立参照质心距离、IOU、以及目标的特征向量欧式距离外,同时还可以参照目标的其他特征信息,如:颜色特征,纹理特征等。可以理解的是,当参照的指标越多时,那么准确率看就越高,但是实时性会相应的因计算量的增加而变略有下降。
可选地,在一实施例中,当需要保证较好的实时性时,多数情况下只参照所取的两帧图像中目标的位置信息建立目标关联矩阵。
在一实施例中,参照目标的位置信息和目标的穿着颜色(也可以是目标的外观颜色)建立第一多个目标对应的跟踪框和第二多个目标对应的当前帧的检测框的目标关联矩阵。
S234:利用目标匹配算法进行校正,以得到当前帧第一部分目标对应的实际位置。
可选地,利用目标匹配算法,根据实际检测到的目标的观测值和步骤S231中对目标检测框所对应的预测值,对目标值进行校正,以得到当前帧中第一多个目标的实际位置,也即是上一帧中的第一多个目标中同时出现在当前帧的第二多个目标的目标在当前帧中的实际位置。可以理解的,因当前帧中的第二多个目标的观测值会因为切分图片的清晰度等因素会有一定的误差,所以采用结合了跟踪链及上一帧中第一多个目标在上一帧图片中的检测框,所预测的第一多个目标在当前帧中的位置进行校正第二多个目标的实际位置。
可选地,目标匹配算法是匈牙利算法(Hungarian),观测值是步骤S22中对目标检测识别时获得目标的特征信息,包括目标的类别和目标的位置信息等,目标的预测值是步骤S231中结合跟踪链及目标在上一帧中的位置所预测的目标在当前帧中的位置值及其他特征信息。其中,以目标的位置信息为主要判断依据,其他特征信息为次要判断依据。
可选地,一实施例中,将第二多个目标中的检测框,与第一多个目标在当前帧中的跟踪框匹配成功的目标定义为第一部分目标,同时第一多个目标中在当前帧的跟踪框与第二多个目标在当前帧的检测框匹配成功的也定义为第一部分目标,即匹配成功的每组跟踪框与检测框均来自同一个目标。其中,可以理解的是,第二多个目标中的检测框,与第一多个目标在当前帧中的跟踪框匹配成功是指:位置信息及其他的特征信息一一对应,或者对应的项数比较多,即对应的项数概率比较高即为匹配成功。
在另一实施例中,第一部分目标的数量小于第一多个目标,即为第一多个目标在当前帧中的跟踪框只有部分可以与第二多个目标的检测框匹配成功,还有一部分在当前帧中根据匹配依据的特征信息无法匹配成功。
可选地,不同的实施中,当前帧中的第二多个目标的检测框和上一帧中的第一多个目标在当前帧中的跟踪框匹配成功的步骤包括:根据当前帧中的第二多个目标的检测框和上一帧中的第一多个目标在当前帧中的跟踪框的质心距离和/或重叠率判断是否匹配成功。
在一实施例中,当前帧中的第二多个目标中的某一个或多个目标的检测框和上一帧中的第一多个目标中某一个或多个目标在当前帧中的跟踪框的质心距离很近时,且重叠率很高时则判断目标匹配成功。可以理解的相邻两帧图片的切分的时间相隔非常短,即目标在这个相隔的时间里移动的距离很微小,所以此时可以判定两帧图片中的目标匹配成功。
可选地,第二多个目标包括第一部分目标和第二部分目标,其中,由上可知,第一部分目标为:第二多个目标中的检测框与第一多个目标在当前帧中的跟踪框匹配成功的目标。第二部分目标为:第二多个目标中的检测框,与第一多个目标在当前帧中的跟踪框未匹配成功的目标,将第二部分目标中在跟踪链中没有记载的目标定义为新增目标。可以理解的,第二部分目标中,除了新增目标还可能存在另一类目标:在第一多个目标中没有匹配成功但是在跟踪链出现过的目标。
在一实施例中,第二部分目标的数量可以是0,即当前帧中的第二多个目标的检测框与第一多个目标在当前帧中的跟踪框均可以匹配成功,所以此时的第二部分目标的数量是0。
可选地,在利用目标匹配算法进行校正分析,以得到当前帧第一部分目标对应的实际位置的步骤之后包括:筛选出第二部分目标中的新增目标;将新增目标加入跟踪链。另一实施例中还包括:以新增目标的初始位置和/或特征信息初始化对应的滤波跟踪器。
一实施例中滤波跟踪器包括卡尔曼滤波器(kalman)、核化相关滤波器(kcf)和卡尔曼滤波器与核化相关滤波器相结合的滤波器。卡尔曼滤波器、核化相关滤波器和卡尔曼滤波器与核化相关滤波器相结合的滤波器均是基于编程实现的多目标跟踪算法。其中,卡尔曼滤波器与核化相关滤波器相结合的滤波器是指结合了卡尔曼滤波器和核化相关滤波器两者的结构的算法结构所实现的滤波器结构。其他实施例中,滤波跟踪器也可以为其他类型的滤波器,只要能够实现相同的功能即可。
可选地,跟踪链的数据由上一帧以及上一帧以前的所有帧的数据训练计算所得,跟踪链中的目标包括上述描述的第一部分目标以及第三部分目标。具体的,第一部分目标是指:第一多个目标中在当前帧中的跟踪框与第二多个目标中的检测框匹配成功的目标。第三部分目标是指:跟踪链中的目标与第二多个目标未匹配成功的目标。
可以理解的,第三部分目标实质上是跟踪链中除去与第二多个目标匹配成功的第一部分目标之外的所有目标。
可选地,在步骤S234利用目标匹配算法进行校正分析,以得到当前帧第一部分目标对应的实际位置的步骤之后包括:第三部分目标对应的目标丢失帧数计数值加1,并在目标丢失帧数计数值大于等于预设阈值时将对应目标从跟踪链移除。可以理解的,丢失帧数计数值的预设阈值是预先设定,且可以根据需要进行调整的。
在一实施例中,第三部分目标中某一目标对应的丢失帧数计数值大于等于预设阈值时,将这一目标从当前的跟踪链中移除。
可选地,当某一目标从当前的跟踪链中移除,将该目标所对应的结构化数据上传至云端服务器,云端服务器会对结合该目标的结构化数据或者数据库中的经验值,再次对该目标进行轨迹或异常行为的深入分析。
其中,可以理解的是,当该被从跟踪链中移除的目标所对应的结构化数据发送至云端服务器时,执行该方法的系统可以选择信任,中断云端服务器对该目标的深入分析。
可选地,在步骤S234利用目标匹配算法进行校正分析,以得到当前帧第一部分目标对应的实际位置的步骤之后包括:第三部分目标对应的目标丢失帧数计数值加1,并在计数值小于预设阈值时,局部跟踪第三部分目标以得到当前跟踪值。
进一步,一实施例中根据第三部分目标的当前跟踪值和第三部分目标对应的预测值进行校正,以得到第三部分目标的实际位置。具体的,一实施例中,当前跟踪值是由核化相关滤波器和卡尔曼滤波器与核化相关滤波器相结合的滤波器对第三部分目标进行局部跟踪时获得,预测值是卡尔曼滤波器(kalman)预测第三部分目标的位置值。
可选地,对上述步骤S22中检测到的目标进行跟踪,是由卡尔曼滤波跟踪器(kalman)和核化相关滤波跟踪器(kcf)的滤波器相结合共同完成。
在一实施例中,当跟踪的目标均为可以匹配的目标时,即无疑似丢失目标时,只调用卡尔曼滤波跟踪器(kalman)既可以完成对目标的跟踪工作。
在另一实施例中,当跟踪的目标中有出现疑似丢失的目标时,调用尔曼滤波跟踪器(kalman)和核化相关滤波跟踪器(kcf)相结合的滤波器共同配合完成对目标的跟踪工作,也可以是由卡尔曼滤波跟踪器(kalman)和核化相关滤波跟踪器(kcf)先后配合完成。
可选地,一实施例中,步骤S234利用目标匹配算法进行校正,以得到当前帧第一部分目标对应的实际位置的步骤包括:对于第一部分目标中的各个目标,根据各个目标对应的当前帧跟踪框对应的预测值以及当前帧检测框对应的观测值进行校正,以得第一部分目标中各个目标的实际位置。
在一实施例中,对于第一部分目标中各个目标在当前帧中跟踪框对应的预测值可以理解为:结合跟踪链中的经验值以及上一帧中的位置信息,预测第一部分目标中各个目标的在当前帧中位置信息,然后结合观测所得的第一部分目标在当前帧中的实际位置(即观测值),校正第一部分目标中各个目标的实际位置。这一操作用以减小因预测值或观测值的误差带来的测得各个目标实际值不准确的问题。
可选地,在一实施例中,上述基于基于KCF与Kalman的改进型多目标跟踪方法可以实现对多个目标进行跟踪分析,记录目标进入该监控节点的出入时间以及在该监控场景下的每一个运动位置,从而生成一条轨迹链,可以具体清楚的反应目标在当前监控节点的运动信息。
参见图7,为本申请还提供的一种基于聚类光流特征的异常行为检测方法一实施例的流程示意图,该方法同时也是以上实施例的步骤24,包括步骤S241至步骤S245。具体的步骤如下:
S241:对一个或多个目标的检测框所在区域进行光流检测。
可选地,在对目标进行异常行为检测之前,已经基于预设算法完成对目标的检测识别,并获取对单帧图片中的目标进行目标检测时各个目标对应的检测框以及检测框所在的位置,然后对一个或多个目标的检测框进行光流检测。其中,光流包含了目标的运动信息。可选地,预设算法可以是yolov2算法,也可以是其他具有类似功能的算法。
可理解的,所获取的单帧图片中各个目标对应的检测框以及检测框所在的区域,因检测框的中心会和目标的重心接近重合,所以即可以此得到每一帧图像中各个行人目标又或是其他类型目标的位置信息。
在一实施例中,对一个或多个目标的检测框进行光流检测的实质是获取目标所对应检测框中光流点的运动信息,包括光流点的运动的速度大小和运动方向。
可选地,光流检测是获取光流点的各个运动特征信息,是由LK(Lucas–Kanade)金字塔光流法或者其他具有相同或类似功能的光流算法来完成。
可选地,可以每次对每帧图片中的一个目标或是预设的目标的检测框进行光流检测,也可以同时对每帧图片中多个的目标的检测框进行光流检测,一般每次进行光流检测的目标数是依据系统初始设定而定。可以理解的是,这一设定可以根据需要进行调整设定,当需要快速的光流检测时,可以设定为同时对每帧图片中多个目标的检测框进行检测。当需要非常精细的光流检测时,可以调整设定为每次对每帧图片中的一个目标的检测框进行光流检测。
可选地,在一实施例中,每次对连续的多帧图片中的一个目标的检测框进行光流检测,也可以是对单帧图片中的一个目标的检测框进行检测。
可选的,在另一实施例中,每次对连续的多帧图片中的多个或全部目标的检测框进行光流检测,也可以是每次对单帧图片中的多个或全部目标的检测框进行光流检测。
可选地,在一实施例中,在对目标进行光流检测之前,在上述步骤中先检测出目标的大致位置区域,然后直接在连续的两帧图像中的有目标出现的区域(可以理解是目标检测区域)进行光流检测。其中,进行光流检测的连续的两帧图像是大小相同的图像。
可选地,在一实施例中,对目标的检测框所在区域进行光流检测可以是对一帧图片的中目标的检测框所在区域进行光流检测,然后将所得数据和信息保存在本地存储器中,再对下一帧或预设帧中的图片中的目标的检测框所在区域进行光流检测。
在一实施例中,每次对一个目标的检测框及所在区域进行光流检测,并逐一对图片中的所有目标的检测框进行光流检测。
在另一实施例中,每次对一张图片中的多个目标同时进行光流检测,即可以理解每次对一张单帧图片中的所有目标或者是部分目标的检测框进行光流检测。
在又一实施例中,每次对多张单帧图片中的所有目标的检测框的进行光流检测。
在再一实施例中,每次对多张单帧图片中,特别指定的同一类别的目标检测框进行光流检测。
可选地,在步骤S241之后将所得光流信息加入到时空模型中,从而经过统计计算得到前后多帧图像的光流矢量信息。
S242:提取至少连续两帧图像中检测框对应的特征点的光流运动信息,计算检测框所在区域的信息熵。
可选地,步骤242提取至少连续两帧图像中检测框对应的特征点的光流运动信息,计算检测框所在区域的信息熵,,是对至少连续两帧图像中的检测框区域对应的特征点进行计算,其中光流运动信息是指光流点的运动方向和运动速度的大小,即提取光流点的运动方向和运动的距离,然后计算光流点的运动速度,特征点是可以代表物体特征信息的一个或多个像素点的集合。
可选地,在提取出连续两帧图像中检测框对应的特征点的光流运动信息后,并依据所提取的光流运动信息计算检测框所在区域的信息熵,可以理解的是,信息熵时基于目标检测区域内所有光流点的光流信息计算所得。
可选地,步骤242提取至少连续两帧图像中检测框对应的特征点的光流运动信息,计算检测框所在区域的信息熵,是LK(Lucas–Kanade)金字塔光流法(LK金字塔光流法在下文中简称LK光流法)提取相邻帧仅含有行人目标的矩形框区域内的像素光流特征信息并且利用图形处理器(Graphics Processing Unit)对LK光流提取算法进行加速,从而实现实时在线提取像素的光流特征信息。其中,光流特征信息,是指光流矢量信息,可简称光流矢量。
可选地,由于光流算法提取的光流矢量是由两个二维矩阵矢量构成,即
其中,矩阵中各个点对应于图像中各个像素点位置;代表相邻帧中同一个像素点在X轴移动的像素间隔,代表相邻帧中同一个像素点在Y轴移动的像素间隔。
可选地,像素间隔是指特征点在相邻的两帧图像中移动的距离,可以由LK光流提取算法直接提取获得。
在一实施例中,步骤242是对已经完成目标检测的单帧图像,且已经获取到目标检测时的检测框的图像中,各个目标的检测框所对应的特征点的光流运动信息进行提取或计算。其中特征点也可以解释为指的是图像灰度值发生剧烈变化的点或者在图像边缘上曲率较大的点(即两个边缘的交点)。这一操作可以减少计算量,提高计算效率。
可选地,步骤S242可以同时提取连续两帧图像中的所有检测框或部分检测框对应的特征点的光流信息,也可以同时计算超过两张的连续图像中所有的检测框对应的特征点的光流信息,每次计算的图像的数量的是由预先在系统的设定的,且可以根据需要设定。
在一实施例中,步骤S242同时计算连续两帧图像中的所有检测框对应的特征点的光流信息。
在另一实施例中,步骤S242同时计算超过两张的连续图像中所有的检测框对应的特征点的光流信息。
可选地,步骤S242可以同时计算至少连续两帧图像中的所有目标对应的检测框的光流信息,也可以是同时计算至少连续两帧图像中特别指定且相对应的目标的检测框的光流信息。
在一实施例中,步骤S242是同时计算连续至少两帧图像中的所有目标对应的检测框的光流信息,如:第t帧中和第t+1帧图像中所有目标所对应的检测框的光流信息。
在另一实施例中,步骤S242是同时计算至少连续两帧图像中的特别指定且相对应的目标的检测框,如:第t帧A类目标和第t+1帧图像A’类目标,ID标号为1到3的目标的所对应的检测框的光流信息,即同时提取并计算目标A1、A2、A3和其对应的目标A1’、A2’、A3’的检测框的光流信息。
S243:根据光流运动信息和信息熵建立聚类点。
可选地,根据步骤S242中提取的光流运动信息和计算所得的信息熵建立聚类点。其中光流运动信息是反应光流的运动特征的信息,包括运动的方向和运动的速度大小,也可以包括其他的相关运动特征信息,信息熵是依据光流运动信息通过计算所得。
在一实施例中,步骤S242中提取的光流运动信息包括运动的方向、运动的距离、运动的速度大小以及其他的相关运动特征信息中至少一种。
可选地,步骤S243根据光流运动信息和计算所得的信息熵建立聚类点之前,要先采用K-均值算法(k-mean)对光流进行聚类。其中,聚类点个数可以根据目标检测时的检测框个数确定,对光流进行聚类是依据:将运动方向和运动速度大小相同的光流点建立成聚类点。可选地,在一实施例中,K的取值范围为6~9,当然K值也可以是其他的值,在此不做赘述。
可选地,聚类点是运动方向和运动速度大小相同或近似相同的光流点的集合。
S244:计算聚类点的动能或目标检测框所在区域的动能。
具体的,以步骤S243中所建立的聚类点为单位,计算步骤S245中所建立的聚类点的动能,或同时计算目标检测框所在区域的动能。
在一实施例中,计算步骤S243中所建立的聚类点的动能或目标检测框所在区域的动能中至少一种。可以理解的是,不同的实施例中,根据具体需求可以配置其中一种需要的计算方式,也可以同时配置计算聚类点的动能或目标所在区域的动能两种计算方式,当只需要计算其中一种时,可以手动选择不计算另一种。
可选地,根据聚类点的位置利用其前后N帧的运动矢量建立一个运动时空容器,并计算出每一个聚类点所在检测区域的光流直方图(HOF)的信息熵以及聚类点集合的平均动能。
可选地,目标检测框所在区域的动能的公式如下:
可选地,i=0,…,k-1表示单个目标检测框所在区域中光流的序号,k表示单个目标区域的聚类后光流总个数,此外,为了方便计算,令m=1。可选地,在一实施例中,K的取值范围为6~9,当然K值也可以是其他的值,在此不做赘述。
S245:根据聚类点的动能和/或信息熵判断异常行为。
可选地,根据步骤S244中所计算的聚类点的动能或所述目标检测框所在区域的动能判断聚类点所对应的目标是否发生异常行为,其中当目标是行人时,异常行为包括,奔跑、打架和骚乱,当目标是车辆时,异常行为包括撞击和超速。
具体的,打架和奔跑两种异常行为都与目标检测框所在区域的信息熵与聚类点的动能有关。即异常行为是打架时,目标检测框所在区域的光流信息熵较大,目标所对应的聚类点的动能或目标所在区域的动能也较大。而异常行为是奔跑的时候,目标所对应的聚类点的动能或目标所在区域的动能较大,目标检测框所在区域的光流信息熵较小。当没有发生异常行为时,目标所对应检测框所在区域的光流信息熵较小,目标所对应的聚类点的动能或目标所在区域的动能也较小。
可选地,一实施例中,S245根据聚类点的动能和/或信息熵判断异常行为的步骤进一步包括:若目标所对应的检测框所在区域的光流信息熵大于等于第一阈值,且目标所对应的聚类点的动能或目标检测框所在区域的动能大于等于第二阈值,则判断异常行为是打架。
可选地,另一实施例中,根据聚类点的动能和/或信息熵判断异常行为的步骤进一步包括:若目标所对应的检测框所在区域的信息熵大于等于第三阈值且小于第一阈值,同时目标所对应的聚类点的动能或目标检测框所在区域的动能大于第二阈值。则判断异常行为是奔跑。
一实施例中,例如,信息熵用H表示,动能用E表示。
可选地,目标奔跑行为的判断公式如下:
在一实施例中,本发明训练得到奔跑行为的取值范围为λ1取值为3000,其中是用来表示目标检测框所在区域的光流信息熵H和目标检测框的所在区域的动能E的比值,λ1是一个预设的动能值。
可选地,目标打架行为的判断公式:
在一实施例中,本发明训练得到打架行为的取值范围为λ2取值为3.0,其中是用来表示信息熵H和动能E的比值,λ2是一个预设的信息熵值。
可选地,正常行为的判断公式:
在一实施例中,在本发明中,训练得到的正常行为λ3取1500,λ4取1.85,λ3是一个预设的动能值,且小于λ1,λ4是一个预设的信息熵值,且小于λ2
在一实施例中,当某一行人目标在奔跑时,该行人目标所对应的聚类点的光流动能较大,光流信息熵较小。
可选地,当发生人群骚乱时,首先会在一张单帧图片中检测到多个行人目标,然后在对所检测的多个行人目标进行异常行为检测时,会发现多个目标的均发生了奔跑异常,此时可以判定发生人群骚乱。
在一实施例中,对一张单帧图片中所检测到的多个目标进行异常行为检测时,当有超过预设阈值数量的目标所对应的聚类点的运动动能较大,光流信息熵较小;此时可以判定可能发生了人群骚乱。
可选地,当目标是车辆时,异常行为的判定同样是基于对于目标所对应检测框中的多数光流方向和所检测的车辆之间的距离的大小(可以从位置信息计算得出),判断是否发生撞击。可以理解的是,当两个车辆目标的检测框的多数光流方向相对,且两辆车的距离很近时,可以判断疑似发生撞击事件。
可选地,将步骤S245判断异常行为的结果保存,并发送至云端服务器。
上述步骤S241至步骤S245所述的方法可以有效的提高异常行为检测的效率和实时性。
可选地,一实施例中,步骤S242提取至少连续两帧图像中检测框对应的特征点的光流运动信息,计算检测框所在区域的信息熵的步骤之前还包括:提取至少连续两帧图像的特征点。
可选地,提取至少连续两帧图像的特征点,可以每次提取两帧连续的图像的中目标检测框的特征点,也可以是每次提取多帧(超过两帧)连续的图像中目标检测框的特征点,其中每次提取的图像的数量由初始化系统时设定,且可以根据需要进行调整。其中,特征点指的是图像灰度值发生剧烈变化的点或者在图像边缘上曲率较大的点(即两个边缘的交点)。
可选地,一实施例中,步骤S242提取至少连续两帧图像中检测框对应的特征点的光流运动信息,计算检测框所在区域的信息熵的步骤进一步包括:采用预设算法计算连续两帧图像中目标匹配的特征点,去除连续两帧图像中不匹配的特征点。
可选地,首先,调用图像处理函数(goodFeaturesToTrack())提取上一帧图像中已经检测到的目标区域中的特征点(也可称作Shi-Tomasi角点),然后调用LK-pyramid光流提取算法中的函数calcOpticalFlowPyrLK()计算当前帧检测到的目标与上一帧匹配的特征点,去除前后两帧中未移动的特征点,从而得到像素点的光流运动信息。其中,本实施例中的特征点可以是Shi-Tomasi角点,又或是简称角点。
可选地,一实施例中,步骤S243根据光流运动信息和信息熵建立聚类点的步骤之前还包括:在图像中画出特征点的光流运动方向。
在一实施例中,根据光流运动信息和信息熵建立聚类点的步骤之前还包括,在每一帧图像中画出各个特征点的光流运动方向,并将步骤S242中所提取的每一个目标检测区域的光流信息加入到时空模型中。可以理解的是,时空模型中包含所提取的每一个光流的运动信息。
可选的,参见图8,一实施例中,步骤S243根据光流运动信息建立聚类点的步骤之后还包括步骤S2431和步骤S2432:
S2431:基于目标检测区域的位置和运动矢量建立时空容器。
可选地,基于目标检测区域即目标检测框所在的位置信息和检测框中的聚类点在前后多帧的运动矢量关系建立时空容器。
可选地,图9是一实施例中的运动时空容器的示意图,其中AB是该时空容器的二维高度,BC是该时空容器的二维宽度,CE是该时空容器的深度。其中,时空容器的深度CE是视频帧数,ABCD代表时空容器的二维大小,二维大小代表目标检测时目标检测框的大小。可以理解的,时空容器的模型可以是其他的图形,当目标检测框的图形改变时,时空容器的模型会相应改变。
可选地,在一实施例中,当目标检测框的图形发生变化,则相对应的所建立的时空容器会依据目标检测框的图形变化发生变化。
S2432:计算时空容器中的基于光流直方图的平均信息熵以及聚类后的光流点的平均运动动能。
可选地,在一实施例中,计算时空容器中的基于光流直方图的平均信息熵以及聚类后的光流点的平均运动动能,其中也可以理解为计算各个聚类点的平均运动动能。光流直方图HOF(Histogram of Oriented Optical Flow)来统计光流点在某一特定方向分布的概率的示意图。
可选地,HOF的基本思想是根据各个光流点的方向值将其投影到所对应的直方图bin中,并根据该光流的幅值进行加权,在本发明中,bin的取值大小为12,其中各个光流点的运动速度大小和方向的计算公式如下所示,T是指相邻的两帧图像间隔的时间。
其中,采用光流直方图,可以减少目标的尺寸、目标运动方向以及视频中的噪声等因素对目标像素的光流特征的影响。
可选地,不同的实施例中异常行为的种类包括打架奔跑、骚乱或者交通异常中的一种。
在一实施例中,当目标是行人时,异常行为包括:打架、奔跑和骚乱。
在另一实施例中,当目标是车辆时,异常行为为例如:撞击和超速。
可选地,在一实施例中,计算各个聚类点所对应的检测框的光流直方图的平均信息熵与平均动能,实质上是计算前后N帧图像中各个聚类中心的光流的平均信息熵和平均动能。
参见图10,本发明还提供一种具有存储功能的装置100,存储有程序数据,该程序数据被执行时实现以上所述的基于聚类光流特征的异常行为检测方法。具体的,上述具有存储功能的装置可以是存储器、个人计算机、服务器、网络设备,或者U盘等其中的一种。
参见图11,图11是本发明一种异常行为检测系统一实施例提供的示意图。一种异常行为检测系统包括:处理器202和存储器204,处理器202耦合存储器204,处理器202在工作时执行指令以实现以上所述的异常行为检测方法,并将执行指令产生的处理结果保存在存储器204中。
上述的异常行为检测的方法,可以有效的提高现在安防的智能化,同时还可以有效的减少在异常行为检测过程中的计算量,提高系统对目标进行异常行为检测的效率、实时性和准确率。
可选地,对目标进行跟踪,以得到跟踪结果的步骤之后进一步包括:将已离开当前监控节点的目标对象的结构化数据发送至云端服务器。
可选地,对目标进行跟踪时,当某一目标的特征信息尤其是位置信息在预设时间内没有进行更新,即可判定该目标已经离开当前的监控节点,将该目标的结构化数据发送至云端服务器。其中预设时间可以由用户设定,如设定5分钟或者是10分钟等,在此不一一赘述。
在一实施例中,在对目标进行跟踪时,当发现某行人的位置信息即坐标值在一定的预设时间内没有进行更新,即可以判定这个行人已经离开当前的监控节点,将该行人对应的结构化数据发送至云端服务器。
在另一实施例中,在对目标进行跟踪时,当发现某行人或某车辆的位置坐标一直停留在监控节点的视角边缘时,即可以判定该行人或者车辆已经离开当前的监控节点,将该行人或车辆的结构化数据发送至云端服务器。
可选地,将被判定离开当前监控节点的目标的预设特征信息(如目标属性值、运动轨迹、目标截图等及其他所需的信息)进行打包成预设的元数据结构,然后编码成预设格式发送至云端服务器,云端服务器对所接收到的打包数据进行解析,提取出目标的元数据并保存至数据库。
在一实施例中,将被判定离开当前节点的目标的预设特征信息打包成为预设的元数据结构,然后编码成JSON数据格式通过网络发送至云端服务器,云端服务器对接收到的JSON数据包进行解析,提取出元数据结构,然后保存至云端服务器的数据库。可以理解的,预设的特征信息可以根据需要进行调整设定,在此不做一一赘述。
可选地,步骤S23对目标进行跟踪,以得到跟踪结果和步骤S24对目标进行异常行为检测,均基于步骤S22对单帧图片进行目标检测识别的基础之上,才可以进行对目标的跟踪和对目标异常行为进行检测。
可选地,步骤S24对目标进行异常行为检测可以在步骤S22完成之后直接进行,也可以是和步骤S23同时进行,又或者是在步骤S23之后,并基于步骤S23跟踪的结果之上进行。
可选地,当步骤S24对目标进行异常行为检测基于步骤S23对目标进行跟踪,以得到跟踪结果,对目标的异常行为的检测会更加精确。
其中,步骤S21至步骤S24所述的一种基于目标行为属性的视频结构化处理的方法,可以有效的减小监控视频的网络传输的压力,有效地提高监控系统的实时性,大幅度削减数据流量费。
可选地,对所述单帧图片进行目标检测识别的步骤,进一步包括提取出单帧图片中的目标的特征信息。可以理解的是,将读取的视频切分成多张单帧图片后,要对切分之后的单帧图片进行目标检测识别。
可选地,对将视频切分所得到的单帧图片中的目标的特征信息进行提取,其中目标包括行人、车辆和动物,根据需要也可以提取建筑物或者道路桥梁的特征信息。
在一实施例中,当目标是行人时,提取的特征信息包括:行人的位置、行人衣着颜色、行人的性别、运动状态、运动轨迹、驻留时间等特征化信息以及其他可获取的信息。
在另一实施例中,当目标是车辆时,提取的特征信息包括:车辆的型号、车身的颜色、车辆的行驶速度以及车辆的车牌号等。
在又一实施例中,当目标是建筑物时,提取的特征信息包括:建筑物的基本信息:如建筑层高、建筑的高度、建筑的外观颜色等。
在再一实施例中,当目标是道路桥梁时,提取的特征信息包括:道路的宽度、道路的名称、道路的限速值等信息。
可选地,对目标进行异常行为检测的步骤包括:提取一个或多个目标的多像素点的运动矢量,并根据运动矢量之间的关系进行异常行为检测。
在一实施例中,具体细节参见,如上所述的一种异常行为检测的方法。
在一实施例中,初始设定在视频处理阶段获取的结构化数据包括目标的位置、目标类别、目标属性、目标运动状态、目标运动轨迹、目标驻留时间中至少一个信息。其中,可以根据用户需要调整,在视频处理阶段只获取目标的位置信息,或者是同时获得目标的位置和目标类别。可以理解的是,视频处理阶段获取信息,可以由用户来选择所需要在视频处理阶段获取的信息类别。
可选地,在对视频结构化处理结束之后,将所获得的结构化数据上传至云端服务器,云端服务器会保存各个监控节点所上传的结构化数据,并对各个监控节点所上传的结构化数据进行深入分析,以得到预设的结果。
可选地,云端服务器对各个监控节点所上传的结构化数据进行深入分析的步骤可以是设定由系统自动进行,也可以是由用户手动进行。
在一实施例中,预先设定云端服务器的深入分析所包括的基础分析内容,如统计行人的数量、目标轨迹分析、目标是否有异常行为发生、发生异常行为的目标的数量,同时深入分析还包括需要用户特别选择的其他内容,如目标的各个时段的比例、目标的速度等。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于聚类光流特征的异常行为检测方法,其特征在于,包括:
对一个或多个目标的检测框及所在区域进行光流检测;
提取至少连续两帧图像中所述检测框对应的特征点的光流运动信息,计算所述检测框所在区域的信息熵;
根据所述光流运动信息和所述信息熵建立聚类点;
计算所述聚类点的动能或所述目标检测框所在区域的动能;
根据所述聚类点的动能和/或所述信息熵判断异常行为。
2.根据权利要求1所述的基于聚类光流特征的异常行为检测方法,其特征在于,所述提取至少连续两帧图像中所述检测框对应的特征点的光流运动信息,计算所述检测框所在区域的信息熵的步骤之前还包括:
提取至少连续两帧图像的特征点。
3.根据权利要求1所述的基于聚类光流特征的异常行为检测方法,其特征在于,所述提取至少连续两帧图像中所述检测框对应的光流运动信息,计算所述检测框所在区域的信息熵的步骤进一步包括:
采用预设算法计算连续两帧图像中目标匹配的特征点,去除连续两帧图像中不匹配的特征点。
4.根据权利要求1所述的基于聚类光流特征的异常行为检测方法,其特征在于,所述根据所述光流运动信息和所述信息熵建立聚类点的步骤之前包括:
在所述图像中画出所述特征点的光流运动方向。
5.根据权利要求1所述的基于聚类光流特征的异常行为检测方法,其特征在于,所述根据所述光流运动信息和所述信息熵建立聚类点的步骤之后的还包括:
根据所述聚类点的位置和所述光流运动信息建立时空容器;
计算各个所述聚类点所对应的所述检测框的光流直方图的平均信息熵与平均动能。
6.根据权利要求1所述的基于聚类光流特征的异常行为检测方法,其特征在于,所述异常行为包括打架、奔跑、骚乱或者交通异常中的一种。
7.根据权利要求6所述的基于聚类光流特征的异常行为检测方法,其特征在于,所述根据所述聚类点的动能和所述信息熵判断异常行为的步骤包括:
若所述信息熵大于等于第一阈值,且所述动能大于等于第二阈值,则判断所述异常行为是打架。
8.根据权利要求6所述的基于聚类光流特征的异常行为检测方法,其特征在于,所述根据所述聚类点的动能和所述信息熵判断异常行为的步骤进一步包括:
若所述信息熵大于等于第三阈值且小于第一阈值,同时所述动能大于第二阈值,则判断所述异常行为是奔跑。
9.一种具有存储功能的装置,其特征在于,存储有程序数据,所述程序数据被执行时实现如权利要求1~8任一项所述的方法。
10.一种异常行为检测系统,其特征在于,包括:
处理器和存储器,所述处理器耦合所述存储器,所述处理器在工作时执行指令以实现如权利要求1~8任一项所述的方法,并将所述执行指令产生的处理结果保存在所述存储器中。
CN201711055938.3A 2017-10-31 2017-10-31 一种基于聚类光流特征的异常行为检测方法、系统及装置 Active CN108052859B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711055938.3A CN108052859B (zh) 2017-10-31 2017-10-31 一种基于聚类光流特征的异常行为检测方法、系统及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711055938.3A CN108052859B (zh) 2017-10-31 2017-10-31 一种基于聚类光流特征的异常行为检测方法、系统及装置

Publications (2)

Publication Number Publication Date
CN108052859A true CN108052859A (zh) 2018-05-18
CN108052859B CN108052859B (zh) 2022-02-25

Family

ID=62118840

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711055938.3A Active CN108052859B (zh) 2017-10-31 2017-10-31 一种基于聚类光流特征的异常行为检测方法、系统及装置

Country Status (1)

Country Link
CN (1) CN108052859B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108848348A (zh) * 2018-07-12 2018-11-20 西南科技大学 一种基于无人机的人群异常行为监测装置及方法
CN109063549A (zh) * 2018-06-19 2018-12-21 中国科学院自动化研究所 基于深度神经网络的高分辨率航拍视频运动目标检测方法
CN109460764A (zh) * 2018-11-08 2019-03-12 中南大学 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法
CN110070003A (zh) * 2019-04-01 2019-07-30 浙江大华技术股份有限公司 异常行为检测与光流自相关性确定的方法、及相关装置
CN110110649A (zh) * 2019-05-02 2019-08-09 西安电子科技大学 基于速度方向的可选择性人脸检测方法
CN110222616A (zh) * 2019-05-28 2019-09-10 浙江大华技术股份有限公司 行人异常行为检测方法、图像处理装置及存储装置
CN110443161A (zh) * 2019-07-19 2019-11-12 宁波工程学院 一种面向银行场景下基于人工智能的监测方法
CN111079776A (zh) * 2018-10-22 2020-04-28 百度在线网络技术(北京)有限公司 障碍车轨迹异常的判别方法和装置
CN111325073A (zh) * 2018-12-17 2020-06-23 上海交通大学 基于运动信息聚类的监控视频异常行为检测方法
CN111814783A (zh) * 2020-06-08 2020-10-23 三峡大学 基于车牌顶点偏移估计的精准车牌定位方法
CN111914839A (zh) * 2020-07-28 2020-11-10 三峡大学 基于YOLOv3的同步端到端车牌定位与识别方法
CN112085003A (zh) * 2020-09-24 2020-12-15 湖北科技学院 公共场所异常行为自动识别方法及装置、摄像机设备
CN113033504A (zh) * 2021-05-19 2021-06-25 广东众聚人工智能科技有限公司 一种基于多尺度视频异常检测方法
CN113194308A (zh) * 2021-05-24 2021-07-30 浙江大华技术股份有限公司 传输设备堵塞区域的确定方法、装置
CN113221716A (zh) * 2021-05-06 2021-08-06 西华大学 一种基于前景目标检测的无监督交通异常行为检测方法
CN115550611A (zh) * 2022-09-23 2022-12-30 广东机场白云信息科技有限公司 一种航班保障节点的智能监测方法、装置及系统
CN116704270A (zh) * 2023-08-07 2023-09-05 合肥焕峰智能科技有限公司 一种基于图像处理的智能设备定位标记方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103996051A (zh) * 2014-05-12 2014-08-20 上海大学 基于运动特征变化的视频运动对象异常行为自动检测方法
CN105404648A (zh) * 2015-10-29 2016-03-16 东北大学 一种基于密度与紧密度聚类的用户移动行为确定方法
CN105787472A (zh) * 2016-03-28 2016-07-20 电子科技大学 一种基于时空拉普拉斯特征映射学习的异常行为检测方法
CN107194359A (zh) * 2017-05-26 2017-09-22 深圳大学 一种视频图像序列的尺度空间构造方法及装置
CN107194317A (zh) * 2017-04-24 2017-09-22 广州大学 一种基于网格聚类分析的暴力行为检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103996051A (zh) * 2014-05-12 2014-08-20 上海大学 基于运动特征变化的视频运动对象异常行为自动检测方法
CN105404648A (zh) * 2015-10-29 2016-03-16 东北大学 一种基于密度与紧密度聚类的用户移动行为确定方法
CN105787472A (zh) * 2016-03-28 2016-07-20 电子科技大学 一种基于时空拉普拉斯特征映射学习的异常行为检测方法
CN107194317A (zh) * 2017-04-24 2017-09-22 广州大学 一种基于网格聚类分析的暴力行为检测方法
CN107194359A (zh) * 2017-05-26 2017-09-22 深圳大学 一种视频图像序列的尺度空间构造方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
姚明海: "视频异常事件检测与认证方法", 《中国博士学位论文全文数据库信息科技辑(月刊)》 *
闫志扬: "视频监控中人群状态分析及异常事件检测方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑(月刊)》 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063549B (zh) * 2018-06-19 2020-10-16 中国科学院自动化研究所 基于深度神经网络的高分辨率航拍视频运动目标检测方法
CN109063549A (zh) * 2018-06-19 2018-12-21 中国科学院自动化研究所 基于深度神经网络的高分辨率航拍视频运动目标检测方法
CN108848348A (zh) * 2018-07-12 2018-11-20 西南科技大学 一种基于无人机的人群异常行为监测装置及方法
CN111079776A (zh) * 2018-10-22 2020-04-28 百度在线网络技术(北京)有限公司 障碍车轨迹异常的判别方法和装置
CN109460764A (zh) * 2018-11-08 2019-03-12 中南大学 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法
CN109460764B (zh) * 2018-11-08 2022-02-18 中南大学 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法
CN111325073A (zh) * 2018-12-17 2020-06-23 上海交通大学 基于运动信息聚类的监控视频异常行为检测方法
CN111325073B (zh) * 2018-12-17 2024-02-20 上海交通大学 基于运动信息聚类的监控视频异常行为检测方法
CN110070003A (zh) * 2019-04-01 2019-07-30 浙江大华技术股份有限公司 异常行为检测与光流自相关性确定的方法、及相关装置
CN110110649A (zh) * 2019-05-02 2019-08-09 西安电子科技大学 基于速度方向的可选择性人脸检测方法
CN110110649B (zh) * 2019-05-02 2023-04-07 西安电子科技大学 基于速度方向的可选择性人脸检测方法
CN110222616A (zh) * 2019-05-28 2019-09-10 浙江大华技术股份有限公司 行人异常行为检测方法、图像处理装置及存储装置
CN110222616B (zh) * 2019-05-28 2021-08-31 浙江大华技术股份有限公司 行人异常行为检测方法、图像处理装置及存储装置
CN113408352A (zh) * 2019-05-28 2021-09-17 浙江大华技术股份有限公司 行人异常行为检测方法、图像处理装置及存储装置
CN110443161A (zh) * 2019-07-19 2019-11-12 宁波工程学院 一种面向银行场景下基于人工智能的监测方法
CN110443161B (zh) * 2019-07-19 2023-08-29 宁波工程学院 一种面向银行场景下基于人工智能的监测方法
CN111814783A (zh) * 2020-06-08 2020-10-23 三峡大学 基于车牌顶点偏移估计的精准车牌定位方法
CN111814783B (zh) * 2020-06-08 2024-05-24 深圳市富浩鹏电子有限公司 基于车牌顶点偏移估计的精准车牌定位方法
CN111914839A (zh) * 2020-07-28 2020-11-10 三峡大学 基于YOLOv3的同步端到端车牌定位与识别方法
CN111914839B (zh) * 2020-07-28 2024-03-19 特微乐行(广州)技术有限公司 基于YOLOv3的同步端到端车牌定位与识别方法
CN112085003A (zh) * 2020-09-24 2020-12-15 湖北科技学院 公共场所异常行为自动识别方法及装置、摄像机设备
CN112085003B (zh) * 2020-09-24 2024-04-05 湖北科技学院 公共场所异常行为自动识别方法及装置、摄像机设备
CN113221716A (zh) * 2021-05-06 2021-08-06 西华大学 一种基于前景目标检测的无监督交通异常行为检测方法
CN113033504A (zh) * 2021-05-19 2021-06-25 广东众聚人工智能科技有限公司 一种基于多尺度视频异常检测方法
CN113194308A (zh) * 2021-05-24 2021-07-30 浙江大华技术股份有限公司 传输设备堵塞区域的确定方法、装置
CN115550611A (zh) * 2022-09-23 2022-12-30 广东机场白云信息科技有限公司 一种航班保障节点的智能监测方法、装置及系统
CN116704270A (zh) * 2023-08-07 2023-09-05 合肥焕峰智能科技有限公司 一种基于图像处理的智能设备定位标记方法

Also Published As

Publication number Publication date
CN108052859B (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
CN108053427A (zh) 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置
CN108009473A (zh) 基于目标行为属性视频结构化处理方法、系统及存储装置
CN108052859A (zh) 一种基于聚类光流特征的异常行为检测方法、系统及装置
CN108062349A (zh) 基于视频结构化数据及深度学习的视频监控方法和系统
Liu et al. A computer vision system for early stage grape yield estimation based on shoot detection
CN110852283A (zh) 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
CN110717414A (zh) 一种目标检测追踪方法、装置及设备
CN111814638B (zh) 基于深度学习的安防场景火焰检测方法
CN104036236B (zh) 一种基于多参数指数加权的人脸性别识别方法
CN107133607B (zh) 基于视频监控的人群统计方法及系统
CN102521565A (zh) 低分辨率视频的服装识别方法及系统
CN111353338B (zh) 一种基于营业厅视频监控的能效改进方法
He et al. A robust method for wheatear detection using UAV in natural scenes
CN112149761A (zh) 一种基于YOLOv4改进算法的电力智慧工地违规行为检测方法
CN103440491A (zh) 一种基于颜色特征的密集人流量实时检测方法
CN105844245A (zh) 一种伪装人脸检测方法及系统
CN111401310B (zh) 基于人工智能的厨房卫生安全监督管理方法
CN111091098A (zh) 检测模型的训练方法、检测方法及相关装置
CN109271932A (zh) 基于颜色匹配的行人再识别方法
Huang et al. Soft-margin mixture of regressions
CN115841649A (zh) 一种用于城市复杂场景的多尺度人数统计方法
CN111325048A (zh) 一种人员聚集检测方法和装置
WO2023000253A1 (zh) 攀爬行为预警方法和装置、电子设备、存储介质
CN106909883A (zh) 一种基于ros的模块化手部区域检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant