CN115620212B - 一种基于监控视频的行为识别方法及系统 - Google Patents
一种基于监控视频的行为识别方法及系统 Download PDFInfo
- Publication number
- CN115620212B CN115620212B CN202211598860.0A CN202211598860A CN115620212B CN 115620212 B CN115620212 B CN 115620212B CN 202211598860 A CN202211598860 A CN 202211598860A CN 115620212 B CN115620212 B CN 115620212B
- Authority
- CN
- China
- Prior art keywords
- sequence
- frame
- target
- behavior recognition
- video stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于监控视频的行为识别方法及系统,涉及视频行为识别技术领域,获取监控视频流;根据监控视频流中的视频帧的变化,对监控视频流进行处理以获取关键序列;将关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;根据各个目标的跟踪标记,将关键序列划分为每个目标的目标序列;从目标序列中提取若干预设帧数的待测序列并对待测序列进行预处理和标准化,以获得每个目标的序列数据集;将序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。本发明能够解决现有技术中识别精度低,实时性差的技术问题。
Description
技术领域
本发明涉及视频行为识别技术领域,具体涉及一种基于监控视频的行为识别方法及系统。
背景技术
视频监控系统由于其安全、稳定的性能被广泛用于安防、智慧工地、智能家居等各种场合。伴随着社会的进步和发展,基于监控视频的行为识别是计算机视觉领域的一个重要研究方向,在智能视频监控、运动行为评估、步态识别等方面有着巨大的应用潜力。其中,人员的行为识别作为监控视频的主体目标,应用深度学习模型和图像识别算法识别人员行为,可以有效地提升视频监控系统的自动化和智能化程度。
目前,基于监控视频的行为识别方法为直接对原始视频进行识别,截取静态图像的简单动作分类,但是在实际应用当中,由于监控场景的复杂性、人员的密集性、环境光照以及遮挡等问题,该类方法容易忽略视频中过多的有效信息,识别精度低,并且处理视频周期长,实时性差,难以应用到实际场景中。
因此,现有的基于监控视频的行为识别方法普遍存在识别精度低,实时性差的技术问题。
发明内容
针对现有技术的不足,本发明的目的在于提供一种基于监控视频的行为识别方法及系统,旨在解决现有技术中识别精度低,实时性差的技术问题。
本发明的第一方面在于提供一种基于监控视频的行为识别方法,所述基于监控视频的行为识别方法包括:
获取监控视频流;
根据所述监控视频流中的视频帧的变化,对所述监控视频流进行处理以获取关键序列;
将所述关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;
根据各个目标的跟踪标记,将所述关键序列划分为每个目标的目标序列;
从所述目标序列中提取若干预设帧数的待测序列并对所述待测序列进行预处理和标准化,以获得每个目标的序列数据集;
将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。
与现有技术相比,本发明的有益效果在于:通过本发明提供的一种基于监控视频的行为识别方法,具体为,获取监控视频流;根据监控视频流中的视频帧的变化,对监控视频流进行处理以获取关键序列;将关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;根据各个目标的跟踪标记,将关键序列划分为每个目标的目标序列;从目标序列中提取若干预设帧数的待测序列并对待测序列进行预处理和标准化,以获得每个目标的序列数据集;将序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。通过对监控视频流进行关键序列提取以及目标跟踪标记,实现高质量的序列片段提取,减少了数据的冗余性和干扰性,提高行为识别的准确性,避免了直接对监控视频流进行行为识别导致识别准确率低,通过对目标序列进行预处理和标准化以及行为识别模型识别,能提高行为识别的效率和性能,避免了直接对监控视频流进行直接识别处理视频周期长,实时性差,从而解决了普遍存在识别精度低,实时性差的技术问题。
根据上述技术方案的一方面,所述根据所述监控视频流中的视频帧的变化,对所述监控视频流进行处理以获取关键序列的步骤,具体包括:
根据所述监控视频流中的视频帧的变化,通过帧差法确定所述监控视频流的起始帧和结束帧;
根据所述起始帧和所述结束帧,提取所述监控视频流的时间序列;
计算所述时间序列的长度,并判断所述时间序列的长度是否超过时间阈值;
若是,判定所述时间序列为关键序列并保存。
根据上述技术方案的一方面,根据所述监控视频流中的视频帧的变化,通过帧差法确定所述监控视频流的起始帧和结束帧的步骤,具体包括:
步骤S110:将所述监控视频流的第一帧视频帧设置为当前帧;
步骤S111:将所述监控视频流的起始帧状态设置为False;
步骤S112:获取所述当前帧开始的预设时间间隔的视频帧以得到对比帧,将所述当前帧与所述对比帧进行灰度化对比,以获得两视频帧之间的运动图像,即帧差图像Dt,,其中Ftc为对比帧,Fts为当前帧;
步骤S113:将所述帧差图像进行连通域分析,获取所述帧差图像的连通域;
步骤S114:计算所述连通域的面积,
当所述连通域的面积大于预设面积阈值,且起始帧的状态为False时,则标记所述对比帧为所述监控视频流的起始帧且其状态为True,并标记所述对比帧为下一次灰度化对比的当前帧,跳转到步骤S112继续执行;
当所述连通域的面积大于预设面积阈值,且起始帧的状态为True时,则标记所述对比帧为下次灰度化对比的当前帧,跳转到步骤S112继续执行;
当所述连通域的面积小于所述预设面积阈值,且起始帧的状态为False时,则标记所述对比帧为下次灰度化对比的当前帧,跳转到步骤S112继续执行;
当所述连通域的面积小于所述预设面积阈值,且起始帧的状态为True时,则标记所述对比帧为所述监控视频流的结束帧,并标记所述对比帧为当前帧,跳转到步骤S111继续执行。
根据上述技术方案的一方面,所述从所述目标序列中提取若干预设长度的待测序列并对所述待测序列进行预处理和标准化,以获得每个目标的序列数据集的步骤,具体包括:
从所述目标序列中提取若干预设帧数的待测序列;
对所述待测序列进行预处理,即计算所述待测序列的预设帧数并集的最小外接矩形,并从所述待测序列中提取所述最小外接矩形区域内的图像序列;
对所述图像序列进行标准化处理,即将所述图像序列标准化为若干预设大小的区域的待测数据;
将若干待测序列的若干待测数据进行整合,以获得每个目标的序列数据集。
根据上述技术方案的一方面,所述预先训练的目标检测模型的训练步骤,具体包括:
基于监控视频系统部署场景,采集预设时段间隔的监控视频的关键序列;
将所述关键序列以预设频率进行监控图像的采样;
对所述监控图像进行目标的边界框位置信息进行标注,形成目标的检测数据集;
将所述检测数据集根据第一预设比例划分,以得到第一训练集和第一验证集;
基于深度学习网络,构建初始目标检测模型;
将所述第一训练集对所述初始目标检测模型进行训练,将所述第一验证集对训练完成的初始目标检测模型进行评估,以得到若干权重的初始目标检测模型;
选取权重指标最优的初始目标检测模型作为行为识别的目标检测模型。
根据上述技术方案的一方面,将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果的步骤,具体包括:
将所述序列数据集输入预先训练的行为识别模型中进行推理,以得到若干与所述序列数据集对应的若干初始行为识别结果;
提取所述初始行为结果出现次数最多的初始行为识别结果,作为最终行为识别结果;
判断所述最终行为识别结果是否存在多个;
若是,获取所述最终行为识别结果的平均置信度,输出平均置信度最高的所述最终行为识别结果作为目标的行为识别结果;
若否,输出最终行为识别结果作为目标的行为识别结果。
根据上述技术的一方面,在将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果的步骤之后,还包括:
判断所述监控视频流是否结束;
若是,判定所述监控视频流的行为识别完成;
若否,获取下一个关键序列继续执行。
本发明的第二方面在于提供一种基于监控视频的行为识别系统,基于监控视频的行为识别系统包括:
监控视频流获取模块,用于获取监控视频流;
关键序列获取模块,用于根据所述监控视频流中的视频帧的变化,对所述监控视频流进行处理以获取关键序列;
目标跟踪标记模块,用于将所述关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;
目标序列划分模块,用于根据各个目标的跟踪标记,将所述关键序列划分为每个目标的目标序列;
序列数据集获取模块,用于从所述目标序列中提取若干预设帧数的待测序列并对所述待测序列进行预处理和标准化,以获得每个目标的序列数据集;
行为识别模块,用于将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。
本发明的第三方面在于提供一种可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述的方法的步骤。
本发明的第四方面在于提供一种设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的方法的步骤。
附图说明
图1为本发明第一实施例中基于监控视频的行为识别方法的流程图;
图2为本发明第二实施例中基于监控视频的行为识别系统的结构框图;
附图元器件符号说明:
监控视频流获取模块100,关键序列获取模块200,目标跟踪标记模块300,目标序列划分模块400,序列数据集获取模块500,行为识别模块600;
以下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的若干实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
实施例一
请参阅图1,所示为本发明第一实施例提供的一种基于监控视频的行为识别方法,所述方法包括步骤S10-S16:
步骤S10,获取监控视频流;
其中,该监控视频流可以为监控设备、移动终端、行车记录仪等视频采集装置获取的视频资料。
步骤S11,根据所述监控视频流中的视频帧的变化,对所述监控视频流进行处理以获取关键序列;
其中,根据所述监控视频流中的视频帧的变化,通过帧差法确定所述监控视频流的起始帧和结束帧;
具体为,步骤S110:将所述监控视频流的第一帧视频帧设置为当前帧;
步骤S111:将所述监控视频流的起始帧状态设置为False;
其中,起始帧的状态包括False和True,监控视频流还未定位到时间序列的起始帧,因此将起始帧状态设置为False。
步骤S112:获取所述当前帧开始的预设时间间隔的视频帧以得到对比帧,将所述当前帧与所述对比帧进行灰度化对比,以获得两视频帧之间的运动图像,即帧差图像Dt,,其中Ftc为对比帧,Fts为当前帧;
其中,预设时间间隔收集对比帧,其预设时间间隔表示定位算法的时间敏感度,预设时间间隔设置越小,表示算法对时间越敏感,在本实施例中,获取监控视频流的帧率为25-35FPS,预设时间间隔为20-40FPS,因此,每隔45-75FPS间隔时间对对比帧进行灰度化对比。
其中,分别对当前帧以及对比帧进行灰度化,并用3×3的高斯滤波进行平滑,将分别滤波过后的当前帧与对比帧的图像进行帧差分析,分析当前帧与对比帧之间的运动像素,即帧差图像Dt,,其中Ftc为对比帧,Fts为当前帧;当当前帧与对比帧中存在运动目标时,帧差图像就会出现一定面积的前景像素的图像,当当前帧与对比帧中存在运动目标时无运动目标时,帧差图像将会时全为0的背景图像。
步骤S113:将所述帧差图像进行连通域分析,获取所述帧差图像的连通域;
其中,连通域分析之前需要对帧差图形进行预处理,使用形态学滤波的方法对帧差图形去除干扰,例如可以为相机噪声、过小目标等所带来的干扰像素,在本实施例中,采用5×5的矩形窗,对帧差图像进行一次开操作,再使用8邻域标记前景像素,获取帧差图像中的连通域。
步骤S114:计算所述连通域的面积,
当所述连通域的面积大于预设面积阈值,且起始帧的状态为False时,则标记所述对比帧为所述监控视频流的起始帧且其状态为True,并标记所述对比帧为下一次灰度化对比的当前帧,跳转到步骤S112继续执行;
当所述连通域的面积大于预设面积阈值,且起始帧的状态为True时,则标记所述对比帧为下次灰度化对比的当前帧,跳转到步骤S112继续执行;
当所述连通域的面积小于所述预设面积阈值,且起始帧的状态为False时,则标记所述对比帧为下次灰度化对比的当前帧,跳转到步骤S112继续执行;
当所述连通域的面积小于所述预设面积阈值,且起始帧的状态为True时,则标记所述对比帧为所述监控视频流的结束帧,并标记所述对比帧为当前帧,跳转到步骤S111继续执行。
其中,预设面积阈值是由监控场景的拍摄距离、目标的像素大小决定,在本实施例中,预设面积阈值为250-350像素。
根据所述起始帧和所述结束帧,提取所述监控视频流的时间序列;
其中,当标记了一个时间序列的起始帧和结束帧时,根据起始帧和结束帧,提取监控视频流的时间序列。
计算所述时间序列的长度,并判断所述时间序列的长度是否超过时间阈值;
其中,时间序列的长度计算公式为:
为时间长度,为结束帧的帧数,为起始帧的帧数。其中,时间阈值是根据不同监控场景设置。
若是,判定所述时间序列为关键序列并保存。
若否,判定所述时间序列不是关键序列,放弃保存所述时间序列。
其中,根据时间序列的长度是否超过时间阈值判定时间序列是否为关键序列,避免监控场景的变换带来的干扰信息。采用帧差法提取关键序列,减少了数据的冗余性和干扰性,提高行为识别的效率和准确性,避免了直接对监控视频流进行行为识别导致识别准确率低和实时性差。
步骤S12,将所述关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;
其中,利用预先训练的目标检测模型识别关键序列中的每个目标的边界框位置,再利用DeepSort算法对每个目标标记一个ID并进行跟踪,以对各个目标进行跟踪标记。
需要说明的是,每个目标的信息如下:,其中,T为关节序列的帧数,4为边界框位置信息,其分别为边界框位置的左上角顶点坐标以及边界框的宽度和高度。当某一帧中不存在该目标,则坐标位置设为-1。
另外,预先训练的目标检测模型的训练步骤,具体包括:
基于监控视频系统部署场景,采集预设时段间隔的监控视频的关键序列;
将所述关键序列以预设频率进行监控图像的采样;
对所述监控图像进行目标的边界框位置信息进行标注,形成目标的检测数据集;其中,利用LabelImg等工具标注目标的矩形框位置,形成目标的检测数据集。
将所述检测数据集根据第一预设比例划分,以得到第一训练集和第一验证集;其中,该检测数据按照第一预设比例将数据集随机划分为第一训练集和第一验证集。
基于深度学习网络,构建初始目标检测模型;其中,深度学习网络包括但不限于YOLO系列、RCNN系列,FOCS等。
将所述第一训练集对所述初始目标检测模型进行训练,将所述第一验证集对训练完成的初始目标检测模型进行评估,以得到若干权重的初始目标检测模型;其中,下载深度学习网络所对应模型在COCO数据集选取预训练好的权重作为基础权重,再将第一训练集对所述初始目标检测模型进行训练,利用第一验证集对训练完成的初始目标检测模型进行评估,以得到若干权重的初始目标检测模型。
选取权重指标最优的初始目标检测模型作为行为识别的目标检测模型。在本实施例中,选取AP 0.75指标最优权重的初始目标检测模型作为目标检测模型,以使目标检测模型的目标跟踪标记更为准确。
步骤S13,根据各个目标的跟踪标记,将所述关键序列划分为每个目标的目标序列;
其中,根据每个目标轨迹的起始帧和结束帧之间的时间区间,将关键序列划分为每个目标的目标序列,以对每个目标进行单独的行为识别。
步骤S14,从所述目标序列中提取若干预设帧数的待测序列并对所述待测序列进行预处理和标准化,以获得每个目标的序列数据集;
具体为,从所述目标序列中提取若干预设帧数的待测序列;
其中,在本实施例中,预设帧数可以为连续的64帧。在时间维度上将目标序列分割成若干个帧数为64的连续片段,即待测序列,其计算公式如下:
N为待测序列的数量,T为目标序列的帧数。因此,单个目标的每个待测序列的大小为[64,4]。
对所述待测序列进行预处理,即计算所述待测序列的预设帧数并集的最小外接矩形,并从所述待测序列中提取所述最小外接矩形区域内的图像序列;
对所述图像序列进行标准化处理,即将所述图像序列标准化为若干预设大小的区域的待测数据;
其中,将图像序列标准化为160×160的大小,并从中随机剪裁出5片128×128大小区域的待测数据。
因此,每个目标获取N个待测序列,每个待测序列包括5个大小为[64,3,128,128]的待测数据,其中3为RGB三色显色。
将若干待测序列的若干待测数据进行整合,以获得每个目标的序列数据集。
其中,将待测数据进行整合,每个目标包括N×5个待测数据,以获得每个聚聚的序列数据集。
步骤S15,将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。
其中,通过行为识别模型的行为识别能提高行为识别的效率和性能,避免了直接对监控视频流进行直接识别处理视频周期长,实时性差。
具体为,将所述序列数据集输入预先训练的行为识别模型中进行推理,以得到若干与所述序列数据集对应的若干初始行为识别结果;
其中,预先训练的行为识别模型的训练步骤,具体包括:
收集行为识别数据库中的视频数据,将所述视频数据根据第二预设比例划分为第二训练集和第二验证集;识别数据库可以为公开数据集,如UCF-101,Kinetics和AVA等数据集。若公开数据集的行为类别不满足使用场景,则可自行制作行为识别数据库,在本实施例中,识别数据库为UCF-101公开数据集,第二预设比例为8:2,将视频数据根据第二预设比例随机分配成第二训练集和第二验证集。
需要说明的是,自行制作行为识别数据库的方法包括步骤S10-步骤S13。
基于SlowFast模型构建初始行为识别模型;本实施例基于SlowFast模型构建初始行为识别模型,初始行为识别模型的骨架网络采用ResNet结构,以提高行为识别的效率和性能。SlowFast模型结构为双通道网络,分别为Fast通道和Slow通道。其中,Fast通道主要用于提取高频特征(比如运动信息),其对时间的变化较为敏感;Slow通道主要用于提取目标相对稳定的空间特征(比如形状、纹理等),其可以识别细节信息。SlowFast中,两通道采用CNN进行特征描述,骨干网络为ResNet-50,部分卷积层替换为3D卷积。
将所述第二训练集输入所述初始行为识别模型中以对所述初始行为识别模型进行训练;
其中,一般需要对第二训练集进行标准化和预处理,在本实施例中,将第二训练集随机采样连续的64帧序列,然后对序列中每帧图像进行随机的空间剪裁成128×128大小,使得单条数据的大小为[64, 3, 128, 128]。在此基础上,对数据进行标准化。然后,对初始行为识别模型设置训练超参数,选取合适的优化方法对初始行为识别模型进行训练。在本实施例中,初始行为识别模型采用损失函数,即Softmax交叉熵函数,优化方法采用MomentumSGD,其中动量设置为0.9;训练周期数为60,批大小为16,初始学习率设置为0.001,权重衰减设置为0.0005。训练过程中,保存每一个周期的权重至磁盘,以供后续进行行为识别模型权重选取。
通过所述第二验证集输入训练完成的初始行为识别模型以对所述初始行为识别模型进行评估,以得到若干权重的初始目标检测模型;
选取权重指标最优的初始行为识别模型作为行为识别的行为识别模型。其中,选取ACC最高的权重的初始行为识别模式作为行为识别的行为识别模型。
提取所述初始行为结果出现次数最多的初始行为识别结果,作为最终行为识别结果;
判断所述最终行为识别结果是否存在多个;
若是,获取所述最终行为识别结果的平均置信度,输出平均置信度最高的所述最终行为识别结果作为目标的行为识别结果;
若否,输出最终行为识别结果作为目标的行为识别结果。
在将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果的步骤之后,还包括:
判断所述监控视频流是否结束;
若是,判定所述监控视频流的行为识别完成;
若否,获取下一个关键序列继续执行。相比于现有技术,本实施例提供的基于监控视频的行为识别方法,有益效果在于:通过本发明提供的一种基于监控视频的行为识别方法,具体为,获取监控视频流;根据监控视频流中的视频帧的变化,对监控视频流进行处理以获取关键序列;将关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;根据各个目标的跟踪标记,将关键序列划分为每个目标的目标序列;从目标序列中提取若干预设帧数的待测序列并对待测序列进行预处理和标准化,以获得每个目标的序列数据集;将序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。通过对监控视频流进行关键序列提取以及目标跟踪标记,实现高质量的序列片段提取,减少了数据的冗余性和干扰性,提高行为识别的准确性,避免了直接对监控视频流进行行为识别导致识别准确率低,通过对目标序列进行预处理和标准化以及行为识别模型识别,能提高行为识别的效率和性能,避免了直接对监控视频流进行直接识别处理视频周期长,实时性差,从而解决了普遍存在识别精度低,实时性差的技术问题。
实施例二
请参阅图2,所示为本发明第二实施例提供的一种基于监控视频的行为识别系统,所述系统包括:
监控视频流获取模块100,用于获取监控视频流;
其中,该监控视频流可以为监控设备、移动终端、行车记录仪等视频采集装置获取的视频资料。
关键序列获取模块200,用于根据所述监控视频流中的视频帧的变化,对所述监控视频流进行处理以获取关键序列;
具体为,根据所述监控视频流中的视频帧的变化,通过帧差法确定所述监控视频流的起始帧和结束帧;
根据所述起始帧和所述结束帧,提取所述监控视频流的时间序列;
计算所述时间序列的长度,并判断所述时间序列的长度是否超过时间阈值;
若是,判定所述时间序列为关键序列并保存。
若否,判定所述时间序列不是关键序列,放弃保存所述时间序列。
其中,根据时间序列的长度是否超过时间阈值判定时间序列是否为关键序列,避免监控场景的变换带来的干扰信息。采用帧差法提取关键序列,减少了数据的冗余性和干扰性,提高行为识别的效率和准确性,避免了直接对监控视频流进行行为识别导致识别准确率低和实时性差。
目标跟踪标记模块300,用于将所述关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;
其中,利用预先训练的目标检测模型识别关键序列中的每个目标的边界框位置,再利用DeepSort算法对每个目标标记一个ID并进行跟踪,以对各个目标进行跟踪标记。
目标序列划分模块400,用于根据各个目标的跟踪标记,将所述关键序列划分为每个目标的目标序列;
其中,根据每个目标轨迹的起始帧和结束帧之间的时间区间,将关键序列划分为每个目标的目标序列,以对每个目标进行单独的行为识别。
序列数据集获取模块500,用于从所述目标序列中提取若干预设帧数的待测序列并对所述待测序列进行预处理和标准化,以获得每个目标的序列数据集;
具体为,从所述目标序列中提取若干预设帧数的待测序列;
对所述待测序列进行预处理,即计算所述待测序列的预设帧数并集的最小外接矩形,并从所述待测序列中提取所述最小外接矩形区域内的图像序列;
对所述图像序列进行标准化处理,即将所述图像序列标准化为若干预设大小的区域的待测数据;
将若干待测序列的若干待测数据进行整合,以获得每个目标的序列数据集。
行为识别模块600,用于将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。
将所述序列数据集输入预先训练的行为识别模型中进行推理,以得到若干与所述序列数据集对应的若干初始行为识别结果;
将所述第二训练集输入所述初始行为识别模型中以对所述初始行为识别模型进行训练;
通过所述第二验证集输入训练完成的初始行为识别模型以对所述初始行为识别模型进行评估,以得到若干权重的初始目标检测模型;
选取权重指标最优的初始行为识别模型作为行为识别的行为识别模型。
提取所述初始行为结果出现次数最多的初始行为识别结果,作为最终行为识别结果;
判断所述最终行为识别结果是否存在多个;
若是,获取所述最终行为识别结果的平均置信度,输出平均置信度最高的所述最终行为识别结果作为目标的行为识别结果;
若否,输出最终行为识别结果作为目标的行为识别结果。
其中,该系统还包括监控视频流结束判断模块,具体为:
判断所述监控视频流是否结束;
若是,判定所述监控视频流的行为识别完成;
若否,获取下一个关键序列继续执行。
相比于现有技术,本实施例提供的基于监控视频的行为识别系统,有益效果在于:通过本发明提供的一种基于监控视频的行为识别系统,具体为,获取监控视频流;根据监控视频流中的视频帧的变化,对监控视频流进行处理以获取关键序列;将关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;根据各个目标的跟踪标记,将关键序列划分为每个目标的目标序列;从目标序列中提取若干预设帧数的待测序列并对待测序列进行预处理和标准化,以获得每个目标的序列数据集;将序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。通过对监控视频流进行关键序列提取以及目标跟踪标记,实现高质量的序列片段提取,减少了数据的冗余性和干扰性,提高行为识别的准确性,避免了直接对监控视频流进行行为识别导致识别准确率低,通过对目标序列进行预处理和标准化以及行为识别模型识别,能提高行为识别的效率和性能,避免了直接对监控视频流进行直接识别处理视频周期长,实时性差,从而解决了普遍存在识别精度低,实时性差的技术问题。
本发明第三实施例还提供了一种可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述实施例一所述的方法的步骤。
本发明第四实施例还提供了一种设备,所述设备包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述实施例一所述的方法的步骤。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (8)
1.一种基于监控视频的行为识别方法,其特征在于,所述基于监控视频的行为识别方法包括:
获取监控视频流;
根据所述监控视频流中的视频帧的变化,对所述监控视频流进行处理以获取关键序列,具体包括:
根据所述监控视频流中的视频帧的变化,通过帧差法确定所述监控视频流的起始帧和结束帧;
根据所述起始帧和所述结束帧,提取所述监控视频流的时间序列;
计算所述时间序列的长度,并判断所述时间序列的长度是否超过时间阈值;
其中,时间序列的长度计算公式为:
为时间长度,为结束帧的帧数,为起始帧的帧数;其中,时间阈值是根据不同监控场景设置;
若是,判定所述时间序列为关键序列并保存;
若否,判定所述时间序列不是关键序列,放弃保存所述时间序列;
将所述关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;
根据各个目标的跟踪标记,将所述关键序列划分为每个目标的目标序列;
从所述目标序列中提取若干预设帧数的待测序列并对所述待测序列进行预处理和标准化,以获得每个目标的序列数据集,具体包括:
从所述目标序列中提取若干预设帧数的待测序列,其计算公式如下:
N为待测序列的数量,T为目标序列的帧数,单个目标的每个待测序列的大小为[64,4];
对所述待测序列进行预处理,即计算所述待测序列的预设帧数并集的最小外接矩形,并从所述待测序列中提取所述最小外接矩形区域内的图像序列,每个待测序列包括若干个大小为[64,3,128,128]的待测数据,其中3为RGB三色显色;
对所述图像序列进行标准化处理,即将所述图像序列标准化为若干预设大小的区域的待测数据;
将若干待测序列的若干待测数据进行整合,以获得每个目标的序列数据集;
将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。
2.根据权利要求1所述的基于监控视频的行为识别方法,其特征在于,根据所述监控视频流中的视频帧的变化,通过帧差法确定所述监控视频流的起始帧和结束帧的步骤,具体包括:
步骤S110:将所述监控视频流的第一帧视频帧设置为当前帧;
步骤S111:将所述监控视频流的起始帧状态设置为0;
步骤S112:获取所述当前帧开始的预设时间间隔的视频帧以得到对比帧,将所述当前帧与所述对比帧进行灰度化对比,以获得两视频帧之间的运动图像,即帧差图像Dt,,其中Ftc为对比帧,Fts为当前帧;
步骤S113:将所述帧差图像进行连通域分析,获取所述帧差图像的连通域;
步骤S114:计算所述连通域的面积,
当所述连通域的面积大于预设面积阈值,且起始帧的状态为0时,则标记所述对比帧为所述监控视频流的起始帧且其状态为True,并标记所述对比帧为下一次灰度化对比的当前帧,跳转到步骤S112继续执行;
当所述连通域的面积大于预设面积阈值,且起始帧的状态为True时,则标记所述对比帧为下次灰度化对比的当前帧,跳转到步骤S112继续执行;
当所述连通域的面积小于所述预设面积阈值,且起始帧的状态为0时,则标记所述对比帧为下次灰度化对比的当前帧,跳转到步骤S112继续执行;
当所述连通域的面积小于所述预设面积阈值,且起始帧的状态为True时,则标记所述对比帧为所述监控视频流的结束帧,并标记所述对比帧为当前帧,跳转到步骤S111继续执行。
3.根据权利要求1所述的基于监控视频的行为识别方法,其特征在于,所述预先训练的目标检测模型的训练步骤,具体包括:
基于监控视频系统部署场景,采集预设时段间隔的监控视频的关键序列;
将所述关键序列以预设频率进行监控图像的采样;
对所述监控图像进行目标的边界框位置信息进行标注,形成目标的检测数据集;
将所述检测数据集根据第一预设比例划分,以得到第一训练集和第一验证集;
基于深度学习网络,构建初始目标检测模型;
将所述第一训练集对所述初始目标检测模型进行训练,将所述第一验证集对训练完成的初始目标检测模型进行评估,以得到若干权重的初始目标检测模型;
选取权重指标最优的初始目标检测模型作为行为识别的目标检测模型。
4.根据权利要求3所述的基于监控视频的行为识别方法,其特征在于,将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果的步骤,具体包括:
将所述序列数据集输入预先训练的行为识别模型中进行推理,以得到若干与所述序列数据集对应的若干初始行为识别结果;
提取所述初始行为结果出现次数最多的初始行为识别结果,作为最终行为识别结果;
判断所述最终行为识别结果是否存在多个;
若是,获取所述最终行为识别结果的平均置信度,输出平均置信度最高的所述最终行为识别结果作为目标的行为识别结果;
若否,输出最终行为识别结果作为目标的行为识别结果。
5.根据权利要求1所述的基于监控视频的行为识别方法,其特征在于,在将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果的步骤之后,还包括:
判断所述监控视频流是否结束;
若是,判定所述监控视频流的行为识别完成;
若否,获取下一个关键序列继续执行。
6.一种基于监控视频的行为识别系统,其特征在于,所述基于监控视频的行为识别系统包括:
监控视频流获取模块,用于获取监控视频流;
关键序列获取模块,用于根据所述监控视频流中的视频帧的变化,对所述监控视频流进行处理以获取关键序列,具体包括:
根据所述监控视频流中的视频帧的变化,通过帧差法确定所述监控视频流的起始帧和结束帧;
根据所述起始帧和所述结束帧,提取所述监控视频流的时间序列;
计算所述时间序列的长度,并判断所述时间序列的长度是否超过时间阈值;
其中,时间序列的长度计算公式为:
为时间长度,为结束帧的帧数,为起始帧的帧数;其中,时间阈值是根据不同监控场景设置;
若是,判定所述时间序列为关键序列并保存;
若否,判定所述时间序列不是关键序列,放弃保存所述时间序列;
目标跟踪标记模块,用于将所述关键序列输入预先训练的目标检测模型中进行目标的边界框位置信息检测,以对各个目标进行跟踪标记;
目标序列划分模块,用于根据各个目标的跟踪标记,将所述关键序列划分为每个目标的目标序列;
序列数据集获取模块,用于从所述目标序列中提取若干预设帧数的待测序列并对所述待测序列进行预处理和标准化,以获得每个目标的序列数据集,具体包括:
从所述目标序列中提取若干预设帧数的待测序列,其计算公式如下:
N为待测序列的数量,T为目标序列的帧数,单个目标的每个待测序列的大小为[64,4];
对所述待测序列进行预处理,即计算所述待测序列的预设帧数并集的最小外接矩形,并从所述待测序列中提取所述最小外接矩形区域内的图像序列,每个待测序列包括若干个大小为[64,3,128,128]的待测数据,其中3为RGB三色显色;
对所述图像序列进行标准化处理,即将所述图像序列标准化为若干预设大小的区域的待测数据;
将若干待测序列的若干待测数据进行整合,以获得每个目标的序列数据集;
行为识别模块,用于将所述序列数据集输入预先训练的行为识别模型中,以得到每个目标的行为识别结果。
7.一种可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至5中任意一项所述的方法的步骤。
8.一种设备,其特征在于,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至5任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211598860.0A CN115620212B (zh) | 2022-12-14 | 2022-12-14 | 一种基于监控视频的行为识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211598860.0A CN115620212B (zh) | 2022-12-14 | 2022-12-14 | 一种基于监控视频的行为识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115620212A CN115620212A (zh) | 2023-01-17 |
CN115620212B true CN115620212B (zh) | 2023-04-07 |
Family
ID=84880034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211598860.0A Active CN115620212B (zh) | 2022-12-14 | 2022-12-14 | 一种基于监控视频的行为识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115620212B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385975B (zh) * | 2023-04-18 | 2023-10-27 | 盐城工学院 | 一种基于目标检测的配电房安全监控系统及方法 |
CN116564460B (zh) * | 2023-07-06 | 2023-09-12 | 四川省医学科学院·四川省人民医院 | 一种针对白血病患儿的健康行为监控方法和系统 |
CN117037049B (zh) * | 2023-10-10 | 2023-12-15 | 武汉博特智能科技有限公司 | 基于YOLOv5深度学习的图像内容检测方法及系统 |
CN117196449B (zh) * | 2023-11-08 | 2024-04-09 | 讯飞智元信息科技有限公司 | 一种视频识别方法、系统以及相关装置 |
CN117649537B (zh) * | 2024-01-30 | 2024-04-26 | 浙江省公众信息产业有限公司 | 监控视频对象识别跟踪方法、系统、电子设备及存储介质 |
CN118279790A (zh) * | 2024-03-28 | 2024-07-02 | 深圳市蓝宇飞扬科技有限公司 | Ai视频数字分析方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104639714A (zh) * | 2015-02-15 | 2015-05-20 | 易测智能科技(天津)有限公司 | 手机反应时间的测试方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101715070B (zh) * | 2009-11-16 | 2011-05-04 | 南京邮电大学 | 特定监控视频中的背景自动更新方法 |
CN112418213A (zh) * | 2020-11-06 | 2021-02-26 | 北京航天自动控制研究所 | 一种车辆行驶轨迹识别方法、装置及存储介质 |
CN112580523A (zh) * | 2020-12-22 | 2021-03-30 | 平安国际智慧城市科技股份有限公司 | 行为识别方法、装置、设备及存储介质 |
CN113688797A (zh) * | 2021-09-27 | 2021-11-23 | 江南大学 | 一种基于骨架提取的异常行为识别方法及系统 |
-
2022
- 2022-12-14 CN CN202211598860.0A patent/CN115620212B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104639714A (zh) * | 2015-02-15 | 2015-05-20 | 易测智能科技(天津)有限公司 | 手机反应时间的测试方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115620212A (zh) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115620212B (zh) | 一种基于监控视频的行为识别方法及系统 | |
US9792505B2 (en) | Video monitoring method, video monitoring system and computer program product | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN104303193B (zh) | 基于聚类的目标分类 | |
EP2801078B1 (en) | Context aware moving object detection | |
CN105404847B (zh) | 一种遗留物实时检测方法 | |
CN109145708B (zh) | 一种基于rgb和d信息融合的人流量统计方法 | |
CN105184818B (zh) | 一种视频监控异常行为检测方法及其检测系统 | |
CN111091098B (zh) | 检测模型的训练方法、检测方法及相关装置 | |
CN104794435B (zh) | 一种基于视觉的无人机对地运动目标检测方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
CN113269091A (zh) | 一种面向智慧园区的人员轨迹分析方法、设备及介质 | |
CN110991397B (zh) | 一种行进方向确定方法及相关设备 | |
CN107590486B (zh) | 运动目标识别方法和系统、自行车流量统计方法和设备 | |
CN111723773A (zh) | 遗留物检测方法、装置、电子设备及可读存储介质 | |
CN113762229B (zh) | 一种建筑场地内建筑器材的智能识别方法及系统 | |
CN111738218A (zh) | 人体异常行为识别系统及方法 | |
CN116012949B (zh) | 一种复杂场景下的人流量统计识别方法及系统 | |
CN106557740A (zh) | 一种遥感图像中油库目标的识别方法 | |
CN110633681A (zh) | 一种基于视频的离床检测方法 | |
CN105989615A (zh) | 一种基于多特征融合的行人跟踪方法 | |
CN109859200B (zh) | 一种基于背景分析的低空慢速无人机快速检测方法 | |
Płaczek | A real time vehicle detection algorithm for vision-based sensors | |
JP6893812B2 (ja) | 物体検出装置 | |
CN115719464A (zh) | 一种基于机器视觉的水表耐久性装置漏水监测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |