CN110502988A - 视频中的组群定位与异常行为检测方法 - Google Patents

视频中的组群定位与异常行为检测方法 Download PDF

Info

Publication number
CN110502988A
CN110502988A CN201910637498.5A CN201910637498A CN110502988A CN 110502988 A CN110502988 A CN 110502988A CN 201910637498 A CN201910637498 A CN 201910637498A CN 110502988 A CN110502988 A CN 110502988A
Authority
CN
China
Prior art keywords
video
point
group
density
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910637498.5A
Other languages
English (en)
Inventor
雷俊锋
包振宇
肖进胜
焦陈坤
眭海刚
周景龙
徐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201910637498.5A priority Critical patent/CN110502988A/zh
Publication of CN110502988A publication Critical patent/CN110502988A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

本发明公开了一种视频中的组群异常行为检测算法。首先,获取大量的视频图像数据作为训练样本,用于分析识别组群和异常行为检测;其次,采用基于空洞卷积的神经网络训练人群密度估计模型,得到视频图像人群密度图,并结合聚类方法对密度图进行点聚类,得到组群的位置和大小;再次,对所有的异常检测视频数据集,使用特征提取网络提取其时空特征,获得训练神经网络的输入,将训练样本输入到设置好参数的全连接神经网络,训练该神经网络,直至代价损失小到一定程度且达到最大迭代次数,得到训练好的模型;最后,根据组群识别得到的组群信息作为感兴趣区域,提取测试视频时空特征输入到训练好的异常检测模型,得到视频的异常检测分数。

Description

视频中的组群定位与异常行为检测方法
技术领域
本发明涉及视频图像处理及视频分析领域,具体而言,本发明涉及视频中的组群识别及几类特定异常行为检测方法。
背景技术
视频中的组群异常行为分析在智能监控系统及无人机航拍视频处理中具有非常重大的意义,具有广泛的应用前景。异常检测是计算机视觉领域的研究热点,亦是难点。如何从大量的视频数据中有效的提取所需的信息,并对异常行为及时报警甚至提前预警,将对公共安全领域产生重大影响,不仅能节省大量的人力物力,还能最大限度的保障人们的生命财产安全。而当前的大部分视频监控系统需要人为调取视频数据并分析判断,不仅耗费了大量的资源,还不具有实时性和有效性。因此,重要的是设计一个能自动进行视频组群识别与异常检测的算法,以达到智能预警的目的。
随着计算机技术的发展,基于公共安全的需要,视频中的组群识别与异常行为检测算法受到了广泛的关注,智能异常检测具有广泛的应用前景。
组群的识别有助于获取组群的特性,理解组群的状态,从而有助于完成对视频中人群的异常行为分析。目前,异常行为检测算法主要可以分为两类:第一类是基于正常行为与异常行为模式之间的差异来检测异常的方法。这类方法又可以分为两种:
(1)不需要对行为进行建模的方法。这种方法是通过对行为模式进行聚类,将其中小的聚类标注为异常,在进行异常检测时,将行为与数据库中的正常行为做相似度估计,当相似度差异超过一定阈值时,判定为异常。
(2)构建正常行为模式的数据库,然后再将不符合数据库中行为模式的行为判断为异常。
第二类是对异常行为进行建模的方法。首先获取异常行为的图像序列,然后获取其特征,包括轨迹、形状、速度等特征,然后再通过监督学习构建异常检测模型。这类方法理论是能得到较好的效果,但是获取大量的异常行为数据集很困难,手工进行标注也费时费力。
发明内容
基于标准监督学习的方法,获取大量的异常视频,并对视频进行标注,再训练一个异常检测模型。该算法虽然效果相对较好,但由于现实生活中,很难获得大量的含有异常行为的视频数据集,且对视频进行片段级标注会消耗大量的资源。异常事件发生的概率较小,一般持续时间较短,所以难以获取。针对上述问题,本发明提供了一种视频中的组群异常行为检测方法,在异常行为检测之前,先进行组群识别,获得视频中组群位置及人数;在异常学习过程中,同时对正常行为和异常行为进行学习,且不需要进行片段级的标注,节省大量人力物力。
为了达到上述目的,本发明提供的技术方案是:
步骤(1)获取大量的视频图像数据集;
步骤(2)设计多列空洞卷积神经网络,得到人群密度图;
步骤(3)结合Canopy方法和DBSCAN聚类方法对人群密度图进行点聚类来识别组群,快速得到组群的人数和位置信息;
步骤(4)对所有的视频数据集,将组群位置作为检测的感兴趣区域,使用特征提取神经网络提取其视频时空特征,对提取的时空特征按时间顺序转化为若干个时空特征片段,生成训练样本集和测试样本集;
步骤(5)将训练样本集输入至全连接神经网络;
步骤(6)设置好全连接神经网络的训练参数,利用多实例学习排名损失函数进行训练,直至代价损失减小到一定程度且训练达到迭代最大次数,生成训练模型;
步骤(7)将测试样本集输入至训练好的模型中,输出其对应的异常得分。
进一步的,步骤(2)中的多列空洞卷积神经网络,具体包括:
(2.1)每列子网络包含3个卷积层,其中前两个为空洞卷积层,且每列子网络具有相同的网络结构;
(2.2)每列子网络中使用不同大小的卷积核来适应图像中不同大小的人群;
(2.3)对具有较大卷积核的卷积神经网络(Convolutional Neural Network,CNN)使用较少数量的滤波器;
(2.4)最后把子网络的输出特征图通过1×1的卷积层做线性加权得到人群密度图。
进一步的,步骤(3)中的具体实现方式如下:
(3.1)首先通过Canopy粗聚类方法对密度图进行预聚类:设定的两个距离阈值T1和T2,其中T2<T1;首先从点集中随机选择一个点作为初始类,并在点集中删去该点;之后再随机选择点,计算该点与所有现存类的距离,如果对所有类d>T1,则将该点作为一个新的类中心,并删去该点;若存在类使得d<T2,则将该点归入该类并删去;否则,该点需参与下一次聚类;重复选取点进行以上的操作,直至点集为空;最终将点集生成若干个小簇,每个小簇都含有中心点,记为新的点集Q;
(3.2)利用DBSCAN聚类方法对(3.1)获得的点集Q进行聚类,使Canopy粗聚类得到的小簇进一步划分成合适的大簇,形成最终的组群:预先设定一组参数(r,min_points)来表征样本的聚集程度,若某一个样本点r-邻域中最少存在min_pionts个样本点,则该点为高密度点;若点Q处于高密度点P的r-领域内,则称Q从P出发是直接密度可达的,如果序列P1,P2,…,Pn中所有的点Pi+1到Pi直接密度可达,则称Pn对P1密度可达,若点A,点B都对于点C密度可达,则称A,B密度相连;DBSCAN算法从某一高密度点出发不断寻找密度相连的点,直至该类的区域扩充为包含所有高密度点和边界点的最大区域,从而将紧密聚集在一起的高密度点组成一个类,得到几组不同的组群;
(3.3)得到聚类结果之后,对每一个组群内的密度图进行积分得到该组群的人数,根据密度图聚类的位置在原图上标出人群位置。
进一步的,步骤(4)中使用C3D三维卷积神经网络提取其视频时空特征,该网络具有8个卷积层,5个池化层以及2个全连接层,最后是一个SoftMax输出层,全部3D卷积核大小都是3×3×3,且在时间和空间维度的步幅都为1,第一个池化层的大小为1×2×2,其他所有池化层的核大小都是2×2×2,每个全连接层都有4096个输出单元。
进一步的,步骤(4)中生成训练样本和测试样本的具体实现方式如下,
(a)对步骤(1)中的视频数据集,将其尺寸调整为320x240,帧率调整为30fps,其中视频数据集包含正常视频和异常视频;
(b)对视频数据集中的每一个视频,利用C3D三维卷积神经网络提取时空特征,并将提取到的每一个视频的时空特征按视频时间长度划分为32个时间片段以txt格式保存;
(c)从处理过后的视频特征集中挑选2/3的视频特征作为训练样本集,其中训练样本集中异常视频特征数目占整个数据集异常视频特征总数的2/3,训练样本集中正常视频特征数目占整个数据集正常视频特征总数的2/3,剩余的视频特征作为测试样本集。
进一步的,步骤(5)所述的全连接神经网络结构包括三部分共四层网络,具体包括:
(5.1)第一部分:网络层数,该部分由4个全连接层构成,第一层输入为视频的特征,有4096个维度,含有1024个神经元;第二层为512个神经元;第三层有32个神经元;最后一层有1个神经元,输出异常得分;
(5.2)第二部分:随机失活(dropout),用于设置各全连接层间的dropout值,使检测效果最佳;
(5.3)第三部分:激活函数,第一层、第二层与第三层使用ReLU激活函数,而最后一层使用Sigmoid激活函数。
进一步的,步骤(6)中生成训练模型的具体实现方式如下,
(6.1)将训练样本集输入到全连接网络中进行迭代训练;
(6.2)训练过程中,采用自适应地为各个参数分配不同学习率的Adagrad优化器算法,设定初始学习率,迭代若干次;由于损失函数使用多实例学习排名损失,即学习异常视频与正常视频中的最大异常得分片段,进行排名损失,再加上稀疏性与平滑性约束,其损失函数表示为:
其中Ba表示异常视频组成的正样本包,Bn表示正常视频组成的负样本包,ρa和ρn分别表示异常视频片段和正常视频片段,f(ρa)和f(ρn)则表示预测的相应得分,表示平滑性约束,表示稀疏性约束,其中γ1,γ2分别代表平滑约束系数和稀疏约束系数,n是样本包的个数;表示铰链损失;
(6.3)进行训练,得到一个用于异常行为检测的模型,并输出异常得分。
与现有技术相比,本发明的优点和有益效果:(1)与一般异常行为检测相比,本发明加入了组群这一先验条件,先进行组群识别并只对组群进行异常行为检测,可以提供更多检测信息并提高异常检测效率。
(2)与基于正常行为建模的方法相比,本发明同时学习正常行为和异常行为,针对几类特定异常行为可以得到更好的学习结果。
(3)与基于异常行为建模的算法相比,本发明的不需要对异常视频进行片段级标注,且异常视频不需要整个视频都包含异常行为,只需要其中某个片段存在异常行为即可。本发明对数据集进行视频级标注,让网络基于多实例学习排名模型自动学习异常片段得分,节省人力物力。
附图说明
图1是本发明实施例的整体流程图;
图2是本发明实施例中,组群识别方法的流程示意图;
图3是本发明实施例中,提取视频时空特征的三维卷积神经网络结构示意图;
图4是本发明实施例中学习异常得分的全连接网络结构示意图;
图5是本发明实施例的检测结果示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述,但本发明要求保护的范围并不局限于实施方式表述的范围。
本发明的流程示意图如图1所示,具体包含以下步骤:
步骤(1)获取大量的视频图像数据集,主要来源于个各大数据网站下载,以及其他常用数据集里面截取;
步骤(2)设计了一个多列空洞卷积神经网络,其网络结构如图2所示。使用不同大小的卷积核来提取不同大小人头的特征,得到人群密度图。
步骤(2)中的多列空洞卷积神经网络具体包括:
(2.1)每列子网络使用相同的网络结构,都包含3个卷积层,其中前两个为空洞卷积层。引入空洞卷积保证了输入输出的尺寸一致,同时增加了感受野。空洞卷积核是把紧凑的卷积核拆分开,在膨胀处补上0。例如对3×3网络作空洞率为3的填充,就形成感受野7×7的空洞卷积核。卷积核遍历整幅图像区域,与滑窗中的矩阵进行点积求和运算,其中实际参与计算的只有原卷积核的点,最终逐一得到该层输出值,并作为下一层的输入。
(2.2)子网络中使用不同大小的卷积核来适应图像中不同大小的人群,分别为9×9、7×7和5×5;
(2.3)对具有较大卷积核的CNN使用较少数量的滤波器,可以有效降低计算复杂度。在本网络中,对卷积核为7×7,5×5和3×3的网络在第二层使用32,40,48个滤波器,在第三层中分别使用16,20,24个滤波器;
(2.3)最后把子网络的输出特征图通过1×1的卷积层做线性加权得到人群密度图。
步骤(3)结合Canopy方法和DBSCAN聚类方法对密度图进行点聚类来识别组群,快速得到组群的人数和位置信息。
步骤(3)中的快速组群识别方法具体包括:
(3.1)首先通过Canopy粗聚类方法对密度图进行预聚类。设定的两个距离阈值T1和T2,其中T2<T1。首先从点集中随机选择一个点作为初始类,并在点集中删去该点。之后再随机选择点,计算该点与所有现存类的距离,如果对所有类d>T1,则将该点作为一个新的类中心,并删去该点;若存在类使得d<T2,则将该点归入该类并删去;否则,该点需参与下一次聚类。重复选取点进行以上的操作,直至点集为空。Canopy粗聚类的结果将点集生成许多小簇,每个小簇都含有中心点,从而得到新的点集Q,用于下一步的DBSCAN聚类。
(3.2)DBSCAN聚类方法通过对上一步的点集Q进行聚类,使Canopy粗聚类得到的小簇进一步划分成合适的大的簇,形成最终的组群。DBSCAN通过预先设定一组参数(r,min_points)来表征样本的聚集程度,若某一个样本点r-邻域中最少存在min_pionts个样本点,则该点为高密度点。若点Q处于高密度点P的r-领域内,则称Q从P出发是直接密度可达的。如果序列P1,P2,…,Pn中所有的点Pi+1到Pi直接密度可达,则称Pn对P1密度可达。若点A,点B都对于点C密度可达,则称A,B密度相连。DBSCAN算法从某一高密度点出发不断寻找密度相连的点,直至该类的区域扩充为包含所有高密度点和边界点的最大区域,从而将紧密聚集在一起的高密度点组成一个类,得到几组不同的组群。
(3.3)得到聚类结果之后,我们对每一个组群内的密度图进行积分得到该组群的人数,根据密度图聚类的位置在原图上标出人群位置。
步骤(4)对所有的视频数据集,将组群位置作为检测的感兴趣区域,使用C3D三维卷积神经网络提取其视频时空特征,其网络结构如图3所示。该网络具有8个卷积层,5个池化层以及2个全连接层,最后是一个SoftMax输出层。全部3D卷积核大小都是3×3×3,且在时间和空间维度的步幅都为1,各卷积层的滤波器数量都在框中表示,池化层分别为1到5。除了第一个池化层,其他所有池化层的核大小都是2×2×2,第一个池化层的和大小为1×2×2。每个全连接层都有4096个输出单元。提取C3D特征时,把视频分成16帧长的剪辑片段,两个连续的剪辑片段之间有8帧的重叠,将剪辑片段输入C3D网络来提取全连接FC6层的激活,FC6层激活被平均为4096维的视频描述符并通过L2规范化;然后对提取的时空特征转化为若干个特征片段,生成训练样本集和测试样本集。
步骤(4)所述的对视频数据集提取时空特征生成训练样本集和测试样本集,通过如下步骤实现:
(4.1)步骤(1)中的视频数据集包含了较多的场景,主要是由视频中捕捉真实环境下的场景。数据集包含正常视频和异常视频,异常视频中,某个片段存在异常行为;
(4.2)对步骤(1)中的视频数据集,将其尺寸调整为320x240,帧率调整为30fps。为了能够有效的学习到异常的视频片段,对视频数据集中的每一个视频提取时空特征,并将提取到的每一个视频的时空特征按视频时间长度划分为32个时间片段以txt格式保存;
(4.3)从处理过后的视频特征集中挑选2/3的视频特征作为训练样本集,其中训练样本集中异常视频特征数目占整个数据集异常视频特征总数的2/3,训练样本集中正常视频特征数目占整个数据集正常视频特征总数的2/3,剩余的视频特征作为测试样本集。
步骤(5)将txt格式的训练样本输入至全连接神经网络,本算法全连接神经网络的结构如图4所示;
步骤(5)所述的全连接神经网络结构包括三部分共四层网络,具体包括:
(5.1)第一部分:网络层数。该部分由4个全连接层构成,第一层输入为视频的特征,有4096个维度,含有1024个神经元;第二层为512个神经元;第三层有32个神经元;最后一层有1个神经元,输出异常得分;
(5.2)第二部分:dropout。该部分功能主要为防止训练过拟合,各层间的dropout值为0.6,其与网络层数决定了模型的检测效果。实验证明使用4层网络,dropout值为0.6达到最佳效果;
(5.3)第三部分:激活函数。不同的激活函数,适用的场景有所差异,在该异常检测算法中,第一层、第二层与第三层使用了ReLU激活函数,而最后一层使用了Sigmoid激活函数。
步骤(6)设置好网络的训练使用参数,利用多实例学习排名损失函数训练全连接神经网络,直至代价损失减小到一定程度且训练达到迭代最大次数,生成训练模型;
步骤(6)中生成训练模型的具体实现方式如下,
(6.1)网络结构确定以后,将训练样本集输入到全连接网络中进行迭代训练;
(6.2)训练过程中,采用Adagrad优化器,初始学习率为0.001,迭代次数为2万次。由于损失函数使用多实例学习排名损失,即学习异常视频与正常视频中的最大异常得分片段,进行排名损失,再加上稀疏性与平滑性约束;
损失函数可以表示为:
上述损失函数中Ba表示异常视频组成的正样本包,Bn表示正常视频组成的负样本包,ρa和ρn分别表示异常视频片段和正常视频片段,f(ρa)和f(ρn)则表示预测的相应得分,表示平滑性约束,表示稀疏性约束,其中γ1,γ2分别代表平滑约束系数和稀疏约束系数,γ1越大,对视频片段的平滑性要求越高,相邻包的差异应当较小;γ2越大,视频的稀疏性要求越大,正样本包的得分应当较低;n是样本包的个数。表示铰链损失;
(6.3)进行训练,得到一个用于异常行为检测的模型,该模型输入测试视频片段对应的时空特征,输出异常得分;
步骤(7)将测试视频对应的时空特征输入至训练好的模型中,输出视频的异常得分,图5为本发明算法的异常行为检测结果。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (7)

1.视频中的组群定位与异常行为检测算法,其特征在于,具体包括如下步骤:
步骤(1)获取大量的视频图像数据集;
步骤(2)设计多列空洞卷积神经网络,得到人群密度图;
步骤(3)结合Canopy方法和DBSCAN聚类方法对人群密度图进行点聚类来识别组群,快速得到组群的人数和位置信息;
步骤(4)对所有的视频数据集,将组群位置作为检测的感兴趣区域,使用特征提取神经网络提取其视频时空特征,对提取的时空特征按时间顺序转化为若干个时空特征片段,生成训练样本集和测试样本集;
步骤(5)将训练样本集输入至全连接神经网络;
步骤(6)设置好全连接神经网络的训练参数,利用多实例学习排名损失函数进行训练,直至代价损失减小到一定程度且训练达到迭代最大次数,生成训练模型;
步骤(7)将测试样本集输入至训练好的模型中,输出其对应的异常得分。
2.如权利要求1所述的视频中的组群定位与异常行为检测算法,其特征在于:步骤(2)中的多列空洞卷积神经网络,具体包括:
(2.1)每列子网络包含3个卷积层,其中前两个为空洞卷积层,且每列子网络具有相同的网络结构;
(2.2)每列子网络中使用不同大小的卷积核来适应图像中不同大小的人群;
(2.3)对具有较大卷积核的卷积神经网络(Convolutional Neural Network,CNN)使用较少数量的滤波器;
(2.4)最后把子网络的输出特征图通过1×1的卷积层做线性加权得到人群密度图。
3.如权利要求1所述的视频中的组群定位与异常行为检测算法,其特征在于:步骤(3)中的具体实现方式如下:
(3.1)首先通过Canopy粗聚类方法对密度图进行预聚类:设定的两个距离阈值T1和T2,其中T2<T1;首先从点集中随机选择一个点作为初始类,并在点集中删去该点;之后再随机选择点,计算该点与所有现存类的距离,如果对所有类d>T1,则将该点作为一个新的类中心,并删去该点;若存在类使得d<T2,则将该点归入该类并删去;否则,该点需参与下一次聚类;重复选取点进行以上的操作,直至点集为空;最终将点集生成若干个小簇,每个小簇都含有中心点,记为新的点集Q;
(3.2)利用DBSCAN聚类方法对(3.1)获得的点集Q进行聚类,使Canopy粗聚类得到的小簇进一步划分成合适的大簇,形成最终的组群:预先设定一组参数(r,min_points)来表征样本的聚集程度,若某一个样本点r-邻域中最少存在min_pionts个样本点,则该点为高密度点;若点Q处于高密度点P的r-领域内,则称Q从P出发是直接密度可达的,如果序列P1,P2,…,Pn中所有的点Pi+1到Pi直接密度可达,则称Pn对P1密度可达,若点A,点B都对于点C密度可达,则称A,B密度相连;DBSCAN算法从某一高密度点出发不断寻找密度相连的点,直至该类的区域扩充为包含所有高密度点和边界点的最大区域,从而将紧密聚集在一起的高密度点组成一个类,得到几组不同的组群;
(3.3)得到聚类结果之后,对每一个组群内的密度图进行积分得到该组群的人数,根据密度图聚类的位置在原图上标出人群位置。
4.根据权利要求1所述的视频中的组群异常行为检测算法,其特征在于:步骤(4)中使用C3D三维卷积神经网络提取其视频时空特征,该网络具有8个卷积层,5个池化层以及2个全连接层,最后是一个SoftMax输出层,全部3D卷积核大小都是3×3×3,且在时间和空间维度的步幅都为1,第一个池化层的大小为1×2×2,其他所有池化层的核大小都是2×2×2,每个全连接层都有4096个输出单元。
5.根据权利要求4所述的视频中的组群异常行为检测算法,其特征在于:步骤(4)中生成训练样本和测试样本的具体实现方式如下,
(a)对步骤(1)中的视频数据集,将其尺寸调整为320x240,帧率调整为30fps,其中视频数据集包含正常视频和异常视频;
(b)对视频数据集中的每一个视频,利用C3D三维卷积神经网络提取时空特征,并将提取到的每一个视频的时空特征按视频时间长度划分为32个时间片段以txt格式保存;
(c)从处理过后的视频特征集中挑选2/3的视频特征作为训练样本集,其中训练样本集中异常视频特征数目占整个数据集异常视频特征总数的2/3,训练样本集中正常视频特征数目占整个数据集正常视频特征总数的2/3,剩余的视频特征作为测试样本集。
6.根据权利要求5所述的视频中的组群异常行为检测算法,其特征在于:步骤(5)所述的全连接神经网络结构包括三部分共四层网络,具体包括:
(5.1)第一部分:网络层数,该部分由4个全连接层构成,第一层输入为视频的特征,有4096个维度,含有1024个神经元;第二层为512个神经元;第三层有32个神经元;最后一层有1个神经元,输出异常得分;
(5.2)第二部分:随机失活(dropout),用于设置各全连接层间的dropout值,使检测效果最佳;
(5.3)第三部分:激活函数,第一层、第二层与第三层使用ReLU激活函数,而最后一层使用Sigmoid激活函数。
7.根据权利要求6所述的视频中的异常行为检测算法,其特征在于:步骤(6)中生成训练模型的具体实现方式如下,
(6.1)将训练样本集输入到全连接网络中进行迭代训练;
(6.2)训练过程中,采用自适应地为各个参数分配不同学习率的Adagrad优化器算法,设定初始学习率,迭代若干次;由于损失函数使用多实例学习排名损失,即学习异常视频与正常视频中的最大异常得分片段,进行排名损失,再加上稀疏性与平滑性约束,其损失函数表示为:
其中Ba表示异常视频组成的正样本包,Bn表示正常视频组成的负样本包,ρa和ρn分别表示异常视频片段和正常视频片段,f(ρa)和f(ρn)则表示预测的相应得分,表示平滑性约束,表示稀疏性约束,其中γ1,γ2分别代表平滑约束系数和稀疏约束系数,n是样本包的个数;表示铰链损失;
(6.3)进行训练,得到一个用于异常行为检测的模型,并输出异常得分。
CN201910637498.5A 2019-07-15 2019-07-15 视频中的组群定位与异常行为检测方法 Pending CN110502988A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910637498.5A CN110502988A (zh) 2019-07-15 2019-07-15 视频中的组群定位与异常行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910637498.5A CN110502988A (zh) 2019-07-15 2019-07-15 视频中的组群定位与异常行为检测方法

Publications (1)

Publication Number Publication Date
CN110502988A true CN110502988A (zh) 2019-11-26

Family

ID=68585287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910637498.5A Pending CN110502988A (zh) 2019-07-15 2019-07-15 视频中的组群定位与异常行为检测方法

Country Status (1)

Country Link
CN (1) CN110502988A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160117A (zh) * 2019-12-11 2020-05-15 青岛联合创智科技有限公司 一种基于多示例学习建模的异常行为检测方法
CN111291690A (zh) * 2020-02-17 2020-06-16 深圳市联合视觉创新科技有限公司 路线规划方法、路线规划装置、机器人及介质
CN111709411A (zh) * 2020-08-20 2020-09-25 深兰人工智能芯片研究院(江苏)有限公司 基于半监督学习的视频异常检测方法和装置
CN111738054A (zh) * 2020-04-17 2020-10-02 北京理工大学 一种基于时空自编码器网络和时空cnn的行为异常检测方法
CN112016403A (zh) * 2020-08-05 2020-12-01 中山大学 一种视频异常事件检测方法
CN112115769A (zh) * 2020-08-05 2020-12-22 西安交通大学 一种基于视频的无监督稀疏人群异常行为检测算法
CN112200081A (zh) * 2020-10-10 2021-01-08 平安国际智慧城市科技股份有限公司 异常行为识别方法、装置、电子设备及存储介质
CN112258496A (zh) * 2020-11-02 2021-01-22 郑州大学 一种基于全卷积神经网络的地下排水管道病害分割方法
CN112489043A (zh) * 2020-12-21 2021-03-12 无锡祥生医疗科技股份有限公司 心脏疾病检测装置、模型训练方法及存储介质
CN113065606A (zh) * 2021-04-19 2021-07-02 北京石油化工学院 一种基于轻量级深度学习的异常点位检测方法及系统
CN113255430A (zh) * 2021-03-31 2021-08-13 中交第二公路勘察设计研究院有限公司 基于深度学习的视频中人群分布检测与计数方法
CN113360310A (zh) * 2021-06-02 2021-09-07 北京百度网讯科技有限公司 网络模型异常的处理方法、装置、设备和存储介质
CN113516058A (zh) * 2021-06-18 2021-10-19 北京工业大学 直播视频群组异常活动检测方法、装置、电子设备及介质
CN113627386A (zh) * 2021-08-30 2021-11-09 山东新一代信息产业技术研究院有限公司 一种视觉视频异常检测方法
CN114912528A (zh) * 2022-05-16 2022-08-16 重庆工业职业技术学院 一种群体异常行为检测系统
CN116682043A (zh) * 2023-06-13 2023-09-01 西安科技大学 基于SimCLR无监督深度对比学习异常视频清洗方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203331A (zh) * 2016-07-08 2016-12-07 苏州平江历史街区保护整治有限责任公司 一种基于卷积神经网络的人群密度估算方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203331A (zh) * 2016-07-08 2016-12-07 苏州平江历史街区保护整治有限责任公司 一种基于卷积神经网络的人群密度估算方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DU TRAN, ET AL.: "Learning Spatiotemporal Features with 3D Convolutional Networks", 《IN PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
WAQAS SULTANI, ET AL.: "Real-world Anomaly Detection in Surveillance Videos", 《IN PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
YINGYING ZHANG, ET AL.: "Single-Image Crowd Counting via Multi-Column Convolutional Neural Network", 《IN PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
YUHONG LI, ET AL.: "CSRNet: Dilated Convolutional Neural Networks for Understanding the Highly Congested Scenes", 《IN PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160117A (zh) * 2019-12-11 2020-05-15 青岛联合创智科技有限公司 一种基于多示例学习建模的异常行为检测方法
CN111291690A (zh) * 2020-02-17 2020-06-16 深圳市联合视觉创新科技有限公司 路线规划方法、路线规划装置、机器人及介质
CN111291690B (zh) * 2020-02-17 2023-12-05 深圳市联合视觉创新科技有限公司 路线规划方法、路线规划装置、机器人及介质
CN111738054A (zh) * 2020-04-17 2020-10-02 北京理工大学 一种基于时空自编码器网络和时空cnn的行为异常检测方法
CN112016403B (zh) * 2020-08-05 2023-07-21 中山大学 一种视频异常事件检测方法
CN112115769A (zh) * 2020-08-05 2020-12-22 西安交通大学 一种基于视频的无监督稀疏人群异常行为检测算法
CN112016403A (zh) * 2020-08-05 2020-12-01 中山大学 一种视频异常事件检测方法
CN111709411A (zh) * 2020-08-20 2020-09-25 深兰人工智能芯片研究院(江苏)有限公司 基于半监督学习的视频异常检测方法和装置
CN112200081A (zh) * 2020-10-10 2021-01-08 平安国际智慧城市科技股份有限公司 异常行为识别方法、装置、电子设备及存储介质
CN112258496A (zh) * 2020-11-02 2021-01-22 郑州大学 一种基于全卷积神经网络的地下排水管道病害分割方法
CN112489043A (zh) * 2020-12-21 2021-03-12 无锡祥生医疗科技股份有限公司 心脏疾病检测装置、模型训练方法及存储介质
CN113255430A (zh) * 2021-03-31 2021-08-13 中交第二公路勘察设计研究院有限公司 基于深度学习的视频中人群分布检测与计数方法
CN113065606B (zh) * 2021-04-19 2023-11-17 北京石油化工学院 一种基于轻量级深度学习的异常点位检测方法及系统
CN113065606A (zh) * 2021-04-19 2021-07-02 北京石油化工学院 一种基于轻量级深度学习的异常点位检测方法及系统
CN113360310A (zh) * 2021-06-02 2021-09-07 北京百度网讯科技有限公司 网络模型异常的处理方法、装置、设备和存储介质
CN113360310B (zh) * 2021-06-02 2023-08-04 北京百度网讯科技有限公司 网络模型异常的处理方法、装置、设备和存储介质
CN113516058A (zh) * 2021-06-18 2021-10-19 北京工业大学 直播视频群组异常活动检测方法、装置、电子设备及介质
CN113627386A (zh) * 2021-08-30 2021-11-09 山东新一代信息产业技术研究院有限公司 一种视觉视频异常检测方法
CN114912528A (zh) * 2022-05-16 2022-08-16 重庆工业职业技术学院 一种群体异常行为检测系统
CN116682043A (zh) * 2023-06-13 2023-09-01 西安科技大学 基于SimCLR无监督深度对比学习异常视频清洗方法
CN116682043B (zh) * 2023-06-13 2024-01-26 西安科技大学 基于SimCLR无监督深度对比学习异常视频清洗方法

Similar Documents

Publication Publication Date Title
CN110502988A (zh) 视频中的组群定位与异常行为检测方法
CN110689086B (zh) 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN109919031B (zh) 一种基于深度神经网络的人体行为识别方法
CN105512289B (zh) 基于深度学习和哈希的图像检索方法
CN110084151B (zh) 基于非局部网络深度学习的视频异常行为判别方法
CN103578119B (zh) 基于超像素的Codebook动态场景中目标检测方法
CN109920501A (zh) 基于卷积神经网络和主动学习的电子病历分类方法及系统
CN104361363B (zh) 深度反卷积特征学习网络、生成方法及图像分类方法
CN101447020B (zh) 基于直觉模糊的色情图像识别方法
CN106951825A (zh) 一种人脸图像质量评估系统以及实现方法
CN107341452A (zh) 基于四元数时空卷积神经网络的人体行为识别方法
CN110046671A (zh) 一种基于胶囊网络的文本分类方法
CN108875708A (zh) 基于视频的行为分析方法、装置、设备、系统及存储介质
CN106503687A (zh) 融合人脸多角度特征的监控视频人物身份识别系统及其方法
CN110516536A (zh) 一种基于时序类别激活图互补的弱监督视频行为检测方法
CN109902736A (zh) 一种基于自动编码器构建特征表示的肺结节图像分类方法
CN108491766B (zh) 一种端到端的基于深度决策森林的人群计数方法
CN109657947A (zh) 一种面向企业行业分类的异常检测方法
CN109218134B (zh) 一种基于神经风格迁移的测试用例生成系统
CN104717468B (zh) 基于集群轨迹分类的集群场景智能监控方法及系统
CN110046550A (zh) 基于多层特征学习的行人属性识别系统及方法
CN110188653A (zh) 基于局部特征聚合编码和长短期记忆网络的行为识别方法
CN109376613A (zh) 基于大数据和深度学习技术的视频智能监控系统
CN110532862B (zh) 基于门控融合单元的特征融合组群识别方法
CN111488805B (zh) 一种基于显著性特征提取的视频行为识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191126

RJ01 Rejection of invention patent application after publication