CN104144328A - 一种智能视频监控方法 - Google Patents

一种智能视频监控方法 Download PDF

Info

Publication number
CN104144328A
CN104144328A CN201410372651.3A CN201410372651A CN104144328A CN 104144328 A CN104144328 A CN 104144328A CN 201410372651 A CN201410372651 A CN 201410372651A CN 104144328 A CN104144328 A CN 104144328A
Authority
CN
China
Prior art keywords
data
lambda
model
frame
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410372651.3A
Other languages
English (en)
Other versions
CN104144328B (zh
Inventor
陈国顺
杨毅
夏明飞
牛刚
吕贵州
张东
韩宁
牛满科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
63908 Troops of PLA
Original Assignee
63908 Troops of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 63908 Troops of PLA filed Critical 63908 Troops of PLA
Priority to CN201410372651.3A priority Critical patent/CN104144328B/zh
Publication of CN104144328A publication Critical patent/CN104144328A/zh
Application granted granted Critical
Publication of CN104144328B publication Critical patent/CN104144328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种智能视频监控方法,包括:a)采集和保存共计T秒的视频数据信号和音频数据信号,b)将图像数据划分为训练图像数据和测试图像数据以及将音频数据划分为训练音频数据和测试音频数据;c)判断音频数据中是否包含异常音频数据;d)对全部图像数据以及全部音频数据分别进行预处理;e)对经预处理的全部训练图像数据建立全局背景模型;f)对经预处理后的全部音频数据中的异常音频数据建立新的高斯混合模型;g)将步骤e得到的全局背景模型参数和步骤f得到的高斯混合模型参数融合构建一个联合决策模型,用该联合决策模型对预处理后的全部测试数据进行异常状态判别。

Description

一种智能视频监控方法
技术领域
本发明属于视频监控领域,具体涉及一种智能视频监控方法。
背景技术
随着计算机网络与通信技术、多媒体技术的快速发展,很多犯罪活动的预谋和策划都是靠网络来联系和实现的,对网络通信的监控是安防监控的重要组成部分。视频监控以直观、方便、可记录、可查询等特点日益受到重视,越来越多的视频监控系统应用于安全领域。
现有的视频监控系统存在一个很重要的缺陷:对视频监控内容只能靠人来判断。视频监控工作劳动强度很大,它对工作人员的注意力、警惕性、特别对异常的反应能力要求很高,一般监控过程中发生的失物都是由注意力不集中造成的。现有的视频监控多用于事后处理,即调查取证,并没有充分发挥视频监控系统的主动性。
伴随着网络技术数字视频技术的飞速发展,监控技术正向智能化方向不断前进。人们希望监控以计算机为核心,融合多媒体技术、计算机技术和网络技术,实现自动监控和异常报警,能够替代人工值守,成为真正意义上的智能监控。
智能视频监控技术是计算机视觉和模式识别技术在视频监控领域的应用,是网络化视频监控领域的最前沿的应用模式之一。以数字视频监控系统为基础,借助于计算机的强大的数据处理功能,对海量视频数据进行分析,过滤用户不关心的信息,仅为监控者提供有用的关键信息。智能视频监控系统以普通的网络视频监控为基础,除了具备普通监控系统的功能外,最大的优势是能自动地全天候进行实时分析报警,彻底改变了以往完全由安保人员对监控画面进行监视和分析的模式。智能视频监控主要用在高级住宅小区、银行、超市、仓库、博物馆、监狱等需要进行长期监控的地点。
智能视频监控技术的核心内容是对特定目标的自动检测、跟踪与行为识别,包括运动目标检测、目标跟踪、目标分类、行为识别等4个方面内容。例如对人体的跟踪:首先从实时图像序列(即视频)中检测出运动物体,再判定运动物体中的人体,然后跟踪人体的运动轨迹,并分析和选定有异常行为的人,如在车站,机场等遗留包裹的人,最后对行为异常的人进行持续跟踪。
其中运动目标检测和目标跟踪属于视觉低级处理部分,而目标分类和行为识别则属于中级和高级处理。对于视觉低级处理部分,运动目标检测与目标跟踪的视频智能分析技术已经取得了一定的成果,目前市场上已经有相应的产品,已经在实际中得到较为广泛的应用。而对于目标分类和行为识别的技术研究发展相对缓慢。
现有的行为识别方法包括模板匹配方法和状态空间方法。
模板匹配方法采用模板匹配技术的行为识别方法,首先将图像序列转换为一组静态形状模式,然后在识别过程中,和预先存储的行为标本相比较。模板匹配技术的优点是计算复杂度低、实现简单,然而其缺点是:对于噪声和运动时间间隔的变化是敏感的。
状态空间方法基于状态空间模型的方法定义每个静态姿势作为一个状态,这些状态之间通过某种概率联系起来。任何运动序列可以看作为这些静态姿势的不同状态之间的一次遍历过程,在这些遍历期间计算联合概率,其最大值被选择作为分类行为的标准。目前,状态空间模型已经被广泛地应用于时间序列的预测、估计和检测,最有代表性的是HMM模型。每个状态中可用于识别的特征包括点、线或二维小区域。状态空间方法虽然能克服模板匹配的缺点,但通常会涉及到复杂的迭代运算,运算数据量大。
发明内容
为了解决现有技术的缺点,本发明提供了一种智能视频监控方法,其包括:
a)同步采集共计T秒的视频数据信号和音频数据信号,并将视频数据信号按照连续多帧图像数据的形式保存,将音频数据信号按照wav的形式保存;
b)将图像数据划分为训练图像数据和测试图像数据以及将音频数据划分为训练音频数据和测试音频数据;
c)判断训练音频数据和测试音频数据中是否包含异常音频数据,如果有,提取出异常音频数据并另行保存,否则进行下一步;
d)对全部训练图像数据和测试图像数据以及包括异常音频数据在内的全部训练音频数据和测试音频数据分别进行预处理,并且对预处理后的全部训练图像数据和测试图像数据进行检测和提取所有运动目标帧像素,对预处理后的音频数据提取音频特征;
e)对经预处理后及运动目标帧像素提取后的全部训练图像数据建立全局背景模型;
f)对经预处理后及音频特征提取后的全部训练音频数据中的异常音频数据建立新的高斯混合模型;
g)将步骤e得到的全局背景模型参数和步骤f得到的高斯混合模型参数融合构建一个联合决策模型,用该联合决策模型对预处理后的全部测试数据进行异常状态判别。
本发明的方法解决了背景技术中列出的现有技术的缺点,即对于噪声和运动时间间隔的变化敏感和运算数据量大等问题,自动分析视频监控系统中的连续视频数据并识别异常目标,视频监控异常行为分析的效率和准确率高,实现自动监控和异常报警,该方法不局限于任何已知的视频监控系统,也可以是任何基于视频的目标行为识别系统,通用性强。
附图说明
图1是本发明的智能视频监控方法的流程图。
具体实施方式
本发明提供了一种智能视频监控方法,其包括步骤:
步骤1:同步采集共计T秒的视频数据信号和音频数据信号,并将视频数据信号按照连续多帧图像数据的形式保存,将音频数据信号按照wav的形式保存。
其中,假如采集到的视频数据信号为多帧RGB彩色图像信号,则利用如下公式:灰度值=0.30R+0.59G+0.11B,将全部彩色图像信号转换为灰度图像信号,其中R表示彩色图像的红色分量,G表示彩色图像的绿色分量,B表示彩色图像的蓝色分量。
这里所述的T秒,可以根据实际应用情况来确定,例如T为100秒。
步骤2:将图像数据划分为训练图像数据和测试图像数据以及将音频数据划分为训练音频数据和测试音频数据。
对于T秒连续的图像数据,选取从头开始共计T1秒的连续图像数据作为训练图像数据,共计Ntrain帧,其中0<T1<T/2,其它图像数据作为测试图像数据,共计Ntest帧。同样的,对于T秒连续的音频数据,选取从头开始也为T1秒的连续音频数据作为训练音频数据,共计Ntrain帧,其中0<T1<T/2,其它音频数据作为测试音频数据,共计Ntest帧。
步骤3:判断训练音频数据和测试音频数据中是否包含异常音频数据,如果有,提取出异常音频数据并另行保存,否则进行下一步。
具体的,通过人主观测听所有训练音频数据和测试音频数据,当训练音频数据和/或测试音频数据中包含异常音频数据,例如突发枪声、人尖叫声、汽车报警声等,需要将训练音频数据中的异常音频数据提取出来并另行保存,其总帧数为N'train;将测试音频数据中的异常音频数据提取出来并另行保存,其总帧数为N'test
步骤4:对全部训练图像数据和测试图像数据以及包括异常音频数据在内的全部训练音频数据和测试音频数据分别进行预处理,并且对预处理后的全部训练图像数据和测试图像数据进行检测和提取所有运动目标帧像素,对预处理后的音频数据提取音频特征。
其中,对图像数据的预处理主要包括降噪处理。
降噪处理采用基于空间域的中值滤波方法,将每帧灰度图像的每个像素对应的灰度值用该像素邻域中的所有像素的中值替换,此处邻域定义为以某个像素为中心点的方形邻域,其尺寸为3,即此像素为中心的9个像素点组成该邻域,对9个像素的灰度值进行排序并获得中值,将中心像素的灰度用中值替换。
对预处理之后的所有训练图像数据和测试图像数据,检测每个图像是否存在运动目标帧,主要采用背景减法,将当前帧之前的连续100帧灰度图像(若不够100帧,则按照实际帧数)的平均值作为当前帧的背景图像,将当前帧和其背景图像相减,得到背景减后的帧间差灰度矩阵,如果此矩阵的全部数值的绝对值的和小于某个自行设定的阈值,则认为当前帧中无运动目标;如果此矩阵的全部数值的绝对值的和大于所述设定的阈值,则认为当前帧中有运动目标。此处自行设定的阈值可以是0.01*当前帧像素个数之和。
如果图像数据中存在运动目标帧,则提取该运动目标帧的像素,方法是将上述运动目标帧对应的背景减后的帧间差灰度矩阵中其数值大于所述设定的阈值的值用1替代,将其他小于所述设定的阈值的值用0替代,从而获得一个二值的帧间差矩阵,每个帧间差矩阵作为对应图像的运动目标帧像素。
对音频数据的预处理主要包括预加重、分帧加窗、和端点检测。
预加重的目的是提升高频部分,使得信号变得平坦,一般采用一阶滤波器x(n)=x'(n)-μ*x'(n-1)实现,其中x'(n)为输入的音频时域信号,n为时间序列,μ=0.99,x(n)为预加重后输出的音频时域信号。
分帧是将预加重后的音频信号按照一定的帧长进行提取,一般帧长为20ms,帧移为10ms,这里加窗采用矩形窗。
端点检测主要用来判断音频数据信号是否是语音信号,利用短时能量和短时过零率两个特征进行计算来判断,其计算方法为:
设音频时域信号为x(n),其中n为离散时间序列,加窗进行分帧处理后得到的第n帧语音信号表示为xn(m),其中m为离散时间序列,且有xn(m)=w(m)*x(n+m),其中为矩形加窗,N为帧长。
则短时能量计算公式为:
E n = Σ m = 0 N - 1 x n 2 ( m )
其中xn(m)为第n帧语音信号,En为短时能量,m为离散时间序列,N为帧长。
短时过零率计算公式为
Z n = 1 2 Σ m = 0 N - 1 | sgn [ x n ( m ) ] - sgn [ x n ( m - 1 ) ] |
其中sgn[]是符号函数,即:
sgn [ x ] = 1 , x &GreaterEqual; 0 - 1 , x < 0 ,
第m时刻的语音信号为xn(m),第m-1时刻的语音信号为xn(m-1),Zn为短时过零率。
当某帧信号短时能量小于某个自行设定的短时能量阈值、且短时过零率也小于某个自行设定的短时过零率阈值时,则判断这一帧不是语音信号,否则判断为是语音信号。在这里,自行设定的短时能量阈值为40,自行设定的短时过零率阈值为20。
音频特征提取主要是提取梅尔频率倒谱系数(Mel Frequency CepstralCoefficients,MFCC),这是本领域的技术人员所公知的。
步骤5:对经预处理后及运动目标帧像素提取后的全部训练图像数据建立全局背景模型。
全局背景模型的建立,主要通过对Ntrain帧预处理后的全部训练图像数据的运动目标帧像素进行训练得到一个多混合分量的高斯混合模型来实现,用来表示全局特征的分布。具有M个多混合分量的全局背景模型可以用如下公式表示:
P ( x t | &lambda; ) = &Sigma; m = 1 M w m P ( x t | &lambda; m )
其中代表每个预处理后及运动目标帧像素提取后的训练图像数据构成的矢量;λ为高斯混合模型的分布参数,M为高斯混合模型的混合分量个数,wm(m=1,...,M)为每个混合分量对应的权值且 P ( x t | &lambda; m ) = 1 ( 2 &pi; ) 1 / 2 | &Sigma; m | 1 / 2 exp { - 1 2 ( x t - &mu; m ) T &Sigma; m = 1 M ( x t - &mu; m ) } 代表xt对应的第m个高斯分量,其中参数λm={wmmm},μm为第m个高斯分量的均值矢量,Σm为第m个高斯分量的协方差矩阵,T代表转置,P(xt|λ)为每个高斯分量加权求和得到的预处理后及运动目标帧像素提取后的训练图像构成的矢量xt的概率分布。参数的值采用公知的期望最大化(ExpectationMaximization,EM)算法求得,参数的初始值为随机数。
步骤6:对经预处理后及音频特征提取后的全部训练音频数据中的异常音频数据建立新的高斯混合模型。
异常音频数据一般情况下较少,为了提高训练模型的速度,首先需要对Ntrain个包括异常音频数据在内的全部训练音频数据建立一个高斯混合模型,其方法为,将具有M个混合分量的高斯混合模型用如下公式表示:
P ( x &OverBar; t | &lambda; &OverBar; ) = &Sigma; m = 1 M w &OverBar; m P ( x &OverBar; t | &lambda; &OverBar; m )
其中代表每个预处理后及音频特征提取后的训练音频数据构成的矢量,λ为高斯混合模型的分布参数,M为高斯混合模型的混合分量个数,为每个混合分量对应的权值且 P ( x &OverBar; t | &lambda; &OverBar; m ) = 1 ( 2 &pi; ) 1 / 2 | &Sigma; &OverBar; m | 1 / 2 exp { - 1 2 ( x &OverBar; t - &mu; &OverBar; m ) T &Sigma; m = 1 M ( x &OverBar; t - &mu; &OverBar; m ) } 代表xt对应的第m个高斯分量,其中为第m个高斯分量的均值矢量,为第m个高斯分量的协方差矩阵,T代表转置,为每个高斯分量加权求和得到的预处理后及音频特征提取后的训练音频数据构成的矢量的概率分布。参数的值采用公知的期望最大化算法求得,参数的初始值为随机数。
随后将预处理后及音频特征提取后的全部训练音频数据中的异常音频数据作为特征矢量,以上述参数为初始值,利用下面描述的增量学习方法,用已有的参数以及新的训练样本来进行参数更新,构建一个新的高斯混合模型,其方法为:具有M个混合分量的高斯混合模型可以用如下公式表示:
P ( x ^ t | &lambda; ^ ) = &Sigma; m = 1 M w ^ m p ( x ^ t | &lambda; ^ m )
其中的参数的值采用本发明的下述增量学习方法求得:假设该参数的初始值为上述参数随后用如下迭代公式计算:
w ^ m = 1 M &Sigma; m = 1 M P ( m | x ^ t , &lambda; ^ m )
&mu; ^ m = &Sigma; m = 1 M x ^ t P ( m | x ^ t , &lambda; ^ m ) &Sigma; m = 1 M P ( m | x ^ t , &lambda; ^ m )
&Sigma; ^ m 2 = &Sigma; m = 1 M ( x ^ t - &mu; ^ m ) 2 P ( m | x ^ t , &lambda; ^ m ) &Sigma; m = 1 M P ( m | x ^ t , &lambda; ^ m )
其中m∈[1,M],代表每个预处理后及音频特征提取后的全部训练音频数据中的异常音频数据构成的矢量,是高斯混合模型的第m个混合分量的后验概率且 P ( m | x ^ t , &lambda; ^ m ) = w ^ m P m ( x ^ t | &lambda; ^ m ) &Sigma; k = 1 M w ^ k P k ( x ^ t | &lambda; ^ k ) . &lambda; &OverBar; m = { w &OverBar; m , &mu; &OverBar; m , &Sigma; &OverBar; m } 作为初始值代入上述迭代公式循环计算得到并代入似然函数中,L的值呈现单调递增。不断循环计算并代入似然函数中,直到似然函数L出现最大值时停止,此时的参数即为新的高斯混合模型中参数 &lambda; ^ m = { w ^ m , &mu; ^ m , &Sigma; ^ m } 的值。
步骤7:将步骤5得到的全局背景模型参数和步骤6得到的高斯混合模型参数融合构建一个联合决策模型,用该联合决策模型对预处理后的全部测试数据进行异常状态判别。
将步骤5得到的全局背景模型参数和步骤6得到的高斯混合模型参数融合构建一个联合决策模型是采用贝叶斯公式来进行的。首先定义测试数据为Y=[Y0,Y1],其中Y0代表步骤4中得到的预处理后的全部测试图像数据,Y1代表步骤4中得到的预处理后的包括异常音频数据在内的全部测试音频数据。发明人的目标是判别某个测试数据是否属于异常状态,即是否在测试数据中存在异常情况或行为。
假设非异常状态模型为Model0,异常状态模型为Model1,则可以由如下贝叶斯公式判断测试数据Y的类别:
P(Modeli|Y)=P(Y|Modeli)P(Modeli)/P(Y)
其中i∈{0,1,P(Modeli|Y)为测试数据Y属于Y0和属于Y1的概率,wm和λm为步骤5中得到的参数, 为步骤6中得到的参数,P(Modeli)为模型Modeli的先验概率,P(Model0)=1-P(Model1),P(Y)=1。当P(Model0|Y)>P(Model1|Y)判定Y属于非异常状态,反之则判定Y属于异常状态。
通过判别测试数据是否为异常状态,从而可以分析和识别具有威胁的目标,提高了视频监控异常行为分析的效率和准确率。
本发明的智能视频监控方法用于分析视频监控系统中的连续视频数据并识别异常目标,实现自动监控和异常报警,该方法不局限于任何已知的视频监控系统,也可以是任何基于视频的目标行为识别系统,通用性强。

Claims (10)

1.一种智能视频监控方法,其包括:
a)同步采集共计T秒的视频数据信号和音频数据信号,并将视频数据信号按照连续多帧图像数据的形式保存,将音频数据信号按照wav的形式保存;
b)将图像数据划分为训练图像数据和测试图像数据以及将音频数据划分为训练音频数据和测试音频数据;
c)判断训练音频数据和测试音频数据中是否包含异常音频数据,如果有,提取出异常音频数据并另行保存,否则进行下一步;
d)对全部训练图像数据和测试图像数据以及包括异常音频数据在内的全部训练音频数据和测试音频数据分别进行预处理,并且对预处理后的全部训练图像数据和测试图像数据进行检测和提取所有运动目标帧像素,对预处理后的音频数据提取音频特征;
e)对经预处理后及运动目标帧像素提取后的全部训练图像数据建立全局背景模型;
f)对经预处理后及音频特征提取后的全部训练音频数据中的异常音频数据建立新的高斯混合模型;
g)将步骤e得到的全局背景模型参数和步骤f得到的高斯混合模型参数融合构建一个联合决策模型,用该联合决策模型对预处理后的全部测试数据进行异常状态判别。
2.根据权利要求1所述的智能视频监控方法,其中在步骤a)中,T=100秒。
3.根据权利要求1所述的智能视频监控方法,其中在步骤b)中,对于T秒连续的图像数据,选取从头开始共计T1秒的连续图像数据作为训练图像数据,其它图像数据作为测试图像数据,其中0<T1<T/2,同样的,对于T秒连续的音频数据,选取从头开始也为T1秒的连续音频数据作为训练音频数据,其它音频数据作为测试音频数据,其中0<T1<T/2。
4.根据权利要求1所述的智能视频监控方法,其中在步骤c)中,所述异常音频数据是指突发枪声、人尖叫声、或汽车报警声。
5.根据权利要求1所述的智能视频监控方法,其中在步骤d)中,所述对图像数据的预处理包括降噪处理,所述对音频数据的预处理包括预加重、分帧加窗、和端点检测。
6.根据权利要求1所述的智能视频监控方法,其中在步骤d)中所述检测和提取所有运动目标帧像素的方法如下:
检测每个图像是否存在运动目标帧的方法为:将当前帧之前的连续100帧灰度图像的平均值作为当前帧的背景图像,其中若不够100帧则按照实际帧数的灰度图像的平均值作为当前帧的背景图像,将当前帧和其背景图像相减,得到背景减后的帧间差灰度矩阵,如果此矩阵的全部数值的绝对值的和小于设定的阈值,则认为当前帧中无运动目标;如果此矩阵的全部数值的绝对值的和大于所述设定的阈值,则认为当前帧中有运动目标;
提取运动目标帧像素的方法是:将运动目标帧对应的背景减后的帧间差灰度矩阵中其数值大于所述设定的阈值的值用1替代,将其他小于所述设定的阈值的值用0替代,从而获得一个二值的帧间差矩阵,每个帧间差矩阵作为对应图像的运动目标帧像素;
所述提取音频特征是提取梅尔频率倒谱系数。
7.根据权利要求6所述的智能视频监控方法,其中所述设定的阈值是0.01*当前帧像素个数之和。
8.根据权利要求1所述的智能视频监控方法,其中在步骤e)中,建立全局背景模型的方法为:通过对全部训练图像数据的运动目标帧像素进行训练得到一个多混合分量的高斯混合模型来实现,具有M个多混合分量的全局背景模型用如下公式表示:
P ( x t | &lambda; ) = &Sigma; m = 1 M w m P ( x t | &lambda; m )
其中代表每个预处理后及运动目标帧像素提取后的训练图像数据构成的矢量;λ为高斯混合模型的分布参数,M为高斯混合模型的混合分量个数,wm(m=1,...,M)为每个混合分量对应的权值且 P ( x t | &lambda; m ) = 1 ( 2 &pi; ) 1 / 2 | &Sigma; m | 1 / 2 exp { - 1 2 ( x t - &mu; m ) T &Sigma; m = 1 M ( x t - &mu; m ) } 代表xt对应的第m个高斯分量,其中参数λm={wmm,∑m},μm为第m个高斯分量的均值矢量,∑m为第m个高斯分量的协方差矩阵,T代表转置,P(xt|λ)为每个高斯分量加权求和得到的预处理后及运动目标帧像素提取后的训练图像构成的矢量xt的概率分布,参数λm={wmm,∑m}的值采用公知的期望最大化算法求得,参数的初始值为随机数。
9.根据权利要求1所述的智能视频监控方法,其中在步骤f)中,建立新的高斯混合模型的方法为:
首先对包括异常音频数据在内的全部训练音频数据建立一个高斯混合模型,其方法是将具有M个混合分量的高斯混合模型用如下公式表示:
P ( x &OverBar; t | &lambda; &OverBar; ) = &Sigma; m = 1 M w &OverBar; m P ( x &OverBar; t | &lambda; &OverBar; m )
其中代表每个预处理后及音频特征提取后的训练音频数据构成的矢量,λ为高斯混合模型的分布参数,M为高斯混合模型的混合分量个数,为每个混合分量对应的权值且 P ( x &OverBar; t | &lambda; &OverBar; m ) = 1 ( 2 &pi; ) 1 / 2 | &Sigma; &OverBar; m | 1 / 2 exp { - 1 2 ( x &OverBar; t - &mu; &OverBar; m ) T &Sigma; m = 1 M ( x &OverBar; t - &mu; &OverBar; m ) } 代表xt对应的第m个高斯分量,其中为第m个高斯分量的均值矢量,为第m个高斯分量的协方差矩阵,T代表转置,为每个高斯分量加权求和得到的预处理后及音频特征提取后的训练音频数据构成的矢量的概率分布,参数的值采用公知的期望最大化算法求得,参数的初始值为随机数;
随后将预处理后及音频特征提取后的全部训练音频数据中的异常音频数据作为特征矢量,以上述参数为初始值,用已有的参数以及新的训练样本来进行参数更新,构建一个新的高斯混合模型,其方法为:具有M个混合分量的高斯混合模型可以用如下公式表示:
P ( x ^ t | &lambda; ^ ) = &Sigma; m = 1 M w ^ m p ( x ^ t | &lambda; ^ m )
其中的参数的值采用学习方法求得:设该参数的初始值为上述参数随后用如下迭代公式计算:
w ^ m = 1 M &Sigma; m = 1 M P ( m | x ^ t , &lambda; ^ m )
&mu; ^ m = &Sigma; m = 1 M x ^ t P ( m | x ^ t , &lambda; ^ m ) &Sigma; m = 1 M P ( m | x ^ t , &lambda; ^ m )
&Sigma; ^ m 2 = &Sigma; m = 1 M ( x ^ t - &mu; ^ m ) 2 P ( m | x ^ t , &lambda; ^ m ) &Sigma; m = 1 M P ( m | x ^ t , &lambda; ^ m )
其中m∈[1,M],代表每个预处理后及音频特征提取后的全部训练音频数据中的异常音频数据构成的矢量,是高斯混合模型的第m个混合分量的后验概率且 P ( m | x ^ t , &lambda; ^ m ) = w ^ m P m ( x ^ t | &lambda; ^ m ) &Sigma; k = 1 M w ^ k P k ( x ^ t | &lambda; ^ k ) ; &lambda; &OverBar; m = { w &OverBar; m , &mu; &OverBar; m , &Sigma; &OverBar; m } 作为初始值代入上述迭代公式循环计算得到并代入似然函数中,L的值呈现单调递增,不断循环计算并代入似然函数中,直到似然函数L出现最大值时停止,此时的参数即为新的高斯混合模型中参数 &lambda; ^ m = { w ^ m , &mu; ^ m , &Sigma; ^ m } 的值。
10.根据权利要求1所述的智能视频监控方法,其中在步骤g)中,所述构建联合决策模型是采用贝叶斯公式来进行的:
首先定义测试数据为Y=[Y0,Y1],其中Y0代表步骤d)中得到的预处理后的全部测试图像数据,Y1代表步骤d)中得到的预处理后的包括异常音频数据在内的全部测试音频数据;
接着由如下贝叶斯公式判断测试数据Y的类别:
P(Modeli|Y)=P(Y|Modeli)P(Modeli)/P(Y)
其中i∈{0,1},Model0表示非异常状态模型,Model1表示异常状态模型,P(Modeli|Y)为测试数据Y属于Y0和属于Y1的概率,wm和λm为步骤e)中得到的参数, 为步骤f)中得到的参数,P(Modeli)为模型Modeli的先验概率,P(Model0)=1-P(Model1),P(Y)=1;
所述异常状态判别的方法为:当P(Model0|Y)>P(Model1|Y)时判定Y属于非异常状态,反之则判定Y属于异常状态。
CN201410372651.3A 2014-07-31 2014-07-31 一种智能视频监控方法 Active CN104144328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410372651.3A CN104144328B (zh) 2014-07-31 2014-07-31 一种智能视频监控方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410372651.3A CN104144328B (zh) 2014-07-31 2014-07-31 一种智能视频监控方法

Publications (2)

Publication Number Publication Date
CN104144328A true CN104144328A (zh) 2014-11-12
CN104144328B CN104144328B (zh) 2017-06-16

Family

ID=51853388

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410372651.3A Active CN104144328B (zh) 2014-07-31 2014-07-31 一种智能视频监控方法

Country Status (1)

Country Link
CN (1) CN104144328B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105205728A (zh) * 2015-08-26 2015-12-30 国家电网公司 一种面向电力机房监控的音视频融合检测方法
CN106157963A (zh) * 2015-04-08 2016-11-23 广州质音通讯技术有限公司 一种音频信号的降噪处理方法和装置及电子设备
EP3147902A1 (en) * 2015-09-24 2017-03-29 Canon Kabushiki Kaisha Sound processing apparatus, sound processing method, and computer program
CN106993157A (zh) * 2017-04-05 2017-07-28 宇龙计算机通信科技(深圳)有限公司 一种基于双摄像头的智能监控方法及装置
CN108242049A (zh) * 2016-12-26 2018-07-03 河北天地智慧医疗设备股份有限公司 一种针对gpu优化的全尺度dr影像增强处理方法
CN109087666A (zh) * 2018-07-31 2018-12-25 厦门快商通信息技术有限公司 监狱打架的识别装置及方法
CN109933665A (zh) * 2019-03-14 2019-06-25 智者四海(北京)技术有限公司 评论识别的装置和方法
CN110519637A (zh) * 2019-08-27 2019-11-29 西北工业大学 基于音频视频监控结合的异常监测方法
CN112202720A (zh) * 2020-09-04 2021-01-08 中移雄安信息通信科技有限公司 音视频识别方法、装置、电子设备及计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040025149A (ko) * 2002-09-18 2004-03-24 에스엘투(주) 영상/환경음향을 이용한 보안장치
CN101364408A (zh) * 2008-10-07 2009-02-11 西安成峰科技有限公司 一种声像联合的监控方法及系统
CN102014278A (zh) * 2010-12-21 2011-04-13 四川大学 一种基于语音识别技术的智能视频监控方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040025149A (ko) * 2002-09-18 2004-03-24 에스엘투(주) 영상/환경음향을 이용한 보안장치
CN101364408A (zh) * 2008-10-07 2009-02-11 西安成峰科技有限公司 一种声像联合的监控方法及系统
CN102014278A (zh) * 2010-12-21 2011-04-13 四川大学 一种基于语音识别技术的智能视频监控方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
W.ZAJDEL ET AL: "CASSANDRA:audio-video sensor fusion for aggression detection", 《IEEE INT. CONF. ON AVSS》 *
王德富: "基于音视频融合的人员入侵实时检测", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157963A (zh) * 2015-04-08 2016-11-23 广州质音通讯技术有限公司 一种音频信号的降噪处理方法和装置及电子设备
CN106157963B (zh) * 2015-04-08 2019-10-15 质音通讯科技(深圳)有限公司 一种音频信号的降噪处理方法和装置及电子设备
CN105205728B (zh) * 2015-08-26 2019-06-28 国家电网公司 一种面向电力机房监控的音视频融合检测方法
CN105205728A (zh) * 2015-08-26 2015-12-30 国家电网公司 一种面向电力机房监控的音视频融合检测方法
EP3147902A1 (en) * 2015-09-24 2017-03-29 Canon Kabushiki Kaisha Sound processing apparatus, sound processing method, and computer program
US10109299B2 (en) 2015-09-24 2018-10-23 Canon Kabushiki Kaisha Sound processing apparatus, sound processing method, and storage medium
CN108242049A (zh) * 2016-12-26 2018-07-03 河北天地智慧医疗设备股份有限公司 一种针对gpu优化的全尺度dr影像增强处理方法
CN106993157A (zh) * 2017-04-05 2017-07-28 宇龙计算机通信科技(深圳)有限公司 一种基于双摄像头的智能监控方法及装置
CN109087666A (zh) * 2018-07-31 2018-12-25 厦门快商通信息技术有限公司 监狱打架的识别装置及方法
CN109933665A (zh) * 2019-03-14 2019-06-25 智者四海(北京)技术有限公司 评论识别的装置和方法
CN110519637A (zh) * 2019-08-27 2019-11-29 西北工业大学 基于音频视频监控结合的异常监测方法
CN112202720A (zh) * 2020-09-04 2021-01-08 中移雄安信息通信科技有限公司 音视频识别方法、装置、电子设备及计算机存储介质
CN112202720B (zh) * 2020-09-04 2023-05-02 中移雄安信息通信科技有限公司 音视频识别方法、装置、电子设备及计算机存储介质

Also Published As

Publication number Publication date
CN104144328B (zh) 2017-06-16

Similar Documents

Publication Publication Date Title
CN104144328A (zh) 一种智能视频监控方法
EP3869459B1 (en) Target object identification method and apparatus, storage medium and electronic apparatus
CN109829443B (zh) 基于图像增强与3d卷积神经网络的视频行为识别方法
CN102682303B (zh) 基于lbp加权社会力模型的人群异常事件检测方法
CN103971386B (zh) 一种动态背景场景下的前景检测方法
CN110378259A (zh) 一种面向监控视频的多目标行为识别方法及系统
CN101344966B (zh) 一种智能视觉监控中检测异常目标行为的方法
US20200117907A1 (en) Method for detecting violent incident in video based on hypergraph transition
CN109298785A (zh) 一种监测设备的人机联控系统及方法
CN105513053B (zh) 一种用于视频分析中背景建模方法
CN109101888A (zh) 一种游客人流量监控预警方法
RU2010102675A (ru) Способ электронного анализа диалога и система для осуществления этого способа
CN104834916A (zh) 一种多人脸检测跟踪方法
CN112560810B (zh) 基于多尺度时空特征神经网络的微表情识别方法
CN105227907A (zh) 基于视频的无监督异常事件实时检测方法
CN104156729B (zh) 一种教室人数统计方法
CN102254394A (zh) 一种基于视频差异分析的输电线路杆塔防盗监控方法
CN110909703A (zh) 一种基于人工智能的明厨亮灶场景下厨师帽的检测方法
CN110363114A (zh) 一种人员工作状态检测方法、装置及终端设备
CN106993188A (zh) 一种基于多人脸视频显著性的hevc压缩编码方法
CN113963301A (zh) 一种时空特征融合的视频火灾烟雾探测方法及系统
CN114023354A (zh) 基于聚焦损失函数的指导型声学事件检测模型训练方法
CN110705413B (zh) 基于视线方向和lstm神经网络的情感预测方法及系统
CN113707175A (zh) 基于特征分解分类器与自适应后处理的声学事件检测系统
CN110633681A (zh) 一种基于视频的离床检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Chen Guoshun

Inventor after: Yang Yi

Inventor after: Xia Mingfei

Inventor after: Niu Gang

Inventor after: Li Heping

Inventor after: Lv Guizhou

Inventor after: Zhang Dong

Inventor after: Han Ning

Inventor after: Niu Manke

Inventor before: Chen Guoshun

Inventor before: Yang Yi

Inventor before: Xia Mingfei

Inventor before: Niu Gang

Inventor before: Lv Guizhou

Inventor before: Zhang Dong

Inventor before: Han Ning

Inventor before: Niu Manke

COR Change of bibliographic data
GR01 Patent grant