CN102902981A - 基于慢特征分析的暴力视频检测方法 - Google Patents

基于慢特征分析的暴力视频检测方法 Download PDF

Info

Publication number
CN102902981A
CN102902981A CN2012103401601A CN201210340160A CN102902981A CN 102902981 A CN102902981 A CN 102902981A CN 2012103401601 A CN2012103401601 A CN 2012103401601A CN 201210340160 A CN201210340160 A CN 201210340160A CN 102902981 A CN102902981 A CN 102902981A
Authority
CN
China
Prior art keywords
video
track
intensive
vector
slow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012103401601A
Other languages
English (en)
Other versions
CN102902981B (zh
Inventor
王亮
张彰
王开业
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201210340160.1A priority Critical patent/CN102902981B/zh
Publication of CN102902981A publication Critical patent/CN102902981A/zh
Application granted granted Critical
Publication of CN102902981B publication Critical patent/CN102902981B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于慢特征分析的暴力视频检测方法,包括以下步骤:对已经标好类的视频进行密集轨迹提取,基于轨迹用慢特征分析方法学习出慢特征函数,通过慢特征函数得到视频段的特征表示,最后对提取的特征进行训练并建模;对新来视频进行特征提取,将提取的特征输入到训练得到的模型,得到视频的类别(暴力视频或非暴力视频)。该方法通过密集轨迹提取构建了有效的特征向量,并通过慢特征分析方法学习出了非常具有区分力的视频特征表示。近几年随着社交网站的发展,大量的视频被上传到互联网供用户下载,其中不乏含有暴力内容的视频,这些内容会对青少年产生不良影响,基于慢特征分析的暴力视频检测方法能有效检测出这些不良内容,对建设健康的互联网环境具有重要作用。

Description

基于慢特征分析的暴力视频检测方法
技术领域
本发明涉及模式识别技术领域,特别涉及一种基于慢特征分析的暴力视频检测方法。
背景技术
现在,随着社交网站的快速发展,比如国外的Facebook,Twitter,Youtube,国内的人人网,新浪微博,优酷网,上传到网络上的视频的数量迅猛增长,用户可以方便地观看和下载他们感兴趣的视频,然而在大量的视频中,存在着很多暴力内容,这些内容会对青少年用户产生不良的示范作用,有可能会诱导他们产生暴力行为,甚至犯罪。为了保护青少年用户免受这些暴力内容的影响,现在急需一种有效地,自动地,基于内容的暴力视频检测方法,来过滤掉这些有害视频。
现有的技术大多需要使用声音信息进行暴力视频的检测,一些技术单独用声音信息构建特征向量,另一些技术将声音信息和视觉信息结合构建特征向量,然后送入分类器进行模型构建,最后,对新来样本进行分类。然而,在很多情况下,视频中并没有声音信息,如监控录像;而且,一些视频的声音信息和它们的视频内容并不一致,甚至会干扰视频内容的检测。
发明内容
为了解决上述现有技术中存在的问题,本发明的目的是提供一种基于慢特征分析的暴力视频检测方法,提取能有效区分暴力内容的视觉特征,单独使用视觉特征来检测暴力视频。
本发明提出的一种基于慢特征分析的暴力视频检测方法包括以下步骤:
步骤S1,对于已经标好类的视频样本,计算其密集光流场;
步骤S2,从所述视频的每个帧中以一定步长提取多个密集特征点,分别跟踪所述密集特征点在整个视频中的轨迹,从而得到由所述视频中所有密集特征点对应的密集轨迹组成的密集轨迹集合T;
步骤S3,对于所述密集轨迹集合T中的每条密集轨迹,提取其中各轨迹点邻域的像素值,构建出与每条密集轨迹对应的多个向量V;
步骤S4,基于每条密集轨迹对应的多个向量V,通过慢特征学习方法,对于每一类向量,得到一个对该类向量对应的J维慢特征函数C1;
步骤S5,将步骤S3得到的与每条密集轨迹对应的多个向量V分别输入到慢特征函数C1中,基于所述慢特征函数C1的输出向量构建该视频的特征表示f;
步骤S6,将所述视频的特征表示f作为特征向量输入到支持向量机SVM分类器中,构造分类器模型;
步骤S7,输入一个测试视频,将该测试视频分为多个测试视频段,对于每个测试视频段计算其密集光流场;
步骤S8,从所述测试视频段的每个帧中提取多个密集特征点,分别跟踪所述密集特征点在整个视频段中的轨迹,从而得到由所述测试视频段中所有密集特征点对应的密集轨迹组成的密集轨迹集合T′;
步骤S9,对于所述密集轨迹集合T′中的每条密集轨迹,提取其中各轨迹点邻域的像素值,构建出与每条密集轨迹对应的多个向量V′;
步骤S10,将步骤S9得到的与每条密集轨迹对应的多个向量V′输入到所述慢特征函数C1中,基于所述慢特征函数C1的输出向量得到该测试视频段的特征表示f′;
步骤S11,将所述测试视频段的特征表示f′作为特征向量输入到所述步骤S6得到的分类器模型中,即可判断该测试视频段是否为暴力视频段;
步骤S12,如果该测试视频中超过一比例的视频段被识别为暴力,则该测试视频为暴力视频,否则,为非暴力视频。
根据本发明的方法,能有效检测出互联网上视频的暴力内容,为互联网不良内容的过滤提供强有力的依据。
附图说明
图1是本发明基于慢特征分析的暴力视频检测方法流程图。
图2是本发明基于轨迹的向量的构造示意图。
图3是根据本发明实施例的暴力视频检测结果。
图4是根据本发明实施例的非暴力视频的检测结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
图1是本发明基于慢特征分析的暴力视频检测方法流程图,如图1所示,本发明基于慢特征分析的暴力视频检测方法流程图,包括训练过程和识别过程两个部分:
所述训练过程可以描述为:对已经标好类的视频进行密集轨迹提取,基于轨迹用慢特征分析方法学习出慢特征函数,通过慢特征函数得到视频段的特征表示,最后对提取的特征进行训练并建模,即学习能有效区分暴力视频和非暴力视频的特征。所述识别过程可以描述为:对新来视频进行特征提取,将提取的特征输入到训练得到的模型,从而得到视频的类别(暴力视频或非暴力视频)。
所述训练过程进一步包括以下步骤:
步骤S1,对于已经标好类的视频样本,计算其密集光流场;
所述已经标好类的视频是事先收集到的大量的暴力视频和非暴力视频,这些视频用于训练本发明用到的暴力视频识别模型。
密集光流场ω=(ut,vt)的计算方法如下:
对于视频的第t帧,位置(x,y)的偏移量可以表示为如下参数化形式:
u(x,y)=a1+a2x+a3y+a7x2+a8xy    (1)
v(x,y)=a4+a5x+a6y+a7x2+a8xy    (2)
其中,u(x,y)为光流场在位置(x,y)的ut分量,v(x,y)为光流场在位置(x,y)的vt分量,a1,a2,a3,a4,a5,a6,a7,a8为待定参数。
公式(1)和(2)可以写成如下向量形式:
d=(u,v)T=Sp    (3)
S = 1 x y 0 0 0 x 2 xy 0 0 0 1 x y xy y 2 - - - ( 4 )
p=(a1a2a3a4a5a6a7a8)    (5)
通过求解如下加权最小二乘问题得到位置(x,y)的偏移量:
Σ i w i | | A i S i p - Δ b i | | 2 - - - ( 6 )
上述问题的解为:
p = ( Σ i w i S i T A i T A i S i ) - 1 Σ i w i S i T A i T Δ b i - - - ( 7 )
其中,i用来索引位置(x,y)的w×h的邻域,wi表示邻域第i个位置的权重(人为设定),Si表示邻域第i个位置通过式(4)得到的向量,Ai是一个2*2的对称矩阵,该矩阵的元素均为参数,Δbi是一个2维列向量,该向量的元素均为参数。
假定对于视频第t帧某个位置x,通过给定的先验偏移量它移动到了下一帧的位置
Figure BDA00002136997800044
则视频第t帧某个位置x的A(x),Δb(x)通过如下方法得到:
A ( x ) = A 1 ( x ) + A 2 ( x ~ ) 2 - - - ( 8 )
Δb ( x ) = - 1 2 ( b 2 ( x ~ ) - b 1 ( x ) ) + A ( x ) d ~ ( x ) - - - ( 9 )
其中,A1(x),b1(x),
Figure BDA00002136997800047
可以通过用如下式子(10)拟合对应位置w×h邻域内的像素值,用加权最小二乘法求得:
f(x)=xTAx+bTx+c    (10)
其中,A是一个2*2对称矩阵,b是一个二维列向量,c是常变量。
通过上述方法,依次计算第t帧每个位置的偏移量,可以得到第t帧的光流场。
步骤S2,从所述视频的每个帧中以一定步长提取多个密集特征点,分别跟踪所述密集特征点在整个视频中的轨迹,从而得到由所述视频中所有密集特征点对应的密集轨迹组成的密集轨迹集合T;
密集特征点的轨迹能有效地表示视频内容,所以本发明从视频的每一帧中以步长5提取N个密集特征点,并基于密集光流场的偏移量来跟踪它们,得到与各个密集特征点对应的密集轨迹:
对于某一视频第t帧的轨迹点Pt=(xt,yt),通过对其密集光流场ω=(ut,vt)进行中值滤波得到该轨迹点在第t+1帧中对应的轨迹点Pt+1
P t + 1 = ( x t + 1 , y t + 1 ) = ( x t , y t ) + ( M * ω ) | ( x ‾ t , y ‾ t ) - - - ( 11 )
其中,M是一个中值滤波器,
Figure BDA00002136997800052
是轨迹点Pt=(xt,yt)邻域内的一个点,
Figure BDA00002136997800053
表示对光流场中轨迹点对应位置的邻域进行中值滤波的操作,其表示轨迹点Pt=(xt,yt)相对于Pt+1=(xt+1,yt+1)的偏移量。
一系列视频帧中的对应密集轨迹点就组成了一个对应于某一密集特征点的密集轨迹:(Pt,Pt+1,Pt+2,...),所有密集特征点对应的密集轨迹就组成了密集轨迹集合T。
根据本发明的一个实施例,选取长度范围在3-15之间的密集轨迹进行后续的操作。
步骤S3,对于所述密集轨迹集合T中的每条密集轨迹,提取其中各轨迹点邻域的像素值,构建出与每条密集轨迹对应的多个向量V;
对于一条长度为l的轨迹(轨迹的长度即为该轨迹所包含的轨迹点的个数),提取其中每个轨迹点h×w邻域内的像素值,然后从第一个轨迹点开始,每Δt=3个轨迹点对应的邻域中的所有像素值组成一个向量,如图2所示,图2中,P(i),i=1…l,表示长度为l的轨迹中的第i个轨迹点的h×w邻域内所有的像素值组成的向量,P(1)、P(2)、P(3)为第1、2、3个轨迹点对应邻域中的所有像素值组成的向量,P(2)、P(3)、P(4)为第2、3、4个轨迹点对应邻域中的所有像素值组成的向量,以此类推,对于一条长度为l的轨迹,就能得到该轨迹对应的l-2个向量V。
根据本发明的一个实施例,所述邻域取为5*5。
步骤S4,基于每条密集轨迹对应的多个向量V,通过慢特征学习方法,对于每一类向量,得到一个对该类向量对应的J维慢特征函数C1;
所述向量的类别与视频的类别相对应。
假定向量的类别共有C类,令t∈[t0,t1]表示时间,对于第c类的一个I维输入向量V(I=3*h×w):{xc(t)=[xc1(t),...,xcI(t)]|c∈{1,...,C}},使用慢特征方法即通过最小化公式(12)得到一组J维慢特征函数C1:gc(x)=[gc1(x),...,gcJ(x)]T,其中,函数C1中的第j维元素gcj(x)表示类c的第j个慢特征函数:
Δ ( g cj ( x c ) ) - γ * Δ ( g cj ( x c ′ ) )
= < [ g cj ( x &CenterDot; c ) ] 2 > t - &gamma; * < [ g cj ( x &CenterDot; c &prime; ) ] 2 > t - - - ( 12 )
= &omega; cj T [ < x &CenterDot; c x &CenterDot; c T > t - &gamma; * < x &CenterDot; c &prime; x &CenterDot; c &prime; T > t ] &omega; cj
公式(12)的约束条件为:
<gcj(xc∪c′)>t=0     (13)
<[gcj(xc∪c′)]2>t=1  (14)
&ForAll; j &prime; < j : < g c j &prime; ( x c &cup; c &prime; ) g cj ( x c &cup; c &prime; ) > t = 0 - - - ( 15 )
其中,Δ(·)表示对向量序列·求一阶导数后再在时间上求平均,xc′为第c′类的输入向量V,
Figure BDA00002136997800065
为对向量xc求一阶导数,
Figure BDA00002136997800066
为对向量xc′求一阶导数,<·>t表示在时间上对·取均值,ωcj表示类c的第j个慢特征函数的权重向量,γ为权重系数,xc∪c′表示所有类别的输入向量。
公式(12)可以转化为广义特征值问题求解,即公式(12)可以写成如下广义特征值形式:
EW=BWΛ    (16)
其中,
Figure BDA00002136997800067
Figure BDA00002136997800068
Λ表示广义特征值的对角矩阵,W为对应的广义特征向量。
步骤S5,将步骤S3得到的与每条密集轨迹对应的多个向量V分别输入到慢特征函数C1中,基于所述慢特征函数C1的输出向量构建该视频的特征表示f;
假设所述密集轨迹集合T中一条轨迹的长度是l,则其对应的向量V的个数为l-Δt+1。所述步骤S4学习得到的慢特征函数C1的维数为J,用Fj表示慢特征函数C1中的第j维元素,则所述视频的特征表示f的元素可以按照下式计算:
v i , j = 1 l - &Delta;t &Sigma; t = 1 l - &Delta;t [ C i ( t + 1 ) &CircleTimes; F j - C i ( t ) &CircleTimes; F ] - - - ( 17 )
其中,Ci(t+1)为第t+1个向量V中的第i维元素,
Figure BDA00002136997800072
表示将Ci输入到函数Fj中的操作。
那么,对于一个含有N*M条密集轨迹的视频,其中,M为该视频所包含的帧数,其特征向量可以表示为:
f = &Sigma; i = 1 N * M V i - - - ( 18 )
其中,Vi=<vi,1,vi,2,...,vi,J>T
步骤S6,将所述视频的特征表示f作为特征向量输入到支持向量机SVM分类器中,构造分类器模型;
所述支持向量机SVM分类器为分类器的常用技术,在此不作赘述。
步骤S7,输入一个测试视频,将该测试视频分为多个测试视频段,对于每个测试视频段计算其密集光流场;
根据本发明的一个实施例,设定30个视频帧为一个视频段。
该步骤中计算测试视频段的密集光流场公式与步骤S1中的计算公式相同。
步骤S8,从所述测试视频段的每个帧中提取多个密集特征点,分别跟踪所述密集特征点在整个视频段中的轨迹,从而得到由所述测试视频段中所有密集特征点对应的密集轨迹组成的密集轨迹集合T′;
所述密集轨迹的长度范围选为3-15。
步骤S9,对于所述密集轨迹集合T′中的每条密集轨迹,提取其中各轨迹点邻域的像素值,构建出与每条密集轨迹对应的多个向量V′;
根据本发明的一个实施例,所述邻域取为5*5。
步骤S10,将步骤S9得到的与每条密集轨迹对应的多个向量V′输入到所述慢特征函数C1中,基于所述慢特征函数C1的输出向量得到该测试视频段的特征表示f′;
步骤S11,将所述测试视频段的特征表示f′作为特征向量输入到所述步骤S6得到的分类器模型中,即可判断该测试视频段是否为暴力视频段;
步骤S12,如果该测试视频中超过一比例的视频段被识别为暴力,则该测试视频为暴力视频,否则,为非暴力视频。
所述比例可设定为50%。
图3和图4分别给出暴力视频和非暴力视频的示例及其示例的检测结果。
接下来,借助实验结果来验证本发明的有效性,实验中,选取200个暴力视频作为正样本,选取200个非暴力视频作为负样本,将视频中的30帧看作一个视频段,分别提取每个视频段的密集轨迹集合T,其中,轨迹的长度范围选为3-15;对于密集轨迹集合T中的每条密集轨迹,提取各轨迹点5*5邻域的像素值,构建与每条密集轨迹对应的向量;随机选取其中5000条密集轨迹的向量构建向量V,通过慢特征学习方法得到200维(人为设定)的慢特征函数C1;将每个视频段的密集轨迹集合中轨迹对应的向量V输入到慢特征函数C1中,得到该视频段的特征表示f,其维数为400(2*200,即视频类别数*慢特征函数维数);
将所有视频段的特征表示f作为特征向量输入到支持向量机SVM分类器,训练出分类模型;输入一个测试视频,将该测试视频以30个视频帧分为多个测试视频段,对每个测试视频段计算其密集光流场,从所述测试视频段的每个帧中提取多个密集特征点,分别跟踪所述密集特征点在整个视频段中的轨迹,从而得到由所述测试视频段中所有密集特征点对应的密集轨迹组成的密集轨迹集合T′,其中轨迹的长度范围为3-15;对于密集轨迹集合T′中的每条轨迹,提取各轨迹点的5*5邻域的像素值,构建出与每条密集轨迹对应的多个向量V′;将向量V′输入到慢特征函数C1中,基于慢特征函数C1的输出向量得到该测试视频段的特征表示f′,其维数为400;将f′作为特征向量输入到分类器模型,判断该测试视频段是否为暴力视频段,如果一个视频中多数视频段被识别为暴力,则该测试视频为暴力视频,否则,为非暴力视频。图3和图4分别为暴力视频和非暴力视频的检测结果,其中,图3(a)、(b)为暴力视频的检测结果,图4(a)、(b)为非暴力视频的检测结果。
综上,本发明提出了一种有效的基于慢特征分析的暴力视频检测方案。本发明易于实现、性能稳定,识别准确率高。本发明能够有效识别出视频的暴力内容,为过滤不健康内容提供了有力的依据。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于慢特征分析的暴力视频检测方法,其特征在于,该方法包括以下步骤:
步骤S1,对于已经标好类的视频样本,计算其密集光流场;
步骤S2,从所述视频的每个帧中以一定步长提取多个密集特征点,分别跟踪所述密集特征点在整个视频中的轨迹,从而得到由所述视频中所有密集特征点对应的密集轨迹组成的密集轨迹集合T;
步骤S3,对于所述密集轨迹集合T中的每条密集轨迹,提取其中各轨迹点邻域的像素值,构建出与每条密集轨迹对应的多个向量V;
步骤S4,基于每条密集轨迹对应的多个向量V,通过慢特征学习方法,对于每一类向量,得到一个对该类向量对应的J维慢特征函数C1;
步骤S5,将步骤S3得到的与每条密集轨迹对应的多个向量V分别输入到慢特征函数C1中,基于所述慢特征函数C1的输出向量构建该视频的特征表示f;
步骤S6,将所述视频的特征表示f作为特征向量输入到支持向量机SVM分类器中,构造分类器模型;
步骤S7,输入一个测试视频,将该测试视频分为多个测试视频段,对于每个测试视频段计算其密集光流场;
步骤S8,从所述测试视频段的每个帧中提取多个密集特征点,分别跟踪所述密集特征点在整个视频段中的轨迹,从而得到由所述测试视频段中所有密集特征点对应的密集轨迹组成的密集轨迹集合T′;
步骤S9,对于所述密集轨迹集合T′中的每条密集轨迹,提取其中各轨迹点邻域的像素值,构建出与每条密集轨迹对应的多个向量V′;
步骤S10,将步骤S9得到的与每条密集轨迹对应的多个向量V′输入到所述慢特征函数C1中,基于所述慢特征函数C1的输出向量得到该测试视频段的特征表示f′;
步骤S11,将所述测试视频段的特征表示f′作为特征向量输入到所述步骤S6得到的分类器模型中,即可判断该测试视频段是否为暴力视频段;
步骤S12,如果该测试视频中超过一比例的视频段被识别为暴力,则该测试视频为暴力视频,否则,为非暴力视频。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2和S8中,基于密集光流场的偏移量来跟踪所述密集特征点,得到与各个密集特征点对应的密集轨迹。
3.根据权利要求2所述的方法,其特征在于,所述步骤S2中,基于密集光流场的偏移量来跟踪所述密集特征点进一步为:对于某一视频第t帧的轨迹点Pt=(xt,yt),通过对其密集光流场ω=(ut,vt)进行中值滤波得到该轨迹点在第t+1帧中对应的轨迹点Pt+1
P t + 1 = ( x t + 1 , y t + 1 ) = ( x t , y t ) + ( M * &omega; ) | ( x &OverBar; t , y &OverBar; t ) ,
其中,M是一个中值滤波器,是轨迹点Pt=(xt,yt)邻域内的一个点,
Figure FDA00002136997700023
表示对光流场中轨迹点对应位置的邻域进行中值滤波,其表示轨迹点Pt=(xt,yt)相对于Pt+1=(xt+1,yt+1)的偏移量。
4.根据权利要求1所述的方法,其特征在于,所述步骤S2和S8进一步包括选取长度范围在3-15之间的密集轨迹组成密集轨迹集合T的步骤。
5.根据权利要求1所述的方法,其特征在于,所述步骤S3中,构建向量V进一步为:对于一条长度为l的轨迹,提取其中每个轨迹点h×w邻域内的像素值,然后从第一个轨迹点开始,每Δt=3个轨迹点对应的邻域中的所有像素值组成一个向量,其中,所述轨迹的长度为该轨迹所包含的轨迹点的个数。
6.根据权利要求1所述的方法,其特征在于,所述步骤S4中,所述向量的类别与视频的类别相对应。
7.根据权利要求1所述的方法,其特征在于,所述步骤S4中,通过慢特征学习方法得到慢特征函数C1进一步为:假定向量的类别共有C类,令t∈[t0,t1]表示时间,对于第c类的一个I维输入向量V(I=3*h×w):{xc(t)=[xc1(t),...,xcI(t)]|c∈{1,...,C}},使用慢特征方法即通过最小化下式得到一组J维慢特征函数C1:gc(x)=[gc1(x),...,gcJ(x)]T,其中,函数C1中的第j维元素gcj(x)表示类c的第j个慢特征函数:
&Delta; ( g cj ( x c ) ) - &gamma; * &Delta; ( g cj ( x c &prime; ) )
= < [ g cj ( x &CenterDot; c ) ] 2 > t - &gamma; * < [ g cj ( x &CenterDot; c &prime; ) ] 2 > t ,
= &omega; cj T [ < x &CenterDot; c x &CenterDot; c T > t - &gamma; * < x &CenterDot; c &prime; x &CenterDot; c &prime; T > t ] &omega; cj
上式的约束条件为:
<gcj(xc∪c′)>t=0,
<[gcj(xc∪c′)]2>t=1,
&ForAll; j &prime; < j : < g c j &prime; ( x c &cup; c &prime; ) g cj ( x c &cup; c &prime; ) > t = 0 ,
其中,Δ(·)表示对向量序列·求一阶导数后再在时间上求平均,xc′为第c′类的输入向量V,
Figure FDA00002136997700035
为对向量xc求一阶导数,
Figure FDA00002136997700036
为对向量xc′求一阶导数,<·>t表示在时间上对·取均值,ωcj表示类c的第j个慢特征函数的权重向量,γ为权重系数,xc∪c′表示所有类别的输入向量。
8.根据权利要求1所述的方法,其特征在于,所述步骤S5中,构建特征表示进一步为:假设所述密集轨迹集合T中一条轨迹的长度是l,则其对应的向量V的个数为l-Δt+1,所述慢特征函数C1的维数为J,用Fj表示慢特征函数C1中的第j维元素,则所述视频的特征表示f的元素可以按照下式计算:
v i , j = 1 l - &Delta;t &Sigma; t = 1 l - &Delta;t [ C i ( t + 1 ) &CircleTimes; F j - C i ( t ) &CircleTimes; F ] ,
其中,Ci(t+1)为第t+1个向量V中的第i维元素,
Figure FDA00002136997700038
表示将Ci输入到函数Fj中的操作;
那么,对于一个含有N*M条密集轨迹的视频,其中,M为该视频所包含的帧数,其特征向量可以表示为:
f = &Sigma; i = 1 N * M V i ,
其中,Vi=<vi,1,vi,2,...,vi,J>T
9.根据权利要求1所述的方法,其特征在于,所述步骤S7中,设定30个视频帧为一个视频段。
10.根据权利要求1所述的方法,其特征在于,所述步骤S12中的比例为50%。
CN201210340160.1A 2012-09-13 2012-09-13 基于慢特征分析的暴力视频检测方法 Active CN102902981B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210340160.1A CN102902981B (zh) 2012-09-13 2012-09-13 基于慢特征分析的暴力视频检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210340160.1A CN102902981B (zh) 2012-09-13 2012-09-13 基于慢特征分析的暴力视频检测方法

Publications (2)

Publication Number Publication Date
CN102902981A true CN102902981A (zh) 2013-01-30
CN102902981B CN102902981B (zh) 2016-07-06

Family

ID=47575202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210340160.1A Active CN102902981B (zh) 2012-09-13 2012-09-13 基于慢特征分析的暴力视频检测方法

Country Status (1)

Country Link
CN (1) CN102902981B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103475935A (zh) * 2013-09-06 2013-12-25 北京锐安科技有限公司 一种视频片段的检索方法及装置
CN104981844A (zh) * 2013-04-25 2015-10-14 哈曼国际工业有限公司 移动物体检测
CN105574489A (zh) * 2015-12-07 2016-05-11 上海交通大学 基于层次级联的暴力群体行为检测方法
CN105913084A (zh) * 2016-04-11 2016-08-31 福州大学 一种基于密集轨迹和dhog的超声心动视频影像分类方法
CN106599907A (zh) * 2016-11-29 2017-04-26 北京航空航天大学 多特征融合的动态场景分类方法与装置
WO2018023710A1 (zh) * 2016-08-05 2018-02-08 黄新勇 视频安全播放方法及系统
CN108696722A (zh) * 2018-05-28 2018-10-23 广东工业大学 一种目标监测方法、系统及设备和存储介质
CN109471420A (zh) * 2018-09-21 2019-03-15 浙江大学 基于cva-sfa的智能电厂大型燃煤发电机组空气预热器控制性能监测方法
CN109491358A (zh) * 2018-09-21 2019-03-19 浙江大学 一种面向百万千瓦超超临界机组锅炉动态信息的控制性能监测方法
CN114821808A (zh) * 2022-05-18 2022-07-29 湖北大学 一种攻击行为预警方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102360422A (zh) * 2011-10-19 2012-02-22 湖南德顺电子科技有限公司 基于视频分析的暴力行为检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102360422A (zh) * 2011-10-19 2012-02-22 湖南德顺电子科技有限公司 基于视频分析的暴力行为检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHANG ZHANG ETC: "Slow Feature Analysis for human action recognition", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
刘莹: "基于镜头内光流特性色情视频检测算法研究", 《兰州大学研究生学位论文》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104981844A (zh) * 2013-04-25 2015-10-14 哈曼国际工业有限公司 移动物体检测
CN103475935A (zh) * 2013-09-06 2013-12-25 北京锐安科技有限公司 一种视频片段的检索方法及装置
CN105574489A (zh) * 2015-12-07 2016-05-11 上海交通大学 基于层次级联的暴力群体行为检测方法
CN105574489B (zh) * 2015-12-07 2019-01-11 上海交通大学 基于层次级联的暴力群体行为检测方法
CN105913084A (zh) * 2016-04-11 2016-08-31 福州大学 一种基于密集轨迹和dhog的超声心动视频影像分类方法
WO2018023710A1 (zh) * 2016-08-05 2018-02-08 黄新勇 视频安全播放方法及系统
CN106599907B (zh) * 2016-11-29 2019-11-29 北京航空航天大学 多特征融合的动态场景分类方法与装置
CN106599907A (zh) * 2016-11-29 2017-04-26 北京航空航天大学 多特征融合的动态场景分类方法与装置
CN108696722A (zh) * 2018-05-28 2018-10-23 广东工业大学 一种目标监测方法、系统及设备和存储介质
CN108696722B (zh) * 2018-05-28 2024-02-20 广东工业大学 一种目标监测方法、系统及设备和存储介质
CN109491358A (zh) * 2018-09-21 2019-03-19 浙江大学 一种面向百万千瓦超超临界机组锅炉动态信息的控制性能监测方法
CN109471420A (zh) * 2018-09-21 2019-03-15 浙江大学 基于cva-sfa的智能电厂大型燃煤发电机组空气预热器控制性能监测方法
CN109471420B (zh) * 2018-09-21 2020-08-14 浙江大学 基于cva-sfa的智能电厂大型燃煤发电机组空气预热器控制性能监测方法
CN109491358B (zh) * 2018-09-21 2020-08-14 浙江大学 一种面向百万千瓦超超临界机组锅炉动态信息的控制性能监测方法
CN114821808A (zh) * 2022-05-18 2022-07-29 湖北大学 一种攻击行为预警方法及系统

Also Published As

Publication number Publication date
CN102902981B (zh) 2016-07-06

Similar Documents

Publication Publication Date Title
CN102902981A (zh) 基于慢特征分析的暴力视频检测方法
CN103514304B (zh) 一种项目推荐方法和装置
CN107273490A (zh) 一种基于知识图谱的组合错题推荐方法
CN103544483B (zh) 一种基于局部稀疏表示的联合目标追踪方法及其系统
CN105069072A (zh) 基于情感分析的混合用户评分信息推荐方法及其推荐装置
CN105975959A (zh) 基于神经网络的人脸特征提取建模、人脸识别方法及装置
CN104239496B (zh) 一种结合模糊权重相似性度量和聚类协同过滤的方法
CN105160678A (zh) 基于卷积神经网络的无参考立体图像质量评估方法
CN109781411A (zh) 一种结合改进稀疏滤波器与kelm的轴承故障诊断方法
CN109410190B (zh) 基于高分辨率遥感卫星影像的杆塔倒断检测模型训练方法
CN106897826A (zh) 一种交通事故风险评估方法及系统
CN105183748A (zh) 一种基于内容和评分的组合预测方法
CN103258217A (zh) 一种基于增量学习的行人检测方法
CN109635791A (zh) 一种基于深度学习的视频取证方法
CN103838744A (zh) 一种查询词需求分析的方法及装置
CN107391670A (zh) 一种融合协同过滤和用户属性过滤的混合推荐方法
CN104317784A (zh) 一种跨平台用户识别方法和系统
CN104166732B (zh) 一种基于全局评分信息的项目协同过滤推荐方法
CN106548367A (zh) 多源数据的选址模型及其应用研究
CN103955714A (zh) 基于水军检测模型构建方法和系统及水军检测方法
Yao et al. Sensing urban land-use patterns by integrating Google Tensorflow and scene-classification models
CN103034726A (zh) 文本过滤系统及方法
CN103678483A (zh) 基于自适应概率超图和半监督学习的视频语义分析方法
CN106991428A (zh) 基于自适应池化模型的害虫图像识别方法
CN107274679A (zh) 车辆识别方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant