CN103218608B - 一种网络暴力视频的识别方法 - Google Patents

一种网络暴力视频的识别方法 Download PDF

Info

Publication number
CN103218608B
CN103218608B CN201310139552.6A CN201310139552A CN103218608B CN 103218608 B CN103218608 B CN 103218608B CN 201310139552 A CN201310139552 A CN 201310139552A CN 103218608 B CN103218608 B CN 103218608B
Authority
CN
China
Prior art keywords
video
frame
camera lens
violent
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310139552.6A
Other languages
English (en)
Other versions
CN103218608A (zh
Inventor
胡卫明
邹星宇
吴偶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renmin Zhongke Beijing Intelligent Technology Co ltd
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201310139552.6A priority Critical patent/CN103218608B/zh
Publication of CN103218608A publication Critical patent/CN103218608A/zh
Application granted granted Critical
Publication of CN103218608B publication Critical patent/CN103218608B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种基于多示例多特征的网络暴力视频识别方法,包括:从视频共享网站上抓取暴力视频与非暴力视频及其评论、简介构建一个视频数据训练集;从训练集的文本信息中提取文本特征组成文本特征向量来训练文本预分类器,该预分类器筛选出候选的暴力视频;采用基于自适应双阈值的镜头分割算法对所述候选的暴力视频的视频片段进行分割,对每一个镜头提取相关的视觉特征、音频特征来表示该镜头,每一个镜头是多示例学习的一个示例,视频片段是一个包;使用MILES算法将所述包转化为单示例,采用该特征向量训练分类器模型,采用该分类器模型对候选暴力视频进行分类。利用本发明,大大减轻了网络暴力视频不受限制传播的不良影响。

Description

一种网络暴力视频的识别方法
技术领域
本发明涉及模式识别和计算机网络内容安全领域,特别涉及视频分类问题。
背景技术
随着互联网技术和应用的迅速发展,人们对互联网的认识和使用已越来越深入,通过互联网人们可以获得丰富的信息与知识,可以便捷地交流,并享受到多样的娱乐活动。然而互联网是开放性的,它承载的海量信息也必然含有不良影响的,如色情、暴力、恐怖等有害信息也随着互联网广泛传播。而未成年人群体的生理与心理都处在成长阶段,容易受到外界的不良影响,有些甚至走上了犯罪道路并由此引发了很多社会问题,比如流行的古惑仔电影,导致不少的青少年走上了错误的道路。视频网站如雨后春笋般出现,网络视频用户增幅明显,是中国网民继即时通信、搜索、音乐、新闻之后的第五大应用。网络视频已经成为网民娱乐的主要方式之一,也成为不良信息的重要传播途径。网络暴力视频识别过滤具有重要的意义。网络上的暴力视频信息严重危害青少年的身心健康,还会引发青少年犯罪。因此,有效地对互联网中的暴力视频信息进行过滤,对于保护青少年的健康成长,降低青少年犯罪,维护社会稳定,都具有重要的实际意义。
目前暴力视频的识别方法主要基于视频信息与音频信息,使用单一模态或双模态特征。Datta等利用加速运动矢量来检测电影中打斗的暴力场景。Giannakopoulos等中提出了基于频域和时域的七种不同音频特征的视频分类方法。Nam等在检测时不但使用音频特征而且结合了视频特征来检测暴力场景中的典型的火焰、血液发生的等图像与声音。Smeaton等同样把视频与音频特征相结合来检测动作片中的暴力场景。这些暴力视频识别方法的研究对象多是一部电影或几部电影的视频片段,数据量较小,而针对网络海量的视频数据,这些方法的性能与处理速度都不同程度的下降。本方法引入文本信息,同时利用文本、视频、音频三种模态的信息,对网络海量的视频数据的处理具有不错的性能和速度。
发明内容
有鉴于此,本发明的主要目的是提供一种自动的暴力视频识别的方法。
为达到上述目的,本发明提供了一种有效的暴力视频识别的方法,该方法包括:步骤1:从视频共享网站上抓取暴力视频与非暴力视频及其评论、简介构建一个视频数据训练集;步骤2:从训练集的文本信息中提取文本特征组成文本特征向量来训练文本预分类器,该预分类器筛选出候选的暴力视频;步骤3:采用基于自适应双阈值的镜头分割算法对所述候选的暴力视频的视频片段进行分割,对每一个镜头提取相关的视觉特征、音频特征来表示该镜头,每一个镜头是多示例学习的一个示例,视频片段是一个包,该包映射到示例空间;步骤4:使用MILES算法将所述包转化为单示例,包由单示例的特征向量表达,采用该特征向量训练分类器模型,采用该分类器模型对候选暴力视频进行分类。
优选地,将视频与简介、评论这样的文本信息同时作为一个视频样本的组成部分。
优选地,将视频分类问题转化为多示例问题,镜头对应于示例,视频片段对应于包。
优选地,使用改进的MILES算法进行示例选择,使多示例问题转换为单示例监督学习问题。
优选地,改进的MILES算法,是将每一个包只选择与正包相似度最高的示例,即选择包中最有用的示例来表达该包。
利用本发明的方案,从三个方面来提取视频的特征:文本特征、视觉特征、音频特征,三模态特征较为完整的描述了视频场景的语义内容,我们首次将三个模态特征融合在一起来识别网络暴力视频。通过观察所收集的暴力视频和非暴力视频发现:暴力视频片段中至少包含一个暴力视频镜头;非暴力视频片段不包含暴力视频镜头,因此本发明将视频镜头作为示例,视频片段当做示例包,这样我们把暴力视频识别问题转化为多示例学习问题。本发明使用改进的MILES算法将包转化为单示例,降低了示例空间的维度和空间复杂度。
附图说明
图1为本发明的网络暴力视频的识别方法流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明提出了一种网络暴力视频的识别方法。在该方法中,收集视频共享网站中的暴力和非暴力视频及其简介、评论作为样本,建立视频训练集,从该训练集的文本信息中提取训练集视频相关的文本特征,从而利用文本特征向量训练预分类器模型,采用该预分类器对新视频样本进行分类得到候选暴力视频,将训练集中的视频片段进行镜头分割,提取镜头的视频、音频等底层特征组成特征向量来表示镜头,把镜头看作示例,把视频片段映射到示例空间,视频识别问题就成为多示例问题,使用改进的MILES算法将包转化为单示例,包由单示例的特征向量来表达,采用该特征向量来训练分类器模型,采用该分类器模型对候选暴力视频进行分类。
该方法的关键步骤是:1)镜头分割,对训练集中的视频进行镜头分割得到一组镜头;2)特征提取,对训练集中的文本信息提取文本特征;对视频镜头提取视觉、音频特征,将视频片段映射到示例空间,使用改进的MILES算法将包转化为单示例,包由单示例的特征向量来表达;3)模型训练及分类,利用文本特征向量对文本预分类器模型进行训练,分类后得到候选暴力视频。利用表达视频片段的视觉、音频特征向量对分类器模型进行训练,对候选暴力视频进行分类。
图1是本发明网络暴力视频的识别方法的详细流程图。参照图1,该方法包括以下各步骤:
步骤101:收集视频共享网站中的暴力视频与非暴力视频及其简介、评论,建立网络视频训练集。此步骤尽可能多地收集各种类型的暴力视频和非暴力视频。
步骤102:对该网络视频训练集的文本信息进行预处理后,以互信息(MutualInformation,简称MI)作为文本特征,互信息特征的公式如下:
一个词条t对类别c的MI值的计算公式如下:
在整个语料集上,词条t的MI值为一个平均值:
其中,p(t,ci)表示训练集中既包含特征t又属于类别ci的文本出现的概率,p(t)表示包含特征t的文本在训练集中出现的概率,p(ci)表示训练集中属于类别ci的文本的概率,m表示整个语料集上的类别总数。
根据互信息值选取一定数量(例如250个)的与暴力类别相关程度较高的特征词。文本可以用向量空间模型来表示,该模型把对文本内容的处理简化为向量空间中的向量运算,通过计算向量之间的相似度来度量语义的相似度,直观易懂。具体地,在向量空间模型中,每个文档Di被看成是由一组特征词条向量(T1,T2,…,Tm)构成,每个词条项Ti即是文本经特征选择后的特征关键词,特征词条Ti之间无序且互不相同。并且对于每一个Ti,可根据其在文档中的重要性赋予相应的特征权值wi,因此,每个文档被映射为一个特征向量,即V(D)=(T1,w1;T2,w2;…;Tm,wm),其中权值wi的获得一般是通过计算Ti在文档D中及其它文档中出现的频率来求得。对于特征项权重wi的计算,使用较为广泛计算方法为TF-IDF(TermFrequency-Inverse Document Frequency)方法。设Tfi为词条Ti在文档D中出现的频率,iDfi为词条Ti的反文档频率,则词条Ti在文档D中的权重可计算如下:
其中,N为语料库包含的文档数,Ni为在语料库中包含词条Ti的文档数,M为特征词条总数。
得到文本的特征向量后,对支持向量机(SVM)分类器进行训练,分类后得到候选暴力视频。
步骤103:使用自适应的双阈值镜头分割算法来切割视频片段的镜头。两个阈值是基于两帧图像的颜色直方图的差值。假设相邻的两幅帧图像p和q(q=p+1)的特征定义为fp和fp+1,距离测度函数为F,则两幅帧图像之间的差异表示为:
SDp,q=F(fp,fq) (4)
设置两个大小不同的阈值Tb和Ts(Tb>Ts),Tb是检测镜头之间切变的阈值,值较大。Ts是检测镜头之间渐变的阈值,值较小。
在双阈值镜头切割算法中关键性的问题就是Tb和Ts两个不同阈值的设定。而不同类型视频的差异是非常大的,所以阈值显然不是固定的,需要能自适应的调整。假设视频段内相邻帧之间的帧间差异的均值为μ,方差为σ,则两个阈值可表达为:
Tb=μ+α1σ,α1∈[5,6] (5)
Ts=μ+α2σ,α2∈[2,3] (6)
检测的基本流程如下:
1、假如SDp,q>Tb,p帧与q帧之间被认为发生了镜头的切变;
2、假如SDp,q<Tb,p帧与q帧之间被认为没有发生镜头变换;
3、假如Tb>SDp,q>Ts,则q帧被标记为起始帧Fs。从该帧(q帧)起计算两类不同的帧之间的差异,一类是相邻的帧之间的差异,一类是起始帧和后续帧之间相隔帧之间的帧间差异SDp,k(即累积帧间差异)。当从q帧开始相隔帧之间帧间差异不断增加时,在相邻帧之间的帧间差异大于Ts的前提下,只要相隔帧之间的帧间差异超过Tb时,则认为镜头发生了渐变切换。但需注意只有当相邻帧之间的帧间差异大于Ts时,SDp,k累积帧间差才被计算。当相邻帧之间的帧间差异小于Ts,而累积帧间差SDp,k小于Tb时,原来标注的起始帧Fs就被放弃,视之为假渐变。
然后,对镜头提取视频特征和音频特征,这些特征包括:
1)运动强度:镜头是一系列的运动图像,通过光流方法能得到运动的区域对象,用运动向量来描述运动目标属性,此处采用运动向量的大小即运动强度M,公式如下
公式(7)代表的是镜头第k帧的第i块的运动强度。
公式(8)代表的是镜头第k帧的平均运动强度。
公式(9)代表的是含有m帧的镜头的运动强度。
2)火焰:根据爆炸与枪击中火焰的特点:从无到有,变化较快。我们把火焰像素的变化速度作为特征的一维。
公式(10)中,Mf是镜头中含有火焰像素的帧总数,Fi是第i帧含有的火焰像素百分比。
3)血液:在三个典型暴力事件中,血液出现的概率都很大,血液特征也是暴力的一个重要的视觉特征。通过血液的颜色模版搜索到帧图像的血液像素,再根据暴力事件中血液的特点:从无到有。把火焰像素的变化速度作为特征的一维。
公式(11)中,Mb是镜头中含有血液像素的帧总数,Bi是第i帧含有的血液像素百分比。
4)镜头长度:根据电影的编辑规则,在常见的暴力电影中,通过镜头的快速转换是营造紧张气氛的一种重要方式,所以暴力视频通常镜头长度比较短。由此镜头长度即帧总数L也被选作特征向量的一维。
5)音频能量:在暴力事件中,都会伴随突然而剧烈的声音。这两种声音都变化突然而剧烈,比正常声音显示出更大的声音能量。因此,音频能量强度可以作为一维特征。
公式(12)中,xi(n)是音频信号第n个采样点的值。E(i)是整个音频片段的能量。
公式(13)表示镜头m个音频片段的平均能量强度。
6)音频能量熵:暴力事件中突然而剧烈的声音,显示出强烈的能量曲线变化,为了衡量这一特性,选取音频能量熵作为特征的一维。
公式(14)中,是第i个音频片段的能量强度,In是第n个音频帧的能量熵。
公式(15)表示取n个音频帧能量熵的最小值作为镜头的音频能量熵。
7)Mel倒谱系数(Mel-frequency Cepstral Coefficients,MFCC):Mel倒谱系数在语音识别中有着广泛的应用,它首先通过一系列的三角滤波器对傅立叶变换能量系数滤波而得,接着在频率中进行Mel变换,这样以便符合人的听觉特性。
Mel倒谱系数的计算过程如下:
(1)对音频信号进行快速傅立叶变换计算;
(2)通过滤波器组滤除杂波;
(3)Mel倒谱系数由离散余弦逆变换获得,计算公式如下:
其中K是三角滤波器的个数,SK是信号通过第K个三角滤波器后的Mel加权频谱,L是倒频谱的阶数。这里,对镜头的音频信号取12阶Mel倒谱系数,成为镜头的12维特征。
在提取以上所述的镜头的视频、音频特征后,镜头x可以由特征向量表示。
镜头表达之后,可以作为示例,而视频片段就是包含有多个示例的包。每个包都是示例集合,即每个包由很多示例构成。每一个包都有一个训练标记,而包中的示例没有标记;如果是正包,则包中至少有一个示例对应的标签是正的;如果是负包,其中所有的示例均为负标签。将训练集中所有视频的镜头即示例构成一个集合C={xk,k=1,2,3..n},Bi代表第i个包,其中n为训练集中所有示例的个数。然后将视频片段即包应用到这些示例构成的示例空间中:
m(Bi)=[s(x1,Bi),s(x2,Bi),...,s(xn,Bi)]T (17)
其中,s(xk,Bi)表示包Bi在示例xk处的权重。
对于给定的训练包中l+个正包,和l-个负包,利用(17)就可以表示所有训练包在示例空间中的映射:
其中,Pr(xk/Bi)表示Bi在xk处的多样性密度,xij表示包Bi的第j个示例。每一列代表一个包,每一行代表某个示例与包之间的相似度,使用公式(19)来度量示例与包的相似度。如果一个示例与正包的相似度很高,而由于负包的相似度很低,则这个示例的信息是有用的。
传统的MILES算法通过选择有用的示例留下来表达包,然而通常一个包会有多个有用的示例来表达。为了降低示例空间的复杂度和便于处理,本发明对MILES算法进行了改进,对每一个包只选择与正包相似度最高的示例即选择包中最有用的示例来表达该包。这样就将包转化为单示例,将多示例问题转化为传统的单示例监督学习问题。假设包Bi中含有d个镜头示例(xk+1,xk+2,...,xk+d),其中xm是包Bi中最有用的示例,满足如下条件:
如此,包Bi就可以用镜头示例xm的特征向量 来表示。
步骤104:利用得到包的特征向量对支持向量机分类器进行训练,得到分类器参数,利用训练好的支持向量机分类器模型对候选暴力视频片段分类,并输出分类结果。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (3)

1.一种基于多示例多特征的网络暴力视频识别方法,该方法包括:
步骤1:从视频共享网站上抓取暴力视频与非暴力视频及其评论、简介构建一个视频数据训练集;
步骤2:从训练集的文本信息中提取文本特征组成文本特征向量来训练文本预分类器,该预分类器筛选出候选的暴力视频;
步骤3:采用基于自适应双阈值的镜头分割算法对所述候选的暴力视频的视频片段进行分割,对每一个镜头提取相关的视觉特征、音频特征来表示该镜头,每一个镜头是多示例学习的一个示例,视频片段是一个包括多个示例的包,该包映射到示例空间;
步骤4:使用MILES算法将所述包转化为单示例,包由单示例的特征向量表达,采用该特征向量训练分类器模型,采用该分类器模型对候选暴力视频进行分类;
其中,所提取的视觉特征和音频特征包括:运动强度特征火焰像素的变化速度特征血液像素的变化特征镜头长度L、音频能量音频能量熵Is和Mel倒谱系数Cn
其中,步骤4中使用改进的MILES算法进行示例选择,使多示例问题转换为单示例监督学习问题,所述改进的MILES算法,是将每一个包只选择与正包相似度最高的示例,即选择包中最有用的示例来表达;
其中,步骤3中包括:
假如视频段内相邻p帧与q帧之间的帧间差异SDp,q的均值为μ,方差为σ,则两个阈值可表达为:
Tb=μ+α1σ,α1∈[5,6]
Ts=μ+α2σ,α2∈[2,3]
检测的基本流程如下:
1、假如SDp,q>Tb,p帧与q帧之间发生了镜头的切变;
2、假如SDp,q<Tb,p帧与q帧之间没有发生镜头变换;
3、假如Tb>SDp,q>Ts,则q帧被标记为起始帧Fs,从该q帧起计算两类不同的帧之间的差异,一类是相邻的帧之间的差异,一类是起始帧和后续帧之间相隔帧之间的帧间差异SDp,k,当从q帧开始相隔帧之间帧间差异不断增加时,在相邻帧之间的帧间差异大于Ts的前提下,只要相隔帧之间的帧间差异超过Tb时,则镜头发生了渐变切换;当相邻帧之间的帧间差异小于Ts,而累积帧间差SDp,k小于Tb时,原来标注的起始帧Fs就被放弃;
然后对镜头提取视频特征和音频特征,包括:
1)运动强度:运动向量的大小即运动强度M,公式如下
M k ( i ) = u 2 ( i ) + v 2 ( i )
Mk(i)是镜头第k帧的第i块的运动强度;
M k ‾ = 1 n Σ i = 0 n - 1 M k ( i )
是镜头第k帧的平均运动强度;
M ‾ = 1 m Σ k = 0 m - 1 M k ‾
是含有m帧的镜头的运动强度;
2)火焰:即火焰像素的变化速度
V f ‾ = 1 M f Σ i = 0 M f - 1 | F i + 1 - F i |
Mf是镜头中含有火焰像素的帧总数,Fi是第i帧含有的火焰像素百分比;
3)血液:
V b ‾ = 1 M b Σ i = 0 M b - 1 | B i + 1 - B i |
是血液像素变化特征,Mb是镜头中含有血液像素的帧总数,Bi是第i帧含有的血液像素百分比;
4)镜头长度:即帧总数L;
5)音频能量:
E ( i ) = Σ n = 1 N x i 2 ( n )
xi(n)是音频信号第n个采样点的值,E(i)是整个音频片段的能量;
E ‾ = 1 m Σ i = 1 m E ( i )
表示镜头m个音频片段的平均能量强度;
6)音频能量熵:
I n = - Σ i = 1 J σ i 2 log 2 σ i 2
是第i个音频片段的能量强度,In是第n个音频帧的能量熵;
I s = m i n n = 1 , ... k I n
Is表示镜头的音频能量熵;
7)Mel倒谱系数,计算过程如下:
(1)对音频信号进行快速傅立叶变换计算;
(2)通过滤波器组滤除杂波;
(3)Mel倒谱系数由离散余弦逆变换获得,计算公式如下:
C n = 2 K Σ K = 1 K ( log S K ) c o s [ n ( K - 0.5 ) π / K ] , n = 1 , 2 , ... , L
其中K是三角滤波器的个数,SK是信号通过第K个三角滤波器后的Mel加权频谱,L是倒频谱的阶数;
在提取以上所述的镜头的视频、音频特征后,镜头x由特征向量 表示。
2.根据权利要求1所述的方法,其特征在于,在步骤1中,将视频与简介、评论这样的文本信息同时作为一个视频样本的组成部分。
3.根据权利要求1所述的方法,其特征在于,将视频分类问题转化为多示例问题,镜头对应于示例,视频片段对应于包。
CN201310139552.6A 2013-04-19 2013-04-19 一种网络暴力视频的识别方法 Active CN103218608B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310139552.6A CN103218608B (zh) 2013-04-19 2013-04-19 一种网络暴力视频的识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310139552.6A CN103218608B (zh) 2013-04-19 2013-04-19 一种网络暴力视频的识别方法

Publications (2)

Publication Number Publication Date
CN103218608A CN103218608A (zh) 2013-07-24
CN103218608B true CN103218608B (zh) 2017-05-10

Family

ID=48816377

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310139552.6A Active CN103218608B (zh) 2013-04-19 2013-04-19 一种网络暴力视频的识别方法

Country Status (1)

Country Link
CN (1) CN103218608B (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104361059B (zh) * 2014-11-03 2018-03-27 中国科学院自动化研究所 一种基于多示例学习的有害信息识别和网页分类方法
CN104657468B (zh) * 2015-02-12 2018-07-31 中国科学院自动化研究所 基于图像与文本的视频的快速分类方法
CN106503723A (zh) * 2015-09-06 2017-03-15 华为技术有限公司 一种视频分类方法及装置
CN105574489B (zh) * 2015-12-07 2019-01-11 上海交通大学 基于层次级联的暴力群体行为检测方法
CN105512631B (zh) * 2015-12-07 2019-01-25 上海交通大学 基于MoSIFT和CSD特征的暴恐视频检测方法
CN105844239B (zh) * 2016-03-23 2019-03-29 北京邮电大学 一种基于cnn和lstm的暴恐视频检测方法
CN105847964A (zh) * 2016-03-28 2016-08-10 乐视控股(北京)有限公司 一种影视节目处理方法和系统
CN105847860A (zh) * 2016-03-29 2016-08-10 乐视控股(北京)有限公司 一种视频中暴力内容的检测方法及装置
WO2018023710A1 (zh) * 2016-08-05 2018-02-08 黄新勇 视频安全播放方法及系统
CN106507168A (zh) * 2016-10-09 2017-03-15 乐视控股(北京)有限公司 一种视频播放方法及装置
CN106973305B (zh) * 2017-03-20 2020-02-07 广东小天才科技有限公司 一种视频中不良内容的检测方法及装置
CN108965916B (zh) * 2017-05-25 2021-05-25 腾讯科技(深圳)有限公司 一种直播视频评估的方法、模型建立的方法、装置及设备
CN107330414A (zh) * 2017-07-07 2017-11-07 郑州轻工业学院 暴力行为监控方法
CN108628923A (zh) * 2017-11-28 2018-10-09 南京莱斯信息技术股份有限公司 一种基于互联网大数据的网络违法视频广告识别方法及系统
CN108154120A (zh) * 2017-12-25 2018-06-12 上海七牛信息技术有限公司 视频分类模型训练方法、装置、存储介质及电子设备
CN108319905A (zh) * 2018-01-25 2018-07-24 南京邮电大学 一种基于长时程深度时空网络的行为识别方法
CN109145151B (zh) * 2018-06-20 2021-05-18 北京达佳互联信息技术有限公司 一种视频的情感分类获取方法及装置
CN108881938B (zh) * 2018-08-02 2021-05-28 广东龙眼数字科技有限公司 现场直播视频智能切播方法及装置
CN108965920A (zh) * 2018-08-08 2018-12-07 北京未来媒体科技股份有限公司 一种视频内容拆条方法及装置
CN109309798B (zh) * 2018-08-15 2019-05-10 上海极链网络科技有限公司 数据帧自动抓取机构
CN109446990B (zh) * 2018-10-30 2020-02-28 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN110274590B (zh) * 2019-07-08 2022-10-28 哈尔滨工业大学 一种基于决策树的暴力动作检测方法及系统
CN110647804A (zh) * 2019-08-09 2020-01-03 中国传媒大学 一种暴力视频识别方法、计算机系统和存储介质
US11295084B2 (en) 2019-09-16 2022-04-05 International Business Machines Corporation Cognitively generating information from videos
CN112287754A (zh) * 2020-09-23 2021-01-29 济南浪潮高新科技投资发展有限公司 一种基于神经网络的暴力检测方法、装置、设备及介质
CN112989950A (zh) * 2021-02-11 2021-06-18 温州大学 一种面向多模态特征语义关联特征的暴力视频识别系统
CN113590881B (zh) * 2021-08-09 2024-03-19 北京达佳互联信息技术有限公司 视频片段检索方法、视频片段检索模型的训练方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509084A (zh) * 2011-11-18 2012-06-20 中国科学院自动化研究所 一种基于多示例学习的恐怖视频场景识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509084A (zh) * 2011-11-18 2012-06-20 中国科学院自动化研究所 一种基于多示例学习的恐怖视频场景识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Based on Multi-Modal Violent Movies Detection in Video Sharing Sites";Xingyu Zou et al;《IScIDE12 Proceedings of the third Sino-foreign- interchange conference on Intelligent Science and Intelligent Data Engineering》;20121015;第2页最后一段-第4页第2段,图1,图2 *
"HORROR VIDEO SCENE RECOGNITION VIA MULTIPLE-INSTANCE LEARNING";Jianchao Wang et al;《Acoustics, Speech and Signal Processing(ICASSP),2011 IEEE International Conference on》;20110527;全文 *
"基于支持向量机的多实例学习研究与应用";黄波;《CNKI中国优秀硕士学位论文全文数据库》;20100115;全文 *
"基于累积帧的自适应双阈值镜头边界检测算法";邓丽 等;《计算机科学》;20120630;全文 *

Also Published As

Publication number Publication date
CN103218608A (zh) 2013-07-24

Similar Documents

Publication Publication Date Title
CN103218608B (zh) 一种网络暴力视频的识别方法
Qader et al. An overview of bag of words; importance, implementation, applications, and challenges
Jiang et al. Columbia-UCF TRECVID2010 Multimedia Event Detection: Combining Multiple Modalities, Contextual Concepts, and Temporal Matching.
CN101650722B (zh) 基于音视频融合的足球视频精彩事件检测方法
CN108804453B (zh) 一种视音频识别方法及装置
CN112465008B (zh) 一种基于自监督课程学习的语音和视觉关联性增强方法
CN109902289B (zh) 一种面向模糊文本挖掘的新闻视频主题分割方法
US20160188633A1 (en) A method and apparatus for tracking microblog messages for relevancy to an entity identifiable by an associated text and an image
CN106708949A (zh) 一种视频有害内容识别方法
Mironică et al. A modified vector of locally aggregated descriptors approach for fast video classification
CN102549603A (zh) 基于相关性的图像选择
CN114329036B (zh) 一种基于注意力机制的跨模态特征融合系统
CN105138991A (zh) 一种基于情感显著性特征融合的视频情感识别方法
KR101062672B1 (ko) 유해 동영상 검출장치 및 그 방법
CN104142995A (zh) 基于视觉属性的社会事件识别方法
Wang et al. Audio event detection and classification using extended R-FCN approach
CN112528920A (zh) 一种基于深度残差网络的宠物图像情绪识别方法
Tian et al. Sequential deep learning for disaster-related video classification
Zuo et al. Recognition of blue movies by fusion of audio and video
CN105512631A (zh) 基于MoSIFT和CSD特征的暴恐视频检测方法
CN114330454A (zh) 一种基于ds证据理论融合特征的生猪咳嗽声音识别方法
CN109934852A (zh) 一种基于对象属性关系图的视频描述方法
CN101430689A (zh) 一种视频中的人物动作检测方法
Rao et al. Exploring the impact of optimal clusters on cluster purity
CN110808067A (zh) 基于二值多频带能量分布的低信噪比声音事件检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191204

Address after: 250101 2F, Hanyu Jingu new media building, high tech Zone, Jinan City, Shandong Province

Patentee after: Renmin Zhongke (Shandong) Intelligent Technology Co.,Ltd.

Address before: 100190 Zhongguancun East Road, Beijing, No. 95, No.

Patentee before: Institute of Automation, Chinese Academy of Sciences

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200311

Address after: Room 201, 2 / F, Hanyu Jingu new media building, no.7000, Jingshi Road, Jinan City, Shandong Province, 250000

Patentee after: Renmin Zhongke (Jinan) Intelligent Technology Co.,Ltd.

Address before: 250101 2F, Hanyu Jingu new media building, high tech Zone, Jinan City, Shandong Province

Patentee before: Renmin Zhongke (Shandong) Intelligent Technology Co.,Ltd.

CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 100176 1401, 14th floor, building 8, No. 8 courtyard, No. 1 KEGU street, Beijing Economic and Technological Development Zone, Daxing District, Beijing (Yizhuang group, high-end industrial area, Beijing Pilot Free Trade Zone)

Patentee after: Renmin Zhongke (Beijing) Intelligent Technology Co.,Ltd.

Address before: Room 201, 2 / F, Hangu Jinggu new media building, 7000 Jingshi Road, Jinan City, Shandong Province

Patentee before: Renmin Zhongke (Jinan) Intelligent Technology Co.,Ltd.