CN105138991B - 一种基于情感显著性特征融合的视频情感识别方法 - Google Patents

一种基于情感显著性特征融合的视频情感识别方法 Download PDF

Info

Publication number
CN105138991B
CN105138991B CN201510534693.7A CN201510534693A CN105138991B CN 105138991 B CN105138991 B CN 105138991B CN 201510534693 A CN201510534693 A CN 201510534693A CN 105138991 B CN105138991 B CN 105138991B
Authority
CN
China
Prior art keywords
video
emotion
feature
audio frequency
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510534693.7A
Other languages
English (en)
Other versions
CN105138991A (zh
Inventor
丁昕苗
郭文
朱智林
王永强
华甄
刘延武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Technology and Business University
Original Assignee
Shandong Technology and Business University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Technology and Business University filed Critical Shandong Technology and Business University
Priority to CN201510534693.7A priority Critical patent/CN105138991B/zh
Publication of CN105138991A publication Critical patent/CN105138991A/zh
Application granted granted Critical
Publication of CN105138991B publication Critical patent/CN105138991B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于情感显著性特征融合的视频情感识别方法,获得训练视频集合并对其中的视频提取视频镜头,对每个视频镜头选取情感关键帧;对训练视频集合中每个视频镜头提取音频特征和视觉情感特征,音频特征基于词包模型构成情感分布直方图特征;视觉情感特征基于视觉词典构成情感注意力特征,情感注意力特征与情感分布直方图特征进行自上而下的融合,构成具有情感显著性的视频特征;将训练视频集合中形成的具有情感显著性的视频特征送入SVM分类器进行训练,得到训练模型的参数,训练模型用于对测试视频的情感类别进行预测。本发明的融合算法实现简单,训练器成熟可靠,预测快捷,可以更高效的完成视频的情感识别过程。

Description

一种基于情感显著性特征融合的视频情感识别方法
技术领域
本发明涉及多媒体内容理解和计算机网络内容检索领域,特别涉及一种基于情感显著性特征融合的视频情感识别方法。
背景技术
随着计算机技术、通信技术和多媒体技术的飞速发展,Internet已成为一个浩瀚的海量多媒体信息源,人们迫切希望可以利用计算机对规模急剧增长的数字化图像/视频信息加以自动理解,从而方便用户选择有效的技术手段对这些视觉信息进行有效的组织、管理和查找。基于内容的视频检索成为了一个重要的研究课题。其中,对于认知层面的视频检索研究开展的较早,已经涌现出了很多可行的算法。而基于情感分析的视频检索研究并未受到很多的关注,在国内尚处于起步阶段。对于诸如“找出本段体育视频中最激动人心的片断”,或者“最适合某人品味的电影”,或者“定位并跳过最不适合用户子女观看的片断”这一类面向情感层视频内容理解的应用正逐步引起业界广泛的关注,其研究具有重要的学术意义,必将推动互联网检索技术的全面深入发展。
当前已有一些技术开始尝试应用于视频情感识别。B.Adams等提出一种检测电影节奏和动态故事单元的方法,并利用了视频帧间运动差和镜头变化率等信息。AyaAner-Wolf结合电影语法规则分析了视频帧亮度分量对观众情感的影响。ChingHau Chan等对电影伴音的低级特征做了大量的研究和实验。基于这些特征,他们设计了一套基于情感的电影索引与检索的方法并给出了初步的实验结果。Min Xu等通过构造声音情感特征向量,基于HMM对情景喜剧和恐怖电影中的情感事件进行检测和识别。Chen等通过分析视频中的配乐,结合视频节奏来进行视频情感事件的检测。
目前的这些方法从视频特征及分类模型等不同方面展开了对视频情感分类和识别的研究。视频是一种多媒体,其包括语、声、像等特征数据,但已有的研究中对视频多媒体特征的融合未有做深入研究,导致视频的情感特征判别性不明显,从而影响了视频分类和识别的准确率。一种有效的特征融合策略刻不容缓。
发明内容
为解决现有技术存在的不足,本发明公开了一种基于情感显著性特征融合的视频情感识别方法,本发明的融合算法实现简单,训练器成熟可靠,预测快捷,可以更高效的完成视频的情感识别过程。
为实现上述目的,本发明的具体方案如下:
一种基于情感显著性特征融合的视频情感识别方法,包括以下步骤:
获得训练视频集合并对其中的视频提取视频镜头,对每个视频镜头选取情感关键帧;
对训练视频集合中每个视频镜头提取音频特征和视觉情感特征,其中视觉情感特征基于所提取的情感关键帧提取,音频特征基于视频镜头提取;
音频特征基于词包模型构成情感分布直方图特征;
视觉情感特征基于视觉词典构成情感注意力特征,情感注意力特征与情感分布直方图特征进行自上而下的加权融合,构成具有情感显著性的视频特征;
将训练视频集合中形成的具有情感显著性的视频特征送入SVM分类器进行训练,得到训练模型的参数,训练模型用于对测试视频的情感类别进行预测。
进一步的,对每个视频镜头选取情感关键帧时,以视频镜头为单位计算每个视频帧的颜色情感强度值,以时间作为横轴,颜色情感强度值为纵轴得到镜头情感波动曲线;找到情感波动曲线最大值对应的视频帧,选择该帧作为情感关键帧。
其中,颜色情感强度值计算方法如下:
IT i = 1 M × N Σ p = 1 M Σ q = 1 N IT 2 ( p , q )
其中,M,N,ITi分别表示第i个视频帧的长、宽和颜色情感强度值,IT(p,q)为第i个视频帧中第p行q列像素点的颜色情感强度值,计算如下:
I T ( p , q ) = H 2 + W 2 + A 2
其中,H表示热度,W表示重要性,A表示活动性。
进一步的,情感分布直方图特征获取时,将训练视频集合中所有训练视频的音频特征基于k近邻方法进行聚类,得到K个聚类中心;
将K个聚类中心作为词包模型的音频情感单词,构成音频情感词典;
将每个视频的音频特征投影到音频情感词典,得到每个视频的情感分布直方图。
进一步的,情感注意力特征的构成方式为:将每个视频的视觉情感特征同样进行k近邻聚类,得到N个聚类中心,并由此N个聚类中心作为视觉单词组成视觉情感词典;
将视频的视觉情感特征投影到视觉情感词典,按视频情感类别分别得到每个类别对应的视觉情感单词的后验概率分布,即得到各情感类别的情感注意力特征。
更进一步的,视觉情感单词的后验概率分布计算如下:
p ( c l a s s | w j v i s ) ∞ p ( w j v i s | c l a s s ) p ( c l a s s )
其中,为视觉情感单词的后验概率分布,class为视频情感类别,为视觉词典的第j个视觉情感单词;p(class)为类别class的情感视频概率分布,通过统计该类别情感视频占总视频的比例得到;是类别为class的视觉情感词典的第j个视觉情感单词的分布,根据下式获得:
p ( w j v i s | c l a s s ) ∞ Σ Scene c l a s s Σ l ∈ D δ ( w l v i s , w j v i s )
其中,Sceneclass是类别为class的视频场景数,D是类别为class的视频情感词典所含单词数,是类别为class的场景所包含的第l个视觉单词。δ为符号函数,其定义为: δ ( x , y ) 0 f o r x ≠ y 1 f o r x = y . x,y为符号函数δ的输入变量。
进一步的,将情感注意力特征与每个视频的情感分布直方图特征进行加权融合,得到具有情感显著性的视频特征;具体加权融合过程如下:
计算每个情感单词直方图分布的加权结果:
将得到的所有音频情感单词直方图加权以后的结果按行排列起来即得到具有情感显著性的视频特征。
计算每个情感单词直方图分布的加权结果为:
n ( w a u d | V s , c l a s s ) = Σ j ∈ F δ ( w a u d , w j a u d ) p ( c l a s s | w j v i s )
waud为音频情感词典中的情感单词,Vs为第s个视频,为音频情感词典中的第j个情感单词,F为视频镜头Vs对应的音频帧集合;
进一步的,对测试视频的情感类别进行预测时,首先获得具有情感显著性的视频特征;其获取方式与训练视频获取的具有情感显著性的视频特征的方式相同。
将测试视频的具有情感显著性的视频特征送入已训练好的SVM分类器,得到预测的视频情感类别。
本发明的有益效果:
(1)本发明在进行视频情感分类时充分考虑了音视频特征的融合。
(2)本发明将情感显著性信息融合到了视频特征中,使得视频情感特征更具有判别性。
(3)本发明的融合算法实现简单,训练器成熟可靠,预测快捷,可以更高效的完成视频的情感识别过程。
(4)本发明提出了一种新的基于情感显著性融合的视频情感识别方法,该技术具有重要的学术意义和社会意义,并具有广阔的应用前景。
附图说明
图1为本发明提供的基于情感显著性特征融合的视频情感识别框架图。
具体实施方式:
下面结合附图对本发明进行详细说明:
图1示出了本发明提供的基于情感显著性特征融合的视频情感识别方法。如图1所示,该方法具体包括以下步骤:
步骤1:对视频进行结构化分析,采用基于信息论的互信息熵理论检测镜头边界并提取视频镜头,然后,针对每个镜头选取情感关键帧,具体提取步骤包括:
步骤1.1:以镜头为单位计算每个视频帧的颜色情感强度值,以时间作为横轴,颜色情感强度值为纵轴得到镜头情感波动曲线;颜色情感强度值计算方法如下:
IT i = 1 M × N Σ p = 1 M Σ q = 1 N IT 2 ( p , q )
其中,ITi表示第i个视频帧的颜色情感强度值,IT(p,q)为第i个视频帧中第p行q列像素点的颜色情感强度值,计算如下:
I T ( p , q ) = H 2 + W 2 + A 2
其中,H表示热度,W表示重要性,A表示活动性。其具体计算如下:
a c t i v i t y = - 2.1 + 0.06 [ ( L * - 50 ) 2 + ( a * - 3 ) 2 + ( b * - 17 1.4 ) 2 ] 1 / 2
weight=-1.8+0.04(100-L*)+0.45cos(h-100°)
heat=-0.5+0.02(C*)1.07cos(h-50°)
H=-0.5+0.02(C*)1.07cos(h-50°)
W=-1.8+0.04(100-L*)+0.45cos(h-100°)
A = - 2.1 + 0.06 [ ( L * - 50 ) 2 + ( a * - 3 ) 2 + ( b * - 17 1.4 ) 2 ] 1 / 2
其中,(L*,a*,b*)和(L*,C*,h)分别是颜色空间CIELAB和CIELCH的颜色分量。
步骤1.2:找到情感波动曲线最大值对应的视频帧,选择该帧作为情感关键帧;
步骤2:对训练视频集合中每个视频提取音视频情感特征,其中音频情感特征基于视频镜头提取,具体特征如表1所示;
表1 音频特征汇总表
视觉情感特征基于情感关键帧提取,具体特征如表2所示。
表2 视觉特征汇总表
步骤3:由音频情感特征构成情感分布直方图;具体构建方法如下:
步骤3.1:将所有训练视频的音频情感特征进行聚类,得到K个聚类中心;聚类方法采用k近邻聚类方法。具体步骤为:
步骤3.1.1:由训练视频的音频情感特征组成的训练视频集合中随机选取K个特征样本作为初始聚类质心点μ1,μ2,...,μK
步骤3.1.2:对于每一个训练集合中的音频特征样本xi,如下计算其应属于的聚类质心类:
d ( i ) = argmin j | | x i - μ j | | 2
步骤3.1.3:重新计算新的质心如下:
μ j = Σ i = 1 m 1 { d ( i ) = j } x i Σ i = 1 m 1 { d ( i ) = j }
其中,1{d(i)=j}为指示函数,表示当d(i)=j时,该函数取值为1,否则为0。
步骤3.1.4:反复迭代步骤3.1.2~3.1.3直至本次迭代的新质心与上一次迭代的质心相等或小于指定阈值(≤10-4),则将本次迭代的新质心确定为最终的聚类中心。
步骤3.2:将K个聚类中心作为词包模型的音频情感单词,构成音频情感词典;
步骤3.3:将每个视频的音频情感特征投影到音频情感词典,得到每个视频的音频情感分布直方图,具体步骤如下:
步骤3.3.1:将每个视频V的每个镜头音频特征ai映射为视觉词典中的某个视觉单词如下:
π ( a i ) = arg min 1 ≤ j ≤ N | | a i - μ j | |
步骤3.3.2:统计每个视频中所包含的音频情感单词频率h(j;V),得到音频情感分布直方图。
h(j;V)的计算如下:
h(j;V)=|{ai∈V:π(ai)=j}|
其中,j=1,...,N,|·|表示集合的势。
步骤4:视觉情感特征基于视觉词典构成情感注意力特征,与音频情感分布直方图特征进行自上而下的融合,构成具有情感显著性的视频特征;具体步骤如下:
步骤4.1:将每个视频的视觉特征同样进行k近邻聚类,得到N个聚类中心,并由此N个聚类中心作为视觉单词组成视觉情感词典;
步骤4.2:将视频的视觉特征投影为视觉单词,按视频情感类别分别得到视觉情感单词的后验概率分布,即得到各情感类别的情感注意力特征,具体计算方法如下:
p ( c l a s s | w j v i s ) ∞ p ( w j v i s | c l a s s ) p ( c l a s s )
其中,为视觉情感单词的后验概率分布,class为视频情感类别,为视频包含的视觉情感单词;p(class)为类别class的情感视频概率分布,通过统计该类别情感视频占总视频的比例得到;是类别为class的视觉情感词典的第j个视觉情感单词的分布,可根据下式获得:
p ( w j v i s | c l a s s ) ∞ Σ Scene c l a s s Σ l ∈ D δ ( w l v i s , w j v i s )
其中,Sceneclass是类别为class的视频场景数,D是类别为class的视频情感词典所含单词数。是类别为class的场景所包含的第l个视觉单词。δ为符号函数,其定义为: δ ( x , y ) 0 f o r x ≠ y 1 f o r x = y . x,y为符号函数δ的输入变量。
步骤4.3:将4.2得到的视觉情感注意力特征与每个视频的音频特征分布直方图进行加权融合,得到具有情感显著性的视频特征;具体加权融合过程如下:
步骤4.3.1、如下计算每个音频情感单词直方图分布的加权结果:
n ( w a u d | V s , c l a s s ) = Σ j ∈ F δ ( w a u d , w j a u d ) p ( c l a s s | w j v i s )
waud为音频情感词典中的情感单词,Vs为第s个视频,为音频情感词典中的第j个情感单词。
步骤4.3.2、将步骤4.3.1得到的所有音频情感单词直方图加权以后的结果按行排列起来即得到具有情感显著性的视频特征。
步骤5、将融合后的训练集视频特征送入SVM(Supported Vector Machine)(中文:支持向量机)训练后,对测试视频的类别进行预测。具体步骤如下:
步骤5.1:将训练视频集合按照步骤1-4得到具有情感显著性的视频情感特征;
步骤5.2:将训练视频的情感显著性特征送入SVM(Supported Vector machine)进行训练,得到模型参数;
步骤5.3:对未知情感类别的测试视频按照步骤1-4获得具有情感显著性的视频情感特征;
步骤5.4:将测试视频的情感显著性特征送入已训练好的SVM分类器,得到预测的视频情感类别;
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (8)

1.一种基于情感显著性特征融合的视频情感识别方法,其特征是,包括以下步骤:
获得训练视频集合并对其中的视频提取视频镜头,对每个视频镜头选取情感关键帧;
对训练视频集合中每个视频镜头提取音频特征和视觉情感特征,其中视觉情感特征基于所提取的情感关键帧提取,音频特征基于视频镜头提取;
音频特征基于词包模型构成情感分布直方图特征;
视觉情感特征基于视觉词典构成情感注意力特征,情感注意力特征与情感分布直方图特征进行自上而下的加权融合,构成具有情感显著性的视频特征;
将训练视频集合中形成的具有情感显著性的视频特征送入SVM分类器进行训练,得到训练模型的参数,训练模型用于对测试视频的情感类别进行预测;
情感注意力特征的构成方式为:将每个视频的视觉情感特征同样进行k近邻聚类,得到N个聚类中心,并由此N个聚类中心作为视觉单词组成视觉情感词典;
将视频的视觉情感特征投影到视觉情感词典,按视频情感类别分别得到每个类别对应的视觉情感单词的后验概率分布,即得到各情感类别的情感注意力特征;
视觉情感单词的后验概率分布计算如下:
p ( c l a s s | w j v i s ) ∞ p ( w j v i s | c l a s s ) p ( c l a s s )
其中,为视觉情感单词的后验概率分布,class为视频情感类别,为视觉词典的第j个视觉情感单词;p(class)为类别class的情感视频概率分布,通过统计该类别情感视频占总视频的比例得到;是类别为class的视觉情感词典的第j个视觉情感单词的分布,根据下式获得:
p ( w j v i s | c l a s s ) ∞ Σ Scene c l a s s Σ l ∈ D δ ( w l v i s , w j v i s )
其中,Sceneclass是类别为class的视频场景数,D是类别为class的视频情感词典所含单词数,是类别为class的场景所包含的第l个视觉单词,δ为符号函数,其定义为:x,y为符号函数δ的输入变量。
2.如权利要求1所述的一种基于情感显著性特征融合的视频情感识别方法,其特征是,对每个视频镜头选取情感关键帧时,以视频镜头为单位计算每个视频帧的颜色情感强度值,以时间作为横轴,颜色情感强度值为纵轴得到镜头情感波动曲线;找到情感波动曲线最大值对应的视频帧,选择该帧作为情感关键帧。
3.如权利要求2所述的一种基于情感显著性特征融合的视频情感识别方法,其特征是,其中,颜色情感强度值计算方法如下:
IT i = 1 M × N Σ p = 1 M Σ q = 1 N IT 2 ( p , q )
其中,M,N,ITi分别表示第i个视频帧的长、宽和颜色情感强度值,IT(p,q)为第i个视频帧中第p行q列像素点的颜色情感强度值,计算如下:
I T ( p , q ) = H 2 + W 2 + A 2
其中,H表示热度,W表示重要性,A表示活动性。
4.如权利要求1所述的一种基于情感显著性特征融合的视频情感识别方法,其特征是,情感分布直方图特征获取时,将训练视频集合中所有训练视频的音频特征基于k近邻方法进行聚类,得到K个聚类中心;
将K个聚类中心作为词包模型的音频情感单词,构成音频情感词典;
将每个视频的音频特征投影到音频情感词典,得到每个视频的情感分布直方图。
5.如权利要求1所述的一种基于情感显著性特征融合的视频情感识别方法,其特征是,将情感注意力特征与视频的情感分布直方图特征进行加权融合,得到具有情感显著性的视频特征;具体加权融合过程如下:
计算每个情感单词直方图分布的加权结果;
将得到的所有音频情感单词直方图加权以后的结果按行排列起来即得到具有情感显著性的视频特征。
6.如权利要求5所述的一种基于情感显著性特征融合的视频情感识别方法,其特征是,计算每个情感单词直方图分布的加权结果时:
n ( w a u d | V s , c l a s s ) = Σ j ∈ F δ ( w a u d , w j a u d ) p ( c l a s s | w j v i s )
waud为音频情感词典中的情感单词,Vs为第s个视频,为音频情感词典中的第j个情感单词;F为视频镜头Vs对应的音频帧集合。
7.如权利要求1所述的一种基于情感显著性特征融合的视频情感识别方法,其特征是,对测试视频的情感类别进行预测时,首先获得测试视频的具有情感显著性的视频特征;
将测试视频的具有情感显著性的视频特征送入已训练好的SVM分类器,得到预测的视频情感类别。
8.如权利要求7所述的一种基于情感显著性特征融合的视频情感识别方法,其特征是,测试视频的具有情感显著性的视频特征获取方式与训练视频获取的具有情感显著性的视频特征的方式相同。
CN201510534693.7A 2015-08-27 2015-08-27 一种基于情感显著性特征融合的视频情感识别方法 Active CN105138991B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510534693.7A CN105138991B (zh) 2015-08-27 2015-08-27 一种基于情感显著性特征融合的视频情感识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510534693.7A CN105138991B (zh) 2015-08-27 2015-08-27 一种基于情感显著性特征融合的视频情感识别方法

Publications (2)

Publication Number Publication Date
CN105138991A CN105138991A (zh) 2015-12-09
CN105138991B true CN105138991B (zh) 2016-08-31

Family

ID=54724335

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510534693.7A Active CN105138991B (zh) 2015-08-27 2015-08-27 一种基于情感显著性特征融合的视频情感识别方法

Country Status (1)

Country Link
CN (1) CN105138991B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654054B (zh) * 2015-12-30 2018-12-04 上海颐本信息科技有限公司 基于半监督近邻传播学习和多视觉词典模型的智能视频分析方法
CN106096642B (zh) * 2016-06-07 2020-11-13 南京邮电大学 基于鉴别局部保持投影的多模态情感特征融合方法
CN107247919A (zh) * 2017-04-28 2017-10-13 深圳大学 一种视频情感内容的获取方法及系统
CN109120932B (zh) * 2018-07-12 2021-10-26 东华大学 Hevc压缩域双svm模型的视频显著性预测方法
CN108965920A (zh) * 2018-08-08 2018-12-07 北京未来媒体科技股份有限公司 一种视频内容拆条方法及装置
CN109508625A (zh) * 2018-09-07 2019-03-22 咪咕文化科技有限公司 一种情感数据的分析方法及装置
CN109409222B (zh) * 2018-09-20 2020-10-30 中国地质大学(武汉) 一种基于移动端的多视角人脸表情识别方法
CN109359592B (zh) * 2018-10-16 2019-12-06 北京达佳互联信息技术有限公司 视频帧的处理方法、装置、电子设备及存储介质
CN109446990B (zh) * 2018-10-30 2020-02-28 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109766476B (zh) * 2018-12-27 2023-07-25 西安电子科技大学 视频内容情感分析方法、装置、计算机设备及存储介质
CN109858419A (zh) * 2019-01-23 2019-06-07 广州智慧城市发展研究院 一种自下而上-自上而下的行为识别系统
CN109815903B (zh) * 2019-01-24 2020-10-02 同济大学 一种基于自适应融合网络的视频情感分类方法
CN111640424B (zh) * 2019-03-01 2024-02-13 北京搜狗科技发展有限公司 一种语音识别方法、装置和电子设备
CN110399847B (zh) * 2019-07-30 2021-11-09 北京字节跳动网络技术有限公司 关键帧提取方法、装置及电子设备
CN113177163B (zh) * 2021-04-28 2022-08-02 烟台中科网络技术研究所 用于社交动态信息情感分析的方法、系统和存储介质
CN114549668A (zh) * 2022-01-04 2022-05-27 华南农业大学 一种基于视觉显著图的树上果实成熟度检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778238B (zh) * 2015-04-03 2018-01-05 中国农业大学 一种视频显著性的分析方法及装置

Also Published As

Publication number Publication date
CN105138991A (zh) 2015-12-09

Similar Documents

Publication Publication Date Title
CN105138991B (zh) 一种基于情感显著性特征融合的视频情感识别方法
Li et al. Zero-shot event detection via event-adaptive concept relevance mining
Zhang et al. Spontaneous speech emotion recognition using multiscale deep convolutional LSTM
CN101661559B (zh) 一种数字图像训练和检测方法
Yuan et al. Sentribute: image sentiment analysis from a mid-level perspective
WO2022184117A1 (zh) 基于深度学习的视频剪辑方法、相关设备及存储介质
CN111026914B (zh) 视频摘要模型的训练方法、视频摘要生成方法及装置
Zhao et al. Video indexing and recommendation based on affective analysis of viewers
Chen et al. Emotion in context: Deep semantic feature fusion for video emotion recognition
CN109815903A (zh) 一种基于自适应融合网络的视频情感分类方法
CN110263215B (zh) 一种视频情感定位方法及系统
CN106708949A (zh) 一种视频有害内容识别方法
CN105760472A (zh) 视频检索方法及系统
Ekenel et al. Content-based video genre classification using multiple cues
CN107247919A (zh) 一种视频情感内容的获取方法及系统
CN112287175B (zh) 一种视频高亮片段预测方法和系统
CN110415023B (zh) 一种电梯广告推荐方法、装置、设备及存储介质
Gygli et al. Analyzing and predicting GIF interestingness
CN107943990A (zh) 基于带权重的原型分析技术的多视频摘要方法
Sun et al. ISOMER: Informative segment observations for multimedia event recounting
Yamasaki et al. Prediction of user ratings of oral presentations using label relations
Wang et al. Video interestingness prediction based on ranking model
Varini et al. Personalized egocentric video summarization for cultural experience
Zhang et al. Facial action unit detection with local key facial sub-region based multi-label classification for micro-expression analysis
Li et al. Share-and-chat: Achieving human-level video commenting by search and multi-view embedding

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CB03 Change of inventor or designer information

Inventor after: Ding Cuanmiao

Inventor after: Guo Wen

Inventor after: Zhu Zhilin

Inventor after: Wang Yongqiang

Inventor after: Hua Zhen

Inventor after: Liu Yanwu

Inventor before: Ding Cuanmiao

Inventor before: Guo Wen

Inventor before: Zhu Zhilin

Inventor before: Wang Yongqiang

Inventor before: Hua Zhen

Inventor before: Liu Yanwu

COR Change of bibliographic data