CN116501902A - 多模态的电影情感识别方法和装置、设备、存储介质 - Google Patents
多模态的电影情感识别方法和装置、设备、存储介质 Download PDFInfo
- Publication number
- CN116501902A CN116501902A CN202310574546.7A CN202310574546A CN116501902A CN 116501902 A CN116501902 A CN 116501902A CN 202310574546 A CN202310574546 A CN 202310574546A CN 116501902 A CN116501902 A CN 116501902A
- Authority
- CN
- China
- Prior art keywords
- speech
- data
- video
- audio
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 51
- 230000008451 emotion Effects 0.000 claims abstract description 95
- 238000000605 extraction Methods 0.000 claims abstract description 57
- 230000004927 fusion Effects 0.000 claims abstract description 45
- 230000011218 segmentation Effects 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims description 26
- 238000001228 spectrum Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 20
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 15
- 238000005516 engineering process Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000003058 natural language processing Methods 0.000 description 8
- 239000012634 fragment Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/45—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本申请实施例提供了一种多模态的电影情感识别方法和装置、设备、存储介质,属于人工智能技术领域。该方法包括:获取并对原始电影数据原始进行数据分割,得到原始视频数据、原始音频数据、原始台词数据,对原始视频数据进行视频特征提取得到目标视频时序特征,对原始音频数据进行音频特征提取得到目标音频特征,对原始台词数据进行文本特征提取得到目标台词特征,将目标视频时序特征、目标音频特征和目标台词特征进行特征拼接,得到音视频台词融合特征,并将音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别。本申请实施例能够结合视频、音频、文本三种模态,提高对电影情感识别的准确率。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种多模态的电影情感识别方法和装置、设备、存储介质。
背景技术
电影情感识别,通常是根据电影中若干连续关键帧组成简短视频来识别其中所表达的情感,其输入是一段由连续关键帧组成的简短视频,输出是电影片段所表达的情感类别。当前,针对电影情感识别的主要做法是:使用卷积神经网络逐步提取电影片段中的图像特征,然后基于提取到的图像特征进行情感分类,以完成电影情感识别。然而,电影中的一些图像特征并不能真实反应出情感,例如人物的假笑等,导致情感识别的准确率不高。
发明内容
本申请实施例的主要目的在于提出一种多模态的电影情感识别方法和装置、设备、存储介质,旨在提高情感识别的准确率。
为实现上述目的,本申请实施例的第一方面提出了一种多模态的电影情感识别方法,所述方法包括:
获取原始电影数据;
对所述原始电影数据进行数据分割,得到原始视频数据、原始音频数据、原始台词数据;其中,所述原始视频数据为不具有声音且不具有台词的视频片段,所述原始台词数据为所述原始电影数据的台词,所述原始音频数据为所述原始电影数据的音频;
对所述原始视频数据进行视频特征提取,得到目标视频时序特征;
对所述原始音频数据进行音频特征提取,得到目标音频特征;
对所述原始台词数据进行文本特征提取,得到目标台词特征;
将所述目标视频时序特征、目标音频特征和所述目标台词特征进行特征拼接,得到音视频台词融合特征;
将所述音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别。
在一些实施例,所述对所述原始音频数据进行音频特征提取,得到目标音频特征,包括:
对所述原始音频数据进行短时傅里叶变换频谱计算,得到初步频谱数据;
对所述初步频谱数据进行卷积处理,得到初步音频特征;
对所述初步音频特征进行降采样处理,得到所述目标音频特征。
在一些实施例,所述对所述原始台词数据进行文本特征提取,得到目标台词特征,包括:
对所述原始台词数据进行台词检测,得到台词检测结果;
根据所述台词检测结果对所述原始台词数据进行台词构建,得到台词序列;
根据预设的长短时记忆网络对所述台词序列进行台词特征提取,得到所述目标台词特征。
在一些实施例,所述根据所述台词检测结果对所述原始台词数据进行台词构建,得到台词序列,包括:
若所述台词检测结果表示所述原始台词数据存在台词,则对所述原始台词数据进行文本特征提取,得到所述台词序列;
或者,
若所述台词检测结果表示所述原始台词数据不存在台词,则进行台词填充,得到所述台词序列。
在一些实施例,所述对所述原始视频数据进行视频特征提取,得到目标视频时序特征,包括:
从所述原始视频数据提取视频序列,得到初步视频序列;
根据预设的3D卷积神经网络对所述初步视频序列进行视频特征提取,得到所述目标视频时序特征。
在一些实施例,所述将所述音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别之前,所述方法还包括:训练所述情感分类器,具体包括:
获取样本电影数据;
对所述样本电影数据进行特征提取,得到音视频台词特征组;其中,所述音视频台词特征组包括样本视频特征、样本台词特征、样本图像特征;
将所述样本视频特征、所述样本台词特征、所述样本图像特征进行特征拼接,得到样本融合特征;
根据所述样本融合特征和预设的情感类别标签对预设分类器进行训练,得到所述情感分类器。
在一些实施例,所述对所述样本电影数据进行特征提取,得到音视频台词特征组,包括:
对所述样本电影数据进行视频提取得到样本视频数据,对所述样本电影数据进行音频提取得到样本音频数据,对所述样本电影数据进行台词提取得到样本台词数据;
对所述样本视频数据进行视频特征提取得到所述样本视频特征,对所述样本音频数据进行音频特征提取得到所述样本音频特征,对所述样本台词数据进行台词特征提取得到所述样本台词特征;
根据所述样本视频特征、所述样本音频特征、所述台词音频特征进行特征组构建,得到所述音视频台词特征组;其中所述音视频台词特征组为矩阵。
为实现上述目的,本申请实施例的第二方面提出了一种多模态的电影情感识别装置,所述装置包括:
电影数据获取模块,用于获取原始电影数据;
电影数据分割模块,用于对所述原始电影数据进行数据分割,得到原始视频数据、原始音频数据、原始台词数据;其中,所述原始视频数据为不具有声音且不具有台词的视频片段,所述原始台词数据为所述原始电影数据的台词,所述原始音频数据为所述原始电影数据的音频;
视频特征提取模块,用于对所述原始视频数据进行视频特征提取,得到目标视频时序特征;
音频特征提取模块,用于对所述原始音频数据进行音频特征提取,得到目标音频特征;
文本特征提取模块,用于对所述原始台词数据进行文本特征提取,得到目标台词特征;
音视频台词融合模块,用于将所述目标视频时序特征、目标音频特征和所述目标台词特征进行特征拼接,得到音视频台词融合特征;
情感分类模块,用于将所述音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别。
为实现上述目的,本申请实施例的第三方面提出了一种电子设备,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的方法。
为实现上述目的,本申请实施例的第四方面提出了一种存储介质,所述存储介质为计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的方法。
本申请提出的多模态的电影情感识别方法和装置、设备、存储介质,其通过获取并对原始电影数据原始进行数据分割,得到原始视频数据、原始音频数据、原始台词数据,对原始视频数据进行视频特征提取得到目标视频时序特征,对原始音频数据进行音频特征提取得到目标音频特征,对原始台词数据进行文本特征提取得到目标台词特征,将目标视频时序特征、目标音频特征和目标台词特征进行特征拼接,得到音视频台词融合特征,并将音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别。本申请实施例能够结合视频、音频、文本三种模态,提高对电影情感识别的准确率。
附图说明
图1是本申请实施例提供的多模态的电影情感识别方法的流程图;
图2是图1中的步骤103的流程图;
图3是图1中的步骤104的流程图;
图4是图1中的步骤105的流程图;
图5是申请实施例提供的多模态的电影情感识别方法的另一流程图;
图6是图5中的步骤502的流程图;
图7是本申请实施例提供的多模态的电影情感识别装置的结构示意图;
图8是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificial intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(natural language processing,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息意图识别、信息抽取与过滤、文本分类与聚类、言论分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
梅尔频率倒谱系数(Mel-scale FrequencyCepstral Coefficients,MFCC):梅尔频率倒谱系数是在Mel标度频率域提取出来的倒谱参数,梅尔频率倒谱系数可以用于依据人的听觉实验结果来分析语音的频谱。
短时傅里叶变换(STFT):短时傅里叶变换的原理为:选择一个时频局部化的窗函数,该时频局部化的窗函数一旦确定了以后,其形状就不再发生改变,短时傅里叶变换的分辨率也就确定了,如果要改变分辨率,则需要重新选择窗函数;选择好窗函数后,假定分析窗函数g(t)在一个短时间间隔内是平稳(伪平稳)的,移动窗函数,使f(t)g(t)在不同的有限时间宽度内是平稳信号,从而计算出各个不同时刻的功率谱。短时傅里叶变换可以用于分析分段平稳信号或者近似平稳信号;对于非平稳信号,当信号变化剧烈时,要求窗函数有较高的时间分辨率。
语音情感识别:语音情感识别技术可以根据给定的语音片段识别出情感信息,主要原理是将音频数据输入到情感识别模型,情感识别模型根据所输入的音频数据进行情感识别,以输出情感信息,例如输出情感类别。语音情感识别是人机交互界面和对话系统中的重要步骤。
电影情感识别,通常是根据电影中若干连续关键帧组成简短视频来识别其中所表达的情感,其输入是一段由连续关键帧组成的简短视频,输出是电影片段所表达的情感类别。当前,针对电影情感识别的主要做法是:使用卷积神经网络逐步提取电影片段中的图像特征,然后基于提取到的图像特征进行情感分类,以完成电影情感识别。然而,电影中的一些图像特征并不能真实反应出情感,例如人物的假笑等,导致情感识别的准确率不高。
基于此,本申请实施例提供了一种多模态的电影情感识别方法和装置、设备、存储介质,旨在提高电影中情感识别的准确率和效率。
本申请实施例提供的多模态的电影情感识别方法和装置、设备、存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的多模态的电影情感识别方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的多模态的电影情感识别方法,涉及人工智能技术领域。本申请实施例提供的多模态的电影情感识别方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现多模态的电影情感识别方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
需要说明的是,在本申请的各个具体实施方式中,当涉及到需要根据用户信息、用户行为数据、用户语音数据,用户历史数据以及用户位置信息等与用户身份或特性相关的数据进行相关处理时,都会先获得用户的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关法律法规和标准。此外,当本申请实施例需要获取用户的敏感个人信息时,会通过弹窗或者跳转到确认页面等方式获得用户的单独许可或者单独同意,在明确获得用户的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的用户相关数据。
图1是本申请实施例提供的多模态的电影情感识别方法的一个可选的流程图,图1中的方法可以包括但不限于包括步骤101至步骤107。
步骤101,获取原始电影数据;
步骤102,对原始电影数据进行数据分割,得到原始视频数据、原始音频数据、原始台词数据;其中,原始视频数据为不具有声音且不具有台词的视频片段,原始台词数据为原始电影数据的台词,原始音频数据为原始电影数据的音频;
步骤103,对原始视频数据进行视频特征提取,得到目标视频时序特征;
步骤104,对原始音频数据进行音频特征提取,得到目标音频特征;
步骤105,对原始台词数据进行文本特征提取,得到目标台词特征;
步骤106,将目标视频时序特征、目标音频特征和目标台词特征进行特征拼接,得到音视频台词融合特征;
步骤107,将音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别。
本申请实施例的步骤101至步骤107中,通过原始电影数据进行数据分割,得到原始视频数据、原始音频数据、原始台词数据,对原始视频数据进行视频特征提取得到目标视频时序特征,对原始音频数据进行音频特征提取得到目标音频特征,对原始台词数据进行文本特征提取得到目标台词特征,将目标视频时序特征、目标音频特征和目标台词特征进行特征拼接,得到音视频台词融合特征,并将音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别,本申请实施例能够结合视频(原始视频数据)、音频(原始音频数据)、文本(原始台词数据)三种模态,提高对电影情感识别的准确率。
在一些实施例的步骤101中,获取到的原始电影数据一般为简短视频,可以是电影中的视频片段,例如可以是视频时长为30秒的短视频,也可以是视频时长为20秒的短视频。原始电影数据也可以是微电影的视频数据。
在一些实施例的步骤102,需要对原始电影数据进行数据分割,具体为:对原始电影数据进行视频、音频、台词分割,得到不具有声音且不具有台词的原始视频数据、只具有台词的原始台词数据、只具有音频的原始音频数据,即原始电影数据被分割为三部分:(1)视频部分,是该原始视频数据,该原始视频数据是不具有声音不具有台词的纯视频片段;(2)音频部分,是该原始音频数据,该原始音频数据为原始电影数据的音频;(3)台词部分,是该原始台词数据,该原始台词数据为原始电影数据的台词。
请参阅图2,在一些实施例的步骤103,可以包括但不限于包括步骤201至步骤202:
步骤201,从原始视频数据提取视频序列,得到初步视频序列;
步骤202,根据预设的3D卷积神经网络对初步视频序列进行视频特征提取,得到目标视频时序特征。
在一些实施例,以电影的原始视频数据的视频时长为30秒为例进行说明;从30秒时长的原始视频数据提取视频序列得到初步视频序列,然后使用3D卷积神经网络对初步视频序列进行视频特征提取,得到目标视频时序特征。相比于仅能提取图像上的平面特征的普通2D卷积神经网络,本申请实施例使用3D卷积对初步视频序列进行视频特征提取,可以捕获到视频的时序特征。视频序列由一帧帧连续的图像构成,反映了人物或者事物在短时期内的变化,这种变化对应着人物内心情绪或者叙事场景基调的变化,视频序列特征在电影情感识别任务中非常重要。本申请实施例通过步骤201和步骤202,可以捕获到电影视频的时序特征,最终得到目标视频时序特征,该目标视频时序特征是视频段在高维空间的一种信息表示,是一种高维矩阵。
请参阅图3,在一些实施例的步骤104,可以包括但不限于包括步骤301至步骤303:
步骤301,对原始音频数据进行短时傅里叶变换频谱计算,得到初步频谱数据;
步骤302,对初步频谱数据进行卷积处理,得到初步音频特征;
步骤303,对初步音频特征进行降采样处理,得到目标音频特征。
在一些实施例的步骤301,具体地,可以使用librosa库的函数对原始音频数据进行转换,使用librosa库的函数对原始音频数据进行短时傅里叶变换频谱计算,得到初步频谱数据,该初步频谱数据是短时傅里叶变换频谱(STFT)数据,该初步频谱数据是一种音频的时频表示,该初步频谱数据在频谱图上可以表示为:X轴为时间,Y轴为频率。
在一些实施例的步骤302,可以将初步频谱数据输入至预设的卷积神经网络进行卷积处理和降采样处理;其中,预设的卷积神经网络可以使用常规的卷积神经网络(CNN),通过卷积神经网络(CNN)对初步频谱数据进行卷积处理得到初步音频特征,并通过卷积神经网络(CNN)对初步音频特征进行降采样处理得到目标音频特征。在本申请实施例中,重复多次进行卷积处理和降采样处理,即步骤302至步骤303多次循环执行,在每一轮的循环中,将步骤303得到的目标音频特征作为步骤302的输入,步骤302的输出作为步骤302的输入,重复执行卷积处理和降采样处理,最终得到的目标音频特征是音频段在高维空间的一种信息表示,是一种高维矩阵,从而可以将信息稀疏分布的频谱转换成更加抽象的、但信息分布更为集中的目标音频特征,这样的目标音频特征中蕴含了音频输入中的各种信息,其中包括声音中所表达出的情感。本申请实施例通过采用卷积神经网络,可以更好地处理二维的初步频谱数据。卷积神经网络对初步频谱数据多次进行卷积处理和降采样处理的过程中,可以将音频段所蕴含的特征进行抽象和归纳,得到的目标音频特征是音频段在高维空间的一种信息表示。
传统的音频处理方式,一般是先将音频数据从时域上转移到频域上,形成频谱图。相比于传统的音频处理方式,本申请实施例,先对原始音频数据进行短时傅里叶变换频谱计算得到初步频谱数据,再采用卷积神经网络对初步频谱数据重复多次进行卷积处理和降采样处理,可以将音频段所蕴含的特征进行抽象和归纳,得到的目标音频特征是音频段在高维空间的一种信息表示。
请参阅图4,在一些实施例的步骤105,可以包括但不限于包括步骤401至步骤403:
步骤401,对原始台词数据进行台词检测,得到台词检测结果;
步骤402,根据台词检测结果对原始台词数据进行台词构建,得到台词序列;
步骤403,根据预设的长短时记忆网络对台词序列进行台词特征提取,得到目标台词特征。
在一些实施例的步骤104,需先执行步骤401对原始台词数据进行台词检测,以判断原始台词数据中是否包含台词。在一些应用场景中,原始电影数据中可能并不存在台词,例如在某些场景下,电影角色只能通过动作手势进行表达而不能发出声音。
在一些实施例的步骤402,可以包括但不限于包括:
若台词检测结果表示原始台词数据存在台词,则对原始台词数据进行文本特征提取,得到台词序列;
或者,
若台词检测结果表示原始台词数据不存在台词,则进行台词填充,得到台词序列。
在一些实施例的步骤402,若检测到原始台词数据存在台词,则对原始台词数据进行文本特征提取,得到台词序列,该台词序列为词嵌入(embedding)形式;若检测到原始台词数据不存在台词,则进行台词填充,具体地,通过使用数值值为0的embedding作为缺省设置进行台词填充,以得到台词序列。
在一些实施例的步骤403,根据预设的长短时记忆网络(LSTM)对台词序列进行台词特征提取,得到的目标台词特征是文本在高维空间的一种信息表示,是一种高维矩阵。
以电影《长XX湖》为例,原始视频数据是电影中30秒的一段短视频;原始台词数据是该30秒短视频的人物的台词,例如可以是:“当我跨过XXX江,看见对面炮火的时候,我的身后就是XXX”;原始音频数据30s是该30秒短视频的声音数据,包括人物台词发声和周围环境声音。
在一些实施例的步骤106,将目标视频时序特征、目标音频特征和目标台词特征进行特征拼接,得到音视频台词融合特征,该音视频台词融合特征作为步骤107中情感分类器的输入。本申请实施例的目标视频特征、目标音频特征、目标台词特征均为高维矩阵,对目标视频特征、目标音频特征、目标台词特征进行特征拼接的过程就是目标视频特征、目标音频特征、目标台词特征这三个高纬矩阵进行相加的过程,得到的音视频台词融合特征也是高维矩阵,且是具有视频模态、音频模态、文本模态三种模态的融合特征。
在一些实施例,请参阅图5,在执行步骤107之前,多模态的电影情感识别方法还包括:训练情感分类器,具体可以包括但不限于包括步骤501至步骤504:
步骤501,获取样本电影数据;
步骤502,对样本电影数据进行特征提取,得到音视频台词特征组;其中,音视频台词特征组包括样本视频特征、样本台词特征、样本图像特征;
步骤503,将样本视频特征、样本台词特征、样本图像特征进行特征拼接,得到样本融合特征;
步骤504,根据样本融合特征和预设的情感类别标签对预设分类器进行训练,得到情感分类器。
在一些实施例的步骤501可以参照上述步骤101的方式获取样本电影数据。在另一些实施例中,样本电影数据可以是预先存储于数据库的数据,也可以是通过网络爬虫进行爬取得到。不同于上述步骤101的原始电影数据的是,样本电影数据是标注数据,具有预设的情感类别标签的标注数据。
在一些实施例,请参阅图6,步骤502可以包括但不限于包括步骤601至步骤603:
步骤601,对样本电影数据进行视频提取得到样本视频数据,对样本电影数据进行音频提取得到样本音频数据,对样本电影数据进行台词提取得到样本台词数据;
步骤602,对样本视频数据进行视频特征提取得到样本视频特征,对样本音频数据进行音频特征提取得到样本音频特征,对样本台词数据进行台词特征提取得到样本台词特征;
步骤603,根据样本视频特征、样本音频特征、台词音频特征进行特征组构建,得到音视频台词特征组;其中音视频台词特征组为矩阵。
在一些实施例的步骤601中,可以采用常规的数据提取方式,对样本电影数据进行视频提取得到样本视频数据,对样本电影数据进行音频提取得到样本音频数据,对样本电影数据进行台词提取得到样本台词数据。在其他的实施例,步骤601也可以参照步骤102的数据分割方式对样本电影数据进行视频、音频、台词分割,从而得到样本视频数据、样本音频数据、台词音频数据,在此不再赘述。通过步骤601将样本电影数据划分为三部分:(1)视频部分,是该样本视频数据,该原始视频数据是不具有声音不具有台词的纯视频片段;(2)音频部分,是该样本音频数据,该样本音频数据为样本电影数据的音频;(3)台词部分,是该样本台词数据,该样本台词数据为样本电影数据的台词。
在一些实施例的步骤602中,可以参照上述步骤103的视频特征提取方式对样本视频数据进行视频特征提取得到样本视频特征,可以参照上述步骤104的音频特征提取方式对样本音频数据进行音频特征提取得到样本音频特征,可以参照上述步骤105的台词特征提取方式对样本台词数据进行台词特征提取得到样本台词特征,在此不再赘述。在另一些实施例,步骤602的视频特征提取方式可以不参照上述步骤103、步骤602的音频特征提取方式可以不参照上述步骤104、步骤602的台词特征提取方式也可以不参照上述步骤105,可以采用其他的方式进行特征提取,本申请实施例不做限定。
在一些实施例的步骤503中,对样本视频特征、样本音频特征、样本台词特征进行特征拼接的方式可以参照步骤106的方式进行特征拼接,在此不再赘述。在其他的实施例,对样本视频特征、样本音频特征、样本台词特征进行特征拼接的方式也可以采用其他方式,本申请实施例不做限定。本申请实施例的样本视频特征、样本音频特征、样本台词特征均为高维矩阵,对样本视频特征、样本音频特征、样本台词特征进行特征拼接的过程就是样本视频特征、样本音频特征、样本台词特征这三个高纬矩阵进行相加的过程,得到的样本融合特征也是高维矩阵,且是具有视频模态、音频模态、文本模态三种模态的融合特征。
步骤504,根据三模态的样本融合特征(视频模态、音频模态、文本模态)和预设的情感类别标签对预设分类器进行训练,从而可以得到情感分类器。
本申请实施例中,对预设分类器进行训练的样本融合特征是样本视频特征、样本音频特征、样本台词特征进行特征拼接进行拼接得到,因此样本融合特征包括了视频图像信息(视频模态)、音频信息(音频模态)、台词信息(文本模态),这些信息各种表达了相应的情感,通过结合这三种模态的信息,可以实现不太模态的数据之间的数据互补,样本融合特征所提供的信息更加丰富,训练得到的情感分类器对于电影中情感识别的准确率得到了提高。
在一些实施例的步骤107,将音视频台词融合特征输入至预先训练好的情感分类器进行情感分类,得到目标情感类别。本申请实施例中,音视频台词融合特征包括了视频图像信息(视频模态)、音频信息(音频模态)、台词信息(文本模态),这些信息各种表达了相应的情感,通过结合这三种模态的信息,可以实现不太模态的数据之间的数据互补,使得数据所提供的信息更加丰富,从而提高了电影中情感识别的准确率。
本申请实施例步骤107得到的目标情感类别可以用于对电影进行分类,以便于用户可以根据自身喜好挑选感兴趣的电影。当前电影分类中,通常根据电影的导演、电影的类别、主要演员、电影所表达的情感等等将对电影进行分类。本申请实施例提出一个新的分类方向,基于电影的情感类别进行电影划分,本申请实施例所实现的技术手段不同于当前电影分类的技术手段,本申请所关注点不再是电影的基本属性归类问题,而是上升到电影所表达的情感,上升到更深层次的分类问题上,通过对电影进行情感分类,对于下游任务中进行电影推荐有很大帮助。
在电影场景中,情感识别时较为复杂,电影视频中存在说话人真实情感与说明内容不一致的情况,例如存在说话人故意正话反说的应用场景中,或者存在说话人用沮丧语气说一句含义较为积极开朗的话的应用场景中;电影视频中也存在无台词的表演场景。因此,在这些复杂场景,情感识别的精度较低。本申请实施例将视频模态、音频模态、文本模态进行互相辅助、互相融合,在面对仅靠一种或者两种模态信息难以识别情感时,可以通过本申请实施例的多模态方式进行情感识别,提高情感识别的精度。通过将视频模态、音频模态、文本模态进行融合,结合三种模态共同进行决策,进而提升情感识别的准确度。
请参阅图7,本申请实施例还提供一种多模态的电影情感识别装置,可以实现上述多模态的电影情感识别方法,该装置包括:
电影数据获取模块,用于获取原始电影数据;
电影数据分割模块,用于对原始电影数据进行数据分割,得到原始视频数据、原始音频数据、原始台词数据;其中,原始视频数据为不具有声音且不具有台词的视频片段,原始台词数据为原始电影数据的台词,原始音频数据为原始电影数据的音频;
视频特征提取模块,用于对原始视频数据进行视频特征提取,得到目标视频时序特征;
音频特征提取模块,用于对原始音频数据进行音频特征提取,得到目标音频特征;
文本特征提取模块,用于对原始台词数据进行文本特征提取,得到目标台词特征;
音视频台词融合模块,用于将目标视频时序特征、目标音频特征和目标台词特征进行特征拼接,得到音视频台词融合特征;
情感分类模块,用于将音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别。
在一些实施例,视频特征提取模块可以用于实现:
从原始视频数据提取视频序列,得到初步视频序列;
根据预设的3D卷积神经网络对初步视频序列进行视频特征提取,得到目标视频时序特征。
具体地,可以参照上述图2所示的步骤201至步骤202,视频特征提取模块可以用于实现图2所示的步骤201至步骤202。
在一些实施例,音频特征提取模块可以用于实现:
对原始音频数据进行短时傅里叶变换频谱计算,得到初步频谱数据;
对初步频谱数据进行卷积处理,得到初步音频特征;
对初步音频特征进行降采样处理,得到目标音频特征。
具体地,可以参照上述图3所示的步骤301至步骤303,音频特征提取模块可以用于实现图3所示的步骤301至步骤303。
在一些实施例,台词特征提取模块可以用于实现:
对原始台词数据进行台词检测,得到台词检测结果;
根据台词检测结果对原始台词数据进行台词构建,得到台词序列;
根据预设的长短时记忆网络对台词序列进行台词特征提取,得到目标台词特征。
具体地,可以参照上述图4所示的步骤401至步骤403,台词特征提取模块可以用于实现图4所示的步骤301至步骤303。
在一些实施例,多模态的电影情感识别装置还包括:情感分类器训练模块,该情感分类器训练模块用于实现:
获取样本电影数据;
对样本电影数据进行特征提取,得到音视频台词特征组;其中,音视频台词特征组包括样本视频特征、样本台词特征、样本图像特征;
将样本视频特征、样本台词特征、样本图像特征进行特征拼接,得到样本融合特征;
根据样本融合特征和预设的情感类别标签对预设分类器进行训练,得到情感分类器。
具体地,可以参照上述图5所示的步骤501至步骤504,情感分类器训练模块可以用于实现图5所示的步骤501至步骤504。
更详细地,在一些实施例,情感分类器训练模块可以用于实现:
对样本电影数据进行视频提取得到样本视频数据,对样本电影数据进行音频提取得到样本音频数据,对样本电影数据进行台词提取得到样本台词数据;
对样本视频数据进行视频特征提取得到样本视频特征,对样本音频数据进行音频特征提取得到样本音频特征,对样本台词数据进行台词特征提取得到样本台词特征;
根据样本视频特征、样本音频特征、台词音频特征进行特征组构建,得到音视频台词特征组;其中音视频台词特征组为矩阵。
具体地,可以参照上述图6所示的步骤601至步骤603。
该多模态的电影情感识别装置的具体实施方式与上述多模态的电影情感识别方法的具体实施例基本相同,在此不再赘述。
本申请实施例还提供了一种电子设备,电子设备包括括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述多模态的电影情感识别方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图8,图8示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器801,可以采用通用的CPU(CentralProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器802,可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器802可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器802中,并由处理器801来调用执行本申请实施例的多模态的电影情感识别方法;
输入/输出接口803,用于实现信息输入及输出;
通信接口804,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线805,在设备的各个组件(例如处理器801、存储器802、输入/输出接口803和通信接口804)之间传输信息;
其中处理器801、存储器802、输入/输出接口803和通信接口804通过总线805实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,存储介质为计算机可读存储介质,该存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述多模态的电影情感识别方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供的多模态的电影情感识别方法和装置、设备、存储介质,通过获取并对原始电影数据原始进行数据分割,得到原始视频数据、原始音频数据、原始台词数据,对原始视频数据进行视频特征提取得到目标视频时序特征,对原始音频数据进行音频特征提取得到目标音频特征,对原始台词数据进行文本特征提取得到目标台词特征,将目标视频时序特征、目标音频特征和目标台词特征进行特征拼接,得到音视频台词融合特征,并将音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别。本申请实施例能够结合视频、音频、文本三种模态,视频模态、音频模态、文本模态进行互相辅助、互相融合,在面对仅靠一种或者两种模态信息难以识别情感时,可以通过本申请实施例的多模态方式进行情感识别,提高情感识别的精度。通过将视频模态、音频模态、文本模态进行融合,结合三种模态共同进行决策,进而提升情感识别的准确度。常规的电影分类任务中,通常根据电影的导演、电影的类别、主要演员、电影所表达的情感等等将对电影进行分类。本申请实施例提出一个新的分类方向,基于电影的情感类别进行电影划分,本申请实施例所实现的技术手段不同于当前电影分类的技术手段,本申请所关注点不再是电影的基本属性归类问题,而是上升到电影所表达的情感,上升到更深层次的分类问题上,通过对电影进行情感分类,对于下游任务中进行电影推荐有很大帮助。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。
Claims (10)
1.一种多模态的电影情感识别方法,其特征在于,所述方法包括:
获取原始电影数据;
对所述原始电影数据进行数据分割,得到原始视频数据、原始音频数据、原始台词数据;其中,所述原始视频数据为不具有声音且不具有台词的视频片段,所述原始台词数据为所述原始电影数据的台词,所述原始音频数据为所述原始电影数据的音频;
对所述原始视频数据进行视频特征提取,得到目标视频时序特征;
对所述原始音频数据进行音频特征提取,得到目标音频特征;
对所述原始台词数据进行文本特征提取,得到目标台词特征;
将所述目标视频时序特征、目标音频特征和所述目标台词特征进行特征拼接,得到音视频台词融合特征;
将所述音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别。
2.根据权利要求1所述的方法,其特征在于,所述对所述原始音频数据进行音频特征提取,得到目标音频特征,包括:
对所述原始音频数据进行短时傅里叶变换频谱计算,得到初步频谱数据;
对所述初步频谱数据进行卷积处理,得到初步音频特征;
对所述初步音频特征进行降采样处理,得到所述目标音频特征。
3.根据权利要求1所述的方法,其特征在于,所述对所述原始台词数据进行文本特征提取,得到目标台词特征,包括:
对所述原始台词数据进行台词检测,得到台词检测结果;
根据所述台词检测结果对所述原始台词数据进行台词构建,得到台词序列;
根据预设的长短时记忆网络对所述台词序列进行台词特征提取,得到所述目标台词特征。
4.根据权利要求3所述的方法,其特征在于,所述根据所述台词检测结果对所述原始台词数据进行台词构建,得到台词序列,包括:
若所述台词检测结果表示所述原始台词数据存在台词,则对所述原始台词数据进行文本特征提取,得到所述台词序列;
或者,
若所述台词检测结果表示所述原始台词数据不存在台词,则进行台词填充,得到所述台词序列。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述对所述原始视频数据进行视频特征提取,得到目标视频时序特征,包括:
从所述原始视频数据提取视频序列,得到初步视频序列;
根据预设的3D卷积神经网络对所述初步视频序列进行视频特征提取,得到所述目标视频时序特征。
6.根据权利要求1至4任一项所述的方法,其特征在于,所述将所述音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别之前,所述方法还包括:训练所述情感分类器,具体包括:
获取样本电影数据;
对所述样本电影数据进行特征提取,得到音视频台词特征组;其中,所述音视频台词特征组包括样本视频特征、样本台词特征、样本图像特征;
将所述样本视频特征、所述样本台词特征、所述样本图像特征进行特征拼接,得到样本融合特征;
根据所述样本融合特征和预设的情感类别标签对预设分类器进行训练,得到所述情感分类器。
7.根据权利要求6所述的方法,其特征在于,所述对所述样本电影数据进行特征提取,得到音视频台词特征组,包括:
对所述样本电影数据进行视频提取得到样本视频数据,对所述样本电影数据进行音频提取得到样本音频数据,对所述样本电影数据进行台词提取得到样本台词数据;
对所述样本视频数据进行视频特征提取得到所述样本视频特征,对所述样本音频数据进行音频特征提取得到所述样本音频特征,对所述样本台词数据进行台词特征提取得到所述样本台词特征;
根据所述样本视频特征、所述样本音频特征、所述台词音频特征进行特征组构建,得到所述音视频台词特征组;其中所述音视频台词特征组为矩阵。
8.一种多模态的电影情感识别装置,其特征在于,所述装置包括:
电影数据获取模块,用于获取原始电影数据;
电影数据分割模块,用于对所述原始电影数据进行数据分割,得到原始视频数据、原始音频数据、原始台词数据;其中,所述原始视频数据为不具有声音且不具有台词的视频片段,所述原始台词数据为所述原始电影数据的台词,所述原始音频数据为所述原始电影数据的音频;
视频特征提取模块,用于对所述原始视频数据进行视频特征提取,得到目标视频时序特征;
音频特征提取模块,用于对所述原始音频数据进行音频特征提取,得到目标音频特征;
文本特征提取模块,用于对所述原始台词数据进行文本特征提取,得到目标台词特征;
音视频台词融合模块,用于将所述目标视频时序特征、目标音频特征和所述目标台词特征进行特征拼接,得到音视频台词融合特征;
情感分类模块,用于将所述音视频台词融合特征输入至预设的情感分类器进行情感分类,得到目标情感类别。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310574546.7A CN116501902A (zh) | 2023-05-19 | 2023-05-19 | 多模态的电影情感识别方法和装置、设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310574546.7A CN116501902A (zh) | 2023-05-19 | 2023-05-19 | 多模态的电影情感识别方法和装置、设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116501902A true CN116501902A (zh) | 2023-07-28 |
Family
ID=87318289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310574546.7A Pending CN116501902A (zh) | 2023-05-19 | 2023-05-19 | 多模态的电影情感识别方法和装置、设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116501902A (zh) |
-
2023
- 2023-05-19 CN CN202310574546.7A patent/CN116501902A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114401438B (zh) | 虚拟数字人的视频生成方法及装置、存储介质、终端 | |
CN114298121B (zh) | 基于多模态的文本生成方法、模型训练方法和装置 | |
CN109961068A (zh) | 图像识别、训练、搜索方法和装置及设备、介质 | |
CN110910903B (zh) | 语音情绪识别方法、装置、设备及计算机可读存储介质 | |
CN113705315B (zh) | 视频处理方法、装置、设备及存储介质 | |
CN113392265A (zh) | 多媒体处理方法、装置及设备 | |
CN116343747A (zh) | 语音合成方法、语音合成装置、电子设备及存储介质 | |
CN117668758A (zh) | 对话意图识别方法和装置、电子设备及存储介质 | |
CN114373443A (zh) | 语音合成方法和装置、计算设备、存储介质及程序产品 | |
CN112738555B (zh) | 视频处理方法及装置 | |
CN116543798A (zh) | 基于多分类器的情感识别方法和装置、电子设备、介质 | |
WO2023208134A1 (zh) | 图像处理方法及模型生成方法、装置、车辆、存储介质及计算机程序产品 | |
CN114595692A (zh) | 一种情绪识别方法、系统及终端设备 | |
CN114786059B (zh) | 视频生成方法、视频生成装置、电子设备、存储介质 | |
CN116645956A (zh) | 语音合成方法、语音合成系统、电子设备及存储介质 | |
CN116541551A (zh) | 音乐分类方法、音乐分类装置、电子设备及存储介质 | |
CN116645961A (zh) | 语音识别方法、语音识别装置、电子设备及存储介质 | |
CN116010545A (zh) | 一种数据处理方法、装置及设备 | |
CN116501902A (zh) | 多模态的电影情感识别方法和装置、设备、存储介质 | |
CN114974219A (zh) | 语音识别方法、语音识别装置、电子设备及存储介质 | |
CN114170997A (zh) | 发音技巧检测方法、装置、存储介质及电子设备 | |
CN116663543A (zh) | 基于语音和文本的情感识别方法和装置、设备、存储介质 | |
CN116778383A (zh) | 对象答复的检测方法和装置、电子设备及存储介质 | |
Datcu et al. | Multimodal Web based system for human emotion recognition | |
Lee et al. | Video Multimodal Emotion Recognition System for Real World Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |