CN109862397B - 一种视频分析方法、装置、设备和存储介质 - Google Patents
一种视频分析方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN109862397B CN109862397B CN201910107607.2A CN201910107607A CN109862397B CN 109862397 B CN109862397 B CN 109862397B CN 201910107607 A CN201910107607 A CN 201910107607A CN 109862397 B CN109862397 B CN 109862397B
- Authority
- CN
- China
- Prior art keywords
- video
- emotion
- label
- bullet screen
- screen information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 66
- 230000008451 emotion Effects 0.000 claims abstract description 131
- 238000013441 quality evaluation Methods 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 29
- 239000011159 matrix material Substances 0.000 claims description 35
- 239000013598 vector Substances 0.000 claims description 31
- 230000008909 emotion recognition Effects 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 18
- 238000001303 quality assessment method Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 230000002996 emotional effect Effects 0.000 abstract description 18
- 230000009286 beneficial effect Effects 0.000 abstract description 5
- 238000011156 evaluation Methods 0.000 abstract description 5
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000013145 classification model Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种视频分析方法、装置、设备和存储介质。该方法通过获取观众用户观看视频时发送的弹幕信息;识别每一所述弹幕信息所属的情绪标签;确定归属于每一所述情绪标签的所述弹幕信息的比例;根据所述比例计算所述观众用户对所述视频的质量评估值,解决因仅通过弹幕信息评估视频质量所带来的评估不准确和片面的问题,以实现根据观众用户对视频的情绪来进一步分析视频内容的质量,从而提高对视频内容的分析准确度,且有利于间接发现与观众用户产生情感共鸣的视频。
Description
技术领域
本发明实施例涉及数据处理的技术领域,尤其涉及一种视频分析方法、装置、设备和存储介质。
背景技术
在直播环境中观众用户和主播用户的交互主要是主播用户以语音的形式和观众用户进行交互,弹幕则是观众用户唯一和主播用户进行交流的方式了。一般的,采用弹幕的数量对主播用户的直播内容进行评价,但是仅通过数量的分析,不足以表示直播内容的质量。
发明内容
本发明提供一种视频分析方法、装置、设备和存储介质,以实现根据观众用户对视频的情绪分析视频内容的质量,从而提高对视频内容的分析准确度,有利于间接发现与观众用户产生共鸣的视频。
第一方面,本发明实施例提供了一种视频分析方法,该方法包括:
获取观众用户观看视频时发送的弹幕信息;
识别每一所述弹幕信息所属的情绪标签;
确定归属于每一所述情绪标签的所述弹幕信息的比例;
根据所述比例计算所述观众用户对所述视频的质量评估值。
进一步的,识别每一所述弹幕信息所属的情绪标签,包括:
将每一所述弹幕信息转换成基于词向量表达的句子矩阵;
将所述句子矩阵转换为所述弹幕信息所属的情绪标签。
进一步的,将每一所述弹幕信息转换成基于词向量表达的句子矩阵,包括:
提取所述弹幕信息中预设数量的关键词;
将所述关键词通过预设的词向量模型进行转换,得到词向量;
基于所述关键词的词向量组合得到所述弹幕信息的句子矩阵。
进一步的,将所述句子矩阵转换为所述弹幕信息所属的情绪标签,包括:
将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签。
进一步的,所述情绪识别模型为文本卷积神经网络;
在将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签之前,还包括:
获取训练样本集,所述训练样本集包括标记有样本情绪标签的样本弹幕信息;
使用所述训练样本集对情绪识别模型进行训练;
当满足预设的停止条件时,得到用于识别情绪标签的情绪识别模型。
进一步的,根据所述比例计算所述观众用户对所述视频的质量评估值,包括:
确定情绪标签中与质量评估相关的预设标签;
将所述预设标签的比例作为所述观众用户对所述视频的质量评估值。
进一步的,在根据所述比例计算所述观众用户对所述视频的质量评估值之后,包括:
若所述质量评估值超过预设阈值,则对所述视频或上传所述视频的主播用户进行推送。
第二方面,本发明实施例提供了一种视频分析装置,该装置包括:
弹幕信息获取模块,用于获取观众用户观看视频时发送的弹幕信息;
情绪标签识别模块,用于识别每一所述弹幕信息所属的情绪标签;
标签比例确定模块,用于确定归属于每一所述情绪标签的所述弹幕信息的比例;
质量评估模块,用于根据所述比例计算所述观众用户对所述视频的质量评估值。
第三方面,本发明实施例提供了一种视频分析设备,该设备包括:存储器、具有触摸功能的显示屏以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面中任一所述的视频分析方法。
第四方面,本发明实施例提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如第一方面中任一所述的视频分析方法。
本发明实施例通过获取观众用户观看视频时发送的弹幕信息;识别每一所述弹幕信息所属的情绪标签;确定归属于每一所述情绪标签的所述弹幕信息的比例;根据所述比例计算所述观众用户对所述视频的质量评估值,解决因仅通过弹幕信息评估视频质量所带来的评估不准确和片面的问题,以实现根据观众用户对视频的情绪来进一步分析视频内容的质量,从而提高对视频内容的分析准确度,且有利于间接发现与观众用户产生情感共鸣的视频。
附图说明
图1为本发明实施例一提供的一种视频分析方法的流程图;
图2A为本发明实施例二提供的一种视频分析方法的流程图;
图2B为本发明实施例二提供的一种情绪识别模型的结构示意图。
图3为本发明实施例三提供的一种视频分析装置的结构示意图;
图4为本发明实施例四提供的一种视频分析设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种视频分析方法的流程图。
本实施例可适用于对视频的内容进行质量评估的情况,具体的,本实施例对视频分析方法的应用场景不作限定,凡是涉及到通过对视频的弹幕信息进行情绪分析,进而对视频的内容进行质量评估的应用场景均可适用。该方法可以由视频分析设备来执行,本实施例对视频分析不作限定,该视频分析设备可以是电脑和服务器等。本实施例以视频分析设备为服务器进行详细说明,该服务器可以是独立服务器或集群服务器。进一步的,为了说明清楚,本实施例以该视频分析方法应用于视频分享平台的服务器中为例进行说明。其中,视频分享平台是指可以进行视频的观看和上传的网站平台。进一步的,视频分享平台可以是直播平台。直播平台中的用户包括主播用户和观众用户两种,其中,主播用户可以向直播平台上传录制有直播内容的视频,观众用户可以通过直播平台实时观看该直播内容的视频。
参照图1,该视频分析方法具体包括如下步骤:
S110、获取观众用户观看视频时发送的弹幕信息。
本实施例对视频的具体形式不作限定,该视频可以是存储在服务器中的视频,也可以是实时上传至服务器的视频流。进一步的,弹幕信息是观众用户针对对视频中的内容的评论,弹幕信息至少包括文本信息。需要注意的是,弹幕信息还可以包括表情信息,表情信息也可以通过编码或采用编码或文字标签的形式表示为文本信息。
本实施例对弹幕信息的应用场景不作限定,以直播平台为例进行说明,观众用户可以通过直播平台提供的客户端观看视频,进一步的,观众用户可以针对观看的视频中的直播内容,向直播平台的服务器发送弹幕信息。直播平台将接收到的弹幕信息分发至关注该直播内容对应的客户端进行显示。
进一步的,本实施例对如何获取弹幕信息不作限定,可以通过将视频和弹幕信息关联存储于服务器中,在使用时进行获取。
S120、识别每一所述弹幕信息所属的情绪标签。
本实施例中,以情绪标签的形式对弹幕信息进行标记,可以进一步确定发送该弹幕信息的观众用户对观看的视频的情感认同度。情绪标签可以包括有情绪和无情绪两种;有情绪的情绪标签也可以进一步细化为包括:高兴、悲伤、愤怒、惊讶、恐惧和厌恶等。本实施例对如何识别弹幕信息所属的情绪标签不作限定,本实施例将通过举例的方式进行说明。
在一实施例中,建立情绪字典,该情绪字典中存储有归属于情绪标签的情绪关键词;对弹幕信息使用情绪字典进行情绪关键词的匹配;根据匹配的结果确定弹幕信息所述的情绪标签。进一步的,在针对一弹幕信息的匹配过程中,将与该弹幕信息匹配的情绪关键词超过预设数量的情绪标签作为该弹幕信息所属的情绪标签。示例性的,“高兴”的情绪标签下的情绪关键词可以包括:“666”“开心”“喜欢”等等。“厌恶”的情绪标签下的情绪关键词可以包括:“垃圾”“差评”“讨厌”等等。进一步的,当弹幕信息与“高兴”的情绪标签下的情绪关键词匹配数量最多时,可以确定该弹幕信息归属于“高兴”的情绪标签。
在又一实施例中,提取弹幕信息中的文本特征,将该文本特征输入预设的情绪分类模型进行处理,得到该弹幕信息所属的情绪标签。其中,该情绪分类模型可以使用模式识别的技术进行实现。
S130、确定归属于每一所述情绪标签的所述弹幕信息的比例。
本实施例中,进一步的,在确定每一弹幕信息的情绪标签之后,可以对归属于该视频的所有弹幕信息进行情绪标签的统计。如归属于每一情绪标签的弹幕信息的数量,进一步的,可以确定每一情绪标签的弹幕信息的数量与所有弹幕信息的数量的比值,将该比值作为归属于每一所述情绪标签的所述弹幕信息的比例。
示例性的,参照表1,对归属于视频100条弹幕信息进行情绪标签的识别,可以得到该视频中的弹幕信息具有“高兴”“悲伤”“愤怒”“惊讶”“恐惧”和“无情绪”5个情绪标签,其中,归属于“高兴”情绪标签的弹幕信息有50条,归属于“无情绪”情绪标签的弹幕信息有20条,归属于“悲伤”和“惊讶”情绪标签的弹幕信息各有10条,归属于“愤怒”和“恐惧”情绪标签的弹幕信息各有5条,从而可以确定归属于“高兴”的情绪标签的弹幕信息的比例为50%,归属于有“有情绪”的情绪标签的弹幕信息的比例为80%。
情绪标签 | 高兴 | 悲伤 | 愤怒 | 惊讶 | 恐惧 | 无情绪 |
数量 | 50 | 10 | 5 | 10 | 5 | 20 |
比例 | 50% | 10% | 5% | 10% | 5% | 20% |
表1
S140、根据所述比例计算所述观众用户对所述视频的质量评估值。
本实施例中,主要是通过归属于各情绪标签的弹幕信息的比例确定观众用户对该视频的情绪,从而间接地得到观众用户对视频的情感共鸣,进一步的,可以通过质量评估值对该情感共鸣的程度进行量化。
本实施例中,质量评估值可以是通过以下方式计算:确定各情绪标签的标签权重值;将各情绪标签所属的标签权重值和比例进行乘积运算,得到各情绪标签的子质量评估值;将所有情绪标签的子质量评估值进行求和,得到观众用户对视频的质量评估值。进一步的,各情绪标签的标签权重值根据实际应用进行设置,本实施例将通过举例的方式进行说明。
在一实施例中,该情绪标签可以包括有情绪和无情绪两种,有情绪的情绪标签的标签权重值为1,无情绪的情绪标签的标签权重值为0,则将有情绪的情绪标签的比例作为观众用户对视频的质量评估值。参照表1,观众用户对视频的质量评估值为0.8。
在另一实施例中,参照表1,将“高兴”情绪标签的标签权重值设置为4,将“悲伤”情绪标签的标签权重值设置为3,将“愤怒”情绪标签的标签权重值设置为2,将“惊讶”情绪标签的标签权重值设置为1,将“恐惧”情绪标签的标签权重值设置为2,将“无情绪”情绪标签的标签权重值设置为0,则通过计算0.5*4+0.1*3+0.05*2+0.1*1+0.05*2+0.2*0,可以得到观众用户对视频的质量评估值为0.8。
本实施例的技术方案通过获取观众用户观看视频时发送的弹幕信息;识别每一所述弹幕信息所属的情绪标签;确定归属于每一所述情绪标签的所述弹幕信息的比例;根据所述比例计算所述观众用户对所述视频的质量评估值,由此,区别于仅通过视频中弹幕信息的数量来评估视频质量,本技术方案使用的是根据弹幕信息的情绪标签来评估视频质量,解决因仅通过弹幕信息评估视频质量所带来的评估不准确和片面的问题,以实现根据观众用户对视频的情绪来进一步分析视频内容的质量,从而提高对视频内容的分析准确度,且进一步的有利于间接发现与观众用户产生情感共鸣的视频。
实施例二
图2A为本发明实施例二提供的一种视频分析方法的流程图,图2B为本发明实施例二提供的一种情绪识别模型的结构示意图。
参照图2A,本实施例在上述实施例的基础上进一步细化,该视频分析方法具体包括如下步骤:
S210、获取观众用户观看视频时发送的弹幕信息。
本实施例中,将视频和弹幕信息关联存储于服务器中,在使用时进行获取。
S220、将每一所述弹幕信息转换成基于词向量表达的句子矩阵。
本实施例中,该句子矩阵基于词向量进行表达。其中,词向量是用于表征弹幕信息中词语的特征,该词语可以是弹幕信息中的关键词或者全部词语。
在一实施例中,提取所述弹幕信息中预设数量的关键词;将所述关键词通过预设的词向量模型进行转换,得到词向量;基于所述关键词的词向量组合得到所述弹幕信息的句子矩阵。
其中,关键词是指能反映文本信息主题的词语。具体的,关键词的提取可以采用自然语言处理的方法,如词频-逆向文件频率(term frequency–inverse documentfrequency,TF-IDF)关键词提取方法、主题模型(Topic-model)关键词提取方法和快速自动提取关键词提取(Rapid Automatic Keyword Extraction,RAKE)方法。需要说明的是,所有的弹幕信息都需要提取相同预设数量的关键词,以保证表征弹幕信息的句子矩阵的维度保持一致,以便进行相似度的计算。在一实施例中,当弹幕信息中的关键词少于预设数量时,则可以采用重复的方式将关键词的数量补充到预设数量。如待分类的弹幕信息中的关键词为“A,B,C”,而预设数量为四个,则可以将分类的弹幕信息中的关键词设置为“A,A,B,C”。
进一步的,预设的词向量模型可以是Word2vec模型。其中,Word2vec模型为一群用来产生词向量的相关模型。Word2vec模型可用来映射每个词到一个向量,亦可用来表示词对词之间的关系。需要说明的是,为了保证Word2vec模型更加符合弹幕信息的特点,本实施例采用语料库对Word2vec模型进行训练,该语料库包括弹幕语料和百科语料。百科语料可以从各种百科网站中获取,如百度百科和维基百科等。
再进一步的,本实施例对词向量如何组合成句子矩阵不作限定,可以是将词向量作为句子矩阵的列向量或行向量。本实施例以将词向量作为句子矩阵的行向量为例进行说明。
S230、将所述句子矩阵转换为所述弹幕信息所属的情绪标签。
本实施例中,将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签。示例性的,所述情绪识别模型为文本卷积神经网络。参考图2B,文本卷积神经网络至少包括卷积层、隐藏层和输出层。将句子矩阵输入情绪识别模型的卷积层进行卷积运算,进一步的,经过至少一层隐藏层进行处理,最后从输出层输出情绪标签。
进一步的,可以通过获取训练样本集,所述训练样本集包括标记有样本情绪标签的样本弹幕信息;使用所述训练样本集对情绪识别模型进行训练;当满足预设的停止条件时,得到用于识别情绪标签的情绪识别模型。
S240、确定情绪标签中与质量评估相关的预设标签。
本实施例中,不同类别的视频的质量评估的标准不同。可以从情绪标签中选取适于该视频的类别质量评估的预设标签。示例性的,参考表1,当视频的类别为喜剧时,可以选取“高兴”情绪标签作为与该视频与质量评估相关的预设标签;当视频的类别为恐怖剧是,可以选取“恐惧”情绪标签作为与该视频与质量评估相关的预设标签。
S250、将所述预设标签的比例作为所述观众用户对所述视频的质量评估值。
本实施例中,质量评估值可以是通过以下方式计算:确定各情绪标签的标签权重值;将各情绪标签所属的标签权重值和比例进行乘积运算,得到各情绪标签的子质量评估值;将所有情绪标签的子质量评估值进行求和,得到观众用户对视频的质量评估值。进一步的,各情绪标签的标签权重值根据实际应用进行设置。
S260、若所述质量评估值超过预设阈值,则对所述视频或上传所述视频的主播用户进行推送。
需要注意的是,在非直播平台的应用场景中,主播用户可以指的是上传该视频的用户。
本实施例中,主要是通过归属于各情绪标签的弹幕信息的比例确定观众用户对该视频的情绪,从而间接地得到观众用户对视频的情感共鸣,进一步的,可以通过质量评估值对该情感共鸣的程度进行量化。
当质量评估值超过预设阈值,将该视频作为高质量视频进行推送。进一步的,上传视频的主播用户可以作为优秀主播用户进行推送。由此,一方面,可以增加视频和主播用户的曝光率,增加视频的点击率和浏览量,增加主播用户的关注量;另一方面,有利于视频分享平台发现有价值的视频和主播用户,提高平台收入。
本实施例的技术方案通过获取观众用户观看视频时发送的弹幕信息;将每一所述弹幕信息转换成基于词向量表达的句子矩阵;将所述句子矩阵转换为所述弹幕信息所属的情绪标签;确定情绪标签中与质量评估相关的预设标签;将所述预设标签的比例作为所述观众用户对所述视频的质量评估值;若所述质量评估值超过预设阈值,则对所述视频或上传所述视频的主播用户进行推送,由此,区别于仅通过视频中弹幕信息的数量来评估视频质量,本技术方案使用的是根据弹幕信息的情绪标签来评估视频质量,解决因仅通过弹幕信息评估视频质量所带来的评估不准确和片面的问题,以实现根据观众用户对视频的情绪来进一步分析视频内容的质量,从而提高对视频内容的分析准确度,且有利于间接发现与观众用户产生情感共鸣的视频。进一步的,对质量评估值超过预设阈值的视频或上传所述视频的主播用户进行推送,一方面,可以增加视频和主播用户的曝光率,增加视频的点击率和浏览量,增加主播用户的关注量;另一方面,有利于视频分享平台发现有价值的视频和主播用户,提高平台收入。在进一步的,确定情绪标签中与质量评估相关的预设标签,将所述预设标签的比例作为所述观众用户对所述视频的质量评估值,可以为不同类别的视频的质量评估提供不同的标准,从而使得质量评估的结果更加准确。
实施例三
图3为本发明实施例三提供的一种视频分析装置的结构示意图。
本实施例可适用于对视频的内容进行质量评估的情况,具体的,本实施例对视频分析方法的应用场景不作限定,凡是涉及到通过对视频的弹幕信息进行情绪分析,进而对视频的内容进行质量评估的应用场景均可适用。该装置可以集成于视频分析设备中,本实施例对视频分析不作限定,该视频分析设备可以是电脑和服务器等。本实施例以视频分析设备为服务器进行详细说明,该服务器可以是独立服务器或集群服务器。进一步的,为了说明清楚,本实施例以该视频分析方法应用于视频分享平台的服务器中为例进行说明。其中,视频分享平台是指可以进行视频的观看和上传的网站平台。进一步的,视频分享平台可以是直播平台。直播平台中的观众用户包括主播用户和观众用户两种,其中,主播用户可以向直播平台上传录制有直播内容的视频,观众可以通过直播平台实时观看该直播内容的视频。
参照图3,该视频分析装置具体包括如下结构:弹幕信息获取模块310、情绪标签识别模块320、标签比例确定模块330和质量评估模块340。
弹幕信息获取模块310,用于获取观众用户观看视频时发送的弹幕信息。
情绪标签识别模块320,用于识别每一所述弹幕信息所属的情绪标签。
标签比例确定模块330,用于确定归属于每一所述情绪标签的所述弹幕信息的比例。
质量评估模块340,用于根据所述比例计算所述观众用户对所述视频的质量评估值。
本实施例的技术方案通过获取观众用户观看视频时发送的弹幕信息;识别每一所述弹幕信息所属的情绪标签;确定归属于每一所述情绪标签的所述弹幕信息的比例;根据所述比例计算所述观众用户对所述视频的质量评估值,由此,区别于仅通过视频中弹幕信息的数量来评估视频质量,本技术方案使用的是根据弹幕信息的情绪标签来评估视频质量,解决因仅通过弹幕信息评估视频质量所带来的评估不准确和片面的问题,以实现根据观众用户对视频的情绪来进一步分析视频内容的质量,从而提高对视频内容的分析准确度,且进一步的有利于间接发现与观众用户产生情感共鸣的视频。
在上述技术方案的基础上,情绪标签识别模块320,包括:
句子矩阵转换单元,用于将每一所述弹幕信息转换成基于词向量表达的句子矩阵。
情绪标转换单元,用于将所述句子矩阵转换为所述弹幕信息所属的情绪标签。
在上述技术方案的基础上,句子矩阵转换单元,包括:
关键词提取子单元,用于提取所述弹幕信息中预设数量的关键词。
词向量转换子单元,用于将所述关键词通过预设的词向量模型进行转换,得到词向量。
句子矩阵生成子单元,用于基于所述关键词的词向量组合得到所述弹幕信息的句子矩阵。
在上述技术方案的基础上,情绪标转换单元,包括:
情绪标签识别子单元,用于将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签。
在上述技术方案的基础上,所述情绪识别模型为文本卷积神经网络;所述情绪标转换单元还包括:
训练样本集获取子单元,用于在将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签之前,获取训练样本集,所述训练样本集包括标记有样本情绪标签的样本弹幕信息。
训练子单元,用于使用所述训练样本集对情绪识别模型进行训练。
情绪识别模型确定子单元,用于当满足预设的停止条件时,得到用于识别情绪标签的情绪识别模型。
在上述技术方案的基础上,质量评估模块340,包括:
预设标签确定单元,用于确定情绪标签中与质量评估相关的预设标签。
质量评估值确定单元,用于将所述预设标签的比例作为所述观众用户对所述视频的质量评估值。
在上述技术方案的基础上,该装置还包括:
推送模块,用于在根据所述比例计算所述观众用户对所述视频的质量评估值之后,若所述质量评估值超过预设阈值,则对所述视频或上传所述视频的主播用户进行推送。
上述产品可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
实施例四
图4为本发明实施例四提供的一种视频分析设备的结构示意图。如图4所示,该视频分析设备包括:处理器40、存储器41、输入装置42以及输出装置43。该视频分析设备中处理器40的数量可以是一个或者多个,图4中以一个处理器40为例。该视频分析设备中存储器41的数量可以是一个或者多个,图4中以一个存储器41为例。该视频分析设备的处理器40、存储器41、输入装置42以及输出装置43可以通过总线或者其他方式连接,图4中以通过总线连接为例。该视频分析设备可以是电脑和服务器等。本实施例以视频分析设备为服务器进行详细说明,该服务器可以是独立服务器或集群服务器。
存储器41作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明任意实施例所述的视频分析方法对应的程序指令/模块(例如,视频分析装置中的弹幕信息获取模块310、情绪标签识别模块320、标签比例确定模块330和质量评估模块340)。存储器41可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器41可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器41可进一步包括相对于处理器40远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置42可用于接收输入的数字或者字符信息,以及产生与视频分析设备的观众用户设置以及功能控制有关的键信号输入,还可以是用于获取图像的摄像头以及获取音频数据的拾音设备。输出装置43可以包括扬声器等音频设备。需要说明的是,输入装置42和输出装置43的具体组成可以根据实际情况设定。
处理器40通过运行存储在存储器41中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的视频分析方法。
实施例五
本发明实施例五还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种视频分析方法,应用于视频分析装置,所述视频分析装置在客户端加载目标页面时进行加载,包括:
获取观众用户观看视频时发送的弹幕信息;
识别每一所述弹幕信息所属的情绪标签;
确定归属于每一所述情绪标签的所述弹幕信息的比例;
根据所述比例计算所述观众用户对所述视频的质量评估值。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的视频分析方法操作,还可以执行本发明任意实施例所提供的视频分析方法中的相关操作,且具备相应的功能和有益效果。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是机器人,个人计算机,服务器,或者网络设备等)执行本发明任意实施例所述的视频分析方法。
值得注意的是,上述视频分析装置中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种视频分析方法,其特征在于,包括:
获取观众用户观看视频时发送的弹幕信息;
识别每一所述弹幕信息所属的情绪标签;
确定归属于每一所述情绪标签的所述弹幕信息的比例;
根据所述比例计算所述观众用户对所述视频的质量评估值;
若所述质量评估值超过预设阈值,则对所述视频或上传所述视频的主播用户进行推送;
其中,根据所述比例计算所述观众用户对所述视频的质量评估值,包括:
确定情绪标签中与质量评估相关的预设标签,所述预设标签为与所述视频的类别适配的标签;
将所述预设标签的比例作为所述观众用户对所述视频的质量评估值。
2.根据权利要求1所述的方法,其特征在于,识别每一所述弹幕信息所属的情绪标签,包括:
将每一所述弹幕信息转换成基于词向量表达的句子矩阵;
将所述句子矩阵转换为所述弹幕信息所属的情绪标签。
3.根据权利要求2所述的方法,其特征在于,将每一所述弹幕信息转换成基于词向量表达的句子矩阵,包括:
提取所述弹幕信息中预设数量的关键词;
将所述关键词通过预设的词向量模型进行转换,得到词向量;
基于所述关键词的词向量组合得到所述弹幕信息的句子矩阵。
4.根据权利要求2所述的方法,其特征在于,将所述句子矩阵转换为所述弹幕信息所属的情绪标签,包括:
将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签。
5.根据权利要求4所述的方法,其特征在于,所述情绪识别模型为文本卷积神经网络;
在将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签之前,还包括:
获取训练样本集,所述训练样本集包括标记有样本情绪标签的样本弹幕信息;
使用所述训练样本集对情绪识别模型进行训练;
当满足预设的停止条件时,得到用于识别情绪标签的情绪识别模型。
6.一种视频分析装置,其特征在于,包括:
弹幕信息获取模块,用于获取观众用户观看视频时发送的弹幕信息;
情绪标签识别模块,用于识别每一所述弹幕信息所属的情绪标签;
标签比例确定模块,用于确定归属于每一所述情绪标签的所述弹幕信息的比例;
质量评估模块,用于根据所述比例计算所述观众用户对所述视频的质量评估值;
推送模块,用于若所述质量评估值超过预设阈值,则对所述视频或上传所述视频的主播用户进行推送;
其中,质量评估模块包括:
预设标签确定单元,用于确定情绪标签中与质量评估相关的预设标签,所述预设标签为与所述视频的类别适配的标签;
质量评估值确定单元,用于将所述预设标签的比例作为所述观众用户对所述视频的质量评估值。
7.一种视频分析设备,其特征在于,包括:存储器、具有触摸功能的显示屏以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的视频分析方法。
8.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-5中任一所述的视频分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910107607.2A CN109862397B (zh) | 2019-02-02 | 2019-02-02 | 一种视频分析方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910107607.2A CN109862397B (zh) | 2019-02-02 | 2019-02-02 | 一种视频分析方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109862397A CN109862397A (zh) | 2019-06-07 |
CN109862397B true CN109862397B (zh) | 2021-11-09 |
Family
ID=66897577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910107607.2A Active CN109862397B (zh) | 2019-02-02 | 2019-02-02 | 一种视频分析方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109862397B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110213610B (zh) * | 2019-06-13 | 2021-05-28 | 北京奇艺世纪科技有限公司 | 一种直播场景识别方法及装置 |
CN110337008B (zh) * | 2019-06-21 | 2020-10-13 | 腾讯科技(深圳)有限公司 | 视频互动调整方法、装置、设备及存储介质 |
CN110324662B (zh) * | 2019-06-28 | 2022-07-22 | 北京奇艺世纪科技有限公司 | 一种视频封面生成方法及装置 |
CN110798747A (zh) * | 2019-09-27 | 2020-02-14 | 咪咕视讯科技有限公司 | 一种视频播放方法、电子设备及存储介质 |
CN111340329B (zh) * | 2020-02-05 | 2024-02-20 | 科大讯飞股份有限公司 | 演员评估方法、装置及电子设备 |
CN111860237B (zh) * | 2020-07-07 | 2022-09-06 | 中国科学技术大学 | 一种视频情感片段的识别方法及装置 |
CN112073757B (zh) * | 2020-08-13 | 2023-01-24 | 北京奇艺世纪科技有限公司 | 情绪波动指数获取方法、显示方法及多媒体内容制作方法 |
CN112911326B (zh) * | 2021-01-29 | 2023-04-11 | 平安科技(深圳)有限公司 | 弹幕信息处理方法、装置、电子设备和存储介质 |
CN114419527B (zh) * | 2022-04-01 | 2022-06-14 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、设备以及计算机可读存储介质 |
CN115174947A (zh) * | 2022-06-28 | 2022-10-11 | 广州博冠信息科技有限公司 | 直播视频的提取方法及装置、存储介质、电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7685022B1 (en) * | 2007-06-15 | 2010-03-23 | Amazon Technologies, Inc. | System and method of offering media content |
CN104504059A (zh) * | 2014-12-22 | 2015-04-08 | 合一网络技术(北京)有限公司 | 多媒体资源推荐方法 |
CN105095508A (zh) * | 2015-08-31 | 2015-11-25 | 北京奇艺世纪科技有限公司 | 一种多媒体内容推荐方法和多媒体内容推荐装置 |
CN108737859A (zh) * | 2018-05-07 | 2018-11-02 | 华东师范大学 | 基于弹幕的视频推荐方法和装置 |
CN109299463A (zh) * | 2018-09-26 | 2019-02-01 | 武汉斗鱼网络科技有限公司 | 一种情感得分的计算方法以及相关设备 |
-
2019
- 2019-02-02 CN CN201910107607.2A patent/CN109862397B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7685022B1 (en) * | 2007-06-15 | 2010-03-23 | Amazon Technologies, Inc. | System and method of offering media content |
CN104504059A (zh) * | 2014-12-22 | 2015-04-08 | 合一网络技术(北京)有限公司 | 多媒体资源推荐方法 |
CN105095508A (zh) * | 2015-08-31 | 2015-11-25 | 北京奇艺世纪科技有限公司 | 一种多媒体内容推荐方法和多媒体内容推荐装置 |
CN108737859A (zh) * | 2018-05-07 | 2018-11-02 | 华东师范大学 | 基于弹幕的视频推荐方法和装置 |
CN109299463A (zh) * | 2018-09-26 | 2019-02-01 | 武汉斗鱼网络科技有限公司 | 一种情感得分的计算方法以及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109862397A (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109862397B (zh) | 一种视频分析方法、装置、设备和存储介质 | |
US10824874B2 (en) | Method and apparatus for processing video | |
US11605226B2 (en) | Video data processing method and apparatus, and readable storage medium | |
CN110020437B (zh) | 一种视频和弹幕相结合的情感分析及可视化方法 | |
US10209782B2 (en) | Input-based information display method and input system | |
CN110837579A (zh) | 视频分类方法、装置、计算机以及可读存储介质 | |
CN111798879B (zh) | 用于生成视频的方法和装置 | |
CN104598644B (zh) | 喜好标签挖掘方法和装置 | |
CN110839173A (zh) | 一种音乐匹配方法、装置、终端及存储介质 | |
CN112559800B (zh) | 用于处理视频的方法、装置、电子设备、介质和产品 | |
CN110719525A (zh) | 弹幕表情包的生成方法、电子设备和可读存储介质 | |
CN110740389B (zh) | 视频定位方法、装置、计算机可读介质及电子设备 | |
CN109408672B (zh) | 一种文章生成方法、装置、服务器及存储介质 | |
KR102034346B1 (ko) | 학습 기반의 비속어 탐지 장치 및 방법 | |
CN111767461A (zh) | 数据处理方法及装置 | |
CN110347866B (zh) | 信息处理方法、装置、存储介质及电子设备 | |
CN112364204A (zh) | 视频搜索方法、装置、计算机设备及存储介质 | |
CN109241299B (zh) | 多媒体资源搜索方法、装置、存储介质及设备 | |
CN111046172A (zh) | 一种舆情分析方法、装置、设备和存储介质 | |
CN111708909A (zh) | 视频标签的添加方法及装置、电子设备、计算机可读存储介质 | |
CN112765403A (zh) | 一种视频分类方法、装置、电子设备及存储介质 | |
JP6486165B2 (ja) | 候補キーワード評価装置及び候補キーワード評価プログラム | |
CN116977774A (zh) | 图像生成方法、装置、设备和介质 | |
CN109062905B (zh) | 一种弹幕文本价值评价方法、装置、设备及介质 | |
CN110162689B (zh) | 信息推送方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |