CN111340329A - 演员评估方法、装置及电子设备 - Google Patents
演员评估方法、装置及电子设备 Download PDFInfo
- Publication number
- CN111340329A CN111340329A CN202010080735.5A CN202010080735A CN111340329A CN 111340329 A CN111340329 A CN 111340329A CN 202010080735 A CN202010080735 A CN 202010080735A CN 111340329 A CN111340329 A CN 111340329A
- Authority
- CN
- China
- Prior art keywords
- actor
- bullet screen
- assessment
- video
- barrage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000011156 evaluation Methods 0.000 claims abstract description 68
- 238000013210 evaluation model Methods 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 15
- 230000014509 gene expression Effects 0.000 claims description 43
- 238000007781 pre-processing Methods 0.000 claims description 23
- 238000012216 screening Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 description 28
- 239000013598 vector Substances 0.000 description 14
- 238000004891 communication Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 101100063432 Caenorhabditis elegans dim-1 gene Proteins 0.000 description 2
- 208000004929 Facial Paralysis Diseases 0.000 description 2
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 2
- 244000046052 Phaseolus vulgaris Species 0.000 description 2
- 208000036826 VIIth nerve paralysis Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000003796 beauty Effects 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
Abstract
本发明实施例提供一种演员评估方法、装置及电子设备,所述演员评估方法包括:获取目标视频中的视频弹幕;将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果;所述演员评估模型以样本演员评论为样本,以与所述样本演员评论对应的样本演员评估结果为样本标签训练得到。本发明实施例的演员评估方法、装置及电子设备,通过弹幕数据对演员进行评估,评估的实时性极好,且数据源大,数据来源可靠,可以获得更为准确客观的评估。
Description
技术领域
本发明涉及视频分析技术领域,更具体地,涉及一种演员评估方法、装置及电子设备。
背景技术
传统的演员演技评估数据,大多数都是通过收集一些著名的网站,如豆瓣,优酷,爱奇艺等视频网站网友的留言来分析。这些网友的留言信息,一般都是在影视播放结束一段时间后收集的,整个过程较长,效率较低,实时性较差。
发明内容
本发明实施例提供一种克服上述问题或者至少部分地解决上述问题的演员评估方法、装置及电子设备。
第一方面,本发明实施例提供一种演员评估方法,包括:获取目标视频中的视频弹幕;将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果;所述演员评估模型以样本演员评论为样本,以与所述样本演员评论对应的样本演员评估结果为样本标签训练得到。
在一些实施例中,所述将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果,包括:将所述视频弹幕输入至所述演员评估模型的前处理层,获得各演员对应的弹幕表达;将所述弹幕表达输入至所述演员评估模型的推理层,获得所述演员评估结果。
在一些实施例中,所述将所述视频弹幕输入至所述演员评估模型的前处理层,获得各演员对应的弹幕表达,包括:将所述视频弹幕输入至所述前处理层的筛选层,获得所述视频弹幕中各演员对应的评论弹幕;将所述各演员对应的评论弹幕输入至所述前处理层的编码层,获得所述各演员对应的弹幕表达。
在一些实施例中,所述将所述视频弹幕输入至所述前处理层的筛选层,获得所述视频弹幕中各演员对应的评论弹幕,包括:在所述视频弹幕对应的视频帧中出现多个演员时,对所述视频弹幕进行聚类,生成多个弹幕簇;基于所述多个弹幕簇,确定各弹幕簇对应弹幕特征;获取所述多个演员分别对应的演员特征;基于所述弹幕特征和所述演员特征,确定所述多个演员与所述多个弹幕簇的对应关系,所述演员对应的弹幕簇为该演员对应的评论弹幕。
在一些实施例中,所述将所述各演员对应的评论弹幕输入至所述前处理层的编码层,获得所述各演员对应的弹幕表达,包括:对所述评论弹幕进行特征提取,获取所述弹幕表达。
在一些实施例中,所述将所述弹幕表达输入至所述演员评估模型的推理层,获得所述演员评估结果,包括:基于所述弹幕表达,获得各演员对应的评估信息;基于所述评估信息,获得述演员评估结果。
在一些实施例中,所述评估信息包括:词权重和句子权重和/或标签权重,所述词权重用于表征所述弹幕表达中各个词的权重,所述句子权重用于表征所述弹幕表达对应的各条弹幕的权重,所述标签权重用于表征所述演员的标签信息的权重;所述基于所述评估信息,获得所述演员评估结果,包括:基于所述词权重和所述句子权重,确定演员关键词;基于所述标签权重,确定演员评估级别。
第二方面,本发明实施例提供一种演员评估装置,包括:弹幕获取单元,用于获取目标视频中的视频弹幕;评估单元,用于将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果;所述演员评估模型以样本演员评论为样本,以与所述样本演员评论对应的样本演员评估结果为样本标签训练得到。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例的演员评估方法、装置及电子设备,通过弹幕数据对演员进行评估,评估的实时性极好,且数据源大,数据来源可靠,可以获得更为准确客观的评估。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的演员评估方法的流程图;
图2为本发明实施例的演员评估方法中对视频弹幕进行聚类的流程图;
图3为本发明实施例的演员评估方法中确定演员与弹幕簇的对应关系的流程图;
图4为本发明实施例的演员评估方法的流程图;
图5为本发明实施例的演员评估装置的结构示意图;
图6为本发明实施例的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合图1-图4描述本发明实施例的演员评估方法。
如图1所示,本发明实施例的演员评估方法包括如下步骤:
步骤S100、获取目标视频中的视频弹幕。
目标视频为待评估的视频,视频弹幕可以通过影视播放器弹幕数据系统获取,也可以通过视频网站特定的API接口获取,也可以通过影视视频图像识别。
步骤S200、将视频弹幕输入至演员评估模型,获得演员评估模型输出的演员评估结果;演员评估模型以样本演员评论为样本,以与样本演员评论对应的样本演员评估结果为样本标签训练得到。
该演员评估模型用于评估演员在对应视频中的演技等。
换言之,该演员评估模型的训练样本为:样本演员评论;该演员评估模型的训练标签为:样本演员评估结果,该样本演员评估结果可以为提前人工标定的,或者其他专业影评网站获取的。
在实际的执行中,从一些专业网站如豆瓣,爱奇艺等视频网站,获取各个不同演员(样本演员)的样本演员评论和样本演员评估结果。这些样本演员评估结果对应不同的演技水平,如演技一流、演技精湛、演技较好、演技一般、演技较差等级别。收集到的样本演员评估结果需要经过初步清洗,如停用词表过滤、敏感词语过滤等。
利用清洗后的样本演员评估结果,进行按字切分,对每一个切字进行频率统计,最后根据字出现的频率大小进行排序。排序后的字为最终生成的词表。
根据已经处理好的样本演员评论和样本演员评估结果对演员评估模型进行训练,所述演员评估模型可以为分类模型,如双向LSTM神经网络模型。
可以理解的是,弹幕作为一种新的信息传播方式,视频观看者在观看视频过程中可以实时地对视频中的演员进行点评,进行吐槽或进行点赞,发表个人的心声,众多的心声往往可以反映出一个演员在当前影视中的演技水平。
本发明实施例的演员评估方法,通过弹幕数据对演员进行评估,评估的实时性极好,且数据源大,数据来源可靠,可以获得更为准确客观的评估。
在一些实施例中,步骤S200、将视频弹幕输入至演员评估模型,获得演员评估模型输出的演员评估结果,包括:步骤S210和步骤S220。
步骤S210、将视频弹幕输入至演员评估模型的前处理层,获得各演员对应的弹幕表达。
换言之,演员评估模型包括前处理层,前处理层用于根据视频弹幕,确定各演员对应的弹幕表达。弹幕表达可以为编码后的弹幕,以便于后续分析。
视频弹幕可以为直接获取的弹幕数据,前处理层可以通过对弹幕数据进行筛选编码等,以获得弹幕表达。
进一步地,步骤S210、将视频弹幕输入至演员评估模型的前处理层,获得各演员对应的弹幕表达,包括:步骤S211和步骤S212。
步骤S211、将视频弹幕输入至前处理层的筛选层,获得视频弹幕中各演员对应的评论弹幕。
可以理解的是,一方面弹幕往往滞后于视频帧,另一方面在视频帧中出现多个演员时,还需要确定某条弹幕对应于哪个演员。该步骤用于确定弹幕与演员的对应关系。
比如通过视频图像识别技术,实时的识别视频中的演员,并且实时的识别对应的弹幕数据。当视频帧中只出现一个演员时,只需考虑时延就可。记演员出现时间t1,离开时间t2,则t2+c时间点到t1+c时间点的内容是属于该演员的视频弹幕,c为预设时延,比如c可以为1s。由于弹幕文字中乱数据、无关的数据较多,所以对视频弹幕需要进行再次过滤筛选。过滤的步骤分为两步,第一步:敏感词过滤,通过规则层面过滤一些含有敏感词的弹幕数据。第二步:通过机器学习算法,如贝叶斯等分类算法等,过滤具有不良信息、负面信息的数据。
具体地,如图3所示,步骤S211、将视频弹幕输入至前处理层的筛选层,获得视频弹幕中各演员对应的评论弹幕,包括:
在视频弹幕对应的视频帧中出现多个演员时,对视频弹幕进行聚类,生成多个弹幕簇。如图2所示,在实际的执行中,对获取的视频弹幕进行聚类,具体的分为以下几步:(1)视频弹幕分词;(2)停用词表过滤,去掉一些停用词、语气词等无关词语;(3)构建词袋子空间,所有的弹幕数据进行分词,停用词过滤,生成词袋子空间;(4)计算每一条弹幕数据分词后的tf-idf权重值;(5)使用聚类算法,如KMeans算法进行聚类,聚类之前设置聚类参数,参数为类簇数量,这里类簇数量为视频画面中人物角色数量。
基于多个弹幕簇,确定各弹幕簇对应弹幕特征。在实际的执行中,可以根据上述步骤获取的k个弹幕簇,对每个弹幕簇使用LSTM进行编码,生成1*256特征向量D,特征向量D用于表征各弹幕簇对应弹幕特征。
获取多个演员分别对应的演员特征。演员特征可以表征观众对该演员的既有印象或评估。在实际的执行中,演员特质可以从以下几个维度提取:a.演员简介;b.常用视频网站对演员的评估数据;c.图像识别获取画面中人物角色,颜值、穿着等评估信息(该评估信息可以通过图像视频技术获取);d.视频画面人物角色台词信息;e.人物角色说话音色评估数据,如“悠长婉转”、“悦耳动听”、“轻盈动听有活力”等(该评估信息可以通过语音视频技术获取);f.人物角色历史信息,如近期热门相关信息,历史事件等信息。在提取到演员特质后,可以使用循环神经网络LSTM对每一个维度演员特质进行编码,生成256维特征向量。演员特质一共有6个维度,最终形成6*256的特征向量矩阵A。再通过self-attention学习每一维度特征权重,生成的特征向量为1*6的矩阵B,矩阵B*A生成一个1*256的矩阵向量C,矩阵向量C用于表征演员特征。
需要说明的是,上述弹幕特征和演员特征的获取不分先后顺序,可以是先获取弹幕特征,再获取演员特征,或者先获取演员特征,再获取弹幕特征,或者获取弹幕特征和获取演员特征同步进行。
基于弹幕特征和演员特征,确定多个演员与多个弹幕簇的对应关系,演员对应的弹幕簇为该演员对应的评论弹幕。如图3所示,在实际的执行中,将特征向量D与矩阵向量C做夹角余弦相似度计算。夹角余弦得分最高的弹幕簇表示和该演员相关,可作为该演员人物的评论弹幕。
步骤S212、将各演员对应的评论弹幕输入至前处理层的编码层,获得各演员对应的弹幕表达。
换言之,演员评估模型具有编码层,编码层用于根据评论弹幕,确定各演员对应的弹幕表达。
步骤S212、将各演员对应的评论弹幕输入至前处理层的编码层,获得各演员对应的弹幕表达,包括:对评论弹幕进行特征提取,获取弹幕表达。
在实际的执行中,评论弹幕包括由多条弹幕,对每一条弹幕进行分词。分词可以用各自开源的分词系统,如“哈工大LTP分词”。
该演员的评论弹幕经过分词后,分成N句,M个词,每一个词再做词向量映射,每个词的向量表达为1*dim。如刘德华演员的评估数据为:“刘德华演技精湛,让我印象深刻”分词后为:“刘德华/演技/精湛/让/我/印象/深刻”,一共分成7个词,词表映射后的向量矩阵为7*dim。词表映射就是从词表中找出该字对应的id编码,词表是模型训练时候提前生成的。
最后生成的弹幕表达利用一个N*M*dim的矩阵来表示,N和M以及dim的取值是根据经验值设定,没有特别的限定。
最终编码层输出的是矩阵N*M*dim。
步骤S220、将弹幕表达输入至演员评估模型的推理层,获得演员评估结果。
步骤S220、将弹幕表达输入至演员评估模型的推理层,获得演员评估结果,包括:步骤S221、基于弹幕表达,获得各演员对应的评估信息;步骤S222、基于评估信息,获得述演员评估结果。
如图4所示,评估信息包括:词权重和句子权重和/或标签权重,在第一个实施例中,评估信息包括:词权重和句子权重;在第二个实施例中,评估信息包括:标签权重;在第三个实施例中,评估信息包括:词权重、句子权重和标签权重。
词权重用于表征弹幕表达中各个词的权重,句子权重用于表征弹幕表达对应的各条弹幕的权重,标签权重用于表征演员的标签信息的权重。
步骤S222、基于评估信息,获得演员评估结果,包括:基于词权重和句子权重,确定演员关键词;基于标签权重,确定演员评估级别。
当评估信息包括:词权重和句子权重时,步骤S222、基于评估信息,获得演员评估结果,包括:基于词权重和句子权重,确定演员关键词。也就是说,演员评估结果可以包括演员关键词,包括但不限于:“实力派”、“面瘫”和“神仙颜值”等。
当评估信息包括:标签权重时,步骤S222、基于评估信息,获得演员评估结果,包括:基于标签权重,确定演员评估级别。也就是说,演员评估结果可以包括演员评估级别,包括但不限于:“演技一流”、“演技精湛”、“演技较好”、“演技一般”和“演技较差”等。
当评估信息包括:词权重、句子权重和标签权重。包括:基于词权重和句子权重,确定演员关键词;和,基于标签权重,确定演员评估级别。也就是说,演员评估结果可以包括演员评估级别和演员关键词,演员评估级别包括但不限于:“演技一流”、“演技精湛”、“演技较好”、“演技一般”和“演技较差”等,演员关键词包括但不限于:“实力派”、“面瘫”和“神仙颜值”等。
在实际的执行中,如图4所示,对每一个角色演员的评论弹幕进行分词,分词后的词语生成向量,最终的弹幕数据生成的特征向量为N*M,N表示句子数量,M表示每一句的词语数量,对词做word embedding,每个词的词向量表达为1*dim,最终输入的数据的表达为N*M*dim。
每个句子的表达是M*dim的矩阵A,模型训练学习每一个词的权重得分,生成dim*1的矩阵B,矩阵A*B得到M*1的矩阵,最终得到词权重(词语权重矩阵)N*M。
输入弹幕表达N*M*dim,每一个句子表达为M*dim,做矩阵转换,1*M矩阵和矩阵M*dim相乘得到1*dim,最终输入数据的在句子上的表达为N*dim,模型训练学习得到矩阵dim*1,N*dim矩阵和dim*1矩阵相乘,最终得到N*1句子的权重矩阵。
根据句子表达为N*dim,对矩阵进行变换,1*N*N*dim得到1*dim的矩阵,输入数据的表达为1*dim。标签类别数量为k,模型训练学习得到矩阵dim*k,矩阵1*dim和矩阵dim*k相乘得到1*k矩阵,最终模型输出为标签权重1*K,句子权重为N*1,词语权重为N*M。
标签权重1*K,对应的标签列表的词语得分权重,标签列表是模型训练之前就规定好的演员评估标签信息,如“演技一般”、“表现不佳”等词语,一共有k种评估信息。句子权重1*N对应的是输入N条句子相对应的得分权重Wi,词语权重Wj为输入的词语矩阵相对应每一个词语的权重。
最终的每一个词语得分权重为句子权重和词权重的乘积,为Wi*Wj,最后对每个词语进行得分排序,得分靠前的词语作为演员的评估关键词信息。
下面对本发明实施例提供的演员评估装置进行描述,下文描述的演员评估装置与上文描述的演员评估方法可相互对应参照。
如图5所示,本发明提供的演员评估装置,包括:弹幕获取单元510和评估单元520。
其中,弹幕获取单元510,用于获取目标视频中的视频弹幕;评估单元520,用于将视频弹幕输入至演员评估模型,获得演员评估模型输出的演员评估结果;演员评估模型以样本演员评论为样本,以与样本演员评论对应的样本演员评估结果为样本标签训练得到。
在一些实施例中,评估单元520还包括:前处理模块和推理模块,前处理模块用于根据输入的视频弹幕获取各演员对应的弹幕表达;推理模块用于根据输入的弹幕表达获得演员评估结果。
进一步地,前处理模块可以包括:筛选模块和编码模块。筛选模块用于根据输入的视频弹幕获得视频弹幕中各演员对应的评论弹幕;编码模块用于根据输入的各演员对应的评论弹幕获得各演员对应的弹幕表达。
具体地,筛选模块还用于在视频弹幕对应的视频帧中出现多个演员时,对视频弹幕进行聚类,生成多个弹幕簇;基于多个弹幕簇,确定各弹幕簇对应弹幕特征;获取多个演员分别对应的演员特征;基于弹幕特征和演员特征,确定多个演员与多个弹幕簇的对应关系,演员对应的弹幕簇为该演员对应的评论弹幕。
具体地,编码模块还用于对评论弹幕进行特征提取,获取弹幕表达。
进一步地,推理模块还包括:提取模块和评估模块。提取模块用于基于弹幕表达,获得各演员对应的评估信息;评估模块基于评估信息,获得述演员评估结果。
其中评估信息包括:词权重和句子权重和/或标签权重,词权重用于表征弹幕表达中各个词的权重,句子权重用于表征弹幕表达对应的各条弹幕的权重,标签权重用于表征演员的标签信息的权重。
评估模块还用于基于词权重和句子权重,确定演员关键词;基于标签权重,确定演员评估级别。
图6示例了一种电子设备的实体结构示意图,如图6所示,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行演员评估方法,该方法包括:获取目标视频中的视频弹幕;将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果;所述演员评估模型以样本演员评论为样本,以与所述样本演员评论对应的样本演员评估结果为样本标签训练得到。
需要说明的是,本实施例中的电子设备在具体实现时可以为服务器,也可以为PC机,还可以为其他设备,只要其结构中包括如图6所示的处理器810、通信接口820、存储器830和通信总线840,其中处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信,且处理器810可以调用存储器830中的逻辑指令以执行上述方法即可。本实施例不对电子设备的具体实现形式进行限定。
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
进一步地,本发明实施例公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的演员评估方法,该方法包括:获取目标视频中的视频弹幕;将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果;所述演员评估模型以样本演员评论为样本,以与所述样本演员评论对应的样本演员评估结果为样本标签训练得到。
另一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的演员评估方法,该方法包括:获取目标视频中的视频弹幕;将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果;所述演员评估模型以样本演员评论为样本,以与所述样本演员评论对应的样本演员评估结果为样本标签训练得到。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种演员评估方法,其特征在于,包括:
获取目标视频中的视频弹幕;
将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果;
所述演员评估模型以样本演员评论为样本,以与所述样本演员评论对应的样本演员评估结果为样本标签训练得到。
2.根据权利要求1所述的演员评估方法,其特征在于,所述将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果,包括:
将所述视频弹幕输入至所述演员评估模型的前处理层,获得各演员对应的弹幕表达;
将所述弹幕表达输入至所述演员评估模型的推理层,获得所述演员评估结果。
3.根据权利要求2所述的演员评估方法,其特征在于,所述将所述视频弹幕输入至所述演员评估模型的前处理层,获得各演员对应的弹幕表达,包括:
将所述视频弹幕输入至所述前处理层的筛选层,获得所述视频弹幕中各演员对应的评论弹幕;
将所述各演员对应的评论弹幕输入至所述前处理层的编码层,获得所述各演员对应的弹幕表达。
4.根据权利要求3所述的演员评估方法,其特征在于,所述将所述视频弹幕输入至所述前处理层的筛选层,获得所述视频弹幕中各演员对应的评论弹幕,包括:
在所述视频弹幕对应的视频帧中出现多个演员时,对所述视频弹幕进行聚类,生成多个弹幕簇;
基于所述多个弹幕簇,确定各弹幕簇对应弹幕特征;
获取所述多个演员分别对应的演员特征;
基于所述弹幕特征和所述演员特征,确定所述多个演员与所述多个弹幕簇的对应关系,所述演员对应的弹幕簇为该演员对应的评论弹幕。
5.根据权利要求3所述的演员评估方法,其特征在于,所述将所述各演员对应的评论弹幕输入至所述前处理层的编码层,获得所述各演员对应的弹幕表达,包括:
对所述评论弹幕进行特征提取,获取所述弹幕表达。
6.根据权利要求2-5中任一项所述的演员评估方法,其特征在于,所述将所述弹幕表达输入至所述演员评估模型的推理层,获得所述演员评估结果,包括:
基于所述弹幕表达,获得各演员对应的评估信息;
基于所述评估信息,获得述演员评估结果。
7.根据权利要求6所述的演员评估方法,其特征在于,所述评估信息包括:词权重和句子权重和/或标签权重,所述词权重用于表征所述弹幕表达中各个词的权重,所述句子权重用于表征所述弹幕表达对应的各条弹幕的权重,所述标签权重用于表征所述演员的标签信息的权重;
所述基于所述评估信息,获得所述演员评估结果,包括:
基于所述词权重和所述句子权重,确定演员关键词;
基于所述标签权重,确定演员评估级别。
8.一种演员评估装置,其特征在于,包括:
弹幕获取单元,用于获取目标视频中的视频弹幕;
评估单元,用于将所述视频弹幕输入至演员评估模型,获得所述演员评估模型输出的演员评估结果;
所述演员评估模型以样本演员评论为样本,以与所述样本演员评论对应的样本演员评估结果为样本标签训练得到。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述演员评估方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述演员评估方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010080735.5A CN111340329B (zh) | 2020-02-05 | 2020-02-05 | 演员评估方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010080735.5A CN111340329B (zh) | 2020-02-05 | 2020-02-05 | 演员评估方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111340329A true CN111340329A (zh) | 2020-06-26 |
CN111340329B CN111340329B (zh) | 2024-02-20 |
Family
ID=71186789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010080735.5A Active CN111340329B (zh) | 2020-02-05 | 2020-02-05 | 演员评估方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111340329B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570006A (zh) * | 2021-09-26 | 2021-10-29 | 秒影工场(北京)科技有限公司 | 一种演员评分方法及装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104811816A (zh) * | 2015-04-29 | 2015-07-29 | 北京奇艺世纪科技有限公司 | 一种为视频画面中的对象打弹幕标签的方法、装置及系统 |
CN105893350A (zh) * | 2016-03-31 | 2016-08-24 | 重庆大学 | 一种电子商务中文本评论质量的评价方法与系统 |
JP2017184024A (ja) * | 2016-03-30 | 2017-10-05 | デジタル・アドバタイジング・コンソーシアム株式会社 | 番組関連情報処理方法 |
US20170337182A1 (en) * | 2016-05-23 | 2017-11-23 | Ricoh Company, Ltd. | Evaluation element recognition method, evaluation element recognition apparatus, and evaluation element recognition system |
CN107608964A (zh) * | 2017-09-13 | 2018-01-19 | 上海六界信息技术有限公司 | 基于弹幕的直播内容的筛选方法、装置、设备及存储介质 |
CN109005402A (zh) * | 2017-06-07 | 2018-12-14 | 中国移动通信集团甘肃有限公司 | 一种视频的评估方法及装置 |
CN109145291A (zh) * | 2018-07-25 | 2019-01-04 | 广州虎牙信息科技有限公司 | 一种弹幕关键词筛选的方法、装置、设备及存储介质 |
CN109862397A (zh) * | 2019-02-02 | 2019-06-07 | 广州虎牙信息科技有限公司 | 一种视频分析方法、装置、设备和存储介质 |
CN109889905A (zh) * | 2019-02-13 | 2019-06-14 | 武汉斗鱼网络科技有限公司 | 一种主播综合价值评估方法、存储介质、设备及系统 |
CN110134938A (zh) * | 2018-02-09 | 2019-08-16 | 优酷网络技术(北京)有限公司 | 评论分析方法及装置 |
CN110472043A (zh) * | 2019-07-03 | 2019-11-19 | 阿里巴巴集团控股有限公司 | 一种针对评论文本的聚类方法及装置 |
-
2020
- 2020-02-05 CN CN202010080735.5A patent/CN111340329B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104811816A (zh) * | 2015-04-29 | 2015-07-29 | 北京奇艺世纪科技有限公司 | 一种为视频画面中的对象打弹幕标签的方法、装置及系统 |
JP2017184024A (ja) * | 2016-03-30 | 2017-10-05 | デジタル・アドバタイジング・コンソーシアム株式会社 | 番組関連情報処理方法 |
CN105893350A (zh) * | 2016-03-31 | 2016-08-24 | 重庆大学 | 一种电子商务中文本评论质量的评价方法与系统 |
US20170337182A1 (en) * | 2016-05-23 | 2017-11-23 | Ricoh Company, Ltd. | Evaluation element recognition method, evaluation element recognition apparatus, and evaluation element recognition system |
CN109005402A (zh) * | 2017-06-07 | 2018-12-14 | 中国移动通信集团甘肃有限公司 | 一种视频的评估方法及装置 |
CN107608964A (zh) * | 2017-09-13 | 2018-01-19 | 上海六界信息技术有限公司 | 基于弹幕的直播内容的筛选方法、装置、设备及存储介质 |
CN110134938A (zh) * | 2018-02-09 | 2019-08-16 | 优酷网络技术(北京)有限公司 | 评论分析方法及装置 |
CN109145291A (zh) * | 2018-07-25 | 2019-01-04 | 广州虎牙信息科技有限公司 | 一种弹幕关键词筛选的方法、装置、设备及存储介质 |
CN109862397A (zh) * | 2019-02-02 | 2019-06-07 | 广州虎牙信息科技有限公司 | 一种视频分析方法、装置、设备和存储介质 |
CN109889905A (zh) * | 2019-02-13 | 2019-06-14 | 武汉斗鱼网络科技有限公司 | 一种主播综合价值评估方法、存储介质、设备及系统 |
CN110472043A (zh) * | 2019-07-03 | 2019-11-19 | 阿里巴巴集团控股有限公司 | 一种针对评论文本的聚类方法及装置 |
Non-Patent Citations (3)
Title |
---|
XIAODONG WANG: "Beyond the Watching: Understanding Viewer Interactions in Crowdsourced Live Video Broadcasting Services", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
李旭;于卫红;: "基于情感分析和关系网络的影视产品评论数据文本挖掘研究", no. 04 * |
郑;徐健;肖卓;: "情感分析及可视化方法在网络视频弹幕数据分析中的应用", 现代图书情报技术, no. 11 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570006A (zh) * | 2021-09-26 | 2021-10-29 | 秒影工场(北京)科技有限公司 | 一种演员评分方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111340329B (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109544524B (zh) | 一种基于注意力机制的多属性图像美学评价系统 | |
CN109145712B (zh) | 一种融合文本信息的gif短视频情感识别方法及系统 | |
CN110020437B (zh) | 一种视频和弹幕相结合的情感分析及可视化方法 | |
CN112346567B (zh) | 基于ai的虚拟交互模型生成方法、装置及计算机设备 | |
CN111541910B (zh) | 一种基于深度学习的视频弹幕评论自动生成方法及系统 | |
CN112749608B (zh) | 视频审核方法、装置、计算机设备和存储介质 | |
CN105426356B (zh) | 一种目标信息识别方法和装置 | |
CN108573047A (zh) | 一种中文文本分类模型的训练方法及装置 | |
KR102034346B1 (ko) | 학습 기반의 비속어 탐지 장치 및 방법 | |
CN110188195B (zh) | 一种基于深度学习的文本意图识别方法、装置及设备 | |
JP6751816B2 (ja) | 新規学習データセット生成方法および新規学習データセット生成装置 | |
CN112800225B (zh) | 一种微博评论情绪分类方法和系统 | |
CN112347787A (zh) | 方面级别情感分类方法、装置、设备及可读存储介质 | |
CN116049557A (zh) | 一种基于多模态预训练模型的教育资源推荐方法 | |
CN114339450A (zh) | 视频评论生成方法、系统、设备及存储介质 | |
CN111008329A (zh) | 基于内容分类的页面内容推荐方法及装置 | |
CN112995690B (zh) | 直播内容品类识别方法、装置、电子设备和可读存储介质 | |
CN113297387B (zh) | 一种基于nkd-gnn的图文不匹配新闻检测方法 | |
CN111125561A (zh) | 一种网络热度的展示方法及装置 | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN111340329B (zh) | 演员评估方法、装置及电子设备 | |
CN113220964A (zh) | 一种基于网信领域短文本的观点挖掘方法 | |
CN111680190A (zh) | 一种融合视觉语义信息的视频缩略图推荐方法 | |
CN114048294B (zh) | 相似人群扩展模型训练方法、相似人群扩展方法和装置 | |
CN114817533A (zh) | 基于时间特征的弹幕情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |