CN110020437A - 一种视频和弹幕相结合的情感分析及可视化方法 - Google Patents

一种视频和弹幕相结合的情感分析及可视化方法 Download PDF

Info

Publication number
CN110020437A
CN110020437A CN201910287517.6A CN201910287517A CN110020437A CN 110020437 A CN110020437 A CN 110020437A CN 201910287517 A CN201910287517 A CN 201910287517A CN 110020437 A CN110020437 A CN 110020437A
Authority
CN
China
Prior art keywords
barrage
video
word
emotion
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910287517.6A
Other languages
English (en)
Other versions
CN110020437B (zh
Inventor
王宇晨
王晨妮
张超
刘蓝静
孙钜晖
宋威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN201910287517.6A priority Critical patent/CN110020437B/zh
Publication of CN110020437A publication Critical patent/CN110020437A/zh
Application granted granted Critical
Publication of CN110020437B publication Critical patent/CN110020437B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种视频和弹幕相结合的情感分析及可视化方法,属于自然语言处理和图像处理领域。该方法首先利用爬虫爬取视频和弹幕数据;然后对爬取的数据进行预处理;随后训练Faster R‑CNN模型,识别物体并标注情感值,之后匹配情感词、程度副词、颜文字、否定词、计算弹幕情感值,最后结合视频物体情感值、弹幕情感值计算“情感值(S(t))‑时间(t)”的关系趋势图。本方法适用于各类主题的网络视频弹幕,可用于分析整体或局部不同细粒度的内容情感取向,得出整个视频的情感曲线图。对于网络视频弹幕内容结构多样、符号复杂难处理的问题,本发明还提出了一种网络视频弹幕规范化处理方法。

Description

一种视频和弹幕相结合的情感分析及可视化方法
技术领域
本发明属于自然语言处理和图像处理领域,尤其涉及一种视频和弹幕相结合的情感分析及可视化方法。该方法可以有效地对网络视频弹幕的评论信息进行收集、处理和分析,实现弹幕评论信息的情感分析,通过可视化处理将分析结果展现出来,从而作为视频质量评估、商业合作推广、内容个性推荐的参考依据。
背景技术
弹幕一词最早起源于军事用语,本意指集中炮弹射击过于密集就像幕布一样,故为弹幕。弹幕视频迎合了ACG(动画、漫画、游戏的总称)文化,也满足了用户互动、娱乐和社交的需求。而现在,弹幕已不是二次元文化的专属,当下几乎所有视频网站、软件以及直播平台等都引入了弹幕功能,其吐槽的视频类型也不再以ACG(Animation Comic Game,是动画、漫画、游戏的总称)为主,“边看边吐槽”“看其他用户的吐槽”已经成为观众在观看视频、直播、电视剧时的“新乐趣”“新常态”。
弹幕评论数据包含评论文本及其对应的视频时间点信息,因此与一般的评论数据相比,弹幕评论数据能更准确、具体地反映出用户在观看视频时的即时情感和褒贬评价。这些情感和评价信息可以为其他用户在选择视频时提供参考。
目前针对网络视频弹幕的研究多集中在文化传播领域。针对弹幕评论数据的挖掘和实际应用还不常见,尤其是在情感分析领域。这些情感信息可以为用户在选择视频时提供参考,满足更多元、个性化的视频检索需求。
综上所述,情感分析在视频评论领域具备一定的应用需求,弹幕评论数据是很有价值的情感分析数据来源,为了更好的呈现分析结果,还可对弹幕评论数据做可视化处理。
发明内容
本发明针对现有技术中对网络视频弹幕情感分析的不足,提出了一种面向网络视频弹幕的情感分析方法。该方法适用于各类主题的网络视频弹幕,可用于分析整体或局部不同细粒度的内容情感取向,得出整个视频的情感曲线图。对于网络视频弹幕内容结构多样、符号复杂难处理的问题,本发明还提出了一种网络视频弹幕规范化处理方法。
一种视频和弹幕相结合的情感分析及可视化方法,具体步骤如下:
步骤1,使用爬虫获取网络视频和弹幕数据,爬取的数据包括弹幕发送时间、弹幕文本内容和弹幕视频文件,弹幕发送时间和弹幕文本内容以表格的形式存储,每个表项以“时间-内容”为存储结构,视频文件进行抽帧,保存为离散的图片序列。
步骤2,对爬取的数据进行预处理,此处包括一种网络视频、弹幕规范化处理方法,具体过程为:
步骤2.1,采用统计词频的方法建立弹幕用语词典,记录并保留在弹幕环境下具有特殊意义的文本字符。爬取弹幕视频网站各大主题分区播放量前十的视频弹幕数据,建立弹幕语料库,使用NLTK(Natural Language Toolkit,自然语言处理工具包)统计词频,将词频大于阈值α的文本字符加入词典,依据弹幕用语词典,去除步骤1表格中不包含于弹幕用语词典内的数据。
步骤2.2,利用DFA(Deterministic Finite Automaton,确定有穷自动机)识别异形文本并将其转换成简体汉字:首先构建异形词库,将单个字词与其不同种类的异形文本构建成一对多映射关系。然后根据映射关系构建NFA(Nondeterministic FiniteAutomaton,不确定有穷自动机),利用子集法确定化NFA得到DFA,消除多余状态化简DFA使其最小化。最后,将步骤1表格内弹幕文本作为输入,并用转化后的简体字代替输入数据中的异形文本。该步得到的规范化的弹幕序列为{T1,T2,...,Ti,...,Tm},m为弹幕总数,Ti表示一行“时间-内容”表项。
步骤2.3,提取步骤1中爬取的视频文件的关键帧,。将抽取的关键帧按时间先后顺序排列,组成离散的图片序列{I1,I2,...,Ii,...,Ik},k为抽帧总数,Ii表示一帧关键帧。
步骤3,爬取弹幕视频文件,剥离音频文件,仅保留视频数据,采取抽帧法得到图片训练集。训练基于Faster R-CNN(Faster Region-based Convolutional Network,更快的区域卷积神经网络)的物体识别模型,识别视频中的物体,根据物体的实际情感寓意构建情感权重模型。
步骤3.1,单独训练RPN网络(RegionProposal Network,区域候选网络),选用ImageNet的模型作为预训练模型,初始化RPN网络,采用端到端的方式来调整参数。
步骤3.2,单独训练检测网络Fast R-CNN(Fast Region-based ConvolutionalNetwork,快速区域卷积神经网络),训练所需proposals来自步骤3.1的RPN网络层,该步骤中模型初始化采用ImageNet模型。
步骤3.3,用步骤2.2的Fast R-CNN的参数来初始化RPN模型,训练时候固定卷积层参数,只调整属于RPN网络层的参数。
步骤3.4,保持共享的卷积层固定,用步骤3.3调整后的RPN网络层输出的proposals作为输入,微调Fast R-CNN余下的参数,得到可用的神经网络。
步骤3.5,对识别出的所有物体进行情感标注,分别赋一权值ξ,该权值表示该物体在某一视频帧中的主观情感取向即情感值,其中ξ取值为-1、0、1,分别表示负面,中性和正面。
步骤4,使用jieba分词将弹幕文本分词,对分词结果进行词性标注,提取弹幕文本中的形容词、副词、动词、名词、颜文字表情。
步骤5,建立弹幕情感计算模型。首先导入情感词词典、程度副词词典、否定词词典、颜文字表情词典。使用词典对步骤4中得到的标注结果进行匹配。若匹配成功,则依据词典赋予其一个弹幕的情感取向权值q,若匹配结果为空,则认为其情感取向为中性,暂赋值为0,将所有匹配为空的分词单独存储,复核标注后再加入对应词典中。重复匹配过程,直到没有分词匹配结果为空。
弹幕的情感取向权值q的计算方法:将情感词和颜文字情感值记为v,v∈[-1,1],程度副词权重记为w,否定词个数为x,则:
q=(-1)x·w·v (1)
步骤6,分析弹幕的情感取向,绘制“情感值(S)-时间(t)”的关系趋势图。
步骤6.1,统计弹幕数据中的弹幕发送时间,计算单位时间内的弹幕密度ρ:
其中,t为时间(单位:秒),n(t)为第t秒视频中发送的弹幕数量(单位:条/秒)。
步骤6.2,计算视频中每一秒的情感值S(t),计算方法如下:
其中qi为第i条弹幕的情感取向权值q,ξj为第j个物体情感取向权值ξ,I(t)表示t时刻范围内的关键帧中物体个数;
步骤6.3,根据公式(3)计算得出的散点值,进行曲线拟合即得到“情感值(S(t))-时间(t)”的关系趋势曲线,即关系趋势图。
所述步骤2.1中,具有特殊意义的文本字符包括数字类、颜文字类等文本字符。
所述步骤2.1中,实验中α=10时效果较好。
所述步骤2.2中,异形文本包括未登录词、中英文变化结合、同音变换、形近变换、简繁转换、偏旁拆分字等。
所述步骤2.3中,抽帧密度为5~10帧每秒时可较好地还原视频中的场景
本发明的有益效果:使用本发明的面向网络视频弹幕进行情感分析和可视化方法,可根据用户需求选择弹幕数据来源(如主流弹幕视频网站)。情感分析过程中可以更具实际应用场景评估词语的情感值,对其重新赋值,仅需满足步骤5中的赋值区间。“S-t”图的时间步长区间t可以根据视频的总长度来设定,不局限于步骤6中所述1秒的时间步长区间。
附图说明
图1为本发明方法的流程示意图。
图2为爬虫架构示意图。
图3为局部DFA示意图。
图4为某大型弹幕视频网站实际测试,其中,(a)为鬼畜区某UP主作品的“情感值(S(t))-时间(t)”关系趋势图;(b)为舞蹈区某UP主作品的“情感值(S(t))-时间(t)”关系趋势图。
具体实施
下面结合附图和实例来说明具体实施方法,分析对象为国内某大型弹幕视频网站。
步骤1,进入网站首页,获取每个主题分区的URL,使用BeautifulSoup解析网站代码,获取视频文件、弹幕文本内容和弹幕发送时间,保存到本地,待分析的数据和训练用的数据分开存放。对于视频源文件,使用视频编辑软件去除音频文件,只保留视频数据。使用OpenCV对视频进行逐帧分析,按照每秒5帧的抽取密度抽取关键帧,按照关键帧出现的时间顺序标号排序,保存为图片序列。
某弹幕样例的原始数据格式如下:
p="218.49300,1,25,10066431,1554113570,0,9300b847,14140778819878912">八雲佬你来啦</d><d
其中,逗号用于分割的数据,最后一部分为弹幕内容。第一个参数是弹幕出现的时间,以秒数为单位。第二个参数是弹幕的模式。第三个参数是字号。第四个参数是字体的颜色。第五个参数是Unix格式的时间戳,基准时间为1970-1-1 08:00:00。第六个参数是弹幕池。第七个参数是发送者的ID。第八个参数是弹幕在弹幕数据库中rowID。
爬虫爬取的弹幕数据原始格式为xml,后续分析过程只取用价值较高的发送时间(第一项)和弹幕文本,保存为表格形式,如表1。
表1
步骤2,对弹幕数据进行规范化处理。
打开弹幕文件,读取弹幕数据,导入jieba分词模块进行分词,去除“的,呢”等停用词,再使用NLTK的FreqDist功能实现词频统计,将所有词频大于阈值α=10的弹幕用语加入弹幕用语词典。去除待分析的数据中不存在于弹幕用语词典内的文本。例如,“2333”、“6666”、“awsl”、等文本出现频率较高且在弹幕环境下具有特定含义,此处应当保留。
面向弹幕异形词,建立语法树,求出简体字与异形词之间的映射关系,该关系通常以一对多的形式存在,将步骤1中提取的弹幕文本作为DFA的输入,进行匹配,输出结果为规范化的弹幕文本,局部DFA示意图见图3。保存转换后的文本。
步骤3,构建基于FasterR-CNN的物体识别模型。本模型训练基于tensorflow框架,前期还需要准备python环境、OpenCV和Faster-RCN_TF库。使用的操作系统为Ubuntu16.04,GPU为GTX1080Ti。首先从网站各大分区下载播放量前10的视频资源。视频由大量的帧组成,且在小区间内帧的差异并不明显,物体识别和感情标注不需要大量相似的重复数据,比如在某一秒内的场景和所有物体,可以使用该秒内的部分关键帧近似代替。所有视频关键帧若大于500x333的分辨率,则统一采用等比例压缩的方式进行处理以方便训练。
使用labelIMG工具对数据进行标注,标记出图片中的情感体(可能影响人情感的实物)。将图片放置到相应目录并生成测试和训练所需的文件索引,后续操作根据此索引获取图片。修改相应demo的参数即可自动训练,生成基于自己的数据集的物体识别模型。
对识别出的物体进行情感取向标注。将步骤1中爬取的待处理关键帧作为输入,识别关键帧中物体,对关键帧中被识别出的物体标注-1、0、1,表示负面、中立、正面三个取向。此处主要考量物体在相关场景中的意向和人的主观感受,相关参考标准为《元明清诗歌鉴赏》和人的主观感受。由此得到视频中物体所具有的情感取向。例如,关键帧中出现红灯笼、烟花等物体,则可认为是正面,若出现鸡蛋、图书类,则可认为是中性,出先枯枝落叶、工厂烟囱则可能是负面的。
步骤4,构建弹幕文本情感分析模型,采用词典匹配的方式计算情感值,按公式(1)(2)(3)计算出情感值。此处,以该弹幕网站两位UP主的视频作品为例分析计算得出情感变化曲线,见图4。例子中可见,鬼畜区一开始比较平淡,随着视频内容的推进,给大家带来了快乐,其情感曲线在最后出现较快增长,确实符合该鬼畜视频的情感走向。另一例表现出一些负面情绪,经分析是由于部分观众不喜欢类似的风格的舞蹈,评价较为消极,但是随着时间推移,该舞蹈区UP的作品情绪得到回暖,说明其总体走向是正面的,实际数据也表明,在约第200个时间点(20秒)之后,仅出现少量负面评价,分析原因可能是不喜欢此类风格的观众退出了观看。
经过实际检验,本发明在该弹幕网站的测试过程中表现出不错的分析能力,且在后续面向其他弹幕网站的测试中,展现出良好的准确性和鲁棒性。

Claims (8)

1.一种视频和弹幕相结合的情感分析及可视化方法,其特征在于,具体步骤如下:
步骤1,使用爬虫获取网络视频和弹幕数据,爬取的数据包括弹幕发送时间、弹幕文本内容和弹幕视频文件,弹幕发送时间和弹幕文本内容以表格的形式存储,每个表项以“时间-内容”为存储结构;视频文件进行抽帧,保存为离散的图片序列;
步骤2,对爬取的数据进行预处理,具体过程为:
步骤2.1,采用统计词频的方法建立弹幕用语词典,记录并保留在弹幕环境下具有特殊意义的文本字符;爬取弹幕视频网站各大主题分区播放量前十的视频弹幕数据,建立弹幕语料库,使用NLTK(Natural Language Toolkit,自然语言处理工具包)统计词频,将词频大于阈值α的文本字符加入词典,依据弹幕用语词典,去除步骤1表格中不包含于弹幕用语词典内的数据;
步骤2.2,利用DFA识别异形文本并将其转换成简体汉字;
首先构建异形词库,将单个字词与其不同种类的异形文本构建成一对多映射关系;然后根据映射关系构建NFA,利用子集法确定化NFA得到DFA,消除多余状态化简DFA使其最小化;最后,将步骤1表格内弹幕文本作为输入,并用转化后的简体字代替输入数据中的异形文本;该步得到的规范化的弹幕序列为{T1,T2,...,Ti,...,Tm},m为弹幕总数,Ti表示一行“时间-内容”表项;
步骤2.3,提取步骤1中爬取的视频文件的关键帧,将抽取的关键帧按时间先后顺序排列,组成离散的图片序列{I1,I2,...,Ii,...,Ik},k为抽帧总数,Ii表示一帧关键帧;
步骤3,爬取弹幕视频文件,剥离音频文件,仅保留视频数据,采取抽帧法得到图片训练集;训练基于Faster R-CNN的物体识别模型,识别视频中的物体,根据物体的实际情感寓意构建情感权重模型;
步骤3.1,单独训练RPN网络,选用ImageNet的模型作为预训练模型,初始化RPN网络,采用端到端的方式来调整参数;
步骤3.2,单独训练检测网络Fast R-CNN,训练所需proposals来自步骤3.1的RPN网络层,该步骤中模型初始化采用ImageNet模型;
步骤3.3,用步骤3.2的Fast R-CNN的参数来初始化RPN模型,训练时候固定卷积层参数,只调整属于RPN网络层的参数;
步骤3.4,保持共享的卷积层固定,用步骤3.3调整后的RPN网络层输出的proposals作为输入,微调Fast R-CNN余下的参数,得到可用的神经网络;
步骤3.5,对识别出的所有物体进行情感标注,分别赋一权值ξ,该权值表示该物体在某一视频帧中的主观情感取向,即情感值,其中ξ取值为-1、0、1,分别表示负面,中性和正面;
步骤4,使用jieba分词将弹幕文本分词,对分词结果进行词性标注,提取弹幕文本中的形容词、副词、动词、名词、颜文字表情;
步骤5,建立弹幕情感计算模型
导入情感词词典、程度副词词典、否定词词典、颜文字表情词典;使用词典对步骤4中得到的标注结果进行匹配:当匹配成功时,则依据词典赋予其一个弹幕的情感取向权值q,当匹配结果为空时,则认为其情感取向为中性,暂赋值为0,将所有匹配为空的分词单独存储,复核标注后再加入对应词典中;重复匹配过程,直到没有分词匹配结果为空;
弹幕的情感取向权值q的计算方法为:将情感词和颜文字情感值记为v,v∈[-1,1],程度副词权重记为w,否定词个数为x,则:
q=(-1)x·w·v (1)
步骤6,分析弹幕、视频的情感取向,绘制“情感值(S(t))-时间(t)”的关系趋势图;
步骤6.1,统计弹幕数据中的弹幕发送时间,计算单位时间内的弹幕密度ρ:
其中,t为时间,n(t)为第t秒视频中发送的弹幕数量;
步骤6.2,计算视频中每一秒的情感值S(t),计算方法如下:
其中qi为第i条弹幕的情感取向权值q,ξj为第j个物体情感取向权值ξ,I(t)表示t时刻范围内的关键帧中物体个数;
步骤6.3,根据公式(3)计算得出的散点值,进行曲线拟合即得到“情感值(S(t))-时间(t)”的关系趋势曲线,即关系趋势图。
2.根据权利要求1所述的一种视频和弹幕相结合的情感分析及可视化方法,其特征在于,所述步骤2.1中,具有特殊意义的文本字符包括数字类、颜文字类文本字符。
3.根据权利要求1或2所述的一种视频和弹幕相结合的情感分析及可视化方法,其特征在于,所述步骤2.1中,阈值α=10。
4.根据权利要求1或2所述的一种视频和弹幕相结合的情感分析及可视化方法,其特征在于,所述步骤2.2中,异形文本包括未登录词、中英文变化结合词、同音变换词、形近变换词、简繁转换词、偏旁拆分字。
5.根据权利要求3所述的一种视频和弹幕相结合的情感分析及可视化方法,其特征在于,所述步骤2.2中,异形文本包括未登录词、中英文变化结合词、同音变换词、形近变换词、简繁转换词、偏旁拆分字。
6.根据权利要求1、2或5所述的一种视频和弹幕相结合的情感分析及可视化方法,其特征在于,所述步骤2.3中,抽帧密度为5~10帧每秒。
7.根据权利要求3所述的一种视频和弹幕相结合的情感分析及可视化方法,其特征在于,所述步骤2.3中,抽帧密度为5~10帧每秒。
8.根据权利要求4所述的一种视频和弹幕相结合的情感分析及可视化方法,其特征在于,所述步骤2.3中,抽帧密度为5~10帧每秒。
CN201910287517.6A 2019-04-11 2019-04-11 一种视频和弹幕相结合的情感分析及可视化方法 Active CN110020437B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910287517.6A CN110020437B (zh) 2019-04-11 2019-04-11 一种视频和弹幕相结合的情感分析及可视化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910287517.6A CN110020437B (zh) 2019-04-11 2019-04-11 一种视频和弹幕相结合的情感分析及可视化方法

Publications (2)

Publication Number Publication Date
CN110020437A true CN110020437A (zh) 2019-07-16
CN110020437B CN110020437B (zh) 2023-04-07

Family

ID=67191093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910287517.6A Active CN110020437B (zh) 2019-04-11 2019-04-11 一种视频和弹幕相结合的情感分析及可视化方法

Country Status (1)

Country Link
CN (1) CN110020437B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569354A (zh) * 2019-07-22 2019-12-13 中国农业大学 弹幕情感分析方法及装置
CN111046137A (zh) * 2019-11-13 2020-04-21 天津大学 一种多维情感倾向性分析方法
CN111046136A (zh) * 2019-11-13 2020-04-21 天津大学 融合表情符号与短文本的多维情感强度值计算方法
CN111050193A (zh) * 2019-11-12 2020-04-21 汉口北进出口服务有限公司 用户画像构建方法、装置、计算机设备和存储介质
CN111541910A (zh) * 2020-04-21 2020-08-14 华中科技大学 一种基于深度学习的视频弹幕评论自动生成方法及系统
CN111859925A (zh) * 2020-08-06 2020-10-30 东北大学 一种基于概率情感词典的情感分析系统及方法
CN111860237A (zh) * 2020-07-07 2020-10-30 中国科学技术大学 一种视频情感片段的识别方法及装置
CN112001184A (zh) * 2020-08-14 2020-11-27 西华大学 面向视频弹幕的用户情感差异区域检测方法和系统
CN112214661A (zh) * 2020-10-12 2021-01-12 西华大学 一种面向视频常规评论的情感不稳定用户检测方法
CN112417256A (zh) * 2020-10-20 2021-02-26 中国环境科学研究院 一种基于互联网的自然保护地认知评价系统及方法
CN112511766A (zh) * 2020-11-23 2021-03-16 上海明略人工智能(集团)有限公司 基于弹幕nlp的视频剪辑方法、系统、电子设备及存储介质
CN112507115A (zh) * 2020-12-07 2021-03-16 重庆邮电大学 一种弹幕文本中情感词的分类方法、装置及存储介质
CN112752133A (zh) * 2020-03-20 2021-05-04 腾讯科技(深圳)有限公司 视频播放方法、装置、电子设备以及存储介质
CN113297934A (zh) * 2021-05-11 2021-08-24 国家计算机网络与信息安全管理中心 检测互联网暴力有害场景的多模态视频行为分析方法
CN113557521A (zh) * 2020-02-21 2021-10-26 谷歌有限责任公司 使用机器学习从动画媒体内容项目提取时间信息的系统和方法
CN113743267A (zh) * 2021-08-25 2021-12-03 中国科学院软件研究所 一种基于螺旋和文本的多模态视频情感可视化方法及装置
CN114598899A (zh) * 2022-03-15 2022-06-07 中科大数据研究院 一种基于爬虫的弹幕播报分析方法
CN115033143A (zh) * 2022-06-13 2022-09-09 昆明理工大学 一种基于微信小程序的视频评论和弹幕解析系统
CN115396734A (zh) * 2022-05-16 2022-11-25 北京大学 一种针对视频集中的弹幕和用户行为的可视化方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108433A (zh) * 2017-12-19 2018-06-01 杭州电子科技大学 一种基于规则和数据网络融合的情感分析方法
CN109446404A (zh) * 2018-08-30 2019-03-08 中国电子进出口有限公司 一种网络舆情的情感极性分析方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108433A (zh) * 2017-12-19 2018-06-01 杭州电子科技大学 一种基于规则和数据网络融合的情感分析方法
CN109446404A (zh) * 2018-08-30 2019-03-08 中国电子进出口有限公司 一种网络舆情的情感极性分析方法和装置

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569354B (zh) * 2019-07-22 2022-08-09 中国农业大学 弹幕情感分析方法及装置
CN110569354A (zh) * 2019-07-22 2019-12-13 中国农业大学 弹幕情感分析方法及装置
CN111050193A (zh) * 2019-11-12 2020-04-21 汉口北进出口服务有限公司 用户画像构建方法、装置、计算机设备和存储介质
CN111050193B (zh) * 2019-11-12 2022-06-10 汉口北进出口服务有限公司 用户画像构建方法、装置、计算机设备和存储介质
CN111046137A (zh) * 2019-11-13 2020-04-21 天津大学 一种多维情感倾向性分析方法
CN111046136A (zh) * 2019-11-13 2020-04-21 天津大学 融合表情符号与短文本的多维情感强度值计算方法
CN113557521A (zh) * 2020-02-21 2021-10-26 谷歌有限责任公司 使用机器学习从动画媒体内容项目提取时间信息的系统和方法
CN112752133B (zh) * 2020-03-20 2024-05-10 深圳市雅阅科技有限公司 视频播放方法、装置、电子设备以及存储介质
CN112752133A (zh) * 2020-03-20 2021-05-04 腾讯科技(深圳)有限公司 视频播放方法、装置、电子设备以及存储介质
CN111541910B (zh) * 2020-04-21 2021-04-20 华中科技大学 一种基于深度学习的视频弹幕评论自动生成方法及系统
CN111541910A (zh) * 2020-04-21 2020-08-14 华中科技大学 一种基于深度学习的视频弹幕评论自动生成方法及系统
CN111860237A (zh) * 2020-07-07 2020-10-30 中国科学技术大学 一种视频情感片段的识别方法及装置
CN111860237B (zh) * 2020-07-07 2022-09-06 中国科学技术大学 一种视频情感片段的识别方法及装置
CN111859925A (zh) * 2020-08-06 2020-10-30 东北大学 一种基于概率情感词典的情感分析系统及方法
CN111859925B (zh) * 2020-08-06 2023-08-08 东北大学 一种基于概率情感词典的情感分析系统及方法
CN112001184A (zh) * 2020-08-14 2020-11-27 西华大学 面向视频弹幕的用户情感差异区域检测方法和系统
CN112001184B (zh) * 2020-08-14 2022-10-11 西华大学 面向视频弹幕的用户情感差异区域检测方法和系统
CN112214661A (zh) * 2020-10-12 2021-01-12 西华大学 一种面向视频常规评论的情感不稳定用户检测方法
CN112214661B (zh) * 2020-10-12 2022-04-08 西华大学 一种面向视频常规评论的情感不稳定用户检测方法
CN112417256A (zh) * 2020-10-20 2021-02-26 中国环境科学研究院 一种基于互联网的自然保护地认知评价系统及方法
CN112417256B (zh) * 2020-10-20 2024-05-24 中国环境科学研究院 一种基于互联网的自然保护地认知评价系统及方法
CN112511766A (zh) * 2020-11-23 2021-03-16 上海明略人工智能(集团)有限公司 基于弹幕nlp的视频剪辑方法、系统、电子设备及存储介质
CN112507115A (zh) * 2020-12-07 2021-03-16 重庆邮电大学 一种弹幕文本中情感词的分类方法、装置及存储介质
CN112507115B (zh) * 2020-12-07 2023-02-03 重庆邮电大学 一种弹幕文本中情感词的分类方法、装置及存储介质
CN113297934A (zh) * 2021-05-11 2021-08-24 国家计算机网络与信息安全管理中心 检测互联网暴力有害场景的多模态视频行为分析方法
CN113297934B (zh) * 2021-05-11 2024-03-29 国家计算机网络与信息安全管理中心 检测互联网暴力有害场景的多模态视频行为分析方法
CN113743267A (zh) * 2021-08-25 2021-12-03 中国科学院软件研究所 一种基于螺旋和文本的多模态视频情感可视化方法及装置
CN113743267B (zh) * 2021-08-25 2023-06-16 中国科学院软件研究所 一种基于螺旋和文本的多模态视频情感可视化方法及装置
CN114598899A (zh) * 2022-03-15 2022-06-07 中科大数据研究院 一种基于爬虫的弹幕播报分析方法
CN115396734B (zh) * 2022-05-16 2024-03-08 北京大学 一种针对视频集中的弹幕和用户行为的可视化方法及系统
CN115396734A (zh) * 2022-05-16 2022-11-25 北京大学 一种针对视频集中的弹幕和用户行为的可视化方法及系统
CN115033143A (zh) * 2022-06-13 2022-09-09 昆明理工大学 一种基于微信小程序的视频评论和弹幕解析系统
CN115033143B (zh) * 2022-06-13 2024-05-24 昆明理工大学 一种基于微信小程序的视频评论和弹幕解析系统

Also Published As

Publication number Publication date
CN110020437B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN110020437A (zh) 一种视频和弹幕相结合的情感分析及可视化方法
Fiallos et al. Tiktok and education: Discovering knowledge through learning videos
CN105975558B (zh) 建立语句编辑模型的方法、语句自动编辑方法及对应装置
CN111507097B (zh) 一种标题文本处理方法、装置、电子设备及存储介质
CN113395578B (zh) 一种提取视频主题文本的方法、装置、设备及存储介质
CN107644085A (zh) 体育赛事新闻的生成方法和装置
KR102334396B1 (ko) 인공지능을 이용한 저작물 제작 보조 방법 및 그 장치
CN112163560B (zh) 一种视频信息处理方法、装置、电子设备及存储介质
Roth Film semiotics, Metz, and Leone's trilogy
CN112231522A (zh) 一种在线课程知识树的生成关联方法
CN113298367A (zh) 一种主题公园感知价值评估方法
CN111680190B (zh) 一种融合视觉语义信息的视频缩略图推荐方法
Xiang et al. Affect-based adaptive presentation of home videos
CN111986259A (zh) 颜文字检测模型的训练、视频数据的审核方法及相关装置
Wu et al. Cold start problem for automated live video comments
CN111814488B (zh) 一种诗词生成方法、装置、电子设备及可读存储介质
Ren et al. Product promotion copywriting from multimodal data: New benchmark and model
CN114722829A (zh) 一种基于语言模型的修辞古诗自动生成方法
CN113887334A (zh) 一种视频知识点抽取方法及装置
CN115222008A (zh) 一种箱庭游戏的智能心理描述系统
Tian et al. Script-to-Storyboard: A New Contextual Retrieval Dataset and Benchmark
Wei et al. MSEVA: A System for Multimodal Short Videos Emotion Visual Analysis
CN112257438B (zh) 一种具有关联机制的语言知识处理方法及装置
Schwarz et al. Auto-illustrating poems and songs with style
Meurant et al. The French Belgian Sign Language Corpus A User-Friendly Searchable Online Corpus

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant