CN114817533A - 基于时间特征的弹幕情感分析方法 - Google Patents
基于时间特征的弹幕情感分析方法 Download PDFInfo
- Publication number
- CN114817533A CN114817533A CN202210416995.4A CN202210416995A CN114817533A CN 114817533 A CN114817533 A CN 114817533A CN 202210416995 A CN202210416995 A CN 202210416995A CN 114817533 A CN114817533 A CN 114817533A
- Authority
- CN
- China
- Prior art keywords
- bullet screen
- time
- vector
- text
- emotion analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 65
- 230000008451 emotion Effects 0.000 title claims abstract description 62
- 239000013598 vector Substances 0.000 claims abstract description 64
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 230000007246 mechanism Effects 0.000 claims abstract description 14
- 230000015654 memory Effects 0.000 claims abstract description 7
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 19
- 238000000034 method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000010365 information processing Effects 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 241000282376 Panthera tigris Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种基于时间特征的弹幕情感分析方法,首先对原始弹幕数据进行了分词、去除停用词等文本预处理,来提高嵌入的准确度。然后使用弹幕情感分析模型中的嵌入模块将文本从词换成字并输出具有时间特征的融合向量,从而解决弹幕结构复杂的问题,减少网络词汇对语义的影响,使得模型能够更好地学习弹幕地隐含语义,优化了模型进行弹幕分析地性能。其次,通过双向长短期记忆模型BiLSTM和注意力机制进一步获取弹幕数据的深层特征,充分考虑了文本和时间两种因素。最后通过分类器对弹幕的情感类型进行精确分类。相较于现有弹幕分析方法,本发明的弹幕情感分析方法有效提升了弹幕情感分析的准确率,具有较强的应用性。
Description
技术领域
本发明属于文本分类领域,具体涉及一种基于时间特征的弹幕情感分析方法。
背景技术
文本情感分析是文本分类的一种,是指利用自然语言处理和文本挖掘技术,对带有情感色彩的主观性文本进行分析、处理和抽取的过程,其已经构成一个具有影响力的研究领域,并在工业界得到了广泛的应用。情感分析的需求来源于个人、企业和政府对产品、营销和政策的兴趣。近年来,创新和商业的需求不断推动着情感分析的研究发展。
随着互联网和社交媒体的发展,人们对娱乐消费的需求越来越高。根据中国互联网络发展状况统计报告,网络视频和衍生产品已经成为网络娱乐消费领域的支柱产业。弹幕作为一种视频评论手段,由最初的亚文化小团体逐渐进入了大众的视野,为视频用户提供了一种新的在线交流的方法。目前,包括Bilibili、腾讯、虎牙、爱奇艺、斗鱼和央视影音等都在视频中加入了弹幕。对弹幕进行情感分析可以帮助平台了解用户的心理和特征,得到更多有效的信息反馈,协助后台进行相关视频和广告的推荐,也可以帮助创作者改进发布的视频。然而,弹幕与一般的微博、商品评论和影评等不同,结构多样,构成复杂,省略的信息较多,是一种特殊的短文本,目前的方法对弹幕进行情感分析效果有限,准确率较低。因此,有必要提供一种新的方法来对弹幕的情感分析进行改进。
发明内容
为解决上述问题,提供一种准确率高的弹幕情感分析方法,本发明采用了如下技术方案:
本发明提供了一种基于时间特征的弹幕情感分析方法,其特征在于,包括以下步骤:步骤S1,对待分析的原始弹幕数据进行预处理,并提取弹幕文本和弹幕发送时间;步骤S2,基于输入层、嵌入模块、神经网络模块和分类模块构建并训练得到弹幕情感分析模型;步骤S3,将弹幕文本和弹幕发送时间输入至弹幕情感分析模型中,由嵌入模块进行向量化处理分别得到文本向量和时间向量,并拼接得到融合向量;步骤S4,将融合向量作为神经网络模块的输入,获取弹幕句子表达式;步骤S5,由分类模块中的softmax分类器计算弹幕句子表达式的文本标签的类别概率,得到待分析的原始弹幕数据的情感分类的分析结果。
在本发明提供了一种基于时间特征的弹幕情感分析方法中,还可以具有这样的特征:其中,文本预处理包括分词、去除停用词、以及清除特殊字符和标点符号。
在本发明提供了一种基于时间特征的弹幕情感分析方法中,还可以具有这样的特征:其中,嵌入模块具有文本信息处理子模块、时间信息处理子模块以及融合子模块,文本向量为文本信息处理子模块基于word2vec模型对弹幕文本进行向量化处理得到,该处理过程为:设定每一条弹幕含有n个词,将每个词都转换成其one-hot向量的形式xi=(x1,x2…xn),然后通过嵌入矩阵We得到xi的嵌入向量表达形式,通过将每个词的嵌入向量进行拼接得到文本向量的表达式Sc。
在本发明提供了一种基于时间特征的弹幕情感分析方法中,还可以具有这样的特征:其中,时间向量为时间信息处理子模块基于word2vec模型对弹幕发送时间进行向量化处理得到,该处理过程为:设定每一条弹幕所处的时间长度有n秒,将每一秒都转化成其one-hot向量的形式xi=(x1,x2…xn),然后通过嵌入矩阵We得到xi的嵌入向量表达形式,通过将每秒的嵌入向量进行拼接得到时间向量的表达式St。
在本发明提供了一种基于时间特征的弹幕情感分析方法中,还可以具有这样的特征:其中,融合子模块将文本向量和时间向量拼接起来得到融合向量,即:
S=Sc+St
式中,S为融合向量,Sc为文本向量,St为时间向量。
在本发明提供了一种基于时间特征的弹幕情感分析方法中,还可以具有这样的特征:其中,神经网络模块包括一个双向长短期记忆模型BiLSTM和一个注意力机制层,BiLSTM由两个反向的长短期记忆模型LSTM构成。
在本发明提供了一种基于时间特征的弹幕情感分析方法中,还可以具有这样的特征:其中,弹幕句子表达式的获取过程如下:将融合向量作为BiLSTM的输入,设定向前LSTM在t时刻的状态为ht1,向后LSTM在t时刻的状态为ht2,整个神经网络在t时刻的状态为ht,根据下式求得ht:
ht=ht1+ht2;
将BiLSTM的输出ht作为注意力机制层的输入,利用注意力机制层对权重重新分配后加权求和得到弹幕句子表达式ri,计算公式如下:
mi=tanh(ht)
pi=softmax(Wmi)
ri=ht*pi。
在本发明提供了一种基于时间特征的弹幕情感分析方法中,还可以具有这样的特征:其中,弹幕情感分析模型的训练为:采集原始弹幕数据并进行预处理,得到训练用数据集,将训练用数据集输入至初始模型中,采用Adam优化器对该初始模型进行优化训练,直至初始模型的预测效果达到预定标准就停止训练,得到训练好的弹幕情感分析模型。
发明作用与效果
根据本发明的基于时间特征的弹幕情感分析方法,首先对原始弹幕数据进行了分词、去除停用词等文本预处理,来提高嵌入的准确度。然后使用弹幕情感分析模型中的嵌入模块将文本从词换成字并输出具有时间特征的融合向量,从而解决弹幕结构复杂的问题,减少网络词汇对语义的影响,使得模型能够更好地学习弹幕地隐含语义,优化了模型进行弹幕分析地性能。其次,通过双向长短期记忆模型BiLSTM和注意力机制进一步获取弹幕数据的深层特征,充分考虑了文本和时间两种因素。最后通过分类器对弹幕的情感类型进行精确分类。相较于现有弹幕分析方法,本发明的弹幕情感分析方法有效提升了弹幕情感分析的准确率,具有较强的应用性。
附图说明
图1是本发明实施例的基于时间特征的弹幕情感分析方法的流程示意图;以及
图2是本发明实施例中弹幕情感分析模型的结构示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下实施例结合附图对本发明基于时间特征的弹幕情感分析方法作具体阐述。
<实施例>
图1是本发明实施例的基于时间特征的弹幕情感分析方法的流程示意图。
如图1所示,基于时间特征的弹幕情感分析方法包括以下步骤:
步骤S1,对待分析的原始弹幕数据进行文本预处理,并提取弹幕文本和弹幕发送时间。
本实施例中,文本预处理的任务主要是将数据集中的句子进行处理以便后续输入模型进行分类。
文本预处理包括清除特殊字符和标点符号:由于大多数嵌入不提供标点符号和其他特殊字符的向量值,因此要做的第一件事就是去除文本数据中的特殊字符和标点符合来提高嵌入的准确度。
分词:方便模型使用文本中的词来表征文本。
去除停用词:当进行分词时,主要是句子中出现的词语都会被划分,而有些词语是没有实际意思的,对于后续的关键词提取就会加大工作量,并且可能提取的关键词是无效的。所以在分词处理以后,引入去停用词来优化分词的结果。
步骤S2,构建初始模型并训练得到弹幕情感分析模型,该模型具有输入层、嵌入模块、神经网络模块以及分类模块(如图2所示)。
本实施例中,该初始模型的训练过程如下:
首先,采集原始弹幕数据并进行预处理,得到训练用数据集。
然后,将训练用数据集输入至初始模型中,采用Adam优化器对该初始模型进行优化训练,直至初始模型的预测效果达到预定标准就停止训练,得到训练好的弹幕情感分析模型。
其中,Adam优化器的随机失活参数设置为0.6,学习率衰减设置为0.98。预定标准为:使用早停法来避免手动设置epoch,具体标准是:若超过1000batch效果还没提升,则提前结束训练。
步骤S3,将弹幕文本和弹幕发送时间输入至弹幕情感分析模型中,由嵌入模块进行向量化处理分别得到文本向量和时间向量,并拼接得到融合向量。
本实施例中,嵌入模块包括文本信息处理模块(Char to vecor,c2v)、时间信息处理模块(Time to vecor,t2v)以及融合模块。
由于弹幕的结构复杂,使用的网络词汇较多,为了减少这些因素对语义的影响,本实施例选用字符级神经网络,能更好地学习到弹幕的隐含语义。因此,需要将最小的处理单元从词换成字。
其中,文本信息处理模块使用word2vec模型对弹幕文本进行向量化处理得到文本向量。具体地:
设定每一条弹幕含有n个词,将每个词都转换成其one-hot向量的形式xi=(x1,x2…xn),然后通过嵌入矩阵We得到xi的嵌入向量表达形式,最后通过将每个词的嵌入向量进行拼接得到文本向量的表达式Sc=∑We xi。
时间信息处理模块使用word2vec模型对弹幕发送时间进行向量化处理得到时间向量。
由于爬取到的弹幕发送时间是线性的,所以不需要考虑时间的周期性对时间表征在向量空间上的影响。对于时间特征的处理,以秒为单位,参照文本的向量化方法进行处理。具体地:
设定每一条弹幕所处的时间长度有n秒,将每一秒都转化成其one-hot向量的形式yi=(y1,y2…yn),然后通过嵌入矩阵We得到xi的嵌入向量表达形式,通过将每秒的嵌入向量进行拼接得到时间向量的表达式St=∑We yi。
融合模块用于将文本向量和时间向量拼接起来,得到具有时间特征的融合向量S,其表达式为:S=Sc+St。
步骤S4,将融合向量作为神经网络模块的输入,获取弹幕句子表达式。
本实施例中,神经网络模块由一个双向长短期记忆模型BiLSTM(Bi-directionalLong Short-Term Memory)和一个注意力机制层(Attention)组成,用于提取数据的深层特征和权重的分配。
其中,LSTM在NLP相关任务中的应用很多,可以较好地解决文本语义丢失的问题。本实施例中,BiLSTM 31由2个方向相反的LSTM组成,以此充分考虑之前和之后的状态,使得神经网络在t时刻的状态由2个LSTM共同决定。
设定向前LSTM在t时刻的状态为ht1,向后LSTM在t时刻的状态为ht2,则整个神经网络在t时刻的状态为ht,根据下式求得ht:
ht=ht1+ht2。
注意力机制是一种模仿人类注意力认知的技术,通过进行加权求和,对权重进行重新分配。在使用BiLSTM提取融合向量的状态信息ht后,使用注意力机制层来学习特征中哪些部分对弹幕的情感影响更大,充分考虑时间和文本两种因素。具体地:
将BiLSTM 31的输出ht作为注意力机制层32的输入,由该注意力机制层32加权求和,并权重进行重新分配,由重新分配后的向量的加权求和得到弹幕句子表达式ri。计算公式如下:
mi=tanh(ht)
pi=softmax(Wmi)
ri=ht*pi
步骤S5,由分类模块中的softmax分类器计算弹幕句子表达式的文本标签的类别概率,即将多分类的输出转换成为范围在0到1的概率分布,选取该概率分布中的最大值作为待分析的原始弹幕数据的情感分类的分析结果,计算公式为:
本实,分类模块使用softmax函数将多分类的输出转换成为范围在0到1的概率分布,进行情感极性的分类:
式中,xi为第i个节点的输出,C为需要分类的类别数目。
本实施例中,标签一共有3个:正面的情感,中立的情感以及负面的情感。
为验证本发明在本实施例中的有效性,与以下4种模型进行比较,分别是SVM,RNN,CNN,和RNN_ATT,在不同的模型数据集上的准确率如下表1所示:
表1不同模型的准确率比较
上表所示的TBAN即为本发明实施例的弹幕情感分析模型。从上表可以看出,本实施例的基于时间特征的弹幕情感分析方法所得出的精确率可以达到79.60%,比现有技术中的SVM、RNN、CNN、和RNN_ATT都更高,由此可见,本发明提出的方法简单且取得了更好的结果,可以有效地应用于弹幕的情感分析。
实施例的作用与效果
根据本实施例提供的基于时间特征的弹幕情感分析方法,首先对原始弹幕数据进行了分词、去除停用词等文本预处理,来提高嵌入的准确度。然后使用弹幕情感分析模型中的嵌入模块将文本从词换成字并输出具有时间特征的融合向量,从而解决弹幕结构复杂的问题,减少网络词汇对语义的影响,使得模型能够更好地学习弹幕地隐含语义,优化了模型进行弹幕分析地性能。其次,通过双向长短期记忆模型BiLSTM和注意力机制进一步获取弹幕数据的深层特征,充分考虑了文本和时间两种因素。最后通过分类器对弹幕的情感类型进行精确分类。
本发明实施例的弹幕情感分析方法相较于现有弹幕分析方法,有效提升了弹幕情感分析的准确率,具有较强的应用性。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。
Claims (8)
1.一种基于时间特征的弹幕情感分析方法,其特征在于,包括以下步骤:
步骤S1,对待分析的原始弹幕数据进行文本预处理,并提取弹幕文本和弹幕发送时间;
步骤S2,基于输入层、嵌入模块、神经网络模块和分类模块构建并训练得到弹幕情感分析模型;
步骤S3,将所述弹幕文本和所述弹幕发送时间输入至所述弹幕情感分析模型中,由所述嵌入模块进行向量化处理分别得到文本向量和时间向量,并拼接得到具有时间特征的融合向量;
步骤S4,将所述融合向量作为所述神经网络模块的输入,获取弹幕句子表达式;
步骤S5,由所述分类模块中的softmax分类器计算弹幕句子表达式的文本标签的类别概率,得到所述待分析的原始弹幕数据的情感分类的分析结果。
2.根据权利要求1所述的基于时间特征的弹幕情感分析方法,其特征在于:
其中,所述文本预处理包括分词、去除停用词、以及清除特殊字符和标点符号。
3.根据权利要求1所述的基于时间特征的弹幕情感分析方法,其特征在于:
其中,所述嵌入模块具有文本信息处理子模块、时间信息处理子模块以及融合子模块,
所述文本向量为所述文本信息处理子模块基于word2vec模型对所述弹幕文本进行向量化处理得到,该处理过程为:
设定每一条弹幕含有n个词,将每个词都转换成其one-hot向量的形式xi=(x1,x2…xn),然后通过嵌入矩阵We得到xi的嵌入向量表达形式,通过将每个词的嵌入向量进行拼接得到所述文本向量。
4.根据权利要求3所述的基于时间特征的弹幕情感分析方法,其特征在于:
其中,所述时间向量为所述时间信息处理子模块基于所述word2vec模型对所述弹幕发送时间进行向量化处理得到,该处理过程为:
设定每一条弹幕所处的时间长度有n秒,将每一秒都转化成其one-hot向量的形式xi=(x1,x2…xn),然后通过嵌入矩阵We得到xi的嵌入向量表达形式,通过将每秒的嵌入向量进行拼接得到所述时间向量。
5.根据权利要求4所述的基于时间特征的弹幕情感分析方法,其特征在于:
其中,所述融合子模块将所述文本向量和所述时间向量拼接起来得到所述融合向量,即:
S=Sc+St
式中,S为融合向量,Sc为文本向量,St为时间向量。
6.根据权利要求1所述的基于时间特征的弹幕情感分析方法,其特征在于:
其中,所述神经网络模块包括一个双向长短期记忆模型BiLSTM和一个注意力机制层,
所述BiLSTM由两个反向的长短期记忆模型LSTM构成。
7.根据权利要求6所述的基于时间特征的弹幕情感分析方法,其特征在于:
其中,所述弹幕句子表达式的获取过程如下:
将融合向量作为所述BiLSTM的输入,设定向前LSTM在t时刻的状态为ht1,向后LSTM在t时刻的状态为ht2,整个神经网络在t时刻的状态为ht,根据下式求得ht:
ht=ht1+ht2;
将所述BiLSTM的输出ht作为所述注意力机制层的输入,利用所述注意力机制层对权重重新分配后加权求和得到弹幕句子表达式ri,计算公式如下:
mi=tanh(ht)
pi=softmax(Wmi)
ri=ht*pi。
8.根据权利要求1所述的基于时间特征的弹幕情感分析方法,其特征在于:
其中,所述弹幕情感分析模型的训练为:
采集原始弹幕数据并进行预处理,得到训练用数据集,
将所述训练用数据集输入至所述初始模型中,采用Adam优化器对该初始模型进行优化训练,直至所述初始模型的预测效果达到预定标准就停止训练,得到训练好的所述弹幕情感分析模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210416995.4A CN114817533A (zh) | 2022-04-20 | 2022-04-20 | 基于时间特征的弹幕情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210416995.4A CN114817533A (zh) | 2022-04-20 | 2022-04-20 | 基于时间特征的弹幕情感分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114817533A true CN114817533A (zh) | 2022-07-29 |
Family
ID=82505274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210416995.4A Pending CN114817533A (zh) | 2022-04-20 | 2022-04-20 | 基于时间特征的弹幕情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114817533A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117235244A (zh) * | 2023-11-16 | 2023-12-15 | 江西师范大学 | 一种基于弹幕情感词分类的在线课程学习情感体验评测系统 |
-
2022
- 2022-04-20 CN CN202210416995.4A patent/CN114817533A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117235244A (zh) * | 2023-11-16 | 2023-12-15 | 江西师范大学 | 一种基于弹幕情感词分类的在线课程学习情感体验评测系统 |
CN117235244B (zh) * | 2023-11-16 | 2024-02-20 | 江西师范大学 | 一种基于弹幕情感词分类的在线课程学习情感体验评测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kumar et al. | Sentiment analysis of multimodal twitter data | |
Ishaq et al. | Aspect-based sentiment analysis using a hybridized approach based on CNN and GA | |
CN109933664B (zh) | 一种基于情感词嵌入的细粒度情绪分析改进方法 | |
Shrivastava et al. | An effective approach for emotion detection in multimedia text data using sequence based convolutional neural network | |
CN107066446B (zh) | 一种嵌入逻辑规则的循环神经网络文本情感分析方法 | |
CN109753566A (zh) | 基于卷积神经网络的跨领域情感分析的模型训练方法 | |
Anand et al. | Deep learning and natural language processing in computation for offensive language detection in online social networks by feature selection and ensemble classification techniques | |
CN110750648A (zh) | 一种基于深度学习和特征融合的文本情感分类方法 | |
Rashid et al. | Feature level opinion mining of educational student feedback data using sequential pattern mining and association rule mining | |
CN110297986A (zh) | 一种微博热点话题的情感倾向分析方法 | |
Chaudhuri | Visual and text sentiment analysis through hierarchical deep learning networks | |
CN115269833A (zh) | 基于深度语义和多任务学习的事件信息抽取方法及系统 | |
Rahman et al. | Sentiment analysis on Twitter data: comparative study on different approaches | |
Sajeevan et al. | An enhanced approach for movie review analysis using deep learning techniques | |
CN114416969A (zh) | 一种基于背景增强的lstm-cnn在线评论情感分类方法及系统 | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN114817533A (zh) | 基于时间特征的弹幕情感分析方法 | |
Baboo et al. | Sentiment analysis and automatic emotion detection analysis of twitter using machine learning classifiers | |
Agarwal et al. | Deep learning for opinion mining: a systematic survey | |
Ji et al. | Cross-modality sentiment analysis for social multimedia | |
CN115906824A (zh) | 一种文本细粒度情感分析方法、系统、介质和计算设备 | |
Dutta et al. | Sentiment Analysis on Multilingual Code-Mixed Kannada Language. | |
Amora et al. | An analysis of machine learning techniques to prioritize customer service through social networks | |
Shimizu et al. | Effect of Label Redundancy in Crowdsourcing for Training Machine Learning Models. | |
Velammal | Development of knowledge based sentiment analysis system using lexicon approach on twitter data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |