CN107818084B - 一种融合点评配图的情感分析方法 - Google Patents
一种融合点评配图的情感分析方法 Download PDFInfo
- Publication number
- CN107818084B CN107818084B CN201710940129.4A CN201710940129A CN107818084B CN 107818084 B CN107818084 B CN 107818084B CN 201710940129 A CN201710940129 A CN 201710940129A CN 107818084 B CN107818084 B CN 107818084B
- Authority
- CN
- China
- Prior art keywords
- comment data
- text
- sentence
- vector
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 38
- 238000004458 analytical method Methods 0.000 title claims abstract description 21
- 238000010586 diagram Methods 0.000 title description 5
- 238000000034 method Methods 0.000 claims abstract description 27
- 239000013598 vector Substances 0.000 claims description 61
- 238000011176 pooling Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000002996 emotional effect Effects 0.000 abstract description 3
- 238000012552 review Methods 0.000 abstract description 2
- 230000011218 segmentation Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种融合点评配图的情感分析方法,本方法为:获取目标酒店的评论数据;对每一所述评论数据中的文本进行分词;根据分词对该评论数据的文本进行向量化,得到该评论数据的文本向量化表示;对每一所述评论数据中的图片集合进行向量化,得到该评论数据的图片集合向量化表示;对每一所述评论数据,根据该评论数据的文本向量化表示和图片集合向量化表示,对该评论数据进行情感分析,得到该评论数据的情感类别。本发明能够自动地从点评数据中分析出点评的情感极性,提高了识别效率和准确性。
Description
技术领域
本发明属于信息技术、数据挖掘技术领域,具体涉及一种融合点评配图的情感分析的方法。
背景技术
当前,越来越多的用户都会在互联网上分享自己的观点或体验。大量的用户生成数据也因此产生。所谓的用户生成数据(User Generated Content,UGC)是指用户通过各种终端上传的原创内容,这些内容来源于用户又服务用户。UGC中很大的部分就是互联网上的点评数据。当前的点评不仅有传统的文本形式,各种图片甚至视频的信息也都出现在点评中。这些丰富的信息可以充分地表达用户的点评观点和情感。当有其他用户看到点评时,也会被影响选择。现在人们都已经意识到社交网络上评论的强大:点评可以产生社交网络热点,优质的丰富的评论能直接提升销售和美誉度;差评甚至具有诋毁性质的点评则有可能造成难以挽回的损失。
如何对点评进行分析是一个重要的需求。每一家面向个人消费者的公司和商家都会关心用户的点评,希望借助技术手段获取用户的点评反馈,用于指导自身的品牌管理和运营管理,提升品牌形象和服务质量。如果仅靠人工的方法是难以应对在线海量点评的收集和处理。因此,迫切需要计算机帮助用户快速获取和整理这些点评信息。
情感分析(Sentiment Analysis)技术应运而生,情感分析不仅是信息处理领域的研究热点,在产业界也引起了广泛关注。它通过分析相关UGC的语言文字得到人们所要表达的情感或者挖掘用户的意见。但是目前的研究方法普遍基于文本信息,在当前的点评数据中,已不局限于文字,还有各类的图片(点评配图)。对于文字,不同地域不用背景的人在不同语境下都会产生不同的理解;但是对于图片,人们的反应是具有一定的一致性。如果能结合点评的文本和配图信息,对点评进行情感的分析,将会对情感分析的准确性有较大的提升。
发明内容
针对现有技术中存在的技术问题,本发明的目的在于提供一种融合点评配图的情感分析方法。本发明是基于语料库的统计方法或机器学习方法,自动地从点评数据中分析出点评的情感极性。
本发明采用的技术方案如下:
一种融合点评配图的情感分析方法,其步骤包括:
1)获取目标酒店的评论数据;
2)对每一所述评论数据中的文本进行分词;根据分词对该评论数据的文本进行向量化,得到该评论数据的文本向量化表示;对每一所述评论数据中的图片集合进行向量化,得到该评论数据的图片集合向量化表示;
3)对每一所述评论数据,根据该评论数据的文本向量化表示和图片集合向量化表示,对该评论数据进行情感分析,得到该评论数据的情感类别。
进一步的,所述步骤2)中,得到该评论数据的文本向量化表示的方法为:
21)将该评论数据中的文本划分为n个句子,表示为{Sentence1,Sentence2,…,Sentencen};将第i个句子Sentencei包含的分词表示为其中max表示允许的句子的最大的长度;
22)将每一个句子中的每一个分词映射为一个低维连续向量;
23)对于每一句子,根据语义分析算式和该句子的各分词的低维连续向量,获得该句子的语义向量;
24)根据该评论数据的各句子的语义向量得到该评论数据的文本向量化表示。
进一步的,所述步骤22)中,采用文本深度表示模型对句子进行编码获得该句子中各分词的词向量;所述步骤23)中,将每一句子的各词向量当作一个长短期记忆神经网络LSTM的输入,得到该句子的语义向量。
进一步的,所述步骤2)中,得到该评论数据的图片集合向量化表示的方法为:将该评论数据中包含的n个配图表示为{Picture1,Picture2,…,Picturen};对该评论数据中的每一配图统一归一化为设定大小的RGB图像,作为深度卷积网络CNN的输入,其中第i个配图Picturei通过深度卷积网络CNN进行变换,得到对应的单张配图的语义向量表示为Pi;将各配图的语义向量输入LSTM层进行编码,经过一个平均池化层,得到该评论数据的图片集合向量化表示dpicture。
进一步的,所述深度卷积网络CNN包括5个卷积层和3个全连接层;其中输入数据依次经5个卷积层后再经过3个全连接层输出。
进一步的,所述深度卷积网络CNN的前两层卷积层和第5个卷积层后分别设有一池化层;所述卷积层、所述池化层以及所述全连接层的前两层的参数与AlexNet模型的配置一致。
进一步的,所述步骤6)中,得到该评论数据的情感类别的方法为:将该评论数据的文本向量化表示dtext和图片集合向量化表示dpicture合并得到该评论数据的增强向量d=dpicture∪dtext;将该评论数据的增强向量d作为情感分类特征,使用一个非线性层将该增强向量d映射到预测目标空间K的C个情感分类上,得到其中,表示该增强向量d在C维空间的分布;Wc是在C维空间上的权重矩阵,bc为偏置系数向量;然后根据计算该评论数据的情感类别;其中,是增强向量中第i个元素,是增强向量中第k个元素;pi为该评论数据在情感分类i上的预测概率,C为情感分类类别的数量。
与现有技术相比,本发明的积极效果为:
与纯人工收集选择的方式相比,本发明采用的方法效率高,可以在较短时间内分析得到点评的情感倾向,每秒钟可分析150条配有图片的点评;融入了点评的配图信息,利用深度神经网络模型,可以得到更精准的情感分析结果,准确率提升3%,召回率提升10%以上。
附图说明
图1为本发明的融合点评配图的情感分析的步骤流程图;
图2为本发明中点评文本部分向量表示的神经网络结构图;
图3为本发明中点评配图部分向量表示的神经网络结构图;
图4为本发明使用的CNN结构图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面通过具体实施例和附图,对本发明做进一步说明。
本发明是对点评数据进行情感判断的方法,特别是用于带有配图的点评,可以提升点评的准确性。当前点评中越来越多的会配有图片,甚至点评文本很少,只靠图片来表达情感。本发明可以充分融合点评的配图信息,本发明首先通过聚焦爬虫从各大主流点评网站获取在线点评数据。然后对点评中的句子进行分词等处理,在此基础上完成文本的向量表示;对点评中的配图进行归一化等处理,在此基础上完成配图的向量表示。最后,通过组合两个向量,对情感结果进行分类。
图1是本发明方法的步骤流程图,下面是具体的实施步骤:
步骤1:数据准备。通过聚焦爬虫从携程等主流点评网站获取目标酒店的在线点评数据。
步骤2:点评分词。中文分词是中文自然语言处理的基础步骤,本发明分词采用词典分词和统计分词融合的方法。首先采用基于词典的最大匹配分词方法,针对分词有歧义的部分再采用序列标注的分词方法。
基于词典的最大匹配分词方法,给定词典,对于待分词的汉字序列,依次寻找匹配的最长词典词,无匹配者则作为单字词处理,直至该汉字序列处理完毕。按照对汉字序列扫描方向的不同,该方法又可以分为:正向最大匹配(从左向右匹配)和逆向最大匹配(从右向左匹配)。例如,对于序列“当原子结合成分子时”,正向最大匹配结果为“当|原子|结合|成|分子|时”,而逆向最大匹配结果为“当|原子|结合|成分|子时”。
显然,正向最大匹配和逆向最大匹配都不能很好地处理切分歧义问题。正向最大匹配和逆向最大匹配也可以结合形成双向最大匹配,双向匹配时正向和逆向匹配不一致的地方,往往是潜在歧义的地方。有歧义往往需要根据具体上下文确认分词结果。有监督的序列标注方法能够充分的挖掘上下文的丰富特征,因此有歧义的情况下本发明引入序列标注方法消除歧义。该方法将词的切分问题转换为字的分类问题,每个字根据其在词中的不同位置,赋予不同的位置类别标记,比如词首、词中、词尾和单字词。基于这样的标记序列,很容易确定句子的切分方式。其中,B(Begin)、M(Middle)、E(End)、S(Single)分别表示词首、词中、词尾、单字词。有了字的标记序列,符合正则表达式“S”或“B(M)*E”的字序列表示一个词,从而很容易地完成句子切分。为了实现序列标注任务,本发明采用条件随机场模型(Conditional Random Fields,CRF),该模型在自然语言处理中得到广泛应用,并取得了很大成功。具体特征包括:前一个字、当前字、后一个字、前一个字与当前字、当前字与后一个字,以及基于这些一元特征的二元特征。条件随机场模型利用提取的这些特征,预测出的每个字的类别标记。
最大匹配方法的词典以及有监督的条件随机场模型的训练学习语料都来自本发明人工标注的10万条酒店点评。
步骤3:点评文本的向量化表示。
本发明定义一条点评中的文本段。该文本段可以包含n个句子,表示为{Sentence1,Sentence2,…,Sentencen},第i个句子Sentencei包含的单词,则可以表示为其中max表示允许的句子的最大的长度。
如图2所示,在此模型中。首先进行最底层的词语的表示。在词语表示这一层,目标是将文本段中每一个句子中的每一个词映射为一个低维连续向量。这里可以采用文本深度表示模型(如word2vec)将文本段中的句子进行编码获得词向量。word2vec是一个将单词转换成向量形式的工具,可以把对文本内容的处理简化为向量空间中的向量运算,计算出向量空间上的相似度,避免了传统方法的稀疏性问题,可以丰富的来表示文本语义上的相似度。
第二步是根据句子的各词向量和语义分析算式获得句子的语义向量。把文本段中的每一句话中的词向量当作一个长短期记忆神经网络(LSTM)的输入,得到每一句话的语义向量表示。这里LSTM中语义分析算式具体为:每一步给定当前输入词向量使用上一步的隐状态和记忆单元状态来得到这一步的隐状态和记忆单元状态
其中,k,f,o表示长短期记忆神经网络的输入、遗忘和输出门,⊙表示逐位相乘,σ表示sigmod函数,W和b表示待训练的参数;为词向量,将得到的隐状态通过一个平均池化层(Mean pooling)得到当前句子的语义向量Si。类似的,可以从句子的语义向量出发,将{S1,S2,…,Sn}经过LSTM层进行编码,经过一个平均池化层,得到文本段的表示dtext。
步骤4:配图集合的向量表示。
本发明定义一条点评中的配图集合。该文本段可以包含n个配图,表示为{Picture1,Picture2,…,Picturen}。所有的配图都进行规范化处理,统一归一化为256*256的RGB图像,作为CNN模型输入,来获得点评配图的语义表示。
如图3所示,在此模型中,首先,配图Picturei通过深度卷积网络(CNN)进行变换,得到对应的单张配图的语义向量表示Pi。
与步骤3)类似的,可以从的单张配图语义向量出发,{P1,P2,…,Pn}经过LSTM层进行编码,经过一个平均池化层,得到多张点评配图的语义向量表示dpicture。
需要说明的是,图4展示了本方法中使用的CNN结构。网络由5个卷积层(conv1-5),3个全连接层(fc6-8)组成,其中神经元的激活函数选用ReLU函数,前两层卷积层和第5个卷积层后分别加一池化层;卷积层,池化层以及全连接层的前两层的参数与公知的AlexNet模型(Alex Krizhevsky等,2012;借鉴了公知的AlexNet模型的设计,并且使用了其参数信息,包括卷积层的大小、池化层的核数、全连接层的大小等)的配置一致,最后一个全连接层修改大小为100。
步骤6:将步骤4)和5)中获得的同一点评数据的向量进行拼接合并,d=dpicture∪dtext,得到的增强向量d作为情感分类特征。最后,使用一个非线性层将d映射到预测目标空间K的C个情感分类上,如下所示:
之后,利用如下算式,计算点评在每个情感分类上的概率,如下所示:
其中pi为点评在情感分类i上的预测概率,C为情感分类类别的数量;是向量中第i个元素,是向量中第k个元素。由此本发明获得了待分类的并且是包含了点评配图的点评的情感分布,取概率值最大的情感类型为该条点评的最终情感类别。这里本发明情感分类的数量取3,即好评,差评和中评。
通过随机梯度下降,最小化评价函数,对上面所有参数(Wc,bc)进行学习与更新。
在1万条酒店点评上的实验结果表明,本发明提出的融合点评配图的情感分析方法是有效的。整体的情感分析准确率可以达到90%以上。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的精神和范围,本发明的保护范围应以权利要求书所述为准。
Claims (4)
1.一种融合点评配图的情感分析方法,其步骤包括:
1)获取目标酒店的评论数据;
2)对每一所述评论数据中的文本进行分词;根据分词对该评论数据的文本进行向量化,得到该评论数据的文本向量化表示;对每一所述评论数据中的图片集合进行向量化,得到该评论数据的图片集合向量化表示;其中,
得到该评论数据的文本向量化表示的方法为:21)将该评论数据中的文本划分为n个句子,表示为{Sentence1,Sentence2,…,Sentencen};将第i个句子Sentencei包含的分词表示为其中max表示允许的句子的最大的长度;22)将每一个句子中的每一个分词映射为一个低维连续向量;23)对于每一句子,根据语义分析算式和该句子的各分词的低维连续向量,获得该句子的语义向量;24)根据该评论数据的各句子的语义向量得到该评论数据的文本向量化表示;
得到该评论数据的图片集合向量化表示的方法为:将该评论数据中包含的n个配图表示为{Picture1,Picture2,…,Picturen};对该评论数据中的每一配图统一归一化为设定大小的RGB图像,作为深度卷积网络CNN的输入,其中第i个配图Picturei通过深度卷积网络CNN进行变换,得到对应的单张配图的语义向量表示为Pi;将各配图的语义向量输入LSTM层进行编码,经过一个平均池化层,得到该评论数据的图片集合向量化表示dpicture;
2.如权利要求1所述的方法,其特征在于,所述步骤22)中,采用文本深度表示模型对句子进行编码获得该句子中各分词的词向量;所述步骤23)中,将每一句子的各词向量当作一个长短期记忆神经网络LSTM的输入,得到该句子的语义向量。
3.如权利要求1所述的方法,其特征在于,所述深度卷积网络CNN包括5个卷积层和3个全连接层;其中输入数据依次经5个卷积层后再经过3个全连接层输出。
4.如权利要求3所述的方法,其特征在于,所述深度卷积网络CNN的前两层卷积层和第5个卷积层后分别设有一池化层;所述卷积层、所述池化层以及所述全连接层的前两层的参数与AlexNet模型的配置一致。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710940129.4A CN107818084B (zh) | 2017-10-11 | 2017-10-11 | 一种融合点评配图的情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710940129.4A CN107818084B (zh) | 2017-10-11 | 2017-10-11 | 一种融合点评配图的情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107818084A CN107818084A (zh) | 2018-03-20 |
CN107818084B true CN107818084B (zh) | 2021-03-09 |
Family
ID=61608048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710940129.4A Active CN107818084B (zh) | 2017-10-11 | 2017-10-11 | 一种融合点评配图的情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107818084B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960122A (zh) * | 2018-06-28 | 2018-12-07 | 南京信息工程大学 | 一种基于时空卷积特征的表情分类方法 |
CN109376775B (zh) * | 2018-10-11 | 2021-08-17 | 南开大学 | 在线新闻多模态情感分析方法 |
CN111985243B (zh) * | 2019-05-23 | 2023-09-08 | 中移(苏州)软件技术有限公司 | 情感模型的训练方法、情感分析方法、装置及存储介质 |
CN110196945B (zh) * | 2019-05-27 | 2021-10-01 | 北京理工大学 | 一种基于LSTM与LeNet融合的微博用户年龄预测方法 |
CN110222341A (zh) * | 2019-06-10 | 2019-09-10 | 北京百度网讯科技有限公司 | 文本分析方法及装置 |
CN110717335A (zh) * | 2019-09-23 | 2020-01-21 | 中国科学院深圳先进技术研究院 | 用户评论数据处理方法、装置、存储介质及电子设备 |
CN111259141A (zh) * | 2020-01-13 | 2020-06-09 | 北京工业大学 | 一种基于多模型融合的社交媒体语料情感分析方法 |
CN112073757B (zh) * | 2020-08-13 | 2023-01-24 | 北京奇艺世纪科技有限公司 | 情绪波动指数获取方法、显示方法及多媒体内容制作方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9280562B1 (en) * | 2006-01-31 | 2016-03-08 | The Research Foundation For The State University Of New York | System and method for multimedia ranking and multi-modal image retrieval using probabilistic semantic models and expectation-maximization (EM) learning |
CN105844239A (zh) * | 2016-03-23 | 2016-08-10 | 北京邮电大学 | 一种基于cnn和lstm的暴恐视频检测方法 |
CN106096568A (zh) * | 2016-06-21 | 2016-11-09 | 同济大学 | 一种基于cnn和卷积lstm网络的行人再识别方法 |
CN107066583A (zh) * | 2017-04-14 | 2017-08-18 | 华侨大学 | 一种基于紧凑双线性融合的图文跨模态情感分类方法 |
-
2017
- 2017-10-11 CN CN201710940129.4A patent/CN107818084B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9280562B1 (en) * | 2006-01-31 | 2016-03-08 | The Research Foundation For The State University Of New York | System and method for multimedia ranking and multi-modal image retrieval using probabilistic semantic models and expectation-maximization (EM) learning |
CN105844239A (zh) * | 2016-03-23 | 2016-08-10 | 北京邮电大学 | 一种基于cnn和lstm的暴恐视频检测方法 |
CN106096568A (zh) * | 2016-06-21 | 2016-11-09 | 同济大学 | 一种基于cnn和卷积lstm网络的行人再识别方法 |
CN107066583A (zh) * | 2017-04-14 | 2017-08-18 | 华侨大学 | 一种基于紧凑双线性融合的图文跨模态情感分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107818084A (zh) | 2018-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107818084B (zh) | 一种融合点评配图的情感分析方法 | |
CN106776581B (zh) | 基于深度学习的主观性文本情感分析方法 | |
CN110287320B (zh) | 一种结合注意力机制的深度学习多分类情感分析模型 | |
CN110046656B (zh) | 基于深度学习的多模态场景识别方法 | |
CN109933664B (zh) | 一种基于情感词嵌入的细粒度情绪分析改进方法 | |
CN107832663B (zh) | 一种基于量子理论的多模态情感分析方法 | |
CN107608956B (zh) | 一种基于cnn-grnn的读者情绪分布预测算法 | |
Ishaq et al. | Aspect-based sentiment analysis using a hybridized approach based on CNN and GA | |
Sun et al. | Sentiment analysis for Chinese microblog based on deep neural networks with convolutional extension features | |
CN111209738B (zh) | 一种联合文本分类的多任务命名实体识别方法 | |
CN110502626B (zh) | 一种基于卷积神经网络的方面级情感分析方法 | |
CN110287323B (zh) | 一种面向目标的情感分类方法 | |
CN111914556A (zh) | 基于情感语义转移图谱的情感引导方法及系统 | |
CN112800184B (zh) | 基于Target-Aspect-Opinion联合抽取的短文本评论情感分析方法 | |
CN113435211A (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
CN110297986A (zh) | 一种微博热点话题的情感倾向分析方法 | |
CN114417851A (zh) | 一种基于关键词加权信息的情感分析方法 | |
CN113627550A (zh) | 一种基于多模态融合的图文情感分析方法 | |
CN111159405B (zh) | 基于背景知识的讽刺检测方法 | |
CN116702753A (zh) | 基于图注意力网络的文本情感分析方法 | |
Sun et al. | Chinese microblog sentiment classification based on convolution neural network with content extension method | |
CN107122471B (zh) | 一种酒店特色点评抽取的方法 | |
CN113505226B (zh) | 融合图卷积神经网络的文本情感分类系统 | |
CN113076425B (zh) | 一种用于微博评论的事件相关观点句分类方法 | |
CN116227486A (zh) | 一种基于检索和对比学习的情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231225 Address after: 18th Floor, Jin'ao International Building, No. 17 Madian East Road, Haidian District, Beijing, 100080 Patentee after: Beijing Yishang Huiping Network Technology Co.,Ltd. Address before: 100088 18 / F, jin'ao international building, 17 Madian East Road, Haidian District, Beijing Patentee before: BEIJING JOINT WISDOM INFORMATION TECHNOLOGY CO.,LTD. |
|
TR01 | Transfer of patent right |