CN110069778A - 中文融入嵌入词位置感知的商品情感分析方法 - Google Patents

中文融入嵌入词位置感知的商品情感分析方法 Download PDF

Info

Publication number
CN110069778A
CN110069778A CN201910312096.8A CN201910312096A CN110069778A CN 110069778 A CN110069778 A CN 110069778A CN 201910312096 A CN201910312096 A CN 201910312096A CN 110069778 A CN110069778 A CN 110069778A
Authority
CN
China
Prior art keywords
word
vector
input
gru
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910312096.8A
Other languages
English (en)
Other versions
CN110069778B (zh
Inventor
何学辉
周武能
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN201910312096.8A priority Critical patent/CN110069778B/zh
Publication of CN110069778A publication Critical patent/CN110069778A/zh
Application granted granted Critical
Publication of CN110069778B publication Critical patent/CN110069778B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开一种中文融入嵌入词位置感知的aspect级的商品情感分析方法,主要包括:输入字嵌入向量采用Laplace概率密度函数进行位置权重加权,采用双向GRU神经网络对文档中所有句子的情感语义及句子间的语义关系进行编码,对词向量集合中的每个词向量获取其上下文的信息,得到隐藏层当前的隐状态;给隐藏层当前的隐状态的添加注意力机制,得到句向量的概率分布;根据句向量的概率分布,用全连接层与soft‑max函数判断情感类别。嵌入词向量时同时采用位置感知方法可以有效提高嵌入词的情感信息。采用双向GRU神经网络可以减少训练时间,进一步提升情感分析精确度。

Description

中文融入嵌入词位置感知的商品情感分析方法
技术领域
本发明涉及一种中文融入嵌入词位置感知的aspect级的商品情感分析方法。
背景技术
近年来,情感分析技术目前被广泛地应用于各种互联网应用当中,例如目前比较热门的在线翻译,用户评价分析和用户观点挖掘等热门领域当中。如何快速准确地从互联网海量的评论信息中分析所包含的用户情感已经成为当前人工智能领域的热点。商品情感分析中基本的任务是用户对商品的情感倾向进行分类,其中主要是二元分类。
基于机器学习的情感分析方法在过去取得了不错的成果,然而,传统的机器学习的方法仅考虑文本中单词出现的频率或次数,而忽略了语法结构和上下文信息,这对情感分类的准确度影响较大。除此之外,传统的机器学习方法依赖于人工设计的特征,耗时费力。
由于互联网上数据的快速增长,基于神经网络的深度学习模型在图像和语音识别领域显示出卓越的性能,自然语言处理领域也逐渐开始使用深度学习的方法,并取得了良好的效果。在自然语言处理中,深度学习的方法首先将文本转化为一组向量系列表示,然后将该向量序列输入神经网络模型提取特征,最后将特征输入分类器进行情感分类。
发明内容
本发明要解决的技术问题是:基于循环神经网络的特征提取方法将输入编码为一个定长的特征,但这种方法也没有考虑到用户评论中不同部分对评论的最终情感的贡献程度不同,可能会导致面对较长的用户评论时会降低情感分析的准确度。
为了解决上述技术问题,本发明的技术方案是提供了一种中文融入嵌入词位置感知的商品情感分析方法,其特征在于,包括如下步骤:
步骤一、载入中文商品评论语料库,并将语料库按比例进行分割,分为训练机和测试集;
步骤二、利用jieba分词工具对训练集和测试集分别进行分词处理;
步骤三、利用glove训练语料的词语向量,输入字嵌入向量由位置权重加权,使用位置权重来强调在生成句子向量的过程中对方面词的相关情感信息;
步骤四、利用双向GRU神经网络分别从词嵌入得到句子级情感向量表示,双向GRU神经网络包括采用正向学习的GRUL及采用反向学习的GRUR,GRUL的输入是前面的上下文信息加上目标方面词,GRUR的输入是后面的上下文信息加上方面词,从左往右运行GRUL,从右往左运行GRUR,分别得到对词向量集合中的每个词向量获取其上下文的信息,得到隐藏层当前的隐状态HL和HR
步骤五、给隐藏层当前的隐状态HL和HR添加注意力机制,通过自动加权的方式决定输入文本需要关注的部分,分别得到句向量的概率分布:通过隐藏状态和方面词语义向量之间的感情语义相似性来计算注意权重,方位词语义向量包含方面词的语义信息,因此,与方面词相关的词越多,它占据的权重就越大;
步骤六、由注意力机制生成加权隐藏状态表示YL和YR,两个加权隐状态组合得到最终的句子向量表示;
步骤七、最终的句子向量经过soft-max函数判断情感类别的概率,得到情感结果。
优选地,步骤三中,使用拉普拉斯概率密度函数来获得所述位置权重:
对应于输入字嵌入向量e,e={e1,e2,...,ei,...en}的位置权重λ定义为:λ=[λ12,...,λi,...,λn],则有:
式中,i是句子中单词的索引;a是方面单词的索引,为单词的不同位置生成不同的输入位置权重;αl和βl是方面词左侧的上下文词的参数,而αr和βr是右侧的上下文词的参数;αm是方面词;
然后,输入位置权重被合并到输入字嵌入向量,如下式所示:
Ei=λi×ei
式中,Ei是由输入位置权重加权的第i个输入字的第i个新单词嵌入向量。
本发明主要是glove词向量嵌入位置感知,利用Laplace概率密度函数进行位置权重加权,输入字嵌入向量采用高斯概率密度函数进行位置权重加权,采用双向GRU获取其上下文的信息,并结合注意力机制进一步提高情感分类的准确率。
附图说明
图1为本发明实施的流程算法;
图2为本发明实施深度神经网络模型。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明提供了一种中文融入嵌入词位置感知的aspect级的商品情感分析方法包括如下步骤:
步骤一:载入中文商品评论语料库,并将语料库按比例进行分割,分为训练机和测试集;
步骤二:利用jieba分词工具对训练集和测试集分别进行分词处理;
步骤三:利用glove训练语料的词语向量,输入字嵌入向量由位置权重加权。直接将词语向量输入到模型中并生成句子向量的表示将包含与方面词无关的信息。因此,本发明使用位置权重来强调在生成句子向量的过程中对方面词的相关情感信息。
最大程度地表达方面词的情感的关键词总是接近方面词本身。越接近方面词,它们可能包含的相关性信息越多。进一步注意到方面词的关键词总是只位于方面词的一侧。直接将单词向量输入到模型中并生成句子向量的表示将包含与方面单词无关的信息。因此,本发明使用位置权重来强调在生成句子向量的过程中对方面词的相关情感信息。与此同时,与方面词无关的词也相应地被削弱了。鉴于位置信息有利于获得更好的结果,输入字嵌入向量由位置权重加权。由于本发明期望远离方面词的词的权重下降得更快,这有助于防止与方面无关的信息的干扰,本发明使用拉普拉斯概率密度函数来获得位置权重。
对应于输入字嵌入向量e,e={e1,e2,...,ei,...en}的位置权重λ定义为:λ=[λ12,...,λi,...,λn],则有:
式中,i是句子中单词的索引;a是方面单词的索引,为单词的不同位置生成不同的输入位置权重;αl和βl是方面词左侧的上下文词的参数,而αr和βr是右侧的上下文词的参数;αm是方面词,所有这些都是用模型训练的。例如,如果左上下文单词的输入位置权重大于训练时的右侧,则表示左上下文单词对方面单词更重要。
然后,输入位置权重被合并到输入字嵌入向量,如下式所示:
Ei=λi×ei
式中,Ei是由输入位置权重加权的第i个输入字的第i个新单词嵌入向量。
步骤四:利用双向GRU神经网络分别从词嵌入得到句子级情感向量表示,双向GRU神经网络包括采用正向学习的GRUL及采用反向学习的GRUR,GRUL的输入是前面的上下文信息加上目标方面词,GRUR的输入是后面的上下文信息加上方面词,从左往右运行GRUL,从右往左运行GRUR,分别得到对词向量集合中的每个词向量获取其上下文的信息,得到隐藏层当前的隐状态HL和HR
GRU(Gated Recurrent Unit)是LSTM的一种变体,它对LSTM做了很多简化。循环神经网络会以不受控制的方式在每个单位步长内重写自己的记忆,而LSTM有专门的学习机制能够在保持先前的状态的同时,记忆当前数据所输入的特征。LSTM神经网络模型包含有三个门:输入门,遗忘门和输出门。遗忘门用于决定保留多少个上一时刻的单元状态到当前时刻的单元状态;输入门用于决定保留多少个当前时刻的输入到当前时刻的单元状态;输出门用于决定当前时刻的单元状态有多少输出。GRU神经网络则是LSTM的简化版,相比于LSTM来说只有两个门:更新门和重置门。更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息被带入的越多;重置门用于控制忽略前一时刻的状态信息的程度,重置门越小说明忽略的信息越多。GRU神经网络的参数比LSTM减少了1/3,不容易产生过拟合,而且在收敛时间和需要的迭代次数上,GRU神经网络更胜一筹.GRU可以在保持LSTM效果的同时,使得模型的结构更加简单。GRU神经网络向前传播公式如下:
rt=σ(Wr·[ht-1,xt])
zt=σ(Wz·[ht-1,xt])
yt=σ(W0·ht)
xt表示为当前时刻的输入;ht-1表示上一时刻的输出;Wr、WzW0为相应的权重矩阵;zt和rt分别为更新门和重置门;σ表示sigmoid激活函数;表示更新时刻的输出;ht表示当前时刻的输出;yt表示输出结果。
由于循环神经网络模型具有遗忘性,一般来说,最后一个状态所包含的信息是有损的,而且序列越靠前信息损失得越严重。对于包含有许多序列建模任务而言,获取未来以及过去的背景信息对提高模型的准确率来说是有意义的。所以,如果同时训练两个GRU神经网络,一个采用正向学习,一个采用反向学习,将正向和反向的最后一个状态对应的向量连接后得到的向量作为最后的结果,则该模型便能同时利用过去和未来的所有信息。本发明使用双向的GRU神经网络模型。如图2所示,网络包含左右两个序列上下文的两个子网络,分别是前向和后向传递。
步骤五:给隐藏层当前的隐状态HL和HR添加注意力机制,通过自动加权的方式决定输入文发明需要关注的部分,分别得到句向量的概率分布。具体地,通过隐藏状态和方面词语义向量之间的感情语义相似性来计算注意权重,方位词语义向量包含方面词的语义信息。因此,与方面词相关的词越多,它占据的权重就越大。引入注意力机制,给不同的方面词赋予不同的权重,从而摒弃一些噪音数据,以此来提高分类器的性能。
步骤六:由注意力机制生成加权隐藏状态表示YL和YR,两个加权隐状态组合得到最终的句子向量表示。
步骤七:最终的句子向量经过soft-max函数判断情感类别的概率,得到情感结果。

Claims (2)

1.一种中文融入嵌入词位置感知的商品情感分析方法,其特征在于,包括如下步骤:
步骤一、载入中文商品评论语料库,并将语料库按比例进行分割,分为训练机和测试集;
步骤二、利用jieba分词工具对训练集和测试集分别进行分词处理;
步骤三、利用glove训练语料的词语向量,输入字嵌入向量由位置权重加权,使用位置权重来强调在生成句子向量的过程中对方面词的相关情感信息;
步骤四、利用双向GRU神经网络分别从词嵌入得到句子级情感向量表示,双向GRU神经网络包括采用正向学习的GRUL及采用反向学习的GRUR,GRUL的输入是前面的上下文信息加上目标方面词,GRUR的输入是后面的上下文信息加上方面词,从左往右运行GRUL,从右往左运行GRUR,分别得到对词向量集合中的每个词向量获取其上下文的信息,得到隐藏层当前的隐状态HL和HR
步骤五、给隐藏层当前的隐状态HL和HR添加注意力机制,通过自动加权的方式决定输入文本需要关注的部分,分别得到句向量的概率分布:通过隐藏状态和方面词语义向量之间的感情语义相似性来计算注意权重,方位词语义向量包含方面词的语义信息,因此,与方面词相关的词越多,它占据的权重就越大;
步骤六、由注意力机制生成加权隐藏状态表示YL和YR,两个加权隐状态组合得到最终的句子向量表示;
步骤七、最终的句子向量经过soft-max函数判断情感类别的概率,得到情感结果。
2.如权利要求1所述的一种中文融入嵌入词位置感知的商品情感分析方法,其特征在于,步骤三中,使用拉普拉斯概率密度函数来获得所述位置权重:
对应于输入字嵌入向量e,e={e1,e2,...,ei,...en}的位置权重λ定义为:λ=[λ12,...,λi,...,λn],则有:
式中,i是句子中单词的索引;a是方面单词的索引,为单词的不同位置生成不同的输入位置权重;αl和βl是方面词左侧的上下文词的参数,而αr和βr是右侧的上下文词的参数;αm是方面词;
然后,输入位置权重被合并到输入字嵌入向量,如下式所示:
Ei=λi×ei
式中,Ei是由输入位置权重加权的第i个输入字的第i个新单词嵌入向量。
CN201910312096.8A 2019-04-18 2019-04-18 中文融入嵌入词位置感知的商品情感分析方法 Active CN110069778B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910312096.8A CN110069778B (zh) 2019-04-18 2019-04-18 中文融入嵌入词位置感知的商品情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910312096.8A CN110069778B (zh) 2019-04-18 2019-04-18 中文融入嵌入词位置感知的商品情感分析方法

Publications (2)

Publication Number Publication Date
CN110069778A true CN110069778A (zh) 2019-07-30
CN110069778B CN110069778B (zh) 2023-06-02

Family

ID=67368018

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910312096.8A Active CN110069778B (zh) 2019-04-18 2019-04-18 中文融入嵌入词位置感知的商品情感分析方法

Country Status (1)

Country Link
CN (1) CN110069778B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442723A (zh) * 2019-08-14 2019-11-12 山东大学 一种基于多步判别的Co-Attention模型用于多标签文本分类的方法
CN110717334A (zh) * 2019-09-10 2020-01-21 上海理工大学 基于bert模型和双通道注意力的文本情感分析方法
CN110826336A (zh) * 2019-09-18 2020-02-21 华南师范大学 一种情感分类方法、系统、存储介质及设备
CN111144130A (zh) * 2019-12-26 2020-05-12 辽宁工程技术大学 一种基于上下文感知的混合神经网络的细粒度情感分类方法
CN111368524A (zh) * 2020-03-05 2020-07-03 昆明理工大学 一种基于自注意力双向gru和svm的微博观点句识别方法
CN111523301A (zh) * 2020-06-05 2020-08-11 泰康保险集团股份有限公司 合同文档合规性检查方法及装置
CN111683294A (zh) * 2020-05-08 2020-09-18 华东师范大学 一种信息抽取的弹幕评论推荐方法
CN112527966A (zh) * 2020-12-18 2021-03-19 重庆邮电大学 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN112711618A (zh) * 2019-12-27 2021-04-27 山东鲁能软件技术有限公司 一种客户诉求情感分析方法及装置
CN113032567A (zh) * 2021-03-29 2021-06-25 广东众聚人工智能科技有限公司 位置嵌入解释方法、装置、计算机设备及存储介质
CN113220887A (zh) * 2021-05-31 2021-08-06 华南师范大学 一种利用目标知识增强模型的情感分类方法和装置
CN113254592A (zh) * 2021-06-17 2021-08-13 成都晓多科技有限公司 基于门机制的多级注意力模型的评论方面检测方法及系统
CN113435211A (zh) * 2021-07-19 2021-09-24 北京理工大学 一种结合外部知识的文本隐式情感分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106649260A (zh) * 2016-10-19 2017-05-10 中国计量大学 基于评论文本挖掘的产品特征结构树构建方法
US20170278510A1 (en) * 2016-03-22 2017-09-28 Sony Corporation Electronic device, method and training method for natural language processing
CN108170681A (zh) * 2018-01-15 2018-06-15 中南大学 文本情感分析方法、系统及计算机可读存储介质
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170278510A1 (en) * 2016-03-22 2017-09-28 Sony Corporation Electronic device, method and training method for natural language processing
CN106649260A (zh) * 2016-10-19 2017-05-10 中国计量大学 基于评论文本挖掘的产品特征结构树构建方法
CN108170681A (zh) * 2018-01-15 2018-06-15 中南大学 文本情感分析方法、系统及计算机可读存储介质
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
蔡林森: "基于深度学习的关联目标情感分析研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442723A (zh) * 2019-08-14 2019-11-12 山东大学 一种基于多步判别的Co-Attention模型用于多标签文本分类的方法
CN110717334B (zh) * 2019-09-10 2023-10-10 上海理工大学 基于bert模型和双通道注意力的文本情感分析方法
CN110717334A (zh) * 2019-09-10 2020-01-21 上海理工大学 基于bert模型和双通道注意力的文本情感分析方法
CN110826336A (zh) * 2019-09-18 2020-02-21 华南师范大学 一种情感分类方法、系统、存储介质及设备
CN110826336B (zh) * 2019-09-18 2020-11-06 华南师范大学 一种情感分类方法、系统、存储介质及设备
CN111144130A (zh) * 2019-12-26 2020-05-12 辽宁工程技术大学 一种基于上下文感知的混合神经网络的细粒度情感分类方法
CN112711618A (zh) * 2019-12-27 2021-04-27 山东鲁能软件技术有限公司 一种客户诉求情感分析方法及装置
CN111368524A (zh) * 2020-03-05 2020-07-03 昆明理工大学 一种基于自注意力双向gru和svm的微博观点句识别方法
CN111683294A (zh) * 2020-05-08 2020-09-18 华东师范大学 一种信息抽取的弹幕评论推荐方法
CN111683294B (zh) * 2020-05-08 2021-05-07 华东师范大学 一种信息抽取的弹幕评论推荐方法
CN111523301A (zh) * 2020-06-05 2020-08-11 泰康保险集团股份有限公司 合同文档合规性检查方法及装置
CN112527966A (zh) * 2020-12-18 2021-03-19 重庆邮电大学 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN112527966B (zh) * 2020-12-18 2022-09-20 重庆邮电大学 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN113032567B (zh) * 2021-03-29 2022-03-29 广东众聚人工智能科技有限公司 位置嵌入解释方法、装置、计算机设备及存储介质
CN113032567A (zh) * 2021-03-29 2021-06-25 广东众聚人工智能科技有限公司 位置嵌入解释方法、装置、计算机设备及存储介质
CN113220887A (zh) * 2021-05-31 2021-08-06 华南师范大学 一种利用目标知识增强模型的情感分类方法和装置
CN113254592A (zh) * 2021-06-17 2021-08-13 成都晓多科技有限公司 基于门机制的多级注意力模型的评论方面检测方法及系统
CN113435211A (zh) * 2021-07-19 2021-09-24 北京理工大学 一种结合外部知识的文本隐式情感分析方法

Also Published As

Publication number Publication date
CN110069778B (zh) 2023-06-02

Similar Documents

Publication Publication Date Title
CN110069778A (zh) 中文融入嵌入词位置感知的商品情感分析方法
CN108875807B (zh) 一种基于多注意力多尺度的图像描述方法
CN106372058B (zh) 一种基于深度学习的短文本情感要素抽取方法及装置
CN109844743B (zh) 在自动聊天中生成响应
CN108416065B (zh) 基于层级神经网络的图像-句子描述生成系统及方法
CN111241294B (zh) 基于依赖解析和关键词的图卷积网络的关系抽取方法
CN110083705A (zh) 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端
CN109992779B (zh) 一种基于cnn的情感分析方法、装置、设备及存储介质
CN107656990A (zh) 一种基于字和词两个层面特征信息的文本分类方法
CN108549658B (zh) 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统
CN110083833A (zh) 中文字词向量和方面词向量联合嵌入情感分析方法
Chronis et al. When is a bishop not like a rook? When it’s like a rabbi! Multi-prototype BERT embeddings for estimating semantic relationships
CN109710761A (zh) 基于注意力增强的双向lstm模型的情感分析方法
CN110502753A (zh) 一种基于语义增强的深度学习情感分析模型及其分析方法
Yin et al. Interpreting language models with contrastive explanations
CN111160467A (zh) 一种基于条件随机场和内部语义注意力的图像描述方法
CN109062897A (zh) 基于深度神经网络的句子对齐方法
CN110826338B (zh) 一种单选择门与类间度量的细粒度语义相似识别的方法
CN108090047A (zh) 一种文本相似度的确定方法及设备
CN110298436A (zh) 基于指针生成网络的数据到文本的生成模型
Duong et al. A neural network model for low-resource universal dependency parsing
CN110991190B (zh) 一种文档主题增强系统、文本情绪预测系统和方法
CN109783794A (zh) 文本分类方法及装置
CN113435211B (zh) 一种结合外部知识的文本隐式情感分析方法
CN109726745A (zh) 一种融入描述知识的基于目标的情感分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant