CN116701638A - 文本属性词情感分类方法、装置、设备和介质 - Google Patents
文本属性词情感分类方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN116701638A CN116701638A CN202310869861.2A CN202310869861A CN116701638A CN 116701638 A CN116701638 A CN 116701638A CN 202310869861 A CN202310869861 A CN 202310869861A CN 116701638 A CN116701638 A CN 116701638A
- Authority
- CN
- China
- Prior art keywords
- word
- attribute
- vector
- sentence
- syntax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 160
- 238000000034 method Methods 0.000 title claims abstract description 57
- 239000013598 vector Substances 0.000 claims abstract description 266
- 238000013145 classification model Methods 0.000 claims abstract description 39
- 230000008447 perception Effects 0.000 claims abstract description 29
- 230000007246 mechanism Effects 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 13
- 230000006978 adaptation Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- 235000008694 Humulus lupulus Nutrition 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 6
- 238000003058 natural language processing Methods 0.000 abstract description 5
- 238000004364 calculation method Methods 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了一种文本属性词情感分类方法、装置、设备和介质,涉及自然语言处理技术领域。该方法包括:获取文本数据;确定目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,其中,目标句子为文本数据中的任意一个句子,属性词的属性句法距离为句子中与属性词关联的上下文词构成的词对与属性词在句法结构上的距离;将目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。本公开增强属性词情感分类模型对文本数据中属性词及其相关信息的感知能力,从而更准确地判别文本数据中属性词的情感类别。
Description
技术领域
本公开涉及自然语言处理技术领域,尤其涉及一种文本属性词情感分类方法、装置、设备和介质。
背景技术
属性级情感分类旨在识别句子中属性词的情感极性,是当前自然语言处理领域的研究热点之一,也是实现强人工智能和智能问答的关键技术。例如,商品供应商可以利用属性级情感分类方法从大量的用户文本评论中识别人们对某一产品或者产品的属性的褒贬评价,从而对产品进行针对性的改进,减少人工调研和分析的成本。
基于传统的统计机器学习的方法利用统计机器模型,例如,支持向量机SVM和最大熵模型,来挖掘属性词的情感极性,但是此类方法严重依赖于人工设计的特征好坏,非常耗时耗力。
基于深度学习的方法能够自动地学习适合于具体任务的相关特征,随着层数的加深能够生成更加抽象的特征。在属性级情感分类中,长短期记忆网络LSTM、门控学习单元GRU和卷积神经网络CNN等神经网络得到了广泛应用并获得了较好的表现。
近年来,大规模属性词情感分类模型BERT在多个自然语言处理任务中获得巨大成功,但此类方法仍存在一些不足。例如,BERT无法针对句子中的不同属性词捕捉不同的上下文和情感信息;无法在学习过程中不断更新属性相关句的句子语义信息;建模句子中属性词依赖的句法信息的能力较弱,没有显式地建模和学习属性词相关的句法知识。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种文本属性词情感分类方法、装置、设备和介质,至少在一定程度上克服相关技术中需要依赖大量人工标注数据且缺乏对文本数据中属性词机器相关信息的感知能力,而无法准确判别文本数据中属性词的情感类别的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供了一种文本属性词情感分类方法,包括:获取文本数据,其中,所述文本数据包括多个句子,每个句子包含多个词,所述多个词中包含属性词;确定目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,其中,所述目标句子为所述文本数据中的任意一个句子,所述属性词的属性句法距离为所述句子中与所述属性词关联的上下文词构成的词对与所述属性词在句法结构上的距离;将所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出所述目标句子中属性词的情感分类结果。
在一些实施例中,所述确定目标句子中属性词的属性句法距离,包括:确定目标句子中的属性词;确定所述目标句子中所述属性词对应的第一单词和第二单词,其中,所述第一单词为所述句子中出现在所述属性词的上文信息中的单词,所述第二单词为所述句子中出现在所述属性词的下文信息中的单词;计算第一单词与所述属性词的第一属性句法距离;计算第二单词与所述属性词的第二属性句法距离;根据所述第一属性句法距离、第二属性句法距离,确定属性词的属性句法距离。
在一些实施例中,通过如下公式得到目标句子中属性词的属性句法距离:
其中,表示表示句子中第i个词、第j个词构成的词对与属性词之间的属性句法距离,li表示第i个词与属性词连接得到的跳数,lj表示第j个词与属性词连接得到的跳数,k表示预先设定的跳数阈值,[pad]表示当第i个词和第j个词与属性词在句法结构中无关联关系时的属性距离向量,con(i,j)=1表示第i个词和第j个词与属性词在句法结构中有关联关系,con(i,j)=0表示第i个词和第j个词与属性词在句法结构中无关联关系。
在一些实施例中,所述属性词情感分类模型包括:嵌入层、属性词及句法适配层、动态语义调整层和属性词情感预测层,其中,所述嵌入层用于根据目标句子中每个词的上下文信息、属性词和属性词的属性句法距离,生成目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量;所述属性词及句法适配层用于根据所述目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量,生成所述目标句子中每个词对应的属性句法感知向量;所述动态语义调整层用于根据所述目标句子中每个词对应的属性句法感知向量,生成属性相关句对应的句子向量;所述属性词情感预测层用于根据所述属性相关句对应的句子向量,生成所述目标句子中属性词的情感分类结果。
在一些实施例中,所述将所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出所述目标句子中属性词的情感分类结果,包括:根据所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,生成所述目标句子中每个词对应的属性句法感知向量;根据所述目标句子中每个词对应的属性句法感知向量,生成属性相关句对应的句子向量;根据所述属性相关句对应的句子向量,生成所述目标句子中属性词的情感分类结果。
在一些实施例中,通过如下公式得到所述目标句子中属性词的情感分类结果:
p=Softmax(Wphm+bp)
hm=Relu(Wmhb+bm)
其中,表示输出属性词对应的情感类别对应的概率,/>表示情感极性分布图,包括情感类别数量及其对应的概率,K表示情感类别的数量,hm表示计算的中间量,hb表示属性相关句对应的句子向量,Softmax函数和Relu函数表示激活函数,Wm、Wp、bm和bp表示情感预测层的学习参数。
在一些实施例中,所述方法还包括:基于注意力机制,将所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出所述目标句子中属性词的情感分类结果。
根据本公开的另一个方面,还提供了一种文本属性词情感分类装置,包括:文本数据获取模块,用于获取文本数据,其中,所述文本数据包括多个句子,每个句子包含多个词,所述多个词中包含属性词;数据向量确定模块,用于确定目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,其中,所述目标句子为所述文本数据中的任意一个句子,所述属性词的属性句法距离为所述句子中与所述属性词关联的上下文词构成的词对与所述属性词在句法结构上的距离;情感分类结果输出模块,用于将所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出所述目标句子中属性词的情感分类结果。
根据本公开的另一个方面,还提供了一种电子设备,该电子设备包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的文本属性词情感分类方法。
根据本公开的另一个方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的文本属性词情感分类方法。
根据本公开的另一个方面,还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述任意一项的文本属性词情感分类方法。
本公开的实施例中提供的一种文本属性词情感分类方法、装置、设备和介质,根据获取到的文本数据确定其中目标句子每个词的上下文向量、属性词向量以及属性词的属性句法距离向量,将得到的向量数据输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。本公开能够增强属性词情感分类模型对文本数据中属性词及其相关信息的感知能力,克服模型在建模属性词相关信息上能力较弱的问题,提升模型对属性词相关信息的编码能力,从而更准确地判别文本数据中属性词的情感类别。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种文本属性词情感分类方法流程图;
图2示出本公开实施例中一种属性词情感分类模型示意图;
图3示出本公开实施例中一种文本属性词情感分类方法流程图;
图4示出本公开实施例中一种文本属性词情感分类方法流程图;
图5示出本公开实施例中一种文本属性词情感分类装置示意图;
图6示出本公开实施例中一种电子设备的框图;
图7示出本公开实施例中一种计算机可读存储介质示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出本公开实施例中一种文本属性词情感分类方法流程图,如图1所示,该方法包括如下步骤:
S102,获取文本数据,其中,文本数据包括多个句子,每个句子包含多个词,多个词中包含属性词。
在本公开的一个实施例中,待分析的文本数据可为研究人员直接输入的或者是模型从其他途径直接获取的文本片段,例如文章、短句、评论等,文本数据中可包含多个句子,每个句子可包含多个词,多个词中包含属性词,属性词可以是一种包含特征的实体。
S104,确定目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,其中,目标句子为文本数据中的任意一个句子,属性词的属性句法距离为句子中与属性词关联的上下文词构成的词对与属性词在句法结构上的距离。
在本公开的一个实施例中,目标句子可以指从文本数据中确定的任意一个句子;属性词的属性句法距离向量,是根据句子中与属性词关联的上下文词构成的词对与属性词在句法结构上的距离,可通过依存句法分析对目标句子进行结构分析得到。依存句法分析通过分析句子中词语之间的依存关系来确定句子的句法结构。
S106,将目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。
在本公开的一个实施例中,属性词的情感分类结果可以指属性词对应的多种可能的情感分类结果及其对应的概率大小。
由上述可知,本公开实施例中方法根据获取到的文本数据确定其中目标句子每个词的上下文向量、属性词向量以及属性词的属性句法距离向量,将得到的向量数据输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。本公开能够增强属性词情感分类模型对文本数据中属性词及其相关信息的感知能力,克服模型在建模属性词相关信息上能力较弱的问题,提升模型对属性词相关信息的编码能力,从而更准确地判别文本数据中属性词的情感类别。
在本公开的一个实施例中,上述S104包括:确定目标句子中的属性词;确定目标句子中属性词对应的第一单词和第二单词,其中,第一单词为句子中出现在属性词的上文信息中的单词,第二单词为句子中出现在属性词的下文信息中的单词;计算第一单词与属性词的第一属性句法距离;计算第二单词与属性词的第二属性句法距离;根据第一属性句法距离、第二属性句法距离,确定属性词的属性句法距离。
需要说明的是,第一单词与第二单词并非指一般的英语单词,而是指语法学上有一个或多个词素构成的词,其中,词素是最小的语法单位。例如。马是由一个词素构成的单词,水杯是由两个词素构成的单词。
在本公开的一个实施例中,上述S104可通过如下公式得到目标句子中属性词的属性句法距离向量:
其中,表示表示句子中第i个词、第j个词构成的词对与属性词之间的属性句法距离,li表示第i个词与属性词连接得到的最小跳数,lj表示第j个词与属性词连接得到的最小跳数,k表示预先设定的跳数阈值,[pad]表示当第i个词和第j个词与属性词在句法结构中无关联关系时的属性距离向量,con(i,j)=1表示第i个词和第j个词与属性词在句法结构中有关联关系,con(i,j)=0表示第i个词和第j个词与属性词在句法结构中无关联关系。
需要说明的是,预先设定的跳数阈值可设为5,可根据训练经验以及实际情况进行调整,本公开实施例对预先设定的跳数阈值不做具体限定。
在本公开的一个实施例中,可通过依存句法分析方法,得到句子中每个词与属性词之间的连接关系,从而确定每个词与属性词之间的属性句法距离;还可得到每个词对中的两个词是否能通过属性词连接起来,从而确定每个词对于属性词之间的属性句法距离。需要说明的是,可通过开箱即用的句法解析工具进行依存句法分析以得到依存句法结构图,例如斯坦福自然语言处理Python工具包Stanza,本公开实施例对此不做具体限定。
在本公开的一个实施例中,属性词情感分类模型包括:嵌入层、属性词及句法适配层、动态语义调整层和属性词情感预测层,其中,嵌入层用于根据目标句子中每个词的上下文信息、属性词和属性词的属性句法距离,生成目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量;属性词及句法适配层用于根据目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量,生成目标句子中每个词对应的属性句法感知向量;动态语义调整层用于根据目标句子中每个词对应的属性句法感知向量,生成属性相关句对应的句子向量;属性词情感预测层用于根据属性相关句对应的句子向量,生成目标句子中属性词的情感分类结果。
在本公开的一个实施例中,给定的句子上下文信息可以为S={w1,w2,...,wn},其中,S表示当前句子的上下文,wn表示句子中的第n个词,属性词A={a1,a2,...,am},其中,A表示属性词的集合,am表示第m个属性词,属性词的属性句法距离信息其中,D表示属性句法距离的集合,/>表示句子中的第n个词、第n个词与属性词之间的属性句法距离,其中n的取值可以相同,也可以不同。
在本公开的一个实施例中,通过属性词情感分类模型BERT中的嵌入矩阵对句子中的每个词和属性词进行映射,可包括通过正态分布或随机初始化进行映射,生成句子中每个词的上下文向量其中,Hc表示每个词的上下文向量的集合,/>表示第n个词对应的上下文向量,以及属性词的词向量/>其中,Ha表示属性词的词向量的集合,/>表示第m个属性词的词向量,将属性词的词向量经过平均池化,得到属性词的整体向量ha。
在本公开的一个实施例中,可以通过可学习的句法距离嵌入矩阵对属性词的属性句法距离进行映射,得到属性词的属性句法距离向量 其中,Hr表示属性句法距离向量的集合,/>表示句子中的第n个词、第n个词构成的词对与属性词之间的属性句法距离向量,其中n的取值可以相同,也可以不同。
需要说明的是,还可使用长短期记忆网络(Long Short-Term Memory,LSTM)结合注意力机制的方式获得属性词的整体向量,本公开实施例对此不做具体限定。采用平均池化的方式较为简单快捷,不会引入额外复杂的计算和操作,采用其他方式可能使模型结构及计算过程变得复杂。
在本公开的一个实施例中,上述S106包括:根据目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,生成目标句子中每个词对应的属性句法感知向量;根据目标句子中每个词对应的属性句法感知向量,生成属性相关句对应的句子向量;根据属性相关句对应的句子向量,生成目标句子中属性词的情感分类结果。
在本公开的一个实施例中,可通过如下公式得到每个词对应的属性句法感知向量:
pij=Softmax(eij) (6)
其中,是自注意力机制的输出,/>表示第i个词对应的上下文向量,/>表示第j个词对应的上下文向量,d表示词对应的上下文向量的维度,/>是属性词适配器注意力机制的输出,/>表示第i个属性词的词向量,/>是句法结构适配器注意力机制的输出,/>表示第i个词、第j个词构成的词对与属性词的属性句法距离,eij表示未归一化的注意力权重,pij表示归一化的注意力权重,zi是属性词及句法适配器层最终输出的第i个词的属性句法感知向量,WQ、WK和WV是属性词及句法适配器层的学习参数。
在本公开的一个实施例中,对句子中每个词的属性句法感知向量与每个词的上下文向量经过相加和层正则化计算后,得到经过正则化输出的每个词的属性句法感知向量
在本公开的一个实施例中,可通过如下公式得到经过正则化输出的每个词的属性句法感知向量:
其中,表示经过正则化输出的第i个词的属性句法感知向量,/>表示第i个词对应的上下文向量,zi表示第i个词的属性句法感知向量,LN(·)表示层正则化,/>表示逐元素相加。
在本公开的一个实施例中,可通过前馈神经网络(Feedforward Neural Network,FNN)接收作为输入,得到经过FNN输出的每个词的属性句法感知向量/>
在本公开的一个实施例中,可通过语义调整网络得到目标句子经过属性感知注意力计算输出的句子向量ht。可通过如下公式得到目标句子经过属性感知注意力计算输出的句子向量:
其中,表示第i个词对应注意力权重,ha表示属性词的整体向量,/>表示经过正则化输出的第i个词的属性句法感知向量,/>表示经过正则化输出的第j个词的属性句法感知向量,ht-1表示第t-1步对应的经过属性感知注意力计算的输出的句子向量,ht表示LSTM中第t步对应的经过属性感知注意力计算的输出的句子向量,t∈[1,T]语义调整网络的步数,T是超参数,/>
在本公开的一个实施例中,在语义调整网络最后一步上的输出向量与FNN的输出向量相加,作为当前词在动态语义调整层的输出,最终得到目标句子对应的融合了动态语义和句法信息的输出词向量矩阵 其中,HB表示融合了动态语义和句法信息的输出词向量矩阵,/>表示第n个词对应的融合了动态语义和句法信息的输出词向量。
在本公开的一个实施例中,可通过如下公式计算每个词对应的融合了动态语义和句法信息的输出词向量:
其中,表示第i个词对应的融合了动态语义和句法信息的输出词向量,ht表示LSTM中第t步对应的经过属性感知注意力计算的输出的句子向量,/>表示经过FNN输出的第i个词的属性句法感知向量,LN(·)表示层正则化,/>表示逐元素相加。
在本公开的一个实施例中,可对目标句子对应的融合了动态语义和句法信息的输出词向量矩阵进行最大池化操作,得到属性相关句对应的句子向量,可通过如下公式进行最大池化计算:
hb=maxpooling(HB) (13)
其中,hb表示属性相关句对应的句子向量,HB表示融合了动态语义和句法信息的输出词向量矩阵。
需要说明的是,此处也可采用平均池化计算属性相关句对应的句子向量,本公开对此不做具体限定。
在本公开的一个实施例中,对于属性词及句法适配器层以及动态语义调整层可组合起来作为一个整体结构进行多层计算,可重复整个结构K次,将每一次动态语义调整层输出的结果作为下一次属性词及句法适配器层的输入,形成一个K层网络。多层计算的优势在于能够提取更抽象的语义信息,但是较多的层数也容易使模型拟合。需要说明的是,本公开实施例中K的取值是一个超参数,可根据实际效果进行调整,本公开实施例对K的取值不做具体限定。
在本公开的一个实施例中,上述S106可通过如下公式得到目标句子中属性词的情感分类结果:
p=Softmax(Wphm+bp) (14)
hm=Relu(Wmhb+bm) (15)
其中,表示输出属性词对应的情感类别对应的概率,/>表示情感极性分布图,包括情感类别数量及其对应的概率,K表示情感类别的数量,hm表示计算的中间量,hb表示属性相关句对应的句子向量,Softmax函数和Relu函数表示激活函数,Wm、Wp、bm和bp表示情感预测层的学习参数。
在本公开的一个实施例中,上述S106包括:基于注意力机制,将目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。
例如,情感类别分为积极、消极以及中性时,此时K为3,假设此时得到的情感极性分布p为[0.7,0.2,0.1],则代表积极的情感概率为0.7,代表消极的情感概率为0.2,代表中性的情感概率为0.1。
图2示出本公开实施例中一种属性词情感分类模型示意图,如图2所示,该模型20包括:嵌入层201、属性词及句法适配层202、动态语义调整层203和属性词情感预测层204。
其中,嵌入层201,用于根据目标句子中每个词的上下文信息、属性词和属性词的属性句法距离,生成目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量;属性词及句法适配层202,用于根据目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量,生成目标句子中每个词对应的属性句法感知向量;动态语义调整层203,用于根据目标句子中每个词对应的属性句法感知向量,生成属性相关句对应的句子向量;属性词情感预测层204,用于根据属性相关句对应的句子向量,生成目标句子中属性词的情感分类结果。
由上述可知,本公开实施例中模型可用于根据获取到的文本数据确定其中目标句子每个词的上下文向量、属性词向量以及属性词的属性句法距离向量,将得到的向量数据输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。本公开能够增强属性词情感分类模型对文本数据中属性词及其相关信息的感知能力,克服模型在建模属性词相关信息上能力较弱的问题,提升模型对属性词相关信息的编码能力,从而更准确地判别文本数据中属性词的情感类别。
图3示出本公开实施例中一种文本属性词情感分类方法流程图,如图3所示,该方法包括如下步骤:
S302,将句子的上下文信息、属性词和属性词的属性句法距离输入至嵌入层中,获得句子中每个词的上下文向量、属性词向量以及属性词的属性句法距离向量。
在本公开的一个实施例中,嵌入层可由BERT中的嵌入矩阵和可学习的句法距离嵌入矩阵构成。
S304,将句子中每个词的上下文向量、属性词向量以及属性词的属性句法距离向量输入至属性词及句法适配器层,利用自注意力机制建模句子的整体语义信息,利用属性词适配器注意力机制建模属性词相关的上下文信息,利用句法结构适配器注意力机制建模属性词相关的句法结构信息,得到句子中每个词对应的属性句法感知向量。
在本公开的一个实施例中,属性词及句法适配器层可由自注意力机制、属性词适配器注意力机制、句法结构适配器注意力机制组成。
在本公开的一个实施例中,属性词适配器注意力机制能够有效地使属性词情感分类模型捕捉和建模句子中属性词相关的上下文信息,克服了属性词情感分类模型在建模属性词的具体上下文信息上能力较弱的问题,使属性词情感分类模型具备属性词信息感知的能力,提升模型对属性词上下文信息的编码能力。
在本公开的一个实施例中,句法结构适配器注意力机制能够有效地建模属性词依赖的句法结构信息,克服了属性词情感分类模型建模句法信息较弱的问题,能够使属性词情感分类模型学习属性相关的句法知识,提升模型对属性词相关的句法结构信息的编码能力。
在本公开的一个实施例中,融合多种适配器注意力机制能够进一步增加属性词情感分类模型对属性相关的上下文信息及属性相关的句法信息的理解和表示能力。
S306,将句子中每个词对应的属性句法感知向量输入至动态语义调整层,动态学习属性相关的句子整体语义,输出属性相关句对应的句子向量。
在本公开的一个实施例中,动态语义调整层可由FNN和语义调整网络组成,其中语义调整网络可由LSTM和属性感知注意力机制组成。
在本公开的一个实施例中,动态语义调整层能够有效地根据多种属性相关信息来动态地编码句子表征,克服了属性词情感分类模型在建模关于属性词的句子动态语义上能力较弱的问题,能够在学习过程中不断更新属性相关的句子语义信息,进一步增强了属性词情感分类模型对属性相关语义信息的编码和建模能力。
S308,经过堆叠的多层计算之后,将最后一层输出的属性相关句对应的句子向量输入至情感预测层,输出属性词的情感分类结果。
在本公开的一个实施例中,情感预测层可由多层感知机和激活函数Softmax函数组成。
图4示出本公开实施例中一种文本属性词情感分类方法流程图,如图4所示,该方法包括如下步骤:
S401,输入句子的上下文信息。
S402,输入句子中的属性词。
S403,输入属性词的属性句法距离。
在本公开的一个实施例中,可通过上述公式(1)得到属性词的属性句法距离。
S404,根据句子的上下文信息以及属性词,通过BERT嵌入方法进行映射,输出句子中每个词的上下文向量以及属性词向量。
S405,根据属性词的属性句法距离,通过句法距离嵌入方法进行映射,输出属性词的属性句法距离向量。
S406,将句子中每个词的上下文向量、属性词向量以及属性词的属性句法距离向量,输入至自注意力机制,建模句子的整体语义信息。
在本公开的一个实施例中,可通过上述公式(2)得到句子的整体语义信息。
S407,将句子中每个词的上下文向量、属性词的词向量以及属性词的属性句法距离向量,输入至属性词适配器注意力机制,建模属性词相关的上下文信息。
在本公开的一个实施例中,可通过上述公式(3)得到属性词相关的上下文信息。
S408,将句子中每个词的上下文向量、属性词的词向量以及属性词的属性句法距离向量,输入至句法结构适配器注意力机制,建模属性词相关的句法结构信息。
在本公开的一个实施例中,可通过上述公式(4)得到属性词相关的句法结构信息。
S409,根据注意力机制输出的每个词的属性句法感知向量,结合句子中每个词的上下文向量,经过相加和层正则化,输出每个词对应的属性句法感知向量。
在本公开的一个实施例中,可通过上述公式(5)~(7)得到每个词的属性句法感知向量。
在本公开的一个实施例中,可通过上述公式(8)得到经过正则化输出的每个词的属性句法感知向量。
S410,将每个词对应的属性句法感知向量输入至前馈神经网络,生成前馈神经网络输出的每个词对应的属性句法感知向量。
S411,将前馈神经网络输出的每个词对应的属性句法感知向量输入至属性感知注意力机制,生成属性感知注意力计算输出的每个词对应的属性句法感知向量。
在本公开的一个实施例中,可通过上述公式(9)~(10)得到属性感知注意力计算输出的每个词对应的属性句法感知向量。
S412,将属性感知注意力计算输出的每个词对应的属性句法感知向量输入至LSTM中,生成LSTM输出的每个词对应的属性句法感知向量。
在本公开的一个实施例中,可通过上述公式(11)得到LSTM输出的每个词对应的属性句法感知向量。
S413,根据LSTM输出的每个词对应的属性句法感知向量结合前馈神经网络输出的每个词对应的属性句法感知向量,进行相加以及层正则化,生成融合了动态语义和句法信息的输出词向量矩阵。
在本公开的一个实施例中,可通过上述公式(12)得到句子对应的融合了动态语义和句法信息的输出词向量矩阵。
S414,将融合了动态语义和句法信息的输出词向量矩阵进行最大池化操作,得到属性相关句对应的句子向量。
在本公开的一个实施例中,可通过上述公式(13)得到属性相关句对应的句子向量。
S415,将属性相关句对应的句子向量输入至多层感知机(MultilayerPerceptron,MLP),生成经过激活函数Relu函数计算后输出的属性相关句对应的句子向量。
S416,将Relu函数计算后输出的属性相关句对应的句子向量输入至Softmax函数进行计算,生成经过激活函数Softmax函数计算后输出的属性词情感极性分布。
S417,根据Softmax函数计算后输出的属性词情感极性分布,得到属性词的情感分类结果。
在本公开的一个实施例中,可通过上述公式(14)~(15)得到属性词的情感分类结果。
需要说明的是,上述S401~S403可同时执行,也可根据任意先后顺序执行,本公开实施例对上述步骤的执行顺序不做具体限定。
需要说明的是,上述S406~S408可同时执行,也可根据任意先后顺序执行,本公开实施例对上述步骤的执行顺序不做具体限定。
基于同一发明构思,本公开实施例中还提供了一种文本属性词情感分类装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图5示出本公开实施例中一种文本属性词情感分类装置示意图,如图5所示,该装置50包括:文本数据获取模块501、数据向量确定模块502和情感分类结果输出模块503。
其中,文本数据获取模块501,用于获取文本数据,其中,文本数据包括多个句子,每个句子包含多个词,多个词中包含属性词;数据向量确定模块502,用于确定目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,其中,目标句子为文本数据中的任意一个句子,属性词的属性句法距离为句子中与属性词关联的上下文词构成的词对与属性词在句法结构上的距离;情感分类结果输出模块503,用于将目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。
由上述可知,本公开实施例中装置用于根据获取到的文本数据确定其中目标句子每个词的上下文向量、属性词向量以及属性词的属性句法距离向量,将得到的向量数据输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。本公开能够增强属性词情感分类模型对文本数据中属性词及其相关信息的感知能力,克服模型在建模属性词相关信息上能力较弱的问题,提升模型对属性词相关信息的编码能力,从而更准确地判别文本数据中属性词的情感类别。
在本公开的一个实施例中,上述数据向量确定模块502还可用于确定目标句子中的属性词;确定目标句子中属性词对应的第一单词和第二单词,其中,第一单词为句子中出现在属性词的上文信息中的单词,第二单词为句子中出现在属性词的下文信息中的单词;计算第一单词与属性词的第一属性句法距离;计算第二单词与属性词的第二属性句法距离;根据第一属性句法距离、第二属性句法距离,确定属性词的属性句法距离。
在本公开的一个实施例中,上述数据向量确定模块502还可通过上述公式(1)得到目标句子中属性词的属性句法距离。
在本公开的一个实施例中,属性词情感分类模型包括:嵌入层、属性词及句法适配层、动态语义调整层和属性词情感预测层,其中,嵌入层用于根据目标句子中每个词的上下文信息、属性词和属性词的属性句法距离,生成目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量;属性词及句法适配层用于根据目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量,生成目标句子中每个词对应的属性句法感知向量;动态语义调整层用于根据目标句子中每个词对应的属性句法感知向量,生成属性相关句对应的句子向量;属性词情感预测层用于根据属性相关句对应的句子向量,生成目标句子中属性词的情感分类结果。
在本公开的一个实施例中,上述情感分类结果输出模块503还用于根据目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,生成目标句子中每个词对应的属性句法感知向量;根据目标句子中每个词对应的属性句法感知向量,生成属性相关句对应的句子向量;根据属性相关句对应的句子向量,生成目标句子中属性词的情感分类结果。
在本公开的一个实施例中,上述情感分类结果输出模块503还用于通过上述公式(14)~(15)得到目标句子中属性词的情感分类结果。
在本公开的一个实施例中,上述情感分类结果输出模块503还用于基于注意力机制,将目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
图6示出本公开实施例中一种电子设备的框图。下面参照图6来描述根据本公开的这种实施方式的电子设备600。图6显示的电子设备600仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:上述至少一个处理单元610、上述至少一个存储单元620、连接不同系统组件(包括存储单元620和处理单元610)的总线630。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元610可以执行上述方法实施例的如下步骤:获取文本数据,其中,文本数据包括多个句子,每个句子包含多个词,多个词中包含属性词;确定目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,其中,目标句子为文本数据中的任意一个句子,属性词的属性句法距离为句子中与属性词关联的上下文词构成的词对与属性词在句法结构上的距离;将目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出目标句子中属性词的情感分类结果。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备640(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器660通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机程序产品,该计算机程序产品包括:计算机程序,所述计算机程序被处理器执行时实现上述文本属性词情感类别方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。图7示出本公开实施例中一种计算机可读存储介质示意图,如图7所示,该计算机可读存储介质上存储有能够实现本公开上述方法的程序产品700。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种文本属性词情感分类方法,其特征在于,包括:
获取文本数据,其中,所述文本数据包括多个句子,每个句子包含多个词,所述多个词中包含属性词;
确定目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,其中,所述目标句子为所述文本数据中的任意一个句子,所述属性词的属性句法距离为所述句子中与所述属性词关联的上下文词构成的词对与所述属性词在句法结构上的距离;
将所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出所述目标句子中属性词的情感分类结果。
2.根据权利要求1所述的文本属性词情感分类方法,其特征在于,所述确定目标句子中属性词的属性句法距离,包括:
确定目标句子中的属性词;
确定所述目标句子中所述属性词对应的第一单词和第二单词,其中,所述第一单词为所述句子中出现在所述属性词的上文信息中的单词,所述第二单词为所述句子中出现在所述属性词的下文信息中的单词;
计算第一单词与所述属性词的第一属性句法距离;
计算第二单词与所述属性词的第二属性句法距离;
根据所述第一属性句法距离、第二属性句法距离,确定属性词的属性句法距离。
3.根据权利要求2所述的文本属性词情感分类方法,其特征在于,通过如下公式得到目标句子中属性词的属性句法距离:
其中,表示表示句子中第i个词、第j个词构成的词对与属性词之间的属性句法距离,li表示第i个词与属性词连接得到的跳数,lj表示第j个词与属性词连接得到的跳数,k表示预先设定的跳数阈值,[pad]表示当第i个词和第j个词与属性词在句法结构中无关联关系时的属性距离向量,con(i,j)=1表示第i个词和第j个词与属性词在句法结构中有关联关系,con(i,j)=0表示第i个词和第j个词与属性词在句法结构中无关联关系。
4.根据权利要求1所述的文本属性词情感分类方法,其特征在于,所述属性词情感分类模型包括:嵌入层、属性词及句法适配层、动态语义调整层和属性词情感预测层,
其中,所述嵌入层用于根据目标句子中每个词的上下文信息、属性词和属性词的属性句法距离,生成目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量;所述属性词及句法适配层用于根据所述目标句子中每个词对应的上下文向量、属性词向量和属性词的属性句法距离向量,生成所述目标句子中每个词对应的属性句法感知向量;所述动态语义调整层用于根据所述目标句子中每个词对应的属性句法感知向量,生成属性相关句对应的句子向量;所述属性词情感预测层用于根据所述属性相关句对应的句子向量,生成所述目标句子中属性词的情感分类结果。
5.根据权利要求1所述的文本属性词情感分类方法,其特征在于,所述将所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出所述目标句子中属性词的情感分类结果,包括:
根据所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,生成所述目标句子中每个词对应的属性句法感知向量;
根据所述目标句子中每个词对应的属性句法感知向量,生成属性相关句对应的句子向量;
根据所述属性相关句对应的句子向量,生成所述目标句子中属性词的情感分类结果。
6.根据权利要求5所述的文本属性词情感分类方法,其特征在于,通过如下公式得到所述目标句子中属性词的情感分类结果:
p=Softmax(Wphm+bp)
hm=Relu(Wmhb+bm)
其中,表示输出属性词对应的情感类别对应的概率,/>表示情感极性分布图,包括情感类别数量及其对应的概率,K表示情感类别的数量,hm表示计算的中间量,hb表示属性相关句对应的句子向量,Softmax函数和Relu函数表示激活函数,Wm、Wp、bm和bp表示情感预测层的学习参数。
7.根据权利要求5所述的文本属性词情感分类方法,其特征在于,所述方法还包括:
基于注意力机制,将所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出所述目标句子中属性词的情感分类结果。
8.一种文本属性词情感分类装置,其特征在于,包括:
文本数据获取模块,用于获取文本数据,其中,所述文本数据包括多个句子,每个句子包含多个词,所述多个词中包含属性词;
数据向量确定模块,用于确定目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,其中,所述目标句子为所述文本数据中的任意一个句子,所述属性词的属性句法距离为所述句子中与所述属性词关联的上下文词构成的词对与所述属性词在句法结构上的距离;
情感分类结果输出模块,用于将所述目标句子中每个词的上下文向量、属性词向量、属性词的属性句法距离向量,输入至预先训练好的属性词情感分类模型中,输出所述目标句子中属性词的情感分类结果。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的文本属性词情感分类方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的文本属性词情感分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310869861.2A CN116701638A (zh) | 2023-07-14 | 2023-07-14 | 文本属性词情感分类方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310869861.2A CN116701638A (zh) | 2023-07-14 | 2023-07-14 | 文本属性词情感分类方法、装置、设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116701638A true CN116701638A (zh) | 2023-09-05 |
Family
ID=87834117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310869861.2A Pending CN116701638A (zh) | 2023-07-14 | 2023-07-14 | 文本属性词情感分类方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116701638A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117590944A (zh) * | 2023-11-28 | 2024-02-23 | 上海源庐加佳信息科技有限公司 | 实体人对象和数字虚拟人对象的绑定系统 |
-
2023
- 2023-07-14 CN CN202310869861.2A patent/CN116701638A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117590944A (zh) * | 2023-11-28 | 2024-02-23 | 上海源庐加佳信息科技有限公司 | 实体人对象和数字虚拟人对象的绑定系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111897941B (zh) | 对话生成方法、网络训练方法、装置、存储介质及设备 | |
KR102462426B1 (ko) | 발화의 의미를 분석하기 위한 전자 장치 및 그의 동작 방법 | |
CN111143535B (zh) | 用于生成对话模型的方法和装置 | |
CN108038107B (zh) | 基于卷积神经网络的语句情感分类方法、装置及其设备 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN113672708B (zh) | 语言模型训练方法、问答对生成方法、装置及设备 | |
WO2022134894A1 (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN111625634A (zh) | 词槽识别方法及装置、计算机可读存储介质、电子设备 | |
WO2021190257A1 (zh) | 图像描述生成方法、装置、系统、介质及电子设备 | |
CN116701638A (zh) | 文本属性词情感分类方法、装置、设备和介质 | |
CN115238045B (zh) | 一种生成式事件论元抽取方法、系统及存储介质 | |
CN114462418B (zh) | 事件检测方法、系统、智能终端及计算机可读存储介质 | |
CN114492661B (zh) | 文本数据分类方法和装置、计算机设备、存储介质 | |
CN111460224B (zh) | 评论数据的质量标注方法、装置、设备及存储介质 | |
CN112668347A (zh) | 文本翻译方法、装置、设备及计算机可读存储介质 | |
CN115982600A (zh) | 匹配模型训练方法、设备及介质 | |
CN115630652A (zh) | 客服会话情感分析系统、方法及计算机系统 | |
CN115827865A (zh) | 一种融合多特征图注意力机制的不良文本分类方法及系统 | |
CN115689603A (zh) | 用户反馈信息收集方法、装置及用户反馈系统 | |
CN115620726A (zh) | 语音文本生成方法、语音文本生成模型的训练方法、装置 | |
CN114490935A (zh) | 异常文本的检测方法、装置、计算机可读介质及电子设备 | |
CN116432666A (zh) | 一种文本评估方法、装置、电子设备和存储介质 | |
CN114676319B (zh) | 获取商家名称的方法、装置及可读存储介质 | |
US20240062043A1 (en) | Zero-shot domain generalization with prior knowledge | |
CN116975289A (zh) | 基于语义信息的文本属性级情感分类方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |