CN117349402A - 一种基于机器阅读理解的情绪原因对识别方法及系统 - Google Patents
一种基于机器阅读理解的情绪原因对识别方法及系统 Download PDFInfo
- Publication number
- CN117349402A CN117349402A CN202311153628.0A CN202311153628A CN117349402A CN 117349402 A CN117349402 A CN 117349402A CN 202311153628 A CN202311153628 A CN 202311153628A CN 117349402 A CN117349402 A CN 117349402A
- Authority
- CN
- China
- Prior art keywords
- emotion
- clause
- model
- text
- clauses
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 178
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000012549 training Methods 0.000 claims abstract description 45
- 230000006870 function Effects 0.000 claims description 19
- 230000002996 emotional effect Effects 0.000 claims description 13
- 238000012512 characterization method Methods 0.000 claims description 12
- 238000010276 construction Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
Abstract
本发明公开了一种基于机器阅读理解的情绪原因对识别方法及系统。该方法包括如下步骤:获取用户的自述文本;构造第一问题,并将第一问题与自述文本拼接后作为预训练模型的第一输入;其中,自述文本中的相邻子句基于预训练模型定义的分隔符隔开;获取预训练模型的第一输出结果,以识别出自述文本中包含的所有情绪子句;针对每一个情绪子句,构造第二问题并将第二问题与自述文本拼接后作为预训练模型的第二输入;获取预训练模型的第二输出结果,以识别出每一个情绪子句对应的原因子句;其中,情绪子句与对应的原因子句共同构成一个情绪原因对。
Description
技术领域
本发明涉及一种基于机器阅读理解的情绪原因对识别方法,同时也涉及相应的情绪原因对识别系统,属于自然语言处理技术领域。
背景技术
文本情绪分析是自然语言处理领域的一个重要的研究方向,在电商、医疗、文娱等场景有着重要的业务价值。例如:在电商平台中,分析客户留言中包含的情绪可以及时发现商品或服务是否存在问题;在医疗服务平台中,通过识别患者交互文字中的情绪可以判断当前患者的状态,对出现负面情绪的患者及时加以安抚;在视频网站等内容平台中,分析弹幕中包含的情绪有助于评估内容质量等等。然而,大多数的情绪分析方法往往局限在情绪类别分类上,即通过分类模型将当前用户的情绪归到“高兴”“悲伤”“愤怒”等预先定义好的情绪类别中。但是,情绪类别只是一种结果,在很多场景下我们会更加关注产生某种情绪背后的原因。因此,近年来自然语言处理领域出现了“情绪-原因对”识别技术,即给定一段包含若干子句的文本,返回文本中所有的<情绪子句,原因子句>二元组,其中情绪子句中包含了某种情绪类别信息,原因子句包含了造成当前情绪子句结果的原因。
在专利号为ZL 201910460125.5的中国发明专利中,公开了一种基于D-LSTM的文本情绪原因识别方法。该方法首先获取包含情绪描述和候选情绪原因和的文本;分别将情绪描述子句和候选情绪原因子句转化为词嵌入矩阵,然后使用双向长短期记忆网络Bi-LSTM编码子句上下文信息,将经过编码后的情绪描述子句表征与编码后的候选情绪原因子句表征分别拼接组成一个向量,在此基础上使用多层感知机网络MLP以分类的方式判定二者是否存在匹配关系。如果两者匹配则表明当前原因子句是给定的情绪描述子句的原因,即找到了一个情绪原因对。
然而,上述方法的缺点在于:需要事先给定文本中的情绪子句和候选原因子句集,然而在实际应用场景中,需要分析的文本通常并没有标注好情绪子句和原因子句,因此上述方法的实际使用价值相对较低。
发明内容
本发明所要解决的首要技术问题在于提供一种基于机器阅读理解的情绪原因对识别方法。
本发明所要解决的另一技术问题在于提供一种基于机器阅读理解的情绪原因对识别系统。
为实现上述技术目的,本发明采用以下的技术方案:
根据本发明实施例的第一方面,提供一种基于机器阅读理解的情绪原因对识别方法,包括如下步骤:
获取用户的自述文本;
构造第一问题,并将所述第一问题与所述自述文本拼接后作为预训练模型的第一输入;其中,所述自述文本中的相邻子句基于所述预训练模型定义的分隔符隔开;
获取所述预训练模型的第一输出结果,以识别出所述自述文本中包含的所有情绪子句;
针对每一个所述情绪子句,构造第二问题并将所述第二问题与所述自述文本拼接后作为预训练模型的第二输入;
获取所述预训练模型的第二输出结果,以识别出每一个所述情绪子句对应的原因子句;其中,所述情绪子句与对应的原因子句共同构成一个情绪原因对。
其中较优地,所述预训练模型包括第一模型和第二模型,所述第一模型的模型框架与所述第二模型的模型框架相同,并且所述第一模型与所述第二模型基于相同的参数进行模型训练;
其中,所述第一问题与所述自述文本拼接后输入所述第一模型,以基于所述第一模型识别出所述自述文本中包含的所有情绪子句;所述第二问题与所述自述文本拼接后输入所述第二模型,以基于所述第二模型识别出所述情绪子句对应的原因子句。
其中较优地,基于所述第二模型识别出所述情绪子句对应的情绪类别;
根据所述情绪子句、对应的原因子句和对应的情绪类别,输出所述自述文本中所有的<情绪子句,原因子句,情绪类别>三元组。
其中较优地,所述模型训练包括如下子步骤:
构建情绪子句识别任务的目标函数JE;
其中,表示第i个子句是否属于情绪子句,/>表示第i个子句预测属于情绪子句的概率;
构建原因子句识别任务的目标函数JC;
其中,表示第i个子句是否属于当前情绪子句对应的原因子句,/>表示第i个子句预测属于当前情绪子句对应的原因子句的概率;
构建情绪子句对应的情绪类别的目标函数JL;
JL=CrossEntroy(pcls,ycls)
其中,ycls表示真实的情绪类别分布,pcls是输出层的softmax函数计算得到的类别概率分布;
基于所述目标函数JE、JC、JL获取模型训练目标J;
J=α·JE+β·JC+γ·JL
其中,α,β,γ表示三个超参数。
其中较优地,基于所述第一模型识别出所述自述文本中包含的所有情绪子句,具体包括:
构造第一问题q1为:“找出情绪子句”;
将所述第一问题q1与所述自述文本拼接后输入第一模型,其中,所述自述文本中的相邻子句用第一模型中定义的分隔符隔开,并在拼接后的起始位置添加起始符,并且每个子句中均具有多个令牌位置;
将所述第一问题q1和每个子句中每个令牌位置经过所述第一模型之后的表征分别按子句范围进行最大池化操作,以获取所述第一问题q1的表征向量以及每个子句对应的表征向量/>其中,tj表示第j个子句;
将分别与每个子句的表征向量/>进行拼接操作后,对其使用分类器进行分类判断,以判断出每个子句的表征向量/>是否属于情绪子句。
其中较优地,基于所述第二模型识别出所述情绪子句对应的原因子句,具体包括:
构造第二问题q2为:“找出情绪子句XXX的原因”,其中,XXX表示某个已识别出的情绪子句的原文;
将所述第二问题q2与所述自述文本拼接后输入第二模型,其中,所述自述文本中的相邻子句用第二模型中定义的分隔符隔开,并在拼接后的起始位置添加起始符,并且每个子句中均具有多个令牌位置;
将所述第二问题q2和每个子句中每个令牌位置经过所述第二模型之后的表征分别按子句范围进行最大池化操作,以获取所述第二问题q2的表征向量以及每个子句对应的表征向量/>其中,tj表示第j个子句;
将分别与每个子句的表征向量/>进行拼接操作后对其使用分类器进行分类判断,以判断出当前子句tj是否为第二问题q2中情绪子句对应的原因。
其中较优地,在所述第二模型中,对所述拼接后的起始位置对应的表征额外使用一个分类器,用于判断当前情绪子句的具体情绪类别。
其中较优地,预先定义情绪类别的个数为K,采用一个基于softmax函数的K分类器作为情绪类别的分类器。
其中较优地,每个所述情绪子句对应一个或多个原因子句。
根据本发明实施例的第二方面,提供一种基于机器阅读理解的情绪原因对识别系统,包括处理器和存储器,所述处理器读取所述存储器中的计算机程序,用于执行以下操作:
获取用户的自述文本;
构造第一问题,并将所述第一问题与所述自述文本拼接后作为预训练模型的第一输入;其中,所述自述文本中的相邻子句基于所述预训练模型定义的分隔符隔开;
获取所述预训练模型的第一输出结果,以识别出所述自述文本中包含的所有情绪子句;
针对每一个所述情绪子句,构造第二问题并将所述第二问题与所述自述文本拼接后作为预训练模型的第二输入;
获取所述预训练模型的第二输出结果,以识别出每一个所述情绪子句对应的原因子句;其中,所述情绪子句与对应的原因子句共同构成一个情绪原因对。
与现有技术相比较,本发明具有以下的技术效果:
1.通过机器阅读理解将情绪-原因对识别任务转化为两个问答形式的子任务,实现了形式上的统一,并且该方法支持端到端训练,有效解决了现有技术存在的错误传递问题;
2.能够输出自述文本中所有的<情绪子句,原因子句,情绪类别>三元组,从而在解决了传统的情绪-原因对识别问题的基础上,同时额外返回了对应的情绪类别,使得本方法更加贴合实际的应用场景。
3.可以兼容一对多的情况,即:每个情绪子句可以对应一个或多个原因子句。
附图说明
图1为本发明实施例中,预训练模型的示意图;
图2为本发明实施例提供的一种基于机器阅读理解的情绪原因对识别方法的流程图;
图3为本发明实施例提供的一种基于机器阅读理解的情绪原因对识别系统的结构图。
具体实施方式
下面结合附图和具体实施例对本发明的技术内容进行详细具体的说明。
本发明实施例首先提供了一种基于机器阅读理解(Machine ReadingComprehension,简写为MRC)的情绪原因对识别方法。机器阅读理解的形式通常是基于一段文本给定一个问题(query),在给定的自述文本中识别出问题对应的答案的具体位置。针对情绪-原因对识别任务,机器阅读理解的技术框架将其分解为两个子任务(即:情绪子句识别子任务和原因子句识别子任务),首先给定自述文本并构造第一问题,要求预训练模型从自述文本中识别情绪子句;然后,基于第一问题识别出的情绪子句,再构造第二问题要求预训练模型从自述文本中识别出当前情绪子句对应的原因子句。由于两个子任务都被统一成问答的形式,因此可以使用同一个模型来解决这两个子任务。
如图1所示,在本发明的一个实施例中,预训练模型包括第一模型和第二模型,第一模型的模型框架与第二模型的模型框架相同,并且第一模型与第二模型基于相同的参数进行模型训练。其中,第一问题与自述文本拼接后输入第一模型,以基于第一模型识别出自述文本中包含的所有情绪子句;第二问题与自述文本拼接后输入第二模型,以基于第二模型识别出情绪子句对应的原因子句。此外,该第二模型还用于识别当前情绪子句所属的情绪类别。
上述预训练模型的模型训练过程具体如下:
(1)构建情绪子句识别任务的目标函数JE;
其中,表示第i个子句是否属于情绪子句,/>表示第i个子句预测属于情绪子句的概率;
(2)构建原因子句识别任务的目标函数JC;
其中,表示第i个子句是否属于当前情绪子句对应的原因子句,/>表示第i个子句预测属于当前情绪子句对应的原因子句的概率;
(3)构建情绪子句对应的情绪类别的目标函数JL;
JL=CrossEntroy(pcls,ycls)
其中,ycls表示真实的情绪类别分布,pcls是输出层softmax函数计算得到的类别概率分布;
(4)基于目标函数JE、JC、JL获取模型训练目标J;
J=α·JE+β·JC+γ·JL其中,α,β,γ表示三个超参数。
由此,基于上述模型训练步骤,即可完成预训练模型的训练,从而利用该预训练模型进行情绪原因对的识别。
如图2所示,本发明实施例提供的一种基于机器阅读理解的情绪原因对识别方法,具体包括步骤S1~S5:
S1:获取用户的自述文本;
具体的,当需要对用户进行情绪识别时,可让用户针对近期发生的事情发表一些看法,或基于某一现象发表自己的想法,从而形成用户待测试的自述文本。
可以理解的是,在本发明的一个实施例中,该自述文本的最终形式为一段带标点符号的文字,具体的获取方式可根据需要而定。例如:可以让用户口述一段语音,然后基于该语音转化为所需的文本信息;或者,直接让用户采用打字的方式进行文字输入,从而直接获取文本信息。
S2:创建情绪子句识别子任务;
具体的,包括步骤S21~S22:
S21:构造第一问题q1为:“找出情绪子句”;
S22:将第一问题q1与自述文本拼接后输入第一模型,其中,自述文本中的相邻子句用第一模型中定义的分隔符[SEP]隔开,并在拼接后的起始位置添加起始符[CLS],并且每个子句中均具有多个令牌(token)位置。
S3:情绪子句识别;
具体的,包括步骤S31~S32:
S31:将第一问题q1和每个子句中的每个令牌位置经过第一模型之后的表征,分别按子句范围进行最大池化操作,以获取第一问题q1的表征向量以及每个子句对应的表征向量/>其中,tj表示第j个子句;
S32:将分别与每个子句的表征向量/>进行拼接操作后,对其使用分类器进行分类判断,以判断出每个子句的表征向量/>是否属于情绪子句。
由此,基于第一模型可识别出自述文本中包含的所有情绪子句,作为第一输出结果。
S4:创建原因子句识别子任务;
具体的,包括步骤S41~S42:
S41:构造第二问题q2为:“找出情绪子句XXX的原因”,其中,XXX表示某个已识别出的情绪子句的原文;
S42:将第二问题q2与自述文本拼接后输入第二模型,其中,自述文本中的相邻子句用第二模型中定义的分隔符[SEP]隔开,并在拼接后的起始位置添加起始符[CLS],并且每个子句中均具有多个令牌位置。
S5:原因子句识别;
具体的,包括步骤S51~S52:
S51:将第二问题q2和每个子句中每个令牌位置经过第二模型之后的表征,分别按子句范围进行最大池化操作,以获取第二问题q2的表征向量以及每个子句对应的表征向量/>其中,tj表示第j个子句;
S52:将分别与每个子句的表征向量/>进行拼接操作后,对其使用分类器进行分类判断,以判断出当前子句tj是否为第二问题q2中情绪子句对应的原因。
由此,基于第二模型可识别出当前子句tj是否为第二问题q2中情绪子句对应的原因。
可以理解的是,情绪子句识别子任务与原因子句识别子任务的识别过程基本一致,区别在于步骤S32中的分类器与步骤S53中的分类器输出的分类结果不同。
S6:情绪类别识别;
具体的,包括步骤S61~S62:
S61:基于第二模型识别出情绪子句对应的情绪类别;
具体的,在第二模型中,对拼接后的起始位置[CLS]对应的表征额外使用一个分类器用于判断当前情绪子句的具体情绪类别。在本发明的一个实施例中,预先定义情绪类别个数为K,采用一个基于softmax函数的K分类器作为情绪类别的分类器。
S62:根据情绪子句、对应的原因子句和对应的情绪类别,输出自述文本中所有的<情绪子句,原因子句,情绪类别>三元组。
可以理解的是,在本发明的一个实施例中,基于预训练模型端到端的训练过程,可以兼容一对多的情况。即:每个情绪子句对应一个或多个原因子句;和/或,每个原因子句对应多个情绪子句的原因子句。
在上述基于机器阅读理解的情绪原因对识别方法的基础上,本发明进一步提供一种基于机器阅读理解的情绪原因对识别系统。如图3所示,该情绪原因对识别系统包括一个或多个处理器21和存储器22。其中,存储器22与处理器21耦接,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器21执行,使得所述一个或多个处理器21实现如上述实施例中的基于机器阅读理解的情绪原因对识别方法。
其中,处理器21用于控制该情绪原因对识别系统的整体操作,以完成上述基于机器阅读理解的情绪原因对识别方法的全部或部分步骤。该处理器21可以是中央处理器(CPU)、图形处理器(GPU)、现场可编程逻辑门阵列(FPGA)、专用集成电路(ASIC)、数字信号处理(DSP)芯片等。存储器22用于存储各种类型的数据以支持在该情绪原因对识别系统的操作,这些数据例如可以包括用于在该情绪原因对识别系统上操作的任何应用程序或方法的指令,以及应用程序相关的数据。该存储器22可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器等。
在一个示例性实施例中,该情绪原因对识别系统具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现,用于执行上述的基于机器阅读理解的情绪原因对识别方法,并达到如上述方法一致的技术效果。一种典型的实施例为计算机。具体地说,计算机例如可以为个人计算机、膝上型计算机、车载人机交互设备、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
在另一个示例性实施例中,本发明还提供一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述任意一个实施例中的基于机器阅读理解的情绪原因对识别方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器,上述程序指令可由该情绪原因对识别系统的处理器执行以完成上述的基于机器阅读理解的情绪原因对识别方法,并达到如上述方法一致的技术效果。
综上所述,本发明实施例提供的基于机器阅读理解的情绪原因对识别方法及系统,具有以下的技术效果:
1.通过机器阅读理解将情绪-原因对识别任务转化为两个问答形式的子任务,实现了形式上的统一,并且该方法支持端到端训练,有效解决了现有技术存在的错误传递问题;
2.能够输出自述文本中所有的<情绪子句,原因子句,情绪类别>三元组,从而在解决了传统的情绪-原因对识别问题的基础上,同时额外返回了对应的情绪类别,使得本方法更加贴合实际的应用场景。
3.可以兼容一对多的情况,即:每个情绪子句可以对应一个或多个原因子句。
上面对本发明提供的基于机器阅读理解的情绪原因对识别方法及系统进行了详细的说明。对本领域的一般技术人员而言,在不背离本发明实质内容的前提下对它所做的任何显而易见的改动,都将构成对本发明专利权的侵犯,将承担相应的法律责任。
Claims (10)
1.一种基于机器阅读理解的情绪原因对识别方法,其特征在于包括如下步骤:
获取用户的自述文本;
构造第一问题,并将所述第一问题与所述自述文本拼接后作为预训练模型的第一输入;其中,所述自述文本中的相邻子句基于所述预训练模型定义的分隔符隔开;
获取所述预训练模型的第一输出结果,以识别出所述自述文本中包含的所有情绪子句;
针对每一个所述情绪子句,构造第二问题并将所述第二问题与所述自述文本拼接后作为预训练模型的第二输入;
获取所述预训练模型的第二输出结果,以识别出每一个所述情绪子句对应的原因子句;其中,所述情绪子句与对应的原因子句共同构成一个情绪原因对。
2.如权利要求1所述的情绪原因对识别方法,其特征在于:
所述预训练模型包括第一模型和第二模型,所述第一模型的模型框架与所述第二模型的模型框架相同,并且所述第一模型与所述第二模型基于相同的参数进行模型训练;
其中,所述第一问题与所述自述文本拼接后输入所述第一模型,以基于所述第一模型识别出所述自述文本中包含的所有情绪子句;所述第二问题与所述自述文本拼接后输入所述第二模型,以基于所述第二模型识别出所述情绪子句对应的原因子句。
3.如权利要求2所述的情绪原因对识别方法,其特征在于还包括:
基于所述第二模型识别出所述情绪子句对应的情绪类别;
根据所述情绪子句、对应的原因子句和对应的情绪类别,输出所述自述文本中所有的<情绪子句,原因子句,情绪类别>三元组。
4.如权利要求3所述的情绪原因对识别方法,其特征在于所述模型训练包括如下子步骤:
构建情绪子句识别任务的目标函数JE;
其中,表示第i个子句是否属于情绪子句,/>表示第i个子句预测属于情绪子句的概率;
构建原因子句识别任务的目标函数JC;
其中,表示第i个子句是否属于当前情绪子句对应的原因子句,/>表示第i个子句预测属于当前情绪子句对应的原因子句的概率;
构建情绪子句对应的情绪类别的目标函数JL;
JL=CrossEntroy(pcls,ycls)
其中,ycls表示真实的情绪类别分布,pcls是输出层的softmax函数计算得到的类别概率分布;
基于所述目标函数JE、JC、JL获取模型训练目标J;
J=α·JE+β·JC+γ·JL
其中,α,β,γ表示三个超参数。
5.如权利要求2所述的情绪原因对识别方法,其特征在于基于所述第一模型识别出所述自述文本中包含的所有情绪子句,具体包括:
构造第一问题q1为:“找出情绪子句”;
将所述第一问题q1与所述自述文本拼接后输入第一模型,其中,所述自述文本中的相邻子句用第一模型中定义的分隔符隔开,并在拼接后的起始位置添加起始符,并且每个子句中均具有多个令牌位置;
将所述第一问题q1和每个子句中每个令牌位置经过所述第一模型之后的表征分别按子句范围进行最大池化操作,以获取所述第一问题q1的表征向量以及每个子句对应的表征向量/>其中,tj表示第j个子句;
将分别与每个子句的表征向量/>进行拼接操作后,对其使用分类器进行分类判断,以判断出每个子句的表征向量/>是否属于情绪子句。
6.如权利要求2所述的情绪原因对识别方法,其特征在于基于所述第二模型识别出所述情绪子句对应的原因子句,具体包括:
构造第二问题q2为:“找出情绪子句XXX的原因”,其中,XXX表示某个已识别出的情绪子句的原文;
将所述第二问题q2与所述自述文本拼接后输入第二模型,其中,所述自述文本中的相邻子句用第二模型中定义的分隔符隔开,并在拼接后的起始位置添加起始符,并且每个子句中均具有多个令牌位置;
将所述第二问题q2和每个子句中每个令牌位置经过所述第二模型之后的表征分别按子句范围进行最大池化操作,以获取所述第二问题q2的表征向量以及每个子句对应的表征向量/>其中,tj表示第j个子句;
将分别与每个子句的表征向量/>进行拼接操作后,对其使用分类器进行分类判断,以判断出当前子句tj是否为第二问题q2中情绪子句对应的原因。
7.如权利要求6所述的情绪原因对识别方法,其特征在于:
在所述第二模型中,对所述拼接后的起始位置对应的表征额外使用一个分类器,用于判断当前情绪子句的具体情绪类别。
8.如权利要求7所述的情绪原因对识别方法,其特征在于:
预先定义情绪类别的个数为K,采用一个基于softmax函数的K分类器作为情绪类别的分类器。
9.如权利要求1~8中任意一项所述的情绪原因对识别方法,其特征在于:
每个所述情绪子句对应一个或多个原因子句。
10.一种基于机器阅读理解的情绪原因对识别系统,其特征在于包括处理器和存储器,所述处理器读取所述存储器中的计算机程序,用于执行以下操作:
获取用户的自述文本;
构造第一问题,并将所述第一问题与所述自述文本拼接后作为预训练模型的第一输入;其中,所述自述文本中的相邻子句基于所述预训练模型定义的分隔符隔开;
获取所述预训练模型的第一输出结果,以识别出所述自述文本中包含的所有情绪子句;
针对每一个所述情绪子句,构造第二问题并将所述第二问题与所述自述文本拼接后作为预训练模型的第二输入;
获取所述预训练模型的第二输出结果,以识别出每一个所述情绪子句对应的原因子句;其中,所述情绪子句与对应的原因子句共同构成一个情绪原因对。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311153628.0A CN117349402A (zh) | 2023-09-07 | 2023-09-07 | 一种基于机器阅读理解的情绪原因对识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311153628.0A CN117349402A (zh) | 2023-09-07 | 2023-09-07 | 一种基于机器阅读理解的情绪原因对识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117349402A true CN117349402A (zh) | 2024-01-05 |
Family
ID=89362131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311153628.0A Pending CN117349402A (zh) | 2023-09-07 | 2023-09-07 | 一种基于机器阅读理解的情绪原因对识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117349402A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117743518A (zh) * | 2024-02-20 | 2024-03-22 | 北京智精灵科技有限公司 | 一种基于多阶段归因的情绪原因对抽取方法及系统 |
-
2023
- 2023-09-07 CN CN202311153628.0A patent/CN117349402A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117743518A (zh) * | 2024-02-20 | 2024-03-22 | 北京智精灵科技有限公司 | 一种基于多阶段归因的情绪原因对抽取方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102071582B1 (ko) | 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치 | |
CN111462735A (zh) | 语音检测方法、装置、电子设备及存储介质 | |
CN113011186B (zh) | 命名实体识别方法、装置、设备及计算机可读存储介质 | |
CN110234018B (zh) | 多媒体内容描述生成方法、训练方法、装置、设备及介质 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN112818861A (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
CN111985243B (zh) | 情感模型的训练方法、情感分析方法、装置及存储介质 | |
CN114339450B (zh) | 视频评论生成方法、系统、设备及存储介质 | |
CN111597341A (zh) | 一种文档级关系抽取方法、装置、设备及存储介质 | |
CN112101042A (zh) | 文本情绪识别方法、装置、终端设备和存储介质 | |
CN117349402A (zh) | 一种基于机器阅读理解的情绪原因对识别方法及系统 | |
CN113222022A (zh) | 一种网页分类识别方法及装置 | |
Gandhi et al. | Multimodal sentiment analysis: review, application domains and future directions | |
CN115758282A (zh) | 一种跨模态敏感信息识别方法、系统和终端 | |
Chen et al. | Multimodal detection of hateful memes by applying a vision-language pre-training model | |
CN113627550A (zh) | 一种基于多模态融合的图文情感分析方法 | |
CN117370736A (zh) | 一种细粒度情感识别方法、电子设备及存储介质 | |
CN117115505A (zh) | 一种结合知识蒸馏与对比学习的情感增强继续训练方法 | |
CN115759262A (zh) | 基于知识感知注意力网络的视觉常识推理方法及系统 | |
CN112801960B (zh) | 图像处理方法及装置、存储介质、电子设备 | |
CN113869068A (zh) | 场景服务推荐方法、装置、设备及存储介质 | |
CN113722496B (zh) | 一种三元组抽取方法、装置、可读存储介质及电子设备 | |
CN117521674B (zh) | 对抗信息的生成方法、装置、计算机设备和存储介质 | |
CN117540007B (zh) | 基于相似模态补全的多模态情感分析方法、系统和设备 | |
CN116935410A (zh) | 数据分类方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |