CN115563290B - 一种基于语境建模的智能情感识别方法 - Google Patents
一种基于语境建模的智能情感识别方法 Download PDFInfo
- Publication number
- CN115563290B CN115563290B CN202211554419.2A CN202211554419A CN115563290B CN 115563290 B CN115563290 B CN 115563290B CN 202211554419 A CN202211554419 A CN 202211554419A CN 115563290 B CN115563290 B CN 115563290B
- Authority
- CN
- China
- Prior art keywords
- information
- emotion
- embedding
- common sense
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 23
- 230000008451 emotion Effects 0.000 claims abstract description 70
- 230000004927 fusion Effects 0.000 claims abstract description 29
- 238000007499 fusion processing Methods 0.000 claims abstract description 3
- 238000012549 training Methods 0.000 claims description 30
- 239000011159 matrix material Substances 0.000 claims description 28
- 239000013598 vector Substances 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 8
- 238000007634 remodeling Methods 0.000 claims description 8
- 108091026890 Coding region Proteins 0.000 claims description 5
- 238000003780 insertion Methods 0.000 claims description 5
- 230000037431 insertion Effects 0.000 claims description 5
- 230000002747 voluntary effect Effects 0.000 claims description 3
- 230000001272 neurogenic effect Effects 0.000 claims description 2
- 210000002569 neuron Anatomy 0.000 claims 1
- 238000003058 natural language processing Methods 0.000 abstract description 4
- 230000004630 mental health Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000013067 intermediate product Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/20—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Psychiatry (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Artificial Intelligence (AREA)
- Child & Adolescent Psychology (AREA)
- Psychology (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Social Psychology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Machine Translation (AREA)
Abstract
本发明属于心理健康、对话机器人与自然语言处理领域,具体是涉及一种基于语境建模的智能情感识别方法。本发明的目的在于解决当对话文本缺少上下文信息时,现有的感情识别方法无法准确的识别用户情感的问题。主要方案包括将对话文本和用户信息输入信息融合模块进行说话者与聆听者之间关系、用户性格、上下文信息的融合处理,然后输入情感分析模块将情感识别任务转化为填充任务,通过预测[MASK]位置上的词,然后通过词映射对应的情感类型,得到用户精准情感状态。本发明用于对话文本的情感识别。
Description
技术领域
本发明属于心理健康、对话机器人与自然语言处理领域,具体是涉及一种基于语境建模的智能情感识别方法。
背景技术
随着机器人对话技术与自然语言处理技术的发展与推广,出现了多个可识别情感的智能对话系统应用等,具体如下:
专利CN 106683672 A《一种基于情感和语义的智能对话方法及系统》通过获取所述多轮对话信息确定所述用户当前的情感和语义;最后,根据所述用户当前的情感和语义做出符合所述用户当前的情感和语义的回复,这样的对话并未融入用户的个人信息,不能精确得给出用户当前情绪,进而无法给出针对性的回答。
专利CN 112905776 A《一种情感对话模型构建方法、情感对话系统及方法》通过构建情感对话模型、生成器来生成对话回复,判别器来判别所生成的回复文本是属于“通用回复”还是基于情感的回复,可以在一定程度上提高人机交互的用户体验感,但是并没有引入聊天主题等信息,仅能适用于闲聊型对话。
专利CN 111949762 A《基于上下文情感对话的方法和系统、存储介质》通过获取上下文数据集,提取其中的主题类别和情感类别,得到主题关键词概率和情感关键词概率,随之预测回复中的主题关键词和情感关键词,再生成初步的回复,接着得到所述初步的回复的权重值,根据初步的回复和权重,得到最终回复,在这里得到的主题关键词仅通过上下文而没考虑到对话者的性格信息,在情感预测上不够准确。通过专业的心理调查问卷得到用户性格,同时再引入用户性格来进行情感识别会更具针对性和准确性。
目前情感对话系统在情感识别上的准确率还有较大提升空间,其中很重要的一部分原因在于对话内容涉及范围宽泛,对话没有围绕着一个确定的主题,或者是没有考虑到用户的真实情况与顾虑进行回答,会导致同样的回答出自不同身份的人有不一样的情感。
发明内容
本发明的目的在于解决当对话文本缺少上下文信息时,现有的感情识别方法无法准确的识别用户情感的问题。
为了克服上述技术问题,本发明采用以下技术手段:
一种基于语境建模的智能情感识别方法,将对话文本和用户信息输入信息融合模块进行说话者与聆听者之间关系、用户性格、上下文信息的融合处理,然后输入情感分析模块将情感识别任务转化为填充任务,通过预测[MASK]位置上的词,然后通过词映射对应的情感类型,得到用户精准情感状态。
上述技术方案中,信息融合模块包括:
常识性知识提取模块:根据对话文本推理出说话者与聆听者之间的关系类型,然后将其关系类型和原对话文本作为输入,送进常识生成模型得到常识特征;
常识与上下文结合模块:将对话文本与常识特征先拼接再编码的方式得到融合信息,
提示生成模块:将融合信息通过多层感知器进行重塑操作分别生成说话人与聆听者的令牌标记,再将其令牌标记送入时序模型进行编码得到编码顺序特征,进而生成最终的提示嵌入;
用户性格获取模块:通过调查问卷收集用户信息,进而得到用户性格特点对性格信息进行编码得到性格信息嵌入;
信息拼接模块:将提示嵌入、性格信息嵌入、对话文本进行拼接操作到token序列;
情感分析模块:将token序列作为输入送进预训练模型,预训练模型可以根据所有输入的token序列的嵌入,预测最有可能出现在[MASK]位置的词,根据预测到的词映射对应的情感类型,进而实现对情感的预测。
上述技术方案中,用户性格获取模块:
通过调查问卷收集用户性格信息,进而得到用户性格特点,包括开放的,自觉的,外向的,合群的,神经质的性格特点,通过RoBERTa作为预训练模型对性格信息进行编码得到性格信息嵌入m:
上述技术方案中,常识性知识提取模块:包括常识知识图谱模块和常识生成模型,其中,
常识知识图谱模块:对于一个对话文本,其包含t个句子,N个对话,将对话文本中的每一句话Ut输入ATOMIC常识知识图谱模块输出三联体{s,r,o},其中s是主体subject,代表说话者,o是客体object代表聆听者,然后r是关系relation,为关系短语,由九种不同的if-then关系类型确定得到关系类型对应的反映说话者与聆听者之间关系的关系短语;
常识生成模型:
将对话文本中的一个对话中的每一句话作为语料Ut,并将语料Ut与关系短语串联起来,得到说话者与聆听者的关系句集合{Ut ,对每一个关系句通过编码器后得到常识特征,表示文本中的第t句话ut与第j种常识类型的嵌入;
上述技术方案中,常识与上下文结合模块:将对话文本与常识特征先拼接再编码的方式得到融合信息,对于一个对话文本,其包含L个句子,N个对话,每个对话包含t个句子,t<=L,对于每个常识类型j(1≤j≤9),将其与所有句子相关的常识特征连接起来:
上述技术方案中,提示生成模块:
融合信息通过多层感知器进行重塑操作分别生成说话人与聆听者的令牌标记,再将其令牌标记送入时序模型进行编码得到编码顺序特征,进而生成最终的提示嵌入;
通过多层感知器进行重塑操作得到说话人相关信息的连续嵌入矩阵E和听者相关对话信息的连续嵌入矩阵P,
对于一句话Ut取连续嵌入矩阵中的第t个向量来构成它的伪标记的隐藏提示嵌入,表示为[et l, pt l, pt r ,et r],然后使用Bi-LSTM时序模型来获得伪标记的最终提示嵌入:
上述技术方案中,信息拼接模块:将提示嵌入、性格信息嵌入(性格特征)、对话文本进行拼接操作到token序列;
其中 [CLS]符号作为整篇文本的语义表示、 [SEP]是分割符号用于区分不同的向量、[MASK]防止标签泄露。
上述技术方案中,情感分析模块:将信息融合模块获得的token序列作为输入送进预训练模型,预训练模型可以根据所有输入token的嵌入,预测最有可能出现在[MASK]位置的词,将预测的词映射到一个情感类别,实现了对一个句子Ut的情感的预测;
预测[MASK]位置的词表示为:
上述技术方案中,使用RoBERTa作为预训练模型并使用交叉熵损失来训练情感分析模块,具体如下:
因为本发明采用上述技术方案,因此具备以下有益效果:
一、本发明提供一种基与语境建模的智能情感识别方法,涉及情感对话与自然语言处理领域。本发明首先在对话前通过心理调查问卷,得到用户性格特征,然后再根据常识性知识图谱和上下文生成提示,将提示,用户性格,对话语句等嵌入拼接起来构成特征向量进行训练,最终得到准确的情感识别结果。
二、本方法提出了信息融合模块与情感分析模块,在信息融合模块中考虑到了常识、用户性格以及上下文信息等因素,在情感分析模块将情感识别任务转化为填充任务,通过预测[MASK]位置上的词来实现对情感的预测,并且在预测过程中利用了信息融合模块所得到的信息作为提示,提高了预测的准确率和鲁棒性。
三、在以往的情感识别工作中,大多仅提供上下文信息给模型,模型主要依据存储的背景信息对情感进行判断。在本发明中,后续会将性格信息嵌入和提示嵌入等拼接起来一起传进模型训练迭代,这么做的目的是:提示嵌入中包含上下文与常识特征,以常识与上下文作为记忆,模型可以简单推断出一句话中说话者的意图和对聆听者的影响,进而推断说话者的情感,但是不同的人对情感信息有不同的感知和反应方式,这种差异与他们的个性特征有关。引入性格信息后,模型以性格、常识以及上下文作为记忆,经过反复的训练与迭代之后,使得模型可以在捕捉到性格差异后对情绪作出不同的预测。
四、在实际应用场景对话可能有几十句,那这段对话有比较丰富的上下文信息,模型好判断,但是有的对话可能就一两句,这时如果仅用(很少的)上下文信息来判断模型是不好判断的。针对这个问题,本发明加入了常识性特征与用户性格特征,这样就算只有一两句再加上常识特征,模型也可以给出比较准确的判断。
附图说明
图1为发明方法框图;
图2为信息融合模块;
图3为常识性知识提取模块;
图4为常识与上下文结合模块;
图5为提示生成模块;
图6为情感分析模块。
具体实施方式
以下将对本发明的实施例给出详细的说明。尽管本发明将结合一些具体实施方式进行阐述和说明,但需要注意的是本发明并不仅仅只局限于这些实施方式。相反,对本发明进行的修改或者等同替换,均应涵盖在本发明的权利要求范围当中。
另外,为了更好的说明本发明,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员将理解,没有这些具体细节,本发明同样可以实施。
本发明整体框架如图1所示,主要包括信息融合模块和情感分析模块,通过用户信息和对话文本信息综合信息融合和情感分类算法得到用户精准情感状态。接下来按照模块进行详细介绍:
1、信息融合模块:
信息融合模块整体流程如图2所示,主要包括常识性知识提取模块、常识与上下文结合模块、用户性格获取模块及提示生成模块等,接下来按照子模块进行详细介绍:
1.1、常识性知识提取模块:
在之前的有关情感对话识别的发明专利中,主要是通过上下文信息对情感进行预测,这存在一定的局限性——因为有的对话比较简短,仅通过较短的对话无法准确地推理出参与对话者的情感,仅通过上下文信息模型可能会不知所云,在引入常识性知识后,可以根据上下文信息和常识推断说话者与聆听者之间的关系及情感。例如:"X给Y一个赞美",根据常识可以推断出:X的意图和他人的反应将分别是"X想对Y好"和"Y会感到受宠若惊"。
在此模块中,本发明通过将对话文本送入常识知识图谱模块,推理出说话者与聆听者之间的关系类型,然后将其关系类型和原对话文本作为输入,送进常识生成模型得到常识特征,用于后续模块。
具体地来讲,常识知识图谱模块:对于一个对话文本,其包含t个句子,N个对话,将对话文本中的每一句话Ut输入ATOMIC常识知识图谱模块输出三联体{s,r,o},其中s是主体subject,代表说话者,o是客体object代表聆听者,然后r是关系relation,为关系短语,由九种不同的if-then关系类型确定得到关系类型对应的反映说话者与聆听者之间关系的关系短语;
常识生成模型:
将对话文本中的一个对话中的每一句话作为语料Ut,并将语料Ut与关系短语串联起来,得到说话者与聆听者的关系句集合{Ut ,对每一个关系句通过编码器后得到常识特征,表示文本中的第t句话ut与第j种常识类型的嵌入;
1.2常识与上下文结合模块:
将对话文本与常识特征的信息结合起来,为后续生成提示帮助模型更准确地预测情感做支持,我们这里采用先拼接再编码的方式得到融合信息——拼接操作将信息先合并到一起,再通过Transformer编码器根据自注意力机制得到信息之间的关联重要程度,这样可以很好得利用上下文和常识信息。达到的效果是:比传统仅基于对话文本信息的情感识别更精准。
在此模块中,将常识性知识提取模块获得的常识特征与对话文本进行拼接操作,然后再一起输入进编码器进行编码得到融合信息,随后被用作生成最终提示嵌入的基础。
具体来讲,本发明中,将对话文本与常识特征先拼接再编码的方式得到融合信息,对于一个对话文本,其包含L个句子,N个对话,每个对话包含t个句子,t<=L,对于每个常识类型j(1≤j≤9),将其与所有句子相关的常识特征连接起来:
1.3用户性格获取模块:
本模块中用户性格通过专业的心理咨询师制定特定心理调查问卷,通过调查问卷收集用户信息,进而得到用户性格特点,包括开放的,自觉的,外向的,合群的,神经质的等性格特点,通过RoBERTa作为预训练模型对性格信息进行编码得到性格信息嵌入m:
后续再将性格信息嵌入和提示嵌入等拼接起来一起传进模型进行训练迭代。
1.4提示生成模块:
在此模块中,将常识与上下文结合模块中获得的融合信息通过多层感知器进行重塑操作分别生成说话人与聆听者的令牌标记,再将其令牌标记送入时序模型进行编码得到编码顺序特征,进而生成最终的提示嵌入。
在最后一个预测步骤中,由于目标语料的情感是由预训练模型根据其周围的嵌入来预测中间的特殊令牌而确定的,这里的令牌标记是生成嵌入的中间产物,经过重塑和编码可以得到提示嵌入。其实令牌就是token,Token在计算机身份认证中是令牌(临时)的意思,在词法分析中是标记的意思。
在本发明中,从说话人和聆听者的角度分别生成两组连续提示嵌入,分别表示为E和P。此外,与说话人和聆听者有关的推理常识与对话中的上下文信息混合在一起,并被编码到这些嵌入中,最后被用作预训练模型的情感提示,以预测语词的情感。
融合信息通过多层感知器进行重塑操作分别生成说话人与聆听者的令牌标记,再将其令牌标记送入时序模型进行编码得到编码顺序特征,进而生成最终的提示嵌入;
通过多层感知器进行重塑操作得到说话人相关信息的连续嵌入矩阵E和听者相关对话信息的连续嵌入矩阵P,
对于一句话Ut取连续嵌入矩阵中的第t个向量来构成它的伪标记的隐藏提示嵌入,表示为[et l, pt l, pt r ,et r],然后使用Bi-LSTM时序模型来获得伪标记的最终提示嵌入:
1.5信息拼接模块
在此模块中,为了引导模型更好地利用从其预训练中获得的与语料相关的知识,将原来的情感识别任务转换为一个填充任务。
具体来说,在预训练中,原始语料中的一些标记被一个特殊的标记[MASK]以一定的概率掩盖。然后,模型根据其上下文标记来预测被屏蔽的标记是什么内容。根据这一任务的原理,将对应于mt的[MASK]与ut的[w1 tw2 t...wk t]标记序列和提示的伪标记以及说话者和聆听者的性格嵌入一起送入RoBERTa模型。
将提示嵌入、性格信息嵌入(性格特征)、对话文本进行拼接操作到token序列;
其中 [CLS]符号作为整篇文本的语义表示、 [SEP]是分割符号用于区分不同的向量、[MASK]防止标签泄露,[ml] ,[mr]分别是说话人和听众的性格嵌入。
情感分析模块
将信息融合模块获得的token序列作为输入送进预训练模型,预训练模型可以根据所有输入token的嵌入,预测最有可能出现在[MASK]位置的词,将预测的词映射到一个情感类别,实现了对一个句子Ut的情感的预测;
预测[MASK]位置的词表示为:
使用RoBERTa作为预训练模型并使用交叉熵损失来训练情感分析模块,具体如下:
Claims (3)
1.一种基于语境建模的智能情感识别方法,其特征在于,将对话文本和用户信息输入信息融合模块进行说话者与聆听者之间关系、用户性格、上下文信息的融合处理,然后输入情感分析模块将情感识别任务转化为填充任务,通过预测[MASK]位置上的词,然后通过词映射对应的情感类型,得到用户精准情感状态;
信息融合模块包括:
常识性知识提取模块:根据对话文本推理出说话者与聆听者之间的关系类型,然后将其关系类型和原对话文本作为输入,送进常识生成模型得到常识特征;
常识与上下文结合模块:将对话文本与常识特征先拼接再编码的方式得到融合信息,
提示生成模块:将融合信息通过多层感知器进行重塑操作分别生成说话人与聆听者的令牌标记,再将其令牌标记送入时序模型进行编码得到编码顺序特征,进而生成最终的提示嵌入;
用户性格获取模块:通过调查问卷收集用户信息,进而得到用户性格特点对性格信息进行编码得到性格信息嵌入;
信息拼接模块:将提示嵌入、性格信息嵌入、对话文本进行拼接操作到token序列;
情感分析模块:将token序列作为输入送进预训练模型,预训练模型根据所有输入的token序列的嵌入,预测最有可能出现在[MASK]位置的词,根据预测到的词映射对应的情感类型,进而实现对情感的预测;
用户性格获取模块:
通过调查问卷收集用户性格信息,进而得到用户性格特点,包括开放的,自觉的,外向的,合群的,神经质的性格特点,通过RoBERTa作为预训练模型对性格信息进行编码得到性格信息嵌入m:
常识性知识提取模块:包括常识知识图谱模块和常识生成模型,其中,
常识知识图谱模块:对于一个对话文本,其包含t个句子,N个对话,将对话文本中的每一句话Ut输入ATOMIC常识知识图谱模块输出三联体{s,r,o},其中s是主体subject,代表说话者,o是客体object代表聆听者,然后r是关系relation,为关系短语,由九种不同的if-then关系类型确定得到关系类型对应的反映说话者与聆听者之间关系的关系短语;
常识生成模型:
将对话文本中的一个对话中的每一句话作为语料Ut,并将语料Ut与关系短语串联起来,得到说话者与聆听者的关系句集合{Ut ,对每一个关系句通过编码器后得到常识特征,表示文本中的第t句话ut与第j种常识类型的嵌入;
常识与上下文结合模块:将对话文本与常识特征先拼接再编码的方式得到融合信息,对于一个对话文本,其包含L个句子,N个对话,每个对话包含t个句子,t<=L,对于每个常识类型j(1≤j≤9),将其与所有句子相关的常识特征连接起来:
提示生成模块:
融合信息通过多层感知器进行重塑操作分别生成说话人与聆听者的令牌标记,再将其令牌标记送入时序模型进行编码得到编码顺序特征,进而生成最终的提示嵌入;
通过多层感知器进行重塑操作得到说话人相关信息的连续嵌入矩阵E和聆听者相关对话信息的连续嵌入矩阵P,
对于一句话Ut取连续嵌入矩阵中的第t个向量来构成它的伪标记的隐藏提示嵌入,表示为[e t l , p t l , p t r ,e t r ],然后使用Bi-LSTM时序模型来获得伪标记的最终提示嵌入:
将提示嵌入、性格信息嵌入、对话文本进行拼接操作到token序列;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211554419.2A CN115563290B (zh) | 2022-12-06 | 2022-12-06 | 一种基于语境建模的智能情感识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211554419.2A CN115563290B (zh) | 2022-12-06 | 2022-12-06 | 一种基于语境建模的智能情感识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115563290A CN115563290A (zh) | 2023-01-03 |
CN115563290B true CN115563290B (zh) | 2023-04-07 |
Family
ID=84769732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211554419.2A Active CN115563290B (zh) | 2022-12-06 | 2022-12-06 | 一种基于语境建模的智能情感识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115563290B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116108836B (zh) * | 2023-04-10 | 2023-07-11 | 之江实验室 | 文本情感识别方法、装置、计算机设备及可读存储介质 |
CN116259308B (zh) * | 2023-05-16 | 2023-07-21 | 四川大学 | 一种语境感知的空管语音识别方法及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609289A (zh) * | 2021-07-06 | 2021-11-05 | 河南工业大学 | 一种基于多模态对话文本的情感识别方法 |
CN114722838A (zh) * | 2022-04-11 | 2022-07-08 | 天津大学 | 基于常识感知和层次化多任务学习的对话情感识别方法 |
CN114912423A (zh) * | 2022-03-24 | 2022-08-16 | 燕山大学 | 一种基于迁移学习的方面级别情感分析方法及装置 |
CN114970561A (zh) * | 2022-05-27 | 2022-08-30 | 华东师范大学 | 一种性格加强的对话情感预测模型及其构建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220237378A1 (en) * | 2021-01-25 | 2022-07-28 | Royal Bank Of America | System and method for natural language processing with pretrained language models |
-
2022
- 2022-12-06 CN CN202211554419.2A patent/CN115563290B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609289A (zh) * | 2021-07-06 | 2021-11-05 | 河南工业大学 | 一种基于多模态对话文本的情感识别方法 |
CN114912423A (zh) * | 2022-03-24 | 2022-08-16 | 燕山大学 | 一种基于迁移学习的方面级别情感分析方法及装置 |
CN114722838A (zh) * | 2022-04-11 | 2022-07-08 | 天津大学 | 基于常识感知和层次化多任务学习的对话情感识别方法 |
CN114970561A (zh) * | 2022-05-27 | 2022-08-30 | 华东师范大学 | 一种性格加强的对话情感预测模型及其构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115563290A (zh) | 2023-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781680B (zh) | 基于孪生网络和多头注意力机制的语义相似度匹配方法 | |
CN111680541B (zh) | 一种基于多维度注意力融合网络的多模态情绪分析方法 | |
Gibson et al. | A deep learning approach to modeling empathy in addiction counseling | |
CN115563290B (zh) | 一种基于语境建模的智能情感识别方法 | |
CN113420807A (zh) | 基于多任务学习与注意力机制的多模态融合情感识别系统、方法及实验评价方法 | |
Khare et al. | Self-supervised learning with cross-modal transformers for emotion recognition | |
CN109992669B (zh) | 一种基于语言模型和强化学习的关键词问答方法 | |
CN112259100B (zh) | 语音识别方法及相关模型的训练方法和相关设备、装置 | |
CN111274362A (zh) | 一种基于transformer架构的对话生成方法 | |
CN112287675A (zh) | 一种基于文本和语音信息融合的智能客服意图理解方法 | |
CN112765333B (zh) | 基于情感与提示词结合的自动对话生成方法及系统 | |
CN113392265A (zh) | 多媒体处理方法、装置及设备 | |
CN112101044A (zh) | 一种意图识别方法、装置及电子设备 | |
CN112632244A (zh) | 一种人机通话的优化方法、装置、计算机设备及存储介质 | |
CN113918813A (zh) | 基于聊天记录形式外部知识的人岗推荐方法及装置 | |
CN116561265A (zh) | 个性化对话生成方法和模型训练方法以及设备 | |
CN114360502A (zh) | 语音识别模型的处理方法、语音识别方法及装置 | |
CN114118451A (zh) | 智能交互模型的训练方法、交互方法、装置及设备 | |
CN118193702A (zh) | 用于英语教学的智能化人机交互系统及方法 | |
CN115730203A (zh) | 一种基于全局感知跨模态特征融合网络的语音情感识别方法 | |
CN114373443A (zh) | 语音合成方法和装置、计算设备、存储介质及程序产品 | |
Ai et al. | A Two-Stage Multimodal Emotion Recognition Model Based on Graph Contrastive Learning | |
Xu et al. | CLUF: A neural model for second language acquisition modeling | |
CN112949284B (zh) | 一种基于Transformer模型的文本语义相似度预测方法 | |
CN116108856B (zh) | 基于长短回路认知与显隐情感交互的情感识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: An Intelligent Emotion Recognition Method Based on Context Modeling Granted publication date: 20230407 Pledgee: Guangdong Provincial Bank of Communications Co.,Ltd. Pledgor: Guangdong Shuye Intelligent Technology Co.,Ltd. Registration number: Y2024980029179 |