CN112579762B - 一种基于语义、情感惯性和情感共性的对话情感分析方法 - Google Patents
一种基于语义、情感惯性和情感共性的对话情感分析方法 Download PDFInfo
- Publication number
- CN112579762B CN112579762B CN202110205409.7A CN202110205409A CN112579762B CN 112579762 B CN112579762 B CN 112579762B CN 202110205409 A CN202110205409 A CN 202110205409A CN 112579762 B CN112579762 B CN 112579762B
- Authority
- CN
- China
- Prior art keywords
- emotion
- dialogue
- emotional
- dialog
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 107
- 238000004458 analytical method Methods 0.000 title claims abstract description 24
- 230000002996 emotional effect Effects 0.000 claims abstract description 67
- 230000014509 gene expression Effects 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 5
- 238000004140 cleaning Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 3
- 230000008909 emotion recognition Effects 0.000 abstract 2
- 238000004364 calculation method Methods 0.000 description 10
- 238000002372 labelling Methods 0.000 description 4
- 230000000717 retained effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010924 continuous production Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及到情感分析领域,提出了一种基于语义、情感惯性和情感共性的对话情感分析方法,步骤包括:首先获取对话交替进行的多轮对话数据,并对不同人物角色进行标明;然后对多轮对话中的每条对话信息进行时序建模,提取出其中对应的语义信息表达序列;最后基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列,并进行情感识别。在本发明中,打破了传统的以语义信息决定情感分类的做法,提出了由语义状态与情感状态分离的方法,由情感状态决定情感分类,从心理学的角度改进了现有对话情感分析方法,提升了情感识别的效果。
Description
技术领域
本发明涉及到多模态情感分析领域,具体为一种基于语义、情感惯性和情感共性的对话情感分析方法。
背景技术
情感计算是目前来说比较新的研究领域,它是让机器智能的核心因素之一,具有情感理解能力的机器能够更加有效地应用于各种人机交互场景中,如人机对话。而在过去的研究中,为了获得对话中的对话片段情感信息,往往是先获得对话片段的语义表示,然后通过语义表示来计算对话片段的情感标签。这种做法局限于文本语义的表达,但是情感状态并不是语义信息,它们之间存在着关联,但是本质上情感状态是一种相对独立的状态。所以如何有效地将对话中的语义信息与情感状态的联系进行建模,是提升最终情感计算准确率的关键点之一。
发明内容
为了解决现有技术中存在的上述技术问题,本发明提出一种基于语义、情感惯性和情感共性的对话情感分析方法,其具体技术方案如下。
一种基于语义、情感惯性和情感共性的对话情感分析方法,包含以下步骤:
步骤1,获取对话交替进行的多轮对话数据,并对其中对话人物进行特定标记;
步骤2,对多轮对话中的每条对话信息进行建模,提取出其中对应的语义信息表达序列;
步骤3,基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列;
步骤4,根据情感状态,对对话情感进行识别。
进一步的,所述步骤1具体包括:
步骤1.1,通过采集电源、电视剧视频数据或采集现有的带有情感标记的多轮对话数据集,挑选并剪辑出数据中的双人对话场景,分离出其中的对话数据,并在utterance级别进行切割,然后对切割的utterance进行人工情感标注,标注出每个utterance对应的情感标签,并且对对话人物进行标记,获取对话情感分析数据;
此对话集合包含两人对话文本,并且对话为交替进行。
进一步的,所述步骤2具体包括:
步骤2.1,对获取到的对话情感分析数据文本进行字符级清洗,然后通过预训练好
字符级BERT模型,得到结果,其中C代表输入文本的字符向
量集合,代表文本中第i个字符向量,然后把得到的字符向量集合通过padding到统一长
度,通过一个bi-lstm模型,得到最终的字符级语义表示;
步骤2.2,对获取到的对话情感分析数据文本进行分词处理,去除停用词;使用训
练好的word2vec词向量,对文本进行表示,得到结果为其中代
表词向量集合,代表第i个词向量,然后把得到的词向量集合通过padding到统一长度,
然后把所得到的词向量集合通过一个bi-lstm模型,得到词级别语义表示
步骤2.3,通过拼接字符级语义表示和词级别语义表示,得到最终文本的语义表示:
进一步的,所述步骤3具体包括:
根据得到的文本的语义表示,得到对话级别的文本语义表达集合其中代表第1个人物在对话集合中第i
段对话的语义表示,代表第2个人物在对话集合中第j段对话的语义表示;同步的,在
对话语义表达的基础上,生成对应的情感状态集合其中 是与第1个人物在对话集合中第i段对话语义表达对应的情感状态,是与第
2个人物在对话集合中第j段对话语义表达对应的情感状态。
进一步的,所述情感状态由情感惯性情感共性语义表示共同计算得到,其中情感惯
性具体为当前对话人物上一次对话时的情感状态,情感共性为另一个人物上一次对话的情
感状态,语义表示为当前对话人物当前时刻的对话文本语义;
对于情感惯性、情感共性、语义表示,使用门机制得到各自对应的权重,并加权拼接后,得到当前对话对应的情感状态,具体如下:
本发明的优点:
(1)在本发明中,在对话情感计算领域,针对情感状态的特殊性,创新性地提出了一种情感状态与语义信息分离的情感计算方法,在传统的语义决定情感的计算方法上,增加了情感惯性、情感共性,让它们共同决定对应时刻的情感状态,更加符合心理学上对情感的定义,能够使模型具有更好的解释性,提升模型的情感计算效果。
(2)在本发明中,构建特定的门辅助情感状态的计算。在情感状态计算时,情感惯性、情感共性、语义带来的贡献各不相同,门可以有效控制各部分在情感状态计算时流入的信息,计算各部分的权重比例,增强贡献较大的成分占比,减小贡献较小的成分占比,保证情感状态的有效性。
(3)在本发明中,最后情感标签计算时,考虑到情感变化是一个连续的过程,是每个情感状态累积的结果,所以采用了全新的计算方法,使用各个情感状态加权累加的结果,更加符合情感变化的规律,使结果更加可靠。
附图说明
图1为本发明的一种基于语义、情感惯性和情感共性的对话情感分析方法的流程图;
图2为本发明所提出的语义、情感惯性、情感共性交互的模型结构图。
具体实施方式
为了使本发明的目的、技术方案和技术效果更加清楚明白,以下结合说明书附图和实施例,对本发明作进一步详细说明。
如图1所示,一种基于语义、情感惯性和情感共性的对话情感分析方法,包含以下步骤:
步骤1,获取多轮对话数据,其中对话人物数量一般为两位,并且对话交替进行,并对其中对话人物进行特定标记,明确其来源,具体为:
在步骤1.1中,本实施例从国内视频网站下载了32部电影、15部电视剧,挑选并剪辑出双人对话场景,分离出其中的对话数据,并在utterance(对话片段)级别进行切割。此处对话片段的定义是在某一场景下,两个人对某一事件,连续交流产生的一段对话。
对切割的utterance进行人工情感标注,标注出每个utterance对应的情感标签,如两类标签为正面情感、负面情感;并且对对话人物进行标记。基于上述操作,获取对话情感分析数据。
此对话集合包含两人对话文本,并且对话为交替进行。把对话数据进行上述划分之后,有利于情感共性、情感惯性的提取。
步骤2,对多轮对话中的每条对话信息进行建模,提取出其中对应的语义信息表达序列,具体为:
在步骤2.1中,本实施例获取字符级别的语义信息表达序列。对输入文本进行字符
级清洗,去除一些特殊字符,然后通过预训练好字符级BERT模型,得到结果其中C代表输入文本的字符向量集合,代表文本中第i个字
符向量,其中每个字符向量维度为768;然后把得到的字向量集合通过padding到统一长度,
通过一个bi-lstm模型,bi-lstm模型的输出维度为128,得到最终的字符级语义表示:
在步骤2.2,本实施例获取词级别的语义信息表达序列。对输入文本进行分词处
理,去除停用词;使用训练好的word2vec词向量,对文本进行表示,得到结果为其中代表词向量集合,代表第i个词向量,的维度
是200;然后把得到的词向量集合通过padding到统一长度,然后把所得到的词向量集合通
过一个bi-lstm模型,bi-lstm模型的输出维度为128,得到词级别语义表示:
在步骤2.3中,通过拼接字符级语义表示和词级别语义表示,得到最终文本的语义表示:
步骤3,基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列,其中情感状态由语义、情感惯性、情感共性三部分组成,具体为:
如图2所示,在步骤3中,本实施例对输入的对话集合UTT通过步骤2所述方法进行
处理,得到对话级别的文本语义表达集合其
中代表第1个人物在对话集合中第i段对话的语义表示,以左侧浅色节点表示,并与对
应深色节点相连,代表第2个人物在对话集合中第j段对话的语义表示,以左侧浅色节
点表示,并与对应右侧浅色节点相连;同步的,如图2所示,在对话语义表达的基础上,生成
对应的情感表达集合其中是与第1个人物在对话
集合中第i段对话语义表达对应的情感表达,以深色节点表示,是与第2个人物在
对话集合中第j段对话语义表达对应的情感表达,以右侧浅色节点表示;实现情感与语
义状态分离,突出情感状态的独立性与重要性。
是由三部分组成,分别是情感惯性情感共性语义表示共同计算得到,其中情感惯
性具体为当前对话人物上一次对话时的情感状态,由深色虚线箭头表示,情感共性为另一
个人物上一次对话的情感状态,由深色实线箭头表示,语义表达为当前对话人物当前时刻
的对话文本语义,由浅色箭头表示;对于情感惯性、情感共性、语义表示,使用门机制得到各
自对应的权重,并加权拼接后,得到当前对话对应的情感状态,具体如下:
步骤4,通过不同模态表示得到多模态融合表示,使用多模态融合表示进行情感分类;
在步骤4中,本实施例步骤3中得到的对话情感状态集合
应当理解,本发明所描述的实施例仅仅属于本发明中的一部分,并不是全部实施例,所以实现本发明不应被阐述实施例所限制,而应该借助这些实施例进一步理解本发明的内容本质,能更好地服务于本领域的技术人员。
Claims (4)
1. 一种基于语义、情感惯性和情感共性的对话情感分析方法,包含以下步骤:步骤1,获取对话交替进行的多轮对话数据,并对其中对话人物进行特定标记;步骤2,对多轮对话中的每条对话信息进行建模,提取出其中对应的语义信息表达序列;步骤3,基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列;步骤4,根据情感状态,对对话情感进行识别;
其特征在于,所述步骤3具体包括:根据得到的文本的语义表示,得到对话级别的文本
语义表达集合其中代表第1个人物在对
话集合中第i段对话的语义表示,代表第2个人物在对话集合中第j段对话的语义表
示;同步的,在对话语义表达的基础上,生成对应的情感状态集合其中 是与第1个人物在对话集合中第i段对话语义
表达对应的情感状态,是与第2个人物在对话集合中第j段对话语义表达对应
的情感状态,所述情感状态由情感惯性,情感共性
,语义表示共同计算得到,其中情感惯性
具体为当前对话人物上一次对话时的情感状态,情感共性为另一个人物上一次对话的情感
状态,语义表示为当前对话人物当前时刻的对话文本语义;对于情感惯性、情感共性、语义
表示,使用门机制得到各自对应的权重,并加权拼接后,得到当前对话对应的情感状态,具
体如下:
2.如权利要求1所述的一种基于语义、情感惯性和情感共性的对话情感分析方法,其特征在于,所述步骤1具体包括:
步骤1.1,通过采集电影、电视剧视频数据或采集现有的带有情感标记的多轮对话数据集,挑选并剪辑出数据中的双人对话场景,分离出其中的对话数据,并在utterance级别进行切割,然后对切割的utterance进行人工情感标注,标注出每个utterance对应的情感标签,并且对对话人物进行标记,获取对话情感分析数据;
此对话集合包含两人对话文本,并且对话为交替进行。
3.如权利要求1所述的一种基于语义、情感惯性和情感共性的对话情感分析方法,其特征在于,所述步骤2具体包括:
步骤2.1,对获取到的对话情感分析数据文本进行字符级清洗,然后通过预训练好字符
级BERT模型,得到结果,其中C代表输入文本的字符向量
集合,代表文本中第个字符向量,然后把得到的字符向量集合通过padding到统一长
度,通过一个bi-lstm模型,得到最终的字符级语义表示;
步骤2.2,对获取到的对话情感分析数据文本进行分词处理,去除停用词;使用训练好
的word2vec词向量,对文本进行表示,得到结果为其中
W代表词向量集合,代表第i个词向量,然后把得到的词向量集合通过padding到统一长
度,然后把所得到的词向量集合通过一个bi-lstm模型,得到词级别语义表示
步骤2.3,通过拼接字符级语义表示和词级别语义表示,得到最终文本的语义表示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110205409.7A CN112579762B (zh) | 2021-02-24 | 2021-02-24 | 一种基于语义、情感惯性和情感共性的对话情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110205409.7A CN112579762B (zh) | 2021-02-24 | 2021-02-24 | 一种基于语义、情感惯性和情感共性的对话情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112579762A CN112579762A (zh) | 2021-03-30 |
CN112579762B true CN112579762B (zh) | 2021-06-08 |
Family
ID=75113928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110205409.7A Active CN112579762B (zh) | 2021-02-24 | 2021-02-24 | 一种基于语义、情感惯性和情感共性的对话情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112579762B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139042B (zh) * | 2021-04-25 | 2022-04-29 | 内蒙古工业大学 | 一种利用微调和重排序策略的情感可控回复生成方法 |
CN113297366B (zh) * | 2021-06-22 | 2023-05-30 | 中国平安人寿保险股份有限公司 | 多轮对话的情绪识别模型训练方法、装置、设备及介质 |
CN115048942A (zh) * | 2022-06-08 | 2022-09-13 | 阿里巴巴(中国)有限公司 | 服务质量评估及模型训练方法、电子设备及存储介质 |
CN115496077B (zh) * | 2022-11-18 | 2023-04-18 | 之江实验室 | 一种基于模态观察和评分的多模态情感分析方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108227932A (zh) * | 2018-01-26 | 2018-06-29 | 上海智臻智能网络科技股份有限公司 | 交互意图确定方法及装置、计算机设备及存储介质 |
CN108805087A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的时序语义融合关联判断子系统 |
CN110110169A (zh) * | 2018-01-26 | 2019-08-09 | 上海智臻智能网络科技股份有限公司 | 人机交互方法及人机交互装置 |
CN106683672B (zh) * | 2016-12-21 | 2020-04-03 | 竹间智能科技(上海)有限公司 | 一种基于情感和语义的智能对话方法及系统 |
CN111651609A (zh) * | 2020-04-24 | 2020-09-11 | 中国电力科学研究院有限公司 | 一种融合知识图谱和情感监督的多轮对话方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
-
2021
- 2021-02-24 CN CN202110205409.7A patent/CN112579762B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106683672B (zh) * | 2016-12-21 | 2020-04-03 | 竹间智能科技(上海)有限公司 | 一种基于情感和语义的智能对话方法及系统 |
CN108227932A (zh) * | 2018-01-26 | 2018-06-29 | 上海智臻智能网络科技股份有限公司 | 交互意图确定方法及装置、计算机设备及存储介质 |
CN110110169A (zh) * | 2018-01-26 | 2019-08-09 | 上海智臻智能网络科技股份有限公司 | 人机交互方法及人机交互装置 |
CN108805087A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的时序语义融合关联判断子系统 |
CN111651609A (zh) * | 2020-04-24 | 2020-09-11 | 中国电力科学研究院有限公司 | 一种融合知识图谱和情感监督的多轮对话方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112579762A (zh) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112579762B (zh) | 一种基于语义、情感惯性和情感共性的对话情感分析方法 | |
Tripathi et al. | Deep learning based emotion recognition system using speech features and transcriptions | |
CN112348075B (zh) | 一种基于情景注意力神经网络的多模态情感识别方法 | |
US11281945B1 (en) | Multimodal dimensional emotion recognition method | |
CN110188343B (zh) | 基于融合注意力网络的多模态情感识别方法 | |
CN108597541B (zh) | 一种增强愤怒与开心识别的语音情感识别方法及系统 | |
CN108874972B (zh) | 一种基于深度学习的多轮情感对话方法 | |
Sebastian et al. | Fusion Techniques for Utterance-Level Emotion Recognition Combining Speech and Transcripts. | |
Perez-Gaspar et al. | Multimodal emotion recognition with evolutionary computation for human-robot interaction | |
Aguilar et al. | Multimodal and multi-view models for emotion recognition | |
CN110675859B (zh) | 结合语音与文本的多情感识别方法、系统、介质及设备 | |
CN111966800B (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN110675860A (zh) | 基于改进注意力机制并结合语义的语音信息识别方法及系统 | |
CN110853649A (zh) | 基于智能语音技术的标签提取方法、系统、设备及介质 | |
CN105760852A (zh) | 一种融合脸部表情和语音的驾驶员情感实时识别方法 | |
Shen et al. | WISE: Word-Level Interaction-Based Multimodal Fusion for Speech Emotion Recognition. | |
CN112597841B (zh) | 一种基于门机制多模态融合的情感分析方法 | |
Wagner et al. | Gesture unit segmentation using spatial-temporal information and machine learning | |
CN112735385B (zh) | 语音端点检测方法、装置、计算机设备及存储介质 | |
CN113065344A (zh) | 一种基于迁移学习和注意力机制的跨语料库情感识别方法 | |
CN114911932A (zh) | 基于主题语义增强的异构图结构多会话者情感分析方法 | |
CN115690553A (zh) | 一种基于多模态对话内容联合建模的情感分析方法及系统 | |
CN110503943B (zh) | 一种语音交互方法以及语音交互系统 | |
CN115171176A (zh) | 对象情绪的分析方法、装置和电子设备 | |
Zhang et al. | Multi-modal emotion recognition based on deep learning in speech, video and text |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |