CN112579762B - 一种基于语义、情感惯性和情感共性的对话情感分析方法 - Google Patents

一种基于语义、情感惯性和情感共性的对话情感分析方法 Download PDF

Info

Publication number
CN112579762B
CN112579762B CN202110205409.7A CN202110205409A CN112579762B CN 112579762 B CN112579762 B CN 112579762B CN 202110205409 A CN202110205409 A CN 202110205409A CN 112579762 B CN112579762 B CN 112579762B
Authority
CN
China
Prior art keywords
emotion
dialogue
emotional
dialog
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110205409.7A
Other languages
English (en)
Other versions
CN112579762A (zh
Inventor
李太豪
廖龙飞
刘昱龙
裴冠雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202110205409.7A priority Critical patent/CN112579762B/zh
Publication of CN112579762A publication Critical patent/CN112579762A/zh
Application granted granted Critical
Publication of CN112579762B publication Critical patent/CN112579762B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及到情感分析领域,提出了一种基于语义、情感惯性和情感共性的对话情感分析方法,步骤包括:首先获取对话交替进行的多轮对话数据,并对不同人物角色进行标明;然后对多轮对话中的每条对话信息进行时序建模,提取出其中对应的语义信息表达序列;最后基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列,并进行情感识别。在本发明中,打破了传统的以语义信息决定情感分类的做法,提出了由语义状态与情感状态分离的方法,由情感状态决定情感分类,从心理学的角度改进了现有对话情感分析方法,提升了情感识别的效果。

Description

一种基于语义、情感惯性和情感共性的对话情感分析方法
技术领域
本发明涉及到多模态情感分析领域,具体为一种基于语义、情感惯性和情感共性的对话情感分析方法。
背景技术
情感计算是目前来说比较新的研究领域,它是让机器智能的核心因素之一,具有情感理解能力的机器能够更加有效地应用于各种人机交互场景中,如人机对话。而在过去的研究中,为了获得对话中的对话片段情感信息,往往是先获得对话片段的语义表示,然后通过语义表示来计算对话片段的情感标签。这种做法局限于文本语义的表达,但是情感状态并不是语义信息,它们之间存在着关联,但是本质上情感状态是一种相对独立的状态。所以如何有效地将对话中的语义信息与情感状态的联系进行建模,是提升最终情感计算准确率的关键点之一。
发明内容
为了解决现有技术中存在的上述技术问题,本发明提出一种基于语义、情感惯性和情感共性的对话情感分析方法,其具体技术方案如下。
一种基于语义、情感惯性和情感共性的对话情感分析方法,包含以下步骤:
步骤1,获取对话交替进行的多轮对话数据,并对其中对话人物进行特定标记;
步骤2,对多轮对话中的每条对话信息进行建模,提取出其中对应的语义信息表达序列;
步骤3,基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列;
步骤4,根据情感状态,对对话情感进行识别。
进一步的,所述步骤1具体包括:
步骤1.1,通过采集电源、电视剧视频数据或采集现有的带有情感标记的多轮对话数据集,挑选并剪辑出数据中的双人对话场景,分离出其中的对话数据,并在utterance级别进行切割,然后对切割的utterance进行人工情感标注,标注出每个utterance对应的情感标签,并且对对话人物进行标记,获取对话情感分析数据;
步骤1.2,根据对话人物不同,把获取的对话情感分析数据切分为3个集合,分别是 人物
Figure 214076DEST_PATH_IMAGE001
的对话集合:
Figure 447611DEST_PATH_IMAGE002
此对话集合只包含人物
Figure 950268DEST_PATH_IMAGE001
的对话文本,
Figure 193031DEST_PATH_IMAGE003
代表人物
Figure 714011DEST_PATH_IMAGE004
的第n段对话;
人物
Figure 384026DEST_PATH_IMAGE005
的对话集合:
Figure 373979DEST_PATH_IMAGE006
此对话集合只包含人物
Figure 154853DEST_PATH_IMAGE005
的对话文本,
Figure 795919DEST_PATH_IMAGE003
代表人物
Figure 308940DEST_PATH_IMAGE005
的第n段对话;
人物
Figure 645243DEST_PATH_IMAGE001
和人物
Figure 151180DEST_PATH_IMAGE005
的整体对话集合:
Figure 131905DEST_PATH_IMAGE007
此对话集合包含两人对话文本,并且对话为交替进行。
进一步的,所述步骤2具体包括:
步骤2.1,对获取到的对话情感分析数据文本进行字符级清洗,然后通过预训练好 字符级BERT模型,得到结果
Figure 143724DEST_PATH_IMAGE009
,其中C代表输入文本的字符向 量集合,
Figure 106606DEST_PATH_IMAGE010
代表文本中第i个字符向量,然后把得到的字符向量集合通过padding到统一长 度,通过一个bi-lstm模型,得到最终的字符级语义表示
Figure 494862DEST_PATH_IMAGE011
步骤2.2,对获取到的对话情感分析数据文本进行分词处理,去除停用词;使用训 练好的word2vec词向量,对文本进行表示,得到结果为
Figure 595673DEST_PATH_IMAGE012
其中代 表词向量集合,
Figure 778392DEST_PATH_IMAGE013
代表第i个词向量,然后把得到的词向量集合通过padding到统一长度, 然后把所得到的词向量集合通过一个bi-lstm模型,得到词级别语义表示
Figure 479501DEST_PATH_IMAGE014
步骤2.3,通过拼接字符级语义表示和词级别语义表示,得到最终文本的语义表示:
Figure 405869DEST_PATH_IMAGE015
进一步的,所述步骤3具体包括:
根据得到的文本的语义表示,得到对话级别的文本语义表达集合
Figure 361186DEST_PATH_IMAGE016
其中
Figure 901758DEST_PATH_IMAGE017
代表第1个人物在对话集合中第i 段对话的语义表示,
Figure 699950DEST_PATH_IMAGE018
代表第2个人物在对话集合中第j段对话的语义表示;同步的,在 对话语义表达的基础上,生成对应的情感状态集合
Figure 305375DEST_PATH_IMAGE019
其中
Figure 239833DEST_PATH_IMAGE020
是与第1个人物在对话集合中第i段对话语义表达
Figure 154568DEST_PATH_IMAGE021
对应的情感状态,
Figure 440056DEST_PATH_IMAGE022
是与第 2个人物在对话集合中第j段对话语义表达
Figure 583592DEST_PATH_IMAGE023
对应的情感状态。
进一步的,所述情感状态
Figure 638136DEST_PATH_IMAGE024
由情感惯性
Figure 802401DEST_PATH_IMAGE025
情感共性
Figure 233907DEST_PATH_IMAGE026
语义表示
Figure 509030DEST_PATH_IMAGE027
共同计算得到,其中情感惯 性具体为当前对话人物上一次对话时的情感状态,情感共性为另一个人物上一次对话的情 感状态,语义表示为当前对话人物当前时刻的对话文本语义;
对于情感惯性、情感共性、语义表示,使用门机制得到各自对应的权重,并加权拼接后,得到当前对话对应的情感状态,具体如下:
Figure 559026DEST_PATH_IMAGE028
Figure 425351DEST_PATH_IMAGE029
其中,
Figure 810065DEST_PATH_IMAGE030
代表情感惯性门计算可训练参数,
Figure 420038DEST_PATH_IMAGE031
代表情感共性门计算可 训练参数,
Figure 324540DEST_PATH_IMAGE032
代表情感状态计算可训练参数,
Figure 361766DEST_PATH_IMAGE033
为情感惯性门,代表情感惯性
Figure 233776DEST_PATH_IMAGE034
需要保留的信息比例,
Figure 913019DEST_PATH_IMAGE035
为情感共情门,代表情感共性
Figure 672027DEST_PATH_IMAGE036
需要保留的 信息比例。
进一步的,所述步骤4具体包括:根据得到的对话情感状态集合
Figure 145734DEST_PATH_IMAGE037
,通过不同模态表示,得到多模态融合表示,并使用多 模态融合表示对当前对话片段进行情感分类,表达式为:
Figure 239461DEST_PATH_IMAGE038
其中,
Figure 191236DEST_PATH_IMAGE039
是情感累积系数,
Figure 70331DEST_PATH_IMAGE040
本发明的优点:
(1)在本发明中,在对话情感计算领域,针对情感状态的特殊性,创新性地提出了一种情感状态与语义信息分离的情感计算方法,在传统的语义决定情感的计算方法上,增加了情感惯性、情感共性,让它们共同决定对应时刻的情感状态,更加符合心理学上对情感的定义,能够使模型具有更好的解释性,提升模型的情感计算效果。
(2)在本发明中,构建特定的门辅助情感状态的计算。在情感状态计算时,情感惯性、情感共性、语义带来的贡献各不相同,门可以有效控制各部分在情感状态计算时流入的信息,计算各部分的权重比例,增强贡献较大的成分占比,减小贡献较小的成分占比,保证情感状态的有效性。
(3)在本发明中,最后情感标签计算时,考虑到情感变化是一个连续的过程,是每个情感状态累积的结果,所以采用了全新的计算方法,使用各个情感状态加权累加的结果,更加符合情感变化的规律,使结果更加可靠。
附图说明
图1为本发明的一种基于语义、情感惯性和情感共性的对话情感分析方法的流程图;
图2为本发明所提出的语义、情感惯性、情感共性交互的模型结构图。
具体实施方式
为了使本发明的目的、技术方案和技术效果更加清楚明白,以下结合说明书附图和实施例,对本发明作进一步详细说明。
如图1所示,一种基于语义、情感惯性和情感共性的对话情感分析方法,包含以下步骤:
步骤1,获取多轮对话数据,其中对话人物数量一般为两位,并且对话交替进行,并对其中对话人物进行特定标记,明确其来源,具体为:
在步骤1.1中,本实施例从国内视频网站下载了32部电影、15部电视剧,挑选并剪辑出双人对话场景,分离出其中的对话数据,并在utterance(对话片段)级别进行切割。此处对话片段的定义是在某一场景下,两个人对某一事件,连续交流产生的一段对话。
对切割的utterance进行人工情感标注,标注出每个utterance对应的情感标签,如两类标签为正面情感、负面情感;并且对对话人物进行标记。基于上述操作,获取对话情感分析数据。
在步骤1.2中,本实施例根据对话人物不同,把获取的对话情感分析数据切分为3 个集合,便于后面分析建模,切分的3个集合分别是人物
Figure 449359DEST_PATH_IMAGE001
的对话集合:
Figure 33312DEST_PATH_IMAGE041
此对话集合只包含人物
Figure 788778DEST_PATH_IMAGE042
的对话文本,
Figure 522379DEST_PATH_IMAGE043
代表人物
Figure 337888DEST_PATH_IMAGE044
的第
Figure 406207DEST_PATH_IMAGE045
段对话;
人物
Figure 699785DEST_PATH_IMAGE046
的对话集合:
Figure 287893DEST_PATH_IMAGE047
此对话集合只包含人物
Figure 274303DEST_PATH_IMAGE048
的对话文本,
Figure 908547DEST_PATH_IMAGE049
代表人物
Figure 130450DEST_PATH_IMAGE050
的第
Figure 697697DEST_PATH_IMAGE051
段对话;
人物
Figure 527113DEST_PATH_IMAGE052
和人物
Figure 570024DEST_PATH_IMAGE053
的整体对话集合:
Figure 205405DEST_PATH_IMAGE054
此对话集合包含两人对话文本,并且对话为交替进行。把对话数据进行上述划分之后,有利于情感共性、情感惯性的提取。
步骤2,对多轮对话中的每条对话信息进行建模,提取出其中对应的语义信息表达序列,具体为:
在步骤2.1中,本实施例获取字符级别的语义信息表达序列。对输入文本进行字符 级清洗,去除一些特殊字符,然后通过预训练好字符级BERT模型,得到结果
Figure 502525DEST_PATH_IMAGE055
其中C代表输入文本的字符向量集合,
Figure 755040DEST_PATH_IMAGE056
代表文本中第i个字 符向量,其中每个字符向量维度为768;然后把得到的字向量集合通过padding到统一长度, 通过一个bi-lstm模型,bi-lstm模型的输出维度为128,得到最终的字符级语义表示
Figure 895034DEST_PATH_IMAGE057
Figure 475051DEST_PATH_IMAGE058
在步骤2.2,本实施例获取词级别的语义信息表达序列。对输入文本进行分词处 理,去除停用词;使用训练好的word2vec词向量,对文本进行表示,得到结果为
Figure 16891DEST_PATH_IMAGE059
其中
Figure 640639DEST_PATH_IMAGE060
代表词向量集合,
Figure 267929DEST_PATH_IMAGE061
代表第i个词向量,
Figure 120479DEST_PATH_IMAGE062
的维度 是200;然后把得到的词向量集合通过padding到统一长度,然后把所得到的词向量集合通 过一个bi-lstm模型,bi-lstm模型的输出维度为128,得到词级别语义表示
Figure 782404DEST_PATH_IMAGE063
Figure 577054DEST_PATH_IMAGE064
在步骤2.3中,通过拼接字符级语义表示和词级别语义表示,得到最终文本的语义表示:
Figure DEST_PATH_IMAGE065
步骤3,基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列,其中情感状态由语义、情感惯性、情感共性三部分组成,具体为:
如图2所示,在步骤3中,本实施例对输入的对话集合UTT通过步骤2所述方法进行 处理,得到对话级别的文本语义表达集合
Figure 98165DEST_PATH_IMAGE016
其 中
Figure 879039DEST_PATH_IMAGE017
代表第1个人物在对话集合中第i段对话的语义表示,以左侧浅色节点表示,并与对 应深色节点相连,
Figure 520105DEST_PATH_IMAGE018
代表第2个人物在对话集合中第j段对话的语义表示,以左侧浅色节 点表示,并与对应右侧浅色节点相连;同步的,如图2所示,在对话语义表达的基础上,生成 对应的情感表达集合
Figure 564284DEST_PATH_IMAGE019
其中
Figure 838271DEST_PATH_IMAGE020
是与第1个人物在对话 集合中第i段对话语义表达
Figure 422836DEST_PATH_IMAGE021
对应的情感表达,以深色节点表示,
Figure 997037DEST_PATH_IMAGE022
是与第2个人物在 对话集合中第j段对话语义表达
Figure 124700DEST_PATH_IMAGE023
对应的情感表达,以右侧浅色节点表示;实现情感与语 义状态分离,突出情感状态的独立性与重要性。
Figure 948299DEST_PATH_IMAGE024
是由三部分组成,分别是情感惯性
Figure 211922DEST_PATH_IMAGE025
情感共性
Figure 437367DEST_PATH_IMAGE026
语义表示
Figure 744720DEST_PATH_IMAGE027
共同计算得到,其中情感惯 性具体为当前对话人物上一次对话时的情感状态,由深色虚线箭头表示,情感共性为另一 个人物上一次对话的情感状态,由深色实线箭头表示,语义表达为当前对话人物当前时刻 的对话文本语义,由浅色箭头表示;对于情感惯性、情感共性、语义表示,使用门机制得到各 自对应的权重,并加权拼接后,得到当前对话对应的情感状态,具体如下:
Figure 321195DEST_PATH_IMAGE028
Figure 122929DEST_PATH_IMAGE029
其中,
Figure 202880DEST_PATH_IMAGE030
代表情感惯性门计算可训练参数,
Figure 946714DEST_PATH_IMAGE031
代表情感共性门计算可 训练参数,
Figure 744906DEST_PATH_IMAGE032
代表情感状态计算可训练参数,
Figure 84752DEST_PATH_IMAGE033
为情感惯性门,代表情感惯性
Figure 284789DEST_PATH_IMAGE034
需要保留的信息比例,
Figure 199524DEST_PATH_IMAGE035
为情感共情门,代表情感共性
Figure 219433DEST_PATH_IMAGE036
需要保留的 信息比例。
步骤4,通过不同模态表示得到多模态融合表示,使用多模态融合表示进行情感分类;
在步骤4中,本实施例步骤3中得到的对话情感状态集合
Figure 628548DEST_PATH_IMAGE037
由于情感是一个逐渐变化的过程,所以情感 的变化是一个累积、连续的过程,最后的对于当前对话片段的情感分类为:
Figure 683092DEST_PATH_IMAGE038
其中,
Figure 506079DEST_PATH_IMAGE039
是情感累积系数,
Figure 278863DEST_PATH_IMAGE040
应当理解,本发明所描述的实施例仅仅属于本发明中的一部分,并不是全部实施例,所以实现本发明不应被阐述实施例所限制,而应该借助这些实施例进一步理解本发明的内容本质,能更好地服务于本领域的技术人员。

Claims (4)

1. 一种基于语义、情感惯性和情感共性的对话情感分析方法,包含以下步骤:步骤1,获取对话交替进行的多轮对话数据,并对其中对话人物进行特定标记;步骤2,对多轮对话中的每条对话信息进行建模,提取出其中对应的语义信息表达序列;步骤3,基于多轮对话所提取的语义信息表达序列,分离出对应的情感状态表达序列;步骤4,根据情感状态,对对话情感进行识别;
其特征在于,所述步骤3具体包括:根据得到的文本的语义表示,得到对话级别的文本 语义表达集合
Figure DEST_PATH_IMAGE001
其中
Figure DEST_PATH_IMAGE002
代表第1个人物在对 话集合中第i段对话的语义表示,
Figure DEST_PATH_IMAGE003
代表第2个人物在对话集合中第j段对话的语义表 示;同步的,在对话语义表达的基础上,生成对应的情感状态集合
Figure DEST_PATH_IMAGE004
其中
Figure DEST_PATH_IMAGE005
是与第1个人物在对话集合中第i段对话语义 表达
Figure DEST_PATH_IMAGE006
对应的情感状态,
Figure DEST_PATH_IMAGE007
是与第2个人物在对话集合中第j段对话语义表达
Figure DEST_PATH_IMAGE008
对应 的情感状态,所述情感状态
Figure DEST_PATH_IMAGE009
由情感惯性
Figure DEST_PATH_IMAGE010
,情感共性
,语义表示
Figure DEST_PATH_IMAGE013
共同计算得到,其中情感惯性 具体为当前对话人物上一次对话时的情感状态,情感共性为另一个人物上一次对话的情感 状态,语义表示为当前对话人物当前时刻的对话文本语义;对于情感惯性、情感共性、语义 表示,使用门机制得到各自对应的权重,并加权拼接后,得到当前对话对应的情感状态,具 体如下:
Figure DEST_PATH_IMAGE015
Figure DEST_PATH_IMAGE017
其中,
Figure DEST_PATH_IMAGE018
代表情感惯性门计算可训练参数,代表情感共性门计算可训练 参数,
Figure DEST_PATH_IMAGE021
代表情感状态计算可训练参数,
Figure DEST_PATH_IMAGE022
为情感惯性门,代表情感惯性
Figure DEST_PATH_IMAGE023
需 要保留的信息比例,为情感共性门,代表情感共性需要保留的信息比 例。
2.如权利要求1所述的一种基于语义、情感惯性和情感共性的对话情感分析方法,其特征在于,所述步骤1具体包括:
步骤1.1,通过采集电影、电视剧视频数据或采集现有的带有情感标记的多轮对话数据集,挑选并剪辑出数据中的双人对话场景,分离出其中的对话数据,并在utterance级别进行切割,然后对切割的utterance进行人工情感标注,标注出每个utterance对应的情感标签,并且对对话人物进行标记,获取对话情感分析数据;
步骤1.2,根据对话人物不同,把获取的对话情感分析数据切分为3个集合,分别是人物
Figure DEST_PATH_IMAGE027
的对话集合:
Figure DEST_PATH_IMAGE028
此对话集合只包含人物
Figure 508877DEST_PATH_IMAGE027
的对话文本,
Figure DEST_PATH_IMAGE029
代表人物
Figure DEST_PATH_IMAGE030
的第
Figure DEST_PATH_IMAGE031
段对话;
人物
Figure DEST_PATH_IMAGE032
的对话集合:
Figure DEST_PATH_IMAGE033
此对话集合只包含人物
Figure 737602DEST_PATH_IMAGE032
的对话文本,
Figure 828924DEST_PATH_IMAGE029
代表人物
Figure 427395DEST_PATH_IMAGE032
的第
Figure 913871DEST_PATH_IMAGE031
段对话;
人物
Figure 939596DEST_PATH_IMAGE027
和人物
Figure 268946DEST_PATH_IMAGE032
的整体对话集合:
Figure DEST_PATH_IMAGE034
此对话集合包含两人对话文本,并且对话为交替进行。
3.如权利要求1所述的一种基于语义、情感惯性和情感共性的对话情感分析方法,其特征在于,所述步骤2具体包括:
步骤2.1,对获取到的对话情感分析数据文本进行字符级清洗,然后通过预训练好字符 级BERT模型,得到结果,其中C代表输入文本的字符向量 集合,
Figure DEST_PATH_IMAGE037
代表文本中第
Figure DEST_PATH_IMAGE038
个字符向量,然后把得到的字符向量集合通过padding到统一长 度,通过一个bi-lstm模型,得到最终的字符级语义表示
Figure DEST_PATH_IMAGE039
步骤2.2,对获取到的对话情感分析数据文本进行分词处理,去除停用词;使用训练好 的word2vec词向量,对文本进行表示,得到结果为其中 W代表词向量集合,
Figure DEST_PATH_IMAGE042
代表第i个词向量,然后把得到的词向量集合通过padding到统一长 度,然后把所得到的词向量集合通过一个bi-lstm模型,得到词级别语义表示
Figure DEST_PATH_IMAGE043
步骤2.3,通过拼接字符级语义表示和词级别语义表示,得到最终文本的语义表示:
Figure DEST_PATH_IMAGE044
4.如权利要求1所述的一种基于语义、情感惯性和情感共性的对话情感分析方法,其特征在于,所述步骤4具体包括:根据得到的对话情感状态集合
Figure DEST_PATH_IMAGE045
,通过不同模态表示,得到多模态融合表示,并使用多模 态融合表示对当前对话片段进行情感分类,表达式为:
Figure DEST_PATH_IMAGE047
其中,
Figure DEST_PATH_IMAGE049
是情感累积系数,
Figure DEST_PATH_IMAGE051
CN202110205409.7A 2021-02-24 2021-02-24 一种基于语义、情感惯性和情感共性的对话情感分析方法 Active CN112579762B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110205409.7A CN112579762B (zh) 2021-02-24 2021-02-24 一种基于语义、情感惯性和情感共性的对话情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110205409.7A CN112579762B (zh) 2021-02-24 2021-02-24 一种基于语义、情感惯性和情感共性的对话情感分析方法

Publications (2)

Publication Number Publication Date
CN112579762A CN112579762A (zh) 2021-03-30
CN112579762B true CN112579762B (zh) 2021-06-08

Family

ID=75113928

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110205409.7A Active CN112579762B (zh) 2021-02-24 2021-02-24 一种基于语义、情感惯性和情感共性的对话情感分析方法

Country Status (1)

Country Link
CN (1) CN112579762B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139042B (zh) * 2021-04-25 2022-04-29 内蒙古工业大学 一种利用微调和重排序策略的情感可控回复生成方法
CN113297366B (zh) * 2021-06-22 2023-05-30 中国平安人寿保险股份有限公司 多轮对话的情绪识别模型训练方法、装置、设备及介质
CN115048942A (zh) * 2022-06-08 2022-09-13 阿里巴巴(中国)有限公司 服务质量评估及模型训练方法、电子设备及存储介质
CN115496077B (zh) * 2022-11-18 2023-04-18 之江实验室 一种基于模态观察和评分的多模态情感分析方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108227932A (zh) * 2018-01-26 2018-06-29 上海智臻智能网络科技股份有限公司 交互意图确定方法及装置、计算机设备及存储介质
CN108805087A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态情绪识别系统的时序语义融合关联判断子系统
CN110110169A (zh) * 2018-01-26 2019-08-09 上海智臻智能网络科技股份有限公司 人机交互方法及人机交互装置
CN106683672B (zh) * 2016-12-21 2020-04-03 竹间智能科技(上海)有限公司 一种基于情感和语义的智能对话方法及系统
CN111651609A (zh) * 2020-04-24 2020-09-11 中国电力科学研究院有限公司 一种融合知识图谱和情感监督的多轮对话方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683672B (zh) * 2016-12-21 2020-04-03 竹间智能科技(上海)有限公司 一种基于情感和语义的智能对话方法及系统
CN108227932A (zh) * 2018-01-26 2018-06-29 上海智臻智能网络科技股份有限公司 交互意图确定方法及装置、计算机设备及存储介质
CN110110169A (zh) * 2018-01-26 2019-08-09 上海智臻智能网络科技股份有限公司 人机交互方法及人机交互装置
CN108805087A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态情绪识别系统的时序语义融合关联判断子系统
CN111651609A (zh) * 2020-04-24 2020-09-11 中国电力科学研究院有限公司 一种融合知识图谱和情感监督的多轮对话方法及系统

Also Published As

Publication number Publication date
CN112579762A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN112579762B (zh) 一种基于语义、情感惯性和情感共性的对话情感分析方法
Tripathi et al. Deep learning based emotion recognition system using speech features and transcriptions
CN112348075B (zh) 一种基于情景注意力神经网络的多模态情感识别方法
US11281945B1 (en) Multimodal dimensional emotion recognition method
CN110188343B (zh) 基于融合注意力网络的多模态情感识别方法
CN108597541B (zh) 一种增强愤怒与开心识别的语音情感识别方法及系统
CN108874972B (zh) 一种基于深度学习的多轮情感对话方法
Sebastian et al. Fusion Techniques for Utterance-Level Emotion Recognition Combining Speech and Transcripts.
Perez-Gaspar et al. Multimodal emotion recognition with evolutionary computation for human-robot interaction
Aguilar et al. Multimodal and multi-view models for emotion recognition
CN110675859B (zh) 结合语音与文本的多情感识别方法、系统、介质及设备
CN111966800B (zh) 情感对话生成方法、装置及情感对话模型训练方法、装置
CN110675860A (zh) 基于改进注意力机制并结合语义的语音信息识别方法及系统
CN110853649A (zh) 基于智能语音技术的标签提取方法、系统、设备及介质
CN105760852A (zh) 一种融合脸部表情和语音的驾驶员情感实时识别方法
Shen et al. WISE: Word-Level Interaction-Based Multimodal Fusion for Speech Emotion Recognition.
CN112597841B (zh) 一种基于门机制多模态融合的情感分析方法
Wagner et al. Gesture unit segmentation using spatial-temporal information and machine learning
CN112735385B (zh) 语音端点检测方法、装置、计算机设备及存储介质
CN113065344A (zh) 一种基于迁移学习和注意力机制的跨语料库情感识别方法
CN114911932A (zh) 基于主题语义增强的异构图结构多会话者情感分析方法
CN115690553A (zh) 一种基于多模态对话内容联合建模的情感分析方法及系统
CN110503943B (zh) 一种语音交互方法以及语音交互系统
CN115171176A (zh) 对象情绪的分析方法、装置和电子设备
Zhang et al. Multi-modal emotion recognition based on deep learning in speech, video and text

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant