CN113128534A - 情绪识别的方法、装置以及存储介质 - Google Patents

情绪识别的方法、装置以及存储介质 Download PDF

Info

Publication number
CN113128534A
CN113128534A CN201911412211.5A CN201911412211A CN113128534A CN 113128534 A CN113128534 A CN 113128534A CN 201911412211 A CN201911412211 A CN 201911412211A CN 113128534 A CN113128534 A CN 113128534A
Authority
CN
China
Prior art keywords
emotion
target object
behavior
data information
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911412211.5A
Other languages
English (en)
Inventor
杨春勇
靳丁南
罗欢
权圣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhongguancun Kejin Technology Co Ltd
Original Assignee
Beijing Zhongguancun Kejin Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhongguancun Kejin Technology Co Ltd filed Critical Beijing Zhongguancun Kejin Technology Co Ltd
Priority to CN201911412211.5A priority Critical patent/CN113128534A/zh
Publication of CN113128534A publication Critical patent/CN113128534A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Manipulator (AREA)

Abstract

本申请公开了一种情绪识别的方法、装置以及存储介质,其中该方法包括:获取待识别的与目标对象的行为相关的数据信息;通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量;以及根据情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。

Description

情绪识别的方法、装置以及存储介质
技术领域
本申请涉及计算机和机器学习技术领域,特别是涉及一种情绪识别的方法、装置以及存储介质。
背景技术
情绪感知是一种用途广泛的用户感知算法。依赖于情绪感知,可以增强智能机器人的情绪处理能力,使得其对话和动作行为更具有人性。文本情绪感知,可以根据用户的文字输入进行情绪识别,根据情绪识别的结果,可以做对应的回复;语音情绪感知,根据用户的语音对话识别对应的情绪,然后可以改变机器人回复语音的语气语调等;图像情绪感知,可以根据用户的面部表情,肢体语言等信息识别出对应情绪,然后调整对应的动作。
现有的情绪感知技术需要根据具体应用需求来设置分类标签,每次需求改变就要求重新设置标签,并重新构建整个模型。不同的需求需要每次都重新标注语料集,使得构建整个模型的成本增大。此外,现有的情绪感知技术得到的是离散的情绪分类标签,不能表示每一类情绪的强度,如设置了高兴、悲伤、愤怒,识别出用户是高兴,但是高兴也是有程度的,在现有的技术里面不能表示这种程度。并且,现有的情绪感知技术表示的情绪有限,并且不能很好的表达用户的真实情绪,比如用户出现高兴情绪的时候是不是还有其它情绪也同时存在,这个时候分类模型是需要特定设计才能支持。
针对上述的现有技术中存在的情绪感知模型无法确定情绪的强弱程度,因此机器人在对话或者动作交互的过程中人性化强度不高,无法准确地应对用户的需求的技术问题,目前尚未提出有效的解决方案。
发明内容
本公开的实施例提供了一种情绪识别的方法、装置以及存储介质,以至少解决现有技术中存在的情绪感知模型无法确定情绪的强弱程度,因此机器人在对话或者动作交互的过程中人性化强度不高,无法准确地应对用户的需求的技术问题。
根据本公开实施例的一个方面,提供了一种情绪识别的方法,包括:获取待识别的与目标对象的行为相关的数据信息;通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量;以及根据情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。
根据本公开实施例的另一个方面,还提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时由处理器执行以上任意一项所述的方法。
根据本公开实施例的另一个方面,还提供了一种情绪识别的装置,包括:数据获取模块,用于获取待识别的与目标对象的行为相关的数据信息;情绪识别模块,用于通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量;以及情绪确定模块,用于根据情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。
根据本公开实施例的另一个方面,还提供了一种情绪识别的装置,包括:处理器;以及存储器,与处理器连接,用于为处理器提供处理以下处理步骤的指令:获取待识别的与目标对象的行为相关的数据信息;通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量;以及根据情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。
在本公开实施例中,首先获取待识别的与目标对象的行为相关的数据信息(例如:语音)。进一步地,通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量。最终,根据情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。从而,达到了从目标对象的行为中识别情绪强度的技术效果,因此可以改变机器人回复语音的语气语调以及肢体动作等,提升用户的体验效果。进而解决了现有技术中存在的情绪感知模型无法确定情绪的强弱程度,因此机器人在对话或者动作交互的过程中人性化强度不高,无法准确地应对用户的需求的技术问题。
附图说明
此处所说明的附图用来提供对本公开的进一步理解,构成本申请的一部分,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。在附图中:
图1是用于实现根据本公开实施例1所述的方法的计算设备的硬件结构框图;
图2是根据本公开实施例1的第一个方面所述的情绪识别的方法的流程示意图;
图3是根据本公开实施例1所述的情绪识别过程的流程示意图;
图4是根据本公开实施例2所述的情绪识别的装置的示意图;以及
图5是根据本公开实施例3所述的情绪识别的装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本公开的技术方案,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本公开一部分的实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本公开保护的范围。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本实施例,还提供了一种情绪识别的方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本实施例所提供的方法实施例可以在移动终端、计算机终端、服务器或者类似的计算设备中执行。图1示出了一种用于实现情绪识别的方法的计算设备的硬件结构框图。如图1所示,计算设备可以包括一个或多个处理器(处理器可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器、以及用于通信功能的传输装置。除此以外,还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(USB)端口(可以作为I/O接口的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算设备还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
应当注意到的是上述一个或多个处理器和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算设备中的其他元件中的任意一个内。如本公开实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器可用于存储应用软件的软件程序以及模块,如本公开实施例中的情绪识别的方法对应的程序指令/数据存储装置,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的应用程序的情绪识别的方法。存储器可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至计算设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算设备的通信供应商提供的无线网络。在一个实例中,传输装置包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与计算设备的用户界面进行交互。
此处需要说明的是,在一些可选实施例中,上述图1所示的计算设备可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图1仅为特定具体实例的一个实例,并且旨在示出可存在于上述计算设备中的部件的类型。
在上述运行环境下,根据本实施例的第一个方面,提供了一种情绪识别的方法,该方法可以应用到机器人客服系统中,用于识别客户在沟通过程中的情绪以及对应的强度。图2示出了该方法的流程示意图,参考图2所示,该方法包括:
S202:获取待识别的与目标对象的行为相关的数据信息;
S204:通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量;以及
S206:根据情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。
正如背景技术中所述的,现有的情绪感知技术需要根据具体应用需求来设置分类标签,每次需求改变就要求重新设置标签,并重新构建整个模型。不同的需求需要每次都重新标注语料集,使得构建整个模型的成本增大。此外,现有的情绪感知技术得到的是离散的情绪分类标签,不能表示每一类情绪的强度,如设置了高兴、悲伤、愤怒,识别出用户是高兴,但是高兴也是有程度的,在现有的技术里面不能表示这种程度。并且,现有的情绪感知技术表示的情绪有限,并且不能很好的表达用户的真实情绪,比如用户出现高兴情绪的时候是不是还有其它情绪也同时存在,这个时候分类模型是需要特定设计才能支持。
针对背景技术中存在的技术问题,本实施例技术方案首先获取待识别的与目标对象的行为相关的数据信息(例如:语音)。进一步地,通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量。最终,根据情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。从而,达到了从目标对象的行为中识别情绪强度的技术效果,因此可以改变机器人回复语音的语气语调以及肢体动作等,提升用户的体验效果。进而解决了现有技术中存在的情绪感知模型无法确定情绪的强弱程度,因此机器人在对话或者动作交互的过程中人性化强度不高,无法准确地应对用户的需求的技术问题。
具体地,在步骤S202,客服系统服务器首先获取待识别的与目标对象的行为相关的数据信息。其中,与目标对象的行为相关的数据信息例如可以是机器人与客户电话沟通过程中的录音,其录音可以是沟通过程中实时产生的也可以是存储的沟通记录。此外,数据信息还可以是其他的与用户行为相关的信息(例如:文本),此处不做具体限定。
进一步地,在步骤S204中,服务器通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量。其中,多元回归模型例如但不限于是通过神经网络或者深度学习实现的,并且多元回归模型可以是非线性的。训练过程中采用大量的不同情绪强度的训练数据,以高兴情绪为例,高兴情绪中包含平稳、欣喜、欢乐等不同强度的表现形式。在一个实施例中,多元回归模型为多个自变量和多个因变量,多个自变量为神经网络输出的与数据信息(例如:语音)对应的多个特征,自变量和因变量之间存在对应关系并且为向量的形式。在具体实现上,在多维空间里面量化所有的情感,确定多元回归模型的超参数。根据超参数的设定对训练数据由人工参与标注,然后把标注好的数据进行模型训练。最终,将用户的数据信息输入到模型中,通过多元回归模型,确定数据信息(例如:录音)中的情绪特征对应的情绪向量。
最终,在步骤S206中,服务器根据所确定的情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。例如:确定目标对象的情绪为高兴,并且强度为欣喜。因此,可以增加机器人的情感表现,比如增加文本回复的多样性生成,语音语调的变化,动作行为的变化等。
从而通过这种方式,达到了从目标对象的行为中识别情绪强度的技术效果,因此可以改变机器人回复语音的语气语调以及肢体动作等,提升用户的体验效果。进而解决了现有技术中存在的情绪感知模型无法确定情绪的强弱程度,因此机器人在对话或者动作交互的过程中人性化强度不高,无法准确地应对用户的需求的技术问题。
可选地,通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量之前,还包括:利用基于情绪心理进化理论标注的训练数据对模型进行训练,生成回归模型。
具体地,图3示例性地示出了情绪识别过程的示意图,参考图3所示,在训练多元回归模型的过程中,采用的训练数据是经过情绪心理进化理论进行标注,其中可以涵盖所有的情绪类别以及强度类别,其中主要的情绪包括八种情绪:生气(Anger)、厌恶(Disgust)、恐惧(Fear)、悲伤(Sadness)、期待(Anticipation)、快乐(Joy)、惊讶(Surprise)、信任(Trust)。并且每种情绪还划分为多种强度类型,例如:生气分为烦躁、生气、暴怒。此外,还可以反映出数据信息中包含的多种情绪,例如:在快乐地情绪中还包含期待情绪;例如:期待+快乐=乐观。从而通过这种方式,相对于现有技术来说,可以一次性地构建通用的模型,应对以后所有的情绪识别需求,避免了需求变更后需要重新标注和构建模型的工作量。
可选地,确定与行为包含的情绪对应的情绪向量,包括:确定与行为包含的情绪对应的八维情绪向量,其中每个维度指示不同的情绪类别。
具体地,通过多元回归模型输出与行为包含的情绪对应的八维情绪向量,这8个维度是基本的8种情绪,可以由这个8维空间表示任意的情绪。相对于现有技术只能表示离散的情绪来说,本实施例可以表示连续的情绪,因此情绪也就有了可量化的程度,根据在8维空间中的位置,就可以衡量这种情绪的程度。此外,相对于现有技术不允许情绪并存和融合的情况,本实施例输出的情绪向量可以表示多种情绪的存在和融合。
可选地,与目标对象的行为相关的数据信息包括以下至少一项:目标对象的输入文本、目标对象的输入音频、目标对象的表情以及肢体动作。
具体地,与目标对象的行为相关的数据信息包括目标对象的输入文本(例如:与机器人沟通过程中产生的聊天记录)、目标对象的输入音频(例如:通话过程中产生的录音)、目标对象的表情以及肢体动作(例如:目标对象的面部表情或者肢体动作等),并且对数据信息进行预处理,例如:数据清洗。从而通过这种方式,本实施例不仅仅只使用单一的文本或语音或图像等不同结构的信息,而是融合两个以上的不同结构信息用于分析计算。文本情绪感知,可以根据用户的文字输入进行情绪识别,根据情绪识别的结果,可以做对应的回复;语音情绪感知,根据用户的语音对话识别对应的情绪,然后可以改变机器人回复语音的语气语调等;图像情绪感知,可以根据用户的面部表情,肢体语言等信息识别出对应情绪,然后调整对应的动作。
此外,参考图1所示,根据本实施例的第二个方面,提供了一种存储介质。所述存储介质包括存储的程序,其中,在所述程序运行时由处理器执行以上任意一项所述的方法。
从而根据本实施例,达到了通过多元回归模型从目标对象的行为中识别情绪强度的技术效果,因此可以改变机器人回复语音的语气语调以及肢体动作等,提升用户的体验效果。进而解决了现有技术中存在的情绪感知模型无法确定情绪的强弱程度,因此机器人在对话或者动作交互的过程中人性化强度不高,无法准确地应对用户的需求的技术问题。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
实施例2
图4示出了根据本实施例所述的情绪识别的装置400,该装置400与根据实施例1的第一个方面所述的方法相对应。参考图4所示,该装置400包括:数据获取模块410,用于获取待识别的与目标对象的行为相关的数据信息;情绪识别模块420,用于通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量;以及情绪确定模块430,用于根据情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。
可选地,装置400还包括:模型训练模块,用于利用基于情绪心理进化理论标注的训练数据对模型进行训练,生成回归模型。
可选地,情绪识别模块420,包括:识别子模块,用于确定与行为包含的情绪对应的八维情绪向量,其中每个维度指示不同的情绪类别。
可选地,与目标对象的行为相关的数据信息包括以下至少一项:目标对象的输入文本、目标对象的输入音频、目标对象的表情以及肢体动作。
从而根据本实施例,通过装置400达到了通过多元回归模型从目标对象的行为中识别情绪强度的技术效果,因此可以改变机器人回复语音的语气语调以及肢体动作等,提升用户的体验效果。进而解决了现有技术中存在的情绪感知模型无法确定情绪的强弱程度,因此机器人在对话或者动作交互的过程中人性化强度不高,无法准确地应对用户的需求的技术问题。
实施例3
图5示出了根据本实施例所述的情绪识别的装置500,该装置500与根据实施例1的第一个方面所述的方法相对应。参考图5所示,该装置500包括:处理器510;以及存储器520,与处理器510连接,用于为处理器510提供处理以下处理步骤的指令:获取待识别的与目标对象的行为相关的数据信息;通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量;以及根据情绪向量,确定目标对象的情绪类别以及情绪类别对应的强弱程度。
可选地,存储器520还用于为处理器510提供处理以下处理步骤的指令:在通过预先设置的用于识别情绪强弱程度的多元回归模型对数据信息进行识别,确定与行为包含的情绪特征对应的情绪向量之前,利用基于情绪心理进化理论标注的训练数据对模型进行训练,生成回归模型。
可选地,确定与行为包含的情绪对应的情绪向量,包括:确定与行为包含的情绪对应的八维情绪向量,其中每个维度指示不同的情绪类别。
可选地,与目标对象的行为相关的数据信息包括以下至少一项:目标对象的输入文本、目标对象的输入音频、目标对象的表情以及肢体动作。
从而根据本实施例,通过装置500达到了通过多元回归模型从目标对象的行为中识别情绪强度的技术效果,因此可以改变机器人回复语音的语气语调以及肢体动作等,提升用户的体验效果。进而解决了现有技术中存在的情绪感知模型无法确定情绪的强弱程度,因此机器人在对话或者动作交互的过程中人性化强度不高,无法准确地应对用户的需求的技术问题。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种情绪识别的方法,其特征在于,包括:
获取待识别的与目标对象的行为相关的数据信息;
通过预先设置的用于识别情绪强弱程度的多元回归模型对所述数据信息进行识别,确定与所述行为包含的情绪特征对应的情绪向量;以及
根据所述情绪向量,确定所述目标对象的情绪类别以及所述情绪类别对应的强弱程度。
2.根据权利要求1所述的方法,其特征在于,通过预先设置的用于识别情绪强弱程度的多元回归模型对所述数据信息进行识别,确定与所述行为包含的情绪特征对应的情绪向量之前,还包括:
利用基于情绪心理进化理论标注的训练数据对模型进行训练,生成所述回归模型。
3.根据权利要求1所述的方法,其特征在于,确定与所述行为包含的情绪对应的情绪向量,包括:
确定与所述行为包含的情绪对应的八维情绪向量,其中每个维度指示不同的情绪类别。
4.根据权利要求1所述的方法,其特征在于,与目标对象的行为相关的数据信息包括以下至少一项:所述目标对象的输入文本、所述目标对象的输入音频、所述目标对象的表情以及肢体动作。
5.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时由处理器执行权利要求1至4中任意一项所述的方法。
6.一种情绪识别的装置,其特征在于,包括:
数据获取模块,用于获取待识别的与目标对象的行为相关的数据信息;
情绪识别模块,用于通过预先设置的用于识别情绪强弱程度的多元回归模型对所述数据信息进行识别,确定与所述行为包含的情绪特征对应的情绪向量;以及
情绪确定模块,用于根据所述情绪向量,确定所述目标对象的情绪类别以及所述情绪类别对应的强弱程度。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
模型训练模块,用于利用基于情绪心理进化理论标注的训练数据对模型进行训练,生成所述回归模型。
8.根据权利要求6所述的装置,其特征在于,所述情绪识别模块,包括:
识别子模块,用于确定与所述行为包含的情绪对应的八维情绪向量,其中每个维度指示不同的情绪类别。
9.根据权利要求6所述的装置,其特征在于,与目标对象的行为相关的数据信息包括以下至少一项:所述目标对象的输入文本、所述目标对象的输入音频、所述目标对象的表情以及肢体动作。
10.一种情绪识别的装置,其特征在于,包括:
处理器;以及
存储器,与所述处理器连接,用于为所述处理器提供处理以下处理步骤的指令:
获取待识别的与目标对象的行为相关的数据信息;
通过预先设置的用于识别情绪强弱程度的多元回归模型对所述数据信息进行识别,确定与所述行为包含的情绪特征对应的情绪向量;以及
根据所述情绪向量,确定所述目标对象的情绪类别以及所述情绪类别对应的强弱程度。
CN201911412211.5A 2019-12-31 2019-12-31 情绪识别的方法、装置以及存储介质 Pending CN113128534A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911412211.5A CN113128534A (zh) 2019-12-31 2019-12-31 情绪识别的方法、装置以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911412211.5A CN113128534A (zh) 2019-12-31 2019-12-31 情绪识别的方法、装置以及存储介质

Publications (1)

Publication Number Publication Date
CN113128534A true CN113128534A (zh) 2021-07-16

Family

ID=76770199

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911412211.5A Pending CN113128534A (zh) 2019-12-31 2019-12-31 情绪识别的方法、装置以及存储介质

Country Status (1)

Country Link
CN (1) CN113128534A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115047824A (zh) * 2022-05-30 2022-09-13 青岛海尔科技有限公司 数字孪生多模态设备控制方法、存储介质及电子装置
WO2023077883A1 (zh) * 2021-11-04 2023-05-11 中兴通讯股份有限公司 情绪识别方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130211838A1 (en) * 2010-10-28 2013-08-15 Acriil Inc. Apparatus and method for emotional voice synthesis
CN108764169A (zh) * 2018-05-31 2018-11-06 厦门大学 一种基于机器学习的驾驶员情绪识别与显示装置及方法
CN108764010A (zh) * 2018-03-23 2018-11-06 姜涵予 情绪状态确定方法及装置
CN109035089A (zh) * 2018-07-25 2018-12-18 重庆科技学院 一种在线课堂氛围评估系统及方法
CN109597493A (zh) * 2018-12-11 2019-04-09 科大讯飞股份有限公司 一种表情推荐方法及装置
CN110262665A (zh) * 2019-06-26 2019-09-20 北京百度网讯科技有限公司 用于输出信息的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130211838A1 (en) * 2010-10-28 2013-08-15 Acriil Inc. Apparatus and method for emotional voice synthesis
CN108764010A (zh) * 2018-03-23 2018-11-06 姜涵予 情绪状态确定方法及装置
CN108764169A (zh) * 2018-05-31 2018-11-06 厦门大学 一种基于机器学习的驾驶员情绪识别与显示装置及方法
CN109035089A (zh) * 2018-07-25 2018-12-18 重庆科技学院 一种在线课堂氛围评估系统及方法
CN109597493A (zh) * 2018-12-11 2019-04-09 科大讯飞股份有限公司 一种表情推荐方法及装置
CN110262665A (zh) * 2019-06-26 2019-09-20 北京百度网讯科技有限公司 用于输出信息的方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023077883A1 (zh) * 2021-11-04 2023-05-11 中兴通讯股份有限公司 情绪识别方法、装置、设备及存储介质
CN115047824A (zh) * 2022-05-30 2022-09-13 青岛海尔科技有限公司 数字孪生多模态设备控制方法、存储介质及电子装置

Similar Documents

Publication Publication Date Title
CN110782318A (zh) 基于音频交互的营销方法、装置以及存储介质
CN107592255B (zh) 信息展示方法和设备
CN113128534A (zh) 情绪识别的方法、装置以及存储介质
CN111241842A (zh) 文本的分析方法、装置和系统
CN114090755A (zh) 基于知识图谱的回复语句确定方法、装置及电子设备
CN114969352B (zh) 文本处理方法、系统、存储介质及电子设备
CN114722091A (zh) 数据处理方法、装置、存储介质以及处理器
CN112765364A (zh) 群聊会话排序方法、装置、存储介质和电子设备
CN111309899A (zh) 对话情感分析方法及装置、存储介质和处理器
CN112785069A (zh) 终端设备换机的预测方法和装置、存储介质和电子设备
CN113761917A (zh) 命名实体的识别方法和装置
CN111324704B (zh) 话术知识库构建的方法、装置和客服机器人
CN111787042A (zh) 用于推送信息的方法和装置
CN113011182B (zh) 一种对目标对象进行标签标注的方法、装置和存储介质
CN112445898A (zh) 对话情感分析方法及装置、存储介质及处理器
CN112446202A (zh) 文本的分析方法和装置
CN110826582A (zh) 图像特征训练方法、装置和系统
CN112732877B (zh) 数据处理的方法、装置和系统
CN111523952B (zh) 信息提取的方法及装置、存储介质和处理器
CN111507095B (zh) 裁判文书的生成方法、装置、存储介质和处理器
CN111625628B (zh) 信息处理方法及装置、存储介质和处理器
CN113689881A (zh) 针对语音画像进行音频交互的方法、装置以及存储介质
CN114077613A (zh) 数据处理方法、装置、存储介质及计算机设备
CN114780692A (zh) 文本处理方法、装置和系统,模型处理方法和装置
CN110675459A (zh) 字体生成方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination