CN112379780B - 多模态情感交互方法、智能设备、系统、电子设备及介质 - Google Patents

多模态情感交互方法、智能设备、系统、电子设备及介质 Download PDF

Info

Publication number
CN112379780B
CN112379780B CN202011384601.9A CN202011384601A CN112379780B CN 112379780 B CN112379780 B CN 112379780B CN 202011384601 A CN202011384601 A CN 202011384601A CN 112379780 B CN112379780 B CN 112379780B
Authority
CN
China
Prior art keywords
user
emotion
preset
behavior
modal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011384601.9A
Other languages
English (en)
Other versions
CN112379780A (zh
Inventor
刘箴
刘婷婷
柴艳杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN202011384601.9A priority Critical patent/CN112379780B/zh
Publication of CN112379780A publication Critical patent/CN112379780A/zh
Application granted granted Critical
Publication of CN112379780B publication Critical patent/CN112379780B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种多模态情感交互方法、智能设备、系统、电子设备及介质,多模态情感交互方法包括确定表征用户情绪的多模态输入参数集合、根据多模态输入参数集合确定用户的当前情绪状态、根据用户的当前情绪状态及预设的情绪回应库,确定反馈给用户的行为表现;以及将确定的行为表现由硬件设备或者虚拟智能体反馈给用户。该多模态情感交互方法通过多通道分别采集表征用户情绪的多种模态参数,然后再通过对所采集的这些模态参数的融合处理,全面准确感知用户的当前面部情绪,避免了传统情感交互方法仅仅基于视觉等单通道识别用户情绪时的误判等不足。

Description

多模态情感交互方法、智能设备、系统、电子设备及介质
技术领域
本发明涉及人机情感交互领域,尤其涉及一种多模态情感交互方法、智能设备、系统、电子设备及介质。
背景技术
目前,人口老龄化的全球化趋势十分明显。随着人口老龄化程度加深,出现了越来越多的“空巢老人”家庭,这些老年人在日常生活中不仅面临着无人照顾的情况,而且还会面临着情感无人倾诉的困境,严重影响着老年人的身心健康。
为了解决老年人无人照顾的问题,目前市场上出现了照顾老年人的看护机器人。这些看护机器人虽然可以为老年人的日常生活提供一些护理和照顾,但价格较高且提供的看护功能十分有限,而且也不便于用户(如老年人)升级维护。另外,这些看护机器人往往缺乏多模态情感交互能力,很难与用户建立自然的情感交流,无法正确理解用户真实的情绪状态。
随着人工智能技术和虚拟现实技术的交叉融合发展,如何利用人工智能和虚拟现实技术,及时地针对用户(尤其是老年人用户)的情感交互给予及时、准确地反馈,已经成为当前情感识别交互领域需要解决的一个技术问题。
发明内容
本发明所要解决的第一个技术问题是针对上述现有技术提供一种多模态情感交互方法。
本发明所要解决的第二个技术问题是针对上述现有技术提供一种实现上述多模态情感交互方法的智能设备。
本发明所要解决的第三个技术问题是提供一种应用有上述智能设备的多模态情感交互系统。
本发明所要解决的第四个技术问题是提供一种实现上述多模态交互方法的多模态情感交互系统。
本发明所要解决的第五个技术问题是针对上述现有技术提供一种电子设备。该电子设备包括有存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现所述的多模态情感交互方法。
本发明所要解决的第六个技术问题是针对上述现有技术提供一种可读存储介质。该可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,实现所述的多模态情感交互方法。
本发明解决第一个技术问题所采用的技术方案为:多模态情感交互方法,其特征在于,包括如下步骤:
多模态情感交互方法,其特征在于,包括如下步骤:
确定表征用户情绪的多模态输入参数集合;其中,多模态输入参数集合至少包括表征用户情绪的面部表情信息、语音对话文本信息和肢体动作信息;
根据确定的多模态输入参数集合,确定用户的当前情绪状态;
根据用户的当前情绪状态以及预设的情绪回应库,确定反馈给用户的行为表现;其中,预设的情绪回应库包括多个预设的情绪状态以及与每一个预设的情绪状态相对应的行为表现,行为表现包括反馈给用户的面部表情、姿态动作、对话文本、对话语音以及音乐音频中的至少一种;
将确定的行为表现反馈给用户;其中,该确定的行为表现由硬件设备或者虚拟智能体反馈给用户。
改进地,在本发明的所述多模态情感交互方法中,所述多模态输入参数集合中的面部表情信息按照如下步骤a1~a3的方式确定得到:
步骤a1,采集用户的面部图像;
步骤a2,根据采集的面部图像,提取得到用户的面部特征参数;
步骤a3,根据所得用户的面部特征参数以及训练好的表情分类器,得到用户的面部表情信息;其中,用户的面部表情信息包括面部表情类型和嘴部动作类型。
再改进地,在本发明的所述多模态情感交互方法中,所述多模态输入参数集合中的语音对话文本信息按照如下步骤b1~b4的方式确定得到:
步骤b1,采集用户的语音文本信息;
步骤b2,根据采集的语音文本信息做出初次判断处理:
当采集的语音文本信息中含有预设的情感词汇时,识别出用户的语音文本信息所对应的情感类型;否则,转入步骤b3;
步骤b3,根据所采集的语音文本信息做出二次判断处理:
当采集的语音文本信息中含有预设的聊天话题词汇时,将该语音文本信息中含有的聊天话题词汇作为用户的语音对话信息,调用预设的聊天话题库;否则,转入步骤b4;
步骤b4,调用预设的闲聊对话库,返回步骤b1。
改进地,在本发明的所述多模态情感交互方法中,所述多模态输入参数集合中的肢体动作信息按照如下步骤c1~c3的方式确定得到:
步骤c1,采集用户的肢体动作数据;其中,用户的肢体动作包括用户的手势动作和手臂动作的至少一种;肢体动作数据为记载有肢体动作的图像或者表征肢体动作的动作参数数据;
步骤c2,根据采集的肢体动作数据,提取得到用户的肢体动作特征参数;
步骤c3,根据所得用户的肢体动作特征参数以及预设的表征用户情绪的肢体动作特征参数,确定用户的肢体动作信息。
进一步地,在本发明的所述多模态情感交互方法中,所述行为表现按照如下步骤d1~d7的方式确定得到:
步骤d1,对所确定用户的当前情绪状态中有无面部表情做出判断:
当用户当前情绪状态中没有面部表情时,转入步骤d2;否则,转入步骤d4;
步骤d2,对所确定用户的当前情绪状态中有无对话语音做出判断:
当用户的当前情绪状态中没有对话语音时,转入步骤d3;否则,转入步骤d5;
步骤d3,向用户发出预设的提问语音,并转入步骤d1;
步骤d4,根据用户的面部表情,确定用户的当前情绪状态;
步骤d5,根据用户的对话语音文本信息,确定用户的当前情绪状态;
步骤d6,对步骤d4和步骤d5分别确定的当前情绪状态做一致性判断:
当两者一致时,转入步骤d7;否则,执行针对两者不一致的应对处理措施;
步骤d7,将位于预设的情绪回应库且与确定的当前情绪状态相对应的行为表现作为反馈给用户的行为表现。
进一步改进,本发明的所述多模态情感交互方法还包括:
设置供用户交互的情感交互场景任务;
确定用户在执行情感交互场景任务时的情绪;
根据所确定用户的情绪,调整情感交互场景任务的难度级别。
本发明解决第二个技术问题所采用的技术方案为:实现所述多模态情感交互方法的智能设备,其特征在于,包括:
多模态输入参数采集模块,采集表征用户情绪的多模态输入参数集合;其中,多模态输入参数集合至少包括表征用户情绪的面部表情信息、语音对话文本信息和肢体动作信息;
处理模块,连接多模态输入参数采集模块,根据确定的多模态输入参数集合,确定用户的当前情绪状态,以及根据所确定用户的当前情绪状态和预设的情绪回应库,确定反馈给用户的行为表现;其中,预设的情绪回应库包括多个预设的情绪状态以及与每一个预设的情绪状态相对应的行为表现,行为表现包括反馈给用户的面部表情、姿态动作、对话文本、对话语音以及音乐音频中的至少一种;
行为表现模块,连接处理模块,将确定的所述行为表现反馈给用户。
进一步地,在本发明的所述智能设备中,所述多模态输入参数采集模块包括:
第一摄像采集单元,连接处理模块,采集用户的面部图像;
第二摄像采集单元,连接处理模块,采集用户的肢体动作图像;
语音采集装置,连接处理模块,采集用户的语音数据。
进一步改进,在该发明的智能设备中,所述行为表现模块包括:
显示单元,连接处理模块,显示与用户当前情绪状态相对应的面部表情;
语音播放装置,连接处理模块,播放与用户当前情绪状态相对应的语音信息;
肢体动作执行装置,连接处理模块,执行与用户当前情绪状态相对应的肢体动作。
本发明解决第三个技术问题所采用的技术方案为:多模态情感交互系统,其特征在于,应用有任一项所述的智能设备。
本发明解决第四个技术问题所采用的技术方案为:多模态情感交互系统,其特征在于,包括:
虚拟智能体生成装置,形成展示给用户的虚拟智能体外形;
多模态输入参数采集模块,采集表征用户情绪的多模态输入参数集合;其中,多模态输入参数集合至少包括表征用户情绪的面部表情信息、语音对话文本信息和肢体动作信息;
处理模块,分别连接虚拟智能体生成装置和多模态输入参数采集模块,根据确定的多模态输入参数集合,确定用户的当前情绪状态,以及根据所确定用户的当前情绪状态和预设的情绪回应库,确定虚拟智能体反馈给用户的行为表现;其中,预设的情绪回应库包括多个预设的情绪状态以及与每一个预设的情绪状态相对应的行为表现,行为表现包括反馈给用户的面部表情、姿态动作、对话文本、对话语音以及音乐音频中的至少一种;
其中,虚拟智能体生成装置根据处理模块确定的所述行为表现做出处理,以由虚拟智能体将所述行为表现反馈给用户。
本发明解决第五个技术问题所采用的技术方案为:电子设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现任一项所述的多模态情感交互方法。
本发明解决第六个技术问题所采用的技术方案为:可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现任一项所述的多模态情感交互方法。
与现有技术相比,本发明的优点在于:
首先,该发明中的多模态情感交互方法通过多通道分别采集表征用户情绪的多种模态参数(如面部表情信息、语音对话文本信息和肢体动作信息),再通过对所采集的这些多模态参数做融合处理,全面准确得到用户的当前面部情绪,避免了传统情感交互方法仅仅基于单通道所采集用户模态参数(诸如仅仅通过面部表情信息)来识别用户情绪时的不准确、容易误判的缺陷和不足;
其次,该发明中的多模态情感交互方法结合了虚拟现实技术,引入了“虚拟智能体”这一特定对象,在多模态情感交互过程中,虚拟智能体可以准确地“感知”到用户的当前情绪,并且还可以针对用户的当前情绪做出诸如面部表情、语音对话和肢体动作等方面的行为表现反馈,满足用户情绪体验需求,尤其是老年人用户独处时的聊天和情感交互需要,而且整个情感交互场景可以模拟日常生活情景;
最后,该发明的多模态情感交互方法充分考虑不同用户在情感交互时的差异性,通过预设情感交互场景任务,且根据用户执行预设情感交互场景任务过程中的情绪调整情感交互的难度,从而可以更好地满足不同用户针对人机交互过程中的个性化需求。
附图说明
图1为本发明实施例中的多模态情感交互方法流程示意图;
图2为本发明实施例的多模态输入参数集合中的面部表情信息确定流程示意图;
图3为本发明实施例的多模态输入参数集合中的语音对话文本信息确定流程示意图;
图4为本发明实施例的多模态输入参数集合中的肢体动作信息确定流程示意图;
图5为本发明实施例的智能设备的主要组成部件连接示意图;
图6为本发明实施例中的一种多模态情感交互系统示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
参见图1所示,本实施例提供一种多模态情感交互方法,实现与用户的情感交互。具体地,该实施例的多模态情感交互方法包括如下步骤1~4:
步骤1,确定表征用户情绪的多模态输入参数集合;其中,多模态输入参数集合至少包括表征用户情绪的面部表情信息、语音对话文本信息和肢体动作信息;在该实施例中,表征用户情绪的面部表情信息为高兴、恐惧、惊奇、悲伤、厌恶和愤怒这6种面部表情;表征用户情绪的语音对话文本信息可以是含有情感词汇的语音或者含有聊天话题词汇的语音;表征用户情绪的肢体动作信息可以是手势形状和手臂运动状态;其中:
在该实施例中,参见图2所示,多模态输入参数集合中的面部表情信息按照如下步骤a1~a3的方式确定得到:
步骤a1,采集用户的面部图像;例如,此处优选采集用户面部的正面图像;
步骤a2,根据采集的面部图像,提取得到用户的面部特征参数;比如说,在所采集到的用户面部的正面图像中,用户嘴部所展现的情况为“张嘴”或者“撇嘴”,那么就将“张嘴”和“撇嘴”所对应的图像特征分别作为用户的一个面部特征参数;
步骤a3,根据所得用户的面部特征参数以及训练好的表情分类器,得到用户的面部表情信息;其中,用户的面部表情信息包括面部表情类型和嘴部动作类型。假设,该实施例将“撇嘴”所对应的图像特征作为表征用户“厌恶”的情绪,那么,在提取到用户的面部特征参数为“撇嘴”时,就得到用户的面部表情信息为“厌恶”。
在该实施例中,参见图3所示,多模态输入参数集合中的语音对话文本信息按照如下步骤b1~b3的方式确定得到:
步骤b1,采集用户的语音文本信息;
步骤b2,根据采集的语音文本信息做出初次判断处理:
当采集的语音文本信息中含有预设的情感词汇时,识别出用户的语音文本的情感类型;否则,转入步骤b3;其中,预设的情感词汇可以是“生气”、“讨厌”、“喜好”或者“高兴”等日常生活沟通交流中常见的情感词汇;
步骤b3,根据所采集的语音文本信息做出二次判断处理:
当采集的语音文本信息中含有预设的聊天话题词汇时,将该语音文本信息中含有的聊天话题词汇作为用户的语音对话信息,调用预设的聊天话题库;否则,转入步骤b4;其中,预设的聊天话题词汇可以根据需要设置,比如此处的聊天话题词汇可以是“健康养生”、“老年医疗保健”或者“老年休闲运动”等日常生活沟通交流中常见的聊天话题词汇。
步骤b4,调用预设的闲聊对话库,返回步骤b1。其中,该实施例中预设的闲聊对话库可以是一些针对闲聊的话题词汇。
在该实施例中,参见图4所示,多模态输入参数集合中的肢体动作信息按照如下步骤c1~c3的方式确定得到:
步骤c1,采集用户的肢体动作数据;其中,用户的肢体动作包括用户的手势动作和手臂动作;肢体动作数据为记载有肢体动作的图像;比如说,采集到的用户的一个肢体动作图像记载有用户“挥手”的动作;
步骤c2,根据所采集的肢体动作数据,提取得到用户的肢体动作特征参数;例如,根据所采集的肢体动作图像中的“挥手”动作,提取得到用户的手臂与胳膊之间所形成的弯折角度;
步骤c3,根据所得用户的肢体动作特征参数以及预设的表征用户情绪的肢体动作特征参数,得到用户的肢体动作信息。假设,预先设置上述的弯折角度为θ,那么,一旦在肢体动作图像中提取到了弯折角度θ,就认定该用户的肢体动作信息为“挥手”动作。
步骤2,根据确定的多模态输入参数集合,确定用户的当前情绪状态;
假设在该实施例中,当经过步骤1的处理,确定用户的面部表情为“张嘴”、语音对话信息中含有“情感词汇”和“聊天话题词汇”以及肢体动作信息中存在有预设的肢体动作信息时,此处就判定该用户的当前情绪为“高兴”;其中,该实施例会提前建立用户的多模态输入参数集合与对应各多模态输入参数集合的情绪之间的预设情绪列表;
步骤3,根据用户的当前情绪状态以及预设的情绪回应库,确定反馈给用户的行为表现;其中,预设的情绪回应库包括多个预设的情绪状态以及与每一个预设的情绪状态相对应的行为表现,行为表现包括反馈给用户的面部表情、姿态动作、对话文本、对话语音以及音乐音频中的至少一种;面部表情可以伴随有眨眼和皱眉头等动作;对话文本是带有词汇的日常对话文本,对话语音也可以是带有词汇的日常对话语音,音乐音频可以是针对不同类型情绪的音乐数据。
在该实施例中,所述行为表现按照如下步骤d1~d7的方式确定得到:
步骤d1,对所确定用户的当前情绪中有无面部表情做出判断:
当用户当前情绪中没有面部表情时,转入步骤d2;否则,转入步骤d4;
步骤d2,对所确定用户的当前情绪中有无对话语音做出判断:
当用户的当前情绪中没有对话语音时,转入步骤d3;否则,转入步骤d5;
步骤d3,向用户发出预设的提问语音,并转入步骤d1;
步骤d4,根据用户的面部表情,确定用户的当前情绪状态;
步骤d5,根据用户的对话语音文本信息,确定用户的当前情绪状态;
步骤d6,对步骤d4和步骤d5分别确定的当前情绪状态做一致性判断:
当两者一致时,转入步骤d7;否则,执行针对两者不一致的应对处理措施;例如,此处的应对处理措施为执行针对两者不一致的对话引导,通过后续的对话来确认用户的情绪类型。
步骤d7,将位于预设的情绪回应库且与确定的当前情绪状态相对应的行为表现作为虚拟智能体反馈给用户的行为表现。此处的“回应”可以是显示面部表情或者展示执行的肢体动作或者反馈对话语音或者显示面部表情、展示执行的肢体动作以及反馈对话语音中的任意结合。
步骤4,将确定的行为表现由虚拟智能体反馈给用户。此处的虚拟智能体可以是通过投射设备投射出来的虚拟人物模型或者虚拟动物模型。当然,该虚拟智能体也可以是由显示屏所显示出来的虚拟人物模型或者虚拟动物模型。此处需要说明的是,本领域技术人员熟知,人工智能技术的应用在于部署各种智能体的应用,智能体(agents)是人工智能领域的核心概念,智能体是具有自主决策能力的智能单元。而此处的虚拟智能体(intelligent virtual agents)是智能体概念在虚拟现实领域中的延伸。虚拟智能体是具有自主行为的类人型图形化实体,用以模拟人或者其他生命体。它具有内在的认知结构设计,具有自主行为和情绪能力。
另外,也可以根据实际的需要,将确定的行为表现由类似看护机器人的这种实体硬件设备反馈给用户。
在实际的情况中,还可以根据需要,在该实施例的多模态情感交互方法中设置情感交互场景,以增强用户的情感交互体验。例如,该实施例的多模态情感交互方法可以包括如下步骤:
设置供用户交互的情感交互场景任务;其中,情感交互场景可以是客厅聊天场景或者室内健身运动场景等日常生活中的常见场景;
确定用户在执行情感交互场景任务时的情绪;其中,用户在执行情感交互场景任务时的情绪可以利用步骤1和步骤2的方式确定得到;
根据所确定用户的情绪,调整情感交互场景任务的难度级别。比如说,在用户执行完毕客厅聊天场景交互任务时,确定到用户的情绪为“高兴”,那么就继续增大情感交互场景任务的难度级别;在用户执行完毕客厅聊天场景交互任务时,确定到用户的情绪为“厌恶”,那么就降低情感交互场景任务的难度级别。
该实施例提供了一种实现上述多模态情感交互方法的智能设备。参见图5所示,该智能设备包括多模态输入参数采集模块11、处理模块12和行为表现模块13,多模态输入参数采集模块1包括第一摄像采集单元111、第二摄像采集单元112和语音采集装置113,第二摄像采集单元112采用Kinect深度相机,第一摄像采集单元111、第二摄像采集单元112和语音采集装置113分别连接处理模块12,行为表现模块13包括显示单元131、语音播放装置132和肢体动作执行装置133,显示单元131、语音播放装置132和肢体动作执行装置133分别连接处理模块12。其中:
第一摄像采集单元111采集用户的面部图像,以得到表征用户情绪的面部表情信息;
第二摄像采集单元112采集用户的肢体动作图像,以得到表征用户情绪的肢体动作信息;
语音采集装置113采集用户的语音数据,尤其是对话时的语音数据,以得到表征用户情绪的语音对话信息;
处理模块2,连接多模态输入参数采集模块11,根据确定的多模态输入参数集合,确定用户的当前情绪状态,以及根据所确定用户的当前情绪状态和预设的情绪回应库,确定反馈给用户的行为表现;其中,预设的情绪回应库包括多个预设的情绪状态以及与每一个预设的情绪状态相对应的行为表现,行为表现包括反馈给用户的面部表情、姿态动作、对话文本、对话语音以及音乐音频中的至少一种;
行为表现模块13将处理模块2确定的所述行为表现对应的反馈给用户。具体地:
显示单元131,至少显示与用户当前情绪状态相对应的面部表情,将该面部表情展示给用户;
语音播放装置132,至少播放与用户当前情绪状态相对应的语音信息,将该语音信息反馈给用户;
肢体动作执行装置133,至少执行与用户当前情绪状态相对应的肢体动作,将该肢体动作展示给用户。该智能设备可以根据需要做成各种形状。例如,可以是动物的形状、人体的形状或者其他所需要的形状。
另外,该实施例提供了一种多模态情感交互系统,该多模态情感交互系统应用有上述的智能设备。
不仅如此,该实施例也提供了另外一种多模态情感交互系统。参见图6所示,该多模态情感交互系统包括虚拟智能体生成装置10’、多模态输入参数采集模块11’和处理模块12’,虚拟智能体生成装置10’和多模态输入参数采集模块11’分别连接处理模块12’。其中:
虚拟智能体生成装置10’,形成展示给用户的虚拟智能体外形;
多模态输入参数采集模块11’,采集表征用户情绪的多模态输入参数集合;其中,多模态输入参数集合至少包括表征用户情绪的面部表情信息、语音对话文本信息和肢体动作信息;此处的多模态输入参数采集模块11’与图5中所示的多模态输入参数采集模块11具有相同的组成部件;
处理模块12’,分别连接虚拟智能体生成装置10’和多模态输入参数采集模块11’,根据确定的多模态输入参数集合,确定用户的当前情绪状态,以及根据所确定用户的当前情绪状态和预设的情绪回应库,确定上述虚拟智能体反馈给用户的行为表现;其中,预设的情绪回应库包括多个预设的情绪状态以及与每一个预设的情绪状态相对应的行为表现,行为表现包括反馈给用户的面部表情、姿态动作、对话文本、对话语音以及音乐中的至少一种;
其中,虚拟智能体生成装置10’根据处理模块12’确定的所述行为表现做出处理,以由其形成的虚拟智能体将所述行为表现反馈给用户。
此处的虚拟智能体生成装置10’可以是一种投射设备,该投射设备(即虚拟智能体生成装置10’)可以投射出虚拟智能体动态形象(虚拟人物模型或者虚拟动物模型);当然,虚拟智能体生成装置10’也可以根据需要采用显示屏,由显示屏把形成的虚拟智能体(如虚拟人物模型或者虚拟动物模型)展示给用户。
例如,经过处理模块12’的处理,确定反馈给用户当前情绪的行为表现为:面部表情是“高兴”、语音对话是“祝您生日快乐”以及肢体动作是“挥手”,那么,虚拟智能体生成装置10’就把该行为表现做处理,然后由其形成的虚拟智能体表现出“高兴”的面部表情、发出“祝您生日快乐”的语音(实际为语音播放装置播放)以及展示出“挥手”的肢体动作。
当然,该实施例还提供了一种电子设备。该电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该处理器执行计算机程序时,实现上述的多模态情感交互方法。电子设备可以是计算机或者其他设备。
不仅如此,该实施例也提供了一种可读存储介质。具体地,该可读存储介质上存储有计算机程序,该计算机程序被处理器执行时,实现上述的多模态情感交互方法。此处的可读存储介质可以包括:通用串行总线闪存盘(USB,Universal Serial Bus flash drive)、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁碟或者光盘等各种可以存储程序代码的存储介质。
本发明实施例中的各功能单元可以集成在一个处理单元中,或者各个单元也可以均是独立的物理模块。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备,例如可以是个人计算机、服务器或者网络设备等,或处理器执行本发明各个实施例所述方法的全部或部分步骤。
计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
在本发明所提供的实施例中,应该理解到,所揭示的系统、设备和方法,也可以通过其它方式实现。以上所描述的实施例仅仅是示意性的。流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,上述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
尽管以上详细地描述了本发明的优选实施例,但是应该清楚地理解,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.多模态情感交互方法,其特征在于,包括如下步骤:
确定表征用户情绪的多模态输入参数集合;其中,多模态输入参数集合至少包括表征用户情绪的面部表情信息、语音对话文本信息和肢体动作信息;语音对话文本信息按照如下步骤b1~b3的方式确定得到:
步骤b1,采集用户的语音文本信息;
步骤b2,根据采集的语音文本信息做出初次判断处理:
当采集的语音文本信息中含有预设的情感词汇时,识别出用户的语音文本信息所对应的情感类型;否则,转入步骤b3;
步骤b3,根据所采集的语音文本信息做出二次判断处理:
当采集的语音文本信息中含有预设的聊天话题词汇时,将该语音文本信息中含有的聊天话题词汇作为用户的语音对话信息,调用预设的聊天话题库;否则,转入步骤b4;
步骤b4,调用预设的闲聊对话库,返回步骤b1;
虚拟智能体根据确定的多模态输入参数集合,确定用户的当前情绪状态;其中,虚拟智能体是具有自主行为的类人型图形化实体,具有内在的认知结构设计以及自主行为和情绪能力;
虚拟智能体根据用户的当前情绪状态以及预设的情绪回应库,确定反馈给用户的行为表现;其中,预设的情绪回应库包括多个预设的情绪状态以及与每一个预设的情绪状态相对应的行为表现,行为表现包括反馈给用户的面部表情、姿态动作、对话文本、对话语音以及音乐音频中的至少一种;反馈给用户的行为表现按照如下步骤d1~d7的方式确定得到:
步骤d1,对所确定用户的当前情绪状态中有无面部表情做出判断:
当用户当前情绪状态中没有面部表情时,转入步骤d2;否则,转入步骤d4;
步骤d2,对所确定用户的当前情绪状态中有无对话语音做出判断:
当用户的当前情绪状态中没有对话语音时,转入步骤d3;否则,转入步骤d5;
步骤d3,向用户发出预设的提问语音,并转入步骤d1;
步骤d4,根据用户的面部表情,确定用户的当前情绪状态;
步骤d5,根据用户的对话语音文本信息,确定用户的当前情绪状态;
步骤d6,对步骤d4和步骤d5分别确定的当前情绪状态做一致性判断:
当两者一致时,转入步骤d7;否则,执行针对两者不一致的应对处理措施;
步骤d7,将位于预设的情绪回应库且与确定的当前情绪状态相对应的行为表现作为反馈给用户的行为表现;
由虚拟智能体将确定的行为表现反馈给用户;
以及,设置供用户交互的情感交互场景任务;
确定用户在执行情感交互场景任务时的情绪;
根据所确定用户的情绪,调整情感交互场景任务的难度级别。
2.根据权利要求1所述的多模态情感交互方法,其特征在于,所述多模态输入参数集合中的面部表情信息按照如下步骤a1~a3的方式确定得到:
步骤a1,采集用户的面部图像;
步骤a2,根据采集的面部图像,提取得到用户的面部特征参数;
步骤a3,根据所得用户的面部特征参数以及训练好的表情分类器,得到用户的面部表情信息;其中,用户的面部表情信息包括面部表情类型和嘴部动作类型。
3.根据权利要求1所述的多模态情感交互方法,其特征在于,所述多模态输入参数集合中的肢体动作信息按照如下步骤c1~c3的方式确定得到:
步骤c1,采集用户的肢体动作数据;其中,用户的肢体动作包括用户的手势动作和手臂动作的至少一种;肢体动作数据为记载有肢体动作的图像或者表征肢体动作的动作参数数据;
步骤c2,根据采集的肢体动作数据,提取得到用户的肢体动作特征参数;
步骤c3,根据所得用户的肢体动作特征参数以及预设的表征用户情绪的肢体动作特征参数,得到用户的肢体动作信息。
4.实现权利要求1所述多模态情感交互方法的智能设备,其特征在于,包括:
多模态输入参数采集模块,采集表征用户情绪的多模态输入参数集合;其中,多模态输入参数集合至少包括表征用户情绪的面部表情信息、语音对话文本信息和肢体动作信息;
处理模块,连接多模态输入参数采集模块,根据确定的多模态输入参数集合,确定用户的当前情绪状态,以及根据所确定用户的当前情绪状态和预设的情绪回应库,确定反馈给用户的行为表现;其中,预设的情绪回应库包括多个预设的情绪状态以及与每一个预设的情绪状态相对应的行为表现,行为表现包括反馈给用户的面部表情、姿态动作、对话文本、对话语音以及音乐音频中的至少一种;
行为表现模块,连接处理模块,将确定的所述行为表现反馈给用户。
5.根据权利要求4所述的智能设备,其特征在于,所述多模态输入参数采集模块包括:
第一摄像采集单元(11),连接处理模块(2),采集用户的面部图像;
第二摄像采集单元(12),连接处理模块(2),采集用户的肢体动作图像;
语音采集装置(13),连接处理模块(2),采集用户的语音数据。
6.根据权利要求5所述的智能设备,其特征在于,所述行为表现模块包括:
显示单元(31),连接处理模块(2),显示与用户当前情绪状态相对应的面部表情;
语音播放装置(32),连接处理模块(2),播放与用户当前情绪状态相对应的语音信息;
肢体动作执行装置(33),连接处理模块(2),执行与用户当前情绪状态相对应的肢体动作。
7.多模态情感交互系统,其特征在于,应用有权利要求4~6任一项所述的智能设备。
8.多模态情感交互系统,其特征在于,包括:
虚拟智能体生成装置,形成展示给用户的虚拟智能体外形;其中,虚拟智能体是具有自主行为的类人型图形化实体,具有内在的认知结构设计以及自主行为和情绪能力;
多模态输入参数采集模块,采集表征用户情绪的多模态输入参数集合;其中,多模态输入参数集合至少包括表征用户情绪的面部表情信息、语音对话文本信息和肢体动作信息;
处理模块,分别连接虚拟智能体生成装置和多模态输入参数采集模块,根据确定的多模态输入参数集合,确定用户的当前情绪状态,以及根据所确定用户的当前情绪状态和预设的情绪回应库,确定虚拟智能体反馈给用户的行为表现,以及设置供用户交互的情感交互场景任务,确定用户在执行情感交互场景任务时的情绪,根据所确定用户的情绪,调整情感交互场景任务的难度级别;其中,预设的情绪回应库包括多个预设的情绪状态以及与每一个预设的情绪状态相对应的行为表现,行为表现包括反馈给用户的面部表情、姿态动作、对话文本、对话语音以及音乐音频中的至少一种;多模态输入参数集合中的语音对话文本信息按照如下步骤b1~b3的方式确定得到:
步骤b1,采集用户的语音文本信息;
步骤b2,根据采集的语音文本信息做出初次判断处理:
当采集的语音文本信息中含有预设的情感词汇时,识别出用户的语音文本信息所对应的情感类型;否则,转入步骤b3;
步骤b3,根据所采集的语音文本信息做出二次判断处理:
当采集的语音文本信息中含有预设的聊天话题词汇时,将该语音文本信息中含有的聊天话题词汇作为用户的语音对话信息,调用预设的聊天话题库;否则,转入步骤b4;
步骤b4,调用预设的闲聊对话库,返回步骤b1;
反馈给用户的行为表现按照如下步骤d1~d7的方式确定得到:
步骤d1,对所确定用户的当前情绪状态中有无面部表情做出判断:
当用户当前情绪状态中没有面部表情时,转入步骤d2;否则,转入步骤d4;
步骤d2,对所确定用户的当前情绪状态中有无对话语音做出判断:
当用户的当前情绪状态中没有对话语音时,转入步骤d3;否则,转入步骤d5;
步骤d3,向用户发出预设的提问语音,并转入步骤d1;
步骤d4,根据用户的面部表情,确定用户的当前情绪状态;
步骤d5,根据用户的对话语音文本信息,确定用户的当前情绪状态;
步骤d6,对步骤d4和步骤d5分别确定的当前情绪状态做一致性判断:
当两者一致时,转入步骤d7;否则,执行针对两者不一致的应对处理措施;
步骤d7,将位于预设的情绪回应库且与确定的当前情绪状态相对应的行为表现作为反馈给用户的行为表现;
其中,虚拟智能体生成装置根据处理模块确定的所述行为表现做出处理,以由虚拟智能体将所述行为表现反馈给用户。
9.电子设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如权利要求1~3中任一项所述的多模态情感交互方法。
10.可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1~3中任一项所述的多模态情感交互方法。
CN202011384601.9A 2020-12-01 2020-12-01 多模态情感交互方法、智能设备、系统、电子设备及介质 Active CN112379780B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011384601.9A CN112379780B (zh) 2020-12-01 2020-12-01 多模态情感交互方法、智能设备、系统、电子设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011384601.9A CN112379780B (zh) 2020-12-01 2020-12-01 多模态情感交互方法、智能设备、系统、电子设备及介质

Publications (2)

Publication Number Publication Date
CN112379780A CN112379780A (zh) 2021-02-19
CN112379780B true CN112379780B (zh) 2021-10-26

Family

ID=74589169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011384601.9A Active CN112379780B (zh) 2020-12-01 2020-12-01 多模态情感交互方法、智能设备、系统、电子设备及介质

Country Status (1)

Country Link
CN (1) CN112379780B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113238654A (zh) * 2021-05-19 2021-08-10 宋睿华 基于多模态的反应式响应生成
CN113593521B (zh) * 2021-07-29 2022-09-20 北京三快在线科技有限公司 语音合成方法、装置、设备及可读存储介质
CN114047901B (zh) * 2021-11-25 2024-03-15 阿里巴巴(中国)有限公司 人机交互方法及智能设备
CN114969282B (zh) * 2022-05-05 2024-02-06 迈吉客科技(北京)有限公司 基于富媒体知识图谱多模态情感分析模型的智能交互方法
CN116662503B (zh) * 2023-05-22 2023-12-29 深圳市新美网络科技有限公司 私域用户场景话术推荐方法及其系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105082150A (zh) * 2015-08-25 2015-11-25 国家康复辅具研究中心 一种基于用户情绪及意图识别的机器人人机交互方法
CN105739688A (zh) * 2016-01-21 2016-07-06 北京光年无限科技有限公司 一种基于情感体系的人机交互方法、装置和交互系统
CN109040471A (zh) * 2018-10-15 2018-12-18 Oppo广东移动通信有限公司 情绪提示方法、装置、移动终端以及存储介质
CN109271018A (zh) * 2018-08-21 2019-01-25 北京光年无限科技有限公司 基于虚拟人行为标准的交互方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2933071A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems for managing dialogs of a robot
CN106773923B (zh) * 2016-11-30 2020-04-21 北京光年无限科技有限公司 面向机器人的多模态情感数据交互方法及装置
CN111368609B (zh) * 2018-12-26 2023-10-17 深圳Tcl新技术有限公司 基于情绪引擎技术的语音交互方法、智能终端及存储介质
CN110370275A (zh) * 2019-07-01 2019-10-25 夏博洋 基于表情识别的情绪聊天机器人

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105082150A (zh) * 2015-08-25 2015-11-25 国家康复辅具研究中心 一种基于用户情绪及意图识别的机器人人机交互方法
CN105739688A (zh) * 2016-01-21 2016-07-06 北京光年无限科技有限公司 一种基于情感体系的人机交互方法、装置和交互系统
CN109271018A (zh) * 2018-08-21 2019-01-25 北京光年无限科技有限公司 基于虚拟人行为标准的交互方法及系统
CN109040471A (zh) * 2018-10-15 2018-12-18 Oppo广东移动通信有限公司 情绪提示方法、装置、移动终端以及存储介质

Also Published As

Publication number Publication date
CN112379780A (zh) 2021-02-19

Similar Documents

Publication Publication Date Title
CN112379780B (zh) 多模态情感交互方法、智能设备、系统、电子设备及介质
Kucherenko et al. Gesticulator: A framework for semantically-aware speech-driven gesture generation
CN106653052B (zh) 虚拟人脸动画的生成方法及装置
EP3381175B1 (en) Apparatus and method for operating personal agent
CN109789550B (zh) 基于小说或表演中的先前角色描绘的社交机器人的控制
US9724824B1 (en) Sensor use and analysis for dynamic update of interaction in a social robot
CN112162628A (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
US6526395B1 (en) Application of personality models and interaction with synthetic characters in a computing system
CN108942919B (zh) 一种基于虚拟人的交互方法及系统
Hegel et al. Playing a different imitation game: Interaction with an Empathic Android Robot
US20150072322A1 (en) Situated simulation for training, education, and therapy
CN108326855A (zh) 一种机器人的交互方法、装置、设备以及存储介质
US11817005B2 (en) Internet of things public speaking coach
WO2008067413A2 (en) Training system using an interactive prompt character
JP4641389B2 (ja) 情報処理方法、情報処理装置
Yalçın et al. Evaluating levels of emotional contagion with an embodied conversational agent
Chastagnol et al. Designing an emotion detection system for a socially intelligent human-robot interaction
Bosse et al. Integrating conversation trees and cognitive models within an eca for aggression de-escalation training
Wang et al. A database for emotional interactions of the elderly
Wicke et al. Storytelling by a Show of Hands: A framework for interactive embodied storytelling in robotic agents
JP5515173B2 (ja) 頭部動作制御情報生成装置
Babu et al. Marve: a prototype virtual human interface framework for studying human-virtual human interaction
CN111967380A (zh) 内容推荐方法及系统
CN114270435A (zh) 基于知识追踪的智能对话的系统和方法
EP3664100A1 (en) Associating non-verbal communication content with verbal communication content

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant