CN106203344A - 一种用于智能机器人的情绪识别方法及系统 - Google Patents

一种用于智能机器人的情绪识别方法及系统 Download PDF

Info

Publication number
CN106203344A
CN106203344A CN201610546832.2A CN201610546832A CN106203344A CN 106203344 A CN106203344 A CN 106203344A CN 201610546832 A CN201610546832 A CN 201610546832A CN 106203344 A CN106203344 A CN 106203344A
Authority
CN
China
Prior art keywords
information
emotional
emotion
user
modal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610546832.2A
Other languages
English (en)
Inventor
韦克礼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Guangnian Wuxian Technology Co Ltd
Original Assignee
Beijing Guangnian Wuxian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Guangnian Wuxian Technology Co Ltd filed Critical Beijing Guangnian Wuxian Technology Co Ltd
Priority to CN201610546832.2A priority Critical patent/CN106203344A/zh
Publication of CN106203344A publication Critical patent/CN106203344A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Abstract

一种用于智能机器人的情绪识别方法及系统,其中,该包括:交互信息获取步骤,获取用户输入的多模态交互信息;交互信息解析步骤,对多模态交互信息进行解析,分别根据多模态交互信息确定出至少两种情绪信息,得到情绪信息集合;情绪识别步骤,根据情绪信息集合,确定出用户的当前情绪。相较于现有技术,本方法能够使得情绪识别结果更加准确可靠,这样也就可以避免在用户言行不一等情况下情绪识别结果错误的问题。

Description

一种用于智能机器人的情绪识别方法及系统
技术领域
本发明涉及人机交互技术领域,具体地说,涉及一种用于智能机器人的情绪识别方法及系统。
背景技术
随着科学技术的不断发展,信息技术、计算机技术以及人工智能技术的引入,机器人的研究已经逐步走出工业领域,逐渐扩展到了医疗、保健、家庭、娱乐以及服务行业等领域。而人们对于机器人的要求也从简单重复的机械动作提升为具有拟人问答、自主性及与其他机器人进行交互的智能机器人,人机交互也就成为决定智能机器人发展的重要因素。
然而对于现有的智能机器人来说,目前的情绪处理能力有限,通常仅仅是基于用户的语音转换的文本进行情绪的确定,导致情绪确定的准确率较低,从而影响与用户交互的准确性,使得智能机器人的用户体验降低。
发明内容
为解决上述问题,本发明提供了一种用于智能机器人的情绪识别方法,其包括:
交互信息获取步骤,获取用户输入的多模态交互信息;
交互信息解析步骤,对所述多模态交互信息进行解析,根据所述多模态交互信息确定出至少两种情绪信息,得到情绪信息集合;
情绪识别步骤,根据所述情绪信息集合,确定出所述用户的当前情绪。
根据本发明的一个实施例,所述多模态交互信息包括:
语音信息、文本信息、视觉信息和触觉信息。
根据本发明的一个实施例,在所述交互信息解析步骤中:
对所述语音信息进行分析,提取出用户的语调信息和/或语气信息,根据所述语调信息和/或语气信息生成语音情绪信息;且/或,
对所述文本信息进行语法分析,生成文本情绪信息;且/或,
对所述视觉信息信息进行图像处理和情绪识别处理,生成视觉情绪信息;且/或,
根据所述触觉信息确定出所述用户与所述智能机器人接触的位置信息和/或力度信息,根据所述位置信息和/或力度信息生成触觉情绪信息;且/或,
对所述语音信息进行解析,生成语音文本信息,对所述语音文本信息进行语法分析,生成语音文本情绪信息。
根据本发明的一个实施例,在所述情绪识别步骤中,判断所述情绪信息集合中所包含的情绪信息所表征的情绪是否相同,如果相同,则将所述情绪信息所表征的情绪作为所述用户的当前情绪。
根据本发明的一个实施例,如果所述情绪信息集合中所包含的情绪信息所表征的情绪不全相同,则利用预设多模态情绪识别模型根据所述情绪信息集合确定所述用户的当前情绪。
根据本发明的一个实施例,所述方法还包括:
反馈信息生成步骤,根据所述用户的当前情绪生成相应的多模态反馈信息并输出。
本发明还提供了一种用于智能机器人的情绪识别系统,其包括:
交互信息获取模块,用于获取用户输入的多模态交互信息;
交互信息解析模块,用于对所述多模态交互信息进行解析,根据所述多模态交互信息确定出至少两种情绪信息,得到情绪信息集合;
情绪识别模块,用于根据所述情绪信息集合,确定出所述用户的当前情绪。
根据本发明的一个实施例,所述多模态交互信息包括:
语音信息、文本信息、视觉信息和触觉信息。
根据本发明的一个实施例,所述交互信息解析模块配置为:
对所述语音信息进行分析,提取出用户的语调信息和/或语气信息,根据所述语调信息和/或语气信息生成语音情绪信息;且/或,
对所述文本信息进行语法分析,生成文本情绪信息;且/或,
对所述视觉信息信息进行图像处理和情绪识别处理,生成视觉情绪信息;且/或,
根据所述触觉信息确定出所述用户与所述智能机器人接触的位置信息和/或力度信息,根据所述位置信息和/或力度信息生成触觉情绪信息;且/或,
对所述语音信息进行解析,生成语音文本信息,对所述语音文本信息进行语法分析,生成语音文本情绪信息。
根据本发明的一个实施例,所述情绪识别模块配置为判断所述情绪信息集合中所包含的情绪信息所表征的情绪是否相同,如果相同,则将所述情绪信息所表征的情绪作为所述用户的当前情绪。
根据本发明的一个实施例,如果所述情绪信息集合中所包含的情绪信息所表征的情绪不全相同,所述情绪识别模块配置则配置为利用预设多模态情绪识别模型根据所述情绪信息集合确定所述用户的当前情绪。
根据本发明的一个实施例,所述系统还包括:
反馈信息生成模块,用于根据所述用户的当前情绪生成相应的多模态反馈信息并输出。
本发明所提供的用于智能机器人的情绪识别方法及系统不再像现有的情绪识别方法那样单纯依赖自动语音识别结果来进行用户的情绪识别,本方法可以通过语音感知、视觉感知以及触觉感知等多模态的方式来综合进行情绪识别,因此相较于现有技术,本方法能够使得情绪识别结果更加准确可靠,这样也就可以避免在用户言行不一等情况下情绪识别结果错误的问题。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要的附图做简单的介绍:
图1是根据本发明一个实施例的用于智能机器人的情绪识别方法的实现流程示意图;
图2是根据本发明另一个实施例的用于智能机器人的情绪识别方法的实现流程示意图;
图3是根据本发明一个实施例的用于智能机器人的情绪识别系统的结构示意图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程能充分理解并据以实施。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
同时,在以下说明中,出于解释的目的而阐述了许多具体细节,以提供对本发明实施例的彻底理解。然而,对本领域的技术人员来说显而易见的是,本发明可以不用这里的具体细节或者所描述的特定方式来实施。
另外,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例一:
图1示出了本实施例所提供的面向智能机器人的情绪识别方法的实现流程示意图。
如图1所示,本实施例所提供的情绪识别方法首先在步骤S101中获取用户输入的多模态交互信息。
本实施例中,该方法可以通过智能机器人获取到多种交互信息。优选地,该方法在步骤S101中所获取的多模态交互信息中可以包括:语音信息、视觉信息以及触觉信息。
其中,该方法可以通过智能机器人所配置的音频传感器(例如麦克风)来获取用户输入的语音信息,可以通过智能机器人所配置的文本输入设备(例如键盘)来获取用户输入的文本信息,可以通过智能机器人所配置的视频传感器(例如摄像头)来获取用户输入的视频信息,可以通过配置在智能机器人壳体或内部的相应传感器(例如压力传感器等)来获取用户输入的触觉信息。
需要指出的是,在本发明的其他实施例中,该方法还可以通过其他合理方式来获取上述多模态交互信息,本发明不限于此。同时,根据实际需要,该方法所获取到的多模态交互信息既可以仅包含以上所列项中的某两项或三项,也可以包含其他未列出的合理项,抑或是其他未列出的合理项与上述所列项中任一项或几项的组合,本发明同样不限于此。
得到用户输入的多模态交互信息后,如图1所示,本方法在步骤S102中对多模态交互信息进行解析,根据多模态交互信息确定出至少两种情绪信息,得到情绪信息集合。
例如,如果步骤S101中所得到的多模态交互信息包括语音信息和视觉信息,该方法则在步骤S102中分别对语音信息和视觉信息进行解析,从而对应得到情绪信息。
本实施例中,对于语音信息来说,该方法首先通过对上述语音信息进行分析来提取出用户的语调信息,随后根据该语调信息来生成语调情绪信息。而对于视觉信息来说,该方法则通过对该视觉信息进行图像处理和情绪识别处理,从而生成视觉情绪信息,另外,还可以对语音信息进行解析,生成语音文本信息,再对语音文本信息进行语法解析,生成语音文本情绪信息
需要指出的是,在本发明的其他实施例中,该方法还可以采用其他合理方式来对步骤S101中所获取到的多模态交互信息中的多种交互信息进行解析,以此得到至少两种对应情绪信息,进而得到情绪信息集合,本发明不限于此,一种实施例中,可以根据多模态交互信息中的至少两种交互信息分别确定各自对应的情绪信息,得到情绪信息集合,另一种实施例中,可以对多模态交互信息中的语音信息,视觉信息和触觉信息进行解析,生成对应的情绪信息,构建情绪信息集合。
如图1所示,在得到情绪信息集合后,该方法也就可以在步骤S103中根据该情绪信息集合,确定出用户的当前情绪。具体地,该方法在步骤S103中首先判断步骤S102中所得到的情绪信息集合中的各个情绪信息所表征的情绪是否相同,如果情绪信息集合中的各个情绪信息所表征的情绪均是同一种情绪,那么该方法则将这些情绪信息所表征的情绪作为用户的当前情绪。而如果情绪信息集合中的各个情绪信息所表征的情绪不完全相同,那么该方法则将利用预设多模态情绪识别模型来根据该情绪信息集合确定用户的当前情绪。
例如,如果步骤S102中所得到的情绪信息集合中包含语调情绪信息和语音文本情绪信息,而语调情绪信息和语音文本情绪信息所表征的情绪均为“高兴”,那么该方法在步骤S103中也就可以将“高兴”作为用户的当前情绪。而如果语调情绪所表征的情绪为“高兴”,语音文本情绪信息所表征的情绪为“紧张”,那么由于语调情绪信息和语音文本情绪信息所表征的情绪不相同,因此该方法会利用预设多模态情绪识别模型来根据上述文本情绪信息和语音情绪信息来确定出用户的当前情绪。
需要指出的是,在本发明的其他实施例中,该方法还可以采用其他合理的方法来根据步骤S102中所得到的情绪信息集合来确定用户的当前情绪,本发明不限于此。
从上述描述中可以看出,本实施例所提供的用于智能机器人的情绪识别方法不再像现有的情绪识别方法那样单纯依赖自动语音识别(Automatic SpeechRecognition,简称ASR)结果来进行用户的情绪识别,本方法可以通过语音感知、视觉感知以及触觉感知等多模态的方式来综合进行情绪识别,因此相较于现有技术,本方法能够使得情绪识别结果更加准确可靠,这样也就可以避免在用户言行不一等情况下情绪识别结果错误的问题。
实施例二:
图2示出了本实施例所提供的面向智能机器人的情绪识别方法的实现流程示意图。
如图2所示,本实施例所提供的情绪识别方法首先在步骤S101中获取用户输入的多模态交互信息。
本实施例中,该方法可以通过智能机器人获取到多种交互信息。优选地,该方法在步骤S201中所获取的多模态交互信息中可以包括:语音信息、文本信息、视觉信息以及触觉信息。
需要指出的是,本实施例中,该方法在步骤S201中获取多模态交互信息的实现原理以及实现过程与上述实施例一中步骤S101所涉及的内容类似,故在此不再赘述。
如图2所示,在得到多模态交互信息后,该方法在步骤S202中对多模态交互信息中的语音信息进行解析,得到语音情绪信息;在步骤S203中多模态交互信息中的文本信息进行解析,得到文本情绪信息;在步骤S204中对多模态交互信息中的视觉信息进行解析,得到视觉情绪信息;该步骤S205中对多模态交互信息中的触觉信息进行解析,得到触觉情绪信息。
其中,S202中确定的语音情绪信息,可以为语调情绪信息,或者语音文本情绪信息,也可以两者都有。
需要指出的是,本实施例中,该方法在步骤S202中对多模态交互信息中的语音信息进行解析对应得到语调情绪信息和语音文本情绪信息的实现过程以及实现原理与上述实施例一中步骤S102所涉及的相关内容类似,故在此不再赘述。
S203中,可以对文本信息进行语法解析,生成文本情绪信息。
本实施例中,对于视觉信息来说,该方法会对所获取到的视觉信息(例如图像信息)进行图像处理和情绪识别合理,以此得到视觉情绪信息。而对于触觉信息来说,该方法首先会根据该触觉信息确定出用户与智能机器人接触的位置信息和/或力度信息,随后根据该位置信息和/或力度信息生成触觉情绪信息。
需要指出的是,在本发明的其他实施例中,该方法还可以采用其他合理方式来对步骤S201中所获取到的多模态交互信息中的多种交互信息进行解析,以此得到对应的情绪信息,进而得到情绪信息集合,同时,该方法所解析的交互信息还可以仅是步骤S201所得到的多模态交互信息中的某几种交互信息,本发明不限于此。
此外,还需要指出的是,本实施例所提供的方法并不对上述步骤S202至步骤S205的执行顺序进行限定,根据实际需要,上述步骤S202至步骤S205可以有多种多样的执行顺序,根据实际需要,步骤S202至步骤S205可以全部执行或者缺省执行,本发明同样不限于此。
在得到语音情绪信息、文本情绪信息、视觉情绪信息和触觉情绪信息后,该方法也就得到了由这集中情绪信息所构成的情绪信息集合,此时,如图2所示,该方法将在步骤S206中判断情绪信息集合中各个情绪信息所表征的情绪是否相同。如果不完全相同,那么该方法则在步骤S207中利用多模态情绪识别模型根据该情绪信息集合来确定用户的当前情绪;而如果相同,那么该方法则可以在步骤S208中将各个情绪信息所表征的情绪作为用户的当前情绪。
如图2所示,本实施例中,在得到用户的当前情绪后,该方法还在步骤S209中根据用户的当前情绪来生成相应的多模态反馈信息并输出给用户。
本发明还提供了一种用于智能机器人的情绪识别系统,图3示出了本实施例中该系统的结构示意图。
如图3所示,本实施例中,该情绪识别系统优选地包括:交互信息获取模块301、交互信息解析模块302、情绪识别模块303以及反馈信息生成模块304。其中,交互信息获取模块301用于获取用户输入的多模态交互信息,在获取到用户输入的多模态交互信息后,交互信息获取模块301会将该多模态交互信息传输给交互信息解析模块302.
交互信息获取模块302在接收到交互信息获取模块301传输来的多模态交互信息后,会对该多模态交互信息进行解析,根据多模态交互信息确定出至少两种情绪信息,从而得到情绪信息集合。
在得到情绪信息集合后,交互信息解析模块302会将情绪信息集合传输给情绪识别模块303,以由情绪识别模块303根据该情绪信息集合确定出用户的当前情绪。
在得到用户的当前情绪后,情绪识别模块303会将用户的当前情绪传输给反馈信息生成模块304。反馈信息生成模块304能够根据用户的当前情绪生成相应的多模态反馈信息并输出给用户。
需要指出的是,本实施例中,交互信息获取模块301获取用户输入的多模态交互信息的过程与实施例一中步骤S101所涉及的内容类似,交互信息解析模块302对多模态交互信息进行解析得到情绪信息集合的原理以及过程与实施例一中步骤S102所涉及的内容类似,情绪识别模块303根据情绪信息集合确定用户当前情绪的过程与上述实施例一中步骤S103所涉及的内容类似,反馈信息生成模块304根据用户当前情绪生成多模态反馈信息的过程与上述步骤S209所涉及的内容类似,故在此不再对交互信息获取模块301、交互信息解析模块302、情绪识别模块303以及反馈信息生成模块304实现其各自功能的具体原理以及过程进行赘述。
应该理解的是,本发明所公开的实施例不限于这里所公开的特定结构或处理步骤,而应当延伸到相关领域的普通技术人员所理解的这些特征的等同替代。还应当理解的是,在此使用的术语仅用于描述特定实施例的目的,而并不意味着限制。
说明书中提到的“一个实施例”或“实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一个实施例”或“实施例”并不一定均指同一个实施例。
虽然上述示例用于说明本发明在一个或多个应用中的原理,但对于本领域的技术人员来说,在不背离本发明的原理和思想的情况下,明显可以在形式上、用法及实施的细节上作各种修改而不用付出创造性劳动。因此,本发明由所附的权利要求书来限定。

Claims (10)

1.一种用于智能机器人的情绪识别方法,其特征在于,包括:
交互信息获取步骤,获取用户输入的多模态交互信息;
交互信息解析步骤,对所述多模态交互信息进行解析,根据所述多模态交互信息确定出至少两种情绪信息,得到情绪信息集合;
情绪识别步骤,根据所述情绪信息集合,确定出所述用户的当前情绪。
2.如权利要求1所述的方法,其特征在于,所述多模态交互信息包括:
语音信息、文本信息、视觉信息和触觉信息。
3.如权利要求2所述的方法,其特征在于,在所述交互信息解析步骤中:
对所述语音信息进行分析,提取出用户的语调信息,根据所述语调信息生成语调情绪信息;且/或,
对所述文本信息进行语法分析,生成文本情绪信息;且/或,
对所述视觉信息信息进行图像处理和情绪识别处理,生成视觉情绪信息;且/或,
根据所述触觉信息确定出所述用户与所述智能机器人接触的位置信息和/或力度信息,根据所述位置信息和/或力度信息生成触觉情绪信息;且/或,
对所述语音信息进行解析,生成文本信息,对所述文本信息进行语法分析,生成文本情绪信息。
4.如权利要求1~3中任一项所述的方法,其特特征在于,在所述情绪识别步骤中,判断所述情绪信息集合中所包含的情绪信息所表征的情绪是否相同,如果相同,则将所述情绪信息所表征的情绪作为所述用户的当前情绪。
5.如权利要求4所述的方法,其特征在于,如果所述情绪信息集合中所包含的情绪信息所表征的情绪不全相同,则利用预设多模态情绪识别模型根据所述情绪信息集合确定所述用户的当前情绪。
6.一种用于智能机器人的情绪识别系统,其特征在于,包括:
交互信息获取模块,用于获取用户输入的多模态交互信息;
交互信息解析模块,用于对所述多模态交互信息进行解析,根据所述多模态交互信息确定出至少两种情绪信息,得到情绪信息集合;
情绪识别模块,用于根据所述情绪信息集合,确定出所述用户的当前情绪。
7.如权利要求6所述的系统,其特征在于,所述多模态交互信息包括:
语音信息、文本信息、视觉信息和触觉信息。
8.如权利要求7所述的系统,其特征在于,所述交互信息解析模块配置为:
对所述语音信息进行分析,提取出用户的语调信息,根据所述语调信息生成语调情绪信息;且/或,
对所述文本信息进行语法分析,生成文本情绪信息;且/或,
对所述视觉信息信息进行图像处理和情绪识别处理,生成视觉情绪信息;且/或,
根据所述触觉信息确定出所述用户与所述智能机器人接触的位置信息和/或力度信息,根据所述位置信息和/或力度信息生成触觉情绪信息;且/或,
对所述语音信息进行解析,生成语音文本信息,对所述语音文本信息进行语法分析,生成语音文本情绪信息。
9.如权利要求6~8中任一项所述的系统,其特征在于,所述情绪识别模块配置为判断所述情绪信息集合中所包含的情绪信息所表征的情绪是否相同,如果相同,则将所述情绪信息所表征的情绪作为所述用户的当前情绪。
10.如权利要求9所述的系统,其特征在于,如果所述情绪信息集合中所包含的情绪信息所表征的情绪不全相同,所述情绪识别模块配置则配置为利用预设多模态情绪识别模型根据所述情绪信息集合确定所述用户的当前情绪。
CN201610546832.2A 2016-07-12 2016-07-12 一种用于智能机器人的情绪识别方法及系统 Pending CN106203344A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610546832.2A CN106203344A (zh) 2016-07-12 2016-07-12 一种用于智能机器人的情绪识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610546832.2A CN106203344A (zh) 2016-07-12 2016-07-12 一种用于智能机器人的情绪识别方法及系统

Publications (1)

Publication Number Publication Date
CN106203344A true CN106203344A (zh) 2016-12-07

Family

ID=57477022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610546832.2A Pending CN106203344A (zh) 2016-07-12 2016-07-12 一种用于智能机器人的情绪识别方法及系统

Country Status (1)

Country Link
CN (1) CN106203344A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874363A (zh) * 2016-12-30 2017-06-20 北京光年无限科技有限公司 智能机器人的多模态输出方法及装置
CN107186725A (zh) * 2017-05-27 2017-09-22 众德云格机器人(苏州)有限公司 基于家庭成员情绪状态的问答服务机器人系统
CN107463874A (zh) * 2017-07-03 2017-12-12 华南师范大学 情绪识别方法及系统、及应用该方法的智能看护系统
CN107818787A (zh) * 2017-10-31 2018-03-20 努比亚技术有限公司 一种语音信息的处理方法、终端及计算机可读存储介质
CN107972028A (zh) * 2017-07-28 2018-05-01 北京物灵智能科技有限公司 人机交互方法、装置及电子设备
WO2018107731A1 (zh) * 2016-12-13 2018-06-21 深圳光启合众科技有限公司 数据处理的方法、装置和机器人
CN108377418A (zh) * 2018-02-06 2018-08-07 北京奇虎科技有限公司 一种视频标注处理方法和装置
CN108470188A (zh) * 2018-02-26 2018-08-31 北京物灵智能科技有限公司 基于图像分析的交互方法及电子设备
CN108960191A (zh) * 2018-07-23 2018-12-07 厦门大学 一种面向机器人的多模态融合情感计算方法及系统
CN109036433A (zh) * 2018-07-27 2018-12-18 重庆柚瓣家科技有限公司 基于ai的社交辅助系统及方法
CN110246519A (zh) * 2019-07-25 2019-09-17 深圳智慧林网络科技有限公司 情绪识别方法、设备及计算机可读存储介质
CN110378428A (zh) * 2019-07-23 2019-10-25 上海思依暄机器人科技股份有限公司 一种家用机器人及其情绪识别方法和装置
CN110442867A (zh) * 2019-07-30 2019-11-12 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及计算机存储介质
CN110895738A (zh) * 2018-09-12 2020-03-20 丰田自动车株式会社 驾驶评价装置、驾驶评价系统、驾驶评价方法及存储介质
WO2020135194A1 (zh) * 2018-12-26 2020-07-02 深圳Tcl新技术有限公司 基于情绪引擎技术的语音交互方法、智能终端及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101604204A (zh) * 2009-07-09 2009-12-16 北京科技大学 智能情感机器人分布式认知技术
CN101618280A (zh) * 2009-06-30 2010-01-06 哈尔滨工业大学 具有人机交互功能的仿人头像机器人装置及行为控制方法
CN103593054A (zh) * 2013-11-25 2014-02-19 北京光年无限科技有限公司 一种结合情绪识别及输出的问答系统
CN103905296A (zh) * 2014-03-27 2014-07-02 华为技术有限公司 情绪信息的处理方法及装置
CN105334743A (zh) * 2015-11-18 2016-02-17 深圳创维-Rgb电子有限公司 一种基于情感识别的智能家居控制方法及其系统
WO2016039552A1 (ko) * 2014-09-10 2016-03-17 (주)지디아이코리아 육성 시뮬레이션을 통한 교육 관리 시스템 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101618280A (zh) * 2009-06-30 2010-01-06 哈尔滨工业大学 具有人机交互功能的仿人头像机器人装置及行为控制方法
CN101604204A (zh) * 2009-07-09 2009-12-16 北京科技大学 智能情感机器人分布式认知技术
CN103593054A (zh) * 2013-11-25 2014-02-19 北京光年无限科技有限公司 一种结合情绪识别及输出的问答系统
CN103905296A (zh) * 2014-03-27 2014-07-02 华为技术有限公司 情绪信息的处理方法及装置
WO2016039552A1 (ko) * 2014-09-10 2016-03-17 (주)지디아이코리아 육성 시뮬레이션을 통한 교육 관리 시스템 및 방법
CN105334743A (zh) * 2015-11-18 2016-02-17 深圳创维-Rgb电子有限公司 一种基于情感识别的智能家居控制方法及其系统

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018107731A1 (zh) * 2016-12-13 2018-06-21 深圳光启合众科技有限公司 数据处理的方法、装置和机器人
CN108614987A (zh) * 2016-12-13 2018-10-02 深圳光启合众科技有限公司 数据处理的方法、装置和机器人
CN106874363A (zh) * 2016-12-30 2017-06-20 北京光年无限科技有限公司 智能机器人的多模态输出方法及装置
CN107186725A (zh) * 2017-05-27 2017-09-22 众德云格机器人(苏州)有限公司 基于家庭成员情绪状态的问答服务机器人系统
CN107463874A (zh) * 2017-07-03 2017-12-12 华南师范大学 情绪识别方法及系统、及应用该方法的智能看护系统
CN107972028A (zh) * 2017-07-28 2018-05-01 北京物灵智能科技有限公司 人机交互方法、装置及电子设备
CN107818787A (zh) * 2017-10-31 2018-03-20 努比亚技术有限公司 一种语音信息的处理方法、终端及计算机可读存储介质
CN108377418A (zh) * 2018-02-06 2018-08-07 北京奇虎科技有限公司 一种视频标注处理方法和装置
CN108377418B (zh) * 2018-02-06 2021-06-18 北京奇虎科技有限公司 一种视频标注处理方法和装置
CN108470188A (zh) * 2018-02-26 2018-08-31 北京物灵智能科技有限公司 基于图像分析的交互方法及电子设备
CN108470188B (zh) * 2018-02-26 2022-04-22 北京物灵智能科技有限公司 基于图像分析的交互方法及电子设备
CN108960191A (zh) * 2018-07-23 2018-12-07 厦门大学 一种面向机器人的多模态融合情感计算方法及系统
CN108960191B (zh) * 2018-07-23 2021-12-14 厦门大学 一种面向机器人的多模态融合情感计算方法及系统
CN109036433A (zh) * 2018-07-27 2018-12-18 重庆柚瓣家科技有限公司 基于ai的社交辅助系统及方法
CN110895738A (zh) * 2018-09-12 2020-03-20 丰田自动车株式会社 驾驶评价装置、驾驶评价系统、驾驶评价方法及存储介质
WO2020135194A1 (zh) * 2018-12-26 2020-07-02 深圳Tcl新技术有限公司 基于情绪引擎技术的语音交互方法、智能终端及存储介质
CN110378428A (zh) * 2019-07-23 2019-10-25 上海思依暄机器人科技股份有限公司 一种家用机器人及其情绪识别方法和装置
CN110246519A (zh) * 2019-07-25 2019-09-17 深圳智慧林网络科技有限公司 情绪识别方法、设备及计算机可读存储介质
CN110442867A (zh) * 2019-07-30 2019-11-12 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及计算机存储介质

Similar Documents

Publication Publication Date Title
CN106203344A (zh) 一种用于智能机器人的情绪识别方法及系统
CN109102809B (zh) 一种用于智能机器人的对话方法及系统
KR101336641B1 (ko) 감성 교감 로봇 서비스 시스템 및 그 방법
CN105446491B (zh) 一种基于智能机器人的交互方法和装置
US20190355352A1 (en) Voice and conversation recognition system
CN106531162A (zh) 一种用于智能机器人的人机交互方法及装置
CN105334743A (zh) 一种基于情感识别的智能家居控制方法及其系统
KR101423258B1 (ko) 상담 대화 제공 방법 및 이를 이용하는 장치
CN106847274B (zh) 一种用于智能机器人的人机交互方法及装置
CN101154220A (zh) 机器翻译装置和方法
CN107273477A (zh) 一种用于机器人的人机交互方法及装置
CN106503786B (zh) 用于智能机器人的多模态交互方法和装置
WO2018021651A1 (ko) 사용자의 감정 정보를 이용한 오프라인 캐릭터 인형 제어 장치 및 방법
CN106548777A (zh) 一种用于智能机器人的数据处理方法及装置
US20200234181A1 (en) Implementing training of a machine learning model for embodied conversational agent
CN106991123A (zh) 一种面向智能机器人的人机交互方法及装置
KR20200045851A (ko) 음성 인식 서비스를 제공하는 전자 장치 및 시스템
WO2016163565A1 (ko) 멀티모달 다중 에이전트 기반의 감정 통신 시스템
Cerrato et al. Engagement in dialogue with social robots
CN106557464A (zh) 一种用于对话交互系统的数据处理方法及装置
CN104750380A (zh) 一种信息处理的方法及电子设备
CN206892866U (zh) 具有情景分析功能的智能对话装置
CN115167674A (zh) 基于数字人多模态交互信息标准的智能交互方法
Kennington et al. Situated incremental natural language understanding using a multimodal, linguistically-driven update model
KR20130091128A (ko) 음성인식을 이용한 발음 평가 방법 및 이를 적용한 전자기기

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20161207