CN107590503A - 一种机器人情感数据更新方法及系统 - Google Patents

一种机器人情感数据更新方法及系统 Download PDF

Info

Publication number
CN107590503A
CN107590503A CN201610539549.7A CN201610539549A CN107590503A CN 107590503 A CN107590503 A CN 107590503A CN 201610539549 A CN201610539549 A CN 201610539549A CN 107590503 A CN107590503 A CN 107590503A
Authority
CN
China
Prior art keywords
data
robot
affection
user
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610539549.7A
Other languages
English (en)
Inventor
邱楠
王昊奋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Green Bristlegrass Intelligence Science And Technology Ltd
Original Assignee
Shenzhen Green Bristlegrass Intelligence Science And Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Green Bristlegrass Intelligence Science And Technology Ltd filed Critical Shenzhen Green Bristlegrass Intelligence Science And Technology Ltd
Priority to CN201610539549.7A priority Critical patent/CN107590503A/zh
Priority to PCT/CN2016/094907 priority patent/WO2018006471A1/zh
Priority to JP2017538648A priority patent/JP2018534641A/ja
Publication of CN107590503A publication Critical patent/CN107590503A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种机器人情感数据更新方法及系统。其中,方法为:先获取多模输入数据,多模输入数据为用户输入的多种形式的数据;然后根据用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;接着将识别后用户的多模情感数据进行融合,得到用户的情感数据预测结果;最后获取机器人情感属性表,机器人情感属性表用来描述机器人的情感数据,根据用户的情感数据预测结果,对机器人的情感数据进行更新。本发明一种机器人情感数据更新方法及系统,基于用户的情感识别数据对机器人的情感数据进行更新,使机器人对用户做出带情感的反馈,且可对机器人情感数据的不断更新,提升用户体验。

Description

一种机器人情感数据更新方法及系统
技术领域
本发明涉及数据处理领域,尤其涉及机器人情感数据的处理。
背景技术
近年来随着智能机器人技术的迅速发展,机器人的智能化成为目前人们关注的焦点。智能机器人,简单来说是能够理解人类语言,用人类语言实现与操作者之间的对话的一种机器人。它能分析出现的情况,能调整自己的动作以达到操作者所提出的全部要求,能拟定所希望的动作,并在信息不充分的情况下和环境迅速变化的条件下完成这些动作。当然,要它和我们人类思维一模一样,这是不可能办到的,通常都是通过预先设定的模型,使机器人对操作者的要求做出适当的回应。
现有的机器人自我认知训练通常是对客观事实的认知。例如机器人对是谁、来自哪里、家庭成员等等信息的认知,机器人的自我认知训练均是基于用户的指令完成的,不会根据操作者的情感进行自我认知,进而做出带感情的回应,且机器人的自我认知训练方式单一,机器人的自我认知不会不断进行更新。
因此,现有技术中的缺陷是,机器人不能根据用户的情感,进行自我的认知更新,给出带感情的回应,且机器人的自我认知训练方式单一,机器人的自我认知不能进行不断地更新。
发明内容
本发明提供一种机器人情感数据更新方法及系统,采用了基于用户的情感识别数据对机器人的情感数据进行更新的方式,使机器人对用户可做出适当的情感反馈,并且可以实现对机器人情感数据的不断更新,进一步提升了用户体验。
为解决上述技术问题,本发明提供的技术方案是:
第一方面,本发明提供一种机器人情感数据更新方法,包括:
步骤S1,获取多模输入数据,所述多模输入数据为用户输入的多种形式的数据;
步骤S2,根据所述用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;
步骤S3,将所述识别后用户的多模情感数据进行融合,得到所述用户的情感数据预测结果;
步骤S4,获取机器人情感属性表,所述机器人情感属性表用来描述机器人的情感数据,根据所述用户的情感数据预测结果,对所述机器人的情感数据进行更新。
本发明一种机器人情感数据更新方法的技术方案为,先获取多模输入数据,所述多模输入数据为用户输入的多种形式的数据;然后根据所述用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;接着将所述识别后用户的多模情感数据进行融合,得到所述用户的情感数据预测结果;最后获取机器人情感属性表,所述机器人情感属性表用来描述机器人的情感数据,根据所述用户的情感数据预测结果,对所述机器人的情感数据进行更新。
本发明中的机器人情感数据更新方法,采用了基于用户的情感识别数据对机器人的情感数据进行更新的方式,通过识别用户输入的多种形式数据进行情感识别,得到用户的多模情感数据,然后将用户的多模情感数据进行融合,其中,机器人的情感数据是从机器人情感属性表中获得,是预先人为设定的情感数据,经融合处理后,得到预测的人的情感数据,最后通过预测的人的情感数据,对预先设定的机器人情感属性表中的机器人情感数据进行了更新,根据人的情感数据更新机器人的情感数据,使机器人的情感更贴近人的情感;通过多模输入数据的不断增加,可不断对机器人的情感数据进行更新,使机器人的自我认知能力不断提高,给用户提供相应的情感反馈,并且通过不断的更新,提升了用户体验。
进一步地,所述机器人的情感数据包括机器人的语言数据和表情数据。机器人的情感数据包括机器人的语言数据和表情数据,机器人表达感情,与人相似,可通过语言和表情表达感情。
进一步地,所述步骤S4中,还包括:
步骤S41,获取机器人情感属性表,并通过所述机器人情感属性表获得机器人的语言数据和表情数据,所述机器人情感属性表用来描述机器人的情感数据;
步骤S42,根据所述用户的情感数据预测结果,对所述机器人的语言数据进行更新,得到所述机器人的语言数据更新结果;
步骤S43,根据所述用户的情感数据预测结果,对所述机器人的表情数据进行更新,得到所述机器人的表情数据更新结果。
如果机器人可以同时通过语言和表情表达感情,那么就要将机器人的语言数据和表情数据分别都进行更新,将机器人的语言数据和表情数据根据用户的情感数据预测结果进行更新,使机器人的情感数据以人的情感数据作为基础,更接近人的情感。
进一步地,所述多模输入数据为语音输入数据、文本输入数据、图片输入数据、手势识别数据中至少一种。多模输入数据是指用户与机器人交互时输入的一些数据,带有用户的情感的数据,因此,用来表达感情的方式有很多,大致分为语音、视频、文本、图片和手势,语言输入也转换成图片的形式,多模输入数据的形式越多,机器人的自我认知能力越好。
进一步地,所述机器人情感属性表通过所述机器人的知识图谱获得,所述知识图谱包括所述机器人的属性信息。机器人的知识图谱中包含机器人的一些属性信息,是人为设定的,比如机器人的一些语言信息、表情信息和动作信息等。
第二方面,本发明提供一种机器人情感数据更新系统,包括:
数据获取模块,用于获取多模输入数据,所述多模输入数据为用户输入的多种形式的数据;
用户情感数据识别模块,用于根据所述用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;
用户情感数据预测模块,用于将所述识别后用户的多模情感数据进行融合,得到所述用户的情感数据预测结果;
机器人情感数据更新模块,用于获取机器人情感属性表,所述机器人情感属性表用来描述机器人的情感数据,根据所述用户的情感数据预测结果,对所述机器人的情感数据进行更新。
本发明一种机器人情感数据更新系统的技术方案为,先通过数据获取模块,获取多模输入数据,所述多模输入数据为用户输入的多种形式的数据;然后通过用户情感数据识别模块,根据所述用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;接着通过用户情感数据预测模块,将所述识别后用户的多模情感数据进行融合,得到所述用户的情感数据预测结果;最后通过机器人情感数据更新模块,获取机器人情感属性表,所述机器人情感属性表用来描述机器人的情感数据,根据所述用户的情感数据预测结果,对所述机器人的情感数据进行更新。
本发明中的机器人情感数据更新系统,采用了基于用户的情感识别数据对机器人的情感数据进行更新的方式,通过识别用户输入的多种形式数据进行情感识别,得到用户的多模情感数据,然后将用户的多模情感数据进行融合,其中,机器人的情感数据是从机器人情感属性表中获得,是预先人为设定的情感数据,经融合处理后,得到预测的人的情感数据,最后通过预测的人的情感数据,对预先设定的机器人情感属性表中的机器人情感数据进行了更新,根据人的情感数据更新机器人的情感数据,使机器人的情感更贴近人的情感;通过多模输入数据的不断增加,可不断对机器人的情感数据进行更新,使机器人的自我认知能力不断提高,给用户提供相应的情感反馈,并且通过不断的更新,提升了用户体验。
进一步地,所述机器人的情感数据包括机器人的语言数据和表情数据。机器人的情感数据包括机器人的语言数据和表情数据,机器人表达感情,与人相似,可通过语言和表情表达感情。
进一步地,所述机器人情感数据更新模块中,还包括:
机器人情感数据获取模块,用于获取机器人情感属性表,并通过所述机器人情感属性表获得机器人的语言数据和表情数据,所述机器人情感属性表用来描述机器人的情感数据;
语言数据更新模块,用于根据所述用户的情感数据预测结果,对所述机器人的语言数据进行更新,得到所述机器人的语言数据更新结果;
表情数据更新模块,用于根据所述用户的情感数据预测结果,对所述机器人的表情数据进行更新,得到所述机器人的表情数据更新结果。
如果机器人可以同时通过语言和表情表达感情,那么就要将机器人的语言数据和表情数据分别都进行更新,将机器人的语言数据和表情数据根据用户的情感数据预测结果进行更新,使机器人的情感数据以人的情感数据作为基础,更接近人的情感。
进一步地,所述多模输入数据为语音输入数据、文本输入数据、图片输入数据、手势识别数据中至少一种。多模输入数据是指用户与机器人交互时输入的一些数据,带有用户的情感的数据,因此,用来表达感情的方式有很多,大致分为语音、视频、文本、图片和手势,多模输入数据的形式越多,机器人的自我认知能力越好。
进一步地,所述机器人情感属性表通过所述机器人的知识图谱获得,所述知识图谱包括所述机器人的属性信息。机器人的知识图谱中包含机器人的一些属性信息,是人为设定的,比如机器人的一些语言信息、表情信息和动作信息等。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。
图1示出了本发明第一实施例所提供的一种机器人情感数据更新方法的流程图;
图2示出了本发明第二实施例所提供的一种机器人情感数据更新系统的示意图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只是作为示例,而不能以此来限制本发明的保护范围。
实施例一
图1示出了本发明第一实施例所提供的一种机器人情感数据更新方法的流程图;如图1所示,根据本发明第一实施例的机器人情感数据更新方法,包括:
步骤S1,获取多模输入数据,多模输入数据为用户输入的多种形式的数据;
步骤S2,根据用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;
步骤S3,将识别后用户的多模情感数据进行融合,得到用户的情感数据预测结果;
步骤S4,获取机器人情感属性表,机器人情感属性表用来描述机器人的情感数据,根据用户的情感数据预测结果,对机器人的情感数据进行更新。
本发明一种机器人情感数据更新方法的技术方案为,先获取多模输入数据,多模输入数据为用户输入的多种形式的数据;然后根据用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;接着将识别后用户的多模情感数据进行融合,得到用户的情感数据预测结果;最后获取机器人情感属性表,机器人情感属性表用来描述机器人的情感数据,根据用户的情感数据预测结果,对机器人的情感数据进行更新。
本发明机器人情感数据更新方法,采用了基于用户的情感识别数据对机器人的情感数据进行更新的方式,通过识别用户输入的多种形式数据进行情感识别,得到用户的多模情感数据,然后将用户的多模情感数据进行融合,其中,机器人的情感数据是从机器人情感属性表中获得,是预先人为设定的情感数据,经融合处理后,得到预测的人的情感数据,最后通过预测的人的情感数据,对预先设定的机器人情感属性表中的机器人情感数据进行了更新,根据人的情感数据更新机器人的情感数据,使机器人的情感更贴近人的情感;通过多模输入数据的不断增加,可不断对机器人的情感数据进行更新,使机器人的自我认知能力不断提高,给用户提供相应的情感反馈,并且通过不断的更新,提升了用户体验。
具体地,机器人的情感数据包括机器人的语言数据和表情数据。机器人的情感数据包括机器人的语言数据和表情数据,机器人表达感情,与人相似,可通过语言和表情表达感情。
具体地,步骤S4中,还包括:
步骤S41,获取机器人情感属性表,并通过机器人情感属性表获得机器人的语言数据和表情数据,机器人情感属性表用来描述机器人的情感数据;
步骤S42,根据用户的情感数据预测结果,对机器人的语言数据进行更新,得到机器人的语言数据更新结果;
步骤S43,根据用户的情感数据预测结果,对机器人的表情数据进行更新,得到机器人的表情数据更新结果。
如果机器人可以同时通过语言和表情表达感情,那么就要将机器人的语言数据和表情数据分别都进行更新,将机器人的语言数据和表情数据根据用户的情感数据预测结果进行更新,使机器人的情感数据以人的情感数据作为基础,更接近人的情感。
通常数据的融合处理方法可以采用求均值,加权处理或是求权重的方法,以用户的多模情感数据为例,通过对用户的多模情感数据进行求均值处理,得到用户的情感数据的预测结果,人可以通过多种形式表达情感,比如语言,表情、动作等;将这些表达人感情的数据进行融合处理,得到一个表达人情感的预测结果(喜怒哀乐等情绪),然后将人的情感数据的预测结果作为机器人情感数据更新的基础,使机器人的语言数据更贴近人想表达的感情。同样,采用加权处理或是求权重的方法,也是为了将机器人想表达的感情更接近人所表达的感情,进而提升了机器人的自我认知能力,可给用户提供带感情的反馈。
具体地,多模输入数据为语音输入数据、文本输入数据、图片输入数据、手势识别数据中至少一种。多模输入数据是指用户与机器人交互时输入的一些数据,带有用户的情感的数据,因此,用来表达感情的方式有很多,大致分为语音、视频、文本、图片和手势,多模输入数据的形式越多,机器人的自我认知能力越好。
其中,将用户输入的多种形式的数据进行情感识别处理,具体为:以用户输入的文本数据为例,进行文本情感识别,将文本数据进行人工标注,根据文本数据包含的语气、语义等结合上下文信息,识别出用户输入的文本数据的情感,运用同样的方法可以将语音转换成文本后,进行语音情感的识别。另外,根据视频中包含的图像数据,还可以进行表情的识别,通过表情来识别情感。
具体地,机器人情感属性表通过机器人的知识图谱获得,知识图谱包括机器人的属性信息。机器人的知识图谱中包含机器人的一些属性信息,是人为设定的,比如机器人的一些语言信息、表情信息和动作信息等。
通过上述的设置,机器人可根据自我认知能力,给用户提供带感情的反馈,比如,用户:“我今天涨工资了”。机器人会根据用户这句话中识别到的情感,给出带感情的反馈,如:机器人回答:“主人真棒!”,并做出高兴的表情,这样使机器人与人交互过程中带有感情,更加人性化,并且,机器人会根据用户不断输入的多模数据,进行不断的更新,提升机器人的自我认知能力。
实施例二
图2示出了本发明第二实施例所提供的一种机器人情感数据更新系统的示意图;如图2示,根据本发明第二实施例的机器人情感数据更新系统10,包括:
数据获取模块101,用于获取多模输入数据,多模输入数据为用户输入的多种形式的数据;
用户情感数据识别模块102,用于根据用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;
用户情感数据预测模块103,用于将识别后用户的多模情感数据进行融合,得到用户的情感数据预测结果;
机器人情感数据更新模块104,用于获取机器人情感属性表,机器人情感属性表用来描述机器人的情感数据,根据用户的情感数据预测结果,对机器人的情感数据进行更新。
本发明一种机器人情感数据更新系统10的技术方案为,先通过数据获取模块101,获取多模输入数据,多模输入数据为用户输入的多种形式的数据;然后通过用户情感数据识别模块102,根据用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;接着通过用户情感数据预测模块103,将识别后用户的多模情感数据进行融合,得到用户的情感数据预测结果;最后通过机器人情感数据更新模块104,获取机器人情感属性表,机器人情感属性表用来描述机器人的情感数据,根据用户的情感数据预测结果,对机器人的情感数据进行更新。
本发明一种机器人情感数据更新系统10,采用了基于用户的情感识别数据对机器人的情感数据进行更新的方式,通过识别用户输入的多种形式数据进行情感识别,得到用户的多模情感数据,然后将用户的多模情感数据进行融合,其中,机器人的情感数据是从机器人情感属性表中获得,是预先人为设定的情感数据,经融合处理后,得到预测的人的情感数据,最后通过预测的人的情感数据,对预先设定的机器人情感属性表中的机器人情感数据进行了更新,根据人的情感数据更新机器人的情感数据,使机器人的情感更贴近人的情感;通过多模输入数据的不断增加,可不断对机器人的情感数据进行更新,使机器人的自我认知能力不断提高,给用户提供相应的情感反馈,并且通过不断的更新,提升了用户体验。
具体地,机器人的情感数据包括机器人的语言数据和表情数据。机器人的情感数据包括机器人的语言数据和表情数据,机器人表达感情,与人相似,可通过语言和表情表达感情。
具体地,机器人情感数据更新模块104中,还包括:
机器人情感数据获取模块1041,用于获取机器人情感属性表,并通过机器人情感属性表获得机器人的语言数据和表情数据,机器人情感属性表用来描述机器人的情感数据;
语言数据更新模块1042,用于根据用户的情感数据预测结果,对机器人的语言数据进行更新,得到机器人的语言数据更新结果;
表情数据更新模块1043,用于根据用户的情感数据预测结果,对机器人的表情数据进行更新,得到机器人的表情数据更新结果。
如果机器人可以同时通过语言和表情表达感情,那么就要将机器人的语言数据和表情数据分别都进行更新,将机器人的语言数据和表情数据根据用户的情感数据预测结果进行更新,使机器人的情感数据以人的情感数据作为基础,更接近人的情感。
具体地,多模输入数据为语音输入数据、文本输入数据、图片输入数据、手势识别数据中至少一种。多模输入数据是指用户与机器人交互时输入的一些数据,带有用户的情感的数据,因此,用来表达感情的方式有很多,大致分为语音、视频、文本、图片和手势,多模输入数据的形式越多,机器人的自我认知能力越好。
具体地,机器人情感属性表通过所述机器人的知识图谱获得,知识图谱包括机器人的属性信息。机器人的知识图谱中包含机器人的一些属性信息,是人为设定的,比如机器人的一些语言信息、表情信息和动作信息等。
综上,本发明一种机器人情感数据更新方法及系统的优势是:采用了基于用户的情感识别数据对机器人的情感数据进行更新的方式,实现方法简单,使机器人对用户可做出适当的带有情感的反馈,并且可以实现对机器人情感数据的不断更新,使得机器人的自我认知具有连贯性,更加人性化,进一步提升了用户体验。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (10)

1.一种机器人情感数据更新方法,其特征在于,包括:
步骤S1,获取多模输入数据,所述多模输入数据为用户输入的多种形式的数据;
步骤S2,根据所述用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;
步骤S3,将所述识别后用户的多模情感数据进行融合,得到所述用户的情感数据预测结果;
步骤S4,获取机器人情感属性表,所述机器人情感属性表用来描述机器人的情感数据,根据所述用户的情感数据预测结果,对所述机器人的情感数据进行更新。
2.根据权利要求1所述机器人情感数据更新方法,其特征在于,
所述机器人的情感数据包括机器人的语言数据和表情数据。
3.根据权利要求2所述机器人情感数据更新方法,其特征在于,
所述步骤S4中,还包括:
步骤S41,获取机器人情感属性表,并通过所述机器人情感属性表获得机器人的语言数据和表情数据,所述机器人情感属性表用来描述机器人的情感数据;
步骤S42,根据所述用户的情感数据预测结果,对所述机器人的语言数据进行更新,得到所述机器人的语言数据更新结果;
步骤S43,根据所述用户的情感数据预测结果,对所述机器人的表情数据进行更新,得到所述机器人的表情数据更新结果。
4.根据权利要求1所述机器人情感数据更新方法,其特征在于,
所述多模输入数据为语音输入数据、文本输入数据、图片输入数据、手势识别数据中至少一种。
5.根据权利要求1所述机器人情感数据更新方法,其特征在于,
所述机器人情感属性表通过所述机器人的知识图谱获得,所述知识图谱包括所述机器人的属性信息。
6.一种机器人情感数据更新系统,其特征在于,包括:
数据获取模块,用于获取多模输入数据,所述多模输入数据为用户输入的多种形式的数据;
用户情感数据识别模块,用于根据所述用户输入的多种形式的数据,进行情感识别,得到识别后用户的多模情感数据;
用户情感数据预测模块,用于将所述识别后用户的多模情感数据进行融合,得到所述用户的情感数据预测结果;
机器人情感数据更新模块,用于获取机器人情感属性表,所述机器人情感属性表用来描述机器人的情感数据,根据所述用户的情感数据预测结果,对所述机器人的情感数据进行更新。
7.根据权利要求6所述机器人情感数据更新系统,其特征在于,
所述机器人的情感数据包括机器人的语言数据和表情数据。
8.根据权利要求7所述机器人情感数据更新系统,其特征在于,
所述机器人情感数据更新模块中,还包括:
机器人情感数据获取模块,用于获取机器人情感属性表,并通过所述机器人情感属性表获得机器人的语言数据和表情数据,所述机器人情感属性表用来描述机器人的情感数据;
语言数据更新模块,用于根据所述用户的情感数据预测结果,对所述机器人的语言数据进行更新,得到所述机器人的语言数据更新结果;
表情数据更新模块,用于根据所述用户的情感数据预测结果,对所述机器人的表情数据进行更新,得到所述机器人的表情数据更新结果。
9.根据权利要求6所述机器人情感数据更新系统,其特征在于,
所述多模输入数据为语音输入数据、文本输入数据、图片输入数据、手势识别数据中至少一种。
10.根据权利要求6所述机器人情感数据更新系统,其特征在于,
所述机器人情感属性表通过所述机器人的知识图谱获得,所述知识图谱包括所述机器人的属性信息。
CN201610539549.7A 2016-07-07 2016-07-07 一种机器人情感数据更新方法及系统 Pending CN107590503A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201610539549.7A CN107590503A (zh) 2016-07-07 2016-07-07 一种机器人情感数据更新方法及系统
PCT/CN2016/094907 WO2018006471A1 (zh) 2016-07-07 2016-08-12 一种机器人情感数据更新方法及系统
JP2017538648A JP2018534641A (ja) 2016-07-07 2016-08-12 ロボットの感情データ更新方法及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610539549.7A CN107590503A (zh) 2016-07-07 2016-07-07 一种机器人情感数据更新方法及系统

Publications (1)

Publication Number Publication Date
CN107590503A true CN107590503A (zh) 2018-01-16

Family

ID=60901648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610539549.7A Pending CN107590503A (zh) 2016-07-07 2016-07-07 一种机器人情感数据更新方法及系统

Country Status (3)

Country Link
JP (1) JP2018534641A (zh)
CN (1) CN107590503A (zh)
WO (1) WO2018006471A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109079791A (zh) * 2018-09-02 2018-12-25 重庆市南岸区瑜目网络科技有限责任公司 一种让人工智能机器人具有人类情绪的方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113486233A (zh) * 2020-08-21 2021-10-08 青岛海信电子产业控股股份有限公司 一种内容推荐方法、设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101604204A (zh) * 2009-07-09 2009-12-16 北京科技大学 智能情感机器人分布式认知技术
CN103413113A (zh) * 2013-01-15 2013-11-27 上海大学 一种服务机器人智能情感交互的方法
CN103456314A (zh) * 2013-09-03 2013-12-18 广州创维平面显示科技有限公司 一种情感识别方法以及装置
CN105046238A (zh) * 2015-08-17 2015-11-11 华侨大学 一种面部表情机器人多通道信息情感表达映射方法
CN105334743A (zh) * 2015-11-18 2016-02-17 深圳创维-Rgb电子有限公司 一种基于情感识别的智能家居控制方法及其系统
US20160162807A1 (en) * 2014-12-04 2016-06-09 Carnegie Mellon University, A Pennsylvania Non-Profit Corporation Emotion Recognition System and Method for Modulating the Behavior of Intelligent Systems
CN105690408A (zh) * 2016-04-27 2016-06-22 深圳前海勇艺达机器人有限公司 一种基于数据字典的情感识别机器人

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010101883A (ko) * 1999-11-30 2001-11-15 이데이 노부유끼 로봇 장치와 그 제어 방법, 및 로봇 장치의 성격 판별 방법
KR100580617B1 (ko) * 2001-11-05 2006-05-16 삼성전자주식회사 오브젝트 성장제어 시스템 및 그 방법
JP4200874B2 (ja) * 2003-10-22 2008-12-24 オムロン株式会社 感性情報推定方法および文字アニメーション作成方法、これらの方法を用いたプログラム、記憶媒体、感性情報推定装置、文字アニメーション作成装置
JP2006178063A (ja) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc 対話処理装置
JP2007271655A (ja) * 2006-03-30 2007-10-18 Brother Ind Ltd 感情付加装置、感情付加方法及び感情付加プログラム
JP2008125815A (ja) * 2006-11-21 2008-06-05 Business Design Kenkyusho:Kk 会話ロボットシステム
KR100953407B1 (ko) * 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
JP2012059107A (ja) * 2010-09-10 2012-03-22 Nec Corp 感情推定装置、感情推定方法およびプログラム
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
JP6166234B2 (ja) * 2014-08-08 2017-07-19 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CN104493827A (zh) * 2014-11-17 2015-04-08 福建省泉州市第七中学 智能认知机器人及其认知系统
JP2018008316A (ja) * 2014-11-21 2018-01-18 ヴイストン株式会社 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
CN104965426A (zh) * 2015-06-24 2015-10-07 百度在线网络技术(北京)有限公司 基于人工智能的智能机器人控制系统、方法和装置
CN105355200B (zh) * 2015-11-20 2020-02-07 深圳狗尾草智能科技有限公司 直接训练和修改机器人交互内容的系统及方法
CN105739688A (zh) * 2016-01-21 2016-07-06 北京光年无限科技有限公司 一种基于情感体系的人机交互方法、装置和交互系统
CN105740948B (zh) * 2016-02-04 2019-05-21 北京光年无限科技有限公司 一种面向智能机器人的交互方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101604204A (zh) * 2009-07-09 2009-12-16 北京科技大学 智能情感机器人分布式认知技术
CN103413113A (zh) * 2013-01-15 2013-11-27 上海大学 一种服务机器人智能情感交互的方法
CN103456314A (zh) * 2013-09-03 2013-12-18 广州创维平面显示科技有限公司 一种情感识别方法以及装置
US20160162807A1 (en) * 2014-12-04 2016-06-09 Carnegie Mellon University, A Pennsylvania Non-Profit Corporation Emotion Recognition System and Method for Modulating the Behavior of Intelligent Systems
CN105046238A (zh) * 2015-08-17 2015-11-11 华侨大学 一种面部表情机器人多通道信息情感表达映射方法
CN105334743A (zh) * 2015-11-18 2016-02-17 深圳创维-Rgb电子有限公司 一种基于情感识别的智能家居控制方法及其系统
CN105690408A (zh) * 2016-04-27 2016-06-22 深圳前海勇艺达机器人有限公司 一种基于数据字典的情感识别机器人

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109079791A (zh) * 2018-09-02 2018-12-25 重庆市南岸区瑜目网络科技有限责任公司 一种让人工智能机器人具有人类情绪的方法

Also Published As

Publication number Publication date
JP2018534641A (ja) 2018-11-22
WO2018006471A1 (zh) 2018-01-11

Similar Documents

Publication Publication Date Title
Chong et al. AI-chatbots on the services frontline addressing the challenges and opportunities of agency
JP7022062B2 (ja) 統合化された物体認識および顔表情認識を伴うvpa
Baranyi et al. Cognitive infocommunications (coginfocom)
CN106448670B (zh) 基于深度学习和强化学习的自动回复对话系统
Kopp Social resonance and embodied coordination in face-to-face conversation with artificial interlocutors
WO2016080553A1 (ja) 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
US20050246165A1 (en) System and method for analyzing and improving a discourse engaged in by a number of interacting agents
CN106055662A (zh) 基于情感的智能对话方法及系统
EP2112621A2 (en) Apparatus for forming good feeling of robot and method therefor
CN106844750A (zh) 一种基于客服机器人中情感安抚的人机交互方法及系统
JP2017016566A (ja) 情報処理装置、情報処理方法及びプログラム
US11521111B2 (en) Device and method for recommending contact information
CN106445924A (zh) 一种基于语义服务器控制智能设备的方法及系统
Adam et al. Social human-robot interaction: a new cognitive and affective interaction-oriented architecture
JP2018024058A (ja) 接客装置、接客方法及び接客システム
KR20210027769A (ko) 신경망 기반 감정 분석 및 감성 치료 시스템
Heinroth et al. Introducing spoken dialogue systems into Intelligent Environments
CN110457445A (zh) 基于用户画像和上下文推理的答复生成技术
CN107066568A (zh) 基于用户意图预测的人机对话方法及装置
Trovato et al. A novel greeting selection system for a culture-adaptive humanoid robot
CN107590503A (zh) 一种机器人情感数据更新方法及系统
WO2020213468A1 (ja) 情報処理システム、情報処理方法、及びプログラム
Ghosh et al. Designing of a natural voice assistants for mobile through user centered design approach
Huang et al. Applied to mobile multimedia intelligent speech system interactive topic guiding model
O'Dwyer et al. Continuous affect prediction using eye gaze and speech

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 301, Building 39, 239 Renmin Road, Gusu District, Suzhou City, Jiangsu Province, 215000

Applicant after: Suzhou Dogweed Intelligent Technology Co., Ltd.

Address before: 518057 Dongfang Science and Technology Building, Keyuan North Road, Nanshan District, Shenzhen City, Guangdong Province, 13F-1307-09

Applicant before: Shenzhen green bristlegrass intelligence Science and Technology Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180116