CN109416701A - 多种交互人格的机器人 - Google Patents

多种交互人格的机器人 Download PDF

Info

Publication number
CN109416701A
CN109416701A CN201780039129.5A CN201780039129A CN109416701A CN 109416701 A CN109416701 A CN 109416701A CN 201780039129 A CN201780039129 A CN 201780039129A CN 109416701 A CN109416701 A CN 109416701A
Authority
CN
China
Prior art keywords
robot
user
personality
voice
interactive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201780039129.5A
Other languages
English (en)
Inventor
史蒂芬·发维斯
迪帕克·斯立法斯塔法
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taikang Robot Co
Original Assignee
Taikang Robot Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taikang Robot Co filed Critical Taikang Robot Co
Publication of CN109416701A publication Critical patent/CN109416701A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

提供一种方法和系统以在机器人中生成和展示多种交互人格(MIP)并能够在与单个用户、一组用户或其他机器人的持续交互期间在MPI间来回切换(例如,表示机器人人格的合成数字语音,表示人类人格的数字化记录的人类语音)。机器人的MPI由机器人通过以多种语音类型、口音和伴随适当面部表情的情感进行说话来展示。还提供了相应的动画式多种交互人格(AMIP)聊天机器人和语音聊天机器人软件,其通过网络/移动接口、并使用用于一组用户的众包方法和用于单个用户的定制方法培训MIP。所培训的MIP可下载至MIP机器人、AMPI聊天机器人和/或AMIP语音聊天机器人,以用作包括娱乐、社交陪伴、教育和培训,以及客户服务应用。

Description

多种交互人格的机器人
相关申请的交叉引用
本申请要求2016年4月26日提交的美国临时专利申请No.62/327,934的优先权和权益,其全部公开内容通过引用结合于此。
技术领域
本发明一般涉及机器人领域;特别是涉及定期与人类用户交互并被称为社交机器人的机器人。本发明还包括基于软件的机器人人格,其能够通过互联网或移动连接的网络或移动设备与用户交互,并且被称为聊天机器人或语音聊天机器人。
背景技术
传统上,在过去的几十年内已经在各种工业生产、包装、运输和快递、国防、医疗保健和农业领域中开发和部署了机器人,重点是在预先确定的场景中替代多种重复的任务和通信。机器人系统以一定程度的自动化执行同样的任务。随着近年来人工智能和机器学习能力的进步,机器人已经开始从商业、工业和实验室级别的预定场景转移到交互、通信,甚至在各种应用领域中与人类用户进行合作。
正在为机器人系统及其纯软件对应物(包括机器人式的聊天或语音聊天机器人)提出和开发社交机器人,以便在各种应用领域(如儿童和老人护理、接待员、迎宾员和导游应用,以及多功能家庭助理等)中与人类用户进行交互和沟通。创建了他们的基于软件的计数器部件,分别与人类用户进行书面(聊天)或口头(语音聊天)通信,分别称为聊天机器人或语音聊天机器人。这些传统上基于多种软件,例如最初的Eliza和最近的A.L.I.C.E(基于AIML-人工智能标记语言),可以从开源获得。除了与人类用户的先进通信功能之外,社交机器人还拥有执行许多典型机器人所需的整套机载传感器、执行器、控制器、存储、逻辑和处理能力,如在与单个人类用户或用户组交互过程中的机械、搜索、分析和响应功能。
随着机器人应用程序常态化地越来越接近人类用户,具有典型机器人特征和功能的与人类用户交互的机器人的人格变得重要。机器人的人格被称为可访问的知识数据库和一组规则,机器人通过它们选择响应、通信以及与用户或用户组交互。Watson、Siri、Pepper、Buddy、Jibo和Echo是这种人机接口社交聊天机器人、语音聊天机器人和机器人的少数的突出例子,它们以典型的机器人人格特征做出反应。机器人的多人格这一术语在客户端-服务器模型中被称为基于中央计算机的机器人管理系统,以同时管理多个聊天机器人或机器人的特征或人格。在架构上,这使得同时在多个机器人中上传、分发或管理人格更加容易,并且在多个机器人之间的通信也是可能的。此外,最近沿着类似的路线,还提出了一种基于远程云的架构管理系统,其中可以有效地使用云计算能力开发、修改、更新、上传、下载或存储多个人格类型的机器人系统。基于存储的数据和规则集的机器人中的多于一种人格类型的感觉可由机器人或用户根据与用户相关或表示用户情绪的环境来选择。基于云计算的体系结构或能力的想法是为了使其易于存储、分发、修改和管理这样的多种人格。
还没有机器人或机器人系统能够展示多种交互人格(MIP,Multiple InteractingPersonalities)或它们的软件版本动画式多种交互人格(AMIP,Animated MultipleInteracting Personalities)聊天和语音聊天机器人,其中既包括用一种声音表达的机器人人格特征,也包括用另一种声音表达的“模仿人内在(inner-human like)”的人格特征,伴随着能够在与用户的持续交互或通信期间来回切换的适当的面部表情。在本发明公开中给出了MIP和AMIP型机器人、聊天和语音聊天机器人的方法、系统和应用。
发明内容
本发明的目的是提供一种用于机器人的创建和显示多种交互人格(MIP)的方法和系统,该多种交互人格能够根据情况在与用户的持续交互或通信期间来回切换。具体地,机器人中的MIP由机器人展现为能够根据在与用户的持续交互或通信期间的情况、伴随着适当面部表情以多于一种语音类型、口音和情绪说话。与先前的开发和发明相反,这样的MIP机器人可以使用一种或多种语音类型并伴随面部表情来明确地展现所有的多种人格行为,并且能够在与单个用户、一组用户或其他机器人的持续交互或通信期间在多个人格之间来回切换。这种MIP型机器人可以用作社交机器人,包括但不限于情景喜剧、卡拉OK、游戏、教学和培训、迎宾、导游和客户服务类型的应用,除了目前在该领域普遍存在的典型的“类似机器人”的人格特征和限制外,还具有“类似人类”的人格特征。
根据本发明的一个方面,MIP机器人的多种交互人格可以通过计算机合成语音来展现,该计算机合成语音通常表示类似机器人的人格特征,而数字记录的人类语音表示类似人类的人格特征。“类似人类”的人格特征没有任何限制地包括,提出问题、表达情感、讲笑话、发表明智的言论、对生活和宗教的意义给予哲学答案等的能力,就像典型的人类用户一样的能力。在机器人中伴随适当面部表情的多种交互式语音与单个用户、一组用户或其他机器人进行交互或通信,而不同的语音及其表示的人格之间没有任何重叠或冲突。根据另一方面,设计成伴随适当面部表情的匹配人类或某个人的语音的适当的计算机合成语音也可用于在这种MIP机器人中展示“类似人类”的人格特征。
根据另一方面,伴随MIP机器人中的多个声音的适当面部表情通过包括但不限于眼睛、眼睑、嘴巴和嘴唇的形状的适当变化来生成。用于确定当前情况的输入可由MIP机器人通过基于对先前情况的输入数据的评估和分析向用户直接提问而获得。MIP机器人,没有任何限制,可以根据情况以类似人类的声音或人格向用户提供定制的脚本响应,或者可以根据情况以类似机器人的语音或人格提供基于人工智能(AI)的查询或分析的类似机器人的响应。MIP机器人所需的典型用户输入数据的问题和脚本响应集可以在机器人内部存储、处理和修改,使用网络或移动接口下载至机器人内,从基于云的存储和计算系统下载到机器人内,或者可以在持续的机器人-用户交互或通信期间从另一个机器人获取或与其互换。
根据本发明的一个方面,还创建了纯粹基于软件的MIP机器人的动画版本,它能够没有任何限制地通过网络或移动接口与用户交互。能够基于文本聊天的具有多种人格特征的动画MIP机器人的软件版本被称为动画MIP(AMIP)聊天机器人。能够以多种交互式语音与用户进行口头或语音交流的具有“类似人类”和“类似机器人”人格的动画MIP机器人软件版本被称为动画MIP(AMIP)语音聊天机器人。
根据本发明的另一方面,AMIP聊天和语音聊天机器人能够以“类似人类”的方式以类似人类的人格特征与用户交互,同时还在通过网络或移动接口与用户的持续交互或对话期间以类似机器人的方式以典型的“类似机器人”的人格特征进行交互。在另一方面,AMIP聊天和语音聊天机器人的网络和移动版本能够持续地与位于远程的用户或用户组进行交互或通信,以收集用户指定的输入数据,这些数据包括但不限于用户的问题、评论、场景和在基于互联网的众包环境内的针对机器人响应的反馈等。
在另一方面,针对一组用户的基于互联网的众包环境还可以为与AMIP聊天机器人和AMIP语音聊天机器人交互的远程用户提供关于用户的数据,包括但不限于用户联系方式、性别、年龄组、收入组、教育、地理位置、兴趣、好恶等。该方法还用于获取问题集、对问题的添加和修改、以及对于来自基于网络或移动的众包环境的问题的响应,以创建默认的多种人格类型,以及根据用户的偏好改变AMIP聊天和语音聊天机器人的人格类型的变化。在另一方面,AMIP聊天和语音聊天机器人的网络和移动版本还通过反馈循环根据用户的偏好提供多种交互人格的定制。然后,通过反馈循环根据用户偏好使用AMIP聊天和语音聊天机器人制作的定制人格能够下载到MIP机器人或机器人系统中,供MIP机器人-用户交互期间使用。
在一个方面,该方法还提供了示例性算法,以在MIP机器人、或AMIP聊天或语音聊天机器人与用户的持续交互或通信中与上文的内容一起使用。示例性算法没有任何限制地包括用户-机器人交互:(a)在对话期间在多种交互人格的响应和切换中没有重叠或冲突,(b)使用众包环境根据用户的偏好定制多种交互人格,以及(c)根据用户偏好定制上述MIP机器人或AMIP聊天或语音聊天机器人内的类似机器人和类似人类的人格特征的比率。
以上概述仅是说明性的,并不旨在以任何方式进行限制。在下面的附图和详细描述中阐述了本发明公开的一个或多个实施方式的细节。根据说明书和附图以及权利要求,本发明的其他特征、目的和优点将显而易见。
附图说明
图1是具有主要部件的MIP机器人的示例性示意图。
图2A-2B是与用户交互的MIP机器人的示例性示意图,其中图2A中用户站立,图2B中一名用户坐着而另一名用户站立。
图3是能够以多种交互式语音与用户交谈的MIP机器人的示例性算法的主要组分的框图和处理流程图。
图4是以多种交互式语音与用户对话的MIP机器人的示例性算法的框图和处理流程。
图5是在以多种交互式语音与用户对话的MIP机器人中结合用户针对机器人响应的反馈的示例性算法的框图和处理流程。
图6A-6B是通过网络界面(图6A)或移动界面(图6B)与用户交互的AMIP聊天或语音聊天机器人的示例性示意图。
图7A-7B是用于使用用户提交的反馈和备选机器人响应脚本的众包来根据用户偏好培训AM IP聊天和语音聊天机器人的人格的框图和处理流程。
图8是通过计算机或移动设备运行的AMIP的示例性视频屏幕截图。
图9A-9B是根据用户偏好用于定制MIP机器人、或AMIP聊天和语音聊天机器人的“类似人类”或“类似机器人”的响应的比率的示例性算法。
图10是在机器人系统内具有处理、存储、内存、传感器、控制器、I/O、连接以及电源单元和端口的示例性MIP机器人。
图11A-11C是用于不同运动的机器人底盘上的电子卡通头部位置的示例图。
图12A-12B是机器人底盘上的电子卡通头部旋转(图12A)和电子卡通动态眼睑位置(图12B)的示例图。
具体实施方式
使用说明性实施例描述了本发明的细节,以满足发明公开的适格性要求。然而,说明书本身和图中的说明性示例不旨在限制本发明公开的范围。发明人已经预期本发明的主题还可以以其他方式实现为包括与本文档中描述的步骤不同的步骤或类似步骤的不同组合,以及当前和未来的技术进步。除非另有说明,否则在不同说明性图中使用的类似符号表示类似的组件。下面使用本文的术语,“步骤”、“块”和“流程”来解释所采用的方法的不同元素,并且不应该被解释为暗示不同步骤之间的任何特定顺序,除非针对本发明的实施例明确描述了任何特定顺序。
本发明的实施例旨在提供一种用于机器人的生成和展示多种交互人格(MIP)的方法和系统,其具有根据情况在与用户的持续交互或通信期间在不同人格之间来回切换的能力。具体地,机器人中的MIP通过机器人能够在与用户进行持续交互或通信期间、基于情况并伴随适当面部表情以多种语音类型、口音和情绪说话而进行展示。合成的数字语音可以表示类似于机器人的人格,而数字记录的人类语音可以表示同一机器人的“类似人类的人格”。根据一个方面,随着目前及未来的技术进步,设计用于匹配人类语音或任何特定的人的语音的适当计算机合成语音以及适当面部表情,也可以没有任何限制地用于在这样的MIP机器人中展示“类似人类”的人格特征。与先前的开发和发明相反,这样的MIP机器人可以在与单个用户、一组用户或甚至与其他机器人的持续交互或通信期间、明确地使用多种语音类型和伴随的面部表情来展示所有的多种人格行为并来回切换。
基于本发明的实施例,MIP机器人能够表达情感、提出直接问题、讲笑话、发表明智的评论、给予掌声,并在与人类持续交互或通信期间通过“类似人类”的语音以“类似人类”的方式给出哲学答案,同时还在与相同用户的相同持续交互或通信期间在不出现任何重叠或冲突的情况下、以“类似机器人”的方式和“类似机器人”的语音进行交互和说话。这种MIP机器人可以用作娱乐性社交机器人,包括但不限于,情景或脱口秀、卡拉OK、游戏、教学和培训、迎宾、导游和客户服务类型的应用。
根据另一实施例,MIP机器人获取用于确定情景的输入,可通过象“人类通常做”的那样直接向用户提问,还可访问并分析来自各种用户机载传感器、用户的语境以及当时在交互环境中的情景的输入数据。MIP机器人可以基于适合于当时情景的人格类型向用户提供定制响应。为了评估情景并根据该情景确定用户情绪所需的问题集和脚本响应,MIP机器人的多种人格可以在与用户的持续交互或通信期间在机器人内部存储处理和机载修改、使用基于网络或移动的界面下载于MIP机器人内、从基于云计算的系统下载、或者可以从另一个机器人获取或与其互换。
根据另一个实施例,还创建了基于软件的MIP机器人的动画版本,其能够没有任何限制地通过个人计算机、平板电脑和智能电话上支持的网络或移动接口与用户交互。MIP机器人的动画版本,能够在与用户进行持续交互或通信期间以“类似人类”和“类似机器人”的人格使用网络或移动接口与用户聊天并能够切换,被称为动画MIP(AMIP)聊天机器人。AMIP聊天和语音聊天机器人能够通过直接提问来评估和回应用户的情绪和情景、能够表达情感、讲笑话、发表明智的言论、给予掌声、以及在与用户持续交互或通信期间以类似人类的方式提供哲学答案来,同时还在与同一用户的同一个持续交互或通信期间以类似机器人的人格进行评估和回应。
根据另一实施例,能够使用网络或移动接口与处于远程的用户或一组用户交互的AMIP聊天和语音聊天机器人被用于收集用户指定的聊天和语音聊天输入数据,这些输入数据包括但不限于:关于喜剧和游戏场景的用户的提问、评论以及输入,卡拉OK歌曲请求,以及基于互联网的众包环境中的其他建议的输入。用于一组用户的基于互联网的众包环境还可以包括收集用户输入数据,这些输入数据包括但不限于:用户联系方式、地理定位、兴趣、和用户对于交互情景的好恶等、多种交互人格的响应、以及此刻的情况。
在另一个实施例中,用户的输入数据被用在适度的反馈循环中以培训和定制AMIP聊天和语音聊天机器人的多种交互人格以适应用户自己的偏好。然后,使用网络和移动接口、云计算环境以及多个硬件输入设备端口(包括但不限于USB、HDMI、触摸屏、鼠标、键盘和用于移动无线数据连接的SIM卡),下载用户首选的AMIP聊天和语音聊天机器人的定制人格用于远程连接的MIP机器人。在另一个实施例中,允许众包的用户组培训AMIP聊天和语音聊天机器人以及MIP机器人的多种人格以用于一般用途,并且还允许用户根据该用户自己的偏好培训和定制AMIP聊天或语音聊天机器人和MIP机器人的多种人格。众包实施例中的适度反馈循环用于防止和限制用户或用户组使用AMIP聊天和语音聊天机器人以及MIP机器人创建不期望的或滥用的多种交互人格,包括但不限于涉及国家、种族、性取向、肤色和宗教起源的参考和歧视。
在另一个实施例中,用户优选和定制的使用网络和移动接口的AMIP聊天和语音聊天机器人以及位于某物理位置的MIP机器人,被用于包括但不限于教育培训和教学、儿童保育、游戏、情景剧和脱口秀、卡拉OK唱歌、和其他娱乐活动的应用,同时仍然提供典型机器人或社交机器人的所有有用功能。
已经简要描述了本发明实施例的示例性概述,下面描述示例性MIP机器人系统和可以实现本发明实施例的组件,以便提供本发明各个方面的一般内容。现在参考图1,示出了用于实现本发明实施例的示例性MIP机器人系统,并且通常将其指定为MIP机器人设备100。应当理解,MIP机器人设备100和本文描述的其他布置仅作为示例阐述,并且不旨在对本发明的使用范围和功能提出任何限制。可以使用其他布置和元件(例如,机器、接口、功能、顺序和分组等)来代替所示的那些,并且可以完全省略一些元件,并且可以在不改变本发明的实施例的情况下根据相关技术当前和将来的状态添加一些新元件。此外,本公开中描述的块、步骤、过程、设备和实体可以实现为离散或分布式组件或者与其他组件一起实现,并且可以以任何适当组合和位置实现。这里描述的由图中所示的块执行的各种功能可以由硬件、固件和/或软件来执行。
图1中的MIP机器人设备100包括但不限于底座104、躯干106和头部108。底座104支撑机器人并且包括位于底座104内部的用于移动的轮子(未示出)。底座104包括内部电源、充电机构和电池。在一个实施例中,底座104本身可以支撑在另一个具有轮子的移动平台102上,从而该MIP机器人可在包括被配置为与该MIP机器人交互的用户或组用户的环境中移动。躯干106包括摄像机105、触摸屏显示器103、左右扬声器101和107、重低音扬声器110和用于连接外部设备的I/O端口109(图示出为示例性位置)。在一个实施例中,显示器103用于显示“类似人类”的语音的文本形式显示,以表示通过扬声器说出的“类似人类”的特征或人格,以及通过扬声器说出的合成机器人语音的声波形式显示表示MIP机器人的“类似机器人”的人格。头部108包括颈部112,颈部112具有6度的运动、向上、向下、俯仰、转动、偏转、左、右前进和后退运动(参见图11A-C和12A)。使用RGB LED灯114点亮眼睛以及开关电子动画上眼睑116和下眼睑117来实现面部表情的变化(参见图12B的眼睑配置)。除了上面的一般组件及其功能列表之外,典型的机器人还包括电源单元、充电、计算或处理单元、存储单元、存储器单元、连接设备和端口、以及各种传感器和控制器。MIP机器人的这些结构和组件构建块表示MIP机器人的示例性逻辑、处理、传感器、显示、检测、控制、存储、内存、电源、输入/输出以及不一定是实际的组件。例如,在有或没有鼠标和键盘的情况下显示设备单元可以触摸或触摸较少,使用USB、HDMI和以太网电缆端口可以代表关键的I/O组件,根据现有技术的处理器单元也可以具有内存和存储器。图1是可以与本发明的一个或多个实施例一起使用的MIP机器人设备的说明性示例。
可以在具有机载传感器、扬声器、计算机、电源单元、显示器和各种I/O端口的机器人的一般语境中描述本发明。其中,计算机或计算单元包括但不限于计算机代码或机器可读指令,包括计算机可执行的计算机可读程序模块,用于处理和解释从MIP机器人生成的输入数据,该MIP机器人被配置为与一个用户或一组用户组交互,并通过多种交互式语音生成输出响应,这些语音表示可切换的多种交互人格(MIP),包括类似人类和类似机器人的人格。通常,程序模块包括例程、程序、对象、组件、数据结构等,指的是获取输入数据、执行特定任务以及由机器人产生适当响应的计算机代码。通过USB、以太网、WIFI、调制解调器、HDMI端口,MIP机器人还连接到互联网和云计算环境,能够从远程源上传和下载人格、问题、用户响应反馈和修改的人格,这些远程源是例如云计算和存储环境、被配置为亲自与MIP机器人交互的一个用户或一组用户组、以及交互环境内的其他机器人。
图2A和2B,没有任何限制,是配置成与用户202交互的MIP机器人的示例性环境,其中用户202站立(图2A)而MIP机器人被置于用户面前,或被置于坐着(例如,坐在沙发上)和/或在相同或相似环境中站立的另外一组用户202面前(图2B)。示例性MIP机器人设备200与图1的MIP机器人设备100中详述的相同。机器人设备200可以使用机载传感器、相机、麦克风、连同由机载计算机处理的面部和语音识别算法从用户202获取输入数据,来自用户的直接输入包括但不限于示例性触摸屏幕显示、键盘、鼠标、游戏控制器等。用户或用户组202被配置为在该示例性环境中与MIP机器人200交互,并且可以使用交谈、在键盘上键入文本、通过游戏控制器发送游戏控制信号以及表达情绪来与MIP机器人200通信,表达情绪包括但不限于:直接说话、哭泣、大笑、唱歌和开玩笑。响应于MIP机器人接收的输入数据,机器人的响应可以选择使用类似人类的声音和记录的场景中的类似人类的人格、或者使用类似机器人的声音和响应的类似机器人的人格。
在图3-5中描述了MIP机器人的交互的示例性算法和处理流程图,该MIP机器人能够以类似机器人的语音或类似人类的语音与用户交谈,并且在没有任何重叠或冲突的情况下在两种人格之间切换。在图3中实现这一点的整个系统流程图300表明在处理流程中具有两个主要步骤。步骤400是用户-机器人对话的步骤1,基于先前的交互或通信从用户获取输入302,确定是否机器人将会说话或者允许用户继续。如果轮到机器人说话,那么根据输入数据,MIP机器人会分析情况,并决定机器人是否会以类似机器人的人格或类似人类的人格说话。步骤500是用户反馈以定制的步骤2,获取用户反馈并给出适当响应。如图3所示,步骤400和500分别在图4和图5中进一步描述。
示出了用于基于先前的交互或通信的从用户获取输入的示例性算法和处理流程,其中机器人确定是用户还是具有类似机器人或人类人格的机器人将进行响应。在302中接收来自先前交互或通信的输入。在402中完成输入302的分析以确定用户是在讲话还是键入输入。如果用户没有讲话或键入输入,则步骤404检查机器人是在讲话还是键入。如果机器人正在讲话或键入,则步骤406使当前活动的音频和文本输出完成,并在完成时等待进一步的用户输入。如果机器人在步骤405中没有说话或键入,则机器人将等待或空闲以备进一步的输入或交互。另一方面,如果在分析和决策框402中用户在讲话或键入,则框408检查机器人是在讲话还是键入。如果框408中机器人在讲话,则框410暂停机器人的语音,并且在框414中将来自用户的语音输入翻译成文本并键入机器人的显示屏幕,以使用户更容易验证机器人从人类所听取的内容。因此,用户可以看到机器人的声音在显示屏上显示为文本,并且在418中所显示的文本也在用户日志数据库中进行记录。在418中将用户的语音或文本输入记录在数据库中之后,在框420中查询数据库,在框424中更新用户简档,并且在框428中分析查询以做出决定并对其作出响应。如果在框428中存在针对用户在418中的当前输入或查询的预先记录的响应,则在框428中伴随机器人的面部表情变化和其他动作在输出上播放预先记录的响应。如果在框418中没有针对用户当前输入的预先记录的响应的决定,则在框424中更新用户数据库,并且通过预先记录的游戏化的响应对用户进行奖励,通过诸如分数、徽章、优惠券之类的数字奖励、证书等以激励用户进行交互并保留和吸引用户。在框424中奖励用户之后,给予用户一个类似机器人语音的典型机器人响应或机器人聊天响应。这是步骤400中详述并在图4中示出的用户-机器人对话交互算法的输出428的第三个潜在结果。
上述用户对话算法的处理流程,没有任何限制,确保了框302中对于用户的当前输入,输出428为:或者是机器人讲出/键入预先记录的响应,即,机器人伴随着适当的面部表情变化和其他动作播放来自数据库的预先记录的“类似人类”的响应,或者是机器人用来自框420的类似机器人的响应以合成的语音作出响应。框418记录用户的语音或文本输入以供将来分析和进一步的逐步机器学习和人工智能驱动的改进。如果没有找到适当响应,则框424使用游戏化的响应和奖励积分、优惠券、徽章和证书等奖励用户,以鼓励用户给出反馈、输入、脚本场景以进一步分别改进MIP和AMIP类型的机器人和语音聊天机器人。在图5的反馈算法中描述了用户在输出响应428上给出的反馈。
用户反馈的处理流程500如图5所示。用户接收机器人的输出响应428,并且在框502中提示用户以简单的拇指向上或向下、语音、键盘或鼠标点击类型响应的形式提供反馈。如果反馈不好,则在框504中播放用户预先记录的机器人消息。如果反馈是好的,则在框506中向用户询问另一个问题作为输入,以再次将该过程继续到用户下一个输入步骤402。如果用户没有反馈,则在框508中给出另一个预先记录的机器人响应,再次询问用户反馈。如果得到的反馈不好,则给用户提供预先记录的答案框504,但是如果反馈是好的,则用户被引导到框506以询问预先记录的问题以在下一个用户输入步骤402继续该过程。
根据一个实施例,还创建了纯粹基于软件的MIP机器人的动画版本,其能够没有任何限制地分别经由互联网连接的网络或移动设备上的网络或移动接口与用户交互。能够使用网络或移动接口与用户聊天的MIP机器人600的动画版本被称为动画MIP(AMIP)聊天机器人。能够以类似人类和类似机器人的人格使用多种语音与用户交谈的MIP机器人600的动画版本,称为动画MIP(AMIP)语音聊天机器人。在图6A中示出了网络界面602上的AMIP聊天或语音聊天机器人600的示例性草图,其中图6B示出作为移动平板电脑界面604或智能电话界面606上的AMIP聊天或语音聊天机器人600的示例性草图。AMIP聊天和语音聊天机器人能够通过直接提问、表达情感、讲笑话、发表明智的言论、鼓掌、并在与用户持续交互或通信中以类似人类的方式提供哲学答案来评估用户的情绪和状况,同时在与同一用户的同一持续交互或通信期间也以类似机器人的方式响应。
根据另一实施例,使用网络或移动接口与远程连接的用户或用户组交互的AMIP聊天和语音聊天机器人被用于收集用户指定的聊天和语音聊天输入数据,包括但不限于,用户联系方式、性别、年龄组、收入组、教育、地理位置、兴趣、好恶,以及用户的问题、评论、脚本场景、和在基于网络和移动的众包环境内的对于AMIP聊天和语音聊天机器人的响应的反馈等。
根据一个实施例,在图7A中并继续在图7B的700中描述了一种没有任何限制的示例性算法和处理流程,用于培训输入数据的众包中与用户或用户组对话、并获得用户对AMIP聊天或语音聊天机器人响应的反馈。处理流程始于先前机器人聊天和聊天响应和用户输入702的当前数据库。在框704中为用户播放被记录的机器人响应的新抄本,并且获得用户的反馈。如果用户在框706中给出不好的或否定的反馈,则在框710中对数据库内的新抄本的响应反馈给予递减或负评级。如果用户在框706中给出良好或积极的反馈,则在框708中对数据库内的新抄本的响应反馈给予增量或正评级。对于框710中的用户的不良反馈或负反馈,在框712中询问用户是否想要提交替代响应。如果用户的回答是肯定的,则要求用户提交替代响应714,并且在框716中指引用户将替代响应发布到开发者的门户。如果用户的答案为否,则在框716中仍然将用户指引到开发者的门户作为下一步骤。对于用户对新抄本的良好反馈和增量评级,在框716中将新抄本发布到开发者的门户作为下一步骤。在框718中,开发者的社区对来自框708的发布的新抄本或用户从框714提交的替代响应抄本投赞同票或投反对票。裁判在框720中接受或拒绝新抄本或替代的响应抄本。在框722中更新软件响应数据库,并且在框724中将更新过的响应数据库准备好下载到改进的MIP机器人或AMIP聊天或语音聊天机器人中。
作为本发明的一个实施例,在图8中示出了在台式电脑屏幕上的网络接口的屏幕上显示的AMIP语音聊天机器人800的示例性工作版本。此AMIP语音聊天机器人800被用来测试以“类似机器人”和“类似人类”两者的人格特征与人类用户进行交流和交互,两者之间没有重叠或冲突,并且在“类似人类”和“类似机器人”的声音、面部表情和人格之间按需切换。作为本发明的另一个实施例,图8的AMIP语音聊天机器人800还用于在上面图7A和图7B中描述的众包方法的模拟中获得用户反馈、评级和备选脚本场景。
根据一个实施例,可以根据用户或用户组的偏好来改变和定制MIP机器人或AMIP聊天或语音聊天机器人中的“类似人类”与“类似机器人”的人格特征的比率。这是通过在图4-5中描述的用户-机器人对话算法期间包括附加的概率或随机分量来完成的。在没有任何限制的情况下实现此目的的示例性算法在图9A-9B中描述。如果在框428中存在预先记录的“类似人类”的对用户输入的机器人响应,则针对用户i使用概率权重Wi(其中0<Wi<1)来选择机器人是否使用“类似人类”或“类似机器人”的人格特征作出响应(图9A)。在图9B中,在框902中生成随机数0<Ri<1,并在框904中与Wi进行比较。对于Wi>Ri,MIP机器人或AMIP聊天或语音聊天机器人在框906中以“类似人类的人格”特征作出响应,否则MIP机器人或AMIP聊天或语音聊天机器人在框908中以“类似机器人”的人格特征作出响应。用户的概率加权因子Wi或一组用户的概率加权因子Wg可以在使用图7A-7B中描述的众包用户输入和反馈方法的机器人的培训期间通过示例性稳态蒙特卡洛类型算法来生成。
根据另一实施例,用户的概率加权因子Wi或用户组的概率加权因子Wg与MIP机器人或AMIP聊天或语音聊天机器人对愉悦、浪漫、商业类型、基于事实、哲学、教师类型的响应的用户偏好相关联。一旦在机器人响应数据库中填充了足够的“类似人类”的响应,一些用户可能更喜欢愉悦的响应,而一些其他用户可能更喜欢浪漫的响应,还有一些其他用户可能更喜欢商业或基于事实的响应,而仍有一些其他用户可能喜欢哲学、教师类型或深情的响应。例如,接近1的概率权重因子Wi可能主要更喜欢“类似人类”的响应,而接近0的概率权重因子Wi可能主要更喜欢“类似机器人”的响应(图9A)。示例性聚类和相关类型图可以将一组用户分成优选愉悦或喜剧、情感或浪漫、商业或基于事实、哲学、鼓舞人心、宗教或教师类型响应的子组,而没有任何限制。
已经简要描述了本发明的实施例的示例性概述,下面描述其中可以实现MIP机器人的实施例的示例性操作环境、系统和组件,以便提供本发明的各个方面的一般机器人语境。应当理解,本文所述的1000中机器人操作环境和组件以及其他布置仅作为示例阐述,并且不旨在对本发明的使用范围和功能提出任何限制。图10中的机器人设备1000包括一个或多个总线,直接或间接耦合了内存/存储器1002、一个或多个处理器1004、传感器和控制器1006、输入/输出端口1008、输入输出组件1010和电源1012,以及1014中的伺服电机和电机。这些框表示逻辑的,不一定是实际的组件。例如,显示设备可以是I/O组件,处理器也可以根据现有技术带有内存。图10是可以与本发明的一个或多个实施例一起使用的环境、计算、处理、存储、显示、传感器和控制器设备的说明性示例。
最后,作为本发明的一个实施例,在图11A-11C和12A-12B中我们示出了头部以及伴随的眼睛和眼睑变化的六度运动,以产生适合的面部表情以与本发明中描述的多个交互式声音和人格一起使用。图11A-11C和12A示出了头部108相对于躯干106的示例性六度运动。在各个方面,六度运动包括俯仰(图11A,旋转/向下看和旋转/向上看)、偏转(图12A,旋转/向右看以及旋转/向左看)和转动(图11B,沿视线方向向右旋转和向左旋转)。在另一方面,运动度包括头部108相对于躯干106的平移(图11C),沿着视线方向平移/右移以及平移上左移)。在又一方面,运动度包括头部108相对于躯干106的进一步平移(未示出,沿着视线方向平移/向前移动和平移/向后移动)。图12B示出了在背景中使用LED灯114可以实现眼睑116和/或117(例如,完全打开、部分闭合、闭合)和眼睛的运动。
本发明中使用的组件和工具可以在执行软件指令的一个或多个计算机上实现。根据本发明的一个实施例,所使用的工具可以与通过计算机网络或基于光纤或铜缆的电信网络发送和接收数据的服务器和客户端计算机系统通信。访问、下载和操纵数据的步骤以及本发明的其他方面由执行存储在存储器中的指令序列的服务器和客户端计算机中的中央处理单元(CPU)实现。存储器可以是随机存取存储器(RAM)、只读存储器(ROM)、持久存储器,例如大容量存储设备,或这些设备的任何组合。执行指令序列使CPU执行根据本发明实施例的步骤。
指令可以从存储设备或通过网络连接从一个或多个其他计算机系统加载到服务器或客户端计算机的存储器中。例如,客户端计算机可以响应于由服务器通过网络发送到客户端的消息,将一系列指令发送到服务器计算机。当服务器通过网络连接接收指令时,它将指令存储在存储器中。服务器可以存储指令以供稍后执行,或者它可以在指令通过网络连接到达时执行这些指令。在某些情况下,CPU可以直接支持下载的指令。在其他情况下,指令可能不能由CPU直接执行,而是可以替代地由解释指令的解释器执行。在其他实施例中,可以使用硬连线电路代替软件指令或与软件指令组合以实现本发明。因此,本发明中使用的工具不限于硬件电路和软件的任何特定组合,也不限于服务器或客户端计算机执行的指令的任何特定源。在某些情况下,客户端和服务器功能可以在单个计算机平台上实现。
因此,本发明不限于这里描述的实施例,并且在不脱离本发明的精神和范围的情况下,可以以各种方式修改本发明的组成元件。还可以从实施例中公开的多个组成元件的任何适当组合中提取本发明的各个方面。可以在实施例中公开的所有组成元件中删除一些组成元件。不同实施例中描述的组成元件可以任意组合。
在下文中参考附图更全面地描述了本发明的实施例,附图形成了本发明的一部分,并且通过图示的方式示出了可以实践本发明的特定示例性实施例。然而,本发明可以以许多不同的形式实施,并且不应该被解释为限于这里阐述的实施例。相反,提供所公开的实施例是为了使本公开彻底和完整,并且向本领域技术人员充分传达本发明的范围。
在整个说明书和权利要求书中,除非上下文另有明确规定,否则以下术语采用本文明确相关的含义。这里使用的短语“在一个实施例中”尽管可以但不一定是指相同的实施例。此外,这里使用的短语“在另一个实施例中”尽管可以但也不一定是指不同的实施例。因此,如下所述,在不脱离本发明的范围或精神的情况下,可以容易地组合本发明的各种实施例。
在以下编号的条款中描述了各种实施例:
1.一种向机器人提供一种或多种人格类型的方法,其中该方法包括:
使机器人能够以一种或多种语音类型、口音、语言以及伴有适当的面部表情的情感说话,以展示一种或多种交互人格类型,并能够在与用户或用户组的持续交互或通信期间在不同人格之间来回切换;
使机器人能够使用但不限于声音、语音和机器人上的面部识别传感器、并使用连接装置来直接提问并获得附加信息,其中该信息涉及用户或用户组与彼此间交互的机器人设备之间的交互或通信;
使机器人能够处理所述信息以生成数据,以使机器人能够以具有所选口音、语言和伴随面部表情的情感的任意一种或多种语音类型进行响应和说话,从而机器人赋予多种交互人格,使其能够在与用户持续交互或通信期间在该多种人格之间切换,其中对获得的信息的处理发生在机器人设备内,以便机器人更快速和瞬时地响应用户而在机器人的多重人格或声音之间没有任何重叠或冲突;以及
使机器人能够在机器人与用户或用户组的持续交互或通信期间展示一种或多种交互人格类型,并在它们之间切换。
2.如条款1所述的方法,其中机器人包括以默认合成的或计算机生成的合成语音说话以表示默认的类似机器人人格的能力。
3.如条款1所述的方法,其中机器人还包括以一种或多种数字记录的人类语音说话的能力,以在机器人与用户或用户组的持续交互期间表示“类似人类”的多种人格。
4.如条款3所述的方法,其中以数字记录的人类语音或以合成的“类似人类语音”说话的一种或多种“类似人类”的人格在与用户或用户组的交互期间提出问题并表达情感,而条款2的默认的类似机器人的人格在与用户或用户组相同的持续交互或通信期间以合成的类似机器人的语音说话。
5.如条款4所述的方法,其中以合成的类似机器人的语音说话的类似机器人的人格可以用人工智能(Al)学习和分析的事实与图片来回应,并且在与用户或用户组相同的持续交互或通信期间不展示任何情感或提出任何问题。
6.如条款4所述的方法,其中一个或多个“类似人类”的人格也可以用计算机合成的工程化的语音说话,以模仿特定人或人格的类似人类的声音,能够在与单个用户或用户组持续的交互或通信期间提出问题和表达情感。
7.如条款1所述的方法,其中语言没有任何限制地包括主要口语语言中的任何一种或其组合,所述主要语言包括英语、法语、西班牙语、德语、葡萄牙语、中文-普通话、中文-粤语、韩语、日语和主要的南亚语和印度语,诸如,乌尔都语、旁遮普语、孟加拉语、古吉拉特语、马拉地语、泰米尔语、泰卢固语、马拉雅拉姆语和孔卡尼语等。
8.如条款1所述的方法,其中允许的口音没有任何限制地包括条款7的主要口语的任何一个或组合的本地化口语风格或方言。
9.如条款1所述的方法,其中所述口语单词或语音的情感,没有任何限制地可以包括音质、音调和音量的变化,以表示通常与数字记录的人类语音相关联的情绪。
10.如条款1所述的方法,其中伴随着机器人中的声音或人格类型的适当面部表情是通过眼睛形状的变化、使用微型LED灯的眼睛颜色变化以及眼睑的形状以及头部相对于躯干的六度运动来产生的。
11.如条款1所述的方法,其中伴随机器人装置中的语音或人格类型的适当面部表情是通过使用微型LED灯改变嘴和嘴唇的形状来产生的。
12.如条款1所述的方法,其中在机器人设备中具有适当面部表情的语音或人格类型,没有任何限制地伴随着机器人的手部运动或手势。
13.如条款1所述的方法,其中机器人的具有合适面部表情的多个人格类型,没有任何限制地伴随有机器人在交互范围或通信范围内的运动,用户或用户组被配置为彼此间或与机器人在该范围内交互。
14.如条款1所述的方法,其中所述机器人能够进行机载计算并且被配置为与周围环境交互,而该环境内不存在用户或用户组。
15.如条款1所述的方法,其中所述机器人被配置为在周围环境内与条款1的方法的另一机器人交互,而该环境内不存在任何用户或一组用户。
16.如条款1所述的方法,其中所述机器人被配置为在周围环境中条款1的方法的另一机器人交互,该环境中存在用户或用户组。
17.如条款1所述的方法,其中连接设备可以包括但不限于键盘、触摸屏、HDMI线缆、个人计算机、移动智能电话、平板计算机、电话线、无线移动设备、以太网电缆或Wi-Fi连接。
18.如条款1的方法,其中机器人的条款4和6的类似人类的人格,没有任何限制地可以基于被配置为与机器人设备交互的用户或用户组的当地地理位置、当地天气、当天当地时间和记录的历史信息的语境。
19.如条款1的方法,其中机器人的条款4和6的类似人类的人格,没有任何限制地,可以在机器人与用户或用户组的持续交互或通信期间讲笑话、表达快乐和悲伤的情感、唱歌、播放音乐、发表鼓励的言论、发表鼓舞人心的言论、表演记录的喜剧例程等,以娱乐用户或用户组。
20.如条款19所述的方法,其中条款5的类似机器人的默认人格仍然可以执行由机器人为用户或用户组执行的功能上有用的任务,其中在相同的持续交互或通信期间,该用户或用户组同样被条款19的类似人类的人格娱乐。
21.如条款19所述的方法,其中条款5的类似机器人的默认人格和条款4和6的类似人类的人格可以一起协同工作,没有任何限制地参与例行的讲述笑话、表达快乐或悲伤的情绪、唱歌、播放音乐、发表鼓励性言论、发表精神或鼓舞人心的评论、发表明智的评论、表演自发的和录制的喜剧节目,并进行典型的机器人功能任务,没有任何限制,用于向配置为与该机器人交互的用户或用户组提供娱乐。
22.如条款21所述的方法,其中条款4-6的类似人类的和默认类似机器人的人格,分别可以一起协同工作以便与用户或用户组交互和通信,以达到娱乐、教育、培训、迎宾、导游、客户服务和任何其他目的,没有任何限制,其中默认类似机器人的人格仍然执行功能上有用的机器人任务。
23.如条款22所述的方法,其中条款4-6的类似人类的和默认类似机器人的人格,实现于动画式的多种交互人格(AMIP)聊天和语音聊天机器人软件版本中,其被配置为通过支持它们的网络或移动接口和设备与用户或用户组进行交互。
24.如条款23所述的方法,其中AMIP聊天和语音聊天机器人以“类似人类”的方式使用类似人类的人格特征与用户交互,同时还在通过支持它们的网络或移动界面与设备与用户进行持续的交互或对话期间、以类似机器人的方式使用类似机器人的人格特征与用户交互。
25.如条款23所述的方法,其中AMIP聊天和语音聊天机器人的网络和移动版本与位于远程的用户或用户组交互或通信以从用户收集数据,这些数据包括但不限于用户联系方式、性别、年龄-群体、收入群体、教育、地理位置、兴趣、好恶,以及用户的问题、评论、情景、以及在基于网络和移动的众包环境内对于AMIP聊天和语音聊天机器人响应的反馈等。
26.如条款25所述的方法,其中从通过基于网络和移动的众包环境与AMIP聊天和语音聊天机器人交互的远程连接的用户收集的数据,被用于创建默认的多种交互人格,以及通过交互式反馈循环根据用户偏好定制多种交互人格。然后通过交互式反馈循环根据用户的偏好定制的人格可供下载并用作使用条款1的方法制作的多种交互人格的机器人。
27.如条款25所述的方法,其中使用适当算法调整由AM IP聊天和语音聊天机器人在众包环境中通过网络和移动界面对位于远程的用户作出的类似人类的响应和类似机器人的响应的比率,没有任何限制,使用反馈循环根据用户的偏好定制AMIP聊天和语音聊天机器人中的多种交互人格。然后根据用户的偏好定制的人格可供下载并用作使用条款1的方法制作的多种交互人格的机器人。
28.一种机器人装置系统,能够展示条款1中的两种或两种以上的人格类型,包括:
物理机器人装置系统;
中央处理单元(cpu);
传感器,用于在机器人的交互范围内收集用户的输入数据;
控制器,控制机器人的头部、面部、眼睛、眼睑、嘴唇、嘴巴和基部运动;
有线或无线功能,连接互联网、移动设施、云计算系统、其他具有端口以与键盘连接的机器人、USB、HDMI线、个人电脑、移动智能手机、平板电脑、电话线、无线移动、以太网线和Wi-Fi连接;
触敏或非触敏显示器,通过适当端口连接到键盘、鼠标、游戏控制器;
PCI插槽,用于单载波或多载波SIM卡,直接连接用于数据和VOIP通信的无线移动数据线;
具有有线和感应充电站的机载电池或电源系统;以及
存储器,包括存储的与机器人人格相关的先前数据以及处理器执行的指令,以处理收集的输入数据,以便机器人没有任何限制地执行以下功能:
从传感器输入数据中获取信息;
确定多个人格类型中的哪一个将响应;
确定响应的方式和类型;
机器人执行响应,多个人格之间没有任何重叠或冲突;
存储与改变机器人的多个人格有关的信息;
改变机器人的任何一个或全部存储的多个人格;
删除存储的机器人的先前人格;以及
创造机器人的新人格。
29.如条款28所述的机器人系统,其中在包括机器人和用户或用户组的附近或交互范围内的输入数据包括:
与用户和机器人之间的书面和口头通信相关的一个或多个通信字符、单词和句子;
与用户和机器人之间的视觉和光学通信有关的一个或多个通信图像、光、视频;
与用户和机器人之间的通信有关的一个或多个通信声音;以及
与用户和机器人之间的通信相关的一个或多个通信触觉,以传达根据条款1的与确定用户或用户组的先前情绪有关的信息。
30.一种计算机可读介质,存储有条款28的可执行指令,当由计算机装置执行时,使计算机装置执行条款1的方法以接收输入数据、处理数据以便向机器人装置提供信息,用于为机器人从两种或多于两种的交互人格中选择一种,以响应用户或用户组并与之通信。
此外,虽然已经描述了本发明的某些实施例,但是这些实施例仅作为示例呈现,并且不旨在限制本发明的范围。实际上,本文描述的新颖方法和系统可以以各种其他形式体现;此外,在不脱离本发明的精神的情况下,可以对本文描述的方法和系统的形式进行多种省略、替换和改变。
如在本说明书和权利要求中所使用的,术语“例如”、“诸如”、“举例来说”和“像”,以及动词“包括”、“具有”、“包含”以及它们的其他动词形式,当与一个或多个组件或其他项目的列表结合使用时,每个都被解释为开放式的,这意味着该列表不被视为排除其他附加组件或项目。其他术语应使用其最广泛的合理含义来解释,除非它们用于需要不同解释的上下文中。
权利要求书(按照条约第19条的修改)
1.一种向机器人提供多种人格的方法,其中该方法包括:
使机器人能够以多种语音、口音、语言和伴随适当面部表情的情感说话,以展示多种交互人格,其中所述多种人格包括至少一种机器人人格和至少一种人类人格;
使机器人在与用户的相同的持续交互或通信期间,能够在所述多种人格中的不同人格之间来回切换,而在不同人格之间没有任何重叠或冲突;
使机器人能够使用连接设备和声音、语音或该机器人上的面部识别传感器中的至少一项来直接向用户提问并获得附加信息,其中该附加信息涉及与该用户的相同的持续交互或通信;以及
使机器人能够处理所述附加信息以生成数据,以使该机器人能够以多种语音、口音、语言和伴随适当的面部表情的情感中的任意一项进行响应和说话,其中对附加信息的处理发生在所述机器人设备内,以便机器人更快速和瞬时地响应用户。
2.如权利要求1所述的方法,其中所述多种语音包括至少一个默认的合成式数字语音或计算机生成的合成语音以展示所述至少一种机器人人格。
3.如权利要求2所述的方法,其中所述多种语音包括至少一种数字记录的人类语音以展示所述至少一种人类人格。
4.如权利要求3所述的方法,进一步包括:
使机器人能够在与用户的相同的持续交互或通信期间使用至少一种数字记录的人类语音提问并表达情感;以及
使机器人能够在与用户的相同持续交互或通信期间以至少一种默认的合成数字语音说话。
5.如权利要求4所述的方法,进一步包括:
使机器人能够通过人工智能学习和分析的事实和图片使用至少一种默认的合成数字语音进行响应而不展示任何情感或提出任何问题。
6.如权利要求3所述的方法,其中所述多种语音包括至少一种计算机合成的工程化的语音来模仿特定人或人格的人类语音,以展示与该特定人或人格相关的人类人格。
7.如权利要求1所述的方法,其中多种语言包括英语、法语、西班牙语、德语、葡萄牙语、中文-普通话、中文-粤语、韩语、日语、北印度语、乌尔都语、旁遮普语、孟加拉语、古吉拉特语、马拉地语、泰米尔语、泰卢固语、马拉雅拉姆语或孔卡尼语中的至少一种。
8.如权利要求7所述的方法,其中多种口音包括与多种语言相关的本地化口语风格或方言。
9.如权利要求1所述的方法,其中多种情感包括含有音质、音调或音量中的至少一种变化的口语词或语音,以表示与至少一种数字记录的人类语音相关的情感。
10.如权利要求1所述的方法,进一步包括:
使机器人能够改变眼睛形状、眼睛颜色、眼睑的位置、或者头部相对于躯干的位置中的至少一项来产生所述伴随的适当面部表情。
11.如权利要求1所述的方法,进一步包括:
使机器人能够通过微型LED灯改变其嘴和嘴唇的形状来产生所述伴随的适当面部表情。
12.如权利要求1所述的方法,进一步包括:
使机器人能够执行一个或多个手部运动或手势来伴随多种交互人格。
13.如权利要求1所述的方法,进一步包括:
针对多种不同的人格,使机器人能够在用户或用户组的交互范围或通信范围内运动,其中该组用户组彼此间交互或与机器人交互。
14.如权利要求1所述的方法,其中机器人被配置为与周围环境交互,而该环境内不存在用户或用户组。
15.如权利要求1所述的方法,其中机器人被配置为在周围环境内与另一机器人交互,而该周围环境内不存在用户或用户组。
16.如权利要求1所述的方法,其中所述机器人被配置为在周围环境内与另一机器人交互,该周围环境中存在用户或用户组。
17.如权利要求1所述的方法,其中所述连接设备包括键盘、触摸屏、HDMI线缆、个人计算机、移动智能电话、平板计算机、电话线、无线移动设备、以太网电缆或Wi-Fi连接中的的至少一个。
18.如权利要求3所述的方法,其中所述至少一种人类人格基于下述内容的一个或多个:
与当地地理位置、当地天气、当天当地时间相关的语境;或者
与配置为与机器人交互的用户或用户组相关的被记录的历史信息。
19.如权利要求3所述的方法,进一步包括:
使机器人能够,对于至少一种人类人格,可以在机器人与用户或用户组的相同的持续交互或通信期间为该用户或用户组做以下至少一项:讲笑话、表达快乐和悲伤的情感、唱歌、播放音乐、发表鼓励的言论、发表鼓舞人心的言论、发表明智的言论、表演自发的或录制的喜剧节目。
20.如权利要求19所述的方法,进一步包括:
使机器人能够,对于至少一种机器人人格,通过人工智能学习和分析的事实和图片作出响应而不展示任何情感或提出任何问题,从而所述至少一种机器人人格在与该用户或用户组的相同的持续交互或通信期间为该用户或用户组执行功能上有用的任务。
21.如权利要求20所述的方法,进一步包括:
使机器人能够在所述至少一种人类人格和所述至少一种机器人人格之间来回切换,从而所述至少一种人类人格和所述至少一种机器人人格在与用户或用户组的相同的持续交互或通信期间一起协同工作。
22.如权利要求20所述的方法,进一步包括:
使机器人能够在所述至少一种人类人格和所述至少一种机器人人格之间来回切换,从而所述至少一种人类人格和所述至少一种机器人人格在与该用户或用户组的相同的持续交互或通信期间一起协同工作以向该用户或用户组提供娱乐、教育、培训、迎宾、导游、或客户服务。
23.如权利要求22所述的方法,其中该机器人是通过AMIP聊天机器人或语音聊天机器人软件提供的动画式多种交互人格(AMIP)聊天和语音聊天机器人,并且其中该用户或用户组通过网络接口设备或移动接口设备与该AMIP聊天机器人或语音聊天机器人进行交互或通信。
24.如权利要求23所述的方法,其中在通过网络接口或移动接口与该用户或用户组进行相同的持续交互或通信期间,所述AMIP聊天机器人或语音聊天机器人以人类的方式使用至少一种人类人格、以及以机器人的方式使用至少一种机器人人格与该用户或用户组进行交互。
25.如权利要求23所述的方法,其中该用户或用户组位于远程,并且其中所述附加信息包括以下一项或多项:用户联系方式、性别、年龄群体、收入群体、教育、地理位置、兴趣、好恶、用户问题、用户评论、情景、以及对于基于网络或基于移动的众包环境内的响应的反馈。
26.如权利要求25所述的方法,进一步包括:
使用附加信息以便:
创建多种交互人格;以及
通过交互反馈循环基于用户偏好定制多种交互人格;以及
使得该定制的多种交互人格可下载并用于AMIP聊天机器人或语音聊天机器人。
27.如权利要求23所述的方法,进一步包括:
使用算法调整通过至少一种人类人格以人类方式作出的响应、以及通过至少一种机器人人格以机器人方式作出的响应的比率;
使用反馈循环定制多种交互人格;以及
使得所述定制的多种交互人格可下载并用于AMPI聊天机器人或语音聊天机器人。
28.一种机器人系统,能够展示多种以上的人格,该机器人系统包括:
物理机器人,包括;
中央处理单元;
至少一个传感器,用于在机器人的交互范围内收集用户的输入数据,其中该至少一个传感器,包括声音、语音以及面部识别传感器中的一个或多个;
至少一个控制器,用于控制机器人的头部、面部、眼睛、眼睑、嘴唇、
嘴巴和基部运动;
有线或无线网络连接,配置为与因特网、移动系统、云计算系统、或其他机器人中的至少之一连接;
至少一个端口,配置为与键盘、USB、HDMI线、个人电脑、移动智能手机、平板电脑、电话线、无线移动设备、以太网线和Wi-Fi连接中的一个或多个连接;
触敏或非触敏显示器;
PCI插槽,用于与直接的无线移动数据线相连接的单载波或多载波SIM卡,以实现数据和VOIP通信;
机载电池或电源系统,配置为有线和感应充电站;以及
存储器,包括:
先前存储的与所述多种机器人人格相关的数据,其中所述多种人格包括至少一种机器人人格和至少一种人类人格;以及
中央处理器可执行的软件,以执行以下功能:
向用户提出问题以通过所述至少一个传感器和所述至少一个端口中的一个或多个获取附加信息,其中附加信息涉及与用户的相同的持续交互或通信;
确定在与用户的相同的持续交互或通信期间所述多种不同人格中的哪些将作出响应,其中每个不同的人格由声音、口音、语言和伴随适当面部表情的情感予以展示;
确定响应的方式和类型;
在与用户的相同的持续交互或通信期间,通过在所述多种不同人格之间来回切换而执行该响应,在所述多种不同人格之间没有任何重叠或冲突;以及
管理该多个不同的人格,其中所述管理包括:
存储与多个不同人格中任一的改变相关的信息;
删除先前存储的所述多种人格;以及
创造新的人格。
29.如权利要求28所述的机器人系统,其中所述附加信息包括下述内容的至少一个:
与用户和机器人之间的书面和口头通信相关的一个或多个通信的字符、单词和句子;
与用户和机器人之间的视觉和光学通信有关的一个或多个通信的图像、光、视频;
与用户和机器人之间的通信有关的一个或多个通信的声音;或者
与用户和机器人之间的通信相关的一个或多个通信的触觉;
其中所述附加信息用于确定用户情绪以确定响应的方式和类型。
30.一种存储有可执行指令的计算机可读介质,当该可执行指令由机器人的计算机处理器执行时,使得计算机处理器:
接收输入数据,包括与机器人和用户之间相同的持续交互或通信有关的附加信息,其中所述附加信息是响应机器人向用户的提问而被接收;
处理该附加信息,以确定多种机器人交互人格、用以在该相同的持续交互或通信期间对用户做出响应,其中所述多种人格包括至少一种机器人人格和至少一种人类人格;其中每个交互人格由声音、口音、语言和伴随适当面部表情的情感予以展示;以及
在与用户的相同的持续交互或通信期间,通过在所述多种人格中的不同人格之间来回切换而对用户作出响应,在机器人的所述多种不同人格之间没有任何重叠或冲突。

Claims (30)

1.一种向机器人提供一种或多种人格类型的方法,其中该方法包括:
使机器人能够以一种或多种语音类型、口音、语言和伴随适当面部表情的情感说话,以展示一种或多种交互人格类型,其中该机器人能够在与用户的持续交互或通信期间在不同人格之间来回切换;
使机器人能够使用连接设备和声音、语音或该机器人上的面部识别传感器中的至少一项来直接提问并获得附加信息,其中该附加信息涉及与该用户的持续交互或通信;以及
使机器人能够处理所述附加信息以生成数据,以使该机器人能够以一种或多种语音类型、口音、语言和伴随适当的面部表情的情感中的任意一项进行响应和说话,其中对附加信息的处理发生在所述机器人设备内,以便机器人更快速和瞬时地响应用户而在不同人格类型之间没有任何重叠或冲突。
2.如权利要求1所述的方法,其中所述一种或多种语音类型包括至少一个默认的合成式数字语音或计算机生成的合成语音以展示至少一种机器人人格。
3.如权利要求2所述的方法,其中所述一种或多种语音类型包括至少一种数字记录的人类语音以展示至少一种人类人格。
4.如权利要求3所述的方法,进一步包括:
使机器人能够在与用户的持续交互或通信期间使用至少一种数字记录的人类语音提问并表达情感;以及
使机器人能够在与用户的相同持续交互或通信期间以至少一种默认的合成数字语音说话。
5.如权利要求4所述的方法,进一步包括:
使机器人能够通过人工智能学习和分析的事实和图片使用至少一种默认的合成数字语音进行响应而不展示任何情感或提出任何问题。
6.如权利要求3所述的方法,其中所述一种或多种语音类型包括至少一种计算机合成的工程化的语音来模仿特定人或人格的人类语音,以展示与该特定人或人格相关的人类人格。
7.如权利要求1所述的方法,其中一种或多种语言包括英语、法语、西班牙语、德语、葡萄牙语、中文-普通话、中文-粤语、韩语、日语、北印度语、乌尔都语、旁遮普语、孟加拉语、古吉拉特语、马拉地语、泰米尔语、泰卢固语、马拉雅拉姆语或孔卡尼语中的至少一种。
8.如权利要求7所述的方法,其中一种或多种口音包括与一种或多种语言相关的本地化口语风格或方言。
9.如权利要求1所述的方法,其中一种或多种情感包括含有音质、音调或音量的至少一种变化的口语词或语音,以表示与至少一种数字记录的人类语音相关的情感。
10.如权利要求1所述的方法,进一步包括:
使机器人能够改变眼睛形状、眼睛颜色、眼睑的位置、或者头部相对于躯干的位置中的至少一项来产生所述伴随的适当面部表情。
11.如权利要求1所述的方法,进一步包括:
使机器人能够通过微型LED灯改变其嘴和嘴唇的形状来产生所述伴随的适当面部表情。
12.如权利要求1所述的方法,进一步包括:
使机器人能够执行一个或多个手部运动或手势来伴随一种或多种交互人格类型。
13.如权利要求1所述的方法,进一步包括:
针对多种不同的人格类型,使机器人能够在用户或用户组的交互范围或通信范围内运动,其中该组用户组彼此间交互或与机器人交互。
14.如权利要求1所述的方法,其中机器人被配置为与周围环境交互,而该环境内不存在用户或用户组。
15.如权利要求1所述的方法,其中机器人被配置为在周围环境内与另一机器人交互,而该周围环境内不存在用户或用户组。
16.如权利要求1所述的方法,其中所述机器人被配置为在周围环境内与另一机器人交互,该周围环境中存在用户或用户组。
17.如权利要求1所述的方法,其中所述连接设备包括键盘、触摸屏、HDMI线缆、个人计算机、移动智能电话、平板计算机、电话线、无线移动设备、以太网电缆或Wi-Fi连接中的的至少一个。
18.如权利要求3所述的方法,其中所述至少一种人类人格基于下述内容的一个或多个:
与当地地理位置、当地天气、当天当地时间相关的语境;或者
与配置为与机器人交互的用户或用户组相关的被记录的历史信息。
19.如权利要求3所述的方法,进一步包括:
使机器人能够,对于至少一种人类人格,可以在机器人与用户或用户组的持续交互或通信期间为该用户或用户组做以下至少一项:讲笑话、表达快乐和悲伤的情感、唱歌、播放音乐、发表鼓励的言论、发表鼓舞人心的言论、发表明智的言论、表演自发的或录制的喜剧节目。
20.如权利要求19所述的方法,进一步包括:
使机器人能够,对于至少一种机器人人格,通过人工智能学习和分析的事实和图片作出响应而不展示任何情感或提出任何问题,从而所述至少一种机器人人格在与该用户或用户组的相同的持续交互或通信期间为该用户或用户组执行功能上有用的任务。
21.如权利要求20所述的方法,进一步包括:
使机器人能够在所述至少一种人类人格和所述至少一种机器人人格之间来回切换,从而所述至少一种人类人格和所述至少一种机器人人格在与用户或用户组的相同的持续交互或通信期间一起协同工作。
22.如权利要求20所述的方法,进一步包括:
使机器人能够在所述至少一种人类人格和所述至少一种机器人人格之间来回切换,从而所述至少一种人类人格和所述至少一种机器人人格在与该用户或用户组的相同的持续交互或通信期间一起协同工作以向该用户或用户组提供娱乐、教育、培训、迎宾、导游、或客户服务。
23.如权利要求22所述的方法,其中该机器人是通过AMIP聊天机器人或语音聊天机器人软件提供的动画式多种交互人格(AMIP)聊天和语音聊天机器人,并且其中该用户或用户组通过网络接口设备或移动接口设备与该AMIP聊天机器人或语音聊天机器人进行交互或通信。
24.如权利要求23所述的方法,其中在通过网络接口或移动接口与该用户或用户组进行持续交互或通信期间,所述AMIP聊天机器人或语音聊天机器人以人类的方式使用至少一种人类人格、以及以机器人的方式使用至少一种机器人人格与该用户或用户组进行交互。
25.如权利要求23所述的方法,其中该用户或用户组位于远程,并且其中所述附加信息包括以下一项或多项:用户联系方式、性别、年龄群体、收入群体、教育、地理位置、兴趣、好恶、用户问题、用户评论、情景、以及对于基于网络或基于移动的众包环境内的响应的反馈。
26.如权利要求25所述的方法,进一步包括:
使用附加信息以便:
创建多种交互人格类型;以及
通过交互反馈循环基于用户偏好定制多种交互人格类型;以及
使得该定制的多种交互人格类型可下载并用于AMIP聊天机器人或语音聊天机器人。
27.如权利要求23所述的方法,进一步包括:
使用算法调整通过至少一种人类人格以人类方式作出的响应、和通过至少一种机器人人格以机器人方式作出的响应的比率;
使用反馈循环定制多种交互人格类型;以及
使得所述定制的多种交互人格类型可下载并用于AMPI聊天机器人或语音聊天机器人。
28.一种机器人系统,能够展示两种或两种以上的人格类型,该机器人系统包括:物理机器人,包括;
中央处理单元;
至少一个传感器,用于在机器人的交互范围内收集用户的输入数据,其中
该至少一个传感器,包括声音、语音以及面部识别传感器中的一个或多个;
至少一个控制器,用于控制机器人的头部、面部、眼睛、眼睑、嘴唇、嘴巴和基部运动;
有线或无线网络连接,配置为与因特网、移动系统、云计算系统、或其他机器人中的至少之一连接;
至少一个端口,配置为与键盘、USB、HDMI线、个人电脑、移动智能手机、平板电脑、电话线、无线移动设备、以太网线和Wi-Fi连接中的一个或多个连接;
触敏或非触敏显示器;
PCI插槽,用于与直接的无线移动数据线相连接的单载波或多载波SIM卡,
以实现数据和VOIP通信;
机载电池或电源系统,配置为有线和感应充电站;以及
存储器,包括先前存储的与机器人人格相关的数据以及处理器可执行的软件,以执行以下功能:
提出问题以通过所述至少一个传感器和所述至少一个端口中的一个或多个获取附加信息,其中附加信息涉及与用户的持续交互或通信;
确定在与用户的连续交互或通信期间多个不同人格类型中的哪个将作出响应,其中每个不同的人格类型由声音类型、口音、语言和伴随适当面部表情的情感予以展示;
确定响应的方式和类型;
以确定的声音类型、口音、语言和伴随适当面部表情的情感执行该响应,在多个不同的人格类型之间没有任何重叠或冲突;以及
管理该多个不同的人格类型,其中所述管理包括:
存储与多个不同人格类型中任一类型的改变相关的信息;
删除先前存储的人格类型;以及
创造新的人格类型。
29.如权利要求28所述的机器人系统,其中所述附加信息包括下述内容的至少一个:
与用户和机器人之间的书面和口头通信相关的一个或多个通信的字符、单词和句子;
与用户和机器人之间的视觉和光学通信有关的一个或多个通信的图像、光、视频;
与用户和机器人之间的通信有关的一个或多个通信的声音;或者
与用户和机器人之间的通信相关的一个或多个通信的触觉;
其中所述附加信息用于确定用户情绪以确定响应的方式和类型。
30.一种存储有可执行指令的计算机可读介质,当该可执行指令由机器人的计算机处理器执行时,使得计算机处理器:
接收输入数据,包括与机器人和用户之间持续交互或通信有关的附加信息;
处理该附加信息,以确定两个或两个以上的机器人交互人格类型的其中一个、用以在该持续交互或通信期间对用户做出响应,其中每个交互人格类型由声音类型、口音、语言和伴随适当面部表情的情感予以展示;以及
使用所确定的交互人格类型对用户作出响应,在机器人的交互人格类型之间没有任何重叠或冲突。
CN201780039129.5A 2016-04-26 2017-04-25 多种交互人格的机器人 Pending CN109416701A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662327934P 2016-04-26 2016-04-26
US62/327,934 2016-04-26
PCT/US2017/029385 WO2017189559A1 (en) 2016-04-26 2017-04-25 Multiple interactive personalities robot

Publications (1)

Publication Number Publication Date
CN109416701A true CN109416701A (zh) 2019-03-01

Family

ID=60160051

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780039129.5A Pending CN109416701A (zh) 2016-04-26 2017-04-25 多种交互人格的机器人

Country Status (5)

Country Link
US (1) US20190143527A1 (zh)
JP (1) JP2019523714A (zh)
CN (1) CN109416701A (zh)
SG (1) SG11201809397TA (zh)
WO (1) WO2017189559A1 (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110103238A (zh) * 2019-05-13 2019-08-09 深圳电通信息技术有限公司 一种远程体感交互系统、方法及存储介质
CN110427472A (zh) * 2019-08-02 2019-11-08 深圳追一科技有限公司 智能客服匹配的方法、装置、终端设备及存储介质
CN111611384A (zh) * 2020-05-26 2020-09-01 天津市微卡科技有限公司 一种用于机器人的语言情绪感知应答方法
CN112060084A (zh) * 2020-08-20 2020-12-11 江门龙浩智能装备有限公司 一种智能互动系统
CN112380231A (zh) * 2020-11-13 2021-02-19 四川大学 一种具有抑郁障碍特征的训练用机器人系统和方法
CN112380329A (zh) * 2020-11-13 2021-02-19 四川大学 一种精分阳性症状背景下的训练用机器人系统和方法
CN112380330A (zh) * 2020-11-13 2021-02-19 四川大学 一种精分阴性症状背景下的训练用机器人系统和方法
CN112395399A (zh) * 2020-11-13 2021-02-23 四川大学 一种基于人工智能的特定人格对话机器人训练方法
WO2021169431A1 (zh) * 2020-02-27 2021-09-02 北京市商汤科技开发有限公司 交互方法、装置、电子设备以及存储介质
CN113459100A (zh) * 2021-07-05 2021-10-01 上海仙塔智能科技有限公司 基于机器人人格的处理方法、装置、设备以及介质
CN114179083A (zh) * 2021-12-10 2022-03-15 北京云迹科技有限公司 一种引领机器人语音信息的生成方法、装置和引领机器人
CN115086257A (zh) * 2022-06-16 2022-09-20 平安银行股份有限公司 一种人机客服互动方法、装置、终端设备和存储介质

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10157342B1 (en) * 2010-07-11 2018-12-18 Nam Kim Systems and methods for transforming sensory input into actions by a machine having self-awareness
JP2019523714A (ja) * 2016-04-26 2019-08-29 タキオン ロボティクス コーポレーション 多重相互作用人格ロボット
US11108708B2 (en) * 2016-06-06 2021-08-31 Global Tel*Link Corporation Personalized chatbots for inmates
WO2018022808A1 (en) * 2016-07-27 2018-02-01 Warner Bros. Entertainment Inc. Control of social robot based on prior character portrayal in fiction or performance
JP2019057093A (ja) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 情報処理装置及びプログラム
KR102060777B1 (ko) 2017-11-22 2019-12-30 주식회사 이르테크 화행 제어를 이용한 대화 처리 시스템 및 그 동작 방법
CN108109620A (zh) * 2017-11-24 2018-06-01 北京物灵智能科技有限公司 一种机器人智能交互方法及系统
CN108098796A (zh) * 2018-02-11 2018-06-01 国网福建省电力有限公司宁德供电公司 电力营业厅智能服务机器人装置及控制方法
JP7280512B2 (ja) * 2018-02-16 2023-05-24 日本電信電話株式会社 非言語情報生成装置及びプログラム
WO2019160104A1 (ja) * 2018-02-16 2019-08-22 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
US10832118B2 (en) * 2018-02-23 2020-11-10 International Business Machines Corporation System and method for cognitive customer interaction
CN108481334A (zh) * 2018-03-29 2018-09-04 吉林省允升科技有限公司 智能服务机器人
CN110634174B (zh) * 2018-06-05 2023-10-10 深圳市优必选科技有限公司 一种表情动画过渡方法、系统及智能终端
CN108833941A (zh) * 2018-06-29 2018-11-16 北京百度网讯科技有限公司 人机交互处理方法、装置、用户终端、处理服务器及系统
JP2020009337A (ja) * 2018-07-11 2020-01-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報処理装置、ai制御方法およびai制御プログラム
US11134308B2 (en) * 2018-08-06 2021-09-28 Sony Corporation Adapting interactions with a television user
US11090806B2 (en) * 2018-08-17 2021-08-17 Disney Enterprises, Inc. Synchronized robot orientation
KR102252195B1 (ko) * 2018-09-14 2021-05-13 엘지전자 주식회사 감성 인식기 및 이를 포함하는 로봇, 서버
CA3018060C (en) 2018-09-20 2023-03-14 The Toronto-Dominion Bank Chat bot conversation manager
US20220055224A1 (en) * 2018-11-05 2022-02-24 DMAI, Inc. Configurable and Interactive Robotic Systems
DE102018130462A1 (de) * 2018-11-30 2020-06-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren, System und Computerprogramm zum Betreiben eines oder mehrerer Roboters, eines Robotersystems und/oder eines Roboterschwarms
WO2020191310A1 (en) * 2019-03-21 2020-09-24 Life-Dash, LLC Bot systems and methods
WO2020256163A1 (ko) * 2019-06-17 2020-12-24 엘지전자 주식회사 인공지능 이동 로봇과 그의 제어 방법
CN110363278B (zh) * 2019-07-23 2023-01-17 广东小天才科技有限公司 一种亲子互动方法、机器人、服务器及亲子互动系统
WO2021064948A1 (ja) * 2019-10-03 2021-04-08 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
US11783224B2 (en) 2019-12-06 2023-10-10 International Business Machines Corporation Trait-modeled chatbots
US11380094B2 (en) 2019-12-12 2022-07-05 At&T Intellectual Property I, L.P. Systems and methods for applied machine cognition
DE102020114737A1 (de) 2020-06-03 2021-12-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren, System sowie Computerprogramm zum Betreiben eines oder mehrerer Roboter, eines Robotersystems und/oder eines Roboterschwarms
DE102020114738A1 (de) 2020-06-03 2021-12-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren, System sowie Computerprogramm zum Betreiben eines oder mehrerer Roboter, eines Robotersystems und/oder eines Roboterschwarms
US20230214822A1 (en) * 2022-01-05 2023-07-06 Mastercard International Incorporated Computer-implemented methods and systems for authentic user-merchant association and services
CN114260916B (zh) * 2022-01-05 2024-02-27 森家展览展示如皋有限公司 一种交互式展会展览智能型机器人
CN114422583A (zh) * 2022-01-21 2022-04-29 耀维(深圳)科技有限公司 一种巡检机器人与智能终端间的交互系统
CN115617169B (zh) * 2022-10-11 2023-05-30 深圳琪乐科技有限公司 一种语音控制机器人及基于角色关系的机器人控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101241561A (zh) * 2007-02-08 2008-08-13 三星电子株式会社 表现软件机器人的行为的设备和方法
US20090203375A1 (en) * 2008-02-07 2009-08-13 Doug Gisby Method and system for automatic seamless mobility
US8996429B1 (en) * 2011-05-06 2015-03-31 Google Inc. Methods and systems for robot personality development
EP2933067A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
CN105345818A (zh) * 2015-11-04 2016-02-24 深圳好未来智能科技有限公司 带有情绪及表情模块的3d视频互动机器人

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002232928A1 (en) * 2000-11-03 2002-05-15 Zoesis, Inc. Interactive character system
US6584375B2 (en) * 2001-05-04 2003-06-24 Intellibot, Llc System for a retail environment
US20070233318A1 (en) * 2006-03-29 2007-10-04 Tianmo Lei Follow Robot
US20080262910A1 (en) * 2007-04-20 2008-10-23 Utbk, Inc. Methods and Systems to Connect People via Virtual Reality for Real Time Communications
US8601386B2 (en) * 2007-04-20 2013-12-03 Ingenio Llc Methods and systems to facilitate real time communications in virtual reality
US8548613B2 (en) * 2009-04-20 2013-10-01 Disney Enterprises, Inc. System and method for an interactive device for use with a media device
US9155961B2 (en) * 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
US20130054021A1 (en) * 2011-08-26 2013-02-28 Disney Enterprises, Inc. Robotic controller that realizes human-like responses to unexpected disturbances
WO2014014963A1 (en) * 2012-07-16 2014-01-23 Questionmine, LLC Apparatus and method for synchronizing interactive content with multimedia
US9796095B1 (en) * 2012-08-15 2017-10-24 Hanson Robokind And Intelligent Bots, Llc System and method for controlling intelligent animated characters
CN105409197A (zh) * 2013-03-15 2016-03-16 趣普科技公司 用于提供持久伙伴装置的设备和方法
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
US20160031081A1 (en) * 2014-08-01 2016-02-04 Brian David Johnson Systems and methods for the modular configuration of robots
US11269891B2 (en) * 2014-08-21 2022-03-08 Affectomatics Ltd. Crowd-based scores for experiences from measurements of affective response
JP2019523714A (ja) * 2016-04-26 2019-08-29 タキオン ロボティクス コーポレーション 多重相互作用人格ロボット

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101241561A (zh) * 2007-02-08 2008-08-13 三星电子株式会社 表现软件机器人的行为的设备和方法
US20090203375A1 (en) * 2008-02-07 2009-08-13 Doug Gisby Method and system for automatic seamless mobility
US20150382280A1 (en) * 2008-02-07 2015-12-31 Blackberry Limited Method and system for automatic seamless mobility
US8996429B1 (en) * 2011-05-06 2015-03-31 Google Inc. Methods and systems for robot personality development
EP2933067A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
CN105345818A (zh) * 2015-11-04 2016-02-24 深圳好未来智能科技有限公司 带有情绪及表情模块的3d视频互动机器人

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110103238A (zh) * 2019-05-13 2019-08-09 深圳电通信息技术有限公司 一种远程体感交互系统、方法及存储介质
CN110427472A (zh) * 2019-08-02 2019-11-08 深圳追一科技有限公司 智能客服匹配的方法、装置、终端设备及存储介质
WO2021169431A1 (zh) * 2020-02-27 2021-09-02 北京市商汤科技开发有限公司 交互方法、装置、电子设备以及存储介质
CN111611384A (zh) * 2020-05-26 2020-09-01 天津市微卡科技有限公司 一种用于机器人的语言情绪感知应答方法
CN112060084A (zh) * 2020-08-20 2020-12-11 江门龙浩智能装备有限公司 一种智能互动系统
CN112380330A (zh) * 2020-11-13 2021-02-19 四川大学 一种精分阴性症状背景下的训练用机器人系统和方法
CN112380329A (zh) * 2020-11-13 2021-02-19 四川大学 一种精分阳性症状背景下的训练用机器人系统和方法
CN112395399A (zh) * 2020-11-13 2021-02-23 四川大学 一种基于人工智能的特定人格对话机器人训练方法
CN112380231A (zh) * 2020-11-13 2021-02-19 四川大学 一种具有抑郁障碍特征的训练用机器人系统和方法
CN113459100A (zh) * 2021-07-05 2021-10-01 上海仙塔智能科技有限公司 基于机器人人格的处理方法、装置、设备以及介质
CN113459100B (zh) * 2021-07-05 2023-02-17 上海仙塔智能科技有限公司 基于机器人人格的处理方法、装置、设备以及介质
CN114179083A (zh) * 2021-12-10 2022-03-15 北京云迹科技有限公司 一种引领机器人语音信息的生成方法、装置和引领机器人
CN114179083B (zh) * 2021-12-10 2024-03-15 北京云迹科技股份有限公司 一种引领机器人语音信息的生成方法、装置和引领机器人
CN115086257A (zh) * 2022-06-16 2022-09-20 平安银行股份有限公司 一种人机客服互动方法、装置、终端设备和存储介质

Also Published As

Publication number Publication date
SG11201809397TA (en) 2018-11-29
US20190143527A1 (en) 2019-05-16
JP2019523714A (ja) 2019-08-29
WO2017189559A1 (en) 2017-11-02

Similar Documents

Publication Publication Date Title
CN109416701A (zh) 多种交互人格的机器人
US20190193273A1 (en) Robots for interactive comedy and companionship
US11455986B2 (en) System and method for conversational agent via adaptive caching of dialogue tree
US11504856B2 (en) System and method for selective animatronic peripheral response for human machine dialogue
US11017551B2 (en) System and method for identifying a point of interest based on intersecting visual trajectories
CN111801730A (zh) 用于人工智能驱动的自动伴侣的系统和方法
US20210205987A1 (en) System and method for dynamic robot configuration for enhanced digital experiences
US11308312B2 (en) System and method for reconstructing unoccupied 3D space
US10785489B2 (en) System and method for visual rendering based on sparse samples with predicted motion
US10994421B2 (en) System and method for dynamic robot profile configurations based on user interactions
US20190251350A1 (en) System and method for inferring scenes based on visual context-free grammar model
US20190251966A1 (en) System and method for prediction based preemptive generation of dialogue content
US20190202061A1 (en) System and method for detecting physical proximity between devices
US20190251716A1 (en) System and method for visual scene construction based on user communication
US20220241977A1 (en) System and method for dynamic program configuration
Minsky et al. Voice Marketing: Harnessing the Power of Conversational AI to Drive Customer Engagement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190301

WD01 Invention patent application deemed withdrawn after publication