CN104470686B - 用于生成被实时地执行的移动机器人的上下文行为的系统和方法 - Google Patents

用于生成被实时地执行的移动机器人的上下文行为的系统和方法 Download PDF

Info

Publication number
CN104470686B
CN104470686B CN201380037538.3A CN201380037538A CN104470686B CN 104470686 B CN104470686 B CN 104470686B CN 201380037538 A CN201380037538 A CN 201380037538A CN 104470686 B CN104470686 B CN 104470686B
Authority
CN
China
Prior art keywords
behavior
scene
text
robot
vignette
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201380037538.3A
Other languages
English (en)
Other versions
CN104470686A (zh
Inventor
V·帕莱奥洛格
M·莫里塞
F·白里安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Softbank Robotics SAS
Original Assignee
Aldebaran Robotics SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aldebaran Robotics SA filed Critical Aldebaran Robotics SA
Publication of CN104470686A publication Critical patent/CN104470686A/zh
Application granted granted Critical
Publication of CN104470686B publication Critical patent/CN104470686B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/34Graphical or visual programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40392Programming, visual robot programming language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)
  • Stored Programmes (AREA)
  • Toys (AREA)

Abstract

本发明涉及允许不是计算机专家的用户生成能够被实时地执行的机器人的上下文行为的系统和方法。为此目的,本发明公开了用于编辑小插图(510,…,570)的模块(210),可能将要由所述机器人执行的行为的图形表示(5310,…,5610)插入到小插图中,而所述机器人在表达情感(5430)的同时叙述插入到气泡(5210,…,5620)中的文本。通常具有音乐分数的横幅580确保场景的进展是同步的。用于对安装在机器人上的小插图进行解释的模块(220)允许对行为、文本和音乐进行识别、编译、预载和同步。

Description

用于生成被实时地执行的移动机器人的上下文行为的系统和 方法
技术领域
本发明涉及用于对机器人进行编程的系统的领域。更准确地,本发明适用于对与上下文一致的行为进行控制,在该上下文中,特别是以人或动物形式的机器人发展、表现自己、并且移动可能或可能不连接的四肢。机器人从它具有人的外表和功能的某些属性的时刻起可以被描述为人形机,所述人的外表和功能的某些属性为:头、躯干、两只臂、可能两只手、两条腿、两只脚等。可能给予机器人准人形的外表和行为的功能中的一个是提供在手势表达和口头表达之间的高耦合程度的可能性。特别是,直观地达到这个结果允许很多组的用户访问人形机器人行为的编程。
背景技术
专利申请WO2011/003628公开了与所述常规问题相对应的系统和方法。由所述申请公开的发明允许克服现有技术的一些缺点,所述现有技术利用了只由专业程序员可访问的专门编程语言。在虚拟代理和化身的领域中,对在物理动作的功能或意图级别的行为进行编程中独立的专门语言(例如,FML(功能标记语言))或在行为本身(其涉及虚拟角色的多个部分以便执行功能)的级别进行编程中独立的专门语言(例如,BML(行为标记语言)),保持仅由专业程序员可访问并且不能与以日常语言编写的脚本合并。本发明允许超越现有技术的这些限制。
然而,由所引用的专利申请涵盖的发明不允许实时地控制机器人,因为它使用不能够使用“流式传送”向机器人直接发送命令,即,不能够与机器人的行为实时地交互的编辑器,这可以根据所述机器人的环境的发展而发展。特别是,在所述现有技术的机器人中,当意外的事件出现在命令场景中时,需要从头开始重放场景。
为了在上下文中解决这个问题,在所述上下文中,场景可以由连环漫画所激励的图形模式来定义,申请人应用“小插图”概念,所述小插图由多段描述示出,并且在本申请中在由词典“Trésor de la langue informatisé”(http://atilf.atilf.fr/dendien/scripts/tlfiv5/visusel.exe?12;s=2774157495;r=1;nat=;sol=1;)提供的意义中的一个“每幅图由连环漫画中的帧来划定界限”使用。
发明内容
本发明使解决上面概述的现有技术的问题变得可能。特别是,本发明的机器人配备有能够图形地被合并在小插图内的编辑器和命令解释器,小插图将来自场景的被发送就能够被执行的文本和行为集中在一起。
为此目的,本发明公开了用于编辑并控制至少一个场景的系统,所述至少一个场景包括要执行的至少一个行为和要由配备有电动机和讲话能力的至少一个机器人发出的文本,所述系统包括用于编辑所述行为和文本的模块,所述编辑模块相对于所述机器人是自主的,并且包括用于对要由机器人陈述的所述文本进行输入的子模块和用于管理行为的子模块,所述系统的特征在于所述编辑模块还包括用于对在至少一个区域中的所述至少一个行为和所述至少一个文本进行表示和图形关联的子模块,所述至少一个区域用于对所述至少一个行为和所述至少一个文本、构成小插图的所述组合的显示区域、构成可以被编译以便在所述机器人上执行的计算机对象的所述小插图的组合显示。
有利地,所述至少一个小插图包括属于包括等待图标、机器人行为图标和包括至少一个词的文本气泡的组的至少一个图形对象,所述文本是要由机器人陈述的。
有利地,小插图的所述行为图标包括表示与小插图中的至少一个文本气泡相关联的机器人的个性和/或情感的图形标记。
有利地,所述场景的所述图形表示还包括用于使由所述至少一个小插图表示的动作的进展同步的至少一个横幅。
有利地,本发明的编辑和控制系统还包括用于解释所述场景的模块,所述解释模块在所述至少一个机器人上,并且以流送模式与编辑模块进行通信。
有利地,用于解释所述场景的模块包括用于对至少一个场景进行的调节子模块,所述子模块被配置为在输入时为所述至少一个场景配备标识符和类型。
有利地,用于解释所述场景的模块包括用于对所述至少一个行为进行编译的子模块,所述子模块被配置为使对象结构的属性与所述行为相关联。
有利地,所述编译子模块被配置为将所述场景分割成由标点符号或线端划定界限的子组件。
有利地,用于解释所述场景的模块包括用于控制将所述至少一个行为预载到机器人的存储器中以用于由所述行为执行模块执行的子模块。
有利地,用于解释所述场景的模块包括用于使所述至少一个文本与所述至少一个行为同步的子模块。
本发明同样公开了用于编辑并且控制至少一个场景的方法,所述至少一个场景包括要执行的至少一个行为和要由配备有电动机和讲话能力的至少一个机器人陈述的文本,所述方法包括编辑所述行为和文本的步骤,所述编辑步骤相对于所述机器人是自主的,并且包括对要由机器人陈述的所述文本进行输入的子步骤和管理行为的子步骤,所述方法的特征在于所述编辑步骤还包括对在至少一个小插图中的所述至少一个行为和所述至少一个文本进行表示和图形关联的子步骤。
本发明同样公开了包括程序代码指令的计算机程序,当程序在计算机上执行时,程序代码指令允许本发明的方法的执行,所述程序被配置用于允许对至少一个场景进行编辑,所述至少一个场景包括要执行的至少一个行为和要由配备有电动机和讲话能力的至少一个机器人陈述的文本,所述计算机程序包括用于编辑所述行为和文本的模块,所述编辑模块相对于所述机器人是自主的,并且包括用于对要由机器人陈述的所述文本进行输入的子模块,和用于管理行为的子模块,所述计算机程序的特征在于所述编辑模块还包括用于对在至少一个小插图中的所述至少一个行为和所述至少一个文本进行表示和图形关联的子模块。
本发明同样公开了包括程序代码指令的计算机程序,当程序在计算机上执行时,程序代码指令允许根据本发明的方法的执行,所述程序被配置用于允许对至少一个场景进行解释,所述至少一个场景包括要执行的至少一个行为和要由配备有电动机和讲话能力的至少一个机器人陈述的文本,所述计算机程序包括用于解释所述场景的模块,所述解释模块在所述至少一个机器人上,并且以流送模式与外部平台进行通信。
有利地,用于对所述场景进行解释的模块包括用于对所述至少一个行为进行编译的子模块,所述子模块被配置为使对象结构的属性与所述行为相关联。
有利地,用于对所述场景进行解释的模块包括用于控制将所述至少一个行为预载到机器人的存储器中,用于由行为执行模块(460)执行的子模块。
有利地,用于对所述场景进行解释的模块包括用于使所述至少一个文本与所述至少一个行为同步的子模块。
本发明允许对行为库进行创建,以及容易将其插入到由机器人播放的场景的脚本中。行为由图形小插图进行建模,图形小插图在每个小插图中表示机器人的手势和情感行为、以及其词和环境元素(音乐、图像、其它角色的词等)。所述场景创建界面是直观的,并且允许用户容易地创建能够实时地适应的复杂场景。
本发明同样提供了对法国专利申请n°09/53434的适当补充,所述法国专利申请n°09/53434涉及来自本申请人的用于编辑和控制移动机器人的行为的系统和方法。所述申请提供了用于具有由机器人执行的行为的单元,能够使用程序员可访问的专门脚本语言或图形地通过访问预先编程的库而控制所述行为,所述预先编程的库可以被选择并且插入到由事件连接的一系列行为框中。本发明还允许用于对机器人的行为进行编程的界面的简化。
附图说明
根据遵循多个示例性实施例的描述并且根据附图,本发明将被更好地理解,并且其各种特征和优点将出现,其中:
-图1示出了根据多个实施例的用于实现本发明的系统的物理架构;
-图2示出了根据本发明的多个实施例的用于处理操作的一般流程图;
-图3示出了根据本发明的多个实施例的用于在命令编辑模块中执行的处理操作的流程图;
-图4示出了根据本发明的多个实施例的用于在命令解释模块中执行的处理操作的流程图;
-图5a和图5b示出了在本发明的实施例中构成由机器人执行的场景的小插图。
具体实施方式
图1示出了根据多个实施例的用于实现本发明的系统的物理架构。
在本发明的实施例中,在附图中示出了人形机器人110。特别是在2009年10月15日公布的专利申请WO2009/124951中公开了这样的机器人。采用所述平台作为产生本发明的改进的基础。在描述的其余部分中,所述人形机器人可以不加区分地由所述通用名称或以其商标NAOTM来表示,而不具有被修改的附图标记的一般性。
所述机器人近似地包括用于控制驱动关节的传感器和制动器的24个电子板。电子控制板具有商用微控制器。其可以是来自例如Microchip公司的DSPICTM。其是耦合到DSP的16位MCU。所述MCU具有1ms的成环伺服控制循环。
机器人可以同样具有其它类型的制动器,特别是LED(发光二极管),其颜色和强度可以翻译机器人的情感。后者同样可以具有其它类型的位置处理器,特别是惯性单元、FSR(地面压力传感器)等。
头具有机器人的智力,特别是执行高级功能的板,所述高级功能允许机器人完成分配给它的任务,特别是在本发明的上下文内,用于执行由不是专业程序员的用户编写的场景。头同样可以具有专门的板,特别是用于处理词或视觉或同样用于处理服务输入/输出,例如,打开端口以便在广域网WAN上建立远程通信所必需的编码。板的处理器可以是商用x86处理器。优选地,将选择低消耗处理器,例如,来自Intel公司的ATOMTM(32位,1600MHz)。板同样具有RAM和闪存的集合。所述板同样管理机器人与外部(行为服务器、其它机器人等)的通信,特别是在WiFi或WiMax传输层上、可能在具有可能封装在VPN中的标准协议的公共移动数据通信网络上。处理器通常由标准OS驱动,标准OS允许使用常用的高级语言(C、C++、Python等)或用于对高级功能进行编程的特定的人工智能语言,例如,URBI(用于机器人的专门编程语言)。
机器人110将能够执行能够进行提前编程的行为,所述行为特别是通过根据在法国专利申请n°09/53434中公开的发明而生成的代码来进行提前编程的,该专利申请已经被引用,所述代码由程序员在图形界面中进行编写。所述行为同样可以被布置在由不是专业程序员的用户使用在专利申请WO2011/003628中公开的发明创建的场景中,该专利申请同样已经被引用。在第一种情况中,这些可以是根据相对复杂的逻辑彼此连接的行为,其中行为的序列是由出现在机器人的环境中的事件进行协调的。在这种情况下,必须具有最低限度的程序员技能的用户可以使用ChorégrapheTM工作室,其主要操作模式在所引用的申请中进行了描述。在第二种情况中,场景的进展逻辑在原则上不是适应性的。
在本发明中,不是专业程序员的用户120能够产生包括行为的集合的复杂场景,所述行为的集合包括手势和各种动作、音频或视觉信号的发出、形成问题和答案的词,所述各种元素都在小插图的序列上由图标图形地表示(见图5)。如将在稍后看到的,小插图构成用于对将由机器人播放出的故事进行编程的界面。
图2示出了根据本发明的多个实施例的用于处理操作的通用流程图。
为了根据本发明的过程来创建场景,PC 120包括用于图形地对将给予机器人的命令进行编辑的软件模块210。将关于图3来详细解释架构和操作。
PC与机器人进行通信,并且将它发送给将被解释的小插图,以便由用于解释小插图220的软件模块执行。将关于图4来详细解释所述模块220的架构和操作。
如果机器人和用户位于远程位置中并且在广域网上进行通信,则用户的PC经由有线接口或通过无线电装置或甚至这两者与机器人进行通信。后一种情况未在附图中示出,但是是本发明的可能的实施例中的一个。
虽然在附图中没有示出其中多个机器人是由单个用户进行编程的、或其中机器人是由多个用户进行编程的、或多个机器人是由多个用户进行编程的本发明的实施例,但是这些情况在本发明的范围内是完全可能的。
图3示出了根据本发明的多个实施例的,在命令编辑模块中执行的处理操作的流程图。
编辑模块210包括与场景文件3110进行通信的场景收集器310。场景可以视觉地进行显示,并且在可以同时具有在存储器中的多个场景3210的场景编辑器320中被修改。场景通常与文本相对应,并且由一系列小插图构成。
为了实现本发明,编辑模块包括小插图编辑器330。小插图具有由图标表示的、被插入到小插图中的基本行为的命令。所述行为将能够由机器人再现。同样可能插入文本(插入到气泡中,如关于图5所解释的)。所述文本同样由机器人口头地再现。
编辑模块通常接收定义场景的文本作为输入。所述输入可以直接使用简单的计算机键盘或通过将文本类型的文件(*.doc,*.txt等)或html文件(可能由其URL地址表示)装入系统中来完成。所述文件同样可以从远程站点例如通过消息发送系统接收。为了执行所述阅读,系统或机器人配备有能够解释来自脚本编辑器的文本以便产生声音的合成设备,声音可以是在人形机器人的情况下的词或表示动物的行为的声音。音频合成设备可以同样再现背景声音,例如可能可以在远程计算机上播放的环境音乐。
当接收到在机器人外部的事件时,可以开始故事的阅读,所述事件例如是:
-电子消息(电子邮件、SMS、电话呼叫、或其它消息)的接收;
-家庭自动事件(例如,有人开门、有人打开灯或另一事件);
-用户的动作,其可以是触摸机器人的触敏区域(例如,它的头)、手势或词,所述用户的动作可以被编程来完成所述目的。
行为命令在小插图中由示出所述行为的图标表示。作为非限制性的示例,行为命令可以生成:
-由机器人再现的、由机器人的四肢做出的动作(举起臂、运动等);
-由位于机器人上的LED产生的光效应;
-由机器人合成的声音;
-用于调节将由机器人再现的文本的叙述模式的语音设置(速度、语音、语言等)。
可以通过将所选择的行为控制图标从库3410滑动到位于小插图编辑模块330中的小插图来将行为命令插入到行为管理模块340中。编辑模块330同样允许文本被拷贝和粘贴。在机器人上的解释模块可以解释来自外部应用的所注解的文本。有利地,在本发明的范围内,外部应用可以是ChorégrapheTM框,所述应用是用于对特别是在法国专利申请n°09/53434中描述的NAO机器人进行编程的软件,该专利申请已经被引用。所述注解的文本同样可以是网页、电子邮件、短即时消息(SMS)、或来自其它应用,假定模块330具有为了对它们进行合并所必需的界面。
编辑模块210经由通信管理模块370与机器人进行通信,通信管理模块370调节在物理层上发送的XML流,借助于所述XML流,机器人被连接到PC。解释管理器350和通信管理器360完成编辑模块。解释管理器350用于开始对文本进行解释、用于停止它、并且用于提供关于解释的信息(例如,在文本中的段落,解释在该文本中被再现)。通信管理器360用于连接到机器人、用于断开连接、以及用于接收关于连接的信息(例如,连接或不适时地断开连接的状态)。
图4示出了根据本发明的多个实施例的在命令解释模块中执行的处理操作的流程图。
来自编辑模块210的XML流和其它流(例如,来自电子邮箱或移动电话的所注解的文本)由小插图解释模块220的子模块410配备有标识符(ID)和类型。在队列4110中的所识别的和进行分类的流继而由编译线程420转换成可解释的对象,例如,行为。对不一定是上下文中明确的行为的引用借助于到它被存储的位置的路径,由耦合到对行为的直接引用的同步标签代替。所述线程与小插图编辑器210的行为管理模块340进行交换。这些交换允许对文本中的行为的引用进行检测。因为编译线程不知道可能与行为相对应的标签,所述它首先需要从行为管理模块请求所有这些标签,以便能够在文本中检测它们。接着,当它检测到文本中的标签时,它询问行为管理模块与所述标签相对应的行为是什么(例如,“lol”)。行为管理模块通过向它提供到相对应的行为的路径来回答它(例如,“动画/肯定/笑”)。这些交换与编译线程同步地发生。
当编译线程检测到句子的结束(其可以由标点符号、线端等进行限定)时,它将句子发送到队列4210。为了允许场景的更快执行,提供从队列4210将线程430预载到队列4310,行为的地址是以到行为的路径的形式的所述行为直接被发送到行为执行模块460。因此,根据场景,一旦需要执行行为,则由它的标识符ID进行编程的调用就将是立即的。为了完成所述功能,执行模块继而对行为进行预载,并且返回准备执行的行为的实例的唯一ID。因此,一旦需要执行行为,执行模块就将立即能够执行所述行为,文本和行为的同步因此极大地得到了提高。
同步线程440允许由语音合成模块450说出的文本和及时链接的由行为执行模块460执行的行为。具有同步标签的文本被发送到语音合成模块450,而与同步的速度的相对应的行为标识符ID被发送到行为执行模块460,其进行与要执行的行为的ID相对应的预载的行为调用。
在所述小插图解释模块中的处理操作的组织允许由机器人执行装入的实现和对场景的流式执行。这允许在用户和机器人之间的更多的固定的交互,作为示例,用户能够在他期望时编写他进行的场景,并且将它传送到机器人,所述机器人能够在接收到场景的序列之后几乎立即执行所述场景的序列。
图5a和图5b示出了在本发明的实施例中构成由机器人执行的场景的小插图。
仅作为示例,在附图中的场景包括16个小插图。场景可以包括任何数量的小插图。在第一小插图510中,机器人等待位于其头部5120上的要启动的其触觉传感器5110。在第二小插图520中,机器人等待在触觉传感器上的触摸的动作之后要消逝的所确定的时间段5520。在第三小插图530中,机器人是第一角色——叙述者5310,并且执行由角色的图形表示象征的第一行为,其涉及执行旋转同时以对所述第一角色进行特征化的语音阅读在气泡5320中编写的文本。在第四小插图540中,机器人是第二角色5410(在示例场景中,由图形符号5430象征的蚱蜢),并且执行由角色的图形表示象征的第二行为,所述第二行为涉及向上摆动它的右臂同时以与叙述者的语音不同的并且对所述第二角色进行特征化的语音阅读在气泡5420中编写的文本。在第五小插图550中,叙述者机器人在由角色5510所表示的静止位置上,并且阅读在气泡5520中编写的文本。在第六小插图560中,蚱蜢机器人5610同样在以与在5510中相同的方式表示的静止位置上,并且阅读在气泡5620中编写的文本。在第七小插图中,机器人是第三角色(在示例的场景中,由图形符号5730象征的蚂蚁),并且陈述文本5720。
因此,在由附图所示的场景示例中,三个不同的角色5310、5410和5710介入。角色的数量并不受到限制。
行为和情感的数量也不受到限制。行为可以在Chorégraphe、专业行为编辑器或其它工具中创建的行为库3410中取得。它们可能在管理行为库3410的编辑模块210的行为管理模块340中进行修改。在本发明的实现的范围内,可以通过名称、类别、可能的子类别、表示、可能的一个或多个参数、可能的一个或多个文件(音频或其它)的相关性来定义行为对象。小插图可以包括多个气泡或包括一个词的最低限度的气泡,如在小插图5A0中所示的。
场景同样可以由可以或可以不与音乐分数相对应的横幅5H0进行特征化,所述分数被同步到小插图/气泡的树状结构。所述同步有助于多个级别的小插图的交织,所述小插图的执行是有条件的。多个横幅可以并行地继续进行,如在附图中由横幅510所示的。
可以使用不同的韵律(速度、音量、风格、语音等)以不同的语言来阅读文本。可以在本发明的系统中使用的各种行为和情感并不受到限制。作为示例,语音可以是男性的、女性的或儿童的语音;音调可以是更低调或更高调的;速度可以更快的或更慢的;语调可以取决于机器人可能基于脚本的文本感觉到的情感(喜爱、惊奇、生气、喜悦、责备等)来进行选择。根据结合脚本而需要被传达的印象,伴随脚本的手势作为示例可以是手臂向上或向前的运动;在地面上跺脚;头向上、向下、向右或向左的运动。
机器人能够以同样非常不同的方式与其环境和其对话者进行交互:词、手势、触摸、光信号的发出等。作为示例,如果机器人配备有发光二极管(LED),则这些将能够被启动,以便在阅读文本时翻译由机器人“感觉到”的强烈情感或生成适合于陈述的形式和速度的闪烁。
如在小插图510和520中所示的,一些命令可以是用于中断和等待外部事件的命令,例如,响应于由机器人询问的问题的运动。
一些命令可以取决于例如由照相机或超声传感器拾取的机器人对其环境的反应。
上面描述的示例被提供作为本发明的实施例的举例示出。它们并不以任何方式来限制由接下来的权利要求书所限定的本发明的领域。

Claims (10)

1.一种用于至少一个用户对至少一个场景进行编辑和控制的系统,所述至少一个场景包括要执行的至少一个行为和要由配备有电动机和讲话能力的至少一个机器人陈述的文本,所述系统包括用于对所述行为和文本进行编辑的模块(210),所述编辑模块相对于所述机器人是自主的,并且包括:用于对要由所述机器人陈述的所述文本进行输入的子模块;用于对至少一个场景进行编辑的子模块(320),所述至少一个场景使所述至少一个行为和所述至少一个文本相关联;以及用于管理所述行为的子模块(340),用于对至少一个场景进行编辑的所述子模块能够执行用于对包括在至少一个区域中的所述至少一个行为和所述至少一个文本的所述场景进行表示和图形关联的功能,所述至少一个区域用于对包括所述至少一个行为和所述至少一个文本的所述场景进行组合显示,其中,所述组合显示区域构成小插图(510、520、530、540、550、560、570),所述小插图构成能够由编译线程(420)进行编译以便由行为执行模块(460)在所述机器人上执行的计算机对象,所述场景能够在不停止行为执行模块的情况下,由在场景编辑子模块中的用户的动作进行修改。
2.如权利要求1所述的编辑和控制系统,其中,至少一个小插图包括至少一个图形对象,所述至少一个图形对象属于包括等待图标(5110、5210)、机器人行为图标(5310、5410、5510、5610、5710)、以及包括至少一个词的文本气泡(5320、5420、5520、5620、5720)的组,所述文本是要由所述机器人进行陈述的。
3.如权利要求2所述的编辑和控制系统,其中,小插图的所述行为图标包括表示与所述小插图中的至少一个文本气泡相关联的所述机器人的个性和/或情感的图形标记。
4.如权利要求2所述的编辑和控制系统,其中,所述场景的图形表示还包括用于使由所述至少一个小插图表示的动作的进展同步的至少一个横幅(5H0)。
5.如权利要求1到4中任意一个所述的编辑和控制系统,其特征在于被配置为执行用于调节至少一个场景以为所述至少一个场景配备标识符和类型的功能(410)。
6.如权利要求1到4中任意一个所述的编辑和控制系统,其中,所述编译线程被配置为将所述场景分割成由标点符号或线端划定界限的子组件。
7.如权利要求1到4中任意一个所述的编辑和控制系统,进一步被配置为执行用于控制将所述至少一个行为预载到所述机器人的存储器中的功能(430),以用于由所述行为执行模块(460)执行。
8.如权利要求1到4中任意一个所述的编辑和控制系统,进一步被配置为执行用于使所述至少一个文本与所述至少一个行为同步的功能(440)。
9.一种用于至少一个用户对至少一个场景进行编辑和控制的方法,所述至少一个场景包括要执行的至少一个行为和要由配备有电动机和讲话能力的至少一个机器人陈述的文本,所述方法包括编辑所述行为和文本的步骤,所述编辑步骤相对于所述机器人是自主的,并且包括对要由所述机器人陈述的所述文本进行输入的子步骤;用于对使所述至少一个行为和所述至少一个文本相关联的至少一个场景进行编辑的子步骤;以及管理所述行为的子步骤,用于对所述至少一个场景进行编辑的所述子步骤执行对至少一个区域中的所述至少一个行为和所述至少一个文本进行表示和图形关联的功能,所述至少一个区域用于对所述至少一个行为和所述至少一个文本进行组合显示,其中,所述组合显示区域构成小插图,所述小插图构成能够由编译线程编译以便在行为执行的步骤的过程中在所述机器人上执行的计算机对象,所述场景能够在不停止行为执行步骤的情况下,由在场景编辑子步骤中的用户的动作进行修改。
10.一种用于至少一个用户对至少一个场景进行编辑和控制的装置,所述至少一个场景包括要执行的至少一个行为和要由配备有电动机和讲话能力的至少一个机器人陈述的文本,所述装置包括用于对所述行为和文本进行编辑的模块,所述编辑模块相对于所述机器人是自主的,并且包括用于对要由所述机器人陈述的所述文本进行输入的子模块;用于对使所述至少一个行为和所述至少一个文本相关联的至少一个场景进行编辑的子模块;以及用于管理所述行为的子模块,所述用于对至少一个场景进行编辑的子模块能够执行对至少一个区域中的所述至少一个行为和所述至少一个文本进行表示和图形关联的功能,所述至少一个区域用于对所述至少一个行为和所述至少一个文本进行组合显示,所述组合显示区域构成小插图,所述小插图构成能够被编译以便由行为执行模块在所述机器人上执行的计算机对象,所述场景能够在不停止所述行为执行模块的情况下,由在场景编辑子模块中的用户的动作进行修改。
CN201380037538.3A 2012-06-01 2013-05-30 用于生成被实时地执行的移动机器人的上下文行为的系统和方法 Expired - Fee Related CN104470686B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1255105 2012-06-01
FR1255105A FR2991222B1 (fr) 2012-06-01 2012-06-01 Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel
PCT/EP2013/061180 WO2013178741A1 (fr) 2012-06-01 2013-05-30 Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel

Publications (2)

Publication Number Publication Date
CN104470686A CN104470686A (zh) 2015-03-25
CN104470686B true CN104470686B (zh) 2017-08-29

Family

ID=47080621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380037538.3A Expired - Fee Related CN104470686B (zh) 2012-06-01 2013-05-30 用于生成被实时地执行的移动机器人的上下文行为的系统和方法

Country Status (7)

Country Link
US (1) US20150290807A1 (zh)
EP (1) EP2855105A1 (zh)
JP (1) JP6319772B2 (zh)
CN (1) CN104470686B (zh)
BR (1) BR112014030043A2 (zh)
FR (1) FR2991222B1 (zh)
WO (1) WO2013178741A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6594646B2 (ja) * 2015-04-10 2019-10-23 ヴイストン株式会社 ロボット及びロボット制御方法並びにロボットシステム
JP6781545B2 (ja) * 2015-12-28 2020-11-04 ヴイストン株式会社 ロボット
JP6604912B2 (ja) * 2016-06-23 2019-11-13 日本電信電話株式会社 発話動作提示装置、方法およびプログラム
US20180133900A1 (en) * 2016-11-15 2018-05-17 JIBO, Inc. Embodied dialog and embodied speech authoring tools for use with an expressive social robot
CN108932167B (zh) * 2017-05-22 2023-08-08 中兴通讯股份有限公司 一种智能问答同步显示方法、装置、系统及存储介质
JP6956562B2 (ja) * 2017-08-10 2021-11-02 学校法人慶應義塾 知能ロボットシステム及びプログラム
US11325263B2 (en) * 2018-06-29 2022-05-10 Teradyne, Inc. System and method for real-time robotic control
CN110543144B (zh) * 2019-08-30 2021-06-01 天津施格自动化科技有限公司 图形化编程控制机器人的方法及系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2496160A1 (fr) * 1980-12-11 1982-06-18 Lamothe Andre Raccord etanche pour l'utilisation des outils conventionnels de forage en circulation inverse
JPH07261820A (ja) * 1994-03-25 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 産業用ロボット作業のソフトウェア構成方法及び制御装置
JP4366617B2 (ja) * 1999-01-25 2009-11-18 ソニー株式会社 ロボット装置
JP4670136B2 (ja) * 2000-10-11 2011-04-13 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
GB2385954A (en) * 2002-02-04 2003-09-03 Magenta Corp Ltd Managing a Virtual Environment
US7995090B2 (en) * 2003-07-28 2011-08-09 Fuji Xerox Co., Ltd. Video enabled tele-presence control host
JP4744847B2 (ja) * 2004-11-02 2011-08-10 株式会社安川電機 ロボット制御装置およびロボットシステム
JP2009025224A (ja) * 2007-07-23 2009-02-05 Clarion Co Ltd ナビゲーション装置、および、ナビゲーション装置の制御方法
FR2929873B1 (fr) 2008-04-09 2010-09-03 Aldebaran Robotics Architecture de controle-commande d'un robot mobile utilisant des membres articules
FR2946160B1 (fr) * 2009-05-26 2014-05-09 Aldebaran Robotics Systeme et procede pour editer et commander des comportements d'un robot mobile.
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
WO2011011084A1 (en) * 2009-07-24 2011-01-27 Modular Robotics Llc Modular robotics
US8260460B2 (en) * 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
DE102010004476A1 (de) * 2010-01-13 2011-07-14 KUKA Laboratories GmbH, 86165 Verfahren und Vorrichtung zum Kontrollieren einer Roboterapplikation

Also Published As

Publication number Publication date
FR2991222B1 (fr) 2015-02-27
WO2013178741A1 (fr) 2013-12-05
EP2855105A1 (fr) 2015-04-08
FR2991222A1 (fr) 2013-12-06
US20150290807A1 (en) 2015-10-15
JP6319772B2 (ja) 2018-05-09
BR112014030043A2 (pt) 2017-06-27
JP2015525137A (ja) 2015-09-03
CN104470686A (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
CN104470686B (zh) 用于生成被实时地执行的移动机器人的上下文行为的系统和方法
US10599405B2 (en) Application system having an LLVM compiler
Gibb New media art, design, and the Arduino microcontroller: A malleable tool
CN102596516B (zh) 用于产生移动机器人的情境行为的系统和方法
US20170206064A1 (en) Persistent companion device configuration and deployment platform
WO2018093806A1 (en) Embodied dialog and embodied speech authoring tools for use with an expressive social robot
FR2963132A1 (fr) Robot humanoide dote d&#39;une interface de dialogue naturel, methode d&#39;utilisation et de programmation de ladite interface
EP2834811A1 (fr) Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d&#39;utilisation dudit robot
KR100856786B1 (ko) 3d 버추얼 에이전트를 사용한 멀티미디어 나레이션 저작시스템 및 그 제공 방법
WO2019057019A1 (zh) 机器人互动方法和设备
CN107918518A (zh) 互动操作方法、装置、终端设备和操作系统
Baldassarri et al. Maxine: A platform for embodied animated agents
Nischt et al. MPML3D: a reactive framework for the Multimodal Presentation Markup Language
WO2009022819A2 (en) System and method for supporting emotional expression of intelligent robot and intelligent robot system using the same
Gris et al. Virtual agent interaction framework (VAIF): a tool for rapid development of social agents
Nunnari et al. Yet another low‐level agent handler
Blumendorf Multimodal interaction in smart environments: a model-based runtime system for ubiquitous user interfaces.
Feng et al. A platform for building mobile virtual humans
Giunchi et al. DreamCodeVR: Towards Democratizing Behavior Design in Virtual Reality with Speech-Driven Programming
Gunn et al. haptic HONGI: Reflections on Collaboration in the Transdisciplinary Creation of an AR Artwork
Zikky et al. Utilizing Virtual Humans as Campus Virtual Receptionists
Huang et al. An agent based multicultural tour guide system with nonverbal user interface
Huang et al. Scripting human-agent interactions in a generic eca framework
Francksen Performer perspectives: managing the creative process in virtual environments. In conversation with the performers in Dream
Pettersson et al. Perspectives on Ozlab in the cloud: A literature review of tools supporting Wizard-of-Oz experimentation, including an historical overview of 1971-2013 and notes on methodological issues and supporting generic tools

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170829

Termination date: 20190530

CF01 Termination of patent right due to non-payment of annual fee