CN1835828A - 用于通信机器人的控制系统 - Google Patents

用于通信机器人的控制系统 Download PDF

Info

Publication number
CN1835828A
CN1835828A CNA2004800230474A CN200480023047A CN1835828A CN 1835828 A CN1835828 A CN 1835828A CN A2004800230474 A CNA2004800230474 A CN A2004800230474A CN 200480023047 A CN200480023047 A CN 200480023047A CN 1835828 A CN1835828 A CN 1835828A
Authority
CN
China
Prior art keywords
behavior
mood
communication robot
robot
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2004800230474A
Other languages
English (en)
Other versions
CN100436082C (zh
Inventor
神田崇行
石黑浩
宫下敬宏
小暮洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Publication of CN1835828A publication Critical patent/CN1835828A/zh
Application granted granted Critical
Publication of CN100436082C publication Critical patent/CN100436082C/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)

Abstract

通信机器人控制系统显示用于支持通信机器人行动输入的选择输入屏幕。选择输入屏幕按用户可选择的方式显示多个行为的列表以及添加到行为的情绪表现的列表,所述多个行为不仅包括自发行动而且还包括响应作为交流伙伴的人的行为的反应性行动(反射行为)。根据用户的操作,选择并决定通信机器人执行的行为和情绪表现。然后,根据行为和情绪表现的输入历史,生成用于包括反应动作和情绪交互行动的交互行动的再现动作信息。

Description

用于通信机器人的控制系统
技术领域
本发明涉及用于通信机器人的控制系统、行动输入支持程序、存储程序的存储介质以及行动输入支持方法。更加具体地,本发明涉及支持通过声音和姿势与人交流的通信机器人的行动输入的用于通信机器人的控制系统、行动输入支持程序、存储程序的存储介质以及行动输入支持方法。
背景技术
在传统的机器人控制技术中,一般而言,存在一些系统,其接收只是用于执行固定动作的输入并再现该输入以便使机器人再次展现该固定动作,还存在一些在工业机械手中非常频繁使用的教导回放方法的教导技术,等等。
但是,想通过声音和姿势与人交流的通信机器人,需要其不仅执行用于进行交流的固定自发动作,而且还要响应作为交流伙伴的人的行为的反应性动作,以便实现更加自然的交流。另外,人具有情绪,并且可以取决于他的情绪以不同的方式展示相同的动作。这样一来,通信机器人就同样需要做出情绪动作。然而,现有技术仅仅接受固定自发动作的输入,并且不存在这样的系统,所述系统可支持由机器人执行的包括根据人的行为的反应性动作和情绪动作的行动的输入。
发明内容
因此,本发明的主要目的是提供用于通信机器人的新颖控制系统、行动输入支持程序、存储程序的存储介质以及行动输入支持方法。
本发明的另一个目的是提供用于通信机器人的控制系统、行动输入支持程序、存储程序的存储介质以及行动输入支持方法,其使得可以容易地输入并生成包括反应动作的交互行动。
本发明的还一个目标是,提供用于通信机器人的控制系统、行动输入支持程序、存储程序的存储介质以及行动输入支持方法,其使得可以容易地输入并生成包括情绪动作的交互行动。
根据权利要求1的本发明的用于通信机器人的控制系统,支持通信机器人执行的交互行动的输入,并且包含:存储装置,用于存储有关多个行为的信息,所述多个行为包括响应人的行为而执行的反射行为和以自发方式执行的自发行为;显示装置,用于基于所述存储装置中存储的信息以用户可选择的方式显示所述多个行为的列表;行为决定装置,用于根据用户的操作从所述显示装置显示的所述行为列表中决定所述通信机器人执行的行为;以及生成装置,用于基于由所述行为决定装置决定的所述行为的历史,生成用于所述通信机器人执行的交互行动的再现动作信息。
在权利要求1的本发明中,包括响应作为交流伙伴的人的行为的反射行为(反应性动作)以及自发行为的多个行为的信息,预先存储在存储装置中。基于事先准备的多个行为的信息,显示装置以用户可选择的方式显示多个行为的列表。亦即,这个列表同样以用户可选择的方式呈现反射行为。用户能够从显示的行为列表中选择通信机器人执行的行为。行为决定装置根据用户的操作从行为列表中决定通信机器人执行的行为。同样,基于决定的行为的历史记录,生成装置生成用于通信机器人执行的交互行动的再现动作信息。因此,根据权利要求1的本发明,通过从包括反射行为的行为列表中选择通信机器人执行的行为,用户能够容易地输入每种形成交互行动的行为,并且生成包括反射行为的交互行动的再现动作信息。
根据权利要求2的本发明的用于通信机器人的控制系统,依赖于权利要求1的本发明。显示装置进一步以用户可选择的方式显示了多个情绪表现的列表。行为决定装置进一步根据用户的操作从情绪表现列表中决定添加到通信机器人执行的行为的情绪表现。生成装置基于行为决定装置决定的行为和情绪表现的历史记录生成再现动作信息。
在权利要求2的本发明中,显示装置进一步显示多个情绪表现列表以及行为列表。从多个情绪表现中,用户能够选择希望添加到行为的情绪表现。行为决定装置根据用户的操作决定通信机器人执行的行为并进一步决定添加到行为的情绪表现。基于所决定的行为和情绪表现的历史记录,生成装置生成再现动作信息。这样一来,根据权利要求2的本发明,可以容易地输入情绪行为,并且容易地输入并生成情绪交互行动的再现动作信息。
根据权利要求3的本发明的用于通信机器人的控制系统,取决于权利要求2的本发明。行为决定装置进一步包含确定装置,用于确定用户选择的情绪表现是否适合于选择的行为,并且如果确定装置确定情绪表现不适合于行为的话,则不允许将情绪表现添加到行为。
在权利要求3的本发明中,确定装置确定用户选择的情绪表现是否适合于所选择的行为。根据确定结果将情绪表现添加到行为。亦即,如果确定情绪表现不适合于行为,则不允许向行为添加情绪表现。因此,根据权利要求3的本发明,可以防止情绪表现时的行为和要添加的情绪表现之间的矛盾。
根据权利要求4的本发明的用于通信机器人的控制系统,依赖于权利要求1到3的本发明中的任何一个,并且进一步包含传送装置,用于当行为决定装置已决定通信机器人执行的行为时,向通信机器人传送用于行为的执行指令。
在权利要求4的本发明中,传送装置向通信机器人传送用于决定的行为的执行指令。根据执行指令,通信机器人执行所决定的行为。因此,用户能够检查通信机器人的实际动作,并从而容易地产生交互行动。
根据权利要求5的本发明的用于通信机器人的控制系统,取决于权利要求1到4的本发明中的任何一个。显示装置显示按通信机器人的部位分类的行为列表。
在权利要求5的本发明中,显示了按部位分类的行为列表,这使得可以用易于理解的方式向用户呈现多个行为。这样一来,用户能够容易地输入希望的行为。
根据权利要求6的本发明的用于通信机器人的控制系统,取决于权利要求1到5中的任何一个。当用户的操作从行为列表中选择行为时,显示装置显示执行行为的通信机器人的外观图像。
在权利要求6的本发明中,当用户从列表中选择行为时,执行行为的通信机器人的外观显示为图像。这样一来,用户就能够事先看见通信机器人根据决定的行为实际上将会进行什么动作。这使得更容易产生交互行动。
根据权利要求7的本发明的行动输入支持程序,用于在用于通信机器人的控制系统上支持由通信机器人执行的交互行动的输入,所述用于通信机器人的控制系统包含存储装置,用于存储有关多个行为的信息,所述多个行为包括响应人的行为而由通信机器人执行的反射行为和以自发方式由通信机器人执行的自发行为。这个程序使得用于通信机器人的控制系统的处理器执行:基于存储装置中存储的信息以用户可选择的方式显示多个行为的列表的显示步骤;根据用户的操作从显示步骤显示的行为列表中决定由通信机器人执行的行为的行为决定步骤;以及基于选择决定步骤决定的行为的历史来生成用于通信机器人执行的交互行动的再现动作信息的生成步骤。
根据权利要求8的本发明的行动输入支持程序取决于权利要求7的本发明。显示步骤进一步以用户可选择的方式显示多个情绪表现的列表。行为决定步骤进一步根据用户的操作从情绪表现列表中决定添加到通信机器人执行的行为的情绪表现。基于行为决定步骤决定的行为和情绪表现的历史,生成步骤生成再现动作信息。
根据权利要求9的本发明的行动输入支持程序,取决于权利要求8的本发明。行为决定步骤进一步包括确定用户选择的情绪表现是否适合于选择的行为的确定步骤,并且如果确定步骤确定情绪表现不适合于该行为的话,则不允许将情绪表现添加到该行为。
根据权利要求10的本发明的存储程序的存储介质,是存储用于在用于通信机器人的控制系统上支持由通信机器人执行的交互行动的输入的程序的存储介质,所述用于通信机器人的控制系统包含存储装置,用于存储有关多个行为的信息,所述多个行为包括响应人的行为而由通信机器人执行的反射行为和以自发方式由通信机器人执行的自发行为。程序使得用于通信机器人的控制系统的处理器执行:基于存储装置中存储的信息以用户可选择的方式显示多个行为的列表的显示步骤;根据用户的操作从显示步骤显示的行为列表中决定通信机器人执行的行为的行为决定步骤;以及基于选择决定步骤决定的行为的历史来生成用于通信机器人执行的交互行动的再现动作信息的生成步骤。
根据权利要求11的本发明的存储程序的存储介质取决于权利要求10的本发明。显示步骤进一步以用户可选择的方式显示多个情绪表现的列表。行为决定步骤进一步根据用户的操作从情绪表现列表中决定要添加到通信机器人执行的行为的情绪表现。基于行为决定步骤决定的行为和情绪表现的历史,生成步骤生成再现动作信息。
根据权利要求12的本发明的存储程序的存储介质,取决于权利要求11的本发明。行为决定步骤进一步包括确定用户选择的情绪表现是否适合于选择的行为的确定步骤,并且如果确定步骤确定情绪表现不适合于行为的话,则不允许将情绪表现添加到行为。
根据权利要求13的本发明的行动输入支持方法,是用于在用于通信机器人的控制系统上支持通信机器人执行的交互行动的输入的行动输入支持方法,所述用于通信机器人的控制系统包含存储装置,用于存储有关多个行为的信息,所述多个行为包括响应人的行为而由通信机器人执行的反射行为和以自发方式由通信机器人执行的自发行为。该方法包括:基于存储装置中存储的信息以用户可选择的方式显示多个行为的列表的显示步骤;根据用户的操作从显示步骤显示的行为列表中决定由通信机器人执行的行为的行为决定步骤;以及基于选择决定步骤决定的行为的历史来生成用于通信机器人执行的交互行动的再现动作信息的生成步骤。
根据权利要求14的本发明的行动输入支持方法取决于权利要求13的本发明。显示步骤进一步以用户可选择的方式显示多个情绪表现的列表。行为决定步骤进一步根据用户的操作从情绪表现列表中决定要添加到通信机器人执行的行为的情绪表现。基于行为决定步骤决定的行为和情绪表现的历史,生成步骤生成再现动作信息。
根据权利要求15的本发明的行动输入支持方法,取决于权利要求14的本发明。行为决定步骤进一步包括确定用户选择的情绪表现是否适合于选择的行为的确定步骤。如果确定步骤确定情绪表现不适合于该行为的话,则不允许将情绪表现添加到该行为。
权利要求7到9的本发明、权利要求10到12的本发明或权利要求13到15的本发明,使得可以容易地输入并生成包括反射行为的交互行动的再现动作信息,如权利要求1到3的上述本发明的情况那样。另外,可以容易地输入并生成情绪交互行动的再现动作信息,并且防止添加与行为不一致的情绪表现。
根据本发明,显示包括响应人的行为的反射行为的多个行为的列表,以便允许用户进行选择,并从而可以容易地输入并生成通信机器人执行的交互行动。由于生成的交互行动不仅包括自发行为,而且还包括反射行为,所以可以根据交流伙伴的行为启动反射行为。因此,这使得易于使通信机器人实现更加自然的、多种多样的交互行动。
此外,在添加到行为的情绪表现列表还和行为列表一起向用户显示以进行选择的情况下,可以容易地输入情绪动作,并且同样容易地输入并生成情绪交互行动。因此,可以使通信机器人容易地实现包括情绪反应动作和情绪自发行为的更加多种多样的交互行动。
通过以下结合附图的本发明的详细说明,本发明的上述目标和其他目标、特征、方面以及优点将变得更加明显。
附图说明
图1是示出本发明的一个实施例中的用于通信机器人的控制系统概要的示意图;
图2是示出图1中的通信机器人的外观的示意图;
图3是示出图1中的通信机器人的内部结构的方框图;
图4是示出图3中的自发行为DB的内容的一个例子的示意图;
图5是示出图3中的反射行为DB的内容的一个例子的示意图;
图6是是示出图1实施例中的用于通信机器人的控制系统的存储器中存储的行为列表数据的内容的一个例子的示意图;
图7是示出图1实施例中的用于通信机器人的控制系统的显示设备显示的选择输入屏幕的一个例子的示意图;
图8是示出图1实施例中的用于通信机器人的控制系统的执行的一个例子的流程图;
图9是是示出图1实施例中的用于通信机器人的控制系统的再现动作DB中存储的再现动作数据的一个例子的示意图;
图10是示出图1中的通信机器人的操作的一个例子的流程图;
图11是示出图10中反射行为的执行过程的“看人的脸部”的动作的执行的一个例子的流程图;
图12是示出另一个实施例中的用于通信机器人的控制系统的显示设备上显示的选择输入屏幕的一个例子的示意图;
图13是示出图12实施例中的用于通信机器人的控制系统的存储器中存储的情绪表现列表数据的内容的一个例子的示意图;
图14是示出图12实施例中的用于通信机器人的控制系统的存储器中存储的行为列表数据的内容的一个例子的示意图;
图15是示出图12实施例中的用于通信机器人的控制系统中提供的情绪表现动作DB的内容的一个例子的示意图;
图16是示出图12实施例中的用于通信机器人的控制系统的存储器中存储的情绪反射行为列表数据的内容的一个例子的示意图;
图17是示出图12实施例中的用于通信机器人的控制系统的输入时的操作的一个例子的流程图;
图18是示出图12实施例中的用于通信机器人的控制系统的再现动作DB中存储的再现动作数据的一个例子的示意图;
图19是示出图12实施例中的用于通信机器人的控制系统的再现时的操作的一个例子的流程图;
图20是示出图12实施例中的通信机器人的操作的一个例子的流程图;
图21是示出图20中的情绪反射行为的执行过程的“欣然同意”行为的操作的一个例子的流程图;以及
图22是示出图20中的情绪校正/转换过程的操作的一个例子的流程图。
具体实施方式
参考图1,这个实施例的用于通信机器人的控制系统(在下文中还被简单称作“系统”)10,用于支持通信机器人(在下文中还被简单称作“机器人”)12执行的交互行动的输入。通信机器人12是要通过声音和姿势与人14交流的机器人。
这里,将详细说明应用于这个实施例的机器人12。参考图2,机器人12包括转向架16。在转向架16的下表面上提供用于使机器人12自主移动的轮18。轮18由轮电机(在显示机器人12的内部结构的图3中用参考标号“74”指示)驱动,并且能够在向前、向后、向左或向右的任意方向上移动转向架16,也即移动机器人12。另外,尽管未显示,转向架16具有连接到其前面的碰撞传感器(在图3中用参考标号“82”指示)。碰撞传感器检测转向架16和人或别的障碍物的接触。然后,如果在机器人12的移动期间检测到与障碍物的任何接触,则迅速暂停轮18的驱动,以使机器人12骤然停住。
此外,机器人12的高度在这个实施例中假设为大约100cm,以便不给人、尤其是儿童以压迫感。然而,能够任意改变高度。
在转向架16上提供多角形柱的传感器连接面板20。传感器安装面板20的每个表面都和超声波距离传感器22连接。超声波距离传感器22主要测量与在连接面板20、即机器人22的周围的人的距离。
在转向架16上进一步提供机器人12的躯体部,其下部以直立的方式由上述连接面板20包围。躯体部由下体部24和上体部26组成。下体部24和上体部26通过关节部分28相互连接。此外,尽管未显示,关节部分28结合了升降机构。通过使用升降机构,可以改变上体部26的高度、亦即机器人12的高度。升降机构由腰电机(在图3中用参考标号“72”指示)驱动,如稍后说明的那样。机器人12的上述高度100cm是上体部26处于最低位置时的值。因此,机器人12的高度可以大于100cm。
在上体部26的近似中心点上提供一个全向照相机30和一个麦克风32。全向照相机30拍摄机器人12的周围,并且有别于稍后说明的眼睛照相机52。麦克风32捕捉周围的声音,尤其是人的声音。
上体部26具有分别通过肩关节34R和34L连接在其肩部上的上臂36R和36L。肩关节34R和34L每个都具有3个坐标轴的自由度。更加具体地,肩关节34R能够围绕X轴、Y轴和Z轴中的每一个控制上臂36R的角度。Y轴是平行于纵向方向(或坐标轴)的上臂36R的坐标轴,而X轴和Z轴是在不同的方向上正交于Y轴的坐标轴。肩关节34L能够围绕A轴、B轴和C轴中的每一个控制上臂36L的角度。B轴是平行于纵向方向(或坐标轴)的上臂36L的坐标轴,而A轴和C轴是在不同的方向上正交于B轴的坐标轴。
前臂40R和40L经由肘关节38R和38L连接到上臂36R和36L的各自端部。肘关节38R和38L能够分别围绕W轴和D轴中的每一个来控制前臂40R和40L的角度。
另外,“0度”是控制上臂36R、36L和前臂40R、40L的位移的X、Y、Z和W轴以及A、B、C和D轴的原位(home position)。在原位,上臂36R、36L和前臂40R、40L指向向下的方向。
此外,尽管图2中未显示,包括肩关节34R和34L的上体部26的肩部、上述上臂36R、36L以及前臂40R和40L每个都配备有触觉传感器。这些触觉传感器检测人14是否已接触了机器人12的这些部位。这些触觉传感器还用参考标号80在图3中集体示出。
对应于手的球42R和42L固定地连接到前臂40R和40L的各自末端。同样,在和这个实施例的机器人12的情况不同的需要某些手指功能的情况下,可以使用人手形状的“手”而不是球42R和42L。
进而,尽管机器人12的形状、尺寸等等应当被设置得恰当,但是例如上体部26可以包括前侧、后侧、右侧、左侧、顶侧和底侧,并且可以按这样的方式形成右侧和左侧:它们的表面在别的实施例中倾斜向前。更加具体地,可以按这样的方式形成:前侧的宽度比后侧的宽度小,并且上体部26的顶视图是梯形形状。在这样的情况下,肩关节34R和34L经由表面分别平行于右侧和左侧的右支持部分和左支持部分连接到右侧和左侧。同样,上臂36R和上臂36L的旋转范围受右侧和左侧或支持部分的表面(连接表面)限制,并且这样一来,上臂36R和36L就决不会超过连接表面旋转。然而,通过适当地设置右侧和左侧的倾角、B轴和Y轴之间的距离、上臂36R和36L的长度、前臂40R和40L的长度等等,上臂36R和36L能够超过前面更加向内地旋转。因此,即使由于W轴和D轴在臂中不存在自由度,也能将机器人12的臂交叉在前面。因此甚至在具有很少臂自由度的情况下也可以和位于前面的人建立密切的交流,例如给予彼此拥抱。
头部46经由颈关节44连接到上体部26的上部中心。颈关节44具有3个自由度,并且能够围绕S轴、T轴和U轴中的每一个进行角度控制。S轴是从颈部直接向上延伸的坐标轴,而T轴和U轴则是在不同的方向上正交于S轴的坐标轴。头部46在对应于人嘴的位置配备有扬声器48。机器人12使用扬声器48以通过声音和机器人12周围的人交流。可选择地,可以将扬声器48提供给机器人12的别的部位,例如躯体部。
同样,头部46在对应于眼睛的位置配备有眼球50R和50L。眼球50R和50L分别包括眼睛照相机52R和52L。另外,在某些情况下,将右眼球50R和左眼球50L集体称作眼球部分50,并且将右眼照相机52R和左眼照相机52L集体称作眼睛照相机52。眼睛照相机52拍摄走近机器人12的人的脸或别的部位或别的物体,并且提取它们的图像信号。
此外,上述全向照相机30和眼睛照相机52中的任一种都可以是使用诸如CCD和CMOS之类的固态成像装置的照相机。
例如,眼睛照相机52固定在眼球50之内,而眼球50则经由眼球支架(未显示)连接在头部46之内的规定位置。眼球支架具有2个自由度,并且能够围绕α轴和β轴中的每一个进行角度控制。α轴和β轴是关于头部46设置的坐标轴。α轴是从头部46向上延伸的坐标轴,而β轴则是正交于α轴并且还正交于头部46的前侧(脸部)指向的方向的坐标轴。在这个实施例中,当头部46在原位时,设置α轴使得平行于S轴,并且设置β轴使得平行于U轴。在像这样的头部46中,围绕α轴和β轴中的每一个旋转眼球支架,并且这样一来,就转移了眼球50或眼睛照相机52的尖端(前)侧,这样移动了照相机坐标轴,亦即注视的方向。
另外,“0度”是控制眼睛照相机52的位移的α轴和β轴的原位。在这个原位,眼睛照相机52的照相机坐标轴指向头部46的前侧(脸部)所指向的方向,并且注视处于正常视觉状态,如图2所示。
图3显示了描述机器人12的内部结构的方框图。如图3中描述的那样,机器人12包括用于整体控制的微型计算机或CPU 54。CPU 54通过总线56和存储器58、电机控制板60、传感器输入/输出板62以及声音输入/输出板64连接。
尽管未显示,存储器58包括ROM、HDD以及RAM。将用于机器人12的整体控制的程序以及诸如用于发声的声音数据之类的各种数据事先写入到ROM和HDD中。RAM用作临时存储的存储器,并且还用作工作存储器。
电机控制板60由例如DSP(数字信号处理器)组成,并且控制臂部、头部、眼球等等的轴电机中的每一个。更加具体地,电机控制板60从CPU 54接收控制数据,并且调节总共4个电机(在图3中集体显示为“右臂电机”)66的旋转角度,所述总共4个电机66由以下组成:3个电机,控制右肩关节34R的X、Y和Z轴的各个角度θx、θy和θz;以及一个电机,控制右肘关节38R的轴W的角度θw。电机控制板60还调节总共4个电机(在图3中集体显示为“左臂电机”)68的旋转角度,所述总共4个电机68由以下组成:3个电机,控制左肩关节34L的A、B和C轴的各个角度θa、θb和θc;以及一个电机,控制左肘关节38L的轴D的角度θd。另外,电机控制板60调节3个电机(在图3中集体显示为“头电机”)70的旋转角度,所述3个电机70控制头部46的S、T和U轴的各个角度θs、θt和θu。此外,电机控制板60控制腰电机72和驱动轮18的两个电机(在图3中集体显示为“轮电机”)74。进而,电机控制板60调节控制右眼球50R的α轴和β轴的各个角度的两个电机(在图3中集体显示为“右眼球电机”)76的旋转角度,并且调节控制左眼球50L的α轴和β轴的各个角度的两个电机(在图3中集体显示为“左眼球电机”)78的旋转角度。
同样,这个实施例的上述电机,除了轮电机74之外,为了简化控制全都是步进电机或脉冲电机,但是它们可以是如轮电机74那样的直流电机。
传感器输入/输出板62类似地由DSP组成,并且从每个传感器和照相机提取信号并将它们提供给CPU 54。更加具体地,通过传感器输入/输出板62将来自每个超声波距离传感器22的反射时的数据输入到CPU 54中。同样,来自全向摄影机30的视频信号,必要时通过传感器输入/输出板62经过规定的处理,然后被输入到CPU 54中。以同样的方式将来自眼睛照相机52的视频信号提供给CPU 54。另外,图3显示了集体显示为“触觉传感器80”的关于图2描述的触觉传感器。经由传感器输入/输出板62将来自触觉传感器80的信号提供给CPU 54。
CPU 54经由声音输入/输出板64向扬声器48提供合成声音数据。作为对此的响应,扬声器48根据数据输出声音。然后,CPU 54经由声音输入/输出板64提取从麦克风32输入的声音。
类似地由DSP组成的通信LAN板84,提供从CPU 54向无线通信设备86发送的传输数据,并且使无线通信设备86传送传输数据。同样,通信LAN板84经由无线通信设备86接收数据,并且将接收的数据提供给CPU 54。在这个实施例中,机器人12经由无线LAN和系统10通信。
此外,CPU 54经由总线56和自发行为数据库(DB)88以及反射行为数据库(DB)90连接。
反射行为在这里是指响应作为交流伙伴的人14的行为的反应性动作,诸如在交流期间将脸转向交流伙伴的方向,以及当交流伙伴触摸到某个身体部位时,看着被触摸的部位。在人之间的交流中常常进行这样的反射动作,并且通过使机器人12执行反射行动,变得可以实现与人14的更加自然的、丰富的交流。同时,自发行为是指诸如首先问候和环顾之类的自发性的动作,并且这里是指不同于反射行为的行动。
如图4所示,在自发行为DB 88中形成自发行为处理程序存储区,其中预先记录了用于使机器人执行自发行为的多个程序。例如,存储用于挥手打招呼行为的程序、用于如行进那样的摆臂行为的程序、用于环顾行动的程序、用于鞠躬行为的程序、用于向前直视某个东西的行为的程序、用于说“哈罗”的行为的程序、用于说“拜拜”的行为的程序、用于移动到别的地方的行为的程序等等。另外,还存储直接输入执行处理程序。直接输入执行处理程序是要使机器人12执行已记录的程序中所没有包含的动作。当用户将每个坐标轴的角度直接输入到系统10中时,如稍后说明的那样,这个程序使机器人12根据输入值执行动作。
如图5所示,在反射行为DB 90中形成反射行为处理程序存储区,其中事先记录了用于使机器人执行反射行为的多个程序。例如,存储用于当人挡在前面时说“请让开”的行为的程序、用于当触及身体时看着被触摸的部位的行为的程序、用于当发现人的脸时将眼睛转向人脸的行为的程序等等。反射行为是如上所述的反应性动作,因此在每个反射行为处理程序中,建立了用于检测人的特定行为以执行反射行为的前提条件。
通过执行这些自发行为DB 88和反射行为DB 90中记录的单独行为程序,机器人12执行与人14的交互行动或交流行动。
系统10旨在支持如上所述的机器人12执行的交互行动的输入,并且对此诸如PC和工作站之类的计算机是可用的。系统10包括例如CPU、ROM、RAM、HDD、诸如鼠标和键盘之类的输入设备、诸如LCD之类的显示设备、用于和机器人12通信的无线通信设备。HDD存储用于支持行动输入的某些程序和数据,并且根据该程序,CPU在RAM中生成临时数据的同时执行处理。不用说,可以从保持它们的各种公知的信息存储介质中把用于支持行动输入的这些程序、数据等等存储到系统10的HDD中。
系统10的HDD还存储行为列表,如图6所示。在这个行为列表上登记形成由机器人12执行的一系列交互行动的单独行为或动作。行为列表中的每个行为对应于机器人12的自发行为DB 88和反射行为DB 90中记录的每个行为程序。在系统10中,通过从行为列表中记录的多个行为中按次序选择并指定某些行为,来创建机器人12执行的交互行动。
在行为列表中登记与每个行为的标识符相关联的有关执行行为的部位(region)的信息、用于显示的文本以及指示行为属性的信息。将执行行为的部位分成右手、左手、头部以及发声。另外,可以假设发声(utterance)是部位之一,因为在这里是想按易于理解的方式分类机器人12的行为。行为的属性用于指示行为是自发行为还是反射行为。每个行为通过其标识符和用于执行机器人12的自发行为DB 88和反射行为DB 90中登记的每个行为的程序相关联。
在图6的例子中,登记了右臂(上臂36R和前臂40R)的行为,包括挥手问候的行为以及如行进那样的摆臂的行为,并且同样也记录了直接输入的行为。直接输入的行为是要根据用户直接输入的每个坐标轴(右手情况下的X、Y、Z和W轴)上的角度数据来操作身体部位。直接输入的行为被归类为自发行为。另外还登记“无行为”,这在未包括身体部位的动作的情况下指定。左臂(上臂36L和前臂40L)的登记行为和右臂的相同。对于左臂的直接输入的行为,输入A、B、C和D轴的角度数据。此外,把诸如看着人的脸(目光接触)的行为和看着被触摸的身体部位的行为之类的反射行为,以及诸如环顾的行为、鞠躬的行为和向前直视某个东西的行为之类的自发行为,登记为头部46的行为。至于头部的直接输入的行为,输入S、T和U轴的角度数据。此外,把诸如当人挡在前面时说“请让开”的行为之类的反射行为,以及诸如说“哈罗”的行为和说“拜拜”的行为之类的自发行为,记录为发声行为。
图7显示了用于选择机器人12执行的行为的选择输入屏幕的一个例子。选择输入屏幕设置有用于显示记录的行为列表的行为列表部分92。行为列表部分92提供了用于包括例如右臂、左臂、头部和发声的部位中的每一个的列表框。每个列表框提出了作为选项的多个文本形式的行为,其根据行为列表按部位分类。
在列表框中,用鼠标等操作按钮显示多个用于相关部位的行为,并且这样一来用户就能够从列表中选择一个行为。更加具体地,可以选择相关部位的记录的自发行为和反射行为中的任何一个行为或无行为。也可以选择用于右臂、左臂和头部的直接输入。用这种方式,多个行为通过部位分类、列表并显示,这以易于理解的方式向用户提供了多个行为。这允许用户容易地输入希望的行为。
在行为列表部分92的上面提供了直接输入部分94,用于在列表框中指定直接输入时输入每个坐标轴的角度。在图7的例子中,通过使用鼠标等沿着标尺94b移动滑块94a,可以指定每个坐标轴的角度。例如在通过直接输入指定左臂动作的情况下,通过从行为列表部分92中的用于左臂的列表框中选择直接输入,并且在直接输入部分94中将用于A、B、C和D轴的滑块94a设置到各自适当的位置,能够指定每个坐标轴的角度。另外,可以通过输入数字值来设置每个坐标轴的角度。
在行为列表部分92和直接输入部分94的左侧提供了图像部分96,用于通过图像显示机器人12的动作。图像部分96显示被画为例如线框模型的机器人12的前视图、侧视图、顶视图和透视图。当用户在行为列表部分92中选择/指定某个行为或者在直接输入部分94中指定角度时,机器人在图像部分96中改变成执行动作的状态。这样一来,用户能够事先在图像部分96中看到机器人12由于选择的行为而将实际采取什么姿势。
同样,在行为列表部分92中选择/指定行为或者在直接输入部分94中指定角度之后,用户能够从输入设备操作决定按钮98,以将选择/指定的行为决定为机器人12实际执行的行为。在这个实施例中,将用于选择并决定的行为的执行指令传送到机器人12,并且在机器人12中处理用于行为的程序。据此,机器人12实际执行行为。因此,用户不仅能够在图像部分96中,而且还能够通过实际的机器人12来检查所决定的行为。
另外,图7的行为列表部分92省略了选择并设置移动行动的部分。同样,图像部分96没有提供关于其移动行动性质的动作的显示。
通过在选择输入屏幕中重复选择/指定与行为的决定,用户创建了机器人12执行的交互行动。能够在执行这种创建活动的同时,在选择输入屏幕的图像部分96中检查图像,并且实际操作机器人12面向作为伙伴的人14。这样一来,就可以非常容易地创建交互行动。
此外,在系统10中,选择并决定的行为临时存储在RAM中,作为用于生成再现动作信息的输入行为历史。在用选择输入屏幕工作期间,一系列的决定的行为作为输入历史信息存储在系统10的RAM中。然后,操作输入结束按钮100生成用于基于输入历史再现交互行动的再现动作信息。生成的再现动作信息保存在再现动作DB 102(图1)中。
另外,在这个实施例的系统10中,通过从再现动作DB 102上登记的再现动作信息中指定执行的某个再现动作信息,并且命令其再现,将用于执行再现动作信息的指令传送到机器人12。作为对此的响应,机器人12再现该再现动作信息,从而实现用户输入的交互行动。
再现动作信息不仅包含自发行为,而且还包含反射行为,因此机器人12执行的交互行动包括响应人14的行为的某些反射动作。亦即,如果作为交流伙伴的人14面向根据再现动作信息执行行为的机器人12并执行满足用于激活反射行为的前提条件的动作,那么机器人12就执行反射行为,并且向人14做出响应人14的动作的反应性动作。因此,机器人12能够实现更加自然的和多种多样的交互行动或交流行动。
图8显示了系统10的操作的一个例子。在步骤S1中,系统10的CPU基于用户的操作或程序经由无线通信设备向机器人12传送激活指令。在机器人12中根据激活指令激活规定的程序,并且将机器人12带入到等待从系统10传送的指令数据的状态。
接下来,在步骤S3中确定是否输入动作。如果在步骤S3中为“是”,亦即,例如如果输入设备的用户操作给出了用于输入动作的指令,则在随后的步骤S5中,在显示设备上显示如图7所示的选择输入屏幕。
在选择输入屏幕中,如上所述,根据输入设备的用户操作,机器人12执行的行为在行为列表部分92或直接输入部分94中被指定,并且由决定按钮98决定。用户能够重复选择/指定和用于创建一系列交互行动的行为的决定,并且能够通过操作输入结束按钮100来结束行动输入。
在步骤S7中,确定是否选择了任何反射行为。更加具体地,通过参考行为列表,确定决定的行为的属性是否是反射行为。如果在步骤S7中为“是”,则将用于选择的反射行为的执行指令传送给机器人12。传送的执行指令数据包含例如指示选择的反射行为的标识符。在机器人12中,根据执行指令激活相应的反射行为处理程序,并且执行反射行为。另外,尽管未显示,将决定的反射行为作为输入历史信息临时存储在RAM中。当步骤S9已完成时,过程返回到步骤S7。
另一方面,如果在步骤S7中为“否”,则在步骤S11中确定是否选择了任何自发行为。更加具体地,通过参考行为列表,确定所决定的行为的属性是否是自发行为。如果在步骤S11中为“是”,则在随后的步骤S13中将用于选择的自发行为的执行指令传送给机器人12。传送的执行指令数据包含例如指示选择的自发行为的标识符。在机器人12中,根据执行指令激活相应的自发行为处理程序,并且执行自发行为。另外,如已经说明的那样,在自发行为中包括直接输入的行为。在直接输入行为的情况下,传送的执行指令包含其标识符和每个坐标轴的输入角度数据。此外,尽管未显示,将决定的自发行为作为输入历史信息临时存储在RAM中。当步骤S13已完成时,过程返回到步骤S7。
同样,如果在步骤S11中为“否”,则在步骤S15中确定是否结束输入。如果在步骤S15中为“否”,则过程返回到步骤S7以重复过程。另一方面,如果在步骤S15中为“是”,亦即,例如如果操作了输入结束按钮100,则在随后的步骤S17中,基于输入历史信息生成再现动作数据,并将其存储在再现动作DB 102中。稍后将给出再现动作数据的详细说明。例如在再现动作数据中,按输入顺序通过其标识符描述每个行为,包含有关部位和属性等的信息,并且在直接输入行为的情况下,还包含输入角度数据。
如果步骤S17完成或者如果在步骤S3中为“否”,则在步骤S19中确定是否再现该行为。如果在步骤S19中为“是”,亦即,例如如果输入设备的用户操作指定行为的再现,则在步骤S21中从再现动作DB 102读出执行的再现动作数据。显示例如再现动作DB 102中存储的再现动作的列表,以便用户选择要执行的再现动作数据。随后,在步骤S23中将用于读取再现动作数据的执行指令传送到机器人12。响应执行指令,机器人12再现该再现动作数据并执行一系列交流行动。
如果步骤S23结束或者如果在步骤S19中为“否”,则在步骤S25中确定输入设备的用户操作是否指定结束。如果“否”,则过程返回到步骤S3。相反,如果“是”,则用于输入支持的过程终止。
图9显示了由系统10生成并且存储在再现动作DB 102中的再现动作数据的一个例子。再现动作数据类似于剧情脚本(scenario),并且不仅包含自发行为,而且还包含反射行为。图9中的再现动作1的数据旨在使机器人执行从观众席走上舞台并且说“哈罗”的行为。在再现动作数据中,按照执行的顺序通过其标识符描述每个行为。尽管在图9中未示出,包括了有关部位和属性的信息,并且在直接输入行为的情况下,还包括输入角度数据。
在再现动作1中设置直到到达舞台的行动、在舞台上的行动以及从舞台离开的行动。首先,直到到达舞台的行动包括:沿着过道移动通过门的行为;如行进那样的摆臂行为;以及环顾的行为,它们都是自发行为。同样,将当人挡在前面时说“请让开”的行为设置为移动行为期间的反射行为。另外,将当有人触摸时看着被触摸的部位的行为设置为如行进那样的摆臂行为期间的反射行为。此外,将若有人时朝着人脸看的行为设置为环顾行为期间的反射行为。重复处理对应于每个行为的程序,直到机器人到达舞台为止。因此,机器人12不仅执行诸如移动、摆臂以及环顾之类的自发行为,而且在检测到满足前提条件的人的特定行为的情况下,还执行反应性动作,亦即响应行为的反射行为。下一步,到达舞台之后的行动包括进行问候和告别。进行问候包括说“哈罗”的行为和鞠躬的姿势。随后进行告别包括说“拜拜”的行为和挥手的行为。它们都是自发行为。最后,离开舞台的行动包括:从舞台沿着过道移动的行为;摆臂的行为;以及向前直视出口的行为。它们都是自发行为。另外,将当人挡在前面时说“请让开”的行为设置为移动行为期间的反射行为,将当有人触摸时看着被触摸的部位的行为设置为如行进那样的摆臂行为期间的反射行为,并且将若有人时朝着人脸看的行为设置为向前直视行为期间的反射行为,如直到到达舞台的行动的情况那样。重复处理对应于每个离开舞台的行动的程序,直到机器人到达出口为止。另外,描述了结束指令,以当机器人最后到达出口位置时结束再现动作1的再现。
根据图10中显示的流程图,处理基于上述再现动作数据的机器人12的动作的执行以及用于行动输入时的每个行为的执行指令。首先,在图10的第一步骤S41中,机器人12的CPU 54经由无线通信设备86和通信LAN板获得从系统10传送的指令数据。下一步,在步骤S43中分析指令数据。如上所述,指令数据是例如用于再现动作数据的执行指令,或者用于行动输入时的每个单独行为的执行指令。在再现动作数据的情况下,按照描述的顺序执行多个行为。
然后,在步骤S45中基于属性信息等确定要执行的行为是否是反射行为。如果“是”,则根据标识符把相应的反射行为程序从反射行为DB 90装载到存储器58的工作区中,并且根据反射行为程序来执行该过程。因此,如果满足用于执行反射行为的前提条件,则机器人12执行反射行为,并且向作为交流伙伴的人14做出动作。一旦步骤S47中的过程完成,过程就返回到步骤S45。
作为步骤S47中的反射行为的执行过程的一个例子,图11显示了用于看人的脸部的行为的执行过程的细节。在图11的第一步骤S61中,机器人12的CPU 54从CCD照相机(眼睛照相机52)读取图像,并且在步骤S63中确定图像中是否存在任何人脸。如果在步骤S63中为“否”,亦即,如果确定获得的图像中不存在人脸,则在步骤S65中将对应于向上和向前方向的预置角度θs和θu的值作为用于S轴和U轴的角度控制数据发送到电机控制板60,其控制S轴和U轴的头电机70,以使头部46指向任何人脸可能存在的方向。另一方面,如果在步骤S63中为“是”,亦即,如果在获得的图像中检测到任何人脸,则在步骤S67中计算对应于检测到的人脸的方向的角度θs和θu的值,并且将计算的角度θs和θu的值作为用于S轴和U轴的角度控制数据发送到电机控制板60,其控制S轴和U轴的头电机70,以使头部46指向人脸存在的方向。在步骤S65或步骤S67中的过程完成之后,用于反射行为的执行过程结束,并且在这种情况下过程返回到图10中的步骤S45。
相反,如果在步骤S45中为“否”,则在步骤S49中根据属性信息等确定要执行的行为是否是自发行为。如果在步骤S49中为“是”,则在步骤S51中,根据标识符把相应的自发行为程序从自发行为DB 88中装载到存储器58的工作区中,并且根据自发行为程序来执行该过程。另外,在直接输入行为的情况下,过程基于直接输入执行处理程序、输入角度数据等等。因此,机器人12执行自发行为,并且向作为交流伙伴的人14做出动作。一旦步骤S51中的过程完成,过程就返回到步骤S45。
另一方面,如果在步骤S49中为“否”,则在步骤S53中确定这是否是结束指令。如果在步骤S53中为“否”,则过程返回到步骤S45。如果为“是”,则所有要执行的行为都已执行,并且因此过程终止。
根据这个实施例,显示了包括响应人的行为的反射行为的多个行为的列表,以便用户能够进行选择。这使得易于输入形成交互行动的每个行为,并且还易于输入并生成机器人12的交互行动。由于生成的交互行动不仅包括自发行为,而且还包括反射行为(反应动作),所以如果人在再现期间展示了特定的行为,那么就可以激活响应所述特定行为的反射行为,这使得机器人12可容易地实现更加自然和多种多样的交互行动。
此外,尽管在上述实施例中以文本形式显示了行为列表,但是可以使用指示行为特征等的设计图标来展示列表。
另外,在每个上述实施例中,通过从系统10向机器人12传送再现动作数据来再现交互行动。可选择地,可以在机器人12之内提供的再现动作DB中事先记录系统10生成的再现动作数据,以便使机器人12通过再现动作数据执行交互行动。
此外,假设每个上述实施例都支持包括响应人的行为的反射行为的交互行动的输入。然而在下述的另一个实施例中,可以支持包括某些情绪表现的情绪交互行动的输入。
图12显示了另一个实施例的系统10的显示设备上显示的选择输入屏幕的一个例子。选择输入屏幕以可选择的方式显示了添加到机器人12的行为的情绪表现。更加具体地,行为列表部分92配备了例如用于选择情绪表现的列表框。用于情绪表现的列表框基于情绪表现列表(图13)以文本形式等提供了多个情绪表现作为选项。
系统10的包括HDD的存储设备存储了如图13所示的情绪表现列表数据和行为列表数据。在情绪表现列表数据中记录关于和标识符相关联的添加到机器人12的行为的多个情绪表现的信息。对于情绪表现,准备了诸如快乐、悲伤、生气、恐惧、厌恶以及好奇之类的基本情绪,而且还准备了不添加情绪表现的选项“无”。
通过操作诸如鼠标之类的输入设备,并且在如图12所示的选择输入屏幕中选择/指定一种情绪表现,用户能够选择添加到机器人12执行的行为的情绪表现。用这种方式,列表并显示多个情绪表现使得可以以易于理解的方式向用户提供多个情绪表现。这使得用户可容易地输入希望的情绪行为。
另外,准备的情绪表现并不限于上述例子,并且可以进一步在情绪表示方面扩展。例如关于面部表情,有公知的Ekman定义的6种基本表情,亦即高兴、生气、惊奇、悲伤、恐惧以及厌恶。同样,在《受管理的心灵:人类感情的商业化》(A.R.Hochschild著,日译本JunIshikawa和Aki Murofushi译,Sekaishisosha Co.Ltd.,2000)中命名了以下表情:孤独、怀旧、沮丧、挫折、生气、恐惧、愤慨、厌恶、蔑视、负罪感、痛苦、羡慕、忌妒、友爱、同情、怜悯、尴尬、羞耻感、忧虑等等。
同样,图14显示了这个实施例的行为列表的内容的一个例子。在这个实施例的行为列表中进一步记录了和每个行为的标识符相关联的用于确定是否将任何情绪表现添加到行为的信息。在这个实施例中,同样登记了指示禁止添加到行为的情绪表现、亦即不适合于行为的情绪表现的信息。提供该信息以便防止行为或动作中内在的原始情绪表现和用户添加的情绪表现之间的矛盾。
例如,哭泣的行为应当伴随着悲痛执行,并且和向“哭泣”行为添加“快乐”表情不协调。因此,“快乐”被登记为禁止用于“哭泣”行为的情绪。同样,胜利姿势(举起拳头)应当伴随着欢乐进行,而向“做出胜利姿势”的行为添加“悲伤”或“生气”的表情则没有意义。因此,“悲伤”和“生气”被登记为禁止用于“做出胜利姿势”行为的情绪。同时,至于和任何情绪表现都没有问题的行为,包括“摆臂行走”行为、“握手”行为、“问候”行为、“同意”行为或“鞠躬”行为,则登记指示无不恰当情绪表现的信息。
此外,假设将禁止的情绪记录在图14的例子中。可选择地,可以在行为列表中记录指示允许添加到行为的情绪表现的信息。
在系统10中,当用户选择某个情绪表现时,基于指示禁止的情绪表现的信息,确定情绪表现是否能够被添加到选择的行为。如果确定选择的情绪表现不适合于选择的动作,则不允许情绪表现向行为的添加,并且复位情绪表现的用户选择,并提示用户重新选择情绪表现。
同时,机器人12进一步包含用于执行情绪行为的情绪表现行为数据库(DB)104。情绪表现行为DB 104配备有如图15所示的情绪表现行为处理程序存储区,其中事先记录了用于使机器人12执行情绪表现行为的多个程序。这些存储的程序大致被分成用于执行情绪反应性动作的程序和用于执行情绪校正/转换的程序。
更加具体地,存储的情绪反射行为处理程序包括用于欣然同意的行为的程序、用于不情愿同意的行为的程序、用于变得恐惧的行为的程序等等。在“欣然同意”的行为中,机器人12以与伙伴的音调相协调的音调说出和同意的对象、亦即交流伙伴所说的同样的(一句或多句)言语,并且点头。音调的协调这里是指音调以相同的语调变化。例如,如果作为交流伙伴的人14以升调说“让我们玩得开心↑”,则机器人12也用升调说“让我们玩得开心↑”。相反,在“不情愿同意”的行为中,机器人12以与伙伴的音调不协调的低音调说出和交流伙伴所说的同样的(一句或多句)言语,并且点头。通过不协调音调,产生了相反的细微差别,并且表达了勉强。如果人14用升调说“让我们玩得开心↑”,则机器人12用降调说“让我们玩得开心↓”。另外,在“变得恐惧”的行为中,机器人12将其眼睛从对象移开。
用这种方式,通过用于执行包括情绪表现的行为的事先准备的每个程序(情绪反射行为处理程序),执行这个实施例中的每个情绪反应动作。为了把在系统10的选择输入屏幕中分开选择的反射行为和情绪表现与情绪反射行为处理程序相关联,机器人12的存储器58存储如图16所示的情绪反射行为列表。在关于每个情绪反射行为的列表数据中,和情绪反射行为的标识符相关联地存储指示反射行为(没有情绪表现)和情绪表现的信息。每个情绪反射行为的标识符和情绪表现行为DB 104中存储的每个情绪反射行为处理程序相关联。同样,指示反射行为的信息是例如行为列表(图14)中的标识符,而指示情绪表现的信息则是例如情绪表现列表(图13)中的标识符。因此,根据情绪反射行为列表能够识别用户选择的情绪反射行为。
返回到图15,情绪表现动作DB 104存储了程序,所述程序用于将情绪表现添加到那些与为情绪反射行为处理程序所准备的行为不同的行为,也即情绪校正/转换程序。更加具体地,存储了用于添加诸如快乐、悲伤和生气之类的情绪表现的程序。每个情绪校正/转换程序和情绪表现列表(图13)中的每个标识符相关联。为了添加情绪表现,情绪校正/转换程序将用于实现行为的控制数据转换成根据情绪表现的控制数据。更加具体地,在包括手势的行为的情况下,转换机器人12的每个轴电机的角度控制数据。同样,在包括发声的行为的情况下,转换用于控制输出声音的音调和讲话速度的声音控制数据。
更加具体地,在“快乐”的校正/转换中,以动作变得更大(例如大约1.5倍)的方式转换每个坐标轴的角度控制数据,并且以使声音的音调更高的方式来转换声音控制数据。同样,在“悲伤”的校正/转换中,以这样的方式转换每个坐标轴的角度控制数据,所述方式为动作变得更小(例如大约0.8倍)且头部46指向下(例如-15度),并且以这样的方式转换声音控制数据,所述方式为使声音的音调更低。另外,在“生气”的校正/转换中,以这样的方式转换每个坐标轴的角度控制数据,所述方式为动作变得更迅速,并且转换声音控制数据,以便使声音的音调更低且讲话速度变得更高。
根据按这种方式转换的控制数据,驱动每个轴电机,或者从扬声器48输出音调和讲话速度等被修改的声音,这实现了具有添加的情绪表现的行为。
例如,如果将快乐添加到“问候”的行为,则机器人12说“哈罗(以高音调)”,并且敏捷地鞠躬(以大幅姿势)。在添加悲伤的情况下,机器人12说“哈罗(以低音调)”,并且鞠一小躬,同时向下看。如果添加生气,则机器人12说“哈罗(以低音调并且以迅速的方式)”,并且鞠一个很快的躬。另外,如果将快乐添加到“摆臂行走”的行为,则机器人12以手臂大幅摆动的方式行走。在添加悲伤的情况下,机器人12以手臂小幅摆动且头向下的方式行走。在添加生气的情况下,机器人12以高速摆动其手臂的方式行走。此外,如果将快乐添加到“握手”的行为,则机器人12说“让我们握手(以高音调)”,并且很大程度地伸出它的手。如果添加悲伤,则机器人12说“让我们握手(以低音调)”,并且很小程度地伸出它的手,同时头向下。在添加生气的情况下,机器人12说“让我们握手(以低音调并且以迅速的方式)”,并且很快地伸出它的手。
用这种方式,通过使每种情绪表现都经历情绪校正/转换,生成了对应于情绪表现的控制数据,用于情绪行为的实现。这使得可以省去准备单独的程序麻烦,其中,在所述单独的程序中,关于每个行为都事先包括了每个情绪表现。同样,可以使情绪表现行为DB 104的容量最小化。
图17显示了行动输入时的系统10的操作的一个例子。当用户提供用于行动输入的指令时,系统10的CPU在图17的第一步骤S5中在显示设备上显示如图12所示的选择输入屏幕。
另外,图17的步骤S5中的过程和上述图8的步骤S5中的过程相同,所以予以同样的参考标号。此外,关于每个以下的流程图,在和上述流程图的过程相同的过程中予以同样的参考标号,以便省略重叠的详细说明。
下一步,根据用户的操作输入,在步骤S71中,在RAM的规定区域中存储有关用户选择/输入的行为的数据。例如,关于每个部位,例如右臂、左臂、头部以及发声,存储用户选择/指定的每个行为的标识符,并且在直接输入的情况下,还存储角度数据。
在步骤S73中,确定是否选择了任何情绪表现。如果在步骤S73中为“是”,则基于行为列表数据(图14)在步骤S75中确定选择的情绪表现是否是不适合于选择的行为的情绪表现。如果在步骤S75中为“否”,亦即,例如如果在作为禁止用于选择的行为的情绪表现的行为列表数据中没有记录选择的情绪表现,则可以将情绪表现添加到该行为。这样一来,在步骤S77中,就将选择的情绪表现的标识符作为输入数据存储在RAM的规定区域中。
另一方面,如果在步骤S75中为“是”,则通过文本显示或声音输出告知,关于选择的行为不能选择用户企图选择的情绪表现。然后,在步骤S81中,复位用户的情绪表现的选择,并且选择输入屏幕中的情绪表现选择部分返回到例如缺省(无情绪表现等等)。用这种方式,用户被告知,情绪表现的选择不适合于选择的行为,并且被提示选择别的情绪表现。
如果在步骤S73中为“否”,或者当已完成步骤S77或步骤S81时,根据用户的操作在步骤S83中确定是否决定了机器人12执行的任何行为。如果在步骤S83中为“是”,亦即,如果操作决定按钮98,则基于行为列表数据在随后的步骤S85中确定所选择并决定的行为是否是反射行为。
如果在步骤S85中为“是”,亦即,如果行为的属性是反射行为,则在步骤S87中确定行为是否附带有任何情绪表现。如果在步骤S87中为“否”,亦即,如果将指示无情绪表现的标识符作为有关选择的情绪表现的信息存储在RAM的规定区域中,则在步骤S89中向机器人12传送用于选择并决定的反射行为的执行指令。例如,传送的是指令数据,包括指示反射行为的标识符、有关关于行为的属性和部位的信息以及指示无情绪表现的标识符等等。另外,根据执行指令,在机器人12中激活用于反射行为的相应处理程序。
另一方面,如果在步骤S87中为“是”,亦即,如果将指示任何情绪表现的标识符作为有关选择的情绪表现的信息存储在RAM的规定区域中,则在步骤S91中向机器人12传送用于所选择并决定的情绪反射行为的执行指令。例如,传送的是指令数据,包括指示反射行为的标识符、有关关于行为的属性和部位的信息以及指示情绪表现的标识符等等。另外,根据执行指令,在机器人12中激活用于情绪反射行为的相应处理程序。
随后,在步骤S93中,在RAM的规定区域中存储输入历史。更加具体地,将所决定的反射行为的标识符、有关关于行为的属性和部位的信息以及情绪表现的标识符记录为输入历史。
另一方面,如果在步骤S85中为“否”,则基于行为列表数据在步骤S95中确定所选择并决定的行为是否是自发行为。如果在步骤S95中为“是”,亦即,如果行为的属性是自发行为,则在步骤S97中确定该行为是否附带有任何情绪表现。如果在步骤S97中为“否”,则在步骤S99中向机器人12传送用于所选择并决定的自发行为的执行指令。例如,传送的是指令数据,例如包括指示自发行为的标识符、有关关于行为的属性和部位的信息、指示无情绪表现的标识符以及输入角度数据(在直接输入的情况下)等等。另外,根据执行指令,在机器人12中激活用于自发行为的相应处理程序。
另一方面,如果在步骤S97中为“是”,则在步骤S101中向机器人12传送用于情绪自发行为的执行指令。例如,传送的是指令数据,包括指示自发行为的标识符、有关关于行为的属性和部位的信息、指示情绪表现的标识符以及输入角度数据(在直接输入的情况下)等等。另外,根据执行指令,在机器人12中激活相应的情绪校正/转换程序和自发行为处理程序。
随后,在步骤S103中,在RAM的规定区域中存储输入历史。更加具体地,将决定的自发行为的标识符、有关关于行为的属性和部位的信息、情绪表现的标识符以及输入角度数据(在直接输入的情况下)等等记录为输入历史。
此外,一旦步骤S93或步骤S103完成,过程就转移到步骤S15。同样,如果在步骤S95中为“否”,或者如果在步骤S83中为“否”,则过程同样进行到步骤S15。
在步骤S15中,确定是否操作了输入结束按钮100。如果“否”,则过程返回到步骤S71,以重复用于下一个行为输入的过程。另一方面,如果在步骤S15中为“是”,则再现动作数据根据在RAM的规定区域中存储的输入历史信息来生成,并且存储在再现动作DB 102中。
这个实施例中生成的再现动作数据和上述实施例中的相同,并且进一步包括有关每个行为的情绪表现的信息(标识符)。图18显示了包括存储在再现动作DB 102中的某个情绪表现的再现动作数据N的一个例子。这个剧情脚本是用于执行例如问候和握手的行为。首先,设置问候并设置无情绪表现。在问候的行为中,机器人12说“哈罗”并鞠躬。同样,无情绪表现的目光接触被设置为反射行为。下一步,设置握手,并且将快乐设置为情绪表现。在具有添加的快乐的握手行为中,机器人12说“让我们握手(以高音调)”,并且如上所述很大程度地伸出它的手。此外,将同意设置为反射行为,并且将快乐设置为情绪表现。在具有添加的快乐的同意行为中,如果同意的对象说了(某句或某些)话,则机器人12以协调的音调说同样的(一句或多句)话,并点头,如稍后说明的那样。同样,最后说明了用于结束这个剧情脚本的再现的结束指令。
图19显示了再现时的系统10的操作的一个例子。如果用户的操作给出了用于再现剧情脚本的指令,则在图19的第一步骤S111中,系统10的CPU在显示设备上显示存储在再现动作DB 102中的再现动作的列表。随后,在步骤S113中,根据用户的操作,从再现动作DB 102中读出所选择的再现动作数据。然后,在步骤S23中,向机器人12传送用于读取再现动作数据的执行指令。另外,机器人12根据执行指令再现该再现动作数据,并且执行包括反射动作和情绪表现的一系列交流行动。
图20显示了机器人12的操作的一个例子。机器人12的CPU 54在步骤S41中从系统10获得指令数据,并且在步骤S43中分析指令数据。然后,在步骤S45中确定要执行的行为是否是反射行为。
如果在步骤S45中为“是”,则在步骤S121中确定该行为是否包括任何情绪表现。从系统10传送的指令数据包含有关关于执行的行为的情绪表现的信息(标识符),并且因此根据该信息进行确定。如果在步骤S121中为“否”,亦即,如果关于该行为描述了指示无情绪表现的标识符,则在随后的步骤S47中,基于反射行为的标识符从反射行为DB 90中读出用于反射行为的相应处理程序,并且根据读取的程序执行该过程。一旦完成步骤S47,过程就返回到步骤S45。
另一方面,如果在步骤S121中为“是”,亦即,例如如果关于该行为描述了指示任何情绪表现的标识符,则在步骤S123中,从情绪表现行为DB 104中读出用于情绪反射行为的相应处理程序,并且根据读取的程序执行该过程。指令数据包含反射行为的标识符和情绪表现的标识符,并且因此根据存储在存储器58或情绪表现行为DB 104中的情绪反射行为的列表数据(图16)来识别用于执行的情绪反射行为的处理程序。因此,在用于执行情绪反射行为的前提条件被满足的情况下,机器人12执行行为,并且向作为交流伙伴的人14提供情绪反射动作。一旦步骤S123完成,过程就返回到步骤S45。
作为步骤S123中的用于情绪反射行为的执行过程的例子,图21示出了有关“欣然同意”行为的执行过程的细节。在图21的第一步骤S141中,机器人12的CPU 54经由麦克风32和声音输入/输出板64将声音信息读取到存储器58中。重复执行来自交流伙伴的声音信息的这种获取,直到例如规定的时间过去为止。
下一步,在步骤S143中使读取的声音信息经过声音识别。机器人12配备有声音识别能力,并且存储器58存储了词典(用于声音识别的词典),用于识别交流伙伴说的(一句或多句)话(声音)。通过公知的方法,例如DP匹配或HMM(隐马尔可夫模型),比较用于声音识别的词典中的声音数据和所获得的声音信息,以识别来自同意对象的发声内容(一句或多句话或短语)。
然后,在步骤S145中确定同意对象说的(一句或多句)话是否存在于存储器58中的用于发声的声音数据中。如果在步骤S145中为“否”,亦即,如果没有存储和交流伙伴说的相同的(一句或多句)话,则用于该行为的执行过程终止。
另一方面,如果在步骤S145中为“是”,则在步骤S147中向S轴和U轴发送角度θs和θu的值,用于指向比当前角度更加向下的方向。更加具体地,向电机控制板60提供角度控制数据,以便控制头电机70的S轴电机和U轴电机,并且使头部46指向下,用于点头动作。然后,在步骤S149中,以与同意对象相协调的方式转换并再现和同意对象说的(一句或多句)话相同的声音的音调。更加具体地,基于例如由步骤S143中的声音识别过程获得的有关来自同意对象的发声音调的信息,以这样的方式转换声音控制数据,所述方式为:输出的声音音调以与来自同意的对象的声音音调相同的语调变化。然后,向声音输入/输出板64提供相同的(一句或多句)话的转换的声音控制数据和声音数据,并且扬声器48输出声音。
返回到图20,如果在步骤S45中为“否”,则在步骤S49中确定要执行的行为是否是自发行为。如果在步骤S49中为“是”,则在步骤S125中确定行为是否附带有任何情绪表现。如果在步骤S125中为“否”,亦即,例如如果关于该行为描述了指示无情绪表现的标识符,则在随后的步骤S51中,基于自发行为的标识符从自发行为DB 88中读出用于自发行为的相应处理程序,并且根据所读取的程序执行过程。一旦步骤S51完成,过程就返回到步骤S45。
另一方面,如果在步骤S125中为“是”,亦即,如果关于该行为描述了指示任何情绪表现的标识符,则在步骤S127中执行情绪校正/转换过程。在步骤S127的过程中,基于情绪表现的标识符从情绪表现行为DB 104中读出相应的情绪校正/转换程序,并且在读取的程序的基础上处理情绪校正/转换。更加具体地,根据选择的情绪表现改变用于实现机器人12的行为的控制数据。在图22中详细提供了情绪校正/转换过程的操作的一个例子。
在图22的第一步骤S161中,机器人12的CPU 54从存储器58的规定区域或自发行为DB 88中把要执行的行为的动作(姿势)控制数据和发声的控制数据读出到存储器58的工作区中。可选择地,在直接输入行为的情况下,读出在步骤S41中获得的用户直接输入的角度控制数据。更加具体地,动作的控制数据包括每个轴电机的角度控制数据,而发声的控制数据则包括用于控制输出的声音音调和讲话速度等的声音控制数据。
下一步,在步骤S163中确定情绪表现的标识符是否是指示快乐的标识符。如果在步骤S163中为“是”,则根据从情绪表现行为DB 104中读出的用于快乐的情绪校正/转换程序执行该过程。亦即,在步骤S165中例如基于角度控制数据确定行为是否包括任何动作。如果在步骤S165中为“是”,则在步骤S167中,转换每个坐标轴的角度控制数据,用于以使动作更大(例如1.5倍)的方式表现快乐。
一旦步骤S167完成,或者如果在步骤S165中为“否”,那么就在步骤S169中基于例如声音控制数据确定行为是否包括任何发声。如果在步骤S169中为“是”,则转换声音控制数据,用于以使输出的声音音调更高的方式表现快乐。一旦步骤S171完成,或者如果在步骤S169中为“否”,那么过程就返回到图20的步骤S129。
另一方面,如果在步骤S163中为“否”,则在步骤S173中确定情绪表现的标识符是否是指示悲伤的标识符。如果在步骤S173中为“是”,则根据从情绪表现行为DB 104中读出的用于悲伤的情绪校正/转换程序执行过程。亦即,在步骤S175中确定行为是否附带有任何动作。如果在步骤S175中为“是”,则在步骤S177中,转换每个坐标轴的角度控制数据,用于以这样的方式表现悲伤,所述方式为使动作更小(例如0.8倍),并且使头部46指向下(例如-15度)。
一旦步骤S177完成,或者如果在步骤S175中为“否”,那么就在步骤S179中确定行为是否附带有任何发声。如果在步骤S179中为“是”,则转换声音控制数据,用于以输出的声音音调变得更低的方式表现悲伤。一旦步骤S181完成,或者如果在步骤S179中为“否”,那么过程就返回到图20的步骤S129。
另一方面,如果在步骤S173中为“否”,则在步骤S183中确定情绪表现的标识符是否是指示生气的标识符。如果在步骤S183中为“是”,则根据从情绪表现行为DB 104中读出的用于生气的情绪校正/转换程序执行过程。亦即,在步骤S185中确定行为是否附带有任何动作。如果在步骤S185中为“是”,则转换每个坐标轴的角度控制数据,用于以动作变得更加迅速的方式表现生气。
一旦步骤S187完成,或者如果在步骤S185中为“否”,那么就在步骤S189中确定行为是否包括任何发声。如果在步骤S189中为“是”,则转换声音控制数据,用于以降低输出的声音音调并增加讲话速度的方式表现生气。一旦步骤S191完成,或者如果在步骤S189中为“否”,那么过程就返回到图20的步骤S129。
相反,如果在步骤S183中为“否”,则如具有快乐、悲伤和生气的情绪表现的上述情况那样,在随后的步骤S193中,根据别的情绪表现改变动作和发声。亦即,根据和情绪表现的标识符相关联的情绪校正/转换程序,必要时改变角度控制数据和声音控制数据,以向行为添加情绪表现。当已完成步骤S193时,过程返回到图20的步骤S129。
返回到图20,在步骤S129中执行基于校正/转换的情绪自发行为。亦即,根据和自发行为的标识符相关联的用于自发行为的处理程序以及在步骤S127中校正/转换的控制数据执行该过程。这向交流伙伴提供了具有添加的情绪表现的自发行为。一旦步骤S129完成,过程就返回到步骤S45。
另一方面,如果在步骤S49中为“否”,则在步骤S53中确定是否给出了结束指令。如果“否”,则过程返回到步骤S45。如果“是”,则所有的行为都已被执行,并且过程终止。
根据这个实施例,为了用户的选择,显示了行为列表和添加到行为的情绪表现列表,这使得可以容易地输入情绪动作,并且同样容易地输入并生成通信机器人执行的情绪交互行动。因此,生成的交互行动可以包括情绪反射行为和情绪自发行为等,并且这样一来,就可以容易地使机器人12实现更加多种多样的交互行动。
另外,存储了指示关于每个行为的不合适的或合适的情绪表现的信息,以便确定用户试图选择的情绪表现是否合适,并且这样一来,就可以避免用户选择的行为中内在的情绪表现和添加的情绪表现之间的矛盾。因此,这使得可以容易地输入自然的情绪动作,并且同样容易地输入并生成自然的情绪交互行动。
此外,在每个上述实施例中,机器人12执行了情绪校正/转换,如图20和图22所示。然而,可以在系统10中提供情绪表现行为DB 104(情绪校正/转换程序),以便系统10在选择并决定包括任何情绪表现的行为的情况下执行情绪校正/转换。在这种情况下,在图17的步骤S101中,必要时转换角度控制数据和声音控制数据,并且向机器人12传送包括转换的控制数据的指令数据。同样,在图17的步骤S105中,包括有关行为的信息和经受了情绪校正/转换的控制数据等的再现动作数据被生成并存储在再现动作DB 102中。
此外,在每个上面讨论的实施例中,仅仅关于自发行为执行情绪校正/转换,并且反射行为应该由用于执行包括某个情绪表现的每个行为的每个单独程序执行。然而,在仅包括例如像当人挡在前面时说“请让开”的简单发声或简单姿势的情况下,可以通过情绪校正/转换来转换控制数据,并基于转换的控制数据实现情绪反射行为。
尽管已详细说明并示出了本发明,但是可以清楚地理解,这些只是作为例子和说明,而不是为了限制,本发明的精神和范围仅仅由权利要求书的条款限制。
权利要求书
(按照条约第19条的修改)
1.一种用于通信机器人的控制系统,用于支持由通信机器人执行的交互行动的输入,所述控制系统包括:
存储装置,用于预先存储有关和多个行为程序相关联的多个行为的信息,所述多个行为程序包括:用于执行自发行为的自发行为程序,以及反射行为程序,该反射行为程序包括前提条件的判定,并且当满足该前提条件时响应人的行为而执行反射行为;
显示装置,用于根据存储在所述存储装置中的所述信息,按用户可选择的方式显示所述多个行为的列表;
行为决定装置,用于根据用户的操作从所述显示装置显示的所述行为列表中决定由所述通信机器人执行的行为;以及
生成装置,用于根据由所述行为决定装置决定的行为的历史,生成用于由所述通信机器人执行的交互行动的再现动作信息。
2.如权利要求1所述的用于通信机器人的控制系统,其中
所述显示装置进一步按用户可选择的方式显示多个情绪表现的列表;
所述行为决定装置进一步根据用户的操作从所述情绪表现列表中决定要添加到由所述通信机器人执行的行为的情绪表现;以及
根据由所述行为决定装置决定的行为和情绪表现的历史,所述生成装置生成所述再现动作信息。
3.如权利要求2所述的用于通信机器人的控制系统,其中,所述行为决定装置进一步包括确定装置,用于确定用户选择的情绪表现是否适合于所选择的行为,并且如果所述确定装置确定所述情绪表现不适合于所述行为,则不允许将所述情绪表现添加到所述行为。
4.如权利要求1到3中任何一项所述的用于通信机器人的控制系统,进一步包括传送装置,用于当所述行为决定装置已决定由通信机器人执行的行为时,向所述通信机器人传送用于所述行为的执行指令。
5.如权利要求1到4中任何一项所述的用于通信机器人的控制系统,其中,所述显示装置显示按所述通信机器人的部位来分类的所述行为的列表。
6.如权利要求1到5中任何一项所述的用于通信机器人的控制系统,其中,当通过用户的操作从所述行为列表中选择了行为,所述显示装置显示所述通信机器人执行所述行为的外观图像。
7.一种行动输入支持程序,用于在用于通信机器人的控制系统上支持由通信机器人执行的交互行动的输入,所述用于通信机器人的控制系统包含存储装置,用于预先存储有关和多个行为程序相关联的多个行为的信息,所述多个行为程序包括:自发行为程序,其用于执行所述通信机器人的自发行为,以及反射行为程序,其包括前提条件的判定,并且当满足该前提条件时响应人的行为而执行反射行为,所述行动输入支持程序使所述用于通信机器人的控制系统的处理器执行:
显示步骤,根据所述存储装置中存储的所述信息按用户可选择的方式显示所述多个行为的列表;
行为决定步骤,根据用户的操作从所述显示步骤显示的所述行为列表中决定由所述通信机器人执行的行为;以及
生成步骤,根据由所述行为决定步骤决定的行为的历史,生成用于由所述通信机器人执行的交互行动的再现动作信息。
8.如权利要求7所述的行动输入支持程序,其中
所述显示步骤进一步按用户可选择的方式显示多个情绪表现的列表;
所述行为决定步骤进一步根据用户的操作从所述情绪表现列表中决定要添加到由所述通信机器人执行的行为的情绪表现;以及
根据由所述行为决定步骤决定的行为和情绪表现的历史,所述生成步骤生成所述再现动作信息。
9.如权利要求8所述的行动输入支持程序,其中,所述所述行为决定步骤进一步包括确定用户选择的情绪表现是否适合于所选择的行为的确定步骤,并且如果所述确定步骤确定所述情绪表现不适合于所述行为,则不允许将所述情绪表现添加到所述行为。
10.一种存储程序的存储介质,所述程序用于在用于通信机器人的控制系统上支持由通信机器人执行的交互行动的输入,所述用于通信机器人的控制系统包含存储装置,用于预先存储有关和多个行为程序相关联的多个行为的信息,所述多个行为程序包括:自发行为程序,其用于执行自发行为;以及反射行为程序,其包括前提条件的确定,并且当满足该前提条件时响应人的行为而执行反射行为,其中
所述程序使所述用于通信机器人的控制系统的处理器执行:
显示步骤,根据所述存储装置中存储的所述信息按用户可选择的方式显示所述多个行为的列表;
行为决定步骤,根据用户的操作从所述显示步骤显示的所述行为列表中决定由所述通信机器人执行的行为;以及
生成步骤,根据由所述行为决定步骤决定的行为的历史,生成用于由所述通信机器人执行的交互行动的再现动作信息。
11.如权利要求10所述的存储程序的存储介质,其中
所述显示步骤进一步按用户可选择的方式显示多个情绪表现的列表;
所述行为决定步骤进一步根据用户的操作从所述情绪表现列表中决定要添加到由所述通信机器人执行的行为的情绪表现;以及
根据所述行为决定步骤决定的行为和情绪表现的历史,所述生成步骤生成所述再现动作信息。
12.如权利要求11所述的存储程序的存储介质,其中
所述行为决定步骤进一步包括用于确定用户选择的情绪表现是否适合于所选择的行为的确定步骤,并且如果所述确定步骤确定所述情绪表现不适合于所述行为,则不允许将所述情绪表现添加到所述行为。
13.一种行动输入支持方法,用于在用于通信机器人的控制系统上支持由通信机器人执行的交互行动的输入,所述用于通信机器人的控制系统包含存储装置,用于预先存储有关和多个行为程序相关联的多个行为的信息,所述多个行为程序包括:自发行为程序,其用于执行自发行为;以及反射行为程序,其包括前提条件的判定,并且当满足该前提条件时响应人的行为而执行反射行为,所述行动输入支持方法包括:
显示步骤,根据所述存储装置中存储的所述信息按用户可选择的方式显示所述多个行为的列表;
行为决定步骤,根据用户的操作从所述显示步骤显示的所述行为列表中决定由所述通信机器人执行的行为;以及
生成步骤,根据由所述行为决定步骤决定的行为的历史,生成用于由所述通信机器人执行的交互行动的再现动作信息。
14.如权利要求13所述的行动输入支持方法,其中
所述显示步骤进一步按用户可选择的方式显示多个情绪表现的列表;
所述行为决定步骤进一步根据用户的操作从所述情绪表现列表中决定要添加到由所述通信机器人执行的行为的情绪表现;以及
根据所述行为决定步骤决定的行为和情绪表现的历史,所述生成步骤生成所述再现动作信息。
15.如权利要求14所述的行动输入支持方法,其中,所述行为决定步骤进一步包括用于确定用户选择的情绪表现是否适合于所选择的行为的确定步骤,并且如果所述确定步骤确定所述情绪表现不适合于所述行为,则不允许将所述情绪表现添加到所述行为。
16.如权利要求2到6中任何一个所述的用于通信机器人的控制系统,其中
当把所述情绪表现添加到所述行为时,所述生成装置根据该情绪表现来校正用于执行该行为的控制数据,并且生成包括经校正的控制数据的再现动作信息。
17.如权利要求8或9所述的行动输入支持程序,其中
当把所述情绪表现添加到所述行为时,所述生成步骤根据该情绪表现来校正用于执行该行为的控制数据,并且生成包括经校正的控制数据的再现动作信息。
18.如权利要求11或12所述的存储程序的存储介质,其中
当把所述情绪表现添加到所述行为时,所述生成步骤根据该情绪表现来校正用于执行该行为的控制数据,并且生成包括经校正的控制数据的再现动作信息。
19.如权利要求14或15所述的行动输入支持方法,其中
当把所述情绪表现添加到所述行为时,所述生成步骤根据该情绪表现来校正用于执行该行为的控制数据,并且生成包括经校正的控制数据的再现动作信息。

Claims (15)

1.一种用于通信机器人的控制系统,用于支持由通信机器人执行的交互行动的输入,所述控制系统包括:
存储装置,用于存储有关多个行为的信息,所述多个行为包括响应人的行为而执行的反射行为和以自发方式执行的自发行为;
显示装置,用于根据存储在所述存储装置中的所述信息按用户可选择的方式显示所述多个行为的列表;
行为决定装置,用于根据用户的操作从所述显示装置所显示的所述行为列表中决定由所述通信机器人执行的行为;以及
生成装置,用于根据由所述行为决定装置决定的行为的历史,生成用于由所述通信机器人执行的交互行动的再现动作信息。
2.如权利要求1所述的用于通信机器人的控制系统,其中
所述显示装置进一步按用户可选择的方式显示多个情绪表现的列表;
所述行为决定装置进一步根据用户的操作从所述情绪表现列表中决定要添加到由所述通信机器人执行的行为的情绪表现;以及
根据由所述行为决定装置决定的行为和情绪表现的历史,所述生成装置生成所述再现动作信息。
3.如权利要求2所述的用于通信机器人的控制系统,其中,所述行为决定装置进一步包括确定装置,用于确定用户选择的情绪表现是否适合于所选择的行为,并且如果所述确定装置确定所述情绪表现不适合于所述行为,则不允许将所述情绪表现添加到所述行为。
4.如权利要求1到3中任何一项所述的用于通信机器人的控制系统,进一步包括传送装置,用于当所述行为决定装置已决定由通信机器入执行的行为时,向所述通信机器人传送用于所述行为的执行指令。
5.如权利要求1到4中任何一项所述的用于通信机器人的控制系统,其中,所述显示装置显示按所述通信机器人的部位来分类的所述行为的列表。
6.如权利要求1到5中任何一项所述的用于通信机器人的控制系统,其中,当通过用户的操作从所述行为列表中选择了行为,所述显示装置显示执行所述行为的所述通信机器人的外观图像。
7.一种行动输入支持程序,用于在用于通信机器人的控制系统上支持由通信机器人执行的交互行动的输入,所述用于通信机器人的控制系统包括存储装置,用于存储有关多个行为的信息,所述多个行为包括由所述通信机器人响应人的行为而执行的反射行为和以自发方式执行的自发行为,所述行动输入支持程序使所述用于通信机器人的控制系统的处理器执行:
显示步骤,根据所述存储装置中存储的所述信息按用户可选择的方式显示所述多个行为的列表;
行为决定步骤,根据用户的操作从所述显示步骤显示的所述行为列表中决定由所述通信机器人执行的行为;以及
生成步骤,根据由所述行为决定步骤决定的行为的历史,生成用于由所述通信机器人执行的交互行动的再现动作信息。
8.如权利要求7所述的行动输入支持程序,其中
所述显示步骤进一步按用户可选择的方式显示多个情绪表现的列表;
所述行为决定步骤进一步根据用户的操作从所述情绪表现列表中决定要添加到由所述通信机器人执行的行为的情绪表现;以及
根据由所述行为决定步骤决定的行为和情绪表现的历史,所述生成步骤生成所述再现动作信息。
9.如权利要求8所述的行动输入支持程序,其中,所述所述行为决定步骤进一步包括确定用户选择的情绪表现是否适合于所选择的行为的确定步骤,并且如果所述确定步骤确定所述情绪表现不适合于所述行为,则不允许将所述情绪表现添加到所述行为。
10.一种存储程序的存储介质,所述程序用于在用于通信机器人的控制系统上支持由通信机器人执行的交互行动的输入,所述用于通信机器人的控制系统包含存储装置,用于存储有关多个行为的信息,所述多个行为包括由所述通信机器人响应人的行为而执行的反射行为和以自发方式执行的自发行为,其中
所述程序使所述用于通信机器人的控制系统的处理器执行:
显示步骤,根据所述存储装置中存储的所述信息按用户可选择的方式显示所述多个行为的列表;
行为决定步骤,根据用户的操作从所述显示步骤显示的所述行为列表中决定由所述通信机器人执行的行为;以及
生成步骤,根据所述行为决定步骤决定的行为的历史,生成用于所述通信机器人执行的交互行动的再现动作信息。
11.如权利要求10所述的存储程序的存储介质,其中
所述显示步骤进一步按用户可选择的方式显示多个情绪表现的列表;
所述行为决定步骤进一步根据用户的操作从所述情绪表现列表中决定要添加到由所述通信机器人执行的行为的情绪表现;以及
根据所述行为决定步骤决定的行为和情绪表现的历史,所述生成步骤生成所述再现动作信息。
12.如权利要求11所述的存储程序的存储介质,其中
所述行为决定步骤进一步包括用于确定用户选择的情绪表现是否适合于所选择的行为的确定步骤,并且如果所述确定步骤确定所述情绪表现不适合于所述行为,则不允许将所述情绪表现添加到所述行为。
13.一种行动输入支持方法,用于在用于通信机器人的控制系统上支持由通信机器人执行的交互行动的输入,所述用于通信机器人的控制系统包含存储装置,用于存储有关多个行为的信息,所述多个行为包括所述通信机器人响应人的行为而执行的反射行为和以自发方执行的自发行为,所述行动输入支持方法包括:
显示步骤,根据所述存储装置中存储的所述信息按用户可选择的方式显示所述多个行为的列表;
行为决定步骤,根据用户的操作从所述显示步骤显示的所述行为列表中决定由所述通信机器人执行的行为;以及
生成步骤,根据所述行为决定步骤决定的行为的历史,生成用于所述通信机器人执行的交互行动的再现动作信息。
14.如权利要求13所述的行动输入支持方法,其中
所述显示步骤进一步按用户可选择的方式显示多个情绪表现的列表;
所述行为决定步骤进一步根据用户的操作从所述情绪表现列表中决定要添加到由所述通信机器人执行的行为的情绪表现;以及
根据所述行为决定步骤决定的行为和情绪表现的历史,所述生成步骤生成所述再现动作信息。
15.如权利要求14所述的行动输入支持方法,其中,所述行为决定步骤进一步包括用于确定用户选择的情绪表现是否适合于所选择的行为的确定步骤,并且如果所述确定步骤确定所述情绪表现不适合于所述行为,则不允许将所述情绪表现添加到所述行为。
CNB2004800230474A 2003-08-12 2004-08-12 用于通信机器人的控制系统 Active CN100436082C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003291939 2003-08-12
JP291939/2003 2003-08-12

Publications (2)

Publication Number Publication Date
CN1835828A true CN1835828A (zh) 2006-09-20
CN100436082C CN100436082C (zh) 2008-11-26

Family

ID=34131686

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2004800230474A Active CN100436082C (zh) 2003-08-12 2004-08-12 用于通信机器人的控制系统

Country Status (6)

Country Link
US (1) US7689319B2 (zh)
EP (1) EP1669172B1 (zh)
JP (1) JP4271193B2 (zh)
KR (1) KR100767170B1 (zh)
CN (1) CN100436082C (zh)
WO (1) WO2005014242A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101808047A (zh) * 2010-02-10 2010-08-18 深圳先进技术研究院 即时通讯伴侣机器人及具有通讯伴侣的即时通讯方法
CN102448678A (zh) * 2009-05-26 2012-05-09 奥尔德巴伦机器人公司 用于编辑和控制移动机器人的行为的系统和方法
CN105144202A (zh) * 2013-03-04 2015-12-09 微软技术许可有限责任公司 基于人类-机器人交互来调节机器人行为
CN105409197A (zh) * 2013-03-15 2016-03-16 趣普科技公司 用于提供持久伙伴装置的设备和方法
WO2017114132A1 (zh) * 2015-12-31 2017-07-06 深圳光启合众科技有限公司 机器人情绪的控制方法和装置
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
CN109478188A (zh) * 2016-08-16 2019-03-15 国立研究开发法人情报通信研究机构 对话系统以及用于其的计算机程序
CN109955264A (zh) * 2017-12-22 2019-07-02 卡西欧计算机株式会社 机器人、机器人控制系统、机器人的控制方法以及记录介质
US10357881B2 (en) 2013-03-15 2019-07-23 Sqn Venture Income Fund, L.P. Multi-segment social robot

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
JP3875659B2 (ja) * 2003-07-25 2007-01-31 株式会社東芝 カメラ装置及びロボット装置
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
WO2005098476A1 (en) 2004-03-29 2005-10-20 Evolution Robotics, Inc. Method and apparatus for position estimation using reflected light sources
KR101214723B1 (ko) 2004-06-24 2012-12-24 아이로보트 코퍼레이션 자동 로봇 장치용의 원격 제어 스케줄러 및 방법
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
JP4564447B2 (ja) * 2004-12-14 2010-10-20 本田技研工業株式会社 自律移動ロボット
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
WO2006089307A2 (en) 2005-02-18 2006-08-24 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
JP2007044825A (ja) * 2005-08-10 2007-02-22 Toshiba Corp 行動管理装置、行動管理方法および行動管理プログラム
US7860614B1 (en) * 2005-09-13 2010-12-28 The United States Of America As Represented By The Secretary Of The Army Trainer for robotic vehicle
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
KR101300493B1 (ko) 2005-12-02 2013-09-02 아이로보트 코퍼레이션 커버리지 로봇 이동성
ES2706727T3 (es) 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
EP1969438B1 (en) 2005-12-02 2009-09-09 iRobot Corporation Modular robot
EP2544065B1 (en) 2005-12-02 2017-02-08 iRobot Corporation Robot system
US20070135967A1 (en) * 2005-12-08 2007-06-14 Jung Seung W Apparatus and method of controlling network-based robot
US20070150104A1 (en) * 2005-12-08 2007-06-28 Jang Choul S Apparatus and method for controlling network-based robot
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム
US8528157B2 (en) 2006-05-19 2013-09-10 Irobot Corporation Coverage robots and associated cleaning bins
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
KR100883352B1 (ko) 2006-11-21 2009-02-11 한국전자통신연구원 원격대화에서 감정 및 의사의 표현 방법과 이를 위한 리얼이모티콘 시스템
EP2574264B1 (en) 2007-05-09 2016-03-02 iRobot Corporation Compact autonomous coverage robot
JP5181541B2 (ja) * 2007-06-15 2013-04-10 富士通株式会社 ロボットシステム、エディタ端末、およびエディタプログラム
FR2918477A1 (fr) * 2007-07-04 2009-01-09 Aldebaran Robotics Soc Par Act Procede d'edition de mouvements d'un robot
KR100880613B1 (ko) * 2007-08-10 2009-01-30 주식회사 쿼터뷰 지능형로봇의 감정표현지원시스템과 지원방법 및 이를이용한 지능형 로봇 시스템
KR100893758B1 (ko) * 2007-10-16 2009-04-20 한국전자통신연구원 로봇의 감성 표현 제어 시스템 및 방법
KR20090065212A (ko) * 2007-12-17 2009-06-22 한국전자통신연구원 로봇 채팅 시스템 및 방법
US8103382B2 (en) * 2008-04-24 2012-01-24 North End Technologies Method and system for sharing information through a mobile multimedia platform
US8565922B2 (en) * 2008-06-27 2013-10-22 Intuitive Automata Inc. Apparatus and method for assisting in achieving desired behavior patterns
WO2010024515A1 (ko) * 2008-08-28 2010-03-04 주식회사 수연미디어 방송 컨텐츠와 연계되어 동작하는 컨텐츠 로봇 및 그 제어 방법
JP5187128B2 (ja) * 2008-10-16 2013-04-24 富士通株式会社 検索装置、検索方法、及び、プログラム
US8160747B1 (en) * 2008-10-24 2012-04-17 Anybots, Inc. Remotely controlled self-balancing robot including kinematic image stabilization
TW201019242A (en) * 2008-11-11 2010-05-16 Ind Tech Res Inst Personality-sensitive emotion representation system and method thereof
US8442661B1 (en) 2008-11-25 2013-05-14 Anybots 2.0, Inc. Remotely controlled self-balancing robot including a stabilized laser pointer
KR101493383B1 (ko) * 2009-01-23 2015-02-13 삼성전자 주식회사 로봇
US10163175B2 (en) * 2009-02-25 2018-12-25 Humana Inc. System and method for improving healthcare through social robotics
US9386139B2 (en) * 2009-03-20 2016-07-05 Nokia Technologies Oy Method and apparatus for providing an emotion-based user interface
JP5429461B2 (ja) * 2009-06-17 2014-02-26 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット開発支援装置
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
KR101019655B1 (ko) * 2009-12-04 2011-03-07 (주) 퓨처로봇 사용 유도 장치 및 방법
KR20110080919A (ko) * 2010-01-07 2011-07-13 삼성전자주식회사 로봇
WO2011103198A1 (en) 2010-02-16 2011-08-25 Irobot Corporation Vacuum brush
US8306664B1 (en) * 2010-05-17 2012-11-06 Anybots 2.0, Inc. Self-balancing robot having a shaft-mounted head
US8788096B1 (en) * 2010-05-17 2014-07-22 Anybots 2.0, Inc. Self-balancing robot having a shaft-mounted head
US9092021B2 (en) * 2012-01-06 2015-07-28 J. T. Labs Limited Interactive apparatus
US9146560B2 (en) 2012-03-30 2015-09-29 Irobot Corporation System and method for implementing force field deterrent for robot
KR101190660B1 (ko) * 2012-07-23 2012-10-15 (주) 퓨처로봇 로봇 제어 시나리오 생성 방법 및 장치
JP5527747B1 (ja) * 2012-12-25 2014-06-25 コリア インスティチュート オブ インダストリアル テクノロジー 機械装置の持続的な情緒表現動作を選択するための装置及び方法
US20140288704A1 (en) * 2013-03-14 2014-09-25 Hanson Robokind And Intelligent Bots, Llc System and Method for Controlling Behavior of a Robotic Character
US9211644B1 (en) * 2013-10-25 2015-12-15 Vecna Technologies, Inc. System and method for instructing a device
US9724795B2 (en) * 2013-11-07 2017-08-08 Apex Brands, Inc. Tooling system with visual identification of attached component
EP2933071A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems for managing dialogs of a robot
USD746886S1 (en) 2014-05-23 2016-01-05 JIBO, Inc. Robot
US10279470B2 (en) 2014-06-12 2019-05-07 Play-i, Inc. System and method for facilitating program sharing
SG10201809399VA (en) * 2014-06-12 2018-11-29 Play I Inc System and method for reinforcing programming education through robotic feedback
CN107000210A (zh) * 2014-07-15 2017-08-01 趣普科技公司 用于提供持久伙伴装置的设备和方法
US10152117B2 (en) * 2014-08-07 2018-12-11 Intel Corporation Context dependent reactions derived from observed human responses
JP6524631B2 (ja) * 2014-09-30 2019-06-05 セイコーエプソン株式会社 ロボット、制御装置およびロボットシステム
JP6323356B2 (ja) * 2015-02-03 2018-05-16 株式会社安川電機 処理システム、監視方法及びコンピュータプログラム
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CN107731225A (zh) * 2016-08-10 2018-02-23 松下知识产权经营株式会社 待客装置、待客方法以及待客系统
JP7351745B2 (ja) * 2016-11-10 2023-09-27 ワーナー・ブラザース・エンターテイメント・インコーポレイテッド 環境制御機能を有する社会ロボット
CN107053191B (zh) 2016-12-31 2020-05-08 华为技术有限公司 一种机器人,服务器及人机互动方法
WO2018132364A1 (en) * 2017-01-10 2018-07-19 Intuition Robotics, Ltd. A method for performing emotional gestures by a device to interact with a user
JP6855825B2 (ja) * 2017-02-13 2021-04-07 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
JP6812325B2 (ja) * 2017-10-26 2021-01-13 株式会社日立ビルシステム ロボット管理システム
CN107756417A (zh) * 2017-11-21 2018-03-06 北方民族大学 智能双臂安全协作人机共融机器人系统
WO2019169379A1 (en) 2018-03-02 2019-09-06 Intuition Robotics, Ltd. A method for adjusting a device behavior based on privacy classes
KR20190141303A (ko) * 2018-06-14 2019-12-24 엘지전자 주식회사 이동 로봇의 동작 방법
JP2021529382A (ja) 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
JP7186036B2 (ja) * 2018-08-14 2022-12-08 日本放送協会 ロボット操作装置及びロボット操作プログラム
US11376733B2 (en) * 2019-06-11 2022-07-05 Facebook Technologies, Llc Mechanical eyeball for animatronic devices
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157976A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP3797047B2 (ja) * 1999-12-08 2006-07-12 富士通株式会社 ロボット装置
JP2001191280A (ja) 1999-12-28 2001-07-17 Sony Corp ロボット装置及びその制御方法
JP2001191281A (ja) * 1999-12-29 2001-07-17 Sony Corp 編集装置、編集方法及び記録媒体
EP1247624A1 (en) * 2000-03-24 2002-10-09 Sony Corporation Method for determining action of robot and robot
JP2001277163A (ja) * 2000-04-03 2001-10-09 Sony Corp ロボットの制御装置及び制御方法
JP2001353678A (ja) * 2000-06-12 2001-12-25 Sony Corp オーサリング・システム及びオーサリング方法、並びに記憶媒体
JP4765155B2 (ja) 2000-09-28 2011-09-07 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
CN1392826A (zh) * 2000-10-05 2003-01-22 索尼公司 机器人设备及其控制方法
JP4670136B2 (ja) * 2000-10-11 2011-04-13 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
JP2002137182A (ja) * 2000-10-31 2002-05-14 Yamaha Motor Co Ltd 動作内容決定装置
JP4316819B2 (ja) * 2001-03-16 2009-08-19 株式会社バンダイ ロボットの制御装置、ロボットの制御方法、プログラム、及び記憶媒体
JP2003191187A (ja) * 2001-12-21 2003-07-08 Sony Corp ロボット装置及びその制御方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102448678A (zh) * 2009-05-26 2012-05-09 奥尔德巴伦机器人公司 用于编辑和控制移动机器人的行为的系统和方法
CN102448678B (zh) * 2009-05-26 2016-08-03 奥尔德巴伦机器人公司 用于编辑和控制移动机器人的行为的系统和方法
CN101808047A (zh) * 2010-02-10 2010-08-18 深圳先进技术研究院 即时通讯伴侣机器人及具有通讯伴侣的即时通讯方法
US10300606B2 (en) 2013-03-04 2019-05-28 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
CN105144202A (zh) * 2013-03-04 2015-12-09 微软技术许可有限责任公司 基于人类-机器人交互来调节机器人行为
US11097424B2 (en) 2013-03-04 2021-08-24 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
CN105144202B (zh) * 2013-03-04 2017-10-24 微软技术许可有限责任公司 基于人类‑机器人交互来调节机器人行为
US9956687B2 (en) 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
US10357881B2 (en) 2013-03-15 2019-07-23 Sqn Venture Income Fund, L.P. Multi-segment social robot
US10391636B2 (en) 2013-03-15 2019-08-27 Sqn Venture Income Fund, L.P. Apparatus and methods for providing a persistent companion device
CN105409197A (zh) * 2013-03-15 2016-03-16 趣普科技公司 用于提供持久伙伴装置的设备和方法
US11148296B2 (en) 2013-03-15 2021-10-19 Ntt Disruption Us, Inc. Engaging in human-based social interaction for performing tasks using a persistent companion device
WO2017114132A1 (zh) * 2015-12-31 2017-07-06 深圳光启合众科技有限公司 机器人情绪的控制方法和装置
CN109478188A (zh) * 2016-08-16 2019-03-15 国立研究开发法人情报通信研究机构 对话系统以及用于其的计算机程序
CN109108960A (zh) * 2017-06-23 2019-01-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
CN109108960B (zh) * 2017-06-23 2022-03-01 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
CN109955264A (zh) * 2017-12-22 2019-07-02 卡西欧计算机株式会社 机器人、机器人控制系统、机器人的控制方法以及记录介质
CN109955264B (zh) * 2017-12-22 2022-05-03 卡西欧计算机株式会社 机器人、机器人控制系统、机器人的控制方法以及记录介质
US11325262B2 (en) 2017-12-22 2022-05-10 Casio Computer Co., Ltd. Robot, robot control system, robot control method, and non-transitory storage medium

Also Published As

Publication number Publication date
WO2005014242B1 (ja) 2005-03-24
JPWO2005014242A1 (ja) 2006-09-28
EP1669172B1 (en) 2013-10-02
KR100767170B1 (ko) 2007-10-15
JP4271193B2 (ja) 2009-06-03
CN100436082C (zh) 2008-11-26
US20060293787A1 (en) 2006-12-28
US7689319B2 (en) 2010-03-30
WO2005014242A1 (ja) 2005-02-17
EP1669172A1 (en) 2006-06-14
KR20060073931A (ko) 2006-06-29
EP1669172A4 (en) 2008-01-09

Similar Documents

Publication Publication Date Title
CN1835828A (zh) 用于通信机器人的控制系统
JP7336005B2 (ja) ウェアラブルシステムのためのマルチモード実行およびテキスト編集
CN1460050A (zh) 对于机器人装置的动作教学装置和方法以及存储介质
KR101880775B1 (ko) 자연스러운 대화 인터페이스가 장착된 인간형 로봇, 이러한 로봇의 제어 방법 및 대응 프로그램
CN1045677C (zh) 目标图像显示装置
CN1159678C (zh) 图像处理方法及电子装置
CN1258285C (zh) 多信道信息处理装置和多信道信息处理方法
CN1221942C (zh) 人物动画
CN1764889A (zh) 用于产生对象的行为的装置和方法
CN1460051A (zh) 机器人装置及其控制方法和存储介质
CN1808566A (zh) 重放装置和方法
JP2001229392A (ja) 少ないメッセージ交信により会話式キャラクタを実施する合理的アーキテクチャ
CN1811899A (zh) 显示方法、便携式终端设备和显示程序
CN1853879A (zh) 机器人装置及其行为控制方法
US10969763B2 (en) Systems and methods to adapt and optimize human-machine interaction using multimodal user-feedback
CN101076166A (zh) 具有显示按钮的装置及用于所述装置的显示方法和介质
CN1459090A (zh) 话音输出装置
JP4534427B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
CN1739084A (zh) 快速输入设备
CN1192808C (zh) 图样显示控制设备和图样显示控制系统
CN1914884A (zh) 借助于虚拟控制代表的用于远程通信的方法和系统
CN1461464A (zh) 语言处理装置
JP6482037B2 (ja) 制御装置、制御方法及び制御プログラム
CN1136506C (zh) 多媒体标题播放装置
CN1392828A (zh) 机器人设备、信息显示系统和信息显示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant