CN1151016C - 机器人设备及其控制方法,和机器人性格判别方法 - Google Patents

机器人设备及其控制方法,和机器人性格判别方法 Download PDF

Info

Publication number
CN1151016C
CN1151016C CNB008032971A CN00803297A CN1151016C CN 1151016 C CN1151016 C CN 1151016C CN B008032971 A CNB008032971 A CN B008032971A CN 00803297 A CN00803297 A CN 00803297A CN 1151016 C CN1151016 C CN 1151016C
Authority
CN
China
Prior art keywords
model
behavior
action
emotion
desire
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB008032971A
Other languages
English (en)
Other versions
CN1338980A (zh
Inventor
̫
佐部浩太郎
长谷川里香
井上真
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP34120799A external-priority patent/JP2001157978A/ja
Priority claimed from JP34137599A external-priority patent/JP2001157983A/ja
Priority claimed from JP34120699A external-priority patent/JP2001157977A/ja
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1338980A publication Critical patent/CN1338980A/zh
Application granted granted Critical
Publication of CN1151016C publication Critical patent/CN1151016C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39162Learn social rules, greedy robots become non-greedy, adapt to other robots

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

在一种机器人设备及其控制方法中,首先,扩大或缩小行为模型的一部分或全部状态空间;其次,将行为模型中到预定节点的变换描述成到虚节点的变换,和依次改变要分配给虚节点的节点组;第三,逐渐增加用于生成动作的情感和/或欲望的数目;和第四,对环境进行评估,根据评估结果更新与每个情感和欲望相对应的每个灵敏度。在机器人设备和用于机器人设备的性格判别方法中,为宠物机器人配备了:检测装置,检测来自其它宠物机器人的输出;性格判别装置,根据检测装置检测的结果,判别宠物机器人的性格;和性格改变装置,根据由性格判别装置判断的结果改变性格。

Description

机器人设备及其控制方法,和机器人性格判别方法
                       技术领域
本发明涉及机器人设备及其控制方法,和机器人性格判别方法,更具体地说,本发明涉及,例如,宠物机器人。
                       技术背景
作为第一背景技术,近年来,本申请的申请人已经提出和开发了四腿行走型宠物机器人。这样的宠物机器人具有与在一般家庭中饲养的狗和猫相似的形状,并且适用于能够响应诸如“轻拍”或“爱抚”之类来自使用者的调教、周围的环境等自动动作。
并且,还为这种宠物机器人安装了根据来自使用者诸如“轻拍”或“爱抚”之类的调教来改变相应动作的展示概率的学习功能、和根据有关调教的累积量、经过的时间等逐步改变动作的难易程度和复杂度等级的成长功能等,从而提供高适销性和高趣味性的“宠物机器人”。
在这样的宠物机器人中,为每个成长阶段(下文称之为“成长阶段”)准备了由各个概率状态变换模型构成的行为模型,和根据来自使用者的调教、经过时间的累积量等将行为模型切换到上述“成长阶段”的行为模型,从而表达出“成长”。并且,在宠物机器人中,使行为模型中相应位置上的变换概率随着来自使用者的调教的改变而改变,从而表达出上述的“学习”。
但是,按照这种方法,每当宠物机器人“成长”时就要将行为模型切换到新的行为模型,因此,对于每次“成长”宠物机器人都从新的动作开始,仿佛性格突然改变了似的,在那以前的“学习”结果都要被一笔勾销掉。这就导致了习惯于和熟悉在那以前的动作模式的使用者感到不自然的问题。
此外,按照该方法,即使存在一些重复的动作模式,也必须为每个“成长阶段”的动作模式准备行为模型部分,因此,存在着生成该行为模型的操作变复杂了那么多的问题。
因此,如果在例如“成长”过程中有可能使动作模式或学习结果向前带入下一“成长阶段”,则将可以消除如上所述那样的在“成长”过程中的不自然性以表达更象有机体的“成长”,并认为趣味性也可以得到那么多的提高。
并且,作为第二背景技术,近年来,对在计算机上模拟人类的情感并表达这种情感的研究也已经蓬勃发展起来。作为这种模拟的机器人技术尝试,在日本众所周知的有Tokyo(东京)技术学院Fumio Hara实验室的面部机器人、Waseda大学Sugano实验室的WAMOEBA 2、和OMURON有限公司的机器猫等(Fumio Hara发表的“人工情感生成的模型和表达(Model andExpression of Generation of Artificial Emotion)”,数学科学(Mathematicalscience),1994年第32卷第7期第52-58页;Ogata发表的“人类与机器人之间情感交流的研究,评估用机器人“WAMOEBA-2”的装配和测试(Studyof Emotional Exchange between Human Being and Robot,Setting and Trial ofRobot for Evaluation“WAMOEBA-2”)”,日本机械学会机器人学和机械电子学学术报告会学术报告(Lecture thesis of robotics and mechatronics lecturemeeting of Japan mechanics learned society),1996年A卷第449-452页;和Taiima、Saito、Osumi、Kudo、Shibata发表的“有情感的交互式宠物机器人(Interactive Pet Robot having Emotion)”,日本机器人学会科学学术报告会预备副本(Preparatory copies of science lecture meeting ofJapan Robot learnedsociety),1998年第16卷第11-12页)。
在这些研究中,它们的研究对象在于如何通过从一开始就应用已经完成的情感和本能模型来获得与生物相似的行为或表情。但是,在考虑生物成长过程的情况下,不可能期望它们的情感和本能从童年期到成年期自始至终都基于相同的模型发展变化。因此,从“成长”的观点来看,上述对人类情感的模拟已经牵涉到不自然的问题。
并且,在考虑将情感或本能赋予作为宠物对待的自动机器人的应用的情况中,用户难以理解和接受一开始就具有完美情感和本能的机器人。例如,在具有作为本能的多种欲望(例如,“爱的欲望”和“运动的欲望”等)和作为情感的多种欲望(例如,“喜悦”、“悲痛”和“害怕”等)的机器人中,由于机器人的内心情感是复杂的,因此,用户几乎不能理解机器人当前想要什么或机器人当前感觉如何。
并且,在上面的机器人中,如果机器人的情感和本能始终如一,永不改变,则用户就易于失去对机器人的兴趣。因此,从商业化和趣味性的角度来看,这种机器人是存在缺陷的。
此外,作为第三背景技术,已经按常规提出并开发了按照用户命令和周围环境行动的所谓四足行走型宠物机器人。这种类型的宠物机器人具有与家养的狗或猫之类的四足动物相当相似的形式,并被构造成当机器人接收“俯卧”的命令时采取俯卧的姿势和当用户把他的手伸到机器人的嘴前时做出“hand-lending)”的动作。
顺便提及,这样的宠物机器人含有情感模型,以及由自身确定动作的机构,和可以称为性格的宠物机器人特征不受另一个机器人影响地改变。
这里,动物的性格是在周围环境的影响下和当两个宠物被一起饲养时形成的,例如,在实际环境中,一个宠物的存在对另一个宠物的性格形成产生很大影响。
                       发明内容
本发明是在考虑了上述各点之后取得的,其目的在于提供:第一,能够提高趣味性的机器人设备及其控制方法;第二,能够提高娱乐性的机器人设备及其控制方法;第三,能够形成更真实性格的机器人设备及其控制方法。
为了解决这样的问题,为根据本发明的机器人设备提供了:存储装置,用于存储行为模型;和动作生成装置,用于利用行为模型的一部分或全部状态空间生成动作,并使动作生成装置在扩大或缩小状态空间的同时改变行为模型的、要用于动作生成的状态空间。结果是,因为要用于动作生成的状态空间连续地改变,所以这种机器人设备能够降低要用于动作生成的状态空间改变之前和之后动作输出的不连续性。从而使输出的动作可以平滑自然地改变,因此,可以实现提高趣味性的机器人设备。
此外,根据本发明,在含有由状态变换模型构成的行为模型并根据有关行为模型生成动作的机器人设备中,在行为模型中变换到预定节点被描述成变换到由假想节点构成的虚节点,将预定的第一节点组分配给有关的虚节点,并提供改变装置,用于改变要分配给虚节点的节点组。结果是,在这种机器人设备中,因为成为基础的行为模型是固定的,所以可以达到输出动作的一致性。从而使输出的动作可以平滑自然地改变,因此,可以实现提高娱乐性的机器人设备。
并且,在本发明中,为用于机器人设备的控制方法提供了:第一步骤,利用行为模型的一部分或全部状态空间生成动作,和第二步骤,在扩大或缩小状态空间的同时,改变行为模型的、要用于动作生成的状态空间。结果是,根据用于这种机器人设备的控制方法,因为要用于动作生成的状态空间连续地改变,所以这种机器人能够降低要用于动作生成的状态空间改变之前和之后动作输出的不连续性。从而使输出的动作可以平滑自然地改变,因此,可以实现用于提高趣味性的机器人设备的控制方法。
此外,根据本发明,在用于机器人设备的控制方法中,在行为模型中变换到预定节点被描述成变换到由假想节点构成的虚节点,并提供了:第一步骤,将预定的第一节点组分配给有关的虚节点,和第二步骤,改变要分配给虚节点的节点组。结果是,根据用于这种机器人设备的控制方法中,因为基本的行为模型是确定的,所以可以一致地改变输出动作。从而使输出的动作可以平滑自然地改变,因此,可以实现用于提高趣味性的机器人设备的控制方法。
并且,根据本发明,提供了根据情感模型的每种情感行为的参数值和/或本能模型的每种欲望的参数值生成动作的机器人设备,这两种参数值都随规定的条件而被依次更新,该机器人设备包括限制装置,限制用于生成动作的情感行为或欲望的次数,以便逐步提高或降低它们。结果是,根据这种机器人设备,可以象真正生物的情感和/或本能“长大”那样地改变情感和/或本能。
此外,根据本发明,提供了用于根据情感模型的每种情感行为的参数值和/或本能模型的每种欲望的参数值生成动作的机器人设备的控制方法,这两种参数值都随规定的条件而被依次更新,该用于机器人设备的控制方法包括:第一步骤,在初始时间期间限制用于生成动作的情感行为或欲望的数目;和第二步骤,提高或降低用于生成动作的情感行为或欲望的数目。结果是,根据这种用于机器人设备的控制方法,可以象真正生物的情感和/或本能“长大”那样地改变情感和/或本能。
                     附图说明
图1是根据第一和第二实施例的宠物机器人的外表结构的透视图;
图2是显示宠物机器人的电路结构的方块图;
图3是显示控制程序的软件结构的概念图;
图4是中间件层上的软件结构的概念图;
图5是应用层上的软件结构的概念图;
图6是解释行为模型库的概念图;
图7是显示概率自动机的示意图;
图8是显示状态变换表的图表;
图9是显示行为模型库的详细结构的概念图;
图10是显示宠物机器人的成长模型的概念图;
图11是解释随着不断成长动作模式的获取和遗忘的概念图;
图12是解释第一实施例中的差异文件的概念图;
图13是解释从多个节点变换到一种动作模式的起点节点的概念图;
图14是解释虚节点的利用的概念图;
图15是显示第二实施例中每个动作相关条件项的行为模型的结构的概念图;
图16是解释动作模式文件的概念图;
图17是解释根据第二实施例的差异文件的概念图;
图18是根据第三和第四实施例的宠物机器人的外表结构的透视图;
图19是显示宠物机器人的电路结构的方块图;
图20是显示控制程序的软件结构的概念图;
图21是中间件层上的软件结构的概念图;
图22是应用层上的软件结构的概念图;
图23是用于解释行为模型库的概念图;
图24是显示概率自动机的示意图;
图25是显示状态变换表的图表;
图26是显示行为模型库的详细结构的概念图;
图27是显示宠物机器人的成长模型的概念图;
图28是显示对于每个“成长阶段”的情感参数文件的概念图;
图29是用于解释灵敏度和本能的成长的流程图;
图30是显示对于每个“成长阶段”的本能参数文件的概念图;
图31是解释第五实施例的方块图;
图32是显示根据第五实施例的宠物机器人的实施例的透视图;
图33是显示宠物机器人的电路组成的方块图;
图34是显示控制器中的数据处理的示意图;
图35是显示情感和本能模型部分进行的数据处理的示意图;
图36是显示情感和本能模型部分进行的数据处理的示意图;
图37是显示情感和本能模型部分进行的数据处理的示意图;
图38是上述宠物机器人中用于改变情感模型的参数的组成部件的方块图;
图39是显示配偶机器人的情感表达率的特征图;
图40是在行为确定机构部分中有限自动机的状态变换图;
图41是显示姿势变换机构部分中姿势变换的图形的示意图;
图42是显示第五实施例中所述的宠物机器人中用于改变情感模型的参数的组成部件的方块图,并且是描述用于改变情感模型的参数的另一个实施例的;
图43是第五实施例中所述的宠物机器人中用于改变情感模型的参数的分部件的方块图,它包括用于分析配偶机器人与用户之间的对话的对话分析机构部分;和
图44是显示第五实施例中所述的宠物机器人的另一个实施例的透视图。
                       具体实施方式
下文参照附图详细描述本发明的实施例。
(1)第一实施例
(1-1)根据第一实施例的宠物机器人的结构
在图1中,标号1总体表示根据第一实施例的宠物机器人,它是这样构成的,腿部单元3A至3D连接在躯干单元2的前身和后身上,并在它的两侧,头部单元4和尾部单元5分别与躯干单元2的前端和后端相连接。
如图2所示,躯干单元2包含控制单元16和电池17,在控制单元16中CPU(中央处理单元)10、DRAM(动态随机存取存储器)11、快闪ROM(只读存储器)12、PC(个人计算机)卡接口电路13和信号处理电路14通过内部总线相互连接,和电池17作为用于宠物机器人1的电源。另外,躯干单元2还包含角速度传感器18、加速度传感器19等,用于检测宠物机器人1移动的方向和加速度。
位于头部单元4中的预定位置上的是CCD(电荷耦合器件)摄像机20、用于拾取外部条件;触摸传感器21,用于检测用户通过诸如“爱抚”和“轻拍”之类的物理做法给出的压力;距离传感器22,用于测量相对于前端物体的距离;麦克风23,用于收集外界声音;扬声器24,用于输出诸如吠叫之类的声音;相当于宠物机器人1的“眼睛”的LED(发光二极管)(未示出)等等。
并且,在腿部单元3A至3D每一个的关节部分、腿部单元3A至3D每一个与躯干单元2之间的每个连接部分、头部单元4与躯干单元2的连接部分、尾部单元5与尾巴5A之间的连接部分等上,布置着有几个自由度的致动器251至25n和电位计261至26n
包括角速度传感器18、加速度传感器19、触摸传感器21、距离传感器22、麦克风23、扬声器24和电位计261至26n每一个的各种传感器、LED和致动器251至25n通过相应的集线器271至27n连接到控制单元16中的信号处理电路14,CCD摄像机20和电池17直接连接到信号处理电路14。
同时,信号处理电路14依次捕获上述传感器的每一个供应的传感器数据、图像数据和音频数据,并通过内部总线15将这些数据依次存储在DRAM11的预定位置中。信号处理电路14还依次捕获与那些数据一起的、指示电池17能供应的电池剩余量的电池剩余量数据,将它们存储在DRAM 11的预定位置中。
当CPU 10以后控制这个宠物机器人1的操作时,将利用已经存储在DRAM 11中的每个传感器数据、图像数据、音频数据和电池剩余量数据。
实际上,当开始接通用于宠物机器人1的电源时,CPU 10通过PC卡接口电路13或直接读出存储在存储卡28中的或存储在快闪ROM 12中的控制程序,并将其存储在DRAM 11中,存储卡28装载在躯干单元2的PC卡插槽中。
然后,根据如上所述从信号处理电路14依次存储到DRAM 11中的每个传感器数据、图像数据、音频数据和电池剩余量数据,CPU 10判断自身条件和周围条件、来自用户的任何命令和各种调教存在与否,等等。
并且,CPU 10根据这个判断结果和存储在DRAM 11中的控制程序确定下一个动作,并根据有关的确定结果驱动必要的致动器251至25n,从而向左、向右、向上、向下移动头部单元4,摇摆尾部单元5的尾巴5A,和驱动腿部单元3A至3D的每一个在其它几个之间行走。
同时,CPU 10按要求产生音频数据,并通过信号处理电路14将其给予扬声器24作为音频信号,从而根据有关的音频信号向外输出话音,或使LED发光、熄灭或闪烁。
如上所述,这个宠物机器人1适用于能够依照自身和周围的条件以及来自用户的任何命令和调教自动动作。
(1-2)控制程序的软件结构
图3显示了宠物机器人1中的控制程序的软件结构。在这个图3中,设备驱动器层30位于这个控制程序的最低层上,并由包括数个设备驱动器的设备驱动器组31构成。在这种情况中,每个设备驱动器是被允许直接访问诸如CCD摄像机20(图2)和定时器之类要用在普通计算机中的硬件的对象,并从用于处理的相应硬件接收中断。
机器人服务器对象32位于设备驱动器层30的上层上,并由下列构成:虚拟机器人33,包括提供用于访问象例如上述各种传感器和致动器251和25n那样的硬件的接口的软件组;电源管理器34,包括管理电源的切换等的软件组;设备驱动器管理器35,包括管理其它各种设备驱动器的软件组;和设计机器人36,包括管理宠物机器人1的机构的软件组。
管理器对象37由对象管理器38和服务管理器39构成。在这种情况中,对象管理器38是用于管理包含在机器人服务器对象32、中间件层40和应用层41中的每个软件组的开始和结束的软件组,和服务管理器39是用于根据关于写在存储在存储卡28(图2)中的连接文件中的对象之间的连接的信息而管理各对象的连接的软件组。
中间件层40位于机器人服务器对象32的上层上,并由将诸如图像处理和音频处理之类的基本功能提供给这种宠物机器人1的软件组构成。应用层41位于中间件层40的上层上,并由根据构成中间件层40的每个软件组进行处理所得的处理结果确定宠物机器人1的动作的软件组构成。
在这一方面,图4和图5分别显示了中间件层40和应用层41的具体软件构成。
从图4还可明显看出,中间件层40由下列构成:识别系统57,含有用于音阶识别、用于距离检测、用于姿势检测、用于触摸传感器、用于运动检测和用于颜色识别的信号处理模块50至55、输入语义转换器模块56等;和输出系统65,含有输出语义转换器模块57、用于姿势管理、用子跟踪、用于操作重放、用于行走、用于跌倒和站立、用于LED发光和用于声音再现的信号处理模块58和64等。
在这种情况中,识别系统57中的每个信号处理模块50至55从机器人服务器对象32中的虚拟机器人33要从DRAM 11(图2)中读出的传感器数据、图像数据和音频数据中捕获相应的数据,并根据该数据实现预定处理,以将处理结果提供给输入语义转换器模块56。
根据要从这些信号处理模块50至55的每一个给出处理结果,输入语义转换器模块56识别自身条件和周围环境,譬如,“检测到一个球”、“跌倒”、“已经受到爱抚”、“已经受到轻拍”、“听见‘哆(do)-来(re)-咪(mi)-发(fa)’的音阶”、“检测到一个正在移动的物体”、或“检测到一个障碍物”,以及来自用户的任何命令和做法,并将识别结果输出到应用层41(图2)。
如图5所示,应用层41由五个模块构成:行为模型库70、动作切换模块71、学习模块72、情感模型73和本能模型74。
在这种情况中,如图6所示,通过使彼此独立的行为模型701至70n的每一个分别与预选的几个条件项,譬如,“当电池剩余量下降时”、“当跌倒后站立起来时”、“当躲避障碍物时”、“当表达情感时”和“当检测到一个球时”相对应,将彼此独立的行为模型701至70n提供给行为模型库70。
当从输入语义转换器模块56中给出识别结果时,当自从给出最后识别结果之后经过了固定时间间隔时,等等,这些行为模型701至70n按要求,在参照如后所述保存在情感模型73中的相应情感的参数值和保存在本能模型74中的相应欲望的参数值的同时,确定下一动作,将确定结果输出给动作切换模块71。
在这一方面,在这个实施例的情况中,作为确定下一动作的技术,每个行为模型701至70n利用称之为“概率自动机”的算法,根据已经分别为连接节点NODE1至NODEn的弧线ARC1至ARCn设定的变换概率P1至Pn,按概率确定从一个节点(状态)NODE1至NODEn变换到哪一个节点NODE1至NODEn上,如图7所示。
具体地说,通过使行为模型701至70n的每一个分别与形成自身的行为模型701至70n的节点NODE1至NODEn的每一个相对应,每个行为模型701至70n具有如图8所示那样的关于节点NODE1至NODEn的每一个的状态变换表80。
在这个状态变换表80中,对于节点NODE1至NODEn,在“输入事件名”这一列中按优先级顺序列举作为变换条件的输入事件(识别结果),在“数据名”和“数据范围”列的相应行中描述其它变换条件。
这样,在图8的状态变换表80上所表示的节点NODE100中,当已经给出识别结果“检测到一个球”时,球的“尺寸”是在要与识别结果一起给出的“从0到1000”的范围内的事实,或当已经给出识别结果“检测到一个障碍物”时,要与识别结果一起给出的到障碍物的“距离”是在“从0到100”的范围内的事实,是变换到另一个节点所需要的条件。
此外,在这个节点NODE100,如果没有输入任何识别结果,则在分别保存在行为模型701至70n周期性地参照的情感模型73和本能模型74的每种情感和每种欲望的参数值中,由情感模型73保存的“喜悦”、“惊讶”和“悲痛”的任何一个的参数值在“从50到100”的范围内,可以变换到另一个节点。
在这个状态变换表80中,在“到另一个节点的变换概率”列的“变换目标节点”行中,列举了可以从节点NODE0至NODEn变换到的节点的名称,和当在“输入事件名”、“数据名”、和“数据范围”列中描述的所有条件都得到满足时,可以变换到其它节点NODE0至NODEn的每一个的变换概率分别描述在“到另一个节点的变换概率”列中与之相对应的位置中。要在变换到节点NODE0至NODEn时输出的动作描述在“到另一个节点的变换概率”列的“输出动作”行中。在这一点上,在“到另一个节点的变换概率”列的每一列中的概率总和是100%。
于是,在图8的状态变换表80上表示的节点NODE100中,例如,当已经给出“检测到一个球”和球的“尺寸”是在“从0到1000”的范围内的识别结果时,可以有“30%”的概率变换到“节点NODE120(节点120)”,同时,要输出“动作1”的动作。
每个行为模型701至70n是这样构成的,使如这样的状态变换表80所描述的节点NODE0至NODEn大量地连接在一起,尤其当输入语义转换器模块56已经给出识别结果时,下一个动作适合通过用相应节点NODE0至NODEn的状态变换表80所得的概率来确定,将确定结果输出到动作切换模块71。
在要分别从行为模型库70中的每个行为模型701至70n输出的动作中,动作切换模块71选择从预定优先级较高的行为模型701至70n输出的动作,并将含义是应该采取有关动作的命令(下文称之为“动作命令”)传送到中间件层40中的输出语义转换器57。在这一方面,在本实施例中,将图6中较下面所示的行为模型701至70n的优先级设置得较高。
此外,动作切换模块70根据要在动作完成之后由输出语义转换器57给出的动作完成信息,将动作已经完成了的结果通知学习模块72、情感模块73和本能模块74。
另一方面,要由输入语义转换器56给出的识别结果中,学习模块72输入诸如“受到轻拍”和“受到爱抚”之类,作为调教从用户接收的指令的识别结果。
根据这个识别结果和来自动作切换模块71的通知,学习模块72以如下方式改变行为模型库40中与之相应的行为模型701至70n所对应的变换概率,使得当“受到轻拍(批评)”时,降低动作的展示概率,和当“受到爱抚(表扬)”时,提高动作的展示概率。
另一方面,关于总共六种情感:“喜悦”、“悲痛”、“愤怒”、“惊讶”、“厌恶”和“害怕”,情感模型73对每种情感,保存表达情感强度的参数。情感模型73适用于根据要由输入语义转换器模块56分别给出的“已经受到轻拍”、“已经受到抚摸”等的具体识别结果、经过的时间、来自动作切换模块71的通知等,依次更新关于这些参数的每一个的参数值。
具体地说,根据来自输入语义转换器56的识别结果和宠物机器人1此时的动作对它的情感的影响程度(预定)、本能模型74保存的每种欲望的参数值、和宠物机器人1此时的动作对它的情感的影响程度(预定)、要受到其它情感影响的抑制和刺激程度、经过的时间等,假设要通过预定运算表达式计算的情感的涨落量是(E(t),情感的当前参数值是E(t),表达根据识别结果等改变情感的比率(下文称之为“灵敏度”)的系数是ke,情感模型73在预定时间间隔内利用下式:
E(t+1)=E(t)+ke×ΔE(t)                           (1)
计算下一时间间隔中情感的参数值E(t+1)。
情感模型73用它的情感的当前参数值E(t)代入这个计算结果,从而更新情感的参数值。在这一点上,已经事先确定了应该响应每个识别结果和来自动作切换模块71的通知来更新哪种情感的参数值,和当给出,例如,“已经受到轻拍”的识别结果时,关于“愤怒”情感的参数值升高了,而当给出例如“已经受到轻拍”的识别结果时,关于“喜悦”情感的参数值升高了。
相比之下,关于彼此独立的四种欲望“运动”、“爱欲”、“食欲”和“好奇心”,本能模型74对这些欲望的每一种,都保存了表示欲望强度的参数。本能模型74适用于分别根据要由输入语义转换器模块56给出的识别结果、经过的时间、来自动作切换模块71的通知等,依次更新这些关于欲望的参数。
具体地说,关于“运动”、“爱欲”、“食欲”和“好奇心”,假设要根据宠物机器人1的动作输出、经过的时间、识别结果等,通过预定运算表达式计算的欲望的涨落量是(I(k),欲望的当前参数值是I(k),表达欲望的灵敏度的系数是ki,本能模型74在预定时间间隔内通过利用下列方程计算下一时间间隔中欲望的参数值:
I(k+1)=I(k)+ki×ΔI(k)                          (2)
并用欲望的当前参数值I(k)代入这个计算结果,从而更新欲望的参数值。在这一点上,已经事先确定了应该响应动作输出、识别结果等改变欲望的参数值,和如果已经存在来自例如动作切换模块71的通知(含义是已经采取了动作的通知),则关于“运动”的参数值将变得较小。
至于“食欲”,根据要通过输入语义转换器模块56给出的电池剩余量数据,假定电池剩余量数据是BL,本能模型74在预定时间间隔内通过利用下式计算关于食欲的参数值I(k):
I(k)=100-BL                                         (3)并用食欲的当前参数值I(k)代入这个计算结果,从而更新有关“食欲”的参数值。
在这一点上,在本实施例中,分别调整关于每种情感和每种欲望的参数值,以便在0至100的范围内涨落,并且还对每种情感和每种欲望分别设定关于系数ke和ki的值。
另一方面,如图4所示,中间件层40的输出语义转换器模块57将要由如上所述的应用层41的动作切换模块71发出的、象“前进”、“喜悦”、“吠叫”或“跟踪(追赶一个球)”那样的简短动作命令给予输出系统65的相应信号处理模块58至64。
当发出动作命令时,这些信号处理模块58至64根据动作命令,生成要给予相应的致动器251至25n(图2)以便采取动作的伺服命令值、要从扬声器24(图2)输出的声音的音频数据、和/或要给予用作“眼睛”的LED的驱动数据,依次通过机器人服务器对象32的虚拟机器人33和信号处理电路14(图2)将这些数据依次传送到相应的致动器251至25n、扬声器24、和LED。
如上所述,这种宠物机器人1适用于能够按照控制程序,响应自身的条件和周围环境以及来自用户的任何指令和调教的自动动作。
(1-3)宠物机器人1的成长模型
下面描述安装在这种宠物机器人1中的成长功能。这种宠物机器人1具有响应来自用户的做法,仿佛“长大”似地连续改变动作的成长功能。
更准确地说,为这种宠物机器人1配备了“婴儿期”、“童年期”、“少年期”、“青年期”和“成年期”等五个“成长阶段”作为成长过程。为应用层41中的行为模型库70(图50)配备了使之分别与“婴儿期”、“童年期”、“少年期”、“青年期”和成年期”对应的行为模型70k(1)至70k(5),作为与诸如上述“当电池剩余量越来越少”之类的每个条件项的、与诸如“操作”、“动作”等的“成长”相关的所有条件项(下文称之为“成长相关条件项”)有关的,图9所示的行为模型70k。行为模型库71适用于通过利用与这些成长相关条件项有关的、初始阶段中的“婴儿期”的行为模型模型70k(1)确定下一动作。
在这种情况中,“婴儿期”的每个行为模型70k(1)具有少量的节点NODE0至NODEn(图7),和要从这些行为模型70k(1)输出的动作的内容也是象“按模式1行走(“婴儿期”的行走模式)”或“按模式1发出声音(“婴儿期”的吠叫模式)”那样与“婴儿期”相对应的动作或操作。
因此,这种宠物机器人1在初始阶段做一些这样的动作,使它变成象与例如“操作”有关的简单“行走”、“站立”和“躺下”一样“简单”的举止,和通过按照“婴儿”中的每个行为模型70k(1)重复地进行与“动作”有关的同一动作,使它变成“单调的”。
同时,应用层41中的学习模块72(图5)保存表示其中的“成长”程度的参数(下文称之为“成长参数”),并适用于根据要从输入语义转换器模块56给出的识别结果、经过的时间信息等,按照来自用户的、诸如“受到爱抚”或“受到轻拍”之类的调教(指令)的次数、经过的时间等,依次更新成长参数的值。
每当接通供电给宠物机器人1的电源时,学习模块72就估算这个成长参数的值,和当该值超过使之与“童年期”相对应事先设定的阈值时,将其通知行为模型库70。当发出这个通知时,行为模型库70将分别用于与上述每个成长相关条件项有关的行为模型改变成“童年”的行为模型70k(2)
同时,“童年期”中的每个行为模型70k(2)具有数量比“婴儿期”中的行为模型70k(1)多的节点NODE0至NODEn,要从这些行为模型70k(2)输出的动作的内容也比“婴儿期”中的动作难度更大,更加复杂(在成长级方面)。
因此,这种宠物机器人1按照此后的这些行为模型70k(2)做一些这样的动作,通过增加与例如“操作”有关的动作数使它变成“稍微高级一点和更加复杂”的举止,和使它变成与“动作”有关的“至少有目的”的动作。
此后,以与上述情况相同的方式,每当成长参数的值超过使之与“少年期”、“青年期”和“成年期”相对应事先分别设定的阈值时,学习模块74进一步将其通知行为模型库71。每当发出这个通知时,行为模型库71与上述每个成长相关条件项有关地将要分别使用的行为模型改变成“少年期”、“青年期”和“成年期”的行为模型70k(3)至70k(5)
同时,“少年期”、“青年期”和“成年期”中的每个行为模型70k(3)至70k(5)分别具有随着“成长阶段”不断提高数量越来越多的节点NODE0至NODEn,要从这些行为模型70k(3)至70k(5)输出的动作的内容也随着“成长阶段”不断提高在动作的难度和复杂等级上越来越大。
因此,随着“成长阶段”不断提高(更具体地说,从“婴儿期”改变到“童年期”、从“童年期”改变到“少年期”、从“少年期”改变到“青年期”、  和从“青年期”改变到“成年期”),这种宠物机器人1依次逐步地改变从“简单”到“越来越高级和越来越复杂”的“操作”,和从“单调”到“有意识动作”的“动作”。
如上所述,这种宠物机器人1适用于使它的动作和操作按照要由用户发出的教导和经过的时间分五个阶段“成长”:“婴儿期”、“童年期”、“少年期”、“青年期”和“成年期”。
在这一方面,在本实施例的情况中,宠物机器人1的成长模型是在“少年期”之中和之后分出来的模型,如图10所示。
更具体地说,在宠物机器人1的情况中,为应用层41(图5)中的行为模型库70配备了多个行为模型,分别作为与上述每个成长相关条件项有关的、关于“少年期”、“青年期”和“成年期”的行为模型70k(3)至70k(5)
实际上,作为每个成长相关条件项中关于例如“少年期”的行为模型70k(3),准备了使宠物机器人做出粗心大意匆匆忙忙地举止的“急躁”性格的动作的行为模型(少年1),和使宠物机器人做出比“少年1”更乎稳更缓慢地举止的“平静”性格的动作的行为模型(少年2)。
此外,作为关于“青年期”的行为模型70k(4),准备了使宠物机器人做出比“少年期”的“急躁”性格更粗心大意更匆匆忙忙地举止的“鲁莽”性格的动作的行为模型(青年1),使宠物机器人做出比“青年1”更平稳更缓慢地举止的“普通”性格的动作和操作的行为模型(青年2),和使宠物机器人做出比“青年2”更缓慢地操作和动作更少的“平静”性格的动作的行为模型(青年3)。
进一步,作为关于“成年期”的行为模型70k(5),准备了使宠物机器人做出比“青年期”的“鲁莽”性格更粗心大意更匆匆忙忙地举止的非常易兴奋的“攻击”性格的动作的行为模型(成年1),使宠物机器人做出比“成年1”更平稳更缓慢地举止的易兴奋的“急躁”性格的动作的行为模型(成年2),使宠物机器人做出比“成年2”更平稳更缓慢地举止和动作更少的“温和”性格的动作的行为模型(成年3),和使宠物机器人做出比“成年3”还更缓慢地举止和动作更少的“文静”性格的动作的行为模型(成年4)。
当通知行为模型库70以便提高如上所述的“成长阶段”时,应用层41中的学习模块72(图5)根据在其中的“成长阶段”中,在“少年期”之中和之后“受到爱抚”和“受到抚摸”的次数等,在每个成长相关条件项中指定其中的“性格”应该用作下一“成长阶段”中的行为模型的行为模型(少年1、少年2、青年1至青年3、和成年1至成年4)。
结果是,行为模型库70根据这种指定,将与每个成长相关条件项有关的、要在“少年期”之中和之后使用的行为模型70k(3)至70k(5)分别改变成指定“性格”的行为模型(少年1、少年2、青年1至青年3、和成年1至成年4)。
在这种情况中,在“少年期”之中和之后,当移动到下一“成长阶段”时,下一“成长阶段”中的“性格”由当前“成长阶段”中的“性格”确定,因此,可以只在由图10所示的箭头连接的“性格”之间进行移动。于是,当“急躁”性格的行为模型(少年1)用在例如“少年期”中时,宠物机器人1不能移动到“青年期”中的“平静”性格的行为模型(青年3)。
如上所述,这种宠物机器人1还适应于响应来自用户的调教等,随着“不断成长”改变其“性格”,仿佛真正的动物按照主人如何饲养它等,形成自身的性格。
(1-4)行为模型70k的具体结构
下面将描述上述每个成长相关条件项的行为模型70k(图9)的具体结构。
在这种宠物机器人1的情况下,每个成长相关条件项的行为模型70k具有广阔的状态空间,其中已经存储了宠物机器人1能够展示的所有动作模式的每一个。
在包括作为核芯的、其中生成诸如“行走”、“躺下”和“站立”之类这种宠物机器人中的基本动作的状态空间部分在内的这些行为模型70k的状态空间中,在“婴儿期”这些行为模型70k只使用包括相关核芯的有限部分,此后,每当它“不断成长”时,允许变换到新增加的状态空间部分(其中将生成能够得到新展示的动作和一系列动作模式的状态空间部分),并切断不再使用的状态空间部分(其中将生成不再使其得到展示的动作和一系列动作模式的状态空间部分),从而在每个“成长阶段”,生成行为模型70k(1)至70k(5)
作为如上所述允许变换到新增加的状态空间部分和切断任何不必要的状态空间的方法,这种宠物机器人1使用了随着“成长”而改变到状态空间的变换概率的方法。
例如,在图11中,假定从节点NODEA到节点NODEB的变换条件是“检测到一个球”,和当在节点NODEA已经发现球时,从节点NODEB开始的一系列节点组90用于完成“接近球去踢它”的一系列动作模式,“追赶球去踢它”的动作模式PA1可以以变换概率P1得到展示,但如果变换概率P1是“0”,则这样的动作模式PA1将永远得不到展示。
在这种宠物机器人1中,在使这样的动作模式PA1在到达某一“成长阶段”之后得到展示的情况下,在初始阶段事先将这个变换概率P1设为“0”,并当到达有关的“成长阶段”时,使这个变换概率P1改变成大于“0”的预定数据值。反之,在到达某一“成长阶段”时使这种动作模式PA1被遗忘的情况下,当到达该“成长阶段”时,使从节点NODEA到节点NODEB的变换概率改变成“0”。
在这种宠物机器人中,作为如上所述在必要点上更新变换概率的具体技术,通过使上述成长相关条件项的每种行为模型分别与“童年期”、“少年期”、“青年期”和“成年期”的每个“成长阶段”相对应,为上述成长相关条件项的每种行为模型配备了如图12所示那样的文件(下文称之为差异文件)91A至91D。
在这些差异文件91A至91D中,包含了变换概率应该按如上所述改变的节点(对应于图11中的节点A)的节点名(号)、变换概率应该改变的节点在状态变换表80(图8)中的位置、和在改变之后在有关位置上的变换概率,以便随着“成长阶段”的上升按如上所述展示新的动作。
每个成长相关条件项的行为模型70k在初始阶段,按照关于“婴儿期”的行为模型70k(1)生成动作,此后,当按如上所述从学习模块72(图5)发出含义是已经“成长”了的通知时,根据关于相应“成长阶段”的差异文件91A至91D,将在分别指定的位置的每一个上的变换概率改变成与在有关差异文件91A至91D中描述的每个节点有关地指定的数值。
例如,在图8和12所示的例子的情况中,当在关于每个成长相关条件项的行为模型70k中宠物机器人已经成长到“童年期”时,其中已经描述了节点NODE100的变换概率的、在状态变换表80中的区域(在图8中,在“输出动作”行下面和在“数据范围”列右边的部分)中的“第1列”、“第1行”中的变换概率将被改变成“20”%,在有关状态变换表中的“第1列”、“第n行”中的变换概率将被改变成“30”%,等等。另外,在关于每个成长相关条件项的行为模型70k中,至于在关于这个“童年期”的差异文件91A中描述的其它节点NODE320、NODE720……,也将类似地分别改变相应的变换概率。
在这种情况中,在其数值将按这种方式改变的变换概率中,包含了变换概率在那以前已经为“0”(也就是说,已经禁止了变换到用作一系列动作模式的起点的节点)的变换概率,和变换概率在改变之后才变为“0”(也就是说,禁止变换到用作一系列动作模式的起点的节点)的变换概率。但是,变换概率可以按这种方式从“0”变成预定数值,或变换概率在改变之后变成“0”,从而这一系列动作模式可以在新的“成长阶段”中得到展示,或可以不展示这一系列动作模式。
在这一方面,即使必要的变换概率按如上所述发生了改变,在每个差异文件91A到91D中每个变换概率的值也可以以这样的方式来选择,使得在改变之后要包含在状态变换表80的相应列中的每个变换概率的总和为100%。
(1-5)该实施例的操作和效果
在上述的结构中,在包括作为核芯完成基本动作的状态空间部分在内的,其中已经存储了全部动作模式的广阔状态空间中,这个宠物机器人1在“婴儿期”只使用了包括相关核芯的有限部分,此后,每当它“不断成长”时,就切断除了核芯之外不再使用的状态空间部分,允许变换到应该新增加的状态空间部分,从而在每个“成长阶段”,生成行为模型70k(1)至70k(5),和按照由此生成的有关行为模型70k(1)至70k(5)动作。
因此,因为在每个“成长阶段”中行为模型70k(1)至70k(n)的状态空间连续地改变,所以这种宠物机器人1能够降低“成长”之前和之后输出动作的“成长”不连续性,从而更自然地表示“成长”。在这种宠物机器人1中,由于在所有“成长阶段”中共享生成基本动作的状态空间部分,因此,可以将基本动作的学习结果依次地向前带入下一“成长阶段”。
进一步,在这这种宠物机器人1中,由于如上所述,在所有“成长阶段”中共享生成基本动作的状态空间部分,因此,对于每个“成长阶段”,容易准备行为模型70k(1)至70k(n),和与如在传统情况下那样为每个“成长阶段”准备各自的行为模型的情况相比,还可以缩减整个行为模型的数据量。
进一步,这种宠物机器人1按照如上所述的“成长”,切断关于一系列动作模式的不必要状态空间,并允许变换到关于一系列动作模式的必要状态空间,从而在每个“成长阶段”,生成行为模型70k(1)至70k(5)。因此,可以把每个系列的动作模式分割成几个部分,进一步使生成每个成长相关条件项的行为模型70k的操作简化了那么多。
根据上述的结构,在包括作为核芯完成基本动作的状态空间部分在内的,其中已经存储了全部动作模式的广阔状态空间中,这个宠物机器人1在“婴儿期”只使用了包括相关核芯的有限部分,此后,每当它“不断成长”时,就切断除了核芯之外不再使用的状态空间部分,允许变换到应该新增加的状态空间部分,从而在每个“成长阶段”,生成行为模型70k(1)至70k(5),从而可以在每个“成长阶段”,在通过连续地改变行为模型70k(1)至70k(n)的状态空间,降低“成长”之前和之后输出动作的不连续性。因此,可以更自然地表示“成长”,和可以实现能够提高趣味性的宠物机器人。
(1-6)其它实施例
在这一方面,在上述的第一实施例中,已经对本发明应用于四腿行走型宠物机器人1和100的情况作了描述,但本发明并不仅限于此,而是可以广泛应用于另外各种各样实施例的机器人中。
此外,在上述的第一实施例中,已经对随着“不断成长”依次地扩大每个“成长阶段”的行为模型70k(1)至70k(5)的状态空间的情况作了描述,但本发明并不仅限于此,而是可以在每个“成长阶段”中依次缩小行为模型70k(1)至70k(5)的状态空间,或在扩大的过程中,在“成长阶段”的任何一个中缩小行为模型70k(1)至70k(5)的状态空间。
并且,在上述的第一实施例中,已经对宠物机器人1或100按五个阶段“成长,,的情况作了描述,但本发明并不仅限于此,而是可以使宠物机器人按除了五个阶段之外的若干个阶段“成长”。
进一步,在上述的第一实施例中,已经对存储行为模型(包括宠物机器人1能够完成的所有动作模式的行为模型)的存储装置、和利用有关行为模型的部分可全部状态空间生成动作的动作生成装置由一个行为模型70k和CPU 10构成的情况作了描述,但本发明并不仅限于此,而是可以应用于另外各种各样的结构中。
(2)第二实施例
(2-1)原理
当如图11所示,只从一个特定状态(节点NODEA)变换到在“成长”过程中新获得的一系列动作模式PA1时,可以通过只改变变换概率P1来控制动作模式的展示。但是,当如图13所示,从多个状态(节点NODEA至NODEB)发生这种变换时,就不容易控制全部相应的变换概率P10至P12
在这样的情况下,可以在如图14所示的行为模型中提供假想节点(下文称之为虚节点),从每个节点NODEA1至NODEA3到用作一系列动作模式PA1的起点的节点NODEB的变换,可以以使虚节点NODEK与作为上述一系列动作模式PA1的起点的节点NODEB相对应这样一种方式,用到虚节点NODEK的变换来替代。
因此,控制变换概率也变得容易了,即使随着“不断成长”,这个系列的动作模式PA1用另一个系列的动作模式PA2来替代,也可以通过从在前一动作模式PA1的起点上的节点NODEB到在下一动作模式PA2的起点上的节点NODEC只改变实节点与虚节点之间的对应关系容易地完成。
(2-2)根据该实施例的宠物机器人100的结构
图1中的标号100表示根据第二实施例的宠物机器人的全貌,除了随着“成长”每个成长相关条件项的行为模型70k(图9)的结构不同之外,它以与根据第一实施例的宠物机器人1相同的方式构成。
更具体地说,在这个宠物机器人100中,如图15所示,为每个成长相关条件项的行为模型70k分别配备了生成诸如“站立”、“坐下”和“行走”之类,对每个“成长阶段”公用的基本动作的行为模型(下文称之为基本行为模型),和在基本行为模型101中,提供了几个虚节点NODEK1至NODEKn
通过使关于每个成长相关条件项的行为模型70k分别与每个“成长阶段”相对应,为关于每个成长相关条件项的行为模型70k配备了动作模式文件102A至102E。如图16所示,这些动作模式文件102A至102E是分别将在其“成长阶段”中在基本行为模型101内的每个虚节点NODEK1至NODEKn和分别生成已经分别使其相对应的每个系列动作模式PA1至PAn的节点组的状态变换表集中成文件获得的。
进一步,如图17所示,为关于每个成长相关条件项的行为模型70k配备了已经总结了对应表103A至103E的文件(下文称之为差异文件103),对应表103A至103E代表每个“成长阶段”中每个虚节点NODEK1至NODEKn与每个实节点(在存储在“成长阶段”的动作模式文件102A至102E中的动作模式PA1至PAn的任何一个的起点上的节点,等等)之间的对应关系。
关于每个成长相关条件项的行为模型70k在初始阶段,读出“婴儿期”的动作模式文件102A的数据,将该数据加入到基本行为模型101中,并根据存储在差异文件103中的“婴儿期”的对应表103A,将基本行为模型101内的每个虚节点NODEK1至NODEKn转换成实节点,从而生成“婴儿期”的行为模型70k(1),以根据该有关的行为模型70k(1)生成动作。
此后,当从学习模块72(图5)发出含义是已经“成长”了的通知时,关于成长相关条件项的行为模型70k将“童年期”的动作模式文件102B的数据加入到基本行为模型101中,来替代“婴儿期”的动作模式文件102A的数据,并根据存储在差异文件103中的“童年期”的对应表103B,将基本行为模型101内的每个虚节点NODEK1至NODEKn转换成实节点,从而生成“童年期”的行为模型70k(2),以根据该有关的行为模型70k(2)生成动作。
进一步,类似地,此后,每当从学习模块72发出含义是已经“成长”了的通知时,关于成长相关条件项的行为模型70k就将要加入到基本行为模型101中的动作模式文件102C至102E的数据分别改变成“童年期”、“青年期”和“成年期”的数据,并根据存储在差异文件103中的关于“成长阶段”的对应表103C至103E,将基本行为模型101内的每个虚节点NODEK1至NODEKn转换成实节点,从而依次生成“少年期”、“青年期”和“成年期”的行为模型70k(3)至70k(5),以根据该行为模型70k(3)至70k(5)生成动作。
如上所述,通过随着“不断成长”依次改变使其分别与基本行为模型101内的每个虚节点NODEK1至NODEKn相对应的动作模式PA1至PAn,这种宠物机器人100适用于响应“成长”而改变其动作。
(2-3)该实施例的操作和效果
在上述的结构中,通过随着“成长”依次改变使其分别与基本行为模型101内的每个虚节点NODEK1至NODEKn相对应的动作模式PA1至PAn,这种宠物机器人100适用于响应“成长”而改变其动作。
因此,在这种宠物机器人100中,因为在所有“成长阶段”中共享着生成基本行为的基本行为模型101,所以可以在整个“成长阶段”自始至终保持动作的一致性,和可以将基本动作的学习结果依次地向前带入下一“成长阶段”。
在这种宠物机器人100中,因为如上所述,在所有“成长阶段”中共享着基本行为模型101,所以易于准备行为模型,和与如在传统情况中那样为每个“成长阶段”准备各自的行为模型相比,还可以缩减整个行为模型的数据量。
进一步,在这种宠物机器人100中,可以把使其分别与基本行为模型101内的每个虚节点NODEK1至NODEkn相对应的每个动作模式PA1至PAn分割成几个部分,和进一步使生成每个成长相关条件项的行为模型70k的操作简化了那么多。
进一步,在这种宠物机器人100中,因为除了与在第一实施例中获得的这种操作效果相类似的操作效果之外,还按如上所述使用了虚节点NODEK1至NODEKn,所以,即使如例如图13所示,在节点NODEA1至NODEA3中可能到处发生了到某一系列动作模式PA1的移动,也可以容易地生成关于每个成长相关条件项的行为模型70K
根据上述的结构,为基本行为模型101配备了虚节点NODEK1至NODEKn,其中,“婴儿期”的每个行为模型70k(1)以使“婴儿期”的每个系列动作模式PA1至PAn(在其起点上的节点)分别与每个虚节点NODEK1至NODEKn相对应这样一种方式生成,此后,“童年期”、“少年期”、“青年期”和“成年期”的每个行为模型70k(2)至70k(5)以随着“成长”,用“少年期”、“青年期”和“成年期”的动作模式替代使其分别与每个虚节点NODEK1至NODEKn相对应的每个系列动作模式PA1至PAn这样一种方式生成。因此,可以在整个“成长阶段”自始至终保持动作的一致性。于是,可以更自然地表示“成长”,和实现能够提高趣味性的宠物机器人。
(3)其它实施例
在这一方面,在上述的第二实施例中,已经对本发明应用于四腿行走型宠物机器人1和100的情况作了描述,但本发明并不仅限于此,而是可以广泛应用于另外各种各样实施例的机器人中。
此外,在上述的第二实施例中,已经对随着“不断成长”依次地扩大每个“成长阶段”的行为模型70k(1)至70k(5)的状态空间的情况作了描述,但本发明并不仅限于此,而是可以在每个“成长阶段”中依次缩小行为模型70k(1)至70k(5)的状态空间,或在扩大的过程中,在“成长阶段”的任何一个中缩小行为模型70k(1)至70k(5)的状态空间。
并且,在上述的第二实施例中,已经对宠物机器人1或100按五个阶段“成长”的情况作了描述,但本发明并不仅限于此,而是可以使宠物机器人按除了五个阶段之外的若干个阶段“成长”。
进一步,在上述的第二实施例中,已经对存储行为模型(包括宠物机器人1能够完成的所有动作模式的行为模型)的存储装置、和利用有关行为模型的部分可全部状态空间生成动作的动作生成装置由一个行为模型70k和CPU 10构成的情况作了描述,但本发明并不仅限于此,而是可以应用于另外各种各样的结构中。
(3)第三实施例
(3-1)根据第三实施例的宠物机器人的结构
在图18中,标号110总体表示根据第三实施例的宠物机器人。腿部单元112A至112D分别连接在躯干单元111的右前、左前、右后、和左后部分上,头部单元113和尾部单元114分别与躯干单元111的前端部分和后端部分相连接。
如图19所示,在躯干单元111中包含控制单元126和电池127,在控制单元126中CPU(中央处理单元)120、DRAM(动态随机存取存储器)121、快闪ROM(只读存储器)122、PC(个人计算机)卡接口电路123和信号处理电路124通过内部总线125相互连接,和电池127作为用于宠物机器人110的电源。并且,在躯干单元111中还容纳了角速度传感器128、加速度传感器129等,用于检测宠物机器人110移动的方向和加速度等。
并且,位于头部单元113中的预定位置上的是CCD(电荷耦合器件)摄像机20、用于拾取外部条件的图像;触摸传感器131,用于检测用户通过诸如“爱抚”或“轻拍”之类的物理做法施加的压力;距离传感器132,用于测量相对于前端物体的距离;麦克风133,用于收集外界声音;扬声器134,用于输出诸如吠叫之类的声音;和相当于宠物机器人110的“眼睛”的LED(发光二极管)(未示出)等等。
并且,在腿部单元112A至112D的关节部分、腿部单元112A至112D与躯干单元111之间的连接部分、头部单元113与躯干单元111之间的连接部分、和尾部单元114与尾巴114A之间的连接部分等上,分别布置着有几个自由度的致动器1351至135n和电位计1361至136n
诸如角速度传感器128、加速度传感器129、触摸传感器131、距离传感器132、麦克风133、扬声器134和电位计1361至136n之类,各种各样的传感器、LED和致动器1351至135n通过相应的集线器1371至137n连接到控制单元126的信号处理电路124。CCD摄像机130和电池127直接连接到信号处理电路124。
此时,信号处理电路124依次捕获上述传感器供应的传感器数据、图像数据和音频数据,并通过内部总线15将这些数据依次存储在DRAM 121的预定位置中。并且,信号处理电路124还依次捕获与那些数据一起的、指示电池127能供应的电池剩余量的电池剩余量数据,将它存储在DRAM121的预定位置中。
当CPU 120以后控制这个宠物机器人110的操作时,将利用以这样的方式存储在DRAM 121中的传感器数据、图像数据、音频数据和电池剩余量数据。
实际上,在接通用于宠物机器人110的电源的初始时间内,CPU 120直接或通过PC卡接口电路123读出存储在存储卡138中的或存储在快闪ROM 122中的控制程序,并将其存储在DRAM 121中,存储卡138插在躯干单元111的PC卡槽(未示出)中。
然后,根据如上所述从信号处理电路124依次存储到DRAM 121中的传感器数据、图像数据、音频数据和电池剩余量数据,CPU 120判断它自身和周围的条件、或是否存在来自用户的教导和做法,等等。
并且,CPU 120根据这个判断结果和存储在DRAM 121中的控制程序确定下一个动作,并根据该确定结果驱动必要的致动器1351 至135n,以便CPU 120让宠物机器人做出动作,譬如,向左、向右、向上、向下移动头部单元113,摇摆尾部单元114的尾巴114A,和驱动各个腿部单元112A至112D行走。
同时,CPU 120按要求产生音频数据,并通过信号处理电路124将其供应给扬声器134作为音频信号,从而将基于音频信号的话音输出到外部,并使LED发光、熄灭或闪烁。
如上所述,这个宠物机器人1被设计成能够依照自身和周围的条件以及来自用户的指令和调教自动动作。
(3-2)控制程序的软件结构
图20显示了宠物机器人110中的上述控制程序的软件结构。在图20中,设备驱动器层140位于该控制程序的最底层上,并由包括数个设备驱动器的设备驱动器组141构成。在这种情况中,每个设备驱动器是被允许直接访问诸如CCD摄像机130(图19)或定时器之类要应用在普通计算机中的硬件的对象,并通过从相应硬件接收中断来进行处理。
并且,机器人服务器对象(object)142位于比设备驱动器层140高的层上。机器人服务器对象142包括:虚拟机器人143,由提供用于直接访问例如上述各种传感器或致动器1351至135n等的硬件的接口的软件组组成;电源管理器144,由管理电源的切换等的软件组组成;设备驱动器管理器145,由管理各种类型的其它设备驱动器的软件组组成;和设计机器人146,由管理宠物机器人1的机构的软件组组成。
管理器对象147包括对象管理器148和服务管理器149。在这种情况中,对象管理器148包括管理包含在机器人服务器对象142、中间件层150和应用层151中的每个软件组的开始和结束的软件组。服务管理器149包括根据写在存储在存储卡138(图19)中的连接文件中的对象之间的连接信息,管理各对象的连接的软件组。
中间件层150位于比机器人服务器对象142高的层上,并由将诸如图像处理和音频处理之类的基本功能提供给宠物机器人110的软件组构成。应用层151位于比中间件层150高的层上,并由根据构成中间件层150的软件组处理所得的结果确定宠物机器人110的动作的软件组构成。
图21和图22分别显示了中间件层150和应用层151的具体软件构成。
从图21可明显看出,中间件层150包括:识别系统167,含有用于识别音阶、用于检测距离、用于检测姿势、用于触摸传感器、用于检测移动和用于识别颜色的信号处理模块160至165、和输入语义转换器模块166等;和输出系统175,含有输出语义转换器模块167、和用于管理姿势、用于跟踪、用于再现举止、用于行走、用于跌倒后站起、用于使LED发光和用于再现声音的信号处理模块168至174等。
在这种情况中,识别系统167的各个信号处理模块160至165从机器人服务器对象142的虚拟机器人143从DRAM121(图19)中读出的传感器数据、图像数据和音频数据中捕获相应的数据,根据捕获的数据执行预定的处理,并将处理结果提供给输入语义转换器模块166。
根据信号处理模块160至165供应的处理结果,输入语义转换器模块166识别自身和周围环境的条件,或来自用户的教导和做法,譬如,“检测到一个球”、“检测到跌倒”、“受到爱抚”、“受到轻拍”、“听见‘哆(do)、来(re)、咪(mi)’的音阶”、“检测到一个正在移动的物体”、或“检测到一个障碍物”,并将识别结果输出到应用层151(图19)。
如图22所示,应用层151由五个模块构成,包括:行为模型库180、动作切换模块181、学习模块182、情感模型183和本能模型184。
在这种情况中,如图23所示,在行为模型库180中提供了彼此独立的行为模型1801至180n,以便与以前选择的几个条件项,譬如,“当电池剩余量逐渐下降时”、“当跌倒后站起时”、“当躲避障碍物时”、“当表达情感时”和“当检测到一个球时”相对应。
然后,当从输入语义转换器模块166分别给出识别结果时,或当自从给出最后的识别结果之后经过了规定时间时,等等,这些行为模型1801至180n按如后所述,在需要时通过参照保存在情感模型183中的相应情感行为的参数值和保存在本能模型184中的相应欲望的参数值来确定下一动作,并将确定结果输出给动作切换模块181。
在这个实施例中,作为确定随后动作的方法,各个行为模型1801至180n利用称之为概率自动机的算法,根据分别为将节点NODE0′至NODEn′连接在一起的弧线ARC1至ARCn+1设定的变换概率P1′至Pn′,按概率确定从NODE0′至NODEn′的一个节点(状态)变换到哪一个节点NODE0′至NODEn′上。
具体地说,每个行为模型1801至180n具有如图25所示的关于这些节点NODE0′至NODEn′的每一个的状态变换表190,以便与分别形成它们自身的行为模型1801至180n的节点NODE0′至NODEn′的每一个相对应。
在这个状态变换表190中,在“输入事件名”这一行中按优先级顺序列举了在节点NODE0′至NODEn′中被认为是变换条件的输入事件(识别结果),和在“数据名”和“数据范围”行的相应列中描述了变换条件的其它条件。
因此,在图25中的状态变换表190所示的节点NODE100′中,当获得“检测到一个球”的识别结果的情况下,与识别结果一起给出的球的“尺寸”需要落在作为移动到其它节点的条件的“从0到1000”的范围内,或在获得“检测到一个障碍物”的识别结果的情况下,与识别结果一起给出的到障碍物的“距离”需要落在作为移动到其它节点的条件的“从0到100”的范围内。
此外,在节点NODE100′,即使在没有输入识别结果的情况下,当保存在行为模型1801至180n周期性地参照的情感模型183和本能模型184中的各种情感行为和各种欲望的参数值中的“喜悦”、“惊讶”或“悲痛”的任何一个的参数值在“从50到100”的范围内时,节点也可以移动到另一个节点。
并且,在这个状态变换表190中,在“到另一个节点的变换概率”列的“变换目标节点”行中,列举了可以从节点NODE0′至NODEn′移动到的节点的名称。并且,当在“输入事件名”、“数据名”和“数据范围”列中描述的所有条件都得到满足时,到节点可以移动到的其它节点NODE0′至NODEn′的每一个的变换概率分别描述在“到另一个节点的变换概率”列中的对应位置中。要根据到节点NODE0至NODEn的移动输出的动作描述在“到另一个节点的变换概率”列的“输出动作”行中。在这一方面,在“到另一个节点的变换概率”列的各行中的概率总和是100%。
于是,在图25所示的状态变换表190上表示的节点NODE100′中,例如,在给出其中球的“尺寸”落在“从0到1000”范围内的“检测到一个球”的识别结果的情况下,节点NODE100′可以有“30%”的概率移动到“节点NODE120′”,同时输出“动作1”的动作。
行为模型1801至180n是这样构成的,使分别在这样的状态变换表190中描述的节点NODE0′至NODEn′连接在一起。当从输入语义转换器模块166给出识别结果时,行为模型1801至180n通过使用相应节点NODE0′至NODEn′的状态变换表190随机地确定下一动作,并将确定结果输出到动作切换模块181。
动作切换模块181从行为模型库180的行为模型1801至180n输出的动作中,选择从预定优先级较高的行为模型1801至180n输出的动作,并将执行动作的命令(下文称之为动作命令)传送到中间件层150的输出语义转换器167。在本实施例中,将图23中较下面所述的行为模型1801至180n的优先级设置得较高。
动作切换模块181根据在动作完成之后输出语义转换器167给出的动作完成信息,通知学习模块182、情感模块183和本能模块184动作已经完成了。
另一方面,学习模块182输入由输入语义转换器56给出的识别结果的、诸如“受到打击”或“受到轻拍”之类作为动作从用户接收的教导的识别结果。
然后,根据这个识别结果和来自动作切换模块181的信息,学习模块182改变到行为模型1801至180n的变换概率,以便当“受到打击(批评)”时,降低动作的展示概率,和当“受到轻拍(表扬)”时,提高动作的展示概率。
对于包含“喜悦”、“悲痛”、“愤怒”、“惊讶”、“厌恶”和“害怕”的总共六种情感的每一种情感,情感模型183保存指示情感行为的强度的参数。情感模型183适用于根据由输入语义转换器模块166分别给出的诸如“受到打击”和“受到轻拍”等之类的具体识别结果、经过的时间、和来自动作切换模块181的信息等,依次更新这些情感行为的参数值。
具体地说,假设根据来自输入语义转换器166的识别结果和宠物机器人110此时的动作对情感行为的影响程度(预置)、本能模型184保存的、每种欲望的参数值和宠物机器人110此时的动作对情感行为的影响程度(预置)、从其它情感行为接收的抑制和刺激的程度、经过的时间等,通过预定运算表达式计算的情感行为的涨落量是(E(t)′,情感行为的当前参数值是E(t)′,和表达根据识别结果改变情感行为的比率(下文称之为“灵敏度”)的系数是ke′,对于预定间隔,情感模型73利用下列方程(4)计算下一间隔中情感行为的参数值E(t+1)′:
E(t+1)′=E(t)′+ke′×ΔE(t)′               (4)
然后,情感模型183用情感行为的当前参数值E(t)′替代计算的结果,从而更新情感行为的参数值。就与识别结果的每一个和来自动作切换模块181的信息有关的参数值而论,更新所有情感行为的哪个情感行为是事先确定的。例如,在给出“受到打击”的识别结果的情况下,升高“愤怒”的情感行为的参数值,在给出“受到轻拍”的识别结果的情况下,增大“喜悦”的情感行为的参数值。
相比之下,对于包含“运动欲”、“爱欲”、“食欲”和“好奇心欲”的彼此独立的四种欲望的每一种欲望,本能模型184保存了指示欲望强度的参数。然后,本能模型184适用于分别根据由输入语义转换器模块166给出的识别结果、经过的时间、和来自动作切换模块181的通知等,依次更新这些欲望的参数值。
具体地说,假设对于“运动”、“爱欲”、“食欲”和“好奇心”,根据宠物机器人110的动作输出、经过的时间、识别结果等,通过预定运算表达式计算的欲望的涨落量是(I(k)′,欲望的当前参数值是I(k)′,和指示欲望的灵敏度的系数是ki′,对于预定间隔,本能模型184通过利用下列方程计算下一间隔中欲望的参数值I(k+1)′:
I(k+1)′=I(k)′+ki′×ΔI(k)′                       (5)
用当前参数值I(k)′替代计算的结果,从而更新欲望的参数值。就与动作输出或识别结果等有关的参数值而论,改变哪个欲望是事先确定的。例如,当存在从动作切换模块181发送的通知(动作的信息)时,降低“运动欲望”的参数值。
进一步,至于“食欲”,根据通过输入语义转换器模块166给出的电池剩余量数据,假定电池剩余量数据是BL′,对于预定间隔,本能模型184按照下列方程计算“食欲”的参数值I(k)′:
I(k)′=100-BL′                             (6)
用食欲的当前参数值I(k)′替代计算的结果,从而更新“食欲”的参数值。
在本实施例中,调整情感行为和欲望的参数值,以便分别在1至100的范围内变化。并且,还对每种情感行为和对每种欲望分别设定关于系数ke′和ki′的值。
如图21所示,中间件层150的输出语义转换器模块167将由如上所述的应用层151的动作切换模块181发出的、诸如“前进”、“喜悦”、“吠叫”或“跟踪(追赶一个球)”之类的简短动作命令给予输出系统175的相应信号处理模块168至174。
然后,当将动作命令给予信号处理模块168至174时,这些信号处理模块168至174根据该动作命令,生成要给予致动器1351至135n(图19)以便采取动作的伺服命令值、从扬声器134(图19)输出的声音的音频数据/或给予用作“眼睛”的LED的驱动数据,并通过机器人服务器对象142的虚拟机器人143和信号处理电路124(图19)依次将这些数据传送到相应的致动器1351至135n、扬声器134、和LED。
以这样的方式,宠物机器人110被设计成根据控制程序,按照自身的和周围的条件以及来自用户的教导和做法实现自动动作。
(3-3)宠物机器人的成长模型
(3-3-1)动作的成长
下面描述安装在宠物机器人110上的成长功能。在这种宠物机器人110中,安装了按照来自用户的做法改变其动作的成长功能,仿佛真正动物不断成长似的。
具体地说,在宠物机器人110中,配备了包含“婴儿期”、“童年期”、“少年期”、“青年期”和成年期”等的五个“成长阶段”作为成长过程。在应用层151的行为模型库180(图22)中,分别配备了与“婴儿期”、“童年期”、“少年期”、“青年期”和成年期”对应的行为模型180k(1)至180k(5),作为关于与诸如上述“当电池剩余量越来越少”之类的各个条件项的、“行走状态”、“举止”、“动作”和“声音(吠叫)等四个项有关的所有条件项(下文称之为成长相关条件项)的、图26所示的行为模型180k。然后,针对行为模型库181中与成长有关的这些条件项,在初始时间通过应用“婴儿期”的行为模型模型180k(1)确定下一动作。
在这种情况中,“婴儿期”中的每个行为模型180k(1)具有少量的节点NODE0′至NODEn′(图24)。并且,从这些行为模型180k(1)输出的动作的内容等于诸如“按模式1向前行走(“婴儿期”的行走模式)”或“按模式1吠叫(“婴儿期”的吠叫模式)”之类与“婴儿期”的那些相对应的动作或动作的内容。
因此,宠物机器人110在初始时间按“婴儿期”的每种行为模型180k(1)动作和操作,例如,在“行走状态”中,用小步“蹒跚地行走”,在“举止”方面,做出诸如简单“行走”、“站立”、和“睡觉”之类的“简单举止”,在“动作”方面,通过重复相同的动作做出“单调的”动作,和在“声音”方面,生成“小而短”的吠叫。
此时,应用层151的学习模块182(图22)保存表示其中的“成长”程度的参数(下文称之为成长参数),并根据从输入语义转换器模块166给出的识别结果、经过的时间信息等,按照来自用户的、诸如“受到轻拍”或“受到打击”之类的动作(教导)的次数、经过的时间等,依次更新成长参数的值。
然后,每当接通宠物机器人110的电源时,学习模块718就估算成长参数的值。当上述的值超过预定阈值使得与“童年期”相对应时,学习模块182就将其通知行为模型库180。当发出这个信息时,行为模型库180将分别用于上述成长相关条件项的行为模型改变成“童年”的行为模型180k(2)
此时,“童年期”的每个行为模型180k(2)具有数量比“婴儿期”的行为模型180k(1)多的节点NODE0′至NODEn′。并且,从这些行为模型180k(2)输出的动作的内容也比“婴儿期”的动作的内容在程度上更加困难和更加复杂(成长程度)。
因此,宠物机器人110此后按照这些行为模型180k(2)动作和操作,以便,例如,在“行走状态”方面,通过提高各个致动器1351至135n(图19)的转速“稍微安稳地行走”,  在“举止”方面,通过增加动作数做出“稍微高级一点和更加复杂一点”的举止,在“动作”方面,具有“稍微有目的性一点”的动作,和在“声音”方面,具有“稍微长一点和大一点”声音。
进一步,每当成长参数的值超过分别预定的阈值,使得与“少年期”、“青年期”和“成年期”相对应时,学习模块184就以与上述情况相似的方式将其通知给行为模型库181。并且,每当发出这个信息时,行为模型库181就分别针对上述成长相关条件项,将行为模型依次改变成“少年期”、“青年期”和“成年期”的行为模型180k(3)至180k(5)
此时,随着“成长阶段”不断提高,“少年期”、“青年期”和“成年期”的每个行为模型180k(3)至180k(5)的节点数NODE0′至NODEn′也不断增多。并且,随着“成长阶段”不断提高,从运些行为模型180k(3)至180k(5)输出的动作的内容也在程度上更加困难和更加复杂。
因此,随着宠物机器人110的“成长阶段”不断提高(换言之,当“婴儿期”改变到“童年期”、“童年期”改变到“少年期”、“少年期”改变到“青年期”、和“青年期”改变到“成年期”时),依次逐步地,“行走状态”从“蹒跚行走”改变成“安稳行走”,“举止”从“简单的举止”改变成“高级复杂的举止”,“动作”从“单调动作”改变成“有目的的动作”和“声音”从“小而短的声音”改变成“长而大的声音”。
如上所述,在这种宠物机器人110中,动作和操作被设计成按照用户发出的教导和经过的时间分“婴儿期”、“童年期”、“少年期”、“青年期”和“成年期”五个阶段“成长”。
在本实施例中,宠物机器人110的成长模型是在“青年期”之后分出来的模型,如图27所示。
具体地说,在宠物机器人110的情况中,在应用层151(图22)的行为模型库180中准备了多个行为模型,分别作为关于上述成长相关条件项的、“少年期”、“青年期”和“成年期”的行为模型180k(3)至180k(5)
实际上,作为,例如,成长相关条件项的“少年期”的行为模型,准备了做出其举止既粗心大意又匆匆忙忙的“粗野”性格的动作的行为模型(少年1′),和做出其举止比前者更平稳更缓慢的“温和”性格的动作的行为模型(少年2′)。
进一步,作为“青年期”的行为模型,准备了做出比“少年期”的“粗野”所做的更粗心大意更匆匆忙忙的“鲁莽”性格的动作的行为模型(青年1′),做出其举止比“青年1′”更平稳更缓慢的的“普通”性格的动作和操作的行为模型(青年2′),和做出其举止比“青年2′”更缓慢和其举止量更少的“温和”性格的动作的行为模型(青年3′)。
更进一步,作为“成年期”的行为模型,准备了做出其举止比“青年期”的“鲁莽”性格所做的更粗心大意更匆匆忙忙的非常易激动的和“攻击性”的性格的动作的行为模型(成年1′),做出其举止比“成年1′”所做的更平稳更缓慢的易激动和“粗野”性格的动作的行为模型(成年2′),做出其举止比“成年2′”所做的更平稳更缓慢和举止量更少的“温和”性格的动作的行为模型(成年3′),和做出其举止比“成年3′”还更缓慢和举止更少的“文静”性格的动作的行为模型(成年4′)。
然后,当应用层151的学习模块182(图22)将提高“成长阶段”的信息提供给行为模型库151时,如上所述,学习模块182在“少年期”之后的“成长阶段”中,根据“受到打击”和“受到轻拍”的次数等,从各种性格中指定使用哪一种性格,和从行为模型少年1′、少年2′、青年1′至青年3′、和成年1′至成年4′中指定使用哪一种行为模型作为成长相关条件项的行为模型。
结果是,行为模型库180根据这种指定,将在“少年期”之后使用的行为模型改变成分别为成长相关条件项指定的“性格”的行为模型。
在这种情况中,在“少年期”之后,当移动到下一“成长阶段”时,下一“成长阶段”中的“性格”由当前“成长阶段”中的“性格”确定。在图27中,性格只能改变成由箭头连接在一起的“性格”的另一种性格。于是,例如,在“粗野”性格的行为模型(少年1′)被应用在“少年期”中的情况下,它就不能改变成“青年期”中的“温和”性格的行为模型(青年3′)。
如上所述,这种宠物机器人110被设计成按照来自用户的做法等,随着“不断成长”而改变其“性格”,仿佛真正动物的性格通过主人的饲养方法形成似的。
(3-3-2)情感和本能的成长
除了上面的结构之外,在宠物机器人110的情况中,情感和本能被设计成随着上述动作“成长”而“成长”。
更具体地说,在宠物机器人110的情况中,在应用层151的情感模型183(图22)中,存储着文件(下文称之为情感参数文件)200A至200E,其中分别描述了如图29(A)至29(E)所示的、与每个“成长阶段”的每种情感模型有关的方程(1)的系数ke′的值。
情感模型183被设计成,在初始时间(即,“成长阶段”是“婴儿期”的阶段),通过使用在关于“婴儿期”的情感参数文件200A中描述的系数ke′的值,根据方程(4)分别周期性地更新情感行为的参数值。
进一步,每当“成长阶段”提高时,如在行为模型库180(图22)中的情况中那样,学习模块182就将通知阶段已提高的信息提供给情感模型183。然后,每当提供这种信息时,情感模型183就将关于各种情感行为的、方程(4)的系数ke′的值分别更新成在相应“成长阶段”的情感参数文件200B至200E中描述的相应参数。
同时,例如,在“婴儿期”中,除了“喜悦”和“害怕”之外所有其它情感行为的系数ke′的值都被设置成“0”,这可从图29(A)明显看出。于是,在“婴儿期”中,情感行为的参数值周期性地变更的只有“喜悦”和“害怕”的情感行为。由于其它情感行为的参数值总是保持不变,因此,除了“喜悦”和“害怕”之外的情感行为受到抑制。结果是,在“婴儿期”中,六种情感行为中,只有“喜悦”和“害怕”才可以被表达为动作(换言之,六种情感行为中,只有“喜悦”和“害怕”的各个参数值才可以被应用于生成动作)。
进一步,如图29(B)所示,在“童年期”中,除了“喜悦”、“害怕”和“愤怒”之外所有其它情感行为的系数ke′的值都被设置成“0”。于是,在“童年期”中,各个情感行为的参数值周期性地变更的只限于“喜悦”、“害怕”和“愤怒”的情感行为。由于其它情感行为的参数值总是保持不变,因此,除了“喜悦”、“害怕”  和“愤怒”之外的情感行为受到抑制。结果是,在“童年期”中,六种情感行为中,只有“喜悦”、“害怕”和“愤怒”才可以被表达为动作。
类似地,如图29(C)至29(E)所示,在“少年期”中只有“喜悦”、“害怕”、“愤怒”和“惊讶”的情感行为被表达成动作,和在“青年期”和“成年期”中所有情感行为都可以被表达成动作。
如上所述,在宠物机器人110中,随着“成长阶段”不断提高,可以表示成动作的情感行为数(生成动作所使用的情感行为数)也不断增大。因此,随着动作的“成长”,情感也可以“成长”。
与上述类似,在应用层151的本能模型184(图22)中,存储着文件(下文称之为本能参数文件)201A至201E,其中描述了如图30(A)至30(E)所示的、与每个“成长阶段”的每种欲望有关的方程(5)的系数ki′的值。
本能模型184被设计成,在初始时间(即,“成长阶段”是“婴儿期”的阶段),通过使用在“婴儿期”的本能参数文件201A中描述的系数ki′的值,根据式(5)分别周期性地更新各个欲望的参数值。
进一步,每当“成长阶段”提高时,如在情感模块183的情况中那样,将这个情况告知本能模型184的通知从学习模块182(图22)传送到本能模型184。然后,每当提供这个通知时,本能模型184就将关于每种欲望的、式(5)中的系数ki′的值更新成在相应“成长阶段”的本能参数文件201B至201E中描述的相应值。
同时,在“婴儿期”中,从图30(A)可明显看出,除了“食欲”之外所有其它欲望的系数ke′的值都被设置成“0”。于是,在“婴儿期”中,欲望的参数值周期性地变更的只限于“食欲”。由于其它欲望的参数值总是保持不变,因此,除了“食欲””之外的欲望都受到抑制。结果是,在“婴儿期”中,四种欲望中,只有“食欲”才可以被表达为动作(换言之,四种欲望中,只有“食欲”的各个参数值才可以被应用于生成动作)。
进一步,在“童年期”中,从图30(B)可明显看出,除了“食欲”和“爱欲”之外所有其它欲望的系数ki′的值都被设置成“0”。于是,在“童年期”中,各个欲望的参数值周期性地变更的只限于“食欲”和“爱欲”,其它欲望的参数值总是保持不变。结果是,在“童年期”中,除了“食欲”和“爱欲”之外的欲望都受到抑制,和四种欲望中,只有“食欲”和“爱欲”才可以被表达为动作。
类似地,如图30(C)至30(E)所示,在“少年期”中,“食欲”、“爱欲”、和“好奇心”的欲望被表达成动作,和在“青年期”和“成年期”中所有欲望都可以被表达成动作。
如上所述,在宠物机器人110中,随着“成长阶段”不断提高,可以表达成动作的欲望数(生成动作所使用的欲望数)也不断增大。因此,随着动作的“不断成长”,也可以使本能“不断成长”。
(3-4)第三实施例的操作和效果
具有上述结构的宠物机器人110在初始时间可以只将六种情感行为和四种欲望的一部分情感行为和欲望表达成动作。然后,随着“成长阶段”不断提高,可以表达成动作的情感行为数和欲望数也不断增大。
于是,由于宠物机器人110的情感和本能也随着动作的“不断成长”而“成长”,因此,可以更生物化地和更自然地表达“成长”,用户可以享受其中的过程。
进一步,由于宠物机器人110的情感和本能模型首先从两个简单的情感行为和一个欲望开始,用户可以轻而易举地领会宠物机器人110的动作。然后,当用户习惯了情感和本能模型时,情感和本能模型一点一点地变得复杂,使用户在每个“成长阶段”都能够容易地理解或适应情感和本能模型。
根据上述的结构,由于在初始时间,六种情感行为和四种欲望中只有一部分情感行为和欲望才可以被表达成动作。和随后,随着“成长阶段”不断提高,可以表达成动作的情感行为和欲望的数目也不断增大,因此,可以更生物化地和更自然地表达“成长”,以便可以实现能够提高娱乐性的宠物机器人。
(3-5)其它实施例
在上述的第三实施例中,尽管已经描述了本发明应用于四腿行走型宠物机器人的情况,但应该注意到,本发明并不仅限于此,而是可以广泛应用于,例如,两条腿机器人或其它各种类型机器人设备中。
进一步,在上述的第三实施例中,尽管已经描述了将情感模型183和本能模型184用作限制用于生成动作的情感行为或欲望的数目以便逐步递增的限制装置的情况,但显然本发明并不仅限于此,在例如行为模型库180或学习模块182中可以限制用于生成动作的情感行为或欲望的数目以便逐步递增。
更进一步,在上述的第三实施例中,尽管已经描述了根据外部施加的预定刺激(例如,“打击”或“轻拍”)和经过的时间限制用于生成动作的情感行为或欲望的数目以便逐步递增的情况,但应该注意到,本发明并不仅限于此,除此之外或取而代之,根据上述条件之外的其它条件(例如,可以成功地做出所希望的动作),限制用于生成动作的情感行为或欲望的数目以便逐步递增。
更进一步,在上述的第三实施例中,尽管已经描述了在包含“婴儿期”、“童年期”、“少年期”、“青年期”和“成年期”的五个阶段的过程中递增情感行为或欲望的数目以便适应动作的“成长”的情况,但应该认识到,本发明并不仅限于此,可以提供除了它们之外的其它“成长阶段”。
更进一步,在上述的第三实施例中,尽管已经描述了在动作库180中提供了多个行为模型1801至180n,作为根据情感行为和欲望的各个参数值和行为模型1801至180n生成动作的动作生成装置的情况,但应该认识到,,本发明并不仅限于此,动作可以根据一个行为模型生成,和各种类型的其它结构可以广泛应用于动作生成装置的结构。
更进一步,在上述的第三实施例中,尽管已经描述了根据预定刺激(例如,“打击”或“轻拍”)和经过的时间将行为模型180k(1)至180k(n)改变成成长级更高的行为模型180k(2)至180k(n)的行为模型改变装置包括学习模块182和行为模型库180的情况,但显然本发明并不仅限于此,可以广泛应用各种类型的其它结构。
更进一步,在上述的第三实施例中,尽管已经描述了作为情感行为,提供了包含“喜悦”、“悲痛”、“愤怒”、“惊讶”、“厌恶”和“害怕”的六种情感行为,和作为欲望,提供了包含“运动”、“爱欲”、“食欲”和“好奇心”的四种欲望,但应该注意到,本发明并不仅限于此,各种各样的类型和各种各样的数目都可以广泛地应用于情感行为和欲望的类型和数目。
(4-1)第四实施例
(4-1)根据第四实施例的宠物机器人205的结构
在图18中,标号205总体表示根据第四实施例的宠物机器人,除了欲望和情感行为的敏感度随着周围的条件或来自用户的做法等而改变这一点之外,它的结构与根据第三实施例的宠物机器人110相同。
具体地说,在第三实施例的宠物机器人110中,当按如上所述更新情感或本能时,使用了方程(4)或(5)。但是,该更新此时所依赖的外部输出(来自各种类型传感器的传感器数据、图像数据、音频数据等)很大程度上依赖于宠物机器人110所处的环境或用户对待宠物机器人的方式。
例如,在用户频繁地“打击”宠物机器人或几乎不“轻拍”宠物机器人的情况下,宠物机器人110被引入到大多数时间内加强“愤怒”的情感的状态,因为它“受到了打击”,使得当它只出乎意料之外地“受到轻拍”时,“喜悦”的情感也不能被表达成动作或操作。因此,对于处在这样的状态下的宠物机器人110,将对“喜悦”的灵敏度提高到大于“愤怒”的灵敏度,使得表达成动作或操作的情感的数目和类型需要得到不偏不倚地调整。
因此,在根据第四实施例的宠物机器人205中,在长时间内分别独立地累计每种情感行为和每种欲望的参数值,在参数之间将这些累计值作相互比较,和当累计值相对于总数的比例极大或极小时提高或降低情感行为或欲望的灵敏度,使得所有的情感行为和欲望可以均等地表达成动作或操作,以便适应环境或用户对待宠物机器人的方式。
实际上,在宠物机器人205中,图22所示的应用层206的情感模型207按照下列数学式,每隔预定间隔ΔT′(例如,每隔1或2分钟),依次计算最终接通电源之后关于各种情感行为的参数值的累计值和最终接通电源之后经过的时间Tall″:
Ek″=Ek′+Ek(t)′×ΔT′                                (7)
Tall″=Tall′+ΔT′                                       (8)
在上面公式中,假定那个时候情感行为的参数值是Ek(t)′,最终接通电源之后直到那个时候情感的参数值的累计值是Ek′,和最终接通电源之后直到那个时候经过的时间是Tall′。
进一步,一旦停止接通宠物机器人205的电源(一旦关闭系统),情感模型207就累计每种情感行为的累计值Ek″和经过时间的累计值Tall″,分别具有存储在分别准备好的文件(下文称之为总情感行为累计值文件)中的总累计值Ek(TOTAL)关于每个情感值的相应总累计值Ek(TOTAL)、或总累计值Tall(TOTAL),并存储这些总累计值。
然后,每当接通宠物机器人205的电源时,情感模型207就从总情感行为累计值文件中读出经过时间的总累计值Tall(TOTAL)。当总累计值Tall(TOTAL)超过预定阈值(例如,10小时)时,估算存储在总情感行为累计值文件中的每种情感行为的总累计值Ek(TOTAL)。具体地说,通过计算情感行为的总累计值Ek(TOTAL)相对于每种情感行为的总累计值Ek(TOTAL)的总值(∑Ek(TOTAL))的比率进行估算。
然后,当情感行为的总累计值Ek(TOTAL)的比率低于情感行为的预定阈值时,情感模型207将上面参照图28(A)至28(E)所述的情感参数文件200A至200E的相应“成长阶段”的情感参数文件200A至200E中描述的情感行为的系数ke′升高规定值(例如,0.1)。当它低于阈值时,将这个系数ke′的值降低预定值(例如,0.1)。情感模型207就这样调整指示情感行为灵敏度的系数ke′。
对于每种情感行为,可以将阈值设置得稍微有点容限,使得每个机器人的个性不会受到损害。在本实施例中,例如,就“喜悦”的情感行为而论,设置成相对于每种情感行为的总累计值Ek(TOTAL)的总值(∑Ek(TOTAL))为10%至50%,就“悲痛”而论,设置成相对于总值为5%至20%,和就“愤怒”而论,设置成相对于总值为10%至60%。
进一步,当情感模型207对所有的情感行为完成同一处理时,情感模型207将每种情感行为的总累计值Ek(TOTAL)和经过时间的总累计值Tall(TOTAL)复位成“0”。然后,在情感模型207通过使用对每种情感行为新确定的系数ke′,按照方程(4)改变每种情感行为的参数值的同时,情感模型207按照方程(7)重新开始累计每种情感行为的参数值和经过的时间,然后,重复与如上所述相同的处理。
如上所述,在宠物机器人205中,每种情感行为的灵敏度得到了改变,使得所有情感行为都可以被均等地表达成动作或操作,以便适应环境或用户对待宠物机器人的方式。
与上述类似,本能模型208(图22)按照下列数学式,每隔预定间隔ΔT′(例如,每隔1或2分钟),依次计算最终接通电源之后关于各种欲望的参数值的累计值Ik″和按照方程(8)依次计算最终接通电源之后经过时间的累计值Tall″:
Ik″=Ik′+Ik(t)′×ΔT′                           (9)
在上面方程中,假定那个时候欲望的参数值是Ik(t)′,最终接通电源之后直到那个时候欲望的参数值的累计值是Ik′。
进一步,一旦停止接通宠物机器人205的电源,本能模型208就将每种欲望的累计值Ik″和经过时间的累计值Tall″分别与存储在分别准备好的文件(下文称之为总欲望累计值文件)中的总累计值Ik(TOTAL)关于每个欲望的相应总累计值Ik(TOTAL)、或经过时间的总累计值Tall(TOTAL)进行累计,并存储这些总累计值。
然后,每当接通宠物机器人205的电源时,本能模型208就从总欲望累计值文件中读出经过时间的总累计值Tall(TOTAL)。当总累计值Tall(TOTAL)超过预定阈值(例如,10小时)时,估算存储在总欲望累计值文件中的每种欲望的总累计值Ik(TOTAL)。具体地说,通过计算欲望的总累计值Ik(TOTAL)相对于每种欲望的总累计值Ik(TOTAL)的总值(∑Ik(TOTAL))的比率进行估算。
然后,当情感行为的总累计值Ik(TOTAL)的比率低于对欲望的预定阈值时,本能模型208将上面参照图30(A)至30(E)所述的欲望参数文件201A至201E的相应“成长阶段”的欲望参数文件201A至201E中描述的欲望的系数ki′升高规定值(例如,0.1)。当它低于阈值时,将这个系数ki′的值降低预定值(例如,0.1)。对于如上所述的每种欲望,可以将此时的阈值设置得稍微有点容限。
进一步,当本能模型208对所有的欲望完成相同处理时,本能模型208将存储在总欲望累计值文件中的每种欲望的总累计值Ik(TOTAL)和经过时间的总累计值Tall(TOTAL)复位成“0”。然后,在本能模型208通过使用对每种欲望新确定的系数ki′,按照式(5)改变每种欲望的参数值的同时,本能模型208按照式(9)重新开始累计每种欲望的参数值和经过的时间,然后,重复与如上所述相同的处理。
如上所述,在宠物机器人205中,每种欲望的灵敏度得到了改变,使得所有欲望都可以被均等地表达成动作或操作,以便适应环境或用户对待宠物机器人的方式。
(4-2)第四实施例的操作和效果
在具有上述结构的宠物机器人205中,分别依次地累计每种情感行为和每种欲望的参数值,并根据累计结果,每隔规定间隔ΔT′改变每种情感行为和每种欲望的灵敏度。
于是,在宠物机器人205中,所有的欲望都可以被均等地表达成动作或操作,以便适应环境或用户对待宠物机器人的方式。因此,与第三实施例中的宠物机器人110相比,这种宠物机器人205具有更高的娱乐性。
借助于上述结构,依次地累计每种情感行为和每种欲望的参数值,并根据累计结果,每隔规定间隔ΔT′改变每种情感行为和每种欲望的灵敏度。于是,所有的欲望都可以被均等地表达成动作或操作,以便适应环境或用户对待宠物机器人的方式。因此,可以实现能够使娱乐性提高许多的宠物机器人。
(4-3)其它实施例
在上述的第四实施例中,尽管已经描述了本发明应用于四腿行走型宠物机器人205的情况,但应该注意到,本发明并不仅限于此,而是可以广泛应用于,例如,两条腿机器人或除此之外其它各种类型机器人设备中。
进一步,在上述的第四实施例中,尽管已经描述了将情感模型207和本能模型208用作限制用于生成动作的情感行为或欲望的数目以便逐步递增的限制装置的情况,但显然本发明并不仅限于此,在例如行为模型库180或学习模块182中可以限制用于生成动作的情感行为或欲望的数目以便逐步递增。
更进一步,在上述的第四实施例中,尽管已经描述了根据外部施加的预定刺激(例如,“打击”或“轻拍”)和经过的时间限制用于生成动作的情感行为或欲望的数目以便逐步递增的情况,但应该注意到,本发明并不仅限于此,除此之外或取而代之,根据上述条件之外的其它条件(例如,可以成功地做出所希望的动作),限制用于生成动作的情感行为或欲望的数目以便逐步递增。
更进一步,在上述的第四实施例中,尽管已经描述了情感行为和欲望的数目以如图29(A)或29(B)所示那样的次序递增的情况,但本发明并不仅限于此,情感行为或欲望的数目可以以除上面次序之外的其它次序递增。
更进一步,在上述的第四实施例中,尽管已经描述了情感行为和欲望的数目在包含“婴儿期”、“童年期”、“少年期”、“青年期”和“成年期”的五个阶段的过程中递增以便适应动作的“成长”的情况,但应该认识到,本发明并不仅限于此,而是可以配备除它们之外的“成长阶段”。
更进一步,在上述的第四实施例中,尽管已经描述了用于生成动作的情感行为和欲望的数目依次递增的情况,但显然本发明并不仅限于此,而是用于生成动作的情感行为和欲望的数目可以从中途开始递增或递减(例如,在“成年期”之后可以提供诸如“老年期”之类的“成长阶段”,使得当“成长阶段”移动到“老年期”时,减少欲望的数目)。
更进一步,在上述的第四实施例中,尽管已经描述了在动作库180中提供了多个行为模型1801至180n,作为根据情感行为和欲望的各个参数值和行为模型1801至180n生成动作的动作生成装置的情况,但应该认识到,本发明并不仅限于此,而是可以根据一个行为模型生成动作,和各种类型的其它结构可以广泛应用于动作生成装置的结构。
更进一步,在上述的第四实施例中,尽管已经描述了根据预定刺激(例如,“打击”或“轻拍”)和经过的时间将行为模型180k(1)至180k(5)(图26)改变成成长级更高的行为模型180k(2)至180k(5)的行为模型改变装置包括学习模块182和行为模型库180的情况,但显然本发明并不仅限于此,而是可以广泛应用各种类型的其它结构。
更进一步,在上述的第四实施例中,尽管已经描述了作为情感行为,提供了包含“喜悦”、悲痛”、“愤怒”、“惊讶”、“厌恶”和“害怕”的六种情感行为,和作为欲望,提供了包含“运动”、“爱欲”、“食欲”和“好奇心”的四种欲望,但应该注意到,本发明并不仅限于此,各种各样的类型和各种各样的数目都可以广泛地应用于情感行为和欲望的类型和数目。
更进一步,在上述的第四实施例中,尽管已经描述了作为情感行为或欲望更新装置的情感模型207和本能模型208根据外部施加的刺激和经过的时间更新各个情感行为和欲望的参数值的情况,但应该认识到,本发明并不仅限于此,可以根据除上面条件之外的其它条件更新各个情感行为和欲望的参数值。
更进一步,在上述的第四实施例中,尽管已经描述了通过作为灵敏度改变装置的情感模型207和本能模型208改变式(4)或(9)的系数ke′或ki′的值,作为分别更新对每种情感模型或每种欲望的灵敏度的方法的情况,但显然本发明并不仅限于此,而是可以通过除上面方法之外的其它方法更新对每种情感模型或每种欲望的灵敏度。
并且,在上述的第四实施例中,尽管已经描述了根据依次更新的情感行为或欲望的参数值的总累计值Ek(TOTAL)或Ik(TOTAL)相对于所有情感行为或欲望的参数值的总累计值Ek(TOTAL)或Ik(TOTAL)的总值(ΔEk(TOTAL)、ΔIk(TOTAL))的比率,估算环境的情况,但应该注意到,本发明并不仅限于此,而是可以根据诸如“打击”或“轻拍”之类的特定外部刺激的次数或频率估算环境,和除了上面方法之外的其它各种各样的方法都可以广泛地用作估算环境的方法。
(5)第五实施例
现在利用附图详细描述第五实施例。本发明可应用于象四足动物那样动作的宠物机器人。
如图31所示,宠物机器人包括检测装置215,用于检测来自另一个宠物机器人的输出;性格判别装置216,用于根据检测装置215所得的检测结果判别其它宠物机器人的性格;和性格改变装置217,用于根据性格判别装置216所得的判别结果改变性格。
因此,宠物机器人根据检测装置215所得的、来自其它宠物机器人的输出的检测结果,通过性格判别装置216判别其它机器人设备的性格。宠物机器人能够根据其它宠物机器人的性格的判别结果,通过性格改变装置217改变它自己的性格。
如后面所详细描述的,检测装置215检测由其它宠物机器人的动作所表达的情感等,和性格改变装置217通过改变确定从情感推出来的、宠物机器人本身的动作的情感模型的参数等来改变性格。
宠物机器人能够按如上所述,根据其它宠物机器人的动作等,改变它自己的性格。
因此,宠物机器人具有塑造得象真正动物的性格那样的性格,并可以根据性格动作。
现在,对本发明所应用的宠物机器人的具体结构加以描述。
(5-1)宠物机器人的结构
宠物机器人210总体上如图32所示那样构成,并通过耦合相应于头部的头部单元211、相当于躯干的主体单元212、相当于腿部的腿部单元213A至213D、和相当于尾部的尾部单元214组合在一起,使得宠物机器人210通过移动相对于主体单元212的头部单元211、腿部单元213A至213D、和尾部单元214,象真正的四足动物那样动作。
附在头部单元211的预定位置上的是相当于眼睛的、由例如拾取图像用的CCD(电荷耦合器件)摄像机组成的图像识别部分220、收集声音用的、相当于耳朵的麦克风221、和发出声音用的、相当于嘴巴的扬声器222。并且,附在头部单元211上的还有通过遥控器(未示出)接收从用户发送的命令的遥控器接收器223、检测用户用手等触摸的触摸传感器224、和显示内部生成的图像的图像显示器225。
电池231附在主体单元212相当于腹部侧的位置上,电子线路(未示出)容纳在主体单元212中用于总体控制宠物机器人210的动作。
腿部单元213A至213D的关节部分、腿部单元213A至213D与主体单元212之间的连接部分、头部单元211与主体单元212的连接部分、尾部单元214与主体单元212之间的连接部分等分别连接到在容纳在主体单元212中的电子线路的控制下驱动的致动器233A至233N。通过驱动致动器233A至233N,让宠物机器人210在向上、向下、向左、向右摇摆头端单元211,摆动尾部单元214,和通过移动腿部单元213A至213N行走和奔跑的同时,按如上所述象真正动作那样动作。
(5-2)宠物机器人210的电路结构
这里利用图33对宠物机器人210的电路结构加以描述。头端单元211含有包括麦克风221和遥控器接收器223的命令接收部分240、包括图像识别部分220和触摸传感器224的外部传感器241、扬声器222和图像显示器225。并且,主体单元212含有电池231,和包括总体控制宠物机器人210的动作的控制器242和内部传感器245,内部传感器245包括检测电池231的剩余量的电池传感器243和检测宠物机器人210中产生的热量的热量传感器244。此外,致动器233A至233N分别位于宠物机器人210中的预定位置上。
命令接收部分240用于接收用户向宠物机器人210发出的命令,例如,象“行走”、“俯卧”和“追赶一个球”之类的命令,并由遥控器接收器223和麦克风221构成。当通过用户的操作输入所需命令时,遥控器(未示出)将与上述输入命令相对应的红外线发射到遥控器接收器223。一旦接收到红外线,遥控器接收器223就生成接收信号SIA,并将这个信号发送到控制器242。当用户发出与所需命令相对应的声音时,麦克风221收集用户发出的声音,生成音频信号,并将这个信号发送到控制器242。响应用户向宠物机器人210发出的命令,命令接收部分240生成包括接收信号SIA和音频信号SIB的命令信号S1,并将该命令信号提供给控制器242。
外部传感器241的触摸传感器224用于检测从用户到宠物机器人210的刺激,例如,“轻拍”或“打击”的刺激,和当用户通过触摸上述的触摸传感器224作出所需的刺激时,触摸传感器224生成与上述刺激相对应的触摸检测信号S2A,并将这个信号发送到控制器242。
外部传感器241的图像识别部分220用于检测宠物机器人210周围的环境的判别结果,例如,诸如“黑暗”或“存在喜爱的玩具”之类的周围环境信息,或诸如“另一个宠物机器人正在奔跑”之类的另一个宠物机器人的举止,拍摄上述宠物机器人210周围的图像,和将最后获得的图像信号S2B发送到控制器242。这个图像识别部分220捕获表达其它宠物机器人的情感的动作。
外部传感器241响应如上所述宠物机器人210之外给出的外部信息,生成包括触摸检测信号S2A和图像信号S2B的外部信息信号S2,并将该外部信息信号发送到控制器242。
内部传感器2453用于检测宠物机器人210自身的内部条件,例如,意味着电池容量下降了的“饥饿”、或“发烧”的内部条件,并由电池传感器243和热传感器244构成。
电池传感器243用于检测将电能供应给宠物机器人210的每个电路的电池231的剩余量,并将电池容量检测信号S3A发送到控制器242,作为检测结果。热传感器244用于检测宠物机器人210中的热量,并将热检测信号S3B发送到控制器242,作为检测结果。内部传感器245生成与如上所述的宠物机器人210的内部信息相对应的、包括电池容量检测信号S3A和热检测信号S3B的内部信息信号S3,并将该内部信息信号S3发送到如上所述的控制器242。
根据命令接收部分240提供的命令信号S1、外部传感器241提供的外部信息信号S2和内部传感器245提供的内部信息信号S3,控制器242生成驱动致动器233A至233N的控制信号S5A至S5N,并将控制信号发送到致动器233A至233N,从而使宠物机器人210动作。
同时,控制器242生成必要时输出到外面的音频信号S10和图像信号S11,并通过扬声器222将音频信号S10输出到外面和将图像信号S11发送到图像显示器225,将所需信息通知给用户,从而在显示器上提供所需图像。
(5-3)控制器中的数据处理
现在,对在控制器242中进行的数据处理加以描述。按照预先存储在预定存储区中用作软件的程序,控制器242处理命令接收部分240提供的命令信号S1、外部传感器241提供的外部信息信号S2和内部传感器245提供的内部信息信号S3,并将最后获得的控制信号S5提供给致动器23。
用于数据处理的控制器242的功能可分成用作情感和本能模型改变装置的情感和本能模型部分250、用作动作条件确定装置的行为确定机构部分251、用作姿势变换装置的姿势变换机构部分252、和控制机构部分253,如图34所示,控制器242将外部提供的命令信息S1、外部信息信号S2和内部信息信号S3输入给情感和本能模型部分250和行为确定机构部分251。
情感和本能模型部分250含有基本情感组260和基本欲望组261,基本情感组260包括采用作数个独立情感模型的情感单元260A至260C,基本欲望组261包括采用作数个独立欲望模型的欲望单元261A至261C。在基本情感组260中,情感单元260A表达“喜悦”的情感,情感单元260B表达“悲痛”的情感,和情感单元260C表达“愤怒”的情感。
情感单元260A至260C将情感的程度表达成例如,从0级到100级的强度,并根据提供的命令信号S1、外部信息信号S2和内部信息信号S3,逐分钟逐分钟地改变情感的强度。因此,情感和本能模型部分250通过组合逐分钟逐分钟地改变的情感单元260A至260C的强度,表达宠物机器人210的情感状态,从而模拟情感随时间的变化。
在基本欲望组261中,欲望单元261A表达“食欲”的欲望,欲望单元261B表达“睡觉的欲望”的欲望,和欲望单元261C表达“运动的欲望”的欲望。和情感单元260A至260C一样,欲望单元261A至261C将欲望的程度表达成例如,从0级到100级的强度,并根据提供的命令信号S1、外部信息信号S2和内部信息信号S3,逐分钟逐分钟地改变欲望的强度。因此,情感和本能模型部分250通过组合逐分钟逐分钟地改变的欲望单元261A至261C的强度,表达宠物机器人210的本能状态,从而模拟本能随时间的变化。
情感和本能模型部分250根据包括命令信号S1、外部信息信号S2和内部信息信号S3的输入信息S1至S3,按如上所述改变情感单元260A至260C和欲望单元261A至261C的强度。情感和本能模型部分250通过组合情感单元260A至260C改变后的强度确定情感状态,和通过组合欲望单元261A至261C改变后的强度确定本能状态,并将确定的情感状态和本能状态发送到行为确定机构部分251,作为情感和本能状态信息S10。
情感和本能模型部分250组合基本情感组260中所需的情感单元以便相互抑制和刺激,从而当其它情感单元的强度发生改变时改变组合的情感单元之一的强度,和实现具有自然情感的宠物机器人210。
具体地说,如图36所示,情感和本能模型部分250将“喜悦”情感单元260A与“悲痛”情感单元260B相组合,以便相互抑制,从而当宠物机器人210受到用户表扬时,提高“喜悦”情感单元260A的强度,和即使此时不提供改变“悲痛”情感单元260B强度的输入信息S1至S3,也随着“喜悦”情感单元260A的强度不断提高降低“悲痛”情感单元260B的强度。类似地,当提高“悲痛”情感单元260B的强度时,情感和本能模型部分250随着“悲痛”情感单元260B的强度不断提高自然地降低“喜悦”情感单元260A的强度。
并且,情感和本能模型部分250将“悲痛”情感单元260B与“愤怒”情感单元260C相组合,以便相互刺激,从而当宠物机器人210受到用户批评时,提高“愤怒”情感单元260C的强度,和即使此时不提供提高“悲痛”情感单元260B强度的输入信息S1至S3,也随着“愤怒”情感单元260C的强度不断提高,提高“悲痛”情感单元260B的强度。当“悲痛”情感单元260B的强度得到提高时,情感和本能模型部分250随着“悲痛”情感单元260B的强度不断提高类似地提高“愤怒”情感单元260C的强度。
与情感单元260被相互组合的情况一样,情感和本能模型部分250组合基本欲望组261中所需的欲望单元,以便相互抑制或刺激,从而当其它欲望单元的强度发生改变时改变组合的欲望单元之一的强度,和实现具有自然欲望的宠物机器人210。
返回到图34,将代表宠物机器人210本身的当前动作或过去动作,例如,“行走了很长时间”的动作信息S12从处在后一级上的行为确定机构部分251供应给情感和本能模型部分250,使得情感和本能模型部分250即使在给出相同的输入信息S1至S3时,也生成视上述动作信息S12所代表的宠物机器人的动作而不同的情感和本能状态信息S10。
具体地说,如图37所示,情感和本能模型部分250含有处在情感单元260A至260C前一级上的强度提高/降低功能块265A至265C,并生成强度信息S14A至S14C,以根据代表宠物机器人210的动作的动作信息S12和输入信息S1至S3提高和/或降低情感单元260A至260C的强度,和与从上述强度提高/降低功能块265A至265C输出的强度信息S14A至S14C相对应地提高和/或降低情感单元260A至260C的强度。
举例来说,当宠物机器人向用户表示好意和头上受到轻拍时,也就是说,当将代表向用户表示好意的动作信息S12和代表头上受到轻拍的输入信息给予强度提高/降低功能块265A时,情感和本能模型部分250提高“喜悦”情感单元260A的强度,而在执行某项任务期间,即使宠物机器人头上受到轻拍,也就是说,当将代表执行任务的动作信息S12和代表头上受到轻拍的输入信息给予强度提高/降低功能块265A时,情感和本能模型部分250也不提高“喜悦”情感单元260A的强度。
情感和本能模型部分250不仅参照输入信息S1至S3,而且同时参照代表宠物机器人210的当前或过去动作的动作信息S12确定情感单元260A至260C的强度,从而当,例如,在执行某项任何期间用户淘气地轻拍了宠物机器人210的头部时,能够防止提高“喜悦”情感单元260A的强度的不自然情感出现。顺便提及,情感和本能模型部分250还被构造成根据提供的输入信息S1至S3和动作信息S12,分别类似地提高和/或降低欲望单元261A至261C的强度。
当输入输入信息S1至S3和动作信息S12时,强度提高/降低功能块265A至265C依照预先设定的参数,生成和输出如上所述的强度信息S14A至S14C,从而可以通过将宠物机器人210的上述参数设定成不同的值来培育上述宠物机器人,以便成为具有个性的宠物机器人,例如,易动怒的宠物机器人或性格乐观的宠物机器人。
并且,可以依照另一台机器人设备(下文称之为配偶机器人)的性格改变情感模型的参数。换言之,宠物机器人210的性格通过与配偶机器人的交互而改变,从而塑造出具有诸如“近朱者赤”之类特征的性格。因此,可以实现具有自然形成的性格的宠物机器人210。
具体地说,通过配备图38所示的情感识别机构部分271、存储和分析机构部分272、和参数改变机构部分273,可以形成适合于配偶(mate)机器人设备的性格。
当动作表达情感时,情感识别机构部分271识别配偶机器人的动作是否表达了一些情感,以及情感的类型和强度。具体地说,情感识别机构部分271包括检测配偶机器人动作的传感器和根据来自传感器的传感器输入来识别配偶机器人的情感的情感识别部分,用传感器捕获配偶机器人的动作和用情感识别部分识别从传感器输入中识别宠物机器人的情感。传感器输入是,例如,上述输入信号之外的外部信息信号S2,和可以是来自图33所示的麦克风221的音频信号S1B或来自图33所示的图像识别部分220的图像信号S2B。
就情感的识别来说,情感识别机构部分271识别由配偶机器人发出的声音所表达的情感或用作传感器输入的、配偶机器人的动作。
具体地说,宠物机器人210具有从宠物机器人的情感中推出来的动作的动作模式作为信息,并将这种动作模式与宠物机器人的实际动作,例如,移动一个可动部件或发出声音等相比较,从而识别由宠物机器人的动作所表达的情感。举例来说,宠物机器人210具有当上述配偶机器人愤怒了时配偶机器人一只脚发生移动的动作模式,并当用图像识别部分220获得的配偶机器人一只脚的移动与该动作模式相一致时,检测出配偶机器人的愤怒状态。
宠物机器人210的动作根据例如预先登记的情感模型已经得到了确定。也就是说,宠物机器人210的动作是从情感的表达中得出的。在宠物机器人210也具有相似的情感模型的前提下,宠物机器人210能够根据有关配偶机器人的动作模式理解配偶机器人的情感所导致的动作。通过将配偶机器人本身保存的动作信息与配偶机器人的情感信息相比较,宠物机器人能够容易地理解配偶机器人的情感。
通过识别如上所述的情感,当宠物机器人210检测到愤怒的动作,例如,愤怒的行走方式或愤怒的眼睛时,宠物机器人210能够识别出配偶机器人愤怒了。
情感识别机构部分271将按如上所述识别的、由配偶机器人表达的情感的信息发送到存储和分析机构部分272。
根据从情感识别机构部分271发送的信息,存储和分析机构部分272判断配偶机器人的性格,例如,暴躁的性格或悲观的性格。具体地说,存储和分析机构部分272存储从情感识别机构部分271发送的信息,并根据在某一时间内信息的变化分析配偶机器人的性格。
具体地说,存储和分析机构部分272从存储在数据存储器(未示出)中的信息中取出某一时间内的信息,并分析情感表达率。例如,当以图39所示的比率获得与“愤怒”有关的情感的信息时,存储和分析机构部分272判断出配偶机器人具有易发怒的性格。
存储和分析机构部分272将按如上所述获得的配偶机器人的性格的信息发送到情感参数改变机构部分273。
情感参数改变机构63改变情感模型(具体地说,情感和本能模型部分)250的参数。具体地说,情感参数改变机构部分273改变与“愤怒”和“悲痛”的情感有关的情感单元的参数。
并且,上述强度提高/降低功能块265A至265C的参数可以作为与情感相关的参数而改变。由于强度信息S14A至S14C是根据强度提高/降低功能块265A至265C改变了的参数从输入信息S1至S3和动作信息S12中产生出来的,因此,在这种情况下,可以将宠物机器人210饲养成具有,例如,易发怒或乐观的性格。
输入到情感模型部分250的是作为输入信息S1至S3和动作信息S12的传感器输入,输出到行为确定机构部分251是要用作情感值的情感状态信息S10a,该情感值与由情感参数改变机构部分273改变的参数(强度)相对应。位于后一级上的行为确定机构部分251根据情感值(情感状态信息S10a)确定宠物机器人的动作,从而通过动作表达性格。
宠物机器人210与上述配偶机器人的性格相对应地改变情感模型的参数(强度),从而自然地形成性格。例如,当宠物机器人210与易发怒的另一个机器人交往时,宠物机器人210提高它自己易发怒的参数,从而使自身变成易发怒的。
返回到图34,输入信息S14包括命令信号S1、外部信息信号S2、内部信息信号S3、情感和本能状态信息S10和动作信息S12,行为确定机构部分251根据该输入信息S14确定下一动作,并将上述确定的动作的内容发送到姿势变换机构部分252作为动作命令信息S16。
具体地说,行为确定机构部分251利用称为有限自动机267的算法,该有限自动机267含有有限数目的动作状态(下文称之为“状态”),表达过去提供的输入信息S14的历史,如图40所示。行为确定机构部分251根据当前提供的输入信息S14和此时的上述状态,通过使当时的状态变换到另一个状态确定下一动作。每当提供输入信息S14时,行为确定机构部分251就进行如上所述的状态变换,并依照上述变换到的状态确定动作,从而不仅参照当前输入信息S14,而且参照过去输入信息S14确定动作。
因此,例如,当在“宠物机器人正在追球”的状态ST1下提供“宠物机器人看不见球了”的输入信息S14时,行为确定机构部分251使状态变换到“站着不动”的状态ST5,而当在“躺着”的状态ST2下提供“起来”的输入信息S14时,行为确定机构部分251使状态变换到“站着不动”的状态ST4。
实际上,当作出预定触发时,行为确定机构部分251使当前状态变换到下一状态。触发的具体例子有在当前状态下通过动作的执行时间达到的确定时间、特定输入信息S14的输入、和被从情感和本能模型部分250提供的情感和本能状态信息S10所代表的、情感单元260A至260C和欲望单元261A至261C的强度之中选出的所需单元的强度超过的预定阈值。
此时,行为确定机构部分251根据预定阈值是否被从情感和本能模型部分250提供的情感和本能状态信息S10所代表的、情感单元260A至260C和欲望单元261A至261C的强度之中选出的所需单元的强度超过,选择变换目标状态。因此,行为确定机构部分251被构造成,即使当输入相同的命令信号S1时,也使状态变换到随情感单元260A至260C和欲望单元261A至261C的强度而不同的状态。
例如,当行为确定机构部分251根据提供的外部信息信号S2检测到在眼睛前张开的手掌,根据情感和本能状态信息S10检测到不高于预定阈值的“愤怒”情感单元260C的强度,和根据内部信息信号S3检测到“宠物机器人不饿”,即,不低于预定阈值的电池电压时,行为确定机构部分251因此生成与在眼睛前张开的手掌对应的、使宠物机器人做出“伸手”动作的动作命令信息S16,并将这个信息发送到姿势变换机构部分252。
并且,例如,当行为确定机构部分251检测到在眼睛前张开的手掌,检测到不高于预定阈值的“愤怒”情感单元260C的强度,和检测到“宠物机器人饿了”,即,不低于预定阈值的电池电压时,行为确定机构部分251生成使宠物机器人做出“舔手掌”动作的动作命令信息S16,并将这个信息发送到姿势变换机构部分252。
并且,例如,当行为确定机构部分251检测到在眼睛前张开的手掌和不低于预定阈值的“愤怒”情感单元260C的强度时,无论“宠物机器人”是否“不饿”,即,无论电池电压是否不低于预定阈值,行为确定机构部分251都生成使宠物机器人做出“愤怒地侧视”动作的动作命令信息S16。例如,当情感模型的参数(情感单元的强度)与具有易于发怒的性格的配偶机器人相对应地发生改变时,情感模型的强度往往超过预定阈值,和宠物机器人常常做出“愤怒地侧视”的动作。
根据从情感和本能模型部分250提供的情感和本能状态信息S10所代表的、情感单元260A至260C和欲望单元261A至261C的强度之中选出的所需单元的强度,行为确定机构部分251确定要在变换目标状态下做出的动作的参数,例如,行走速度、手和脚移动的幅度和速度、要发出的声音的音调和音量,等等,生成与上述动作的参数相对应的参数,并将这个信息发送到姿势变换机构部分252。
顺便提及,包括命令信号S1、外部信息信号S2和内部信息信号S3的输入信息S1至S3不仅输入到情感和本能模型部分250,而且输入到行为确定机构部分251,因为这个信息含有随着情感和本能模型部分250和行为确定机构部分251的输入的定时而不同的内容。
例如,当提供“轻拍头部”的外部信息信号S2时,控制器242用情感和本能模型部分250生成“喜悦”的情感和本能状态信息S10,并将上述情感和本能状态信息S10提供给行为确定机构部分251,但当在这个状态下提供“一只手在眼睛前面”的外部信息信号S2时,控制器242根据上述“喜悦”的情感和本能状态信息S10和“一只手在眼睛前面”的外部信息信号S2,在行为确定机构部分251中生成“愿意伸手”的动作命令信息S16,并将该动作命令信息S16发送到姿势变换机构部分42。
返回到图34,姿势变换机构部分252根据行为确定机构部分251提供的动作命令信息S16,生成从当前姿势变换到下一姿势的姿势变换信息S18,并将该信息S18发送到控制机构部分253。在这种情况中,可以从当前姿势变换到的姿势依照,例如,诸如身体的模样和重量、手和脚、部件的连接条件和诸如关节的弯曲方向和角度之类致动器233A至233N的机构等宠物机器人210的物理形式确定。
可以变换到的姿势分类为可以从当前姿势直接变换到的那些姿势和不可以从当前姿势直接变换到的其它姿势。例如,从四只脚伸得很开的四足宠物机器人210的躺下状态,可以直接变换到俯卧状态,但不可以直接变换到站立状态,宠物机器人210必须首先把手和脚缩到靠近身体,然后再站立起来,分两个阶段做出动作。并且,还存在着不能安全地做出的姿势。例如,当宠物机器人210试图在站立姿势中举起两只前脚做出“好哇”的欢呼状时,该宠物机器人210就容易跌倒。
当可以变换到的姿势被预先寄存和行为确定机构部分251提供的动作命令信息S16指示是可以直接变换到的姿势时,姿势变换机构部分42将上述动作命令信息S16作为姿势变换信息S18不作任何修改地发送到控制机构部分253,但当动作命令信息S16指示是不可能直接变换到的姿势时,姿势变换机构252生成使姿势首先变换到可以变换到的另一个姿势,然后变换到目标姿势的姿势变换信息S18,并将该信息发送到控制机构部分253。因此,宠物机器人210能够避免不合情理地试图做出不可能变换到的姿势的事件或跌倒的事件。
具体地说,姿势变换机构部分42被构造成预先寄存宠物机器人210能够做出的姿势,并记录相互之间可以变换的姿势。例如,如图41所示,姿势变换机构部分252利用称为有向图形270的算法,有向图形270将宠物机器人210能够做出的姿势表达成节点ND1至ND5,并用有向弧线a1至a10连接相互之间可以变换的姿势,即,节点ND1至ND5
当动作命令信息S16是从行为确定机构部分251提供的时,姿势变换机构部分252通过沿着有向弧线所指示的方向搜索从与当前姿势相对应的节点ND到与动作命令信息S16所指示的下一个要做的姿势相对应的节点ND的路径,计划姿势变换,以便将当前节点ND与下一节点ND以及依次记录的存在于所搜索路径中的节点ND相连接。因此,宠物机器人210能够实现由行为确定机构部分251所指示的动作,而同时又避免了不合情理地试图做出不可能变换到的姿势的事件或跌倒的事件。
例如,当将“坐下”的动作命令信息S16供应到指示“俯卧”的当前姿势的节点ND2中时,姿势变换机构部分252利用从指示“俯卧”的当前姿势的节点ND2可以直接变换到指示“坐下”的当前姿势的节点ND5的事实,向控制机构部分253发出“坐下”的姿势变换信息S18。反之,当供应“行走”的动作命令信息S16时,姿势变换机构部分252通过搜索从“俯卧”的节点ND2到“行走”的节点ND4的路径,计划姿势变换,生成先发出“站立”的命令再发出“行走”的命令的动作命令信息S18,并将该动作命令信息S18发送到控制机构部分253。
返回图34,控制机构部分253被构造成通过根据动作命令信息S18生成驱动致动器233A至233N的控制信号S5,并将这个信号发送到致动器233A至233N以驱动致动器233A至233N,使宠物机器人210做出所希望的动作。
(5-4)操作和效果
在上述的结构中,情感和本能模型部分250根据所提供的输入信息S1至S3,改变宠物机器人210的情感和本能的状态,并将情感和本能的状态的改变反映在宠物机器人210的动作上,从而使宠物机器人210能够根据它自己的情感和本能的状态自动地动作。
情感和本能模型部分(图38所示情感模型部分)250能够依照与配偶机器人的性格相对应地改变的性格确定动作。因此,用户可以欣赏到宠物机器人210与另一个机器人相对应的性格形成过程,得到了饲养的乐趣。
并且,控制器242的行为确定机构部分251根据与依次提供的输入信息S14的历史相对应的当前状态和接下来提供的输入信息S14,确定接在当前状态之后的下一状态,从而从而使宠物机器人210能够根据它自己的情感和本能的状态自动地动作。
并且,控制器242的行为确定机构部分251在整条预定路径上通过改变当前姿势,使宠物机器人210从当前姿势变换到与动作命令信息S16相对应的姿势,从而避免了做出不合情理的姿势的事件或跌倒的事件。
上述结构根据提供给控制器242的输入信息S1至S3改变宠物机器人210的情感和本能的状态,根据情感和本能的状态的改变确定宠物机器人210的动作,依照上述确定的动作选择可以变换到的姿势,并移动宠物机器人210,从而可以实现能够根据它自己的情感和本能自动动作,和做出与真正宠物的那些动作相当类似的动作的宠物机器人210。
(5-5)其它实施例
请注意,在上述第五实施例中,尽管情感参数改变机构部分273通过修改上述实施例中的情感模型的参数,与配偶机器人的性格相对应地改变性格,但本发明并不仅限于该实施例,而是性格可以通过修改图42所示的行为确定机构部分251的参数来改变。在这种情况中,改变了行为确定机构部分251的可调参数。例如,虽然有限自动机通过提供输入信息S14使状态发生了变换,但变换概率发生了改变。
并且,在上述第五实施例中,尽管性格状态只根据由上述实施例中的配偶机器人表达的情感而改变,但本发明并不仅限于该实施例,而是还可以参考其它信息。例如,通过配置图43所示的对话分析机构部分274和分析配偶机器人与用户(拥有者)之间的对话,可以改变性格状态。
分析用户与配偶机器人之间的对话,例如,从用户发送到配偶机器人的语言,或由用户向配偶机器人显示的姿势。对话分析机构部分274分析,例如,用户是否正在责骂或攻击配偶机器人等。对话分析机构部分274将分析结果发送到存储和分析机构部分272。
对话分析机构部分274根据情感识别机构部分271提供的、由配偶机器人表达的情感的信息和用对话分析机构部分274获得的分析结果,判别配偶机器人的性格。
尽管在只有吠叫信息作为来自情感识别机构部分271的信息被发送的情况下,配偶机器人将被判断为具有易发怒的性格,但在配偶机器人受到用户攻击并吠叫的情况下,参照与用户的对话可以防止配偶机器人被容易地判断为具有易发怒的性格,从而可以依照环境进行复合判断。
进一步,在上述第五实施例中,尽管宠物机器人210的性格发生了改变以便与上述实施例中的配偶机器人的性格相匹配,但本发明并不受该实施例的限制,而是可以与配偶机器人的性格相反地,即,沿着相反方向改变宠物机器人210的性格。
进一步,在上述第五实施例中,尽管是参照配偶机器人的动作来判断上述实施例中配偶机器人的性格的,但本发明并不受该实施例的限制,而是可以通过与配偶机器人进行数据通信来判断配偶机器人的性格。数据通信可以是无线通信或有线通信。
进一步,在上述第五实施例中,尽管在上述实施例中配偶机器人是单个的,但本发明并不受该实施例的限制,而是配偶机器人可以是多个的。在这种情况下,宠物机器人210能够从多个机器人中集体地或从特定机器人中逐个地判别机器人和改变它自己的性格。因此,当这些机器人具有彼此不同的性格时,宠物机器人210能够依照多个配偶机器人的性格改变它自己的性格。
在如上所述存在多个机器人的环境下,有必要进一步判别各个机器人。在这种情况下,预先将脸部模式化,以便宠物机器人210能够逐个判别机器人。例如,可以将所谓的条形码附在配偶机器人上作为预定标记,以便宠物机器人210能够逐个判别多个机器人。在配偶机器人的性格要通过数据通信加以判断的情况下,可以将判别信息附在性格数据上,以便宠物机器人210能够判别多个机器人。例如,判别信息可以是配偶机器人的设备判别号,例如,做成可拆卸存储介质的所谓记忆棒(索尼(SONY)公司的商标)的ID(标识符)。
进一步,在上述第五实施例中,尽管主要描述了从上述实施例中的配偶机器人的可移动部件的动作中进行的情感识别,但本发明并不受该实施例的限制,而是可以从配偶机器人与触摸传感器224的接触状态中识别配偶机器人的情感。
进一步,在上述第五实施例中,尽管宠物机器人210用红外线接收从遥控器发送的用户的命令,但本发明并不受该实施例的限制,而是宠物机器人210可以被构造成用例如无线电波或声波接收发送的用户命令。
进一步,在上述第五实施例中,尽管用户命令是通过上述实施例中包括遥控器接收器223和麦克风221的命令接收部分240输入的,但本发明并不受该实施例的限制,而是可以例如将计算机与宠物机器人210相连接,通过上述连接的计算机输入用户命令。
进一步,在上述第五实施例中,尽管情感和本能的状态是利用上述实施例中表达“喜悦”、“悲痛”和“愤怒”等情感的情感单元260A到260C以及表达“食欲”、“睡觉的欲望”和“运动的欲望”等欲望的欲望单元261A至261C确定的,但本发明并不受该实施例的限制,而是可以将表达“孤独”情感的情感单元加入情感单元260A到260C中,和将表达“爱的欲望”的欲望单元加入欲望单元261A至261C中,或利用其它各种类型的情感单元和欲望单元的组合确定情感和本能的状态。
进一步,在上述第五实施例中,尽管下一动作是由上述实施例中的行为确定机构部分251根据命令信号S1、外部信息信号S2、内部信息信号S3、情感和本能状态信号S10、和动作信息S12确定的,但本发明并不受该实施例的限制,而是下一动作可以根据出自命令信号S1、外部信息信号S2、内部信息信号S3、情感和本能状态信号S10、和动作信息S12的一些信息确定。
进一步,在上述第五实施例中,尽管下一动作是利用上述实施例中称为有限自动机267的算法确定的,但本发明并不受该实施例的限制,而是下一动作可以利用称为状态机的算法确定,该状态机含有无限个数的状态,和在这种情况下,每当提供输入信息S14时,就生成新的状态,并按照上述生成的状态确定动作。
进一步,在上述第五实施例中,尽管下一动作是利用上述实施例中称为有限自动机267的算法确定的,但本发明并不受该实施例的限制,而是下一动作可以利用称为概率有限自动机的算法确定,该概率有限自动机根据当前提供的输入信息S14和此时的状态选择多个状态作为未来变换目标,并利用随机数随机地从所选的多个状态中确定变换目标状态。
进一步,在上述第五实施例中,尽管在上述实施例中当动作命令信息S16指示可以直接变换到的姿势时,将动作命令信息S16没有修改地发送到控制机构部分253作为姿势变换信息S18,或当动作命令信息S16指示不能直接变换到的姿势时,生成先变换到可以直接变换到的姿势,然后再变换到目标姿势的姿势变换信息S18,并将其发送到控制机构部分253,但本发明并不受该实施例的限制,而是可以构造成只有当动作命令信息S16指示可以直接变换到的姿势时,才接收动作命令信息S16并将这个信息发送到控制机构部分43,和当这个信息指示不能直接变换到的姿势时,拒绝上述动作命令信息S16。
进一步,在上述第五实施例中,尽管本发明应用于上述实施例中的宠物机器人210,但本发明并不受该实施例的限制,而是本发明可应用于其它各种类型的机器人,例如,用在诸如游戏和表演之类娱乐领域中的机器人设备。
再进一步,本发明所应用的宠物机器人210的外表没有必要非要如图32所示那样构成不可,而是可以如图44所示那样构成,以便看上去象一只真正的狗。
                      工业可应用性
本发明可应用于用在诸如游戏和表演之类娱乐领域中的机器人、用作宠物的宠物机器人等。

Claims (24)

1.一种机器人设备,包括:
存储装置,用于存储行为模型;和
动作生成装置,用于利用所述行为模型的一部分或全部状态空间生成动作,和其中所述动作生成装置在扩大或缩小所述状态空间的同时改变要用于所述行为模型的所述动作生成的所述状态空间。
2.根据权利要求1所述的机器人设备,其中:
所述行为模型由概率状态变换模型组成;和
所述动作生成装置通过将所述行为模型的所述变换概率设置为0,将到禁止变换的状态的所述变换概率改变成大于0的预定值,从而扩大了要用于所述行为模型的所述动作生成的所述状态空间。
3.根据权利要求1所述的机器人设备,其中:
所述行为模型由概率状态变换模型组成;和
所述动作生成装置将到目标状态的变换概率设置为0,从而缩小要用于所述行为模型的所述动作生成的所述状态空间。
4.根据权利要求1所述的机器人设备,具有
逐步成长的成长模型,和其中
所述动作生成装置在扩大或缩小所述状态空间的同时改变要根据所述成长模型的所述成长用于所述行为模型的所述动作生成的所述状态空间。
5.一种机器人设备,具有包括状态变换模型在内的行为模型和用于根据所述行为模型生成动作,其中:
在所述行为模型中,到预定节点的变换被描述成到由假想的节点组成的虚节点的变换,和将预定节点组分配给所述虚节点,和
提供了用于改变要分配给所述虚节点的所述节点组的改变装置。
6.根据权利要求5所述的机器人设备,含有
逐步成长的成长模型,和其中
所述改变装置按照所述成长模型的所述成长,改变要分配给所述虚节点的所述节点组。
7.一种用于机器人设备的控制方法,所述机器人设备具有行为模型和用于根据所述行为模型生成动作,所述方法包括:
第一步骤,利用所述行为模型的一部分或全部状态空间生成动作;和
第二步骤,在扩大或缩小所述状态空间的同时改变要用于所述行为模型的所述动作生成的所述状态空间。
8.根据权利要求7所述的用于机器人设备的控制方法,其中:
所述行为模型包括概率状态变换模型;和
在所述第二步骤中,通过将所述行为模型的所述变换概率设置为0,将到禁止变换的状态的所述变换概率改变成大于0的预定值,从而扩大了要用于所述行为模型的所述动作生成的所述状态空间。
9.根据权利要求7所述的用于机器人设备的控制方法,其中:
所述行为模型包括概率状态变换模型;和
在所述第二步骤中,将到目标状态的变换概率设置为0,从而缩小要用于所述行为模型的所述动作生成的所述状态空间。
10.根据权利要求7所述的用于机器人设备的控制方法,其中:
所述机器人设备具有逐步成长的成长模型;和
在所述第二步骤中,在扩大或缩小状态空间的同时按照所述成长模型的所述成长改变要用于所述行为模型的所述动作生成的所述状态空间。
11.一种用于机器人设备的控制方法,所述机器人设备具有包括状态变换模型在内的行为模型,和用于根据所述行为模型生成动作,所述方法包括:
第一步骤,将所述行为模型中到预定节点的变换描述成到由假想的节点组成的虚节点的变换,和将预定节点组分配给所述虚节点,和
第二步骤,改变要分配给所述虚节点的所述节点组。
12.根据权利要求11所述的用于机器人设备的控制方法,其中:
所述机器人设备含有逐步成长的成长模型,和
在第二步骤中,按照所述成长模型的所述成长,改变要分配给所述虚节点的所述节点组。
13.一种具有情感模型和本能模型的机器人设备,所述情感模型由多个情感行为组成,所述本能模型由多个欲望组成,用于根据按照预定条件依次更新的、情感模型的每个情感行为的参数值和/或本能模型的每个欲望的参数值生成动作,所述机器人设备包括:
限制装置,限制用于生成动作的情感行为或欲望的数目,以便逐步增加或减少。
14.根据权利要求13所述的机器人设备,其中
所述限制装置根据外部施加的规定刺激的积累和/或经过的时间,逐步增加和/或减少用于生成动作的情感行为或欲望的数目。
15.根据权利要求13所述的机器人设备,包括:
动作生成装置,根据情感行为和/或欲望的参数值的每一个和规定的行为模型生成动作;和
行为模型改变装置,根据外部施加的规定刺激的积累和/或经过的时间,将动作生成装置中的行为模型改变成成长级高于前者的行为模型,和其中
所述限制装置依照行为模型改变装置对行为模型的改变增加或减少用于生成动作的情感行为和/或欲望的数目。
16.根据权利要求13所述的机器人设备,其中
所述情感模型包括喜悦、悲痛、愤怒、惊讶、厌恶和害怕等六种情感行为作为所述情感行为。
17.根据权利要求13所述的机器人设备,其中
所述本能模型包括运动、爱、饮食和好奇心等四种欲望作为所述欲望。
18.根据权利要求13所述的机器人设备,进一步包括:
情感行为和/或欲望更新装置,根据刺激和/或经过的时间,依照为每个情感行为和/或每个欲望个别设定的相应灵敏度,依次更新每个情感行为的参数值和/或每个欲望的参数值;和
灵敏度更新装置,用于评估环境和根据评估结果分别更新与每个情感行为和/或每个欲望相对应的灵敏度。
19.一种用于具有情感模型和本能模型的机器人设备的控制方法,所述情感模型由多个情感行为组成,所述本能模型由多个欲望组成,所述机器人设备根据按照预定条件依次更新的、情感模型的每个情感行为的参数值和/或本能模型的每个欲望的参数值生成动作,所述控制方法包括:
第一步骤,限制用于生成动作的情感行为和/或欲望的数目;和
第二步骤,逐步增加或减少用于生成动作的情感行为和/或欲望的数目。
20.根据权利要求19所述的用于机器人设备的控制方法,其中
在第二步骤中,根据外部施加的规定刺激的积累和/或经过的时间,逐步增加用于生成动作的情感行为或欲望的数目。
21.根据权利要求19所述的用于机器人设备的控制方法,其中:
所述机器人设备根据情感行为和/或欲望的参数值的每一个和规定的行为模型生成动作,和根据外部施加的规定刺激的积累和/或经过的时间,将动作生成装置中的行为模型改变成成长级高于前者的行为模型;和
在第二步骤中,依照行为模型改变装置对行为模型的改变而增加或减少用于生成动作的情感行为和/或欲望的数目。
22.根据权利要求19所述的用于机器人设备的控制方法,其中
所述情感模型包括喜悦、悲痛、愤怒、惊讶、厌恶和害怕等六种情感行为作为所述情感行为。
23.根据权利要求19所述的用于机器人设备的控制方法,其中
所述本能模型包括运动、爱、饮食和好奇心等四种欲望作为所述欲望。
24.根据权利要求19所述的用于机器人设备的控制方法,其中,对于每一级,第二步骤包括:
更新步骤,根据刺激和/或经过的时间,依照为每个情感行为和/或每个欲望分别设定的相应灵敏度,依次更新每个情感行为的参数值和/或每个欲望的参数值;和
灵敏度更新步骤,用于评估环境和根据评估结果分别更新与每个情感行为和/或每个欲望相对应的灵敏度。
CNB008032971A 1999-11-30 2000-11-30 机器人设备及其控制方法,和机器人性格判别方法 Expired - Fee Related CN1151016C (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP34120799A JP2001157978A (ja) 1999-11-30 1999-11-30 ロボット装置及びその制御方法
JP34137599A JP2001157983A (ja) 1999-11-30 1999-11-30 ロボット装置及びロボット装置の性格判別方法
JP341375/1999 1999-11-30
JP34120699A JP2001157977A (ja) 1999-11-30 1999-11-30 ロボット装置及びその制御方法
JP341206/1999 1999-11-30
JP341207/1999 1999-11-30

Publications (2)

Publication Number Publication Date
CN1338980A CN1338980A (zh) 2002-03-06
CN1151016C true CN1151016C (zh) 2004-05-26

Family

ID=27340991

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB008032971A Expired - Fee Related CN1151016C (zh) 1999-11-30 2000-11-30 机器人设备及其控制方法,和机器人性格判别方法

Country Status (4)

Country Link
US (2) US7117190B2 (zh)
KR (1) KR20010101883A (zh)
CN (1) CN1151016C (zh)
WO (1) WO2001039932A1 (zh)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI234105B (en) * 2002-08-30 2005-06-11 Ren-Guang King Pointing device, and scanner, robot, mobile communication device and electronic dictionary using the same
US7421418B2 (en) * 2003-02-19 2008-09-02 Nahava Inc. Method and apparatus for fundamental operations on token sequences: computing similarity, extracting term values, and searching efficiently
US7707135B2 (en) * 2003-03-04 2010-04-27 Kurzweil Technologies, Inc. Enhanced artificial intelligence language
US7534157B2 (en) 2003-12-31 2009-05-19 Ganz System and method for toy adoption and marketing
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
KR100590549B1 (ko) * 2004-03-12 2006-06-19 삼성전자주식회사 3차원 포인팅 방법을 이용한 로봇의 원격 제어 방법 및이를 구현한 로봇 제어 시스템
TWM258789U (en) * 2004-06-09 2005-03-11 Ming-Hsiang Yeh Interactive toy
KR100595821B1 (ko) * 2004-09-20 2006-07-03 한국과학기술원 로봇의 감성합성장치 및 방법
ATE524784T1 (de) 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
ES2270741B1 (es) * 2006-11-06 2008-03-01 Imc. Toys S.A. Juguete.
US20080119959A1 (en) * 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot
KR100866212B1 (ko) * 2007-02-08 2008-10-30 삼성전자주식회사 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법
JP5088541B2 (ja) * 2007-06-11 2012-12-05 ソニー株式会社 情報処理装置及び方法、並びにプログラム
GB0716459D0 (en) * 2007-08-23 2007-10-03 Funky Moves Ltd Interactive sporting apparatus
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
US8452448B2 (en) * 2008-04-02 2013-05-28 Irobot Corporation Robotics systems
WO2010061286A1 (en) 2008-11-27 2010-06-03 Stellenbosch University A toy exhibiting bonding behaviour
US9155961B2 (en) * 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
FR2962048A1 (fr) * 2010-07-02 2012-01-06 Aldebaran Robotics S A Robot humanoide joueur, methode et systeme d'utilisation dudit robot
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
KR20120047577A (ko) * 2010-11-04 2012-05-14 주식회사 케이티 대화형 행동모델을 이용한 로봇 인터랙션 서비스 제공 장치 및 방법
US9186575B1 (en) * 2011-03-16 2015-11-17 Zynga Inc. Online game with animal-breeding mechanic
US20130078886A1 (en) * 2011-09-28 2013-03-28 Helena Wisniewski Interactive Toy with Object Recognition
WO2013063381A1 (en) * 2011-10-28 2013-05-02 Tovbot Smartphone and internet service enabled robot systems and methods
US9135554B2 (en) * 2012-03-23 2015-09-15 Irobot Corporation Robot controller learning system
US9104231B2 (en) 2012-09-27 2015-08-11 Microsoft Technology Licensing, Llc Mood-actuated device
US9046884B2 (en) * 2012-12-31 2015-06-02 Microsoft Technology Licensing, Llc Mood-actuated device
CN104598913A (zh) * 2013-10-30 2015-05-06 广州华久信息科技有限公司 一种基于人脸的情感健康促进方法及系统
JP6144845B2 (ja) * 2014-02-05 2017-06-07 アーベーベー シュヴァイツ アクツィエンゲゼルシャフト ショーを協調的に演じている複数のロボットの動きを定義するためのシステム及び方法
KR20150100165A (ko) * 2014-02-24 2015-09-02 주식회사 로보빌더 모듈러 액츄에이터 결합장치
CN104881108B (zh) * 2014-02-27 2018-08-31 青岛海尔机器人有限公司 一种智能人机交互方法及装置
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
CN106926236B (zh) * 2015-12-31 2020-06-30 深圳光启合众科技有限公司 获取机器人的状态的方法和装置
EP3403146A4 (en) 2016-01-15 2019-08-21 iRobot Corporation AUTONOMOUS MONITORING ROBOT SYSTEMS
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
US10101739B2 (en) 2016-03-21 2018-10-16 Sphero, Inc. Multi-body self propelled device with induction interface power transfer
US20170282383A1 (en) * 2016-04-04 2017-10-05 Sphero, Inc. System for content recognition and response action
CN107590503A (zh) * 2016-07-07 2018-01-16 深圳狗尾草智能科技有限公司 一种机器人情感数据更新方法及系统
WO2018012446A1 (ja) 2016-07-11 2018-01-18 Groove X株式会社 活動量をコントロールされる自律行動型ロボット
JP6467674B2 (ja) 2016-07-20 2019-02-13 Groove X株式会社 スキンシップを理解する自律行動型ロボット
CN106503043B (zh) * 2016-09-21 2019-11-08 北京光年无限科技有限公司 一种用于智能机器人的交互数据处理方法
CN107962571B (zh) * 2016-10-18 2021-11-02 江苏网智无人机研究院有限公司 目标对象的控制方法、装置、机器人和系统
US10265844B2 (en) * 2017-03-24 2019-04-23 International Business Machines Corporation Creating assembly plans based on triggering events
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
CN107544248B (zh) 2017-09-13 2019-12-13 上海思岚科技有限公司 一种移动机器人中的任务优化方法及设备
CN109968352B (zh) * 2017-12-28 2021-06-04 深圳市优必选科技有限公司 一种机器人控制方法及机器人、具有存储功能的装置
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques
CN109086863A (zh) * 2018-09-02 2018-12-25 重庆市南岸区瑜目网络科技有限责任公司 一种让人工智能机器人具有人类个性的方法
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
CN111290570A (zh) * 2018-12-10 2020-06-16 中国移动通信集团终端有限公司 人工智能设备的控制方法、装置、设备及介质
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
CN111496802A (zh) * 2019-01-31 2020-08-07 中国移动通信集团终端有限公司 人工智能设备的控制方法、装置、设备及介质
US10682575B1 (en) 2019-10-03 2020-06-16 Mythical, Inc. Systems and methods for generating in-game assets for a gaming platform based on inheriting characteristics from other in-game assets
US11389735B2 (en) * 2019-10-23 2022-07-19 Ganz Virtual pet system
JP7070529B2 (ja) * 2019-10-31 2022-05-18 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
US11957991B2 (en) * 2020-03-06 2024-04-16 Moose Creative Management Pty Limited Balloon toy
JP7487552B2 (ja) * 2020-05-20 2024-05-21 セイコーエプソン株式会社 充電方法および充電システム
US11358059B2 (en) 2020-05-27 2022-06-14 Ganz Live toy system
US11192034B1 (en) * 2020-07-08 2021-12-07 Mythical, Inc. Systems and methods for determining how much of a created character is inherited from other characters
KR102295836B1 (ko) * 2020-11-20 2021-08-31 오로라월드 주식회사 성장형 스마트 토이 장치 및 스마트 토이 시스템
JP7431149B2 (ja) * 2020-12-17 2024-02-14 トヨタ自動車株式会社 移動体システム
JP7192905B2 (ja) * 2021-03-16 2022-12-20 カシオ計算機株式会社 制御装置、制御方法及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572646A (en) * 1993-08-25 1996-11-05 Casio Computer Co., Ltd. Apparatus for displaying images of living things to show growing and/or moving of the living things
JP3018865B2 (ja) 1993-10-07 2000-03-13 富士ゼロックス株式会社 感情表出装置
JP3413694B2 (ja) * 1995-10-17 2003-06-03 ソニー株式会社 ロボット制御方法およびロボット
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JPH10235019A (ja) 1997-02-27 1998-09-08 Sony Corp 携帯型ライフゲーム装置及びそのデータ管理装置
JP3592051B2 (ja) * 1997-10-03 2004-11-24 任天堂株式会社 歩数計
JP3044116U (ja) * 1997-03-18 1997-12-16 株式会社バンダイ 仮想生命体の育成シミュレーション装置
JP3932462B2 (ja) * 1997-05-27 2007-06-20 ソニー株式会社 クライアント装置、画像表示制御方法、共有仮想空間提供装置および方法、並びに記録媒体
JPH11126017A (ja) 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
JPH1165417A (ja) * 1997-08-27 1999-03-05 Omron Corp 仮想ペット飼育装置、方法及びプログラム記録媒体
US6353814B1 (en) * 1997-10-08 2002-03-05 Michigan State University Developmental learning machine and method
US6656049B1 (en) * 1998-02-27 2003-12-02 Kabushiki Kaisah Sega Enterprises Electronic game apparatus
WO2000053281A1 (fr) * 1999-03-05 2000-09-14 Namco, Ltd. Dispositif d'animal virtuel et support d'enregistrement de son programme de commande
KR20010043800A (ko) * 1999-03-24 2001-05-25 이데이 노부유끼 로봇 장치
KR20010053481A (ko) * 1999-05-10 2001-06-25 이데이 노부유끼 로봇 장치 및 그 제어 방법
JP4372290B2 (ja) * 1999-08-26 2009-11-25 任天堂株式会社 ゲーム機及びコンピュータ読み取り可能な情報記憶媒体
ATE306096T1 (de) * 1999-08-31 2005-10-15 Swisscom Ag Mobiler roboter und steuerverfahren für einen mobilen roboter
JP2002018146A (ja) * 2000-07-04 2002-01-22 Tomy Co Ltd 対話型玩具、反応行動パターン生成装置および反応行動パターン生成方法
KR20020061961A (ko) * 2001-01-19 2002-07-25 사성동 지능형 애완로봇

Also Published As

Publication number Publication date
CN1338980A (zh) 2002-03-06
US20060041332A1 (en) 2006-02-23
US7117190B2 (en) 2006-10-03
KR20010101883A (ko) 2001-11-15
US20030045203A1 (en) 2003-03-06
WO2001039932A1 (fr) 2001-06-07

Similar Documents

Publication Publication Date Title
CN1151016C (zh) 机器人设备及其控制方法,和机器人性格判别方法
CN1283428C (zh) 机器人设备、控制机器人设备动作的方法
CN1161700C (zh) 网络系统
CN1290034C (zh) 机器人装置及其行为控制方法
CN1246126C (zh) 机器人装置
CN1372506A (zh) 机器人设备行为决定方法和机器人设备
CN1304345A (zh) 机器人装置及其控制方法
CN1518489A (zh) 用于机器人的行为控制系统和行为控制方法及机器人装置
CN1758991A (zh) 机器人装置、其行为控制方法及程序
CN1335800A (zh) 机器人系统、机器人装置及机器人装置的外装
CN1553845A (zh) 机器人系统和机器人设备的控制方法
CN1808414A (zh) 学习、识别和生成数据的方法和设备以及计算机程序
CN1692341A (zh) 信息处理设备、信息处理方法、程序以及存储介质
CN1855224A (zh) 信息处理装置、信息处理方法及程序
CN1273912C (zh) 机器人装置、面容识别方法和面容识别装置
CN1309535C (zh) 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的系统
CN100346941C (zh) 机器人及机器人的姿态控制方法
CN1237502C (zh) 生成声音模型的方法、装置和生成声音模型的计算机程序
CN1269050A (zh) 控制家用器具的设备和方法
CN1933880A (zh) 用于测量和评估身体技能的动作和用于完成身体技能的设备的系统和方法
CN1462428A (zh) 语音处理装置
CN1728152A (zh) 用于使用软计算优化器的机动车的智能强健控制系统
CN1652063A (zh) 前摄的用户接口
CN1099888A (zh) 脸部图像数据处理装置
CN1095105C (zh) 控制可移动装置的设备与方法

Legal Events

Date Code Title Description
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C06 Publication
PB01 Publication
C14 Grant of patent or utility model
GR01 Patent grant
C19 Lapse of patent right due to non-payment of the annual fee
CF01 Termination of patent right due to non-payment of annual fee