CN1246126C - 机器人装置 - Google Patents

机器人装置 Download PDF

Info

Publication number
CN1246126C
CN1246126C CNB008003718A CN00800371A CN1246126C CN 1246126 C CN1246126 C CN 1246126C CN B008003718 A CNB008003718 A CN B008003718A CN 00800371 A CN00800371 A CN 00800371A CN 1246126 C CN1246126 C CN 1246126C
Authority
CN
China
Prior art keywords
posture
robot device
motion
emotion
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
CNB008003718A
Other languages
English (en)
Other versions
CN1297393A (zh
Inventor
井上真
横山琢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1297393A publication Critical patent/CN1297393A/zh
Application granted granted Critical
Publication of CN1246126C publication Critical patent/CN1246126C/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明的机器人装置自动地进行自然运动。机器人装置装备有控制装置(32),它具有产生运动的感情/本能模式,并且根据输入信息(S1)至(S3)改变感情/本能模式,从而确定一个运动。作为结果,机器人装置(1)可以根据它自己的感情/本能状态自主地运动。因而可以实现可以自动地进行自然运动的机器人装置。

Description

机器人装置
技术领域
本发明涉及一种机器人装置和一种运动控制方法,尤其适用于举止像四足动物的机器人装置。
背景技术
人们已经提出和开发了四足动物机器人装置、有关节的机器人,或使用借助计算机图形学进行运动的动画用角色,它们根据来自用户或外界的命令进行操作。机器人装置和动画(统称为机器人装置)根据用户的命令执行一系列运动。
例如,当所谓的宠物机器人装置,即,具有其形状像狗那样的四足动物的机器人装置,接收到“趴下”的命令时,该宠物自动机采取“趴下”的姿势,或者无论用户何时把手伸向狗嘴前,它总是伸出爪子。
同时,人们期望模仿动物的机器人装置的运动应该尽可能地与真实动物相似。
然而,传统的机器人装置仅能够根据来自用户或外界的命令做预定的运动。这样,由于传统的机器人装置不能自主地运动,不像真实的动物,因此不能满足用户希望机器人装置可以自主地确定其行为举止的要求。
此外,机器人装置经由预定的姿势或运动达到目标姿势或运动。然而,如果在向目标姿势或运动转换(transit)的期间准备有多个要执行的姿势或运动,则机器人装置的运动表达将会变得丰富。
如果准备了机器人装置在到达目标姿势或运动之前中途所取的姿势或运动的多种途径,则机器人装置经过的姿势或运动最好以最佳方式选择,以转换到目标姿势或运动。
发明内容
本发明是考虑上述情况作出的,其目的是建议一种自主地产生自然运动的机器人装置。
本发明的机器人装置,包括:
头部部件,主体部件、腿部件和它们之间的关节部件,显示部件;
信号接收部分和传感器部件,位于所述头部部件和所述主体部件之上,用于接收外部信号和响应于环境信息;
致动装置,与所述关节部件和所述显示部件相连,用于驱动它们来执行运动操作;
控制装置,包括用于预先存储程序的预定存储区域和数据处理部分;
其中
在控制装置中的所述数据处理部分包括模式改变装置,它具有感情模式部分和本能模式部分;
所述感情模式部分由多个独立的感情情绪单元构成;
所述本能模式部分由多个独立的本能欲望单元构成;
所述感情情绪单元和所述本能欲望单元分别具有感情参数和欲望
参数,分别用于表达感情状态和欲望状态的变化,所述感情参数和欲望参数的值根据外部信号和环境信息而提高或降低;
所述控制装置用于按照所接收的外部信号和环境信息以及由数据处理部分处理的感情/本能状态来确定下一个运动,并且向所述致动装置提供运动控制信号。
该结构的机器人装置具有引发运动的模式,并且根据输入信息改变模式,从而确定运动。因此,如果模式是感情模式或本能模式,机器人装置则根据机器人装置的感情和本能的状态自主地运动。
具有这种结构的机器人装置根据与顺序供给的输入信息历史相对应的当前运动和后续供给的输入信息确定当前运动之后的后续运动。因此,机器人装置根据自己的感情或本能状态自主地行动。
附图说明
图1是显示本发明的机器人装置的实施例的示意图;
图2是显示机器人装置的电路图的方框图;
图3是显示控制器中的数据处理的示意图;
图4是显示感情和本能模式部分所进行的数据处理的示意图;
图5是显示感情/本能模式部分所进行的数据处理的示意图;
图6是显示感情/本能模式部分所进行的数据处理的示意图;
图7是显示动作确定机构部分的有限自动机器(qutomaton)的状态转换的示图;
图8是显示动作确定机构部分和类似物的结构的方框图,用于解释动作命令信息的产生;
图9是用来解释用概率确定状态的情况的示图;
图10显示了转换概率与姿势转换到的状态之间关系的表;
图11显示了姿势转换机构部分中的一个姿势转换的图形;
图12显示了姿势转换的图形的一个特定实例;
图13是状态的转换的示意图,用于解释包括一个如果当前姿势不能被控制(grasp)则形成允许当前姿势转换到的中性姿势,并使能从跌倒状态(stumble-over)中恢复;
图14是用被用作一个指标的距离来解释路径搜索的示意图;
图15是解释根据分类进行路径搜索的情况的示意图;
图16是用来解释通过分类进行路径搜索的情况的示意图;
图17是机器人装置的顶示图,用于解释把行走方向设置为参数的情况;
图18示出了显示参数和运动内容的表;
图19是用于解释在姿势间转换期间一种运动与另一种运动同时发生的情况的示意图;
图20是用于解释在不同姿势上执行相似运动的情况的示图;
图21是显示机器人装置的示意图;
图22A和图22B是用于解释姿势被允许在整体设备与部件之间进行转换的情况的示图,具有在其间插入的基本姿势;
图23是用于解释当当前姿势涉及整体装置和目标运动涉及部件时,当前姿势一旦被允许转换到基本姿势之后就执行目标运动的情况的示意图;
图24是用于解释当目标运动涉及整体装置时,当前姿势一旦允许转换到基本姿势之后就执行目标运动的情况的示意图;
图25A和25B是用于解释插入一个命令的处理的示意图;
图26是显示可以存储与整体设备和组成部件相对应的命令的命令存储部件的示意图;
图27是解释可以存储与整体设备和组成部件相对应的命令的命令存储部件的处理格式的实例的示图;
图28是显示进行路径搜索的运动路径搜索部分的方框图;
图29是显示在根据命令执行运动之前执行的一系列处理的流程图;
图30是用于解释在头部部件的图形上经多个定向弧线到目标运动的当前姿势转换的示图;
图31是显示适用于本发明的另一个实例的示图,其中一个角色以计算机图形形式进行运动;
图32是本发明的机器人装置的另一个实施例的示意图。
具体实施方式
下面,详细解释本发明的实施例。
(1)机器人装置的结构
整个机器人装置按图1所示那样构成,包括相当于头部的头部部件2,相当于躯干的主体部件3,相当于腿的腿部件4A、4B、4C和4D,相当于尾部的尾部件5。机器人装置1相对于主体部件3移动头部部件2、腿部件4A至4D和尾部件5,从而像真实的四足动物那样运动。
图象判断部分10相当于眼睛并且由例如用于拾取图象的CCD(电荷耦合器件)摄像机构成,麦克风11相当于收集声音的耳朵,扬声器12相当于产生声音的嘴巴,它们分别安装在主体部件2的预定姿势上。此外,主体部件2设有:遥控接收部分13,用于接收用户经遥控器(未示出)发射的命令;触摸传感器14,用于对用户的手或类似物的触摸进行检测;和由发光装置构成的LED(发光二极管)15。
主体部件3在与其腰部对应的位置设有电池21,电路(未示出)或类似物被安装在主体部件3的内部。
腿部件4A至4D的关节部件、腿部件4A至4D与主体部件3之间的连接部件、主体部件3与头部部件2之间的连接部件、主体部件2与尾部部件5之间的连接部件通过它们自己的致动装置23A至23N连接。这些关节和连接部件根据装入主体部件3内的电路的控制来驱动。在机器人装置1中,致动装置23A至23N被驱动以使头部部件2摇头和点头,使尾部件5摇摆,和移动腿部件4A至4D使其行走。
例如,上述构造的机器人装置1具有后面将要解释的下列特点。
当机器人装置1被命令从一个姿势(第一姿势)改变到另一个姿势(第二姿势)时,它不能从第一姿势直接改变到第二姿势,而是要经过一个预定的自然姿势。
此外,当机器人装置在姿势转换期间到达给定姿势时,它可以接收一个通知。
机器人装置1由头部、腿和尾部部件构成并且可以独立地控制这些部件的姿势。例如,头部和腿的姿势被相互独立地控制。此外,对含有头部、腿和尾部的整个设备的姿势的管理可以与各部件的管理相分离。
还可以传递为机器人装置1指定运动命令的运动细节的参数。
机器人装置1具有上述特点。更多的特点将在下文中解释,其中包括上述那些特点。
(2)机器人装置的电路配置
例如,机器人装置1的电路配置如图2所示。头部部件2包括由麦克风11和遥控接收部件13构成的命令接收部分30;由图象识别部件10和触摸传感器14构成的外部传感器31;扬声器12和LED15。主体部件3具有电池21并且在内部设有:由控制整个机器人装置1操作的控制器32构成的内部传感器35;检测电池21剩余量的电池检测器33,和检测机器人装置1内部生成的热量的热量传感器34。此外,致动装置23A至23N被分别设置在机器人装置1的预定位置上。
命令接收部分30用来接收用户加给机器人装置1的命令,比如“行走”、“趴下”、“追球”等。该部分30由遥控器接收部分13和麦克风11构成。
遥控器接收部分13接收由用户操作的遥控器(未示出)输入的一个期望的命令。例如,来自遥控器的命令传送通过红外光实现。遥控接收部分13接收红外光,生成接收的信号S1A把它送给控制器32。
遥控器不局限于使用红外光的类型,可以是通过音阶(tone scale)向机器人装置1提供命令的类型。在这种情况下,安排机器人装置1执行对应于经麦克风11输入的来自遥控器的音阶的处理。
当用户给出与期望的命令相一致的声音时,麦克风11收集用户给出的声音,生产声音信号S1B,并把该声音送给控制器32。
命令接收部分30根据用户给机器人装置1的命令产生包含接收信号SZ1A和声音信号S1B的命令信号S1。部分30把该命令信号供给控制器32。
外部传感器31的触摸传感器14用来检测用户对机器人装置1的动作,比如“抚摸”、“拍打”等。例如,当用户触及触摸传感器以进行期望的动作时,与该动作相对应的接触检测信号S2A被产生并送至控制器32。
外部传感器31的图象识别部分10识别机器人装置1的周围环境。因此,部分10检测机器人装置1的环境信息,比如“黑暗”、“出现心爱的玩具”或类似信息,或者检测另一个机器人装置的动作,比如“另一个机器人正在跑步”或类似动作。该图象识别部分10向控制器32发送作为拾取环境图象的结果而得到的图象信号S2B。
外部传感器31根据从机器人装置1的外部如此供给的外部信息产生包含接触检测信号S2A和图象信号S2B的外部信息信号S2,并把该信号送给控制器32。
内部传感器35用来检测机器人装置1自己的内部状态,比如表示电池电压低的“饥饿”,“发热”或类似情况。该检测器35由电池检测器33和热传感器34构成。
电池检测器33用于检测向机器人装置1的各电路供电的电池21的剩余量。该电池检测器33向控制器32发送作为检测结果的电池容量检测信号S3A。热传感器34用于检测机器人装置1内部的热量。该热检测器34向控制器32发送作为检测结果的热检测信号S3B。
因而内部传感器35根据机器人装置1的内部信息产生包含电池容量检测信号S3A和热检测信号S3B的内部信息信号,并送给控制器32。
根据命令接收部分30供给的命令信号S1、外部传感器31供给的外部信息信号S2和内部传感器35供给的内部信息信号S3,控制器32分别产生用于驱动致动装置23A至23N的控制信号S5A至S5N。控制器32把这些信号分别送给这些致动装置,驱动它们从而使机器人装置1操作。
此时,如有必要,控制器32产生向外输出的声音信号S10和发光信号S11。在这些信号中,声音信号经扬声器12向外输出,发光信号S1被送给LED15以获得期望的发光输出(例如,闪烁、变化颜色等)。从而通知用户必要的信息。例如,机器人装置1把自己的感情通知给用户。也能够设置图象显示部分以替换LED15。用户所需的信息,比如感情等,可以通过显示期望的图象来通知。
(3)控制器的处理
根据预定存储区域中先前存储的程序,控制器32执行从命令接收部分30供给的命令信号S1、外部传感器31供给的外部信息信号S2和内部传感器35供给的内部信息信号S3的软件处理。控制器32向致动装置23供应作为软件处理结果得到的控制信号S5。
此时致动装置23的操作被表现为机器人装置1的运动。本发明具有丰富这种表现的目的。
如图3所示,控制器32执行的数据处理的内容在功能上可分段到以下部分中:作为感情/本能模式改变装置的感情/本能模式部分40,作为动作确定装置的动作确定机构部分41,作为姿势转换装置的姿势转换机构部分42和控制机构部分43。从外面供给的命令信号S1、外部信息信号S2和内部信息信号S3输入给感情/本能模式部分40和动作确定机构部分41。控制器32的主要功能如下所述。
感情/本能模式部分40根据命令信号S1、外部信息信号S2和内部信息信号S3确定感情和本能的状态。此外,动作确定机构部分41根据感情/本能模式部分40获得的感情/本能状态信息S10以及命令信号S1、外部信息信号S2、内部信息信号S3,确定下一个运动(动作)。位于后级(rear stage)的姿势转换机构部分42制定转换到由动作确定机构部分41确定的下一个运动(动作)的姿势转换计划。需要说明的是,关于由动作确定机构41确定的运动(动作)的信息被反馈给感情/本能模式部分40,感情/本能模式部分40参考所确定的运动(动作)确定感情和本能的状态。也就是说,感情和本能模式部分40还参考运动(动作)结果来确定本能和感情。
控制机构部分43根据从姿势转换机构部分42提供的以姿势转换计划为基础的姿势转换信息S18来控制各操作部分。当姿势实际被转换后,则执行由动作确定机构部分41确定的后续运动(动作)。
也就是说,机器人装置1借助上述的控制器32的机构根据感情/本能确定后续运动(动作),制定运动(动作)被执行前的转换计划,允许姿势根据转换计划转换,和实际执行基于感情/本能的运动(动作)。下面,将解释控制器32的上述的各结构部分。
(3-1)感情/本能模式部分中的处理
感情/本能模式部分40可以粗略地分成构成感情模式的感情组50,和构成本能模式的欲望组51,该本能模式被制定为具有不同于感情模式性质的模式。
感情模式由一定值的感情参数构成,并且是通过对应于感情参数值的运动来表现为机器人装置确定的感情的模式。感情参数的值主要根据外部输入信号(外部因素)增加或减少,该外部输入信号表示“拍打”或“斥责”并且由压力传感器、视觉传感器或类似物检测。当然,在某些情况下,感情参数根据诸如电池剩余量、体温等内部输入信号改变。
本能模式由具有一定值的本能参数构成,并且是通过对应于本能参数值的运动来表现为机器人装置所确定的本能(欲望)的模式。本能参数值根据内部输入信号增加和减少,内部输入信号表现基于动作历史的“锻练的欲望”或基于电池剩余量的“充电(饥饿)欲望”。当然,本能参数可以像感情参数那样根据外部输入信号(外部因素)改变。
感情模式和本能模式的每一个由相等性质的多种(类型)模式构成。也就是说,感情组50包括感情单元50A至50F,它们作为具有相等性质的独立感情模式。欲望组51包括欲望单元51A至51D,它们作为具有相等属性的独立本能模式。
感情组50包括,例如,一个表示“快乐”感情的感情单元50A,一个表示“悲伤”感情的感情单元50B,一个表达“惊奇”的感情单元50D,一个表示“害怕”感情的感情单元50E,和一个表示“憎恨”感情的感情单元50F。欲望组51包括,例如,一个表示“运动本能”欲望的欲望单元51A,一个表示“喜欢本能”欲望的欲望单元51B,一个表示“再充电本能”欲望的欲望单元51C,和一个表示“搜索本能”的欲望单元51D。
在感情单元50A至50F的每个中,感情的等级由0至100等级的强度(感情参数)指示。每个感情的强度根据供给的命令信号S1、外部信息信号S2和内部信息信号S3不断地实时改变。因而,感情/本能模式部分40将感情单元50A的各个强度相互组合以表达机器人装置1的状态,从而模仿基于时间的感情变化。
也可以这样安排期望的感情单元,使其相互影响以改变强度。例如,感情单元相互组合,使各单元相互抑制或激励,从而在相互影响的时候改变强度。
具体地说,“快乐”的感情单元50A和“悲伤”的感情单元50B可以组合,以致它们相互抑制,如图5所示。在这种情况下,当用户称赞机器人装置时,“快乐”感情单元50B的强度增加,“悲伤”感情单元50B的强度根据“快乐”感情单元50A的强度的增高而降低,即便没有提供将改变“悲伤”感情单元50B强度的输入信息S1至S3。同样地,当“悲伤”感情单元50B的强度增加时,“快乐”感情单元50A的强度降低。
此外,“悲伤”感情单元50B和“愤怒”感情单元50C可以结合,以便相互激励。在这种情况下,当用户拍打机器人装置时,“愤怒”感情单元50C的强度增加,“悲伤”感情单元50B的强度根据“愤怒”感情单元50C的强度的增加而增加,即使将增加“悲伤”感情单元50B的强度的输入信息未被提供。同样地,当“悲伤”感情单元50B的强度增加时,“愤怒”感情单元50C的强度根据“悲伤”感情单元50B的强度增加而增加。
由于期望的感情单元如此相互影响,从而改变了强度,组合的感情单元之一的强度随另一个感情单元的强度改变而改变。因而可以实现具有自然感情的机器人装置1。
在欲望单元51A至51D中,像感情单元50A至50F那样,欲望的等级也由0至100的等级的强度(本能参数)表示。根据供给的命令信号S1和外部信息信号S2,欲望的强度随时改变。因而,通过组合随时改变的感情单元51A至51D的强度,感情/本能模式部分40表达机器人装置1的本能状态,并且模仿基于时间的本能变化。
此外,如同将感情单元相互组合的情况一样,期望的欲望单元也可以相互影响,从而改变它们的强度。例如,可以组合欲望单元使其相互抑制或相互激励,以致期望的欲望单元相互影响从而改变它们的强度。在这种方式中,当期望的欲望单元之一的强度改变时组合的欲望单元的另一个的强度也因此改变。因而能够实现具有自然本能的机器人装置1。
此外,各单元可以在感情组50与欲望组51之间相互影响,使它们的强度可以改变。例如,欲望组51中的“喜欢本能”的欲望单元51B和“再充电本能”的欲望单元51C的强度改变能够影响感情组50中的“悲伤”的感情单元50B和“愤怒”的感情单元50C的强度的改变。或者,“再充电本能”的欲望单元51C的强度变化能够影响“悲伤”的感情单元50B和“愤怒”的感情单元50C的强度的改变。在这种方式中,能够表现当“喜欢本能”被满足时使“愤怒”和“悲伤”感情被抑制的状态,和当“再充电本能”未满足时使“愤怒”和“悲伤”感情增加的状态。因而感情和欲望之间的相互动作可以表达感情和本能相互交错影响的状态。
如上所述,感情/本能模式部分40用包含命令信号S1、外部信息信号S2和内部信息信号S3的输入信息S1至S3,或者用感情组50中各单元间的相互动作和/或欲望组51中各单元间的相互动作,和/或用感情组50中各单元间和/或欲望组51中各单元间的相互动作来改变感情单元50A至50F和欲望单元51A至51D的强度的每一个。
此外,感情/本能模式部分40通过组合已改变的感情单元50A至50F的强度来确定感情状态,并且还通过组合欲望单元51A至51D的已改变的强度来确定本能状态。部分40还把感情和本能的已确定状态作为感情/本能状态信息S10发送给动作确定机构部分41。
此外,感情/本能模式部分40从动作确定机构部分41供应指示机器人装置1当前和过去动作内容的动作信息S12。例如,如果行走动作被确定机构部分41确定,则动作信息S12作为指示“它已经长时间行走”的信息被供应。
通过如此反馈动作信息S12,即使供应了一个相同的输入信息S1至S3,也可以相应于机器人装置1的动作产生不同的感情/本能状态信息S10。具体地说,待反馈的动作信息S12与下述的结构何时确定感情和动作的状态有关。
如图6所示,在感情/本能模式部分40中,设有强度增加/降低装置55A至55C,用于根据指示机器人装置1的动作的动作信息S12和输入信息S1至S3分别产生用于增加/降低感情单元50A至50C的强度的强度信息S14A至S14C。感情单元50A至50C的强度分别根据强度增加/降低装置55A至55C输出的强度信息S14A至S14C来增加/降低。
例如,如果机器人装置1在问候用户时被抚摸,则感情/本能模式部分40用指示问候用户的动作信息S12和指示用户抚摸它的输入信息S1至S3提供给强度增加/降低装置55A。同时,感情/本能模式部分40不改变“快乐”的感情单元50A的强度,即使是在任何工作的执行期间机器人装置1的头部被抚摸时,即,即使向强度增加/降低装置55A供应指示正在执行工作的动作信息S12和指示头部被抚摸的输入信息S1至S3。例如,强度增加/降低装置55A以将根据动作信息S12和输入信息S1至S3产生强度信息S14A至S14C的函数或表的形式构成。例如,这与其它强度增加/降低装置55B和55C相同。
因而,感情/本能模式部分40包括强度增加装置55A至55C。通过不仅根据输入信息S1至S3而且还根据指示机器人装置1的当前和过去动作的动作信息S12来确定感情单元50A至50C的强度,能够避免当用户恶作剧地抚摸机器人装置1时将增加“快乐”感情单元50A的强度的这种不自然感情的生成。感情/本能模式部分40被安排来使欲望单元51A至51C的每个强度根据输入信息S1至S3和动作信息S12增加/降低,和欲望单元51A至51C的情形一样。
本实施例已经参照一个实例进行解释,其中用于“快乐”、“悲伤”和“愤怒”的感情单元50A至50C包括强度增加/降低装置50A至50C。然而,本发明不限于此。不用说,用于“惊奇”、“害怕”和“憎恨”的其它感情单元50D至50F也可以包括强度增加/降低装置。
如上所述,一旦输入信息S1至S3和动作信息S12输入,强度增加/降低装置55A至55C就根据预定的参数产生和输出强度信息S14A至S14C。因此,如果在不同的机器人装置1中分别设置不同值,机器人装置就可以有不同的个性,例如可以提供暴躁的机器人装置、快乐的机器人装置等等。
(3-2)动作确定机构部分中的处理
动作确定机构部分41是根据各种信息确定后续运动(动作)的部分。具体地说,动作确定部分41根据包含感情/本能状态信息S10和动作信息S12的输入信息S14确定后续运动(动作),并把确定的运动(动作)的内容作为动作命令S16发送给姿势转换机构部分42。
更具体地说,如图7所示,动作确定机构部分41使用具有有限数量状态的被称之为概率有限自动机器57的算法,它将通过把过去供给的输入信息S14的历史表达为操作状态(以下称为状态)和通过根据当前供给的输入信息S14及此时的状态使相应状态转换到另一状态来确定后续运动。
因而,动作确定机构部分41使状态在每次供应输入信息S14时转换。该部分41确定的一个动作与状态已经从前一种状态转换到的状态相对应。在这种方式中,确定运动不仅涉及当前输入信息S14而且还涉及过去输入信息S14。
因此,例如,如果在“机器人装置1追球”的状态ST1中提供指示“球已经丢失”的输入信息S14,则状态转换到指示“站立”的状态ST5。另一方面,如果在机器人正在“睡眠”的状态ST2中供应指示“起立”的输入信息S14,则状态转换到指示“站立”的状态ST4。因此,可以发现:尽管采取一个相同的动作,但状态ST4和状态ST5互不相同,因为过去的输入信息S14的历史在这些状态中不一致。
实际上,当检测到一个预定触发存在时,动作确定机构部分41允许当前状态转换到后续状态。触发的一个具体实例是:执行当前状态的动作持续时间达到一个恒定值的事实、输入了一个特定的输入信息S14的事实、或者在感情/本能状态信息S10指示的感情单元50A至50F和欲望单元51A至51D的强度之中欲望单元的强度超过一个预定阈值的事实。
例如,动作确定机构部分41根据欲望单元的强度是否超出一个预定阈值,从感情/本能模式部分40供给的感情/本能状态信息S10所指示的感情单元50A至50F和欲望单元51A至51D的强度中,选择一个转换目的地的状态。在这种方式中,例如输入一个相同命令信号S1,状态可以转换到与感情单元50A至50F和欲望单元51A至51D的强度相对应的不同状态。
所以,如果动作确定机构部分41根据感情/本能状态信息S10检测到用户的手掌置于机器人装置眼睛前面、根据感情/本能状态信息S10检测到“愤怒”感情单元50C的强度等于或小于预定阈值、和检测到机器人装置“不饥饿”(即,电池电压等于或高于预定阈值)时,则动作确定机构部分41响应手掌置于眼前这一动作产生允许机器人装置自己“摇动”的动作命令信息S16并把该信息送给姿势转换机构部分42。
因此,如果动作确定机构部分41检测到用户手掌置于机器人眼前、检测到“愤怒”感情单元50C的强度等于或小于预定阈值或检测到机器人装置“饥饿(需要再充电)”(即,电池电压低于预定阈值)时,则动作确定机构部分41产生允许机器人装置1“舔手掌”的动作命令信息S16。
如果动作确定机构部分41检测到手掌置于机器人的眼前并且“愤怒”感情单元50C的强度等于或大于预定阈置,则动作确定机构部分41产生允许机器人装置1如同“斜视”样动作的动作命令信息S16并把该信息送给姿势转换机构部分42,而不考虑机器人装置是否“饥饿”,即,不考虑电池电压是否等于或高于预定阈值。
如上所述,动作确定机构部分41根据输入信息S14确定后续动作。例如,该部分41保存多个待确定的内容,例如“动作1”、“动作2”、“动作3”、“动作4”,…“动作n”。例如,“动作1”含有踢球动作的运动内容。“动作2”含有表达感情动作的运动内容。“动作3”含有自动搜索动作的运动内容。“动作4”含有躲避障碍的动作的运动内容。“动作n”含有通知小电池剩余量的动作的运动内容。
从如此准备的多个信息条目中进行一个选择是基于输入信息S14根据概率有限自动机器57作出的。从而确定后续动作。
动作的选择(确定)实际上由图8所示的选择模块44完成。选择模块44向姿势转换机构部分42输出选择结果作为动作命令信息S16,向感情/本能模式部分40和动作确定机构部分41输出选择结果作为动作信息S12。例如,选择模块44维持关于已确定的动作的标记,并且向动作确定机构部分41和姿势转换机构部分42输出作为动作信息S12的其信息和动作命令信息。
动作确定机构部分41除了根据外部信息S21(命令信息S1和外部信息S2)或类似信息以及内部信息S22(内部信息信号S3和感情/本能状态信息S10)或类似信息外还根据动作信息S12确定动作。在这种方式中,可以考虑先前动作来确定后续动作。
此外,如上所述,感情/本能模式部分40基于相等的输入信息S1至S3改变感情和本能的状态。结果,如上所述,即使供给了相等的输入信息S1至S3,感情/本能模式部分40也可以产生不同的感情/本能状态信息S10。
组ID(标识符)可以被附加在指示“动作1”、“动作2”、“动作3”、“动作4”、...“动作n”的运动内容信息上。组ID表示一个相同类别共用的相等信息。例如,在“踢球”动作中包含多个多种模式的情况下,一个相同的组ID被加到这多个动作的每一个上。通过把一个相同的组ID添加到属于一个相同种类的每个动作上,就可以按组处理属于相同种类的诸多动作。
例如,当选择模块44选择一个动作时,就把一个相同组ID发给从一个相同种类中选出的任何一个动作。然后,将附加在所选动作上的组ID发送给感情/本能模式部分40,使感情/本能模式部分40可以确定感情和本能的状态。
此外,根据从感情/本能模式部分40供给的感情/本能状态信息S10所指示的感情单元50A至50F和欲望单元51A至51D的强度之中的欲望单元的强度,动作确定机构部分41确定将在作为转换目的地的状态中执行的动作的参数,比如,行走速度、手和腿运动时的运动幅度、产生声音时的音高等。在这种方式中,例如,输入一个相同命令信号S1,状态可以转换到与感情单元50A至50F和欲望单元51A至51D的强度相对应的不同状态。然后部分41产生动作命令信息S16并把它发送给姿势转换机构部分42。
对于由命令信号S1、外部信息信号S2和内部信息信号S3组成的输入信息S1至S3,信息的内容与向感情/本能模式部分40和动作确定机构部分41输入信息的定时不协调。因此,输入信息S1至S3还同时输入给动作确定机构部分41和感情/本能模式部分40。
例如,当控制器32被供应指示“头部被抚摸”的外部信息信号S2时,控制器32借助感情/本能模式部分40产生指示“快乐”的感情/本能状态信息S10,并把感情/本能状态信息S10供给动作确定机构部分41。然而,当在这种状态中输入指示“手在眼前”的外部信息信号S2时,动作确定机构部分41根据指示“快乐”的感情/本能状态信息S10和指示“手在眼前”外部信息信号S2产生“愿意摇摆”的动作命令信息S16。部分41将它发送给姿势转换机构部分42。
此外,运动状态的转换目的地(或节点)可以由概率有限自动机57的一定概率来确定。例如,当存在一个外部输入时,运动状态按20%的概率(转换概率)转换到一定的运动状态(动作状态)。实际上,在如图9所示的转换能够从“行走”状态ST10到“跑步”状态ST11或“睡眠”状态ST12的情形下,转换到“跑步”状态ST11的转换概率被设置为P1,转换到“睡眠”状态ST12的转换概率被设置为P2。转换目的地由这些概率确定。需要说明的是由概率确定转换目的地的技术已经在日本专利申请公报第9-114514中公开。
此外,机器人装置1以表格的形式保存涉及状态转换的概率的信息。该表格的一个实例在图10中示出。图10所示的表格由节点名、输入事件名、输入事件的数据名、输入事件的数据范围和关于状态转换的转换概率的信息构成。
从这张表格中可以看出,转换到一定状态的转换概率相应于输入事件来确定,转换目的地的状态根据该转换概率确定。
指示当前动作状态的节点名指示机器人装置1动作状态(或简称状态),即,指示现在执行什么动作。
此外,输入事件是输入给机器人装置1的信息,该表格使用这些输入事件进行分类。例如,输入事件名的“BALL(球)”表示输入事件指示对球的检测。“PAT(拍)”表示轻轻拍打,“HIT(打)”表示打击。“MOTION”表示对运动的球的检测,“OBSTACLE(障碍)”表示对障碍的检测。
此外,该表格是用大量的输入事件建立的。本实施例将结合“BALL”、“PAT”、“MOTION”和“OBSTACLE”的情况进行解释。
输入事件的数据范围是指在这样的输入事件需要参数的情况下的数据范围,输入事件的数据名表示这样的参数名。也就是说,如果输入事件是“BALL”,这数据名表示是球的尺寸的“SIZE”,以及数据的范围表示该尺寸是0至1000的范围。同样地,如果输入事件是“OBSTACLE”,则数据名表示距离“DISTANCE”。数据范围表示这样的距离范围是0至100。
此外,状态转换的转换概率被分配给可以根据输入事件的特性选择的多个状态的每一个。也就是说,转换概率被分别分配给各弧线,使分配给相对于一个输入事件的可以选择的各状态的转换概率的总和为100%。更具体地说,在“BALL”的输入事件情况下,可以根据该输入事件特征选择的分配给“ACTION1”、“ACTION3”...的转换概率30%、20%...的总和被安排成100%。
需要指出的是,这里所述的“节点”和“弧线”通常由所谓的概率有限自动机器定义。“节点”被定义为状态(称作本实施例中的动作状态)。“弧线”被定义为定向线段(称作本实施例中的转换运动),该定向线段把“弧线”及“节点”与一定的概率相联系。
从上述的由信息构成的表格中可以看出,该表格涉及了输入事件、由输入事件所获得的数据范围和转换概率,作为转换目的地的状态按下述方式选择。
例如,在机器人装置1检测到球的情况下(即,在输入事件是“球”的情况下),当球的尺寸是0至1000时,作为当前状态的节点3以30%的概率转换到节点120。在该转换中,选择分配给“动作1”的弧线,并且执行与“动作1”相对应的运动或表现。或者,作为当前状态的节点3以20%的概率转换到节点500。在这种转换中,选择分配给“动作3”的弧线,并且执行与“动作3”相对应的运动或表现。例如,“动作1”和“动作3”可以是“吠声”和“踢”等。同时,当球的尺寸等于或大于1000时,“节点120”和“节点500”不可能被选择。
此外,在机器人装置1发现障碍的情况下(在输入事件为“障碍”的情况下),当距该障碍的距离为0至100时,以100%的概率选择作为后退动作的“节点1000”的节点。也就是说,以100%的概率选择附加了“MOVE_BACK”的弧线,并且执行“MOVE_BACK(后退)”。
如上所述,可以选择状态(节点)或弧线,或者可以使用表格或类似物确定动作模式。因而,通过考虑概率来确定转换目的地的状态,能够避免一种相同的转换确定总是被选择。也就是说,可以丰富机器人装置1的动作表现。
此外,上述的状态选择和动作模式的确定还可以根据感情模式的状态作出。例如,在感情模式的状态基础上,动作模式可以通过改变上述状态之间转换的转换概率来确定。
例如,利用上述的状态转换的确定。也就是说,涉及了感情模式的状态(例如,其等级),转换概率根据感情模式的状态改变。在这种方式中,动作模式的确定根据感情模式作出。所以,动作模式受感情模式的状态的影响。这将结合图10所示的表格的使用者进行解释。
例如,“喜欢”、“惊奇”和“悲伤”被制定为确定转换概率的数据。“喜欢”、“惊奇”和“悲伤”对应感情模式的感情单元50A、50D和50B。此外,数据的范围被设置为例如0至50。这一数据范围对应上述的感情单元的等级。
在这种方式中,当“喜欢”、“惊奇”和“悲伤”处在预定等级上时,例如处在本实施例情况中的0至50,则确定转换到预定状态的预定转换概率。例如,如果其数据范围是0至50的“喜欢”具有30的动作等级,对“动作1”、“动作2”、“MOVE_BACK”、“动作4”分配的弧线分别按10%、10%、10%、70%的概率选择,并且使状态转换到预定的状态。
如图10所示,甚至在外部不提供输入的状态中,通过引用与输入事件无关的“喜欢”、“惊奇”、“悲伤”来确定转换概率,即,通过在所谓的空白事件状态中引用它们来确定转换概率。在这种方式中,例如,在预定时间未检测到输入事件时,可以引用感情模式确定转换概率。
此外,在这种情况下,可以通过依次引用“喜欢”、“惊奇”和“悲伤”来引用“喜欢”、“惊奇”和“悲伤”的动作等级。在这种方式中,例如,当“悲伤”的动作等级为60时,数据范围被设置到0至50,以便引用下一个“喜欢”的动作等级。此外,在其数据范围是0至50的“喜欢”具有动作等级20的情况下,“动作2”被分配的弧线按30%的概率选择,“MOVE_BACK”被选择的弧线按60%的概率选择,以便使状态转换到预定状态。
如上所述,本发明被安排来使动作模式可以根据感情模式的状态来确定。因而动作模式受感情模式的状态影响,从而丰富了机器人装置1的表现。
借助上述的各种方法,动作确定机构部分41确定动作命令信息S16。
(3-3)姿势转换机构部分中的处理
姿势转换机构部分42是产生用于转换到目标姿势或目标运动的信息的部分。具体地说,如图3所示,姿势转换机构部分42根据从动作确定机构部分41供给的动作命令信息S16产生姿势转换信息S18,以允许当前姿势或运动转换到下一个姿势或运动(目标姿势或运动)。然后,部分42把该信息发送给控制机构部分43。例如,当前姿势可以转换的姿势可以由机器人装置1的物理形态比如躯体、手和腿的形状、尺寸和相应部分的连接状态以及致动装置23A至23N的机构比如关节弯曲处的方向和角度来确定。考虑到上述情况,姿势转换信息S18被制定为用于执行转换的信息。
控制机构部分43实际上根据从姿势转换机构部分42如此发送的姿势转换信息来移动机器人装置1。
姿势转换机构部分42预先登记机器人装置1可以转换的姿势和转换时将采取的运动。例如,姿势和运动以图形的形式管理,部分42把动作确定机构部分41供应的动作命令信息S16作为姿势转换信息S18发送给控制机构部分43。控制机构部分43根据姿势转换信息S18进行操作,并允许机器人装置转换到目标姿势或目标运动。在下述说明中,将具体解释姿势转换机构部分42将执行的处理。
例如,机器人装置1在某些情况下不能够直接转换到与命令的内容(动作命令信息S16)一致的姿势上。这是因为机器人装置1的姿势被分成机器人装置1可以直接从当前姿势转换到的姿势的类型,和不能直接从当前姿势转换到的姿势但可以经某些运动或姿势转换的姿势的类型。
例如,机器人装置1可以从机器人装置1手腿伸展躺下的姿势直接转换到卧下的姿势,但不能够直接转换到站立姿势。因此,机器人装置1需要两级运动,即,机器人装置1必需首先收缩它的手和腿使其靠近躯体然后才能站立起来。此外,还存在不能安全地执行的姿势。例如,当四足机器人装置1将要在站立姿势抬高双腿行礼时,它会跌倒。或者当只有在坐着的姿势才可能执行的“打腿”作为命令内容被发送而此时当前姿势为躺下姿势(睡眠姿势)时,如果命令直接发出,则执行从睡眠姿势到坐着的姿势的转换和打腿的运动。因此,机器人装置1失去了平衡并且跌倒。
因此,如果从动作确定机构部分41供给的动作命令S16指示机器人装置1可以直接转换的姿势,这姿势转换机构部分42把动作命令信息S16作为姿势转换信息S18直接发送给控制机构部分43。否则,如果动作命令信息S16指示机器人装置1不能直接转换的姿势,则姿势转换机构部分42产生姿势转换信息S18,以允许机器人装置1经过机器人装置可以转换的另一个姿势或运动转换到目标姿势(由动作命令信息S16指示的动作命令信息S16)。然后,部分42把命令信息S18发送给控制机构部分43。在这种方式中,机器人装置1可以避免机器人装置不能转换的姿势被强行执行的情况发生,或者避免跌倒。或者,在目标姿势或运动实现之前准备多个将执行的动作可以关于丰富的表现。
具体地说,姿势转换机构部分42保持一个登记姿势和运动的图形,它是机器人装置1可以执行的,并且是通过连接允许这一姿势转换的姿势和运动而构成的。姿势转换机构部分42根据作为命令信息的动作命令信息S16在该图形上搜索从当前姿势到目标姿势或目标运动的路径,并且允许机器人装置1根据搜索结果运动,从而允许机器人装置从当前姿势转换到目标姿势或运动。也就是说,姿势转换机构部分42预先登记机器人装置1可以采取的姿势,并且记录机器人装置可以经过其转换的路径。根据该图形和从动作确定机构部分41输出的动作命令信息S16,机器人装置1被允许向目标姿势或运动作转换。
具体地说,姿势转换机构部分42把图11所示的被称作定向图形60的算法用作上述的图形。定向图形60由节点和定向弧线(运动弧线)和(在某些情况下的)运动的弧线(即,表示在一个节点内完成的运动的自运动弧线)构成,节点指示机器人装置1可以采取的姿势,每个定向弧线连接机器人装置可以转换的两个姿势(节点),自运动弧线的每一个表示从一个节点到它自己的返回。节点和弧线相互连接。也就是说,姿势转换机构部分42维持由作为指示机器人装置1姿势的信息的节点和作为指示机器人装置1运动的信息的定向弧线和自运动弧线构成的定向图形60。此外,部分42控制作为点的信息的姿势,和作为定向线段的信息的运动信息。
定向弧线和自运动弧线可以是多个的。也就是说,多个定向弧线可以在机器人装置可以转换的节点(姿势)之间连接,一个节点可以连接多个自运动弧线。
当动作命令信息S16从动作确定机构部分41供给时,姿势转换机构部分42沿着定向弧线a的方向搜索从当前节点到下一个节点的路径,例如由动作命令信息S16指示的与当前姿势和下一步要采取的姿势相对应的节点,并在所搜索的路径上依次记录节点,从而制定姿势转换的计划。在下文中,从当前姿势到目标节点(由命令指示的节点)的路径搜索被称作路径搜索。这里所述的目标弧线可以是定向弧线和自运动弧线。例如,自运动弧线是目标弧线的情况是自运动为目标(被命令)的情况,例如,预定特技(运动)被指令的情况等。
在获得目标姿势(节点)或运动(定向弧线或自运动弧线)之前,姿势转换机构部分42根据姿势转换计划向后级中的控制机构部分43输出控制命令(姿势转换信息S18)。
例如,如图12所示,在当前姿势处在指示“趴下”的姿势的节点ND2的情况下,当“坐下”的动作命令信息S16被供给时,存在从指示“趴下”的姿势的节点ND2到指示“坐”的姿势的节点ND5的定向弧线a9,所以可以实现直接转换。因此,姿势转换机构部分42向控制机构部分43供应指示“坐下”内容的姿势转换信息S18。
在当前姿势处在指示“趴下”的姿势的节点ND2的情况下,当“行走”的动作命令信息S16被供给时,不能实现从“趴下”到“行走”的直接转换,因此姿势转换机构部分42搜索从指示“趴下”的姿势的节点ND2到指示“行走”的姿势的节点ND4的路径,从而制定了一个姿势转换计划。也就是说,制定一个计划,使指示“站立”姿势的节点ND3经定向弧线a2从指示“趴下”姿势的节点ND2中选出,并且使姿势从指示“站立”姿势的节点ND3经定向弧线a3到达节点ND4。作为该姿势转换计划的结果,姿势转换机构部分42发出具有“起立”内容的姿势转换信息S18,此后向控制机构部分43输出具有“行走”内容的姿势转换信息S18。
至于在由图12所示的节点构成图形的情况下对每个节点进行自运动弧线的粘贴(pasting),指示“跳舞”运动的自运动弧线被粘贴在指示“站立”姿势的节点ND3上。或者,指示“行礼”运动的自运动弧线被粘贴在指示“坐”的姿势的节点ND5上,或者指示“打鼾”姿势的自运动弧线被粘贴在指示“伸展”姿势的节点ND1上。
机器人装置1被构造,以致正常地掌握机器人装置所处的姿势。然而,在某些情况下,机器人装置1丢失它的当前姿势。例如,当用户举起机器人装置时、当机器人装置跌倒时、或者当通电时,机器人装置1不能控制它的当前姿势。例如,不能被控制的当前姿势被称作不确定姿势。如果当前姿势不能被控制并且被确定为是不确定姿势,这不能确定所谓的起始姿势,以致不能制定到达目标姿势或运动的姿势转换计划。
因而,提供了指示中性姿势的节点。如果当前姿势不确定,这机器人装置1被允许转换到中性姿势,然后制定姿势转换计划。例如,当当前姿势不确定时,中性姿势被允许转换到图13所示的节点NDnt,然后使这一姿势转换到指示基本姿势的节点,比如,指示“站立”姿势的节点ND3、指示“坐”的姿势的节点ND5,或指示“躺下”姿势的节点ND1。此外,在转换到这一基本姿势之后,按原来问题制定转换计划。
本实施例已经采用作为基本姿势引用的“站立”、“坐”和“躺下”姿势进行了解释,其中基本姿势是中性姿势转换到的姿势。不用说,本实施例不局限于此,也可以把另外的姿势用作基本姿势。
对于从不确定姿势到中性姿势(节点)的转换,操作部分(例如,致动装置)例如以低转矩或低速驱动。在这种方式中,对伺服装置的负载被减小。因此,操作部分可以进一步避免例如像正常操作那样的驱动和由此造成的损害。例如,尾部部件5的正常运动好像摇摆。然而,如果在姿势转换到中性姿势(节点)时执行尾部部件5的这种运动,那么,如果在一个不确定姿势中机器人装置1躺下,则可能损坏该尾部部件5。
此外,机器人装置1可以控制它自己的跌倒,并且可以从跌倒姿势转换到上述的基本姿势。例如,机器人装置1设有一个加速传感器,检测它自己的跌倒。
具体地说,当机器人装置1借助加速传感器检测到它已经跌倒时,机器人装置1进行从跌倒还原的预定运动,此后转换到指示上述的基本姿势的一个节点。
加热器设备还被安排来使它能够掌握跌倒方向。更具体地说,机器人装置1可以掌握其向前、向后、向左和向右方向的跌倒方向。在这种方式中,机器人装置1可以进行一种运动,使其从与跌倒方向一致的跌倒中还原。因此,机器人装置可以迅速地转换到基本姿势。
当检测到一个跌倒时,可以输出一个预定的表现。例如,机器人装置1根据自运动弧线a11伸展它的腿,以作为预定表现。在这种方式中,能够表现机器人装置1已经跌倒和挣扎的情况。
此外,如果在“躺下”的节点ND2和“站立”的节点ND3之间存在未显示的多个定向弧线,则可以通过选择最佳定向弧线来制定转换到“站立”的节点ND3的姿势转换计划。
如上所述,这里有:在节点之间存在多个定向弧线的情况,和多个节点经定向弧线连接一个节点的情况。因此,具有从当前节点连接目标节点或弧线(定向弧线或自运动弧线)的多个路径。
从上述描述可以得知,制定姿势转换计划是为了把缩短当前节点与目标节点之间距离的指标作为一个指标,即,借助所谓的提供最短距离的路径的最短距离搜索。
如图14所示,最短距离搜索是使用连接节点(圆圈标记)的定向弧线(箭头标记)的距离概念完成的。这种类型的路径搜索方法是DAIKISUTORA的路径搜索逻辑(语音变换)。距离可以由后面所述的权重(weighting)、时间等概念来替代。图14显示了当前姿势可以经具有距离“1”的定向弧线转换的连接节点的结果。
因此,通过把这种距离用作路径搜索的指标,能够选择从当前姿势到目标节点的最短路径。
更具体地说,假定存在从当前节点到目标节点的四个路径的情况,其中第一至第四路径分别具有“12”、“10”、“15”和“18”的距离。节点经具有“10”距离的第二路径转换,并且制定直至目标姿势的姿势转换计划。
搜索最短距离的方法不局限于这种方法。
在上述的实例中,搜索了多个路径,并从搜索结果中选择具有对目标节点的最短距离的路径。换言之,搜索当前节点可以转换到目标节点的路径,与能够得到的多个路径一样多。从这些多个路径中,用被用作指标的距离选定最短路径。然而,对具有最短距离的路径的搜索不局限于借助这种方法对最短路径的搜索,也可以在目标节点的最短路径被检测时的时间点上终止路径搜索的处理。
例如,作为搜索指标的距离逐渐地从当前姿势相继地伸展到搜索节点。每一次搜索节点,就确定最短距离上的节点(不是作为目标的节点)。最后,在检测作为目标的节点时的时间点上,终止搜索路径的处理。也就是说,例如,可以用“等高线”概念识别的“相等距离”的概念被使用,并且从当前节点扩展距离,以便相继检测“相等距离”上的节点。在作为目标的节点可以被最终检测时的时间点上,确定搜索一个路径的处理。DAIKISUTORA的路径搜索可以被引用为搜索路径的方法。
根据这种对最短距离的路径的搜索,可以搜索形成最短距离的路径,而不需要搜索所有的对于目标的节点可能存在的路径。因此,最短距离的路径可以在最短的时间内检测。因此,能够减少需要执行这种搜索处理的CPU等的负载。所以,可以检测作为目标的节点的最短距离,而不需要搜索所有的路径。由整个网络的搜索而造成的负载可以被消除。例如,在构造该图形的网络是大规模网络的情况下,可以以减少负载的方式搜索路径。
此外,如图5所示,搜索路径的方法可以按下述方式安排。节点根据动作或姿势被事先分类(成群)。首先通过成群来执行粗略的搜索。然后在进行详细的搜索。例如,当机器人装置被允许获得“右前腿踢”的姿势时,首先把“踢球”分类的区域选作路径搜索范围,然后仅在该区域中搜索路径。
例如,粗略的分类和其元素相互联系,即,在设计该类系统时,“踢球”和“右前腿踢”通过附加ID信息和类似物来相互联系。
在节点之间,可以存在在两个方向指向节点的定向节点。因此,可以有一个从机器人装置曾经转换的节点返回的定向弧线。在这种情况下,如果没有对路径搜索的限制,则可以选择返回的定向弧线,并且在某些情况下转换可能返回到原始节点。为此,通过选择一个不能通向机器人装置曾经经过的节点的定向弧线来避免这种情况的发生。
在作为目标的节点不能达到的情况下,不能获得最终姿势的结果输出给上级控制装置、下级控制装置,等等。
上述实例已经解释了目标是姿势(节点)的情况。然而,目标也可以是运动,即,定向弧线或自运动弧线。作为目标的弧线是自运动弧线的情况将是腿部件被允许抽打的情况。
此外,把附加给定向弧线的权重和定向弧线的由运动时间引用为路径搜索的指标是可能的。如果权重被附加给定向弧线,则采用以下方式。
对存在于从当前节点到目标节点的路径每个候选者上的定向弧线的权重总和进行计算,并为每个路径的候选者进行该总和的比较。选择一个最佳路径(例如,需要最小代价的路径)。
下面将说明考虑了定向弧线的运动时间(执行时间)的情况。
例如,如果当前节点经过定向弧线转换到一个目标节点,其中两个定向弧线分别需要一秒钟和两秒钟的运动时间,则转换时间需要三秒钟。因此,如果在图16所示的图形中当前节点ND1转换到ND3,则有当前节点经节点ND2转换到目标节点ND3的情况和当前节点仅经过定向弧线a3转换到目标节点ND3的情况。在运动时间被用作指标时,机器人装置1可以在经过需要一秒钟运动时间的定向弧线a1和需要两秒钟运动时间的定向弧线a2的经由节点ND2转换的前一种情况下在较短的时间阶段内更快地到达目标节点ND,而后一种转换情况只经过直接把当前节点ND和目标节点ND相互连接起来并且需要五秒钟运动时间的a。所以,在把运动时间取作指标的情况下,能够制定通过经两个定向弧线的转换以最短的时间到达目标节点的姿势转换计划。
此外,对定向弧线的加权或距离可以被用作运动的难度等级。例如,难度等级低的事实被设置为距离短的事实。此外,一个定向弧线可以被设置为缺省值。通过把一个定向弧线设置为默认值,就能够在一般的情况下选择缺省的定向弧线,和当给定指令时选择不是缺省的另一个定向弧线。
如上所述,通过把任何一个路径搜索指标附加给定向弧线,即,通过把运动时间或其平衡难以保持的难度等级附加给定向弧线,就能够制定选择避免大动作的最佳路径的姿势转换计划。此外,能够通过把能量消耗率加给定向弧线制定选择最佳效率路径的姿势转换计划。
由于有多个定向弧线存在于节点之间的情况,因此选择概率可以分配给每个定向弧线。也就是说,把不同的概率分别分配给各弧线。在这种方式中,可以在相同节点间选择各种运动,使一系列运动具有多样性。例如,当坐转换到站立姿势时,可以依靠概率选择以下运动:折叠的腿一经向后伸展机器人装置就靠前腿站立的动作或者前腿向前伸展然后机器人装置站立。在这种方式中,能够带来在再现(或实际执行)所选择的运动之前不能预测机器人装置采用哪一种运动的效果。
更具体地说,分配给用mi的权重或距离附加的定向弧线的概率Pi可以由公式(1)表示。在这里,定向弧线的距离或权重是m1,m2,m3,...,其(m1+m2+m3+...)总和是M。
P i = M - m i ( M - m i ) + ( M - m 2 ) + ( M - m 3 ) + · · · · · · ( 1 )
以这种方式,具有大权重的定向弧线被选作低概率的转换路径,而具有小权重的定向弧线被选作高概率的通过路径。
此外,能够限制执行路径搜索的区域。例如,路径搜索可以被限制在预定范围之内的路径。以这种方式,可以在最短的时间内搜索最佳路径。
此外,如果通过另外执行加权重(weighting)来选最佳路径,在远距离姿势之间补偿运动的单调性则可以被避免,并且可以减小经高风险的路径的转换概率。
此外,可以在上述的图形中登记弧线(定向弧线或自运动弧线)。
例如,对于“行走”运动可以考虑多种执行格式。例如,如图17所示,沿角度0°的方向行走的运动、沿角度30°的方向行走的运动、和沿角度60°的方向行走的运动可以是多种执行形式。提供用于一个运动的多种执行形式,即,有关一种运动的参数数量的增加导致了机器人装置1表现的丰富。这些运动可以通过提供具有这些不同参数的弧线来实现。
同时,对于有效使用网络资源方面,不涉及这种具有相对于多个执行形式的不同参数的弧线的提供。这是因为在0°至90°的以1°等距间隔的不同方向执行行走运动的情况下,需要91个弧线。
因此,“行走”被设置为路径,行走方向被设置为参数。例如,在自运动弧线方面,“行走!”被命令,这时随意地把一个行走方向供作参数。在再现运动时,以该参数指定的方向执行“行走”。因此,如果只提供了一个“行走”自运动弧线和行走方向的参数,则可以通过微调行走方向完成“行走”的指令,而且不需要多个自运动弧线。在这种方式中,即使情况变化也可以简化图形。网络资源可以被有效使用。
具体地说,有关诸如行走方向的运动参数的信息,作为附加信息加给动作命令信息S16。姿势转换机构部分42向控制机构部分43发送具有“行走”内容并附加这种参数的姿势转换信息S16。
上述实施例已经解释了把参数加给自运动弧线的情况。本实施例不限于此,参数也可以加到定向弧线上。因此,不需要把具有不同“行走方向”的多个定向弧线制定为参数,尽管“行走”运动是这些定向弧线所共有的。
在重复一个相同运动的情况下,“三次”的信息被任选地供作将要重复的次数。因此,可以简化命令格式。在这种方式中,例如,当机器人装置被允许行走三步时,这一指令可以由“行走”和“三次”的指令格式执行,而不需要三次发出“行走”命令或发出“行走三次(步)!”的命令。以这种方式,由这种指令格式构成的弧线或节点可以用减少的信息量来保持。另外,由于可规定重复次数,发出指令的的次数和发送指令前的时间周期可以被缩短。
例如,如图8所示,作为逐步行走运动的指令的“一步行走”的信息被输出给控制机构部分43,并且把“3”指令为参数。这样就实现了只走三步的行走运动。此外,通过把“7”指令为参数,机器人装置被允许行走七步的运动。此外,通过把“-1”指令为参数,机器人装置可以被允许保持行走,直至给出一个关于腿的另一个指令。
此外,机器人装置被允许重复运动。随后把停止重复运动的停止命令送给控制机构部分43。这样,机器人装置可以重复执行一个相同运动。
此外,预定的弧线可以借助于其上粘贴的表情(expression)来执行。也就是说,在执行预定运动(弧线)的情况下,能够让机器人装置与预定动作同步地执行诸如另一个表现的运动。例如,如图19所示,在从坐姿势的节点ND1转换到站立姿势的节点ND2的定向弧线a被设置的情况下,预定声音或运动被允许与预定弧线a相对应。在这种方式中,微笑的眼睛或“Mmm”的声音的表情可以与从坐姿势转换到站立姿势的运动同步地再现。因而,能够通过不同部分的组合达到丰富的表现,从而具有使情景丰富的效果。
在某种情形下,连接节点的自运动弧线相互重叠。其实例将是如图20所示的在睡眠姿势、坐姿势和站立姿势的每个节点上进行发怒的运动。
在这种情况下,把表示愤怒的每个运动,比如从睡眠姿势到睡眠姿势的自运动弧线、从坐姿势到坐姿势的自运动弧线和从站立姿势到站立姿势的自运动弧线,命名为名为愤怒的运动。然后,通过仅仅提供“愤怒”的指令,就可以通过最短路径搜索来搜索“愤怒”的最接近运动(自运动弧线)。也就是说,目标运动中的最短可执行路径(自运动弧线)被选作姿势转换计划。在这种方式中,例如,当在当前姿势是最接近睡眠姿势的情况下发出“愤怒”的动作命令信息S16时,执行在睡眠姿势中擦地的运动,以作为发怒的运动,它与作为睡眠姿势的节点的自运动弧线相联系。
如果在多个节点的每一个上有执行这样的一个相同运动的自运动弧线并且如果用于这样的预定运动的指令被给出,则可以通过最短距离搜索在一个最佳姿势(最短距离上的姿势)上执行运动。照此方式,上级控制装置可以执行被指令的运动,而不需要持续控制各部件的状态或运动。也就是说,例如,如果“愤怒”的命令被给出,则上级控制装置(姿势转换机构部分42)仅需要掌握当前节点。以最短的距离到达处于睡眠姿势的发怒运动的姿势转换计划可以仅通过搜索“愤怒”的自运动弧线来制定,而不需要搜索“处于睡眠姿势的发怒”的实际节点。
此外,如上所述,如果一个相同系统的运动以一个相同名指令,则基于当前姿势在先前登记的图形上搜索和选择一个最佳姿势。因此,诸如“发怒”或类似情形的具有抽象和丰富模式的运动指令可以按简单方式来指导。
机器人装置1可以分别操作它自己的各组成部件。也就是说,有关各组成部件的命令可以被执行。这样的机器人装置1的组成部件将是头部部件2、腿部部件4和尾部部件5,如图21所示。
在如此构成的机器人装置1中,尾部部件5和头部部件2可以单独运动。也就是说,由于这些部件的资源不相互争用,因此这些部件可以独立地操作。但是,整体机器人装置1和头部部件2不能独立运动。也就是说,由于整体设备和该部件的资源相互争用,因此整体机器人装置1和头部部件2不能独立运动。例如,在整体设备的运动、包含头部部件2的运动的命令正在执行的时候,有关头部部件2的命令内容不能执行。例如,在摇摆头部部件2的时候也能够摇摆尾部部件5。另一方面,在整体设备执行进行特技动作的时候,不能够摇摆头部部件2。
表1示出了在资源与动作确定机构部分41供给的动作命令信息S16争用和资源与信息S16不争用的情况下的资源组合。
                   表1
  部件组合   资源的争用
  头部,尾部头部,整体腿部,整体头部,腿部,尾部   不是是不
这样,如果其资源相互争用的命令被供给,则或者是关于机器人装置1运动的命令或者是关于头部部件2运动的命令必需被预先执行。下面将解释在这种命令被执行的情况下的处理。
在任一个命令因为资源相互争用被预先执行的情况下,例如,在整体设备1的运动被完成和关于头部部件2的命令被随后执行的情况下,头部部件2的运动起始于经整体设备1的运动获得的最后姿势。然而,整体设备1运动之后的最后姿势不总是使头部部件2的姿势适合于开始运动。如果头部部件2的运动开始于整体设备1运动之后的最后姿势是不适于头部部件2启动运动的状态,即,在转换根据不同命令发生之前和之后的姿势相互不连续的情况下,头部部件2进行导致不自然行为的剧烈运动。这是一个在当前姿势(或运动)和目标姿势(或运动)与整体机器人装置1和其组成部件相关联的情况下造成的问题。由为了控制整体机器人装置1而构成的节点和弧线组成的网络(图形)和由为了控制整体机器人装置1的各组成部件而构成的节点和弧线组成的网络(图形)被分别构成,而不需要在其间提供任何关联。
机器人装置1因上述转换前后的不连续姿势造成的不自然运动可以通过制定一个使转换运动平稳连续的姿势转换计划来消除。具体地说,这一问题通过在图形上制定一个采用整体设备和组成部件所共有的基本姿势的姿势转换计划来消除。
下面的解释将是这样一种情况,即,有关用于机器人装置1姿势转换计划的网络的信息被构成分成结构的情况,就整体而言,分成关于整体网络的信息(图形)和关于各组成部件的网络的信息(图形)。例如,由关于整体网络的信息(图形)和关于组成部件的信息(图形)组成的用于姿势转换计划的信息在上述的如图8所示的姿势转换机构部分42中构成。
基本姿势是机器人装置进行临时转换以便在整体设备的运动与组成部件的运动之间转换状态的姿势。基本姿势的一个实例是如图22B所示的坐姿势。下面就坐姿势被设置为基本姿势的情况解释平稳连接转换运动的过程。
具体地说,将解释这样的情况,在整体设备的图形上取为姿势Na0的当前姿势,如图23所示,以及执行作为目标的头部部件的运动a2
在整体设备的图形上,选择允许整体机器人装置1的运动从当前姿势NDa0转换到基本姿势NDab的定向弧线a0。如果整体设备取基本姿势,则在头部部件、腿部部件和尾部部件的图形上的基本姿势的状态(节点)下控制整体设备。
在头部部件的图形上,依据基本姿势NDhb的状态选择最佳定向弧线a1,并且确定到头部部件2的目标运动(自运动弧线)a2的路径。
此时,整体设备的图形上的从当前姿势NDa0到基本姿势NDab的路径的搜索和头部部件的图形上的从基本姿势NDhb到目标运动a2的路径的搜索借助上述的最短距离搜索来完成。
根据这一过程,平稳连接整个设备和组成部件的转换路径(姿势转换计划)的选择在整体设备和头部部件的图形上进行。此外,控制机构部分43根据姿势转换计划向控制机构部分43输出姿势转换信息S19。
上述实例是整体设备的一个运动被平稳延续到一个组成部件的一个运动的具体实例。下面的解释将是一个组成部件的一个运动被平稳延续到整体设备的一个运动的具体实例。更具体地说,将在图24所示的情况下进行解释,这种情况是在头部部件图形上的姿势NDh0内控制头部部件2、在腿部部件图形上的姿势NDf0内控制腿部部件、和作为目标执行整体设备的运动a4
在头部部件的图形上,允许头部部件2的姿势从当前姿势NDh0转换到基本姿势NDab的一个定向弧线a0被选择。在腿部部件的图形上,允许腿部部件4的姿势从当前姿势NDf0经姿势NDf1转换到基本姿势NDfb的定向弧线a1和12被选择。如果如果各组成部件到达它们的基本姿势,则也在整体设备的图形上将该姿势作为基本姿势获取。
此外,在整体设备的图形上,依据基本姿势NDhb的状态选择一个最佳定向弧线,并且确定到整体设备的运动(自运动弧线)a4的路径。
例如,当执行把另一个组成部件的运动转换到基本姿势的时候可以执行每个组成部件的运动,或者附加限制地执行每个组成部件的运动。例如,可以以一定的定时执行每个组成部件的运动。具体地说,在头部部件2用来进行特技的时候发出了关于整体设备1运动的命令的情况下,头部部件2不能转换到姿势NDhb,因为它正在执行特技。因此,首先把腿部部件4带入基本姿势NDfb的状态,在头部部件2结束特技之后才允许头部部件2转换到基本姿势NDhb的状态。
此外,可以安排每个组成部件进行考虑了整体设备1姿势平衡的运动。例如,如果头部部件2和腿部部件4同时运动或者如果头部部件被首先设置在基本姿势NDhb中,将失去平衡,从而使机器人装置跌倒。在这种情况下,腿部部件4首先被带入基本姿势NDfb,然后允许头部部件2转换到基本姿势NDhb
通过制定姿势转换计划,其中状态被允许转换到基本姿势一次,可以平稳地延续运动。
此外,如果未使用的各部件的资源被释放,则该资源可以用于其它目的。例如,如果头部部件2的资源被释放,而机器人装置正在行走,则头部部件2被允许跟踪(跟随)一个运动的球。
很明显,基本姿势不局限于一个基本姿势。例如,多个姿势,比如坐姿势、睡眠姿势等也可以被设置为基本姿势。因此,可以通过经最短距离(或最短时间)的最短运动实现从整体设备的一个运动到组成部件的任一个运动的转换或者从组成部件的任一个运动到整体设备的一个运动的转换。此外,这种多个基本姿势的设置使机器人装置1的表现丰富。
此外,上述的的姿势转换机构部分42中的姿势或运动的确定或类似情况根据来自动作确定机构部分41的动作命令信息S16作出。此外,动作确定机构部分41通常不加限制地向姿势转换机构部分42发送动作确定指令信息S16。也就是说,在执行一个运动时,发出一个有关另一个运动的命令,和把这样发出的命令送给姿势转换机构部分42。这里设置了一个命令存储部件,用于存储从姿势转换控制部分42发送的与该命令相对应的动作命令信息S16。该命令存储部件存储由动作确定机构部分41生成的动作命令信息S16,并且还可以执行所谓的列表操作。该命令存储部件是,例如,一个缓冲器。
因此,如果从动作确定机构部分41发送的一个命令目前不可能执行,例如,当正在执行踢球动作(预定运动)时,则所发送的命令存储到缓冲器中。如图25A所示,当结束特技(trick)球运动后,通常从缓冲器中拾取最早的命令,并执行路径搜索。例如,如果如图25A所示的那样存储命令,则首先执行最早的命令A。
命令被如此存储到缓冲器中并且从最早命令起被依次执行。然而,也能够执行列表操作,以插入或删除命令。
至于命令的插入,命令D被插入到已经被存储的一个命令组中。按此方式,可以先于等待执行的命令A、B、和C执行命令D的路径搜索。
至于命令的删除,一个已经存储在缓冲器中的命令被删除。按此方式,可以避免执行任何人所不需要的命令。
缓冲器可以包含与整体机器人装置1和各个组成部件相对应的存储区。在这种情况下,用于整体设备和各组成部件的每一个运动的命令按图26上述的那样存储。通过如此包括(设置)用来存储与整体设备和各组成部件对应的命令的区域,能够进行下述的操作。
附加相互同步地再现诸如头部部件和腿部部件的不同组成部件的运动的同步信息是可能的。例如,如图27所示,分别存储在头部部件2和腿部部件4的命令存储区中的命令与有关将要开始命令再现的序号的信息相加。指示一个相同数的信息,例如,其再现应当第五个开始的信息被分配为同步信息。
以此方式,如果早两级开始操作的头部部件2的第三运动应当在早一级开始操作的腿部部件4的第四运动之前结束,则仅避免启动关于头部部件2的第五命令的操作。在附加了第五级信息的腿部部件4的第四运动再现之前的行走结束之后,头部部件2和附加了第五级信息的腿部部件4的运动的再现请求可以同时发出。在这种方式下,例如,能够使机器人装置1的表现受到产生横向摇摆头部部件2的运动和产生向左及向右倾斜腿部部件4的运动的更大的影响。
此外,通过列表操作,可以中途停止执行前和执行中的一系列运动的计划,或者可以把一个具有较高优先级的命令随后插入到一个较高级中。因此,能够构成具有足够灵活的方案。
如上所述,基于发自动作确定机构部分41的动作命令信息S16的对目标姿势或运动的最佳路径的搜索、和姿势转换计划的确定被实现,这是因为姿势转换机构部分42包括如图28所示的运动路径搜索装置60。
运动路径搜索部件60包括命令保持部分1、路径搜索部分62和图形存储部分63。
关于整体设备和组成部件的命令从动作确定机构部分41供给运动路径搜索部件60。例如,目标姿势或运动的目标部件(例如,头部部件)、关于当前命令和过去发出的一系列命令的列表操作的命令、关于命令本身特征的信息或类似物被附加在命令信息S16上。下面将把这种附加的信息称作附加信息。
关于当前操作和一系列过去发出的命令的列表操作的命令是用于把(参照图25B解释的)新近发出的命令插入到还未执行的一组命令的顶部的命令。此外,关于命令本身特征的信息(以下称作命令特征信息)是已经在图17中解释的关于行走方向的参数、已经在图18中解释的关于命令的参数,例如,“向前行走”运动时“三步”的参数,或已经在图19中解释的用于同步另一个运动的信息。
命令存储部件61用于存储上述的发自动作确定机构部分41的动作命令信息S16,它是例如一个缓冲器。如果动作命令信息S16已经附加了信息,则命令存储部件61执行基于附加信息内容的处理。例如,如果用于插入作为关于列表操作的一个命令的命令被包含在附加信息中,则根据该命令的内容执行正好到达命令存储部件61中的处于待用状态的命令的顶行的用于插入动作命令信息S16的一个操作。
此外,如果存在作为附加信息的命令特征信息,则命令存储部件61将它与命令一起存储。
该命令存储部件61控制执行什么样的命令和按什么样的排列顺序等待什么样的命令。为实现此目的,例如,用附加的顺序存储命令。
此外,命令存储部件61具有与先前已经说明的整体设备1、头部部件2、腿部部件4和尾部部件5相对应的四个存储区域。此外,命令存储部件61可以作出在正在执行使头部部件2运动的命令时不能执行使整体设备运动的命令的决定,或作出现在正在使头部部件运动的一个命令和用于使腿部部件4运动的一个命令可以相互独立地发出的确定。也就是说,能够执行防止整体设备和组成部件的资源相互争用的处理,因而实现了所谓的资源争用的解决方案。
此外,命令存储部件61记录下对不同部件发出命令的顺序级别。例如,如果按照从整体设备1到腿部部件4、头部部件2和整体设备1的顺序提供命令,则关于整体设备1的命令被存储为在命令存储部件61中第一和第四执行的命令,关于腿部部件4的命令被存储为第二执行的命令,关于头部部件2的命令被存储为第三执行的命令。因而命令的顺序记录下其顺序。以此方式,命令存储部件61首先向路径搜索部件62发送第一执行的关于整体设备1的命令。命令的内容再现一结束,命令存储部件61就发送第二执行的关于腿部部件4的命令,和第三执行的关于头部部件2的命令。在组成部件结束这些命令的内容再现之后,命令存储部件61向路径搜索部件62发送第四执行的关于整体设备1的命令。
路径搜索部件62通过命令存储部件61供给的命令启动所谓的路径搜索。图形存储部件63存储与命令存储部件61中分段的诸多部分相对应的图形。也就是说,图形存储部件63存储与整体设备1、头部部件2、腿部部件4和尾部部件5相对应的图形。根据图形存储部件63中存储的图形,路径搜索部分62使用前述的作为指标的距离和权重搜索作为命令内容的对目标姿势或运动的最佳路径。
此外,根据路径搜索获得的姿势转换计划,路径搜索部件62向控制机构部分43发送姿势转换信息S18,直至目标姿势或运动被执行。
如上所述,姿势转换机构部分42基于发自动作确定机构部分41的动作命令信息S16搜索与命令相一致的目标姿势或运动的最佳路径,并制定姿势转换计划。根据该姿势转换计划,姿势转换机构部分42向控制机构部分43输出姿势转换信息S18。
(3-5)控制机构部分中的处理
返回到图3,控制机构部分43根据姿势转换信息S18产生用于驱动致动装置23的控制信号S5。然后,部分43向致动装置23发送该信号,以驱动致动装置23。因而允许机器人装置1作出期望的运动。
此外,控制机构部分43把根据姿势转换信息S18作出的结束通知(再现结果)返回到路径搜索部件62,直至目标姿势或运动被达到。已经收到结束通知的的路径搜索部件62把运动的结束通知给图形存储部件63。图形存储部件63更新图形上的信息。也就是说,例如,如果姿势转换信息S18允许腿部部件2作出从睡眠姿势的状态到坐姿势的状态的转换的运动,则已经接收结束通知的图形存储部件63使对应于睡眠姿势的腿部部件2的节点的图形位置运动到坐姿势的图形位置。
例如,如果目标运动是在坐姿势“摆动腿(thrash legs)”(自运动弧线),则路径搜索部件62进一步把“摆动腿”作为控制信息S18发送给控制机构部件43。控制机构部件43根据姿势转换信息S18产生摆动腿部部件4的控制信息,并把该信息发送给致动装置23以执行摆动腿部部件4的运动。当控制机构部件43完成预定运动的再现时,控制机构部件43再次向路径搜索部分62发送结束通知。路径搜索部件62通知图形存储部件63摆动腿部部件4的运动已经完成。然而,在自运动弧线的情况下,它不需要更新图形上的信息,因此腿部部件4的当前姿势转向坐姿势。然而,摆动腿部部件4结束的姿势是腿部部件的坐姿势,等于该运动开始前的姿势。因此图形存储部件63不改变腿部部件的当前姿势。
同时,路径搜索部件62把目标姿势或运动的再现已经结束通知给命令存储部件61。由于目标姿势或运动已经无问题地完成,即,由于命令的内容已经无问题地完成,因此命令存储部件61清除该命令。例如,如果摆动腿作为上述的一个目标运动来供给,则该命令从腿部部件4的命令存储区域中清除。
如上所述,动作确定机构部分41、运动路径搜索部件60和控制机构部件43传送信息,所以实现了动作确定机构部分41、运动路径搜索部件60和控制机构部件43的基本功能。
图29显示了在路径搜索部件60中根据动作确定机构部分41中产生的命令执行的路径搜索的一系列处理过程,和根据路径搜索结果执行的运动。
首先,在步骤SP1中,动作确定机构部分41把一个命令供给运动路径搜索部件60。在后续步骤SP2中,运动路径搜索部件60的命令存储部件61把该命令加给一个命令组。
例如,如图26所示,一个关于尾部部件的命令被加入。如果进行插入的命令信息作为一个列表操作被加入到该命令上,则该命令被插入到与命令信息相一致的一行命令中。
在后续的步骤SP3中,命令存储部件61确定是否存在可以启动的命令。
例如,如果在命令存储部件61掌握作为第一命令的关于整体设备的命令(当前正在再现)的情况下正在执行有关整体设备的第一命令,则确定没有可以启动的命令,并存储作为第二和第三命令的关于头部部件的命令,存储作为第四命令的关于腿部部件的命令,和存储作为第五和第六命令的关于尾部部件5的命令。
如果没有可以启动的命令,则处理转到步骤SP4。否则,如果有可以启动的命令,处理则转到步骤SP5。在处理转到步骤SP3的时刻,关于组成部件的命令不能在整体设备1正在进行运动的时候执行。因此,处理转到步骤SP4。同时,如果该运动已经在处理进入步骤SP3的时刻结束,则该处理转向步骤SP5。
在步骤SP4中,命令存储部件61等待经过一个预定时间。例如,在等待经过0.1秒钟之后,命令存储部件63再一次在步骤SP3中确定是否有可以启动的命令。
例如,如果在步骤SP4中等待经过0.1秒钟之后,正在执行的关于整体设备的命令已经结束,则作为可以在步骤SP3中启动的命令掌握关于头部部件的第二命令、关于腿部部件的第四命令和关于尾部部件的第五命令。
关于头部部件的第二命令的执行一结束,就按可以启动的命令掌握关于头部部件的第三命令。关于尾部部件的第五命令的执行一结束,就按可以启动的命令掌握关于尾部部件的第六命令。
因而,在步骤SP3中没有能够立即启动的命令的情况下,处理转到步骤SP4,并等待经过一个预定的时间。照此方式,处理等待整体设备或组成部件的预定运动完成。下一个运动可以在适当时刻执行。
在步骤SP5中,根据从命令存储部件61发送的下一个命令的内容,路径搜索部件62确定是否可以在与图形存储部件63中存储的命令相对应的图形上发现从当前姿势到目标姿势的运动路径。
例如,如果一个命令涉及头部部件2的运动,路径搜索部件62确定是否有可以从头部部件的图形上的当前姿势(状态)到达目标状态或运动的路径,如图30所示。能够发现路径的情况是存在可以从当前姿势(状态)到达目标状态或运动的路径(弧线)的情况。如图30所示,存在一种有多个从当前姿势到达目标姿势的定向弧线a0和a1的情况。不能发现路径的情况是没有到达指令的状态或运动的路径的情况。
如果发现没有从当前姿势到目标姿势的转换路径,则处理转到步骤SP6。另一方面,如果发现转换路径,则处理转到步骤SP7。如果发现达到目标姿势(或运动)的转换路径,则存储路径(弧线)ak(k是包括0的等于n的整数)并且它成为姿势转换计划的信息。
在步骤SP6中,考虑到未发现运动路径这一情况,命令存储部件61清除列表中的命令。通过在未发现运动路径时清除命令,可以拾取一个后续命令。在清除命令之后,命令存储部件61再次在步骤SP3中确定是否有可以启动的命令。
在步骤SP7中,设置i=0。在后续步骤SP8,确定i等于还是小于n。i等于n的情形是指目标姿势或运动被完成。也就是说,第n个弧线是直接转换到目标节点的定向弧线an或者是目标自运动弧线an。如果满足i=0,则至少在步骤SP8把i确定为等于或小于n。
如果i等于或小于n,则处理转到步骤SP10。相反,如果i大于n,则步骤进入步骤SP9。
在步骤SP10中,控制机构部分43根据从路径搜索部件62供给的姿势转换信息S18执行弧线a1的再现。例如,如果机器人装置位于图30所示的当前姿势(第一姿势)上,则执行第一定向弧线a0的运动。
在步骤SP11中,路径搜索部分62接收运动的通知。在步骤SP12中,图形存储部件63更新图形上的位置。
在后续步骤SP13中,为了实现增量,把i=i+1设置为执行下一个弧线的i。接着,处理转到步骤SP8,并再次确定i是等于n还是小于n。
在i大于n时执行处理的步骤SP9中,如果执行对目标姿势的运动或者执行作为目标运动的弧线(定向弧线或自运动弧线),则命令存储部件61从存储的命令中清除正好已经完成的命令。此外,处理返回到步骤SP3,于是命令存储部件61再次确定是否有可以启动的命令。
如果目标姿势或运动与整体设备和组成部件相关联,则在步骤SP5和SP6中在与它们相对应的图形上搜索最佳路径,就如结合图23和24进行解释的那样。在依据步骤SP7的处理中,执行相应的处理。也就是说,允许姿势转换到基本姿势,和执行对目标姿势或运动的定向弧线的内容。
此外,正如上述的那样,命令被存储到命令存储部件61中。由于资源不相互争用,因此机器人装置1的各组成部件可以根据这样一种命令同时进行运动。因此,对于上述的处理过程(流程),各组成部件的流程可以相互并行地存在,所以可以同时执行多个流程。因此,如果正在处理关于整体设备的命令的流程,则不执行关于各组成部件的命令流程的处理,并使之置于备用状态。
(4)运动和效果
在上述的结构中,控制器32的感情/本能模式部分40根据供给的输入信息S1至S3改变机器人装置1的感情和本能的状态。机器人装置1的感情和本能的变化反映了机器人装置1的动作,因而允许机器人装置1根据它自己的感情和本能自主地运动。
此外,允许各种姿势和运动根据登记节点和弧线的图形转换,从而使机器人装置1能够展现各种表现。
也就是说,通过使用先前登记的图形,能够具有依赖运动的组合的大量表现模式。此外,可以实现从当前姿势到目标姿势或运动的自然和平稳的姿势转换,所以在运动期间不会意外地失去平衡。
(5)其它实施例
上述实施例已经解释关于接收来自用户的命令的情况,其中所述的命令是经遥控器用红外线发射的。然而,本发明不局限于此,也可以接收用无线电波或声波发射的来自用户的命令。
此外,上述实施例已经解释了关于经命令接收部件30输入来自用户的命令的情况,其中命令接收部件30包括遥控器接收部件13和麦克风11。然而,本发明不限于此。例如,一个计算机可以连接机器人装置1,使来自用户的命令可以经过所连接的计算机输入。
此外,上述实施例已经解释了关于感情单元50A至50F和欲望单元51A至51D的用户确定感情和本能的状态的情况,其中感情单元50A至50F指示诸如“快乐”、“悲伤”、“愤怒”等等的感情,欲望单元51A至51D指示“运动的欲望”、“爱情的欲望”等。然而本发明不限于此。例如,可以把指示“孤独”的感情单元加入到感情单元上,和把指示“睡眠姿势”的欲望单元加入到欲望单元51上。此外,感情单元和欲望单元可以由不同种类的单元或不同数量的单元构成,通过使用这样的感情单元和欲望单元可以确定感情和本能的状态。
上述实施例已经解释了关于机器人装置1具有感情和本能模式的结构。然而本发明不局限于此,而是所述的结构可以只包含感情模式或者本能模式。此外,该结构可以包含将决定动物动作的其它模式。
另外,上述实施例已经解释了关于动作确定机构部分41根据命令信号S1、外部信息信号S2、内部信息信号S3、感情/本能状态信息S10和动作信息S12来确定下一个动作的情况。然而,本发明不局限于此,而是可以根据命令信号S1、外部信息信号S2、内部信息信号S3、感情/本能状态信息S10和动作信息S12的一部分信息来确定下一次动作。
此外,上述实施例已经解释了关于一个称作有限自动机的算法被用来确定下一个动作的情况。然而,本发明不局限于此,而是可以根据当前供给的输入信息S14和此时的状态,通过使用多个状态被选作为转换目的地的候选者的被称作概率有限自动机的算法来确定动作,并且从多个如此选择的状态中借助随机数随机地确定转换目的地的状态。
此外,上述实施例已经解释了关于下述的情况。也就是说,如果动作命令信息S16指示当前姿势可以直接转换到的姿势,则把动作命令信息S16作为姿势转换信息S18直接发送给控制机构部分43,而不需要变化。另一方面,如果动作命令信息S16指示当前姿势不能直接转换的姿势,则产生这种允许姿势转换到当前姿势可以直接转换到的另一个姿势的姿势转换信息S18并送给控制机构部分43。然而,本发明不局限于此,而是仅在动作命令信息S16指示当前姿势可以直接转换到的姿势的情况下,接收动作命令信息S16并发送给控制机构部分43。同时,如果动作命令信息S16指示当前姿势不能直接转换的姿势,则可以拒绝动作命令信息S16。
此外,上述实施例已经解释了关于本发明适用于机器人装置1的情况。然而,本发明不局限于此,本发明可以适用于其它的各种机器人装置,比如用于游戏或娱乐领域的机器人装置等。如图31所示,本发明可以适用于按计算机图形运动的人物,例如使用有关节特征的动画制作或类似物。
适用于本发明的机器人装置1的外观不局限于图1所示的结构,外部设备也可以被安排得更像一条真实的狗,如图32所示,或者被安排成具有人的形状的人形机器人。
工业实用性
本发明的机器人装置进行与供给的输入信息相对应的运动,并且包括模式变化装置,该模式变化装置包含一个产生运动的模式,用于根据输入信息改变模式来确定运动。因此,基于输入信号,通过改变模式,机器人装置就可以根据机器人装置的感情和本能的状态自主地运动,从而决定一个运动。
本发明的运动控制方法根据提供的输入信息进行运动,并且运动是通过根据输入信息改变产生运动的模式来确定的。其结果,机器人装置可以根据其自己的感情和本能的状态来自动动作。
本发明的另一个机器人装置进行与供给的输入信息相对应的运动,并包括运动确定装置,用于根据当前运动和后续供给的输入信息确定当前运动之后的下一次操作。所述的当前运动对应于顺序供给的输入信息的历史。因此,根据与顺序供给的输入信息相对应的历史和后续供给的输入信息来确定当前运动之后的下一个运动,机器人装置就可以根据它自己的感情和本能的状态自主地运动。
本发明的另一个运动控制方法是进行与供给的输入信息相对应的运动,并根据当前运动和后续供给的输入信息确定当前运动之后的下一个运动,所述的当前运动对应于顺序供给的输入信息的历史,因此,机器人装置可以根据(例如)它自己的感情或本能的状态自主地运动。
此外,本发明的另一个机器人装置包括:图形存储装置,用于存储登记姿势和运动的图形,该图形是通过把姿势与允许姿势转换的运动相联系而构成的;和控制装置,用于根据动作命令信息在图形上搜索从当前姿势到目标姿势或运动的路径,并允许机器人装置根据搜索结果运动,从而允许机器人装置从当前姿势转换到目标姿势或运动。因此,控制装置在图形上搜索从当前姿势到目标姿势或运动的路径,并根据搜索结果进行运动。因而可以允许当前姿势转换到目标姿势或运动。照此方式,机器人装置可以丰富它自己的表现。
此外,在本发明的另一个运动控制方法中,根据动作命令信息,在图形上搜索从当前姿势到目标姿势或运动的路径,所述的图形登记了姿势和运动并且是通过把姿势与允许姿势转换的运动相联系而构成的,并且根据搜索结果进行运动,从而进行从当前姿势到目标姿势或运动的转换。所以,能够丰富机器人装置和计算机图形运动的角色的表现。

Claims (12)

1.一种机器人装置,进行与供给的输入信息相对应的运动,包括头部部件,主体部件、腿部件和它们之间的关节部件,显示部件;
信号接收部分和传感器部件,位于所述头部部件和所述主体部件之上,用于接收外部信号和响应于环境信息;
致动装置,与所述关节部件和所述显示部件相连,用于驱动它们来执行运动操作;
控制装置,包括用于预先存储程序的预定存储区域和数据处理部分;
其中
在控制装置中的所述数据处理部分包括模式改变装置,它具有感情模式部分和本能模式部分;
所述感情模式部分由多个独立的感情情绪单元构成;
所述本能模式部分由多个独立的本能欲望单元构成;
所述感情情绪单元和所述本能欲望单元分别具有感情参数和欲望参数,分别用于表达感情状态和欲望状态的变化,所述感情参数和欲望参数的值根据外部信号和环境信息而提高或降低;
所述控制装置用于按照所接收的外部信号和环境信息以及由数据处理部分处理的感情/本能状态来确定下一个运动,并且向所述致动装置提供运动控制信号。
2.按照权利要求1的机器人装置,其中所述控制装置还包括:
动作确定机构部分,存储多个要确定的运动的内容,用于根据所述模式改变装置的模式状态来确定下一个运动并且输出动作命令信息;
姿势转换机构部分,用于根据从所述动作确定机构部分输出的所述动作命令信息来提供姿势转换信息;
控制机构部分,用于根据由所述姿势转换机构部分提供的所述姿势转换信息来控制所述致动装置。
3.按照权利要求2的机器人装置,其中在所述动作确定机构部分和所述姿势转换机构部分之间布置了选择模块,用于从存储在所述动作确定机构部分中的、多个要确定的运动内容选择下一个运动,并且向所述姿势转换机构部分提供作为选择结果的所述动作命令信息。
4.按照权利要求3的机器人装置,其中,在所述动作确定机构部分中再存储一个涉及状态的转换概率的表格,所述表格的内容包括输入的事件名、输入的事件的数据名、输入事件的数据范围和关于状态转换的转换概率的信息,并且根据所述转换概率来确定所述动作命令信息。
5.按照权利要求3的机器人装置,其中每个感情情绪单元和每个本能欲望单元的所述感情参数和欲望参数分别具有多个强度等级,用于被组合来表达机器人装置的动作状态。
6.按照权利要求3的机器人装置,所述感情模式部分和所述本能模式部分还包括强度增加/降低装置,用于根据所述外部信号、环境信息和动作信息来产生强度信息,所述动作信息由所述动作确定机构部分提供来用于指示机器人装置的当前和过去的动作的内容。
7.按照权利要求5的机器人装置,其中所述感情情绪单元和所述本能欲望单元分别彼此组合以改变强度值,于是表达了机器人装置的自然感情。
8.按照权利要求5的机器人装置,其中所述感情情绪单元和所述本能欲望单元分别彼此组合以改变强度值,于是表达了机器人装置的自然感情。
9.按照权利要求1-8之一的机器人装置,其中所述输入信息是由从用户提供到机器人装置的用户命令信息构成的。
10.按照权利要求1-8之一的机器人装置,其中所述输入信息是由用户对机器人装置的动作来构成的。
11.按照权利要求1-8之一的机器人装置,其中所述输入信息是由关于在所述机器人装置附近存在的另一个机器人装置的运动的信息来构成的。
12.按照权利要求1-8之一的机器人装置,其中所述输入信息是由关于在机器人装置内的条件的信息构成的。
CNB008003718A 1999-01-20 2000-01-20 机器人装置 Expired - Lifetime CN1246126C (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP12292/99 1999-01-20
JP1229299 1999-01-20
JP12292/1999 1999-01-20
JP341374/1999 1999-11-30
JP34137499 1999-11-30
JP341374/99 1999-11-30

Publications (2)

Publication Number Publication Date
CN1297393A CN1297393A (zh) 2001-05-30
CN1246126C true CN1246126C (zh) 2006-03-22

Family

ID=26347871

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB008003718A Expired - Lifetime CN1246126C (zh) 1999-01-20 2000-01-20 机器人装置

Country Status (6)

Country Link
US (4) US6337552B1 (zh)
EP (1) EP1088629A4 (zh)
JP (3) JP4696361B2 (zh)
KR (1) KR100721694B1 (zh)
CN (1) CN1246126C (zh)
WO (1) WO2000043167A1 (zh)

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
KR20010053322A (ko) * 1999-04-30 2001-06-25 이데이 노부유끼 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체
DE60036599T2 (de) * 1999-05-10 2008-02-07 Sony Corp. Robotervorrichtung, steuerverfahren und aufzeichnungsmedium
GB2350696A (en) * 1999-05-28 2000-12-06 Notetry Ltd Visual status indicator for a robotic machine, eg a vacuum cleaner
US6663393B1 (en) * 1999-07-10 2003-12-16 Nabil N. Ghaly Interactive play device and method
US7442107B1 (en) * 1999-11-02 2008-10-28 Sega Toys Ltd. Electronic toy, control method thereof, and storage medium
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
CN1396856A (zh) * 2000-10-11 2003-02-12 索尼公司 机器人设备和机器人设备动作控制方法
JP4524524B2 (ja) * 2000-10-11 2010-08-18 ソニー株式会社 ロボット装置及びその制御方法
JP3645848B2 (ja) * 2000-11-17 2005-05-11 株式会社ソニー・コンピュータエンタテインメント 情報処理プログラム、情報処理プログラムが記録された記録媒体、情報処理装置及び方法
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
EP1215551B1 (en) * 2000-12-12 2006-08-09 Sony France S.A. An autonomous system with heterogeneous bodies
AU2002251731A1 (en) 2001-01-04 2002-07-16 Roy-G-Biv Corporation Systems and methods for transmitting motion control data
JP2002304188A (ja) * 2001-04-05 2002-10-18 Sony Corp 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
US6697707B2 (en) * 2001-04-06 2004-02-24 Vanderbilt University Architecture for robot intelligence
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
US20030045947A1 (en) * 2001-08-30 2003-03-06 The Boeing Company System, method and computer program product for controlling the operation of motion devices by directly implementing electronic simulation information
JP3837479B2 (ja) * 2001-09-17 2006-10-25 独立行政法人産業技術総合研究所 動作体の動作信号生成方法、その装置及び動作信号生成プログラム
GB2380847A (en) * 2001-10-10 2003-04-16 Ncr Int Inc Self-service terminal having a personality controller
JP2003133200A (ja) * 2001-10-19 2003-05-09 Canon Inc シミュレーション装置及びシミュレーション方法
US7257630B2 (en) * 2002-01-15 2007-08-14 Mcafee, Inc. System and method for network vulnerability detection and reporting
US7543056B2 (en) * 2002-01-15 2009-06-02 Mcafee, Inc. System and method for network vulnerability detection and reporting
KR101137205B1 (ko) * 2002-03-15 2012-07-06 소니 주식회사 로봇의 행동 제어 시스템 및 행동 제어 방법, 및 로봇 장치
FR2839176A1 (fr) * 2002-04-30 2003-10-31 Koninkl Philips Electronics Nv Systeme d'animation pour robot comprenant un ensemble de pieces mobiles
US7118443B2 (en) * 2002-09-27 2006-10-10 Mattel, Inc. Animated multi-persona toy
GB2393803A (en) * 2002-10-01 2004-04-07 Hewlett Packard Co Two mode creature simulaton
US7401057B2 (en) 2002-12-10 2008-07-15 Asset Trust, Inc. Entity centric computer system
US7238079B2 (en) * 2003-01-14 2007-07-03 Disney Enterprise, Inc. Animatronic supported walking system
US7248170B2 (en) * 2003-01-22 2007-07-24 Deome Dennis E Interactive personal security system
DE10302800A1 (de) * 2003-01-24 2004-08-12 Epcos Ag Verfahren zur Herstellung eines Bauelements
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
EP1593228B8 (en) * 2003-02-14 2017-09-20 McAfee, LLC Network audit policy assurance system
US8027349B2 (en) * 2003-09-25 2011-09-27 Roy-G-Biv Corporation Database event driven motion systems
EP1530138A1 (en) * 2003-11-10 2005-05-11 Robert Bosch Gmbh Generic measurement and calibration interface for development of control software
US20050105769A1 (en) * 2003-11-19 2005-05-19 Sloan Alan D. Toy having image comprehension
US20050234592A1 (en) * 2004-01-15 2005-10-20 Mega Robot, Inc. System and method for reconfiguring an autonomous robot
JP2007528797A (ja) * 2004-03-12 2007-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オブジェクトを動画化するのを可能にする電子装置及び方法
JP4456537B2 (ja) * 2004-09-14 2010-04-28 本田技研工業株式会社 情報伝達装置
KR100595821B1 (ko) * 2004-09-20 2006-07-03 한국과학기술원 로봇의 감성합성장치 및 방법
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
US8713025B2 (en) 2005-03-31 2014-04-29 Square Halt Solutions, Limited Liability Company Complete context search system
US20070016029A1 (en) * 2005-07-15 2007-01-18 General Electric Company Physiology workstation with real-time fluoroscopy and ultrasound imaging
JP4237737B2 (ja) * 2005-08-04 2009-03-11 株式会社日本自動車部品総合研究所 車両搭載機器の自動制御装置、およびその装置を搭載した車両
ATE524784T1 (de) 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
WO2007048003A2 (en) 2005-10-21 2007-04-26 Deere & Company Versatile robotic control module
KR100745720B1 (ko) * 2005-11-30 2007-08-03 한국전자통신연구원 다중 감정 모델을 이용한 감정 처리 장치 및 그 방법
KR100746300B1 (ko) * 2005-12-28 2007-08-03 엘지전자 주식회사 로봇의 이동방향 결정 방법
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
JP4316630B2 (ja) 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
US20080274812A1 (en) * 2007-05-02 2008-11-06 Inventec Corporation System of electronic pet capable of reflecting habits of user and method therefor and recording medium
EP2014425B1 (en) * 2007-07-13 2013-02-20 Honda Research Institute Europe GmbH Method and device for controlling a robot
CN101127152B (zh) * 2007-09-30 2012-02-01 山东科技大学 用于机器人动物控制的编码信号发生器与无线遥控装置
CN101406756A (zh) * 2007-10-12 2009-04-15 鹏智科技(深圳)有限公司 表达情感的电子玩具及其情感表达方法、发光单元控制装置
KR100893758B1 (ko) * 2007-10-16 2009-04-20 한국전자통신연구원 로봇의 감성 표현 제어 시스템 및 방법
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
US8452448B2 (en) * 2008-04-02 2013-05-28 Irobot Corporation Robotics systems
KR101631496B1 (ko) 2008-06-03 2016-06-17 삼성전자주식회사 로봇 장치 및 그 단축 명령 등록 방법
CN101596368A (zh) * 2008-06-04 2009-12-09 鸿富锦精密工业(深圳)有限公司 互动式玩具系统及其方法
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
CN101653662A (zh) * 2008-08-21 2010-02-24 鸿富锦精密工业(深圳)有限公司 机器人
CN101653660A (zh) * 2008-08-22 2010-02-24 鸿富锦精密工业(深圳)有限公司 讲故事自动做动作的类生物装置及其方法
CN101727074B (zh) * 2008-10-24 2011-12-21 鸿富锦精密工业(深圳)有限公司 具有生物时钟的类生物装置及其行为控制方法
US20100181943A1 (en) * 2009-01-22 2010-07-22 Phan Charlie D Sensor-model synchronized action system
US8539359B2 (en) 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
JP4947073B2 (ja) 2009-03-11 2012-06-06 トヨタ自動車株式会社 ロボット装置及びその制御方法
CN102396211B (zh) * 2009-04-17 2015-03-11 皇家飞利浦电子股份有限公司 气氛电话通信系统、运动部件及其方法
US8939840B2 (en) 2009-07-29 2015-01-27 Disney Enterprises, Inc. System and method for playsets using tracked objects and corresponding virtual worlds
JP5447811B2 (ja) * 2009-09-10 2014-03-19 国立大学法人 奈良先端科学技術大学院大学 経路計画生成装置および該方法ならびにロボット制御装置およびロボットシステム
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US20120042263A1 (en) 2010-08-10 2012-02-16 Seymour Rapaport Social-topical adaptive networking (stan) system allowing for cooperative inter-coupling with external social networking systems and other content sources
FR2969026B1 (fr) * 2010-12-17 2013-02-01 Aldebaran Robotics Robot humanoide dote d'un gestionnaire de ses ressources physiques et virtuelles, procedes d'utilisation et de programmation
CN103429399A (zh) * 2011-01-21 2013-12-04 Abb股份公司 用于命令机器人的系统
US9431027B2 (en) * 2011-01-26 2016-08-30 Honda Motor Co., Ltd. Synchronized gesture and speech production for humanoid robots using random numbers
US8676937B2 (en) * 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
US9092698B2 (en) 2012-06-21 2015-07-28 Rethink Robotics, Inc. Vision-guided robots and methods of training them
JP6162736B2 (ja) * 2015-03-19 2017-07-12 ファナック株式会社 機械と可搬式無線操作盤との間の距離に応じて通信品質基準を変化させる機能を備えたロボット制御システム
JP6467710B2 (ja) * 2015-04-06 2019-02-13 信太郎 本多 環境に適応する、汎用性を意識した人工知能システム
US10500716B2 (en) * 2015-04-08 2019-12-10 Beijing Evolver Robotics Co., Ltd. Multi-functional home service robot
KR20170052976A (ko) * 2015-11-05 2017-05-15 삼성전자주식회사 모션을 수행하는 전자 장치 및 그 제어 방법
CN105573490A (zh) * 2015-11-12 2016-05-11 于明 一种人机交互系统、穿佩设备和方法
KR102080424B1 (ko) * 2016-01-04 2020-02-21 저장 리뱌오 로보츠 컴퍼니 리미티드 로봇 현장 복귀를 위한 방법 및 장치
EP3403146A4 (en) 2016-01-15 2019-08-21 iRobot Corporation AUTONOMOUS MONITORING ROBOT SYSTEMS
CN107346107A (zh) * 2016-05-04 2017-11-14 深圳光启合众科技有限公司 多样化运动控制方法和系统及具有该系统的机器人
CN109196844B (zh) * 2016-05-20 2021-02-09 夏普株式会社 信息处理装置、机器人及存储介质
GB2564822B (en) * 2016-07-08 2021-08-18 Groove X Inc Autonomously acting robot that wears clothes
JP6571618B2 (ja) * 2016-09-08 2019-09-04 ファナック株式会社 人間協調型ロボット
CN107813306B (zh) * 2016-09-12 2021-10-26 徐州网递智能科技有限公司 机器人及其动作控制方法和装置
CN108229640B (zh) * 2016-12-22 2021-08-20 山西翼天下智能科技有限公司 情绪表达的方法、装置和机器人
JP6729424B2 (ja) 2017-01-30 2020-07-22 富士通株式会社 機器、出力装置、出力方法および出力プログラム
JP6886334B2 (ja) * 2017-04-19 2021-06-16 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
US10250532B2 (en) * 2017-04-28 2019-04-02 Microsoft Technology Licensing, Llc Systems and methods for a personality consistent chat bot
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
US20190111565A1 (en) * 2017-10-17 2019-04-18 True Systems, LLC Robot trainer
CN111565897A (zh) * 2018-01-10 2020-08-21 索尼公司 动物形状的自主移动对象、使动物形状的自主移动对象执行动作的方法以及程序
CN110297697B (zh) * 2018-03-21 2022-02-18 北京猎户星空科技有限公司 机器人动作序列生成方法和装置
JP7139643B2 (ja) * 2018-03-23 2022-09-21 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN108382488A (zh) * 2018-04-27 2018-08-10 梧州学院 一种机器猫
JP7298860B2 (ja) * 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
US11226408B2 (en) * 2018-07-03 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Sensor, estimating device, estimating method, and recording medium
US11230017B2 (en) 2018-10-17 2022-01-25 Petoi Llc Robotic animal puzzle
JP7247560B2 (ja) * 2018-12-04 2023-03-29 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
KR20200077936A (ko) * 2018-12-21 2020-07-01 삼성전자주식회사 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법
JP7437910B2 (ja) * 2019-10-29 2024-02-26 株式会社東芝 制御システム、制御方法、ロボットシステム、プログラム、及び記憶媒体
CN111846004A (zh) * 2020-07-21 2020-10-30 李荣仲 一种设有重心调节机制的四足机器犬
US11670156B2 (en) 2020-10-30 2023-06-06 Honda Research Institute Europe Gmbh Interactive reminder companion

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US3888023A (en) * 1974-08-21 1975-06-10 Jardine Ind Inc Physical training robot
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト
US5182557A (en) * 1989-09-20 1993-01-26 Semborg Recrob, Corp. Motorized joystick
JPH0573143A (ja) * 1991-05-27 1993-03-26 Shinko Electric Co Ltd 移動ロボツトシステム
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JP3018865B2 (ja) 1993-10-07 2000-03-13 富士ゼロックス株式会社 感情表出装置
JPH0876810A (ja) 1994-09-06 1996-03-22 Nikon Corp 強化学習方法及び装置
JPH0934698A (ja) 1995-07-20 1997-02-07 Hitachi Ltd ソフトウェア生成方法及び開発支援方法
WO1997014102A1 (en) * 1995-10-13 1997-04-17 Na Software, Inc. Creature animation and simulation technique
JP3413694B2 (ja) 1995-10-17 2003-06-03 ソニー株式会社 ロボット制御方法およびロボット
JP4153989B2 (ja) 1996-07-11 2008-09-24 株式会社日立製作所 文書検索配送方法および装置
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
US5929585A (en) * 1996-11-19 1999-07-27 Sony Corporation Robot system and its control method
DE69840655D1 (de) * 1997-01-31 2009-04-23 Honda Motor Co Ltd Steuerungssystem eines beweglichen Roboters mit Beinen
JPH10235019A (ja) * 1997-02-27 1998-09-08 Sony Corp 携帯型ライフゲーム装置及びそのデータ管理装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP3273550B2 (ja) 1997-05-29 2002-04-08 オムロン株式会社 自動応答玩具
JP3655054B2 (ja) * 1997-06-13 2005-06-02 ヤンマー農機株式会社 田植機の苗載台構成
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
CN1146492C (zh) * 1998-06-09 2004-04-21 索尼公司 机器人装置及其姿态控制方法
IT1304014B1 (it) 1998-06-29 2001-03-02 Reale S R L Stampi per la fabbricazione di bicchieri di ghiaccio e supporti persostenere tali bicchieri durante l'impiego.
US6151571A (en) * 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法

Also Published As

Publication number Publication date
US6442450B1 (en) 2002-08-27
CN1297393A (zh) 2001-05-30
WO2000043167A1 (fr) 2000-07-27
JP4696361B2 (ja) 2011-06-08
JP2010149276A (ja) 2010-07-08
KR20010092244A (ko) 2001-10-24
EP1088629A1 (en) 2001-04-04
JP2010149277A (ja) 2010-07-08
JP4985805B2 (ja) 2012-07-25
US20020050802A1 (en) 2002-05-02
EP1088629A4 (en) 2009-03-18
US20030023348A1 (en) 2003-01-30
US6337552B1 (en) 2002-01-08
US6667593B2 (en) 2003-12-23
KR100721694B1 (ko) 2007-05-28

Similar Documents

Publication Publication Date Title
CN1246126C (zh) 机器人装置
CN1151016C (zh) 机器人设备及其控制方法,和机器人性格判别方法
CN1304345A (zh) 机器人装置及其控制方法
CN1095105C (zh) 控制可移动装置的设备与方法
CN1146805C (zh) 通信型计算机图象动画方法
CN1283428C (zh) 机器人设备、控制机器人设备动作的方法
CN1372506A (zh) 机器人设备行为决定方法和机器人设备
CN1853880A (zh) 机器人装置及其行为控制方法
CN1273912C (zh) 机器人装置、面容识别方法和面容识别装置
CN100344416C (zh) 机器人装置和控制该装置的方法
CN1309535C (zh) 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的系统
CN1225679C (zh) 最速地实现自抗扰反馈控制的方法及其装置
CN1553845A (zh) 机器人系统和机器人设备的控制方法
CN1047012C (zh) 图象显示装置
CN101069213A (zh) 场景修饰表现生成装置以及场景修饰表现生成方法
CN1130638C (zh) 存储装置和存取方法
CN1236459A (zh) 存储器装置、控制器及电子装置
CN1099888A (zh) 脸部图像数据处理装置
CN1758991A (zh) 机器人装置、其行为控制方法及程序
CN1590038A (zh) 机器人设备、机器人设备的控制方法和机器人设备用玩具
CN1335800A (zh) 机器人系统、机器人装置及机器人装置的外装
CN1728152A (zh) 用于使用软计算优化器的机动车的智能强健控制系统
CN1178726C (zh) 图像数据处理器
CN1407922A (zh) 腿式移动机器人、控制机器人的方法、机器人的脚部结构、和机器人的可移动腿部单元
CN1933880A (zh) 用于测量和评估身体技能的动作和用于完成身体技能的设备的系统和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CX01 Expiry of patent term
CX01 Expiry of patent term

Granted publication date: 20060322