CN1124191C - 编辑装置、编辑方法和记录媒体 - Google Patents

编辑装置、编辑方法和记录媒体 Download PDF

Info

Publication number
CN1124191C
CN1124191C CN00803905A CN00803905A CN1124191C CN 1124191 C CN1124191 C CN 1124191C CN 00803905 A CN00803905 A CN 00803905A CN 00803905 A CN00803905 A CN 00803905A CN 1124191 C CN1124191 C CN 1124191C
Authority
CN
China
Prior art keywords
model
robot
growth
action
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN00803905A
Other languages
English (en)
Other versions
CN1339997A (zh
Inventor
古村京子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1339997A publication Critical patent/CN1339997A/zh
Application granted granted Critical
Publication of CN1124191C publication Critical patent/CN1124191C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39151Use intention inference, observe behaviour of other robots for their intention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

当机器人的用户以相同的方式与该机器人接触时,该机器人的行为和生长过程都是类似的,这样就使用户容易对其产生厌倦。本发明解决了这种现有技术的问题。本发明的一种编辑装置和编辑方法用于显示根据预定行为模型表现行为的机器人的该行为模型,并且根据用户的操作编辑显示的所述行为模型。本发明的另一种编辑装置和编辑方法用于显示根据预定生长模型生长的机器人的该生长模型,并且根据用户的操作编辑显示的所述生长模型。

Description

编辑装置、编辑方法和记录媒体
                       技术领域
本发明涉及编辑装置、编辑方法和记录媒体,且可以应用于比如用于编辑机器宠物(pet robot)的生长模型(growth model)和/或行为模型(behavioralmodel)的编辑装置、编辑方法和记录媒体。
                     背景技术
近来,根据用户的指令和周围环境动作的四腿行走机器宠物,已经由本发明的专利申请人提出和研发。机器宠物具有象一般家庭所拥有的象狗或猫的外型,自动根据用户的指令和周围环境动作。注意在下文的使用中,运动的集合被定义为动作。
而且,本发明的专利申请人已经提出了改进作为机器宠物的娱乐的感觉的方法,其方式是,在机器宠物中提供了“生长(growth)”功能,象真狗或猫一样,以便给用户亲和的感觉和满意的感受(日本专利申请号No.129276/1999)。
然而,在日本专利申请号No.129276/1999中已经公开的机器宠物中,由于在动作和运动中表达的难度和复杂性的程度(以后称为生长等级)仅分阶段升高,有一个问题是,用户习惯了机器宠物的动作和运动,对它们感到厌倦,例如,在机器宠物已经“长大(grown up)”的情况下,或者在下一“生长”之前有很长时期的情况下。
同样,由于机器宠物根据预定程序确定动作和运动,例如,当由用户和周围环境给出的命令相同时,在相同生长阶段的多个机器宠物执行相同的动作和运动。因此,执行动作和运动的机器宠物,针对用户而成长是困难的。
相应地,在机器宠物中,如果上述问题可以被解决,就可以认为,用户不会对机器宠物厌倦,娱乐的感觉被进一步改进。
                       发明内容
考虑到以上各点,本发明提供了一种编辑装置、编辑方法和记录媒体,可以显著改进娱乐的感觉。
为了解决上述问题,根据本发明,一种编辑装置包括:显示器件,用于可视地显示根据预定行为模型动作的机器人设备的该行为模型;和编辑器件,用于根据用户的操作,编辑可视地显示的所述行为模型。
结果是,该编辑装置编辑机器人设备的行为模型为针对用户的行为模型,使机器人设备针对用户动作,从而提供不同于其他机器人设备的用户的自己的特征。这有效地防止了用户对机器人设备的动作感到厌倦。因此,可以实现能够进一步改进娱乐的感觉的编辑装置。
另外,根据本发明,一种编辑装置包括:显示器件,用于可视地显示根据预定生长模型长大的机器人设备的该生长模型;和编辑器件,用于根据用户的操作,编辑可视地显示的所述生长模型。
结果是,该编辑装置编辑机器人设备的生长模型为针对用户的生长模型,使机器人设备针对用户长大,从而提供不同于其他机器人设备的用户的自己的特征。这有效地防止了用户对机器人设备的生长感到厌倦。因此,可以实现能够进一步改进娱乐的感觉的编辑装置。
另外,根据本发明,一种编辑方法,包括:第一步,可视地显示根据预定行为模型动作的机器人设备的该行为模型;和第二步,根据用户的操作,编辑可视地显示的所述行为模型。
结果是,该编辑方法编辑机器人设备的行为模型为针对用户的行为模型,使机器人设备针对用户动作,从而提供不同于其他机器人设备的用户的自己的特征。这有效地防止了用户对机器人设备的动作感到厌倦。因此,可以实现能够进一步改进娱乐的感觉的编辑方法。
另外,根据本发明,一种编辑方法,包括:第一步,可视地显示根据预定生长模型动作的机器人设备的该生长模型;和第二步,根据用户的操作,编辑可视地显示的所述生长模型。
结果是,该编辑方法编辑机器人设备的生长模型为针对用户的生长模型,使机器人设备针对用户长大,从而提供不同于其他机器人设备的用户的自己的特征。这有效地防止了用户对机器人设备的生长感到厌倦。因此,可以实现能够进一步改进娱乐的感觉的编辑方法。
另外,根据本发明,用于执行编辑处理的程序被存储在记录媒体中,所述程序包括:显示步骤,可视地显示根据预定行为模型动作的机器人设备的该行为模型;和编辑步骤,根据用户的操作,编辑可视地显示的所述行为模型。
结果是,存储在记录媒体中的程序编辑机器人设备的行为模型为针对用户的行为模型,使机器人设备针对用户动作,从而提供不同于其他机器人设备的用户的自己的特征。这有效地防止了用户对机器人设备的动作感到厌倦。因此,可以实现能够进一步改进娱乐的感觉的记录媒体。
另外,根据本发明,用于执行编辑处理的程序被存储在记录媒体中,所述程序包括:显示步骤,可视地显示根据预定生长模型动作的机器人设备的该生长模型;和编辑步骤,根据用户的操作,编辑可视地显示的所述生长模型。
结果是,存储在记录媒体中的程序编辑机器人设备的生长模型为针对用户的生长模型,使机器人设备针对用户长大,从而提供不同于其他机器人设备的用户的自己的特征。这有效地防止了用户对机器人设备的生长感到厌倦。因此,可以实现能够进一步改进娱乐的感觉的记录媒体。
                    附图的简要描述
图1是示出机器宠物的外形构造的透视图;
图2是示出机器宠物电路的方框图;
图3是示出生长模型的概念图;
图4是用于解释控制器的处理的方框图;
图5是用于解释在感情和本能模块部分中处理的数据的概念图;
图6是示出概率自动机器(probability automaton)的概念图;
图7是示出状态变换表的概念图;
图8是用于解释有向图的概念图;
图9A和9B是示出第一生长元素列表和第一生长元素计数器表的概念图;
图10A和10B是示出第二生长元素列表和第二生长元素计数器表的概念图;
图11是示出根据该实施例的编辑装置的配置的方框图;
图12是示出生长模型编辑屏的概念图;
图13是示出行为模型编辑屏的概念图;和
图14是示出编辑过程的流程图。
               实现本发明的最佳模式
下面将参考附图详细描述本发明。
(1)机器宠物的构造
(1-1)机器宠物的总构造
参考图1,标号1大致地示出一机器宠物,其通过将腿单元3A到3D分别连接到身体单元2的前后侧和左右侧,以及将头单元4和尾单元5分别连接到身体单元2的前端和后端来构造。
如图2所示,在身体单元2中,存储了控制器10,用于控制机器宠物1;电池11,作为机器宠物1的电源;和内部传感器部分15,由电池传感器12、热敏传感器13和加速计14组成。
另外,在头单元4上,分别在固定的位置安装了外部传感器部分19,由对应于机器宠物1的“耳朵”的麦克风16、对应于“眼睛”的电荷耦合器件(CCD)17和触摸传感器18组成;和对应于“嘴”的扬声器20。
另外,动作器(actuator)211到21n分别被安装在腿单元3A到3D的关节部分上、腿单元3A到3D和身体单元2之间的连接部分上、头单元4和身体单元2之间的连接部分上和尾单元5和身体单元2之间的连接部分上。
外部传感器部分19的麦克风16收集诸如“走”、“坐下”或“向球跑”的命令声音,该声音由用户通过一声音命令器(在图中未示出)作为音调大小(tonal scale)给出,麦克风16并将所获得的音频信号S1A送到控制器10。CCD摄象机17对周围环境成像,将所获得的视频信号S1B送到控制器10。
从图1可以明显看出,触摸传感器18在头单元4的顶上。触摸传感器18检测由来自用户的诸如“拍”或“打”的物理手法(physical approach)所接收的压力,将所检测的结果作为压力检测信号S1C送到控制器10。
内部传感器部分15的电池传感器12检测电池11中的能量的剩余量,将所检测的结果作为电池剩余量检测信号S2A送到控制器10。热敏传感器13检测机器宠物1的内部温度,将所检测的结果作为温度检测信号S2B送到控制器10。加速计14检测三个轴方向(X轴方向、X轴方向和Z轴方向)的加速度,将所检测的结果作为加速度检测信号S2C送到控制器10。
控制器10基于从外部传感器部分19给出的音频信号S1A、视频信号S1B和压力检测信号S1C(以后它们被统称为外部信息信号S1),并基于从内部传感器部分15给出的电池剩余量检测信号S2A、温度检测信号S2B和加速度检测信号S2C(以后它们被统称为内部信息信号S2),判断外部和内部状态以及由用户给出的任何命令或任何手法的出现。
然后,控制器10基于判断结果和预先存储在存储器10A中的控制程序,确定以下动作。控制器10基于所确定的结果,驱动必要的动作器211到21n,从而使机器人执行动作和运动,诸如上下左右摇动头单元4、运动尾单元5的尾5A和驱动腿单元3A到3D使机器人走动。
另外,在此时,控制器10如果必要的话,就产生音频信号S3,以便将其给到扬声器20,从而基于音频信号S3的声音被输出到外面,且安装在机器宠物1的“眼睛”的位置的发光二极管(LED,在图中未示出)闪光。
以这种方式,机器宠物1可以自动根据外部和内部状态,以及用户的命令和手法来动作。
(1-2)机器宠物1的生长模型
下面将描述机器宠物1中装载的生长模型。
机器宠物1改变其动作和运动,好象一真正的动物,根据诸如用户的手法以及使用声音命令器的命令的操作输入的历史,和根据其自己的动作和运动的历史来“长大”。
具体说,如图3所示,在机器宠物1中,提供了四个“生长阶段”“婴儿”“童年”“少年”“成年”,作为生长过程。在控制器10的存储器10A中,预先存储了由各种控制参数和控制程序组成的每个“生长阶段”的动作和运动模型,这些控制参数和控制程序是动作和运动的基础,与四项有关:“行走状态”、“运动”、“动作”和“声音(唱)”。
然后,控制器10根据在早期的“婴儿”的动作和运动模型,控制动作器211到21n和音频输出,这样对于“行走状态”,机器人通过用小步行走,而显出摇摇晃晃,对于“运动”,机器人做“简单”运动,比如“走”、“站”和“睡”,对于“动作”,机器人通过重复同样的动作,而显出“平实”,而对于“声音”,机器人通过减少音频信号S3的增益,而唱得“弱和短”。
另外,在此时,控制器10总是保持关注,并累计使用声音命令器输入的命令的发生次数、包括通过触摸传感器18输入的传感器(其对应于“拍”和“打”)和在预定动作和运动中的成功的次数的训练的发生次数、通过触摸传感器18输入的传感器(其不对应于“拍”和“打”)的发生次数和有关规定动作和运动如“玩球”的预定“生长”的多个元素(以后称为生长元素)。
然后,基于生长元素的累计频率,当每个生长元素的累计频率的总值(以后称为生长元素的总经验值)超过预定阈值时,控制器10改变要使用的动作和运动模型为“儿童”的动作和运动模型,“儿童”的生长等级高于“婴儿”。
然后,控制器10根据“儿童”的动作和运动模型,控制动作器211到21n和和从扬声器20输出的音频,这样对于“行走状态”,机器人通过增加动作器211到21n的旋转频率,而使得行走“比较稳定一点”,对于“运动”,机器人通过增加运动的数目,使得运动“高级和复杂一些”,对于“动作”,机器人通过参考前面的动作以确定下一个动作,而“有目的地”动作,而对于“声音”,机器人通过延长音频信号的长度和提高增益,而唱得“较长和较高些”。
另外,类似于此,只要生长元素的总经验值超过对应于“少年”和“成年”而预定的阈值,则控制器10接连地改变动作和运动模型为“少年”或“成年”的动作和运动模型,“少年”和“成年”的生长等级更高。控制器10根据动作和运动模型,渐渐增加动作器211到21n的旋转速度和给到扬声器20的音频信号S3的长度和增益,当执行一运动时,改变动作器211到21n的旋转量。
结果是,当机器宠物1“生长阶段”递进时(即,从“婴儿”改变到“童年”,从“童年”改变到“少年”,从“少年”改变到“成年”),机器宠物1逐步改变“行走状态”,从“摇摇晃晃”到“走得很稳”,改变“运动”从“简单”到“高级和复杂”,改变“动作”从“平实地”到“有目的地”,改变“声音”从“弱而短的”到“长而高的”。
以这种方式,机器宠物1根据来自外部的输入和其自己的动作和运动的历史,在“婴儿”“童年”“少年”“成年”这四个阶段“成长”。
从图3可以明显看出,分别为各个“生长阶段”即  “婴儿”“童年”“少年”“成年”准备了多个动作和运动模型。
实践中,作为“儿童”的动作和运动模型,准备了运动不平稳和快速且有“坏(rough)”脾气的动作和运动模型(儿童1)和运动平稳和缓慢且有“好(easy)”脾气的动作和运动模型(儿童2)。
同样,作为“少年”的动作和运动模型,准备了比“坏”脾气的“儿童”运动更不平稳和更快速且有“暴(irritated)”脾气的动作和运动模型(少年1)、比“暴”脾气的“少年”运动平稳和缓慢且有“一般”脾气的动作和运动模型(少年2)和比“一般(normal)”脾气的“少年”运动更慢和动作更少且有“好”脾气的动作和运动模型(少年3)。
同样,作为“成年”的动作和运动模型,准备了比“暴”脾气的“少年”运动更不平稳和更快速、不容易根据用户的命令运动且有“攻击性”脾气的动作和运动模型(成年1)、比“攻击性(aggressive)”脾气的“成年”运动平稳和缓慢、容易根据用户的命令运动且有“坏”脾气的动作和运动模型(成年2)、比“坏”脾气的“成年”运动更平稳更慢和动作更少、总是根据用户的命令运动且有“较温顺(wildly gentle)”脾气的动作和运动模型(成年3)和比“较温顺”脾气的“成年”运动更慢和动作更少、总是根据用户的命令动作且有“温顺(gentle)”脾气的动作和运动模型(成年4)。
然后,当递进“生长阶段”时,控制器10基于生长元素的累计频率从下一“生长阶段”的动作和运动模型中,选择一动作和运动模型,改变要使用的动作和运动模型为所选择的动作和运动模型。
在这种情况下,在“儿童”阶段时或之后,当“生长阶段”前进到下一个阶段时,规定了可以从当前“生长阶段”的动作和运动模型继续的下一“生长阶段”的动作和运动模型,且仅可以在由图3中的箭头所连接的动作和运动模型之间继续。相应地,如果在“儿童”阶段选择了动作和运动“不平稳”的动作和运动模型(儿童1),则在“少年”阶段,不能继续到动作和运动“温顺”的动作和运动模型(少年3)。
以这种方式,好象真正的动物根据饲养方法形成其性格,机器宠物1根据用户的手法和命令的输入历史和根据其自己的动作和运动的历史,改变与其“生长”相联系的他的“性格”。
(2)由控制器10进行的处理
下面,描述在机器宠物1中控制器10的具体处理。
如图4所示,控制器10的处理内容按功能分为:状态识别机制部分30,用于识别外部和内部状态;感情和本能模型部分31,用于基于状态识别机制部分30的所识别结果确定感情和本能的状态;行为确定机制部分32,用于基于状态识别机制部分30的所识别结果和基于感情和本能模型部分31的输出确定下面的动作和运动;姿态变换机制部分33,用于计划机器宠物1的一系列运动以便执行由行为确定机制部分32确定的动作和运动;控制机制部分34,用于基于由姿态变换机制部分33计划的动作计划来控制动作器211到21n;和生长控制机制部分35,用于控制机器宠物1的“生长”和“性格”。
下面,将详细描述状态识别机制部分30、感情和本能模型部分31、行为确定机制部分32、姿态变换机制部分33、控制机制部分34和生长控制机制部分35。
(2-1)由状态识别机制部分30进行的处理
状态识别机制部分30基于从外部传感器部分19(图2)给出的外部信息信号S1和从内部传感器部分15给出的内部信息信号S2,识别特定状态,将所识别的结果给到感情和本能模型部分31和行为确定机制部分32作为状态识别信息S10。
在实践中,状态识别机制部分30总是保持关注从外部传感器部分19(图2)的麦克风16给出的音频信号S1A,当与诸如“走”“坐下”和“向球跑”的命令的从声音命令器输出的命令声音相同的音调大小频谱被检测为音频信号S1A的频谱时,识别给出的命令。状态识别机制部分30将识别的结果给到感情和本能模型部分31和行为确定机制部分32。
同样,状态识别机制部分30总是保持关注从CCD摄像机17(图2)给出的视频信号S1B,当基于视频信号S1B,“红色圆的东西”或“垂直于地面具有预定高度的平面”在图象画面内被检测到时,识别“球在哪里”或“墙在哪里”。状态识别机制部分30将识别的结果给到感情和本能模型部分31和行为确定机制部分32。
另外,状态识别机制部分30总是保持关注从触摸传感器18(图2)给出的压力检测信号S1C,当基于压力检测信号S1C,具有预定阈值或更大的短皙(例如,少于两秒)压力被检测到时,识别为“被敲了一下(我被辱没了)”,而小于预定阈值的长的(例如,两秒或更多)压力被检测到时,识别为“被摸了一下(我被欣赏了)”。状态识别机制部分30将识别的结果给到感情和本能模型部分31和行为确定机制部分32。
同时,状态识别机制部分30总是保持关注从内部传感器部分15(图2)的加速计14给出的加速度检测信号S2C,当基于加速度检测信号S2C,具有预定等级或更高的预定加速度被检测到时,识别为“被撞了一下”,而当对应于重力加速度的更大的加速度被检测到时,识别为掉下来(从桌子上等)。状态识别机制部分30将识别的结果给到感情和本能模型部分31和行为确定机制部分32。
另外,状态识别机制部分30总是保持关注从热敏传感器13(图2)给出的温度检测信号S2B,当基于温度检测信号S2B,规定温度或更高的温度被检测到时,识别为“内部温度已经增加”,并将识别的结果给到感情和本能模型部分31和行为确定机制部分32。
(2-2)感情和本能模型部分31进行的处理
如图5所示,感情和本能模型部分31具有:基本情感组40,由情感单元40A到40F组成,情感单元40A到40F是提供的感情模型,对应于六种情感,即“喜”“忧”“惊”“恐”“憎”“怒”;基本欲望组41,由欲望单元41A到41D组成,欲望单元41A到41D是提供的欲望模型,对应于四种欲望,即“食欲”“爱欲”“搜索欲”“锻炼欲”;和强度增加和减少功能42A到42H,对应于情感单元40A到40F和欲望单元41A到41D。
情感单元40A到40F由比如从0级到100级的强度分别表示对应情感的程度,基于从对应的强度增加和减少功能42A到42F给出的强度信息S11A到S11F,不停地改变强度。
欲望单元41A到41D类似于情感单元40A到40F由从0级到100级的强度分别表示对应欲望的程度,基于从对应的强度增加和减少功能42G到42K给出的强度信息S12G到S12F,不停地改变强度。
然后,感情和本能模型部分31通过结合情感单元40A到40F的强度,确定感情的状态,同时,通过结合欲望单元41A到41D的强度,确定本能的状态。感情和本能模型部分31输出所确定的感情和本能的状态到行为确定机制部分32作为感情和本能的状态信息S12。
注意,强度增加和减少功能42A到42G的功能是为了基于从状态识别机制部分30给出的状态识别信息S10和基于从后面描述的行为确定机制部分32给出的表示机器宠物1本身的当前或过去动作的内容的动作信息S13,产生和输出强度信息S11A到S11G以根据预定参数如上所述地增加和减少情感单元40A到40F和欲望单元41A到41D的强度。
以这种方式,在机器宠物1中,强度增加和减少功能42A到42G的参数被设定为对每个动作和运动模型(婴儿1,儿童1,儿童2,少年1到少年3,成年1到成年4)不同的值,这样机器宠物1可以形成其性格,如“暴躁”或“温顺”。
(2-3)行为确定机制部分32进行的处理
行为确定机制部分32在存储器10A中有多个行为模型,分别对应于动作和运动模型(婴儿1,儿童1,儿童2,少年1到少年3,成年1到成年4)。
行为确定机制部分32基于从状态识别机制部分30给出的状态识别信息10,基于感情和本能模型部分31的情感单元40A到40F和欲望单元41A到41D的强度,基于对应的行为模型,确定下一个动作或运动。行为确定机制部分32然后输出所确定的结果到姿态变换机制部分33和生长控制机制部分35作为行为确定信息S14。
在这种情况下,作为确定下一个动作或运动的方法,行为确定机制部分32使用一种称为概率自动机器(automaton)的算法,其基于设定为连接在节点NDA0到NDAn之间的弧ARA0到ARAn的变换概率P0到Pn,随机地确定一个节点(状态)NDA0前进到哪个节点NDA0到NDAn
具体说,图7所示的状态变换表50被作为行为模型存储在存储器10A中,用于每个节点NDA0到NDAn。行为确定机制部分32基于状态转换表50确定下一个动作或运动。
这里,在状态转换表50中,输入事件(被识别的结果),即在节点NDA0到NDAn中的变换条件,以优先级递减的顺序,被列在“输入事件”的行中,其他变换条件被列在栏“数据名称”和“数据范围”中的对应行中。
相应地,在图7的状态变换表50定义的节点ND100中,当给出识别结果“检测到球(BALL)”时,如果同时识别的结果是“范围在0到1000之间(0,1000)”时,它就是变换到另一个节点即“球的大小(SIZE)”的条件。当给出识别结果“检测到障碍物(OBSTACLE)”时,如果同时识别的结果是“范围在0到100之间(0,100)”时,它就是变换到另一个节点,即到障碍的“距离(DISTANCE)”的条件。
当在感情和本能模型部分31的情感单元40A到40F和欲望单元41A到41D的强度中,“喜”“惊”“忧”之一的情感单元40A到40F的强度在“50到100(50,100)之间的范围”时,即使没有输入所识别的结果,节点ND100也可以变换到另一个节点。感情和本能模型部分31的情感单元40A到40F和欲望单元41A到41D的强度被行为确定机制部分32周期地查考。
在状态变换表50中,可以从节点NDA0变换到NDAn的节点名称被列在“到另一个节点的变换概率”的“变换到的节点”行,到其他节点NDA0列NDAn的变换概率被描述在“到另一个节点的变换概率”部分的“输出动作”中,当“输入事件名称”“数据值”和“数据范围”栏中描述的所有条件满足时,上述这些其他节点NDA0到NDAn可以变换。注意,在“到另一个节点的变换概率”部分的相应行的变换概率的总和是100%。
相应地,在该例子中的节点NODE100中,当给出识别结果“检测到小球(BALL)”和小球的“大小”在“0到1000(0,1000)的范围”内时,行为模型可以变换到“节点NODE120(节点120)”,其概率是30%。
然后,行为模型被这样构造,即节点NDA0到NDAn有几个被连接,如状态变换表50所描述。
因此,当从状态识别机制部分30给出状态识别信息S10时,或当在上一动作被表达后经过了指定时间时,行为确定机制部分32使用存储在存储器10A的对应行为模型的对应节点NDA0到NDAn的状态变换表50,以随机地确定下一个动作或运动(描述在“输出动作”的行中的动作或运动),且输出确定的结果到姿态变换机制部分33和生长控制机制部分35作为动作命令信息S14。
(2-4)姿态变换机制部分33进行的处理
当从行为确定机制部分32给出行为确定信息S14时,姿态变换机制部分33计划机器宠物1的一系列运动,以便基于行为确定信息S14动作和运动,基于运动计划输出运动命令信息S15到控制机制部分34。
在这种情况下,作为安排运动计划的方法,姿态变换机制部分33使用一有向图,在该有向图中,如图8所示可由机器宠物1形成的态度被设定为节点NDB0到NDB2,用于表示运动的有向弧ARB0到ARB2分别连接在可以彼此变换的节点NDB0到NDB2之间,在节点NDB0到NDB2之一中完成的运动被表达为自运动弧ARC0到ARC2
为此,文件数据,即由机器宠物1形成的所有运动的开始态度和结束态度被存储在一数据库中,即有向图的资料来源(以后被称为网络定义文件)被存储在存储器10A中,姿态变换机制部分33基于该网络定义文件,为整个身体、头、腿和尾巴产生有向图(未示出)。
然后,当从行为确定机制部分32给出诸如“站起来”“走”“伸爪”“摇头”“摆尾”的动作命令作为行为命令信息S14时,姿态变换机制部分33使用对应的有向图,根据有向弧的取向,以搜索从当前节点到对应于指定态度的节点的路径,或当前节点到有向弧或对应于指定运动的自运动弧的路径。然后,姿态变换机制部分33连续地输出运动命令到控制机制部分34作为运动命令信息S15,该运动命令用于使机器宠物1顺序地执行对应于在所搜索路径上的有向弧的运动。
另外,当给出用于头部、腿部或尾部的动作命令时,姿态变换机制部分33基于整个身体的有向图,根据动作命令,将机器宠物1的态度恢复到基本态度“站”“坐”“下”“驻(station)”之一,即在用于给电池11(图2)充电的未示出的电池充电器上的态度。然后,姿态变换机制部分33输出运动命令信息S15,以便通过使用头部、腿部或尾部的对应的有向图,变换头部、腿部或尾部的位置。
(2-5)控制机制部分34进行的处理
控制机制部分34基于从姿态变换机制部分33给出的运动命令信息S15,产生控制信号S16,并基于控制信号S16驱动控制动作器211到21n,从而使机器宠物1执行具体的动作和运动。
(2-6)生长控制机制部分35进行的处理
基于外部信息信号S1和内部信息信号S2识别的各种状态被从状态识别机制部分30提供到生长控制机制部分35,作为状态识别信息S20。注意,除了如上所述通知到感情和本能模型部分31和行为确定机制部分32的具体状态外,各种状态包括通过触摸传感器18的不对应于“被摸了一下”和“被敲了一下”的输入。
另外,在存储器10A中,生长控制机制部分35具有列表70A,如图9(A)所示(以后称为第一生长元素列表)和计数器表70B,如图9(B)所示(以后称为第一生长元素计数器表),在列表70A中,在基于从状态识别机制部分30给出的状态识别信息S20的各种状态中,当升级“生长阶段”时作为参考元素的上述生长元素被一起列出,计数器表70B用于记数生长元素的累计频率。
当从状态识别机制部分30给出状态识别信息S20时,然后生长控制机制部分35基于第一生长元素列表70A判断是否基于状态识别信息S20获得的状态是生长元素,且当该状态是生长元素时,在第一生长元素计数器表70B中将对应的计数值(经验值)增加一。
另外,在存储器10A中,生长控制机制部分35有列表71A,如图10(A)所示(以后称为第二生长元素列表)和计数器表71B,如图10(B)所示(以后称为第二生长元素计数器表),在列表71A中,在如上所述基于从行为确定机制部分32给出的动作命令信息S14而获得的动作中,当升级“生长阶段”时作为参考元素的上述生长元素被一起列出,计数器表71B用于记数生长元素的累计频率。
当从行为确定机制部分32给出动作命令信息S14时,然后生长控制机制部分35基于第二生长元素列表71A判断是否基于动作命令信息S14获得的动作或运动是生长元素,且当该动作是生长元素时,在第二生长元素计数器表71B中将对应的计数值(经验值)增加一。
在生长控制机制部分35增加在如上所述的第一或第二生长元素计数器表70B或71B中的计数值的情况下,它将一计数器(以后称为生长总经验值计数器,它是在第一和第二生长元素计数器表70B,71B之外准备的,该计数器用于判断是否“生长阶段”被升级)的计数值加一,然后判断是否生长总经验值计数器的计数值达到了预先设定作为当前“生长阶段”的完成状态的计数值。
当生长总经验值计数器的计数值达到了预先设定作为当前“生长阶段”的完成状态的计数值时,生长控制机制部分35基于第一和第二生长元素计数器表70B,71B的计数值,确定是否动作和运动模型要改变为下一个“生长阶段”的哪个动作和运动模型,并通知感情和本能模型部分31、行为确定机制部分32和姿态变换机制部分33所确定的结果作为改变命令信息S22。
结果是,感情和本能模型部分31基于改变命令信息S22,改变如上图5中所述的强度增加减少功能42A到42G的参数值为指定的动作和运动模型的值。行为确定机制部分32基于改变命令信息S22,改变要使用的行为模型为指定的动作和运动模型。姿态变换机制部分33基于改变命令信息S22,以如下方式改变设定,即当不得不从对应于多个动作和运动模型的有向弧或自运动弧中选择一个有向弧或自运动弧时,选择指定的动作和运动模型的有向弧或自运动弧。
注意,从这可以明显看出,动作和运动模型的构成为:在感情和本能模型部分31中的强度增加减少功能42A到42G的参数值,对应于在“生长阶段”的“性格”,在行为确定机制部分32中的行为模型;在姿态变换机制部分33中的有向弧或自运动弧;等等。
以这种方式,生长控制机制部分35根据用户的手法和使用声音命令器的命令的操作输入历史,以及根据自身动作和运动的历史,控制“生长”。
(3)根据该实施例的编辑装置
(3-1)编辑装置的配置
参考图11,标号100示出根据该实施例的编辑装置,其构造是这样的,中央处理单元(CPU)101、只读存储器(ROM)102、随机访问存储器(RAM)103、显示处理电路104、媒体单元部分105、接口电路106和小计算机系统接口(SCSI)接口电路107通过CPU总线108彼此相连。编辑装置100通过接口电路106被连接到包括键盘、鼠标等的操作部分109,通过SCSI接口电路107被连接到硬盘设备110。
显示处理电路104被连接到监视器111。存储器棒112是一半导体存储器,被插入到媒体单元部分105,从而由在媒体单元部分105中的一驱动器(在图中未示出)从存储器棒112读出信息和将信息写入存储器棒112。
在这种情况下,CPU101将存储在ROM102中的应用程序读入RAM103,基于该应用程序读取ROM102中的视频数据,以便通过显示处理电路104将其给到监视器111作为视频信号S100。从而,CPU101基于该视频数据在监视器111的显示部分(未示出)上显示初始屏幕(未示出)。
当存储器棒112由用户根据显示在监视器111的显示部分上的初始屏幕插入对应的媒体单元部分105时,CPU101读取预先设定在存储器棒112中的机器宠物1的各种信息D100,基于各种信息D100从ROM102读取对应的视频数据,从而在监视器111的显示部分上显示图形用户接口(GUI)屏幕,用于基于视频数据编辑后面描述的机器宠物1的生长和/或行为模型的程序。
在GUI屏幕被显示在监视器111上的状态下,CPU101在显示在监视器111的显示部分上的GUI屏幕上,通过显示处理电路104,叠加地显示根据由用户通过接口电路106从操作部分109给出的命令S101操作的屏幕,和通过接口电路106从操作部分109输入的数字或字符。
CPU101然后根据用户的操作顺序地编辑机器宠物1的生长和/或行为模型。其后,CPU101通过SCSI接口电路107在硬盘设备110中备份所获得的编辑结果作为编辑数据D101,通过媒体单元部分105的驱动器在所插入的存储器棒112中存储编辑数据D101。
以这种方式,编辑装置100可以根据用户的喜好,编辑插入到媒体单元部分105的存储器棒112中预先设定的机器宠物1的生长和/或行为模型的程序。
(3-2)显示在监视器111上的GUI屏幕的结构
在显示在监视器111的显示部分上的GUI屏幕中,实际上,生长模型编辑屏幕GU1是图12中所示的图,其构成是:生长模型显示区域GU1A,用于显示生长模型,生长模型包括存储在存储器棒112中的机器宠物1的“婴儿”的行为模型(行为模型A)、“儿童”的行为模型(行为模型B1,B2)、和“少年”  的行为模型(行为模型C1,C2,C3);和项目显示区域GU1B,包括多个类型的编辑项目PA1,PA2,PA3,PA4和PA5,用于编辑生长模型显示区域GU1A的生长模型。
项目显示区域GU1B的各种编辑项目PA1到PA5是:图标I11到I15,对应于由用户给机器宠物1(图1)的命令和机器宠物1的自己的动作;图标I21到I25,对应于机器宠物1响应于图标I11到I15的动作和运动;图标I3A1到I3A5,对应于用于形成该生长模型的部分;和图标I41到I46和图标I51到I54,对应于机器宠物1的情感和本能。
通过使用由用户选择的在项目显示区域GU1B中的希望的图标,来操作生长模型编辑屏幕GU1上生长模型显示区域GU1A的生长模型,从而编辑生长模型如下。在“婴儿”的行为模型A中,当机器宠物1的“喜”的感情到达100%时,机器宠物1的“生长阶段”前进到“儿童”的行为模型B1。当“怒”的感情到达100%时,机器宠物1的“生长阶段”前进到“儿童”的行为模型B2。当“食欲”的本能到达100%且如果机器宠物1看见“喜爱的颜色”五十次时,则机器宠物1的“生长阶段”通过中间节点(标□)前进到“儿童”的行为模型B2。
另外,在“儿童”的行为模型B1中,该行为模型可以被编辑如下。当机器宠物1执行动作“走”五十次时,机器宠物1的“生长阶段”前进到“少年”的行为模型C1,当机器宠物1执行动作“玩球”五十次时,机器宠物1的“生长阶段”前进到“少年”的行为模型C2。在“儿童”的行为模型B2中,该行为模型可以被编辑如下。当机器宠物1执行动作“玩球”五十次时,机器宠物1的“生长阶段”前进到“少年”的行为模型C2,当机器宠物1听“高声”五十次时,机器宠物1的“生长阶段”前进到“少年”的行为模型C3。
以这种方式,在编辑装置100中,在监视器111上显示的生长模型编辑屏幕GU1由用户操作,这样,机器宠物1的生长模型的程序可以根据用户的口味被编辑。
如图13所示,行为模型编辑屏幕GU2是显示在监视器111的显示部分上的一个图,其构成是:编辑区域GU2A,用于显示由用户从机器宠物1的行为模型A,B1,B2,C1到C3中选择的一部分行为模型A;和项目显示区域GU2B,包括多个类型的编辑项目PA1,PA2,PA3,PA4和PA5,用于编辑编辑区域GU2A的一部分行为模型,基本上与上述项目显示区域GU1B相同。
在项目显示区域GU2B的编辑项目PA1到PA5中的编辑项目PA3B由图标I3B1到I3B5构成,对应于用于形成由用户选择的行为模型A的部分。
通过使用由用户选择的在项目显示区域GU2B中的希望的图标,来操作行为模型编辑屏幕GU2上编辑区域GU2A的行为模型,从而编辑自运动弧ARC1A的动作,自运动弧ARC1A包括有向弧ARC1A1到ARC1A3,它们附着一个不完整的环。在行为模型A的节点NDC1,当机器宠物1听“高声”时,行为模型以50%的变换概率,朝由有向弧ARC1A1所示的方向,前进到中间节点(标□)PAR1,然后,执行动作“发声”,走向由有向弧ARC1A2所示的方向,通过中间节点PAR2,执行动作“站起来”,走向由有向弧ARC1A3所示的方向。
同样,在行为模型A的节点NDC1,当在距机器宠物150cm内的位置有“球”时,行为模型朝由有向弧ARC1B1所示的方向,前进到中间节点PAR3,其后,执行动作“走”,走向由有向弧ARC1B2所示的方向,通过中间节点PAR4,执行动作“踢球”,走向由有向弧ARC1B3所示的方向。
类似地,行为模型可以被编辑如下。在行为模型A的节点NDC1,当机器宠物1听“高声”时,行为模型以50%的变换概率,走向由有向弧ARC21所示的方向,机器宠物1通过中间节点PAR5,执行动作“坐下”,以前进到节点NDC2。在行为模型A的节点NDC1,当机器宠物1的“食欲”的本能到达50%时,行为模型前进到节点NDC3
关于这一点,图标由用户的拖放(drag and drop)操作选择性地从项目显示区域GU2B移动到编辑区域GU2A的行为模型的希望部分。
以这种方式,在编辑装置100中,显示在监视器111上的行为模型编辑屏幕GU2由用户操作,这样机器宠物1的行为模型的程序可以根据用户的口味被编辑。
(3-3)CPU101的编辑过程
这里,当用户接通电源时,编辑装置100的CPU101实际上根据图12所示的编辑过程RT1,执行用于编辑上述机器宠物1的生长和/或行为模型的程序的处理。
更具体说,当用户接通电源时,在步骤SP0,CPU101开始编辑过程RT1,在接下来的步骤SP1,在监视器111的显示部分上显示消息“请插入存储器棒”作为初始屏幕(未示出)。
其后,当用户插入存储器棒112到编辑装置100的媒体单元部分105时,CPU101前进到步骤SP2,从存储器棒112读出机器宠物1的预先设定的各种信息D100,同时,基于这从ROM102读出对应的视频数据,以便在监视器111的显示部分上显示生长模型编辑屏幕GU1、GU2(图12、图13),用于基于视频数据编辑机器宠物1的生长和行为模型。
然后,当处理前进到步骤SP3且用户在显示在监视器111上的生长模型编辑屏幕GU1上选择生长模型的编辑时,在下一步骤SP4,CPU101执行生长模型的编辑。在步骤SP3当用户在生长模型编辑屏幕GU1上选择希望的行为模型时,CPU101将显示在监视器111上的屏幕切换到对应于所选择的行为模型的行为模型编辑屏幕GU2,前进到下一步骤SP4以执行所选择的行为模型的编辑。
在步骤SP4,生长模型编辑屏幕GU1或GU2显示在监视器111上,由用户通过操作部分109操作,这样CPU101对应于生长模型编辑屏幕GU1或GU2,编辑机器宠物1的生长或行为模型。
CPU101然后前进到步骤SP5,判断是否完成了对应于生长模型编辑屏幕GU1或GU2的机器宠物1的生长或行为模型的编辑。如果从用户给出编辑机器宠物1的其他生长或行为模型的指令作为命令S101,且获得否定的结果,则CPU101返回步骤SP3,生长模型编辑屏幕GU1被再次显示在监视器111上,使用户选择希望的生长或行为模型。
其后,CPU101类似上述地执行下面的步骤SP4和步骤SP5,重复循环步骤SP3-SP4-SP5-SP3,直到在步骤SP5获得肯定的结果。最终,当在步骤SP5从用户作为命令S101给出完成机器宠物1的生长和行为模型的编辑的指令且获得肯定的结果时,CPU101前进到下一步骤SP6。
在步骤SP6,CPU101通过SCSI接口电路107在硬盘设备110中备份以这种方式编辑的编辑结果作为编辑数据D101,并前进到步骤SP7,通过媒体单元部分105的驱动器在所插入的存储器棒112中存储编辑数据D101。
然后,在CPU101在步骤SP7在存储器棒112中存储编辑数据D101后,它前进到步骤SP8,消息“请除去存储器棒(未示出)”被显示在监视器111上。当存储器棒112由用户从媒体单元部分105除去时,CPU101前进到下一个步骤SP9,终止编辑过程RT1。
以这种方式,在编辑过程RT1中,可以根据用户的口味,编辑预先设定在插入媒体单元部分105的存储器棒112中的机器宠物1的生长和/或行为模型的程序。
(4)该实施例的运作和效果
根据上面的构造,编辑装置100被用于根据用户的口味,编辑机器宠物1的生长和/或行为模型的程序,其根据用户的手法对机器宠物1诸如“拍”或“打”、从用户使用声音命令器给机器宠物1的命令、以及机器宠物1的动作诸如玩“球”,来改变阶段。
相应地,编辑装置100编辑机器宠物1的性格为针对用户的性格,使机器宠物1执行针对用户的生长和动作,以便提供不同于另一个机器宠物的针对用户的性格。因此,编辑装置100可以使用户不对它感到厌倦,给用户进一步的亲和的感觉和满意的感受。
根据上面的构造,由于根据用户的口味编辑了机器宠物1的生长和/或行为模型的程序,从而在机器宠物1中提供了针对用户的性格,这可以使用户不对机器宠物1感到厌倦,给用户进一步的亲和的感觉和满意的感受。因此,能够显著改进娱乐的感觉的编辑装置100可以被实现。
(5)其他实施例
上述的实施例已经处理了本发明应用于用于编辑机器宠物1的动作和运动模型的编辑装置100的情况。然而,本发明不限于此,可以应用于使用记录媒体的传统个人计算机,在记录媒体中,记录了在编辑装置100中的用于编辑机器宠物1的动作和运动模型的应用程序,机器宠物1的动作和运动模型可以用该个人计算机来编辑。本发明可广泛应用于其他各种编辑装置。
另外,上述实施例已经处理了本发明应用于图1所示的四腿行走机器宠物1的生长和行为模型的编辑的情况。然而,本发明不限于此,可以广泛应用于具有各种结构的其他机器人装置的编辑。同样,本发明可以应用于在监视器屏幕上运动的计算机图形字符,等等。
在这种情况下,上述实施例已经处理了用于基于动作和运动模型形成动作或运动的动作和/或运动形成装置由控制器10、动作器211到21n、扬声器20和在“眼睛”位置的LED等组成的情况。然而,本发明不限于此,可以根据本发明应用的机器人装置的形式,应用其他各种结构。
另外,上述实施例已经处理了性格和生长等级根据外部输入历史和自身动作和运动历史改变的情况。然而,本发明不限于此,机器宠物1的性格和生长等级可以在除了“生长”的时刻,基于外部输入历史和自身动作和运动历史,或结合外部输入历史和自身动作和运动历史之外的元素而变化。另外,性格和生长等级可以基于自身动作历史和运动历史而改变。
另外,上述实施例已经处理了机器宠物1分阶段“长大”的情况。然而,本发明不限于此,机器宠物1也可以在每次执行生长元素的动作或运动时,通过检测生长元素的状态或通过连续地改变控制参数的值,连续地“长大”。
另外,上述实施例已经处理了机器宠物1以四个阶段“婴儿”“儿童”“少年”“成年”来“长大”的情况。然而,本发明不限于此,“生长阶段”的数目也可以被设定为除了四以外的其他数目。
另外,上述实施例已经处理了通过触摸传感器18输入的触摸的历史,由CCD摄像机17成像的历史和使用声音命令器输入的命令声音的历史被用作从外部的输入历史的情况。然而,本发明不限于此,除了这些历史之外的来自外部的输入历史也可以被使用
另外,上述实施例已经处理了在“儿童”后的每个“生长阶段”准备了多个动作和运动模型的情况。然而,本发明不限于此,也可以为每个“生长阶段”仅准备单个动作和运动模型。
另外,上述实施例已经处理了随“生长”改变的项目是四个即“走状态”“运动”“动作”“声音”的情况。然而,本发明不限于此,其他项目也可以随“生长”改变。
                  工业应用
例如,本发明可以应用于用于编辑机器宠物的生长模型和行为模型的编辑装置。

Claims (12)

1.一种编辑装置,包括:
显示器件,用于可视地显示根据预定行为模型动作的机器人设备的该行为模型;和
编辑器件,用于根据用户的操作,编辑可视地显示的所述行为模型。
2.如权利要求1所述的编辑装置,其中:所述显示器件可视地显示所述机器人设备的所述行为模型为一个图。
3.一种编辑装置,包括:
显示器件,用于可视地显示根据预定生长模型长大的机器人设备的该生长模型;和
编辑器件,用于根据用户的操作,编辑可视地显示的所述生长模型。
4.如权利要求3所述的编辑装置,其中:所述显示器件可视地显示所述机器人设备的所述行为模型为一个图。
5.一种编辑方法,包括:
第一步,可视地显示根据预定行为模型动作的机器人设备的该行为模型;和
第二步,根据用户的操作,编辑可视地显示的所述行为模型。
6.如权利要求5所述的编辑方法,其中:
在所述第一步,所述机器人设备的所述行为模型被可视地显示为一个图。
7.一种编辑方法,包括:
第一步,可视地显示根据预定生长模型动作的机器人设备的该生长模型;和
第二步,根据用户的操作,编辑可视地显示的所述生长模型。
8.如权利要求7所述的编辑方法,其中:
在所述第一步,所述机器人设备的所述生长模型被可视地显示为一个图。
9.一种记录媒体,其中:
存储一程序,用于执行编辑处理,所述程序包括:
显示步骤,可视地显示根据预定行为模型动作的机器人设备的该行为模型;和
编辑步骤,根据用户的操作,编辑可视地显示的所述行为模型。
10.如权利要求9所述的记录媒体,其中:
在所述显示步骤,所述机器人设备的所述行为模型被可视地显示为一个图。
11.一种记录媒体,其中:存储一程序,用于执行编辑处理,所述程序包括:显示步骤,可视地显示根据预定生长模型动作的机器人设备的该生长模型;和
编辑步骤,根据用户的操作,编辑可视地显示的所述生长模型。
12.如权利要求11所述的记录媒体,其中:
在所述显示步骤,所述机器人设备的所述生长模型被可视地显示为一个图。
CN00803905A 1999-12-29 2000-12-28 编辑装置、编辑方法和记录媒体 Expired - Fee Related CN1124191C (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP37725799A JP2001191281A (ja) 1999-12-29 1999-12-29 編集装置、編集方法及び記録媒体
JP377257/99 1999-12-29
JP377257/1999 1999-12-29

Publications (2)

Publication Number Publication Date
CN1339997A CN1339997A (zh) 2002-03-13
CN1124191C true CN1124191C (zh) 2003-10-15

Family

ID=18508521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN00803905A Expired - Fee Related CN1124191C (zh) 1999-12-29 2000-12-28 编辑装置、编辑方法和记录媒体

Country Status (6)

Country Link
US (1) US7063591B2 (zh)
JP (1) JP2001191281A (zh)
KR (1) KR20010102425A (zh)
CN (1) CN1124191C (zh)
TW (1) TW544614B (zh)
WO (1) WO2001049461A1 (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8060389B2 (en) 2000-06-07 2011-11-15 Apple Inc. System and method for anonymous location based services
US6456234B1 (en) 2000-06-07 2002-09-24 William J. Johnson System and method for proactive content delivery by situation location
CN1392826A (zh) * 2000-10-05 2003-01-22 索尼公司 机器人设备及其控制方法
AU2003283693A1 (en) * 2002-12-19 2004-07-14 Koninklijke Philips Electronics N.V. System and method for controlling a robot
JPWO2004106009A1 (ja) 2003-06-02 2006-07-20 松下電器産業株式会社 物品取扱いシステムおよび物品取扱いサーバ
JP4473849B2 (ja) * 2003-06-02 2010-06-02 パナソニック株式会社 物品取扱いシステムおよび物品取扱いサーバ
US7689319B2 (en) * 2003-08-12 2010-03-30 Advanced Telecommunications Research Institute International Communication robot control system
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
JP4652357B2 (ja) * 2007-02-27 2011-03-16 日本電信電話株式会社 メディア編集サーバ装置、メディア編集システム、およびメディア編集プログラム
GB2448883A (en) * 2007-04-30 2008-11-05 Sony Comp Entertainment Europe Interactive toy and entertainment device
KR20090065212A (ko) * 2007-12-17 2009-06-22 한국전자통신연구원 로봇 채팅 시스템 및 방법
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
CN101653660A (zh) * 2008-08-22 2010-02-24 鸿富锦精密工业(深圳)有限公司 讲故事自动做动作的类生物装置及其方法
US20100100038A1 (en) * 2008-10-15 2010-04-22 Symbios Medical Products, Llc Electronic flow control
TWI416295B (zh) * 2010-05-28 2013-11-21 Compal Communications Inc 機械裝置動作編輯系統及其方法
US8924011B2 (en) * 2012-04-03 2014-12-30 Knu-Industry Cooperation Foundation Intelligent robot apparatus responsive to environmental change and method of controlling and reconfiguring intelligent robot apparatus
JP5978027B2 (ja) * 2012-06-28 2016-08-24 本田技研工業株式会社 移動ロボットの制御装置
JP7186058B2 (ja) * 2018-10-16 2022-12-08 東京瓦斯株式会社 ロボットマッチングシステム及びプログラム
EP3791718A4 (en) * 2019-05-24 2022-04-06 Ohta Seiki Co., Ltd. REPELLENT DEVICE FOR WILD ANIMALS
JP7070529B2 (ja) * 2019-10-31 2022-05-18 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
KR102295836B1 (ko) * 2020-11-20 2021-08-31 오로라월드 주식회사 성장형 스마트 토이 장치 및 스마트 토이 시스템

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4923428A (en) * 1988-05-05 1990-05-08 Cal R & D, Inc. Interactive talking toy
JP3446050B2 (ja) * 1995-01-13 2003-09-16 日本電信電話株式会社 教示装置及び教示データ作成方法
JPH09269812A (ja) * 1996-03-29 1997-10-14 Minolta Co Ltd 動作命令編集装置
US6012961A (en) * 1997-05-14 2000-01-11 Design Lab, Llc Electronic toy including a reprogrammable data storage device
IL121642A0 (en) * 1997-08-27 1998-02-08 Creator Ltd Interactive talking toy
JP2000254360A (ja) * 1999-03-11 2000-09-19 Toybox:Kk 対話型玩具
JP3212578B2 (ja) * 1999-06-30 2001-09-25 インタロボット株式会社 身体的音声反応玩具
US6565407B1 (en) * 2000-02-02 2003-05-20 Mattel, Inc. Talking doll having head movement responsive to external sound

Also Published As

Publication number Publication date
CN1339997A (zh) 2002-03-13
US7063591B2 (en) 2006-06-20
JP2001191281A (ja) 2001-07-17
KR20010102425A (ko) 2001-11-15
TW544614B (en) 2003-08-01
WO2001049461A1 (fr) 2001-07-12
US20020137425A1 (en) 2002-09-26

Similar Documents

Publication Publication Date Title
CN1124191C (zh) 编辑装置、编辑方法和记录媒体
CN1290034C (zh) 机器人装置及其行为控制方法
CN1301830C (zh) 机器人装置
CN1270289C (zh) 对于机器人装置的动作教学装置和方法
CN1103659C (zh) 机器人装置及机器人装置动作决定方法
CN1590038A (zh) 机器人设备、机器人设备的控制方法和机器人设备用玩具
CN1159678C (zh) 图像处理方法及电子装置
CN1083595C (zh) 电子蒙太奇生成装置
CN1309535C (zh) 机器人设备、用于控制机器人设备运动的方法以及用于控制机器人设备运动的系统
CN1457287A (zh) 用于机器人装置的操作控制的方法、程序、和记录介质、以及机器人装置
CN1213401C (zh) 声音交互设备和声音交互方法
CN1324501C (zh) 信息处理终端、服务器、信息处理程序及其计算机可读介质
CN1331445A (zh) 交互式玩具、反应行为模式生成装置及方法
CN1142647A (zh) 语音识别对话装置
CN1942739A (zh) 引导装置及引导方法
CN1835828A (zh) 用于通信机器人的控制系统
CN1460051A (zh) 机器人装置及其控制方法和存储介质
CN1463215A (zh) 有腿移动机器人及其动作教学方法和存储介质
CN1808566A (zh) 重放装置和方法
CN1287522A (zh) 机器人装置与其控制方法和显示方法及提供媒体
CN1703720A (zh) 思想表达模型装置、自发感情模型装置其方法及程序
CN1894740A (zh) 信息处理系统、信息处理方法以及信息处理用程序
CN1435772A (zh) 信息处理装置及方法
CN1392826A (zh) 机器人设备及其控制方法
CN1459090A (zh) 话音输出装置

Legal Events

Date Code Title Description
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C06 Publication
PB01 Publication
C14 Grant of patent or utility model
GR01 Patent grant
C19 Lapse of patent right due to non-payment of the annual fee
CF01 Termination of patent right due to non-payment of annual fee