CN1331445A - 交互式玩具、反应行为模式生成装置及方法 - Google Patents
交互式玩具、反应行为模式生成装置及方法 Download PDFInfo
- Publication number
- CN1331445A CN1331445A CN01122710A CN01122710A CN1331445A CN 1331445 A CN1331445 A CN 1331445A CN 01122710 A CN01122710 A CN 01122710A CN 01122710 A CN01122710 A CN 01122710A CN 1331445 A CN1331445 A CN 1331445A
- Authority
- CN
- China
- Prior art keywords
- reflex action
- total value
- operating point
- life entity
- action pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
交互式玩具(1)包括用于检测输入刺激的刺激传感器(5)、用于操纵交互式玩具(1)的执行机构等(3、4)、用于控制执行机构等(3、4)以使交互式玩具(1)可以针对由刺激传感器(5)检测到的刺激采取反应行为的控制单元(10)。此处,控制单元(10)根据交互式玩具(1)的反应行为引起的生成动作点的总值来改变交互式玩具(1)的反应行为。这样,交互式玩具的反应行为(输出)便成为一些点,并且交互式玩具(1)的反应行为根据这些点的总值来变化。由此可以丰富反应行为有关的变化并使预知反应行为的困难。
Description
发明背景
发明领域
本发明涉及诸如机器狗等的交互式玩具、模拟生命体针对刺激的反应行为模式生成装置及反应行为模式生成方法。
相关技术说明
在先有技术中,一种好象可以和用户进行交流的交互式玩具已为大家所知晓。作为这种交互式玩具的典型示例,介绍一种具有狗或猫等的形状的机器玩具。另外,通过显示在显示器等设备上来体现的虚拟宠物等也对应于这种交互式玩具。在本说明中,以硬件形式体现的交互式玩具或以软件形式体现的虚拟宠物通常被恰当地称作“模拟生命体”。模拟生命体响应外部给予的刺激来动作,并开始能够带有感情,通过对它的观察,用户可以得到乐趣。
例如,在日本专利公布No.Hei7-83794中,公开了一种生成交互式玩具反应行为的技术。具体地说,检测一种人为的特定刺激(如声音),并对次数(刺激输入次数)进行计算。然后,交互式玩具的反应内容就会随着所计算的次数而改变。因此,这就能够使用户觉得交互式玩具正在成长。
发明概述
本发明的一个目的是提供一种新颖的反应行为生成技术,它使交互式玩具采取反应行为。
此外,本发明的另一个目的是能够使交互式玩具的反应行为更富于变化,并使玩具采取富有个性化的反应行为。
为了解决上述问题,根据本发明的第一方面,提供一种交互式玩具,它包括用于检测输入刺激的刺激检测构件、用于操纵交互式玩具的动作构件、以及用于控制动作构件来使交互式玩具针对刺激检测构件检测的刺激采取反应行为的控制构件。此处,上述控制构件交互式玩具的反应行为引起的生成动作点的总值来改变交互式玩具的反应行为。这样,交互式玩具的反应行为(输出)就变为一些点,并且交互式玩具的反应行为根据这些点的总值而改变。由此可以丰富反应行为的变化以及使反应行为的预知困难。
此处,在本发明的交互式玩具中,由交互式玩具的反应行为引起的生成动作点最好是根据反应行为内容的点数。例如,它可以是对应于反应行为的时间的点数。
另外,在本发明的交互式玩具中,在根据预定规则将动作点分配到至少第一总值和第二总值的其中之一以后,最好是对第一总值和第二总值进行计数。还需要根据输入刺激的内容来分配动作点。例如,可以将对应于接触刺激的反应行为引起的生成动作点分配到第一总值,而可以将对应于非接触刺激的反应行为引起的生成动作点分配到第二总值。这样,在分配动作点时,控制构件可以分别对第一总和第二总值进行计数。然后,控制构件可以根据第一总值和第二总值来确定交互式玩具的反应行为。
而且,在本发明的交互式玩具中,最好是再提供一个特性状态映射(map),其中已设置了影响交互式玩具的反应行为的许多特性参数。另外,通过与第一总值和第二总值相匹配来将特性参数写入特性状态映射中。在这种情况下,控制构件可以根据第一总值和第二总值并参照特性状态映射来选择特性参数。此外,控制构件可以根据所选特性参数来确定交互式玩具的反应行为。
此外,在本发明的交互式玩具中,控制构件可以在随机设置的时间限制内对第一总值和第二总值进行计数。因此,对反应行为的预知变得更加困难。
根据本发明的第二方面,一种用于生成模拟生命体针对输入刺激的反应行为模式的反应行为模式生成装置,它包括反应行为模式表、选择构件、计数构件以及更新构件。在反应行为模式表中,通过关联影响模拟生命体的反应行为的特性参数来将模拟生命体针对刺激的反应行为模式写入。选择构件根据特性参数的设置值并参照反应行为模式表来选择针对输入刺激的反应行为模式。然后,计数构件根据选择构件所选的反应行为模式来对模拟生命体反应行为引起的生成动作点的总值进行计数。此外,更新构件根据动作点的总值来更新特性参数的设置值。
根据本发明的第三方面,一种用于生成模拟生命体针对输入刺激的反应行为模式的反应行为模式生成装置,它包括特性状态映射、计数构件以及更新构件。在特性状态映射中设置影响模拟生命体的反应行为的许多特性参数。还通过与动作点相关的第一总值和第二总值进行匹配把特性参数写入特性状态映射中。在根据预定规则将由模拟生命体的反应行为引起的生成动作点分配到至少第一总值和第二总值的其中之一以后,计数构件对第一总值和第二总值进行计数。更新构件通过根据第一总值和第二总值并参照上述特性状态映射来选择特性参数而更新特性参数的设置值。在这种结构中,模拟生命体针对输入刺激的反应行为是根据特性参数的设置值来确定的。这样,由于模拟生命体的反应行为是根据许多特性参数来设置的,用户就很难预知模拟生命体的反应行为。
这里,在本发明的第二或第三方面,计数构件最好是在随机设置的时间限制内对总值进行计数。从而可以使对反应行为的预知更困难。
根据本发明的第四方面,它涉及反应行为模式生成方法,该方法用于生成模拟生命体针对输入刺激的反应行为模式。所述生成方法包括以下步骤。首先,在选择步骤中,根据特性参数当前的设置值并参照反应行为模式表来选择模拟生命体针对输入刺激的反应行为模式,其中,通过关联影响模拟生命体反应行为的特性参数,将模拟生命体针对刺激的反应行为模式写入反应行为模式表中。接着,在计数步骤中,对根据所选反应行为模式的模拟生命体的反应行为引起的动作点的总值进行计数。然后,在更新步骤中,根据动作点的总值来更新特性参数的设置值。
根据本发明的第五方面,它涉及反应行为模式生成方法,该方法用于生成模拟生命体针对输入刺激的反应行为模式。所述生成方法包括以下步骤。首先,在计数步骤中,在根据预定规则将模拟生命体的反应行为引起的生成动作点分配到至少第一总值或第二总值之后,对第一总值和第二总值进行计数。接着,在更新步骤中,通过根据第一总值和第二总值并参照其中设置影响模拟生命体的反应行为的许多特性参数的特性状态映射来选择特性参数而对特性参数的设置值进行更新。通过与动作点有关的第一总值和第二总值进行匹配把特性参数写入特性状态映射中。然后,在确定步骤,根据特性参数的设置值来确定模拟生命体针对输入刺激的反应行为。
这里,在本发明的第二至第五方面的任何一个方面,由模拟生命体的反应行为引起的生成动作点最好是根据反应行为内容的点数。例如,它可以是对应于模拟生命体的反应行为的时间的点数。
此外,在本发明的第三或第五方面,最好是根据输入刺激的内容将模拟生命体的反应行为引起的生成动作点分配到第一总值或第二总值。例如,可以把由对应于接触刺激的反应行为引起的生成动作点分配到第一总值,而可以把由对应于非接触刺激的反应行为引起的生成动作点分配到第二总值。
另外,在本发明的第四或第五方面,上述计数步骤最好是在随机设置的时间限制内对总值进行计数。因此,对反应行为的预知会更加困难。
附图简述
通过以下的详细说明和附图,将会更充分地理解本发明。其中的说明和附图仅用于说明,因此不用作本发明限制的定义,附图中:
图1是说明根据本发明实施例的交互式玩具的示意方框图;
图2是说明根据本发明实施例的控制单元的功能方框图;
图3是说明根据本发明实施例的控制单元的反应行为数据存储单元的结构的视图;
图4是说明根据本发明实施例的成长阶段的转变的示例性示意图;
图5是说明根据本发明实施例的第一阶段的反应行为模式表的示例性示意图;
图6是说明根据本发明实施例的第二阶段的反应行为模式表的示例性示意图;
图7是说明根据本发明实施例的第三阶段的反应行为模式表的示例性示意图;
图8是说明根据本发明实施例的刺激数据的示例性示意图;
图9是说明根据本发明实施例的声音数据的示例性示意图;
图10是说明根据本发明实施例的动作数据的示例性示意图;
图11是说明根据本发明实施例的特性状态映射的示例性示意图;
图12是说明根据本发明实施例的第一阶段中的处理过程的流程图;
图13是说明根据本发明实施例的第二阶段中的处理过程的流程图;
图14是说明根据本发明实施例的第三阶段中的初始状态的配置过程的流程图;
图15是说明根据本发明实施例的第三阶段中的处理过程的流程图;
图16是说明根据本发明实施例的动作计数处理过程的流程图;和
图17是说明根据本发明实施例的动作计数处理过程的流程图。
本发明的最佳实施例
下面将参考附图来说明根据本发明的交互式玩具的实施例。
图1是说明根据本发明实施例的交互式玩具(机器狗)的结构的示意图。机器狗1的形状模仿狗,狗是宠物中最受欢迎的动物。在机器狗1的身体部分2的内部,装有各种作为操纵构件的执行机构3来操纵腿、颈以及尾巴等;装有扬声器4来发出声音;装有各种作为刺激检测构件的刺激传感器5,它们安装在预定的部分,如鼻子或头部等;装有作为控制构件的控制单元10。此处,刺激传感器5是检测从外部接收的刺激的传感器。其中使用了触觉传感器、光传感器以及话筒等。触觉传感器是检测用户是否触摸了机器狗1的预定部分的传感器,即检测触觉刺激的传感器。光传感器是检测外部亮度变化的传感器,即检测光刺激的传感器。话筒是检测用户说话的传感器,即检测声音刺激的传感器。
控制单元10主要包括微型计算机、RAM以及ROM等。根据来自刺激传感器5的刺激信号来确定机器狗1的反应行为模式。然后,控制单元再控制执行机构3或扬声器4,使机器狗1按照所确定的反应行为模式来动作。机器狗1的特性状态(所述特性由下面将要进行说明的特性参数XY来确定)规定机器狗1的特性或成长程度,这种特性状态会根据机器狗1对接收的刺激所采取的反应行为的不同而有所改变。机器狗1的反应行为根据特性状态来改变。由于这种对应变化丰富,所以用户会产生一种印象,好象用户自己在与机器狗1进行交流。
图2是说明控制单元10的功能块结构的视图,控制单元10生成反应行为模式。控制单元10包括刺激识别单元11、反应行为数据存储单元12(ROM)、特性状态存储单元13(RAM)、作为选择构件的反应行为选择单元14、作为计数构件的点计数单元15、定时器16以及作为更新构件的特性状态更新确定单元17。
刺激识别单元11根据来自刺激传感器5的刺激信号来检测是否有来自外部的刺激,并辨别刺激的内容(类型或刺激位置)。在本发明的实施例中,如以下所述,机器狗1的反应行为(输出)随刺激内容的不同而改变。本发明实施例中所识别的刺激有以下几种。
[识别的刺激]
1.接触刺激
触觉刺激:刺激部分(头部、喉咙、鼻子或背部),或刺激方法(抚摸、敲击)等
2.非接触刺激
声音刺激:用户说话或输入方向(右或左)等
光刺激:外部的光线和阴影、或者闪光等
在反应行为数据存储单元12中存储了各种与机器狗1所采取的反应行为有关的数据。具体地说,如图3所示,该单元保存了反应行为模式表21、外部刺激数据表22、语音数据表23以及动作数据表24等。此外,由于机器狗1的成长阶段设置为三个,所以就根据这些阶段准备了三种反应行为模式表21(图5至7)。其中还保存了图11所示的特性状态映射。
在特性状态存储单元13中保存了规定机器狗1特性的特性参数eXY(当前设置值)。机器狗1的特性由目前所设置的特性参数XY来确定。基本行为倾向、对于刺激的反应行为以及成长的程度等均取决于特性参数XY。换句话说,机器狗1的反应行为的变化是由保存在特性状态存储单元13中的特性参数XY值的改变所引起的。
反应行为选择单元14通过考虑存储在特性状态存储单元13中的特性参数XY来确定对输入刺激的反应行为模式。具体地说,通过参考图5至7所示的各成长阶段的反应行为模式表,可以根据预定的出现概率来选择对某个刺激的反应行为模式之一。然后,反应行为选择单元14控制执行机构3或扬声器4,并使机器狗1表现为好象对该刺激采取反应行为。
点计数单元15对由机器狗1的反应行为所引起的生成动作点进行计数。对动作点进行计数(加/减)并累计到动作点的总值中,最新的总值存储在RAM中。此处,“动作点”是指由机器狗1的反应行为(输出)所引起的生成分数。动作点的总值对应于机器狗1和用户之间交流的级别。它还成为与特性参数XY的更新相关的基本参数,它确定机器狗1的特性状态。
在本发明的实施例中,对扬声器4的控制信号的输出时间(换句话说,扬声器4的语音输出时间),或者对执行机构3的控制信号的输出时间(换句话说,执行机构3的驱动时间)由定时器16来计数。然后,与计数输出时间有关的点就被作为动作点。例如,当扬声器4的语音输出时间为1.0秒时,由此引起的动作点则为1.0点。因此,当执行反应行为时,对执行机构3或扬声器4的控制信号的输出时间越长,则由输出时间引起的生成动作点的点数会变得越大。
此处,在输入一个被认为使机器狗1不舒适的刺激(如敲击机器狗1的头部等)时,点计数单元15执行动作点的减法运算(减量计数)。动作点的减量计数表示机器狗1的成长阻碍(或交流恶化)。
本发明的主要特点在于:机器狗1的成长程度或特性是根据机器狗1的反应行为(输出)的内容来确定的。这一点与对给定刺激(输入)的次数进行计数的先有技术大不相同。因此,在这样的目标范围内,可以使用不同于上述动作点计算技术的适当技术。例如,话筒等可以单独装在身体部分2内,实际发出语音的输出时间可以被计数。然后,可以通过使所计数的时间(反应行为时间)成为点来生成动作点。此外,可以预先为组成动作模式表的每个动作模式设置动作行为点。对应于实际执行的反应行为(输出)的动作点则可以成为计数对象。
特性状态更新确定单元17适合于根据动作点的总值来更新特性参数XY的值。所更新的特性参数XY(当前值)保存在特性状态存储单元13中,机器狗1的成长程度、特性、基本姿势以及对刺激的反应行为等均根据特性参数XY来确定。
机器狗1所接收的刺激被分类,具体地说,它被分为对应于刺激内容的接触刺激(触觉刺激)和非接触刺激(光刺激或声音刺激)。基本上,对于对接触刺激的反应行为和对非接触刺激的反应行为,每个刺激的动作点均被单独计数。此处,基于对接触刺激的反应行为的动作点总值作为第一总值VTX。另外,基于对非接触刺激的反应行为的动作点总值作为第二总值VTY。
在本发明的实施例中,如图4所示,为成长阶段设置了三个阶段。机器狗1的行为随成长阶段的转变而发展(成长)。也就是说,机器狗1在第一阶段表现为与狗相同的层次,这是初始阶段。在第二阶段,它的行为介于狗和人之间的层次。之后,它在第三阶段表现为与人相同的层次,这是最终阶段。从而准备了三个反应行为模式表(图5至7),使机器狗1可以采取对应于所述成长阶段的反应行为。
图5至7是说明第一至第三成长阶段的反应行为模式表的示例性示意图。记录在随后七个字段中的信息与记录在表中的反应行为模式相关联。首先,在字段“阶段编号”中,记录了指定一个成长阶段的数字(S1至S3)。在字段“特性参数”中,记录了确定机器狗1的基本特性的特性参数XY。至于特性参数XY的X值,设置为“S”、“A”至“D”中的一个值;至于Y值,设置为“1”至“4”中的一个值。由于图5中的特性参数XY统一设置为“S1”,所以第一阶段(狗的层次)中机器狗1的特性没有变化。同样,由于图6中的特性参数XY统一设置为“S2”,所以第二阶段中机器狗1的特性(狗+人的层次)没有变化。另一方面,在第三阶段(人的层次),由于特性参数XY分为“A1”至“D4”十六种形式,通过特性参数XY的更新,机器狗1的特性有十六种变化(参看图7和11)。
此外,在字段“输入编号”中,如图5至7所示,记录了表示外部刺激(输入)分类(给定部分或内容的刺激)的刺激编号(i-01至i-07…)。关于刺激编号及其含义的对应关系,参见图8。另外,在字段“输出编号”中,记录了表示机器狗1的反应行为(输出)的内容的输出ID。对应于输出ID的语音编号和动作编号记录在每个字段“语音编号”和“动作编号”中。语音编号和语音内容的对应关系参见图9。动作编号和动作内容之间的对应关系参见图10。此外,记录在图7所示的字段“语音编号”中的pos(料)表示暂停时间为“料”秒。而且在字段“概率”中,对某个刺激的反应行为模式的出现概率是选择构件。
(第一阶段)
下面将对第一阶段(狗的层次)中机器狗1的反应行为进行说明。参见图5,例如,当用户敲击机器狗1的头部时(刺激编号=“i-01”),准备三种反应行为模式31至33作为对该刺激的反应。行为模式31至33各自出现的概率分别为30%、50%以及20%。考虑了这个出现概率之后,假定根据随机数选取了反应行为模式31,则将会选择语音“vce(01)”和动作“act(01)。由此,根据图9和10,机器狗1“后退”并发出“汪汪”的叫声,也就是说,机器狗1采取了和真狗一样的动作。
接下来,将对成长并转移到第二阶段(狗+人的层次)情况下的机器狗1的反应行为进行说明。参见图6,例如,当用户敲击机器狗1的头部时(刺激编号=“i-01”),准备七种反应行为模式41至47作为对该刺激的反应。对每个行为模式41至47均指定了预定的出现概率。此处,假定选择了反应行为44,则将会选择语音“vce(23)”。由此,根据图9,机器狗1会发出象是“惊奇的叫声”,并采取向人靠近的动作。
随着机器狗1继续成长进入第三阶段(人的层次),例如,它采取和人一样的动作,诸如说“什么?”或“你弄疼我了!”等。另外,为了表示机器狗1的认真思考的状态,适当地设置了暂停时间,然后再发出声音。在第三阶段,特性参数A1至D4被分配到图11所示4×4矩阵的各个单元。因此,成长为这个层次的机器狗1就能够具有十六种基本的特性。特性参数XY和特性之间的关系将在下面给出。
[特性参数XY和特性]
A1:漠不关心 B1:电气的
A2:退缩 B2:冷酷
A3:撒谎 B3:缺乏教养
A4:坏小孩 B4:不爱社交
C1:害羞 D1:宠坏了的小孩
C2:专横 D2:爱哭的小孩
C3:听候调遣 D3:爱管闲事
C4:假装好学生 D4:好小孩
例如,如果特性参数XY为“A1”,机器狗1的特性则为“漠不关心类型”。在这种情况下,机器狗1通常采取头朝下躺着的姿势,几乎不开口说话。此外,如果特性参数XY为“D1”,机器狗1则为“宠坏了的小孩”。它通常采取头略微抬起而坐的姿势,喜欢说话。因此,对各个特性参数XY均设置了基本姿势或特性以及行为倾向等。此外,如以下所述,第三阶段中的特性参数XY是通过根据机器狗1执行的反应行为(输出)所生成的动作点的总值而适当更新的。
接下来将对各个成长阶段中的控制单元10的处理过程进行说明。图12是说明第一阶段(狗的层次)的处理过程的流程图。首先,在步骤11中,动作点的总值VTX和VTY被复位(VTX=0以及VTY=0)。接着,在步骤12中,保存在特性状态存储单元14中的特性参数XY的X值(当前设置值)被设置为“S”,同时Y值被设置为“1”(特性参数S1指第一阶段)。然后,在步骤13中,计算第一总值VTX和第二总值VTY的总和,即动作点的累计总值VTA。累计总值VTA对应于用户与机器狗1之间的交流量,并成为确定从第一阶段转换到第二阶段的值。
在紧接着步骤13的步骤14中,对动作点的累计总值VTA进行判断,看它是否已达到确定阈值(以40点为例),这是转换为第二阶段所需要的。如果已达到该确定阈值,则判断已进行了足够量的转换到下一个成长阶段的交流。因此,便进入图13中的步骤21,开始第二阶段。另一方面,如果累计总值VTA还没有达到该确定阈值,则进入步骤15的“动作点计数处理”。
图16和17是说明步骤15中“动作点计数处理”的详细过程的流程图。此外,在步骤25和45也进行与步骤15相同的处理,这一点将在下面进行说明。
首先,通过步骤50、54至58的依次判断来确定输入刺激的类别分组。机器狗1根据图5所示的反应行为模式表对所输入的刺激采取反应行为。随后,再根据与机器狗1已经采取反应行为的时间(输出时间)相对应的动作点VTxyi而对动作点的总值VTX和VTY进行适当地更新。由接触刺激引起的生成动作点继续图16和17中的步骤54至58(分配规则)。在动作点被适当地分配到第一总值VTX或第二总值VTY之后,对总值VTX和VTY进行计数。
[输入刺激的类别分组]
1.不舒适的刺激1:极度不满的刺激,如触摸鼻子等
2.不舒适的刺激2:轻微不满的接触刺激,如敲击头部等
3.无感觉刺激
4.舒适的刺激1:非接触刺激,如说话等
5.舒适的刺激2:接触刺激,如抚摸头部、鼻子以及背部等
6.其它(如果步骤54至58中执行否定确定)
首先,如果在步骤50执行了肯定的确定,也就是说在预定时间(如30秒)内没有刺激输入,则进入步骤59之后的过程,并开始阻碍机器狗1的成长。也就是说,从第一总值VTX中减去动作点VTxyi(步骤59)。还从第二总值VTX中减去动作点VTxyi(步骤60)。如果继续保持无刺激输入的状态,则机器狗1也采取预定的行为(输出),以便生成该行为所引起的动作点VTxyi。
另一方面,如果在步骤50执行了否定确定,也就是说在预定时间内有刺激输入,则进入步骤51,并且所输入的刺激被识别。然后,对应于所识别的输入刺激被选择(步骤51),根据所选的反应行为模式来控制执行机构3和扬声器4的输出(步骤52)。随后,再对与输出控制时间相对应的动作点VTxyi进行计算(步骤53)。
在紧接着步骤53的步骤54至58中,确定输入刺激的类别分组。如果输入刺激对应于上述类别分组1,则经步骤54的肯定确定进入步骤59。在这种情况下,和没有输入刺激时一样,动作点VTxyi被分配到第一和第二总值VTX和VTY。然后,再从值VTX和VTY中分别减去动作点VTxyi(步骤59和60)。从而阻碍机器狗1的成长。
如果所输入的刺激对应于类别分组2,则经步骤54的肯定确定进入步骤60。在这种情况下,动作点VTxyi被分配到第一总值VTX,并从第一总值VTX中减去动作点VTxyi(步骤60)。但是,在这种情况下,由于机器狗1所感觉到的不舒适程度不是很高,所以累计总值VTA并不象分类分组1的情况那样有所减少。
另一方面,如果所输入的刺激对应于类别分组3或6,通过步骤56的肯定确定或步骤58的否定确定来完成该处理,而没有改变总值VTX和VTY。
另外,如果所输入的刺激对应于类别分组4或5,也就是说,如果发出的是令机器狗1舒适的刺激,则会促进机器狗1的成长。具体地说,如果在步骤57中执行了肯定的确定,对应于反应行为时间的动作点VTxyi则被分配到第二总值VTY,使第二总值VTY增加(步骤61)。另一方面,如果在步骤58中执行了肯定的确定,动作点VTxyi则被分配到第一总值VTX,使第一总值VTX增加(步骤62)。
因此,当采取对应于不舒适刺激(输入)的反应行为(输出)时,动作点的总值VTX和VTY被设置为减少,而当采取对应于舒适刺激的反应行为时,动作点的总值VTX和VTY则被设置为增加。换句话说,如果出现机器狗1开心的事情,则有助于机器1的成长。相反,如果机器狗1接收了不舒适的刺激或者被放之不理,那么它的成长就会受到阻碍。
如果完成了图12中步骤15的“动作点计数处理”,则返回到步骤12。然后再继续进行第一阶段,直至累计总值VTA达到60。在这个阶段中,机器狗1的行为就和狗一样,它根据情况来发出象“汪”的小叫声或“汪汪”的大叫声。然后,只要机器狗1采取反应行为,动作点VTxyi均被适当地增加到总值VTX和VTY中,或者从总值VTX和VTY中减去。
(第二阶段)
如果累计总值VTA已达到40,第一阶段便转换到第二阶段(狗+人的层次)。在第二阶段,机器狗1采取介于狗与人之间的中间行为。作为所发出的声音,有介于狗和人之间的中间词汇,如“哎唷”或“惊奇的叫声”,而不是“汪”的小叫声或“汪汪”的大叫声。第二阶段是一个中间阶段,在这个阶段中,虽然机器狗1在成长并其词汇也接近人类,但它还没有完全转变成人。
图13是说明第二阶段的处理过程的流程图。首先,在步骤21,动作点的总值VTX和VTY被复位(VTX=0以及VTY=0)。接着在步骤22中,特性参数XY的X值被设置为“S”,其Y值被设置为“2”(XY=“S2”)。随后在步骤23中,计算第一总值VTX和第二总值VTY的总和,即累计总值VTA。与上述第一阶段相同,从第二阶段转换到第三阶段的确定也是通过将累计总值VTA与确定阈值进行比较来进行的。
在步骤23之后的步骤24中,累计总值VTA被判断是否已达到转换到第三阶段所需的确定阈值(以60点为例)。如果已达到确定阈值,便进入图14中的步骤31,并开始第三阶段。另一方面,如果累计总值VTA还没有达到确定阈值,便执行图16和17所示的“动作点计数处理”(步骤25)。由此,根据与机器狗1已采取反应行为的时间(反应行为时间)相应的动作点VTXyi来对动作点的总值VTX和VTY进行适当地更新。
(第三阶段)
如果累计总值VTA已达到60,第二阶段便转换为第三阶段(人的层次)。如图11所示,第三阶段中的特性参数XY被分配到二维矩阵域(4×4)中,其水平轴为第一总值VTX,垂直轴为第二总值VTY。因此,第三阶段中设置了机器狗1的十六种特性。
图14是说明第三阶段中初始状态的配置过程的流程图。如上所述,转换到第三阶段所需的累计总值VTA为60。因此,参见图11,转换时特性参数XY的X值是A或者B,其Y值为1、2或3。
首先,在步骤31,判断第一总值VTX是否为40或更大。如果总值VTX为40或更大,特性参数XY的X值则设置为“B”,其Y值设置为“1”(步骤32和33),使特性参数为“B1”。另一方面,如果总值VTX小于40,特性参数XY的X值则首先被设置为“A”(步骤34)。然后再进入步骤35,并判断第二总值VTY是否为40或更大。如果总值VTY为40或更大,特性参数XY的Y值则设置为“3”(步骤36),使特性参数XY成为“A3”。相反,如果总值VTY小于40,特性参数XY的Y值则设置为“2”(步骤37),使特性参数XY成为“A2”。因此,特性参数XY的初始值成为“B1”、“A3”或“A2”,该初始值在转换为第三阶段时立刻被设置。
如果特性参数XY的初始值按照图14所示的步骤进行设置,便进入图15中的步骤41。首先,在步骤41中,动作点的总值VTX和VTY被复位(VTX=0以及VTY=0)。接着在步骤42中,通过使用随机数,随机设置60与180分钟之间的任意的时间限制m(即进行总值VTX和VTY计数过程的时间)。随机设置时间限制的原因在于使特性参数XY的转换(机器狗1特性的变化)没有规律性。因此,由于用户很难读取与机器狗1的反应行为相关的模式,所以就可以防止用户厌烦。时间限制m设置之后,便开始定时器16的计数,并开始计数器T的递增(步骤43)。
步骤45的“动作点计数处理”(参见图16和17)继续进行,直至计数器T达到时间限制m。因此,根据与机器狗1已经采取反应行为的时间(输出时间)相对应的动作点VTxyi来适当地更新动作点的总值VTX和VTY。
另一方面,如果计数器T已达到时间限制m,步骤44的确定结果从否定转换到肯定。因此,通过遵循以下变换规则,特性参数XY的X值将根据第一总值VTX进行更新(步骤46)。
[X值变换规则]
第一总值 当前X值→更新X值后
VTX<40 A→A B→A C→B D→C
40≤VTX<80 A→B B→B C→B D→C
80≤VTX<120 A→B B→C C→C D→C
120≤VTX A→B B→C C→D D→D
然后,在紧接的步骤47中,通过遵循以下变换规则,特性参数XY的Y值将根据第二总值VTY进行更新(步骤47)。
[Y值变换规则]
第二总值 当前Y值→更新Y值后
VTY<20 1→1 2→1 3→2 4→3
20≤VTY<40 1→2 2→2 3→2 4→3
40≤VTY<80 1→2 2→3 3→3 4→3
80≤VTY 1→2 2→3 3→4 4→4
从图11所示的矩阵特性状态映射可知,从当前状态XYi变换到更新后的状态XYi+1时,它变换到最多为九个单元(包括当前单元)中的任意一个单元,这些单元是与当前单元相邻的。例如,如果是特性参数XY的当前值为“B2”的单元,则变换位置可以是与单元“B2”相邻的单元“A1”至“A3”、“B1”至“B3”或者“C1”至“C3”中的任何一个。
完成步骤47的处理时,便返回到步骤41,并重复进行上述的连续过程。由此执行对于随机设置的每个时间限制m的特性参数XY的更新。对分配到图11中各个单元的特性参数XY进行安排,使相邻单元中的特性和行为倾向可以互不相关。因此,在第三阶段(人的阶段)中,由于特性参数XY的更新,原本采取温和行为的机器狗1会突然变得难以对付。因此,用户可以享受到机器狗1的反复无常。
此外,根据第一总值VTX和第二总值VTY来进行特性参数XY的更新。这样,用户就很难预知机器狗1的特性,因为机器狗1的特性是根据许多参数来设置的。结果,因为用户不能猜测出特性变化模式,用户不会变得厌烦。
这样,在本发明的实施例中,机器狗1的特性由特性参数XY来设置,该参数影响机器狗1的反应行为。特性参数XY根据总值VTX和VTY来确定,其中,总值VTX和VTY是通过对由机器狗1实际执行的反应行为(输出)引起的动作点进行计数而算得的。与先有技术中所使用的刺激(输入)次数相比,这些总值VTX和VTY是用户难以掌握的参数。此外,为了使用户更难以掌握,对总值VTX和VTY进行计数的时间(时间限制m)被随机设置。因此,用户就很难预知与机器狗1的反应行为有关的表现倾向。结果,由于能够长时间引起用户的兴趣而不会感到厌烦,可以提供具有很高商品销售动力的交互式玩具。
尤其是第三阶段(人的层次)中机器狗1的特性是参照矩阵特性状态映射来适当地更新的,矩阵特性状态映射使第一总值VTX和第二总值VTY成为输入参数。这样,如果机器狗1的特性通过使用许多输入参数来进行改变,与使用单个输入参数的更新技术相比,该特性改变的变换将会变化丰富。结果,就能够更进一步提高象交互式玩具之类商品的销售动力。
(修改的实施例1)
在本发明的上述实施例中,对具有机器狗形式的交互式玩具进行了说明。但是,它自然可以运用于其它形式的交互式玩具。此外,本发明可以广泛地运用于“模拟生命体”,包括由软件等来体现的虚拟宠物。下面将对一个虚拟宠物的运用实施例进行说明。
通过执行预定程序,将虚拟宠物显示在计算机系统的显示器上。然后,准备对虚拟宠物施加刺激的装置。例如,点击显示在屏幕上的图标(照明开关图标或诱饵图标等),使光刺激或诱饵可以提供给虚拟宠物。另外,通过与计算机系统相连的话筒,用户的语音可以作为声音刺激来提供。而且通过鼠标操作,将指针移动到虚拟宠物的预定部分并点击它,就能够发出触觉刺激。
如果输入了这样的刺激,屏幕上的虚拟宠物便采取对应于该刺激内容的反应行为。在这种情况下,将生成一个动作点,它由虚拟宠物的反应行为(输出)所引起,并与该反应行为相关。计算机系统计算所计数的动作点的总值。然后,使用诸如上述实施例的技术对虚拟宠物的反应行为模式适当地进行改变。
设计这样一种虚拟宠物时,计算机系统中的功能块结构与图2所示结构相同。此外,虚拟宠物的成长过程与图12至16所示的流程图相同。
(修改的实施例2)
本发明的上述实施例中,刺激分为两类:接触刺激(触觉刺激)和非接触刺激(声音刺激和光刺激)。然后,分别计算由接触刺激所引起的动作点总值以及由非接触刺激所引起的动作点总值。但是,非接触刺激可以进一步分为音刺激和光刺激,每种刺激所引起的总值可以单独进行计算。从而,可以计算对应于接触刺激、音刺激以及光刺激的三个总值,并且通过使这三个总值成为输入参数,可以确定第三阶段(人的阶段)中的特性参数XY。因此,与模拟生命体的特性有关的改变的变换的变化可以做得更为复杂。
(修改的实施例3)
本发明的上述实施例中,动作点由输入刺激的内容(种类)来分类。但是,可以采用其它分类技术。例如,可以考虑根据输出动作的种类对动作点进行分类的技术。具体地说,对扬声器4的输出时间进行计数,并计算对应于所计数的时间的动作点。同样,对执行机构3的输出时间进行计数,并计算对应于所计数的时间的动作点。然后,动作点的各个总值便用作第一总值VTX和第二总值VTY。
这样,根据本发明,与由对刺激的反应行为(输出)引起的生成动作点相关的总值被计算。然后,模拟生命体的反应行为根据所述总值进行改变。因此,就很难预知模拟生命体反应行为的表现倾向。结果,由于能够长时间引起用户的兴趣而不会感到厌烦,可以提高商品销售动力。
在此通过整个地引用结合2000年7月4日申请的日本专利申请No.2000-201720的整个公开,包括说明书、权利要求书、附图以及概述等。
Claims (22)
1.一种交互式玩具,它包括:
刺激检测构件,用于检测输入刺激;
执行构件,用于操纵所述交互式玩具;
控制构件,用于控制所述执行构件,以使所述交互式玩具针对由所述刺激检测构件检测的刺激采取反应行为;和
其中,所述控制构件根据由所述交互式玩具的所述反应行为引起的生成动作点的总值来改变所述交互式玩具的所述反应行为。
2.根据权利要求1的交互式玩具,其特征在于:由所述交互式玩具的所述反应行为引起的所述生成动作点是根据所述反应行为的内容的点数。
3.根据权利要求2的交互式玩具,其特征在于:由所述交互式玩具的所述反应行为引起的所述生成动作点是对应于所述反应行为的时间的点数。
4.根据权利要求1的交互式玩具,其特征在于:所述控制构件在随机设置的时间限制内对所述总值进行计数。
5.根据权利要求1的交互式玩具,其特征在于:
所述控制构件根据预定规则将所述交互式玩具的所述反应行为引起的所述生成动作点分配到至少第一总值和第二总值中的一个上,然后,所述控制构件对所述第一总值和第二总值进行计数;和
所述控制构件根据所述第一总值和所述第二总值来确定所述交互式玩具的所述反应行为。
6.根据权利要求5的交互式玩具,其特征在于:根据输入刺激的内容把所述动作点分配到所述第一总值和所述第二总值中的一个。
7.根据权利要求6的交互式玩具,其特征在于:所述控制构件将针对接触刺激的反应行为引起的生成动作点分配到所述第一总值,并且所述控制构件将针对非接触刺激的反应行为引起的动作点分配到所述第二总值。
8.根据权利要求5的交互式玩具,其特征在于还包括:
特性状态映射,其中设置影响所述交互式玩具的所述反应行为的许多特性参数,所述特性参数是通过与所述第一总值和所述第二总值进行匹配而写入所述特性状态映射中的;和
其中,所述控制构件根据所述第一总值和所述第二总值并参照所述特性状态映射来选择特性参数,并且所述控制构件根据所述选择的特性参数来确定所述交互式玩具的所述反应行为。
9.一种用于生成模拟生命体针对输入刺激的反应行为模式的反应行为模式生成装置,它包括:
反应行为模式表,通过关联影响所述模拟生命体的所述反应行为的特性参数,将所述模拟生命体针对某个刺激的所述反应行为模式写入到所述反应行为模式表中;
选择构件,用于根据所述特性参数的设置值并参照所述反应行为模式表来选择针对所述输入刺激的所述反应行为模式;
计数构件,用于根据所述选择的反应行为模式,对由所述模拟生命体的所述反应行为引起的生成动作点的总值进行计数;和
更新构件,用于根据所述动作点的总值来更新所述特性参数的所述设置值。
10.一种用于生成模拟生命体针对输入刺激的反应行为模式的反应行为模式生成装置,它包括:
特性状态映射,其中设置影响所述模拟生命体的所述反应行为的许多特性参数,所述特性参数是通过与动作点相关的第一总值和第二总值进行匹配来写入所述特性状态映射中的;
计数构件,用于在根据预定规则将所述模拟生命体的所述反应行为引起的生成动作点分配到至少所述第一总值和所述第二总值中的一个以后,对所述第一总值和所述第二总值进行计数;和
更新构件,用于通过根据所述第一总值和所述第二总值并参照所述特性状态映射来选择所述特性参数而更新特性参数的设置值;和
其中,所述模拟生命体针对所述输入刺激的所述反应行为是根据所述特性参数的所述设置值来确定的。
11.根据权利要求9的反应行为模式生成装置,其特征在于:由所述模拟生命体的所述反应行为所引起的所述生成动作点是根据所述反应行为的内容的点数。
12.根据权利要求11的反应行为模式生成装置,其特征在于:由所述模拟生命体的所述反应行为引起的所述生成动作点是对应于所述反应行为的时间的点数。
13.根据权利要求9的反应行为模式生成装置,其特征在于:所述计数构件在随机设置的时间限制内对所述总值进行计数。
14.根据权利要求10的反应行为模式生成装置,其特征在于:所述计数构件根据所述输入刺激的所述内容将所述模拟生命体的所述反应行为引起的所述生成动作点分配到所述第一总值和所述第二总值的其中之一。
15.根据权利要求14的反应行为模式生成装置,其特征在于:所述计数构件将针对接触刺激的反应行为引起的生成动作点分配到所述第一总值,并且所述计数构件将针对非接触刺激的反应行为引起的生成动作点分配到所述第二总值。
16.一种用于生成模拟生命体针对输入刺激的反应行为模式的反应行为模式生成方法,它包括如下步骤:
选择步骤,用于根据特性参数的当前设置值并参照反应行为模式表来选择针对所述输入刺激的所述反应行为模式;其中通过关联影响所述模拟生命体的反应行为的所述特性参数将所述模拟生命体针对某一刺激的所述反应行为模式写入所述反应行为模式表中;
计数步骤,用于根据所述选择的反应行为模式对由所述模拟生命体的所述反应行为引起的生成动作点的总值进行计数;和
更新步骤,用于根据所述动作点的所述总值来更新所述特性参数的所述设置值。
17.一种用于生成模拟生命体针对输入刺激的反应行为模式的反应行为模式生成方法,它包括如下步骤:
计数步骤,用于在根据预定规则将所述模拟生命体的所述反应行为引起的生成动作点分配到与所述动作点相关的至少所述第一总值和所述第二总值中的一个以后,对第一总值和第二总值进行计数;和
更新步骤,用于通过根据所述第一总值和所述第二总值并参照特性状态映射来选择特性参数而更新所述特性参数的设置值;其中,在所述特性状态映射中设置影响所述模拟生命体的所述反应行为的许多特性参数,通过与所述第一总值和所述第二总值进行匹配将所述特性参数写入所述特性状态映射中;和
确定步骤,用于根据所述特性参数的所述设置值来确定所述模拟生命体针对所述输入刺激的所述反应行为。
18.根据权利要求16的反应行为模式生成方法,其特征在于:由所述模拟生命体的所述反应行为引起的所述生成动作点是根据所述反应行为的内容的点数。
19.根据权利要求18的反应行为模式生成方法,其特征在于:由所述模拟生命体的所述反应行为引起的所述生成动作点是对应于所述反应行为的时间的点数。
20.根据权利要求16的反应行为模式生成方法,其特征在于:所述计数步骤在随机设置的时间限制内对所述总值进行计数。
21.根据权利要求17的反应行为模式生成方法,其特征在于:所述计数步骤根据所述输入刺激的内容将所述模拟生命体的所述反应行为引起的所述生成动作点分配到所述第一总值和所述第二总值的其中之一。
22.根据权利要求21的反应行为模式生成方法,其特征在于:所述计数步骤包括以下步骤:
将针对接触刺激的反应行为引起的生成动作点分配到所述第一总值;和
将针对非接触刺激的反应行为引起的生成动作点分配到所述第二总值。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP201720/2000 | 2000-07-04 | ||
JP2000201720A JP2002018146A (ja) | 2000-07-04 | 2000-07-04 | 対話型玩具、反応行動パターン生成装置および反応行動パターン生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN1331445A true CN1331445A (zh) | 2002-01-16 |
Family
ID=18699364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN01122710A Pending CN1331445A (zh) | 2000-07-04 | 2001-07-04 | 交互式玩具、反应行为模式生成装置及方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US6682390B2 (zh) |
JP (1) | JP2002018146A (zh) |
CN (1) | CN1331445A (zh) |
FR (1) | FR2811238B1 (zh) |
GB (1) | GB2366216B (zh) |
HK (1) | HK1041231B (zh) |
NL (1) | NL1018452C2 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100392562C (zh) * | 2003-03-25 | 2008-06-04 | 英国电讯有限公司 | 用于对象的行为翻译器 |
CN102227240B (zh) * | 2008-11-27 | 2013-11-13 | 斯泰伦博斯大学 | 展示联系行为的玩具 |
CN107346107A (zh) * | 2016-05-04 | 2017-11-14 | 深圳光启合众科技有限公司 | 多样化运动控制方法和系统及具有该系统的机器人 |
CN111108463A (zh) * | 2017-10-30 | 2020-05-05 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN109045718B (zh) * | 2018-10-12 | 2021-02-19 | 盈奇科技(深圳)有限公司 | 一种重力感应玩具 |
CN114931756A (zh) * | 2022-06-08 | 2022-08-23 | 北京哈崎机器人科技有限公司 | 一种尾部结构及宠物机器人 |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7117190B2 (en) * | 1999-11-30 | 2006-10-03 | Sony Corporation | Robot apparatus, control method thereof, and method for judging character of robot apparatus |
US20040002790A1 (en) * | 2002-06-28 | 2004-01-01 | Paul Senn | Sensitive devices and sensitive applications |
US7118443B2 (en) | 2002-09-27 | 2006-10-10 | Mattel, Inc. | Animated multi-persona toy |
US7238079B2 (en) * | 2003-01-14 | 2007-07-03 | Disney Enterprise, Inc. | Animatronic supported walking system |
JP2004268235A (ja) * | 2003-03-11 | 2004-09-30 | Sony Corp | ロボット装置、その行動制御方法及びプログラム |
JP4700316B2 (ja) * | 2004-09-30 | 2011-06-15 | 株式会社タカラトミー | 対話型玩具 |
JP2006198017A (ja) * | 2005-01-18 | 2006-08-03 | Sega Toys:Kk | ロボット玩具 |
US20070158911A1 (en) * | 2005-11-07 | 2007-07-12 | Torre Gabriel D L | Interactive role-play toy apparatus |
US20080014830A1 (en) * | 2006-03-24 | 2008-01-17 | Vladimir Sosnovskiy | Doll system with resonant recognition |
ES2270741B1 (es) * | 2006-11-06 | 2008-03-01 | Imc. Toys S.A. | Juguete. |
US20080176481A1 (en) * | 2007-01-12 | 2008-07-24 | Laura Zebersky | Interactive Doll |
CN101411946B (zh) * | 2007-10-19 | 2012-03-28 | 鸿富锦精密工业(深圳)有限公司 | 玩具恐龙 |
US20090117819A1 (en) * | 2007-11-07 | 2009-05-07 | Nakamura Michael L | Interactive toy |
US8172637B2 (en) * | 2008-03-12 | 2012-05-08 | Health Hero Network, Inc. | Programmable interactive talking device |
GB2472352B (en) | 2008-04-21 | 2012-09-12 | Mattel Inc | Light and sound mechanisms for toys |
WO2009158653A1 (en) * | 2008-06-27 | 2009-12-30 | Intuitive Automata, Inc. | Apparatus and method for assisting in achieving desired behavior patterns |
US8354918B2 (en) * | 2008-08-29 | 2013-01-15 | Boyer Stephen W | Light, sound, and motion receiver devices |
US8939840B2 (en) * | 2009-07-29 | 2015-01-27 | Disney Enterprises, Inc. | System and method for playsets using tracked objects and corresponding virtual worlds |
US8662955B1 (en) | 2009-10-09 | 2014-03-04 | Mattel, Inc. | Toy figures having multiple cam-actuated moving parts |
JP2013094923A (ja) * | 2011-11-04 | 2013-05-20 | Sugiura Kikai Sekkei Jimusho:Kk | サービスロボット |
JP5491599B2 (ja) * | 2012-09-28 | 2014-05-14 | コリア インスティチュート オブ インダストリアル テクノロジー | 人工感情を表現するための内部状態算出装置および方法ならびに記録媒体 |
CN103785180B (zh) * | 2014-01-22 | 2016-07-06 | 广东奥飞动漫文化股份有限公司 | 一种电动玩具的感应控制系统 |
US10279470B2 (en) | 2014-06-12 | 2019-05-07 | Play-i, Inc. | System and method for facilitating program sharing |
SG10201809399VA (en) * | 2014-06-12 | 2018-11-29 | Play I Inc | System and method for reinforcing programming education through robotic feedback |
WO2017091897A1 (en) * | 2015-12-01 | 2017-06-08 | Laughlin Jarett | Culturally or contextually holistic educational assessment methods and systems for early learners from indigenous communities |
JP6354796B2 (ja) * | 2016-06-23 | 2018-07-11 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
CN107784354B (zh) * | 2016-08-17 | 2022-02-25 | 华为技术有限公司 | 机器人的控制方法及陪伴机器人 |
JP6571618B2 (ja) | 2016-09-08 | 2019-09-04 | ファナック株式会社 | 人間協調型ロボット |
WO2020215085A1 (en) * | 2019-04-19 | 2020-10-22 | Tombot, Inc. | Method and system for operating a robotic device |
KR102348308B1 (ko) * | 2019-11-19 | 2022-01-11 | 주식회사 와이닷츠 | 사용자 인터랙션 반응 로봇 |
US11957991B2 (en) | 2020-03-06 | 2024-04-16 | Moose Creative Management Pty Limited | Balloon toy |
KR102295836B1 (ko) * | 2020-11-20 | 2021-08-31 | 오로라월드 주식회사 | 성장형 스마트 토이 장치 및 스마트 토이 시스템 |
JP7283495B2 (ja) * | 2021-03-16 | 2023-05-30 | カシオ計算機株式会社 | 機器の制御装置、機器の制御方法及びプログラム |
JP7192905B2 (ja) | 2021-03-16 | 2022-12-20 | カシオ計算機株式会社 | 制御装置、制御方法及びプログラム |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4245430A (en) | 1979-07-16 | 1981-01-20 | Hoyt Steven D | Voice responsive toy |
US4451911A (en) | 1982-02-03 | 1984-05-29 | Mattel, Inc. | Interactive communicating toy figure device |
US4696653A (en) * | 1986-02-07 | 1987-09-29 | Worlds Of Wonder, Inc. | Speaking toy doll |
JPS62130690U (zh) | 1986-02-10 | 1987-08-18 | ||
US5029214A (en) * | 1986-08-11 | 1991-07-02 | Hollander James F | Electronic speech control apparatus and methods |
US4840602A (en) * | 1987-02-06 | 1989-06-20 | Coleco Industries, Inc. | Talking doll responsive to external signal |
US4857030A (en) * | 1987-02-06 | 1989-08-15 | Coleco Industries, Inc. | Conversing dolls |
US4923428A (en) | 1988-05-05 | 1990-05-08 | Cal R & D, Inc. | Interactive talking toy |
JP2516425Y2 (ja) | 1990-12-11 | 1996-11-06 | 株式会社タカラ | 動作装置 |
CA2058839A1 (en) * | 1992-01-08 | 1993-07-08 | Wing Fan Lam | Toy doll |
FR2707518B1 (fr) * | 1993-06-28 | 1995-09-29 | Corolle Sa | Perfectionnements aux jouets représentant des êtres vivants, notamment aux poupées. |
JP2848219B2 (ja) * | 1993-12-13 | 1999-01-20 | カシオ計算機株式会社 | 画像表示装置及び画像表示方法 |
JPH0783794A (ja) | 1993-09-14 | 1995-03-31 | Hitachi Electron Eng Co Ltd | 大型液晶パネルの位置決め機構 |
JPH08202679A (ja) | 1995-01-23 | 1996-08-09 | Sony Corp | ロボット |
JP3254994B2 (ja) * | 1995-03-01 | 2002-02-12 | セイコーエプソン株式会社 | 音声認識対話装置および音声認識対話処理方法 |
JP3671259B2 (ja) | 1995-05-31 | 2005-07-13 | カシオ計算機株式会社 | 表示装置 |
US6141019A (en) | 1995-10-13 | 2000-10-31 | James B. Roseborough | Creature animation and simulation technique |
JPH10274921A (ja) * | 1997-03-31 | 1998-10-13 | Bandai Co Ltd | 生命体の育成シミュレーション装置 |
JP3932462B2 (ja) * | 1997-05-27 | 2007-06-20 | ソニー株式会社 | クライアント装置、画像表示制御方法、共有仮想空間提供装置および方法、並びに記録媒体 |
AU1575499A (en) | 1997-12-19 | 1999-07-12 | Smartoy Ltd. | A standalone interactive toy |
US6089942A (en) * | 1998-04-09 | 2000-07-18 | Thinking Technology, Inc. | Interactive toys |
EP1122038A4 (en) * | 1998-06-23 | 2009-06-17 | Sony Corp | ROBOT AND INFORMATION PROCESSING SYSTEM |
US6149490A (en) | 1998-12-15 | 2000-11-21 | Tiger Electronics, Ltd. | Interactive toy |
JP2000254360A (ja) | 1999-03-11 | 2000-09-19 | Toybox:Kk | 対話型玩具 |
CN1304345A (zh) | 1999-05-10 | 2001-07-18 | 索尼公司 | 机器人装置及其控制方法 |
JP2001105363A (ja) * | 1999-08-04 | 2001-04-17 | Yamaha Motor Co Ltd | ロボットにおける自律的行動表現システム |
US6347261B1 (en) * | 1999-08-04 | 2002-02-12 | Yamaha Hatsudoki Kabushiki Kaisha | User-machine interface system for enhanced interaction |
JP2001137531A (ja) * | 1999-11-10 | 2001-05-22 | Namco Ltd | ゲーム装置 |
-
2000
- 2000-07-04 JP JP2000201720A patent/JP2002018146A/ja active Pending
-
2001
- 2001-06-22 US US09/885,922 patent/US6682390B2/en not_active Expired - Fee Related
- 2001-07-03 GB GB0116301A patent/GB2366216B/en not_active Expired - Fee Related
- 2001-07-03 FR FR0108778A patent/FR2811238B1/fr not_active Expired - Fee Related
- 2001-07-04 CN CN01122710A patent/CN1331445A/zh active Pending
- 2001-07-04 NL NL1018452A patent/NL1018452C2/nl not_active IP Right Cessation
-
2002
- 2002-04-09 HK HK02102635.5A patent/HK1041231B/zh not_active IP Right Cessation
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100392562C (zh) * | 2003-03-25 | 2008-06-04 | 英国电讯有限公司 | 用于对象的行为翻译器 |
CN102227240B (zh) * | 2008-11-27 | 2013-11-13 | 斯泰伦博斯大学 | 展示联系行为的玩具 |
CN107346107A (zh) * | 2016-05-04 | 2017-11-14 | 深圳光启合众科技有限公司 | 多样化运动控制方法和系统及具有该系统的机器人 |
CN111108463A (zh) * | 2017-10-30 | 2020-05-05 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN109045718B (zh) * | 2018-10-12 | 2021-02-19 | 盈奇科技(深圳)有限公司 | 一种重力感应玩具 |
CN114931756A (zh) * | 2022-06-08 | 2022-08-23 | 北京哈崎机器人科技有限公司 | 一种尾部结构及宠物机器人 |
CN114931756B (zh) * | 2022-06-08 | 2023-12-12 | 北京哈崎机器人科技有限公司 | 一种尾部结构及宠物机器人 |
Also Published As
Publication number | Publication date |
---|---|
GB2366216B (en) | 2004-07-28 |
GB2366216A (en) | 2002-03-06 |
US20020016128A1 (en) | 2002-02-07 |
FR2811238A1 (fr) | 2002-01-11 |
US6682390B2 (en) | 2004-01-27 |
NL1018452C2 (nl) | 2002-01-08 |
HK1041231A1 (en) | 2002-07-05 |
FR2811238B1 (fr) | 2005-09-16 |
HK1041231B (zh) | 2004-12-31 |
JP2002018146A (ja) | 2002-01-22 |
GB0116301D0 (en) | 2001-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1331445A (zh) | 交互式玩具、反应行为模式生成装置及方法 | |
CN1229773C (zh) | 语音识别对话装置 | |
CN1270289C (zh) | 对于机器人装置的动作教学装置和方法 | |
US6449518B1 (en) | Storage medium, robot, information processing device and electronic pet system | |
CN1301830C (zh) | 机器人装置 | |
CN1220174C (zh) | 话音输出装置和方法 | |
CN1159678C (zh) | 图像处理方法及电子装置 | |
CN1146493C (zh) | 自动装置、自动装置的控制方法及程序记录媒体 | |
CN1304516A (zh) | 机器人装置及其控制方法和记录介质 | |
CN2420049Y (zh) | 抚养虚拟生物的模拟装置 | |
WO2001039932A1 (fr) | Robot, son procede de commande et procede d'appreciation du caractere du robot | |
CN1457287A (zh) | 用于机器人装置的操作控制的方法、程序、和记录介质、以及机器人装置 | |
CN1392826A (zh) | 机器人设备及其控制方法 | |
CN1835828A (zh) | 用于通信机器人的控制系统 | |
CN101046956A (zh) | 交互式音效产生方法及系统 | |
CN101042716A (zh) | 一种电子宠物娱乐学习系统及方法 | |
CN1808566A (zh) | 重放装置和方法 | |
JP5227362B2 (ja) | エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法 | |
JP2002049385A (ja) | 音声合成装置、疑似感情表現装置及び音声合成方法 | |
Arbib et al. | The mirror system hypothesis: From a macaque-like mirror system to imitation | |
JP2004283958A (ja) | ロボット装置、その行動制御方法及びプログラム | |
CN200956163Y (zh) | 一种电子宠物娱乐学习系统 | |
CN1392828A (zh) | 机器人设备、信息显示系统和信息显示方法 | |
CN113741847B (zh) | 一种灯光控制方法、系统及储存介质 | |
JPH11149462A (ja) | 部品選択装置及び部品選択方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |