CN1148281C - 机器人系统、机器人装置及机器人装置的外装 - Google Patents
机器人系统、机器人装置及机器人装置的外装 Download PDFInfo
- Publication number
- CN1148281C CN1148281C CNB008024839A CN00802483A CN1148281C CN 1148281 C CN1148281 C CN 1148281C CN B008024839 A CNB008024839 A CN B008024839A CN 00802483 A CN00802483 A CN 00802483A CN 1148281 C CN1148281 C CN 1148281C
- Authority
- CN
- China
- Prior art keywords
- action
- unit
- information
- robot
- outer dress
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims abstract description 55
- 230000009471 action Effects 0.000 claims description 360
- 238000003860 storage Methods 0.000 claims description 34
- 238000010586 diagram Methods 0.000 claims description 33
- 238000012360 testing method Methods 0.000 claims description 28
- 238000013461 design Methods 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 abstract description 99
- 230000008451 emotion Effects 0.000 description 179
- 230000007246 mechanism Effects 0.000 description 99
- 230000036544 posture Effects 0.000 description 97
- 230000036541 health Effects 0.000 description 93
- 238000012545 processing Methods 0.000 description 57
- 230000000875 corresponding effect Effects 0.000 description 47
- 230000008878 coupling Effects 0.000 description 39
- 238000010168 coupling process Methods 0.000 description 39
- 238000005859 coupling reaction Methods 0.000 description 39
- 230000001276 controlling effect Effects 0.000 description 38
- 230000008520 organization Effects 0.000 description 37
- 230000008859 change Effects 0.000 description 36
- 230000005484 gravity Effects 0.000 description 32
- 230000005236 sound signal Effects 0.000 description 31
- 230000000694 effects Effects 0.000 description 27
- 238000000034 method Methods 0.000 description 27
- 230000007704 transition Effects 0.000 description 26
- 230000001788 irregular Effects 0.000 description 21
- 238000009826 distribution Methods 0.000 description 17
- 230000000638 stimulation Effects 0.000 description 17
- 210000003128 head Anatomy 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 241001465754 Metazoa Species 0.000 description 12
- 238000012937 correction Methods 0.000 description 12
- 230000003116 impacting effect Effects 0.000 description 12
- 239000000463 material Substances 0.000 description 12
- 238000005259 measurement Methods 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 11
- 230000036528 appetite Effects 0.000 description 10
- 235000019789 appetite Nutrition 0.000 description 10
- 238000009825 accumulation Methods 0.000 description 9
- 230000007613 environmental effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 239000012209 synthetic fiber Substances 0.000 description 8
- 229920002994 synthetic fiber Polymers 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 6
- 239000002184 metal Substances 0.000 description 6
- 238000005728 strengthening Methods 0.000 description 6
- 229920003002 synthetic resin Polymers 0.000 description 6
- 239000000057 synthetic resin Substances 0.000 description 6
- 210000001364 upper extremity Anatomy 0.000 description 6
- 102220600549 C-C chemokine receptor type 5_S40D_mutation Human genes 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000010534 mechanism of action Effects 0.000 description 5
- 238000010079 rubber tapping Methods 0.000 description 5
- 210000002615 epidermis Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 102200003959 rs11556986 Human genes 0.000 description 4
- 239000004753 textile Substances 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 102220570201 Pyridoxal-dependent decarboxylase domain-containing protein 1_S40A_mutation Human genes 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000000712 assembly Effects 0.000 description 3
- 238000000429 assembly Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 3
- 239000003102 growth factor Substances 0.000 description 3
- 230000000366 juvenile effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 102100022907 Acrosin-binding protein Human genes 0.000 description 2
- 241000282693 Cercopithecidae Species 0.000 description 2
- 102220475340 DNA replication licensing factor MCM2_S41A_mutation Human genes 0.000 description 2
- 241000289581 Macropus sp. Species 0.000 description 2
- 102100031798 Protein eva-1 homolog A Human genes 0.000 description 2
- 102100040791 Zona pellucida-binding protein 1 Human genes 0.000 description 2
- 238000010009 beating Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000001816 cooling Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000012467 final product Substances 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- -1 pottery Polymers 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 210000003491 skin Anatomy 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000004936 stimulating effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 208000008037 Arthrogryposis Diseases 0.000 description 1
- 241000270322 Lepidosauria Species 0.000 description 1
- 102100022465 Methanethiol oxidase Human genes 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 241000282458 Ursus sp. Species 0.000 description 1
- 101100438139 Vulpes vulpes CABYR gene Proteins 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000014155 detection of activity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004899 motility Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 102220040592 rs587778386 Human genes 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/52—Dolls' houses, furniture or other equipment; Dolls' clothing or footwear
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T29/00—Metal working
- Y10T29/53—Means to assemble or disassemble
- Y10T29/53039—Means to assemble or disassemble with control means energized in response to activator stimulated by condition sensor
- Y10T29/53048—Multiple station assembly or disassembly apparatus
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T29/00—Metal working
- Y10T29/53—Means to assemble or disassemble
- Y10T29/53313—Means to interrelatedly feed plural work parts from plural sources without manual intervention
- Y10T29/53365—Multiple station assembly apparatus
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T29/00—Metal working
- Y10T29/53—Means to assemble or disassemble
- Y10T29/53313—Means to interrelatedly feed plural work parts from plural sources without manual intervention
- Y10T29/5337—Means to interrelatedly feed plural work parts from plural sources without manual intervention including assembly pallet
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
第一,一个验证图案设置在一外装上,并且一验证装置设置在一个机器人装置中,用于基于所装配的外装的验证图案验证该外装。第二,一用于保存固有信息的信息保存装置设置在外装上,一用于从信息保存装置中读出固有信息的读取部件设置在机器人装置中。第三,在机器人装置上设置一检测由外装引起的影响大小、并在必要时基于所述检测结果改变动作的表现图案的功能块。
Description
技术领域
本发明涉及机器人系统、机器人装置及机器人装置的外装,并且最好应用于比如宠物机器人。
背景技术
近来已经开发并销售模仿一般家庭中当作宠物的狗或猫的四足爬行类宠物机器人。
此类宠物机器人装备有比如感情模型的软件,响应用户的诸如“轻拍”和“击打”之类的刺激以及外部环境条件,模仿真实动物的感情以生成比如“高兴”和“愤怒”的感情,从而宠物机器人能够基于感情自动动作。
顺便,出于从此类娱乐机器人的个体中寻找乐趣的动机,近来希望使机器人的外观能够任意地变化,比如在机器人上配备一诸如外套/戏装之类的外装。
但是,当用外装穿戴机器人而不考虑其外部构造和可活动组件的活动时,机器人的动作可能受到阻碍或者可能覆盖在机器人主体表面中形成的通风口将是非常可怕的。在这种情况下将引起控制组件不能充分控制的问题,这将导致麻烦。
此外,即使制造该具有外装的宠物机器人时考虑了其外部构造和可活动组件的活动,如果控制没有考虑外装的质量分布等而执行,则宠物机器人不会正确并平滑地动作,比如不会非常平衡地行走。
另外,考虑到宠物机器人可能会穿戴外装,不仅其外观可以改变,并且能够根据外观执行不同的动作,则认为该宠物机器人能够表现更为亲密的感情并取悦于用户,改善了该宠物机器人的娱乐特性。
发明的公开
本发明已经实现上述几点,并提出一种能够去除不规则外装以防止麻烦发生的机器人系统、机器人装置和机器人装置的外装,以及一种娱乐性能改善的机器人系统、机器人装置和机器人装置的外装。
为了解决该问题,在本发明的一包括机器人装置和外装的机器人系统中,在外装上形成预定的验证图案,并为机器人装置提供一根据在装配的外装上的验证图案验证该外装的验证装置。结果,当不规则外装装配在机器人上时,机器人系统能够检测该不规则外装,实现能够去除不规则外装并事先防止机器人的麻烦的机器人系统。
另外,本发明提供一种配备有验证装置的机器人装置,该验证装置用于根据在可拆卸装配的外装上形成的预定的验证图案来验证装配的外装。结果,当不规则外装装配在机器人上时,机器人装置能够检测该不规则外装,实现能够去除不规则外装并事先防止机器人的麻烦的机器人装置。
另外,本发明提供一种用于机器人装置的、具有预定的验证图案的外装。结果,当不规则外装装配在机器人上时,装配的机器人装置能够检测该不规则外装,能够去除不规则外装并实现事先防止机器人的麻烦的、用于机器人装置的外装。
此外,本发明中的机器人系统提供:一具有信息保存装置的外装,用于保存固有信息;以及一机器人装置,具有用于检测由外装上的信息保存装置保存的固有信息的信息检测装置、和用于根据检测的固有信息在必要时改变动作显现图案的控制装置。结果,当外装装配到机器人装置上时,机器人系统在必要时能够在机器人装置的动作显现图案上反映从外装中获得的固有信息。因此,机器人系统能够针对每一个外装有个性地活动,从而使实现能够显著地改善娱乐特性的机器人系统成为可能。
另外,本发明提供一种能够可拆卸地装配在机器人装置上、具有信息保存装置的外装,用于保存相应于该外装的固有信息,当外装装配在机器人装置上时,使机器人装置在必要时能够根据由信息保存装置保存的固有信息改变动作显现图案。结果,当外装装配到机器人装置上时,从上述外装中获得的固有信息在必要时能够反映在机器人装置的动作显现图案上。因此,机器人装置能够针对每一个外装有个性地活动,从而使实现能够显著地改善娱乐特性的外装成为可能。
另外,本发明提供一种机器人装置,具有:信息检测装置,用于当外装可拆卸装配时从外装中检测相应于外装的固有信息;和控制装置,用于根据检测的固有信息在必要时改变动作显现图案。结果,在必要时机器人装置能够在机器人装置的动作显现图案上反映从外装中获得的固有信息。因此,机器人装置能够针对每一个外装有个性地活动,从而使实现能够显著地改善娱乐特性的机器人装置成为可能。
另外,本发明提供一种机器人装置,具有:可活动组件,通过活动该可活动组件执行预定的动作;可拆卸地装配在机器人装置上的外装;以及安装在机器人装置中的控制装置,用于驱动并控制可活动组件。当外装装配在机器人装置上时,控制装置通过驱动可活动组件检测由于外装对动作的影响大小,并且在必要时根据检测结果改变动作显现图案。结果,在机器人系统中,即便外装具有各种形状、结构和材料,机器人装置也能够事先防止其表演中的麻烦,这是因为在外装装配到机器人装置上之后,通过活动可活动组件改变了机器人装置的动作显现图案。因此,可以将不同类型的外装装配在机器人装置上,从而使实现能够显著地改善娱乐特性的机器人系统成为可能。
另外,本发明提供一种具有一可活动组件、并通过活动该可活动组件执行预定的动作的机器人装置,具有一控制装置,用于当外装装配在机器人装置上时,通过活动可活动组件检测由于外装对动作的影响大小,并且在必要时根据检测结果改变动作显现图案。结果,在机器人系统中,即便外装具有各种形状、结构和材料,机器人装置也能够事先防止其表演中的麻烦,这是因为在外装装配到机器人装置上之后,通过活动可活动组件改变了机器人装置的动作显现图案。因此,可以将不同类型的外装装配在机器人装置上,从而使实现能够显著地改善娱乐特性的机器人系统成为可能。
附图的简要描述
图1是表示第一实施例中机器人系统的结构的透视图;
图2是表示第一实施例中宠物机器人的内部结构的方框图;
图3是表示机器人侧凹凸图案和外装侧凹凸图案的结构的示意透视图;
图4A至4C是描述机器人侧凹凸图案和外装侧凹凸图案之间装配的截面图;
图5A和5B是表示另一实施例的透视图和截面图;
图6是表示另一实施例的截面图;
图7是表示另一实施例的透视图;
图8是表示第二实施例中宠物机器人系统的结构的示意框图;
图9是表示图8所示的宠物机器人的结构的示意框图;
图10是表示宠物机器人的内部结构的方框图;
图11是表示主体侧接口组件和外装侧接口组件的内部结构的方框图;
图12是描述第二实施例中控制器的处理的示意框图;
图13是描述感情和本能模型部分的数据处理的示意框图;
图14是描述感情和本能模型部分的数据处理的示意框图;
图15是描述感情和本能模型部分的数据处理的示意框图;
图16是在动作确定机构部分中有限自动机的状态转换图;
图17是在姿势转换机构部分中的姿势转换图;
图18是描述外装装配处理过程的流程;
图19是表示第三实施例中宠物机器人系统的结构的示意图;
图20是描述第三实施例中成长模型的示意图;
图21是描述第三实施例中控制器的处理的示意图;
图22是表示概率自动机的示意图;
图23是表示第一成长要素表和第一成长要素计数表的概念图;
图24是表示第二成长要素表和第二成长要素计数表的概念图;
图25是描述成长步骤控制处理过程的流程图;
图26是表示根据另一实施例的宠物机器人系统的结构的示意图;
图27是表示在第四实施例中的宠物机器人系统的结构的示意图;
图28是表示图27所示的宠物机器人的结构的示意图;
图29是表示宠物机器人的内部结构的方框图;
图30是表示主体侧接口组件和外装侧接口组件的内部结构的方框图;
图31是表示用于行走控制的22个参数的表;
图32是表示标准行走姿势的示意图;
图33是描述一根腿组件单元的活动的示意图;
图34是描述参数的示意图;
图35是表示在各种行走类型中的参数的相位关系的时序图;
图36A和36B是描述在装配外装之前和之后的中心位置的示意图;
图37是描述第四实施例中校准处理过程的流程图;
图38是表示第五实施例中宠物机器人系统的结构的示意图;
图39是描述第五实施例中校准处理过程的流程图;
图40是表示根据第六实施例的宠物机器人的示意图;
图41是表示图40所示的机器人系统的内部结构的方框图;
图42是描述外装信息的示意图;
图43是描述第六实施例中控制器的处理的方框图;
图44是表示概率自动机的概念图;
图45是描述状态转换图的表;
图46是表示罩盖对距离传感器的光轴的倾角与距离传感器的输出特性之间的关系的表;
图47是表示罩盖对距离传感器的光轴的倾角与距离传感器的输出特性之间的关系的特性曲线图;
图48是表示罩盖的颜色和距离传感器的输出特性之间的关系的表;
图49是表示罩盖的颜色和距离传感器的输出特性之间的关系的特性曲线图。
实现本发明的最佳模式
下面将参照附图详细描述本发明的各实施例。
(1)第一实施例
(1-1)本实施例机器人系统的结构
在图1中,参考标号1表示优选实施例的整个机器人系统,包括宠物机器人2和装配在宠物机器人2上的外装(cover)单元3。
宠物机器人2通过将腿组件单元11A至11D与身体组件单元10的右前、左前、右后和左后部分耦合、并在身体组件单元10的前端和后端连接头组件单元12和尾巴组件单元13形成,从图1中可以明显看出。
在这种情况下,如图2所示,身体组件单元10包含:控制器20,控制宠物机器人2的所有动作;电池21,用作宠物机器人2的电源;热传感器22;冷却风扇23,设置在位于在身体组件单元10的顶部表面形成的通风孔10A(图1)之下等等。
此外,在头组件单元12的预定位置设置用作宠物机器人2的“耳朵”的麦克风24、用作“眼睛”的CCD(电荷耦合器件)摄像机25、触觉传感器26和用作“嘴”的扬声器27等。
另外,具有自由度的致动器28A至28n设置在腿组件单元11A至11D的关节部分、腿组件单元11A至11D和身体组件单元10的耦合部分、头组件单元12和身体组件单元10的耦合部分、尾巴组件单元13和身体组件单元10的耦合部分等。
头组件单元12上的麦克风24搜集由用户使用声音命令器(soundcommander)(未示出)以音阶的形式给出的诸如“行走”、“卧倒”、“追球”之类的命令声音,并发送由此获得的音频信号S1给控制器20。此外,CCD摄像机25拾取周围环境条件并将由此获得的图像信号S2发送给控制器20。
另外,从图2中可见,设在头组件单元12的顶部上的触觉传感器26检测接收自用户的诸如“轻拍”和“击打”之类的物理刺激的压力,并将检测结果作为压力检测信号S3发送给控制器20。
此外,身体组件单元10上的热传感器22检测身体组件单元10内的热,并将检测结果作为热检测信号S4发送给控制器20。
控制器20基于分别由麦克风24、CCD摄像机25、触觉传感器26、热传感器22等给出的音频信号S1、图像信号S2、压力检测信号S3、热检测信号S4等,判定是否出现命令或来自用户的物理刺激、周围环境条件等。
根据该判定结果和事先存储在控制器20A中的控制程序,控制器20确定下一步动作,并根据确定结果将控制信号S5A至S5n发送给需要的致动器28A至28n,以驱动这些致动器,从而使宠物机器人采取诸如头组件单元12的上、下、左、右摆动、尾巴组件单元13的尾巴13A的运动、以及通过驱动腿组件单元11A至11D行走之类的动作。
此时,在必要时控制器20给出预定的音频信号S6到扬声器27、以使其向外发出基于上述音频信号S6的声音,并打开或关闭或闪烁设置在宠物机器人2的眼睛位置的LED(发光二极管)(未示出)。
从而,将宠物机器人2配置成能够依据来自用户的命令和物理刺激的有无、并基于周围环境条件、控制程序等自动地动作。
另一方面,外装单元3(图1)用比如合成树脂之类的具有预定硬度的材料制成,并具有几乎与宠物机器人2的身体组件单元10的顶部部分相同的结构和尺寸的内部结构和尺寸。
此外,在外装单元3的前端形成的是凹口3A,以便安装身体组件单元10和宠物机器人2的头组件单元12相耦合的勃颈处,并且在外装单元3的顶部形成多个螺孔3B,以便放置在与在宠物机器人2的身体组件单元10的预定位置上形成的多个攻丝孔10B相同的位置。
从而,通过将外装单元3装配在宠物机器人2的身体组件单元10上、并将螺丝4通过外装单元3的螺孔3B拧紧到宠物机器人2的身体组件单元10的攻丝孔10B中,将机器人系统1配置为把外装单元3装配在宠物机器人2的固定位置。
此外,在外装单元3的顶部形成通风口3C,以便不会覆盖宠物机器人2的身体组件单元10的通风孔10A,并且在外装单元3的下端部周围形成多个凹口3D,以便装配腿组件单元11A至11D和宠物机器人2的尾巴组件单元13的尾巴13A的关节部分。
从而,将机器人系统1配置为能够使通过宠物机器人2的身体组件单元10的通风孔10A中散发的热量通过外装单元3的通风口3C散发到外界,并且当宠物机器人2活动腿组件单元11A至11D和尾巴13A时,防止外装单元3受到腿组件单元11A至11D和尾巴13A的妨碍。
除了上述的配置,在该机器人系统1中,在宠物机器人2的身体组件单元10的预定位置的、具有预定高度的基座组件30上形成具有预定形式的凹凸图案(在下文中称作机器人侧的凹凸图案)31,如图1、3和4(A)所示。
另外,在外装单元3上形成具有与机器人侧的凹凸图案31的凹凸形式相反的形式的凹凸图案(下文中称作外装侧的凹凸图案)32,其包括分别与机器人侧的凹凸图案31的凸起部分31A和凹陷部分31B相配的凹陷部分32B和凸起部分32A,以便与机器人侧的凹凸图案31相配。
在该实施例的情况下,已经将外装侧的凹凸图案31的凹凸形式注册为工业设计,以便没有许可证的人不能使用该外装侧的凹凸图案32的凹凸形式。
从而,将机器人系统1配置成使机器人侧的凹凸图案31与外装侧的凹凸图案32相配,如图4(B)所示,并且在装配外装单元3和宠物机器人2时期,当外装单元3为规则的外装单元时,使外装单元3合适地装配到宠物机器人2上;相反,当外装单元3为不规则的外装单元时,机器人侧的凹凸图案31与外装侧的凹凸图案32不相配,结果与图4(B)不同,外装单元3不能合适地装配到宠物机器人2上。
在该实施例的情况下,机器人侧的凹凸图案31设置在如图1所示的宠物机器人2的身体组件单元10的通风孔10A的两侧。在宠物机器人2的身体组件单元10中,在机器人侧的凹凸图案31的邻近位置形成以两个攻丝孔为一对构成的上述的攻丝孔10B,每一对横向地将相应的机器人侧的凹凸图案31夹在中间,如图4(A)所示。
此外,选择用于固定外装单元3到宠物机器人2上的螺丝4,以便拧紧到宠物机器人2的身体组件单元10的部分的长度L小于机器人侧的凹凸图案31的凸起部分31A的高度H1和外装侧的凹凸图案32的凸起部分32A的高度H2之和,如图4(C)所示。
从而,当外装单元3为不规则的外装单元时,机器人系统1不会使螺丝4通过外装单元3的螺孔3B拧入宠物机器人2的攻丝孔10B,如图4(C)所示,由此不可能将不规则的外装单元3固定到宠物机器人2上。
(1-2)本实施例的操作和效果
在具有上述配置的机器人系统1中,在将外装单元3装配到宠物机器人2时,当外装单元3为规则的外装单元时,机器人侧的凹凸图案31与外装侧的凹凸图案32相配,因此可以恰当地装配上述的外装单元3。相反,当外装单元3为不规则的外装单元时,机器人侧的凹凸图案31与外装侧的凹凸图案32不相配,从而不能恰当地装配上述的外装单元3。
从而,仅当那些制造遵从宠物机器人2标准的外装单元3的厂家允许使用外装侧凹凸图案32时,机器人系统1能够将不规则的外装单元3排除在外,并提供如下结果,即有效地防止由于使用不规则的外装单元3而使宠物机器人2遇到麻烦。
上述配置适于在外装单元3上形成具有预定的注册设计形式的外装侧的凹凸图案32,以及在宠物机器人2上相成具有与上述外装侧的凹凸图案32的凹凸形式相反形式的机器人侧的凹凸图案31,以便与外装侧的凹凸图案32相配,从而可能实现能够有效防止不规则的外装单元3被装配到宠物机器人2上、并通过排除不规则的外装使机器人免遭麻烦的机器人系统。
(1-3)其他实施例
应该指出,在前述实施例中,将本发明应用于如图1所示配置的四足行走类宠物机器人2中。但是,本发明并不仅限于此,并可以广泛应用于其他各种类型的机器人,比如玩具和洋娃娃(在下文中,在下面的第二至第六实施例中这些都是相同的)。
此外,在上面描述的实施例中,尽管机器人侧的凹凸图案31在基座组件30中形成,但是本发明并不仅限于此,可以比如设置一夹持器(boss)40用于将外装单元3固定到宠物机器人2上,在夹持器40的顶端表面上形成一具有预定形式的凹凸图案41,并在外装单元3上形成一相应的凹凸图案42,以便与凹凸图案41相配,如图5(A)和5(B)所示。
此外,在上面描述的实施例中,尽管形成立体图案(外装侧的凹凸图案32和机器人侧的凹凸图案31)作为外装单元3的验证图案和宠物机器人2的验证装置,但是本发明并不仅限于此,可以比如在外装单元3上形成平面图案(颜色或反射的图案)作为验证图案,并在宠物机器人2上设置CCD摄像机或类似的作为验证装置,以便宠物机器人2的控制器20(图2)根据CCD摄像机拍摄的外装单元3的验证图案判定外装单元3是否是规则的,并且当外装单元3不规则时,使宠物机器人2不可操作。
此外,可以使用诸如导电颜料之类的导电材料在外装单元3上形成验证图案,并在宠物机器人2上形成电极作为验证装置,以便电检测外装单元3上的验证图案。
此外,可以比如在外装单元3上形成预定的凹凸图案(线性的或2维的)43作为验证图案,并在宠物机器人2上的相应位置排列多个触觉传感器44(线性的或2维的),如图6所示,以便宠物机器人2的控制器20根据外装单元3上的验证图案(凹凸图案43)中的哪一个触觉传感器44被按下来判定外装单元3是否是规则的,并且当外装单元3不规则时,使宠物机器人2不可操作。
在上面描述的实施例中,尽管将具有注册的设计形式的凹凸图案(外装侧的凹凸图案32)用作外装单元3上的验证图案,但是本发明并不仅限于此,可以将该注册的形式之外的形式广泛用作外装侧的凹凸图案32,只要该形式可以从技术上或法律上限制,只允许特定的人使用该外装单元3的凹凸图案。
在这种情况下,比如可以使用通过压印注册商标或类似的字符形成的凹凸图案45作为外装单元3上验证图案,如图7所示。
此外,尽管本发明使用具有预定硬度的合成树脂制造的外装单元3,并如图1所示构成,但是本发明并不仅限于此,可以使用其他类型的材料用作外装的材料,也可以应用其他不同形状的外装,以便最佳地改变宠物机器人2的压痕。
(2)第二实施例
(2-1)本实施例中的机器人系统50的结构
图8示出根据第二实施例的机器人系统50,以及能够通过可拆卸地装配到宠物机器人51上而覆盖宠物机器人51的整个表面的预定外装部分(下文中称作外装单元)52。
宠物机器人51实际上通过将腿组件单元54A至54D与身体组件单元53的右前、左前、右后和左后部分耦合、并在身体组件单元53的前端和后端分别连接头组件单元55和尾巴组件单元56组成。
风扇(未示出)设置在身体组件单元53中,在顶部表面53A和底部表面53B上形成排风口53AX和进风口53BX(图9)。因此,通过当驱动风扇时使从进风口53BX吸入的空气穿过身体组件单元53从排风口53AX排出,将宠物机器人51配置成能够降低身体组件单元53的内部温度。
此外,在身体组件单元53的底部表面53B上设置接口组件(下文中称作主体侧接口组件)58,其上的连接器部件57由连接器半体57A和结合机构部件57B构成,如图9所示。
另一方面,如图8所示,外装单元52由具有与真实的狗相同的形状的外装主体52A形成,并用合成纤维制作。并且在外装主体52A的背面的预定位置上设置接口组件(下文中称作外装侧接口组件)60,其上的连接器部件59由将与设置在身体组件单元53上的主体侧接口组件58的连接器半体57A和结合机构部件57B连接的、连接器半体59A和结合机构部件59B构成。
为了将外装单元52实际地装配到宠物机器人2上,装配外装单元52的外装主体52A,以便覆盖宠物机器人2的整个表面,然后通过连接外装侧接口组件60上的连接器部件59和主体侧接口组件58上的连接器部件57,将连接器半体57A和59A相互电连接,并机械连接结合机构部件57B和59B。
(2-2)宠物机器人系统的内部结构
在图10所示的机器人系统50中,在宠物机器人51的身体组件单元53中容纳的有:控制器70,控制宠物机器人51的所有动作;电池71,用作宠物机器人51的驱动电源;包括电池传感器72和热传感器73的内部传感器组件74;包括耦合传感器80和连接器部件57的主体侧接口组件58;以及从存储在由外部插入的记录介质(未示出)中读出控制程序的信息读取组件75。
在头组件单元55的预定位置设置用作“耳朵”的麦克风76、用作“眼睛”的CCD(电荷耦合器件)摄像机77、触觉传感器78和用作“嘴”的扬声器79等。
另外,致动器54AA1至54AAk、54BA1至54BAk、54CA1至54CAk、54DA1至54DAk、55A1至55AL、以及56A1至56AM设置在腿组件单元54A至54D的关节部分、腿组件单元54A至54D和身体组件单元53的耦合部分、头组件单元55和身体组件单元53的耦合部分、尾巴组件单元56和身体组件单元53的耦合部分等。
头组件单元55上的麦克风76搜集由用户使用未示出的声音命令器(依据操作内容的不同而以音阶的形式给出声音的命令器)以音阶的形式给出的诸如“行走”、“卧倒”、“追球”之类的命令声音,并发送由此获得的音频信号S10给控制器70。CCD摄像机77拾取周围环境条件并将获得的图像信号S11发送给控制器70。
另外,触觉传感器78设置在头组件单元55的顶部上,如从图8中所显见的,并检测用户通过诸如“轻拍”和“击打”之类的物理刺激施加的压力,以及将检测结果作为压力检测信号S12发送给控制器70。
此外,身体组件单元53的电池传感器72在多个阶段检测电池7 1的残余量,并将在各阶段的检测结果作为电池残余量检测信号S13连续发送给控制器70。
此外,身体组件单元53的热传感器73检测宠物机器人51的内部温度,并将检测结果作为热检测信号S14发送给控制器70。
此外,身体组件单元53的主体侧接口组件58包括耦合传感器80以及上述的由连接器半体57A和结合机构部件57B构成的连接器部件57。耦合传感器80检测外装单元52与外装侧接口组件60的耦合状态,并将检测结果作为外装检测信号S15发送给控制器70。
控制器70基于由麦克风76、CCD摄像机77、触觉传感器78、电池传感器72、热传感器73和耦合传感器80等给出的音频信号S10、图像信号S11、压力检测信号S12、电池残余量检测信号S13、热检测信号S14和外装检测信号S15等,判定周围环境条件、用户是否发出命令、刺激等。
根据该判定结果和已经输入的控制程序,控制器70确定下一步动作,并使宠物机器人采取各种动作,比如确定结果所要求的、通过驱动致动器54AA1至54AAk、54BA1至54BAk、54CA1至54CAk、54DA1至54DAk、55A1至55AL、以及56A1至56AM,上、下、左、右摆动头组件单元55、活动尾巴组件单元56、以及利用驱动腿组件单元54A至54D行走。
此时,在必要时控制器70给出预定的音频信号S16到扬声器79,从而使扬声器基于上述音频信号S16向外界输出声音,并打开或关闭或闪烁设置在宠物机器人51的“眼睛”位置的未示出的LED(发光二极管)。
如上所述,宠物机器人2能够基于周围环境条件和控制程序自动地动作。
另一方面,在外装单元52中,内置在外装主体52A的外装侧接口组件60包括信息存储组件81和上述的连接器部件59,并且上述的连接器部件59A由连接器半体59A和结合机构部件59B构成。在外装侧接口组件60中的结合机构部件59B配置为能够可拆卸地与主体侧接口组件58中的结合机构部件57B装配。
在外装侧接口组件60中的信息存储组件81比如包括诸如ROM(随机存取存储器)之类的非易失性存储器,事先为分配给外装单元52的类型的每一外装号存储代表生产厂家ID的信息、代表比如产品ID、批号等由生产厂家确定的制造许可信息、以及验证外装单元的加密信息等(下文中称作外装设定信息D1)。
此外,在将要插入到设置在身体组件单元53的信息读取组件75中的记录介质上事先存储的是节目信息(下文中称作表演(performance)信息)D2,用于根据上述每一外装号的外装设定信息D1的内容确定宠物机器人51的表演。
当外装侧接口组件60与主体侧接口组件58耦合时,设置在上述外装侧接口组件60上的连接器部件59的连接器半体59A和结合机构部件59B与设置在主体侧接口组件58上的连接器部件57的连接器半体57A和结合机构部件57B电气和机械连接。
具体地说,主体侧接口组件58和外装侧接口组件60的结构如图11所示。
在主体侧接口组件58中,用于地线L1、电源线L2、测量线L3和信号线L4的连接端子A1至A4设置在连接器部件57的连接器半体57A上,另一端接地的负载电阻R1的一端在测量线L3上连接在连接端子A3和耦合传感器80之间。
在外装侧接口组件60中,用于地线L5、电源线L6、测量线L7和信号线L8的连接端子A5至A8设置在连接器部件59上,负载电阻R2设置在从电源线L6引出的测量线L7上,上述负载电阻R2的末端连接到信息存储组件81和连接端子A7上。
当设置在外装侧接口组件60的连接器部件59上的连接器半体59A与设置在主体侧接口组件58的连接器部件57上的连接器半体57A实际连接时,使在连接器半体57A上的用于地线L1、电源线L2、测量线L3和信号线L4的连接端子A1至A4与连接器半体59A上的用于线L5至L8的相应连接端子A5至A8接触并导通。
此时,在外装侧接口组件60和主体侧接口组件58之间的连接器半体59A和57A相互导通的条件下,主体侧接口组件58中的耦合传感器80检测连接到电源线L6的测量线L7上的负载电阻R2的电压值,从而判定主体侧接口组件58与外装侧接口组件60的耦合状态(耦合状态下的“H”电平或分离状态下的“L”电平。)
结果,控制器70仅当耦合传感器80获得肯定结果时、读出存储在外装侧接口组件60的信息存储组件81中的外装设定信息D1,基于上述外装设定信息D1从插入到身体组件单元53的信息读取组件75中的记录介质上读出表演信息D2,并根据表演信息D2确定宠物机器人51的动作,从而驱动该确定的动作所需要的致动器54AA1至56AM、并在必需时使扬声器79输出声音。
当装配了外装单元52时,根据存储在上述外装单元52的外装侧接口组件60中的信息存储组件81中的外装设定信息D1、以及基于上述外装设定信息D1从插入到身体组件单元53的信息读取组件75中的记录介质上读出的表演信息D2,宠物机器人51能够自动地改变动作。
(2-3)由宠物机器人51的感情和本能决定的动作表现
宠物机器人51配置成不仅能够根据周围环境条件、控制程序等自动地活动,并且能够就好象它是具有自然“感情和本能”的动物一样改变动作。
也就是说,宠物机器人51具有“欢乐”、“悲伤”和“愤怒”三种“感情表达”以及“食欲”、“好奇心”和“运动欲”三种“本能表达”。在控制器70中事先存储的是由各种控制参数和控制程序构成的动作和运动模型,作为对于每一个“感情表达”和每一个“本能表达”与“行走状态”、“运动”、“动作”和“声音”四项有关的动作和运动的基础。
现在将描述控制器70执行的处理,以生成宠物机器人51的动作。
如图12所示,生成宠物机器人51的动作的控制器70的处理功能可以分为:传感器输入处理部分90,识别特定的外部状态;感情和本能模型部分91,通过累积上述传感器输入处理部分90的识别结果,表达感情和本能的状态;动作确定机构部分92,根据上述传感器输入处理部分90的识别结果确定随后的动作;姿势转换机构部分93,根据上述动作确定机构部分92的确定结果和感情和本能模型部分91的表达结果,使宠物机器人51实际进行动作;以及控制机构部分94,驱动和控制致动器54AA1至56AM。
在这种情况下,传感器输入处理部分90基于分别由麦克风76、CCD摄像机77、触觉传感器78、电池传感器72和热传感器73提供的音频信号S10、图像信号S11、压力检测信号S12、电池残余量检测信号S13和热检测信号S14,识别特定状态,并将识别结果作为状态识别信息D5发送给感情和本能模型部分91和动作确定机构部分92。
具体地说,传感器输入处理部分90总是检测麦克风76给出的音频信号S10,并且当检测到与从声音命令器根据诸如“行走”、“卧倒”和“追球”之类的命令用音频信号S10的频谱输出的命令声音相同的音阶的频谱时,意识到命令已经给出,并将该识别结果通知感情和本能模型部分91和动作确定机构部分92作为状态识别信息D5。
另外,传感器输入处理部分90总是检查测CCD摄像机77给出的图像信号S11,并且当从基于图像信号S11的图像中检测出比如“红物体”或“垂直于地面并高于预定高度的平坦表面”时,意识到“有一个球”或“有一堵墙”,并通知感情和本能模型部分91和动作确定机构部分92该识别结果作为状态识别信息D5。
此外,传感器输入处理部分90总是检测触觉传感器78给出的压力检测信号S12,并且当基于压力检测信号S12检测出阈值不低于预定值并是在短时间(比如,少于2秒)内给出的压力时,意识到被击打(受训斥)了,相反,当检测出阈值不高于预定值并是在较长时间(比如,大于2秒)内给出的压力时,则意识到被轻拍(受表扬)了。然后,传感器输入处理部分90通知感情和本能模型部分91和动作确定机构部分92该识别结果作为状态识别信息D5。
另外,传感器输入处理部分90总是检测电池传感器72给出的电池残余量检测信号S13,并且当识别出电池11中的总能量变低时,通知感情和本能模型部分91和动作确定机构部分92该识别结果作为状态识别信息D5。
另外,传感器输入处理部分90总是检测热传感器73给出的热检测信号S14,并且当意识到宠物机器人51的内部温度高于预定温度时,通知感情和本能模型部分91和动作确定机构部分92该识别结果作为状态识别信息D5。
另外,传感器输入处理部分90基于主体侧接口组件58中的耦合传感器80给出的外装检测检测信号S15、从外装侧接口组件60的信息存储组件81中读出的外装设定信息D1、以及用身体组件单元53中的信息读取组件75读出的表演信息D2,识别外装单元52的存在或不存在以及设定在外装单元52中的各种设定信息,并通知感情和本能模型部分91和动作确定机构部分92该识别结果作为状态识别信息D5。
感情和本能模型部分91在传感器输入处理部分90的存储器70A中存有各种控制参数用于:包括用作为多个独立感情模型的感情单元100A至100C的基本感情组100、以及包括用作多个独立欲望模型的欲望单元101A至101C的基本欲望组101,如图13所示。在基本感情组100中,感情单元100A表达“欢乐”的感情,感情单元100B表达“悲伤”的感情,感情单元100C表达“愤怒”的感情。
感情单元100A至100C比如通过0至100级代表感情的强度,并且基于提供的状态识别信息D5时时改变感情的强度。因此,感情和本能模型部分91通过组合时时改变的感情单元100A至100C的强度,表达宠物机器人51的感情,从而随时模仿感情的变化。
在基本欲望组101中,欲望单元101A表达“食欲”的欲望,欲望单元101B表达“好奇心”的欲望,欲望单元101C表达“运动欲”的欲望。
类似于感情单元100A至100C,欲望单元101A至101C比如通过0至100级代表欲望的强度,并且基于提供的状态识别信息D5时时改变欲望的强度。因此,感情和本能模型部分91通过组合时时改变的欲望单元101A至101C的强度,表达宠物机器人51的本能,从而随时模拟本能随时间的变化。
这样,感情和本能模型部分91基于状态识别信息D5分别改变感情单元100A至100C和欲望单元101A至101C的强度。感情和本能模型部分91通过累积组合感情单元100A至100C变化的强度确定感情,通过累积组合欲望单元101A至101C变化的强度确定本能状态,并将确定的感情和本能状态发送给动作确定机构部分92,作为感情和本能状态识别信息D6。
顺便提及,当从基本感情组100中组合期望的感情单元100A至100C以便彼此限制或刺激、并且组合的感情单元100A至100C中的一个的强度改变时,另一个感情单元的强度相应地改变,从而感情和本能模型部分91实现具有自然感情和本能的宠物机器人。
当“欢乐”感情单元100A与“愤怒”感情单元100C组合以便彼此制约时,如图14所示,当宠物机器人受到用户表扬时,感情和本能模型部分91加强“欢乐”感情单元100A的强度,并且即使没有提供改变“愤怒”感情单元100C的强度的状态识别信息D5,在加强“欢乐”感情单元100A的强度的同时自然减低“愤怒”感情单元100C的强度。类似地,当加强“愤怒”感情单元100C的强度时,感情和本能模型部分91在加强“愤怒”感情单元100C的强度的同时,自然减低“欢乐”感情单元100A的强度。
通过组合“悲伤”感情单元100B与“愤怒”感情单元100C以便彼此刺激,当宠物机器人受到用户击打时,感情和本能模型部分91加强“愤怒”感情单元100C的强度,并且即使没有提供改变“悲伤”感情单元100B的强度的状态识别信息D5,在加强“愤怒”感情单元100C的强度的同时自然加强“悲伤”感情单元100B的强度。类似地,当加强“悲伤”感情单元100B的强度时,感情和本能模型部分91在加强“悲伤”感情单元100B的强度的同时,自然加强“愤怒”感情单元100C的强度。
当从基本欲望组101中组合期望的欲望单元101A至101C以便彼此制约或刺激时,并且在组合感情单元100A至100C以及改变欲望单元101A至101C中的一个的强度的情况下,另一个欲望单元的强度也相应地改变,从而感情和本能模型部分91实现具有自然本能的宠物机器人。
在图15中,具有比如“已经走了很长时间了”的宠物机器人51本身的当前动作或过去的动作内容的动作信息D7从设置在后边阶段的动作确定机构部分92提供给感情和本能模型部分91,并且即使给出同一的状态识别信息D5,感情和本能模型部分91也根据由上述动作信息D7代表的宠物机器人51的动作,生成不同的感情和本能状态识别信息D6。
具体地说,如图15所示,基于代表宠物机器人51的动作的动作信息D7和状态识别信息D5、生成用于加强和减低感情单元100A至100C的强度的强度信息D8A至D8C的强度增加-降低函数105A至105C设置在感情单元100A至100C之前的阶段,以便感情和本能模型部分91根据从强度增加-降低函数105A至105C输出的强度信息D8A至D8C,加强和减低感情单元100A至100C的强度。
比如,当宠物机器人向用户敬礼并被轻拍时,也就是说,当代表敬礼的动作信息D7和代表轻拍头部的状态识别信息D5给到强度增加-降低函数105A时,感情和本能模型部分91加强“欢乐”感情单元100A的强度;然而,在执行任务期间,即使轻拍宠物机器人,也就是说,即使代表任务执行中的动作信息D7和代表轻拍的状态识别信息D5给到强度增加-降低函数105,感情和本能模型部分91也不会改变欢乐”感情单元100A的强度。
如上所述,感情和本能模型部分91确定感情单元100A至100C的强度时,不仅参照状态识别信息D5,而且参照代表宠物机器人51的当前或过去的动作的动作信息D7,从而能够避免引起不自然的本能,比如,在执行任务期间拍打宠物机器人的头部仅仅是出于乐趣时,加强“欢乐”感情单元100A的强度。
通过该方式,对于欲望单元101A至101C,感情和本能模型部分91也基于提供的状态识别信息D5和动作信息D7,加强和减低欲望单元101A至101C的强度。
如上所述,强度增加-降低函数105A至105C是当输入状态识别信息D5和动作信息D7时、根据事先设定的参数生成并输出强度信息D8A至D8C的函数,从而能够使宠物机器人51具有个性,例如,通过为单个的宠物机器人51设定不同值的上述参数,一个宠物机器人51倾向与愤怒,而另一个宠物机器人51具有欢乐的特性。
在图12中,动作确定机构部分92基于状态识别信息D5和感情和本能状态识别信息D6确定下一个动作,并将确定的动作的内容作为动作命令信息D9发送给姿势转换机构部分93。
具体地说,如图16所示,动作确定机构部分92使用具有有限个状态、称作有限自动机110的算法,表达过去提供的状态识别信息D5的历史作为动作状态(下文中称作状态),并根据当前提供的状态识别信息D5和此时的状态,通过转换上述状态到另一个状态来确定下一步动作。动作确定机构部分92确定一个动作,不仅参照当前的状态识别信息D5,而且参照过去的状态识别信息D5,通过每次提供状态识别信息D5时转换状态、并根据转换的状态确定动作。
因此,比如,当提供“看不见球”的状态识别信息D5时,“追球”的状态ST1转换到“站立”的状态ST5;而当提供“起床”的状态识别信息D5时,“卧倒”的状态ST2转换到“站立”的状态ST4。应该理解,由于过去的状态识别信息D5的不同历史,动作是同一个,但是这些状态ST4和ST5之间的状态是不同的。
实际上,当检测到预定的触发时,动作确定机构部分92将当前状态转换到下一个状态。触发的具体示例是,当前状态的动作已经执行了一固定时间段,并且从感情和本能模型部分91提供由状态识别信息D5和感情和本能状态识别信息D6代表的、感情单元100A至100C和欲望单元101A至101C的强度之中期望的单元的强度已经超出预定的阈值。
此时,动作确定机构部分92基于从感情和本能模型部分91提供由状态识别信息D5和感情和本能状态识别信息D6代表的、感情单元100A至100C和欲望单元101A至101C之中期望的单元的强度是否超出预定的阈值,选择一个状态作为转换的目的地。因此,将动作确定机构部分92配置为,即使输入相同的状态识别信息D5,也根据感情单元100A至100C和欲望单元101A至101C的强度进行到不同状态的转换。
从而,当动作确定机构部分92基于提供的状态识别信息D5检测到手掌伸向其眼睛、基于感情和本能状态识别信息D6检测到“愤怒”感情单元100C的强度不高于预定的阈值、并基于状态识别信息D5检测到电池电压不低于预定的阈值(即,宠物机器人“不饿”)时,动作确定机构部分92响应伸向其眼睛的手掌,生成使宠物机器人采取“伸手(hand lending)”动作的动作命令信息D9,并将信息D9发送给姿势转换机构部分93。
另外,当动作确定机构部分92检测到手掌伸向其眼睛、检测到“愤怒”感情单元100C的强度不高于预定的阈值、并检测到“宠物机器人饿了”,即,电池电压低于预定的阈值时,动作确定机构部分92生成使宠物机器人采取“舔手掌(licking a palm)”动作的动作命令信息D9,并将该信息发送给姿势转换机构部分93。
另外,当动作确定机构部分92检测到手掌伸向其眼睛、并且“愤怒”感情单元100C的强度不低于预定的阈值时,动作确定机构部分92生成使宠物机器人采取“恼怒地向旁边看”动作的动作命令信息D9,并将该信息发送给姿势转换机构部分93。是否“宠物机器人不饿”,即电池电压是否低于预定的阈值无关要紧。
基于从感情和本能模型部分91提供由感情和本能状态识别信息D6代表的、感情单元100A至100C和欲望单元101A至101C之中期望的单元的强度,动作确定机构部分92确定用于在转换目的地状态将要采取的动作的参数,比如行走速度、活动手和脚的速度和幅度、要给出的声音的音调和音量等等,以及生成相应于上述用于动作的参数的动作命令信息D9,并发送该信息给姿势转换机构部分93。
由于从传感器输入处理部分90给出的状态识别信息D5具有根据输入到感情和本能模型部分91和动作确定机构部分92的时刻而不同的内容,所以将状态识别信息D5输入到感情和本能模型部分91和动作确定机构部分92两者中。
比如,当提供代表“头部被轻拍”的状态识别信息D5时,控制器70与感情和本能模型部分91一起生成“欢乐”的感情和本能状态识别信息D6,并将感情和本能状态识别信息D6提供给动作确定机构部分92。但是,在这种情况下,当提供代表“在眼前有一只手”的状态识别信息D5时,控制器70基于上述的“欢乐”的感情和本能状态识别信息D6和“在眼前有一只手”的状态识别信息D5,在动作确定机构部分92中生成“将出手”的动作命令信息D9,并将该动作命令信息D9发送给姿势转换机构部分93。
在图12中,姿势转换机构部分93基于从动作确定机构部分92提供的动作命令信息D9,生成用于转换当前姿势到下一个姿势的姿势转换信息D10,并将姿势转换信息D10发送给控制机构部分94。在这种情况下,根据比如宠物机器人51的物理形式,诸如主体、手和脚的形式和重量、以及致动器54AA1至56AM的部件和机构的比如关节弯曲方向和角度的耦合条件,确定当前姿势可能要转换成的姿势。
当前姿势可能要转换成的姿势分为那些可以由当前姿势直接转换成的姿势和其他的不能由当前姿势直接转换成的姿势。比如,具有四肢的宠物机器人51可以从其手和足大部分伸出的横卧姿势转换为躺下姿势,但是不能转换为站立姿势。该转换需要两步,即在其手和足收近身体时进行躺下姿势的动作、然后站立的动作。此外,存在不能安全采用的姿势。比如,当四足宠物机器人处于站立姿势而试图将其两个前足都抬起时,非常容易摔倒。
从而,当动作命令信息D9代表可以直接转换到一个姿势时,其中事先登记了能够转换成的那些姿势的姿势转换机构部分93将上述从动作确定机构部分92提供的动作命令信息D9发送给控制机构部分94,而不加改动。但是,在直接转换是不可能的情况下,姿势转换机构部分93生成代表转换为另一个可行姿势、然后再转换为目标姿势的姿势转换信息D10,并将该信息发送给控制机构部分94。因此,宠物机器人51能够避免采取不可能转换成的姿势的不合理尝试或摔倒事件。
具体地说,将姿势转换机构部分93配置成事先登记的宠物机器人51能够采取的姿势及在两种姿势之间可行的转换。
姿势转换机构部分93使用采用节点NODE1至NODE5表达宠物机器人51能够采取的姿势、称作有向图111的算法,其中两个姿势之间的转换是可行的,也就是说,比如,NODE1至NODE5彼此用有向弧线ARC1至ARC10相连,如图17所示。
当动作命令信息D9从动作确定机构部分92提供时,姿势转换机构部分93沿着通过连接相应于当前姿势的节点NODE1至NODE5与相应于由动作命令信息D9指示的将要采取的下一个姿势的节点NODE1至NODE5形成的有向弧线ARC1至ARC10的方向,搜索从当前节点NODE1至NODE5到下一个节点NODE1至NODE5的路径,并连续记录在搜索路径上存在的节点NODE1至NODE5。从而,宠物机器人51能够采取由动作确定机构部分92指定的动作,而避免采取不可能转换成的姿势的不合理尝试或摔倒事件。
比如,当在代表当前姿势“卧倒”的节点NODE2处提供“坐下”的动作命令信息D9时,姿势转换机构部分93根据从代表“卧倒”姿势的节点NODE2到代表“坐下”姿势的节点NODE5的转换是可行的事实,给出“坐下”的姿势转换信息D10到控制机构部分94。
相反,当提供“行走”的动作命令信息D9时,姿势转换机构部分93通过搜索从“卧倒”的节点NODE2到“行走”的节点NODE4的路径计划姿势转换,结果生成发出“站立”命令、然后发出“行走”命令的姿势转换信息D10,并将该信息发送给控制机构部分94。
在图12中,控制机构部分94基于姿势转换信息D10生成用于驱动致动器54AA1至56M的控制信号S20,并将该控制信号S20发送给致动器54AA1至56M,用于驱动上述的致动器54AA1至56M,从而使宠物机器人51采取所期望的动作。
(2-4)外装装配处理过程RT1
当实际装配外装单元52时,宠物机器人51中的控制器70进入如图11所示的外装装配处理过程RT1,从步骤SP0开始,并且当在步骤SP1监视到在身体组件单元53上主体侧接口组件58中的耦合传感器80所检测的状态时,控制器70前进到步骤SP2,在此控制器70基于上述耦合传感器80的检测结果判断外装单元52中的外装侧接口组件60是否已经被电气和机械地连接。
在步骤SP2,控制器70等到肯定的结果后前进到步骤SP3,在此控制器70从在外装单元52上的外装侧接口组件60中的信息存储组件81中读出外装设定信息D1,并在步骤SP4解码包括在上述外装设定信息D1中的加密信息。
接着,在步骤SP5,控制器70提取包括在外装设定信息D1中的外装号,并前进到步骤SP6,在此控制器70使用身体组件单元53中的信息读取组件75读出相应于上述外装号的表演信息D2。
然后控制器70前进到步骤SP7,在此控制器70解码包括在使用信息读取组件75读出的表演信息D2中的加密信息,并且在步骤SP8,基于在步骤SP4和SP7中的解码结果,判断装配在宠物机器人51上的外装单元52是否为规则的外装。
当在步骤SP8中得到肯定的结果,即表示已经验证外装单元52是一个装配到宠物机器人51上的规则外装时,控制器70前进到步骤SP9,在此控制器70监视基于用户的刺激的触觉传感器78的开/关状态,并且仅当检测到诸如“轻拍”和“击打”的刺激时前进到步骤SP10。
在步骤SP10,控制器70通过累积诸如“被轻拍”和“被击打”的组合感情强度(在图13中的上面描述的感情单元100A至100C),确定当前的感情状态。
然后控制器70前进到步骤SP11,在此控制器70根据当前的感情状态确定下一个动作内容和声音内容,并在步骤SP12,从相应于外装单元52的类型(即,外装号)的表演信息D2中选择适合于确定的动作内容和声音内容的动作内容和声音内容,然后前进到步骤SP13。
相反,当在步骤SP8获得否定的结果,即表明没有验证通过外装单元52是一个装配到宠物机器人51上的规则外装时,控制器70前进到步骤SP14,在此控制器70读出一表明不规则外装的音频信号,并从扬声器79中输出基于该音频信号的声音,然后前进到SP13。
在步骤SP13,当监视到主体侧接口组件58中的耦合传感器80所检测的状态时,控制器70前进到步骤SP15,在此控制器70基于耦合传感器80的检测结果判断外装单元52中的外装侧接口组件60是否已经被电气和机械地连接。
当在步骤SP15得到肯定的结果时,控制器70前进到步骤SP16,按照在步骤SP12中确定的、相应于外装单元52的上述具有个性的动作内容和声音内容,自动地活动宠物机器人51的同时,终止上述外装装配处理过程RT1。
当在步骤SP15获得否定的结果时,表明外装单元52已经由用户从宠物机器人51上拆掉,或者表明由于某些外部原因身体组件单元53的外装侧接口组件60已经由于与用户无关的原因从宠物机器人51的主体侧接口组件58上断开,反过来,控制器70再次返回步骤SP1,重复上述的处理。
(2-5)本实施例的操作和效果
当用户在机器人系统50的宠物机器人51上装配期望的外装单元52时,用户首先电气和机械连接外装单元52中的外装侧接口组件60到身体组件单元53的主体侧接口组件58上。
接着,基于在外装单元52中的信息存储组件81存储的外装设定信息D1,判断外装单元52是否是规则的,并且当获得肯定的结果时,从身体组件单元53中的信息读取组件75读出相应于上述外装设定信息D1的表演信息D2。
结果,当用户的刺激或外部的刺激给出而宠物机器人51采取自动动作时,宠物机器人51能够基于表演信息D2确定的预定的变化状态,以有个性的模式改变感情和/或本能的状态。
比如,当外装单元52具有象猛兽和爬虫那样的侵略性外表时,“愤怒”感情的强度以高于正常的比例加强;而当外装单元52具有象欢乐充气玩具那样的可爱的外表时,“欢乐”感情的强度以高于正常的比例加强。
结果,当外装单元52具有侵略性外表时,宠物机器人51能够将用户在头部的拍打识别为“厌恶的事情”,并表现相应于该厌恶的事情的感情;而当外装单元52具有可爱的外表时,宠物机器人51能够将用户在头部的拍打识别为“欢乐的事情”,并表现相应于该欢乐的事情的感情。
此外,当外装单元52相对较重时,“食欲”欲望的欲望强度以高于正常的比例加强,和/或“期望活动”的欲望强度以低于正常的比例加强。另一方面,当外装单元52相对较轻时,“食欲”欲望的欲望强度以低于正常的比例加强,和/或“期望活动”的欲望强度以高于正常的比例加强。
结果,具有相对较重的外装单元52的宠物机器人51考虑到电池71的残余量变化比正常情况下快,能够执行请求充电电池71的欲望,由此向用户展现象真实动物一样的食欲感情。与该动作一起,和/或替代该动作,宠物机器人51能够通过当电池71的残余量变低时减少活动量,而在电池71的残余量减少时采取少活动量的活动。
此外,宠物机器人51能够通过防止使用由第三方非法准备的外装单元52,确保预防犯罪的产权,这是由于加密的信息包括在存储于外装单元52的信息存储组件81中,以便宠物机器人51基于上述加密信息判断附着到宠物机器人51上的外装单元52是否为规则的外装单元。
上述配置使实现具有显著增强娱乐特性的机器人系统50成为可能,这是由于:在外装单元52中设置了存储与外装单元52有关的外装设定信息D1的信息存储组件81;当外装单元52装配到宠物机器人51上时,从为该外装单元52的类型而设置、并存储在身体组件单元53的信息读取组件75中的表演信息D2中有选择地读出与上述外装设定信息D1相匹配的表演信息D2;以及按照基于表演信息D2确定的预定改变状态而改变宠物机器人51的感情和本能,以便表演信息D2在宠物机器人51进行实际动作和运动上以独立的模式得到反映。
(2-6)其他实施例
应该指出,在前述实施例中,尽管将本发明应用于如图8所示配置的、具有四足行走类宠物机器人51的基本结构的机器人系统50中,但是,本发明并不受限于这些实施例,本发明可以广泛应用于具有其他配置的各种机器人装置,只要该机器人装置表现预定的动作(行走、发光、发声等等)。
此外,在上面描述的实施例中,尽管将包括用合成纤维制成的、具有与真正的狗的表面皮肤相似的形状的外装主体52A的外装单元52用作可拆卸地装配到如图8所示的机器人装置上的外装,但是本发明并不受限于这些实施例,象其他动物(猫、浣熊、马、猴子、人等等)的表皮的形状可以用其他各种材料(毛皮、纺织品、陶瓷、合成树脂、金属等等)制作。
此外,尽管将用单块成型的合成纤维制作的、具有与动物的表皮相似的形式的外装主体52A用作形成外装单元52的外装主体52A,但是本发明并不仅限于此,可以单独使用与宠物机器人51的部件相对应的、用金属制作的多个外装部件137,如图26所示。在这种情况下,多个外装部件137包括头部件137A、身体部件137B、腿部件137C和胫部件137D,以及上述设置在身体部件137B上的外装侧接口组件60。另外,除了金属之外的各种材料(合成纤维、皮毛、纺织品、陶瓷、合成树脂等)都可以广泛地用于形成外装部件137。
此外,在上面描述的实施例中,尽管当将外装单元52装配到宠物机器人51时,在宠物机器人51的身体组件单元53中用作控制装置的控制器70被配置为,基于分配给上述外装单元52的外装设定信息(固有信息)D1确定相应于上述外装设定信息D1中的外装号的表演(performance)信息D2,但是本发明并不仅限于此,并且可以使用具有不同配置的控制装置,只要在需要时该控制装置能够基于外装设定信息D1改变动作表现样式即可。
此外,尽管外装设定信息D1包括有关外装号和制造许可的信息,但是该外装设定信息也可以包括有关外装单元的类型、形式、材料、质量分布、硬度和热传导的信息以及有关外装单元的个性、活动和动作的信息。在这种情况下,可以将设置在宠物机器人51的身体组件单元53中作为控制装置的控制器70配置为:仅基于使用信息读取组件(信息读取部件)75读出的外装设定信息D1确定宠物机器人51的动作,并驱动所必需的、与确定的动作相关的致动器54AA1至56AM,以及在需要时使扬声器70发出声音。
此外,在上面描述的实施例中,尽管通过存储外装号作为固有信息来赋予个性,但是本发明并不受限于这些实施例,并且可以根据外装的形状(比如,袋鼠、熊或兔子),将定义适合于用外装代表的一种动物的行走样式、动作样式以及动作内容(比如在袋鼠的情况下的跳跃和在熊的情况下的踱步)的序号和参数存储为固有信息。
此外,在上面描述的实施例中,当外装装配到机器人装置上时,尽管将设置在外装单元52中的外装侧接口组件60和设置在宠物机器人51中的主体侧接口组件58用作外装与机器人装置的电气和机械连接部件,但是本发明并不受限于这些实施例,并且可以使用具有不同配置的其他部件,只要该部件能够显现每一个外装单元52的外形个性、并可以可拆卸地连接外装和机器人装置即可。
此外,在上面描述的实施例中,尽管将信息存储组件81设置在外装单元52中作为信息存储部件(存储器)、以及将相应于外装单元3的固有信息存储在信息存储组件81中,但是本发明并不受限于这些实施例,可以将相应于固有信息的特征项(商标、条形码、预定的凹凸图案、具有特殊形式的突出端或类似的)设置在连接宠物机器人51的位置,而不用在外装单元52中设置信息存储组件81,以便能够通过读取位于连接宠物机器人51的位置处的特征项识别固有信息。另外,作为存储部件,除了存储固有信息的非易失性存储器之外,可以使用无源元件,如电阻、和磁存储固有信息的元件,以及可以将发光二极管(LED)的发光模式用作固有信息。
此外,在上面描述的实施例中,尽管连接器半体57A和59A以及结合机构部件57B和59B连接在外装侧接口组件60的连接器部件59和主体侧接口组件58的连接器部件57之间,以便主体侧接口组件58的连接器部件57中的耦合传感器80基于借助外装侧接口组件60的连接器部件59中的负载电阻R2和主体侧接口组件58的连接器部件57获得的电压值,检测外装单元52和宠物机器人51之间的连接状态,但是本发明并不受限于这些实施例,可以使用其他不同的方法检测宠物机器人51和外装单元52之间的连接状态。
比如,可以在主体侧接口组件58的连接器部件57上或在外装侧接口组件60的连接器部件59上设置一个距离检测组件(未示出),以便控制器70基于作为上述距离检测组件的检测结果获得的距离信息变化,检测连接器部件57和59之间的连接状态;或者,可以在主体侧接口组件58的连接器部件57中设置一个光量检测组件(未示出),以便控制器70基于作为上述光量检测组件的检测结果获得的光量变化,检测连接器部件57和59之间的连接状态。
此外,在上面描述的实施例中,尽管设置在宠物机器人51的身体组件单元53中用作信息检测装置的控制器70基于外装单元52给出的外装设定信息D1(固有信息),确定相应于上述外装单元52的类型的表演信息D2,并基于上述表演信息D2确定宠物机器人51的动作,但是本发明并不受限于这些实施例,并且可以判断包括在外装设定信息D1中的形状信息,以便宠物机器人51的部件自由移动而不受外装单元的干扰,或者,可以判断外装设定信息D1中的质量分布,以便宠物机器人51保持平衡地活动。
此外,在上面描述的实施例中,尽管在图18所示的外装装配处理过程RT1中,当外装单元52的外装侧接口组件60没有与宠物机器人51的身体组件单元53中的主体侧接口组件58相连时,分配给每一个外装单元52的外装设定信息D1的内容没有反映在表演信息D2上,但是本发明并不受限于这些实施例,当外装单元52的外装侧接口组件60没有与宠物机器人51的身体组件单元53中的主体侧接口组件58相连时,宠物机器人51的部分或全部动作和运动可以受到限制。
此外,在上面描述的实施例中,尽管设置为信息读取部件的信息读取组件75从外部插入的记录介质(未示出)中读取表演信息D2,并将该信息发送给宠物机器人51的身体组件单元53中的控制器70,但是本发明并不受限于这些实施例,可以使用接收设备作为信息读取部件,以接收和下载外部发送的表演信息D2。
[第三实施例]
(3-1)根据本实施例的机器人系统120的结构
图19示出根据第三实施例的宠物机器人系统120,其中相应于图8中的部件的部件使用相同的标号。除了宠物机器人121具有根据诸如刺激和用户使用声音命令器给出的命令之类的操作输入的历史和其自己动作和活动的历史、象真实动物“成长”一样改变动作和运动的功能之外,宠物机器人系统120具有与宠物机器人系统50(图8)相同的结构。
具体地说,在该宠物机器人系统120中为宠物机器人121准备的是“婴儿期”、“少年期”、“青年期”和“成年期”的四个“成长阶段”。在控制器122(图10)的存储器122A(图19)中预先存储由各种控制参数和控制程序构成的动作和活动模型,用作与每一“成长阶段”的“行走状态”、“运动”、“动作”和“声音”这四项相关的动作和运动的基础。
在初始阶段,控制器122按照“婴儿期”的动作和运动模型控制致动器54AA1至56AM和声音输出,以便通过小步幅使其“行走状态”为“蹒跚而行”,使其“运动”为诸如“走”、“站立”和“卧倒”的“简单”运动,使其“动作”为由重复单一的动作构成的“单调”动作,通过降低音频信号S16的放大比例使其“声音”为“低而短”的声音。
此时,控制器122总是监视和计数多个与“成长”有关的预定要素(下文中称作成长要素)的发生,比如由使用声音命令器的命令输入、借助于触觉传感器78的诸如“轻拍”和“击打”之类的传感器输入、以及预定动作和运动成功次数组成的强化学习,借助于触觉传感器78除“轻拍”和“击打”之外的传感器输入,和诸如“追球”之类的预定的动作和运动。
当成长要素的累积频次总值(下文中称作成长要素的总经验值)超出预定阈值时,控制器122基于成长要素的累积频次将“婴儿期”的动作和运动模型修正为处于较高成长级别(其动作和运动较难并且更为复杂)的“少年期”的动作和运动模型。
此后,控制器122按照“少年期”的动作和运动模型控制致动器54AA1至56AM和扬声器79的声音输出,以便通过提高致动器54AA1至56AM的旋转速度使其“行走状态”为“较为稳健的步幅”,通过增加动作数量使其“运动”为“稍微高级的和复杂的”动作,通过参照前一动作确定下一步动作使其“动作”为“稍有目的”的动作,通过延长音频信号S16和提高该信号的放大比例使其“声音”为“稍长而大”的声音。
每次成长要素的总经验值超出为“青年期”和“成年期”各自预定的每一个阈值时,控制器122类似地将动作和运动模型修正为出于较高成长级别的“青年期”或“成年期”的动作和运动模型,根据上述动作和运动模型逐渐提高致动器54AA1至56AM的旋转速度、延长音频信号S16,提高将要输出给扬声器79的音频信号S16的放大比例,并改变对于单个动作致动器54AA1至56AM的旋转量。
结果,当成年时,宠物机器人121逐步将其“行走状态”从“蹒跚而行”变化为“稳健行走”,将其“动作”从“简单”变为“高级和复杂”,将其“动作”从“单调”变为“有目的”,将其“声音”从“低而短”变为“长而大”,好象宠物机器人121具有攀升的“成长阶段”一样(也就是说,“成长阶段”从“婴儿期”变到“少年期”,从“少年期”变到“青年期”,以及从“青年期”变到“成年期”)。
根据上述的外部输入和宠物机器人自身的动作和运动历史,将宠物机器人121配置为在“婴儿期”、“少年期”、“青年期”和“成年期”四个阶段成长。
在该实施例的情况下,为少年期”、“青年期”和“成年期”的“成长阶段”准备了多种动作和运动模型,如图20所示。
为“少年期”实际准备的动作和运动模型是,提供表现快而粗野的动作和运动的“粗鲁”特性的动作和运动模型(少年1),以及提供表现慢而优雅的动作和运动的“绅士”特性的动作和运动模型(少年2)。
此外,为“青年期”准备的动作和运动模型是,提供表现比“少年期”的“粗鲁”特性的动作和运动还要快而粗野的动作和运动的“恼怒”特性的动作和运动模型(青年1),提供表现比“恼怒”特性的动作和运动稍慢和优雅的动作和运动的“普通”特性的动作和运动模型(青年2),以及提供表现比“普通”特性的动作和运动在总量上更加慢而优雅的动作和运动的“绅士”特性的动作和运动模型(青年3)。
此外,为“成年期”准备的动作和运动模型是,提供表现比“青年期”的“恼怒”特性的动作和运动更为快和粗野、并很少按照用户的命令动作的动作和运动的“进攻性”特性的动作和运动模型(成年1),提供倾向按照用户的命令表现稍慢和优雅的动作和运动的“稍粗鲁”特性的动作和运动模型(成年2),提供以较小的总量表现稍慢和优雅的动作和运动、并总是按照用户的命令活动的“稍绅士”特性的动作和运动模型(成年3),以及提供以较小的总量表现非常慢和优雅的动作和运动、并总是按照用户的命令活动的“绅士”特性的动作和运动模型(成年4)。
当更新“成长阶段”时,控制器122基于每一成长要素的累积频次,从动作和运动模型中为下一“成长阶段”选择动作模型和/或动作模型,并利用所选择的动作和运动模型修正使用的动作和运动模型。
在“少年期”及之后的时期,当前“成长阶段”的动作和运动模型只能转换到图20中通过箭头相连的下一“成长阶段”的特定动作和运动模型。比如,当在“少年期”已经选择表现“粗鲁”动作和运动的动作和运动模型(少年1),则在“青年期”模型不可能转换到表现“绅士”动作和运动的动作和运动模型(青年3)。
将宠物机器人121配置为根据比如刺激和来自用户的命令的输入历史、以及宠物机器人自身的动作历史,随着“成长”而改变“特性”,就好象宠物机器人是一个真实的动物一样,长大并具有依赖于主人的饲养方式的特性。
(3-2)控制器122的处理
现在将描述控制器122执行的用于生成宠物机器人121的动作的处理。
如图21所示,与图12相应的部件使用相同的标号。执行用于生成宠物机器人121的动作的处理的控制器122的功能可以分为:传感器输入处理部分130,识别外部的特定状态;感情和本能模型部分131,基于传感器输入处理部分130的识别结果,表达感情和本能的状态;动作确定机构部分132,根据上述传感器输入处理部分130的识别结果确定随后的动作;动作生成机构部分133,根据由动作确定机构部分132确定的结果,使宠物机器人121实际表现动作;以及成长阶段控制机构部分134,控制宠物机器人121的“成长阶段”。
在这种情况下,传感器输入处理部分130基于分别由麦克风76、CCD摄像机77、触觉传感器78、电池传感器72和热传感器73提供的音频信号S10、图像信号S11、压力检测信号S12、电池残余量检测信号S13和热检测信号S14,识别周围环境和本身的状态,并同时基于从主体侧接口组件58中的耦合传感器80提供的外装检测信号S15、从外装侧接口组件60中的信息存储组件81读出的外装设定信息D1、以及用身体组件单元53中的信息读取组件75读出的表演信息D2,识别外装单元52是否存在以及为外装单元设置的各种设定信息。然后,传感器输入处理部分将识别结果作为状态识别信息D20通知感情和本能模型部分131和动作确定机构部分132。
接着,感情和本能模型部分131决定此时宠物机器人121的感情和本能,并将决定的感情和本能状态作为感情和本能状态识别信息D21发送给动作确定机构部分132,与在图12的第二实施例中描述的感情和本能模型部分91的情况一样。
当传感器输入处理部分130给出状态识别信息D20时,或者当已经执行了一段固定时间的当前动作时,动作确定机构部分132基于感情和本能模型部分131给出的感情和本能状态识别信息D21、以及用于事先由成长阶段控制机构部分134从存储在存储器122A用于动作和运动模型的“动作”的控制参数中分配的、动作和运动模型的一个“动作”的控制参数,确定比如“站立”、“卧倒”或“行走”的下一个动作。
具体地说,如图22所示,动作确定机构部分132使用称作概率自动机(probability automaton)的算法作为确定下一个动作的方式。所述概率自动机使用节点NODE0至NODEn表达状态,并使用基于为节点NODE0至NODEn彼此连接的弧线ARC1至ARCn设置的转换概率P1至Pn的概率确定将要进行的从节点NODE0到任一节点NODE1至NODEn的转换。
为弧线ARC1至ARCn设置的转换概率P1至Pn作为与“动作”有关的控制参数预先设置并存储在存储器122A中,用于每一“成长阶段”的每一动作和运动模型。
当传感器输入处理部分130给出状态识别信息D20时,或者比如当已经执行了一固定时期的当前状态(节点NODE0)时,动作确定机构部分132基于作为与当时选择的动作和运动模型的“动作”有关的控制参数的、弧线ARC1至ARCn的转换概率P1至Pn,利用概率自动机确定下一种状态(节点NODE1至NODEn),并将转换到上述状态的动作作为动作确定信息D22通知感情和本能模型部分131、动作生成机构部分133、以及成长阶段控制机构部分134。
动作生成机构部分133在控制器122的存储器122A中存有相应于上述的每一“成长阶段”的每一动作和运动模型的、用于“行走状态”、“动作”和“声音”的各种控制参数和控制程序。
当动作确定机构部分132给出动作确定信息D22时,动作生成机构部分133基于由成长阶段控制机构部分134从存储在存储器122A中的用于动作和运动模型的“行走状态”、“动作”和“声音”的各种控制参数和所必需的控制程序中、预先指定的动作和运动模型的各种控制参数和所必需的控制程序,进行具体的动作计划,以便执行动作确定机构部分132确定的动作。动作计划实际上计算为代表致动器54AA1至56AM执行该动作所需的旋转数量的数字值。
动作生成机构部分133基于该驱动计划为需要的致动器54AA1至56AM生成控制信号S20,并基于控制信号S20驱动和控制致动器54AA1至56AM,从而使宠物机器人121执行感情和本能模型部分131确定的动作。
当状态识别机构部分130基于分别由麦克风76、CCD摄像机77、触觉传感器78、电池传感器72和热传感器73提供的音频信号S10、图像信号S11、压力检测信号S12、电池残余量检测信号S13和热检测信号S14,识别出某些状态时,传感器输入处理部分130将该状态作为状态识别信息D23通知成长阶段控制机构部分134。
从状态识别机构部分130给到成长阶段控制机构部分134的状态不仅仅是如上所述提供给动作确定机构部分132的特定状态,而且包括与“轻拍”或“击打”不相应的、使用触觉传感器78的输入。
此外,成长阶段控制机构部分134在存储器122A中存有如图23(A)所示的、用作基于状态识别机构部分130给出的状态识别信息D23、提高各种状态的“成长阶段”的参考要素的上述成长要素的表(下文中称作第一成长要素表)135A,以及如图23(B)所示的用于对成长要素的累积频次计数的计数表(下文中称作第一成长要素计数表)136A。
当状态识别机构部分130给出状态识别信息D23时,成长阶段控制机构部分134基于第一成长要素表135A判断根据状态识别信息D23获得的状态是否为成长要素,并且当上述状态是成长要素时,成长阶段控制机构部分134将第一成长要素表136A中相应的计数值(经验值)加1。
此外,成长阶段控制机构部分134在存储器122A中存有如图24(A)所示的、用作提高基于如上所述的动作确定机构部分132给出的动作确定信息D22获得的动作的“成长阶段”的参考要素的上述成长要素的表(下文中称作第二成长要素表)135B,以及如图24(B)所示的用于对这些成长要素的累积频次计数的计数表(下文中称作第二成长要素计数表)136B。
当动作确定机构部分132给出动作确定信息D22时,成长阶段控制机构部分134基于第二成长要素表135B判断根据上述状态识别信息D20获得的动作是否为成长要素,并且当上述动作是成长要素时,成长阶段控制机构部分134将第二成长要素表136B中相应的计数值(经验值)加1。
当如上所述第一或第二成长因素计数表136A或136B中的计数值增加时,成长阶段控制机构部分134将独立于第一和第二成长因素计数表136A和136B之外提供的、用于判断“成长阶段”是否提高的计数器(下文中称作总经验值计数器)中的计数值加1,然后判断总经验值计数器的计数值是否已经达到作为终止当前“成长阶段”的条件而预先设置的计数值。
当总经验值计数器的计数值已经达到作为终止当前“成长阶段”的条件而预先设置的计数值时,成长阶段控制机构部分134基于第一和第二成长因素计数表136A和136B中的计数值,确定将要从当前动作和运动模型转换到的下一“成长阶段”的动作和运动模型,并将确定结果通知动作确定机构部分132和动作生成机构部分133。在初始状态下,成长阶段控制机构部分134将命令通知给动作确定机构部分132和动作生成机构部分133,以便选择“婴儿期”的动作和运动模型。
结果,动作确定机构部分132基于来自成长阶段控制机构部分134的信息,选择用于指定的动作和运动模型的“动作”的控制参数,从而如上所述使用该控制参数确定宠物机器人121的紧接当前动作的下一步动作。
此外,动作确定机构部分132基于来自成长阶段控制机构部分134的信息,选择用于指定的动作和运动模型的“行走状态”、“运动”和“声音”的各种控制参数和所必需的控制程序,从而使用该各种控制参数和所必需的控制程序驱动并控制致动器54AA1至56M和声音输出。
控制器122生成宠物机器人121的各种动作,以便能够如上所述在提高“成长阶段”必要时自动地动作。
(3-3)成长阶段控制处理过程RT2
成长阶段控制机构部分134根据如图25所示的成长阶段控制处理过程RT2控制宠物机器人121的“成长阶段”。
在接通电源之后,成长阶段控制机构部分134在步骤SP20开始成长阶段控制过程RT2,并在接下来的步骤SP21判断状态识别信息D23是否已经从状态识别机构部分130给出。
当在步骤SP21获得否定的结果时,成长阶段控制机构部分134前进到步骤SP22,并判断动作确定信息D22是否已经从动作确定机构部分132给出。当在步骤SP22获得否定的结果时,成长阶段控制机构部分134返回步骤SP21,并循环重复步骤SP21-SP22-SP21,一直到在步骤SP21或步骤SP22中获得肯定的结果为止。
当在步骤SP21获得肯定的结果时,成长阶段控制机构部分134前进到步骤SP23,并判断基于状态识别机构部分130给出的状态识别信息D23获得的状态是否为成长要素。
当在步骤SP23获得否定的结果时,成长阶段控制机构部分134返回步骤SP21;而当获得肯定的结果时,成长阶段控制机构部分134前进到步骤SP24,并分别将第一成长要素表135A中相应的计数值和总经验值计数器的计数值加1。
接着,成长阶段控制机构部分134前进到步骤SP25,并判断总经验计数值中的计数值是否达到作为当前“成长阶段”的终止条件而预先设置的计数值。
当在步骤SP25中获得否定的结果时,成长阶段控制机构部分134返回步骤SP21;而当获得肯定结果时,成长阶段控制机构部分134前进到步骤SP26,确定动作和运动模型要转换到的下一“成长阶段”的动作和运动模型,通知动作确定机构部分132和动作生成机构部分133该确定结果,并返回到步骤SP21。
当在步骤SP22获得肯定结果时,成长阶段控制机构部分134前进到步骤SP27,并判断基于动作确定机构部分132给出的动作确定信息D22获得的动作是否为成长要素。
当在步骤SP27获得否定的结果时,成长阶段控制机构部分134返回步骤SP21;而当获得肯定的结果时,成长阶段控制机构部分134前进到步骤SP24,分别将第二成长要素表135B中相应的计数值和总经验值计数器的计数值加1,前进到步骤SP25,并执行与已经在上面描述的处理相类似的处理。
(3-4)第三实施例的操作和效果
在具有上述结构的机器人系统120的宠物机器人121上装配期望的外装单元52时,用户电气和机械连接外装单元52中的外装侧接口组件60和身体组件单元53的主体侧接口组件58上。然后,基于从外装单元52中的信息存储组件81读出的外装设定信息D1,判断外装单元52是否是规则的外装单元,并且当获得肯定的结果时,从身体组件单元53中的信息读取组件75读出相应于上述外装设定信息D1的表演信息D2。
结果,当用户的刺激或外部的刺激给出而宠物机器人121自动动作时,宠物机器人121能够基于表演信息D2确定的预定的变化状态,以独立的模式在宠物机器人121的“成长阶段”改变动作和运动模型的转换速率。
当外装单元52具有幼稚外表如动画角色或宠物玩具外表时,在“成长阶段”动作和运动模型的转换速率比正常情况低;而当外装单元52具有象警察狗的外表那样的机智外表时,在“成长阶段”动作和运动模型的转换速率比正常情况高。
结果,在外装单元52呈现出幼稚外表的情况下,宠物机器人121能够就象在“婴儿期”和“少年期”逗留较长时间的真实动物一样动作和运动;而在外装单元52呈现出机智外表的情况下,宠物机器人121能够就象迅速达到“青年期”或“成年期”的过程的真实动物一样动作和运动。
上述配置使实现具有显著增强娱乐特性的机器人系统成为可能,这是由于:在外装单元52中设置了存储与外装单元52有关的外装设定信息D1的信息存储组件81;当外装单元52装配到宠物机器人121上时,利用身体组件单元53的信息读取组件75从为该外装单元52的类型而设置的表演信息D2中有选择地读出与上述外装设定信息D1相匹配的表演信息D2;以及按照基于上述表演信息D2确定的预定改变条件而改变宠物机器人121的成长阶段的升级速率,以便以独立的模式使表演信息D2反映在宠物机器人121的实际动作和运动上。
(3-5)其他实施例
应该指出,在前述实施例中,尽管将本发明应用于如图20所示的、包括使用成长模型的宠物机器人121的机器人系统120中,但是,本发明并不仅限于此,并可以应用于包括使用其他种类成长模型的宠物机器人的其他各种机器人系统中。
此外,在前述实施例中,尽管成长速度根据外装单元53的外表而变化,但是,本发明并不仅限于此,并且成长模型也根据外装单元53的外表而变化。
(4)第四实施例
(4-1)该实施例中机器人系统的结构
在图27中,参考标号140表示本实施例的作为整体的宠物机器人系统,配置为用预定的外装部分(下文中称作外装单元)142覆盖宠物机器人141的整个表面,可拆卸地将外装单元142装配到上述宠物机器人141上。
宠物机器人141实际上通过将腿组件单元144A至144D与身体组件单元143的右前、左前、右后和左后部分耦合、并将头组件单元145和尾巴组件单元146连接到身体组件单元143的前端和后端组成。
冷却风扇(未示出)设置在身体组件单元143中,在顶部表面143A和底部表面143B上形成排风口143AX和进风口143BX(图28),以便置于上述风扇的下面和上面。因此,通过当驱动风扇时使从进风口143BX吸入的空气穿过身体组件单元143从排风口143AX排出,将宠物机器人141配置成能够降低上述身体组件单元143的内部温度。
此外,在身体组件单元143的底部表面143B上设置接口组件(下文中称作主体侧接口组件)148,其上的连接器部件147由连接器半体147A和结合机构部件147B构成,如图28所示。
另一方面,如图27所示,外装单元142由具有与真实的狗相同的形状的用合成纤维制作的外装主体142A构成,并且在上述外装主体142A的背面的预定位置上设置接口组件(下文中称作外装侧接口组件)150,其上的连接器部件149由连接器半体149A和结合机构部件149B构成,以便于与设置在身体组件单元143上的主体侧接口组件148的连接器半体147A和结合机构部件147B相配合。
为了将外装单元142实际地装配到宠物机器人141上,装配外装单元142的外装主体142A以便覆盖宠物机器人14 1的整个表面;通过连接外装侧接口组件150上的连接器部件149和主体侧接口组件148上的连接器部件147,将连接器半体147A和149A相互电连接,并机械连接结合机构部件147B和149B。
(4-2)宠物机器人141和外装单元142的具体结构
在图29所示的机器人系统140中,在宠物机器人141的身体组件单元143中容纳的有:控制器160,控制宠物机器人141的所有动作;包括耦合传感器161和连接器部件147的主体侧接口组件148;从存储在由外部插入的记录介质(未示出)中读出控制程序的信息读取组件162;加速度传感器163;角速度传感器164;以及用作宠物机器人141的电源的电池(未示出)。
身体组件单元143中的加速度传感器163以几十毫秒为单位检测三个轴(X轴、Y轴和Z轴)方向上的加速度,并将检测结果作为加速度检测信号S30发送给控制器160。此外,角速度传感器164以几十毫秒为单位检测三个角(角R、角P和角Y)方向上的旋转角速度,并将检测结果作为角速度检测信号S31发送给控制器160。
在头组件单元145的预定位置设置用作“耳朵”的麦克风165、用作“眼睛”的CCD(电荷耦合器件)摄像机166、距离传感器167、触觉传感器168和用作“嘴”的扬声器169等。
头组件单元145中的麦克风165搜集由用户使用声音命令器(依据操作内容的不同而以音阶的形式给出声音的命令器)(未示出)以音阶的形式给出的诸如“行走”、“卧倒”、“追球”之类的命令声音,并发送由此获得的音频信号S32给控制器160。
此外,CCD摄像机166拾取面前的情况,并将获得的图像信号S33发送给控制器160;由红外距离传感器或类似的构成的距离传感器167测量到面前对象的距离,并将测量结果作为距离测量信号S34发送给控制器160。
另外,触觉传感器168设置在头组件单元145的顶部上,如从图27中所显见的,并检测用户通过诸如“轻拍”和“击打”之类的物理刺激施加的压力,以及将检测结果作为压力检测信号S35发送给控制器160。
另外,致动器144AA1至144AAk、144BA1至144BAk、144CA1至144CAk、144DA1至144DAk、145A1至145AL和146A1至146AM、以及电位计170AA1至170AAk、170BA1至170BAk、170CA1至170CAk、170DA1至170DAk、171A1至171AL和172A1至172AM设置在腿组件单元144A至144D的关节部分、腿组件单元144A至144D和身体组件单元143的耦合部分、头组件单元145和身体组件单元143的耦合部分、尾巴组件单元146和身体组件单元143的耦合部分等。
电位计170AA1至170AAk、170BA1至170BAk、170CA1至170CAk、170DA1至170DAk、171A1至171AL和172A1至172AM检测相应的致动器144AA1至144AAk、144BA1至144BAk、144CA1至144CAk、144DA1至144DAk、145A1至145AL和146A1至146AM的输出轴的旋转角,并将检测结果作为角检测信号发送给控制器160。
此外,身体组件单元143的主体侧接口组件148包括耦合传感器161以及上述的由连接器半体147A和结合机构部件147B构成的连接器部件147。耦合传感器161检测外装单元142与外装侧接口组件150的耦合条件,并将检测结果作为外装检测信号S36发送给控制器160。
控制器160基于由麦克风165、CCD摄像机166、距离传感器167、触觉传感器168、加速度传感器163、角速度传感器164和耦合传感器161等给出的音频信号S32、图像信号S33、距离测量信号S34、压力检测信号S35、加速度检测信号S30、角速度检测信号S31、外装检测信号S36等,判定周围环境状态以及用户命令或刺激是否存在。
根据该判定结果和事先输入的控制程序,控制器160确定下一步动作,并使宠物机器人采取各种动作,比如确定结果所要求的、通过驱动致动器144AA1至144AAk、144BA1至144BAk、144CA1至144CAk、144DA1至144DAk、145A1至145AL、以及146A1至146AM,上、下、左、右摆动头组件单元145、活动尾巴组件单元146、以及利用驱动腿组件单元144A至144D行走。
此时,在必要时控制器160给出预定的音频信号S37到扬声器169,从而使扬声器基于上述音频信号S37向外界输出声音,并打开或关闭或闪烁设置在宠物机器人141的“眼睛”位置的LED(发光二极管)(未示出)。
这样,宠物机器人141能够基于周围环境条件和控制程序等自动地动作。
另一方面,在外装单元142中,内置在外装主体142A的外装侧接口组件150包括信息存储组件173和上述的连接器部件149,并且上述的连接器部件149由连接器半体149A和结合机构部件149B构成。在外装侧接口组件150中的结合机构部件149B配置为能够可拆卸地与主体侧接口组件148中的结合机构部件147B装配。
在外装侧接口组件150中的信息存储组件173比如包括诸如ROM(随机存取存储器)之类的非易失性存储器,事先为分配给外装单元142的类型的每一外装号存储代表生产厂家ID的信息、代表比如产品ID、批号等由生产厂家确定的制造许可信息、以及验证外装单元的加密信息等(下文中称作外装设定信息D30)。
此外,在将要插入到设置在身体组件单元143的信息读取组件162中的记录介质上事先存储的是,根据外装设定信息D30的内容为上述每一外装号设置的、用于确定宠物机器人141的表演的节目信息(下文中称作表演信息)D31和代表每一外装的质量分布的信息(下文中称作质量分布信息)D32。
此外,在信息读取组件162中事先存储与处于四条腿伸出、没有外装的标准姿势下的宠物机器人重心有关的信息(下文中称作初始重心位置信息)D33。
当外装侧接口组件150与主体侧接口组件148耦合时,设置在上述外装侧接口组件150上的连接器部件149的连接器半体149A和结合机构部件149B与设置在主体侧接口组件148上的连接器部件147的连接器半体147A和结合机构部件147B电气和机械连接。
具体地说,主体侧接口组件148和外装侧接口组件150的结构如图30所示。
在主体侧接口组件148中,用于地线L1、电源线L2、测量线L3和信号线L4的连接端子A1至A4设置在连接器部件147的连接器半体147A上,另一端接地的负载电阻R1的一端在测量线L3上连接在连接端子A3和耦合传感器161之间。
在外装侧接口组件150中,用于地线L5、电源线L6、测量线L7和信号线L8的连接端子A5至A8设置在连接器部件149上,负载电阻R2设置在从电源线L6引出的测量线L7上,上述负载电阻R2的末端连接到信息存储组件171和连接端子A7上。
当设置在外装侧接口组件150的连接器部件149上的连接器半体149A与设置在主体侧接口组件148的连接器部件147上的连接器半体147A实际连接时,使在连接器半体147A上的用于地线L1、电源线L2、测量线L3和信号线L4的连接端子A1至A4与连接器半体149A上的用于线L5至L8的相应连接端子A5至A8接触并导通。
此时,经由彼此导通的外装侧接口组件150和主体侧接口组件148之间的连接器半体149A和147A,主体侧接口组件148中的耦合传感器161检测连接到电源线L6的测量线L7上的负载电阻R2的电压值,从而判定主体侧接口组件148与外装侧接口组件150的耦合状态(耦合状态下的“H”电平或分离状态下的“L”电平。)
结果,控制器160仅当耦合传感器161获得肯定结果时、读出存储在外装侧接口组件150的信息存储组件173中的外装设定信息D30,基于上述外装设定信息D30从插入到身体组件单元143的信息读取组件162中的记录介质上读出表演信息D31,并根据表演信息D31确定宠物机器人141的动作,从而驱动该确定的动作所需要的致动器144AA1至146AM、并在必需时使扬声器169输出声音。
如上所述,当装配了外装单元142时,根据存储在上述外装单元142的外装侧接口组件150中的信息存储组件173中的外装设定信息D30、以及基于上述外装设定信息D30从插入到身体组件单元143的信息读取组件162中的记录介质上读出的表演信息D31,宠物机器人141能够自动地改变具有个性的动作。
除了上述的结构之外,在使宠物机器人141动作阶段,控制器160还基于加速度传感器163、角速度传感器164、CCD摄像机166和距离传感器167提供的加速度检测信号S30、角速度检测信号S31、图像信号S33、距离测量信号S34等,在装配外装单元142之前和之后校正宠物机器人141的重心位置的误差(也就是说,修正在重心影响下的控制参数的标准值)。
现在将描述控制器160执行的处理。首先将描述用于宠物机器人141行走控制的各种参数。在宠物机器人141的情况下,基于存储在身体组件单元143的信息读取组件162中的、用22个参数描述的控制程序实现行走控制,如图31所示。
这些参数包括用于确定标准行走姿势的参数、用于确定腿组件单元144A至144D的活动的参数、以及用于确定身体的整个活动的参数。这些参数详述如下。
首先,在处于标准姿势、所有四条腿都伸出的宠物机器人141的身体组件单元143中设置中心坐标,如图32所示。当相对于绝对坐标系统设置中心坐标时,宠物机器人利用处在标准行走姿势中弯曲的腿组件单元144A至144D而屈曲,从而上述的中心坐标在绝对坐标系统中的上下方向和前后方向上移动。移动值用参数“body center X”和“body center Y”控制。
在该标准行走姿势中,身体组件单元143不仅平移,而且前倾或后倾,该倾斜用控制参数“body pitch”控制。此外,腿组件单元144A至144D的触地位置也影响标准行走姿势的行走。为了减少参数数量,对于前腿和后腿组件单元144A至144D在跨脚方向(astride direction)上的偏移设定为同一值,并用参数“all legs y”控制。
此外,前腿组件单元144A、144B和后腿组件单元144C、144D在前后方向上的偏移分别用参数“front legs z”和“rear legs z”控制。这些参数用于标准行走姿势。
另一方面,用于控制腿组件单元144A至144D的活动的控制参数如下所述。图33示出一条腿组件单元144A到144D的简单化的活动。
首先,将用于确定行走步幅长度的参数确定为“步幅长度”。此外,在摆腿时抬起腿组件单元144A至144D的高度和时间分别用参数“swingheight”和“swing time”控制。
“swing multi”是代表在腿的一个循环中触地时间和摆腿时间的比例的参数,该参数控制每一条腿组件单元144A至144D的触地时间和摆腿时间。在用不同的算法执行比如从匐地行走形式(静态行走)向小跑行走形式(动态行走)或蹒跚行走形式(动态行走)转换时,该参数还能用作控制腿组件单元144A至144D的抬起方式的参数。
行走时,通过将相对前后左右的平移或诸如摇摆(rolling)、颠簸(pitching)和偏转(yawing)的旋转活动添加到宠物机器人141的身体组件单元143的活动中,可以改善行走安全和速度。这些活动用参数“ample bodyx”、“ample body y”、“ample body z”、“ample roll”、“ample pitch”和“ampleyaw”控制。
“mingain”、“shift”和“length”是用于确定与用作宠物机器人141的行走动作的致动器(伺服电机)144AA1至146AM的PID控制增益有关的控制。通过给出这些软PID增益、以便使用这些参数吸收触地时的震动,获得平稳行走的可能性。实际上使用下面的公式仅控制PID增益中的P增益:
gain(增益)=gmin+(gmax-gmin)×(1-sin(leg phase-shift))……(1)
“leg phase”具有[shift,+length]的范围值。也就是说,P增益具有跟踪在参数“shift”给定的位置处最大的正弦曲线和相位的、从“gmin”到“gmax”变化的值。但是,“gmax”是预先给定的,并配置相位以便在0[°]时腿组件向前抬、在180[°]时向后抓地、以及在360[°]时返回初始位置。
“L-R”和“F-H”是代表用于行走动作的一个循环的、采用右前腿组件单元144A作为基准、从开始摆动每一条腿组件单元144A到144D直到开始摆动左前腿组件单元144B或右后腿组件单元144D的时间比例的参数,如图34和35所示,在静态行走(匐地行走形式)、准-行走、以及动态行走(小跑行走形式)情况下的该比例分别示于图35(A)、35(B)、35(C)中。
如图36(A)所示,当加在左、右前腿组件单元和左、右后腿组件单元144A至144D的触地位置的负载、以及处于所有四条腿都伸出并且没有装配外装单元142的标准姿势的、宠物机器人141的上述中心坐标附近的方向矢量分别用mFL、mFR、mRL、mRR和rFL、rFR、rRL、rRR表示时,代表宠物机器人141的重心的矢量R0用下式表达:
如图36(B)所示,当外装单元142的质量用M表示时,具有装配到宠物机器人141上的外装单元142的、加在左前、右前、左后、右后腿组件单元144A至144D上的负载mFL’、mFR’、mRL’、mRR’用下面的公式表达其关系:
(mFL’+mFR’+mRL’+mRR’)=M+(mFL+mFR+mRL+mRR) ……(3)
相应地,代表具有外装单元142的宠物机器人141的重心位置的矢量R1用下式表达:
从而,装配外装单元142之前和之后的宠物机器人141的重心位置误差矢量E用下式表达:
E=R1-R0 ……(5)
通过修正上述与行走有关的参数以便使误差矢量E的值为0,在装配外装单元142后,宠物机器人141能够平衡地行走,就象装配外装单元142之前一样。
举例来说,在误差矢量E=(0,0,5)的情况下,也就是说,当装配外装单元142之后宠物机器人141的重心位置在Z轴的方向上偏离了5毫米时,可以通过修正与行走相关的参数(“body center z”、“front legs z”和“rear legsz”)控制行走,以便处于稳定状态。
(4-2)装配外装时的校准处理过程RT3
当实际装配外装单元142时,宠物机器人141中的控制器160进入如图37所示的外装装配处理过程RT3,从步骤SP30开始,并且当在随后的步骤SP31监视到在身体组件单元143上主体侧接口组件148中的耦合传感器161所检测的状态时,前进到步骤SP32,基于上述耦合传感器161的检测结果判断外装单元142中的外装侧接口组件150是否已经被电气和机械地连接。
在该步骤SP32,控制器160一直等到肯定的结果后前进到步骤SP33,从在外装单元142上的外装侧接口组件150中的信息存储组件173中读出外装设定信息D30,前进到步骤SP34并提取包括在上述外装设定信息D30中的外装号。
接着,在步骤SP35,控制器160从身体组件单元143中的信息读取组件162中读出相应于上述外装号的质量分布信息D32、以及读出设置在宠物机器人141中的初始重心位置信息D33,然后前进到步骤SP36。
在该步骤SP36,控制器160基于质量分布信息D32和初始重心位置信息D33,计算与处于装配有外装单元142并且四条腿都伸出的标准姿势的宠物机器人141的重心位置有关的信息(下文中称作重心位置信息),并前进到步骤SP37。
在该步骤SP37,控制器160判断计算的装配外装单元142之后的重心位置信息是否与初始重心位置信息D33一致,当获得否定结果时前进到步骤SP38,并且使宠物机器人141基于表演信息D31执行一段固定时间的标准姿势(所有四条腿都伸出的姿势,充电时的坐姿等)和标准动作(行走动作、坐下动作等),分析分别由加速度传感器163、角速度传感器164、CCD摄像机166和距离传感器167提供的加速度检测信号S30、角速度检测信号S31、图像信号S33和距离测量信号S34等。
相反,当在步骤SP36中获得肯定结果时,表明在装配外装单元142之前和之后,处于所有四条腿伸出站立的标准姿势的宠物机器人141的重心位置没有变化,控制器160直接前进到步骤SP39,终止校准处理过程RT3。
接着,控制器160前进到步骤SP40,基于从传感器163、164、166和167获得的检测信号S30、S31、S33和S34的分析结果,判断根据表演信息D31处于标准姿势和标准动作的平衡状态是否满足预定的标准值。在这种情况下,控制器160基于上述初始重心位置信息D33为每一个标准姿势和标准动作计算每一个标准值。
当在该步骤SP40获得否定的结果时,表明在基于表演信息D31的标准姿势和标准动作之中存在不满足标准值的姿势或动作,控制器160前进到步骤SP41,计算不满足标准值的姿势和/或动作的误差,并前进到步骤SP42。
在该步骤SP42中,控制器160计算不满足上述标准值的姿势和/或动作的误差,并再次返回步骤SP38,重复类似于上面叙述的处理的处理(该种校正在下文中将称作通过校准的校正)。
另一方面,当在步骤SP40中获得肯定的结果时,表明基于表演信息D31的所有标准姿势和标准动作满足标准值,控制器160直接前进到步骤SP39,终止上述校准处理过程RT3。
因此,控制器160能够使装配有外装单元142的宠物机器人141自动执行基于表演信息D31的动作和运动,同时平衡宠物机器人141处于与装配外装单元142之前的状态相似的状态。
(4-3)第四实施例的操作和效果
当在具有上述结构的机器人系统140中的宠物机器人141上装配用户期望的外装单元142时,宠物机器人141基于从外装单元142中获得的外装设定信息D30,计算装配外装单元142之后存储在身体组件单元143的信息读取组件162中的质量分布信息D32、以及处于标准姿势的宠物机器人141的重心位置信息。
当装配外装单元142之前的宠物机器人141的重心位置与装配外装单元142之后的宠物机器人141的重心位置不同时,控制器160在使宠物机器人141采取基于表演信息D31的标准姿势和标准动作的同时,比较宠物机器人141的姿势和/或动作与装配外装单元142之前的姿势和/或动作,并且当出现误差时,控制器160校正该误差,从而即使在装配外装单元142之后宠物机器人141的重心位置改变,控制器160也能够使装配外装单元142之后的宠物机器人141较好平衡地自动动作和活动,就象处于装配外装单元142之前的状态一样。结果,机器人系统140容易地使具有各种质量分布的外装单元142装配到宠物机器人141上。
配置具有上述结构的机器人系统,装配外装单元142之后,在使宠物机器人141采取标准姿势和标准动作的同时,计算宠物机器人141的重心位置与装配外装单元142之前宠物机器人141的重心位置之间的误差,并校正该误差(即,执行通过校准的校正),从而即使在装配具有不同质量分布的外装单元142时,也能够防止宠物机器人141的动作和运动失去平衡,并使简单地安装各种外装单元142到宠物机器人141上、以及实现能够明显改善娱乐性能的机器人系统成为可能。
(5)第五实施例
(5-1)第五实施例中的机器人系统180的结构
图38示出第五实施例的机器人系统180,其中相应于图27中的部件的部件使用相同的标号。除了外装单元142的质量分布信息D32没有为每一个外装单元142的外装号存储在、将要插入到设置在宠物机器人181的身体组件单元143中的信息读取组件162(图28)的记录介质,以及没有宠物机器人141的质量分布信息D32而执行前述的校准处理之外,如上述第四实施例那样配置宠物机器人181。
(5-2)外装装配时的校准处理过程RT2
当实际装配外装单元142时,宠物机器人181中的控制器182(图29)进入如图39所示的外装装配处理过程RT4,从步骤SP50开始,并且在随后的步骤SP51,控制器182在使宠物机器人181基于表演信息D31执行一段固定时间的标准姿势和标准动作的同时,分析分别由加速度传感器163、角速度传感器164、CCD摄像机166和距离传感器167提供的加速度检测信号S30、角速度检测信号S31、图像信号S33和距离测量信号S34等。
接着,控制器182前进到步骤SP52,从身体组件单元143的信息读取组件162中读出设置在宠物机器人181中的初始重心位置信息D33,并前进到步骤SP53。
在该步骤SP53,控制器182根据从传感器163、164、166和167获得的检测信号S30、S31、S33和S34的分析结果,判断基于表演信息D31处于标准姿势和标准动作的平衡状态是否满足预定的标准值。在这种情况下,控制器182基于上述初始重心位置信息D33为每一个标准姿势和标准动作计算每一个标准值。
当在该步骤SP53获得否定的结果时,表明在基于表演信息D31的标准姿势和标准动作之中存在不满足标准值的姿势和/或动作,控制器182前进到步骤SP54,计算不满足上述标准值的姿势和/或动作的误差,并前进到步骤SP55。
在该步骤SP55中,控制器182计算不满足上述标准值的姿势和/或动作的误差,并再次返回步骤SP51,重复类似于上面叙述的处理的处理(该种校正在下文中将称作通过校准的校正)。
另一方面,当在步骤SP53中获得肯定的结果时,表明基于表演信息D31的所有标准姿势和标准动作满足标准值,控制器182直接前进到步骤SP56,终止上述校准处理过程RT4。
因此,控制器182能够使装配有外装单元142的宠物机器人181自动执行基于表演信息D31的动作和运动,同时平衡宠物机器人181处于与装配上述外装单元142之前的状态相似的状态。
(5-3)第五实施例的操作和效果
具有上述结构的机器人系统180被配置为,当用户在宠物机器人181上装配期望的外装单元142时,在使宠物机器人181采取基于表演信息D31的标准姿势和标准动作的同时,比较宠物机器人181的姿势和动作与装配外装单元142之前的姿势和动作,并且如果存在误差则校正该误差,从而即使在装配外装单元142之后宠物机器人181的重心位置改变,也能够使装配外装单元142之后的宠物机器人181较好平衡地自动动作和活动,就象装配外装单元142之前一样。
结果,机器人系统180使方便地应用各种质量分布的外装单元142到宠物机器人181上成为可能。
此外,由于不需要在身体组件单元143的信息读取组件162中为每一个外装单元预先存储与质量分布有关的信息,所以即使一个外装单元是新制造的,也能够方便地应用到宠物机器人181中。
具有上述结构的机器人系统180被配置为,装配外装单元142之后,在使宠物机器人181采取标准姿势和标准动作的同时,计算宠物机器人181的重心位置与装配外装单元142之前宠物机器人181的重心位置之间的误差,并校正该误差(即,执行通过校准的校正),从而即使在装配具有不同质量分布的外装单元142时,也能够防止宠物机器人181的动作和运动失去平衡,并使简单地安装各种外装单元142到宠物机器人181上、以及实现能够明显改善娱乐性能的机器人系统成为可能。
(5-4)其他实施例
应该指出,在上述实施例中,尽管将本发明应用于如图27所示的、四足行走类型的宠物机器人141、181中,但是,本发明并不受限于这些实施例,本发明可以广泛应用于具有其他配置的各种机器人装置,只要该机器人装置具有表现预定动作的可活动组件。
此外,在上面描述的实施例中,尽管将包括用合成纤维制成的、具有与真正的狗的表面皮肤相似的形状的外装主体142A组成的外装单元142用作可拆卸地装配到如图27所示的宠物机器人141、181上的外装,但是本发明并不受限于这些实施例,象其他动物(猫、浣熊、马、猴子、人等等)的表皮的形状可以用其他各种材料(毛皮、纺织品、陶瓷、合成树脂、金属等等)制作。
此外,尽管将由单片模压的合成纤维组成的、具有与动物的表皮相似的形式的外装主体142A用作组成外装单元142的外装主体组件142A,但是本发明并不仅受限于该外装主体组件142A,可以单独设置与宠物机器人141的部件相对应的、用金属制作(未示出)的多个外装部件。在这种情况下,多个外装部件包括头组件、身体组件、腿组件和胫组件,以及上述设置在身体组件上的外装侧接口组件150。另外,除了金属之外的各种材料(合成纤维、皮毛、纺织品、陶瓷、合成树脂等)都可以广泛地用作外装部件的材料。
此外,在上面描述的第四和第五实施例中,尽管当将外装单元142装配到宠物机器人141、181时,在宠物机器人141、181的身体组件单元143中用作控制装置的控制器160、182,基于分配给上述外装单元142的外装设定信息D30确定相应于上述外装设定信息D30中的外装号的表演信息D31,但是本发明并不仅限于这些实施例,可以基于外装设定信息D30改变表演信息D31的内容。
此外,尽管已经对将代表外装号和制造许可的信息应用为外装设定信息D1的情况进行可描述,但是该外装设定信息也可以包括有关外装单元的类型、形式、材料、质量分布、硬度和热传导的信息以及有关上述外装单元142的个性、活动和动作的信息。在这种情况下,可以将用于宠物机器人141、181中作为控制装置的控制器160、182配置为:仅基于使用信息读取组件165读出的外装设定信息D31确定宠物机器人141、181的动作,驱动确定的动作所必需的致动器144AA1至146AM,以及在需要时使扬声器169发出声音。
此外,在上面描述的第四和第五实施例中,当外装单元142装配到宠物机器人141、181上时,尽管将外装侧接口组件150和主体侧接口组件148配置为用于电气和结构连接外装单元142与宠物机器人141、181的部件,但是本发明并不受限于这些实施例,可以广泛应用其他各种配置,只要能够可拆卸地连接外装单元即可。
此外,在上面描述的实施例中,尽管将信息存储组件173设置在外装单元142中、以及将分配给外装单元142的固有信息存储在上述信息存储组件173中,但是本发明并不受限于这些实施例,可以将相应于固有信息的特征项(商标、条形码、预定的凹凸图案、具有特殊形式的突出端)设置在连接宠物机器人141、181的位置,而不用在外装单元142中设置信息存储组件173,以便能够通过读取位于连接宠物机器人141、181的位置处的特征项识别固有信息。另外,作为存储部件,不仅可以是存储固有信息的非易失性存储器,而且可以是无源元件,如电阻、和磁存储固有信息的元件,以及可以将发光二极管(LED)的发光模式用作固有信息。
此外,对于前面描述的第四和第五实施例中宠物机器人141、181的控制器160、182,信息读取组件162从外部插入的记录介质(未示出)中读取表演信息D31,并将该信息发送给控制器160、182,但是,本发明并不受限于此,可以使用接收设备作为信息读取部件,以接收和下载外部给出的表演信息D31。
此外,在前述第四和第五实施例中,尽管在宠物机器人141、181中设置为控制装置的控制器160、182基于从配置作为误差检测装置的加速度传感器163、角速度传感器164、CCD摄像机和距离传感器167获得的检测信号S30、S31、S33和S34的分析结果,在使宠物机器人141、181执行基于根据外装单元142给出的外装设定信息D30获得的表演信息D31的标准姿势和标准动作的同时,判断该标准姿势和该标准动作是否满足根据初始重心位置信息D33确定的标准值,但是本发明并不受限于这些实施例,可以使用具有其他不同配置的控制装置,只要作为控制器160、182、能够检测由外装单元142引起的各分量单元(各可活动组件)143至146对动作的影响总量即可。
在这种情况下,尽管使用上面描述的传感器163、164、166和167,计算由于外装单元142引起的各分量单元(各可活动组件)143至146对动作的影响总量作为装配外装单元142前后之间的控制误差,并校正上述误差,但是本发明并不受限于这些实施例,可以使用比如电位计170AA1至172AM和触觉传感器168之类的其他各种传感器、检测装配外装单元142之后各分量单元(各可活动组件)143至146对动作的影响总量。
此外,在前述的第四和第五实施例中,尽管用于基于表演信息D31的标准姿势和标准动作的标准值是由设置作为控制装置控制器160、182根据设置在宠物机器人141、181中的初始重心位置信息D33设置的,但是本发明并不仅限于这些实施例,可以预先为每一外装单元142设置用于基于表演信息D31的标准姿势和标准动作的标准值。
此外,在前述的第四和第五实施例中,尽管包括在外装设定信息D30中的质量分布信息D32是根据初始重心位置信息D33设定的,以便比较平衡地活动宠物机器人141、181,但是本发明并不仅限于此,可以通过判断关于整个宠物机器人141、181和每一个单元的形式、每一个致动器144AA1至146AM的可活动范围、连结长度、以及限制的自由度的信息,活动宠物机器人141、181的每一个单元而不受由外装单元142引起的影响,只要当外装单元142装配到宠物机器人141、181时,作为控制装置的控制器160、182驱动每一个分量单元(可活动组件)143至146,检测装配外装单元142之后对动作的影响总量,并且当需要时能够基于检测结果改变表现模式的动作即可。
在这种情况下,在装配外装单元142之后,控制器160、182在使宠物机器人141、181执行标准姿势和标准动作的同时,可以基于相应电位计170AA1至172AM的值的检测结果计算每一个致动器144AA1至146AM的可活动范围,并且每一个致动器144AA1至146AM可以在该可活动范围内活动。
此外,可以通过判断有关每一条腿组件单元144A至144D的转动惯量、CCD摄像机166的聚焦特性和视野范围、麦克风165的听觉特性、以及触觉传感器168的触觉特性,比较平衡地活动宠物机器人141、181,以及活动宠物机器人141、181的每一个外装单元而不受由外装单元142造成的影响。
此外,在前述第四和第五实施例中,当外装单元装配到宠物机器人141、181时,尽管在身体组件单元143中用作控制装置的控制器160、182用于驱动致动器144AA1至146AM(可活动组件),以便宠物机器人141、181处于预定的姿势和动作(动作模式和行走模式),但是本发明并不仅限于此,可以使用具有其他不同配置的控制装置,只要能够使宠物机器人141、181执行预定的姿势和/或动作即可。
(6)第六实施例
(6-1)该实施例中机器人系统的结构
在图40中,参考标号190表示该实施例中作为整体的机器人系统,该系统包括机器人机身191和装配在机器人机身191上的外装单元192。
在机器人机身191中,腿组件单元194A至194D与身体组件单元193的右前、左前、右后和左后部分相连,并在身体组件单元193的前端连接头组件单元195。
在这种情况下,身体组件单元193包含:控制器200,控制机器人机身191的所有动作;电池201,用作机器人机身191的电源;以及内部传感器组件204,由电池传感器202和热传感器203构成。
此外,设置在头组件单元195的有:用作机器人机身191的“眼睛”的CCD摄像机205、用作“耳朵”的麦克风206、由触觉传感器207和距离传感器208组成的外部传感器组件209、以及用作“嘴”的扬声器等。
另外,具有一定自由度的致动器2111至211n设置在腿组件单元194A至194D的关节部分、腿组件单元194A至194D和身体组件单元193的耦合部分、头组件单元195和身体组件单元193的耦合部分。
头组件单元195上的CCD摄像机205拍摄周围环境条件并发送给控制器200。麦克风206搜集由用户使用声音命令器(未示出)以音阶的形式给出的诸如“行走”、“卧倒”、“追球”之类的命令声音,并发送由此获得的音频信号S40B给控制器200。
设置在从图40中可以显见的头组件单元195的顶部的触觉传感器207检测接收自用户的诸如“轻拍”和“击打”之类的物理刺激的压力,并将检测结果作为压力检测信号S40C发送给控制器200。距离传感器208测量到面前对象的距离,并将测量结果作为距离测量信号S40D发送给控制器200。
此外,电池传感器201检测电池的残余量并将检测结果作为电池残余量检测信号S41A发送给控制器200。热传感器203检测机器人机体191内部的热,并将检测结果作为热检测信号S41B发送给控制器200。
控制器200基于由CCD摄像机205、麦克风206、外部传感器组件209中的触觉传感器207和距离传感器208给出的图像信号S40A、音频信号S40B、压力检测信号S40C、距离测量信号S40D(下文中将这些信号简称为外部传感器信号S40),以及基于内部传感器组件204中的电池传感器202和温度传感器203给出的电池残余量检测信号S41A和热检测信号S41B(下文中将这些信号简称为内部传感器信号S41),判断外围扎和机器人机体193的内部状态、来自用户的命令、以及来自用户的刺激。
根据该判定结果和事先存储在存储器200A中的控制程序,控制器200确定下一步动作,并驱动下一步动作所必需的致动器2111至211n,使机器人机体采取诸如上、下、左、右摆动头组件单元195、以及通过驱动腿组件单元2111至211n行走之类的动作。
另外,在这个时候,在必要时控制器200给出预定的音频信号S42到扬声器210、以使其向外发出基于上述音频信号S42的声音。
如上所述,机器人机身191能够基于周围情况、内部状态、来自用户的命令和刺激自动地动作。
另一方面,外装单元192包括脸外装组件200A、头外装组件200B、腰外装组件221A、胁腹外装组件221B、胸外装组件222、四对腿外侧外装组件225A至225B和腿内侧外装组件226A至226D、以及脚底外装组件227A至227D。
在这种情况下,可以将脸外装组件220和头外装组件221装配到机器人机体191的头组件单元195的前部和后部。腰外装组件221A和胁腹外装组件221B可以装配在机器人机体191的身体组件单元193的顶部和底部。胸外装组件222可以装配在机器人机体191的身体组件单元193的胸部,腿外侧外装组件225A至225B、腿内侧外装组件226A至226D和脚底外装组件227A至227D可以装配在机器人机体191的腿组件单元194A至194D的外侧、内侧和底部。
由此,在脸外装组件220和头外装组件221的预定位置设置预定尺寸的孔220A、220B、221A1、221A2,用于装配机器人机体191的CCD摄像机205、距离传感器208、麦克风206。从而,在使用CCD摄像机205、麦克风206距离传感器208通过孔220A、220B、221A1、221A2拍摄周围情况、搜集外部声音和测量到面前对象的距离时,脸外装组件220和头外装组件221不会妨碍机器人机体191。
应该指出,在本实施例中,相应于距离传感器208的脸外装组件220上的孔220B用半透明组件(下文中称作罩盖)228覆盖,用于防止用户由于距离传感器208的距离测量部分外露而产生奇怪的感觉。
除了该配置外,在机器人系统190的外装单元192的头外装组件中设置比如EEPROM(电可擦除的可编程ROM)的非易失性存储器230。该存储器230存储有关用于识别外装单元192的类型的外装类型信息、有关代表能够将外装单元192安装到的机器人机体191的类型的对象骨架类型的信息、代表连接到随后将描述的头外装组件220的连接器组件231中的每一个外部端子上的设备的端口信息、作为相应于为每一个外装单元192预先设置的特征的、预定校正信息的特征信息、由用于根据外装单元192的罩盖228的光学特性执行预定校正处理的校正信息构成的罩盖信息、以及有关外装单元192的各种信息(下文中称作外装信息),比如包括各种校正信息的外装物理信息,当装配外装单元192时该校正信息用作与机器人机体191的动作相关的校正参数。
此外,在机器人系统190中,具有多个外部连接器端子的连接器组件(下文中称作外装侧连接器组件)231设置在头外装组件220内部的预定位置,以及设置在机器人机体191的预定的相应位置的是具有多个外部端子的连接器组件(下文中称作机器人侧连接器组件)232。当以预定状态将头外装组件220安装到机器人机体191时,外装侧连接器组件231和机器人侧连接器组件232相互电连接,以便机器人机体191中的控制器200能够通过外装侧连接器组件231和机器人侧连接器组件232从头外装组件221的存储器230中读出外装信息。
当接通电源时,机器人机体191中的控制器200首先通过机器人侧连接器组件232访问外装单元192中的存储器230。在控制器200不能读出外装信息的情况下(比如,在没有装配外装单元的情况下),不做任何事情;相反,在能够读出外装信息的情况下,控制器200根据读出的外装信息,检查安装的外装单元192的类型是否是与机器人机体191的类型相对应的外装单元192、以及那种类型的设备连接到了外装侧连接器组件231的每一个端口,并且还基于罩盖信息和外装的物理信息改变相应的参数。
接着,机器人机体191的控制器200按照如上改变后的参数控制机器人机体191的动作。通过这种方式,在机器人系统190中,机器人机体191依据安装到机器人机体191上的外装单元192的类型改变动作。
(6-2)控制器200的处理
下面将描述控制器200执行的用于生成机器人机体191的动作的处理。
控制器200根据存储在存储器200A中的控制程序执行前述的各种处理。控制器200的处理从功能上可以分为:状态识别部分240;感情和本能模型部分241,基于状态识别部分240的识别结果确定感情和本能;动作确定部分242,根据状态识别部分240的识别结果以及感情和本能部分241的输出确定下一步动作;动作生成部分243,根据由动作确定部分242确定的结果,使机器人机体191执行(表现)动作。
在下文中将详细描述状态识别部分240、感情和本能模型部分241、动作确定部分242和动作生成部分243。
(6-2-1)状态识别部分240的结构
状态识别部分240基于来自外部传感器组件209(图41)的外部传感器信号S40、以及来自内部传感器组件(图41)的内部传感器信号S41,识别具体状态,并将识别结果作为状态识别信息S50通知感情和本能模型部分241以及动作确定部分242。
实际上,状态识别部分240总是检测外部传感器组件209的CCD摄像机205(图41)提供的图像信号S40A,并且当基于图像信号S40A检测到比如“某东西圆且红”或“一个对象”时,意识到“这儿有一个球”或“这儿有一个障碍物”,并通知感情和本能模型部分241和动作确定部分242该识别结果。
另外,此时状态识别部分240基于外部传感器组件209的距离传感器208给出的距离检测信号S40D获取到对象的距离,并通知感情和本能模型部分241和动作确定部分242该检测结果。
另外,状态识别部分240总是检测麦克风206(图41)给出的音频信号S40B,并且当基于该音频信号S40B识别出比如“行走”、“卧倒”和“追球”的命令输入时,通知感情和本能模型部分241和动作确定部分242该识别结果。
此外,状态识别部分240总是检测触觉传感器207(图41)给出的压力检测信号S40C,并且当基于该压力检测信号S40C检测到超出预定阈值且施加了很短时间(比如,少于2秒)的压力时,意识到“被击打(被训斥)”了,而另一方面,当检测到没有超出预定阈值且施加了较长时间(比如,大于2秒)的大面积压力时,则意识到“被轻拍(被表扬)”了,并通知感情和本能模型部分241和动作确定部分242该识别结果。
此外,状态识别部分240总是检测内部传感器组件204的热传感器203(图41)给出的热检测信号S41B,并且当基于该热检测信号S41B检测到超出预定温度的热时,意识到“内部温度上升”并通知感情和本能模型部分241和动作确定部分242该识别结果。
(6-2-2)感情和本能模型部分241的结构
感情和本能模型部分241具有代表6种感情“欢乐”、“悲伤”、“惊奇”、“恐慌”、“憎恨”和“愤怒”的强度的参数。感情和本能模型部分241基于状态识别部分240作为状态识别信息S50给出的比如“被击打”和“被轻拍”的具体识别结果、代表下面将要描述的动作确定部分242给出的确定的输出动作的动作确定信息S51、通过时间等,顺序更新每一感情的参数。
具体地说,假定根据基于状态识别信息S50获得的识别结果以及关于该感情的动作确定信息S51的输出动作的程度(预先设定)、其他感情给出的压力和刺激的程度、通过时间由预定的公式计算的在感情中变化的总量为ΔE[t],用于当前感情的参数为E[t],代表基于识别结果等的感情变化比例的系数为ke,感情和本能模型部分241按照下式计算用于下一循环的感情的参数E[t+1]。
E[t+1]=E[t]+ke×ΔE[t] ……(6)
接着,感情和本能模型部分241通过用计算的结果替换当前感情的参数E[t]更新感情的参数。应该指出的是,对于每一识别结果和每一输出动作必须更新的感情的参数是事先定好的。比如,当得出“被击打”的识别结果时,用于感情“愤怒”的参数增大,而用于感情“欢乐”的参数减小。此外,当得出“被轻拍”的识别结果时,用于感情“欢乐”的参数增大,而用于感情“悲伤”和“愤怒”的参数减小。
与该结构类似,感情和本能模型部分241具有代表5种欲望“运动欲”、“依恋”、“好奇心”、“食欲”和“休息”的参数。并且感情和本能模型部分241根据状态识别部分240的识别结果、通过时间、以及动作确定部分242的指示更新这些参数。
具体地说,对于“运动欲”、“依恋”和“好奇心”,假定基于机器人机体191的输出动作、通过时间、识别结果等按照预定公式计算的欲望变化的总量为ΔI[k],用于当前欲望的参数为I[k],代表欲望强度的系数为ki,则感情和本能模型部分241按照下式计算用于下一个循环的欲望的参数I[k+1]:
I[k+1]=I[k]+ki×ΔI[k] ……(7)
接着,感情和本能模型部分241通过用计算的结果替换欲望的参数I[k]更新欲望的参数。在这种情况下,对于输出动作和每一识别结果必须改变的欲望的参数是固定的。比如,当动作确定部分242作出“做某事情”的提示时,用于欲望“运动欲”的参数减小。
此外,对于欲望“食欲”,假定电池的残余量为BL,感情和本能模型部分241基于通过状态识别部分240给出的电池残余量检测信号S42A(图41),按照下式计算用于欲望“食欲”的参数I[k+1]:
I[k]=100-BL ……(8)
接着,感情和本能模型部分241通过用计算的结果替换当前食欲的参数I[k]更新用于欲望“食欲”的参数。
此外,对于欲望“休息”,感情和本能模型部分241以1天作为一个循环每隔一段固定时间增加或减小该参数。
应该指出,用于每一种感情和每一种欲望的参数的范围从0到100,以及系数ke、ki也是为每一种感情和每一种欲望单独设定的。
(6-2-3)动作确定部分242的结构
动作确定部分242基于状态识别部分240给出的状态识别信息S50、感情和本能模型部分241中的用于感情和欲望的参数、事先存储在存储器200A中的动作模型、通过时间等,决定下一步动作,并将决定的结果作为动作确定信息S51输出给感情和本能模型部分241和动作生成部分243。
在这种情况下,动作确定部分242使用称作概率自动机的算法作为确定下一步动作的方法。所述概率自动机基于为连接节点(状态)NODE”0至NODE”n的弧线ARC”0至ARC”n分别设置的转换概率P”0至P”n,从概率上决定一个节点NODE”0至NODE”n将要转换到的相同或不同的节点NODE”0至NODE”n,如图44所示。
更具体地说,存储器200A为每一个节点NODE”0至NODE”n存储如图45所示的状态转换表244作为动作模型,以便动作确定部分242基于该状态转换表244确定下一步动作。
这里,在状态转换表244中,在节点NODE”0至NODE”n中用作转换条件的输入事件(来自状态识别部分240的识别结果)以优先级的顺序写入“输入事件”行中,更为具体的条件写在相应的“数据名称”栏和“数据限定”行中。
如上所述,由图45中的状态转换表定义的节点NODE100具有转换到同一或另一节点NODE”0至NODE”n的条件。比如,当给出“检测到一个球”的识别结果时,该条件为与识别结果一起给出的球的“尺寸”必须介于0和1000之间(0,1000),或者,比如另外一个例子,当给出“检测到一个障碍物”的识别结果时,该条件为与识别结果一起给出的到障碍物的“距离”必须介于0和1000之间(0,1000)。
此外,即使识别结果没有输入到NODE100,当由动作确定部分242周期地指定的、用于感情和本能模型部分241中的感情和欲望中的任何感情“欢乐”、“惊奇”或“悲伤”的参数介于50和100之间(50,100)时,该节点能够转换到同一或另一节点NODE”0至NODE”n。
另外,在状态转换表244中,将节点NODE”0至NODE”n能够转移到的某些节点NODE”0至NODE”n写在“到其他节点的转换概率”空间中的“转换目的节点”行中;在写入“输入事件”、“数据名称”和“数据限定”行中的条件都满足的情况下,到节点NODE”0至NODE”n的转换概率写在“到其他节点的转换概率”空间中的节点NODE”0至NODE”n行中;此时输出的动作和运动写在“输出动作”栏中。应该注意,在“转换概率”空间中的每一行上的转换概率的和为100[%]。
因此,在该示例中,在给出下述识别结果的情况下,即“检测到一个球”和球的“尺寸”为“介于0和1000之间(0,1000)”时,节点NODE”100能够以“30[%]的概率”转移到“节点NODE”120(节点120)”,并且在此时输出“动作1”的动作和运动。
形成动作模型以便写在状态转换表244中每一节点NODE”0至NODE”n具有能够转移到的多个节点。
因此,当状态识别信息S50从状态识别部分240中给出时,或者当已经执行了一段固定时间的当前动作时,动作确定部分242通过使用存储在存储器200A的动作模型中的相应节点NODE”0至NODE”n的状态转换表244,从概率上决定下一步动作和运动(写在“输出动作”栏上的动作或动作),并将确定的结果作为动作确定信息S51输出给感情和本能模型部分241和动作生成部分243。
(6-2-4)动作生成部分243的结构
动作生成部分243在存储器200A中存有在使机器人机体191表现各种动作时用来确定每一致动器2111至211n如何活动的、关于每一动作的数据文件(下文中称作动作文件),以及用于多种声音的数据文件(下文中称作声音文件)。
在必要时,动作生成部分243基于动作确定部分242给出的动作确定信息S51,从存储器200A中读出相应的动作文件,并基于该动作文件发送驱动信号S521至S52n给致动器2111至211n,以及播放相应的声音文件,由此输出获得的音频信号S42到扬声器210(图41)。
结果,驱动根据驱动信号S521至S52n所需的致动器2111至211n,并且根据音频信号S42的声音从扬声器210输出,从而如上所述,机器人机体191表现动作确定部分242确定的动作和运动。
如上所述,在机器人系统190中,机器人机体191能够基于周围环境和内部条件、来自用户的命令和刺激,在控制器200的控制下自动地动作。
(6-3)机器人机体191中的初始设定处理
下面将描述机器人系统190中机器人机体191的控制器200执行的初始设定处理。
在该机器人系统190中,如上所述接通电源之后,机器人机体191的控制器200首先通过访问外装单元192的存储器230读出外装信息,并基于该外装信息执行诸如改变必需的参数的初始设定处理。
实际上,在机器人系统190的情况下,外装单元192的脸外装组件221的存储器230在用作生成动作模型的状态转换表244中的相应的状态转换表244(图45)存储用于相应的转换概率P”0至P”n(图44)的变化值,以及存储用于动作模型的节点NODE”0至NODE”n的状态转换表244,作为前述的特征信息。
机器人机体191的控制器200基于从外装单元192的存储器230中读出的、包括在外装信息中的特征信息,改变相应的状态转换表244中的相应的转换概率P”0至P”n,并用新的状态转换表244替换相应节点NODE”0至NODE”n的状态转换表244。
此外,外装单元的存储器230存储偏差值作为罩盖信息,以对距离传感器208(图41)的输出电压执行偏差校正。
也就是说,在经由罩盖228(图40)测量到位于距离传感器208的前面的对象的距离的情况下,由于如图46和图47所示的罩盖228的倾角相对于朝向距离传感器208的入射角、以及如图48和49所示的罩盖的颜色,会出现测量误差。应该注意,在图46和48中,最左侧行上的数字代表到被测对象的距离,另一行上的数字代表假定到距离传感器208的光轴为垂直状态、罩盖228的倾角为0度时、距离传感器208的输出电压。此外,在图47和49中,横坐标代表距离传感器208的输出电压,纵坐标代表到被测对象的距离。
从而,在机器人系统190中,外装单元192的存储器230存储偏差值,以根据外装单元192的罩盖208的倾角和颜色、对距离传感器208(图41的输出电压执行偏差校正。
机器人机体191的控制器200基于包括在从外装单元192的存储器200A中读出的外装信息中的罩盖特征信息,改变用于在状态识别部分240基于距离测量信号S40D识别出到面前对象的距离时的距离测量信号S40D的偏差值。
此外,外装单元192的存储器230存储代表外装单元192装配到机器人机体191时的整个机器人系统190的重心位置的信息、代表装配外装单元192时每一可活动单元的转动惯量的动作信息、以及代表装配外装单元192时的每一可活动单元的可活动范围的可活动范围信息。
那么,机器人机体191的控制器200基于从外装单元192的存储器230中读出的包括在外装信息中的外装物理信息中的重心位置信息,改变用于在图31中描述的行走控制的参数和其他相应的参数。
如上所述,在机器人系统190中,能够基于存储在外装单元192的存储器230中的外装信息,改变机器人机体191的参数,从而机器人机体191能够根据安装到机器人机体191上的外装单元192表现各种动作。
(6-4)本实施例的操作和效果
在具有上述配置的机器人系统190中,在接通机器人机体191的电源时,控制器200从外装单元192的存储器230中读出外装信息,并基于该外装信息改变所需的参数。
从而,机器人机体191能够通过存储相应于作为外装信息的外装单元192的形状、颜色和形式的信息,表现基于外装单元192的动作。
按照上述配置,在外装单元192中设置存储与外装单元192的形式相应的外装信息的存储器230,接通电源时,机器人机体191的控制器200读出该外装信息,并基于该外装信息改变控制机器人机体191的动作和运动的参数,从而机器人机体191能够根据外装单元192的类型表现动作和运动,可以显著地改善机器人系统的娱乐特性。
工业应用性
该机器人系统、机器人装置和用于机器人装置的外装可以应用于由宠物机器人和用于机器人装置的外装构成的机器人系统中。
Claims (17)
1.一种机器人系统,包括:
一个机器人装置;和
一个能够可拆卸地装配到所述机器人装置上的外装,其中:
在所述外装上设置一预定的验证图案,该验证图案包含用于控制该机器人装置的其它部件的操作的信息;并且
在所述机器人装置上设置一验证装置,用于根据在所述装配的外装上的所述验证图案验证所述外装。
2.根据权利要求1的机器人系统,其中:
所述验证图案为具有预定形式的第一凹凸图案;和
所述验证装置是具有预定形式的第二凹凸图案,仅当所述第一凹凸图案是规则的图案时按照预定状态与所述第一凹凸图案相配。
3.根据权利要求2的机器人系统,其中:
所述第一凹凸图案具有注册的工业设计的凹凸形式。
4.根据权利要求1的机器人系统,其中:
所述验证图案为具有预定形式的凹凸图案;和
所述验证装置电检测在所述外装上的所述凹凸图案的凹凸形式,并基于检测结果验证所述外装。
5.一种用于机器人装置的外装,包括:
一预定的验证图案,该验证图案包含用于控制该机器人装置的其它部件的操作的信息,并且其中:
所述外装可拆卸地装配到具有用于基于所述验证图案验证的验证装置的机器人装置上。
6.根据权利要求5的用于机器人装置的外装,其中:
所述验证图案为具有预定形式的凹凸图案。
7.根据权利要求6的用于机器人装置的外装,其中:
所述凹凸图案具有注册的工业设计的凹凸形式。
8.一种机器人系统,包括:
一表现预定动作的机器人装置;
一可拆卸地装配到所述机器人装置上的外装;
一设置在所述外装中的信息保存装置,用于保存相应于所述外装的用于控制该机器人装置的其它部件的操作的固有信息;
一设置在所述机器人装置上的信息检测装置,当所述外装装配到所述机器人装置上时,用于检测由所述外装的信息保存装置保存的所述固有信息;以及
一控制装置,用于在必要时根据检测的所述固有信息改变所述动作的显现图案。
9.根据权利要求8的机器人系统,其中:
所述信息保存装置是一存储器,用于记录作为数据的所述固有信息;和
所述机器人装置具有数据读取部件,用于从所述存储器中读取所述数据。
10.一种可拆卸地装配到表现预定动作的机器人装置上的外装,包括:
一信息保存装置,用于保存相应于所述外装的固有信息;并且其中
当外装装配到所述机器人装置上时,所述机器人装置根据所述信息保存装置保存的所述固有信息在必要时改变所述动作的显现图案。
11.根据权利要求10的外装,其中:
所述信息保存装置是一存储作为数据的所述固有信息的存储器;和
所述机器人装置从所述存储器中读取所述数据。
12.一种表现预定动作的机器人装置,包括:
一个能够可拆卸地装配到所述机器人装置上的外装;
信息检测装置,当外装可拆卸地装配时,用于从所述外装检测相应于所述外装的用于控制该机器人装置的其它部件的操作的固有信息;以及
控制装置,用于在必要时根据检测的所述固有信息改变所述动作的显现图案。
13.根据权利要求12的机器人装置,包括:
一存储器,用于存储作为数据的所述固有信息的;并且其中
所述机器人装置具有数据读取部件,用于从所述存储器中读取所述数据。
14.一种机器人系统,包括:
一机器人装置,具有可活动组件,并通过驱动所述可活动组件表现预定的动作;
能够可拆卸地装配在所述机器人装置上的外装;以及
设置在所述机器人装置中的控制装置,用于驱动控制所述可活动组件,并且其中:
当所述外装装配在所述机器人装置上时,所述控制装置通过驱动所述可活动组件检测由所述外装引起的对所述动作的影响总量,并且在必要时根据检测结果改变所述动作的显现图案。
15.根据权利要求14的机器人系统,其中:
所述控制装置将由所述外装引起的对所述可活动组件的动作的影响总量、确定为与装配所述外装之前的动作之间的控制误差,然后校正所述控制误差。
16.一种包括一可活动组件、并通过驱动所述可活动组件表现预定的动作的机器人装置,包括:
一个能够可拆卸地装配到所述机器人装置上的外装;和
一控制装置,用于当外装可拆卸地装配时,通过驱动所述可活动组件检测由所述外装引起的对所述动作的影响总量,并且在必要时根据检测结果改变所述动作的显现图案。
17.根据权利要求16的机器人装置,其中:
所述控制装置计算由所述外装引起的对所述可活动组件的动作的影响总量、作为与装配所述外装之前的动作之间的控制误差,然后并校正所述控制误差。
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP310330/1999 | 1999-10-29 | ||
JP310331/1999 | 1999-10-29 | ||
JP310329/1999 | 1999-10-29 | ||
JP31033099 | 1999-10-29 | ||
JP31032999 | 1999-10-29 | ||
JP31033199 | 1999-10-29 | ||
JP332141/2000 | 2000-10-26 | ||
JP2000332141A JP2001191276A (ja) | 1999-10-29 | 2000-10-26 | ロボットシステム、ロボット装置及びその外装 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1335800A CN1335800A (zh) | 2002-02-13 |
CN1148281C true CN1148281C (zh) | 2004-05-05 |
Family
ID=27480021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB008024839A Expired - Fee Related CN1148281C (zh) | 1999-10-29 | 2000-10-27 | 机器人系统、机器人装置及机器人装置的外装 |
Country Status (6)
Country | Link |
---|---|
US (2) | US6505098B1 (zh) |
EP (1) | EP1155786A1 (zh) |
JP (1) | JP2001191276A (zh) |
KR (1) | KR20010099992A (zh) |
CN (1) | CN1148281C (zh) |
WO (1) | WO2001032366A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109526208A (zh) * | 2016-07-11 | 2019-03-26 | Groove X 株式会社 | 活动量受控制的行为自主型机器人 |
CN111290272A (zh) * | 2020-02-15 | 2020-06-16 | 中国海洋大学 | 基于多足机器人的姿态平稳性调整方法 |
Families Citing this family (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001191276A (ja) | 1999-10-29 | 2001-07-17 | Sony Corp | ロボットシステム、ロボット装置及びその外装 |
WO2001059643A1 (fr) * | 2000-02-10 | 2001-08-16 | Sony Corporation | Dispositif automatique, dispositif fournissant des informations, robot, et procede de transaction |
JP2002127059A (ja) * | 2000-10-20 | 2002-05-08 | Sony Corp | 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体 |
JP2002239960A (ja) * | 2001-02-21 | 2002-08-28 | Sony Corp | ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置 |
TW542739B (en) * | 2001-05-25 | 2003-07-21 | Interlego Ag | System for transmitting and receiving information about the orientation of a robot and information about the distance between the system and a robot |
EP1262844A1 (en) * | 2001-06-01 | 2002-12-04 | Sony International (Europe) GmbH | Method for controlling a man-machine-interface unit |
US6507773B2 (en) * | 2001-06-14 | 2003-01-14 | Sharper Image Corporation | Multi-functional robot with remote and video system |
US7135003B2 (en) * | 2001-06-29 | 2006-11-14 | Honda Giken Kogyo Kabushiki Kaisha | Feedback estimation of joint forces and joint moments |
JP4689107B2 (ja) * | 2001-08-22 | 2011-05-25 | 本田技研工業株式会社 | 自律行動ロボット |
JP3357948B1 (ja) | 2001-10-12 | 2002-12-16 | オムロン株式会社 | ロボット用外皮被着構造および該構造を備えたロボット |
US6889118B2 (en) | 2001-11-28 | 2005-05-03 | Evolution Robotics, Inc. | Hardware abstraction layer for a robot |
KR100565193B1 (ko) * | 2002-02-01 | 2006-03-30 | 엘지전자 주식회사 | 상품 구매 기능이 내장된 로봇 |
WO2003068455A1 (fr) * | 2002-02-15 | 2003-08-21 | Sony Corporation | Dispositif a jambes pour robot mobile de type a jambes, et procede de commande dudit robot |
US7386364B2 (en) * | 2002-03-15 | 2008-06-10 | Sony Corporation | Operation control device for leg-type mobile robot and operation control method, and robot device |
JP3870257B2 (ja) * | 2002-05-02 | 2007-01-17 | 独立行政法人 宇宙航空研究開発機構 | オフセット回転関節を有するロボット |
US7118443B2 (en) | 2002-09-27 | 2006-10-10 | Mattel, Inc. | Animated multi-persona toy |
CN1490694A (zh) * | 2002-10-14 | 2004-04-21 | 刘于诚 | 敲击反应系统 |
GB2409734B (en) * | 2002-11-11 | 2007-01-03 | Alfred Schurmann | Determination and control of activities of an emotional system |
US7137861B2 (en) * | 2002-11-22 | 2006-11-21 | Carr Sandra L | Interactive three-dimensional multimedia I/O device for a computer |
US7172196B2 (en) * | 2002-12-10 | 2007-02-06 | Mitch Randall | Systems and methods for providing electric power to mobile and arbitrarily positioned devices |
US8222840B2 (en) * | 2002-12-12 | 2012-07-17 | Sony Corporation | Fuel cell mount apparatus and electric power supply system |
US7072740B2 (en) * | 2002-12-16 | 2006-07-04 | Sony Corporation | Legged mobile robot |
US20040167685A1 (en) * | 2003-02-24 | 2004-08-26 | Ryan Dean E. | Runway overrun monitor and method for monitoring runway overruns |
EP1571584A1 (en) * | 2004-03-03 | 2005-09-07 | Honda Research Institute Europe GmbH | Integrating visual and object information in a pervasive computing environment |
JP3992026B2 (ja) * | 2004-07-09 | 2007-10-17 | 船井電機株式会社 | 自走ロボット |
US7543663B2 (en) | 2004-10-01 | 2009-06-09 | Applied Minds, Inc. | Bimodal conveyance mechanism |
US7588105B2 (en) * | 2004-10-01 | 2009-09-15 | Applied Minds, Inc. | Virtual-wheeled vehicle |
JP4729345B2 (ja) * | 2005-05-30 | 2011-07-20 | 博明 山口 | 移動機構、移動機構用部材及び該移動機構の制御方法 |
JP4788246B2 (ja) * | 2005-08-31 | 2011-10-05 | ソニー株式会社 | 入力装置及び入力方法 |
WO2007041295A2 (en) | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
US20070078565A1 (en) * | 2005-10-03 | 2007-04-05 | Modjtaba Ghodoussi | Telerobotic system that transmits changed states of a subsystem |
US7835821B2 (en) * | 2005-11-17 | 2010-11-16 | Electronics And Telecommunications Research Institute | Robot server for controlling robot, system having the same for providing content, and method thereof |
KR100740663B1 (ko) * | 2005-12-16 | 2007-07-18 | 한양대학교 산학협력단 | 사족 로봇 |
JP4921010B2 (ja) * | 2006-03-24 | 2012-04-18 | 川田工業株式会社 | 歩行型ロボット用冷却構造 |
JP2007302061A (ja) * | 2006-05-09 | 2007-11-22 | Equos Research Co Ltd | 車両 |
WO2007129505A1 (ja) * | 2006-05-09 | 2007-11-15 | Equos Research Co., Ltd. | 車両、特性量推定装置及び搭載物判定装置 |
US20080119959A1 (en) * | 2006-11-21 | 2008-05-22 | Park Cheonshu | Expression of emotions in robot |
WO2008092473A1 (en) * | 2007-01-31 | 2008-08-07 | Telecom Italia S.P.A. | Customizable method and system for emotional recognition |
KR100866212B1 (ko) * | 2007-02-08 | 2008-10-30 | 삼성전자주식회사 | 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법 |
JP2009061547A (ja) * | 2007-09-06 | 2009-03-26 | Olympus Corp | ロボット制御システム、ロボット、プログラム及び情報記憶媒体 |
CN101411946B (zh) * | 2007-10-19 | 2012-03-28 | 鸿富锦精密工业(深圳)有限公司 | 玩具恐龙 |
CN101727074B (zh) * | 2008-10-24 | 2011-12-21 | 鸿富锦精密工业(深圳)有限公司 | 具有生物时钟的类生物装置及其行为控制方法 |
US20100181943A1 (en) * | 2009-01-22 | 2010-07-22 | Phan Charlie D | Sensor-model synchronized action system |
JP5558929B2 (ja) * | 2010-06-04 | 2014-07-23 | 株式会社ユーシン | タッチセンサ |
JP5550468B2 (ja) | 2010-06-30 | 2014-07-16 | キヤノン株式会社 | 力覚センサの校正方法 |
ES2536308T3 (es) * | 2010-12-01 | 2015-05-22 | Abb Ag | Sistema de manipulador de robot |
TWI512547B (zh) * | 2011-12-20 | 2015-12-11 | Univ Nat Chiao Tung | 互動式系統及互動式裝置 |
US9684834B1 (en) * | 2013-04-01 | 2017-06-20 | Surround.IO | Trainable versatile monitoring device and system of devices |
US9486713B2 (en) * | 2013-08-23 | 2016-11-08 | Evollve, Inc. | Robotic activity system using position sensing |
US10335920B2 (en) | 2014-02-12 | 2019-07-02 | Taiwan Semiconductor Manufacturing Company | Multiple nozzle slurry dispense scheme |
CN104440925B (zh) * | 2014-11-27 | 2016-05-04 | 国家康复辅具研究中心 | 一种宠物型陪护机器人及系统 |
US10091468B2 (en) * | 2015-01-21 | 2018-10-02 | Northwestern University | System and method for tracking content in a medicine container |
US20180099846A1 (en) | 2015-03-06 | 2018-04-12 | Wal-Mart Stores, Inc. | Method and apparatus for transporting a plurality of stacked motorized transport units |
WO2016142794A1 (en) | 2015-03-06 | 2016-09-15 | Wal-Mart Stores, Inc | Item monitoring system and method |
US10239740B2 (en) | 2015-03-06 | 2019-03-26 | Walmart Apollo, Llc | Shopping facility assistance system and method having a motorized transport unit that selectively leads or follows a user within a shopping facility |
US12084824B2 (en) | 2015-03-06 | 2024-09-10 | Walmart Apollo, Llc | Shopping facility assistance systems, devices and methods |
WO2017042551A1 (en) * | 2015-09-09 | 2017-03-16 | Reach Robotics Limited | Gaming robot |
EP3347168A1 (en) * | 2015-09-09 | 2018-07-18 | Reach Robotics Limited | Connection system for a modular robot |
WO2017120180A1 (en) | 2016-01-06 | 2017-07-13 | Evollve, Inc. | Robot having a changeable character |
EP3403146A4 (en) | 2016-01-15 | 2019-08-21 | iRobot Corporation | AUTONOMOUS MONITORING ROBOT SYSTEMS |
US20170208315A1 (en) * | 2016-01-19 | 2017-07-20 | Symbol Technologies, Llc | Device and method of transmitting full-frame images and sub-sampled images over a communication interface |
CA2961938A1 (en) | 2016-04-01 | 2017-10-01 | Wal-Mart Stores, Inc. | Systems and methods for moving pallets via unmanned motorized unit-guided forklifts |
CN109070356B (zh) * | 2016-04-28 | 2022-06-28 | 富士通株式会社 | 机器人 |
TW201741101A (zh) * | 2016-05-20 | 2017-12-01 | 鴻海精密工業股份有限公司 | 一種具有不同服裝的智慧型機械人 |
JP6354796B2 (ja) * | 2016-06-23 | 2018-07-11 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
CN106131374B (zh) * | 2016-06-29 | 2019-07-19 | 上海未来伙伴机器人有限公司 | 一种机器人文件使用、存储方法及系统 |
GB2564822B (en) * | 2016-07-08 | 2021-08-18 | Groove X Inc | Autonomously acting robot that wears clothes |
DE112017003651T5 (de) | 2016-07-20 | 2019-04-04 | Groove X, Inc. | Autonom agierender Roboter, der Körperkontakt versteht |
WO2018037662A1 (ja) * | 2016-08-26 | 2018-03-01 | シャープ株式会社 | ロボット、ロボットの制御方法、および制御プログラム |
JP6382906B2 (ja) * | 2016-10-17 | 2018-08-29 | ファナック株式会社 | ロボット及びロボットにおける表示灯の設置方法 |
CN106799727A (zh) * | 2017-02-10 | 2017-06-06 | 深圳市笨笨机器人有限公司 | 壳衣可拆卸机器人及其生产方法和系统 |
US10100968B1 (en) | 2017-06-12 | 2018-10-16 | Irobot Corporation | Mast systems for autonomous mobile robots |
WO2019050034A1 (ja) * | 2017-09-11 | 2019-03-14 | Groove X株式会社 | 相手を見つめる自律行動型ロボット |
US11633863B2 (en) * | 2018-04-06 | 2023-04-25 | Digital Dream Labs, Llc | Condition-based robot audio techniques |
JP6986579B2 (ja) * | 2018-05-11 | 2021-12-22 | 株式会社バンダイ | 主玩具 |
US20200022335A1 (en) * | 2018-07-18 | 2020-01-23 | Yuan Qing Wu | Dog's play partner AI dog |
US11110595B2 (en) | 2018-12-11 | 2021-09-07 | Irobot Corporation | Mast systems for autonomous mobile robots |
CN110930843A (zh) * | 2019-10-30 | 2020-03-27 | 杭州梦栖教育咨询有限公司 | 一种仿真眼睛动作的控制方法及仿真眼睛 |
KR102335482B1 (ko) * | 2020-01-08 | 2021-12-07 | 대원미디어 주식회사 | 완구 세트 |
KR102295836B1 (ko) * | 2020-11-20 | 2021-08-31 | 오로라월드 주식회사 | 성장형 스마트 토이 장치 및 스마트 토이 시스템 |
JP7192905B2 (ja) * | 2021-03-16 | 2022-12-20 | カシオ計算機株式会社 | 制御装置、制御方法及びプログラム |
JP7188485B2 (ja) * | 2021-03-25 | 2022-12-13 | カシオ計算機株式会社 | 電子機器 |
CN113419543A (zh) * | 2021-07-20 | 2021-09-21 | 广东工业大学 | 一种轮距轮向可变移动机器人构形变换规划方法 |
JP7532600B2 (ja) | 2021-11-29 | 2024-08-13 | 株式会社バンダイ | 玩具システム |
CN116627027B (zh) * | 2023-07-19 | 2024-01-30 | 济南大学 | 一种基于改进型pid最优鲁棒性控制方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4010346A (en) * | 1975-04-14 | 1977-03-01 | Cecil Equipment Co., Inc. | Self-propelled tractor for welding and cutting apparatus and the like |
US4736826A (en) * | 1985-04-22 | 1988-04-12 | Remote Technology Corporation | Remotely controlled and/or powered mobile robot with cable management arrangement |
JP2786764B2 (ja) * | 1991-11-29 | 1998-08-13 | シャープ株式会社 | 消耗部品を有する機器および消耗部品 |
JP3047055B2 (ja) | 1992-03-24 | 2000-05-29 | 日本電信電話株式会社 | ヘテロ接合型フォトトランジスタ |
JP2681035B2 (ja) | 1995-03-23 | 1997-11-19 | 工業技術院長 | 力検出補償を行う力制御ロボット |
JPH1040388A (ja) * | 1996-07-26 | 1998-02-13 | Pilot Corp:The | 署名入力装置および署名照合システム |
JPH1047055A (ja) | 1996-07-31 | 1998-02-17 | Yamaha Motor Co Ltd | ウェットライナー式多気筒エンジン |
US6074271A (en) * | 1997-08-26 | 2000-06-13 | Derrah; Steven | Radio controlled skateboard with robot |
JP3047055U (ja) * | 1997-09-11 | 1998-03-31 | ピープル株式会社 | 自動車おもちゃ |
JPH11179060A (ja) * | 1997-12-18 | 1999-07-06 | Rhythm Watch Co Ltd | ロボット人形体 |
JP3765356B2 (ja) | 1997-12-22 | 2006-04-12 | ソニー株式会社 | ロボツト装置 |
US6149490A (en) * | 1998-12-15 | 2000-11-21 | Tiger Electronics, Ltd. | Interactive toy |
JP2001191276A (ja) * | 1999-10-29 | 2001-07-17 | Sony Corp | ロボットシステム、ロボット装置及びその外装 |
-
2000
- 2000-10-26 JP JP2000332141A patent/JP2001191276A/ja active Pending
- 2000-10-27 WO PCT/JP2000/007592 patent/WO2001032366A1/ja not_active Application Discontinuation
- 2000-10-27 KR KR1020017008253A patent/KR20010099992A/ko not_active Application Discontinuation
- 2000-10-27 US US09/869,256 patent/US6505098B1/en not_active Expired - Fee Related
- 2000-10-27 CN CNB008024839A patent/CN1148281C/zh not_active Expired - Fee Related
- 2000-10-27 EP EP00970175A patent/EP1155786A1/en not_active Withdrawn
-
2002
- 2002-11-26 US US10/305,302 patent/US6711469B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109526208A (zh) * | 2016-07-11 | 2019-03-26 | Groove X 株式会社 | 活动量受控制的行为自主型机器人 |
CN109526208B (zh) * | 2016-07-11 | 2021-02-02 | Groove X 株式会社 | 活动量受控制的行为自主型机器人 |
US11579617B2 (en) | 2016-07-11 | 2023-02-14 | Groove X, Inc. | Autonomously acting robot whose activity amount is controlled |
US11809192B2 (en) | 2016-07-11 | 2023-11-07 | Groove X, Inc. | Autonomously acting robot whose activity amount is controlled |
CN111290272A (zh) * | 2020-02-15 | 2020-06-16 | 中国海洋大学 | 基于多足机器人的姿态平稳性调整方法 |
CN111290272B (zh) * | 2020-02-15 | 2021-02-09 | 中国海洋大学 | 基于多足机器人的姿态平稳性调整方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2001191276A (ja) | 2001-07-17 |
KR20010099992A (ko) | 2001-11-09 |
WO2001032366A1 (fr) | 2001-05-10 |
US6711469B2 (en) | 2004-03-23 |
US20030078696A1 (en) | 2003-04-24 |
US6505098B1 (en) | 2003-01-07 |
CN1335800A (zh) | 2002-02-13 |
EP1155786A1 (en) | 2001-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1148281C (zh) | 机器人系统、机器人装置及机器人装置的外装 | |
CN1151016C (zh) | 机器人设备及其控制方法,和机器人性格判别方法 | |
CN1283428C (zh) | 机器人设备、控制机器人设备动作的方法 | |
CN1290034C (zh) | 机器人装置及其行为控制方法 | |
CN1553845A (zh) | 机器人系统和机器人设备的控制方法 | |
CN1372506A (zh) | 机器人设备行为决定方法和机器人设备 | |
CN1942289A (zh) | 机器人、提示输出装置、机器人控制系统、机器人控制方法、机器人控制程序及集成电路 | |
CN1518489A (zh) | 用于机器人的行为控制系统和行为控制方法及机器人装置 | |
CN1305646C (zh) | 有腿的移动机器人腿部装置及该机器人的控制方法 | |
CN1855224A (zh) | 信息处理装置、信息处理方法及程序 | |
CN2300436Y (zh) | 虚拟动物的饲养模拟装置 | |
CN100346941C (zh) | 机器人及机器人的姿态控制方法 | |
CN1476589A (zh) | 机器人装置、面容识别方法和面容识别装置 | |
CN1292706C (zh) | 脉搏计及其控制方法、以及手表型信息装置 | |
CN1297393A (zh) | 机器人装置和运动控制方法 | |
CN1590038A (zh) | 机器人设备、机器人设备的控制方法和机器人设备用玩具 | |
CN1398214A (zh) | 有足机器人、用于有足机器人的动作控制方法、和存储介质 | |
CN1271568C (zh) | 信息变换系统 | |
CN1692341A (zh) | 信息处理设备、信息处理方法、程序以及存储介质 | |
CN1787012A (zh) | 用于处理图像的方法、装置和计算机程序 | |
CN1290186A (zh) | 交互式玩具 | |
CN1095105C (zh) | 控制可移动装置的设备与方法 | |
CN1363074A (zh) | 信息处理设备和方法、数据存储设备和程序 | |
CN1605963A (zh) | 机器人及充电站搜索方法 | |
CN1234128A (zh) | 特征信息附予方法、物体抽取方法、立体模型生成方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
C10 | Entry into substantive examination | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C19 | Lapse of patent right due to non-payment of the annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |