CN1161700C - 网络系统 - Google Patents
网络系统 Download PDFInfo
- Publication number
- CN1161700C CN1161700C CNB008011125A CN00801112A CN1161700C CN 1161700 C CN1161700 C CN 1161700C CN B008011125 A CNB008011125 A CN B008011125A CN 00801112 A CN00801112 A CN 00801112A CN 1161700 C CN1161700 C CN 1161700C
- Authority
- CN
- China
- Prior art keywords
- pet
- information
- action
- internal state
- type robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003860 storage Methods 0.000 title description 43
- 230000009471 action Effects 0.000 claims abstract description 201
- 230000005540 biological transmission Effects 0.000 claims abstract description 52
- 230000033001 locomotion Effects 0.000 claims description 92
- 238000012545 processing Methods 0.000 claims description 46
- 230000003750 conditioning effect Effects 0.000 claims description 29
- 230000005055 memory storage Effects 0.000 claims description 7
- 230000008451 emotion Effects 0.000 abstract description 168
- 230000008859 change Effects 0.000 abstract description 30
- 230000036544 posture Effects 0.000 description 158
- 238000006243 chemical reaction Methods 0.000 description 61
- 230000000875 corresponding effect Effects 0.000 description 61
- 230000014509 gene expression Effects 0.000 description 55
- 210000003128 head Anatomy 0.000 description 51
- 238000000034 method Methods 0.000 description 37
- 230000006854 communication Effects 0.000 description 35
- 230000036541 health Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 31
- 238000004891 communication Methods 0.000 description 30
- 210000003414 extremity Anatomy 0.000 description 27
- 239000004615 ingredient Substances 0.000 description 20
- 230000005236 sound signal Effects 0.000 description 19
- 230000007704 transition Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 238000013515 script Methods 0.000 description 11
- 238000007726 management method Methods 0.000 description 10
- 244000144977 poultry Species 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 241001465754 Metazoa Species 0.000 description 8
- 239000004973 liquid crystal related substance Substances 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 238000003780 insertion Methods 0.000 description 7
- 230000037431 insertion Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000012856 packing Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000003909 pattern recognition Methods 0.000 description 5
- 206010003830 Automatism Diseases 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000036962 time dependent Effects 0.000 description 4
- 101150106709 ARC1 gene Proteins 0.000 description 3
- 101100013575 Arabidopsis thaliana FTSHI1 gene Proteins 0.000 description 3
- 238000010009 beating Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 210000000078 claw Anatomy 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000005764 inhibitory process Effects 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000001737 promoting effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- YXHAMVMGQAWTHT-KHYOSLBOSA-N ram-346 Chemical compound C([C@H]12)CC(=O)C[C@@]11CCN(C)[C@@H]2CC2=CC=C(OC)C(OC)=C21 YXHAMVMGQAWTHT-KHYOSLBOSA-N 0.000 description 2
- 208000008037 Arthrogryposis Diseases 0.000 description 1
- 241001108921 Asclepias asperula Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 206010037660 Pyrexia Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000034994 death Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000003194 forelimb Anatomy 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000005622 photoelectricity Effects 0.000 description 1
- 230000010181 polygamy Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 235000015096 spirit Nutrition 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000026683 transduction Effects 0.000 description 1
- 238000010361 transduction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8058—Virtual breeding, e.g. tamagotchi
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Robotics (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
通过使用多种装置实现一种更具有真实性的电子宠物。具体来说,虚拟电子宠物(202)和宠物机器人(204)根据关于环境和它们内部的信息,改变它们的情感和本能状态即电子宠物的内部状态(包含在宠物特性信息(203)中的信息),并且根据它们的情感和本能状态行动。电子宠物的内部状态(宠物特性信息(203))在虚拟电子宠物(202)、宠物机器人(204)或者个人计算机(201)之间被发送和接收。按照由其它设备改变的电子宠物内部状态,电子宠物的行为由多种装置实现。
Description
技术领域
本发明涉及电子宠物系统、网络系统、机器人以及存储介质,特别涉及电子宠物系统、网络系统、机器人以及使电子宠物能在不同类型的装置中实现的存储介质。
背景技术
近来,由于比将真实动物作为宠物饲养更容易,因此,所谓电子宠物装置(或饲养模拟游戏机)已广为流行。
在电子宠物装置中,虚拟生命体对象表现为电子宠物并且电子宠物的状态如饥饿或疲劳程度通过图象或声音通知饲养员(电子宠物装置的用户)。饲养员(用户)根据电子宠物的状态通过操纵电子宠物装置饲养电子宠物或与之玩耍。这样,电子宠物依据饲养员的行为改变其状态(电子宠物的状态)并被如此饲养。随着时间的流逝,电子宠物逐渐成长并且因此电子宠物的状态也发生变化。
同时,由于电子宠物装置只是将电子宠物显示在显示器屏幕上,因而被显示的电子宠物即为所谓的虚拟存在。
在借助于例如作为实物存在的机器人实现电子宠物的情况下,作为电子宠物的机器人实际存在于真实世界中。在这种情况下,对作为电子宠物的机器人来说,饲养员(用户)会感觉到比饲养在电子宠物装置中显示的电子宠物更接近于实际饲养宠物的情况。
可是,在借助于机器人实现电子宠物的情况下,在旅行中或做类似事情时携带机器人则不够方便。因此,如果在某个场合电子宠物能以实际存在的机器人来实现,而在另一个场合电子宠物能在便携式电子宠物装置中以虚拟存在来实现则更为方便。
由于在常规电子宠物装置中实现的电子宠物一般会根据用户的输入或时间的流逝改变其状态并采取行动,因此它与饲养作为宠物的真实动物相比缺乏真实性。
具体来说,例如,在将作为真实动物的狗作为宠物饲养的情况下,当狗要与饲养员一起玩耍时,它会发出叫声或摇动它的尾巴以吸引饲养员的注意。在这种情况下,如果饲养员一直不予理睬,狗就会疲劳并且停止吼叫或摆尾,然后会采取行动,如睡着了。睡醒之后,真实的宠物动物就会精神焕发。
在另一方面,当在常规电子宠物装置(例如,电子宠物狗)中实现的电子宠物想与饲养员玩耍时,它或者会持续发出叫声或摆动它的尾巴,或者在经过一段时间以后,停止这些活动。与真实的宠物动物(例如,狗)不同,电子宠物不会由于吼叫和摆尾而感到疲劳并入睡。即,在由常规电子宠物装置中实现的电子宠物中,电子宠物的状态不根据其自身的行动而变化,因而不会根据由于电子宠物自身的行动引起的这种状态变化而采取任何行动。由于这些原因,需要提供更具有真实性的电子宠物。
发明内容
鉴于现有技术的上述情况,本发明的一个目的是提供一种电子宠物系统、一种网络系统、一种机器人以及一种使电子宠物能在不同类型的装置中更真实地实现的存储介质。
具体来说,根据本发明的电子宠物系统具有信息处理装置和机器人。信息处理装置具有能够发送和接收电子宠物内部状态的发送/接收装置和图象显示装置并且由图象显示装置执行用于实现电子宠物的处理,电子宠物内部状态按照输入信息而变化并且是用于引起电子宠物行动的信息。机器人具有能够发送和接收电子宠物内部状态的发送/接收装置和用于在真实世界中移动的运动部分并且控制运动部分执行用于将电子宠物作为真实世界中的存在物实现的处理,电子宠物内部状态按照输入信息而变化并且是用于引起电子宠物行动的信息。
用这样的电子宠物系统,电子宠物的内部状态根据输入信息而变化并且内部状态的发送/接收在信息处理装置和机器人之间进行,这使得电子宠物按照内部状态而行动。信息处理装置按照来自机器人的内部状态而行动,机器人按照来自信息处理装置的内部状态而行动。
同样,根据本发明的电子宠物系统具有信息处理装置和机器人。信息处理装置具有能够无线发送和接收电子宠物的内部状态的无线电发送/接收装置和图象显示装置并且由图象显示装置执行用于实现电子宠物的处理,电子宠物内部状态按照输入信息而变化并且是用于引起电子宠物行动的信息。机器人具有能够无线发送和接收电子宠物的内部状态的无线电发送/接收装置和用于在真实世界中移动的运动部分并且控制运动部分执行用于将电子宠物作为一个真实世界中的存在物实现的处理,电子宠物内部状态按照输入信息而变化并且是用于引起电子宠物行动的信息。
用这样的电子宠物系统,电子宠物的内部状态根据输入信息而变化并且内部状态的无线电发送/接收在信息处理装置和机器人之间进行,这使得电子宠物按照内部状态而行动。信息处理装置按照来自机器人的内部状态而行动,机器人按照来自信息处理装置的内部状态而行动。
根据本发明的网络系统具有一个或多个实现装置和服务器装置。实现装置具有能发送和接收活体对象内部状态和活体对象的识别信息的发送/接收装置,活体对象内部状态按照输入信息而变化并且是用于引起活体对象行动的信息,由此来实现活体对象。服务器装置具有用于管理活体对象内部状态和活体对象识别信息的管理装置以及至少能够发送/接收内部状态和识别信息的发送/接收装置。实现装置和服务器装置通过网络相互连接。
用这样的网络系统,实现装置中的活体对象具有由服务装置管理的它的内部状态和识别信息。
同样,根据本发明的网络系统具有实现装置和信息处理装置。实现装置具有能够发送和接收活体对象内部状态的发送/接收装置,活体对象内部状态按照输入信息而变化并且是用于引起活体对象行动的信息,如此实现活体对象。信息处理装置具有能够发送和接收活体对象内部状态的发送/接收装置,信息处理装置根据活体对象的内部状态控制在虚拟世界中行动的活体对象的行动并且执行用于至少显示虚拟世界和活体对象的处理。
用这样的网络系统,在实现装置中的活体对象内部状态被传送到信息处理装置,活体对象内部状态按照输入信息而变化并且是用于引起活体对象行动的信息,信息处理装置执行用于至少显示虚拟世界和活体对象的技术处理。
依据本发明的机器人适合于储存活体对象内部状态并且适合于控制运动部分执行用于将电子宠物作为真实世界中的存在物实现的处理,活体对象内部状态按照输入信息而变化并且是用于引起活体对象行动的信息。机器人至少向信息处理装置传送内部状态,信息处理装置根据活体对象的内部状态控制在虚拟世界中行动的活体对象的行动并且执行用于至少显示虚拟世界和活体对象的处理。
这样的机器人向信息处理装置传送内部状态,内部状态按照输入信息而变化并且是用于引起活体对象行动发生的信息,信息处理装置执行用于至少显示虚拟世界和活体对象的处理。
相应于本发明的存储介质适用于存储在信息处理装置中使用的数据并且能插入信息处理装置中提供的槽中或从中拔出。当存储介质装入信息处理装置的槽中时,存储介质具有用于指示准确装入位置的指示手段。
这样,用户根据指示手段将存储介质装入信息处理装置的槽中。
附图说明
图1是示出了应用本发明的电子宠物系统实施例的总体框图。
图2示出了更具体的电子宠物系统的典型结构。
图3是示出了电子宠物系统身体部分典型结构的框图。
图4是示出了虚拟电子宠物装置典型硬件结构的框图。
图5是示出了宠物型机器人典型硬件结构的框图。
图6是示出了宠物型机器人外观具体结构的透视图。
图7是示出了宠物型机器人更具体的电路结构的框图。
图8是示出了控制器结构的框图。
图9是示出了情感/本能模式部分结构的框图。
图10是示出了情感/本能模式部分中情感组的框图。
图11是示出了具有强度增加/减少装置的情感/本能模式部分结构的框图。
图12是示出了用来解释生成行动命令信息的动作决定机构部分结构的框图。
图13示出了动作模式的有限概率自动机的状态转换。
图14示出了状态转换表。
图15示出了在姿势转换机构部分中的姿势转换图。
图16示出了姿势转换图的具体例子。
图17是示出了宠物型机器人简要结构的透视图。
图18A和18B是用于解释在基本姿势的基础上整个身体和各个部分之间进行姿势转换的图。
图19是用于解释在目前姿势属于整个身体而目标姿势属于一个部分的情况下,在临时转换到基本姿势之后,执行目标动作的图。
图20是用于解释在目前姿势属于局部而目标姿势属于整体的场合,临时转变基本姿势之后执行目标动作的图。
图21示出了存储在独立信息存储装置(IC卡)中的宠物特性信息。
图22是用于说明用颜色做标记的IC卡的图。
图23是用于说明用颜色做标记并具有附加箭头标志的条状IC卡的图。
图24是用于说明用颜色做标记并具有附加指示边界位置的线的条状IC卡的图。
图25是用于说明准确地装入槽中的条状IC卡的图。
图26是用于说明放在条状IC卡上的典型标签的图。
图27A和27B示出了条状IC卡的侧面和底部。
图28示出了本发明的第二个实施例的连接的例子。
图29是示出了第二个实施例的宠物型机器人基本部分硬件结构的框图。
图30是示出了第二个实施例的虚拟电子宠物装置外观的前视图。
图31是示出了第二个实施例的虚拟电子宠物装置基本部分硬件结构的框图。
图32是示出了用USB电缆将虚拟电子宠物装置和宠物型机器人相互连接的连接例子的框图。
图33是示出了用红外线将虚拟电子宠物装置和宠物型机器人相互连接的连接例子的框图。
图34是示出了用无线电波将虚拟电子宠物装置和宠物型机器人相互连接的连接例子的框图。
图35是示出了用蓝牙(Bluetooth)模块将虚拟电子宠物装置和宠物型机器人相互连接的连接例子的框图。
图36是示出了用USB电缆将宠物型机器人和个人计算机相互连接并且个人计算机连接互联网(Internet)的连接例子的框图。
图37是示出了用红外线将宠物型机器人和个人计算机相互连接并且个人计算机连接互联网的连接例子的框图。
图38是示出了用无线电波将宠物型机器人和个人计算机相互连接并且个人计算机连接互联网的例子的框图。
图39是示出了用蓝牙模块将宠物型机器人和个人计算机相互连接并且个人计算机连接互联网的例子的框图。
图40示出了从虚拟电子宠物装置向宠物型机器人传递宠物特性信息的流程图。
图41示出了从宠物型机器人向虚拟电子宠物装置传递宠物特性信息的流程图。
图42示出了在宠物型机器人与虚拟电子宠物装置之间传递宠物特性信息不被执行情况下的流程图。
图43示出了连接请求信号、连接许可信号以及接收终止信号的数据格式。
图44示出了由宠物共享服务器管理电子宠物的典型系统结构。
图45是示出了在用于由共享服务器管理电子宠物的系统结构中的宠物型机器人以及虚拟电子宠物装置的典型硬件结构的框图。
图46是用于说明将电子宠物交给共享服务器并从共享服务器接收电子宠物的具体例子的图。
图47概念性地示出了存在于虚拟世界的用户化身和电子宠物的例子。
图48是示出了在用于由共享服务器管理电子宠物的系统结构中的宠物型机器人以及虚拟电子宠物装置的典型硬件结构的框图,并且示出了用蓝牙模块将宠物型机器人和虚拟电子宠物装置连接到互联网的状态。
图49是示出了存在于虚拟世界中的电子宠物和用户化身系统详细结构的框图。
图50是示出了用于图49所示系统的客户机PC典型结构的框图。
图51是用于说明在图49所示系统中,从浏览提供虚拟现实造型语言(VRML)内容的网站主页,到将VRML下载到客户机PC的处理流程图。
图52是用于说明在图49所示系统中,从由客户机PC解释和执行VRML2.0文件到询问共享服务器的URL的处理流程图。
图53是用于说明处理多个客户机PC通过共享服务器接收涉及三维对象的数据并实现多用户环境的流程图。
具体实施方式
参照图将对本发明的优选实施例进行详细描述。
图1示出了作为本发明第一个实施例的电子宠物系统的总体结构。(在本说明中,不管各个装置是否包含在同一个外壳中,系统意味着多个装置的逻辑集合。)
如图1所示,电子宠物系统具有独立信息存储部分1和身体部分2。
例如,作为生命体的动物被认为是由处于肉体中的肉体和灵魂组成的并且控制心理活动。电子宠物系统的独立信息存储部分1相当于这样的动物灵魂并且作为电子宠物的硬件被构成。身体部分2相当于肉体并且作为电子宠物的软件被构成。
具体来说,表示电子宠物特性(情感和心理特性)的独立信息存储部分1可以说是执行电子宠物灵魂的功能。表现电子宠物动作的身体部分2可以说是执行实现电子宠物的真实或虚拟肉体的功能并且用真实或虚拟的肉体表现实际的动作。身体部分2的动作根据由独立信息存储部分1所掌握的电子宠物特性做出。因此,独立信息存储部分1可说是电子宠物的核心。
独立信息存储部分1可以从身体部分2中抽出,也可以提供给(放入)其它身体部分21,22,…。在这种情况下,没有提供独立信息存储部分1的身体部分2不执行电子宠物的功能。这种情况下的电子宠物处于所谓的脱钩(cast off)状态。
在另一方面,在其中提供独立信息存储部分1的其它身体部分开始执行具有初始特性的电子宠物功能。即,电子宠物的灵魂可以从一个肉体转换到另一个肉体。
图2示出了图1所示的电子宠物系统的更具体的结构。
例如,图1的独立信息存储部分1是由IC(集成电路)卡21表示的。IC卡21包含一个压印(stamp)快闪存储器或其它此类东西,储存将在后文中描述的电子宠物的本能和情感特性以及身体部分的构成信息(在下文中称为宠物特性信息)。
例如,图1所示的身体部分2由虚拟电子宠物装置22或宠物型机器人23实现。虚拟电子宠物装置22由用于执行显示虚拟电子宠物的便携式信息处理装置构成,并且具有用于在其中插入IC卡21的槽22A。宠物型机器人23是一个具有电子宠物外形的机器人并且也具有用于在其中插入IC卡21的槽23A。虽然在本发明的实施例中用四足机器人作为宠物型机器人的例子,机器人的形状并没有特别的限制并且可以使用各种所需要的形状,如两足机器人、有翅膀的机器人、有轮子的机器人、无肢体的机器人以及各个部分的组合或修改。本发明可应用于各种形状的机器人。
虚拟电子宠物装置22以及宠物型机器人23都是执行电子宠物的身体部分功能的装置并且他们自己不能采取任何行动。具体来说,当IC卡21装入其中时,虚拟电子宠物装置22和宠物型机器人23执行作为电子宠物的功能。在虚拟电子宠物22的情况下,电子宠物被显示在其监视器上并且被显示在监视器上的电子宠物根据储存在IC卡21上的宠物特性信息采取行动。类似地,宠物型机器人23根据储存在IC卡21上的宠物特性信息采取行动。
用这样的电子宠物系统,当用户在家时,可以将IC卡21插入宠物型机器人23的槽23A中,从而享受接近实际饲养宠物的感觉。当用户出门旅行时,用户可以从宠物型机器人23中取出IC卡并插入虚拟电子宠物装置22中,从而很容易地将电子宠物带到目的地。
图3示出了图1所示的身体部分2的典型电结构。身体部分2假定是虚拟电子宠物装置22和宠物型机器人23,它们在后文中还会被详细描述。
I/F(接口)10相当于图2所示虚拟电子宠物装置22的槽22A或宠物型机器人23的槽23A,并且起在独立信息存储部分1和身体部分2之间传递数据的接口作用。具体来说,I/F 10读出表示电子宠物本能和情感特性和身体部分结构的信息(宠物特性信息),并且将这些信息提供给内部状态计算部分11。I/F 10还将获得的作为内部状态计算部分11预定计算结果的信息写到独立信息存储部分1中并更新储存内容。
除上述的来自I/F 10的宠物特性信息之外,来自外部输入部分12和时间输入部分13的输入也提供给内部状态计算部分11。此外,由动作转化部分15获得的电子宠物的具体动作反馈给内部状态计算部分11。内部状态计算部分11根据来自I/F 10、外部输入部分12、时间输入部分13或动作转化部分15的输入驱动储存在模式存储部分14中的情感和本能模式并更新电子宠物的内部状态。如后文所述,电子宠物的内部状态涉及包含在来自I/F 10的宠物特性信息中的情感和本能信息并且被更新的内部状态通过I/F 10写到独立信息存储部分1。内部状态计算部分11还决定由电子宠物做出的动作(概念动作),并且向动作转化部分15输出表示执行动作(概念动作)的指令,动作转化部分15执行控制以做出实际的动作。
外部输入部分12向内部状态计算部分11提供用户给出的或来自外部环境的刺激。
在身体部分2是虚拟电子宠物装置22的情况下,外部输入部分12由键盘(或开关和按钮)、麦克风以及声音识别装置构成。外部输入部分12将用户为照顾电子宠物所做出操作或说出的语言转换为电信号,并且将该电信号提供给内部状态计算部分11。
另一方面,在身体部分2是宠物型机器人23的情况下,外部输入部分12由键盘、麦克风、声音识别装置、光电转化元件、图象识别装置以及传感器(例如,温度传感器)构成。外部输入部分12将用户为照顾电子宠物所做出操作或说出的语言转换为电信号,并且将该电信号提供给内部状态计算部分11。外部输入部分12还向内部状态计算部分11提供关于周围物体和温度的信息。
时间输入部分13记时(包括年、月、日)并向内部状态计算部分11提供时间(当前时间)。
模式存储部分14储存电子宠物情感和本能的模式(情感/本能模式)。例如,作为电子宠物的情感设置的有喜悦、悲伤、愤怒、惊奇、恐惧以及憎恨,模式存储部分14储存这些情感模式(例如,用于得到表示这些情感的参数的计算公式)。作为电子宠物的本能设置的有运动本能、爱本能、重新充电本能以及搜寻本能,模式存储部分14储存这些本能模式。电子宠物的内部状态由情感状态和本能状态构成。
无论身体部分2是虚拟电子宠物装置22或是宠物型机器人23,身体部分2具有相同结构的情感和本能模式。这样,甚至当I/C卡21在虚拟电子宠物装置22和宠物型机器人23之间交换时,对于那些不同的电子宠物,电子宠物的特性和动作是不变的。
动作转化部分15将来自内部状态计算部分11的概念动作指令转换为说明具体动作(如动作、运动或姿势)的指令(动作指令)。动作转化部分15向输出部分16提供该指令并且作为反馈也向内部状态计算部分11提供该指令。
输出部分16按照来自动作转化部分15的动作指令做出输出。具体来说,输出部分16按照来自动作转化部分15的动作指令使电子宠物采取行动。
在身体部分2是虚拟电子宠物装置22的情况下,输出部分16由监视器、声音合成器(例如,rule-based声音合成器)以及扬声器构成。输出部分16的输出改变电子宠物的显示并且输出声音。
另一方面,在身体部分2是宠物型机器人23的情况下,输出部分16由运动部分、声音合成器以及扬声器构成,运动部分如用于驱动对应于肢体各部件、躯干、头和尾部分的电动机。这样,输出部分16的输出旋转预定电动机并且输出声音。
下面将用更具体的例子描述虚拟电子宠物装置22以及宠物型机器人23。图4示出了虚拟电子宠物装置22的典型硬件结构。
CPU(中央处理单元)31用于按照储存在ROM(只读存储器)32中的程序执行各种类型的处理。定时器电路31A计算时钟(没有示出),并且基于计算值在每一个预定的单位时间(例如,100ms)对CPU 31产生定时器中断。
ROM 32储存由CPU 31执行的程序以及执行程序所需要的数据。RAM(随机存取存储器)33储存CPU 31运行所需要的数据。
I/F 34在两方之间起接口的作用,其中一方是CPU 31而另一方是A/D转换器36、操作部分37、IC卡连接器38、D/A转换器39以及液晶控制器41。
对于上述的若干部分,CPU 31、ROM 32、RAM 33以及I/F 34通过总线(地址总线和数据总线)相互连接。
麦克风35将输入的声音(例如,哨声等)转换为作为模拟电信号的音频信号并将音频信号提供给A/D转换器36。A/D转换器36对来自麦克风的模拟音频信号进行A/D转换,将生成的数字音频信号通过I/F 34输出到CPU 31。
在CPU 31已经这样接收音频信号的情况下,CPU 31对音频信号进行线性预测分析,以便从中提取特征量,并且按照HMM(hidden Markov model,隐含马尔可夫模式)方法进行声音识别。由CPU 31执行用于声音识别的程序以及作为声音识别目标的字型被存储在例如ROM 32中。在这种情况下,由于字型是声音识别的目标,特别是主人对宠物说话所用的字型被储存。被储存的字包括“嗨(Hey)”、“好宝贝(Good boy)”、“早上好(Good morning)”、“晚上好(Good night)”、“爪(Paw)”、“坐(Sit)”、“干什么(What are you doing)?”等。
声音分析的方法不限于线性预测分析,声音识别的方法不限于HMM方法。
操作部分37由各种按钮和键构成并且通过I/F 34向CPU 31提供对应来自用户操作的信号。这样,CPU 31能认别出由用户操作的按钮和键。操作部分37具有用于向电子宠物提供各种输入的按钮,如在斥责宠物时使用的“斥责(Scold)”按钮、在表扬宠物时使用的“表扬(Praise)”按钮、对应说“早上好”或“晚上好”的“问候(Greeting)”按钮、以及在表演时使用的指示电子宠物举起爪子或坐下的“爪”按钮和“坐”按钮。
在虚拟电子宠物装置22(图2)的槽22A中提供了IC卡连接器38,当IC卡21装置入槽22A时,IC卡连接器38适用于通过I/F 34将IC卡21与CPU31进行电连接。在这种情况下,CPU 31通过I/F 34和IC卡连接器38既可以从IC卡21中读出数据也可以向IC卡21中写入数据。CPU 31还能检验IC卡21的装入。
D/A转换器39对通过I/F 34来自CPU 31的数字声音信号进行D/A转换并且将生成的模拟音频信号提供给扬声器40。扬声器40含有放大来自D/A转换器39的音频信号并且将放大的音频信号输出的放大器。CPU 31用声音合成器产生电子宠物的声音或者,如果需要,产生其它所需要的声音,并且通过I/F 34向D/A转换器39输出合成的声音。用于进行声音合成的程序以及必要的数据储存在,例如,ROM 32中。
液晶控制器41由CPU 31通过I/F 34控制并且在液晶显示器部分42上显示各种图象(例如,电子宠物的图象)和字符。液晶显示器部分42在液晶控制器41的控制下显示图象和字符。ROM 32储存用于通过控制液晶控制器而在液晶显示器上显示图象和字符的程序,并且CPU 31执行该程序,如此在液晶显示器部分42上显示图象和字符。
上述为虚拟电子宠物装置22的典型硬件结构。下面将描述宠物型机器人23的典型硬件结构。宠物型机器人23的典型硬件结构如图5所示。
在图5中,与图4中虚拟电子宠物装置22对应的那些部分用相同的数字表示。具体来说,除了提供代替液晶控制器41和液晶显示器部分42的电动机51和传动机械52以外,宠物型机器人23具有与虚拟电子宠物装置22基本相同的结构。
电动机51由CPU 31通过I/F 34控制并且适合于驱动传动机械52。例如,作为宠物型机器人23的运动部件,传动机械52包括头、肢体、躯干、或者尾巴并且由电动机51驱动。
图4和5的I/F 34以及IC卡连接器38对应于图3的I/F 10,图4和5的CPU 31和ROM 32对应于图3的内部状态计算部分11和动作转化部分15。图4和5的麦克风35、A/D转换器36以及操作部分37对应于图3的外部输入部分12。图4和5的定时器电路31A对应于图3的时间输入部分13。图4和5的ROM 32对应于图3的模式存储部分14。此外,图4和5的D/A转换器39和扬声器40、图4的液晶控制器41和液晶显示器部分42或者图5的电动机51和传动机械52对应于图3的输出部分16。
下面将进一步详细描述宠物型机器人。如图6所示,宠物型机器人的总体形状(外观)由连接起来的对应头的头部分61、对应躯干的躯干部分62、对应四肢的肢体部分63A、63B、63C、63D以及对应尾巴的尾巴部分64构成。这种结构的宠物型机器人23的头部分61、肢体部分63A至63D以及尾巴部分64可以相对于躯干部分62运动,如此象真实的四肢动物那样运动。虽然没有示出,宠物型机器人23具有用于装入IC卡21的槽。
如图7所示,在头部分61上,由对应用于拾取图象的眼睛的CCD(chargecoupled device,电荷耦合器件)摄象机构成的图象识别部分71、对应用于拾取声音的耳朵的麦克风72、对应用于产生声音的嘴巴的扬声器73被安装在预定位置上。此外,在头部分61上还安装了:遥控器接收部分74,用于接收来自用户通过遥控器(没示出)发射的指令;接触传感器75,用于检测用户的手的触摸等;以及由LED(发光二极管)76组成的发光装置。
在躯干部分62上,电池77安装在对应腹部的位置上,并且用于控制整个宠物型机器人23运行的电子线路放在躯干部分62里面。
肢体部分63A至63D的关节部位、肢体部分63A至63D与躯干部分62之间的连接部位、躯干部分62与头部分61之间的连接部位以及躯干部分62与尾巴部分64之间的连接部位由它们各自的致动器(actuator)78A至78N连接并且在位于躯干部分62里面的电子线路控制之下被驱动。借助于如此驱动致动器78A至78N,宠物型机器人23象真实四肢动物一样运动,例如,水平或垂直地摇动头部分61、摆动尾巴部分64、移动肢体部分63A至63D去走或跑。
这样的宠物型机器人23根据输入信息如周围信息和内部信息(例如,电池剩余电量的信息)改变其内部状态如情感和本能。内部状态储存在IC卡21上。
宠物型机器人23根据变化的内部状态控制运动部分如头部分61、躯干部分62、肢体部分63A至63D以及尾巴部分64(这些运动部分由致动器78A至78N驱动),并以此在真实世界中实现电子宠物。参照图7将详细描述这种宠物型机器人23的电路结构。
头部分61具有由麦克风72和遥控器接收部分74组成的指令接收部分80、由图象识别部分71和接触传感器75组成的外部传感器81、扬声器73以及LED76。躯干部分62具有电池77、还有位于其中的控制整个宠物型机器人23运行的控制器82、由用于检测电池77剩余电量的电池传感器83和用于检测宠物型机器人23内部发热的热传感器84组成的内部传感器85。另外,在宠物型机器人23的预定位置安装致动器78A至78N。
指令接收部分80由麦克风72和遥控器接收部分74构成,适用于接收由用户向宠物型机器人发出的指令如“走(Walk)”、“下(Down)”以及“追球(Chase the ball)”。
遥控器控制部分74接收由用户操作遥控器(没有示出)输入的预定指令。例如,利用红外线实现从遥控器发出指令。遥控器接收部分74接收该红外线,以生成信号S1A并将它传送到控制器82。
遥控器不只限于用红外线,还适用于用音阶向宠物型机器人23发出指令。在这种情况下,宠物型机器人23执行对应于从麦克风72输入的来自遥控器的音阶的操作。
当用户按照预定指令发出一个声音时,麦克风72拾取由用户发出的声音,以生成音频信号S1B并将它传送到控制器82。
这样,指令接收部分80按照由用户向宠物型机器人23给出的指令生成由接收到的信号S1A和音频信号S1B组成的指令信号S1并将该指令信号S1传送到控制器82。
外部传感器81的接触传感器75适用于检测用户对宠物型机器人23的接触,例如,“轻拍”、“拍打”等。例如,当用户触摸接触传感器75并采取预定的接触方式时,接触传感器75生成对应这种接触的接触检测信号S2A并将它传送到控制器82。
外部传感器81的图象识别部分71适用于检测宠物型机器人23周围的环境信息如“黑暗”、“有一个我喜欢的玩具”或者另一个机器人装置的运动如“另一个机器人正在跑”,作为识别宠物型机器人23周围环境的结果。图象识别部分71向控制器82传送作为拾取周围图象结果的图象信号S2B。
这样,外部传感器81根据来自宠物型机器人23以外的外部信息生成由接触检测信号S2A和图象信号S2B组成的外部信息信号S2,并将外部信息信号S2传送到控制器82。
内部传感器85适用于检测宠物型机器人23自身的内部信息,如‘我饿了”,这表示电池的电量不足,“我发烧”等。内部传感器85由电池传感器83和热传感器84构成。
电池传感器83用于检测为宠物型机器人23的各个电路提供电源的电池77的剩余电量。作为检测的结果,该电池传感器83向控制器82传送电池电量的检测信号S3A。
热传感器84用于检测宠物型机器人23内部的发热。作为检测的结果,热传感器84向控制器82传递热检测信号S3B。
这样,内部传感器85根据宠物型机器人23的内部信息生成由电池电量检测信号S3A和热检测信号S3B组成的内部信息信号S3并将它传送到控制器82。
图7中示出的图象识别部分71、麦克风72、遥控器接收部分74以及接触传感器75等对应于图3中示出的外部输入部分12。图7中示出的致动器78A至78N对应于图3中示出的输出部分16。当然,在图7中没有示出而在图3或5中示出的组成部分也可以提供给图7所示的宠物型机器人23作为组成部分。例如,可以提供如时间输入部分13的组成部分。
控制器82在输入信息的基础上生成用于驱动致动器78A至78N的控制信号S5A至S5N并将这些控制信号传送到致动器78A至78N,以此操纵宠物型机器人23,其中输入信息包括:来自指令接收部分80的指令信号S1、来自外部传感器81的外部信息信号S2以及来自内部传感器85的内部信息信号S3。
控制器82生成向外界输出的音频信号S10或发光信号S11并且,如果需要,通过扬声器73向外界输出声音信号S10或向LED 76传递发光信号S11以执行预定的发光输出(例如,闪光或改变颜色),以便将必要的信息通知用户。例如,利用发光输出,控制器82将电子宠物的情感通知用户。用于显示图象的图象显示部分可以取代LED 76。这样,就可以通过显示预定的图象来通知用户必要的信息,如情感。下面将详细描述控制器82的处理过程。
控制器82根据预先储存在预定存储区域中的程序,按照来自指令接收部分80的指令信号S1、来自外部传感器81的外部信息信号S2以及来自内部传感器85的内部信息信号S3进行软件类的数据处理,并且将作为结果获得的控制信号S5提供给致动器78A至78N。致动器78A到78N依据控制信号S5A,S5B,…,S5N运行。
如图8所示,在控制器82中进行数据处理的内容可按功能分为作为情感/本能模式改变装置的情感/本能模式部分90、作为运动决定装置的动作决定机构部分91、作为姿势转换装置的姿势转换机构部分92以及控制机构部分93。由外部提供的指令信号S1、外部信息信号S2以及内部信息信号S3输入到情感/本能模式部分90和动作决定机构部分91。这些部分的大致功能大致如下所述。
根据指令信号S1、外部信息信号S2以及内部信息信号S3,情感/本能模式部分90决定情感和本能的状态。根据由情感/本能模式部分90产生的情感/本能状态信息S10再加上指令信号S1、外部信息信号S2以及内部信息信号S3,动作决定机构部分91决定下一个运动(动作),并且在后续阶段中姿势转换机构部分92制定用于转换到由动作决定机构部分91决定的下一个运动(动作)的姿势转换方案。由动作决定机构部分91决定的运动(动作)信息反馈到情感/本能模式部分90,并且情感/本能模式部分90参照已决定的运动(动作)决定情感和本能的状态。即,情感/本能模式部分90还参照运动(动作)的结果决定本能和情感。
按照根据姿势转换方案而从姿势转换机构部分92发送的姿势转换信息S18,控制机构部分93控制每个动作部分,然后实际改变姿势并执行由动作决定机构部分91决定的下一个运动(动作)。
即,利用上述的控制器82,宠物型机器人23根据情感和本能决定下一个运动(动作),然后为了实现能够执行这个运动(动作)的姿势,制定转换方案,再根据转换方案改变姿势,并且实际执行根据这种情感和本能决定的运动(动作)。
在图3中示出的用于情感和本能的模式储存部分14和内部状态计算部分11的功能由图8中示出的情感/本能模式部分90实现,图3中示出的动作转化部分15的功能由图8中示出的动作决定机构部分91、姿势转换机构部分92以及控制机械部分93实现。下面将描述上述控制器82的各个组成部分。
如图9所示,情感/本能模式部分90通常具有组成情感模式的情感组100和组成本能模式的本能组101,本能模式是作为具有与那些情感模式不同属性的模式而准备的。
在这种情况下,情感模式是这样一种模式,它由具有一定数值的情感参数构成并且适用于借助对应情感参数值的动作表示对机器人装置规定的情感。
情感参数值主要是根据外部输入信号(周围信息或外部因素)增加或减小,外部输入信号是由传感器如压力传感器或视觉传感器检测的,表示“被打”或“被责骂”。当然,在某些情况下,情感参数可以根据内部输入信号(内部信息或内部因素)变化,如电池的剩余电量或体内温度。同时,情感参数还可以简单地随着时间的流逝而变化。
本能模式是这样一种模式,它由具有一定值的本能参数构成并且适用于借助对应本能参数值的动作表示对机器人装置规定的本能(愿望)。本能参数值主要是按照内部输入信号增加或减小,内部输入信号根据动作记录表示“我想运动”或根据电池的剩余电量表示“我需要充电(我饿了)”。当然,与情感参数类似,本能参数可以根据外部输入信号变化。同时,本能参数还可以简单地随着时间的流逝而变化。
情感模式和本能模式分别由具有相同属性的多种模式组成。具体来说,情感组100具有作为具有相同属性的独立情感模式的情感单元100A至100F,并且本能组101具有作为具有相同属性的独立本能模式的本能单元101A至101D。
情感组100具有表示“喜悦(joy)”情感的情感单元100A,表示“悲伤(sadness)”情感的情感单元100B,表示“愤怒(anger)”情感的情感单元100C,表示“惊奇(surprise)”情感的情感单元100D,表示“恐惧(fear)”情感的情感单元100E以及表示“憎恨(hatred)”情感的情感单元100F。
本能组101具有表示“运动本能(movement instinct)”的本能单元101A,表示“爱本能(love instinct)”的本能单元101B,表示“充电本能(rechargeinstinct)”的本能单元101C,表示“搜寻本能(search instinct)”的本能单元101D。
对于情感单元100A至100F来说,情感的度用强度(情感参数)来表示,例如,0到100,并且每时每刻,情感的强度根据所提供的指令信号S1、外部信息信号S2以及内部信息信号S3变化。这样,通过组合随时间变化的情感单元100A至100F的强度,情感/本能模式90表示宠物型机器人23的情感状态,并由此形成随时间变化的情感模式。
此外,预定的情感单元之间相互影响因而改变强度。例如,情感单元以相互抑制或相互促进的方式耦合起来,从而相互影响,以此改变强度。
具体来说,如图10所示,如果“喜悦”情感单元100A与“悲伤”情感单元100B以相互抑制的方式耦合起来,当电子宠物被用户表扬时,“喜悦”情感单元100A的强度增加,并且即使没有提供改变“悲伤”情感单元100B强度的输入信息S1至S3,对应“喜悦”情感单元100A强度的增加,“悲伤”情感单元100B的强度也要相应减小。相似地,当“悲伤”情感单元100B的强度增加时,“喜悦”情感单元100A的强度根据“悲伤”情感单元100B强度的增加而相应减小。
如果“悲伤”情感单元100B与“愤怒”情感单元100C以相互促进的方式耦合起来,当电子宠物被用户拍打时,“愤怒”情感单元100C的强度增加,并且即使没有提供改变“悲伤”情感单元100B强度的输入信息S1至S3,对应“愤怒”情感单元100C强度的增加,“悲伤”情感单元100B的强度也要相应增加。相似地,当“悲伤”情感单元100B的强度增加时,“愤怒”情感单元100C的强度根据“悲伤”情感单元100B强度的增加而相应增加。
当预定的情感单元这样相互影响从而改变强度时,互相耦合的情感单元其中之一的强度变化会导致其它情感单元的强度变化,如此实现宠物型机器人23具有自然的情感。
对于本能单元101A至101D来说,与情感单元100A至100F相似,本能的度用强度(本能参数)来表示,例如,0到100,并且每时每刻,本能的强度根据所提供的指令信号S1、外部信息信号S2以及内部信息信号S3变化。这样,通过组合随时间变化的本能单元101A至101D的强度,情感/本能模式90表示宠物型机器人23的本能状态,并由此形成随时间变化的本能模式。
此外,与情感单元耦合的情况相似,预定的本能单元之间相互影响从而改变强度。例如,本能单元以相互抑制或相互促进的方式耦合起来,从而相互影响,以此改变强度。这样,当互相耦合的本能单元其中之一的强度改变时,其它本能单元的强度也相应变化,并且实现宠物型机器人23具有自然的本能。
再者,情感组100的单元与本能组101的单元相互影响从而改变强度。例如,表示“爱本能”的本能单元101B和表示“充电本能”的本能单元101C的强度变化影响情感组100的表示“悲伤”的情感单元100B和表示“愤怒”的情感单元100C的强度变化。这样,如果“爱本能”被满足,“愤怒”情感和“悲伤”情感被抑制,而如果“充电本能”没被满足,“愤怒”情感和“悲伤”情感就会增加。借助情感和本能之间这样的相互作用,可以表达情感和本能之间相互影响的复杂状态。
如上所述,利用由指令信号S1、外部信息信号S2以及内部信息信号S3组成的输入信息S1至S3,或者情感组100的情感单元之间的相互作用、本能组101的本能单元之间的相互作用以及情感组100和本能组101的单元之间的相互作用,情感/本能模式部分90改变情感单元100A至100F以及本能单元101A至101D的强度。
情感/本能模式部分90通过组合变化的情感单元100A至100F的强度决定情感的状态,通过组合变化的本能单元101A至10ID的强度决定本能的状态。情感/本能模式部分90以情感/本能状态信息S10向动作决定机构部分91传递已确定的情感状态和已确定的本能状态。
在下一阶段,来自动作决定机构部分91的表示宠物型机器人23自身当前或过去动作内容的动作信息S12提供给情感/本能模式部分90。例如,在由动作决定机构部分91决定的行走动作的情况下,提供表示宠物型机器人“已经走很长时间了”的动作信息S12,这些内容将在后面描述。
借助于这种反馈动作信息S12,即使提供相同的输入信息S1至S3,仍然可以根据由动作信息S12表示的宠物型机器人23的动作生成不同的情感/本能状态信息S10。具体来说,用后续的装置,在决定情感状态和本能状态的过程中受被反馈的动作信息S12的影响。
如图11所示,在情感/本能模式部分90中,在情感单元100A至100C的前一阶段,提供用于增加/减小情感单元100A至100C强度的强度信息S14A至S14C,强度信息S14A至S14C是由强度增加/减小装置102A至102C根据表示宠物型机器人23动作的动作信息S12以及输入信息S1至S3生成的,并且根据从强度增加/减小装置102A至102C输出的强度信息S14A至S14C增加/减小情感单元100A至100C的强度。
例如,当宠物型机器人迎接用户并且用户在其头上拍打时,即,当向强度增加/减小装置102A提供表示宠物型机器人已经迎接了用户的动作信息S12和表示宠物型机器人的头上被拍打的输入信息S1至S3时,情感/本能模式部分90增加“喜悦”情感单元100A的强度。另一方面,当在正在执行某种任务的宠物型机器人的头上拍打时,即,当向强度增加/减小装置102A提供表示宠物型机器人正在执行任务的动作信息S12和表示宠物型机器人的头上被拍打的输入信息S1至S3时,情感/本能模式部分90不改变“喜悦”情感单元100A的强度。例如,根据动作信息S12和输入信息S1至S3,作为用于生成强度信息S14A至S14C的函数或表格,构成了强度增加/减小装置102A。类似地,构成其它强度增加/减小装置102B和102C。
这样,由于情感/本能模式部分90具有强度增加/减小装置102A至102C并且不仅根据输入信息S1至S3,还根据表示宠物型机器人23当前或过去动作的动作信息S12决定情感单元100A至100C的强度,就能够避免发生不自然的情感,如在宠物型机器人执行某种任务期间用户在宠物型机器人的头上不怀好意地拍打时,“喜悦”情感单元100A的强度增加。类似地,情感/本能模式部分90根据向其提供的输入信息S1至S3和动作信息S12增加或减小本能单元101A至101C的强度。
在本实施例中,提供强度增加/减小装置102A至102C是用于“喜悦”、“悲伤”以及“愤怒”情感单元100A至100C的。但是,本发明当然不限于这样的结构并且也可以提供用于其它“惊奇”、“恐惧”以及“憎恨”情感单元100D至100F的强度增加/减小装置。
如上所述,当输入信息S1至S3和动作信息S12被输入时,强度增加/减小装置102A至102C根据预定参数生成并输出强度信息S14A至S14C。因此,通过改变各个宠物型机器人23的参数值,可以使机器人具有如急脾气或快乐的个性。
下面将描述动作决定机构部分91的处理过程。具体来说,动作决定机构部分91与图12中示出的选择模块94合作,根据各种类型的信息确定下一个动作。如图8所示,由指令信号S1、外部输入信号S2、内部信息信号S3、情感/本能状态信息S10以及动作信息S12组成的信息S14提供给动作决定机构部分91,并且动作决定机构部分91根据该信息S14决定下一个运动(动作)。
如图12所示,动作决定机构部分91储存多个动作模式,如“第一个动作模式(动作模式1)”,“第二个动作模式(动作模式2)”,“第三个动作模式(动作模式3)”,“第四个动作模式(动作模式4)”,…,“第n个动作模式(动作模式n,其中n为整数)。例如,动作模式是用于在各种场合决定动作的模式,如“电池剩余电量减少的情况”、“从跌倒中恢复的情况”、“躲避障碍物的情况”、“搜寻球的情况”。即,当输入某种信息时,由输入信息确定的动作模式(或多个动作模式)对输入信息做出反应并且已经做出反应的动作模式决定下一个动作。
然后,由第一个至第n个动作模式根据信息S14决定的结果输出到选择模块94。
作为用于决定下一个动作的技术,第一个至第n个动作模式采用一种称为有限概率自动算法(finite probability automaton)的算法,如图13所示,该算法根据按照连接各个节点(状态)NODE0至NODEn的弧线ARC1至ARCn所表示的转换概率P1至Pn的概率决定做出从一个节点NODE0至NODEn到另一个节点NODE0至NODEn的转换。
具体来说,对应节点NODE0至NODEn构成的动作模式本身,第一个至第n个动作模式具有如图14所示的用于节点NODE0至NODEn的每个节点的状态转换表95。
在状态转换表95中,作为在节点NODE0至NODEn中的转换条件的输入事件(识别的结果)按照优先顺序列于“输入事件名”列中,描述关于转换条件的其它条件在对应的“数据名”列和“数据范围”列的对应行中。
在图14的状态转换表95示出的节点NODE100中,用于向另一个节点转换的条件包括:当提供的识别结果(信息S14)表示“球被发现(BALL)”时,伴随着识别结果或者作为识别结果提供球的“尺寸(SIZE)”是在“0到1000”的范围内;或者当提供的识别结果表示“阻碍物被发现(OBSTACLE)”时,伴随着识别结果提供障碍物的“距离(DISTANCE)”在“0到100”的范围中。
在这个节点NODE100中,还参照预定单元的强度是否超过预定的阈值来决定作为转换目标的节点,其中的强度为来自情感/本能模式部分90,作为识别结果提供的情感/本能状态信息S10所表示的情感单元100A至100F和本能单元101A至101D的强度。这样,即使当输入的指令信号S1相同时,也要根据情感单元100A至100F和本能单元101A至101D的强度做出的不同节点的转换。
在这个节点NODE100中,即使在没有输入识别结果(信息S14)的情况下,当由情感模式掌握的“喜悦(JOY)”、“惊奇(SURPRISE)”以及“悲伤(SADNESS)”中的任何一个参数值在“50至100”的范围中时,就会做出向另一个节点的转换,其中情感和本能的参数值由情感/本能模式部分90掌握。
在状态转换表格95中,从节点NODE0至NODEn能够转换到的节点名被列出在“转换目标节点”行的“转换到另一个节点的概率”段中,并且当在行中所描述的“输入事件名”、“数据名”以及“数据范围”等全部条件都被满足时,能够向另一个节点NODE0至NODEn转换的概率在“转换到另一个节点的概率”段中的相应位置被说明。同时,在向节点NODE0至NODEn转换中输出的动作在“转换到另一个节点的概率”段中的“输出动作”行中被描述。在“转换到另一个节点的概率”段中的各行所描述的概率的总和为100[%]。转换的概率可能改变。例如,转换的概率被学习功能改变。即,宠物型机器人23根据学习的结果改变转换的概率并且因此获得决定动作方面的个性。例如,转换概率是宠物型机器人23的特性,转换概率作为宠物型机器人23的特性被储存进独立信息存储部分1(IC卡21)中。
例如,在图14的状态转换表95示出的节点NODE100中,当被提供的识别结果(信息S14)表明“球被找到(BALL)”并且球的“尺寸(SIZE)”在“0到100”的范围中时,到“节点NODE120(节点120)”的转换能以30%的概率进行,然后输出“ACTION1(动作1)”的动作。
用这样的动作模式,例如,当根据提供的外部信息S2检测到手掌出现在宠物型机器人23面前,并且根据情感/本能状态信息S10检测到“愤怒”情感单元100C的强度不高于预定的阈值,根据内部信息信号S3检测到“宠物型机器人不饿”,即,电池的电压不低于预定的阈值时,相应于出现在宠物型机器人面前的手掌,用于做出“伸出爪子”行动的动作被决定。
在另一方面,当检测到手掌出现在宠物型机器人23面前,“愤怒”情感单元100C的强度不高于预定的阈值,并且“宠物型机器人饿了”,即,电池的电压低于预定的阈值时,用于做出“舔手掌”行动的动作被决定。
或者,当检测到手掌出现在宠物型机器人23面前,“愤怒”情感单元100C的强度等于或高于预定的阈值,不管是否“宠物型机器人不饿”,即,电池的电压是否不低于预定的阈值,做出“不理睬”行动的动作被决定。
第一个至第n个动作模式以这样的方式构成,即若干如状态转换表95所描述的节点NODE0至NODEn被连接。这样,当提供识别结果(信息S14)时,通过使用对应于节点NODE0至NODEn的状态转换表,根据概率决定下一个动作,并且决定的结果输出到选择模块94。
选择模块94在来自第一个至第n个动作模式输出的动作中,选择来自预定高优先权的动作模式输出的动作,并且以动作指令信息S16,向姿势转换机构部分92输出所选动作的信息。例如,在图12中所描述的动作模式中,越靠下的动作模式,优先权越高。
选择模块94还以动作信息S12,向情感/本能模式部分90和动作决定机构部分91输出选择的结果。例如,选择模块94在决定的动作上形成一个标志并且以动作信息S12和动作指令信息S16向动作决定机构部分91和姿势转换机构部分92输出选择模块94的信息。
动作决定机构部分91根据动作信息S12以及外部信息(指令信息S1和外部信息信号S2)S21和内部信息(内部信息信号S3和情感/本能状态信息S10)S22决定动作,并且这样就能在考虑到前面动作的情况下,决定下一个动作。
如上所述,情感/本能模式部分90根据动作信息S12以及相同的信息S1至S3(包括指令信号S1、外部信息S2和内部信息信号S3)改变情感和本能的状态。这样,如上所述,即使当提供相同的信息S1至S3时,情感/本能模式部分90也能产生不同的情感/本能状态信息S10。
由于信息S1至S3的内容随输入到情感/本能模式部分90和动作决定机构部分91的时间而变化,信息S1至S3被输入到情感/本能模式部分90和动作决定机构部分91双方。
例如,当提供表示“在宠物型机器人的头上拍打”的外部信息信号S2时,控制器82使情感/本能模式部分90生成表示“喜悦”的情感/本能状态信息S10并将情感/本能状态信息S10提供给动作决定机构部分91。在这个状态中,如果提供表示“手掌放在宠物型机器人面前”的外部信息信号S2,动作决定机构部分91根据表示“喜悦”的情感/本能状态信息S10和表明“手掌放在宠物型机器人面前”的外部信息信号S2决定“高兴地伸出爪子”的动作。
借助上述各种类型的方法,由动作决定机构部分91和选择模块94决定动作指令信息S16,即,以概念的形式决定动作。确定的动作指令信息S16被输入到姿势转换机构部分92。
姿势转换机构部分92生成用于转换到目标姿势或目标运动的信息。
如上所述,宠物型机器人23使动作决定机构部分91决定要采取的下一个动作。但是,当前的动作和下一个动作不需要以相同的姿势或运动实现。即,要考虑这种情况,当前动作是在“躺姿势”中实现的而下一个动作是在“站立姿势”中实现的。在这种情况下,为了做出下一个动作,必须从“躺姿势”转换到“站立姿势”。姿势转换机构部分92用于执行这种姿势或运动的转换。
具体来说,如图8所示,根据来自动作决定机构部分91的动作指令信息S16,姿势转换机构部分92生成用于将当前姿势或运动转换到下一个姿势或运动的姿势转换信息S18,并且向控制机械部分93发送姿势转换信息S18。举例来说,从当前姿势能够转换成什么姿势是根据宠物型机器人23的实际形态如躯干和肢体的形态、各部分的重量和连接状态、以及用于关节弯曲方向和角度的致动器78A至78N的机械装置来决定的。姿势转换信息S18是用于根据这种形态和机械装置实现转换的信息。
基于这样从姿势转换机构部分92发送的姿势转换信息S18,控制机械部分93实际操纵宠物型机器人23。
宠物型机器人23能够转换到的姿势以及在转换中可以做出的运动已经在姿势转换机构部分92中预先注册并且以一个图来保存这样的信息。姿势转换机构部分92以姿势转换信息S18向控制机械部分93发送来自动作决定机构部分91的动作指令信息S16。控制机械部分93根据姿势转换信息S18进行操作,以便转换到目标姿势或目标运动。下面将详细描述姿势转换机构部分92的处理过程。
例如,在有些情况下,宠物型机器人23不能直接转换到对应指令内容(动作指令信息S16)的姿势。宠物型机器人23的姿势分成可以从当前姿势直接转换到的姿势,以及不能直接转换但可以通过一定的姿势或运动转换到的姿势。
有四肢的宠物型机器人23能直接从四肢伸开趴在地上的状态变成沮丧状态,但是不能直接变成站立姿势而需要先做出两个运动,即,将四肢向躯干缩回以便采用卧姿,然后再站起来。有的姿势是不安全的。例如,如果有四肢的宠物型机器人23在站立姿势时试图抬起前肢,它将跌倒。或者,当只能在坐姿时使用的具有“摆动腿”内容的指令在当前姿势是四肢伸开趴在地上(或卧姿)的情况下被发出,宠物型机器人23将执行从卧姿到坐姿的转换并且做摆动腿的运动,同时宠物型机器人23可能拾取失去平衡并跌倒。
因此,当来自动作决定机构部分91的动作指令信息S16表明要转换到的姿势能直接做出时,姿势转换机构部分92将动作指令信息S16原样发送到控制机械部分93,作为姿势转换信息S18。另一方面,当动作指令信息S16表明要转换到的姿势不能直接做出时,姿势转换机构部分92生成用于通过能采取的其它姿势或运动转换到目标姿势(由动作指令信息S16指明的姿势)的姿势转换信息S18,并且向控制机械部分93发送这个姿势转换信息S18。这样,宠物型机器人23可以避免采取不能转换到的姿势的任何不可能企图并且避免冒跌倒的风险。同时,达到目标姿势或运动的多个准备运动产生了丰富的表情。
宠物型机器人23适用于表现电子宠物在真实世界中的动作。这样,如上所述,在做出向目标运动或姿势转换的时候,必须考虑当前的姿势或诸如此类。来源的冲突也应该考虑,这些将在后文中描述。与此同时,适用于在虚拟世界(在屏幕上)中表现电子宠物动作的电子宠物装置22不需要这些考虑。
具体来说,姿势转换机构部分92储存一个由用于转换姿势的姿势和运动构成的图,在图中已经注册了可以由宠物型机器人23采取的姿势和运动。姿势转换机构部分92则根据作为指令信息的动作指令信息S16在图上寻找从当前姿势到目标姿势或运动的路径,并且使宠物型机器人对应寻找的结果移动,以便由当前姿势转换到目标姿势或目标运动。即,姿势转换机构部分92预先注册能由宠物型机器人23采取的姿势,并且记录允许转换的两个姿势之间的连接。这样,姿势转换机构部分92根据图和来自动作决定机构部分91的动作指令信息S16做出向目标姿势或运动的转换。
具体来说,如上述图中所述,姿势转换机构部分92使用图15所示的称为定向图(directed graph)96的算法。定向图96由连接起来的节点、定向弧以及自运动弧构成,其中,节点表示能被宠物型机器人23采取的姿势,定向弧(运动弧)用于连接允许转换的两个姿势(节点),自运动弧为根据情况,从一个节点返回到这个节点的运动弧,即,表示运动是在一个节点中完成。即,姿势转换机构部分92储存由作为表示宠物型机器人23姿势信息的节点和作为表示宠物型机器人23运动信息的定向弧以及自运动弧构成。姿势转换机构部分92将姿势看作点信息,将运动信息看作直接线信息。
在这种情况下,可以有多个定向弧和自运动弧。即,在允许转换的节点之间可能有多个弧,并且在一个节点上可能连接多个自运动弧。
当动作决定机构部分91提供动作指令信息S16时,姿势转换机构部分92沿着定向弧的方向寻找从当前节点到下一个节点的路径,以便连接由动作指令信息S16表示的对应当前姿势的节点和对应要采取的下一个姿势的节点,并且接着记录在这样的寻找中,节点所在的路径,从而制定姿势转换方案。在下文中,从当前姿势到目标节点(由指令表示的节点)或目标弧(由指令表示的弧)寻找称为路径寻找。在这种情况下,目标弧可以是定向弧或自运动弧。举例来说,在自运动弧是目标弧的情况下,自运动就是该目标(被指出的),即,例如,表示是一个预定的表演(运动)。
根据通过路径寻找获得的达到目标姿势(节点)或目标运动(定向弧或自运动弧)的姿势转换方案,姿势转换机构部分92在下面阶段向控制机械部分93输出用于转换的控制指令(姿势转换信息S18)。
举例来说,如图16所示,当在当前姿势是在表示“沮丧(getting down)”姿势的节点ND2的情况下,发出表示“坐”的动作指令信息S16时,由于从表示“沮丧”姿势的节点ND2到表示“坐”姿势的节点ND5存在定向弧a9,因此从节点ND2到节点ND5的直接转换是可能的。这样,姿势转换机构部分92向控制机械部分93提供具有“坐”内容的姿势转换信息S18。
在另一方面,当在当前姿势是在表示“沮丧”姿势的节点ND2的情况下,发出表示“走”的动作指令信息S16时,由于从“沮丧”直接转换到“走”是不可能的,姿势转换方案是通过寻找从表示“沮丧”的节点ND2到表示“走”的节点ND4的路径而做出的。即,姿势转换方案是这样做出的:通过来自表示“沮丧”姿势的节点ND2的定向弧a2选择表示“站立”姿势的节点ND3,然后通过来自表示“站立”姿势的节点ND3的定向弧a3到达表示“走”姿势的节点ND4。作为这个姿势转换方案的结果,姿势转换机构部分92向控制机械部分93先输出具有“站立”内容的姿势转换信息S18,再输出具有“走”内容的姿势转换信息S18。
宠物型机器人23能够分别操纵各个组成部分。即,指令可以相对于每个组成部分来执行。如图17所示,机器人装置1(整个身体)的这些组成部分一般可以是头部分61、肢体部分63以及尾巴部分64。
在这样构成的宠物型机器人23中,尾巴部分64和头部分61可以被分别操纵。即,由于没有来源冲突,这些部分可以分别操纵。另一方面,宠物型机器人23的整个身体和头部分61不能被分别操纵。即,由于有来源冲突,整个身体和头部分不能被分别操纵。例如,当执行用于包括头部分61运动的整个身体运动的指令时,不能执行用于头部分61运动的指令。宠物型机器人在摇晃头部分61的时候摆动尾巴部分64时可能的,但是在用整个身体做表演的时候摇晃头部分61是不可能的。对于构成现实世界中电子宠物的宠物型机器人23来说,出现这样的来源冲突是其固有的问题。
在如下表格中示出了根据来自动作决定机构部分91的动作指令信息S16引起和不引起来源冲突的各部分的典型组合。
部分组合 | 来源中突 |
头,尾巴头,整个身体肢体,整个身体头,肢体,尾巴 | 不是是不 |
在发出引起来源冲突的指令的情况下,必须优先执行整个身体23运动的指令或者头部分61运动的指令。下面将描述处理这些指令的过程。
在由于有来源冲突而优先执行其中一个指令的情况下,例如,在先完成整个身体的运动再执行用于头部分61的指令的情况下,在作为整个身体23运动的结果的最终姿势已经达到的时候才开始头部分61的运动。但是,整个身体23运动之后的最终姿势不必是适合开始如摇晃头部分61运动的姿势。如果当整个身体23运动之后的最终姿势不是适合开始头部分61运动的姿势时开始头部分61的运动,即,由于不同的指令使要进行转换的姿势之间不连续时,头部分可能唐突地移动从而产生不自然的运动。这个问题在如下情况中引起:即,从当前姿势(或运动)到目标姿势(或运动)的转换涉及到宠物型机器人23的整个身体以及各个组成部分的情况;以及,包括构成的节点和弧的用于控制宠物型机器人23整个身体的网络(图)与包括构成的节点和弧的用于控制宠物型机器人23各个组成部分的多个网络(多个图)是彼此之间没有任何联系地分别构成的情况。
由于进行转换的姿势之间不连续使宠物型机器人23产生的不自然运动可以通过制定姿势转换方案来消除,从而将图上和转换有关的运动平滑地连接起来。具体来说,一个在整个身体和各组成部分的图上共享的基本姿势被用于制定姿势转换方案。
在下文中,如图18A所示,将参照由整个身体的网络信息(图)和各个组成部分的多个网络信息(多个图)的情况,描述用于宠物型机器人23的姿势转换方案的网络信息。例如,如图12所示,由整个身体的网络信息(图)和各个组成部分的多个网络信息(多个图)组成的用于姿势转换方案的信息是在姿势转换机构部分92中构成的。
基本姿势是为了在整个身体的运动和每个组成部分的运动之间改变状态而临时转换到的姿势。例如,如图18B所示,基本姿势可以是坐姿。下面将描述在以坐姿为基本姿势的情况下,用于将和转换有关的运动平滑连接的程序。
具体来说,如图19所示,情况是当前姿势被认为是在整个身体的图上的姿势NDa0,并且头部分的运动a2作为将要进行的目标运动。
在整个身体的图上,选择用于将宠物型机器人23的整个身体从当前姿势NDa0转换到基本姿势NDab的定向弧a0。在整个身体处在基本姿势的情况下,基本姿势的状态(节点)同样掌握在头部分、肢体部分以及尾巴部分的图中。
在头部分的图上,选择从基本姿势NDhb出发的最优定向弧a1并且决定到达头部分61的目标运动(自运动弧a2)的路径。
根据这样的程序,在整个身体的图上和头部分的图上进行选择转换路径(姿势转换方案)以便使整个身体和每个组成部分的运动平滑连接。然后,根据姿势转换方案,姿势转换机构部分92向控制机械部分93输出姿势转换信息S18。
在上述的例子中,从整个身体的运动到每个组成部分的运动被平滑地连接起来。下面将描述一个平滑连接从每个组成部分的运动到整个身体的运动的例子。具体来说,如图20所示,在当肢体部分63的姿势处在肢体部分图上姿势NDf0的时候头部分61的姿势处在头部分图上姿势NDh0的情况下,将整个身体的运动a4作为目标运动来执行。
在头部分图上,选择定向弧a0将头部分61的姿势从当前姿势NDh0转换到基本姿势NDhb。在肢体部分图上,选择定向弧a1和a2将肢体部分63的姿势从当前姿势NDf0经过姿势NDf1转换到基本姿势NDfb。假设尾巴部分64原来就处在其基本姿势。在各个组成部分如此处在基本姿势的情况下,该基本姿势同样掌握在整个身体的图上。
在整个身体的图上,选择从基本姿势NDab出发的最优定向弧a3并且决定到达整个身体的目标运动(自运动弧)a4的路径。
例如,在执行某个组成部分运动的同时另一个组成部分正在向基本姿势转换,则执行各个组成部分的运动可能受到一些限制。例如,可以提供用于执行运动某种定时方法。
具体来说,如果在宠物型机器人23正在用其头部分61进行某种表演的时候,发出用于整个身体23运动的指令,由于宠物型机器人正在用其头部分61进行表演,头部分61向基本姿势NDhb的转换不能进行。因此,首先将肢体部分63置于基本姿势NDfb的状态,然后结束表演的头部分61转换到基本姿势NDhb的状态。
考虑到整个身体23姿势的平衡,也可以移动各个组成部分。例如,如果头部分61和肢体部分63同时转换,或者头部分61首先转换到基本姿势NDhb的状态,宠物型机器人23会失去其平衡并摔倒。对于这种情况,将肢体部分63首先置于基本姿势NDfb的状态,然后头部分61再转换到基本姿势NDhb的状态。
借助于这样制定的允许临时转换到基本姿势的姿势转换方案,运动可以被平滑连接。
如上所述,姿势转换机构部分92寻找到达由指令表明的目标姿势或运动的最佳路径以便根据来自动作决定机构部分91的动作指令信息S16制定姿势转换方案,并且按照姿势转换方案向控制机械部分93输出姿势转换信息S18。
这样宠物型机器人23可以避免采取不能转换到的姿势的任何不可能企图并且避免冒跌倒的风险。同时,达到目标姿势或运动的多个准备运动产生了丰富的表情。
如图8所示,控制机械部分93根据姿势转换信息S18生成用于驱动致动器78A至78N的控制信号S5,并且向致动器78A至78N发送控制信号S5以便驱动致动器78A至78N,由此使宠物型机器人23做出预定的运动。
具体来说,在为采取下一个动作而必须进行姿势或运动转换的情况下,控制机械部分93根据来自姿势转换机构部分92的与姿势转换方案相对应的姿势转换信息S18控制致动器78A至78N,以便使宠物型机器人23转换到预定姿势或运动。然后,控制机械部分93根据由选择模块94后续提供的动作选择信息,控制致动器78A至78N,以便使宠物型机器人23执行选定的动作,例如,表演。
在不必为采取下一个动作而进行姿势或运动转换的情况下,控制机械部分93不执行姿势或运动转换,根据由选择模块94后续提供的动作选择信息控制致动器78A至78N,以便使宠物型机器人23执行选定的动作(例如,表演)。
宠物型机器人23具体结构如上所述。这种宠物型机器人23可以根据外部信息(环境或外部要素)或内部信息(内部要素)用情感模式和本能模式改变情感状态和本能状态,并且能按照情感状态和本能状态行动。
这样,由于对应电子宠物情感和本能的参数包含在宠物型机器人23之中,因而能够实现急脾气的电子宠物或爱哭的电子宠物。这也使得电子宠物按照这样的情感动作采取动作并根据由电子宠物自身执行的动作改变情感成为可能。具体来说,当电子宠物饿了并且因此具有很强的愤怒情感时,电子宠物可能采取象哭或入睡之类的动作并且对应所采取的动作缓解增加的愤怒情感。这样,就能实现更具有真实性的电子宠物。
在本实施例中,图7和8中所示的结构作为宠物型机器人23使用的具体结构。不过,图7和8中所示的结构当然可以应用于虚拟型电子宠物装置22。例如,在该结构应用于虚拟型电子宠物装置22的情况下,等效的技术被用于不相称的部分,这样实现如图7和8所示的虚拟型电子宠物装置22。例如,在虚拟型电子宠物装置22中,由于不需要运动部分(致动器78A至78N),改成向图象显示部分输出,由此实现虚拟电子宠物装置22。在虚拟型电子宠物装置22中,既不需要用于制定姿势转换方案的装置也不需要用于解决来源冲突的装置。
这样,在虚拟世界中(在显示图象上),可以相似地实现根据外部或内部信息改变情感状态和本能状态并按照情感状态或本能状态行动的电子宠物。
如上所述,在电子宠物系统中,实现了在独立信息存储部分1(IC卡21)储存宠物特性信息并且具有与储存的宠物特性信息相应的情感或本能的电子宠物。
例如,在如上述构成虚拟电子宠物装置22或宠物型机器人23的情况下,储存在独立信息存储部分1(IC卡21)中的宠物特性信息可以是由上述情感模式和本能模式决定的情感参数和本能参数。在这种情况下,如图21所示,情感参数和本能参数被储存在独立信息存储部分1中。
作为宠物特性信息,决定行动时的转换概率也能被储存在独立信息存储部分1中。
如图13所述,用有限概率自动算法,根据基于转换概率P1至Pn的概率决定动作,转换概率P1至Pn被设置为连接各个节点NODE0至NODEn的各个弧线ARC1至ARCn1,弧线ARC1至ARCn1表示从某一个节点(状态)NODE0至NODE1应该做出向哪一个节点NODE0至NODE1的转换,并且这些转换概率P1至Pn也能被储存在独立信息存储部分1中。根据情感状态、本能状态或学习情况可以改变转换概率P1至Pn。因此,通过储存转换概率可以实现电子宠物的个性。
储存在独立信息存储部分1中的宠物特性信息不限于上述的例子。
例如,也可以将电子宠物的名字、所有者(饲养员(用户)的名字)名字、成长的时间、剩余灵魂转世数以及种类用作宠物特性信息。成长时间是指电子宠物从出生到现在所用的时间。电子宠物(它的灵魂)可以死后复生,剩余灵魂转世数是表示剩余复生次数的信息。具体来说,剩余灵魂转世(remainingmetempsychoses)数是复位的次数。种类是表示电子宠物类型的信息如狗、猫或鸟等。电子宠物的类型不必非是存在的动物。
宠物特性信息还可以是学习信息。学习信息是涉及电子宠物是否能做预定表演的信息。即,电子宠物能学习几类表演,学习信息表示电子宠物是否能做各类表演。
在本实施例中,由于内部信息储存在能插入虚拟电子宠物装置22或宠物型机器人23并能从中拔出的IC卡21中,电子宠物能以适合用户环境的形式被享用。
在本实施例中,IC卡21被装入虚拟电子宠物装置22或宠物型机器人23中以便使虚拟电子宠物装置22或宠物型机器人23象电子宠物那样运行。可是,IC卡21也能被装入典型计算机或诸如此类的设备中,这样可使计算机象电子宠物那样运行。
在本实施例中,本发明是按照电子宠物来描述的。但是,本发明也可用在除电子宠物以外的其它有生命的物体上(例如,植物等)。
此外,在本实施例中,宠物特性信息被储存在IC卡上。可是,作为储存宠物特性信息的存储工具,能插入装置并能从装置中拔出的便携存储工具都可以使用,如记忆卡、光学卡、磁光盘以及磁盘。
另外,在本实施例中,储存宠物特性信息的独立信息存储部分1能被插入身体部分2并从中拔出。可是,也能提供一个能被插入身体部分2并从中拔出的存储器(内置存储介质或存储单元)并且将宠物特性信息储存进该存储器。在这种情况下,独立信息存储部分1和身体部分2通过使用不同类型的通讯手段传送宠物特性信息,例如,通讯电缆、无线电发射或红外线。
在虚拟电子宠物装置22中,电子宠物是显示在监视器上的虚拟存在物并且因此容易改变其外观。可是,宠物型机器人23改变其外观是困难的。因此,在宠物型机器人23中,宠物特性信息中关于外观的信息基本上被忽略了。当在宠物型机器人23具有狗外型的情况下,宠物特性信息的种类表明是鸟时,可能使宠物型机器人23要求改变与鸟有关的部分(例如,靠合成声音)。
在图22至24中示出了上述第一个实施例中使用的能够被插入并被拔出的IC卡的具体例子。不同形状的IC卡近来被标准化了并且本发明适用于任何这样的IC卡。例如,在本实施例中使用条形IC卡。
如上所述,条形IC卡能被插入和拔出。当用户将条形IC卡插入宠物型机器人23的槽23A中或虚拟电子宠物装置22的槽22A中时,用户将在确定能将IC卡插入多深时感到不知所措。即,当用户将条形IC卡装入宠物型机器人23的槽23A中或虚拟电子宠物装置22的槽22A中时,如果用户能通过装入的声音感觉到装入,或者如果宠物型机器人23或虚拟电子宠物装置22具有将IC卡锁紧/弹出的功能则是很方便的。反之,如果用户不能感觉到装入或没有提供锁紧/弹出功能,用户可能在用力将IC卡插入槽中时将其折断,也可能由于IC卡插入的不到位而不能执行数据的传送/接收。
因此,在本实施例中,如图22所示,在IC卡131上使用了表示预定的插入位置的颜色标记。具体来说,由于处在槽外部分134的颜色和插入并保持在槽内部分133的颜色不同(做出颜色标记),当IC卡131被插入宠物型机器人23的槽23A中或虚拟电子宠物装置22的槽22A中时,用户能用眼睛确认准确装入IC卡的状态。虽然图22示出了将颜色标记在制做在粘贴在IC卡上的标签132上的例子,但颜色标记也可直接做在IC卡131上。在本发明中,用于颜色标记的133部分和134部分的颜色没有特别限制,什么颜色都能用。
尽管在图22的例子中颜色标记是做在IC卡131上,如图23所示,还可以在IC卡131上与颜色标记一起或取代颜色标记提供一个箭头标志。图23示出了一个例子,与图22的例子相似,处在槽外部分134的颜色和插入并保持在槽内部分133的颜色不同,同时在槽外部分134上增加了箭头标志135。借助于这样提供的箭头标志135,用户不仅能将IC卡131准确地装入槽中,而且能方便地辨别IC卡131的装入方向。尽管图23示出了将颜色标记制作在粘贴在IC卡上的标签132上并且在标签132上增加了箭头标志135的例子,但箭头标志也可直接做在IC卡131本身上。
作为另一个例子,如图24所示,可以在IC卡131上与颜色标记一起或取代颜色标记提供一个表示边界位置的线136。图24示出了一个例子,与图22的例子相似,处在槽外部分134的颜色和插入并保持在槽内部分133的颜色不同,同时在槽外部分134与插入并保持在槽内部分133之间的边界位置上上增加了线136。借助这样提供的线136,用户可以将IC卡131准确地装入槽中。尽管图24示出了将颜色标记制作在粘贴在IC卡上的标签132上并且在标签132上增加了线136的例子,但线136也可直接做在IC卡131本身上。
图25示出了如上所述将IC卡131准确地装入宠物型机器人23或虚拟电子宠物装置22的槽中的状态。
图26示出了粘贴在IC卡131上的标签132的例子。在图26中示出的标签132的例子中,只制做了如图22的例子中的颜色标记,并且标出了当IC卡131插入槽中的时候,位于槽外部分的颜色和被插入并保持在槽中部分的颜色。
图27A示出了对应图22到24示出的IC卡131平面图的底视图,图27B示出了其侧视图。在IC卡131上,端部137连接在宠物型机器人23的槽23A或虚拟电子宠物装置22的槽22A中提供的数据发送/接收端,并且提供用于禁止数据写入的禁写锁138。图26的标签132以将槽外部分134折回并盖住IC卡131的底部的方式粘贴。
下面将描述本发明的第二个实施例。
在第一个实施例中,可以在存储媒介如可以插入并拔出的IC卡中储存独立信息存储部分1中的内容(电子宠物的宠物特性信息),并且可以将IC卡插入宠物型机器人23的槽23A或虚拟电子宠物装置22的槽22A或从中拔出,以便能在虚拟电子宠物装置22与宠物型机器人23之间传递宠物特性信息。可是,在第二个实施例中,宠物特性信息的传递是利用不用IC卡的通信进行的。
图28示出了对应第二个实施例的连接的例子。
图28中示出的虚拟电子宠物装置202与上述的虚拟电子宠物装置22基本相同,图28中示出的宠物型机器人204与上述的宠物型机器人23基本相同。可是,在第二个实施例中,虚拟电子宠物装置202和宠物型机器人204都具有能用通信替代上述独立信息存储部分1的宠物特性信息的通信处理部分。通过通信处理部分传递的宠物特性信息能被储存在上述的IC卡上,也能被储存进内置的数据存储部分203和205中。(在图28中示出的是数据存储部分203和205分别位于虚拟电子宠物装置202和宠物型机器人204之外,可实际上它们是内置的。)在第二个实施例中,宠物特性信息被储存进内置的数据存储部分。
在图28中示出的连接例子中,虚拟电子宠物装置202和宠物型机器人204被连接到个人计算机201,并且个人计算机201被连接到网络如互联网200。同时,不用个人计算机201直接将虚拟电子宠物装置202和宠物型机器人204连接,或者不用个人计算机201直接将它们连接到互联网200是可能的。此外,在第二个实施例中,能将多个虚拟电子宠物装置202相互连接,或将多个宠物型机器人204相互连接。
电子宠物不仅能通过虚拟电子宠物装置202或宠物型机器人204表示,而且能在个人计算机201上表示。在这种情况下,通过在个人计算机201上安装用于实现上述电子宠物的应用程序并且起动用于电子宠物的应用程序,就可以在个人计算机201上饲养电子宠物。因此,电子宠物的宠物特性信息也被储存进个人计算机201中。
在第二个实施例中,作为在虚拟电子宠物装置202与宠物型机器人204之间发送和接收宠物特性信息的连接形式,可以考虑多种连接形式如通过电缆连接、通过无线电传输连接以及用红外线连接等。本发明可以使用通过包括电缆、无线电传输以及红外线连接的任何连接形式。
图29示出了如上所述能用通信传送宠物特性信息的宠物型机器人204主要部分(通信处理部分)的结构。宠物型机器人204具有如图3、5、7所示的结构,但是在图29中只示出了用于宠物特性信息通信的必要部分。在图29的例子中,用红外线(IrDa)连接、串行电缆连接以及无线电连接被用作典型连接形式。
在图29中,RAM 211对应于图5的RAM 33,并且处理单元212对应于图5的CPU 31。
作为与外界(例如,虚拟电子宠物装置、个人计算机或互联网)连接,用于发送和接收宠物特性信息的通信装置,在图29中示出的宠物型机器人204的通信处理部分210具有用于发送和接收宠物特性信息的红外(IrDa)发送/接收部分217、串行通信口部分218以及无线电发送/接收部分219。这些通信装置被连接到通信控制部分215。
通信控制部分215由对应图5中CPU 31的处理单元212控制,并且根据来自时钟发生部分216的通信时钟进行工作,以此根据对应通信装置连接形式的通信协议发送和接收数据。
在处理单元212的控制之下,要被发送的数据被从RAM 211读出,然后暂时储存在作为发送缓冲器的发送数据储存部分213中,再通过通信控制部分215从通信装置发送。由通信装置接收到的数据通过通信控制部分215被暂时存放在作为接收缓冲器的接收数据储存部分214中,然后被送到RAM211。
图30示出了用在本发明该实施例中的虚拟电子宠物装置的具体外观。
图30中示出的虚拟电子宠物装置220具有用于显示电子宠物的监视器222、用于输出声音的扬声器223、用于拾取声音的麦克风224、用于用户对装置220输入各种操作的操作按钮226、随被操作的按钮同时被点亮的LEDs(发光二极管)225以及如上所述用于指示对被拾取的来自麦克风224的声音进行分析的说话开关221。
如图30中示出的虚拟电子宠物装置220具有如图31中示出的内部硬件结构。图31中示出的结构在功能上与图4中示出的结构基本相同,但是提供了一个与第二个实施例中能够进行宠物特性信息通信的结构相同的通信接口112。
在图31中,处理单元113用于根据储存在ROM 116中的程序执行各种类型的处理。ROM 116储存由处理单元113执行的程序以及执行程序所必须的数据。RAM 115储存对于处理单元113工作所必需的数据。
通信接口112作为接口,其功能对应于图29中示出的通信装置和通信控制部分215。
麦克风224将输入其中的声音转换成作为模拟电信号的音频信号并将音频信号提供给A/D转换器101。A/D转换器101对来自麦克风224的模拟音频信号进行A/D转换并将数字声音信号输出到声音识别装置104。
声音识别装置104对输入其中的声音信号进行线性预测分析以便提取特征量,并且根据例如HMM方法进行声音识别。由声音识别装置104执行的用于进行声音识别的程序以及作为声音识别目标的字型储存在ROM 103中。具体来说,在ROM 103中,用于饲养员对宠物说话的字型作为声音识别目标的字型被储存。声音分析的方法不限于线性预测分析,声音识别的方法也不限于HMM法。RAM 102储存对于声音识别装置104工作所必须的数据。
键部分对应于图30中示出的操作按钮226和说话开关221。当用户操作键部分时,从键部分221、226输出的信号被输入到处理单元113。这样,处理单元113识别被用户操作的按钮和键。例如,当键部分中的操作按钮226被操作时,对应操作的不同类型输入被提供给电子宠物。当按下键部分中的说话开关221时,处理单元113使声音识别装置104开始对从麦克风224输入的声音进行声音识别。
传感器227是用于检测外部环境状态如声音、光线以及温度的传感器。来自传感器227的检测信号被A/D转换器105转换成数字信号并被传送到处理单元113。处理单元113根据来自传感器227的检测数据控制电子宠物的反应。
声音合成器114在处理单元113的控制下合成由电子宠物输出的声音。用于声音合成器114声音合成时所执行的程序以及用作声音合成依据的数据被储存在如ROM 107中。在ROM 107中,储存有用于合成由电子宠物输出不同类型pf声音的数据。RAM 106储存声音合成器114工作所必需的数据。
D/A转换器108对由声音合成器114合成的声音数据进行D/A转换以便生成模拟声音信号,并将模拟声音信号提供给扬声器223。扬声器223包括一个放大器以便放大来自D/A转换器108的声音信号并将放大的声音信号输出。
液晶显示器(LCD)部分222包括由处理单元113控制的液晶控制器并且显示各种图象(例如,电子宠物的图象)和字符。
图32示出了在通过作为典型的串行数据电缆的USB(通用串行总线)电缆将虚拟电子宠物装置220与宠物型机器人204相互连接以便传递宠物特性信息的情况下,虚拟电子宠物装置220以及宠物型机器人204的内部基本结构。
在图32中,虚拟电子宠物装置220中的CPU 231对应于图31的处理单元113,RAM 236对应于图31的RAM 115,ROM 235对应于图31的ROM116。图象控制器234对应于图31的包含在液晶显示器部分22中的液晶控制器。数据存储部分233储存宠物特性信息。通过连接到USB端口232的USB电缆,既可以向宠物型机器人204发送宠物特性信息,也可以接收来自宠物型机器人204的宠物特性信息。
宠物型机器人204的CPU 241对应于图29的处理单元212,RAM 146对应于图29的RAM 211,ROM 245对应于图29的ROM 32。机械控制器244在CPU 241的控制之下控制图5的传动机构52。数据存储部分243储存宠物特性信息。通过连接到USB端口242的USB电缆,既可以向虚拟电子宠物装置220发送宠物特性信息,也可以接收来自虚拟电子宠物装置220的宠物特性信息。
图33示出了在通过红外(IrDA)传送/接收部分由红外线将虚拟电子宠物装置220与宠物型机器人204相互连接以便传递宠物特性信息的情况下,虚拟电子宠物装置220以及宠物型机器人204内部的基本结构。在图33中,与图32相似的部分用相同的数字表示并且不再详细描述。
在图33的例子中,在图31的通信接口112中提供了虚拟电子宠物装置220的红外传送/接收部分237。在红外传送/接收部分237与宠物型机器人204的红外传送/接收部分247之间传送和接收宠物特性信息。
宠物型机器人204的红外传送/接收部分247对应于在图29中示出的红外传送/接收部分217。在红外传送/接收部分247与虚拟电子宠物装置220之间传送和接收宠物特性信息。
图34示出了在通过无线电传送/接收部分由无线电波将虚拟电子宠物装置220与宠物型机器人204相互连接以便传递宠物特性信息的情况下,虚拟电子宠物装置220以及宠物型机器人204的内部基本结构。在图34中,与图32相似的部分用相同的数字表示并且不再详细描述。
在图34的例子中,在图31的通信接口112中提供了虚拟电子宠物装置220的无线电传送/接收部分238。在无线电传送/接收部分238与宠物型机器人204的无线电传送/接收部分248之间传送和接收宠物特性信息。
宠物型机器人204的无线电传送/接收部分248对应于在图29中示出的无线电传送/接收部分219。在无线电传送/接收部分248与虚拟电子宠物装置220的无线电传送/接收部分238之间传送和接收宠物特性信息。
具体来说,如图35所示,可以用蓝牙模块248和238分别作为宠物型机器人204的无线电传送/接收部分248和虚拟电子宠物装置220的无线电传送/接收部分238。
蓝牙是使用2.4GHz的ISM(industrial Scientific Medical,工业科学医药)波段的无线电接口,该波段不象载波频率那样需要许可。蓝牙模块248和238使用这种蓝牙无线电接口。下面将描述蓝牙的大致结构。
蓝牙根据跳频系统采用扩展频谱技术。它使用79个信道,每个信道的带宽为1MHz并且每秒钟最多能转换信道1600次。这样可以防止对其它无线电通信的干扰。由于跳频被转换到高速跳频,因而不进行载波检测。
数据传输速度的最大值为1兆位/秒。用于数据包的倍增方法可以处理TDD(time division duplex,时分双工)电路转换和数据包转换。在进行异步传输期间,能保证同时最多有3个64k位/秒的无线电信道。
蓝牙兼容设备被分成“主机”和“从机”,主机用于决定跳频模式,每个主机最多配7个从机。有主机和几个从机构成的子网(sub-net)被称为“微微网(pico-net)”。由于主机可以是微微网的从机,因而顺序连接的微微网可以形成一个网络。例如,这种结构的网络被称为堆积机网(stacker net)。在微微网和堆积机网中,通信和设备的状态用8位MAC地址管理。
根据通信中的参与状态,蓝牙设备处理几种不同功率损耗模式。通过将规范中的模式分段,减小功率损耗。
按如下内容,由蓝牙在主机和从机之间设置链接。首先,主机每隔625μs发送“查询”,这是一个包括用于连接的密匙或诸如此类的消息。在从机方面,由于根据跳频模式不断转换信道,大约在两秒钟之内建立同步。这样,主机认可从机,并且从机获得3位“有效成员地址”并进入微微网。“有效成员地址”是一个指定给与主机通信的设备的3位地址信息。当这个“有效成员地址”被指定时,微微网就形成了。
此后,主机向从机发送“页(Page)”消息。从机以由主机决定的跳频模式运行。
此后,进行认证。通过将主机生成的随机数与从机的MAC地址异或产生用于认证的加密密钥。完成认证以后,提供一个专用密钥以简化后续的处理。然后开始发送和接收数据。
上述内容为蓝牙的简要结构。宠物型机器人204和虚拟电子宠物装置220可以分别具有使用这种蓝牙无线电接口作为无线电发送/接收部分的蓝牙模块248和238。
图36示出了在使用作为典型串行数据电缆的USB电缆将个人计算机201与宠物型机器人204相互连接以便能够通过个人计算机201和互联网200发送和接收宠物特性信息的情况下,个人计算机201以及宠物型机器人204内部的基本结构。在图36中,与图32相似的部分用相同的数字表示并且不再详细描述。
在图36的例子中,个人计算机201的CPU251对应于处理单元,并且一般在个人计算机中提供ROM 255、RAM 256以及USB端口252。例如,数据存储部分253对应于硬盘。该个人计算机201通过USB电缆将从宠物型机器人204发出的宠物特性信息传送给互联网200,并且通过USB电缆将接收到的来自互联网200的宠物特性信息传送给宠物型机器人204。
图37示出了在用红外线将个人计算机201与宠物型机器人204相互连接以便能够通过个人计算机201和互联网200发送和接收宠物特性信息的情况下,个人计算机201以及宠物型机器人204内部的基本结构。在图37中,与图36和33相似的部分用相同的数字表示并且不再详细描述。
在图37的例子中,个人计算机201具有红外线发送/接收端口257,这样通过红外线将从宠物型机器人204发出的宠物特性信息传送给互联网200,并且通过红外线将接收到的来自互联网200的宠物特性信息传送给宠物型机器人204。
图38示出了在用无线电波将个人计算机201与宠物型机器人204相互连接以便能够通过个人计算机201和互联网200发送和接收宠物特性信息的情况下,个人计算机201以及宠物型机器人204内部的基本结构。在图38中,与图36和34相似的部分用相同的数字表示并且不再详细描述。
在图38的例子中,个人计算机201具有无线电波发送/接收部分258,这样利用无线电波将从宠物型机器人204发出的宠物特性信息传送给互联网200,并且将接收到的来自互联网200的宠物特性信息利用无线电波传送给宠物型机器人204。具体来说,如图39所示,蓝牙模块248和238可以分别被用作宠物型机器人204的无线电发送/接收部分248和虚拟电子宠物装置220的无线电发送/接收部分238。如上所述,模块248和238使用蓝牙无线电接口。
图40示出了通过串行数据电缆、红外线或无线电波将虚拟电子宠物装置与宠物型机器人相互连接,从而传送宠物特性信息的情况下,发送/接收过程的流程。图40的例子示出了从虚拟电子宠物装置向宠物型机器人传送宠物特性信息的流程。
在图40中,例如,连接请求已经从宠物型机器人发出。具体来说,宠物型机器人首先向虚拟电子宠物装置(在图40中表示为便携式电子宠物)发送连接请求信号,在图40中用TR1表示。在这种情况下,由于下述原因,从宠物型机器人发出连接请求。即,如果从宠物型机器人和虚拟电子宠物装置都可以发出连接请求,必须在宠物型机器人和虚拟电子宠物装置中提供用于决定哪方应该发出连接请求的开关,特别是从设计观点看,在宠物型机器人中提供这样的开关是不理想的(即,在作为宠物的机器人中提供各种开关是理想的)。但是,本发明并不限于此例。连接请求也可以从虚拟电子宠物装置一方发出,并且既可以从宠物型机器人发出也可以从虚拟电子宠物装置发出。
因此,在本实施例中,由于确定是从宠物型机器人发出连接请求,因而不需要开关。
在这种情况下,从宠物型机器人发出的连接请求信号包含所有权标志(Own_flg),这是一个表示哪个宠物型机器人以及虚拟电子宠物装置具有宠物特性信息的所有权的标志(即,表示灵魂归属于哪个宠物型机器人和哪个虚拟电子宠物装置)。在本实施例中,当所有权标志值为0(Own_flg=0)时,不提供宠物特性信息的所有权,当所有权标志值为1(Own_flg=1)时,提供宠物特性信息的所有权。在图40的例子中,作为初始状态,宠物型机器人的所有权标志值为0(Own_flg=0),虚拟电子宠物装置的所有权标志值为1(Own_flg=1)。
在接收连接请求信号的时候,虚拟电子宠物装置将其所有权标志(Own_flg=1)与包含在接收到的连接请求信号中的所有权标志(Own_flg=0)进行比较。当接收到的连接请求信号中的所有权标志值与其自己的所有权标志值不同时,虚拟电子宠物装置向宠物型机器人传送连接许可信号,在图40中用TR2表示。
在接收连接许可信号的时候,宠物型机器人将其所有权标志(Own_flg=0)与包含在接收到的连接许可信号中的所有权标志(Own_flg=1)进行比较。当接收到的连接许可信号中的所有权标志值与其自己的所有权标志值不同时,宠物型机器人向虚拟电子宠物装置传送数据请求信号,在图40中用TR3表示。
在接收数据请求信号的时候,虚拟电子宠物装置将储存在其中的宠物特性信息传送给宠物型机器人,在图40中用TR4表示。
在接收所有宠物特性信息的时候,宠物型机器人向虚拟电子宠物装置传送接收完成信号,在图40中用TR5表示,并且将它自己的所有权标志值变为1(Own_flg=1)。
在接收来自宠物型机器人的接收完成信号的时候,虚拟电子宠物装置将它自己的所有权标志值变为0(Own_flg=0)。在上述方法中,完成了将来自虚拟电子宠物装置的宠物特性信息传送给宠物型机器人的流程。这可以认为是已经将独立信息存储部分转移到宠物型机器人。
图41示出了从宠物型机器人向虚拟电子宠物装置传送宠物特性信息的流程。在图41的例子中,作为初始状态,宠物型机器人的所有权标志值为1(Own_flg=1),虚拟电子宠物装置的所有权标志值为0(Own_flg=0)。
在图41中,首先,宠物型机器人向虚拟电子宠物装置传送包含所有权标志的连接请求信号(在图41中表示为便携式电子宠物),在图41中用TR11表示。此时的所有权标志值为1(Own_flg=1)。
在接收连接请求信号的时候,虚拟电子宠物装置将其所有权标志(Own_flg=0)与包含在接收到的连接请求信号中的所有权标志(Own_flg=1)进行比较。当接收到的连接请求信号中的所有权标志值与其自己的所有权标志值不同时,虚拟电子宠物装置向宠物型机器人传送连接许可信号,在图41中用TR12表示。
在接收连接许可信号的时候,宠物型机器人将其所有权标志(Own_flg=1)与包含在接收到的连接许可信号中的所有权标志(Own_flg=0)进行比较。当接收到的连接许可信号中的所有权标志值与其自己的所有权标志值不同时,宠物型机器人将储存在其中的宠物特性信息传送给虚拟电子宠物装置,在图41中用TR13表示。
在接收所有宠物特性信息的时候,宠物型机器人向虚拟电子宠物装置传送接收完成信号,在图41中用TR14表示,并且将自己的所有权标志值变为1(Own_flg=1)。
在接收来自虚拟电子宠物装置的接收完成信号的时候,宠物型机器人将其自己的所有权标志值变为0(Own_flg=0)。在上述的方法中,完成了将来自宠物型机器人的宠物特性信息传送给虚拟电子宠物装置的流程。这可以认为是已经将独立信息存储部分转移到虚拟电子宠物装置。
图42示出了宠物型机器人的所有权标志值与虚拟电子宠物装置的所有权标志值相同时的通信流程。在图42的例子中,作为初始状态,宠物型机器人的所有权标志值为0(Own_flg=0),虚拟电子宠物装置的所有权标志值为1(Own_flg=1)。当宠物型机器人的所有权标志值与虚拟电子宠物装置的所有权标志值相同时,表示宠物型机器人和虚拟电子宠物装置原本涉及其它电子宠物并且不能进行宠物特性信息的传送/接收。
在图42中,首先,宠物型机器人向虚拟电子宠物装置传送包含所有权标志的连接请求信号(在图42中表示为便携式电子宠物),在图42中用TR21表示。此时的所有权标志值为0(Own_flg=0)。
在接收连接请求信号的时候,虚拟电子宠物装置将其所有权标志(Own_flg=0)与包含在接收到的连接请求信号中的所有权标志(Own_flg=0)进行比较。
在这种情况下,由于接收到的连接请求信号中的所有权标志与其自己的所有权标志相同,虚拟电子宠物装置向宠物型机器人传送接收完成信号,在图42中用TR22表示。在接收接收完成信号的时候,宠物型机器人结束处理。
图43示出了上述连接请求信号、连接许可信号以及连接完成信号的典型数据格式。
组成连接请求信号的有连接请求标识符(ID)、通信字节数以及所有权标志(Own_flg)及其附加数据,其中通信字节数为连接时所用的字节数,连接请求标识符、通信字节数以及所有权标志都用4个字节来表示。
连接许可信号由连接许可标识符、通信字节数以及所有权标志(Own_flg)及其附加数据所组成,都用4个字节表示。
接收完成信号由接收完成标识符、通信字节数以及所有权标志(Own_flg)及其附加数据所组成,都用4个字节表示。
在上述实施例中,可以直接或通过互联网发送和接收电子宠物的宠物特性信息。在本发明中,可以通过互联网200用预定服务器260管理涉及电子宠物的不同类型的信息。在后文中,这样的服务器称为宠物共享服务器。
图44示出了一个网络系统的概念结构图,在这个网络系统中由共享服务器260通过互联网200管理虚拟电子宠物装置202、个人计算机201以及宠物型机器人204、204的宠物特性信息。
在这个网络系统中,为宠物共享服务器260配有数据存储部分261,其中的宠物特性信息存储部分262用于储存宠物特性信息,管理信息(共享服务器宠物管理信息)存储部分263用于由宠物共享服务器260管理的电子宠物。
图45示出了在通过互联网200将宠物共享服务器260、虚拟电子宠物装置220以及宠物型机器人204连接起来的情况下,虚拟电子宠物装置220以及宠物型机器人204内部的基本结构。在图45中,与前面示出的图中相似的部分用相同的数字表示并且不再详细描述。
在图45的例子中,由于虚拟电子宠物装置220和宠物型机器人204直接与互联网200连接,虚拟电子宠物装置220和宠物型机器人204分别包括调制解调器239和249。借助于调制解调器239和249,可以通过互联网200连接宠物共享服务器260并且可以由宠物共享服务器260管理包括宠物特性信息在内的各种类型数据。
如图44和45所示,由于共享服务器260可以通过互联网200管理电子宠物的宠物特性信息,因而可以在例如用户离家进行商务旅行的情况下使宠物共享服务器260管理电子宠物的宠物特性信息,即如图46所示,将电子宠物委托给宠物共享服务器,并且在商务旅行的目的地,从服务器恢复宠物特性信息并与之玩耍。
具体来说,在图46的例子中,在进行商务旅行之前,首先在家里将宠物型机器人连接到互联网以便访问宠物共享服务器,如图46的A所示。此时,宠物型机器人的所有权标志值为1(Own_flg=1)。当所有权标志值为1时,宠物型机器人自动选择用于将宠物特性信息委托给服务器的“委托(leaving)”。这样,将宠物特性信息从宠物型机器人上载到服务器。由于必须区别开委托给宠物共享服务器的各个电子宠物,储存在宠物型机器人ROM中的特定标识符(ID)和口令在上载的同时被传送到服务器。
接着,例如在商务旅行的目的地,将便携式终端(便携式虚拟电子宠物装置或个人计算机)连接到互联网以便访问宠物共享服务器,如图46的B所示。此时在便携式终端的图象显示部分(便携式虚拟电子宠物装置的图象显示部分或个人计算机的监视器)显示多个菜单项目。菜单项目包括“委托(leaving)”、“接收(receiving)”等。在这种情况下,选择“接收”。为了接收用户委托的电子宠物,用户输入ID和口令以避免接收其它电子宠物。此后,委托给宠物共享服务器的电子宠物的宠物特性信息被下载到便携式终端。这样,即使在商务旅行的目的地,用户也可以在便携式终端上饲养电子宠物或与电子宠物玩耍。
例如,当从商务旅行的目的地返回时,将便携式终端连接到互联网以便访问宠物共享服务器,如图46的C所示。这样在便携式终端的图象显示部分显示多个菜单项目。当用户选择菜单项目的“委托”并输入ID和口令时,将宠物特性信息从便携式终端上载到服务器。
在结束商务旅行返回家中以后,将宠物型机器人连接到互联网以便访问宠物共享服务器,如图46的D所示。此时,宠物型机器人的所有权标志值为0(Own_flg=0)。当所有权标志值为0时,宠物型机器人自动选择用于从服务器接收宠物特性信息的“接收”。这样,将宠物特性信息从服务器下载到宠物型机器人。
在上述的第二个实施例中,以在虚拟电子宠物装置、宠物型机器人和个人计算机上的电子宠物作为电子宠物来饲养。可是,作为本发明的第三个实施例,宠物型机器人还可以作为在个人计算机上的虚拟世界261中的电子宠物263玩耍并且用户自己也可以作为化身262进入虚拟世界261并与他/她自己的电子宠物玩耍,如图47所示。化身是指印度神话中神仙下凡的形式。在以二维或三维的计算机图形作为虚拟世界的画面中,这个化身表现为一个代表用户的符号。
在本实施例中,还可以让用户的化身262以及他/她的电子宠物263进入在网络上构成的虚拟世界260,在这个虚拟世界中还存在其它化身264以及他/她的电子宠物265,并且它们之间可以互相通信。
在图45所示的例子中,虚拟电子宠物装置220和宠物型机器人204可以通过调制解调器239和249连接到互联网200。可是,连接到互联网的方法并不局限于这些调制解调器。例如,可以由蓝牙模块建立连接,蓝牙模块是无线电装置。在这种情况下,如图48所示,作为无线电接收部分,虚拟电子宠物装置220和宠物型机器人204分别具有蓝牙模块239a和249a。因此,蓝牙模块293b和249b被连接到互联网(例如,公共电话网),用宠物型机器人204的蓝牙模块239a和虚拟电子宠物装置220的蓝牙模块249a进行数据发送/接收。在这种情况下,如上所述,蓝牙模块239a、249a、239b和249b使用蓝牙无线电接口。
在下文中,将描述适用于通过互联网,利用用于提供各种类型信息的WWW(world wide web,万维网)网络而在如第三个实施例中的三维虚拟空间中实现饲养电子宠物的结构和操作,其中互联网是利用VRML(virtual realitymodeling language,虚拟现实造型语言)构成的全球规模的计算机网络,VRML是一种能统一处理三维信息的描述语言。
首先,在描述本发明的第三个实施例之前,先简要说明VRML。
VRML语言是一种三维图形描述语言,它可以对于在三维空间或三维图形中通过描述所画出的对象设置超文本链接,并且可以沿着这个链接顺序访问WWW服务器。为了显示以这种VRML描述的三维空间,VRML浏览器已经被开发出来。VRML的细节在下述资料中描述,例如,Mark Pesce的“VRML:Browsing & Building of Cyberspace(VRML:电脑空间的浏览和构成)”,1995,New Readers Publishing(1995年新读者出版社出版),ISBN 1-56205-498-8(以及它的日文版,由Koichi Matsuda,Terutaka Kamachi,ShoichiTakeuchi,Yasuaki Honda,Junichi Rekimoto,Masayuki Ishikawa,Ken Miyashitaand Kazuhiro Hara翻译,1996年3月25日出版的第一版),和Koichi Matsuda及Yasuaki Honda的“The Latest Trend of VRML and Cyber-Passage(VRML和计算机通道的最新趋势)”,bit(Kyoritsu Shuppan),1996,Vol.28,No.7,pp.29 to36;No.8,pp.57 to 65;No.9,pp.29 to 36;and No.10,pp.49 to 58。正式完整的虚拟现实造型语言2.0版(Virtual Reality Modeling Language Version 2.0)规范(ISO/IEC CD 14772,August 4,1996)在“http:∥webspace.sgi.com/moving-worlds/spec/index.html”向公众公开并且它的日文版公开在“http:∥www.webcity.cojp/info/andoh/VRML/vrml2.0/spec-jp/index.html”。另外,例如,作为VRML2.0浏览器和共享服务器软件,本申请人Sony公司已经开发和生产了“Community Place Browser/Bureau(商标)”,并且它的beta版(演示版)可以从互联网上的“http:∥vs.sony.co.jp”主页上下载。
在用这样的VRML 2.0构造三维虚拟空间的情况下,VRML文件表示的预定内容首先是根据图形数据和脚本之间的对应关系(路由)准备的,举例来说有:利用VRML在虚拟空间中说明对象(模型)的形状、运动以及位置的准备(即,模型的准备);对于模型,添加一个开关(传感器),当用户在屏幕上显示的虚拟空间中对于指向的模型点击鼠标时,该开关生成一个事件(即,添加传感器);编排用于实现响应于指向传感器而生成的事件的脚本(即,脚本的准备);以及根据传感器和脚本开始进行的操作。(在下文中,公共节点如在VRML中规定的图形数据、脚本以及right都被称为节点,作为基本项。)例如,在“http:∥www.sec.co.jp/SES/STAFF/kan/howto/howto l.html”中说明了如何写VRML 2.0数据以及如何对VRML 2.0数据进行采样。
VRML 2.0的数据由节点和域(field)构成,域规定了节点的变量以及节点参数的指定。域可以被忽略。在忽略域的情况下,使用一个默认值。作为域,可以使用只有一个值的“单值域(SF)”或使用“多值域(MF)”。对于节点和域的详细功能可以参考“附录1:VRML 2.0 Node List”。
在VRML 2.0中,规定了用于在VRML虚拟空间中实现自动行为的机制(mechanism)。用于自动行为机制的细节在1996年8月4日,ISO/IEC CD14772,虚拟现实造型语言2.0版的规范4.的概念段落中被披露,该资料对公众公开在“http:∥webspace.sgi.com/moving-worlds/spec/partl/concepts.html”上,并且它的日文版公开在“http:∥www.webcity.co.jp/info/andoh/VRML/VRML2.0/spec-jp/partl/concepts.html”。在该段落中,叙述了使用VRML规范的关键概念。描述了涉及各种节点的一般项目,如:用于将节点联结到场景图的方法、节点生成或接收事件的方法、用凸版照相准备节点类型的方法、用于给VRML增加节点类型并且将其输出以便能从外面使用的方法、以及用于将脚本运行作为程序合并到VRML文件中的方法。
图49示出了对应第三个实施例的网络系统的具体结构。
在图49中,由数字301、302和303表示的构成要素是客户机PC(个人计算机),即,上述在其中安装和运行VRML浏览器以及WWW浏览器的个人计算机。这些客户机PC通过互联网连接服务提供器304、305和306连接到互联网307。
LAN(局域网)309通过路由器308连接到互联网307,同时WWW服务器310、WLS(world location server,全球定位服务器)311、宠物共享服务器312、AO服务器313、314、邮件服务器315以及通信服务器316连接到LAN。在这些服务器310至316中,分别安装硬盘(HHDs)310a、310b、311a至316a。
通信服务器316通过公共电话网络317连接到电话机318和传真机319。通信服务器316通过PHS(个人手提电话系统)服务提供器320连接到PHS终端323,并且通过寻呼机服务提供器321经无线电波连接到寻呼机终端324。
图50示出了图49客户机PC 301的硬件结构框图。
在图50中,客户机PC 301由CPU 330、HDD 331、CD-ROM驱动器332、ROM 334、声音处理电路335、调制解调器339、I/O(输入/输出)接口340、图象处理电路343、CRT监视器345和RAM 346构成,其中:CPU 330用于控制各个部分,在HDD 331中储存有用户数据以及由利用VRML 2.0或Java(商标)编写的虚拟生命对象的脚本程序组成的VRML内容,CD-ROM驱动器332用于读取储存在CD-ROM光盘333上的VRML内容,在ROM 334中储存有BIOS(基本输入输出系统)等,声音处理电路335连接麦克风336以及左右扬声器337、338,调制解调器339用于连接互联网307,I/O接口340连接鼠标341和键盘342,在图象处理电路343中安装有视频随机存取存储器(VRAM)344。在运行的时候,由OS(操作系统(例如,微软的Windows))支持的WWW浏览器(例如,Netscape Navigator(商标))、解释程序(例如,Java解释程序)和VRML 2.0浏览器(例如,由Sony公司开发的Community place浏览器)被读入RAM 346以便被CPU 330执行。
在VRML 2.0浏览器中,提供了VRML语法解释程序库(句法分析程序)(例如,由美国的Silicon Graphics开发并免费开放的QvLib)和软件表演器(renderer)(例如,由英国的Criterion Software Ltd.生产的Render Ware)。
如图50所示,这个客户机PC的VRML 2.0浏览器基于NCAPI(NetscapeClient Application Programming Interface(商标))执行向WWW浏览器(例如,Netscape Navigator)发送/从WWW浏览器接收各种类型的数据。
在通过互联网307从WWW服务器310接收HTML文件和VRML内容(包括VRML文件和脚本程序)的时候,WWW浏览器将这些数据存入本地HDD 331中,WWW浏览器处理接收数据中的HTML文件并在CRT监视器上显示文本和图象。另一方面,VRML浏览器处理VRML文件并在监视器上显示虚拟三维空间,同时还根据由解释程序处理脚本程序的结果在三维虚拟空间中改变对象的行为。
其它客户机PC 302和303虽然在图中没有示出,但与客户机PC 301的结构相似。
下面将描述在图49中示出的系统的典型操作。
首先,参照图51到53描述从实际通过互联网下载VRML内容到提供一个多用户环境的过程,在多用户环境中多个用户共享一个虚拟空间。
在图51中如L1所示,利用WWW浏览器首先浏览提供VRML内容的网站主页。然后,在图51中如L2所示,客户机PC 301和客户机PC 302的用户下载由VRML 2.0文件和脚本程序(例如,Java脚本程序)组成的,用于在VRML空间中实现自动行为的VRML内容。当然,在CD-ROM 333上提供的VRML内容可以由CD-ROM驱动器332读出。
接着,如图52所示,在客户机PC 301和客户机PC 302中,下载的VRML2.0文件被暂时保存在各客户机PC的本地硬盘331上,VRML浏览器解释并执行VRML 2.0文件。此外,在图52中如L3所示,客户机PC 301和客户机PC 302查询基于VSCP(虚拟社会服务器客户机协议)的、用于宠物共享服务器312的URL的WLS 311。在这种情况下,在图52中如L4所示,WSL311参照储存在硬盘311a中的共享服务器URL管理表格,将宠物共享服务器312的URL通知客户机PC 301和客户机PC 302。
如图53所示,利用URL,客户机PC 301和客户机PC 302被连接到宠物共享服务器312。接着,在图53中如L5所示,通过宠物共享服务器312进行发送涉及共享3D(三维)对象位置和运动的共享消息,并且在图53中如L6所示,进行传送该共享消息,如此,实现多用户环境。
在如此实现的多用户环境中,当进行来自客户机PC 301,即用户的注册时,宠物共享服务器312向客户机PC 301发送虚拟共享世界的数据并且传送在AO服务器313中的虚拟生命对象的数据。
在接收全部虚拟共享世界的数据和在虚拟共享世界中的对象的数据的时候,客户机PC 301将这些数据记录在内部的硬盘上或储存在内存中,并且根据记录的数据在监视器屏幕上显示虚拟共享世界。
在用户将他/她自己的化身262和电子宠物263输入客户机PC 301的虚拟共享世界的情况下,通过宠物共享服务器312向AO服务器313发送一个呼叫消息。AO服务器313根据访问事件执行参数更新的处理。
在执行另一个访问事件的时候,操作消息被发送到AO服务器313,并且每发生一次操作事件,参数就被更新一次。
例如,通过宠物共享服务器312的多造型处理,每次被更新的参数都会被传送到共处于虚拟空间的客户机PC 301和客户机PC 302。
在客户机PC 301中,脚本程序描述用于控制电子宠物自动行为的处理程序,根据送回来的参数执行脚本程序。每个节点的域值构成了用于表现VRML文件的电子宠物的三维对象,每个节点的域值是变化的。受域值变化影响的电子宠物被着色和显示在客户机PC 301图象显示部分屏幕上VRML浏览器的主要窗口中。
在共享虚拟世界的其它客户机PC 302中执行与客户机PC 301相同的处理。受根据电子宠物运动而变化的域值影响的电子宠物也被着色和显示在其它客户机PC 302图象显示部分上VRML浏览器的主要窗口上。
对于上述连接程序的详细资料,可以参考日本公开的未经审查的专利申请No.Hei 9-81781)。
在本实施例中,用于提供计算机程序进行上述处理的信息提供介质包括网络传送介质如互联网或卫星,以及信息记录介质如磁盘或CD-ROM。
Claims (19)
1.一种网络系统,包括:
一个或多个实现装置,该实现装置具有用于发送和接收活体对象内部状态和活体对象识别信息的发送/接收装置,其中活体对象内部状态按照输入信息变化并且是用于使活体对象行动的信息,由此来此实现活体对象;
一个服务器装置,具有用于管理活体对象内部状态和活体对象识别信息的管理装置,以及至少能发送和接收内部状态和识别信息的发送/接收装置;
其中实现装置和服务器装置通过网络相互连接。
2.如权利要求1所述的网络系统,其中,实现装置的内部状态被储存在存储装置中,并且
存储在存储装置中的内部状态被发送/接收装置发送和接收。
3.如权利要求1所述的网络系统,其中,实现装置是一个信息处理装置或是一个机器人,实现装置用于执行由图象显示装置实现活体对象的处理,机器人控制运动部分执行用于将活体对象作为真实世界中的存在物实现的处理。
4.如权利要求3所述的网络系统,其中,机器人根据内部状态通过运动部分可以从目前姿势转换到的姿势或运动来实际执行动作。
5.如权利要求1所述的网络系统,其中,内部状态表示情感状态和本能状态中的至少一个。
6.如权利要求1所述的网络系统,其中,输入信息表示环境信息和内部信息中的至少一个。
7.如权利要求1所述的网络系统,其中,内部状态是一个用参数来表示的内部状态参数,并且
内部状态参数根据输入信息进行更新并且被更新的内部状态参数被存入存储装置。
8.如权利要求7所述的网络系统,其中,当内部状态参数达到一阈值时,预定动作被选择并且该动作被实际执行。
9.如权利要求8所述的网络系统,其中,当内部状态参数达到一阈值时,多个动作被选择并且该多个动作中的一个动作被实际执行。
10.一种网络系统,包括:
一个实现装置,具有用于发送和接收活体对象内部状态的发送/接收装置,其中活体对象内部状态按照输入信息而变化并且是用于使活体对象行动的信息,由此来实现活体对象;并且
一个信息处理装置,具有用于发送和接收活体对象内部状态的发送/接收装置,信息处理装置控制根据活体对象的内部状态在虚拟世界中行动的活体对象的行动,信息处理装置执行用于至少显示虚拟世界以及活体对象的处理;
其中实现装置和信息处理装置通过网络发送和接收信息。
11.如权利要求10所述的网络系统,其中,实现装置具有存储装置,在存储装置中储存活体对象,并且
发送/接收装置发送和接收储存在存储装置中的内部状态。
12.如权利要求10所述的网络系统,其中,实现装置和网络分别具有使用蓝牙无线电接口的无线电发送/接收装置,并且通过无线电波相互连接以便进行信息的发送/接收。
13.如权利要求10所述的网络系统,其中,实现装置是一个信息处理装置或者是一个机器人,实现装置用于执行由图象显示装置实现活体对象的处理,机器人控制运动部分执行用于将活体对象作为真实世界中的存在物实现的处理。
14.如权利要求13所述的网络系统,其中,机器人执行根据内部状态通过一个运动部分可以从目前姿势转换到的姿势或运动来实际执行动作。
15.如权利要求10所述的网络系统,其中,内部状态表示情感状态和本能状态中的至少一个。
16.如权利要求10所述的网络系统,其中,输入信息表示环境信息和内部信息中的至少一个。
17.如权利要求10所述的网络系统,其中,内部状态是一个用参数来表示的内部状态参数,并且
根据输入信息更新内部状态参数。
18.如权利要求17所述的网络系统,其中,当内部状态参数达到一阈值时,预定动作被选择并且该动作被实际执行。
19.如权利要求18所述的网络系统,其中,当内部状态参数达到一阈值时,多个动作被选择并且该多个动作中的一个动作被实际执行。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12519199 | 1999-04-30 | ||
JP125191/1999 | 1999-04-30 | ||
JP12920799 | 1999-05-10 | ||
JP129207/1999 | 1999-05-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1313781A CN1313781A (zh) | 2001-09-19 |
CN1161700C true CN1161700C (zh) | 2004-08-11 |
Family
ID=26461699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB008011125A Expired - Fee Related CN1161700C (zh) | 1999-04-30 | 2000-04-28 | 网络系统 |
Country Status (5)
Country | Link |
---|---|
US (2) | US6560511B1 (zh) |
EP (1) | EP1092458A1 (zh) |
KR (1) | KR20010053322A (zh) |
CN (1) | CN1161700C (zh) |
WO (1) | WO2000066239A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107962571A (zh) * | 2016-10-18 | 2018-04-27 | 深圳光启合众科技有限公司 | 目标对象的控制方法、装置、机器人和系统 |
Families Citing this family (206)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6362589B1 (en) * | 1919-01-20 | 2002-03-26 | Sony Corporation | Robot apparatus |
US7749089B1 (en) | 1999-02-26 | 2010-07-06 | Creative Kingdoms, Llc | Multi-media interactive play system |
KR20010053322A (ko) * | 1999-04-30 | 2001-06-25 | 이데이 노부유끼 | 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체 |
US6761637B2 (en) | 2000-02-22 | 2004-07-13 | Creative Kingdoms, Llc | Method of game play using RFID tracking device |
US7445550B2 (en) | 2000-02-22 | 2008-11-04 | Creative Kingdoms, Llc | Magical wand and interactive play experience |
US7878905B2 (en) | 2000-02-22 | 2011-02-01 | Creative Kingdoms, Llc | Multi-layered interactive play experience |
KR100371163B1 (ko) * | 2000-05-16 | 2003-02-06 | 엘지전자 주식회사 | 웹 서버를 이용한 성장형 완구 관리 방법 |
US20020087498A1 (en) * | 2000-07-27 | 2002-07-04 | Makoto Yoshida | Autonomous behavior decision control system for an electronic device |
US20020059386A1 (en) * | 2000-08-18 | 2002-05-16 | Lg Electronics Inc. | Apparatus and method for operating toys through computer communication |
KR100396753B1 (ko) * | 2000-08-18 | 2003-09-02 | 엘지전자 주식회사 | 싸이버 공동체를 이용한 완구 학습 장치 및 방법 |
WO2002019104A1 (fr) * | 2000-08-28 | 2002-03-07 | Sony Corporation | Dispositif et procede de communication, systeme de reseau et appareil robotise |
KR100779978B1 (ko) * | 2000-09-12 | 2007-11-27 | 소니 가부시끼 가이샤 | 정보제공시스템, 정보제공장치 및 정보제공방법과데이터기록매체 |
TW528976B (en) * | 2000-09-12 | 2003-04-21 | Sony Corp | Information providing system, information providing apparatus and information providing method as well as data recording medium |
EP1327503B1 (en) * | 2000-10-11 | 2017-12-06 | Sony Corporation | Robot control system and robot control method |
JP2002127059A (ja) * | 2000-10-20 | 2002-05-08 | Sony Corp | 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体 |
US7066781B2 (en) * | 2000-10-20 | 2006-06-27 | Denise Chapman Weston | Children's toy with wireless tag/transponder |
US7245602B2 (en) * | 2000-11-22 | 2007-07-17 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for anonymous Bluetooth devices |
US6910186B2 (en) | 2000-12-08 | 2005-06-21 | Kyunam Kim | Graphic chatting with organizational avatars |
KR20020061186A (ko) * | 2001-01-15 | 2002-07-24 | 주식회사 보스텍 | 로봇 제어, 설계 및 활용을 위한 학습시스템 |
KR20020061961A (ko) * | 2001-01-19 | 2002-07-25 | 사성동 | 지능형 애완로봇 |
JP2002236656A (ja) * | 2001-02-08 | 2002-08-23 | Nifty Corp | チャットシステム及びサーバ装置 |
JP2002268699A (ja) * | 2001-03-09 | 2002-09-20 | Sony Corp | 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体 |
JP2002273067A (ja) * | 2001-03-16 | 2002-09-24 | Uizu:Kk | 育成シミュレーション装置 |
JP2002283261A (ja) * | 2001-03-27 | 2002-10-03 | Sony Corp | ロボット装置及びその制御方法、並びに記憶媒体 |
DE10118982A1 (de) * | 2001-04-18 | 2002-10-24 | Arvinmeritor Gmbh | Fensterhebersystem sowie Verfahren zum Steuern mehrerer Fensterheber |
CN1479901A (zh) * | 2001-04-23 | 2004-03-03 | �ʼҷ����ֵ�������˾ | 控制装置的方法 |
DE10119771C2 (de) * | 2001-04-23 | 2003-08-21 | Andreas Stadlbauer | Spielcomputer und reales, bewegbares Spielzeug |
EP1256931A1 (en) * | 2001-05-11 | 2002-11-13 | Sony France S.A. | Method and apparatus for voice synthesis and robot apparatus |
JP2002370183A (ja) * | 2001-06-15 | 2002-12-24 | Yamaha Motor Co Ltd | 監視装置及び監視システム |
KR20020097477A (ko) * | 2001-06-21 | 2002-12-31 | 현명택 | 감성지수 성숙형 로봇완구 및 로봇완구의 감성성숙방법 |
KR100406055B1 (ko) * | 2001-07-09 | 2003-11-17 | 미래산업 주식회사 | 홈로봇의 주행제어방법 |
KR100489211B1 (ko) * | 2001-07-24 | 2005-05-17 | 현명택 | 감성지수성숙형 가상로봇을 기반으로 하는 게임방법 |
JP2003033580A (ja) * | 2001-07-25 | 2003-02-04 | Sony Corp | ネットワークシステム、情報提供装置及び情報提供方法 |
JP4689107B2 (ja) * | 2001-08-22 | 2011-05-25 | 本田技研工業株式会社 | 自律行動ロボット |
KR100580617B1 (ko) * | 2001-11-05 | 2006-05-16 | 삼성전자주식회사 | 오브젝트 성장제어 시스템 및 그 방법 |
JP2004001162A (ja) * | 2002-03-28 | 2004-01-08 | Fuji Photo Film Co Ltd | ペットロボット充電システム、受取装置、ロボット、及びロボットシステム |
US20070066396A1 (en) | 2002-04-05 | 2007-03-22 | Denise Chapman Weston | Retail methods for providing an interactive product to a consumer |
US6967566B2 (en) | 2002-04-05 | 2005-11-22 | Creative Kingdoms, Llc | Live-action interactive adventure game |
KR20040042242A (ko) * | 2002-11-13 | 2004-05-20 | 삼성전자주식회사 | 홈서버를 이용하는 홈로봇 및 이를 포함하는 홈네트워크시스템 |
KR100542340B1 (ko) * | 2002-11-18 | 2006-01-11 | 삼성전자주식회사 | 홈네트워크 시스템 및 그 제어방법 |
US7137861B2 (en) * | 2002-11-22 | 2006-11-21 | Carr Sandra L | Interactive three-dimensional multimedia I/O device for a computer |
EP1586423B1 (en) * | 2002-12-10 | 2011-10-05 | Honda Motor Co., Ltd. | Robot control device, robot control method, and robot control program |
KR100457813B1 (ko) * | 2003-02-07 | 2004-11-18 | 삼성전자주식회사 | 커뮤니티 서비스 제공 시스템 및 방법 |
KR100503652B1 (ko) * | 2003-03-04 | 2005-07-22 | 한국과학기술원 | 가상 생명체 시스템과 이를 이용한 교육용 소프트웨어시스템 |
US9446319B2 (en) | 2003-03-25 | 2016-09-20 | Mq Gaming, Llc | Interactive gaming toy |
GB0306875D0 (en) * | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
CN100351789C (zh) * | 2003-03-28 | 2007-11-28 | 索尼株式会社 | 信息提供设备、方法和信息提供系统 |
US6804580B1 (en) * | 2003-04-03 | 2004-10-12 | Kuka Roboter Gmbh | Method and control system for controlling a plurality of robots |
KR20040104851A (ko) * | 2003-06-04 | 2004-12-13 | 주식회사 우성엠피아이 | 블루투스 모듈을 이용한 모터 제어 시스템 |
US7862428B2 (en) | 2003-07-02 | 2011-01-04 | Ganz | Interactive action figures for gaming systems |
JP2005078456A (ja) * | 2003-09-01 | 2005-03-24 | Sony Corp | コンテンツ提供システム |
US7099745B2 (en) | 2003-10-24 | 2006-08-29 | Sap Aktiengesellschaft | Robot system using virtual world |
US7534157B2 (en) | 2003-12-31 | 2009-05-19 | Ganz | System and method for toy adoption and marketing |
US7465212B2 (en) * | 2003-12-31 | 2008-12-16 | Ganz | System and method for toy adoption and marketing |
US7677948B2 (en) | 2003-12-31 | 2010-03-16 | Ganz | System and method for toy adoption and marketing |
EP1727605B1 (en) * | 2004-03-12 | 2007-09-26 | Koninklijke Philips Electronics N.V. | Electronic device and method of enabling to animate an object |
KR100607141B1 (ko) | 2004-05-12 | 2006-08-01 | 한국생산기술연구원 | 개방형 분산처리구조의 로봇 제어 시스템 |
US8078338B2 (en) | 2004-10-22 | 2011-12-13 | Irobot Corporation | System and method for behavior based control of an autonomous vehicle |
US7499776B2 (en) * | 2004-10-22 | 2009-03-03 | Irobot Corporation | Systems and methods for control of an unmanned ground vehicle |
US7627538B2 (en) * | 2004-12-07 | 2009-12-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Swarm autonomic agents with self-destruct capability |
US7556563B2 (en) * | 2005-01-10 | 2009-07-07 | Mattel, Inc. | Internet enabled multiply interconnectable environmentally interactive character simulation module method and system |
EP1693091A3 (en) * | 2005-01-10 | 2008-02-27 | Radica Games Ltd. | Multiply interconnectable environmentally interactive character simulation module method and system |
US7247783B2 (en) * | 2005-01-22 | 2007-07-24 | Richard Grossman | Cooperative musical instrument |
AU2006284577B2 (en) * | 2005-09-02 | 2012-09-13 | Neato Robotics, Inc. | Multi-function robotic device |
US8645985B2 (en) * | 2005-09-15 | 2014-02-04 | Sony Computer Entertainment Inc. | System and method for detecting user attention |
US8616973B2 (en) * | 2005-09-15 | 2013-12-31 | Sony Computer Entertainment Inc. | System and method for control by audible device |
US7890522B2 (en) * | 2005-11-10 | 2011-02-15 | Lg Electronics Inc. | Record media written with data structure for recognizing a user and method for recognizing a user |
US7836437B2 (en) * | 2006-02-10 | 2010-11-16 | Microsoft Corporation | Semantic annotations for virtual objects |
KR100963196B1 (ko) * | 2006-03-14 | 2010-06-14 | 한국과학기술연구원 | 다중 사용자의 컴퓨팅 환경 자동 인지 및 최적의 정보 교환설정을 위한 지능적인 컴퓨팅 장치 에이전트 시스템 |
US20070243930A1 (en) * | 2006-04-12 | 2007-10-18 | Gary Zalewski | System and method for using user's audio environment to select advertising |
US8324492B2 (en) * | 2006-04-21 | 2012-12-04 | Vergence Entertainment Llc | Musically interacting devices |
US20080039169A1 (en) * | 2006-08-03 | 2008-02-14 | Seven Lights, Llc | Systems and methods for character development in online gaming |
US20080039166A1 (en) * | 2006-08-03 | 2008-02-14 | Seven Lights, Llc | Systems and methods for multi-character online gaming |
US20080039165A1 (en) * | 2006-08-03 | 2008-02-14 | Seven Lights, Llc | Systems and methods for a scouting report in online gaming |
KR100866216B1 (ko) * | 2006-09-01 | 2008-10-30 | 삼성전자주식회사 | 유전자 코드를 가지는 소프트웨어 로봇의 생성 방법 및시스템 |
US8996172B2 (en) | 2006-09-01 | 2015-03-31 | Neato Robotics, Inc. | Distance sensor system and method |
KR100905582B1 (ko) * | 2006-09-06 | 2009-07-02 | 삼성전자주식회사 | 로봇 지놈을 생성하기 위한 시스템 및 생성 방법 |
CN101179406B (zh) * | 2006-11-30 | 2011-01-12 | 腾讯科技(深圳)有限公司 | 一种电子宠物旅游方法、旅游服务器与系统 |
NZ564006A (en) | 2006-12-06 | 2009-03-31 | 2121200 Ontario Inc | System and method for product marketing using feature codes |
EP1942601A1 (en) * | 2006-12-29 | 2008-07-09 | Union Creations Limited | Device and method of expressing information in a communication message sent through a network |
CN101183407A (zh) * | 2007-01-23 | 2008-05-21 | 腾讯科技(深圳)有限公司 | 一种电子宠物进行游戏的实现方法和电子宠物客户端 |
KR100855943B1 (ko) * | 2007-01-31 | 2008-09-02 | 한양대학교 산학협력단 | E―food를 이용한 캐릭터 로봇 행동 학습 시스템 |
IL182521A0 (en) * | 2007-04-12 | 2007-09-20 | Naeh Baruch | A personalized computer dressing |
GB2448883A (en) * | 2007-04-30 | 2008-11-05 | Sony Comp Entertainment Europe | Interactive toy and entertainment device |
US20080274806A1 (en) * | 2007-05-02 | 2008-11-06 | S.H. Ganz Holdings Inc. And 816877 Ontario Limited | Character development and exchange |
US8272951B2 (en) * | 2007-05-02 | 2012-09-25 | Ganz | Attribute building for characters in a virtual environment |
US8128500B1 (en) | 2007-07-13 | 2012-03-06 | Ganz | System and method for generating a virtual environment for land-based and underwater virtual characters |
KR101399199B1 (ko) * | 2007-07-16 | 2014-05-27 | 삼성전자주식회사 | 소프트웨어 로봇의 유전자 코드 구성 방법 |
GB0714148D0 (en) | 2007-07-19 | 2007-08-29 | Lipman Steven | interacting toys |
US20090030808A1 (en) * | 2007-07-26 | 2009-01-29 | Shinyoung Park | Customized toy pet |
US8545335B2 (en) * | 2007-09-14 | 2013-10-01 | Tool, Inc. | Toy with memory and USB ports |
CN101119209A (zh) * | 2007-09-19 | 2008-02-06 | 腾讯科技(深圳)有限公司 | 虚拟宠物系统和虚拟宠物聊天方法、装置 |
US8286236B2 (en) * | 2007-12-21 | 2012-10-09 | The Invention Science Fund I, Llc | Manufacturing control system |
US20110178619A1 (en) * | 2007-12-21 | 2011-07-21 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Security-activated robotic tasks |
US20090164379A1 (en) * | 2007-12-21 | 2009-06-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Conditional authorization for security-activated device |
US9128476B2 (en) * | 2007-12-21 | 2015-09-08 | The Invention Science Fund I, Llc | Secure robotic operational system |
US8752166B2 (en) * | 2007-12-21 | 2014-06-10 | The Invention Science Fund I, Llc | Security-activated operational components |
US8429754B2 (en) * | 2007-12-21 | 2013-04-23 | The Invention Science Fund I, Llc | Control technique for object production rights |
US9071436B2 (en) * | 2007-12-21 | 2015-06-30 | The Invention Science Fund I, Llc | Security-activated robotic system |
US9626487B2 (en) * | 2007-12-21 | 2017-04-18 | Invention Science Fund I, Llc | Security-activated production device |
US9818071B2 (en) * | 2007-12-21 | 2017-11-14 | Invention Science Fund I, Llc | Authorization rights for operational components |
CN101493903A (zh) * | 2008-01-24 | 2009-07-29 | 鸿富锦精密工业(深圳)有限公司 | 有性格特征的类生物装置及其展现方法 |
US8171407B2 (en) * | 2008-02-21 | 2012-05-01 | International Business Machines Corporation | Rating virtual world merchandise by avatar visits |
JP5159375B2 (ja) | 2008-03-07 | 2013-03-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | メタバースにおけるオブジェクトの真贋判断システム、方法及びそのコンピュータ・プログラム |
CN101601930B (zh) * | 2008-06-11 | 2012-05-23 | 凌通科技股份有限公司 | 远端互动游戏装置与方法以及使用其的系统 |
KR101053875B1 (ko) * | 2008-07-14 | 2011-08-03 | 삼성전자주식회사 | 휴대 단말기와 동기화된 로봇의 이벤트 실행 방법 및 그시스템 |
JP5404781B2 (ja) * | 2008-07-18 | 2014-02-05 | ハイドレイ リミテッド | 対話式玩具 |
WO2010018486A1 (en) * | 2008-08-11 | 2010-02-18 | Nxp B.V. | Programmable device and programming method |
US8239259B2 (en) * | 2008-08-15 | 2012-08-07 | Ganz | Donations in a virtual environment |
US8414350B2 (en) * | 2008-08-18 | 2013-04-09 | Rehco, Llc | Figure with controlled motorized movements |
US8677018B2 (en) * | 2008-08-25 | 2014-03-18 | Google Inc. | Parallel, side-effect based DNS pre-caching |
US9197486B2 (en) * | 2008-08-29 | 2015-11-24 | Google Inc. | Adaptive accelerated application startup |
JP2012504834A (ja) * | 2008-10-06 | 2012-02-23 | ヴェルジェンス エンターテインメント エルエルシー | 音楽的に相互作用する化身のためのシステム |
TWI392983B (zh) * | 2008-10-06 | 2013-04-11 | Sonix Technology Co Ltd | 利用音調的自動控制方法及其裝置 |
TWI371303B (en) * | 2009-02-04 | 2012-09-01 | Inventec Appliances Corp | Electronic pet cotrol system and control method thereof |
US9225794B2 (en) | 2009-03-31 | 2015-12-29 | Google Inc. | Adaptive DNS pre-resolution |
US8788943B2 (en) * | 2009-05-15 | 2014-07-22 | Ganz | Unlocking emoticons using feature codes |
US20100306084A1 (en) * | 2009-05-28 | 2010-12-02 | Yunus Ciptawilangga | Need-based online virtual reality ecommerce system |
US20100306120A1 (en) * | 2009-05-28 | 2010-12-02 | Yunus Ciptawilangga | Online merchandising and ecommerce with virtual reality simulation of an actual retail location |
US8742814B2 (en) | 2009-07-15 | 2014-06-03 | Yehuda Binder | Sequentially operated modules |
US8939840B2 (en) | 2009-07-29 | 2015-01-27 | Disney Enterprises, Inc. | System and method for playsets using tracked objects and corresponding virtual worlds |
US8602833B2 (en) | 2009-08-06 | 2013-12-10 | May Patents Ltd. | Puzzle with conductive path |
JP5326107B2 (ja) * | 2009-09-29 | 2013-10-30 | 双葉電子工業株式会社 | ラジオコントロール送信機、ラジオコントロール送信機における通信方法 |
US8795072B2 (en) * | 2009-10-13 | 2014-08-05 | Ganz | Method and system for providing a virtual presentation including a virtual companion and virtual photography |
KR100968944B1 (ko) * | 2009-12-14 | 2010-07-14 | (주) 아이알로봇 | 로봇 동기화 장치 및 그 방법 |
TWI447660B (zh) * | 2009-12-16 | 2014-08-01 | Univ Nat Chiao Tung | Robot autonomous emotion expression device and the method of expressing the robot's own emotion |
CN102103707B (zh) * | 2009-12-16 | 2014-06-11 | 群联电子股份有限公司 | 情感引擎、情感引擎系统及电子装置的控制方法 |
GB201005718D0 (en) * | 2010-04-06 | 2010-05-19 | Lipman Steven | Interacting toys |
TWI416289B (zh) | 2010-05-28 | 2013-11-21 | Compal Communications Inc | 自動機械裝置及其控制方法 |
CN102279570A (zh) * | 2010-06-10 | 2011-12-14 | 华宝通讯股份有限公司 | 自动机械装置及其控制方法 |
US9906838B2 (en) | 2010-07-12 | 2018-02-27 | Time Warner Cable Enterprises Llc | Apparatus and methods for content delivery and message exchange across multiple content delivery networks |
US9079313B2 (en) * | 2011-03-15 | 2015-07-14 | Microsoft Technology Licensing, Llc | Natural human to robot remote control |
US8996429B1 (en) | 2011-05-06 | 2015-03-31 | Google Inc. | Methods and systems for robot personality development |
US10315119B2 (en) * | 2011-05-17 | 2019-06-11 | Activision Publishing, Inc. | Video game with concurrent processing of game-related physical objects |
WO2012172721A1 (ja) * | 2011-06-14 | 2012-12-20 | パナソニック株式会社 | ロボット装置、ロボット制御方法、及びロボット制御プログラム |
US9019718B2 (en) | 2011-08-26 | 2015-04-28 | Littlebits Electronics Inc. | Modular electronic building systems with magnetic interconnections and methods of using the same |
US9597607B2 (en) | 2011-08-26 | 2017-03-21 | Littlebits Electronics Inc. | Modular electronic building systems with magnetic interconnections and methods of using the same |
US11330714B2 (en) | 2011-08-26 | 2022-05-10 | Sphero, Inc. | Modular electronic building systems with magnetic interconnections and methods of using the same |
US8894462B2 (en) | 2011-12-22 | 2014-11-25 | Activision Publishing, Inc. | Interactive video game with visual lighting effects |
US9186793B1 (en) | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
US9039532B2 (en) | 2012-10-31 | 2015-05-26 | Activision Publishing, Inc. | Interactive video game with toys having functionality that is unlocked through game play |
CN103019118A (zh) * | 2012-12-07 | 2013-04-03 | 麦活鹏 | 基于Android平台的机器动作控制系统 |
US9211645B2 (en) * | 2012-12-13 | 2015-12-15 | Korea Institute Of Industrial Technology | Apparatus and method for selecting lasting feeling of machine |
US9324245B2 (en) * | 2012-12-13 | 2016-04-26 | Korea Institute Of Industrial Technology | Apparatus and method for creating artificial feelings |
JP5902229B2 (ja) * | 2013-07-09 | 2016-04-13 | エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation | シミュレーション方法およびシステム |
CN104769645A (zh) * | 2013-07-10 | 2015-07-08 | 哲睿有限公司 | 虚拟伴侣 |
KR101512084B1 (ko) * | 2013-11-15 | 2015-04-17 | 한국과학기술원 | 가상현실 기반의 3차원 웹 검색 인터페이스를 제공하는 웹 검색 시스템 및 그 제공 방법 |
US20150298315A1 (en) * | 2013-11-21 | 2015-10-22 | Origami Robotics, Inc. | Methods and systems to facilitate child development through therapeutic robotics |
US20150148970A1 (en) * | 2013-11-25 | 2015-05-28 | Regal Beloit America, Inc. | System and method for enabling wireless communication with a motor controller |
US9364950B2 (en) * | 2014-03-13 | 2016-06-14 | Brain Corporation | Trainable modular robotic methods |
US9533413B2 (en) * | 2014-03-13 | 2017-01-03 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9987743B2 (en) | 2014-03-13 | 2018-06-05 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9579799B2 (en) * | 2014-04-30 | 2017-02-28 | Coleman P. Parker | Robotic control system using virtual reality input |
JP2016072928A (ja) * | 2014-10-01 | 2016-05-09 | シャープ株式会社 | 報知制御装置およびプログラム |
JP6392062B2 (ja) * | 2014-10-01 | 2018-09-19 | シャープ株式会社 | 報知制御装置およびプログラム |
US9426946B2 (en) | 2014-12-02 | 2016-08-30 | Brain Corporation | Computerized learning landscaping apparatus and methods |
JP6594646B2 (ja) * | 2015-04-10 | 2019-10-23 | ヴイストン株式会社 | ロボット及びロボット制御方法並びにロボットシステム |
US20190381665A1 (en) * | 2015-05-08 | 2019-12-19 | C2 Systems Limited | System, method, computer program and data signal for the registration, monitoring and control of machines and devices |
US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
JP6639166B2 (ja) * | 2015-09-15 | 2020-02-05 | 株式会社Soken | 動作体の感情動作制御装置及び感情動作制御方法 |
JP2017080824A (ja) * | 2015-10-23 | 2017-05-18 | シャープ株式会社 | ロボットおよびプログラム |
US10241514B2 (en) | 2016-05-11 | 2019-03-26 | Brain Corporation | Systems and methods for initializing a robot to autonomously travel a trained route |
US11185989B2 (en) * | 2016-06-06 | 2021-11-30 | Sony Corporation | Virtual creature control system and virtual creature control method |
US9987752B2 (en) | 2016-06-10 | 2018-06-05 | Brain Corporation | Systems and methods for automatic detection of spills |
US10282849B2 (en) | 2016-06-17 | 2019-05-07 | Brain Corporation | Systems and methods for predictive/reconstructive visual object tracker |
US10016896B2 (en) | 2016-06-30 | 2018-07-10 | Brain Corporation | Systems and methods for robotic behavior around moving bodies |
CN109526208B (zh) | 2016-07-11 | 2021-02-02 | Groove X 株式会社 | 活动量受控制的行为自主型机器人 |
CN107643820B (zh) * | 2016-07-20 | 2020-11-06 | 郎焘 | Vr被动型机器人及其实现方法 |
CN107644686A (zh) * | 2016-07-20 | 2018-01-30 | 郎焘 | 基于虚拟现实的医学数据采集系统及方法 |
WO2018017868A1 (en) * | 2016-07-21 | 2018-01-25 | Magic Leap, Inc. | Technique for controlling virtual image generation system using emotional states of user |
WO2018047426A1 (ja) * | 2016-09-06 | 2018-03-15 | ソニー株式会社 | 仮想生物制御システム、仮想生物制御方法、および記録媒体 |
US10274325B2 (en) | 2016-11-01 | 2019-04-30 | Brain Corporation | Systems and methods for robotic mapping |
US10001780B2 (en) | 2016-11-02 | 2018-06-19 | Brain Corporation | Systems and methods for dynamic route planning in autonomous navigation |
US10723018B2 (en) | 2016-11-28 | 2020-07-28 | Brain Corporation | Systems and methods for remote operating and/or monitoring of a robot |
CN106878390B (zh) * | 2017-01-09 | 2020-07-28 | 北京奇虎科技有限公司 | 电子宠物互动控制方法、装置及可穿戴设备 |
US10377040B2 (en) | 2017-02-02 | 2019-08-13 | Brain Corporation | Systems and methods for assisting a robotic apparatus |
WO2018146756A1 (ja) | 2017-02-08 | 2018-08-16 | ガンホー・オンライン・エンターテイメント株式会社 | 端末装置、プログラム及び方法 |
US10852730B2 (en) | 2017-02-08 | 2020-12-01 | Brain Corporation | Systems and methods for robotic mobile platforms |
US10293485B2 (en) | 2017-03-30 | 2019-05-21 | Brain Corporation | Systems and methods for robotic path planning |
CN106875663B (zh) * | 2017-04-18 | 2020-07-28 | 天纳能源科技(上海)有限公司 | 一种用于变配电站监测系统的数据集中器及控制方法 |
JP6833601B2 (ja) * | 2017-04-19 | 2021-02-24 | パナソニック株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
US10250532B2 (en) * | 2017-04-28 | 2019-04-02 | Microsoft Technology Licensing, Llc | Systems and methods for a personality consistent chat bot |
JP6549654B2 (ja) * | 2017-08-03 | 2019-07-24 | ファナック株式会社 | ロボットシステムのシミュレーション装置およびシミュレーション方法 |
CN107336243B (zh) * | 2017-08-24 | 2019-12-31 | 安徽工大信息技术有限公司 | 基于智能移动终端的机器人控制系统及控制方法 |
EP3697511A1 (en) * | 2017-10-16 | 2020-08-26 | Lego A/S | Interactive play apparatus |
WO2019123744A1 (ja) * | 2017-12-22 | 2019-06-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10864443B2 (en) | 2017-12-22 | 2020-12-15 | Activision Publishing, Inc. | Video game content aggregation, normalization, and publication systems and methods |
CN108196674A (zh) * | 2017-12-29 | 2018-06-22 | 梁穗 | 用于虚拟感应现实的实体模型、通过虚拟设备感应现实模型的系统及实现方法 |
US10792813B1 (en) | 2018-04-26 | 2020-10-06 | X Development Llc | Managing robot resources |
CN108854074B (zh) * | 2018-06-15 | 2021-08-24 | 北京奇虎科技有限公司 | 电子宠物的配置方法及装置 |
CN109034364A (zh) * | 2018-08-07 | 2018-12-18 | 穆天机器人(杭州)有限公司 | 一种机器人拟人模糊情绪生成方法 |
JP7152908B2 (ja) * | 2018-09-05 | 2022-10-13 | 日本放送協会 | 仕草制御装置及び仕草制御プログラム |
JP2020064385A (ja) * | 2018-10-16 | 2020-04-23 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN113727767B (zh) | 2018-10-17 | 2023-05-23 | 派拓艺(深圳)科技有限责任公司 | 机器动物拼插模型 |
US20210397245A1 (en) * | 2018-11-06 | 2021-12-23 | Sony Interactive Entertainment Inc. | Information processing system, display method, and computer program |
JP2020089529A (ja) * | 2018-12-05 | 2020-06-11 | トヨタ自動車株式会社 | 育成ゲームプログラムおよび育成ゲーム装置 |
WO2020158642A1 (ja) * | 2019-01-31 | 2020-08-06 | ソニー株式会社 | ロボットの制御装置、ロボットの制御方法、及びプログラム |
JP2022051982A (ja) * | 2019-02-15 | 2022-04-04 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
US11616844B2 (en) | 2019-03-14 | 2023-03-28 | Sphero, Inc. | Modular electronic and digital building systems and methods of using the same |
CA3144578A1 (en) * | 2019-07-03 | 2021-01-07 | Soul Machines Limited | Architecture, system, and method for simulating dynamics between emotional states or behavior for a mammal model and artificial nervous system |
US11389735B2 (en) | 2019-10-23 | 2022-07-19 | Ganz | Virtual pet system |
US11712627B2 (en) | 2019-11-08 | 2023-08-01 | Activision Publishing, Inc. | System and method for providing conditional access to virtual gaming items |
US11239899B2 (en) | 2019-12-13 | 2022-02-01 | Disney Enterprises, Inc. | Near field communication antenna system for a playset |
US11918928B2 (en) * | 2019-12-17 | 2024-03-05 | Disney Enterprises, Inc. | Virtual presentation of a playset |
US11526823B1 (en) | 2019-12-27 | 2022-12-13 | Intrinsic Innovation Llc | Scheduling resource-constrained actions |
US11358059B2 (en) | 2020-05-27 | 2022-06-14 | Ganz | Live toy system |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6362589B1 (en) * | 1919-01-20 | 2002-03-26 | Sony Corporation | Robot apparatus |
US6337552B1 (en) * | 1999-01-20 | 2002-01-08 | Sony Corporation | Robot apparatus |
US4657104A (en) * | 1983-07-23 | 1987-04-14 | Cybermation, Inc. | Concentric shaft mobile base for robots and the like |
JPH01120690A (ja) * | 1987-11-04 | 1989-05-12 | Nec Corp | メモリーカード内蔵型データ処理装置 |
US5742738A (en) * | 1988-05-20 | 1998-04-21 | John R. Koza | Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations |
JPH0379035A (ja) | 1989-08-22 | 1991-04-04 | Nippondenso Co Ltd | Mosトランジスタ及びその製造方法 |
US5983161A (en) * | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
JPH08202679A (ja) * | 1995-01-23 | 1996-08-09 | Sony Corp | ロボット |
JPH08335091A (ja) * | 1995-06-09 | 1996-12-17 | Sony Corp | 音声認識装置、および音声合成装置、並びに音声認識合成装置 |
JP3079035B2 (ja) * | 1996-05-27 | 2000-08-21 | 日鉱金属株式会社 | 金の回収方法 |
US5963712A (en) * | 1996-07-08 | 1999-10-05 | Sony Corporation | Selectively configurable robot apparatus |
US5832189A (en) * | 1996-09-26 | 1998-11-03 | Interval Research Corporation | Affect-based robot communication methods and systems |
JP3167288B2 (ja) * | 1997-03-17 | 2001-05-21 | 株式会社バンダイ | 携帯用電子機器装置 |
JP3932461B2 (ja) * | 1997-05-21 | 2007-06-20 | ソニー株式会社 | クライアント装置、画像表示制御方法、共有仮想空間提供装置および方法、並びに記録媒体 |
JP3932462B2 (ja) | 1997-05-27 | 2007-06-20 | ソニー株式会社 | クライアント装置、画像表示制御方法、共有仮想空間提供装置および方法、並びに記録媒体 |
JPH11126017A (ja) * | 1997-08-22 | 1999-05-11 | Sony Corp | 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム |
JP3765356B2 (ja) * | 1997-12-22 | 2006-04-12 | ソニー株式会社 | ロボツト装置 |
KR20010053322A (ko) * | 1999-04-30 | 2001-06-25 | 이데이 노부유끼 | 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체 |
-
2000
- 2000-04-28 KR KR1020007015057A patent/KR20010053322A/ko not_active Application Discontinuation
- 2000-04-28 US US09/720,760 patent/US6560511B1/en not_active Expired - Fee Related
- 2000-04-28 WO PCT/JP2000/002856 patent/WO2000066239A1/ja not_active Application Discontinuation
- 2000-04-28 EP EP00922918A patent/EP1092458A1/en not_active Withdrawn
- 2000-04-28 CN CNB008011125A patent/CN1161700C/zh not_active Expired - Fee Related
-
2003
- 2003-04-10 US US10/411,184 patent/US7089083B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107962571A (zh) * | 2016-10-18 | 2018-04-27 | 深圳光启合众科技有限公司 | 目标对象的控制方法、装置、机器人和系统 |
CN107962571B (zh) * | 2016-10-18 | 2021-11-02 | 江苏网智无人机研究院有限公司 | 目标对象的控制方法、装置、机器人和系统 |
Also Published As
Publication number | Publication date |
---|---|
KR20010053322A (ko) | 2001-06-25 |
US20030191560A1 (en) | 2003-10-09 |
CN1313781A (zh) | 2001-09-19 |
EP1092458A1 (en) | 2001-04-18 |
WO2000066239A1 (fr) | 2000-11-09 |
US6560511B1 (en) | 2003-05-06 |
US7089083B2 (en) | 2006-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1161700C (zh) | 网络系统 | |
CN1151016C (zh) | 机器人设备及其控制方法,和机器人性格判别方法 | |
CN1290034C (zh) | 机器人装置及其行为控制方法 | |
CN1283428C (zh) | 机器人设备、控制机器人设备动作的方法 | |
CN1146805C (zh) | 通信型计算机图象动画方法 | |
CN1553845A (zh) | 机器人系统和机器人设备的控制方法 | |
CN1297393A (zh) | 机器人装置和运动控制方法 | |
CN1518489A (zh) | 用于机器人的行为控制系统和行为控制方法及机器人装置 | |
CN100351789C (zh) | 信息提供设备、方法和信息提供系统 | |
CN1304345A (zh) | 机器人装置及其控制方法 | |
CN1942289A (zh) | 机器人、提示输出装置、机器人控制系统、机器人控制方法、机器人控制程序及集成电路 | |
CN1273912C (zh) | 机器人装置、面容识别方法和面容识别装置 | |
CN1159678C (zh) | 图像处理方法及电子装置 | |
CN1267228A (zh) | 可编程组合式玩具 | |
CN1372506A (zh) | 机器人设备行为决定方法和机器人设备 | |
CN1758991A (zh) | 机器人装置、其行为控制方法及程序 | |
CN101055646A (zh) | 用于处理图像的方法、装置和计算机程序 | |
CN1764890A (zh) | 用于对象的行为翻译器 | |
CN1652063A (zh) | 前摄的用户接口 | |
CN1742482A (zh) | 合成图像输出设备以及合成图像传送设备 | |
CN1855224A (zh) | 信息处理装置、信息处理方法及程序 | |
CN1089739A (zh) | 目标图像显示装置 | |
CN1207075C (zh) | 便携电子设备和娱乐系统 | |
CN1192808C (zh) | 图样显示控制设备和图样显示控制系统 | |
CN1266645C (zh) | 知识的自动生成方法、知识的自动生成系统、自动设计方法及其自动设计系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C19 | Lapse of patent right due to non-payment of the annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |