CN100509308C - 用于机器人的行为控制系统和行为控制方法及机器人装置 - Google Patents

用于机器人的行为控制系统和行为控制方法及机器人装置 Download PDF

Info

Publication number
CN100509308C
CN100509308C CNB038004984A CN03800498A CN100509308C CN 100509308 C CN100509308 C CN 100509308C CN B038004984 A CNB038004984 A CN B038004984A CN 03800498 A CN03800498 A CN 03800498A CN 100509308 C CN100509308 C CN 100509308C
Authority
CN
China
Prior art keywords
behavior
robot
state
internal state
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB038004984A
Other languages
English (en)
Other versions
CN1518489A (zh
Inventor
藤田雅博
高木刚
堀中里香
大谷伸弥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1518489A publication Critical patent/CN1518489A/zh
Application granted granted Critical
Publication of CN100509308C publication Critical patent/CN100509308C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33052Subsumption architecture, behavioral modules in layers, override older ones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour

Abstract

一种基于内部状态或外部输入来生成行为的机器人装置,其包括:一个或多个行为模块,用于决定所述机器人的行为;行为状态控制部件,用于对所述行为模块进行管理;状态存储部件,用于存储所述行为模块的当前状态;以及一个或多个行为命令输出部件,用于基于对应于所述状态存储部件中存储的状态的、外部或者内部的输入来输出行为命令;当停止所述行为命令输出部件的行为命令的输出、并恢复随后的所述行为命令输出部件的行为命令的输出时,所述行为状态控制部件基于存储在所述状态存储部件中的状态使机器人执行预定的行为之后,恢复所述行为命令的输出。

Description

用于机器人的行为控制系统和行为控制方法及机器人装置
技术领域
本发明涉及一种用于机器人的行为控制系统和行为控制方法及机器人装置,其中,机器人自动地操作以达到和用户真实地通信,尤其涉及一种用于情形(situated)行为类型的机器人的行为控制系统和行为控制方法及机器人装置,其中,机器人整个地辨别比如通过视觉传感器和听觉传感器得到的外部环境的识别结果、以及诸如本能或感情的内部状态的其所处的情况(situation),以选择适当行为。
背景技术
利用电或者磁的作用进行类似于人的动作的机械装置被称作为“机器人”。据说,“机器人”一词起源于斯拉夫语词“ROBOTA”(奴隶机器)。在日本,机器人于20世纪60年代末开始普及。然而,它们中的大多数是用于在工厂中的自动化和非人工制造工作的诸如操纵器的工业机器人或者运输机器人。
近来,已经开展了有关有腿移动机器人的结构以及诸如仿制进行象狗、猫或者熊的四足行走的动物躯体装置和运动的宠物型机器人、或者诸如仿制进行诸如人或者猴子的双腿直立行走的动物的躯体结构和运动的“像人的”或者“带有人的特点的”机器人的稳定行走控制的研究和开发。因此,对有腿移动机器人的实际使用和它稳定行走控制的期望正在增加。这样的有腿移动机器人的优良之处在于:尽管它们的不足之处在于在姿态控制和行走控制方面和爬行类机器人相比存在不稳和困难的缺点,但是能够实现在上下楼梯或者在骑越障碍中的灵活行走或旅行的操作。
有腿移动机器人的应用之一是在工业、制造等活动中的各种困难工作的替代。例如,可以替代原子能工厂、热能工厂和化工厂中的维护工作,在制造工厂中的零件运输和组装工作,或者,诸如多层建筑物的清除、火灾现场等地方援救的危险工作和困难工作。
有腿移动机器人的另一个应用是基于生活的类型,即,用于和人的“共生”或者“娱乐”而不是工作辅助的应用。刚才所述类型的机器人,使用有相当高智能的诸如人、狗(宠物)或者熊的腿行走动物的运动装置和肢体在重现精度方面,再现丰富的感情表达。而且,要求所述类型的机器人不仅只在重现精度方面执行事先输入的运动模式,而且动态地响应由用户(或者某些其它的机器人)所接收的词或者行为(“赞扬”、“责备”、“轻拍”等)来实现逼真的反应表情。
传统的玩具机器在用户操作和反应运动之间有固定的关系,而且,不可能根据用户的爱好改变玩具的运动。结果是,用户不久将会对仅仅重复相同运动的玩具感到厌烦。相反,智能机器人自动地选择包括对话和机器体运动的行为,并因此,能够在更高智能水准实现逼真的通信。结果是,用户会非常喜欢和热爱机器人。
在机器人或者某些其它的逼真对话系统中,通常通过视觉传感器或者听觉传感器,连续地选择行为以响应外部环境的变化。在行为选择装置的另一个例子中,对诸如本能和感情的情感建模,以管理系统的内部状态,并且选择行为以响应内部状态的变化。自然地,系统的内部状态不仅根据外部环境而且根据所选择行为的发展而变化。
然而,其中机器人整个地辨别诸如外部环境的机器人所处的情况和内部状态并且根据所述辨别选择行为的情形行为控制例子是几乎没有的。
这里,内部状态可以包括诸如对例如生物机体中的边缘系统的访问作出反应的本能的因素,能够用诸如对大脑皮层的访问作出反应的天生欲望或者社会欲望的行为性模型理解的另一个因素,还有一个被称作为诸如高兴、悲伤、愤怒或者惊讶等等的感情的因素。
在传统的智能机器人和其它的自动对话型机器人中,集中地并一维地管理作为“情感”的包括诸如本能和情感的各种因素的内部状态。换言之,内部状态的各种因素彼此并行地存在,并且,在没有明确的选择准则的情况下,仅仅根据外部世界的情况或者内部状态选择行为。
在传统的系统中,以用于运动的选择和发展的一个维度来表达所有行为,并且,确定应该选择哪个行为。因此,随着运动量的增加,选择变得复杂,而且进行其上反射了当时的情况或者内部状态的行为选择变得更困难。
发明内容
本发明的一个目的是提供一种能够进行自动动作并实现逼真的通信的优良的机器人行为控制系统和行为控制方法及机器人装置。
本发明的另一个目的是提供一种优良的机器人行为控制系统和行为控制方法及机器人装置,该机器人行为控制系统和行为控制方法及机器人装置能够整个地辨别诸如通过视觉传感器或者听觉传感器得到的外部环境的识别结果、或者诸如本能或者情感的内部状态的其所处的情况,以选择行为。
本发明的进一步的目的是提供优良的机器人行为控制系统和行为控制方法及机器人装置,其中,有关感情的存在意义变得更明确,以致机器人能够适合地选择和执行适合于按固定次序的外部激励或者内部状态的行为。
本发明的目的还在于提供优良的机器人行为控制系统和行为控制方法及机器人装置,该机器人行为控制系统和行为控制方法及机器人装置能够整个地辨别诸如通过视觉传感器或者听觉传感器得到的外部环境的识别结果、或者诸如本能或者情感的内部状态的其所处的情况,以选择行为。
考虑上述主题已经做出本发明,并且按照本发明的第一个方面,提供了用于自动地操作的机器人的行为控制系统,包括:
多个行为描述部分,用于描述机器人机器体的动作;
外部环境识别部分,用于识别机器体的外部环境;
内部状态管理部分,用于管理机器人的内部状态,以响应所识别的外部环境和/或行为执行的结果;以及
行为评估部分,用于评估在行为描述部分中所描述的行为执行,以响应外部环境和/或内部状态。
注意,这里的术语“系统”表示多个装置的逻辑集合(或者用于完成特定功能的功能模块),尤其是不管所述装置或者功能模块是否容纳在单个一个外壳中。
外部环境识别部分至少进行外部的视觉识别、在机器人外部所产生的声音的听觉识别和从外部给机器人所施加的接触的接触识别之一。同时,内部状态管理部分管理机器人的本能模型和/或感情模型。
按照机器体动作的实现等级以树结构形式排列行为描述部分。树结构包括多个分支,诸如用于执行用公式表示动物行为学情形行为的行为模型的分支和用于执行情感表达的分支。例如,在紧跟在路由行为描述部分下面的更低层中,放置有名为“调查(Investigative)”、“摄食(Ingestive)”以及“玩耍(Play)”的行为描述部分。在“调查”的下面,放置了描述更具体的调查行为的诸如“调查移动(InvestigativeLocomotion)”、“头在空中探查(HeadinAirSniffing)”以及“调查探查(InvestigativeSniffing)”的行为描述部分。类似地,在行为描述部分“摄食(Ingestive)”下面,放置了描述更具体的摄食行为的诸如“吃(Eat)”以及“喝(Drink)”的行为描述部分。在“玩耍(Play)”的行为描述部分下面,放置了描述更具体的玩耍行为的诸如“鞠躬(PlayBowing)”、“问候(PlayGreeting)”以及“用爪抓(PlayPawing)”的行为描述部分。
在这样的例子中,行为评估部分同时并行地以树结构从上往下地评估多个行为描述部分。当用行为评估部分进行行为描述部分中的每一个的评估以响应外部环境识别部分的新的识别和/或内部状态管理部分的内部状态的变化时,将作为评估结果的执行许可以树结构连续地从上传递到下。因此,能够选择性地执行适合于响应外部环境或者内部状态变化的行为。换言之,能够同时执行情形行为的评估和执行。
用于机器人的行为控制系统还可以包括资源管理部分,用于当同时执行在多个行为描述部分中所描述的行为时,管理机器体上资源冲突。在这种例子中,在仲裁资源冲突的前提下,行为选择部分能够同时选择两个或者多个行为描述部分。
如果基于外部环境识别部分的新识别,行为评估部分的行为描述部分的每一个的评估执行结果揭示出显示比当前被执行的行为更高的评估值的行为描述部分的出现时,则行为选择部分可以停止当前被执行的行为,而优先执行在行为描述部分中所描述的具有更高评估值的行为。因此,能够优先执行要求更有意义或者更具紧迫性的类似反射行为的行为,同时中断已经在执行的情形行为。在这样的例子中,最好在优先执行的行为结束之后,恢复曾经停止的行为。
行为选择部分可以连续地选择行为描述部分中的相同一个,以响应每个不同外部环境的变化。在这样的例子中,每次执行在行为描述部分中所描述的行为时,为每个外部环境分配单个的工作空间。
例如,当执行和用户A的对话行为时,另一个用户B打断在机器人和用户A之间的对话,作为基于外部刺激和内部状态的变化进行活动性等级的评估结果,与用户B的对话行为显示出更高优先级,则进行和用户B的对话而中断和用户A的对话。
在这样的例子中,和人员A和B的对话两者都按照相同的行为描述部分被执行。因此,为和用户B对话的行为分配与为用户A对话行为的空间相分离的工作空间,由此防止在对话内容之间的干扰。换言之,和用户A的对话内容不会被用户B的对话所破坏。因此,在和用户B的对话结束之后,和用户A的对话能够从中断位置被恢复。
根据本发明的第二个方面,提供了用于自动操作以响应其内部状态的机器人的机器人行为控制系统和行为控制方法,包括:
内部状态管理部分或者步骤,用于管理每个都作为具多个层的等级结构的内部状态的指数的情感;以及
行为选择部分或者步骤,用于选择性地执行满足每个层中的一个情感的行为。
这里,内部状态管理部分或者步骤可以将情感划分为个人保持(individual preservation)所必需的第一情感层和根据第一情感的过剩或者不足变化的第二情感的另一个层,并且进一步将所述第一情感划分为包括先天反射或生理的层和基于维度的联合层。
行为选择部分或者步骤可以优先选择满足相比为低级第一情感的行为。或者,在当和相比为低级的第一情感比较时,相比为高级的第一情感显示出明显不足的情况下,行为选择部分或者步骤可以压抑满足相比为低级的第一情感的行为选择。
在根据本发明第二个方面的机器人行为控制系统和行为控制方法中,将情感根据其存在的意义划分为多个等级层,并且在这些层的每个中确定动作。根据当时的外部环境和内部状态,确定这样所确定的多个动作中的哪个应该被选择性地执行。而且,当在层中的每个中选择动作时,所应该进行动作的次序基于根据机器人的内部状态的优先级。因此,优先以比较低层的动作开始,展开动作,以致能够展开诸如反射的本能动作和诸如使用记忆的动作选择的较高级行为而在单个个体上没有矛盾。而且,当对行为分类以便产生行为计划(schemas)时,也产生确定的指数。
根据本发明的第二方面的机器人行为控制系统和行为控制方法还可以包括外部环境识别部分,用于识别机器人的外部环境的变化。在这样的例子中,行为选择部分或者步骤可以根据外部环境的指数以及内部状态的指数选择行为。
内部状态管理部分或者步骤可以改变内部状态的指数以响应利用生物节律等的时间流逝。
内部状态管理部分或者步骤可以改变内部状态的指数以响应由行为选择部分所选择的行为执行,即,响应动作的程度。
而且,内部状态管理部分或者步骤可以改变内部状态的指数以响应外部环境的变化。
根据本发明第二方面的机器人行为控制系统和方法还可以包括关联记忆部分,用于根据外部状态关联地存储内部状态的变化。在这样的例子中,内部状态管理部分或者步骤可以根据由关联记忆部分或者步骤根据外部环境所回想的内部状态的变化,改变内部状态的指数。而且,关联记忆部分或者步骤可以为每个在外部环境中所识别的对象物体存储内部状态的变化。
在传统的机器人中的动作选择或展开基本上取决于当时到对象物体的物理距离或者机器人的内部状态。换言之,不执行这种应该根据差别采取什么行为的行为选择。
与之相比,根据本发明的第二方面的机器人行为控制系统和行为控制方法,因为在不同对象物体之间不同的内部状态的变化能够利用关联记忆回想,即使情况是相同的,行为展开的设施也能够被做得不同。换言之,不仅能够考虑外部激励或者物理情况以及当前的内部状态,而且考虑机器人对每个对象物体的记忆,来选择行为。因此,能够预先考虑各种各样的对策。
例如,如果机器人不根据外部环境或者内部状态进行固定行为,像“机器人由于看到了OO就进行xx”或者“由于机器人当前缺失OO所以进行xx(对任何东西)”,而是使用有关对象物体的内部状态的变化记忆像“机器人即使看到OO,因为ΔΔ,它进行
Figure C03800498D00141
”或者“即使机器人看到OO,因为xx,它进行■■”,则能够实现各种行为。
本发明的其它目的、特征和优点根据下面的附图及其优选实施例,将会变得更清楚。
附图说明
图1是原理性地示出实现本发明的机器人装置1的功能结构的方框图;
图2是更具体地示出控制单元20的结构的方框图;
图3是原理性地示出根据本发明实施例的机器人装置1的行为控制系统100的功能结构的示意图;
图4是解释组成如图3所示的行为控制系统100的各种对象的动作流程的示意图;
图5是解释根据基于由识别功能模块101至103的识别结果引入到短期记忆部分(short-term memorysection)105的目标记忆(target memory)中的信息流的示意图;
图6是解释根据基于由识别功能模块101至103的识别结果引入到短期记忆部分105的事件记忆(event memory)的信息流的示意图;
图7是解释机器人1在用户A和B之间的对话处理的示意图;
图8是解释机器人1在用户A和B之间的另一个对话处理的示意图;
图9是解释机器人1在用户A和B之间的另一个对话处理的示意图;
图10是解释根据本发明的实施例的关联记忆(associative memory)的存储处理概念的示意图;
图11是解释根据本发明实施例的关联记忆的回想处理概念的示意图;
图12是原理性地解释应用竞争类型神经网络的关联记忆系统的结构例子的示意图;
图13是原理性地示出根据本发明实施例的行为控制系统100的对象结构的示意图;
图14是原理性地解释情形行为层108的情形行为控制的形式的流程图;
图15是解释由如图14所示的情形行为层108在行为控制中的基本动作的例子的流程图;
图16是解释当由如图14所示的情形行为层108进行反射动作时的动作例子的流程图;
图17是解释当由如图14所示的情形行为层108进行感情表达时的动作例子的流程图;
图18是原理性地解释其中根据多个行为计划形成情形行为层108的方式的示意图;
图19是原理性地示出情形行为层108的行为计划树结构的示意图;
图20是原理性地示出行为计划的内部结构的示意图;
图21是原理性地示出监视(Monitot)函数的内部结构的示意图;
图22是原理性地示出行为状态控制部分的结构例子的示意图;
图23是原理性地示出行为状态控制部分的结构的另一个例子的示意图;
图24是原理性地示出用于控制在情形行为层108中的普通情形行为的机构的示意图;
图25是原理性地示出反射控制部分109的行为计划结构的示意图;
图26是原理性地示出用于由反射控制部分109控制反射行为的机构的示意图;
图27是原理性地解释在情形行为层108中所使用的行为计划的类定义的示意图;
图28是解释行为计划的动作(action)函数的状态机的示意图;
图29是解释行为计划的状态机的示意图;
图30是原理性地示出在情形行为层108中的类的函数结构的示意图;
图31是解释用于执行MakePronome函数的处理步骤的流程图;
图32是解释用于执行监视函数的处理步骤的流程图;
图33是解释用于执行动作函数的处理步骤的流程图;
图34是解释用于执行动作函数的处理步骤的流程图;
图35是解释行为计划可重入(Reentrant)属性的原理性示意图;
图36是原理性地解释根据本发明的内部状态管理部分104的等级结构的示意图;
图37是原理性地解释在内部状态管理部分104和其它功能模块之间的通信路径的流程图;
图38是解释其中内部状态管理部分104改变内部状态以响应时间变化的机构的示意图;
图39是解释其中内部状态管理部分104改变内部状态以响应机器人动作执行的机构的示意图;
图40是解释其中内部状态管理部分104改变内部状态以响应外部环境的识别结果的机构的示意图;
图41是解释其中内部状态管理部分104根据关联记忆改变内部状态的机构的示意图;
图42是解释其中内部状态管理部分104改变内部状态以响应天生反射动作的机构的示意图;
图43是原理性地解释行为计划和内部状态管理部分之间的关系的示意图;
图44是原理性地解释动机(motivation)计算类对象的动机计算路径的示意图;
图45是原理性地解释当存在对象物体时动机计算处理机构的示意图;
图46是原理性地解释当不存在对象物体时动机计算处理机构的示意图;
图47是解释改变高兴(Pleasantness)的方法的示意图;
图48是解释改变兴奋(Activity)的方法的示意图;
图49是解释改变确定性(Certainty)的方法的示意图;
图50是解释用于确定确定性的机构的示意图。
具体实施方式
下面,结合附图描述本发明的实施例。
A.机器人装置的结构
图1原理性地示出了实现本发明的机器人装置1的功能结构。参照图1,机器人装置1包括进行整个机器人1的操作和其它数据处理的总的控制的控制单元20、输入/输出部分40、驱动部分50以及电源部分60。下面,描述其组成部分。
输入/输出部分40,作为其输入组件,包括:CCD照相机15,其对应于机器人装置1的眼睛,和麦克风16,其对应于耳朵。输入/输出部分40还包括:作为其输入组件的接触传感器18,位于头部和背部这样的情况,用于传感用户的触摸,以及其它各种传感器,用于对应作为其输入组件的5个传感器。而且,输入/输出部分40包括,作为其输出组件,对应于嘴巴的扬声器17,通过眨眼的组合或者发光定时形成面部的各种表情的LED指示灯(眼灯)19,以及其它的必要组件。输出组件甚至能够用诸如声音或者灯的闪烁而不是腿的机械运动模式等这样的形式向用户表达来自机器人装置1的反馈。
驱动部分50是根据由来自控制单元20的指令所表示的预定运动模式实现机器人装置1的机器体运动的功能块和行为控制的控制对象。驱动部分50是用于实现在机器人装置1的每个关节的自由度的功能模块,并且包括为在每个关节的诸如横滚、俯仰和横滚轴的各个轴所提供的多个驱动单元。驱动单元的每一个由马达51、编码器52和驱动器53的指令所组成。马达51提供在预定轴周围的旋转运动。编码器52检测马达51的旋转位置。驱动器53根据编码器52的输出,自适应地控制马达51的旋转位置和/或旋转速度。
机器人装置1能够根据驱动单元的组合方式,像诸如例如两足行走机器人或者四足行走机器人的方式来构造。
电源部分60从字面意义上讲就是将电源提供给在机器人装置1的各种电路的功能块。根据本发明实施例的机器人装置1是使用电池的自动驱动机器人,并且电源部分60包括可充电电池61和管理可充电电池61的充放电状态的充/放电控制部分62。
可充电电池61以“电池组”的方式构成,其中,例如,多个锂离子蓄电池以盒式封装。
充/放电控制部分62测量可充电电池61的端电压、充/放电电流量、环境温度等以捕捉可充电电池61的剩余容量,来确定充电的开始时序或结束时序。将由充/放电控制部分62所确定的充电开始时序和结束时序传递给控制单元20,并将其作为机器人装置1的触发来使用,以启动和结束充电操作。
控制单元20对应于“大脑”,并且放置在例如机器人装置1的机器体的头部或者躯体部分。
图2解释了控制单元20的结构细节。参照图2,控制单元20包括CPU(中央处理单元)21,用于用作主控制器,并且通过总线被连接到存储器和其它的电路组件和外设上。总线27是公共的信号传输线包括数据总线、地址总线、控制总线和其它必要的总线。在总线27上的装置具有单独地为其分配的唯一地址(存储器地址或者I/O地址)。CPU 21能够指定地址以便和在总线27上的装置中的特定的一个通信。
RAM(随机存取存储器)22是由诸如DRAM(动态RAM)的非易失存储器所组成的可写入存储器,并且被用来加载程序代码以让CPU 21执行,或者暂时存储由可执行程序所使用的工作数据。
ROM(只读存储器)23是一种用于永久性地存储程序和数据的只读存储器。在ROM 23中所存储的程序代码可以包括当给机器人装置1加电源时所执行的自我诊断程序和定义机器人装置1的运动的运动控制程序。
机器人装置1的控制程序包括“传感器输入和识别处理程序”,用于处理CCD照相机15,麦克风16等的传感器输入,以便将它们作为符号来识别。控制程序还包括“行为控制程序”,用于根据传感器输入和预定的行为控制模式控制机器人装置1的行为,同时控制诸如短期存储器和长期存储器的存储操作(以后将述)。控制程序还包括“驱动器控制程序”,用于根据行为控制模式控制关节马达的驱动,麦克风17的声音输出等。
非易失存储器24由允许电擦除和可重写的诸如例如EEPROM(电可擦除和可编程ROM)的存储设备组成,并被用来保存数据以便以非易失方式连续地更新。被连续地更新的数据可以是关键字或者其它的安全信息、在发货(shipment)后将被安装的装置控制程序等等。
接口25是用于建立和在控制单元20外部的装置的相互连接以便允许和装置进行数据交换的装置。接口25从例如照相机15、麦克风16以及扬声器17输入数据以及输出数据给它们。接口25还从在驱动部分50中所提供的驱动器53-1,...,输入数据和/或指令,或者将数据和/或指令输出给它们。
接口25可以包括用于连接外部设备到计算机的通用接口,以致它可以将程序或者数据移到本地连接的外部装置上或者将程序或者数据从本地连接的外部装置上移入。通用接口可以是诸如RS(推荐标准)-232C接口的串行接口,或者诸如IEEE(电子和电气工程师协会)1284接口的并行接口。另外,通用接口还可以是USB(通用串行总线)接口,i-Link(IEEE1394)接口、用于接收PC卡或者存储器条的SCSI(小计算机系统接口)接口或者存储器卡接口(卡槽)。
而且,作为接口25的另一个例子,可以提供红外通信(IrDA)接口,以致和外部装置进行无线电通信。
控制单元20还包括无线电通信接口26、网络接口卡(NIC)27等。因此,控制单元20能够进行诸如蓝牙的短程无线电数据通信,或者能够和各种外部主计算机通过诸如IEEE 802.11b或者诸如因特网的广域网的无线网络进行数据通信。
通过在机器人装置1和主计算机之间进行这样的数据通信,可以算术地操作机器人装置1的复杂的运动控制或者利用远端计算机资源远程控制机器人装置1。
B.机器人装置的行为控制系统
图3是原理性地示出了根据本发明实施例的机器人装置1的行为控制系统100的功能结构。机器人装置1能够进行行为控制以响应外部激励的识别结果或者内部状态的变化。而且,机器人装置1包括长期记忆功能,并且,能够通过关联地存储根据外部激励的内部状态的变化进行行为控制以响应外部激励的识别结果或者内部状态的变化。
如图所示的行为控制系统100能够取出和安装面向对象的程序。在这个例子中,以称作为“对象”的模块为单位来处理软件的每段,所述“对象”包括集成在一起的数据和数据处理程序。每个对象能够通过使用消息通信和公共存储器的交互对象通信方法进行数据的传递和调用。
行为控制系统100包括:视觉识别功能部分101、听觉识别功能部分102和接触识别功能部分103,以便识别外部环境(环境)。
视觉识别功能部分(视频)51基于通过诸如例如CCD(电耦合设备)照相机的图像输入装置所输入的抽取图像进行诸如面部识别或者颜色识别的图像识别处理,以及特征提取。视觉识别功能部分51由多个诸如随后将述的“MultiColorTracker(多色彩跟踪器)”、“FaceDetector(面部检测器)”以及“FaceIdentify(面部识别)”的对象组成。
听觉识别功能部分(音频)52识别通过诸如麦克风的声音输入装置所输入的语音数据以提取特征或者进行字集(文本)识别。听觉识别功能部分52由多个诸如随后将述的“AudioRecog(音频识别)”和“AuthurDecoder”的对象组成。
接触识别功能部分(触觉)53识别来自内置于例如机器体的头部的接触传感器的传感器信号,以识别诸如“被抚摸”或“被轻拍”的外部激励。
内部状态管理部分(ISM:内部状态管理器)104管理作为公式模型的诸如本能和感情的几个情感。内部状态管理部分104管理诸如机器人装置1的本能和情感的内部状态,以响应由上述的视觉识别功能部分51、听觉识别功能部分53和接触识别功能部分53所识别的外部激励(ES:外部激励)。
情感模式和本能模式的每一个都分别单独有作为其输入的识别结果和行为历史,并且管理情感值和本能值。行为模式能够涉及情感值和本能值。
在本实施例中,情感由根据其存在的意义多个层组成,并且在单个的层中操作。根据当时的外部环境或者内部状态确定应该进行所确定的动作中的哪一个(随后将述)。而且,尽管在每层中选择行为,但是通过优先以低级动作开始展开动作,可以展开诸如反射行为的本能行为或者诸如其中使用记忆的动作选择的较高级行为,而在单个个体上没有矛盾。
根据本实施例的机器人装置1包括短期记忆部分105和长期记忆部分106,以便进行行为控制来响应外部激励的识别结果或者内部状态的变化。短期记忆部分105用于随着时间消逝将会丢失的短期记忆,而长期记忆部分106用于信息的相对长期记忆。记忆机制的短期记忆和长期记忆的划分取决于神经心理学。
短期记忆部分(短期记忆)105是用于在短时间内保持通过如上所述的视觉识别功能部分101、听觉识别功能部分102或者接触识别功能部分103根据外部环境所识别的目标或者事件的功能模块。例如,短期记忆部分105在将近15秒的短时间段存储来自CCD照相机15的输入图像。
长期记忆部分(长期记忆)106用来在长的时间段内保持通过学习所获得的诸如物体的名字的信息。长期记忆部分106能够在特定行为模块中根据外部激励关联地存储内部状态的变化。
根据本实施例的机器人装置1的行为控制大体被划分为由反射行为部分109所实现的“反射行为”、由情形行为层108所实现的“情形行为”以及由深思行为层107所实现的“深思行为”。
反射行为部分(反射情形行为层)109是实现反射机器体动作以响应由如上所述的视觉识别功能部分101、听觉识别功能部分102或者接触识别功能部分103所识别的外部激励的功能模块。
反射行为表示直接接收从传感器所输入的外部信息的识别结果、将它们分类并直接确定输出行为的行为。例如,诸如跟踪人的面部或者点头的行为最好作为反射行为来安装。
情形行为层(SituatedBehaviorsLayer)108根据短期记忆部分105和长期记忆部分106的存储内容以及由内部状态管理部分104所管理的内部状态控制与机器人装置1当前所处情况相符的行为。
情形行为层108为每个行为准备状态机(或者状态过渡模型),并且根据前面的行为或者情况划分由传感器所输入的外部信息的识别结果,以展开机器体上的行为。而且,情形行为层108将实现在特定范围内用于保持内部状态的行为(同样也被称作“体内平衡行为”)。如果内部状态超过所指定的范围,则情形行为层108启动用于将内部状态返回到所述范围的行为,以致可以容易地展开所述行为(实际上,考虑内部状态和外部环境两者来选择行为)。当和反射行为相比时,在响应时间方面,情形行为是比较慢的。
深思行为层(DeliberativeLayer)107根据在短期记忆部分105和长期记忆部分106中所存储的内容,在比较长的时间段内进行机器人装置1的行为规划等。
深思行为表示在推论下或者准备实现与给定的情况或者来自人的指示相符的推断规划下所进行的行为。例如,搜索机器人的位置和目标位置的路径对应的是深思行为。诸如刚才所提到的讨论或者规划可能要求比为了保持机器人装置1的交互动作所进行的反应时间更长的处理时间或者更高的计算负担。因此,深思行为进行推论或者规划,而如上所述的反射行为或者情形行为实时地返回反应。
深思行为层107、情形行为层108和反射行为部分109能够描述为不依赖于机器人装置1的硬件结构的更高层的应用程序。相反,依赖硬件的行为控制部分(hardware dependent behavior controlsection)(ConfigurationDependentActionsAndReactions)110直接操作机器体硬件(外部环境)诸如根据来自较高级应用程序(被称作“行为计划”的行为模块)的指令驱动关节致动器(actuator)。
C.机器人装置的记忆机制
当根据本实施例的机器人装置1包括如上所述的短期记忆部分105和长期记忆部分106时,诸如刚才所提到的这种记忆机制依赖于神经心理学。
短期记忆从字面意义上讲表示用于短的时间段的记忆,并且随着时间的流逝会丢失。短期记忆能够被用来短时间段保持根据外部环境通过例如视觉传感器、听觉传感器或者接触传感器所识别的目标和事件。
短期记忆能够被进一步地划分为“传感记忆”、“直接记忆”和“工作记忆”。“传感记忆”接近1秒的时间段保持作为原始信号形式的传感信息(即,来自传感器的输出)。“直接记忆”以通过对传感记忆编码所获得的容量存储传感记忆一短时间段。“工作记忆”存储情况变化或者上下文好几个小时。根据神经心理学的研究,据说直接记忆包括7±2个记忆块(chunk)。同时,与短期记忆和长期记忆相对比,也将工作记忆称作为“中间记忆”。
长期记忆被用来长时间保持通过学习所获得的诸如物体的名称的信息。长期存储能够统计地处理相同的模式以产生健壮的记忆。
长期记忆被进一步地划分为“说明性知识记忆”和“程序性知识记忆”。说明性知识记忆包括作为与场景(例如,有关学习的场景)有关的记忆的“情节记忆”和诸如词义或者常识的“意义记忆”。同时,程序性知识记忆是有关说明性知识记忆应该被怎样使用以及能够用来获取与输入模式相对应的动作的程序性记忆。
C-1.短期记忆部分
短期记忆部分105是表示和存储表示机器人装置1自身周围的物体或者事件并且使得机器人根据所存储的物体和事件进行行动的功能模块。短期记忆部分105根据来自视觉、听觉和其它传感器的传感器信息在以自我为中心的坐标系中放置物体或者事件,并且能够存储在视野之外的物体,以致产生对物体等的行为。
例如,当在和特定用户A对话期间,由另一个用户B呼叫机器人,则要求短期记忆功能在它和用户B说话之后恢复和用户A的对话,同时存储用户A的位置或者对话的内容。不过,非常复杂的处理的集成没有执行,但是基于在空间和时间上接近的这种简单集成以致在空间上和时间上彼此接近的传感器信息段被认为是来自相同物体的信号。
而且,为了存储不是通过利用诸如立体视觉传感技术的模式识别辨别的物体的物体位置,短期记忆部分105在以自我为中心的坐标系中放置所述物体。而且,刚才所述的物体能够和地板表面检测一起被用来随机地存储障碍等的位置。
在本实施例中,短期记忆部分105集成包括诸如如上所述视觉识别功能部分101、听觉识别功能部分102和接触识别功能部分103的多个识别器结果的外部激励,以致它们可以保持时间上和空间上的连续性。因此,短期记忆部分105提供作为短期存储的在外部环境下的有关单个物体的知觉给诸如情形行为层(SBL)108的行为控制模块。
因此,作为高级模块所形成的行为控制模块能够处理来自外部世界的多个识别结果作为被集成的有意义的符号信息,以进行高度的行为控制。而且,行为控制模块能够利用更复杂的识别结果,诸如与在解决哪个皮肤颜色区域表示面部、并且所述面部对应哪个人或者所述声音是谁的声音的问题之前所观察的识别结果与该问题相对应。
而且,因为短期记忆部分55存储有关所识别观察结果的信息作为记忆,可以使用较高级的诸如进行机器体的行为控制的应用程序的模块,从而即使在其中机器人自动动作期间观察结果暂时不能得到,机器人看起来也感觉到物体在那里。例如,因为在传感器的视野之外的信息也继续被存储而没遗忘,即使机器人曾经看不到物体,它在随后也能找到它。结果是,能够实现稳定的系统,该稳定的系统对识别器的错误或者传感器的噪声很健壮,而不依赖识别器的通知时序。而且,即使从单独的识别器的角度来看,信息是不充分的,因为用另一个识别结果有时能够补偿它,所以提高了作为整个系统的识别性能。
而且,因为有关识别结果是彼此耦合的,所以,高级的应用程序模块等使用相关信息来确定行为是可能的。例如,当大声叫唤机器人装置时,它能够根据呼叫声提取此人的名字。结果是,机器人装置能够做出反应,诸如对问候的像“喂,xx”的答复。
图4解释了响应外部激励如图3所示的行为控制系统100的情形行为控制的机制。通过识别系统的功能模块101至103,将外部激励引入系统,并通过短期记忆部分(STM)105将其提供给情形行为层(SBL)108。正如图4所看到的那样,识别系统的功能模块101至103、短期记忆部分(STM)105和情形行为层(SBL)108每个都作为对象被构造。
参看图4,称作为“对象”或者“进程”的实体用圆圈表示。整个系统按彼此异步通信的对象来操作。每个对象通过其中使用消息通信和公共存储器的交互对象通信方法来进行数据的传递和调用。下面,描述这些对象的功能。
AudioRecog(音频识别):
这是一个从诸如麦克风的声音输入装置接收语音数据并进行特征提取和语音音程检测的对象。而且,当麦克风是立体声麦克风时,能够进行水平方向的声源方向检测。如果辨别出语音音程,则将在所述音程中的语音数据和声源方向的特征量发送给ArtherDecoder(随后将述)。
SpeechRecog(语音识别):
这是一个利用从AudioRecog接收的语音特征量、语音字典和句法字典进行语音识别的对象。将一组被识别的词发送给短期记忆部分(短期记忆)105。
MultiColorTracker(多色彩跟踪器):
这是一个进行色彩识别并从诸如照相机的图像输入装置接收图像数据、根据事先在其中所存储的多个彩色模型提取彩色区域,并将其划分为连续区域的对象。输出通过该划分所获得的每一个区域中的位置、大小和特征量等等的信息,并将其发给短期记忆部分(短期记忆)105。
FaceDetector(面部检测器):
这是一个从图像帧中检测面部区域并从诸如照相机的图像输入装置接收图像数据以及将其转换为比例尺为9(nine-level scales)的比例图像的对象。所述对象搜索与面部对应的长方形区域的所有图像。该对象降低如此叠加的候选区域以最终辨别作为面部的区域,并将有关区域的位置、大小、特征量等等信息输出和发送给FaceIdentify(面部识别)(如下所述)。
FaceIdentify:
这是一个识别所检测面部图像并从FaceDetector接收表示面部区域的长方形区域图像的对象。接着,所述对象用手头上的人员字典的内容和面部图像比较以检测出所述面部图像对应于在人员字典中的哪个人以便辨别出此人。在此例子中,该对象从面部检测中接收面部图像,并将个人的ID信息和面部图像区域的位置和大小一起输出。
ShortTermMemory(短期记忆)(短期记忆部分):
这是一个在比较短时间段保持有关机器人1的外部环境信息的对象。该对象从SpeechRecog接收语音识别结果(词、声源方向以及置信度),并从MultiColorTracker接收皮肤彩色区域的位置和大小和面部区域的情况和大小。而且,该对象从FaceIdentify接收人员的ID信息等等。而且,该对象从机器人1的机器体上的好几个传感器那里接收机器人颈部的方向信息(关节角度)。接着,该对象整个地使用这样的识别结果和传感器输出以存储哪个人在哪个位置以及所说的话是从哪个人那里产生以及和人进行什么对话的信息。该对象将作为来自其输出的有关物体即从时间方向的角度来看的目标和事件(历史)的物理信息传递给诸如情形行为层(SBL)的高级模块。
SituatedBehaviorLayer(情形行为层)(情形行为层):
这是一个根据来自如上所述的ShortTermMemory(短期记忆)(短期记忆部分)的信息确定机器人1的行为(依赖情况的行为)的对象。该对象能够在相同时间估价或者执行多个行为。而且,该对象能够变换行为以将机器体放置于睡眠状态,并激活另一个行为。
ResourceManager(资源管理器):
这是一个在机器人1的硬件块之间进行资源仲裁以响应输出指令的对象。在图4的例子中,该对象在控制扬声器输出声音的对象和用于控制颈部的动作的另一个对象之间进行资源仲裁。
SoundPerformerTTS(声音演播器TTS):
这是一个输出声音的对象。该对象进行语音分析以响应从SituatedBehaviorLayer通过ResourceManager对其给出的文本指令,并从机器人1的机器体上的扬声器输出声音。
HeadMotionGenerator(头动作发生器):
这是一个计算颈部关节角以响应从Situated BehaviorLayer通过ResourceManager接收用于移动颈部的指令的对象。如果接收到“跟踪”指令,则该对象根据从ShortTermMemory所接收的物体的位置信息计算指向其中物体所在的方向的颈部关节角。
短期记忆部分105由目标记忆和事件记忆两个不同记忆对象所组成。
目标记忆对来自识别功能模块101至103的信息进行集成,并且保持有关目前所看到的物体即目标的信息。所以,当目标物消失或者出现时,该对象从储存区域(垃圾收集器(GarbageCollecotor))删除正保持的目标,或者重新产生保持目标。而且,该对象能够用多个识别属性(目标关联(TargetAssociate))表示一个对象。例如,目标可以作为具有皮肤色彩、具有面部模式并发出声音的物体(人脸)来表示。
在目标记忆中所存储的物体(目标)的位置或姿态信息不在每个识别功能部分51至53中所使用的传感器坐标系中而在其中诸如机器人的躯干的机器体的特定位置被固定在预定位置的完全坐标系中表示。所以,短期记忆部分(STM)105总是监视机器人1的每个关节的电流值(传感器输出),并进行从传感器坐标系到固定坐标系的转换。因此,能够将来自识别功能模块101至103的信息彼此集成。例如,即使机器人100移动颈部或者其它部分以改变传感器的姿态,从诸如情形行为层(SBL)的行为控制模块来看物体的位置保持一致。所以,目标的处理是方便的。
同时,事件记忆是以时间顺序关系存储在外部环境下所出现的从过去到现在的事件的对象。在事件记忆中所处理的事件可以是目标的消失或者出现、语音识别词句和有关诸如机器人行为或者自身姿态的变换的外部世界的情况变化信息。
事件包括有关特定目标的状态变化。所以,如果在事件信息中包括了有关对象的ID,则从如上所述的目标记忆中搜索更具体的有关发生事件的信息是可能的。
图5和6解释了将基于识别功能模块101至103的识别结果引入到在短期记忆部分105的目标记忆和事件记忆的信息的流程。
正如如图5所看到的那样,在短期记忆部分105(STM对象)中提供了用于从外部环境中检测目标的目标检测器。目标检测器根据诸如语音识别结果、面部识别结果和色彩识别结果的功能模块101至103的识别结果,添加新的目标,并更新现存的目标,以致它在识别结果中可以有所反映。将所检测的目标存储到目标记忆。
目标记忆还有搜索和删除不再被观察到的目标的垃圾收集器(GarbageCollector)函数、辨别多个目标的关系以便将它们和相同的目标相结合的目标关联(Target Associate)函数、以及其它必要的函数。通过随着时间的推移降低目标的置信度并删除(删除)目标中置信度变得比预定值低的目标来实现垃圾收集器。同时,目标关联能够识别相同目标,因为具有彼此相近似的相同属性(识别类型)的特征量的目标在空间上和时间上是彼此接近的。
如上所述的情形行为层(SBL)是成为短期记忆部分105的客户并周期性地从目标记忆接收有关每个目标信息的通知(Notify)的对象。在本实施例中,STM代理(proxi)类将目标复制到与短期记忆部分105(STM对象)无关的客户本地工作区域,以致可以总能保持最近信息。接着,情形行为层(SBL)从本地目标列表(感兴趣的目标)中读出作为外部激励的所想要的目标以确定行为计划即行为模块(随后将述)。
而且,正如图6所示,在短期记忆部分105(STM对象)中提供了用于检测在外部环境中所产生事件的事件检测器。事件检测器检测作为事件的目标检测器的目标产生或者垃圾收集器的垃圾删除。而且,在识别功能模块101至103的识别结果是语音识别的地方,以出现的时间顺序将发生事件按事件列表存储到事件记忆。
情形行为层(SBL)是成为短期记忆部分105的客户并从事件记忆接收事件通知(Notify)的对象。在本实施例中,STM代理类将事件列表复制到与短期记忆部分105(STM对象)无关的客户本地工作区域。接着,情形行为层(SBL)从本地事件列表中读出作为外部激励的所想要的事件以确定行为计划即行为模块(随后将述)。通过事件检测器将所执行的行为模块作为新事件检测出。另一方面,从事件列表中以FIFO(先进先出)的方式连续地放弃旧事件。
根据本实施例的短期记忆机制,机器人1将有关外部激励的多个识别器的结果集成,以致它们在时间上和空间上具有连续性,由此将它们作为有意义的符号信息进行处理。因此,机器人1能够利用更复杂的识别结果,诸如将在解决如哪个皮肤彩色区域表示面部,该面部对应于哪个人或者声音是谁的声音的问题之前所观察到的识别结果与该问题对应。
下面,参照图7至9描述机器人1在用户A和B之间的对话处理。
首先参照图7,如果用户A呼叫“Masahiro!”(机器人的名字),接着,通过识别功能部分51至53分别进行语音方向检测、语音识别和面部识别,并且进行有关转向呼叫方向以及跟踪用户A的面部或者和用户A开始对话这样的情形行为。
接着,如果用户B现在呼叫“Masahiro!”(机器人的名字),如图8所示,则通过识别功能部分101至103分别进行语音方向检测、语音识别和面部识别,并且进行有关中断与用户A的对话(但存储会话的上下文)和转向呼叫方向以及跟踪用户B的面部或者和用户B开始对话这样的情形行为。这是情形行为层108所具有的优先权功能(随后将述)。
接着,如果用户A发出“hallo!”以促使机器人1继续对话,如图9所示,则进行有关中断现在和用户B的对话(但是存储会话的上下文),和转向呼叫方向,跟踪用户A的面部或者基于所存储的上下文恢复和用户A的对话这样的情形行为。在此时,由于情形行为层108具有重进入的功能(随后将述),所以和用户B的对话内容不会因和用户A的对话而被破坏,并且能够从中断点准确地恢复对话。
C-2.长期记忆部分
长期记忆部分被用来长时间保持通过学习所获得的诸如物体名称的信息。长期记忆能够统计地处理相同的模式而变得成为健壮的记忆。
长期记忆还被划分为“说明性知识记忆”和“程序性知识记忆”。说明性知识记忆包括与场景(例如,有关学习的场景)有关的“情节记忆”和可以包括词义或者常识的“意义记忆”。同时,程序性知识记忆是诸如有关说明性知识记忆应该被怎样使用以及能够用来获取与输入模式相对应的动作这样的程序性记忆。
情节记忆是一种来自长期记忆里面的说明性知识记忆(同时也被称作为描述记忆)。例如,如果考虑骑自行车,则它对应记起其中特定人第一次骑自行车这样的场景(时间、地点等等)的情节记忆。因此,随着时间的推移,有关此情节的记忆会消失。不过,对该情节的意义的记忆是意义记忆。而且,骑自行车的程序被记忆,并且,这对应于程序性知识记忆。一般来说,时间是为程序性知识记忆所必需的。尽管根据说明性知识记忆而“说话”是可能的,但是程序性知识记忆是潜在的,并且作为动作的执行出现。
在本实施例中的长期记忆部分106由存储诸如视觉信息和听觉信息的有关物体的传感器信息以及作为为物体所进行行为的结果的内部状态等的变化结果的关联记忆,有关物体中的一个物体的帧记忆,以及诸如由周围视域所构造的映射信息、作为数据或者起源情况所给定的映射信息、对这些相同信息的行为以及行为的结果这样的规则所组成。
C-2-1关联记忆
关联记忆表示事先存储每个由多个符号组成的输入模式作为记忆模式,并且回想与所存储的模式类似的模式的机制。在本实施例中的关联记忆由使用竞争类型神经网络的模型来实现。按照如刚才所述的关联记忆机制,当输入有瑕疵的模式时,能够输出在所存储的模式中最接近的记忆模式。这是因为,即使当仅仅提供由不完整的数据所形成的外部刺激,也能够通过激发有关的神经元或者一些神经元来回想特定对象等的意义。
将关联记忆大致划分为“自回想类型的关联记忆”和“交互回想类型的关联记忆”。自回想类型是一种直接用关键字模式提取所存储模式的模型。同时,交互回想类型是其中输入模式和输出模式以特定关联关系彼此连接的模型。在本实施例中,采用自回想类型关联记忆。这是因为,它比传统的跳跃字段(hop field)或者联合管(associatron)(随后将述)记忆模型的优越之处在于:附加的学习是容易的,并且输入模式的统计记忆是可能的。
按照附加学习,即使重新学习新模式,过去的记忆通过重写一点也不会被删除。而且,根据统计学习,如果大量次数地观察相同事物,则它在记忆中保持同样多,并且,如果重复地执行相同事物,则它较少可能被遗忘。在此例子中,即使每次在记忆处理中没有输入完整的模式,所存储的模式也会逐渐集中到通过重复执行以相当大量次所提供的模式。
C-2-2.关联记忆的意义记忆
由机器人1所记起的模式是由例如对机器人1的外部激励和机器人1的内部状态的结合所组成。
这里,外部激励是由机器人1通过传感器输入识别所获得的感觉信息,并且例如是通过对从CCD照相机15所输入的图像进行处理所获得的例如色彩信息、形状信息、面部信息等等。更具体地讲,外部激励是由诸如色彩、形状、面部、3D普通物品、手势、动作、声音、接触、嗅觉和味觉的元素组成。
同时,内部状态表示诸如例如基于机器人身体的本能或者感情。本能因素至少是例如疲劳、体温、疼痛、食欲或者饥饿、渴、感情、好奇心、排泄和性欲(情欲)之一。同时,感情因素至少是幸福、悲伤、愤怒、惊讶、厌恶、恐惧、挫折、厌烦、梦幻、群居性、耐心、紧张、放松、警惕、负罪感、怨恨、忠诚、顺从和嫉妒之一。
在应用了根据本实施例的竞争型神经网络的关联记忆机制中,对形成外部激励或者内部状态的因素中的每一个分配输入通道。而且,诸如视觉识别功能部分101和听觉识别功能部分102的感觉功能的每一个不发送作为传感器输出的原始信号,而是用符号表示传感器输出的识别结果并将与符号(诸如,例如色彩原型ID、形状原型ID、声音原型ID等等)相对应的ID信息发送给相关通道。
例如,将由色彩分割模块所分割的每个对象和添加至此的色彩原型ID一起输入到关联记忆系统。而且,将由物体识别模块所识别的物体ID输入到关联系统。而且,从声音识别模块输入根据用户发声所产生的词句的原型。此时,因为同样也输入发声的音素序列,所以机器人装置1能够通过记忆和关联处理发声。而且,因为考虑到本能,所以能够处理模拟值(随后将述),并且,如果,例如将本能的增量值存储为80,则通过关联能够获得模拟值80。
因此,根据本实施例的关联记忆系统能够存储诸如色彩、形状、声音等等的外部激励或作为由为每个通道用符号所表示的ID的组合所形成的输入模式的内部状态。换言之,关联记忆系统存储[色彩ID、形状ID、面部ID、声音ID...,本能ID(值)、情感ID]的组合。
关联记忆包括存储处理和回想处理。图10解释了关联记忆的存储处理的概念。
输入到关联记忆系统的存储模式是由给外部激励和内部状态的每个因素所分配的多个通道(在所示的例子中,从输入1至输入8的8个通道)所组成。将用符号表示对应于外部激励或者对应于内部状态的识别结果的ID信息发送给每个通道。假定在所示的例子中,每个通道的密度表示ID信息。例如,在存储模式中的第k栏被分配给面部通道,则通过其色彩表示面部的原型ID。
在图10的例子中,假定关联存储系统具有已经在其中存储的1至n总共n个存储模式。这里,在两个存储模式之间的对应通道中的色彩差表示在相同通道中所存储的外部激励或者内部状态的符号即ID,在两种存储模式之间不同。
同时,图11解释了关联记忆的回想处理的概念。如上所述,如果输入与在记忆处理中所存储的输入模式之一类似的模式,则输出完整的存储模式以致补充丢失信息。
在如图11所示的例子中,将其中仅仅为3个高级通道给定ID而该模式由8个通道所组成的模式作为关键字模式输入。在这样的例子中,关联记忆系统能够在已经存储的存储模式中找到其3个高级通道和关键字模式的最接近的模式(在如图11所示的例子中,存储模式1),并将所找到的模式作为被回想的模式输出。换言之,输出最接近的存储模式以补充通道4至8的丢失信息。
因此,根据关联记忆系统,仅仅从面部的ID回想语音ID即名称,或者仅仅从食物的名称回想“美味”或者“不是美味”是可能的。根据基于完全型神经网络的长期记忆结构,能够用和其它的长期记忆一样的工程模型实现有关词句或者常识的意义的意义记忆。
C-2.通过竞争型神经网络的关联学习
图12原理性地示出了应用竞争型神经网络的关联记忆系统的结构例子。如图12所看到那样,竞争型神经网络是包括输入层和竞争层的等级型神经网络。
竞争型神经网络包括记忆模式和回想模式两个不同的操作模式。在记忆模式中,竞争型神经网络竞争地存储输入模式。在回想模式中,竞争型神经网络根据部分丢失的输入模式回想完整的存储模式。
输入层由多个输入神经元组成。每个输入神经元从分配给表示外部激励或者内部状态的每个因子的通道中,接收作为对其输入的与外部激励的识别结果或者内部状态相对应的符号,即ID信息。对于输入层,需准备与色彩ID数+形状ID数+声音ID数+本能种类数+...的总数相对应的神经元数。
同时,竞争层由多个竞争神经元所组成。竞争神经元中的每一个以特定耦合权重与输入层侧的输入神经元耦合。每个竞争神经元对应于要由该神经元存储的一个符号。换言之,竞争神经元总数对应于能够被存储的符号数。
假定将特定输入模式提供给输入层。此时,输入模式由每个代表外部激励或者内部状态的因子的通道所组成,并激活从相关通道发送ID的任何输入神经元。
竞争神经元的每一个通过突触(synapses)加权接收输入神经元的输出作为对其输入,并且计算输入值的总值。接着,选择具有在竞争层中的输入值的最大总值的一个竞争神经元,并且增强在所选的获胜竞争神经元和输入神经元之间的耦合力以进行学习。而且,通过相关于部分丢失输入模式选择在竞争层中的获胜竞争神经元,能够回想与输入模式相对应的符号。
记忆模式:
假定在输入层和竞争层之间的耦合权重具有范围从0至1的值。不过,初始耦合权重是随机确定的。
首先通过关于将被存储的输入模式选择在竞争层中的获胜竞争神经元,并接着通过增强在竞争神经元和输入神经元之间的耦合力,进行在竞争型神经网络中的存储。
这里,如果神经元对应原型ID1并且识别出原型ID1,则输入模式矢量[x1,x2,...,xn]激活神经元x1,并进一步连续地激活与形状和声音相对应的神经元。所激活的神经元假设为值1,而没有被激活的神经元假设为另一个值-1。
如果在第i个输入神经元和第j个竞争神经元之间的耦合力用wij表示,则用下面的表达式表示有关输入xi的竞争神经元yj的值:
y j = Σ i = 0 NumofInput w ji x i
因此,根据下面的表达式能够确定在竞争中的获胜神经元:
max{yi}
通过增强在竞争层中的获胜神经元(得胜神经元)和输入神经元之间的耦合力,进行存储。根据Kohnen更新准则以下面的方式进行在获胜神经元(得胜神经元)和输入神经元之间的耦合的更新:
Δwji=α(xi-wji)α:学习比
wji(new)=Δwji+wji(old)
这里,用L2Norm对其归一化:
w ji ( new ) = w ji ( new ) Σ i NumofInput w ji 2
此耦合力表示记忆强度,并且对应记忆能力。这里,学习比α是表示出现的次数和记忆之间的关系的参数。随着学习比α的增加,每一次记忆权重的变化量增加。例如,如果使用α=0.5,则如果存储模式一次,该模式永远不会遗忘,并且,如果下次出现类似的模式,则所存储的模式能够在几乎不失败的情况下被回想。
随着模式出现和存储的次数增加,网络的耦合值(权重)也增加。这表明:随着输入的相同模式的次数增加,记忆强度也增加。因此,统计学习是可能的,并且能够实现受在实际环境下的噪声能影响较少的长期存储。
另一方面,如果试着输入和存储新模式,则将激活在竞争层中的新神经元。因此,增强了对新神经元的耦合,但是,这不意味着减少对过去记忆的另一个神经元的结合力。换言之,竞争型神经网络的关联记忆允许附加学习,并且从健忘的问题中解脱出来。
回想模式:
现在假定如下给定的这样一种输入模式矢量提供给如图12所示的关联记忆系统。输入模式不必必须是完全模式,而是可以是部分丢失的模式。
[x1x2...xn]
此时,输入矢量可能是原型ID或者它可能是原型ID的似然或者概率。根据下面的表达式关于输入xi计算输出神经元yj的值:
y j = Σ i = 0 NumofInput w ji x i
考虑上述表达式表示对应于每个通道似然的竞争神经元的激活值的概率。这里重要的是,根据多个通道的似然输入,通过连接它们能够确定全部的似然。在本实施例中,仅选择表现最大似然的一个通道作为关联通道,并且能够根据下面的表达式确定在竞争中的优胜神经元:
max{yi}
因为所确定的竞争神经元Y的数目对应所存储的符号数,所以如下式所给定的通过W的逆矩阵运算能够回想输入模式X:
Y=W·X
X=W-1Y=WTY
而且,通过分配情节、动作ID等的符号给如图12所示的竞争型神经网络的输入层神经元,能够通过关联记忆结构实现说明性知识记忆或者程序性知识记忆。
D.情形行为控制
情形行为层(情形行为层)108根据短期记忆部分105和长期记忆部分106的存储内容和由内部状态管理部分104所管理的内部状态,控制适合于机器人装置1目前所处的情况的机器人装置1的行为。而且,情形行为层108包括,作为其一部分的,用于执行反射和直接的机器体动作以响应所识别的外部激励的反射行为部分109。
D-1.情形行为层的结构
在本实施例中,情形行为层108包括为每个行为模型所准备的状态机(或状态过渡模型),并且将依赖于过去行为和位置的由传感器所输入的外部信息的识别结果进行分类以展开有关机器体的行为。将每个行为模块描述为具有监视函数和动作函数的行为计划,监视函数辨别情况以响应外部激励或者内部状态的变化,动作函数实现在行为执行中所涉及的状态过渡(状态机)。以其中多个行为计划分等级地连接的树结构形成情形行为层108(随后将述)。
而且,情形行为层108也实现用于保持在特定范围内的内部状态的行为(也被称作为“共生行为(homeostasis behavior)”)。如果内部状态超过所给定范围,则情形行为层108激活用于将内部状态返回到所述范围的动作,结果可以更容易地进行动作(实际上,同时考虑内部状态和外部环境来选择动作)。
如图3所示的机器人1的行为控制系统100的这种功能模块的每一个都被作为对象构造。每个对象能够利用其中使用消息通信和公共存储器的交互对象通信方法进行数据的传递和调用。图13原理性地示出了根据本实施例的行为控制系统100的对象结构。
视觉识别功能部分101由“面部检测器(FaceDetector)”、“多色彩跟踪器(MultiColorTracker)”和“面部识别器(FaceIdentify)”3个对象组成。
FaceDetector是从图像帧内检测面部区域并将检测结果输出到FaceIdentify的对象。MultiColorTracker是进行色彩识别并将识别结果输出到FaceIdentify和ShortTermMemory(组成短期记忆部分105的对象)的对象。而且,FaceIdentify对所检测的面部图像等等搜索手头的人员字典以识别人员并将所述人员的ID信息和面部图像区域的位置和大小信息输出给ShortTermMemory。
听觉识别功能部分102由“AudioReg”和“SpeechRecog”两个对象组成。AudioReg是从诸如麦克风的语音输入装置接收语音数据并进行字提取和语音音程检测的对象。AudioRecog将在语音音程和声源方向内的声音数据的特征量输出给SpeechRecog和ShortTermMemory。SpeechRecog是利用从AudioRecog接收的语音特征量和语音字典及语法字典进行语音识别的对象。SpeechRecog将一组被识别的词句输出给ShortTermMemory。
接触识别功能部分103由识别来自接触传感器的传感器输入并将识别结果输出给ShortTermMemory和作为管理内部状态的对象的InternalStateModel(ISM)的“触觉传感器(TactileSensor)”组成。
ShortTermMemory(STM)是组成短期记忆部分105的对象,并且是短时间保持如上所述的识别系统的对象中的任何一个从外部环境所识别的目标和事件的功能模块(例如,以大约15秒的短时间存储来自CCD照相机15的输入图像)。ShortTermMemory(STM)周期性地将外部激励通告(通知)给作为STM客户的SituatedBehaviorsLayer。
LongTermMemory(LTM)是组成长期记忆部分106的对象,并被用来长时间保持通过学习所获得的诸如物体名称的信息。LongTermMemory能够关联地存储例如在特定行为模块中的来自外部激励的内部状态的变化。
InternalStatusManager(ISM)是组成内部状态管理部分104的对象。InternalStatusManager管理诸如作为公式模型的本能和感情的几种情感。InternalStatusManager进一步管理诸如机器人1的本能和感情的内部状态以响应随后所述的识别系统的识别对象中的任何一种所识别的外部激励(ES:ExternalStimula)。
SituatedBehaviorsLayer(SBL)是组成情形行为层108的对象。SBL是成为ShortTermMemory的客户(STM客户)的对象。当SBL周期性地从ShortTermMemory接收到有关外部激励(目标或者事件)的通告(通知)信息时,它确定行为计划即将要执行的行为模型(随后将述)。
ReflexiveSituatedBehaviorsLayer是组成反射行为部分109的对象,并且执行执行反射和直接的机器体动作以响应由随后将述的识别系统的对象中的任何一个所识别的外部激励。例如,ReflexiveSituatedBehaviorsLayer进行诸如例如跟踪人的面部或同时避开障碍物以响应障碍物的检测的这样一些行为(随后将述)。
SituatedBehaviorsLayer选择行为以响应诸如外部激励或者内部状态的变化的情况。相反,ReflexiveSituatedBehaviorslayer反射性地动作以响应外部激励。因为彼此独立地进行两个对象的行为选择,当在机器体上进行由它们所选择的行为模块(行为计划)时,因为机器人1的硬件资源的彼此冲突,不可能成功地执行它们。对象ResourceManager在有关SituatedBahaviorsLayer和ReflexiveSitutedBehaviorsLayer的行为选择的硬件冲突中进行仲裁。接着,ResourceManager将通知发布给用于基于仲裁结果实现机器体动作的对象以驱动机器体。
SoundPerformer、MotionController和LedController是用于实现机器体动作的对象。SoundPerformer是用于输出声音的对象,并且进行语音分析以响应通过ResourceManager从SituatedBehaviorLayer送来的文本指令,并从机器人1的机器体上的扬声器中输出声音。同时,MotionController是用于进行机器体上的每个关节致动器的动作的对象,并且它计算有关关节角以响应对通过ResourceManager来自SituatedBehaviorLayer的用于移动手或者腿的指令的接收。而且,LedController是用于进行LED指示器19的闪烁操作的对象,并且它进行LED指示器19的闪烁驱动以响应通过ResourceManager接收来自SituatedBehaviorLayer的指令。
图14原理性地解释了情形行为层(SBL)108(包括反射行为部分109)的情形行为控制的形成。将识别模块101至103的外部环境的识别结果作为外部激励提供给情形行为层108(包括反射行为部分109)。同样,将响应识别系统中的任何一个的外部环境的识别结果的内部状态的变化提供给情形行为层108。情形行为层108能够辨别情形以响应外部激励和内部状态的变化以进行行为选择。
图15解释了在如图14所解释的情形行为层108的行为控制中的基本操作的例子。正如图15所见,情形行为层108(SBL)计算行为模块(行为计划)的活动等级以响应外部激励或者内部状态的变化,并选择行为计划以响应在行为级别中的比例以执行行为。对于活动等级的计算,情形行为层(SBL)108能够利用例如图书馆进行对所有行为计划的集成计算处理(这类似地应用在下面的描述中)。例如,可以选择具有最高活动等级的行为计划。或者,可以选择具有比预定值更高活动等级的两个或者多个行为计划以同时执行对应的动作(不过,在同时执行行为计划的地方,假定行为计划不会引起硬件资源的冲突)。
图16解释了当由如图14所示的情形行为层108进行反射动作时的操作例子。在此例子中,在情形行为层108中所包括的反射行为部分109(ReflexiveSBL)接收由识别系统的对象中的每一个所识别的外部激励,作为对其的直接输入,并且根据该输入计算活动等级。接着,反射行为部分109(ReflexiveSBL)选择行为计划以响应在活动等级中的比例以执行行为。在此例子中,没有将内部状态的变化用于活动等级的计算。
图17解释了当用如图14所示的情形行为层108表达感情时的操作例子。内部状态管理部分104管理诸如作为公式模型的本能和感情的情感,并将内部状态变化的通告(通知)发布给情形行为层108以当情感参数的状态值到达预定值时对其响应。情形行为层108接收作为对其输入的内部状态变化,并计算活动等级,并选择行为计划以响应在活动等级中的比例以执行行为。在此例子中,尽管将识别系统的对象的任何一个所识别的外部激励用于在内部状态管理部分104(ISM)中的内部状态的管理和更新,但是它没有被用于行为计划的活动等级的计算。
D-2.行为计划
情形行为层108包括为每个行为模型准备的状态机,并根据过去的行为和情况对从传感器输入的外部信息的识别结果进行分类以进行机器体上的行为。将每个行为模型描述为具有动作函数和监视函数的行为计划。动作函数描述机器体运动并实现行为的执行中所涉及的状态过渡(状态机)。监视函数估计由动作函数描述的行为的执行以响应外部激励和/或内部状态以区分情况。图18原理性地说明了其中情形行为层108由多个行为计划组成的方式。
情形行为层108(具体地讲,控制普通情形行为的情形行为层108的层)以其中分等级连接的多个行为计划的树结构组成。情形行为层108整个地辨别最佳行为计划以响应外部激励和/或内部状态的变化,以便进行行为控制。所述树包括诸如例如用于执行其中用公式表达行为性情形行为的行为模式的或者用于执行感情表达的子树的多个子树(或分支)。
图19原理性地示出了在情形行为层108中的行为计划的树结构。参照图19,情形行为层108包括在不同层中的行为计划,这些不同层以从短期记忆部分105接收外部激励的通告(通知)的根行为计划开始由抽象的行为类到具体行为类。例如,在紧跟路径行为计划下面的更低层中,放置了名称为“调查”、“摄食”和“玩耍”的行为计划。在“调查”的行为计划下面,放置了描述诸如“调查移动(InvestigativeLocomotion)”、“头在空中探查(HeadinAirSniffing)”以及“调查探查(InvestigativeSniffing)”的更具体的调查行为的行为计划。类似地,在“摄食”的行为计划下面,放置了描述诸如“吃”和“喝”的更具体的摄食行为的行为计划。在“玩耍”的行为计划下面,放置了描述诸如“鞠躬(PlayBowing)”、“问候(PlayGreeting)”和“用爪抓(PlayPawing)”的更具体的玩耍行为。
如图19所见,每个行为计划接收外部激励和内部状态。而且,每个行为计划至少包括监视函数和动作函数。
图20原理性地解释了行为计划的内部结构。参照图20,行为计划包括动作函数、监视函数和状态管理部分。动作函数以其中状态随着预定事件的出现而变化的状态过渡模型(状态机)形式描述了机器体的动作。监视函数评估动作函数的每个状态以响应外部激励和/或内部状态,并返回作为活动等级值的评估结果。状态管理部分将动作函数的状态机设置为就绪、活动以及睡眠状态中的一个,并存储和管理行为计划的状态。
监视函数是用于计算行为计划的活动等级(Activation Level:AL值)以响应外部激励和内部状态的函数。在构造如图19所示的这样一种树结构的情形中,高级(父辈)行为计划能够利用作为变元的外部激励和内部状态调用低级(子辈)行为计划的监视函数,并且子辈行为计划返回作为返回值的AL值。而且,每个行为计划能够调用子辈行为计划的监视函数以便计算行为计划的AL值。因为每个根行为计划从它的子树接收作为返回值的AL值,所以它能够整个地辨别适用于外部激励和内部状态变化的最佳行为计划,即最佳行为。
例如,可以选择具有最高AL值的行为计划。或者,可以选择具有比预定阈值更高的AL值的两个或者多个行为计划,以便并行地执行对应行为(然而,在并行执行行为计划的情形中,假定该行为计划不引起硬件资源的冲突)
图21原理性地示出了监视函数的内部结构。参照图21,监视函数包括行为诱导评估值计算单元(behavior induction evaluation computing unit),用于计算用其诱导在行为计划中所描述的行为的评估值作为活动等级,和使用资源计算单元,用于限定将要使用的机器体资源。在如图20所示的例子中,如果从管理行为计划即行为模式的行为状态控制部分(暂定名称)调用监视函数,则它实际上执行动作函数的状态机以便算术运算行为诱导评估值(即,活动等级)和使用资源,并返回它们。
同时,动作函数包括描述行为计划所具有的行为的状态机(或者状态过渡模型)。在构造如图19所示的这样一种树结构的情形中,父辈行为计划能够调用动作函数以启动或者中断子辈行为计划的执行。在本实施例中,除非将动作的状态机设置为就绪,否则不对其初始化。换言之,即使中断子辈行为计划的执行,所述状态没有被复位,但是存储在行为计划执行期间的工作数据。因此,在中断之后的再执行是可能的(随后将述)。
在如图20所示例子中,管理行为计划即行为模式的行为状态控制部分(暂定名称)根据来自监视函数的返回值选择将要执行的行为。接着,行为状态控制部分(暂定名称)调用有关行为计划的动作函数或者分布在状态管理部分中所存储的行为计划的过渡状态指令。例如,可以选择展现作为行为诱导评估值的最高级活动等级的行为计划,或者可以根据优先级选择多个行为计划,从而不会出现资源冲突。而且,行为状态控制部分以下面的方式控制行为计划的状态。如果激活具有较高优先权程度的行为计划,并引起资源冲突,则行为状态控制部分将具有较低优先权的行为计划状态从活动设置为睡眠。接着,如果冲突消除了,则将最近所述的行为计划设回为活动。
否则,仅仅可以在如图22所见的情形行为层108中放置一个这样的行为状态控制部分,结果可以以集中的方式管理形成层108的所有行为计划。
在如图22所示的例子中,行为状态控制部分包括行为评估部分、行为选择部分和行为执行部分。例如,行为评估部分以预定的控制周期调用行为计划的每一个的监视函数,以获取活动等级和使用资源。行为选择部分进行行为计划的行为控制和机器体资源的管理。例如,行为选择部分以列表活动等级中的降序选择行为计划,并且在同一时间选择两个或者多个行为计划,结果在它们之间可以不出现使用资源的冲突。行为执行部分将行为执行指令分布给所选择行为计划的每一个的动作函数,并管理行为计划的每一个的状态(就绪、活动、睡眠),以便控制行为计划的执行。例如,如果激活具有较高优先权的行为计划并导致资源冲突,则行为执行部分将相比低优先权的行为计划状态从活动的变化为睡眠。然而,当冲突状态消除时,较低级行为计划的状态设置回为活动。
或者,可以为情形行为层108的每个行为计划设置如上所述的行为状态控制部分的这些功能。例如,在排列行为计划以致形成如图19(参照图23)所见的树结构的情形中,较高级(父辈)的行为状态控制部分利用作为变元的外部激励和内部状态调用较低级(子辈)行为计划的监视函数。接着,父辈行为计划从子辈行为计划那里接收作为返回值的活动等级和使用资源。而且,子辈行为计划调用其子辈行为计划的监视函数以便计算其本身子辈的活动等级和使用资源。接着,因为每个根行为计划的行为状态控制部分从它的子树接收所返回的这种活动等级和使用资源,所以,它整个地辨别最佳行为计划或者行为,以响应外部激励或者内部状态变化。接着,行为状态控制部分调用最佳行为计划的动作函数,以启动或者中断子辈行为计划的执行。
图24原理性地解释了用于控制情形行为层108的普通情形行为的机制。
参照图24,情形行为层108从短期记忆部分105那里接收作为其输入的外部激励,并从内部状态管理部分109那里接收作为其输入的内部状态变化。情形行为层108由例如诸如其中行为性情形行为作为公式表达的行为模式的多个子树或者执行情感表达的子树所组成。根行为计划调用其子树的每一个的监视函数,以响应外部激励的通告(notification)(通知(Notify)),并参考来自监视函数的作为返回值的活动等级(AL值),以便进行集成行为选择。接着,根行为计划调用实现所选择行为的子树的动作函数。而且,在资源管理器用反射行为部分109的反射行为仲裁硬件资源的冲突之后,将由情形行为层108所确定的情形行为应用到机器体动作((动作控制器)MotionController)中。
而且,情形行为层108的反射行为部分109执行反射和直接的机器体动作,以响应由如上所述的识别系统的对象中的任何一个所识别的外部激励(例如,立即避开障碍物,以响应障碍物的检测)。所以,与其中控制普通情形行为的情况(图19)不同,不是以等级的方式而是并行地放置直接接收作为其输入的识别系统的对象的信号的多个行为计划。
图25原理性地解释了在反射行为部分109中的行为计划结构。参照图25,反射行为部分109包括作为操作以响应听觉系统的识别结果的行为计划的“避开大声音(AvoidBigSound)”、“面向大声音(FacetoBigSound)”以及“对声音点头(NoddingSound)”。而且,反射行为部分109包括作为操作以响应视觉系统的识别结果的行为计划的“面向移动物(FacetoMovingObject)”和“避开移动物(AvoidMovingObject)”。而且,反射行为部分109包括操作以响应接触系统的识别结果的作为行为计划的“缩回手(withdraw hand)”。在反射行为部分109,将上述行为计划放置在平等情况(并行)。
如图25所见,进行反射行为的那些行为计划的每一个有对其输入的外部激励。而且,每个行为计划至少包括监视函数和动作函数。监视函数计算行为计划的AL值,以响应外部激励,并且,根据AL值辨别是否应该展开有关的反射行为。同时,动作函数包括描述行为计划所具有的反射行为的状态机(随后所述)。当调用动作函数时,它执行相关的反射行为并改变动作的状态。
图26原理性地解释了用于控制反射行为部分109的反射行为的机制。
也如图25所示,在反射行为部分109中,并行存在描述反射行为的行为计划和描述直接响应行为的行为计划。当从识别系统的对象中输入识别结果时,响应反射行为的行为计划利用监视函数计算AL值,并且根据所计算的AL值,辨别是否应该激活动作。接着,在资源管理器用反射行为部分109的反射行为对硬件资源冲突进行仲裁之后,将由反射行为部分109为激活所确定的反射行为提供给机器体动作(动作控制器)。
能够将组成情形行为层108(包括反射行为部分109)的行为计划每个都作为例如基于C++语言库所述的“类对象”来描述。图27原理性地解释了在情形行为层108中所使用的行为计划的类定义。如图27所示的块中的每一个单独地对应于一个类对象。
参照图27,情形行为层(SBL)108包括多于一个的行为计划、用于分配ID以输入事件到SBL或从SBL输出事件的事件数据句柄(EventDataHandler)、以及用于管理在SBL中的行为计划的行为计划句柄(SchemaHandler)(SH)。情形行为层(108)还包括多于一个的用于从外部对象(STM、LTM、资源管理器或者识别系统的每个对象)接收数据的接收数据句柄(ReceiveDataHandler)(RDH)、以及多于一个的用于将数据发送给外部对象的发送数据句柄(SendDataHandler)(SDH)。
EventDataHandler(EDG)是用于分配ID以输入事件到SBL或从SBL输出事件并从RDH或者SDH接收输入/输出事件的通知的类对象。
SchemaHandler保持组成情形行为层(SBL)108或者反射行为部分109的行为计划的信息(SBL的结构信息)、作为文件的树结构等。例如,一旦激活系统等,则SchemaHandler读取结构信息文件,并重构(再生)如图19所示的这样一种情形行为层108的行为计划结构,以映射在记忆空间中的行为计划实体。
每个行为计划包括作为行为计划基础而情形的OpenR_Guest。OpenR_Guest包括用于允许行为计划发送数据到外部的多于一个的Dsubject和用于允许行为计划从外部接收数据的多于一个的DObject。例如,当行为计划试着发送数据给SBL的外部对象(STM、LTM或者识别系统的每个对象)时,Dsubject将发送数据写入SendDataHandler。同时,DObject能够从ReceiveDataHandler读取由SBL的外部对象所接收的数据。
行为计划管理器(SchemaManager)和行为计划基(SchemaBase)是两个都继承OpenR_Guest的类对象。类继承是指继承原始类的定义,并且,在此例子中,表示SchemaManager和SchemaBase同样也包括作为由OpenR_Guest所定义的Dsubject和Dobject的类对象(这类似地应用于下面的描述)。例如,在如图19所示的树结构中放置了多个行为计划,SchemaManager具有用于管理子行为计划(具有指向子行为计划的指针)列表的类对象行为计划列表(SchemaList),并且,能够调用任何子行为计划的函数。同时,SchemaBase具有指向它的父行为计划的指针,并且能够返回从父行为计划所调用的函数的返回值。
SchemaBase具有状态机(StateMachine)和Pronome两个类对象。StateMachine管理有关行为计划的行为(动作函数)的状态机。图28解释了有关行为计划的行为(动作函数)的状态机。行为(动作)被单独地串(stringed)到状态机的状态之间的过渡。
父行为计划能够切换子行为计划的动作函数的状态机(能够变化子行为计划的状态)。将对其执行行为计划或者应用行为(动作函数)的目标代入到Pronome。如随后所述,由代入到Pronome的目标占据行为计划,并且直到在行为结束(完成或者非正常结束)之后释放行为。为了执行新目标的相同行为,在存储器空间中生成相同类定义的行为计划。结果,能够独立地为每个目标(而在单个行为计划的工作数据之间没有干扰)执行相同行为计划,并且,保证行为的重进入属性(随后将述)。
父行为计划基(ParentSchemaBase)是多重地(multiply)继承SchemaManager和SchemaBase的类对象,并且,管理在行为计划的树结构中的行为计划的父行为计划和子行为计划,即,行为计划的亲子关系。
中间父行为计划基(IntermediaParentSchemaBase)是继承ParentSchemaBase的类对象,并实现每个类的接口转换。而且,IntermediaParentSchemaBase具有SchemaStatus Info。SchemaStatusInfo是用于管理行为计划状态机的类对象。
父行为计划能够调用子行为计划的动作函数,以切换子行为计划的状态机的状态。而且,父行为计划能够调用子行为计划的监视函数,以请求与所述状态机的状态相对应的AL值。而且,请注意行为计划的状态机不同于如上所述的动作函数的状态机。
图29解释了有关由行为计划所描述的行为即动作函数的状态机。如上所述,行为计划的状态机定义了关于由动作函数所描述的行为的3种状态:就绪(READY)、活动(ACTIVE)和睡眠(SLEEP)。如果激活具有更高优先权的行为计划,并且引发资源竞争,则具有降低优先权级的行为计划的状态被从活动设置为睡眠,而接着在消除竞争状态之后,将较低优先权行为计划的状态设置回活动的。
如图29所见,活动_至_睡眠(ACTIVE_TO_SLEEP)被定义为从活动到睡眠的状态过渡,而睡眠_至_活动(SLEEP_TO_ACTIVE)被定义为从睡眠到活动的另一个状态过渡。在本实施例中,它的特征在于:
(1)用于存储为随后变迁到活动时恢复所必需的数据(上下文)和为睡眠所必需的行为的过程被串到活动_至_睡眠,以及
(2)为恢复所存储的数据(上下文)和为返回到活动所必需的行为的过程被串到睡眠_至_活动。
为睡眠所必需的行为是例如,发出诸如用于通知对话的另一方暂停的“等一会”这样的语句的发声行为(它可以伴随有手的姿态或者运动)。另一方面,为返回到活动所必需的行为是,例如,发出诸如用于表达对对话的另一方感激的“让你久等了”这样语句的行为(它可以伴随有手的姿态或者运动)。
AndParentSchema、NumOrParentSchema以及OrParentSchema是继承IntermediaParentSchemaBase的类对象。AndParentSchema具有指向在相同时间被执行的多个子行为计划的指针。OrParentSchema具有指向其中的一个被有选择性地执行的多个子行为计划的指针。NumOrparentSchema具有指向其中只有预定数量的子行为计划同时被执行的多个子行为计划。
ParentSchema是多重地继承AndParentSchema、NumOrParentSchema和OrParentSchema的类对象。
图30原理性地解释了在情形行为层(SBL)108中的类的功能结构。
情形行为层(SBL)108包括用于从诸如STM、LTM的外部对象接收数据的多个ReceiveDataHandler(RDH)、资源管理器,或者识别系统的每个对象,以及用于将数据发送给外部对象的多个SendDataHandler(SDH)。
EventDataHandler(EDH)是用于将ID分配给SBL的输入/输出事件、并且从RDH或者SDH接收输入/输出事件通知的类对象。
SchemaHandler是用于管理行为计划,并保持作为文件的组成SBL的行为计划结构信息的类对象。例如,一旦激活系统等,则SchemaHandler读入结构信息文件,并在SBL中构造行为计划结构。
根据如图27所示的类定义产生行为计划,并将其实体映射到存储器空间。每个行为计划包括作为基类对象的OpenR_Guest,和用于访问外部数据的诸如DSubject和DObject这样的类对象。
下面列出行为计划基本具有的函数和状态机。
ActivationMonitor():用于当它准备就绪时,允许行为计划被变为活动的估值函数。
Actions():当是活动时用于执行的状态机。
Goal():用于当是活动的时区分行为计划是否达到Goal(目标)的函数。
Goal():用于当是活动的时区分行为计划是否处于失败状态的函数。
SleepActions():在睡觉之前所执行的状态机。
SleepMonitors():用于在睡眠时恢复的估值函数。
ResumeActions():在恢复之前恢复的状态机。
DestroyMonitor():用于在睡眠时行为计划是否处于失败状态的估值函数。
MakePronome():用于辨别整个树的目标的函数。
在SchemaBase中描述了上述所列的函数。
图31以流程图的形式解释了用于执行MakePronome函数的处理步骤。
如果调用行为计划的MakePronome函数,则首先辨别该行为计划是否具有子行为计划(步骤S1)。
如果行为计划具有子行为计划,则类似地递归调用所有这些子行为计划的MakePronome函数(步骤S2)。
接着,执行行为计划中的MakePronome以将目标代入Pronome对象(步骤S3)。
结果,将相同目标代入包括所述行为计划的属于所述行为计划的行为计划的所有Pronome中,并且,直到行为结束(完成或者随机性地结束)才释放所述行为计划。为了对新目标执行相同行为,在记忆空间中生成相同类定义的行为计划。
图32以流程图的形式解释了用于执行监视函数的处理步骤。
首先,将评估标志(AssessmentFlag)设置为开(on)(步骤S11),并执行行为计划的动作(步骤S12)。此时,同时也进行子行为计划的选择。接着,将评估标志设置回关断(off)(步骤S13)。
如果子行为计划存在(步骤S14),则递归调用在步骤S12所选择的子行为计划的监视函数(步骤S15)。
接着,执行行为计划的监视函数(步骤S16),并计算用于行为执行的活动等级和资源(步骤S17),并将其作为函数的返回值使用。
图33和图34以流程图的形式解释了用于执行动作函数的处理步骤。
首先,检查行为计划是否处于停止(STOPPING)状态(步骤S21),并接着检查行为计划是否应该设置为停止状态(步骤S22)。
如果行为计划应该被设置为停止状态,则检查子行为计划是否存在(步骤S23)。接着,如果子行为计划存在,则将子行为计划设置为GO_TO_STOP状态(步骤S24),并接着将HaveToStopFlag设置为开(on)状态(步骤S25)。
另一方面,如果行为计划不应该被设置为停止状态,则检查行为计划是否处于运行(RUNNING)状态(步骤S26)。
如果行为计划不处于运行状态,则检查子行为计划是否存在(步骤S27)。接着,如果子行为计划存在,则将HaveToStopFlag设置为开(on)状态(步骤S28)。
接着,根据当前系统状态、HaveToRunFlag、HaveToStopFlag以及子行为计划的操作状态确定行为计划的下一个状态(步骤S29)。
接着,执行行为计划的动作函数(步骤S30)。
随后,检查行为计划是否处于GO_TO_STOP状态(步骤S31)。如果行为计划不处于GO_TO_STOP,则检查子行为计划是否存在(步骤S32)。接着,如果子行为计划存在,则检查处于GO_TO_STOP状态的子行为计划是否存在(步骤S33)。
如果处于GO_TO_STOP状态的子行为计划存在,则执行这种行为计划的动作函数(步骤S34)。
接着,检查处于运行状态的子行为计划是否存在(步骤S35)。如果处于运行状态的子行为计划不存在,则检查处于停止状态的子行为计划是否存在(步骤S36),并执行任何处于停止状态中的子行为计划的动作函数(步骤S37)。
接着,检查处于GO_TO_RUN的子行为计划是否存在(步骤S38)。如果处于GO_TO_RUN状态的子行为计划不存在,则检查处于GO_TO_STOP状态的子行为计划是否存在(步骤S39)。如果处于GO_TO_STOP的子行为计划存在,则执行子行为计划的动作函数(步骤S40)。
最后,根据当前系统状态、HaveToRunFlag、HaveToStopFlag以及子行为计划的操作状态,确定行为计划的下一个状态,由此结束整个处理例程(步骤S41)。
D-3.情形行为层的功能
情形行为层(SituatedBehaviorsLayer)108根据短期记忆部分105和长期记忆部分106的存储内容和由内部状态管理部分104所管理的内部状态控制适合于机器人装置1所处情况的机器人装置1的行为。
如上所述,以行为计划的树结构组成本实施例的情形行为层108(参照图19)。行为计划的每一个的状态都保持独立,其中它知道其子辈和父辈。由于刚才所述的这样一种行为计划结构,情形行为层108具有并发估值、并发执行、优先占用和重进入的主要特征。下面详细描述其特征。
(1)并发求值
上文描述了作为行为模块的行为计划具有辨别情况以响应外部激励或者内部状态的变化的监视函数。如在类对象SchemaBase中行为计划包括监视函数那样安装监视函数。监视函数是用于计算行为计划的活动等级(Activation Level:AL)以响应外部激励和内部状态的函数。
在构造如图19所示的树结构的情况中,较高级(父辈)行为计划能够利用作为变元的外部激励和内部状态调用较低级(子辈)行为计划的监视函数,并且子行为计划返回作为返回值的AL值。而且,为了子行为计划计算子行为计划的AL值,它能够调用其子行为计划的监视函数。因此,由于根行为计划从其子树中接收AL值,所以它能够整个地辨别最佳行为计划,即,最佳行为,以响应外部激励和内部状态的变化。
因为以树结构这种方式排列行为计划,所以首先按树结构中的从下到上的顺序并发地执行每一行为计划的评估以响应外部激励和内部状态的变化。同样如图32的流程图所解释的那样,在行为计划具有子行为计划或者行为计划的情形中(步骤S14),它调用所选子辈的监视函数(步骤S15),并接着它执行行为计划的监视函数。
接着,将作为评估结果的执行许可在树结构中从上传递到下。进行评估和执行,同时删除由行为所使用的资源竞争。
在本实施例中的情形行为层108具有对诸如外部激励或者内部状态这样的情况的适应性,因为它能够利用行为计划的树结构并发地评估行为。而且,在评估时,情形行为层108将执行有关整个树的评估,并且,用在此时所计算的活动等级(AL)值修正树。因此,能够动态地区分要执行的行为计划即行为的优先级。
(2)并发执行
因为根行为计划接收从其子树所返回的AL值,它能够整个地辨别适合于外部激励和内部状态变化的最佳行为计划即最佳行为。例如,可以选择具有最高AL值的行为计划。或者,可以选择具有比预定阈值更高的AL值的两个或者多个行为计划以并行地执行对应的行为(然而,在以并行执行行为计划的情况中,假定行为计划不会导致硬件资源的冲突)。
执行给予了执行许可的任何行为计划。特别是,行为计划实际观测更细节的外部激励和内部状态的变化,并执行指令。至于执行,以树结构连续地从上往下即以并行方式执行指令。正如如图33和34的流程图所解释的那样,在行为计划具有子行为计划的情形中,执行子辈的动作函数。
动作函数包括描述行为计划所具有的行为的状态机(随后所述)。在构造如图19所示的这样一种树结构中,父行为计划能够调用动作函数以启动或者中断子行为计划的执行。
在本实施例中的情形行为层108能够利用行为计划的树结构,以同时执行使用剩余资源的另一个行为计划如果不引起资源冲突的化。不过,如果不对到达Goal(目的)之前所使用的资源加以限制,则不连贯的行为展开可能发生。在资源管理器用反射行为部分109的反射行为对硬件资源竞争裁定之后,将由情形行为层108所确定的情形行为应用于机器体动作(动作控制器4)。
(3)优先占用
即使将行为计划设置为被执行的状态,如果要求更有意义(更高优先权)的行为,则必须中断行为计划以将执行权传递给行为。而且,如果结束更有意义的行为(完成、或者暂停执行等等)的话,也需要恢复和继续初始行为计划的执行。
按照优先权的这种任务执行和在计算机世界中的称为OS(操作系统)的优先占用的函数类似。在OS中,优先占用是考虑调度表时以时序优先权递降顺序连续执行任务的策略。
相对照,因为根据本实施例的机器人装置1的行为控制系统100包括多个对象,它要求在对象之间进行裁定。例如,作为用于控制反射行为的对象的ReflexiveSBL必须必要地躲避物体或者保持平衡,而不需要关心作为用于控制较高级情形行为的对象的SBL的行为评估。在此例子中,ReflexiveSBL实际上剥夺了执行权,并进行执行。因此,ReflexiveSBL发布有关较高级行为模块被剥夺其执行权的通知给较高级的行为模块,并且较高级行为模块执行处理以维持优先占用的能力。
而且,假定将执行许可作为基于外部激励和内部状态变化的AL值的评估结果给予在情形行为层108中的特定行为计划。同样也假定基于外部激励和内部状态变化的AL值的较后评估显示出另一个行为计划的重要程度高于特定行为计划的重要程度。在此例子中,利用被执行的行为计划的动作函数来将该行为计划设置为睡眠状态,以便中断行为计划的执行,并且因此,能够进行动作的优先占用切换。
存储正在被执行的行为计划的Actions()的状态,并且执行不同行为计划的Actions()。而且,在不同的行为计划的Actions()将要结束时,被中断的行为计划的Actions()能够再一次被执行。
此外,在正在被执行的行为计划的Actions()被中断,并且将执行权移动到不同行为计划之前,执行SleepActions()。例如,当机器人1在对话期间发现一个足球时,它能够说“等一会”,并玩足球。
(4)重进入
组成情形行为层108的每个行为计划是一种子例程。如果从多个父辈中调用行为计划,则它必须具有与单个父辈相对应的存储空间,以便存储其内部状态。
这和计算机世界中OS所具有的重进入属性类似。在本说明书中,这被称作为行为计划的重进入属性。如参照图30的上文所述,行为计划由类对象组成,并且,通过产生用于每个目标(Pronome)的类对象的的实体即实例来实现重进入属性。
参照图35更详细地描述行为计划的重进入属性。
SchemaHandler是用于管理行为计划,并将组成SBL的行为计划的结构信息保持为文件的类对象。在激活系统时,SchemaHandler读取结构信息文件,并在SBL中构造行为计划结构。在如图31所示的例子中,将定义诸如Eat(吃)和Dialog(对话)这样行为的行为计划实体映射到记忆空间中。
这里假定,作为基于外部激励和内部状态变化对活动等级的评估结果,将行为计划Dialog(对话)设置为目标(Pronome)A,并且Dialog(对话)随后执行和用户A的对话。
进一步假定另一个用户B随后插入到机器人装置1和用户A之间的对话中,作为基于外部的激励和内部状态变化对活动等级的评估结果,用于执行和用户B进行对话的行为计划显示出较高级的优先权。
在这种例子中,SchemaHandler将继承用于和用户B执行对话的类的另一个Dialog实体(实例)映射到记忆空间。因为SchemaHandler使用不同的Dialog实体来进行和用户B的对话,而独立于以前的Dialog实体,所以和用户A的对话内容不被破坏。因此,对话A能够维持数据的连续性,并且在与用户B的对话结束之后,能够从中断处恢复和用户A的对话。
对于在Ready(就绪)列表中的行为计划,进行评估即AL值的计算,以响应对象物体(外部激励),并且将执行权传递给行为计划。随后,产生移到就绪列表的行为计划的实例,并且进行有关其它对象物体的评估。因此,能够将相同的行为计划设置为活动或者睡眠状态。
E.机器人的内部状态管理
在用于根据本实施例的机器人的行为控制系统100中,情形行为层108根据内部状态和外部激励确定行为。
机器人装置1的内部状态由诸如本能和感觉这样的多个不同情感组成,并且作为公式模块来处理。内部状态管理部分(ISM:内部状态管理器)104基于由上文所述的识别功能部分101至103所识别的外部激励(ES:ExternalStimula)和时间流逝管理内部状态。
E-1.情感层次
在本实施例中,根据其存在的意义将情感划分为多个层次的层,并在各个层中操作。根据当时的外部激励和内部状态,确定应该选择性地进行所确定的多个情感中的哪一个(随后将述)。而且,当在层的每一个中选择了情感时,最好以相比低层的情感开始执行,以致能够展开诸如反射的本能动作和诸如使用记忆的操作选择的较高级行为,而在单个个体上没有矛盾。
图36原理性地示出了本实施例中的内部状态管理部分104的层次结构。
参照图36,内部状态管理部分104大体将诸如情感的内部信息划分为为诸如本能和欲望的个人保持所必需的第一情感和根据任何第一情感的满足程度而变化的第二情感。而且,将第一情感层次性地再划分为从在个体保持方面较为生理学性的那些情感到关联的情感。
在如图36所示的例子中,将第一情感从低到高级的次序划分为低级第一情感、高级第一情感和关联的第一情感。低级第一情感对应于访问边缘系统,并且被产生以致可以维持共生,并且,当共生受到威胁时使用优先权。同时,高级第一情感对应于访问新的大脑皮层,并与诸如自发的欲望或者社交欲望的种群保持有关。而且,高级第一情感的满意程度根据学习或环境而变化(通过学习或者通信满足高级第一情感)。
通过为行为所选择的行为计划的执行第一情感层的每一个输出第一情感(本能)层的变化量ΔI。
第二情感对应感情(情感),并且包括诸如快乐、悲伤、愤怒、惊讶、厌恶和恐惧这些因素。确定第二情感的变化量(满意程度)ΔE以响应第一情感的变化量ΔI。
当情形行为层108进行主要基于第一情感的行为选择时,在第二情感强烈的情况下,情形行为层108根据第二情感进行行为选择同样也是可能的。而且,使用由第二情感所产生的参数进行对基于第一情感所选择的行为进行调节同样也是可能的。
在用于个体保持的情感层中,首先选择内在反射的行为。接着,选择满足低级第一情感的行为。接着,产生满足高级第一情感的动作,并且接着产生满足关联的第一情感的动作。用这种方式,以用于更原始的个体保持的动作开始来实现动作。
在此例子中,在每层中的第一情感能够将压力施加到最近的层。在用于选择由每层所确定的行为的指数强烈的情况下,能够压抑由最近层所确定的动作以展开所述层的行为。
同样如上面的物体D所述,情形行为层108由每一个都具有目标动作的多个行为计划组成(参照图18或者19)。情形行为层108使用每一个行为计划所具有的活动等级作为目标来选择行为计划即行为。整个行为计划的活动等级根据内部状态活动等级和外部环境的活动等级来确定。行为计划存储用于执行目标动作的每个中间通道的活动等级。满足OO的动作的出现对应的事实是用于满足OO的动作执行了作为最终目标的行为计划。
当执行行为计划时,内部状态的活动等级由基于第一情感层的每个层的变化量ΔI的第二情感的满足程度的变化量ΔE的总和来确定。这里假定将第一情感划分为L1、L2和L3三个层,并且由第一情感层所产生的有关行为计划选择的第二情感变化分别由ΔEL1、ΔEL2和ΔEL3表示。因此,分别用加权系数w1、w2和w3乘以变量ΔEL1、ΔEL2和ΔEL3以计算活动等级。如果将较低第一情感的加权系数设置比较高,则更可能选择满足低级第一情感的动作。通过调整加权系数,能够实现每层的第一情感施加压力到最近层的动作(专心(Concentration):行为压抑)。
这里,描述了利用情感等级结构的行为选择的形式。然而,注意到在下面的描述中,睡眠是作为低级第一情感来处理的,并且,好奇是作为高级第一情感来处理的。
(1)假定作为低级第一情感的睡眠渐渐变短而满足睡眠的行为计划活动等级变得更高。此时,如果任何其它行为计划的活动等级不变高,则满足睡眠的行为计划执行其本身的行为计划,直到在满足睡眠之后。
(2)假定在满足睡眠之前,作为高级第一情感的好奇心变短。不过,因为睡眠被直接和个体保持耦合,所以满足睡眠的行为计划继续执行它本身,直到睡眠的活动等级变得低于固定值。接着,当睡眠被满足到一定程度时,能够执行用于满足好奇心的行为计划。
(3)假定在执行用于满足好奇心的行为计划期间,手快速地接近机器人的面部。为了对此做出响应,机器人通过颜色识别和幅度识别辨别出皮肤颜色已经突然接近机器人,并且作为天生反射动作反射地进行从手处离开面部的动作,即缩头。这种反射动作对应动物的脊椎反射。因为反射是最低级的行为计划,所以首先执行反射行为计划。
在脊椎反射之后,伴随相同反射的情感变化会出现,并且根据变化的幅度和其它行为计划的活动等级辨别是否应该接着进行情感展开行为计划。如果不应该进行情感展开行为计划,则继续用于满足好奇心的行为计划。
(4)尽管比特定行为计划具有更高程度的可能性选择比该特定行为计划较低级的另一个行为计划,仅仅当该特定行为计划的活动等级极高时,才能够执行该特定行为计划至固定值,同时压抑较低级的行为计划(专心)。当睡眠极短时,即使希望展开反射动作行为计划的行为,也优先地执行用于满足睡眠的行为计划,直至恢复固定值。
E-2.和其它功能模块的连接
图37原理性地示出了在内部状态管理部分104和其它功能模块之间的通信路径。
短期记忆部分105将用于识别外部环境变化的识别功能部分101至103的识别结果输出到内部状态管理部分104和情形行为层108。
内部状态管理部分104将内部状态的通知发布给情形行为层108。为了对此通知做出响应,情形行为层108返回相关联的或者被确定的本能或者感情的信息。
而且,情形行为层108根据从内部状态和外部环境所计算的活动等级选择行为,并通过短期记忆部分105将所选择动作的执行和完成情况通知给内部状态管理部分104。
内部状态管理部分104将用于每个行为的内部状态输出给长期记忆部分106。为了响应此输出,长期记忆部分106返回记忆信息。
生物节律管理部分将生物节律信息提供给内部状态管理部分104。
E-3.随时间流逝的内部状态变化
内部状态的指数随时间流逝而变化。例如,作为第一情感即本能的饥饿(饥饿感)、疲劳和睡眠(思睡)随着时间的流逝而以下面的方式变化
饥饿:饥饿增加(虚拟值或者电池剩余量)
疲劳:疲劳累加
睡眠:思睡累加
而且,在本实施例中,将高兴(满意的程度)、兴奋(活动)和确定性(置信度)作为第二情感即机器人的感情(情感)的要素来定义。不过,它们随着时间的流逝以下面的方式变化。
高兴:高兴向中性变化
兴奋:兴奋取决于生物节律和睡眠(思睡)
确定性:确定性取决于注意力
图38示出了用于允许内部状态管理部分104随着时间的流逝而改变内部状态的机制。
如图38所见,生物节律管理部分以固定周期通知生物节律信息。相对比,内部状态管理部分104根据生物节律改变第一情感的各种要素值,并且变化作为第二情感的兴奋(活动)。接着,每当从生物节律管理部分接收到通知时,情形行为层108从内部状态管理部分104接收诸如本能和感情的内部状态指数值。所以,情形行为层108根据内部状态计算行为计划的活动等级,并且能够由此根据情况选择行为(行为计划)。
E-4.随动作执行的内部状态变化
内部状态同样也依据机器人装置1的动作执行而变化。
例如,在用于执行“去睡觉”行为的行为计划中,最终目标是满足作为低级第一情感的睡眠(思睡)的行为。情形行为层108根据作为第一情感的睡觉和作为第二情感的兴奋,来计算和比较单个的行为计划的活动等级以选择“睡觉”行为计划。结果,实现了去睡觉的行为。
同时,情形行为层108通过短期记忆部分105将睡觉行为的执行完成发送给内部状态管理部分104。为了对此通知做出响应,内部状态管理部分104改变作为第一情感的睡眠的指数值作为“睡眠”行为的执行结果。
接着,情形行为层108根据睡眠不满足的程度和作为第二情感的兴奋再一次计算和比较行为计划的活动等级。结果,选择其优先权变高的另一个行为计划,并且避开睡眠的行为计划。
图39解释了通过机器人的动作执行改变内部状态管理部分104的内部状态的机制。
情形行为层108通过短期记忆部分105将所选择情形动作的执行开始和执行结束通知给内部状态管理部分104。
当接收到所选择动作的执行完成信息的通知时,内部状态管理部分104确认从短期记忆部分105所获取的外部环境,并根据注意力信息改变作为第一情感的本能(睡眠)的指数值。与此一起,内部状态管理部分104同样也变化作为第二情感的感情。接着,内部状态管理部分104将所更新的内部状态数据输出给情形行为层108和长期记忆部分106。
情形行为层108根据重新接收的内部状态的指数值计算行为计划的活动等级,以便选择下一个情形行为(行为计划)。
长期记忆部分106根据内部状态的更新数据更新其存储信息,并将所更新内容通知给内部状态管理部分104。内部状态管理部分104根据对外部环境的置信度和长期记忆部分106的置信度确定作为第二情感的置信度(确定性)。
E-5.有关传感器信息的内部状态变化
由识别功能部分101至103来识别机器人执行动作时的动作程度,并通过短期记忆部分105将其传递给内部状态管理部分104。内部状态管理部分104能够反射例如作为有关第一情感变化的疲劳的动作程度。而且,同样也能够改变第二情感以响应第一情感的变化。
图40解释了用于允许内部状态管理部分104根据外部环境的识别结果改变内部状态的机制。
当通过短期记忆部分105接收来自任何识别功能部分101至103的识别结果时,内部状态管理部分104改变第一情感的指数值,并且同样也改变作为第二情感的感觉。接着,内部状态管理部分104将所更新的内部状态数据输出给情形行为层108。
情形行为层108能够根据新接收的内部状态的指数值计算行为计划的活动等级,并选择下一个情形行为(行为计划)。
E-6.通过关联的内部状态变化
如上文所述,在根据本实施例的机器人中,长期记忆部分106具有关联记忆的功能。关联记忆是其中将每个由多个符号所组成的输入模式作为存储模式存储,并且回想与存储模式的某一个类似的模式的机制,并且能够根据外部激励关联地存储内部状态变化。
例如,其中当观测到苹果时出现“快乐”情感变化的情况得到了检验。
当由视觉识别部分101识别出苹果时,通过短期记忆部分105将它作为外部环境变化传递给情形行为层108。
长期记忆部分106能够通过有关“苹果”的关联记忆回想“吃(苹果)”的行为和当机器人吃苹果时,以30的指数值满足第一情感(饥饿感)的内部状态变化。
当从长期记忆部分106接收到存储器信息时,情形行为层108将内部状态的变化量ΔI=30的通知发布给内部状态管理部分104。
内部状态管理部分104根据传递给它的变化量ΔI计算第二情感的变化量ΔE,并能够由此获取由吃苹果所产生的第二情感E的指数值。
图41解释了用于允许内部状态管理部分104通过关联记忆改变内部状态的机制。
通过短期记忆部分105将外部环境的通知发布给情形行为层108。适合于外部环境的行为和第一情感的变量ΔI能够被长期记忆部分106的关联记忆功能回想起来。
情形行为层108根据由关联记忆所获得的存储信息选择行为,并将第一情感的变量ΔI的通知发布给内部状态管理部分104。
内部状态管理部分104根据传递给它的第一情感的变量ΔI和由此所管理的第一情感的指数值计算第二情感的变量ΔE,并根据变量ΔE改变第二情感。接着,内部状态管理部分104将新产生的第一情感和第二情感作为内部状态更新数据输出给情形行为层108。
情形行为层108根据新接收的内部状态的指数值计算行为计划的活动等级,并能够由此选择下一个情形行为(行为计划)。
E-7.先天行为的内部状态变化
如上所述,根据本实施例的机器人通过动作的执行而变化其内部状态(参照图39)。在此例子中,根据包括第一情感和第二情感的内部状态的指数值选择行为,并且通过行为执行的完成来满足情感。另一方面,在本实施例的机器人中,同样也定义了不依赖于任何情感的先天反射动作。在此例子中,直接选择反射动作以响应外部环境的变化,并且这由不同于通常动作的执行的内部变化的机制的机制而引起。
例如,其中当巨形物突然出现时采取先天反射行为的情况得到了验证。
在这种例子中,将视觉识别功能部分101的“巨形物”的识别结果(传感器信息)直接输入到情形行为层108,而不通过短期记忆部分105。
情形行为层108计算行为计划的活动等级以响应“巨形物”的外部激励,并且选择合适的行为(参照图15、25和26)。在此例子中,情形行为层108选择“躲开”的脊椎反射行为,并且确定“惊讶”的第二情感,并且接着将有关选择通知给内部状态管理部分104。
内部状态管理部分104输出从情形行为层108发送至此的第二信息作为内部状态管理部分104的内部状态的感情。
图42解释了用于允许内部状态管理部分104通过先天反射行为改变内部状态的机制。
当要进行先天反射行为时,直接将由识别功能部分101至103中的任何一个的传感器信息输入到情形行为层108,而不通过短期记忆部分105。
情形行为层108根据作为传感器信息所获取的外部激励计算行为计划的活动等级,以选择适合的动作,并且确定第二情感。接着,情形行为层108将所确定的第二情感通知给内部状态管理部分104。
内部状态管理部分104输出从情形行为层108发送至此的第二情感作为内部状态管理部分104的感情。而且,内部状态管理部分104根据生物节律的幅度确定最终的兴奋,以响应来自情形行为层108的兴奋。
情形行为层108根据新接收的内部状态的指数值计算行为计划的活动等级,并由此能够选择下一个情形动作(行为计划)。
E-8.行为计划和内部状态管理部分之间的关系
情形行为层108由多个行为计划组成,并且根据外部激励或者内部状态变化计算每个行为计划的活动等级。接着,情形行为层108选择行为计划中的一个来响应活动等级的级别,以执行行为(参照图18、19和25)。
图43原理性地解释了行为计划和内部状态管理部分之间的关系。
每个行为计划通过诸如DSubject或者DObject的代理(Proxi)与诸如短期记忆部分105、长期记忆部分106或者内部状态管理部分104的外部对象通信(参照图30)。
每个行为计划包括用于根据外部激励或者内部状态变化计算活动等级的类对象。RM(资源管理)对象通过代理和短期记忆部分105通信以获取外部环境,并根据根据外部环境计算活动等级。同时,动机计算类对象与长期记忆部分106和内部状态管理部分104的每个都通过代理通信以获取内部状态的变化量,并根据内部状态计算活动等级即动机。下面将详细描述计算动机的方法。
内部状态管理部分104由如上文所述的由第一情感和第二情感分层次构造。将第一情感在层次上和维度上划分为先天反应的第一情感层、共生的第一情感和关联的第一情感(参照图36)。而且,将作为第二情感的感情映射为P(高兴)、A(兴奋)和C(专心)三个要素。
将在层中的第一情感的变量ΔI全部输入到第二情感,并用来计算高兴的变量ΔP。
根据诸如传感器输入、操作时间和生物节律的信息整个地辨别活动。
而且,所选择的行为计划的置信度被用作实际第二情感层的置信度。
图44原理性地解释了动机计算类对象的动机计算路径。
RM类对象通过代理访问短期记忆部分105以获取传感器信息,并根据诸如所识别的对象物体的距离或者大小的刺激强度评估外部激励的活动等级。
同时,动机计算类对象通过代理访问短期记忆部分105以获取有关对象物体的特征。而且,动机计算类对象将用于对象物体特征的查询通过代理发布给长期记忆部分106以获取内部状态的变化。接着,动机计算类对象通过代理访问内部状态管理部分104,并计算在机器人里面的内部评估值。因此,动机计算与外部激励的强度无关。
根据本发明的机器人行为控制系统使用关联记忆来根据外部状态回想内部状态的变化以计算第二情感从而进行如上文所述的行为选择(参照图41)。而且,利用关联记忆能够回想在不同对象物体之间的不同的内部状态变化。因此,即使在相同环境下,动作展开的设施也能够做得不同。换言之,能够不仅考虑外部激励、物理情况和当前的内部状态,而且考虑机器人对每个对象物体的记忆来选择行为。因此,能够预先考虑各种各样的对策。
例如,当机器人不根据外部激励或者内部状态进行固定行为,像“机器人由于看到了OO就进行xx”或者“由于机器人当前缺失OO所以进行xx(对任何东西)”,而使用有关对象物体的内部状态的变化记忆,像“机器人即使看到OO,因为ΔΔ,它进行”或者“即使机器人看到OO,因为xx,它进行■■”,则能够实现各种行为。
图45原理性地解释了当对象物体存在时动机计算处理的机制。
首先,动机计算类对象访问短期记忆部分105以查询由识别功能部分101至103的任何一个所识别的目标的特征。
接着,动机计算类对象利用如此所获取的特征通过代理访问长期记忆部分106,以获取具该特征的对象物体以何种方式改变与行为计划有关的愿望,即第一情感的变量ΔI。
接着,动机计算类对象通过代理访问内部状态管理部分104,以抽取高兴值以何种方式随愿望的变化即第二情感的变量ΔPleasant而变化。
接着,动机计算类对象利用下面使用第二情感的变量ΔPleasant和对象物体的置信度作为参数的动机计算函数gtarget-i计算第i个动机:
Moti=gtarget-i(ΔPleasantness,likelihood of object article)
图46原理性地解释了当不存在对象物体时动机计算处理的机制。
在此例子中,动机计算类对象首先询问行为存储器有关行为的愿望变量ΔI。
接着,当第一情感按ΔI变化时,动机计算类对象从内部状态管理部分104抽取第二情感的变量ΔPleasant。接着,在此例子中,动机计算类对象利用下面的使用第二情感的变量ΔPleasant作为参数的动机计算函数gnottarget-i计算第i个动机:
Moti=gnottarget-i(ΔPleasantness)
E-9.第二情感要素的改变方法
图47原理性地解释了用于改变第二情感中的高兴(Pleasantness)的机制。
长期记忆部分106将由大量记忆所引起的第一情感的变化输入给内部状态管理部分104。短期记忆部分105将由来自识别功能部分101至103的传感器输入所引起的第一变量输入到内部状态管理部分104。
而且,行为计划将由执行行为计划所引起的第一情感的变化(营养、湿气、睡眠)和由行为计划内容所引起的第一情感的变化(感情)输入到内部状态管理部分104。
根据第一情感的过剩/缺乏的变化确定高兴。
图48原理性地解释了用于改变第二情感中的兴奋(Activity)的机制。
根据行为计划的总时间而不是有关睡眠时间、生物节律和传感器输入整个地确定兴奋。
图49原理性地解释了用于改变第二情感中的确定性(Certainty)的机制。
当将对象物体的询问发布给长期记忆部分106时,返回确定性。应该注意第一情感中的哪一个取决于行为计划的目标行为。接着,被抽取的确定性使得内部状态管理部分104的第二情感的确定性保持原样。
图50原理性地解释了用于确定确定性的机制。
长期记忆部分106为每个行为计划存储有关对象物体的识别结果或者这样的物体的似然作为情感。
行为计划将有关行为计划的记忆似然值的询问发布给长期记忆部分106。为了响应询问,长期记忆部分106提供作为对象物体的似然的有关行为计划的记忆似然。
补充
已经参照具体实施例在上文中详细地描述了本发明。然而,显然本领域的普通技术人员在不脱离本发明的实质和范围的情况下可以修正或者改变实施例。
本发明的主题没必要限于所谓的“机器人”产品。具体地讲,能够将本发明类似地应用到使用电或机械的作用以执行类似人类动作的动作的任何机械装置中,即使它是属于诸如例如玩具的任何其它工业领域的产品。
总而言之,通过进行解释已经披露了本发明,并且不应该限制性地解释本说明书所披露的内容。为了明确本发明的主题,应该参阅在本说明书上面出现的权利要求书。
工业适用性
根据本发明,能够提供一种用于机器人的优良行为控制系统和行为控制方法及机器人装置,通过该行为控制系统和行为控制方法及机器人装置所述机器人能够进行自动动作并实现逼真通信。
而且,根据本发明,能够提供一种优良的机器人行为控制系统和行为控制方法及机器人装置,通过该机器人行为控制系统和行为控制方法及机器人装置,机器人能够整个地辨别诸如通过视觉传感器或者听觉传感器得到的外部环境的识别结果、或者诸如本能或者情感的内部状态的其所处的情况,以选择行为。
而且,根据本发明,能够提供一种优良的机器人行为控制系统和行为控制方法及机器人装置,通过该机器人行为控制系统和行为控制方法及机器人装置,机器人能够整个地辨别诸如通过视觉传感器或者听觉传感器得到的外部环境的识别结果、或者诸如本能或者情感的内部状态的其所处的情况,以选择行为。
而且,根据本发明,能够提供一种用于机器人的优良的行为控制系统和行为控制方法及机器人装置,通过该行为控制系统和行为控制方法及机器人装置,能够更加明确有关情感的存在意义,以致机器人能够适合地选择和执行适合于按固定次序的外部激励或者内部状态的行为。
根据本发明,将情感划分为取决于其存在意义的多个等级层,并且确定这些层中的每一个层的动作。根据当时的外部环境和内部状态确定应该选择性地执行这样所确定的动作中的哪一个。而且,当在层中的每一个中选择动作时,其中应该执行动作的次序取决于根据机器人的内部状态的优先级。所以,优先地以比较低的层的动作开始展开动作,以致诸如反射的本能动作和诸如使用记忆的动作选择的较高级行为能够展开而在单个个体上没有矛盾。而且,当对行为归类以产生行为计划时,也生成确定的指数。
而且,根据本发明的机器人行为控制系统和行为控制方法,因为能够利用关联记忆回想在不同对象物体之间不同的内部状态变化,即使在相同的情况下,也能够使动作展开的设施做得不同。换言之,能够不仅考虑外部激励、物理情况和当前的内部状态,而且考虑机器人对每个对象物体的记忆来选择行为。因此,能够预先考虑各种各样的对策。
例如,当机器人不根据外部激励或者内部状态进行固定行为,像“机器人由于看到了OO就进行xx”或者“由于机器人当前缺失OO所以进行xx(对任何东西)”,而使用有关对象物体的内部状态的变化记忆,像“机器人即使看到OO,因为ΔΔ,它进行
Figure C03800498D00561
”或者“即使机器人看到OO,因为xx,它进行■■”,则能够实现各种行为。

Claims (40)

1.一种基于内部状态或外部输入来生成行为的机器人装置,其特征在于,包括:
一个或多个行为模块,用于决定所述机器人的行为;
行为状态控制部件,用于对所述行为模块进行管理;
状态存储部件,用于存储所述行为模块的当前状态;以及
一个或多个行为命令输出部件,用于基于对应于所述状态存储部件中存储的状态的、外部或者内部的输入来输出行为命令;
当停止所述行为命令输出部件的行为命令的输出、并恢复随后的所述行为命令输出部件的行为命令的输出时,所述行为状态控制部件基于存储在所述状态存储部件中的状态使机器人执行预定的行为之后,恢复所述行为命令的输出。
2.如权利要求1所述的机器人装置,其特征在于,
所述状态存储部件和所述行为命令输出部件被设置在所述行为模块内部,以及所述行为状态控制部件被收纳在位于较高层的其他行为模块中。
3.一种基于内部状态或外部输入来生成行为的机器人装置,其特征在于,包括:
多个行为模块,其中分别包括:行为评估部件,用于对响应内部状态或外部输入的所述机器人装置的行为评估进行输出;以及
行为命令输出部件,输出所述机器人装置的行为命令的;以及
行为状态控制部件,用于基于各行为模块的所述行为评估部件中的行为评估来对所述机器人装置的行为进行控制。
4.如权利要求3所述的机器人装置,其特征在于,
所述多个行为模块构成为树状的层次结构;
所述行为状态控制部件基于从所述层次结构的下位层的行为模块输出到上位层的行为模块的行为评估对行为模块进行选择并控制所述机器人装置的行为。
5.如权利要求4所述的机器人装置,其特征在于,
所述的各行为模块的行为命令输出部件对在所述机器人装置中执行所述行为命令时使用的所述机器人装置的资源进行输出,
所述行为状态控制部件基于从所述层次结构的下位层的行为模块输出到上位层的行为模块的行为评估以及所述机器人装置的使用资源,控制所述机器人装置的行为。
6.一种基于内部状态或外部输入来生成行为的机器人装置,其特征在于,包括:
行为状态控制部件,用于对所述机器人装置的行为进行控制;以及
多个行为模块,其中分别具有:行为评估部件,用于对响应内部状态或外部输入的所述机器人装置的行为评估进行输出;以及行为命令输出部件,对所述机器人装置的行为命令及在执行该行为命令时使用的所述机器人装置的资源进行输出;
所述行为状态控制部件对每个对象生成与先前具有的行为模块不同的行为模块,并对所述机器人装置的行为进行控制。
7.如权利要求6所述的机器人装置,其特征在于,
所述行为状态控制部件在对适用于第一对象的第一行为模块进行生成的过程中,对出现了比该第一行为模块的对象的所述行为评估的优先级高的第二对象一事进行响应,生成第二行为模块。
8.如权利要求7所述的机器人装置,其特征在于,
所述行为状态控制部件基于从各自输出的行为评估来切换第一行为模块和第2行为模块,并对所述机器人装置的行为进行控制。
9.一种基于内部状态或外部输入来生成行为的机器人装置,其特征在于,包括:
行为状态控制部件,用于对所述机器人装置的行为进行控制;以及
多个行为模块,其中分别具有:行为评估部件,用于对响应内部状态或外部输入的所述机器人装置的行为评估进行输出;和行为命令输出部件,用于对所述机器人装置的行为命令及在执行该行为命令时使用的所述机器人装置的资源进行输出;
所述行为状态控制部件基于从所述层次结构的下位层的行为模块输出到上位层的行为模块的行为评估以及所述机器人装置的使用资源,对行为模块进行选择并控制所述机器人装置的行为。
10.一种用于自动操作的机器人的机器人行为控制系统,包括:
一个或多个行为模块,包括用于描述所述机器人的动作的状态机、和用于评估所述状态机的当前所述机器人的动作状态活动等级和启动所述机器人的动作状态时将要使用的所述机器人的资源的行为评估器;以及
行为状态控制部分,用于对所述各行为模块的行为评估器指示活动等级和使用资源的计算,根据各行为模块的活动等级和使用资源选择将要活动的行为模块,并对该被选择的行为模块的状态机指示执行,由此控制各行为模块的行为状态。
11.如权利要求10所述的机器人行为控制系统,其中,
所述行为评估器根据所述机器人的外部环境或所述机器人的内部状态的至少一方评估所述状态机的活动等级。
12.如权利要求10所述的机器人行为控制系统,其中,
以对应于所述机器人的动作的实现等级的树结构形式构成所述行为模块,并且
所述行为状态控制部分被安装在所述行为模块的每一个中,并对所述树结构中的下位的行为模块进行评估活动等级和使用资源的指示、选择行为模块的指示和执行状态机的指示。
13.如权利要求10所述的机器人行为控制系统,其中,
所述行为状态控制部分将活动等级下降了的行为模块从活动状态过渡到待机状态,并将活动等级上升了的行为模块从待机状态过渡到活动状态。
14.如权利要求13所述的机器人行为控制系统,包括:
用于当将行为模块被从活动状态过渡到待机状态时,存储恢复该行为模块所必需的数据,并起动将该行为模块过渡到待机状态所必需的行为的部件;以及
用于当将行为模块从待机状态过渡到活动状态时,重现已存储的数据并且对行为模块状态进行初始化,并启动为将行为模块过渡到活动状态所必需的行为的部件。
15.一种用于自动操作的机器人的机器人行为控制系统,包括:
一个或多个行为模块,由用于使得机器人动作的命令和用于评估执行所述命令所必需的所述机器人的资源的行为评估器的组合体组成;
用于检测被释放的所述机器人的资源的部件;以及
用于按预定的优先级用被释放的所述机器人的资源选择性地启动能够执行的行为模块的部件;
不出现资源冲突的两个以上所述行为模块能够同时被执行。
16.一种用于响应其内部状态自动操作的机器人的机器人行为控制系统,包括:
内部状态管理部分,用于将作为内部状态的指数的情感变为多个层次结构并对该情感进行管理;以及
行为选择部分,用于选择性地执行满足各层次中的情感的行为。
17.如权利要求16所述的机器人行为控制系统,其中,
所述内部状态管理部分将情感划分为个体保持所必需的第一情感的层和根据第一情感的过剩和不足而变化的第二情感的层,并且还将第一情感基于维度划分为从先天反射的层或者生理的层到关联层。
18.如权利要求17所述的机器人行为控制系统,其中,
所述行为选择部分优先地选择满足比较低级的第一情感的行为。
19.如权利要求18所述的机器人行为控制系统,其中,
所述行为选择部分在当和低级的第一情感比较时比较高级的第一情感表现出明显的不足情况下,压抑对满足低级的第一情感的行为的选择。
20.如权利要求16所述的机器人行为控制系统,还包括:
外部环境识别部分,用于识别所述机器人的外部环境的变化,
所述行为选择部分除了根据内部状态的指数外还根据外部环境的指数对行为进行选择。
21.如权利要求16所述的机器人行为控制系统,其中,
所述内部状态管理部分改变内部状态的指数以响应时间的流逝。
22.如权利要求16所述的机器人行为控制系统,其中,
所述内部状态管理部分改变内部状态的指数以响应由所述行为选择部分所选择的行为的执行。
23.如权利要求16所述的机器人行为控制系统,还包括:
外部环境识别部分,用于识别机器人的外部环境变化,
所述内部状态管理部分改变内部状态的指数以响应外部环境的变化。
24.如权利要求16所述的机器人行为控制系统,还包括:
外部环境识别部分,用于识别机器人的外部环境变化,以及关联存储部分,用于根据外部环境关联地存储内部状态的变化,
所述内部状态管理部分根据由所述关联存储部分根据外部环境所回想起的内部状态变化,改变内部状态的指数。
25.如权利要求24所述的机器人的行为控制系统,其中,
所述关联存储部分为要识别的每个对象物体关联地存储内部状态的变化。
26.一种用于自动操作以响应其内部状态的机器人的机器人行为控制方法,包括:
内部状态管理步骤,用于将作为内部状态的指数的情感变为多个层次结构并对该情感进行管理;以及
行为选择步骤,用于选择性地执行满足各层次中的情感的行为。
27.如权利要求26所述的机器人行为控制方法,其中,
所述内部状态管理部分将情感划分为个体保持所必需的第一情感的层和根据第一情感的过剩和不足而变化的第二情感的层,并且还将第一情感基于维度划分为从先天反射的层或者生理的层到关联层。
28.如权利要求26所述的机器人行为控制系统,其中,
所述行为选择部分优先地选择满足比较低级的第一情感的行为。
29.如权利要求26所述的机器人行为控制方法,其中,
在所述行为选择步骤,在当和低级的第一情感比较时比较高级的第一情感表现出明显的不足情况下,压抑对满足低级的第一情感的行为的选择。
30.如权利要求26所述的机器人行为控制方法,还包括:
外部环境识别步骤,用于识别所述机器人的外部环境的变化,
所述行为选择步骤除了根据内部状态的指数外还根据外部环境的指数对行为进行选择。
31.如权利要求26所述的机器人行为控制方法,其中,
在所述内部状态管理步骤,改变内部状态的指数以响应时间的流逝。
32.如权利要求26所述的机器人行为控制方法,其中,
在所述内部状态管理步骤,改变内部状态的指数以响应由所述行为选择部分所选择的行为的执行。
33.如权利要求26所述的机器人行为控制方法,还包括:
外部环境识别步骤,用于识别机器人的外部环境变化,
在所述内部状态管理步骤改变内部状态的指数以响应外部环境的变化。
34.如权利要求26所述的机器人行为控制方法,还包括:
外部环境识别步骤,用于识别机器人的外部环境变化,以及关联存储步骤,用于根据外部环境关联地存储内部状态的变化,
在所述内部状态管理步骤,根据由关联存储从外部环境所回想起的内部环境的变化,改变内部状态的指数。
35.如权利要求34所述的机器人行为控制方法,其中,
在关联存储步骤,为要识别的每个对象物体关联地存储内部状态的变化。
36.一种根据内部输入或者外部输入来生成行为的机器人装置,包括:
一个或者多个行为模块,用于决定所述机器人的行为;
行为模块管理部件,用于管理所述行为模块;
状态存储部件,用于存储所述行为模块的当前状态;以及
一个或者多个状态机,与在所述状态存储部件中所存储的状态对应,用于根据外部或者内部的输入来输出行为命令;
当停止所述状态机的行为命令的输出、并恢复随后的行为输出时,所述行为模块管理部件基于存储在所述状态存储部件中的状态使机器人执行预定的行为之后,恢复所述行为命令的输出。
37.如权利要求36所述的机器人装置,其中,
所述状态存储部件和所述状态机被设置在所述行为模块内部,以及
所述行为模块管理部件与所述行为模块构成层次结构,并被收纳在位于较高层的其他行为模块中。
38.一种自动操作的机器人装置,包括:
行为模块,其包括用于根据外部刺激和内部环境来辨别情况以对活动等级进行计算的部件和用于基于预定状态机来对对应于输入和状态的行为进行输出的部件;以及
状态设置部件,用于设置所述行为模块的状态。
39.如权利要求38所述的机器人装置,其中,
所述状态设置部件将所述行为模块设置为就绪、活动和待机状态中的一个以响应所述活动等级。
40.如权利要求38所述的机器人装置,其中,
在层次结构中排列两个以上行为模块,以及
构造所述状态设置部件以致所述层次的上位的行为模块选择下位的行为模块。
CNB038004984A 2002-03-15 2003-03-17 用于机器人的行为控制系统和行为控制方法及机器人装置 Expired - Fee Related CN100509308C (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2002072351 2002-03-15
JP2002072352 2002-03-15
JP072351/2002 2002-03-15
JP072352/2002 2002-03-15

Publications (2)

Publication Number Publication Date
CN1518489A CN1518489A (zh) 2004-08-04
CN100509308C true CN100509308C (zh) 2009-07-08

Family

ID=28043727

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB038004984A Expired - Fee Related CN100509308C (zh) 2002-03-15 2003-03-17 用于机器人的行为控制系统和行为控制方法及机器人装置

Country Status (5)

Country Link
US (1) US7813835B2 (zh)
EP (1) EP1486300B1 (zh)
KR (1) KR101137205B1 (zh)
CN (1) CN100509308C (zh)
WO (1) WO2003078113A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106660209A (zh) * 2016-07-07 2017-05-10 深圳狗尾草智能科技有限公司 智能机器人控制系统、方法及智能机器人

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070156625A1 (en) * 2004-01-06 2007-07-05 Neuric Technologies, Llc Method for movie animation
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US6700590B1 (en) * 1999-11-01 2004-03-02 Indx Software Corporation System and method for retrieving and presenting data using class-based component and view model
JP2003103038A (ja) * 2001-09-28 2003-04-08 Ishikawajima Harima Heavy Ind Co Ltd ロボット競技システム
JP4048492B2 (ja) * 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
US7698292B2 (en) * 2003-12-03 2010-04-13 Siemens Aktiengesellschaft Tag management within a decision, support, and reporting environment
US20060253223A1 (en) * 2003-12-30 2006-11-09 Vanderbilt University Robotic trajectories using behavior superposition
KR100762653B1 (ko) * 2004-03-31 2007-10-01 삼성전자주식회사 캐릭터 육성 시뮬레이션을 제공하는 이동 통신 장치 및 방법
US7840607B2 (en) * 2004-08-06 2010-11-23 Siemens Aktiengesellschaft Data mart generation and use in association with an operations intelligence platform
US8700671B2 (en) * 2004-08-18 2014-04-15 Siemens Aktiengesellschaft System and methods for dynamic generation of point / tag configurations
US20060080350A1 (en) * 2004-10-13 2006-04-13 Timothy Mark Allocation of file storage based on pattern recognition
US7814123B2 (en) * 2004-12-02 2010-10-12 Siemens Aktiengesellschaft Management of component members using tag attributes
US8340971B1 (en) * 2005-01-05 2012-12-25 At&T Intellectual Property Ii, L.P. System and method of dialog trajectory analysis
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US8442938B2 (en) * 2005-01-14 2013-05-14 Siemens Aktiengesellschaft Child data structure update in data management system
US20060218116A1 (en) * 2005-03-28 2006-09-28 O'hearn James E Pass-through interface queries to populate a class-based model
KR100889898B1 (ko) * 2005-08-10 2009-03-20 가부시끼가이샤 도시바 로봇의 행동을 제어하기 위한 장치, 방법 및 컴퓨터 판독 가능 매체
US7797079B2 (en) * 2005-12-09 2010-09-14 Electronics And Telecommunications Research Institute Apparatus for controlling robot and method thereof
KR100779088B1 (ko) * 2005-12-09 2007-11-27 한국전자통신연구원 로봇 제어 장치 및 그 방법
US20070173974A1 (en) * 2006-01-25 2007-07-26 Chyi-Yeu Lin Device and method for interacting with autonomous robot
US8326469B2 (en) * 2006-07-14 2012-12-04 Irobot Corporation Autonomous behaviors for a remote vehicle
US8108092B2 (en) * 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
KR100827088B1 (ko) * 2006-09-07 2008-05-02 삼성전자주식회사 소프트웨어 로봇 장치
US20080071540A1 (en) * 2006-09-13 2008-03-20 Honda Motor Co., Ltd. Speech recognition method for robot under motor noise thereof
KR100834572B1 (ko) * 2006-09-29 2008-06-02 한국전자통신연구원 외부 자극에 반응하는 로봇 구동 장치 및 제어 방법
US20080147411A1 (en) * 2006-12-19 2008-06-19 International Business Machines Corporation Adaptation of a speech processing system from external input that is not directly related to sounds in an operational acoustic environment
EP1956528B1 (en) 2007-02-08 2018-10-03 Samsung Electronics Co., Ltd. Apparatus and method for expressing behavior of software robot
KR101028814B1 (ko) * 2007-02-08 2011-04-12 삼성전자주식회사 소프트웨어 로봇 장치와 그 장치에서 소프트웨어 로봇의행동 발현 방법
KR100866212B1 (ko) * 2007-02-08 2008-10-30 삼성전자주식회사 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법
US8260783B2 (en) * 2007-02-27 2012-09-04 Siemens Aktiengesellschaft Storage of multiple, related time-series data streams
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
US8255092B2 (en) 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
US9079306B2 (en) * 2007-10-22 2015-07-14 Honda Motor Co., Ltd. Evaluation of communication middleware in a distributed humanoid robot architecture
US8265789B2 (en) 2007-12-03 2012-09-11 Electronics And Telecommunications Research Institute Network-based robot system and method for action execution of robot
CN101493903A (zh) * 2008-01-24 2009-07-29 鸿富锦精密工业(深圳)有限公司 有性格特征的类生物装置及其展现方法
WO2009123650A1 (en) 2008-04-02 2009-10-08 Irobot Corporation Robotics systems
US8571745B2 (en) * 2008-04-10 2013-10-29 Robert Todd Pack Advanced behavior engine
WO2009143323A1 (en) * 2008-05-22 2009-11-26 Matrix Electronic Measuring, L.P. Stereoscopic measurement system and method
JP4577422B2 (ja) * 2008-07-14 2010-11-10 ソニー株式会社 情報処理システム及び情報処理方法、ロボットの制御システム及び制御方法、並びコンピュータ・プログラム
US8823518B2 (en) * 2008-12-08 2014-09-02 Motorola Solutions, Inc. Method of sensor cluster processing for a communication device
US20100168912A1 (en) * 2008-12-29 2010-07-01 Electronics And Telecommunications Research Institute Method of invoking asynchronous function for controlling robots
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
US8483873B2 (en) 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US8762305B1 (en) * 2010-11-11 2014-06-24 Hrl Laboratories, Llc Method and system for dynamic task selection suitable for mapping external inputs and internal goals toward actions that solve problems or elicit rewards
FR2969026B1 (fr) 2010-12-17 2013-02-01 Aldebaran Robotics Robot humanoide dote d'un gestionnaire de ses ressources physiques et virtuelles, procedes d'utilisation et de programmation
US8380349B1 (en) * 2011-05-06 2013-02-19 Google Inc. Methods and systems for providing instructions to a robotic device
US8406926B1 (en) * 2011-05-06 2013-03-26 Google Inc. Methods and systems for robotic analysis of environmental conditions and response thereto
US8078349B1 (en) 2011-05-11 2011-12-13 Google Inc. Transitioning a mixed-mode vehicle to autonomous mode
JP2013092911A (ja) * 2011-10-26 2013-05-16 Sony Corp 情報処理装置、情報処理方法、および、プログラム
KR101929451B1 (ko) 2012-02-03 2018-12-14 삼성전자주식회사 로봇의 제어 장치 및 방법
US9573276B2 (en) * 2012-02-15 2017-02-21 Kenneth Dean Stephens, Jr. Space exploration with human proxy robots
KR101343860B1 (ko) 2013-01-03 2013-12-20 재단법인대구경북과학기술원 하이브리드 인터페이스를 사용하는 로봇 아바타 시스템과 로봇 아바타 시스템에서 사용되는 명령 서버, 학습 서버 및 지각 서버
US9486918B1 (en) * 2013-03-13 2016-11-08 Hrl Laboratories, Llc System and method for quick scripting of tasks for autonomous robotic manipulation
US20140288704A1 (en) * 2013-03-14 2014-09-25 Hanson Robokind And Intelligent Bots, Llc System and Method for Controlling Behavior of a Robotic Character
KR101519525B1 (ko) * 2013-10-25 2015-05-13 주식회사 바이로봇 멀티콥터 형 비행로봇을 이용한 비행 전투 게임 시스템 및 이를 이용한 비행 전투 게임 방법
US9283674B2 (en) 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
US11271887B2 (en) 2014-04-07 2022-03-08 Nec Corporation Updating and transmitting action-related data based on user-contributed content to social networking service
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
JP6396463B2 (ja) * 2014-07-01 2018-09-26 シャープ株式会社 姿勢制御装置、ロボット、プログラム、および姿勢制御方法
JP6446126B2 (ja) * 2015-04-17 2018-12-26 Cocoro Sb株式会社 処理システム及びプログラム
US10496262B1 (en) 2015-09-30 2019-12-03 AI Incorporated Robotic floor-cleaning system manager
CN106126342A (zh) * 2016-06-23 2016-11-16 北京光年无限科技有限公司 面向智能机器人的多程序运行方法及操作系统
WO2018022808A1 (en) * 2016-07-27 2018-02-01 Warner Bros. Entertainment Inc. Control of social robot based on prior character portrayal in fiction or performance
CN107729127A (zh) * 2016-08-12 2018-02-23 北京小米移动软件有限公司 智能控制方法及装置
EP3505310B1 (en) * 2016-08-25 2024-01-03 LG Electronics Inc. Mobile robot and control method therefor
CN107813306B (zh) * 2016-09-12 2021-10-26 徐州网递智能科技有限公司 机器人及其动作控制方法和装置
JP6439806B2 (ja) * 2017-01-11 2018-12-19 富士ゼロックス株式会社 ロボット装置及びプログラム
CN106527222B (zh) * 2016-10-25 2019-08-02 北京光年无限科技有限公司 一种用于机器人的输出控制方法及机器人
CN109976390A (zh) * 2016-11-21 2019-07-05 清华大学深圳研究生院 一种基于三维手势的空间机器人遥操作系统
WO2018107505A1 (zh) * 2016-12-17 2018-06-21 深圳前海达闼云端智能科技有限公司 一种对目标进行控制的方法、控制装置及控制设备
CN108229640B (zh) * 2016-12-22 2021-08-20 山西翼天下智能科技有限公司 情绪表达的方法、装置和机器人
CN107272885B (zh) * 2017-05-09 2020-06-26 北京光年无限科技有限公司 一种用于智能机器人的人机交互方法及装置
US11178280B2 (en) * 2017-06-20 2021-11-16 Lenovo (Singapore) Pte. Ltd. Input during conversational session
RU2657185C1 (ru) 2017-09-13 2018-06-08 Самсунг Электроникс Ко., Лтд. Высокоточная система локального позиционирования
KR20200074114A (ko) 2017-10-30 2020-06-24 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
JP6995566B2 (ja) * 2017-11-02 2022-02-04 株式会社日立製作所 ロボット対話システム及びロボット対話システムの制御方法
WO2019104189A1 (en) 2017-11-27 2019-05-31 Intuition Robotics, Ltd System and method for optimizing resource usage of a robot
CN107942981B (zh) * 2017-12-01 2020-02-21 湖南师范大学 舞台用多点伺服驱动的协同控制方法
JP2019104087A (ja) * 2017-12-13 2019-06-27 カシオ計算機株式会社 デバイス制御装置、デバイス制御方法及びプログラム
CN107977702A (zh) * 2017-12-14 2018-05-01 深圳狗尾草智能科技有限公司 机器人思想属性构建方法、交互方法及装置
US11144056B1 (en) 2018-01-12 2021-10-12 AI Incorporated Autonomous refuse container replacement system
US11144066B1 (en) 2018-01-31 2021-10-12 AI Incorporated Autonomous refuse bag replacement system
US20190262990A1 (en) * 2018-02-28 2019-08-29 Misty Robotics, Inc. Robot skill management
WO2019173321A1 (en) * 2018-03-06 2019-09-12 Anki, Inc. Robot transportation mode classification
US10792813B1 (en) 2018-04-26 2020-10-06 X Development Llc Managing robot resources
TWI671635B (zh) * 2018-04-30 2019-09-11 仁寶電腦工業股份有限公司 分離式移動智能系統及其操作方法與基座裝置
FR3080926B1 (fr) * 2018-05-04 2020-04-24 Spoon Procede de commande d'une pluralite d'effecteurs d'un robot
JP6985230B2 (ja) 2018-09-19 2021-12-22 株式会社日立製作所 業務分析サーバ、業務分析方法、および業務分析プログラム
WO2020081630A2 (en) 2018-10-17 2020-04-23 Petoi, Llc Robotic animal puzzle
KR102657884B1 (ko) 2018-12-18 2024-04-17 삼성전자주식회사 서비스 로봇의 동작 제어 방법 및 장치
JP2020136828A (ja) * 2019-02-15 2020-08-31 シャープ株式会社 電子機器、制御方法及びプログラム
US11487464B2 (en) 2019-07-03 2022-11-01 Micron Technology, Inc. Neural network memory
US11400592B2 (en) * 2019-08-19 2022-08-02 Wipro Limited Method and system for task execution in dynamic heterogeneous robotic environment
WO2019226033A2 (ko) * 2019-08-28 2019-11-28 엘지전자 주식회사 모방대상체의 모방 학습을 통해 자율주행이 가능한 로봇 및 로봇의 자율주행 방법
US11526823B1 (en) 2019-12-27 2022-12-13 Intrinsic Innovation Llc Scheduling resource-constrained actions
CN111331603B (zh) * 2020-03-17 2021-03-30 北京理工大学 一种轮腿机器人应激式运动姿态转换方法及系统
CN113189986B (zh) * 2021-04-16 2023-03-14 中国人民解放军国防科技大学 一种自主机器人的二阶段自适应行为规划方法及系统
CN113393832B (zh) * 2021-06-03 2023-10-10 清华大学深圳国际研究生院 一种基于全局情感编码的虚拟人动画合成方法及系统
CN113537318B (zh) * 2021-07-01 2023-04-07 郑州大学 一种仿人脑记忆机理的机器人行为决策方法及设备
CN114932555B (zh) * 2022-06-14 2024-01-05 如你所视(北京)科技有限公司 机械臂协同作业系统及机械臂控制方法
CN117400243A (zh) * 2023-10-26 2024-01-16 南京天创电子技术有限公司 一种用于巡检机器人的自主任务编排调度系统及方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6362589B1 (en) 1919-01-20 2002-03-26 Sony Corporation Robot apparatus
US6337552B1 (en) 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US5040116A (en) * 1988-09-06 1991-08-13 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JP2000064933A (ja) * 1998-08-19 2000-03-03 Yamaha Motor Co Ltd 2サイクル筒内噴射エンジンの始動方法
JP2001179666A (ja) * 1999-12-28 2001-07-03 Namco Ltd ペット型ロボット及びプログラムが記録されたコンピュータ読み取り可能な記録媒体
CN1364275A (zh) * 2000-02-10 2002-08-14 索尼公司 自动装置、信息提供装置、机器人装置和交易方法
JP2001334482A (ja) 2000-03-24 2001-12-04 Sony Corp ロボット装置及びロボット装置の行動決定方法
US6650965B2 (en) * 2000-03-24 2003-11-18 Sony Corporation Robot apparatus and behavior deciding method
US6845297B2 (en) * 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
EP1279081B1 (en) * 2000-05-01 2012-01-04 iRobot Corporation Method and system for remote control of mobile robot
US6408226B1 (en) * 2001-04-24 2002-06-18 Sandia Corporation Cooperative system and method using mobile robots for testing a cooperative search controller
US7523080B1 (en) * 2005-10-28 2009-04-21 Zax Corporation Self organizing model for artificial life

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106660209A (zh) * 2016-07-07 2017-05-10 深圳狗尾草智能科技有限公司 智能机器人控制系统、方法及智能机器人

Also Published As

Publication number Publication date
EP1486300B1 (en) 2011-08-17
WO2003078113A1 (fr) 2003-09-25
EP1486300A4 (en) 2010-04-28
US7813835B2 (en) 2010-10-12
KR101137205B1 (ko) 2012-07-06
KR20040098498A (ko) 2004-11-20
CN1518489A (zh) 2004-08-04
EP1486300A1 (en) 2004-12-15
US20040243281A1 (en) 2004-12-02

Similar Documents

Publication Publication Date Title
CN100509308C (zh) 用于机器人的行为控制系统和行为控制方法及机器人装置
US7853357B2 (en) Robot behavior control based on current and predictive internal, external condition and states with levels of activations
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
US8209179B2 (en) Speech communication system and method, and robot apparatus
US7987091B2 (en) Dialog control device and method, and robot device
KR101678018B1 (ko) 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
CN109643126A (zh) 行为自主型机器人、服务器及行为控制程序
Barry Adaptation, artificial intelligence, and physical medicine and rehabilitation
Szabó et al. An emotional engine model inspired by human-dog interaction
Mirolli et al. Language as a cognitive tool
Holland The future of embodied artificial intelligence: Machine consciousness?
JP2003111981A (ja) ロボット装置及びその制御方法、ロボットのための情報提供システム及び情報提供方法、並びに記憶媒体
Kuppuswamy et al. A cognitive control architecture for an artificial creature using episodic memory
Fujita et al. An autonomous robot that eats information via interaction with humans and environments
Toy et al. Metacognition is all you need? Using Introspection in Generative Agents to Improve Goal-directed Behavior
Fujita How to make an autonomous robot as a partner with humans: design approach versus emergent approach
Swarup et al. The role of anticipation in the emergence of language
Hanoune et al. An architecture for online chunk learning and planning in complex navigation and manipulation tasks
Gunderson et al. Robots, reasoning, and reification
Bonetti Design and implementation of an actor robot for a theatrical play
Hang et al. Influence of perspective taking through robotic virtual agents on prosocial behavior
Yovell 4.2 Return of the Zombie–Neuropsychoanalysis, Conscious-ness, and the Engineering of Psychic Functions
Roux The pursuit ability of a robot ‘pet’
Hau AIBO as an Intelligent Robot Watchdog
Stewart Learning in Artificial Life: Conditioning, Concept Formation, and Sensorimotor Loops

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20090708

Termination date: 20180317

CF01 Termination of patent right due to non-payment of annual fee