CN101241561A - 表现软件机器人的行为的设备和方法 - Google Patents
表现软件机器人的行为的设备和方法 Download PDFInfo
- Publication number
- CN101241561A CN101241561A CNA2008100099045A CN200810009904A CN101241561A CN 101241561 A CN101241561 A CN 101241561A CN A2008100099045 A CNA2008100099045 A CN A2008100099045A CN 200810009904 A CN200810009904 A CN 200810009904A CN 101241561 A CN101241561 A CN 101241561A
- Authority
- CN
- China
- Prior art keywords
- state
- behavior
- perception
- software robot
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/20—Software design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/20—Software design
- G06F8/24—Object-oriented
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
公开了一种表现软件机器人的行为的设备和方法,所述软件机器人设备包括:传感器单元,检测环境信息和由于对象之间的互动而引发的外部事件,并产生传感器值;状态单元,改变与关于软件机器人发生的外部事件以及内部事件相关的状态的状态值;情景存储器单元,包括表示根据特定行为的表现的学习过程的情景,每个情景包括与所述特定行为相关的对象以及情绪状态和感知状态中的一个;以及行为单元,使情景存储器单元检测能够将所述预定的不稳定感知状态或不稳定情绪状态改变为正常状态的情景,将存储在检测到的情景中的行为和对象确定为最终行为对象,并参照与最终行为对象对应的对象表现软件机器人的行为。
Description
技术领域
本发明涉及基因机器人,更具体地说,涉及一种软件机器人设备和通过软件机器人设备表现软件机器人的行为的方法。
背景技术
通常,基因机器人指的是人造生物、软件机器人(即,sobot)或普通机器人,它们中的每一种都具有其自身的基因编码。另外,机器人基因编码表示包括多个人造染色体的单个机器人基因组。此外,软件机器人指的是软件形式的人造生物,能够通过网络移动,有时候能够作为与用户交互的独立软件代理,并且有时候能够作为连接硬件机器人和传感器网络的机器人的智能单元。另外,术语“机器人”表示通常意义上的机器人,在物理环境中具有典型的感觉、智能和行为的元素。因此,在软件机器人替代机器人的智能单元的通常适用情况下,不需要说明本发明对于普通机器人同样有效。可通过以下方式来替换机器人的智能单元:通过网络的可选替换或在时间和空间之外普遍存在的环境中的另一存储介质来替换,或者通过在制造机器人期间在机器人中嵌入替换。
在上述软件机器人中定义的多个人造染色体与机器人外部的环境交互,并定义机器人特有的个性或人格,所述个性或人格确定在机器人中的包括动机、体内平衡、情绪状态等的内部状态的改变以及伴随内部状态的改变的表现行为。下面的表1示出人造生物、动机、体内平衡(homeostasis)、情绪和行为的定义。
表1
人造生物 | 根据机器人自身的动机做出反应的人造生物,具有情感,并能够选择自己的行为,与人类实时交互。 |
个性 | 不是行为的简单总结而是部分或全部的行为的确定因素,在人类看来可被理解的人格。包括动机、体内平衡和情绪的概念。即,个性引擎对应于具有全部的动机、体内平衡 |
和情绪的引擎。产生各种内部状态和行为表现的确定因素。 | |
动机 | 激发并保持生物体的活动,并控制生物体的活动模式的处理。选择和执行行为的起因。例如,好奇、亲密、烦躁、回避、期望、占有等。 |
体内平衡 | 即使受到外部和内部环境的改变的影响,仍使得有机体保持稳定的生理状态作为个体的功能。选择和执行行为的起因。例如,饥饿、睡眠、疲倦等。 |
情绪 | 当生物体做出特定行为时引发的主观不安定。示例如快乐、悲伤、愤怒、害怕等。 |
行为 | 个体行为的一般说法,包括移动到特定地点、停止等。例如,在动物的情况下的睡眠、进食、奔跑等。个体能够选择的行为的类型的数量是有限的,并且在特定的情况下,每个个体仅能执行一个行为。 |
人造染色体包括必要元素相关基因信息、内部状态相关基因信息和行为确定相关基因信息。必要元素相关基因信息指的是对内部状态的改变和外部行为表现具有巨大影响的必要参数,内部状态相关基因信息指的是与应用于机器人的外部输入相关的影响机器人的内部状态的参数。此外,行为确定相关基因信息指的是根据当前确定的内部状态确定与上述内部状态相关的外部行为的参数。
内部状态指的是诸如动机、体内平衡、情绪等的状态。换句话说,如下面的表2所提到的,可根据各个外部刺激,通过各个内部状态和内部状态的参数(即,通过与内部状态相关的基因信息)来确定机器人的内部状态。
表2
抚慰 | 40 | … | -40 | 0 | … | 0 | 50 | … | -50 |
相同的说法可被应用于行为确定相关基因信息。然而,行为确定相关基因信息包括各种可表现的行为,而不包括外部刺激。也就是说,行为确定相关基因信息包括与各个内部状态的特定行为相关的参数,即,诸如动机、体内平衡和情绪的内部状态参数,所述参数具有能够表达各个行为的值。
此外,对每个内部状态的改变和外部行为表现具有巨大影响的必要参数可包括:易变性、初始值、平均数值、收敛值、根据时间的衰减值、在特定时间确定的特定值等。这样的必要参数可单独包括必要元素相关基因信息。因此,该必要元素相关基因信息包括:根据每个内部状态(即,动机、体内平衡和情绪的内部状态)的易变性、初始值、平均数值、收敛值、衰减值、特定值等。如上所述,机器人基因组包括:必要元素相关基因信息、内部状态相关基因信息和行为确定相关基因信息。必要元素相关基因信息包括内部状态和元素的参数,所述参数与内部状态对应并且对于内部状态的改变和外部行为的表现是必要的。内部状态相关基因信息包括各种外部刺激以及与外部刺激对应的内部状态的参数。行为确定相关基因信息包括各种表现的行为以及与表现的行为对应的内部状态的参数。也就是说,如下面的表3所提到的,机器人基因组可通过二维矩阵分别表现根据各个内部状态和根据必要元素的基因信息、外部刺激、以及与内部状态对应的表现行为。
表3
打滚 |
因此,当前机器人平台基于当前内部状态(诸如动机、体内平衡、情绪)确定特定表现行为,并基于该确定实施行为。例如,如果机器人的内部状态对应于饥饿状态,则机器人确定执行向人乞求食物的行为或其他行为,并将所述确定付诸行动。结果,机器人可被实现为像真实生物一样行动。具有上述特征的软件机器人应在普遍存在的环境中不受时间和空间的限制的情况下为用户提供服务。因此,为了通过网络自由移动,软件机器人具有可通行装置的IP地址。
如上所述,传统软件机器人形成情绪,并随后基于内部状态(即,基于确定行为的动机、维持生命的体内平衡和通过面部表情表现的情绪)选择最终行为。因此,传统软件机器人设备包括:识别单元,感测外部环境;内部状态单元,表现诸如虚拟生物的情绪的内部状态;行为确定单元,通过使用外部信息和内部状态确定虚拟生物的行为;学习单元,使虚拟生物适应外部状态;以及行为实施单元,实现虚拟生物的行为。
如上配置的传统软件机器人设备通常通过与情绪状态的数值对应的情绪模型表现其情绪,并仅在确定响应于用户的输入的行为的过程中反映使其自身适应于环境的情绪模型。可以说,上述结构仅反映软件机器人的精神状态,而不反映其物理状态。然而,为了使软件机器人显示更生命化的行为,还必须考虑物理状态。另外,传统软件机器人设备具有简单的输入/输出结构,而不反映由软件机器人设备确定和执行的行为对软件机器人设备自身的影响。在给定的条件下,由于人类基于不当的行为引发的错误所造成的不愉快结果而在下一次选择行为时不再重复先前的错误,因此,软件机器人需要在更新内部状态值时反映(反馈)其行为的结果。另外,除了反映各种虚拟生物之间的交互的复杂结构,传统软件机器人设备的结构还与用于单个软件机器人和周围事物(例如,球、主人、玩偶等)之间的交互的简单结构对应。然而,当存在具有各种特性的多个软件机器人时,一个软件机器人需要将其他软件机器人识别为独立对象。
此外,传统软件机器人的行为被简化以便表现各种行为,因此,在传统软件机器人中,先前行为与之后的行为之间的关系不自然。由于此原因,每当内部状态改变时,传统软件机器人频繁显示根本不具有相关性的顺序行为。这是因为传统软件机器人设备具有顺序处理内部配置模块之间的数据传送的结构。也就是说,传统软件机器人设备软件机器人设备具有这样的结构:其中,仅在一个配置模块接收处理输入之后输出数据被传送到下面的配置模块。因此,为了测试中间配置模块,必然执行先前配置模块并从先前配置模块获得输出数据,这削弱了配置模块之间的独立性。
发明内容
因此,本发明旨在解决在现有技术中出现的上述问题,并且本发明提供像真实生物一样能够自然地做出动作、表现其情绪,并与用户交互的软件机器人设备。
另外,本发明提供一种基于其物理状态做出行为从而能够给予用户更生命化感觉的软件机器人设备。
此外,本发明提供一种具有更智能的结构的软件机器人设备,其中,由软件机器人表现的行为的结果被反馈并在软件机器人的内部状态中被反映,从而软件机器人能够在与用户持续交互的同时进化。
更进一步地,本发明提供一种能够在考虑多个虚拟生物之间的交互的情况下将各种现有虚拟生物中的每一个识别为独立对象的软件机器人设备。
此外,本发明提供一种具有用于存储配置模块之间的所有数据的输入/输出的集成数据结构的软件机器人。
为了实现本发明的这些目标,提供一种提供存在包括至少一个软件机器人的多个对象并存在多个环境因素的信息空间的软件机器人设备,所述软件机器人设备包括:传感器单元,检测包括多个环境因素的改变和多个对象的位置的环境信息,并检测根据多个对象中的交互而发生的多个外部事件,并随后产生影响软件机器人的传感器值;状态单元,从多个预定物理状态中改变与关于软件机器人发生的多个外部事件中的每一个以及多个内部事件中的每一个相关的每个物理状态,产生与改变的物理状态对应的物理状态值,从多个预定感知状态中改变与物理状态值和传感器值相关的感知状态,产生与改变的感知状态对应的感知状态值,从多个预定情绪状态中改变与感知状态值相关的情绪状态,以及产生与改变的情绪状态相关的情绪状态值;情景(episode)存储器单元,从存储与每个状态相关的变化的多个情景(所述多个情景对应于信息空间中的至少一个对象、预定行为类型、预定情绪状态和预定感知状态的组合)中检测与软件机器人表现的行为的行为类型相关的情景,通过使用存储在找到的情景中的变化和对应于表现的行为的产生的变化来计算代表性变化,并存储代表性变化作为检测到的情景的变化;以及行为单元,当基于感知状态值和情绪状态值将当前感知状态或当前情绪状态识别为预定的不稳定感知状态或情绪状态时,使情景存储器单元检测能够将预定不稳定感知状态或情绪状态改变为正常状态的情景,将存储在检测到的情景中的行为和对象确定为最终行为对象,将软件机器人的实际行为表现到与最终行为对象对应的对象,并产生由于所述实际行为的表现而引发的内部事件。
附图说明
通过下面结合附图进行的详细描述,本发明的上述和其他示例性特征、方面和优点将会变得更清楚,其中:
图1示出根据本发明实施例的软件机器人设备的配置;
图2示出根据本发明实施例的传感器单元与黑板之间的关系;
图3示出根据本发明实施例的物理状态单元与黑板之间的关系;
图4示出根据本发明实施例的感知单元与黑板之间的关系;
图5是示出根据本发明实施例的刺激与敏感度之间的关系的曲线图;
图6示出根据本发明实施例的情绪状态单元与黑板之间的关系;
图7示出根据本发明实施例的情景存储器与黑板之间的关系;
图8示出根据本发明实施例的存储在情景存储器中的情景的结构之间的关系;
图9A至图9C示出根据本发明实施例的存储情景的处理;
图10示出根据本发明实施例的表现信息空间的球形坐标系;
图11示出根据本发明实施例的短期存储器与黑板之间的关系;
图12示出根据本发明实施例的行为管理单元与黑板之间的关系;
图13是示出根据本发明实施例的行为管理单元的操作处理的流程图;
图14示出根据本发明实施例的行为实施单元与黑板之间的关系;
图15是示出根据本发明实施例的软件机器人设备中的配置模块之间的关系的框图;以及
图16示出根据本发明实施例的包括信息空间和用户菜单的屏幕。
具体实施方式
以下,将参照附图详细描述本发明的示例性实施例。在以下对本发明的描述中,当在此引入的已知功能和配置可能使本发明的主题不清楚时,将省略对其的详细描述。
由于其特性的原因,在信息空间中必然存在软件机器人。根据本发明,在用于软件机器人的信息空间中可存在一个或多个软件机器人。除了软件机器人,在软件机器人的信息空间中还可以存在能够表现信息空间的各种组分,诸如物品、食物、玩具和椅子。如上所述的信息空间的一个示例在图16中示出。图16示出根据本发明实施例的包括信息空间300和用户菜单310的屏幕。参照图16,在信息空间内放置了多个点301a、301b和301c、多个玩具305a和305b、多个食物307a、307b和307c以及多个软件机器人303a、303b和303c。如在此使用的,在本发明中,存在于信息空间中的软件机器人和所有组分统称为对象。根据本发明,软件机器人设备可构建信息空间和向用户提供信息空间,并可根据内部逻辑或响应于用户的输入控制存在于信息空间中的多个对象。在信息空间中,可根据环境因素的改变、对象的运动或对象之间的交互产生包括环境因素信息和对象位置信息的环境信息以及对象交互信息。环境因素指的是表示信息空间的环境属性的因素,包括温度、湿度、时间、光照量、声音、空间属性等。对象位置信息指的是指示在信息空间中每个静态对象的位置或每个运动对象的当前位置的信息。对象交互信息指的是关于对象之间的直接交互的信息,通常在一个软件机器人与另一对象交互时产生。例如,当软件机器人吃食物时或者当名字为“a”的软件机器人击打名字为“b”的另一软件机器人时,可产生对象交互信息。
根据本发明,软件机器人设备可在不改变环境信息的情况下将环境信息应用于信息空间内的所有软件机器人,或者将环境信息作为事件仅应用于相关的软件机器人。通常,软件机器人设备在不改变环境因素和对象位置信息的情况下通过特定功能将环境因素和对象位置信息传送到信息空间内的所有软件机器人。传送的环境因素和对象位置信息由每个软件机器人设备的传感器单元感测,并可随后被应用于每个软件机器人。另外,对象交互信息可作为事件被传送到每个软件机器人。可通过特定功能表现事件。
为了将信息空间中发生的情况应用于相关的软件机器人,事件是必要的。所述事件包括:与行为类型相关的对象的识别信息,包括与执行事件的主体相关的主体对象识别信息(即,谁);与受所述事件影响的目标相关的目标对象识别信息(即,谁被);与事件相关的行为类型信息(即,是什么);以及与行为的影响相关的影响信息(即,参数)。这里,影响信息包括对主体对象有用的影响。另外,基于事件是与不同对象之间的交互相关还是事件在当对象内发生,事件可被分为外部事件和内部事件。外部事件指的是表示不同对象之间的交互的事件,并对应于主体对象识别信息不等于目标对象识别信息的情况。例如,在事件“软件机器人吃食物”的情况下,主体对象对应于“软件机器人”,目标对象对应于“食物”,行为类型对应于“吃”,行为的影响可以是“饱了或快乐的感觉”。如果与特定行为类型相关的所有对象都是软件机器人,则将产生与每个软件机器人对应的外部事件。
内部事件是当软件机器人设备处理软件机器人在不与另一对象交互的情况下的特定行为的结果而产生的内部影响时的事件。内部事件对应于主体对象识别信息等于目标对象识别信息的情况。作为内部事件的示例,可引用“软件机器人走路”的情况。在此示例中,主体对象和目标对象都对应于“软件机器人”,行为类型对应于“走路”,行为的影响可以是“疲劳”。软件机器人设备可通过传感器单元或物理状态单元检测这样的事件的发生,并将检测到的事件应用于相关软件机器人。
根据本发明的实施例,可通过使用如表4、表5和表6定义的参数和功能表现环境信息,并可将环境信息应用于相关软件机器人。表4表示与存在于信息空间中的对象相关的对象类的成员功能,表5表示与可以在信息空间中产生的环境因素相关的环境因素类成员参数,表6表示环境因素类的重要函数。
表4
参数名称 | 描述 | 注释 |
m_type | 用于识别对象类型的值 | 食物、玩具、软件机器人 |
m_id | 识别对象的唯一编号 | |
m_name | 对象的名称 | |
m_size | 对象的大小 | |
m_pos | 对象的位置 | |
m_dir | 对象的方向 | |
m_calorie | 食物保持的能量 | 食物类型 |
m_taste | 食物的味道 | 食物类型 |
m_sound | 对象的声音、特性和度量 | 玩具类型 |
表5
参数名称 | 描述 |
m_EventSet | 存在于信息空间中的对象之间发生的一系列事件 |
m_EnvironmentOutputData | 关于应用于软件机器人的环境因素的信息 |
m_objectN | 存在于信息空间中的对象的数量 |
m_object[] | 对象的排列 |
m_creatureN | 存在于虚拟环境中的软件机器人的数量 |
m_creature[] | 软件机器人的排列 |
表6
重要函数 | 描述 |
InitEnvironment | 初始化存在于信息空间中的对象 |
ShowEnvironment | 实施充分的用户输入/输出 |
UpdateEnvironmentInformation | 当用户改变屏幕上的软件机器人的信息时通过使用改变的信息更新相关的与软件机器人有关的信息 |
UpdateSensor | 将环境因素数据传送到每个软件机器人 |
UpdateEvent | 将外部事件传送到每个软件机器人 |
EventReset | 初始化外部事件 |
CreatureActivation | 执行软件机器人 |
AddEventFromCreature | 重新产生事件 |
根据本发明的具有上述特征的软件机器人设备可被配置为如图1所示。如上所述,在单个软件机器人设备提供的信息空间中可存在多个软件机器人,并且可通过相同的方式实施关于每个软件机器人的管理和控制。然而,为了方便理解本发明,基于在信息空间中存在单个软件机器人的情况进行以下描述。下面,将描述用于激励、管理和控制所述单个软件机器人的在软件机器人中的每个配置模块的作用和操作处理。
图1示出根据本发明实施例的软件机器人设备的配置。参照图1,软件机器人设备包括:传感器80、黑板90、状态单元100、存储器单元110和行为单元120。状态单元100包括:物理状态单元10、感知单元20和情绪状态单元30。行为单元120包括:行为管理单元40和行为实施单元50。存储器单元110包括:短期存储器70、情景(episode)存储器60、工作存储器和普通存储器。
包括在软件机器人设备中的物理状态单元10、感知单元20、情绪状态单元30、行为管理单元40、传感器单元80和行为执行单元50中的每一个都可被实施为独立模块,并且在彼此交换预先承诺数据的同时,这些模块可具有相互关系。因此,在未标准化复杂关系的情况下,针对实施阶段中的每个关系要求定义所有方法和将被交换的数据的类型。安排黑板90以克服不便,黑板具有由各个模块共享的结构,并被用作整合各种信息源的装置。此结构对应于这样的构思:共享多人所需的信息以便通过在黑板上记录所述信息来解决复杂的问题。此结构具有与黑板对应的共同数据区域,该区域位于结构的中心并统一从多个模块提供给共同数据区域的信息。通过CBlackboard类来实现黑板90。CBlackboard类具有如下面的表7所定义的各种数据结构,各个数据信息被提供给构造虚拟生物的各个模块,或通过相关Put函数和Get函数从各个模块更新各个数据信息。
表7
结构 | 定义 |
环境值91 | 传送到软件机器人的虚拟环境信息 |
外部事件92 | 关于在信息空间中发生的情况的信息 |
内部事件93 | 关于在软件机器人内部发生的情况的信息 |
传感器值94 | 由软件机器人感测的信息空间信息 |
物理状态值95 | 软件机器人的物理状态值 |
感知状态值96 | 软件机器人的感知信息 |
情绪状态值97 | 软件机器人的支配情绪值 |
行为对象98 | 选择表现的行为和与选择的行为相关的对象 |
传感器列表99 | 关于软件机器人存在的感测列表 |
物理状态列表100 | 与软件机器人相关的所有物理状态 |
感知列表101 | 与软件机器人相关的所有感知列表 |
情绪状态列表102 | 与软件机器人相关的所有情绪状态列表 |
行为列表103 | 与软件机器人相关的所有行为列表 |
在黑板90中记录的物理状态值95、感知状态值96和情绪状态值97不仅包括软件机器人当前处理的代表性物理状态值、代表性感知状态值和代表性情绪状态值,还包括与所有物理状态对应的物理状态值、与所有感知状态对应的感知状态值以及与所有情绪状态对应的情绪状态值。
传感器单元80通过使用环境信息(即,黑板90的环境值91)和外部事件(即,黑板90的外部事件92)作为输入信息来更新传感器单元80内部的传感器数据,并将影响软件机器人的传感器数据作为传感器值94输出到黑板90。在图2中示出传感器单元80与黑板90之间的关系。将信息空间中的所有信息以环境信息和外部事件的形式应用于软件机器人。然而,取决于软件机器人的当前位置或能力而不能感测的信息可存在于信息空间中。因此,传感器单元80作为过滤器,仅允许多条感测的信息中软件机器人可感测的信息应用于软件机器人。例如,在传感器值94中不包括与位于软件机器人的视觉范围之外的对象有关的信息,也不处理外部事件中与相关软件机器人无关的事件。
物理状态单元10通过参照黑板90的外部事件92和内部事件93改变软件机器人的物理状态来更新物理状态数据,并将最终值作为物理状态值95输出到黑板90。在图3中示出了上述的物理状态单元10与黑板90之间的关系。通过软件机器人的人造基因信息等确定与每个外部事件92、每个内部事件93和每个环境信息相关的物理状态以及相关的物理状态的状态值的改变程度。如下面的表8所示的上述物理状态的示例可包括:摄取数量、能量、排泄需要、活动力、健康状态和成长度。
表8
状态 | 定义 | 影响 |
摄取数量(胃) | 在消化之前摄取的食物量 | 饥饿 |
能量 | 拥有能量的量级 | 消化活动 |
排泄需要 | 将被排泄的废物量 | 排泄 |
活动 | 活动力 | 疲劳 |
健康状态 | 健康的状态 | 活动力 |
成长度 | 物理成长的程度 | 虚拟生物的外形 |
感知单元20与用于管理信息空间的环境信息的感知结果和软件机器人的物理状态的模块对应。感知单元20通过黑板90的传感器值感知外部环境,通过物理状态值95感知软件机器人的内部状态,更新感知数据,并随后将感知状态值96输出到黑板90。此时,与每个传感器值相关的感知状态以及与每个物理状态相关的感知状态被预定。上述的感知单元20与黑板90之间的关系在图4中示出。例如,当传感器单元80给出信息“受到100量级的力量的击打”时,可获得感知“疼痛”。另外,当保持的能量的量级变为小于10时,可获得感知“饥饿”。在本发明中,感知状态值96由两个值表示。PTRUE和PFALSE分别代表关于相关感知状态的正面(affirmative)感知和负面(negative)感知。通常,PTRUE和PFALSE具有下面的等式(1)中定义的属性:
PTRUE+PFALSE=1 ………………………(1)
例如,在感知状态为“饥饿”的情况下,饥饿可以是正面感知,而饱可以是负面感知。在这种情况下,PTRUE表示饥饿,PFALSE表示饱。根据本发明的实施例可如下面的表9定义感知状态。
表9
状态 | 定义 |
亮度 | 虚拟环境的亮度 |
声音 | 虚拟环境中产生的声音的音量 |
味道 | 吃的食物的味道 |
饥饿 | 饥饿的程度 |
疲劳 | 疲劳的程度 |
击打(打) | 通过在虚拟环境中发生的情况施加于虚拟生物的击打程度 |
轻拍 | 通过在虚拟环境中发生的情况施加于虚拟生物的轻拍程度 |
在感知单元20中实现当相同的刺激被持续施加时改变敏感度的功能。为每个刺激逐一设置表示对于刺激的感觉程度的敏感度,并且敏感度影响每个感知状态改变的程度。可为每个刺激设置不同的敏感度量级,并可以以这样的方式设置敏感度的量级:敏感度的量级可根据相同的敏感度持续发生的次数而自适应地改变。当刺激持续进入时,刺激的敏感度变小并最终变为零。如果在特定时间段期间没有刺激进入,则逐渐恢复原始敏感度。图5示出刺激和敏感度之间的关系。参照图5,当相同的刺激持续进入时,敏感度沿DT_DECAY的倾斜减小。另外,即使在刺激停止之后,在时间段T_IGNORE期间敏感度仍没有恢复。如果在长于T_IGNORE的时间段期间没有刺激,则敏感度沿着倾斜DT_RECOVER恢复。
情绪状态单元30与管理软件机器人的情绪状态的模块对应。情绪状态单元30通过参照黑板的感知状态值96改变情绪状态来更新情绪状态数据,并将更新的情绪状态数据作为情绪状态值97输出到黑板90。此时,预先确定与感知状态值的类型相关的情绪状态,即,与特定感知状态相关的情绪状态。可如下面的等式(2)的定义来执行使用感知状态值96改变每个情绪状态:
在等式(2)中,Ej(t)和Ej(t+1)分别表示当前情绪值和改变的情绪值。Ej(0)表示当没有刺激时情绪收敛的基本值。此时,λ对应于确定收敛速度的常数。PiTRUE和PiFALSE表示与感知状态值96的TURE和FALSE有关的模糊值。MTRUE和MFALSE表示用于将感知状态值96转换为情绪状态的变化的矩阵。wiP和wjE分别表示与感知状态值96对应的权重以及与情绪状态对应的权重。根据本发明的实施例,情绪状态可包括快乐、悲伤、愤怒、害怕等,并且情绪状态单元30将情绪状态中具有最大值的情绪状态确定为支配情绪。
安装在软件机器人设备中的存储器单元10可主要分类为短期存储器、长期存储器和工作存储器。短期存储器70属于短期存储器,情景存储器60属于长期存储器。没有示出工作存储器和普通存储器。短期存储器70仅存储只在预定的短时间段期间最近产生的信息,并在将信息的一部分传送到长期存储器的同时删除信息的其他部分。在本发明的实施例中,短期存储器70存储关于软件机器人的周围环境的信息。
工作存储器用于存储在某些任务的执行期间的必要信息。工作存储器从短期存储器和长期存储器检测与当前执行的任务相关的信息,并随后存储检测的信息直到任务完成,从而可以有效地执行任务。例如,当驾驶者在驾驶汽车时从位于前方50米的交通标志发现指示“向右转”的标志时,驾驶者识别交通标志的内容,并随后做出关于何时将汽车右转的决定。该处理对应于存储在短期存储器中的识别交通标志的处理。另外,与基于当前实际速度驾驶者应当在多少秒之后将汽车右转有关的信息、以及与在将汽车右转的处理期间如何操作汽车的排档、方向盘和刹车板有关的信息是驾驶者通过先前驾驶经验已经获得的多条信息,因而,该信息与存储在长期存储器中的信息对应。然而,在实际情况中,很难从短期存储器和长期存储器中检测必要信息并随后立即处理和解决情况。因此,工作存储器预先准备与当前执行的任务相关的信息,以便即时使用在执行任务的处理中所需的信息并解决疑难情况。
根据本发明,存储器存储软件机器人设备工作所需的程序数据和预定的各种设置值。存储器(未示出)存储不稳定状态的范围和在软件机器人中设置的多条人造染色体信息。另外,存储器存储在软件机器人中全部定义的各种类型的物理状态、感知状态、情绪状态和行为类型。另外,存储器根据各个行为类型存储与感知状态、物理状态或情绪状态相关的信息。此外,存储器存储关于与特定行为的类型关联的每个情绪状态或每个物理状态的变化。上述的信息可被包括在人造染色体信息中。另外,存储器存储软件机器人设备的操作所需的程序数据、关于实现信息空间所需的多个对象的信息、与事件相关的信息和事件发生条件。此外,存储器存储软件机器人设备采用的若干函数和参数。
情景存储器60对应于负责与软件机器人的行为和感知以及软件机器人的行为和情绪状态相关的学习的模块。如图7所示,情景存储器60参照感知状态值96和情绪状态值97确定情景和行为对象。图7示出根据本发明实施例的情景存储器60与黑板90之间的关系。
情景存储器60包括多个情景68,每个情景都具有图图8所示的结构,图8示出了根据本发明实施例的存储在情景存储器60中的情景的结构。每个情景68都与表示下述项的信息对应:在软件机器人中定义的内部状态中的感知状态和情绪状态的组合、存在于信息空间中的多个对象中的对象以及所述对象的行为类型,并且所述每个情景68可表示行为、感知状态、情绪状态和对象之间的关系,所述关系对应于每个组合。参照图8,情景68包括行为61和对象62,并包括作为变量的类别63、状态64、变化65和发生频率66。每条信息的含义在下面的表10中定义。
表10
定义 | |
行为61 | 选择和表现的行为的唯一识别信息 |
对象62 | 与表现的行为关联的对象的唯一识别信息 |
类别63 | 表示相关情景是对应于与感知状态相关的还是与情绪状态相关的存储,以及是具有值“感知”的值还是具有“情绪”的值的信息 |
状态64 | 状态64根据类别存储感知状态的唯一识别信息的值或情绪状态的唯一识别信息的值,并具有初始值“0” |
变化65 | 相关状态的改变量 |
发生频率66 | 表示相同行为、对象和状态的组合已被学习的次数,并具有初始值“0” |
根据在软件机器人中定义的感知状态的数量和情绪状态的数量、存在于信息空间中的对象数量以及行为类型的数量来固定地确定存储在情景存储器60中的情景68的总数以及与情景68的总数对应的情景存储器60的最大大小,并且可根据下面的等式(3)计算总数:
情景的总数=(感知状态的数量+情绪状态的数量)×行为类型的数量×对象的数量 ……(3)
根据以下处理将如上所述的情景68存储在情景存储器60中。软件机器人可根据外部事件、环境信息、内部状态和用户的引导表现特定行为。作为特定行为的表现的结果,与所述特定行为相关的情绪状态或感知状态改变。当关于软件机器人的唯一人造染色体等预定与特定行为关联的情绪状态或感知状态的类型时,也预定了与每个情绪状态或每个感知状态对应的产生的变化。随着特定行为被表现,情景存储器60感知特定行为的类型、与特定行为连接的对象、以及根据软件机器人的内部状态的类别、状态类型和变化关于特定行为改变。搜索情景存储器60以便找到相同的组合的情景作为感知的行为类型、对象、类别、状态的类型和变化的组合。当不存在相同的组合的情景时,情景存储器60增加包括感知的行为类型、对象、类别、状态类型和变化的新情景,并随后存储增加的新情景。此时,新情景的发生频率是一次,并且通过用于计算以下的代表性变化的等式来计算变化,然后存储变化。另外,如果找到相同组合的情景,则情景存储器60通过使用响应于表现的行为而产生的变化和响应于找到的情景存储的变化来计算代表性变化,并将计算的代表性变化存储作为找到的情景的变化。另外,情景存储器60更新发生频率,从而更新找到的情景。
例如,在软件机器人执行“吃对象1”的行为,并且关于对象1改变的状态类型对应于饥饿(-10)和快乐(+5)的情况下,情景存储器60找到与行为“吃对象1”相关的包括“吃-对象1-感知-饥饿-(x)”和“吃-对象1-情绪-快乐-(x)”的情景。这里,x与表示变化的值对应。如果没有找到具有相同组合的情景68,则情景存储器60增加包括“吃-对象1-感知-饥饿-(A)”和“吃-对象1-情绪-快乐-(A)”的情景。这里,A与通过下面的等式(4)计算的代表性变化对应。同时,如果找到具有相同组合的情景68,则情景存储器60在找到的情景中检测变化65。然后,通过使用检测的变化65和由于上述特定行为而产生的变化,计算代表性变化。产生的变化是预定的。由于情景存储器60存储行为的学习结果,因此,情景存储器60不是按照由于特定行为而产生的变化自身来存储所述变化,而是计算反映学习的程度的代表性变化,并将计算的代表性变化存储在相关的情景68中。因此,检测的变化65可被认为是现有的代表性变化,并且可通过如下定义的等式(4)计算代表性变化:
代表性变化=(1-p)×现有代表性变化+p×产生的变化 (4)
在等式(4)中,“p”表示产生的变化对代表性变化的影响程度,p是预定的,并且具有0<p<1的范围。
以下,将参照图9A和图9B描述将一系列情景68存储在情景存储器60中的处理。图9A示出根据本发明实施例的存储在情景存储器60中的六个情景。所述六个情景具有分别包括以下项的组合:“吃-对象1-感知-饥饿-(-10)-1”、“吃-对象2-感知-饥饿-(-12)-1”、“吃-对象2-情绪-悲伤-(-5)-1”、“吃-对象1-情绪-快乐-(10)-1”、“咬-对象3-情绪-害怕-(15)-1”和“咬-对象4-情绪-快乐-(-8)-1”。图9B示出关于当前表现的特定行为而感知的行为类型、对象、类别、状态类型和变化的组合。图9B基于这样的假设:当前表现的行为是“吃对象1”,与“吃对象1”的行为关联而改变的状态是“饥饿”,并且改变状态的变化是-20。此外,还假设根据表现的行为而产生的变化对代表性变化的影响程度是0.1。因此,如图9B所示,情景存储器60搜索与当前表现的行为相关的具有组合“吃-对象1-感知-饥饿-(x)”的情景。此时,如果检测的情景具有包括与对应于当前表现行为的这些情景的组合匹配的行为、对象、类别和状态类型的组合,则搜索成功。在图9A中描述的情景中,与当前表现的行为相关的情景是第一情景,因而,存储器60检测到“-10”作为现有代表性变化。然而,情景存储器60通过使用等式(3)计算代表性变化如下:
代表性变化=(1-0.1)×(-10)+0.1×(-20)=-11
因此,如图9C所示,情景存储器60将新的代表性变化“-11”存储在与当前表现的行为关联的情景中,并将发生次数增加一,从而存储“2”作为发生次数。结果,最终情景具有“吃-对象1-感知-饥饿-(-11)-2”的组合。
如上所述的情景存储器60的学习方法是基于每个感知状态和每个情绪状态互不影响的假设,以便在较小的存储器中存储各种关系。也就是说,如果当表现特定行为时独立地存储每个感知状态的改变和每个情绪状态的改变,则可将大量信息存储在较小的存储器中。因此,情景存储器60可周期性地执行存储。这是因为情景存储器60存储感知状态的变化和情绪状态的变化,因此仅当以适当的间隔操作情景存储器60时可以实现有效的学习。
短期存储器70对应于用于存储在预定的短时间内产生的最近信息的存储器,其中,使软件机器人的位置位于中心,通过使用包括如图10所示的球形坐标系上的三个变量γ、θ和将其他对象所在的位置与时间t一起存储为SES 71的值。SES 71包括与特定区域中发生的情况相关的时间信息和关于球形的对象位置信息,并且每当必要时提供所述信息。短期存储器70存储存在于软件机器人周围的每个对象的位置信息和信息的不确定性。当参照黑板90的传感器值94识别特定对象72(即,感兴趣的对象72)时,短期存储器70存储该对象的位置信息,并且在此时,随着时间流逝位置信息的不确定性逐渐增加。其后,如果再次识别感兴趣的对象72,则更新位置信息并且不确定性再次变为零。软件机器人设备预先将对应于与每个软件机器人相关的每个对象的类型对应的唯一对象识别距离存储为人造染色体信息的一部分。因此,软件机器人设备识别不仅位于对象识别距离基因之内而且还位于靠近软件机器人的对象。行为管理单元40对应于最终确定软件机器人的行为的模块。如图12所示,行为管理单元40通过参考黑板90的感知状态值96和情绪状态值97、短期存储器70的SES 71和感兴趣对象72、以及情景存储器60的多个情景和行为对象98来确定行为。因此,行为管理单元40将最终行为对象98输出到黑板90。行为管理单元40基本上参考情景存储器60确定行为,如果有必要,则控制用户引发的引导行为的表现。情绪状态值97不参与行为选择本身,而是在选择行为之后影响如何表现选择的行为本身。也就是说,在选择行为“走路”之后,情绪用于产生行为的多样性,诸如“快乐地走路”、“带着生气的感觉走路”等。另外,如果在表示不稳定状态的不稳定范围中包括感知状态值96和情绪状态值97,则行为管理单元40通过参考情景存储器60来确定由于不稳定状态而必须执行的行为。在每个感知状态和每个情绪状态中,存在不稳定状态。不稳定状态的范围被预定为与基因值对应的软件机器人的内部常数。
不稳定状态可存在于所有类型的感知状态和情绪状态中。换句话说,不稳定状态表示这样的状态:当前感知状态值96在相关感知状态的最小阈值和最大阈值之外,或者当前情绪状态值97在相关情绪状态的最小阈值和最大阈值之外。此时,给出在每个情况下定义不稳定状态的范围的最小阈值或最大阈值为与每个软件机器人对应的基因值。另外,感知和情绪的不稳定状态的范围可根据感知和情绪的类型以及根据基因值形成的标准而不同。一般说来,即使不稳定状态对应于每个状态值小于最小阈值或大于最大阈值的情况,根据用户、软件机器人和状态类型也可将不稳定状态的范围设置在最小阈值与最大阈值之间。此外,通过使用当前的感知状态值96和情绪状态值97,以及通过使用与每个状态对应的不稳定状态的范围,可得到表示每个状态的不稳定性的程度的警告值。然后,可基于不稳定状态的范围根据各种方案定义计算警告值的方案。例如,当不稳定状态的范围被设置为状态值小于最小阈值或大于最大阈值的情况,则可将警告值设置为从最小阈值或最大阈值减去当前状态值而获得的值。
表11示出当给出亮度(PERCEPT_LIGHT)、声音(PERCEPT_SOUND)、饥饿(PERCEPT_HUNGER)、疲劳(PERCEPT_FATIGUE)、击打(PERCEPT_HIT)和轻拍(PERCEPT_PAT)作为基本感知状态时用于得到警告值和饥饿以及亮度的不稳定状态的范围的方案的示例。
表11
//PERCEPT_HUNGERif(HUNGER perception state value>HUNGER perception maximum threshold value){warning[PERCEPT_HUNGER]=HUNGER perception maximum threshold value-HUNGERperception state value;}//PERCEPT_LIGHTif(LIGHT perception state value<LIGHT perception minimum threshold value){warning[PERCEPT_LIGHT]=LIGHT perception minimum threshold value-LIGHTperception state value}if(LIGHT perception state value>LIGHT perception maximum threshold value){warning[PERCEPT_LIGHT]=LIGHT perception maximum threshold value-LIGHT perception statevalue} |
例如,可以说饥饿值高于预定参考的情况、周围比预定参考亮的情况或者悲伤值变高的情况对应于不稳定状态。为此,引入指示通过与不稳定状态相关的感知状态和情绪状态表现的生命稳定性的分值,以有效地用于确定行为。也就是说,当至少一个状态变为不稳定状态时,行为管理单元40搜索存储在情景存储器60终端中的多个情景,并通过选择能够尽可能高地提高与当前不稳定状态相关的分值的情景的行为与对象的组合来确定行为对象98。将在以后对此进行更详细地描述。
当至少一个感知状态或情绪状态变为不稳定状态时,行为管理单元40搜索所有感知状态的警告值,并检测具有最大警告值的感知状态。此时,不存在不稳定状态的感知状态或情绪状态的状态被称为正常状态。用于确定不稳定状态的时间点对应于每个状态值被更新的时间点,可以由行为管理单元40、物理状态单元10、感知单元20或情绪状态单元30执行该确定。此外,最大警告值对应于指示最不稳定状态的警告值。行为管理单元40将具有最大警告值的感知状态和对应的警告值传送到情景存储器60。这里,具有最大警告值的感知状态被称为主要感知状态。当接收到主要感知状态和主要感知状态的警告值时,情景存储器60执行用于搜索至少一个情景(包括感知类别和主要感知状态)的第一搜索。此外,情景存储器60检查包括在每个搜索的情景中的对象是否存在于短期存储器70之内。当包括在每个搜索的情景中的对象不存在于短期存储器70之内时,从搜索的结果中剔除该情景。根据本发明的另一实施例,第一搜索的条件可选择性地包括警告值的变化方向或量级。例如,可将第一搜索设置为当主要感知状态的警告值超过预定量级时被执行,或者可设置为仅当当前警告值大于或小于最近的第一搜索的警告值时被执行。如图8所示,如上所述的通过第一搜索检测的情景包括行为61、对象62、类别63、状态类型64、变化65和频率66。通过第一搜索检测的所有情景的类别63和状态类型64具有相同的值。以下,为了帮助理解本说明,类别63的值为“感知”的情景被称为感知情景、类别63的值为“情绪”的情景被称为情绪情景。
其后,情景存储器60执行第二搜索以便在具有情绪类别63的情绪情景内检测情景,所述情景包括与通过第一搜索检测的每个感知情景的行为61和对象62相同的行为和对象。基于通过第一搜索检测的每个感知情景执行第二搜索。此外,通过对搜索的情绪情景的变化65求和来计算分值。也基于通过第一搜索检测的每个感知情景执行分值的计算。也就是说,通过对情景的变化65求和来计算分值,所述情景的每一个都具有情绪类别63并包括相同的行为61和相同的对象62。当通过第二搜索检测的情绪情景的情绪状态类型是正面情绪(诸如快乐)时,将情绪情景的变化65自身加入分值。相反,当通过第二搜索检测的情绪情景的情绪状态类型是负面情绪(诸如悲伤、愤怒和害怕)时,从分值减去情绪情景的变化65。分值具有初始值“0”,正面情绪和负面情绪的类型是预定的。基于特定行为61和特定对象62通过第二搜索检测的所有情景的变化65之和被确定为最终分值。在确定最终分值之后,将用作第二搜索的基础的对象62的类型与黑板90中当前最关注的对象的类型进行比较。当用作第二搜索的基础的对象62的类型与黑板90中当前最关注的对象的类型相同时,将很小的补偿值加入最终分值。
对通过第一搜索检测的所有感知情景逐一执行第二搜索和分值的计算。其后,行为管理单元40选择并实施具有最高分值的感知情景的行为61和对象62。
例如,假设情景存储器60内的所有情景具有相同的变化65(具有值100),不存在关注的对象,并且通过第一搜索检测到包括第5号、第7号和第10号感知情景的三个感知情景。另外,假设对三个感知情景中的每一个的第二搜索显示:对于第5号感知情景,检测到分别具有快乐、快乐和悲伤的三个情绪情景;对于第7号感知情景,检测到分别具有悲伤、悲伤、快乐和快乐的四个情绪情景;对于第10号感知情景,检测到分别具有快乐、快乐、快乐、悲伤和快乐的五个情绪情景。在这种情况下,第5号感知情景的最终分值为100(=100+100-100),第7号感知情景的最终分值为0(=-100-100+100+100),第10号感知情景的最终分值为300(=100+100+100-100+100)。结果,在情景存储器60中最终确定的行为61和对象62的组合是第10号感知情景,第10号感知情景的行为61和对象62变为行为对象98。
此外,通过表现确定的对象98,可消除不稳定状态并影响相关的情景。如上所述的行为选择方法是基于这样的假设:所有的行为仅在被学习之后被表现。因此,在行为选择处理中,可从预定默认行为选择未学习的行为。
图13示出如上所述的行为管理单元40的行为确定处理。参照图13,在步骤201,当存在不稳定状态的感知状态值或情绪状态值时,行为管理单元40进行步骤203。在步骤203,行为管理单元40搜索可被处理的情景。当存在可被处理的情景时,行为管理单元40进行步骤211,当不存在可被处理的情景时,进行步骤207。然后,在步骤211,行为管理单元40在情景存储器60中选择最合适的行为和对象,然后进行步骤221。步骤203对应于如上所述的第一搜索的步骤,步骤211对应于如上所述的第二搜索和分值计算的步骤。在步骤221,行为管理单元40根据软件机器人的当前代表性情绪状态检测行为的具体表现形式。
同时,作为步骤203的确定的结果,当不存在可被处理的情景时,在步骤207,行为管理单元40确定是否存在由用户引发的行为。当存在由用户引发的行为时,行为管理单元40进行步骤215,在该步骤中,行为管理单元40选择由用户引发的行为,并随后进行步骤221。相反,当不存在由用户引发的行为时,行为管理单元40进行步骤213,在该步骤中,行为管理单元40选择默认行为,并随后进行步骤221。
同时,作为在步骤201的确定的结果,当不稳定状态的感知状态值或情绪状态值不存在时,行为管理单元40进行步骤205,在该步骤中,行为管理单元40确定是否存在由用户引发的行为。作为步骤205的确定的结果,当存在由用户引发的行为时,行为管理单元40进行步骤215,在该步骤中,行为管理单元40选择由用户引发的行为,并随后进行步骤221。相反,当不存在由用户引发的行为时,行为管理单元40进行步骤209,在该步骤中,行为管理单元40确定是否存在感兴趣的对象。作为步骤209的确定的结果,当存在感兴趣的对象时,行为管理单元40进行步骤217,在该步骤中,其在情景存储器60中搜索与感兴趣对象相关的情景,并使用所述感兴趣的对象选择行为。在此步骤中,搜索情景的处理与情景搜索以及行为选择的处理相似,包括第一搜索、第二搜索和分值计算,并在步骤201中检测不稳定状态之后被执行。更详细地说,当行为管理单元40检测到感兴趣对象时,也就是说,当在短期存储器70内存在感兴趣对象时,情景存储器60搜索包括感兴趣对象62的情景。在搜索之后,搜索到的情景被分类为包括相同行为61的情景。然后,从根据每个行为61分类的情景中搜索具有类别63的情绪的情景,并根据如上所述的分值计算方法计算分值。也就是说,计算与每个行为61对应的最终分值。其后,行为管理单元40选择具有最高分值的行为。当最高分值低于预定参考值时,行为管理单元不对感兴趣的对象执行任何行为。
同时,作为在步骤209的确定的结果,当没有检测到感兴趣的对象时,行为管理单元40进行步骤219,在该步骤中,其在情景存储器中选择能够提高与当前软件机器人的每个感知状态或情绪状态有关的最低分值的行为,并随后进行步骤221。在步骤221,行为管理单元40根据软件机器人的当前代表性情绪状态选择行为的具体表现形式。重复地执行如上所述的步骤201至221。根据本发明另一实施例的处理可被设置为当作为步骤209的确定的结果不存在感兴趣的对象时,防止执行任何操作。
如上所述的由行为管理单元40确定的行为由行为实施单元50表现。如图14所示,行为实施单元50通过参考行为对象98表现对应的行为,确定表现的行为的持续时间,产生引发表现的行为的内部事件93,并将内部事件93输出到黑板90。
虽然可通过使用黑板90独立地实现根据如上所述的本发明的软件机器人设备的每个配置模块,但是可如图15示出由于配置模块产生的值而产生的配置模块之间的有机关系,图15示出根据本发明实施例的软件机器人的配置模块之间的关系的框图。
虽然上面的描述处理的是本发明的特定实施例,但是可在不脱离本发明的范围的情况下进行各种附加修改。虽然在上述实施例中,情景存储器60搜索多个存储的情景以便找到适当的行为对象98,但是行为管理单元40可被配置为搜索情景存储器60。一般说来,基因机器人指的是具有其自身的基因编码的人造生物、软件机器人(即sobot)或普通机器人。此外,机器人基因编码表示包括多个人造染色体的单个机器人基因。进一步地,软件机器人指的是能够通过网络移动的软件形式的人造生物,该人造生物有时候能够作为与用户交互的独立软件代理,有时候能够作为连接硬件机器人与传感器网络的机器人的智能单元。此外,术语“机器人”表示普通意义上的机器人,在物理环境中具有典型感觉、智能和行为的元素。因此,在软件机器人替代机器人的智能单元的通常适用情况下,不需要说明本发明与普通机器人等效。可通过以下方式来替换机器人的智能单元:通过网络的可选替换或在时间和空间之外普遍存在的环境中的另一存储介质来替换,或者通过在制造机器人期间在机器人中嵌入替换。
因此,不应由上述实施例而是应该由权利要求及其等同物限定本发明的范围。
如上所述,根据本发明的软件机器人设备可像生物一样自然地做出动作、表现其情绪,并与用户交互,并能基于其物理状态做出行为,从而可给予用户更生命化的感觉。此外,根据本发明的软件机器人设备具有更智能的结构,其中,由软件机器人表现的行为的结果被反馈并在软件机器人的内部状态中被反映,从而软件机器人能够在与用户持续交互的同时进化。此外,根据本发明的软件机器人设备能够在考虑多个虚拟生物之间的交互的情况下将各种现有虚拟生物中的每一个识别为独立对象。另外,根据本发明,安排了行为集合(每一个都包括相似的行为),并且为每个行为集合定义了各种相似的行为,从而通过使用更加多样的相似行为以更自然的方式表现行为并表现内部状态。此外,根据本发明的软件机器人设备具有用于存储配置模块之间的所有数据的输入/输出的集成数据结构。
虽然已经参照本发明的特定示例性实施例示出和描述了本发明,但是本领域的技术人员将理解,在不脱离本发明的精神和范围的情况下,可以在形式和细节上做出各种改变。因此,本发明的精神和范围必须由权利要求及其等同物而不是由上述实施例限定。
Claims (40)
1、一种在信息空间中提供的软件机器人设备,所述信息空间中存在环境因素和包括至少一个软件机器人的对象,所述软件机器人设备包括:
传感器单元,检测环境信息和由于对象之间的互动而引发的外部事件,并产生传感器值;
状态单元,从与软件机器人对应的预定物理状态、预定感知状态、预定情绪状态中改变与关于软件机器人发生的外部事件以及内部事件相关的状态的状态值;
情景存储器单元,包括表示根据特定行为的表现的学习过程的情景,每个情景包括与所述特定行为相关的对象以及当软件机器人表现所述特定行为时具有改变的状态值的情绪状态和感知状态中的一个;以及
行为单元,当基于感知状态值和情绪状态值识别当前感知状态或当前情绪状态为预定的不稳定感知状态或不稳定情绪状态时,使情景存储器单元检测能够将所述预定的不稳定感知状态或不稳定情绪状态改变为正常状态的情景,将存储在检测到的情景中的行为和对象确定为最终行为对象,并参照与最终行为对象对应的对象表现软件机器人的行为。
2、如权利要求1所述的软件机器人设备,其中,环境信息包括环境因素和对象位置的改变。
3、如权利要求2所述的软件机器人设备,其中,状态单元改变关于软件机器人发生的与外部事件和内部事件相关的物理状态的物理状态值,然后改变与改变的物理状态值和传感器值相关的感知状态的感知状态值,并随后改变与改变的感知状态值相关的情绪状态的情绪状态值。
4、如权利要求3所述的软件机器人设备,其中,情景存储器单元从情景中检测与软件机器人表现的行为的行为类型相关的情景,基于存储在检测的情景中的变化以及与表现的行为对应的产生的状态变化来计算代表性变化,并将代表性变化存储为检测的情景的变化,其中,各个情景包括:对象中的一个、与软件机器人对应的所述预定行为中的一个、所述预定感知状态和预定情绪状态中的一个、以及与状态相关的变化。
5、如权利要求4所述的软件机器人设备,其中,在当前感知状态值和当前情绪状态值包括在预定的不稳定范围中时,行为单元将当前感知状态或当前情绪状态识别为不稳定感知状态,并产生由于行为的表现而引发的内部事件。
6、如权利要求5所述的软件机器人设备,其中,每个外部事件和内部事件都将在信息空间中发生的事件应用于相关的软件机器人,并包括主体对象识别信息、目标对象识别信息、与事件相关的行为类型信息和影响信息。
7、如权利要求6所述的软件机器人设备,其中,外部事件与表示互不相同的对象之间的交互的事件对应,外部事件的主体对象识别信息与目标对象识别信息互不相同,作为软件机器人不与另一对象交互的行为的结果,内部事件与用于处理软件机器人的内部发生的改变的事件对应,内部事件的主体对象识别信息与目标对象识别信息彼此相同。
8、如权利要求7所述的软件机器人设备,还包括黑板,存储与软件机器人相关的传感器列表、表示多个物理状态的物理状态列表、表示多个感知状态的感知列表、表示多个情绪状态的情绪状态列表、表示多个行为的行为列表、在信息空间中发生的外部事件、关于软件机器人发生的内部事件、环境信息、从传感器单元输入的传感器值、从状态单元输入的情绪状态值、物理状态值、感知状态值以及从行为单元输入的行为对象。
9、如权利要求8所述的软件机器人设备,其中,状态单元包括:
物理状态单元,感知与存储在黑板中的各个新外部事件和新内部事件对应的物理状态,改变感知的物理状态的物理状态值,并随后将改变的物理状态值输出到黑板;
感知单元,当存储在黑板中的物理状态值或传感器值改变时,感知与改变的物理状态值和改变的传感器值对应的感知状态,并将改变的感知状态值输出到黑板;以及
情绪状态单元,当存储在黑板中的感知状态值改变时,感知与改变的感知值对应的情绪状态,改变感知的情绪状态的情绪状态值,并将改变的情绪状态值输出到黑板。
10、如权利要求9所述的软件机器人,其中,情景存储器单元感知由软件机器人表现的行为的行为类型、信息空间中与表现的行为相关的对象的对象类型、以及预设为关于表现的行为而改变的感知状态或情绪状态中的至少一个状态的状态类型,从多个情景中检测包括所有的感知的行为类型、感知的对象类型以及感知的状态类型的情景,计算检测到的情景的代表性变化,并将代表性变化存储为检测的情景的变化。
11、如权利要求10所述的软件机器人设备,其中,当包括所有的感知的行为类型、感知的对象类型以及感知的状态类型的情景不存在时,情景存储器单元产生具有所述感知的行为类型、感知的对象类型以及感知的状态类型的情景,计算代表性变化,并将计算的代表性变化存储在产生的情景中。
12、如权利要求11所述的软件机器人设备,还包括短期存储器单元,通过参考黑板的传感器值,将信息空间中位于软件机器人的当前位置预定距离之内的对象的类型和位置信息存储为感兴趣对象。
13、如权利要求12所述的软件机器人设备,其中,存储在情景存储器单元中的多个情景的数量由下面的等式定义:
多个情景的数量=(感知状态的数量+情绪状态的数量)×行为类型的数量×对象的数量,
其中,感知状态的数量等于多个感知状态的总数量,情绪状态的数量等于多个情绪状态的总数量,行为类型的数量等于多个行为的总数量,对象的数量等于存在于信息空间中的所有对象的数量。
14、如权利要求13所述的软件机器人设备,其中,所述多个情景的每一个还包括:与包括的情绪状态和包括的感知状态对应的类别信息、以及包括的行为的发生频率信息。
15、如权利要求14所述的软件机器人设备,其中,行为单元包括:
行为管理单元,确定最终行为对象,并将确定的最终行为对象输出到黑板;以及
行为实施单元,将软件机器人的实际行为表现到与确定的行为对象对应的对象,产生内部事件,并将产生的内部事件输出到黑板。
16、如权利要求15所述的软件机器人设备,其中,在情景存储器单元中不存在能够将不稳定感知状态和不稳定情绪状态改变为正常状态的情景的情况下,当存在由用户引发的行为时,行为管理单元确定与由用户引发的行为对应的最终行为对象,当不存在由用户引发的行为时,行为管理单元将预定的默认值确定为最终行为对象。
17、如权利要求16所述的软件机器人设备,其中,在正常状态下,如果存在由用户引发的行为,则行为确定单元首先确定与由用户引发的行为对应的最终行为对象,然后,如果在短期存储器单元中存在感兴趣的对象,则使情景存储器单元检测与感兴趣的对象相关的情景,并将存储在检测到的情景中的行为和对象确定为最终行为对象。
18、如权利要求17所述的软件机器人设备,其中,在正常状态下,如果在情景存储器单元中不存在与感兴趣的对象相关的情景,则行为管理单元将能够提高与软件机器人的每个情绪状态和每个感知状态对应的分值的行为和对象确定为最终行为对象。
19、如权利要求18所述的软件机器人设备,其中:
如果存储在黑板中的感知状态值或情绪状态值被包括在与每个感知状态或每个情绪状态对应的预定不稳定状态区域中,则行为管理单元检测当前具有最大警告值的感知状态作为重要感知状态,将所述重要感知状态输出到情景存储器单元,并随后将从情景存储器单元输入的行为和对象确定为最终行为对象;以及
如果所述重要感知状态被输入,则情景存储器单元检测包括所述重要感知状态的一个或多个候选感知情景,将包括包含在具有当前的感兴趣对象的每个候选感知情景中的情绪状态和对象的一个或多个情景检测作为候选情绪情景,通过使用包括在每个候选情绪情景中的变化来计算与候选感知情景对应的分值,并随后将包括在与分值中的最高分值对应的候选感知情景中的行为和对象输出到行为管理单元。
20、如权利要求19所述的软件机器人设备,其中:
在正常状态,如果在短期存储器单元中存在感兴趣的对象,则行为管理单元将感兴趣的对象发送到情景存储器单元,并随后将从情景存储器单元输入的行为和感兴趣的对象确定为最终行为对象;以及
如果输入了感兴趣的对象,则情景存储器单元检测包括感兴趣的对象的一个或多个候选情景,将候选情景分类为一个或多个情景组,每个情景组包括相同的行为,从包括在每个情景组的情景中提取包括情绪状态的一个或多个情景作为候选情绪情景,通过使用存储在每个候选情绪情景中的变化计算分值,并随后将与具有对应于情景组的分值中的最高分值的情景组对应的行为输出到行为管理单元。
21、如权利要求20所述的软件机器人设备,其中,警告值指示每个情绪状态或每个感知状态的不稳定性的程度。
22、如权利要求21所述的软件机器人设备,其中,通过使用警告值的量级来设置不稳定性范围。
23、如权利要求22所述的软件机器人设备,其中,由情景存储器计算的代表性变化由下面的等式定义:
代表性变化=(1-p)×现有代表性变化+p×产生的变化,
其中,“p”表示产生的变化对代表性变化的影响程度,p是预定的,并且具有0<p<1的范围,现有的代表性变化与存储在相关的情景中的变化对应。
24、一种通过提供信息空间的软件机器人设备表现软件机器人的行为的方法,在所述信息空间中存在包括至少一个软件机器人的对象并存在环境因素,所述方法包括以下步骤:
检测包括环境因素以及对象的位置的改变的环境信息,检测根据对象之间的交互发生的外部事件,并随后产生传感器值;
从与软件机器人对应的预定物理状态中改变与关于软件机器人发生的外部事件和内部事件相关的物理状态的物理状态值;
从与软件机器人对应的预定感知状态中改变与改变的物理状态和传感器值相关的感知状态的感知状态值;
从与软件机器人对应的预定情绪状态中改变与改变的感知状态相关的情绪状态的情绪状态值;
从情景中检测与软件机器人表现的行为的行为类型相关的情景,通过使用存储在找到的情景中的变化以及与表现的行为对应的产生的变化来计算代表性变化,并存储代表性变化作为检测的情景的变化,所述情景包括对象中的一个、与软件机器人对应的所述预定行为中的一个、所述预定感知状态和预定情绪状态中的一个、以及与状态相关的变化;以及
当基于当前感知状态值和当前情绪状态值将当前感知状态或当前情绪状态识别为预定的不稳定感知状态或不稳定情绪状态时,使情景存储器单元检测能够将所述预定的不稳定感知状态或不稳定情绪状态改变为正常状态的情景,将存储在检测到的情景中的行为和对象确定为最终行为对象,并将软件机器人的实际行为表现到与最终行为对象对应的对象。
25、如权利要求24所述的方法,还包括以下步骤:产生由于实际行为的表现而引发的内部事件。
26、如权利要求25所述的方法,其中,每个外部事件和内部事件都将在信息空间中发生的事件应用于相关的软件机器人,并包括主体对象识别信息、目标对象识别信息、与事件相关的行为类型信息和影响信息。
27、如权利要求26所述的方法,其中,外部事件与表示互不相同的对象之间的交互的事件对应,外部事件的主体对象识别信息与目标对象识别信息互不相同,作为软件机器人不与另一对象交互的行为的结果,内部事件与用于处理软件机器人的内部发生的改变的事件对应,内部事件的主体对象识别信息与目标对象识别信息彼此相同。
28、如权利要求27所述的方法,其中,将代表性变化存储为检测到的情景的变化的步骤包括以下子步骤:
感知由软件机器人表现的行为的行为类型、信息空间中与表现的行为相关的对象的对象类型、以及预设为关于表现的行为而改变的感知状态或情绪状态中的至少一个状态的状态类型;
从多个情景中检测包括所有的感知的行为类型、感知的对象类型以及感知的状态类型的情景,计算检测到的情景的代表性变化,并将代表性变化存储为检测到的情景的变化。
当包括所有的感知的行为类型、感知的对象类型以及感知的状态类型的情景不存在时,产生具有所述感知的行为类型、感知的对象类型以及感知的状态类型的组合的情景,计算代表性变化,并将计算的代表性变化存储在产生的情景中。
29、如权利要求28所述的方法,还包括以下步骤:通过参考传感器值,将信息空间中位于软件机器人的当前位置预定距离之内的对象的类型和位置信息存储为感兴趣对象。
30、如权利要求29所述的方法,其中,存储在情景存储器单元中的多个情景的数量由下面的等式定义:
多个情景的数量=(感知状态的数量+情绪状态的数量)×行为类型的数量×对象的数量,
其中,感知状态的数量等于多个感知状态的总数量,情绪状态的数量等于多个情绪状态的总数量,行为类型的数量等于多个行为的总数量,对象的数量等于存在于信息空间中的所有对象的数量。
31、如权利要求30所述的方法,其中,所述多个情景的每一个还包括:与包括的情绪状态和包括的感知状态对应的类别信息、以及包括的行为的发生频率信息。
32、如权利要求31所述的方法,还包括以下步骤:在情景存储器单元中不存在能够将不稳定感知状态和不稳定情绪状态改变为正常状态的情景的情况下,
当存在由用户引发的行为时,确定与由用户引发的行为对应的最终行为对象,从而将软件机器人的实际行为表现到与最终行为对象对应的对象;
当不存在由用户引发的行为时,将预定的默认值确定为最终行为对象,从而将软件机器人的实际行为表现到与最终行为对象对应的对象。
33、如权利要求32所述的方法,还包括以下步骤:在正常状态下,如果存在由用户引发的行为,则首先确定与由用户引发的行为对应的最终行为对象,然后,将软件机器人的实际行为表现到与最终行为对象对应的对象。
34、如权利要求33所述的方法,还包括以下步骤:在正常状态下,如果检测到感兴趣的对象,则由情景存储器单元检测与感兴趣的对象相关的情景,将存储在检测到的情景中的行为和对象确定为最终行为对象,然后将软件机器人的实际行为表现到与最终行为对象对应的对象。
35、如权利要求34所述的方法,还包括以下步骤:在正常状态下,如果在情景存储器单元中不存在与感兴趣的对象相关的情景,则将能够提高与软件机器人的每个情绪状态和每个感知状态对应的分值的行为和对象确定为最终行为对象,然后将软件机器人的实际行为表现到与最终行为对象对应的对象。
36、如权利要求35所述的方法,其中,当参考感知状态值和情绪状态值,当前感知状态或当前情绪状态与预定的不稳定感知状态或预定的不稳定情绪状态对应时,表现软件机器人的实际行为的步骤包括以下子步骤:
如果存储在黑板中的感知状态值或情绪状态值被包括在与每个感知状态或每个情绪状态对应的预定不稳定状态中,则检测当前具有最大警告值的感知状态作为重要感知状态;
检测包括所述重要感知状态的一个或多个候选感知情景;
将包括包含在具有当前的感兴趣对象的每个候选感知情景中的情绪状态和对象的一个或多个情景检测作为候选情绪情景;
通过使用包括在每个候选情绪情景中的变化来计算与候选感知情景对应的分值,并随后将包括在与分值中的最高分值对应的候选感知情景中的行为和对象确定为最终行为对象;以及
将软件机器人的实际行为表现到与最终行为对象对应的对象。
37、如权利要求36所述的方法,其中,当在正常状态下检测感兴趣的对象时,表现软件机器人的实际行为的步骤包括以下子步骤:
在正常状态下,如果检测到感兴趣的对象,则检测包括感兴趣的对象的一个或多个候选情景;
将候选情景分类为一个或多个情景组,每个情景组包括相同的行为,从包括在每个情景组的情景中提取包括情绪状态的一个或多个情景作为候选情绪情景,通过使用存储在每个候选情绪情景中的变化计算分值;
将与具有对应于情景组的分值中的最高分值的情景组对应的感兴趣的对象和行为确定为最终行为对象;以及
将软件机器人的实际行为表现到与最终行为对象对应的对象。
38、如权利要求37所述的方法,其中,警告值指示每个情绪状态或每个感知状态的不稳定性的程度。
39、如权利要求38所述的方法,其中,通过使用警告值的量级来设置不稳定性范围。
40、如权利要求39所述的方法,其中,由情景存储器计算的代表性变化由下面的等式定义:
代表性变化=(1-p)×现有代表性变化+p×产生的变化,
其中,“p”表示产生的变化对代表性变化的影响程度,p是预定的,并且具有0<p<1的范围,现有的代表性变化与存储在相关的情景中的变化对应。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070013443 | 2007-02-08 | ||
KR20070013443 | 2007-02-08 | ||
KR10-2007-0013443 | 2007-02-08 | ||
KR10-2008-0011422 | 2008-02-04 | ||
KR1020080011422 | 2008-02-04 | ||
KR1020080011422A KR101028814B1 (ko) | 2007-02-08 | 2008-02-04 | 소프트웨어 로봇 장치와 그 장치에서 소프트웨어 로봇의행동 발현 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101241561A true CN101241561A (zh) | 2008-08-13 |
CN101241561B CN101241561B (zh) | 2012-07-04 |
Family
ID=39883994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008100099045A Expired - Fee Related CN101241561B (zh) | 2007-02-08 | 2008-02-13 | 表现软件机器人的行为的设备和方法 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101028814B1 (zh) |
CN (1) | CN101241561B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102200787A (zh) * | 2011-04-18 | 2011-09-28 | 重庆大学 | 机器人行为多层次集成学习方法及系统 |
CN104102346A (zh) * | 2014-07-01 | 2014-10-15 | 华中科技大学 | 一种家用信息采集和用户情感识别设备及其工作方法 |
CN104461016A (zh) * | 2014-12-23 | 2015-03-25 | 杭州云造科技有限公司 | 产品的机器性格表现方法及装置 |
CN105389735A (zh) * | 2015-11-18 | 2016-03-09 | 重庆理工大学 | 一种基于spfa算法的多动机情感生成方法 |
WO2017114130A1 (zh) * | 2015-12-31 | 2017-07-06 | 深圳光启合众科技有限公司 | 获取机器人的状态的方法和装置 |
CN107977702A (zh) * | 2017-12-14 | 2018-05-01 | 深圳狗尾草智能科技有限公司 | 机器人思想属性构建方法、交互方法及装置 |
CN108508774A (zh) * | 2018-04-28 | 2018-09-07 | 东莞市华睿电子科技有限公司 | 一种人像识别与压力感应相结合的控制方法 |
CN108886532A (zh) * | 2016-01-14 | 2018-11-23 | 三星电子株式会社 | 用于操作个人代理的装置和方法 |
CN109189007A (zh) * | 2018-07-16 | 2019-01-11 | 河海大学常州校区 | 一种面向工业机器人的能量流建模方法 |
CN109416541A (zh) * | 2016-06-14 | 2019-03-01 | Groove X 株式会社 | 寻求凉爽的行为自主型机器人 |
CN109416701A (zh) * | 2016-04-26 | 2019-03-01 | 泰康机器人公司 | 多种交互人格的机器人 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101678018B1 (ko) | 2010-01-22 | 2016-11-22 | 삼성전자주식회사 | 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법 |
KR102257090B1 (ko) * | 2019-10-10 | 2021-05-27 | (주) 심네트 | 강화학습 기술을 적용한 피해복구 에이전트 시뮬레이션 pbc 모드 우선순위 테이블 설계 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1247624A1 (en) * | 2000-03-24 | 2002-10-09 | Sony Corporation | Method for determining action of robot and robot |
JP4411503B2 (ja) * | 2000-10-11 | 2010-02-10 | ソニー株式会社 | ロボット装置及びその制御方法 |
CN100445047C (zh) * | 2001-02-21 | 2008-12-24 | 索尼公司 | 机器人装置和控制机器人装置操作的方法 |
US7813835B2 (en) * | 2002-03-15 | 2010-10-12 | Sony Corporation | Robot behavior control system, behavior control method, and robot device |
KR100542758B1 (ko) * | 2003-12-10 | 2006-01-20 | 한국전자통신연구원 | 유비쿼터스 네트워크 기반의 소봇을 이용한 시스템 및소봇의 전이 및 이동 방법 |
-
2008
- 2008-02-04 KR KR1020080011422A patent/KR101028814B1/ko not_active IP Right Cessation
- 2008-02-13 CN CN2008100099045A patent/CN101241561B/zh not_active Expired - Fee Related
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102200787A (zh) * | 2011-04-18 | 2011-09-28 | 重庆大学 | 机器人行为多层次集成学习方法及系统 |
CN102200787B (zh) * | 2011-04-18 | 2013-04-17 | 重庆大学 | 机器人行为多层次集成学习方法及系统 |
CN104102346A (zh) * | 2014-07-01 | 2014-10-15 | 华中科技大学 | 一种家用信息采集和用户情感识别设备及其工作方法 |
CN104461016A (zh) * | 2014-12-23 | 2015-03-25 | 杭州云造科技有限公司 | 产品的机器性格表现方法及装置 |
CN104461016B (zh) * | 2014-12-23 | 2018-02-13 | 杭州云造科技有限公司 | 产品的机器性格表现方法及装置 |
CN105389735A (zh) * | 2015-11-18 | 2016-03-09 | 重庆理工大学 | 一种基于spfa算法的多动机情感生成方法 |
WO2017114130A1 (zh) * | 2015-12-31 | 2017-07-06 | 深圳光启合众科技有限公司 | 获取机器人的状态的方法和装置 |
CN106926236A (zh) * | 2015-12-31 | 2017-07-07 | 深圳光启合众科技有限公司 | 获取机器人的状态的方法和装置 |
CN106926236B (zh) * | 2015-12-31 | 2020-06-30 | 深圳光启合众科技有限公司 | 获取机器人的状态的方法和装置 |
CN108886532B (zh) * | 2016-01-14 | 2021-12-17 | 三星电子株式会社 | 用于操作个人代理的装置和方法 |
CN108886532A (zh) * | 2016-01-14 | 2018-11-23 | 三星电子株式会社 | 用于操作个人代理的装置和方法 |
CN109416701A (zh) * | 2016-04-26 | 2019-03-01 | 泰康机器人公司 | 多种交互人格的机器人 |
CN109416541A (zh) * | 2016-06-14 | 2019-03-01 | Groove X 株式会社 | 寻求凉爽的行为自主型机器人 |
CN107977702A (zh) * | 2017-12-14 | 2018-05-01 | 深圳狗尾草智能科技有限公司 | 机器人思想属性构建方法、交互方法及装置 |
CN108508774A (zh) * | 2018-04-28 | 2018-09-07 | 东莞市华睿电子科技有限公司 | 一种人像识别与压力感应相结合的控制方法 |
CN109189007A (zh) * | 2018-07-16 | 2019-01-11 | 河海大学常州校区 | 一种面向工业机器人的能量流建模方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101241561B (zh) | 2012-07-04 |
KR101028814B1 (ko) | 2011-04-12 |
KR20080074758A (ko) | 2008-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101241561B (zh) | 表现软件机器人的行为的设备和方法 | |
Ghandeharioun et al. | Emma: An emotion-aware wellbeing chatbot | |
Urbanczik et al. | Learning by the dendritic prediction of somatic spiking | |
Charles et al. | Reduction, explanation, and realism | |
US9713444B2 (en) | Human-digital media interaction tracking | |
CN100509308C (zh) | 用于机器人的行为控制系统和行为控制方法及机器人装置 | |
EP1956528A2 (en) | Apparatus and Method for Expressing Behavior of Software Robot | |
Harnad | Turing indistinguishability and the blind watchmaker | |
US7526465B1 (en) | Human-machine interactions | |
US7937348B2 (en) | User profiles | |
KR101678018B1 (ko) | 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법 | |
Horzyk | How does generalization and creativity come into being in neural associative systems and how does it form human-like knowledge? | |
CN108115678B (zh) | 机器人及其动作控制方法和装置 | |
JP5227362B2 (ja) | エモーションエンジン、エモーションエンジン・システムおよび電子デバイスの制御方法 | |
Portegys | A maze learning comparison of Elman, long short-term memory, and Mona neural networks | |
Van Noordwijk et al. | Feedback loops added to four conceptual models linking land change with driving forces and actors | |
Sanz et al. | Consciousness, action selection, meaning and phenomenic anticipation | |
Alikhani et al. | DynaFuse: Dynamic Fusion for Resource Efficient Multi-Modal Machine Learning Inference | |
Kuppuswamy et al. | A cognitive control architecture for an artificial creature using episodic memory | |
Fountas | Spiking neural networks for human-like avatar control in a simulated environment | |
Trindade et al. | An architecture for agent’s risk perception | |
CN101276434A (zh) | 在软件机器人中学习行为的方法和设备 | |
Alt | Learning from noisy and delayed rewards the value of reinforcement learning to defense modeling and simulation | |
Hauptman et al. | Adapting to the human: A systematic review of a decade of human factors research on adaptive autonomy | |
Pezzulo et al. | Schema-based design and the akira schema language: An overview |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120704 Termination date: 20210213 |