CN114942637B - 一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法 - Google Patents

一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法 Download PDF

Info

Publication number
CN114942637B
CN114942637B CN202210541180.9A CN202210541180A CN114942637B CN 114942637 B CN114942637 B CN 114942637B CN 202210541180 A CN202210541180 A CN 202210541180A CN 114942637 B CN114942637 B CN 114942637B
Authority
CN
China
Prior art keywords
emotion
state
robot
action
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210541180.9A
Other languages
English (en)
Other versions
CN114942637A (zh
Inventor
张晓平
李凯
王力
刘翼豪
杨天航
孟祥鹏
郑远鹏
吴宜通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North China University of Technology
Original Assignee
North China University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North China University of Technology filed Critical North China University of Technology
Priority to CN202210541180.9A priority Critical patent/CN114942637B/zh
Publication of CN114942637A publication Critical patent/CN114942637A/zh
Application granted granted Critical
Publication of CN114942637B publication Critical patent/CN114942637B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,属于智能机器人技术领域。系统通过感知器感受当前状态与环境收益;再与内部状态共同将机器人内,外部信息传入到环境状态系统生成更深层环境信息;情感系统会产生情感与相关记忆,机器人通过反思记忆与分析,从而进行行为选择;随着搜索时间上升,机器人知识也逐渐丰富,直至满足学习停止条件。本发明引入具有情感与记忆机制,充分利用机器人在迷宫环境搜索过程中产生的情感与记忆,采用情感奖励为内部奖励的方式避免环境中稀疏奖励学习效率低,利用环境状态及相关信息的记忆,有效避免同一状态与动作的重复学习,实现更有效搜索。本发明使机器人具有较强自主能力,也提高了学习速度。

Description

一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习 方法
技术领域
本发明涉及一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,属于智能机器人技术领域。
背景技术
情感作为人们日常生活中不可或缺的元素,它时刻影响着我们的认知、决策、交流等。实现机器人情感智能,把情感对人的有益影响迁移到机器人系统中,让机器人能够与人类和社会更自然、和谐的相处是机器人领域努力的目标之一。同时,只有机器人具有情感反应,也才会引起人们真正的关心,情感是实现人类对机器人可信度主要手段之一。因此,机器人情感对人类与机器人本身都有着重要作用。具有情感机制的机器人认知研究,是在认知机器人的基础上加入了类似于人的情感因素,让情感参与到机器人与人、物体和环境的交互学习中,从而影响其感知、推理和决策等能力,使机器人的学习与认知过程更接近于人类学习与认知的过程。在机器人研究中加入情感能有效提高机器人学习效率以及自主性。
情感与认知之间联系有着积淀已久的理论性基础和神经生理性结构原理,因此情感参与到认知与行为机制是必须要明确解决的关键性问题。因此,本发明以心理学与神经生理学学基础,为机器人搭建情感-记忆认知模型与认知学习方法,通过模仿人的心理与思考过程,赋予机器人类似于人的情感因素与思维方式。相关的专利如申请号CN201811343603.6提出了一种具有发育机制的感知行动认知学习方法,以心理学与生理学为基础结合潜在动作理论,通过引入好奇心的方式,提高了机器人的学习速度与稳定性。申请号CN202110918358.2传统的Sarsa算法基础上,引入走过的路径矩阵P(s,a),实现动态调整贪婪因子ε,提高算法的探索能力。2009年Daglarli等受计算机体系结构EMIB的启发把基于情感的控制方法和认知模型相结合,为四轮移动机器人提出一种基于人工情感的自主机器人控制结构,该结构有三部分组成:行为系统、人工认知模型和核心的情感-动机模块,实现了机器人根据当前的情感对未来的行为进行预测和路径规划。
本发明以情感与认知的心理学与生理学为基础结合强化学习,提出一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,使得机器人在探索迷宫的过程中具有类似生物的产生情感与记忆过程,引入具有情感与记忆机制,提高了机器人的自主性与学习效率。
发明内容
本发明涉及一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,属于智能机器人技术领域。所公开的的情感与记忆机制的认知学习方法依赖于情感-记忆认知模型,具体结合新的奖励机制,设计了模型结构的迷宫机器人自主搜索的认知学习方法,提高了迷宫机器人的学习速度与稳定性。模型结构如图1所示,包括感受器、内部状态、环境状态系统、情感系统、行为选择系统、动态知识库以及执行器七部分,各部分含义具体如下:
(1)感受器:感受事物表示为三元组:〈S,A,Ga>,其中,S={si|i=1,2,…,ns}为离散状态集合,si∈S为可感受第i个状态,s(t)∈S为第t时刻机器人所处状态,ns为可感知到的离散状态的个数;针对需要“能量补给”的迷宫搜索任务,离散状态为迷宫节点;A={Ai|i=1,2,…,ns}为离散状态对应的可选动作集合,Ai∈A为第i状态下可选动作子集;Ga={Gai|i=1,2,…,ns}为最大环境补给集合,Gai∈Ga为第i个离散状态给予机器人的最大内部能量补给,Ga(t)∈Ga为第t时刻机器人所处状态对应的大环境补给,最大环境补给设置为+19,-2,0三种情况。
(2)内部状态:机器人内部能量状态表示为H(t),H={H(t)|t=0,1,…,nt}为机器人内部能量状态集合,H(t)∈H为第t个时刻内部能量状态,nt为存活时间数,t=0代表机器人开始任务时刻,t=nt代表机器人内部能量状态为0或完成迷宫搜索时刻,nt一般大于50s。
(3)环境状态系统:机器人内部状态与感受信息中枢,接收与处理的信息表示为五元组;<S,A,Ga,H,G>,G={G(t)|t=0,1,…,nt}为机器人从环境获得的内部能量收益集合,G(t)∈H为第t个时刻机器人获得的内部能量收益,G(t)定义如下:
(4)情感系统:机器人的情感中心,包括情感生成系统,情感记忆,情感状态三部分,情感元素表示为三元组:〈E,Remo,Rmem〉,情感生成系统为机器人建立人工情感状态E(t),E={E(t)|t=0,1,…,nt}为情感状态集合,E(t)∈E为第t时刻情感状态,E(T)∈E为机器人完成第T次周期时刻情感状态;情感记忆根据生成的情感状态获得情感即时奖励和情感记忆奖励:Remo={Remo(t)|t=0,1,…,nt}为情感即时奖励集合,Remo(t)∈Remo为第t时刻情感即时奖励;Rmem={Rmem(T)|T=1,2,…,nT}为情感记忆奖励集合,Rmem(T)∈Rmem为第T搜索周期情感记忆奖励,T=1代表机器人第一次搜索完回到能量补给点,T=nT代表机器人完成搜索任务最大所需周期。
(5)行为选择系统:根据环境状态与情感状态,并结合动态知识库选择行为与相应动作,表示为二元组:〈π,a〉,π={πz|z=1,2,…,nz}为机器人行为选择集合,πz∈π为机器人第z种行为,π(t)∈π第t时刻机器人的行为选择,nz为机器人行为种类数,针对需要“能量补给”的迷宫搜索任务,机器人行为分为搜索,能量补给两种;a={am|m=1,2,…,nm}为机器人动作集合,am∈a为机器人第m种动作,a(t)∈a第t时刻机器人的动作选择,nm为机器人动作种类数,针对迷宫搜索任务,机器人动作为节点处东、南、西、北方向选择。
(6)动态知识库:包括机器人从环境学到的知识,以及认知模型学习算法,表示为六元组:〈STA_PWO,STA_ACT,A′,D,L,U〉,其中,STA_PWO={(Yz,Bz)|z=1,2,…,nz}为状态-能量记忆集合,(Y,B)记录周期内离散状态以及所对应返回能量补给点所需内部能量状态B,B(t)∈B第t时刻机器人所处状态返回能量补给点所需内部能量状态,nz为周期内所遇离散状态个数;STA_ACT=〈(Y,R),(Y′,R′)〉={(Yk,Rk),(Y′c,R′c)|k=1,2,…,nk,c=1,2,…,nc}为状态-动作记忆集合,(Y,R)为逐次记录周期内所遇状态与动作选择的序列,nk为周期内所遇状态的总个数,(Y′,R′)为记录周期内最后一遍所遇状态与动作选择的序列,nc为周期内所遇不同状态的个数;A'={A'i|i=1,2,…,ns}为离散状态下能量补给行为对应的最佳动作集合,A'i∈A'为第i状态下能量补给行为的动作选择,A(t)′∈A′为第t时刻机器人所处状态最大价值动作;D={D(t)|t=0,1,…,nt}为环境搜索状态集合,D(t)∈D为第t时刻已搜索迷宫节点与总节点比值;L={L(T)|T=1,2,…,nT}为路径搜索状态集合,L(T)∈L为第T周期迷宫路径搜索状态,为已搜索路径与未搜索路径区分标记;U为认知模型学习算法,需要“能量补给”的迷宫搜索任务分为两阶段,第一阶段为寻找内部能量补给点,第二阶段为利用所找到内部能量补给点信息获取后的搜索,具体步骤如下。
Step1:开始任务第一阶段:数据初始化:初始化〈STA_PWO,STA_ACT,A′,D,L,H〉。
Step2:根据状态选择动作,将“状态-动作”写入STA_ACT;更新至下一状态;获得环境奖励Renv(t),并更新Q值。
Step3.1:判断是否找到能量补给点,若找到则执行Step4,否则转Step3.2;
Step3.2:判断是否满足H(t)>0,若满足则转Step2,否则结束。
Step4:开始第二阶段任务:更新情感状态E(T);获得情感记忆奖励Rmem(T),并更新Q值;由记忆模块2获得L(T)。
Step5:判断是否满足D(t)=1(判断迷宫是否搜索完),若满足则结束,否则执行Step6。
Step6:将STA_PWO与STA_ACT重置清空。
Step7:更新情感状态E(t),由记忆模块1更新B(t);判断状态是否在STA_PWO,若在则转Step9。
Step8:获得情感即时奖励Remo(t),并更新Q值。
Step9:根据状态选择动作,将“状态-动作”写入STA_ACT;更新至下一状态;获得环境奖励Renv(t),并更新Q值。
Step10:判断是否满足继续搜索条件,若满足则转Step7,否则执行Step11。
Step11:根据状态选择最大价值动作A(t)′,将“状态-动作”写入STA_ACT;更新至下一状态;获得环境奖励Renv(t),并更新Q值;
Step12:判断是否回到能量补给点,若是则转Step4,否则执行Step11。
(7)执行器:机器人执行机构,本文选取两轮迷宫机器人,动作执行机构表示为二元组:<V1,V2>,其中,V1={V1m|m=1,2,…,nm}为左轮转矩集合,V2={V2m|m=1,2,…,nm}为右轮转矩集合。
一、本发明所述情感生成系统函数表达式为如下:
其中,k1,k2,k3,k4,k5,k6为认知模型参数,当(3)式值为正时为积极的高兴情感,为负值时则为恐惧情感,(4)式产生愤怒情感,|E(t)|越大则情感越强烈。
二、本发明所述所述分别由环境奖励Renv(t)、情感即时奖励Remo(t)以及情感记忆奖励Rmem(T)组成,机器人从节点1(能量补给点)搜索至节点6再返回节点1的一次搜索周期的奖励过程示意如图3所示,奖励设置如下(5)-(12)式:
其中,环境即时奖励Renv(t)的Q值更新公式如下。Q即为Q(s(t),a(t)),就是在某一个时刻t的状态下,采取动作a(t)能够获得收益的期望,环境状态会根据机器人的动作反馈相应的奖励,主要思想就是将状态和动作构建成一张Q表来存储Q值,然后根据Q值来选取能够获得最大价值的动作。其中,s(t)为当前状态,a(t)为当前状态选择的动作,α为学习率,max Q(s(t),a(t))为当前状态选择动作后下一状态最大收益;
Q(s(t),a(t))=(1-α)Q(s(t),a(t))+α[Renv(t)+max Q(s(t+1),a(t+1))] (13)
情感即时奖励Remo(t)的Q值更新公式如下,对搜索路径逆方向进行强化,a(t)′为t时刻进入该状态时的逆方向动作。
Q(s(t),a(t)′)=Remo(t) (14)
情感记忆奖励Rmem(T)的Q值更新公式如下,用于再次返回补给点后获得的情感强化上一遍搜索返回补给点所经过的路径中选择动作。
Q(s(t),a(t))=(1-α)Q(s(t),a(t))+α[Rmem(T)+maxQ(s(t+1),a(t+1))] (15)
三、本发明所述实现机器人思考与回忆机制的相关记忆模块1步骤如下;
StepA1:判断当前状态是否在STA_PWO中,若不在则转StepA3。
StepA2:调取STA_PWO中当前状态对应的Bz,令B(t)=Bz
StepA3:令B(t)=B(t-1)+1,令B(t)=Bz,将“状态-能量”写入STA_PWO。
四、本发明所述实现机器人思考与回忆机制的相关记忆模块2步骤如下;
StepB1:判断(Y,R)的第k状态是否在前k-1个状态中,若在则转StepB3。
StepB2:判断第k个状态的动作子集Ai是否搜索完,若否则将(Y,R)中第k-1个状态对应的动作选择标记重置。
StepB3:判断是否满足k>0,若满足则令k=k-1,并转StepB1,否则结束。
五、本发明所述机器人行为决策规则,即继续搜索条件,从认知模型从生物角度出发,设计了所处状态下行为决策由愤怒情感趋向于搜索,恐惧情感趋向于避险的机制如下;
与现有技术相比,本发明具有以下优点;首先,利用了现有心理学与生理学基础,在机器人进行自主学习过程加入情感因素与情感决策,提高机器人丰富性,实现机器人模拟生物学习与认知环境的知识积累过程。其次,通过加入情感与记忆机制,实现机器人对环境信息有效利用,提高了机器人学习效率;
附图说明
图1为本发明情感-记忆认知模型;
图2为本发明所涉及的学习算法图;
图3为本发明所涉及的学习算法奖励机制图;
图4为迷宫环境图;
图5为移动机器人自主搜索迷宫轨迹图;
图6为搜索过程能量值变化图;
图7为搜索过程情感变化曲线图;
图8为搜索过程搜索范围变化图;
具体实施方式
下面结合附图和具体实施方式对本发明作进一步说明。
在机器人仿真软件V-rep中搭建迷宫环境如图4所示,迷宫共设有21个节点对应21种离散状态,节点处可能存在东、南、西、北四个方向的选择动作,迷宫中两处节点存在着能量补给点与陷阱点,节点13为能量补给点,节点5为陷阱点,移动机器人能量值代表内部能量状态值,在每次选择动作时会损失1点能量值,若走到能量源处则可加满至19点能量值,遇到陷阱则额外损失2点能量。移动机器人起初被给予9点能量值,只掌握避障技能的情况下找到能量源在迷宫中的位置此时算完成第一阶段任务,然后获得能量补给点信息后的移动机器人需要利用能量补给点继续搜索迷宫,直至迷宫环境节点被完全搜索完成第二阶段任务。
在迷宫环境数学模型已知的情况下,需要对本发明情感-记忆认知模型进行设置,具体如下:
(1)针对迷宫环境,将迷宫中每个节点设置为机器人感知的状态,所以模型共有ns=21,以可选方向为该节点的动作子集,迷宫存在着以绝对坐标的东、南、西、北4种动作选择,最大可选动作子集为环境收益存在着陷阱点、能量补给点与普通节点分别为-2、19和0,环境收益即能量获得集合Gai∈{19,-2,0},机器人在迷宫环境中行为选择集合πz∈{搜索,补充能量}:
(2)迷宫环境中,本发明所述所述情感生成系统函数如下:
实验1:移动机器人寻找能量补给点过程
如图5为一次完整迷宫搜索过程图,a-b为移动机器人寻找能量补给点的任务第一阶段过程,将能机器人起始位置置于节点3与节点4间。起初,移动机器人在迷宫环境未知的情况下获得9点能量值(如图6所示),在每个状态下,对该状态的可选动作都会随机选择,随着学习的进行,对于再次遇到的状态,机器人则会选择之前未选择过的动作,通过之前的记忆让移动机器人尽快的找到能量源。
实验2:移动机器人搜索迷宫并返回补充能量的自主探索过程
如图5c-f为移动机器人利用能量补给点信息的任务第二阶段过程,由图6可以看出移动机器人在能量补给点获得能量补充,此时图7机器人情感由于找到能量补给点而变为高兴,补充能量后机器人再出去对迷宫进行搜索,高兴的情感强度也随着离能量补给点“距离”与自身的能量值下降而衰减;t=14时,移动机器人遇到陷阱点,能量值被额外扣除2点,机器人情感变为生气,机器人更倾向于搜索行为的选择,即当返回能量值刚好等于自身能量值时才会选择补充能量行为,随后移动机器人补充能量再进行迷宫探索;直到t=36时,机器人情感变为恐惧且自身能量值为快接近返回所需能量值时,机器人行为转变为补充能量开始返回能量补给点的路径,并且由图5的轨迹可以看出,探索过程中的记忆机制让移动机器人有效减少已探索路径的探索。图8可见迷宫内的探索范围随时间稳定上升,其中探索范围存在不上升状态部分是由于移动机器人走入死路节点或者返回能量补给点时经过同一路径。

Claims (6)

1.一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,其特征在于,以内在奖励为基础设计了一种情感与记忆认知模型,具体由感受器,内部状态,情感系统,行为选择系统,动态知识库,执行器七部分组成,各部分内容如下:
(1)感受器:感受事物表示为三元组:<S,A,Ga>,其中,S={si|i=1,2,…,ns}为离散状态集合,si∈S为可感受第i个状态,s(t)∈S为第t时刻机器人所处状态,ns为可感知到的离散状态的个数;针对需要“能量补给”的迷宫搜索任务,离散状态为迷宫节点;A={Ai|i=1,2,…,ns}为离散状态对应的可选动作集合,Ai∈A为第i状态下可选动作子集;Ga={Gai|i=1,2,…,ns}为最大环境补给集合,Gai∈Ga为第i个离散状态给予机器人的最大内部能量补给,Ga(t)∈Ga为第t时刻机器人所处状态对应的大环境补给,最大环境补给设置为+19,-2,0三种情况;
(2)内部状态:机器人内部能量状态表示为H(t),H={H(t)|t=0,1,…,nt}为机器人内部能量状态集合,H(t)∈H为第t个时刻内部能量状态,nt为存活时间数,t=0代表机器人开始任务时刻,t=nt代表机器人内部能量状态为0或完成迷宫搜索时刻,nt一般大于50s;
(3)环境状态系统:机器人内部状态与感受信息中枢,接收与处理的信息表示为五元组;<S,A,Ga,H,G>,G={G(t)|t=0,1,…,nt}为机器人从环境获得的内部能量收益集合,G(t)∈H为第t个时刻机器人获得的内部能量收益,G(t)定义如下:
(4)情感系统:机器人的情感中心,包括情感生成系统,情感记忆,情感状态三部分,情感元素表示为三元组:<E,Remo,Rmem>,情感生成系统为机器人建立人工情感状态E(t),E={E(t)|t=0,1,…,nt}为情感状态集合,E(t)∈E为第t时刻情感状态,E(T)∈E为机器人完成第T次周期时刻情感状态;情感记忆根据生成的情感状态获得情感即时奖励和情感记忆奖励:Remo={Remo(t)|t=0,1,…,nt}为情感即时奖励集合,Remo(t)∈Remo为第t时刻情感即时奖励;Rmem={Rmem(T)|T=1,2,…,nT}为情感记忆奖励集合,Rmem(T)∈Rmem为第T搜索周期情感记忆奖励,T=1代表机器人第一次搜索完回到能量补给点,T=nT代表机器人完成搜索任务最大所需周期;
(5)行为选择系统:根据环境状态与情感状态,并结合动态知识库选择行为与相应动作,表示为二元组:<π,a>,π={πz|z=1,2,…,nz}为机器人行为选择集合,πz∈π为机器人第z种行为,π(t)∈π第t时刻机器人的行为选择,nz为机器人行为种类数,针对需要“能量补给”的迷宫搜索任务,机器人行为分为搜索,能量补给两种;a={am|m=1,2,…,nm}为机器人动作集合,am∈a为机器人第m种动作,a(t)∈a第t时刻机器人的动作选择,nm为机器人动作种类数,针对迷宫搜索任务,机器人动作为节点处东、南、西、北方向选择;
(6)动态知识库:包括机器人从环境学到的知识,以及认知模型学习算法,表示为六元组:<STA_PWO,STA_ACT,A′,D,L,U>,其中,STA_PWO={(Yz,Bz)|z=1,2,…,nz}为状态-能量记忆集合,(Y,B)记录周期内离散状态以及所对应返回能量补给点所需内部能量状态B,B(t)∈B第t时刻机器人所处状态返回能量补给点所需内部能量状态,nz为周期内所遇离散状态个数;STA_ACT=<(Y,R),(Y′,R′)>={(Yk,Rk),(Y′c,R′c)|k=1,2,…,nk,c=1,2,…,nc}为状态-动作记忆集合,(Y,R)为逐次记录周期内所遇状态与动作选择的序列,nk为周期内所遇状态的总个数,(Y′,R′)为记录周期内最后一遍所遇状态与动作选择的序列,nc为周期内所遇不同状态的个数;A'={A'i|i=1,2,…,ns}为离散状态下能量补给行为对应的最佳动作集合,A'i∈A'为第i状态下能量补给行为的动作选择,A(t)′∈A′为第t时刻机器人所处状态最大价值动作;D={D(t)|t=0,1,…,nt}为环境搜索状态集合,D(t)∈D为第t时刻已搜索迷宫节点与总节点比值;L={L(T)|T=1,2,…,nT}为路径搜索状态集合,L(T)∈L为第T周期迷宫路径搜索状态,为已搜索路径与未搜索路径区分标记;U为认知模型学习算法,需要“能量补给”的迷宫搜索任务分为两阶段,第一阶段为寻找内部能量补给点,第二阶段为利用所找到内部能量补给点信息获取后的搜索,具体步骤如下;
Step1:开始任务第一阶段:数据初始化:初始化<STA_PWO,STA_ACT,A′,D,L,H>;
Step2:根据状态选择动作,将“状态-动作”写入STA_ACT;更新至下一状态;获得环境奖励Renv(t),并更新Q值;
Step3.1:判断是否找到能量补给点,若找到则执行Step4,否则转Step3.2;
Step3.2:判断是否满足H(t)>0,若满足则转Step2,否则结束;
Step4:开始第二阶段任务:更新情感状态E(T);获得情感记忆奖励Rmem(T),并更新Q值;由记忆模块2获得L(T);
Step5:判断是否满足D(t)=1即判断迷宫是否搜索完,若满足则结束,否则执行Step6;
Step6:将STA_PWO与STA_ACT重置清空;
Step7:更新情感状态E(t),由记忆模块1更新B(t);判断状态是否在STA_PWO,若在则转Step9;
Step8:获得情感即时奖励Remo(t),并更新Q值;
Step9:根据状态选择动作,将“状态-动作”写入STA_ACT;更新至下一状态;获得环境奖励Renv(t),并更新Q值;
Step10:判断是否满足继续搜索条件,若满足则转Step7,否则执行Step11;
Step11:根据状态选择最大价值动作A(t)′,将“状态-动作”写入STA_ACT;更新至下一状态;获得环境奖励Renv(t),并更新Q值;
Step12:判断是否回到能量补给点,若是则转Step4,否则转Step11;
(7)执行器:机器人执行机构,选取两轮迷宫机器人,动作执行机构表示为二元组:<V1,V2>,其中,V1={V1m|m=1,2,…,nm}为左轮转矩集合,V2={V2m|m=1,2,…,nm}为右轮转矩集合。
2.根据权利要求1所述的一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,其特征在于,从生物角度出发,情感幅度会受外界刺激的强度,熟悉度而影响,情感的极性会受外界刺激极性与内部状态所影响,所述情感生成系统可产生高兴、恐惧、愤怒三种情感,函数表达式为如下:
其中,k1,k2,k3,k4,k5,k6为认知模型参数,当(1)式值为正时为积极的高兴情感,为负值时则为恐惧情感,(2)式产生愤怒情感,|E(t)|越大则情感越强烈。
3.根据权利要求1所述的一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,其特征在于,所述分别由环境奖励Renv(t)、情感即时奖励Remo(t)与情感记忆奖励Rmem(T)组成的奖励机制设置如下:
其中,环境奖励Renv(t)的Q值更新公式如下;Q即为Q(s,a),就是在某一个时刻t的状态下,采取动作a(t)能够获得收益的期望,环境状态会根据机器人的动作反馈相应的奖励,主要思想就是将状态和动作构建成一张Q表来存储Q值,然后根据Q值来选取能够获得最大价值的动作;其中,s(t)为当前状态,a(t)为当前状态选择的动作,α为学习率,max Q(s(t),a(t))为当前状态选择动作后下一状态最大收益;
Q(s(t),a(t))=(1-α)Q(s(t),a(t))+α[Renv(t)+max Q(s(t+1),a(t+1))]
情感即时奖励Remo(t)的Q值更新公式如下,对搜索路径逆方向进行强化,a(t)′为t时刻进入该状态时的逆方向动作;
Q(s(t),a(t)′)=Remo(t)
情感记忆奖励Rmem(T)的Q值更新公式如下,用于再次返回补给点后获得的情感强化上一遍搜索返回补给点所经过的路径中选择动作;
Q(s(t),a(t))=(1-α)Q(s(t),a(t))+α[Rmem(T)+max Q(s(t+1),a(t+1))]。
4.根据权利要求1所述的一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,其特征在于,所述记忆模块1实现步骤如下;
StepA1:判断当前状态是否在STA_PWO中,若不在则转StepA3;
StepA2:调取STA_PWO中当前状态对应的Bz,令B(t)=Bz
StepA3:令B(t)=B(t-1)+1,令B(t)=Bz,将“状态-能量”写入STA_PWO。
5.根据权利要求1所述的一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,其特征在于,所述记忆模块2实现步骤如下;
StepB1:判断(Y,R)的第k状态是否在前k-1个状态中,若在则转StepB3;
StepB2:判断第k个状态的动作子集Ai是否搜索完,若否则将(Y,R)中第k-1个状态对应的动作选择标记重置;
StepB3:判断是否满足k>0,若满足则令k=k-1,并转StepB1,否则结束。
6.根据权利要求1所述的一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法,其特征在于,所述继续搜索条件,从认知模型从生物角度出发,设计了所处状态下行为决策由愤怒情感趋向于搜索,恐惧情感趋向于避险的机制如下;
CN202210541180.9A 2022-05-17 2022-05-17 一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法 Active CN114942637B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210541180.9A CN114942637B (zh) 2022-05-17 2022-05-17 一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210541180.9A CN114942637B (zh) 2022-05-17 2022-05-17 一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法

Publications (2)

Publication Number Publication Date
CN114942637A CN114942637A (zh) 2022-08-26
CN114942637B true CN114942637B (zh) 2024-05-28

Family

ID=82907924

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210541180.9A Active CN114942637B (zh) 2022-05-17 2022-05-17 一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法

Country Status (1)

Country Link
CN (1) CN114942637B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020494A (ja) * 1998-07-07 2000-01-21 Nippon Telegr & Teleph Corp <Ntt> マルチエージェントモデルを用いて経験強化型強化学習法と環境同定型強化学習法を統合する分散強化学習法
JP2004110802A (ja) * 2002-08-26 2004-04-08 Sony Corp 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
CN114115285A (zh) * 2021-11-29 2022-03-01 大连海事大学 一种多智能体搜索情感目标路径规划方法及装置
CN114167856A (zh) * 2021-11-05 2022-03-11 杭州电子科技大学 一种基于人工情感的服务机器人局部路径规划方法
CN114161419A (zh) * 2021-12-13 2022-03-11 大连理工大学 一种情景记忆引导的机器人操作技能高效学习方法
CN114371691A (zh) * 2021-10-26 2022-04-19 南京航空航天大学 一种辅助驾驶弯道轨迹跟踪控制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8972313B2 (en) * 2012-10-01 2015-03-03 Korea Institute Of Industrial Technology Apparatus and method for learning emotion of robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020494A (ja) * 1998-07-07 2000-01-21 Nippon Telegr & Teleph Corp <Ntt> マルチエージェントモデルを用いて経験強化型強化学習法と環境同定型強化学習法を統合する分散強化学習法
JP2004110802A (ja) * 2002-08-26 2004-04-08 Sony Corp 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
CN114371691A (zh) * 2021-10-26 2022-04-19 南京航空航天大学 一种辅助驾驶弯道轨迹跟踪控制方法
CN114167856A (zh) * 2021-11-05 2022-03-11 杭州电子科技大学 一种基于人工情感的服务机器人局部路径规划方法
CN114115285A (zh) * 2021-11-29 2022-03-01 大连海事大学 一种多智能体搜索情感目标路径规划方法及装置
CN114161419A (zh) * 2021-12-13 2022-03-11 大连理工大学 一种情景记忆引导的机器人操作技能高效学习方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于情感与环境认知的移动机器人自主导航控制;张惠娣;刘士荣;;控制理论与应用;20081215(第06期);全文 *
基于情感认知的学习与决策算法在移动机器人行为协调中的应用;张惠娣;刘士荣;俞金寿;;华东理工大学学报(自然科学版);20080615(第03期);全文 *

Also Published As

Publication number Publication date
CN114942637A (zh) 2022-08-26

Similar Documents

Publication Publication Date Title
Zafar et al. Methodology for path planning and optimization of mobile robots: A review
Sun The importance of cognitive architectures: An analysis based on CLARION
Ram et al. Using genetic algorithms to learn reactive control parameters for autonomous robotic navigation
Little et al. Learning in embodied action-perception loops through exploration
Tang et al. A novel hierarchical soft actor-critic algorithm for multi-logistics robots task allocation
CN112596515B (zh) 一种多物流机器人移动控制方法及装置
Nordin et al. Real time control of a Khepera robot using genetic programming
CN105700526A (zh) 具有自主学习能力的在线序列极限学习机方法
Huang et al. Computational modeling of emotion-motivated decisions for continuous control of mobile robots
Becerra et al. Motivational engine and long-term memory coupling within a cognitive architecture for lifelong open-ended learning
Cao et al. A fuzzy-based potential field hierarchical reinforcement learning approach for target hunting by multi-AUV in 3-D underwater environments
CN114942637B (zh) 一种具有情感与记忆机制的迷宫机器人自主搜索的认知学习方法
Ejaz et al. Autonomous visual navigation using deep reinforcement learning: An overview
Triantafyllidis et al. Intrinsic language-guided exploration for complex long-horizon robotic manipulation tasks
Effken et al. Ecological perspectives on the new artificial intelligence
Chen et al. Survey of multi-agent strategy based on reinforcement learning
Nguyen et al. Learning in Cooperative Multiagent Systems Using Cognitive and Machine Models
CN114721397B (zh) 一种基于强化学习和好奇心的迷宫机器人路径规划方法
Liu et al. Learning without knowing: Unobserved context in continuous transfer reinforcement learning
Mobus et al. Foraging search at the edge of chaos
Mishra et al. Mobile robot path planning using a flower pollination algorithm-based approach
Bibel General aspects of intelligent autonomous systems
Randlov Solving complex problems with reinforcement learning
Shimoguchi et al. Decision making on robot with multi-task using deep reinforcement learning for each task
Xing et al. Optimize path planning for drone-based wireless power transfer system by categorized reinforcement learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant