CN116448117A - 一种融合深度神经网络和强化学习方法的路径规划方法 - Google Patents
一种融合深度神经网络和强化学习方法的路径规划方法 Download PDFInfo
- Publication number
- CN116448117A CN116448117A CN202310415309.6A CN202310415309A CN116448117A CN 116448117 A CN116448117 A CN 116448117A CN 202310415309 A CN202310415309 A CN 202310415309A CN 116448117 A CN116448117 A CN 116448117A
- Authority
- CN
- China
- Prior art keywords
- state
- network
- value
- action
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 47
- 230000002787 reinforcement Effects 0.000 title claims abstract description 21
- 230000009471 action Effects 0.000 claims abstract description 109
- 238000004364 calculation method Methods 0.000 claims abstract description 23
- 230000006399 behavior Effects 0.000 claims abstract description 10
- 230000008859 change Effects 0.000 claims abstract description 10
- 238000013178 mathematical model Methods 0.000 claims abstract description 7
- 238000004088 simulation Methods 0.000 claims abstract description 7
- 230000007613 environmental effect Effects 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 74
- 239000003795 chemical substances by application Substances 0.000 claims description 49
- 238000009826 distribution Methods 0.000 claims description 27
- 230000007704 transition Effects 0.000 claims description 23
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 20
- 238000005070 sampling Methods 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 8
- 125000004122 cyclic group Chemical group 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 230000008901 benefit Effects 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000000137 annealing Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000004880 explosion Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 230000007774 longterm Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000002028 premature Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 3
- 239000000243 solution Substances 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种融合深度神经网络和强化学习方法的路径规划方法,步骤一:机器人在每个离散时间步内,通过传感器获取环境信息以建立相应的数学模型;步骤二:建立当前所处的模拟环境模型;步骤三:根据奖励值更新网络参数和学习更优的行为策略;步骤四:解耦目标Q值动作的选择和目标Q值的计算;步骤五:使用深度神经网络表示智能体的各种组件这些网络的参数通过梯度下降来训练;步骤六:通过迭代;步骤七:根据添加噪音引起的网络输出值变化选择动作。本发明新型涉及机器人路径规划技术领域,具体为具体为一种融合深度神经网络和强化学习方法的路径规划方法。
Description
技术领域
本发明新型涉及机器人路径规划技术领域,具体为一种融合深度神经网络和强化学习方法的路径规划方法。
背景技术
目前机器人路径规划过程过于依赖环境信息,传统DQN算法的网络收敛速度较慢,路径规划的效果较差,无论是传统DQN还是QLearning算法,在计算价值函数的时候都采用了贪心策略,即每次都对的实际价值进行了过高的估计,最终会影响机器人的最后决策。同时由于传统DQN算法采用随机均匀的方式从经验池中抽取样本进行训练,导致算法可能会重复选取局部实验结果,样本利用率低,从而降低网络收敛速度,影响网络训练的效果。综合现实因素,在现实商场、车库或地铁站等复杂室内环境中,路径规划环境复杂多变,导致了很多问题:首先,之前的算法需要大量的训练时间,在训练过程中陷入局部最优解,导致决策选择的往往是次优解而并非是最优解;其次,当机器人与环境交互时,序列存储是相关的,导致算法的训练速度较慢,往往难以在较短的训练回合内在复杂多变的室内环境中难以获得最优搜索路径,再者在延迟奖赏的策略基础上,之前的方法在动作空间抖动的策略中不能做出合理决策。因此,研究融合深度强化学习算法原理并改进传统DQN算法运用在机器人路径规划领域,以解决算法探索能力差导致的网络收敛速度慢,训练效果差的问题并优化在复杂室内环境中的运用,就显得尤为重要。
发明内容
针对上述情况,为弥补上述现有缺陷,本方案提供了一种融合深度神经网络和强化学习方法的路径规划方法。
本发明新型采取的技术方案如下:一种融合深度神经网络和强化学习方法的路径规划方法,方法至少包括一下方法:
步骤一:机器人在每个离散时间步内,通过传感器获取环境信息以建立相应的数学模型,由辅助摄像头和传感器构成动态视频监控,显示整个地图以及机器人自身在地图上的位置,之后截取视频监控屏幕的固定帧来表示每个时间步的状态,并输入神经网络。
步骤二:建立当前所处的模拟环境模型,其中神经网络结构为双网络结构,由估计网络和目标网络两部分组成,建立阶段性更新的目标网络,固定目标rt+Qπ(st+1,π(st+1))的值,其中目标网络阶段性地从评估网络中获取参数以实现更新,当前状态作为预测网络的输入,通过预测网络来根据当前的状态估计动作空间中所有动作值,并协同目标网络的输出值用来计算损失,在返回到下一个时间步的状态后,选择重放计算值,存储在重放存储器中。
步骤三:在强化学习过程中,智能体做出动作与环境进行交互,在状态空间中为每个状态找到当前策略下未来的累积奖励,寻找长期的累积奖励后,根据奖励值更新网络参数和学习更优的行为策略。
步骤四:解耦目标Q值动作的选择和目标Q值的计算,来消除DQN的过估计的问题。
步骤五:使用深度神经网络表示智能体的各种组件这些网络的参数通过梯度下降来训练,最小化损失函数。
步骤六:通过迭代,所有未来的状态和预期奖励只能从当前状态预测。
步骤七:根据添加噪音引起的网络输出值变化选择动作,并通过循环神经网络记忆多步变化影响智能体的决策。
其中,在步骤一中:机器人在每个离散时间步t=0,1,2...n内,通过传感器获取环境信息以建立相应的数学模型,由辅助摄像头和传感器构成动态视频监控以显示整个地图以及机器人自身在地图上的位置,之后截取视频监控屏幕的固定帧来表示每个时间步的状态,并输入神经网络,机器人在每个时间步长的状态将用环境中的一帧图像来表示,其中状态决策可以以下公式表示:MDP=(S,A,Psa,R),其中,S是状态空间,Si是第i个时间步的状态,S={s1,S2,…,Sn},A是动作空间,其中,A={a1,a2,…,an},Psa是状态转移概率,表示动作执行后状态s过渡到另一状态s'过程中的概率分布a,R为奖励函数,r为行动a后将s转移到s’所获得的奖励,其中r=R(s,a),在确定当前状态后,机器人搜索的路径规划在于能够从地图上的起点自动找到目的地,并规划出最优路径。
在步骤二中:当主程序达到当前环境状态时,构造当前所处的模拟环境模型,建立神经网络结构(双网络结构——预测网络和目标网络,首先初始化目标网络的参数,使其与预测网络保持一致,当前状态s作为预测网络的输入,将输出一个Q值,Q值最大的索引作为当前的动作值a,环境接收到动作值a,返回到下一个时间步的状态s’后,创建[st,a,r,st+i]这样的形式进行存储,值的计算分成两个部分,一部分是状态转移产生的,一部分是执行动作产生的,这样能够更好的关注在某一状态下选择不同动作所带来的差异,其中,使用函数逼近器来估计动作值函数,函数为:
其中,s和a分别表示第t个时间步的状态和奖励,π表示当前策略,只有在Q(s,a)已知的情况下,argmaxQa(s,a)才能找到每个状态下的最优策略。神经函数逼近器权值为,可以通过最小化损失函数Li(θi)来训练,该函数在每次迭代中都会发生变化,Li(θi)的表达式为:
Li(θi)=Es,a~p(s,a)[(yi-Q(s,a;θi))2]
其中,为每次迭代的目标函数,P(s,a)称为行为分布,当损失函数Li(θi)处于优化状态时,前一次迭代的参数θi-1暂时固定,因此损失函数的梯度计算公式可以表示为:/>
在步骤三中:智能体做出动作与环境进行交互时,在状态空间中为每个状态找到当前策略下未来的累积奖励,根据奖励值更新网络参数和学习更优的行为策略,但由于室内环境复杂多变,不定因素较高,同时对周围环境探索要求越高,通常在实际任务中,未来累计奖励折现难于表达,我们改进的奖励函数为:
其中,机器人到达目标点时获得奖励C1(C1>0),发生碰撞时获得奖励C2(C2<0),其他情况下,机器人获得的奖励为K*cosθ/d,其中K是超参数,为机器人做出动作前从机器人所在位置指向目标点位置的向量与机器人行动前后的方向向量的夹角,当θ∈[0,π/2),cosθ>0时,说明机器人做出了靠近目标点的行动,故得到正奖励;当θ=π/2,cosθ=0时,说明机器人既没有靠近目标点,也没有远离目标点,故得到0奖励;当θ∈(π/2,π],cosθ<0时,说明机器人做出了远离目标点的行动,故得到负奖励,d是机器人做出行动之前与目标点的距离,通过欧式距离公式计算得到公式如下:
发生碰撞的情况下,奖励值与距离成反比,因为机器人与目标点之间的距离越远,两者之间存在障碍等不确定因素的概率就越大,所以智能体径直靠近目标点并不一定总是最好的策略,在本文设计的路径规划实验中,机器人每到达一次目标点,则记作一次成功的路径规划,得1分,并继续寻找下一个随机生成的新目标点,当超时或发生碰撞时则游戏结束,如果直到游戏结束机器人都没有到达一个目标点,则记本局得分为0,否则根据该局游戏中机器人到达的目标点数量记录相应的分数。
在步骤四中:通过解耦目标Q值动作的选择和目标Q值的计算,来消除DQN的过估计的问题,即目标Q值最大动作的选择不再依赖目标网络,而是先通过评估网络获取S(t+1)状态下最大的Q值对应的动作A,再从目标网络中获取S(t+1)状态下动作A对应的Q值,来进行Q函数的更新,其中经典算法中Q值的更新方式为:
Q(s,a)=λ*Q(s,a)+(1-λ)*E(s,a)
E(s,a)是在Q(s,a)上乘以一个概率,其计算方式如下列公式:
E(s,a)=Q(s,a)*P(s,a)
P(s,a)计算公式为:其中,P(s,a)是指在状态s下选择动作a的概率,N为在状态s下已经选择过动作a的次数,由其计算方式可知在状态s下选择动作a的次数越多,即N越大,P(s,a)就越小,从而E(s,a)就越小,最后的Q(s,a)总值就越小,而本发明的改进方法增加了一个辅助函数MA(s,a),用于存储前一次迭代时得到的对最大期望Q值的估计,通过使用当前估计QB(s,a)和前一次的估计MA(s,a)更新QA(s,a),Q值的更新规则为:
其中,s′表示下一状态,n表示历更新状态动作对(s,a)的次数,Rn表示获得的及时奖励值,aA(s,a),为学习率为了便于算法描述,对上式进行合并,得到:
新改进的Q值选择方法,可以避免在迭代初期由单估计器造成智能体过估计的问题,从而提升智能,减少机器人在训练时进入重复状态的次数,使其能更好的探索新的状态,同时提高了网络收敛的速度并优化了路径规划的效果。
在步骤五中:首先使用深度神经网络表示智能体的各种组件这些网络的参数通过梯度下降来训练,最小化损失函数,更新的梯度由式由对参数θ求导得到:
为防止梯度爆炸,需要将梯度裁剪至[-1,1]区间内,对于大于1的误差将其置为1,小于-1的将其置为-1。
通过使用卷识神经网络来近似拟合给定状态S的动作值,在每个步骤中,智能体都会根据当前状态选择一个动作值,并将转换(St,At,Rt+1,γt+1,St+1)添加到经验回放缓中区,该缓中区保存经验,采用随机梯度下降法对神经网络参数进行优化,最小化损失函数为:
其中t是从经验回放池中随机选取的时间步长,损失的梯度仅反向传播到策略网络的参数中(也用于选择动作),θ表示目标网络的参数。
其次,运用基于优先级重放机制的经验重放,其核心是按照样本的优先级执行小批量抽样,重放存储器中的样本优先级主要基于DQN中的时间差误差,其表达式为:
P=R+γmax Q^(s′,a)-Q(s,a).
时间差误差越大,预测精度上升空间越大,这说明基于该样本的学习可以更好地提高模型效果,即优先级的值更大。只有在存在时间差误差的情况下才能计算出优先级,sumTree数据结构可以在每次采样后更新优先级p,在重放存储器中,sum'Tree的叶节点用于存储重放存储器中所有样本的P值(优先级),节点对应的样本数据以单一矩阵形式存储,即:data=[s,a,r,Sr+1]。在抽取样本数据的过程中,算法查找叶节点的样本索引,利用索引找到一一对应的样本数据,然后根据sumTree的优先级返回。在某一时间步长,从重放存储器中采样数据,从预测网络中获得当前时间步长的Q值,然后利用目标网络获取下一个时间步的Q值。以Transitions=[st,at,rt,st+1]的结构存储从池中每次探索获得的数据(如果池已满,它将替换过早的数据),在每个学习过程中,从Pool中提取一批数据,按照公式:
L(w)=E[(r+γmaxa′Q(s′,a′,w)-Q(s,a,w))2]
对网络进行更新。在每一时期初始,Pool将创建一个新的临时堆栈,随着滑动窗口的推进,堆栈将被过渡数据填充,直到这一时期结束,Pool将把整个堆栈作为一个单元放入其中,训练时,从缓冲区中随机选择一个集数据,然后随机选择集中的某个时刻,选择几个步骤进行学习。
为了解决近似过程中由于贪心优先级函数导致的误差值频繁较高和过拟合问题,运用纯贪心抽样与均匀分布抽样混合的随机抽样方法。这可以保证在过渡优先级中采样的概率是单调的。即使对于优先级最低的转换,也必须保证非零概率,抽样概率定义为:
其中,pi是第i个过渡的优先级,a用于调整优先级。
在步骤六中:在智能体端,动作选择由策略元给出,根据当前状态和动作预测下一个状态和期望奖励,策略t定义每个状态的动作概率分布。在t时刻,状态为St,我们定义折扣回报函数:
为智能体计算未来奖励的折扣总和,其中,未来奖励的折扣由该时间之前的折扣乘积给出,即:
从给定状态开始执行策略π时,预期折扣受益为:
vπ(s)=Eπ[Gt∣St=s],
状态动作价值函数为:
qπ(s,a)=Eπ[Gt∣St=s,At=a]
从状态动作价值函数中导出新策略,以1-∈的概率去价值最高的动作,智能体可以在适当时候发现并纠正当前估计,避免选择次优状态。
通过迭代,所有未来的状态和预期奖励只能从当前状态预测。那么策略π可以定义为从状态到动作概率分布的映射,即π:s=p(A=a∣s),当存在策略时,衡量策略是否达到最优状态,衡量策略的关键是机器人获得的未来累积奖励G。
在步骤七中:在网络空间注入噪音,引起网络输出变化,然后根据该变化选择动作,在未来多个时间步内造成复杂的改变,并通过循环神经网络记忆多步变化,使智能体(Agent)做出的决策更具有战略性,首先智能体利用带探索性的噪音进行深度探索以弥补传统策略探索的低效性,先在该时间步内接收多张图片进行平行化处理,卷积处理函数为:其中,D为图片的深度,Xd为输入的短阵,Wd为卷核,b为偏置,C为卷积层输出的特征图伪激活函数,采用线性整流单元(Rectified Linear Unit,ReLU)作为激活函数。
噪音来自于噪音分布,通过方差驱动探索,这使得Agent可以发现大量新状态,提供更加丰富的样本,为决策提供有效信息,噪音由两种组成,第一,独立的高斯音,权重和偏差的噪音是独立的,对于随机噪音矩阵Ψw中的每一个元素ψi w,都是从一个高斯分布中独立产生的,带有噪音的全连接层有p*q+q个噪音变量,第二,可分解的高斯噪音,可分解的高斯噪音减少了噪音变量的个数,生成有p个元素的噪音向量ψi,有q个元素的噪音向量心ψj,并进行如下分解:
其中ψi w,表示两层全连接之间噪音权重矩阵的每个噪音值,ψj b表示输出层偏置矩阵的每个噪音值,f是一个分解函数,网络每一次前向计算时,Agent从噪音分布中采样噪音,通过分布的方差进行探索,在优化之中,Agent根据当前固定的网络参数执行动作,保证Aget可以根据当前噪音分布中采样的噪音做出决策。
其次,使用改进的双层门限循环单元来记忆较长时间步的历史信息,使Agent能够在延迟奖赏的情况下做出合理的决策,其中噪声线性层为:y=(b+wx)+(bnoisy)⊙b+(wnoisy⊙w)x),其中,⊙b和⊙w随机变量,⊙表示元素乘积,然后可以使用该变换来代替标准线y=b+wx。随着时间的推移,网络可以学会忽略声流,但会在状态空间的不同部分以不同的速率这样做,从而允许以自退火的形式进行状态条件探索。
采用上述结构本发明新型取得的有益效果如下:本方案一种融合深度神经网络和强化学习方法的路径规划方法,解决了Q-eamming算法在应对复杂环境时出现的“维数火难”问题,提高机器人对环境的探索能力,在一定程度上降低了网络收敛于局部最优的风险,减少网络收敛的训练回合,相比于传统DQN算法,该算法不仅能够有效提高网络收敛的速度而且在路径规划的性能上也有一定提升;通过修改Q值的计算方式减少重复状态出现的次数,提高了机器人的探索能力,并重新设计了奖励函数,使机器人的每一个动作都能得到即时的反馈,实验证明与传统路径规划算法,DQN算法和部分改进DON算法相比,在网络收敛速度,平均奖励值和路径规划的性能上均有一定提升,可以证明该算法能够在室内复杂多变的环境中规划出更优的路径,改进了奖励函数,通过结合机器人的移动方向和当前时刻机器人与目标点的距离,使机器人在到达目标点和发生碰撞的情况之外也能够获得即时反馈,优化了机器人路径规划的性能。
附图说明
附图用来提供对本发明新型的进一步理解,并且构成说明书的一部分,与本发明新型的实施例一起用于解释本发明新型,并不构成对本发明新型的限制。在附图中:
图1为本发明新型提供的一种融合深度神经网络和强化学习方法的路径规划方法的步骤流程图;
图2为本发明新型提供的一种融合深度神经网络和强化学习方法的路径规划方法的深度强化学习框架;
图3为本发明新型提供的一种融合深度神经网络和强化学习方法的路径规划方法的运动状态示例;
图4为本发明新型提供的一种融合深度神经网络和强化学习方法的路径规划方法的状态网络更新;
图5为本发明新型提供的一种融合深度神经网络和强化学习方法的路径规划方法的网络空间注入噪音。
具体实施方式
下面将结合本发明新型实施例中的附图,对本发明新型实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明新型一部分实施例,而不是全部的实施例;基于本发明新型中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明新型保护的范围。
如图1至图5所示,发明新型采取的技术方案如下:一种融合深度神经网络和强化学习方法的路径规划方法,方法至少包括一下步骤:
步骤一:机器人在每个离散时间步内,通过传感器获取环境信息以建立相应的数学模型,由辅助摄像头和传感器构成动态视频监控,显示整个地图以及机器人自身在地图上的位置,之后截取视频监控屏幕的固定帧来表示每个时间步的状态,并输入神经网络。
步骤二:建立当前所处的模拟环境模型,其中神经网络结构为双网络结构,由估计网络和目标网络两部分组成,建立阶段性更新的目标网络,固定目标rt+Qπ(st+1,π(st+1))的值,其中目标网络阶段性地从评估网络中获取参数以实现更新,当前状态作为预测网络的输入,通过预测网络来根据当前的状态估计动作空间中所有动作值,并协同目标网络的输出值用来计算损失,在返回到下一个时间步的状态后,选择重放计算值,存储在重放存储器中。
步骤三:在强化学习过程中,智能体做出动作与环境进行交互,在状态空间中为每个状态找到当前策略下未来的累积奖励,寻找长期的累积奖励后,根据奖励值更新网络参数和学习更优的行为策略。
步骤四:解耦目标Q值动作的选择和目标Q值的计算,来消除DQN的过估计的问题。
步骤五:使用深度神经网络表示智能体的各种组件这些网络的参数通过梯度下降来训练,最小化损失函数。
步骤六:通过迭代,所有未来的状态和预期奖励只能从当前状态预测。
步骤七:根据添加噪音引起的网络输出值变化选择动作,并通过循环神经网络记忆多步变化影响智能体的决策。
其中,在步骤一中:机器人在每个离散时间步t=0,1,2...n内,通过传感器获取环境信息以建立相应的数学模型,由辅助摄像头和传感器构成动态视频监控以显示整个地图以及机器人自身在地图上的位置,之后截取视频监控屏幕的固定帧来表示每个时间步的状态,并输入神经网络,机器人在每个时间步长的状态将用环境中的一帧图像来表示,其中状态决策可以以下公式表示:MDP=(S,A,Psa,R),其中,S是状态空间,Si是第i个时间步的状态,S={S1,S2,…,Sn},A是动作空间,其中,A={a1,a2,…,an},Psa是状态转移概率,表示动作执行后状态s过渡到另一状态s'过程中的概率分布a,R为奖励函数,r为行动a后将s转移到s’所获得的奖励,其中r=R(s,a),在确定当前状态后,机器人搜索的路径规划在于能够从地图上的起点自动找到目的地,并规划出最优路径。
在步骤二中:当主程序达到当前环境状态时,构造当前所处的模拟环境模型,建立神经网络结构(双网络结构——预测网络和目标网络,首先初始化目标网络的参数,使其与预测网络保持一致,当前状态s作为预测网络的输入,将输出一个Q值,Q值最大的索引作为当前的动作值a,环境接收到动作值a,返回到下一个时间步的状态s’后,创建[st,a,r,st+i]这样的形式进行存储,值的计算分成两个部分,一部分是状态转移产生的,一部分是执行动作产生的,这样能够更好的关注在某一状态下选择不同动作所带来的差异,其中,使用函数逼近器来估计动作值函数,函数为:
其中,s和a分别表示第t个时间步的状态和奖励,π表示当前策略,只有在Q(s,a)已知的情况下,argmaxQa(s,a)才能找到每个状态下的最优策略。神经函数逼近器权值为,可以通过最小化损失函数Li(θi)来训练,该函数在每次迭代中都会发生变化,Li(θi)的表达式为:
Li(θi)=Es,a~p(s,a)[(yi-Q(s,a;θi))2]
其中,为每次迭代的目标函数,P(s,a)称为行为分布,当损失函数Li(θi)处于优化状态时,前一次迭代的参数θi-1暂时固定,因此损失函数的梯度计算公式可以表示为:/>
在步骤三中:智能体做出动作与环境进行交互时,在状态空间中为每个状态找到当前策略下未来的累积奖励,根据奖励值更新网络参数和学习更优的行为策略,但由于室内环境复杂多变,不定因素较高,同时对周围环境探索要求越高,通常在实际任务中,未来累计奖励折现难于表达,我们改进的奖励函数为:
其中,机器人到达目标点时获得奖励C1(C1>0),发生碰撞时获得奖励C2(C2<0),其他情况下,机器人获得的奖励为K*cosθ/d,其中K是超参数,为机器人做出动作前从机器人所在位置指向目标点位置的向量与机器人行动前后的方向向量的夹角,当θ∈[0,π/2),cosθ>0时,说明机器人做出了靠近目标点的行动,故得到正奖励;当θ=π/2,cosθ=0时,说明机器人既没有靠近目标点,也没有远离目标点,故得到0奖励;当θ∈(π/2,π],cosθ<0时,说明机器人做出了远离目标点的行动,故得到负奖励,d是机器人做出行动之前与目标点的距离,通过欧式距离公式计算得到公式如下:
发生碰撞的情况下,奖励值与距离成反比,因为机器人与目标点之间的距离越远,两者之间存在障碍等不确定因素的概率就越大,所以智能体径直靠近目标点并不一定总是最好的策略,在本文设计的路径规划实验中,机器人每到达一次目标点,则记作一次成功的路径规划,得1分,并继续寻找下一个随机生成的新目标点,当超时或发生碰撞时则游戏结束,如果直到游戏结束机器人都没有到达一个目标点,则记本局得分为0,否则根据该局游戏中机器人到达的目标点数量记录相应的分数。
在步骤四中:通过解耦目标Q值动作的选择和目标Q值的计算,来消除DQN的过估计的问题,即目标Q值最大动作的选择不再依赖目标网络,而是先通过评估网络获取S(t+1)状态下最大的Q值对应的动作A,再从目标网络中获取S(t+1)状态下动作A对应的Q值,来进行Q函数的更新,其中经典算法中Q值的更新方式为:
Q(s,a)=λ*Q(s,a)+(1-λ)*E(s,a)
E(s,a)是在Q(s,a)上乘以一个概率,其计算方式如下列公式:
E(s,a)=Q(s,a)*P(s,a)
P(s,a)计算公式为:其中,P(s,a)是指在状态s下选择动作a的概率,N为在状态s下已经选择过动作a的次数,由其计算方式可知在状态s下选择动作a的次数越多,即N越大,P(s,a)就越小,从而E(s,a)就越小,最后的Q(s,a)总值就越小,而本发明的改进方法增加了一个辅助函数MA(s,a),用于存储前一次迭代时得到的对最大期望Q值的估计,通过使用当前估计QB(s,a)和前一次的估计MA(s,a)更新QA(s,a),Q值的更新规则为:
其中,s′表示下一状态,n表示历更新状态动作对(s,a)的次数,Rn表示获得的及时奖励值,aA(s,a),为学习率为了便于算法描述,对上式进行合并,得到:
新改进的Q值选择方法,可以避免在迭代初期由单估计器造成智能体过估计的问题,从而提升智能,减少机器人在训练时进入重复状态的次数,使其能更好的探索新的状态,同时提高了网络收敛的速度并优化了路径规划的效果。
在步骤五中:首先使用深度神经网络表示智能体的各种组件这些网络的参数通过梯度下降来训练,最小化损失函数,更新的梯度由式由对参数θ求导得到:
为防止梯度爆炸,需要将梯度裁剪至[-1,1]区间内,对于大于1的误差将其置为1,小于-1的将其置为-1。
通过使用卷识神经网络来近似拟合给定状态S的动作值,在每个步骤中,智能体都会根据当前状态选择一个动作值,并将转换(St,At,Rt+1,γt+1,St+1)添加到经验回放缓中区,该缓中区保存经验,采用随机梯度下降法对神经网络参数进行优化,最小化损失函数为:
其中t是从经验回放池中随机选取的时间步长,损失的梯度仅反向传播到策略网络的参数中(也用于选择动作),θ表示目标网络的参数。
其次,运用基于优先级重放机制的经验重放,其核心是按照样本的优先级执行小批量抽样,重放存储器中的样本优先级主要基于DQN中的时间差误差,其表达式为:
P=R+γmax Q^(s′,a)-Q(s,a).
时间差误差越大,预测精度上升空间越大,这说明基于该样本的学习可以更好地提高模型效果,即优先级的值更大。只有在存在时间差误差的情况下才能计算出优先级,sumTree数据结构可以在每次采样后更新优先级p,在重放存储器中,sum'Tree的叶节点用于存储重放存储器中所有样本的P值(优先级),节点对应的样本数据以单一矩阵形式存储,即:data=[s,a,r,Sr+1]。在抽取样本数据的过程中,算法查找叶节点的样本索引,利用索引找到一一对应的样本数据,然后根据sumTree的优先级返回。在某一时间步长,从重放存储器中采样数据,从预测网络中获得当前时间步长的Q值,然后利用目标网络获取下一个时间步的Q值。以Transitions=[st,at,rt,st+1]的结构存储从池中每次探索获得的数据(如果池已满,它将替换过早的数据),在每个学习过程中,从Pool中提取一批数据,按照公式:
对网络进行更新。在每一时期初始,Pool将创建一个新的临时堆栈,随着滑动窗口的推进,堆栈将被过渡数据填充,直到这一时期结束,Pool将把整个堆栈作为一个单元放入其中,训练时,从缓冲区中随机选择一个集数据,然后随机选择集中的某个时刻,选择几个步骤进行学习。
为了解决近似过程中由于贪心优先级函数导致的误差值频繁较高和过拟合问题,运用纯贪心抽样与均匀分布抽样混合的随机抽样方法。这可以保证在过渡优先级中采样的概率是单调的。即使对于优先级最低的转换,也必须保证非零概率,抽样概率定义为:
其中,pi是第i个过渡的优先级,a用于调整优先级。
在步骤六中:在智能体端,动作选择由策略元给出,根据当前状态和动作预测下一个状态和期望奖励,策略t定义每个状态的动作概率分布。在t时刻,状态为St,我们定义折扣回报函数:
为智能体计算未来奖励的折扣总和,其中,未来奖励的折扣由该时间之前的折扣乘积给出,即:
从给定状态开始执行策略π时,预期折扣受益为:
vπ(s)=Eπ[Gt∣St=s],
状态动作价值函数为:
qπ(s,a)=Eπ[Gt∣St=s,At=a]
从状态动作价值函数中导出新策略,以1-∈的概率去价值最高的动作,智能体可以在适当时候发现并纠正当前估计,避免选择次优状态。
通过迭代,所有未来的状态和预期奖励只能从当前状态预测。那么策略π可以定义为从状态到动作概率分布的映射,即π:s=p(A=a∣s),当存在策略时,衡量策略是否达到最优状态,衡量策略的关键是机器人获得的未来累积奖励G。
在步骤七中:在网络空间注入噪音,引起网络输出变化,然后根据该变化选择动作,在未来多个时间步内造成复杂的改变,并通过循环神经网络记忆多步变化,使智能体(Agent)做出的决策更具有战略性,首先智能体利用带探索性的噪音进行深度探索以弥补传统策略探索的低效性,先在该时间步内接收多张图片进行平行化处理,卷积处理函数为:其中,D为图片的深度,Xd为输入的短阵,Wd为卷核,b为偏置,C为卷积层输出的特征图伪激活函数,采用线性整流单元(Rectified Linear Unit,ReLU)作为激活函数。
噪音来自于噪音分布,通过方差驱动探索,这使得Agent可以发现大量新状态,提供更加丰富的样本,为决策提供有效信息,噪音由两种组成,第一,独立的高斯音,权重和偏差的噪音是独立的,对于随机噪音矩阵Ψw中的每一个元素ψi w,都是从一个高斯分布中独立产生的,带有噪音的全连接层有p*q+q个噪音变量,第二,可分解的高斯噪音,可分解的高斯噪音减少了噪音变量的个数,生成有p个元素的噪音向量ψi,有q个元素的噪音向量心ψj,并进行如下分解:
其中ψi w,表示两层全连接之间噪音权重矩阵的每个噪音值,ψj b表示输出层偏置矩阵的每个噪音值,f是一个分解函数,网络每一次前向计算时,Agent从噪音分布中采样噪音,通过分布的方差进行探索,在优化之中,Agent根据当前固定的网络参数执行动作,保证Aget可以根据当前噪音分布中采样的噪音做出决策。
其次,使用改进的双层门限循环单元来记忆较长时间步的历史信息,使Agent能够在延迟奖赏的情况下做出合理的决策,其中噪声线性层为:y=(b+wx)+(bnoisy)⊙b+(wnoisy⊙w)x),其中,⊙b和⊙w随机变量,⊙表示元素乘积,然后可以使用该变换来代替标准线y=b+wx。随着时间的推移,网络可以学会忽略声流,但会在状态空间的不同部分以不同的速率这样做,从而允许以自退火的形式进行状态条件探索。
要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物料或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物料或者设备所固有的要素。
尽管已经示出和描述了本发明新型的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明新型的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明新型的范围由所附权利要求及其等同物限定。
Claims (2)
1.一种融合深度神经网络和强化学习方法的路径规划方法,方法至少包括一下步骤:
步骤一:机器人在每个离散时间步内,通过传感器获取环境信息以建立相应的数学模型,由辅助摄像头和传感器构成动态视频监控,显示整个地图以及机器人自身在地图上的位置,之后截取视频监控屏幕的固定帧来表示每个时间步的状态,并输入神经网络。
步骤二:建立当前所处的模拟环境模型,其中神经网络结构为双网络结构,由估计网络和目标网络两部分组成,建立阶段性更新的目标网络,固定目标rt+Qπ(st+1,π(st+1))的值,其中目标网络阶段性地从评估网络中获取参数以实现更新,当前状态作为预测网络的输入,通过预测网络来根据当前的状态估计动作空间中所有动作值,并协同目标网络的输出值用来计算损失,在返回到下一个时间步的状态后,选择重放计算值,存储在重放存储器中。
步骤三:在强化学习过程中,智能体做出动作与环境进行交互,在状态空间中为每个状态找到当前策略下未来的累积奖励,寻找长期的累积奖励后,根据奖励值更新网络参数和学习更优的行为策略。
步骤四:解耦目标Q值动作的选择和目标Q值的计算,来消除DQN的过估计的问题。
步骤五:使用深度神经网络表示智能体的各种组件这些网络的参数通过梯度下降来训练,最小化损失函数。
步骤六:通过迭代,所有未来的状态和预期奖励只能从当前状态预测。
步骤七:根据添加噪音引起的网络输出值变化选择动作,并通过循环神经网络记忆多步变化影响智能体的决策。
2.根据权利要求1所述的一种融合深度神经网络和强化学习方法的路径规划方法,其特征在于:
在步骤一中:机器人在每个离散时间步t=0,1,2...n内,通过传感器获取环境信息以建立相应的数学模型,由辅助摄像头和传感器构成动态视频监控以显示整个地图以及机器人自身在地图上的位置,之后截取视频监控屏幕的固定帧来表示每个时间步的状态,并输入神经网络,机器人在每个时间步长的状态将用环境中的一帧图像来表示,其中状态决策可以以下公式表示:MDP=(S,A,Psa,R),其中,S是状态空间,Si是第i个时间步的状态,S={s1,S2,…,Sn},A是动作空间,其中,A={a1,a2,…,an},Psa是状态转移概率,表示动作执行后状态s过渡到另一状态s'过程中的概率分布a,R为奖励函数,r为行动a后将s转移到s’所获得的奖励,其中r=R(s,a),在确定当前状态后,机器人搜索的路径规划在于能够从地图上的起点自动找到目的地,并规划出最优路径。
在步骤二中:当主程序达到当前环境状态时,构造当前所处的模拟环境模型,建立神经网络结构(双网络结构——预测网络和目标网络,首先初始化目标网络的参数,使其与预测网络保持一致,当前状态s作为预测网络的输入,将输出一个Q值,Q值最大的索引作为当前的动作值a,环境接收到动作值a,返回到下一个时间步的状态s’后,创建[st,a,r,st+i]这样的形式进行存储,值的计算分成两个部分,一部分是状态转移产生的,一部分是执行动作产生的,这样能够更好的关注在某一状态下选择不同动作所带来的差异,其中,使用函数逼近器来估计动作值函数,函数为:
其中,s和a分别表示第t个时间步的状态和奖励,π表示当前策略,只有在Q(s,a)已知的情况下,argmaxQa(s,a)才能找到每个状态下的最优策略。神经函数逼近器权值为,可以通过最小化损失函数Li(θi)来训练,该函数在每次迭代中都会发生变化,Li(θi)的表达式为:
Li(θi)=Es,a~p(s,a)[(yi-Q(s,a;θi))2]
其中,为每次迭代的目标函数,P(s,a)称为行为分布,当损失函数Li(θi)处于优化状态时,前一次迭代的参数θi-1暂时固定,因此损失函数的梯度计算公式可以表示为:/>
在步骤三中:智能体做出动作与环境进行交互时,在状态空间中为每个状态找到当前策略下未来的累积奖励,根据奖励值更新网络参数和学习更优的行为策略,但由于室内环境复杂多变,不定因素较高,同时对周围环境探索要求越高,通常在实际任务中,未来累计奖励折现难于表达,我们改进的奖励函数为:
其中,机器人到达目标点时获得奖励C1(C1>0),发生碰撞时获得奖励C2(C2<0),其他情况下,机器人获得的奖励为K*cosθ/d,其中K是超参数,为机器人做出动作前从机器人所在位置指向目标点位置的向量与机器人行动前后的方向向量的夹角,当θ∈[0,π/2),cosθ>0时,说明机器人做出了靠近目标点的行动,故得到正奖励;当θ=π/2,cosθ=0时,说明机器人既没有靠近目标点,也没有远离目标点,故得到0奖励;当θ∈(π/2,π],cosθ<0时,说明机器人做出了远离目标点的行动,故得到负奖励,d是机器人做出行动之前与目标点的距离,通过欧式距离公式计算得到公式如下:
在步骤四中:通过解耦目标Q值动作的选择和目标Q值的计算,来消除DQN的过估计的问题,即目标Q值最大动作的选择不再依赖目标网络,而是先通过评估网络获取S(t+1)状态下最大的Q值对应的动作A,再从目标网络中获取S(t+1)状态下动作A对应的Q值,来进行Q函数的更新,其中经典算法中Q值的更新方式为:
Q(s,a)=λ*Q(s,a)+(1-λ)*E(s,a)
E(s,a)是在Q(s,a)上乘以一个概率,其计算方式如下列公式:
E(s,a)=Q(s,a)*P(s,a)
P(s,a)计算公式为:其中,P(s,a)是指在状态s下选择动作a的概率,N为在状态s下已经选择过动作a的次数,由其计算方式可知在状态s下选择动作a的次数越多,即N越大,P(s,a)就越小,从而E(s,a)就越小,最后的Q(s,a)总值就越小,而本发明的改进方法增加了一个辅助函数MA(s,a),用于存储前一次迭代时得到的对最大期望Q值的估计,通过使用当前估计QB(s,a)和前一次的估计MA(s,a)更新QA(s,a),Q值的更新规则为:
其中,表示下一状态,n表示历更新状态动作对(s,a)的次数,Rn表示获得的及时奖励值,aA(s,a),为学习率为了便于算法描述,对上式进行合并,得到:
在步骤五中:首先使用深度神经网络表示智能体的各种组件这些网络的参数通过梯度下降来训练,最小化损失函数,更新的梯度由式由对参数θ求导得到:
为防止梯度爆炸,需要将梯度裁剪至[-1,1]区间内,对于大于1的误差将其置为1,小于-1的将其置为-1。
通过使用卷识神经网络来近似拟合给定状态S的动作值,在每个步骤中,智能体都会根据当前状态选择一个动作值,并将转换(St,At,Rt+1,γt+1,St+1)添加到经验回放缓中区,该缓中区保存经验,采用随机梯度下降法对神经网络参数进行优化,最小化损失函数为:
其中t是从经验回放池中随机选取的时间步长,损失的梯度仅反向传播到策略网络的参数中(也用于选择动作),θ表示目标网络的参数。
其次,运用基于优先级重放机制的经验重放,其核心是按照样本的优先级执行小批量抽样,重放存储器中的样本优先级主要基于DQN中的时间差误差(TD-error)(目标Q值减去预测Q值),其表达式为:
P=R+γmaxQ^(s′,a)-Q(s,a).
时间差误差越大,预测精度上升空间越大,这说明基于该样本的学习可以更好地提高模型效果,即优先级的值更大。只有在存在时间差误差的情况下才能计算出优先级,sumTree数据结构可以在每次采样后更新优先级p,在重放存储器中,sum'Tree的叶节点用于存储重放存储器中所有样本的P值(优先级),节点对应的样本数据以单一矩阵形式存储,即:data=[s,a,r,Sr+1]。在抽取样本数据的过程中,算法查找叶节点的样本索引,利用索引找到一一对应的样本数据,然后根据sumTree的优先级返回。在某一时间步长,从重放存储器中采样数据,从预测网络中获得当前时间步长的Q值,然后利用目标网络获取下一个时间步的Q值。以Transitions=[st,at,rt,st+1]的结构存储从池中每次探索获得的数据(如果池已满,它将替换过早的数据),在每个学习过程中,从Pool中提取一批数据,按照公式:
L(w)=E[(r+γmaxa′Q(s′,a′,w)-Q(s,a,w))2]
为了解决近似过程中由于贪心优先级函数导致的误差值频繁较高和过拟合问题,运用纯贪心抽样与均匀分布抽样混合的随机抽样方法。这可以保证在过渡优先级中采样的概率是单调的。即使对于优先级最低的转换,也必须保证非零概率,抽样概率定义为:
其中,pi是第i个过渡的优先级,a用于调整优先级。
在步骤六中:在智能体端,动作选择由策略元给出,根据当前状态和动作预测下一个状态和期望奖励,策略t定义每个状态的动作概率分布。在t时刻,状态为St,我们定义折扣回报函数:
为智能体计算未来奖励的折扣总和,其中,未来奖励的折扣由该时间之前的折扣乘积给出,即:
从给定状态开始执行策略π时,预期折扣受益为:
vπ(s)=Eπ[Gt∣St=s],
状态动作价值函数为:
qπ(s,a)=Eπ[Gt∣St=s,At=a]
从状态动作价值函数中导出新策略,以1-∈的概率去价值最高的动作,智能体可以在适当时候发现并纠正当前估计,避免选择次优状态。
通过迭代,所有未来的状态和预期奖励只能从当前状态预测。那么策略π可以定义为从状态到动作概率分布的映射,即π:s=p(A=a∣s),当存在策略时,衡量策略是否达到最优状态,衡量策略的关键是机器人获得的未来累积奖励G。
在步骤七中:在网络空间注入噪音,引起网络输出变化,然后根据该变化选择动作,在未来多个时间步内造成复杂的改变,并通过循环神经网络记忆多步变化,使智能体(Agent)做出的决策更具有战略性,首先智能体利用带探索性的噪音进行深度探索以弥补传统策略探索的低效性,先在该时间步内接收多张图片进行平行化处理,卷积处理函数为:其中,D为图片的深度,Xd为输入的短阵,Wd为卷核,b为偏置,C为卷积层输出的特征图伪激活函数,采用线性整流单元(Rectified Linear Unit,ReLU)作为激活函数。
噪音来自于噪音分布,通过方差驱动探索,这使得Agent可以发现大量新状态,提供更加丰富的样本,为决策提供有效信息,噪音由两种组成,第一,独立的高斯音,权重和偏差的噪音是独立的,对于随机噪音矩阵Ψw中的每一个元素ψi w,都是从一个高斯分布中独立产生的,带有噪音的全连接层有p*q+q个噪音变量,第二,可分解的高斯噪音,可分解的高斯噪音减少了噪音变量的个数,生成有p个元素的噪音向量ψi,有q个元素的噪音向量心ψj,并进行如下分解:
其中ψi w,表示两层全连接之间噪音权重矩阵的每个噪音值,ψj b表示输出层偏置矩阵的每个噪音值,f是一个分解函数,网络每一次前向计算时,Agent从噪音分布中采样噪音,通过分布的方差进行探索,在优化之中,Agent根据当前固定的网络参数执行动作,保证Aget可以根据当前噪音分布中采样的噪音做出决策。
其次,使用改进的双层门限循环单元来记忆较长时间步的历史信息,使Agent能够在延迟奖赏的情况下做出合理的决策,其中噪声线性层为:y=(b+wx)+(bnoisy)⊙b+(wnoisy⊙w)x),其中,⊙b和⊙w随机变量,⊙表示元素乘积,然后可以使用该变换来代替标准线y=b+wx。随着时间的推移,网络可以学会忽略声流,但会在状态空间的不同部分以不同的速率这样做,从而允许以自退火的形式进行状态条件探索。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310415309.6A CN116448117A (zh) | 2023-04-18 | 2023-04-18 | 一种融合深度神经网络和强化学习方法的路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310415309.6A CN116448117A (zh) | 2023-04-18 | 2023-04-18 | 一种融合深度神经网络和强化学习方法的路径规划方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116448117A true CN116448117A (zh) | 2023-07-18 |
Family
ID=87119787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310415309.6A Pending CN116448117A (zh) | 2023-04-18 | 2023-04-18 | 一种融合深度神经网络和强化学习方法的路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116448117A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117041068A (zh) * | 2023-07-31 | 2023-11-10 | 广东工业大学 | 一种深度强化学习的可靠性感知服务装配集成方法及系统 |
CN116910490B (zh) * | 2023-09-08 | 2023-12-15 | 山东建筑大学 | 农业大棚环境调节方法、装置、设备及介质 |
CN117474295A (zh) * | 2023-12-26 | 2024-01-30 | 长春工业大学 | 一种基于Dueling DQN算法的多AGV负载均衡与任务调度方法 |
CN117692174A (zh) * | 2023-11-22 | 2024-03-12 | 江苏泓鑫科技有限公司 | 一种基于人工智能的零信任动态身份验证和授权方法 |
CN117749625A (zh) * | 2023-12-27 | 2024-03-22 | 融鼎岳(北京)科技有限公司 | 基于深度q网络的网络性能优化系统和方法 |
CN117873096A (zh) * | 2024-01-15 | 2024-04-12 | 辽宁工业大学 | 一种移动机器人动态避障方法、系统、设备及介质 |
CN117908456A (zh) * | 2024-03-20 | 2024-04-19 | 国能大渡河检修安装有限公司 | 基于深度学习的水电站启闭机监控方法及系统 |
CN117933666A (zh) * | 2024-03-21 | 2024-04-26 | 壹号智能科技(南京)有限公司 | 一种密集仓储机器人调度方法、装置、介质、设备及系统 |
CN117933673A (zh) * | 2024-03-22 | 2024-04-26 | 广东电网有限责任公司湛江供电局 | 线路巡视的规划方法、装置和线路巡视规划系统 |
CN118087339A (zh) * | 2024-04-23 | 2024-05-28 | 四川锦城建筑机械有限责任公司 | 一种路面施工整平机器人及施工方法 |
CN118200135A (zh) * | 2024-05-16 | 2024-06-14 | 四川省光为通信有限公司 | 使用深度强化学习优化aoc光模块传输性能的方法 |
-
2023
- 2023-04-18 CN CN202310415309.6A patent/CN116448117A/zh active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117041068A (zh) * | 2023-07-31 | 2023-11-10 | 广东工业大学 | 一种深度强化学习的可靠性感知服务装配集成方法及系统 |
CN116910490B (zh) * | 2023-09-08 | 2023-12-15 | 山东建筑大学 | 农业大棚环境调节方法、装置、设备及介质 |
CN117692174A (zh) * | 2023-11-22 | 2024-03-12 | 江苏泓鑫科技有限公司 | 一种基于人工智能的零信任动态身份验证和授权方法 |
CN117474295A (zh) * | 2023-12-26 | 2024-01-30 | 长春工业大学 | 一种基于Dueling DQN算法的多AGV负载均衡与任务调度方法 |
CN117474295B (zh) * | 2023-12-26 | 2024-04-26 | 长春工业大学 | 一种基于Dueling DQN算法的多AGV负载均衡与任务调度方法 |
CN117749625A (zh) * | 2023-12-27 | 2024-03-22 | 融鼎岳(北京)科技有限公司 | 基于深度q网络的网络性能优化系统和方法 |
CN117873096B (zh) * | 2024-01-15 | 2024-07-12 | 辽宁工业大学 | 一种移动机器人动态避障方法、系统、设备及介质 |
CN117873096A (zh) * | 2024-01-15 | 2024-04-12 | 辽宁工业大学 | 一种移动机器人动态避障方法、系统、设备及介质 |
CN117908456A (zh) * | 2024-03-20 | 2024-04-19 | 国能大渡河检修安装有限公司 | 基于深度学习的水电站启闭机监控方法及系统 |
CN117933666A (zh) * | 2024-03-21 | 2024-04-26 | 壹号智能科技(南京)有限公司 | 一种密集仓储机器人调度方法、装置、介质、设备及系统 |
CN117933673A (zh) * | 2024-03-22 | 2024-04-26 | 广东电网有限责任公司湛江供电局 | 线路巡视的规划方法、装置和线路巡视规划系统 |
CN118087339A (zh) * | 2024-04-23 | 2024-05-28 | 四川锦城建筑机械有限责任公司 | 一种路面施工整平机器人及施工方法 |
CN118087339B (zh) * | 2024-04-23 | 2024-07-30 | 四川锦城建筑机械有限责任公司 | 一种路面施工整平机器人及施工方法 |
CN118200135A (zh) * | 2024-05-16 | 2024-06-14 | 四川省光为通信有限公司 | 使用深度强化学习优化aoc光模块传输性能的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116448117A (zh) | 一种融合深度神经网络和强化学习方法的路径规划方法 | |
WO2021208771A1 (zh) | 强化学习的方法和装置 | |
CN112668235B (zh) | 基于离线模型预训练学习的ddpg算法的机器人控制方法 | |
CN112937564B (zh) | 换道决策模型生成方法和无人车换道决策方法及装置 | |
CN110515303B (zh) | 一种基于ddqn的自适应动态路径规划方法 | |
CN111260027B (zh) | 一种基于强化学习的智能体自动决策方法 | |
CN112362066A (zh) | 一种基于改进的深度强化学习的路径规划方法 | |
CN110919659A (zh) | 一种基于ddgpes的机器人控制方法 | |
CN111768028B (zh) | 一种基于深度强化学习的gwlf模型参数调节方法 | |
CN113276852B (zh) | 一种基于最大熵强化学习框架的无人驾驶车道保持方法 | |
CN114839884B (zh) | 一种基于深度强化学习的水下航行器底层控制方法及系统 | |
CN112598137A (zh) | 一种基于改进的Q-learning的最优决策方法 | |
CN116225046A (zh) | 基于深度强化学习的未知环境下无人机自主路径规划方法 | |
Bhatia et al. | Tuning the hyperparameters of anytime planning: A metareasoning approach with deep reinforcement learning | |
CN117750436B (zh) | 一种移动边缘计算场景中的安全服务迁移方法及系统 | |
CN112613608A (zh) | 一种强化学习方法及相关装置 | |
Bloembergen et al. | Lenient frequency adjusted Q-learning | |
Jiang et al. | Action candidate based clipped double q-learning for discrete and continuous action tasks | |
CN117520956A (zh) | 一种基于强化学习和元学习的两阶段自动化特征工程方法 | |
CN117010482A (zh) | 一种基于双经验池优先采样和DuelingDQN实现的策略方法 | |
CN116596059A (zh) | 一种基于优先级经验共享的多智能体强化学习方法 | |
CN116128028A (zh) | 一种连续决策空间组合优化的高效深度强化学习算法 | |
CN116639124A (zh) | 一种基于双层深度强化学习的自动驾驶车辆换道方法 | |
CN115660052A (zh) | 一种融合后见之明思想的群体智能学习方法 | |
CN111539989B (zh) | 基于优化方差下降的计算机视觉单目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |