CN116824303A - 基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法 - Google Patents

基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法 Download PDF

Info

Publication number
CN116824303A
CN116824303A CN202310820388.9A CN202310820388A CN116824303A CN 116824303 A CN116824303 A CN 116824303A CN 202310820388 A CN202310820388 A CN 202310820388A CN 116824303 A CN116824303 A CN 116824303A
Authority
CN
China
Prior art keywords
network
damage
navigation
information
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310820388.9A
Other languages
English (en)
Other versions
CN116824303B (zh
Inventor
李惠
徐阳
胡澍东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202310820388.9A priority Critical patent/CN116824303B/zh
Publication of CN116824303A publication Critical patent/CN116824303A/zh
Application granted granted Critical
Publication of CN116824303B publication Critical patent/CN116824303B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提出基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法,所述方法包括步骤一:融合结构损伤信息的虚拟环境建模,步骤二:搭建视觉导航深度强化学习框架,步骤三:设计基于卷积神经网络的视觉特征提取模块,步骤四:设计基于长短期记忆网络的导航记忆模块,步骤五:设计后继通用表征模块,对值网络进行解耦,步骤六:建立融合视觉‑深度多模态信息和多辅助任务联合学习的视觉导航模型。所提出的场景融合方法同样适用于智能体与其他工程学科交叉场景构建。

Description

基于损伤驱动和多模态多任务学习的结构巡检智能体导航 方法
技术领域
本发明直接所属的研究领域包括结构健康监测、计算机视觉、深度学习,可以直接应用的技术领域包括智能建造、智慧基础设施、智慧运维等,尤其涉及基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法。
背景技术
地震给土木工程结构带来了不同程度的损伤,对在地震中受损的建筑结构进行损伤检测具有重要的意义,可以进一步评估建筑结构的受损状态和安全性、评估经济损失以及为后续的恢复和重建提供重要依据。对于震后的建筑结构内侧的损伤状态评估,传统的基于计算机视觉的检测方法依赖于人工采集图像信息,这样的采集方法缺乏安全性且成本昂贵。
本发明的研究目的是提供解决建筑结构内部损伤扫描式检测智能体导航方案,进而实现安全、智能化的结构健康巡检。智能体和机器人涵盖了环境感知、路径规划、机械结构、运动控制等等核心技术,智能体和机器人可以实现感知、决策、运动、执行任务,近年来与多种学科交叉,尤其是在医学、自动驾驶、航空航天等领域,取得了显著成就。例如,波士顿动力公司研发的机器人“SpotMini”具有强大的感知能力、运动能力,最大负重15kg,可以完成一般的巡逻任务和货物搬运工作。特斯拉公司研发的人形机器人TeslaBot,通过力反馈实现机身平衡,依据计算机视觉进行环境感知、人机交互。智能体和机器人带来人们生活的巨大改变,也在逐渐改变了未来的工业发展,与土木工程行业的交叉发展是必然趋势。然而,现有的土木工程巡检智能体或机器人视觉导航方法存在以下难题:
(1)目前普遍采用的智能体导航虚拟环境之中缺乏土木工程结构的损伤信息,难以实现虚拟环境与所收集的结构损伤图像数据集之间的交互建模。
(2)深度强化学习方法需要的训练回合数往往在数百万甚至千万量级,在真实系统上采集如此庞大体量的交互信息是几乎无法实现的,亟需创建适用于土木工程结构智能巡检导航的虚拟环境。
(3)基于传统深度强化学习的视觉导航方法缺乏长期记忆功能,难以在陌生环境下保证泛化能力。
(4)传统视觉导航方法大都仅仅依赖于视觉感知信息,而缺乏深度信息等多模态信息融合,在视觉表象干扰场景下的模型稳定性有待提高。
发明内容
针对现有技术的技术问题或改进需求,本发明提出了基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法。
本发明是通过以下技术方案实现的,本发明提出基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法,所述方法包括以下步骤:
步骤一:融合结构损伤信息的虚拟环境建模:在AI2THOR实验环境中设计适用于实际场景结构损伤驱动视觉导航任务的训练环境,通过收集实际场景中震后建筑结构的损伤图像信息,将损伤图像融合到AI2THOR的3D环境中,构建带有不同类型结构表观损伤的建筑室内环境;
步骤二:搭建视觉导航深度强化学习框架:搭建结构损伤驱动的视觉导航任务深度强化学习框架,建立结构损伤驱动的深度强化学习视觉导航模型;
步骤三:设计基于卷积神经网络的视觉特征提取模块:所述视觉特征提取模块由预训练深度残差神经网络和基于注意力机制改进的孪生神经网络组成,获得损伤目标图像和智能体观测图像特征;
步骤四:设计基于长短期记忆网络的导航记忆模块,增强对损伤目标和状态信息融合特征的记忆能力;
步骤五:设计后继通用表征模块,对值网络进行解耦,提高泛化能力;
步骤六:建立融合视觉-深度多模态信息和多辅助任务联合学习的视觉导航模型,进一步提高模型的泛化能力和导航性能。
进一步地,步骤一进行融合结构损伤信息的虚拟环境建模,具体包括以下步骤:
步骤一一:建立初始虚拟实验环境;基于AI2THOR的交互式视觉环境,采用Unity3D的室内环境与Tensorflow交互进行智能体训练;
步骤一二:结构损伤信息融合;基于AI2THOR初始室内导航环境,融合建筑损伤信息,适应土木工程结构损伤场景的导航任务需求,将建筑损伤信息添加到3D环境中;
步骤一三:以结构损伤图像作为目标,采集智能体在虚拟环境运动过程中的第一视角图像,为完成结构损伤信息驱动的视觉导航任务奠定数据基础。
进一步地,步骤二搭建视觉导航深度强化学习框架,具体包括以下步骤:
步骤二一:建立损伤驱动的结构巡检智能体视觉导航数学模型;
将智能体在损伤建筑结构内部的运动过程看成是一个部分可观测马尔可夫过程,在损伤驱动视觉导航模型中,智能体获取的是观测图像st和损伤目标的图像信息dg,通过深度学强化学习训练一种导航策略,使得智能体可以获取最大化收益,即能以相对短的路径从起点运动到损伤目标处,并避开环境中的所有障碍物,这个过程的目标是训练一个策略网络:
a~π(st,dg|θ) (1)
式中,a为观测图像st和损伤目标的图像信息dg通过神经网络映射得到的智能体动作,π表示策略网络,θ表示网络参数;
步骤二二:基于A3C网络架构作为深度强化学习的极限模型,训练得到一个值函数网络,用来指导策略网络π的更新;
观测图像st和损伤目标的图像信息dg作为整个网络结构的输入,观测图像st是随着智能体在环境中运动不断变化的实时观测信息,输入图像经过以卷积神经网络为基础的深度学习网络提取高维特征,高维特征输入深度强化学习网络DRL学习智能体的运动策略。
进一步地,步骤三设计基于卷积神经网络的视觉特征提取模块,具体包括以下步骤:
步骤三一:智能体观测图像的位移噪声和转角噪声设置;
为模拟现实世界的观测误差,对在虚拟环境中智能体观测到的第一视角图像进行预处理,获得在同一位置、视角出现轻微偏差时的采样图像;首先对原始观测图像进行等比例放缩,采用224×224的窗口滑动截取K组不同角度观测图像,分辨率即为224×224×3,随机选取作为后续视觉特征提取模块的输入,从而表示实际智能体运动时不可避免产生的误差,在观测的位置上产生位移噪声和转角噪声,增强进一步泛化到现实场景中的导航能力;
步骤三二:采用预训练深度残差网络Resnet50进行视觉特征提取;采用在ImageNet数据集上预训练获得的Resnet50网络参数,截断最后的全局平均池化层,参数在训练过程中固定,减少训练时间;
步骤三三:根据孪生神经网络架构,提取损伤目标和智能体第一视角观测的RGB图像特征;当智能体与损伤环境交互时,将损伤目标以及观测图像输入网络,通过预训练Resnet50计算出损伤目标和智能体观测图像的特征向量,再输入到后续的孪生网络层;
步骤三四:融合注意力机制建立视觉特征提取模块;
损伤目标图像和第一视角观测图像通过预训练Resnet50后得到高维特征,输入中间的孪生层,所述孪生层由注意力层和两个全连接层组成;在上下层之间共享训练参数,有效减少了待学习的参数量,提高模型训练速度,在得到2048维特征向量后,将损伤目标特征向量与观测特征向量沿通道方向进行拼接,作为后续强化学习网络的输入。
进一步地,步骤四设计基于长短期记忆网络的导航记忆模块,具体包括以下步骤:
步骤四一:建立损伤驱动的改进A3C模型架构;
将视觉特征提取模块提取的目标图像和观测图像融合的高维特征作为状态,基于损伤驱动的改进A3C模型进行异步多线程训练,来更新决策所需要的策略网络和价值网络;智能体通过状态信息进行决策,选择最佳的动作策略,执行动作后获得打分以及实时奖励,并更新智能体第一视角观测图像,从而计算新的视觉特征状态,直至导航结束;A3C模型由一个全局网络和并行线程的局部网络组成;
步骤四二:更新损伤驱动的改进A3C模型;
每个线程在独立的导航视觉环境中与环境交互,且局部网络的Actor网络和Critic网络与全局网络相同;每个独立线程中,局部网络中的智能体称为worker,worker从环境中接收状态st,Actor网络会根据当前的状态从离散的动作中选择出最合适的动作at,为worker提供在当前环境中探索的动作,同时Critic网络会根据worker当前步的状态st和动作at给出相应的打分Q值,来评判当前动作的优劣;A3C模型采用在线学习的方式,不依赖于经验池,每个线程独立的与当前环境完成一次交互后,同时更新局部网络和全局网络;
步骤四三:设计基于长短期记忆网络的导航记忆储存器;
视觉特征提取模型对损伤目标图像和智能体观测图像进行了特征提取与融合,得到一个包含目标信息和当前状态信息的高维特征,输入改进的A3C网络;将过去N个时刻的状态信息高维特征融合成一个状态序列,作为融合特征输入到Actor网络,最终得到选择动作的策略;Actor网络由一个长矩期记忆层和全连接层组成;N个时刻的状态序列通过1层特定场景层的全连接层后,输入1层注意力层、1层全连接层和softmax激活层,输出智能体所采取的离散动作的概率,并在训练过程中根据最大概率选择出相应的最佳动作。
进一步地,所述步骤四二具体为:
步骤四二一:共有n个平行线程,每个线程中都有一个worker智能体,在特定的场景导航到特定的损伤目标;
步骤四二二:在某一时刻异步更新的线程中,workerm完成了一个批次的训练,形成了一条完整的导航到目标损伤图像处的轨迹,并用这个轨迹来计算Actor网络和Critic网络的损失值,计算其梯度并更新到全局网络中;
步骤四二三:全局网络通过梯度下降计算新的参数,完成了一次全局网络的更新,并将更新的参数传递给workerm;
步骤四二四:workerm用更新后的策略选择动作,再次完成新批次的导航任务;
步骤四二五:在workerm更新全局网络参数、并更新自身的Actor网络和Critic网络时,其它线程的worker仍然用旧的策略来完成导航任务直至该批次结束,然后以相同的方式更新参数。
进一步地,步骤五中设计后继通用表征模块,具体步骤包括:
步骤五一:在每次的参数更新中,Actor网络的更新目标是基于状态st、动作at的最优化策略,即在该状态下采取该动作相较于其他动作的优势来调整策略,使得具有优势的动作被选择的概率增大;策略损失函数为:
Lp=-∑(logπ(a|st)·A(a,st)+β·H(π(a|st)) (2)
式中,β为权重系数;H(π(a|st)是策略熵、为策略选择的随机性度量,鼓励智能体在训练中随机抽取动作进行探索,避免停滞于局部最优解;A(a,st)为优势函数,近似计算方法为:
A(a,st)≈rt+γ·V(st+1)-V(st) (3)
式中,rt为t时刻做出的动作、与环境交互得到的真实奖励值,γ为奖励折扣系数,V(st+1)为下一步动作后新的状态下Critic网络评估出的Q值;
步骤五二:Critic网络为Actor网络提供动作选择的评判依据,通过最小化网络预测值与真实的奖励之间的误差,不断地更新使得评分更接近于真实值;价值损失函数Lv采用L2损失:
Lv=0.5·∑(Rt-V(st))2 (4)
式中,Rt是智能体与环境交互得到的轨迹计算的累计折扣回报,计算方法为:
步骤五三:除了Actor网络和Critic网络,为增强模型在状态空间中的泛化能力,设计了后继通用表征模块,用于表达在当前策略下、从当前状态转移到下一状态的期望分布;后继通用表征模块的损失函数为:
Lsr=λ·∑(USRt-USR(st))2 (6)
式中,λ是Lsr项的权重系数,USR(st)为后继通用表征模块输出的通用后继表征,USRt是智能体与环境交互得到的轨迹计算的累计真值,计算方法为:
式中,usr为智能体与环境交互得到的轨迹在每一时间步上的真值;
步骤五四:基于后继通用表征的价值网络解耦;
将损伤驱动的视觉导航问题看作是导航至不同类型损伤的决策行为策略合集,通过将奖励值解耦成状态特征与目标权重来实现目标变化后的策略迁移,奖励解耦计算方法为:
rg(st,at,st+1)≈φ(st,at,st+1)Twg≈φ(st+1)Twg (8)
式中,φ(st,at,st+1)为状态特征,wg为与损伤目标有关的权重向量;
进一步将状态价值函数解耦:
对Critic网络拟合的价值函数,解耦为由损伤目标预测的权重向量网络wg(θ)和状态特征预测的网络;由于目标权重向量与导航行程时序无关,因此在LSTM之前输出wg,而状态特征/>与动作前后两个时刻的状态有关,因此与Actor网络相同,其在LSTM之后输出,并与wg进行矩阵相乘得到Critic网络的输出/>从而完成基于后继通用表征的价值网络解耦,Critic网络结构主体上与Actor网络结构相同,对N个时刻的状态特征序列,进行Attention层和LSTM层的处理后,得到后继通用表征的状态特征/>损伤目标图像经过所述视觉特征提取网络处理后得到其对应的高维特征,再通过三层全连接层,输出wg,最终与/>相乘得到最终的状态价值输出。
进一步地,步骤六建立融合视觉-深度多模态信息和多辅助任务联合学习的视觉导航模型,通过融合深度信息和辅助任务学习,实现视觉导航增强,具体步骤包括:
步骤六一:设计深度信息融合模块;
对于智能体与损伤环境交互获取的RGB图像,采用MiDaS模型进行单目深度估计MDE,对于得到的深度图像,设计了图像输入层融合、Resnet50特征层融合以及通过注意力机制融合多种融合方式,通过融合深度信息使得模型同时理解RGB图像和深度信息多模态信息,更好地获得损伤结构环境的空间特征;
通过MiDaS模型计算损伤目标图像与智能体观测图像的深度图,并将原始图像和深度图一并输入到视觉特征提取模块,在Resnet50提取特征后,将RGB特征图与深度特征图融合,得到融合深度信息的损伤目标特征图与观测图像特征图,再通过后续的孪生神经网络计算并融合损伤目标与观测图像的特征向量;此时的特征向量同时包含了图像及其深度信息,有助于学习环境空间中的深度信息,进一步映射到后续的策略网络,帮助智能体选择更优的动作,高效、安全地完成建筑内部导航和损伤智能检测任务;
步骤六二:扩展损伤驱动视觉导航经验池,设计碰撞预测、奖励预测辅助任务;
在模型训练的同时,动态地将导航经验储存在扩展的经验池中,随机抽取经验来进行辅助任务训练,辅助任务与损伤驱动视觉导航任务同时训练,用于增强模型对环境中的碰撞信息、奖励信号的理解;
损伤驱动的视觉导航模型是通过在线学习更新的,即在各个线程中智能体与损伤环境交互时进行学习;而辅助任务的训练需要真值信息,依赖于经验回放,在智能体与环境交互过程中记录产生的经验元组,并通过随机采样打破数据之间的相关性;经验元组的表示方法为:
式中,智能体从s0状态开始,直至导航到损伤目标处,所用时间步为l,从当前状态st执行动作at,得到下一时刻的状态st+1与奖励at+1;为满足于辅助任务设计,将经验池结构进行扩充,收集包含碰撞信息、目标信息、终止信息经验数据,扩展的经验元组信息为:
式中,g为导航经验中的损伤目标,tet为当前时刻的终止信息,表明导航是否终止,ct为当前时刻的碰撞信息,两者的值用0或1表示;在训练过程中,为每一个线程设置一个经验池,经验池的容量为10000条经验,并随着训练进行,经验池会动态更新,新的经验进入经验池中,会挤出最旧的经验,实现动态更新;在辅助任务的训练过程中,会从经验池中随机的抽取经验数据,作为辅助任务的训练和标签;
辅助任务经验池在损伤驱动的导航模型每个线程中收集经验,随着经验池的填充,辅助任务开始随机抽样若干个经验元组进行训练,经验元组作为真值信息监督模型训练,随着主任务的训练进行,经验池更新的经验包含了更准确有效的导航信息,进一步促进辅助任务训练;
步骤六三:设计了分段训练策略;
对于辅助任务网络,在训练初期采用小的碰撞惩罚,便于智能体正向的探索学习;在训练后期增大损失惩罚的权重,从而增强智能体的避障能力。
本发明的有益效果为:
1、针对传统智能体视觉导航模拟环境缺乏实际土木工程结构损伤信息的瓶颈,提出了融合结构损伤信息的虚拟环境建模方法,构建了损伤结构巡检智能体视觉导航环境;
2、所提出的场景融合方法同样适用于智能体与其他工程学科交叉场景构建;
3、针对传统导航方法缺乏陌生场景泛化能力的困难,设计了基于A3C的损伤驱动视觉导航模型,引入Resnet50和注意力机制提取损伤图像和观测图像的高维特征,实现了端到端的损伤驱动视觉导航,在陌生场景下具有较高的导航成功率;
4、针对传统导航方法缺乏长期记忆能力的困难,设计了基于长短期记忆网络的导航记忆模块和基于后继通用表征的值网络解耦模块,缩短了平均导航距离;
5、针对损伤驱动导航模型的多模态信息融合问题,引入了MiDas模块进行RGB图像的深度估计,并采用不同的深度信息融合方法增强了导航模型性能;
6、针对损伤驱动导航模型的多辅助任务融合问题,设计了融合碰撞预测、奖励预测的辅助任务的多任务训练方法,有效提高了导航模型性能,缩短了平均导航距离。
附图说明
图1是基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法流程图。
图2是初始虚拟实验环境导航场景示意图。
图3是建筑室内导航环境的损伤信息融合过程示意图。
图4是融合损伤信息的智能体导航实验环境示意图。
图5是损伤驱动的视觉导航神经网络架构示意图。
图6是基于孪生神经网络架构的损伤目标和观测图像特征提取示意图。
图7是融合注意力机制的视觉特征提取模块架构图。
图8是损伤驱动的改进A3C模型架构图。
图9是损伤驱动的改进A3C模型更新过程示意图。
图10是基于长短期记忆网络的导航记忆储存器示意图。
图11是基于长短期记忆网络记忆储存和后继通用表征的价值网络解耦示意图。
图12是融合深度信息的损伤驱动视觉导航模型架构图。
图13是辅助任务经验池结构示意图。
图14是辅助任务网络结构示意图。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1-图14,本发明提出基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法,所述方法包括以下步骤:
步骤一:融合结构损伤信息的虚拟环境建模:在AI2THOR实验环境中设计适用于实际场景结构损伤驱动视觉导航任务的训练环境,通过收集实际场景中震后建筑结构的损伤图像信息,将损伤图像融合到AI2THOR的3D环境中,构建带有不同类型结构表观损伤的建筑室内环境;
步骤二:搭建视觉导航深度强化学习框架:搭建结构损伤驱动的视觉导航任务深度强化学习框架,建立结构损伤驱动的深度强化学习视觉导航模型;
步骤三:设计基于卷积神经网络的视觉特征提取模块:所述视觉特征提取模块由预训练深度残差神经网络和基于注意力机制改进的孪生神经网络组成,获得损伤目标图像和智能体观测图像特征;
步骤四:设计基于长短期记忆网络的导航记忆模块,增强对损伤目标和状态信息融合特征的记忆能力;
步骤五:设计后继通用表征模块,对值网络进行解耦,提高泛化能力;
步骤六:建立融合视觉-深度多模态信息和多辅助任务联合学习的视觉导航模型,进一步提高模型的泛化能力和导航性能。
步骤一进行融合结构损伤信息的虚拟环境建模,具体包括以下步骤:
步骤一一:建立初始虚拟实验环境;基于AI2THOR(The House OfinteRactions)的交互式视觉环境,采用Unity3D的室内环境与Tensorflow交互进行智能体训练,主要包括分为客厅、厨房、卧室等多类建筑内部导航场景,共计120个不同的房间。部分初始虚拟实验环境导航场景示意图如图2所示;
步骤一二:结构损伤信息融合;基于AI2THOR初始室内导航环境,融合建筑损伤信息,适应土木工程结构损伤场景的导航任务需求,将建筑损伤信息添加到3D环境中,如图3所示;
步骤一三:以结构损伤图像作为目标,采集智能体在虚拟环境运动过程中的第一视角图像,为完成结构损伤信息驱动的视觉导航任务奠定数据基础。
收集建筑结构震后的结构损伤信息,主要包括裂缝、墙体破坏等RGB图像,然后对损伤图像进行尺度放缩和随机定位,将这些信息融合进入不同实验场景中,实现对虚拟导航场景视觉信息的修改,如图4所示。
步骤二搭建视觉导航深度强化学习框架,具体包括以下步骤:
步骤二一:建立损伤驱动的结构巡检智能体视觉导航数学模型;
将智能体在损伤建筑结构内部的运动过程看成是一个部分可观测马尔可夫过程,由于在陌生环境获取足够精确的地图信息十分困难且消耗大量资源,在导航过程中,智能体在任意时刻所采集的信息有限。在损伤驱动视觉导航模型中,智能体获取的是观测图像st和损伤目标的图像信息dg,通过深度学强化学习训练一种导航策略,使得智能体可以获取最大化收益,即能以相对短的路径从起点运动到损伤目标处,并避开环境中的所有障碍物,这个过程的目标是训练一个策略网络:
a~π(st,dg|θ) (1)
式中,a为观测图像st和损伤目标的图像信息dg通过神经网络映射得到的智能体动作,π表示策略网络,θ表示网络参数;
步骤二二:基于A3C网络架构作为深度强化学习的极限模型,训练得到一个值函数网络,用来指导策略网络π的更新;
观测图像st和损伤目标的图像信息dg作为整个网络结构的输入,观测图像st是随着智能体在环境中运动不断变化的实时观测信息,输入图像经过以卷积神经网络为基础(Conv-base)的深度学习网络提取高维特征,高维特征输入深度强化学习网络DRL学习智能体的运动策略,如图5所示。
步骤三设计基于卷积神经网络的视觉特征提取模块,具体包括以下步骤:
步骤三一:智能体观测图像的位移噪声和转角噪声设置;
为模拟现实世界的观测误差,对在虚拟环境中智能体观测到的第一视角图像进行预处理,获得在同一位置、视角出现轻微偏差时的采样图像;首先对原始观测图像进行等比例放缩,采用224×224的窗口滑动截取K组不同角度观测图像,分辨率即为224×224×3,随机选取作为后续视觉特征提取模块的输入,从而表示实际智能体运动时不可避免产生的误差,在观测的位置上产生位移噪声和转角噪声,增强进一步泛化到现实场景中的导航能力;
步骤三二:采用预训练深度残差网络Resnet50进行视觉特征提取;采用在ImageNet数据集上预训练获得的Resnet50网络参数,截断最后的全局平均池化层,参数在训练过程中固定,减少训练时间;
步骤三三:根据孪生神经网络架构,提取损伤目标(target)和智能体第一视角观测(observation)的RGB图像特征;当智能体与损伤环境交互时,将损伤目标(target)以及观测(observation)图像输入网络,通过预训练Resnet50计算出损伤目标和智能体观测图像的特征向量,再输入到后续的孪生网络层,如图6所示;
步骤三四:融合注意力机制建立视觉特征提取模块;
损伤目标图像和第一视角观测图像通过预训练Resnet50后得到高维特征,输入中间的孪生层,所述孪生层由注意力层(Attention层)和两个全连接层(FC层)组成,如图7所示;在上下层之间共享训练参数,有效减少了待学习的参数量,提高模型训练速度,在得到2048维特征向量后,将损伤目标特征向量与观测特征向量沿通道方向进行拼接,作为后续强化学习网络的输入。
步骤四设计基于长短期记忆网络的导航记忆模块,具体包括以下步骤:
步骤四一:建立损伤驱动的改进A3C模型架构;
将视觉特征提取模块提取的目标图像和观测图像融合的高维特征作为状态(state),基于损伤驱动的改进A3C模型进行异步多线程训练,来更新决策所需要的策略网络和价值网络;智能体通过状态信息进行决策,选择最佳的动作策略,执行动作后获得打分以及实时奖励,并更新智能体第一视角观测图像,从而计算新的视觉特征状态,直至导航结束;A3C模型由一个全局网络(global network)和并行线程的局部网络(local network)组成,如图8所示;
步骤四二:更新损伤驱动的改进A3C模型,如图9所示;
每个线程在独立的导航视觉环境中与环境交互,且局部网络的Actor网络和Critic网络与全局网络相同;每个独立线程中,局部网络中的智能体称为worker,worker从环境中接收状态st,Actor网络会根据当前的状态从离散的动作中选择出最合适的动作at,为worker提供在当前环境中探索的动作,同时Critic网络会根据worker当前步的状态st和动作at给出相应的打分Q值,来评判当前动作的优劣;A3C模型采用在线学习的方式,不依赖于经验池,每个线程独立的与当前环境完成一次交互后,同时更新局部网络和全局网络;因此全局网络的参数更新将得益于所有的并行线程,从而加速了训练过程,并提高了稳定性。
步骤四三:设计基于长短期记忆网络的导航记忆储存器,如图10所示;
视觉特征提取模型对损伤目标图像和智能体观测图像进行了特征提取与融合,得到一个包含目标信息和当前状态信息的高维特征,输入改进的A3C网络;将过去N个时刻的状态信息高维特征融合成一个状态序列,作为融合特征输入到Actor网络,最终得到选择动作的策略;Actor网络由一个长矩期记忆层(LSTM层)和全连接层(FC层)组成;N个时刻的状态序列通过1层特定场景层的全连接层(FC层)后,输入1层注意力层(Attention层)、1层全连接层(FC层)和softmax激活层,输出智能体所采取的离散动作的概率,并在训练过程中根据最大概率选择出相应的最佳动作。
所述步骤四二具体为:
步骤四二一:共有n个平行线程,每个线程中都有一个worker智能体,在特定的场景导航到特定的损伤目标;
步骤四二二:在某一时刻异步更新的线程中,worker m完成了一个批次的训练,形成了一条完整的导航到目标损伤图像处的轨迹,并用这个轨迹来计算Actor网络和Critic网络的损失值,计算其梯度并更新到全局网络中;
步骤四二三:全局网络通过梯度下降计算新的参数,完成了一次全局网络的更新,并将更新的参数传递给workerm;
步骤四二四:workerm用更新后的策略选择动作,再次完成新批次的导航任务;
步骤四二五:在workerm更新全局网络参数、并更新自身的Actor网络和Critic网络时,其它线程的worker仍然用旧的策略来完成导航任务直至该批次结束,然后以相同的方式更新参数。
步骤五中设计后继通用表征模块,具体步骤包括:
步骤五一:在每次的参数更新中,Actor网络的更新目标是基于状态st、动作at的最优化策略,即在该状态下采取该动作相较于其他动作的优势来调整策略,使得具有优势的动作被选择的概率增大;策略损失函数为:
Lp=-∑(logπ(a|st)·A(a,st)+β·H(π(a|st)) (2)
式中,β为权重系数;H(π(a|st)是策略熵、为策略选择的随机性度量,鼓励智能体在训练中随机抽取动作进行探索,避免停滞于局部最优解;A(a,st)为优势函数,近似计算方法为:
A(a,st)≈rt+γ·V(st+1)-V(st) (3)
式中,rt为t时刻做出的动作、与环境交互得到的真实奖励值,γ为奖励折扣系数,V(st+1)为下一步动作后新的状态下Critic网络评估出的Q值;
步骤五二:Critic网络为Actor网络提供动作选择的评判依据,通过最小化网络预测值与真实的奖励之间的误差,不断地更新使得评分更接近于真实值;价值损失函数Lv采用L2损失:
Lv=0.5·∑(Rt-V(st))2 (4)
式中,Rt是智能体与环境交互得到的轨迹计算的累计折扣回报,计算方法为:
步骤五三:除了Actor网络和Critic网络,为增强模型在状态空间中的泛化能力,设计了后继通用表征模块,用于表达在当前策略下、从当前状态转移到下一状态的期望分布;后继通用表征模块的损失函数为:
Lsr=λ·∑(USRt-USR(st))2 (6)
式中,λ是Lsr项的权重系数,USR(st)为后继通用表征模块输出的通用后继表征,USRt是智能体与环境交互得到的轨迹计算的累计真值,计算方法为:
式中,usr为智能体与环境交互得到的轨迹在每一时间步上的真值;
步骤五四:基于后继通用表征的价值网络解耦;
将损伤驱动的视觉导航问题看作是导航至不同类型损伤的决策行为策略合集,通过将奖励值解耦成状态特征与目标权重来实现目标变化后的策略迁移,奖励解耦计算方法为:
rg(st,at,st+1)≈φ(st,at,st+1)Twg≈φ(st+1)Twg (8)
式中,φ(st,at,st+1)为状态特征,wg为与损伤目标有关的权重向量;
进一步将状态价值函数解耦:
对Critic网络拟合的价值函数,解耦为由损伤目标预测的权重向量网络wg(θ)和状态特征预测的网络;由于目标权重向量与导航行程时序无关,因此在LSTM之前输出wg,而状态特征/>与动作前后两个时刻的状态有关,因此与Actor网络相同,其在LSTM之后输出,并与wg进行矩阵相乘得到Critic网络的输出/>从而完成基于后继通用表征的价值网络解耦,如图11所示,Critic网络结构主体上与Actor网络结构相同,对N个时刻的状态特征序列,进行Attention层和LSTM层的处理后,得到后继通用表征的状态特征损伤目标图像经过所述视觉特征提取网络处理后得到其对应的高维特征,再通过三层全连接层,输出wg,最终与/>相乘得到最终的状态价值输出。
步骤六建立融合视觉-深度多模态信息和多辅助任务联合学习的视觉导航模型,通过融合深度信息和辅助任务学习,实现视觉导航增强,具体步骤包括:
步骤六一:设计深度信息融合模块;
对于智能体与损伤环境交互获取的RGB图像,采用MiDaS(Multi-Instance DepthAggregation System)模型进行单目深度估计(Monocular Depth Estimation,MDE),对于得到的深度图像,设计了图像输入层融合、Resnet50特征层融合以及通过注意力机制融合多种融合方式,通过融合深度信息使得模型同时理解RGB图像和深度信息多模态信息,更好地获得损伤结构环境的空间特征,如图12所示;
通过MiDaS模型计算损伤目标图像与智能体观测图像的深度图,并将原始图像和深度图一并输入到视觉特征提取模块,在Resnet50提取特征后,将RGB特征图与深度特征图融合,得到融合深度信息的损伤目标特征图与观测图像特征图,再通过后续的孪生神经网络计算并融合损伤目标与观测图像的特征向量;此时的特征向量同时包含了图像及其深度信息,有助于学习环境空间中的深度信息,进一步映射到后续的策略网络,帮助智能体选择更优的动作,高效、安全地完成建筑内部导航和损伤智能检测任务;
步骤六二:扩展损伤驱动视觉导航经验池,设计碰撞预测、奖励预测等辅助任务;
在模型训练的同时,动态地将导航经验储存在扩展的经验池中,随机抽取经验来进行辅助任务训练,辅助任务与损伤驱动视觉导航任务同时训练,用于增强模型对环境中的碰撞信息、奖励信号的理解;
损伤驱动的视觉导航模型是通过在线学习更新的,即在各个线程中智能体与损伤环境交互时进行学习;而辅助任务的训练需要真值信息,依赖于经验回放,在智能体与环境交互过程中记录产生的经验元组(状态、动作、奖励、新状态),并通过随机采样打破数据之间的相关性;经验元组的表示方法为:
式中,智能体从s0状态开始,直至导航到损伤目标处,所用时间步为l,从当前状态st执行动作at,得到下一时刻的状态st+1与奖励at+1;为满足于辅助任务设计,将经验池结构进行扩充,收集包含碰撞信息、目标信息、终止信息等经验数据,扩展的经验元组信息为:
式中,g为导航经验中的损伤目标,tet为当前时刻的终止信息,表明导航是否终止,ct为当前时刻的碰撞信息,两者的值用0或1表示;在训练过程中,为每一个线程设置一个经验池,经验池的容量为10000条经验,并随着训练进行,经验池会动态更新,新的经验进入经验池中,会挤出最旧的经验,实现动态更新;在辅助任务的训练过程中,会从经验池中随机的抽取经验数据,作为辅助任务的训练和标签;
辅助任务经验池在损伤驱动的导航模型每个线程中收集经验,随着经验池的填充,辅助任务开始随机抽样若干个经验元组进行训练,经验元组作为真值信息监督模型训练,随着主任务的训练进行,经验池更新的经验包含了更准确有效的导航信息,进一步促进辅助任务训练,实现了在线和离线方法相结合,提高数据利用率,提高算法的稳定性,并通过合理的辅助任务,帮助模型学习训练,如图13所示;
步骤六三:设计了分段训练策略;
对于辅助任务网络(如图14所示),在训练初期采用小的碰撞惩罚,便于智能体正向的探索学习;在训练后期增大损失惩罚的权重,从而增强智能体的避障能力。
以上对本发明所提出的基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法进行了详细介绍,对本发明的发明内容、权利要求、发明效果和具体实施方式进行了阐述。同时,对于本领域的一般技术人员,依据本发明的思想,对于所采用网络结构的具体形式、模型训练的优化算法及超参数选择、损失函数具体形式、权重系数的具体数值等方面都可以根据实际场景和条件限制而有所改变和调整。因此,相关表述不应理解为对本发明的限制。

Claims (8)

1.基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法,其特征在于,所述方法包括以下步骤:
步骤一:融合结构损伤信息的虚拟环境建模:在AI2THOR实验环境中设计适用于实际场景结构损伤驱动视觉导航任务的训练环境,通过收集实际场景中震后建筑结构的损伤图像信息,将损伤图像融合到AI2THOR的3D环境中,构建带有不同类型结构表观损伤的建筑室内环境;
步骤二:搭建视觉导航深度强化学习框架:搭建结构损伤驱动的视觉导航任务深度强化学习框架,建立结构损伤驱动的深度强化学习视觉导航模型;
步骤三:设计基于卷积神经网络的视觉特征提取模块:所述视觉特征提取模块由预训练深度残差神经网络和基于注意力机制改进的孪生神经网络组成,获得损伤目标图像和智能体观测图像特征;
步骤四:设计基于长短期记忆网络的导航记忆模块,增强对损伤目标和状态信息融合特征的记忆能力;
步骤五:设计后继通用表征模块,对值网络进行解耦,提高泛化能力;
步骤六:建立融合视觉-深度多模态信息和多辅助任务联合学习的视觉导航模型,进一步提高模型的泛化能力和导航性能。
2.根据权利要求1所述的方法,其特征在于:步骤一进行融合结构损伤信息的虚拟环境建模,具体包括以下步骤:
步骤一一:建立初始虚拟实验环境;基于AI2THOR的交互式视觉环境,采用Unity3D的室内环境与Tensorflow交互进行智能体训练;
步骤一二:结构损伤信息融合;基于AI2THOR初始室内导航环境,融合建筑损伤信息,适应土木工程结构损伤场景的导航任务需求,将建筑损伤信息添加到3D环境中;
步骤一三:以结构损伤图像作为目标,采集智能体在虚拟环境运动过程中的第一视角图像,为完成结构损伤信息驱动的视觉导航任务奠定数据基础。
3.根据权利要求2所述的方法,其特征在于:步骤二搭建视觉导航深度强化学习框架,具体包括以下步骤:
步骤二一:建立损伤驱动的结构巡检智能体视觉导航数学模型;
将智能体在损伤建筑结构内部的运动过程看成是一个部分可观测马尔可夫过程,在损伤驱动视觉导航模型中,智能体获取的是观测图像st和损伤目标的图像信息dg,通过深度学强化学习训练一种导航策略,使得智能体可以获取最大化收益,即能以相对短的路径从起点运动到损伤目标处,并避开环境中的所有障碍物,这个过程的目标是训练一个策略网络:
a~π(st,dg|θ) (1)
式中,a为观测图像st和损伤目标的图像信息dg通过神经网络映射得到的智能体动作,π表示策略网络,θ表示网络参数;
步骤二二:基于A3C网络架构作为深度强化学习的极限模型,训练得到一个值函数网络,用来指导策略网络π的更新;
观测图像st和损伤目标的图像信息dg作为整个网络结构的输入,观测图像st是随着智能体在环境中运动不断变化的实时观测信息,输入图像经过以卷积神经网络为基础的深度学习网络提取高维特征,高维特征输入深度强化学习网络DRL学习智能体的运动策略。
4.根据权利要求3所述的方法,其特征在于:步骤三设计基于卷积神经网络的视觉特征提取模块,具体包括以下步骤:
步骤三一:智能体观测图像的位移噪声和转角噪声设置;
为模拟现实世界的观测误差,对在虚拟环境中智能体观测到的第一视角图像进行预处理,获得在同一位置、视角出现轻微偏差时的采样图像;首先对原始观测图像进行等比例放缩,采用224×224的窗口滑动截取K组不同角度观测图像,分辨率即为224×224×3,随机选取作为后续视觉特征提取模块的输入,从而表示实际智能体运动时不可避免产生的误差,在观测的位置上产生位移噪声和转角噪声,增强进一步泛化到现实场景中的导航能力;
步骤三二:采用预训练深度残差网络Resnet50进行视觉特征提取;采用在ImageNet数据集上预训练获得的Resnet50网络参数,截断最后的全局平均池化层,参数在训练过程中固定,减少训练时间;
步骤三三:根据孪生神经网络架构,提取损伤目标和智能体第一视角观测的RGB图像特征;当智能体与损伤环境交互时,将损伤目标以及观测图像输入网络,通过预训练Resnet50计算出损伤目标和智能体观测图像的特征向量,再输入到后续的孪生网络层;
步骤三四:融合注意力机制建立视觉特征提取模块;
损伤目标图像和第一视角观测图像通过预训练Resnet50后得到高维特征,输入中间的孪生层,所述孪生层由注意力层和两个全连接层组成;在上下层之间共享训练参数,有效减少了待学习的参数量,提高模型训练速度,在得到2048维特征向量后,将损伤目标特征向量与观测特征向量沿通道方向进行拼接,作为后续强化学习网络的输入。
5.根据权利要求4所述的方法,其特征在于:步骤四设计基于长短期记忆网络的导航记忆模块,具体包括以下步骤:
步骤四一:建立损伤驱动的改进A3C模型架构;
将视觉特征提取模块提取的目标图像和观测图像融合的高维特征作为状态,基于损伤驱动的改进A3C模型进行异步多线程训练,来更新决策所需要的策略网络和价值网络;智能体通过状态信息进行决策,选择最佳的动作策略,执行动作后获得打分以及实时奖励,并更新智能体第一视角观测图像,从而计算新的视觉特征状态,直至导航结束;A3C模型由一个全局网络和并行线程的局部网络组成;
步骤四二:更新损伤驱动的改进A3C模型;
每个线程在独立的导航视觉环境中与环境交互,且局部网络的Actor网络和Critic网络与全局网络相同;每个独立线程中,局部网络中的智能体称为worker,worker从环境中接收状态st,Actor网络会根据当前的状态从离散的动作中选择出最合适的动作at,为worker提供在当前环境中探索的动作,同时Critic网络会根据worker当前步的状态st和动作at给出相应的打分Q值,来评判当前动作的优劣;A3C模型采用在线学习的方式,不依赖于经验池,每个线程独立的与当前环境完成一次交互后,同时更新局部网络和全局网络;
步骤四三:设计基于长短期记忆网络的导航记忆储存器;
视觉特征提取模型对损伤目标图像和智能体观测图像进行了特征提取与融合,得到一个包含目标信息和当前状态信息的高维特征,输入改进的A3C网络;将过去N个时刻的状态信息高维特征融合成一个状态序列,作为融合特征输入到Actor网络,最终得到选择动作的策略;Actor网络由一个长矩期记忆层和全连接层组成;N个时刻的状态序列通过1层特定场景层的全连接层后,输入1层注意力层、1层全连接层和softmax激活层,输出智能体所采取的离散动作的概率,并在训练过程中根据最大概率选择出相应的最佳动作。
6.根据权利要求5所述的方法,其特征在于:所述步骤四二具体为:
步骤四二一:共有n个平行线程,每个线程中都有一个worker智能体,在特定的场景导航到特定的损伤目标;
步骤四二二:在某一时刻异步更新的线程中,workerm完成了一个批次的训练,形成了一条完整的导航到目标损伤图像处的轨迹,并用这个轨迹来计算Actor网络和Critic网络的损失值,计算其梯度并更新到全局网络中;
步骤四二三:全局网络通过梯度下降计算新的参数,完成了一次全局网络的更新,并将更新的参数传递给workerm;
步骤四二四:workerm用更新后的策略选择动作,再次完成新批次的导航任务;
步骤四二五:在workerm更新全局网络参数、并更新自身的Actor网络和Critic网络时,其它线程的worker仍然用旧的策略来完成导航任务直至该批次结束,然后以相同的方式更新参数。
7.根据权利要求6所述的方法,其特征在于:步骤五中设计后继通用表征模块,具体步骤包括:
步骤五一:在每次的参数更新中,Actor网络的更新目标是基于状态st、动作at的最优化策略,即在该状态下采取该动作相较于其他动作的优势来调整策略,使得具有优势的动作被选择的概率增大;策略损失函数为:
Lp=-∑(logπ(a|st)·A(a,st)+β·H(π(a|st)) (2)
式中,β为权重系数;H(π(a|st)是策略熵、为策略选择的随机性度量,鼓励智能体在训练中随机抽取动作进行探索,避免停滞于局部最优解;A(a,st)为优势函数,近似计算方法为:
A(a,st)≈rt+γ·V(st+1)-V(st) (3)
式中,rt为t时刻做出的动作、与环境交互得到的真实奖励值,γ为奖励折扣系数,V(st+1)为下一步动作后新的状态下Critic网络评估出的Q值;
步骤五二:Critic网络为Actor网络提供动作选择的评判依据,通过最小化网络预测值与真实的奖励之间的误差,不断地更新使得评分更接近于真实值;价值损失函数Lv采用L2损失:
Lv=0.5·∑(Rt-V(st))2 (4)
式中,Rt是智能体与环境交互得到的轨迹计算的累计折扣回报,计算方法为:
步骤五三:除了Actor网络和Critic网络,为增强模型在状态空间中的泛化能力,设计了后继通用表征模块,用于表达在当前策略下、从当前状态转移到下一状态的期望分布;后继通用表征模块的损失函数为:
Lsr=λ·∑(USRt-USR(st))2 (6)
式中,λ是Lsr项的权重系数,USR(st)为后继通用表征模块输出的通用后继表征,USRt是智能体与环境交互得到的轨迹计算的累计真值,计算方法为:
式中,usr为智能体与环境交互得到的轨迹在每一时间步上的真值;
步骤五四:基于后继通用表征的价值网络解耦;
将损伤驱动的视觉导航问题看作是导航至不同类型损伤的决策行为策略合集,通过将奖励值解耦成状态特征与目标权重来实现目标变化后的策略迁移,奖励解耦计算方法为:
rg(st,at,st+1)≈φ(st,at,st+1)Twg≈φ(st+1)Twg (8)式中,φ(st,at,st+1)为状态特征,wg为与损伤目标有关的权重向量;
进一步将状态价值函数解耦:
对Critic网络拟合的价值函数,解耦为由损伤目标预测的权重向量网络wg(θ)和状态特征预测的网络;由于目标权重向量与导航行程时序无关,因此在LSTM之前输出wg,而状态特征/>与动作前后两个时刻的状态有关,因此与Actor网络相同,其在LSTM之后输出,并与wg进行矩阵相乘得到Critic网络的输出/>从而完成基于后继通用表征的价值网络解耦,Critic网络结构主体上与Actor网络结构相同,对N个时刻的状态特征序列,进行Attention层和LSTM层的处理后,得到后继通用表征的状态特征/>损伤目标图像经过所述视觉特征提取网络处理后得到其对应的高维特征,再通过三层全连接层,输出wg,最终与/>相乘得到最终的状态价值输出。
8.根据权利要求7所述的方法,其特征在于:步骤六建立融合视觉-深度多模态信息和多辅助任务联合学习的视觉导航模型,通过融合深度信息和辅助任务学习,实现视觉导航增强,具体步骤包括:
步骤六一:设计深度信息融合模块;
对于智能体与损伤环境交互获取的RGB图像,采用MiDaS模型进行单目深度估计MDE,对于得到的深度图像,设计了图像输入层融合、Resnet50特征层融合以及通过注意力机制融合多种融合方式,通过融合深度信息使得模型同时理解RGB图像和深度信息多模态信息,更好地获得损伤结构环境的空间特征;
通过MiDaS模型计算损伤目标图像与智能体观测图像的深度图,并将原始图像和深度图一并输入到视觉特征提取模块,在Resnet50提取特征后,将RGB特征图与深度特征图融合,得到融合深度信息的损伤目标特征图与观测图像特征图,再通过后续的孪生神经网络计算并融合损伤目标与观测图像的特征向量;此时的特征向量同时包含了图像及其深度信息,有助于学习环境空间中的深度信息,进一步映射到后续的策略网络,帮助智能体选择更优的动作,高效、安全地完成建筑内部导航和损伤智能检测任务;
步骤六二:扩展损伤驱动视觉导航经验池,设计碰撞预测、奖励预测辅助任务;
在模型训练的同时,动态地将导航经验储存在扩展的经验池中,随机抽取经验来进行辅助任务训练,辅助任务与损伤驱动视觉导航任务同时训练,用于增强模型对环境中的碰撞信息、奖励信号的理解;
损伤驱动的视觉导航模型是通过在线学习更新的,即在各个线程中智能体与损伤环境交互时进行学习;而辅助任务的训练需要真值信息,依赖于经验回放,在智能体与环境交互过程中记录产生的经验元组,并通过随机采样打破数据之间的相关性;经验元组的表示方法为:
式中,智能体从s0状态开始,直至导航到损伤目标处,所用时间步为l,从当前状态st执行动作at,得到下一时刻的状态st+1与奖励at+1;为满足于辅助任务设计,将经验池结构进行扩充,收集包含碰撞信息、目标信息、终止信息经验数据,扩展的经验元组信息为:
式中,g为导航经验中的损伤目标,tet为当前时刻的终止信息,表明导航是否终止,ct为当前时刻的碰撞信息,两者的值用0或1表示;在训练过程中,为每一个线程设置一个经验池,经验池的容量为10000条经验,并随着训练进行,经验池会动态更新,新的经验进入经验池中,会挤出最旧的经验,实现动态更新;在辅助任务的训练过程中,会从经验池中随机的抽取经验数据,作为辅助任务的训练和标签;
辅助任务经验池在损伤驱动的导航模型每个线程中收集经验,随着经验池的填充,辅助任务开始随机抽样若干个经验元组进行训练,经验元组作为真值信息监督模型训练,随着主任务的训练进行,经验池更新的经验包含了更准确有效的导航信息,进一步促进辅助任务训练;
步骤六三:设计了分段训练策略;
对于辅助任务网络,在训练初期采用小的碰撞惩罚,便于智能体正向的探索学习;在训练后期增大损失惩罚的权重,从而增强智能体的避障能力。
CN202310820388.9A 2023-07-06 2023-07-06 基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法 Active CN116824303B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310820388.9A CN116824303B (zh) 2023-07-06 2023-07-06 基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310820388.9A CN116824303B (zh) 2023-07-06 2023-07-06 基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法

Publications (2)

Publication Number Publication Date
CN116824303A true CN116824303A (zh) 2023-09-29
CN116824303B CN116824303B (zh) 2024-01-26

Family

ID=88112464

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310820388.9A Active CN116824303B (zh) 2023-07-06 2023-07-06 基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法

Country Status (1)

Country Link
CN (1) CN116824303B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117555306A (zh) * 2024-01-11 2024-02-13 天津斯巴克斯机电有限公司 一种基于数字孪生的多生产线任务自适应调度方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109782600A (zh) * 2019-01-25 2019-05-21 东华大学 一种通过虚拟环境建立自主移动机器人导航系统的方法
US20190266449A1 (en) * 2016-11-04 2019-08-29 Deepmind Technologies Limited Environment navigation using reinforcement learning
CN111256906A (zh) * 2020-02-17 2020-06-09 金陵科技学院 基于堆栈稀疏自编码的多维力传感器的解耦方法
CN112433525A (zh) * 2020-11-16 2021-03-02 南京理工大学 基于模仿学习及深度强化学习的移动机器人导航方法
CN113392584A (zh) * 2021-06-08 2021-09-14 华南理工大学 基于深度强化学习和方向估计的视觉导航方法
CN115993783A (zh) * 2021-10-18 2023-04-21 北京三星通信技术研究有限公司 由智能设备执行的方法及相关设备
CN116242364A (zh) * 2023-03-09 2023-06-09 西安电子科技大学 一种基于深度强化学习的多无人机智能导航方法
CN116263335A (zh) * 2023-02-07 2023-06-16 浙江大学 一种基于视觉与雷达信息融合与强化学习的室内导航方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190266449A1 (en) * 2016-11-04 2019-08-29 Deepmind Technologies Limited Environment navigation using reinforcement learning
CN109782600A (zh) * 2019-01-25 2019-05-21 东华大学 一种通过虚拟环境建立自主移动机器人导航系统的方法
CN111256906A (zh) * 2020-02-17 2020-06-09 金陵科技学院 基于堆栈稀疏自编码的多维力传感器的解耦方法
CN112433525A (zh) * 2020-11-16 2021-03-02 南京理工大学 基于模仿学习及深度强化学习的移动机器人导航方法
CN113392584A (zh) * 2021-06-08 2021-09-14 华南理工大学 基于深度强化学习和方向估计的视觉导航方法
CN115993783A (zh) * 2021-10-18 2023-04-21 北京三星通信技术研究有限公司 由智能设备执行的方法及相关设备
CN116263335A (zh) * 2023-02-07 2023-06-16 浙江大学 一种基于视觉与雷达信息融合与强化学习的室内导航方法
CN116242364A (zh) * 2023-03-09 2023-06-09 西安电子科技大学 一种基于深度强化学习的多无人机智能导航方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘建伟 等: "基于值函数和策略梯度的深度强化学习综述", 计算机学报, vol. 42, no. 6, pages 1406 - 1438 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117555306A (zh) * 2024-01-11 2024-02-13 天津斯巴克斯机电有限公司 一种基于数字孪生的多生产线任务自适应调度方法及系统
CN117555306B (zh) * 2024-01-11 2024-04-05 天津斯巴克斯机电有限公司 一种基于数字孪生的多生产线任务自适应调度方法及系统

Also Published As

Publication number Publication date
CN116824303B (zh) 2024-01-26

Similar Documents

Publication Publication Date Title
WO2021135554A1 (zh) 一种无人车全局路径规划方法和装置
Chen et al. Brain-inspired cognitive model with attention for self-driving cars
Chen et al. Driving with llms: Fusing object-level vector modality for explainable autonomous driving
Cai et al. Vision-based autonomous car racing using deep imitative reinforcement learning
WO2019076044A1 (zh) 移动机器人局部运动规划方法、装置及计算机存储介质
CN106096729A (zh) 一种面向大规模环境中复杂任务的深度策略学习方法
CN116824303B (zh) 基于损伤驱动和多模态多任务学习的结构巡检智能体导航方法
CN114460943B (zh) 服务机器人自适应目标导航方法及系统
Xiao et al. Multigoal visual navigation with collision avoidance via deep reinforcement learning
CN115879535A (zh) 一种自动驾驶感知模型的训练方法、装置、设备和介质
CN112015174A (zh) 一种多agv运动规划方法、装置和系统
CN115016534A (zh) 一种基于记忆增强学习的无人机自主避障导航方法
CN113033118A (zh) 一种基于示范数据强化学习技术的水下航行器自主上浮控制方法
CN116476863A (zh) 基于深度强化学习的自动驾驶横纵向一体化决策方法
CN116300909A (zh) 一种基于信息预处理和强化学习的机器人避障导航方法
CN114626505A (zh) 一种移动机器人深度强化学习控制方法
Sun et al. Event-triggered reconfigurable reinforcement learning motion-planning approach for mobile robot in unknown dynamic environments
CN110039537A (zh) 一种基于神经网络的在线自学习多关节运动规划方法
Liu et al. Cooperative Decision-Making for CAVs at Unsignalized Intersections: A MARL Approach with Attention and Hierarchical Game Priors
CN117406762A (zh) 一种基于分段式强化学习的无人机远程控制算法
CN116679710A (zh) 一种基于多任务学习的机器人避障策略训练与部署方法
CN114594776B (zh) 一种基于层次化和模块化学习的导航避障方法
CN111539292B (zh) 一种用于具现化场景问答任务的动作决策模型及方法
Song et al. Towards efficient exploration in unknown spaces: A novel hierarchical approach based on intrinsic rewards
CN114153216A (zh) 基于深度强化学习和块规划的月面路径规划系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant