CN109799829A - 一种基于自组织映射的机器人群体协同主动感知方法 - Google Patents

一种基于自组织映射的机器人群体协同主动感知方法 Download PDF

Info

Publication number
CN109799829A
CN109799829A CN201910151499.9A CN201910151499A CN109799829A CN 109799829 A CN109799829 A CN 109799829A CN 201910151499 A CN201910151499 A CN 201910151499A CN 109799829 A CN109799829 A CN 109799829A
Authority
CN
China
Prior art keywords
robot
point
self
path
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910151499.9A
Other languages
English (en)
Other versions
CN109799829B (zh
Inventor
刘华平
王华鲜
华容
赵怀林
孙富春
吴莹莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910151499.9A priority Critical patent/CN109799829B/zh
Publication of CN109799829A publication Critical patent/CN109799829A/zh
Application granted granted Critical
Publication of CN109799829B publication Critical patent/CN109799829B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种基于自组织映射的多机器人协同主动感知方法。包括机器人群体按照推算的航迹并通过多旅行商问题模型进行首轮探测,分别形成一个闭环路径;选择到目标观测点的旅行预算时间与实际消耗时间比值最小的机器人作为获胜机器人,通过自组织映射网络算法对获胜机器人的路径点进行迭代计算,得到包含有目标观测点的闭环路径,获胜机器人按照该闭环路径利用深度相机和激光雷达进行当前目标点探测;遍历所有目标点,探测结束。本发明把信息量较大的场景中机器人群体协同感知问题转化为多目标路径规划的多旅行商数学模型,极大地简化了问题的复杂度;采用自组织映射神经网络算法进行机器人路径点的迭代处理,运算复杂度低。

Description

一种基于自组织映射的机器人群体协同主动感知方法
技术领域
本发明属于人工智能领域,是机器学习算法和机器人环境目标探测技术相结合的应用,特别涉及一种基于自组织映射的机器人群体协同主动感知方法。
背景技术
现阶段智能体在环境中的目标感知技术主要是被动地进行环境探测、目标识别与跟踪、实时定位与地图构建等,所涉及的智能体数目多为单个。另一方面,机器人群体的研究领域较多的集中在机器人群体编队、机器人之间的通信机制、多机器人之间的任务分配等方面,在多机器人协同完成任务的方面较少有成果发现。随着人工智能技术的飞速发展,以机器学习为代表的智能算法越来越多地应用于机器人领域。然而,机器学习及当下较为热门的深度学习主要关注于文本、图像、视频等数据的处理;强化学习更多的是训练机器人让其通过不断的试错来进行与环境信息地交互,但这一过程耗时长,运算复杂度较大。当场景较大,机器人需要与环境交互的信息量较多的时候,机器人不能很好地通过强化学习的方法来进行主动目标感知。
路径规划在很多领域有着广泛的应用,因此其技术方法也较为成熟。传统的路径规划算法有模拟退火算法、人工势场法等;基于智能仿生学的蚁群算法、遗传算法等。神经网络算法是人工智能领域中的一种应用及其广泛算法,它主要模拟动物神经网络行为,进行分布式并行信息处理。但它在路径规划中的应用却并不成功,因为路径规划中复杂多变的环境很难用数学公式进行描述,如果用神经网络去预测学习样本分布空间以外的点,其效果难以达到预期。
自组织映射网络是一种神经网络算法,能够通过其输入变量学会检测其规律性和输入变量相互之间的关系,并且根据这些输入变量的信息自适应调整网络,使网络以后的响应与输入变量相适应,不但能学习输入变量的分布情况,还可以学习输入变量的拓扑结构。现阶段主要应用于文本、视频等数据的分类。在路径规划中虽然也有使用,但是针对的是单目标的路径规划。
发明内容
为了解决上述问题,本发明目的是提供一种运算复杂度低且能应用于大场景信息的多机器人协同主动感知方法。基于机器人群体在环境中主动探测,目的是最大限度地收集目标信息,观测点的选择影响最终的信息采集量,因此本发明将机器人群体协同主动感知的问题转化为多目标路径规划的数学模型,以实现机器人群体在最终生成的观测路径上获取到最多的环境信息量。
为了实现上述目的,本发明采用的技术方案是:
本发明提出的一种基于自组织映射的机器人群体协同主动感知方法,
所述机器人群体内各机器人的配置均相同,各机器人上分别搭载有激光雷达与深度相机,其特征在于,所述机器人群体协同主动感知方法包括以下步骤:
(1)参数设置,包括机器人群体的旅行预算时间阈值,自组织映射网络的迭代次数;根据待感知区域设置机器人群体的多个目标点;
(2)建立各机器人的运动学模型并利用该运动学模型进行相应机器人航迹上的所有路径点推算,各机器人的所有路径点构成相应机器人的路径点序列;
(3)在待感知环境中,为每个机器人随机选择一个初始位置,各机器人按照步骤(2)推算的航迹进行首轮探测,探测过程中通过多旅行商问题模型对各机器人的航迹进行修正,形成探测时间最短的航迹并得到对应的路径点序列,经过首轮探测后机器人回到各自的初始位置,分别形成一个闭环路径;在首轮探测过程中,将深度相机收集的图像数据较为丰富的位置作为各机器人的观测点序列,各观测点序列由多个观测点构成,一个目标点对应一个观测点序列,机器人通过各观测点采集相应目标点的特征信息;
(4)对机器人群体,首轮探测后通过深度相机与激光雷达随机确认一个未被感知的目标点作为当前目标点,机器人各自从与当前目标点对应的观测点序列中任意选择一个观测点作为目标观测点,选择到所述目标观测点的旅行预算时间与实际消耗时间比值最小的机器人作为获胜机器人;通过自组织映射网络算法,选择该获胜机器人所在的路径点序列中与所述目标观测点欧氏距离最短的路径点作为获胜路径点,通过自组织映射网络算法的迭代计算,获胜路径点向目标观测点不断靠近,同时保持各路径点之间的拓扑结构不变,直至获胜路径点与目标观测点之间的距离达到设定阈值或者旅行预算时间耗尽,迭代结束,得到包含有目标观测点的闭环路径,获胜机器人按照该闭环路径利用深度相机和激光雷达进行当前目标点探测;
(5)不断重复步骤(4),遍历所有目标点,探测结束。
本发明有如下优点:
(1)本发明把信息量较大的场景中机器人群体协同感知问题转化为多目标路径规划的多旅行商(multi traveling salesman problem,MTSP)数学模型,极大地简化了问题的复杂度,可以放弃建立高纬度的马尔可夫决策表而转化为遍历多个目标点的闭环路径问题;
(2)本发明采用自组织映射神经网络(Self Organizing Maps,SOM)算法进行机器人路径点的迭代处理,运算复杂度低,同时SOM的神经元竞争特性避免了机器人群体在探索目标时陷入局部最优解,使其能在感知过程中不满足于现有的目标点,从而不断探索新的区域;
(3)本发明克服了现阶段只有单机器人进行感知任务的缺陷,并扩大了多机器人的研究领域,为主动感知方案在机器人群体方面的应用提供了一种新的思路。
附图说明
图1为本发明方法实施例所涉及的机器人的结构示意图。
具体实施方式
下面结合附图及实施例对本发明作进一步说明。
本发明提出的一种基于自组织映射的机器人群体协同主动感知方法,图1是本发明所涉及的机器人群体内各机器人的组成部分,各机器人配置均相同,其上均分别搭载有底层驱动板、工控机、无线模块、深度相机和激光雷达。其中,机器人通过深度相机来感知周围环境,激光雷达进行辅助探测,深度相机和激光雷达同步采集,工控机作为机器人的“大脑”,内装有Ubuntu16.04操作系统,搭配ROS-kinetic版本,进行数据处理和控制机器人,底层驱动板控制底层电机的工作,给机器人提供前进的动力。本实施例的机器人中,采用turtlebot3移动机器人作为主体,具有三个全向驱动轮,激光雷达采用思岚公司的RPLIDARA2,深度相机采用Inter RealSense,工控机选择H61DVR型号主板,底层驱动板选用Arduino扩展板,使用zigbee无线模块进行数据传输。
本发明提出的一种基于自组织映射的机器人群体协同主动感知方法,包括以下步骤:
(1)参数设置,包括机器人群体的旅行预算时间阈值,自组织映射网络的迭代次数;根据待感知区域设置机器人群体的多个目标点;
(2)建立各机器人的运动学模型并利用该运动学模型进行相应机器人航迹上的所有路径点推算,各机器人的所有路径点构成相应机器人的路径点序列;
具体地,本实施例采用的机器人的运动学模型为:
其中,V1、V2、V3是机器人三个驱动轮的速度,d是机器人底盘的半径;以机器人底盘圆心为原点,机器人底盘所在平面上任意互为垂直关系的两个方向作为x、y轴建立坐标系,旋转轴与x、y轴满足右手螺旋定则,vx、vy、vθ分别是机器人驱动轮速度在x轴、y轴和旋转轴方向的速度分量;除本实施例所示运动模型外,采用其他常规的运动模型本发明方法同样适用;
根据上述机器人运动模型,通过下式推算机器人航迹:
其中,x,y,θ为机器人底盘当前位姿,dx,dy,dθ分别为x方向位移增量、y方向位移增量、转向角增量,εx,εy,εθ分别为dx,dy,dθ的误差。
根据速度估计迭代最近点(velocity estimation iterative closest point,VICP)方法对推算出的机器人航迹的运动畸变进行去除,矫正后的机器人位姿为:
其中,Si表示在深度相机或激光雷达第i帧时刻机器人的位姿;Δt表示深度相机或激光雷达相邻两帧之间的时间间隔,深度相机和激光雷达同步采集且采集频率相同;dθ表示机器人的转向角增量;n表示深度相机或激光雷达第i帧时刻采集的图像信息内的像素点总数,j表示第i帧时刻采集的图像信息内的像素点编号;Vi表示在深度相机或激光雷达第i帧时刻的机器人速度,计算公式如下:
其中,Ti表示深度相机或激光雷达第i帧时刻的机器人位姿矩阵,表达式如下:
(3)在待感知环境中,为每个机器人随机选择一个初始位置,各机器人按照步骤(2)推算的航迹进行首轮探测,探测过程中通过多旅行商问题模型对各机器人的航迹进行修正,形成探测时间最短的航迹并得到对应的路径点序列,经过首轮探测后机器人回到各自的初始位置,分别形成一个闭环路径;在首轮探测过程中,将深度相机收集的图像数据较为丰富的位置作为各机器人的观测点序列,各观测点序列由多个观测点构成,一个目标点对应一个观测点序列,机器人通过各观测点采集相应目标点的特征信息(该特征信息即通过深度相机和激光雷达采集的图像信息);
其中,操作人员可随机选择每个机器人的初始位置,其选择不受目标点位置距离远近等因素的限制,但是结束点的位置必须和起始点重合,使各机器人的路径分别成为一个闭环;通过深度相机和激光雷达为目标点附近设置一系列观测区域,观测点位于观测区域的内部,机器人的路径点只要在任意一个观测区域内部即可认为观测到目标;路径点序列之间的路径生成原则遵从Dubins曲线,以此保障路径点之间的最短距离。在通过多旅行商问题模型解决多机器人协同主动感知时,其原理是:将多个机器人看作不同的旅行商,将待感知的目标看作旅行商待访问的城市,最终目标是让多个旅行商遍历所有的城市,从而将多机器人协同主动感知问题转化为了多旅行商问题来进行路径规划。
(4)对机器人群体,首轮探测后通过深度相机与激光雷达随机确认一个未被感知的目标点作为当前目标点,机器人各自从与当前目标点对应的观测点序列中任意选择一个观测点作为目标观测点,选择到所述目标观测点的旅行预算时间与实际消耗时间比值最小的机器人作为获胜机器人,表达式如下:
其中,Rr表示最终获胜的机器人,角标r表示该获胜机器人的编号;cq表示编号为q的机器人的旅行预算时间,bq表示编号为q的机器人的旅行实际消耗时间,q=1,2,…,N,N为机器人的总个数;
通过自组织映射网络算法,选择该获胜机器人所在的路径点序列中与所述目标观测点欧氏距离最短的路径点作为获胜路径点,通过自组织映射网络算法的迭代计算,获胜路径点向目标观测点不断靠近,同时保持各路径点之间的拓扑结构不变,直至获胜路径点与目标观测点之间的距离达到设定阈值或者旅行预算时间耗尽,迭代结束,得到包含有目标观测点的闭环路径,获胜机器人按照该闭环路径利用深度相机和激光雷达进行当前目标点探测,其中,深度相机采集机器人周围的环境,生成深度点云数据,激光雷达进行机器人与目标点的距离测量,同时辅助地进行环境测量工作;
本步骤中,利用自组织映射网络算法得到包含有目标观测点的闭环路径的迭代计算,具体实现过程如下:
(4.1)设定变量
将步骤(3)得到的获胜机器人路径点序列作为自组织映射网络的输入变量X=[X1,X2,…,Xm],每个输入变量均为m维向量;设定自组织映射网络的学习率η;
设定各输入变量与相应输出变量(对应于一个神经元)之间的权值向量为ωl(k)[ωl1(k),ωl2(k),…,ωlp(k)],其中l为当前输入变量的元素编号,l=1,2,…,m;p表示输出变量的维度,k为当前与l对应的输出变量的元素,
(4.2)对权值向量使用[1,10]中的随机值进行初始化,并对输入变量和权值向量均进行归一化处理:
其中,||X||、||ωl(k)||分别为输入变量和权值向量的欧几里得范数。
(4.3)将随机抽取的多个输入变量输入自组织映射网络,将输入变量与权值向量的内积值最大的神经元作为输出变量。由于输入变量与权值向量均已归一化,因此求内积最大相当于求欧氏距离最小:
D=||X-ωl(k)||
将欧氏距离D最小的神经元,记为获胜神经元。
(4.4)对获胜神经元拓扑邻域内的其他神经元,使用Konhonen规则对权值向量进行更新:
ωl(k+1)=ωl(k)+η(X-ωl(k))
(4.5)更新自组织映射网络的学习率η及拓扑邻域,并对更新后的权值向量再次进行归一化。其中,学习率和拓扑邻域大小的调整按排序阶段和调整阶段两步来进行:在排序阶段,随着迭代的进行,学习率从0.9下降至0.02,拓扑邻域大小逐渐减少,权值向量根据输入变量进行调整,使权值向量的拓扑结构与更新后输入变量的拓扑结构相适应;在调整阶段,学习率从0.02以更为缓慢的速率下降,拓扑邻域大小保持不变,权值向量在排序阶段确定的拓扑结构上做调整,保证学习的稳定性。
(4.6)判断迭代次数是否达到步骤(1)中预设的最大值,若没有达到最大迭代次数,则转到步骤(4.3),否则迭代结束,输出获胜机器人更新后的路径点序列。
本步骤所采用的自组织映射网络属于无监督学习中聚类算法的一种,无需教师信号,在训练的过程中进行多轮迭代即可;该网络的训练不需要大量的样本集和测试数据,实时性较好;网络迭代的性能可根据实际需要调整学习率。
(5)不断重复步骤(4),遍历所有目标点,探测结束。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (3)

1.一种基于自组织映射的机器人群体协同主动感知方法,所述机器人群体内各机器人的配置均相同,各机器人上分别搭载有激光雷达与深度相机,其特征在于,所述机器人群体协同主动感知方法包括以下步骤:
(1)参数设置,包括机器人群体的旅行预算时间阈值,自组织映射网络的迭代次数;根据待感知区域设置机器人群体的多个目标点;
(2)建立各机器人的运动学模型并利用该运动学模型进行相应机器人航迹上的所有路径点推算,各机器人的所有路径点构成相应机器人的路径点序列;
(3)在待感知环境中,为每个机器人随机选择一个初始位置,各机器人按照步骤(2)推算的航迹进行首轮探测,探测过程中通过多旅行商问题模型对各机器人的航迹进行修正,形成探测时间最短的航迹并得到对应的路径点序列,经过首轮探测后机器人回到各自的初始位置,分别形成一个闭环路径;在首轮探测过程中,将深度相机收集的图像数据较为丰富的位置作为各机器人的观测点序列,各观测点序列由多个观测点构成,一个目标点对应一个观测点序列,机器人通过各观测点采集相应目标点的特征信息;
(4)对机器人群体,首轮探测后通过深度相机与激光雷达随机确认一个未被感知的目标点作为当前目标点,机器人各自从与当前目标点对应的观测点序列中任意选择一个观测点作为目标观测点,选择到所述目标观测点的旅行预算时间与实际消耗时间比值最小的机器人作为获胜机器人;通过自组织映射网络算法,选择该获胜机器人所在的路径点序列中与所述目标观测点欧氏距离最短的路径点作为获胜路径点,通过自组织映射网络算法的迭代计算,获胜路径点向目标观测点不断靠近,同时保持各路径点之间的拓扑结构不变,直至获胜路径点与目标观测点之间的距离达到设定阈值或者旅行预算时间耗尽,迭代结束,得到包含有目标观测点的闭环路径,获胜机器人按照该闭环路径利用深度相机和激光雷达进行当前目标点探测;
(5)不断重复步骤(4),遍历所有目标点,探测结束。
2.根据权利要求1所述的机器人群体协同主动感知方法,其特征在于,步骤(2)的具体实现过程如下:
采用的各机器人的运动学模型为:
其中,V1、V2、V3是机器人三个驱动轮的速度,d是机器人底盘的半径;vx、vy、vθ分别是机器人驱动轮速度在x轴、y轴和旋转轴方向的速度分量;
根据上述机器人运动模型,通过下式推算机器人航迹:
其中,x,y,θ为机器人底盘当前位姿,dx,dy,dθ分别为x方向位移增量、y方向位移增量、转向角增量,εx,εy,εθ分别为dx,dy,dθ的误差;
根据速度估计迭代最近点方法对推算出的机器人航迹的运动畸变进行去除,矫正后的机器人位姿为:
其中,Si表示在深度相机或激光雷达第i帧时刻机器人的位姿;Δt表示深度相机或激光雷达相邻两帧之间的时间间隔,深度相机和激光雷达同步采集且采集频率相同;n表示深度相机或激光雷达第i帧时刻采集的图像信息内的像素点总数,j表示第i帧时刻采集的图像信息内的像素点编号;Vi表示在深度相机或激光雷达第i帧时刻的机器人速度,计算公式如下:
其中,Ti表示深度相机或激光雷达第i帧时刻的机器人位姿矩阵,表达式如下:
3.根据权利要求1或2所述的机器人群体协同主动感知方法,其特征在于,步骤(4)中,利用自组织映射网络算法得到包含有目标观测点的闭环路径的迭代计算,具体实现过程如下:
(4.1)设定变量
将步骤(3)得到的获胜机器人路径点序列作为自组织映射网络的输入变量X=[X1,X2,…,Xm],每个输入变量均为m维向量;设定自组织映射网络的学习率η;
设定各输入变量与相应输出变量之间的权值向量为ωl(k)=[ωl1(k),ωl2(k),…,ωlp(k)],其中l为当前输入变量的元素编号,l=1,2,…,m;p表示输出变量的维度,k为当前与l对应的输出变量的元素;
(4.2)对权值向量使用[1,10]中的随机值进行初始化,并对输入变量和权值向量均进行归一化处理:
其中,||X||、||ωl(k)||分别为输入变量和权值向量的欧几里得范数;
(4.3)将随机抽取的多个输入变量输入自组织映射网络,将输入变量与权值向量的内积值最大的神经元作为输出变量;将欧氏距离D最小的神经元,记为获胜神经元,欧氏距离D的计算公式如下:
D=||X-ωl(k)||
(4.4)对获胜神经元拓扑邻域内的其他神经元,使用Konhonen规则对权值向量进行更新:
ωl(k+1)=ωl(k)+η(X-ωl(k))
(4.5)更新自组织映射网络的学习率η及拓扑邻域,并对更新后的权值向量再次进行归一化;其中,学习率和拓扑邻域大小的调整按排序阶段和调整阶段两步来进行:在排序阶段,随着迭代的进行,学习率和拓扑邻域大小逐渐减少,权值向量根据输入变量进行调整,使权值向量的拓扑结构与更新后输入变量的拓扑结构相适应;在调整阶段,学习率继续减小,拓扑邻域大小保持不变,权值向量在排序阶段确定的拓扑结构上进行调整,保证学习的稳定性;
(4.6)判断迭代次数是否达到步骤(1)中预设的最大值,若没有达到最大迭代次数,则转到步骤(4.3),否则迭代结束,输出获胜机器人更新后的路径点序列。
CN201910151499.9A 2019-02-28 2019-02-28 一种基于自组织映射的机器人群体协同主动感知方法 Active CN109799829B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910151499.9A CN109799829B (zh) 2019-02-28 2019-02-28 一种基于自组织映射的机器人群体协同主动感知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910151499.9A CN109799829B (zh) 2019-02-28 2019-02-28 一种基于自组织映射的机器人群体协同主动感知方法

Publications (2)

Publication Number Publication Date
CN109799829A true CN109799829A (zh) 2019-05-24
CN109799829B CN109799829B (zh) 2020-06-02

Family

ID=66562338

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910151499.9A Active CN109799829B (zh) 2019-02-28 2019-02-28 一种基于自组织映射的机器人群体协同主动感知方法

Country Status (1)

Country Link
CN (1) CN109799829B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110470301A (zh) * 2019-08-13 2019-11-19 上海交通大学 多动态任务目标点下的无人机路径规划方法
CN112649815A (zh) * 2019-10-10 2021-04-13 华为技术有限公司 处理数据的方法和装置
CN113031593A (zh) * 2021-02-25 2021-06-25 上海交通大学 主动感知的任务路径规划方法、系统、机器人及控制器
CN116652956A (zh) * 2023-06-20 2023-08-29 上海微亿智造科技有限公司 一种用于外观检测的拍照路径自适应规划方法及装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102278996A (zh) * 2011-04-29 2011-12-14 西南交通大学 一种大规模多目标智能移动路径选择的蚁群优化处理方法
CN102915465A (zh) * 2012-10-24 2013-02-06 河海大学常州校区 一种基于移动生物刺激神经网络的多机器人联合编队方法
CN102915039A (zh) * 2012-11-09 2013-02-06 河海大学常州校区 一种仿动物空间认知的多机器人联合目标搜寻方法
CN105203097A (zh) * 2015-10-14 2015-12-30 中国矿业大学 一种适用于灾后环境的多机器人多目标点救援路径规划方法
CN105751196A (zh) * 2016-04-12 2016-07-13 华南理工大学 一种基于主从式的工业机器人协作作业方法
CN107150341A (zh) * 2017-06-13 2017-09-12 南京理工大学 一种基于离散粒子群算法的焊接机器人焊接路径规划方法
CN107592604A (zh) * 2017-08-11 2018-01-16 杭州电子科技大学 基于离线模型的无线可充电传感器网络移动数据收集方法
CN107705306A (zh) * 2017-10-26 2018-02-16 中原工学院 一种基于多特征矩阵低秩分解的织物疵点检测方法
CN108564203A (zh) * 2018-03-19 2018-09-21 南京邮电大学 一种并行均衡的多路线规划方法
CN108564163A (zh) * 2018-03-27 2018-09-21 华南理工大学 一种解决多目标多旅行商问题的改进蚁群算法
CN108724188A (zh) * 2018-06-14 2018-11-02 西安电子科技大学 一种多机器人协同运动控制方法
CN109299210A (zh) * 2018-11-06 2019-02-01 哈尔滨工业大学(深圳) 一种基于信息融合的多无人机分布式协同搜索方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102278996A (zh) * 2011-04-29 2011-12-14 西南交通大学 一种大规模多目标智能移动路径选择的蚁群优化处理方法
CN102915465A (zh) * 2012-10-24 2013-02-06 河海大学常州校区 一种基于移动生物刺激神经网络的多机器人联合编队方法
CN102915039A (zh) * 2012-11-09 2013-02-06 河海大学常州校区 一种仿动物空间认知的多机器人联合目标搜寻方法
CN105203097A (zh) * 2015-10-14 2015-12-30 中国矿业大学 一种适用于灾后环境的多机器人多目标点救援路径规划方法
CN105751196A (zh) * 2016-04-12 2016-07-13 华南理工大学 一种基于主从式的工业机器人协作作业方法
CN107150341A (zh) * 2017-06-13 2017-09-12 南京理工大学 一种基于离散粒子群算法的焊接机器人焊接路径规划方法
CN107592604A (zh) * 2017-08-11 2018-01-16 杭州电子科技大学 基于离线模型的无线可充电传感器网络移动数据收集方法
CN107705306A (zh) * 2017-10-26 2018-02-16 中原工学院 一种基于多特征矩阵低秩分解的织物疵点检测方法
CN108564203A (zh) * 2018-03-19 2018-09-21 南京邮电大学 一种并行均衡的多路线规划方法
CN108564163A (zh) * 2018-03-27 2018-09-21 华南理工大学 一种解决多目标多旅行商问题的改进蚁群算法
CN108724188A (zh) * 2018-06-14 2018-11-02 西安电子科技大学 一种多机器人协同运动控制方法
CN109299210A (zh) * 2018-11-06 2019-02-01 哈尔滨工业大学(深圳) 一种基于信息融合的多无人机分布式协同搜索方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PETR VANĚK.ETC: "Multi-goal trajectory planning with motion primitives for hexapod walking robot", 《2014 11TH INTERNATIONAL CONFERENCE ON INFORMATICS IN CONTROL, AUTOMATION AND ROBOTICS (ICINCO)》 *
周昊等: "基于多Agent的多无人机协同决策算法仿真平台设计", 《系统仿真学报》 *
程国建编著: "《神经计算与生长自组织网络》", 31 December 2008 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110470301A (zh) * 2019-08-13 2019-11-19 上海交通大学 多动态任务目标点下的无人机路径规划方法
CN112649815A (zh) * 2019-10-10 2021-04-13 华为技术有限公司 处理数据的方法和装置
CN112649815B (zh) * 2019-10-10 2023-04-11 华为技术有限公司 处理数据的方法和装置
CN113031593A (zh) * 2021-02-25 2021-06-25 上海交通大学 主动感知的任务路径规划方法、系统、机器人及控制器
CN116652956A (zh) * 2023-06-20 2023-08-29 上海微亿智造科技有限公司 一种用于外观检测的拍照路径自适应规划方法及装置
CN116652956B (zh) * 2023-06-20 2024-03-22 上海微亿智造科技有限公司 一种用于外观检测的拍照路径自适应规划方法及装置

Also Published As

Publication number Publication date
CN109799829B (zh) 2020-06-02

Similar Documents

Publication Publication Date Title
CN109799829A (zh) 一种基于自组织映射的机器人群体协同主动感知方法
Deo et al. Trajectory forecasts in unknown environments conditioned on grid-based plans
CN106873585B (zh) 一种导航寻路方法、机器人及系统
CN110883776B (zh) 一种快速搜索机制下改进dqn的机器人路径规划算法
CN108582073A (zh) 一种基于改进的随机路标地图法的机械臂快速避障方法
CN110989352A (zh) 一种基于蒙特卡洛树搜索算法的群体机器人协同搜索方法
Yang et al. Real-time optimal navigation planning using learned motion costs
Wang et al. Visual semantic navigation based on deep learning for indoor mobile robots
Jain et al. From pixels to legs: Hierarchical learning of quadruped locomotion
Yang et al. A digital twins enabled underwater intelligent internet vehicle path planning system via reinforcement learning and edge computing
Li et al. A behavior-based mobile robot navigation method with deep reinforcement learning
Wei et al. Design of robot automatic navigation under computer intelligent algorithm and machine vision
CN111123953B (zh) 人工智能大数据下粒子化移动机器人组及其控制方法
Moon et al. Path planning of cleaning robot with reinforcement learning
Prasetyo et al. Spatial Based Deep Learning Autonomous Wheel Robot Using CNN
Yuan et al. Path-planning-enabled semiflocking control for multitarget monitoring in mobile sensor networks
Wu et al. An adaptive conversion speed Q-learning algorithm for search and rescue UAV path planning in unknown environments
CN114326826B (zh) 多无人机队形变换方法及系统
CN114326821B (zh) 基于深度强化学习的无人机自主避障系统及方法
Wang et al. Multi-objective end-to-end self-driving based on Pareto-optimal actor-critic approach
CN115690343A (zh) 一种基于视觉跟随的机器人激光雷达扫描建图方法
CN115047871A (zh) 动态目标的多无人车协同搜索方法、装置、设备及介质
Wang et al. Research on SLAM road sign observation based on particle filter
Hu et al. An experience aggregative reinforcement learning with multi-attribute decision-making for obstacle avoidance of wheeled mobile robot
Wen et al. A Hybrid Technique for Active SLAM Based on RPPO Model with Transfer Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant