CN114879660B - 一种基于目标驱动的机器人环境感知方法 - Google Patents
一种基于目标驱动的机器人环境感知方法 Download PDFInfo
- Publication number
- CN114879660B CN114879660B CN202210393482.6A CN202210393482A CN114879660B CN 114879660 B CN114879660 B CN 114879660B CN 202210393482 A CN202210393482 A CN 202210393482A CN 114879660 B CN114879660 B CN 114879660B
- Authority
- CN
- China
- Prior art keywords
- information
- poi
- robot
- environment
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000009471 action Effects 0.000 claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 238000005457 optimization Methods 0.000 claims abstract description 11
- 230000008447 perception Effects 0.000 claims abstract description 9
- 238000011156 evaluation Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 13
- 230000006399 behavior Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000003542 behavioural effect Effects 0.000 claims description 2
- 230000003068 static effect Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 11
- 230000002787 reinforcement Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开一种基于目标驱动的机器人环境感知方法,包括如下步骤:实时获取采集的环境信息;基于获取的环境信息更新现场地图和地图中的POI信息,并根据距离有限勘探评价方法从跟新后的POI信息中选择最佳路径点形成最优路径;将感知信息输入基于近端策略优化的深度神经网络中生成行为策略,并根据环境返回的奖赏值进行策略优化,所述感知信息包括环境信息、最优路径和机器人当前状态和动作;根据优化后的行为策略进行运动,直至到达预设的全局目标。本发明在实际中部署更容易,且在复杂的静态和动态环境下,不需要依赖地图或先验信息。
Description
技术领域
本发明涉及机器人导航技术领域,尤其涉及一种基于目标驱动的机器人环境感知方法。
背景技术
几十年来,环境探索和测绘一直是机器人领域的热门研究。随着各种低成本传感器和计算设备的出现,使用多种不同的方法对机器人代理进行实时同时定位与地图构建(Simultaneous LocalizationAnd Mapping,SLAM)已经成为可能。传感器设备如摄像头,二维和三维激光雷达,以及它们的组合不仅用于检测和记录环境,还用于实现机器人的自主定位。然而,为了通过导航获得周围环境的可靠地图信息,大部分已开发的SLAM系统依赖人类的操作或预先描述的计划。
由于深度学习方法的普及和能力的提高,使用神经网络的机器人导航已经被开发出来,机器人能够直接从神经网络输出中执行有意的动作。机器人能够执行直接从神经网络输出获取的决策动作。目前大多数机器人环境探索方法在复杂环境下需要依赖地图或先验信息。然而,由于环境信息是在时间和空间上局部给出的,在全局上使用诸如深度Q学习(Deep QLearning)或者深度确定性策略(Deep Deterministic Policy Gradient)等深度强化学习的方法来进行导航可能会存在局部最优问题。并且由于涉及到安全性、泛化能力、局部最优等问题,它们很难在实践中部署。因此,基于神经网络的方法可以处理模块化任务,但不适合在全局端到端解决方案中实现。
发明内容
为了解决上述技术问题,本发明提出一种基于目标驱动的机器人环境感知方法,在实际中部署更容易,且在复杂的静态和动态环境下,不需要依赖地图或先验信息。
为了达到上述目的,本发明的技术方案如下:
一种基于目标驱动的机器人环境感知方法,包括如下步骤:
实时获取采集的环境信息;
基于获取的环境信息更新现场地图和地图中的POI信息,并根据距离有限勘探评价方法在跟新后的POI信息中选择最佳路径点形成最优路径;
将感知信息输入基于近端策略优化的深度神经网络中生成行为策略,并根据环境返回的奖赏值进行策略优化,所述感知信息包括环境信息、最优路径和机器人当前状态和动作;
根据优化后的行为策略进行运动,直至到达预设的全局目标。
优选地,所述更新地图中的POI信息中确定POI的方法,具体包括如下步骤:
获取以机器人为中心的未访问区域的激光点信息;
若两个连续激光点读数的差值大于预设阈值,则在两个探测点间添加POI点,所述预设阈值不小于机器人的尺寸大小;
若连续N个激光读数返回的均为非数值即探测区域超出激光探测设备的探测范围,其中N>5,则在探测区域内添加POI点。
优选地,所述更新地图中的POI信息后,对内存中存储的POI信息进行对应调整。
优选地,根据信息的距离有限勘探评价方法从跟新后的POI信息中选择最佳路径点形成最优路径,具体包括如下步骤:
计算跟新后的每个POI的适应度,公式如下:
式中,d(pt,ci)是机器人在当前时间步长上的位置p与候选点之间的欧几里德距d,d(ci,g)是候选点与全局目标之间g的欧几里德距离,为在t时间点地图信息的得分;
根据每个POI的适应度的得分进行排序,将得分最少的POI点作为最佳路径点。
优选地,将感知信息输入基于近端策略优化的深度神经网络中生成行为策略,并根据环境返回的奖赏值进行策略优化,具体包括如下步骤:
所述行为策略的表达式为:
clip∈(x)=clip(x,1-∈,1+∈) (7)
其中rt(θ)为概率比例,具体表示为:
clip函数表示当括号内的第一项小于第二项时,一直输出第二项的值,当第一项大于第三项时,一直输出第三项的值,
策略的奖励函数如下式所示:
其中,状态动作对(st,at)在时间步的报酬r取决于三个条件:如果当前时间步长t与目标的距离小于阈值ηD,则获得正向奖励rg;如果检测到碰撞,则获得负向奖励rc;如果这两个条件都不存在,则根据当前线性速度v和角速度ω立即给予奖励,为了引导行为策略朝向目标,采用延迟属性奖励法进行以下计算:
其中n是更新奖励的先前步骤数。
基于上述技术方案,本发明的有益效果是:本发明通过全局导航与局部导航相结合的方法来完成环境探索的目标。全局导航,通过设置感兴趣点和地图选择最佳路径点;基于深度强化学习的局部导航。从环境中提取兴趣点,并根据评估标准选择最佳路径点。在每一步中,以极坐标的形式向神经网络提供一个与机器人位置和航向相关的路径点。根据传感器数据计算动作,并朝着路径点执行。机器人通过使用基于深度强化学习的运动策略一步一步确定路径点直至引导到全局目标,从而缓解局部最优问题。与传统的深度学习导航方法相比,本方法结合了反应式局部和全局导航策略,基于深度强化学习的目标驱动导航方法具有更容易在实际中部署,且在复杂的静态和动态环境下,不需要依赖地图或先验信息等优势,且使用基于近端策略优化的强化学习方法具有收敛更快,易于调参等优点。
附图说明
图1是一个实施例中一种基于目标驱动的机器人环境感知方法流程图;
图2是一个实施例中一种基于目标驱动的机器人环境感知方法的结构框图;
图3是一个实施例中一种基于目标驱动的机器人环境感知方法中确定POI点的示意图;
图4是一个实施例中一种基于目标驱动的机器人环境感知方法的仿真实验环境图;
图5是一个实施例中一种基于目标驱动的机器人环境感知方法在仿真实验中所生成的POI图;
图6是一个实施例中一种基于目标驱动的机器人环境感知方法在仿真实验中生成的轨迹对比图;
图7是一个实施例中机器人通过收集激光雷达数据前往路径点生成的路径图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
如图1至7所示,本实施例提供一种基于目标驱动的机器人环境感知方法,更容易在实际中部署,且在复杂的静态和动态环境下,不需要依赖地图或先验信息,具体包括如下步骤:
步骤S1,初始化机器人。初始化机器人的各项参数,各项参数如下表所示。
参数设置详情表
参数 | 数值 |
学习率 | 0.01 |
正向奖励rg | 1 |
负向奖励rc | -1 |
经验回放池的大小 | 25600 |
样本采样批次的大小 | 1024 |
一个循环内智能体的最大步数 | 500 |
迭代次数 | 10000 |
最大线速度vmax | 0.5m/s |
最大角速度ωmax | 1rad/s |
内核大小k | 1.5m/s |
l1,l2 | 5m,10m |
策略更新范围∈ | 0.2 |
τ | 0.01 |
γ | 0.95 |
步骤S2,实时获取采集的环境信息。
本实施例中,机器人配备了两个不同高度的激光雷达传感器,最大测量距离为10米。校准了两种激光的位置和角度,并在机器人前180°范围记录激光读数。每个传感器的数据分为21组,选取每组的最小值作为代表性传感器数值。抽取每一组的最小值,创建21维激光读数输入。最终激光数据与极坐标结合到航路点。环境测绘是基于机器人顶部激光雷达传感器的全激光读数和内部移动机器人的里程测量来实现。使用ROS软件包SLAM Toolbox获取和更新全局环境地图。
步骤S3,基于获取的环境信息更新现场地图和地图中的POI信息,并根据距离有限勘探评价方法在跟新后的POI信息中选择最佳路径点形成最优路径。
本实施例中,全局导航:为了让机器人导航到全局目标,需要从可用的POI中选择用于局部导航的中间路径点。由于没有关于环境的初始信息,因此不可能计算出最优路径。因此,机器人不仅需要被引导到目的地,还需要探索沿途的环境,以便在遇到死胡同时识别出可能的替代路线。由于没有给出先验信息,可能的POI需要从机器人的直接环境中获取并存储在内存中。确定POI的方法有以下两种:
(1)如果两个连续激光读数之间的值差大于阈值,则添加一个POI,允许机器人通过假定的间隙。通常阈值大小设置为机器人的物理尺寸大小。如图3中②情况所示。
(2)由于激光传感器具有最大范围,该范围之外的读数将作为非数字类型返回,并表示环境中的未被探测到的区域。如果连续激光读数返回非数值,则将POI放置在环境中。如图3中①情况所示。
如果在后续步骤中发现任何POI位于障碍物附近,它们将从内存中删除。POI将不会从机器人已经访问过的地方的激光读数中获得。此外,如果选择了一个POI作为路径点,但经过许多步骤无法到达,则删除该POI并选择一个新的路径点。我们使用基于信息的距离有限勘探评价方法(Information-based Distance Limited Exploration,IDLE)来评价每个POI并选择最优的POI点。IDLE评价每个POI的适应度为:
式中,d(pt,ci)是机器人在当前时间步长上的位置p与候选点之间的欧几里德距d。d(pt,ci)可表示为双曲正切函数。
其中,e是欧拉数,l1和l2是两步距离限制,在这两步距离限制中,可以对分数进行折扣。两步距离限制是根据深度强化学习训练环境的区域大小设置的。
第二个参数d(ci,g)是候选点与全局目标之间g的欧几里德距离,
其中,cx,gx分别表示候选点c和目标点g的x坐标,cy,gy分别表示候选点c和目标点g的y坐标,
在t时间点地图信息的得分表示为:Ii,t是关于在当前时间步长上的候选点的地图信息。我们使用一个大小为[k x k]的核来计算当前时间步长中候选点的信息得分I,其计算方法为:其中Ii,t表示为:
其中,k为核的大小,x,y均为周围信息点的坐标,w和h分别代表核的宽度与高度
在IDLE方法评价下得分最少的POI点将被作为本地导航的最佳路径点即航路点。步骤S4,将感知信息输入基于近端策略优化的深度神经网络中生成行为策略,并根据环境返回的奖赏值进行策略优化,所述感知信息包括环境信息、最优路径和机器人当前状态和动作。
本实施例中,采用基于深度强化学习的局部导航。在原始的基于规划的导航堆栈中,局部运动按照局部规划器执行。在我们的方法中,我们使用神经网络运动策略替换这一层。我们利用DRL在模拟环境中分别训练本地导航策略。本方法使用深度强化学习(DeepReinforcement Learning)在模拟环境中分别训练局部导航策略。采用基于近端策略优化(Proximal Policy Optimization)的神经网络体系结构对运动策略进行训练。PPO允许在连续的动作空间中执行动作。机器人通过前180°范围内的激光读数来描述局部环境。该信息与航路点相对于机器人位置的极坐标相结合。组合数据用作PPO的actor网络中的输入状态。通过两个表示机器人线性速度a1和角速度a2的动作参数A连接到输出层。对输出层应用激活函数以将其限制在范围内(-1,1)。在输出动作之前,按最大线性速度vmax和最大角速度ωmax进行缩放,如下所示:
由于激光读取只记录机器人前方的数据,不考虑反向运动,将线速度调整为仅为正。
采用了一种策略梯度方法,因为它直接建模了生成动作的策略,给定了来自代理的观察结果,并且更适合于像我们这样的连续动作空间。与其他策略梯度方法相比,PPO通过将参数(θ)更新绑定到信任区域,在训练期间提供了更好的稳定性,即确保更新后的策略不会与以前的策略偏离。在每个训练阶段,模拟中的机器人收集一批观察结果,直到时间Tmax,然后根据损失函数更新策略,其策略表达式如下:
式中,J(θ)为θ的似然函数,为时刻t对于优势函数的估计,它表示此时在状态st下采取动作at所能获得的优势,
clip∈(x)=clip(x,1-∈,1+∈) (7)
其中,clip函数表示当括号内的第一项小于第二项时,一直输出第二项的值,当第一项大于第三项时,一直输出第三项的值,rt(θ)为概率比例,具体表示为:
其中πθ′为行为策略概率,πθ为目标策略概率,st表示t时刻的状态,at表示t时刻采取的动作。
策略的奖励函数如下式所示:
其中,Dt表示t时刻与目标的距离,状态动作对(st,at)在时间步的报酬r取决于三个条件:如果当前时间步长t与目标的距离小于阈值ηD,则获得正向奖励rg。如果检测到碰撞,则获得负向奖励rc。如果这两个条件都不存在,则根据当前线性速度v和角速度ω立即给予奖励。为了引导导航策略朝向给定目标,采用延迟属性奖励法进行以下计算:
其中n是更新奖励的先前步骤数。这意味着,正向的目标奖励不仅归因于达到目标的状态动作对,在达到目标之前的每一个步骤n中也会获得。该网络学习了本地导航策略,该策略能够到达本地目标,同时直接从激光输入避开障碍物。
步骤S5,根据优化后的行为策略进行运动,直至到达预设的全局目标。
本实施例中,跟随航路点,机器人被引导向全局目标。一旦机器人接近全局目标,它就会导航到目标。沿途对环境进行了探索。
使用激光雷达和机器人里程传感器作为源,获得环境的栅格地图。
该探索方法的伪代码如下所示:
实验结果分析:
将提出的基于目标驱动的机器人环境感知算法(Goal-Driven RobotEnvironment Perception,GD-REP)与最近基于规划的边界(Nearest Frontier,NF)勘探策略方法和不采用全局规划的强化学习探索方法(Reinforcement Learning,RL)进行比较,参照比较使用了在已知映射中使用Dijkstra算法获得的路径(Path Planner,PP)。每种方法在如图4所示的环境中进行5次实验。使用GD-REP方法生成的POI点如图5所示,其中数字标号为可用的POI点,为不可用的POI点。可以看出确定的数字标号点均为可探索路径上的点,/>均被障碍物遮挡。
实验结果生成的轨迹图如图6所示,图中记录有GD-REP方法生成的轨迹图、RL方法生成的轨迹图以及NF方法生成的轨迹图。由图中轨迹可以看出,三种方法最终都能到达目标点,但是本发明提出的GD-REP的方法在前往目标点时所花费的时间和步数最少,且避免了可能出现的局部最优情况。对比图5、图6可知GD-REP生成的路径与POI点的选择完全对应。图7为二维仿真环境下机器人通过收集激光雷达数据前往路径点生成的路径图。
以上所述仅为本发明所公开的一种基于目标驱动的机器人环境感知方法的优选实施方式,并非用于限定本说明书实施例的保护范围。凡在本说明书实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书实施例的保护范围之内。
Claims (3)
1.一种基于目标驱动的机器人环境感知方法,其特征在于,包括如下步骤:
实时获取采集的环境信息;
基于获取的环境信息更新现场地图和地图中的POI信息,并根据距离有限勘探评价方法在跟新后的POI信息中选择最佳路径点形成最优路径,其中添加POI点的方式:获取以机器人为中心的未访问区域的激光点信息;若两个连续激光点读数的差值大于预设阈值,则在两个探测点间添加POI点,所述预设阈值不小于机器人的尺寸大小;若连续N个激光读数返回的均为非数值即探测区域超出激光探测设备的探测范围,其中N>5,则在探测区域内添加POI点;
计算跟新后的每个POI的适应度,根据每个POI的适应度的得分进行排序,将得分最少的POI点作为最佳路径点,POI的适应度公式如下:
式中,d(pt,ci)是机器人在当前时间步长上的位置p与候选点之间的欧几里德距d,d(ci,g)是候选点与全局目标之间g的欧几里德距离,为在t时间点地图信息的得分;
将感知信息输入基于近端策略优化的深度神经网络中生成行为策略,并根据环境返回的奖赏值进行策略优化,所述感知信息包括环境信息、最优路径和机器人当前状态和动作;
根据优化后的行为策略进行运动,直至到达预设的全局目标。
2.根据权利要求1所述的一种基于目标驱动的机器人环境感知方法,其特征在于,所述更新地图中的POI信息后,对内存中存储的POI信息进行对应调整。
3.根据权利要求1所述的一种基于目标驱动的机器人环境感知方法,其特征在于,将感知信息输入基于近端策略优化的深度神经网络中生成行为策略,并根据环境返回的奖赏值进行策略优化,具体包括如下步骤:
所述行为策略的表达式为:
式中,J(θ)为θ的似然函数,为时刻t对于优势函数的估计,它表示此时在状态st下采取动作at所能获得的优势,
clip∈(x)=clip(x,1-∈,1+∈) (7)
其中,clip函数表示当括号内的第一项小于第二项时,一直输出第二项的值,当第一项大于第三项时,一直输出第三项的值,rt(θ)为概率比例,具体表示为:
其中πθ′为行为策略概率,πθ为目标策略概率,st表示t时刻的状态,at表示t时刻采取的动作,
策略的奖励函数如下式所示:
其中,Dt表示t时刻与目标的距离,状态动作对(st,at)在时间步的报酬r取决于三个条件:如果当前时间步长t与目标的距离小于阈值ηD,则获得正向奖励rg;如果检测到碰撞,则获得负向奖励rc;如果这两个条件都不存在,则根据当前线性速度v和角速度ω立即给予奖励,为了引导行为策略朝向目标,采用延迟属性奖励法进行以下计算:
其中n是更新奖励的先前步骤数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210393482.6A CN114879660B (zh) | 2022-04-14 | 2022-04-14 | 一种基于目标驱动的机器人环境感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210393482.6A CN114879660B (zh) | 2022-04-14 | 2022-04-14 | 一种基于目标驱动的机器人环境感知方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114879660A CN114879660A (zh) | 2022-08-09 |
CN114879660B true CN114879660B (zh) | 2023-08-15 |
Family
ID=82669386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210393482.6A Active CN114879660B (zh) | 2022-04-14 | 2022-04-14 | 一种基于目标驱动的机器人环境感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114879660B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471731B (zh) * | 2022-08-23 | 2024-04-09 | 北京有竹居网络技术有限公司 | 图像处理方法、装置、存储介质及设备 |
CN115933634A (zh) * | 2022-10-12 | 2023-04-07 | 海南大学 | 未知环境探索方法、系统、移动机器人及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017161632A1 (zh) * | 2016-03-24 | 2017-09-28 | 苏州大学张家港工业技术研究院 | 一种基于模型学习的清洁机器人最优目标路径规划方法 |
CN111582469A (zh) * | 2020-03-23 | 2020-08-25 | 成都信息工程大学 | 多智能体协作信息处理方法、系统、存储介质、智能终端 |
JP2021034050A (ja) * | 2019-08-21 | 2021-03-01 | 哈爾浜工程大学 | 強化学習に基づくauv行動計画及び動作制御方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11340345B2 (en) * | 2015-07-17 | 2022-05-24 | Origin Wireless, Inc. | Method, apparatus, and system for wireless object tracking |
-
2022
- 2022-04-14 CN CN202210393482.6A patent/CN114879660B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017161632A1 (zh) * | 2016-03-24 | 2017-09-28 | 苏州大学张家港工业技术研究院 | 一种基于模型学习的清洁机器人最优目标路径规划方法 |
JP2021034050A (ja) * | 2019-08-21 | 2021-03-01 | 哈爾浜工程大学 | 強化学習に基づくauv行動計画及び動作制御方法 |
CN111582469A (zh) * | 2020-03-23 | 2020-08-25 | 成都信息工程大学 | 多智能体协作信息处理方法、系统、存储介质、智能终端 |
Non-Patent Citations (1)
Title |
---|
基于三维全景视图的室内导航关键技术研究;郭强;中国优秀硕士学位论文全文数据库信息科技辑(第第05期期);第20、39页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114879660A (zh) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114879660B (zh) | 一种基于目标驱动的机器人环境感知方法 | |
Duckett et al. | Fast, on-line learning of globally consistent maps | |
Hasberg et al. | Simultaneous localization and mapping for path-constrained motion | |
KR20200039547A (ko) | 트래킹 네트워크를 포함한 cnn을 사용하여 객체를 트래킹하는 방법 및 이를 이용한 장치 | |
Yamauchi et al. | Integrating exploration and localization for mobile robots | |
Shah et al. | Viking: Vision-based kilometer-scale navigation with geographic hints | |
Saulnier et al. | Information theoretic active exploration in signed distance fields | |
EP3828587A1 (en) | Method for determining the position of a vehicle | |
CN111487960A (zh) | 一种基于定位能力估计的移动机器人路径规划方法 | |
Teleweck et al. | Path planning algorithms and their use in robotic navigation systems | |
CN113433937A (zh) | 基于启发式探索的分层导航避障系统、分层导航避障方法 | |
Kojima et al. | To learn or not to learn: Analyzing the role of learning for navigation in virtual environments | |
Bouman et al. | Adaptive coverage path planning for efficient exploration of unknown environments | |
Sundarraj et al. | Route planning for an autonomous robotic vehicle employing a weight-controlled particle swarm-optimized Dijkstra algorithm | |
Anousaki et al. | Simultaneous localization and map building of skid-steered robots | |
Duckett et al. | Exploration of unknown environments using a compass, topological map and neural network | |
Lazarus et al. | Vehicle localization using sensors data fusion via integration of covariance intersection and interval analysis | |
Duckett et al. | Experiments in evidence based localisation for a mobile robot | |
Schultz et al. | Unifying exploration, localization, navigation and planning through a common representation | |
Alagić et al. | Design of mobile robot motion framework based on modified vector field histogram | |
CN114998540A (zh) | 一种智慧城市传感器探测主动同步定位与建图方法 | |
Worley et al. | Topological robot localization in a large-scale water pipe network | |
Muravyev et al. | Evaluation of topological mapping methods in indoor environments | |
Chen et al. | A new approach to vision-based unsupervised learning of unexplored indoor environment for autonomous land vehicle navigation | |
Davis et al. | Motion planning under uncertainty: application to an unmanned helicopter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |