CN114397894A - 一种模仿人类记忆的移动机器人目标搜索方法 - Google Patents

一种模仿人类记忆的移动机器人目标搜索方法 Download PDF

Info

Publication number
CN114397894A
CN114397894A CN202111674326.9A CN202111674326A CN114397894A CN 114397894 A CN114397894 A CN 114397894A CN 202111674326 A CN202111674326 A CN 202111674326A CN 114397894 A CN114397894 A CN 114397894A
Authority
CN
China
Prior art keywords
probability
robot
target
coordinate system
topological
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111674326.9A
Other languages
English (en)
Inventor
张波涛
李东
钱成
吕强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202111674326.9A priority Critical patent/CN114397894A/zh
Publication of CN114397894A publication Critical patent/CN114397894A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Abstract

本发明涉及一种模仿人类记忆的移动机器人目标搜索方法,包括:语义信息提取;拓扑地图构建;仿人记忆的概率更新部分;概率‑拓扑‑语义信息融合;目标相似度计算;基于概率‑拓扑‑语义地图的目标搜索策略:在拓扑地图的各个节点之间规划出实际可行的路径,通过仿人记忆的概率更新部分获取物体在各个拓扑节点分布的概率,计算预期加权搜索时间,实现最短预期时间的拓扑节点访问序列规划。通过本发明设计的基于模仿人类记忆的移动机器人目标搜索方法,移动机器人能够对环境进行感知,占用较少存储空间的同时,具有较高的实时性,能够在移动机器人计算资源有限的平台上进行实时运行。

Description

一种模仿人类记忆的移动机器人目标搜索方法
技术领域
本发明涉及一种模仿人类记忆的移动机器人目标搜索方法,一种基于概率拓扑语义地图的模仿人类记忆的机器人目标搜索方法,属于移动机器人环境感知、建模与目标搜索技术领域。
背景技术
服务机器人需要执行诸如端茶递水的协助性任务,而移动机器人工作在动态环境中,水杯等物体的位置会随时发生改变。常用于机器人导航的二维或三维栅格地图仅能满足避障所需,没有水杯等目标所在位置的信息,更无法使机器人应对物体位置的动态变化,通常导致目标搜索失败,所以机器人在进行目标搜索时需要获取语义信息在地图坐标系的映射。而且,根据最短路径、最短预期时间、最大可靠性等单一指标生成的搜索路径,往往不具有最优性。例如,将最短路径或最短运行时间作为优化指标生成的搜索路径,忽略了物体在环境中动态变化的因素;将最大可靠性作为优化指标应用于不确定性目标搜索过程中,忽略了搜索过程中的时间代价。当执行较为紧急的任务,如送药时,需要在预期搜索时间与物体存在概率之间进行综合考虑生成搜索路径。
目前已有一种移动机器人的目标搜索观测点自动生成方法(公开号CN112711256A),通过RRT算法生成随机树tree并根据每一个树节点的观测区域对于整个地图可视化的贡献值以特殊方式进行筛选,自动生成能够观测到整个地图环境可行区域的观测点,可以满足自主移动机器人目标搜索任务需求,可用于自主移动机器人目标搜索任务规划。上述现有技术与本发明的区别在于:本发明先让移动机器人对环境进行自主探索,用于对当前环境结构信息以及语义信息进行感知。后自适应生成拓扑节点,进行拓扑地图的构建,用于简化地图结构;再在拓扑地图顶点与语义信息之间建立归属关系;最后,将仿人记忆机制的概率衰减模型应用于语义信息与拓扑节点之间归属关系的概率更新中。在目标搜索时,将目标在各个在拓扑节点感知区域内存在的概率以及预期搜索时间进行综合考虑,生成用于机器人搜索的最终路径。并对两个优化指标进行加权,以使机器人能够在应对时间紧迫的任务以及非时间紧迫任务之间进行动态调整。
发明内容
本发明的目的是针对现有技术的不足,提供一种模仿人类记忆的移动机器人目标搜索方法,将人类的目标搜索过程映射至机器人目标搜索的过程中。
为实现上述目的,本发明的技术方案是:
一种模仿人类记忆的移动机器人目标搜索方法,包括以下步骤:
步骤一:语义信息提取;
一个描述当前环境语义信息的元组表示为<P,C,Si,T>。
P为物体在全局坐标系下的三维坐标。C为物体的类别。Si为当前物体所属的区域。T为识别到物体时的时间戳,表示从伦敦时间1970年1月1日0点开始到现在所经过的毫秒数。
通过目标检测算法对视觉传感器的RGB信息进行检测,得到具有单个或多个物体的2D包围框。将像素平面上坐标映射到栅格地图坐标系,需经过以下转换关系。首先,将像素坐标系下坐标转化到成像平面。
Figure BDA0003442121580000021
像素坐标系与成像平面之间只存在单纯的平移关系,而且度量单位不同。经过公式(1)进行转换,其中,(u0,v0)代表成像平面原点在像素坐标系中的坐标位置,dx与dy代表每个像素在U,V轴方向上的物理尺寸。(u,v,1)代表像素坐标系下的齐次坐标,(x,y,1)代表成像平面坐标系下的对应坐标。
从成像平面到相机坐标系之间的映射需要辅助信息Zc,Zc代表物体的深度,由深度相机获取。经过下式运算,将成像平面坐标系的坐标(x,y,1)映射到相机坐标系下的相应坐标(Xc,Yc,Zc),其中f为相机焦距,即为相机坐标系原点到成像平面的距离。
Figure BDA0003442121580000022
相机坐标系与机器人坐标系之间存在平移和旋转关系,经过下式运算即可求得相机坐标系坐标(Xc,Yc,Zc)在机器人坐标系下的表示(Xr,Yr,Zr)。其中,旋转矩阵R和平移矩阵T属于相机外参的一部分。
Figure BDA0003442121580000031
Rm和Tm为机器人在地图坐标系下相对旋转和平移矩阵,由自适应蒙特卡洛定位方法估计得出。经过以下运算求得机器人坐标系的坐标(Xr,Yr,Zr)在地图坐标系下的表示(Xm,Ym,Zm)。
Figure BDA0003442121580000032
因此,目标检测算法所获取的2D物体包围框通过下式,转换到栅格地图坐标系。
Figure BDA0003442121580000033
简化为:
Figure BDA0003442121580000034
其中,
Figure BDA0003442121580000035
为相机内参,由标定得到。
步骤二:拓扑地图构建;
以机器人为圆心,以传感器探测范围为半径构建机器人感知范围模型,并基于快速随机探索树(Rapid Random exploration Tree,RRT)算法,在机器人工作环境中构建无碰撞的探索树,将树节点之间的连线删除;然后,从起始节点开始,获取机器人3/4倍感知范围内的树节点,并求解形心,计算如下。将式(8)作为损失函数,通过不断迭代,求解合适的形心,使得损失函数J最小。
Figure BDA0003442121580000041
其中,xn代表该当前机器人3/4倍感知范围内的树节点空间坐标,N为3/4倍感知范围内的树节点总数,n∈(1,N),求解使得J最小的形心u0
Figure BDA0003442121580000042
最后,以形心u0为圆心,以机器人最大感知范围为半径作圆,将圆内除圆心以外的树节点删减。通过循环删减,直至对树节点删减完毕。
步骤三:仿人记忆的概率更新
人类学习新知识后,会在短时间内保持对该知识的记忆,此时若不进行重新学习,则会逐渐将知识遗忘。基于此规律,赋予机器人以人类的记忆模型,以S形曲线描述物体在某个位置的概率变化关系。在某个区域识别到物体后,物体在该区域的概率会先保持在一个较高的状态,若没有在该位置重新发现该物体,则概率会逐渐衰减到0。公式如下所示:
Figure BDA0003442121580000043
其中,a代表遗忘率,b代表记忆半衰期,t为识别到物体时的时间戳,表示从伦敦时间1970年1月1日0点开始到现在所经过的毫秒数,n代表重复发现的次数。其中,a越大,则概率衰减的越快,b越大则代表概率保持在50%以上的时间越久。
人类在多次学习一个知识之后,对该知识的遗忘速度会变慢。同样的,当机器人多次在一个区域发现同一物体后,对该物体的遗忘率减小,使物体在该区域存在的概率衰减速度变慢。同时,记忆半衰期应同时延长,使概率长时间保持在一个较高的水平。
对遗忘率的调整规律如下式,
an=a0-nΔa0 (11)
其中,an为记过n次重新发现后的遗忘率,a0为初始遗忘率,Δa0代表遗忘率的变化率。
对记忆半衰期的调整规律如下式,
bn=b0+nΔb0 (12)
其中,bn为记过n次重新发现后的记忆半衰期,b0为初始记忆半衰期,Δb0代表记忆半衰期的变化率。
步骤四:概率-拓扑-语义信息融合
拓扑地图代表了机器人当前工作环境的简化结构,在语义信息与拓扑节点之间建立归属关系。建立规则如下,将所有物体位置信息标记在度量地图中,获取在每个拓扑节点感知范围内物体的坐标,并将其添加进语义信息中,代表物体归属于某个拓扑节点。同时,从语义信息确定开始,仿人记忆机制对物体与拓扑节点归属关系进行概率衰减,若在同一个拓扑节点探测范围内多次发现该物体,则根据公式(11)-(12)对遗忘率以及记忆半衰期进行自适应调整,并根据公式(10)进行概率计算。经过以上步骤,实现对概率-拓扑-语义信息的融合。
步骤五:基于概率-拓扑-语义地图的目标搜索策略
对目标的查找过程如下:首先,给定需要查找的目标以及对应的ROI,并对其SIFT特征进行提取;对于给定的目标,根据步骤四的融合地图,找出其所属的各个拓扑节点。再通过Dijkstra算法向目标所对应的拓扑节点规划出一条实际可行的路径,求得机器人按照路径运行的预期时间tm
Figure BDA0003442121580000051
其中,Lm为从机器人当前位置到中目标所在拓扑节点的路径长度,v为机器人匀速运动的速度。并对预期时间进行归一化,求出从机器人当前位置向目标所在区域运动的归一化时间
Figure BDA0003442121580000052
Figure BDA0003442121580000053
然后,根据公式(10)获取目标物体m在各个拓扑节点的概率pm,并对概率进行归一化,求出目标在各个拓扑节点对应区域存在的归一化概率
Figure BDA0003442121580000054
Figure BDA0003442121580000055
由于机器人工作在动态环境中,物体位置分布是不确定的。所以,在进行目标搜索时,需要对物体所属拓扑节点概率与机器人当前位置到拓扑节点的预期时间同时进行考虑,用于生成搜索路径。作为机器人搜索的目标区域,不仅具有较大的目标存在概率,而且相对于机器人所在位置具有较短的预期运动时间。也就是当一个拓扑节点中物体存在概率不会小于其他拓扑节点,而且预期运动时间不会大于其余拓扑节点。即对于物体可能所在位置对应的M个拓扑节点,当
Figure BDA0003442121580000061
Figure BDA0003442121580000062
机器人会优先在物体存在概率以及预期搜索时间都较优的拓扑节点i进行搜索,而非拓扑节点j。因此,将物体存在概率以及预期搜索时间进行综合考虑,使用加权代价作为拓扑节点访问序列生成的指标。当物体存在概率越大,且预期时间越短,则加权代价越小;当概率越小,而预期时间越长,则加权代价越大。加权代价costm的计算公式为
Figure BDA0003442121580000063
式中,α为时间权重系数,用于调整执行时间紧迫任务的预期时间权重。当执行时间紧迫任务时,α增大;当执行非时间紧迫任务时,减小α,使机器人的目标搜索达到最优。
步骤六:目标相似度计算
对于视觉传感器捕捉的RGB信息进行目标检测,筛选出属于同类物体的ROI,再对其关键点特征进行提取,计算其与目标物体特征点的欧氏距离;最后,判断欧氏距离是否小于阈值,若小于则认为当前识别物体即为目标物体,若大于阈值,则继续读取RGB信息,进行判断。
与现有技术相比,本发明的有益效果在于:
目标检测算法采用轻量化的网络结构,对计算能力的要求较低,能够在移动机器人计算资源有限的平台上进行实时运行。所构建的语义地图相对于三维点云语义地图具有极小的空间占用。拓扑地图的构建是自适应构建过程,没有人为因素的介入,保证了机器人的自主性,同时提高了机器人在不同环境的适应能力。同时,所生成的拓扑节点具有完备性,即通过访问少数节点,即可获取环境的完整感知。将语义地图与度量地图以及拓扑地图进行独立维护,能够各自进行增、删、改等更新维护操作。在进行目标搜索时,综合考虑物体存在概率以及预期搜索时间,避免了仅将物体存在概率或预期搜索时间作为优化指标的局限性。能够根据所执行任务的时间紧迫性,对预期搜索时间的权重进行动态调整,使机器人能够适应不同的搜索环境。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明模仿人类记忆的移动机器人目标搜索方法的物体坐标转换示意图;
图2为本发明模仿人类记忆的移动机器人目标搜索方法的机器人感知范围示意图;
图3为本发明模仿人类记忆的移动机器人目标搜索方法的概率随时间衰减示意图;
图4为本发明模仿人类记忆的移动机器人目标搜索方法的不同遗忘率以及记忆半衰期的概率随时间衰减示意图;
图5为本发明模仿人类记忆的移动机器人目标搜索方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实例采用P3-DX先锋机器人实验平台,搭载深度相机RealSense D435i以及激光雷达RP LidarA2,执行语义拓扑地图的构建:
通过目标检测算法对视觉传感器的RGB信息进行检测,得到具有单个或多个物体的2D包围框。将像素平面上坐标映射到栅格地图坐标系,需经过以下转换关系,如附图1所示。首先,将像素坐标系下坐标转化到成像平面。
Figure BDA0003442121580000081
像素坐标系与成像平面之间只存在单纯的平移关系,而且度量单位不同。经过公式(1)进行转换,其中,(u0,v0)代表成像平面原点在像素坐标系中的坐标位置,dx与dy代表每个像素在U,V轴方向上的物理尺寸。(u,v,1)代表像素坐标系下的齐次坐标,(x,y,1)代表成像平面坐标系下的对应坐标。
从成像平面到相机坐标系之间的映射需要辅助信息Zc,Zc代表物体的深度,由深度相机获取。经过下式运算,将成像平面坐标系的坐标(x,y,1)映射到相机坐标系下的相应坐标(Xc,Yc,Zc),其中f为相机焦距,即为相机坐标系原点到成像平面的距离。
Figure BDA0003442121580000082
相机坐标系与机器人坐标系之间存在平移和旋转关系,经过下式运算即可求得相机坐标系坐标(Xc,Yc,Zc)在机器人坐标系下的表示(Xr,Yr,Zr)。其中,旋转矩阵R和平移矩阵T属于相机外参的一部分。
Figure BDA0003442121580000083
Rm和Tm为机器人在地图坐标系下相对旋转和平移矩阵,由自适应蒙特卡洛定位方法估计得出。经过以下运算求得机器人坐标系的坐标(Xr,Yr,Zr)在地图坐标系下的表示(Xm,Ym,Zm)。
Figure BDA0003442121580000084
因此,目标检测算法所获取的2D物体包围框通过下式,转换到栅格地图坐标系。
Figure BDA0003442121580000091
简化为:
Figure BDA0003442121580000092
其中,由标定得到内参为
表一相机内参标定取值(单位:Pixel)
参数 f<sub>x</sub> f<sub>y</sub> u<sub>0</sub> v<sub>0</sub>
取值 612.795 612.789 325.436 236.364
步骤二:拓扑地图构建;
以机器人为圆心,以传感器探测范围为半径构建机器人感知范围模型,并基于快速随机探索树(Rapid Random exploration Tree,RRT)算法,在机器人工作环境中构建无碰撞的探索树,将树节点之间的连线删除;然后,从起始节点开始,获取机器人3/4倍感知范围内的树节点,并求解形心,计算如下。将式(7)作为损失函数,通过不断迭代,求解合适的形心,使得损失函数J最小。
Figure BDA0003442121580000093
其中,xn代表该当前机器人3/4倍感知范围内的树节点空间坐标,N为3/4倍感知范围内的树节点总数,n∈(1,N),求解使得J最小的形心u0
Figure BDA0003442121580000094
最后,以形心u0为圆心,以机器人最大感知范围为半径作圆,将圆内除圆心以外的树节点删减。通过循环删减,直至对树节点删减完毕。
步骤三:仿人记忆的概率更新
人类学习新知识后,会在短时间内保持对该知识的记忆,此时若不进行重新学习,则会逐渐将知识遗忘。基于此规律,赋予机器人以人类的记忆模型,以S形曲线描述物体在某个位置的概率变化关系。在某个区域识别到物体后,物体在该区域的概率会先保持在一个较高的状态,若没有在该位置重新发现该物体,则概率会逐渐衰减到0。公式如下所示:
Figure BDA0003442121580000101
其中,a代表遗忘率,b代表记忆半衰期,t为识别到物体时的时间戳,表示从伦敦时间1970年1月1日0点开始到现在所经过的毫秒数,n代表重复发现的次数。其中,a越大,则概率衰减的越快,b越大则代表概率保持在50%以上的时间越久。
人类在多次学习一个知识之后,对该知识的遗忘速度会变慢。同样的,当机器人多次在一个区域发现同一物体后,对该物体的遗忘率减小,使物体在该区域存在的概率衰减速度变慢。同时,记忆半衰期应同时延长,使概率长时间保持在一个较高的水平。
对遗忘率的调整规律如下式,
an=a0-nΔa0 (10)
其中,an为记过n次重新发现后的遗忘率,a0为初始遗忘率,Δa0代表遗忘率的变化率。
对记忆半衰期的调整规律如下式,
bn=b0+nΔb0 (11)
其中,bn为记过n次重新发现后的记忆半衰期,b0为初始记忆半衰期,Δb0代表记忆半衰期的变化率。
表二遗忘率、记忆半衰期初值及变化率设置
参数 a<sub>0</sub> Δa<sub>0</sub> b<sub>0</sub> Δb<sub>0</sub>
取值 2 0.1 2 10
步骤四:概率-拓扑-语义信息融合
拓扑地图代表了机器人当前工作环境的简化结构,在语义信息与拓扑节点之间建立归属关系。建立规则如下,将所有物体位置信息标记在度量地图中,获取在每个拓扑节点感知范围内物体的坐标,并将其添加进语义信息中,代表物体归属于某个拓扑节点。同时,从语义信息确定开始,仿人记忆机制对物体与拓扑节点归属关系进行概率衰减,若在同一个拓扑节点探测范围内多次发现该物体,则根据公式(10)-(11)对遗忘率以及记忆半衰期进行自适应调整,并根据公式(9)进行概率计算。经过以上步骤,实现对概率-拓扑-语义信息的融合。
步骤五:基于概率-拓扑-语义地图的目标搜索
对目标的查找过程如下:先给定需要查找的目标以及对应的ROI,并对其SIFT特征进行提取;然后对于给定的目标,根据步骤四的融合地图,找出其所属的各个拓扑节点。再通过Dijkstra算法向目标所对应的拓扑节点规划出一条实际可行的路径,求得机器人按照路径运行的预期时间tm
Figure BDA0003442121580000111
其中,Lm为从机器人当前位置到中目标所在拓扑节点的路径长度,v为机器人匀速运动的速度。并对预期时间进行归一化,求出从机器人当前位置向目标所在区域运动的归一化时间
Figure BDA0003442121580000112
Figure BDA0003442121580000113
然后,根据公式(10)获取目标物体m在各个拓扑节点的概率pm,并对概率进行归一化,求出目标在各个拓扑节点对应区域存在的归一化概率
Figure BDA0003442121580000114
Figure BDA0003442121580000115
由于机器人工作在动态环境中,物体位置分布是不确定的。所以,在进行目标搜索时,需要对物体所属拓扑节点概率与机器人当前位置到拓扑节点的预期时间同时进行考虑,用于生成搜索路径。作为机器人搜索的目标区域,不仅具有较大的目标存在概率,而且相对于机器人所在位置具有较短的预期运动时间。也就是当一个拓扑节点中物体存在概率不会小于其他拓扑节点,而且预期运动时间不会大于其余拓扑节点。即对于物体可能所在位置对应的M个拓扑节点,当
Figure BDA0003442121580000116
Figure BDA0003442121580000121
机器人会优先在物体存在概率以及预期搜索时间都较优的拓扑节点i进行搜索,而非拓扑节点j。因此,将物体存在概率以及预期搜索时间进行综合考虑,使用加权代价作为拓扑节点访问序列生成的指标。当物体存在概率越大,且预期时间越短,则加权代价越小;当概率越小,而预期时间越长,则加权代价越大。加权代价costm的计算公式为
Figure BDA0003442121580000122
式中,α为时间权重系数,用于调整执行时间紧迫任务的预期时间权重。当执行时间紧迫任务时,α增大;当执行非时间紧迫任务时,减小α,使机器人的目标搜索达到最优。
步骤六:目标相似度计算
在路径上进行搜索时,对于视觉传感器捕捉的RGB信息进行目标检测,筛选出属于同类物体的ROI,再对其关键点特征进行提取,计算其与目标物体特征点的欧氏距离;最后,判断欧氏距离是否小于阈值18000,若小于则认为当前识别物体即为目标物体,若大于阈值,则继续读取RGB信息,进行判断。
以上结合附图对本发明的实施方式作了详细说明,但本发明不限于所描述的实施方式。对于本领域的技术人员而言,在不脱离本发明原理和精神的情况下,对这些实施方式进行多种变化、修改、替换和变型,仍落入本发明的保护范围内。

Claims (8)

1.一种模仿人类记忆的移动机器人目标搜索方法,其特征在于:包括以下步骤:
步骤一、语义信息提取:移动机器人对工作环境进行自主探索,通过目标检测算法对视觉传感器的RGB信息进行检测,得到具有单个或多个环境中物体的2D包围框,将所获取的2D物体包围框映射到栅格地图坐标系,得到物体位置在全局坐标系下的分布;
步骤二、拓扑地图构建:构建机器人感知范围模型,在机器人工作环境中自适应构建无碰撞的探索树,对当前环境中的随机探索树的树节点进行删减,得到能够感知整个工作环境空间且具有最少拓扑节点的拓扑地图;
步骤三、仿人记忆的概率更新:利用仿人记忆机制对物体与拓扑节点的归属关系进行概率更新,确定物体在环境中各个拓扑节点处分布的概率;
步骤四、概率-拓扑-语义信息融合:在语义信息与拓扑节点之间建立归属关系,仿人记忆机制对物体的拓扑节点归属关系进行概率衰减,实现对概率-拓扑-语义信息的融合;
步骤五、基于概率-拓扑-语义地图的目标搜索:给定需要搜索的目标,移动机器人对给定目标特征进行提取,通过仿人记忆的概率更新部分获取物体在各个拓扑节点分布的概率,计算预期加权搜索时间,生成用于机器人搜索的路径;
步骤六、目标相似度计算:根据所生成路径进行搜索时,将目标与当前视觉传感器捕获的RGB信息进行相似度计算,用以确定当前物体是否为给定目标。
2.根据权利要求1所述的一种模仿人类记忆的移动机器人目标搜索方法,其特征在于:所述步骤一中物体包括目标物体和障碍物体。
3.根据权利要求2所述的一种模仿人类记忆的移动机器人目标搜索方法,其特征在于:所述步骤一具体包括:
描述当前环境语义信息的元组表示为<P,C,Si,T>,
其中,P为物体在全局坐标系下的三维坐标,C为物体的类别,Si为当前物体所属的区域,T为识别到物体时的时间戳,
通过目标检测算法对视觉传感器的RGB信息进行检测,得到具有单个或多个物体的2D包围框,将像素平面上坐标映射到栅格地图坐标系,经过以下转换关系,将像素坐标系下坐标转化到成像平面,
Figure FDA0003442121570000021
像素坐标系与成像平面经过公式(1)进行转换,其中(u0,v0)代表成像平面原点在像素坐标系中的坐标位置,dx与dy代表每个像素在U,V轴方向上的物理尺寸,(u,v,1)代表像素坐标系下的齐次坐标,(x,y,1)代表成像平面坐标系下的对应坐标;
辅助信息Zc,Zc代表物体的深度由深度相机获取,经过下式运算,将成像平面坐标系的坐标(x,y,1)映射到相机坐标系下的相应坐标(Xc,Yc,Zc),其中f为相机焦距,即为相机坐标系原点到成像平面的距离;
Figure FDA0003442121570000022
相机坐标系与机器人坐标系存在平移和旋转关系,经过下式运算即可求得相机坐标系坐标(Xc,Yc,Zc)在机器人坐标系下的表示(Xr,Yr,Zr),其中旋转矩阵R和平移矩阵T属于相机外参的一部分,
Figure FDA0003442121570000023
Rm和Tm为机器人在地图坐标系下相对旋转和平移矩阵,由自适应蒙特卡洛定位方法得出,经过以下运算求得机器人坐标系的坐标(Xr,Yr,Zr)在地图坐标系下的表示(Xm,Ym,Zm),
Figure FDA0003442121570000024
目标检测算法所获取的2D物体包围框通过下式,转换到栅格地图坐标系,
Figure FDA0003442121570000031
简化为:
Figure FDA0003442121570000032
其中,
Figure FDA0003442121570000033
为相机内参,由标定得到。
4.根据权利要求3所述的一种模仿人类记忆的移动机器人目标搜索方法,其特征在于:所述步骤二具体包括:
以机器人为圆心,以传感器探测范围为半径构建机器人感知范围模型,在机器人工作环境中规避障碍物体构建无碰撞的探索树,将树节点之间的连线删除;从起始节点开始,获取机器人3/4倍感知范围内的树节点,并求解形心,计算如下,将式(8)作为损失函数,通过不断迭代,求解合适的形心,使得损失函数J最小,
Figure FDA0003442121570000034
其中,xn代表该当前机器人3/4倍感知范围内的树节点空间坐标,N为3/4倍感知范围内的树节点总数,n∈(1,N),求解使得J最小的形心u0
Figure FDA0003442121570000035
以形心u0为圆心,以机器人最大感知范围为半径作圆,将圆内除圆心以外的树节点删减,通过循环删减,直至对树节点删减完毕。
5.根据权利要求4所述的一种模仿人类记忆的移动机器人目标搜索方法,其特征在于:所述步骤三具体包括:
赋予机器人以人类的记忆模型,以S形曲线描述物体在某个位置的概率变化关系,在某个区域识别到物体后,物体在该区域的概率会先保持在一个较高的状态,若没有在该位置重新发现该物体,则概率会逐渐衰减到0,公式如下所示:
Figure FDA0003442121570000041
其中,a代表遗忘率,b代表记忆半衰期,t为识别到物体时的时间戳,n代表重复发现的次数;
机器人对遗忘率的调整规律如下式,
an=a0-nΔa0 (11)
其中,an为记过n次重新发现后的遗忘率,a0为初始遗忘率,Δa0代表遗忘率的变化率,
对记忆半衰期的调整规律如下式,
bn=b0+nΔb0 (12)
其中,bn为记过n次重新发现后的记忆半衰期,b0为初始记忆半衰期,Δb0代表记忆半衰期的变化率。
6.根据权利要求5所述的一种模仿人类记忆的移动机器人目标搜索方法,其特征在于:所述步骤四具体包括:
在语义信息与拓扑节点之间建立归属关系,将所有物体位置信息标记在度量地图中,获取在每个拓扑节点感知范围内物体的坐标,并将其添加进语义信息中,代表物体归属于某个拓扑节点,从语义信息确定开始,仿人记忆机制对物体与拓扑节点归属关系进行概率衰减,若在同一个拓扑节点探测范围内多次发现该物体,则根据公式(11)-(12)对遗忘率以及记忆半衰期进行自适应调整,并根据公式(10)进行概率计算,实现对概率-拓扑-语义信息的融合。
7.根据权利要求6所述的一种模仿人类记忆的移动机器人目标搜索方法,其特征在于:所述步骤五具体包括:
先给定需要查找的目标以及对应的ROI,移动机器人对其SIFT特征进行提取;
根据步骤四的融合地图,找出其所属的各个拓扑节点,再通过Dijkstra算法向目标所对应的拓扑节点规划出一条实际可行的路径,求得机器人按照路径运行的预期时间tm
Figure FDA0003442121570000051
其中,Lm为从机器人当前位置到中目标所在拓扑节点的路径长度,v为机器人匀速运动的速度,并对预期时间进行归一化,求出从机器人当前位置向目标所在区域运动的归一化时间
Figure FDA0003442121570000052
Figure FDA0003442121570000053
根据公式(10)获取目标物体m在各个拓扑节点的概率pm,并对概率进行归一化,求出目标在各个拓扑节点对应区域存在的归一化概率
Figure FDA0003442121570000054
Figure FDA0003442121570000055
在进行目标搜索时,需要对物体所属拓扑节点概率与机器人当前位置到拓扑节点的预期时间同时进行考虑,用于生成搜索路径,作为机器人搜索的目标区域,具有较大的目标存在概率,相对于机器人所在位置具有较短的预期运动时间,对于物体可能所在位置对应的M个拓扑节点,当
Figure FDA0003442121570000056
Figure FDA0003442121570000057
机器人优先在物体存在概率以及预期搜索时间较优的拓扑节点i进行搜索,将物体存在概率以及预期搜索时间进行综合考虑,使用加权代价作为拓扑节点访问序列生成的指标,当物体存在概率越大,且预期时间越短,则加权代价越小;当概率越小,而预期时间越长,则加权代价越大,加权代价costm的计算公式为
Figure FDA0003442121570000058
式中,α为时间权重系数,用于调整执行时间紧迫任务的预期时间权重,当执行时间紧迫任务时,α增大;当执行非时间紧迫任务时,减小α,使机器人的目标搜索达到最优。
8.根据权利要求7所述的一种模仿人类记忆的移动机器人目标搜索方法,其特征在于:所述步骤六具体包括:
根据所规划路径进行搜索时,对于视觉传感器捕捉的RGB信息进行目标检测,筛选出属于同类物体的ROI,再对关键点特征进行提取,计算其与目标物体特征点的欧氏距离;最后,判断欧氏距离是否小于阈值,若小于则认为当前识别物体即为目标物体,若大于阈值,则继续读取RGB信息,进行判断。
CN202111674326.9A 2021-12-29 2021-12-29 一种模仿人类记忆的移动机器人目标搜索方法 Pending CN114397894A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111674326.9A CN114397894A (zh) 2021-12-29 2021-12-29 一种模仿人类记忆的移动机器人目标搜索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111674326.9A CN114397894A (zh) 2021-12-29 2021-12-29 一种模仿人类记忆的移动机器人目标搜索方法

Publications (1)

Publication Number Publication Date
CN114397894A true CN114397894A (zh) 2022-04-26

Family

ID=81229566

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111674326.9A Pending CN114397894A (zh) 2021-12-29 2021-12-29 一种模仿人类记忆的移动机器人目标搜索方法

Country Status (1)

Country Link
CN (1) CN114397894A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114995442A (zh) * 2022-06-15 2022-09-02 杭州电子科技大学 基于最佳观测点序列的移动机器人运动规划方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015024407A1 (zh) * 2013-08-19 2015-02-26 国家电网公司 基于电力机器人的双目视觉导航系统及方法
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法
CN108919828A (zh) * 2018-07-13 2018-11-30 哈尔滨工业大学 一种基于人工记忆的飞行器轨迹优化方法
CN111176334A (zh) * 2020-01-16 2020-05-19 浙江大学 一种多无人机协同目标搜索方法
CN111413962A (zh) * 2020-01-15 2020-07-14 杭州电子科技大学 一种基于路径可通过概率的搜救机器人目标搜索方法
CN111427341A (zh) * 2019-11-05 2020-07-17 杭州电子科技大学 一种基于概率地图的机器人最短预期时间目标搜索方法
US20210109537A1 (en) * 2019-10-09 2021-04-15 Wuhan University Autonomous exploration framework for indoor mobile robotics using reduced approximated generalized voronoi graph

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015024407A1 (zh) * 2013-08-19 2015-02-26 国家电网公司 基于电力机器人的双目视觉导航系统及方法
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法
CN108919828A (zh) * 2018-07-13 2018-11-30 哈尔滨工业大学 一种基于人工记忆的飞行器轨迹优化方法
US20210109537A1 (en) * 2019-10-09 2021-04-15 Wuhan University Autonomous exploration framework for indoor mobile robotics using reduced approximated generalized voronoi graph
CN111427341A (zh) * 2019-11-05 2020-07-17 杭州电子科技大学 一种基于概率地图的机器人最短预期时间目标搜索方法
CN111413962A (zh) * 2020-01-15 2020-07-14 杭州电子科技大学 一种基于路径可通过概率的搜救机器人目标搜索方法
CN111176334A (zh) * 2020-01-16 2020-05-19 浙江大学 一种多无人机协同目标搜索方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
贾松敏;沈红敏;李秀智;王可;: "基于混合环境模型的自主移动机器人环境探索研究", 高技术通讯, no. 07, 15 July 2013 (2013-07-15) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114995442A (zh) * 2022-06-15 2022-09-02 杭州电子科技大学 基于最佳观测点序列的移动机器人运动规划方法及装置
CN114995442B (zh) * 2022-06-15 2023-07-21 杭州电子科技大学 基于最佳观测点序列的移动机器人运动规划方法及装置

Similar Documents

Publication Publication Date Title
CN112859859B (zh) 一种基于三维障碍物体素对象映射的动态栅格地图更新方法
CN110531760B (zh) 基于曲线拟合和目标点邻域规划的边界探索自主建图方法
Kanoosh et al. Salp swarm algorithm for node localization in wireless sensor networks
CN112132893B (zh) 一种适用于室内动态环境的视觉slam方法
CN108279692B (zh) 一种基于lstm-rnn的uuv动态规划方法
CN105843223B (zh) 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN113345018B (zh) 一种动态场景下的激光单目视觉融合定位建图方法
US11877716B2 (en) Determining region attribute
Einhorn et al. Finding the adequate resolution for grid mapping-cell sizes locally adapting on-the-fly
CN109658445A (zh) 网络训练方法、增量建图方法、定位方法、装置及设备
CN110717927A (zh) 基于深度学习和视惯融合的室内机器人运动估计方法
CN108801268A (zh) 目标对象的定位方法、装置及机器人
CN108320323B (zh) 一种建筑物三维建模方法及装置
CN109000655B (zh) 机器人仿生室内定位导航方法
CN113110455B (zh) 一种未知初始状态的多机器人协同探索方法、装置及系统
CN110146080B (zh) 一种基于移动机器人的slam回环检测方法及装置
CN108984741A (zh) 一种地图生成方法及装置、机器人和计算机可读存储介质
CN109885082A (zh) 一种基于任务驱动下的无人机航迹规划的方法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
CN108803659A (zh) 基于魔方模型的多窗口启发式三维空间路径规划方法
Garrote et al. 3D point cloud downsampling for 2D indoor scene modelling in mobile robotics
CN114397894A (zh) 一种模仿人类记忆的移动机器人目标搜索方法
US20220156536A1 (en) Semantic map production system and method
CN116698043A (zh) 一种室内移动机器人视觉导航方法
CN115619953A (zh) 一种面向崎岖地形的移动机器人地形建图方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination