CN102915039A - 一种仿动物空间认知的多机器人联合目标搜寻方法 - Google Patents

一种仿动物空间认知的多机器人联合目标搜寻方法 Download PDF

Info

Publication number
CN102915039A
CN102915039A CN2012104476431A CN201210447643A CN102915039A CN 102915039 A CN102915039 A CN 102915039A CN 2012104476431 A CN2012104476431 A CN 2012104476431A CN 201210447643 A CN201210447643 A CN 201210447643A CN 102915039 A CN102915039 A CN 102915039A
Authority
CN
China
Prior art keywords
robot
map
self
searching
multirobot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012104476431A
Other languages
English (en)
Other versions
CN102915039B (zh
Inventor
倪建军
王楚
邵琳
仰晓芳
吴文波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Campus of Hohai University
Original Assignee
Changzhou Campus of Hohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Campus of Hohai University filed Critical Changzhou Campus of Hohai University
Priority to CN201210447643.1A priority Critical patent/CN102915039B/zh
Publication of CN102915039A publication Critical patent/CN102915039A/zh
Application granted granted Critical
Publication of CN102915039B publication Critical patent/CN102915039B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明公开的是一种基于仿动物空间认知技术的多机器人联合目标搜寻方法,其步骤包括:(1)首先判断信息是否匹配成功;(2)建立各机器人的运动学模型及传感器模型;(3)完成摄像机内部参数的标定和匹配;(4)利用自组织吸引子网络算法模型来进行机器人的定位;(5)建立环境地图和多机器人的地图融合;(6)导航和目标搜寻;(7)判断任务是否完成;若任务完成,则搜寻任务结束;否则,则继续进入步骤(2),重新进行地图构建和目标搜寻过程。本发明在无任何人工路标的情况下,能采用双目视觉自动感知未知环境信息,在机器人导航及目标搜索时,当机器人进入相同的环境时,可以直接调用已有认知地图进行导航,大大提高了系统的工作效率。

Description

一种仿动物空间认知的多机器人联合目标搜寻方法
技术领域
本发明属于未知环境中机器人的定位与路径规划领域,是机器人技术与动物空间认知技术相结合的应用,特别涉及一种仿动物空间认知的多机器人联合目标搜寻方法。
背景技术
目前,在未知环境中机器人的定位与路径规划方面,机器人没有什么参照物,只能依靠自己并不十分准确的传感器来获取外部信息,如同一个盲人在一个陌生环境中摸索的情况。而这种情况下,定位是比较困难的。有地图的定位和有定位的地图创建都是容易解决的,但无地图的定位和未解决定位的地图创建如同“鸡——蛋”问题,无从下手。在这样的条件下,如何实现多机器人协作,完成目标快速搜索是目前多机器人研究领域的热点,也是难点。
发明内容
为克服现有技术上的不足,本发明目的是在于提供了一种计算量小、定位快,仿动物空间认知的多机器人未知环境联合目标搜寻方法,实现多机器人协作,完成目标快速搜索。
本发明实现上述发明目的的技术方案是:一种仿动物空间认知的多机器人联合目标搜寻方法,其步骤包括如下:
(1)多机器人系统中每个机器人被看成一个智能体,每个机器人都携带有里程计,2个摄像头,无线通讯设备及存储设备,进行目标搜寻工作;
(2)以移动机器人的重心为每个机器人的坐标系原点,建立各机器人的运动学模型,机器人的状态变量为(x,y,θ)T,其中(x,y)为机器人在平面坐标系中的坐标,θ为机器人方向角。摄像头采用交向摆放方式,以两个摄像头光心的中点为原点,建立视觉传感器模型,状态变量为(x,y,z,xl,yl,xr,yr)T,其中(x,y,z)为空间某目标点,(xl,yl)和(xr,yr)分别是目标点在左右两台摄像机平面上的投影点坐标;
(3)完成摄像机内部参数的标定和匹配,然后在已经建立的视觉传感器模型的基础上读出目标物的深度信息,对环境中的物体进行识别;
(4)各机器人利用仿动物空间认知的自组织吸引子网络算法模型来进行机器人的定位,该算法模拟动物大脑的空间认知模型,设有位置细胞、头方向细胞及前进速度细胞。每个机器人利用探测到的环境信息构建各自的认知地图,并利用该地图进行定位和路径规划;
(5)每个机器人单独进行搜索任务,同时将各自的地图信息,即自组织吸引子网络中个位置细胞的活性值进行广播,每个机器人利用得到的其他机器人地图信息进行地图融合,直至每个单个机器人中都获得一张完整的环境地图,并将该地图保存在机器人的存储设备中;
(6)机器人利用该完整的环境地图进行目标搜寻,并规划出到达目标的最佳路径,协作完成未知环境下的目标搜寻任务;
(7)在执行新的目标搜寻任务时,机器人首先根据获得的信息与存储设备中的认知地图信息进行匹配,如果匹配成功,则直接调用相对应的路径进行目标搜寻导航,否则机器人重新进行地图构建和目标搜寻过程。
与现有技术相比,本发明具有如下优点:
(1)本发明在无任何人工路标的情况下,能采用双目视觉自动感知未知环境信息;
(2)本发明采用自组织吸引子网络算法模型,扩展了仿生技术的应用范围,使其能应用于未知环境的机器人同步定位和地图创建;
(3)本发明采用多机器人分别构建地图,然后将得到的所有地图进行融合,提高了建图的准确性和效率;
(4)本发明在机器人导航及目标搜索时,当机器人进入相同的环境时,可以直接调用已有认知地图进行导航,大大提高了系统的工作效率。
附图说明
图1为本发明的硬件设备组成方框图;
图2为本发明中仿动物空间认知的多机器人联合目标搜寻方法流程图;
图3为本发明中多机器人地图融合流程图;
图4为本发明中仿动物空间认知的多机器人目标搜寻示意图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
如附图1所示,本实施例的一种硬件设备框图,包括多个机器人、里程计,摄像机,无线通讯系统及存储设备。其中里程计、摄像机、无线通讯系统、存储设备均安装在机器人上。多机器人系统中每个机器人被看成一个智能体,每个机器人都携带有里程计,两个个摄像头,无线通讯设备及存储设备;机器人通过里程计跟踪自身的位置,利用2个摄像头采集环境的实时图像,利用无线通讯系统将自己所存地图信息发送给同伴机器人,同时接收来自同伴机器人发来的地图信息。每个机器人利用得到的其他机器人地图信息进行地图融合,直至每个单个机器人中都获得一张完整的环境地图,并利用该完整的环境地图进行目标搜寻。
如附图2所示,本发明基于仿动物空间认知技术的多机器人联合目标搜寻方法,其具体流程包括如下步骤:
(1)首先判断信息是否匹配成功;在执行新的目标搜寻任务时,机器人首先根据获得的信息与存储设备中的认知地图信息进行匹配,若匹配成功,调用已知地图进行目标搜寻工作,然后进入步骤(7);若匹配不成功,则进入步骤(2);
(2)建立各机器人的运动学模型及传感器模型;以移动机器人的重心为每个机器人的坐标系原点,建立各机器人的运动学模型,机器人的状态变量为(x,y,θ)T,其中(x,y)为机器人在平面坐标系中的坐标,θ为机器人方向角;摄像头采用交向摆放方式,以两个摄像头光心的中点为原点,建立视觉传感器模型,状态变量为(x,y,z,xl,yl,xr,yr)T,其中(x,y,z)为空间某目标点,(xl,yl)和(xr,yr)分别是目标点在左右两台摄像机平面上的投影点坐标。
(3)完成摄像机内部参数的标定和匹配,然后在已经建立的视觉传感器模型的基础上读出目标物的深度信息,对环境中的物体进行识别。
本实施例中,摄像机内部参数的标定和匹配的步骤如下:
(3a)参数的标定;该标定方法为:设有n幅关于模板平面的图像,模板平面上有m个标定点,那么可建立评价函数:
C = Σ i = 1 n Σ j = 1 m | | m ij - m ( A , R i , t i , M j ) | | 2
其中,mij是第i幅图像中的第j个像点,Ri是第i幅图坐标系的旋转矩阵,ti是第i幅图坐标系的平移向量,Mj是第j个点的空间坐标,m(A,Ri,ti,Mj)是通过这些已知量求得的像点坐标。使评价函数C最小的A,Ri,ti,Mj就是这个问题的最优解。
(3b)图像的匹配;该匹配方法为:设有待匹配图像(M×M)与模板图像(N×N),定义归一化相关系数为:
r ( u , v ) = Σ x , y [ f ( u + x , v + y ) - f ‾ u , v ] [ t ( x , y ) - t ‾ ] Σ x , y [ f ( u + x , v + y ) - f ‾ u , v ] 2 Σ x , y [ t ( x , y ) - t ‾ ] 2
其中,u,v=0,1,…,M-1,f(u+x,v+y)代表待匹配图像在(u+x,v+y)位置上的像素点灰度值,t(x,y)代表模板图像在(x,y)位置上的像素灰度值,表示f在(u,v)位置上与模板图像同样大小的区域内的平均灰度值;r(u,v)构成了一个相关平面,在匹配位置对应的相关平面将出现峰值,该峰值一般接近1。
(4)利用自组织吸引子网络算法模型来进行机器人的定位;各机器人利用仿动物空间认知的自组织吸引子网络算法模型来进行机器人的定位,每个机器人利用探测到的环境信息构建各自的认知地图,并利用该地图进行定位和路径规划。
本实施例的仿动物空间认知的自组织吸引子网络算法模型如下:
(4a)基于自组织吸引子网络模型构建实时地图的方法如下,先将摄像机获得的图像进行处理,获得实时环境信息,根据探测的范围,构建一个神经网络。根据探测仪的识别距离,将平面空间离散化,其中每个离散点(神经元)是一个3维空间,分别由
Figure BDA00002379661600061
构成,(x,y)是该离散点的地理位置坐标,
Figure BDA00002379661600062
是自组织吸引子网络神经元的活性值,由下式计算:
τ dh i P ( t ) dt = - h i P ( t ) + φ 0 C P Σ j ( ω il RC - ω INH ) r j P ( t ) + I i V + φ 1 C P × HD × FV Σ j , k , l ω ijkl FV r j P r k HD r l FV
其中,
Figure BDA00002379661600064
是位置细胞j的激励率,
Figure BDA00002379661600065
是头方向细胞k的激励率,
Figure BDA00002379661600066
是速度细胞l的激励率,
Figure BDA00002379661600067
Figure BDA00002379661600068
是相应的连接权值,φ0、φ1和ωINH是常数,CP是与当前节点相关联的其它节点的个数,CP×HD×FV是与当前节点相关联的所有其他神经细胞的个数,
Figure BDA00002379661600069
是视觉输入,即当前位置,τ是衰减率。
(4b)自组织吸引子网络算法模型中的周围的节点对该节点的影响,及其它位置细胞、方向细胞、速度细胞对该节点的影响分别用权重
Figure BDA000023796616000611
表示,
Figure BDA000023796616000612
计算公式如下:
δω ij RC = k r ‾ i P r ‾ j P
其中,
Figure BDA000023796616000614
是位置细胞激励率的跟踪值,由下式计算:
r ‾ P ( r + δt ) = ( 1 - η ) r P ( t + δt ) + η r ‾ P ( t )
其中,η是[0,1]内的任一值,决定了决定了当前激励和前一时刻跟踪所占的比重。
Figure BDA000023796616000616
计算公式如下:
δω ijkl FV = k ~ r i P r ‾ j P r k HD r l FV
其中,是突触权重的变化,
Figure BDA000023796616000619
是位置细胞i的瞬时激励率。
Figure BDA000023796616000620
是位置细胞j的激励率的跟踪值。
Figure BDA000023796616000621
是头方向细胞k的激励值,
Figure BDA000023796616000622
是前进速度细胞l的激励值,是学习率。
(4c)根据自组织吸引子网络算法模型计算每个神经元的动态活性值,可以保证在有障碍物或其他机器人的地方,神经元的动态活性值最小,而在目标的位置,神经元的动态活性值最大,这样机器人根据每个神经元的动态活性值的大小可以实时计算出最佳编队路径,并进行导航,具体过程如下:
r)t+1=angle(pr,pn),
p n ⇐ s p n = max { s j , j = 1,2 , · · · , k }
其中,(θr)t+1是机器人下一步行动的方向角,angle(pr,pn)是计算机器人当前位置pr和神经元pn两点间夹角公式,而pn是机器人探测范围内所有神经元中动态活性值最大的那个。
(4d)随着机器人的运动,机器人探测到的环境信息在时刻变化,根据实时变化的信息,不断更新自组织神经网络各神经元活性值,从而不断更新环境地图,然后指导机器人运动,根据该思想,机器人的运动轨迹将是一条能自动绕开障碍物,且不会与其他机器人相撞,又能快速到达所要求的目标搜寻的最佳路径。
如图4所示,本发明中利用的自组织吸引子网络模型,经过自组织吸引子网络活性值运算公式计算,可以保证目标所在位置点的神经元的活性值最大,而障碍物所在位置的神经元的活性值最小,这样根据这个模型机器人的运动轨迹将是一条能自动绕开障碍物,且不会与其他机器人相撞,又能快速到达所要求的目标搜寻的最佳路径。
(5)建立环境地图和多机器人的地图融合;每个机器人单独进行搜索任务,同时将各自的地图信息,即自组织吸引子网络中个位置细胞的活性值进行广播,每个机器人利用得到的其他机器人地图信息进行地图融合,直至每个单个机器人中都获得一张完整的环境地图,并将该地图保存在机器人的存储设备中。
如附图3所示,本发明中多个机器人的地图进行融合的方法,其具体流程包括如下步骤:
(5a)首先进行地图分割,每个机器人将探测到的地图分块,每块成为独立的个体,消除聚类时地图匹配的困难;
(5b)地图类聚。地图的聚类是通过SOM实现的,即通过SOM实现地图的匹配。SOM是一个强大的神经网络模式,能检测到其输入向量的内部相关性,并根据他们的相似性进行分类;具体算法如下:
考虑一个输入样值x(k)∈R2,其中,k是样本指数,第i个神经元的权重计算式为ωi(k)∈R2。当有新的输入,不断改进神经元的权重,具体权重更新迭代公式为:
ωi(k+1)=ωi(k)+hi(k)(x(k)-ωi(k))
其中,h是邻域函数,和输入变量距离最小的神经元被称为赢家。通过不断迭代,SOM自组织神经网络可以实现相似地图的自动聚类,也就是地图的匹配。
(5c)然后对聚类后的地图进行调整,并与进行Radon变换,实现地图的融合。对于一个给定的映射m(x,y),沿径向线的角度θ的Radon变换被定义为
r θ ( x ′ ) = ∫ - ∞ ∞ m ( x ′ cos θ - y ′ sin θ , x ′ sin θ + y ′ cos θ ) dy
其中
x ′ y ′ = cos θ sin θ - sin cos θ x y
(5d)将地图相对平移后,进行验证,这个过程是用来消除错误的匹配或在几个候选地图中选择最好的结果。这一验证方法以收敛性能指标J为基准,J越小,证明地图匹配的越好,J的计算公式如下:
J = Σ i = 1 n | | p 1 { i } - p 2 { i } | |
其中,n是群集数,p1和p2分别是地图1和地图2相应的群集点。J是相应的匹配点之间的平方欧几里得距离的总和。
(6)导航和目标搜寻;机器人利用该完整的环境地图进行目标搜寻,并规划出到达目标的最佳路径,协作完成未知环境下的目标搜寻任务;
(7)判断任务是否完成;若任务完成,则搜寻任务结束;否则,则继续进入步骤(2),重新进行地图构建和目标搜寻过程,大大提高了搜寻效率。
在执行新的目标搜寻任务时,机器人首先根据获得的信息与存储设备中的认知地图信息进行匹配,如果匹配成功,则直接调用相对应的路径进行目标搜寻导航;否则,机器人重新进行地图构建和目标搜寻过程,大大提高了搜寻效率。
本发明在无任何人工路标的情况下,能采用双目视觉自动感知未知环境信息;本发明采用自组织吸引子网络算法模型,扩展了仿生技术的应用范围,使其能应用于未知环境的机器人同步定位和地图创建;本发明采用多机器人分别构建地图,然后将得到的所有地图进行融合,提高了建图的准确性和效率;本发明在机器人导航及目标搜索时,当机器人进入相同的环境时,可以直接调用已有认知地图进行导航,大大提高了系统的工作效率,特别适合于危险或人类无法到达的区域,具有较高的实际应用价值。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (10)

1.一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于,包括如下步骤:
(1)首先判断信息是否匹配成功;在执行新的目标搜寻任务时,多机器人系统中每个机器人首先根据获得的信息与存储设备中的认知地图信息进行匹配,若匹配成功,调用已知地图进行目标搜寻工作,然后进入步骤(7);若匹配不成功,则进入步骤(2);
(2)建立各机器人的运动学模型及传感器模型;
(3)完成摄像机内部参数的标定和匹配,然后在已经建立的视觉传感器模型的基础上读出目标物的深度信息,对环境中的物体进行识别;
(4)利用自组织吸引子网络算法模型来进行机器人的定位;各机器人利用仿动物空间认知的自组织吸引子网络算法模型来进行机器人的定位,每个机器人利用探测到的环境信息构建各自的认知地图,并利用该地图进行定位和路径规划;
(5)建立环境地图和多机器人的地图融合;每个机器人单独进行搜索任务,同时将各自的地图信息,即自组织吸引子网络中各个位置细胞的活性值进行广播,每个机器人利用得到的其他机器人地图信息进行地图融合,直至每个单个机器人中都获得一张完整的环境地图,并将该地图保存在机器人的存储设备中;
(6)导航和目标搜寻;机器人利用该完整的环境地图进行目标搜寻,并规划出到达目标的最佳路径,协作完成未知环境下的目标搜寻任务;
(7)判断任务是否完成;若任务完成,则搜寻任务结束;否则,则继续进入步骤(2),重新进行地图构建和目标搜寻过程。
2.根据权利要求1所述的一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于,所述步骤(1)中,多机器人系统中每个机器人被看成一个智能体,每个机器人都设置有里程计、两个摄像头、无线通讯设备及存储设备。
3.根据权利要求1所述的一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于,所述步骤(2)中,以移动机器人的重心为每个机器人的坐标系原点,建立各机器人的运动学模型,机器人的状态变量为(x,y,θ)T,其中(x,y)为机器人在平面坐标系中的坐标,θ为机器人方向角;
每个机器人的摄像头采用交向摆放方式,以两个摄像头光心的中点为原点,建立视觉传感器模型,状态变量为(x,y,z,xl,yl,xr,yr)T,其中(x,y,z)为空间某目标点,(xl,yl)和(xr,yr)分别是目标点在左右两台摄像机平面上的投影点坐标。
4.根据权利要求1所述的一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于,所述步骤(4)中,所述自组织吸引子网络算法模型为模拟动物大脑的空间认知模型,所述自组织吸引子网络算法模型设有位置细胞、头方向细胞及前进速度细胞。
5.根据权利要求1所述的一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于:所述步骤(3)中,摄像机内部参数的标定和匹配的步骤如下:
(3a)参数的标定;该标定方法为:设有n幅关于模板平面的图像,模板平面上有m个标定点,那么可建立评价函数:
C = Σ i = 1 n Σ j = 1 m | | m ij - m ( A , R i , t i , M j ) | | 2
其中,mij是第i幅图像中的第j个像点,Ri是第i幅图坐标系的旋转矩阵,ti是第i幅图坐标系的平移向量,Mj是第j个点的空间坐标,m(A,Ri,ti,Mj)是通过这些已知量求得的像点坐标。使评价函数C最小的A,Ri,ti,Mj就是这个问题的最优解;
(3b)图像的匹配;该匹配方法为:设有待匹配图像(M×M)与模板图像(N×N),定义归一化相关系数为:
r ( u , v ) = Σ x , y [ f ( u + x , v + y ) - f ‾ u , v ] [ t ( x , y ) - t ‾ ] Σ x , y [ f ( u + x , v + y ) - f ‾ u , v ] 2 Σ x , y [ t ( x , y ) - t ‾ ] 2
其中,u,v=0,1,…,M-1,f(u+x,v+y)代表待匹配图像在(u+x,v+y)位置上的像素点灰度值,t(x,y)代表模板图像在(x,y)位置上的像素灰度值,表示f在(u,v)位置上与模板图像同样大小的区域内的平均灰度值;r(u,v)构成了一个相关平面。
6.根据权利要求1或4所述的一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于:所述步骤(4)中,仿动物空间认知的自组织吸引子网络算法模型的步骤如下:
(4a)构建基于自组织吸引子网络模型的实时地图,其构建方法为:先将摄像机获得的图像进行处理,获得实时环境信息,根据探测的范围,构建一个神经网络;然后根据探测仪的识别距离,将平面空间离散化,其中每个离散点是一个三维空间,分别由
Figure FDA00002379661500032
构成,(x,y)是该离散点的地理位置坐标,
Figure FDA00002379661500033
是自组织吸引子网络神经元的活性值,由下式计算得出:
τ dh i P ( t ) dt = - h i P ( t ) + φ 0 C P Σ j ( ω il RC - ω INH ) r j P ( t ) + I i V + φ 1 C P × HD × FV Σ j , k , l ω ijkl FV r j P r k HD r l FV
其中,
Figure FDA00002379661500035
是位置细胞j的激励率,
Figure FDA00002379661500036
是头方向细胞k的激励率,
Figure FDA00002379661500037
是速度细胞l的激励率,
Figure FDA00002379661500038
Figure FDA00002379661500039
是相应的连接权值,φ0,φ1和ωINH是常数,CP是与当前节点相关联的其它节点的个数,CP×HD×FV是与当前节点相关联的所有其他神经细胞的个数,是视觉输入,即当前位置,τ是衰减率;
(4b)自组织吸引子网络算法模型中的周围的节点对该节点的影响,及其它位置细胞、方向细胞、速度细胞对该节点的影响分别用权重
Figure FDA000023796615000311
Figure FDA000023796615000312
表示,
Figure FDA000023796615000313
计算公式如下:
δω ij RC = k r ‾ i P r ‾ j P
其中,
Figure FDA000023796615000315
是位置细胞激励率的跟踪值,由下式计算:
r ‾ P ( r + δt ) = ( 1 - η ) r P ( t + δt ) + η r ‾ P ( t )
其中,η是[0,1]内的任一值,决定了当前激励和前一时刻跟踪值所占的比重;计算公式如下:
δω ijkl FV = k ~ r i P r ‾ j P r k HD r l FV
其中,是突触权重的变化,是位置细胞i的瞬时激励率。
Figure FDA00002379661500045
是位置细胞j的激励率的跟踪值。
Figure FDA00002379661500046
是头方向细胞k的激励值,
Figure FDA00002379661500047
是前进速度细胞l的激励值,
Figure FDA00002379661500048
是学习率;
(4c)根据自组织吸引子网络算法模型计算每个神经元的动态活性值,可以保证在有障碍物或其他机器人的地方,神经元的动态活性值最小,而在目标的位置,神经元的动态活性值最大,这样机器人根据每个神经元的动态活性值的大小可以实时计算出最佳编队路径,并进行导航,具体过程如下:
r)t+1=angle(pr,pn)
p n ⇐ s p n = max { s j , j = 1,2 , · · · , k }
其中,(θr)t+1是机器人下一步行动的方向角,angle(pr,pn)是计算机器人当前位置pr和神经元pn两点间夹角公式,而pn是机器人探测范围内所有神经元中动态活性值最大的那个;
(4d)快速到达所要求的目标搜寻的最佳路径;随着机器人的运动,机器人探测到的环境信息在时刻变化,根据实时变化的信息,不断更新自组织神经网络各神经元活性值,从而不断更新环境地图,然后指导机器人运动,根据该思想,机器人的运动轨迹将是一条能自动绕开障碍物,且不会与其他机器人相撞,又能快速到达所要求的目标搜寻的最佳路径。
7.根据权利要求1所述的一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于:所述步骤(5)中,多个机器人的地图进行融合的方法如下:
(5a)首先进行地图分割,每个机器人将探测到的地图分块,每块成为独立的个体,消除聚类时地图匹配的困难;
(5b)地图类聚;每个机器人通过自组织神经网络算法实现地图的匹配;所述自组织神经网络算法通过检测其输入向量的内部相关性,并根据它们的相似性进行分类;
(5c)然后对匹配后的地图进行调整,并进行Radon变换,实现地图的融合;
(5d)将地图相对平移后,进行验证。
8.根据权利要求7所述的一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于,所述步骤(5b)中,所述自组织神经网络算法的步骤如下:
设一个输入样值x(k)∈R2,其中,k是样本指数,第i个神经元的权重计算式为ωi(k)∈R2;当有新的输入,不断改进神经元的权重,该权重的更新迭代公式为:
ωi(k+1)=ωi(k)+hi(k)(x(k)-ωi(k))
其中,h是邻域函数,输入变量距离最小的神经元称为赢家;通过不断迭代,SOM自组织神经网络可以实现相似地图的自动聚类,即地图的匹配。
9.根据权利要求7所述的一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于,所述步骤(5c)中,设映射m(x,y),沿径向线的角度为θ,所述进行Radon变换的公式为:
r θ ( x ′ ) = ∫ - ∞ ∞ m ( x ′ cos θ - y ′ sin θ , x ′ sin θ + y ′ cos θ ) dy
其中
x ′ y ′ = cos θ sin θ - sin cos θ x y .
10.根据权利要求1所述的一种仿动物空间认知的多机器人联合目标搜寻方法,其特征在于,所述步骤(5d)中,进行验证时,以收敛性能指标J为基准,J越小,证明地图匹配的越好;所述收敛性能指标J的计算公式为:
J = Σ i = 1 n | | p 1 { i } - p 2 { i } | |
其中,n是群集数,p1和p2分别是两地图相应的群集点。
CN201210447643.1A 2012-11-09 2012-11-09 一种仿动物空间认知的多机器人联合目标搜寻方法 Expired - Fee Related CN102915039B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210447643.1A CN102915039B (zh) 2012-11-09 2012-11-09 一种仿动物空间认知的多机器人联合目标搜寻方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210447643.1A CN102915039B (zh) 2012-11-09 2012-11-09 一种仿动物空间认知的多机器人联合目标搜寻方法

Publications (2)

Publication Number Publication Date
CN102915039A true CN102915039A (zh) 2013-02-06
CN102915039B CN102915039B (zh) 2015-08-12

Family

ID=47613445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210447643.1A Expired - Fee Related CN102915039B (zh) 2012-11-09 2012-11-09 一种仿动物空间认知的多机器人联合目标搜寻方法

Country Status (1)

Country Link
CN (1) CN102915039B (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295201A (zh) * 2013-05-31 2013-09-11 中国人民武装警察部队工程大学 一种基于nsst域iicm的多传感器图像融合方法
CN103869824A (zh) * 2014-03-05 2014-06-18 河海大学常州校区 基于生物触角模型的多机器人水下目标搜寻方法及装置
CN103886367A (zh) * 2014-03-18 2014-06-25 北京工业大学 一种仿生智能控制方法
CN103926930A (zh) * 2014-05-07 2014-07-16 重庆邮电大学 一种基于Hilbert曲线探测的多机器人协作地图构建方法
CN104266990A (zh) * 2014-10-29 2015-01-07 清华大学 一种分体式化学品的探测分析装置
CN104865825A (zh) * 2015-03-19 2015-08-26 杭州电子科技大学 一种多机器人合作时序预测控制方法
CN106097322A (zh) * 2016-06-03 2016-11-09 江苏大学 一种基于神经网络的视觉系统标定方法
CN106871911A (zh) * 2017-04-28 2017-06-20 安徽工程大学 一种突发障碍物识别的bvgsp‑slam复合模型的实现方法
CN107655483A (zh) * 2017-10-11 2018-02-02 河海大学常州校区 基于增量式在线学习的机器人导航方法
CN108227717A (zh) * 2018-01-30 2018-06-29 中国人民解放军陆军装甲兵学院 基于orb特征的多移动机器人地图融合方法及融合平台
CN108427283A (zh) * 2018-04-04 2018-08-21 浙江工贸职业技术学院 一种基于神经网络的车厢智能服务机器人行进的控制方法
WO2018191970A1 (zh) * 2017-04-21 2018-10-25 深圳前海达闼云端智能科技有限公司 一种机器人控制方法、机器人装置及机器人设备
CN108711163A (zh) * 2018-02-24 2018-10-26 中国人民解放军火箭军工程大学 一种基于多传感器的机器人未知环境目标跟踪方法
CN108814443A (zh) * 2018-06-29 2018-11-16 炬大科技有限公司 一种扫地机器人社交系统及方法
CN109425340A (zh) * 2017-08-28 2019-03-05 中国科学院沈阳自动化研究所 基于贝叶斯多模感知融合的类脑机器人导航方法
CN109788244A (zh) * 2017-11-13 2019-05-21 丰田自动车株式会社 救援系统、救援方法及其所使用的服务器
CN109799829A (zh) * 2019-02-28 2019-05-24 清华大学 一种基于自组织映射的机器人群体协同主动感知方法
CN109862831A (zh) * 2016-10-07 2019-06-07 松下知识产权经营株式会社 认知功能评价装置、认知功能评价方法以及程序
CN110362118A (zh) * 2019-07-08 2019-10-22 长江大学 空中海面水下多机器人远程立体协同控制系统及其控制方法
CN110604515A (zh) * 2019-09-11 2019-12-24 深圳市银星智能科技股份有限公司 多机协作系统及清洁设备
CN110990594A (zh) * 2019-11-29 2020-04-10 华中科技大学 一种基于自然语言交互的机器人空间认知方法及系统
CN111190420A (zh) * 2020-01-07 2020-05-22 大连理工大学 一种多移动机器人在安防领域中协作搜索与围捕方法
WO2020098532A1 (zh) * 2018-11-12 2020-05-22 杭州萤石软件有限公司 移动机器人的定位方法和移动机器人
CN111208792A (zh) * 2014-11-11 2020-05-29 X开发有限责任公司 动态维持机器人装置的机群的地图的方法和系统
CN111556593A (zh) * 2020-04-29 2020-08-18 深圳市迩立信息科技有限公司 自组网终端通信系统
CN112762957A (zh) * 2020-12-29 2021-05-07 西北工业大学 一种基于多传感器融合的环境建模及路径规划方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1604125A (zh) * 2004-11-11 2005-04-06 上海交通大学 目标图像自动识别与快速跟踪的方法
CN101127657A (zh) * 2007-07-16 2008-02-20 江南大学 自主移动传感器网络动态建模与控制技术
CN101265813A (zh) * 2008-05-14 2008-09-17 哈尔滨工业大学 基于无线传感器网络的矿井搜索探测多机器人系统
CN102521205A (zh) * 2011-11-23 2012-06-27 河海大学常州校区 基于多Agent强化学习的机器人联合搜索系统
CN102521653A (zh) * 2011-11-23 2012-06-27 河海大学常州校区 井下多机器人联合搜救的生物刺激神经网络设备及其方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1604125A (zh) * 2004-11-11 2005-04-06 上海交通大学 目标图像自动识别与快速跟踪的方法
CN101127657A (zh) * 2007-07-16 2008-02-20 江南大学 自主移动传感器网络动态建模与控制技术
CN101265813A (zh) * 2008-05-14 2008-09-17 哈尔滨工业大学 基于无线传感器网络的矿井搜索探测多机器人系统
CN102521205A (zh) * 2011-11-23 2012-06-27 河海大学常州校区 基于多Agent强化学习的机器人联合搜索系统
CN102521653A (zh) * 2011-11-23 2012-06-27 河海大学常州校区 井下多机器人联合搜救的生物刺激神经网络设备及其方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XIAO-PING MA等: "REASEARCH ON THE MULTI-AGENT MODELING AND SIMULATING METHOD OF CAS AND THE AGENT RULE LEARNING", 《PROCEEDINGS OF THE FOURTH INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND CYBERNETICS》, 21 August 2005 (2005-08-21) *
雷斌等: "基于粒子群优化的多机器人合作目标搜索算法", 《武汉理工大学学报》, no. 15, 15 August 2009 (2009-08-15) *

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295201A (zh) * 2013-05-31 2013-09-11 中国人民武装警察部队工程大学 一种基于nsst域iicm的多传感器图像融合方法
CN103295201B (zh) * 2013-05-31 2016-05-25 中国人民武装警察部队工程大学 一种基于nsst域iicm的多传感器图像融合方法
CN103869824A (zh) * 2014-03-05 2014-06-18 河海大学常州校区 基于生物触角模型的多机器人水下目标搜寻方法及装置
CN103886367A (zh) * 2014-03-18 2014-06-25 北京工业大学 一种仿生智能控制方法
CN103886367B (zh) * 2014-03-18 2016-08-17 北京工业大学 一种仿生智能控制方法
CN103926930A (zh) * 2014-05-07 2014-07-16 重庆邮电大学 一种基于Hilbert曲线探测的多机器人协作地图构建方法
CN104266990A (zh) * 2014-10-29 2015-01-07 清华大学 一种分体式化学品的探测分析装置
CN111208792B (zh) * 2014-11-11 2022-11-01 X开发有限责任公司 动态维持机器人装置的机群的地图的方法和系统
CN111208792A (zh) * 2014-11-11 2020-05-29 X开发有限责任公司 动态维持机器人装置的机群的地图的方法和系统
CN104865825A (zh) * 2015-03-19 2015-08-26 杭州电子科技大学 一种多机器人合作时序预测控制方法
CN106097322A (zh) * 2016-06-03 2016-11-09 江苏大学 一种基于神经网络的视觉系统标定方法
CN106097322B (zh) * 2016-06-03 2018-10-09 江苏大学 一种基于神经网络的视觉系统标定方法
CN109862831A (zh) * 2016-10-07 2019-06-07 松下知识产权经营株式会社 认知功能评价装置、认知功能评价方法以及程序
US11325255B2 (en) 2017-04-21 2022-05-10 Cloudminds Robotics Co., Ltd. Method for controlling robot and robot device
WO2018191970A1 (zh) * 2017-04-21 2018-10-25 深圳前海达闼云端智能科技有限公司 一种机器人控制方法、机器人装置及机器人设备
CN106871911A (zh) * 2017-04-28 2017-06-20 安徽工程大学 一种突发障碍物识别的bvgsp‑slam复合模型的实现方法
CN106871911B (zh) * 2017-04-28 2019-12-10 安徽工程大学 一种突发障碍物识别的bvgsp-slam复合模型的实现方法
CN109425340B (zh) * 2017-08-28 2022-03-22 中国科学院沈阳自动化研究所 基于贝叶斯多模感知融合的类脑机器人导航方法
CN109425340A (zh) * 2017-08-28 2019-03-05 中国科学院沈阳自动化研究所 基于贝叶斯多模感知融合的类脑机器人导航方法
CN107655483A (zh) * 2017-10-11 2018-02-02 河海大学常州校区 基于增量式在线学习的机器人导航方法
CN107655483B (zh) * 2017-10-11 2020-11-10 河海大学常州校区 基于增量式在线学习的机器人导航方法
CN109788244A (zh) * 2017-11-13 2019-05-21 丰田自动车株式会社 救援系统、救援方法及其所使用的服务器
CN108227717A (zh) * 2018-01-30 2018-06-29 中国人民解放军陆军装甲兵学院 基于orb特征的多移动机器人地图融合方法及融合平台
CN108227717B (zh) * 2018-01-30 2021-12-03 中国人民解放军陆军装甲兵学院 基于orb特征的多移动机器人地图融合方法及融合平台
CN108711163A (zh) * 2018-02-24 2018-10-26 中国人民解放军火箭军工程大学 一种基于多传感器的机器人未知环境目标跟踪方法
CN108427283A (zh) * 2018-04-04 2018-08-21 浙江工贸职业技术学院 一种基于神经网络的车厢智能服务机器人行进的控制方法
CN108814443A (zh) * 2018-06-29 2018-11-16 炬大科技有限公司 一种扫地机器人社交系统及方法
WO2020098532A1 (zh) * 2018-11-12 2020-05-22 杭州萤石软件有限公司 移动机器人的定位方法和移动机器人
CN109799829A (zh) * 2019-02-28 2019-05-24 清华大学 一种基于自组织映射的机器人群体协同主动感知方法
CN110362118A (zh) * 2019-07-08 2019-10-22 长江大学 空中海面水下多机器人远程立体协同控制系统及其控制方法
CN110604515B (zh) * 2019-09-11 2021-05-28 深圳市银星智能科技股份有限公司 多机协作系统及清洁设备
CN110604515A (zh) * 2019-09-11 2019-12-24 深圳市银星智能科技股份有限公司 多机协作系统及清洁设备
CN110990594A (zh) * 2019-11-29 2020-04-10 华中科技大学 一种基于自然语言交互的机器人空间认知方法及系统
CN110990594B (zh) * 2019-11-29 2023-07-04 华中科技大学 一种基于自然语言交互的机器人空间认知方法及系统
CN111190420B (zh) * 2020-01-07 2021-11-12 大连理工大学 一种多移动机器人在安防领域中协作搜索与围捕方法
CN111190420A (zh) * 2020-01-07 2020-05-22 大连理工大学 一种多移动机器人在安防领域中协作搜索与围捕方法
CN111556593A (zh) * 2020-04-29 2020-08-18 深圳市迩立信息科技有限公司 自组网终端通信系统
CN112762957A (zh) * 2020-12-29 2021-05-07 西北工业大学 一种基于多传感器融合的环境建模及路径规划方法

Also Published As

Publication number Publication date
CN102915039B (zh) 2015-08-12

Similar Documents

Publication Publication Date Title
CN102915039B (zh) 一种仿动物空间认知的多机器人联合目标搜寻方法
JP6869562B2 (ja) トラッキングネットワークを含むcnnを使用して物体をトラッキングする方法、及びそれを利用した装置{method for tracking object by using convolutional neural network including tracking network and computing device using the same}
Wen et al. Path planning for active SLAM based on deep reinforcement learning under unknown environments
CN102915465B (zh) 一种基于移动生物刺激神经网络的多机器人联合编队方法
Cheng et al. Topological indoor localization and navigation for autonomous mobile robot
JP3994950B2 (ja) 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
WO2019076044A1 (zh) 移动机器人局部运动规划方法、装置及计算机存储介质
CN107544501A (zh) 一种智能机器人智慧行走控制系统及其方法
Sales et al. Adaptive finite state machine based visual autonomous navigation system
CN106774301A (zh) 一种避障跟随方法和电子设备
CN108334677A (zh) 一种基于gru网络的uuv实时避碰规划方法
US20200376676A1 (en) Method of localization using multi sensor and robot implementing same
CN105717923A (zh) 基于椭圆聚类-碰撞锥推演的无人艇海洋动态避障控制算法
CN110244734A (zh) 一种基于深度卷积神经网络的自动驾驶车辆路径规划方法
JP2020123346A (ja) 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置
Pradeep et al. A wearable system for the visually impaired
CN112857370A (zh) 一种基于时序信息建模的机器人无地图导航方法
Liu et al. Pixel-to-action policy for underwater pipeline following via deep reinforcement learning
CN113433937A (zh) 基于启发式探索的分层导航避障系统、分层导航避障方法
CN116679711A (zh) 一种基于有模型与无模型强化学习的机器人避障方法
CN109088452B (zh) 机器人充电方法及机器人
CN113674310B (zh) 一种基于主动视觉感知的四旋翼无人机目标跟踪方法
Okereke et al. An overview of machine learning techniques in local path planning for autonomous underwater vehicles
Liu et al. A novel trail detection and scene understanding framework for a quadrotor UAV with monocular vision
Yu et al. A deep-learning-based strategy for kidnapped robot problem in similar indoor environment

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150812