CN111376273B - 一种类脑启发的机器人认知地图构建方法 - Google Patents
一种类脑启发的机器人认知地图构建方法 Download PDFInfo
- Publication number
- CN111376273B CN111376273B CN202010326608.9A CN202010326608A CN111376273B CN 111376273 B CN111376273 B CN 111376273B CN 202010326608 A CN202010326608 A CN 202010326608A CN 111376273 B CN111376273 B CN 111376273B
- Authority
- CN
- China
- Prior art keywords
- experience
- node
- robot
- information
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001149 cognitive effect Effects 0.000 title claims abstract description 19
- 238000010276 construction Methods 0.000 title claims abstract description 14
- 230000000007 visual effect Effects 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000001514 detection method Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 230000033001 locomotion Effects 0.000 claims abstract description 11
- 230000019771 cognition Effects 0.000 claims abstract description 10
- 230000008447 perception Effects 0.000 claims abstract description 7
- 238000013135 deep learning Methods 0.000 claims abstract description 6
- 238000000513 principal component analysis Methods 0.000 claims abstract description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000013507 mapping Methods 0.000 abstract description 4
- 210000004027 cell Anatomy 0.000 description 95
- 230000005284 excitation Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 13
- 230000000694 effects Effects 0.000 description 8
- 230000002401 inhibitory effect Effects 0.000 description 8
- 230000005764 inhibitory process Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 238000013459 approach Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 241000124008 Mammalia Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002964 excitative effect Effects 0.000 description 2
- 210000001320 hippocampus Anatomy 0.000 description 2
- 238000012847 principal component analysis method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000971 hippocampal effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 235000001968 nicotinic acid Nutrition 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
一种类脑启发的机器人认知地图构建方法,属于机器人环境认知及运动导航技术领域,能够建立认知地图协助机器人进行导航。首先,机器人通过相机获取环境周围的图像信息。然后,视觉里程计对图像信息进行处理得到机器人的旋转角速度以及线速度,并将其分别输入到头朝向细胞模型以及位置细胞模型中,形成机器人对自身位置的感知。视觉特征提取模块通过深度学习网络以及主成分分析算法对图像进行处理,得到机器人对环境的外部感知信息;最后,通过经验地图对信息进行整合,并通过闭环检测以及更新算法对地图进行更新。本发明能解决目前类脑认知地图建图方法中视觉里程计鲁棒性差,以及闭环检测的准确性不够高的问题,能够完成对环境中闭环点的检测以及更新,保证全局一致性。
Description
技术领域
本发明属于类脑计算及智能机器人导航领域,涉及一种将视觉里程计和海马体空间细胞计算模型相结合形成机器人的空间认知,并利用深度学习网络进行闭环检测的经验地图构建方法,能够完成对环境中闭环点的检测以及更新,保证全局一致性。本方法旨在解决目前类脑认知地图建图方法中视觉里程计鲁棒性差以及闭环检测的准确性不够高的问题。
背景技术
将机器人放入未知环境中的未知位置,是否有办法让机器人一边移动一遍逐步描绘出此环境完全的地图,即SLAM。在SLAM问题中,机器人自身的位姿估计非常重要。传统的位姿估计方法有GPS、IMU、轮速传感器和声呐定位系统等里程计技术。近年来,计算机的性能有了显著的提高,而且相机的成本越来越低,由此产生了视觉里程计(VO)。VO的成本低,能够在GPS失效的环境中工作,越来越多的视觉里程计算法被提出。视觉里程计通过使用的视觉传感器的类型一般可以分为单目视觉里程计、双目视觉里程计以及RGB-D视觉里程计。单目视觉里程计的成本最低,在单目视觉里程计中,如何仅仅通过获取的图像流对机器人在当前环境下进行准确的位姿估计是我们需要解决的问题。
生物通过眼睛观察自身周围的环境,经视觉神经传递到大脑,就可以估计在环境中的位置,建立起对环境的认知,进而在环境中执行导航等任务。在生物神经学领域中,研究者们已经证明了某些哺乳动物的海马体机器相关结构中存在着与空间环境认知相关的细胞,如头朝向细胞、网格细胞、位置细胞等。这些细胞通过神经元连接在一起,形成了一套智能生物认知算法。哺乳动物通过这样一套算法,对环境进行感知,在大脑中形成对周围环境的记忆,为我们解决SLAM问题提供了一种新的思路。
当前仿生SLAM方法有RAT-SLAM、Neuroslam等,采用单目视觉里程计,闭环更新可以保持地图的精度,但其视觉里程计容易受光线变化的影响。当前传统的视觉SLAM方法,如ORB-SLAM,使用词袋模型和图优化的方法进行闭环检测和校正,但是,其检测速度较慢,校正后的地图缺乏一定的精度。这些问题限制了算法在复杂室外条件下的应用。
随着对大脑中海马结构研究的不断深入,许多具有特异性的细胞被人们所知,这些发现给研究者们带来了新的解决问题的途径。在解决SLAM问题中,许多研究者也开始引入局部的海马特性,并且具有丰富的成果。Arleo等人利用单目相机,提出了一种基于头朝向细胞与位置细胞的建图模型,该模型应用在Khepera机器人上,并且在一个小型区域进行了实验;Miford等人提出了RatSLAM,成功绘制了在大型室内外场景下的地图。最近,还有基于神经网络与神经形态硬件的SLAM方法被提出。但是,这些方法的里程计容易随时间漂移,对光线变化较为敏感。
针对这些问题,我们提出一种利用基于特征点法的视觉里程计与生物细胞模型相结合的里程计,该方法适合在复杂的室外环境下进行建图,运行稳定、对光照变化以及动态场景的鲁棒性强。利用AlexNet网络与主成分分析法相结合的闭环检测算法,提高闭环检测的效率和准确性。
发明内容
本发明的目的是解决现有基于仿生的建图模型中,在复杂多变的环境中,视觉里程计效果差,鲁棒性不足,以及闭环检测效率和准确性较低,容易造成误匹配的问题。本发明提出一种类脑启发的机器人认知地图构建方法,该方法可以利用简单的硬件设备,实现机器人在环境中的探索和认知过程,最终生成认知地图供机器人的导航算法使用。本发明通过单目相机获取机器人周围的环境图像,通过视觉里程计对图像处理得到机器人的自身运动信息,并将其输入到空间认知细胞模型中;通过视觉特征提取模块提取环境图像中的特征;最终由经验地图对以上信息进行整合,并通过闭环检测和更新算法对地图进行检测和更新,纠正机器人在运动过程中产生的漂移。
为了达成以上目的,本发明采用如下技术方案实现:
一种类脑启发的机器人认知地图构建方法,包括以下步骤:
步骤1,机器人对外部环境进行探索,通过相机获取周围的环境图像信息。
步骤2,将采集到的环境图像信息输入到视觉里程计以及视觉特征提取模块进行处理。
步骤3,视觉里程计对获取的图像进行处理,得到机器人运动的角速度、线速度以及位姿信息,并将角速度信息输入到头朝向细胞模型中,形成机器人对自身方位的感知,得到头朝向细胞编码H;将线速度信息输入到位置细胞模型中,形成机器人对自身位置的感知,得到位置细胞编码P。
所述的视觉里程计对获取的图像进行处理具体为:首先提取两幅相邻图像之间的SURF特征;然后,采用随机采样一致性算法计算机器人的位姿;最后,通过坐标变换得到全局坐标系下的机器人姿态。
所述头朝向细胞模型和位置细胞模型均通过连续吸引子的方法进行建立,具体为:
如图2所示,利用连续吸引子的方法对头朝向细胞进行建模。头朝向细胞的活性用一维向量来表示,并根据连续吸引动力学进行更新。在头朝向细胞中,一维高斯分布用来创建头朝向细胞兴奋向量,分布如下所示:
其中,a表示在头朝向细胞坐标系的索引;khd为头朝向细胞的宽度常数;εhd为头朝向细胞兴奋向量。其更新过程为:
式中,nθ'为头朝向细胞的维度;Hk为k索引下头朝向细胞的活性;ΔHθ'为头朝向细胞群在兴奋条件下的更新量。
如图3所示,位置细胞模型。在位置细胞中,二维高分布可以用来创建位置细胞兴奋向量,分布如下所示:
其中,b,c分别表示在位置细胞坐标系下的索引;kp为位置细胞的宽度常数;εb,c为位置细胞兴奋矩阵。其更新过程为:
其中,nx',ny'为位置细胞在x,y两个方向的维度;Pi,j为(i,j)索引下位置细胞的活性;ΔPx',y'为位置细胞群在兴奋条件下的更新量。
每个细胞(头朝向细胞和位置细胞)也通过抑制性权重矩阵抑制相邻细胞,其参数值相同,权重为负。在兴奋后添加抑制,并添加少量全局抑制。兴奋和抑制导致了合适的网络动力学,抑制条件下的细胞更新如公式所示:
其中,σa为抑制向量;σb,c抑制矩阵;τ为全局抑制;ΔH'θ'为头朝向细胞群在抑制条件下的更新量;ΔP'x',y'为位置细胞群在抑制条件下的更新量。
步骤4,采用视觉特征提取模块对机器人获取到的图像进行处理,通过AlexNet深度学习网络提取图像特征,将网络中最后一层全连接层的信息提取出来,将其输入到主成分分析模块转给中,利用主成分分析算法对信息进行降维,最终得到当前场景下的视觉特征V。
步骤5,由经验地图对机器人获取的所有信息进行有效整合,并通过闭环更新算法对经验地图进行更新,减少机器人在运动过程中产生的漂移,最终完成认知地图的构建。具体为:
经验地图由经验节点e构成,经验节点通过转换t连接。每个经验节点包括头朝向细胞编码、位置细胞编码、位姿信息以及步骤4得到的视觉特征信息,并利用这些信息进行闭环检测。
当前状态下的头朝向细胞编码H、位置细胞编码P以及视觉特征V与经验地图中存储的经验节点一一进行比较,当差异足够大时,则建立一个新的节点,否则判定为闭环点。闭环评判标准S如公式(7):
S=μh|Hi-H|+μp|Pi-P|+μv|Vi-V| (7)
其中,μh为头朝向细胞编码信息所占权重,根据经验取值;μp则为位置细胞编码信息所占权重,根据经验取值;μv则为视觉特征信息所占权重,根据经验取值;Hi为经验地图中存储的第i个节点的头朝向细胞编码;Pi为经验地图中存储的第i个节点的位置细胞编码;Vi为经验地图中存储的第i个节点的位置细胞编码;S为当前状态下的评分。
当评分S大于判定阈值Smax时,则建立一个新的经验节点,节点之间的连接由tij表示。
tij={Δpij} (8)
Δpij基于视觉里程计的计算,则地图更新为:
ej={Hj,Pj,Vj,pi+Δpij} (9)
式中,ej为在当前场景下新生成的经验节点;Hj为新生成的头朝向细胞编码;Pj为新生成的位置细胞编码;Vj为新生成的视觉特征;pi为第i个经验节点的位姿信息;Δpij为第i经验节点与第j个经验节点之间的位姿变化量。
当评分S小于判定阈值Smax时,即检测到闭环发生,则根据闭环更新算法对经验地图中的所有节点进行更新,如公式(10):
其中,Nf为从经验节点i到其他经验节点的链接数;pi为第i个经验节点的位姿信息;pj为从经验节点i到其他经验节点中的第j个经验节点的位姿信息;j为从经验节点i到其他经验节点的索引值;Δpij为第i节点与第j个经验节点之间的位姿变化量;Nt为其他经验节点到经验节点i的链接数;pk为其他经验节点中的第个经验节点与经验节点i相连的位姿信息;Δpki为第k个经验节点与第i个经验节点之间的位姿变化量;k为从其他经验节点到经验节点i的索引值;α为更新常数。
本发明的有益效果如下:本发明将基于特征点法的里程计与空间认知模型相结合,一定程度上提高了方法的适用范围,在复杂的环境中,仍能正常工作,具有较好的鲁棒性。同时,本发明中采用的利用深度学习网络进行图像特征的提取,大大提高了闭环检测的效率和准确性,减少了图像误匹配的概率。本发明通过经验节点对地图信息进行维护,方便管理。
附图说明
图1为类脑启发的机器人认知地图构建方法流程图;
图2为头朝向细胞模型;
图3为位置细胞模型;
图4为视觉特征提取流程;
图5为闭环更新过程;
图6为认知地图。
具体实施方式
下面结合附图与实例,针对本方法做详细说明。
应用场景:本发明可以应用于机器人在室内外环境下的认知地图构建。机器人通过相机获取周围的环境信息并估计自身运动,进而构建认知地图,为机器人后续执行导航任务奠定基础。在本次实例中,我们使用KITTI开源室外数据集。
图1表示类脑启发的机器人认知地图构建方法流程图,首先机器人对环境展开探索,通过相机获取机器人周围的环境信息,通过视觉里程计获取机器人自身的运动信息,然后将角速度以及线速度输入到头朝向细胞模块和位置细胞模块;将图像信息输入到视觉特征提取模块得到机器人当前位置的图像特征。最后,由认知地图对这些信息进行整合,并通过闭环检测和更新算法对地图进行更新,减少机器人在运动过程中产生的漂移,最终完成认知地图的构建。具体步骤如下:
(1)机器人对外部环境进行探索,通过相机获取周围的环境图像信息
通过机器人自身携带的单目相机采集当前场景下的环境图像信息,本实例使用开源室外数据集KITTI进行实验。
(2)将获取到的图像信息输入到视觉里程计模块以及视觉特征提取模块。
(3)视觉里程计与认知细胞相结合,形成机器人对自身位置的感知。
首先,提取两幅相邻图片的SURF特征,然后通过随机采样一致性算法计算机器人位姿。随后,将得到的机器人位姿输入到生物细胞模型中。
如图2所示,利用连续吸引子的方法对头朝向细胞进行建模。头朝向细胞的活性用一维向量来表示,并根据连续吸引动力学进行更新。在头朝向细胞中,一维高斯分布用来创建头朝向细胞兴奋向量,分布如下所示:
其中,a表示在头朝向细胞坐标系的索引;khd为头朝向细胞的宽度常数,取值为7;εhd为头朝向细胞兴奋向量。其更新过程为:
式中,nθ'为头朝向细胞的维度,取值为36;Hk为k索引下头朝向细胞的活性;ΔHθ'为头朝向细胞群在兴奋条件下的更新量。
如图3所示,位置细胞模型。在位置细胞中,二维高分布可以用来创建位置细胞兴奋向量,分布如下所示:
其中,b,c分别表示在位置细胞坐标系下的索引;kp为位置细胞的宽度常数,,取值为7;εb,c为位置细胞兴奋矩阵。其更新过程为:
其中,nx',ny'为位置细胞在x,y两个方向的维度,全部取值为30;Pi,j为(i,j)索引下位置细胞的活性;ΔPx',y'为位置细胞群在兴奋条件下的更新量。
每个细胞(头朝向细胞和位置细胞)也通过抑制性权重矩阵抑制相邻细胞,其参数值相同,权重为负。在兴奋后添加抑制,并添加少量全局抑制。兴奋和抑制导致了合适的网络动力学,抑制条件下的细胞更新如公式所示:
其中,σa为抑制向量;σb,c抑制矩阵;τ为全局抑制,取值为0.00002;ΔH'θ'为头朝向细胞群在抑制条件下的更新量;ΔP'x',y'为位置细胞群在抑制条件下的更新量。
在没有外部输入的情况下,头朝向细胞与位置细胞经过迭代会保持在一个稳定的状态,只有一个细胞激活。与通过加权来计算路径积分的形式不同,通过适当的复制细胞活动来提高积分里程计的速度和准确性。
(4)视觉特征提取模块对图像进行处理,得到当前场景下的视觉特征。
视觉特征提取流程如图4所示。本发明利用AlexNet深度学习网络提取图像特征。从AlexNet获取的图片特征为具有很高的维度,我们对其进行降维来加快我们的计算速度。主成分分析法,是一个非监督的机器学习算法,是一种用于探索高维数据结构的技术,主要用于对数据的降维。
AlexNet共8层网络,5个CNN层和三个全连接层。本发明提取最后一层全连接层的信息,其是一个1000维的向量。为了进一步加快计算速度,获取更有价值的信息,我们对这1000维的数据进行降维。我们利用PCA算法对这1000维的向量进行降维,最终得到一个200维的向量作为场景的视觉模板。
(5)通过经验地图进行信息整合并更新地图。
经验地图是由拓扑节点e构成,这些拓扑节点通过转换t连接。每个拓扑节点由头朝向细胞H、位置细胞P、视觉模板V、位姿信息p组成,一个经验节点可以被定义为四元组:
e={H,P,V,p} (17)
当前状态下的头朝向细胞编码H、位置细胞编码P以及视觉特征V与经验地图中存储的经验节点一一进行比较,当差异足够大时,则建立一个新的节点,否则判定为闭环点。闭环评判标准S如公式(18):
S=μh|Hi-H|+μp|Pi-P|+μv|Vi-V| (18)
其中,μh为头朝向细胞编码信息所占权重,根据经验取值为0.5;μp则为位置细胞编码信息所占权重,根据经验取值为0.5;μv则为视觉特征信息所占权重,根据经验取值为1/170;Hi为经验地图中存储的第i个节点的头朝向细胞编码;Pi为经验地图中存储的第i个节点的位置细胞编码;Vi为经验地图中存储的第i个节点的位置细胞编码;S为当前状态下的评分。
当评分S大于判定阈值Smax=1.5时,则建立一个新的经验节点,节点之间的连接由tij表示。
tij={Δpij} (19)
Δpij基于视觉里程计的计算,则地图更新为:
ej={Hj,Pj,Vj,pi+Δpij} (20)
式中,ej为在当前场景下新生成的经验节点;Hj为新生成的头朝向细胞编码;Pj为新生成的位置细胞编码;Vj为新生成的视觉特征;pi为第i个经验节点的位姿信息;Δpij为第i经验节点与第j个经验节点之间的位姿变化量。
当评分S小于判定阈值Smax时,即检测到闭环发生,则根据闭环更新算法对经验地图中的所有节点进行更新,如公式(21):
其中,Nf为从经验节点i到其他经验节点的链接数;pi为第i个经验节点的位姿信息;pj为从经验节点i到其他经验节点中的第j个经验节点的位姿信息;j为从经验节点i到其他经验节点的索引值;Δpij为第i节点与第j个经验节点之间的位姿变化量;Nt为其他经验节点到经验节点i的链接数;pk为其他经验节点中的第个经验节点与经验节点i相连的位姿信息;Δpki为第k个经验节点与第i个经验节点之间的位姿变化量;k为从其他经验节点到经验节点i的索引值;α为更新常数,取值为0.5。
最终,构建完成经验地图。经验地图与GPS测得实际位置的比较如图6所示。
以上所述实施例仅表达本发明的实施方式,但并不能因此而理解为对本发明专利的范围的限制,应当指出,对于本领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些均属于本发明的保护范围。
Claims (2)
1.一种类脑启发的机器人认知地图构建方法,其特征在于,包括以下步骤:
步骤1,机器人对外部环境进行探索,通过相机获取周围的环境图像信息;
步骤2,将采集到的环境图像信息输入到视觉里程计以及视觉特征提取模块进行处理;
步骤3,视觉里程计对获取的图像进行处理,得到机器人运动的角速度、线速度以及位姿信息,并将角速度信息输入到头朝向细胞模型中,形成机器人对自身方位的感知,得到头朝向细胞编码H;将线速度信息输入到位置细胞模型中,形成机器人对自身位置的感知,得到位置细胞编码P;
所述的视觉里程计对获取的图像进行处理具体为:首先提取两幅相邻图像之间的SURF特征;然后,采用随机采样一致性算法计算机器人的位姿;最后,通过坐标变换得到全局坐标系下的机器人姿态;
步骤4,采用视觉特征提取模块对机器人获取到的图像进行处理,通过AlexNet深度学习网络提取图像特征,将网络中最后一层全连接层的信息提取出来,将其输入到主成分分析模块转给中,利用主成分分析算法对信息进行降维,最终得到当前场景下的视觉特征V;
步骤5,由经验地图对机器人获取的所有信息进行有效整合,并通过闭环更新算法对经验地图进行更新,完成认知地图的构建;经验地图由经验节点e构成,经验节点通过转换t连接;每个经验节点包括头朝向细胞编码、位置细胞编码、位姿信息以及步骤4得到的视觉特征信息,并利用这些信息进行闭环检测;具体为:
当前状态下的头朝向细胞编码H、位置细胞编码P以及视觉特征V与经验地图中存储的经验节点一一进行比较,当差异足够大时,则建立一个新的节点,否则判定为闭环点;闭环评判标准S如公式(7):
S=μh|Hi-H|+μp|Pi-P|+μv|Vi-V| (7)
其中,μh为头朝向细胞编码信息所占权重,根据经验取值;μp则为位置细胞编码信息所占权重,根据经验取值;μv则为视觉特征信息所占权重,根据经验取值;Hi为经验地图中存储的第i个节点的头朝向细胞编码;Pi为经验地图中存储的第i个节点的位置细胞编码;Vi为经验地图中存储的第i个节点的视觉特征;S为当前状态下的评分;
当评分S大于判定阈值Smax时,则建立一个新的经验节点,节点之间的连接由tij表示;
tij={Δpij} (8)
Δpij基于视觉里程计的计算,则地图更新为:
ej={Hj,Pj,Vj,pi+Δpij} (9)
其中,ej为在当前场景下新生成的经验节点;Hj为新生成的头朝向细胞编码;Pj为新生成的位置细胞编码;Vj为新生成的视觉特征;pi为第i个经验节点的位姿信息;Δpij为第i经验节点与第j个经验节点之间的位姿变化量;
当评分S小于判定阈值Smax时,即检测到闭环发生,则根据闭环更新算法对经验地图中的所有节点进行更新,如公式(10):
其中,Nf为从经验节点i到其他经验节点的链接数;pi为第i个经验节点的位姿信息;pj为从经验节点i到其他经验节点中的第j个经验节点的位姿信息;j为从经验节点i到其他经验节点的索引值;Δpij为第i节点与第j个经验节点之间的位姿变化量;Nt为其他经验节点到经验节点i的链接数;pk为其他经验节点中的第k个经验节点与经验节点i相连的位姿信息;Δpki为第k个经验节点与第i个经验节点之间的位姿变化量;k为从其他经验节点到经验节点i的索引值;α为更新常数。
2.根据权利要求1所述的一种类脑启发的机器人认知地图构建方法,其特征在于,所述头朝向细胞模型和位置细胞模型均通过连续吸引子的方法进行建立。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010326608.9A CN111376273B (zh) | 2020-04-23 | 2020-04-23 | 一种类脑启发的机器人认知地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010326608.9A CN111376273B (zh) | 2020-04-23 | 2020-04-23 | 一种类脑启发的机器人认知地图构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111376273A CN111376273A (zh) | 2020-07-07 |
CN111376273B true CN111376273B (zh) | 2022-04-12 |
Family
ID=71214356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010326608.9A Active CN111376273B (zh) | 2020-04-23 | 2020-04-23 | 一种类脑启发的机器人认知地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111376273B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112097769B (zh) * | 2020-08-05 | 2022-06-10 | 北京航空航天大学 | 仿信鸽脑-海马的无人机同时定位与建图导航系统及方法 |
CN112509051A (zh) * | 2020-12-21 | 2021-03-16 | 华南理工大学 | 一种基于仿生学的自主移动平台环境感知与建图方法 |
CN113110492B (zh) * | 2021-05-07 | 2022-06-21 | 苏州大学 | 一种路径规划方法 |
CN113703322B (zh) * | 2021-08-28 | 2024-02-06 | 北京工业大学 | 仿鼠脑视觉通路和内嗅—海马结构的情景记忆模型构建方法 |
WO2023184223A1 (zh) * | 2022-03-30 | 2023-10-05 | 中国电子科技集团公司信息科学研究院 | 基于脑启发空间编码机制的机器人自主定位方法和装置 |
CN114894191B (zh) * | 2022-04-14 | 2024-04-26 | 河南大学 | 一种适用于动态复杂环境的无人机导航方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060206219A1 (en) * | 1995-05-30 | 2006-09-14 | Brown David W | Motion control systems and methods |
CN106802655A (zh) * | 2016-11-30 | 2017-06-06 | 北京贝虎机器人技术有限公司 | 室内地图生成方法及装置 |
CN108362284A (zh) * | 2018-01-22 | 2018-08-03 | 北京工业大学 | 一种基于仿生海马认知地图的导航方法 |
CN109668566B (zh) * | 2018-12-05 | 2022-05-13 | 大连理工大学 | 一种基于鼠脑定位细胞的机器人情景认知地图的构建与导航方法 |
CN109886384B (zh) * | 2019-02-15 | 2021-01-05 | 北京工业大学 | 一种基于鼠脑海马网格细胞重构的仿生导航方法 |
-
2020
- 2020-04-23 CN CN202010326608.9A patent/CN111376273B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111376273A (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111376273B (zh) | 一种类脑启发的机器人认知地图构建方法 | |
CN107369166B (zh) | 一种基于多分辨率神经网络的目标跟踪方法及系统 | |
Chen et al. | Door recognition and deep learning algorithm for visual based robot navigation | |
CN112734765B (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 | |
CN110717927A (zh) | 基于深度学习和视惯融合的室内机器人运动估计方法 | |
CN110363816A (zh) | 一种基于深度学习的移动机器人环境语义建图方法 | |
CN111368759B (zh) | 基于单目视觉的移动机器人语义地图构建系统 | |
CN111160294B (zh) | 基于图卷积网络的步态识别方法 | |
CN110399789A (zh) | 行人重识别方法、模型构建方法、装置、设备和存储介质 | |
CN109508686B (zh) | 一种基于层次化特征子空间学习的人体行为识别方法 | |
CN112052802A (zh) | 一种基于机器视觉的前方车辆行为识别方法 | |
CN110119768B (zh) | 用于车辆定位的视觉信息融合系统及方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN111216126B (zh) | 基于多模态感知的足式机器人运动行为识别方法及系统 | |
Wen et al. | CAE-RLSM: Consistent and efficient redundant line segment merging for online feature map building | |
Fan et al. | Biologically-inspired visual place recognition with adaptive multiple scales | |
CN112733971A (zh) | 扫描设备的位姿确定方法、装置、设备及存储介质 | |
CN112561947A (zh) | 一种图像自适应运动估计方法及应用 | |
CN116299525A (zh) | 一种基于点云区域相关性的动态环境rgb-d视觉slam方法 | |
CN113781521B (zh) | 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法 | |
CN111626417B (zh) | 一种基于无监督深度学习的闭环检测方法 | |
Sujiwo et al. | Robust and accurate monocular vision-based localization in outdoor environments of real-world robot challenge | |
CN115187614A (zh) | 一种基于stdc语义分割网络的实时同时定位与建图方法 | |
CN114119757A (zh) | 图像处理方法、装置、设备、介质和计算机程序产品 | |
Zhou et al. | Visual tracking using improved multiple instance learning with co-training framework for moving robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |