CN111813113A - 仿生视觉自运动感知地图绘制方法、存储介质及设备 - Google Patents

仿生视觉自运动感知地图绘制方法、存储介质及设备 Download PDF

Info

Publication number
CN111813113A
CN111813113A CN202010638446.2A CN202010638446A CN111813113A CN 111813113 A CN111813113 A CN 111813113A CN 202010638446 A CN202010638446 A CN 202010638446A CN 111813113 A CN111813113 A CN 111813113A
Authority
CN
China
Prior art keywords
self
environment
information
perception
scene memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010638446.2A
Other languages
English (en)
Other versions
CN111813113B (zh
Inventor
陈孟元
田德红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Polytechnic University
Original Assignee
Anhui Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Polytechnic University filed Critical Anhui Polytechnic University
Priority to CN202010638446.2A priority Critical patent/CN111813113B/zh
Publication of CN111813113A publication Critical patent/CN111813113A/zh
Application granted granted Critical
Publication of CN111813113B publication Critical patent/CN111813113B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种仿生视觉自运动感知地图绘制方法、存储介质及设备,所述方法包括:根据仿生视觉感知系统采集环境信息,构建表征空间位置的情景记忆单元及环境地标模板,并生成对应的情景记忆库;根据陀螺仪和加速度计采集自运动信息,进行方向和位移编码,更新位姿感知信息;采用情景记忆库和环境地标模板对自运动信息进行修正;根据环境地标模板、情景记忆单元及自运动感知的相互联系,对仿生自运动感知地图进行绘制和校正。本发明能够利用视觉感知模板减少自运动感知误差,提高自主定位的精度以及情景记忆单元闭环检测的准确率。

Description

仿生视觉自运动感知地图绘制方法、存储介质及设备
技术领域
本发明属于SALM(即时定位与地图构建技术)技术领域,涉及一种仿生视觉自运动感知地图绘制方法、存储介质及设备。
背景技术
SALM技术(即时定位与地图构建技术)的核心问题是,要求机器人在一个陌生的环境中,首先要探索环境从而了解环境(构建地图),同步运用地图追踪机器人在该环境中的位置(定位)。对SALM问题的传统解决方法主要是基于数学概率方法,其中,卡尔曼滤波器、粒子滤波器和极大期望算法等是机器人SALM问题的基本解决方法。虽然这些传统的SALM算法中仍使用激光测距和声呐测距采集信息,但是这些传感器采集信息,往往得到的数据不精确且使用有一定的局限性,更多情况下激光测距传感器已被视觉传感器所替代。
现有技术中,通常采用视觉SLAM算法来构建上述二维拓扑图,在构建二维拓扑图的过程中,通过图像处理方法来进行局部场景模板的更新,该方法仅能判断两幅环境图像信息是否一致,不存在位置坐标的实时更新,由于环境图像信息在获取和传输过程中会产生各类噪音,即使相同位置获得的图像信息也具有一定的差异,因此现有技术会导致图像匹配准确率和定位精度低,进而导致所构建的二维拓扑图失真。
发明内容
本发明的目的在于提供一种用于自动驾驶的轨迹控制方法,以解决现有技术中因位置坐标不能实时更新,图像匹配准确率和定位精度较差,二维位置估计图失真较为严重的问题。
所述的仿生视觉自运动感知地图绘制方法,包括:
步骤S1,根据仿生视觉感知系统采集的环境信息,构建表征空间位置的情景记忆单元及环境地标模板,并生成对应的情景记忆库;
步骤S2,根据陀螺仪和加速度计采集自运动信息,进行方向和位移编码,更新位姿感知信息;
步骤S3,采用情景记忆库和环境地标模板对自运动信息进行修正;
步骤S4,根据环境地标模板、情景记忆单元及自运动感知的相互联系,对仿生自运动感知地图进行绘制和校正。
优选的,在构建所述情景记忆库的过程中,首先,采用视觉传感器获取环境图像,对环境信息进行处理,得到表征环境位置的情景记忆单元;然后,采用视觉感知和相似性度量的方式来构建环境地标与空间位置信息的情景记忆库,每个情景记忆单元的显著度水平
Figure BDA0002570375150000021
为:
Figure BDA0002570375150000022
其中,Ii(r)是初始环境识别信息,α是为了确保需要探索的空间环境中有足够的表征环境位置点的记忆单元而引入的参数,经过多次试验可得α=0.5时效果最好,B=0.1是用来判断位置r处的记忆单元是否被激活而设置的常数,即当且仅当某个情景记忆单元接收到的初始环境识别信息输入量在所有位置点最大显著度的10%以内时,情景记忆单元才会在r处被激活。
优选的,在所述步骤S2中,构建路径整合模块,利用陀螺仪和加速度计获取角速度调节信号以及特定方向上线速度调节信号,同时建立情景记忆库与路径整合模块的联系,对方向和位移进行编码;在t时刻更新的方向感知单元的优先方向θHD(t)为:
Figure BDA0002570375150000023
其中,N为方向感知单元最优方向的个数(N≥1);δi为第i个方向感知单元最优方向,δi∈[0,2π),i=1,2,…N,保证生成的多尺度路径整合模块可以覆盖整个环境的空间方向;
Figure BDA0002570375150000024
为移动机器人当前移动方向;在t时刻更新的移动机器人沿着θ方向上的移动速度vθ(t)为:
Figure BDA0002570375150000025
沿上述移动方向进行积分得到位移向量
Figure BDA0002570375150000026
Figure BDA0002570375150000031
其中,移动机器人的移动方向
Figure BDA0002570375150000032
与方向感知单元的优先方向θHD(t)保持一致,γ为速度平衡因子,平衡自运动感知模块的速度变化水平;v(t)为t时刻移动机器人沿着δi方向上的移动速度;随着移动机器人的不断探索,不同方向的条纹波即位移矢量叠加为路径整合提供距离信息,生成多尺度路径整合模块,计算不同位置r处的自运动感知信息为:
Figure BDA0002570375150000033
式中,r=[x,y]为空间环境中移动机器人的当前位置;λ为第i个模块的间距;θ为路径整合模块的运动方向且与方向感知单元θHD(t)保持一致;ri为路径整合模块i的位相;RGC(r,λ,θ,ri)为第i个模块在位置r处的自运动感知信息;i=1,2,…,NGC,NGC为模块的总数;
Figure BDA0002570375150000034
为沿着不同方向感知单元的优选方向的投影,k=1,2,3,θk={-60°,0,60°};通过引入高斯分布函数,利用其局部化滤波特性对自运动感知信息进行处理,得到稳定的模块兴奋区域;高斯函数表示为g(x)=exp[p(x-q)-1],
其中p=0.3,q=-1.5.通过调整RGC(r,λ,θ,ri)中λ、θ和ri可以得到不同间距、方向和位相的路径整合模块,即生成多尺度的自运动感知模块。
优选的,在构建所述环境地标模板过程中,通过视觉传感器在待探索空间环境中选取M个特征显著且稳定的地标信息进行编码,即某一时刻移动机器人在空间中的参考位置可根据移动机器人与不同地标之间的距离关系L以及二维坐标D=[xn,yn]来表示,建立位置坐标与地标之间的映射关系f为:D(xn,yn)→L(L1,L2,L3,…,LM);构建情景记忆单元与地标关系,建立新的地标模板,情景记忆单元与不同地标之间的距离关系表示为:
Figure BDA0002570375150000035
其中,Pn(r)为位置r处第n个地标编码,空间环境中移动机器人的真实位置的坐标信息r=[x,y],D=[xn,yn]为第n个参考位置的坐标信息,χ2表示情景记忆单元的环境信息显著度调整因子。
优选的,所述步骤3具体包括:采用仿生视觉感知对应的情景记忆库来实现自运动信息的修正,当使用仿生视觉感知的情景记忆库识别失败时,则使用环境地标模板进行自运动信息的修正。
优选的,所述使用环境地标模板进行自运动信息的修正前,将当前地标编码表征的位置估计与真实值位置进行对比,若两者的比值低于预设阈值,则采用环境地标模板对自运动信息进行修正,该修正表示为:
Figure BDA0002570375150000041
Figure BDA0002570375150000042
其中dij为真实值与估计值的距离估计值,εd为预设阈值,ri(x,y)为第i个情景记忆单元的位置估计值,Lj(x,y)为第j个地标真实位置,ΛRGC为修正后的自运动信息。
优选的,步骤S4中,当前情景记忆单元的显著度水平和当前环境地标模板,共同决定了认知地图构建的各组成要素,其中,关联性连接水平表示为:
Figure BDA0002570375150000043
其中,η为学习速率,RGC为第i个模块在位置r处的自运动感知信息,
Figure BDA0002570375150000044
为第i个情景记忆单元的显著度水平,Li为第i个地标,wij为环境地标模板、情景记忆单元以及路径整合模块三者之间的连接权值。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的仿生视觉自运动感知地图绘制方法的步骤。
本发明还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的仿生视觉自运动感知地图绘制方法的步骤。
本发明的优点在于:
(1)使用基于仿生视觉感知的仿生SLAM技术对速度和方向信息进行累计误差校准,并进行闭环检测,不仅考虑到实时坐标更新,而且考虑到相邻情景记忆单元间的兴奋性水平差异,提高了闭环检测的准确性。
(2)使用仿生视觉感知模板与环境地标模板修正相结合的方式,且两种修正方法可相互转换,考虑到单独使用环境地标模板进行修正会降低算法实时性的缺陷,选择优先使用仿生视觉感知模板修正,辅助使用环境地标模板修正,在提高闭环检测准确率的同时,实时性也不会有很大的影响,且可以减少由于角度偏移而产生的累积误差,从而达到感知地图的优化效果。
附图说明
图1为仿生视觉自运动感知地图绘制方法的流程示意图。
图2为构建仿生视觉感知情景记忆库的流程示意图。
图3为构建自运动感知模块的流程示意图。
图4为第一次环境探索学习时部分自运动感知模块变化情况。
图5为第一次环境探索学习时多尺度自运动感知模块下情景记忆单元在不同位置处的兴奋情况。
图6为第一次环境探索学习时情景记忆单元对环境位置的认知记忆图。
图7为第一次环境学习后情景记忆单元竞争后的认知记忆图。
图8为多尺度自运动感知模块下不同距离阈值Δd和运动时间t的位置估计响应图。
图9为阈值筛选前情景记忆单元响应图。
图10为阈值筛选后情景记忆单元响应图。
图11为第二次漫游运动时到达先前位置处未经过环境地标信息校正的特征匹配图像。
图12为第二次漫游运动时到达先前位置处经过环境地标信息校正后的匹配图像。
图13为使用仿生视觉SLAM算法对自运动感知模块修正所生成的情景记忆库构建的环境位置估计图。
图14为使用基于仿生视觉SLAM算法及环境地标信息进行闭环检测的位置估计图。
图15为二维环境位置估计图绘制过程中情景记忆单元放电率权值及认知点分布图。
具体实施方式
下面对照附图,通过对实施例的描述,对本发明具体实施方式作进一步详细的说明,以帮助本领域的技术人员对本发明的发明构思、技术方案有更完整、准确和深入的理解。
生物根据内部感知方式,从周围环境中提取很多位置信息,实现在复杂环境下的导航。通过模仿大鼠的内部导航机制即路径整合机制归航(回巢),并且路径整合机制可以通过视觉信息重新校准。因此,结合自运动感知和仿生视觉感知系统,实现复杂环境下的定位与导航,构建出二维环境位置估计图,能够直观地反映定位和导航的情况。利用该原理对现有的SALM技术进行改进得到本发明方案。
如图1所示,本发明提供了一种仿生视觉自运动感知地图绘制方法,包括:
步骤S1,根据仿生视觉感知系统采集的环境信息,构建表征空间环境的情景记忆单元,并生成对应的情景记忆库。
模拟大鼠的仿生视觉感知系统包括:两个视觉感知标定器、信号调理电路、模数(AD)转换器。其中,两个视觉感知标定器对称安置,作为大鼠的两个眼睛(称为左眼和右眼),主控芯片优选为STM32主控芯片。
仿生视觉感知系统的工作原理为:两个视觉感知标定器分别将在不同位置处获取的环境图像信息进行预处理,提供每帧图像的特征信息形成一个视觉模板库即情景记忆库,再转化为电信号,电信号经过信号调理电路进行电压放大以及滤波处理,通过AD转换器换成数字信号传输至视觉感知标定器;用局部图像微分技术来获得边缘检测算子,对图像边缘检测后通过特征匹配算法进行匹配,通过数模(DA)转换器转换为模拟信号,模拟信号经过放大处理后,通过视觉感知标定器进行位置标定。
如图2所示,步骤S1具体包括:
仿生视觉感知系统获取环境图像信息,并对图像进行预处理,提取每帧图像的特征信息形成一个情景记忆单元,通过记忆单元的唯一性,建立情景记忆库表征空间环境。本方案通过竞争后权值调整及归一化处理得到新的记忆单元与环境地标的连接强度,其修改后的权值连接为:
Figure BDA0002570375150000071
Figure BDA0002570375150000072
其中,ωij表示情景记忆库的第j个情景记忆单元与第i个环境地标的连接权重,ε为情景记忆单元与环境地标的关联程度,
Figure BDA0002570375150000073
表示第j个当前情景记忆单元的显著度水平,
Figure BDA0002570375150000074
表示第j个已生成情景记忆单元的显著度水平。如果当前地标识别成功
Figure BDA0002570375150000075
更新当前情景记忆单元的显著度水平,否则
Figure BDA0002570375150000076
情景记忆单元的显著度水平被重置,重新学习记忆当前位置。如果识别成功,当前的情景记忆单元则由下式更新:
Figure BDA0002570375150000077
其中,νPC表示更新后的新情景记忆单元的显著度水平,ωij表示情景记忆库的第j个情景记忆单元与第i个环境地标的连接权重,Li为地标序列中的第i个地标,NL为地标的数量。
步骤S1中要激活情景记忆单元,首先对获取的环境图像信息进行去噪处理,得到表征环境位置的情景记忆单元;然后,采用视觉感知的方式来构建环境地标与空间位置信息的情景记忆库,每个情景记忆单元的显著度水平定义为:
Figure BDA0002570375150000078
其中,Ii(r)是初始环境识别信息,α是为了确保需要探索的空间环境中有足够的表征环境位置点的记忆单元而引入的参数,经过多次试验可得α=0.5时效果最好,B=0.1是用来判断位置r处的记忆单元是否被激活而设置的常数,即当且仅当某个情景记忆单元接收到的初始环境识别信息输入量在所有位置点最大显著度的10%以内时,情景记忆单元才会在r处被激活。
探索学习后显著度水平最高的情景记忆单元,通过Hebb学习规则加强与环境位置信息的连接强度,由下式表示
Figure BDA0002570375150000081
为:
Figure BDA0002570375150000082
k为学习速率,
Figure BDA0002570375150000083
为第i个情景记忆单元的显著度水平,wij为情景记忆单元与环境地标的连接权值。
在仿生视觉感知SLAM模型中,采用高斯平滑滤波器对步骤S1中得到的环境图像图进行去畸变处理,以排除外界环境变化引起的图形畸变。
将去畸变处理后的环境图像信息存储记忆起来,形成一个情景记忆单元E具体表示为:
Figure BDA0002570375150000086
其中,o为处理后的视觉感知图,s表示当前机器人的状态,由于环境信息随着运动不断地变化,对情景记忆单元进行唯一性映射h:o→s,即对任意环境信息,只有一个情景记忆单元与当前图像信息对应;p为机器人当前的位置坐标即p=(x,y,θ)。
进一步地,对情景记忆单元进行标准化处理(也称归一化处理),形成标准化情景记忆单元,其计算公式可表示为:
Figure BDA0002570375150000084
其中,i与j分别表示第i个记忆单元和第j个记忆单元,i=1,2,…,n;j=1,2,…,n。
最后,将标准化情景记忆单元作为当前仿生情景记忆库,计算公式可表示为:
Figure BDA0002570375150000085
采用双目视觉感知图作为仿生情景记忆库,局部情景记忆单元由一个一维记忆单元阵列组成,每个记忆单元对应一个特定的视觉场景信息。
步骤S2,根据陀螺仪和加速度计采集自运动信息,进行方向和位移编码,更新自运动状态信息。其中构建自运动感知模块的流程如图3所示。
机器人在空间环境中特定的位姿状态时,受空间自运动感知模块的调控,通过机器人内部活动来控制自运动感知模块。路径整合是通过转换每个自运动感知模块基于机器人加速度计速度、陀螺仪角速度更新自运动感知模块的活动,同时使用仿生视觉感知模板的比较来保持和校正位姿信息,从而对自运动感知模块实现消除累计误差的功能,其中x表示机器人所处环境位置点的横坐标信息,y表示机器人所处环境位置点的纵坐标信息,θ表示机器人所处环境位置的角度信息。自运动感知模块内部动态过程主要包括方向更新、位置坐标点更新。该模型路径积分方法是预测下一时刻自运动感知模块的状态而不是立即将当前状态进行转移。该过程使其性能独立于视觉感知与环境位置信息权值连接变化与地标模板信息权值连接变化,不仅能生成更加准确地机器人位置估计轨迹,并且不需要参数调整。经过路径整合后,被更新的机器人位置和方向信息为如下式所示。
θ(k+1)=θ(k)+ω(k)T
x(k+1)=x(k)+vt(k)Tcos(θ(k+1))
y(k+1)=y(k)+vt(k)Tsin(θ(k+1)),
其中,x(k),y(k),θ(k)分别表示机器人在第k个时刻的位置和方向信息;vt(k),ω(k)分别表示机器人的线速度和角速度信息,T表示采样时间。
步骤S3,采用情景记忆库和环境地标模板对自运动信息进行修正。
采用仿生视觉感知对应的情景记忆库对自运动感知信息的修正,双目视觉感知图作为情形记忆库模板,情景记忆库由一个一维情景记忆单元阵列组成,每个单元对应一个特定的视觉感知图。在路径整合时,由于位置坐标和方向上的累积误差,使用情景记忆库模板来进行修正。对于每个新的环境场景,算法会建立新的情景记忆库,同时建立情景记忆单元与环境地标的联系。进行更新的连接强度为:
Figure BDA0002570375150000091
其中,k为学习速率,
Figure BDA0002570375150000092
为第i个情景记忆单元的显著度水平,wij为情景记忆单元与环境地标的连接权值。
对于每一个环境感知坐标使用欧式距离进行处理产生局部估计位置。将当前位置估计坐标与真实位置坐标进行对比,通过计算所有情景感知视觉模板库中编码的位置坐标与当前位置坐标的距离之差,如下式所示:
Figure BDA0002570375150000093
其中Dij为真实值与估计值的距离差值,ri(x,y)为位置估计值,Pj(x,y)为第j个视觉感知模板中的真实位置坐标。如果距离之差低于某一阈值εd,当前位置估计满足置信度,位置估计充分类似,对自运动感知模块进行校正,如下式所示:
Figure BDA0002570375150000101
如果距离之差高于某一阈值εd,当前的环境场景信息将生成新的仿生情景记忆单元并加入到情景记忆库中。阈值εd如下式所示:
Figure BDA0002570375150000102
其中,np为情景记忆库中的情景记忆单元的数量,kd为调整系统的比例因子,设置为2。
当使用仿生视觉情景记忆库模板识别失败时,则使用环境地标模板进行自运动感知模块的修正。
nG表示地标模板的数量,此处采用均方根误差RMES来衡量观测值与真实值之间的偏差,Pn表示观测值的位置坐标,ri表示真实值的位置坐标,此处将会对偏差较大的观测估计值进行剔除。
Figure BDA0002570375150000103
在使用地标模板对自运动感知模板进行修正前,将当前地标编码表征的位置估计与真实值位置距离进行估计,若两者距离差值低于预设阈值γ,则采用环境地标模板对自运动信息进行修正,该修正表示为:
Figure BDA0002570375150000104
Figure BDA0002570375150000105
其中dij为真实值与估计值的距离差值,εd为预设阈值,ri(x,y)为位置估计值,Lj(x,y)为第j个地标真实位置,ΛRGC为修正后的自运动信息。如果两者的距离差值高于预设阈值γ,则将当前环境感知坐标作为新的环境地标模板,并将其位置信息记录到环境地标模板库中。
步骤3采用仿生视觉感知对应的情景记忆库来实现自运动感知模块的修正,当使用仿生视觉感知模板识别失败时,则使用环境地标信息进行辅助自运动模块的修正,具体修正方式和公式如前所述。考虑到单独使用环境地标信息进行修正会降低算法的实时性,所以将考虑优先使用视觉感知模板修正,以环境地标信息为辅助修正方式,在提高闭环检测准确率的同时,定位精度也有所提升且实时性受影响也较小。
步骤S4,根据环境地标模板、情景记忆单元、自运动感知的相互联系,对仿生自运动感知二维环境位置估计图进行绘制和校正。
在步骤S4中,对于每个新的局部场景记忆单元,算法会建立新的视觉感知模板库,同时建立视觉感知模板库、环境地标与自运动感知模块之间的联系,即视觉感知模块、环境地标与自运动感知模块三者之间会随着运动场景的变化连接强度会发生变化,其中,显著度水平变化可表示为:
Figure BDA0002570375150000111
其中,η为学习速率,RGC为第i个模块在位置r处的自运动感知信息,
Figure BDA0002570375150000112
为第i个情景记忆单元的显著度水平,Li为第i个地标。
步骤S4的校正过程包括:使用当前自运动感知状态、环境地标信息和仿生视觉感知模板与位置估计图进行匹配时,当到达经历过的环境位置时,视觉感知模板中的情景记忆单元将表现出最大兴奋性,进行一次闭环检测,并对当前的自运动感知状态信息和位置估计图进行一次修正。
下面以结合具体实验对上述构建视觉感知的情景记忆库模板的过程进行说明。
图4至图10分别给出了两次环境探索时,情景记忆单元的生成、对特定环境信息的表征以及对显著度水平较高情景记忆单元的筛选。图14提供了本方案在闭环检测中的位置估计图,其中蓝色圈表示情景记忆单元响应位置,表征当前位置信息,红色线条表示原始里程计信息。
为了更好地构建基于视觉感知的情景记忆库模板与移动机器人和不同环境地标信息之间距离的相对关系进行位置估计,即当移动机器人第二次到达已探索学习过的环境中的某一位置时,可以通过计算情景记忆单元的兴奋性估计当前位置估计精度。
Figure BDA0002570375150000121
第i个
Figure BDA0002570375150000122
表示融合视觉感知单元和地标信息的显著度水平;di(t)为路标i相对移动机器人的距离,
Figure BDA0002570375150000123
为路标i相对情景记忆单元k的距离编码,θi(t)为路标i相对移动机器人的方向,
Figure BDA0002570375150000124
为路标i相对情景记忆单元k的方向编码,NL为当前获得视觉感知单元与已生成视觉感知模板库的有效匹配值;
Figure BDA0002570375150000125
Figure BDA0002570375150000126
分别是相对距离和相对方位对视觉情景记忆单元放电野的调整因子;ωd和ωθ分别表示生成视觉感知单元时相对距离和相对方向是否对其有贡献。若有,取值为1,否则,取0;ωi为地标i对生成当前位置处的视觉感知单元的置信度。情景记忆单元放电率权值及认知点分布图如图15所示。
表1
Figure BDA0002570375150000127
表2
Figure BDA0002570375150000128
仿生视觉感知SLAM算法的位置估计定位误差的实验数据如表1所示,基于自运动感知下的仿生视觉感知SLAM算法的位置估计定位误差的实验数据如表2所示。
由表1和表2可知,随着阈值的增大,定位误差也随之增大,同时阈值大于4m时,两种方法的定位误差相差不大,因此综合考虑定位精度要求和计算复杂度,选择合适的距离阈值构建位置估计图,使系统能够达到实时性的情况下提高定位精度。另外,对于定位误差精度,融合自运动感知和仿生视觉感知的算法具有明显的提高。
选取表2算法下的情景记忆库,得到筛选前和筛选后的位置估计图如图9和10所示,其中图9为筛选前的位置估计图,图10为筛选后的位置估计图。
当存在复杂未知环境时,使用基于自运动感知下的仿生视觉感知SLAM算法具有明显的实时性优势,提高定位精度,同时利用闭环检测减小位置估计图的失真率。
下面将用另一组实验对本实施例的方法进行说明:选取室内椭圆形会议桌构建的环形场地作为实验环境,以里程计获取的位置信息作为基准,机器人分别使用基于视觉感知修正SLAM过程和基于环境地标模板下修正SLAM过程,在暗光条件下进行环绕运行实验,两种修正方式下的位置估计图分别如图11至图14所示,其中,a为机器人的起始点,b为机器人的终点。
由图11可以看出,仿生自运动感知SLAM算法构建的运行轨迹图在第一圈时,当到达终点b过程中,由于没有环境地标模板的参考,会出现轨迹偏离现象。在自动定位到a点后,继续探索,当到达c点时,第一次与模板库对比成功形成重定位,但由于图像会产生畸变和受环境背景灯问题的影响,出现了c点到a点及d点到b点的误差轨迹漂移,当到达d点时,再次与模板库识别成功进行再一次的重定位,继续导航探索直至到达终点b处,但此时已经出现偏离,运行轨迹未能与b点重合。
由图12可以看出,仿生自运动感知SLAM算法构建的运行轨迹图在加入环境地标校正后,构图效果明显优于无环境地标校正,且真实轨迹与原始里程计轨迹基本一致,说明了加入环境地标校正后,可以提高仿生自运动感知SLAM算法定位精度,从而使构图效果更佳,但在拐弯出仍会出现轨迹偏离现象。另外,图13中蓝色圆圈表示在SLAM过程中情景记忆单元的响应位置,红色线表示原始里程计信息。由图13可以看出,即使加入阈值筛选,情景记忆单元对环境的响应也会受到环境变化的影响,例如,光线的强弱,运动过程中视觉传感器的抖动等,这都会使情景记忆单元对环境的重复表征,出现图13中偏离原始里程计信息的响应点。这一问题在加入环境地标校正后可以重新校准,降低位置估计的误差及情景记忆单元的误响应。
由图14可知,将仿生视觉感知SLAM算法融入到自运动感知中,构建的位置估计图在第一圈学习记忆时,由于仿生视觉模板和环境地标模板的共同修正(先仿生视觉感知模板修正,后环境地标模板辅助修正),当到达终点b时,自动定位到起点a,继续探索学习,虽然在探索学习中会存在各种环境干扰,但是当使用视觉感知模板识别失败时,自动调用显著的环境地标模板进行修正,因此第二圈漫游的的位置估计图与第一次探索学习时的基本重合。产生这种基本重合现象的原因是仿生视觉感知模板和显著环境地标模板的共同修正不仅考虑到环境信息,而且校准了自运动感知的累积误差,提高了闭环检测的准确性。
由上述实验可知,基于自运动感知下的仿生视觉SLAM算法不仅完成了暗光条件下的位置估计图绘制,而且提高了闭环检测的准确率,减小了定位误差和轨迹图偏差,改善了位置估计图定位精度,实现了位置估计图的优化。
实施例二
与本发明实施例一对应,本发明实施例二提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现以下步骤:
步骤S1,根据仿生视觉感知系统采集的环境信息,构建表征空间位置的情景记忆单元及环境地标模板,并生成对应的情景记忆库;
步骤S2,根据陀螺仪和加速度计采集自运动信息,进行方向和位移编码,更新位姿感知信息;
步骤S3,采用情景记忆库和环境地标模板对自运动信息进行修正;
步骤S4,根据环境地标模板、情景记忆单元、自运动感知的相互联系,对仿生自运动感知二维环境位置估计图进行绘制和校正。
上述存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、光盘等各种可以存储程序代码的介质。
上述关于计算机可读存储介质中程序执行后实现步骤的具体限定可以参见实施例一,在此不再做详细说明。
实施例三
与本发明实施例一对应,本发明实施例三提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
步骤S1,根据仿生视觉感知系统采集的环境信息,构建表征空间位置的情景记忆单元及环境地标模板,并生成对应的情景记忆库;
步骤S2,根据陀螺仪和加速度计采集自运动信息,进行方向和位移编码,更新位姿感知信息;
步骤S3,采用情景记忆库和环境地标模板对自运动信息进行修正;
步骤S4,根据环境地标模板、情景记忆单元、自运动感知的相互联系,对仿生自运动感知二维环境位置估计图进行绘制和校正。
上述关于计算机设备实现步骤的具体限定可以参见实施例一,在此不再做详细说明。
需要说明的是,本发明的说明书附图中的框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与获得机指令的组合来实现。
上面结合附图对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的发明构思和技术方案进行的各种非实质性的改进,或未经改进将本发明构思和技术方案直接应用于其它场合的,均在本发明保护范围之内。

Claims (9)

1.仿生视觉自运动感知地图绘制方法,其特征在于,所述方法包括:
步骤S1,根据仿生视觉感知系统采集的环境信息,构建表征空间位置的情景记忆单元及环境地标模板,并生成对应的情景记忆库;
步骤S2,根据陀螺仪和加速度计采集自运动信息,进行方向和位移编码,更新位姿感知信息;
步骤S3,采用情景记忆库和环境地标模板对自运动信息进行修正;
步骤S4,根据环境地标模板、情景记忆单元及自运动感知的相互联系,对仿生自运动感知地图进行绘制和校正。
2.根据权利要求1所述的仿生视觉自运动感知地图绘制方法,其特征在于:在构建所述情景记忆库的过程中,首先,采用视觉传感器获取环境图像,对环境信息进行处理,得到表征环境位置的情景记忆单元;然后,采用视觉感知和相似性度量的方式来构建环境地标与空间位置信息的情景记忆库,每个情景记忆单元的显著度水平
Figure FDA0002570375140000011
为:
Figure FDA0002570375140000012
其中,Ii(r)是初始环境识别信息,α是为了确保需要探索的空间环境中有足够的表征环境位置点的记忆单元而引入的参数,经过多次试验可得α=0.5时效果最好,B=0.1是用来判断位置r处的记忆单元是否被激活而设置的常数,即当且仅当某个情景记忆单元接收到的初始环境识别信息输入量在所有位置点最大显著度的10%以内时,情景记忆单元才会在位置r处被激活。
3.根据权利要求1所述的仿生视觉自运动感知地图绘制方法,其特征在于:在所述步骤S2中,构建路径整合模块,利用陀螺仪和加速度计获取角速度调节信号以及特定方向上线速度调节信号,同时建立情景记忆库与路径整合模块的联系,对方向和位移进行编码;在t时刻更新的方向感知单元的优先方向θHD(t)为:
Figure FDA0002570375140000013
其中,N为方向感知单元最优方向的个数(N≥1);δi为第i个方向感知单元方向,δi∈[0,2π),i=1,2,…N,保证生成的多尺度路径整合模块可以覆盖整个环境的空间方向;
Figure FDA0002570375140000027
为移动机器人当前移动方向;在t时刻更新的移动机器人沿着θHD(t)方向上的移动速度vθ(t)为:
Figure FDA0002570375140000021
沿上述移动方向进行积分得到位移向量
Figure FDA0002570375140000022
Figure FDA0002570375140000023
其中,移动机器人的移动方向
Figure FDA0002570375140000024
与方向感知单元的优先方向θHD(t)保持一致,γ为速度平衡因子,平衡自运动感知模块的速度变化水平;v(t)为t时刻移动机器人沿着δi方向上的移动速度;随着移动机器人的不断探索,不同方向的条纹波即位移矢量叠加为路径整合提供距离信息,生成多尺度路径整合模块,计算不同位置r处的自运动感知信息为:
Figure FDA0002570375140000025
式中,r=[x,y]为空间环境中移动机器人的当前位置;λ为第i个模块的间距;θ为路径整合模块的运动方向且与方向感知单元θHD(t)保持一致;ri为路径整合模块i的位相;RGC(r,λ,θ,ri)为第i个模块在位置r处的自运动感知信息;i=1,2,…,NGC,NGC为模块的总数;
Figure FDA0002570375140000026
为沿着不同方向感知单元的优选方向的投影k=1,2,3,θk={-60°,0,60°};通过引入高斯分布函数,利用其局部化滤波特性对自运动感知信息进行处理,得到稳定的模块兴奋区域;高斯函数表示为:
g(x)=exp[p(x-q)-1],
其中p=0.3,q=-1.5.通过调整RGC(r,λ,θ,ri)中λ、θ和ri可以得到不同间距、方向和位相的路径整合模块,即生成多尺度的自运动感知模块。
4.根据权利要求1所述的仿生视觉自运动感知地图绘制方法,其特征在于:在构建所述环境地标模板过程中,通过视觉传感器在待探索空间环境中选取M个特征显著且稳定的地标信息进行编码,即某一时刻移动机器人在空间中的参考位置可根据移动机器人与不同地标之间的距离关系L以及二维坐标D=[xn,yn]来表示,建立位置坐标与地标之间的映射关系f为:D(xn,yn)→L(L1,L2,L3,…,LM);构建情景记忆单元与地标关系,建立新的地标模板,情景记忆单元与不同地标之间的距离关系表示为:
Figure FDA0002570375140000031
其中,Pn(r)为位置r处第n个地标编码,空间环境中移动机器人的真实位置坐标信息r=[x,y],D=[xn,yn]为第n个参考位置坐标信息,χ2表示情景记忆单元的环境信息显著度调整因子。
5.根据权利要求1所述的仿生视觉自运动感知地图绘制方法,其特征在于:所述步骤3具体包括:采用仿生视觉感知对应的情景记忆库来实现自运动信息的修正,当使用仿生视觉感知的情景记忆库识别失败时,则使用环境地标模板进行自运动信息的修正。
6.根据权利要求1所述的仿生视觉自运动感知地图绘制方法,其特征在于:所述使用环境地标模板进行自运动信息的修正前,将当前地标编码表征的位置估计与真实值位置进行对比,若两者的比值低于预设阈值,则采用环境地标模板对自运动信息进行修正,该修正表示为:
Figure FDA0002570375140000032
Figure FDA0002570375140000033
其中dij为真实值与估计值的距离估计值,εd为预设阈值,ri(x,y)为第i个情景记忆单元的位置估计值,Lj(x,y)为第j个地标真实位置,ΛRGC为修正后的自运动信息。
7.根据权利要求1所述的仿生视觉自运动感知地图绘制方法,其特征在于:步骤S4中,当前情景记忆单元的显著度水平和当前环境地标模板,共同决定了认知地图构建的各组成要素,其中,关联性连接水平表示为:
Figure FDA0002570375140000034
其中,η为学习速率,RGC为第i个模块在位置r处的自运动感知信息,
Figure FDA0002570375140000035
为第i个情景记忆单元的显著度水平,Li为第i个地标,wij为环境地标模板、情景记忆单元以及路径整合模块三者之间的连接权值。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-7中任一所述的仿生视觉自运动感知地图绘制方法的步骤。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于:所述处理器执行所述计算机程序时实现如权利要求1-7中任一所述的仿生视觉自运动感知地图绘制方法的步骤。
CN202010638446.2A 2020-07-06 2020-07-06 仿生视觉自运动感知地图绘制方法、存储介质及设备 Active CN111813113B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010638446.2A CN111813113B (zh) 2020-07-06 2020-07-06 仿生视觉自运动感知地图绘制方法、存储介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010638446.2A CN111813113B (zh) 2020-07-06 2020-07-06 仿生视觉自运动感知地图绘制方法、存储介质及设备

Publications (2)

Publication Number Publication Date
CN111813113A true CN111813113A (zh) 2020-10-23
CN111813113B CN111813113B (zh) 2021-07-02

Family

ID=72856867

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010638446.2A Active CN111813113B (zh) 2020-07-06 2020-07-06 仿生视觉自运动感知地图绘制方法、存储介质及设备

Country Status (1)

Country Link
CN (1) CN111813113B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112896176A (zh) * 2021-01-25 2021-06-04 广汽蔚来新能源汽车科技有限公司 车辆使用环境感知方法、系统、计算机设备和存储介质
CN113009917A (zh) * 2021-03-08 2021-06-22 安徽工程大学 基于闭环检测校正的移动机器人地图构建方法、存储介质及设备
CN113110492A (zh) * 2021-05-07 2021-07-13 苏州大学 一种路径规划方法
CN113298014A (zh) * 2021-06-09 2021-08-24 安徽工程大学 基于逆向索引关键帧选取策略的闭环检测方法、存储介质及设备
CN113743586A (zh) * 2021-09-07 2021-12-03 中国人民解放军空军工程大学 一种基于海马空间认知机理的运行体自主定位方法
WO2023030093A1 (zh) * 2021-08-28 2023-03-09 北京工业大学 一种基于鼠脑视觉通路与内嗅—海马认知机理的情景记忆模型构建方法
WO2023184223A1 (zh) * 2022-03-30 2023-10-05 中国电子科技集团公司信息科学研究院 基于脑启发空间编码机制的机器人自主定位方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018010458A1 (zh) * 2016-07-10 2018-01-18 北京工业大学 一种基于鼠脑海马空间细胞的机器人导航地图构建方法
CN108008394A (zh) * 2017-11-28 2018-05-08 安徽工程大学 仿生声纳二维经历图绘制方法、存储介质及设备
CN208126153U (zh) * 2018-04-23 2018-11-20 安徽工程大学 一种基于仿生slam的移动机器人特能分析实验平台
CN109668566A (zh) * 2018-12-05 2019-04-23 大连理工大学 一种基于鼠脑定位细胞的机器人情景认知地图的构建与导航方法
CN110081875A (zh) * 2019-04-25 2019-08-02 北京航空航天大学 一种仿鸽子智能的无人机自主导航系统及方法
CN111044031A (zh) * 2019-10-10 2020-04-21 北京工业大学 一种基于鼠脑海马信息传递机制的认知地图构建方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018010458A1 (zh) * 2016-07-10 2018-01-18 北京工业大学 一种基于鼠脑海马空间细胞的机器人导航地图构建方法
CN108008394A (zh) * 2017-11-28 2018-05-08 安徽工程大学 仿生声纳二维经历图绘制方法、存储介质及设备
CN208126153U (zh) * 2018-04-23 2018-11-20 安徽工程大学 一种基于仿生slam的移动机器人特能分析实验平台
CN109668566A (zh) * 2018-12-05 2019-04-23 大连理工大学 一种基于鼠脑定位细胞的机器人情景认知地图的构建与导航方法
CN110081875A (zh) * 2019-04-25 2019-08-02 北京航空航天大学 一种仿鸽子智能的无人机自主导航系统及方法
CN111044031A (zh) * 2019-10-10 2020-04-21 北京工业大学 一种基于鼠脑海马信息传递机制的认知地图构建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MENGYUAN CHEN: "Bionic SLAM based on MEMS pose measurement module and RTAB-Map closed loop detection algorithm", 《CLUSTER COMPUTING-THE JOURNAL OF NETWORKS SOFTWARE TOOLS AND APPLICATIONS》 *
吴俊君 等: "仿生机器人视觉导航研究分析 ", 《计算机工程与应用》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112896176A (zh) * 2021-01-25 2021-06-04 广汽蔚来新能源汽车科技有限公司 车辆使用环境感知方法、系统、计算机设备和存储介质
CN113009917A (zh) * 2021-03-08 2021-06-22 安徽工程大学 基于闭环检测校正的移动机器人地图构建方法、存储介质及设备
CN113009917B (zh) * 2021-03-08 2022-02-15 安徽工程大学 基于闭环检测校正的移动机器人地图构建方法、存储介质及设备
CN113110492A (zh) * 2021-05-07 2021-07-13 苏州大学 一种路径规划方法
CN113110492B (zh) * 2021-05-07 2022-06-21 苏州大学 一种路径规划方法
CN113298014A (zh) * 2021-06-09 2021-08-24 安徽工程大学 基于逆向索引关键帧选取策略的闭环检测方法、存储介质及设备
US20220406059A1 (en) * 2021-06-09 2022-12-22 Anhui Polytechnic University Closed-loop detecting method using inverted index-based key frame selection strategy, storage medium and device
US11645846B2 (en) * 2021-06-09 2023-05-09 Anhui Polytechnic University Closed-loop detecting method using inverted index-based key frame selection strategy, storage medium and device
WO2023030093A1 (zh) * 2021-08-28 2023-03-09 北京工业大学 一种基于鼠脑视觉通路与内嗅—海马认知机理的情景记忆模型构建方法
CN113743586A (zh) * 2021-09-07 2021-12-03 中国人民解放军空军工程大学 一种基于海马空间认知机理的运行体自主定位方法
CN113743586B (zh) * 2021-09-07 2024-04-26 中国人民解放军空军工程大学 一种基于海马空间认知机理的运行体自主定位方法
WO2023184223A1 (zh) * 2022-03-30 2023-10-05 中国电子科技集团公司信息科学研究院 基于脑启发空间编码机制的机器人自主定位方法和装置

Also Published As

Publication number Publication date
CN111813113B (zh) 2021-07-02

Similar Documents

Publication Publication Date Title
CN111813113B (zh) 仿生视觉自运动感知地图绘制方法、存储介质及设备
CN110686677B (zh) 一种基于几何信息的全局定位方法
CN106840148B (zh) 室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法
CN107167826B (zh) 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法
CN111337943B (zh) 一种基于视觉引导激光重定位的移动机器人定位方法
KR20040029493A (ko) 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법
KR102075844B1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
CN113220818B (zh) 一种停车场自动建图与高精度定位方法
CN115574816B (zh) 仿生视觉多源信息智能感知无人平台
CN114111818B (zh) 一种通用视觉slam方法
CN111812978B (zh) 一种多无人机协作slam方法与系统
Demim et al. Simultaneous localisation and mapping for autonomous underwater vehicle using a combined smooth variable structure filter and extended kalman filter
CN114608560B (zh) 一种基于智能终端传感器的无源组合室内定位系统及方法
CN109459046B (zh) 悬浮式水下自主航行器的定位和导航方法
KR20220025585A (ko) 위치 추정 방법 및 장치
CN116258744A (zh) 基于可见光、红外和激光雷达数据融合的目标跟踪方法
CN114355409A (zh) 水面目标运动估计方法
CN112798020A (zh) 一种用于评估智能汽车定位精度的系统及方法
CN117308982A (zh) 一种核电站水下清洁机器人的定位方法及装置
CN114519671B (zh) 无人机遥感影像动态快速拼接方法
Laftchiev et al. Terrain-based vehicle localization from real-time data using dynamical models
CN115950414A (zh) 一种不同传感器数据的自适应多重融合slam方法
Jacobson et al. Online place recognition calibration for out-of-the-box SLAM
CN114462545A (zh) 一种基于语义slam的地图构建方法及装置
CN115373383A (zh) 一种垃圾回收无人艇的自主避障方法、装置及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant