CN108680177A - 基于啮齿类动物模型的同步定位与地图构建方法及装置 - Google Patents

基于啮齿类动物模型的同步定位与地图构建方法及装置 Download PDF

Info

Publication number
CN108680177A
CN108680177A CN201810548507.9A CN201810548507A CN108680177A CN 108680177 A CN108680177 A CN 108680177A CN 201810548507 A CN201810548507 A CN 201810548507A CN 108680177 A CN108680177 A CN 108680177A
Authority
CN
China
Prior art keywords
current
robot
pose
image
fingerprint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810548507.9A
Other languages
English (en)
Other versions
CN108680177B (zh
Inventor
秦国威
陈孟元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Polytechnic University
Original Assignee
Anhui Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Polytechnic University filed Critical Anhui Polytechnic University
Priority to CN201810548507.9A priority Critical patent/CN108680177B/zh
Publication of CN108680177A publication Critical patent/CN108680177A/zh
Application granted granted Critical
Publication of CN108680177B publication Critical patent/CN108680177B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于啮齿类动物模型的同步定位与地图构建方法及装置,方法包括:获取摄像装置传输的机器人的当前视觉图像;获取视觉里程计传输的关于当前视觉图像的特征区域的位移速度、旋转角速度和方向;根据位移速度、旋转角速度和方向对位姿细胞网络进行网络活性更新;计算当前视觉图像与视觉图像信息库的最大场景相似度,并获取具有最大场景相似度的模板图像对应的第一位姿坐标;根据最大场景相似度对视觉图像信息库进行更新;根据位姿细胞网络的活性程度、当前的视觉图像信息库、第一位姿坐标和预置经历图谱,确定机器人的当前经历点,以实现对机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。

Description

基于啮齿类动物模型的同步定位与地图构建方法及装置
技术邻域
本发明涉及机器人控制邻域,尤其涉及一种基于啮齿类动物模型的同步定位与地图构建方法及装置。
背景技术
同步定位与地图构建是移动机器人目前面临的重大难题。因为移动机器人实质上就是移动的传感器平台,传感器虽然类型和能力各有不同,但是广泛存在里程计漂移和不同的噪声等问题。后来经过学者们的不断探究,仿生机器人(采用仿生技术控制的机器人)逐渐凸显出良好的应用前景,表现出完美的生物合理性和对自然环境的高度适应性。其中,仿生机器人大多使用啮齿类动物模型进行仿生技术实现。
其中,啮齿类动物模型,将视觉里程计信息和视觉场景图像信息集成到位姿感知细胞模型中,从而使得移动机器人具备一定的更新预测能力,并建立起时间、空间位置、行为等信息的经历图。目前,啮齿类动物模型已经广泛用于机器人的定位导航工作中,解决了众多同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)难以解决的问题,但是啮齿类动物模型获取的视觉场景图像信息以及视觉里程计信息均存在一定程度的误差,虽然有学者针对视觉里程计的误差引入FAB-MAP(fast appearance basedmapping),这种基于历史模型的闭环检测算法,通过实时关键帧的匹配,可以提高系统的稳定性,但是定位的精度并不稳定,且鲁棒性不强。所以,单独的啮齿类动物模型在定位精度及鲁棒性方面有待进一步改善。
发明内容
本发明要解决的技术问题是提供一种基于啮齿类动物模型的同步定位与地图构建方法及装置,将WIFI指纹技术与基于啮齿类动物模型的仿生定位技术相融合,实现对机器人进行定位修正,以获得最优路径经历图,进行机器人同步定位与地图构建,继而实现对机器人进行精确定位。
为解决上述技术问题,本发明提供的技术方案是:
第一方面,本发明提供一种基于啮齿类动物模型的同步定位与地图构建方法,方法包括:
获取摄像装置传输的机器人的当前视觉图像;
获取视觉里程计传输的关于当前视觉图像的特征区域的位移速度、旋转角速度和方向;
根据位移速度、旋转角速度和方向对位姿细胞网络进行网络活性更新;
计算当前视觉图像与视觉图像信息库的最大场景相似度,并获取具有最大场景相似度的模板图像对应的第一位姿坐标;
根据最大场景相似度对视觉图像信息库进行更新;
根据位姿细胞网络的活性程度、当前的视觉图像信息库、第一位姿坐标和预置经历图谱,确定机器人的当前经历点,以实现对机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
进一步地,方法还包括:
在最大场景相似度低于第一阈值时,获取机器人的当前WIFI信号强度信息;
计算当前WIFI信号强度信息与WIFI指纹库的最大指纹相似度,并获取具有最大指纹相似度的模板指纹对应的第二位姿坐标;
根据最大指纹相似度对WIFI指纹库进行更新;
根据位姿细胞网络的活性程度、当前的WIFI指纹库、第二位姿坐标和预置经历图谱,确定机器人的当前经历点,以实现对机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
进一步地,根据位移速度、旋转角速度和方向对位姿细胞网络进行网络活性更新,包括:
根据位移速度、旋转角速度和方向,以及根据预先构建的活性更新方程,对位姿细胞网络中的每个位姿感知细胞进行活性更新。
进一步地,活性更新方程为:
其中,δx0为在x方向被四舍五入后的整数偏差,δy0为在y方向被四舍五入后的整数偏差,δθ0为在θ方向被四舍五入后的整数偏差,δ是三维离散高斯分布的抑制权重矩阵,表示t+1时刻位姿细胞网络活性,αabc为余数矩阵,v为移动速度,ω为旋转角速度,θ为方向,kx、ky和kθ为路径积分常数。
进一步地,计算当前视觉图像与视觉图像信息库的最大场景相似度,包括:
计算当前视觉图像在HSV颜色空间下的颜色矩向量,并采用预先构建的匹配方程,计算当前视觉图像与视觉图像信息库中的每帧模板图像间的场景相似度;
和/或,计算当前视觉图像的特征点描述子,并根据特征点描述子,计算当前视觉图像与每帧模板图像间的场景相似度;
将值最大的场景相似度确定为最大场景相似度。
进一步地,匹配方程为:
其中,CI(k)表示模板图像I的颜色矩向量中的第k个分量,CJ(k)表示当前视觉图像J的颜色矩向量中的第k个分量,D(I,J)为模板图像I与当前视觉图像J间的场景相似度,C为任一图像的颜色矩向量,uH,uS,uV分别表示H,S,V颜色分量上的均值,σH,σS和σV分别表示H,S,V颜色分量上的方差,sH,sS和sV分别表示H,S,V颜色分量上的坡度,ui,σi,si分别表示颜色分量i的均值、方差和斜度,sum表示图像的总像素数,pi,j表示图像中第j个像素的第i个颜色分量。
进一步地,计算当前WIFI信号强度信息与WIFI指纹库的最大指纹相似度,包括:
根据当前WIFI信号强度信息构建信号强度均值向量和信号强度标准差向量;
根据信号强度均值向量和信号强度标准差向量,以及根据预先构建的加权欧式距离计算公式,计算当前WIFI信号强度信息与WIFI指纹库中的每个模板指纹间的指纹相似度;
将值最大的指纹相似度确定为最大指纹相似度。
进一步地,加权欧式距离计算公式为:
其中,RSSIi为第i个模板指纹对应的指纹点处的信号强度均值向量,RSSI=(RSSI1,RSSI2,...,RSSIN)为机器人当前位置处的信号强度均值向量,N为信号发射装置的数量,S=(S1,S2,...,SN)为信号强度标准差向量,S1为机器人当前位置处接收到的第一个信号发射装置的信号强度的连续采样均值,为第i个指纹点对应的权重系数,且n为指纹点的数量,
进一步地,根据位姿细胞网络的活性程度、当前的WIFI指纹库、第二位姿坐标和预置经历图谱,确定机器人的当前经历点,包括:
根据位姿细胞网络的活性程度、当前的WIFI指纹库和第二位姿坐标,计算经历活性水平和位姿细胞激活程度,并根据经历活性水平、位姿细胞激活程度和经历图谱,确定当前经历点。
第二方面,本发明提供一种基于啮齿类动物模型的机器人同步定位与地图构建装置,装置包括:
第一获取单元,用于获取摄像装置传输的机器人的当前视觉图像;
第二获取单元,用于获取视觉里程计传输的关于当前视觉图像的特征区域的位移速度、旋转角速度和方向;
活性更新单元,用于根据位移速度、旋转角速度和方向对位姿细胞网络进行网络活性更新;
相似度计算单元,用于计算当前视觉图像与视觉图像信息库的最大场景相似度,并获取具有最大场景相似度的模板图像对应的第一位姿坐标;
模板更新单元,用于根据最大场景相似度对视觉图像信息库进行更新;
同步定位单元,用于根据位姿细胞网络的活性程度、当前的视觉图像信息库、第一位姿坐标和预置经历图谱,确定机器人的当前经历点,以实现对机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
本发明提供的基于啮齿类动物模型的同步定位与地图构建方法及装置,将WIFI指纹技术与基于啮齿类动物模型的仿生定位技术相融合,实现对机器人进行定位修正,以获得最优路径经历图,进行机器人同步定位与地图构建,继而实现对机器人进行精确定位。
附图说明
图1是本发明实施例提供的基于啮齿类动物模型的机器人同步定位与地图构建方法的流程图;
图2是本发明实施例提供的基于啮齿类动物模型的机器人同步定位与地图构建方法的另一流程图;
图3是本发明实施例提供的基于啮齿类动物模型的机器人同步定位与地图构建方法的又一流程图;
图4是本发明实施例提供的WIFI指纹识别流程图;
图5是本发明实施例提供的基于啮齿类动物模型的机器人同步定位与地图构建装置的框图。
具体实施方式
下面通过具体的实施例进一步说明本发明,但是,应当理解为,这些实施例仅仅是用于更详细具体地说明之用,而不应理解为用于以任何形式限制本发明。
实施例一
结合图1,本实施例提供的基于啮齿类动物模型的同步定位与地图构建方法,方法包括:
步骤S1,获取摄像装置传输的机器人的当前视觉图像;
步骤S2,获取视觉里程计传输的关于当前视觉图像的特征区域的位移速度、旋转角速度和方向;
步骤S3,根据位移速度、旋转角速度和方向对位姿细胞网络进行网络活性更新;
步骤S4,计算当前视觉图像与视觉图像信息库的最大场景相似度,并获取具有最大场景相似度的模板图像对应的第一位姿坐标;
步骤S5,根据最大场景相似度对视觉图像信息库进行更新;
步骤S6,根据位姿细胞网络的活性程度、当前的视觉图像信息库、第一位姿坐标和预置经历图谱,确定机器人的当前经历点,以实现对机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
本发明提供的基于啮齿类动物模型的同步定位与地图构建方法,将WIFI指纹技术与基于啮齿类动物模型的仿生定位技术相融合,实现对机器人进行定位修正,以获得最优路径经历图,进行机器人同步定位与地图构建,继而实现对机器人进行精确定位。
优选地,方法还包括:
在最大场景相似度低于第一阈值时,获取机器人的当前WIFI信号强度信息;
计算当前WIFI信号强度信息与WIFI指纹库的最大指纹相似度,并获取具有最大指纹相似度的模板指纹对应的第二位姿坐标;
根据最大指纹相似度对WIFI指纹库进行更新;
根据位姿细胞网络的活性程度、当前的WIFI指纹库、第二位姿坐标和预置经历图谱,确定机器人的当前经历点,以实现对机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
本实施例中,如图2所示地,采用摄像头获取外部场景的当前视觉图像,并将当前视觉图像与视觉图像信息库(即视觉信息模板)进行图像匹配,以对位姿细胞网络进行修正,此外,根据视觉里程计传输的关于当前视觉图像的特征区域的位移速度、旋转角速度和方向(即视觉里程计信息)对位姿细胞网络进行活性更新,在当前视觉图像与视觉信息模板的匹配度高于设定阈值时,确定机器人当前经历点,以实现对机器人的经历图进行绘制。此外,在当前视觉图像与视觉信息模板的匹配度不高或不满足设定阈值条件时,继续进行WIFI指纹匹配,且采用WIFI信号接收装置获取当前WIFI信号强度信息,并将所获取的当前WIFI信号强度信息与WIFI指纹库(即,WIFI指纹信息模板)进行指纹匹配,进一步辅助修正位姿细胞网络,实现机器人精确定位。
本实施例中,具体地,如图3所示地,最大场景相似度为R,最大指纹相似度为U,λ1,λ2为预先设定的两个场景相似度阈值,ε1,ε2为预先设定的两个指纹相似度阈值,λ12,ε12。更加具体地,当R>λ2时,匹配成功,此时不需要进行WIFI指纹匹配,不对视觉图像信息库进行更新;当R<λ1时,匹配失败,对视觉图像信息库进行更新;λ1<R<λ2且U>ε2时,匹配成功,不进行更新;当λ1<R<λ2且ε1<U<ε2时,匹配成功,不进行更新;当λ1<R<λ2且U<ε1时,匹配失败,对WIFI指纹库进行更新。
进一步地,根据位移速度、旋转角速度和方向对位姿细胞网络进行网络活性更新,包括:
根据位移速度、旋转角速度和方向,以及根据预先构建的活性更新方程,对位姿细胞网络中的每个位姿感知细胞进行活性更新。
本实施例中,视觉里程计信息是通过对每幅图像特定区域提取速度,角度等信息并经过路径积分加工,进而实现位姿细胞的实时更新。具体地,活性更新方程为:
其中,δx0为在x方向被四舍五入后的整数偏差,δy0为在y方向被四舍五入后的整数偏差,δθ0为在θ方向被四舍五入后的整数偏差,δ是三维离散高斯分布的抑制权重矩阵,表示t+1时刻位姿细胞网络活性,αabc为余数矩阵,v为移动速度,ω为旋转角速度,θ为方向,kx、ky和kθ为路径积分常数。
本实施例中,αabc的计算公式如下:
αabc=g(δxf,a-δx0)g(δyf,b-δy0)g(δθf,c-δθ0) (2)
其中,δxf为在x方向被四舍五入后的小数偏差,δyf为在y方向被四舍五入后的小数偏差,δθf为在θ方向被四舍五入后的小数偏差。
需要说明的是,本实施例中,路径积分是通过转换每个位姿细胞基于里程计速度和(x,y,θ)坐标的活动来更新姿态细胞的活动,其有益效果是,不仅能够生成更加精确的机器人行走路线,并且中途不需要参数调整,实用性高。
进一步地,计算当前视觉图像与视觉图像信息库的最大场景相似度,包括:
计算当前视觉图像在HSV颜色空间下的颜色矩向量,并采用预先构建的匹配方程,计算当前视觉图像与视觉图像信息库中的每帧模板图像间的场景相似度;
和/或,计算当前视觉图像的特征点描述子,并根据特征点描述子,计算当前视觉图像与每帧模板图像间的场景相似度;
将值最大的场景相似度确定为最大场景相似度。
本实施例中,使用H(色度)、S(饱和度)、V(明度)表示图像的内容,首先利用HSV图像特征进行全局特征匹配,得到粗匹配图像;再利用特征点匹配算法进一步进行局部特征匹配,进而得到更好的匹配效果。
优选地,匹配方程为:
其中,CI(k)表示模板图像I的颜色矩向量中的第k个分量,CJ(k)表示当前视觉图像J的颜色矩向量中的第k个分量,D(I,J)为模板图像I与当前视觉图像J间的场景相似度,C为任一图像的颜色矩向量,uH,uS,uV分别表示H,S,V颜色分量上的均值,σH,σS和σV分别表示H,S,V颜色分量上的方差,sH,sS和sV分别表示H,S,V颜色分量上的坡度,ui,σi,si分别表示颜色分量i的均值、方差和斜度,sum表示图像的总像素数,pi,j表示图像中第j个像素的第i个颜色分量。
进一步地,特征点描述子为:
其中,(xi,yi)表示一个测试点对,为特征点矩阵且 为特征点方向,对应的旋转矩阵,m为特征点P的邻域内选取的测试点对的个数,fm(P)为描述子,为具备旋转不变性的特征点描述子。
进一步优选地,特征点的选取,包括:
获取当前视觉图像的高斯二阶微分矩阵;
计算高斯二阶微分矩阵的特征值,并根据特征值确定当前视觉图像的特征点。
具体地,本实施例中,全局特征匹配算法为:全局特征匹配首先运用颜色矩表示图像的颜色特征,再利用汉明距离完成特征模板颜色匹配。颜色矩即将图像中的颜色分布用矩表示。其中,一阶矩表示颜色平均值,二阶矩表示颜色方差、三阶矩表示颜色的偏斜度。利用颜色矩的表示方法无需量化描述特征和颜色向量维数低的优势。3个颜色矩的数学表示为
其中,ui,σi,si分别表示颜色分量i的均值、方差和斜度,sum表示图像的总像素数,pi,j表示图像中第j个像素的第i个颜色分量。图像的3个颜色分量的3阶颜色矩组成一个9维向量,则图像的颜色特征表示为
C=[uHH,sH,uSS,sS,uVV,sV] (7)
由移动机器人获取图像,输出最相似和次相似的两幅模板图像。颜色矩向量生成后,利用欧式距离计算当前图像与模板两幅图像的相似度。欧式距离计算公式如下
其中,CI(k)和CJ(k)分别表示图模板库中图像I和当前图像J的颜色矩分量
当欧式距离D(I,J)在既定的阈值内,则匹配成功;反之,匹配失败。
全局特征匹配之后得到的仅为粗匹配图像,因此,仍需进一步验证局部特征匹配情况,故,继续采用特征点匹配算法来完成。
此外,为避免从图像中获取的特征点是重复的,算法通过将高斯微分模板和图像的卷积转化为方框滤波,进而利用不同尺寸大小的方框滤波器对待处理图像进行滤波处理,构成图像金字塔,之后运用Hession矩阵探测器对金字塔每层的特征点进行极值点检测,Hession矩阵就是利用二阶微分来进行斑点检测,给定图像G中一个点(x,y),在点x处,尺度为σ的Hession矩阵H(x,σ)定义如下:
其中:Lxx(x,σ)是高斯二阶微分在点x处与图像G的卷积,Lyy(x,σ)是高斯二阶微分在点x处与图像G的卷积,Lxy(x,σ)与Lyy(x,σ)的意义相似,为偏微分。
对Hession矩阵的行列式进行简化近似得:
|H(x,σ)|=DxxDyy-0.9Dxy (10)
其中,Dxx、Dyy和Dxy分别是Lxx、Lyy和Lxy的近似取值
更加具体地,对于特征点的选取,利用上述方法获取图像相关区域的极值后,实现以此极值点为中心的3×3×3立体区域内的非极大值抑制。例如,在某一点的极值相对于同层与上下两层所有像素点的极值是最大或者最小的,则称此极值点成为候选特征点,之后分别在图像和相应的尺度空间中进行一系列的插值运算最终确定特征点,以及特征点在图像中的区域分布。
得到特征点后,需要以某种方式描述这些特征点的属性,这些属性的输出称之为该特征点的描述子,在此使用具有旋转不变性的BRIEF即rBRIEF。它的思想为在特征点周围以一定模式遴选出指定数量的点对,把这些点对的比较结果组合起来作为描述子。
本实施例中,在确定了特征点后,确定特征点方向。为了此算法具有旋转不变性,需要提前为每个特征点分配方向。为此,以特征点为中心,也即为坐标系的坐标原点,在其周围邻域计算质心位置。以特征点为起点,质心为终点构造出的向量作为特征点的方向。计算过程如下:
其中,R为特征点到质心的距离,x为横坐标,y为纵坐标。
则此区域质心位置为特征点方向为
进一步地,定义操作准则T为:
其中,p(x)为邻域内x处的灰度函数。
当在邻域内选择m个(x,y)点对时,描述子就是一个包含m个二进制准则的码串。如下式所示
进一步地,将计算出的特征点方向信息添加至描述子中,使描述子包含有特征点的方向信息,在点对位置(x,y)处,由下式定义一个2*m的矩阵:
其中,每个(xi,yi)表示一个测试点对,利用特征点方向所对应的旋转矩阵构造的特征点对矩阵为这样就可以得到具备旋转不变性的描述子:
进一步地,采用贪婪搜索的方法,找出256个像素块对使其相关性最低,并构成所需的描述子,最终完成特征点匹配。
进一步优选地,计算当前WIFI信号强度信息与WIFI指纹库的最大指纹相似度,包括:
根据当前WIFI信号强度信息构建信号强度均值向量和信号强度标准差向量;
根据信号强度均值向量和信号强度标准差向量,以及根据预先构建的加权欧式距离计算公式,计算当前WIFI信号强度信息与WIFI指纹库中的每个模板指纹间的指纹相似度;
将值最大的指纹相似度确定为最大指纹相似度。
本实施例中,如图4所示地,指纹是一种模式匹配的形式,在室内的特定位置,接收来自不同无线接入点(Access Point,AP)的信号强度并存储在指纹库中用于定位。在WIFI指纹识别中,这些信号强度值可以通过查询范围内的不同的接入点来获得,获得的信号强度值可以同时链接到当前位置的物理地址。在时刻t的指纹为:
其中,ri表示来自接入点ai的信号强度值,maci表示位置的mac地址值。
每个WIFI新指纹与指纹库中的模板指纹逐一检查相似性,只有此指纹被发现是新颖的,才会被存储在指纹库中。本实施例采用改进的欧式距离完成WIFI信号强度的匹配,提取机器人实时测得的某一时刻的信号强度RSSI,同时求出该采样时刻的信号标准差S。
传统欧式距离匹配算法没有考虑不同指纹点的权重,因此不能真实反映区域物理信息,为了克服传统欧式距离存在的问题,综合考虑,对不同的指纹点分配不同的权重系数,改进后的加权欧式距离计算公式为:
其中,RSSIi为第i个模板指纹对应的指纹点处的信号强度均值向量,RSSI=(RSSI1,RSSI2,...,RSSIN)为机器人当前位置处的信号强度均值向量,N为信号发射装置的数量,S=(S1,S2,...,SN)为信号强度标准差向量,S1为机器人当前位置处接收到的第一个信号发射装置的信号强度的连续采样均值,为第i个指纹点对应的权重系数,且n为指纹点的数量,
本实施例采用上述算法计算其与模板库中指纹信息的欧式距离,由此表示匹配的相似度。
进一步地,根据位姿细胞网络的活性程度、当前的WIFI指纹库、第二位姿坐标和预置经历图谱,确定机器人的当前经历点,包括:
根据位姿细胞网络的活性程度、当前的WIFI指纹库和第二位姿坐标,计算经历活性水平和位姿细胞激活程度,并根据经历活性水平、位姿细胞激活程度和经历图谱,确定当前经历点。
具体地,本实施例中,当前经历点的表示方程为:
ei={Ei,Pi} (18)
其中,Ei为经历活性水平,Pi为位姿细胞激活程度,
其中,xpc,ypc和θpc为最大活性位姿细胞的坐标;xi、yi、θi为第二位姿坐标;ra为(x,y)平面的区域常数;θa为θ维上的区域常数。Zcurr为当前的WIFI指纹库;Zi为当前WIFI信号强度信息,Zcurr≠Z表示当前WIFI信号强度信息与当前的WIFI指纹库不匹配,Zcurr=Z表示当前WIFI信号强度信息与当前的WIFI指纹库匹配。
实施例二
结合图5,本发明实施例提供的基于啮齿类动物模型的机器人同步定位与地图构建装置,装置包括:
第一获取单元1,用于获取摄像装置传输的机器人的当前视觉图像;
第二获取单元2,用于获取视觉里程计传输的关于当前视觉图像的特征区域的位移速度、旋转角速度和方向;
活性更新单元3,用于根据位移速度、旋转角速度和方向对位姿细胞网络进行网络活性更新;
相似度计算单元4,用于计算当前视觉图像与视觉图像信息库的最大场景相似度,并获取具有最大场景相似度的模板图像对应的第一位姿坐标;
模板更新单元5,用于根据最大场景相似度对视觉图像信息库进行更新;
同步定位单元6,用于根据位姿细胞网络的活性程度、当前的视觉图像信息库、第一位姿坐标和预置经历图谱,确定机器人的当前经历点,以实现对机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
本发明提供的基于啮齿类动物模型的同步定位与地图构建装置,将WIFI指纹技术与基于啮齿类动物模型的仿生定位技术相融合,实现对机器人进行定位修正,以获得最优路径经历图,进行机器人同步定位与地图构建,继而实现对机器人进行精确定位。
优选地,第一获取单元,还用于在最大场景相似度低于第一阈值时,获取机器人的当前WIFI信号强度信息;相似度计算单元,还用于计算当前WIFI信号强度信息与WIFI指纹库的最大指纹相似度,并获取具有最大指纹相似度的模板指纹对应的第二位姿坐标;
模板更新单元,还用于根据最大指纹相似度对WIFI指纹库进行更新;
同步定位单元,还用于根据位姿细胞网络的活性程度、当前的WIFI指纹库、第二位姿坐标和预置经历图谱,确定机器人的当前经历点,以实现对机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
本实施例中,如图2所示地,采用摄像头获取外部场景的当前视觉图像,并将当前视觉图像与视觉图像信息库(即视觉信息模板)进行图像匹配,以对位姿细胞网络进行修正,此外,根据视觉里程计传输的关于当前视觉图像的特征区域的位移速度、旋转角速度和方向(即视觉里程计信息)对位姿细胞网络进行活性更新,在当前视觉图像与视觉信息模板的匹配度高于设定阈值时,确定机器人当前经历点,以实现对机器人的经历图进行绘制。此外,在当前视觉图像与视觉信息模板的匹配度不高或不满足设定阈值条件时,继续进行WIFI指纹匹配,且采用WIFI信号接收装置获取当前WIFI信号强度信息,并将所获取的当前WIFI信号强度信息与WIFI指纹库(即,WIFI指纹信息模板)进行指纹匹配,进一步辅助修正位姿细胞网络,实现机器人精确定位。
本实施例中,具体地,如图3所示地,最大场景相似度为R,最大指纹相似度为U,λ1,λ2为预先设定的两个场景相似度阈值,ε1,ε2为预先设定的两个指纹相似度阈值,λ12,ε12。更加具体地,当R>λ2时,匹配成功,此时不需要进行WIFI指纹匹配,不对视觉图像信息库进行更新;当R<λ1时,匹配失败,对视觉图像信息库进行更新;λ1<R<λ2且U>ε2时,匹配成功,不进行更新;当λ1<R<λ2且ε1<U<ε2时,匹配成功,不进行更新;当λ1<R<λ2且U<ε1时,匹配失败,对WIFI指纹库进行更新。
尽管本发明已进行了一定程度的描述,明显地,在不脱离本发明的精神和范围的条件下,可进行各个条件的适当变化。可以理解,本发明不限于所述实施方案,而归于权利要求的范围,其包括所述每个因素的等同替换。

Claims (10)

1.一种基于啮齿类动物模型的同步定位与地图构建方法,其特征在于,所述方法包括:
获取摄像装置传输的机器人的当前视觉图像;
获取视觉里程计传输的关于所述当前视觉图像的特征区域的位移速度、旋转角速度和方向;
根据所述位移速度、所述旋转角速度和所述方向对位姿细胞网络进行网络活性更新;
计算所述当前视觉图像与视觉图像信息库的最大场景相似度,并获取具有最大场景相似度的模板图像对应的第一位姿坐标;
根据所述最大场景相似度对视觉图像信息库进行更新;
根据所述位姿细胞网络的活性程度、当前的视觉图像信息库、所述第一位姿坐标和预置经历图谱,确定所述机器人的当前经历点,以实现对所述机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
2.根据权利要求1所述的基于啮齿类动物模型的同步定位与地图构建方法,其特征在于,所述方法还包括:
在所述最大场景相似度低于第一阈值时,获取所述机器人的当前WIFI信号强度信息;
计算所述当前WIFI信号强度信息与WIFI指纹库的最大指纹相似度,并获取具有最大指纹相似度的模板指纹对应的第二位姿坐标;
根据所述最大指纹相似度对所述WIFI指纹库进行更新;
根据所述位姿细胞网络的活性程度、当前的WIFI指纹库、所述第二位姿坐标和预置经历图谱,确定所述机器人的当前经历点,以实现对所述机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
3.根据权利要求1或2所述的基于啮齿类动物模型的同步定位与地图构建方法,其特征在于,所述根据所述位移速度、所述旋转角速度和所述方向对位姿细胞网络进行网络活性更新,包括:
根据所述位移速度、所述旋转角速度和所述方向,以及根据预先构建的活性更新方程,对所述位姿细胞网络中的每个位姿感知细胞进行活性更新。
4.根据权利要求3所述的基于啮齿类动物模型的同步定位与地图构建方法,其特征在于,所述活性更新方程为:
其中,δx0为在x方向被四舍五入后的整数偏差,δy0为在y方向被四舍五入后的整数偏差,δθ0为在θ方向被四舍五入后的整数偏差,δ是三维离散高斯分布的抑制权重矩阵,表示t+1时刻位姿细胞网络活性,αabc为余数矩阵,v为移动速度,ω为旋转角速度,θ为方向,kx、ky和kθ为路径积分常数。
5.根据权利要求1所述的基于啮齿类动物模型的同步定位与地图构建方法,其特征在于,所述计算所述当前视觉图像与视觉图像信息库的最大场景相似度,包括:
计算所述当前视觉图像在HSV颜色空间下的颜色矩向量,并采用预先构建的匹配方程,计算所述当前视觉图像与视觉图像信息库中的每帧模板图像间的场景相似度;
和/或,计算所述当前视觉图像的特征点描述子,并根据所述特征点描述子,计算所述当前视觉图像与每帧所述模板图像间的场景相似度;
将值最大的场景相似度确定为最大场景相似度。
6.根据权利要求5所述的基于啮齿类动物模型的同步定位与地图构建方法,其特征在于,所述匹配方程为:
其中,CI(k)表示模板图像I的颜色矩向量中的第k个分量,CJ(k)表示当前视觉图像J的颜色矩向量中的第k个分量,D(I,J)为模板图像I与当前视觉图像J间的场景相似度,C为任一图像的颜色矩向量,uH,uS,uV分别表示H,S,V颜色分量上的均值,σH,σS和σV分别表示H,S,V颜色分量上的方差,sH,sS和sV分别表示H,S,V颜色分量上的坡度,ui,σi,si分别表示颜色分量i的均值、方差和斜度,sum表示图像的总像素数,pi,j表示图像中第j个像素的第i个颜色分量。
7.根据权利要求2所述的基于啮齿类动物模型的同步定位与地图构建方法,其特征在于,所述计算所述当前WIFI信号强度信息与WIFI指纹库的最大指纹相似度,包括:
根据所述当前WIFI信号强度信息构建信号强度均值向量和信号强度标准差向量;
根据所述信号强度均值向量和所述信号强度标准差向量,以及根据预先构建的加权欧式距离计算公式,计算所述当前WIFI信号强度信息与WIFI指纹库中的每个模板指纹间的指纹相似度;
将值最大的指纹相似度确定为最大指纹相似度。
8.根据权利要求7所述的基于啮齿类动物模型的同步定位与地图构建方法,其特征在于,所述加权欧式距离计算公式为:
其中,RSSIi为第i个模板指纹对应的指纹点处的信号强度均值向量,RSSI=(RSSI1,RSSI2,...,RSSIN)为机器人当前位置处的信号强度均值向量,N为信号发射装置的数量,S=(S1,S2,...,SN)为信号强度标准差向量,S1为机器人当前位置处接收到的第一个信号发射装置的信号强度的连续采样均值,为第i个指纹点对应的权重系数,且n为指纹点的数量,
9.根据权利要求2所述的基于啮齿类动物模型的同步定位与地图构建方法,其特征在于,所述根据所述位姿细胞网络的活性程度、当前的WIFI指纹库、所述第二位姿坐标和预置经历图谱,确定所述机器人的当前经历点,包括:
根据所述位姿细胞网络的活性程度、当前的WIFI指纹库和所述第二位姿坐标,计算经历活性水平和位姿细胞激活程度,并根据所述经历活性水平、所述位姿细胞激活程度和所述经历图谱,确定当前经历点。
10.一种基于啮齿类动物模型的机器人同步定位与地图构建装置,其特征在于,所述装置包括:
第一获取单元,用于获取摄像装置传输的机器人的当前视觉图像;
第二获取单元,用于获取视觉里程计传输的关于所述当前视觉图像的特征区域的位移速度、旋转角速度和方向;
活性更新单元,用于根据所述位移速度、所述旋转角速度和所述方向对位姿细胞网络进行网络活性更新;
相似度计算单元,用于计算所述当前视觉图像与视觉图像信息库的最大场景相似度,并获取具有最大场景相似度的模板图像对应的第一位姿坐标;
模板更新单元,用于根据所述最大场景相似度对视觉图像信息库进行更新;
同步定位单元,用于根据所述位姿细胞网络的活性程度、当前的视觉图像信息库、所述第一位姿坐标和预置经历图谱,确定所述机器人的当前经历点,以实现对所述机器人进行定位修正,并绘制实际经历图,进行机器人同步定位与地图构建。
CN201810548507.9A 2018-05-31 2018-05-31 基于啮齿类动物模型的同步定位与地图构建方法及装置 Active CN108680177B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810548507.9A CN108680177B (zh) 2018-05-31 2018-05-31 基于啮齿类动物模型的同步定位与地图构建方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810548507.9A CN108680177B (zh) 2018-05-31 2018-05-31 基于啮齿类动物模型的同步定位与地图构建方法及装置

Publications (2)

Publication Number Publication Date
CN108680177A true CN108680177A (zh) 2018-10-19
CN108680177B CN108680177B (zh) 2021-11-09

Family

ID=63809389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810548507.9A Active CN108680177B (zh) 2018-05-31 2018-05-31 基于啮齿类动物模型的同步定位与地图构建方法及装置

Country Status (1)

Country Link
CN (1) CN108680177B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111750878A (zh) * 2019-03-28 2020-10-09 北京初速度科技有限公司 一种车辆位姿的修正方法和装置
CN112230243A (zh) * 2020-10-28 2021-01-15 西南科技大学 一种移动机器人室内地图构建方法
CN113490146A (zh) * 2021-05-08 2021-10-08 湖南大学 一种基于WiFi与视觉融合的SLAM方法
CN113624223A (zh) * 2021-07-30 2021-11-09 中汽创智科技有限公司 一种室内停车场地图构建方法及装置
CN114237242A (zh) * 2021-12-14 2022-03-25 北京云迹科技股份有限公司 基于光学编码器对机器人进行控制的方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105492985A (zh) * 2014-09-05 2016-04-13 深圳市大疆创新科技有限公司 多传感器环境地图构建
CN106814737A (zh) * 2017-01-20 2017-06-09 安徽工程大学 一种基于啮齿类动物模型和RTAB‑Map闭环检测算法的SLAM方法
CN106871911A (zh) * 2017-04-28 2017-06-20 安徽工程大学 一种突发障碍物识别的bvgsp‑slam复合模型的实现方法
CN107363834A (zh) * 2017-07-20 2017-11-21 电子科技大学 一种基于认知地图的机械臂抓取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105492985A (zh) * 2014-09-05 2016-04-13 深圳市大疆创新科技有限公司 多传感器环境地图构建
CN106814737A (zh) * 2017-01-20 2017-06-09 安徽工程大学 一种基于啮齿类动物模型和RTAB‑Map闭环检测算法的SLAM方法
CN106871911A (zh) * 2017-04-28 2017-06-20 安徽工程大学 一种突发障碍物识别的bvgsp‑slam复合模型的实现方法
CN107363834A (zh) * 2017-07-20 2017-11-21 电子科技大学 一种基于认知地图的机械臂抓取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
RAFAEL BERKVENS1, ET AL: "Biologically Inspired SLAM Using Wi-Fi", 《2014 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS 2014)》 *
朱奇光等: "基于颜色矩的改进尺度不变特征变换的移动机器人定位算法", 《计量学报》 *
迈克尔•约翰•米尔福德: "《源于自然的机器人导航 基于啮齿类动物模型的同步定位地图构建和路径规划》", 31 January 2016, 国防工业出版社 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111750878A (zh) * 2019-03-28 2020-10-09 北京初速度科技有限公司 一种车辆位姿的修正方法和装置
CN111750878B (zh) * 2019-03-28 2022-06-24 北京魔门塔科技有限公司 一种车辆位姿的修正方法和装置
CN112230243A (zh) * 2020-10-28 2021-01-15 西南科技大学 一种移动机器人室内地图构建方法
CN113490146A (zh) * 2021-05-08 2021-10-08 湖南大学 一种基于WiFi与视觉融合的SLAM方法
CN113490146B (zh) * 2021-05-08 2022-04-22 湖南大学 一种基于WiFi与视觉融合的SLAM方法
CN113624223A (zh) * 2021-07-30 2021-11-09 中汽创智科技有限公司 一种室内停车场地图构建方法及装置
CN113624223B (zh) * 2021-07-30 2024-05-24 中汽创智科技有限公司 一种室内停车场地图构建方法及装置
CN114237242A (zh) * 2021-12-14 2022-03-25 北京云迹科技股份有限公司 基于光学编码器对机器人进行控制的方法及装置
CN114237242B (zh) * 2021-12-14 2024-02-23 北京云迹科技股份有限公司 基于光学编码器对机器人进行控制的方法及装置

Also Published As

Publication number Publication date
CN108680177B (zh) 2021-11-09

Similar Documents

Publication Publication Date Title
CN108680177A (zh) 基于啮齿类动物模型的同步定位与地图构建方法及装置
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN107680133A (zh) 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN104732518B (zh) 一种基于智能机器人地面特征的ptam改进方法
CN104704384B (zh) 具体用于装置的基于视觉的定位的图像处理方法
CN110146099B (zh) 一种基于深度学习的同步定位与地图构建方法
CN110047142A (zh) 无人机三维地图构建方法、装置、计算机设备及存储介质
CN109345574A (zh) 基于语义点云配准的激光雷达三维建图方法
Gong et al. A Frustum-based probabilistic framework for 3D object detection by fusion of LiDAR and camera data
CN109558879A (zh) 一种基于点线特征的视觉slam方法和装置
CN108734737A (zh) 基于视觉slam估计空间旋转非合作目标转轴的方法
Eugenio et al. Automatic satellite image georeferencing using a contour-matching approach
CN109785371A (zh) 一种基于归一化互相关和sift的太阳图像配准方法
CN109087329A (zh) 基于深度网络的人体三维关节点估计框架及其定位方法
CN109523595A (zh) 一种建筑工程直线棱角间距视觉测量方法
CN112233177A (zh) 一种无人机位姿估计方法及系统
CN110163836A (zh) 基于深度学习用于高空巡检下的挖掘机检测方法
CN109087394A (zh) 一种基于低成本rgb-d传感器的实时室内三维重建方法
CN108154104A (zh) 一种基于深度图像超像素联合特征的人体姿态估计方法
CN105258680B (zh) 一种目标位姿测量方法和装置
CN108470356A (zh) 一种基于双目视觉的目标对象快速测距方法
CN108446710A (zh) 室内平面图快速重建方法及重建系统
CN109087323A (zh) 一种基于精细cad模型的图像车辆三维姿态估计方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN109164411A (zh) 一种基于多数据融合的人员定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Chen Mengyuan

Inventor after: Qin Guowei

Inventor before: Qin Guowei

Inventor before: Chen Mengyuan

GR01 Patent grant
GR01 Patent grant