CN104330090B - 机器人分布式表征智能语义地图创建方法 - Google Patents
机器人分布式表征智能语义地图创建方法 Download PDFInfo
- Publication number
- CN104330090B CN104330090B CN201410573274.XA CN201410573274A CN104330090B CN 104330090 B CN104330090 B CN 104330090B CN 201410573274 A CN201410573274 A CN 201410573274A CN 104330090 B CN104330090 B CN 104330090B
- Authority
- CN
- China
- Prior art keywords
- robot
- coordinate
- map
- semantic
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000003044 adaptive effect Effects 0.000 claims abstract description 9
- 238000001228 spectrum Methods 0.000 claims abstract description 9
- 238000005259 measurement Methods 0.000 claims abstract description 5
- 238000001914 filtration Methods 0.000 claims abstract description 3
- 239000011159 matrix material Substances 0.000 claims description 30
- 230000000007 visual effect Effects 0.000 claims description 15
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 claims description 9
- 230000003595 spectral effect Effects 0.000 claims description 7
- 238000000638 solvent extraction Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 230000004069 differentiation Effects 0.000 claims description 2
- 238000009472 formulation Methods 0.000 claims description 2
- 239000003607 modifier Substances 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 238000011897 real-time detection Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims description 2
- 230000004807 localization Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
Abstract
机器人分布式表征智能语义地图创建方法。首先,机器人遍历室内环境,采用基于拓展卡尔曼滤波算法的视觉定位方法和基于边界虚拟标签算法的射频识别系统分别对机器人和带有快速识别码的人工路标进行定位,建立度量层;然后,利用最小二乘法优化采样点坐标,并且使用自适应谱聚类方法对定位结果进行分类,建立拓扑层;最后,根据摄像机快速识别的QR code语义信息,更新地图的语义属性,建立语义层。本发明在对室内环境中物体状态进行检测时,采用带有QR code的人工路标,大大提高了语义地图创建的效率,降低了创建的难度;同时采用QR code与RFID技术相结合的方法,提高了机器人定位的精确度和地图创建的可靠度。
Description
技术领域
本发明属于移动机器人导航技术领域,涉及一种室内环境下面向移动机器人同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)问题的机器人分布式表征智能语义地图创建方法。
背景技术
近年来,随着移动机器人在服务、探测、物流等领域的广泛应用,SLAM问题受到了学术界及工程界的密切关注,被视为移动机器人实现完全智能化的关键。
然而,大部分的SLAM研究仍停留在机器人自身的定位和物理环境的重建上,没有涉及到机器人与人的交互,这使得机器人无法完成人类语义命令,大大限制了机器人的工作职能,降低了工作效率。事实上,室内办公环境存在多种带有语义信息的大物体,当移动机器人在室内办公环境中工作时,机器人需要获得复杂工作环境的区域信息和全局信息,创建具有语义信息的全局地图,实现与人类的语义交互,协助人类完成多种复杂工作。因此,一个有效的室内环境下移动机器人精确定位和智能语义地图构建方法具有重要的理论意义及应用价值。
C.Nieto-Granda等人利用高斯区域分析方法,将环境特征按照概率进行划分,从而实现了基于语义的地图划分;而H.Wu等人提出利用快速识别码(Quick Response Code,QR code)存储环境信息,机器人通过视觉传感器来捕获信息,进而确定空间语义关系。然而,前者只考虑了自然路标,在室内工作环境中,一般缺少易于捕获的自然环境特征,故无法解决自然路标稀疏带来的问题;而后者虽然考虑到了自然路标稀疏,辅以QR code来表述环境,但视觉传感器容易受到视角和距离的限制,且在大物体阻挡情况下会失效,进而导致定位精度下降,影响语义地图构建的可靠性。
发明内容
针对移动机器人在室内办公环境下难以获取语义信息、完成语义命令的问题,提供一种面向移动机器人SLAM问题的分布式表征智能语义地图创建方法,机器人在环境中进行遍历式扫描时,利用视觉传感器和射频识别系统(Radio Frequency Identification,RFID)联合定位,同时获取大物体上的QR code信息,将室内环境按照功能进行划分与语义更新,既提高机器人定位的准确性,又实现了语义地图的构建。
室内环境下机器人分布式表征语义地图创建方法,包括以下步骤:
步骤1:采集环境图像,实现机器人视觉定位。
步骤1.1,移动机器人通过双目视觉传感器采集环境图像,获取人工路标集合。
步骤1.2,考虑到极几何约束,基于三角测量原理,利用视差法获取图像中人工路标的深度信息,并计算该路标的全局坐标。
步骤1.3,通过拓展卡尔曼滤波(Extended Kalman Filter,EKF)算法,对机器人位姿及人工路标的位置进行定位。
步骤2:利用RFID系统进行机器人接收信号强度值(Received Signal Strength,RSS)定位。
步骤2.1,根据实际参考标签的坐标和阅读器读取的RSS值,求取虚拟参考标签的坐标值和RSS值。
选用对数距离路径损耗模型表述虚拟参考标签与实际参考标签上的能量差值随两者距离的变化,获取虚拟标签的RSS值。
步骤2.2,基于边界虚拟标签(Boundary Virtual Labels,BVIRE)算法确定目标标签(机器人和人工路标)的坐标值。
根据目标标签和参考标签RSS值的差来选取最近邻标签。设定阈值,构建模糊地图。对于目标标签来说,由于每个阅读器都有自己对应的一个模糊地图,将多个模糊地图求取交集可以求得最近邻参考标签,从而确定目标标签的坐标。
步骤3:修正机器人的全局坐标值,并利用自适应谱聚类算法进行地图划分。
步骤3.1:修正机器人及人工路标的坐标值。
根据视觉传感器和RFID系统获得的机器人坐标值,利用最小二乘法(LeastSquare,LS)对两者进行修正,得到更加准确的机器人全局坐标值。
步骤3.2:利用自适应谱聚类算法,将修正后的机器人坐标集合进行拓扑层划分。
步骤4:语义信息更新。
步骤4.1:机器人判断视界中的红色圆形区域,并利用椭圆拟合方法快速识别和读取QR code中的语义信息。
步骤4.2:根据QR code中的语义信息,将机器人观测点和相应物品之间进行关联,每个子集的语义拓扑地图可以实时更新。
步骤4.3:根据更新的语义信息实时修正拓扑层子地图分类,直至机器人完成遍历性扫描。
与现有技术相比,本发明具有以下有益效果:
一方面,本发明在室内地图进行构建时,采用视觉定位与RFID定位相结合的方法,解决了摄像机视界局限和障碍物阻挡等问题,提高了机器人定位的精度;另一方面,考虑了室内环境下可辨识环境路标缺失带来的语义地图构建困难,采用QR code技术表述环境语义特征,提高了语义地图构建的准确度,为实现人机交互和机器人完成语义命令打下良好的基础。
附图说明
图1是本发明所涉及方法的框架结构图;
图2是本发明机载双目视觉传感器机器人模型示意图;
图3是本发明RFID系统示意图;
图4是基于视觉和RFID联合定位的算法流程图;
图5是本发明中采用QR code人工路标的示意图;
图6是机器人分布式表征智能语义地图创建算法图;
图7是机器人定位结果图;(a)为视觉定位结果,(b)为RFID定位结果;
图8是LS法修正结果图;
图9是本发明中基于语义信息的移动机器人的语义地图划分仿真结果图;(a)为期望结果,(b)为仿真聚类结果。
具体实施方式
以下结合附图对本发明作进一步详细说明。
如图1-9所示,本发明所涉及方法的框架结构如图1所示,包括以下步骤:
步骤1:采集环境图像,实现机器人视觉定位。
步骤1.1,移动机器人通过双目视觉传感器采集环境图像,获取人工路标集合。
步骤1.2,考虑到极几何约束,基于三角测量原理,利用视差法获取图像中人工路标的深度信息,并计算该路标的全局坐标。
(1)移动机器人具有两个独立的驱动车轮,并在机身上装备双目摄像机,机器人模型示意图如图2所示。基于几何学,可以获得:
其中,dt表示目标的深度信息,f为焦距,两个摄像头之间的基准宽度是L,目标与光学中心线的距离为D1和D2,目标与投影距离为d1和d2。
(2)在机器人坐标系中,目标的坐标ml-vision’可以描述为:
(3)显然,全局坐标系中,其坐标ml-vision可以表示如下:
其中,mr-vision表示机器人在全球坐标系中的位置,θ为机器人坐标系相对全局坐标系的偏转角度。
步骤1.3,通过EKF算法,对机器人位姿及人工路标的位置进行定位。
(1)初始化机器人的位置状态和误差协方差矩阵,根据当前时间k的位置,可以估计下一时刻k+1的位置:
P(k+1/k)=F(k)P(k/k)F(k)T+Q(k)
其中,表示机器人位置估计值,f为状态传递函数,P表示误差协方差矩阵,Q为噪声协方差矩阵,F是f的雅可比矩阵。
(2)利用机载双目视觉摄像机观测人工路标的位置信息,并利用机器人位置估计值和地标的观测值ml-vision来预测观测估计。
其中,表示观测估计值,h为观测传递函数。
(3)新息及其协方差矩阵可以表示为:
S(k+1)=H(k)P(k+1/k)H(k)T+R(k)
其中,γ表示新息值,z为实际观测值,S表示新息协方差矩阵,R为噪声协方差矩阵,H是h的雅可比矩阵。
(4)增益矩阵、机器人位置状态和它的协方差矩阵可以更新如下:
W(k+1)=P(k+1/k)HTS-1(k+1)
P(k+1/k+1)=(I-W(k+1)H(k))P(k+1/k)
其中,W表示增益矩阵,w表示各采样点的增益值,I表示单位矩阵。
在全局扫描结束后,基于视觉传感器的机器人同步定位与度量层地图构建即完成。
步骤2:利用RFID系统进行机器人RSS定位。
步骤2.1,根据实际参考标签的坐标和阅读器读取的RSS值,求取虚拟参考标签的坐标值和RSS值。
将每4个参考标签作为顶点形成一个单元网格,对每个网格做N*N的划分,添加网格虚拟参考标签,根据实际参考标签位置坐标可求得网络虚拟参考标签的坐标。
(1)选用对数距离路径损耗模型获取虚拟标签的RSS值:
其中,P(dij)表示虚拟标签的RSS值,P0表示实际参考标签的RSS值,dij、d0分别表示虚拟标签和实际参考标签与阅读器的距离,ξij表示噪声,n为路径损耗指数。室内各特定位置的路径损耗指数n是不同的,需要进行实时的测量,影响室内定位的及时性。
(2)采用参考标签来实现动态测量路径损耗指数n,提高室内定位的准确度。即在得到两条靠近待定位标签路径的路径损耗后,可以根据待定位标签与阅读器构成的直线和参考标签与阅读器构成的直线之间的角度求取权值进行加权:
其中,n1、n2分别为两条靠近待定位标签路径的路径损耗指数,θ1、θ2为两者与带定位路标的夹角。
步骤2.2,基于BVIRE算法确定目标标签(机器人和人工路标)的坐标值。
(1)根据目标标签和参考标签RSS值的差来选取最近邻标签。设定阈值,构建模糊地图。对于目标标签来说,由于每个阅读器都有自己对应的一个模糊地图,将多个模糊地图求取交集可以求得最近邻参考标签,从而确定目标标签的坐标:
其中,mlRFID、mrRFID为通过RFID系统获取的人工路标和机器人坐标值,na为各阅读器获得的坐标信息总数。wi为权值,可通过下式计算:
其中,Sk(Ti)表示第K个阅读器读到的(i,j)位置上的场强值,na为整个区域内选出的最近邻参考标签的数量,nci与邻近参考标签i连接在一起的区域的个数。
通过上述算法,可以实现基于RFID的机器人室内定位和度量层地图创建。
步骤3:修正机器人的全局坐标值,并利用自适应谱聚类算法进行地图划分。
步骤3.1:修正机器人及人工路标的坐标值。
根据视觉传感器和RFID系统获得的机器人坐标值,利用LS方法对两者进行修正,得到更加准确的机器人全局坐标值。
(1)以人工路标为例,视觉定位和RFID定位的的线性校正为:
ml=αmlRFID+(1-α)ml-vision
其中,ml为修正的人工路标坐标值,α为修正参数。
人工路标的定位误差可表示为:
其中,e为定位误差,(x0,y0)为初始坐标值。
(2)基于LS方法,要使得定位误差为极小值,则e'=0。参数α可以计算为:
由上式可以得到纠正后人工路标的坐标。同理可以获得机器人观测点坐标的校正结果。
步骤3.2:利用自适应谱聚类算法,将修正后的机器人坐标集合进行拓扑层划分。
(1)设将无向加权图G分成两个子图A和B,且A∪B=V,A∩B=f。根据谱图理论建立规范割目标函数:
其中,Ncut(A,B)为规范割目标函数,cut(A,B)、cut(B,A)表示图G分成两个子图A和B的代价函数,asso(A,V)、asso(B,V)分别为A、B中各节点与所有节点连接权值总和。
其中:
其中,w(u,v)、w(u,t)表示各节点的连接权值。
(2)最小化Ncut值即获得最理想的组划分:
这种分组的本质是使得大集合V下的两个小集合A,B的元素对对方的影响最小化,即实现了基于谱聚类的区分算法。
(3)基于BVIRE算法的RFID信息和QR code识别信息进行不同位姿下的环境特征匹配。根据传感空间交叠情况设置节点间连线的权值w,两个观测节点i、j对应的匹配程度超过某一阈值K,则认为两节点相似,否则判定两节点无关。
(4)确定所有节点间的权值,形成对称相似矩阵W。将相似矩阵的每行元素相加,即得到该顶点的度di,以所有度值为对角元素构成度矩阵(对角矩阵),用D表示。其中Dii=di。
其中,x表示谱聚类样本。
(5)将x松弛到连续域[-1.1],求解minNcut(A,B)的问题转化为:
上式的优化问题等于求解下列等式的第二小特征值问题:(D-W)x=λDx。其中,λ表示其特征值。与第二小特征值对应的特征向量就包含图的划分信息。基于此特征向量对节点进行组划分,最终获得全局拓扑地图。
步骤4:语义信息更新。
步骤4.1:机器人判断视界中的红色圆形区域,并利用椭圆拟合方法快速识别和读取QR code中的语义信息。
(1)在其外围设定红色圆形识别圈,方便机器人在距离较远时准确找到QR code,进而靠近它并扫描。
(2)机器人到达距离阀值后,机器人实时检测机载摄像机采集的图像信息中是否存在红色区域。检测到红色区域后利用椭圆拟合确定图像中是否存在椭圆,即可确定视野中存在人工地标。
(3)依据视野中人工地标的外层椭圆轮廓控制机器人运动,调整机器人与人工地标之间的距离,使之到达QR Code的识读距离阈值之内。期间须时刻保证检测到的椭圆轮廓处于摄像机视野的中间区域。调整策略为将机载摄像机视野做3*3分割,从左到右从上到下依次为1到9区。当椭圆的中心处于不同区域时,采取相应的运动控制方式。例如,当椭圆中心在1区(左上方)时,机器人应向左转,同时向前行进;当椭圆中心在6区(右侧)时,机器人应向右转。
步骤4.2:根据QR code中的语义信息,将机器人观测点和相应物品之间进行关联,每个子集的语义拓扑地图可以实时更新。
步骤4.3:根据更新的语义信息实时修正拓扑层子地图分类,直至机器人完成遍历性扫描。QR code人工路标中写入了编号、名字、功能和所属区域等信息。机器人在观测图像中读取QR code,并立即向数据库添加语义信息。当机器人进行全局扫描时,将机器人观测点和相应物品之间进行关联,从而每个子集的语义拓扑地图可以实时更新。数据库中存储着所有大物体的语义信息,以及根据QR code中的信息实现的拓扑地图的语义分类。机器人分布式表征智能语义地图创建算法图如图6所示。
为了证明本发明的有效性,进行了仿真实验。以某8*8室内办公环境为例,办公室中包含沙发、办公桌等大物体;在办公室天花板上安装RFID定位系统。视觉定位结果与RFID定位结果如图7(a)、(b)所示。将两者定位结果通过LS方法进行修正,其结果如图8所示,可见联合定位准确度明显高于独立定位结果。基于语义信息的谱聚类结果如图9所示,仿真结果显示该方法所构建的语义地图具有很高的准确性和有效性,使得机器人在实现准确定位的同时,完成智能语义地图的构建。
Claims (2)
1.室内环境下机器人分布式表征语义地图创建方法,其特征在于:该方法包括以下步骤,
步骤1:采集环境图像,实现机器人视觉定位;
步骤1.1,移动机器人通过双目视觉传感器采集环境图像,获取人工路标集合;
步骤1.2,考虑到极几何约束,基于三角测量原理,利用视差法获取图像中人工路标的深度信息,并计算该路标的全局坐标;
步骤1.3,通过拓展卡尔曼滤波算法,对机器人位姿及人工路标的位置进行定位;
步骤2:利用RFID系统进行机器人接收信号强度值定位;
步骤2.1,根据实际参考标签的坐标和阅读器读取的RSS值,求取虚拟参考标签的坐标值和RSS值;
选用对数距离路径损耗模型表述虚拟参考标签与实际参考标签上的能量差值随两者距离的变化,获取虚拟标签的RSS值;
步骤2.2,基于边界虚拟标签算法确定目标标签的坐标值;
根据目标标签和参考标签RSS值的差来选取最近邻标签;设定阈值,构建模糊地图;对于目标标签来说,由于每个阅读器都有自己对应的一个模糊地图,将多个模糊地图求取交集可以求得最近邻参考标签,从而确定目标标签的坐标;
步骤3:修正机器人的全局坐标值,并利用自适应谱聚类算法进行地图划分;
步骤3.1:修正机器人及人工路标的坐标值;
根据视觉传感器和RFID系统获得的机器人坐标值,利用最小二乘法(Least Square,LS)对两者进行修正,得到更加准确的机器人全局坐标值;
步骤3.2:利用自适应谱聚类算法,将修正后的机器人坐标集合进行拓扑层划分;
步骤4:语义信息更新;
步骤4.1:机器人判断视界中的红色圆形区域,并利用椭圆拟合方法快速识别和读取QRcode中的语义信息;
步骤4.2:根据QR code中的语义信息,将机器人观测点和相应物品之间进行关联,每个子集的语义拓扑地图可以实时更新;
步骤4.3:根据更新的语义信息实时修正拓扑层子地图分类,直至机器人完成遍历性扫描。
2.根据权利要求1所述的室内环境下机器人分布式表征语义地图创建方法,其特征在于:该方法的具体实施流程如下步骤,
步骤1:采集环境图像,实现机器人视觉定位;
步骤1.1,移动机器人通过双目视觉传感器采集环境图像,获取人工路标集合;
步骤1.2,考虑到极几何约束,基于三角测量原理,利用视差法获取图像中人工路标的深度信息,并计算该路标的全局坐标;
(1)移动机器人具有两个独立的驱动车轮,并在机身上装备双目摄像机;基于几何学,可以获得:
其中,dt表示目标的深度信息,f为焦距,两个摄像头之间的基准宽度是L,目标与光学中心线的距离为D1和D2,目标与投影距离为d1和d2;
(2)在机器人坐标系中,目标的坐标ml-vision’可以描述为:
(3)显然,全局坐标系中,其坐标ml-vision可以表示如下:
其中,mr-vision表示机器人在全球坐标系中的位置,θ为机器人坐标系相对全局坐标系的偏转角度;
步骤1.3,通过EKF算法,对机器人位姿及人工路标的位置进行定位;
(1)初始化机器人的位置状态和误差协方差矩阵,根据当前时间k的位置,可以估计下一时刻k+1的位置:
P(k+1/k)=F(k)P(k/k)F(k)T+Q(k)
其中,表示机器人位置估计值,f为状态传递函数,P表示误差协方差矩阵,Q为噪声协方差矩阵,F是f的雅可比矩阵;
(2)利用机载双目视觉摄像机观测人工路标的位置信息,并利用机器人位置估计值和地标的观测值ml-vision来预测观测估计;
其中,表示观测估计值,h为观测传递函数;
(3)新息及其协方差矩阵可以表示为:
S(k+1)=H(k)P(k+1/k)H(k)T+R(k)
其中,γ表示新息值,z为实际观测值,S表示新息协方差矩阵,R为噪声协方差矩阵,H是h的雅可比矩阵;
(4)增益矩阵、机器人位置状态和它的协方差矩阵可以更新如下:
W(k+1)=P(k+1/k)HTS-1(k+1)
P(k+1/k+1)=(I-W(k+1)H(k))P(k+1/k)
其中,W表示增益矩阵,w表示各采样点的增益值,I表示单位矩阵;
在全局扫描结束后,基于视觉传感器的机器人同步定位与度量层地图构建即完成;
步骤2:利用RFID系统进行机器人RSS定位;
步骤2.1,根据实际参考标签的坐标和阅读器读取的RSS值,求取虚拟参考标签的坐标值和RSS值;
将每4个参考标签作为顶点形成一个单元网格,对每个网格做N*N的划分,添加网格虚拟参考标签,根据实际参考标签位置坐标可求得网络虚拟参考标签的坐标;
(1)选用对数距离路径损耗模型获取虚拟标签的RSS值:
其中,P(dij)表示虚拟标签的RSS值,P0表示实际参考标签的RSS值,dij、d0分别表示虚拟标签和实际参考标签与阅读器的距离,ξij表示噪声,n为路径损耗指数;室内各特定位置的路径损耗指数n是不同的,需要进行实时的测量,影响室内定位的及时性;
(2)采用参考标签来实现动态测量路径损耗指数n,提高室内定位的准确度;即在得到两条靠近待定位标签路径的路径损耗后,可以根据待定位标签与阅读器构成的直线和参考标签与阅读器构成的直线之间的角度求取权值进行加权:
其中,n1、n2分别为两条靠近待定位标签路径的路径损耗指数,θ1、θ2为两者与带定位路标的夹角;
步骤2.2,基于BVIRE算法确定目标标签的坐标值;
(1)根据目标标签和参考标签RSS值的差来选取最近邻标签;设定阈值,构建模糊地图;对于目标标签来说,由于每个阅读器都有自己对应的一个模糊地图,将多个模糊地图求取交集可以求得最近邻参考标签,从而确定目标标签的坐标:
其中,mlRFID、mrRFID为通过RFID系统获取的人工路标和机器人坐标值,na为各阅读器获得的坐标信息总数;wi为权值,可通过下式计算:
其中,Sk(Ti)表示第K个阅读器读到的(i,j)位置上的场强值,na为整个区域内选出的最近邻参考标签的数量,nci与邻近参考标签i连接在一起的区域的个数;
通过上述算法,可以实现基于RFID的机器人室内定位和度量层地图创建;
步骤3:修正机器人的全局坐标值,并利用自适应谱聚类算法进行地图划分;
步骤3.1:修正机器人及人工路标的坐标值;
根据视觉传感器和RFID系统获得的机器人坐标值,利用LS方法对两者进行修正,得到更加准确的机器人全局坐标值;
(1)以人工路标为例,视觉定位和RFID定位的的线性校正为:
ml=αmlRFID+(1-α)ml-vision
其中,ml为修正的人工路标坐标值,α为修正参数;
人工路标的定位误差可表示为:
其中,e为定位误差,(x0,y0)为初始坐标值;
(2)基于LS方法,要使得定位误差为极小值,则e'=0;参数α可以计算为:
由上式可以得到纠正后人工路标的坐标;同理可以获得机器人观测点坐标的校正结果;
步骤3.2:利用自适应谱聚类算法,将修正后的机器人坐标集合进行拓扑层划分;
(1)设将无向加权图G分成两个子图A和B,且A∪B=V,A∩B=f;根据谱图理论建立规范割目标函数:
其中,Ncut(A,B)为规范割目标函数,cut(A,B)、cut(B,A)表示图G分成两个子图A和B的代价函数,asso(A,V)、asso(B,V)分别为A、B中各节点与所有节点连接权值总和;
其中:
其中,w(u,v),w(u,t)表示各节点的连接权值;
(2)最小化Ncut值即获得最理想的组划分:
这种分组的本质是使得大集合V下的两个小集合A,B的元素对对方的影响最小化,即实现了基于谱聚类的区分算法;
(3)基于BVIRE算法的RFID信息和QR code识别信息进行不同位姿下的环境特征匹配;根据传感空间交叠情况设置节点间连线的权值w,两个观测节点i、j对应的匹配程度超过某一阈值K,则认为两节点相似,否则判定两节点无关;
(4)确定所有节点间的权值,形成对称相似矩阵W;将相似矩阵的每行元素相加,即得到该顶点的度di,以所有度值为对角元素构成度矩阵,用D表示;其中Dii=di;
其中,x表示谱聚类样本;
(5)将x松弛到连续域[-1,1],求解minNcut(A,B)的问题转化为:
上式的优化问题等于求解下列等式的第二小特征值问题:(D-W)x=λDx;其中,λ表示其特征值;与第二小特征值对应的特征向量就包含图的划分信息;基于此特征向量对节点进行组划分,最终获得全局拓扑地图;
步骤4:语义信息更新;
步骤4.1:机器人判断视界中的红色圆形区域,并利用椭圆拟合方法快速识别和读取QRcode中的语义信息;
(1)在其外围设定红色圆形识别圈,方便机器人在距离较远时准确找到QR code,进而靠近它并扫描;
(2)机器人到达距离阀值后,机器人实时检测机载摄像机采集的图像信息中是否存在红色区域;检测到红色区域后利用椭圆拟合确定图像中是否存在椭圆,即可确定视野中存在人工地标;
(3)依据视野中人工地标的外层椭圆轮廓控制机器人运动,调整机器人与人工地标之间的距离,使之到达QR Code的识读距离阈值之内;期间须时刻保证检测到的椭圆轮廓处于摄像机视野的中间区域;调整策略为将机载摄像机视野做3*3分割,从左到右从上到下依次为1到9区;当椭圆的中心处于不同区域时,采取相应的运动控制方式;例如,当椭圆中心在1区即左上方时,机器人应向左转,同时向前行进;当椭圆中心在6区即右侧时,机器人应向右转;
步骤4.2:根据QR code中的语义信息,将机器人观测点和相应物品之间进行关联,每个子集的语义拓扑地图可以实时更新;
步骤4.3:根据更新的语义信息实时修正拓扑层子地图分类,直至机器人完成遍历性扫描;QR code人工路标中写入了编号、名字、功能和所属区域等信息;机器人在观测图像中读取QR code,并立即向数据库添加语义信息;当机器人进行全局扫描时,将机器人观测点和相应物品之间进行关联,从而每个子集的语义拓扑地图可以实时更新;数据库中存储着所有大物体的语义信息,以及根据QR code中的信息实现的拓扑地图的语义分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410573274.XA CN104330090B (zh) | 2014-10-23 | 2014-10-23 | 机器人分布式表征智能语义地图创建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410573274.XA CN104330090B (zh) | 2014-10-23 | 2014-10-23 | 机器人分布式表征智能语义地图创建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104330090A CN104330090A (zh) | 2015-02-04 |
CN104330090B true CN104330090B (zh) | 2017-06-06 |
Family
ID=52404861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410573274.XA Expired - Fee Related CN104330090B (zh) | 2014-10-23 | 2014-10-23 | 机器人分布式表征智能语义地图创建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104330090B (zh) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104732587B (zh) * | 2015-04-14 | 2019-02-01 | 中国科学技术大学 | 一种基于深度传感器的室内3d语义地图构建方法 |
CN104807465B (zh) * | 2015-04-27 | 2018-03-13 | 安徽工程大学 | 机器人同步定位与地图创建方法及装置 |
CN105430664B (zh) * | 2015-10-30 | 2019-05-28 | 上海华为技术有限公司 | 一种基于分类拟合预测传播路损的方法和装置 |
EP3428885A4 (en) * | 2016-03-09 | 2019-08-14 | Guangzhou Airob Robot Technology Co., Ltd. | CARD CONSTRUCTION METHOD, AND CORRECTION METHOD AND APPARATUS |
CN105953785A (zh) * | 2016-04-15 | 2016-09-21 | 青岛克路德机器人有限公司 | 机器人室内自主导航的地图表示方法 |
CN107967473B (zh) * | 2016-10-20 | 2021-09-24 | 南京万云信息技术有限公司 | 基于图文识别和语义的机器人自主定位和导航 |
CN109710559A (zh) * | 2016-11-03 | 2019-05-03 | 北京中科寒武纪科技有限公司 | Slam运算装置和方法 |
CN106840161A (zh) * | 2016-12-16 | 2017-06-13 | 海航生态科技集团有限公司 | 导航方法及装置 |
DE102017200599A1 (de) * | 2017-01-16 | 2018-07-19 | Sivantos Pte. Ltd. | Verfahren zum Betrieb eines Hörgeräts und Hörgerät |
CN109405840B (zh) * | 2017-08-18 | 2023-09-08 | 中兴通讯股份有限公司 | 地图数据更新方法、服务器及计算机可读存储介质 |
CN107462249B (zh) * | 2017-08-24 | 2020-08-07 | 广东工业大学 | 一种基于rfid的室内定位方法、装置及系统 |
CN107832661B (zh) * | 2017-09-27 | 2019-06-14 | 南通大学 | 一种基于视觉路标的室内移动机器人定位方法 |
CN107967294A (zh) * | 2017-10-23 | 2018-04-27 | 旗瀚科技有限公司 | 一种餐厅机器人地图构建方法 |
CN107833236B (zh) * | 2017-10-31 | 2020-06-26 | 中国科学院电子学研究所 | 一种动态环境下结合语义的视觉定位系统和方法 |
CN108051836B (zh) * | 2017-11-02 | 2022-06-10 | 中兴通讯股份有限公司 | 一种定位方法、装置、服务器及系统 |
CN109976325A (zh) * | 2017-12-27 | 2019-07-05 | 深圳市优必选科技有限公司 | 机器人管理物品的方法、装置及设备 |
WO2019136613A1 (zh) * | 2018-01-09 | 2019-07-18 | 深圳市沃特沃德股份有限公司 | 机器人室内定位的方法及装置 |
CN108665496B (zh) * | 2018-03-21 | 2021-01-26 | 浙江大学 | 一种基于深度学习的端到端的语义即时定位与建图方法 |
US10807236B2 (en) * | 2018-04-30 | 2020-10-20 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for multimodal mapping and localization |
CN110806746A (zh) * | 2018-07-18 | 2020-02-18 | 杭州萤石软件有限公司 | 应用于移动机器人的功能区划分方法和移动机器人 |
CN109506624B (zh) * | 2018-10-31 | 2021-11-02 | 台州职业技术学院 | 一种基于移动机器人的分布式视觉定位系统及方法 |
CN109556617A (zh) * | 2018-11-09 | 2019-04-02 | 同济大学 | 一种自动建图机器人的地图要素提取方法 |
CN109917670B (zh) * | 2019-03-08 | 2022-10-21 | 北京精密机电控制设备研究所 | 一种智能机器人集群的同时定位与建图方法 |
CN110118556A (zh) * | 2019-04-12 | 2019-08-13 | 浙江工业大学 | 一种基于协方差交叉融合slam的机器人定位方法及装置 |
CN110222761B (zh) * | 2019-05-31 | 2023-01-17 | 中国民航大学 | 基于数字地标地图的室内定位系统及室内定位方法 |
CN112100798A (zh) * | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 用于将现实世界元素的虚拟副本部署到持久性虚拟世界系统中的系统和方法 |
TWI735022B (zh) * | 2019-08-08 | 2021-08-01 | 和碩聯合科技股份有限公司 | 語意地圖定向裝置、方法及機器人 |
CN111210518B (zh) * | 2020-01-15 | 2022-04-05 | 西安交通大学 | 基于视觉融合地标的拓扑地图生成方法 |
CN111582352B (zh) * | 2020-04-30 | 2023-06-27 | 上海高仙自动化科技发展有限公司 | 基于对象的感知方法、装置、机器人及存储介质 |
CN111780771B (zh) * | 2020-05-12 | 2022-09-23 | 驭势科技(北京)有限公司 | 一种定位方法、装置、电子设备及计算机可读存储介质 |
CN111741425B (zh) * | 2020-05-18 | 2022-01-28 | 珠海格力电器股份有限公司 | 智能家电的定位方法、装置、服务器、机器人及存储介质 |
CN112001223B (zh) * | 2020-07-01 | 2023-11-24 | 安徽新知数字科技有限公司 | 真实环境地图的快速虚拟化构建方法 |
CN111986553B (zh) * | 2020-08-19 | 2022-07-26 | 炬星科技(深圳)有限公司 | 基于语义标签进行地图关联的方法、设备及存储介质 |
CN114115211A (zh) * | 2020-08-26 | 2022-03-01 | 深圳市杉川机器人有限公司 | 一种自移动设备及系统及建立工作区域地图的方法 |
CN113143200A (zh) * | 2021-05-07 | 2021-07-23 | 苏州健雄职业技术学院 | 一种激光扫描眼底相机成像的方法 |
CN113490171B (zh) * | 2021-08-11 | 2022-05-13 | 重庆大学 | 一种基于视觉标签的室内定位方法 |
CN113780102A (zh) * | 2021-08-23 | 2021-12-10 | 广州密码营地科技有限公司 | 智能机器人视觉slam闭环检测方法、装置及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102914303A (zh) * | 2012-10-11 | 2013-02-06 | 江苏科技大学 | 多移动机器人的智能空间系统及导航信息获取方法 |
CN103439973A (zh) * | 2013-08-12 | 2013-12-11 | 桂林电子科技大学 | 自建地图家用清洁机器人及清洁方法 |
-
2014
- 2014-10-23 CN CN201410573274.XA patent/CN104330090B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102914303A (zh) * | 2012-10-11 | 2013-02-06 | 江苏科技大学 | 多移动机器人的智能空间系统及导航信息获取方法 |
CN103439973A (zh) * | 2013-08-12 | 2013-12-11 | 桂林电子科技大学 | 自建地图家用清洁机器人及清洁方法 |
Non-Patent Citations (3)
Title |
---|
"Estimation of Occupancy Level in Indoor Environment Based on Heterogeneous Information Fusion";Heng-Tao Wang;《49th IEEE Conference on Decision and Control 》;20101217;正文第5086-5091页 * |
"Using RFID in Localization for Indoor Navigation of Mobile Robots";Yao Guo;《Proceedings of 2012 IEEE International Conference on Mechatronics and Automation》;20120808;正文第1892-1897页 * |
"基于RFID技术的大范围未知环境信息表征";吴皓;《中南大学学报(自然科学版)》;20130731;第44卷;正文第166-170页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104330090A (zh) | 2015-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104330090B (zh) | 机器人分布式表征智能语义地图创建方法 | |
CN110084272B (zh) | 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法 | |
CN103278170B (zh) | 基于显著场景点检测的移动机器人级联地图创建方法 | |
CN106842231B (zh) | 一种道路边界检测及跟踪方法 | |
CN109144072A (zh) | 一种基于三维激光的机器人智能避障方法 | |
CN103268729B (zh) | 基于混合特征的移动机器人级联式地图创建方法 | |
Badino et al. | Visual topometric localization | |
CN101509781B (zh) | 基于单目摄像头的步行机器人定位系统 | |
CN104714555B (zh) | 一种基于边缘的三维自主探索方法 | |
CN106017472B (zh) | 全局路线规划方法、全局路线规划系统及无人机 | |
CN107544501A (zh) | 一种智能机器人智慧行走控制系统及其方法 | |
CN104914870B (zh) | 基于岭回归超限学习机的户外机器人局部路径规划方法 | |
CN104143194A (zh) | 一种点云分割方法及装置 | |
Xiao et al. | 3D point cloud registration based on planar surfaces | |
CN107305126A (zh) | 环境地图的数据构造、其制作系统和制作方法、及其更新系统和更新方法 | |
CN107036594A (zh) | 智能电站巡检智能体的定位与多粒度环境感知技术 | |
KR102110813B1 (ko) | 무선 환경 변화에 강인한 slam 방법 및 장치 | |
Mueller et al. | GIS-based topological robot localization through LIDAR crossroad detection | |
CN110531770A (zh) | 一种基于改进的rrt路径规划方法和系统 | |
CN109186606A (zh) | 一种基于slam和图像信息的机器人构图及导航方法 | |
CN103424112A (zh) | 一种基于激光平面辅助的运动载体视觉导航方法 | |
CN115388902B (zh) | 室内定位方法和系统、ar室内定位导航方法和系统 | |
CN109960269A (zh) | 一种服务于无人机自主导航的简化环境建模方法 | |
CN110260866A (zh) | 一种基于视觉传感器的机器人定位与避障方法 | |
CN109164411A (zh) | 一种基于多数据融合的人员定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170606 Termination date: 20181023 |