CN101509781A - 基于单目摄像头的步行机器人定位系统 - Google Patents
基于单目摄像头的步行机器人定位系统 Download PDFInfo
- Publication number
- CN101509781A CN101509781A CNA2009100478578A CN200910047857A CN101509781A CN 101509781 A CN101509781 A CN 101509781A CN A2009100478578 A CNA2009100478578 A CN A2009100478578A CN 200910047857 A CN200910047857 A CN 200910047857A CN 101509781 A CN101509781 A CN 101509781A
- Authority
- CN
- China
- Prior art keywords
- particle
- robot
- point
- model
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
一种基于单目摄像头的步行机器人定位系统,环境模型采用点模型表示,标定离线地图,并建立动作模型及观测模型进行位置更新及路标标定,采用蒙特卡罗粒子滤波技术,用带有权值的粒子集分布表示机器人位姿估计,通过路标匹配处理更新粒子的权值和分布,栅格化场地粒子分布,选择粒子密集度最大的子区域定位机器人所在位置。该系统作为独立平台,其地图标定技术在环境模型上有很大改进,对地面线段的识别有很大的灵活性,在环境变换后只需重新标定,不需重新建模。该模型降低了视觉处理中匹配的复杂度,提高了计算效率。在对信息融合处理技术上对蒙特卡罗定位算法进行扩展,保证了系统的实时性和鲁棒性。
Description
技术领域
本发明涉及机器人的定位系统,尤其涉及单目摄像头的步行机器人的定位系统。
背景技术
近年来随着传感器等领域的技术进步,智能机器人系统开始应用在服务行业中,开辟了机器人自主服务的新领域。以往服务机器人的研究和开发主要在大学和研究所中进行,而如今越来越受到企业界和商业界的重视。室内服务机器人的出现主要原因有:一是人们想摆脱令人烦恼枯燥的重复性工作,如家务劳动、照料病人等等;二是电器设备成本的下降。由服务机器人代替人完成家务劳动,是一项具有良好应用前景的高科技技术。在机器人系统中,自主导航是一项核心技术,是机器人研究领域的重点和难点问题。在导航过程中,常常面临无法预先知道、不可预测或动态变化的环境。移动机器人感知环境的手段通常是不完备的,传感器给出的数据是不完全、不连续、不可靠的。因此,解决机器人自主导航是一项迫不及待但又十分艰巨的任务。移动机器人导航是指移动机器人按照预先给出的任务命令,根据已知信息做出路径规划,并在行进过程中,不断感知周围的局部环境信息,自主地做出决策,调整自身位姿,引导自身安全行驶或跟踪己知路径达到目标位置。而移动机器人的定位,是机器人自动导航的首要条件。因为只有明确了自身位置,目标点才有意义,也才能在此基础上做出路径规划。
在基于单目摄像头的室内机器人中,定位传感器装置主要为摄像头传感器和里程计传感器,摄像头传感器又称主动式传感器,可灵活获得环境信息,但计算量很大,一般需要改造外部环境或建立比较精确的环境模型,将获取信息与环境模型匹配得到机器人与环境的相对位置,从而获得定位信息。人为路标的建立是机器人定位中惯用的环境识别辅助物体,方便了视觉信息中对环境的提取但通用性不佳。在室内的环境识别中,地线是环境中的另一个主要信息。当前大部分的方法是使用Hough变换从图像中提取直线形式的路面边界,并通过对比探测到的路面信息与机器人内部存储的地图,修正偏差,实现导航。
里程计传感器属于被动式传感器,其在移动的一段时间内可以得到较高定位精度,但增量方式的信息获取同时产生了误差累计。因此,多传感器数据融合的定位系统是解决机器人定位的最终途径。
多传感器的数据融合技术指将多个传感器采集的信息进行合成,形成对环境某一特征的综合描述的一种方法。使用这种方法,可使探测到的环境信息具有冗余性、互补性、实时性和低成本的特点,同时还可以避免摄像机系统中巨大的数据处理量。近年来,大多解决机器人定位的方法都是基于统计或概率估计意义下的方法,如Kalman滤波、最大概率估计、Monte Carlo方法等。其中,Monte Carlo定位是一种相对鲁棒性强的概率化定位方法,它的随机近似技术能够在不需建模的情况下对系统真实后验概率提供合理估计,其收敛问题和计算效率问题一直是解决的重点。
目前大部分的地图标定主要为几何形状的标定,基于摄像头传感器的机器人一般要通过边缘检测、最小二乘法处理边界线条,最终得到物体的几何描述后再进行模式匹配,地图结构复杂且计算量大。
发明内容
本发明的目的在于提供一种基于单目摄像头的步行机器人定位系统,以地图标定技术为基础的针对单目摄像头的室内机器人定位系统。从摄像头传感器和里程计传感器分别得到视觉信息和动作信息,通过该定位系统实时分析,得到机器人当前位姿估计,达到自定位的结果。
为达到以上目的,本发明所采用的解决方案是:
环境模型以点模型为主,标定离线地图。采用蒙特卡罗粒子滤波技术,用带有权值的粒子集分布表示机器人位姿估计。首先针对两类传感器,分别建立动作模型和观测模型。在动作模型下,每个粒子通过机器人的动作累加相对里程计数而更新位置。在观测模型中,根据路标情况主要分为两种,一为人为路标,其特点是数量少,特征明显且唯一,易于识别。二为自然路标,其特点为数量多、不唯一、多呈线状,如地面的白线,或墙体和地面的交线、物体和地面的交线等等。通过路标匹配处理更新粒子的权值和分布。重采样过程中增加粒子检验和新粒子补充的过程。最终通过栅格化场地粒子分布,选择用粒子密集度最大的子区域来计算最终位置,可以滤除其他无用粒子,提高定位精度。
定位系统的构架主要由五个模块组成:离线地图标定模块,动作更新模块,观测更新模块,重采样模块和位置估计模块。
1.离线地图标定模块
地图标定指将环境中的人为路标和自然路标的绝对坐标信息保存在机器人内部文件里,其坐标系与表示机器人位置的世界坐标系一致,定位系统通过探测的路标与该地图比较得到机器人的当前位置。
标定主要是对地面线段的标定用一定间隔的边缘点的标定代替线的标定。分为两种:
(1)线与线的交点。
线与线的交点类型分为L形,T形与X形,将所有交点归类,并将其全局位置保存在表中,机器人视觉信息处理后可分类查表。
(2)线上的点。
1)先将场地上的线简化为一定间隔的点集,点的属性包括其类型和方向:将点按边缘的类型分类(地线,障碍物与地面的线,场地边缘线等),设为m个种类。点的方向为其所在线段的斜率方向的垂直方向,根据方向的不同分类,设为n个种类。
2)建立m×n个地图,每张地图只保留某个种类且某个方向的点。
3)将场地划分为p×q个区域,每个单位区域用其区域中心点代表。计算出场地上这些中心点所对应的最匹配的地图上的点,并将此映射信息保存。
由于观测的点计算后并不一定在地图中的路标线位置上,但根据点的梯度方向和位置,可以通过分类后的离线地图找到该点最符合的路标线上的位置,用查表匹配代替实时计算,减少计算量,提高了定位实时性。
2.动作更新模块
动作更新模型主要通过机器人的里程计传感器信息对粒子集中的每个粒子的位置进行更新。粒子表示机器人的位置,每个粒子在当前位姿上累加单位时间的机器人位移和噪声误差。为了模拟里程传感器误差以接近真实值,噪声误差为零均值的高斯噪声,其方差取决于当前位置的可信度。
3.观测更新模块
粒子滤波的特点是通过一定数量的粒子点来代表机器人的分布概率。粒子点的权值则关系到下一次更新时该位置粒子数量的增减。观测模型通过观测物体相对机器人的角度和距离更新粒子的权值。其过程为:
(1)路标匹配。将视觉得到的环境信息匹配到先前的离线地图中,主要为图像线扫描得到的地线边缘点的匹配。根据机器人的绝对位置和点对机器人坐标系的相对位置,计算出点在世界坐标系上的绝对位置及其边缘梯度值信息,边缘梯度则为点的方向。先由机器人的位置得到局部地图的范围,已知点的属性后代入局部的离线地图表中查询,根据最小方差匹配出该点的绝对位置估计值。
(2)粒子权值更新。根据路标类型的不同,粒子权值P由一系列权值表示P={p1,...,pn},n表示类型的数量。通过路标匹配所有观测到的路标可以得到其唯一的全局坐标。当识别到类型为j的路标时,粒子点针对此类型的权值pj取决于粒子点位置与地标的距离和夹角与机器人观测到路标的距离和夹角的偏差。建立关于偏差和权值关系的高斯模型函数,其中的协方差参数作为调节不同地标对物体的影响。根据设置不同路标类型的角度和距离的协方差常数来达到灵活调节。
(3)粒子集通过重要路标更新分布。对于已有的粒子点,观测模型中的物体测量偏差量不但决定了粒子权重,而且反映了粒子将要移动的方向。将机器人的观测模型中混合扩展卡尔曼滤波算法,将单个粒子看作一个高斯分布模型,通过视觉观测信息改进粒子预测分布,使粒子向似然较高区域移动,减少了粒子退化,并加快收敛。
4.重采样模块
在重要性采样的过程中,通过权值大小决定粒子的分布比率,删除权值较小的粒子,复制权值大的粒子。本发明实现了一种以观测更新后的粒子分布信息为判断依据适时地进行新粒子补充的扩展Monte Carlo定位算法,以节省计算资源并提高定位效率。再第一次粒子集更新基础上,对粒子权值进行检验:计算当前粒子集合的平均权值p并作为阙值,按一定的概率抽取集合中的粒子,比较其权值与p的大小,若小于均值,则删除该粒子,产生新粒子替代。
新粒子的产生通过两种途径:
(1)随机生成新粒子。以机器人当前的位置可信度调整该方法生成的粒子量,用于解决“机器人绑架”问题。“机器人绑架”指:目前的机器人定位采用的是概率估计的方法,在马尔可夫模型下,当前估计值是基于历史估计值和历史观测信息。当机器人被人为的移动或重新放到某一位置时,该机器人的真实位置将与历史位置无关,称之为“绑架”,“机器人绑架”问题则指解决“绑架”事件发生后的机器人定位的问题。
(2)根据历史信息预估粒子位置的方法得到新粒子。机器人在导航过程中检测到路标后根据路标和机器人的相对位置求得机器人的全局位置。任意两个路标位置与机器人的三角关系可以得到机器人位置的唯一值。在所求得的位置值为中心的小范围内产生一定数量的新粒子。这样产生的粒子点成为下一次更新的有效粒子点的概率大大高于随机产生的粒子点,加快MCL蒙特卡罗定位算法(Monte Carlo Localization)收敛速度。但它依赖于历史位置,对于机器人绑架问题是无法得到准确的解,因此,仍需要一些随机粒子的产生,这两种方式产生粒子以一定比率存在。
5.位置估计模块
机器人的最终位置估计过程中选择用粒子密集度最大的子区域来计算最终位置,可以滤除其他无用粒子,提高定位精度。粒子空间为机器人位姿矢量的维数空间,空间范围为矢量的各分量的取值范围。将粒子空间栅格化后,将空间的倍作为子空间(将矢量中分量分成k等分,i为空间维数)以子空间为单位遍历粒子空间,得到粒子数最多的区域,将其代替整体区域作为机器人位姿最终估计区域。
由于采用了上述方案,本发明具有以下特点:(1)离线地图的标定采用点标定的形式。本系统应用的点标定形式下可在边缘检测后直接对边界点进行匹配,通过每个视觉帧多个检测点来减少噪声误差,降低了地图结构的复杂度,去除了几何拟合的处理,大大减少计算量,提高计算效率。
(2)通常的地图匹配用的是全局地图信息,在点匹配中采用动态地图的匹配方式。由于机器人视觉系统的识别区域有限,通过机器人当前的位置获得机器人局部地图进行匹配,使机器人历史定位信息与已知的全局地图相结合,地图中的自然地标相对唯一,有效避免了误多解的问题。
(3)融合了多传感器信息用于机器人定位,包括被动式传感器(里程计传感器)和主动式传感器(摄像头传感器)。对各传感器建模,通过各模型对各种信息进行融合处理,在模型中嵌套扩展卡尔曼滤波器对采样粒子的分布进行优化处理。
(4)重要性采样过程扩展了传统的蒙特卡罗定位算法。原有的蒙特卡罗定位算法要求采样粒子的数量大,计算量是个严重问题,不适合实时定位。同时容易产生过收敛和粒子匮乏的现象。本系统增加了粒子淘汰和补充的环节:在原有的重采样过程完成后,抽样该粒子集,用粒子的平均权值作为标准值决定是否淘汰该抽样。新粒子的生成是根据视觉系统识别的历史信息预估粒子位置,提高生成理想粒子的几率,加快收敛速度。
(5)机器人的最终位置估计过程中,通常蒙特卡罗定位算法是通过所有的样本求均值得到最终结果,本系统应用栅格分类粒子集的方式,用小区域的集中样本代替所有样本进行最终估计,将误差较大的样本集合排除,提高了位置的精度。
附图说明
图1是本发明实施例的系统结构框图。
图2是本发明实施例的路标匹配的结构图。
图3是本发明实施例的场地环境图。
图4是本发明实施例的场地点对应最匹配线上点位置的映射图。
图5是本发明实施例的观测模型中观测物、粒子点、机器人实际位置关系图模型图。
图6是本发明实施例的两地标的位置估算模型图。
具体实施方式
以下结合附图所示实施例对本发明作进一步的说明。
1.系统结构
请参阅图1本发明的系统结构框图。机器人的动作帧频率为8ms/帧,视觉帧频率为30ms/帧,由于两者频率不同,系统划分为两个线程进行分别处理:其中动作帧处理线程的输入为单位时间检测的动作增量,线程由动作更新模块和位置估计模块组成,有独立的结果输出。视觉帧处理线程包括地图匹配,视觉更新模块,重采样模块,和位置估计模块,主要通过对环境物体的识别更新样本点的权值和分布。
2.地图建立
请参阅图2-图4,以一个5m×7m的室内足球场地为例,该图例举了地面白线的分布,间隔设为3.5cm将场地上的线简化为一定间隔的点集。根据线的x轴方向和y轴方向将点分类为两个不同集合和在视觉处理中,边缘象素点有其色彩梯度方向值kmes,通过公式得到不同线段上点的集合:
在每个表中,将场地以间隔2cm为单位划分为250×350个区域,每个单位区域的中心点与表中的已知地标点通过最小方差来匹配,建立映射关系后存入表中,作为离线地图。
图4为两个集合上的点对应最匹配白线上位置的映射图。该图形象的表示了白线边缘点的离线地图的作用:将计算出的场上的点根据梯度的不同对应到白线上的边缘点。因而可以根据地图得到图像扫描到的点的全局位置。
3.机器人模型建立
在全局参考坐标系中,机器人的位姿用三维矢量表示Probot=[x,y,h]。其中,x,y均为场地上距中心点的水平距离和垂直距离,h表示机器人身体的朝向。
4.动作更新模块
动作更新模型主要通过机器人的里程计传感器信息得到单位时间的定位增量Δodometry=(Δx,Δy,Δh)。为了模拟里程传感器误差以接近真实值,加上了零均值的高斯噪声Δerror,其方差取决于当前位置的可信度。
式(8)中,d表示单位增量的长度,也就是机器人单位时间内移动的距离,α表示机器人转动的角度增量。
定位系统从机器人动作系统中读入里程计信息,更新粒子状态。更新后的粒子表示如下:
机器人最终位置为:
5.观测更新模块
(1)粒子权值更新
设粒子点与地标距离为di,夹角为αi,观测距离为dmes,观测夹角为αmes,其通过以下高斯函数求得权值:
(2)粒子位姿更新
请参阅图5,该图为观测更新模型中观测物、粒子点、机器人实际位置关系图。将每个粒子看作是以三维高斯分布的位姿模型。当前粒子的位姿对于二维空间,为笛卡尔位置坐标及航向角,用X=(x,y,θ)表示。
P(k+1|k)=P(k|k)+Q(k) (15)
式中Q(k)为噪声协方差,且判断其为对角矩阵。为协方差P(0|0)设定估计值,实际上估计的准确性不重要,随着循环的运行,算法会收敛到一个更准确的值。
2)地标实际观测值。通过视觉系统测得地标的实际位置z(k+1)。
3)测量预测。用估计地标的预测观测值:
其中h(X(k))为测量函数。
5)估计更新。根据P(k+1|k)及测量噪声协方差R(k+1),计算权重:
W(k+1)=P(k+1|k)H(k+1)T×
[H(k+1)P(k+1|k)H(k+1)T+R(k+1)]-1 (17)
P(k+1|k+1)=[I-W(k+1)H(k+1)]P(k+1|k) (19)
(I为单位阵),估计与实际测量匹配则停止,否则转第一步。
6.重采样中的新粒子估计
在视觉更新时,存储n个不同类型地标相对机器人坐标的最新的历史位置,设为ki={xi,yi,hi},i=1,2..n,由于可信的地标类型有限,加上历史信息随着累加误差变大,一般n小于4。当动作更新时,该位置也应得到更新:
以保持地标与机器人的相对关系与实际一致。而粒子点的产生为:
因此通过两个地标位置与机器人的三角关系可以计算出机器人可能存在的位置。
参见图6,在图中定位问题的2D地平面投影被描述。<0>代表全局参考坐标系,矢量P∈R2×1代表了机器人的在全局参考坐标系下的位置和朝向。<1>是机器人本体下的局部坐标系,L1∈R2×1和L2∈R2×1是两路标关于<0>坐标系下的位置,而Z1∈R2×1和Z2∈R2×1代表了同样的两个路标相对于<1>坐标系下的位置。则姿态的估算问题就是有计算P和组成。通过视觉系统的测量可以得到1Z1和1Z2,而矢量0L1和0L2也已经通过地平面距离的先验知识所知道(jZ表示矢量Z在参考平面<j>下的投影)。
式(22)为<0>和<1>坐标变换的旋转矩阵,可以使用如下的公式:
0L2=0P+0R1 1Z2 (23)
0L1=0P+0R1 1Z1 (24)
在以上公式里,ΔLx≡0(L2-L1)x,ΔLy≡0(L2-L1)y,ΔZx≡1(Z2-Z1)x,ΔZy≡1(Z2-Z1)y都是已知的。只要L1和L2是两个不同的路标,既只要L1≠L2,则等式(26),(27)总是可以有意义的。机器人的朝向角可以通过计算得到。然后利用得到的和通过公式(24)或(25)计算机器人的绝对位置0p。当多于两个路标可见时候,把所有路标两两不同组合应用上面的方法计算,再求平均就得到机器人姿态的预测位置。将该位置附近产生粒子点成为下一次更新的有效粒子点。
7.位置估计模块
先栅格化粒子分布空间,按机器人位姿矢量[x,y,h]各自分量的取值范围划分为K×K×K的栅格空间,每个子空间为一个cell单位。选择的子区域空间为的cell空间,记录每个cell的粒子数目。再用的空间遍历得到粒子数最多的子区域。
在子区域中的m个粒子点的分布被看作是机器人当前位姿的密度分布。求m个点的位姿矢量平均值:
Probot则作为机器人当前位置。计算Probot的可信度p,表示估计的机器人位姿的可信程度。
其中pi表示在子区域的粒子点i的权重。当定位稳定时,粒子较为集中,m值较大,最终的p值也较大;当定位不稳定时,粒子发散,m值较小,最终的p值也较小。因此,该值可以提供相应信息给决策系统。
上述的对实施例的描述是为便于该技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对这些实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于这里的实施例,本领域技术人员根据本发明的提示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。
Claims (10)
1.一种基于单目摄像头的步行机器人定位系统,其特征在于:环境模型采用点模型表示,标定离线地图,并建立动作模型及观测模型进行位置更新及路标标定,采用蒙特卡罗粒子滤波技术,用带有权值的粒子集分布表示机器人位姿估计,通过路标匹配处理更新粒子的权值和分布,栅格化场地粒子分布,选择粒子密集度最大的子区域定位机器人所在位置。
2.根据权利要求1所述的基于单目摄像头的步行机器人定位系统,其特征在于:其包括离线地图标定模块、动作更新模块、观测更新模块、重采样模块和位置估计模块。
3.根据权利要求2所述的基于单目摄像头的步行机器人定位系统,其特征在于:所述的地图标定模块标定离线地图,其将环境中的人为路标和自然路标的绝对坐标信息保存在机器人内部文件里,对地面线段的标定用一定间隔的边缘点的标定代替线的标定,其坐标系与表示机器人位置的世界坐标系一致,定位系统通过探测的路标与该地图比较得到机器人的当前位置。
4.根据权利要求2所述的基于单目摄像头的步行机器人定位系统,其特征在于:所述的动作更新模型对应里程计传感器建立,其通过机器人的里程计传感器信息对粒子集中的每个粒子的位置进行更新,每个粒子在当前位姿上累加单位时间的机器人位移和噪声误差,噪声误差为零均值的高斯噪声,其方差取决于当前位置的可信度。
5.根据权利要求2所述的基于单目摄像头的步行机器人定位系统,其特征在于:所述的观测更新模型对应摄像头传感器建立,其通过观测物体相对机器人的角度和距离更新粒子的权值,并将单个粒子看作一个高斯分布模型,通过视觉观测信息改进粒子预测分布,在模型中嵌套扩展卡尔曼滤波器对采样粒子的分布进行优化处理,更新粒子集。
6.根据权利要求2所述的基于单目摄像头的步行机器人定位系统,其特征在于:所述的重采样模块定义了以观测更新后的粒子分布信息为判断依据适时地进行新粒子补充的扩展蒙特卡罗定位算法,其在第一次粒子集更新基础上,对粒子权值进行检验:计算当前粒子集合的平均权值p并作为阙值,按一定的概率抽取集合中的粒子,比较其权值与p的大小,若小于均值,则删除该粒子,产生新粒子替代。
8.根据权利要求3所述的基于单目摄像头的步行机器人定位系统,其特征在于:所述的地面线段的标定包括线与线的交点、线上的点,线与线的交点类型分为L形,T形与X形,将所有交点归类,并将其全局位置保存在表中,机器人视觉信息处理后可分类查表;线上的点则将场地上的线简化为一定间隔的点集,点的属性包括其类型和方向,将点按边缘的类型分为m类,按方向类型分为n类,建立m×n个地图,每张地图只保留某个种类且某个方向的点,将场地划分为p×q个区域,每个单位区域用其区域中心点代表,计算出场地上这些中心点所对应的最匹配的地图上的点,并将此映射信息保存。
9.根据权利要求5所述的基于单目摄像头的步行机器人定位系统,其特征在于:所述的粒子集更新包括以下步骤:
1)路标匹配,将视觉得到的环境信息匹配到离线地图中,根据机器人的绝对位置和点对机器人坐标系的相对位置,计算出点在世界坐标系上的绝对位置及其边缘梯度值信息,边缘梯度则为点的方向,由机器人的位置得到局部地图的范围,已知点的属性后代入局部的离线地图表中查询,根据最小方差匹配出该点的绝对位置估计值。
2)粒子权值更新,根据路标类型的不同,粒子权值P由一系列权值表示P={p1,...,pn},n表示类型的数量,通过路标匹配所有观测到的路标得到其唯一的全局坐标;当识别到类型为j的路标时,粒子点针对此类型的权值pj取决于粒子点位置与地标的距离和夹角与机器人观测到路标的距离和夹角的偏差,建立关于偏差和权值关系的高斯模型函数,其中的协方差参数作为调节不同地标对物体的影响。
3)粒子集通过重要路标更新分布,将机器人的观测模型中混合扩展卡尔曼滤波算法,将单个粒子看作一个高斯分布模型,通过视觉观测信息改进粒子预测分布,使粒子向似然较高区域移动,减少了粒子退化,并加快收敛。
10、根据权利要求6所述的基于单目摄像头的步行机器人定位系统,其特征在于:所述的产生新粒子的形式有:
1)随机生成新粒子,以机器人当前的位置可信度调整该方法生成的粒子量。
2)根据历史信息预估粒子位置的方法得到新粒子,机器人在导航过程中检测到路标后根据路标和机器人的相对位置求得机器人的全局位置,在机器人位置为中心的小范围内产生一定数量的新粒子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100478578A CN101509781B (zh) | 2009-03-20 | 2009-03-20 | 基于单目摄像头的步行机器人定位系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100478578A CN101509781B (zh) | 2009-03-20 | 2009-03-20 | 基于单目摄像头的步行机器人定位系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101509781A true CN101509781A (zh) | 2009-08-19 |
CN101509781B CN101509781B (zh) | 2011-09-14 |
Family
ID=41002252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100478578A Active CN101509781B (zh) | 2009-03-20 | 2009-03-20 | 基于单目摄像头的步行机器人定位系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101509781B (zh) |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102359783A (zh) * | 2011-07-22 | 2012-02-22 | 北京大学 | 基于视觉的移动机器人定位方法 |
CN103631264A (zh) * | 2013-12-04 | 2014-03-12 | 苏州大学张家港工业技术研究院 | 一种同时定位与地图创建方法及装置 |
CN103827632A (zh) * | 2012-09-06 | 2014-05-28 | 株式会社东芝 | 位置检测装置、位置检测方法及位置检测程序 |
CN104380043A (zh) * | 2013-04-10 | 2015-02-25 | 萨里大学 | 在用户携带的便携式电子设备中的信息确定 |
CN104813185A (zh) * | 2012-12-14 | 2015-07-29 | 苹果公司 | 使用状态空间估计器进行位置确定 |
CN104838281A (zh) * | 2013-01-10 | 2015-08-12 | 英特尔公司 | 基于虚拟地标的定位和建图 |
CN104897161A (zh) * | 2015-06-02 | 2015-09-09 | 武汉大学 | 基于激光测距的室内平面地图制图方法 |
CN105091885A (zh) * | 2014-05-08 | 2015-11-25 | 株式会社日立制作所 | 机器人及自身位置推定方法 |
CN105758408A (zh) * | 2016-01-05 | 2016-07-13 | 福州华鹰重工机械有限公司 | 局部地图构建方法及装置 |
CN106250893A (zh) * | 2016-07-25 | 2016-12-21 | 浙江零跑科技有限公司 | 一种基于后视单目相机的多列车铰接角测量方法 |
WO2016201670A1 (en) * | 2015-06-18 | 2016-12-22 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for representing map element and method and apparatus for locating vehicle/robot |
CN106292288A (zh) * | 2016-09-22 | 2017-01-04 | 同济大学 | 基于策略梯度学习法的模型参数修正方法及其应用 |
CN106949895A (zh) * | 2017-04-13 | 2017-07-14 | 杭州申昊科技股份有限公司 | 一种适用于变电站环境下的巡检机器人定位方法 |
CN107132504A (zh) * | 2016-02-29 | 2017-09-05 | 富士通株式会社 | 基于粒子滤波的定位追踪装置、方法及电子设备 |
CN107972027A (zh) * | 2016-10-25 | 2018-05-01 | 深圳光启合众科技有限公司 | 机器人的定位方法和装置、机器人 |
CN107991683A (zh) * | 2017-11-08 | 2018-05-04 | 华中科技大学 | 一种基于激光雷达的机器人自主定位方法 |
CN108009622A (zh) * | 2017-11-30 | 2018-05-08 | 江西洪都航空工业集团有限责任公司 | 一种基于人工蜂群的蒙特卡洛定位方法 |
KR20180068711A (ko) * | 2016-12-14 | 2018-06-22 | 현대자동차주식회사 | 차량의 위치 추정 장치 및 방법 |
CN108287539A (zh) * | 2017-01-10 | 2018-07-17 | 株式会社东芝 | 自身位置推断装置以及自身位置推断方法 |
CN108507579A (zh) * | 2018-04-08 | 2018-09-07 | 浙江大承机器人科技有限公司 | 一种基于局部粒子滤波的重定位方法 |
CN108709560A (zh) * | 2018-08-15 | 2018-10-26 | 苏州中研讯科智能科技有限公司 | 基于直线段特征的载运机器人高精度定位导航方法 |
CN109541612A (zh) * | 2018-11-09 | 2019-03-29 | 同济大学 | 基于单线激光雷达识别柱状物的机器人室内自定位系统 |
CN109727269A (zh) * | 2019-03-29 | 2019-05-07 | 中国人民解放军国防科技大学 | 一种基于单目视觉和道路地图的匹配定位方法 |
CN109885046A (zh) * | 2019-01-18 | 2019-06-14 | 中国矿业大学 | 一种基于粒子滤波的移动机器人定位加速方法 |
CN110502010A (zh) * | 2019-08-15 | 2019-11-26 | 同济大学 | 一种基于贝塞尔曲线的移动机器人室内自主导航控制方法 |
CN110686650A (zh) * | 2019-10-29 | 2020-01-14 | 北京航空航天大学 | 一种基于点特征的单目视觉位姿测量方法 |
CN110954113A (zh) * | 2019-05-30 | 2020-04-03 | 北京初速度科技有限公司 | 一种车辆位姿的修正方法和装置 |
CN111337943A (zh) * | 2020-02-26 | 2020-06-26 | 同济大学 | 一种基于视觉引导激光重定位的移动机器人定位方法 |
CN111353538A (zh) * | 2020-02-28 | 2020-06-30 | 西安理工大学 | 基于深度学习的相似图像匹配方法 |
US20200387162A1 (en) * | 2017-12-05 | 2020-12-10 | Sony Corporation | Control device and control method, program, and mobile object |
CN112230256A (zh) * | 2019-07-15 | 2021-01-15 | 苏州宝时得电动工具有限公司 | 自主机器人及其定位校准方法、装置和存储介质 |
CN112306058A (zh) * | 2020-10-15 | 2021-02-02 | 华南农业大学 | 清粪机器人智能导航方法、装置、系统、介质和设备 |
CN113048978A (zh) * | 2021-02-01 | 2021-06-29 | 苏州澜途科技有限公司 | 移动机器人重定位方法及移动机器人 |
CN114248778A (zh) * | 2020-09-22 | 2022-03-29 | 华为技术有限公司 | 移动设备的定位方法和定位装置 |
CN114248778B (zh) * | 2020-09-22 | 2024-04-12 | 华为技术有限公司 | 移动设备的定位方法和定位装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103728635B (zh) * | 2013-12-27 | 2017-01-18 | 苍穹数码技术股份有限公司 | 基于虚拟电子地标的高可靠定位预测方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100966875B1 (ko) * | 2006-09-26 | 2010-06-29 | 삼성전자주식회사 | 전방위 영상을 이용한 로봇의 위치 결정방법 |
KR100809352B1 (ko) * | 2006-11-16 | 2008-03-05 | 삼성전자주식회사 | 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치 |
-
2009
- 2009-03-20 CN CN2009100478578A patent/CN101509781B/zh active Active
Cited By (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102359783A (zh) * | 2011-07-22 | 2012-02-22 | 北京大学 | 基于视觉的移动机器人定位方法 |
CN103827632A (zh) * | 2012-09-06 | 2014-05-28 | 株式会社东芝 | 位置检测装置、位置检测方法及位置检测程序 |
CN104813185A (zh) * | 2012-12-14 | 2015-07-29 | 苹果公司 | 使用状态空间估计器进行位置确定 |
CN104813185B (zh) * | 2012-12-14 | 2018-02-23 | 苹果公司 | 使用状态空间估计器进行位置确定 |
US9677890B2 (en) | 2013-01-10 | 2017-06-13 | Intel Corporation | Positioning and mapping based on virtual landmarks |
CN104838281A (zh) * | 2013-01-10 | 2015-08-12 | 英特尔公司 | 基于虚拟地标的定位和建图 |
CN104838281B (zh) * | 2013-01-10 | 2018-04-24 | 英特尔公司 | 基于虚拟地标的定位和建图 |
CN104380043A (zh) * | 2013-04-10 | 2015-02-25 | 萨里大学 | 在用户携带的便携式电子设备中的信息确定 |
CN103631264A (zh) * | 2013-12-04 | 2014-03-12 | 苏州大学张家港工业技术研究院 | 一种同时定位与地图创建方法及装置 |
CN105091885A (zh) * | 2014-05-08 | 2015-11-25 | 株式会社日立制作所 | 机器人及自身位置推定方法 |
CN105091885B (zh) * | 2014-05-08 | 2018-12-07 | 株式会社日立制作所 | 机器人及自身位置推定方法 |
US9802310B2 (en) | 2014-05-08 | 2017-10-31 | Hitachi, Ltd. | Mobile robot estimating own position using a class-based own-position estimation unit |
CN104897161A (zh) * | 2015-06-02 | 2015-09-09 | 武汉大学 | 基于激光测距的室内平面地图制图方法 |
WO2016201670A1 (en) * | 2015-06-18 | 2016-12-22 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for representing map element and method and apparatus for locating vehicle/robot |
US10643103B2 (en) | 2015-06-18 | 2020-05-05 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for representing a map element and method and apparatus for locating a vehicle/robot |
CN105758408A (zh) * | 2016-01-05 | 2016-07-13 | 福州华鹰重工机械有限公司 | 局部地图构建方法及装置 |
CN107132504A (zh) * | 2016-02-29 | 2017-09-05 | 富士通株式会社 | 基于粒子滤波的定位追踪装置、方法及电子设备 |
CN107132504B (zh) * | 2016-02-29 | 2020-12-22 | 富士通株式会社 | 基于粒子滤波的定位追踪装置、方法及电子设备 |
CN106250893A (zh) * | 2016-07-25 | 2016-12-21 | 浙江零跑科技有限公司 | 一种基于后视单目相机的多列车铰接角测量方法 |
CN106292288B (zh) * | 2016-09-22 | 2017-10-24 | 同济大学 | 基于策略梯度学习法的模型参数修正方法及修正器 |
CN106292288A (zh) * | 2016-09-22 | 2017-01-04 | 同济大学 | 基于策略梯度学习法的模型参数修正方法及其应用 |
CN107972027A (zh) * | 2016-10-25 | 2018-05-01 | 深圳光启合众科技有限公司 | 机器人的定位方法和装置、机器人 |
KR102529903B1 (ko) * | 2016-12-14 | 2023-05-08 | 현대자동차주식회사 | 차량의 위치 추정 장치 및 방법 |
CN108225339A (zh) * | 2016-12-14 | 2018-06-29 | 现代自动车株式会社 | 用于估计车辆位置的装置和方法 |
DE102017116088B4 (de) | 2016-12-14 | 2023-07-27 | Hyundai Motor Company | Vorrichtung und Verfahren zum Abschätzen einer Position eines Fahrzeugs |
KR20180068711A (ko) * | 2016-12-14 | 2018-06-22 | 현대자동차주식회사 | 차량의 위치 추정 장치 및 방법 |
CN108287539A (zh) * | 2017-01-10 | 2018-07-17 | 株式会社东芝 | 自身位置推断装置以及自身位置推断方法 |
CN106949895A (zh) * | 2017-04-13 | 2017-07-14 | 杭州申昊科技股份有限公司 | 一种适用于变电站环境下的巡检机器人定位方法 |
CN106949895B (zh) * | 2017-04-13 | 2020-05-19 | 杭州申昊科技股份有限公司 | 一种适用于变电站环境下的巡检机器人定位方法 |
CN107991683A (zh) * | 2017-11-08 | 2018-05-04 | 华中科技大学 | 一种基于激光雷达的机器人自主定位方法 |
CN108009622A (zh) * | 2017-11-30 | 2018-05-08 | 江西洪都航空工业集团有限责任公司 | 一种基于人工蜂群的蒙特卡洛定位方法 |
US20200387162A1 (en) * | 2017-12-05 | 2020-12-10 | Sony Corporation | Control device and control method, program, and mobile object |
US11592829B2 (en) * | 2017-12-05 | 2023-02-28 | Sony Corporation | Control device and control method, program, and mobile object |
CN108507579B (zh) * | 2018-04-08 | 2020-04-21 | 浙江大承机器人科技有限公司 | 一种基于局部粒子滤波的重定位方法 |
CN108507579A (zh) * | 2018-04-08 | 2018-09-07 | 浙江大承机器人科技有限公司 | 一种基于局部粒子滤波的重定位方法 |
CN108709560A (zh) * | 2018-08-15 | 2018-10-26 | 苏州中研讯科智能科技有限公司 | 基于直线段特征的载运机器人高精度定位导航方法 |
CN109541612A (zh) * | 2018-11-09 | 2019-03-29 | 同济大学 | 基于单线激光雷达识别柱状物的机器人室内自定位系统 |
CN109885046A (zh) * | 2019-01-18 | 2019-06-14 | 中国矿业大学 | 一种基于粒子滤波的移动机器人定位加速方法 |
CN109727269A (zh) * | 2019-03-29 | 2019-05-07 | 中国人民解放军国防科技大学 | 一种基于单目视觉和道路地图的匹配定位方法 |
CN110954113A (zh) * | 2019-05-30 | 2020-04-03 | 北京初速度科技有限公司 | 一种车辆位姿的修正方法和装置 |
CN110954113B (zh) * | 2019-05-30 | 2021-10-15 | 北京初速度科技有限公司 | 一种车辆位姿的修正方法和装置 |
CN112230256A (zh) * | 2019-07-15 | 2021-01-15 | 苏州宝时得电动工具有限公司 | 自主机器人及其定位校准方法、装置和存储介质 |
CN112230256B (zh) * | 2019-07-15 | 2024-04-09 | 苏州宝时得电动工具有限公司 | 自主机器人及其定位校准方法、装置和存储介质 |
CN110502010B (zh) * | 2019-08-15 | 2021-06-04 | 同济大学 | 一种基于贝塞尔曲线的移动机器人室内自主导航控制方法 |
CN110502010A (zh) * | 2019-08-15 | 2019-11-26 | 同济大学 | 一种基于贝塞尔曲线的移动机器人室内自主导航控制方法 |
CN110686650A (zh) * | 2019-10-29 | 2020-01-14 | 北京航空航天大学 | 一种基于点特征的单目视觉位姿测量方法 |
CN111337943B (zh) * | 2020-02-26 | 2022-04-05 | 同济大学 | 一种基于视觉引导激光重定位的移动机器人定位方法 |
CN111337943A (zh) * | 2020-02-26 | 2020-06-26 | 同济大学 | 一种基于视觉引导激光重定位的移动机器人定位方法 |
CN111353538B (zh) * | 2020-02-28 | 2023-04-07 | 西安理工大学 | 基于深度学习的相似图像匹配方法 |
CN111353538A (zh) * | 2020-02-28 | 2020-06-30 | 西安理工大学 | 基于深度学习的相似图像匹配方法 |
CN114248778A (zh) * | 2020-09-22 | 2022-03-29 | 华为技术有限公司 | 移动设备的定位方法和定位装置 |
CN114248778B (zh) * | 2020-09-22 | 2024-04-12 | 华为技术有限公司 | 移动设备的定位方法和定位装置 |
CN112306058A (zh) * | 2020-10-15 | 2021-02-02 | 华南农业大学 | 清粪机器人智能导航方法、装置、系统、介质和设备 |
CN113048978A (zh) * | 2021-02-01 | 2021-06-29 | 苏州澜途科技有限公司 | 移动机器人重定位方法及移动机器人 |
CN113048978B (zh) * | 2021-02-01 | 2023-10-20 | 苏州澜途科技有限公司 | 移动机器人重定位方法及移动机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN101509781B (zh) | 2011-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101509781B (zh) | 基于单目摄像头的步行机器人定位系统 | |
US20220028163A1 (en) | Computer Vision Systems and Methods for Detecting and Modeling Features of Structures in Images | |
CN111551958B (zh) | 一种面向矿区无人驾驶的高精地图制作方法 | |
Wieland et al. | Estimating building inventory for rapid seismic vulnerability assessment: Towards an integrated approach based on multi-source imaging | |
CN101576384B (zh) | 一种基于视觉信息校正的室内移动机器人实时导航方法 | |
Hahnel et al. | Map building with mobile robots in populated environments | |
CN111429574A (zh) | 基于三维点云和视觉融合的移动机器人定位方法和系统 | |
Weng et al. | Pole-based real-time localization for autonomous driving in congested urban scenarios | |
CN108885105A (zh) | 用于提供车辆认知的系统和方法 | |
CN107305126A (zh) | 环境地图的数据构造、其制作系统和制作方法、及其更新系统和更新方法 | |
CN102831646A (zh) | 一种基于扫描激光的大尺度三维地形建模方法 | |
Ji et al. | Obstacle detection and recognition in farmland based on fusion point cloud data | |
CN110308729A (zh) | 基于视觉与imu或里程计的agv组合导航定位方法 | |
Dal Poz et al. | Object-space road extraction in rural areas using stereoscopic aerial images | |
CN108345823B (zh) | 一种基于卡尔曼滤波的障碍物跟踪方法和装置 | |
Mueller et al. | GIS-based topological robot localization through LIDAR crossroad detection | |
CN103400416A (zh) | 一种基于概率多层地形的城市环境机器人导航方法 | |
CN117501322A (zh) | 从点云数据生成物理空间的映射 | |
CN113448340B (zh) | 一种无人机的路径规划方法、装置、无人机及存储介质 | |
Dehbi et al. | Improving gps trajectories using 3d city models and kinematic point clouds | |
Roh et al. | Rapid SLAM using simple map representation in indoor environment | |
Bai et al. | Application of unmanned aerial vehicle multi-vision image 3D modeling in geological disasters | |
Lee et al. | Investigation of topographic characteristics of parcels using UAV and machine learning | |
CN112284387A (zh) | 用于清扫设备的定位方法、清扫设备和存储介质 | |
Gu et al. | Research on SLAM of indoor mobile robot assisted by AR code landmark |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |