CN101576384B - 一种基于视觉信息校正的室内移动机器人实时导航方法 - Google Patents

一种基于视觉信息校正的室内移动机器人实时导航方法 Download PDF

Info

Publication number
CN101576384B
CN101576384B CN2009100872377A CN200910087237A CN101576384B CN 101576384 B CN101576384 B CN 101576384B CN 2009100872377 A CN2009100872377 A CN 2009100872377A CN 200910087237 A CN200910087237 A CN 200910087237A CN 101576384 B CN101576384 B CN 101576384B
Authority
CN
China
Prior art keywords
filtering
value
robot
image
vision sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009100872377A
Other languages
English (en)
Other versions
CN101576384A (zh
Inventor
秦世引
谢凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN2009100872377A priority Critical patent/CN101576384B/zh
Publication of CN101576384A publication Critical patent/CN101576384A/zh
Application granted granted Critical
Publication of CN101576384B publication Critical patent/CN101576384B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉信息校正的室内移动机器人实时导航方法,包括步骤一:初始化机器人导航系统,启动里程计和视觉传感器;步骤二:里程计和视觉传感器得到机器人当前位资,构造卡尔曼滤波器,获得里程计滤波估计值和视觉传感器滤波估计值;步骤三:里程计滤波估计值和视觉传感器滤波估计值融合;步骤四:参数重置;本发明充分利用了视觉信息和里程计信息的各自优点,将视觉信息的精确性和里程计信息的实时性相结合起来,在大部分时间下,利用里程计自身信息进行递推计算,获得导航数据,保证了导航系统的实时性要求,同时利用视觉信息来矫正里程计航迹推算过程中产生的累积误差,从而大大提高了导航系统的准确性。

Description

一种基于视觉信息校正的室内移动机器人实时导航方法
技术领域
本发明涉及一种基于视觉信息校正的室内移动机器人实时导航方法,属于机器人导航领域。
背景技术
导航系统是移动机器人的重要组成部分之一,它能够提供给机器人正确的位置和姿态信息,从而使得机器人能在一定的环境中进行工作,完成指定的任务。移动机器人的导航系统也是实现移动机器人路径规划,避障避碰,智能自主控制的基础。
目前常见的机器人导航系统的方式有:电磁导航、光反射导航、GPS导航、环境地图模型匹配导航、路标导航、视觉导航等。
(1)电磁导航也称地下埋线导航,其原理是在路径上连续的埋设多条引导电缆,分别流过不同频率的电流,通过感应线圈对电流的检测来获得感知信息。该技术简单实用,但是成本高、改造和维护困难。
(2)光反射导航的原理是在路径上连续的铺设光反射条,同电磁导航一样,该技术也相当的成熟,目前国内制造行业使用的移动机器人大多是基于光反射导航与电磁导航这两种导航方式的,但是它们应用范围比较窄,不适合在动态、变换工作环境下的移动机器人导航。
(3)GPS导航:全球定位系统(GPS)在陆地车辆导航系统中得到了广泛的应用。但是在诸如城市地区,高楼大厦GPS信号经常阻塞,这就意味着有一大部分空间无法获得GPS信号,在室内也同样存在同样的问题,所以不能采用逐点定位的导航系统。
(4)环境地图模型匹配导航:是机器人通过自身的各种传感器探测周围环境,利用感知到的局部环境信息进行局部的地图构造,并与其内部事先存储的完整地图进行匹配。通过匹配,机器人可确定自身的位置,并根据预先规划的一条全局路线,采用路径跟踪和相关避障技术来实现导航。
(5)路标导航:是指路标在环境中的坐标、形状等特征已知的前提下,机器人通过对路标的探测来确定自身的位置,同时将全局路线分解成为路标与路标间的片段,逐段行进完成导航。虽然人工路标导航比较容易实现,但它人为地改变了机器人工作的环境,自然路标导航不改变工作环境,但机器人需要通过对工作环境中的自然特征进行识别以完成导航。路标探测的稳定性和鲁棒性是采用该方法时需要研究的主要问题。
(6)视觉导航:具有信号探测范围宽、获取信息完整等优点,将成为未来机器人导航的一个主要发展方向。在视觉导航方式中,目前应用最多的还是采用在机器人上安装车载摄像机的基于局部视觉的导航方式,如D.L.Boley等研制的移动机器人,利用车载摄像机和较少的传感器通过识别路标进行导航,比直接采用卡尔曼滤波器具有更好的实时性,并可有效抑制噪声。采用局部视觉这种导航方式,所有的计算设备和传感器都装载在机器人车体上。图像识别、路径规划等高层决策都由车载计算机完成,所以车载计算机的工作量较大,延迟问题也较为明显。
(7)基于传感器数据的机器人导航方式:一般机器人都安装了一些非视觉传感器,如里程计,磁惯传感器,超声传感器、红外传感器、接触传感器等。这类传感器可以实现对机器人的定位与导航。比如,当机器人在光线很暗的环境中的时候,视觉导航方式将会失效。在这种情况下,可以利用里程计或磁惯传感器来进行导航。
根据室内移动机器人导航的要求,目前最常见的是基于里程计或磁惯传感器的导航系统以及基于视觉的导航系统,这两类系统本身都存在着一定的局限性,首先里程计或磁惯传感器通常处理速度较快,但是由于它们都是利用航迹递推的方法进行导航定位,因此必然会引入较大的累积误差。而基于视觉的导航系统通常精度较高,但是图像的获取以及处理所消耗的时间较大,因此实时性较差。
发明内容
本发明的目的是为了克服现有技术的不足,提出一种基于视觉信息校正的室内移动机器人实时导航方法,该方法通过综合集成视觉信息以及里程计信息的优势和特点,使得该导航系统同时兼顾实时性要求和导航精度要求。
本发明的一种基于视觉信息校正的室内移动机器人实时导航方法,其特征在于采用将视觉信息与里程计信息相融合的方式,通过对各滤波器估计位姿的最优融合,获得机器人的最优估计位姿,从而提高系统的实时性和精确度。其主要步骤为:
步骤一:初始化机器人导航系统,启动里程计和视觉传感器;
步骤二:里程计和视觉传感器得到机器人当前位资,构造卡尔曼滤波器,获得里程计滤波估计值和视觉传感器滤波估计值;
步骤三:里程计滤波估计值和视觉传感器滤波估计值融合;
步骤四:参数重置;
本发明的优点在于:
(1)本发明充分利用了视觉信息和里程计信息的各自优点,将视觉信息的精确性和里程计信息的实时性相结合起来,在大部分时间下,利用里程计自身信息进行递推计算,获得导航数据,保证了导航系统的实时性要求。同时利用视觉信息来矫正里程计航迹推算过程中产生的累积误差,从而大大提高了导航系统的准确性;
(2)本发明采用了基于混合高斯背景建模的全局运动目标检测方法,大大提高了运动目标检测的抗干扰能力,对光照的变化以及缓慢变化的背景噪声有抑制作用;
(3)本发明在获得最优滤波估计之后,加入了参数的重置,使得各滤波器始终以最优滤波估计值为基础进行递推估计,加快了滤波器的收敛速度;
(4)本发明利用当前获得的最优滤波估计值,对下一帧图像中目标可能出现的位置进行了预测,大大提高了目标检测的速度。
附图说明
图1是本发明所述方法的流程图;
图2是本发明卡尔曼滤波器的示意图。
具体实施方式
下面将结合附图和实施例对本发明作进一步的详细说明。
本发明是一种基于视觉信息校正的室内移动机器人实时导航方法,流程如图1所示,主要包括以下步骤:
步骤一:初始化机器人导航系统,启动里程计和视觉传感器;
对导航系统进行初始化,包括确定移动机器人的初始位置以及初始化所有滤波器的各个参数,其中滤波器的主要参数为移动机器人运动模型的系统噪声方差矩阵和各传感器的测量噪声方差矩阵,启动里程计和视觉传感器。
步骤二:里程计和视觉传感器得到机器人当前位资,构造卡尔曼滤波器,获得里程计滤波估计值和视觉传感器滤波估计值;
(1)里程计测量通道;
利用里程计获得移动机器人左、右轮的移动距离和移动速度,采用航迹递推获的方法获得当前机器人位姿。
(2)视觉传感器测量通道;
通过全局运动目标检测算法检测移动机器人在图像中的位置,并通过离线的标定建立图像位置与实际空间的映射关系,从而测量获得移动机器人当前位姿,其具体步骤如下:
①采用基于混合高斯背景建模的运动目标检测方法获得移动机器人在图像中的位置;
采用基于混合高斯背景建模方法进行移动机器人目标的运动检测,用K个不同均值与方差的高斯分布来描述非完全静止条件下的背景图像。设像素点(u,v)的噪声强度z(u,v)服从混合高斯分布,则该点的概率密度函数可用式(1)表示:
P ( z uv ) = Σ j = 1 K w j , uv η ( z uv | μ j , uv , Σ j , uv ) - - - ( 1 )
其中:η(zuvj,uv,∑j,uv)表示用于描述采集到的图像中(u,v)点的第j个高斯分布,其均值为μj,uv,方差为∑j,uv,该点当前灰度值为zuv,而wj,uv为第j个高斯分布的加权权重,P(zuv)为图像中(u,v)点的概率分布函数。
基于混合高斯背景建模的过程包括以下步骤:
i)初始化模型;
用视觉传感器采集的第一幅图像中每个像素点的像素值作为均值、方差和权值任取,建立一个高斯模型。
ii)模型学习;
视觉传感器采集到新图像,将新图像中的每个像素与该像素的已有的k个高斯模型相比较,其中k≤K;
若满足|zuvj,uv|<2.5∑j,uv,则利用EM算法估计第j个高斯参数和权重;
若不满足,且k<K,则增加一个高斯模型,若k=K,则用新的高斯分布代替优先级最低的高斯分布,新的高斯分布取zuv的值为均值、并赋予新的方差和权值;
视觉传感器继续采集图像,不断地训练初始化模型,最终得到K个|zuvj,uv|<2.5∑j,uv的高斯分布函数时,停止训练过程,从而得到高斯混合分布的背景图像模型。
iii)前景图像评估;
由于有噪声的影响或运动目标的存在,背景图像模型中些像素点并不能真正地代表背景,用这类像素建立的高斯分布模型应该被去除。假设运动目标及噪声在场景区域中不会长时间停留在某一位置上,这样,噪声和运动目标相对应的高斯模型的权值和优先级非常小,将K个高斯分布按照优先级高低次序排列,前B个分布作为背景模型,B的定义如下:
B = min b ( Σ j = 1 b w j , uv > M ) - - - ( 2 )
M是预先定义的阈值,它表示能真正反映背景的数据占总数据的最小比重,如果M=1,就是个单高斯分布的背景模型;M>1,就是高斯混合分布的背景模型;其中b<K。
对每一幅采集到的新图像,将图像的每一个像素点与该像素点对应的高斯混合模型的各个高斯模型进行比较,若有|zuvj,uv|<2.5∑j,uv,则该点属于背景,否则属于前景。所有属于前景的点组成了图像中运动目标,从而获得了移动机器人在图像中的位置。
②离线的标定建立图像位置与实际空间的映射关系,从而测量获得移动机器人当前位姿;
根据步骤①获得移动机器人在图像中的位置,利用全局摄像机的离线标定所获得的图像坐标系到实际空间坐标系的映射关系,计算得到移动机器人在实际空间中的位姿信息。
其中映射关系的标定过程如下:
将畸变的因素考虑到从图像平面到实际空间平面的映射关系中去,建立三次多项式,如式(3)所示,获得校正后的空间坐标位置:
X i = a 0 + a 1 x i + a 2 y i + a 3 x i 2 + a 4 y i 2 + a 5 x i y i + a 6 x i 3 + a 7 y i 3 + a 8 x i 2 y i + a 9 x i y i 2 Y i = b 0 + b 1 x i + b 2 y i + b 3 x i 2 + b 4 y i 2 + b 5 x i y i + b 6 x i 3 + b 7 y i 3 + b 8 x i 2 y i + b 9 x i y i 2 - - - ( 3 )
式中(Xi,Yi)为机器人在空间中的实际位置,(xi,yi)为机器人在图像中的坐标位置,在地面上选取48个控制点,利用最小二乘法对式(3)进行标定,可以获得多项式系数ai,bi,i=1,2...9。得到了该映射关系后,每次检测到移动机器人在图像中的位置后,都可以将它映射到实际空间中,得到其在实际空间中的位置,从而获得视觉传感器测量的位姿。
(3)构造卡尔曼滤波器,获得里程计滤波估计值和视觉传感器滤波估计值;
结合机器人运动学方程,为两个测量通道构造卡尔曼滤波器,将视觉传感器测量通道和里程计测量通道所得到的测量值,通过卡尔曼滤波得到里程计滤波估计值和视觉传感器滤波估计值。
根据移动机器人运动模型以及各个噪声统计信息构造扩展卡尔曼滤波器,结合移动机器人的非完整运动学方程,卡尔曼滤波器的滤波方程组如式(4)~式(8):
X ^ k + 1 / k = f [ X ^ k / k , u k ] - - - ( 4 )
X ^ k + 1 = X ^ k + 1 / k + K k + 1 [ Z k + 1 - h [ X ^ k + 1 , u k + 1 ] ] - - - ( 5 )
K k + 1 = P k + 1 / k H k T [ H k + 1 P k + 1 / k H k T + R ] - 1 - - - ( 6 )
Pk+1/k=ΦPk/kΦT+Q    (7)
Pk+1=[I-Kk+1Hk+1]Pk+1/k    (8)
其中:Q为导航系统噪声的方差矩阵,R为测量噪声的方差矩阵,两者均为零均值时的高斯噪声,P为估计误差的协方差矩阵,Pk/k为k时刻P的估计值,Pk+1/k为k+1时刻P的预测值。
Figure G2009100872377D00054
为系统状态,
Figure G2009100872377D00055
为k时刻的状态估计值,
Figure G2009100872377D00056
为k+1时刻的状态预测值,K为卡尔曼滤波增益,Kk为k时刻的卡尔曼滤波增益,Kk+1为k+1时刻的卡尔曼滤波增益,Φ为线性化的状态转移矩阵,通过式(5)~式(9)得到的滤波估计值为
Figure G2009100872377D00057
其工作结构示意图如图2所示,在
Figure G2009100872377D00058
的基础上,利用式(4)获得
Figure G2009100872377D00059
同时根据Pk,利用式(7)获得Pk+1/k,利用式(6)获得Kk+1,利用Kk+1
Figure G2009100872377D000510
根据式(5)就可以获得
Figure G2009100872377D000511
同时利用Kk+1和Pk+1/k,根据式(8)就可以获得Pk+1
Figure G2009100872377D000512
为第k+1步的滤波估计值,即获得里程计滤波估计值和视觉传感器滤波估计值。
步骤三:里程计滤波估计值和视觉传感器滤波估计值融合;
由于视觉传感器的处理速度远远小于里程计的处理速度,可能出现里程计已获得测量数据,其滤波器计算获得了滤波估计值,而视觉传感器还未完成其图像处理的过程,没有获得测量数据,也没有获得滤波估计值,因此滤波估计值的融合有以下两种情况:
(1)在未获得视觉传感器滤波器滤波估计值时;
利用里程计滤波器滤波估计值与移动机器人模型公共参考系统进行信息的融合,获得最优滤波值
Figure G2009100872377D000513
(2)当获得视觉传感器滤波器滤波估计值后;
利用里程计滤波器滤波估计值,视觉传感器滤波器滤波估计值与移动机器人模型公共参考系统进行信息的融合,获得最优滤波值
按照最优融合公式(9),将各滤波器的滤波估计值进行融合:
x ^ g = P g Σ i = 1 N P ii - 1 x ^ i P g - 1 = Σ i = 1 N P ii - 1 - - - ( 9 )
式中:
Figure G2009100872377D00063
表示最优滤波值,Pg为融合后的估计误差方差矩阵,Pii为第i个滤波器的估计误差方差矩阵,
Figure G2009100872377D00064
为第i个滤波器的滤波估计值,N为自然数,表示包括滤波器的个数;
步骤四:参数重置;
判断导航是否结束,若未结束导航,则将获得的最优滤波估计值,重置到里程计滤波器和视觉传感器滤波器,代替各滤波器的滤波估计值,返回步骤二,进行下一次的滤波;
同时根据获得的最优位姿估计值,利用移动机器人运动模型,预测下一步移动机器人的位姿信息,从而确定在下一帧图像中移动机器人目标所在的大概位置,以该位置作为下一次运动目标检测时的搜索启发点,加快整个目标检测的速度。
若导航结束,则本方法结束。

Claims (1)

1.一种基于视觉信息校正的室内移动机器人实时导航方法,其特征在于,包含以下步骤:
步骤一:初始化机器人导航系统,启动里程计和视觉传感器;
初始化包括确定移动机器人的初始位置、初始化导航系统中所有滤波器的参数;
步骤二:里程计和视觉传感器得到机器人当前位姿,构造卡尔曼滤波器,获得里程计滤波估计值和视觉传感器滤波估计值;
(1)里程计测量通道;
利用里程计获得移动机器人左、右轮的移动距离和移动速度,采用航迹递推的方法获得当前机器人位姿;
(2)视觉传感器测量通道;
通过全局运动目标检测算法检测移动机器人在图像中的位置,并通过离线的标定建立图像位置与实际空间的映射关系,获得移动机器人当前位姿,具体步骤如下:
①采用基于混合高斯背景建模的运动目标检测方法获得移动机器人在图像中的位置;
用K个不同均值与方差的高斯分布描述非完全静止条件下的背景图像;设像素点(u,v)的噪声强度z(u,v)服从混合高斯分布,则该点的概率密度函数为:
P ( z uv ) = Σ j = 1 K w j , uv η ( z uv | μ j , uv , Σ j , uv ) - - - ( 1 )
其中:η(zuvj,uv,∑j,uv)表示采集到的图像中(u,v)点的第j个高斯分布,其均值为μj,uv,方差为∑j,uv,该点当前灰度值为zuv,wj,uv为第j个高斯分布的加权权重,P(zuv)为图像中(u,v)点的概率分布函数;
基于混合高斯背景建模的过程包括以下步骤:
i)初始化模型;
视觉传感器采集的第一幅图像中每个像素点的像素值作为均值,方差和权值任取,建立一个高斯模型;
ii)模型学习;
视觉传感器采集到新图像,将新图像中的每个像素与该像素的已有的k个高斯模型相比较,其中k≤K;
若满足|zuvj,uv|<2.5∑j,uv,采用EM算法估计第j个高斯参数和权重;
若不满足,且k<K,则增加一个高斯模型,若k=K,则用新的高斯分布代替优先级最低的高斯分布,新的高斯分布取zuv的值为均值、并赋予新的方差和权值;
视觉传感器继续采集图像,不断地训练初始化模型,最终得到K个|zuvj,uv|<2.5∑j,uv的高斯分布函数时,停止训练过程,得到高斯混合分布的背景图像模型;
iii)前景图像评估;
去除背景模型中用噪声或运动目标建立的高斯分布模型;将K个高斯分布模型按照优先级高低次序排列,前B个分布作为背景模型,B的定义如下:
B = min b ( Σ j = 1 b w j , uv > M ) - - - ( 2 )
M是预先定义的阈值,其中b<K;
对每一幅采集到的新图像,将图像的每一个像素点与该像素点对应的高斯混合模型的各个高斯模型进行比较,若有|zuvj,uv|<2.5∑j,uv,则该点属于背景,否则属于前景;所有属于前景的点组成了图像中运动目标,从而获得了移动机器人在图像中的位置;
②离线的标定建立图像位置与实际空间的映射关系,从而测量获得移动机器人当前位姿;
根据步骤①获得移动机器人在图像中的位置,利用全局摄像机的离线标定所获得的图像坐标系到实际空间坐标系的映射关系,计算得到移动机器人在实际空间中的位姿信息;
其中映射关系的如下:
X i = a 0 + a 1 x i + a 2 y i + a 3 x i 2 + a 4 y i 2 + a 5 x i y i + a 6 x i 3 + a 7 y i 3 + a 8 x i 2 y i + a 9 x i y i 2 Y i = b 0 + b 1 x i + b 2 y i + b 3 x i 2 + b 4 y i 2 + b 5 x i y i + b 6 x i 3 + b 7 y i 3 + b 8 x i 2 y i + b 9 x i y i 2 - - - ( 3 )
式中(Xi,Yi)为机器人在空间中的实际位置,(xi,yi)为机器人在图像中的坐标位置,在地面上选取48个控制点,利用最小二乘法对式(3)进行标定,获得多项式系数ai,bi,i=1,2...9;得到了该映射关系后,每次检测到移动机器人在图像中的位置后,都将它映射到实际空间中,得到其在实际空间中的位置,从而获得视觉传感器测量的位姿;
(3)构造卡尔曼滤波器,获得里程计滤波估计值和视觉传感器滤波估计值;
结合机器人运动学方程,构造卡尔曼滤波器,将视觉传感器测量通道和里程计测量通道所得到的测量值,通过卡尔曼滤波得到里程计滤波估计值和视觉传感器滤波估计值,具体步骤如下:
根据移动机器人运动模型以及各个噪声统计信息构造扩展卡尔曼滤波器,结合移动机器人的非完整运动学方程,卡尔曼滤波器的滤波方程组如式(4)~式(8):
X ^ k + 1 / k = f [ X ^ k / k , u k ] - - - ( 4 )
X ^ k + 1 = X ^ k + 1 / k + K k + 1 [ Z k + 1 - h [ X ^ k + 1 , u k + 1 ] ] - - - ( 5 )
K k + 1 = P k + 1 / k H k T [ H k + 1 P k + 1 / k H k T + R ] - 1 - - - ( 6 )
Pk+1/k=ΦPk/kΦT+Q         (7)
Pk+1=[I-Kk+1Hk+1]Pk+1/k    (8)
其中:Q为导航系统噪声的方差矩阵,R为测量噪声的方差矩阵,两者均为零均值时的高斯噪声,P为估计误差的协方差矩阵,Pk/k为k时刻P的估计值,Pk+1/k为k+1时刻P的预测值;为系统状态,
Figure FSB00000268216000027
为k时刻的状态估计值,
Figure FSB00000268216000028
为k+1时刻的状态预测值,K为卡尔曼滤波增益,Kk为k时刻的卡尔曼滤波增益,Kk+1为k+1时刻的卡尔曼滤波增益,Φ为线性化的状态转移矩阵;
通过式(4)~式(8)得到的滤波估计值为
步骤三:里程计滤波估计值和视觉传感器滤波估计值融合;
(1)在未获得视觉传感器滤波器滤波估计值时;
利用里程计滤波器滤波估计值与移动机器人模型公共参考系统进行信息融合,获得最优滤波值
Figure FSB00000268216000032
(2)当获得视觉传感器滤波器滤波估计值后;
利用里程计滤波器滤波估计值,视觉传感器滤波器滤波估计值与移动机器人模型公共参考系统进行信息融合,获得最优滤波值
Figure FSB00000268216000033
按照最优融合公式(9),将各滤波器的滤波估计值进行融合:
x ^ g = P g Σ i = 1 N P ii - 1 x ^ i P g - 1 = Σ i = 1 N P ii - 1 - - - ( 9 )
式中:
Figure FSB00000268216000035
表示最优滤波值,Pg为融合后的估计误差方差矩阵,Pii为第i个滤波器的估计误差方差矩阵,为第i个滤波器的滤波估计值,N为自然数,表示包括滤波器的个数;
步骤四:参数重置;
判断导航是否结束,若导航未结束,则将获得的最优滤波值
Figure FSB00000268216000037
或者
Figure FSB00000268216000038
重置到里程计滤波器和视觉传感器滤波器,返回步骤二,进行下一次的滤波;
同时根据获得的最优滤波值
Figure FSB00000268216000039
或者
Figure FSB000002682160000310
利用移动机器人运动模型,预测下一步移动机器人的位姿信息,从而确定在下一帧图像中移动机器人目标所在的位置,以该位置作为下一次运动目标检测时的搜索启发点;
若导航结束,则本方法结束。
CN2009100872377A 2009-06-18 2009-06-18 一种基于视觉信息校正的室内移动机器人实时导航方法 Expired - Fee Related CN101576384B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100872377A CN101576384B (zh) 2009-06-18 2009-06-18 一种基于视觉信息校正的室内移动机器人实时导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100872377A CN101576384B (zh) 2009-06-18 2009-06-18 一种基于视觉信息校正的室内移动机器人实时导航方法

Publications (2)

Publication Number Publication Date
CN101576384A CN101576384A (zh) 2009-11-11
CN101576384B true CN101576384B (zh) 2011-01-05

Family

ID=41271379

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100872377A Expired - Fee Related CN101576384B (zh) 2009-06-18 2009-06-18 一种基于视觉信息校正的室内移动机器人实时导航方法

Country Status (1)

Country Link
CN (1) CN101576384B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI558525B (zh) * 2014-12-26 2016-11-21 國立交通大學 機器人及其控制方法

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8812015B2 (en) 2009-10-01 2014-08-19 Qualcomm Incorporated Mobile device locating in conjunction with localized environments
US9140559B2 (en) 2009-10-01 2015-09-22 Qualcomm Incorporated Routing graphs for buildings using schematics
US8880103B2 (en) 2009-10-12 2014-11-04 Qualcomm Incorporated Method and apparatus for transmitting indoor context information
US9389085B2 (en) 2010-01-22 2016-07-12 Qualcomm Incorporated Map handling for location based services in conjunction with localized environments
CN101973032B (zh) * 2010-08-30 2013-06-26 东南大学 一种焊接机器人线结构光视觉传感器离线编程系统和方法
CN102087530B (zh) * 2010-12-07 2012-06-13 东南大学 基于手绘地图和路径的移动机器人视觉导航方法
CN102135429B (zh) * 2010-12-29 2012-06-13 东南大学 一种基于视觉的机器人室内定位导航方法
CN102591332B (zh) * 2011-01-13 2014-08-13 同济大学 用于无人驾驶汽车局部路径规划的装置及方法
CN102288176B (zh) * 2011-07-07 2013-01-30 中国矿业大学(北京) 基于信息融合的煤矿救灾机器人导航系统及方法
CN102297692B (zh) * 2011-07-12 2013-05-08 重庆邮电大学 用于智能轮椅在转角区域的自定位方法
CN102494684B (zh) * 2011-11-11 2014-06-04 东南大学 一种基于wsn/mins组合导航的导航信息无偏紧组合方法
CN102542563A (zh) * 2011-11-24 2012-07-04 广东工业大学 一种移动机器人前向单目视觉的建模方法
CN102506891B (zh) * 2011-11-28 2014-10-15 重庆大学 磁导航自主轮式移动机器人的里程检测方法
CN103364000B (zh) * 2012-03-26 2016-01-27 联想(北京)有限公司 一种定位方法及电子设备
CN103424114B (zh) * 2012-05-22 2016-01-20 同济大学 一种视觉导航/惯性导航的全组合方法
CN103791898A (zh) * 2012-10-30 2014-05-14 联想(北京)有限公司 一种建筑物内部导航方法及电子设备
CN103064417B (zh) * 2012-12-21 2016-06-01 上海交通大学 一种基于多传感器的全局定位导引系统及方法
CN103646249B (zh) * 2013-12-12 2017-11-17 江苏大学 一种温室智能移动机器人视觉导航路径识别方法
US9427867B2 (en) * 2014-04-02 2016-08-30 The Boeing Company Localization within an environment using sensor fusion
CN103984351B (zh) * 2014-05-30 2017-09-22 联想(北京)有限公司 一种自行走设备的平衡控制方法和装置
CN104316059B (zh) * 2014-11-05 2017-08-25 中国科学院嘉兴微电子与系统工程中心 由里程计获得车辆经纬度的航位推算导航定位方法及系统
CN104501801B (zh) * 2014-12-31 2017-09-15 中国电子科技集团公司第二十九研究所 一种室内定位方法
CN105004336A (zh) * 2015-07-10 2015-10-28 中国科学院深圳先进技术研究院 一种机器人的定位方法
CN105258702B (zh) * 2015-10-06 2019-05-07 深圳力子机器人有限公司 一种基于slam导航移动机器人的全局定位方法
CN105411490B (zh) * 2015-10-26 2019-07-05 深圳市杉川机器人有限公司 移动机器人的实时定位方法及移动机器人
CN105425799A (zh) * 2015-12-03 2016-03-23 昆山穿山甲机器人有限公司 一种银行自助服务机器人系统及其自动导航方法
CN107569181B (zh) * 2016-07-04 2022-02-01 九阳股份有限公司 一种智能清洁机器人及清扫方法
CN106153037B (zh) * 2016-07-21 2019-09-03 北京航空航天大学 一种机器人的室内定位方法、装置及系统
CN107014375B (zh) * 2017-02-22 2020-05-22 上海谦尊升网络科技有限公司 超低部署的室内定位系统及方法
CN106990776B (zh) * 2017-02-27 2020-08-11 广东省智能制造研究所 机器人归航定位方法与系统
CN107091646A (zh) * 2017-03-22 2017-08-25 北京小度信息科技有限公司 导航控制方法、装置及可移动设备
CN107223082B (zh) 2017-04-21 2020-05-12 深圳前海达闼云端智能科技有限公司 一种机器人控制方法、机器人装置及机器人设备
CN107817500B (zh) * 2017-07-28 2020-07-07 浙江工业大学 一种模块化舞台激光定位方法
CN108036789B (zh) * 2017-11-29 2020-01-31 安徽省一一通信息科技有限公司 一种野外机器人航迹推算方法
CN110361003B (zh) * 2018-04-09 2023-06-30 中南大学 信息融合方法、装置、计算机设备和计算机可读存储介质
CN108646760B (zh) * 2018-07-11 2022-03-25 中国人民解放军火箭军工程大学 基于单目视觉移动机器人目标跟踪及平台控制系统和方法
US11287824B2 (en) * 2018-11-19 2022-03-29 Mobile Industrial Robots A/S Detecting a location of an autonomous device
CN109540140B (zh) * 2018-11-23 2021-08-10 宁波智能装备研究院有限公司 一种融合ssd目标识别和里程计信息的移动机器人定位方法
CN109752725A (zh) * 2019-01-14 2019-05-14 天合光能股份有限公司 一种低速商用机器人、定位导航方法及定位导航系统
CN110006444B (zh) * 2019-03-21 2020-09-22 南京师范大学 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法
CN111830955A (zh) * 2019-04-15 2020-10-27 富华科精密工业(深圳)有限公司 自动导航方法、服务器及存储介质
CN112230256B (zh) * 2019-07-15 2024-04-09 苏州宝时得电动工具有限公司 自主机器人及其定位校准方法、装置和存储介质
CN112394720A (zh) * 2019-08-15 2021-02-23 纳恩博(北京)科技有限公司 机器人的控制方法和装置、存储介质及电子装置
CN110515381B (zh) * 2019-08-22 2022-11-25 浙江迈睿机器人有限公司 用于定位机器人的多传感器融合算法
CN113189613B (zh) * 2021-01-25 2023-01-10 广东工业大学 一种基于粒子滤波的机器人定位方法
CN113012224B (zh) * 2021-03-12 2022-06-03 浙江商汤科技开发有限公司 定位初始化方法和相关装置、设备、存储介质
CN113029128B (zh) * 2021-03-25 2023-08-25 浙江商汤科技开发有限公司 视觉导航方法及相关装置、移动终端、存储介质
CN113916221B (zh) * 2021-09-09 2024-01-09 北京理工大学 一种融合视觉里程计和bp网络的自适应行人航迹推算方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070072306A (ko) * 2005-12-29 2007-07-04 한국생산기술연구원 이동 로봇의 위치 추정 시스템 및 그 방법
CN101008566A (zh) * 2007-01-18 2007-08-01 上海交通大学 基于地面纹理的智能车视觉装置及其全局定位方法
CN101293539A (zh) * 2008-04-15 2008-10-29 上海中为智能机器人有限公司 模块化便携式移动机器人系统
CN101359229A (zh) * 2008-08-18 2009-02-04 浙江大学 一种基于障碍物运动预测的移动机器人避障方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070072306A (ko) * 2005-12-29 2007-07-04 한국생산기술연구원 이동 로봇의 위치 추정 시스템 및 그 방법
CN101008566A (zh) * 2007-01-18 2007-08-01 上海交通大学 基于地面纹理的智能车视觉装置及其全局定位方法
CN101293539A (zh) * 2008-04-15 2008-10-29 上海中为智能机器人有限公司 模块化便携式移动机器人系统
CN101359229A (zh) * 2008-08-18 2009-02-04 浙江大学 一种基于障碍物运动预测的移动机器人避障方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
岳海媛等."星球探测机器人导航定位技术研究进展".《机器人技术与应用》.2008,20-25.
朱凤春."移动机器人导航与环境建模问题研究".《 中国博士学位论文全文数据库》.2007,全文.
秦世引."面向救援任务的地面移动机器人路径规划".《智能系统学报》.2009,第4卷(第5期),414-420.
许伟."基于激光雷达环境信息处理的机器人定位/导航技术研究".《中国优秀硕士学位论文全文数据库》.2006,全文.
霍成立等."面向室内移动机器人的无迹滤波实时导航方法".《智能系统学报》.2009,第4卷(第4期),295-302.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI558525B (zh) * 2014-12-26 2016-11-21 國立交通大學 機器人及其控制方法

Also Published As

Publication number Publication date
CN101576384A (zh) 2009-11-11

Similar Documents

Publication Publication Date Title
CN101576384B (zh) 一种基于视觉信息校正的室内移动机器人实时导航方法
CN111551958B (zh) 一种面向矿区无人驾驶的高精地图制作方法
US11254329B2 (en) Systems and methods for compression of lane data
Alonso et al. Accurate global localization using visual odometry and digital maps on urban environments
JP5162849B2 (ja) 不動点位置記録装置
WO2020163311A1 (en) Systems and methods for vehicle navigation
CA3086261A1 (en) Vehicle tracking
Hervieu et al. Road side detection and reconstruction using LIDAR sensor
CN103760569A (zh) 一种基于激光雷达的可行驶区域检测方法
Aldibaja et al. LIDAR-data accumulation strategy to generate high definition maps for autonomous vehicles
WO2020242945A1 (en) Systems and methods for vehicle navigation based on image analysis
CN115388902B (zh) 室内定位方法和系统、ar室内定位导航方法和系统
US20230195122A1 (en) Systems and methods for map-based real-world modeling
Zheng et al. Background noise filtering and clustering with 3D LiDAR deployed in roadside of urban environments
Huang et al. Probabilistic lane estimation for autonomous driving using basis curves
Lu et al. Pole-based localization for autonomous vehicles in urban scenarios using local grid map-based method
Cheng et al. Graph-based proprioceptive localization using a discrete heading-length feature sequence matching approach
WO2023126680A1 (en) Systems and methods for analyzing and resolving image blockages
Yang et al. Pseudo-Anchors: Robust Semantic Features for Lidar Mapping in Highly Dynamic Scenarios
Kim et al. Cloud update of geodetic normal distribution map based on crowd-sourcing detection against road environment changes
Ishii et al. Autonomous UAV flight using the Total Station Navigation System in Non-GNSS Environments
Gu et al. Correction of vehicle positioning error using 3D-map-GNSS and vision-based road marking detection
Gim et al. Drivable road recognition by multilayered LiDAR and Vision
Wang et al. Research on Laser SLAM Algorithm for Multi sensor Fusion Based on Elastic Tight Hybrid Coupling
Tian et al. Scalable High-Definition Map Generation through Crowdsourcing

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110105

Termination date: 20120618