CN102109348B - 定位载体、估测载体姿态与建地图的系统与方法 - Google Patents

定位载体、估测载体姿态与建地图的系统与方法 Download PDF

Info

Publication number
CN102109348B
CN102109348B CN 200910265511 CN200910265511A CN102109348B CN 102109348 B CN102109348 B CN 102109348B CN 200910265511 CN200910265511 CN 200910265511 CN 200910265511 A CN200910265511 A CN 200910265511A CN 102109348 B CN102109348 B CN 102109348B
Authority
CN
China
Prior art keywords
sensing element
carrier
controller
information
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN 200910265511
Other languages
English (en)
Other versions
CN102109348A (zh
Inventor
李金龙
张彦中
游鸿修
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Matsutek Enterprises Co., Ltd.
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=44173568&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN102109348(B) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Priority to CN 200910265511 priority Critical patent/CN102109348B/zh
Publication of CN102109348A publication Critical patent/CN102109348A/zh
Application granted granted Critical
Publication of CN102109348B publication Critical patent/CN102109348B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)

Abstract

一种定位载体、估测载体姿态与建地图的系统,包括:一惯性感测元件,测量该载体的一移动状态与一旋转状态;一视觉感测元件,配置在该载体的一表面上以拍摄该载体所在的一室内环境内的至少一环境特征点;以及一控制器,控制该惯性感测元件与该视觉感测元件,接收该惯性感测元件的一感测结果与该视觉感测元件的一感测结果以估测该载体的一姿态信息、该载体的一位置信息与一速度信息,并建构含有该环境特征点的一地图。该控制器根据该惯性感测元件与该视觉感测元件之一的一修正后感测结果而估测,该控制器令该惯性感测元件与该视觉感测元件中的另一个感测并且据以修正该载体的该姿态信息、该载体的该位置信息、该速度信息与该地图。

Description

定位载体、估测载体姿态与建地图的系统与方法
技术领域
本发明是有关于一种应用感测元件以定位载体、估测载体姿态与建地图的系统与方法,且特别是有关于一种应用可互补的多种感测元件的系统与方法,其能定位载体、估测环境特征点的位置并建构地图。
背景技术
室外定位系统,比如GPS(全球定位系统),已广泛使用在车用导航系统,以在室外定出车辆或人的位置。但室内定位系统至今仍有其问题无法突破,室内定位系统的困难度在于(1)在室内时,电磁讯号易被遮蔽,无法接收到卫星讯号;(2)室内环境(比如室内的对象、人物等)的变动性大。
目前来说,室内定位的技术有两种类型,一种为外部定位系统,另一种为内部定位系统。外部定位系统例如,利用外部的传感器与机器人的接收器之间的相对关系去估测机器人在空间中的位置。由内部定位系统例如,在机器人上放传感器,将所扫描到的数据比较于其内建地图,进而估测机器人在空间中的位置。
外部定位系统的定位速度快,但需事先建好外部传感器。一旦外部传感器被移动或被遮蔽,此系统将无法定位。外部定位系统如要用于大范围,所需的传感器数目与成本将增加。
内部定位系统的定位速度较慢但具扩充性,即使环境变动性大,只要特征点可供定位,内部定位系统仍能定位。但其必需先内建室内环境地图,才能进行定位。
发明内容
本发明实施例提出一种结合惯性感测元件(inertial measurement unit,IMU)与视觉感测元件,以定位移动载体并计算出环境特征对象在三度空间的相对位置(相对于移动载体),达到同步定位、姿态估测、与建构环境地图。
本发明的一实施例提出一种定位载体、估测载体姿态与建地图的系统,包括:一惯性感测元件,测量该载体的一移动状态与一旋转状态;一视觉感测元件,配置在该载体的一表面上以拍摄该载体所在的一室内环境内的至少一环境特征点;以及一控制器,控制该惯性感测元件与该视觉感测元件,接收该惯性感测元件的一感测结果与该视觉感测元件的一感测结果以估测该载体的一姿态信息、该载体的一位置信息与一速度信息,并建构含有该环境特征点的一地图。该控制器根据该惯性感测元件与该视觉感测元件之一的一修正后感测结果而估测,该控制器令该惯性感测元件与该视觉感测元件中的另一个感测并且据以修正该载体的该姿态信息、该载体的该位置信息、该速度信息与该地图。
本发明的另一实施例提出一种定位载体、估测载体姿态与建地图的方法,包括:利用一惯性感测元件以测量该载体的一移动状态与一旋转状态;利用一视觉感测元件以拍摄该载体所在的一室内环境内的至少一环境特征点;以及根据该惯性感测元件与该视觉感测元件之一的一修正后感测结果而估测,令该惯性感测元件与该视觉感测元件中的另一个感测并且据以修正该载体的一姿态信息、该载体的一位置信息、一速度信息与一地图。
为让本发明的上述内容能更明显易懂,下文特举实施例,并配合所附图式,作详细说明如下:
附图说明
图1显示根据本发明第一实施例的系统示意图。
图2显示本第一实施例如何结合惯性感测元件与视觉感测元件来估测载体的状态。
图3显示根据本发明第一实施例的流程图。
附图标记说明
100:载体            110:惯性感测元件
120:视觉感测元件    130:控制器
140:显示单元        210~230:环境特征点
241~243:载体的姿态与位置
251:实际画面
210A~230A:环境特征点的实际位置
252:估测画面
210B~230B:环境特征点的估测位置
253:实际画面
210C~230C:环境特征点的实际位置
E1~E3:估测误差
310~370:步骤
具体实施方式
第一实施例:惯性感测元件+视觉感测元件(单眼相机)
图1显示根据本发明第一实施例的系统示意图。如图1所示,根据本发明第一实施例的系统包括:载体100、惯性感测元件110、视觉感测元件120、控制器130与显示单元140。
载体100是可以移动的,其比如但不受限为可进行室内定位的机器人、个人携带型导航装置(Personal Navigation System)、游戏娱乐机、车辆、机车、自行车、眼镜、手表、安全帽或其它可移动物体。
惯性感测元件110可为下列之一或其任意组合:加速度计(accelerometer)、陀螺仪(gyroscope)、转速计数组或其它可量测物体力学参数的传感器。加速度计可测量载体的移动状态(如加速度信息),而陀螺仪则可测量载体的旋转状态(如角速度信息)。根据惯性感测元件110的感测结果,控制器130可以估测出移动载体的载体姿态、速度、位置等。控制器130可将惯性感测元件110所感测出的加速度、角速度等参数进行积分,以计算出载体100的速度信息、姿态信息与位置信息。然而,经过长时间积分后,由惯性感测元件110所计算出的速度信息与位置信息的累积误差(如速度误差、位移误差、姿态误差等)无法单靠惯性感测元件110的感测结果来消除。此外,惯性感测元件110不会因为环境的光线昏暗或无光源而影响测量结果的准确性。惯性感测元件110的感测速度快。在控制器130的控制下,惯性感测元件110进行感测并将其回传给控制器。
在第一实施例中,视觉感测元件120为单眼相机,且配置在载体100的表面上,以拍摄室内的环境特征点。根据视觉感测元件120的感测结果,控制器130可测量出环境特征点的移动,估测载体的移动/旋转状态。视觉感测元件易受光线昏暗或无光源的干扰,而且,在环境特征点的成像情况不明显下(例如,位于白墙前面的白色物体),单靠视觉感测元件的感测结果,控制器不易/无法定位出载体与环境特征的相对位置。视觉感测元件的感测操作较慢且控制器130的相对应运算较复杂。如果没有惯性感测元件的感测结果的辅助,则单靠视觉感测元件的感测结果,控制器会花耗大量计算于计算出载体的3D状态。如果载体处在高动态状态,则此计算容易发散,使得系统可能会出错。故而,如果有惯性感测元件的辅助,控制器在计算载体的3D状态之时,不会只靠视觉感测元件的感测结果,所以控制器的计算量减少;即使载体处在高动态状态,计算仍不易发散,系统出错的可能性大为降低。
故而,在本实施例中,结合惯性感测元件与视觉感测元件,以计算出机率模型的感测融合,来定位出载体在三度空间的位置,及环境特征点在空间中的相对位置(相对于载体),达到空间定位、姿态估测、建置地图的目的。在此,地图是由环境特征点所组成,而且,在本实施例中,可在载体移动/旋转的过程中,实时建构出地图。
控制器130连接至惯性感测元件110、视觉感测元件120与显示单元。虽然在图1中,控制器130似乎位于载体100之外,但在其它实施例中,控制器130也可位于载体内部。控制器会控制惯性感测元件110与视觉感测元件120的操作,接收这些感测元件的感测结果并进行计算,以估测载体姿态与位置,并建构含有环境特征点的地图。
显示单元140连接在控制器130。在控制器130的控制下,显示单元140产生可与外界互动的反应。比如,显示单元140可提醒使用者的反应为:影音表达语音、音乐、预录声音。此外,显示单元也可显示:图像、文字、颜色、明暗、闪烁、图形等。显示单元140所提供的影音表达语音包括:语音信号、影像信号与提示信号的至少一者或其组合。
现请参考图2,其显示本第一实施例如何结合惯性感测元件与视觉感测元件来估测载体的状态。图2所示为视觉同时定位与建地图(VSLAM,VisionSimultaneous Localization and Mapping)。在图2中,210~230代表在环境中的三个环境特征点。请注意,虽然在此以3个环境特征点为例,但本实施例并不受限于此。
在时刻t-1时,载体的姿态与位置(t-1|t-1)如参考附图标记241所示;而且,时刻t-1时,视觉感测元件会拍摄实际画面251,其中,实际画面251显示出环境特征点的实际位置210A~230A。
因为载体的移动/旋转,在时刻t时,根据惯性感测元件的感测结果,控制器估测载体的未修正姿态与位置(t|t-1)如参考附图标记242所示。
根据载体的未修正姿态与位置(t|t-1)242,控制器估测出画面252,其包括对环境特征点的估测位置210B~230B。
在时刻t时,在控制器的控制下,视觉感测元件拍摄实际画面253并回传给控制器,实际画面253包括环境特征点的实际位置210C~230C。控制器对比环境特征点的估测位置210B~230B与实际位置210C~230C,以计算出估测误差E1~E3,此误差可能包括控制器在量测环境特征点时的误差及控制器估测载体的姿态与位置的误差。
在本实施例中,控制器可逐一修正所有环境特征点的位置误差,或是同时修正所有环境特征点的位置误差。在本实施例中,修正误差的方式可有多种,比如可根据误差E1~E3的平均值进行修正。
根据误差E1~E3,控制器可以推算出对载体的姿态与位置的修正量,并据以修正载体的姿态与位置的状态,如参考附图标记243所示。当控制器欲命令惯性感测元件进行量测时,控制器会先根据修正后姿态与位置信息(t|t)243来进行估测,如此可以修正因惯性感测元件的积分结果所导致的累积误差。
如上述,在本实施例中,当要估测载体的姿态、位置与建构地图时,要进行估测(由控制器进行)-量测(由其中一种感测元件进行)-修正(由控制器进行)。当控制器在进行估测时,根据控制器对另一种感测元件的修正后感测结果而进行估测,之后,控制器会令其中一种感测元件进行数据感测并且依据其中一种感测元件的感测数据来进行修正。
现请参考图3,其显示根据本发明第一实施例的流程图。如步骤310所示,在命令惯性感测元件进行量测之前,控制器会先估测载体的3D姿态、速度、位置。
接着,如步骤320所示,在控制器的控制下,惯性感测元件测量载体的移动状态(如加速度信息)与旋转状态(如角速度信息),并将感测结果回传给控制器。
之后,如步骤330所示,根据惯性感测元件的感测结果,控制器会修正载体的3D姿态、速度、位置等。
另一方面,如步骤340所示,在命令视觉感测元件进行量测之前,控制器会先进行估测(如估测载体的3D姿态、速度、位置)。本实施例中,当控制器已得到惯性感测元件的修正后结果,则控制器会依据惯性感测元件的修正后结果来进行步骤340中的估测。
接着,如步骤350所示,在控制器的控制下,视觉感测元件进行测量(即,视觉感测元件会拍摄画面),并将感测结果回传给控制器。
之后,如步骤360所示,根据视觉感测元件的感测结果,控制器会修正载体的3D姿态、速度、位置等。详细地说,如步骤361所示,根据视觉感测元件所拍摄的实际画面,控制器比较环境特征点的估测位置与实际位置间的差异,以计算出误差。
接着,如步骤362所示,依据所算出的误差,控制器修正对所有环境特征点的估测位置。在步骤362中,控制器可逐一修正所有环境特征点的位置误差,或是同时修正所有环境特征点的位置误差。
如步骤363所示,根据上述步骤362所计算出的误差,控制器修正对载体预测位置,比如,修正所估测的载体位置、载体姿态等信息。
如步骤370所示,经由估测-测量-修正结果,可以对载体定位,估测载体的3D姿态,并建构环境地图(含有环境特征点)。
如果在控制器欲进行步骤310的估测时,控制器已得到视觉感测元件的修正后结果(即步骤370已完成),则控制器会依据视觉感测元件的修正后结果来进行步骤310的估测。相似地,如果在控制器欲进行步骤340的估测时,控制器已得到惯性感测元件的修正后结果(即步骤330已完成),则控制器会依据惯觉感测元件的修正后结果来进行步骤340的估测。
在本实施例中,如果惯性感测元件与视觉感测元件的操作速度不同步的话(通常,惯性感测元件的操作速度较快而视觉感测元件的操作速度较慢),则在图3中,步骤310~330的操作不同于步骤340~370。
底下将详述本实施例的详细做法。利用惯性感测元件来定位的状态定义如下:
xt=g(xt-1,ut)+εt
zt=h(xt)+δt
假设运动模型(Motion Model)为Xt=g(Xt-1,Ut)+εt,则载体状态为:
Xt=[XG,t  Vx,t  Ax,t  YG,t  Vy,t  Ay,t  ZG,t  Vz,t  Az,t  e0,t  e1,t  e2,t  e3,t]T
其中,
[XG,t  YG,t  ZG,t]T为载体在世界坐标中的绝对位置,
[Vx,t  Vy,t  Vz,t]T为载体在载体坐标中的速度,
[Ax,t  Ay,t  Az,t]T为载体在载体坐标中的加速度,
[e0,t  e1,t  e2,t  e3,t]T为载体在载体坐标中的四元数(quaternion),
Ut=[ax,t  ay,t  az,t  ωx,t  ωy,t  ωz,t]T为载体在载体坐标中的加速度与角速度。
要算出载体在t时在世界坐标中的绝对位置Bt,需要载体在t-1时在世界坐标中的绝对位置、载体上的加速规与陀螺仪所得到加速度和角速度的积分信息,且利用四元数把载体坐标信息经由载体坐标转换成世界坐标,而且,以上过程在运动模型中完成。
载体状态的运动模型表示如下:
X G , t V x , t A x , t Y G , t V y , t A y , t Z G , t V z , t A z , t e 0 , t e 1 , t e 2 , t e 3 , t =
+ 0 ( a x , t - g x , t ) t ( a x , t - g x , t ) 0 ( a y , t - g y , t ) t ( a y , t - g y , t ) 0 ( a z , t - g z , t ) t ( a z , t - g z , t ) 0 0 0 0 + ϵ t
地图状态的运动模型
m x , t i m y , t i m z , t i t = 1 0 0 0 1 0 0 0 1 m x , t i m y , t i m z , t i t - 1
其中,
gx,t为重力加速度在载体坐标轴x轴的分量,
gy,t为重力加速度在载体坐标轴y轴的分量,
gz,t为重力加速度在载体坐标轴z轴的分量,
εt为传感器噪声,
R11~R33为方向余弦矩阵(Direction Cosine Matrix)内的参数。
x ′ y ′ z ′ = R 11 R 12 R 13 R 21 R 22 R 23 R 31 R 32 R 33 x y z = e 0 2 + e 1 2 - e 2 2 - e 3 2 2 ( e 1 e 2 + e 0 e 3 ) 2 ( e 1 e 3 - e 0 e 2 ) 2 ( e 1 e 2 - e 0 e 3 ) e 0 2 - e 1 2 + e 2 2 - e 3 2 2 ( e 2 e 3 + e 0 e 1 ) 2 ( e 1 e 3 + e 0 e 2 ) 2 ( e 2 e 3 - e 0 e 1 ) e 0 2 - e 1 2 - e 2 2 + e 3 2 x y z
经由以上的运动模型,可算出载体在空间中的位置[XG,t  YG,t  ZG,t]T、载体在载体坐标中的加速度[Ax,t  Ay,t  Az,t]T、载体在载体坐标中的速度[Vx,t  Vy,t  Vz,t]T与载体的四元数[e0,t  e1,t  e2,t  e3,t]T
所算出的载体状态会包含加速规与陀螺仪传感器的噪声,故需要修正其误差。所以,在本实施例,以视觉感测元件当做感测模型(Sensor Model),以修正加速规与陀螺仪估测出来的物体状态。单眼相机(mono camera)的成本较低,但需要透过时间差来计算出相机与特征点间的相对距离。
以下说明惯性感测元件(IMU)搭配单眼相机的实施方式。结合惯性感测元件(IMU)搭配单眼相机的系统状态(System State)表示如下。
X ^ = x ^ v T y ^ 0 T y ^ 1 T . . . y ^ n - 1 T T
系统状态包含相机状态和所有环境特征点的状态。其数学表示为一维向量,向量的大小几乎和环境特征点的个数成正比。
相机状态(Camera State)
相机状态包含相机的位置向量、旋转指向向量、直线移动速度向量、旋转角速度向量。相机状态的数学形式为13×1的一维向量。
x ^ v = r ^ q ^ v ^ ω ^ = x y z q 0 q 1 q 2 q 3 v x v y v z ω x ω y ω z T
Figure G2009102655115D00094
为相机的位置向量;
Figure G2009102655115D00095
为相机的旋转朝相四元数向量;
Figure G2009102655115D00096
为相机的直线移动速度向量;以及
Figure G2009102655115D00097
为相机的旋转角速度向量。
特征状态(Feature State)
特征状态纪录环境特征点在空间中的坐标,一般以3×1的一维向量表示。
y ^ i = x i y i z i
运动模型(Motion Model)
运动模型定义每张画面之间的系统状态改变,其为二阶运动方程式,表示如下。
x ^ v , t | t - 1 = r ^ q ^ v ^ ω ^ t | t - 1 T
= r ^ t - 1 | t - 1 + ( v ^ t - 1 | t - 1 + 0.5 a ^ t - 1 | t - 1 Δt ) Δt q ^ t - 1 | t - 1 + Q ( ω ^ t - 1 | t - 1 + 0.5 α ^ t - 1 | t - 1 Δt ) Δt v ^ t - 1 | t - 1 + 0.5 a ^ t - 1 | t - 1 Δt ω ^ t - 1 | t - 1 + 0.5 α ^ t - 1 | t - 1 Δt T 其中,
Figure G2009102655115D00103
为直线加速度;
Figure G2009102655115D00104
为旋转加速度;Δt为状态更新时间间隔;以及Q(x)为尤拉角转四元数的转换函式。
观测模型(Observation Model)
如果采用不同的观测模型且观测向量的维度越高,则卡尔曼增益(KalmanGain)的维度也随之线性增加。
在第一实施例中,观测模型是定义如何从相机的姿态位置与空间特征点的坐标推算出特征点在相机中的成像位置。
u i v i = u 0 - k u f x i r z i r 1 + 2 K ( ( k u f x i r z i r ) 2 + ( k v f y i r z i r ) 2 ) v 0 - k v f y i r z i r 1 + 2 K ( ( k u f x i r z i r ) 2 + ( k v f y i r z i r ) 2 )
其中,(u0,v0)为画面的中心坐标(以左上角坐标为(0,0));(ku,kv)分别为像素的长度倒数与宽度倒数;K为相机广角扭曲系数;以及(x,y,z)i r为环境特征点
Figure G2009102655115D00106
相对于相机的坐标。
系统共变量矩阵(System Covariance Matrix)
系统共变量矩阵定义出,在系统状态向量中,每个元素彼此之间的变异关系,也包含每个元素的自我不确定性。虽然系统共变量矩阵的大小和环境特征点的个数成平方比,但在对一个环境特征点进行估测-测量-修正(Predict-Measure-Update)时,只针对相机和目前正被估测-测量-修正的单一特征点的共变量次矩阵(Covariance Submatrix)进行运算。系统共变量矩阵表示如下:
P = P xx P xy 0 P xy 1 . . . P xy n - 1 P y 0 x P y 0 y 0 P y 0 y 1 . . . . . . P y 1 x P y 1 y 0 P y 1 y 1 . . . . . . . . . . . . . . . . . . . . . P y n - 1 x P y n - 1 y 0 . . . . . . P y n - 1 y n - 1 ( n + 1 ) × ( n + 1 )
其中,各参数代表共存的n个特征点,n可以为任意正整数。
第二实施例:惯性感测元件+视觉感测元件(立体视觉相机)
在第二实施例中,视觉感测元件120为立体视觉相机(stereo visioncamera),且其同样配置在载体100的表面上,以拍摄室内的环境特征点。立体视觉相机的成本较高,但在同一时刻就可算出相机与环境间的景深信息。
立体视觉相机的观测模型
原则上,第二实施例的模型类似/相同于第一实施例,不过,第二实施例的立体视觉相机的观测模型不同于第一实施例的单眼相机的观测模型。
在第二实施例中,立体视觉相机的观测模型定义出如何从相机的姿态位置与环境特征点的坐标推算出环境特征点在左右相机中的成像位置。在此假设左右相机内部参数相同,且其内部参数彼此为平移。
u i L v i L u i R v i R = u 0 L - k u f x i rL z i rL 1 + 2 K ( ( k u f x i rL z i rL ) 2 + ( k v f y i rL z i rL ) 2 ) v 0 L - k v f y i rL z i rL 1 + 2 K ( ( k u f x i rL z i rL ) 2 ( k v f y i rL z i rL ) 2 ) u 0 R - k u f x i rR z i rR 1 + 2 K ( ( k u f x i rR z i rR ) 2 + ( k v f y i rR z i rR ) 2 ) v 0 R - k v f y i rR z i rR 1 + 2 K ( ( k u f x i rR z i rR ) 2 + ( k v f y i rR z i rR ) 2 )
其中,(u0 L,v0 L,u0 R,v0 R)分别为左右相机的画面中心坐标(以左上角坐标为(0,0));(ku,kv)分别为像素的长度倒数与宽度倒数,在立体视觉中假设左右相机的这两参数相同;K为相机广角扭曲系数,在立体视觉中假设左右相机的此参数相同;以及(x,y,z)i rL与(x,y,z)i rL分别为环境特征点
Figure G2009102655115D00112
相对于左右相机的坐标,其关系如下:
x y z i rL = x y z i rR + T R 2 L
其中,TR2L为右相机坐标系平移至左相机坐标系的平移向量。
综上,在第一实施例中,视觉感测元件更可量测出环境特征点在相机中投影成像的画面坐标(u,v)。在第二实施例中,视觉感测元件的量测状态有两种可能定义方式:将第一实施例中的单一单眼相机扩张成两个单眼相机,因此可得到左右两组(u,v);或者将立体视觉相机当成单一传感器,量测环境特征点在空间中的(x,y,z)坐标。
在本发明其它实施例中,视觉感测元件可为一个或复数个单眼像机或一个或多个全像镜头相机等。
综上所述,在本发明上述两个实施例与其它可能实施例中,可融合多重感测元件的感测结果的估测(载体姿态、速度、角速度、位置、环境特征点的位置与相对距离)。利用惯性感测元件(陀螺仪与加速规)与视觉感测元件(单眼相机或是立体视觉相机),以定位出移动载体在空间中的相对位置与环境特征点相对于移动载体的位置,达到状态估测的目的。可利用两种传感器的互补性,大幅减少运算复杂度,以扩增对载体的动态侦测范围,达成3D移动载体的定位(甚至可达到高速立即寻址)。
此外,本发明实施例也可结合在室外定位系统,以补偿室外定位系统的不足。
综上所述,虽然本发明已以实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视后附的申请专利范围所界定者为准。

Claims (9)

1.一种定位载体、估测载体姿态与建地图的系统,包括:
一惯性感测元件,测量该载体的一移动状态与一旋转状态;
一视觉感测元件,配置在该载体的一表面上以拍摄该载体所在的一室内环境内的至少一环境特征点;以及
一控制器,控制该惯性感测元件与该视觉感测元件,接收该惯性感测元件的一感测结果与该视觉感测元件的一感测结果以估测该载体的一姿态信息、该载体的一位置信息与一速度信息,并建构含有该环境特征点的一地图;
该控制器根据该惯性感测元件与该视觉感测元件之一的一修正后感测结果而估测,之后,该控制器令该惯性感测元件与该视觉感测元件中的另一个感测并且据以修正该载体的该姿态信息、该载体的该位置信息、该速度信息与该地图;
其中,该控制器在命令该惯性感测元件进行量测之前,估测该载体的该姿态信息、该位置信息与该速度信息;该控制器如果在该控制器估测之前,已计算出该视觉感测元件的该修正后感测结果,则该控制器依据该视觉感测元件的该修正后感测结果进行估测;该惯性感测元件在该控制器的控制下,测量该载体的该移动状态与该旋转状态,并将该感测结果回传给该控制器;该控制器根据该惯性感测元件的该感测结果,修正该姿态信息、该位置信息与该速度信息;
该控制器在命令该视觉感测元件进行测量之前,先估测该载体的该姿态信息、该位置信息与该速度信息;该控制器如果在该控制器估测之前,已计算出该惯性感测元件的该修正后感测结果,则该控制器依据该惯性感测元件的该修正后结果进行估测;该视觉感测元件在该控制器的控制下,拍摄该载体所在室内的该环境特征点画面,并将该感测结果回传给该控制器;该控制器根据该视觉感测元件的该感测结果,修正该姿态信息、该位置信息与该速度信息;
其中,该控制器根据该视觉感测元件所拍摄的一实际画面,比较该环境特征点的一估测位置与一实际位置间的差异,以计算出一误差;该控制器依据所算出的该误差,修正对该环境特征点的该估测位置,并更新该地图;该控制器根据该误差,修正该姿态信息、该位置信息与该速度信息。
2.根据权利要求1所述的系统,其中,该移动状态至少包括一加速度信息,与该旋转状态至少包括一角速度信息。
3.根据权利要求1所述的系统,其中,如果该室内环境具有复数环境特征点,则该控制器逐一修正该些环境特征点的各别估测位置,或是该控制器同时修正该些环境特征点的各别估测位置。
4.根据权利要求1所述的系统,其中,该视觉感测元件包括下列的至少一者或其任意组合:一个或复数个单眼相机,一个或复数个全像镜头相机。
5.根据权利要求1所述的系统,其中,该惯性感测元件包括可为下列的至少一者或其任意组合:一加速规、一陀螺仪、一转速计数组。
6.根据权利要求1所述的系统,更包括:
一显示单元,连接在该控制器,在该控制器的控制下,该显示单元产生一外界互动反应。
7.根据权利要求6所述的系统,其中,该显示单元显示一影音表达语音、一音乐、一预录声音。
8.一种定位载体、估测载体姿态与建地图的方法,包括:
利用一惯性感测元件以测量该载体的一移动状态与一旋转状态;
利用一视觉感测元件以拍摄该载体所在的一室内环境内的至少一环境特征点;以及
根据该惯性感测元件与该视觉感测元件之一的一修正后感测结果而估测,令该惯性感测元件与该视觉感测元件中的另一个感测并且据以修正该载体的一姿态信息、该载体的一位置信息、一速度信息与一地图;
其中,在该惯性感测元件量测之前,估测该载体的该姿态信息、该位置信息与该速度信息;如果在该估测步骤之前,已计算出该视觉感测元件的该修正后感测结果,则依据该视觉感测元件的该修正后感测结果进行估测;回传该惯性感测元件的感测结果至一控制器,以及根据该惯性感测元件的该感测结果,修正该姿态信息、该位置信息与该速度信息;
在该视觉感测元件测量之前,先估测该载体的该姿态信息、该位置信息与该速度信息;如果在该估测步骤之前,已计算出该惯性感测元件的该修正后感测结果,则依据该惯性感测元件的该修正后结果进行估测;该视觉感测元件拍摄该载体所在室内的该环境特征点画面,并回传该感测结果;以及根据该视觉感测元件的该感测结果,修正该姿态信息、该位置信息与该速度信息;
其中,根据该视觉感测元件所拍摄的一实际画面,比较该环境特征点的一估测位置与一实际位置间的差异,以计算出一误差;依据所算出的该误差,修正对该环境特征点的该估测位置,并更新该地图;以及根据该误差,修正该姿态信息、该位置信息与该速度信息。
9.根据权利要求8所述的方法,其中,如果该室内环境具有复数环境特征点,则逐一修正该些环境特征点的各别估测位置,或是同时修正该些环境特征点的各别估测位置。
CN 200910265511 2009-12-25 2009-12-25 定位载体、估测载体姿态与建地图的系统与方法 Active CN102109348B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200910265511 CN102109348B (zh) 2009-12-25 2009-12-25 定位载体、估测载体姿态与建地图的系统与方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200910265511 CN102109348B (zh) 2009-12-25 2009-12-25 定位载体、估测载体姿态与建地图的系统与方法

Publications (2)

Publication Number Publication Date
CN102109348A CN102109348A (zh) 2011-06-29
CN102109348B true CN102109348B (zh) 2013-01-16

Family

ID=44173568

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200910265511 Active CN102109348B (zh) 2009-12-25 2009-12-25 定位载体、估测载体姿态与建地图的系统与方法

Country Status (1)

Country Link
CN (1) CN102109348B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103105852B (zh) * 2011-11-14 2016-03-30 联想(北京)有限公司 位移计算方法和设备及即时定位与地图构建方法和设备
CN103292827B (zh) * 2012-03-05 2016-10-05 联想(北京)有限公司 数据校正方法和电子设备
CN103900583B (zh) * 2012-12-25 2018-02-27 联想(北京)有限公司 用于即时定位与地图构建的设备和方法
US20150092048A1 (en) * 2013-09-27 2015-04-02 Qualcomm Incorporated Off-Target Tracking Using Feature Aiding in the Context of Inertial Navigation
CN103925926B (zh) * 2014-04-25 2016-08-24 哈尔滨工程大学 一种基于camera/mimu室内组合导航系统的四元数测量方法
CN104951753B (zh) * 2015-06-05 2018-11-27 张巍 一种有标识物6自由度视觉跟踪系统及其实现方法
CN105674993A (zh) * 2016-01-15 2016-06-15 武汉光庭科技有限公司 基于双目相机的高精度视觉定位地图生成系统及方法
CN106052683A (zh) * 2016-05-25 2016-10-26 速感科技(北京)有限公司 机器人运动姿态估计方法
CN107478213B (zh) * 2016-06-07 2021-08-06 北京众力积木科技有限公司 移动装置及用于移动装置的数据采集主动控制方法和装置
CN105973264A (zh) * 2016-07-21 2016-09-28 触景无限科技(北京)有限公司 一种智能导盲系统
CN106352877B (zh) * 2016-08-10 2019-08-23 纳恩博(北京)科技有限公司 一种移动装置及其定位方法
CN107747941B (zh) * 2017-09-29 2020-05-15 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
CN108322698B (zh) * 2017-12-28 2020-09-22 北京交通大学 基于多摄像机和惯性测量单元融合的系统和方法
CN110579211B (zh) * 2018-06-07 2022-04-05 北京嘀嘀无限科技发展有限公司 一种步行定位方法及系统
CN110553648A (zh) * 2018-06-01 2019-12-10 北京嘀嘀无限科技发展有限公司 一种用于室内导航的方法和系统
WO2019228520A1 (en) 2018-06-01 2019-12-05 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for indoor positioning
CN109003303B (zh) * 2018-06-15 2020-09-29 四川长虹电器股份有限公司 基于语音和空间物体识别及定位的设备控制方法及装置
CN109489690B (zh) * 2018-11-23 2020-10-23 北京宇航系统工程研究所 一种适用于高动态翻滚再入的助推器导航定位解算方法
CN109612476A (zh) * 2018-12-04 2019-04-12 广州辰创科技发展有限公司 基于惯性导航技术的地图重构方法、装置、惯性导航系统及计算机存储介质
CN110260861B (zh) * 2019-06-13 2021-07-27 北京华捷艾米科技有限公司 位姿确定方法及装置、里程计

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1569558A (zh) * 2003-07-22 2005-01-26 中国科学院自动化研究所 基于图像表现特征的移动机器人视觉导航方法
CN100522056C (zh) * 1998-04-17 2009-08-05 麻省理工学院 运动跟踪系统
CN101750060A (zh) * 2008-12-22 2010-06-23 财团法人工业技术研究院 利用感测元件的定位与检测的系统与方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224024B2 (en) * 2005-10-04 2012-07-17 InterSense, LLC Tracking objects with markers

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100522056C (zh) * 1998-04-17 2009-08-05 麻省理工学院 运动跟踪系统
CN1569558A (zh) * 2003-07-22 2005-01-26 中国科学院自动化研究所 基于图像表现特征的移动机器人视觉导航方法
CN101750060A (zh) * 2008-12-22 2010-06-23 财团法人工业技术研究院 利用感测元件的定位与检测的系统与方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
徐德.自主机器人基于惯性与视觉传感器的定位综述.《仪器仪表学报》.2008,第29卷(第4期),第83页-86页. *
胡海东等.机器人的惯性/视觉组合定位方法.《南京理工大学学报(自然科学版)》.2009,第33卷第242-246页. *

Also Published As

Publication number Publication date
CN102109348A (zh) 2011-06-29

Similar Documents

Publication Publication Date Title
CN102109348B (zh) 定位载体、估测载体姿态与建地图的系统与方法
TWI397671B (zh) 定位載體、估測載體姿態與建地圖之系統與方法
EP3321888B1 (en) Projected image generation method and device, and method for mapping image pixels and depth values
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
US8494225B2 (en) Navigation method and aparatus
EP2261604B1 (en) Computer arrangement for and method of calculating motion vectors using range sensor data
CN107909614B (zh) 一种gps失效环境下巡检机器人定位方法
CN108170297B (zh) 实时六自由度vr/ar/mr设备定位方法
CN108810473B (zh) 一种在移动平台上实现gps映射摄像机画面坐标的方法及系统
US20100148977A1 (en) Localization and detection system applying sensors and method thereof
CN109141433A (zh) 一种机器人室内定位系统及定位方法
US11698687B2 (en) Electronic device for use in motion detection and method for obtaining resultant deviation thereof
AU2007345525B2 (en) Head-mounted display apparatus for profiling system
US11635519B2 (en) OnScene command vision
JP2009526980A (ja) モーションキャプチャー装置およびそれに係る方法
WO1999053838A1 (en) Motion tracking system
CN112665584B (zh) 一种基于多传感器融合的水下机器人定位与构图方法
CN113140040A (zh) 一种多传感器融合的煤矿井下空间定位及建图方法与装置
CN110388919B (zh) 增强现实中基于特征图和惯性测量的三维模型定位方法
CN110392908A (zh) 用于生成地图数据的电子设备及其操作方法
JP5214355B2 (ja) 車両走行軌跡観測システム、車両走行軌跡観測方法、およびそのプログラム
Choi et al. Position-based augmented reality platform for aiding construction and inspection of offshore plants
CN108322698B (zh) 基于多摄像机和惯性测量单元融合的系统和方法
Jonker et al. Philosophies and technologies for ambient aware devices in wearable computing grids
Liu Vision sensor aided navigation for ground vehicle applications

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20171106

Address after: Tucheng street China self Taiwan New Taipei 15 Lane 2 Building No. 2

Patentee after: Matsutek Enterprises Co., Ltd.

Address before: Hsinchu County, Taiwan, China

Patentee before: Industrial Technology Research Institute