CN104457758B - 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法 - Google Patents

基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法 Download PDF

Info

Publication number
CN104457758B
CN104457758B CN201410798521.6A CN201410798521A CN104457758B CN 104457758 B CN104457758 B CN 104457758B CN 201410798521 A CN201410798521 A CN 201410798521A CN 104457758 B CN104457758 B CN 104457758B
Authority
CN
China
Prior art keywords
matrix
image
formula
video
indoor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410798521.6A
Other languages
English (en)
Other versions
CN104457758A (zh
Inventor
马琳
薛昊
谭学治
何晨光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of technology high tech Development Corporation
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201410798521.6A priority Critical patent/CN104457758B/zh
Publication of CN104457758A publication Critical patent/CN104457758A/zh
Application granted granted Critical
Publication of CN104457758B publication Critical patent/CN104457758B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法,涉及室内定位导航领域。是为了解决现有方法的室内视觉定位精度低,且费时费力的问题。本发明在快速建立基于视频的Visual Map数据库的基础上,通过载有视频获取设备的平台在匀速直线过程中进行视频拍摄,并且通过对所获得的视频进行处理来记录视频中帧的坐标位置信息以及图像匹配信息。在线的定位阶段,系统将带定位用户上传的图片与基于视频的Visual Map数据库通过利用感知哈希算法计算而来的哈希值进行粗匹配,再通过获得的粗匹配帧与上传图片通过SURF算法和相应的对极几何算法来完成基于视觉的室内定位。本发明适用于室内视觉定位场合。

Description

基于视频采集的Visual Map数据库建立方法及利用该数据库 的室内视觉定位方法
技术领域
本发明涉及室内定位导航领域。
背景技术
随着智能手机的普及,位置定位服务越来越受到人们的重视。而现如今的卫星定位只解决了室外定位的问题,室内定位仍未得到统一。近年来基于Wifi的室内定位方法由于其部署方便,得到了比较广泛的关注,但是目前的研究成果显示,其定位精度受室人流疏密、墙壁遮挡等因素的影响较大。综合设备的部署成本和定位精度的影响因素考虑,并结合发展较为成熟的图像处理技术,视觉定位技术逐渐成为室内定位研究的另一个热点,并获得了越来越多的关注。关于视觉定位方法的研究始于机器人定位领域,但是近年来随着具有摄像头的智能手机的发展,视觉室内定位方法由于其所需设备简单,除用户配备摄像头的智能手机外,无需添加其他硬件设备而得到广泛的关注。
基于视觉的室内定位通过将用户所在位置的图像信息来估计出移动设备的位置,从而进行定位。通常该定位系统分为两步:即建立基于视频采集的Visual Map数据库的离线阶段和在线的定位估计阶段。如表1所示:
表1
视频帧 位置坐标 哈希值
F1 (X1,Y1) H1
Fn (Xn,Yn) Hn
Visual Map数据库是由视频帧,该帧所对应的地理位置信息和该帧的哈希值(该哈希值由感知哈希算法计算而来)组成,其中n表示帧的个数。传统的用于视觉定位的数据库为图片库,获取方法为先在室内环境下按照一定间隔均匀设置参考点,使其覆盖需定位区域。然后在每个参考点分别朝向不同方向进行照相以获得基于图片的数据库。但这种对图像进行采集和位置标注的方式十分费时费力。
发明内容
本发明内容是为了解决现有方法的室内视觉定位精度低,且费时费力的问题,从而提供一种基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法。
基于视频采集的Visual Map数据库建立方法,它由以下步骤实现:
步骤一、根据需要定位的室内环境,选择坐标原点P0(X0,Y0),建立平面二维直角坐标系;
步骤二、通过载有视频获取设备的平台在匀速直线过程中进行视频拍摄,并且通过对所获得的视频进行处理来记录视频中帧的位置坐标信息,该位置坐标通过拍摄平台的运动速度和该帧的序号以及该视频的帧速率,通过公式:
获得;其中,n为该帧的序号,v为拍摄平台运动速度,α为拍摄平台运动方向和坐标系x轴夹角,(X0,Y0)为坐标原点,(Xn,Yn)为该帧在步骤一中所建立的平面坐标系中的位置坐标;
步骤三、通过感知哈希算法计算出已经标记位置坐标信息的帧的哈希值,并存储,完成Visual Map数据库的建立。
基于上述Visual Map数据库的室内视觉定位方法,它由以下步骤实现:
步骤A、通过感知哈希算法计算出待定位用户上传的图像的哈希值;
步骤B、根据步骤A获得的哈希值从Visual Map数据库中搜索到4帧图像,完成粗匹配过程;
步骤C、将步骤B中得到的4帧粗匹配图像与用户上传图像通过SURF算法进行匹配点计算;
步骤D、通过RANSAC算法从步骤C中每对图像得到的匹配点中选择8对匹配点,并记录其相对应图像中的坐标;
步骤E、将步骤D中得到的坐标通过对极几何来计算出用户的位置坐标,完成室内视觉定位。
步骤E中所述将步骤D中得到的坐标通过对极几何来计算出用户的位置坐标的具体方法为:
步骤E1、采用8点法求基本矩阵F,所述基本矩阵F是对极几何的数学描述;
对极几何中基本矩阵F的基本关系式为:
x′TFx=0 (2)
其中,X,X′分别表示两幅匹配图像中的一对匹配点在其像素坐标系中的坐标;
将获得的8对匹配点Xi(ui,vi,1),Xi′(ui′,vi′,1),(1≤i≤8)代入公式(2)中,令基本矩阵F=(fij),即:
其中,f=(f11,f12,f13,f21,f22,f23,f31,f32,f33)T
求解该线性方程组,获得基本矩阵F;
步骤E2、调用建立Visual Map数据库所用相机的内部参数矩阵K1,并读取待定位用户的相机内部参数矩阵K2;相机内部参数矩阵K由公式(4)给出:
其中,f为相机焦距,ku,kv表示相机的像素点尺寸,u0,v0表示图像的尺寸即图像坐标系中u轴和v轴所包含像素点的个数,θ表示图像坐标系中u轴和v轴之间的夹角,并由公式(5)求得本质矩阵E:
Ε=K2 TFK1 (5)
步骤E3、由于步骤E2计算出的本质矩阵E包含了用户拍照位置与数据库中匹配图像所处位置之间的旋转矩阵R和转移向量t,如公式(6)所示:
E=[t]×R (6)
其中,[]×表示反对称矩阵,如公式(7)所示,
从而通过本质矩阵E求出旋转矩阵R和转移向量t;
步骤E4、在步骤E3中求出的转移向量t是以用户拍照位置为参考系得出的,将其转换至世界坐标系中,如公式(8)所示,
tw=-Rr -1R-1t (8)
其中:tw表示在规定的世界坐标系中用户拍照位置与匹配图像位置之间的方向向量,Rr -1表示匹配图像在被采集时相机的旋转矩阵;
步骤E5、已知世界坐标系中两幅图像的方向向量及其中一个匹配图像的二维位置坐标(Xd,Yd),确定一条过匹配图像的直线,如公式(9)所示,
其中:tw是步骤四得出的转移向量,是一个3×1的列向量,tw(2)代表tw第二行的元素,同理tw(1)代表tw第一行的元素;
步骤E6、将粗匹配得到的4帧图像分别和用户上传图像按照上述步骤求出4条直线,该4条直线存在若干交点,采用公式(10)完成最优点的确定,即:定位结果的确定:
其中:Ni表示第i个匹配图像与用户提供图像的匹配点数,di(x,y)表示选定的交点到第i个匹配图像所做直线的距离,如公式(11)表示,
其中:ai=t(2),bi=-t(1),ci=-t(2)xi+t(1)yi,xi和yi表示第i幅匹配图像对应的坐标。
步骤E3中从本质矩阵E恢复旋转矩阵R和转移矩阵t的算法,其特征在于以下步骤:
步骤E31、将3×3阶的本质矩阵E分解为E=[ea eb ec]的形式,其中ea,eb,ec为3×1阶列向量;对ea,eb,ec三个列向量两两求外积得ea×eb,ea×ec和eb×ec,并选出其中幅值最大的一组,且设ea×eb结果的幅值最大;
步骤E32、根据公式(12)和公式(13),分别计算出矩阵V=[va vb vc]以及矩阵U=[ua ub uc]:
步骤E33、构造矩阵D形式如下:
矩阵V和矩阵U,得出转移向量t如公式(15)所示:
t=[u13 u23 u33] (1)
其中:u13表示矩阵U第1行第3列的元素,u23表示矩阵U第2行第3列的元素,u33表示矩阵U第3行第3列的元素;旋转矩阵R如公式(16)所示:
可知,旋转矩阵R有两个取值Ra或Rb
步骤E34、构造矩阵Ha=[Ra|t],Hb=[Ra|-t],Hc=[Rb|t],Hd=[Ra|-t];其中:Ha=[Ra|t]表示3×3阶的旋转矩阵R和3×1阶的转移向量t合并成为4×4阶的向量Ha,如公式(17)所示:
Hb,Hc,Hd的构造方式同理;
步骤E35、令向量P=[1 1 1 1]T,并计算L1=HaP,L2=HbP,L3=HcP,L4=HdP,当Li(i=1,2,3,4)满足条件(18)时,取Li对应的R和t作为最终的旋转矩阵R和转移向量t;
其中,Li是4×1阶的列向量,Li(3)和Li(4)分别表示向量Li的第3行第1列元素和第4行第1列元素。
本发明减少了Visual Map数据库建立的工作量,并利用对极几何的相关算法提高现有基于图像匹配的方法的精度,进而提高了室内视觉定位精度。
附图说明
图1是RANSAC算法流程示意图;
图2是在室内地图上选择坐标原点并建立坐标系的示意图;
图3是计算帧的位置坐标示意图;
图4是像素坐标系示意图;
图5是基于视频采集的Visual Map数据库的室内视觉定位方法流程示意图。
具体实施方式
具体实施方式一、基于视频采集的Visual Map数据库建立方法,它包括下述步骤:
步骤一、根据需要定位的室内环境,选择坐标原点P0(X0,Y0),建立平面二维直角坐标系,如图2所示;
步骤二、通过载有视频获取设备(手机)的平台在匀速直线过程中进行视频拍摄,并且通过对所获得的视频进行处理来记录视频中帧的位置坐标信息,该位置坐标可以通过拍摄平台的运动速度和该帧的序号以及该视频的帧速率计算得到,如公式(1)所示:
其中,n为该帧的序号,v为拍摄平台运动速度,α为拍摄平台运动方向和坐标系x轴夹角,(X0,Y0)为坐标原点,(Xn,Yn)为该帧在步骤一中所建立的平面坐标系中的位置坐标,如图3所示;
步骤三、通过感知哈希算法计算出已经标记位置坐标信息的帧的哈希值,完成数据库的建立,本发明将该数据库称之为Visual Map。
具体实施方式二、基于具体实施方式一的视频采集的Visual Map数据库的室内视觉定位方法,它包括下述步骤:
步骤一、通过感知哈希算法计算出待定位用户上传的图像的哈希值;
步骤二、根据步骤一通过感知哈希算法计算所得的哈希值从Visual Map数据库中搜索到4帧图像,完成粗匹配过程;
步骤三、将步骤二中得到的4帧粗匹配图像与用户上传图像通过SURF算法进行匹配点计算;
步骤四、通过RANSAC算法从步骤三中每对图像得到的匹配点中选择8对匹配点,并记录其在相对应图像中的坐标;
步骤五、根据步骤四中得到的像素坐标通过对极几何来计算出用户的位置坐标,完成室内定位。
步骤E中所述将步骤C中得到的像素坐标通过对极几何来计算出用户的位置坐标的具体方法为:它包括下述步骤:
步骤一:采用8点法求基本矩阵F。基本矩阵F是对极几何的数学描述。对极几何中基本矩阵F的基本关系式为:
x′TFx=0 (2)
其中,X,X′分别表示两幅匹配图像中的一对匹配点在其像素坐标系中的坐标。将实施方式一中步骤四得到的8对匹配点Xi(ui,vi,1),Xi′(ui′,vi′,1),(1≤i≤8)代入公式(2)中,令基本矩阵F=(fij),如公式(3)所示:
其中,f=(f11,f12,f13,f21,f22,f23,f31,f32,f33)T。直接通过求解该线性方程组来计算基本矩阵F。
步骤二:调用建立Visual Map数据库所用相机的内部参数矩阵K1,并读取待定位用户的相机内部参数矩阵K2。相机内部参数矩阵K由公式(4)给出:
其中,f为相机焦距,ku,kv表示相机的像素点尺寸,u0,v0表示图像的尺寸即图像坐标系中u轴和v轴所包含像素点的个数,θ表示图像坐标系中u轴和v轴之间的夹角,如图4所示。在此基础上,由公式(5)求得本质矩阵E
Ε=K2 TFK1 (5)
步骤三、由于步骤二计算出的本质矩阵E包含了用户拍照位置与数据库中匹配图像所处位置之间的旋转矩阵R和转移向量t,如公式(6)所示,
E=[t]×R (2)
其中,[]×表示反对称矩阵,如公式(7)所示,
从而可以通过本质矩阵E求出R和t;
在步骤三中求出的转移向量t是以用户拍照位置为参考系得出的,此步将其转换至世界坐标系中,如公式(8)所示,
tw=-Rr -1R-1t (8)
其中:tw表示在规定的世界坐标系中用户拍照位置与匹配图像位置之间的方向向量,Rr -1表示匹配图像在被采集时相机的旋转矩阵。
步骤五、已知世界坐标系中两幅图像的方向向量及其中一个图像(这里指匹配图像)的二维位置坐标(Xd,Yd),可确定一条过匹配图像的直线,如公式(9)所示,
其中,tw是步骤四得出的转移向量,是一个3×1的列向量,tw(2)代表tw第二行的元素,同理tw(1)代表tw第一行的元素;
步骤六、将粗匹配得到的4帧图像分别和用户上传图像按照上述步骤求出4条直线,该4条直线存在若干交点,采用公式(10)完成最优点即定位结果的确定,
其中,Ni表示第i个匹配图像与用户提供图像的匹配点数,di(x,y)表示选定的交点到第i个匹配图像所做直线的距离,如公式(11)表示:
其中,ai=t(2),bi=-t(1),ci=-t(2)xi+t(1)yi,xi和yi表示第i幅匹配图像对应的坐标。
从本质矩阵E恢复旋转矩阵R和转移矩阵t的方法,它包括以下步骤:
步骤一、将3×3阶的本质矩阵E分解为E=[ea eb ec]的形式,其中ea,eb,ec为3×1阶列向量;对ea,eb,ec三个列向量两两求外积得ea×eb,ea×ec和eb×ec,并选出其中幅值最大的一组,为便于一下步骤的执行,这里假设ea×eb结果的幅值最大;
步骤二、根据公式(12)和公式(13),分别计算出矩阵V=[va vb vc]以及矩阵U=[ua ub uc];
步骤三、构造矩阵D形式如下:
矩阵V和矩阵U,得出转移向量t如公式(15)所示,
t=[u13 u23 u33] (15)
其中u13表示矩阵U第1行第3列的元素,u23表示矩阵U第2行第3列的元素,u33表示矩阵U第3行第3列的元素。旋转矩阵R如公式(16)所示,
可以看出旋转矩阵R有两个取值Ra或Rb
步骤四、构造矩阵Ha=[Ra|t],Hb=[Ra|-t],Hc=[Rb|t],Hd=[Ra|-t]。其中Ha=[Ra|t]表示3×3阶的旋转矩阵R和3×1阶的转移向量t合并成为4×4阶的向量Ha,如公式(17)所示,
Hb,Hc,Hd的构造方式同理。
步骤五、令向量P=[1 1 1 1]T,并计算L1=HaP,L2=HbP,L3=HcP,L4=HdP,当Li(i=1,2,3,4)满足条件(18)时,取Li对应的R和t作为最终的旋转矩阵R和转移向量t。
其中,Li是4×1阶的列向量,Li(3)和Li(4)分别表示向量Li的第3行第1列元素和第4行第1列元素。
本发明在快速建立基于视频的Visual Map数据库的基础上,提出了相应的室内视觉定位方法。该方法主要是通过载有视频获取设备(手机)的平台在匀速直线过程中进行视频拍摄,并且通过对所获得的视频进行处理来记录视频中帧的坐标位置信息以及图像匹配信息。在线的定位阶段,系统将带定位用户上传的图片与基于视频的Visual Map数据库通过利用感知哈希算法计算而来的哈希值进行粗匹配,再通过获得的粗匹配帧与上传图片通过SURF算法和相应的对极几何算法来完成基于视觉的室内定位。
在实际应用中,将粗匹配帧和用户上传图像通过SURF算法进行匹配点计算时,会存在一些误匹配点。误匹配点的存在会导致室内定位的精度下降,因此,应用时需要利用RANSAC(RANdom SAmple Consensus)算法来剔除误匹配点,算法流程如图2所示,其中单应矩阵用来描述两个平面之间的二维投影变换关系,用两个像平面上的4对对应点即可求得单应矩阵,t和n0为设定的阈值,至少有n0个匹配点的实际位置坐标和由单应矩阵反算而来的位置坐标的欧氏距离小于t时,认为该单应矩阵是满足该对匹配图像的变换关系的,通过此种方法可以剔除掉不满足上述单应矩阵的误匹配点。
在实际环境中,载有视频获取设备(手机)的平台以一定速度在需要建立数据库的区域运动,设备终端通过摄像头来采集环境下的视频信息。根据运动开始的起点和终点,以及所获得的视频时间长度并结合室内定位系统的精度要求对相应的帧进行标记,标记其位置信息。然后通过感知哈希算法计算该帧的哈希值,并与该帧的位置坐标相对应,完成数据库的快速建立。

Claims (2)

1.基于Visual Map数据库的室内视觉定位方法,基于视频采集的Visual Map数据库建立方法,它由以下步骤实现:
步骤一、根据需要定位的室内环境,选择坐标原点P0(X0,Y0),建立平面二维直角坐标系;
步骤二、通过载有视频获取设备的平台在匀速直线过程中进行视频拍摄,并且通过对所获得的视频进行处理来记录视频中帧的位置坐标信息,该位置坐标通过拍摄平台的运动速度和该帧的序号以及该视频的帧速率,通过公式:
获得;其中,n为该帧的序号,v为拍摄平台运动速度,α为拍摄平台运动方向和坐标系x轴夹角,(X0,Y0)为坐标原点,(Xn,Yn)为该帧在步骤一中所建立的平面坐标系中的位置坐标;
步骤三、通过感知哈希算法计算出已经标记位置坐标信息的帧的哈希值,并存储,完成Visual Map数据库的建立;
基于Visual Map数据库的室内视觉定位方法,它由以下步骤实现:
步骤A、通过感知哈希算法计算出待定位用户上传的图像的哈希值;
步骤B、根据步骤A获得的哈希值从Visual Map数据库中搜索到4帧图像,完成粗匹配过程;
步骤C、将步骤B中得到的4帧粗匹配图像与用户上传图像通过SURF算法进行匹配点计算;
步骤D、通过RANSAC算法从步骤C中每对图像得到的匹配点中选择8对匹配点,并记录其相对应图像中的坐标;
步骤E、将步骤D中得到的坐标通过对极几何来计算出用户的位置坐标,完成室内视觉定位;
其特征是:步骤E中所述将步骤D中得到的坐标通过对极几何来计算出用户的位置坐标的具体方法为:
步骤E1、采用8点法求基本矩阵F,所述基本矩阵F是对极几何的数学描述;
对极几何中基本矩阵F的基本关系式为:
X′TFX=0 (2)
其中,X,X′分别表示两幅匹配图像中的一对匹配点在其像素坐标系中的坐标;
将获得的8对匹配点Xi(ui,vi,1),Xi′(ui′,vi′,1),(1≤i≤8)代入公式(2)中,令基本矩阵F=(fij),即:
其中,f=(f11,f12,f13,f21,f22,f23,f31,f32,f33)T
求解该线性方程组,获得基本矩阵F;
步骤E2、调用建立Visual Map数据库所用相机的内部参数矩阵K1,并读取待定位用户的相机内部参数矩阵K2;相机内部参数矩阵K由公式(4)给出:
其中,f为相机焦距,ku,kv表示相机的像素点尺寸,u0,v0表示图像的尺寸即图像坐标系中u轴和v轴所包含像素点的个数,θ表示图像坐标系中u轴和v轴之间的夹角,并由公式(5)求得本质矩阵E:
Ε=K2 TFK1 (5)
步骤E3、由于步骤E2计算出的本质矩阵E包含了用户拍照位置与数据库中匹配图像所处位置之间的旋转矩阵R和转移向量t,如公式(6)所示:
E=[t]×R (6)
其中,[]×表示反对称矩阵,如公式(7)所示,
从而通过本质矩阵E求出旋转矩阵R和转移向量t;
步骤E4、在步骤E3中求出的转移向量t是以用户拍照位置为参考系得出的,将其 转换至世界坐标系中,如公式(8)所示,
tw=-Rr -1R-1t (8)
其中:tw表示在规定的世界坐标系中用户拍照位置与匹配图像位置之间的方向向量,Rr -1表示匹配图像在被采集时相机的旋转矩阵;
步骤E5、已知世界坐标系中两幅图像的方向向量及其中一个匹配图像的二维位置坐标(Xd,Yd),确定一条过匹配图像的直线,如公式(9)所示,
其中:tw是步骤四得出的转移向量,是一个3×1的列向量,tw(2)代表tw第二行的元素,同理tw(1)代表tw第一行的元素;
步骤E6、将粗匹配得到的4帧图像分别和用户上传图像按照上述步骤求出4条直线,该4条直线存在若干交点,采用公式(10)完成最优点的确定,即:定位结果的确定:
其中:Ni表示第i个匹配图像与用户提供图像的匹配点数,di(x,y)表示选定的交点到第i个匹配图像所做直线的距离,如公式(11)表示,
其中:ai=t(2),bi=-t(1),ci=-t(2)xi+t(1)yi,xi和yi表示第i幅匹配图像对应的坐标。
2.根据权利要求1所述的基于Visual Map数据库的室内视觉定位方法,其特征在于步骤E3中从本质矩阵E恢复旋转矩阵R和转移矩阵t的算法,其特征在于以下步骤:
步骤E31、将3×3阶的本质矩阵E分解为E=[ea eb ec]的形式,其中ea,eb,ec为3×1阶列向量;对ea,eb,ec三个列向量两两求外积得ea×eb,ea×ec和eb×ec,并选出其中幅值最大的一组,且设ea×eb结果的幅值最大;
步骤E32、根据公式(12)和公式(13),分别计算出矩阵V=[va vb vc]以及矩阵U=[ua ubuc]:
步骤E33、构造矩阵D形式如下:
矩阵V和矩阵U,得出转移向量t如公式(15)所示:
t=[u13 u23 u33] (1)
其中:u13表示矩阵U第1行第3列的元素,u23表示矩阵U第2行第3列的元素,u33表示矩阵U第3行第3列的元素;旋转矩阵R如公式(16)所示:
可知,旋转矩阵R有两个取值Ra或Rb
步骤E34、构造矩阵Ha=[Ra|t],Hb=[Ra|-t],Hc=[Rb|t],Hd=[Ra|-t];其中:Ha=[Ra|t]表示3×3阶的旋转矩阵R和3×1阶的转移向量t合并成为4×4阶的向量Ha,如公式(17)所示:
Hb,Hc,Hd的构造方式同理;
步骤E35、令向量P=[1 1 1 1]T,并计算L1=HaP,L2=HbP,L3=HcP,L4=HdP,当Li(i=1,2,3,4)满足条件(18)时,取Li对应的R和t作为最终的旋转矩阵R和转移向量t;
其中,Li是4×1阶的列向量,Li(3)和Li(4)分别表示向量Li的第3行第1列元素和第4行第1列元素。
CN201410798521.6A 2014-12-19 2014-12-19 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法 Active CN104457758B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410798521.6A CN104457758B (zh) 2014-12-19 2014-12-19 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410798521.6A CN104457758B (zh) 2014-12-19 2014-12-19 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法

Publications (2)

Publication Number Publication Date
CN104457758A CN104457758A (zh) 2015-03-25
CN104457758B true CN104457758B (zh) 2017-04-12

Family

ID=52904194

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410798521.6A Active CN104457758B (zh) 2014-12-19 2014-12-19 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法

Country Status (1)

Country Link
CN (1) CN104457758B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104977013A (zh) * 2015-05-27 2015-10-14 无锡市崇安区科技创业服务中心 一种gps导航的图像处理方法
CN106295512B (zh) * 2016-07-27 2019-08-23 哈尔滨工业大学 基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法
CN106482711B (zh) * 2016-10-18 2018-10-09 哈尔滨工业大学 一种基于灰度特征提取和稠密光流法的室内定位方法
CN108414970B (zh) * 2018-03-09 2020-07-31 郑州大学 室内定位方法
CN109115221A (zh) * 2018-08-02 2019-01-01 北京三快在线科技有限公司 室内定位、导航方法及装置、计算机可读介质和电子设备
CN109271996A (zh) * 2018-08-21 2019-01-25 南京理工大学 基于surf特征和哈希感知算法的fpc图像自动配准方法
CN110830836B (zh) * 2019-11-18 2020-10-27 电子科技大学 一种视频广告播出监测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201025445Y (zh) * 2006-08-25 2008-02-20 高德软件有限公司 道路景观信息和定位信息的采集装置
CN102426019A (zh) * 2011-08-25 2012-04-25 航天恒星科技有限公司 一种无人机景象匹配辅助导航方法及系统
CN103093206A (zh) * 2013-01-21 2013-05-08 信帧电子技术(北京)有限公司 车标识别方法及装置
CN103398717A (zh) * 2013-08-22 2013-11-20 成都理想境界科技有限公司 全景地图数据库采集系统及基于视觉的定位、导航方法
CN103759724A (zh) * 2014-01-16 2014-04-30 西安电子科技大学 一种基于灯饰特征的室内导航方法及系统
CN104035115A (zh) * 2014-06-06 2014-09-10 中国科学院光电研究院 一种视觉辅助的卫星导航定位方法及定位机

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5771500B2 (ja) * 2011-10-12 2015-09-02 日本電信電話株式会社 類似画像領域検出方法、装置及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201025445Y (zh) * 2006-08-25 2008-02-20 高德软件有限公司 道路景观信息和定位信息的采集装置
CN102426019A (zh) * 2011-08-25 2012-04-25 航天恒星科技有限公司 一种无人机景象匹配辅助导航方法及系统
CN103093206A (zh) * 2013-01-21 2013-05-08 信帧电子技术(北京)有限公司 车标识别方法及装置
CN103398717A (zh) * 2013-08-22 2013-11-20 成都理想境界科技有限公司 全景地图数据库采集系统及基于视觉的定位、导航方法
CN103759724A (zh) * 2014-01-16 2014-04-30 西安电子科技大学 一种基于灯饰特征的室内导航方法及系统
CN104035115A (zh) * 2014-06-06 2014-09-10 中国科学院光电研究院 一种视觉辅助的卫星导航定位方法及定位机

Also Published As

Publication number Publication date
CN104457758A (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
CN104457758B (zh) 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法
CN111750820B (zh) 影像定位方法及其系统
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN109074083A (zh) 移动控制方法、移动机器人及计算机存储介质
CN109520500B (zh) 一种基于终端拍摄图像匹配的精确定位及街景库采集方法
CN109191504A (zh) 一种无人机目标跟踪方法
CN110799921A (zh) 拍摄方法、装置和无人机
CN110334701B (zh) 数字孪生环境下基于深度学习和多目视觉的数据采集方法
CN106295512B (zh) 基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法
CN105844696A (zh) 基于射线模型三维重构的图像定位方法以及装置
CN110598590A (zh) 基于多视角相机的紧密交互人体姿态估计方法及装置
CN102404595B (zh) 可提供3d节目拍摄指导的极线校正方法
CN110136202A (zh) 一种基于ssd与双摄像头的多目标识别与定位方法
CN104484881B (zh) 基于图像采集的Visual Map数据库建立方法及利用该数据库的室内定位方法
CN108010086A (zh) 基于网球场标志线交点的摄像机标定方法、装置和介质
CN106767833B (zh) 一种融合rgbd深度传感器与编码器的机器人定位方法
CN103994765A (zh) 一种惯性传感器的定位方法
CN111079535B (zh) 一种人体骨架动作识别方法、装置及终端
CN113129373B (zh) 一种基于卷积神经网络的室内移动机器人视觉定位方法
Deng et al. Long-range binocular vision target geolocation using handheld electronic devices in outdoor environment
CN113447014A (zh) 室内移动机器人、建图方法、定位方法以及建图定位装置
Muffert et al. The estimation of spatial positions by using an omnidirectional camera system
CN111950524B (zh) 一种基于双目视觉和rtk的果园局部稀疏建图方法和系统
CN104616035B (zh) 基于图像全局特征及SURF算法的Visual Map快速匹配方法
CN107240149A (zh) 基于图像处理的物体三维模型构建方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200407

Address after: 150001 No. 118 West straight street, Nangang District, Heilongjiang, Harbin

Patentee after: Harbin University of technology high tech Development Corporation

Address before: 150001 Harbin, Nangang, West District, large straight street, No. 92

Patentee before: HARBIN INSTITUTE OF TECHNOLOGY

TR01 Transfer of patent right