CN104596519B - 基于ransac算法的视觉定位方法 - Google Patents

基于ransac算法的视觉定位方法 Download PDF

Info

Publication number
CN104596519B
CN104596519B CN201510086374.4A CN201510086374A CN104596519B CN 104596519 B CN104596519 B CN 104596519B CN 201510086374 A CN201510086374 A CN 201510086374A CN 104596519 B CN104596519 B CN 104596519B
Authority
CN
China
Prior art keywords
point
match
image
matching
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510086374.4A
Other languages
English (en)
Other versions
CN104596519A (zh
Inventor
马琳
万柯
谭学治
何晨光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Technology Robot Group Co., Ltd.
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201510086374.4A priority Critical patent/CN104596519B/zh
Publication of CN104596519A publication Critical patent/CN104596519A/zh
Application granted granted Critical
Publication of CN104596519B publication Critical patent/CN104596519B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/08Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

基于RANSAC算法的视觉定位方法,属于视觉定位领域。传统RANSAC算法的迭代次数多、计算量大、计算时间长,导致利用此算法实现的视觉定位方法存在定位速度慢的问题。本发明方法通过SURF算法计算出待定位用户上传的图像的特征点以及特征点描述信息;在数据库中选择一张具有匹配点数最多的图片,将得到图像的特征点描述信息与图片的特征点描述信息进行SURF匹配,将进行匹配的每对图像与图片定义为一对匹配图像,则每对匹配图像在进行匹配后会得到一组匹配点;通过匹配质量的RANSAC算法,将每对匹配图像的匹配点中的错误匹配点剔除后,确定出含有正确匹配点的数量最多的4对匹配图像;根据得到的4对匹配图像,通过对极几何算法计算出用户的位置坐标,完成室内定位。

Description

基于RANSAC算法的视觉定位方法
技术领域
本发明涉及一种基于RANSAC算法的视觉定位方法。
背景技术
随着科学技术的进步,生活水平的提高,手机成为人们出行的标配,位置定位服务越来越受到人们的重视。在现有的定位技术中,利用卫星进行定位在室外使用频繁且精度较高,但在室内环境下,由于墙壁的遮挡等因素的影响,定位效果不理想。近年来在室内环境下影响较大的是基于Wifi的定位技术,是由于wifi设备部署方便,实现简单,但基于wifi的定位受环境的影响较大,任何一个较大的遮挡物,比如人流、大型设备等,都会对定位精度产生影响。现如今兴起的基于视觉的定位技术由于其所需设备简单,受影响因素较小而得到广泛关注。由于摄像头已经成为手机的标配,并且手机终端的计算能力显著提升,因此视觉定位无需添加附加设备,同时由于建筑成型后变化小,使基于视觉的定位受到影响因素较小。
基于视觉的室内定位是指通过用户所在位置获取的图像信息来判定用户的地理位置,从而进行定位。通常情况下视觉定位系统分为两步:1、建立基于图像Visual Map数据库的离线阶段;2、利用用户图像进行在线的定位估计阶段。在离线阶段中,用于视觉定位的数据库的获取方法为在室内环境下按照一定地理间隔设置均匀的参考点,使所有参考点覆盖所需定位区域,然后在每个参考点朝不同方向照相,从而获得基于图片的数据库。数据库由多个参考点组成,每个参考点包含两部分信息,分别是参考点的地理位置和参考点拍摄所有图片的特征点描述信息。其中,图片的特征点描述信息是使用SURF算法提取的,这里采用SURF算法是因为其提取的特征点具有尺度不变性,旋转不变性,并且受噪声、光照变化的影响较小。在现阶段则首先提取用户所拍摄图像的SURF特征描述信息,将此信息与数据库中描述信息进行匹配,从而选出与用户拍摄图片最为匹配的若干张图片,之后通过RANSAC(RANdom,SAmple Consensus)算法对误匹配点进行剔除,最后使用对极几何方法对用户位置进行估计。
RANSAC算法的基本假设是样本中包含正确数据(inliers,可以被模型描述的数据),也包含异常数据(outliers,偏离正常范围很远,无法适应数学模型的数据),即数据集中含有噪声。这些异常数据可能是由于错误的测量、假设或计算等产生的。在本发明中,这些异常数据由SURF算法进行预匹配所产生的错误匹配或者误差比较大的匹配产生。同时RANSAC也假设,给定一组正确的数据,存在可以计算出符合这些数据的模型参数的方法。RANSAC算法的思想描述如下:
(1)考虑一个最小抽样集的势为n的模型(n为初始化模型参数所需的最小样本数)和一个样本集P,集合P的样本数#(P)>n,从P中随机抽取n个样本,构成P的子集S,用来初始化模型M。
(2)余集中与模型M的误差小于某一设定阈值t的样本集合和集合S构成集合S*。S*是内点集,它们构成S的一致集(Consensus set)。
(3)若#(P)>N,认为得到正确的模型参数,并利用集S*,采用最小二乘等方法重新计算新的模型M*。重新随机抽取新的S,重复以上过程。
(4)在完成一定的抽样次数后,若未找到一致集,则算法失败,否则选取抽样后得到的最大一致集判断内外点,算法结束。
RANSAC是一个采用迭代的过程来估计模型参数的方法,具有稳定、可靠、精度高、鲁棒性强等优点,是基于特征的图像配准算法中的典型算法,具有较好的剔除误匹配点的能力,经常被应用在图像的特征匹配中,如图1所示。但是传统的RANSAC算法的计算量太大、计算时间长。本发明提出的改进RANSAC算法,通过赋予特征点匹配质量,基于匹配质量选择计算模型的样本,而不是随机的选取,由于质量高的匹配点得到正确模型的概率大,这样目的在于减少迭代次数,从而提高剔除错误匹配点的速度。
发明内容
本发明的目的是为了解决传统RANSAC算法的迭代次数多、计算量大、计算时间长,导致利用此算法实现的视觉定位方法存在定位速度慢的问题,而提出一种基于RANSAC算法的视觉定位方法。
一种基于RANSAC算法的视觉定位方法,所述方法通过以下步骤实现:
步骤一、通过SURF算法计算出待定位用户上传的图像的特征点以及特征点描述信息;
步骤二、在数据库中选择一张具有匹配点数最多的图片,将步骤一得到图像的特征点描述信息与图片的特征点描述信息进行SURF匹配,将进行匹配的每对图像与图片定义为一对匹配图像,则每对匹配图像在进行匹配后会得到一组匹配点;
步骤三、通过匹配质量的RANSAC算法,将步骤二中每对匹配图像的匹配点中的错误匹配点剔除后,确定出含有正确匹配点的数量最多的4对匹配图像;
步骤四、根据步骤三得到的4对匹配图像,通过对极几何算法计算出用户的位置坐标,完成室内定位。
本发明的有益效果为:
本发明提出的改进RANSAC算法,目的在于减少迭代次数,提高算法运行速度,以及算法鲁棒性。RANSAC算法的计算量太大、计算时间长,是由于随机采样使得迭代次数多导致的,本发明提出的改进RANSAC算法,通过赋予匹配点匹配质量,将匹配质量组合从高到低排列,优先质量高的匹配点组合计算模型的样本,而不是随机的选取,由于质量高的匹配点得到正确模型的概率大,这样能够将RANSAC算法的迭代次数减少93%左右,从而将剔除错误匹配点的速度提高85%左右,提高RANSAC算法的运算速度,使依靠RANSAC算法进行室内视觉定位的定位速度提高70-75%。
附图说明
图1为本发明实施例1中涉及的用户上传的图像中匹配点信息示意图;
图2为本发明实施例1中涉及的数据库中的图片的匹配点信息示意图;
图3是本发明实施例1中涉及的未应用改进RANSAC算法进行匹配的匹配点示意图;
图4是本发明实施例1中涉及的应用改进的RANSAC算法进行匹配的匹配点示意图;
图5是本发明在背景技术中涉及的传统RANSAC算法流程示意图。
图6是本发明的改进后的RANSAC算法流程示意图。
具体实施方式
具体实施方式一:
本实施方式的基于RANSAC算法的视觉定位方法,如图6所示,所述方法通过以下步
骤实现:
步骤一、通过SURF算法计算出待定位用户上传的图像的特征点以及特征点描述信息;
步骤二、在数据库中选择一张具有匹配点数最多的图片,将步骤一得到图像的特征点描述信息与图片的特征点描述信息进行SURF匹配,将进行匹配的每对图像与图片定义为一对匹配图像,则每对匹配图像在进行匹配后会得到一组匹配点;
步骤三、通过匹配质量的RANSAC算法,将步骤二中每对匹配图像的匹配点中的错误匹配点剔除后,确定出含有正确匹配点的数量最多的4对匹配图像;
步骤四、根据步骤三得到的4对匹配图像,通过对极几何算法计算出用户的位置坐标,完成室内定位。
具体实施方式二:
与具体实施方式一不同的是,本实施方式的基于RANSAC算法的视觉定位方法,体现了改进后的RANSAC算法,并通过匹配质量的改进后的RANSAC算法,将步骤二中每对匹配图像的匹配点中的错误匹配点剔除的过程:
步骤三一、设用户上传的图像中,如图1所示,具有的n1个特征点,数据库中图片,如图2所示,具有n2个特征点,从图像中的n1个特征点中选取一个特征点,分别与图片中的n2个特征点利用欧式计算公式:i=1,2,…,n2进行计算,得到与图片中特征点的个数相同的n2个欧式距离;然后,从n2个欧式距离中提取最小欧式距离d和第二小欧式距离,计算最小欧式距离d与第二小欧式距离的比值,将比值定义为欧式距离比r,当欧式距离比r的值小于阈值0.8时认为这两个特征点匹配,将匹配的两个特征点作为匹配点,同时保存最小欧式距离d和欧式距离比r;如上遍历图像中所有特征点,得到每个特征点对应的最小欧式距离d和欧式距离比r,并选出n对匹配点;
步骤三二、根据步骤一求得的最小欧式距离d和欧式距离比r,利用匹配质量计算公式:计算每一对匹配点的匹配质量q;
步骤三三、将n对匹配点对应的匹配质量q的值进行降序排列,选出匹配质量q的值属于排列中大值端的前k对,且k≥4,在k对匹配点中每4对匹配点进行组合形成匹配组合,由匹配组合数计算公式:得出匹配组合数,计算每个匹配组合中所有匹配点的匹配质量之和,并将匹配质量之和作为总匹配质量qk,并按照总匹配质量qk将匹配组合进行降序排列;至此,完成对现有RANSAC算法的改进;
步骤三四、根据最大迭代次数计算公式:计算出最大迭代次数lm,判断正在进行的迭代计算的迭代次数是否大于最大迭代次数lm,这里的迭代次数初始值为1,若是,则退出整个RANSAC算法的程序并给出错误提示,否则执行步骤三五;其中,w表示局内点的数目/数据集的数目;局内点是指图像和图片这两幅图的正确匹配特征点对,数据集是指全部匹配点对,利用二者的数目的比值表示正确匹配点占总匹配点的比率;假设估计模型需要选定a个计算型匹配点,a个计算型匹配点表示在所有匹配点中选出的用于进行下一步骤投影变换矩阵H计算的匹配点的个数,且在本发明中,估计投影变换矩阵H需要至少4对匹配点,所以a≥4,则:wa表示a个计算型匹配点均为局内点的概率;1-wa表示a个计算型匹配点中至少有一个为误匹配点的概率,此时表明估计出了一个不好的模型;(1-wa)l表示RANSAC算法永远都不会选择到a个计算型匹配点均为局内点的概率,1-p=(1-wa)l表示不能得到正确模型的概率;对1-p=(1-wa)l两边取对数则得到最大迭代次数;
步骤三五、在步骤三三中选择匹配质量的值的排序值与迭代次数相同的匹配组合,计算图像与图片的投影变换矩阵H,投影变换矩阵H由公式:定义;其中u、v、w为齐次坐标,图像中的二维坐标
步骤三六、依次计算剩余的n-4对匹配点中,每一对匹配点中用户上传图像中的特征点坐标(x1,y1),按照投影变换矩阵H投影到图片中的投影匹配点(x′2,y′2),利用误差计算公式:计算这对匹配点中数据库图像中的特征点坐标(x2,y2)与投影匹配点(x′2,y′2)之间的误差t;如果误差t小于最大允许误差,说明投影匹配点是正确的,则此匹配点为内点,否则是外点,直到统计出内点数目m1
步骤三七、判断步骤三六统计的内点数目m1是否大于预定的阈值m,若是,则进行步骤三八,否则返回步骤三四;
步骤三八、用步骤三六统计出的内点数目m1重新计算新的投影变换矩阵H′,并利用新的投影变换矩阵H′计算内点数目m2;至此,完成错误匹配点剔除的过程,并将新的投影变换矩阵H′和m2个内点的结果输出。
实施例1:
按照具体实施方式二的内容,进行一次实施,具体为:图1为用户上传的图像的特征点示意图,其中有130个特征点,图2为数据库图像的特征点示意图,其中有109个特征点,二者之间有匹配点90对,如图4所示的应用本发明方法改进的RANSAC算法进行匹配的匹配点示意图,得到正确匹配点为82对,剔除错误匹配点8对,迭代次数1次,改进的RANSAC算法用时0.203秒,原始的RANSAC算法用时0.313秒,需迭代2次。
而未使用改进RANSAC算法进行匹配的匹配点示意图如图3所示。
实施例2:
按照具体实施方式二的内容,换一组图片(图片未给)进行另一次试验中,用户上传的图像的特征点为190个,数据库图像的特征点为613个,应用本发明方法改进的RANSAC算法进行匹配得到115对匹配点,其中正确的匹配点为94对;改进的RANSAC算法用时0.263秒,迭代1次,原始的RANSAC算法用时0.642秒,迭代10次。
由上述两个实施例的实验数据可知,传统的RANSAC算法的计算量太大、计算时间长,而本发明提出的改进RANSAC算法,通过赋予特征点匹配质量,基于匹配质量选择计算模型的样本,而不是随机的选取,由于质量高的匹配点得到正确模型的概率大,从实质上减少迭代次数,从而提高剔除错误匹配点的速度。

Claims (1)

1.一种基于RANSAC算法的视觉定位方法,其特征在于:所述方法通过以下步骤实现:
步骤一、通过SURF算法计算出待定位用户上传的图像的特征点以及特征点描述信息;
步骤二、在数据库中选择一张具有匹配点数最多的图片,将步骤一得到图像的特征点描述信息与图片的特征点描述信息进行SURF匹配,将进行匹配的每对图像与图片定义为一对匹配图像,则每对匹配图像在进行匹配后会得到一组匹配点;
步骤三、通过匹配质量的RANSAC算法,将步骤二中每对匹配图像的匹配点中的错误匹配点剔除后,确定出含有正确匹配点的数量最多的4对匹配图像;
步骤四、根据步骤三得到的4对匹配图像,通过对极几何算法计算出用户的位置坐标,完成室内定位;
步骤三所述通过匹配质量的RANSAC算法,将步骤二中每对匹配图像的匹配点中的错误匹配点剔除的过程:
步骤三一、设用户上传的图像中具有的n1个特征点,数据库中图片具有n2个特征点,从图像中的n1个特征点中选取一个特征点,分别与图片中的n2个特征点利用欧式计算公式:进行计算,得到与图片中特征点的个数相同的n2个欧式距离;然后,从n2个欧式距离中提取最小欧式距离d和第二小欧式距离,计算最小欧式距离d与第二小欧式距离的比值,将比值定义为欧式距离比r,当欧式距离比r的值小于阈值0.8时认为这两个特征点匹配,将匹配的两个特征点作为匹配点,同时保存最小欧式距离d和欧式距离比r;如上遍历图像中所有特征点,得到每个特征点对应的最小欧式距离d和欧式距离比r,并选出n对匹配点;
步骤三二、根据步骤一求得的最小欧式距离d和欧式距离比r,利用匹配质量计算公式:计算每一对匹配点的匹配质量q;
步骤三三、将n对匹配点对应的匹配质量q的值进行降序排列,选出匹配质量q的值属于排列中大值端的前k对,且k≥4,在k对匹配点中每4对匹配点进行组合形成匹配组合,由匹配组合数计算公式:得出匹配组合数,计算每个匹配组合中所有匹配点的匹配质量之和,并将匹配质量之和作为总匹配质量qk,并按照总匹配质量qk将匹配组合进行降序排列;
步骤三四、根据最大迭代次数计算公式:计算出最大迭代次数lm,判断正在进行的迭代计算的迭代次数是否大于最大迭代次数lm,若是,则退出整个RANSAC算法的程序并给出错误提示,否则执行步骤三五;其中,w表示局内点的数目/数据集的数目;局内点是指图像和图片这两幅图的正确匹配特征点对,数据集是指全部匹配点对,利用二者的数目的比值表示正确匹配点占总匹配点的比率;假设估计模型需要选定a个计算型匹配点,a个计算型匹配点表示在所有匹配点中选出的用于进行下一步骤投影变换矩阵H计算的匹配点的个数,且a≥4,则:wa表示a个计算型匹配点均为局内点的概率;1-wa表示a个计算型匹配点中至少有一个为误匹配点的概率,表明估计出了一个不好的模型;(1-wa)l表示RANSAC算法永远都不会选择到a个计算型匹配点均为局内点的概率,1-p=(1-wa)l表示不能得到正确模型的概率;对1-p=(1-wa)l两边取对数则得到最大迭代次数;
步骤三五、在步骤三三中选择匹配质量的值的排序值与迭代次数相同的匹配组合,计算图像与图片的投影变换矩阵H,投影变换矩阵H由公式:定义;其中u、v、w为齐次坐标,图像中的二维坐标
步骤三六、依次计算剩余的n-4对匹配点中,每一对匹配点中用户上传图像中的特征点坐标(x1,y1),按照投影变换矩阵H投影到图片中的投影匹配点(x′2,y′2),利用误差计算公式:计算这对匹配点中数据库图像中的特征点坐标(x2,y2)与投影匹配点(x′2,y′2)之间的误差t;如果误差t小于最大允许误差,说明投影匹配点是正确的,则此匹配点为内点,否则是外点,直到统计出内点数目m1
步骤三七、判断步骤三六统计的内点数目m1是否大于预定的阈值m,若是,则进行步骤三八,否则返回步骤三四;
步骤三八、用步骤三六统计出的内点数目m1重新计算新的投影变换矩阵H′,并利用新的投影变换矩阵H′计算内点数目m2;至此,完成错误匹配点剔除的过程,并将新的投影变换矩阵H′和m2个内点的结果输出。
CN201510086374.4A 2015-02-17 2015-02-17 基于ransac算法的视觉定位方法 Active CN104596519B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510086374.4A CN104596519B (zh) 2015-02-17 2015-02-17 基于ransac算法的视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510086374.4A CN104596519B (zh) 2015-02-17 2015-02-17 基于ransac算法的视觉定位方法

Publications (2)

Publication Number Publication Date
CN104596519A CN104596519A (zh) 2015-05-06
CN104596519B true CN104596519B (zh) 2017-06-13

Family

ID=53122455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510086374.4A Active CN104596519B (zh) 2015-02-17 2015-02-17 基于ransac算法的视觉定位方法

Country Status (1)

Country Link
CN (1) CN104596519B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704867A (zh) * 2017-08-24 2018-02-16 哈尔滨工业大学 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225240B (zh) * 2015-09-25 2017-10-03 哈尔滨工业大学 一种基于视觉特征匹配与拍摄角度估计的室内定位方法
CN106228538B (zh) * 2016-07-12 2018-12-11 哈尔滨工业大学 基于logo的双目视觉室内定位方法
CN107229934A (zh) * 2017-04-24 2017-10-03 东北大学 基于最小匹配距离与随机采样一致性的错误匹配去除方法
CN107220658B (zh) * 2017-05-10 2019-05-31 中国人民解放军军械工程学院 一种图像匹配点对筛选方法
CN107376360B (zh) * 2017-06-19 2021-01-01 深圳市铂岩科技有限公司 游戏直播方法及游戏直播系统
CN107833179A (zh) * 2017-09-05 2018-03-23 云南电网有限责任公司昆明供电局 一种红外图像的快速拼接方法及系统
CN107590234B (zh) * 2017-09-07 2020-06-09 哈尔滨工业大学 一种基于ransac的室内视觉定位数据库冗余信息减少的方法
CN109407699A (zh) * 2018-10-29 2019-03-01 宋永端 一种无人机室内自主飞行定位方法
CN110148163A (zh) * 2019-04-29 2019-08-20 东南大学 一种基于有效区域的改进ransac算法求解单应矩阵的方法
CN110827334B (zh) * 2019-11-01 2023-01-31 Oppo广东移动通信有限公司 形变场确定方法、确定装置、终端设备及可读存储介质
CN111859003B (zh) * 2020-07-22 2021-12-28 浙江商汤科技开发有限公司 视觉定位方法及装置、电子设备和存储介质
CN112085117B (zh) * 2020-09-16 2022-08-30 北京邮电大学 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法
CN112364879A (zh) * 2020-10-10 2021-02-12 南京轩宁信息技术有限公司 一种基于双向最优匹配点对的图像匹配方法
CN113419249A (zh) * 2021-06-18 2021-09-21 珠海市一微半导体有限公司 一种重定位方法、芯片和移动机器人

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761539A (zh) * 2014-01-20 2014-04-30 北京大学 一种基于环境特征物体的室内定位方法
CN104036480A (zh) * 2014-06-20 2014-09-10 天津大学 基于surf算法的快速消除误匹配点方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761539A (zh) * 2014-01-20 2014-04-30 北京大学 一种基于环境特征物体的室内定位方法
CN104036480A (zh) * 2014-06-20 2014-09-10 天津大学 基于surf算法的快速消除误匹配点方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"A weighted KNN epipolar geometry-based approach for vision-based indoor localization using smartphone cameras";H.Sadeghi 等,;《2014 IEEE 8th Sensor Array and Multichannel Signal Processing Workshop (SAM)》;20141231;37-40 *
"改进的匹配点提纯算法mRANSAC";王亚伟 等,;《东南大学学报(自然科学版)》;20130731;第43卷;163-167 *
"结合SURF特征和RANSAC算法的图像配准方法";纪利娥 等,;《传感器世界》;20131031(第10期);9-12 *
Wan K 等."An improvement algorithm on RANSAC for image-based indoor localization".《Wireless Communications and Mobile Computing Conference (IWCMC), 2016 International. IEEE》.2016,842-845. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704867A (zh) * 2017-08-24 2018-02-16 哈尔滨工业大学 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法

Also Published As

Publication number Publication date
CN104596519A (zh) 2015-05-06

Similar Documents

Publication Publication Date Title
CN104596519B (zh) 基于ransac算法的视觉定位方法
CN110378931A (zh) 一种基于多摄像头的行人目标移动轨迹获取方法及系统
Tang et al. ESTHER: Joint camera self-calibration and automatic radial distortion correction from tracking of walking humans
CN103858148B (zh) 用于移动设备的平面映射和跟踪方法、装置及设备
CN107369183A (zh) 面向mar的基于图优化slam的跟踪注册方法及系统
CN107633536A (zh) 一种基于二维平面模板的相机标定方法及系统
CN104616247B (zh) 一种用于基于超像素sift航拍地图拼接的方法
CN106485690A (zh) 基于点特征的点云数据与光学影像的自动配准融合方法
CN104517289B (zh) 一种基于混合摄像机的室内场景定位方法
CN107992793A (zh) 一种室内定位方法、装置以及存储介质
KR102638632B1 (ko) 포인트 클라우드 모델 구축 방법, 장치, 전자 기기, 저장 매체 및 프로그램
WO2021051526A1 (zh) 多视图3d人体姿态估计方法及相关装置
CN107564059A (zh) 基于rgb‑d信息的物体定位方法、装置以及机器视觉系统
CN107133986B (zh) 一种基于二维标定物的相机标定方法
CN110490913A (zh) 基于角点与单线段编组的特征描述算子进行影像匹配方法
CN111291768A (zh) 图像特征匹配方法及装置、设备、存储介质
CN108759788A (zh) 无人机影像定位定姿方法及无人机
CN108537214A (zh) 一种室内语义地图的自动化构建方法
CN107610219A (zh) 一种三维场景重构中几何线索感知的像素级点云稠密化方法
CN105447869B (zh) 基于粒子群优化算法的摄像机自标定方法及装置
CN112348909A (zh) 一种目标定位方法、装置、设备及存储介质
CN109919832A (zh) 一种用于无人驾驶的交通图像拼接方法
CN109141432A (zh) 一种基于影像空间和全景辅助的室内定位导航方法
CN117132737B (zh) 一种三维建筑模型构建方法、系统及设备
WO2024088071A1 (zh) 三维场景重建方法、装置、设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190612

Address after: 150000 Heilongjiang Harbin Dalian economic and Trade Zone, the North Road and Xingkai Road intersection

Patentee after: Harbin University of Technology Robot Group Co., Ltd.

Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin

Patentee before: Harbin Institute of Technology

TR01 Transfer of patent right