CN112905798A - 一种基于文字标识的室内视觉定位方法 - Google Patents
一种基于文字标识的室内视觉定位方法 Download PDFInfo
- Publication number
- CN112905798A CN112905798A CN202110328170.2A CN202110328170A CN112905798A CN 112905798 A CN112905798 A CN 112905798A CN 202110328170 A CN202110328170 A CN 202110328170A CN 112905798 A CN112905798 A CN 112905798A
- Authority
- CN
- China
- Prior art keywords
- image
- character identification
- visual
- query image
- database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/383—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/387—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/117—Tagging; Marking up; Designating a block; Setting of attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明涉及一种基于文字标识的室内视觉定位方法,包括以下步骤:获取待定位环境的文字标识图像和该文字标识图像的位置坐标,建立位置指纹图像数据库,对位置指纹图像进行特征向量提取,建立特征向量数据库。通过聚类方法对特征向量数据库进行聚类得到视觉字典;将特征向量数据库量化为视觉词袋向量数据库。用户上传查询图像,对用户上传的查询图像进行文字标识的定位和分割,得到标准查询图像;标准查询图像在视觉词袋向量数据库中进行二次检索,辅助用户定位。本发明通过离线方式建立视觉词袋向量数据库,构建高质量的图像检索系统,通过在线定位对图像的文字标识进行针对性的检索,有效提高定位成功率,缩短整个定位过程的用时。
Description
技术领域
本发明涉及视觉定位技术领域,具体涉及一种基于文字标识的室内视觉定位方法。
背景技术
基于图像的室内视觉定位是指通过图像信息为用户提供室内环境下的位置估计。该方法具有成本低、速度快、稳定性强等特点,广泛应用于许多现实场景中,比如大型商场、超市的行人位置估计、大型地下停车场中的位置估计等。当前的室内视觉定位方法主要为图像位置指纹法和精细定位法。
图像位置指纹法,先对查询图像进行特征提取,然后与数据库中的图像进行特征匹配,根据一定的相似性判定规则得到最相近的一张或多张数据库图像,进而获取图像相应的位置,以直接给定或组合估计的方式完成最终的位置估计。一般来说,这种定位方式简单快捷,对室内、室外环境都适用,但是图像特征匹配精确度低,错误的匹配导致定位精度低。
精细定位法具有定位精度高、可估计相机位置和朝向的特点。首先,同样利用一定的相似性判定规则得到最相近的一张或多张数据库图像,然后使用对极几何约束,根据查询图像与匹配图像之间相互匹配的特征点估算两张图像之间的本质矩阵;再通过对本质矩阵的分解,得到两张图像间的旋转矩阵与平移向量;最后,结合数据库图像已知的位姿,估算出查询图像的位姿。这种定位方式能够减少对位置指纹的依赖,提高定位精度,还可以增强与现实技术的相互结合,提供更高级的视觉服务;但这种定位方式对数据库有着很高的要求,
需要大量的存储和维护工作,因此一般只适用于环境简单的室内定位。
同时,当前的两种方法都以直接估计用户位置为目标,对图像数据库都有很高的依赖性,高准确率的图像检索系统是必不可缺的。为了保证有足够的位置信息来提供用户的位置估计,需要先收集大量的场景图像保存在图像数据库中,这就不可避免的带来检索准确率低和检索速度慢的问题。尽管精细化定位方法通过大量的数据信息、计算和优化工作,可以测算位置,在一定程度上减少了对图像数据的依赖,但并不能从根本上解决问题。基于上述原因,当前室内视觉定位系统的应用环境基本上都是没有变动的简单场景,一旦应用环境为复杂的场景,检索准确率会显著下降,定位精度下降,远不能满足实际复杂环境下的定位需求。
发明内容
本发明要解决的技术问题是提供一种基于文字标识的室内视觉定位方法,解决现有视觉定位方法对图像数据库具有高度的依赖性,需要先收集大量的场景图像保存在图像数据库中,定位过程中图像检索准确率低、速度慢,用时久的问题。
一种基于文字标识的室内视觉定位方法,包括以下步骤:
A1:获取待定位环境中的文字标识图像和文字标识图像的位置坐标,将文字标识图像的位置坐标添加到文字标识图像中,形成位置指纹图像数据库;
A2:通过特征向量提取方法对位置指纹图像数据库中所有位置指纹图像进行特征向量提取,获得特征向量数据库;
A3:通过聚类方法对特征向量数据库进行聚类,得到视觉字典;
A4:结合视觉字典,将特征向量数据库量化为视觉词袋向量数据库;
A5:用户上传查询图像,对用户上传的查询图像进行文字标识的定位和分割,得到标准查询图像;
A6:标准查询图像在视觉词袋向量数据库中进行二次检索;若检索成功,得到标准查询图像的位置坐标,辅助用户定位;若检索失败,要求用户再次上传查询图像。
进一步的,所述步骤A3中的聚类方法为k-means算法,所述K为视觉字典中单词的个数。
进一步的,所述步骤A5具体为:用户上传查询图像,通过图像形态学操作对用户上传的查询图像进行文字标识的定位和分割,得到标准查询图像。
进一步的,所述步骤A6具体为:
A601:通过特征向量提取方法对标准查询图像进行特征向量提取,得到标准查询图像的特征向量;标准查询图像的特征向量结合视觉字典得到标准查询图像的视觉词袋向量;
A602:根据相似性计算公式,计算标准查询图像的视觉词袋向量与视觉词袋向量数据库中所有向量的余弦距离和余弦相似度;根据所述余弦距离,以由小到大的方式对文字标识图像进行排序,取前M个文字标识图像作为初次检索结果;
A603:将标准查询图像分别与前M个文字标识图像进行图像匹配和单应矩阵空间验证,将匹配特征点的个数作为文字标识图像的相似度得分,取相似度得分最高的文字标识图像作为二次检索结果,其他M-1个文字标识图像的相似度得分作为错误的检索结果,对错误的检索结果进行统计,得到阈值;
A604:对相似度得分最高的文字标识图像进行判定,若相似度得分最高的文字标识图像的相似度得分大于阈值,则在地图上显示标准查询图像的位置坐标,辅助用户定位;否则,报告检索失败,要求用户再次上传查询图像。
进一步的,所述特征向量提取方法为SIFT或SURF特征向量提取方法。
本发明的有益效果是:本发明以一种简单、低成本的方式有效的满足了室内视觉定位的需求。通过离线方式,获取待定位环境中的文字标识图像和位置坐标,形成位置指纹图像数据库;对位置指纹图像数据库中所有位置指纹图像进行特征向量提取,建立特征向量数据库;通过聚类方法对特征向量数据库进行聚类,得到视觉字典;结合视觉字典,将特征向量数据库量化为视觉词袋向量数据库。通过离线方式,建立视觉词袋向量数据库,构建高质量的图像检索系统,减少视觉定位过程中对图像数据库的高度依赖性,无需要先收集大量的场景图像保存在图像数据库中,提高定位过程中图像检索的准确率、加快定位过程中图像检索的速度,减少视觉定位过程的用时。通过提供文字标识图像所在位置为参考的方式,可以利用人类本身的位置推断能力实现定位。
附图说明
图1为本发明一种基于文字标识的室内视觉定位方法的系统框架图。
具体实施方式
通过参考详细的附图和在此阐述的描述,可以最好地理解本发明。为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本发明提供一种基于文字标识的室内视觉定位方法,该方法的系统框架如图1所示,包括离线阶段和在线阶段。具体步骤为:
A1:获取待定位环境中的文字标识图像和文字标识图像的位置坐标,将文字标识图像的位置坐标添加到文字标识图像中,形成位置指纹图像数据库I={i1,i2,…,iN},N为文字标识图像的数量。
A2:通过特征向量提取方法对位置指纹图像数据库I中所有位置指纹图像进行特征向量提取,获得特征向量数据库V={v1,v2,…,vT},T为特征向量数据库中特征向量的数量;本发明可以采用SIFT或SURF特征向量提取方法对特征向量进行提取。
A3:通过聚类方法对特征向量数据库V进行聚类,得到视觉字典D={d1,d2,…,dK},K为视觉字典中单词的个数,一般为1500个。本发明的聚类方法优选k-means算法。
A4:结合视觉字典D,将特征向量数据库V量化为视觉词袋向量数据库Q={q1,q2,…,qN};
通过离线方式建立视觉词袋向量数据库,构建高质量的图像检索系统,通过对图像文字标识进行针对性的检索,有效地减少了视觉定位过程中对图像数据库的高度依赖性,提高定位过程中图像检索的准确率、加快定位过程中图像检索的速度,减少视觉定位过程的用时,使整个视觉定位过程的用时在1秒左右。
A5:用户上传查询图像iq,对用户上传的查询图像iq进行文字标识的定位和分割,得到标准查询图像is。本发明的一个实施例中,通过图像形态学操作对用户上传的查询图像iq进行文字标识的定位和分割。
A6:标准查询图像is在视觉词袋向量数据库中进行二次检索;若检索成功,得到标准查询图像is的位置坐标,辅助用户定位;若检索失败,要求用户再次上传查询图像iq。
步骤A6具体为:
A601:通过特征向量提取方法对标准查询图像is进行特征向量提取,得到标准查询图像is的特征向量;标准查询图像is的特征向量结合视觉字典D得到标准查询图像is的视觉词袋向量qs。
A602:将标准查询图像is的视觉词袋向量qs与视觉词袋向量数据库中的所有向量qi(i=1,2,...,N)进行相似性比较。根据相似性计算公式,计算标准查询图像is的视觉词袋向量qs与视觉词袋向量数据库中所有向量qi(i=1,2,...,N)的余弦距离和余弦相似度;根据余弦距离,以由小到大的方式对文字标识图像进行排序,取前M个文字标识图像C={ic1,ic2,…,icM}作为初次检索结果。
A603:将标准查询图像is分别与前M个文字标识图像icj(j=1,2,...,M)进行图像匹配和单应矩阵空间验证,将匹配特征点的个数作为前M个文字标识图像的相似度得分,取相似度得分最高的文字标识图像iresult作为二次检索结果,其他M-1个文字标识图像的相似度得分作为错误的检索结果,对错误的检索结果进行统计得到阈值T;
A604:对相似度得分最高的文字标识图像iresult进行判定,若相似度得分最高的文字标识图像iresult的相似度得分s大于阈值T,则在地图上显示标准查询图像is的位置坐标,辅助用户定位;否则,报告检索失败,要求用户再次上传查询图像。
通过在线方式对图像进行定位,整个定位过程的用时约为1.1s,图像检索的准确率为92%,即用户发起一次定位请求后,有92%的可能在地图上得到正确的参考位置,有8%的可能需要重新发起定位请求(即对场景进行拍摄并上传)。之后,通过感知拍摄物体与自身之间的相对位置,用户能够根据本发明返回的参考位置,轻松推断出自身的确切位置。
本发明的具体实施过程如下:
对于图像数据库,在本实施例中优选63个场景的带有GPS标签的文字标识图像,共252张。实例分析基于虚拟机,内存为10GB,处理器个数为2,操作系统为Ubuntu 14.04(64位)。主机为Intel(R)Core(TM)i7-5500U CPU@2.40GHz(2)16GB内存,64位Windows 7操作系统。程序以Python语言编写。若图像数据库规模较大,则需要在大型服务器上运行。
63个场景共252张文字标识图像,获取待定位环境中的文字标识图像和文字标识图像的位置坐标,将文字标识图像的位置坐标添加到文字标识图像中,形成位置指纹图像数据库I={i1,i2,…,i252}。
通过DoG检测子和SIFT描述子对位置指纹图像数据库I中所有位置指纹图像进行特征向量提取,每个特征点的特征向量为128维,获得约126000个特征向量,获得特征向量数据库V;本实施例还可以通过SURF特征向量提取方法对位置指纹图像数据库I中所有位置指纹图像进行特征向量提取。
通过k-means聚类方法对特征向量数据库V进行聚类,取k值为1500,得到视觉字典D={d1,d2,…,d,1500}。结合视觉字典D,将特征向量数据库V量化为视觉词袋向量数据库Q={q1,q2,…,q252}。
用户上传查询图像iq,使用一系列的图像形态学操作对用户上传的查询图像iq进行文字标识的定位和分割,得到标准查询图像is,该步骤平均用时约为110ms。
通过特征向量提取方法对标准查询图像is进行特征向量提取,得到标准查询图像is的特征向量;标准查询图像is的特征向量结合视觉字典D得到标准查询图像is的视觉词袋向量qs。将标准查询图像is的视觉词袋向量qs与视觉词袋向量数据库中的所有向量qi(i=1,2,...,252)进行相似性比较。根据相似性计算公式计算标准查询图像is的视觉词袋向量qs与视觉词袋向量数据库中所有向量qi(i=1,2,...,252)的余弦距离和余弦相似度;根据余弦距离,以由小到大的方式对文字标识图像进行排序,取前20个文字标识图像C={ic1,ic2,…,ic20}作为初次检索结果。
将标准查询图像is分别与前20个文字标识图像icj(j=1,2,...,20)进行图像匹配和单应矩阵空间验证,将匹配特征点的个数作为文字标识图像的相似度得分,取相似度得分最高的文字标识图像iresult作为二次检索结果,其他19个文字标识图像的相似度得分作为错误的检索结果,对错误的检索结果进行统计得到阈值19;
对相似度得分最高的文字标识图像iresult进行判定,若相似度得分最高的文字标识图像iresult的相似度得分s大于阈值19,则在地图上显示标准查询图像is的位置坐标,辅助用户定位;否则,报告检索失败,要求用户再次上传查询图像。
需要声明的是,上述具体实施方式仅仅为本发明的较佳实施例及所运用技术原理,在本发明所公开的技术范围内,任何熟悉本技术领域的技术人员在未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都应涵盖在本发明的保护范围内。
Claims (6)
1.一种基于文字标识的室内视觉定位方法,其特征在于,包括以下步骤:
A1:获取待定位环境中的文字标识图像和文字标识图像的位置坐标,将文字标识图像的位置坐标添加到文字标识图像中,形成位置指纹图像数据库;
A2:通过特征向量提取方法对位置指纹图像数据库中所有位置指纹图像进行特征向量提取,获得特征向量数据库;
A3:通过聚类方法对特征向量数据库进行聚类,得到视觉字典;
A4:结合视觉字典,将特征向量数据库量化为视觉词袋向量数据库;
A5:用户上传查询图像,对用户上传的查询图像进行文字标识的定位和分割,得到标准查询图像;
A6:标准查询图像在视觉词袋向量数据库中进行二次检索;若检索成功,得到标准查询图像的位置坐标,辅助用户定位;若检索失败,要求用户再次上传查询图像。
2.根据权利要求1所述的一种基于文字标识的室内视觉定位方法,其特征在于:所述步骤A3中的聚类方法为k-means算法,所述K为视觉字典中单词的个数。
3.根据权利要求1所述的一种基于文字标识的室内视觉定位方法,其特征在于:所述步骤A5具体为:用户上传查询图像,通过图像形态学操作对用户上传的查询图像进行文字标识的定位和分割,得到标准查询图像。
4.根据权利要求1所述的一种基于文字标识的室内视觉定位方法,其特征在于:所述步骤A6具体为:
A601:通过特征向量提取方法对标准查询图像进行特征向量提取,得到标准查询图像的特征向量;标准查询图像的特征向量结合视觉字典得到标准查询图像的视觉词袋向量;
A602:根据相似性计算公式,计算标准查询图像的视觉词袋向量与视觉词袋向量数据库中所有向量的余弦距离和余弦相似度;根据所述余弦距离,以由小到大的方式对文字标识图像进行排序,取前M个文字标识图像作为初次检索结果;
A603:将标准查询图像分别与前M个文字标识图像进行图像匹配和单应矩阵空间验证,将匹配特征点的个数作为文字标识图像的相似度得分,取相似度得分最高的文字标识图像作为二次检索结果,其他M-1个文字标识图像的相似度得分作为错误的检索结果,对错误的检索结果进行统计,得到阈值;
A604:对相似度得分最高的文字标识图像进行判定,若相似度得分最高的文字标识图像的相似度得分大于阈值,则在地图上显示标准查询图像的位置坐标,辅助用户定位;否则,报告检索失败,要求用户再次上传查询图像。
6.根据权利要求1或4所述的一种基于文字标识的室内视觉定位方法,其特征在于:所述特征向量提取方法为SIFT或SURF特征向量提取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110328170.2A CN112905798B (zh) | 2021-03-26 | 2021-03-26 | 一种基于文字标识的室内视觉定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110328170.2A CN112905798B (zh) | 2021-03-26 | 2021-03-26 | 一种基于文字标识的室内视觉定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112905798A true CN112905798A (zh) | 2021-06-04 |
CN112905798B CN112905798B (zh) | 2023-03-10 |
Family
ID=76109276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110328170.2A Active CN112905798B (zh) | 2021-03-26 | 2021-03-26 | 一种基于文字标识的室内视觉定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112905798B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111813984A (zh) * | 2020-06-23 | 2020-10-23 | 北京邮电大学 | 一种利用单应矩阵实现室内定位的方法、装置及电子设备 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012194058A (ja) * | 2011-03-16 | 2012-10-11 | Kokusai Kogyo Co Ltd | 目的地案内システム、及び目的地案内装置 |
CN103488664A (zh) * | 2013-05-03 | 2014-01-01 | 中国传媒大学 | 一种图像检索方法 |
CN104820718A (zh) * | 2015-05-22 | 2015-08-05 | 哈尔滨工业大学 | 基于地理位置特征与全局视觉特征的图像分类和检索方法 |
US20150269191A1 (en) * | 2014-03-20 | 2015-09-24 | Beijing University Of Technology | Method for retrieving similar image based on visual saliencies and visual phrases |
CN106529583A (zh) * | 2016-11-01 | 2017-03-22 | 哈尔滨工程大学 | 一种基于视觉词袋模型的室内场景认知方法 |
CN108509925A (zh) * | 2018-04-08 | 2018-09-07 | 东北大学 | 一种基于视觉词袋模型的行人重识别方法 |
CN108959650A (zh) * | 2018-08-02 | 2018-12-07 | 聊城大学 | 基于共生surf特征的图像检索方法 |
CN109671119A (zh) * | 2018-11-07 | 2019-04-23 | 中国科学院光电研究院 | 一种基于slam的室内定位方法及装置 |
CN109922437A (zh) * | 2019-03-08 | 2019-06-21 | 芋头科技(杭州)有限公司 | 定位导航数据采集方法、系统、移动设备及服务器 |
CN109919157A (zh) * | 2019-03-28 | 2019-06-21 | 北京易达图灵科技有限公司 | 一种视觉定位方法及装置 |
CN110321902A (zh) * | 2019-05-09 | 2019-10-11 | 哈尔滨工业大学 | 一种基于socp的室内自动视觉指纹采集方法 |
WO2019214289A1 (zh) * | 2018-05-09 | 2019-11-14 | 京东方科技集团股份有限公司 | 图像处理方法、装置、电子设备及存储介质 |
US20200401617A1 (en) * | 2019-06-21 | 2020-12-24 | White Raven Ltd | Visual positioning system |
-
2021
- 2021-03-26 CN CN202110328170.2A patent/CN112905798B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012194058A (ja) * | 2011-03-16 | 2012-10-11 | Kokusai Kogyo Co Ltd | 目的地案内システム、及び目的地案内装置 |
CN103488664A (zh) * | 2013-05-03 | 2014-01-01 | 中国传媒大学 | 一种图像检索方法 |
US20150269191A1 (en) * | 2014-03-20 | 2015-09-24 | Beijing University Of Technology | Method for retrieving similar image based on visual saliencies and visual phrases |
CN104820718A (zh) * | 2015-05-22 | 2015-08-05 | 哈尔滨工业大学 | 基于地理位置特征与全局视觉特征的图像分类和检索方法 |
CN106529583A (zh) * | 2016-11-01 | 2017-03-22 | 哈尔滨工程大学 | 一种基于视觉词袋模型的室内场景认知方法 |
CN108509925A (zh) * | 2018-04-08 | 2018-09-07 | 东北大学 | 一种基于视觉词袋模型的行人重识别方法 |
WO2019214289A1 (zh) * | 2018-05-09 | 2019-11-14 | 京东方科技集团股份有限公司 | 图像处理方法、装置、电子设备及存储介质 |
US20210012153A1 (en) * | 2018-05-09 | 2021-01-14 | Beijing Boe Optoelectronics Technology Co., Ltd. | Image processing method and apparatus, electronic device, and storage medium |
CN108959650A (zh) * | 2018-08-02 | 2018-12-07 | 聊城大学 | 基于共生surf特征的图像检索方法 |
CN109671119A (zh) * | 2018-11-07 | 2019-04-23 | 中国科学院光电研究院 | 一种基于slam的室内定位方法及装置 |
CN109922437A (zh) * | 2019-03-08 | 2019-06-21 | 芋头科技(杭州)有限公司 | 定位导航数据采集方法、系统、移动设备及服务器 |
CN109919157A (zh) * | 2019-03-28 | 2019-06-21 | 北京易达图灵科技有限公司 | 一种视觉定位方法及装置 |
CN110321902A (zh) * | 2019-05-09 | 2019-10-11 | 哈尔滨工业大学 | 一种基于socp的室内自动视觉指纹采集方法 |
US20200401617A1 (en) * | 2019-06-21 | 2020-12-24 | White Raven Ltd | Visual positioning system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111813984A (zh) * | 2020-06-23 | 2020-10-23 | 北京邮电大学 | 一种利用单应矩阵实现室内定位的方法、装置及电子设备 |
CN111813984B (zh) * | 2020-06-23 | 2022-09-30 | 北京邮电大学 | 一种利用单应矩阵实现室内定位的方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112905798B (zh) | 2023-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2201495B1 (en) | Computer vision cad models | |
Peng et al. | Pvnet: Pixel-wise voting network for 6dof pose estimation | |
Hodan et al. | Bop: Benchmark for 6d object pose estimation | |
US11941845B2 (en) | Apparatus and method for estimating camera pose | |
Baatz et al. | Leveraging 3D city models for rotation invariant place-of-interest recognition | |
EP3975123A1 (en) | Map constructing method, positioning method and system, wireless communication terminal, and computer-readable medium | |
Buehler et al. | Long term arm and hand tracking for continuous sign language TV broadcasts | |
US10088294B2 (en) | Camera pose estimation device and control method | |
Ardeshir et al. | GIS-assisted object detection and geospatial localization | |
Toft et al. | Long-term 3d localization and pose from semantic labellings | |
CN108388641B (zh) | 一种基于深度学习的交通设施地图生成方法与系统 | |
CN108364302B (zh) | 一种无标记的增强现实多目标注册跟踪方法 | |
CN103854283A (zh) | 一种基于在线学习的移动增强现实跟踪注册方法 | |
TWI774271B (zh) | 關鍵點檢測方法、電子設備及電腦可讀儲存介質 | |
Schroth et al. | Exploiting text-related features for content-based image retrieval | |
US20200226392A1 (en) | Computer vision-based thin object detection | |
Merino-Gracia et al. | Fast perspective recovery of text in natural scenes | |
CN111784775B (zh) | 一种标识辅助的视觉惯性增强现实注册方法 | |
CN112905798B (zh) | 一种基于文字标识的室内视觉定位方法 | |
Yu et al. | A Novel perspective invariant feature transform for RGB-D images | |
JP5734000B2 (ja) | 物体識別システムおよび方法、並びに、特徴点位置抽出システムおよび方法 | |
Tian et al. | Discriminative and semantic feature selection for place recognition towards dynamic environments | |
CN108133192A (zh) | 一种基于高斯-拉普拉斯分布统计的行人重识别 | |
CN111623783A (zh) | 一种初始定位方法、视觉导航设备、仓储系统 | |
Tsintotas et al. | Visual place recognition for simultaneous localization and mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |