CN112102475A - 一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法 - Google Patents

一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法 Download PDF

Info

Publication number
CN112102475A
CN112102475A CN202010923785.5A CN202010923785A CN112102475A CN 112102475 A CN112102475 A CN 112102475A CN 202010923785 A CN202010923785 A CN 202010923785A CN 112102475 A CN112102475 A CN 112102475A
Authority
CN
China
Prior art keywords
matching
image
model
view
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010923785.5A
Other languages
English (en)
Other versions
CN112102475B (zh
Inventor
杨宁
张子腾
郭雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202010923785.5A priority Critical patent/CN112102475B/zh
Publication of CN112102475A publication Critical patent/CN112102475A/zh
Application granted granted Critical
Publication of CN112102475B publication Critical patent/CN112102475B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,利用空间目标多视图进行多层哈希图像匹配,得到多视图匹配结果;利用多视图匹配结果,进行空间目标多视图轨迹跟踪;利用多视图匹配关系和多视图轨迹跟踪结果,基于逆向抽样一致性(AC‑RANSAC)的重构模型估计。建立的汉明距离哈希表可实现快速、精准图像匹配;经过特征跟踪后多视图有效关联数目得到明显提升立体匹配的稳定性和三角化重建特征点云准确性,增加特征点云重建数目;逆向方法解决了模型的偶然性问题,其统计标准是数据特定的,并且避免了凭经验设定内部/外部区分的阈值。

Description

一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法
技术领域
本发明属于计算机视觉三维重构技术领域,涉及一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法。
背景技术
基于图像序列轨迹跟踪的空间目标三维稀疏重构技术是计算机视觉技术将空间目标作为新型研究对象的一种应用,旨在通过采集图像序列获取空间目标的三维模型。随着空间探测信息化、多样化程度不断提高,空间环境精准监测所发挥的作用愈发凸显,序列图像三维重建技术的发展和应有,将使识别和匹配能力由单一二维图像向多维度层次模型进行转变,根据情报信息或其它先验手段获取的目标或场景模型数据库,为准确发现捕获目标,甚至于目标部件或重要载荷,提供更加准确的目标指示手段。有助于可疑目标的身份识别、异常行为探测、工作模式指向、指向状态估计、危险作业评估、特殊载荷面跟踪等。
基于图像的三维重构是一种典型的计算机视觉问题,其核心的目标可以这样来描述,“给定一个物体或者场景的图像集,在已知材料、视点、光照条件的基础假设下,估计可以合理解释这些图像的最可能的三维形状”。这个定义强调了这个任务的困难,也就是假设的材料、视点、光照条件都是已知的。如果这些是未知的,那么一般问题是材料、视点、光照条件病态的组合会产生完全相同的图像。因此,如果没有较好的假设,没有一种方法可以仅仅依赖图像准确地恢复三维结构。三维重构最初的应用主要是结构化的图像集,图像的顺序受影响,比如说视频序列。一些MVS(Multi-View Stereo)应用也遵循这样的规律,比如谷歌街景和微软街景,但已经有MVS可以在不同的场合和硬件下处理无序的图像集,比如基于航拍图像的3D地图。快速和高质量的特征提取和描述已经促使SFM(Structure fromMotion)可以处理无结构的数据集,高质量的描述使建筑物可以从不同的姿态和光照下的图像中得到更长更高的轨迹。
目前,在基于图像序列的三维稀疏重构领域,国内缺乏以空间环境目标作为研究对象,具有针对性、系统性的研究,现阶段所涉及的研究均处于前期研讨,方案分析,技术论证,或在有限模拟实验环境下的部分算法测试,尚未形成较为完备的理论框架。除此之外,目前国内尚未有实测图像作为依据,将面临一些可能超越三维重构理论体系之外的难点,针对该项目中太空目标的特点,必须首先解决三维重构非朗伯结构(主要针对空间重点目标高光、非均匀光照)带来的数据损伤的影响,这些数据损伤可能会对算法的鲁棒性带来不可预知的挑战,其次卫星目标存在比如帆板、天线等薄形、线形结构,这些都是三维重构领域现今存在的重大技术难题。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,能够实现空间目标三维稀疏重构。
技术方案
一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,其特征在于步骤如下:
步骤1、空间目标多视图图像匹配:
1、对空间目标多视图进行尺度不变特征SIFT提取,生成128维特征向量作为匹配初始条件:使用短代码进行哈希查找以进行粗略搜索,将所有图像中的所有特征点都嵌入到具有局部敏感哈希LSH的m位二进制码中;对于图像I中的特征点p,为了在图像J中找到其对应匹配点,使用m位二进制码构造具有一组桶的查找表,并返回所有落入与点p相同桶的在图像J中的点;
2、在哈希查询阶段完成粗略搜索之后进行精确搜索,计算每个候选样本之间的欧几里德距离,使用大于m位哈希函数将哈希查询阶段提供的候选样本重新映射到汉明空间;
3、根据查询的汉明距离对候选样本进行排序,选择前Top_k项作为最终候选者;在找到前k项候选者后,根据欧几里德距离找到其中最近的两个项,并通过筛选Lowe′s比率进行匹配;
步骤2、空间目标多视图轨迹跟踪:
对步骤1得到多视图匹配对应关系,为每一个匹配特征创建单例,每个成对匹配需要包含它们的两个特征的并集,利用并查集建立用于关联对应关系的连接函数,建立结构模型图G,其中特征点视为图的顶点而关联关系视为图的边缘;集合由特征点组成,包含图像的ID编号和特征点ID编号,表示为features{ImageID,FeatureID}=sets,集合的关联代表左右邻近视图的匹配关系,表示为:
{LeftFeature,RightFeature}=setsunion
所得到的图G的连接关系就是轨迹,轨迹的长度为图G边缘数目;
步骤3、基于逆向抽样一致性AC-RANSAC的重构模型估计:
根据步骤1得到多视图匹配对应关系,步骤2得到多视图轨迹长度,选择轨迹长度最长的多视图中邻近视图匹配点较多的图像对作为初始重建图像对;
利用初始重建图像对的8组匹配点对进行相机模型计算即为三维稀疏重构结果:
8组匹配对的选择采用逆向抽样一致性,AC-RANSAC搜索一个包含可控的虚警数NFA的共识集,虚警是一种偶发模型,需要定义背景模型H0和刚度度量,所述H0是一种随机对应模型,在图像中均匀分布的独立点,刚度度量作为内点残差的估计模型;
刚性模型中的NFA:
Figure BDA0002667618130000031
其中,k是内联点对应的数量,n是匹配总数,Nsample是RANSAC样本的基数,Nout是从RANSACNsample进行对应样本估计的模型数量,Nsample通常是Nout=1;ek(M)是所有n个对应关系中模型M的第k个最低误差,α0是具有误差1像素的随机对应的概率,d是误差维度:当点到线距离时设为1,点到点距离时设为2;
利用最小化NFA代替传统的最大化内部计数或最小化误差中位数是AC-RANSAC的特点,模型的有效性需要满足以下条件:
Figure BDA0002667618130000041
参数为ε,设定为1,模型M的内联点/奇异点误差阈值为ek(M),k最小化上式。
所述步骤1中的m=8or10。
所述步骤2中的Top_k=2。
所述步骤2中的Lowe's=0.8or0.6。
所述内联点对应的数量k取值为8。
有益效果
本发明提出的一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,利用空间目标多视图进行多层哈希图像匹配,得到多视图匹配结果;利用多视图匹配结果,进行空间目标多视图轨迹跟踪;利用多视图匹配关系和多视图轨迹跟踪结果,基于逆向抽样一致性(AC-RANSAC)的重构模型估计。
本发明基于增量式运动恢复结构重建的稳定性取决于序列图像匹配的准确性,针对空间目标图像受采集模式带来的不确定性问题,通过引入准确的匹配算法虽然可以确保邻近视图间的特征关联,但是仍然难以明确一组图像序列间的几何关系,有必要对多视图序列进行稳定的特征跟踪。本文通过将两视图匹配融合为多视图一致轨迹,完成跨图像的匹配特征组,形成特征跟踪轨迹,依据特征轨迹构建多视图间的连通关系图。
本发明充分利用了序列图像及空间目标光学图像特性,可带来如下效果:
通过将高维特征进行局部敏感哈希编码,利用短码的多表散列进行粗搜索,将反馈的候选项进行高维汉明空间映射,建立的汉明距离哈希表可实现快速、精准图像匹配;
经过特征跟踪后多视图有效关联数目得到明显提升,这将有助于SFM满足需要,提升立体匹配的稳定性和三角化重建特征点云准确性,增加特征点云重建数目;
在模型估计应用中,逆向方法解决了模型的偶然性问题,其统计标准是数据特定的,并且避免了凭经验设定内部/外部区分的阈值。
附图说明
图1:本发明系统具体实施方式总体设计
图2:本发明具体实施方式获取多视图直接匹配与多视图匹配+跟踪的有效关联结果对比
图3:本发明实例获得三维稀疏重构结果
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本实施方式选取硬件环境:2GHz 2*E5 CPU,128G内存,12G显存计算机;
操作系统包括Windows7系统;
采用C++编译实现本方法;实施举例采用图像分辨率:2048*2048;
本发明总体方案设计如图1所示,具体实施如下:
基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,包括如下步骤:
步骤一:空间目标多视图进行多层哈希图像匹配,具体方法如下:
(1)对空间目标多视图进行尺度不变特征(SIFT)提取,生成128维特征向量作为匹配初始条件。假设存在邻近图像匹配对I,J,首先,使用短代码进行哈希查找以进行粗略搜索,将所有图像中的所有特征点都嵌入到具有局部敏感哈希(LSH)的m位二进制码中,这里给出参考值m=8or10。对于图像I中的特征点p,为了在图像J中找到其对应匹配点,使用m位二进制码构造具有一组桶的查找表,并返回所有落入与点p相同桶的在图像J中的点。
(2)在哈希查询阶段完成粗略搜索之后便可以进行精确搜索,计算每个候选样本之间的欧几里德距离,使用大于m位哈希函数将哈希查询阶段提供的候选样本重新映射到汉明空间。
(3)根据查询的汉明距离对候选样本进行排序,并且选择前Top_k项作为最终候选者。在找到前k项候选者后,可以根据欧几里德距离找到其中最近的两个项,并通过筛选Lowe′s比率进行匹配,这里给出参考值Top_k=2,Lowe's=0.8or0.6。
步骤二:空间目标多视图轨迹跟踪,具体方法如下:
步骤一得到多视图匹配对应关系,为每一个匹配特征创建单例,每个成对匹配需要包含它们的两个特征的并集,利用并查集建立用于关联对应关系的连接函数,建立结构模型图G,其中特征点视为图的顶点而关联关系视为图的边缘。这里的集合由特征点组成,包含图像的ID编号和特征点ID编号,表示为features{ImageID,FeatureID}=sets,集合的关联代表左右邻近视图的匹配关系,表示为{LeftFeature,RightFeature}=sets union,这样所得到的图G的连接关系就是轨迹,轨迹的长度为图G边缘数目。
步骤三:基于逆向抽样一致性(AC-RANSAC)的重构模型估计,具体方法如下:
(1)步骤一得到多视图匹配对应关系,步骤二得到多视图轨迹长度,选择轨迹长度最长的多视图中邻近视图匹配点较多的图像对作为初始重建图像对;
(2)利用初始重建图像对的8组匹配点对进行相机模型计算,8组匹配对的选择采用逆向抽样一致性,AC-RANSAC搜索一个包含可控的虚警数(NFA)的共识集,虚警是一种偶发模型。下式为在刚性模型中的NFA:
Figure BDA0002667618130000061
其中,k是假定的内联点对应的数量(这里取值为8),n是匹配总数,Nsample是RANSAC样本的基数,Nout是可以从RANSACNsample进行对应样本估计的模型数量(Nsample通常是Nout=1),ek(M)是所有n个对应关系中模型M的第k个最低误差,α0是具有误差1像素的随机对应的概率,d是误差维度:当点到线距离时设为1,点到点距离时设为2。
利用最小化NFA代替传统的最大化内部计数(如果给出内联点/奇异点阈值T)或最小化误差中位数(在平方变量的最小中值中)是AC-RANSAC的特点,模型的有效性需要满足以下条件:
Figure BDA0002667618130000071
上述公式的唯一参数为ε,设定为1,模型M的内联点/奇异点误差阈值为ek(M),k最小化上式。
(3)上述过程中得到的相机模型即为三维稀疏重构结果。

Claims (5)

1.一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,其特征在于步骤如下:
步骤1、空间目标多视图图像匹配:
1、对空间目标多视图进行尺度不变特征SIFT提取,生成128维特征向量作为匹配初始条件:使用短代码进行哈希查找以进行粗略搜索,将所有图像中的所有特征点都嵌入到具有局部敏感哈希LSH的m位二进制码中;对于图像I中的特征点p,为了在图像J中找到其对应匹配点,使用m位二进制码构造具有一组桶的查找表,并返回所有落入与点p相同桶的在图像J中的点;
2、在哈希查询阶段完成粗略搜索之后进行精确搜索,计算每个候选样本之间的欧几里德距离,使用大于m位哈希函数将哈希查询阶段提供的候选样本重新映射到汉明空间;
3、根据查询的汉明距离对候选样本进行排序,选择前Top_k项作为最终候选者;在找到前k项候选者后,根据欧几里德距离找到其中最近的两个项,并通过筛选Lowe′s比率进行匹配;
步骤2、空间目标多视图轨迹跟踪:
对步骤1得到多视图匹配对应关系,为每一个匹配特征创建单例,每个成对匹配需要包含它们的两个特征的并集,利用并查集建立用于关联对应关系的连接函数,建立结构模型图G,其中特征点视为图的顶点而关联关系视为图的边缘;集合由特征点组成,包含图像的ID编号和特征点ID编号,表示为features{ImageID,FeatureID}=sets,集合的关联代表左右邻近视图的匹配关系,表示为:
{LeftFeature,RightFeature}=setsunion
所得到的图G的连接关系就是轨迹,轨迹的长度为图G边缘数目;
步骤3、基于逆向抽样一致性AC-RANSAC的重构模型估计:
根据步骤1得到多视图匹配对应关系,步骤2得到多视图轨迹长度,选择轨迹长度最长的多视图中邻近视图匹配点较多的图像对作为初始重建图像对;
利用初始重建图像对的8组匹配点对进行相机模型计算即为三维稀疏重构结果:
8组匹配对的选择采用逆向抽样一致性,AC-RANSAC搜索一个包含可控的虚警数NFA的共识集,虚警是一种偶发模型,需要定义背景模型H0和刚度度量,所述H0是一种随机对应模型,在图像中均匀分布的独立点,刚度度量作为内点残差的估计模型;
刚性模型中的NFA:
Figure FDA0002667618120000021
其中,k是内联点对应的数量,n是匹配总数,Nsample是RANSAC样本的基数,Nout是从RANSACNsample进行对应样本估计的模型数量,Nsample通常是Nout=1;ek(M)是所有n个对应关系中模型M的第k个最低误差,α0是具有误差1像素的随机对应的概率,d是误差维度:当点到线距离时设为1,点到点距离时设为2;
利用最小化NFA代替传统的最大化内部计数或最小化误差中位数是AC-RANSAC的特点,模型的有效性需要满足以下条件:
Figure FDA0002667618120000022
参数为ε,设定为1,模型M的内联点/奇异点误差阈值为ek(M),k最小化上式。
2.根据权利要求1所述基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,其特征在于:所述步骤1中的m=8or10。
3.根据权利要求1所述基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,其特征在于:所述步骤2中的Top_k=2。
4.根据权利要求1所述基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,其特征在于:所述步骤2中的Lowe's=0.8or0.6。
5.根据权利要求1所述基于图像序列轨迹跟踪的空间目标三维稀疏重构方法,其特征在于:所述内联点对应的数量k取值为8。
CN202010923785.5A 2020-09-04 2020-09-04 一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法 Active CN112102475B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010923785.5A CN112102475B (zh) 2020-09-04 2020-09-04 一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010923785.5A CN112102475B (zh) 2020-09-04 2020-09-04 一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法

Publications (2)

Publication Number Publication Date
CN112102475A true CN112102475A (zh) 2020-12-18
CN112102475B CN112102475B (zh) 2023-03-07

Family

ID=73757355

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010923785.5A Active CN112102475B (zh) 2020-09-04 2020-09-04 一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法

Country Status (1)

Country Link
CN (1) CN112102475B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI776718B (zh) * 2020-12-31 2022-09-01 大陸商上海商湯科技開發有限公司 匹配篩選方法及電子設備和電腦可讀儲存介質
WO2024051783A1 (zh) * 2022-09-09 2024-03-14 先临三维科技股份有限公司 一种三维重建方法、装置、设备和存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104081435A (zh) * 2014-04-29 2014-10-01 中国科学院自动化研究所 一种基于级联二值编码的图像匹配方法
US20150324178A1 (en) * 2014-05-09 2015-11-12 Gerald Arnold Hash-based change tracking for software make tools
US20160210532A1 (en) * 2015-01-21 2016-07-21 Xerox Corporation Method and system to perform text-to-image queries with wildcards
CN108550166A (zh) * 2018-03-26 2018-09-18 北京航空航天大学 一种空间目标图像匹配方法
CN108734728A (zh) * 2018-04-25 2018-11-02 西北工业大学 一种基于高分辨序列图像的空间目标三维重构方法
CN109544615A (zh) * 2018-11-23 2019-03-29 深圳市腾讯信息技术有限公司 基于图像的重定位方法、装置、终端及存储介质
CN110827321A (zh) * 2019-10-16 2020-02-21 天津大学 一种基于三维信息的多相机协同的主动目标跟踪方法
US20200117907A1 (en) * 2017-07-26 2020-04-16 Peking University Shenzhen Graduate School Method for detecting violent incident in video based on hypergraph transition
CN111063021A (zh) * 2019-11-21 2020-04-24 西北工业大学 一种空间运动目标的三维重建模型建立方法及装置
CN111127613A (zh) * 2019-12-25 2020-05-08 华南理工大学 基于扫描电子显微镜的图像序列三维重构方法及系统
CN111127524A (zh) * 2018-10-31 2020-05-08 华为技术有限公司 一种轨迹跟踪与三维重建方法、系统及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104081435A (zh) * 2014-04-29 2014-10-01 中国科学院自动化研究所 一种基于级联二值编码的图像匹配方法
US20150324178A1 (en) * 2014-05-09 2015-11-12 Gerald Arnold Hash-based change tracking for software make tools
US20160210532A1 (en) * 2015-01-21 2016-07-21 Xerox Corporation Method and system to perform text-to-image queries with wildcards
US20200117907A1 (en) * 2017-07-26 2020-04-16 Peking University Shenzhen Graduate School Method for detecting violent incident in video based on hypergraph transition
CN108550166A (zh) * 2018-03-26 2018-09-18 北京航空航天大学 一种空间目标图像匹配方法
CN108734728A (zh) * 2018-04-25 2018-11-02 西北工业大学 一种基于高分辨序列图像的空间目标三维重构方法
CN111127524A (zh) * 2018-10-31 2020-05-08 华为技术有限公司 一种轨迹跟踪与三维重建方法、系统及装置
CN109544615A (zh) * 2018-11-23 2019-03-29 深圳市腾讯信息技术有限公司 基于图像的重定位方法、装置、终端及存储介质
CN110827321A (zh) * 2019-10-16 2020-02-21 天津大学 一种基于三维信息的多相机协同的主动目标跟踪方法
CN111063021A (zh) * 2019-11-21 2020-04-24 西北工业大学 一种空间运动目标的三维重建模型建立方法及装置
CN111127613A (zh) * 2019-12-25 2020-05-08 华南理工大学 基于扫描电子显微镜的图像序列三维重构方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HAISHENG LI 等: "Feature Matching of Multi-view 3D Models Based on Hash Binary Encoding", 《NEURAL NETWORK WORLD》 *
凌寒羽 等: "基于增量式SFM的特定目标加速定位方法", 《计算机仿真》 *
刘李漫 等: "基于哈希特征的大规模图像快速匹配算法", 《计算机工程与应用》 *
吉祥 等: "基于景象匹配的无人飞行器定位方法", 《系统仿真学报》 *
杨东升 等: "位图局部敏感哈希的匹配二进制特征搜索算法", 《吉林大学学报(工学版)》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI776718B (zh) * 2020-12-31 2022-09-01 大陸商上海商湯科技開發有限公司 匹配篩選方法及電子設備和電腦可讀儲存介質
WO2024051783A1 (zh) * 2022-09-09 2024-03-14 先临三维科技股份有限公司 一种三维重建方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN112102475B (zh) 2023-03-07

Similar Documents

Publication Publication Date Title
Bansal et al. Ultrawide baseline facade matching for geo-localization
Jégou et al. Improving bag-of-features for large scale image search
Matei et al. Rapid object indexing using locality sensitive hashing and joint 3D-signature space estimation
Nascimento et al. BRAND: A robust appearance and depth descriptor for RGB-D images
CN109960402B (zh) 一种基于点云和视觉特征融合的虚实注册方法
CN106682700B (zh) 基于关键点描述算子的分块快速匹配方法
CN109101981B (zh) 一种街景场景下基于全局图像条纹码的回环检测方法
Germain et al. S2dnet: Learning accurate correspondences for sparse-to-dense feature matching
CN112102475B (zh) 一种基于图像序列轨迹跟踪的空间目标三维稀疏重构方法
CN104573681A (zh) 一种人脸识别方法
do Nascimento et al. On the development of a robust, fast and lightweight keypoint descriptor
Xu et al. Multiscale sparse features embedded 4-points congruent sets for global registration of TLS point clouds
CN110120013B (zh) 一种点云拼接方法及装置
Logoglu et al. Cospair: colored histograms of spatial concentric surflet-pairs for 3d object recognition
Son et al. A multi-vision sensor-based fast localization system with image matching for challenging outdoor environments
Zhang et al. Research on image feature point matching based on ORB and RANSAC algorithm
Cao et al. Parallel K nearest neighbor matching for 3D reconstruction
KR101789979B1 (ko) 그래디언트 방향 정보에 기반한 하우스도르프 거리 계산 방법
CN107291813B (zh) 基于语义分割场景的示例搜索方法
CN111597367B (zh) 基于视图和哈希算法的三维模型检索方法
Ren et al. Barcode detection and decoding method based on deep learning
Yu et al. Improving feature-based visual localization by geometry-aided matching
Seo et al. Learning 3D local surface descriptor for point cloud images of objects in the real-world
Pham et al. Feature descriptors: A review of multiple cues approaches
CN104615994B (zh) 一种监控图像实时处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant