CN111797268B - Rgb-d图像检索方法 - Google Patents

Rgb-d图像检索方法 Download PDF

Info

Publication number
CN111797268B
CN111797268B CN202010691431.2A CN202010691431A CN111797268B CN 111797268 B CN111797268 B CN 111797268B CN 202010691431 A CN202010691431 A CN 202010691431A CN 111797268 B CN111797268 B CN 111797268B
Authority
CN
China
Prior art keywords
image
rgb
retrieval
similarity
dimensional point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010691431.2A
Other languages
English (en)
Other versions
CN111797268A (zh
Inventor
高翔
王欣宇
解则晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN202010691431.2A priority Critical patent/CN111797268B/zh
Publication of CN111797268A publication Critical patent/CN111797268A/zh
Application granted granted Critical
Publication of CN111797268B publication Critical patent/CN111797268B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种RGB‑D图像检索方法,包括以下步骤:对各幅RGB‑D图像彩色图像提取SIFT纹理特征点,构建SIFT特征层级式词汇树,并计算基于SIFT特征层级式词汇树的图像相似度;对各幅RGB‑D图像深度图像提取FPFH结构特征点,构建FPFH特征层级式词汇树,并计算基于FPFH特征层级式词汇树的图像相似度;通过基于SIFT特征层级式词汇树与基于FPFH特征层级式词汇树的相似度计算RGB‑D图像对的相似度得分,实现RGB‑D图像的检索。本发明通过分别对彩色图像SIFT特征与深度图像FPFH特征进行层级式聚类,构建融合了纹理与结构信息的层级式词汇森林,用于实现面向场景建模的RGB‑D图像检索。

Description

RGB-D图像检索方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种RGB-D图像检索方法。
背景技术
在基于图像的场景建模流程中,需要通过提取、匹配图像局部特征以获取图像对之间的对应关系。然而,对大规模场景而言,具有公共可见区域的图像对仅占全体图像对中极小部分。因此,对所有图像进行两两匹配效率过低且无必要。
针对这一问题,现有方法通常采用基于词袋(bag of words)模型的图像检索方式获取各图像的候选匹配图像,并仅对各图像与其候选匹配图像进行特征匹配。上述方式可在不明显降低匹配效果的同时极大提升匹配效率。
RGB-D成像技术发展迅速并诞生了许多代表性产品,如Kinect、RealSense等。相比于传统彩色图像,除场景纹理信息外,RGB-D图像还可以提供场景结构信息,因此广泛运用于如室内场景等结构复杂、纹理缺乏的场景建模领域。
评价图像检索精度用于评价图像匹配的算法的稳定性,目前主要有两种真值给定方式,第一种是人为给定,这种方式需要大量的人工操作,自动化程度低,第二种是根据相机位姿计算,这种方式无法有效利用图像信息,可靠性较差。
发明内容
本发明的目的在于提供一种RGB-D图像检索方法。
为实现上述目的,本发明采用的技术方案是:
一种RGB-D图像检索方法,包括以下步骤:
对各幅RGB-D图像彩色图像提取SIFT纹理特征点,构建SIFT特征层级式词汇树,并计算基于SIFT特征层级式词汇树的图像相似度;
对各幅RGB-D图像深度图像提取FPFH结构特征点,构建FPFH特征层级式词汇树,并计算基于FPFH特征层级式词汇树的图像相似度;
通过基于SIFT特征层级式词汇树与基于FPFH特征层级式词汇树的相似度计算RGB-D图像对的相似度,基于RGB-D图像对的相似度实现RGB-D图像的检索。
在本发明一些实施例中,计算RGB-D图像对的相似度的方法包括:计算RGB-D图像对的相似性得分,所述相似性得分的计算方法包括:
基于SIFT特征层级式词汇树及FPFH特征层级式词汇树获取各幅RGB-D图像基于SIFT特征检索向量与基于FPFH特征的检索向量其中,/>为彩色图像基于SIFT特征的检索向量,/>为深度图像基于FPFH特征的检索向量,i表示选定的RGB-D图像序号,/>表示实数空间,n为检索向量维数,N为RGB-D图像的总数;
基于所述检索向量获取各对RGB-D图像基于SIFT特征层级式词汇树的相似性得分;基于所述检索向量获取各对RGB-D图像基于FPFH特征层级式词汇树的相似性得分:
其中,表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;/>表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;
表示图像i与图像j基于SIFT特征的层级式词汇树的相似性得分,/>表示图像i与图像j基于FPFH特征的层级式词汇树的相似性得分。
在本发明一些实施例中,所述方法进一步包括:
进一步计算结合SIFT特征层级式词汇树的相似度和FPFH特征层级式词汇树的相似度二者的几何平均数,将所述几何平均数作为RGB-D图像对的相似度得分。
在本发明一些实施例中,计算所述几何平均数的方法为:
在本发明一些实施例中,所述检索方法进一步包括:进行图像检索后,对检索精度进行评价,评价方法包括:
计算RGB-D图像检索真值,基于两幅图像的相似性评价指标及RGB-D图像检索真值评价图像检索精度。
在本发明一些实施例中,计算所述检索真值的方法为:
基于相机内参数及外参数进行深度图像反投影,生成三维点云,并基于三维点云的重合度计算获取RGB-D图像检索真值。
在本发明一些实施例中,确定三维点云的方法为将图像点变换至世界坐标系下:
其中,Xi表示变换至世界坐标系下的三维点云集合,s表示深度图像尺度因子,Ki表示相机内参矩阵,Ri表示旋转矩阵,ti表示平移向量,Di(u,v)表示深度图像,T表示矩阵转置。
在本发明一些实施例中,计算三维点云重合度的方法为:
设定距离阈值d;
对于三维点云Xi中的每一个三维点xi,k,在三维点云Xj中搜索其最近点,计算对应的最近距离
对于三维点云Xj中的每一个三维点xj,k,在三维点云Xi中搜索其最近点,计算对应的最近距离
对三维点云Xi中的每一个三维点xi,k获得距离集合对三维点云Xj中的每一个三维点xj,k获得距离集合/>
统计距离集合中小于距离阈值d所占整个集合的比例A(d),统计距离集合/>中小于距离阈值d所占整个集合的比例B(d):
计算三维点云重合度C(d):
在本发明一些实施例中,确定距离阈值d的方法为:
对各三维点云进行基于八叉树的点云降采样,并将八叉树叶子节点的边长置为阈值d。
与现有技术相比,本发明提供的RGB-D图像匹配方法的有益效果在于:
本发明针对RGB-D图像检索问题,通过分别对彩色图像SIFT特征与深度图像FPFH特征进行层级式聚类,构建融合了纹理与结构信息的层级式词汇森林,用于实现面向场景建模的RGB-D图像检索。
本发明还通过利用给定的相机参数反投深度图像获取点云,进而精确计算图像对之间的场景重合度,以衡量RGB-D图像对之间的相似程度,用于实现RGB-D图像检索的精度评价。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为RGB-D图像匹配方法流程图;
图2为rgbd_dataset_freiburg1_desk数据的RGB-D图像检索对比图;
图3为rgbd_dataset_freiburg2_desk数据的RGB-D图像检索对比图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种图像检索方法,具体为一种用于RGB-D图像检索方法。RGB-D图像包括色彩图像和深度图形,该方法利用图像的色彩图像的颜色信息和深度图像的结构信息,检索匹配图像,并可进一步评价图像的检索与精度,为一种高效、精确的图像检索方法。
RGB-D图像匹配检索实际基于RGB-D图像的集合。集合中,包括多幅RGB-D图像。检索方法可针对某一RGB-D图像,在图像集合中检索其匹配图像,也可以针对图像集合中的所有图像,生成检索匹配结果。
一种RGB-D图像检索方法,流程参考图1,包括以下步骤:
S1:对各幅RGB-D图像彩色图像提取SIFT纹理特征点,构建SIFT特征层级式词汇树,并计算基于SIFT特征层级式词汇树的图像相似度。
具体的,对于各幅RGB-D图像的彩色图像,首先利用OpenCV库提取SIFT特征,然后将提取的SIFT特征导入DBoW库中,构建基于SIFT特征的层级式词汇树。
S2:对各幅RGB-D图像深度图像提取FPFH结构特征点,构建FPFH特征层级式词汇树,并计算基于FPFH特征层级式词汇树的图像相似度。
具体的,对于各幅RGB-D图像的深度图像,利用Open3D库,首先根据已知的相机内参数和外参数进行反投影操作,生成对应的三维点云,然后通过构建八叉树及局部平面拟合对点云进行降采样与法向估计,进而提取FPFH特征。在此基础上,将提取的FPFH特征导入DBoW库中,构建基于FPFH特征的层级式词汇树。
SIFT特征层级式词汇树和PFH特征的层级式词汇树构成词汇森林。
S3:通过基于SIFT特征层级式词汇树与基于FPFH特征层级式词汇树的相似度计算RGB-D图像对的相似度,基于RGB-D图像对的相似度实现RGB-D图像的检索。
在本发明一些实施例中,计算RGB-D图像对的相似度的方法包括:计算RGB-D图像对的相似性得分,所述相似性得分的计算方法包括:
在分别构建完成基于SIFT特征层级式词汇树与FPFH特征的层级式词汇树后,基于词频-逆文档频率(term frequency-inverse document frequency)原理,可计算获得检索向量。
具体的,基于SIFT特征层级式词汇树及FPFH特征层级式词汇树获取各幅RGB-D图像基于SIFT特征检索向量与基于FPFH特征的检索向量其中,/>为基于SIFT特征的检索向量,/>为基于FPFH特征的检索向量,i表示选定的RGB-D图像,/>表示实数空间,n为检索向量维数,N为RGB-D图像的总数,即RGB-D图像的集合中图像的数量。
基于所述检索向量获取各对RGB-D图像基于SIFT特征层级式词汇树的相似性得分;基于所述检索向量获取各对RGB-D图像基于FPFH特征层级式词汇树的相似性得分;
其中,表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;/>表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;
表示图像i与图像j基于SIFT特征的层级式词汇树的相似性得分,/>表示图像i与图像j基于FPFH特征的层级式词汇树的相似性得分;
基于相应的相似性得分作为相似性评价指标,判定相应的相似度。可以理解,对任意两幅RGB-D图像,均可获得上述两个相似性得分,相似性得分越高,则表明两幅图像的相似性越高。
更进一步的,在本发明一些实施例中,所述方法进一步包括:
由于对于每一幅RGB-D图像,都存在SIFT特征层级式词汇树的相似性得分和FPFH特征层级式词汇树的相似性得分两个相似性得分,在某些情况下,对于任意两幅RGB-D图像,两个得分的相似性趋势可能并不相同,为了进一步提高比较的可行性,有效融合基于SIFT特征的词汇树中的纹理信息与基于FPFH特征中的结构信息,实现RGB-D图像的有效检索,进一步计算结合SIFT特征层级式词汇树的相似度和FPFH特征层级式词汇树的相似度二者的几何平均数,将所述几何平均数作为相似性评价指标。
计算几何平均数的方法为:
可以理解,对于任意两幅RGB-D图像,将几何平均数作为RGB-D图像对的相似度得分,几何平均数的得分越高,表明两幅图像的相似性越高。
这样,对于任意一幅RGB-D图像,均可计算其与其他各幅图像之间的相似度,即可实现RGB-D图像的相似性检索。
S4:基于两幅图像之间的相似性评价指标评价匹配图像。
基于以上的采用相似度得分的方法,可以实现两幅图像的相似度检索匹配。更进一步的,所述匹配方法进一步包括:进行图像匹配后,对匹配精度进行评价。为了对检索结果的精度进行评价,在本发明一些实施例中,所述评价方法进一步结合图像的检索真值进行图像匹配度的评价,所述的评价方法进一步包括:
计算RGB-D图像检索真值,基于两幅图像的相似性评价指标及RGB-D图像检索真值评价图像匹配精度,通过检索真值,可给定各幅RGB-D图像与其他图像的相似度真值或者相似度排序。
在本发明一些实施例中,计算所述检索真值的方法为:
S5:基于相机内参数及外参数进行深度图像反投影,生成三维点云,并基于三维点云的重合度计算获取RGB-D图像检索真值。具体的,对第i幅RGB-D图像,将获得三维点云Xi,对第j幅RGB-D图像,将获得三维点云Xj。图像间的重合度值可准确衡量一对RGB-D图像之间的场景重合度,用作图像检索真值,辅助评价图像匹配方法的匹配效果。
在本发明一些实施例中,确定三维点云的方法为将图像点变换至世界坐标系下:
其中,Xi表示变换至世界坐标系下的三维点云集合,s表示深度图像尺度因子,Ki表示相机内参矩阵,Ri旋转矩阵及平移向量,ti表示深度图像。
在本发明一些实施例中,利用Open3D库,通过计算两幅RGB-D图像对应三维点云的重合度来评价他们的相似度,具体的,计算三维点云重合度的方法为:
设定距离阈值d;
对于三维点云Xi中的每一个三维点xi,k,在三维点云Xj中搜索其最近点,计算对应的最近距离
对于三维点云Xj中的每一个三维点xj,k,在三维点云Xi中搜索其最近点,计算对应的最近距离
对三维点云Xi中的每一个三维点xi,k获得距离集合对三维点云Xj中的每一个三维点xj,k获得距离集合/>
统计距离集合中小于距离阈值d所占整个集合的比例A(d),统计距离集合/>中小于距离阈值d所占整个集合的比例B(d):
计算三维点云重合度C(d):
在本发明一些实施例中,确定距离阈值d的方法为:
对各三维点云进行基于八叉树的点云降采样,并将八叉树叶子节点的边长置为阈值d。
在进行特定RGB-D图像的匹配时,对待检索RGB-D图像给定检索图像前名,对该图像进行真值计算,给定其真值图像前名。针对该图像,在基于层级式词汇森林的图像检索方法,在数据库中检索其匹配的图像;对检索出的该图像匹配图像,采用信息检索领域的一个常用统计指标,平均精度均值(mean average precision)实现RGB-D图像检索结果的精测评价。
本发明在TUM RGB-D数据集上选取了的两组数据进行测试,分别为rgbd_dataset_freiburg1_desk与rgbd_dataset_freiburg2_desk。在进行RGB-D图像检索时,分别从两组数量中随机挑选了77与58幅图像进行图像检索评测。在进行评测时,检索图像数量分别设置为10,20,……,100。并且我们将本发明的RGB-D图像检索方法与仅使用基于SIFT特征的层级式词汇树或仅使用FPFH特征的层级式词汇树的RGB-D图像检索方法进行了对比。在两组数据上的实验结果分别如图2及图3所示。
由实验结果可知,本发明的基于层级式词汇森林的RGB-D图像检索方法(SF-forest)可以有效利用彩色图像中的颜色信息与深度图像中的结构信息,其图像检索效果优于基于单一特征的层级式词汇树的方法(S-tree、F-tree),可以更为有效的实验RGB-D图像的检索。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种RGB-D图像检索方法,其特征在于,包括以下步骤:
对各幅RGB-D图像彩色图像提取SIFT纹理特征点,构建SIFT特征层级式词汇树,并计算基于SIFT特征层级式词汇树的图像相似度;
对各幅RGB-D图像深度图像提取FPFH结构特征点,构建FPFH特征层级式词汇树,并计算基于FPFH特征层级式词汇树的图像相似度;
通过基于SIFT特征层级式词汇树与基于FPFH特征层级式词汇树的相似度计算RGB-D图像对的相似度,基于RGB-D图像对的相似度实现RGB-D图像的检索;
进行图像检索后,对检索精度进行评价,评价方法包括:
计算RGB-D图像检索真值,基于两幅图像的相似性评价指标及RGB-D图像检索真值评价图像检索精度;
计算所述检索真值的方法为:
基于相机内参数及外参数进行深度图像反投影,生成三维点云,并基于三维点云的重合度计算获取RGB-D图像检索真值;
确定三维点云的方法为将图像点变换至世界坐标系下:
其中,Xi表示变换至世界坐标系下的三维点云集合,s表示深度图像尺度因子,Ki表示相机内参矩阵,Ri表示旋转矩阵,ti表示平移向量,Di(u,v)表示深度图像,T表示矩阵转置;
计算三维点云重合度的方法为:
设定距离阈值d;
对于三维点云Xi中的每一个三维点xi,k,在三维点云Xj中搜索其最近点,计算对应的最近距离
对于三维点云Xj中的每一个三维点xj,k,在三维点云Xi中搜索其最近点,计算对应的最近距离
对三维点云Xi中的每一个三维点xi,k获得距离集合对三维点云Xj中的每一个三维点xj,k获得距离集合/>
统计距离集合中小于距离阈值d所占整个集合的比例A(d),统计距离集合中小于距离阈值d所占整个集合的比例B(d):
计算三维点云重合度C(d):
2.如权利要求1所述的RGB-D图像检索方法,其特征在于,计算RGB-D图像对的相似度的方法包括:计算RGB-D图像对的相似性得分,所述相似性得分的计算方法包括:
基于SIFT特征层级式词汇树及FPFH特征层级式词汇树获取各幅RGB-D图像基于SIFT特征检索向量与基于FPFH特征的检索向量其中,/>为彩色图像基于SIFT特征的检索向量,/>为深度图像基于FPFH特征的检索向量,i表示选定的RGB-D图像序号,R表示实数空间,n为检索向量维数,N为RGB-D图像的总数;
基于所述检索向量获取各对RGB-D图像基于SIFT特征层级式词汇树的相似性得分;基于所述检索向量获取各对RGB-D图像基于FPFH特征层级式词汇树的相似性得分:
其中,表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;
表示图像i与图像j基于SIFT特征的层级式词汇树的相似性得分,/>表示图像i与图像j基于FPFH特征的层级式词汇树的相似性得分。
3.如权利要求1或2所述的RGB-D图像检索方法,其特征在于,所述方法进一步包括:
进一步计算结合SIFT特征层级式词汇树的相似度和FPFH特征层级式词汇树的相似度二者的几何平均数,将所述几何平均数作为RGB-D图像对的相似度得分。
4.如权利要求3所述的RGB-D图像检索方法,其特征在于,计算所述几何平均数的方法为:
5.如权利要求1所述的RGB-D图像检索方法,其特征在于,确定距离阈值d的方法为:
对各三维点云进行基于八叉树的点云降采样,并将八叉树叶子节点的边长置为阈值d。
CN202010691431.2A 2020-07-17 2020-07-17 Rgb-d图像检索方法 Active CN111797268B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010691431.2A CN111797268B (zh) 2020-07-17 2020-07-17 Rgb-d图像检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010691431.2A CN111797268B (zh) 2020-07-17 2020-07-17 Rgb-d图像检索方法

Publications (2)

Publication Number Publication Date
CN111797268A CN111797268A (zh) 2020-10-20
CN111797268B true CN111797268B (zh) 2023-12-26

Family

ID=72807616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010691431.2A Active CN111797268B (zh) 2020-07-17 2020-07-17 Rgb-d图像检索方法

Country Status (1)

Country Link
CN (1) CN111797268B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020111A (zh) * 2012-10-29 2013-04-03 苏州大学 基于词汇树层次语义模型的图像检索方法
CN106529394A (zh) * 2016-09-19 2017-03-22 广东工业大学 一种室内场景物体同时识别与建模方法
CN106651926A (zh) * 2016-12-28 2017-05-10 华东师范大学 一种基于区域配准的深度点云三维重建方法
CN106683125A (zh) * 2017-01-11 2017-05-17 中国矿业大学 一种基于2d/3d模态切换的rgb‑d图像配准方法
CN106844733A (zh) * 2017-02-13 2017-06-13 哈尔滨理工大学 基于词汇树信息融合与豪斯多夫距离结合的图像检索方法
CN108829826A (zh) * 2018-06-14 2018-11-16 清华大学深圳研究生院 一种基于深度学习和语义分割的图像检索方法
CN108959379A (zh) * 2018-05-29 2018-12-07 昆明理工大学 一种基于视觉显著区域和手绘草图的服装图像检索方法
CN110110119A (zh) * 2018-01-31 2019-08-09 株式会社理光 图像检索的方法、装置及计算机可读存储介质
CN110458175A (zh) * 2019-07-08 2019-11-15 中国地质大学(武汉) 一种基于词汇树检索的无人机影像匹配对选择方法及系统
CN110543871A (zh) * 2018-09-05 2019-12-06 天目爱视(北京)科技有限公司 基于点云的3d比对测量方法
CN111009005A (zh) * 2019-11-27 2020-04-14 天津大学 几何信息与光度信息相结合的场景分类点云粗配准方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104933755B (zh) * 2014-03-18 2017-11-28 华为技术有限公司 一种静态物体重建方法和系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020111A (zh) * 2012-10-29 2013-04-03 苏州大学 基于词汇树层次语义模型的图像检索方法
CN106529394A (zh) * 2016-09-19 2017-03-22 广东工业大学 一种室内场景物体同时识别与建模方法
CN106651926A (zh) * 2016-12-28 2017-05-10 华东师范大学 一种基于区域配准的深度点云三维重建方法
CN106683125A (zh) * 2017-01-11 2017-05-17 中国矿业大学 一种基于2d/3d模态切换的rgb‑d图像配准方法
CN106844733A (zh) * 2017-02-13 2017-06-13 哈尔滨理工大学 基于词汇树信息融合与豪斯多夫距离结合的图像检索方法
CN110110119A (zh) * 2018-01-31 2019-08-09 株式会社理光 图像检索的方法、装置及计算机可读存储介质
CN108959379A (zh) * 2018-05-29 2018-12-07 昆明理工大学 一种基于视觉显著区域和手绘草图的服装图像检索方法
CN108829826A (zh) * 2018-06-14 2018-11-16 清华大学深圳研究生院 一种基于深度学习和语义分割的图像检索方法
CN110543871A (zh) * 2018-09-05 2019-12-06 天目爱视(北京)科技有限公司 基于点云的3d比对测量方法
CN110458175A (zh) * 2019-07-08 2019-11-15 中国地质大学(武汉) 一种基于词汇树检索的无人机影像匹配对选择方法及系统
CN111009005A (zh) * 2019-11-27 2020-04-14 天津大学 几何信息与光度信息相结合的场景分类点云粗配准方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Image-Guided Registration of Unordered Terrestrial Laser Scanning Point Clouds for Urban Scenes;Xuming Ge;《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》;第57卷(第11期);第1-13页 *
基于多视图融合的闭环检测技术研究;刘阔等;《河北工业大学学报》;第47卷(第5期);第1-7页 *

Also Published As

Publication number Publication date
CN111797268A (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
Doumanoglou et al. Recovering 6D object pose and predicting next-best-view in the crowd
Wang et al. Sketch-based 3d shape retrieval using convolutional neural networks
Wells III Statistical approaches to feature-based object recognition
WO2019157924A1 (zh) 三维物体的实时检测方法及系统
CN102236794B (zh) 3d场景中3d对象的识别和姿态确定
CN110069656B (zh) 一种基于生成对抗网络的二维图片检索三维模型的方法
Wilson et al. Pattern vectors from algebraic graph theory
CN111625667A (zh) 一种基于复杂背景图像的三维模型跨域检索方法及系统
CN105320764B (zh) 一种基于增量慢特征的3d模型检索方法及其检索装置
CN106844620B (zh) 一种基于视图的特征匹配三维模型检索方法
CN111078916A (zh) 一种基于多层次特征对齐网络的跨域三维模型检索方法
CN106611030A (zh) 基于视频的对象相似度比较方法和检索方法及其系统
CN111354076A (zh) 一种基于嵌入空间的单幅图像三维零件组合式建模方法
Su et al. 3d-assisted image feature synthesis for novel views of an object
CN111597367B (zh) 基于视图和哈希算法的三维模型检索方法
CN111339342B (zh) 一种基于角度三元中心损失的三维模型检索方法
CN112329662A (zh) 基于无监督学习的多视角显著性估计方法
CN117312594A (zh) 一种融合双尺度特征的草图化机械零件库检索方法
CN111797268B (zh) Rgb-d图像检索方法
Cao et al. Stable image matching for 3D reconstruction in outdoor
CN109740405B (zh) 一种非对齐相似车辆前窗差异信息检测方法
Bouksim et al. New approach for 3D Mesh Retrieval using data envelopment analysis
Cailliere et al. 3D mirror symmetry detection using Hough transform
Xiang et al. Delightlcd: a deep and lightweight network for loop closure detection in lidar slam
Guan et al. View-based 3D model retrieval by joint subgraph learning and matching

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant