CN111797268B - Rgb-d图像检索方法 - Google Patents
Rgb-d图像检索方法 Download PDFInfo
- Publication number
- CN111797268B CN111797268B CN202010691431.2A CN202010691431A CN111797268B CN 111797268 B CN111797268 B CN 111797268B CN 202010691431 A CN202010691431 A CN 202010691431A CN 111797268 B CN111797268 B CN 111797268B
- Authority
- CN
- China
- Prior art keywords
- image
- rgb
- retrieval
- similarity
- dimensional point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 239000013598 vector Substances 0.000 claims description 40
- 238000011156 evaluation Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000002243 precursor Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种RGB‑D图像检索方法,包括以下步骤:对各幅RGB‑D图像彩色图像提取SIFT纹理特征点,构建SIFT特征层级式词汇树,并计算基于SIFT特征层级式词汇树的图像相似度;对各幅RGB‑D图像深度图像提取FPFH结构特征点,构建FPFH特征层级式词汇树,并计算基于FPFH特征层级式词汇树的图像相似度;通过基于SIFT特征层级式词汇树与基于FPFH特征层级式词汇树的相似度计算RGB‑D图像对的相似度得分,实现RGB‑D图像的检索。本发明通过分别对彩色图像SIFT特征与深度图像FPFH特征进行层级式聚类,构建融合了纹理与结构信息的层级式词汇森林,用于实现面向场景建模的RGB‑D图像检索。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种RGB-D图像检索方法。
背景技术
在基于图像的场景建模流程中,需要通过提取、匹配图像局部特征以获取图像对之间的对应关系。然而,对大规模场景而言,具有公共可见区域的图像对仅占全体图像对中极小部分。因此,对所有图像进行两两匹配效率过低且无必要。
针对这一问题,现有方法通常采用基于词袋(bag of words)模型的图像检索方式获取各图像的候选匹配图像,并仅对各图像与其候选匹配图像进行特征匹配。上述方式可在不明显降低匹配效果的同时极大提升匹配效率。
RGB-D成像技术发展迅速并诞生了许多代表性产品,如Kinect、RealSense等。相比于传统彩色图像,除场景纹理信息外,RGB-D图像还可以提供场景结构信息,因此广泛运用于如室内场景等结构复杂、纹理缺乏的场景建模领域。
评价图像检索精度用于评价图像匹配的算法的稳定性,目前主要有两种真值给定方式,第一种是人为给定,这种方式需要大量的人工操作,自动化程度低,第二种是根据相机位姿计算,这种方式无法有效利用图像信息,可靠性较差。
发明内容
本发明的目的在于提供一种RGB-D图像检索方法。
为实现上述目的,本发明采用的技术方案是:
一种RGB-D图像检索方法,包括以下步骤:
对各幅RGB-D图像彩色图像提取SIFT纹理特征点,构建SIFT特征层级式词汇树,并计算基于SIFT特征层级式词汇树的图像相似度;
对各幅RGB-D图像深度图像提取FPFH结构特征点,构建FPFH特征层级式词汇树,并计算基于FPFH特征层级式词汇树的图像相似度;
通过基于SIFT特征层级式词汇树与基于FPFH特征层级式词汇树的相似度计算RGB-D图像对的相似度,基于RGB-D图像对的相似度实现RGB-D图像的检索。
在本发明一些实施例中,计算RGB-D图像对的相似度的方法包括:计算RGB-D图像对的相似性得分,所述相似性得分的计算方法包括:
基于SIFT特征层级式词汇树及FPFH特征层级式词汇树获取各幅RGB-D图像基于SIFT特征检索向量与基于FPFH特征的检索向量其中,/>为彩色图像基于SIFT特征的检索向量,/>为深度图像基于FPFH特征的检索向量,i表示选定的RGB-D图像序号,/>表示实数空间,n为检索向量维数,N为RGB-D图像的总数;
基于所述检索向量获取各对RGB-D图像基于SIFT特征层级式词汇树的相似性得分;基于所述检索向量获取各对RGB-D图像基于FPFH特征层级式词汇树的相似性得分:
其中,表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;/>表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;
表示图像i与图像j基于SIFT特征的层级式词汇树的相似性得分,/>表示图像i与图像j基于FPFH特征的层级式词汇树的相似性得分。
在本发明一些实施例中,所述方法进一步包括:
进一步计算结合SIFT特征层级式词汇树的相似度和FPFH特征层级式词汇树的相似度二者的几何平均数,将所述几何平均数作为RGB-D图像对的相似度得分。
在本发明一些实施例中,计算所述几何平均数的方法为:
在本发明一些实施例中,所述检索方法进一步包括:进行图像检索后,对检索精度进行评价,评价方法包括:
计算RGB-D图像检索真值,基于两幅图像的相似性评价指标及RGB-D图像检索真值评价图像检索精度。
在本发明一些实施例中,计算所述检索真值的方法为:
基于相机内参数及外参数进行深度图像反投影,生成三维点云,并基于三维点云的重合度计算获取RGB-D图像检索真值。
在本发明一些实施例中,确定三维点云的方法为将图像点变换至世界坐标系下:
其中,Xi表示变换至世界坐标系下的三维点云集合,s表示深度图像尺度因子,Ki表示相机内参矩阵,Ri表示旋转矩阵,ti表示平移向量,Di(u,v)表示深度图像,T表示矩阵转置。
在本发明一些实施例中,计算三维点云重合度的方法为:
设定距离阈值d;
对于三维点云Xi中的每一个三维点xi,k,在三维点云Xj中搜索其最近点,计算对应的最近距离
对于三维点云Xj中的每一个三维点xj,k,在三维点云Xi中搜索其最近点,计算对应的最近距离
对三维点云Xi中的每一个三维点xi,k获得距离集合对三维点云Xj中的每一个三维点xj,k获得距离集合/>
统计距离集合中小于距离阈值d所占整个集合的比例A(d),统计距离集合/>中小于距离阈值d所占整个集合的比例B(d):
计算三维点云重合度C(d):
在本发明一些实施例中,确定距离阈值d的方法为:
对各三维点云进行基于八叉树的点云降采样,并将八叉树叶子节点的边长置为阈值d。
与现有技术相比,本发明提供的RGB-D图像匹配方法的有益效果在于:
本发明针对RGB-D图像检索问题,通过分别对彩色图像SIFT特征与深度图像FPFH特征进行层级式聚类,构建融合了纹理与结构信息的层级式词汇森林,用于实现面向场景建模的RGB-D图像检索。
本发明还通过利用给定的相机参数反投深度图像获取点云,进而精确计算图像对之间的场景重合度,以衡量RGB-D图像对之间的相似程度,用于实现RGB-D图像检索的精度评价。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为RGB-D图像匹配方法流程图;
图2为rgbd_dataset_freiburg1_desk数据的RGB-D图像检索对比图;
图3为rgbd_dataset_freiburg2_desk数据的RGB-D图像检索对比图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种图像检索方法,具体为一种用于RGB-D图像检索方法。RGB-D图像包括色彩图像和深度图形,该方法利用图像的色彩图像的颜色信息和深度图像的结构信息,检索匹配图像,并可进一步评价图像的检索与精度,为一种高效、精确的图像检索方法。
RGB-D图像匹配检索实际基于RGB-D图像的集合。集合中,包括多幅RGB-D图像。检索方法可针对某一RGB-D图像,在图像集合中检索其匹配图像,也可以针对图像集合中的所有图像,生成检索匹配结果。
一种RGB-D图像检索方法,流程参考图1,包括以下步骤:
S1:对各幅RGB-D图像彩色图像提取SIFT纹理特征点,构建SIFT特征层级式词汇树,并计算基于SIFT特征层级式词汇树的图像相似度。
具体的,对于各幅RGB-D图像的彩色图像,首先利用OpenCV库提取SIFT特征,然后将提取的SIFT特征导入DBoW库中,构建基于SIFT特征的层级式词汇树。
S2:对各幅RGB-D图像深度图像提取FPFH结构特征点,构建FPFH特征层级式词汇树,并计算基于FPFH特征层级式词汇树的图像相似度。
具体的,对于各幅RGB-D图像的深度图像,利用Open3D库,首先根据已知的相机内参数和外参数进行反投影操作,生成对应的三维点云,然后通过构建八叉树及局部平面拟合对点云进行降采样与法向估计,进而提取FPFH特征。在此基础上,将提取的FPFH特征导入DBoW库中,构建基于FPFH特征的层级式词汇树。
SIFT特征层级式词汇树和PFH特征的层级式词汇树构成词汇森林。
S3:通过基于SIFT特征层级式词汇树与基于FPFH特征层级式词汇树的相似度计算RGB-D图像对的相似度,基于RGB-D图像对的相似度实现RGB-D图像的检索。
在本发明一些实施例中,计算RGB-D图像对的相似度的方法包括:计算RGB-D图像对的相似性得分,所述相似性得分的计算方法包括:
在分别构建完成基于SIFT特征层级式词汇树与FPFH特征的层级式词汇树后,基于词频-逆文档频率(term frequency-inverse document frequency)原理,可计算获得检索向量。
具体的,基于SIFT特征层级式词汇树及FPFH特征层级式词汇树获取各幅RGB-D图像基于SIFT特征检索向量与基于FPFH特征的检索向量其中,/>为基于SIFT特征的检索向量,/>为基于FPFH特征的检索向量,i表示选定的RGB-D图像,/>表示实数空间,n为检索向量维数,N为RGB-D图像的总数,即RGB-D图像的集合中图像的数量。
基于所述检索向量获取各对RGB-D图像基于SIFT特征层级式词汇树的相似性得分;基于所述检索向量获取各对RGB-D图像基于FPFH特征层级式词汇树的相似性得分;
其中,表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;/>表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;
表示图像i与图像j基于SIFT特征的层级式词汇树的相似性得分,/>表示图像i与图像j基于FPFH特征的层级式词汇树的相似性得分;
基于相应的相似性得分作为相似性评价指标,判定相应的相似度。可以理解,对任意两幅RGB-D图像,均可获得上述两个相似性得分,相似性得分越高,则表明两幅图像的相似性越高。
更进一步的,在本发明一些实施例中,所述方法进一步包括:
由于对于每一幅RGB-D图像,都存在SIFT特征层级式词汇树的相似性得分和FPFH特征层级式词汇树的相似性得分两个相似性得分,在某些情况下,对于任意两幅RGB-D图像,两个得分的相似性趋势可能并不相同,为了进一步提高比较的可行性,有效融合基于SIFT特征的词汇树中的纹理信息与基于FPFH特征中的结构信息,实现RGB-D图像的有效检索,进一步计算结合SIFT特征层级式词汇树的相似度和FPFH特征层级式词汇树的相似度二者的几何平均数,将所述几何平均数作为相似性评价指标。
计算几何平均数的方法为:
可以理解,对于任意两幅RGB-D图像,将几何平均数作为RGB-D图像对的相似度得分,几何平均数的得分越高,表明两幅图像的相似性越高。
这样,对于任意一幅RGB-D图像,均可计算其与其他各幅图像之间的相似度,即可实现RGB-D图像的相似性检索。
S4:基于两幅图像之间的相似性评价指标评价匹配图像。
基于以上的采用相似度得分的方法,可以实现两幅图像的相似度检索匹配。更进一步的,所述匹配方法进一步包括:进行图像匹配后,对匹配精度进行评价。为了对检索结果的精度进行评价,在本发明一些实施例中,所述评价方法进一步结合图像的检索真值进行图像匹配度的评价,所述的评价方法进一步包括:
计算RGB-D图像检索真值,基于两幅图像的相似性评价指标及RGB-D图像检索真值评价图像匹配精度,通过检索真值,可给定各幅RGB-D图像与其他图像的相似度真值或者相似度排序。
在本发明一些实施例中,计算所述检索真值的方法为:
S5:基于相机内参数及外参数进行深度图像反投影,生成三维点云,并基于三维点云的重合度计算获取RGB-D图像检索真值。具体的,对第i幅RGB-D图像,将获得三维点云Xi,对第j幅RGB-D图像,将获得三维点云Xj。图像间的重合度值可准确衡量一对RGB-D图像之间的场景重合度,用作图像检索真值,辅助评价图像匹配方法的匹配效果。
在本发明一些实施例中,确定三维点云的方法为将图像点变换至世界坐标系下:
其中,Xi表示变换至世界坐标系下的三维点云集合,s表示深度图像尺度因子,Ki表示相机内参矩阵,Ri旋转矩阵及平移向量,ti表示深度图像。
在本发明一些实施例中,利用Open3D库,通过计算两幅RGB-D图像对应三维点云的重合度来评价他们的相似度,具体的,计算三维点云重合度的方法为:
设定距离阈值d;
对于三维点云Xi中的每一个三维点xi,k,在三维点云Xj中搜索其最近点,计算对应的最近距离
对于三维点云Xj中的每一个三维点xj,k,在三维点云Xi中搜索其最近点,计算对应的最近距离
对三维点云Xi中的每一个三维点xi,k获得距离集合对三维点云Xj中的每一个三维点xj,k获得距离集合/>
统计距离集合中小于距离阈值d所占整个集合的比例A(d),统计距离集合/>中小于距离阈值d所占整个集合的比例B(d):
计算三维点云重合度C(d):
在本发明一些实施例中,确定距离阈值d的方法为:
对各三维点云进行基于八叉树的点云降采样,并将八叉树叶子节点的边长置为阈值d。
在进行特定RGB-D图像的匹配时,对待检索RGB-D图像给定检索图像前名,对该图像进行真值计算,给定其真值图像前名。针对该图像,在基于层级式词汇森林的图像检索方法,在数据库中检索其匹配的图像;对检索出的该图像匹配图像,采用信息检索领域的一个常用统计指标,平均精度均值(mean average precision)实现RGB-D图像检索结果的精测评价。
本发明在TUM RGB-D数据集上选取了的两组数据进行测试,分别为rgbd_dataset_freiburg1_desk与rgbd_dataset_freiburg2_desk。在进行RGB-D图像检索时,分别从两组数量中随机挑选了77与58幅图像进行图像检索评测。在进行评测时,检索图像数量分别设置为10,20,……,100。并且我们将本发明的RGB-D图像检索方法与仅使用基于SIFT特征的层级式词汇树或仅使用FPFH特征的层级式词汇树的RGB-D图像检索方法进行了对比。在两组数据上的实验结果分别如图2及图3所示。
由实验结果可知,本发明的基于层级式词汇森林的RGB-D图像检索方法(SF-forest)可以有效利用彩色图像中的颜色信息与深度图像中的结构信息,其图像检索效果优于基于单一特征的层级式词汇树的方法(S-tree、F-tree),可以更为有效的实验RGB-D图像的检索。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种RGB-D图像检索方法,其特征在于,包括以下步骤:
对各幅RGB-D图像彩色图像提取SIFT纹理特征点,构建SIFT特征层级式词汇树,并计算基于SIFT特征层级式词汇树的图像相似度;
对各幅RGB-D图像深度图像提取FPFH结构特征点,构建FPFH特征层级式词汇树,并计算基于FPFH特征层级式词汇树的图像相似度;
通过基于SIFT特征层级式词汇树与基于FPFH特征层级式词汇树的相似度计算RGB-D图像对的相似度,基于RGB-D图像对的相似度实现RGB-D图像的检索;
进行图像检索后,对检索精度进行评价,评价方法包括:
计算RGB-D图像检索真值,基于两幅图像的相似性评价指标及RGB-D图像检索真值评价图像检索精度;
计算所述检索真值的方法为:
基于相机内参数及外参数进行深度图像反投影,生成三维点云,并基于三维点云的重合度计算获取RGB-D图像检索真值;
确定三维点云的方法为将图像点变换至世界坐标系下:
其中,Xi表示变换至世界坐标系下的三维点云集合,s表示深度图像尺度因子,Ki表示相机内参矩阵,Ri表示旋转矩阵,ti表示平移向量,Di(u,v)表示深度图像,T表示矩阵转置;
计算三维点云重合度的方法为:
设定距离阈值d;
对于三维点云Xi中的每一个三维点xi,k,在三维点云Xj中搜索其最近点,计算对应的最近距离
对于三维点云Xj中的每一个三维点xj,k,在三维点云Xi中搜索其最近点,计算对应的最近距离
对三维点云Xi中的每一个三维点xi,k获得距离集合对三维点云Xj中的每一个三维点xj,k获得距离集合/>
统计距离集合中小于距离阈值d所占整个集合的比例A(d),统计距离集合中小于距离阈值d所占整个集合的比例B(d):
计算三维点云重合度C(d):
2.如权利要求1所述的RGB-D图像检索方法,其特征在于,计算RGB-D图像对的相似度的方法包括:计算RGB-D图像对的相似性得分,所述相似性得分的计算方法包括:
基于SIFT特征层级式词汇树及FPFH特征层级式词汇树获取各幅RGB-D图像基于SIFT特征检索向量与基于FPFH特征的检索向量其中,/>为彩色图像基于SIFT特征的检索向量,/>为深度图像基于FPFH特征的检索向量,i表示选定的RGB-D图像序号,R表示实数空间,n为检索向量维数,N为RGB-D图像的总数;
基于所述检索向量获取各对RGB-D图像基于SIFT特征层级式词汇树的相似性得分;基于所述检索向量获取各对RGB-D图像基于FPFH特征层级式词汇树的相似性得分:
其中,表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;表示图像i检索向量/>的第k个元素,/>表示图像j检索向量/>的第k个元素;
表示图像i与图像j基于SIFT特征的层级式词汇树的相似性得分,/>表示图像i与图像j基于FPFH特征的层级式词汇树的相似性得分。
3.如权利要求1或2所述的RGB-D图像检索方法,其特征在于,所述方法进一步包括:
进一步计算结合SIFT特征层级式词汇树的相似度和FPFH特征层级式词汇树的相似度二者的几何平均数,将所述几何平均数作为RGB-D图像对的相似度得分。
4.如权利要求3所述的RGB-D图像检索方法,其特征在于,计算所述几何平均数的方法为:
5.如权利要求1所述的RGB-D图像检索方法,其特征在于,确定距离阈值d的方法为:
对各三维点云进行基于八叉树的点云降采样,并将八叉树叶子节点的边长置为阈值d。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010691431.2A CN111797268B (zh) | 2020-07-17 | 2020-07-17 | Rgb-d图像检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010691431.2A CN111797268B (zh) | 2020-07-17 | 2020-07-17 | Rgb-d图像检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111797268A CN111797268A (zh) | 2020-10-20 |
CN111797268B true CN111797268B (zh) | 2023-12-26 |
Family
ID=72807616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010691431.2A Active CN111797268B (zh) | 2020-07-17 | 2020-07-17 | Rgb-d图像检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111797268B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020111A (zh) * | 2012-10-29 | 2013-04-03 | 苏州大学 | 基于词汇树层次语义模型的图像检索方法 |
CN106529394A (zh) * | 2016-09-19 | 2017-03-22 | 广东工业大学 | 一种室内场景物体同时识别与建模方法 |
CN106651926A (zh) * | 2016-12-28 | 2017-05-10 | 华东师范大学 | 一种基于区域配准的深度点云三维重建方法 |
CN106683125A (zh) * | 2017-01-11 | 2017-05-17 | 中国矿业大学 | 一种基于2d/3d模态切换的rgb‑d图像配准方法 |
CN106844733A (zh) * | 2017-02-13 | 2017-06-13 | 哈尔滨理工大学 | 基于词汇树信息融合与豪斯多夫距离结合的图像检索方法 |
CN108829826A (zh) * | 2018-06-14 | 2018-11-16 | 清华大学深圳研究生院 | 一种基于深度学习和语义分割的图像检索方法 |
CN108959379A (zh) * | 2018-05-29 | 2018-12-07 | 昆明理工大学 | 一种基于视觉显著区域和手绘草图的服装图像检索方法 |
CN110110119A (zh) * | 2018-01-31 | 2019-08-09 | 株式会社理光 | 图像检索的方法、装置及计算机可读存储介质 |
CN110458175A (zh) * | 2019-07-08 | 2019-11-15 | 中国地质大学(武汉) | 一种基于词汇树检索的无人机影像匹配对选择方法及系统 |
CN110543871A (zh) * | 2018-09-05 | 2019-12-06 | 天目爱视(北京)科技有限公司 | 基于点云的3d比对测量方法 |
CN111009005A (zh) * | 2019-11-27 | 2020-04-14 | 天津大学 | 几何信息与光度信息相结合的场景分类点云粗配准方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933755B (zh) * | 2014-03-18 | 2017-11-28 | 华为技术有限公司 | 一种静态物体重建方法和系统 |
-
2020
- 2020-07-17 CN CN202010691431.2A patent/CN111797268B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020111A (zh) * | 2012-10-29 | 2013-04-03 | 苏州大学 | 基于词汇树层次语义模型的图像检索方法 |
CN106529394A (zh) * | 2016-09-19 | 2017-03-22 | 广东工业大学 | 一种室内场景物体同时识别与建模方法 |
CN106651926A (zh) * | 2016-12-28 | 2017-05-10 | 华东师范大学 | 一种基于区域配准的深度点云三维重建方法 |
CN106683125A (zh) * | 2017-01-11 | 2017-05-17 | 中国矿业大学 | 一种基于2d/3d模态切换的rgb‑d图像配准方法 |
CN106844733A (zh) * | 2017-02-13 | 2017-06-13 | 哈尔滨理工大学 | 基于词汇树信息融合与豪斯多夫距离结合的图像检索方法 |
CN110110119A (zh) * | 2018-01-31 | 2019-08-09 | 株式会社理光 | 图像检索的方法、装置及计算机可读存储介质 |
CN108959379A (zh) * | 2018-05-29 | 2018-12-07 | 昆明理工大学 | 一种基于视觉显著区域和手绘草图的服装图像检索方法 |
CN108829826A (zh) * | 2018-06-14 | 2018-11-16 | 清华大学深圳研究生院 | 一种基于深度学习和语义分割的图像检索方法 |
CN110543871A (zh) * | 2018-09-05 | 2019-12-06 | 天目爱视(北京)科技有限公司 | 基于点云的3d比对测量方法 |
CN110458175A (zh) * | 2019-07-08 | 2019-11-15 | 中国地质大学(武汉) | 一种基于词汇树检索的无人机影像匹配对选择方法及系统 |
CN111009005A (zh) * | 2019-11-27 | 2020-04-14 | 天津大学 | 几何信息与光度信息相结合的场景分类点云粗配准方法 |
Non-Patent Citations (2)
Title |
---|
Image-Guided Registration of Unordered Terrestrial Laser Scanning Point Clouds for Urban Scenes;Xuming Ge;《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》;第57卷(第11期);第1-13页 * |
基于多视图融合的闭环检测技术研究;刘阔等;《河北工业大学学报》;第47卷(第5期);第1-7页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111797268A (zh) | 2020-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Doumanoglou et al. | Recovering 6D object pose and predicting next-best-view in the crowd | |
Wang et al. | Sketch-based 3d shape retrieval using convolutional neural networks | |
Wells III | Statistical approaches to feature-based object recognition | |
WO2019157924A1 (zh) | 三维物体的实时检测方法及系统 | |
CN102236794B (zh) | 3d场景中3d对象的识别和姿态确定 | |
CN110069656B (zh) | 一种基于生成对抗网络的二维图片检索三维模型的方法 | |
Wilson et al. | Pattern vectors from algebraic graph theory | |
CN111625667A (zh) | 一种基于复杂背景图像的三维模型跨域检索方法及系统 | |
CN105320764B (zh) | 一种基于增量慢特征的3d模型检索方法及其检索装置 | |
CN106844620B (zh) | 一种基于视图的特征匹配三维模型检索方法 | |
CN111078916A (zh) | 一种基于多层次特征对齐网络的跨域三维模型检索方法 | |
CN106611030A (zh) | 基于视频的对象相似度比较方法和检索方法及其系统 | |
CN111354076A (zh) | 一种基于嵌入空间的单幅图像三维零件组合式建模方法 | |
Su et al. | 3d-assisted image feature synthesis for novel views of an object | |
CN111597367B (zh) | 基于视图和哈希算法的三维模型检索方法 | |
CN111339342B (zh) | 一种基于角度三元中心损失的三维模型检索方法 | |
CN112329662A (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN117312594A (zh) | 一种融合双尺度特征的草图化机械零件库检索方法 | |
CN111797268B (zh) | Rgb-d图像检索方法 | |
Cao et al. | Stable image matching for 3D reconstruction in outdoor | |
CN109740405B (zh) | 一种非对齐相似车辆前窗差异信息检测方法 | |
Bouksim et al. | New approach for 3D Mesh Retrieval using data envelopment analysis | |
Cailliere et al. | 3D mirror symmetry detection using Hough transform | |
Xiang et al. | Delightlcd: a deep and lightweight network for loop closure detection in lidar slam | |
Guan et al. | View-based 3D model retrieval by joint subgraph learning and matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |