CN106547867B - 图像检索中基于密度的几何校验方法 - Google Patents

图像检索中基于密度的几何校验方法 Download PDF

Info

Publication number
CN106547867B
CN106547867B CN201610936735.4A CN201610936735A CN106547867B CN 106547867 B CN106547867 B CN 106547867B CN 201610936735 A CN201610936735 A CN 201610936735A CN 106547867 B CN106547867 B CN 106547867B
Authority
CN
China
Prior art keywords
matching
density
images
pair
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610936735.4A
Other languages
English (en)
Other versions
CN106547867A (zh
Inventor
吴洪
衡星
郑德练
徐增林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201610936735.4A priority Critical patent/CN106547867B/zh
Publication of CN106547867A publication Critical patent/CN106547867A/zh
Application granted granted Critical
Publication of CN106547867B publication Critical patent/CN106547867B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Library & Information Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种图像匹配中基于密度的几何校验方法,包括步骤:1)产生2幅图像的候选特征匹配对集合;2)对候选特征匹配对集合中每个匹配对,估计其在霍夫空间的概率密度,并将该匹配对的概率密度作为它匹配得分的权重因子;3)累加特征匹配对集合中所有特征匹配对的匹配得分得到图像间的匹配得分,作为2幅图像间的相似度。本发明给位于霍夫空间中密度较大区域的匹配对赋予较大的权重,位于密度较小的区域的赋予较小的权重,来反映匹配对正确的可能性,能够处理多模型的匹配,在保留了霍夫投票方法高效率优点的同时,带来了更大的灵活性。

Description

图像检索中基于密度的几何校验方法
技术领域
本发明涉及图像处理技术。
技术背景
在过去的几十年中,图像检索受到了越来越多的关注。自从2003年,词袋BoW(Bagof Words)模型被引入图像检索以来,由于该模型的效率和有效性,使它成为当前最流行的图像检索模型。在BoW模型中,先从图像中提取出局部特征,比如尺度不变特征变换SIFT(Scale-Invariant Feature Transform)特征,然后根据视觉词典把局部特征描述子量化成视觉单词,这种视觉词典是事先通过对训练用的大量局部特征描述子聚类而形成的。这样,图像就可以用视觉单词的频率直方图来表示。在检索阶段,对数据库图像根据它与查询图像直方图表示间的相似性度量进行排序。
研究表明基于BoW的图像检索方法本质上是一种基于近似特征匹配的投票方法。具体地说,如果一个查询图像的特征和一个数据库图像的特征属于同一个视觉单词,它们就被认为匹配,最后把匹配对的总数通过除以两幅图像特征数的乘积来归一化,得到两幅图像的相似度(对应于BoW模型中采用向量点积计算相似度)。BoW避免了逐对评估特征描述子间的相似性,因而这种匹配方法有很高的效率,可以用于大规模图像检索中。但是这种基于视觉单词的匹配方法的一个主要缺点是它忽略了局部特征间的空间关系,从而制约了它的检索精度。为了解决这个问题,研究者提出几何校验的方法,它通过检验查询图像和数据库图像间特征匹配的几何一致性来去除错误的匹配。考虑到检索的效率,几何校验往往用于对初始检索结果的前N幅图像进行重排序。
通过匹配两幅图像的局部特征可以衡量两幅图像间的相似性,局部特征间的匹配往往是通过它们描述子间的相似性或距离来衡量,基于视觉单词的匹配方法近似地完成这样的匹配。由于局部特征的歧义性以及存在来自杂乱背景的局部特征,这种匹配方法会产生很多错误匹配。一个解决的途径就是对上述方法产生的候选匹配进行几何一致性的校验,去除与其它匹配不一致的匹配,也就是一些奇异点。一个经典的几何校验方法是随机抽样一致性算法RANSAC(Random Sample Consensus),它通过迭代来搜索拥有最多内点(inlier)的图像变换模型来进行几何校验。但是RANSAC方法计算复杂度非常高,并且在内点的比例小于50%的时候表现很差。Philbin等人使用基于RANSAC的方法去估计一个仿射变化,其中可以通过一个局部特征匹配对得到一个有限自由度的仿射变换假设。匹配就变成了通过枚举所有的假设来决定。但是这种方法的时间复杂度也是匹配对数量的二次方。
和RANSAC方法不同,霍夫投票法对图像变换模型的参数空间(霍夫空间)用均匀的网格进行划分,根据拥有最多匹配对的格子得到图像的变换模型。每个局部特征点有四个参数,分别是二维位置坐标、尺度、方向,因此每个匹配对的两个局部特征的四个参数的差就可以作为相似变换(Similarity Transform)的参数:平移、尺度变化、旋转,从而作为这个4维的霍夫空间中的一个投票。
为了适应大规模图像检索的要求,弱几何一致WGC(Weak GeometricConsistency)方法被提了出来。WGC假设正确匹配对具有相似的尺度和旋转变换参数,分别在尺度和角度的空间中构造直方图,以它们峰值的较小者作为正确的匹配数来衡量图像间的相似度,这种方法可以看成霍夫投票法的一种为提高效率进行的改进。后续有很多工作对WGC进行了扩展。为了进一步利用平移参数,增强的弱几何校验方法E-WGC使用平移参数的L2范数的直方图的峰值对图像进行重排序。在现有基于霍夫投票的方法中,均只选择拥有匹配对最多的网格中的匹配对作为正确匹配对,排除其他网格中的匹配对,这样能够提高检索效率。
基于RANSAC的方法和基于霍夫投票的方法都假设两幅图像间的存在一个全局的变换模型,但这个假设太强了。实际上,一幅图像中的场景或目标可能包括多个平面甚至非平面,因此两幅图像间的变换往往存在多模型(multi-model)的情况。虽然前人提出了不少用于多模型的模型估计的方法,比如:Sequential RANSAC、Multi-RANSAC、J-linkage和mean-shift等。但是这些方法都比较耗时,不适合应用于图像检索中。
近年来出现的HPM(Hough Pyramid Matching)方法通过对霍夫空间进行金字塔式划分,在同一个网格中的匹配被认为是邻近的,或一致的。网格的大小就反映了邻近的程度。并把匹配的近邻数作为该匹配的得分,用所有匹配得分的和来度量图像间的相似性。为保证特征点之间满足一对一映射的原则,该方法采用了一种激进的策略来去除多重匹配,但这会去除一些正确的匹配从而影响匹配的精度。另外,该方法把多重匹配去除和匹配得分的累计过程耦合在一起,从而影响算法的灵活性和效率。更重要的,该方法没有以概率密度的观点来考虑匹配的近邻关系,从而制约了该方法的灵活性和通用性。
发明内容
本发明所要解决的技术问题是,为图像检索提供一种支持多模型匹配的高效的几何校验方法。
本发明为解决上述技术问题所采用的技术方案是,图像匹配中基于密度的几何校验方法,包括以下步骤:
1)产生2幅图像的候选特征匹配对集合;
2)对候选特征匹配对集合中每个匹配对,估计其在霍夫空间的概率密度,并将该匹配对的概率密度作为它匹配得分的权重因子;
3)累加特征匹配对集合中所有特征匹配对的匹配得分得到图像间的匹配得分,作为2幅图像间的相似度。
与传统的几何校验的方法不同,本发明并不直接去除可能错误的匹配对,而给位于霍夫空间中密度较大区域的匹配对赋予较大的权重,位于密度较小的区域的赋予较小的权重,来反映匹配对正确的可能性。和之前基于霍夫投票的方法用霍夫空间中密度最大的网格来估计一个全局的变换模型不同,本发明允许多个变换模型或一个模型的多个示例存在。这样,也就允许多侧面或者多物体的匹配,能反映图像间目标的多种几何变换。本发明方法和HPM方法相比,把多重匹配去除和匹配得分累计分割开来,而不是耦合在一起,使框架更灵活,方便不同多重匹配去除或其它轻量级的错误匹配去除方法的采用。另外,我们首次明确地把概率密度作为匹配的权重得分,这样就可以尝试采用不同的概率密度估计方法。同时,我们的发明也是一种更通用的方法,之前的很多方法可以看出它的特例,例如:基于霍夫投票的方法可以看成采用基于直方图密度估计以及采用赢者通吃的权重计算方法,而HPM可以大致看成是采用多分辨率的直方图密度估计。
本发明的有益之处是,能够处理多模型的匹配(multi-model matching),在保留了霍夫投票方法高效率优点的同时,带来了更大的灵活性。
具体实施方式
先介绍基于视觉单词的特征匹配。给定一幅图像中的一个局部特征i和另一幅图像中的一个局部特征j,基于视觉单词的特征匹配函数如下:
Figure BDA0001139275520000031
其中,q(i)和q(j)代表这两个局部特征对应的视觉单词,即当两个特征属于同一个视觉单词时认为它们匹配。如果采用了汉明嵌入(Hamming Embedding),这特征匹配函数变为:
Figure BDA0001139275520000032
其中,b(i)和b(j)代表这两个局部特征对应的汉明编码,也就是两个特征匹配不但要求它们的对应的视觉单词相同,而且要求它们的汉明编码的距离足够小,即小于阈值τh。把上述特征匹配函数作为特征对的匹配得分s(i,j)。然后,累计所有特征对的匹配得分就得到两幅图像的匹配得分:
Figure BDA0001139275520000041
其中,L表示第一幅图像中的局部特征数量,M表示第二幅图像中的局部特征数量,把这种图像匹配方法用于图像检索就等价于BoW模型。这种方法忽略了局部特征间的关系,会产生很多错误的匹配,导致图像匹配的精度不高。
基于霍夫投票的几何校验,不仅要求匹配的两个特征在描述子上相近,而且所有正确的匹配对应一个相同或相近的变换参数。这时,两幅图像的匹配得分为:
Figure BDA0001139275520000042
其中,θ(i,j)是匹配对(i,j)对应的变换参数,B(k)是霍夫空间中包含匹配对数最多的网格。霍夫投票法有一个很强的假设就是,所有正确匹配都服从一个相同或相近的几何变换。这个假设往往不符合实际情况的,因为不同的目标或同一目标的不同侧面在两幅图像间可能遵循不同的几何变换。
本发明先用基于视觉单词的匹配方法(如公式(1)或(2))产生出两幅图像的候选特征匹配对集合,但其中往往存在很多错误的匹配对,不利于后续的密度估计,可以先通过一种轻量级的方法去除一些错误匹配。由于图像匹配往往要求一幅图像中的一个特征点与另一幅图像中的一个特征点进行一对一映射,因此在去除错误匹配时可以利用一对一映射约束,这种方法被称为多重匹配去除。在通过多重匹配去除去掉部分错误匹配后,在霍夫空间中为对应每个匹配对的点进行密度估计。然后,把概率密度作为每个匹配对得分的一个权重因子。最后,累计所有匹配对的得分得到两幅图像的匹配得分,并作为它们间的相似性度量。
本发明利用每个匹配对在霍夫空间的概率密度给匹配对得分进行加权,然后累计加权后的得分得到两幅图像之间的匹配得分。基于密度的权值wdb(i,j)计算如下
wdb(i,j)=p(θ(i,j))
其中p(θ(i,j))是匹配对(i,j)在霍夫空间中的概率密度。这时,一个匹配对的得分为
s(i,j)=wdb(i,j)*f(i,j)
这个匹配得分不仅反映两个局部特征匹配的好坏,也反映了它们的变换参数和其它匹配对的变换参数一致程度。
在采用汉明编码的情况下,还可以进一步结合汉明加权方法,得到
s(i,j)=wdb(i,j)*whe(i,j)*f(i,j)
其中whe(i,j)为汉明加权函数,反映两个特征汉明编码的相似性。
基于密度的几何校验方法的具体步骤为:
S1:两幅需要计算相似度的图像,首先提取局部特征,如SIFT、SURF等。根据特征和已经训练好的字典,使用基于视觉单词的匹配方法进行特征点的匹配,得到候选匹配对集合。同时,计算每个匹配对对应的变换参数。基于视觉单词生成候选匹配对是目前图像检索领域常用的候选匹配对生成方法,本发明不限于此。
S2:使用多重匹配去除方法对得到的候选匹配对集合进行处理,去除一些可能错误的匹配得到满足一对一映射约束下的匹配对集合。多重匹配去除用于候选匹配对集合中存在较多错误匹配对的情况。当所采用的方法能生成错误匹配对较少的候选匹配对集合时,不进行多重匹配去除直接进行步骤S3也能达到本发明所声称的技术效果。
S3:使用概率密度估计方法计算匹配对集合中每个匹配对在霍夫空间的概率密度,作为该匹配对匹配得分的基于密度的权重因子,与特征匹配函数甚至其它权重因子相乘得到该匹配对的最终匹配得分。实验发现,用数据库图像的BoW向量的L2范数代替匹配对总数作为密度估计的归一化项可以得到更好的检索性能。
S4:将所有匹配对的匹配得分进行累加,得到两幅图像的匹配得分,作为两幅图像间的相似度。
上述的多重匹配去除,目前也有多种方法。它们往往先选取可靠的匹配,然后去除那些在某种映射约束(通常是一对一映射约束)下和已选匹配冲突的匹配对,通过迭代地进行这两步完成多重匹配的去除。第一种方法:可靠的匹配是那些在霍夫空间中具有最多相邻点的,然后使用了一个非常激进的映射约束来去除冲突的匹配:每一个视觉单词只能有一个匹配对。第二种方法:可靠的匹配对应该拥有参与最少匹配对的特征点,同时具有最大逆文档频率idf权重。并使用的一对一映射约束。第三种方法:通过在霍夫空间中密度较大的网格中选择匹配对,再根据一对一映射约束来去除冲突的匹配。通过发明人研究,优选第二种多重匹配去除方法,其不但有较好的精度同时有较高的效率。
对于霍夫空间中的概率密度估计,也有多种非参数的密度估计方法可以选择,比如直方图密度估计、平均平移直方图法、核密度估计法。发明人研究表明,它们在基于密度的几何校验中不但有较好的精度,同时有很高的效率。
实施例
将基于密度的几何校验方法应用于图像检索,使用的数据集是Oxford数据集和Holiday数据集。Oxford建筑数据集包含一个从Flickr上下载的5062图片。有55幅对应于11处不同建筑的查询图片。每个查询图像是一个标示建筑的矩形局域。相关(relevant)的结果是这个建筑的其他图像。Holiday数据集包含1491幅图片,这些图片被分为500组,每一组展示一个不同的场景或者物体。每一组的第一幅图像作为查询图像,剩下的图像是这个查询图像的相关结果。
本实施例测量性能使用的指标是图像检索上通用的平均检索精度(mAP),同时,还测量每一幅图的检索时间(秒)。
实施步骤:
1)使用快速的鲁棒特征算法SURF将所有图像的特征点提取出来;
2)使用词袋模型,以离线训练的100k视觉词典为每个局部视觉特征分配视觉单词号,然后两幅图片以视觉单词号进行匹配,单词号相同的局部特征构成一个匹配对,最后得到一个候选匹配对集合。
3)在两个公共数据集上面,使用本发明和业界相关的方法分别检索,基于本发明的检索步骤如下:
对候选匹配对集合进行多重匹配去除处理后得到匹配对集合;
对匹配对集合中每个匹配对估计其在霍夫空间(本例只考虑旋转角度和尺度变化参数)的概率密度,并将该概率密度作为特征匹配得分的基于密度权重因子,与特征匹配函数以及对应的逆文档频率idf的平方相乘得到该匹配对的匹配得分,在概率密度的计算中,用数据库图像的BoW向量的L2范数代替匹配对总数作为其归一化项;
累加匹配集合中所有特征匹配对的得分得到查询图像与该数据库图像的匹配得分,作为查询图像与该数据库图像的相似度;
根据相似度从大到小对数据库图像进行重排序,输出查询图像的检索结果。
表1两个数据集上的mAP和时间(秒)
Figure BDA0001139275520000061
上表给出了使用了本发明的图像检索和使用其他方法的图像检索的平均检索精度mAP和平均检索时间的比较。其中,BoW是传统的基于词袋模型的检索方法;WGC是弱几何一致方法,因为它速度快,直接用于检索而不是用在重排序;HPM是我们重点对比的方法;DBGV代表我们的基于密度的几何校验方法(Density Based Geometric Verification),后缀表示采用的密度估计方法:Histo为直方图密度估计,ASH为平均平移直方图法,KDE为采用方窗函数的核密度估计法。实验表明,我们的方法在检索精度上明显高于其它方法,包括HPM,而在效率上也优于HPM。

Claims (5)

1.图像检索中基于密度的几何校验方法,其特征在于,包括以下步骤:
1)产生2幅图像的候选特征匹配对集合;
2)对候选特征匹配对集合中每个匹配对,估计其在霍夫空间的概率密度,并将该匹配对的概率密度作为它匹配得分的权重因子,将特征匹配函数与权重因子相乘的结果作为该匹配对的最终匹配得分;
3)累加候选特征匹配对集合中所有特征匹配对的匹配得分得到图像间的匹配得分,作为2幅图像间的相似度。
2.如权利要求1所述的图像检索中基于密度的几何校验方法,其特征在于,步骤1)中利用基于视觉单词的匹配来产生2幅图像间的特征匹配对,从而构成候选特征匹配对集合。
3.如权利要求1所述的图像检索中基于密度的几何校验方法,其特征在于,在步骤1)之后,步骤2)之前,还包括对候选特征匹配对集合进行多重匹配去除。
4.如权利要求3所述的图像检索中基于密度的几何校验方法,其特征在于,多重匹配去除为根据一对一映射的约束初步去除错误匹配。
5.如权利要求1所述的图像检索中基于密度的几何校验方法,其特征在于,在步骤2)概率密度的计算中,用数据库图像的BoW向量的L2范数代替匹配对总数作为其归一化项。
CN201610936735.4A 2016-11-01 2016-11-01 图像检索中基于密度的几何校验方法 Active CN106547867B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610936735.4A CN106547867B (zh) 2016-11-01 2016-11-01 图像检索中基于密度的几何校验方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610936735.4A CN106547867B (zh) 2016-11-01 2016-11-01 图像检索中基于密度的几何校验方法

Publications (2)

Publication Number Publication Date
CN106547867A CN106547867A (zh) 2017-03-29
CN106547867B true CN106547867B (zh) 2020-07-17

Family

ID=58393114

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610936735.4A Active CN106547867B (zh) 2016-11-01 2016-11-01 图像检索中基于密度的几何校验方法

Country Status (1)

Country Link
CN (1) CN106547867B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108334644B (zh) 2018-03-30 2019-03-15 百度在线网络技术(北京)有限公司 图像识别方法和装置
CN113695058B (zh) * 2021-10-28 2022-03-15 南通金驰机电有限公司 换热器生产用智能废料破碎装置自保护方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9275432B2 (en) * 2013-11-11 2016-03-01 Toshiba Medical Systems Corporation Method of, and apparatus for, registration of medical images
CN104615642B (zh) * 2014-12-17 2017-09-29 吉林大学 基于局部邻域约束的空间验证的错误匹配检测方法

Also Published As

Publication number Publication date
CN106547867A (zh) 2017-03-29

Similar Documents

Publication Publication Date Title
CN111126360B (zh) 基于无监督联合多损失模型的跨域行人重识别方法
US20220277543A1 (en) Using a probabilistic model for detecting an object in visual data
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
Qin et al. Query adaptive similarity for large scale object retrieval
CN106682700B (zh) 基于关键点描述算子的分块快速匹配方法
CN109658445A (zh) 网络训练方法、增量建图方法、定位方法、装置及设备
Shen et al. Mobile product image search by automatic query object extraction
CN114677418B (zh) 一种基于点云特征点提取的配准方法
CN105205135B (zh) 一种基于主题模型的3d模型检索方法及其检索装置
US20210117648A1 (en) 3-dimensional model identification
Furuya et al. Visual saliency weighting and cross-domain manifold ranking for sketch-based image retrieval
Gao et al. 3D object retrieval with bag-of-region-words
Gonzalez-Diaz et al. Neighborhood matching for image retrieval
CN106547867B (zh) 图像检索中基于密度的几何校验方法
CN109840529B (zh) 一种基于局部敏感置信度评估的图像匹配方法
CN111523586A (zh) 一种基于噪声可知的全网络监督目标检测方法
CN105678349B (zh) 一种视觉词汇的上下文描述子生成方法
CN111597367B (zh) 基于视图和哈希算法的三维模型检索方法
CN103064857B (zh) 图像查询方法及图像查询设备
CN103823889B (zh) 基于l1范数全局几何一致性检验的错误匹配检测方法
Proenca et al. SHREC’15 Track: Retrieval of Oobjects captured with kinect one camera
Cailliere et al. 3D mirror symmetry detection using Hough transform
CN108363758A (zh) 一种多特征融合非刚性三维模型检索方法
Bhattacharya et al. DT-RANSAC: a delaunay triangulation based scheme for improved RANSAC feature matching
Özkan et al. Visual group binary signature for video copy detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant