CN102567465B - 复眼视觉基础上的三维模型几何相似性搜索方法 - Google Patents
复眼视觉基础上的三维模型几何相似性搜索方法 Download PDFInfo
- Publication number
- CN102567465B CN102567465B CN201110387765.1A CN201110387765A CN102567465B CN 102567465 B CN102567465 B CN 102567465B CN 201110387765 A CN201110387765 A CN 201110387765A CN 102567465 B CN102567465 B CN 102567465B
- Authority
- CN
- China
- Prior art keywords
- dimensional model
- local shape
- sphere
- similarity
- spherical diagram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种模仿复眼视觉对CAD模型、三角网格等三维模型几何相似性搜索方法。该方法包括以下步骤:1)将三维模型库中的所有模型表示为转化为球面图像;2)将待搜索的三维模型转化为球面图像;3)将步骤2)所得到的球面图像与步骤1)中已经建立的三维模型的球面图像进行比较,得到相似性搜索结果。本发明提供了一种搜索效率高、相似性评价准确并且使用方便的基于复眼视觉的三维模型几何相似性搜索方法。
Description
技术领域
本发明属于图形图像处理技术领域,涉及一种三维模型几何相似性的搜索方法,尤其涉及一种模仿复眼视觉对CAD模型、三角网格等三维模型几何相似性搜索方法。
背景技术
随着网络技术的高速发展,互联网上的信息量呈爆炸式增长,信息的载体也越来越丰富,在形式简单的文本之上,图像、视频以及三维模型的应用越来越广泛,如何从海量的形式各异的数据中快速搜索想要的信息逐渐成为互联网上信息搜索的难点。基于内容的信息搜索技术是解决这一问题的有效途径,已有多年的研究和发展历程。目前基于内容的文本搜索技术已经相对成熟,Google、Microsoft、Baidu等国内外知名公司的文本搜索引擎已经能够得到了广泛的应用。基于内容的图像搜索已有十几年的研究历史,目前已经成为图像处理领域内的研究热点,Google、Microsoft、Baidu等公司推出的商业化的图像搜索工具均可在一定程度上实现基于内容的搜索。
随着图形图像软硬件设备、三维数据获取及建模技术的快速发展,三维模型已经被广泛用于工业设计和制造、仿真、虚拟现实、多媒体动画、3D游戏、分子生物学、地理信息等诸多领域,已经成为继图像、音频和视频之后的又一种重要的多媒体数据类型。互联网上已经出现了大量的三维模型,并且随着时间推移三维模型的数量将进一步快速增长。基于内容的三维模型搜索技术可以从海量的三维模型中根据模型的相似性快速、准确地找到需要的三维模型,具有广阔的应用前景,其研究已经成为图形图像领域内的研究热点。
加拿大国家研究院的Paquet等人在上世纪九十年代末最早开始对基于内容的三维模型搜索技术进行理论和算法方面的研究,并开发了第一个三维模型搜索原型系统,其他高校和研究机构如美国的普林斯顿大学、卡耐基梅隆大学、普渡大学、德国的康斯坦茨大学、波恩大学,NEC美国研究院、HP以色列海法研究院、IBM日本东京研究院等相继开展了基于内容的三维模型搜索技术研究,并取得一定进展;国内针对基于内容的三维模型搜索技术的研究起步较晚,近几年浙江大学、北京大学、南京大学、上海交通大学、西北工业大学、北京微软研究院等也相继开展了相关理论和技术的研究,并取得了一定的成果。
基于内容的三维模型搜索的核心是比较两个三维模型的形状相似性,三维模型的形状没有标准的定义,一个广泛认可的几何形状定义是:“滤除欧几里德变换(平移、旋转和缩放)之后物体剩余的几何信息”。目前还没有一种高效的可以直接比较三维模型形状相似性的方法,常用的三维模型搜索都需要:1)定义一个相对简单的形状描述符,2)将三维模型转化为形状描述符,3)用形状描述符的相似性来表示三维模型的相似性。
按照形状描述符的定义方法和原理不同,三维模型搜索技术可以分为三大类:1)基于特征向量/矩阵的方法;2)基于图的方法;3)基于视觉的方法。基于特征向量/矩阵的方法采用将“特征向量/矩阵”作为形状描述符,例如:形状分布、球面谐波、转矩等方法,“特征向量/矩阵”可以直接从三维模型上提取得到。基于图的方法以某种形式的“图”作为形状描述符,例如:“骨架图”、“Reeb图”、属性邻接图等,“图”同样直接三维模型提取得到。基于视觉的方法将视觉系统对三维模型的“观察结果”作为形状描述符,现有的基于视觉的方法的“观察结果”由多幅不同方向的投影图像构成,例如:光场方法。
形状描述符的相似性代表着三维模型的相似性,因此定义一个好的形状描述符是三维模型搜索方法的核心,对三维模型搜索的精度和效率有着决定性的作用。一个好的三维形状描述符应该满足如下基本条件:
1)尽可能全的包含三维模型的形状信息;
2)可以简单高效的实现相似性比较;
3)能够实现局部相似性比较;
4)具有平移、旋转、放缩不变性;
5)与三维模型的表示方法无关。
上述条件1确保由三维模型转化得到的形状描述符可以尽可能多的保留三维模型的形状信息,只有保留尽可能多的形状信息时形状描述符的相似性才能代表三维模型的相似性,如果一个形状描述符没有丢失过多的形状信息,则可以根据该形状描述符恢复/重建三维模型。条件2确保相似性比较的效率,是决定三维模型搜索效率的核心,如果形状描述符之间的相似性比较效率很低,则难以基于该形状描述符实现快速三维模型搜索。条件3确保简单变形后的三维模型与原始三维模型之间的相似性可以得到相对准确表示,例如:不同运动状态的一匹马应该具有一定的相似性。条件4确保三维模型经过平移、旋转、缩放之后可以得到相同的搜索结果。条件5确保采用不同三维模型表示方法描述同一个物体时,可以提取得到的相似形状描述符,例如从同一个物体的B-rep模型及不同分辨率的三角网格模型可以提取出相似的形状描述符。
表1.常见三维形状描述符比较(√:满足;○:部分满足;×:不满足)
表1对几种常见三维形状描述符进行了比较,从中可以看出,基于视觉的三维模型搜索方法可以满足更多的基本条件,可以认为基于视觉的方法定义出的形状描述符与其他描述符相比较具有一定的优势,近年来的研究和实验结果表明,通常认为,基于视觉的方法是综合性能最好的方法。只有基于视觉的方法可以满足条件1,即多数方法都对三维模型进行了抽象,仅保留了少量的形状信息,只有基于视觉的方法保留了三维模型尽可能多的形状信息。两个描述符之间的相似性比较效率低是基于视觉的方法存在的主要问题。
自然界中的物体本质上存在于三维空间,有着三维的形状,而人对自然界物体的形状感受来源于人的视觉。参见图1,三维空间的物体经过人眼之后将在视网膜上形成图像,人脑接受人眼感受到的图像并从将其抽象为人类的语言文字,通过文字来描述和传递三维空间中物体形状的信息。
基于内容的三维模型搜索本质上是一个计算机对几何形状的理解问题,该过程与人认识自然界物体形状的过程相似。基于视觉的方法模仿人认识自然界物体的过程,包括如下基本步骤:1)将三维模型投影到多个特定的方向生成一组投影图像;2)从投影图像中提取特征(表示为特征向量、矩阵等形式),3)通过比较提取出的特征实现三维模型的相似性比较。
表2 基于视觉的搜索与人认识物体的关系
表2将人认识物体的过程与基于视觉的搜索方法进行了比较,可以看出基于视觉搜索方法的各个步骤均与人认识自然界物体的过程类似。由于可以借助GPU的渲染能力,基于视觉的三维模型搜索方法在生成投影图像方面非常快速。人脑处理复杂的非符号化信息的能力要远远强于计算机,基于视觉的三维模型搜索方法在搜索效率和准确性等方面仍然存在许多值得进一步研究的问题,具体包括:1)如何从一组投影图像中提取三维模型的特征信息?2)如何快速的比较从包括多个投影图像中提取出的特征信息?
Ohbuchi解决上述两项难题的方法如下:1)从投影图像中提取SIFT算子,依赖SIFT算子具有的尺度不变、局部搜索能力等特性实现特征信息的提取,以解决三维模型的局部相似性度量问题;2)通过预先对三维模型进行姿态调整使得投影得到的三维模型具有固定的姿态,从而在两组待比较的投影图像至今建立及空间位置关系,以减少图像相似性的比较次数;3)通过Visual Of Words方法对提取得到的SIFT算子进行聚类以提高相似性比较的效率。
Ohbuchi的方法在近年来的三维模型搜索竞赛中取得了较好的成绩,推进了基于视觉的三维模型搜索技术的发展,然而由于:1)需要预先进行三维模型的姿态调整,姿态调整的准确性会影响搜索的准确性;2)两个三维模型之间的相似性被转化为两组各自包括多个特征向量的投影图像的相似性,其相似性比较效率很低,该方法仍然有许多值得进一步研究的地方。
Daras对原始的光场方法进行了以下改进:1)利用PCA和VCA方法估计三维模型的空间姿态,以减少投影图像的数量;2)进行图像比较时,综合利用傅立叶算子、Zernike矩和Krawtchouk矩来提高图像的相似性比较精度。
Draras的方法也取得了比较好的搜索精度,在三维模型搜索竞赛中取得了较好的成绩,但是对每一个三维模型,该方法用到了24幅投影图像,每一幅投影图像需要用到1个深入图像1个二值图,两组投影图像之间的相似性比较效率低仍然是其存在的主要问题。
Ohbuchi的方法从投影图像中提取局部特征信息,该方法可以更多的表示三维模型的局部形状信息。Daras的方法提取投影图像的整体形状信息,可以更好的表示出模型的整体相似性。
上述两种方法通过多种途径提高基于视觉的三维模型搜索的效率和准确度,然而基于视觉的搜索方法本身模仿人类单眼视觉的特点,而单眼无法在同一个位置一次观察到完整的三维物体,因此必须从多个不同角度观察物体。在基于单眼视觉的方法框架下,准确性的评价模型相似性要求选取较多的投影图像,快速进行相似性比较要求选取较少的投影图像,这本身是一个矛盾问题。如何在准确性和精度上达到平衡,实现快速三维模型搜索是基于单眼视觉方法存在的主要问题之一。
发明内容
为了解决背景技术中存在的上述技术问题,本发明提供了一种搜索效率高、相似性评价准确并且使用方便的基于复眼视觉的三维模型几何相似性搜索方法。
本发明的技术解决方案是:本发明提供了一种复眼视觉基础上的三维模型几何相似性搜索方法,其特殊之处在于:所述复眼视觉基础上的三维模型几何相似性搜索方法包括以下步骤:
1)将三维模型库中的所有模型表示为转化为球面图像;
2)将待搜索的三维模型转化为球面图像;
3)将步骤2)所得到的球面图像与步骤1)中已经建立的三维模型的球面图像进行比较,得到相似性搜索结果。
上述球面图像是将三维模型整体表示为一个球面划分;所述球面划分是将球面分割为多个按照简单行列拓扑结构排列的小区域,赋予每个小区域以颜色后使该球面划分即成为一个球面图像。
上述球面图像的具体实现方式是:
2.2.1)选取一个投影中心点;
2.2.2)以投影中心为核心建立球面图像像素到三维模型表面的映射关系。
上述球面划分的具体实现方式是:
2.1.1)将球面均分为6个区域;
2.1.2)采用过坐标轴的大圆将上述6个区域划分为具有简单行列拓扑结构的小区域;
2.1.3)根据三维模型的结构特征对每个小区域赋予颜色;
所述球面划分得到的小区域作为球面图像的像素,所述球面图像像素的颜色是该像素在待搜索三维模型上所对应区域的几何属性值;所述球面图像的颜色变化表示待搜索的三维模型表面属性的变化;所述几何属性值包括待搜索三维模型表面的距离、坐标、法矢以及曲率。
上述步骤2.1.3)的具体实现方式是:
计算球面小区域在交点处的几何属性对每个球面小区域赋予颜色。例如,可以采取如下方法:球面图像像素的属性值并将属性值以颜色的形式赋予每一个球面小区域:连接球面图像像素与到投影中心点,形成一条直线,该直线与三维模型相交,计算得到交点;计算投影中心点到交点的距离,并将该距离作为球面小区域的灰度值。
上述步骤3)的具体实现方式是:
3.1)从步骤2)已经转化成球面图像上提取具有局部形状描述能力的类SIFT局部形状描述符,得到一个类SIFT局部形状描述符集合;
3.2)利用步骤3.1)所提取到的类SIFT局部形状描述符集合与步骤1)中已经建立的三维模型球面图像库中的类SIFT局部形状描述符集合进行比较,得到全部三维模型库中的模型与输入模型的相似性,按照相似性大小对三维模型排序得到搜索结果。
上述步骤3.1)提取类SIFT描述符的具体实现方式是:
3.1.1)构建球面图像的尺度空间:以一系列不同的参数对步骤2)所得到的球面图像进行高斯滤波,建立高斯金字塔;计算高斯金字塔内相邻图像的高斯差分,在多个不同尺度空间形成多幅高斯差分图像;
3.1.2)提取球面图像中稳定的关键点,所述球面图像中稳定的关键点是局部形状描述能力的类SIFT描述符:在不同尺度空间内的高斯差分图像上搜索局部极值点,提取稳定的局部极值点作为球面图像匹配的关键点;
3.1.3)对步骤3.1.2)中所得到的稳定的关键点进行计算描述;统计关键点邻域内各像素的梯度分布,按照平面图像的SIFT算子方法统计将梯度分布表示为一个向量的类SIFT描述符;
3.1.4)计算所有关键点处的类SIFT描述符,得到一个描述三维模型的类SIFT描述符集合。
上述步骤3.2)中两个类SIFT描述符集合的相似性比较的具体实现方式是:
3.2.1)若两个类SIFT局部形状描述符之间的向量距离小于某一正实数时,认为两个类SIFT描述符匹配成功,否则认为两个类SIFT描述符匹配不成功;
3.2.2)两个集合中匹配成功的类SIFT描述符的数量表示两个类SIFT描述符集合的相似性,匹配成功的描述符数量越多,则两个集合的相似性越高;
3.2.3)两个类SIFT描述符集合的相似度可以根据匹配成功的类SIFT描述符的数量与两个集合中的类SIFT描述符的数量计算得到。
上述步骤3.2.3)的具体实现方式是:
3.2.3.1)将所选取的向量形式的类SIFT算子定义为D1;将三维模型球面图像库中的局部形状描述能力的类SIFT算子定义为D2;所述两个类SIFT算子D1和D2之间的距离L=||D1-D2||2;
3.2.3.2)则对于两个球面图像I1和I2,设分别提取得到两组类SIFT描述符Di,i=0,1,...,m和Dj,j=0,1,...,n,则两幅球面图像之间的相似度可以表示为距离
其中:δ是一个正实数;
所述Di和Dj之间的距离小于δ时,则Di和Dj相等,两个SIFT算子匹配成功;所述两幅球面图像之间的距离是指匹配成功的类SIFT算子的数量与两幅球面图像中提取出的类SIFT算子的较大的一个的比值;所述L(I1,I2)越大意味着两个球面图像的相似度越高。
本发明的优点是:
本发明提出一种模仿昆虫复眼视觉的三维模型几何相似性搜索方法,该方法将昆虫复眼对三维模型的观察结果抽象为一个球面图像描述符,从而将三维模型的相似性搜索比较转化为球面图像的相似性搜索比较。模仿昆虫的复眼视觉为搜索三维模型搜索提供了一套新的研究思路,该思路包括如下主要步骤:1)将三维模型转化为球面图像,2)从球面图像上提取局部特征描述符,3)利用局部特征描述符之间的相似性定义三维模型的相似性。球面图像具有与平面图像类似的简单行列拓扑结构,常用的平面图像处理算法经过简单改进即可用于球面图像。传统技术中利用多个不同角度的观察结果实现搜索三维模型搜索,因此两个三维模型的相似性比较需要借助多幅图像完成,效率低。而本发明提出的复眼视觉的搜索三维模型搜索方法将两个三维模型的相似性比较转化为两幅球面图像的相似性比较,具有较高的相似性比较搜索效率。本发明提出的复眼视觉基础上的三维模型几何相似性搜索方法具有较高的鲁棒性、效率及准确性,在对三维模型的几何相似性进行搜索时,使用非常方便。
附图说明
图1是人类视觉的形成原理示意图;
图2是光场描述符以及球面图像描述符示意图;
图3是光场描述符以及球面图像描述符示意图;
图4是本发明所提供的复眼视觉基础上的三维模型搜索流程示意图;
图5是本发明所采用的球面划分示意图;
图6是本发明所采用的三角网格向球面图像的转换过程示意图;
图7是本发明所采用的球面图像上的局部坐标系构建过程示意图。
具体实施方式
在进行本发明的述说之前,首先有必要对传统的单眼视觉进行搜索方法进行简单阐述:参见图3,传统的基于单眼视觉的方法从三维模型外部多个不同位置用单眼观察三维模型(简称单眼视觉方法),这些观察点通常在同一个球面上,每1个观察位置可以获得1幅投影图像。单眼视觉方法的形状描述符是由图3(a)所示多个不同观察位置得到的多幅投影图像组成的,这些投影图像构成了单眼视觉方法的形状描述符。本发明在三维模型的中心用一个昆虫的复眼观察三维模型(简称复眼视觉方法),观察结果形成一幅球面图像,即复眼视觉描述符。
本发明的工作原理是:复眼由许多结构相同的“小眼”组成,将复眼的表面近似为一个球面,将分布在球面表面的“小眼”抽象为像素,则可以用一个球面图像表示复眼,球面图像可以看作复眼观察三维模型的视觉印象。从复眼的中心沿着复眼的每一个“小眼”向外发出一系列视线(如图3.b所示),将视线与三维模型交点处的几何信息提取出来并记录到该“感光点”(球面像素)即可形成三维模型的复眼印象,即球面图像。本发明模仿昆虫的复眼视觉,提出一种三维形状相似性搜索方法,该方法将复眼观察三维模型的结果表示为一幅球面图像,然后利用球面图像之间的相似性来搜索三维模型的相似性。
单眼视觉方法定义的形状描述符由多幅投影图像构成,每一幅投影图像仅描述三维模型的一部分几何形状,例如在(a)所示的观察点A,仅能看到三维模型的一个“局部可视范围”。为了更为完整的描述三维模型,必须设置较多的观察点位置并生成更多的投影图像。然而由于两个相邻观察点的可视区域不可避免的存在重复,观察点数量增大后重复区域将大量增加,重复区域面积的增加大大降低了后续的图像相似性比较效率。
为了提高图像的相似性比较效率,可以在增加投影点数量的同时降低每一个观察点的可视区域范围,从而减少重复区域的数量,例如图4所示,在观察点A和B之间增加一个新的观察点C时,可以同时缩小A和B观察点投影图像的可视范围。从图4可以看出,在增加观察点的同时缩小单幅投影图像的可视范围并不会影响单眼视觉描述符表示整个三维模型的精确性,因此可以设想在上述步骤的极限情况,即增加观察点的位置,同时缩小每一个观察点获得的投影图像的可视范围,直到每一幅投影图像都仅包含一个像素为止,此时单眼视觉形状描述符由多个在球面上按照一定规则排列的像素构成,与复眼视觉形状描述符形相同,因此复眼视觉形状描述符也可以看作单眼视觉形状描述符的极限情况。
如图4所示,本发明提出的复眼视觉基础上的三维模型的搜索思路包括如下步骤:1)将输入的待搜索的三维模型转化为球面图像,2)从球面图像上提取局部形状描述算子,3)与三维模型库中各个三维模型的局部形状描述算子进行比较,完成相似性比较,得到搜索结果。需要说明的是,三维模型库中的三维模型均通过预处理生成了相应的球面图像并从中提取出了局部形状描述算子,实时搜索过程中仅需要将输入的待搜索三维模型转化为球面图像并提取其中的局部形状描述算子,然后将局部形状描述算子与三维模型库中的各个三维模型的局部形状描述算子进行相似性比较即可。
本发明对平面图像相似性搜索过程中经常采用的SIFT算子进行改进并将其用于球面图像的相似性比较,从而实现了一种复眼视觉基础上搜索三维模型搜索方法。
本实施例按照复眼视觉基础上的搜索三维模型搜索方法的思路:1)定义了一种球面图像;2)给出了一种将三角网格模型转化为球面图像的方法;3)从球面图像上提取具有很强局部形状描述能力的类SIFT算子;4)将图像的相似性转化为类SIFT算子之间的相似性比较,完成三维模型搜索。
图5给出了本发明采用的球面划分方法,该方法首先将球面均分为6个面(相当于将一个正方体映射到球面),然后按照图5(b)所示方式将6个面划分为具有简单行列拓扑结构的小区域,展开后的球面划分如图5(c)所示。按照图5方法划分形成的球面图像的像素之间的大小相似,除六面体的8个顶点附近像素外,其余像素与周围像素之间的关系与平面图像类似,每个像素有8个邻接像素,而顶点附近的像素只有7个邻接像素(称为奇异像素),在进行球面图像处理时,需要特殊考虑8个顶点附近的奇异像素。
在定义图5(a)所示夹角α、β、γ(其中α为OP在XZ平面投影与Z轴正方向的夹角;β为OP在YZ平面投影与Z轴正方向的夹角;γ为OP在XY平面投影与Y轴的夹角)的基础上,球面上的6个区域定义如下:1)-45°≤α≤45°,-45°≤β≤45°;2)45°≤β≤135°,-45°≤γ≤45°;3)135°≤α≤225°,-135°≤β≤-45°;4)-135°≤β≤-45°,135°≤γ≤225°;5)-135°≤α≤-45°,45°≤γ≤135°;6)45°≤α≤135°,-135°≤γ≤-45°)。将球面分割为6个区域后,采用过坐标轴的大圆将各个区域分割为四边域网格,球面上每一个小的四边形区域就是一个球面像素。定义每一个子区域的分割度数为n,即该子区域被分割为n×n的四边域网格,例如图5(c)中区域1被分割为一个4×4的网格。将所有6个区域全部分割为度数为n的四边域网格即可完成参数球的球面划分,一个分割度数为n的球面图像共含有n×n×6个球面像素。
图6给出了三角网格模型向球面图像的转化,其他类型的三维模型表示方法均可以按照类似的方法转化为球面图像,或者转化为三角网格模型后进行处理。本发明三角网格模型向球面图像的转化按照如下步骤实现:
1)选取一个投影中心点O;
2)以投影中心为核心构建一幅球面图像(图6中的虚线表示像素边界);
3)遍历三角网格中的三角形,对每一个三角形执行如下操作:
3.1)将三角形(以图6所示ΔABC为例)投影到球面,得到相应的球面三角形(图6中球面上的Δ’ABC);
3.2)对球面图像中位于球面三角形内部的像素(例如图6中的像素P),计算连接投影中心与该球面像素的直线(例如图6所示直线OP)与ΔABC的交点(例如图6中的点Q);
3.3)计算投影中心到交点的距离(例如图6中的OQ),将该距离作为像素的灰度值;
3.4)计算三角网格在交点(例如图6中的点Q)处的属性,例如:曲率、法矢等,将相关信息存入球面像素。
球面图像类SIFT描述符的定义方法是1)从球面图像上找到某一个稳定的关键点;2)计算关键点某一邻域内各个球面像素的梯度分布,形成类SIFT描述符。由于采用深度图像,关键点邻域内各个球面像素的梯度分布也可以表示与该邻域对应的三维模型上相应区域的几何形状,因此类SIFT算子可以描述三维模型的局部形状特征。类SIFT算子的提取主要包括以下步骤:
1)尺度空间的构建:首先以一系列不同的参数对原始球面图像进行高斯滤波,建立高斯金字塔;然后计算高斯金字塔内相邻图像的高斯差分,在多个不同尺度空间形成多幅高斯差分图像。
2)提取稳定的关键点:在不同尺度空间内的高斯差分图像上搜索局部极值点,提取稳定性好的局部极值点作为球面图像匹配的关键点。
3)计算类SIFT描述符:统计关键点邻域内各像素的梯度分布,将梯度分布表示为一个向量形式的类SIFT描述符(如图7所示)。
球面图像尺度空间的构建方法如下:用一系列不同σ值对原始球面图像进行高斯滤波即可构建尺度空间,其中σ是尺度空间参数,尺度空间也称为高斯金字塔。球面图像的尺度空间生成按照如下步骤进行:
2)设上一个尺度空间为Si,则从Si中选择一个高斯滤波图像Im×n,对其进行缩减像素,得到一幅新的球面图像In/2×n/2,依次采用σi进行n次高斯滤波,得到一个由n幅球面图像构成的尺度空间Si+1;
3)重复执行步骤2,得到m个不同尺度空间Sj,j=0,1,...,m。
对每一个尺度空间Sj分别计算两个相邻尺度的高斯滤波图像的差分D(k,x,y,σi)=L(k,x,y,σk)-L(k,x,y,σi+1),在尺度空间Sj中可以得到p-1幅差分图像,在m个尺度空间一共可以得到m×(p-1)幅差分图像。
球面图像关键点的提取方法如下:球面图像上的关键点是各个尺度空间中高斯差分图像的局部极值点,对尺度空间Sj,j=0,1,...,m中的高斯差分图像Dj(k x,y,σi),i=0,1,...,p,如果其上的某一个球面像素(ko,xo,yo)满足在差分图像Dj(k,x,y,σi)、Dj(k,x,y,σi+1)和Dj(k,x,y,σi-1)的1邻域内均该像素的灰度值均为极值时,则该像素是一个极值点,尺度空间内的全部极值点构成一个关键点集合,搜索全部尺度空间即可提取出全部关键点。
对于提取出的关键点,还需要经过优化以确保其稳定性,优化方法与平面图像中关键点的优化相似。设从尺度空间差分图像中搜索出的关键点为Fi(ki,xi,yi,σi),i=0,1,...,k,则对每一个关键点计算其类SIFT描述符的步骤如下:
1)在σi尺度下的高斯差分图像中找到在该关键点3σi邻域内的球面像素,记为Pj(kj,xj,yj),j=0,1,...,q,设各个像素的梯度为gxj,gyj;
2)统计邻域内的所有球面像素Pj(Kj,xj,yj)的梯度,得到梯度分布的主方向,设为Gxi和Gyi;
3)以梯度的主方向(Gxi,Gyi)及其垂直方向为坐标轴,以关键点为中心,建立一个局部坐标系,取局部坐标系的单位为1.5σi;
4)对邻域内的所有球面像素Pj(kj,xj,yj),计算梯度在局部坐标系内的投影,然后按照平面图像的SIFT算子方法统计并构建类SIFT描述符。
上述步骤与平面图像上的SIFT算子提取方法基本一致,需要说明的是,在球面图像上统计SIFT算子时,构建的局部坐标系与平面图像不同,在平面图像上构建的是一个平面坐标系,而在球面图像上需要构建局部的球面坐标系来进行SIFT算子的统计。球面局部坐标系的构建方法如图7所示,其坐标轴是在球面上过球心的大圆,球面局部坐标系内部点的坐标根据球面距离计算。
得到向量形式的类SIFT描述符后,定义两个类SIFT算子D1和D2之间的距离L=||D1-D2||2,则对于两个球面图像I1和I2,设分别提取得到两组SIFT算子Di,i=0,1,...,m和Dj,j=0,1,...,n,则两幅球面图像之间的相似性可以表示为距离其中δ是一个较小的正实数,表示当Di和Dj之间的距离小于δ时,认为Di和Dj相等两个SIFT算子匹配成功,而两幅球面图像之间的距离的含义是指匹配成功的类SIFT算子的数量与两幅球面图像中提取出的类SIFT算子的较大的一个的比值。L(I1,I2)越大意味着两个球面图像的相似度越高,也就是说两个对应的三维模型也就越接近。
简单起见,本文采用了一种初步的相似性度量方法,为了获得较高的比较效率,还可以采用kd树或其他更为高效的算法。
实施例中的各步骤并不局限在所述方法,也可以采用其他方法。
Claims (6)
1.一种复眼视觉基础上的三维模型几何相似性搜索方法,其特征在于:所述复眼视觉基础上的三维模型几何相似性搜索方法包括以下步骤:
1)将三维模型库中的所有模型转化为球面图像,得到三维模型球面图像库;
2)将待搜索的三维模型转化为球面图像;
3)将步骤2)所得到的球面图像与步骤1)中已经转化的球面图像进行比较,得到相似性搜索结果;
所述步骤1)以及步骤2)中的球面图像均是将三维模型整体表示为一个球面划分;所述球面划分是将球面分割为多个按照简单行列拓扑结构排列的小区域,赋予每个小区域以颜色后使该球面划分即成为一个球面图像;
所述步骤1)以及步骤2)中的球面图像的具体实现方式是:
a.1)选取一个投影中心点;
a.2)以投影中心点为核心建立球面图像像素到三维模型表面的映射关系;
所述球面划分的具体实现方式是:
b.1)将球面均分为6个区域;
b.2)采用过坐标轴的大圆将上述6个区域划分为具有简单行列拓扑结构的小区域;
b.3)根据三维模型的结构特征对每个小区域赋予颜色;
所述球面划分得到的小区域作为球面图像的像素,所述球面图像像素的颜色是该像素在待搜索三维模型及三维模型库中的所有模型上所对应区域的几何属性值;所述球面图像的颜色变化表示待搜索的三维模型及三维模型库中的所有模型表面属性的变化;所述几何属性值包括待搜索三维模型及三维模型库中的所有模型表面的距离、坐标、法矢以及曲率。
2.根据权利要求1所述的复眼视觉基础上的三维模型几何相似性搜索方法,其特征在于:所述步骤b.3)的具体实现方式是:
b.3.1)获取球面图像像素的属性值并将属性值以颜色的形式赋予每一个球面小区域;
b.3.2)连接球面图像像素与投影中心点,形成一条直线,该直线与三维模型相交,计算得到交点;
b.3.3)计算投影中心点到交点的距离,并将该距离作为球面小区域的灰度值。
3.根据权利要求1或2所述的复眼视觉基础上的三维模型几何相似性搜索方法,其特征在于:所述步骤3)的具体实现方式是:
3.0)从步骤1)中已经建立的三维模型球面图像库中的球面图像上提取具有局部形状描述能力的类似SIFT算子的局部形状描述符,得到三维模型球面图像库中的类似SIFT算子的局部形状描述符集合;
3.1)从步骤2)已经转化的球面图像上提取具有局部形状描述能力的类似SIFT算子的局部形状描述符,得到一个类似SIFT算子的局部形状描述符集合;
3.2)利用步骤3.1)所提取到的类似SIFT算子的局部形状描述符集合与步骤1)中已经建立的三维模型球面图像库中的类似SIFT算子的局部形状描述符集合进行比较,得到三维模型库中的全部模型与输入模型的相似性,按照相似性大小对三维模型排序得到搜索结果。
4.根据权利要求3所述的复眼视觉基础上的三维模型几何相似性搜索方法,其特征在于:所述提取类似SIFT算子的局部形状描述符集合的具体实现方式是:
a)构建球面图像的尺度空间:以一系列不同的参数对步骤1)以及步骤2)所得到的球面图像进行高斯滤波,建立高斯金字塔;计算高斯金字塔内相邻图像的高斯差分,在多个不同尺度空间形成多幅高斯差分图像;
b)提取球面图像中稳定的关键点,所述球面图像中稳定的关键点是局部形状描述能力的类似SIFT算子的局部形状描述符:在不同尺度空间内的高斯差分图像上搜索局部极值点,提取稳定的局部极值点作为球面图像稳定的关键点;
c)对步骤b)中所得到的稳定的关键点进行计算描述;统计关键点邻域内各像素的梯度分布,按照平面图像的SIFT算子方法将梯度分布表示为一个向量的类似SIFT算子的局部形状描述符;
d)计算所有关键点处的类似SIFT算子的局部形状描述符,得到一个描述三维模型或三维模型库中的所有模型的类似SIFT算子的局部形状描述符集合。
5.根据权利要求4所述的复眼视觉基础上的三维模型几何相似性搜索方法,其特征在于:所述步骤3.2)中两个类似SIFT算子的局部形状描述符集合的相似性比较的具体实现方式是:
3.2.1)若两个类似SIFT算子的局部形状描述符之间的向量距离小于某一正实数时,认为两个类似SIFT算子的局部形状描述符匹配成功,否则认为两个类似SIFT算子的局部形状描述符匹配不成功;
3.2.2)两个集合中匹配成功的类似SIFT算子的局部形状描述符的数量表示两个类似SIFT算子的局部形状描述符集合的相似性,匹配成功的描述符数量越多,则两个集合的相似性越高;
3.2.3)两个类似SIFT算子的局部形状描述符集合的相似度可以根据匹配成功的类似SIFT算子的局部形状描述符的数量与两个集合中的类似SIFT算子的局部形状描述符的数量计算得到。
6.根据权利要求5所述的复眼视觉基础上的三维模型几何相似性搜索方法,其特征在于:所述步骤3.2.3)的具体实现方式是:
3.2.3.1)将所选取的向量形式的类似SIFT算子的局部形状描述符定义为D1;将三维模型球面图像库中的局部形状描述能力的类似SIFT算子的局部形状描述符定义为D2;所述两个类似SIFT算子的局部形状描述符D1和D2之间的距离L=||D1-D2||2;
苴中:δ是一个正实数;
所述Di和Dj之间的距离小于δ时,则Di和Dj相等,两个类似SIFT算子的局部形状描述符匹配成功;所述两幅球面图像之间的距离是指匹配成功的类似SIFT算子的局部形状描述符的数量与两幅球面图像中提取出的类似SIFT算子的局部形状描述符的较大的一个的比值;所述L(l1,l2)越大意味着两个球面图像的相似度越同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110387765.1A CN102567465B (zh) | 2011-11-29 | 2011-11-29 | 复眼视觉基础上的三维模型几何相似性搜索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110387765.1A CN102567465B (zh) | 2011-11-29 | 2011-11-29 | 复眼视觉基础上的三维模型几何相似性搜索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102567465A CN102567465A (zh) | 2012-07-11 |
CN102567465B true CN102567465B (zh) | 2014-05-07 |
Family
ID=46412875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110387765.1A Expired - Fee Related CN102567465B (zh) | 2011-11-29 | 2011-11-29 | 复眼视觉基础上的三维模型几何相似性搜索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102567465B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103207935B (zh) * | 2013-04-12 | 2015-11-25 | 厦门大学 | 一种计算机辅助的孔明灯制作方法 |
CN106462568A (zh) * | 2014-02-13 | 2017-02-22 | 河谷控股Ip有限责任公司 | 全局视觉词汇、系统和方法 |
CN107807970A (zh) * | 2017-10-18 | 2018-03-16 | 北京信息科技大学 | 一种基于加权匹配点的三维模型检索方法 |
CN109165669B (zh) * | 2018-07-09 | 2021-11-16 | 浙江大学 | 基于模型识别码的三维面片模型文件相似性检测方法 |
CN109446969A (zh) * | 2018-10-23 | 2019-03-08 | 中德人工智能研究院有限公司 | 一种分析和搜索三维模型的方法 |
CN114492205B (zh) * | 2022-02-16 | 2022-11-11 | 中国地质大学(武汉) | 基于相似性判断的局部各向异性搜索椭球体模型简化方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100504875C (zh) * | 2007-03-22 | 2009-06-24 | 华为技术有限公司 | 模型检索装置及方法 |
-
2011
- 2011-11-29 CN CN201110387765.1A patent/CN102567465B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102567465A (zh) | 2012-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102999942B (zh) | 三维人脸重建方法 | |
CN102567465B (zh) | 复眼视觉基础上的三维模型几何相似性搜索方法 | |
CN103279980B (zh) | 基于点云数据的树叶建模方法 | |
CN109344821A (zh) | 基于特征融合和深度学习的小目标检测方法 | |
CN106651926A (zh) | 一种基于区域配准的深度点云三维重建方法 | |
CN103246884B (zh) | 基于深度图像序列的实时人体动作识别方法及装置 | |
CN103065353B (zh) | 三维模型特征提取方法和系统、三维模型检索方法和系统 | |
CN108921926A (zh) | 一种基于单张图像的端到端三维人脸重建方法 | |
Zhao | Application of 3D CAD in landscape architecture design and optimization of hierarchical details | |
CN102855663A (zh) | 一种根据激光雷达栅格点云构建csg模型的方法 | |
CN103530907A (zh) | 基于图像的复杂三维模型绘制方法 | |
CN106599053A (zh) | 一种三维模型检索方法 | |
CN107729806A (zh) | 基于三维人脸重建的单视图多姿态人脸识别方法 | |
CN105045496A (zh) | 一种基于关节点变换的手势交互方法 | |
CN103473811A (zh) | 基于二维手绘线画图的三维实体模型便捷生成方法 | |
CN103279621A (zh) | 一种装配体的自动拆卸方法 | |
CN104299255A (zh) | 一种三维地形模型的渲染方法 | |
Li | RETRACTED ARTICLE: Research on the mechanism and influence factors of urban style building based on cloud computing logistics information | |
CN104463934B (zh) | 一种“质点‑弹簧”系统驱动的点集模型动画自动生成方法 | |
CN103295266B (zh) | 一种基于距离加权最小折叠代价的三维模型边折叠简化的方法 | |
CN103902657B (zh) | 一种基于草绘图的三维模型检索方法 | |
CN104794750A (zh) | 一种基于空间殖民算法的树点云三维重建方法 | |
CN102289661A (zh) | 一种基于谱匹配的三维网格模型的匹配方法 | |
CN107066926A (zh) | 使用描述符的3d对象定位 | |
Wei et al. | L2-norm prototypical networks for tackling the data shift problem in scene classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140507 Termination date: 20181129 |
|
CF01 | Termination of patent right due to non-payment of annual fee |