CN104134206A - 基于三维二值特征描述子的ct体数据快速匹配方法 - Google Patents
基于三维二值特征描述子的ct体数据快速匹配方法 Download PDFInfo
- Publication number
- CN104134206A CN104134206A CN201410336591.XA CN201410336591A CN104134206A CN 104134206 A CN104134206 A CN 104134206A CN 201410336591 A CN201410336591 A CN 201410336591A CN 104134206 A CN104134206 A CN 104134206A
- Authority
- CN
- China
- Prior art keywords
- point
- unique point
- value
- dimensional
- unique
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明涉及一种基于三维二值特征描述子的CT体数据快速匹配方法,含有如下步骤:1:输入待拼接的两个CT体数据,并完成对其的特征点检测;2:确定特征点邻域内采样点的固定采样样式;3:将特征点邻域内的采样点组合成点对,并根据点对之间的灰度大小关系计算每个特征点的主方向;4:计算特征点在二维平面上的主方向,并以此二维平面上的主方向作为辅方向;5:根据特征点的主方向和辅方向对其进行方向规定化;6:在进行方向规定化后的特征点邻域内,计算特征点的二值特征描述,得到对应每个特征点的两种描述子;7:对两个CT体数据中的特征点进行匹配。本发明有效地提高了CT体数据中三维特征点匹配的准确率和效率。
Description
(一)、技术领域:本发明涉及一种数据匹配方法,特别是涉及一种基于三维二值特征描述子的CT体数据(三维图像)快速匹配方法。
(二)、背景技术:锥束CT(Cone Beam Computed Tomography,CBCT)是近年来提出的一种能直接获取被检测物体三维图像的工业CT技术,它克服了通过堆砌断层切片获取物体三维图像时空间分辨率非各向同性的缺点,能通过投影图像直接重建出被检测物体三维空间各个方向上分辨率都相同的三维图像。因此,锥束CT作为一种新的无损检测技术手段,可以很好地反映物体内部不同空间区域的结构等信息。
目前,锥束CT在无损检测、逆向工程、三维显示等领域都得到了广泛的应用,然而在实际应用时,由于此系统中光源射束锥角和探测器尺寸的限制,对于成像分辨率要求较高或者尺寸较大的物体不能通过一次成像得到其完整的三维图像。因此,通常先对被检测物体进行分区成像、重建,得到各个分区的体数据,然后将这些体数据拼接成完整的三维图像。
图像拼接通常主要包含图像配准和图像融合两个步骤,其中,图像配准是决定拼接质量的关键步骤。基于特征点的配准算法因其具有计算量小、配准精度高的特点而得到广泛的研究和应用,其流程如图1所示。
首先,在待拼接的两幅输入图像上检测特征点(特征点检测),然后对每个特征点进行定量化数字描述(特征点描述),接着确定两幅图像中特征点之间的对应关系(特征点匹配),再通过一定策略提纯特征点匹配对(匹配对提纯),最后根据图像间匹配对确定图像间的变换关系(估计图像变换参数),从而得到图像配准的结果。
特征点匹配是衔接特征点检测和图像变换之间的关键步骤,而特征点描述则可以看作是匹配的预处理步骤。实际情况下,在三维的CT体数据中检测到的特征点通常较多,为了减少描述和匹配过程的计算时间,在选择合适的特征描述子时需要考虑提高算法计算效率的问题。
在检测到特征点之后,选择一种合适的特征点描述方法来描述特征点附近局部图像模式,以此对两幅图像进行相似性比较,是图像配准的又一重要步骤。特征点描述算法通常又被称为特征点描述子,它能定量地描述出特征点局部区域的纹理和形状等信息。
迄今为止,人们研究了各种各样的特征点描述算法,但是这些描述算法大多都是针对二维图像的描述子。这些描述子大致可以分为基于图像梯度分布、基于空间关系、基于微分和不变矩等类型,主要包括:SIFT(2004年)、PCA-SIFT(2004年)、SURF(2008年)、GLOH(2009年)、KPB-SIFT(2010年)、DAISY(2010年)等。其中,基于图像梯度方向直方图统计的方法得到了广泛应用,这类描述子主要使用梯度统计直方图来表示不同的图像局部纹理和形状特征。在基于图像梯度分布的描述子中,最著名的是Lowe提出的SIFT描述子,它于1999年由D.Lowe首次提出,至2004年得到完善。SIFT描述子具有很强的可区分性,并且对尺度、旋转以及一定视角和光照等图像变化都具有良好的不变性,但由于其描述子维度高,特征描述与匹配都较耗时。SURF描述子利用Haar小波对二阶高斯微分模板进行简化,同时引入积分图像技术进行快速计算。所以,SURF描述子在和SIFT的性能相当的情况下,速度可达到SIFT的3到7倍。
除了上面提到的经典描述算法外,目前二值特征描述算法也得到了广泛的关注,这一算法在2010年由Calonder等首次提出,其代表算法有:BRIEF(2010年)、ORB(2011年)、BRISK(2010年)、FREAK(2012年)等。二值特征描述算法主要利用局部图像邻域内随机点对的灰度大小关系来建立图像局部特征描述子。这种描述子的构建速度快,存储所需的内存少,并且匹配效率高,是近年来图像局部特征描述子研究领域的热点。
与三维特征点检测算法类似,研究三维特征点描述算法通常也是将二维描述子向三维空间进行拓展。2007年,W.A.Cheung对SIFT做了三维拓展,他首先将尺度空间理论拓展到三维,然后将超球面坐标用于三维图像梯度的表示,用多维直方图表示三维描述子。此后,三维SIFT算法还被应用于三维CT图像和超声图像的匹配处理。2008年,Ste’ phane Allaire为了完善SIFT特征点在三维空间的方向不变性,设计了具有全方向不变性的三维斑点检测子。2010年,Jan Knopp对SURF算法在三维空间上进行了拓展,用于三维图像的分类(使用双目视觉等方式生成的空间中的曲面图像),Jan Knopp通过确定特征点的主、辅方向构建用于进行特征描述的网格,从而保证了描述子在三维空间上的旋转不变性。
(三)、发明内容:
本发明要解决的技术问题是:提供一种基于三维二值特征描述子的CT体数据快速匹配方法,该方法有效地提高了CT体数据中三维特征点匹配的准确率和效率。
本发明的技术方案:
一种基于三维二值特征描述子的CT体数据快速匹配方法,含有如下步骤:
步骤1:输入待拼接的两个CT体数据,并完成对该两个CT体数据的特征点检测;
步骤2:按照以特征点为球心,在不同半径的球面上均匀采样的原则,确定特征点邻域内采样点的固定采样样式;
步骤3:将特征点邻域内的采样点组合成点对,并根据点对之间的灰度大小关系计算每个特征点的主方向;
步骤4:在过特征点并且与主方向垂直的二维平面上,计算特征点在该二维平面上的主方向,并以此二维平面上的主方向作为特征点的辅方向;
步骤5:根据特征点的主方向和辅方向对特征点进行方向规定化;
步骤6:在进行方向规定化后的特征点邻域内,使用两种不同的采样模型计算特征点的二值特征描述,得到对应每个特征点的两种描述子;
步骤7:使用两级匹配策略对两个CT体数据中的特征点进行匹配。
步骤2的具体方法为:
以(0,0,0)点表示特征点的位置,(x,y,z)为采样点的坐标,采样点坐标满足:
(x2+y2+z2)∈{8,10,15,25},
即采样点的位置位于球面半径r分别为8、10、15、25的四个层次的球面上;
在每一层球面上,采样点个数n﹑球面半径r﹑球面上任意两个采样点之间的最小距离d的关系如下式所示:
步骤3的具体方法为:
通过统计以采样点组成的点对的梯度信息计算得到特征点的主方向:设所有采样点组成的点对集合为L,任一点对(pi,pj)的梯度g(pi,pj)的计算公式为:
式中,pi和pj表示点对中两个体素的三维空间坐标,I(pi)和I(pj)分别是两个体素的灰度值,并采用盒形滤波器和三维积分图像技术的结合对采样点进行平滑处理,设num(L)为点对集合L中点对的数量,则点对集合L中各点对的梯度平均值g(L)为:
该梯度平均值g(L)即为特征点的主方向,gx﹑gy﹑gz分别表示梯度平均值g(L)在三维笛卡尔坐标系下X轴﹑Y轴﹑Z轴方向的分量,主方向可以使用方向角θ和俯仰角φ表示:
步骤4中,使用二维BRISK算法计算特征点在二维平面上的主方向。
步骤6中,两种不同的采样模型为局部采样模型和全局采样模型;
局部采样模型:在以特征点为中心的局部图像块范围内,体素点采样满足三维空间上各向同性的高斯分布,选择T个体素对,即选择T个点对,根据下面的二元测试公式计算得到特征点的局部描述子:
式中,τ(pi,pj)为任一点对(pi,pj)的二元测试结果,T个点对的二元测试结果集合在一起即为局部描述子;
全局采样模型:全局区域表示在局部图像块范围外的一个更大区域,并不表示所有图像区域;在全局区域中,通过二元测试公式计算得到每个特征点的全局描述子。
步骤7的具体过程如下:
令一个CT体数据中的特征点描述子集合为基准集P={Pi},i=1,2,...,n,另一个CT体数据中的特征点描述子集合为目标集Q={Qj},j=1,2,...m;将两个CT体数据中的特征点的二值描述子分别表示为:
其中,和分别表示基准集P中第i个特征点的局部描述子和全局描述子,和分别表示目标集Q中第j个特征点的局部描述子和全局描述子;
第一级匹配策略:
计算基准集P中每个特征点的局部描述子和目标集Q中每个特征点的局部描述子之间的相似度,生成相似度矩阵,具体生成方法如下:
设基准集P中任意第i个局部描述子和目标集Q中任意第j个局部描述子的Hamming距离为dlocal;如果dlocal小于阈值ε,将dlocal保存到相似度矩阵的对应位置,如果dlocal大于阈值ε,将相似度矩阵的对应位置标记为-1;
第二级匹配策略:
完成相似度矩阵的构造后,更新相似度矩阵中所有不为-1的元素的元素值,更新方法为:找出相似度矩阵中不为-1的元素所对应的基准集P和目标集Q中的两个特征点,计算这两个特征点的全局描述子之间的Hamming距离dglobal,将该不为-1的元素的元素值更新为dglobal和原元素值的和;
然后,分别找出相似度矩阵各行的最小元素值,再分别找出相似度矩阵各列的最小元素值,该最小元素值不包括-1;
如果某元素的元素值既是该元素所在行的最小元素值,也是该元素所在列的最小元素值,即认为这个元素对应的基准集P和目标集Q中的两个特征点是一组匹配点对。
本发明的有益效果:
本发明针对基于特征点的CT体数据拼接技术中特征点匹配过程耗时长、CT体数据中相似特征点容易造成误匹配的问题,并且针对待拼接体数据之间存在旋转变换的情况,提出了一种基于三维二值特征描述子的CT体数据快速匹配方法。该方法主要分为特征点基准方向估计、三维二值特征描述子生成和特征点匹配三个模块:为了实现体数据的旋转不变性,首先需要根据特征点局部图像邻域内随机点对的灰度大小关系估算出一个基准方向;然后基于每个特征点的基准方向进行方向规定化,并在此基础上计算特征点的三维二值特征描述子;最后根据特征点的描述向量,采用Hamming距离作为特征点的相似性度量,进行特征点匹配。本发明创新地实现了具有旋转不变性的二值特征描述子在三维空间中的使用,有效地提高了CT体数据中三维特征点匹配的准确率和效率,这对于CT体数据拼接技术投入实用化具有重要的意义。
(四)、附图说明:
图1为基于特征点的配准算法流程示意图;
图2为基于三维二值特征描述子的CT体数据快速匹配方法的流程示意图;
图3为照相机的CT体数据渲染示意图;
图4为三维图像中二元测试体素对采样模型示意图之一;
图5为三维图像中二元测试体素对采样模型示意图之二。
(五)、具体实施方式:
基于三维二值特征描述子的CT体数据快速匹配方法含有如下步骤(如图2所示):
步骤1:输入待拼接的两个CT体数据,并完成对该两个CT体数据的特征点检测;图3中矩形框标注的是待拼接两个体数据的重叠区域,球状物表示特征点,球的大小表示特征点的尺度;
步骤2:按照以特征点为球心,在不同半径的球面上均匀采样的原则,确定特征点邻域内采样点的固定采样样式;
步骤3:将特征点邻域内的采样点组合成点对,并根据点对之间的灰度大小关系计算每个特征点的主方向;
步骤4:在过特征点并且与主方向垂直的二维平面上,计算特征点在该二维平面上的主方向,并以此二维平面上的主方向作为特征点的辅方向;当完成特征点主方向的计算后,为了防止体数据以主方向为轴发生旋转,还需要通过计算一个辅方向的方式进一步稳定特征点的基准方向。
步骤5:根据特征点的主方向和辅方向对特征点进行方向规定化;
步骤6:在进行方向规定化后的特征点邻域内,使用两种不同的采样模型计算特征点的二值特征描述,得到对应每个特征点的两种描述子;
步骤7:使用两级匹配策略对两个CT体数据中的特征点进行匹配。
步骤2的具体方法为:
以(0,0,0)点表示特征点的位置,(x,y,z)为采样点的坐标,为了使主方向计算结果适应CT体数据在任意方向上任意角度的旋转,采样点坐标满足:
(x2+y2+z2)∈{8,10,15,25}\*MERGEFORMAT(1)
即采样点的位置位于球面半径r分别为8、10、15、25的四个层次的球面上;同时,按照表1的规律预先生成这些固定样式采样点位置坐标;
表1 三维空间固定样式采样点生成规律
表1中r表示四个层次的球面半径,由表1可知,当采样点坐标满足x2+y2+z2=8时,任意两个采样点的距离应该大于7个体素,采样点的数量是21个,其它以此类推。根据表1生成采样点的原则是:在每一层球面上,尽可能均匀地采样体素点。在每一层球面上,采样点个数n﹑球面半径r﹑球面上任意两个采样点之间的最小距离d的关系如下式所示:
步骤3的具体方法为:
当确定固定样式采样点的位置坐标后,通过统计以采样点组成的点对的梯度信息计算得到特征点的主方向:设所有采样点组成的点对集合为L,任一点对(pi,pj)的梯度g(pi,pj)的计算公式为:
式中,pi和pj表示点对中两个体素的三维空间坐标,I(pi)和I(pj)分别是两个体素的灰度值,为了降低噪声的干扰,需要对每个采样点进行平滑处理,并采用盒形滤波器和三维积分图像技术的结合对采样点进行平滑处理,设num(L)为点对集合L中点对的数量,则点对集合L中各点对的梯度平均值g(L)为:
该梯度平均值g(L)即为特征点的主方向,gx﹑gy﹑gz分别表示梯度平均值g(L)在三维笛卡尔坐标系下X轴﹑Y轴﹑Z轴方向的分量,主方向可以使用方向角θ和俯仰角φ表示:
步骤4中,使用二维BRISK算法计算特征点在二维平面上的主方向。
步骤6中,两种不同的采样模型为局部采样模型和全局采样模型,在局部描述的基础上,通过对特征点周围更大邻域内的体素测试获取“全局”描述子,从而抑制描述子局部歧义性;
局部采样模型:类似BRIEF算法,在以特征点为中心的S×S×S大小的局部图像块范围内,体素点采样满足三维空间上各向同性的高斯分布:其中i.i.d.表示独立同分布;在满足上述分布条件下,选择T个体素对(如图4所示,每个实线段代表一组体素对),即选择T个点对,根据下面的二元测试公式计算得到特征点的局部描述子:
式中,τ(pi,pj)为任一点对(pi,pj)的二元测试结果,T个点对的二元测试结果集合在一起即为局部描述子;
全局采样模型:全局区域表示在局部图像块范围外的一个更大区域(R×R×R),并不表示所有图像区域;如图5所示,内部虚线图像块区域表示局部邻域,外部虚线和内部虚线图像块之间的区域则表示“全局”区域;
全局范围内体素对采样方式为:对任意i,xi始终是特征点所在位置,相对位置设为(0,0,0);而yi则通过在“全局”区域内,按照图像坐标系下三个坐标方向均匀采样的方式得到,图5中描绘了5个yi的体素采样,及其相互之间的位置关系(相邻采样点之间的距离为h),其它采样点可循此规律得到;图中的实线段表示一组体素对;在全局区域中,通过二元测试公式计算得到每个特征点的全局描述子。
步骤7的具体过程如下:
令一个CT体数据中的特征点描述子集合为基准集P={Pi},i=1,2,...,n,另一个CT体数据中的特征点描述子集合为目标集Q={Qj},j=1,2,...m;将两个CT体数据中的特征点的二值描述子分别表示为:
其中,和分别表示基准集P中第i个特征点的局部描述子和全局描述子,和分别表示目标集Q中第j个特征点的局部描述子和全局描述子;
第一级匹配策略:
计算基准集P中每个特征点的局部描述子和目标集Q中每个特征点的局部描述子之间的相似度(Hamming距离),生成相似度矩阵,具体生成方法如下:
设基准集P中任意第i个局部描述子和目标集Q中任意第j个局部描述子的Hamming距离为dlocal;如果dlocal小于阈值ε,则认为j点和i点存在一定的相似度,将dlocal保存到相似度矩阵的对应位置,如果dlocal大于阈值ε,则认为j点和i点完全不相似,将相似度矩阵的对应位置标记为-1,表示这两个点不会是匹配点;
第二级匹配策略:
完成相似度矩阵的构造后,更新相似度矩阵中所有不为-1的元素的元素值,更新方法为:找出相似度矩阵中不为-1的元素所对应的基准集P和目标集Q中的两个特征点,计算这两个特征点的全局描述子之间的Hamming距离dglobal,将该不为-1的元素的元素值更新为dglobal和原元素值的和;
然后,分别找出相似度矩阵各行的最小元素值,再分别找出相似度矩阵各列的最小元素值,该最小元素值不包括-1;
如果某元素的元素值既是该元素所在行的最小元素值,也是该元素所在列的最小元素值,即认为这个元素对应的基准集P和目标集Q中的两个特征点是一组匹配点对。
Claims (6)
1.一种基于三维二值特征描述子的CT体数据快速匹配方法,其特征是:含有如下步骤:
步骤1:输入待拼接的两个CT体数据,并完成对该两个CT体数据的特征点检测;
步骤2:按照以特征点为球心,在不同半径的球面上均匀采样的原则,确定特征点邻域内采样点的固定采样样式;
步骤3:将特征点邻域内的采样点组合成点对,并根据点对之间的灰度大小关系计算每个特征点的主方向;
步骤4:在过特征点并且与主方向垂直的二维平面上,计算特征点在该二维平面上的主方向,并以此二维平面上的主方向作为特征点的辅方向;
步骤5:根据特征点的主方向和辅方向对特征点进行方向规定化;
步骤6:在进行方向规定化后的特征点邻域内,使用两种不同的采样模型计算特征点的二值特征描述,得到对应每个特征点的两种描述子;
步骤7:使用两级匹配策略对两个CT体数据中的特征点进行匹配。
2.根据权利要求1所述的基于三维二值特征描述子的CT体数据快速匹配方法,其特征是:所述步骤2的具体方法为:
以(0,0,0)点表示特征点的位置,(x,y,z)为采样点的坐标,采样点坐标满足:
(x2+y2+z2)∈{8,10,15,25},
即采样点的位置位于球面半径r分别为8、10、15、25的四个层次的球面上;
在每一层球面上,采样点个数n﹑球面半径r﹑球面上任意两个采样点之间的最小距离d的关系如下式所示:
3.根据权利要求1所述的基于三维二值特征描述子的CT体数据快速匹配方法,其特征是:所述步骤3的具体方法为:
通过统计以采样点组成的点对的梯度信息计算得到特征点的主方向:设所有采样点组成的点对集合为L,任一点对(pi,pj)的梯度g(pi,pj)的计算公式为:
式中,pi和pj表示点对中两个体素的三维空间坐标,I(pi)和I(pj)分别是两个体素的灰度值,并采用盒形滤波器和三维积分图像技术的结合对采样点进行平滑处理,设num(L)为点对集合L中点对的数量,则点对集合L中各点对的梯度平均值g(L)为:
该梯度平均值g(L)即为特征点的主方向,gx﹑gy﹑gz分别表示梯度平均值g(L)在三维笛卡尔坐标系下X轴﹑Y轴﹑Z轴方向的分量,主方向可以使用方向角θ和俯仰角φ表示:
4.根据权利要求1所述的基于三维二值特征描述子的CT体数据快速匹配方法,其特征是:所述步骤4中,使用二维BRISK算法计算特征点在二维平面上的主方向。
5.根据权利要求3所述的基于三维二值特征描述子的CT体数据快速匹配方法,其特征是:所述步骤6中,两种不同的采样模型为局部采样模型和全局采样模型;
局部采样模型:在以特征点为中心的局部图像块范围内,体素点采样满足三维空间上各向同性的高斯分布,选择T个体素对,即选择T个点对,根据下面的二元测试公式计算得到特征点的局部描述子:
式中,τ(pi,pj)为任一点对(pi,pj)的二元测试结果,T个点对的二元测试结果集合在一起即为局部描述子;
全局采样模型:全局区域表示在局部图像块范围外的一个更大区域,并不表示所有图像区域;在全局区域中,通过二元测试公式计算得到每个特征点的全局描述子。
6.根据权利要求5所述的基于三维二值特征描述子的CT体数据快速匹配方法,其特征是:所述步骤7的具体过程如下:
令一个CT体数据中的特征点描述子集合为基准集P={Pi},i=1,2,...,n,另一个CT体数据中的特征点描述子集合为目标集Q={Qj},j=1,2,...m;将两个CT体数据中的特征点的二值描述子分别表示为:
其中,和分别表示基准集P中第i个特征点的局部描述子和全局描述子,和分别表示目标集Q中第j个特征点的局部描述子和全局描述子;
第一级匹配策略:
计算基准集P中每个特征点的局部描述子和目标集Q中每个特征点的局部描述子之间的相似度,生成相似度矩阵,具体生成方法如下:
设基准集P中任意第i个局部描述子和目标集Q中任意第j个局部描述子的Hamming距离为dlocal;如果dlocal小于阈值ε,将dlocal保存到相似度矩阵的对应位置,如果dlocal大于阈值ε,将相似度矩阵的对应位置标记为-1;
第二级匹配策略:
完成相似度矩阵的构造后,更新相似度矩阵中所有不为-1的元素的元素值,更新方法为:找出相似度矩阵中不为-1的元素所对应的基准集P和目标集Q中的两个特征点,计算这两个特征点的全局描述子之间的Hamming距离dglobal,将该不为-1的元素的元素值更新为dglobal和原元素值的和;
然后,分别找出相似度矩阵各行的最小元素值,再分别找出相似度矩阵各列的最小元素值,该最小元素值不包括-1;
如果某元素的元素值既是该元素所在行的最小元素值,也是该元素所在列的最小元素值,即认为这个元素对应的基准集P和目标集Q中的两个特征点是一组匹配点对。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410336591.XA CN104134206B (zh) | 2014-07-15 | 2014-07-15 | 基于三维二值特征描述子的ct体数据快速匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410336591.XA CN104134206B (zh) | 2014-07-15 | 2014-07-15 | 基于三维二值特征描述子的ct体数据快速匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104134206A true CN104134206A (zh) | 2014-11-05 |
CN104134206B CN104134206B (zh) | 2017-03-15 |
Family
ID=51806875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410336591.XA Active CN104134206B (zh) | 2014-07-15 | 2014-07-15 | 基于三维二值特征描述子的ct体数据快速匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104134206B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105719272A (zh) * | 2014-12-05 | 2016-06-29 | 航天信息股份有限公司 | 保持空间结构的图像特征点匹配方法 |
CN110910433A (zh) * | 2019-10-29 | 2020-03-24 | 太原师范学院 | 一种基于深度学习的点云匹配方法 |
CN111310818A (zh) * | 2020-02-10 | 2020-06-19 | 贝壳技术有限公司 | 特征描述子确定方法、装置及计算机可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930537A (zh) * | 2012-10-23 | 2013-02-13 | 深圳市宜搜科技发展有限公司 | 一种图像检测方法及系统 |
US20130101226A1 (en) * | 2011-10-24 | 2013-04-25 | Feng Tang | Feature descriptors |
-
2014
- 2014-07-15 CN CN201410336591.XA patent/CN104134206B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130101226A1 (en) * | 2011-10-24 | 2013-04-25 | Feng Tang | Feature descriptors |
CN102930537A (zh) * | 2012-10-23 | 2013-02-13 | 深圳市宜搜科技发展有限公司 | 一种图像检测方法及系统 |
Non-Patent Citations (2)
Title |
---|
CHANOP SILPA-ANAN等: "Optimised KD-trees for fast image descriptor matching", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2008》 * |
杜军: "基于BRISK特征的图像配准提取与描述研究", 《十堰职业技术学院学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105719272A (zh) * | 2014-12-05 | 2016-06-29 | 航天信息股份有限公司 | 保持空间结构的图像特征点匹配方法 |
CN105719272B (zh) * | 2014-12-05 | 2020-07-10 | 航天信息股份有限公司 | 保持空间结构的图像特征点匹配方法 |
CN110910433A (zh) * | 2019-10-29 | 2020-03-24 | 太原师范学院 | 一种基于深度学习的点云匹配方法 |
CN111310818A (zh) * | 2020-02-10 | 2020-06-19 | 贝壳技术有限公司 | 特征描述子确定方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN104134206B (zh) | 2017-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103578117B (zh) | 确定摄像头相对于环境的姿态的方法 | |
CN103617328B (zh) | 一种飞机三维姿态解算方法 | |
CN103839265A (zh) | 基于sift和归一化互信息的sar图像配准方法 | |
CN102122359B (zh) | 一种图像配准方法及装置 | |
CN102903109B (zh) | 一种光学影像和sar影像一体化分割配准方法 | |
CN110189406B (zh) | 图像数据标注方法及其装置 | |
Marcu et al. | A multi-stage multi-task neural network for aerial scene interpretation and geolocalization | |
CN104268880A (zh) | 基于特征和区域匹配相结合的深度信息获取方法 | |
Cheng et al. | An automatic and robust point cloud registration framework based on view-invariant local feature descriptors and transformation consistency verification | |
CN104134206A (zh) | 基于三维二值特征描述子的ct体数据快速匹配方法 | |
Mazurek et al. | SLAM-OR: simultaneous localization, mapping and object recognition using video sensors data in open environments from the sparse points cloud | |
Zhang et al. | Enhancement of measurement accuracy of discontinuous specular objects with stereo vision deflectometer | |
Bergamasco et al. | A robust multi-camera 3D ellipse fitting for contactless measurements | |
CN112233104B (zh) | 实时位移场和应变场检测方法、系统、装置和存储介质 | |
Goldman et al. | Robust epipolar geometry estimation using noisy pose priors | |
Tao et al. | A high-accuracy circular hole measurement method based on multi-camera system | |
Gomez-Donoso et al. | Three-dimensional reconstruction using SFM for actual pedestrian classification | |
CN104166977A (zh) | 一种图像匹配相似性测度方法及其图像匹配方法 | |
Shang et al. | Model-based tracking by classification in a tiny discrete pose space | |
Yin et al. | Initializing and accelerating Stereo-DIC computation using semi-global matching with geometric constraints | |
CN105066905B (zh) | 小波变换轮廓术抑噪方法 | |
Lu | New efficient vanishing point detection from a single road image based on intrinsic line orientation and color texture properties | |
Xiong et al. | A method of acquiring tie points based on closed regions in SAR images | |
Alina et al. | MaLeFiSenta: Machine Learning for FilamentS Identification and orientation in the ISM | |
Méndez et al. | Comparative study of point cloud registration techniques between ICP and others |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |