CN108416801B - 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法 - Google Patents

一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法 Download PDF

Info

Publication number
CN108416801B
CN108416801B CN201810165099.9A CN201810165099A CN108416801B CN 108416801 B CN108416801 B CN 108416801B CN 201810165099 A CN201810165099 A CN 201810165099A CN 108416801 B CN108416801 B CN 108416801B
Authority
CN
China
Prior art keywords
point
feature
points
matching
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810165099.9A
Other languages
English (en)
Other versions
CN108416801A (zh
Inventor
张菁
王鹤
张晓东
刘志民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201810165099.9A priority Critical patent/CN108416801B/zh
Publication of CN108416801A publication Critical patent/CN108416801A/zh
Application granted granted Critical
Publication of CN108416801B publication Critical patent/CN108416801B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

本发明公开了一种面向立体视觉三维重建的Har‑SURF‑RAN特征点匹配方法,属于数字图像处理领域,包含如下步骤:步骤(1):对图像中的像素点进行高斯差分预处理,筛选出候选特征点,再利用权重系数筛选,获得特征点。步骤(2):对特征点数据集进行处理,得到特征点的特征描述子;步骤(3):利用最近邻特征匹配对检测到的特征点进行匹配;步骤(4):对特征匹配点对中的误判点初步剔除,利用PROSAC的思想将数据集进行排序,对RANSAC选取模型及评价部分进行改进,利用局部最优化的思想对RANSAC进行改进,引入优化参数K对模型局部进行进一步优化。本发明减少了计算量,提高了速度,改进算法产生的冗余点较少,精确度较高。

Description

一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法
技术领域
本发明属于数字图像处理领域,尤其涉及一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法。
背景技术
近年来,计算机的硬件和软件并驾齐驱,无论是在运行效率和处理信息的能力方面均有了长足的发展,人们对于计算机所呈现和处理的信息也提出了更高的期待。由此,三维重建技术得到了不断地发展和完善。
三维重建是计算机辅助几何设计、计算机图形学、计算机动画、计算机视觉、医学图像处理、科学计算和虚拟现实、数字媒体创作等领域的共性科学问题和核心技术,它的核心思想是从二维图像中恢复三维结构。目前,其已广泛的被应用在生物、医学、建筑、电影游戏、文物保护、机器人视觉、自动导航、航天航海大型科研课题的仿真等各个领域,具有相当广阔的应用前景,展现出了极强的生命力和影响力。
然而在整个三维重建技术的步骤流程中,特征点匹配是三维重建技术的第一个重要步骤,三维重建技术利用匹配模型计算出的特征点位置确定图片中的物体在实际三维空间中所处的大致位置,并以此为基准进行下一步的三维重构,从而得到对目标物体的三维重建模型。
其中特征点匹配的准确度直接影响了三维重建结果的好坏。若特征点匹配的效果欠佳,则会导致冗余点较多、抗噪能力差,由此定位的特征点位置不准确等问题,在此基础上进行三维重构,往往会导致得到的结果与真实情况相差较远,产生噪声较多,误判率较高,准确率下降等问题。故特征点匹配是三维重建技术中的重中之重。
总结现有研究成果发现,针对三维重建中特征点匹配的研究面临如下关键问题亟需解决:
(1)现存的特征点检测算法虽然趋于成熟,但仍存在冗余点较多、抗干扰能力不强等缺点,精度及效率仍有待进一步提高。常见的集中特征点检测方法中,Harris特征点检测方法具有较强的稳定性但速度较慢,SURF特征检测速度较快但稳定性较差,两者都具有一定的局限性。
(2)基于立体视觉的三维重建对于尺度要求不高,但SURF算法为保证尺度不变性提出的金字塔结构导致该算法速度慢、计算量大。
(3)已有的消除误匹配算法在效率方面与子集大小、类内点比例以及数据集大小有关,在某些场景下效率较低;在精度方面,考虑到效率因素,得到的参数往往是非最佳参数,不能直接应用,还需再经过细化处理。
发明内容
本发明的目的在于公开计算量低,精确度高,速度高的一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法。
本发明的目的是这样实现的:
一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,包含如下步骤:
步骤(1):利用改进的Harris特征点检测算法,首先对图像中的像素点进行高斯差分预处理,然后利用harris算子筛选出候选特征点,再利用加入了权重系数的Laplace算子对其进行再筛选,从而获得特征点:
步骤(1.1):定义窗口函数。利用高斯滤波定义窗口函数:
w(x,y)=exp[-(x2+y2)/(2σ2)];
步骤(1.2):输入图像数据,对于图像中的每一个像素点计算梯度分量Ix,Iy;
步骤(1.3):对于图像中的每一个像素点,计算自相关矩阵M和M’,根据自相关矩阵计算像素点角点响应函数R:
Figure BDA0001584191730000021
Figure BDA0001584191730000022
步骤(1.4):判断像素点的角点响应函数值是否大于邻域内其他像素点的角点响应函数值,若大于则保留,否则舍弃;
步骤(1.5):根据像素点的角点响应函数值最大值计算阈值,若R(x,y)大于该阈值且是局部极大值点,则将该像素点列为候选特征点;
步骤(1.6):对候选特征点进一步计算Laplace响应,利用权重系数调节响应值:
Laplace算子为:
Figure BDA0001584191730000023
若候选特征点同时是Laplace相应的局部极值,则将该像素点选为特征点。
步骤(2):在SURF提出的积分图像的基础上对特征点数据集进行处理,得到特征点的特征描述子矩阵:
步骤(2.1):根据积分图像的数学公式对原图进行计算,求出对应的积分图像:
积分图像公式:
Figure BDA0001584191730000031
步骤(2.2):以特征点为中心,计算圆形邻域内的点在x、y方向的Haar小波响应,并给这些响应赋高斯权重系数;
步骤(2.3):以图像中的特征点为中心,以π/3为扇形滑动窗口的角度,计算滑动窗口内的响应值mw和θw
Figure BDA0001584191730000032
Figure BDA0001584191730000033
步骤(2.4):遍历整个圆形区域,选择最长矢量的方向为该特征点的主方向,得到每一个特征点的主方向;
步骤(2.5):将坐标轴旋转为关键点的方向,以确保旋转不变性:
旋转公式为:
x=x0-j·s·sin(θ)+i·s·cos(θ);
y=y0-j·s·cos(θ)+i·s·sin(θ);
上式中,s为尺度因子;
步骤(2.6):对每个特征点计算∑dx,∑|dx|,∑dy,∑|dy|,形成4通道或8通道的特征描述子矩阵。
步骤(3):利用最近邻特征匹配对检测到的特征点进行匹配:
步骤(3.1):利用穷举法求得最近邻特征点对数据集;
步骤(3.2):利用最近邻特征匹配对特征点进行匹配得到特征匹配点对数据集A;
步骤(4):利用改进的RANSAC消除误匹配点算法,在传统RANSAC算法的基础上引入预处理,实现对上一步骤中得到的特征匹配点对中的误判点的初步剔除后利用PROSAC的思想将数据集进行排序,然后利用Premptive测试的基本思想对RANSAC选取模型及评价部分进行改进,最后利用局部最优化的思想对RANSAC进行改进,引入优化参数K对模型局部进行进一步优化:
步骤(4.1):计算特征匹配点对数据集A中各匹配点对的距离d,得到距离数据集D={d1,d2,……,dn}。根据各点对距离值重复的多少将点对进行排序,重复次数越多,数据质量越高,排序越靠前。设置阈值t,滤除超过阈值的匹配点对;
步骤(4.2):根据匹配点对的质量排序进行采样,从排序靠前的数据取起,减少取样次数,提高算法速度;
步骤(4.3):根据采样点计算参数,获得拟合模型;
步骤(4.4):对多组采样点获取的模型分别计算该模型是否满足其他未采样点,按照满足的高低程度从高到低进行排序,选取前N个模型;
步骤(4.5):对前N个模型进行多轮采样,重复步骤(4.4),直至选取到最佳模型;
步骤(4.6):对最佳模型进行细化,设置优化参数K对最佳模型进行迭代,选取结果中判断阈值t小于等于Kt的结果作为优化结果;
步骤(4.7):K减小,重复步骤(4.6),直至减小至t终止;
步骤(4.8):输出最终的特征匹配点对数据集A,。
本发明的有益效果为:
本发明针对三维重建的实际情况省去了传统SURF中进行尺度空间构建及匹配的过程,用Harris特征点检测结果作为SURF算法的特征点,对Harris特征点检测进行了改进,结合多种思想对RANSAC算法进行了改进,减少了计算量,提高了速度,改进算法产生的冗余点较少,精确度较高。
附图说明
图1是Har-SURF-RAN特征点匹配模型总流程图。
图2是改进的Harris特征点检测流程图。
图3是SURF对特征点提取描述子操作流程示意图。
图4是改进的RANSAC消除特征点误匹配算法操作流程图。
具体实施方式
下面结合附图来进一步描述本发明:
如图1,一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,包含如下步骤:
步骤(1):如图2,利用改进的Harris特征点检测算法,首先对图像中的像素点进行高斯差分预处理,然后利用harris算子筛选出候选特征点,再利用加入了权重系数的Laplace算子对其进行再筛选,从而获得特征点:
步骤(1.1):定义窗口函数。利用高斯滤波定义窗口函数:
w(x,y)=exp[-(x2+y2)/(2σ2)];
步骤(1.2):输入图像数据,对于图像中的每一个像素点计算梯度分量Ix,Iy;
步骤(1.3):对于图像中的每一个像素点,计算自相关矩阵M和M’,根据自相关矩阵计算像素点角点响应函数R:
Figure BDA0001584191730000051
Figure BDA0001584191730000052
步骤(1.4):判断像素点的角点响应函数值是否大于邻域内其他像素点的角点响应函数值,若大于则保留,否则舍弃;
步骤(1.5):根据像素点的角点响应函数值最大值计算阈值,若R(x,y)大于该阈值且是局部极大值点,则将该像素点列为候选特征点;
步骤(1.6):对候选特征点进一步计算Laplace响应,利用权重系数调节响应值:
Laplace算子为:
Figure BDA0001584191730000054
若候选特征点同时是Laplace相应的局部极值,则将该像素点选为特征点。
步骤(2):如图3,在SURF提出的积分图像的基础上对特征点数据集进行处理,得到特征点的特征描述子:
传统的SURF为了满足对于尺度不变性提出的较为严格的要求,建立了尺度空间金字塔,大大增加了计算量和运算时间。对于尺度不变性的要求在图像识别中较为重要,但在三维重建过程中,图像的尺度不会有较大的差异,只在小范围内波动,只需在图像采样时利用尺度因子进行微小缩放扩大或缩小采样范围,就可以得到较好尺度适应性结果。故可省去原SURF方法中的尺度金字塔,减少计算量和运算时间。
步骤(2.1):根据积分图像的数学公式对原图进行计算,求出对应的积分图像:
积分图像公式:
Figure BDA0001584191730000053
步骤(2.2):以特征点为中心,计算圆形邻域内的点在x、y方向的Haar小波响应,并给这些响应赋高斯权重系数;
步骤(2.3):以图像中的特征点为中心,以π/3为扇形滑动窗口的角度,计算滑动窗口内的响应值mw和θw
Figure BDA0001584191730000061
Figure BDA0001584191730000062
步骤(2.4):遍历整个圆形区域,选择最长矢量的方向为该特征点的主方向,得到每一个特征点的主方向;
步骤(2.5):将坐标轴旋转为关键点的方向,以确保旋转不变性:
旋转公式为:
x=x0-j·s·sin(θ)+i·s·cos(θ);
y=y0-j·s·cos(θ)+i·s·sin(θ);
上式中,s为尺度因子;
步骤(2.6):对每个特征点计算∑dx,∑|dx|,∑dy,∑|dy|,形成4通道或8通道的特征描述子矩阵。
步骤(3):利用最近邻特征匹配对检测到的特征点进行匹配:
步骤(3.1):利用穷举法求得最近邻特征点对数据集;
步骤(3.2):利用最近邻特征匹配对特征点进行匹配得到特征匹配点对数据集A;
步骤(4):如图4,利用改进的RANSAC消除误匹配点算法,在传统RANSAC算法的基础上引入预处理,实现对上一步骤中得到的特征匹配点对中的误判点的初步剔除后利用PROSAC的思想将数据集进行排序,然后利用Premptive测试的基本思想对RANSAC选取模型及评价部分进行改进,最后利用局部最优化的思想对RANSAC进行改进,引入优化参数K对模型局部进行进一步优化:
步骤(4.1):计算特征匹配点对数据集A中各匹配点对的距离d,得到距离数据集D={d1,d2,……,dn}。根据各点对距离值重复的多少将点对进行排序,重复次数越多,数据质量越高,排序越靠前。设置阈值t,滤除超过阈值的匹配点对;
步骤(4.2):根据匹配点对的质量排序进行采样,从排序靠前的数据取起,减少取样次数,提高算法速度;
步骤(4.3):根据采样点计算参数,获得拟合模型;
步骤(4.4):对多组采样点获取的模型分别计算该模型是否满足其他未采样点,按照满足的高低程度从高到低进行排序,选取前N个模型;
步骤(4.5):对前N个模型进行多轮采样,重复步骤(4.4),直至选取到最佳模型;
步骤(4.6):对最佳模型进行细化,设置优化参数K对最佳模型进行迭代,选取结果中判断阈值t小于等于Kt的结果作为优化结果;
步骤(4.7):K减小,重复步骤(4.6),直至减小至t终止;
步骤(4.8):输出最终的特征匹配点对数据集A,。
对于一张图片中的原始数据点集I(x,y)中每个像素点(x,y),定义局部窗口[u,v]在图像各个方向上滑动时产生的灰度变化函数E(u,v),E(u,v)=Σw(x,y)[I(x+u,y+v)-I(x,y)],经泰勒公式化简后E(u,v)可以近似表示为E(u,v)=[u,v]M[u,v]-1,根据此灰度变化函数进一步定义角点响应函数R=detM-k(traceM)2,利用角点响应函数R和拉普拉斯算子进一步对灰度进行计算,可得特征点数据集P={P1,P2,……,Pn}。每个特征点数据集对应一个特征匹配点对数据集A,对A中的每个对应元素求距离可得到距离数据集D={d1,d2,……,dn}。最终的特征匹配点对数据集为A’。
本发明针对三维重建的实际情况省去了传统SURF中进行尺度空间构建及匹配的过程,用Harris特征点检测结果作为SURF算法的特征点,对Harris特征点检测进行了改进,结合多种思想对RANSAC算法进行了改进,减少了计算量,提高了速度,改进算法产生的冗余点较少,精确度较高。
以上所述并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,其特征在于:包含如下步骤:
步骤(1):利用改进的Harris特征点检测算法,首先对图像中的像素点进行高斯差分预处理,然后利用harris算子筛选出候选特征点,再利用加入了权重系数的Laplace算子对其进行再筛选,从而获得特征点;
步骤(2):在SURF提出的积分图像的基础上对特征点数据集进行处理,得到特征点的特征描述子;
步骤(3):利用最近邻特征匹配对检测到的特征点进行匹配:
步骤(3.1):利用穷举法求得最近邻特征点对数据集;
步骤(3.2):利用最近邻特征匹配对特征点进行匹配得到特征匹配点对数据集A;
步骤(4):利用改进的RANSAC消除误匹配点算法,在传统RANSAC算法的基础上引入预处理,实现对上一步骤中得到的特征匹配点对中的误判点的初步剔除后利用PROSAC的思想将数据集进行排序,然后利用Premptive测试的基本思想对RANSAC选取模型及评价部分进行改进,最后利用局部最优化的思想对RANSAC进行改进,引入优化参数K对模型局部进行进一步优化;
所述的步骤(1)具体为:
步骤(1.1):定义窗口函数;利用高斯滤波定义窗口函数:
w(x,y)=exp[-(x2+y2)/(2σ2)];
步骤(1.2):输入图像数据,对于图像中的每一个像素点计算梯度分量Ix,Iy;
步骤(1.3):对于图像中的每一个像素点,计算自相关矩阵M和M’,根据自相关矩阵计算像素点角点响应函数R:
Figure FDA0003342762160000011
Figure FDA0003342762160000012
步骤(1.4):判断像素点的角点响应函数值是否大于邻域内其他像素点的角点响应函数值,若大于则保留,否则舍弃;
步骤(1.5):根据像素点的角点响应函数值最大值计算阈值,若R(x,y)大于该阈值且是局部极大值点,则将该像素点列为候选特征点;
步骤(1.6):对候选特征点进一步计算Laplace响应,利用权重系数调节响应值:
Laplace算子为:
Figure FDA0003342762160000013
若候选特征点同时是Laplace相应的局部极值,则将该像素点选为特征点。
2.根据权利要求1所述的一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,其特征在于:所述的步骤(2)具体为:
步骤(2.1):根据积分图像的数学公式对原图进行计算,求出对应的积分图像:
积分图像公式:
ii(i,j)=∑i′≤i,j′≤jp(i′,j′);
步骤(2.2):以特征点为中心,计算圆形邻域内的点在x、y方向的Haar小波响应,并给这些响应赋高斯权重系数;
步骤(2.3):以图像中的特征点为中心,以π/3为扇形滑动窗口的角度,计算滑动窗口内的响应值mw和θw
mw=∑wdx+∑wdy;
θw=arctan(∑wdx/∑wdy);
步骤(2.4):遍历整个圆形区域,选择最长矢量的方向为该特征点的主方向,得到每一个特征点的主方向;
步骤(2.5):将坐标轴旋转为关键点的方向,以确保旋转不变性:
旋转公式为:
x=x0-j·s·sin(θ)+i·s·cos(θ);
y=y0-j·s·cos(θ)+i·s·sin(θ);
上式中,s为尺度因子;
步骤(2.6):对每个特征点计算∑dx,∑|dx|,∑dy,∑|dy|,形成4通道或8通道的特征描述子矩阵。
3.根据权利要求1所述的一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,其特征在于:所述的步骤(4)具体为:
步骤(4.1):计算特征匹配点对数据集A中各匹配点对的距离d,得到距离数据集D={d1,d2,……,dn};根据各点对距离值重复的多少将点对进行排序,重复次数越多,数据质量越高,排序越靠前;设置阈值t,滤除超过阈值的匹配点对;
步骤(4.2):根据匹配点对的质量排序进行采样,从排序靠前的数据取起,减少取样次数,提高算法速度;
步骤(4.3):根据采样点计算参数,获得拟合模型;
步骤(4.4):对多组采样点获取的模型分别计算该模型是否满足其他未采样点,按照满足的高低程度从高到低进行排序,选取前N个模型;
步骤(4.5):对前N个模型进行多轮采样,重复步骤(4.4),直至选取到最佳模型;
步骤(4.6):对最佳模型进行细化,设置优化参数K对最佳模型进行迭代,选取结果中判断阈值t小于等于Kt的结果作为优化结果;
步骤(4.7):K减小,重复步骤(4.6),直至减小至t终止;
步骤(4.8):输出最终的特征匹配点对数据集A’。
CN201810165099.9A 2018-02-28 2018-02-28 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法 Active CN108416801B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810165099.9A CN108416801B (zh) 2018-02-28 2018-02-28 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810165099.9A CN108416801B (zh) 2018-02-28 2018-02-28 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法

Publications (2)

Publication Number Publication Date
CN108416801A CN108416801A (zh) 2018-08-17
CN108416801B true CN108416801B (zh) 2022-02-22

Family

ID=63129186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810165099.9A Active CN108416801B (zh) 2018-02-28 2018-02-28 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法

Country Status (1)

Country Link
CN (1) CN108416801B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109272573A (zh) * 2018-09-07 2019-01-25 东南大学 三维数字模型与三维实景模型结合的智慧桥梁可视化系统
CN110516731B (zh) * 2019-08-20 2022-04-29 北京影谱科技股份有限公司 一种基于深度学习的视觉里程计特征点检测方法及系统
CN110490268A (zh) * 2019-08-26 2019-11-22 山东浪潮人工智能研究院有限公司 一种基于余弦相似度的改进最近邻距离比的特征匹配方法
CN113095371B (zh) * 2021-03-22 2023-01-17 北京大学 一种面向三维重建的特征点匹配方法及系统
CN115045853B (zh) * 2022-06-13 2023-10-27 内蒙古京能乌兰伊力更风力发电有限责任公司 一种基于新能源集控的风机安全保护系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102088569A (zh) * 2010-10-13 2011-06-08 首都师范大学 低空无人飞行器序列图像拼接方法和系统
CN102693542A (zh) * 2012-05-18 2012-09-26 中国人民解放军信息工程大学 一种影像特征匹配方法
CN103914571A (zh) * 2014-04-25 2014-07-09 南京大学 一种基于网格分割的三维模型检索方法
CN104700086A (zh) * 2015-03-20 2015-06-10 清华大学 一种用于视频分析的人机交互主题动作挖掘方法
CN104751412A (zh) * 2015-04-23 2015-07-01 重庆信科设计有限公司 一种基于仿射不变特征的图像拼接方法
CN104898971A (zh) * 2015-05-11 2015-09-09 昆明理工大学 一种基于视线跟踪技术的鼠标指针控制方法及系统
CN105300403A (zh) * 2015-09-22 2016-02-03 清华大学 一种基于双目视觉的车辆里程计算法
CN105513038A (zh) * 2014-10-20 2016-04-20 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN105701766A (zh) * 2016-02-24 2016-06-22 网易(杭州)网络有限公司 图形匹配方法和装置
CN106485745A (zh) * 2016-10-21 2017-03-08 昆明理工大学 一种微波反应腔温度场三维立体重构方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102088569A (zh) * 2010-10-13 2011-06-08 首都师范大学 低空无人飞行器序列图像拼接方法和系统
CN102693542A (zh) * 2012-05-18 2012-09-26 中国人民解放军信息工程大学 一种影像特征匹配方法
CN103914571A (zh) * 2014-04-25 2014-07-09 南京大学 一种基于网格分割的三维模型检索方法
CN105513038A (zh) * 2014-10-20 2016-04-20 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN104700086A (zh) * 2015-03-20 2015-06-10 清华大学 一种用于视频分析的人机交互主题动作挖掘方法
CN104751412A (zh) * 2015-04-23 2015-07-01 重庆信科设计有限公司 一种基于仿射不变特征的图像拼接方法
CN104898971A (zh) * 2015-05-11 2015-09-09 昆明理工大学 一种基于视线跟踪技术的鼠标指针控制方法及系统
CN105300403A (zh) * 2015-09-22 2016-02-03 清华大学 一种基于双目视觉的车辆里程计算法
CN105701766A (zh) * 2016-02-24 2016-06-22 网易(杭州)网络有限公司 图形匹配方法和装置
CN106485745A (zh) * 2016-10-21 2017-03-08 昆明理工大学 一种微波反应腔温度场三维立体重构方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
视频监控中运动图像序列三维重建;胡红权;《现代电子技术》;20180201;第41卷(第3期);第67-74页 *

Also Published As

Publication number Publication date
CN108416801A (zh) 2018-08-17

Similar Documents

Publication Publication Date Title
CN108416801B (zh) 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法
CN109544456B (zh) 基于二维图像和三维点云数据融合的全景环境感知方法
WO2024077812A1 (zh) 基于点云语义分割与结构拟合的单体建筑三维重建方法
WO2021017361A1 (zh) 一种基于边缘和梯度特征的模板匹配算法
CN108038906B (zh) 一种基于图像的三维四边形网格模型重建方法
CN111080529A (zh) 一种加强鲁棒性的无人机航拍图像拼接方法
CN110414533A (zh) 一种改进orb的特征提取与匹配方法
CN110992263B (zh) 一种图像拼接方法及系统
CN109711268B (zh) 一种人脸图像筛选方法及设备
CN112767456A (zh) 一种三维激光点云快速重定位方法
CN108288265A (zh) 一种面向hcc病理图像细胞核的分割与分类方法
CN110097598A (zh) 一种基于pvfh特征的三维物体位姿估计方法
CN112364881B (zh) 一种进阶采样一致性图像匹配方法
CN112614167A (zh) 一种结合单偏光与正交偏光图像的岩石薄片图像对齐方法
CN110517348B (zh) 基于图像前景分割的目标物体三维点云重建方法
CN115937552A (zh) 一种基于融合手工特征与深度特征的图像匹配方法
CN111798453A (zh) 用于无人驾驶辅助定位的点云配准方法及其系统
CN110246165B (zh) 提高可见光图像与sar图像配准速度的方法及系统
CN115326809A (zh) 一种隧道衬砌表观裂纹检测方法及检测装置
CN111161348B (zh) 一种基于单目相机的物体位姿估计方法、装置及设备
CN106295716A (zh) 一种基于视频信息的交通运动目标分类方法及装置
CN111951162A (zh) 一种基于改进的surf算法的图像拼接方法
CN115293995B (zh) 一种基于Transformer的点云逐点去噪方法
CN115690439A (zh) 基于图像平面的特征点聚集方法、装置及电子设备
CN114820987A (zh) 一种基于多视角图像序列的三维重建方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant