CN108416801A - 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法 - Google Patents

一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法 Download PDF

Info

Publication number
CN108416801A
CN108416801A CN201810165099.9A CN201810165099A CN108416801A CN 108416801 A CN108416801 A CN 108416801A CN 201810165099 A CN201810165099 A CN 201810165099A CN 108416801 A CN108416801 A CN 108416801A
Authority
CN
China
Prior art keywords
point
characteristic
characteristic point
matching
surf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810165099.9A
Other languages
English (en)
Other versions
CN108416801B (zh
Inventor
张菁
王鹤
张晓东
刘志民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201810165099.9A priority Critical patent/CN108416801B/zh
Publication of CN108416801A publication Critical patent/CN108416801A/zh
Application granted granted Critical
Publication of CN108416801B publication Critical patent/CN108416801B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种面向立体视觉三维重建的Har‑SURF‑RAN特征点匹配方法,属于数字图像处理领域,包含如下步骤:步骤(1):对图像中的像素点进行高斯差分预处理,筛选出候选特征点,再利用权重系数筛选,获得特征点。步骤(2):对特征点数据集进行处理,得到特征点的特征描述子;步骤(3):利用最近邻特征匹配对检测到的特征点进行匹配;步骤(4):对特征匹配点对中的误判点初步剔除,利用PROSAC的思想将数据集进行排序,对RANSAC选取模型及评价部分进行改进,利用局部最优化的思想对RANSAC进行改进,引入优化参数K对模型局部进行进一步优化。本发明减少了计算量,提高了速度,改进算法产生的冗余点较少,精确度较高。

Description

一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法
技术领域
本发明属于数字图像处理领域,尤其涉及一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法。
背景技术
近年来,计算机的硬件和软件并驾齐驱,无论是在运行效率和处理信息的能力方面均有了长足的发展,人们对于计算机所呈现和处理的信息也提出了更高的期待。由此,三维重建技术得到了不断地发展和完善。
三维重建是计算机辅助几何设计、计算机图形学、计算机动画、计算机视觉、医学图像处理、科学计算和虚拟现实、数字媒体创作等领域的共性科学问题和核心技术,它的核心思想是从二维图像中恢复三维结构。目前,其已广泛的被应用在生物、医学、建筑、电影游戏、文物保护、机器人视觉、自动导航、航天航海大型科研课题的仿真等各个领域,具有相当广阔的应用前景,展现出了极强的生命力和影响力。
然而在整个三维重建技术的步骤流程中,特征点匹配是三维重建技术的第一个重要步骤,三维重建技术利用匹配模型计算出的特征点位置确定图片中的物体在实际三维空间中所处的大致位置,并以此为基准进行下一步的三维重构,从而得到对目标物体的三维重建模型。
其中特征点匹配的准确度直接影响了三维重建结果的好坏。若特征点匹配的效果欠佳,则会导致冗余点较多、抗噪能力差,由此定位的特征点位置不准确等问题,在此基础上进行三维重构,往往会导致得到的结果与真实情况相差较远,产生噪声较多,误判率较高,准确率下降等问题。故特征点匹配是三维重建技术中的重中之重。
总结现有研究成果发现,针对三维重建中特征点匹配的研究面临如下关键问题亟需解决:
(1)现存的特征点检测算法虽然趋于成熟,但仍存在冗余点较多、抗干扰能力不强等缺点,精度及效率仍有待进一步提高。常见的集中特征点检测方法中,Harris特征点检测方法具有较强的稳定性但速度较慢,SURF特征检测速度较快但稳定性较差,两者都具有一定的局限性。
(2)基于立体视觉的三维重建对于尺度要求不高,但SURF算法为保证尺度不变性提出的金字塔结构导致该算法速度慢、计算量大。
(3)已有的消除误匹配算法在效率方面与子集大小、类内点比例以及数据集大小有关,在某些场景下效率较低;在精度方面,考虑到效率因素,得到的参数往往是非最佳参数,不能直接应用,还需再经过细化处理。
发明内容
本发明的目的在于公开计算量低,精确度高,速度高的一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法。
本发明的目的是这样实现的:
一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,包含如下步骤:
步骤(1):利用改进的Harris特征点检测算法,首先对图像中的像素点进行高斯差分预处理,然后利用harris算子筛选出候选特征点,再利用加入了权重系数的Laplace算子对其进行再筛选,从而获得特征点:
步骤(1.1):定义窗口函数。利用高斯滤波定义窗口函数:
w(x,y)=exp[-(x2+y2)/(2σ2)];
步骤(1.2):输入图像数据,对于图像中的每一个像素点计算梯度分量Ix,Iy;
步骤(1.3):对于图像中的每一个像素点,计算自相关矩阵M和M’,根据自相关矩阵计算像素点角点响应函数R:
步骤(1.4):判断像素点的角点响应函数值是否大于邻域内其他像素点的角点响应函数值,若大于则保留,否则舍弃;
步骤(1.5):根据像素点的角点响应函数值最大值计算阈值,若R(x,y)大于该阈值且是局部极大值点,则将该像素点列为候选特征点;
步骤(1.6):对候选特征点进一步计算Laplace响应,利用权重系数调节响应值:
Laplace算子为:
若候选特征点同时是Laplace相应的局部极值,则将该像素点选为特征点。
步骤(2):在SURF提出的积分图像的基础上对特征点数据集进行处理,得到特征点的特征描述子矩阵:
步骤(2.1):根据积分图像的数学公式对原图进行计算,求出对应的积分图像:
积分图像公式:
步骤(2.2):以特征点为中心,计算圆形邻域内的点在x、y方向的Haar小波响应,并给这些响应赋高斯权重系数;
步骤(2.3):以图像中的特征点为中心,以π/3为扇形滑动窗口的角度,计算滑动窗口内的响应值mw和θw
步骤(2.4):遍历整个圆形区域,选择最长矢量的方向为该特征点的主方向,得到每一个特征点的主方向;
步骤(2.5):将坐标轴旋转为关键点的方向,以确保旋转不变性:
旋转公式为:
x=x0-j·s·sin(θ)+i·s·cos(θ);
y=y0-j·s·cos(θ)+i·s·sin(θ);
上式中,s为尺度因子;
步骤(2.6):对每个特征点计算∑dx,∑|dx|,∑dy,∑|dy|,形成4通道或8通道的特征描述子矩阵。
步骤(3):利用最近邻特征匹配对检测到的特征点进行匹配:
步骤(3.1):利用穷举法求得最近邻特征点对数据集;
步骤(3.2):利用最近邻特征匹配对特征点进行匹配得到特征匹配点对数据集A;
步骤(4):利用改进的RANSAC消除误匹配点算法,在传统RANSAC算法的基础上引入预处理,实现对上一步骤中得到的特征匹配点对中的误判点的初步剔除后利用PROSAC的思想将数据集进行排序,然后利用Premptive测试的基本思想对RANSAC选取模型及评价部分进行改进,最后利用局部最优化的思想对RANSAC进行改进,引入优化参数K对模型局部进行进一步优化:
步骤(4.1):计算特征匹配点对数据集A中各匹配点对的距离d,得到距离数据集D={d1,d2,……,dn}。根据各点对距离值重复的多少将点对进行排序,重复次数越多,数据质量越高,排序越靠前。设置阈值t,滤除超过阈值的匹配点对;
步骤(4.2):根据匹配点对的质量排序进行采样,从排序靠前的数据取起,减少取样次数,提高算法速度;
步骤(4.3):根据采样点计算参数,获得拟合模型;
步骤(4.4):对多组采样点获取的模型分别计算该模型是否满足其他未采样点,按照满足的高低程度从高到低进行排序,选取前N个模型;
步骤(4.5):对前N个模型进行多轮采样,重复步骤(4.4),直至选取到最佳模型;
步骤(4.6):对最佳模型进行细化,设置优化参数K对最佳模型进行迭代,选取结果中判断阈值t小于等于Kt的结果作为优化结果;
步骤(4.7):K减小,重复步骤(4.6),直至减小至t终止;
步骤(4.8):输出最终的特征匹配点对数据集A,。
本发明的有益效果为:
本发明针对三维重建的实际情况省去了传统SURF中进行尺度空间构建及匹配的过程,用Harris特征点检测结果作为SURF算法的特征点,对Harris特征点检测进行了改进,结合多种思想对RANSAC算法进行了改进,减少了计算量,提高了速度,改进算法产生的冗余点较少,精确度较高。
附图说明
图1是Har-SURF-RAN特征点匹配模型总流程图。
图2是改进的Harris特征点检测流程图。
图3是SURF对特征点提取描述子操作流程示意图。
图4是改进的RANSAC消除特征点误匹配算法操作流程图。
具体实施方式
下面结合附图来进一步描述本发明:
如图1,一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,包含如下步骤:
步骤(1):如图2,利用改进的Harris特征点检测算法,首先对图像中的像素点进行高斯差分预处理,然后利用harris算子筛选出候选特征点,再利用加入了权重系数的Laplace算子对其进行再筛选,从而获得特征点:
步骤(1.1):定义窗口函数。利用高斯滤波定义窗口函数:
w(x,y)=exp[-(x2+y2)/(2σ2)];
步骤(1.2):输入图像数据,对于图像中的每一个像素点计算梯度分量Ix,Iy;
步骤(1.3):对于图像中的每一个像素点,计算自相关矩阵M和M’,根据自相关矩阵计算像素点角点响应函数R:
步骤(1.4):判断像素点的角点响应函数值是否大于邻域内其他像素点的角点响应函数值,若大于则保留,否则舍弃;
步骤(1.5):根据像素点的角点响应函数值最大值计算阈值,若R(x,y)大于该阈值且是局部极大值点,则将该像素点列为候选特征点;
步骤(1.6):对候选特征点进一步计算Laplace响应,利用权重系数调节响应值:
Laplace算子为:
若候选特征点同时是Laplace相应的局部极值,则将该像素点选为特征点。
步骤(2):如图3,在SURF提出的积分图像的基础上对特征点数据集进行处理,得到特征点的特征描述子:
传统的SURF为了满足对于尺度不变性提出的较为严格的要求,建立了尺度空间金字塔,大大增加了计算量和运算时间。对于尺度不变性的要求在图像识别中较为重要,但在三维重建过程中,图像的尺度不会有较大的差异,只在小范围内波动,只需在图像采样时利用尺度因子进行微小缩放扩大或缩小采样范围,就可以得到较好尺度适应性结果。故可省去原SURF方法中的尺度金字塔,减少计算量和运算时间。
步骤(2.1):根据积分图像的数学公式对原图进行计算,求出对应的积分图像:
积分图像公式:
步骤(2.2):以特征点为中心,计算圆形邻域内的点在x、y方向的Haar小波响应,并给这些响应赋高斯权重系数;
步骤(2.3):以图像中的特征点为中心,以π/3为扇形滑动窗口的角度,计算滑动窗口内的响应值mw和θw
步骤(2.4):遍历整个圆形区域,选择最长矢量的方向为该特征点的主方向,得到每一个特征点的主方向;
步骤(2.5):将坐标轴旋转为关键点的方向,以确保旋转不变性:
旋转公式为:
x=x0-j·s·sin(θ)+i·s·cos(θ);
y=y0-j·s·cos(θ)+i·s·sin(θ);
上式中,s为尺度因子;
步骤(2.6):对每个特征点计算∑dx,∑|dx|,∑dy,∑|dy|,形成4通道或8通道的特征描述子矩阵。
步骤(3):利用最近邻特征匹配对检测到的特征点进行匹配:
步骤(3.1):利用穷举法求得最近邻特征点对数据集;
步骤(3.2):利用最近邻特征匹配对特征点进行匹配得到特征匹配点对数据集A;
步骤(4):如图4,利用改进的RANSAC消除误匹配点算法,在传统RANSAC算法的基础上引入预处理,实现对上一步骤中得到的特征匹配点对中的误判点的初步剔除后利用PROSAC的思想将数据集进行排序,然后利用Premptive测试的基本思想对RANSAC选取模型及评价部分进行改进,最后利用局部最优化的思想对RANSAC进行改进,引入优化参数K对模型局部进行进一步优化:
步骤(4.1):计算特征匹配点对数据集A中各匹配点对的距离d,得到距离数据集D={d1,d2,……,dn}。根据各点对距离值重复的多少将点对进行排序,重复次数越多,数据质量越高,排序越靠前。设置阈值t,滤除超过阈值的匹配点对;
步骤(4.2):根据匹配点对的质量排序进行采样,从排序靠前的数据取起,减少取样次数,提高算法速度;
步骤(4.3):根据采样点计算参数,获得拟合模型;
步骤(4.4):对多组采样点获取的模型分别计算该模型是否满足其他未采样点,按照满足的高低程度从高到低进行排序,选取前N个模型;
步骤(4.5):对前N个模型进行多轮采样,重复步骤(4.4),直至选取到最佳模型;
步骤(4.6):对最佳模型进行细化,设置优化参数K对最佳模型进行迭代,选取结果中判断阈值t小于等于Kt的结果作为优化结果;
步骤(4.7):K减小,重复步骤(4.6),直至减小至t终止;
步骤(4.8):输出最终的特征匹配点对数据集A,。
对于一张图片中的原始数据点集I(x,y)中每个像素点(x,y),定义局部窗口[u,v]在图像各个方向上滑动时产生的灰度变化函数E(u,v),E(u,v)=Σw(x,y)[I(x+u,y+v)-I(x,y)],经泰勒公式化简后E(u,v)可以近似表示为E(u,v)=[u,v]M[u,v]-1,根据此灰度变化函数进一步定义角点响应函数R=detM-k(traceM)2,利用角点响应函数R和拉普拉斯算子进一步对灰度进行计算,可得特征点数据集P={P1,P2,……,Pn}。每个特征点数据集对应一个特征匹配点对数据集A,对A中的每个对应元素求距离可得到距离数据集D={d1,d2,……,dn}。最终的特征匹配点对数据集为A’。
本发明针对三维重建的实际情况省去了传统SURF中进行尺度空间构建及匹配的过程,用Harris特征点检测结果作为SURF算法的特征点,对Harris特征点检测进行了改进,结合多种思想对RANSAC算法进行了改进,减少了计算量,提高了速度,改进算法产生的冗余点较少,精确度较高。
以上所述并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,其特征在于:包含如下步骤:
步骤(1):利用改进的Harris特征点检测算法,首先对图像中的像素点进行高斯差分预处理,然后利用harris算子筛选出候选特征点,再利用加入了权重系数的Laplace算子对其进行再筛选,从而获得特征点;
步骤(2):在SURF提出的积分图像的基础上对特征点数据集进行处理,得到特征点的特征描述子;
步骤(3):利用最近邻特征匹配对检测到的特征点进行匹配:
步骤(3.1):利用穷举法求得最近邻特征点对数据集;
步骤(3.2):利用最近邻特征匹配对特征点进行匹配得到特征匹配点对数据集A;
步骤(4):利用改进的RANSAC消除误匹配点算法,在传统RANSAC算法的基础上引入预处理,实现对上一步骤中得到的特征匹配点对中的误判点的初步剔除后利用PROSAC的思想将数据集进行排序,然后利用Premptive测试的基本思想对RANSAC选取模型及评价部分进行改进,最后利用局部最优化的思想对RANSAC进行改进,引入优化参数K对模型局部进行进一步优化。
2.根据权利要求1所述的一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,其特征在于:所述的步骤(1)具体为:
步骤(1.1):定义窗口函数;利用高斯滤波定义窗口函数:
w(x,y)=exp[-(x2+y2)/(2σ2)];
步骤(1.2):输入图像数据,对于图像中的每一个像素点计算梯度分量Ix,Iy;
步骤(1.3):对于图像中的每一个像素点,计算自相关矩阵M和M’,根据自相关矩阵计算像素点角点响应函数R:
步骤(1.4):判断像素点的角点响应函数值是否大于邻域内其他像素点的角点响应函数值,若大于则保留,否则舍弃;
步骤(1.5):根据像素点的角点响应函数值最大值计算阈值,若R(x,y)大于该阈值且是局部极大值点,则将该像素点列为候选特征点;
步骤(1.6):对候选特征点进一步计算Laplace响应,利用权重系数调节响应值:
Laplace算子为:
若候选特征点同时是Laplace相应的局部极值,则将该像素点选为特征点。
3.根据权利要求1所述的一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,其特征在于:所述的步骤(2)具体为:
步骤(2.1):根据积分图像的数学公式对原图进行计算,求出对应的积分图像:
积分图像公式:
步骤(2.2):以特征点为中心,计算圆形邻域内的点在x、y方向的Haar小波响应,并给这些响应赋高斯权重系数;
步骤(2.3):以图像中的特征点为中心,以π/3为扇形滑动窗口的角度,计算滑动窗口内的响应值mw和θw
步骤(2.4):遍历整个圆形区域,选择最长矢量的方向为该特征点的主方向,得到每一个特征点的主方向;
步骤(2.5):将坐标轴旋转为关键点的方向,以确保旋转不变性:
旋转公式为:
x=x0-j·s·sin(θ)+i·s·cos(θ);
y=y0-j·s·cos(θ)+i·s·sin(θ);
上式中,s为尺度因子;
步骤(2.6):对每个特征点计算∑dx,∑|dx|,∑dy,∑|dy|,形成4通道或8通道的特征描述子矩阵。
4.根据权利要求1所述的一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法,其特征在于:所述的步骤(4)具体为:
步骤(4.1):计算特征匹配点对数据集A中各匹配点对的距离d,得到距离数据集D={d1,d2,……,dn};根据各点对距离值重复的多少将点对进行排序,重复次数越多,数据质量越高,排序越靠前;设置阈值t,滤除超过阈值的匹配点对;
步骤(4.2):根据匹配点对的质量排序进行采样,从排序靠前的数据取起,减少取样次数,提高算法速度;
步骤(4.3):根据采样点计算参数,获得拟合模型;
步骤(4.4):对多组采样点获取的模型分别计算该模型是否满足其他未采样点,按照满足的高低程度从高到低进行排序,选取前N个模型;
步骤(4.5):对前N个模型进行多轮采样,重复步骤(4.4),直至选取到最佳模型;
步骤(4.6):对最佳模型进行细化,设置优化参数K对最佳模型进行迭代,选取结果中判断阈值t小于等于Kt的结果作为优化结果;
步骤(4.7):K减小,重复步骤(4.6),直至减小至t终止;
步骤(4.8):输出最终的特征匹配点对数据集A’。
CN201810165099.9A 2018-02-28 2018-02-28 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法 Active CN108416801B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810165099.9A CN108416801B (zh) 2018-02-28 2018-02-28 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810165099.9A CN108416801B (zh) 2018-02-28 2018-02-28 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法

Publications (2)

Publication Number Publication Date
CN108416801A true CN108416801A (zh) 2018-08-17
CN108416801B CN108416801B (zh) 2022-02-22

Family

ID=63129186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810165099.9A Active CN108416801B (zh) 2018-02-28 2018-02-28 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法

Country Status (1)

Country Link
CN (1) CN108416801B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109272573A (zh) * 2018-09-07 2019-01-25 东南大学 三维数字模型与三维实景模型结合的智慧桥梁可视化系统
CN110490268A (zh) * 2019-08-26 2019-11-22 山东浪潮人工智能研究院有限公司 一种基于余弦相似度的改进最近邻距离比的特征匹配方法
CN110516731A (zh) * 2019-08-20 2019-11-29 北京影谱科技股份有限公司 一种基于深度学习的视觉里程计特征点检测方法及系统
CN113095371A (zh) * 2021-03-22 2021-07-09 北京大学 一种面向三维重建的特征点匹配方法及系统
CN115045853A (zh) * 2022-06-13 2022-09-13 内蒙古京能乌兰伊力更风力发电有限责任公司 一种基于新能源集控的风机安全保护系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102088569A (zh) * 2010-10-13 2011-06-08 首都师范大学 低空无人飞行器序列图像拼接方法和系统
CN102693542A (zh) * 2012-05-18 2012-09-26 中国人民解放军信息工程大学 一种影像特征匹配方法
CN103914571A (zh) * 2014-04-25 2014-07-09 南京大学 一种基于网格分割的三维模型检索方法
CN104700086A (zh) * 2015-03-20 2015-06-10 清华大学 一种用于视频分析的人机交互主题动作挖掘方法
CN104751412A (zh) * 2015-04-23 2015-07-01 重庆信科设计有限公司 一种基于仿射不变特征的图像拼接方法
CN104898971A (zh) * 2015-05-11 2015-09-09 昆明理工大学 一种基于视线跟踪技术的鼠标指针控制方法及系统
CN105300403A (zh) * 2015-09-22 2016-02-03 清华大学 一种基于双目视觉的车辆里程计算法
CN105513038A (zh) * 2014-10-20 2016-04-20 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN105701766A (zh) * 2016-02-24 2016-06-22 网易(杭州)网络有限公司 图形匹配方法和装置
CN106485745A (zh) * 2016-10-21 2017-03-08 昆明理工大学 一种微波反应腔温度场三维立体重构方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102088569A (zh) * 2010-10-13 2011-06-08 首都师范大学 低空无人飞行器序列图像拼接方法和系统
CN102693542A (zh) * 2012-05-18 2012-09-26 中国人民解放军信息工程大学 一种影像特征匹配方法
CN103914571A (zh) * 2014-04-25 2014-07-09 南京大学 一种基于网格分割的三维模型检索方法
CN105513038A (zh) * 2014-10-20 2016-04-20 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN104700086A (zh) * 2015-03-20 2015-06-10 清华大学 一种用于视频分析的人机交互主题动作挖掘方法
CN104751412A (zh) * 2015-04-23 2015-07-01 重庆信科设计有限公司 一种基于仿射不变特征的图像拼接方法
CN104898971A (zh) * 2015-05-11 2015-09-09 昆明理工大学 一种基于视线跟踪技术的鼠标指针控制方法及系统
CN105300403A (zh) * 2015-09-22 2016-02-03 清华大学 一种基于双目视觉的车辆里程计算法
CN105701766A (zh) * 2016-02-24 2016-06-22 网易(杭州)网络有限公司 图形匹配方法和装置
CN106485745A (zh) * 2016-10-21 2017-03-08 昆明理工大学 一种微波反应腔温度场三维立体重构方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡红权: "视频监控中运动图像序列三维重建", 《现代电子技术》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109272573A (zh) * 2018-09-07 2019-01-25 东南大学 三维数字模型与三维实景模型结合的智慧桥梁可视化系统
CN110516731A (zh) * 2019-08-20 2019-11-29 北京影谱科技股份有限公司 一种基于深度学习的视觉里程计特征点检测方法及系统
CN110516731B (zh) * 2019-08-20 2022-04-29 北京影谱科技股份有限公司 一种基于深度学习的视觉里程计特征点检测方法及系统
CN110490268A (zh) * 2019-08-26 2019-11-22 山东浪潮人工智能研究院有限公司 一种基于余弦相似度的改进最近邻距离比的特征匹配方法
CN113095371A (zh) * 2021-03-22 2021-07-09 北京大学 一种面向三维重建的特征点匹配方法及系统
CN113095371B (zh) * 2021-03-22 2023-01-17 北京大学 一种面向三维重建的特征点匹配方法及系统
CN115045853A (zh) * 2022-06-13 2022-09-13 内蒙古京能乌兰伊力更风力发电有限责任公司 一种基于新能源集控的风机安全保护系统
CN115045853B (zh) * 2022-06-13 2023-10-27 内蒙古京能乌兰伊力更风力发电有限责任公司 一种基于新能源集控的风机安全保护系统

Also Published As

Publication number Publication date
CN108416801B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN111047551B (zh) 一种基于U-net改进算法的遥感影像变化检测方法及系统
CN108416801A (zh) 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法
CN110738697B (zh) 基于深度学习的单目深度估计方法
CN108427924B (zh) 一种基于旋转敏感特征的文本回归检测方法
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN111311647B (zh) 一种基于全局-局部及卡尔曼滤波的目标跟踪方法及装置
CN110532946B (zh) 一种基于卷积神经网络识别绿通车车辆轴型的方法
CN110826389B (zh) 基于注意力3d频率卷积神经网络的步态识别方法
CN111340855A (zh) 一种基于轨迹预测的道路移动目标检测方法
CN109886147A (zh) 一种基于单网络多任务学习的车辆多属性检测方法
CN112950477A (zh) 一种基于双路径处理的高分辨率显著性目标检测方法
CN110826462A (zh) 一种非局部双流卷积神经网络模型的人体行为识别方法
CN108537143B (zh) 一种基于重点区域特征比对的人脸识别方法与系统
CN110334584B (zh) 一种基于区域全卷积网络的手势识别方法
CN113159215A (zh) 一种基于Faster Rcnn的小目标检测识别方法
CN113177503A (zh) 基于yolov5的任意朝向目标十二参数检测方法
CN106778540A (zh) 停车检测准确的基于双层背景的停车事件检测方法
CN114742758A (zh) 一种全视野数字切片组织病理图片中的细胞核分类方法
CN111126494A (zh) 基于各向异性卷积的图像分类方法及系统
CN116030396A (zh) 一种用于视频结构化提取的精确分割方法
CN114241372A (zh) 一种应用于扇扫拼接的目标识别方法
CN109658523A (zh) 利用ar增强现实应用实现车辆各功能使用说明的方法
Yin et al. Enhanced faster-RCNN algorithm for object detection in aerial images
Jiang et al. Ship contour extraction from SAR images based on faster R-CNN and chan–vese model
CN118097358A (zh) 多层级信息遥感图像的目标检测方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant