CN113112529B - 一种基于区域邻近点搜索的密集匹配错配点处理方法 - Google Patents
一种基于区域邻近点搜索的密集匹配错配点处理方法 Download PDFInfo
- Publication number
- CN113112529B CN113112529B CN202110250100.XA CN202110250100A CN113112529B CN 113112529 B CN113112529 B CN 113112529B CN 202110250100 A CN202110250100 A CN 202110250100A CN 113112529 B CN113112529 B CN 113112529B
- Authority
- CN
- China
- Prior art keywords
- point
- points
- mismatch
- nearest
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Abstract
本发明公开了一种基于区域邻近点搜索的密集匹配错配点处理方法,包括如下步骤:步骤1,完成初始双目立体密集匹配,通过“左、右一致性检查”识别待匹配基准影像和参考影像上的错配点;步骤2,对待匹配基准影像进行边缘检测并标记边缘点;步骤3,针对待匹配基准影像上的每一个错配点,先后按照通过该错配点的特定角度的直线两端的方向上搜索对应的“最近边缘点”,若搜索成功则终止后续角度的搜索,并计算错配点到2个对应边缘像素点的距离值d;步骤4,在“最近边缘点”覆盖的范围内,错配点沿着d值较大的边缘点方向搜索对应最近成功匹配点,并将视差值赋于该错配点。与大量研究文献中“改进密集匹配算法”的间接处理方法不同,本发明通过区域邻近点搜索进一步识别、区分错误匹配点,能够更加有效减少视差图中的最后错配点数量。
Description
技术领域
本发明属于测绘科学与技术学科中的摄影测量技术领域,特别是涉及一种基于区域邻近点搜索的密集匹配错配点处理方法。
背景技术
根据不同视角的航空影像进行三维场景重建在摄影测量、计算机视觉领域有着广泛的应用,双目立体密集匹配是其中的一个核心问题。在密集匹配算法的研究中,图像灰度畸变差、地物遮挡区域、视差不连续区域(非平面区域)的视差处理仍然是一个挑战性的问题(如图1(b)所示)。通过必要的后处理算法减少错误匹配点数量是提高三维重建精度的有效方法。现有大量研究文献中“密集匹配”改进算法聚焦于算法中间步骤、参数优化,间接减少匹配结果中的错配点,对错配点做剔除处理。与对错配点不加区分的做“剔除”处理不同,本发明通过区域邻近点搜索进一步识别、区分错误匹配点,能够更加有效减少视差图中的最后错配点数量。
发明内容
本发明针对现有技术的不足,旨在解决目立体密集匹配中“图像灰度畸变、视差不连续引起的视差值错误估计”的难题。
为了达到上述目的,本发明提供的技术方案是:一种基于区域邻近点搜索的密集匹配错配点剔除方法,包括如下步骤:
步骤1,完成初始双目立体密集匹配,通过“左、右一致性检查”识别待匹配基准影像和参考影像上的错配点;
步骤2,对待匹配基准影像进行边缘检测并标记边缘点;
步骤3,针对待匹配基准影像上的每一个错配点,先后按照通过该错配点的特定角度的直线两端的方向上搜索对应的“最近边缘点”,若搜索成功则终止后续角度的搜索,并计算错配点到2个对应边缘像素点的距离值d;
步骤4,在“最近边缘点”覆盖的范围内,错配点沿着d值较大的边缘点方向搜索对应最近成功匹配点,并将视差值赋于该错配点。
进一步的,步骤3中所述特定角度包括0度,45度,90度和135度。
进一步的,步骤3中搜索对应的“最近边缘点”的顺序为穿过该错配点的0度,90度,45度和135度直线两端的方向。
进一步的,步骤4中在“最近边缘点”覆盖的范围内,存在3中特殊情况:I、错配点与边缘点重合,像素距离初始值dinit=0,此时沿着d值较大边缘点方向搜索对应最近“成功匹配点”,并将视差值赋于该错配点;П、错配点只包含1个最近边缘点,像素距离初始值以水平方向为例:若最近边缘点位于错配点左侧,则右侧像素距离初始值dint=col-xp,其中col为影像宽,xp为错配点所在列;若最近边缘点位于错配点右侧,则左侧像素距离初始值dint=xp,xp为错配点所在列;Ш、错配点不包含最近边缘点,此时对该错误匹配点做剔除处理。
与现有技术相比,本发明的优点和有益效果:与“改进密集匹配算法”的间接处理方法不同,本发明通过区域邻近点搜索进一步识别、区分错误匹配点,能够更加有效减少视差图中最后残余的错配点数量,如图1(c)所示。
附图说明
图1为经典SGM算法和本发明算法密集匹配视差图的对比;(a)基准影像;(b)基于经典SGM算法密集匹配视差图;(c)本发明视差图;其中白色:正确匹配;灰色:错误匹配。
图2为水平方向最近成功匹配点搜索示意图。
图3为本发明流程图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
如图3所示,本发明提供的一种基于区域邻近点搜索的密集匹配错配点剔除方法,包括如下步骤:
(1)最近边缘点搜索
双目立体密集匹配通常包括基准影像、参考影像,在完成初始密集匹配后,对待匹配基准影像进行边缘检测并标记边缘点。对基准影像中的每一个错误匹配点,先后通过该错配点的直线按照“水平”(左、右)、“垂直”(上、下)、“45度角”(正向、反向)、“135度角”(正向、反向)方向搜索对应的“最近边缘点”,若搜索成功则终止后续方向搜索,分别计算错配点到2个对应边缘像素点的距离值d。
(2)错误匹配点视差赋值
在特定方向2个“最近边缘点”覆盖的范围内,错配点沿着“较远”(d值较大)边缘点方向搜索对应最近“成功匹配点”,将其视差值赋值给错误匹配点。三种特殊情况:I、错配点与边缘点重合,像素距离初始值dinit=0,此时仍沿着“较远”(d值较大)边缘点方向搜索对应最近“成功匹配点”;П、错配点只包含1个最近边缘点,以水平方向为例:若最近边缘点位于错配点左侧,则右侧像素距离初始值dint=col-xp(col影像宽,xp错配点所在列);若最近边缘点位于错配点右侧,则左侧像素距离初始值dint=xp(xp错配点所在列);Ш、错配点不包含最近边缘点,此时对该错误匹配点做剔除处理。密集匹配研究通用数据集对比实验表明绝大多数错配点(平均超过95%)都包含最近边缘点。水平方向最近成功匹配点搜索如图2所示,完整算法流程如图3所示。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (3)
1.一种基于区域邻近点搜索的密集匹配错配点处理方法,其特征在于,包括如下步骤:
步骤1,完成初始双目立体密集匹配,通过“左、右一致性检查”识别待匹配基准影像和参考影像上的错配点;
步骤2,对待匹配基准影像进行边缘检测并标记边缘点;
步骤3,针对待匹配基准影像上的每一个错配点,先后按照通过该错配点的特定角度的直线两端的方向上搜索对应的最近边缘点,若搜索成功则终止后续角度的搜索,并计算错配点到2个对应边缘像素点的距离值d;
步骤4,在最近边缘点覆盖的范围内,错配点沿着d值较大的边缘点方向搜索对应最近成功匹配点,并将视差值赋于该错配点;
步骤4中在最近边缘点覆盖的范围内,存在3种特殊情况:I、错配点与最近边缘点重合,像素距离初始值dinit=0,此时沿着d值较大的最近边缘点方向搜索对应最近成功匹配点,并将视差值赋于该错配点;П、错配点只包含1个最近边缘点,像素距离初始值以水平方向为例:若最近边缘点位于错配点左侧,则右侧像素距离初始值dint=col-xp,其中col为影像宽,xp为错配点所在列;若最近边缘点位于错配点右侧,则左侧像素距离初始值dint=xp,xp为错配点所在列;Ш、错配点不包含最近边缘点,此时对该错配点做剔除处理。
2.如权利要求1所述的一种基于区域邻近点搜索的密集匹配错配点处理方法,其特征在于:步骤3中所述特定角度包括0度,45度,90度和135度。
3.如权利要求1所述的一种基于区域邻近点搜索的密集匹配错配点处理方法,其特征在于:步骤3中搜索对应的最近边缘点的顺序为通过该错配点的0度,90度,45度和135度直线两端的方向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110250100.XA CN113112529B (zh) | 2021-03-08 | 2021-03-08 | 一种基于区域邻近点搜索的密集匹配错配点处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110250100.XA CN113112529B (zh) | 2021-03-08 | 2021-03-08 | 一种基于区域邻近点搜索的密集匹配错配点处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113112529A CN113112529A (zh) | 2021-07-13 |
CN113112529B true CN113112529B (zh) | 2022-11-18 |
Family
ID=76710836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110250100.XA Active CN113112529B (zh) | 2021-03-08 | 2021-03-08 | 一种基于区域邻近点搜索的密集匹配错配点处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113112529B (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101627399B (zh) * | 2007-02-13 | 2012-10-10 | 奥林巴斯株式会社 | 特征匹配方法 |
US20100092093A1 (en) * | 2007-02-13 | 2010-04-15 | Olympus Corporation | Feature matching method |
CN106408596B (zh) * | 2016-09-06 | 2019-06-21 | 电子科技大学 | 基于边缘的局部立体匹配方法 |
CN106355570B (zh) * | 2016-10-21 | 2019-03-19 | 昆明理工大学 | 一种结合深度特征的双目立体视觉匹配方法 |
CN110135474A (zh) * | 2019-04-26 | 2019-08-16 | 武汉市土地利用和城市空间规划研究中心 | 一种基于深度学习的倾斜航空影像匹配方法和系统 |
CN112150358A (zh) * | 2020-08-03 | 2020-12-29 | 武汉大学 | 一种抗大几何畸变的影像特征匹配方法 |
-
2021
- 2021-03-08 CN CN202110250100.XA patent/CN113112529B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113112529A (zh) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN102930530B (zh) | 一种双视点图像的立体匹配方法 | |
CN108597009B (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN112734839B (zh) | 一种提高鲁棒性的单目视觉slam初始化方法 | |
Buades et al. | Reliable multiscale and multiwindow stereo matching | |
Faugeras et al. | Quantitative and qualitative comparison of some area and feature-based stereo algorithms | |
CN104408772A (zh) | 一种基于网格投影的自由曲面三维重建方法 | |
CN111696059B (zh) | 一种车道线光滑连接处理方法和装置 | |
CN101765019B (zh) | 一种用于运动模糊和光照变化图像的立体匹配方法 | |
US8264526B2 (en) | Method for front matching stereo vision | |
CN108629809B (zh) | 一种精确高效的立体匹配方法 | |
Hautière et al. | Road scene analysis by stereovision: a robust and quasi-dense approach | |
CN113112529B (zh) | 一种基于区域邻近点搜索的密集匹配错配点处理方法 | |
CN101359403B (zh) | 一种从卫星图片中提取建筑物轮廓的方法 | |
CN114199205B (zh) | 基于改进四叉树orb算法的双目测距方法 | |
CN106056599B (zh) | 一种基于物体深度数据的物体识别算法及装置 | |
CN115393432B (zh) | 消除静态特征误匹配的机器人定位方法、存储介质及设备 | |
Horna et al. | Plane labeling trinocular stereo matching with baseline recovery | |
CN112102210B (zh) | 一种基于自学习的静脉图像模板更新方法及装置 | |
Takeyama | 3D reconstruction of edge line by ICP-based matching with geometric constraints | |
CN108596963B (zh) | 图像特征点的匹配、视差提取和深度信息提取方法 | |
CN117455969A (zh) | 一种高精度边缘保护型局部立体匹配视差估计方法 | |
Ikehata et al. | Confidence-based refinement of corrupted depth maps | |
CN117315367A (zh) | 基于双目相机的三维重建的摘酒方法、系统、设备及介质 | |
Huang et al. | Dense correspondence using non-local daisy forest |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |