CN116071415B - 一种基于改进Census算法的立体匹配方法 - Google Patents

一种基于改进Census算法的立体匹配方法 Download PDF

Info

Publication number
CN116071415B
CN116071415B CN202310081535.5A CN202310081535A CN116071415B CN 116071415 B CN116071415 B CN 116071415B CN 202310081535 A CN202310081535 A CN 202310081535A CN 116071415 B CN116071415 B CN 116071415B
Authority
CN
China
Prior art keywords
value
image
window
cost
gray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310081535.5A
Other languages
English (en)
Other versions
CN116071415A (zh
Inventor
张青春
王文聘
高峰
潘银
唐欢
冯军
张明超
杨康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Jiuzhou Longteng Scientific And Technological Achievement Transformation Co ltd
Original Assignee
Huaiyin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaiyin Institute of Technology filed Critical Huaiyin Institute of Technology
Priority to CN202310081535.5A priority Critical patent/CN116071415B/zh
Publication of CN116071415A publication Critical patent/CN116071415A/zh
Application granted granted Critical
Publication of CN116071415B publication Critical patent/CN116071415B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及立体匹配技术领域,公开了一种基于改进Census算法的立体匹配方法,采集左右图像信息进行预处理;将图像进行多区域分割成多个子区域体;使用改进后的Census算法对多个子区域进行匹配代价计算,对初始窗口内像素灰度值计算方差,根据方差选用像素灰度值的中值或平均值替换中心像素点灰度值,并将灰度值、颜色信息和图像梯度信息按照各自的比例进行加权融合;采用四路径代价聚和策略进行代价聚合,赢家通吃策略进行视差计算;使用左右一致性检测与中值滤波进行视差图优化处理。本发明用自适应窗口并且融合多匹配代价降低对中心像素点灰度值的过度依赖,使得算法对图像弱纹理区域以及不连续区域匹配效果更佳。

Description

一种基于改进Census算法的立体匹配方法
技术领域
本发明涉及立体匹配技术领域,具体涉及一种基于改进Census算法的立体匹配方法。
背景技术
当前立体匹配技术逐渐发展成熟,按照分类可以分为全局立体匹配、局部立体匹配以及半全局立体匹配技术,其一般的流程为代价计算、代价聚合、视差计算、视差优化四步。全局立体匹配技术是通过对全图构建能量函数,利用能量函数求取最优解的方式获取最优视差,该方法虽然能都获取高质量的视差图,但是该方法运算量较大,复杂性较高不易实现;局部立体匹配技术利用局部窗口来遍历图像,对图像逐像素匹配,该方法匹配速度快,但匹配精度较低,容易受光照、图像重复纹理和图像不连续点影响产生误匹配;半全局立体匹配是一种介于全局与局部立体匹配之间的方法,该方法是通过构建多个路径上的能量函数进行代价聚合,具有较好的匹配效果以及较高的运算效率。目前广泛应用的局部立体匹配方法主要通过在代价计算阶段采用Census算法、绝对差AD、绝对差和SAD以及AD-Census算法等实现对图像特征点的匹配,这些方法在匹配上具有各自优势的同时也存在着一定的缺点。
SAD算法其基本原理是通过计算左右矩阵窗口内像素点灰度值差的绝对值之和来实现代价计算,与AD算法一样该算法虽然匹配速度快,但是对与光照条件较为敏感;传统Census算法的基本原理是建立一个固定窗口,选取周边邻域像素点分别与中心像素点进行比较,若像素灰度值大于中心点灰度值则标记为0,否则标记为1,将左右图像窗口生成的比特串数据进行异或处理,即可得出该窗口中心像素点的匹配代价值,该方法虽然对光照、曝光环境具有良好的效果,但是在图像弱纹理区域、图像不连续区域的匹配效果较差,另外,采用固定窗口大小,难以根据图像灰度分布情况调整窗口计算灰度值,并且该算法对于中心像素灰度值过于依赖,使得匹配精度受到限制;AD-Census算法虽然融合了两种算法,使其在复杂场景下具有更高的鲁棒性,但在融合的过程中两代价采用固定权重,使其不能在平滑区域发挥匹配代价函数的最大作用。
综上,传统的改进立体匹配方法在一定程度上具有局限性,具体如下:
(1)Census变换过程需要对整张图片所有像素点进行计算处理,计算量大并且耗费大量时间。
(2)传统Census变换固定窗口大小严重限制了像素灰度值信息量,另外传统Census算法多数采用与颜色强度代价相融合,未考虑到图像梯度信息,并且Census变换过程中对窗口内中心像素点灰度值过度依赖。
发明内容
发明目的:针对现有技术中存在的问题,本发明提供一种基于改进Census算法的立体匹配方法,基于原始Census算法基础上对图像划分多块区域并行处理,采用自适应窗口并且融合多匹配代价降低对中心像素点灰度值的过度依赖,使得算法对图像弱纹理区域以及不连续区域匹配效果更佳。
技术方案:本发明提供了一种基于改进Census算法的立体匹配方法,包括如下步骤:
步骤1:通过双目相机采集左右图像信息;
步骤2:对左右图像分别进行预处理,保留需要的图像区域;
步骤3:将图像进行多区域分割,每个分割后的子区域为一个独立的整体,使得多个子区域可以并行处理;
步骤4:使用改进后的Census算法对步骤3中的多个子区域进行匹配代价计算,所述改进后的Census算法为对初始窗口内像素灰度值计算方差,根据方差选用像素灰度值的中值或去除最大最小值之后的平均值替换中心像素点灰度值,并将灰度值、颜色信息和图像梯度信息按照各自的比例进行加权融合;
步骤5:采用四路径代价聚和策略进行代价聚合;
步骤6:采用赢家通吃策略进行视差计算;
步骤7:在视差后处理过程中使用左右一致性检测与中值滤波进行视差图优化处理。
进一步地,所述步骤3中将图像通过Opencv技术进行图像多等分,图像分割后的每个区域分别作为一个独立的子区域。
进一步地,所述步骤4中改进后的Census算法包括:
获取步骤3处理后的左右相机图像,定义一个n0×n0大小的初始窗口,初始窗口的最大范围不能超过nm,初始窗口内每个像素点代表一个灰度值,对窗口内除中心值之外的其他像素点灰度值进行排序,公式如下:
其中,q代表初始窗口内除中心像素点以外的其他像素点,I(q)表示像素点灰度值,A1表示依据从小到大排序后的像素点灰度值集合;
通过对窗口内像素灰度值计算方差,判断窗口内灰度值的数据离散性,公式如下:
其中,表示灰度值的平均值;
对比方差的大小,当方差大于0.5时则选用窗口内像素灰度值的中值来替换中心像素点灰度值,反之,则选用去除最大最小值之后的平均值来替换中心像素点灰度值,如下:
其中,Max(I(q))表示窗口内像素点的最大值,Min(I(q))表示最小值,[]表示对数值进行取整,Iavg(p)表示去除最大最小值后剩余像素灰度值的平均值,Izz(p)表示窗口内像素灰度值的中值,Icenter(p)表示替换后图像的中心像素点灰度值。
进一步地,所述步骤4中改进后的Census算法还包括:
设定阈值T0,将初始窗口中最终得到的替换值与中心像素值做差的绝对值,如果与阈值相近则使用该替换值,否则n0=n0+2,重新进行比较;
将窗口中像素点与中心像素点进行比较,以二进制的形式对数据进行替换,公式如下:
其中,p表示窗口内中心像素点,q表示窗口内非中心像素点,I(p)表示中心像素灰度值,I(q)表示非中心像素灰度值;
对左右图像中所有像素点进行替换后,分别生成左图像窗口的比特串、右图像窗口的比特串,进一步计算Hamming距离,公式如下:
Ccen(p,d)=Hamming(Cstr(p),Cstr(p-d))
将灰度值、颜色信息和图像梯度信息按照各自的比例进行加权融合,形成高可靠性的匹配代价,公式如下:
Ccen1(p,d)=ω1(CADc(p,d))+ω2(CADt(p,d))+ω3(Ccen(p,d))
其中ω1,ω2,ω3分别对应颜色信息、图像梯度信息、灰度值信息的权重值。
进一步地,所述步骤4中改进后的Census算法还包括:将改进的Census算法与SAD算法基于权重进行融合,公式如下:
其中,a表示代价值,b表示控制参数,可以通过该函数将任意代价值归一化为[0,1]的范围,与/>代表SAD变换与Census变换的权重,通过调节该权重可以实现图像在平滑区域和图像纹理区域不同条件下匹配代价计算的精度。
进一步地,所述步骤5中采用四路径代价聚和策略对初始代价进行代价聚合,将像素点p在某条路径上所有视差范围内的匹配代价进行一维聚合,求取路径代价值,并建立p的代价聚合函数,最后将像素点p各路径下的代价值累加,即可得到该像素点最终的聚合代价值。
进一步地,所述步骤6中采用赢家通吃策略生成初始视差图,选取图中匹配代价值最小的点对应的视差作为初始视差,从而构建初始视差图。
进一步地,所述步骤7中视差图优化处理具体为:
采用左右一致性检测对视差图中错误匹配点、遮挡点以及异常点进行处理,首先计算出右视差图,然后对比左视差图中与右视差图对应像素点的视差值,如果差值小于设定的阈值,则认为该点的视差是正确的,反之则认为该点视差是异常的,需予以剔除;最后采用中值均值滤波对优化处理后的视差图进行滤波处理。
有益效果:
本发明在传统Census算法的基础上,针对立体匹配过程中对图像纹理区域、像素不连续区域匹配精度低,匹配速度慢的问题进行改进,将图像划分为多个子区域并行处理来提高匹配速度;采用自适应窗口根据图像灰度分布情况调整视窗大小,提高了算法在图像纹理区域、图像不连续点区域处匹配效果;通过计算方差,选取中值、平均值替换中心像素点灰度值降低算法对中心像素灰度值的依赖;最后通过与SAD融合使得算法降低了对光线的敏感度并且提高了匹配速度。
附图说明
图1为本发明立体匹配流程图;
图2为本发明改进Census算法流程图;
图3为本发明仿真实验结果图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
本发明公开了一种基于改进Census算法的立体匹配方法,包括如下步骤:
步骤1:通过双目相机采集左右图像信息。
步骤2:对左右图像分别进行预处理,保留需要的图像区域。
步骤3:将图像进行多区域分割,每个分割后的子区域为一个独立的整体,使得多个子区域可以并行处理。将图像通过Opencv技术进行图像多等分,图像分割后的每个区域分别作为一个独立的子区域。
步骤4:使用改进后的Census算法对步骤3中的多个子区域进行匹配代价计算,所述改进后的Census算法为对初始窗口内像素灰度值计算方差,根据方差选用像素灰度值的中值或去除最大最小值之后的平均值替换中心像素点灰度值,并将灰度值、颜色信息和图像梯度信息按照各自的比例进行加权融合。
改进后的Census算法具体如下:
获取步骤3处理后的左右相机图像,在传统Census算法基础上定义一个n0×n0大小的初始窗口,初始窗口的最大范围不能超过nm,初始窗口内每个像素点代表一个灰度值,对窗口内除中心值之外的其他像素点灰度值进行排序,公式如下:
其中,q代表初始窗口内除中心像素点以外的其他像素点,I(q)表示像素点灰度值,A1表示依据从小到大排序后的像素点灰度值集合;
通过对窗口内像素灰度值计算方差,判断窗口内灰度值的数据离散性,公式如下:
其中,表示灰度值的平均值;
对比方差的大小,当方差大于0.5时则选用窗口内像素灰度值的中值来替换中心像素点灰度值,反之,则选用去除最大最小值之后的平均值来替换中心像素点灰度值,如下:
其中,Max(I(q))表示窗口内像素点的最大值,Min(I(q))表示最小值,[]表示对数值进行取整,Iavg(p)表示去除最大最小值后剩余像素灰度值的平均值,Izz(p)表示窗口内像素灰度值的中值,Icenter(p)表示替换后图像的中心像素点灰度值。
设定阈值T0,将初始窗口中最终得到的替换值与中心像素值做差的绝对值,如果与阈值相近则使用该替换值,否则n0=n0+2,重新进行比较;
将窗口中像素点与中心像素点进行比较,以二进制的形式对数据进行替换,公式如下:
其中,p表示窗口内中心像素点,q表示窗口内非中心像素点,I(p)表示中心像素灰度值,I(q)表示非中心像素灰度值;
对左右图像中所有像素点进行替换后,分别生成左图像窗口的比特串、右图像窗口的比特串,进一步计算Hamming距离,公式如下:
Ccen(p,d)=Hamming(Cstr(p),Cstr(p-d))
为了提高Census算法对图像纹理区域的匹配效果,以及有效保留图像边缘信息,本次将灰度值、颜色信息和图像梯度信息按照各自的比例进行加权融合,形成高可靠性的匹配代价,公式如下:
Ccen1(p,d)=ω1(CADc(p,d))+ω2(CADt(p,d))+ω3(Ccen(p,d))
其中ω1,ω2,ω3分别对应颜色信息、图像梯度信息、灰度值信息的权重值。
最后,为了提高立体匹配的精度,将改进的Census算法与SAD算法基于权重进行融合,公式如下:
其中,a表示代价值,b表示控制参数,可以通过该函数将任意代价值归一化为[0,1]的范围,与/>代表SAD变换与Census变换的权重,通过调节该权重可以实现图像在平滑区域和图像纹理区域不同条件下匹配代价计算的精度。
步骤5:采用四路径代价聚和策略进行代价聚合。采用四路径代价聚和策略对初始代价进行代价聚合,将像素点p在某条路径上所有视差范围内的匹配代价进行一维聚合,求取路径代价值,并建立p的代价聚合函数,最后将像素点p各路径下的代价值累加,即可得到该像素点最终的聚合代价值。
此处的四路径代价聚和策略和划分的区域没有关系。四路径代价聚合策略是一种算法,是将图像上某一像素点所在条路径上所有视差范围内的匹配代价进行一维聚合,求取路径代价值。简单来说,就是从像素点的上下左右方向将视差进行聚合。
四路径代价聚合策略和步骤3部分的多区域没有关系。首先,上一部分划分的区域较多,可以理解为将图片切割成很多块,提高了每一块上像素点匹配的速度。其次,四路径简单代价聚合策略是针对像素点而言的,除此之外还有左右路径聚合、上下路径聚合、八路径聚合等。
步骤6:采用赢家通吃策略进行视差计算。采用赢家通吃策略生成初始视差图,选取图中匹配代价值最小的点对应的视差作为初始视差,从而构建初始视差图。
步骤7:在视差后处理过程中使用左右一致性检测与中值滤波进行视差图优化处理。采用左右一致性检测对视差图中错误匹配点、遮挡点以及异常点进行处理,首先计算出右视差图,然后对比左视差图中与右视差图对应像素点的视差值,如果差值小于设定的阈值,则认为该点的视差是正确的,反之则认为该点视差是异常的,需予以剔除;最后采用中值均值滤波对优化处理后的视差图进行滤波处理。
为了验证方法的有效性,采用以下方法进行仿真实验,实验环境基于Window10操作系统(Inter(R)Core(TM)i5-12500H CPU@3.5GHz CPU)作为硬件处理平台,采用基于VS2015软件开发平台以及采用C++和OpenCV结合实现算法的运行与图像的显示。
为了进一步说明算法的优越性,采用当前计算机视觉领域公认的模型训练数据集Middlebury提供的标准图像对,以及采用相同的代价聚合、视差计算、视差优化方法对当前算法与传统算法进行测评,将算法运算后所得结果进行对比研究。
图3为仿真实验结果图,图3为(a)原始图像,(b)为传统Census,(c)为SAD,(d)为AD-Census(e)为本发明算法。
从实验结果图中可以看出改进后的算法处理的图像,噪点减少、图像边缘信息更为平滑,图像深度变化较大以及弱纹理区域信息匹配效果更佳,本发明在总体效果要优于传统的算法。
通过Middlebury平台图像对测试得出算法的误匹配率,将传统Census立体匹配算法、SAD算法、AD-Census算法与本文算法进行对比,如下表1所示。
表1各算法误匹配率对比结果(%)
表1选用Middlebury平台提供的Tsukuba、Teddy标准图像对在Nocc(无遮挡区域)、All(全局区域)和Disc(不连续区域)条件下得出各算法的误匹配率。分析表1中结果可以看出,本文算法相较于传统Census算法和SAD算法在误匹配率上具有明显的提升,相较于AD-Census算法有部分提升。综上实验对比可得,本文算法具有更高的匹配效率。
上述实施方式只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所做的等效变换或修饰,都应涵盖在本发明的保护范围之内。

Claims (7)

1.一种基于改进Census算法的立体匹配方法,其特征在于,包括如下步骤:
步骤1:通过双目相机采集左右图像信息;
步骤2:对左右图像分别进行预处理,保留需要的图像区域;
步骤3:将图像进行多区域分割,每个分割后的子区域为一个独立的整体,使得多个子区域可以并行处理;
步骤4:使用改进后的Census算法对步骤3中的多个子区域进行匹配代价计算,所述改进后的Census算法为对初始窗口内像素灰度值计算方差,根据方差选用像素灰度值的中值或平均值替换中心像素点灰度值,并将灰度值、颜色信息和图像梯度信息按照各自的比例进行加权融合;
所述步骤4中改进后的Census算法包括:
获取步骤3处理后的左右相机图像,定义一个n0×n0大小的初始窗口,初始窗口的最大范围不能超过nm,初始窗口内每个像素点代表一个灰度值,对窗口内除中心值之外的其他像素点灰度值进行排序,公式如下:
其中,q代表初始窗口内除中心像素点以外的其他像素点,I(q)表示像素点灰度值,A1表示依据从小到大排序后的像素点灰度值集合;
通过对窗口内像素灰度值计算方差,判断窗口内灰度值的数据离散性,公式如下:
其中,表示灰度值的平均值;
对比方差的大小,当方差大于0.5时则选用窗口内像素灰度值的中值来替换中心像素点灰度值,反之,则选用去除最大最小值之后的平均值来替换中心像素点灰度值,如下:
其中,Max(I(q))表示窗口内像素点的最大值,Min(I(q))表示最小值,[]表示对数值进行取整,Iavg(p)表示去除最大最小值后剩余像素灰度值的平均值,Izz(p)表示窗口内像素灰度值的中值,Icenter(p)表示替换后图像的中心像素点灰度值;
步骤5:采用四路径代价聚和策略进行代价聚合;
步骤6:采用赢家通吃策略进行视差计算;
步骤7:在视差后处理过程中使用左右一致性检测与中值滤波进行视差图优化处理。
2.根据权利要求1所述的基于改进Census算法的立体匹配方法,其特征在于,所述步骤3中将图像通过Opencv技术进行图像多等分,图像分割后的每个区域分别作为一个独立的子区域。
3.根据权利要求1所述的基于改进Census算法的立体匹配方法,其特征在于,所述步骤4中改进后的Census算法还包括:
设定阈值T0,将初始窗口中最终得到的替换值与中心像素值做差的绝对值,如果与阈值相近则使用该替换值,否则n0=n0+2,重新进行比较;
将窗口中像素点与中心像素点进行比较,以二进制的形式对数据进行替换,公式如下:
其中,p表示窗口内中心像素点,q表示窗口内非中心像素点,I(p)表示中心像素灰度值,I(q)表示非中心像素灰度值;
对左右图像中所有像素点进行替换后,分别生成左图像窗口的比特串、右图像窗口的比特串,进一步计算Hamming距离,公式如下:
Ccen(p,d)=Hamming(Cstr(p),Cstr(p-d))
将灰度值、颜色信息和图像梯度信息按照各自的比例进行加权融合,形成高可靠性的匹配代价,公式如下:
Ccen1(p,d)=ω1(CADc(p,d))+ω2(CADt(p,d))+ω3(Ccen(p,d))
其中ω1,ω2,ω3分别对应颜色信息、图像梯度信息、灰度值信息的权重值。
4.根据权利要求1或3所述的基于改进Census算法的立体匹配方法,其特征在于,所述步骤4中改进后的Census算法还包括:将改进的Census算法与SAD算法基于权重进行融合,公式如下:
其中,a表示代价值,b表示控制参数,可以通过该函数将任意代价值归一化为[0,1]的范围,与/>代表SAD变换与Census变换的权重,通过调节该权重可以实现图像在平滑区域和图像纹理区域不同条件下匹配代价计算的精度。
5.根据权利要求1所述的基于改进Census算法的立体匹配方法,其特征在于,所述步骤5中采用四路径代价聚和策略对初始代价进行代价聚合,将像素点p在某条路径上所有视差范围内的匹配代价进行一维聚合,求取路径代价值,并建立p的代价聚合函数,最后将像素点p各路径下的代价值累加,即可得到该像素点最终的聚合代价值。
6.根据权利要求1所述的基于改进Census算法的立体匹配方法,其特征在于,所述步骤6中采用赢家通吃策略生成初始视差图,选取图中匹配代价值最小的点对应的视差作为初始视差,从而构建初始视差图。
7.根据权利要求1所述的基于改进Census算法的立体匹配方法,其特征在于,所述步骤7中视差图优化处理具体为:
采用左右一致性检测对视差图中错误匹配点、遮挡点以及异常点进行处理,首先计算出右视差图,然后对比左视差图中与右视差图对应像素点的视差值,如果差值小于设定的阈值,则认为该点的视差是正确的,反之则认为该点视差是异常的,需予以剔除;最后采用中值均值滤波对优化处理后的视差图进行滤波处理。
CN202310081535.5A 2023-02-08 2023-02-08 一种基于改进Census算法的立体匹配方法 Active CN116071415B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310081535.5A CN116071415B (zh) 2023-02-08 2023-02-08 一种基于改进Census算法的立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310081535.5A CN116071415B (zh) 2023-02-08 2023-02-08 一种基于改进Census算法的立体匹配方法

Publications (2)

Publication Number Publication Date
CN116071415A CN116071415A (zh) 2023-05-05
CN116071415B true CN116071415B (zh) 2023-12-01

Family

ID=86169560

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310081535.5A Active CN116071415B (zh) 2023-02-08 2023-02-08 一种基于改进Census算法的立体匹配方法

Country Status (1)

Country Link
CN (1) CN116071415B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116309757B (zh) * 2023-05-24 2023-08-01 山东省青东智能科技有限公司 基于机器视觉的双目立体匹配方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013173749A1 (en) * 2012-05-17 2013-11-21 The Regents Of The University Of California Sampling-based multi-lateral filter method for depth map enhancement and codec
KR20130131037A (ko) * 2012-05-23 2013-12-03 광운대학교 산학협력단 Dwt 영역에서의 주파수 정보를 활용한 가변 정합창 기반 스테레오 정합 방법
KR101748048B1 (ko) * 2015-12-22 2017-06-15 단국대학교 산학협력단 얼굴인식을 위한 판별분석 기반의 결합 특징 생성 장치 및 방법
CN110310320A (zh) * 2019-07-09 2019-10-08 南京美基森信息技术有限公司 一种双目视觉匹配代价聚合优化方法
CN111833393A (zh) * 2020-07-05 2020-10-27 桂林电子科技大学 一种基于边缘信息的双目立体匹配方法
CN112991421A (zh) * 2021-03-23 2021-06-18 湖南大学 一种机器人视觉立体匹配方法
CN113344989A (zh) * 2021-04-26 2021-09-03 贵州电网有限责任公司 一种NCC和Census的最小生成树航拍图像双目立体匹配方法
CN113744324A (zh) * 2021-09-06 2021-12-03 星鲨信息技术(上海)有限公司 一种多相似性测度结合的立体匹配方法
CN113763269A (zh) * 2021-08-30 2021-12-07 上海工程技术大学 一种用于双目图像的立体匹配方法
CN114120012A (zh) * 2021-11-29 2022-03-01 江苏科技大学 一种基于多特征融合和树形结构代价聚合的立体匹配方法
CN114638875A (zh) * 2022-05-23 2022-06-17 武汉依迅北斗时空技术股份有限公司 基于区域均匀度的立体匹配优化方法、装置、设备及介质
CN115307640A (zh) * 2022-07-29 2022-11-08 西安现代控制技术研究所 基于改进人工势场法的无人车双目视觉导航方法
CN115564812A (zh) * 2022-09-30 2023-01-03 中山大学 基于高精度视差细化的立体匹配方法、系统、设备及介质
CN115601406A (zh) * 2022-10-09 2023-01-13 天津大学(Cn) 基于融合代价计算和加权引导滤波的局部立体匹配方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013173749A1 (en) * 2012-05-17 2013-11-21 The Regents Of The University Of California Sampling-based multi-lateral filter method for depth map enhancement and codec
KR20130131037A (ko) * 2012-05-23 2013-12-03 광운대학교 산학협력단 Dwt 영역에서의 주파수 정보를 활용한 가변 정합창 기반 스테레오 정합 방법
KR101748048B1 (ko) * 2015-12-22 2017-06-15 단국대학교 산학협력단 얼굴인식을 위한 판별분석 기반의 결합 특징 생성 장치 및 방법
CN110310320A (zh) * 2019-07-09 2019-10-08 南京美基森信息技术有限公司 一种双目视觉匹配代价聚合优化方法
CN111833393A (zh) * 2020-07-05 2020-10-27 桂林电子科技大学 一种基于边缘信息的双目立体匹配方法
CN112991421A (zh) * 2021-03-23 2021-06-18 湖南大学 一种机器人视觉立体匹配方法
CN113344989A (zh) * 2021-04-26 2021-09-03 贵州电网有限责任公司 一种NCC和Census的最小生成树航拍图像双目立体匹配方法
CN113763269A (zh) * 2021-08-30 2021-12-07 上海工程技术大学 一种用于双目图像的立体匹配方法
CN113744324A (zh) * 2021-09-06 2021-12-03 星鲨信息技术(上海)有限公司 一种多相似性测度结合的立体匹配方法
CN114120012A (zh) * 2021-11-29 2022-03-01 江苏科技大学 一种基于多特征融合和树形结构代价聚合的立体匹配方法
CN114638875A (zh) * 2022-05-23 2022-06-17 武汉依迅北斗时空技术股份有限公司 基于区域均匀度的立体匹配优化方法、装置、设备及介质
CN115307640A (zh) * 2022-07-29 2022-11-08 西安现代控制技术研究所 基于改进人工势场法的无人车双目视觉导航方法
CN115564812A (zh) * 2022-09-30 2023-01-03 中山大学 基于高精度视差细化的立体匹配方法、系统、设备及介质
CN115601406A (zh) * 2022-10-09 2023-01-13 天津大学(Cn) 基于融合代价计算和加权引导滤波的局部立体匹配方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Novel stereo matching algorithm for adaptive weight Census transform;Zhou W W 等;《IEEE》;全文 *
基于改进Census 变换和引导滤波的立体匹配算法;李志鹏 等;《信息与电脑》;全文 *
基于改进Census变换和多尺度空间的立体匹配算法;刘建国;俞力;柳思健;王帅帅;;华南理工大学学报(自然科学版)(12);全文 *
基于麻雀搜索和模糊学习策略的车位预测方法;张青春 等;《中国测试》;全文 *

Also Published As

Publication number Publication date
CN116071415A (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
CN107220997B (zh) 一种立体匹配方法及系统
Sulaiman et al. Denoising-based clustering algorithms for segmentation of low level salt-and-pepper noise-corrupted images
Wu et al. Stereo matching with fusing adaptive support weights
CN111488756A (zh) 基于面部识别的活体检测的方法、电子设备和存储介质
CN111179189B (zh) 基于生成对抗网络gan的图像处理方法、装置以及电子设备、存储介质
CN110532946B (zh) 一种基于卷积神经网络识别绿通车车辆轴型的方法
CN110070531B (zh) 用于检测眼底图片的模型训练方法、眼底图片的检测方法及装置
US11915362B2 (en) UV mapping on 3D objects with the use of artificial intelligence
CN108416801B (zh) 一种面向立体视觉三维重建的Har-SURF-RAN特征点匹配方法
CN116071415B (zh) 一种基于改进Census算法的立体匹配方法
CN108257165A (zh) 图像立体匹配方法、双目视觉设备
CN108205657A (zh) 视频镜头分割的方法、存储介质和移动终端
CN107578011A (zh) 视频关键帧的判定方法及装置
WO2024021461A1 (zh) 缺陷检测方法及装置、设备、存储介质
CN111105452A (zh) 基于双目视觉的高低分辨率融合立体匹配方法
CN105828061B (zh) 一种基于视觉掩蔽效应的虚拟视点质量评价方法
Ling et al. Quality assessment for synthesized view based on variable-length context tree
CN110728692A (zh) 一种基于Scharr算子改进的图像边缘检测方法
CN113888614B (zh) 深度恢复方法、电子设备和计算机可读存储介质
CN115937465A (zh) 一种顾及像素区域预测的深度图融合算法
CN115564812A (zh) 基于高精度视差细化的立体匹配方法、系统、设备及介质
CN109961413B (zh) 大气光方向优化估计的图像去雾迭代算法
CN110490877B (zh) 基于Graph Cuts的双目立体图像对目标分割方法
Xiao et al. Single-image dehazing algorithm based on convolutional neural networks
Wang et al. A Binocular Vision Stereo Matching Algorithm for Depth Map Estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240509

Address after: 230000 Room 203, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee after: Hefei Jiuzhou Longteng scientific and technological achievement transformation Co.,Ltd.

Country or region after: China

Address before: 223005 Jiangsu Huaian economic and Technological Development Zone, 1 East Road.

Patentee before: HUAIYIN INSTITUTE OF TECHNOLOGY

Country or region before: China