CN113077504B - 基于多粒度特征匹配大场景深度图生成方法 - Google Patents

基于多粒度特征匹配大场景深度图生成方法 Download PDF

Info

Publication number
CN113077504B
CN113077504B CN202110388539.9A CN202110388539A CN113077504B CN 113077504 B CN113077504 B CN 113077504B CN 202110388539 A CN202110388539 A CN 202110388539A CN 113077504 B CN113077504 B CN 113077504B
Authority
CN
China
Prior art keywords
template
parallax
matching cost
map
pixel point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110388539.9A
Other languages
English (en)
Other versions
CN113077504A (zh
Inventor
石林
白俊奇
陈平
刘�文
刘羽
董小舒
朱恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 28 Research Institute
Original Assignee
CETC 28 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 28 Research Institute filed Critical CETC 28 Research Institute
Priority to CN202110388539.9A priority Critical patent/CN113077504B/zh
Publication of CN113077504A publication Critical patent/CN113077504A/zh
Application granted granted Critical
Publication of CN113077504B publication Critical patent/CN113077504B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了基于多粒度特征匹配大场景深度图生成方法,包括将左右视角图像上的像素点进行特征变换,取不同粒度的模板块,计算左右视角图同一粒度模板块中对应像素点的高斯拉普拉斯卷积后的差的和作为该模板块在某视差值下的匹配成本,对不同视差值下的匹配成本进行比较,取最小值作为该模板块的纵向匹配成本;将不同粒度模板块的纵向匹配成本再进行横向比较,选取使横向匹配成本最小时的视差值构成视差图,经对应一致性检查排除无效点后,在其邻域寻找有效视差值对无效点进行填充,中值滤波得到最终的深度图。本发明综合了不同粒度模板的多样性,降低单一模板块的拖尾和涂抹效应,适应大场景中物体轮廓形状多变的特点,得到准确可靠的深度图。

Description

基于多粒度特征匹配大场景深度图生成方法
技术领域
本发明涉及图像处理技术领域,尤其涉及基于多粒度特征匹配大场景深度图生成方法。
背景技术
立体视觉是通过模拟人类的双眼,在同一场景的两幅左右视角图像中寻找互相匹配的对应点,对应点在左右视角图中的像素位置差即为视差,视差与实际场景中该点的深度成反比,一旦确定像素点的视差,并且已知拍摄左右视角图相机的内外参数,便可以确定像素点的实际距离。而立体视觉计算过程中得到视差的关键在于确定左右视角图中的匹配点。
相较于全局、半全局立体视觉方法,局部立体匹配方法计算量小、内存占用少,在实际工程应用尤其是嵌入式应用中更占有优势。但是,传统的局部立体视觉方法,如典型的块匹配方法,采用固定粒度的模板尺寸,容易模糊物体边缘,在前景背景交界处容易产生拖尾和漫色效应,无法满足精确匹配的要求。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于多粒度特征匹配大场景深度图生成方法。
为了解决上述技术问题,本发明公开了基于多粒度特征匹配大场景深度图生成方法,包括如下步骤:
步骤1,对左右视角图进行特征变换,所述左右视角图包括左视角图和右视角图;
步骤2,选取不同粒度的模板,分别在特征变换后的左右视角图上计算同一种模板在不同视差值下的匹配成本,并进行纵向比较,得到该模板下每一个像素点的纵向匹配成本和对应的视差值;
步骤3,将不同粒度模板在同一个像素点的纵向匹配成本进行横向对比,得到多模板下每一个像素点的横像匹配成本和对应的视差,组成左右视角视差图;
步骤4,对左右视角视差图进行对应一致性检查排除无效点,在无效点邻域寻找可靠有效点进行填充,再进行中值滤波,得到深度图。
进一步地,在一种实现方式中,所述步骤1的特征变换为使用高斯拉普拉斯卷积核对每一个像素点进行卷积。采用高斯拉普拉斯卷积核变换,用边缘梯度特性替代灰度特性,降低由于大场景视角变化大、采集设备不同造成的图像颜色、亮度等方面差异造成的误匹配概率。
进一步地,在一种实现方式中,所述步骤1包括:
步骤1-1,选取w×w的高斯拉普拉斯卷积核窗口,其中,w=2k+1,k∈N*,高斯拉普拉斯卷积核LoG(x,y)为
Figure BDA0003015520260000021
其中,x,y分别为距离所述高斯拉普拉斯卷积核窗口中心点的横向和竖向的像素位置差,σ为所述高斯拉普拉斯卷积核的标准差;
步骤1-2,分别在左右视角图上对每一个像素点用所述高斯拉普拉斯卷积核进行卷积,得到所述像素点的高斯拉普拉斯卷积值ILoG(i,j),i,j为像素点在所述左右视角图中的横纵坐标,i,j∈N。
进一步地,在一种实现方式中,所述步骤2中同一种模板在不同视差值下的匹配成本指用模板覆盖左右视角图中任一视角图的像素点(i,j),模板覆盖区域内的所有像素点集合记为B1,根据不同视差值确定左右视角图中另一视角图的像素点,用模板覆盖此像素点,模板覆盖区域内的所有像素点集合记为B2,集合B1和集合B2中所有对应位置像素点的高斯拉普拉斯卷积值的差的和即为像素点(i,j)使用同一种模板在不同视差值下的匹配成本。
进一步地,在一种实现方式中,所述步骤2包括:
步骤2-1,选取不同粒度的模板b1,b2,...,bn,n∈N*;记模板b∈{b1,b2,...,bn},模板b的尺寸为m×l,其中,m,l=2k+1,k∈N;
步骤2-2,分别计算左右视角图中像素点(i,j)使用同一种模板b在不同视差值d下的匹配成本CL,b(i,j,d)和CR,b(i,j,d):
Figure BDA0003015520260000022
Figure BDA0003015520260000031
其中,d为视差值,d∈N,(ib,jb)为模板b在左右视角图覆盖区域内的像素点,(ib-d,jb)为计算左视角图匹配成本CL,b(i,j,d)时,模板b在右视角图覆盖区域内的像素点,(ib+d,jb)为计算右视角图匹配成本CR,b(i,j,d)时,模板b在左视角图覆盖区域内的像素点,IL,LoG(ib,jb)为所述左视角图像素点(ib,jb)的高斯拉普拉斯卷积值,IR,LoG(ib-d,jb)为所述右视角图像素点(ib-d,jb)的高斯拉普拉斯卷积值,IR,LoG(ib,jb)为所述右视角图像素点(ib,jb)的高斯拉普拉斯卷积值,IL,LoG(ib+d,jb)为所述右视角图像素点(ib+d,jb)的高斯拉普拉斯卷积值;
步骤2-3,分别对左右视角图同一种模板b下像素点(i,j)的所有视差值d的模板匹配成本进行纵向比较,模板匹配成本最小值为该模板b下像素点(i,j)的纵向匹配成本CL,b(i,j)和CR,b(i,j),对应的视差为dL,b(i,j)和dR,b(i,j):
CL,b(i,j)=min CL,b(i,j,d)
Figure BDA0003015520260000032
CR,b(i,j)=min CR,b(i,j,d)
Figure BDA0003015520260000033
其中,
Figure BDA0003015520260000034
表示使CL,b(i,j,d)或CR,b(i,j,d)为最小值时的视差值d。
进一步地,在一种实现方式中,所述步骤3包括:
步骤3-1,分别对所述左右视角图中的每一个像素点(i,j)比较其在所述不同粒度的模板b1,b2,...,bn下的纵向匹配成本
Figure BDA0003015520260000036
Figure BDA0003015520260000037
纵向匹配成本最小值为所述不同粒度的模板b1,b2,..,bn下像素点(i,j)的横向匹配成本,对应的视差值d作为所述左右视角图中像素点(i,j)的视差值dL(i,j)和dR(i,j):
Figure BDA0003015520260000035
Figure BDA0003015520260000041
步骤3-2,所述左右视角每个像素点的视差值dL(i,j)和dR(i,j),分别组成左右视角视差图,由左视角图得到的为左视角视差图DL,由所述右视角图得到的为右视角视差图DR
采用不同粒度的模板进行局部匹配,考虑到现实大场景中物体外形变化多样,多粒度模板匹配能够更好的保持物体原有的边缘特性;且多粒度模板策略可并行计算,在不提升算法复杂度的情况下提高计算精度,更加贴切于存储空间小、实时性要求高的实际工程中的使用。
进一步地,在一种实现方式中,所述步骤4包括:
步骤4-1,对所述左视角视差图DL和右视角视差图DR的对应点进行比较,即进行所述对应一致性检查,视差值一致的像素点保留不变,视差值不一致的像素点置为无效点inv;
步骤4-2,在所述左视角视差图DL的无效点邻域的上、下、左、右、左上、左下、右上、右下八个方向寻找有效点,统计有效点视差值的出现频率,取频率最高的视差值填充为该无效点的视差值;
步骤4-3,对经过对应一致性检查和无效点填充的所述左视角视差图DL进行中值滤波,得到最终深度图。
有益效果:
本发明公开了一种基于多粒度特征匹配大场景深度图生成方法,能够降采集设备不同造成的光照强弱、色彩差异造成的左右视角图差异造成的误匹配概率;考虑到现实大场景中物品边缘轮廓变化多样的问题,采用形状各异、尺寸多样的多粒度模板来进行匹配,能够更好的保留物体的边缘,减轻前景背景交界处的漫色和拖尾效应;此外,多粒度匹配可以并行计算,在大场景、超高清图像上也能够快速、准确的进行运算。首先将左右视角图像进行高斯拉普拉斯卷积变换;接着取不同形状不同尺寸的多粒度模板块,计算左右视角图同一种模板块在视差范围内的匹配成本,取匹配成本最小时的值作为该模板块的纵向匹配成本,将多粒度模板的纵向匹配成本再进行横向比较,取使横像匹配成本最小时的视差值组成视差图;最后,经一致性检查、无效点空洞填充、中值滤波后得到最终的深度图。本发明在室外大场景高清图像上进行了验证,视差值计算准确率达到90%以上,一组左右视角图平均耗费时间不大于100ms,充分验证了本发明的有效性。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例部分提供的基于多粒度特征匹配大场景深度图生成方法的工作流程示意图;
图2是本发明实施例部分提供的左视角图;
图3是本发明实施例部分提供的右视角图;
图4是本发明实施例部分提供的基于多粒度特征匹配大场景深度图生成方法计算效果示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明实施例公开基于多粒度特征匹配大场景深度图生成方法,本方法应用于双目立体视觉模型中视差图的获取,适用于采集场景较大、采集设备不同造成的左右视角图光照颜色差异明显的场景,在存储空间有限、计算资源欠缺的情况下也能够满足稳定、快速、准确的实际使用需求。
本发明公开了一种基于多粒度特征匹配大场景深度图生成方法,系统流程示意图如图1所示,包括以下步骤:
步骤1,对左右视角图进行特征变换,所述左右视角图包括左视角图和右视角图,如图2和图3所示;
步骤2,选取不同粒度的模板,分别在特征变换后的左右视角图上计算同一种模板在不同视差值下的匹配成本,比较得到该模板下每一个像素点的纵向匹配成本和对应的视差;
步骤3,横向对比不同粒度模板在同一个像素点的纵向匹配成本,最小值作为多粒度模板下每一个像素点的横向匹配成本,并取其对应的视差值,组成左右视角视差图;
步骤4,对左右视角视差图进行对应一致性检查排除无效点,在无效点邻域寻找可靠有效点进行填充,再进行中值滤波,得到深度图。
本实施例所述的基于多粒度特征匹配大场景深度图生成方法中,所述步骤1的特征变换为使用高斯拉普拉斯卷积核对每一个像素点进行卷积,所述步骤1具体步骤包括:
步骤1-1,选取5×5大小的高斯拉普拉斯卷积核窗口,高斯拉普拉斯卷积核为
Figure BDA0003015520260000061
步骤1-2,分别在左右视角图上对每一个像素点用所述高斯拉普拉斯卷积核进行卷积,得到所述像素点的高斯拉普拉斯卷积值ILoG(i,j),i,j为像素点在所述左右视角图中的横纵坐标,i,j∈N。本实施例中所述左右视角图的宽和高为1242像素和375像素。
本实施例所述的基于多粒度特征匹配大场景深度图生成方法中,所述步骤2中同一种模板在不同视差值下的匹配成本指用模板覆盖左右视角图中任一视角图的像素点(i,j),模板覆盖区域内的所有像素点集合记为B1,根据不同视差值确定左右视角图中另一视角图的像素点,用模板覆盖此像素点,模板覆盖区域内的所有像素点集合记为B2,集合B1和集合B2中所有对应位置像素点的高斯拉普拉斯卷积值的差的和即为像素点(i,j)使用同一种模板在不同视差值下的匹配成本。本实施例中,用模板覆盖左右视角图中像素点时以此像素点为中心点进行覆盖。
所述步骤2具体步骤包括:
步骤2-1,选取不同尺寸不同大小的模板,记作模板b1,b2,b3;取模板b1的尺寸1×31,取模板b2的尺寸31×1,取模板b3的尺寸9×9;
步骤2-2,分别计算左右视角图中像素点(i,j)使用模板b1,b2,b3在视差值d下的模板匹配成本
Figure BDA0003015520260000062
Figure BDA0003015520260000063
Figure BDA0003015520260000064
其中,d为视差,d∈[0,64],
Figure BDA0003015520260000071
为模板bn在左右视角图覆盖区域内的像素点,
Figure BDA0003015520260000072
为计算左视角图匹配成本
Figure BDA0003015520260000073
寸,模板bn在右视角图覆盖区域内的像素点,
Figure BDA0003015520260000074
为计算右视角图匹配成本
Figure BDA0003015520260000075
时,模板bn在左视角图覆盖区域内的像素点,
Figure BDA0003015520260000076
刁所述左视角图像素点
Figure BDA0003015520260000077
的高斯拉普拉斯卷积值,
Figure BDA0003015520260000078
所述右视角图像素点
Figure BDA0003015520260000079
的高斯拉普拉斯卷积值,
Figure BDA00030155202600000710
为所述右视角图像素点
Figure BDA00030155202600000711
的高斯拉普拉斯卷积值,
Figure BDA00030155202600000712
Figure BDA00030155202600000713
为所述右视角图像素点
Figure BDA00030155202600000714
的高斯拉普拉斯卷积值;
步骤2-3,分别对左右视角图比较同一种模板bn下像素点(i,j)的所有视差值d的模板匹配成本,模板匹配成本最小值为该模板b1,b2,b3的纵向匹配成本
Figure BDA00030155202600000715
Figure BDA00030155202600000716
使模板匹配成本最小的视差为
Figure BDA00030155202600000717
Figure BDA00030155202600000718
n∈{1,2,3}
Figure BDA00030155202600000719
Figure BDA00030155202600000720
Figure BDA00030155202600000721
Figure BDA00030155202600000722
其中,
Figure BDA00030155202600000723
表示使
Figure BDA00030155202600000724
Figure BDA00030155202600000725
为最小时的d值。
本实施例所述的基于多粒度特征匹配大场景深度图生成方法中,所述步骤3包括:
步骤3-1,分别对所述左右视角图中的每一个像素点(i,j)横向比较其在所述不同形状不同尺寸的模板b1,b2,b3下的纵向匹配成本
Figure BDA00030155202600000726
Figure BDA00030155202600000727
纵向匹配成本最小值为所述不同粒度的模板b1,b2,b3下像素点(i,j)的横向匹配成本,对应的视差值d作为所述左右视角图中像素点(i,j)的视差值dL(i,j)和dR(i,j):
Figure BDA00030155202600000728
Figure BDA00030155202600000729
步骤3-2,所述左右视角每个像素点的视差值dL(i,j)和dR(i,j),组成左右视角视差图,由左视角图得到的为左视角视差图DL,由所述右视角图得到的为右视角视差图DR
本实施例所述的基于多粒度特征匹配大场景深度图生成方法中,所述步骤4包括:
步骤4-1,对所述左视角视差图DL和右视角视差图DR的对应点进行比较,即进行所述对应一致性检查,视差值一致的像素点保留不变,视差值不一致的像素点置为无效点inv;
步骤4-2,在所述左视角视差图DL的无效点的上、下、左、右、左上、左下、右上、右下八个邻域方向寻找有效点,统计有效点的视差值,取频率最高的视差值填充为该无效点的视差值;本实施例中,在八个邻域方向寻找有效点的范围为不超过无效点3个像素点。
步骤4-3,对经过对应一致性检查和无效点填充的所述左视角视差图DL,进行中值滤波,得到所述最终的深度图,如图4所示。
具体实现中,本发明还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时可包括本发明提供的基于多粒度特征匹配大场景深度图生成方法的各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,ROM)或随机存储记忆体(random access memory,RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本发明提供了一种基于多粒度特征匹配大场景深度图生成方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (3)

1.基于多粒度特征匹配大场景深度图生成方法,其特征在于,包括:
步骤1,对左右视角图进行特征变换,所述左右视角图包括左视角图和右视角图;
步骤2,选取不同粒度的模板,分别在特征变换后的左右视角图上计算同一种模板在不同视差值下的匹配成本,并进行纵向对比,得到该模板下每一个像素点的纵向匹配成本和对应的视差值;
步骤3,将不同粒度模板在同一个像素点的纵向匹配成本进行横向比较,得到多模板下每一个像素点的横向匹配成本和对应的视差值,组成左右视角视差图;
步骤4,对左右视角视差图进行对应一致性检查排除无效点,在无效点邻域寻找可靠有效点进行填充,再进行中值滤波,得到深度图;
所述步骤1的特征变换为使用高斯拉普拉斯卷积核对每一个像素点进行卷积;
所述步骤2中同一种模板在不同视差值下的匹配成本指用模板覆盖左右视角图中任一视角图的像素点(i,j),模板覆盖区域内的所有像素点集合记为B1,根据不同视差值确定左右视角图中另一视角图的像素点,用模板覆盖此像素点,模板覆盖区域内的所有像素点集合记为B2,集合B1和集合B2中所有对应位置像素点的高斯拉普拉斯卷积值的差的和即为像素点(i,j)使用同一种模板在不同视差值下的匹配成本;用模板覆盖左右视角图中像素点时以此像素点为中心点进行覆盖;
所述步骤2包括:
步骤2-1,选取不同粒度的模板b1,b2,...,bn,n∈N*;记模板b∈{b1,b2,...,bn},模板b的尺寸为m×l,其中,m,l=2k+1,k∈N;
步骤2-2,分别计算左右视角图中像素点(i,j)使用同一种模板b在不同视差值d下的匹配成本CL,b(i,j,d)和CR,b(i,j,d):
Figure FDA0003293683530000011
Figure FDA0003293683530000012
其中,d为视差值,d∈N,(ib,jb)为模板b在左右视角图覆盖区域内的像素点,(ib-d,jb)为计算左视角图匹配成本CL,b(i,j,d)时,模板b在右视角图覆盖区域内的像素点,(ib+d,jb)为计算右视角图匹配成本CR,b(i,j,d)时,模板b在左视角图覆盖区域内的像素点,IL,LoG(ib,jb)为所述左视角图像素点(ib,jb)的高斯拉普拉斯卷积值,IR,LoG(ib-d,jb)为所述右视角图像素点(ib-d,jb)的高斯拉普拉斯卷积值,IR,LoG(ib,jb)为所述右视角图像素点(ib,jb)的高斯拉普拉斯卷积值,IL,LoG(ib+d,jb)为所述左视角图像素点(ib+d,jb)的高斯拉普拉斯卷积值;
步骤2-3,分别对左右视角图同一种模板b下像素点(i,j)的所有视差值d的模板匹配成本进行纵向比较,模板匹配成本最小值为该模板b下像素点(i,j)的纵向匹配成本CL,b(i,j)和CR,b(i,j),对应的视差为dL,b(i,j)和dR,b(i,j):
CL,b(i,j)=min CL,b(i,j,d)
Figure FDA0003293683530000021
CR,b(i,j)=min CR,b(i,j,d)
Figure FDA0003293683530000022
其中,
Figure FDA0003293683530000023
表示使CL,b(i,j,d)或CR,b(i,j,d)为最小值时的视差值d;
所述步骤3包括:
步骤3-1,分别对所述左右视角图中的每一个像素点(i,j)比较其在所述不同粒度的模板b1,b2,...,bn下的纵向匹配成本
Figure FDA0003293683530000026
Figure FDA0003293683530000027
纵向匹配成本最小值为所述不同粒度的模板b1,b2,...,bn下像素点(i,j)的横向匹配成本,对应的视差值d作为所述左右视角图中像素点(i,j)的视差值dL(i,j)和dR(i,j):
Figure FDA0003293683530000024
Figure FDA0003293683530000025
步骤3-2,所述左右视角每个像素点的视差值dL(i,j)和dR(i,j),分别组成左右视角视差图,由左视角图得到的为左视角视差图DL,由所述右视角图得到的为右视角视差图DR
2.根据权利要求1所述的基于多粒度特征匹配大场景深度图生成方法,其特征在于,所述步骤1包括:
步骤1-1,选取w×w的高斯拉普拉斯卷积核窗口,其中,w=2k+1,k∈N*,高斯拉普拉斯卷积核LoG(x,y)为
Figure FDA0003293683530000031
其中,x,y分别为距离所述高斯拉普拉斯卷积核窗口中心点的横向和竖向的像素位置差,σ为所述高斯拉普拉斯卷积核的标准差;
步骤1-2,分别在左右视角图上对每一个像素点用所述高斯拉普拉斯卷积核进行卷积,得到所述像素点的高斯拉普拉斯卷积值ILoG(i,j),i,j为像素点在所述左右视角图中的横纵坐标,i,j∈N。
3.根据权利要求1所述的基于多粒度特征匹配大场景深度图生成方法,其特征在于,所述步骤4包括:
步骤4-1,对所述左视角视差图DL和右视角视差图DR的对应点进行比较,即进行所述对应一致性检查,视差值一致的像素点保留不变,视差值不一致的像素点置为无效点inv;
步骤4-2,在所述左视角视差图DL的无效点邻域的上、下、左、右、左上、左下、右上、右下八个方向寻找有效点,统计有效点视差值的出现频率,取频率最高的视差值填充为该无效点的视差值;
步骤4-3,对经过对应一致性检查和无效点填充的所述左视角视差图DL进行中值滤波,得到最终深度图。
CN202110388539.9A 2021-04-12 2021-04-12 基于多粒度特征匹配大场景深度图生成方法 Active CN113077504B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110388539.9A CN113077504B (zh) 2021-04-12 2021-04-12 基于多粒度特征匹配大场景深度图生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110388539.9A CN113077504B (zh) 2021-04-12 2021-04-12 基于多粒度特征匹配大场景深度图生成方法

Publications (2)

Publication Number Publication Date
CN113077504A CN113077504A (zh) 2021-07-06
CN113077504B true CN113077504B (zh) 2021-11-12

Family

ID=76617291

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110388539.9A Active CN113077504B (zh) 2021-04-12 2021-04-12 基于多粒度特征匹配大场景深度图生成方法

Country Status (1)

Country Link
CN (1) CN113077504B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114866758B (zh) * 2022-05-31 2024-02-23 星宸科技股份有限公司 视差图像填补方法以及图像处理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102428501A (zh) * 2009-09-18 2012-04-25 株式会社东芝 图像处理装置
CN103996201A (zh) * 2014-06-11 2014-08-20 北京航空航天大学 一种基于改进梯度和自适应窗口的立体匹配方法
CN106340036A (zh) * 2016-08-08 2017-01-18 东南大学 一种基于双目立体视觉的立体匹配方法
CN112509138A (zh) * 2020-12-11 2021-03-16 电子科技大学 一种基于lcos的室内抹灰机器人高精度三维重建系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101841730A (zh) * 2010-05-28 2010-09-22 浙江大学 一种基于fpga的实时立体视觉实现方法
CN106355570B (zh) * 2016-10-21 2019-03-19 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102428501A (zh) * 2009-09-18 2012-04-25 株式会社东芝 图像处理装置
CN103996201A (zh) * 2014-06-11 2014-08-20 北京航空航天大学 一种基于改进梯度和自适应窗口的立体匹配方法
CN106340036A (zh) * 2016-08-08 2017-01-18 东南大学 一种基于双目立体视觉的立体匹配方法
CN112509138A (zh) * 2020-12-11 2021-03-16 电子科技大学 一种基于lcos的室内抹灰机器人高精度三维重建系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
一种改进的机器人视觉匹配方法;王军等;《自动化与仪表》;20051231;摘要、第1-4节 *
双目视觉局部立体匹配方法研究;肖静文;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20150915;摘要、第1.1.2节、第3章 *
基于色彩相似性的自适应多窗口立体匹配;卢思军等;《系统仿真学报》;20090430;摘要、第1-5节 *

Also Published As

Publication number Publication date
CN113077504A (zh) 2021-07-06

Similar Documents

Publication Publication Date Title
CN106780590B (zh) 一种深度图的获取方法及系统
Liu et al. Guided inpainting and filtering for kinect depth maps
CN115082639B (zh) 图像生成方法、装置、电子设备和存储介质
CN108010123B (zh) 一种保留拓扑信息的三维点云获取方法
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
CN107622480B (zh) 一种Kinect深度图像增强方法
WO2022016310A1 (zh) 基于点云数据的三维重建方法、装置和计算机设备
CN111951368B (zh) 一种点云、体素和多视图融合的深度学习方法
CN110544300B (zh) 一种基于二维手绘图像特征自动生成三维模型的方法
CN113362247A (zh) 一种激光融合多目相机的语义实景三维重建方法及系统
CN111105452B (zh) 基于双目视觉的高低分辨率融合立体匹配方法
CN110866882B (zh) 基于深度置信度的分层联合双边滤波深度图修复方法
CN113192179A (zh) 一种基于双目立体视觉的三维重建方法
CN114494589A (zh) 三维重建方法、装置、电子设备和计算机可读存储介质
CN113077504B (zh) 基于多粒度特征匹配大场景深度图生成方法
CN116883588A (zh) 一种大场景下的三维点云快速稠密重建方法及系统
CN112819937B (zh) 一种自适应多对象光场三维重建方法、装置及设备
CN112102504A (zh) 一种基于混合现实的三维场景和二维图像混合方法
CN115063485B (zh) 三维重建方法、装置及计算机可读存储介质
CN116958416A (zh) 一种三维建模方法、装置、系统以及存储介质
CN116092035A (zh) 车道线检测方法、装置、计算机设备和存储介质
Zhu et al. Hybrid scheme for accurate stereo matching
WO2022217470A1 (en) Hair rendering system based on deep neural network
CN113129348B (zh) 一种基于单目视觉的道路场景中车辆目标的三维重建方法
CN114882095A (zh) 一种基于轮廓匹配的物体高度在线测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant