CN106780590B - 一种深度图的获取方法及系统 - Google Patents
一种深度图的获取方法及系统 Download PDFInfo
- Publication number
- CN106780590B CN106780590B CN201710001725.6A CN201710001725A CN106780590B CN 106780590 B CN106780590 B CN 106780590B CN 201710001725 A CN201710001725 A CN 201710001725A CN 106780590 B CN106780590 B CN 106780590B
- Authority
- CN
- China
- Prior art keywords
- pixel
- parallax
- depth map
- sub
- matching cost
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Abstract
本发明公开了深度图的获取方法及系统,包括:利用视差获取方法获取左图像和右图像的视差;根据视差计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标得到亚像素视差空间;根据亚像素视差空间计算深度值,获得深度图;该方法直接在基于整型视差空间的深度图上做亚像素拟合,相对于基于亚像素空间的立体匹配的深度图算法,在大大减小了所需内存空间的同时,也缩短了算法的运行时间,用连续函数拟合的方法对离散的视差空间进行拟合插值,得到连续的视差空间从而消除了深度图的分层效应,使得基于视差的三维测量的精度得到提高。
Description
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种深度图的获取方法及系统。
背景技术
获取准确的深度信息是自动系统环境感知的重要部分,深度精度是传感器用于距离估计的最重要特性之一。深度图在自动系统的定位和尺寸测量中有非常普遍的应用。立体摄像系统使用从不同的角度拍摄的两个图像之间的像素级对应,从而实现图像深度估计。但对于远距离系统,基于整型视差的深度图精度是不够的,因为基于整型像素立体匹配的深度图在视差空间中呈整型离散分布,分层效应明显,这样没法达到一些高精度需求的应用场景的测量精度要求。为此,需要对以整型视差为单位的深度图做优化处理,使深度图信息连续,从而在应用中能够得到精确的三维测量信息。
目前,对于深度图的优化方法主要集中于基于图像信息的深度图处理,这些方法依赖于深度图的像素信息、边缘等,基本上靠滤波、经典的插值等方法对二维的深度图像做处理,在一定程度上能够对深度图的成像有一定的改善,但是,远远达不到精度要求非常高的测量应用场景的要求。因此,如何获取具有精确深度精度的深度图,是本领域技术人员需要解决的技术问题。
发明内容
本发明的目的是提供一种深度图的获取方法及系统,能够解决像素锁定问题,实现亚像素的精确估计,获得很高的深度精度,同时,算法所需内存少,计算简单,花费时间少,实时性好。
为解决上述技术问题,本发明提供一种深度图的获取方法,包括:
利用视差获取方法获取左图像和右图像的视差;
根据所述视差,计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;
利用所述匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数,并将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标,得到亚像素视差空间;
根据所述亚像素视差空间计算深度值,获得深度图。
可选的,利用视差获取方法获取左图像和右图像的视差,包括:
利用同名像点快速匹配方法获取左图像和右图像的视差。
可选的,根据所述视差,计算深度图中相邻两个像素点之间的匹配代价差,包括:
利用计算深度图中相邻两个像素点之间的匹配代价差;
其中,d为当前像素点整型三维重建之后的视差,Cd为当前像素点的视差d对应的立体匹配中聚合之后的匹配代价,Cd-1为当前像素点在视差d-1时对应的匹配代价,Cd+1为当前像素点在视差d+1时对应的匹配代价,LeftDif为当前像素点与其同名点左边像素点的匹配代价差,RightDif为当前像素点与其同名点右边像素点的匹配代价差。
可选的,所述匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数,包括:
利用确定拟合变量h;
根据所述拟合变量h,确定基于整型像素采样的连续匹配代价拟合函数f(h),其中,
可选的,计算亚像素级精度的像素坐标,得到亚像素视差空间,包括:
利用计算亚像素级精度的像素坐标dRefine,并确定亚像素视差空间DNew={dRefine}。
可选的,根据所述亚像素视差空间计算深度值,获取深度图,包括:
利用计算深度图的世界坐标;
利用将所述世界坐标单位化得到深度图的点云数据;
其中,E=(x,y,z)为世界坐标,E1=(X,Y,Z)为单位化世界坐标,e=(u,v)为图像坐标,Q为重投影矩阵,Z为亚像素优化后的深度值。
可选的,获取深度图之后,还包括:
通过显示器输出所述深度图。
本发明还提供一种深度图的获取系统,包括:
视差计算模块,用于利用视差获取方法获取左图像和右图像的视差;
匹配代价差计算模块,用于根据所述视差,计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;
亚像素视差空间获取模块,用于利用所述匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数,并将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标,得到亚像素视差空间;
深度图获取模块,用于根据所述亚像素视差空间计算深度值,获得深度图。
可选的,所述亚像素视差空间获取模块包括:
连续匹配代价拟合函数确定单元,用于利用确定拟合变量h;根据所述拟合变量h,确定基于整型像素采样的连续匹配代价拟合函数f(h);
亚像素视差空间获取单元,用于利用计算亚像素级精度的像素坐标dRefine,并确定亚像素视差空间DNew={dRefine};
其中,LeftDif为当前像素点与左边像素点的匹配代价差,RightDif为当前像素点与右边像素点的匹配代价差,d为当前像素点整型三维重建之后的视差,Cd为当前像素点的视差d对应的立体匹配中聚合之后的匹配代价。
可选的,该系统还包括:
输出模块,用于通过显示器输出所述深度图。
本发明所提供的一种深度图的获取方法,包括:利用视差获取方法获取左图像和右图像的视差;根据视差计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;利用匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数,并将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标得到亚像素视差空间;根据亚像素视差空间计算深度值,获得深度图;
可见,该方法直接在基于整型视差空间的深度图上做亚像素拟合,相对于基于亚像素空间的立体匹配的深度图算法,在大大减小了所需内存空间的同时,也缩短了算法的运行时间,用连续函数拟合的方法对离散的视差空间进行拟合插值,得到连续的视差空间,从而消除了深度图的分层效应,使得基于视差的三维测量的精度得到提高,适用于对测量精度要求不同的三维测量场景,特别是对测量精度要求非常高的三维测量场景;本发明还提供一种深度图的获取系统,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例所提供的深度图的获取方法的流程图;
图2为本发明实施例所提供的立体匹配整型视差空间的示意图;
图3为本发明实施例所提供的深度信息空间示意图的示意图;
图4为本发明实施例所提供的匹配代价曲线拟合的示意图;
图5为本发明实施例所提供的传感器整型像素示意图;
图6为本发明实施例所提供的深度图的获取系统的结构框图;
图7为本发明实施例所提供的另一深度图的获取系统的结构框图。
具体实施方式
本发明的核心是提供一种深度图的获取方法及系统,能够解决像素锁定问题,实现亚像素的精确估计,获得很高的深度精度,同时,算法所需内存少,计算简单,花费时间少,实时性好。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,深度图的获取方法研究通常致力于基于立体匹配的简单窗口解决方案。Scharstein和Szeliski提出的原始分类法将立体算法分为两个主要组:局部方法和全局方法。局部算法类使用每个点周围的有限支持区域来计算视差,这种方法都基于选定的匹配窗口,通常应用匹配代价聚合,达到平滑的效果。大窗口会降低匹配不成功的数量,也减少深度不连续区域的误匹配率。局部方法的主要优势是计算复杂度小,能够实时实现。主要不足是在每一步只使用该像素点附近的局部信息,导致这些方法不能够处理毫无特征的区域或重复纹理区域。全局的方法有很高的计算复杂度,因此它们并不适用于需要实时性要求高的自动系统。还有提出用半全局匹配(SGM)的立体匹配算法来替代现有的解决方案,这能够很有效果地减少执行时间。这几种立体算法能够得到像素级别的误差,但他们忽略了亚像素的结果。
近段时间,提出在立体匹配算法中使用一种简单的抛物线插值方法来实现亚像素的估计。该方法使用最小匹配代价和它邻域的两个点对应的匹配代价来进行抛物线插值,该抛物线的最小点的位置将代表亚像素点。该解决方案能够得到精确的精度。然而,这种方法针对于基于立体算法的简单窗口存在严重的问题,会出现像素锁定现象(“pixel-locking”),即视差所对应的点云数量以整形视差为对称轴呈高斯分布。Shimitzu和Okutomi最近提出通过建模误差和建模校正的来解决像素锁定问题,他们发现,误差是对称的,且能够通过变换图像来消除,变换图像将会使误差函数转置从而能达到与简单的匹配吻合。虽然此解决方案是相当有效的,但是仍存在一些缺点,其主要缺点是,立体匹配需要进行三次,会造成计算资源的大量浪费。最后现代立体匹配方法例如的半全局方法为了估计完美的亚像素插值数学模型需要使用多个非线性变换,这几乎是不可能的实现的。
针对现有深度图的优化技术中存在的复杂度高、优化效果不够好以及一些基于立体匹配算法实现深度图亚像素优化方法中存在的像素锁定问题,以及立体匹配方法复杂繁琐等不足,本实施例提供一种获取深度图的方法;该方法能够解决像素锁定问题,实现亚像素的精确估计,获得很高的深度精度,同时,算法所需内存少,计算简单,花费时间少,实时性好。具体请参考图1,图1为本发明实施例所提供的深度图的获取方法的流程图;该获取方法可以包括:
S100、利用视差获取方法获取左图像和右图像的视差;
具体的,该步骤主要的目的是为了获得像素级精度的视差,即利用视差获取方法获取左图像和右图像的视差d。本实施例并不限定具体视差的计算方法。由于该视差是后续计算的基础,因此为了保证后续计算数值的可靠性和准确性,这里可以选用精确度较高的视差计算方法,例如同名像点快速匹配方法。这里用户在选用视差计算方法时,不仅要考虑视差计算的准确程度,还需要考虑硬件的计算速度,以及系统的实时性的要求等指标。
在综合考虑上述指标后,优选的,可以利用同名像点快速匹配方法获取左图像和右图像的视差。
具体的,首先要进行摄像系统标定。
其中,先标定双目摄像系统中摄像机的内部参数和外部参数,得到双目摄像系统的相机矩阵K、畸变矩阵D、旋转矩阵R、平移向量T和重投影矩阵Q。
其中,相机矩阵为其中,fx,fy为主距参数,(cx,cy)为主点坐标。
畸变矩阵为D=[k1 k2 p1 p2 k3[k4 k5 k6]],其中,ki,pj,i=1,2,...,6,j=1,2为畸变参数。
重投影矩阵为其中,Tx的T的x分量,T为平移向量。
其中,旋转矩阵平移向量T=[TxTyTz]。
其次,计算像素级视差d。
其中,视差就是左、右摄像机观察同一个目标所产生的方向差异,立体视觉中描述为左图像、右图像中的同名点在X轴上的距离,数学描述为:
d=xl-xr;其中,xl为左图像中的同名点在X轴上的距离,xr为右图像中的同名点在X轴上的距离。
S110、根据所述视差,计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;
S120、利用所述匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数,并将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标,得到亚像素视差空间;
其中,由于传感器的每一个像素都具有一定的面积,世界坐标系中一理想点在传感器像素上的精确位置无法在图像上得到反映,一般的,图像上获得的像素坐标位置只是像素的某一部分(诸如中心点)的位置信息,这一坐标所代表的图像信息无法反映整个像素的图像信息,这就在根本上对图像造成像素点坐标定位误差,即图像识别误差。那么,由立体匹配得到的整型视差是不连续的。如图2所示的立体匹配整型视差空间。图2中,d表示视差,x为像平面x轴,y为像平面y轴。可以看到,视差d是不连续的,在d层视差中,由近到远依次为第0层,第1层,第2层,…,第d-1层,第d层。由立体匹配得到的整型视差与深度的转换关系为:
其中,b为基线长度,f为主距,Z为深度值,D={d}。
由上所述,整型视差是不连续的,那么,经过三维恢复后,由整型视差转化的深度信息也是呈离散分层分布的,即对应的深度信息空间也是不连续的,如图3所示。图3中,d+1层与d层的距离为:
其中,δ为像元尺寸,即每个像素所占的空间尺寸,b为基线长度,Z为深度值。可以看出,深度值越大时,分层效应越明显,视差越小,带入的误差越大。深度值越小,视差越大,误差越小。
为此,为了减小测量误差,需要恢复连续的深度空间,即恢复连续的视差空间,获取精确的测量尺寸,这一目标通过获取亚像素级尺寸得以实现。基于深度图亚像素优化一般利用基于整形采样的匹配代价曲线拟合方法来实现。简单描述为:利用需要优化的点以及与它相邻的两个点的匹配代价进行曲线拟合。如图4所示,通过点C1,C2,C3的进行曲线拟合,可以得到极小值点Cs(最小值点)。点Cs就是亚像素级的视差对应的匹配代价函数,即对C2优化后的点。步骤S110到步骤S120为通过曲线拟合进行亚像素优化过程。即步骤S110到步骤S120主要包括匹配代价差计算过程,拟合变量确定过程,连续匹配代价拟合函数确定过程,亚像素级精度的像素坐标计算过程。本实施例并不对这几个过程的具体实现形式进行限定。只要保证利用连续匹配代价拟合函数进行匹配代价拟合,确定亚像素视差空间即可。
其中,优选的,根据所述视差,计算深度图中相邻两个像素点之间的匹配代价差可以包括,即匹配代价差计算过程可以包括:
利用计算深度图中相邻两个像素点之间的匹配代价差;
其中,d为当前像素点整型三维重建之后的视差,Cd为当前像素点的视差d对应的立体匹配中聚合之后的匹配代价,Cd-1为当前像素点在视差d-1时对应的匹配代价,Cd+1为当前像素点在视差d+1时对应的匹配代价,LeftDif为当前像素点与其同名点左边像素点的匹配代价差,RightDif为当前像素点与其同名点右边像素点的匹配代价差。
本实施例使用连续函数拟合的方法对离散的视差空间进行拟合插值,得到连续的视差空间,从而削弱了深度图的分层效应,使得基于视差的三维测量的精度得到提高,适用于对测量精度要求不同的三维测量场景,特别是对测量精度要求非常高的三维测量场景。进一步,为了减小计算过程的复杂度,优选的,可以选用余弦函数作为连续匹配代价拟合函数进行匹配代价拟合。即优选的,所述匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数可以包括,即拟合变量及连续匹配代价拟合函数确定过程可以包括:
利用确定拟合变量h;
根据所述拟合变量h,确定基于整型像素采样的连续匹配代价拟合函数f(h),其中,
具体的,本实施例采用余弦函数来进行整型像素采样的匹配代价拟合,可以基本消除了像素锁定现象。即利用余弦函数对时差空间进行插值,降低了视差空间拟合的复杂度,同时消除了视差空间拟合的像素锁定效应,提高了视差空间的插值精度。
具体的,在整型视差空间对应的深度图中,分层明显,这就反映了整型的像素精度不足以描述精确的图像信息,然而,图像获取传感器获取到的图像信息都是基于像素的图像信息。为了得到精确的图像深度信息,需要对基于整型时视差空间的深度图进行亚像素优化,即对整型的视差空间进行优化。传感器获得的图像像素是占一定空间的,基于整型像素的立体匹配中的像素位置只是像素的某一个点,一般取的是像素的几何中心点坐标作为整型像素的位置坐标,如图5所示,a为传感器中像素A的坐标,但实际上,像素A还包含得有b、c、d等点,因此,仅仅靠点a是不能够代表整个像素的图像信息。为了得到连续的视差空间,需要在基于整型像素匹配得到的视差基础上做一定的调整,这个调整范围在整型视差的半个像素范围之内,即优选的,计算亚像素级精度的像素坐标,得到亚像素视差空间可以包括:
利用f计算亚像素级精度的像素坐标dRefine,并确定亚像素视差空间DNew={dRefine}。
即亚像素优化是在整型的视差空间拟合得到浮点型的视差空间的过程,利用连续匹配代价拟合函数进行多次拟合,把离散的数据通过曲线拟合得到连续的数据的过程。
S130、根据所述亚像素视差空间计算深度值,获得深度图。
其中,步骤S110到步骤S120为亚像素优化过程。该步骤是将亚像素视差空间进行转换,得到深度值,进而获得基于深度图的亚像素优化之后的深度图。本实施例并不限定从亚像素视差空间到深度图的转换过程。具体的,根据所述亚像素视差空间计算深度值,获取深度图可以包括:
利用计算深度图的世界坐标;
利用将所述世界坐标单位化得到深度图的点云数据;
其中,E=(x,y,z)为世界坐标,E1=(X,Y,Z)为深度图的点云数据,e=(u,v)为图像坐标,Q为重投影矩阵,Z为亚像素优化后的深度值。
基于上述技术方案,本实施例所提供的深度图的获取方法,直接在基于整型视差空间的深度图上做亚像素拟合,相对于基于亚像素空间的立体匹配的深度图算法,在大大减小了所需内存空间的同时,也缩短了算法的运行时间,用连续函数拟合的方法对离散的视差空间进行拟合插值,得到连续的视差空间,从而消除了深度图的分层效应,使得基于视差的三维测量的精度得到提高,适用于对测量精度要求不同的三维测量场景,特别是对测量精度要求非常高的三维测量场景;进一步,采用余弦函数来进行整型像素采样的匹配代价拟合,可以基本消除了像素锁定现象。即利用余弦函数对时差空间进行插值,降低了视差空间拟合的复杂度,同时消除了视差空间拟合的像素锁定效应,提高了视差空间的插值精度。
基于上述实施例,本实施例在获取深度图之后还可以包括:
通过显示器输出所述深度图。
具体的,将优化之后的深度图显示出来。由上述实施例中的方法,得到的深度图的非常稠密的,即深度信息是连续的,是高精度的。
其中,这里的显示器可以是显示屏等显示器件。
下面对本发明实施例提供的深度图的获取系统进行介绍,下文描述的深度图的获取系统与上文描述的深度图的获取方法及可相互对应参照。
请参考图6,图6为本发明实施例所提供的深度图的获取系统的结构框图;该获取系统可以包括:
视差计算模块100,用于利用视差获取方法获取左图像和右图像的视差;
匹配代价差计算模块200,用于根据所述视差,计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;
亚像素视差空间获取模块300,用于利用所述匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数,并将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标,得到亚像素视差空间;
深度图获取模块400,用于根据所述亚像素视差空间计算深度值,获得深度图。
基于上述实施例,所述亚像素视差空间获取模块300可以包括:
连续匹配代价拟合函数确定单元,用于利用确定拟合变量h;根据所述拟合变量h,确定基于整型像素采样的连续匹配代价拟合函数f(h);
亚像素视差空间获取单元,用于利用计算亚像素级精度的像素坐标dRefine,并确定亚像素视差空间DNew={dRefine};
其中,LeftDif为当前像素点与左边像素点的匹配代价差,RightDif为当前像素点与右边像素点的匹配代价差,d为当前像素点整型三维重建之后的视差,Cd为当前像素点的视差d对应的立体匹配中聚合之后的匹配代价。
基于上述任意实施例,请参考图7,该获取系统还可以包括:
输出模块500,用于通过显示器输出所述深度图。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明所提供的深度图的获取方法及系统进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (10)
1.一种深度图的获取方法,其特征在于,包括:
利用视差获取方法获取左图像和右图像的视差;
根据所述视差,计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;
利用所述匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数,并将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标,得到亚像素视差空间;
根据所述亚像素视差空间计算深度值,获得深度图。
2.根据权利要求1所述的深度图的获取方法,其特征在于,利用视差获取方法获取左图像和右图像的视差,包括:
利用同名像点快速匹配方法获取左图像和右图像的视差。
3.根据权利要求2所述的深度图的获取方法,其特征在于,根据所述视差,计算深度图中相邻两个像素点之间的匹配代价差,包括:
利用计算深度图中相邻两个像素点之间的匹配代价差;
其中,d为当前像素点整型三维重建之后的视差,Cd为当前像素点的视差d对应的立体匹配中聚合之后的匹配代价,Cd-1为当前像素点在视差d-1时对应的匹配代价,Cd+1为当前像素点在视差d+1时对应的匹配代价,LeftDif为当前像素点与其同名点左边像素点的匹配代价差,RightDif为当前像素点与其同名点右边像素点的匹配代价差。
4.根据权利要求3所述的深度图的获取方法,其特征在于,所述匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数,包括:
利用确定拟合变量h;
根据所述拟合变量h,确定基于整型像素采样的连续匹配代价拟合函数f(h),其中,
5.根据权利要求4所述的深度图的获取方法,其特征在于,计算亚像素级精度的像素坐标,得到亚像素视差空间,包括:
利用计算亚像素级精度的像素坐标dRefine,并确定亚像素视差空间DNew={dRefine}。
6.根据权利要求5所述的深度图的获取方法,其特征在于,根据所述亚像素视差空间计算深度值,获取深度图,包括:
利用计算深度图的世界坐标;
利用将所述世界坐标单位化得到深度图的点云数据;
其中,E=(x,y,z)为世界坐标,E1=(X,Y,Z)为深度图的点云数据,e=(u,v)为图像坐标,Q为重投影矩阵,Z为亚像素优化后的深度值。
7.根据权利要求1-6任一项所述的深度图的获取方法,其特征在于,获取深度图之后,还包括:
通过显示器输出所述深度图。
8.一种深度图的获取系统,其特征在于,包括:
视差计算模块,用于利用视差获取方法获取左图像和右图像的视差;
匹配代价差计算模块,用于根据所述视差,计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;
亚像素视差空间获取模块,用于利用所述匹配代价差确定的基于整型像素采样的连续匹配代价拟合函数,并将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标,得到亚像素视差空间;
深度图获取模块,用于根据所述亚像素视差空间计算深度值,获得深度图。
9.根据权利要求8所述的深度图的获取系统,其特征在于,所述亚像素视差空间获取模块包括:
连续匹配代价拟合函数确定单元,用于利用确定拟合变量h;根据所述拟合变量h,确定基于整型像素采样的连续匹配代价拟合函数f(h);
亚像素视差空间获取单元,用于利用计算亚像素级精度的像素坐标dRefine,并确定亚像素视差空间DNew={dRefine};
其中,LeftDif为当前像素点与左边像素点的匹配代价差,RightDif为当前像素点与右边像素点的匹配代价差,d为当前像素点整型三维重建之后的视差,Cd为当前像素点的视差d对应的立体匹配中聚合之后的匹配代价。
10.根据权利要求8或9所述的深度图的获取系统,其特征在于,还包括:
输出模块,用于通过显示器输出所述深度图。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710001725.6A CN106780590B (zh) | 2017-01-03 | 2017-01-03 | 一种深度图的获取方法及系统 |
PCT/CN2017/119992 WO2018127007A1 (zh) | 2017-01-03 | 2017-12-29 | 深度图获取方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710001725.6A CN106780590B (zh) | 2017-01-03 | 2017-01-03 | 一种深度图的获取方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106780590A CN106780590A (zh) | 2017-05-31 |
CN106780590B true CN106780590B (zh) | 2019-12-24 |
Family
ID=58952072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710001725.6A Active CN106780590B (zh) | 2017-01-03 | 2017-01-03 | 一种深度图的获取方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN106780590B (zh) |
WO (1) | WO2018127007A1 (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780590B (zh) * | 2017-01-03 | 2019-12-24 | 成都通甲优博科技有限责任公司 | 一种深度图的获取方法及系统 |
CN109919991A (zh) * | 2017-12-12 | 2019-06-21 | 杭州海康威视数字技术股份有限公司 | 一种深度信息确定方法、装置、电子设备及存储介质 |
JP7136123B2 (ja) * | 2017-12-12 | 2022-09-13 | ソニーグループ株式会社 | 画像処理装置と画像処理方法およびプログラムと情報処理システム |
CN108876835A (zh) * | 2018-03-28 | 2018-11-23 | 北京旷视科技有限公司 | 深度信息检测方法、装置和系统及存储介质 |
CN110533701A (zh) * | 2018-05-25 | 2019-12-03 | 杭州海康威视数字技术股份有限公司 | 一种图像视差确定方法、装置及设备 |
CN111382654B (zh) * | 2018-12-29 | 2024-04-12 | 北京市商汤科技开发有限公司 | 图像处理方法和装置以及存储介质 |
CN111415402B (zh) * | 2019-01-04 | 2023-05-02 | 中国科学院沈阳计算技术研究所有限公司 | 内外相似度聚集的立体匹配算法 |
CN110533703B (zh) * | 2019-09-04 | 2022-05-03 | 深圳市道通智能航空技术股份有限公司 | 一种双目立体视差确定方法、装置及无人机 |
CN110853080A (zh) * | 2019-09-30 | 2020-02-28 | 广西慧云信息技术有限公司 | 一种田间果实尺寸的测量方法 |
CN110853086A (zh) * | 2019-10-21 | 2020-02-28 | 北京清微智能科技有限公司 | 基于散斑投影的深度图像生成方法及系统 |
CN112749594B (zh) * | 2019-10-31 | 2022-04-22 | 浙江商汤科技开发有限公司 | 信息补全方法、车道线识别方法、智能行驶方法及相关产品 |
CN113034568B (zh) * | 2019-12-25 | 2024-03-29 | 杭州海康机器人股份有限公司 | 一种机器视觉深度估计方法、装置、系统 |
CN111145271B (zh) * | 2019-12-30 | 2023-04-28 | 广东博智林机器人有限公司 | 相机参数的精确度的确定方法、装置、存储介质及终端 |
CN111179327B (zh) * | 2019-12-30 | 2023-04-25 | 青岛联合创智科技有限公司 | 一种深度图的计算方法 |
CN111260713B (zh) * | 2020-02-13 | 2023-04-14 | 青岛联合创智科技有限公司 | 一种基于图像的深度计算方法 |
CN111402313B (zh) * | 2020-03-13 | 2022-11-04 | 合肥的卢深视科技有限公司 | 图像深度恢复方法和装置 |
CN112116641B (zh) * | 2020-09-11 | 2024-02-20 | 南京理工大学智能计算成像研究院有限公司 | 一种基于OpenCL的散斑图像匹配方法 |
CN112101209B (zh) * | 2020-09-15 | 2024-04-09 | 阿波罗智联(北京)科技有限公司 | 用于路侧计算设备的确定世界坐标点云的方法和装置 |
CN112184793B (zh) * | 2020-10-15 | 2021-10-26 | 北京的卢深视科技有限公司 | 深度数据的处理方法、装置及可读存储介质 |
CN112348859A (zh) * | 2020-10-26 | 2021-02-09 | 浙江理工大学 | 一种渐近全局匹配的双目视差获取方法和系统 |
CN112712477A (zh) * | 2020-12-21 | 2021-04-27 | 东莞埃科思科技有限公司 | 结构光模组的深度图像评价方法及其装置 |
CN114723967B (zh) * | 2022-03-10 | 2023-01-31 | 合肥的卢深视科技有限公司 | 视差图优化方法、人脸识别方法、装置、设备及存储介质 |
CN114897665A (zh) * | 2022-04-01 | 2022-08-12 | 中国科学院自动化研究所 | 可配置实时视差点云计算装置及方法 |
CN116188558B (zh) * | 2023-04-27 | 2023-07-11 | 华北理工大学 | 基于双目视觉的立体摄影测量方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103106688A (zh) * | 2013-02-20 | 2013-05-15 | 北京工业大学 | 基于双层配准方法的室内三维场景重建方法 |
CN103702098A (zh) * | 2013-12-09 | 2014-04-02 | 上海交通大学 | 一种时空域联合约束的三视点立体视频深度提取方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100505334B1 (ko) * | 2003-03-28 | 2005-08-04 | (주)플렛디스 | 운동 시차를 이용한 입체 영상 변환 장치 |
US8472699B2 (en) * | 2006-11-22 | 2013-06-25 | Board Of Trustees Of The Leland Stanford Junior University | Arrangement and method for three-dimensional depth image construction |
CN101915571B (zh) * | 2010-07-20 | 2011-08-10 | 桂林理工大学 | 基于相位相关的影像匹配初始视差的全自动获取方法 |
JP5337218B2 (ja) * | 2011-09-22 | 2013-11-06 | 株式会社東芝 | 立体画像変換装置、立体画像出力装置および立体画像変換方法 |
CN104065947B (zh) * | 2014-06-18 | 2016-06-01 | 长春理工大学 | 一种集成成像系统的深度图获取方法 |
CN105953777B (zh) * | 2016-04-27 | 2018-03-13 | 武汉讯图科技有限公司 | 一种基于深度图的大比例尺倾斜影像测图方法 |
CN106780590B (zh) * | 2017-01-03 | 2019-12-24 | 成都通甲优博科技有限责任公司 | 一种深度图的获取方法及系统 |
-
2017
- 2017-01-03 CN CN201710001725.6A patent/CN106780590B/zh active Active
- 2017-12-29 WO PCT/CN2017/119992 patent/WO2018127007A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103106688A (zh) * | 2013-02-20 | 2013-05-15 | 北京工业大学 | 基于双层配准方法的室内三维场景重建方法 |
CN103702098A (zh) * | 2013-12-09 | 2014-04-02 | 上海交通大学 | 一种时空域联合约束的三视点立体视频深度提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106780590A (zh) | 2017-05-31 |
WO2018127007A1 (zh) | 2018-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106780590B (zh) | 一种深度图的获取方法及系统 | |
CN110363858B (zh) | 一种三维人脸重建方法及系统 | |
CN107977997B (zh) | 一种结合激光雷达三维点云数据的相机自标定方法 | |
CN107220997B (zh) | 一种立体匹配方法及系统 | |
CN106447601B (zh) | 一种基于投影-相似变换的无人机遥感影像拼接方法 | |
CN109961401A (zh) | 一种双目相机的图像校正方法和存储介质 | |
CN110223222B (zh) | 图像拼接方法、图像拼接装置和计算机可读存储介质 | |
CN103440653A (zh) | 双目视觉立体匹配方法 | |
CN103106688A (zh) | 基于双层配准方法的室内三维场景重建方法 | |
CN106023230B (zh) | 一种适合变形图像的稠密匹配方法 | |
CN108305277B (zh) | 一种基于直线段的异源图像匹配方法 | |
CN107545586B (zh) | 基于光场极线平面图像局部的深度获取方法及系统 | |
CN108961383A (zh) | 三维重建方法及装置 | |
CN111105452B (zh) | 基于双目视觉的高低分辨率融合立体匹配方法 | |
CN111027415A (zh) | 一种基于偏振图像的车辆检测方法 | |
CN113989758A (zh) | 一种用于自动驾驶的锚引导3d目标检测方法及装置 | |
CN113129352A (zh) | 一种稀疏光场重建方法及装置 | |
CN114782636A (zh) | 三维重建方法、装置及系统 | |
CN114996814A (zh) | 一种基于深度学习与三维重建的家具设计系统 | |
JP2024507089A (ja) | 画像のコレスポンデンス分析装置およびその分析方法 | |
CN114120012A (zh) | 一种基于多特征融合和树形结构代价聚合的立体匹配方法 | |
CN111369435B (zh) | 基于自适应稳定模型的彩色图像深度上采样方法及系统 | |
CN117132737A (zh) | 一种三维建筑模型构建方法、系统及设备 | |
CN111951339A (zh) | 利用异构双目相机进行视差计算的图像处理方法 | |
Zhou et al. | Single-view view synthesis with self-rectified pseudo-stereo |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |