CN111383254A - 一种深度信息获取方法、系统及终端设备 - Google Patents
一种深度信息获取方法、系统及终端设备 Download PDFInfo
- Publication number
- CN111383254A CN111383254A CN201811641125.7A CN201811641125A CN111383254A CN 111383254 A CN111383254 A CN 111383254A CN 201811641125 A CN201811641125 A CN 201811641125A CN 111383254 A CN111383254 A CN 111383254A
- Authority
- CN
- China
- Prior art keywords
- images
- pixel point
- cost
- cameras
- disparity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013507 mapping Methods 0.000 claims abstract description 23
- 230000002776 aggregation Effects 0.000 claims abstract description 20
- 238000004220 aggregation Methods 0.000 claims abstract description 20
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000004590 computer program Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000003708 edge detection Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 14
- 238000003860 storage Methods 0.000 description 8
- 230000009977 dual effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明适用于图像处理技术领域,提供一种深度信息获取方法、系统及终端设备,通过双摄像头获取同一场景下的两幅图像,分别计算两幅图像中的每个像素点的匹配代价,根据每个像素点的匹配代价,分别对每个像素点进行预设数量个方向上的代价聚合,得到两幅图像的视差图,可以有效缩短计算时长、降低功耗;通过在将两幅图像的视差图转化为深度图之后,分别将深度图映射回两幅图像,可以将深度信息直接应用于原图像。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种深度信息获取方法、系统及终端设备。
背景技术
目前,基于具备双摄像头的终端设备的深度信息获取方法的通常为:利用双摄像头同时获取同一场景下的两幅图像,再通过立体匹配算法找到两幅图像中相匹配的像素点,计算相匹配的像素点之间的视差值,并转换为场景中物体的深度信息。
然而,目前的深度信息获取方法存在计算时间长、功耗大,且深度信息无法直接应用于原图像的问题。
发明内容
有鉴于此,本发明实施例提供了一种深度信息获取方法、系统及终端设备,以解决目前的深度信息获取方法存在计算时间长、功耗大,且深度信息无法直接应用于原图像的问题。
本发明实施例的第一方面提供了一种深度信息获取方法,应用于包括双摄像头的终端设备,所述方法包括:
通过双摄像头获取同一场景下的两幅图像;
分别计算所述两幅图像中的每个像素点的匹配代价;
根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图;
将所述两幅图像的视差图转化为深度图;
将所述深度图映射回所述两幅图像。
本发明实施例的第二方面提供了一种深度信息获取系统,应用于包括双摄像头的终端设备,所述系统包括:
获取模块,用于通过双摄像头获取同一场景下的两幅图像;
计算模块,用于分别计算所述两幅图像中的每个像素点的匹配代价;
聚合模块,用于根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图;
转化模块,用于将所述两幅图像的视差图转化为深度图;
映射模块,用于将所述深度图映射回所述两幅图像。
本发明实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
本发明实施例通过双摄像头同时获取同一场景下的两幅图像,分别计算两幅图像中的每个像素点的匹配代价,根据每个像素点的匹配代价,分别对每个像素点进行预设数量个方向上的代价聚合,得到两幅图像的视差图,可以有效缩短计算时长、降低功耗;通过在将两幅图像的视差图转化为深度图之后,分别将深度图映射回两幅图像,可以将深度信息直接应用于原图像。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的深度信息获取方法的流程示意图;
图2是本发明实施例一提供的双摄像头的工作原理示意图;
图3是本发明实施例一提供的双摄像头拍摄的同一场景下的两幅图像;
图4是本发明实施例一提供的校准后的两幅图像;
图5是本发明实施例一提供的深度图;
图6是本发明实施例一提供的室外场景下物体的两幅图像和深度图;
图7是本发明实施例一提供的室外场景下人物的两幅图像和深度图;
图8是本发明实施例一提供的室内场景下物体的两幅图像和深度图;
图9是本发明实施例一提供的室内场景下人物的两幅图像和深度图;
图10是本发明实施例二提供的深度信息获取系统的结构示意图;
图11是本发明实施例三提供的终端设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含一系列步骤或单元的过程、方法或系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。此外,术语“第一”、“第二”和“第三”等是用于区别不同对象,而非用于描述特定顺序。
实施例一
本实施例提供一种深度信息获取方法,应用于包括双摄像头的终端设备,例如,手机、平板电脑、个人数字助理、AR(Augmented Reality,增强现实技术)眼镜等移动终端,还可以应用于与双摄像头通信连接的PC(Personal Computer,个人计算机)客户端、自助终端或服务器等计算设备。
如图1所示,本实施例提供的深度信息获取方法包括:
步骤S101、通过双摄像头获取同一场景下的两幅图像。
在具体应用中,双摄像头可以是对称式双摄像头或非对称式双摄像头,对对称式是指双摄像头包括的两个摄像头的参数相同,非对称式是指双摄像头包括的两个摄像头的参数不同。参数主要包括分辨率,分辨率的大小直接决定了摄像头所拍摄的图像的像素大小和清晰度。
在具体应用中,为了防止场景发生变化,保证双摄像头获取到的两幅图像完全对应,可以使双摄像头获取同时同一场景下的两幅图像,避免其中一个摄像头先获取图像之后,场景发生变化另一个摄像头再获取图像,导致两幅图像对应的场景不同。
如图2所示,示例性的示出了双摄像头的工作原理示意图。图2中为了方便示意,示例性的示出了对称式双摄像头拍摄同一场景下的物体时的工作原理,其中,P表示物体,Xl为左摄像头拍摄的位于的成像平面的物体的像,Xr为右摄像头拍摄的位于成像平面的物体的像,Ol为其中左摄像头的光心,Or为右摄像头的光心,h为深度,d为两个摄像头的光心距离。
如图3所示,示例性的示出了通过非对称式双摄像头拍摄的同一场景下的两幅图像。
在一个实施例中,步骤S101之后包括:
步骤S200、分别对所述两幅图像进行图像预处理。
在具体应用中,可以根据实际需要,采用任意的图像预处理方法对两幅图像进行预处理,例如,特征抽取、图像分割、匹配和识别等。
在一个实施例中,步骤S200,具体包括:
步骤S201、分别将所述两幅图像保存为单通道灰度图。
在具体应用中,分别将两幅图像保存为相同颜色通道的单通道灰度图,每幅图像被保存为一幅单通道灰度图,通过将图像保存为单通道灰度图,利于进行后续的校准操作,简化操作难度,降低校准时长和功耗。
步骤S202、利用所述双摄像头的内参和外参,分别对保存为单通道灰度图的所述两幅图像进行校准。
在具体应用中,利用其中一个摄像头的内参和外参对该摄像头获取的一幅图像的单通道灰度图进行校准,利用另一个摄像头的内参和外参对另一个摄像头获取的另一幅图像的单通道灰度图进行校准。
如图4所示,示例性的示出了校准后的通过非对称式双摄像头拍摄的同一场景下的两幅图像。
在一个实施例中,所述双摄像头为非对称式双摄像头;
步骤S202和步骤S203之间,包括:
对校准后的两幅图像中分辨率高的图像进行模糊处理,以减小所述两幅图像之间的差异。
在具体应用中,可以通过高斯滤波器对校准后的两幅图像中分辨率高的图像进行模糊处理。非对称式双摄像头中一个摄像头的分辨率可以为1200万(12M)像素,另一个摄像头的分辨率可以为200万(2M)像素。
步骤S203、分别对校准后的所述两幅图像进行预设方向上的边缘检测,得到所述两幅图像的梯度信息。
在具体应用中,预设方向可以根据实际需要设置为任意方向,例如,水平方向或垂直方向。
在一个实施例中,步骤S203具体包括:
采用水平Sobel算子分别对校准后的所述两幅图像进行水平方向上的边缘检测。
在具体应用中,所述水平Sobel算子为基于opencvSGBM半全局立体匹配算法的Sobel算子。
在一个实施例中,步骤S203的实现公式如下:
Sobel1(x,y)=2[P1(x+1,y)-P1(x-1,y)]+P1(x+1,y-1)-P1(x-1,y-1)+P1(x+1,y+1)-P1(x-1,y+1);
Sobel2(x,y)=2[P2(x+1,y)-P2(x-1,y)]+P2(x+1,y-1)-P2(x-1,y-1)+P2(x+1,y+1)-P2(x-1,y+1);
其中,x表示像素点在水平方向上的坐标,y表示像素点在垂直方向上的坐标,P1表示其中一幅图像中任一像素点的像素值,P2表示另一幅图像中任一像素点的像素值。
步骤S204、根据边缘检测后所述两幅图像中的每个像素点的像素值,分别将所述两幅图像映射成新图像,得到所述两幅图像的梯度信息。
在具体应用中,步骤S204的实现公式如下:
其中,PNEW1表示其中一幅图像中任一像素点在其对应的新图像中的像素值,PNEW2表示另一幅图像中任一像素点在其对应的新图像中的像素值。
步骤S102、分别计算所述两幅图像中的每个像素点的匹配代价。
在具体应用中,可以采用SAD(Sum of absolute differences)算法,根据所述两幅图像的梯度信息,分别计算所述两幅图像中的每个像素点的匹配代价。
在一个实施例中,步骤S102具体包括:
步骤S300、在以所述两幅图像中的每个像素点为中心的预设窗口内,通过基于采样的块匹配算法,得到所述每个像素点在预设视差范围内的每个视差值下的匹配代价。
在具体应用中,步骤S300中的两幅图像,可以是将双摄像头获取的其中一幅图像与该一幅图像的梯度信息相加、将另一幅图像与该另一幅图像的梯度信息相加得到的两幅图像。
在具体应用中,预设视差范围为预先设定有上限视差值和下限视差值的视差值范围。
步骤S103、根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图。
在具体应用中,步骤S103可以基于SGM(semi-global matching半全局匹配)算法实现,预设数量可以为5或者8,分别对两幅图像中的每一幅图像中的每个像素点进行代价聚合,得到每一幅图像的视差图。
在一个实施例中,步骤S103具体包括:
步骤S1031、根据所述每个像素点在所述每个视差值下的匹配代价,分别获取所述每个像素点在所述每个视差值下的预设数量个方向上的代价。
在具体应用中,步骤S1031的实现公式如下:
Lr(P,d)=C(P,d)+min(Lr(P-r,d),Lr(P-r,d-1)+Q1,Lr(P-r,d+1)+Q1,miniLr(P-r,i)+Q2)-minkLr(P-r,d);
其中,Lr(P,d)为像素P沿方向r的匹配代价,C(P,d)为像素点P的匹配代价,Lr(P-r,d)为方向r上像素点P的前一个像素点的匹配代价,P为像素点的像素值,Q1是对像素点P的邻域内与像素点P的视差值相差1的像素点的惩罚系数,Q2是对像素点P的邻域内与像素点P的视差值相差大于1的像素点的惩罚系数。
步骤S1032、分别获取所述每个像素点在所述每个视差值下的预设数量个方向上的累加代价。
在具体应用中,步骤S1032的实现公式如下:
S(P,d)=∑rLr(P,d);
其中,S(P,d)为累加代价。
步骤S1033、分别获取所述每个像素点的累加代价最小时的视差值,得到所述两幅图像的视差图。
在具体应用中,可以在预设视差范围内获取每个像素点的最小累加代价对应的视差值,作为每个像素点的最优视差值,然后根据每幅图像中所有像素的最优视差值得到每幅图像的视差图。
在一个实施例中,步骤S103之后,包括:
步骤S400、对所述两幅图像的视差图进行唯一性检验;
步骤S500、对所述两幅图像的视差图进行左右一致性检验;
步骤S600、对所述两幅图像的视差图进行连通区域检测。
在一个实施例中,步骤S400包括:
步骤S401、分别检测所述每个像素点的次小累加代价是否为最小累加代价的预设倍数;
步骤S402、将次小累加代价不为最小累加代价的预设倍数的像素点在所述视差图中的视差值设置为0。
在具体应用,次小累加代价的大小仅大于最小累加代价,预设倍数可以根据实际需要设置为任意正整数倍。
在一个实施例中,步骤S500包括:
步骤S501、根据所述视差图,检测是否将所述两幅图像中一幅图像的多个像素点匹配到另一幅图像的一个像素点;
步骤S502、若将所述两幅图像中一幅图像的多个像素点匹配到另一幅图像的一个像素点,则检测所述两幅图像的视差值是否一致;
步骤S503、若所述两幅图像的视差值不一致,则更正所述两幅图像的匹配关系,将所述一幅图像的一个像素点匹配到所述另一幅图像的一个像素点。
在具体应用中,对两幅图像进行左右一致性检测是为了筛选出两幅图像中正确的匹配像素点,以实现对视差的优化。
在一个实施例中,步骤S600包括:
步骤S601、对所述视差图中的每个像素点进行连通域检测;
步骤S602、获取所述视差图中的每个像素点的连通域中满足连通条件的像素点个数;
步骤S603、将连通域中满足连通条件的像素点个数小于预设个数的像素点,作为误匹配点。
在具体应用中,连通条件可以根据实际需要设置为基于OpencvSGBM算法的视差连通连接,通过循环遍历视差图中的每一个像素点,检测每一个像素点其周围(上下左右)的像素点的视差值是否该视差连通条件,当视差图中的一个像素点的连通域中满足连通条件的像素点个数小于预设个数时,认为该像素点是噪点,当视差图中的一个像素点的连通域中满足连通条件的像素点个数大于或等于预设个数时,认为该像素点有效,即该像素点的视差值有效。
在一个实施例中,步骤S103之后还包括:
步骤S700、以所述两幅图像为参照,通过加权最小二乘滤波器对所述视差图进行处理,以填补所述视差图中的空洞并去除所述视差图中低纹理区的误匹配点。
步骤S104、将所述两幅图像的视差图转化为深度图。
在具体应用中,将视差图转化为深度图基于相似三角形原理实现。
如图5所示,示例性的示出基于本实施例所提供的深度信息获取方法得到的深度图。
如图6所示,示例性的示出了室外场景下物体的两幅图像和深度图;
如图7所示,示例性的示出了室外场景下人物的两幅图像和深度图;
如图8所示,示例性的示出了室内场景下物体的两幅图像和深度图;
如图9所示,示例性的示出了室内场景下人物的两幅图像和深度图。
步骤S105、将所述深度图映射回所述两幅图像。在一个实施例中,步骤S105具体包括:
步骤S1051、基于所述校准过程(即步骤S202),将所述深度图逆映射回所述两幅图像,得到所述两幅图像的逐点视差图。
在具体应用中,逐点视差图是指与原图像中每个像素点一一对应的视差图。
在具体应用中,基于所述深度图是在校准后的图像上获得的,与校准后的图像一一对应,无法直接用于原图像,采用校准过程的逆映射,将上述所得深度图映射到原图像(即双摄像头同时获取的同一场景下的两幅图像)上,基于映射回原图像的深度图,可以将深度信息应用于原图像,例如,原图像做背景虚化。深度图逆映射回双摄像头获取的两幅图像的原理具体为:由于深度图与每个摄像头获取的图像是一一对应的,即深度图的像素点个数与两幅图像中的每幅图像的像素点个数相同,因此,深度图中的每个像素点都可以在每幅图像中找到对应的同名像素点,深度图逆映射回两幅图像,即是建立深度图中的每个像素点与两幅图像中的同名像素点(即用于显示相同画素的像素点)之间的对应关系的过程。由于深度图中的每个像素点是用于表示深度信息,因此,根据该对应关系可以找到两幅图像中每个像素点在深度图中的对应像素点,进而获知深度信息。
本实施例通过双摄像头获取同一场景下的两幅图像,分别计算两幅图像中的每个像素点的匹配代价,根据每个像素点的匹配代价,分别对每个像素点进行预设数量个方向上的代价聚合,得到两幅图像的视差图,可以有效缩短计算时长、降低功耗;通过在将两幅图像的视差图转化为深度图之后,分别将深度图映射回两幅图像,可以将深度信息直接应用于原图像;通过对视差图进行唯一性检验、左右一致性检验和连通区域检测,可以实现对视差图的优化;通过采用加权最小二乘滤波器处理视差图,可以填补视差图的空洞并矫正视差图中低纹理区的误匹配点;通过将深度图逆映射回原图像,可以将深度信息直接应用于原图像。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
实施例二
如图10所示,本实施例提供一种深度信息获取系统10,应用于包括双摄像头的终端设备,用于执行实施例一中的方法步骤,该系统可以是终端设备处理器或处理器中的软件程序系统。
在具体应用中,所述处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述深度信息获取系统10包括:
获取模块101,用于通过双摄像头获取同一场景下的两幅图像;
计算模块102,用于分别计算所述两幅图像中的每个像素点的匹配代价;
聚合模块103,用于根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图;
转化模块104,用于将所述两幅图像的视差图转化为深度图;
映射模块105,用于将所述深度图映射回所述两幅图像。
在一个实施例中,所述深度信息获取系统10还包括:
第一视差优化模块,用于对所述两幅图像的视差图进行唯一性检验、左右一致性检验和连通区域检测。
在一个实施例中,所述深度信息获取系统10还包括:
第二视差优化模块,用于以所述两幅图像为参照,通过加权最小二乘滤波器对所述视差图进行处理,以填补所述视差图中的空洞并去除所述视差图中低纹理区的误匹配点。
在一个实施例中,所述深度信息获取系统10还包括:
预处理模块,用于分别对所述两幅图像进行图像预处理。
本发明实施例通过双摄像头获取同一场景下的两幅图像,分别计算两幅图像中的每个像素点的匹配代价,根据每个像素点的匹配代价,分别对每个像素点进行预设数量个方向上的代价聚合,得到两幅图像的视差图,可以有效缩短计算时长、降低功耗;通过在将两幅图像的视差图转化为深度图之后,分别将深度图映射回两幅图像,可以将深度信息直接应用于原图像。
实施例三
如图11所示,本实施例提供一种终端设备11,其包括:处理器110、存储器111以及存储在所述存储器111中并可在所述处理器110上运行的计算机程序112,例如深度信息估计程序。所述处理器110执行所述计算机程序112时实现上述各个深度信息获取方法实施例中的步骤,例如图1所示的步骤S101至S105。或者,所述处理器110执行所述计算机程序112时实现上述各装置实施例中各模块的功能,例如图10所示模块101至105的功能。
示例性的,所述计算机程序112可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器111中,并由所述处理器110执行,以完成本发明。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序112在所述终端设备11中的执行过程。例如,所述计算机程序112可以被分割成获取模块、计算模块、聚合模块、转化模块和映射模块,各模块具体功能如下:
获取模块,用于通过双摄像头获取同一场景下的两幅图像;
计算模块,用于分别计算所述两幅图像中的每个像素点的匹配代价;
聚合模块,用于根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图;
转化模块,用于将所述两幅图像的视差图转化为深度图;
映射模块,用于将所述深度图映射回所述两幅图像。
所述终端设备11可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器110、存储器111。本领域技术人员可以理解,图11仅仅是终端设备11的示例,并不构成对终端设备11的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器110可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器111可以是所述终端设备11的内部存储单元,例如终端设备11的硬盘或内存。所述存储器111也可以是所述终端设备11的外部存储设备,例如所述终端设备11上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器111还可以既包括所述终端设备11的内部存储单元也包括外部存储设备。所述存储器111用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器111还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种深度信息获取方法,其特征在于,应用于包括双摄像头的终端设备,所述方法包括:
通过双摄像头获取同一场景下的两幅图像;
分别计算所述两幅图像中的每个像素点的匹配代价;
根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图;
将所述两幅图像的视差图转化为深度图;
将所述深度图映射回所述两幅图像。
2.如权利要求1所述的深度信息获取方法,其特征在于,分别计算所述两幅图像中每个像素点的匹配代价,包括:
在以所述两幅图像中的每个像素点为中心的预设窗口内,通过基于采样的块匹配算法,得到所述每个像素点在预设视差范围内的每个视差值下的匹配代价。
3.如权利要求2所述的深度信息获取方法,其特征在于,根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图,包括:
根据所述每个像素点在所述每个视差值下的匹配代价,分别获取所述每个像素点在所述每个视差值下的预设数量个方向上的代价;
分别获取所述每个像素点在所述每个视差值下的预设数量个方向上的累加代价;
分别获取所述每个像素点的累加代价最小时的视差值,得到所述两幅图像的视差图。
4.如权利要求1所述的深度信息估计方法,其特征在于,根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图之后,包括:
对所述两幅图像的视差图进行唯一性检验;
或者,对所述两幅图像的视差图进行左右一致性检验;
或者,对所述两幅图像的视差图进行连通区域检测。
5.如权利要求1所述的深度信息获取方法,其特征在于,根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图之后,包括:
以所述两幅图像为参照,通过加权最小二乘滤波器对所述视差图进行处理,以填补所述视差图中的空洞并去除所述视差图中低纹理区的误匹配点。
6.如权利要求1~5任一项所述的深度信息获取方法,其特征在于,分别计算所述两幅图像中的每个像素点的匹配代价之前,包括:
分别对所述两幅图像进行图像预处理。
7.如权利要求6所述的深度信息获取方法,其特征在于,分别对所述两幅图像进行图像预处理,包括:
分别将所述两幅图像保存为单通道灰度图;
利用所述双摄像头的内参和外参,分别对保存为单通道灰度图的所述两幅图像进行校准;
分别对校准后的所述两幅图像进行预设方向上的边缘检测;
根据边缘检测后所述两幅图像中的每个像素点的像素值,分别将所述两幅图像映射成新图像,得到所述两幅图像的梯度信息;
分别将所述深度图映射回所述两幅图像,包括:
基于所述校准过程,将所述深度图逆映射回所述两幅图像,得到所述两幅图像的逐点视差图。
8.如权利要求7所述的深度信息获取方法,其特征在于,所述双摄像头为非对称式双摄像头;
分别对校准后的所述两幅图像进行预设方向上的边缘检测,得到所述两幅图像的梯度信息之前,包括:
对校准后的两幅图像中分辨率高的图像进行模糊处理,以减小所述两幅图像之间的差异。
9.一种深度信息获取系统,其特征在于,应用于包括双摄像头的终端设备,所述系统包括:
获取模块,用于通过双摄像头获取同一场景下的两幅图像;
计算模块,用于分别计算所述两幅图像中的每个像素点的匹配代价;
聚合模块,用于根据所述每个像素点的匹配代价,分别对所述每个像素点进行预设数量个方向上的代价聚合,得到所述两幅图像的视差图;
转化模块,用于将所述两幅图像的视差图转化为深度图;
映射模块,用于将所述深度图映射回所述两幅图像。
10.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811641125.7A CN111383254A (zh) | 2018-12-29 | 2018-12-29 | 一种深度信息获取方法、系统及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811641125.7A CN111383254A (zh) | 2018-12-29 | 2018-12-29 | 一种深度信息获取方法、系统及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111383254A true CN111383254A (zh) | 2020-07-07 |
Family
ID=71216650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811641125.7A Pending CN111383254A (zh) | 2018-12-29 | 2018-12-29 | 一种深度信息获取方法、系统及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111383254A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112053434A (zh) * | 2020-09-28 | 2020-12-08 | 广州极飞科技有限公司 | 视差图的生成方法、三维重建方法及相关装置 |
CN113345001A (zh) * | 2021-05-19 | 2021-09-03 | 智车优行科技(北京)有限公司 | 视差图确定方法和装置、计算机可读存储介质、电子设备 |
CN113570530A (zh) * | 2021-06-10 | 2021-10-29 | 北京旷视科技有限公司 | 图像融合方法、装置、计算机可读存储介质和电子设备 |
CN114627175A (zh) * | 2020-12-11 | 2022-06-14 | 武汉Tcl集团工业研究院有限公司 | 一种图像处理方法、智能终端及计算机可读存储介质 |
CN114723967A (zh) * | 2022-03-10 | 2022-07-08 | 北京的卢深视科技有限公司 | 视差图优化方法、人脸识别方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110044531A1 (en) * | 2007-11-09 | 2011-02-24 | Thomson Licensing | System and method for depth map extraction using region-based filtering |
US20150170371A1 (en) * | 2013-12-18 | 2015-06-18 | Nokia Corporation | Method, apparatus and computer program product for depth estimation of stereo images |
CN106254850A (zh) * | 2016-08-23 | 2016-12-21 | 深圳市捷视飞通科技股份有限公司 | 双视点立体视频的图像匹配方法及装置 |
CN108109148A (zh) * | 2017-12-12 | 2018-06-01 | 上海兴芯微电子科技有限公司 | 图像立体分配方法、移动终端 |
-
2018
- 2018-12-29 CN CN201811641125.7A patent/CN111383254A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110044531A1 (en) * | 2007-11-09 | 2011-02-24 | Thomson Licensing | System and method for depth map extraction using region-based filtering |
US20150170371A1 (en) * | 2013-12-18 | 2015-06-18 | Nokia Corporation | Method, apparatus and computer program product for depth estimation of stereo images |
CN106254850A (zh) * | 2016-08-23 | 2016-12-21 | 深圳市捷视飞通科技股份有限公司 | 双视点立体视频的图像匹配方法及装置 |
CN108109148A (zh) * | 2017-12-12 | 2018-06-01 | 上海兴芯微电子科技有限公司 | 图像立体分配方法、移动终端 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112053434A (zh) * | 2020-09-28 | 2020-12-08 | 广州极飞科技有限公司 | 视差图的生成方法、三维重建方法及相关装置 |
CN112053434B (zh) * | 2020-09-28 | 2022-12-27 | 广州极飞科技股份有限公司 | 视差图的生成方法、三维重建方法及相关装置 |
CN114627175A (zh) * | 2020-12-11 | 2022-06-14 | 武汉Tcl集团工业研究院有限公司 | 一种图像处理方法、智能终端及计算机可读存储介质 |
CN113345001A (zh) * | 2021-05-19 | 2021-09-03 | 智车优行科技(北京)有限公司 | 视差图确定方法和装置、计算机可读存储介质、电子设备 |
CN113570530A (zh) * | 2021-06-10 | 2021-10-29 | 北京旷视科技有限公司 | 图像融合方法、装置、计算机可读存储介质和电子设备 |
CN113570530B (zh) * | 2021-06-10 | 2024-04-16 | 北京旷视科技有限公司 | 图像融合方法、装置、计算机可读存储介质和电子设备 |
CN114723967A (zh) * | 2022-03-10 | 2022-07-08 | 北京的卢深视科技有限公司 | 视差图优化方法、人脸识别方法、装置、设备及存储介质 |
CN114723967B (zh) * | 2022-03-10 | 2023-01-31 | 合肥的卢深视科技有限公司 | 视差图优化方法、人脸识别方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110473242B (zh) | 一种纹理特征提取方法、纹理特征提取装置及终端设备 | |
CN111383254A (zh) | 一种深度信息获取方法、系统及终端设备 | |
CN108833785B (zh) | 多视角图像的融合方法、装置、计算机设备和存储介质 | |
US10013764B2 (en) | Local adaptive histogram equalization | |
CN111368717B (zh) | 视线确定方法、装置、电子设备和计算机可读存储介质 | |
US11282232B2 (en) | Camera calibration using depth data | |
CN111862224A (zh) | 确定相机与激光雷达之间外参的方法和装置 | |
US20160142700A1 (en) | Measuring Accuracy of Image Based Depth Sensing Systems | |
CN109698944B (zh) | 投影区域校正方法、投影设备及计算机可读存储介质 | |
CN109640066B (zh) | 高精度稠密深度图像的生成方法和装置 | |
US11205281B2 (en) | Method and device for image rectification | |
CN111311482A (zh) | 背景虚化方法、装置、终端设备及存储介质 | |
CN110345875B (zh) | 标定及测距方法、装置、电子设备及计算机可读存储介质 | |
CN113744256A (zh) | 一种深度图空洞填充方法、装置、服务器及可读存储介质 | |
CN111598777A (zh) | 天空云图的处理方法、计算机设备和可读存储介质 | |
CN114627244A (zh) | 三维重建方法及装置、电子设备、计算机可读介质 | |
CN113379815A (zh) | 基于rgb相机与激光传感器的三维重建方法、装置及服务器 | |
CN110120012B (zh) | 基于双目摄像头的同步关键帧提取的视频拼接方法 | |
CN117152330B (zh) | 一种基于深度学习的点云3d模型贴图方法和装置 | |
CN112785651B (zh) | 用于确定相对位姿参数的方法和装置 | |
CN112102378A (zh) | 图像配准方法、装置、终端设备及计算机可读存储介质 | |
CN111630569B (zh) | 双目匹配的方法、视觉成像装置及具有存储功能的装置 | |
CN116380918A (zh) | 缺陷检测方法、装置及设备 | |
CN110853087B (zh) | 一种视差估计方法、装置、存储介质及终端 | |
CN113870361A (zh) | 深度相机的标定方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200707 |