CN110770794A - 图像深度估计方法、装置、可读存储介质及电子设备 - Google Patents
图像深度估计方法、装置、可读存储介质及电子设备 Download PDFInfo
- Publication number
- CN110770794A CN110770794A CN201880039812.3A CN201880039812A CN110770794A CN 110770794 A CN110770794 A CN 110770794A CN 201880039812 A CN201880039812 A CN 201880039812A CN 110770794 A CN110770794 A CN 110770794A
- Authority
- CN
- China
- Prior art keywords
- point
- depth
- plane
- weak texture
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000004364 calculation method Methods 0.000 claims abstract description 22
- 230000008859 change Effects 0.000 claims abstract description 15
- 238000013507 mapping Methods 0.000 claims description 41
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 206010034719 Personality change Diseases 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 8
- 238000003708 edge detection Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 239000011521 glass Substances 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims 5
- 230000008569 process Effects 0.000 abstract description 8
- 238000012545 processing Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
本发明提供一种图像深度估计方法及装置、计算机可读存储介质、电子设备。该图像深度估计方法包括:在检测到目标图像中存在弱纹理区域后,根据所述弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值计算所述弱纹理区域内的特征点的深度值(S101);基于所述弱纹理区域内的各特征点拟合出深度平面(S102);基于所述深度平面计算出所述弱纹理区域内各像素点的深度值(S103)。由于在深度计算过程中,将弱纹理区域拟合成深度平面,再基于该深度平面计算弱纹理区域内各像素点的深度值,相比于立体匹配算法,这样计算出的深度信息会更加准确平滑,因此,可以得到质量较高的深度图。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像深度估计方法及装置、计算机可读存储介质、电子设备。
背景技术
图像处理中,可根据多个图像中的特征点之间的匹配计算图像的深度,从而确定图像中目标物体的距离、相对位置等信息。然后,在某些场景,如弱纹理场景中,由于特征点太少,匹配精准度较差,从而影响深度计算的准确性。进一步导致使用该深度计算结果的控制设备等出现误操作等状况。
发明内容
本发明提供一种图像深度估计方法及装置、计算机可读存储介质、电子设备,能够在弱纹理的场景下,也能计算出较为准确的深度信息,得到质量较高的深度图。
根据本发明的第一方面,提供一种图像深度估计方法,所述方法包括:
在检测到目标图像中存在弱纹理区域后,根据所述弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值计算所述弱纹理区域内的特征点的深度值;
基于所述弱纹理区域内的各特征点拟合出深度平面;
基于所述深度平面计算出所述弱纹理区域内各像素点的深度值。
根据本发明的第二方面,提供一种图像深度估计装置,所述装置包括:
第一深度计算电路,用于在检测到目标图像中存在弱纹理区域后,根据所述弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值计算所述弱纹理区域内的特征点的深度值;
平面拟合电路,用于基于所述弱纹理区域内的各特征点拟合出深度平面;
第二深度计算电路,用于基于所述深度平面计算出所述弱纹理区域内各像素点的深度值。
根据本发明的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时进行如下处理:
在检测到目标图像中存在弱纹理区域后,根据所述弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值计算所述弱纹理区域内的特征点的深度值;
基于所述弱纹理区域内的各特征点拟合出深度平面;
基于所述深度平面计算出所述弱纹理区域内各像素点的深度值。
根据本发明的第四方面,提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时进行如下处理:
在检测到目标图像中存在弱纹理区域后,根据所述弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值计算所述弱纹理区域内的特征点的深度值;
基于所述弱纹理区域内的各特征点拟合出深度平面;
基于所述深度平面计算出所述弱纹理区域内各像素点的深度值。
由以上本发明实施例提供的技术方案可见,本发明通过在检测到目标图像中存在弱纹理区域后,根据弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄目标图像和参考图像时的姿态变化值计算弱纹理区域内的特征点的深度值,然后基于弱纹理区域内的各特征点拟合出深度平面,再基于该深度平面计算出弱纹理区域内各像素点的深度值,由于在深度计算过程中,将弱纹理区域拟合成深度平面,再基于该深度平面计算弱纹理区域内各像素点的深度值,相比于立体匹配算法,这样计算出的深度信息会更加准确平滑,因此,可以得到质量较高的深度图。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种图像深度估计方法的流程示意图;
图2为本发明实施例提供的一种图像深度估计装置的结构示意图;
图3为本发明实施例提供的另一种图像深度估计装置的结构示意图;
图4为本发明实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图,对本发明实施例提供的视频编码方法和装置进行详细说明。在不冲突的情况下,下述的实施例及实施方式中的特征可以相互组合。
如图1所示,本发明实施例提供了一种图像深度估计方法,该方法可以应用于具有图像处理功能的电子设备,例如无人驾驶的汽车、自动飞行的无人机、VR(虚拟现实,Virtual Reality)/AR(增强现实,Augmented Reality)眼镜、双摄像头的手机等设备,该方法可以包括如下步骤:
S101、在检测到目标图像中存在弱纹理区域后,根据弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄目标图像和参考图像时的姿态变化值计算弱纹理区域内的特征点的深度值;
其中,目标图像和参考图像可以是同一拍摄装置在不同时刻拍摄的两张图片,也可以是两个具有不同视角的拍摄装置在同一时刻拍摄的两张图片。
例如:在双目视觉系统中,可以采用下述的公式(1)计算弱纹理区域内的特征点的深度值。
其中,Z为弱纹理区域内的特征点的深度值(depth),f为双目视觉系统中两个拍摄装置的焦距(focal length),T为两个拍摄装置之间的间距,或者称为基线长度(baseline),d为弱纹理区域内的特征点在目标图像和参考图像中的视差值。该视差值可根据弱纹理区域内的特征点在目标图像和参考图像中的坐标计算得到。
在该双目视觉系统中,目标图像和参考图像分别通过两个视觉传感器获得,拍摄装置在拍摄目标图像和参考图像时的姿态变化值即为两个视觉传感器之间的角度及距离偏差。
若目标图像和参考图像通过同一拍摄装置分别在不同时刻获得,则拍摄装置在拍摄目标图像和参考图像时的姿态变化值即为在拍摄目标图像的时刻和在拍摄参考图像的时刻的角度及距离偏差。
S102、基于弱纹理区域内的各特征点拟合出深度平面;
S103、基于深度平面计算出弱纹理区域内各像素点的深度值。
在一可能的实现方式中,在确定检测到目标图像中存在弱纹理区域之前,该图像深度估计方法还可以包括:
确定目标图像的连通域;
提取连通域中的特征点,并将连通域中的特征点的数量M与预设阈值Nth进行比较,若M小于Nth,将该连通域视为无纹理区域,否则,将该连通域视为弱纹理区域。
具体地,上述特征点的提取,可以采用角点检测算法(Corner DetectionAlgorithm)进行提取,其中,角点检测算法包括:FAST(features from acceleratedsegment test)、SUSAN、Harris operator等。
下面以Harris operator为例,对特征点的提取进行说明。
首先,可以按照下述的公式(2)定义矩阵A,A为构造张量(structure tensor)。
其次,可以按照下述的公式(3)定义角点响应函数Mc。
Mc=λ1λ2-k(λ1+λ2)2=det(A)-k*trace2(A) (3)
其中,λ1、λ2为矩阵A的特征值,det(A)为矩阵A的行列式,trace(A)为矩阵A的迹,k为调节灵敏度的参数(tunable sensitivity parameter)。
然后,将Mc与设定阈值Mth进行比较,当Mc>Mth时,认为此点为特征点(feature)。
在一可能的实现方式中,上述确定目标图像的连通域,可以包括:
采用边缘检测算法检测目标图像的边缘;
基于检测出的目标图像的边缘确定目标图像的连通域。
其中,边缘检测算法例如可以为Sobel operator、Canny operator等。
具体地,上述基于检测出的目标图像的边缘确定目标图像的连通域,可以包括:
基于检测出的目标图像的边缘,利用Flood fill算法对目标图像进行填充,将填充成块的区域视为目标图像的连通域。
需要指出的是,本发明实施例也可以采用其他的方法检测目标图像中的弱纹理区域,本发明实施例对此并不进行限定。
在一可能的实现方式中,步骤S102中基于弱纹理区域内的各特征点拟合出深度平面,可以包括:
采用RANSAC算法筛除弱纹理区域内的特征点中的异常点,获取弱纹理区域内的特征点中的可靠点;
基于弱纹理区域内的可靠点拟合出深度平面。
当然,也可以不进行筛除弱纹理区域内的特征点中的异常点的步骤,本发明实施例对此并不进行限定。
在一可能的实现方式中,步骤S102中基于弱纹理区域内的各特征点拟合出深度平面,可以包括:
根据弱纹理区域内的各特征点拟合出平面;
计算弱纹理区域内的各特征点与拟合的平面上的预设点之间的颜色和/或距离差异;
若各特征点与预设点之间的颜色和/或距离差异满足预设条件,则确定拟合的平面为深度平面。
具体地,拟合的平面上的预设点例如可以为拟合的平面上的中心点。
在一可能的实现方式中,上述根据弱纹理区域内的各特征点拟合出平面,可以包括:
根据弱纹理区域内的各特征点的像素坐标以及深度值计算出该弱纹理区域内的各特征点的3D信息,基于该弱纹理区域内的各特征点的3D信息拟合出平面。
例如:可以采用下述公式(4)计算弱纹理区域内的各特征点的3D信息。
其中,[x,y,z]T为弱纹理区域内的特征点的3D信息,Z为弱纹理区域内的特征点的深度值(depth),[u,v,1]T为弱纹理区域内的特征点的像素坐标,K为拍摄装置的内参,一般在出厂时就标定好了,可以由下述的公式(5)给出。
其中,αx=fmx,αy=fmy,f为焦距,mx和my分别为x、y方向上单位距离的像素数(scale factors),γ为x、y轴之间的畸变参数(skew parameters),u0、v0为光心位置(principal point)。
在一可能的实现方式中,上述若各特征点与预设点之间的颜色和/或距离差异满足预设条件,则确定拟合的平面为深度平面,可以包括:
计算各特征点与预设点之间的颜色和/或距离的加权和;
若该加权和小于或等于预设值,则确认拟合的平面为深度平面。
具体地,上述任一特征点加权的权重可以根据该特征点与预设点之间的颜色差异来确定,也可以根据该特征点与预设点之间的距离来确定。
在一可能的实现方式中,为了使计算出的深度信息更加准确平滑,上述若各特征点与预设点之间的颜色和/或距离差异满足预设条件,则确定拟合的平面为深度平面,还可以包括:
若该加权和大于预设值,则进一步划分弱纹理区域,并根据划分后的子区域拟合子区域的深度平面。
可以理解,若子区域拟合出的深度平面仍不满足要求,则将所述子区域进一步划分。
在一可能的实现方式中,步骤S103中基于深度平面计算出弱纹理区域内各像素点的深度值,可以包括:
将深度平面上的各个点的深度值作为生成深度平面的区域的对应点的深度值。该生成深度平面的区域可以为整个弱纹理区域,也可以为多个子区域,具体根据以上所述的拟合深度平面时的情况而定。
在一可能的实现方式中,步骤S103中基于深度平面计算出弱纹理区域内各像素点的深度值,进一步可以包括:
通过全局或半全局优化算法对计算的各像素点的深度值进行优化。
在一可能的实现方式中,上述图像深度估计方法还可以包括:
对目标图像和参考图像的像素进行匹配,以对上述深度计算进行验证。
在一可能的实现方式中,上述对目标图像和参考图像的像素进行匹配,可以包括:
根据拍摄装置在拍摄目标图像和参考图像时的姿态变化值,将目标图像中的像素点映射到参考图像;
根据参考图像上的映射点计算对应的像素信息;
将参考图像上的映射点对应的像素信息和目标图像上像素点的像素信息进行比对。
在一可能的实现方式中,上述根据拍摄装置在拍摄目标图像和参考图像时的姿态变化值,将目标图像中的像素点映射到参考图像,可以包括:
选取目标图像上的特定或任意点作为目标点,如随机选取点作为目标点,或在目标图像上选取如拐点等特征点;
获取目标点的像素坐标和深度值;
根据目标点的像素坐标、深度值以及拍摄装置的参数确定目标点的3D坐标;
根据拍摄装置在拍摄目标图像和参考图像时的姿态变化值计算目标点映射到参考图像上的3D坐标;
根据目标点映射到参考图像上的3D坐标以及拍摄装置的参数获取在参考图像上的映射点的像素坐标。
例如:目标点的像素坐标为q,目标点的深度值为Z,拍摄装置的参数为上述公式(4)中的K,根据q、Z和K可以确定目标点的3D坐标为Z·K-1q。
假如拍摄装置在拍摄目标图像和参考图像时的姿态变化值可以用旋转矩阵R和平移向量T表示,即角度及距离偏移量,则可以计算出目标点映射到参考图像上的3D坐标为R(Z·K-1q)+T。
再根据目标点映射到参考图像上的3D坐标R(Z·K-1q)+T以及拍摄装置的参数K,可以得到参考图像上的映射点的像素坐标q'为K(R(Z·K-1q)+T)。
在一可能的实现方式中,上述根据参考图像上的映射点计算对应的像素信息,可以包括:
根据参考图像上的映射点的像素坐标,通过插值法(例如双线性插值法)计算出该映射点在参考图像上所在的像素的像素信息。
由于目标图像中所选取的点映射到参考图像上的时候可能为小数值,而像素一般均取整数值,故可通过插值法计算出该映射点在参考图像中所对应的像素的整数值以及其他如颜色等相关信息,即所在的像素的像素信息。
其中,像素信息例如可以为颜色亮度信息。
该方法中,由于参考图像上的映射点的像素坐标可能是小数,而参考图像上的像素点的坐标并无小数,这时参考图像上的映射点对应的像素信息可以用与该映射点相邻的像素点的像素信息通过插值法来获取。
在一可能的实现方式中,上述将参考图像上的映射点对应的像素信息和目标图像上像素点的像素信息进行比对,可以包括:
根据参考图像上的映射点计算对应的像素的颜色亮度信息,与目标点在目标图像上的颜色亮度信息进行比对。
在一可能的实现方式中,上述将参考图像上的映射点对应的像素信息和目标图像上像素点的像素信息进行比对,进一步可以包括:
若映射点与目标点的颜色亮度信息差异小于或等于预设值,则认为计算的各像素点的深度值符合要求。
例如,参考图像上的映射点的颜色亮度信息为Iq,目标图像上的目标点的颜色亮度信息为Iq′,可以按照下述公式(6)来确定计算的各像素点的深度值是否符合要求。
‖Iq-I′q‖2≤Ith (6)
其中,Ith为预设值,可以根据实际需要进行设定,||·||2表示二阶范式。也可以直接使用二者之间的差值的绝对值确定各像素点的深度值是否符合要求。
基于同一发明构思,参见图2,本发明实施例提供的一种图像深度估计装置,包括:第一深度计算电路11、平面拟合电路12和第二深度计算电路13。所述图像深度计算装置可以为包括各功能电路的芯片。第一深度计算电路11、平面拟合电路12和第二深度计算电路13可以为单独的三块电路,也可为相互之间有公用关系的电路。
其中,第一深度计算电路11,用于在检测到目标图像中存在弱纹理区域后,根据弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄目标图像和参考图像时的姿态变化值计算弱纹理区域内的特征点的深度值;
平面拟合电路12,用于基于弱纹理区域内的各特征点拟合出深度平面;
第二深度计算电路13,用于基于深度平面计算出弱纹理区域内各像素点的深度值。
在一可能的实现方式中,第一深度计算电路11可以用于:
确定目标图像的连通域;
提取连通域中的特征点,并将连通域中的特征点的数量M与预设阈值Nth进行比较,若M小于Nth,将该连通域视为无纹理区域,否则,将该连通域视为弱纹理区域。
在一可能的实现方式中,第一深度计算电路11可以用于:
采用边缘检测算法检测目标图像的边缘;
基于检测出的目标图像的边缘确定目标图像的连通域。
在一可能的实现方式中,平面拟合电路12可以用于:
采用RANSAC算法筛除弱纹理区域内的特征点中的异常点,获取弱纹理区域内的特征点中的可靠点;
基于弱纹理区域内的可靠点拟合出深度平面。
在一可能的实现方式中,平面拟合电路12可以用于:
根据弱纹理区域内的各特征点拟合出平面;
计算弱纹理区域内的各特征点与拟合的平面上的预设点之间的颜色和/或距离差异;
若各特征点与预设点之间的颜色和/或距离差异满足预设条件,则确定拟合的平面为深度平面。
具体地,拟合的平面上的预设点例如可以为拟合的平面上的中心点。
在一可能的实现方式中,平面拟合电路12可以用于:
根据弱纹理区域内的各特征点的像素坐标以及深度值计算出该弱纹理区域内的各特征点的3D信息,基于该弱纹理区域内的各特征点的3D信息拟合出平面。
在一可能的实现方式中,平面拟合电路12可以用于:
计算各特征点与预设点之间的颜色和/或距离的加权和;
若该加权和小于或等于预设值,则确认拟合的平面为深度平面。
在一可能的实现方式中,平面拟合电路12可以用于:
若该加权和大于预设值,则进一步划分弱纹理区域,并根据划分后的子区域拟合子区域的深度平面。
在一可能的实现方式中,第二深度计算电路13可以用于:
将深度平面上的各个点的深度值作为生成深度平面的区域的对应点的深度值。
在一可能的实现方式中,第二深度计算电路13可以用于:
通过全局或半全局优化算法对计算的各像素点的深度值进行优化。
在一可能的实现方式中,参见图3,上述的图像深度估计装置还可以包括:
验证电路14,用于对目标图像和参考图像的像素进行匹配,以对上述深度计算进行验证。验证电路14和第一深度计算电路11、平面拟合电路12及第二深度计算电路13可以为单独的几块电路,也可为相互之间存在公用关系的电路。
在一可能的实现方式中,验证电路14可以用于:
根据拍摄装置在拍摄目标图像和参考图像时的姿态变化值,将目标图像中的像素点映射到参考图像;
根据参考图像上的映射点计算对应的像素信息;
将参考图像上的映射点对应的像素信息和目标图像上像素点的像素信息进行比对。
在一可能的实现方式中,验证电路14可以用于:
选取目标图像上的特定或任意点作为目标点;
获取目标点的像素坐标和深度值;
根据目标点的像素坐标、深度值以及拍摄装置的参数确定目标点的3D坐标;
根据拍摄装置在拍摄目标图像和参考图像时的姿态变化值计算目标点映射到参考图像上的3D坐标;
根据目标点映射到参考图像上的3D坐标以及拍摄装置的参数获取在参考图像上的映射点的像素坐标。
在一可能的实现方式中,验证电路14可以用于:
根据参考图像上的映射点的像素坐标,通过插值法计算出该映射点在参考图像上所在的像素的像素信息。
在一可能的实现方式中,验证电路14可以用于:
根据参考图像上的映射点计算对应的像素的颜色亮度信息,与目标点在目标图像上的颜色亮度信息进行比对。
在一可能的实现方式中,验证电路14可以用于:
若映射点与目标点的颜色亮度信息差异小于或等于预设值,则认为计算的各像素点的深度值符合要求。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部电路来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
基于同一发明构思,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现现上述任意可能的实现方式中的图像深度估计方法的步骤。
可选地,该存储介质具体可以为存储器。
基于同一发明构思,参见图4,本发明实施例还提供了一种电子设备,包括存储器71(例如非易失性存储器)、处理器72及存储在存储器71上并可在处理器72上运行的计算机程序,处理器72执行所述程序时实现上述任意可能的实现方式中的图像深度估计方法的步骤,可相当于如前所述的图像深度估计装置,当然,该处理器还可以用来处理其他数据或运算。
该电子设备可以是拍摄装置,如相机、带相机的云台或无人机。所述无人机可包括双目视觉传感器。此外,该电子设备还可以是例如无人驾驶的汽车、VR/AR眼镜、双摄像头的移动终端,如双摄像头的手机等设备。
如图4所示,该电子设备一般还可以包括:内存73、网络接口74、以及内部总线75。除了这些部件外,还可以包括其他硬件,对此不再赘述。
需要指出的是,上述图像深度估计装置可以通过软件实现,其作为一个逻辑意义上的装置,是通过其所在的电子设备的处理器72将非易失性存储器中存储的计算机程序指令读取到内存73中运行形成的。
本说明书中描述的主题及功能操作的实施例可以在以下中实现:有形体现的计算机软件或固件、包括本说明书中公开的结构及其结构性等同物的计算机硬件、或者它们中的一个或多个的组合。本说明书中描述的主题的实施例可以实现为一个或多个计算机程序,即编码在有形非暂时性程序载体上以被数据处理装置执行或控制数据处理装置的操作的计算机程序指令中的一个或多个模块。可替代地或附加地,程序指令可以被编码在人工生成的传播信号上,例如机器生成的电、光或电磁信号,该信号被生成以将信息编码并传输到合适的接收机装置以由数据处理装置执行。计算机存储介质可以是机器可读存储设备、机器可读存储基板、随机或串行存取存储器设备、或它们中的一个或多个的组合。
本说明书中描述的处理及逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程计算机执行,以通过根据输入数据进行操作并生成输出来执行相应的功能。所述处理及逻辑流程还可以由专用逻辑电路—例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)来执行,并且装置也可以实现为专用逻辑电路。
适合用于执行计算机程序的计算机包括,例如通用和/或专用微处理器,或任何其他类型的中央处理单元。通常,中央处理单元将从只读存储器和/或随机存取存储器接收指令和数据。计算机的基本组件包括用于实施或执行指令的中央处理单元以及用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备,例如磁盘、磁光盘或光盘等,或者计算机将可操作地与此大容量存储设备耦接以从其接收数据或向其传送数据,抑或两种情况兼而有之。然而,计算机不是必须具有这样的设备。此外,计算机可以嵌入在另一设备中,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏操纵台、全球定位系统(GPS)接收机、或例如通用串行总线(USB)闪存驱动器的便携式存储设备,仅举几例。
适合于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、媒介和存储器设备,例如包括半导体存储器设备(例如EPROM、EEPROM和闪存设备)、磁盘(例如内部硬盘或可移动盘)、磁光盘以及CD ROM和DVD-ROM盘。处理器和存储器可由专用逻辑电路补充或并入专用逻辑电路中。
虽然本说明书包含许多具体实施细节,但是这些不应被解释为限制任何发明的范围或所要求保护的范围,而是主要用于描述特定发明的具体实施例的特征。本说明书内在多个实施例中描述的某些特征也可以在单个实施例中被组合实施。另一方面,在单个实施例中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合来实施。此外,虽然特征可以如上所述在某些组合中起作用并且甚至最初如此要求保护,但是来自所要求保护的组合中的一个或多个特征在一些情况下可以从该组合中去除,并且所要求保护的组合可以指向子组合或子组合的变型。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应被理解为要求这些操作以所示的特定顺序执行或顺次执行、或者要求所有例示的操作被执行,以实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块和组件的分离不应被理解为在所有实施例中均需要这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中,或者封装成多个软件产品。
由此,主题的特定实施例已被描述。其他实施例在所附权利要求书的范围以内。在某些情况下,权利要求书中记载的动作可以以不同的顺序执行并且仍实现期望的结果。此外,附图中描绘的处理并非必需所示的特定顺序或顺次顺序,以实现期望的结果。在某些实现中,多任务和并行处理可能是有利的。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (40)
1.一种图像深度估计方法,其特征在于,所述方法包括:
在检测到目标图像中存在弱纹理区域后,根据所述弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值计算所述弱纹理区域内的特征点的深度值;
基于所述弱纹理区域内的各特征点拟合出深度平面;
基于所述深度平面计算出所述弱纹理区域内各像素点的深度值。
2.根据权利要求1所述的方法,其特征在于,所述基于所述弱纹理区域内的各特征点拟合出深度平面,包括:
根据所述弱纹理区域内的各特征点拟合出平面;
计算所述弱纹理区域内的各特征点与所述拟合的平面上的预设点之间的颜色和/或距离差异;
若所述各特征点与预设点之间的颜色和/或距离差异满足预设条件,则确定所述平面为深度平面。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述弱纹理区域内的各特征点拟合出平面,包括:
根据所述弱纹理区域内的各特征点的像素坐标以及深度值计算出所述弱纹理区域内的各特征点的3D信息,基于所述3D信息拟合出平面。
4.根据权利要求2所述的方法,其特征在于,所述若所述各特征点与预设点之间的颜色和/或距离差异满足预设条件,则确定所述平面为深度平面,包括:
计算所述各特征点与预设点之间的颜色和/或距离的加权和;
若所述加权和小于或等于预设值,则确认所述平面为深度平面。
5.根据权利要求4所述的方法,其特征在于,所述若所述各特征点与预设点之间的颜色和/或距离差异满足预设条件,则确定所述平面为深度平面,还包括:
若所述加权和大于预设值,则进一步划分所述弱纹理区域,并根据划分后的子区域拟合所述子区域的深度平面。
6.根据权利要求2所述的方法,其特征在于,所述拟合的平面上的预设点,具体为:
所述拟合的平面上的中心点。
7.根据权利要求1所述的方法,其特征在于,所述基于所述弱纹理区域内的各特征点拟合出深度平面,包括:
采用RANSAC算法筛除所述弱纹理区域内的特征点中的异常点,获取所述弱纹理区域内的特征点中的可靠点;
基于所述弱纹理区域内的可靠点拟合出深度平面。
8.根据权利要求1或2所述的方法,其特征在于,所述基于所述深度平面计算出所述弱纹理区域内各像素点的深度值,包括:
将所述深度平面上的各个点的深度值作为所述生成深度平面的区域的对应点的深度值。
9.根据权利要求8所述的方法,其特征在于,所述基于所述深度平面计算出所述弱纹理区域内各像素点的深度值,进一步包括:
通过全局或半全局优化算法对所述深度值进行优化。
10.根据权利要求1或2所述的方法,其特征在于,所述图像深度估计方法还包括:
对目标图像和参考图像的像素进行匹配,以对所述深度计算进行验证。
11.根据权利要求10所述的方法,其特征在于,所述对目标图像和参考图像的像素进行匹配,包括:
根据拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值,将所述目标图像中的像素点映射到所述参考图像;
根据所述参考图像上的映射点计算对应的像素信息;
将所述映射点对应的像素信息和所述目标图像上像素点的像素信息进行比对。
12.根据权利要求11所述的方法,其特征在于,所述根据拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值,将所述目标图像中的像素点映射到所述参考图像,包括:
选取目标图像上的特定或任意点作为目标点;
获取所述目标点的像素坐标和深度值;
根据所述像素坐标、深度值以及拍摄装置的参数确定所述目标点的3D坐标;
根据拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值计算所述目标点映射到参考图像上的3D坐标;
根据所述3D坐标以及拍摄装置的参数获取在参考图像上的映射点的像素坐标。
13.根据权利要求12所述的方法,其特征在于,所述根据所述参考图像上的映射点计算对应的像素信息,包括:
根据所述映射点的像素坐标,通过插值法计算出所述映射点在参考图像上所在的像素的像素信息。
14.根据权利要求13所述的方法,其特征在于,所述将所述映射点对应的像素信息和所述目标图像上像素点的像素信息进行比对,包括:
根据所述参考图像上的映射点计算对应的像素的颜色亮度信息,与目标点在目标图像上的颜色亮度信息进行比对。
15.根据权利要求14所述的方法,其特征在于,若所述颜色亮度信息差异小于或等于预设值,则认为所述计算的各像素点的深度值符合要求。
16.根据权利要求1所述的方法,其特征在于,在确定检测到目标图像中存在弱纹理区域之前,该方法还包括:
确定目标图像的连通域;
提取所述连通域中的特征点,并将所述连通域中的特征点的数量M与预设阈值Nth进行比较,若所述M小于所述Nth,将该连通域视为无纹理区域,否则,将该连通域视为弱纹理区域。
17.根据权利要求16所述的方法,其特征在于,所述确定目标图像的连通域,包括:
采用边缘检测算法检测目标图像的边缘;
基于检测出的所述目标图像的边缘确定目标图像的连通域。
18.一种图像深度估计装置,其特征在于,所述装置包括:
第一深度计算电路,用于在检测到目标图像中存在弱纹理区域后,根据所述弱纹理区域内的特征点在目标图像和参考图像中的坐标以及拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值计算所述弱纹理区域内的特征点的深度值;
平面拟合电路,用于基于所述弱纹理区域内的各特征点拟合出深度平面;
第二深度计算电路,用于基于所述深度平面计算出所述弱纹理区域内各像素点的深度值。
19.根据权利要求18所述的装置,其特征在于,所述平面拟合电路用于:
根据所述弱纹理区域内的各特征点拟合出平面;
计算所述弱纹理区域内的各特征点与所述拟合的平面上的预设点之间的颜色和/或距离差异;
若所述各特征点与预设点之间的颜色和/或距离差异满足预设条件,则确定所述平面为深度平面。
20.根据权利要求18或19所述的装置,其特征在于,所述平面拟合电路用于:
根据所述弱纹理区域内的各特征点的像素坐标以及深度值计算出所述弱纹理区域内的各特征点的3D信息,基于所述3D信息拟合出平面。
21.根据权利要求19所述的装置,其特征在于,所述平面拟合电路用于:
计算所述各特征点与预设点之间的颜色和/或距离的加权和;
若所述加权和小于或等于预设值,则确认所述平面为深度平面。
22.根据权利要求21所述的装置,其特征在于,所述平面拟合电路用于:
若所述加权和大于预设值,则进一步划分所述弱纹理区域,并根据划分后的子区域拟合所述子区域的深度平面。
23.根据权利要求19所述的装置,其特征在于,所述拟合的平面上的预设点,具体为:
所述拟合的平面上的中心点。
24.根据权利要求18所述的装置,其特征在于,所述平面拟合电路用于:
采用RANSAC算法筛除所述弱纹理区域内的特征点中的异常点,获取所述弱纹理区域内的特征点中的可靠点;
基于所述弱纹理区域内的可靠点拟合出深度平面。
25.根据权利要求18或19所述的装置,其特征在于,所述第二深度计算电路用于:
将所述深度平面上的各个点的深度值作为所述生成深度平面的区域的对应点的深度值。
26.根据权利要求25所述的装置,其特征在于,所述第二深度计算电路用于:
通过全局或半全局优化算法对所述深度值进行优化。
27.根据权利要求18或19所述的装置,其特征在于,所述装置还包括:
验证电路,用于对目标图像和参考图像的像素进行匹配,以对所述深度计算进行验证。
28.根据权利要求27所述的装置,其特征在于,所述验证电路用于:
根据拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值,将所述目标图像中的像素点映射到所述参考图像;
根据所述参考图像上的映射点计算对应的像素信息;
将所述映射点对应的像素信息和所述目标图像上像素点的像素信息进行比对。
29.根据权利要求28所述的装置,其特征在于,所述验证电路用于:
选取目标图像上的特定或任意点作为目标点;
获取所述目标点的像素坐标和深度值;
根据所述像素坐标、深度值以及拍摄装置的参数确定所述目标点的3D坐标;
根据拍摄装置在拍摄所述目标图像和参考图像时的姿态变化值计算所述目标点映射到参考图像上的3D坐标;
根据所述3D坐标以及拍摄装置的参数获取在参考图像上的映射点的像素坐标。
30.根据权利要求29所述的装置,其特征在于,所述验证电路用于:
根据所述映射点的像素坐标,通过插值法计算出所述映射点在参考图像上所在的像素的像素信息。
31.根据权利要求30所述的装置,其特征在于,所述验证电路用于:
根据所述参考图像上的映射点计算对应的像素的颜色亮度信息,与目标点在目标图像上的颜色亮度信息进行比对。
32.根据权利要求31所述的装置,其特征在于,所述验证电路用于:
若所述颜色亮度信息差异小于或等于预设值,则认为所述计算的各像素点的深度值符合要求。
33.根据权利要求18所述的装置,其特征在于,所述第一深度计算电路用于:
确定目标图像的连通域;
提取所述连通域中的特征点,并将所述连通域中的特征点的数量M与预设阈值Nth进行比较,若所述M小于所述Nth,将该连通域视为无纹理区域,否则,将该连通域视为弱纹理区域。
34.根据权利要求33所述的装置,其特征在于,所述第一深度计算电路用于:
采用边缘检测算法检测目标图像的边缘;
基于检测出的所述目标图像的边缘确定目标图像的连通域。
35.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-17任一项所述方法的步骤。
36.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-17任一项所述方法的步骤。
37.根据权利要求36所述的电子设备,其特征在于,所述电子设备为拍摄装置。
38.根据权利要求36所述的电子设备,其特征在于,所述电子设备为无人飞行器。
39.根据权利要求38所述的电子设备,其特征在于,所述无人飞行器包括双目视觉传感器,所述双目视觉传感器用于获取图像信息。
40.根据权利要求36所述的电子设备,其特征在于,所述电子设备为无人车、VR/AR眼镜或双摄像头的移动终端。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/101821 WO2020037575A1 (zh) | 2018-08-22 | 2018-08-22 | 图像深度估计方法、装置、可读存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110770794A true CN110770794A (zh) | 2020-02-07 |
Family
ID=69328582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880039812.3A Pending CN110770794A (zh) | 2018-08-22 | 2018-08-22 | 图像深度估计方法、装置、可读存储介质及电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210192761A1 (zh) |
CN (1) | CN110770794A (zh) |
WO (1) | WO2020037575A1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111563924A (zh) * | 2020-04-28 | 2020-08-21 | 上海肇观电子科技有限公司 | 图像深度确定方法及活体识别方法、电路、设备和介质 |
CN112188059A (zh) * | 2020-09-30 | 2021-01-05 | 深圳市商汤科技有限公司 | 可穿戴设备、智能引导方法及装置、引导系统 |
CN112712477A (zh) * | 2020-12-21 | 2021-04-27 | 东莞埃科思科技有限公司 | 结构光模组的深度图像评价方法及其装置 |
CN112749610A (zh) * | 2020-07-27 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 深度图像、参考结构光图像生成方法、装置及电子设备 |
CN113689484A (zh) * | 2021-08-25 | 2021-11-23 | 北京三快在线科技有限公司 | 深度信息的确定方法、装置、终端及存储介质 |
CN114937071A (zh) * | 2022-07-26 | 2022-08-23 | 武汉市聚芯微电子有限责任公司 | 一种深度测量方法、装置、设备及存储介质 |
CN116165216A (zh) * | 2023-03-16 | 2023-05-26 | 苏州鼎纳自动化技术有限公司 | 一种液晶显示屏微划伤瑕疵3d检测方法、系统及计算设备 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112200848B (zh) * | 2020-10-30 | 2023-02-17 | 中国科学院自动化研究所 | 低光照弱对比复杂环境下的深度相机视觉增强方法及系统 |
CN112505065B (zh) * | 2020-12-28 | 2022-11-04 | 上海工程技术大学 | 一种实现室内无人机对大部件表面缺陷进行检测的方法 |
CN113034613B (zh) * | 2021-03-25 | 2023-09-19 | 中国银联股份有限公司 | 相机的外部参数标定方法及相关装置 |
CN114964032B (zh) * | 2022-05-18 | 2023-07-18 | 北京理工大学 | 基于机器视觉的盲孔深度测量方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049906A (zh) * | 2012-12-07 | 2013-04-17 | 清华大学深圳研究生院 | 一种图像深度提取方法 |
US20150256813A1 (en) * | 2014-03-07 | 2015-09-10 | Aquifi, Inc. | System and method for 3d reconstruction using multiple multi-channel cameras |
CN105354838A (zh) * | 2015-10-20 | 2016-02-24 | 努比亚技术有限公司 | 图像中弱纹理区域的深度信息获取方法及终端 |
US20160284092A1 (en) * | 2015-03-23 | 2016-09-29 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium |
CN106504284A (zh) * | 2016-10-24 | 2017-03-15 | 成都通甲优博科技有限责任公司 | 一种基于立体匹配与结构光相结合的深度图获取方法 |
CN106651794A (zh) * | 2016-12-01 | 2017-05-10 | 北京航空航天大学 | 一种基于虚拟相机的投影散斑校正方法 |
CN107077741A (zh) * | 2016-11-11 | 2017-08-18 | 深圳市大疆创新科技有限公司 | 深度图生成方法和基于该方法的无人机 |
-
2018
- 2018-08-22 CN CN201880039812.3A patent/CN110770794A/zh active Pending
- 2018-08-22 WO PCT/CN2018/101821 patent/WO2020037575A1/zh active Application Filing
-
2021
- 2021-02-10 US US17/173,162 patent/US20210192761A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049906A (zh) * | 2012-12-07 | 2013-04-17 | 清华大学深圳研究生院 | 一种图像深度提取方法 |
US20150256813A1 (en) * | 2014-03-07 | 2015-09-10 | Aquifi, Inc. | System and method for 3d reconstruction using multiple multi-channel cameras |
US20160284092A1 (en) * | 2015-03-23 | 2016-09-29 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium |
CN105354838A (zh) * | 2015-10-20 | 2016-02-24 | 努比亚技术有限公司 | 图像中弱纹理区域的深度信息获取方法及终端 |
CN106504284A (zh) * | 2016-10-24 | 2017-03-15 | 成都通甲优博科技有限责任公司 | 一种基于立体匹配与结构光相结合的深度图获取方法 |
CN107077741A (zh) * | 2016-11-11 | 2017-08-18 | 深圳市大疆创新科技有限公司 | 深度图生成方法和基于该方法的无人机 |
CN106651794A (zh) * | 2016-12-01 | 2017-05-10 | 北京航空航天大学 | 一种基于虚拟相机的投影散斑校正方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111563924A (zh) * | 2020-04-28 | 2020-08-21 | 上海肇观电子科技有限公司 | 图像深度确定方法及活体识别方法、电路、设备和介质 |
CN111563924B (zh) * | 2020-04-28 | 2023-11-10 | 上海肇观电子科技有限公司 | 图像深度确定方法及活体识别方法、电路、设备和介质 |
CN112749610A (zh) * | 2020-07-27 | 2021-05-04 | 腾讯科技(深圳)有限公司 | 深度图像、参考结构光图像生成方法、装置及电子设备 |
CN112188059A (zh) * | 2020-09-30 | 2021-01-05 | 深圳市商汤科技有限公司 | 可穿戴设备、智能引导方法及装置、引导系统 |
CN112188059B (zh) * | 2020-09-30 | 2022-07-15 | 深圳市商汤科技有限公司 | 可穿戴设备、智能引导方法及装置、引导系统 |
CN112712477A (zh) * | 2020-12-21 | 2021-04-27 | 东莞埃科思科技有限公司 | 结构光模组的深度图像评价方法及其装置 |
CN113689484A (zh) * | 2021-08-25 | 2021-11-23 | 北京三快在线科技有限公司 | 深度信息的确定方法、装置、终端及存储介质 |
CN114937071A (zh) * | 2022-07-26 | 2022-08-23 | 武汉市聚芯微电子有限责任公司 | 一种深度测量方法、装置、设备及存储介质 |
CN116165216A (zh) * | 2023-03-16 | 2023-05-26 | 苏州鼎纳自动化技术有限公司 | 一种液晶显示屏微划伤瑕疵3d检测方法、系统及计算设备 |
CN116165216B (zh) * | 2023-03-16 | 2023-08-04 | 苏州鼎纳自动化技术有限公司 | 一种液晶显示屏微划伤瑕疵3d检测方法、系统及计算设备 |
Also Published As
Publication number | Publication date |
---|---|
US20210192761A1 (en) | 2021-06-24 |
WO2020037575A1 (zh) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110770794A (zh) | 图像深度估计方法、装置、可读存储介质及电子设备 | |
US11615546B2 (en) | Systems and methods for depth estimation using generative models | |
CN106709899B (zh) | 双摄像头相对位置计算方法、装置和设备 | |
US10540806B2 (en) | Systems and methods for depth-assisted perspective distortion correction | |
US9916689B2 (en) | Apparatus and method for estimating camera pose | |
US10504244B2 (en) | Systems and methods to improve camera intrinsic parameter calibration | |
US9940717B2 (en) | Method and system of geometric camera self-calibration quality assessment | |
EP3189658B1 (en) | Camera calibration | |
AU2016355215A1 (en) | Methods and systems for large-scale determination of RGBD camera poses | |
CN107077826B (zh) | 基于周围光的图像调整 | |
US11282232B2 (en) | Camera calibration using depth data | |
US20180197320A1 (en) | Apparatus and method for processing information of multiple cameras | |
CN107749069B (zh) | 图像处理方法、电子设备和图像处理系统 | |
CN111383254A (zh) | 一种深度信息获取方法、系统及终端设备 | |
CN109785390B (zh) | 一种用于图像矫正的方法和装置 | |
CN109785225B (zh) | 一种用于图像矫正的方法和装置 | |
CN113781560B (zh) | 视点宽度的确定方法、装置及存储介质 | |
CN103841394A (zh) | 多层式三维显示器的标定设备和标定方法 | |
WO2018078222A1 (en) | Multiple view colour reconstruction | |
WO2017043078A1 (ja) | 距離推定装置、システム、距離推定方法および記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200207 |