CN108335322B - 深度估计方法和装置、电子设备、程序和介质 - Google Patents

深度估计方法和装置、电子设备、程序和介质 Download PDF

Info

Publication number
CN108335322B
CN108335322B CN201810103195.0A CN201810103195A CN108335322B CN 108335322 B CN108335322 B CN 108335322B CN 201810103195 A CN201810103195 A CN 201810103195A CN 108335322 B CN108335322 B CN 108335322B
Authority
CN
China
Prior art keywords
image
neural network
sample
binocular
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810103195.0A
Other languages
English (en)
Other versions
CN108335322A (zh
Inventor
罗越
任思捷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Priority to CN201810103195.0A priority Critical patent/CN108335322B/zh
Publication of CN108335322A publication Critical patent/CN108335322A/zh
Priority to KR1020207009470A priority patent/KR102295403B1/ko
Priority to JP2020517931A priority patent/JP6951565B2/ja
Priority to PCT/CN2019/073820 priority patent/WO2019149206A1/zh
Priority to SG11202003141PA priority patent/SG11202003141PA/en
Priority to US16/835,418 priority patent/US11308638B2/en
Application granted granted Critical
Publication of CN108335322B publication Critical patent/CN108335322B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明实施例公开了一种深度估计方法和装置、电子设备、程序和介质,其中,方法包括:以单张图片作为双目图像中的第一图像,经第一神经网络,基于所述第一图像获取所述双目图像中的第二图像;经第二神经网络,通过对所述第一图像与所述第二图像进行双目立体匹配,获取所述第一图像对应的深度信息。本发明实施例基于单张图片实现了深度估计,而不需要双目相机,避免了双目相机产生的额外硬件开销,降低了成本;并且,可以避免双目相机设定不准确导致获得的深度信息错误,提高了深度估计的准确性。

Description

深度估计方法和装置、电子设备、程序和介质
技术领域
本发明涉及计算机视觉技术,尤其是一种深度估计方法和装置、电子设备、程序和介质。
背景技术
深度估计是计算机视觉领域内的重要问题。准确的深度估计方法在许多领域,例如自动驾驶、三维场景重建以及增强现实等领域,有着重要的利用价值。
在卷积神经网络发展的驱动下,深度估计的相关技术得到了快速发展。
发明内容
本发明实施例提供一种深度估计技术方案。
根据本发明实施例的一个方面,提供的一种深度估计方法,包括:
以单张图片作为双目图像中的第一图像,经第一神经网络,基于所述第一图像获取所述双目图像中的第二图像;
经第二神经网络,通过对所述第一图像与所述第二图像进行双目立体匹配,获取所述第一图像对应的深度信息。
可选地,在本发明上述各实施例的方法中,经第一神经网络,基于所述第一图像获取所述双目图像中的第二图像,包括:
经第一神经网络对所述第一图像进行处理,输出N个通道的视差概率图;其中,每个通道的视差概率图表示所述第一图像上像素向第一水平方向偏移i个视差的概率,i=0,1,…,N-1,N的取值为大于1的整数;
根据所述N个通道的视差概率图,将所述第一图像分别向第一水平方向偏移i个像素,得到N张偏移图;
将所述N张偏移图中的各偏移图分别点乘对应通道的视差概率图,得到N个点乘结果;
将所述N个点乘结果基于像素进行叠加,得到所述第二图像。
可选地,在本发明上述各实施例的方法中,所述经第一神经网络对所述第一图像进行处理,输出N个通道的视差概率图,包括:
分别通过第一神经网络中的两个或以上网络深度的网络层对所述第一图像进行特征提取,获得两个或以上尺度的特征图;
基于所述两个或以上尺度的特征图分别获取两个或以上分辨率的、N个通道的初步视差概率图;
分别针对每个通道,将所述两个或以上分辨率的初步视差概率图放大至所述第一图像的分辨率下进行叠加,得到所述N个通道的视差概率图。
可选地,在本发明上述各实施例的方法中,所述第一图像中对应前景对象的像素在所述N个通道的视差概率图中的对应像素位置,在对应较大视差的通道的视差概率图中具有较大的概率值;所述第一图像中对应背景对象的像素在所述N个通道的视差概率图中的对应像素位置,在对应较小视差的通道的视差概率图中具有较大的概率值。
可选地,在本发明上述各实施例的方法中,通过对所述第一图像与所述第二图像进行双目立体匹配,获取所述第一图像对应的深度信息,包括:
获取用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数;所述双目图像中一个图像包括所述第一图像或所述第二图像,所述另一个图像对应包括所述第二图像或所述第一图像;
基于所述另一个图像与所述相关系数,生成所述第一图像与所述第二图像的视差图;
基于所述视差图获取所述第一图像对应的深度信息。
可选地,在本发明上述各实施例的方法中,述获取用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数,包括:
分别对所述一个图像与所述另一个图像进行特征提取;
基于提取的所述一个图像的特征与所述另一个图像的特征,获取所述一个图像与所述另一个图像中像素的位置关系,并输出用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的所述相关系数。
可选地,在本发明上述各实施例的方法中,基于所述另一个图像与所述相关系数,生成第一图像与所述第二图像的视差图,包括:
将所述另一个图像的特征与所述相关系数进行叠加,生成所述第一图像与所述第二图像的视差图。
可选地,在本发明上述各实施例的方法中,将所述另一个图像的特征与所述相关系数进行叠加,生成所述第一图像与所述第二图像的视差图,包括:
将所述另一个图像的特征与所述相关系数进行叠加,得到叠加结果;
提取所述叠加结果的特征,并将提取的所述叠加结果的特征与所述叠加结果进行融合,获得所述第一图像与所述第二图像的视差图。
可选地,在本发明上述各实施例的方法中,所述基于所述视差图获取所述第一图像对应的深度信息,包括:
基于所述视差图、拍摄所述第一图像的相机的焦距和所述双目图像对应的双目相机之间的距离,获取所述第一图像对应的深度信息。
可选地,在本发明上述各实施例的方法中,还包括:
基于所述第一图像对应的所述深度信息与所述第二图像,获取所述第一图像中场景的三维空间场景。
可选地,在本发明上述各实施例的方法中,所述第一神经网络利用第一样本集中的样本双目图像预先训练而得,所述第一样本集包括至少一组第一样本双目图像;和/或,
所述第二神经网络利用第二样本集中的样本双目图像预先训练而得;所述第二样本集包括至少一组第二样本双目图像和视差图标签。
可选地,在本发明上述各实施例的方法中,所述第一神经网络的训练包括:
经所述第一神经网络,由所述至少一组第一样本双目图像中的第一图像,获取所述至少一组第一样本双目图像中的第二图像并输出;
获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间的第一差异,并基于所述第一差异对所述第一神经网络进行训练,直至满足第一训练完成条件。
可选地,在本发明上述各实施例的方法中,获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间的第一差异,并基于所述第一差异对所述第一神经网络进行训练,直至满足第一训练完成条件,包括:
获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间在像素上的第一差异;
基于所述第一差异调整所述第一神经网络中网络参数的参数值,直至满足第一训练完成条件;
所述第一训练完成条件包括:所述第一差异小于第一预设阈值,和/或,对所述第一神经网络的训练次数达到第一预设次数。
可选地,在本发明上述各实施例的方法中,所述第二神经网络的训练包括:
经所述第二神经网络,获取所述至少一组第二样本双目图像的视差图并输出;
获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间的第二差异,并基于所述第二差异对所述第二神经网络进行训练,直至满足第二训练完成条件。
可选地,在本发明上述各实施例的方法中,获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间的第二差异,并基于所述第二差异对所述第二神经网络进行训练,直至满足第二训练完成条件,包括:
获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间在像素上的第二差异;
基于所述第二差异调整所述第二神经网络中网络参数的参数值,直至满足第二训练完成条件;
所述第二训练完成条件包括:所述第二差异小于第二预设阈值,和/或,对所述第二神经网络的训练次数达到第二预设次数。
可选地,在本发明上述各实施例的方法中,所述第一神经网络和所述第二神经网络的训练还包括:
利用第三样本集中的样本双目图像和第三样本图像对应的深度图标签对所述第一神经网络和所述第二神经网络进行训练;
其中,所述第三样本集包括至少一组第三样本双目图像和第三样本图像对应的深度图标签。
可选地,在本发明上述各实施例的方法中,所述利用第三样本集中的样本双目图像和第三样本图像对应的深度图标签对所述第一神经网络和所述第二神经网络进行训练,包括:
经所述第一神经网络,由所述至少一组第三样本双目图像中的第一图像,获取所述至少一组第三样本双目图像中的第二图像;
经所述第二神经网络,获取所述至少一组第三样本双目图像的视差图;
基于所述至少一组第三样本双目图像的视差图获取至少一组深度信息;
获取所述至少一组深度信息与所述至少一组第三样本双目图像的深度图标签之间的第三差异;
基于所述第三差异调整所述第一神经网络和所述第二神经网络中网络参数的参数值,直至满足第三训练完成条件;
所述第三训练完成条件包括:所述第三差异小于第三预设阈值,和/或,对所述第一神经网络和所述第二神经网络的训练次数达到第三预设次数。
根据本发明实施例的另一个方面,提供的一种深度估计装置,包括:
图像获取模块,用于以单张图片作为双目图像中的第一图像,经第一神经网络,基于所述第一图像获取所述双目图像中的第二图像;
立体匹配模块,用于经第二神经网络,通过对所述第一图像与所述第二图像进行双目立体匹配,获取所述第一图像对应的深度信息。
可选地,在本发明上述各实施例的装置中,所述图像获取模块包括:
第一子神经网络单元,用于对所述第一图像进行处理,输出N个通道的视差概率图;其中,每个通道的视差概率图表示所述第一图像上像素向第一水平方向偏移i个视差的概率,i=0,1,…,N-1,N的取值为大于1的整数;
偏移单元,用于根据所述N个通道的视差概率图,将所述第一图像分别向第一水平方向偏移i个像素,得到N张偏移图;
点乘单元,用于将所述N张偏移图中的各偏移图分别点乘对应通道的视差概率图,得到N个点乘结果;
加法单元,用于将所述N个点乘结果基于像素进行叠加,得到所述第二图像。
可选地,在本发明上述各实施例的装置中,所述第一子神经网络单元,包括两个或以上网络深度的网络层,具体用于:
分别通过两个或以上网络深度的网络层对所述第一图像进行特征提取,获得两个或以上尺度的特征图;
基于所述两个或以上尺度的特征图分别获取两个或以上分辨率的、N个通道的初步视差概率图;
分别针对每个通道,将所述两个或以上分辨率的初步视差概率图放大至所述第一图像的分辨率下进行叠加,得到所述N个通道的视差概率图。
可选地,在本发明上述各实施例的装置中,所述第一图像中对应前景对象的像素在所述N个通道的视差概率图中的对应像素位置,在对应较大视差的通道的视差概率图中具有较大的概率值;所述第一图像中对应背景对象的像素在所述N个通道的视差概率图中的对应像素位置,在对应较小视差的通道的视差概率图中具有较大的概率值。
可选地,在本发明上述各实施例的装置中,所述立体匹配模块包括:
第一获取单元,用于获取用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数;所述双目图像中一个图像包括所述第一图像或所述第二图像,所述另一个图像对应包括所述第二图像或所述第一图像;
生成单元,用于基于所述另一个图像与所述相关系数,生成所述第一图像与所述第二图像的视差图;
第三获取单元,基于所述视差图获取所述第一图像对应的深度信息。
可选地,在本发明上述各实施例的装置中,所述第一获取单元,包括:
第二子神经网络单元,用于分别对所述一个图像与所述另一个图像进行特征提取;
获取子单元,用于基于提取的所述一个图像的特征与所述另一个图像的特征,获取所述一个图像与所述另一个图像中像素的位置关系,并输出用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的所述相关系数。
可选地,在本发明上述各实施例的装置中,所述生成单元,具体用于将所述另一个图像的特征与所述相关系数进行叠加,生成所述第一图像与所述第二图像的视差图。
可选地,在本发明上述各实施例的装置中,所述生成单元,包括:
叠加子单元,用于将所述另一个图像的特征与所述相关系数进行叠加,得到叠加结果;
融合子单元,用于提取所述叠加结果的特征,并将提取的所述叠加结果的特征与所述叠加结果进行融合,获得所述第一图像与所述第二图像的视差图。
可选地,在本发明上述各实施例的装置中,所述第三获取单元,具体用于基于所述视差图、拍摄所述第一图像的相机的焦距和所述双目图像对应的双目相机之间的距离,获取所述第一图像对应的深度信息。
可选地,在本发明上述各实施例的装置中,还包括:
获取模块,用于基于所述第一图像对应的所述深度信息与所述第二图像,获取所述第一图像中场景的三维空间场景。
可选地,在本发明上述各实施例的装置中,所述第一神经网络利用第一样本集中的样本双目图像预先训练而得,所述第一样本集包括至少一组第一样本双目图像;和/或,
所述第二神经网络利用第二样本集中的样本双目图像预先训练而得;所述第二样本集包括至少一组第二样本双目图像和视差图标签。
可选地,在本发明上述各实施例的装置中,所述第一神经网络,用于由所述至少一组第一样本双目图像中的第一图像,获取所述至少一组第一样本双目图像中的第二图像并输出;
所述装置还包括:
第一训练模块,用于获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间的第一差异,并基于所述第一差异对所述第一神经网络进行训练,直至满足第一训练完成条件。
可选地,在本发明上述各实施例的装置中,所述第一训练模块,具体用于:
获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间在像素上的第一差异;
基于所述第一差异调整所述第一神经网络中网络参数的参数值,直至满足第一训练完成条件;
所述第一训练完成条件包括:所述第一差异小于第一预设阈值,和/或,对所述第一神经网络的训练次数达到第一预设次数。
可选地,在本发明上述各实施例的装置中,所述第二神经网络,用于获取所述至少一组第二样本双目图像的视差图并输出;
所述装置还包括:
第二训练模块,用于获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间的第二差异,并基于所述第二差异对所述第二神经网络进行训练,直至满足第二训练完成条件。
可选地,在本发明上述各实施例的装置中,所述第二训练模块,具体用于:
获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间在像素上的第二差异;
基于所述第二差异调整所述第二神经网络中网络参数的参数值,直至满足第二训练完成条件;
所述第二训练完成条件包括:所述第二差异小于第二预设阈值,和/或,对所述第二神经网络的训练次数达到第二预设次数。
可选地,在本发明上述各实施例的装置中,还包括:
第三训练模块,用于利用第三样本集中的样本双目图像和第三样本图像对应的深度图标签对所述第一神经网络和所述第二神经网络进行训练;
其中,所述第三样本集包括至少一组第三样本双目图像和第三样本图像对应的深度图标签。
可选地,在本发明上述各实施例的装置中,所述第一神经网络,用于由所述至少一组第三样本双目图像中的第一图像,获取所述至少一组第三样本双目图像中的第二图像;
所述第二神经网络,用于获取所述至少一组第三样本双目图像的视差图;
所述第三训练模块,具体用于:
基于所述至少一组第三样本双目图像的视差图获取至少一组深度信息;
获取所述至少一组深度信息与所述至少一组第三样本双目图像的深度图标签之间的第三差异;
基于所述第三差异调整所述第一神经网络和所述第二神经网络中网络参数的参数值,直至满足第三训练完成条件;
所述第三训练完成条件包括:所述第三差异小于第三预设阈值,和/或,对所述第一神经网络和所述第二神经网络的训练次数达到第三预设次数。
根据本发明实施例的再一个方面,提供的一种计算机程序,包括计算机可读代码,当所述计算机可读代码在设备上运行时,所述设备中的处理器执行用于实现本发明上述任一实施例所述方法中各步骤的指令。
根据本发明实施例的再一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行本发明上述任一实施例所述方法中各步骤的操作。
基于本发明上述实施例提供的深度估计方法和装置、电子设备、程序和介质,以单张图片作为双目图像中的第一图像,经第一神经网络,基于第一图像获取双目图像中的第二图像,经第二神经网络,基于对第一图像与第二图像进行双目立体匹配,获取第一图像对应的深度信息,由此基于单张图片实现了该单张图片中场景的深度估计,而不需要双目相机,避免了双目相机产生的额外硬件开销,降低了成本;并且,可以避免双目相机设定不准确导致获得的深度信息错误,提高了深度估计的准确性。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本发明的实施例,并且连同描述一起用于解释本发明的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本发明,其中:
图1为本发明深度估计方法一个实施例的流程图。
图2为本发明深度估计方法另一个实施例的流程图。
图3为本发明深度估计方法一个应用实施例的流程图。
图4为图3所示实施例对应的示例性框图。
图5为本发明深度估计装置一个实施例的结构示意图。
图6为本发明深度估计装置另一个实施例的结构示意图。
图7为本发明深度估计装置又一个实施例的结构示意图。
图8为本发明电子设备一个应用实施例的结构示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本发明实施例可以应用于计算机系统/服务器,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与计算机系统/服务器一起使用的众所周知的计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
计算机系统/服务器可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
图1为本发明深度估计方法一个实施例的流程图。如图1所示,该实施例的深度估计方法包括:
102,以单张图片作为双目图像中的第一图像,经第一神经网络,基于该第一图像获取双目图像中的第二图像。
双目图像为经双目相机拍摄的两张图像、或者经多目相机拍摄的多张图像中的两张图像,可以称为左图和右图。其中,第一图像为左图时,第二图像为右图;或者,第一图像为右图时,第二图像为左图。另外,双目图像也可以称为主图和副图,双目图像中的任意一张图像作为主图时,另一张图像即作为副图。
104,经第二神经网络,通过对上述第一图像与第二图像进行双目立体匹配,获取上述第一图像对应的深度信息。
在本发明各实施例中,第一神经网络、第二神经网络,分别可以是一个多层神经网络(即:深度神经网络),例如多层的卷积神经网络,例如可以是LeNet、AlexNet、GoogLeNet、VGG、ResNet等任意神经网络模型。第一神经网络和第二神经网络可以采用相同类型和结构的神经网络,也可以采用不同类型和结构的神经网络。
在实现本发明的过程中,发明人通过研究发现,目前的深度估计方法主要可以分为两类。一类是使用大量的像素级别的深度标签对神经网络进行监督、通过训练好的神经网络获取进行深度估计,但是获取深度标签不仅花费极大,现有的技术也不能得到高质量且稠密的深度标签。第二类是基于双目立体匹配的深度估计方法,在这种深度估计方法中,两张从不同方位拍摄的图像将被作为输入,基于几何空间的规则,深度可以通过计算两张图相对应像素的视差而获得。但是,该类预测方法的准确率受限于双目相机的设定,而且该类方法由于需要双目相机产生额外的硬件开销。而基于本发明上述实施例提供的深度估计方法,以单张图片作为双目图像中的第一图像,经第一神经网络,基于第一图像获取双目图像中的第二图像,经第二神经网络,通过对第一图像与第二图像进行双目立体匹配,获取深度信息,由此基于单张图片实现了该单张图片中场景的深度估计,而不需要双目相机,避免了双目相机产生的额外硬件开销,降低了成本;并且,可以避免双目相机设定不准确导致获得的深度信息错误,提高了深度估计的准确性。
图2为本发明深度估计方法另一个实施例的流程图。如图2所示,该实施例的深度估计方法包括:
202,以单张图片作为双目图像中的第一图像,经第一神经网络对该第一图像进行处理,输出N个通道的视差概率图。
其中,N个通道中不同的通道对应不同的视差,每个通道的视差概率图的表示第一图像上像素向第一水平方向偏移i个视差的概率,概率归一化后,同一个像素在所有通道上的概率值之和为1;i=0,1,…,N-1,N的取值为大于1的整数。第一图像为左图时,第一水平方向为水平向左的方向;第一图像为右图时,第一水平方向为水平向右的方向。即,第一图像为左图时,第i个通道的视差概率图表示该左图上像素水平向左偏移某i个视差的概率,例如,假设N的取值为5、第一图像为左图,第1、2、3、4、5个通道的视差概率图分别表示该左图上像素水平向左偏移0、1、2、3、4个视差的概率,该左图上某一个像素水平向左偏移0、1、2、3、4个视差的概率例如可以分别为0.3、0.4、0.2、0.1和0。
204,根据上述N个通道的视差概率图,将第一图像分别向第一水平方向偏移i个像素,得到N张偏移图。
其中,i=0,1,…,N-1,N-1,N的取值为大于1的整数。
206,将上述N张偏移图中的各偏移图分别点乘对应通道的视差概率图,得到N个点乘结果。
208,将上述N个点乘结果基于像素进行叠加,得到上述双目图像中的第二图像。
由于双目相机拍摄的左、右图像遵守基本的空间规则,本发明实施例获取到的第二图像与第一图像相对应像素的视差遵守空间几何规律,在本发明实施例的其中一个实施方式中,第一图像中对应前景对象的像素在视差概率图中的对应像素位置,在对应较大视差的通道的视差概率图中具有较大的概率值;第一图像中对应背景对象的像素在视差概率图中的对应像素位置,在对应较小视差的通道的视差概率图中具有较大的概率值。例如,第一图像中包括背景和作为前景对象的人脸,对应人脸的像素在N个通道的视差概率图中对应较大视差的通道的视差概率图中的概率值为0.8,在N个通道的视差概率图中对应较小视差的通道的视差概率图中的概率值为0.1;对应背景的像素在N个通道的视差概率图中对应较小视差的通道的视差概率图中的概率值为0.9,在N个通道的视差概率图中对应较大视差的通道的视差概率图中的概率值为0。
210,通过第二神经网络,获取用于表示双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数。
因为将第一图像中的像素在第一水平方向上移动即可得到第二图像中的像素,可以将第一图像中的每个像素位置分别视为一个变量,该变量的取值为视差概率图中对应的视差的取值,可以是0,1,…,N-1共N个。获取第一图像中每个像素位置的变量与第二图像中相邻d个像素位置的变量的相关系数并保存在对应的像素位置和通道,由第一图像中所有像素位置的相关系数即得到第一图像相对于第二图像中像素的位置关系的相关系数。其中,d的取值为整数,例如可以取值-40~+40。双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数包括一个图像中所有像素位置的变量与第二图像中相邻d个像素位置的变量的相关系数,其可以表示为一个W*H*N的相关系数图或者一个相关系数矩阵。其中,W、H、N分别表示一个图像的宽度、高度和通道数,W、H、N的取值均为大于0的整数。
假设上述一个图像为左图,另一个图像为右图,由于左图和右图在竖直方向上是对齐的,将左图的像素在水平方向上向左移动即可得到右图的像素。因此,在水平方向上计算各像素位置的相关系数有助于在水平方向上更好的匹配左右图对应的像素。
其中,双目图像中一个图像包括第一图像或第二图像,另一个图像对应为该双目图像中的第二图像或第一图像。
212,基于另一个图像与相关系数,生成第一图像与第二图像的视差图(disparity)。
其中,视差图中各像素的取值分别表示第一图像拍摄场景中的某一点的视差,即:该某一点在第一图像坐标系中的坐标与在第二图像坐标系中的坐标之间的差值。
214,基于上述视差图获取第一图像对应的深度信息。
在本发明实施例的又一个实施方式中,可以基于上述视差图和相机参数获取上述第一图像对应的深度信息,例如,可以基于上述视差图、拍摄第一图像的相机的焦距和双目图像对应的双目相机之间的距离,获取上述第一图像对应的深度信息。
例如,可以通过但不限于公式:Z=f×B/Disp,获取上述第一图像对应的深度信息。
其中,Disp代表预测的视差图,f为拍摄第一图像的相机的焦距,B为双目相机之间的距离,Z即为所要预测的单目全局深度图。
本发明实施例,将单目深度估计的问题转化为双目立体匹配的问题,通过这种方式,将较为困难的深度估计问题转化为了匹配两张图像相似像素点的问题,这种匹配不再需要推测单张图像中各像素间的几何关系,降低了计算的复杂度。另外,本发明实施例利用深度学习方法,可以更好的实现合成第二图像和双目立体匹配两个操作,并通过将几何的变换显性地设置在第一神经和第二神经网络中,提高了操作结果的准确性。
本发明实施例通过使用单张图片合成相对应的右图再进行双目立体匹配,在用于对第一神经网络和第二神经网络进行训练时,不再需要大量精密的深度标签作为监督,只需要使用容易得到的矫正好的双目图像训练第一神经网络(也称为图像合成网络),使用大量计算机渲染的双目图像和深度图训练第二神经网络(也称为:双目立体匹配网络),相比于大量精密的深度标签,降低了训练数据开销。
在本发明实施例的其中一个实施方式中,操作202中,经第一神经网络对第一图像进行处理,输出视差概率图,可以包括:
分别通过第一神经网络中的两个或以上网络深度的网络层对第一图像进行特征提取,得到两个或以上尺度(即:大小)的特征图;
基于上述两个或以上尺度的特征图分别获取两个或以上分辨率的、N个通道的初步视差概率图;
分别针对每个通道,将上述两个或以上分辨率的初步视差概率图放大至第一图像的分辨率下进行叠加,得到N个通道的视差概率图。
因为神经网络中的池化层效果,在神经网络的不同阶段会产生不同大小、分辨率的特征图,基于不同大小、分辨率的特征图能够产生不同大小、分辨率的初步视差概率图,从而有助于为预测深度信息提供不同的局部信息和全局信息。
例如,第一图像是W*H*N为200*200*3的红绿蓝(RGB)图,通过第一神经网络的某一网络深度的网络层得到100*100*64的特征图,再继续经过另一网络深度的网络层得到50*50*128的特征图,基于这两个不同大小的特征图,可以获得不同大小、分辨率的初步视差概率图,例如得到100*100*N以及50*50*N的初步视差概率图。其中,第一图像的分辨率为200*200,两个初步视差概率图的分辨率分别为100*100和50*50,两个初步视差概率图的分辨率分别为第一图像的分辨率大小的1/2*1/2、1/4*1/4。
基于本实施例,第一神经网络中的两个或以上网络深度的网络层提取的特征的尺寸不同,其中,网络深度较浅的网络层提取的特征感受野较小,体现第一图像中较小区域的信息,网络深度较深的网络层提取的特征感受野较大,可以体现第一图像中较大区域的信息、甚至全局信息,使用不同分辨率的特征图同时提供不同视野域的信息,可以产生更准确的概率视差图。
在本发明实施例的其中一个实施方式中,操作210可以包括:
分别对一个图像与另一个图像进行特征提取。例如,可以通过一段卷积神经网络,分别对一个图像与另一个图像进行特征提取;
通过第二神经网络,基于提取的一个图像的特征与另一个图像的特征,获取一个图像与另一个图像中像素的位置关系,并输出相关系数。
相应地,在本发明实施例的另一个实施方式中,操作212可以包括:将另一个图像的特征与相关系数进行叠加,生成第一图像与第二图像的视差图。这样,基于单张图像即可获得该单张图像拍摄场景在双目图像中的视差图,将较为困难的深度估计问题转化为了匹配两张图像相似像素点的问题,这种匹配不再需要推测单张图像中各像素间的几何关系,降低了计算的复杂度。另外,本实施例利用深度学习方法,将几何变换显性地设置在第二神经网络中,提高了操作结果的准确性。
可选地,在本发明实施例的又一个实施方式中,该操作212可以包括:将另一个图像的特征与相关系数进行叠加,得到叠加结果,该叠加结果例如可以是一个特征图;提取叠加结果的特征,并将提取的叠加结果的特征与叠加结果进行融合,获得第一图像与第二图像的视差图。
在其中一个实施方式中,可以通过一段卷积神经网络提取叠加结果的特征,该卷积神经网络例如可以示例性地包括但不限于一层卷积层和一层激活层(ReLu)。该卷积神经网络例如可以通过一个编码-解码模型实现,通过卷积层对叠加结果进行特征提取,得到一个与叠加结果相同大小的特征图,将该特征图与叠加结果进行融合(concat),获得第一图像与第二图像的视差图。
本发明实施例通过对叠加结果进行进一步特征提取,可以加大感受野的范围,再将提取的叠加结果的特征与叠加结果进行融合,获得第一图像与第二图像的视差图,使得视差图可以融合较多的信息,能够获取更多的全局信息,从而有助于提升后续预测的第一图像对应的深度信息。
图3为本发明深度估计方法一个应用实施例的流程图。图4为图3所示实施例对应的示例性框图。该应用实施例中,分别以左图、右图作为本发明上述各实施例中的第一图像和第二图像进行说明。参见图3和图4,该应用实施例包括:
302,以单张图片作为双目图像中的左图,经第一神经网络对该左图进行处理,输出N个通道的视差概率图。
其中,每个通道分别表示左图上像素向水平向左偏移i个视差的概率;i=0,1,…,N-1,N的取值为大于1的整数。
304,根据上述N个通道的视差概率图,将左图分别向第一水平方向偏移i个像素,得到N张偏移图。
306,将上述N张偏移图中的各偏移图分别点乘对应通道的视差概率图,得到N个点乘结果。
308,将上述N个点乘结果基于像素进行叠加,得到双目图像中的右图。
310,通过第二神经网络,分别对左图与右图进行特征提取。
312,通过第二神经网络,基于提取的左图的特征与右图的特征,获取左图与右图中像素的位置关系,并输出相关系数。
314,将左图的特征与相关系数进行叠加,得到叠加结果,该叠加结果例如可以是一个特征图。
可选地,为了得到与左图像素对齐的视差图,可以先将从左图得到的特征图将再通过神经网络进一步特征提取,再将提取到的特征与相关系数进行叠加。其中,该神经网络可以示例性地由一层卷积层和一层激活层组成,对从左图得到的特征图进行进一步特征提取,可以加大感受野的范围,得到进一步处理后的特征图(feature),再与相关系数进行叠加,从而使得叠加结果可以包括更多的全局信息,提高后续获得的视差图和深度信息的准确性。
316,通过第二神经网络,提取叠加结果的特征,并将提取的叠加结果的特征与叠加结果进行融合,获得第一图像与第二图像的视差图。
318,基于上述视差图、拍摄第一图像的相机的焦距和双目图像对应的双目相机之间的距离,获取第一图像对应的深度信息。
基于本发明上述各实施例,获得深度信息后,还可以基于第一图像对应的深度信息与第二图像,获取该第一图像中场景的三维空间场景。
本发明实施例例如可以应用但不限于以下方面:
1,对单张图片进行全局深度估计;
2,本发明实施例可以被应用于三维场景重建,使用预测得到的第一图像对应的深度信息(也称为;全局深度图)可被应用到多种场景中,例如自动驾驶、三维场景恢复、3D电影制作等等。使用本发明实施例,只需要单张图片即可得到较好的效果,降低了成本。
使用预测得到的第一图像对应的深度信息、结合合成的右图,可以将原图(即:第一图像)中的整个场景的三维空间场景恢复出来,恢复出来的三维空间场景有许多应用场景,例如3D电影、自动驾驶等等。
可选的,本发明上述各实施例中,第一神经网络可以利用第一样本集中的样本双目图像预先训练而得,该第一样本集包括至少一组第一样本双目图像;和/或,第二神经网络可以利用第二样本集中的样本双目图像预先训练而得。
相应地,在本发明上述各实施例之前,还可以包括:
利用第一样本集中的样本双目图像对第一神经网络进行训练,以及利用第二样本集中的样本双目图像和深度图对第二神经网络进行训练。其中,第一样本集包括至少一组第一样本双目图像,每组第一样本双目图像包括第一图像和第二图像;第二样本集包括至少一组第二样本双目图像和第二样本图像对应的深度图标签。
在其中一个实施方式中,利用第一样本集中的样本双目图像对第一神经网络进行训练,可以包括:
经第一神经网络,由至少一组第一样本双目图像中的第一图像,获取至少一组第一样本双目图像中的第二图像并输出;
获取第一神经网络输出的第二图像与至少一组第一样本双目图像中的第二图像之间的第一差异,并基于第一差异对第一神经网络进行训练,直至满足第一训练完成条件。
在其中一个可选示例中,获取第一神经网络输出的第二图像与至少一组第一样本双目图像中的第二图像之间的第一差异,并基于第一差异对第一神经网络进行训练,直至满足第一训练完成条件,可以包括:
获取第一神经网络输出的第二图像与至少一组第一样本双目图像中的第二图像之间在像素的第一差异,例如,在像素上差值的绝对值之和;
基于第一差异调整第一神经网络中网络参数的参数值,直至满足第一训练完成条件。
其中,第一训练完成条件例如可以包括但不限于:第一差异小于第一预设阈值,和/或,对第一神经网络的训练次数达到第一预设次数。
在另一个实施方式中,利用第二样本集中的样本双目图像和深度图对第二神经网络进行训练,可以包括:
经第二神经网络,对至少一组第二样本双目图像进行双目立体匹配,预测深度信息,获得至少一组深度信息并输出;
获取第二神经网络输出的深度信息与至少一组第二样本双目图像对应的深度图标签之间的第二差异,并基于第二差异对第二神经网络进行训练,直至满足第二训练完成条件。
在其中一个可选示例中,获取第二神经网络输出的深度信息与至少一组第二样本双目图像对应的深度图标签之间的第二差异,并基于第二差异对第二神经网络进行训练,直至满足第二训练完成条件,可以包括:
获取第二神经网络输出的深度信息与至少一组第二样本双目图像对应的深度图标签之间在像素上的第二差异,例如在像素上差值的绝对值之和;
基于第二差异调整第二神经网络中网络参数的参数值,直至满足第二训练完成条件。
其中,第二训练完成条件例如可以包括但不限于:第二差异小于第二预设阈值,和/或,对第二神经网络的训练次数达到第二预设次数。
由于真实采集的深度图标签不容易获取,基于本发明实施例在实际应用中,可以使用计算机合成的左图、右图和深度图标签作为第二样本集中的第二样本双目图像和第二样本图像对应的深度图标签,训练第二神经网络。
另外,通过本发明上述实施例对第一神经网络和第二神经网络分阶段训练完成后,还可以包括:
利用第三样本集中的样本双目图像和第三样本图像对应的深度图标签对第一神经网络和第二神经网络进行训练。
其中,第三样本集包括至少一组第三样本双目图像和第三样本图像对应的深度图标签。
在其中一个实施方式中,利用第三样本集中的样本双目图像和第三样本图像对应的深度图标签对第一神经网络和第二神经网络进行训练,可以包括:
经第一神经网络,由至少一组第三样本双目图像中的第一图像,获取至少一组第三样本双目图像中的第二图像;
经第二神经网络,获取至少一组第二样本双目图像的视差图;
基于至少一组第二样本双目图像的视差图获取至少一组深度信息;
获取至少一组深度信息与至少一组第三样本双目图像的深度图标签之间的第三差异,该第三差异例如可以是在像素上差值的绝对值之和;
基于第三差异调整第一神经网络和第二神经网络中网络参数的参数值,直至满足第三训练完成条件。
其中,第三训练完成条件例如可以包括但不限于:第三差异小于第三预设阈值,和/或,对第一神经网络和第二神经网络的训练次数达到第三预设次数。
图5为本发明深度估计装置一个实施例的结构示意图。该实施例的深度估计装置可用于实现本发明上述各深度估计方法实施例。如图5所示,该实施例的深度估计装置包括:图像获取模块和立体匹配模块。其中:
图像获取模块,用于以单张图片作为双目图像中的第一图像,经第一神经网络,基于第一图像获取双目图像中的第二图像。
立体匹配模块,用于经第二神经网络,通过对第一图像与第二图像进行双目立体匹配,获取第一图像对应的深度信息。
基于本发明上述实施例提供的深度估计装置,以单张图片作为双目图像中的第一图像,经第一神经网络,基于第一图像获取双目图像中的第二图像,经第二神经网络,基于对第一图像与第二图像进行双目立体匹配,获取第一图像对应的深度信息,由此基于单张图片实现了该单张图片中场景的深度估计,而不需要双目相机,避免了双目相机产生的额外硬件开销,降低了成本;并且,可以避免双目相机设定不准确导致获得的深度信息错误,提高了深度估计的准确性。
图6为本发明深度估计装置另一个实施例的结构示意图。如图6所示,在本发明各实施例的其中一个实施方式中,图像获取模块包括:第一子神经网络单元,偏移单元,点乘单元和加法单元。其中:
第一子神经网络单元,用于对第一图像进行处理,输出N个通道的视差概率图;其中,每个通道的视差概率图表示第一图像上像素向第一水平方向偏移i个视差的概率,i=0,1,…,N-1,N的取值为大于1的整数。
偏移单元,用于根据N个通道的视差概率图,将第一图像分别向第一水平方向偏移i个像素,得到N张偏移图。
点乘单元,用于将N张偏移图中的各偏移图分别点乘对应通道的视差概率图,得到N个点乘结果。
加法单元,用于将N个点乘结果基于像素进行叠加,得到第二图像。
在其中一个可选示例中,第一子神经网络单元,包括两个或以上网络深度的网络层,具体用于:分别通过两个或以上网络深度的网络层对第一图像进行特征提取,获得两个或以上尺度的特征图;基于两个或以上尺度的特征图分别获取两个或以上分辨率的、N个通道的初步视差概率图;以及分别针对每个通道,将两个或以上分辨率的初步视差概率图放大至第一图像的分辨率下进行叠加,得到N个通道的视差概率图。
可选地,第一图像中对应前景对象的像素在N个通道的视差概率图中的对应像素位置,在对应较大视差的通道的视差概率图中具有较大的概率值;第一图像中对应背景对象的像素在N个通道的视差概率图中的对应像素位置,在对应较小视差的通道的视差概率图中具有较大的概率值。
另外,再参见图6,在本发明各实施例的另一个实施方式中,立体匹配模块可以包括:第一获取单元,生成单元和第三获取单元。其中:
第一获取单元,用于获取用于表示双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数;双目图像中一个图像包括第一图像或第二图像,另一个图像对应包括第二图像或第一图像。
生成单元,用于基于另一个图像与相关系数,生成第一图像与第二图像的视差图。
第三获取单元,基于视差图获取第一图像对应的深度信息。
在其中一个可选示例中,第一获取单元可以包括:第二子神经网络单元,用于分别对一个图像与另一个图像进行特征提取;获取子单元,用于基于提取的一个图像的特征与另一个图像的特征,获取一个图像与另一个图像中像素的位置关系,并输出用于表示双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数。
相应地,在另一个可选示例中,生成单元具体用于将另一个图像的特征与相关系数进行叠加,生成第一图像与第二图像的视差图。
在另一个可选示例中,生成单元可以包括:叠加子单元,用于将另一个图像的特征与相关系数进行叠加,得到叠加结果;融合子单元,用于提取叠加结果的特征,并将提取的叠加结果的特征与叠加结果进行融合,获得第一图像与第二图像的视差图。
在又一个可选示例中,第三获取单元具体用于基于视差图、拍摄第一图像的相机的焦距和双目图像对应的双目相机之间的距离,获取第一图像对应的深度信息。
另外,本发明上述各实施例的深度估计装置中,还可以包括:获取模块,用于基于第一图像对应的深度信息与第二图像,获取第一图像中场景的三维空间场景。
如图7所示,为本发明深度估计装置又一个实施例的结构示意图。图7中,图像获取模块和立体匹配模块可以选择性地采用图6所示任一实施例的结构实现,也可以采用其他结构实现。
另外,本发明上述各实施例的深度估计装置中,第一神经网络可以利用第一样本集中的样本双目图像预先训练而得,第一样本集包括至少一组第一样本双目图像。和/或,第二神经网络可以利用第二样本集中的样本双目图像预先训练而得;第二样本集包括至少一组第二样本双目图像和视差图标签。
再参见图7,在本发明深度估计装置的再一个实施例中,还包括第一训练模块。该实施例中,第一神经网络,用于由至少一组第一样本双目图像中的第一图像,获取至少一组第一样本双目图像中的第二图像并输出。第一训练模块,用于获取第一神经网络输出的第二图像与至少一组第一样本双目图像中的第二图像之间的第一差异,并基于第一差异对第一神经网络进行训练,直至满足第一训练完成条件。
在其中一个实施方式中,第一训练模块具体用于:获取第一神经网络输出的第二图像与至少一组第一样本双目图像中的第二图像之间在像素上的第一差异;
基于第一差异调整第一神经网络中网络参数的参数值,直至满足第一训练完成条件。其中,第一训练完成条件例如可以包括但不限于:第一差异小于第一预设阈值,和/或,对第一神经网络的训练次数达到第一预设次数。
再参见图7,在本发明深度估计装置的再一个实施例中,还可以包括第二训练模块。该实施例中,第二神经网络,用于获取至少一组第二样本双目图像的视差图并输出。第二训练模块,用于获取第二神经网络输出的视差图与至少一组第二样本双目图像的视差图标签之间的第二差异,并基于第二差异对第二神经网络进行训练,直至满足第二训练完成条件。
在其中一个实施方式中,第二训练模块具体用于:获取第二神经网络输出的视差图与至少一组第二样本双目图像的视差图标签之间在像素上的第二差异;
基于第二差异调整第二神经网络中网络参数的参数值,直至满足第二训练完成条件。其中,第二训练完成条件例如可以包括但不限于:第二差异小于第二预设阈值,和/或,对第二神经网络的训练次数达到第二预设次数。
进一步地,再参见图7,在本发明深度估计装置的再一个实施例中,还可以包括第三训练模块,用于利用第三样本集中的样本双目图像和第三样本图像对应的深度图标签对第一神经网络和第二神经网络进行训练。其中,第三样本集包括至少一组第三样本双目图像和第三样本图像对应的深度图标签。
在其中一个实施方式中,第一神经网络用于由至少一组第三样本双目图像中的第一图像,获取至少一组第三样本双目图像中的第二图像;第二神经网络,用于获取至少一组第三样本双目图像的视差图。
第三训练模块具体用于:基于至少一组第三样本双目图像的视差图获取至少一组深度信息;获取至少一组深度信息与至少一组第三样本双目图像的深度图标签之间的第三差异;基于第三差异调整第一神经网络和第二神经网络中网络参数的参数值,直至满足第三训练完成条件。其中,第三训练完成条件例如可以包括但不限于:第三差异小于第三预设阈值,和/或,对第一神经网络和第二神经网络的训练次数达到第三预设次数。本发明深度估计装置实施例中各方案的技术效果,可参加相应方法实施例中的相应描述,在此不再赘述。
另外,本发明实施例提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
处理器,用于与所述存储器通信以执行所述可执行指令从而完成本发明上述任一实施例所述深度估计方法的操作。
图8为本发明电子设备一个应用实施例的结构示意图。下面参考图8,其示出了适于用来实现本申请实施例的终端设备或服务器的电子设备的结构示意图。如图8所示,该电子设备包括一个或多个处理器、通信部等,所述一个或多个处理器例如:一个或多个中央处理单元(CPU),和/或一个或多个图像处理器(GPU)等,处理器可以根据存储在只读存储器(ROM)中的可执行指令或者从存储部分加载到随机访问存储器(RAM)中的可执行指令而执行各种适当的动作和处理。通信部可包括但不限于网卡,所述网卡可包括但不限于IB(Infiniband)网卡,处理器可与只读存储器和/或随机访问存储器中通信以执行可执行指令,通过总线与通信部相连、并经通信部与其他目标设备通信,从而完成本申请实施例提供的任一方法对应的操作,例如,以单张图片作为双目图像中的第一图像,经第一神经网络,基于所述第一图像获取所述双目图像中的第二图像;经第二神经网络,通过对所述第一图像与所述第二图像进行双目立体匹配,获取所述第一图像对应的深度信息。
本发明电子设备中各方案的技术效果,可参加相应方法实施例中的相应描述,在此不再赘述。
此外,在RAM中,还可存储有装置操作所需的各种程序和数据。CPU、ROM以及RAM通过总线彼此相连。在有RAM的情况下,ROM为可选模块。RAM存储可执行指令,或在运行时向ROM中写入可执行指令,可执行指令使处理器执行本发明上述任一方法对应的操作。输入/输出(I/O)接口也连接至总线。通信部可以集成设置,也可以设置为具有多个子模块(例如多个IB网卡),并在总线链接上。
以下部件连接至I/O接口:包括键盘、鼠标等的输入部分;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分;包括硬盘等的存储部分;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分。通信部分经由诸如因特网的网络执行通信处理。驱动器也根据需要连接至I/O接口。可拆卸介质,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器上,以便于从其上读出的计算机程序根据需要被安装入存储部分。
需要说明的,如图8所示的架构仅为一种可选实现方式,在具体实践过程中,可根据实际需要对上述图8的部件数量和类型进行选择、删减、增加或替换;在不同功能部件设置上,也可采用分离设置或集成设置等实现方式,例如GPU和CPU可分离设置或者可将GPU集成在CPU上,通信部可分离设置,也可集成设置在CPU或GPU上,等等。这些可替换的实施方式均落入本发明公开的保护范围。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,程序代码可包括对应执行本申请实施例提供的深度估计方法步骤对应的指令。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被CPU执行时,执行本申请的方法中限定的上述功能。
另外,本发明实施例还提供了一种计算机程序,包括计算机可读代码,当所述计算机可读代码在设备上运行时,所述设备中的处理器执行用于实现本发明任一实施例所述深度估计方法中各步骤的指令。
另外,本发明实施例还提供了一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,指令被执行时执行本发明任一实施例所述深度估计方法中各步骤的操作。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的c步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
可能以许多方式来实现本发明的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
本发明的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本发明限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本发明的原理和实际应用,并且使本领域的普通技术人员能够理解本发明从而设计适于特定用途的带有各种修改的各种实施例。

Claims (36)

1.一种深度估计方法,其特征在于,包括:
以单张图片作为双目图像中的第一图像,经第一神经网络,基于所述第一图像获取所述双目图像中的第二图像;所述经第一神经网络,基于所述第一图像获取所述双目图像中的第二图像,包括:经第一神经网络对所述第一图像进行处理,输出N个通道的视差概率图;根据所述N个通道的视差概率图,得到N张偏移图;基于所述N个通道的视差概率图和所述N张偏移图,得到所述第二图像;
经第二神经网络,通过对所述第一图像与所述第二图像进行双目立体匹配,获取所述第一图像对应的深度信息。
2.根据权利要求1所述的方法,其特征在于,每个通道的视差概率图表示所述第一图像上像素向第一水平方向偏移i个视差的概率,i=0,1,…,N-1,N的取值为大于1的整数;
所述根据所述N个通道的视差概率图,得到N张偏移图,包括:
根据所述N个通道的视差概率图,将所述第一图像分别向第一水平方向偏移i个像素,得到N张偏移图;
所述基于所述N个通道的视差概率图和所述N张偏移图,得到所述第二图像,包括:
将所述N张偏移图中的各偏移图分别点乘对应通道的视差概率图,得到N个点乘结果;
将所述N个点乘结果基于像素进行叠加,得到所述第二图像。
3.根据权利要求2所述的方法,其特征在于,所述经第一神经网络对所述第一图像进行处理,输出N个通道的视差概率图,包括:
分别通过第一神经网络中的两个或两个以上网络深度的网络层对所述第一图像进行特征提取,获得两个或两个以上尺度的特征图;
基于所述两个或两个以上尺度的特征图分别获取两个或两个以上分辨率的、N个通道的初步视差概率图;
分别针对每个通道,将所述两个或两个以上分辨率的初步视差概率图放大至所述第一图像的分辨率下进行叠加,得到所述N个通道的视差概率图。
4.根据权利要求2所述的方法,其特征在于,所述第一图像中对应前景对象的像素在所述N个通道的视差概率图中的对应像素位置,在对应较大视差的通道的视差概率图中具有较大的概率值;所述第一图像中对应背景对象的像素在所述N个通道的视差概率图中的对应像素位置,在对应较小视差的通道的视差概率图中具有较大的概率值。
5.根据权利要求1-4任一所述的方法,其特征在于,通过对所述第一图像与所述第二图像进行双目立体匹配,获取所述第一图像对应的深度信息,包括:
获取用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数;所述双目图像中一个图像包括所述第一图像或所述第二图像,所述另一个图像对应包括所述第二图像或所述第一图像;
基于所述另一个图像与所述相关系数,生成所述第一图像与所述第二图像的视差图;
基于所述视差图获取所述第一图像对应的深度信息。
6.根据权利要求5所述的方法,其特征在于,所述获取用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数,包括:
分别对所述一个图像与所述另一个图像进行特征提取;
基于提取的所述一个图像的特征与所述另一个图像的特征,获取所述一个图像与所述另一个图像中像素的位置关系,并输出用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的所述相关系数。
7.根据权利要求6所述的方法,其特征在于,基于所述另一个图像与所述相关系数,生成第一图像与所述第二图像的视差图,包括:
将所述另一个图像的特征与所述相关系数进行叠加,生成所述第一图像与所述第二图像的视差图。
8.根据权利要求7所述的方法,其特征在于,将所述另一个图像的特征与所述相关系数进行叠加,生成所述第一图像与所述第二图像的视差图,包括:
将所述另一个图像的特征与所述相关系数进行叠加,得到叠加结果;
提取所述叠加结果的特征,并将提取的所述叠加结果的特征与所述叠加结果进行融合,获得所述第一图像与所述第二图像的视差图。
9.根据权利要求6所述的方法,其特征在于,所述基于所述视差图获取所述第一图像对应的深度信息,包括:
基于所述视差图、拍摄所述第一图像的相机的焦距和所述双目图像对应的双目相机之间的距离,获取所述第一图像对应的深度信息。
10.根据权利要求1-4任一所述的方法,其特征在于,还包括:
基于所述第一图像对应的所述深度信息与所述第二图像,获取所述第一图像中场景的三维空间场景。
11.根据权利要求5所述的方法,其特征在于,所述第一神经网络利用第一样本集中的样本双目图像预先训练而得,所述第一样本集包括至少一组第一样本双目图像;和/或,
所述第二神经网络利用第二样本集中的样本双目图像预先训练而得;所述第二样本集包括至少一组第二样本双目图像和视差图标签。
12.根据权利要求11所述的方法,其特征在于,所述第一神经网络的训练包括:
经所述第一神经网络,由所述至少一组第一样本双目图像中的第一图像,获取所述至少一组第一样本双目图像中的第二图像并输出;
获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间的第一差异,并基于所述第一差异对所述第一神经网络进行训练,直至满足第一训练完成条件。
13.根据权利要求12所述的方法,其特征在于,获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间的第一差异,并基于所述第一差异对所述第一神经网络进行训练,直至满足第一训练完成条件,包括:
获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间在像素上的第一差异;
基于所述第一差异调整所述第一神经网络中网络参数的参数值,直至满足第一训练完成条件;
所述第一训练完成条件包括:所述第一差异小于第一预设阈值,和/或,对所述第一神经网络的训练次数达到第一预设次数。
14.根据权利要求11所述的方法,其特征在于,所述第二神经网络的训练包括:
经所述第二神经网络,获取所述至少一组第二样本双目图像的视差图并输出;
获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间的第二差异,并基于所述第二差异对所述第二神经网络进行训练,直至满足第二训练完成条件。
15.根据权利要求14所述的方法,其特征在于,获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间的第二差异,并基于所述第二差异对所述第二神经网络进行训练,直至满足第二训练完成条件,包括:
获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间在像素上的第二差异;
基于所述第二差异调整所述第二神经网络中网络参数的参数值,直至满足第二训练完成条件;
所述第二训练完成条件包括:所述第二差异小于第二预设阈值,和/或,对所述第二神经网络的训练次数达到第二预设次数。
16.根据权利要求11所述的方法,其特征在于,所述第一神经网络和所述第二神经网络的训练还包括:
利用第三样本集中的样本双目图像和第三样本图像对应的深度图标签对所述第一神经网络和所述第二神经网络进行训练;
其中,所述第三样本集包括至少一组第三样本双目图像和第三样本图像对应的深度图标签。
17.根据权利要求16所述的方法,其特征在于,所述利用第三样本集中的样本双目图像和第三样本图像对应的深度图标签对所述第一神经网络和所述第二神经网络进行训练,包括:
经所述第一神经网络,由所述至少一组第三样本双目图像中的第一图像,获取所述至少一组第三样本双目图像中的第二图像;
经所述第二神经网络,获取所述至少一组第三样本双目图像的视差图;
基于所述至少一组第三样本双目图像的视差图获取至少一组深度信息;
获取所述至少一组深度信息与所述至少一组第三样本双目图像的深度图标签之间的第三差异;
基于所述第三差异调整所述第一神经网络和所述第二神经网络中网络参数的参数值,直至满足第三训练完成条件;
所述第三训练完成条件包括:所述第三差异小于第三预设阈值,和/或,对所述第一神经网络和所述第二神经网络的训练次数达到第三预设次数。
18.一种深度估计装置,其特征在于,包括:
图像获取模块,用于以单张图片作为双目图像中的第一图像,经第一神经网络对所述第一图像进行处理,输出N个通道的视差概率图;根据所述N个通道的视差概率图,得到N张偏移图;基于所述N个通道的视差概率图和所述N张偏移图,得到所述双目图像中的第二图像;
立体匹配模块,用于经第二神经网络,通过对所述第一图像与所述第二图像进行双目立体匹配,获取所述第一图像对应的深度信息。
19.根据权利要求18所述的装置,其特征在于,所述图像获取模块包括:
第一子神经网络单元,用于对所述第一图像进行处理,输出N个通道的视差概率图;其中,每个通道的视差概率图表示所述第一图像上像素向第一水平方向偏移i个视差的概率,i=0,1,…,N-1,N的取值为大于1的整数;
偏移单元,用于根据所述N个通道的视差概率图,将所述第一图像分别向第一水平方向偏移i个像素,得到N张偏移图;
点乘单元,用于将所述N张偏移图中的各偏移图分别点乘对应通道的视差概率图,得到N个点乘结果;
加法单元,用于将所述N个点乘结果基于像素进行叠加,得到所述第二图像。
20.根据权利要求19所述的装置,其特征在于,所述第一子神经网络单元,包括两个或两个以上网络深度的网络层,具体用于:
分别通过两个或两个以上网络深度的网络层对所述第一图像进行特征提取,获得两个或两个以上尺度的特征图;
基于所述两个或两个以上尺度的特征图分别获取两个或两个以上分辨率的、N个通道的初步视差概率图;
分别针对每个通道,将所述两个或两个以上分辨率的初步视差概率图放大至所述第一图像的分辨率下进行叠加,得到所述N个通道的视差概率图。
21.根据权利要求19所述的装置,其特征在于,所述第一图像中对应前景对象的像素在所述N个通道的视差概率图中的对应像素位置,在对应较大视差的通道的视差概率图中具有较大的概率值;所述第一图像中对应背景对象的像素在所述N个通道的视差概率图中的对应像素位置,在对应较小视差的通道的视差概率图中具有较大的概率值。
22.根据权利要求18-21任一所述的装置,其特征在于,所述立体匹配模块包括:
第一获取单元,用于获取用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的相关系数;所述双目图像中一个图像包括所述第一图像或所述第二图像,所述另一个图像对应包括所述第二图像或所述第一图像;
生成单元,用于基于所述另一个图像与所述相关系数,生成所述第一图像与所述第二图像的视差图;
第三获取单元,基于所述视差图获取所述第一图像对应的深度信息。
23.根据权利要求22所述的装置,其特征在于,所述第一获取单元,包括:
第二子神经网络单元,用于分别对所述一个图像与所述另一个图像进行特征提取;
获取子单元,用于基于提取的所述一个图像的特征与所述另一个图像的特征,获取所述一个图像与所述另一个图像中像素的位置关系,并输出用于表示所述双目图像中一个图像相对于另一个图像中像素的位置关系的所述相关系数。
24.根据权利要求23所述的装置,其特征在于,所述生成单元,具体用于将所述另一个图像的特征与所述相关系数进行叠加,生成所述第一图像与所述第二图像的视差图。
25.根据权利要求24所述的装置,其特征在于,所述生成单元,包括:
叠加子单元,用于将所述另一个图像的特征与所述相关系数进行叠加,得到叠加结果;
融合子单元,用于提取所述叠加结果的特征,并将提取的所述叠加结果的特征与所述叠加结果进行融合,获得所述第一图像与所述第二图像的视差图。
26.根据权利要求23所述的装置,其特征在于,所述第三获取单元,具体用于基于所述视差图、拍摄所述第一图像的相机的焦距和所述双目图像对应的双目相机之间的距离,获取所述第一图像对应的深度信息。
27.根据权利要求18-21任一所述的装置,其特征在于,还包括:
获取模块,用于基于所述第一图像对应的所述深度信息与所述第二图像,获取所述第一图像中场景的三维空间场景。
28.根据权利要求22所述的装置,其特征在于,所述第一神经网络利用第一样本集中的样本双目图像预先训练而得,所述第一样本集包括至少一组第一样本双目图像;和/或,
所述第二神经网络利用第二样本集中的样本双目图像预先训练而得;所述第二样本集包括至少一组第二样本双目图像和视差图标签。
29.根据权利要求28所述的装置,其特征在于,所述第一神经网络,用于由所述至少一组第一样本双目图像中的第一图像,获取所述至少一组第一样本双目图像中的第二图像并输出;
所述装置还包括:
第一训练模块,用于获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间的第一差异,并基于所述第一差异对所述第一神经网络进行训练,直至满足第一训练完成条件。
30.根据权利要求29所述的装置,其特征在于,所述第一训练模块,具体用于:
获取所述第一神经网络输出的第二图像与所述至少一组第一样本双目图像中的第二图像之间在像素上的第一差异;
基于所述第一差异调整所述第一神经网络中网络参数的参数值,直至满足第一训练完成条件;
所述第一训练完成条件包括:所述第一差异小于第一预设阈值,和/或,对所述第一神经网络的训练次数达到第一预设次数。
31.根据权利要求28-所述的装置,其特征在于,所述第二神经网络,用于获取所述至少一组第二样本双目图像的视差图并输出;
所述装置还包括:
第二训练模块,用于获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间的第二差异,并基于所述第二差异对所述第二神经网络进行训练,直至满足第二训练完成条件。
32.根据权利要求31所述的装置,其特征在于,所述第二训练模块,具体用于:
获取所述第二神经网络输出的视差图与所述至少一组第二样本双目图像的视差图标签之间在像素上的第二差异;
基于所述第二差异调整所述第二神经网络中网络参数的参数值,直至满足第二训练完成条件;
所述第二训练完成条件包括:所述第二差异小于第二预设阈值,和/或,对所述第二神经网络的训练次数达到第二预设次数。
33.根据权利要求28所述的装置,其特征在于,还包括:
第三训练模块,用于利用第三样本集中的样本双目图像和第三样本图像对应的深度图标签对所述第一神经网络和所述第二神经网络进行训练;
其中,所述第三样本集包括至少一组第三样本双目图像和第三样本图像对应的深度图标签。
34.根据权利要求33所述的装置,其特征在于,所述第一神经网络,用于由所述至少一组第三样本双目图像中的第一图像,获取所述至少一组第三样本双目图像中的第二图像;
所述第二神经网络,用于获取所述至少一组第三样本双目图像的视差图;
所述第三训练模块,具体用于:
基于所述至少一组第三样本双目图像的视差图获取至少一组深度信息;
获取所述至少一组深度信息与所述至少一组第三样本双目图像的深度图标签之间的第三差异;
基于所述第三差异调整所述第一神经网络和所述第二神经网络中网络参数的参数值,直至满足第三训练完成条件;
所述第三训练完成条件包括:所述第三差异小于第三预设阈值,和/或,对所述第一神经网络和所述第二神经网络的训练次数达到第三预设次数。
35.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及
处理器,用于与所述存储器通信以执行所述可执行指令从而完成权利要求1-17任一所述方法的操作。
36.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-17任一所述方法中各步骤的操作。
CN201810103195.0A 2018-02-01 2018-02-01 深度估计方法和装置、电子设备、程序和介质 Active CN108335322B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201810103195.0A CN108335322B (zh) 2018-02-01 2018-02-01 深度估计方法和装置、电子设备、程序和介质
KR1020207009470A KR102295403B1 (ko) 2018-02-01 2019-01-30 깊이 추정 방법 및 장치, 전자 기기, 프로그램 및 매체
JP2020517931A JP6951565B2 (ja) 2018-02-01 2019-01-30 深度推定方法及び装置、電子機器並びに媒体
PCT/CN2019/073820 WO2019149206A1 (zh) 2018-02-01 2019-01-30 深度估计方法和装置、电子设备、程序和介质
SG11202003141PA SG11202003141PA (en) 2018-02-01 2019-01-30 Depth estimation method and apparatus, electronic device, program, and medium
US16/835,418 US11308638B2 (en) 2018-02-01 2020-03-31 Depth estimation method and apparatus, electronic device, program, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810103195.0A CN108335322B (zh) 2018-02-01 2018-02-01 深度估计方法和装置、电子设备、程序和介质

Publications (2)

Publication Number Publication Date
CN108335322A CN108335322A (zh) 2018-07-27
CN108335322B true CN108335322B (zh) 2021-02-12

Family

ID=62928066

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810103195.0A Active CN108335322B (zh) 2018-02-01 2018-02-01 深度估计方法和装置、电子设备、程序和介质

Country Status (6)

Country Link
US (1) US11308638B2 (zh)
JP (1) JP6951565B2 (zh)
KR (1) KR102295403B1 (zh)
CN (1) CN108335322B (zh)
SG (1) SG11202003141PA (zh)
WO (1) WO2019149206A1 (zh)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108335322B (zh) * 2018-02-01 2021-02-12 深圳市商汤科技有限公司 深度估计方法和装置、电子设备、程序和介质
CN110622213B (zh) * 2018-02-09 2022-11-15 百度时代网络技术(北京)有限公司 利用3d语义地图进行深度定位和分段的系统和方法
CN109299656B (zh) * 2018-08-13 2021-10-22 浙江零跑科技股份有限公司 一种车载视觉系统场景视深确定方法
CN109598754B (zh) * 2018-09-29 2020-03-17 天津大学 一种基于深度卷积网络的双目深度估计方法
US10503966B1 (en) * 2018-10-11 2019-12-10 Tindei Network Technology (Shanghai) Co., Ltd. Binocular pedestrian detection system having dual-stream deep learning neural network and the methods of using the same
CN111209770B (zh) * 2018-11-21 2024-04-23 北京三星通信技术研究有限公司 一种车道线识别方法及装置
CN109754414A (zh) * 2018-12-27 2019-05-14 上海商汤智能科技有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
WO2020134229A1 (zh) * 2018-12-29 2020-07-02 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN109741388B (zh) * 2019-01-29 2020-02-28 北京字节跳动网络技术有限公司 用于生成双目深度估计模型的方法和装置
CN109840500B (zh) * 2019-01-31 2021-07-02 深圳市商汤科技有限公司 一种三维人体姿态信息检测方法及装置
CN110223334B (zh) * 2019-05-07 2021-09-14 深圳云天励飞技术有限公司 一种景深图获取方法及装置
CN109934307B (zh) * 2019-05-08 2021-04-09 北京奇艺世纪科技有限公司 视差图预测模型训练方法、预测方法、装置及电子设备
US11609187B2 (en) * 2019-05-15 2023-03-21 Getac Technology Corporation Artificial neural network-based method for selecting surface type of object
CN112434702A (zh) * 2019-08-26 2021-03-02 阿里巴巴集团控股有限公司 图像处理方法、装置、计算机设备、存储介质
US11348375B2 (en) 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection
US11294996B2 (en) 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
US20220383530A1 (en) * 2019-10-27 2022-12-01 Ramot At Tel-Aviv University Ltd. Method and system for generating a depth map
CN111047634B (zh) * 2019-11-13 2023-08-08 杭州飞步科技有限公司 场景深度的确定方法、装置、设备及存储介质
CN112991254A (zh) 2019-12-13 2021-06-18 上海肇观电子科技有限公司 视差估计系统、方法、电子设备及计算机可读存储介质
CN113034568B (zh) * 2019-12-25 2024-03-29 杭州海康机器人股份有限公司 一种机器视觉深度估计方法、装置、系统
CN111652922B (zh) * 2020-06-04 2023-09-08 江苏天宏机械工业有限公司 一种基于双目视觉的单目视频深度估计方法
US11275959B2 (en) * 2020-07-07 2022-03-15 Assa Abloy Ab Systems and methods for enrollment in a multispectral stereo facial recognition system
US11836965B2 (en) * 2020-08-12 2023-12-05 Niantic, Inc. Determining visual overlap of images by using box embeddings
CN112489103B (zh) * 2020-11-19 2022-03-08 北京的卢深视科技有限公司 一种高分辨率深度图获取方法及系统
CN112446328B (zh) * 2020-11-27 2023-11-17 汇纳科技股份有限公司 单目深度的估计系统、方法、设备及计算机可读存储介质
CN112903952B (zh) * 2021-01-21 2022-05-27 北京航空航天大学 一种金属板结构损伤评价系统和方法
CN112861940A (zh) * 2021-01-26 2021-05-28 上海西井信息科技有限公司 双目视差估计方法、模型训练方法以及相关设备
CN112949504B (zh) * 2021-03-05 2024-03-19 深圳市爱培科技术股份有限公司 立体匹配方法、装置、设备及存储介质
CN112967332B (zh) * 2021-03-16 2023-06-16 清华大学 基于门控成像的双目深度估计方法、装置及计算机设备
US11823402B2 (en) 2021-05-03 2023-11-21 Electronics And Telecommunications Research Institute Method and apparatus for correcting error in depth information estimated from 2D image
KR102641108B1 (ko) * 2021-08-03 2024-02-27 연세대학교 산학협력단 깊이맵 완성 장치 및 방법
CN113928282A (zh) * 2021-11-24 2022-01-14 扬州大学江都高端装备工程技术研究所 融合路面环境和车辆安全模型的辅助巡航主动刹车方法
CN114615507B (zh) * 2022-05-11 2022-09-13 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种图像编码方法、解码方法及相关装置
CN115937290B (zh) * 2022-09-14 2024-03-22 北京字跳网络技术有限公司 一种图像深度估计方法、装置、电子设备及存储介质
CN116129036B (zh) * 2022-12-02 2023-08-29 中国传媒大学 一种深度信息引导的全方向图像三维结构自动恢复方法
CN117726666A (zh) * 2024-02-08 2024-03-19 北京邮电大学 跨相机单目图片度量深度估计方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101907448A (zh) * 2010-07-23 2010-12-08 华南理工大学 一种基于双目三维视觉的深度测量方法
CN102750702A (zh) * 2012-06-21 2012-10-24 东华大学 基于优化bp神经网络模型的单目红外图像深度估计方法
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN106504190A (zh) * 2016-12-29 2017-03-15 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
CN106612427A (zh) * 2016-12-29 2017-05-03 浙江工商大学 一种基于卷积神经网络的时空一致性深度图序列的生成方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02101584A (ja) * 1988-10-11 1990-04-13 Nippon Telegr & Teleph Corp <Ntt> ステレオ画像処理方式
KR101691034B1 (ko) * 2010-08-03 2016-12-29 삼성전자주식회사 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법
CN102523464A (zh) * 2011-12-12 2012-06-27 上海大学 一种双目立体视频的深度图像估计方法
JP6210483B2 (ja) * 2012-04-26 2017-10-11 国立大学法人山口大学 立体内視鏡画像からの3次元形状取得装置
WO2016105541A1 (en) * 2014-12-24 2016-06-30 Reald Inc. Adjustment of perceived roundness in stereoscopic image of a head
US9811756B2 (en) * 2015-02-23 2017-11-07 Mitsubishi Electric Research Laboratories, Inc. Method for labeling images of street scenes
CN109314774B (zh) * 2016-07-06 2021-05-25 深圳市大疆创新科技有限公司 用于立体成像的系统和方法
GB2553782B (en) * 2016-09-12 2021-10-20 Niantic Inc Predicting depth from image data using a statistical model
CN107578435B (zh) * 2017-09-11 2019-11-29 清华-伯克利深圳学院筹备办公室 一种图像深度预测方法及装置
CN108335322B (zh) * 2018-02-01 2021-02-12 深圳市商汤科技有限公司 深度估计方法和装置、电子设备、程序和介质
RU2698402C1 (ru) * 2018-08-30 2019-08-26 Самсунг Электроникс Ко., Лтд. Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты)

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101907448A (zh) * 2010-07-23 2010-12-08 华南理工大学 一种基于双目三维视觉的深度测量方法
CN102750702A (zh) * 2012-06-21 2012-10-24 东华大学 基于优化bp神经网络模型的单目红外图像深度估计方法
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN106504190A (zh) * 2016-12-29 2017-03-15 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
CN106612427A (zh) * 2016-12-29 2017-05-03 浙江工商大学 一种基于卷积神经网络的时空一致性深度图序列的生成方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Cl'ement Godard 等.UnsupervisedMonocular Depth Estimation with Left-Right Consistency.《2017 IEEE Conference on Computer Vison and Pattern Recognition(CVPR)》.2017, *
Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue;Ravi Garg 等;《arXiv》;20160729;第1-16页 *
Unsupervised Learning of Depth and Ego-Motion from Video;Tinghui Zhou 等;《UnsupervisedMonocular Depth Estimation with Left-Right Consistency》;20170726;第270-279页第3节 *
基于径向基神经网络的立体匹配算法;戴玉超 等;《计算机应用研究》;20081130;第25卷(第11期);第3477-3479页第2节 *

Also Published As

Publication number Publication date
JP2020535547A (ja) 2020-12-03
KR102295403B1 (ko) 2021-08-31
KR20200049833A (ko) 2020-05-08
CN108335322A (zh) 2018-07-27
JP6951565B2 (ja) 2021-10-20
WO2019149206A1 (zh) 2019-08-08
US20200226777A1 (en) 2020-07-16
US11308638B2 (en) 2022-04-19
SG11202003141PA (en) 2020-05-28

Similar Documents

Publication Publication Date Title
CN108335322B (zh) 深度估计方法和装置、电子设备、程序和介质
US10334168B2 (en) Threshold determination in a RANSAC algorithm
CN110378838B (zh) 变视角图像生成方法,装置,存储介质及电子设备
CN109300151B (zh) 图像处理方法和装置、电子设备
JP5852093B2 (ja) 映像処理装置、映像処理方法、プログラム
JP7184748B2 (ja) 場面の積層深度データを生成するための方法
CN113724155B (zh) 用于自监督单目深度估计的自提升学习方法、装置及设备
CN112648994B (zh) 基于深度视觉里程计和imu的相机位姿估计方法及装置
US10586394B2 (en) Augmented reality depth sensing using dual camera receiver
CN115359173A (zh) 虚拟多视点视频生成方法、装置、电子设备和存储介质
CN112270701B (zh) 基于分组距离网络的视差预测方法、系统及存储介质
CN111598927B (zh) 一种定位重建方法和装置
CN116468768B (zh) 基于条件变分自编码器和几何引导的场景深度补全方法
Lee et al. Automatic 2d-to-3d conversion using multi-scale deep neural network
US11810308B2 (en) Vertical disparity detection in stereoscopic images using a deep neural network
Knorr et al. From 2D-to stereo-to multi-view video
CN115239559A (zh) 一种融合视图合成的深度图超分辨率方法及系统
CN114841870A (zh) 图像处理方法、相关装置和系统
CN113132706A (zh) 基于逆向映射的可控位置虚拟视点生成方法及装置
CN111539988B (zh) 一种视觉里程计实现方法、装置和电子设备
KR20220071935A (ko) 광학 흐름을 이용한 고해상도 깊이 영상 추정 방법 및 장치
CN116228829A (zh) 三维重建方法、装置和设备
CN117830369A (zh) 一种融合多线索深度信息的动态场景深度估计方法
CN116402878A (zh) 光场图像处理方法及装置
CN118052920A (zh) 渲染方法及装置、训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant