CN113014899B - 一种双目图像的视差确定方法、装置及系统 - Google Patents
一种双目图像的视差确定方法、装置及系统 Download PDFInfo
- Publication number
- CN113014899B CN113014899B CN201911330484.5A CN201911330484A CN113014899B CN 113014899 B CN113014899 B CN 113014899B CN 201911330484 A CN201911330484 A CN 201911330484A CN 113014899 B CN113014899 B CN 113014899B
- Authority
- CN
- China
- Prior art keywords
- binocular
- sample
- parallax
- image
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000003062 neural network model Methods 0.000 claims abstract description 70
- 238000001514 detection method Methods 0.000 claims abstract description 67
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims description 25
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 14
- 238000004590 computer program Methods 0.000 description 11
- 230000009286 beneficial effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本申请实施例提供了一种双目图像的视差确定方法、装置及系统,涉及立体视觉技术领域,可以使得双目图像的视差确定方法适用范围更广。本申请实施例的方案包括:获取待检测双目图像,待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像。然后将待检测双目图像输入视差检测模型,并获取视差检测模型检测的待检测双目图像之间的视差。其中,视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为基于测距设备获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差。
Description
技术领域
本申请涉及立体视觉技术领域,特别是涉及一种双目图像的视差确定方法、装置及系统。
背景技术
人在观察一个物体时,由于左眼和右眼之间存在间距,两眼的视角有着细微的差别,使得两眼观察的物体有一定的视差,这也是人之所以能够产生立体视觉效果的原因。
为使得相机能够获取到被摄对象的实际深度,使得拍摄的照片效果更真实,目前可以通过双目相机对同一场景进行拍摄,获得拍摄角度不同的两张照片,将这两张照片输入神经网络模型,通过神经网络模型获得这两张照片的视差,以获得更加真实的拍摄效果。
但是上述神经网络模型采用无监督的方式训练,通过神经网络模型预测的视差和双目照片中的其中一张照片进行图像重构,生成一张照片,并将生成的照片与实际的双目照片中的另一张照片进行对比,获得损失函数值,并基于损失函数值调整神经网络模型参数。可见,通过这种无监督的训练方法获得的神经网络模型在很多场景下并不适用,例如这种神经网络模型难以用于预测图像噪声过重、包括反光区域、大面积无纹理、或者前景背景遮挡等双目图像的视差。
发明内容
本申请实施例的目的在于提供一种双目图像的视差确定方法、装置及系统,以用以解决预测双目图像视差的适用范围较小问题。具体技术方案如下:
第一方面,本申请实施例提供了一种双目图像的视差确定方法,所述方法包括:
获取待检测双目图像,所述待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像;
将所述待检测双目图像输入视差检测模型,并获取所述视差检测模型检测的所述待检测双目图像之间的视差;
其中,所述视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为基于测距设备获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差。
可选的,所述每个样本双目图像对应的标准视差通过以下步骤获取:
通过测距设备,获取该样本双目图像中的其中一个样本图像包括的每个像素点对应的被摄对象相对于拍摄该样本双目图像的两个相机的标准深度,所述被摄对象到所述两个相机的标准深度相同;
对于所述样本图像包括的每个像素点,基于拍摄所述样本图像的第一相机的焦距、所述两个相机之间的基线长度以及该像素点对应的被摄对象相对于所述两个相机的标准深度,确定该像素点对应的标准视差。
可选的,所述通过测距设备,获取该样本双目图像中的其中一个样本图像包括的每个像素点对应的被摄对象相对于拍摄该样本双目图像的两个相机的标准深度,包括:
在所述第一相机拍摄所述样本图像的同时,利用所述测距设备获取所述样本图像画面中的各像素点在所述测距设备的坐标系下的坐标;
根据所述第一相机与所述测距设备的坐标系之间的第一坐标转换关系,将所述测距设备获取的各坐标映射到第一相机的坐标系,获得第一相机坐标系下的各像素点的坐标,所述第一相机坐标系下每个像素点的坐标包括该像素点对应的被摄对象与所述第一相机之间的水平距离、垂直距离和深度距离;
根据所述第一相机拍摄的图像坐标系与所述第一相机的坐标系之间的第二坐标转换关系,对于所述样本图像包括的每个像素点,获取该像素点的坐标在所述第一相机坐标系下对应的目标坐标,并从所述目标坐标中提取深度距离作为该像素点对应的被摄对象相对于所述两个相机的标准深度。
可选的,所述测距设备为下述高精度测距设备中的至少一种:激光雷达、飞行时间测距TOF相机和结构光相机;所述高精度测距设备的精度范围包括厘米级和/或毫米级。
可选的,所述视差检测模型通过以下方式训练获得:
获取多个样本双目图像,并获取每个样本双目图像对应的标准视差;
将所述多个样本双目图像输入所述神经网络模型;
获取所述神经网络模型对输入的样本双目图像检测的视差;
基于所述神经网络模型对输入的样本双目图像检测的视差和输入的样本图像对应的标准视差,计算损失函数值;
根据所述损失函数值判断所述神经网络模型是否收敛;
若所述神经网络模型收敛,则得到所述视差检测模型;
若所述神经网络模型未收敛,则调整所述神经网络模型包括的各网络层对应的权重参数,进行下一次训练。
可选的,在所述获取所述视差检测模型检测的所述待检测双目图像之间的视差之后,所述方法还包括:
根据所述视差,计算所述待检测双目图像对应的被摄对象的深度,得到所述待检测双目图像对应的被摄对象在目标坐标系下的坐标,所述目标坐标系为拍摄所述待检测双目图像的两个相机中任一相机的坐标系;
根据所述待检测双目图像对应的被摄对象在所述目标坐标系下的坐标,生成高精度地图。
可选的,所述待检测双目图像为安装在车辆上的双目相机在所述车辆行驶过程中拍摄的图像;在所述获取所述视差检测模型检测的所述待检测双目图像之间的视差之后,所述方法还包括:
根据所述视差,计算所述待检测双目图像对应的被摄对象的深度;
在所述待检测双目图像对应的被摄对象的深度小于预设阈值时,指示所述车辆执行避让操作。
第二方面,本申请实施例提供了一种双目图像的视差确定装置,所述装置包括:
获取模块,被配置为获取待检测双目图像,所述待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像;
输入模块,被配置为将所述获取模块获取的所述待检测双目图像输入视差检测模型,并获取所述视差检测模型检测的所述待检测双目图像之间的视差;
其中,所述视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为基于测距设备获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差。
可选的,所述获取模块,还被配置为:
通过测距设备,获取该样本双目图像中的其中一个样本图像包括的每个像素点对应的被摄对象相对于拍摄该样本双目图像的两个相机的标准深度,所述被摄对象到所述两个相机的标准深度相同;
对于所述样本图像包括的每个像素点,基于拍摄所述样本图像的第一相机的焦距、所述两个相机之间的基线长度以及该像素点对应的被摄对象相对于所述两个相机的标准深度,确定该像素点对应的标准视差。
可选的,所述获取模块,具体被配置为:
在所述第一相机拍摄所述样本图像的同时,利用所述测距设备获取所述样本图像画面中的各像素点在所述测距设备的坐标系下的坐标;
根据所述第一相机与所述测距设备的坐标系之间的第一坐标转换关系,将所述测距设备获取的各坐标映射到第一相机的坐标系,获得第一相机坐标系下的各像素点的坐标,所述第一相机坐标系下每个像素点的坐标包括该像素点对应的被摄对象与所述第一相机之间的水平距离、垂直距离和深度距离;
根据所述第一相机拍摄的图像坐标系与所述第一相机的坐标系之间的第二坐标转换关系,对于所述样本图像包括的每个像素点,获取该像素点的坐标在所述第一相机坐标系下对应的目标坐标,并从所述目标坐标中提取深度距离作为该像素点对应的被摄对象相对于所述两个相机的标准深度。
可选的,所述测距设备为下述高精度测距设备中的至少一种:激光雷达、飞行时间测距TOF相机和结构光相机;所述高精度测距设备的精度范围包括厘米级和/或毫米级。
可选的,所述装置还包括训练模块,所述训练模块,被配置为:
获取多个样本双目图像,并获取每个样本双目图像对应的标准视差;
将所述多个样本双目图像输入所述神经网络模型;
获取所述神经网络模型对输入的样本双目图像检测的视差;
基于所述神经网络模型对输入的样本双目图像检测的视差和输入的样本图像对应的标准视差,计算损失函数值;
根据所述损失函数值判断所述神经网络模型是否收敛;
若所述神经网络模型收敛,则得到所述视差检测模型;
若所述神经网络模型未收敛,则调整所述神经网络模型包括的各网络层对应的权重参数,进行下一次训练。
可选的,所述装置还包括:计算模块和生成模块;
所述计算模块,被配置为在所述获取所述视差检测模型检测的所述待检测双目图像之间的视差之后,根据所述视差,计算所述待检测双目图像对应的被摄对象的深度,得到所述待检测双目图像对应的被摄对象在目标坐标系下的坐标,所述目标坐标系为拍摄所述待检测双目图像的两个相机中任一相机的坐标系;
所述生成模块,被配置为根据所述待检测双目图像对应的被摄对象在所述目标坐标系下的坐标,生成高精度地图。
可选的,所述待检测双目图像为安装在车辆上的双目相机在所述车辆行驶过程中拍摄的图像;所述装置还包括:计算模块和指示模块;
所述计算模块,被配置为在所述获取所述视差检测模型检测的所述待检测双目图像之间的视差之后,根据所述视差,计算所述待检测双目图像对应的被摄对象的深度;
所述指示模块,被配置为在所述待检测双目图像对应的被摄对象的深度小于预设阈值时,指示所述车辆执行避让操作。
第三方面,本申请实施例还提供了一种双目图像的视差确定系统,所述系统包括:测距设备、双目相机、处理模块和进行部件;其中,
所述双目相机,用于在所属的车辆行驶过程中拍摄待检测双目图像,并向所述处理模块发送所述待检测双目图像,所述待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像;
所述处理模块,用于获取所述待检测双目图像;将所述待检测双目图像输入视差检测模型,并获取所述视差检测模型检测的所述待检测双目图像之间的视差;其中,所述视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为:基于所述测距设备获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差;
所述处理模块,还用于根据所述视差,对所述车辆进行导航,以使得所述进行部件执行避让所述被摄对象的操作。
可选的,所述测距设备为下述高精度测距设备中的至少一种:激光雷达、飞行时间测距TOF相机和结构光相机;所述高精度测距设备的精度范围包括厘米级和/或毫米级。
第四方面,本申请实施例提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一双目图像的视差确定方法的步骤。
第五方面,本申请实施例提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一双目图像的视差确定方法的步骤。
第六方面,本申请实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一双目图像的视差确定方法。
本申请实施例可以包括以下有益效果:本申请实施例中的视差检测模型可以通过多个样本双目图像和每个样本双目图像对应的标准视差进行训练,由于每个样本双目图像对应的标准视差为基于测距设备获取的该样本双目图像拍摄的场景的标准深度计算的该样本双目图像的视差,而测距设备可以测量各种场景中对象的标准深度,使得本申请实施例中的视差检测模型适用范围更广,本申请实施例提供的双目图像的视差确定方法适用范围更广。
当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种双目图像的视差确定系统的结构示意图;
图2为本申请实施例提供的一种双目图像的视差确定方法的流程图;
图3为本申请实施例提供的另一种双目图像的视差确定方法的流程图;
图4为本申请实施例提供的另一种双目图像的视差确定方法的流程图;
图5为本申请实施例提供的另一种双目图像的视差确定方法的流程图;
图6为本申请实施例提供的另一种双目图像的视差确定方法的流程图;
图7为本申请实施例提供的一种双目图像的视差确定装置的结构示意图;
图8为本申请实施例提供的另一种双目图像的视差确定系统的结构示意图;
图9为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种双目图像的视差确定系统,该系统包括:测距设备101、双目相机102和处理模块103;
其中,处理模块103用于计算双目相机102拍摄的双目图像的视差。
双目相机102用于拍摄双目图像。
测距设备101用于测量双目图像对应的拍摄场景内各被摄对象相对于测距设备的标准深度。
可选的,测距设备101可以为以下高精度测距设备中的至少一种:激光雷达、飞行时间测距(time-of-flight,TOF)相机和结构光相机。高精度测距设备还可以为其他测距设备,本申请实施例对此不作具体限定。高精度测距设备的精度范围包括厘米级和/或毫米级。
激光雷达可以向目标发射探测信号,然后将接收到的从目标反射回来的信号与探测信号进行对比,可以获取到目标相对于激光雷达的深度、目标的形状、和目标的移动速度等。激光雷达的测距精度可以达到厘米级,且激光雷达的测距精度与目标相对于激光雷达的深度无关。
TOF相机可以向目标发射红外线光,然后将接收到的从目标反射回来的红外线光与发射的红外线光进行对比,可以获取到目标相对于TOF相机的深度。TOF的测距精度也可以达到厘米级。
结构光相机可以将已知编码图案的光信息投影到目标后,通过相机采集投影后的光信息,可以获得目标相对于结构光相机的深度和目标的形状等。
在一种可能的实施方式中,测距设备101、双目相机102和处理模块103可以分别部署在不同的设备中,也可以部署在同一设备中,本申请实施例对此不作具体限定。
需要说明的是,图1中的测距设备101设置在双目相机102的上方,在具体的实施方式中,测距设备101也可以设置在其他位置,本申请实施例对此不作具体限定。
参见图2,本申请实施例提供了一种双目图像的视差确定方法,该方法应用于图1所示的双目图像的视差确定系统的处理模块,该方法包括:
步骤201,获取待检测双目图像。
其中,待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像。
步骤202,将待检测双目图像输入视差检测模型,并获取视差检测模型检测的待检测双目图像之间的视差。
其中,视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为基于测距设备获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差。
例如,神经网络模型可以是卷积神经网络(Convolutional Neural Networks,CNN)模型,还可以是残差网络(Residual Network)模型。
本申请实施例可以包括以下有益效果:本申请实施例中的视差检测模型可以通过多个样本双目图像和每个样本双目图像对应的标准视差进行训练,由于每个样本双目图像对应的标准视差为基于测距设备获取的该样本双目图像拍摄的场景的标准深度计算的该样本双目图像的视差,而测距设备可以测量各种场景中对象的标准深度,使得本申请实施例中的视差检测模型适用范围更广,本申请实施例提供的双目图像的视差确定方法适用范围更广。
可选的,参见图3,步骤202中的视差检测模型通过以下方式训练获得:
步骤301,获取多个样本双目图像,并获取每个样本双目图像对应的标准视差。
步骤302,将多个样本双目图像输入神经网络模型。
步骤303,获取神经网络模型对输入的样本双目图像检测的视差。
步骤304,基于神经网络模型对输入的样本双目图像检测的视差和输入的样本图像对应的标准视差,计算损失函数值。
步骤305,根据损失函数值判断神经网络模型是否收敛。若神经网络模型收敛,则得到视差检测模型;若神经网络模型未收敛,则执行步骤306。
可选的,可以判断上一次计算的损失函数值与当前计算的损失函数值的第一差值是否小于预设差值。若第一差值小于预设差值,则确定神经网络模型收敛;若第一差值不小于预设差值,则确定神经网络模型未收敛。
可以理解的,若第一差值不小于预设差值,说明损失函数值下降较快,此时神经网络模型对输入的样本双目图像检测的视差与标准视差相似度较低,检测的准确度较低,所以此时神经网络模型未收敛。若第一差值小于预设差值,说明损失函数值下降缓慢,此时神经网络模型对输入的样本双目图像检测的视差与标准视差相似度较高,检测的准确度较高,所以此时神经网络模型收敛。
步骤306,调整神经网络模型包括的各网络层对应的权重参数,进行下一次训练。
可以理解的,可以调整神经网络模型的各网络层对应的权重参数,然后将样本双目图像输入调整后的神经网络模型,并判断神经网络模型是否收敛,直到神经网络模型收敛,得到视差检测模型。
本申请实施例还可以包括以下有益效果:由于本申请实施例可以利用样本双目图像的标准视差计算模型的损失函数值,使得视差检测模型检测的视差更接近样本双目图像的标准视差,使得视差检测模型检测的视差更准确。
可选的,参见图4,上述步骤301中的每个样本双目图像对应的标准视差通过以下步骤获取:
步骤401,通过测距设备,获取该样本双目图像中的其中一个样本图像包括的每个像素点对应的被摄对象相对于拍摄该样本双目图像的两个相机的标准深度。其中,被摄对象到两个相机的标准深度相同。
一种实施方式中,标准深度可以通过以下三个步骤获取:
步骤一、在第一相机拍摄样本图像的同时,利用测距设备获取样本图像画面中的各像素点在测距设备的坐标系下的坐标。
步骤二、根据拍摄样本图像的第一相机与测距设备的坐标系之间的第一坐标转换关系,将测距设备获取的各坐标映射到第一相机的坐标系,获得第一相机坐标系下的各像素点的坐标。
可选的,第一相机可以为双目相机中的任意一个相机。
可选的,可以预先对测距设备和第一相机进行标定,获取第一相机的坐标系与测距设备的坐标系之间的第一坐标转换关系。在标定完成后,测距设备的坐标系下的三维点(x’,y’,z’)坐标可以与第一相机的坐标系下的三维点(x,y,z)坐标相互转换。
可选的,以测距设备为雷达为例,对雷达和第一相机进行标定包括:在第一相机的拍摄画面内放置标定板。获取第一相机坐标系下标定板所在的平面方程,并获取雷达坐标系下标定板所在的平面方程,并基于两个平面方程,计算得到第一相机的坐标系与雷达坐标系之间的第一坐标转换关系。
其中,第一相机坐标系下每个像素点的坐标包括该像素点对应的被摄对象与第一相机之间的水平距离、垂直距离和深度距离。
例如,第一相机坐标系下每个像素点的坐标可以为三维点(x,y,z)坐标,其中,x表示该像素点对应的被摄对象与第一相机之间的水平距离,y表示该像素点对应的被摄对象与第一相机之间的竖直距离,z表示该像素点对应的被摄对象与第一相机之间的深度距离。
步骤三、根据第一相机拍摄的图像坐标系与第一相机的坐标系之间的第二坐标转换关系,对于样本图像包括的每个像素点,获取该像素点的坐标在第一相机坐标系下对应的目标坐标,并从目标坐标中提取深度距离作为该像素点对应的被摄对象相对于两个相机的标准深度。
可选的,可以利用张正友标定算法,预先对第一相机和第二相机进行标定,获取第一相机拍摄的图像坐标系与第一相机的坐标系之间的第二坐标转换关系。标定完成后,第一相机拍摄的图像坐标系下的二维点(u,v)坐标可以与第一相机的坐标系下的三维点(x,y,z)坐标相互转换。
可选的,对第一相机和第二相机进行标定包括:在第一相机和第二相机的拍摄画面内放置标定板。获取第一相机坐标系下标定板中各点的三维坐标,并获取第二相机坐标系下标定板中各点的三维坐标,基于同一个点在两个相机坐标系下的三维坐标,计算得到第一相机的坐标系与第二坐标系之间的第一坐标转换关系、第一相机拍摄的图像坐标系与第一相机的坐标系之间的第二坐标转换关系,以及第二相机的坐标系与第二相机拍摄的图像之间的坐标转换关系。
步骤402,对于样本图像包括的每个像素点,基于拍摄样本图像的第一相机的焦距、两个相机之间的基线长度以及该像素点对应的被摄对象相对于两个相机的标准深度,确定该像素点对应的标准视差。
在本申请实施例中,双目相机在拍摄双目图像时的焦距相同。
一种实施方式中,可以通过公式(1)计算每个像素点对应的标准视差:
Ai=fb/Bi (1)
其中,Ai为第i个像素点对应的标准视差,f为拍摄样本图像的第一相机的焦距,b为两个相机之间的基线长度,Bi为第i个像素点对应的被摄对象相对于两个相机的标准深度。
本申请实施例的技术方案还可以带来以下有益效果:由于可以通过测距设备准确地获取到样本双目图像的标准视差,而本申请实施例中的视差检测模型是根据样本双目图像的标准视差训练的,使得视差检测模型检测的视差与标准视差相似度较高,所以利用本申请实施例获取的视差更接近与通过测距设备获取到的标准视差。而测距设备的成本较高,本申请实施例在检测待检测双目图像的视差时不需要用到测距设备,所以本申请实施例还在获取到准确的视差的同时,减少了成本。
进一步的,由于本申请实施例可以通过视差检测模型更准确地获取到双目图像的视差,而通过公式(1)可知,被摄对象的深度可以通过双目图像的视差获取,所以本申请实施例还能够更准确地获取到被摄对象的深度。而在很多场景中都需要获取被摄对象的深度,例如:在骑车避障、行人运动模式识别、以及路径规划等场景。所以本申请实施例还能提高双目相机的深度测距的准确度,且与利用高精度测距设备测距的方式相比,本申请实施例的成本更低。
可选的,处理模块获取到待检测双目图像之间的视差之后,还可以利用视差,制作高精度地图。参见图5,生成高精度地图的方式包括以下步骤。
步骤501,根据视差,计算待检测双目图像对应的被摄对象的深度,得到待检测双目图像对应的被摄对象在目标坐标系下的坐标。
其中,目标坐标系为拍摄待检测双目图像的两个相机中任一相机的坐标系。
一种实施方式中,可以通过公式(2)计算待检测双目图像对应的被摄对象的深度:
Bi=fb/Ai (2)
其中,Bi为第i个像素点对应的被摄对象相对于双目相机的深度,f为双目相机的焦距,b为双目相机之间的基线长度,Ai为第i个像素点的视差。
可以理解的,相机的坐标系为三维坐标系(x,y,z),其中,x表示被摄对象与相机之间的水平距离,y表示被摄对象与相机之间的垂直距离,z表示被摄对象与相机之间的深度距离。由于相机拍摄的画面是平面图,被摄对象与相机之间的水平距离x以及被摄对象与相机之间的垂直距离y能够被获得,但被摄对象与相机之间的垂直距离z无法被获得。而本申请实施例能够计算得到的被摄对象的深度,即能够得到被摄对象在目标坐标系下的坐标的z。
步骤502,根据待检测双目图像对应的被摄对象在目标坐标系下的坐标,生成高精度地图。
可以理解的,可以依据待检测双目图像对应的各个被摄对象之间的相对位置,生成高精度地图。
本申请实施例的技术方案还可以带来以下有益效果:由于本申请实施例能够获取到待检测双目图像对应的被摄对象更准确的坐标,使得通过本申请实施例生成的高精度地图更准确。
可选的,本申请实施例中的待检测双目图像可以为安装在车辆上的双目相机在车辆行驶过程中拍摄的图像,使得处理模块获取到待检测双目图像之间的视差之后,还可以根据视差进行导航。参见图6,对车辆进行导航的步骤包括:
步骤601,根据视差,计算待检测双目图像对应的被摄对象的深度。
一种实施方式中,可以通过上述公式(2)计算待检测双目图像对应的被摄对象的深度。
步骤602,在待检测双目图像对应的被摄对象的深度小于预设阈值时,指示车辆执行避让操作。
一种实施方式中,处理模块可以在待检测双目图像对应的被摄对象的深度小于预设阈值时,向进行部件发送避让指令。进行部件在接收到避让指令时,执行避让操作,以使得该车辆避让被摄对象。
例如,预设阈值可以为1米。
本申请实施例的技术方案还可以带来以下有益效果:由于本申请实施例能够确定被摄对象的深度,在被摄对象与车辆的距离过近时,指示车辆执行避让操作,实现辅助驾驶的功能。所以利用本申请实施例能够使得车辆的行驶更加安全。
对应于上述方法实施例,参见图7,本申请还提供了一种双目图像的视差确定装置,该装置包括:获取模块701和输入模块702;
获取模块701,被配置为获取待检测双目图像,待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像;
输入模块702,被配置为将获取模块701获取的待检测双目图像输入视差检测模型,并获取视差检测模型检测的待检测双目图像之间的视差;
其中,视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为基于测距设备获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差。
可选的,获取模块701,还可以被配置为:
通过测距设备,获取该样本双目图像中的其中一个样本图像包括的每个像素点对应的被摄对象相对于拍摄该样本双目图像的两个相机的标准深度,被摄对象到两个相机的标准深度相同;
对于样本图像包括的每个像素点,基于拍摄样本图像的第一相机的焦距、两个相机之间的基线长度以及该像素点对应的被摄对象相对于两个相机的标准深度,确定该像素点对应的标准视差。
可选的,获取模块701,可以具体被配置为:
在第一相机拍摄样本图像的同时,利用测距设备获取样本图像画面中的各像素点在测距设备的坐标系下的坐标;
根据第一相机与测距设备的坐标系之间的第一坐标转换关系,将测距设备获取的各坐标映射到第一相机的坐标系,获得第一相机坐标系下的各像素点的坐标,第一相机坐标系下每个像素点的坐标包括该像素点对应的被摄对象与第一相机之间的水平距离、垂直距离和深度距离;
根据第一相机拍摄的图像坐标系与第一相机的坐标系之间的第二坐标转换关系,对于样本图像包括的每个像素点,获取该像素点的坐标在第一相机坐标系下对应的目标坐标,并从目标坐标中提取深度距离作为该像素点对应的被摄对象相对于两个相机的标准深度。
可选的,测距设备为下述高精度测距设备中的至少一种:激光雷达、飞行时间测距TOF相机和结构光相机,高精度测距设备的精度范围包括厘米级和/或毫米级。
可选的,装置还可以包括训练模块,训练模块,可以被配置为:
获取多个样本双目图像,并获取每个样本双目图像对应的标准视差;
将多个样本双目图像输入神经网络模型;
获取神经网络模型对输入的样本双目图像检测的视差;
基于神经网络模型对输入的样本双目图像检测的视差和输入的样本图像对应的标准视差,计算损失函数值;
根据损失函数值判断神经网络模型是否收敛;
若神经网络模型收敛,则得到视差检测模型;
若神经网络模型未收敛,则调整神经网络模型包括的各网络层对应的权重参数,进行下一次训练。
可选的,该装置还可以包括:计算模块和生成模块;
计算模块,被配置为在获取视差检测模型检测的待检测双目图像之间的视差之后,根据视差,计算待检测双目图像对应的被摄对象的深度,得到待检测双目图像对应的被摄对象在目标坐标系下的坐标,目标坐标系为拍摄待检测双目图像的两个相机中任一相机的坐标系;
生成模块,被配置为根据待检测双目图像对应的被摄对象在目标坐标系下的坐标,生成高精度地图。
可选的,待检测双目图像为安装在车辆上的双目相机在车辆行驶过程中拍摄的图像;该装置还可以包括:计算模块和指示模块;
计算模块,被配置为在获取视差检测模型检测的待检测双目图像之间的视差之后,根据视差,计算待检测双目图像对应的被摄对象的深度;
指示模块,被配置为在待检测双目图像对应的被摄对象的深度小于预设阈值时,指示车辆执行避让操作。
本申请实施例还提供了一种双目图像的视差确定系统,参见图8,该系统包括:测距设备801、双目相机802、处理模块803和进行部件804;其中,
双目相机802,用于在所属的车辆行驶过程中拍摄待检测双目图像,并向处理模块803发送待检测双目图像,待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像;
处理模块803,用于获取待检测双目图像;将待检测双目图像输入视差检测模型,并获取视差检测模型检测的待检测双目图像之间的视差;其中,视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为:基于测距设备801获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差;
处理模块803,还用于根据视差,对车辆进行导航,以使得进行部件804执行避让被摄对象的操作。
可选的,测距设备801为下述高精度测距设备中的至少一种:激光雷达、飞行时间测距TOF相机和结构光相机;高精度测距设备的精度范围包括厘米级和/或毫米级。
本申请实施例还提供了一种电子设备,如图9所示,包括处理器901、通信接口902、存储器903和通信总线904,其中,处理器901,通信接口902,存储器903通过通信总线904完成相互间的通信,
存储器903,用于存放计算机程序;
处理器901,用于执行存储器903上所存放的程序时,实现上述方法实施例中由处理模块执行的步骤。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一双目图像的视差确定方法的步骤。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一双目图像的视差确定方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
Claims (11)
1.一种双目图像的视差确定方法,其特征在于,所述方法包括:
获取待检测双目图像,所述待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像;
将所述待检测双目图像输入视差检测模型,并获取所述视差检测模型检测的所述待检测双目图像之间的视差;
其中,所述视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为:基于测距设备获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差;
其中,所述测距设备为下述高精度测距设备中的至少一种:激光雷达、飞行时间测距TOF相机和结构光相机;所述高精度测距设备的精度范围包括厘米级和/或毫米级;
所述每个样本双目图像对应的标准视差通过以下步骤获取:
通过测距设备,获取该样本双目图像中的其中一个样本图像包括的每个像素点对应的被摄对象相对于拍摄该样本双目图像的两个相机的标准深度,所述被摄对象到所述两个相机的标准深度相同;
对于所述样本图像包括的每个像素点,基于拍摄所述样本图像的第一相机的焦距、所述两个相机之间的基线长度以及该像素点对应的被摄对象相对于所述两个相机的标准深度,确定该像素点对应的标准视差。
2.根据权利要求1所述的方法,其特征在于,所述通过测距设备,获取该样本双目图像中的其中一个样本图像包括的每个像素点对应的被摄对象相对于拍摄该样本双目图像的两个相机的标准深度,包括:
在所述第一相机拍摄所述样本图像的同时,利用所述测距设备获取所述样本图像画面中的各像素点在所述测距设备的坐标系下的坐标;
根据所述第一相机与所述测距设备的坐标系之间的第一坐标转换关系,将所述测距设备获取的各坐标映射到第一相机坐标系,获得所述第一相机坐标系下的各像素点的坐标,所述第一相机坐标系下每个像素点的坐标包括该像素点对应的被摄对象与所述第一相机之间的水平距离、垂直距离和深度距离;
根据所述第一相机拍摄的图像坐标系与所述第一相机坐标系之间的第二坐标转换关系,对于所述样本图像包括的每个像素点,获取该像素点的坐标在所述第一相机坐标系下对应的目标坐标,并从所述目标坐标中提取深度距离作为该像素点对应的被摄对象相对于所述两个相机的标准深度。
3.根据权利要求1或2所述的方法,其特征在于,所述视差检测模型通过以下方式训练获得:
获取多个样本双目图像,并获取每个样本双目图像对应的标准视差;
将所述多个样本双目图像输入所述神经网络模型;
获取所述神经网络模型对输入的样本双目图像检测的视差;
基于所述神经网络模型对输入的样本双目图像检测的视差和输入的样本图像对应的标准视差,计算损失函数值;
根据所述损失函数值判断所述神经网络模型是否收敛;
若所述神经网络模型收敛,则得到所述视差检测模型;
若所述神经网络模型未收敛,则调整所述神经网络模型包括的各网络层对应的权重参数,进行下一次训练。
4.根据权利要求1或2所述的方法,其特征在于,在所述获取所述视差检测模型检测的所述待检测双目图像之间的视差之后,所述方法还包括:
根据所述视差,计算所述待检测双目图像对应的被摄对象的深度,得到所述待检测双目图像对应的被摄对象在目标坐标系下的坐标,所述目标坐标系为拍摄所述待检测双目图像的两个相机中任一相机的坐标系;
根据所述待检测双目图像对应的被摄对象在所述目标坐标系下的坐标,生成高精度地图。
5.根据权利要求1或2所述的方法,其特征在于,所述待检测双目图像为安装在车辆上的双目相机在所述车辆行驶过程中拍摄的图像;在所述获取所述视差检测模型检测的所述待检测双目图像之间的视差之后,所述方法还包括:
根据所述视差,计算所述待检测双目图像对应的被摄对象的深度;
在所述待检测双目图像对应的被摄对象的深度小于预设阈值时,指示所述车辆执行避让操作。
6.一种双目图像的视差确定装置,其特征在于,所述装置包括:
获取模块,被配置为获取待检测双目图像,所述待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像;
输入模块,被配置为将所述获取模块获取的所述待检测双目图像输入视差检测模型,并获取所述视差检测模型检测的所述待检测双目图像之间的视差;
其中,所述视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为基于测距设备获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差;
其中,所述测距设备为下述高精度测距设备中的至少一种:激光雷达、飞行时间测距TOF相机和结构光相机;所述高精度测距设备的精度范围包括厘米级和/或毫米级;
所述获取模块,还被配置为:
通过测距设备,获取该样本双目图像中的其中一个样本图像包括的每个像素点对应的被摄对象相对于拍摄该样本双目图像的两个相机的标准深度,所述被摄对象到所述两个相机的标准深度相同;
对于所述样本图像包括的每个像素点,基于拍摄所述样本图像的第一相机的焦距、所述两个相机之间的基线长度以及该像素点对应的被摄对象相对于所述两个相机的标准深度,确定该像素点对应的标准视差。
7.根据权利要求6所述的装置,其特征在于,所述获取模块,具体被配置为:
在所述第一相机拍摄所述样本图像的同时,利用所述测距设备获取所述样本图像画面中的各像素点在所述测距设备的坐标系下的坐标;
根据所述第一相机与所述测距设备的坐标系之间的第一坐标转换关系,将所述测距设备获取的各坐标映射到第一相机的坐标系,获得第一相机坐标系下的各像素点的坐标,所述第一相机坐标系下每个像素点的坐标包括该像素点对应的被摄对象与所述第一相机之间的水平距离、垂直距离和深度距离;
根据所述第一相机拍摄的图像坐标系与所述第一相机的坐标系之间的第二坐标转换关系,对于所述样本图像包括的每个像素点,获取该像素点的坐标在所述第一相机坐标系下对应的目标坐标,并从所述目标坐标中提取深度距离作为该像素点对应的被摄对象相对于所述两个相机的标准深度。
8.根据权利要求6或7所述的装置,其特征在于,所述装置还包括训练模块,所述训练模块,被配置为:
获取多个样本双目图像,并获取每个样本双目图像对应的标准视差;
将所述多个样本双目图像输入所述神经网络模型;
获取所述神经网络模型对输入的样本双目图像检测的视差;
基于所述神经网络模型对输入的样本双目图像检测的视差和输入的样本图像对应的标准视差,计算损失函数值;
根据所述损失函数值判断所述神经网络模型是否收敛;
若所述神经网络模型收敛,则得到所述视差检测模型;
若所述神经网络模型未收敛,则调整所述神经网络模型包括的各网络层对应的权重参数,进行下一次训练。
9.根据权利要求6或7所述的装置,其特征在于,所述装置还包括:计算模块和生成模块;
所述计算模块,被配置为在所述获取所述视差检测模型检测的所述待检测双目图像之间的视差之后,根据所述视差,计算所述待检测双目图像对应的被摄对象的深度,得到所述待检测双目图像对应的被摄对象在目标坐标系下的坐标,所述目标坐标系为拍摄所述待检测双目图像的两个相机中任一相机的坐标系;
所述生成模块,被配置为根据所述待检测双目图像对应的被摄对象在所述目标坐标系下的坐标,生成高精度地图。
10.根据权利要求6或7所述的装置,其特征在于,所述待检测双目图像为安装在车辆上的双目相机在所述车辆行驶过程中拍摄的图像;所述装置还包括:计算模块和指示模块;
所述计算模块,被配置为在所述获取所述视差检测模型检测的所述待检测双目图像之间的视差之后,根据所述视差,计算所述待检测双目图像对应的被摄对象的深度;
所述指示模块,被配置为在所述待检测双目图像对应的被摄对象的深度小于预设阈值时,指示所述车辆执行避让操作。
11.一种双目图像的视差确定系统,其特征在于,所述系统包括:测距设备、双目相机、处理模块和进行部件;其中,
所述双目相机,用于在所属的车辆行驶过程中拍摄待检测双目图像,并向所述处理模块发送所述待检测双目图像,所述待检测双目图像为同一被摄对象对应的两个不同角度的拍摄图像;
所述处理模块,用于获取所述待检测双目图像;将所述待检测双目图像输入视差检测模型,并获取所述视差检测模型检测的所述待检测双目图像之间的视差;其中,所述视差检测模型为基于多个样本双目图像和每个样本双目图像对应的标准视差对神经网络模型进行训练后得到的模型,每个样本双目图像对应的标准视差为:基于所述测距设备获取的该样本双目图像对应的被摄对象的标准深度,计算的该样本双目图像的视差;
所述处理模块,还用于根据所述视差,对所述车辆进行导航,以使得所述进行部件执行避让所述被摄对象的操作;
其中,所述测距设备为下述高精度测距设备中的至少一种:激光雷达、飞行时间测距TOF相机和结构光相机;所述高精度测距设备的精度范围包括厘米级和/或毫米级;
所述处理模块,具体用于通过测距设备,获取该样本双目图像中的其中一个样本图像包括的每个像素点对应的被摄对象相对于拍摄该样本双目图像的两个相机的标准深度,所述被摄对象到所述两个相机的标准深度相同;
对于所述样本图像包括的每个像素点,基于拍摄所述样本图像的第一相机的焦距、所述两个相机之间的基线长度以及该像素点对应的被摄对象相对于所述两个相机的标准深度,确定该像素点对应的标准视差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911330484.5A CN113014899B (zh) | 2019-12-20 | 2019-12-20 | 一种双目图像的视差确定方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911330484.5A CN113014899B (zh) | 2019-12-20 | 2019-12-20 | 一种双目图像的视差确定方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113014899A CN113014899A (zh) | 2021-06-22 |
CN113014899B true CN113014899B (zh) | 2023-02-03 |
Family
ID=76382152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911330484.5A Active CN113014899B (zh) | 2019-12-20 | 2019-12-20 | 一种双目图像的视差确定方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113014899B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113706479B (zh) * | 2021-08-12 | 2022-09-09 | 北京三快在线科技有限公司 | 无人车测距方法、装置、存储介质及无人车 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108961327A (zh) * | 2018-05-22 | 2018-12-07 | 深圳市商汤科技有限公司 | 一种单目深度估计方法及其装置、设备和存储介质 |
WO2019192290A1 (zh) * | 2018-04-04 | 2019-10-10 | 腾讯科技(深圳)有限公司 | 一种深度信息确定的方法及相关装置 |
CN110335228A (zh) * | 2018-03-30 | 2019-10-15 | 杭州海康威视数字技术股份有限公司 | 一种图像视差的确定方法、装置及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106156748B (zh) * | 2016-07-22 | 2019-03-29 | 浙江零跑科技有限公司 | 基于车载双目相机的交通场景参与者识别方法 |
CN106600650A (zh) * | 2016-12-12 | 2017-04-26 | 杭州蓝芯科技有限公司 | 一种基于深度学习的双目视觉深度信息获取方法 |
WO2018139879A1 (en) * | 2017-01-25 | 2018-08-02 | Samsung Electronics Co., Ltd. | Method and apparatus for determining stereoscopic multimedia information |
CN110345924B (zh) * | 2018-04-04 | 2021-07-06 | 北京四维图新科技股份有限公司 | 一种距离获取的方法和装置 |
US10503966B1 (en) * | 2018-10-11 | 2019-12-10 | Tindei Network Technology (Shanghai) Co., Ltd. | Binocular pedestrian detection system having dual-stream deep learning neural network and the methods of using the same |
CN110148179A (zh) * | 2019-04-19 | 2019-08-20 | 北京地平线机器人技术研发有限公司 | 一种训练用于估计图像视差图的神经网络模型方法、装置及介质 |
-
2019
- 2019-12-20 CN CN201911330484.5A patent/CN113014899B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110335228A (zh) * | 2018-03-30 | 2019-10-15 | 杭州海康威视数字技术股份有限公司 | 一种图像视差的确定方法、装置及系统 |
WO2019192290A1 (zh) * | 2018-04-04 | 2019-10-10 | 腾讯科技(深圳)有限公司 | 一种深度信息确定的方法及相关装置 |
CN108961327A (zh) * | 2018-05-22 | 2018-12-07 | 深圳市商汤科技有限公司 | 一种单目深度估计方法及其装置、设备和存储介质 |
WO2019223382A1 (zh) * | 2018-05-22 | 2019-11-28 | 深圳市商汤科技有限公司 | 单目深度估计方法及其装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113014899A (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210124029A1 (en) | Calibration of laser and vision sensors | |
US20190236381A1 (en) | Method and system for detecting obstacles by autonomous vehicles in real-time | |
US8718326B2 (en) | System and method for extracting three-dimensional coordinates | |
CN108028887B (zh) | 一种终端的拍照对焦方法、装置及设备 | |
WO2021016854A1 (zh) | 一种标定方法、设备、可移动平台及存储介质 | |
KR101961571B1 (ko) | 복수의 물체 검출 수단을 사용한 물체 인식 장치 | |
CN105627932A (zh) | 一种基于双目视觉的测距方法及装置 | |
CN108513121B (zh) | 用于场景的景深图评估的方法和设备 | |
Nienaber et al. | A comparison of low-cost monocular vision techniques for pothole distance estimation | |
CN110231832B (zh) | 用于无人机的避障方法和避障装置 | |
JP6333396B2 (ja) | モバイルプラットフォームの変位を計測する方法及び装置 | |
WO2021195886A1 (zh) | 距离确定方法、可移动平台及计算机可读存储介质 | |
CN111798507A (zh) | 一种输电线安全距离测量方法、计算机设备和存储介质 | |
CN113658241A (zh) | 单目结构光的深度恢复方法、电子设备及存储介质 | |
CN112036359B (zh) | 一种车道线的拓扑信息获得方法、电子设备及存储介质 | |
US20240296621A1 (en) | Three-dimensional model generation method and three-dimensional model generation device | |
CN111739099A (zh) | 预防跌落方法、装置及电子设备 | |
CN113959398B (zh) | 基于视觉的测距方法、装置、可行驶设备及存储介质 | |
CN113014899B (zh) | 一种双目图像的视差确定方法、装置及系统 | |
CN114919584A (zh) | 机动车定点目标测距方法、装置及计算机可读存储介质 | |
WO2021193672A1 (ja) | 三次元モデル生成方法及び三次元モデル生成装置 | |
WO2023185375A1 (zh) | 一种深度图生成系统、方法及自主移动设备 | |
CN112164099A (zh) | 基于单目结构光的自检自校准方法及装置 | |
CN112258635B (zh) | 基于改进双目匹配sad算法的三维重建方法及装置 | |
Zhang et al. | Passive 3D reconstruction based on binocular vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |