CN109118532A - 视觉景深估计方法、装置、设备及存储介质 - Google Patents
视觉景深估计方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109118532A CN109118532A CN201710488104.5A CN201710488104A CN109118532A CN 109118532 A CN109118532 A CN 109118532A CN 201710488104 A CN201710488104 A CN 201710488104A CN 109118532 A CN109118532 A CN 109118532A
- Authority
- CN
- China
- Prior art keywords
- image
- field
- pixel
- neural network
- monocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了视觉景深估计方法、装置、设备及存储介质,其中方法包括:获取采集车所采集的图像,根据获取到的图像生成训练样本;根据训练样本训练得到神经网络模型;获取单目摄像机所采集的图像,根据神经网络模型,确定出图像中的各像素点分别对应的景深。应用本发明所述方案,能够满足实时处理的要求等。
Description
【技术领域】
本发明涉及计算机应用技术,特别涉及视觉景深估计方法、装置、设备及存储介质。
【背景技术】
为保障无人驾驶车辆在道路上安全行驶,需要实时获取周围环境障碍物检测以及视觉景深估计等信息,进而反馈给控制系统实现避障、行驶刹车等操作。
目前,通常采用双目立体视觉的方式实现视觉景深估计,如图1所示,图1为现有采用双目立体视觉的方式实现视觉景深估计的原理示意图,可利用双目摄像机得到的同一场景的两幅图像的视差进行景深的计算,具体实现过程通常包括摄像机标定、特征提取、图像匹配以及深度计算等多个步骤,处理方式复杂、计算量大,因此实时性通常很难得到保证,即难以满足实时处理的要求。
【发明内容】
有鉴于此,本发明提供了视觉景深估计方法、装置、设备及存储介质,能够满足实时处理的要求。
具体技术方案如下:
一种视觉景深估计方法,包括:
获取采集车所采集的图像,根据获取到的图像生成训练样本;
根据所述训练样本训练得到神经网络模型;
获取单目摄像机所采集的图像,根据所述神经网络模型,确定出图像中的各像素点分别对应的景深。
根据本发明一优选实施例,所述采集车上安装有双目摄像机,所述获取采集车所采集的图像,根据获取到的图像生成训练样本包括:
针对所述双目摄像机每次采集到的左右目图像,分别进行以下处理:
分别确定出图像中的各像素点对应的景深;
利用左右目图像中的一个单目图像以及其中的各像素点对应的景深组成一个训练样本,所述单目图像为左目图像或右目图像。
根据本发明一优选实施例,所述采集车上安装有单目摄像机以及激光雷达,所述获取采集车所采集的图像,根据获取到的图像生成训练样本包括:
针对所述单目摄像机每次采集到的图像,分别进行以下处理:
获取所述激光雷达采集的对应的点云数据,将所述点云数据通过标定得到的转换矩阵投影到所述图像上;
根据与之对应的点云三维坐标,分别确定出所述图像中的各像素点对应的景深;
利用所述图像以及其中的各像素点对应的景深组成一个训练样本。
根据本发明一优选实施例,所述获取单目摄像机所采集的图像,根据所述神经网络模型,确定出图像中的各像素点分别对应的景深包括:
获取单目摄像机所采集的图像,将所述图像输入给所述神经网络模型,得到所述神经网络模型输出的图像中的各像素点分别对应的景深。
根据本发明一优选实施例,所述根据所述训练样本训练得到神经网络模型包括:
将单目视觉的可视范围等分为N个子区域,N为大于一的正整数;
根据所述训练样本训练得到由分类器以及回归模型组成的神经网络模型,其中,所述分类器用于输出所属子区域信息,所述回归模型用于输出偏移值信息;
所述获取单目摄像机所采集的图像,根据所述神经网络模型,确定出图像中的各像素点分别对应的景深包括:
获取单目摄像机所采集的图像,将所述图像输入给所述神经网络模型,针对图像中的每个像素点,分别获取所述神经网络模型输出的所述像素点对应的景深的所属子区域信息以及在所属子区域内的偏移值信息,并根据所属子区域信息以及偏移值信息计算出所述像素点对应的景深。
根据本发明一优选实施例,所述根据所属子区域信息以及偏移值信息计算出所述像素点对应的景深包括:
用所属子区域的起始值加上所述偏移值,得到所述像素点对应的景深;
所述偏移值小于或等于所属子区域的结束值与起始值之差。
一种视觉景深估计装置,包括:样本获取单元、模型训练单元以及景深估计单元;
所述样本获取单元,用于获取采集车所采集的图像,根据获取到的图像生成训练样本;
所述模型训练单元,用于根据所述训练样本训练得到神经网络模型;
所述景深估计单元,用于获取单目摄像机所采集的图像,根据所述神经网络模型,确定出图像中的各像素点分别对应的景深。
根据本发明一优选实施例,所述采集车上安装有双目摄像机,所述样本获取单元针对所述双目摄像机每次采集到的左右目图像,分别进行以下处理:
分别确定出图像中的各像素点对应的景深;
利用左右目图像中的一个单目图像以及其中的各像素点对应的景深组成一个训练样本,所述单目图像为左目图像或右目图像。
根据本发明一优选实施例,所述采集车上安装有单目摄像机以及激光雷达,所述样本获取单元针对所述单目摄像机每次采集到的图像,分别进行以下处理:
获取所述激光雷达采集的对应的点云数据,将所述点云数据通过标定得到的转换矩阵投影到所述图像上;
根据与之对应的点云三维坐标,分别确定出所述图像中的各像素点对应的景深;
利用所述图像以及其中的各像素点对应的景深组成一个训练样本。
根据本发明一优选实施例,所述景深估计单元获取单目摄像机所采集的图像,将所述图像输入给所述神经网络模型,得到所述神经网络模型输出的图像中的各像素点分别对应的景深。
根据本发明一优选实施例,
所述模型训练单元进一步用于,将单目视觉的可视范围等分为N个子区域,N为大于一的正整数,根据所述训练样本训练得到由分类器以及回归模型组成的神经网络模型,其中,所述分类器用于输出所属子区域信息,所述回归模型用于输出偏移值信息;
所述景深估计单元获取单目摄像机所采集的图像,将所述图像输入给所述神经网络模型,针对图像中的每个像素点,分别获取所述神经网络模型输出的所述像素点对应的景深的所属子区域信息以及在所属子区域内的偏移值信息,并根据所属子区域信息以及偏移值信息计算出所述像素点对应的景深。
根据本发明一优选实施例,所述景深估计单元用所属子区域的起始值加上所述偏移值,得到所述像素点对应的景深,所述偏移值小于或等于所属子区域的结束值与起始值之差。
一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的方法。
基于上述介绍可以看出,采用本发明所述方案,可首先获取采集车所采集的图像,并根据获取到的图像生成训练样本,进而根据训练样本训练得到神经网络模型,这样,在实际的视觉景深估计过程中,可采用单目摄像机进行图像采集,并根据神经网络模型,确定出图像中的各像素点分别对应的景深,相比于现有技术,省去了特征提取、图像匹配等复杂的处理步骤,从而极大地降低了计算量,进而能够满足实时处理的要求。
【附图说明】
图1为现有采用双目立体视觉的方式实现视觉景深估计的原理示意图。
图2为本发明所述视觉景深估计方法实施例的流程图。
图3为本发明所述视觉景深估计结果的示意图。
图4为本发明所述视觉景深估计装置实施例的组成结构示意图。
图5示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。
【具体实施方式】
针对现有技术中存在的问题,本发明中提出一种视觉景深估计方式,通过深度学习的方法,对单目摄像机采集到的图像中的各像素点进行景深估计,从而可结合现有的障碍物检测等技术,为无人驾驶车辆提供准确的安全保障信息。
为了使本发明的技术方案更加清楚、明白,以下参照附图并举实施例,对本发明所述方案进行进一步说明。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图2为本发明所述视觉景深估计方法实施例的流程图,如图2所示,包括以下具体实现方式:
在201中,获取采集车所采集的图像,根据获取到的图像生成训练样本;
在202中,根据训练样本训练得到神经网络模型;
在203中,获取单目摄像机所采集的图像,根据神经网络模型,确定出图像中的各像素点分别对应的景深。
可以看出,上述实施例中主要包括两个实现过程,分别为模型训练过程以及景深估计过程,以下分别进行详细介绍。
一)模型训练
为训练得到神经网络模型,需要首先利用采集车进行图像采集,并根据获取到的采集车所采集的图像,生成训练样本,进而根据训练样本训练得到神经网络模型。
根据获取训练样本的方式的不同,至少可以有以下两种实现方式。
1)方式一
该方式中,可在采集车上安装双目摄像机,从而大量采集同步的左右目图像数据。
针对双目摄像机每次采集到的左右目图像,可分别进行以下处理:
按照现有双目立体视觉的方式,分别确定出图像中的各像素点对应的景深;
利用左右目图像中的一个单目图像以及其中的各像素点对应的景深组成一个训练样本,所述单目图像为左目图像或右目图像。
即可从左右目图像中选出一个,具体选择哪个可预先设定,利用选出的单目图像以及该图像中的各像素点分别对应的景深组成一个训练样本。
按照上述方式,可得到大量的训练样本,之后,可根据训练样本训练得到神经网络模型,即通过不断地对神经网络回归预测的目标函数进行优化,最终收敛得到神经网络的最优参数。
2)方式二
该方式中,可在采集车上安装单目摄像机,并配上一个激光雷达(lidar)作为获取真实景深的传感器,即在采集车上同时安装单目摄像机以及激光雷达。
针对单目摄像机每次采集到的图像,可分别进行以下处理:
获取激光雷达采集的对应的点云数据,将点云数据通过标定得到的转换矩阵投影到图像上,如何进行标定和投影为现有技术;
根据与之对应的点云三维坐标,分别确定出图像中的各像素点对应的景深;
利用图像以及其中的各像素点对应的景深组成一个训练样本。
经过投影等处理之后,针对图像中的每个像素点,可分别得到一个对应的点云三维坐标,可将三维坐标中的x方向取值作为该像素点对应的景深,在分别得到各像素点的景深之后,即可得到一个由图像以及图像中的各像素点分别对应的景深所组成的训练样本。
按照上述方式,可得到大量的训练样本,之后,可根据训练样本训练得到神经网络模型。
无论是采用上述方式一还是方式二中的哪种方式来获取训练样本,为了更好地使网络收敛,本实施例中提出了一种新的模型结构,将景深值回归问题转换成了一个分类+回归的问题。
首先,将单目视觉的可视范围等分为N个子区域,N为大于一的正整数,具体取值可根据实际需要而定,比如,可视范围为0-200米,划分为20个等分的子区域,分别为0-10、10-20、20-30等。
在进行神经网络模型的训练过程中,针对每个像素点对应的景深,首先判断落在哪个子区域内,从而训练出一个分类器,之后,再根据相比于子区域中的起始值的偏移值,训练出一个回归模型,从而完成整个神经网络模型的训练。
通过训练,可得到由分类器以及回归模型组成的神经网络模型,其中,分类器用于输出所属子区域信息,回归模型用于输出偏移值信息。
比如,某一像素点对应的景深为25米,那么所属子区域即为20-30这个子区域,在20-30这个子区域内的偏移值为5。
典型的分类器可包括决策树、随机森林、支持向量机(SVM,Support VectorMachine)等。
二)景深估计
在完成神经网络模型的训练之后,即可利用神经网络模型来进行实际的视觉景深估计,包括:获取单目摄像机所采集的图像,根据神经网络模型,确定出图像中的各像素点分别对应的景深。
根据所采用的神经网络模型的不同,至少可以有以下两种实现方式。
1)方式一
获取单目摄像机所采集的图像,将获取到的图像输入给神经网络模型,得到神经网络模型输出的图像中的各像素点分别对应的景深。
该方式中,神经网络模型根据输入的图像,直接估计出图像中的各像素点对应的景深并输出,输出的内容即为最终所需的结果。
2)方式二
获取单目摄像机所采集的图像,将图像输入给神经网络模型,针对图像中的每个像素点,分别获取神经网络模型输出的该像素点对应的景深的所属子区域信息以及在所属子区域内的偏移值信息,并根据所属子区域信息以及偏移值信息计算出该像素点对应的景深。
该方式中,采用由分类器以及回归模型组成的神经网络模型,将单目摄像机采集到的图像作为神经网络模型的输入,针对图像中的每个像素点,神经网络模型中的分类器和回归模型分别给出该像素点对应的景深的所属子区域信息以及在所属子区域内的偏移值信息,根据这两个信息,可进一步计算得出该像素点的景深。
比如,可用所属子区域的起始值加上偏移值,从而得到该像素点对应的景深,通常来说,偏移值小于或等于所属子区域的结束值与起始值之差,以20-30的子区域为例,起始值为20,结束值为30。
基于上述介绍可以看出,采用上述实施例所述方案,可首先获取采集车所采集的图像,并根据获取到的图像生成训练样本,进而根据训练样本训练得到神经网络模型,这样,在实际的视觉景深估计过程中,可采用单目摄像机进行图像采集,并根据神经网络模型,确定出图像中的各像素点分别对应的景深,相比于现有技术,省去了特征提取、图像匹配等复杂的处理步骤,从而极大地降低了计算量,进而能够满足实时处理的要求。
而且,上述实施例所述方案中,只需采用单目摄像机即可实现视觉景深估计,从而相比于现有技术中采用双目摄像机的方式,降低了硬件实现成本,同时也节省了硬件系统数据传输的带宽。
另外,上述实施例所述方案中,可采用分类器+回归模型形式的神经网络模型,从而可以有效提高网络收敛速度,并提高了后续视觉景深估计结果的准确性。
实验显示,采用上述实施例所述方案,视觉景深估计结果的错误率小于10%,估计速度在50ms以内,能够满足实时处理的要求。
图3为本发明所述视觉景深估计结果的示意图。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
图4为本发明所述视觉景深估计装置实施例的组成结构示意图,如图4所示,包括:样本获取单元401、模型训练单元402以及景深估计单元403。
样本获取单元401,用于获取采集车所采集的图像,根据获取到的图像生成训练样本。
模型训练单元402,用于根据训练样本训练得到神经网络模型。
景深估计单元403,用于获取单目摄像机所采集的图像,根据神经网络模型,确定出图像中的各像素点分别对应的景深。
为训练得到神经网络模型,需要首先利用采集车进行图像采集,样本获取单元401根据获取到的采集车所采集的图像,生成训练样本,进而由模型训练单元402根据训练样本训练得到神经网络模型。
根据采集车采集的内容不同,生成训练样本的方式也会不同。
比如,采集车上可安装有双目摄像机,这样,样本获取单元401可针对双目摄像机每次采集到的左右目图像,分别进行以下处理:
按照现有双目立体视觉的方式,分别确定出图像中的各像素点对应的景深;
利用左右目图像中的一个单目图像以及其中的各像素点对应的景深组成一个训练样本,单目图像为左目图像或右目图像。
再比如,采集车上可安装有单目摄像机以及激光雷达,这样,样本获取单元401可针对单目摄像机每次采集到的图像,分别进行以下处理:
获取激光雷达采集的对应的点云数据,将点云数据通过标定得到的转换矩阵投影到图像上;
根据与之对应的点云三维坐标,分别确定出图像中的各像素点对应的景深;
利用图像以及其中的各像素点对应的景深组成一个训练样本。
在得到足够数量的训练样本之后,模型训练单元402即可根据训练样本训练得到神经网络模型。
为了更好地使网络收敛,本实施例中提出一种新的模型结构。
相应地,模型训练单元402可将单目视觉的可视范围等分为N个子区域,N为大于一的正整数,具体取值可根据实际需要而定,在进行神经网络模型的训练过程中,针对每个像素点对应的景深,首先判断落在哪个子区域内,从而训练出一个分类器,之后,再根据相比于子区域中的起始值的偏移值,训练出一个回归模型,从而完成整个神经网络模型的训练。
通过训练,可得到由分类器以及回归模型组成的神经网络模型,其中,分类器用于输出所属子区域信息,回归模型用于输出偏移值信息。
比如,某一像素点对应的景深为25米,那么所属子区域即为20-30这个子区域,在20-30这个子区域内的偏移值为5。
典型的分类器可包括决策树、随机森林、SVM等。
在完成神经网络模型的训练之后,景深估计单元403即可利用神经网络模型来进行实际的视觉景深估计,包括:获取单目摄像机所采集的图像,根据神经网络模型,确定出图像中的各像素点分别对应的景深。
根据所采用的神经网络模型的不同,景深估计单元403可采用不同的实现方式。
比如,景深估计单元403获取单目摄像机所采集的图像,将图像输入给神经网络模型,从而得到神经网络模型输出的图像中的各像素点分别对应的景深。
该方式中,神经网络模型根据输入的图像,直接估计出图像中的各像素点对应的景深并输出,输出的内容即为最终所需的结果。
再比如,景深估计单元403获取单目摄像机所采集的图像,将图像输入给神经网络模型,针对图像中的每个像素点,分别获取神经网络模型输出的该像素点对应的景深的所属子区域信息以及在所属子区域内的偏移值信息,并根据所属子区域信息以及偏移值信息计算出该像素点对应的景深。
该方式中,采用由分类器以及回归模型组成的神经网络模型,将单目摄像机采集到的图像作为神经网络模型的输入,针对图像中的每个像素点,神经网络模型中的分类器和回归模型分别给出该像素点对应的景深的所属子区域信息以及在所属子区域内的偏移值信息,根据这两个信息,可进一步计算得出该像素点的景深。
比如,可用所属子区域的起始值加上偏移值,从而得到该像素点对应的景深,通常来说,偏移值小于或等于所属子区域的结束值与起始值之差。
图4所示装置实施例的具体工作流程请参照前述方法实施例中的相应说明,不再赘述。
基于上述介绍可以看出,采用上述实施例所述方案,可首先获取采集车所采集的图像,并根据获取到的图像生成训练样本,进而根据训练样本训练得到神经网络模型,这样,在实际的视觉景深估计过程中,可采用单目摄像机进行图像采集,并根据神经网络模型,确定出图像中的各像素点分别对应的景深,相比于现有技术,省去了特征提取、图像匹配等复杂的处理步骤,从而极大地降低了计算量,进而能够满足实时处理的要求。
而且,上述实施例所述方案中,只需采用单目摄像机即可实现视觉景深估计,从而相比于现有技术中采用双目摄像机的方式,降低了硬件实现成本,同时也节省了硬件系统数据传输的带宽。
另外,上述实施例所述方案中,可采用分类器+回归模型形式的神经网络模型,从而可以有效提高网络收敛速度,并提高了后续视觉景深估计结果的准确性。
实验显示,采用上述实施例所述方案,视觉景深估计结果的错误率小于10%,估计速度在50ms以内,能够满足实时处理的要求。
图5示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。图5显示的计算机系统/服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统/服务器12以通用计算设备的形式表现。计算机系统/服务器12的组件可以包括但不限于:一个或者多个处理器(处理单元)16,存储器28,连接不同系统组件(包括存储器28和处理器16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机系统/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机系统/服务器12交互的设备通信,和/或与使得该计算机系统/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机系统/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器20通过总线18与计算机系统/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现图2所示实施例中的方法,即:获取采集车所采集的图像,根据获取到的图像生成训练样本,根据训练样本训练得到神经网络模型,获取单目摄像机所采集的图像,根据神经网络模型,确定出图像中的各像素点分别对应的景深。
具体实现请参照前述各实施例中的相关说明,不再赘述。
本发明同时公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时将实现如图2所示实施例中的方法。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法等,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (14)
1.一种视觉景深估计方法,其特征在于,包括:
获取采集车所采集的图像,根据获取到的图像生成训练样本;
根据所述训练样本训练得到神经网络模型;
获取单目摄像机所采集的图像,根据所述神经网络模型,确定出图像中的各像素点分别对应的景深。
2.根据权利要求1所述的方法,其特征在于,
所述采集车上安装有双目摄像机,所述获取采集车所采集的图像,根据获取到的图像生成训练样本包括:
针对所述双目摄像机每次采集到的左右目图像,分别进行以下处理:
分别确定出图像中的各像素点对应的景深;
利用左右目图像中的一个单目图像以及其中的各像素点对应的景深组成一个训练样本,所述单目图像为左目图像或右目图像。
3.根据权利要求1所述的方法,其特征在于,
所述采集车上安装有单目摄像机以及激光雷达,所述获取采集车所采集的图像,根据获取到的图像生成训练样本包括:
针对所述单目摄像机每次采集到的图像,分别进行以下处理:
获取所述激光雷达采集的对应的点云数据,将所述点云数据通过标定得到的转换矩阵投影到所述图像上;
根据与之对应的点云三维坐标,分别确定出所述图像中的各像素点对应的景深;
利用所述图像以及其中的各像素点对应的景深组成一个训练样本。
4.根据权利要求1所述的方法,其特征在于,
所述获取单目摄像机所采集的图像,根据所述神经网络模型,确定出图像中的各像素点分别对应的景深包括:
获取单目摄像机所采集的图像,将所述图像输入给所述神经网络模型,得到所述神经网络模型输出的图像中的各像素点分别对应的景深。
5.根据权利要求1所述的方法,其特征在于,
所述根据所述训练样本训练得到神经网络模型包括:
将单目视觉的可视范围等分为N个子区域,N为大于一的正整数;
根据所述训练样本训练得到由分类器以及回归模型组成的神经网络模型,其中,所述分类器用于输出所属子区域信息,所述回归模型用于输出偏移值信息;
所述获取单目摄像机所采集的图像,根据所述神经网络模型,确定出图像中的各像素点分别对应的景深包括:
获取单目摄像机所采集的图像,将所述图像输入给所述神经网络模型,针对图像中的每个像素点,分别获取所述神经网络模型输出的所述像素点对应的景深的所属子区域信息以及在所属子区域内的偏移值信息,并根据所属子区域信息以及偏移值信息计算出所述像素点对应的景深。
6.根据权利要求5所述的方法,其特征在于,
所述根据所属子区域信息以及偏移值信息计算出所述像素点对应的景深包括:
用所属子区域的起始值加上所述偏移值,得到所述像素点对应的景深;
所述偏移值小于或等于所属子区域的结束值与起始值之差。
7.一种视觉景深估计装置,其特征在于,包括:样本获取单元、模型训练单元以及景深估计单元;
所述样本获取单元,用于获取采集车所采集的图像,根据获取到的图像生成训练样本;
所述模型训练单元,用于根据所述训练样本训练得到神经网络模型;
所述景深估计单元,用于获取单目摄像机所采集的图像,根据所述神经网络模型,确定出图像中的各像素点分别对应的景深。
8.根据权利要求7所述的装置,其特征在于,
所述采集车上安装有双目摄像机,所述样本获取单元针对所述双目摄像机每次采集到的左右目图像,分别进行以下处理:
分别确定出图像中的各像素点对应的景深;
利用左右目图像中的一个单目图像以及其中的各像素点对应的景深组成一个训练样本,所述单目图像为左目图像或右目图像。
9.根据权利要求7所述的装置,其特征在于,
所述采集车上安装有单目摄像机以及激光雷达,所述样本获取单元针对所述单目摄像机每次采集到的图像,分别进行以下处理:
获取所述激光雷达采集的对应的点云数据,将所述点云数据通过标定得到的转换矩阵投影到所述图像上;
根据与之对应的点云三维坐标,分别确定出所述图像中的各像素点对应的景深;
利用所述图像以及其中的各像素点对应的景深组成一个训练样本。
10.根据权利要求7所述的装置,其特征在于,
所述景深估计单元获取单目摄像机所采集的图像,将所述图像输入给所述神经网络模型,得到所述神经网络模型输出的图像中的各像素点分别对应的景深。
11.根据权利要求7所述的装置,其特征在于,
所述模型训练单元进一步用于,将单目视觉的可视范围等分为N个子区域,N为大于一的正整数,根据所述训练样本训练得到由分类器以及回归模型组成的神经网络模型,其中,所述分类器用于输出所属子区域信息,所述回归模型用于输出偏移值信息;
所述景深估计单元获取单目摄像机所采集的图像,将所述图像输入给所述神经网络模型,针对图像中的每个像素点,分别获取所述神经网络模型输出的所述像素点对应的景深的所属子区域信息以及在所属子区域内的偏移值信息,并根据所属子区域信息以及偏移值信息计算出所述像素点对应的景深。
12.根据权利要求11所述的装置,其特征在于,
所述景深估计单元用所属子区域的起始值加上所述偏移值,得到所述像素点对应的景深,所述偏移值小于或等于所属子区域的结束值与起始值之差。
13.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~6中任一项所述的方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710488104.5A CN109118532B (zh) | 2017-06-23 | 2017-06-23 | 视觉景深估计方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710488104.5A CN109118532B (zh) | 2017-06-23 | 2017-06-23 | 视觉景深估计方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109118532A true CN109118532A (zh) | 2019-01-01 |
CN109118532B CN109118532B (zh) | 2020-11-20 |
Family
ID=64733274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710488104.5A Active CN109118532B (zh) | 2017-06-23 | 2017-06-23 | 视觉景深估计方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109118532B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111428859A (zh) * | 2020-03-05 | 2020-07-17 | 北京三快在线科技有限公司 | 自动驾驶场景的深度估计网络训练方法、装置和自主车辆 |
CN111626370A (zh) * | 2020-05-29 | 2020-09-04 | 展讯通信(上海)有限公司 | 基于神经网络的镂空识别方法及装置、存储介质、终端 |
CN112634343A (zh) * | 2020-12-23 | 2021-04-09 | 北京百度网讯科技有限公司 | 图像深度估计模型的训练方法、图像深度信息的处理方法 |
CN113034567A (zh) * | 2021-03-31 | 2021-06-25 | 奥比中光科技集团股份有限公司 | 一种深度真值获取方法、装置、系统及深度相机 |
CN113052890A (zh) * | 2021-03-31 | 2021-06-29 | 奥比中光科技集团股份有限公司 | 一种深度真值获取方法、装置、系统及深度相机 |
CN113763231A (zh) * | 2020-06-08 | 2021-12-07 | 北京京东乾石科技有限公司 | 模型生成方法、图像透视图确定方法、装置、设备及介质 |
CN114290995A (zh) * | 2022-02-11 | 2022-04-08 | 北京远特科技股份有限公司 | 透明a柱的实现方法、装置、汽车及介质 |
CN114677425A (zh) * | 2022-03-17 | 2022-06-28 | 北京小马慧行科技有限公司 | 确定物体景深的方法与装置 |
WO2024198535A1 (zh) * | 2023-03-29 | 2024-10-03 | 奥比中光科技集团股份有限公司 | 深度估计模型及方法、训练系统及i-TOF深度相机 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708569A (zh) * | 2012-05-15 | 2012-10-03 | 东华大学 | 基于svm模型的单目红外图像深度估计方法 |
CN105359190A (zh) * | 2013-09-05 | 2016-02-24 | 电子湾有限公司 | 根据单个图像估计深度 |
US20160350930A1 (en) * | 2015-05-28 | 2016-12-01 | Adobe Systems Incorporated | Joint Depth Estimation and Semantic Segmentation from a Single Image |
CN106600650A (zh) * | 2016-12-12 | 2017-04-26 | 杭州蓝芯科技有限公司 | 一种基于深度学习的双目视觉深度信息获取方法 |
-
2017
- 2017-06-23 CN CN201710488104.5A patent/CN109118532B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708569A (zh) * | 2012-05-15 | 2012-10-03 | 东华大学 | 基于svm模型的单目红外图像深度估计方法 |
CN105359190A (zh) * | 2013-09-05 | 2016-02-24 | 电子湾有限公司 | 根据单个图像估计深度 |
US20160350930A1 (en) * | 2015-05-28 | 2016-12-01 | Adobe Systems Incorporated | Joint Depth Estimation and Semantic Segmentation from a Single Image |
CN106600650A (zh) * | 2016-12-12 | 2017-04-26 | 杭州蓝芯科技有限公司 | 一种基于深度学习的双目视觉深度信息获取方法 |
Non-Patent Citations (1)
Title |
---|
田虎: "《单目图像的深度估计》", 《中国优秀博士论文全文数据库-信息科技辑》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111428859A (zh) * | 2020-03-05 | 2020-07-17 | 北京三快在线科技有限公司 | 自动驾驶场景的深度估计网络训练方法、装置和自主车辆 |
CN111626370A (zh) * | 2020-05-29 | 2020-09-04 | 展讯通信(上海)有限公司 | 基于神经网络的镂空识别方法及装置、存储介质、终端 |
CN111626370B (zh) * | 2020-05-29 | 2022-07-12 | 展讯通信(上海)有限公司 | 基于神经网络的镂空识别方法及装置、存储介质、终端 |
CN113763231A (zh) * | 2020-06-08 | 2021-12-07 | 北京京东乾石科技有限公司 | 模型生成方法、图像透视图确定方法、装置、设备及介质 |
CN113763231B (zh) * | 2020-06-08 | 2024-02-09 | 北京京东乾石科技有限公司 | 模型生成方法、图像透视图确定方法、装置、设备及介质 |
CN112634343A (zh) * | 2020-12-23 | 2021-04-09 | 北京百度网讯科技有限公司 | 图像深度估计模型的训练方法、图像深度信息的处理方法 |
CN113034567A (zh) * | 2021-03-31 | 2021-06-25 | 奥比中光科技集团股份有限公司 | 一种深度真值获取方法、装置、系统及深度相机 |
CN113052890A (zh) * | 2021-03-31 | 2021-06-29 | 奥比中光科技集团股份有限公司 | 一种深度真值获取方法、装置、系统及深度相机 |
CN114290995A (zh) * | 2022-02-11 | 2022-04-08 | 北京远特科技股份有限公司 | 透明a柱的实现方法、装置、汽车及介质 |
CN114290995B (zh) * | 2022-02-11 | 2023-09-01 | 北京远特科技股份有限公司 | 透明a柱的实现方法、装置、汽车及介质 |
CN114677425A (zh) * | 2022-03-17 | 2022-06-28 | 北京小马慧行科技有限公司 | 确定物体景深的方法与装置 |
WO2024198535A1 (zh) * | 2023-03-29 | 2024-10-03 | 奥比中光科技集团股份有限公司 | 深度估计模型及方法、训练系统及i-TOF深度相机 |
Also Published As
Publication number | Publication date |
---|---|
CN109118532B (zh) | 2020-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109118532A (zh) | 视觉景深估计方法、装置、设备及存储介质 | |
CN109492507B (zh) | 红绿灯状态的识别方法及装置、计算机设备及可读介质 | |
US10162362B2 (en) | Fault tolerance to provide robust tracking for autonomous positional awareness | |
CN109116374A (zh) | 确定障碍物距离的方法、装置、设备及存储介质 | |
CN109117691A (zh) | 可行驶区域检测方法、装置、设备及存储介质 | |
CN108734058B (zh) | 障碍物类型识别方法、装置、设备及存储介质 | |
EP3447448A1 (en) | Fault-tolerance to provide robust tracking for autonomous and non-autonomous positional awareness | |
CN109344804A (zh) | 一种激光点云数据的识别方法、装置、设备和介质 | |
CN109738904A (zh) | 一种障碍物检测的方法、装置、设备和计算机存储介质 | |
CN110378966A (zh) | 相机外参标定方法、装置、计算机设备及存储介质 | |
CN110233998A (zh) | 一种视频数据传输方法、装置、设备及存储介质 | |
CN109117690A (zh) | 可行驶区域检测方法、装置、设备及存储介质 | |
CN112097732A (zh) | 一种基于双目相机的三维测距方法、系统、设备及可读存储介质 | |
CN112650300B (zh) | 一种无人机避障方法和装置 | |
CN109509236A (zh) | 无人驾驶场景中的车辆包围盒生成方法、装置及存储介质 | |
EP4213128A1 (en) | Obstacle detection device, obstacle detection system, and obstacle detection method | |
CN113096151B (zh) | 对目标的运动信息进行检测的方法和装置、设备和介质 | |
CN109229109A (zh) | 判断车辆行驶方向的方法、装置、设备和计算机存储介质 | |
US20230078241A1 (en) | Driving assistance processing method and apparatus, computer-readable medium, and electronic device | |
CN113228103A (zh) | 目标跟踪方法、装置、无人机、系统及可读存储介质 | |
CN112734827B (zh) | 一种目标检测方法、装置、电子设备和存储介质 | |
CN110390327A (zh) | 前景提取方法、装置、计算机设备及存储介质 | |
CN110187720A (zh) | 无人机导引方法、装置、系统、介质及电子设备 | |
CN113597616A (zh) | 瞳孔位置的确定方法、装置及系统 | |
US20240046583A1 (en) | Real-time photorealistic view rendering on augmented reality (ar) device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |