CN114494381A - 模型训练及深度估计方法、装置、存储介质及电子设备 - Google Patents

模型训练及深度估计方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN114494381A
CN114494381A CN202210070815.1A CN202210070815A CN114494381A CN 114494381 A CN114494381 A CN 114494381A CN 202210070815 A CN202210070815 A CN 202210070815A CN 114494381 A CN114494381 A CN 114494381A
Authority
CN
China
Prior art keywords
point
pixel point
sample image
vector
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210070815.1A
Other languages
English (en)
Inventor
舒畅
任海兵
王明晖
胡琦
申浩
夏华夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202210070815.1A priority Critical patent/CN114494381A/zh
Publication of CN114494381A publication Critical patent/CN114494381A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本说明书公开了模型训练及深度估计方法、装置、存储介质及电子设备。在样本图像中为每个像素点选取至少两对参照点对,其中每对参照点对中的参照点与该像素点位于同一直线上,然后根据深度估计模型输出的深度图将像素点及其参照点映射至三维空间内并得到三维坐标,从而得到以参照点对中的参照点为起点和终点的至少两个参照向量,以根据参照向量确定出像素点的预测法向量,并根据预测法向量与该像素点对应的标注法向量之间的差异构建损失进行训练,以提高深度估计模型输出的深度图的准确性。

Description

模型训练及深度估计方法、装置、存储介质及电子设备
技术领域
本说明书涉及计算机视觉领域,尤其涉及模型训练及深度估计方法、装置、存储介质及电子设备。
背景技术
图像的深度估计在计算机视觉领域中是一种应用广泛的技术,例如,利用包含深度信息的图像,可以识别出图像中表达某一语义的对象的三维检测框。
目前,常使用机器学习模型来估计图像的深度,即,将图像输入至训练后的深度估计模型,可得到深度估计模型输出的图像对应的深度图。
为了提高深度估计模型所输出的深度图的准确性,对深度估计模型进行训练变得尤其重要。
发明内容
本说明书提供一种模型训练及深度估计方法、装置、存储介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种模型训练方法,包括:
确定样本图像;
将所述样本图像输入待训练的深度估计模型,并得到所述深度估计模型所输出的所述样本图像对应的深度图;
针对所述样本图像中的每个像素点,将该像素点作为目标像素点,确定所述目标像素点对应的至少两个参照点对,其中,针对每个参照点对,在样本图像上经过该参照点对中的两个参照点的直线经过所述目标像素点;
根据所述样本图像对应的深度图,确定所述目标像素点和各参照点的三维坐标,针对每个参照点对,根据该参照点对中两个参照点的三维坐标,确定以该参照点对中的参照点为起点和终点的参照向量,作为所述目标像素点对应的参照向量;
基于所述目标像素点对应的各参照向量,得到所述目标像素点在三维空间中的预测法向量;
获取预先确定的各像素点在三维空间中的标注法向量,以各像素点的预测法向量和标注法向量之间的差异最小为目标,调整所述深度估计模型中的参数。
可选地,确定所述目标像素点对应的至少两个参照点对,具体包括:
确定经过所述目标像素点的至少两个直线;
针对所确定出的每个直线,确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,作为该目标像素点对应的参照点对,其中,所述指定距离不小于预先设定的距离阈值。
可选地,经过所述目标像素点的各直线中,至少包括一个直线沿所述样本图像所在的图像坐标系的横轴方向,并至少包括一个直线沿所述样本图像所在的图像坐标系的纵轴方向;
确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,具体包括:
获取预先设定的间隔像素数量;
确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,其中,针对每个像素点,该像素点与目标像素点之间的指定距离为像素点的单位长度与所述间隔像素数量的乘积。
可选地,确定以该参照点对中的参照点为起点和终点的参照向量,具体包括:
确定样本图像对应的三维特征图,其中,所述三维特征图中每个特征单元为该特征单元在所述样本图像中对应的像素点的三维坐标;
采用预先设定的卷积核,在样本图像对应的三维特征图上滑动,并在每次滑动后所覆盖的所述三维特征图的区域进行一阶深度可分离卷积,将所述卷积核与该参照点对所对应的参照区域卷积后得到的向量作为该参照点对中的参照点为起点和终点的参照向量,其中,所述参照区域为所述参照点对之间的区域所对应的所述三维特征图中的区域。
可选地,基于所述目标像素点对应的各参照向量,得到所述目标像素点在三维空间中的预测法向量,具体包括:
从所述目标像素点对应的各参照向量中选择出两个目标参照向量,并根据两个目标参照向量得到所述目标像素点在三维空间中的预测法向量。
可选地,得到所述深度估计模型所输出的所述样本图像对应的深度图之后,所述方法还包括:
获取预先为所述样本图像确定出的标注深度图;
以所述深度估计模型输出的所述样本图像对应的深度图与所述样本图像的标注深度图之间的差异最小为目标,调整所述深度估计模型中的参数。
可选地,确定各像素点在三维空间中的标注法向量,具体包括:
获取样本点云;
基于预先标定出的所述样本图像的图像坐标系和所述样本点云的点云坐标系之间的转换关系,将所述样本点云映射在所述图像坐标系下,根据所述样本点云的三维坐标,为所述样本图像确定出标注深度图;
根据所述样本图像的标注深度图,针对样本图像中每个像素点,确定该像素点以及该像素点对应的参照点的三维坐标,并得到以对应的参照点为起点和终点的各像素点对应的参照向量;
基于该像素点对应的各参照向量,得到该像素点在三维空间中的标注法向量。
本说明书提供了一种深度估计方法,包括:
确定目标图像;
将所述目标图像输入预先训练的深度估计模型,并得到所述深度估计模型所输出的所述目标图像对应的深度图,其中,所述深度估计模型为采用上述的方法训练得到的。
本说明书提供了一种模型训练装置,包括:
图像确定模块,用于确定样本图像;
深度估计模块,用于将所述样本图像输入待训练的深度估计模型,并得到所述深度估计模型所输出的所述样本图像对应的深度图;
参照点确定模块,用于针对所述样本图像中的每个像素点,将该像素点作为目标像素点,确定所述目标像素点对应的至少两个参照点对,其中,针对每个参照点对,在样本图像上经过该参照点对中的两个参照点的直线经过所述目标像素点;
参照向量确定模块,用于根据所述样本图像对应的深度图,确定所述目标像素点和各参照点的三维坐标,针对每个参照点对,根据该参照点对中两个参照点的三维坐标,确定以该参照点对中的参照点为起点和终点的参照向量,作为所述目标像素点对应的参照向量;
法向量预测模块,用于基于所述目标像素点对应的各参照向量,得到所述目标像素点在三维空间中的预测法向量;
参数调整模块,用于获取预先确定的各像素点在三维空间中的标注法向量,以各像素点的预测法向量和标注法向量之间的差异最小为目标,调整所述深度估计模型中的参数。
本说明书提供了一种深度估计装置,包括:
图像确定模块,用于确定目标图像;
深度估计模块,用于将所述目标图像输入预先训练的深度估计模型,并得到所述深度估计模型所输出的所述目标图像对应的深度图,其中,所述深度估计模型为采用上述的方法训练得到的。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练及深度估计方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练及深度估计方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的模型训练及深度估计方法中,在样本图像中为每个像素点选取至少两对参照点对,其中每对参照点对中的参照点与该像素点位于同一直线上,然后根据深度估计模型输出的深度图将像素点及其参照点映射至三维空间内并得到三维坐标,从而得到以参照点对中的参照点为起点和终点的至少两个参照向量,以根据参照向量确定出像素点的预测法向量,并根据预测法向量与该像素点对应的标注法向量之间的差异构建损失进行训练,以提高深度估计模型输出的深度图的准确性。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中一种模型训练方法的流程示意图;
图2A为本说明书提供的一种样本图像的示意图;
图2B为本说明书提供的一种三维空间的示意图;
图3为本说明书提供的一种模型训练装置的示意图;
图4为本说明书提供的一种目标检测装置的示意图;
图5为本说明书提供的电子设备的结构示意图。
具体实施方式
本说明书实施例提供以下模型训练方法,用于对深度估计模型进行训练。
所述深度估计模型以图像格式的数据作为输入,并输出图像对应的深度图。以实际应用过程为例,将目标图像输入所述深度估计模型,得到所述深度估计模型输出的目标图像对应的深度图,在所述深度图中,所述目标图像中的每个像素点都对应有深度值,所述深度值为该像素点在三维空间中的位置相对于基于目标图像的图像坐标系的距离。
本说明书实施例中,所述深度估计模型可以为任一现有的机器学习模型,例如可以为深度残差网络(Deep residual network,ResNet)、多层感知机 (MultilayerPerceptron,MLP)等等,本说明书实施例对此不作限制。
在本说明书提供的模型训练方法中,在样本图像中为每个像素点选取至少两对参照点对,其中每对参照点对中的参照点与该像素点位于同一直线上,然后根据深度估计模型输出的深度图将像素点及其参照点映射至三维空间内并得到三维坐标,从而得到以参照点对中的参照点为起点和终点的至少两个参照向量,以根据参照向量确定出像素点的预测法向量,并根据预测法向量与该像素点对应的标注法向量之间的差异构建损失。
由于标注法向量和预测法向量所基于的是每个独立的像素点,并不需要保证各像素点在现实世界中位于同一平面上,因此,也不需要限制像素点之间的距离,从而避免了以平面法向量为损失项时,由于点云的误差点所带来的误差较大的标注法向量对模型训练所产生的影响。
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中一种模型训练方法的流程示意图,用于训练上述深度估计模型,具体包括以下步骤:
S100:确定样本图像。
S102:将所述样本图像输入待训练的深度估计模型,并得到所述深度估计模型所输出的所述样本图像对应的深度图。
本说明书所提供的深度估计方法和本说明书所提供的模型训练方法的执行主体可以相同也可以不同,以本说明书所提供的深度估计方法和本说明书所提供的模型训练方法的执行主体为例,所述深度估计方法和模型训练方法的执行主体都可以为任一现有的服务器或电子设备,具体的,针对所述深度估计方法的执行主体和模型训练方法的执行主体中的每个,当该执行主体为电子设备时,该执行主体可以为任一现有的电子设备,例如,手机、笔记本电脑、平板电脑等等,当该执行主体为服务器时,该执行主体可以为集群式服务器,也可以为分布式服务器等等。
以下,本说明书示例性的,以所述深度估计方法的执行主体为自动驾驶设备,所述模型训练方法的执行主体为服务器为例进行说明。
在所述深度估计模型实际应用之前,为了保证深度估计模型所输出的深度图的准确性,需要对所述深度估计模型进行训练,当然,在深度估计模型应用一段时间之后,也可能会出现由于新增数据与训练时所采用的样本中之间的差异性,导致深度估计模型所输出的深度图的准确性较差,此时,也可以对深度估计模型进行训练。
可以看出,凡有训练需求的深度估计模型,都可以为本说明书实施例中待训练的深度估计模型。以下本说明书实施例提供一种对所述待训练的深度估计模型进行训练的模型训练方法。
在执行上述图1所示的步骤S100之前,需要先对样本图像进行采集。本说明书一实施例中,可以采用诸如相机等任一现有的图像采集设备进行图像采集,并将所采集到的图像作为样本图像。
接着,需要标注样本图像中每个像素点的法向量,并得到样本图像中每个像素点的标注法向量,需要说明的是,在本说明书实施例中所述的预测法向量和标注法向量均为虚拟法向量,而非像素点在三维空间中的点所处的平面的实际法向量。
S104:针对所述样本图像中的每个像素点,将该像素点作为目标像素点,确定所述目标像素点对应的至少两个参照点对,其中,针对每个参照点对,在样本图像上经过该参照点对中的两个参照点的直线经过所述目标像素点。
如上所述,本说明书所提供的模型训练方法中,需要针对样本图像上的每个像素点,确定该像素点的预测法向量,以下,在步骤S104-步骤S108中,以样本图像中所包含的一个像素点(目标像素点)为例,说明如何确定像素点的预测法向量。
对于目标像素点,可以确定所述目标像素点对应的至少两个参照点对,每个参照点对中包括该目标像素点对应的两个参照点,其中,针对每个参照点对,在样本图像上经过该参照点对中的两个参照点的直线经过所述目标像素点。
本说明书一实施例中,针对每个参照点对,以目标像素点将该参照点对所位于的直线划分成两个射线,该参照点对中两个参照点可以位于同一射线上也可以位于不同的射线上。此外,该参照点对中的两个参照点与目标像素点之间的距离可以相同也可以不同。
在确定参照点对时,具体的,可以先确定经过所述目标像素点的至少两个直线,然后,针对所确定出的每个直线,确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,作为该目标像素点对应的参照点对,其中,所述指定距离不小于预先设定的距离阈值。
可以理解的,由于所确定出的位于样本图像上的各直线均经过所述目标像素点,因此,各直线在样本图像上相交于所述目标像素点。
由于在现实世界中,物体是由一个又一个平面所构成的,而在得到图像对应的深度图后,可以根据深度图以及相机的内参确定出各像素点在三维空间中的坐标,从而确定出各像素点所在的平面,以及所在平面的法向量,因此,在现有技术中,常常会基于真实平面的法向量来构建损失项训练深度估计模型。
基于在足够小的范围内取的三个点位于同一平面的这一假设,可以根据各点的坐标计算出位于该平面上的点的法向量,在现有技术中,会获取与相机之间进行过标定的探测设备所采集到的点云,然后根据点云中的点与像素点之间的映射关系,将点云中的点的法向量作为对应的像素点的法向量的标注。
但是,由于所取的各点之间距离较近,因此,当其中某一点的位置存在误差时,即,该点为噪声点,此时,基于该点所确定出的法向量与真实的法向量之间的差异也会较大,以该法向量为标注所训练出的深度估计模型的准确性也会较差。
但在本说明书提供的模型训练方法中,由于目标像素点的参照点相对于所述目标像素点的距离不小于距离阈值,因此,即使其中某一参照点对应的点云中的点的位置出现误差,采用本说明书实施例提供的方式所求解出的目标像素点的标注法向量的误差较小,避免了以上述真实平面的法向量为损失项时,由于点云的误差点所带来的标注法向量误差较大对模型训练所产生的影响。
本说明书一实施例中,经过所述目标像素点的各直线中,至少包括一个直线沿所述样本图像所在的图像坐标系的横轴方向,并至少包括一个直线沿所述样本图像所在的图像坐标系的纵轴方向。请参见图2A,图2A中以两个直线为例示例出了一种在样本图像中确定目标像素点的参照点对的方式。其中,点P 为目标像素点,L和L’为所确定出的经过点P的直线,参照点对A、B和参照点对C、D为点P对应的参照点对,其中,参照点A和参照点B位于直线L 上,参照点C和参照点D位于直线L’上。
在此情形下,针对所处的直线沿所述样本图像所在的图像坐标系的横轴或纵轴方向的参照点,本说明书提出一种确定参照点与目标像素点之间指定距离的方法,具体的,可以获取预先设定的间隔像素数量,确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,其中,针对每个像素点,该像素点与目标像素点之间的指定距离为像素点的单位长度与所述间隔像素数量的乘积。
以下,示例性的以经过所述目标像素点的各直线中,至少包括一个直线沿所述样本图像所在的图像坐标系的横轴方向,并至少包括一个直线沿所述样本图像所在的图像坐标系的纵轴方向为例进行说明。
采用上述任一方式,可以得到目标像素点的至少两个参照点对,需要说明的是,所确定出的预测法向量仅为目标像素点的预测法向量,而各参照点仅用于辅助上述预测法向量的确定。
S106:根据所述样本图像对应的深度图,确定所述目标像素点和各参照点的三维坐标,针对每个参照点对,根据该参照点对中两个参照点的三维坐标,确定以该参照点对中的参照点为起点和终点的参照向量,作为所述目标像素点对应的参照向量。
S108:基于所述目标像素点对应的各参照向量,得到所述目标像素点在三维空间中的预测法向量。
可以理解的,在得到所述样本图像对应的深度图后,可以知道所述目标像素点和各参照点相对于所述样本图像所在的图像坐标系的距离,即深度值,然后,根据采集样本图的图像采集设备所标定的内参,确定所述目标像素点和各参照点的三维坐标,并将所述目标像素点和各参照点投影至三维空间中。
针对每个参照点对,可以根据该参照点对中两个参照点的三维坐标,确定以该参照点对中的参照点为起点和终点的参照向量,作为所述目标像素点对应的参照向量。然后,在确定出目标像素点对应的各参照向量之后,可以从所述目标像素点对应的各参照向量中选择出两个目标参照向量,并根据两个目标参照向量得到所述目标像素点在三维空间中的预测法向量。
S110:获取预先确定的各像素点在三维空间中的标注法向量,以各像素点的预测法向量和标注法向量之间的差异最小为目标,调整所述深度估计模型中的参数。
本说明书实施例中,预先标注有各像素点在三维空间中的标注法向量,在采用上述任一方式确定出各像素点的预测法向量之后,可以以各像素点的预测法向量和标注法向量之间的差异最小为目标,调整所述深度估计模型中的参数。
基于图1所示的模型训练方法,在样本图像中为每个像素点选取至少两对参照点对,其中每对参照点对中的参照点与该像素点位于同一直线上,然后根据深度估计模型输出的深度图将像素点及其参照点映射至三维空间内并得到三维坐标,从而得到以参照点对中的参照点为起点和终点的至少两个参照向量,以根据参照向量确定出像素点的预测法向量,并根据预测法向量与该像素点对应的标注法向量之间的差异构建损失。
由于标注法向量和预测法向量所基于的是每个独立的像素点,并不需要保证各像素点在现实世界中位于同一平面上,因此,也不需要限制像素点之间的距离,从而避免了以上述平面法向量为损失项时,由于点云的误差点所带来的误差较大的标注法向量对模型训练所产生的影响。
以下,本说明书示例出一种基于点云确定样本图像中各像素点的标注法向量的方法。
具体的,可以先获取样本点云,采集样本点云的点云采集设备和采集样本图像的图像采集设备之间可以预先进行过标定,即可以确定点云采集设备所采集到的点云所在的点云坐标系与图像采集设备所采集到的样本图像所在的图像坐标系之间的转换关系,即标定矩阵,然后,可以基于标定矩阵将样本点云映射在图像坐标系下,得到所映射出的标注图像,其中,标注图像中每个像素点与样本图像中对应位置的像素点存在对应关系。
接着,根据样本点云中点的三维坐标,确定标注图像中每个像素点在映射至三维空间时相对于所述图像坐标系的深度值,作为该像素点的深度值,并作为该像素点在样本图像中对应的像素点的标注深度值。
然后,与样本图像相类似的,可以采用本说明书任一所述的方法,对标注图像中每个像素点的法向量进行预测,针对标注图像中的每个像素点,可以将所预测出的该像素点的法向量作为该像素点在样本图像中对应的像素点的标注法向量。
以下,本说明书提供一种确定预测法向量的方法。
图2B示出了将基于图2A所确定出的目标像素点和参照点映射至三维控件的示意图。
确定出与经过参照点A和参照点B的直线相平行的另一直线,并且该直线与经过参照点C和参照点D的直线处于同一平面上,即图2B中经过点A0 和点B0的直线。可以认为点A0、B0、C、D构成了一个虚拟平面,可以将该平面的法向量视作目标像素点P的法向量。更进一步的,由于经过点A0、点B0的向量与经过点A、点B的向量相同,因此,可以将以点A、点B为起点和终点或以点B、点A为起点和终点的向量作为目标向量。
在此情形下,本说明书一实施例中,在确定出目标参照向量之后,更进一步的,本领域技术人员可以理解的,可以将两个目标参照向量叉乘得到的向量作为所述目标像素点在三维空间中的预测法向量。
更进一步的,仍然以图2A为例,当经过所述目标像素点的各直线中,包括沿所述样本图像所在的图像坐标系的横轴方向的直线(图2A中直线L’)和一个沿所述样本图像所在的图像坐标系的纵轴方向的直线(图2A中直线L) 时,本说明书实施例提供以下确定参照向量的方法。
具体的,可以采用上述任一方式,确定样本图像中各像素点映射至三维空间时的三维坐标,然后,构建样本图像对应的三维特征图,其中,所述三维特征图中每个特征单元为该特征单元在所述样本图像中对应的像素点的三维坐标。本说明书实施例中,三维特征图中的特征单元和样本图像中的每个像素点之间是一一对应的关系,更进一步的,所述三维特征图可以为矩阵,矩阵中的每个元素可以为一个三维向量,该三维向量表示该元素对应的像素点映射至三维空间时的三维坐标。
接着,可以采用预先设定的卷积核,在样本图像对应的三维特征图上滑动,并在每次滑动后所覆盖的所述三维特征图的区域进行一阶深度可分离卷积,将所述卷积核与该参照点对所对应的参照区域卷积后得到的向量作为该参照点对中的参照点为起点和终点的参照向量,其中,所述参照区域为经过所述参照点对的直线上,由参照点对所确定出的线段对应的区域。
仍然以图2A为例,对于包含参照点A和参照点B的参照点对来说,该参照点对之间的区域为参照点A和参照点B本身所在的区域,以及位于直线L 上并且位于参照点A和参照点B之间的像素点所在的区域。
本说明书一实施例中,所述卷积核可以包括横向卷积核和纵向卷积核,其中,在某一次滑动后,卷积核滑动至以目标参照点对应的三维特征图中的区域为中心的位置,在图2A中,所述纵向卷积核覆盖参照点A和参照点B之间的区域所对应的三维特征图中的区域,所述横向卷积核覆盖参照点C和参照点D 之间的区域所对应的三维特征图中的区域,在此情形下,卷积核可以对所覆盖的区域进行一阶深度可分离卷积。以横向卷积核为例,横向卷积核可以被设定的为:
Figure BDA0003482068500000131
在此情形下,所得到的参照向量为:
Figure BDA0003482068500000132
上式中,当
Figure BDA0003482068500000133
为参照点C的坐标时,
Figure BDA0003482068500000134
为参照点D的坐标,当
Figure BDA0003482068500000135
为参照点D的坐标时,
Figure BDA0003482068500000136
为参照点C的坐标,此时,可以确定出包含参照点C和参照点D的参照点对对应的参照向量。其中k为像素点C和像素点D之间的像素点的个数(不包含像素点C和像素点D)。
除本说明书实施例所提供的模型训练方法以外,现有技术中还存在着在样本图像中对距离较远的三个像素点进行采样,并假设其处于同一虚拟平面的方式,基于所确定出的法向量实现损失项的构建,但在该方法中,受限于采样方式,需要较大的计算量来求解法向量。而在本说明书上述实施例中,可以通过一阶深度可分离卷积以较小的计算量直接求解出参照向量,并得到基于参照向量的法向量。
此外,本说明书实施例中,还提供一种基于深度图构建损失项以对深度估计模型进行训练的方法。
具体的,可以采用本说明书中任一方式,为样本图像确定出标注深度图,例如,可以如上所述,获取与采集样本图像的图像采集设备之间预先进行标定的点云采集设备所采集的点云,并基于点云以及点云坐标系和图像坐标系之间的转换关系确定出样本图像的标注深度图,然后,可以以所述深度估计模型输出的所述样本图像对应的深度图与所述样本图像的标注深度图之间的差异最小为目标,调整所述深度估计模型中的参数。
本说明书一实施例中,可以将各像素点的预测法向量和标注法向量之间的差异作为第一差异,并将所述深度估计模型输出的所述样本图像对应的深度图与所述样本图像的标注深度图之间的差异作为第二差异,提供以下三种训练方式:
第一种,可以基于上述两种损失项对所述深度估计模型进行联合训练,以第一差异以及第二差异之和最小为目标,调整所述深度估计模型中的参数。
第二种,可以先基于第一差异进行训练,再基于第二差异进行训练,即,先以第一差异最小为目标,调整所述深度估计模型中的参数,再以第二差异最小为目标,调整所述深度估计模型中的参数。
第三种,可以先基于第二差异进行训练,再基于第一差异进行训练,即,先以第二差异最小为目标,调整所述深度估计模型中的参数,再以第一差异最小为目标,调整所述深度估计模型中的参数。
本说明书一实施例中,在采用上述任一方式训练深度估计模型之后,可以应用所述深度估计模型得到目标图像对应的深度图。
具体的,可以确定目标图像,然后,将所述目标图像输入预先训练的深度估计模型,并得到所述深度估计模型所输出的所述目标图像对应的深度图,其中,所述深度估计模型为采用上述任一方法训练得到的。
以上为本说明书的一个或多个实施例提供的模型训练方法,基于同样的思路,本说明书还提供了相应的模型训练装置,如图3所示。
图3为本说明书提供的一种模型训练装置示意图,该装置包括:图像确定模块300、深度估计模块302、参照点确定模块304、参照向量确定模块306、法向量预测模块308、参数调整模块310,其中:
图像确定模块300,用于确定样本图像;
深度估计模块302,用于将所述样本图像输入待训练的深度估计模型,并得到所述深度估计模型所输出的所述样本图像对应的深度图;
参照点确定模块304,用于针对所述样本图像中的每个像素点,将该像素点作为目标像素点,确定所述目标像素点对应的至少两个参照点对,其中,针对每个参照点对,在样本图像上经过该参照点对中的两个参照点的直线经过所述目标像素点;
参照向量确定模块306,用于根据所述样本图像对应的深度图,确定所述目标像素点和各参照点的三维坐标,针对每个参照点对,根据该参照点对中两个参照点的三维坐标,确定以该参照点对中的参照点为起点和终点的参照向量,作为所述目标像素点对应的参照向量;
法向量预测模块308,用于基于所述目标像素点对应的各参照向量,得到所述目标像素点在三维空间中的预测法向量;
参数调整模块310,用于获取预先确定的各像素点在三维空间中的标注法向量,以各像素点的预测法向量和标注法向量之间的差异最小为目标,调整所述深度估计模型中的参数。
可选地,所述参照点确定模块304具体用于,确定经过所述目标像素点的至少两个直线;
针对所确定出的每个直线,确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,作为该目标像素点对应的参照点对,其中,所述指定距离不小于预先设定的距离阈值。
可选地,经过所述目标像素点的各直线中,至少包括一个直线沿所述样本图像所在的图像坐标系的横轴方向,并至少包括一个直线沿所述样本图像所在的图像坐标系的纵轴方向;所述参照点确定模块304具体用于,获取预先设定的间隔像素数量;确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,其中,针对每个像素点,该像素点与目标像素点之间的指定距离为像素点的单位长度与所述间隔像素数量的乘积。
可选地,所述参照点确定模块304具体用于,确定样本图像对应的三维特征图,其中,所述三维特征图中每个特征单元为该特征单元在所述样本图像中对应的像素点的三维坐标;采用预先设定的卷积核,在样本图像对应的三维特征图上滑动,并在每次滑动后所覆盖的所述三维特征图的区域进行一阶深度可分离卷积,将所述卷积核与该参照点对所对应的参照区域卷积后得到的向量作为该参照点对中的参照点为起点和终点的参照向量,其中,所述参照区域为所述参照点对之间的区域所对应的所述三维特征图中的区域。
可选地,所述法向量预测模块304具体用于,从所述目标像素点对应的各参照向量中选择出两个目标参照向量,并根据两个目标参照向量得到所述目标像素点在三维空间中的预测法向量。
可选地,所述参照向量确定模块306还用于,获取预先为所述样本图像确定出的标注深度图;以所述深度估计模型输出的所述样本图像对应的深度图与所述样本图像的标注深度图之间的差异最小为目标,调整所述深度估计模型中的参数。
可选地,所述参数调整模块310具体用于,获取样本点云;基于预先标定出的所述样本图像的图像坐标系和所述样本点云的点云坐标系之间的转换关系,将所述样本点云映射在所述图像坐标系下,根据所述样本点云的三维坐标,为所述样本图像确定出标注深度图;根据所述样本图像的标注深度图,针对样本图像中每个像素点,确定该像素点以及该像素点对应的参照点的三维坐标,并得到以对应的参照点为起点和终点的各像素点对应的参照向量;基于该像素点对应的各参照向量,得到该像素点在三维空间中的标注法向量。
以上为本说明书的一个或多个实施例提供的深度估计方法,基于同样的思路,本说明书还提供了相应的模型训练装置,如图4所示。
图4为本说明书提供的一种深度估计装置示意图,该装置包括:
图像确定模块400、深度估计模块402,其中:
图像确定模块400,用于确定目标图像;
深度估计模块402,用于将所述目标图像输入预先训练的深度估计模型,并得到所述深度估计模型所输出的所述目标图像对应的深度图,其中,所述深度估计模型为采用上述模型训练方法训练得到的。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述模型训练及深度估计方法。
本说明书还提供了图5所示的电子设备的结构示意图。如图5所示,在硬件层面,该电子设备包括处理器、内部总线、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray, FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如 ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、 Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和 /或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/ 或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器 (RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (12)

1.一种模型训练方法,其特征在于,包括:
确定样本图像;
将所述样本图像输入待训练的深度估计模型,并得到所述深度估计模型所输出的所述样本图像对应的深度图;
针对所述样本图像中的每个像素点,将该像素点作为目标像素点,确定所述目标像素点对应的至少两个参照点对,其中,针对每个参照点对,在样本图像上经过该参照点对中的两个参照点的直线经过所述目标像素点;
根据所述样本图像对应的深度图,确定所述目标像素点和各参照点的三维坐标,针对每个参照点对,根据该参照点对中两个参照点的三维坐标,确定以该参照点对中的参照点为起点和终点的参照向量,作为所述目标像素点对应的参照向量;
基于所述目标像素点对应的各参照向量,得到所述目标像素点在三维空间中的预测法向量;
获取预先确定的各像素点在三维空间中的标注法向量,以各像素点的预测法向量和标注法向量之间的差异最小为目标,调整所述深度估计模型中的参数。
2.如权利要求1所述的方法,其特征在于,确定所述目标像素点对应的至少两个参照点对,具体包括:
确定经过所述目标像素点的至少两个直线;
针对所确定出的每个直线,确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,作为该目标像素点对应的参照点对,其中,所述指定距离不小于预先设定的距离阈值。
3.如权利要求2所述的方法,其特征在于,经过所述目标像素点的各直线中,至少包括一个直线沿所述样本图像所在的图像坐标系的横轴方向,并至少包括一个直线沿所述样本图像所在的图像坐标系的纵轴方向;
确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,具体包括:
获取预先设定的间隔像素数量;
确定出位于该直线上并在沿该直线的不同方向上相对于所述目标像素点的距离为指定距离的两个像素点,其中,针对每个像素点,该像素点与目标像素点之间的指定距离为像素点的单位长度与所述间隔像素数量的乘积。
4.如权利要求3所述的方法,其特征在于,确定以该参照点对中的参照点为起点和终点的参照向量,具体包括:
确定样本图像对应的三维特征图,其中,所述三维特征图中每个特征单元为该特征单元在所述样本图像中对应的像素点的三维坐标;
采用预先设定的卷积核,在样本图像对应的三维特征图上滑动,并在每次滑动后所覆盖的所述三维特征图的区域进行一阶深度可分离卷积,将所述卷积核与该参照点对所对应的参照区域卷积后得到的向量作为该参照点对中的参照点为起点和终点的参照向量,其中,所述参照区域为所述参照点对之间的区域所对应的所述三维特征图中的区域。
5.如权利要求1所述的方法,其特征在于,基于所述目标像素点对应的各参照向量,得到所述目标像素点在三维空间中的预测法向量,具体包括:
从所述目标像素点对应的各参照向量中选择出两个目标参照向量,并根据两个目标参照向量得到所述目标像素点在三维空间中的预测法向量。
6.如权利要求1所述的方法,其特征在于,得到所述深度估计模型所输出的所述样本图像对应的深度图之后,所述方法还包括:
获取预先为所述样本图像确定出的标注深度图;
以所述深度估计模型输出的所述样本图像对应的深度图与所述样本图像的标注深度图之间的差异最小为目标,调整所述深度估计模型中的参数。
7.如权利要求1所述的方法,其特征在于,确定各像素点在三维空间中的标注法向量,具体包括:
获取样本点云;
基于预先标定出的所述样本图像的图像坐标系和所述样本点云的点云坐标系之间的转换关系,将所述样本点云映射在所述图像坐标系下,根据所述样本点云的三维坐标,为所述样本图像确定出标注深度图;
根据所述样本图像的标注深度图,针对样本图像中每个像素点,确定该像素点以及该像素点对应的参照点的三维坐标,并得到以对应的参照点为起点和终点的各像素点对应的参照向量;
基于该像素点对应的各参照向量,得到该像素点在三维空间中的标注法向量。
8.一种深度估计方法,其特征在于,包括:
确定目标图像;
将所述目标图像输入预先训练的深度估计模型,并得到所述深度估计模型所输出的所述目标图像对应的深度图,其中,所述深度估计模型为采用权利要求1~7任一所述的方法训练得到的。
9.一种模型训练装置,其特征在于,所述装置具体包括:
图像确定模块,用于确定样本图像;
深度估计模块,用于将所述样本图像输入待训练的深度估计模型,并得到所述深度估计模型所输出的所述样本图像对应的深度图;
参照点确定模块,用于针对所述样本图像中的每个像素点,将该像素点作为目标像素点,确定所述目标像素点对应的至少两个参照点对,其中,针对每个参照点对,在样本图像上经过该参照点对中的两个参照点的直线经过所述目标像素点;
参照向量确定模块,用于根据所述样本图像对应的深度图,确定所述目标像素点和各参照点的三维坐标,针对每个参照点对,根据该参照点对中两个参照点的三维坐标,确定以该参照点对中的参照点为起点和终点的参照向量,作为所述目标像素点对应的参照向量;
法向量预测模块,用于基于所述目标像素点对应的各参照向量,得到所述目标像素点在三维空间中的预测法向量;
参数调整模块,用于获取预先确定的各像素点在三维空间中的标注法向量,以各像素点的预测法向量和标注法向量之间的差异最小为目标,调整所述深度估计模型中的参数。
10.一种深度估计装置,其特征在于,所述装置具体包括:
图像确定模块,用于确定目标图像;
深度估计模块,用于将所述目标图像输入预先训练的深度估计模型,并得到所述深度估计模型所输出的所述目标图像对应的深度图,其中,所述深度估计模型为采用权利要求1~7任一所述的方法训练得到的。
11.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~8任一项所述的方法。
12.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~8任一项所述的方法。
CN202210070815.1A 2022-01-21 2022-01-21 模型训练及深度估计方法、装置、存储介质及电子设备 Pending CN114494381A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210070815.1A CN114494381A (zh) 2022-01-21 2022-01-21 模型训练及深度估计方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210070815.1A CN114494381A (zh) 2022-01-21 2022-01-21 模型训练及深度估计方法、装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN114494381A true CN114494381A (zh) 2022-05-13

Family

ID=81472772

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210070815.1A Pending CN114494381A (zh) 2022-01-21 2022-01-21 模型训练及深度估计方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN114494381A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861572A (zh) * 2023-02-24 2023-03-28 腾讯科技(深圳)有限公司 一种三维建模方法、装置、设备及存储介质
CN117611648A (zh) * 2023-12-04 2024-02-27 北京斯年智驾科技有限公司 一种图像深度估计方法、系统和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861572A (zh) * 2023-02-24 2023-03-28 腾讯科技(深圳)有限公司 一种三维建模方法、装置、设备及存储介质
CN117611648A (zh) * 2023-12-04 2024-02-27 北京斯年智驾科技有限公司 一种图像深度估计方法、系统和存储介质

Similar Documents

Publication Publication Date Title
CN108320296B (zh) 一种视频中目标对象的检测跟踪方法、装置及设备
CN111238450B (zh) 视觉定位方法及装置
CN112001456B (zh) 一种车辆定位方法、装置、存储介质及电子设备
CN111508258B (zh) 一种定位方法及装置
CN111260726A (zh) 一种视觉定位方法及装置
CN114494381A (zh) 模型训练及深度估计方法、装置、存储介质及电子设备
CN111062372B (zh) 一种预测障碍物轨迹的方法及装置
CN111797711A (zh) 一种模型训练的方法及装置
CN111127551A (zh) 一种目标检测的方法及装置
CN111353417A (zh) 一种目标检测的方法及装置
CN111797906A (zh) 基于视觉和惯性里程定位的方法及装置
CN116309823A (zh) 一种位姿的确定方法、装置、设备及存储介质
CN113674424B (zh) 一种电子地图绘制的方法及装置
CN112883871B (zh) 一种模型训练以及确定无人车运动策略方法及装置
CN111368902A (zh) 一种数据标注的方法及装置
CN112990099B (zh) 一种车道线检测的方法以及装置
CN112902987B (zh) 一种位姿修正的方法及装置
CN112362084A (zh) 一种数据标定方法、装置及数据标定系统
CN112861831A (zh) 一种目标物的识别方法、装置、存储介质及电子设备
CN112734851B (zh) 一种位姿确定的方法以及装置
CN112461258A (zh) 一种参数修正的方法及装置
CN114332201A (zh) 一种模型训练、目标检测的方法以及装置
CN114187355A (zh) 一种图像标定方法及装置
CN111798489B (zh) 一种特征点跟踪方法、设备、介质及无人设备
CN112712561A (zh) 一种建图方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination