CN115223122A - 物体的三维信息确定方法、装置、车辆与存储介质 - Google Patents

物体的三维信息确定方法、装置、车辆与存储介质 Download PDF

Info

Publication number
CN115223122A
CN115223122A CN202210788292.4A CN202210788292A CN115223122A CN 115223122 A CN115223122 A CN 115223122A CN 202210788292 A CN202210788292 A CN 202210788292A CN 115223122 A CN115223122 A CN 115223122A
Authority
CN
China
Prior art keywords
dimensional
target
central point
depth distance
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210788292.4A
Other languages
English (en)
Inventor
黄嘉慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Automobile Technology Co Ltd
Original Assignee
Xiaomi Automobile Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Automobile Technology Co Ltd filed Critical Xiaomi Automobile Technology Co Ltd
Priority to CN202210788292.4A priority Critical patent/CN115223122A/zh
Publication of CN115223122A publication Critical patent/CN115223122A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及一种物体的三维信息确定方法、装置、车辆与存储介质,涉及自动驾驶技术领域。该方法包括:确定目标物的三维坐标参数以及该目标物在图像上的预测节点特征信息;该图像通过图像采集装置采集得到,该预测节点特征信息包括该目标物在该图像上的位置信息与视觉特征信息;根据该预测节点特征信息、该三维坐标参数以及该图像采集装置的焦距,确定该目标物与该图像采集装置之间的预测深度距离;根据该预测深度距离以及目标深度距离偏移量,得到该目标物与该图像采集装置之间的目标深度距离。使用本公开提供的物体的三维信息确定方法,可以得到的目标深度距离更加接近实际深度距离。

Description

物体的三维信息确定方法、装置、车辆与存储介质
技术领域
本公开涉及自动驾驶技术领域,尤其涉及一种物体的三维信息确定方法、装置、车辆与存储介质。
背景技术
目前,市面上出现3D目标检测,3D目标检测的主要应用场景是自动驾驶,自动驾驶车不仅需要识别物体的类型,还需要识别物体的精确位置和朝向,以提供物体的位置信息与方向信息给规划控制模块,规划出合理的线路。3D目标检测使得自动驾驶车具备检测车辆、行人、障碍物等物体的能力,保障行驶安全。
然而,对于图像采集装置所拍摄的2D图像而言,是对2D图像直接通过网络推理的方式来计算2D图像中每个目物体到图像采集装置的深度距离,当2D图像中物体到图像采集装置的深度距离较远时,物体在2D图像上的尺寸较小,导致网络所拟合出的深度距离的准确性较低。
发明内容
为克服相关技术中存在的问题,本公开提供一种物体的三维信息确定方法、装置、车辆与存储介质。
根据本公开实施例的第一方面,提供一种物体的三维信息确定方法,所述方法包括:
确定目标物的三维坐标参数以及所述目标物在图像上的预测节点特征信息;所述图像通过图像采集装置采集得到,所述预测节点特征信息包括所述目标物在所述图像上的位置信息与视觉特征信息;
根据所述预测节点特征信息、所述三维坐标参数以及所述图像采集装置的焦距,确定所述目标物与所述图像采集装置之间的预测深度距离;
根据所述预测深度距离以及目标深度距离偏移量,得到所述目标物与所述图像采集装置之间的目标深度距离。
可选地,所述方法还包括:
确定所述目标物的二维中心点的目标中心点坐标参数,所述二维中心点为所述目标物在所述图像上的中心点;
根据所述二维中心点的目标中心点坐标参数以及所述图像采集装置的内参矩阵,确定所述目标物的三维中心点的预测中心点坐标参数;
根据所述三维中心点的预测中心点坐标参数以及所述三维中心点的三维目标中心点偏移量,确定所述三维中心点的目标中心点坐标参数。
可选地,确定所述目标物的二维中心点的目标中心点坐标参数,包括:
预测所述目标物的二维中心点的预测中心点坐标参数;
根据所述二维中心点的预测中心点坐标参数以及所述二维中心点的目标二维中心点偏移量,确定所述二维中心点的目标中心点坐标参数。
可选地,根据所述预测节点特征信息、所述三维坐标参数以及所述图像采集装置的焦距,确定所述目标物与所述图像采集装置之间的预测深度距离,包括:
根据所述预测节点特征信息,确定所述目标物在所述图像中的二维高度;
根据所述三维坐标参数,确定所述目标物的三维高度;
根据所述二维高度、所述三维高度以及所述焦距,确定所述预测深度距离。
可选地,所述目标深度距离偏移量通过以下步骤得到:
对深度距离偏移量进行多次拟合;
获取第一误差与每次拟合的深度距离偏移量之间的差值,所述第一误差为所述预测深度距离与实际深度距离之间的实际误差;
在所述差值满足收敛条件的情况下,将本次拟合得到的深度距离偏移量作为所述目标深度距离偏移量。
可选地,所述方法包括:
根据所述预测节点特征信息与所述目标物在所述图像上的实际节点特征信息,确定三维预测模型的二维损失函数的变化速率;
根据所述二维损失函数的变化速率确定三维损失函数的权重;
根据所述二维损失函数与所述二维损失函数的权重,以及所述三维损失函数与所述三维损失函数的权重,确定所述三维预测模型的损失函数;
其中,所述三维损失函数为所述三维预测模型根据所述预测深度距离偏移量与所述实际深度距离偏移量之间的第一误差来得到。
可选地,确定所述目标物在所述图像上的预测节点特征信息之后,所述方法包括:
根据所述预测节点特征信息对应的特征图,预测所述目标物相对于所述图像采集装置的目标偏转角度。
根据本公开实施例的第二方面,提供一种物体的三维信息确定装置,所述装置包括:
确定模块,被配置为确定目标物的三维坐标参数以及所述目标物在图像上的预测节点特征信息;所述图像通过图像采集装置采集得到,所述预测节点特征信息包括所述目标物在所述图像上的位置信息与视觉特征信息;
预测深度距离计算模块,被配置为根据所述预测节点特征信息、所述三维坐标参数以及所述图像采集装置的焦距,确定所述目标物与所述图像采集装置之间的预测深度距离;
目标深度距离计算模块,被配置为根据所述预测深度距离以及目标深度距离偏移量,得到所述目标物与所述图像采集装置之间的目标深度距离。
根据本公开实施例的第三方面,提供一种车辆,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
实现本公开第一方面所提供的物体的三维信息确定方法的步骤。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的物体的三维信息确定方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
通过本公开提出的物体的三维信息确定方法,先以预测的方式,来预测得到预测节点特征信息与三维坐标信息;再采用几何的方式,来计算预测节点特征信息与三维坐标信息所得到的预测深度距离;最后拟合目标深度距离,使得得到的目标深度距离接近实际深度距离,减轻由于预测所带来的深度距离预测不准的现象。如此,相较于直接根据图像使用网络拟合目标深度距离而言,即使预测尺寸较小的目标物的深度距离,本公开也能够基于预测与几何叠加的方式,来使得得到的目标物的目标深度距离更加接近实际深度距离。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的物体的三维信息确定方法的步骤流程图。
图2是根据一示例性实施例示出的物体的三维信息确定方法的逻辑示意图。
图3是根据一示例性实施例示出的用于确定预测深度距离的示意图。
图4是根据一示例性实施例示出的物体的三维信息确定装置的框图。
图5是根据一示例性实施例示出的一种车辆的功能框图示意图。
图6是根据一示例性实施例示出的一种装置的框图。
图7是根据一示例性实施例示出的一种装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
需要说明的是,本申请中所有获取信号、信息或数据的动作都是在遵照所在地国家相应的数据保护法规政策的前提下,并获得由相应装置所有者给予授权的情况下进行的。
请参照图1所示的一种物体的三维细信息确定方法的步骤流程图,以及图2所示的一种物体的三维信息确定方法的逻辑示意图,具体包括以下步骤:
在步骤S11中:确定目标物的三维坐标参数以及所述目标物在图像上的预测节点特征信息;所述图像通过图像采集装置采集得到,所述预测节点特征信息包括所述目标物在所述图像上的位置信息与视觉特征信息。
本步骤中,可以通过三维预测模型来预测目标物的预测节点特征信息。
具体地,三维预测模型包括骨干网络、网络Neck部分、网络head部分。接收图像,将图像采集装置采集的图像输入至三维预测模型中,骨干网络用于对图像进行特征提取,网络Neck部分用于更好地利用骨干网络提取的特征,网络head部分用于预测图像中各个目标物的位置信息、类别信息以及视觉特征信息等预测节点特征信息,还用于预测二维中心点的预测中心点坐标参数以及二维中心点偏移量。目标物的位置信息、类别信息以及视觉特征信息均属于目标物的预测节点特征信息,一种预测节点特征信息可以用于表征一个目标物的特征图。
目标物的位置信息通过每个物体的定位框在图像上的位置体现;目标物的类别信息指的是目标物所属的种类,视觉特征信息指的是目标物的纹理信息以及色彩信息等等。
其中,目标物的三维坐标参数包括目标物在图像采集装置的坐标系上的X坐标、Y坐标以及Z坐标,图像采集装置可以为相机,图像采集装置的坐标系指的是以图像采集装置的聚焦中心为原点,以光轴为Z轴所建立的三维直角坐标系。
其中,针对目标物的每个位置的三维坐标参数,均可以通过目标物在图像上的二维坐标参数以及图像采集装置的内参矩阵来得到。
具体地,三维坐标参数转换为二维坐标参数的表达式为:
Figure BDA0003729476830000051
在公式(1)中,
Figure BDA0003729476830000061
为图像采集装置的内参矩阵;x代表目标物在相机坐标系中的横坐标,y代表目标物在相机坐标系中的纵坐标,z代表目标物在相机坐标系中的深度坐标;u为目标物的像素在像素坐标系中的横坐标,v为目标物的像素在像素坐标系中的高度坐标;f代表图像采集装置的焦距。
在公式(1)中,fx代表图像采集装置的焦距在像素坐标系中u轴上缩放后的参数,fy代表图像采集装置的焦距在像素坐标系中v轴缩放后的参数,cx代表图像采集装置的坐标系原点在u轴上的平移,cy代表图像采集装置的坐标系原点在v轴上的平移。
从公式(1)中可以看出,通过图像采集装置的内参矩阵
Figure BDA0003729476830000062
以及目标物的二维坐标参数u与v,可以得到目标物的三维坐标参数x、y、z。
在步骤S12中:根据所述预测节点特征信息、所述三维坐标参数以及所述图像采集装置的焦距,确定所述目标物与所述图像采集装置之间的预测深度距离。
本步骤中,由于预测节点特征信息可以用于表征一个目标物的特征图,特征图中包含了目标物的长度与高度,所以根据预测节点特征信息,可以得到目标物在图像上的二维高度,二维高度就是目标物的高度;由于三维坐标参数是用于表征一个目标物实际的三维参数,所以根据三维坐标参数,可以得到目标物的三维高度。
请参阅图3所示,根据三角形相似定理,可以得到:
Dg=f*h3d/h2d 公式(2)
在公式(2)中,f代表图像采集装置的焦距,h3d代表目标物的三维高度,h2d代表目标物在图像上的二维高度,Dg代表目标物与图像采集装置之间的预测深度距离。
其中,图像指的是二维图像,目标物的二维高度通过目标物的像素在像素坐标系中的高度坐标得到,二维高度指的是目标物在图像上的高度;目标物的三维高度通过目标物在相机坐标系中的高度坐标得到,三维高度指的是目标物的实际高度。
可见,在通过三维坐标参数确定了目标物的三维高度,在通过预测节点特征信息确定了目标物的二维高度之后,可以通过公式(2),来得到预测深度距离。
在步骤S13中,根据所述预测深度距离以及目标深度距离偏移量,得到所述目标物与所述图像采集装置之间的目标深度距离。
本步骤中,三维预测模型在对图像进行处理,来得到目标物的三维高度与二维高度的过程中,由于三维高度与二维高度是通过三维预测模型预测得到的,三维预测模型的预测本身存在误差,导致三维预测模型所预测出的预测深度距离与实际深度距离之间具有第一误差。第一误差指的是预测深度距离与实际深度距离之间真实存在的误差,后续三维预测模型所学习的也是该误差。
为了使得计算出的目标深度距离更加接近实际深度距离,工作人员可以先测量图像采集装置与目标物之间的实际深度距离,再将实际深度距离作为三维预测模型的输出,将预测节点特征信息与三维坐标参数作为三维预测模型的输入来对三维预测模型进行训练。
在依据三维预测模型预测出的预测节点特征信息与三维坐标参数,来得到预测深度距离之后,三维预测模型会不断地对深度距离偏移量的初始值进行拟合;再获取第一误差与每次拟合的深度距离偏移量之间的差值;在差值满足收敛条件的情况下,将此次拟合得到的深度距离偏移量作为目标深度距离偏移量,最终对预测深度距离与目标深度距离偏移量进行叠加得到目标深度距离,使得得到的目标深度距离与实际深度距离接近。
其中,收敛条件为本次拟合得到的深度距离偏移量与第一误差之间的差值,相比上次拟合得到的深度距离偏移量与第一误差之间的差值没有继续变小的情况下,确定为此次得到的差值满足收敛条件;也可以将收敛条件理解为第一误差与拟合的深度距离偏移量之间的差值无法再继续变小的条件,或者理解为深度距离偏移量尽可能地接近第一误差的条件。
示例地,在三维预测模型依据与预测节点特征信息与三维坐标参数,所预测出的预测深度距离为20,实际深度距离为30,预测深度距离与实际深度距离之间具有10的第一误差,且三维预测模型所提供的深度距离偏移量的初始值为2情况下。
依据预测深度距离20与深度距离偏移量2得到的初始深度距离为22,此时会得到初始深度距离22与实际深度距离30之间的差值,并将差值经过损失函数的处理生成损失值,通过三维预测模型中网络的反向传播进行三维预测模型中权值的更新,使得深度距离偏移量2不断逼近预测深度距离与实际深度距离之间的第一误差10,在深度距离偏移量从2增大至9.5而无法继续增大的情况下,即在深度距离偏移量与第一误差之间的差值为0.5,且无法再继续变小的情况下,将9.5作为目标深度距离偏移量来与预测深度距离20相加,得到29.5的目标深度距离,而29.5与实际深度距离30相近。
在这个过程中,会通过三维预测模型的网络来不断拟合目标深度距离,当深度距离偏移量逼近预测深度距离与实际深度距离之间的第一误差时,目标深度距离也逐渐逼近实际深度距离。
其中,预测深度距离与实际深度距离不同,预测深度距离指的是三维预测模型所预测出的目标物与图像采集装置之间的深度距离;实际深度距离指的是原始图像中目标物与图像采集装置之间真实的深度距离。
其中,特征图样本指的是图像中目标物的特征图,通过目标物的预测节点特征信息中的位置信息、目标物的纹理与色彩等视觉特征信息以及目标物的类别,可以从图像中唯一确定目标物的特征图,特征图是三维预测模型所能进行计算识别的,依据特征图可以确定目标物的尺寸(尺寸包括长与高)、位置、类别等等。
通过本公开提出的物体的三维信息确定方法,三维预测模型可以通过目标物在图像上的预测节点特征信息来确定目标物的二维高度,通过目标物的三维坐标参数来确定目标物的三维高度,最终通过二维高度、三维高度以及图像采集装置的焦距,来预测目标物与图像采集装置之间的预测深度距离;同时拟合深度距离偏移量,使得拟合的深度距离偏移量不断地接近预测深度距离与实际深度距离偏移量之间的第一误差,最终依据深度距离偏移量与预测深度距离,得到逼近实际深度距离的目标深度距离。
在这个过程中,本公开先采用模型预测的方式,来预测得到预测节点特征信息与三维坐标信息;再采用几何的方式,来计算预测节点特征信息与三维坐标信息所得到的预测深度距离;最后拟合目标深度距离,使得得到的目标深度距离接近实际深度距离,减轻由于模型预测所带来的深度距离预测不准的现象。
如此,相较于直接使用网络来拟合目标深度距离而言,即使预测尺寸较小的目标物的深度距离,本公开也能够基于模型预测与几何的方式,来得到目标物准确的目标深度距离。
物体的三维信息包括:目标物与图像采集装置之间的目标深度距离,目标物的三维中心点的目标中心点坐标参数,以及目标物相较于图像采集装置的偏转角度,在确定了实际深度距离之后,还需要确定实际中心点坐标参数以及目标物相较于图像采集装置的偏转角度,才能确定目标物在实际场景中的位置状况。
在一种可能的实施方式中,在确定目标物的三维中心点的目标中心点坐标参数时,还包括以下步骤:
步骤S21:确定所述目标物的二维中心点的目标中心点坐标参数,所述二维中心点为所述目标物在所述图像上的中心点。
本步骤中,可以通过以下子步骤来确定目标物二维中心点的目标中心点坐标参数。
子步骤A1:预测所述目标物的二维中心点的预测中心点坐标参数。
其中,图像包括初始图像与目标图像。初始图像指的是未经过三维预测模型进行尺寸缩放的图像,目标图像指的是经过三维预测模型缩放并进行尺寸恢复后所得到的图像。目标物的二维中心点指的是目标物在图像上的中心点。
其中,二维中心点的预测中心点坐标参数与实际中心点坐标参数不同,预测中心点坐标参数指的是三维预测模型对初始图像的尺寸进行缩放,并恢复图像初始尺寸得到目标图像后,目标图像中目标物的二维中心点坐标;实际中心点坐标参数指的是初始图像中目标物的二维中心点坐标。
具体地,可以通过三维预测模型的head部分在接收到Neck部分输出的特征之后,输出目标物的位置信息,位置信息中包含有目标物的二维中心点的预测中心点坐标参数。
子步骤A2:根据所述二维中心点的预测二维坐标参数以及所述二维中心点的二维目标中心点偏移量,确定所述二维中心点的目标中心点坐标参数。
其中,三维预测模型在对图像进行处理的过程中,会对初始图像进行缩放,即使按照原始比例对初始图像的尺寸进行恢复,也会导致三维预测模型预测出的二维中心点的预测中心点坐标参数与实际中心点坐标参数之间具有真实的第二误差。
为了避免实际的二维中心点偏移量对二维中心点的中心点坐标参数造成影响,三维预测模型可以对一个初始的二维中心点偏移量进行多次拟合,以使得拟合得到的二维中心点偏移量不断地接近第二误差;在本次拟合得到的二维中心点偏移量与第二误差之间的差值,相较于上次拟合得到的二维中心点偏移量与第二误差之间的差值没有继续变小的情况下,或者在此次拟合得到的二维中心点偏移量无法再继续接近第二误差的情况下,将本次拟合得到的二维中心点偏移量作为二维目标中心点偏移量;最后将二维目标中心点偏移量与预测二维坐标参数进行叠加,来得到二维中心点的目标中心点坐标参数。
示例地,三维预测模型在进行图像处理时,将300X300的初始图像缩小成150X150的图像,再将150X150的图像恢复成300X300的目标图像,在这个过程中,虽然图像的尺寸被恢复,但是会导致目标物的中心点坐标在像素坐标系上的坐标从(100,100)变成了(90,95),那么实际中心点坐标参数(100,100)与预测中心点坐标参数(90,95)之间,便具有了(10,5)的二维中心点偏移量。
三维预测模型此时可以对初始的二维中心点偏移量(0,0)进行多次拟合,以使得二维中心点偏移量不断地接近实际的二维中心点偏移量(10,5),当三维预测模型所拟合出的二维中心点偏移量为(9,4),且无法再继续逼近实际的二维中心点偏移量(10,5)时,可以将此次拟合出的二维中心点偏移量(9,4)作为二维目标中心点偏移量;最后将二维目标中心点偏移量(9,4)与预测中心点坐标参数(90,95)进行相加,得到二维中心点的目标中心点坐标参数(99,99),而目标中心点坐标参数也接近二维中心点实际中心点坐标参数(100,100)。
可见,采用子步骤A1与A2的方法,可以使得三维预测模型学习得到的目标中心点偏移量更加接近实际中心点偏移量,基于二维中心点的预测中心点坐标参数与二维中心点的二维目标中心点偏移量叠加,所得到的二维中心点的目标中心点坐标参数,是更加接近二维中心点的实际中心点坐标参数的,此时减少了由于图像缩放所导致的实际中心点偏移量所带来的影响,提升了得到目标中心点坐标参数的准确性。
其中,在得到二维中心点的目标中心点坐标参数之后,可以将二维中心点的目标中心点坐标参数作为二维信息进行输出,以展现二维中心点的目标中心点坐标参数。
步骤S22:根据所述二维中心点的目标中心点坐标参数以及所述图像采集装置的内参矩阵,确定所述目标物的三维中心点的预测中心点坐标参数。
本步骤中,可以根据公式(1)中二维中心点的目标中心点坐标参数以及图采集装置的内参矩阵,来将目标物的二维中心点的目标中心点坐标参数,转换成三维中心点的预测中心点坐标参数。
其中,三维中心点的预测中心点坐标参数指的是三维预测模型所预测的目标物的中心点在相机坐标系中的位置。
将公式(1)运用在计算三维中心点的预测中心点坐标参数上时,x为目标物的三维中心点在相机坐标系中的横坐标,y为目标物的三维中心点在相机坐标系中的纵坐标,z为目标物的三维中心点在三维坐标系中的深度坐标;u为目标物的二维中心点在像素坐标系中的横坐标,v为目标物的二维中心点在像素坐标系中的高度坐标。
根据公式(1)可以得知,在确定了二维中心点的目标中心点坐标参数u、v之后,可以根据u、v以及图像采集装置的内参矩阵
Figure BDA0003729476830000121
来得到三维中心点的预测中心点坐标参数x、y、z。
步骤S23:根据所述三维中心点的预测中心点坐标参数以及所述三维中心点的三维目标中心点偏移量,确定所述三维中心点的目标中心点坐标参数。
本步骤中,三维预测模型在将初始图像进行缩放,再将缩放后的初始图像恢复成原始尺寸的目标图像之后,虽然初始图像的尺寸得到了恢复,但是也会导致预测出的三维中心点的预测中心点坐标参数与三维中心点的实际中心点坐标参数之间具有第三误差。
为了避免第三误差对三维中心点的中心点坐标参数造成影响,三维预测模型也可以对一个初始的三维中心点偏移量进行多次拟合,以使得拟合得到的三维中心点偏移量不断地接近第三误差;在本次拟合得到的三维中心点偏移量与第三误差的差值,相较于上次拟合得到的三维中心点偏移量与第三误差的差值没有继续变小的情况下,或者在本次拟合得到的三维中心点偏移量无法再继续接近第三误差的情况下,将本次拟合得到的三维中心点偏移量作为三维目标中心点偏移量;最后将三维目标中心点偏移量与三维中心点的预测中心点坐标参数进行叠加,来得到三维中心点的目标中心点坐标参数。
其中,三维中心点的预测中心点坐标参数与实际中心点坐标参数不同,预测中心点坐标参数指的是三维预测模型对初始图像的尺寸进行缩放,并恢复图像初始尺寸得到目标图像后,依据目标图像所预测出的目标物的三维中心点坐标;实际中心点坐标参数指的是依据初始图像所得到的目标物的三维中心点坐标。
在一种可能的实施方式中,在确定目标物的实际偏转角度时,还包括:根据所述预测节点特征信息对应的特征图,预测所述目标物相对于所述图像采集装置的目标偏转角度。
其中,实际偏转角度指的是目标物与图像采集装置之间的夹角,可以通过图像上特征图每个像素的像素坐标点,确定实际偏转角度。
在确定实际偏转角度的过程中,由于图像会经过缩放,导致特征图的每个像素点的像素坐标点发生变化,此时预测出的预测偏转角度与实际偏转角度之间具有第五误差。
为了降低第五误差所带来的影响,可以让三维检测模型学习第五误差,当预测偏转角度与实际偏转角度之间的差值无法再继续接近第五误差的情况下,将此次得到的预测偏转角度作为目标偏转角度,以使得得到的目标偏转角度接近实际偏转角度,从而减轻第五误差所带来的影响。
在确定目标物的三维信息的过程中,由于目标物的三维信息是基于目标物的二维信息所得到的,所以为了使得三维检测模型被训练的更好,还包括以下步骤:
步骤S31:根据所述预测节点特征信息与所述目标物在所述图像上的实际节点特征信息,确定所述三维预测模型的二维损失函数的变化速率。
本步骤中,预测节点特征信息指的是通过三维预测模型所预测出的目标物在图像上的位置信息与视觉特征信息,实际节点特征信息指的是目标物在图像上真实的位置信息与视觉特征信息。
其中,二维损失函数的变化速率指的是三维预测模型中所有的二维信息的损失函数的变化速率,二维信息包括目标物的二维中心点的目标中心点坐标参数以及目标物的预测节点特征信息;二维信息的损失函数包括:预测节点特征信息与实际节点特征信息之间的第四误差所构成的第四损失函数,以及二维中心点的预测中心点坐标参数与实际中心点坐标参数之间的第二误差所构成的第二损失函数。
其中,在确定三维预测模型中的二维损失函数的变化速率时,可以先确定在三维预测模型当前训练次数中的二维损失函数的变化速率,具体为:
Figure BDA0003729476830000131
在公式(3)中,t是三维预测模型当前的训练次数,L(0)代表二维信息的损失函数初始趋势,L(t)代表二维信息的当前训练次数t的损失函数的趋势,m(t)代表在当前训练次数中的二维损失函数的变化速率。
在确定了当前训练次数中的二维损失函数的变化速率之后,可以依据以下公式来确定所有的二维损失函数的变化速率,具体为:
Figure BDA0003729476830000141
在公式(4)中,p_2d为所有的二维信息任务的集合,a(t)代表累积所有二维信息的损失函数的变化速率。
在公式(3)与公式(4)中,L(0)的初始值较大,表明预测二维信息并未被拟合好;当L(t)逐渐变小时,二维损失函数的变化速率m(t)与总二维损失函数的变化速率a(t)逐渐增大,此时三维预测模型输出预测节点特征信息与二维中心点的目标中心点坐标参数的部分被训练地越好,三维预测模型输出的预测节点特征信息接近实际节点特征信息,得到的预测节点特征信息越准确;三维预测模型输出的二维中心点的目标中心点坐标参数接近实际中心点坐标参数,得到的二维中心点的目标中心点坐标参数也更加准确。
当L(t)的数值无法再继续变小时,此时二维信息的当前训练次数t的损失函数的变化速率达到最小,表明当前训练次数t下的预测节点特征信息已尽可能地接近实际节点特征信息,得到的预测节点特征信息比较准确;当前训练次数t下的二维中心点的目标中心点坐标参数也尽可能地接近实际中心点坐标参数,得到的目标中心点坐标参数也更加准确。
步骤S32:根据所述二维损失函数的变化速率确定三维损失函数的权重。
当得到的a(t)无法再增大时,表明此时三维预测模型输出的预测节点特征信息与预测中心点偏移量比较准确,在此基础上,可以进一步根据总的二维损失函数的变化速率a(t),来得到三维损失函数的权重,具体可以通过以下公式得到:
w=(t/T)1-a(t) 公式(5)
在公式(5)中,w为权重,t是当前的训练次数,T为总训练次数。
可以看出,当a(t)增大至无法继续增大时,此时w也增大到最大值,此时三维损失函数的权重达到最大值;在三维损失函数的权重达到最大值时,表明此时可以得到准确的预测节点特征信息与二维中心点的目标中心点坐标参数,此时可以着重训练目标物的三维信息,并计算三维信息的三维损失函数。
其中,三维损失函数包括:目标深度距离与实际深度距离之间的第一误差所构成的第一损失函数,以及三维中心点的预测中心点坐标参数与实际中心点坐标参数之间的第三误差所构成的第三损失函数。
步骤S33:根据所述二维损失函数与二维损失函数的权重,以及三维损失函数与三维损失函数的权重,确定所述三维预测模型的损失函数。
本步骤中,是将每个二维损失函数与二维损失函数对应的权重相乘后相加;再将每个三维损失函数与三维损失函数对应的权重相乘后相加,得到三维预测模型总的损失函数。
其中,在三维损失函数中,总的损失函数越小,表明整个三维预测模型被训练的越好。
通过本公开提出的物体的三维信息确定方法,可以在将三维预测模型中预测二维信息的部分训练好之后,再训练三维预测模型中预测三维信息的部分,这种多级训练策略,可以使得三维预测模型被训练地更好,得到的二维信息与三维信息也更加准确。
图4是根据一示例性实施例示出的一种物体的三维信息确定装置的框图。参照图4,该装置120包括:确定模块121、预测深度距离计算模块122以及目标深度距离计算模块123。
确定模块121,被配置为确定目标物的三维坐标参数以及所述目标物在图像上的预测节点特征信息;所述图像通过图像采集装置采集得到,所述预测节点特征信息包括所述目标物在所述图像上的位置信息与视觉特征信息;
预测深度距离计算模块122,被配置为根据所述预测节点特征信息、所述三维坐标参数以及所述图像采集装置的焦距,确定所述目标物与所述图像采集装置之间的预测深度距离;
目标深度距离计算模块123,被配置为根据所述预测深度距离以及目标深度距离偏移量,得到所述目标物与所述图像采集装置之间的目标深度距离。
可选地,该装置120还包括:
二维目标中心点确定模块,被配置为确定所述目标物的二维中心点的目标中心点坐标参数,所述二维中心点为所述目标物在所述图像上的中心点;
三维预测中心点确定模块,被配置为根据所述二维中心点的目标中心点坐标参数以及所述图像采集装置的内参矩阵,确定所述目标物的三维中心点的预测中心点坐标参数;
三维目标中心点确定模块,被配置为根据所述三维中心点的预测中心点坐标参数以及所述三维中心点的三维目标中心点偏移量,确定所述三维中心点的目标中心点坐标参数。
可选地,二维目标中心点确定模块包括:
二维预测中心点确定模块,被配置为预测所述目标物的二维中心点的预测中心点坐标参数;
二维目标中心点确定子模块,被配置为根据所述二维中心点的预测中心点坐标参数以及所述二维中心点的二维目标中心点偏移量,确定所述二维中心点的目标中心点坐标参数。
可选地,预测深度距离计算模块122包括:
二维高度确定模块,被配置为根据所述预测节点特征信息,确定所述目标物在所述图像中的二维高度;
三维高度确定模块,被配置为根据所述三维坐标参数,确定所述目标物的三维高度;
预测深度距离计算子模块,被配置为根据所述二维高度、所述三维高度以及所述焦距,确定所述预测深度距离。
可选地,该装置120还包括:
拟合模块,被配置为对深度距离偏移量进行多次拟合;
差值获取模块,被配置为获取第一误差与每次拟合的深度距离偏移量之间的差值,所述第一误差为所述预测深度距离与所述实际深度距离之间的实际误差;
目标深度距离偏移量确定模块,被配置为在所述差值满足收敛条件的情况下,将本次拟合得到的深度距离偏移量作为所述目标深度距离偏移量。
可选地,该装置120还包括:
二维变化速率确定模块,被配置为根据所述预测节点特征信息与所述目标物在所述图像上的实际节点特征信息,确定所述三维预测模型的二维损失函数的变化速率;
三维损失函数权重确定模块,被配置为根据所述二维损失函数的变化速率确定三维损失函数的权重;
总损失函数确定模块,被配置为根据所述二维损失函数与所述二维损失函数的权重,以及所述三维损失函数与所述三维损失函数的权重,确定所述三维预测模型的损失函数;
其中,所述三维损失函数为所述三维预测模型根据所述预测深度距离偏移量与所述实际深度距离偏移量之间的第一误差得到。
可选地,该装置120还包括:
偏转角度确定模块,被配置为根据所述预测节点特征信息对应的特征图,预测所述目标物相对于所述图像采集装置的目标偏转角度。
参阅图5,图5是一示例性实施例示出的一种车辆600的功能框图示意图。车辆600可以被配置为完全或部分自动驾驶模式。例如,车辆600可以通过感知系统620获取其周围的环境信息,并基于对周边环境信息的分析得到自动驾驶策略以实现完全自动驾驶,或者将分析结果呈现给用户以实现部分自动驾驶。
车辆600可包括各种子系统,例如,信息娱乐系统610、感知系统620、决策控制系统630、驱动系统640以及计算平台650。可选的,车辆600可包括更多或更少的子系统,并且每个子系统都可包括多个部件。另外,车辆600的每个子系统和部件可以通过有线或者无线的方式实现互连。
在一些实施例中,信息娱乐系统610可以包括通信系统611,娱乐系统612以及导航系统613。
通信系统611可以包括无线通信系统,无线通信系统可以直接地或者经由通信网络来与一个或多个设备无线通信。例如,无线通信系统可使用3G蜂窝通信,例如CDMA、EVD0、GSM/GPRS,或者4G蜂窝通信,例如LTE。或者5G蜂窝通信。无线通信系统可利用WiFi与无线局域网(wireless local area network,WLAN)通信。在一些实施例中,无线通信系统可利用红外链路、蓝牙或ZigBee与设备直接通信。其他无线协议,例如各种车辆通信系统,例如,无线通信系统可包括一个或多个专用短程通信(dedicated short range communications,DSRC)设备,这些设备可包括车辆和/或路边台站之间的公共和/或私有数据通信。
娱乐系统612可以包括显示设备,麦克风和音响,用户可以基于娱乐系统在车内收听广播,播放音乐;或者将手机和车辆联通,在显示设备上实现手机的投屏,显示设备可以为触控式,用户可以通过触摸屏幕进行操作。
在一些情况下,可以通过麦克风获取用户的语音信号,并依据对用户的语音信号的分析实现用户对车辆600的某些控制,例如调节车内温度等。在另一些情况下,可以通过音响向用户播放音乐。
导航系统613可以包括由地图供应商所提供的地图服务,从而为车辆600提供行驶路线的导航,导航系统613可以和车辆的全球定位系统621、惯性测量单元622配合使用。地图供应商所提供的地图服务可以为二维地图,也可以是高精地图。
感知系统620可包括感测关于车辆600周边的环境的信息的若干种传感器。例如,感知系统620可包括全球定位系统621(全球定位系统可以是GPS系统,也可以是北斗系统或者其他定位系统)、惯性测量单元(inertial measurement unit,IMU)622、激光雷达623、毫米波雷达624、超声雷达625以及摄像装置626。感知系统620还可包括被监视车辆600的内部系统的传感器(例如,车内空气质量监测器、燃油量表、机油温度表等)。来自这些传感器中的一个或多个的传感器数据可用于检测对象及其相应特性(位置、形状、方向、速度等)。这种检测和识别是车辆600的安全操作的关键功能。
全球定位系统621用于估计车辆600的地理位置。
惯性测量单元622用于基于惯性加速度来感测车辆600的位姿变化。在一些实施例中,惯性测量单元622可以是加速度计和陀螺仪的组合。
激光雷达623利用激光来感测车辆600所位于的环境中的物体。在一些实施例中,激光雷达623可包括一个或多个激光源、激光扫描器以及一个或多个检测器,以及其他系统组件。
毫米波雷达624利用无线电信号来感测车辆600的周边环境内的物体。在一些实施例中,除了感测物体以外,毫米波雷达624还可用于感测物体的速度和/或前进方向。
超声雷达625可以利用超声波信号来感测车辆600周围的物体。
摄像装置626用于捕捉车辆600的周边环境的图像信息。摄像装置626可以包括单目相机、双目相机、结构光相机以及全景相机等,摄像装置626获取的图像信息可以包括静态图像,也可以包括视频流信息。
决策控制系统630包括基于感知系统620所获取的信息进行分析决策的计算系统631,决策控制系统630还包括对车辆600的动力系统进行控制的整车控制器632,以及用于控制车辆600的转向系统633、油门634和制动系统635。
计算系统631可以操作来处理和分析由感知系统620所获取的各种信息以便识别车辆600周边环境中的目标、物体和/或特征。目标可以包括行人或者动物,物体和/或特征可包括交通信号、道路边界和障碍物。计算系统631可使用物体识别算法、运动中恢复结构(Structure from Motion,SFM)算法、视频跟踪等技术。在一些实施例中,计算系统631可以用于为环境绘制地图、跟踪物体、估计物体的速度等等。计算系统631可以将所获取的各种信息进行分析并得出对车辆的控制策略。
整车控制器632可以用于对车辆的动力电池和引擎641进行协调控制,以提升车辆600的动力性能。
转向系统633可操作来调整车辆600的前进方向。例如在一个实施例中可以为方向盘系统。
油门634用于控制引擎641的操作速度并进而控制车辆600的速度。
制动系统635用于控制车辆600减速。制动系统635可使用摩擦力来减慢车轮644。在一些实施例中,制动系统635可将车轮644的动能转换为电流。制动系统635也可采取其他形式来减慢车轮644转速从而控制车辆600的速度。
驱动系统640可包括为车辆600提供动力运动的组件。在一个实施例中,驱动系统640可包括引擎641、能量源642、传动系统643和车轮644。引擎641可以是内燃机、电动机、空气压缩引擎或其他类型的引擎组合,例如汽油发动机和电动机组成的混动引擎,内燃引擎和空气压缩引擎组成的混动引擎。引擎641将能量源642转换成机械能量。
能量源642的示例包括汽油、柴油、其他基于石油的燃料、丙烷、其他基于压缩气体的燃料、乙醇、太阳能电池板、电池和其他电力来源。能量源642也可以为车辆600的其他系统提供能量。
传动系统643可以将来自引擎641的机械动力传送到车轮644。传动系统643可包括变速箱、差速器和驱动轴。在一个实施例中,传动系统643还可以包括其他器件,比如离合器。其中,驱动轴可包括可耦合到一个或多个车轮644的一个或多个轴。
车辆600的部分或所有功能受计算平台650控制。计算平台650可包括至少一个第一处理器651,第一处理器651可以执行存储在例如第一存储器652这样的非暂态计算机可读介质中的指令653。在一些实施例中,计算平台650还可以是采用分布式方式控制车辆600的个体组件或子系统的多个计算设备。
第一处理器651可以是任何常规的处理器,诸如商业可获得的CPU。可替换地,第一处理器651还可以包括诸如图像处理器(Graphic Process Unit,GPU),现场可编程门阵列(Field Programmable Gate Array,FPGA)、片上系统(System on Chip,SOC)、专用集成芯片(Application Specific Integrated Circuit,ASIC)或它们的组合。尽管图5功能性地图示了处理器、存储器、和在相同块中的计算机的其它元件,但是本领域的普通技术人员应该理解该处理器、计算机、或存储器实际上可以包括可以或者可以不存储在相同的物理外壳内的多个处理器、计算机、或存储器。例如,存储器可以是硬盘驱动器或位于不同于计算机的外壳内的其它存储介质。因此,对处理器或计算机的引用将被理解为包括对可以或者可以不并行操作的处理器或计算机或存储器的集合的引用。不同于使用单一的处理器来执行此处所描述的步骤,诸如转向组件和减速组件的一些组件每个都可以具有其自己的处理器,处理器只执行与特定于组件的功能相关的计算。
在本公开实施方式中,第一处理器651可以执行上述的物体的三维信息确定方法。
在此处所描述的各个方面中,第一处理器651可以位于远离该车辆并且与该车辆进行无线通信。在其它方面中,此处所描述的过程中的一些在布置于车辆内的处理器上执行而其它则由远程处理器执行,包括采取执行单一操纵的必要步骤。
在一些实施例中,第一存储器652可包含指令653(例如,程序逻辑),指令653可被第一处理器651执行来执行车辆600的各种功能。第一存储器652也可包含额外的指令,包括向信息娱乐系统610、感知系统620、决策控制系统630、驱动系统640中的一个或多个发送数据、从其接收数据、与其交互和/或对其进行控制的指令。
除了指令653以外,第一存储器652还可存储数据,例如道路地图、路线信息,车辆的位置、方向、速度以及其它这样的车辆数据,以及其他信息。这种信息可在车辆600在自主、半自主和/或手动模式中操作期间被车辆600和计算平台650使用。
计算平台650可基于从各种子系统(例如,驱动系统640、感知系统620和决策控制系统630)接收的输入来控制车辆600的功能。例如,计算平台650可利用来自决策控制系统630的输入以便控制转向系统633来避免由感知系统620检测到的障碍物。在一些实施例中,计算平台650可操作来对车辆600及其子系统的许多方面提供控制。
可选地,上述这些组件中的一个或多个可与车辆600分开安装或关联。例如,第一存储器652可以部分或完全地与车辆600分开存在。上述组件可以按有线和/或无线方式来通信地耦合在一起。
可选地,上述组件只是一个示例,实际应用中,上述各个模块中的组件有可能根据实际需要增添或者删除,图5不应理解为对本公开实施例的限制。
在道路行进的自动驾驶汽车,如上面的车辆600,可以识别其周围环境内的物体以确定对当前速度的调整。物体可以是其它车辆、交通控制设备、或者其它类型的物体。在一些示例中,可以独立地考虑每个识别的物体,并且基于物体的各自的特性,诸如它的当前速度、加速度、与车辆的间距等,可以用来确定自动驾驶汽车所要调整的速度。
可选地,车辆600或者与车辆600相关联的感知和计算设备(例如计算系统631、计算平台650)可以基于所识别的物体的特性和周围环境的状态(例如,交通、雨、道路上的冰、等等)来预测识别的物体的行为。可选地,每一个所识别的物体都依赖于彼此的行为,因此还可以将所识别的所有物体全部一起考虑来预测单个识别的物体的行为。车辆600能够基于预测的识别的物体的行为来调整它的速度。换句话说,自动驾驶汽车能够基于所预测的物体的行为来确定车辆将需要调整到(例如,加速、减速、或者停止)何种稳定状态。在这个过程中,也可以考虑其它因素来确定车辆600的速度,诸如,车辆600在行驶的道路中的横向位置、道路的曲率、静态和动态物体的接近度等等。
除了提供调整自动驾驶汽车的速度的指令之外,计算设备还可以提供修改车辆600的转向角的指令,以使得自动驾驶汽车遵循给定的轨迹和/或维持与自动驾驶汽车附近的物体(例如,道路上的相邻车道中的车辆)的安全横向和纵向距离。
上述车辆600可以为各种类型的行驶工具,例如,轿车、卡车、摩托车、公共汽车、船、飞机、直升飞机、娱乐车、火车等等,本公开实施例不做特别的限定。
图6是根据一示例性实施例示出的一种用于物体的三维信息确定装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图6,装置800可以包括以下一个或多个组件:第一处理组件802,第二存储器804,第一电源组件806,多媒体组件808,音频组件810,第一输入/输出接口812,传感器组件814,以及通信组件816。
第一处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。第一处理组件802可以包括一个或多个第二处理器820来执行指令,以完成上述的物体的三维信息确定方法的全部或部分步骤。此外,第一处理组件802可以包括一个或多个模块,便于第一处理组件802和其他组件之间的交互。例如,第一处理组件802可以包括多媒体模块,以方便多媒体组件808和第一处理组件802之间的交互。
第二存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。第二存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
第一电源组件806为装置800的各种组件提供电力。第一电源组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在第二存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
第一输入/输出接口812为第一处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述物体的三维信息确定方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的第二存储器804,上述指令可由装置800的第二处理器820执行以完成上述物体的三维信息确定方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的物体的三维信息确定方法的代码部分。
图7是根据一示例性实施例示出的一种用于物体的三维信息确定装置1900的框图。例如,装置1900可以被提供为一服务器。参照图7,装置1900包括第二处理组件1922,其进一步包括一个或多个处理器,以及由第三存储器1932所代表的存储器资源,用于存储可由第二处理组件1922的执行的指令,例如应用程序。第三存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,第二处理组件1922被配置为执行指令,以执行上述物体的三维信息确定方法。
装置1900还可以包括一个第二电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个第二输入/输出接口1958。装置1900可以操作基于存储在第三存储器1932的操作系统,例如WindowsServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种物体的三维信息确定方法,其特征在于,所述方法包括:
确定目标物的三维坐标参数以及所述目标物在图像上的预测节点特征信息;所述图像通过图像采集装置采集得到,所述预测节点特征信息包括所述目标物在所述图像上的位置信息与视觉特征信息;
根据所述预测节点特征信息、所述三维坐标参数以及所述图像采集装置的焦距,确定所述目标物与所述图像采集装置之间的预测深度距离;
根据所述预测深度距离以及目标深度距离偏移量,得到所述目标物与所述图像采集装置之间的目标深度距离。
2.根据权利要求1所述的物体的三维信息确定方法,其特征在于,所述方法还包括:
确定所述目标物的二维中心点的目标中心点坐标参数,所述二维中心点为所述目标物在所述图像上的中心点;
根据所述二维中心点的目标中心点坐标参数以及所述图像采集装置的内参矩阵,确定所述目标物的三维中心点的预测中心点坐标参数;
根据所述三维中心点的预测中心点坐标参数以及所述三维中心点的三维目标中心点偏移量,确定所述三维中心点的目标中心点坐标参数。
3.根据权利要求2所述的物体的三维信息确定方法,其特征在于,确定所述目标物的二维中心点的目标中心点坐标参数,包括:
预测所述目标物的二维中心点的预测中心点坐标参数;
根据所述二维中心点的预测中心点坐标参数以及所述二维中心点的二维目标中心点偏移量,确定所述二维中心点的目标中心点坐标参数。
4.根据权利要求1所述的物体的三维信息确定方法,其特征在于,根据所述预测节点特征信息、所述三维坐标参数以及所述图像采集装置的焦距,确定所述目标物与所述图像采集装置之间的预测深度距离,包括:
根据所述预测节点特征信息,确定所述目标物在所述图像中的二维高度;
根据所述三维坐标参数,确定所述目标物的三维高度;
根据所述二维高度、所述三维高度以及所述焦距,确定所述预测深度距离。
5.根据权利要求1所述的物体的三维信息确定方法,其特征在于,所述目标深度距离偏移量通过以下步骤得到:
对深度距离偏移量进行多次拟合;
获取第一误差与每次拟合的深度距离偏移量之间的差值,所述第一误差为所述预测深度距离与实际深度距离之间的实际误差;
在所述差值满足收敛条件的情况下,将本次拟合得到的深度距离偏移量作为所述目标深度距离偏移量。
6.根据权利要求5所述的物体的三维信息确定方法,其特征在于,所述方法包括:
根据所述预测节点特征信息与所述目标物在所述图像上的实际节点特征信息,确定三维预测模型的二维损失函数的变化速率;
根据所述二维损失函数的变化速率确定三维损失函数的权重;
根据所述二维损失函数与所述二维损失函数的权重,以及所述三维损失函数与所述三维损失函数的权重,确定所述三维预测模型的损失函数;
其中,所述三维损失函数为所述三维预测模型根据所述预测深度距离与所述实际深度距离之间的第一误差来得到。
7.根据权利要求1所述的物体的三维信息确定方法,其特征在于,确定所述目标物在所述图像上的预测节点特征信息之后,所述方法包括:
根据所述预测节点特征信息对应的特征图,预测所述目标物相对于所述图像采集装置的目标偏转角度。
8.一种物体的三维信息确定装置,其特征在于,所述装置包括:
确定模块,被配置为确定目标物的三维坐标参数以及所述目标物在图像上的预测节点特征信息;所述图像通过图像采集装置采集得到,所述预测节点特征信息包括所述目标物在所述图像上的位置信息与视觉特征信息;
预测深度距离计算模块,被配置为根据所述预测节点特征信息、所述三维坐标参数以及所述图像采集装置的焦距,确定所述目标物与所述图像采集装置之间的预测深度距离;
目标深度距离计算模块,被配置为根据所述预测深度距离以及目标深度距离偏移量,得到所述目标物与所述图像采集装置之间的目标深度距离。
9.一种车辆,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
实现权利要求1至7中任一项所述的物体的三维信息确定方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1至7中任一项所述的物体的三维信息确定方法的步骤。
CN202210788292.4A 2022-07-04 2022-07-04 物体的三维信息确定方法、装置、车辆与存储介质 Pending CN115223122A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210788292.4A CN115223122A (zh) 2022-07-04 2022-07-04 物体的三维信息确定方法、装置、车辆与存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210788292.4A CN115223122A (zh) 2022-07-04 2022-07-04 物体的三维信息确定方法、装置、车辆与存储介质

Publications (1)

Publication Number Publication Date
CN115223122A true CN115223122A (zh) 2022-10-21

Family

ID=83610214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210788292.4A Pending CN115223122A (zh) 2022-07-04 2022-07-04 物体的三维信息确定方法、装置、车辆与存储介质

Country Status (1)

Country Link
CN (1) CN115223122A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117491946A (zh) * 2023-11-03 2024-02-02 深圳市元瑧科技有限公司 一种智能定位项圈的位置定位方法及智能定位项圈

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117491946A (zh) * 2023-11-03 2024-02-02 深圳市元瑧科技有限公司 一种智能定位项圈的位置定位方法及智能定位项圈

Similar Documents

Publication Publication Date Title
CN114882464B (zh) 多任务模型训练方法、多任务处理方法、装置及车辆
CN115222941A (zh) 目标检测方法、装置、车辆、存储介质、芯片及电子设备
CN115239548A (zh) 目标检测方法、装置、电子设备及介质
CN114935334A (zh) 车道拓扑关系的构建方法、装置、车辆、介质及芯片
CN115170630B (zh) 地图生成方法、装置、电子设备、车辆和存储介质
CN114842455B (zh) 障碍物检测方法、装置、设备、介质、芯片及车辆
CN115164910B (zh) 行驶路径生成方法、装置、车辆、存储介质及芯片
CN114771539B (zh) 车辆变道决策方法、装置、存储介质及车辆
CN114756700B (zh) 场景库建立方法、装置、车辆、存储介质及芯片
CN114862931A (zh) 深度距离确定方法、装置、车辆、存储介质与芯片
CN114973178A (zh) 模型训练方法、物体识别方法、装置、车辆及存储介质
CN114880408A (zh) 场景构建方法、装置、介质以及芯片
CN114863717A (zh) 车位推荐方法、装置、存储介质及车辆
CN115223122A (zh) 物体的三维信息确定方法、装置、车辆与存储介质
CN114842454B (zh) 障碍物检测方法、装置、设备、存储介质、芯片及车辆
CN114821511B (zh) 杆体检测方法、装置、车辆、存储介质及芯片
CN115221260B (zh) 数据处理方法、装置、车辆及存储介质
CN114771514B (zh) 车辆行驶控制方法、装置、设备、介质、芯片及车辆
CN115535004B (zh) 距离生成方法、装置、存储介质及车辆
CN114789723B (zh) 车辆行驶控制方法、装置、车辆、存储介质及芯片
CN115115822B (zh) 车端图像处理方法、装置、车辆、存储介质及芯片
CN115214629B (zh) 自动泊车方法、装置、存储介质、车辆及芯片
CN114572219B (zh) 自动超车方法、装置、车辆、存储介质及芯片
CN114911630B (zh) 数据处理方法、装置、车辆、存储介质及芯片
CN114822216B (zh) 生成车位地图的方法、装置、车辆、存储介质及芯片

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination