CN111179628B - 自动驾驶车辆的定位方法、装置、电子设备及存储介质 - Google Patents

自动驾驶车辆的定位方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111179628B
CN111179628B CN202010022590.3A CN202010022590A CN111179628B CN 111179628 B CN111179628 B CN 111179628B CN 202010022590 A CN202010022590 A CN 202010022590A CN 111179628 B CN111179628 B CN 111179628B
Authority
CN
China
Prior art keywords
image
loss function
pose
term
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010022590.3A
Other languages
English (en)
Other versions
CN111179628A (zh
Inventor
田咪
聂琼
申浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202010022590.3A priority Critical patent/CN111179628B/zh
Publication of CN111179628A publication Critical patent/CN111179628A/zh
Application granted granted Critical
Publication of CN111179628B publication Critical patent/CN111179628B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights

Abstract

本申请公开了一种自动驾驶车辆的定位方法、装置、电子设备及存储介质,属于自动驾驶技术领域。该方法通过获取自动驾驶车辆在当前时刻的目标图像;将目标图像输入目标定位模型,该目标定位模型用于根据目标图像确定自动驾驶车辆的位姿,目标定位模型由损失函数约束项进行约束,损失函数约束项包括欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项中的至少一种;根据该目标定位模型的输出结果,确定自动驾驶车辆的目标位姿;基于该目标位姿对自动驾驶车辆进行定位。由于该目标定位模型的定位精度较高,一定程度上,可以提高自动驾驶车辆的定位精度,从而可以提高自动驾驶车辆的安全系数。

Description

自动驾驶车辆的定位方法、装置、电子设备及存储介质
技术领域
本申请实施例涉及自动驾驶技术领域,特别涉及一种自动驾驶车辆的定位方法、装置、电子设备及存储介质。
背景技术
汽车的出现使人们的生活变得更加方便、快捷,随着计算机技术的不断发展,自动驾驶技术逐渐成为汽车行业的研究热点。自动驾驶技术主要依靠于计算机视觉、雷达、监控装置和全球定位系统等协同合作,让汽车在不需要驾驶员操控的情况下,实现自动驾驶。因此,亟需一种自动驾驶车辆的定位方法,使得自动驾驶车辆更加安全可靠。
然而,相关技术中对自动驾驶车辆进行定位时缺乏对世界坐标系下场景的挖掘和利用,使得用于自动驾驶车辆的定位的约束函数为图像级别的约束关系。因此,会导致车辆的定位不精确,从而降低自动驾驶车辆的定位精度,一定程度上,会降低自动驾驶车辆的安全可靠性。
发明内容
本申请实施例提供了一种自动驾驶车辆的定位方法、装置、电子设备及存储介质,可用于解决相关技术中的问题。该技术方案如下:
一方面,本申请实施例提供了一种自动驾驶车辆的定位方法,该方法包括:
获取目标图像,该目标图像为该自动驾驶车辆在当前时刻周围环境的图像;
将该目标图像输入目标定位模型,该目标定位模型用于根据该目标图像确定该自动驾驶车辆的位姿,该目标定位模型由损失函数约束项进行约束,该损失函数约束项包括欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项中的至少一种;
根据该目标定位模型的输出结果,确定该自动驾驶车辆的目标位姿;
基于该目标位姿对该自动驾驶车辆进行定位。
在一种可能的实现方式中,该将该目标图像输入目标定位模型之前,该方法还包括:
获取第一图像和第二图像,该第一图像为自动驾驶车辆在第一时刻周围环境的图像,第二图像为自动驾驶车辆在第二时刻周围环境的图像,该第一时刻和该第二时刻为该当前时刻之前的相邻两个时刻;
基于该第一图像和该第二图像,计算损失函数约束项;
根据该损失函数约束项,训练预测定位模型,得到该目标定位模型。
在一种可能的实现方式中,该基于该第一图像和该第二图像,计算损失函数约束项,包括:
基于该第一图像,获取第一预测位姿,基于该第二图像,获取第二预测位姿;
基于该第一预测位姿和该第二预测位姿,计算欧氏距离损失函数项;
基于该第一预测位姿和该第二预测位姿,计算光度差损失函数项和结构相似性损失函数项;
根据该欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项,计算该损失函数约束项。
在一种可能的实现方式中,该基于该第一预测位姿和该第二预测位姿,计算欧氏距离损失函数项,包括:
根据该第一图像的真实位姿和该第一预测位姿,计算第一对欧氏距离;
根据该第二图像的真实位姿和该第二预测位姿,计算第二对欧氏距离;
根据该第一对欧氏距离和该第二对欧氏距离,计算欧氏距离损失函数项。
在一种可能的实现方式中,该基于该第一预测位姿和该第二预测位姿,计算光度差损失函数项和结构相似性损失函数项,包括:
根据该第一预测位姿和该第二预测位姿,计算预测位姿转换矩阵;
基于该预测位姿转换矩阵,对该第一图像和该第二图像中的任一个图像进行转换,得到第三图像;
根据该第三图像和进行位姿转换的图像,计算光度差损失函数项和结构相似性损失函数项。
在一种可能的实现方式中,该根据该第三图像和进行位姿转换的图像,计算光度差损失函数项和结构相似性损失函数项,包括:
计算该第三图像和该进行位姿转换的图像的光度差,作为该光度差损失函数项;
计算该第三图像和该进行位姿转换的图像的结构相似性,作为该结构相似性损失函数项。
在一种可能的实现方式中,该根据该欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项,计算该损失函数约束项,包括:
根据该欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项,按照如下公式计算该损失函数约束项L:
L=λDLDPLPSLS
其中,该λD、λP、λS为加权因子,该LD为欧氏距离损失函数项,该LP为光度差损失函数项,该LS为结构相似性损失函数项。
另一方面,提供了一种自动驾驶车辆的定位装置,该装置包括:
第一获取模块,用于获取目标图像,该目标图像为自动驾驶车辆在当前时刻周围环境的图像;
输入模块,用于将该目标图像输入目标定位模型,该目标定位模型用于根据该目标图像确定该自动驾驶车辆的位姿,该目标定位模型由损失函数约束项进行约束,该损失函数约束项包括欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项中的至少一种;
确定模块,用于根据该目标定位模型的输出结果,确定该自动驾驶车辆的目标位姿;
定位模块,用于基于该目标位姿对该自动驾驶车辆进行定位。
在一种可能的实现方式中,该装置还包括:
第二获取模块,用于获取第一图像和第二图像,该第一图像为自动驾驶车辆在第一时刻周围环境的图像,该第二图像为自动驾驶车辆在第二时刻周围环境的图像,该第一时刻和该第二时刻为该当前时刻之前的相邻两个时刻;
计算模块,用于基于该第一图像和该第二图像,计算损失函数约束项;
训练模块,用于根据该损失函数约束项,训练预测定位模型,得到该目标定位模型。
在一种可能的实现方式中,该计算模块包括下述子模块:
获取子模块,用于基于该第一图像,获取第一预测位姿,基于该第二图像,获取第二预测位姿;
第一计算子模块,用于基于该第一预测位姿和该第二预测位姿,计算欧氏距离损失函数项;
第二计算子模块,用于基于该第一预测位姿和该第二预测位姿,计算光度差损失函数项和结构相似性损失函数项;
第三计算子模块,用于根据该欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项,计算该损失函数约束项。
在一种可能的实现方式中,该第一计算子模块用于根据该第一图像的真实位姿和该第一预测位姿,计算第一对欧氏距离;根据该第二图像的真实位姿和该第二预测位姿,计算第二对欧氏距离;根据该第一对欧氏距离和该第二对欧氏距离,计算欧氏距离损失函数项。
在一种可能的实现方式中,该第二计算子模块用于根据该第一预测位姿和该第二预测位姿,计算预测位姿转换矩阵;基于该预测位姿转换矩阵,对该第一图像和该第二图像中的任一个图像进行转换,得到第三图像;根据该第三图像和进行位姿转换的图像,计算光度差损失函数项和结构相似性损失函数项。
在一种可能的实现方式中,该第二计算子模块用于计算该第三图像和该进行位姿转换的图像的光度差,作为该光度差损失函数项;计算该第三图像和该进行位姿转换的图像的结构相似性,作为该结构相似性损失函数项。
在一种可能的实现方式中,该第三计算子模块用于根据该欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项,按照如下公式计算该损失函数约束项L:
L=λDLDPLPSLS
其中,该λD、λP、λS为加权因子,该LD为欧氏距离损失函数项,该LP为光度差损失函数项,该LS为结构相似性损失函数项。
另一方面,提供了一种电子设备,该电子设备包括处理器和存储器,该存储器中存储有至少一条程序代码,该至少一条程序代码由该处理器加载并执行,以实现上述任一自动驾驶车辆的定位方法。
另一方面,还提供了一种存储介质,该存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现上述任一自动驾驶车辆的定位方法。
本申请实施例提供的技术方案至少带来如下有益效果:
通过获取自动驾驶车辆在当前时刻周围环境的目标图像,将该目标图像输入目标定位模型,根据该目标定为模型的输出结果,确定该自动驾驶车辆的目标位姿,根据该目标位姿对该自动驾驶车辆进行定位。由于该目标定位模型的定位精度较高,一定程度上,可以提高自动车辆的定位精度,从而可以提高自动驾驶车辆的安全系数。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种自动驾驶车辆的定位的实施环境示意图;
图2是本申请实施例提供的一种自动驾驶车辆的定位的流程图;
图3是本申请实施例提供的一种损失函数约束项的计算过程示意图;
图4是本申请实施例提供的根据目标定位模型对目标图像进行定位的示意图;
图5是本申请实施例提供的一种自动驾驶车辆的定位装置的结构图;
图6是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
图1是本申请实施例提供的一种自动驾驶车辆的定位的实施环境示意图,如图1所示,该实施环境包括:摄像装置101和电子设备102。
摄像装置101安装在自动驾驶车辆中,摄像装置101可以和电子设备102进行通信。该摄像装置101为车载摄像头,车载摄像头主要包括内视摄像头、后视摄像头、前置摄像头、侧置摄像头、环视摄像头等,本申请实施例仅以图1中的摄像装置101为例。摄像装置101用于获取自动驾驶车辆在每一个时刻的图像,并将获取到的图像发送至电子设备102。本申请实施例对摄像装置101的数量和设备类型不做限定。
电子设备102可以是自动驾驶车辆上的一个设备,也可以是指自动驾驶车辆,还可以是诸如远程的其它类型的电子设备,本申请实施例不对电子设备102的产品形态进行限定。该电子设备102用于根据第一图像和第二图像,对预测定位模型进行训练,以得到定位精度较高的目标定位模型。电子设备102还用于接收摄像装置101发送的目标图像,根据该目标图像,确定车辆的目标位姿,从而根据该目标位姿对自动驾驶车辆进行定位。
基于上述实施环境,本申请实施例提供了一种自动驾驶车辆的定位方法,以图2所示的本申请实施例提供的一种自动驾驶车辆的定位的方法流程图为例,该方法可由图1中的电子设备102执行,以该电子设备102为自动驾驶车辆为例。如图2所示,该方法包括下述步骤:
在步骤201中,获取目标图像,该目标图像为自动驾驶车辆在当前时刻周围环境的图像。
其中,目标图像是指自动驾驶车辆在当前时刻周围环境的图像,该目标图像可以是自动驾驶车辆上的摄像装置在当前时刻拍摄得到的自动驾驶车辆所处环境的图像,也可以是其他设备,例如智能手机、平板等便携式智能设备在当前时刻所拍摄的自动驾驶车辆所处环境的图像。
当该目标图像是由自动驾驶车辆上的摄像装置所拍摄时,由于自动驾驶车辆上会有多个摄像装置,每个摄像装置在该自动驾驶车辆上的位置不同,拍摄出的目标图像也是不同的,因此,该目标图像可以是由该自动驾驶车辆上的任一个摄像装置所拍摄,本申请实施例对此不做限定。当该目标图像由便携式智能设备所拍摄时,将该目标图像发送至自动驾驶车辆,由自动驾驶车辆对该目标图像进行处理。
在本申请实施例中,自动驾驶车辆接收摄像装置或其他便携式智能设备所发送的目标图像,也即是,自动驾驶车辆获取自动驾驶车辆在当前时刻的目标图像。
在步骤202中,将该目标图像输入目标定位模型,该目标定位模型用于根据目标图像确定自动驾驶车辆的位姿,该目标定位模型由损失函数约束项进行约束,该损失函数约束项包括欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项中的至少一项。
其中,目标定位模型是根据损失函数约束项对预测定位模型进行训练得到的。如图3所示为本申请实施例提供的损失函数约束项的计算过程示意图。示例性地,预测定位模型采用的神经网络可以为视觉神经网络常用的基础神经网络,例如深度残差网络ResNet-34、深度残差网络ResNet-50和神经网络GoogleNet中的任一种,还可以根据训练预测定位模型所使用的数据集的不同和应用场景的不同选择不同结构的网络。此外,还可以在该基础神经网络的最后一层卷积层后添加一个全连接层,该全连接层用于得到摄像装置拍摄的图像的相机位姿,该相机位姿包括位置位姿和朝向位姿。
对该预测定位模型进行训练的过程包括如下步骤1至步骤7:
步骤1、获取第一图像和第二图像。
在本步骤中,第一图像是自动驾驶车辆在第一时刻周围环境的图像,第二图像是自动驾驶车辆在第二时刻周围环境的图像,例如该第一时刻和第二时刻是相邻的两个时刻。该第一图像和第二图像可以是由自动驾驶车辆上的摄像装置所获取的,也可以是其它设备,例如智能手机、平板电脑等便携式智能设备所获取的。由于第一图像和第二图像是在不同时刻被拍摄得到的图像,因此该第一图像和第二图像之间会存在一些偏差。此外,第一图像和第二图像是摄像装置坐标系下的图像。
需要说明的是,该第一图像和第二图像用于训练预测定位模型。因此,拍摄第一图像时自动驾驶车辆对应的第一真实位姿和拍摄第二图像时自动驾驶车辆对应的第二真实位姿是已知的,该第一真实位姿和第二真实位姿均为世界坐标系下自动驾驶车辆的位姿。
步骤2、将获取到的第一图像和第二图像发送至自动驾驶车辆。
在本申请实施例中,在获取到第一图像和第二图像后,可以自动将该第一图像和第二图像发送至自动驾驶车辆。还可以在接收到自动驾驶车辆的图像请求后,将获取的第一图像和第二图像发送至自动驾驶车辆。本申请实施例对第一图像和第二图像的发送时机不做限制。
步骤3、自动驾驶车辆接收该第一图像和第二图像,基于该第一图像和第二图像,获取第一图像对应的第一预测位姿,获取第二图像对应的第二预测位姿。
在本步骤中,自动驾驶车辆接收到第一图像和第二图像之后,将该第一图像输入预测定位模型,以得到该第一图像对应的第一预测位姿。将该第二图像输入预测定位模型,以得到该第二图像对应的第二预测位姿。其中,预测定位模型用于根据摄像装置发送的图像,对该图像的拍摄时刻下自动驾驶车辆的位姿进行预测。
步骤4、自动驾驶车辆基于第一预测位姿和第二预测位姿,计算欧氏距离损失函数项。
根据上述第一图像的第一真实位姿和第一预测位姿,计算第一对欧氏距离,该第一对欧氏距离为第一图像的欧氏距离。根据上述第二图像的第二真实位姿和第二预测位姿,计算第二对欧氏距离,该第二对欧氏距离为第二图像的欧氏距离。根据第一对欧氏距离和第二对欧氏距离计算欧氏距离损失函数。其中,第一对欧氏距离和第二对欧氏距离的计算过程,都可以按照下述公式进行计算:
上述公式(1)中,LD(Ii)为第i时刻图像的欧氏距离,xi为第i时刻真实位姿的位置分量,为i时刻预测位姿的位置分量,qi为i时刻真实位姿的朝向分量,为i时刻预测位姿的朝向分量,β为平衡因子。
根据上述公式(1),分别得到第一对欧氏距离和第二对欧氏距离。
根据第一对欧氏距离和第二对欧氏距离计算欧氏距离损失函数项,包括但不限于根据该第一对欧氏距离和第二对欧氏距离的和,计算欧氏距离损失函数项。例如,根据第一对欧氏距离和第二对欧氏距离的和,按照下述公式计算欧氏距离损失函数项:
LD=LD(It-1)+LD(It) (2)
上述公式(2)中,LD(It-1)为第一时刻的第一图像的第一对欧氏距离,LD(It)为第二时刻的第二图像的第二对欧氏距离,LD为欧氏距离损失函数约束项。
步骤5、基于第一预测位姿和第二预测位姿,计算光度差损失函数项和结构相似性损失函数项,包括但不限于如下步骤。
步骤51、自动驾驶车辆根据该第一预测位姿和第二预测位姿,计算预测位姿转换矩阵。
在本步骤中,根据第一图像和第二图像的预测位姿,计算预测位姿转换矩阵,该预测位姿转换矩阵可以将第一图像中的每个像素点的坐标转换到第二图像的摄像装置坐标系下,也可以将第二图像中每个像素点的坐标转换到第一图像的摄像装置坐标系下,本申请实施例对于进行位姿转换的图像不做限定。
步骤52、自动驾驶车辆基于该预测位姿转换矩阵,对第一图像和第二图像中的任一个图像进行转换,得到第三图像。
在本步骤中,本申请实施例中将第一图像和第二图像中任一图像的像素点的坐标进行位姿转换,从而得到第三图像。本申请实施例仅以将第二图像中的像素点的坐标转换到第一图像的摄像装置坐标系下为例进行说明。
例如,上述第一图像为It-1,第二图像为It,第一真实位姿为p=[x,q],第二真实位姿为其中,x为位置分量,q为朝向分量。按照下述公式将第二图像中的像素点的坐标转换到第一图像的摄像装置坐标系下:
上述公式(3)中,ut-1是第一图像中像素点在第一时刻摄像装置坐标系中的坐标位置,ut为第二图像中像素点在第一时刻的摄像装置坐标系中的坐标位置,K为摄像装置标定的本征矩阵,K-1为摄像装置标定的本征矩阵的逆矩阵,为预测位姿转换矩阵,pt-1为第二图像在第一时刻下的朝向位置,Dt-1为第二图像在世界坐标系中的坐标位置。
需要说明的是,第二图像中的每个像素点都需要经过上述公式(3)进行转换。将每个像素点转化之后的坐标进行组合,从而得到第三图像,该第三图像即为在第一时刻摄像装置坐标系下的第二图像。
步骤53、基于该第三图像和进行位姿转换的图像,计算光度差损失函数项和结构相似性损失函数项。
在本申请实施例中,若进行位姿转换的图像为第一图像,则根据该第一图像和第三图像,计算光度差损失函数项和结构相似性损失函数项。若进行位姿转换的图像为第二图像,则根据该第二图像和第三图像,计算光度差损失函数项和结构相似性损失函数项。本申请实施例仅以进行位姿转换的图像为第二图像进行举例说明。
在本步骤53中,由于上述步骤52得到的第三图像是由第二图像进行位姿转换得到的。根据第二图像和上述步骤52得到的第三图像,计算两个图像之间的光度的差值,得到光度差损失函数项。例如,根据第二图像和第三图像,按照下述公式计算该光度差损失函数项:
上述公式(4)中,LP为光度差损失函数项,It(i,j)为第二图像的坐标信息,warpedt-1(i,j)为第三图像的坐标信息,用来确定两张图像中同一位置的像素点的光度是否一致,的取值范围为[0,1],若取值为0,则说明该像素点的光度不需要进行计算,若取值为1,则说明该像素点的光度需要进行计算。
需要进行说明的是,若上述步骤52中得到的第三图像是由第一图像转换得到的,则需要计算第一图像和该第三图像之间的光度差损失函数约束项。因此,本申请实施例中光度差损失函数约束项与上述步骤52中进行位姿转换的图像有关。
在本步骤53中,由于上述步骤52得到的第三图像是对第二图像进行位姿转换得到,因此需要根据第二图像和上述步骤52得到的第三图像,计算两个图像之间的结构相似度,得到结构相似性损失函数项。例如,可以根据第二图像和第三图像,按照下述公式计算两张图像之间的结构相似度:
上述公式(5)中,C1和C2为常数,SSIM的取值范围是[0,1],x为第二图像,y为第三图像,μx为第二图像中像素点的均值,μy为第三图像中像素点的均值。为第二图像中像素点的方差,为第三图像中像素点的方差,σxy为第二图像和第三图像的协方差。SSIM越接近1,损失项越接近0。
由上述公式(5)得到两张图像的结构相似度之后,还可以按照下述公式计算两张图像的结构相似性损失函数约束项:
上述公式(6)中,LS为结构相似性损失函数,SSIM(It,warpedt-1)为第二图像和第三图像之间的相似度。
需要进行说明的是,若上述步骤52中得到的第三图像是由第一图像转换得到的,则需要计算第一图像和该第三图像之间的结构相似性损失函数约束项。因此,本申请实施例中结构相似性损失函数约束项与上述步骤52进行位姿转换的图像有关。
步骤6、根据该欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项,计算损失函数约束项。
在本申请实施例中,损失函数约束项同时包括欧氏距离损失函数项、光度差损失函数项以及结构相似性损失函数项。本申请实施例中对欧氏距离损失函数项、光度差损失函数项以及结构相似性损失函数项的计算顺序不做限定。
根据上述得到的欧氏距离损失函数项、光度差损失函数项以及结构相似性损失函数项,按照下述公式计算损失函数约束项:
L=λDLDPLPSLS (7)
上述公式(7)中,L为预测定位模型的损失函数,λD、λP、λS为加权因子,λD用于平衡欧氏距离损失函数项的尺度,λP用于平衡光度差损失函数项的尺度,λS用于平衡结构相似性损失函数项的尺度。λD、λP、λS可以为不同的数值,也可以为相同的数值,本申请实施例对此不做限定。
步骤7,根据该损失函数约束项,对预测定位模型进行训练,得到目标定位模型。
在本申请实施例中,根据上述步骤6得到的损失函数约束项,对预测定位模型进行训练,以得到定位精度更高的目标定位模型,该目标定位模型用于对目标图像进行定位。
在本申请实施例中,由于目标定位模型是经过上述步骤1至步骤7对预测定位模型进行训练而得到的,因此,目标定位模型能够取得比较高的定位精度。自动驾驶车辆将该目标图像输入该目标定位模型。该目标定位模型用于根据该目标图像确定自动驾驶车辆的位姿。该目标定位模型对目标图像的定位过程如图4所示。
在步骤203中,根据该目标定位模型的输出结果,确定该自动驾驶车辆的目标位姿。
在本申请实施例中,由于该目标定位模型的定位精度较高,因此根据该目标定位模型的输出结果,可以确定该自动驾驶车辆的目标位姿。
在步骤204中,基于该目标位姿对该自动驾驶车辆进行定位。
在本申请实施例中,基于该自动驾驶车辆的目标位姿,对该自动驾驶车辆进行定位,一定程度上可以提高该自动驾驶车辆的定位精度。
在一种可能的实现方式中,该自动驾驶车辆可以应用于无人驾驶场景,例如无人驾驶物流配送、无人驾驶外卖配送等场景。由于不需要人工驾驶,因此可以减轻人力的投入,使得整个配送过程更加自动化,一定程度上可以提高配送的效率。
上述方法通过获取自动驾驶车辆在当前时刻周围环境的目标图像,将该目标图像输入目标定位模型,根据该目标定位模型的输出结果,确定该自动驾驶车辆的目标位姿,根据该目标位姿对该自动驾驶车辆进行定位。由于该目标定位模型的定位精度较高,一定程度上,可以提高自动车辆的定位精度,从而可以提高自动驾驶车辆的安全系数。
图5所示为本申请实施例提供的一种自动驾驶车辆的定位装置的结构图,如图5所示,该装置包括:
第一获取模块501,用于获取目标图像,该目标图像为自动驾驶车辆在当前时刻周围环境的图像;
输入模块502,用于将该目标图像输入目标定位模型,该目标定位模型用于根据该目标图像确定该自动驾驶车辆的位姿,该目标定位模型由损失函数约束项进行约束,该损失函数约束项包括欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项中的至少一种;
确定模块503,用于根据该目标定位模型的输出结果,确定该自动驾驶车辆的目标位姿;
定位模块504,用于基于该目标位姿对该自动驾驶车辆进行定位。
第二获取模块,用于获取第一图像和第二图像,该第一图像为自动驾驶车辆在第一时刻周围环境的图像,该第二图像为自动驾驶车辆在第二时刻周围环境的图像,该第一时刻和该第二时刻为该当前时刻之前的相邻两个时刻;
计算模块,用于基于该第一图像和该第二图像,计算损失函数约束项;
训练模块,用于根据该损失函数约束项,训练预测定位模型,得到该目标定位模型。
在一种可能的实现方式中,该计算模块包括下述子模块:
获取子模块,用于基于该第一图像,获取第一预测位姿,基于该第二图像,获取第二预测位姿;
第一计算子模块,用于基于该第一预测位姿和该第二预测位姿,计算欧氏距离损失函数项;
第二计算子模块,用于基于该第一预测位姿和该第二预测位姿,计算光度差损失函数项和结构相似性损失函数项;
第三计算子模块,用于根据该欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项,计算该损失函数约束项。
在一种可能的实现方式中,该第一计算子模块用于根据该第一图像的真实位姿和该第一预测位姿,计算第一对欧氏距离;根据该第二图像的真实位姿和该第二预测位姿,计算第二对欧氏距离;根据该第一对欧氏距离和该第二对欧氏距离,计算欧氏距离损失函数项。
在一种可能的实现方式中,该第二计算子模块用于根据该第一预测位姿和该第二预测位姿,计算预测位姿转换矩阵;基于该预测位姿转换矩阵,对该第一图像和该第二图像中的任一个图像进行转换,得到第三图像;根据该第三图像和进行位姿转换的图像,计算光度差损失函数项和结构相似性损失函数项。
在一种可能的实现方式中,该第二计算子模块用于计算该第三图像和该进行位姿转换的图像的光度差,作为该光度差损失函数项;计算该第三图像和该进行位姿转换的图像的结构相似性,作为该结构相似性损失函数项。
在一种可能的实现方式中,该第三计算子模块用于根据该欧氏距离损失函数项、光度差损失函数项和结构相似性损失函数项,按照如下公式计算该损失函数约束项L:
L=λDLDPLPSLS
其中,该λD、λP、λS为加权因子,该LD为欧氏距离损失函数项,该LP为光度差损失函数项,该LS为结构相似性损失函数项。
上述装置通过获取自动驾驶车辆在当前时刻周围环境的目标图像,将该目标图像输入目标定位模型,根据该目标定为模型的输出结果,确定该自动驾驶车辆的目标位姿,根据该目标位姿对该自动驾驶车辆进行定位。由于该目标定位模型的定位精度较高,一定程度上,可以提高自动车辆的定位精度,从而可以提高自动驾驶车辆的安全系数。
需要说明的是:上述实施例提供的自动驾驶车辆的定位装置在进行自动驾驶车辆的定位时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将自动驾驶车辆的定位装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的自动驾驶车辆的定位装置与自动驾驶车辆的定位方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图6是本申请实施例提供的一种电子设备的结构示意图。该电子设备600可以是:智能手机、平板电脑、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。电子设备600还可能被称为用户设备、便携式电子设备、膝上型电子设备、台式电子设备等其他名称。
通常,电子设备600包括有:一个或多个处理器601和一个或多个存储器602。
处理器601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器601所执行以实现本申请中方法实施例提供的自动驾驶车辆的定位方法。
在一些实施例中,电子设备600还可选包括有:外围设备接口603和至少一个外围设备。处理器601、存储器602和外围设备接口603之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口603相连。具体地,外围设备包括:射频电路604、显示屏605、摄像头组件606、音频电路607、定位组件608和电源609中的至少一种。
外围设备接口603可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器601和存储器602。在一些实施例中,处理器601、存储器602和外围设备接口603被集成在同一芯片或电路板上;在一些其他实施例中,处理器601、存储器602和外围设备接口603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路604包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路604可以通过至少一种无线通信协议来与其它电子设备进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏605是触摸显示屏时,显示屏605还具有采集在显示屏605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器601进行处理。此时,显示屏605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏605可以为一个,设置电子设备600的前面板;在另一些实施例中,显示屏605可以为至少两个,分别设置在电子设备600的不同表面或呈折叠设计;在一些实施例中,显示屏605可以是柔性显示屏,设置在电子设备600的弯曲表面上或折叠面上。甚至,显示屏605还可以设置成非矩形的不规则图形,也即异形屏。显示屏605可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件606用于采集图像或视频。可选地,摄像头组件606包括前置摄像头和后置摄像头。通常,前置摄像头设置在电子设备的前面板,后置摄像头设置在电子设备的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器601进行处理,或者输入至射频电路604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器601或射频电路604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路607还可以包括耳机插孔。
定位组件608用于定位电子设备600的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件608可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源609用于为电子设备600中的各个组件进行供电。电源609可以是交流电、直流电、一次性电池或可充电电池。当电源609包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备600还包括有一个或多个传感器160。该一个或多个传感器160包括但不限于:加速度传感器611、陀螺仪传感器612、压力传感器611、指纹传感器614、光学传感器615以及接近传感器616。
加速度传感器611可以检测以电子设备600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器611可以用于检测重力加速度在三个坐标轴上的分量。处理器601可以根据加速度传感器611采集的重力加速度信号,控制显示屏605以横向视图或纵向视图进行用户界面的显示。加速度传感器611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器612可以检测电子设备600的机体方向及转动角度,陀螺仪传感器612可以与加速度传感器611协同采集用户对电子设备600的3D动作。处理器601根据陀螺仪传感器612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器611可以设置在电子设备600的侧边框和/或显示屏605的下层。当压力传感器611设置在电子设备600的侧边框时,可以检测用户对电子设备600的握持信号,由处理器601根据压力传感器611采集的握持信号进行左右手识别或快捷操作。当压力传感器611设置在显示屏605的下层时,由处理器601根据用户对显示屏605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器614用于采集用户的指纹,由处理器601根据指纹传感器614采集到的指纹识别用户的身份,或者,由指纹传感器614根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器614可以被设置电子设备600的正面、背面或侧面。当电子设备600上设置有物理按键或厂商Logo时,指纹传感器614可以与物理按键或厂商Logo集成在一起。
光学传感器615用于采集环境光强度。在一个实施例中,处理器601可以根据光学传感器615采集的环境光强度,控制显示屏605的显示亮度。具体地,当环境光强度较高时,调高显示屏605的显示亮度;当环境光强度较低时,调低显示屏605的显示亮度。在另一个实施例中,处理器601还可以根据光学传感器615采集的环境光强度,动态调整摄像头组件606的拍摄参数。
接近传感器616,也称距离传感器,通常设置在电子设备600的前面板。接近传感器616用于采集用户与电子设备600的正面之间的距离。在一个实施例中,当接近传感器616检测到用户与电子设备600的正面之间的距离逐渐变小时,由处理器601控制显示屏605从亮屏状态切换为息屏状态;当接近传感器616检测到用户与电子设备600的正面之间的距离逐渐变大时,由处理器601控制显示屏605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图6中示出的结构并不构成对电子设备600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机可读存储介质,该存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现上述任一种自动驾驶车辆的定位方法。
可选地,上述计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-OnlyMemory,CD-ROM)、磁带、软盘和光数据存储设备等。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
以上仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (8)

1.一种自动驾驶车辆的定位方法,其特征在于,所述方法包括:
获取目标图像,所述目标图像为所述自动驾驶车辆在当前时刻周围环境的图像;
获取第一图像和第二图像,所述第一图像为所述自动驾驶车辆在第一时刻周围环境的图像,所述第二图像为所述自动驾驶车辆在第二时刻周围环境的图像,所述第一时刻和所述第二时刻为所述当前时刻之前的相邻两个时刻;
基于所述第一图像,获取第一预测位姿,基于所述第二图像,获取第二预测位姿;
基于所述第一预测位姿和所述第二预测位姿,计算欧氏距离损失函数项;
基于所述第一预测位姿和所述第二预测位姿,计算光度差损失函数项和结构相似性损失函数项;
根据所述欧氏距离损失函数项、所述光度差损失函数项和所述结构相似性损失函数项,计算损失函数约束项;
根据所述损失函数约束项,训练预测定位模型,得到目标定位模型;
将所述目标图像输入所述目标定位模型,所述目标定位模型用于根据所述目标图像确定所述自动驾驶车辆的位姿,所述目标定位模型由所述损失函数约束项进行约束;
根据所述目标定位模型的输出结果,确定所述自动驾驶车辆的目标位姿;
基于所述目标位姿对所述自动驾驶车辆进行定位。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一预测位姿和所述第二预测位姿,计算欧氏距离损失函数项,包括:
根据所述第一图像的真实位姿和所述第一预测位姿,计算第一对欧氏距离;
根据所述第二图像的真实位姿和所述第二预测位姿,计算第二对欧氏距离;
根据所述第一对欧氏距离和所述第二对欧氏距离,计算欧氏距离损失函数项。
3.根据权利要求1所述的方法,其特征在于,所述基于所述第一预测位姿和所述第二预测位姿,计算光度差损失函数项和结构相似性损失函数项,包括:
根据所述第一预测位姿和所述第二预测位姿,计算预测位姿转换矩阵;
基于所述预测位姿转换矩阵,对所述第一图像和所述第二图像中的任一个图像进行转换,得到第三图像;
根据所述第三图像和进行位姿转换的图像,计算光度差损失函数项和结构相似性损失函数项。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第三图像和进行位姿转换的图像,计算光度差损失函数项和结构相似性损失函数项,包括:
计算所述第三图像和所述进行位姿转换的图像的光度差,作为所述光度差损失函数项;
计算所述第三图像和所述进行位姿转换的图像的结构相似性,作为所述结构相似性损失函数项。
5.根据权利要求1所述的方法,其特征在于,所述根据所述欧氏距离损失函数项、所述光度差损失函数项和所述结构相似性损失函数项,计算损失函数约束项,包括:
根据所述欧氏距离损失函数项、所述光度差损失函数项和所述结构相似性损失函数项,按照如下公式计算所述损失函数约束项L:
L=λDLDPLPSLS
其中,所述λD、λP、λS为加权因子,所述LD为欧氏距离损失函数项,所述LP为光度差损失函数项,所述LS为结构相似性损失函数项。
6.一种自动驾驶车辆的定位装置,其特征在于,所述装置包括:
第一获取模块,用于获取目标图像,所述目标图像为所述自动驾驶车辆在当前时刻周围环境的图像;
第二获取模块,用于获取第一图像和第二图像,所述第一图像为所述自动驾驶车辆在第一时刻周围环境的图像,所述第二图像为所述自动驾驶车辆在第二时刻周围环境的图像,所述第一时刻和所述第二时刻为所述当前时刻之前的相邻两个时刻;
获取子模块,用于基于所述第一图像,获取第一预测位姿,基于所述第二图像,获取第二预测位姿;
第一计算子模块,用于基于所述第一预测位姿和所述第二预测位姿,计算欧氏距离损失函数项;
第二计算子模块,用于基于所述第一预测位姿和所述第二预测位姿,计算光度差损失函数项和结构相似性损失函数项;
第三计算子模块,用于根据所述欧氏距离损失函数项、所述光度差损失函数项和所述结构相似性损失函数项,计算损失函数约束项;
训练模块,用于根据所述损失函数约束项,训练预测定位模型,得到目标定位模型;
输入模块,用于将所述目标图像输入所述目标定位模型,所述目标定位模型用于根据所述目标图像确定所述自动驾驶车辆的位姿,所述目标定位模型由所述损失函数约束项进行约束;
确定模块,用于根据所述目标定位模型的输出结果,确定所述自动驾驶车辆的目标位姿;
定位模块,用于基于所述目标位姿对所述自动驾驶车辆进行定位。
7.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现如权利要求1至5任一所述的自动驾驶车辆的定位方法。
8.一种存储介质,其特征在于,所述存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现如权利要求1至5任一所述的自动驾驶车辆的定位方法。
CN202010022590.3A 2020-01-09 2020-01-09 自动驾驶车辆的定位方法、装置、电子设备及存储介质 Active CN111179628B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010022590.3A CN111179628B (zh) 2020-01-09 2020-01-09 自动驾驶车辆的定位方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010022590.3A CN111179628B (zh) 2020-01-09 2020-01-09 自动驾驶车辆的定位方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111179628A CN111179628A (zh) 2020-05-19
CN111179628B true CN111179628B (zh) 2021-09-28

Family

ID=70656262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010022590.3A Active CN111179628B (zh) 2020-01-09 2020-01-09 自动驾驶车辆的定位方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111179628B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665496A (zh) * 2018-03-21 2018-10-16 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
CN109165654A (zh) * 2018-08-23 2019-01-08 北京九狐时代智能科技有限公司 一种目标定位模型的训练方法和目标定位方法及装置
CN110032949A (zh) * 2019-03-22 2019-07-19 北京理工大学 一种基于轻量化卷积神经网络的目标检测与定位方法
WO2019180414A1 (en) * 2018-03-20 2019-09-26 University Of Essex Enterprises Limited Localisation, mapping and network training
CN110490928A (zh) * 2019-07-05 2019-11-22 天津大学 一种基于深度神经网络的相机姿态估计方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11176426B2 (en) * 2018-06-18 2021-11-16 Zoox, Inc. Sensor obstruction detection and mitigation using vibration and/or heat

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019180414A1 (en) * 2018-03-20 2019-09-26 University Of Essex Enterprises Limited Localisation, mapping and network training
CN108665496A (zh) * 2018-03-21 2018-10-16 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
CN109165654A (zh) * 2018-08-23 2019-01-08 北京九狐时代智能科技有限公司 一种目标定位模型的训练方法和目标定位方法及装置
CN110032949A (zh) * 2019-03-22 2019-07-19 北京理工大学 一种基于轻量化卷积神经网络的目标检测与定位方法
CN110490928A (zh) * 2019-07-05 2019-11-22 天津大学 一种基于深度神经网络的相机姿态估计方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Deep Differential Convolutional Network for Single Image Super-Resolution;Peng Liu 等;《IEEE Access (Volume:7)》;20190307;37555-37564 *
Geometry-Aware Learning of Maps for Camera Localization;Samarth Brahmbhatt 等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;2616-2625 *
Robust Extrinsic Parameter Calibration of 3D LIDAR Using Lie Algebras;Chao Xia 等;《2019 IEEE Intelligent Vehicles Symposium (IV)》;20190829;1775-1781 *
基于深度学习和多相机融合的实时目标检测和定位;吴炜;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190115;I138-1108 *
面向自动驾驶的高效稳定卷积神经网络算法;孙汉卿;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20190715;C035-186 *

Also Published As

Publication number Publication date
CN111179628A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN109829456B (zh) 图像识别方法、装置及终端
CN111126182A (zh) 车道线检测方法、装置、电子设备及存储介质
CN110839128B (zh) 拍照行为检测方法、装置及存储介质
CN111010537B (zh) 车辆控制方法、装置、终端及存储介质
CN110599593B (zh) 数据合成的方法、装置、设备及存储介质
CN110986930A (zh) 设备定位方法、装置、电子设备及存储介质
CN112243083B (zh) 抓拍方法、装置及计算机存储介质
CN109886208B (zh) 物体检测的方法、装置、计算机设备及存储介质
CN111179628B (zh) 自动驾驶车辆的定位方法、装置、电子设备及存储介质
CN111027490A (zh) 人脸属性识别方法及装置、存储介质
CN110570460A (zh) 目标跟踪方法、装置、计算机设备及计算机可读存储介质
CN111723615A (zh) 对检测物图像进行检测物匹配判定的方法和装置
CN109886226B (zh) 确定图像的特征数据的方法、装置、电子设备及存储介质
CN111127541A (zh) 车辆尺寸的确定方法、装置及存储介质
CN111753606A (zh) 一种智能模型的升级方法及装置
CN112990424A (zh) 神经网络模型训练的方法和装置
CN112699997A (zh) 神经网络的确定方法、装置、设备及计算机可读存储介质
CN111611414A (zh) 车辆检索方法、装置及存储介质
CN110705614A (zh) 模型训练方法、装置、电子设备及存储介质
CN111369566A (zh) 确定路面消隐点位置的方法、装置、设备及存储介质
CN112836714A (zh) 一种智能模型的训练方法及装置
CN113947566A (zh) 视觉还原效果的检测方法、装置、设备及可读存储介质
CN111127509A (zh) 目标跟踪方法、装置和计算机可读存储介质
CN111757146A (zh) 视频拼接的方法、系统及存储介质
CN113255906A (zh) 一种自动驾驶中回归障碍物3d角度信息方法、装置、终端及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant