CN106969763B - 用于确定无人驾驶车辆的偏航角的方法和装置 - Google Patents

用于确定无人驾驶车辆的偏航角的方法和装置 Download PDF

Info

Publication number
CN106969763B
CN106969763B CN201710224921.XA CN201710224921A CN106969763B CN 106969763 B CN106969763 B CN 106969763B CN 201710224921 A CN201710224921 A CN 201710224921A CN 106969763 B CN106969763 B CN 106969763B
Authority
CN
China
Prior art keywords
reflection value
coordinate
value image
laser point
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710224921.XA
Other languages
English (en)
Other versions
CN106969763A (zh
Inventor
王昊
万国伟
宋适宇
徐宝强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710224921.XA priority Critical patent/CN106969763B/zh
Publication of CN106969763A publication Critical patent/CN106969763A/zh
Application granted granted Critical
Publication of CN106969763B publication Critical patent/CN106969763B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders

Abstract

本申请公开了用于确定无人驾驶车辆的偏航角的方法和装置。该无人驾驶车辆设置有激光雷达以及惯性导航系统,该方法的一具体实施方式包括:根据激光雷达采集的激光点云数据和惯性导航系统采集的位姿信息,生成与激光点云数据对应的反射值图像;根据反射值图像、位姿信息和预设的地图,生成与反射值图像对应的反射值地图图像;采用图像对齐算法,确定从反射值图像对齐到反射值地图图像的旋转角度;根据旋转角度和位姿信息中的偏航角,确定无人驾驶车辆的偏航角。该实施方式提高了确定无人驾驶车辆的偏航角的精度。

Description

用于确定无人驾驶车辆的偏航角的方法和装置
技术领域
本申请涉及机动车技术领域,具体涉及无人驾驶车辆技术领域,尤其涉及用于确定无人驾驶车辆的偏航角的方法和装置。
背景技术
随着科技的发展和进步,通过自动控制系统控制的无人驾驶车辆能够给人们的出行带来便利并提高人们的生活质量。无人驾驶车辆的自动控制系统会根据不同的路况按照预期行驶路径自动驾驶无人驾驶车辆。
定位系统在无人驾驶车辆中起着重要作用。基于激光点云的无人驾驶车辆定位技术已取得了成功应用。然而,基于激光点云的定位技术一般都依赖于高精度的惯性导航系统来提供无人驾驶车辆精确的滚转角、俯仰角、偏航角等姿态信息,但是,当使用低精度惯性导航系统时,滚转角、俯仰角及偏航角也存在一定的误差,尤其是偏航角的误差,对定位精度的影响是非常大的。从而,现有的无人驾驶车辆的定位系统存在定位精度较低的问题。
发明内容
本申请的目的在于提出一种改进的用于确定无人驾驶车辆的偏航角的方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请实施例提供了一种用于确定无人驾驶车辆的偏航角的方法,上述无人驾驶车辆设置有激光雷达以及惯性导航系统,该方法包括:实时获取上述激光雷达采集的上述无人驾驶车辆的激光点云数据和上述惯性导航系统采集的上述无人驾驶车辆的位姿信息,其中,上述激光点云数据中的每个激光点数据包括坐标和反射值,上述位姿信息包括坐标和偏航角;根据上述激光点云数据和上述位姿信息,生成与上述激光点云数据对应的反射值图像;根据上述反射值图像和上述位姿信息,从预设的地图中确定与上述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标;根据上述反射值图像的每个像素点的坐标和上述预设地图中与该像素点的坐标对应的地图坐标处的像素值,生成与上述反射值图像对应的反射值地图图像;采用图像对齐算法,确定从上述反射值图像对齐到上述反射值地图图像的旋转角度;根据上述旋转角度和上述位姿信息中的偏航角,确定上述无人驾驶车辆的偏航角。
在一些实施例中,上述根据上述激光点云数据和上述位姿信息,生成与上述激光点云数据对应的反射值图像,包括:获取待生成反射值图像的相关信息,上述相关信息包括上述待生成反射值图像的横向像素数和纵向像素数以及单位像素长度,其中,上述单位像素长度用于表征上述待生成反射值图像中一个像素点所表征的物理长度;生成M×N的待生成反射值图像,其中,上述M为上述横向像素数,上述N为上述纵向像素数;根据上述位姿信息和上述相关信息,将上述激光点云数据中的每个激光点数据映射至上述待生成反射值图像中以生成与上述激光点云数据对应的反射值图像,其中,上述反射值图像的每个像素点的像素值基于映射至该像素点的各激光点数据的反射值的平均值确定。
在一些实施例中,上述激光点数据中的坐标为车体坐标系中的坐标,上述位姿信息中的坐标为世界坐标系中的坐标;以及上述根据上述位姿信息和上述相关信息,将上述激光点云数据中的每个激光点数据映射至上述待生成反射值图像中以生成与上述激光点云数据对应的反射值图像,包括:根据上述位姿信息,确定上述待生成反射值图像的坐标原点在上述世界坐标系中的坐标;对于上述激光点云数据中的每个激光点数据,根据上述位姿信息确定该激光点数据在上述世界坐标系中的世界坐标系坐标,并根据所确定的世界坐标系坐标,确定该激光点数据在上述待生成反射值图像中的反射值图像坐标,并将该激光点数据映射至上述待生成反射值图像中上述反射值图像坐标中。
在一些实施例中,上述根据上述位姿信息确定该激光点数据在上述世界坐标系中的世界坐标系坐标,包括:按照如下公式,计算该激光点数据在上述世界坐标系中的世界坐标系坐标:
[x’,y’]T=R×[x,y,z]T+[x0,y0]T
其中,R是由上述位姿信息确定的2×3的坐标变换矩阵,x、y和z分别是该激光点数据中坐标的X轴坐标、Y轴坐标和Z轴坐标,x0和y0分别是上述位姿信息中坐标的X轴坐标和Y轴坐标,x’和y’分别是计算得到的该激光点数据在上述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标。
在一些实施例中,上述根据所确定的世界坐标系坐标,确定该激光点数据在上述待生成反射值图像中的反射值图像坐标,包括:按照如下公式,计算该激光点数据在上述待生成反射值图像中的反射值图像坐标:
i=Int((x’–xorigin)÷dispix)
j=Int((y’–yorigin)÷dispix)
其中,i和j分别是计算所得的该激光点数据在上述待生成反射值图像中的反射值图像坐标的X轴坐标和Y轴坐标,Int表示取整操作,x’和y’分别是所确定的该激光点数据在上述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标,xorigin和yorigin分别是所确定的上述待生成反射值图像的坐标原点在上述世界坐标系中的X轴坐标和Y轴坐标,dispix是上述单位像素长度。
在一些实施例中,上述预设地图是基于上述世界坐标系的地图;以及上述根据上述反射值图像和上述位姿信息,从预设的地图中确定与上述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标,包括:按照如下公式,计算与上述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标:
xutm=(i+k)×dispix+xorigin
yutm=(j+k)×dispix+yorigin
其中,i和j分别是上述反射值图像中像素点的X轴坐标和Y轴坐标,xutm和yutm分别是计算所得的与上述反射值图像中X轴坐标为i且Y轴坐标为j的像素点的坐标对应的预设地图中的地图坐标的X轴坐标和Y轴坐标,k为-1到1之间的常数,xorigin和yorigin分别是上述反射值图像的坐标原点在上述世界坐标系中的X轴坐标和Y轴坐标,dispix是上述单位像素长度。
在一些实施例中,上述图像对齐算法为Lucas-Kanade前向算法。
在一些实施例中,上述根据上述旋转角度和上述位姿信息中的偏航角,确定上述无人驾驶车辆的偏航角,包括:根据上述旋转角度确定上述位姿信息中的偏航角的误差;计算上述位姿信息中的偏航角加上上述误差的角度和;将计算所得的角度和确定为上述无人驾驶车辆的偏航角。
第二方面,本申请实施例提供了一种用于确定无人驾驶车辆的偏航角的装置,上述无人驾驶车辆设置有激光雷达以及惯性导航系统,该装置包括:获取单元,配置用于实时获取上述激光雷达采集的上述无人驾驶车辆的激光点云数据和上述惯性导航系统采集的上述无人驾驶车辆的位姿信息,其中,上述激光点云数据中的每个激光点数据包括坐标和反射值,上述位姿信息包括坐标和偏航角;第一生成单元,配置用于根据上述激光点云数据和上述位姿信息,生成与上述激光点云数据对应的反射值图像;第一确定单元,配置用于根据上述反射值图像和上述位姿信息,从预设的地图中确定与上述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标;第二生成单元,配置用于根据上述反射值图像的每个像素点的坐标和上述预设地图中与该像素点的坐标对应的地图坐标处的像素值,生成与上述反射值图像对应的反射值地图图像;第二确定单元,配置用于采用图像对齐算法,确定从上述反射值图像对齐到上述反射值地图图像的旋转角度;第三确定单元,配置用于根据上述旋转角度和上述位姿信息中的偏航角,确定上述无人驾驶车辆的偏航角。
在一些实施例中,上述第一生成单元包括:获取模块,配置用于获取待生成反射值图像的相关信息,上述相关信息包括上述待生成反射值图像的横向像素数和纵向像素数以及单位像素长度,其中,上述单位像素长度用于表征上述待生成反射值图像中一个像素点所表征的物理长度;生成模块,配置用于生成M×N的待生成反射值图像,其中,上述M为上述横向像素数,上述N为上述纵向像素数;映射模块,配置用于根据上述位姿信息和上述相关信息,将上述激光点云数据中的每个激光点数据映射至上述待生成反射值图像中以生成与上述激光点云数据对应的反射值图像,其中,上述反射值图像的每个像素点的像素值基于映射至该像素点的各激光点数据的反射值的平均值确定。
在一些实施例中,上述激光点数据中的坐标为车体坐标系中的坐标,上述位姿信息中的坐标为世界坐标系中的坐标;以及上述映射模块进一步配置用于:根据上述位姿信息,确定上述待生成反射值图像的坐标原点在上述世界坐标系中的坐标;对于上述激光点云数据中的每个激光点数据,根据上述位姿信息确定该激光点数据在上述世界坐标系中的世界坐标系坐标,并根据所确定的世界坐标系坐标,确定该激光点数据在上述待生成反射值图像中的反射值图像坐标,并将该激光点数据映射至上述待生成反射值图像中上述反射值图像坐标中。
在一些实施例中,上述映射模块进一步配置用于:按照如下公式,计算该激光点数据在上述世界坐标系中的世界坐标系坐标:
[x’,y’]T=R×[x,y,z]T+[x0,y0]T
其中,R是由上述位姿信息确定的2×3的坐标变换矩阵,x、y和z分别是该激光点数据中坐标的X轴坐标、Y轴坐标和Z轴坐标,x0和y0分别是上述位姿信息中坐标的X轴坐标和Y轴坐标,x’和y’分别是计算得到的该激光点数据在上述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标。
在一些实施例中,上述映射模块进一步配置用于:按照如下公式,计算该激光点数据在上述待生成反射值图像中的反射值图像坐标:
i=Int((x’–xorigin)÷dispix)
j=Int((y’–yorigin)÷dispix)
其中,i和j分别是计算所得的该激光点数据在上述待生成反射值图像中的反射值图像坐标的X轴坐标和Y轴坐标,Int表示取整操作,x’和y’分别是所确定的该激光点数据在上述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标,xorigin和yorigin分别是所确定的上述待生成反射值图像的坐标原点在上述世界坐标系中的X轴坐标和Y轴坐标,dispix是上述单位像素长度。
在一些实施例中,上述预设地图是基于上述世界坐标系的地图;以及上述第一确定单元进一步配置用于:按照如下公式,计算与上述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标:
xutm=(i+k)×dispix+xorigin
yutm=(j+k)×dispix+yorigin
其中,i和j分别是上述反射值图像中像素点的X轴坐标和Y轴坐标,xutm和yutm分别是计算所得的与上述反射值图像中X轴坐标为i且Y轴坐标为j的像素点的坐标对应的预设地图中的地图坐标的X轴坐标和Y轴坐标,k为-1到1之间的常数,xorigin和yorigin分别是上述反射值图像的坐标原点在上述世界坐标系中的X轴坐标和Y轴坐标,dispix是上述单位像素长度。
在一些实施例中,上述图像对齐算法为Lucas-Kanade前向算法。
在一些实施例中,上述第三确定单元进一步配置用于:根据上述旋转角度确定上述位姿信息中的偏航角的误差;计算上述位姿信息中的偏航角加上上述误差的角度和;将计算所得的角度和确定为上述无人驾驶车辆的偏航角。
第三方面,本申请实施例提供了一种无人驾驶车辆,该无人驾驶车辆包括:激光雷达,用于采集激光点云数据;惯性导航系统,用于采集位姿信息;一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于确定无人驾驶车辆的偏航角的方法和装置,通过根据激光雷达采集的激光点云数据和惯性导航系统采集的位姿信息,生成与激光点云数据对应的反射值图像,再根据上述反射值图像和上述位姿信息,生成与上述反射值图像对应的反射值地图图像,接着,采用图像对齐算法,确定从上述反射值图像对齐到上述反射值地图图像的旋转角度,最后根据上述旋转角度和上述位姿信息中的偏航角,确定上述无人驾驶车辆的偏航角,从而提高了确定无人驾驶车辆的偏航角的精度,并继而提高了无人驾驶车辆的定位精度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2a是根据本申请的用于确定无人驾驶车辆的偏航角的方法的一个实施例的流程图;
图2b是根据本申请的用于确定无人驾驶车辆的偏航角的方法的一个实施例中子步骤202的分解流程图;
图3是根据本申请的用于确定无人驾驶车辆的偏航角的方法的一个应用场景的示意图;
图4是根据本申请的用于确定无人驾驶车辆的偏航角的方法的又一个实施例的流程图;
图5是根据本申请的用于确定无人驾驶车辆的偏航角的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于确定无人驾驶车辆的偏航角的方法或用于确定无人驾驶车辆的偏航角的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括无人驾驶车辆101。无人驾驶车辆101上可以安装有驾驶控制设备1011、网络1012、激光雷达1013和惯性导航系统1014。网络1012用以在驾驶控制设备1011和激光雷达1013之间,以及驾驶控制设备1011与惯性导航系统1014之间提供通信链路的介质。网络1012可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
驾驶控制设备(又称为车载大脑)1011负责无人驾驶车辆的智能控制。驾驶控制设备1011可以是单独设置的控制器,例如可编程逻辑控制器(Programmable LogicController,PLC)、单片机、工业控制机等;也可以是由其他具有输入/输出端口,并具有运算控制功能的电子器件组成的设备;还可以是安装有车辆驾驶控制类应用的计算机设备。
需要说明的是,本申请实施例所提供的用于确定无人驾驶车辆的偏航角的方法一般由驾驶控制设备1011执行,相应地,用于确定无人驾驶车辆的偏航角的装置一般设置于驾驶控制设备1011中。
应该理解,图1中的驾驶控制设备、激光雷达和惯性导航系统的的数目仅仅是示意性的。根据实现需要,可以具有任意数目的驾驶控制设备、激光雷达和惯性导航系统。
继续参考图2a,其示出了根据本申请的用于确定无人驾驶车辆的偏航角的方法的一个实施例的流程200。该用于确定无人驾驶车辆的偏航角的方法,包括以下步骤:
步骤201,实时获取激光雷达采集的无人驾驶车辆的激光点云数据和惯性导航系统采集的无人驾驶车辆的位姿信息。
在本实施例中,用于确定无人驾驶车辆的偏航角的方法运行于其上的电子设备(例如图1所示的驾驶控制设备)可以通过有线连接方式或者无线连接方式从激光雷达实时获取激光雷达采集的无人驾驶车辆的激光点云数据,以及从惯性导航系统实时获取惯性导航系统采集的无人驾驶车辆的位姿信息。其中,上述激光点云数据可以包括至少一个激光点数据,每个激光点数据可以包括坐标和反射值。上述位姿信息可以包括位置信息和姿态信息,其中,位置信息可以包括坐标,姿态信息可以包括偏航角。
可选地,姿态信息还可以包括俯仰角和滚转角。
需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,根据激光点云数据和位姿信息,生成与激光点云数据对应的反射值图像。
在本实施例中,上述电子设备(例如图1所示的驾驶控制设备)可以根据步骤201中得到的激光点云数据和位姿信息,生成与激光点云数据对应的反射值图像。可以理解的是,激光点云数据是由无人驾驶车辆上设置的激光雷达对车辆的周围环境进行扫描所得到的包括坐标和反射值的大量激光点数据,其体现了无人驾驶车辆周围环境相对于无人驾驶车辆的位置信息和反射值信息,也就是,说激光点数据的位置信息是基于车体坐标系的位置信息。而位姿信息是由无人驾驶车辆上设置的惯性导航系统给出的关于车辆的当前所在位置和车辆的当前姿态(例如,偏航角)在世界坐标系中的信息,其体现了无人驾驶车辆本身的信息。因此,上述电子设备可以首先根据位姿信息确定待生成的反射值图像在世界坐标系中的坐标原点,再将激光点云数据的坐标变换到与位姿信息相同的世界坐标系中的坐标,然后,可以根据所得到的激光点云数据在世界坐标系中的坐标,生成与激光点云数据对应的反射值图像。
步骤203,根据反射值图像和位姿信息,从预设的地图中确定与反射值图像中各个像素点的坐标对应的预设地图中的地图坐标。
在本实施例中,用于确定无人驾驶车辆的偏航角的方法运行于其上的电子设备上可以在步骤202中生成与激光点云数据对应的反射值图像后,根据所生成的反射值图像和步骤201中所获取的位姿信息,从预设的地图中确定与反射值图像中各个像素点的坐标对应的预设地图中的地图坐标。
步骤204,根据反射值图像的每个像素点的坐标和预设的地图中与该像素点的坐标对应的地图坐标处的像素值,生成与反射值图像对应的反射值地图图像。
在本实施例中,步骤204可以如下进行:
首先,可以生成与反射值图像同样大小的待生成反射值地图图像。
然后,可以对所生成的待生成反射值地图图像中的每个像素点,获取步骤203中所确定的与反射值图像中与该像素点的坐标相同的坐标对应的地图坐标,并获取上述预设的地图中上述地图坐标处的像素值,将所获取的像素值确定为该像素点的像素值。
最后,可以将所生成的待生成反射值地图图像确定为与反射值图像对应的反射值地图图像。
步骤205,采用图像对齐算法,确定从反射值图像对齐到反射值地图图像的旋转角度。
在本实施例中,上述电子设备可以在生成反射值图像和反射值地图图像后,采用图像对齐算法,确定从反射值图像对齐到反射值地图图像的旋转角度。这里,图像对齐算法,是用于确定从一幅图像变换到另一幅图像到的变换的算法。其中,变换可以包括旋转变换。
作为示例,图像对齐算法可以是反向合成图像对齐算法、Baker-Matthews算法(反向组合算法)等等。
可选的,上述变换还包括以下至少一项:平移变换和尺度变换。
步骤206,根据旋转角度和位姿信息中的偏航角,确定无人驾驶车辆的偏航角。
在本实施例中,上述电子设备可以在确定从反射值图像对齐到反射值地图图像的旋转角度后,采取各种方法,根据所确定的旋转角度和位姿信息中的偏航角,确定无人驾驶车辆的偏航角。
在本实施例的一些可选的实现方式中,步骤206可以如下进行:
首先,可以根据旋转角度确定位姿信息中的偏航角的误差。
可选地,可以直接将旋转角度确定为位姿信息中的偏航角的误差。
可选地,也可以将旋转角度乘以预设的误差系数的结果确定为位姿信息中的偏航角的误差。
然后,可以计算位姿信息中的偏航角加上误差的角度和。
最后,可以将计算所得的角度和确定为无人驾驶车辆的偏航角。
在本实施例的一些可选的实现方式中,如图2b所示,步骤202可以包括如下子步骤:
子步骤2021,获取待生成反射值图像的相关信息。
在本实现方式中,上述电子设备可以获取待生成反射值图像的相关信息。这里,上述相关信息可以包括待生成反射值图像的横向像素数和纵向像素数以及单位像素长度。其中,待生成反射值图像的横向像素数用于表征待生成反射值图像在像素坐标系中所具有的像素点的列数,待生成反射值图像的纵向像素数用于表征待生成反射值图像在像素坐标系中所具有的像素点的行数。这里,像素坐标系的单位是像素,图像中的像素点在像素坐标系中的坐标(i,j)表示该像素点位于像素坐标系中第i行第j列。通常来说,像素坐标系的坐标原点在图像的左上角像素点。例如,对于一幅1024×768的图像,该图像的横向像素数为1024,纵向像素数为768。待生成反射值图像中的一个像素点用于表征一个正方形区域,待生成反射值图像的单位像素长度用于表征待生成反射值图像中一个像素点所表征的正方形区域的边长。例如,单位像素长度可以为5米,即,待生成反射值图像中一个像素点用于表征5米×5米的正方形区域。
子步骤2022,生成M×N的待生成反射值图像。
在本实现方式中,上述电子设备可以生成M×N的待生成反射值图像,其中,M为上述横向像素数,N为上述纵向像素数。例如,待生成反射值图像的横向像素数为1024,待生成反射值图像的纵向像素数为768,M可以1024,N为768,则所生成的待生成反射值图像为1024×768的图像。
子步骤2023,根据位姿信息和相关信息,将激光点云数据中的每个激光点数据映射至待生成反射值图像中以生成与激光点云数据对应的反射值图像。
在本实现方式中,上述电子设备可以根据步骤201中所获取的位姿信息和子步骤2022中所获取的相关信息,将激光点云数据中的每个激光点数据映射至待生成反射值图像中以生成与激光点云数据对应的反射值图像。其中,反射值图像的每个像素点的像素值基于映射至该像素点的各激光点数据的反射值的平均值确定。作为示例,激光点数据的反射值可以为单通道的取值范围为0-255之间的整数,则可以将反射值图像中的像素点的像素值直接设置为映射至该像素点的各激光点数据的反射值的平均值所表征的灰度值。
可选地,上述激光点数据中的坐标可以为车体坐标系中的坐标,上述位姿信息中的坐标可以为世界坐标系中的坐标。其中,车体坐标系可以是用于表征无人驾驶车辆以外的物体相对于无人驾驶车辆本身的位置关系的坐标系。作为示例,可以以无人驾驶车辆中设置的激光雷达的安装位置作为车体坐标系的坐标原点,X轴在无人驾驶车辆的对称平面内并平行于无人驾驶车辆的设计轴线指向无人驾驶车辆的车头,Y轴垂直于无人驾驶车辆对称平面指向无人驾驶车辆右方,Z轴在无人驾驶车辆对称平面内,与X轴垂直并指向无人驾驶车辆的车身下方。作为示例,世界坐标系可以为UTM(Universal TransverseMercartor,通用横墨卡托)世界坐标系。这样,子步骤2023可以包括如下子步骤:
子步骤20231,根据位姿信息,确定待生成反射值图像的坐标原点在世界坐标系中的坐标。
由于位姿信息是基于世界坐标系的用于对无人驾驶车辆的位置和姿态进行表征的信息,而激光点云数据中的坐标是基于车体坐标系的用于对车辆以外的物体相对于车辆的位置进行表征的坐标,因此,可以在生成待生成反射值图像之前,根据位姿信息,确定待生成反射值图像的坐标原点在世界坐标系中的坐标。
作为示例,下面给出一种根据位姿信息,确定待生成反射值图像的坐标原点在世界坐标系中的坐标的具体实现方式:
可以按照如下公式,计算待生成反射值图像的坐标原点在世界坐标系中的坐标:
xorigin=x0–(0.5×M×dispix) (公式1)
yorigin=y0–(0.5×N×dispix) (公式2)
其中:
M,N和dispix分别为子步骤2021中获取的待生成反射值图像的相关信息中的横向像素数、纵向像素数和单位像素长度。
x0和y0分别是步骤201中获取的位姿信息中的坐标的X轴坐标和Y轴坐标。
这里,位姿信息中的坐标x0和y0基于世界坐标系的,表征的是无人驾驶车辆在世界坐标系中的位置。(0.5×M×dispix)计算所得的结果是待生成反射值图像的M个像素点所表征的物理长度的一半。(0.5×N×dispix)计算所得的结果是待生成反射值图像的N个像素点所表征的物理长度的一半。而用x0–(0.5×M×dispix)计算待生成反射值图像的坐标原点在世界坐标系中的X轴坐标,用y0–(0.5×M×dispix)计算待生成反射值图像的坐标原点在世界坐标系中的Y轴坐标,则是假设无人驾驶车辆在世界坐标系中的坐标是待生成反射值图像的垂直中轴线和水平中轴线的交叉点在世界坐标系中的坐标,并假设待生成反射值图像的坐标原点位于左上角。
子步骤20232,对于激光点云数据中的每个激光点数据,根据位姿信息确定该激光点数据在世界坐标系中的世界坐标系坐标,并根据所确定的世界坐标系坐标,确定该激光点数据在待生成反射值图像中的反射值图像坐标,并将该激光点数据映射至待生成反射值图像中的反射值图像坐标中。
在本实现方式中,由于已经在子步骤20231中确定了待生成反射值图像的坐标原点在世界坐标系中的坐标,为了将激光点云数据中的每个激光点数据映射到待生成反射值图像中,首先可以根据位姿信息确定该激光点数据在世界坐标系中的世界坐标系坐标,然后可以根据所确定的世界坐标系坐标,确定该激光点数据在待生成反射值图像中的反射值图像坐标,最后可以将该激光点数据映射至待生成反射值图像中的反射值图像坐标中。
可选地,可以按照如下公式,根据位姿信息计算该激光点数据在世界坐标系中的世界坐标系坐标:
[x’,y’]T=R×[x,y,z]T+[x0,y0]T (公式3)
其中:
R是由位姿信息确定的2×3的坐标变换矩阵;
x、y和z分别是该激光点数据中坐标的X轴坐标、Y轴坐标和Z轴坐标;
x0和y0分别是位姿信息中坐标的X轴坐标和Y轴坐标;
x’和y’分别是计算得到的该激光点数据在世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标。
作为示例,下面给出当位姿信息中包括偏航角时,R的一种具体实现方式:
Figure BDA0001264909390000141
其中:
yaw是位姿信息中的偏航角。
作为示例,下面给出当位姿信息中包括偏航角、俯仰角和滚转角时,R的另一种具体实现方式:
Figure BDA0001264909390000142
Figure BDA0001264909390000143
Figure BDA0001264909390000144
R=Rz·Rx·Ry (公式8)
其中:
yaw、roll和pitch分别为位姿信息中的偏航角、滚转角和俯仰角。
可选地,可以按照如下公式,根据所确定的世界坐标系坐标,计算该激光点数据在待生成反射值图像中的反射值图像坐标:
i=Int((x’–xorigin)÷dispix) (公式9)
j=Int((y’–yorigin)÷dispix) (公式10)
其中:
i和j分别是计算所得的该激光点数据在待生成反射值图像中的反射值图像坐标的X轴坐标和Y轴坐标;
Int表示取整操作;
x’和y’分别是所确定的该激光点数据在世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标;
xorigin和yorigin分别是子步骤20231中所确定的待生成反射值图像的坐标原点在世界坐标系中的X轴坐标和Y轴坐标;
dispix是子步骤2021中获取的待生成反射值图像的相关信息中的单位像素长度。
在本实施例的一些可选的实现方式中,预设的地图可以是基于上述世界坐标系的地图,这样,上述电子设备可以按照如下公式,根据反射值图像和位姿信息,计算与反射值图像中各个像素点的坐标对应的预设地图中的地图坐标:
xutm=(i+k)×dispix+xorigin (公式11)
yutm=(j+k)×dispix+yorigin (公式12)
其中:
i和j分别是反射值图像中像素点的X轴坐标和Y轴坐标;
xutm和yutm分别是计算所得的与反射值图像中X轴坐标为i且Y轴坐标为j的像素点的坐标对应的预设地图中的地图坐标的X轴坐标和Y轴坐标;
k为-1到1之间的常数;
xorigin和yorigin分别是反射值图像的坐标原点在上述世界坐标系中的X轴坐标和Y轴坐标;
dispix是上述单位像素长度。
继续参见图3,图3是根据本实施例的用于确定无人驾驶车辆的偏航角的方法的应用场景的一个示意图。在图3的应用场景中,如图3中图标301所示,无人驾驶车辆的驾驶控制设备从激光雷达获取激光点云数据以及从惯性导航系统获取位姿信息。然后驾驶控制设备根据所获取的激光点云数据和位姿信息生成了反射值图像和反射值地图图像,并采用图像对齐算法确定了旋转角度,再根据旋转角度对所获取的位姿信息中的偏航角进行校正,最后如图3中图标302所示,驾驶控制设备将校正后的偏航角输出给定位系统,其中,定位系统可以是不同于驾驶控制设备的其他电子设备,定位系统也可以是驾驶控制设备上安装的定位类应用。
本申请的上述实施例提供的方法通过根据从激光雷达获取的激光点云数据以及从惯性导航系统获取的位姿信息,对所获取的位姿信息中的偏航角进行校正,从而提高了确定无人驾驶车辆的偏航角的精度,并继而提高了无人驾驶车辆的定位精度。
进一步参考图4,其示出了用于确定无人驾驶车辆的偏航角的方法的又一个实施例的流程400。该用于确定无人驾驶车辆的偏航角的方法的流程400,包括以下步骤:
步骤401,实时获取激光雷达采集的无人驾驶车辆的激光点云数据和惯性导航系统采集的无人驾驶车辆的位姿信息。
步骤402,根据激光点云数据和位姿信息,生成与激光点云数据对应的反射值图像。
步骤403,根据反射值图像和位姿信息,从预设的地图中确定与反射值图像中各个像素点的坐标对应的预设地图中的地图坐标。
步骤404,根据反射值图像的每个像素点的坐标和预设的地图中与该像素点的坐标对应的地图坐标处的像素值,生成与反射值图像对应的反射值地图图像。
在本实施例中,步骤401、步骤402、步骤403和步骤404的具体操作与图2a所示的实施例中步骤201、步骤202、步骤203和步骤204的操作基本相同,在此不再赘述。
步骤405,采用Lucas-Kanade前向算法,确定从反射值图像对齐到反射值地图图像的旋转角度。
在本实施例中,用于确定无人驾驶车辆的偏航角的方法运行于其上的电子设备(例如图1所示的驾驶控制设备)可以采用Lucas-Kanade前向算法,确定从反射值图像对齐到反射值地图图像的旋转角度。
作为示例,将反射值图像记为图像T,将反射值地图图像记为图像I,假设从图像T到图像I之间的变换为包括平面转旋转角度为wz和平面内平移为(tx,ty)的二维变换,该二维变换可以用变换矩阵
Figure BDA0001264909390000171
表示,可见二维变换W是由一个参数向量p=(wz,tx,ty)决定的,其中,wz为旋转变量,tx和ty分别为X轴和Y轴的平移变量。为了确定从反射值图像对齐到反射值地图图像的旋转角度,就是求得从图像T变换到图像I的变换矩阵W中的旋转变量wz,下面给出一种具体求解过程:
第一步,设置参数向量p的当前值,并将由所设置的参数向量p的当前值得到的二维变换W作为当前二维变换W。
第二步,生成图像I的梯度图像
Figure BDA0001264909390000172
这里,所生成的梯度图像
Figure BDA0001264909390000173
可以为与图像I的大小相同的图像。生成梯度图像的方法是目前广泛研究和应用的公知技术,在此不再赘述。
作为示例,梯度图像
Figure BDA0001264909390000174
可以包括X轴方向的梯度图像
Figure BDA0001264909390000175
和Y轴方向的梯度图像
Figure BDA0001264909390000176
其中,梯度图像
Figure BDA0001264909390000177
和梯度图像
Figure BDA0001264909390000178
都是与图像I的大小相同的图像,梯度图像
Figure BDA0001264909390000179
和梯度图像
Figure BDA00012649093900001710
中坐标为(i,j)的像素点的像素值可以是通过如下公式计算得到的:
Figure BDA00012649093900001711
Figure BDA00012649093900001712
其中:
Figure BDA00012649093900001713
是计算所得的梯度图像
Figure BDA00012649093900001714
的坐标为(i,j)的像素点的像素值;
I(i+1,j)是图像I中坐标为(i+1,j)的像素点的像素值;
I(i,j)是图像I中坐标为(i,j)的像素点的像素值;
I(i,j+1)是图像I中坐标为(i,j+1)的像素点的像素值;
Figure BDA00012649093900001715
是计算所得的梯度图像
Figure BDA00012649093900001716
的坐标为(i,j)的像素点的像素值。
第三步,对图像T中的每个坐标为(i,j)的像素点,按照如下公式计算按照当前二维变换W进行变换后的变换坐标(i',j')。
Figure BDA0001264909390000181
i'=i-wz·j+tx (公式16)
j'=wz·i+j+ty (公式17)
第四步,代入向量p的当前取值,计算雅克比矩阵
Figure BDA0001264909390000182
这里,
Figure BDA0001264909390000183
等于图像T中各个坐标为(i,j)的像素点对应的矩阵:
Figure BDA0001264909390000184
对wz的雅克比矩阵。所生成的雅克比矩阵
Figure BDA0001264909390000185
为3×3的矩阵。
第五步,生成最快下降图
Figure BDA0001264909390000186
首先,生成与图像T大小相同的待生成最快下降图
Figure BDA0001264909390000187
中每个像素点包含三个方向的取值,即在X轴方向、Y轴方向和wz方向的取值。
然后,对所生成的待生成最快下降图
Figure BDA0001264909390000188
中坐标为(i,j)的像素点,按照如下公式计算该像素点在X轴方向、Y轴方向和wz方向的取值:
Figure BDA0001264909390000189
其中,(i,j)为
Figure BDA00012649093900001810
中像素点的坐标;
(i',j')是第三步中计算的对图像T中坐标为(i,j)的像素点,按照当前二维变换W进行变换后的变换坐标(i',j');
Figure BDA00012649093900001811
是第二步中计算的图像I的梯度图像
Figure BDA00012649093900001812
的坐标为(i',j')的像素点的像素值;
Figure BDA00012649093900001813
是第二步中计算的图像I的梯度图像
Figure BDA00012649093900001814
的坐标为(i',j')的像素点的像素值;
即,对
Figure BDA0001264909390000191
中每个坐标为(i,j)的像素点都可以求得该点在三个方向上的向量
Figure BDA0001264909390000192
第六步,计算参数向量p的增量
Figure BDA0001264909390000193
Figure BDA0001264909390000194
其中:
Figure BDA0001264909390000195
T(i,j)是图像T中坐标为(i,j)的像素点的像素值;
I(i',j')是图像I中坐标为(i',j')的像素点的像素值;
其他参数的含义可参见上述各步中相关说明,在此不再赘述。
第七步,判断参数向量p的增量
Figure BDA0001264909390000196
的绝对值是否小于预设阈值,如果不小于,则利用参数向量p的增量
Figure BDA0001264909390000197
更新当前参数向量p,并将更新后的当前参数向量p更新当前二维变换W,再转到第三步继续执行。如果小于,则将向量p中wz的取值确定为从反射值图像对齐到反射值地图图像的旋转角度,并结束。
步骤406,根据旋转角度和位姿信息中的偏航角,确定无人驾驶车辆的偏航角。
在本实施例中,步骤406的具体操作与图2a所示的实施例中步骤206的操作基本相同,在此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于确定无人驾驶车辆的偏航角的方法的流程400突出了采用Lucas-Kanade前向算法确定旋转角度,从而可以加快图像对齐的速度,继而提高定位的精度和速度。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于确定无人驾驶车辆的偏航角的装置的一个实施例,其中,无人驾驶车辆设置有激光雷达以及惯性导航系统。该装置实施例与图2a所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于确定无人驾驶车辆的偏航角的装置500包括:获取单元501、第一生成单元502、第一确定单元503、第二生成单元504、第二确定单元505和第三确定单元506。其中,获取单元501,配置用于实时获取上述激光雷达采集的上述无人驾驶车辆的激光点云数据和上述惯性导航系统采集的上述无人驾驶车辆的位姿信息,其中,上述激光点云数据中的每个激光点数据包括坐标和反射值,上述位姿信息包括坐标和偏航角;第一生成单元502,配置用于根据上述激光点云数据和上述位姿信息,生成与上述激光点云数据对应的反射值图像;第一确定单元503,配置用于根据上述反射值图像和上述位姿信息,从预设的地图中确定与上述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标;第二生成单元504,配置用于根据上述反射值图像的每个像素点的坐标和上述预设地图中与该像素点的坐标对应的地图坐标处的像素值,生成与上述反射值图像对应的反射值地图图像;第二确定单元505,配置用于采用图像对齐算法,确定从上述反射值图像对齐到上述反射值地图图像的旋转角度;第三确定单元506,配置用于根据上述旋转角度和上述位姿信息中的偏航角,确定上述无人驾驶车辆的偏航角。
在本实施例中,用于确定无人驾驶车辆的偏航角的装置500的获取单元501、第一生成单元502、第一确定单元503、第二生成单元504、第二确定单元505和第三确定单元506的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203、步骤204、步骤205和步骤206的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述第一生成单元502可以包括:获取模块5021,配置用于获取待生成反射值图像的相关信息,上述相关信息包括上述待生成反射值图像的横向像素数和纵向像素数以及单位像素长度,其中,上述单位像素长度用于表征上述待生成反射值图像中一个像素点所表征的物理长度;生成模块5022,配置用于生成M×N的待生成反射值图像,其中,上述M为上述横向像素数,上述N为上述纵向像素数;映射模块5023,配置用于根据上述位姿信息和上述相关信息,将上述激光点云数据中的每个激光点数据映射至上述待生成反射值图像中以生成与上述激光点云数据对应的反射值图像,其中,上述反射值图像的每个像素点的像素值基于映射至该像素点的各激光点数据的反射值的平均值确定。获取模块5021、生成模块5022和映射模块5023的具体处理及其所带来的技术效果可分别参考图2a对应实施例中子步骤2021、子步骤2022和子步骤2023的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述激光点数据中的坐标可以为车体坐标系中的坐标,上述位姿信息中的坐标可以为世界坐标系中的坐标;以及上述映射模块5023可以进一步配置用于:根据上述位姿信息,确定上述待生成反射值图像的坐标原点在上述世界坐标系中的坐标;对于上述激光点云数据中的每个激光点数据,根据上述位姿信息确定该激光点数据在上述世界坐标系中的世界坐标系坐标,并根据所确定的世界坐标系坐标,确定该激光点数据在上述待生成反射值图像中的反射值图像坐标,并将该激光点数据映射至上述待生成反射值图像中上述反射值图像坐标中。映射模块5023的具体处理及其所带来的技术效果可参考图2a对应实施例中步骤2023的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述映射模块5023还可以进一步配置用于:按照如下公式,计算该激光点数据在上述世界坐标系中的世界坐标系坐标:
[x’,y’]T=R×[x,y,z]T+[x0,y0]T
其中,R是由上述位姿信息确定的2×3的坐标变换矩阵,x、y和z分别是该激光点数据中坐标的X轴坐标、Y轴坐标和Z轴坐标,x0和y0分别是上述位姿信息中坐标的X轴坐标和Y轴坐标,x’和y’分别是计算得到的该激光点数据在上述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标。映射模块5023的具体处理及其所带来的技术效果可参考图2a对应实施例中步骤2023的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述映射模块5023还可以进一步配置用于:按照如下公式,计算该激光点数据在上述待生成反射值图像中的反射值图像坐标:
i=Int((x’–xorigin)÷dispix)
j=Int((y’–yorigin)÷dispix)
其中,i和j分别是计算所得的该激光点数据在上述待生成反射值图像中的反射值图像坐标的X轴坐标和Y轴坐标,Int表示取整操作,x’和y’分别是所确定的该激光点数据在上述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标,xorigin和yorigin分别是所确定的上述待生成反射值图像的坐标原点在上述世界坐标系中的X轴坐标和Y轴坐标,dispix是上述单位像素长度。映射模块5023的具体处理及其所带来的技术效果可参考图2a对应实施例中步骤2023的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述预设地图可以是基于上述世界坐标系的地图;以及上述第一确定单元503可以进一步配置用于:按照如下公式,计算与上述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标:
xutm=(i+k)×dispix+xorigin
yutm=(j+k)×dispix+yorigin
其中,i和j分别是上述反射值图像中像素点的X轴坐标和Y轴坐标,xutm和yutm分别是计算所得的与上述反射值图像中X轴坐标为i且Y轴坐标为j的像素点的坐标对应的预设地图中的地图坐标的X轴坐标和Y轴坐标,k为-1到1之间的常数,xorigin和yorigin分别是上述反射值图像的坐标原点在上述世界坐标系中的X轴坐标和Y轴坐标,dispix是上述单位像素长度。第一确定单元503的具体处理及其所带来的技术效果可参考图2a对应实施例中步骤203的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述图像对齐算法可以为Lucas-Kanade前向算法。Lucas-Kanade前向算法的具体处理及其所带来的技术效果可参考图4对应实施例中步骤405的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述第三确定单元506可以进一步配置用于:根据上述旋转角度确定上述位姿信息中的偏航角的误差;计算上述位姿信息中的偏航角加上上述误差的角度和;将计算所得的角度和确定为上述无人驾驶车辆的偏航角。第三确定单元506的具体处理及其所带来的技术效果可参考图2a对应实施例中步骤206的相关说明,在此不再赘述。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU,Central Processing Unit)601,其可以根据存储在只读存储器(ROM,Read Only Memory)602中的程序或者从存储部分606加载到随机访问存储器(RAM,Random Access Memory)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM602以及RAM 603通过总线604彼此相连。输入/输出(I/O,Input/Output)接口605也连接至总线604。
以下部件连接至I/O接口605:包括硬盘等的存储部分606;以及包括诸如LAN(局域网,Local Area Network)卡、调制解调器等的网络接口卡的通信部分607。通信部分607经由诸如因特网的网络执行通信处理。驱动器608也根据需要连接至I/O接口605。可拆卸介质609,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器608上,以便于从其上读出的计算机程序根据需要被安装入存储部分606。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分607从网络上被下载和安装,和/或从可拆卸介质609被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、第一生成单元、第一确定单元、第二生成单元、第二确定单元和第三确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一生成单元还可以被描述为“生成反射值图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:实时获取激光雷达采集的无人驾驶车辆的激光点云数据和惯性导航系统采集的无人驾驶车辆的位姿信息,其中,激光点云数据中的每个激光点数据包括坐标和反射值,位姿信息包括坐标和偏航角;根据激光点云数据和位姿信息,生成与激光点云数据对应的反射值图像;根据反射值图像和位姿信息,从预设的地图中确定与反射值图像中各个像素点的坐标对应的预设地图中的地图坐标;根据反射值图像的每个像素点的坐标和预设地图中与该像素点的坐标对应的地图坐标处的像素值,生成与反射值图像对应的反射值地图图像;采用图像对齐算法,确定从反射值图像对齐到反射值地图图像的旋转角度;根据旋转角度和位姿信息中的偏航角,确定无人驾驶车辆的偏航角。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (18)

1.一种用于确定无人驾驶车辆的偏航角的方法,其特征在于,所述无人驾驶车辆设置有激光雷达以及惯性导航系统,所述方法包括:
实时获取所述激光雷达采集的所述无人驾驶车辆的激光点云数据和所述惯性导航系统采集的所述无人驾驶车辆的位姿信息,其中,所述激光点云数据中的每个激光点数据包括坐标和反射值,所述位姿信息包括坐标和偏航角;
根据所述激光点云数据和所述位姿信息,生成与所述激光点云数据对应的反射值图像;
根据所述反射值图像和所述位姿信息,从预设的地图中确定与所述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标;
根据所述反射值图像的每个像素点的坐标和所述预设地图图像中与该像素点的坐标对应的地图坐标处像素点的像素值,生成与所述反射值图像对应的反射值地图图像;
采用图像对齐算法,确定从所述反射值图像对齐到所述反射值地图图像的旋转角度;
根据所述旋转角度和所述位姿信息中的偏航角,确定所述无人驾驶车辆的偏航角。
2.根据权利要求1所述的方法,其特征在于,所述根据所述激光点云数据和所述位姿信息,生成与所述激光点云数据对应的反射值图像,包括:
获取待生成反射值图像的相关信息,所述相关信息包括所述待生成反射值图像的横向像素数和纵向像素数以及单位像素长度,其中,所述单位像素长度用于表征所述待生成反射值图像中一个像素点所表征的物理长度;
生成M×N的待生成反射值图像,其中,所述M为所述横向像素数,所述N为所述纵向像素数;
根据所述位姿信息和所述相关信息,将所述激光点云数据中的每个激光点数据映射至所述待生成反射值图像中以生成与所述激光点云数据对应的反射值图像,其中,所述反射值图像的每个像素点的像素值基于映射至该像素点的各激光点数据的反射值的平均值确定。
3.根据权利要求2所述的方法,其特征在于,所述激光点数据中的坐标为车体坐标系中的坐标,所述位姿信息中的坐标为世界坐标系中的坐标;以及
所述根据所述位姿信息和所述相关信息,将所述激光点云数据中的每个激光点数据映射至所述待生成反射值图像中以生成与所述激光点云数据对应的反射值图像,包括:
根据所述位姿信息,确定所述待生成反射值图像的坐标原点在所述世界坐标系中的坐标;
对于所述激光点云数据中的每个激光点数据,根据所述位姿信息确定该激光点数据在所述世界坐标系中的世界坐标系坐标,并根据所确定的世界坐标系坐标,确定该激光点数据在所述待生成反射值图像中的反射值图像坐标,并将该激光点数据映射至所述待生成反射值图像中所述反射值图像坐标中。
4.根权利要求3所述的方法,其特征在于,所述根据所述位姿信息确定该激光点数据在所述世界坐标系中的世界坐标系坐标,包括:
按照如下公式,计算该激光点数据在所述世界坐标系中的世界坐标系坐标:
[x’,y’]T=R×[x,y,z]T+[x0,y0]T
其中,R是由所述位姿信息确定的2×3的坐标变换矩阵,x、y和z分别是该激光点数据中坐标的X轴坐标、Y轴坐标和Z轴坐标,x0和y0分别是所述位姿信息中坐标的X轴坐标和Y轴坐标,x’和y’分别是计算得到的该激光点数据在所述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标。
5.根权利要求4所述的方法,其特征在于,所述根据所确定的世界坐标系坐标,确定该激光点数据在所述待生成反射值图像中的反射值图像坐标,包括:
按照如下公式,计算该激光点数据在所述待生成反射值图像中的反射值图像坐标:
i=Int((x’–xorigin)÷dispix)
j=Int((y’–yorigin)÷dispix)
其中,i和j分别是所述反射值图像坐标的X轴坐标和Y轴坐标,Int表示取整操作,x’和y’分别是所确定的该激光点数据在所述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标,xorigin和yorigin分别是所确定的所述待生成反射值图像的坐标原点在所述世界坐标系中的X轴坐标和Y轴坐标,dispix是所述单位像素长度。
6.根据权利要求5所述的方法,其特征在于,所述预设地图是基于所述世界坐标系的地图;以及
所述根据所述反射值图像和所述位姿信息,从预设的地图中确定与所述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标,包括:
按照如下公式,计算与所述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标:
xutm=(i+k)×dispix+x’origin
yutm=(j+k)×dispix+y’origin
其中,xutm和yutm分别是计算所得的与所述反射值图像中X轴坐标为i且Y轴坐标为j的像素点的坐标对应的预设地图中的地图坐标的X轴坐标和Y轴坐标,k为-1到1之间的常数,x’origin和y’origin分别是所述反射值图像的坐标原点在所述世界坐标系中的X轴坐标和Y轴坐标,dispix是所述单位像素长度。
7.根据权利要求6所述的方法,其特征在于,所述图像对齐算法为Lucas-Kanade前向算法。
8.根据权利要求7所述的方法,其特征在于,所述根据所述旋转角度和所述位姿信息中的偏航角,确定所述无人驾驶车辆的偏航角,包括:
根据所述旋转角度确定所述位姿信息中的偏航角的误差;
计算所述位姿信息中的偏航角加上所述误差的角度和;
将计算所得的角度和确定为所述无人驾驶车辆的偏航角。
9.一种用于确定无人驾驶车辆的偏航角的装置,其特征在于,所述无人驾驶车辆设置有激光雷达以及惯性导航系统,所述装置包括:
获取单元,配置用于实时获取所述激光雷达采集的所述无人驾驶车辆的激光点云数据和所述惯性导航系统采集的所述无人驾驶车辆的位姿信息,其中,所述激光点云数据中的每个激光点数据包括坐标和反射值,所述位姿信息包括坐标和偏航角;
第一生成单元,配置用于根据所述激光点云数据和所述位姿信息,生成与所述激光点云数据对应的反射值图像;
第一确定单元,配置用于根据所述反射值图像和所述位姿信息,从预设的地图中确定与所述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标;
第二生成单元,配置用于根据所述反射值图像的每个像素点的坐标和所述预设地图图像中与该像素点的坐标对应的地图坐标处像素点的像素值,生成与所述反射值图像对应的反射值地图图像;
第二确定单元,配置用于采用图像对齐算法,确定从所述反射值图像对齐到所述反射值地图图像的旋转角度;
第三确定单元,配置用于根据所述旋转角度和所述位姿信息中的偏航角,确定所述无人驾驶车辆的偏航角。
10.根据权利要求9所述的装置,其特征在于,所述第一生成单元包括:
获取模块,配置用于获取待生成反射值图像的相关信息,所述相关信息包括所述待生成反射值图像的横向像素数和纵向像素数以及单位像素长度,其中,所述单位像素长度用于表征所述待生成反射值图像中一个像素点所表征的物理长度;
生成模块,配置用于生成M×N的待生成反射值图像,其中,所述M为所述横向像素数,所述N为所述纵向像素数;
映射模块,配置用于根据所述位姿信息和所述相关信息,将所述激光点云数据中的每个激光点数据映射至所述待生成反射值图像中以生成与所述激光点云数据对应的反射值图像,其中,所述反射值图像的每个像素点的像素值基于映射至该像素点的各激光点数据的反射值的平均值确定。
11.根据权利要求10所述的装置,其特征在于,所述激光点数据中的坐标为车体坐标系中的坐标,所述位姿信息中的坐标为世界坐标系中的坐标;以及
所述映射模块进一步配置用于:
根据所述位姿信息,确定所述待生成反射值图像的坐标原点在所述世界坐标系中的坐标;
对于所述激光点云数据中的每个激光点数据,根据所述位姿信息确定该激光点数据在所述世界坐标系中的世界坐标系坐标,并根据所确定的世界坐标系坐标,确定该激光点数据在所述待生成反射值图像中的反射值图像坐标,并将该激光点数据映射至所述待生成反射值图像中所述反射值图像坐标中。
12.根权利要求11所述的装置,其特征在于,所述映射模块进一步配置用于:
按照如下公式,计算该激光点数据在所述世界坐标系中的世界坐标系坐标:
[x’,y’]T=R×[x,y,z]T+[x0,y0]T
其中,R是由所述位姿信息确定的2×3的坐标变换矩阵,x、y和z分别是该激光点数据中坐标的X轴坐标、Y轴坐标和Z轴坐标,x0和y0分别是所述位姿信息中坐标的X轴坐标和Y轴坐标,x’和y’分别是计算得到的该激光点数据在所述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标。
13.根权利要求12所述的装置,其特征在于,所述映射模块进一步配置用于:
按照如下公式,计算该激光点数据在所述待生成反射值图像中的反射值图像坐标:
i=Int((x’–xorigin)÷dispix)
j=Int((y’–yorigin)÷dispix)
其中,i和j分别是所述反射值图像坐标的X轴坐标和Y轴坐标,Int表示取整操作,x’和y’分别是所确定的该激光点数据在所述世界坐标系中的世界坐标系坐标的X轴坐标和Y轴坐标,xorigin和yorigin分别是所确定的所述待生成反射值图像的坐标原点在所述世界坐标系中的X轴坐标和Y轴坐标,dispix是所述单位像素长度。
14.根据权利要求13所述的装置,其特征在于,所述预设地图是基于所述世界坐标系的地图;以及
所述第一确定单元进一步配置用于:
按照如下公式,计算与所述反射值图像中各个像素点的坐标对应的预设地图中的地图坐标:
xutm=(i+k)×dispix+x’origin
yutm=(j+k)×dispix+y’origin
其中,xutm和yutm分别是计算所得的与所述反射值图像中X轴坐标为i且Y轴坐标为j的像素点的坐标对应的预设地图中的地图坐标的X轴坐标和Y轴坐标,k为-1到1之间的常数,x’origin和y’origin分别是所述反射值图像的坐标原点在所述世界坐标系中的X轴坐标和Y轴坐标,dispix是所述单位像素长度。
15.根据权利要求14所述的装置,其特征在于,所述图像对齐算法为Lucas-Kanade前向算法。
16.根据权利要求15所述的装置,其特征在于,所述第三确定单元进一步配置用于:
根据所述旋转角度确定所述位姿信息中的偏航角的误差;
计算所述位姿信息中的偏航角加上所述误差的角度和;
将计算所得的角度和确定为所述无人驾驶车辆的偏航角。
17.一种无人驾驶车辆,包括:
激光雷达,用于采集激光点云数据;
惯性导航系统,用于采集位姿信息;
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一所述的方法。
CN201710224921.XA 2017-04-07 2017-04-07 用于确定无人驾驶车辆的偏航角的方法和装置 Active CN106969763B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710224921.XA CN106969763B (zh) 2017-04-07 2017-04-07 用于确定无人驾驶车辆的偏航角的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710224921.XA CN106969763B (zh) 2017-04-07 2017-04-07 用于确定无人驾驶车辆的偏航角的方法和装置

Publications (2)

Publication Number Publication Date
CN106969763A CN106969763A (zh) 2017-07-21
CN106969763B true CN106969763B (zh) 2021-01-01

Family

ID=59337245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710224921.XA Active CN106969763B (zh) 2017-04-07 2017-04-07 用于确定无人驾驶车辆的偏航角的方法和装置

Country Status (1)

Country Link
CN (1) CN106969763B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10670725B2 (en) 2017-07-25 2020-06-02 Waymo Llc Determining yaw error from map data, lasers, and cameras
CN109410735B (zh) * 2017-08-15 2021-06-29 百度在线网络技术(北京)有限公司 反射值地图构建方法和装置
WO2019084804A1 (zh) * 2017-10-31 2019-05-09 深圳市大疆创新科技有限公司 一种视觉里程计及其实现方法
CN109781119B (zh) * 2017-11-15 2020-01-21 百度在线网络技术(北京)有限公司 一种激光点云定位方法和系统
CN108646733B (zh) * 2018-04-27 2021-08-10 杭州艾豆智能科技有限公司 一种自动矫正的移动机器人的矫正方法
CN108961337B (zh) * 2018-06-15 2020-11-24 深圳地平线机器人科技有限公司 车载相机航向角标定方法和装置、电子设备以及车辆
CN109141446B (zh) * 2018-07-04 2021-11-12 阿波罗智能技术(北京)有限公司 用于获得地图的方法、装置、设备和计算机可读存储介质
CN110378904B (zh) * 2018-07-09 2021-10-01 北京京东尚科信息技术有限公司 对点云数据进行分割的方法和装置
CN109376653B (zh) * 2018-10-24 2022-03-01 百度在线网络技术(北京)有限公司 用于定位车辆的方法、装置、设备和介质
CN109459025B (zh) * 2018-11-08 2020-09-04 中北大学 一种基于光流uwb组合的类脑导航方法
US10974758B2 (en) * 2018-11-19 2021-04-13 GM Global Technology Operations LLC Method and apparatus that direct lateral control during backward motion
CN111345950A (zh) * 2018-12-24 2020-06-30 沈阳新松机器人自动化股份有限公司 基于对角轮系的床和轮椅对接方法及智能床椅一体化设备
CN109870157B (zh) * 2019-02-20 2021-11-02 苏州风图智能科技有限公司 确定车体位姿的方法及装置、制图方法
WO2021056283A1 (en) * 2019-09-25 2021-04-01 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for adjusting a vehicle pose
CN110728693B (zh) * 2019-09-27 2022-12-23 上海维智卓新信息科技有限公司 大规模行车路面三维点云的生成方法及系统
CN111016882B (zh) * 2019-12-13 2021-12-10 苏州智加科技有限公司 一种车辆控制信号计算方法、装置、设备及存储介质
CN111949816B (zh) * 2020-06-22 2023-09-26 北京百度网讯科技有限公司 定位处理方法、装置、电子设备和存储介质
CN111812658B (zh) * 2020-07-09 2021-11-02 北京京东乾石科技有限公司 位置确定方法、装置、系统和计算机可读存储介质
CN112051591B (zh) * 2020-08-31 2022-11-29 广州文远知行科技有限公司 一种激光雷达与惯性测量单元的检测方法及相关装置
CN113298910A (zh) * 2021-05-14 2021-08-24 阿波罗智能技术(北京)有限公司 生成交通标志线地图的方法、设备和存储介质
CN115097976B (zh) * 2022-07-13 2024-03-29 北京有竹居网络技术有限公司 用于图像处理的方法、装置、设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103017739A (zh) * 2012-11-20 2013-04-03 武汉大学 基于激光雷达点云与航空影像的真正射影像的制作方法
CN104268933A (zh) * 2014-09-11 2015-01-07 大连理工大学 一种车载二维激光运动中三维环境扫描成像方法
CN105702151A (zh) * 2016-03-31 2016-06-22 百度在线网络技术(北京)有限公司 一种室内地图构建方法及装置
CN106023210A (zh) * 2016-05-24 2016-10-12 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和系统
CN106097444A (zh) * 2016-05-30 2016-11-09 百度在线网络技术(北京)有限公司 高精地图生成方法和装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014068302A1 (en) * 2012-11-05 2014-05-08 The Chancellor Masters And Scholars Of The University Of Oxford Extrinsic calibration of imaging sensing devices and 2d lidars mounted on transportable apparatus
CN103278159B (zh) * 2013-05-23 2016-01-20 清华大学 机载2d激光测距机获取3d点云的方法
CN106153074B (zh) * 2016-06-20 2023-05-05 浙江大学 一种惯性测量组合动态导航性能的光学标定系统和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103017739A (zh) * 2012-11-20 2013-04-03 武汉大学 基于激光雷达点云与航空影像的真正射影像的制作方法
CN104268933A (zh) * 2014-09-11 2015-01-07 大连理工大学 一种车载二维激光运动中三维环境扫描成像方法
CN105702151A (zh) * 2016-03-31 2016-06-22 百度在线网络技术(北京)有限公司 一种室内地图构建方法及装置
CN106023210A (zh) * 2016-05-24 2016-10-12 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和系统
CN106097444A (zh) * 2016-05-30 2016-11-09 百度在线网络技术(北京)有限公司 高精地图生成方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LIDAR框架构建下的gps基站联合测量准确度探索;王晓磊;《自动化与仪器仪表》;20161231(第12期);第68-70页 *

Also Published As

Publication number Publication date
CN106969763A (zh) 2017-07-21

Similar Documents

Publication Publication Date Title
CN106969763B (zh) 用于确定无人驾驶车辆的偏航角的方法和装置
CN110780285B (zh) 激光雷达与组合惯导的位姿标定方法、系统及介质
US10579065B2 (en) Algorithm and infrastructure for robust and efficient vehicle localization
CN109901567B (zh) 用于输出障碍物信息的方法和装置
CN111812658B (zh) 位置确定方法、装置、系统和计算机可读存储介质
CN111417871A (zh) 基于激光雷达利用高清晰度地图的集成运动估计的迭代最近点处理
EP4213068A1 (en) Target detection method and apparatus based on monocular image
CN108326845B (zh) 基于双目相机和激光雷达的机器人定位方法、装置及系统
CN111179351B (zh) 一种参数标定方法及其装置、处理设备
US20210149415A1 (en) Method and system for localized travel lane perception
CN113183975A (zh) 自动驾驶车辆的控制方法、装置、设备以及存储介质
CN114663529B (zh) 一种外参确定方法、装置、电子设备及存储介质
JP2023054314A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
CN114187589A (zh) 一种目标检测方法、装置、设备和存储介质
JP2021185365A (ja) 自己位置推定装置、自己位置推定方法、プログラム及び記憶媒体
CN111469781B (zh) 用于输出信息的方法和装置
CN110827337B (zh) 确定车载相机的姿态的方法、装置和电子设备
CN116091567A (zh) 自动驾驶车辆的配准方法、装置、电子设备和车辆
CN114419118A (zh) 三维点云配准方法、移动设备及存储介质
CN115934088A (zh) 一种可视化分析系统
CN115032672A (zh) 一种基于定位子系统的融合定位方法及系统
CN112633043B (zh) 一种车道线确定方法、装置、电子设备及存储介质
CN114494435A (zh) 视觉与高精地图匹配定位的快速优化方法、系统及介质
CN114266876A (zh) 定位方法、视觉地图的生成方法及其装置
CN108961337B (zh) 车载相机航向角标定方法和装置、电子设备以及车辆

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant