CN111402328A - 一种基于激光里程计的位姿计算方法及装置 - Google Patents

一种基于激光里程计的位姿计算方法及装置 Download PDF

Info

Publication number
CN111402328A
CN111402328A CN202010188284.7A CN202010188284A CN111402328A CN 111402328 A CN111402328 A CN 111402328A CN 202010188284 A CN202010188284 A CN 202010188284A CN 111402328 A CN111402328 A CN 111402328A
Authority
CN
China
Prior art keywords
data
frame
point cloud
pixel
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010188284.7A
Other languages
English (en)
Other versions
CN111402328B (zh
Inventor
李智超
王乃岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Tusimple Technology Co Ltd
Original Assignee
Beijing Tusimple Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Tusimple Technology Co Ltd filed Critical Beijing Tusimple Technology Co Ltd
Priority to CN202010188284.7A priority Critical patent/CN111402328B/zh
Publication of CN111402328A publication Critical patent/CN111402328A/zh
Application granted granted Critical
Publication of CN111402328B publication Critical patent/CN111402328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本申请提供了一种基于激光里程计的位姿计算方法及装置,涉及自动驾驶技术领域。方法包括:获得激光雷达采集的多帧点云数据;将每帧点云数据编译成对应的柱平面图数据;选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据所述卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系;根据所述像素对应关系计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。这样,本申请通过卷积神经网络的深度学习可以直接获得点云和点云之间的对应关系,降低了对初始位姿的依赖。通过将匹配问题转换成分类问题,然后求解位姿,增强了位姿求解的可解释性和泛化性,从而实现快捷准确的激光里程计的位姿计算。

Description

一种基于激光里程计的位姿计算方法及装置
技术领域
本申请涉及自动驾驶技术领域,尤其涉及一种基于激光里程计的位姿计算方法及装置。
背景技术
目前,随着自动驾驶技术和移动机器人技术的发展,激光雷达设备在自动驾驶车辆和移动机器人上已经得到了广泛的应用。为了保证自动驾驶车辆和移动机器人的正常运行,一般需要通过激光雷达采集周围环境的点云数据,以帮助自动驾驶车辆和移动机器人感知自身周围环境,并对自身进行位姿确定。而上述过程一般通过激光里程计技术实现,激光里程计是指根据激光雷达当前时刻测量的信息和过去一段时间测量的信息,计算车辆或移动机器人在当前环境中的运动轨迹或运动过程。
本申请实施例将提供一种基于激光里程计的位姿计算方法,以实现快捷准确的激光里程计的位姿计算。
发明内容
本申请的实施例提供一种基于激光里程计的位姿计算方法及装置,以实现快捷准确的激光里程计的位姿计算。
为达到上述目的,本申请的实施例采用如下技术方案:
本申请实施例的第一方面,提供一种基于激光里程计的位姿计算方法,包括:
获得激光雷达采集的多帧点云数据;
将每帧点云数据编译成对应的柱平面图数据;
选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据所述卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系;
根据所述像素对应关系计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。
本申请实施例的第二方面,提供一种基于激光里程计的位姿计算装置,包括:
数据获取单元,用于获得激光雷达采集的多帧点云数据;
柱平面图数据编译单元,用于将每帧点云数据编译成对应的柱平面图数据;
像素对应关系确定单元,用于选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据所述卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系;
位姿关系计算单元,用于根据所述像素对应关系计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。
本申请实施例的第三方面,提供一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,实现上述第一方面所述的方法。
本申请实施例的第四方面,提供一种包含指令的计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如上述第一方面所述的方法。
本申请实施例的第五方面,提供一种芯片系统,包括处理器,所述处理器与存储器的耦合,所述存储器存储有程序指令,当所述存储器存储的程序指令被所述处理器执行时实现上述第一方面所述的方法。
本申请实施例的第六方面,提供一种计算机服务器,包括存储器,以及与所述存储器通信连接的一个或多个处理器;
所述存储器中存储有可被所述一个或多个处理器执行的指令,所述指令被所述一个或多个处理器执行,以使所述一个或多个处理器实现上述第一方面所述的方法。
本申请实施例提供一种基于激光里程计的位姿计算方法及装置,首先获得激光雷达采集的多帧点云数据;之后将每帧点云数据编译成对应的柱平面图数据;从而选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据所述卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系;进而根据所述像素对应关系计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。这样,本申请实施例通过卷积神经网络的深度学习可以直接获得点云和点云之间的对应关系,降低了对初始位姿的依赖。通过将匹配问题转换成分类问题,然后求解位姿,增强了位姿求解的可解释性和泛化性,从而实现快捷准确的激光里程计的位姿计算。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于激光里程计的位姿计算方法的流程图一;
图2为本申请实施例中的在车辆上布置激光雷达的示意图;
图3为本申请实施例提供的一种基于激光里程计的位姿计算方法的流程图二;
图4为本申请实施例中的卷积神经网络的数据处理示意图;
图5为本申请实施例中的卷积神经网络的训练流程示意图;
图6为本申请实施例中的生成每组点云数据中两帧点云数据中的点的对应关系数据的流程图;
图7为本申请实施例中的亚像素及真实像素的对应示意图;
图8为本申请实施例提供的一种基于激光里程计的位姿计算装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了使本领域的技术人员更好的了解本申请,下面先对本申请实施例中出现的部分技术术语进行解释如下:
可移动物体:是指车辆、移动机器人、飞行器等可移动运行的物体,可移动物体上可以搭载各类型传感器,如激光雷达、相机等。
点云:通过激光雷达采集的周围环境的数据,用稀疏的三维空间点标示。
里程计:根据传感器当前时刻测量的信息和过去一段时间测量的信息,计算车辆或移动机器人在当前环境中的运动轨迹或运动过程。
点云配准:通过对齐两帧有重叠部分的点云,来计算两帧点云采集时传感器的相对位姿关系。
位姿(Pose):位置和朝向的总称,包含6个自由度,其中包括3个位置自由度和3个朝向自由度。朝向的3个自由度通常用俯仰角(Pitch)、翻滚角(Roll)、偏航角(Yaw)来表示。
帧(Frame):传感器完成一次观测所接收到的测量数据,如相机的一帧数据为一张图片,激光雷达的一帧数据为一组激光点云。
在本申请的一些实施例中,术语“车辆”广泛地解释为包括任何可移动物体,包括例如飞行器、船只、航天器、汽车、卡车、厢式货车、半挂车、摩托车、高尔夫球车、越野车辆、仓库运输车辆或农用车以及行驶在轨道上的运输工具,例如电车或火车以及其它有轨车辆。本申请中的“车辆”通常可以包括:动力系统、传感器系统、控制系统、外围设备和计算机系统。在其它实施例中,车辆可以包括更多、更少或者不同的系统。
其中,动力系统是为车辆提供动力运动的系统,包括:引擎/马达、变速器和车轮/轮胎、能源单元。
控制系统可以包括控制车辆及其组件的装置的组合,例如转向单元、节气门、制动单元。
外围设备可以是允许车辆与外部传感器、其它车辆、外部计算设备和/或用户进行交互的设备,例如无线通信系统、触摸屏、麦克风和/或扬声器。
基于上述描述的车辆,自动驾驶车辆中还配置有传感器系统和自动驾驶控制装置。
传感器系统可以包括用于感测车辆所处环境的信息的多个传感器,以及改变传感器的位置和/或方向的一个或多个致动器。传感器系统可以包括全球定位系统传感器、惯性测量单元、无线电检测和测距(RADAR)单元、相机、激光测距仪、光检测和测距(LIDAR)单元和/或声学传感器等传感器的任何组合;传感器系统还可以包括监视车辆内部系统的传感器(例如O2监视器、燃油表、引擎温度计等)。
自动驾驶控制装置可以包括一个处理器和存储器,存储器中存储有至少一条机器可执行指令,处理器执行至少一条机器可执行指令实现包括地图引擎、定位模块、感知模块、导航或路径模块、以及自动控制模块等的功能。地图引擎和定位模块用于提供地图信息和定位信息。感知模块用于根据传感器系统获取到的信息和地图引擎提供的地图信息感知车辆所处环境中的事物。导航或路径模块用于根据地图引擎、定位模块和感知模块的处理结果,为车辆规划行驶路径。自动控制模块将导航或路径模块等模块的决策信息输入解析转换成对车辆控制系统的控制命令输出,并通过车载网(例如通过CAN总线、局域互联网络、多媒体定向系统传输等方式实现的车辆内部电子网络系统)将控制命令发送给车辆控制系统中的对应部件,实现对车辆的自动控制;自动控制模块还可以通过车载网来获取车辆中各部件的信息。
目前,现有一些通过激光雷达来进行激光里程计计算的主流方法主要是以下两类方式:
第一类方式:基于局部匹配的几何方法,这一类方式会在激光雷达采集到点云数据后,将前后两帧数据进行处理,即在第一帧点云的点附近,寻找其在第二帧点云中的对应点,进而通过最小化对应点之间的3d距离,从而来计算激光雷达的运动过程。
然而,此种第一类方式,由于需要在附近区域寻找对应点,使得寻找和迭代优化过程较为耗时,算力消耗较大,同时寻找对应点的过程需要给出的位姿的初始值相对准确,否则很难找到真正准确的对应点,进而也会影响最终的结果。
第二类方式:是基于深度学习的方法,将里程计计算问题简化为回归问题,直接用深度模型对位姿进行拟合。例如,将前后两帧激光雷达点云输入到深度模型中,由于深度模型经过训练,则可以直接输出例如两帧激光雷达点云对应的激光雷达的移动(例如激光雷达前进1m)。
然而,此种第二类方式,由于将里程计计算问题简化为回归问题,使得整个模型缺乏可解释性(结果出现问题时,可以找到出现问题的原因)和泛化性(指神经网络对未在训练(学习)过程中遇到的数据可以得到合理的输出)。
本申请实施例旨在提出一种不同于上述第一类方式和第二类方式的基于激光里程计的位姿计算方法,以克服现有技术中计算激光雷达位姿的过程繁琐复杂,准确性较差,可解释性和泛化性较差的问题。
如图1所示,本申请实施例提供一种基于激光里程计的位姿计算方法,包括:
步骤101、获得激光雷达采集的多帧点云数据。
步骤102、将每帧点云数据编译成对应的柱平面图数据。
步骤103、选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系。
步骤104、根据像素对应关系计算两帧待处理的点云数据对应的激光雷达位姿关系结果。
为了使本领域的技术人员更好的了解本申请,下面结合附图、实例等对本申请实施例做更为详细的阐述。值得说明的是,本申请实施例中的可移动物体可以是指车辆、移动机器人、飞行器等可进行地图采集的物体,可移动物体上可以搭载各类型传感器,例如在本申请的一实施例中,传感器可以为激光雷达,则相应的传感器数据为激光点云数据,各帧数据为激光雷达采集的各帧激光点云数据。例如,如图2所示,在一车辆20(可以为自动驾驶车辆,也可以为地图采集车等有人驾驶车辆)的两侧或车辆顶部等处可以设置用于进行周围环境感知的激光雷达21,具体的激光雷达21在车辆20上的安装此处不再赘述。
如图3所示,本申请实施例提供一种基于激光里程计的位姿计算方法,包括:
步骤201、控制可移动物体上搭载的激光雷达进行数据采集,获得激光雷达采集的多帧点云中每个点在激光雷达坐标系下的三维坐标,生成每个点对应的尺度信息。
其中,该尺度信息表示每个点到激光雷达的距离。
其中,可移动物体上搭载的激光雷达可以采集各帧点云数据,一帧点云数据是指激光雷达向周围发射激光,采集一周(360°)得到的激光点云数据。
另外,还可以获得激光雷达采集的多帧点云中每个点对应的反射强度信息。
步骤202、获得预先设置的柱平面坐标系下的水平角分辨率和垂直角分辨率。
步骤203、根据水平角分辨率、垂直角分辨率和每帧点云中每个点在激光雷达坐标系下的三维坐标,确定每帧点云中每个点对应的柱平面坐标系下的二维坐标。
此处,该步骤203可以采用如下方式实现:
根据水平角分辨率Δθ、垂直角分辨率Δφ和每帧点云中每个点在激光雷达坐标系下的三维坐标(x,y,z),采用公式:
Figure BDA0002414950270000071
确定每帧点云中每个点对应的柱平面坐标系下的二维坐标(w,h)。
步骤204、将每帧点云中每个点的尺度信息编译到每个点对应的柱平面坐标系下的二维坐标处,形成柱平面图数据。
另外,还可以是将每帧点云中每个点的尺度信息和反射强度信息编译到每个点对应的柱平面坐标系下的二维坐标处,形成柱平面图数据,但不仅局限于此。本领域技术人员还可以根据数据处理的需求将更多维度的数据编译到每个点对应的柱平面坐标系下的二维坐标处。
例如,经过上述步骤202至步骤204的处理,可以将点云中点在激光雷达坐标系下的三维坐标(x,y,z)的尺度信息和反射强度信息编译存储到对应的柱平面坐标系下的二维坐标(w,h)处。
之后,在步骤204之后,需要继续执行步骤205,以将选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,为了使本领域技术人员更加了解该预先训练的卷积神经网络,下面对卷积神经网络及其预先训练过程进行说明:
其中,该卷积神经网络的结构可以包括粗略估计网络和细化网络;粗略估计网络包括预先设置的多层第一普通卷积层,细化网络包括预先设置的多层第二普通卷积层和多层变形卷积层;第一普通卷积层的输出端连接第二普通卷积层的输入端,第二普通卷积层的输出端连接所述变形卷积层的输入端。例如,如图4所示,该卷积神经网络的结构可以包括粗略估计网络和细化网络;粗略估计网络包括预先设置的多层第一普通卷积层(图4中为9层普通卷积层,即×9Conv),细化网络包括预先设置的多层第二普通卷积层(图4中为2层普通卷积层,即×2Conv)和多层变形卷积层(图4中为3层普通卷积层,即×3Deform Conv);如图4所示,第一普通卷积层×9Conv的输出端连接第二普通卷积层×2Conv的输入端,第二普通卷积层×2Conv的输出端连接所述变形卷积层×3Deform Conv的输入端。
为了实现上述的卷积神经网络的训练,本申请实施例采用如图5所示的步骤,包括:
步骤301、获得训练样本数据集。
其中,该训练样本数据集包括若干组点云数据;其中,每组点云数据包括两帧点云数据以及预先获得的两帧点云数据对应的激光雷达位姿关系数据;两帧点云数据的帧间隔为预设帧间隔。
例如,获得两帧点云数据对应的激光雷达位姿关系数据的方式有多种,如可以采用已知的高精度的组合导航系统(例如NovAtel)来确定两帧点云数据对应的激光雷达位姿关系数据,但不仅局限于此,本领域技术人员还可以采用其他现有算法或组合导航系统来得到两帧点云数据对应的激光雷达位姿关系数据,此处不再一一赘述。
该预设帧间隔可以根据需求设置为1、2、3或更多其他间隔,以满足各种情况的训练需求。其原因是后续在应用上述卷积神经网络时,两帧点云数据可能并非相邻数据(即帧间隔并不是1),而是可以间隔多帧(2、3、4、5等)。
步骤302、生成每组点云数据中两帧点云数据中的点的对应关系数据。
此处,如图6所示,该步骤302中,生成每组点云数据中两帧点云数据中的点的对应关系数据,可以采用如下步骤:
步骤3021、将每组点云数据中两帧点云数据分别编译成对应的柱平面图数据。
其中,该步骤3021的过程可以参见上述步骤201至步骤204,此处不再赘述。
步骤3022、根据预先获得的两帧点云数据对应的激光雷达位姿关系数据,确定两帧柱平面图数据中的第一帧柱平面图的像素在第二帧柱平面图中对应的亚像素。
此处,该步骤3022中,根据预先获得的两帧点云数据对应的激光雷达位姿关系数据,确定两帧柱平面图数据中的第一帧柱平面图的像素在第二帧柱平面图中对应的亚像素,可以采用如下方式:
获得第一帧柱平面图的像素cr;其中,cr=Φ(pr),pr为两帧点云数据中的第一帧点云,Φ表示将点云数据中的点云投影到柱平面图运算。
将第一帧柱平面图的像素cr采用公式pr′=Φ-1(cr)进行恢复得到第一帧虚拟点云pr′;其中,Φ-1表示Φ的逆变换运算。
将第一帧虚拟点云pr′采用公式pt=T(pr′)投影到两帧点云数据中的第二帧点云处,得到第一帧虚拟点云pr′在第二帧点云处的对应点pt;其中,T表示预先获得的两帧点云数据对应的激光雷达位姿关系数据。
将第一帧虚拟点云p′r在第二帧点云处的对应点pt采用公式ct=Φ(pt)投影到第二帧柱平面图上,形成在第二帧柱平面图中对应的亚像素ct
值得说明的是,上述将点云数据中的点云投影到柱平面图运算Φ为:
Figure BDA0002414950270000091
其中,Δθ为预先设置的柱平面坐标系下的水平角分辨率,Δφ为预先设置的柱平面坐标系下的垂直角分辨率,(x,y,z)为每帧点云中每个点在激光雷达坐标系下的三维坐标,(w,h)为每帧点云中每个点对应的柱平面坐标系下的二维坐标;
另外,上述Φ的逆变换运算Φ-1为:
z=D(h,w)·sin(hΔφ)
x=D(h,w)·cos(hΔφ)·cos(wΔθ)
y=D(h,w)·cos(hΔφ)·sin(wΔθ)
其中,D(h,w)表示柱平面坐标系下的二维坐标(w,h)处的尺度信息;所述尺度信息表示点云中的点(x,y,z)到激光雷达的距离。
步骤3023、在第二帧柱平面图中确定所述亚像素对应的多个真实像素,并确定第一帧柱平面图的像素与所述多个真实像素的对应概率。
此处,该步骤3023中,在第二帧柱平面图中确定所述亚像素对应的多个真实像素,并确定第一帧柱平面图的像素与所述多个真实像素的对应概率,可以采用如下方式实现:
根据预先设置的搜索范围确定在第二帧柱平面图中所述亚像素对应的多个真实像素。
根据亚像素损失函数:
Figure BDA0002414950270000092
确定所述亚像素与所述多个真实像素的对应概率;其中,Pi,j(x,y)表示所述亚像素与第二帧柱平面图中的第i,j个真实像素的对应概率;Δx为所述亚像素与第i,j个真实像素的横坐标的距离,Δy为所述亚像素与第i,j个真实像素的纵坐标的距离。
例如,如图7所示,亚像素P落在了第二帧柱平面图中的真实像素Q11、Q12、Q21和Q22之间,则可以根据亚像素P与各真实像素的Q11、Q12、Q21和Q22的横纵坐标的距离,即Δx和Δy来确定亚像素与各真实像素的对应概率,其中例如亚像素P距离Q11的Δx为0.333,距离Q11的Δy为0.500,则亚像素P与真实像素Q11的对应概率为(1-0.333)×(1-0.500)=0.3335。另外,在预先设置的搜索范围内,还存在若干真实像素,与亚像素P的距离较远,例如亚像素P与这些真实像素的横纵坐标的距离均大于1,则可以确定亚像素P与这些距离较远的真实像素的对应概率为0。这样,相当于将亚像素P的概率分配到各真实像素上,从而使得原本点云中点的对应和匹配问题转化为了分类问题。
步骤303、根据对应关系数据对所述卷积神经网络进行训练。
此处,在该步骤303中,根据对应关系数据对所述卷积神经网络进行训练,可以采用如下方式实现:
将每组点云数据中两帧点云数据对应的柱平面图数据作为输入,将第一帧柱平面图的像素与所述多个真实像素的对应概率作为输出,对所述卷积神经网络进行训练。
具体的卷积神经网络的训练方式有很多种,如无监督学习、监督学习、半监督学习等,此处不再赘述。
根据上述步骤301至步骤303,卷积神经网络的训练完成,从而可以将训练后的卷积神经网络应用到前述步骤204的柱平面图数据处理中。
步骤205、选取两帧待处理的点云数据对应的柱平面图数据输入至粗略估计网络,经过多层第一普通卷积层进行下采样,分别生成下采样处理后的第一帧特征数据和第二帧特征数据。
其中,第一帧特征数据和第二帧特征数据中的一个特征点分别对应于第一帧柱平面图数据和第二帧柱平面图数据中预设像素区域。
例如,如图4所示,该粗略估计网络可以是具有输入尺寸H×W×2(H和W分别表示柱平面图数据的高度和宽度,2表示2个纬度,即尺度信息和反射强度信息两个纬度)和输出尺寸H/n×W/m×C的全连接卷积网络,其中,n、m分别是网络在垂直方向和水平方向上的跨度。同时,为了适应预测大位移的情况,需要一个较大的最大位移D值。因此,如图4所示该卷积神经网络可以是一个从粗到细的级联网络结构。例如,对于粗略估计网络,可以使用9层3×3的普通卷积层,并设置n=4,m=8和D=10。这样,使得柱平面图数据经过下采样后,生成相应的特征数据,这样每帧特征数据中的一个特征点就相当于柱平面图数据中的40×80的像素区域。其中,C表示输出特征的长度,一般情况下C=D×D。
步骤206、确定第一帧特征数据中的每个特征点与第二帧特征数据中的对应特征点,计算第一帧特征数据中的每个特征点和对应特征点周围预设范围的特征点的相似度,得到第一相似度矩阵:
Figure BDA0002414950270000111
其中,Ma,b(h,w)表示第一相似度矩阵;
Figure BDA0002414950270000112
表示第一帧特征数据中的特征点,
Figure BDA0002414950270000113
表示第二帧特征数据中的特征点
Figure BDA0002414950270000114
周围预设范围的特征点,其中所述预设范围为
Figure BDA0002414950270000115
其中,D为预先设置的最大位移参数。
步骤207、根据第一相似度矩阵,确定第一帧特征数据中的每个特征点对应的相似度最大值,并获得各相似度最大值对应的第二帧特征数据中的特征点。
步骤208、根据第一帧特征数据中的每个特征点和各相似度最大值对应的第二帧特征数据中的特征点,确定第一帧特征数据中的每个特征点对应的偏移量。
例如,第一帧特征数据中的某一个特征点与其对应的相似度最大值对应的第二帧特征数据中的一特征点相比较,两者共偏移u、v(表示在横纵坐标两个方向上)个像素,则偏移量为u、v。
步骤209、将第一帧特征数据、第二帧特征数据和偏移量输入到细化网络,经过多层第二普通卷积层和多层变形卷积层进行细化处理,生成细化处理后的第二相似度矩阵:
Figure BDA0002414950270000116
其中,
Figure BDA0002414950270000117
表示第二相似度矩阵;
Figure BDA0002414950270000118
表示第一帧柱平面图数据中的像素,
Figure BDA0002414950270000119
表示第二帧柱平面图数据中的像素
Figure BDA00024149502700001110
加入偏移量u,v之后周围预设范围的像素,其中所述预设范围为
Figure BDA00024149502700001111
例如,如图4所示,在细化网络中,可以采用2层3×3的普通卷积层,3层3×3的变形卷积层。为了满足细化网络的精细化输出,在细化网络中,n、m,即网络在垂直方向和水平方向上的跨度可以被设置为1,而D可以被设置为5,但不仅局限于此。
步骤210、对第二相似度矩阵
Figure BDA00024149502700001112
进行softmax变换操作,确定第一帧柱平面图数据中的像素
Figure BDA00024149502700001113
与第二帧柱平面图数据中预设范围的各像素
Figure BDA00024149502700001114
的匹配概率。
步骤211、根据预设大小的滑窗在预设范围内进行滑窗操作,确定第一帧柱平面图数据中的像素
Figure BDA0002414950270000121
在各滑窗范围内的候选像素及各候选像素的匹配概率。
此处,在该步骤211中,根据预设大小的滑窗在预设范围内进行滑窗操作,确定第一帧柱平面图数据中的像素
Figure BDA0002414950270000122
在各滑窗范围内的候选像素及各候选像素的匹配概率,可以采用如下方式实现,例如:
根据预设大小的滑窗(如2×2像素的滑窗)在预设范围内进行滑窗操作,确定多个滑窗范围,每个滑窗范围内包含多个(一般为4个)第二帧柱面图数据中的像素。
根据公式:
Figure BDA0002414950270000123
确定第一帧柱平面图数据中的像素
Figure BDA0002414950270000124
在各滑窗范围Wi,j内的候选像素
Figure BDA0002414950270000125
其中,(X,Y)为第二帧柱面图数据中的像素位置;
Figure BDA0002414950270000126
为第一帧柱平面图数据中的像素
Figure BDA0002414950270000127
与(X,Y)的匹配概率。
将同一滑窗范围内的各第二帧柱面图数据中的像素位置(X,Y)对应的匹配概率之和作为该滑窗范围内的候选像素
Figure BDA0002414950270000128
的匹配概率。例如,在一滑窗范围内,有四个像素位置(X,Y),对应的匹配概率分别为0.01、0.02、0.13、0.15,则作为该滑窗范围内的候选像素
Figure BDA0002414950270000129
的匹配概率为0.01+0.02+0.13+0.15=0.31。
步骤212、将预设范围内各候选像素的匹配概率的最大值作为概率结果,将该概率结果和概率结果对应的候选像素作为第一帧柱平面图数据中的像素
Figure BDA00024149502700001210
在第二帧柱面图数据中的对应像素结果。
步骤213、根据第一帧柱平面图数据中的像素
Figure BDA00024149502700001211
在第二帧柱面图数据中的对应像素结果,采用随机抽样一致RANSAC算法计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。
其中,为了使得结果更为准确,该步骤213可以采用如下方式实现,例如:
根据预先设置的概率阈值,选取概率结果大于所述概率阈值的对应像素结果,采用随机抽样一致RANSAC算法计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。
其目的是筛选出概率结果较大的像素结果,而对于那些概率结果较小的像素结果则进行丢弃,从而使得所应用的像素结果更为可靠,保证计算得到的激光雷达位姿关系结果的准确性。
另外,如图8所示,本申请实施例还提供一种基于激光里程计的位姿计算装置,包括:
数据获取单元41,用于获得激光雷达采集的多帧点云数据。
柱平面图数据编译单元42,用于将每帧点云数据编译成对应的柱平面图数据。
像素对应关系确定单元43,用于选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据所述卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系。
位姿关系计算单元44,用于根据所述像素对应关系计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。
值得说明的是,本申请实施例提供的基于激光里程计的位姿计算装置的具体实现方式可以参见上述图1和图3对应的方法实施例,此处不再赘述。
另外,本申请实施例还提供一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,实现上述图1和图3所对应的方法。
另外,本申请实施例还提供一种包含指令的计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如上述图1和图3所对应的方法。
另外,本申请实施例还提供一种芯片系统,包括处理器,所述处理器与存储器的耦合,所述存储器存储有程序指令,当所述存储器存储的程序指令被所述处理器执行时实现上述图1和图3所对应的方法。
另外,本申请实施例还提供一种计算机服务器,包括存储器,以及与所述存储器通信连接的一个或多个处理器;
所述存储器中存储有可被所述一个或多个处理器执行的指令,所述指令被所述一个或多个处理器执行,以使所述一个或多个处理器实现如上述图1和图3所对应的方法。
本申请实施例提供一种基于激光里程计的位姿计算方法及装置,首先获得激光雷达采集的多帧点云数据;之后将每帧点云数据编译成对应的柱平面图数据;从而选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据所述卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系;进而根据所述像素对应关系计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。这样,本申请实施例通过卷积神经网络的深度学习可以直接获得点云和点云之间的对应关系,降低了对初始位姿的依赖。通过将匹配问题转换成分类问题,然后求解位姿,增强了位姿求解的可解释性和泛化性,从而实现快捷准确的激光里程计的位姿计算。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本申请中应用了具体实施例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (19)

1.一种基于激光里程计的位姿计算方法,其特征在于,包括:
获得激光雷达采集的多帧点云数据;
将每帧点云数据编译成对应的柱平面图数据;
选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据所述卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系;
根据所述像素对应关系计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。
2.根据权利要求1所述的方法,其特征在于,所述获得激光雷达采集的多帧点云数据,包括:
获得激光雷达采集的多帧点云中每个点在激光雷达坐标系下的三维坐标,生成每个点对应的尺度信息;所述尺度信息表示每个点到激光雷达的距离。
3.根据权利要求2所述的方法,其特征在于,所述将每帧点云数据编译成对应的柱平面图数据,包括:
获得预先设置的柱平面坐标系下的水平角分辨率和垂直角分辨率;
根据所述水平角分辨率、垂直角分辨率和每帧点云中每个点在激光雷达坐标系下的三维坐标,确定每帧点云中每个点对应的柱平面坐标系下的二维坐标;
将每帧点云中每个点的尺度信息编译到每个点对应的柱平面坐标系下的二维坐标处,形成柱平面图数据。
4.根据权利要求3所述的方法,其特征在于,根据所述水平角分辨率、垂直角分辨率和每帧点云中每个点在激光雷达坐标系下的三维坐标,确定每帧点云中每个点对应的柱平面坐标系下的二维坐标,包括:
根据水平角分辨率Δθ、垂直角分辨率Δφ和每帧点云中每个点在激光雷达坐标系下的三维坐标(x,y,z),采用公式:
Figure FDA0002414950260000011
确定每帧点云中每个点对应的柱平面坐标系下的二维坐标(w,h)。
5.根据权利要求1所述的方法,其特征在于,所述卷积神经网络包括粗略估计网络和细化网络;所述粗略估计网络的输出端连接细化网络的输入端。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
获得训练样本数据集;所述训练样本数据集包括若干组点云数据;其中,每组点云数据包括两帧点云数据以及预先获得的两帧点云数据对应的激光雷达位姿关系数据;所述两帧点云数据的帧间隔为预设帧间隔;
生成每组点云数据中两帧点云数据中的点的对应关系数据;
根据所述对应关系数据对所述卷积神经网络进行训练。
7.根据权利要求6所述的方法,其特征在于,所述生成每组点云数据中两帧点云数据中的点的对应关系数据,包括:
将每组点云数据中两帧点云数据分别编译成对应的柱平面图数据;
根据预先获得的两帧点云数据对应的激光雷达位姿关系数据,确定两帧柱平面图数据中的第一帧柱平面图的像素在第二帧柱平面图中对应的亚像素;
在第二帧柱平面图中确定所述亚像素对应的多个真实像素,并确定第一帧柱平面图的像素与所述多个真实像素的对应概率。
8.根据权利要求7所述的方法,其特征在于,所述根据预先获得的两帧点云数据对应的激光雷达位姿关系数据,确定两帧柱平面图数据中的第一帧柱平面图的像素在第二帧柱平面图中对应的亚像素,包括:
获得第一帧柱平面图的像素cr;其中,cr=Φ(pr),pr为两帧点云数据中的第一帧点云,Φ表示将点云数据中的点云投影到柱平面图运算;
将第一帧柱平面图的像素cr采用公式p′r=Φ-1(cr)进行恢复得到第一帧虚拟点云p′r;其中,Φ-1表示Φ的逆变换运算;
将第一帧虚拟点云p′r采用公式pt=T(p′r)投影到两帧点云数据中的第二帧点云处,得到第一帧虚拟点云p′r在第二帧点云处的对应点pt;其中,T表示预先获得的两帧点云数据对应的激光雷达位姿关系数据;
将第一帧虚拟点云p′r在第二帧点云处的对应点pt采用公式ct=Φ(pt)投影到第二帧柱平面图上,形成在第二帧柱平面图中对应的亚像素ct
其中,所述将点云数据中的点云投影到柱平面图运算Φ为:
Figure FDA0002414950260000031
其中,Δθ为预先设置的柱平面坐标系下的水平角分辨率,Δφ为预先设置的柱平面坐标系下的垂直角分辨率,(x,y,z)为每帧点云中每个点在激光雷达坐标系下的三维坐标,(w,h)为每帧点云中每个点对应的柱平面坐标系下的二维坐标;
其中,所述Φ的逆变换运算Φ-1为:
z=D(h,ω)·sin(hΔφ)
x=D(h,w)·cos(hΔφ)·cos(wΔθ)
y=D(h,w)·cos(hΔφ)·sin(wΔθ)
其中,D(h,w)表示柱平面坐标系下的二维坐标(w,h)处的尺度信息;所述尺度信息表示点云中的点(x,y,z)到激光雷达的距离。
9.根据权利要求7所述的方法,其特征在于,在第二帧柱平面图中确定所述亚像素对应的多个真实像素,并确定第一帧柱平面图的像素与所述多个真实像素的对应概率,包括:
根据预先设置的搜索范围确定在第二帧柱平面图中所述亚像素对应的多个真实像素;
根据亚像素损失函数:
Figure FDA0002414950260000032
确定所述亚像素与所述多个真实像素的对应概率;其中,Pi,j(x,y)表示所述亚像素与第二帧柱平面图中的第i,j个真实像素的对应概率;Δx为所述亚像素与第i,j个真实像素的横坐标的距离,Δy为所述亚像素与第i,j个真实像素的纵坐标的距离。
10.根据权利要求7所述的方法,其特征在于,根据所述对应关系数据对所述卷积神经网络进行训练,包括:
将每组点云数据中两帧点云数据对应的柱平面图数据作为输入,将第一帧柱平面图的像素与所述多个真实像素的对应概率作为输出,对所述卷积神经网络进行训练。
11.根据权利要求5所述的方法,其特征在于,所述选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据所述卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系,包括:
选取两帧待处理的点云数据对应的柱平面图数据输入至粗略估计网络,进行下采样,分别生成下采样处理后的第一帧特征数据和第二帧特征数据;所述第一帧特征数据和第二帧特征数据中的一个特征点分别对应于第一帧柱平面图数据和第二帧柱平面图数据中预设像素区域;
确定第一帧特征数据中的每个特征点与第二帧特征数据中的对应特征点,计算第一帧特征数据中的每个特征点和对应特征点周围预设范围的特征点的相似度,得到第一相似度矩阵:
Figure FDA0002414950260000041
其中,Ma,b(h,w)表示第一相似度矩阵;
Figure FDA0002414950260000042
表示第一帧特征数据中的特征点,
Figure FDA0002414950260000043
表示第二帧特征数据中的特征点
Figure FDA0002414950260000044
周围预设范围的特征点,其中所述预设范围为
Figure FDA0002414950260000045
根据第一相似度矩阵,确定第一帧特征数据中的每个特征点对应的相似度最大值,并获得各相似度最大值对应的第二帧特征数据中的特征点;
根据第一帧特征数据中的每个特征点和各相似度最大值对应的第二帧特征数据中的特征点,确定第一帧特征数据中的每个特征点对应的偏移量;
将所述第一帧特征数据、第二帧特征数据和偏移量输入到细化网络,进行细化处理,生成细化处理后的第二相似度矩阵:
Figure FDA0002414950260000046
其中,
Figure FDA0002414950260000047
表示第二相似度矩阵;
Figure FDA0002414950260000048
表示第一帧柱平面图数据中的像素,
Figure FDA0002414950260000049
表示第二帧柱平面图数据中的像素
Figure FDA00024149502600000410
加入偏移量u,v之后周围预设范围的像素,其中所述预设范围为
Figure FDA00024149502600000411
对所述第二相似度矩阵
Figure FDA00024149502600000412
进行softmax变换操作,确定第一帧柱平面图数据中的像素
Figure FDA00024149502600000413
与第二帧柱平面图数据中预设范围的各像素
Figure FDA00024149502600000414
的匹配概率;
根据预设大小的滑窗在预设范围内进行滑窗操作,确定第一帧柱平面图数据中的像素
Figure FDA00024149502600000415
在各滑窗范围内的候选像素及各候选像素的匹配概率;
将所述预设范围内各候选像素的匹配概率的最大值作为概率结果,将该概率结果和概率结果对应的候选像素作为第一帧柱平面图数据中的像素
Figure FDA00024149502600000416
在第二帧柱面图数据中的对应像素结果。
12.根据权利要求11所述的方法,其特征在于,所述根据预设大小的滑窗在预设范围内进行滑窗操作,确定第一帧柱平面图数据中的像素
Figure FDA0002414950260000051
在各滑窗范围内的候选像素及各候选像素的匹配概率,包括:
根据预设大小的滑窗在预设范围内进行滑窗操作,确定多个滑窗范围,每个滑窗范围内包含多个第二帧柱面图数据中的像素;
根据公式:
Figure FDA0002414950260000052
确定第一帧柱平面图数据中的像素
Figure FDA0002414950260000053
在各滑窗范围Wi,j内的候选像素
Figure FDA0002414950260000054
其中,(X,Y)为第二帧柱面图数据中的像素位置;
Figure FDA0002414950260000055
为第一帧柱平面图数据中的像素
Figure FDA0002414950260000056
与(X,Y)的匹配概率;
将同一滑窗范围内的各第二帧柱面图数据中的像素位置(X,Y)对应的匹配概率之和作为该滑窗范围内的候选像素
Figure FDA0002414950260000057
的匹配概率。
13.根据权利要求11所述的方法,其特征在于,根据所述像素对应关系计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果,包括:
根据第一帧柱平面图数据中的像素
Figure FDA0002414950260000058
在第二帧柱面图数据中的对应像素结果,采用随机抽样一致RANSAC算法计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。
14.根据权利要求13所述的方法,其特征在于,所述根据第一帧柱平面图数据中的像素
Figure FDA0002414950260000059
在第二帧柱面图数据中的对应像素结果,采用随机抽样一致RANSAC算法计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果,包括:
根据预先设置的概率阈值,选取概率结果大于所述概率阈值的对应像素结果,采用随机抽样一致RANSAC算法计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。
15.一种基于激光里程计的位姿计算装置,其特征在于,包括:
数据获取单元,用于获得激光雷达采集的多帧点云数据;
柱平面图数据编译单元,用于将每帧点云数据编译成对应的柱平面图数据;
像素对应关系确定单元,用于选取两帧待处理的点云数据对应的柱平面图数据输入至预先训练得到的卷积神经网络中进行处理,根据所述卷积神经网络的输出得到两帧柱平面图数据上的像素对应关系;
位姿关系计算单元,用于根据所述像素对应关系计算所述两帧待处理的点云数据对应的激光雷达位姿关系结果。
16.一种计算机可读存储介质,其特征在于,包括程序或指令,当所述程序或指令在计算机上运行时,实现权利要求1至14任一项所述的方法。
17.一种包含指令的计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如权利要求1至14任一项所述的方法。
18.一种芯片系统,其特征在于,包括处理器,所述处理器与存储器的耦合,所述存储器存储有程序指令,当所述存储器存储的程序指令被所述处理器执行时实现权利要求1至14任一项所述的方法。
19.一种计算机服务器,其特征在于,包括存储器,以及与所述存储器通信连接的一个或多个处理器;
所述存储器中存储有可被所述一个或多个处理器执行的指令,所述指令被所述一个或多个处理器执行,以使所述一个或多个处理器实现如权利要求1至14任一项所述的方法。
CN202010188284.7A 2020-03-17 2020-03-17 一种基于激光里程计的位姿计算方法及装置 Active CN111402328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010188284.7A CN111402328B (zh) 2020-03-17 2020-03-17 一种基于激光里程计的位姿计算方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010188284.7A CN111402328B (zh) 2020-03-17 2020-03-17 一种基于激光里程计的位姿计算方法及装置

Publications (2)

Publication Number Publication Date
CN111402328A true CN111402328A (zh) 2020-07-10
CN111402328B CN111402328B (zh) 2023-11-10

Family

ID=71432575

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010188284.7A Active CN111402328B (zh) 2020-03-17 2020-03-17 一种基于激光里程计的位姿计算方法及装置

Country Status (1)

Country Link
CN (1) CN111402328B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116656A (zh) * 2020-08-03 2020-12-22 歌尔股份有限公司 同步定位与地图构建slam中的增量建图方法和装置
CN112747752A (zh) * 2020-12-21 2021-05-04 清华大学苏州汽车研究院(吴江) 基于激光里程计的车辆定位方法、装置、设备和存储介质
CN114581379A (zh) * 2022-02-14 2022-06-03 浙江华睿科技股份有限公司 一种密封胶的检测方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665496A (zh) * 2018-03-21 2018-10-16 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
WO2019037484A1 (zh) * 2017-08-23 2019-02-28 腾讯科技(深圳)有限公司 激光扫描设备标定的方法、装置、设备及存储介质
CN109959911A (zh) * 2019-03-25 2019-07-02 清华大学 基于激光雷达的多目标自主定位方法及装置
CN110223351A (zh) * 2019-05-30 2019-09-10 杭州蓝芯科技有限公司 一种基于卷积神经网络的深度相机定位方法
CN110243390A (zh) * 2019-07-10 2019-09-17 北京华捷艾米科技有限公司 位姿的确定方法、装置及里程计
CN110287873A (zh) * 2019-06-25 2019-09-27 清华大学深圳研究生院 基于深度神经网络的非合作目标位姿测量方法、系统及终端设备
CN110738673A (zh) * 2019-10-21 2020-01-31 哈尔滨理工大学 基于实例分割的视觉slam方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019037484A1 (zh) * 2017-08-23 2019-02-28 腾讯科技(深圳)有限公司 激光扫描设备标定的方法、装置、设备及存储介质
CN108665496A (zh) * 2018-03-21 2018-10-16 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
CN109959911A (zh) * 2019-03-25 2019-07-02 清华大学 基于激光雷达的多目标自主定位方法及装置
CN110223351A (zh) * 2019-05-30 2019-09-10 杭州蓝芯科技有限公司 一种基于卷积神经网络的深度相机定位方法
CN110287873A (zh) * 2019-06-25 2019-09-27 清华大学深圳研究生院 基于深度神经网络的非合作目标位姿测量方法、系统及终端设备
CN110243390A (zh) * 2019-07-10 2019-09-17 北京华捷艾米科技有限公司 位姿的确定方法、装置及里程计
CN110738673A (zh) * 2019-10-21 2020-01-31 哈尔滨理工大学 基于实例分割的视觉slam方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BHAVESH KUMAR等: "A multi-faceted CNN architecture for automatic classification of mobile LiDAR data and an algorithm to reproduce point cloud samples for enhanced training" *
丁文东;徐德;刘希龙;张大朋;陈天;: "移动机器人视觉里程计综述", no. 03 *
王立;顾营迎: "基于特征建模的空间非合作目标姿态智能测量方法", vol. 45, no. 004 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116656A (zh) * 2020-08-03 2020-12-22 歌尔股份有限公司 同步定位与地图构建slam中的增量建图方法和装置
CN112747752A (zh) * 2020-12-21 2021-05-04 清华大学苏州汽车研究院(吴江) 基于激光里程计的车辆定位方法、装置、设备和存储介质
CN112747752B (zh) * 2020-12-21 2024-02-02 清华大学苏州汽车研究院(吴江) 基于激光里程计的车辆定位方法、装置、设备和存储介质
CN114581379A (zh) * 2022-02-14 2022-06-03 浙江华睿科技股份有限公司 一种密封胶的检测方法及装置
CN114581379B (zh) * 2022-02-14 2024-03-22 浙江华睿科技股份有限公司 一种密封胶的检测方法及装置

Also Published As

Publication number Publication date
CN111402328B (zh) 2023-11-10

Similar Documents

Publication Publication Date Title
US11776135B2 (en) Object velocity from images
US10025317B2 (en) Methods and systems for camera-based autonomous parking
US10983217B2 (en) Method and system for semantic label generation using sparse 3D data
US10552982B2 (en) Method for automatically establishing extrinsic parameters of a camera of a vehicle
CN110386142A (zh) 用于自动驾驶车辆的俯仰角校准方法
CN111402328B (zh) 一种基于激光里程计的位姿计算方法及装置
CN111627054A (zh) 用于预测高置信度密集点云的深度补全误差地图的方法和装置
US11144818B2 (en) Network architecture for ego-motion estimation
CN111208814B (zh) 用于自动车辆的、利用动态模型的、基于记忆的最优运动规划
CN109871739B (zh) 基于yolo-sioctl的机动站自动目标检测与空间定位方法
CN113819905A (zh) 一种基于多传感器融合的里程计方法及装置
CN113252051A (zh) 一种地图构建方法及装置
JP2022027593A (ja) 可移動機器の測位方法、装置及び可移動機器
Parra-Tsunekawa et al. A kalman-filtering-based approach for improving terrain mapping in off-road autonomous vehicles
US11869253B2 (en) Vehicle environment modeling with a camera
EP4148599A1 (en) Systems and methods for providing and using confidence estimations for semantic labeling
US20200125111A1 (en) Moving body control apparatus
US11663807B2 (en) Systems and methods for image based perception
CN112747752B (zh) 基于激光里程计的车辆定位方法、装置、设备和存储介质
CN114648743A (zh) 三维交通标志检测
Sokolov et al. Methodological Aspects for the Development of Information Systems of Unmanned Mobile Vehicles.
US20230075425A1 (en) Systems and methods for training and using machine learning models and algorithms
CN113836964B (zh) 车道线角点检测方法及装置
US11919508B2 (en) Computer vision system for object tracking and time-to-collision
US11966452B2 (en) Systems and methods for image based perception

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant