CN112365542A - 位姿标定方法及位姿标定设备、自动控制系统 - Google Patents
位姿标定方法及位姿标定设备、自动控制系统 Download PDFInfo
- Publication number
- CN112365542A CN112365542A CN202011347516.5A CN202011347516A CN112365542A CN 112365542 A CN112365542 A CN 112365542A CN 202011347516 A CN202011347516 A CN 202011347516A CN 112365542 A CN112365542 A CN 112365542A
- Authority
- CN
- China
- Prior art keywords
- data
- point cloud
- fusion
- error
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000004927 fusion Effects 0.000 claims abstract description 198
- 238000012545 processing Methods 0.000 claims abstract description 47
- 238000004364 calculation method Methods 0.000 claims description 35
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000007499 fusion processing Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种位姿标定方法及位姿标定设备、自动控制系统,所述位姿标定方法应用于点云采集设备和组合导航设备,所述位姿标定方法包括:获取所述点云采集设备的多帧点云数据;获取所述组合导航设备在全局坐标系下的多帧组合导航数据,所述多帧组合导航数据分别与所述多帧点云数据对应;基于标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下的融合误差;其中,标定参数用于标定所述点云采集设备和所述组合导航设备之间的相对位姿信息;基于所述融合误差对标定参数进行迭代处理,使所述融合误差满足预设误差范围。采用上述方案,能够以较低的实施成本获取高精度的标定参数,操作方便,标定效率高。
Description
技术领域
本发明涉及自动驾驶技术领域,尤其涉及一种位姿标定方法及位姿标定设备、自动控制系统。
背景技术
在自动驾驶系统中,可以将多传感器的数据进行融合实现更好的自动控制效果。由于多种传感器在设备载体上的安装位置不同,采集数据时可能采用不同的坐标系,为了使各传感器采集的数据能够组合使用,需要获取各传感器之间的相对位姿信息,这一获取相对位姿信息的过程可以称为标定,而用以表征各传感器之间的相对位姿信息的数据可以称为标定参数。
通过标定参数,能够将各传感器采集的数据进行坐标转换,有利于数据融合和处理。目前,现有的标定方案主要包括以下两种:
1)通过全站仪、测距仪等外部的精密仪器进行标定。这种方法对于精密仪器的精度要求较高,但是,高精度的精密仪器价格昂贵,且容易受到环境影响和限制,反而造成标定参数测量不准确,为此还需要采取其他手段确保精密仪器的精度,导致系统架构变得更加复杂。
2)基于神经网络的模型进行标定。但是,为了得到收敛的模型,在模型训练阶段,仍然需要精密仪器先进行静态标定,获取大量的静态标定参数用于模型训练;此外,根据选取的神经网络类型,可能还需要对点云数据做进一步的预处理,如对于卷积神经网络而言,点云数据可能需要转换成深度图。故而这种方法的实施难度较大,数据量需求较高,模型结构也较为复杂,模型难以达到预期收敛效果,获得的标定参数的准确性也不高。
由上可知,现有的标定方案虽然可以获取标定参数,但是实施难度和系统架构复杂度巨大,实施成本过高,测量得到的标定参数也不够准确,难以推广和应用。因此,目前的标定方案仍然有待改善。
发明内容
有鉴于此,本发明提供一种位姿标定方法及位姿标定设备、自动控制系统,能够以较低的实施成本获取高精度的标定参数,操作方便,标定效率高。
本发明提供了一种位姿标定方法,应用于点云采集设备和组合导航设备,所述位姿标定方法包括:
获取所述点云采集设备的多帧点云数据;
获取所述组合导航设备在全局坐标系下的多帧组合导航数据,所述多帧组合导航数据分别与所述多帧点云数据对应;
基于标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下的融合误差;其中,标定参数用于标定所述点云采集设备和所述组合导航设备之间的相对位姿信息;
基于所述融合误差对标定参数进行迭代处理,使所述融合误差满足预设误差范围。
可选地,所述基于标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下的融合误差,包括:
基于所述组合导航数据和所述标定参数,将所述多帧点云数据转换至所述全局坐标系下,并对所述多帧点云数据分别进行融合处理,得到多帧点云融合数据;
计算所述多帧点云融合数据之间的差值,获取所述融合误差。
可选地,所述计算所述多帧点云融合数据之间的差值,获取所述融合误差,包括:
从所述多帧点云融合数据中分别获取多个目标特征对应的特征数据,并计算所述多个目标特征之间的相对距离;
基于所述多个目标特征之间的相对距离,获取所述融合误差。
可选地,所述获取多个目标特征对应的特征数据,包括:
对多帧点云融合数据分别进行特征识别,确定所述多个目标特征在各帧点云融合数据中的位置信息,并提取对应的特征数据。
可选地,所述基于所述融合误差对标定参数进行迭代处理,使所述融合误差满足预设误差范围,包括:
判断所述融合误差是否满足所述误差范围,如果否,则基于所述融合误差,对所述标定参数进行非线性修正;
基于修正后的标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下经过修正的融合误差,以进行下一轮的融合误差判断。
可选地,所述基于所述融合误差,对所述标定参数进行非线性修正,包括:
基于所述融合误差和所述标定参数,建立非线性函数,并计算所述非线性函数的偏导矩阵;
基于所述偏导矩阵,对所述融合误差进行非线性计算,并基于非线性计算结果修正所述标定参数。
可选地,所述获取所述组合导航设备在全局坐标系下的多帧组合导航数据,包括:
基于各帧点云数据的时间戳,分别判断是否存在符合选取条件的组合导航数据,如果是,则获取符合所述选取条件的组合导航数据,否则,对采集的组合导航数据进行插值处理,以获得符合所述选取条件的组合导航数据。
本发明还提供了一种位姿标定设备,分别与点云采集设备和组合导航设备连接,所述位姿标定设备包括:
数据获取模块,适于获取所述点云采集设备的多帧点云数据和所述组合导航设备在全局坐标系下的多帧组合导航数据;
融合误差计算模块,适于根据标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下的融合误差;其中,标定参数用于标定所述点云采集设备和所述组合导航设备之间的相对位姿信息;
迭代模块,适于根据所述融合误差对标定参数进行迭代处理,使所述融合误差满足预设误差范围。
可选地,所述融合误差计算模块包括:
坐标转换子模块,适于根据所述组合导航数据和所述标定参数,将所述多帧点云数据转换至所述全局坐标系下;
数据融合子模块,适于对所述多帧点云数据分别进行融合处理,得到多帧点云融合数据;
数据计算子模块,适于计算所述多帧点云融合数据之间的差值,获取所述融合误差。
可选地,所述数据计算子模块包括:
特征数据获取单元,适于从多帧点云融合数据中分别获取多个目标特征对应的特征数据;
相对距离计算单元,适于分别计算多帧点云融合数据中多个目标特征之间的相对距离;
差值计算单元,适于根据所述多个目标特征之间的相对距离,获取所述融合误差。
可选地,所述特征数据获取单元包括:
特征识别子单元,适于对多帧点云融合数据分别进行特征识别,确定所述多个目标特征在各帧点云融合数据中的位置信息;
特征提取子单元,适于根据所述多个目标特征在各帧点云融合数据中的位置信息,提取对应的特征数据。
可选地,所述迭代模块包括:
误差判断子模块,适于判断所述融合误差是否满足所述误差范围;
数据修正子模块,适于根据所述融合误差,对所述标定参数进行非线性修正;
融合误差计算子模块,适于根据修正后的标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下经过修正的融合误差,以使所述误差判断子模块进行下一轮的融合误差判断。
可选地,所述数据修正子模块包括:
函数构建单元,适于根据所述融合误差和所述标定参数,建立非线性函数;
非线性计算单元,适于计算所述非线性函数的偏导矩阵,并根据所述偏导矩阵,对所述融合误差进行非线性计算;
参数修正单元,适于根据非线性计算结果修正所述标定参数。
可选地,所述数据获取模块包括:
条件判断子模块,适于基于各帧点云数据的时间戳,分别判断是否存在符合选取条件的组合导航数据;
数据获取子模块,适于在所述条件判断模块的判断结果为是时,获取符合所述选取条件的组合导航数据;
插值子模块,适于在所述条件判断模块的判断结果为否时,对采集的组合导航数据进行插值处理,以获得符合所述选取条件的组合导航数据。
本发明还提供了一种自动控制系统,包括:点云采集设备、组合导航设备和数据处理设备,所述数据处理设备分别与所述点云采集设备和所述组合导航设备连接,适于执行上述任一项位姿标定方法的步骤,以对所述标定参数进行处理。
采用本发明的位姿标定方法,在获取多帧组合导航数据和多帧点云数据后,基于标定参数和所述多帧组合导航数据,可以确定所述多帧点云数据在所述全局坐标系下的融合误差,然后,基于所述融合误差对标定参数进行迭代处理,可以使所述融合误差满足预设误差范围。由上述方案可知,通过融合误差对标定参数进行迭代处理,可以不断修正标定参数的准确性和精确度,从而改善融合误差,达到最佳融合效果,并且,由于通过现有的组合导航设备采集的数据和点云采集设备采集的数据,即可有效获得高精度的标定参数,进而能够更精准地获取点云采集设备的地理信息,无需额外的精密设备和模型,因此,系统架构较为简单,能够有效降低实施成本,方便实施,有利于推广和应用。综上,本发明的位姿标定方案能够以较低的实施成本获取高精度的标定参数,操作方便,标定效率高。
附图说明
为了更清楚地说明本发明的技术方案,下面将对本发明或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中一种位姿标定方法的流程图;
图2是本发明实施例中一种组合导航数据与点数据之间时间差的示意图;
图3a是本发明实施例中一种融合误差的示意图;
图3b是本发明实施例中一种标定参数经过迭代处理后的融合误差的示意图;
图4是本发明实施例中一种坐标转换过程的示意图;
图5是本发明实施例中一种融合误差获取方法的流程图;
图6是本发明实施例中一种目标特征的示意图;
图7是本发明实施例中一种迭代处理的流程图;
图8是本发明实施例中一种位姿标定设备的结构框图。
具体实施方式
为使本领域技术人员更加清楚地了解本发明的技术问题,以下先通过一应用场景进行具体描述。
在一可实现应用中,以自动驾驶车辆作为设备载体,在自动驾驶车辆上安装有点云采集设备、图像采集设备、导航设备等多种不同功能的传感器以及数据处理设备,数据处理设备可以结合多种传感器采集的数据进行处理,从而对车辆进行更加精准的控制。
其中,点云采集设备可以采集自动驾驶车辆周围的点云数据,以用于路面检测、障碍物识别与跟踪、高精度地图构建等方面。
在数据处理时,由于点云采集设备采用的是一种局部坐标系,即以当前设备作为基础建立的坐标系,因此,处于点云采集设备坐标系下的点云数据无法与其他功能的传感器的数据直接组合,需要将点云数据进行坐标转换,以实现更好的数据融合效果。
然而,通过背景技术所述内容可知,若采用现有的标定方案,不但实施难度和系统架构复杂度巨大、实施成本过高,而且测量得到的标定参数也不够准确,进而导致点云数据的坐标转换结果不理想,影响数据处理结果。
为了解决现有的标定方案存在的问题,本发明提供了一种利用点云采集设备和组合导航设备的标定方案,在获取多帧组合导航数据和多帧点云数据后,基于标定参数和所述多帧组合导航数据,可以确定所述多帧点云数据在所述全局坐标系下的融合误差,然后,基于所述融合误差对标定参数进行迭代处理,在所述融合误差满足预设误差范围终止迭代处理,由此获得的标定参数与现有的标定方案获得的标定参数相比,具有更高的准确性和精确度,且获取标定参数的实施成本更加低廉。
为使本领域技术人员更加清楚地了解及实施本发明的构思、实现方案及优点,以下参照附图,通过具体应用场景进行详细说明。
参照图1所示,为本发明实施例提供的一种位姿标定方法的流程图,可以应用于点云采集设备和组合导航设备,在具体实施中,所述位姿标定方法可以包括:
S01,获取所述点云采集设备的多帧点云数据。
在具体实施中,点云采集设备可以通过发射和接收信号来采集周围目标物上各个点的数据,即采集目标点的点数据。所述点云采集设备在一个采样周期内采集到的点数据的集合即为一帧点云数据。
所述点数据可以包括:第一位姿参数和第一时间戳,所述第一位姿参数可以表征所述点云采集设备周围的目标点在点云采集设备坐标系下的位置信息和角度信息,所述第一时间戳可以表征点数据的获取时间信息。
其中,所述位姿参数可以通过点云采集设备坐标系下的三维点坐标进行表示。
在具体应用时,所述点云采集设备可以为雷达,如激光雷达、毫米波雷达等。本发明实施例对此不作限制。
S02,获取所述组合导航设备在全局坐标系下的多帧组合导航数据,所述多帧组合导航数据分别与所述多帧点云数据对应。
其中,所述全局坐标系可以表征设备载体所在的真实三维空间。根据本发明实施例的实际应用场景和需求,可以选择不同类型的坐标系作为全局坐标系,如可以选择世界坐标系、地心坐标系、大地坐标系、地理坐标系等中的任意一个作为全局坐标系。本发明实施例对于全局坐标系的类型不做具体限定。
在具体实施中,所述组合导航设备获取的组合导航数据可以作为设备载体位于真实三维空间的地理位置。由于所述组合导航设备由多种导航设备组合而成,将多种导航设备进行组合使用,与单一的导航设备相比,组合导航设备具有更强的定位能力,可以获取更加精准的数据来作为设备载体地理位置。所述组合导航设备可以在符合预设条件时获取一帧组合导航数据,所述组合导航数据可以包括:第二位姿参数和第二时间戳;所述第二位姿参数可以表征所述组合导航设备在全局坐标系下的位置信息和角度信息,所述第二时间戳可以表征组合导航数据的获取时间信息。
其中,所述第二位姿参数可以通过全局坐标系下的三维点坐标进行表示。
在具体实施中,所述组合导航设备包括的多种导航设备可以根据实际需求进行选择。例如,所述组合导航设备可以包括:基于IMU(Inertial Measurement Unit,惯性测量单元)的设备和基于INS(Inertial Navigation System,惯性导航系统)的设备中至少一种;以及,基于GNSS(Global Navigation Satellite System,全球导航卫星系统)的设备、基于BDS(BeiDou Navigation Satellite System,北斗卫星导航系统)的设备和基于GPS(Global Positioning System,全球定位系统)的设备中至少一种。本发明实施例对于组合导航设备包含的导航单元的类型不做具体限制。
在一可选示例中,所述组合导航设备在全局坐标系下的位置信息可以由基于GNSS的设备、BDS的设备和基于GPS的设备中至少一种提供;所述组合导航设备在全局坐标系下的角度信息可以由基于IMU的设备和基于INS的设备中至少一种提供。
在具体实施中,所述预设条件可以为:是否满足预设周期或是否达到预设时间点。当满足预设周期或达到预设时间点时,可以认为符合预设条件。
在具体实施中,可以匹配点云数据的第一时间戳和组合导航数据的第二时间戳,根据匹配结果选取组合导航数据,并与所述点云数据建立对应关系。
在实际应用时,由于点数据的采样频率和组合导航数据采样频率不一致,导致点数据的第一时间戳和组合导航数据的第二时间戳可能存在一定时间差。例如,如图2所示,在同一时间轴上,T1时刻组合导航设备获取组合导航数据DH1,在t0时刻点云采集设备采集得到点数据P0,T2时刻组合导航设备获取组合导航数据DH2,由此可以认为,组合导航数据DH1的第二时间戳为T1,点数据P0的第一时间戳为t0,组合导航数据DH2的第二时间戳为T2,组合导航数据DH1与点数据P0之间存在时间差(t0-T1),点数据P0与组合导航数据DH2之间存在时间差(T2-t0)。
为此,可以将第一时间戳和第二时间戳之间的时间差作为匹配结果,并根据实际设定的选取方式,选取相应的组合导航数据。例如,可以设定选取第一个时间差达到预设阈值的第二时间戳所对应的组合导航数据;又例如,可以设定选取时间差最小的第二时间戳所对应的组合导航数据。本发明实施例对于匹配的方式和选取方式不做具体限制。
在具体实施中,为了避免某一帧点云数据与对应的组合导航数据之间时间差过大影响数据处理结果,可以对采集的组合导航数据进行插值处理,以生成与点云数据中各个点数据的第一时间戳差值更小的组合导航数据。
具体而言,在获取所述组合导航设备在全局坐标系下的组合导航数据后,可以基于对应帧点云数据中各个点数据的时间戳(即第一时间戳),分别判断是否存在满足选取条件的组合导航数据,如果是,则获取符合所述选取条件的组合导航数据,否则,对采集的组合导航数据进行插值处理。
其中,可以采用线性插值方法或非线性插值方法进行插值处理,所述线性插值方法可以为一维插值方法;所述非线性插值方法可以为二维插值方法或三维插值方法。本发明实施例对于采用性插值方法的不作具体限制。
例如,继续参考图2,点数据P0为(x0,y0,z0,t0),其中x0,y0,z0为点云采集设备坐标系下的三维点坐标,t0表示第一时间戳,通过点数据的第一时间戳t0,可以确定组合导航数据中与t0最接近的第二时间戳有两个,即T1和T2,其中,T1<t0且在T1和t0之间不存其他的第二时间戳,同样地,T2>t0且在T2和t0之间不存其他的第二时间戳;相应地,与点数据在时间轴上最接近的两个组合导航数据为DH1和DH2。
为了获取唯一对应的组合导航数据,可以获取第二时间戳T1和T2分别对应的第二位姿参数,即组合导航数据DH1中第二位姿参数Q1,以及组合导航数据DH2中第二位姿参数Q2。根据线性插值方法,可以得到第二时间戳t0对应的第二位姿参数Q0=(Q2-Q1)/(T2-T1)×(t0-T1)+Q1。由此,可以获得与点数据的第一时间戳P0相应的组合导航数据DH0。
S03,基于标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下的融合误差;其中,标定参数用于标定所述点云采集设备和所述组合导航设备之间的相对位姿信息。
在具体实施中,由于点云数据和组合导航数据处于不同的坐标系下,点云采集设备无法直接使用组合导航设备提供的组合导航数据,为了使组合导航设备能够为点云采集设备提供高精度的定位,可以对组合导航设备与点云采集设备进行标定,获取二者之间的标定参数。然后,基于所述组合导航数据和所述标定参数,可以将所述多帧点云数据转换至所述全局坐标系下,再对所述多帧点云数据分别进行融合处理,通过计算所述多帧点云融合数据之间的差值,可以获取所述融合误差。
其中,标定参数可以包括相对位移信息和相对角度信息。所述相对位移信息可以表征组合导航设备与点云采集设备之间的相对平移距离,所述相对角度信息可以表征组合导航设备与点云采集设备之间的相对旋转幅度。
可以理解的是,相对角度信息可以包括不同的姿态角度信息。例如,所述相对角度信息可以包括俯仰角度、横滚角度和航向角度。本发明实施例对此不做限制。
接着,对于全局坐标系下的多帧点云数据,可以分别进行融合处理,从而得到多帧点云融合数据。例如,存在两帧处于全局坐标系下的点云数据X1和X2,将点云数据X1进行融合得到点云融合数据Y1,将点云数据X2进行融合得到点云融合数据Y2。
在实际应用中,标定参数的准确性和精确度会影响点云数据的融合结果。当标定参数的准确性和精确度较低时,将会导致对同一目标物所采集的多帧点云数据分别进行融合后,得到的多帧点云融合数据之间存在较大偏移,换而言之,也就是融合误差较大,进而影响数据处理结果。
如图3a所示,为一种融合误差的示意图,将同一目标物A的两帧点云融合数据进行合并,其中白色点表示第一帧点云融合数据,目标物A在第一帧点云融合数据中显示为标记A1指示的直线;灰色的点表示第二帧点云融合数据,目标物A在第二帧点云融合数据中显示为标记A2指示的直线。从图3a中可以看出,标记A1和A2指示的直线之间存在融合误差。
S04,基于所述融合误差对标定参数进行迭代处理,使所述融合误差满足预设误差范围。
在具体实施中,迭代处理可以修正标定参数,利用修正后的标定参数将多帧点云数据从点云采集设备坐标系转换到全局坐标系下后,再次进行融合处理,得到的多帧点云融合数据之间的融合误差也会减小,当融合误差满足预设误差范围时,即可视为得到最优融合误差。换而言之,不同帧的点云数据在全局坐标系下的融合误差属于误差范围,最佳融合效果。
在一可选示例中,如图3b所示,为一种标定参数经过迭代处理后的融合误差的示意图,将同一目标物A的两帧点云融合数据进行合并,其中白色点表示第一帧点云融合数据,灰色的点表示第二帧点云融合数据,与图3a相比,可以看到目标物A在第一帧点云融合数据中显示的直线和在第二帧点云融合数据中显示的直线重叠(如图3b中标记A3指示的直线),达到最佳融合效果。
可以理解的是,所述误差范围可以根据实际精度需求进行设定,也可以根据经验设定。例如,误差范围可以为(0,e],其中,e为误差最大阈值,对于高精度要求(如高精地图的精度要求)而言,e可以取1~5厘米。本发明实施例对此不作限制。
由上述方案可知,通过融合误差对标定参数进行迭代处理,可以不断修正标定参数的准确性和精确度,从而改善融合误差,达到最佳融合效果,并且,由于通过现有的组合导航设备采集的数据和点云采集设备采集的数据,即可有效获得高精度的标定参数,进而能够更精准地获取点云采集设备的地理信息,无需额外的精密设备和模型,因此,系统架构较为简单,能够有效降低实施成本,方便实施,有利于推广和应用。综上,本发明的位姿标定方案能够以较低的实施成本获取高精度的标定参数,操作方便,标定效率高。
在具体实施中,由于本发明提供的姿态标定方法,标定参数会在迭代处理的过程中不断优化,因此,对于点云数据第一次进行坐标转换时采用的标定参数(即初始的标定参数)可以不进行精度和准确性的要求,换而言之,在进行迭代处理前的初始的标定参数可以是粗略测量得到的。本发明实施例对于初始的标定参数的获取方法不作具体限定。
在具体实施中,通过标定参数,可将点云数据转换到以组合导航设备为原点的局部坐标系(即组合导航设备坐标系)下,再利用组合导航设备的组合导航数据,可以将点云数据转换至全局坐标系下。以下通过具体实施例进行详细描述。
在一可选示例中,如图4所示,为一种坐标转换过程的示意图,其中包括:以点云采集设备D为原点的局部坐标系(即点云采集设备坐标系)ZB1,以组合导航设备B为原点的局部坐标系(即组合导航设备坐标系)ZB2和以真实三维空间中一点C为原点的全局坐标系ZB3。根据标定参数中相对位移信息,可以将点云数据的位置信息从点云采集设备坐标系ZB1转换到组合导航设备坐标系ZB2下,结合标定参数中相对角度信息,可以将点云数据的角度信息从点云采集设备坐标系ZB1转换到组合导航设备坐标系ZB2下。
进一步地,为了便于计算,可以采用矩阵方式进行坐标转换。具体而言,将可以将标定参数和组合导航数据中的第二位姿参数转换成相应的矩阵,得到标定参数的变换矩阵Td以及第二位姿参数的变换矩阵Pd。由此,点云数据的任意一个点数据可以采用以下公式转换到全局坐标系下:
在具体实施中,如图5所示,为一种融合误差获取方法的流程图,其中可以包括:
S11,从所述多帧点云融合数据中分别获取多个目标特征对应的特征数据,并计算所述多个目标特征之间的相对距离。
在具体实施中,目标特征可以为特征点、特征线和特征面中至少一种,通过所述目标特征可以表征同一目标物在不同帧的点云融合数据中所处的位置。
其中,可以对多帧点云融合数据分别进行特征识别,从而确定所述多个目标特征在各帧点云融合数据中的位置信息,并提取对应的特征数据。进一步地,可以采用物体识别算法来进行特征识别。
在具体实施中,为了便于识别,可以将目标特征设定为较为具有代表性的物体的点、线、面,如墙体的点、线、面,地面上横道线的点、线、面等。如图6所示,为一种目标特征的示意图,在图6中,AP0、AP1和AP2为一帧点云融合数据中选取的特征点,三个特征点RS0组成的特征面、三个特征点RS1组成的特征面以及三个特征点RS2组成的特征面。
可以理解的是,目标特征的数量可以根据实际需求进行设定,本发明实施例对于目标特征的数量不作具体限制。
在具体实施中,可以设定特征数据的选取频率,如设定间隔1s的选取频率,或者,也可以根据点云数据采集频率进行设定,如点云采集频率为10hz,则每间隔10帧可以获取一次特征数据。
S12,基于所述多个目标特征之间的相对距离,获取所述融合误差。
其中,多个目标特征之间的相对距离可以包括:特征点与特征点之间的距离、特征点到特征线之间的距离,特征点到特征面之间的距离以及特征线到特征面之间的距离。例如,如图6所示,特征点AP0、AP1和AP2与特征面之间的距离如图中白线所示。
在具体实施中,可以对多个目标特征之间的相对距离进行逻辑运算,将运算结果作为融合误差。
例如,可以采用以下公式获取融合误差:
其中,E表示融合误差,Δxi、Δyi、Δzi表示第i个相对距离在全局坐标系下的坐标数值,sqrt(Δxi 2+Δyi 2+Δzi 2)表示第i个相对距离的坐标数值进行平方根计算,N表示相对距离的总数量。
可以理解的是,上述实施例仅为示例说明,在具体应用中,可以根据实际的误差精度需求,选择相应的运算方式来获取融合误差。例如,运算方式还可以包括均值运算、均方值运算、均方差运算、均方根值运算等。本发明实施例对此不做限制。
采用上述方案,通过点云融合数据中的目标特征,可以更加方便和快递地获取融合误差,从而判断是否需要进行下次迭代,提升了融合误差的获取效率,进而提升了迭代处理的效率。
在具体实施中,在所述分别对多帧点云融合数据分别进行特征识别之前,还可以基于预设的状态标识,判断各帧点云融合数据是否已进行过特征识别,对于确定已进行过特征识别的点云融合数据,获取相应的位置信息,并提取所述多个目标特征对应的特征数据;对于确定未进行过特征识别的点云融合数据,进行特征识别。
其中,所述状态标识可以通过符号表征各帧点云融合数据是否已进行过特征识别。对于已进行过特征识别的点云融合数据,可以存储目标特征的位置信息,以便于后续直接通过位置信息获取特征数据。
具体而言,继续参考图5,所述种融合误差获取方法还可以包括:
S13,获取预设的状态标识。
S14,基于所述状态标识,判断各帧点云融合数据是否已进行过特征识别,如果是,则继续执行步骤S15,否则继续执行步骤S11。
S15,获取所述点云融合数据相应的位置信息,并提取所述多个目标特征对应的特征数据。
在具体实施中,为了获得更好的修正效果,可以对标定参数进行非线性修正。具体地,如图7所示,为一种迭代处理的流程图,可以包括以下步骤:
S21,判断所述融合误差是否满足所述误差范围,如果否,则继续步骤S22。
S22,基于所述融合误差,对所述标定参数进行非线性修正。
在具体实施中,基于所述融合误差和所述标定参数,可以建立以标定参数b为自变量,融合误差E为因变量的非线性函数E=F(b)。然后,计算所述非线性函数E=F(b)的偏导矩阵J,并基于所述偏导矩阵J,对所述融合误差E进行非线性计算,通过非线性计算结果修正所述标定参数。
可选地,所述偏导矩阵可以为雅克比矩阵。并且,可以采用以下公式对所述标定参数进行修正:
bn+1=bn-(JTJ)-1JTE。
其中,bn表示修正前的标定参数,bn+1表示修正后的标定参数,(JTJ)-1JTE为对融合误差进行的非线性计算。
S23,基于修正后的标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下经过修正的融合误差,并跳回步骤S21,以进行下一轮的融合误差判断。
其中,融合误差的获取方法可参照相关内容的描述,在此不再赘述。
可以理解的是,上述实施例仅示出了所述步骤S21的判断结果为否的情况,在实际应用时,还可能存在所述步骤S21的判断结果为是的情况。对此,可以根据实际情景设定相应的处理方法,例如,继续参考图7,在所述步骤S21的判断结果为是时,可以执行步骤S24,获取当前的标定参数,以用于数据处理。本说明书实施例对此不做限制。
在具体实施中,为了避免迭代处理时间过长、迭代失控等问题,以及有效控制处理量,可以设置迭代次数,当达到迭代次数时,终止迭代处理,将当前的标定参数作为最终标定参数。
可以理解的是,上文描述了本发明提供的多个实施例方案,各实施例方案介绍的各可选方式可在不冲突的情况下相互结合、交叉引用,从而延伸出多种可能的实施例方案,这些均可认为是本发明披露、公开的实施例方案。
本发明还提供了与上述位姿标定方法对应的位姿标定设备,以下参照附图,通过具体实施例进行详细介绍。需要知道的是,下文描述的位姿标定设备可以认为是为实现本发明提供的位姿标定方法所需设置的功能模块;下文描述的位姿标定设备的内容,可与上文描述的位姿标定方法的内容相互对应参照。
在具体实施中,如图8所示,为本说明书实施例中一种位姿标定设备的结构框图,所述位姿标定设备10可以包括:
数据获取模块11,适于获取所述点云采集设备的多帧点云数据和所述组合导航设备在全局坐标系下的多帧组合导航数据;
融合误差计算模块12,适于根据标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下的融合误差;其中,标定参数用于标定所述点云采集设备和所述组合导航设备之间的相对位姿信息;
迭代模块13,适于根据所述融合误差对标定参数进行迭代处理,使所述融合误差满足预设误差范围。
由上述方案可知,通过融合误差对标定参数进行迭代处理,可以不断修正标定参数的准确性和精确度,从而改善融合误差,达到最佳融合效果,并且,由于通过现有的组合导航设备采集的数据和点云采集设备采集的数据,即可有效获得高精度的标定参数,进而能够更精准地获取点云采集设备的地理信息,无需额外的精密设备和模型,因此,系统架构较为简单,能够有效降低实施成本,方便实施,有利于推广和应用。综上,本发明的位姿标定方案能够以较低的实施成本获取高精度的标定参数,操作方便,标定效率高。
在具体实施中,如图8所示,所述融合误差计算模块12可以包括:
坐标转换子模块121,适于根据所述组合导航数据和所述标定参数,将所述多帧点云数据转换至所述全局坐标系下;
数据融合子模块122,适于对所述多帧点云数据分别进行融合处理,得到多帧点云融合数据;
数据计算子模块123,适于计算所述多帧点云融合数据之间的差值,获取所述融合误差。
在具体实施中,如图8所示,所述数据计算子模块123可以包括:
特征数据获取单元1231,适于从多帧点云融合数据中分别获取多个目标特征对应的特征数据;
相对距离计算单元1232,适于分别计算多帧点云融合数据中多个目标特征之间的相对距离;
差值计算单元1233,适于根据所述多个目标特征之间的相对距离,获取所述融合误差。
在具体实施中,如图8所示,所述特征数据获取单元1231可以包括:
特征识别子单元12311,适于对多帧点云融合数据分别进行特征识别,确定所述多个目标特征在各帧点云融合数据中的位置信息;
特征提取子单元12312,适于根据所述多个目标特征在各帧点云融合数据中的位置信息,提取对应的特征数据。
在具体实施中,所述特征数据获取单元1231还可以包括:状态判断子单元12313,适于根据预设的状态标识,判断各帧点云融合数据是否已进行过特征识别;
所述特征提取子单元12312,适于在确定所述点云融合数据已进行过特征识别后,获取相应的位置信息,并提取所述多个目标特征对应的特征数据;
所述特征识别子单元12311,适于在确定所述点云融合数据未进行过特征提取处理后,对所述点云融合数据进行特征识别。
在具体实施中,如图8所示,所述迭代模块13可以包括:
误差判断子模块131,适于判断所述融合误差是否满足所述误差范围;
数据修正子模块132,适于根据所述融合误差,对所述标定参数进行非线性修正;
融合误差计算子模块133,适于根据修正后的标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下经过修正的融合误差,以使所述误差判断子模块131进行下一轮的融合误差判断。
在具体实施中,如图8所示,所述数据修正子模块132可以包括:
函数构建单元1321,适于根据所述融合误差和所述标定参数,建立非线性函数;
非线性计算单元1322,适于计算所述非线性函数的偏导矩阵,并根据所述偏导矩阵,对所述融合误差进行非线性计算;
参数修正单元1323,适于根据非线性计算结果修正所述标定参数。
在具体实施中,所述数据获取模块11可以包括:
条件判断子模块111,适于基于各帧点云数据的时间戳,分别判断是否存在符合选取条件的组合导航数据;
数据获取子模块112,适于在所述条件判断模块的判断结果为是时,获取符合所述选取条件的组合导航数据;
插值子模块113,适于在所述条件判断模块的判断结果为否时,对采集的组合导航数据进行插值处理,以获得符合所述选取条件的组合导航数据。
本发明实施例还提供了一种自动控制系统,包括:点云采集设备、组合导航设备和数据处理设备,所述数据处理设备分别与所述点云采集设备和所述组合导航设备连接,适于执行以上任一项所述的位姿标定方法的步骤,以对所述标定参数进行处理。具体可参照相关描述,在此不再赘述。
其中,所述数据处理设备可以包括存储器和处理器,所述存储器可以存储一条或多条计算机可执行指令,处理器可以调用所述一条或多条计算机可执行指令,以执行本发明实施例提供的方法的步骤。
在具体实施中,所述自动控制系统可以控制设备载体实现全自动化控制、半自动化控制或辅助控制。并且,所述设备载体可以为交通工具(如机动车、非机动车),也可以为便携式平台(如手持设备),本发明实施例对此不作限制。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令运行时可以执行本发明上述任一实施例方法的步骤。其中,所述计算机可读存储介质可以是光盘、机械硬盘、固态硬盘等各种适当的可读存储介质。所述计算机可读存储介质上存储的指令执行上述任一实施例所述的方法,具体可参照上述实施例,不再赘述。
所述计算机可读存储介质可以包括例如任何合适类型的存储器单元、存储器设备、存储器物品、存储器介质、存储设备、存储物品、存储介质和/或存储单元,例如,存储器、可移除的或不可移除的介质、可擦除或不可擦除介质、可写或可重写介质、数字或模拟介质、硬盘、软盘、光盘只读存储器(CD-ROM)、可刻录光盘(CD-R)、可重写光盘(CD-RW)、光盘、磁介质、磁光介质、可移动存储卡或磁盘、各种类型的数字通用光盘(DVD)、磁带、盒式磁带等。
计算机指令可以包括通过使用任何合适的高级、低级、面向对象的、可视化的、编译的和/或解释的编程语言来实现的任何合适类型的代码,例如,源代码、编译代码、解释代码、可执行代码、静态代码、动态代码、加密代码等。
需要说明的是,本发明所称的“一个实施例”或“实施例”是指可包含于本发明的至少一个实现方式中的特定特征、结构或特性。并且在本发明的描述中,“第一”、“第二”等术语仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等术语的特征可以明示或者隐含的包括一个或者多个该特征。而且,“第一”、“第二”等术语是用于区别类似的对象,而不必用于描述特定的顺序或表示重要性。可以理解的是,这样使用的术语在适当情况下可以互换,以使这里描述的本发明实施例能够以除了在这里图示或描述的那些以外的顺序实施。
虽然本发明实施例披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (15)
1.一种位姿标定方法,其特征在于,应用于点云采集设备和组合导航设备,所述位姿标定方法包括:
获取所述点云采集设备的多帧点云数据;
获取所述组合导航设备在全局坐标系下的多帧组合导航数据,所述多帧组合导航数据分别与所述多帧点云数据对应;
基于标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下的融合误差;其中,标定参数用于标定所述点云采集设备和所述组合导航设备之间的相对位姿信息;
基于所述融合误差对标定参数进行迭代处理,使所述融合误差满足预设误差范围。
2.根据权利要求1所述位姿标定方法,其特征在于,所述基于标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下的融合误差,包括:
基于所述组合导航数据和所述标定参数,将所述多帧点云数据转换至所述全局坐标系下,并对所述多帧点云数据分别进行融合处理,得到多帧点云融合数据;
计算所述多帧点云融合数据之间的差值,获取所述融合误差。
3.根据权利要求2所述位姿标定方法,其特征在于,所述计算所述多帧点云融合数据之间的差值,获取所述融合误差,包括:
从所述多帧点云融合数据中分别获取多个目标特征对应的特征数据,并计算所述多个目标特征之间的相对距离;
基于所述多个目标特征之间的相对距离,获取所述融合误差。
4.根据权利要求3所述位姿标定方法,其特征在于,所述获取多个目标特征对应的特征数据,包括:
对多帧点云融合数据分别进行特征识别,确定所述多个目标特征在各帧点云融合数据中的位置信息,并提取对应的特征数据。
5.根据权利要求1所述位姿标定方法,其特征在于,所述基于所述融合误差对标定参数进行迭代处理,使所述融合误差满足预设误差范围,包括:
判断所述融合误差是否满足所述误差范围,如果否,则基于所述融合误差,对所述标定参数进行非线性修正;
基于修正后的标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下经过修正的融合误差,以进行下一轮的融合误差判断。
6.根据权利要求5所述位姿标定方法,其特征在于,所述基于所述融合误差,对所述标定参数进行非线性修正,包括:
基于所述融合误差和所述标定参数,建立非线性函数,并计算所述非线性函数的偏导矩阵;
基于所述偏导矩阵,对所述融合误差进行非线性计算,并基于非线性计算结果修正所述标定参数。
7.根据权利要求1所述位姿标定方法,其特征在于,所述获取所述组合导航设备在全局坐标系下的多帧组合导航数据,包括:
基于各帧点云数据的时间戳,分别判断是否存在符合选取条件的组合导航数据,如果是,则获取符合所述选取条件的组合导航数据,否则,对采集的组合导航数据进行插值处理,以获得符合所述选取条件的组合导航数据。
8.一种位姿标定设备,其特征在于,分别与点云采集设备和组合导航设备连接,所述位姿标定设备包括:
数据获取模块,适于获取所述点云采集设备的多帧点云数据和所述组合导航设备在全局坐标系下的多帧组合导航数据;
融合误差计算模块,适于根据标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下的融合误差;其中,标定参数用于标定所述点云采集设备和所述组合导航设备之间的相对位姿信息;
迭代模块,适于根据所述融合误差对标定参数进行迭代处理,使所述融合误差满足预设误差范围。
9.根据权利要求8所述位姿标定设备,其特征在于,所述融合误差计算模块包括:
坐标转换子模块,适于根据所述组合导航数据和所述标定参数,将所述多帧点云数据转换至所述全局坐标系下;
数据融合子模块,适于对所述多帧点云数据分别进行融合处理,得到多帧点云融合数据;
数据计算子模块,适于计算所述多帧点云融合数据之间的差值,获取所述融合误差。
10.根据权利要求9所述位姿标定设备,其特征在于,所述数据计算子模块包括:
特征数据获取单元,适于从多帧点云融合数据中分别获取多个目标特征对应的特征数据;
相对距离计算单元,适于分别计算多帧点云融合数据中多个目标特征之间的相对距离;
差值计算单元,适于根据所述多个目标特征之间的相对距离,获取所述融合误差。
11.根据权利要求10所述位姿标定设备,其特征在于,所述特征数据获取单元包括:
特征识别子单元,适于对多帧点云融合数据分别进行特征识别,确定所述多个目标特征在各帧点云融合数据中的位置信息;
特征提取子单元,适于根据所述多个目标特征在各帧点云融合数据中的位置信息,提取对应的特征数据。
12.根据权利要求8所述位姿标定设备,其特征在于,所述迭代模块包括:
误差判断子模块,适于判断所述融合误差是否满足所述误差范围;
数据修正子模块,适于根据所述融合误差,对所述标定参数进行非线性修正;
融合误差计算子模块,适于根据修正后的标定参数和所述多帧组合导航数据,确定所述多帧点云数据在所述全局坐标系下经过修正的融合误差,以使所述误差判断子模块进行下一轮的融合误差判断。
13.根据权利要求12所述位姿标定设备,其特征在于,所述数据修正子模块包括:
函数构建单元,适于根据所述融合误差和所述标定参数,建立非线性函数;
非线性计算单元,适于计算所述非线性函数的偏导矩阵,并根据所述偏导矩阵,对所述融合误差进行非线性计算;
参数修正单元,适于根据非线性计算结果修正所述标定参数。
14.根据权利要求8-13任一项所述位姿标定设备,其特征在于,所述数据获取模块包括:
条件判断子模块,适于基于各帧点云数据的时间戳,分别判断是否存在符合选取条件的组合导航数据;
数据获取子模块,适于在所述条件判断模块的判断结果为是时,获取符合所述选取条件的组合导航数据;
插值子模块,适于在所述条件判断模块的判断结果为否时,对采集的组合导航数据进行插值处理,以获得符合所述选取条件的组合导航数据。
15.一种自动控制系统,包括:点云采集设备、组合导航设备和数据处理设备,其特征在于,所述数据处理设备分别与所述点云采集设备和所述组合导航设备连接,适于执行权利要求1-7任一项所述的位姿标定方法的步骤,以对所述标定参数进行处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011347516.5A CN112365542A (zh) | 2020-11-26 | 2020-11-26 | 位姿标定方法及位姿标定设备、自动控制系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011347516.5A CN112365542A (zh) | 2020-11-26 | 2020-11-26 | 位姿标定方法及位姿标定设备、自动控制系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112365542A true CN112365542A (zh) | 2021-02-12 |
Family
ID=74532902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011347516.5A Pending CN112365542A (zh) | 2020-11-26 | 2020-11-26 | 位姿标定方法及位姿标定设备、自动控制系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112365542A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114396965A (zh) * | 2022-01-17 | 2022-04-26 | 广州导远电子科技有限公司 | 一种组合导航单元的辅助标定方法、装置、电子设备 |
WO2022205845A1 (zh) * | 2021-03-30 | 2022-10-06 | 深圳市优必选科技股份有限公司 | 位姿标定方法、装置、机器人及计算机可读存储介质 |
JP2022177202A (ja) * | 2021-09-22 | 2022-11-30 | アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド | レーザーレーダーと測位装置の校正方法、機器及び自律運転車両 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705543A (zh) * | 2019-08-23 | 2020-01-17 | 芜湖酷哇机器人产业技术研究院有限公司 | 基于激光点云进行车道线识别的方法和系统 |
US20200103249A1 (en) * | 2018-09-27 | 2020-04-02 | Baidu Online Net\Nork Technology (Beijing) Co., Ltd. | Method for calibrating relative pose, device and medium |
CN111208492A (zh) * | 2018-11-21 | 2020-05-29 | 长沙智能驾驶研究院有限公司 | 车载激光雷达外参标定方法及装置、计算机设备及存储介质 |
CN113870343A (zh) * | 2020-06-30 | 2021-12-31 | 长沙智能驾驶研究院有限公司 | 相对位姿标定方法、装置、计算机设备和存储介质 |
-
2020
- 2020-11-26 CN CN202011347516.5A patent/CN112365542A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200103249A1 (en) * | 2018-09-27 | 2020-04-02 | Baidu Online Net\Nork Technology (Beijing) Co., Ltd. | Method for calibrating relative pose, device and medium |
CN111208492A (zh) * | 2018-11-21 | 2020-05-29 | 长沙智能驾驶研究院有限公司 | 车载激光雷达外参标定方法及装置、计算机设备及存储介质 |
CN110705543A (zh) * | 2019-08-23 | 2020-01-17 | 芜湖酷哇机器人产业技术研究院有限公司 | 基于激光点云进行车道线识别的方法和系统 |
CN113870343A (zh) * | 2020-06-30 | 2021-12-31 | 长沙智能驾驶研究院有限公司 | 相对位姿标定方法、装置、计算机设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
ROYSHILKROT等: "《未知环境下移动机器人目标跟踪理论与方法》", 西安:西北工业大学出版社, pages: 186 - 190 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022205845A1 (zh) * | 2021-03-30 | 2022-10-06 | 深圳市优必选科技股份有限公司 | 位姿标定方法、装置、机器人及计算机可读存储介质 |
JP2022177202A (ja) * | 2021-09-22 | 2022-11-30 | アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド | レーザーレーダーと測位装置の校正方法、機器及び自律運転車両 |
EP4124878A3 (en) * | 2021-09-22 | 2023-03-08 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Method and apparatus for calibrating lidar and positioning device and storage medium |
CN114396965A (zh) * | 2022-01-17 | 2022-04-26 | 广州导远电子科技有限公司 | 一种组合导航单元的辅助标定方法、装置、电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112365542A (zh) | 位姿标定方法及位姿标定设备、自动控制系统 | |
CN109934920A (zh) | 基于低成本设备的高精度三维点云地图构建方法 | |
US8359156B2 (en) | Map generation system and map generation method by using GPS tracks | |
CN114526745B (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN111982532B (zh) | 一种自动泊车性能测试方法 | |
CN109556569B (zh) | 地形图测绘方法及装置 | |
CN109084785A (zh) | 多车辆协同定位与地图构建方法、装置、设备及存储介质 | |
CN107457784B (zh) | 变电站巡检机器人gps北斗差分定位与导航方法 | |
CN112904395A (zh) | 一种矿用车辆定位系统及方法 | |
CN105556244A (zh) | 用于获取机动车在大地坐标系中的实际位置的方法以及机动车 | |
CN106996795A (zh) | 一种车载激光外参标定方法和装置 | |
CN112859133A (zh) | 一种基于雷达与北斗数据的船舶深度融合定位方法 | |
CN115683170B (zh) | 基于雷达点云数据融合误差的校准方法 | |
CN115236714A (zh) | 多源数据融合定位方法、装置、设备及计算机存储介质 | |
CN113959437A (zh) | 一种用于移动测量设备的测量方法及系统 | |
CN116758234A (zh) | 一种基于多点云数据融合的山地地形建模方法 | |
CN116704458A (zh) | 一种自动驾驶商用车横向定位方法 | |
CN116399324A (zh) | 建图方法、装置及控制器、无人驾驶车辆 | |
CN109975848B (zh) | 基于rtk技术的移动测量系统精度优化方法 | |
CN113566817B (zh) | 一种车辆定位方法及装置 | |
CN112098926B (zh) | 一种利用无人机平台的智能测角训练样本生成方法 | |
CN112577499B (zh) | 一种vslam特征地图尺度恢复方法及系统 | |
CN117830772A (zh) | 基于点云图像融合的局部地图生成方法及系统 | |
CN113063441A (zh) | 里程计累计推算误差的数据源纠正方法及装置 | |
CN117169942A (zh) | 一种基于LiDAR/GPS/IMU融合的无人车重定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: No.2 building, no.468 xinlai Road, Jiading District, Shanghai, 201821 Applicant after: Shanghai Hesai Technology Co.,Ltd. Address before: No.2 building, no.468 xinlai Road, Jiading District, Shanghai, 201821 Applicant before: Shanghai Hesai Technology Co., Ltd |