CN111220993B - 目标场景定位方法、装置、计算机设备和存储介质 - Google Patents

目标场景定位方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN111220993B
CN111220993B CN202010035720.7A CN202010035720A CN111220993B CN 111220993 B CN111220993 B CN 111220993B CN 202010035720 A CN202010035720 A CN 202010035720A CN 111220993 B CN111220993 B CN 111220993B
Authority
CN
China
Prior art keywords
point cloud
frame
point
marker
target scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010035720.7A
Other languages
English (en)
Other versions
CN111220993A (zh
Inventor
汪献义
高梁
李大林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha Intelligent Driving Research Institute Co Ltd
Original Assignee
Changsha Intelligent Driving Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha Intelligent Driving Research Institute Co Ltd filed Critical Changsha Intelligent Driving Research Institute Co Ltd
Priority to CN202010035720.7A priority Critical patent/CN111220993B/zh
Publication of CN111220993A publication Critical patent/CN111220993A/zh
Application granted granted Critical
Publication of CN111220993B publication Critical patent/CN111220993B/zh
Priority to PCT/CN2021/071819 priority patent/WO2021143778A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Abstract

本申请涉及一种目标场景定位方法、装置、计算机设备和存储介质。该方法利用设备在行驶过程中激光雷达实时采集的单帧实时点云数据,利用目标场景中标识物的外部特征,提取单帧实时点云数据中的标识物点云,利用标识物点云的重心点构造多边形,在预先构建了重心点的高精度地图中相搜索多平边的全等多边形,确定匹配点,根据匹配点实现定位。由于目标场景中物体的相对位置关系不变,通过在高精度地图中搜索基于行驶过程中采集的实时点云数据处理得到的多边形匹配其全等平面多边形,利用这种对应关系,无需GPS辅助即可快速地实现目标场景定位。

Description

目标场景定位方法、装置、计算机设备和存储介质
技术领域
本申请涉及自动驾驶汽车技术领域,特别是涉及一种目标场景定位方法、装置、计算机设备和存储介质。
背景技术
自动驾驶汽车是依靠人工智能,视觉计算,雷达,监控装置和定位系统协同合作共同完成,让电脑可以在没有任何人类主动的操作下,自动安全地操作机动车辆。
自动驾驶需要实时对车辆的目标场景进行定位,确定车辆位置。例如对车辆的当前所处场景进行定位,以正确给出驾驶指令。一个目标场景定位为道路路口定位。目前自动驾驶多通过车道保持技术实现对车辆行进过程中车辆位置的实时监控,但是在没有车道线的路口这种技术则无法施展。针对这种问题,当前多通过差分GPS技术实现路口的高精度定位。差分GPS技术主要通过当前测量车与附近的高精度基准站的相关关系解算车辆的空间位置,然后依据该空间位置还原车辆在事先采集数据中的空间位置实现定位。
然而在城市中GPS信号多容易受多路径效应的干扰,容易导致目标场景定位不稳定。
发明内容
基于此,有必要针对上述技术问题,提供一种能够稳定定位的目标场景定位方法、装置、计算机设备和存储介质。
一种目标场景定位方法,所述方法包括:
获取设备在行驶过程中激光雷达采集的单帧实时点云数据;
根据目标场景中标识物的外部特征,提取所述单帧实时点云数据中的标识物点云;
将所述标识物点云归一化到同一平面,并根据所述标识物点云的坐标在平面确定重心点;
随机采集预设数量的所述重心点,以所述重心点确定多边形的边长与对角线长度,构造单帧点云多边形的特征;
根据所述单帧点云多边形的特征,在预先构建了重心点的高精度地图中确定所述单帧点云多边形各顶点的匹配特征点;
根据所述匹配特征点,在所述高精度地图中进行目标场景定位。
一种目标场景定位装置,其特征在于,所述装置包括:
实时点云获取模块,用于获取设备在行驶过程中激光雷达采集的单帧实时点云数据;
柱形点提取模块,用于根据目标场景中标识物的外部特征,提取所述单帧实时点云数据中的标识物点云;
重心点确定模块,用于将所述标识物点云归一化到同一平面,并根据所述标识物点云的坐标在平面确定重心点;
四边形构建模块,用于随机采集预设数量的所述重心点,以所述重心点确定多边形的边长与对角线长度,构造单帧点云多边形的特征;
匹配模块,用于根据所述单帧点云多边形特征,在预先构建了重心点的高精度地图中确定所述单帧点云多边形各顶点的匹配特征点;
定位模块,用于根据所述匹配特征点,在所述高精度地图中进行目标场景定位。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述各实施例所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述各实施例所述的方法的步骤。
上述目标场景定位方法、装置、计算机设备和存储介质,利用设备在行驶过程中激光雷达实时采集的单帧实时点云数据,利用目标场景中标识物的外部特征,提取单帧实时点云数据中的标识物点云,利用标识物点云的重心点构造多边形,在预先构建了重心点的高精度地图中相搜索多平边的全等多边形,确定匹配点,根据匹配点实现定位。由于目标场景中物体的相对位置关系不变,通过在高精度地图中搜索基于行驶过程中采集的实时点云数据处理得到的多边形匹配其全等平面多边形,利用这种对应关系,无需GPS辅助即可快速地实现目标场景定位。
附图说明
图1为一个实施例中目标场景定位方法的应用环境图;
图2为一个实施例中目标场景定位方法的流程示意图;
图3为一个实施例中根据目标场景中标识物的外部特征,提取单帧实时点云数据中的标识物点云的步骤的流程示意图;
图4为另一个实施例中根据目标场景中柱形标识物的外部特征,过滤栅格点云,得到柱形标识物点云的步骤的流程示意图;
图5为一个实施例中平面四边形的示意图;
图6为一个实施例中目标场景定位装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的目标场景定位方法,可以应用于如图1所示的应用环境中。该应用环境包括智能行驶设备100,智能行驶设备配置有激光雷达101、摄像头102、雷达感应器103以及车辆控制器104。其中,激光雷达101、摄像头102、雷达感应器103分别与控制器104连接。激光雷达101采集设备环境的三维地图,摄像头102实时采集设备周围图像。基于图像识别技术可辅助识别信号灯各障碍物。雷达感应器可确定障碍物的距离。控制器104存储有高精度地图,利用激光雷达101、摄像头102以及雷达感应器103的数据以及高精度地图进行设备控制实现自动行驶。
其中,智能行驶设备100可以包括但不限于无人驾驶汽车,智能行走机器人和无人机等。
在实现自动驾驶的过程中,控制器获取设备在行驶过程中激光雷达采集的单帧实时点云数据;根据目标场景中标识物的外部特征,提取单帧实时点云数据中的标识物点云;将标识物点云归一化到同一平面,并根据标识物点云的坐标在平面确定重心点;随机采集预设数量的重心点,以重心点确定多边形的边长与对角线长度,构造单帧点云多边形的特征;根据单帧点云多边形的特征,在预先构建了重心点的高精度地图中确定单帧点云多边形各顶点的匹配特征点;根据匹配特征点,在高精度地图中进行目标场景定位。
在一个实施例中,如图2所示,提供了一种目标场景定位方法,以该方法应用于图1中的智能行驶设备为例进行说明,本实施例中,以智能行驶设备为无人驾驶汽车为例,包括以下步骤:
步骤202,获取设备在行驶过程中激光雷达采集的单帧实时点云数据。
具体地,自动驾驶车辆在行进过程当中,激光雷达传感器会根据当前车辆位置构建一个局部的笛卡尔坐标系(XYZ坐标轴),激光扫描仪通过激光发射与接收的时间间隔完成对目标探测物的距离探测,然后在确定该距离方向的方向向量在XYZ坐标轴的分量获得该目标在当前局部坐标系下的空间坐标,从而完成局部点云采集,得到一次激光发射对应的单帧实时点云数据。
步骤S204,根据目标场景中标识物的外部特征,提取单帧实时点云数据中的标识物点云。
目标场景是指智能行驶设备在行驶过程中的一些常用固定场景。目标场景通常具有一些具有明显识别性质的标识物,标识物具有明显的外部特征,通过这些外部特征,能够明确设备当前所处的场景。一种目标场景为路口,在路口通常具有红绿灯,路灯以及摄像头架等标识物。这些标识物的外部特征为:物体高度较高,形状为柱状。通过识别这些外部特征,进而识别标识物,确定目标场景。本申请的目标场景定位方法,可以但不限于适用于目标场景具有明显的柱形外部特征的场景。如,路口的红绿灯,路灯以及摄像头架等为较高的柱状,又如,路口的树通常比非路口路上的少。
本申请中,通过利用目标场景中标识物的外部特征,提取当前在行驶过程中所采集的设备的单帧实时点云数据中的标识物点云。标识物点云为实时点云数据中标识物的点云。
以目标场景为路口为例,在实际的路口场景中,路口通常都具有特有的外部特征明显的标识物,如红绿灯、路灯,摄像头架等柱形物体。柱形标识物则是根据实时点云数据中这些柱形物体的三维点云数据所标识出来的。
具体地,根据目标场景中标识物的外部特征,提取单帧实时点云数据中的标识物点云,如图3所示,包括以下步骤:
步骤S302,将单帧实时点云数据进行栅格划分,得到栅格点云。
将单帧实时点云数据投影至XY维度的栅格平面,具体地,点云XY维度栅格化通过将点云分配到对应的栅格索引实现,具体方式如公式(1)所示:
Figure 61306DEST_PATH_IMAGE001
(1)
Figure 712867DEST_PATH_IMAGE002
其中,
Figure 492605DEST_PATH_IMAGE003
表示栅格索引,X,Y表示当前点坐标,
Figure 559918DEST_PATH_IMAGE004
Figure 108711DEST_PATH_IMAGE005
表示当前点集XY坐标的最小值,
Figure 727911DEST_PATH_IMAGE006
表示表示分割的栅格边长,本申请的栅格边长设置为1.2m,floor(*)表示向下取整。
步骤S304,根据目标场景中柱形柱识物的外部特征,过滤栅格点云,得到柱形标识物点云;目标场景中柱形标识物的外部特征包括目标场景中柱形标识物的高度、线度以及宽度中的至少一种。
具体地,目标场景通常具有一些具有明显识别性质有标识物,这些标识物具有明显的外部特征,通过这些外部特征,能够明确设备当前所处的场景。如路口场景中,标识物为红绿灯等柱形物体,如红绿灯的外部特征如,高度通常高于五米,呈线性,宽度较小等。利用目标场景中柱形标识物的宽度、高度和线度过滤栅格点云,得到高度、宽度和线度符合目标场景特有柱形标识物外部特征的柱形标识物点云。
具体地,如图4所示,根据目标场景中柱形标识物的外部特征,过滤栅格点云,得到柱形标识点的步骤,包括以下步骤:
S402,统计栅格点云的最大高程差,去除最大高程差小于高程差阈值的栅格点云。
最大高程差即栅格中点云最大Z坐标与最小Z坐标的差。一般路灯与红绿灯的高度较高,本申请将高程差阈值设置为6米,最大高程差大于或等于6米的栅格点云较大的概率为路口特有柱形物体的点云。去除最大高程差小于6米的栅格点云,保留最大高程差大于或等于6米的栅格点云。通过最大高程差,利用了路口特有柱形物体高度的特点,过滤不符合路口柱形物体高度的栅格点云。
S404,按照预设厚度逐层切割高程差过滤后栅格点云,保留切割后连续性符合要求的栅格点云。
具体地,在Z坐标轴方向以一定厚度(如2米或2.5米)为步长,逐层切割,若每层切片都有点或仅有一个切片内没有点则表明连续性符合要求。
S406,对切割处理后的栅格点云的线度进行分析,去除线度不符合要求的栅格点云。
具体地,通过对栅格点云进行主成分分析可获得该部分点云的线性特征,具体如公式(2)所示:
Figure 994944DEST_PATH_IMAGE007
Figure 928265DEST_PATH_IMAGE008
(2)
Figure 269248DEST_PATH_IMAGE009
其中,
Figure 997032DEST_PATH_IMAGE010
Figure 548099DEST_PATH_IMAGE011
Figure 285111DEST_PATH_IMAGE012
分别表示点云的线度、面度与球度特征值,
Figure 542917DEST_PATH_IMAGE013
Figure 644865DEST_PATH_IMAGE014
Figure 620912DEST_PATH_IMAGE015
分别为主成分分析获得的特征值。一般来说,柱形物体的线性特征明显,基于此,若栅格点云线度
Figure 692773DEST_PATH_IMAGE010
逼近1则说明该点集线性特征明显。本申请的方案仅考虑线度。
S408,对保留的线度符合要求的栅格点云进行栅格分割,得到子栅格点云,子栅格点云的栅格边长小于栅格点云的栅格边长。
将栅格点云再按公式(1)所示的分割方式再进行一次栅格分割,子栅格的栅格边长比步骤302中设置的小,本方法的子栅格的栅格边长为步骤302中的1/6。
S410,根据子栅格点云中有点的子栅格在子栅格点云中占用的区域,得到宽度符合要求的柱形标识物点云。
一般路灯的栅格占有率较小,道路两侧的树木栅格占有率较大。通过子栅格点云中有点的子栅格在栅格中占有的区域,得到宽度符合要求的柱形标识点。具体地,通过设置阈值为0.3。在XY方向各6等分得到36个子栅格,在这些子栅格中有点的栅格少于36*0.3个,宽度符合要求,为柱形。
在步骤S204之后,还包括:
步骤S206:将标识物点云归一化到同一平面,并根据标识物点云的坐标在平面确定重心点。
具体地,通过上述步骤提取的标识物点云Z坐标值有所不同。将每个栅格中各个点云的Z坐标减去当前栅格Z坐标的最小值,这样就实现了将标识物点云的Z坐标最小值归一化为0,将标识物点云归一化到了同一平面。
通过Z坐标值将介于一定阈值范围内的索引截取标识物点云得到标识物点集。然后迭代该点集第一个点在XY维度在一定范围内(如1米)的临近点,根据这些临近点的XY维度坐标的均值确定为该标识物点集的重心点,即仅用一个点表示标识物点集内的所有点。
步骤S208,随机采集预设数量的重心点,以重心点确定多边形边长与对角线长度,构造单帧点云多边形的特征。
可将每个标识物点集用一个重心点表示,通常情况下,单帧点云特征点较少,高精度地图特征点较多,且单帧采集的点云,因视野遮挡或扫描精度的影响多存在标识物特征点缺失的状况。但通过其获取的特征点确定的多边形在高精度地图中存在的可能性较大,所以本方法通过随机采集预设数量的重心点,并以这些重心点确定平面多边形边长与对角线长度,构造描述该多边形的特征。
通常而言,通过特征点确定的四边形在高精度地图中存在的稳定性较高。本实施例中,可构造平面四边形,即采集4个重心点,以这4个重心点确定平面四边形边长和对角线,构造单帧点云多边形的特征。
描述平面四边形的具体构造方式如下:如图5的平面四边形所示,分别计算AB、AC、AD的长度,然后分别计算较近点与次近点与最远点的长度BD、BC最后计算次近点与最远点的长度DC。最终四边形ABCD的特征用行向量[AB、AD、AC、BD、BC、DC]描述。
步骤S210,根据单帧点云多边形的特征,在预先构建了重心点的高精度地图中确定单帧点云多边形各顶点的匹配特征点。
具体地,高精度地图为目标场景定位的目标数据集。以路口场景的高精度地图为例,在采集包括路口场景的单帧数据集时分别使用惯性传感器与GPS接收机记录当前帧数据的旋转量与平移量,然后通过记录的旋转量与平移量将属于路口的单帧数据融合从而完成路口高精度地图的构建。
高精度地图预先利用上述的方法构建了每一帧点云数据的重心点。根据单帧点云平面四边形特征,在预先构建了重心点的高精度地图中确定单帧点云多边形各顶点的匹配特征点,包括:根据单帧点云多边形特征,在预先构建了重心点的高精度地图中搜索单帧点云多边形的全等多边形,得到单帧点云多边形各顶点的匹配特征点。
具体地,同一目标场景的各物体的相对关系是绝对的,单帧实时点云数据,是在行驶过程中采集的目标场景的点云数据,而高精度地图是地图制作是采集的点云同一目标场景的点云数据。即两次所采集的相同目标场景,各物体的相对关系是绝对的,不同次经过同一个地方这里的标识物间的相对关系是不会变换的。基于此,可以认为,若高精度地图中存在单帧点云多边形的全等多边形,则可以找到单帧点云多边形各顶点的匹配特征点。
以多边形为四边形为例,具体地,根据单帧点云多边形特征,在预先构建了重心点的高精度地图中搜索单帧点云多边形的全等多边形,得到单帧点云多边形各顶点的匹配特征点,包括以下步骤:
第一步,根据单帧点云四边形的特征,在高精度地图的重心点中,确定是否有距离介于单帧点云四边形第一边AB预设长度阈值的匹配第一点A′和匹配第二点B′。若是,则继续搜索,若否,则判断是否达到设置的最大随机采样次数。若未达到则返回步骤S208,否则,停止在高精度地图中搜索对应点。
第二步,以匹配第一点A′或匹配第二点B′为搜索点,计算是否有距离介于单帧点云四边形第二边AD预设长度阈值内,且与匹配第一点A′和匹配第二点B′连线A′B′的夹角介于单帧点云四边形第一边和第二边夹角
Figure 336244DEST_PATH_IMAGE016
预设角度阈值的匹配第三点D′。若是,则继续搜索,若否,则判断是否达到设置的最大随机采样次数。若未达到则返回步骤S208,否则,停止在高精度地图中搜索对应点。
第三步,以匹配第一点A′为搜索点,计算是否有距离介于单帧点云四边形第三边AC预设长度阈值内,且与匹配第一点A′和匹配第二点B′连线 A′B′的夹角介于单帧点云四边形第一边和第三边夹角
Figure 405831DEST_PATH_IMAGE017
预设角度阈值的匹配第四点C′。若是,则继续搜索,若否,则判断是否达到设置的最大随机采样次数。若未达到则返回步骤S208,否则,停止在高精度地图中搜索对应点。
第四步,根据多个匹配第一点、匹配第二点、匹配第三点和匹配第四点构建高精度地图四边形
Figure 803927DEST_PATH_IMAGE018
的特征[
Figure 617162DEST_PATH_IMAGE019
],确定是否有与单帧点云四边形特征向量[AB、AD、AC、BD、BC、DC]的差值绝对值的和介于预设阈值内的高精度地图四边形。若是,判断是否达到设置的最大随机采样次数。若未达到则返回步骤S208,否则,停止在高精度地图中搜索对应点。
第五步,与单帧点云四边形特征向量的差值绝对值的和最小的高精度地图四边形的顶点,确定为匹配特征点。其中,差值绝对值求和是指对四边形向量对应元素差值的绝对值求和。
在步骤S210之后,还包括:
步骤S212,根据匹配特征点,在高精度地图中进行目标场景定位。
目标场景定位是通过确定当前在高请度地图中位置,进而转换成对应的GPS坐标下的坐标。具体地,根据单帧点云多边形各顶点以及在高精度地图中匹配特征点求解变换矩阵,并根据变换矩阵得到单帧实时点云数据在GPS坐标系下的坐标。
具体地,将匹配特征点对的Z值都设置为相同的值,然后使用umeyama算法解算变换矩阵,此变换矩阵包含了单帧数据关于路口高精度地图在XY轴的平移与在Z轴方向的旋转。umeyama算法过程主要通过匹配点对构建最小二乘关系,然后通过奇异值分解解算旋转矩阵与平移矩阵。平移矩阵的平移量就表示了采集当前单帧实时点云的数据传感器在WGS84坐标下的XY坐标。
具体地,根据单帧点云平面四边形各顶点以及在高精度地图中匹配特征点,得到匹配特征点对。依据匹配特征点可由下述过程解算旋转矩阵与平移矩阵:
根据匹配特征点对构建与旋转矩阵和平移矩阵相关的最小二乘目标函数,其中,构建的最小二乘目标函数为:
Figure 911877DEST_PATH_IMAGE020
式中
Figure 417945DEST_PATH_IMAGE021
Figure 368583DEST_PATH_IMAGE022
分别表示高精度地图与单帧实时点云数据的匹配点,R与t分别表示旋转矩阵与平移矩阵。
在解算之前先定义对应点的质心:
Figure 923193DEST_PATH_IMAGE023
然后对
Figure 10097DEST_PATH_IMAGE024
做如下处理:
Figure 749383DEST_PATH_IMAGE025
=
Figure 921738DEST_PATH_IMAGE026
=
Figure 14459DEST_PATH_IMAGE027
Figure 221450DEST_PATH_IMAGE028
为零,则minJ可化简为:
Figure 334899DEST_PATH_IMAGE029
上式左项有旋转矩阵R,右项有旋转矩阵R,平移矩阵t,但其仅与质心相关。那么解出旋转矩阵R之后另其为零则可解出平移矩阵t。那么现在问题转化为优化下式:
Figure 56868DEST_PATH_IMAGE030
Figure 15596DEST_PATH_IMAGE031
Figure 483618DEST_PATH_IMAGE032
,则
Figure 564706DEST_PATH_IMAGE033
=
Figure 977233DEST_PATH_IMAGE034
=
Figure 739653DEST_PATH_IMAGE035
式中
Figure 593339DEST_PATH_IMAGE036
与R无关,
Figure 517433DEST_PATH_IMAGE037
为单位阵则
Figure 213994DEST_PATH_IMAGE038
与R无关,那么优化问题简化为优化
Figure 514525DEST_PATH_IMAGE039
为了解R,先定义矩阵W:
Figure 488297DEST_PATH_IMAGE040
通过奇异值分解,得到旋转矩阵和平移矩阵。具体地,对W进行奇异值分解得:
Figure 583292DEST_PATH_IMAGE041
A为奇异值组成的对角矩阵,R可由U与
Figure 767149DEST_PATH_IMAGE042
的乘积获得。
Figure 871371DEST_PATH_IMAGE043
那么令式(6)的右项为零可得t:
Figure 761967DEST_PATH_IMAGE044
到此旋转矩阵R与平移矩阵t解算结束。其中,平移矩阵的平移量就是当前传感器在GPS坐标系下的坐标。
在步骤S212之后,还包括:优化变换矩阵。具体地,步骤S212估计的平移矩阵仅包含XY方向的平移,Z方向的旋转,可用步骤S212解算的XY坐标搜索高精度地图中与该XY坐标对应的轨迹点,并以该轨迹点的Z均值表示估计的Z方向平移量,然后将估计矩阵作用于单帧实时点云,并结合高精度地图使用迭代最近邻算法优化估计的变换矩阵。
其中,优化变换矩阵的具体过程中,通过步骤S212解算出旋转矩阵与平移矩阵之后,使用单帧实时点云数据中的标识物点云在高精度地图中搜索最近点云确定匹配点对,根据匹配点对优化变换矩阵。其中,通过步骤S212的方法对匹配点对解算出更优的旋转矩阵R与平移矩阵t。这个过程可以反复迭代,如迭代10次。
在步骤S212之后,还包括:对变换矩阵的置信度进行评估。
置信度评估是对当前变换矩阵精度的评价。本申请提供两种置信度估计方法,第一种是将优化的变换矩阵作用于单帧实时点云数据,将单帧实时点云变换到高精度地图坐标系下,在高精度地图中查找单帧实时点云的最近标识物点云,确定与最近标识物点云在一定距离阈值内的点个数,并以此值与当前帧点云数据总量的比值作为置信度。第二种是使用主成分分析算法(分析估计的连续帧姿态线性特征,如果满足线性特征则说明当前帧姿态估计精度较高,否则视为误估计。
上述的目标场景定位方法,利用设备在行驶过程中激光雷达实时采集的单帧实时点云数据,利用目标场景中标识物的外部特征,提取单帧实时点云数据中的标识物点云,利用标识物点云的重心点构造多边形,在预先构建了重心点的高精度地图中相搜索与多边形的全等多边形,确定匹配点,根据匹配点实现定位。由于目标场景中物体的相对位置关系不变,通过在高精度地图中搜索基于行驶过程中采集的实时点云数据处理得到的多边形匹配其全等多边形,利用这种对应关系,无需GPS辅助即可快速地实现目标场景定位。
更进一步地,本申请的技术方案可应用于路口目标场景的定位,利用激光雷达采集的点云,根据路口目标场景的红绿灯等柱形标识物,在高精度中实现定位。
一般以而言,非GPS定位都是基于场景中的静态目标位置相对固定实现定位,这其中最核心的问题是如何将这些目标实现关联。在一般场景中使用激光数据基于路牌、建筑、桥体等轮廓的目标实现定位可行性较低。原因如下:1)一般场景中没有那么多的路牌、建筑及桥体目标;2)多线激光雷达的有效感知距离有限。例如,本申请的技术方案使用的16线激光雷达有效感知距离仅为30m;3)激光数据并不像图像有丰富的像素信息,激光扫描的建筑、桥体及路牌仅仅是一些平面点没有有效特征能将这些目标的区分开来。因而识别出上述目标之后,在没有初始姿态的情况下基于激光雷达使用这些目标实现场景关联可行性较低。
考虑上述原因,本申请的技术方案基于小场景中的柱形目标实现无初始姿态的定位。基于柱形目标能够有效的克服上述问题,并且柱形目标在二维坐标系中可以使用一个特征点有效代替(路牌、建筑及桥体都没有这个特点,主要原因是这些目标太大了),获得特征点之后本方案通过搜索全等平面四边形实现特征关联从而实现定位,综上可知本方案稳定性与可行性较高。
应该理解的是,虽然图2-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种目标场景定位装置,包括:
实时点云获取模块601,用于获取设备在行驶过程中激光雷达采集的单帧实时点云数据。
柱形点提取模块602,用于根据目标场景中标识物的外部特征,提取单帧实时点云数据中的标识物点云。
重心点确定模块603,用于将标识物点云归一化到同一平面,并根据标识物点云的坐标在平面确定重心点。
四边形构建模块604,用于随机采集预设数量的重心点,以重心点确定多边形的边长与对角线长度,构造单帧点云多边形的特征。
匹配模块605,用于根据单帧点云多边形特征,在预先构建了重心点的高精度地图中确定单帧点云多边形各顶点的匹配特征点。
定位模块606,用于根据匹配特征点,在高精度地图中进行目标场景定位。
在另一个实施例中,柱形点提取模块包括:
栅格划分模块,用于将单帧实时点云数据进行栅格划分,得到栅格点云。
过滤模块,用于根据目标场景中柱形标识物的外部特征,过滤栅格点云,得到柱形标识物点云;目标场景中柱形标识物的外部特征包括目标场景中柱形标识物的高度、线度以及宽度中的至少一种。
具体地,过滤模块,用于统计栅格点云的最大高程差,去除最大高程差小于高程差阈值的栅格点云,按照预设厚度逐层切割高程差过滤后栅格点云,保留切割后连续性符合要求的栅格点云,对切割处理后的栅格点云的线度进行分析,去除度不符合要求的栅格点云,对保留的线度符合要求的栅格点云进行栅格分割,得到子栅格点云,子栅格点云的栅格边长小于栅格点云的栅格边长,据子栅格点云中有点的子栅格在子栅格点云中占用的区域,得到宽度符合要求的柱形标识物点云。
在另一个实施例中,匹配模块,根据单帧点云多边形的特征,在预先构建了重心点的高精度地图中搜索单帧点云多边形的全等多边形,得到单帧点云多边形各顶点的匹配特征点。
在另一个实施例中,多边形为四边形,匹配模块,用于根据单帧点云四边形的特征,在高精度地图的重心点中,确定是否有距离介于单帧点云四边形第一边预设长度阈值的匹配第一点和匹配第二点;若是,则以匹配第一点或匹配第二点为搜索点,计算是否有距离介于单帧点云四边形第二边预设长度阈值内,且与匹配第一点和匹配第二点连线的夹角介于单帧点云四边形第一边和第二边夹角预设角度阈值的匹配第三点;若是,则以匹配第一点为搜索点,计算是否有距离介于单帧点云四边形第三边预设长度阈值内,且与匹配第一点和匹配第二点连线的夹角介于单帧点云四边形第一边和第三边夹角预设角度阈值的匹配第四点;若是,则根据多个匹配第一点、匹配第二点、匹配第三点和匹配第四点构建高精度地图四边形的特征,确定是否有与单帧点云四边形特征向量的差值绝对值的和介于预设阈值内的高精度地图四边形;若是,则判断是否达到设置的最大随机采样数,并在达到设置的最大随机采样数时,停止在高精度地图中搜索。
在另一个实施例中,定位模块,用于根据单帧点云多边形各顶点以及在高精度地图中匹配特征点求解变换矩阵,并根据变换矩阵得到单帧实时点云数据在GPS坐标系下的坐标。
在另一个实施例中,目标场景定位装置,还包括:矩阵优化模块,用于使用单帧实时点云数据中的标识物点云在高精度地图中搜索最近标识物点云确定匹配点对;根据匹配点对优化变换矩阵。
关于目标场景定位装置的具体限定可以参见上文中对于目标场景定位方法的限定,在此不再赘述。上述目标场景定位装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是控制器,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种目标场景定位方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各实施例的目标场景定位方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时上述各实施例的目标场景定位方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种目标场景定位方法,所述方法包括:
获取设备在行驶过程中激光雷达采集的单帧实时点云数据;
根据目标场景中标识物的外部特征,提取所述单帧实时点云数据中的标识物点云;
将所述标识物点云归一化到同一平面,并根据所述标识物点云的坐标在平面确定重心点;
随机采集预设数量的所述重心点,以所述重心点确定多边形的边长与对角线长度,构造单帧点云多边形的特征;
根据所述单帧点云多边形的特征,在预先构建了重心点的高精度地图中确定所述单帧点云多边形各顶点的匹配特征点;
根据所述匹配特征点,在所述高精度地图中进行目标场景定位。
2.根据权利要求1所述的方法,其特征在于,所述标识物为柱形标识物;根据目标场景中标识物的外部特征,提取所述单帧实时点云数据中的标识物点云,包括:
将所述单帧实时点云数据进行栅格划分,得到栅格点云;
根据所述目标场景中柱形标识物的外部特征,过滤栅格点云,得到柱形标识物点云;所述目标场景中柱形标识物的外部特征包括所述目标场景中柱形标识物的高度、线度以及宽度中的至少一种。
3.根据权利要求2所述的方法,其特征在于,根据所述目标场景中柱形标识物的外部特征,过滤栅格点云,得到柱形标识物点云,包括:
统计所述栅格点云的最大高程差,去除所述最大高程差小于高程差阈值的栅格点云;
按照预设厚度逐层切割高程差过滤后所述栅格点云,保留切割后连续性符合要求的栅格点云;
对切割处理后的栅格点云的线度进行分析,去除线度不符合要求的栅格点云,
对保留的线度符合要求的所述栅格点云进行栅格分割,得到子栅格点云,所述子栅格点云的栅格边长小于所述栅格点云的栅格边长;
根据所述子栅格点云中有点的子栅格在所述子栅格点云中占用的区域,得到宽度符合要求的柱形标识物点云。
4.根据权利要求1所述的方法,其特征在于,根据所述单帧点云多边形的特征,在预先构建了重心点的高精度地图中确定所述单帧点云多边形各顶点的匹配特征点,包括:
根据所述单帧点云多边形的特征,在预先构建了重心点的高精度地图中搜索单帧点云多边形的全等多边形,得到所述单帧点云多边形各顶点的匹配特征点。
5.根据权利要求4所述的方法,其特征在于,所述多边形为四边形;所述根据所述单帧点云多边形的特征,在预先构建了重心点的高精度地图中搜索单帧点云多边形的全等多边形,得到所述单帧点云多边形各顶点的匹配特征点,包括:
根据单帧点云四边形的特征,在高精度地图的重心点中,确定是否有距离介于单帧点云四边形第一边预设长度阈值的匹配第一点和匹配第二点;
若是,则以所述匹配第一点或所述匹配第二点为搜索点,计算是否有距离介于单帧点云四边形第二边预设长度阈值内,且与所述匹配第一点和所述匹配第二点连线的夹角介于单帧点云四边形第一边和第二边夹角预设角度阈值的匹配第三点;
若是,则以所述匹配第一点为搜索点,计算是否有距离介于单帧点云四边形第三边预设长度阈值内,且与所述匹配第一点和所述匹配第二点连线的夹角介于单帧点云四边形第一边和第三边夹角预设角度阈值的匹配第四点;
若是,则根据多个匹配第一点、匹配第二点、匹配第三点和匹配第四点构建高精度地图四边形的特征,确定是否有与单帧点云四边形特征向量的差值绝对值的和介于预设阈值内的高精度地图四边形;
若是,则判断是否达到设置的最大随机采样数,并在达到设置的最大随机采样数时,停止在高精度地图中搜索。
6.根据权利要求1所述的方法,其特征在于,根据所述匹配特征点,在所述高精度地图中进行目标场景定位,包括:
根据所述单帧点云多边形各顶点以及在高精度地图中匹配特征点求解变换矩阵,并根据所述变换矩阵得到所述单帧实时点云数据在GPS坐标系下的坐标。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
使用单帧实时点云数据中的标识物点云在高精度地图中搜索最近标识物点云确定匹配点对;
根据所述匹配点对优化所述变换矩阵。
8.一种目标场景定位装置,其特征在于,所述装置包括:
实时点云获取模块,用于获取设备在行驶过程中激光雷达采集的单帧实时点云数据;
柱形点提取模块,用于根据目标场景中标识物的外部特征,提取所述单帧实时点云数据中的标识物点云;
重心点确定模块,用于将所述标识物点云归一化到同一平面,并根据所述标识物点云的坐标在平面确定重心点;
四边形构建模块,用于随机采集预设数量的所述重心点,以所述重心点确定多边形的边长与对角线长度,构造单帧点云多边形的特征;
匹配模块,用于根据所述单帧点云多边形特征,在预先构建了重心点的高精度地图中确定所述单帧点云多边形各顶点的匹配特征点;
定位模块,用于根据所述匹配特征点,在所述高精度地图中进行目标场景定位。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202010035720.7A 2020-01-14 2020-01-14 目标场景定位方法、装置、计算机设备和存储介质 Active CN111220993B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010035720.7A CN111220993B (zh) 2020-01-14 2020-01-14 目标场景定位方法、装置、计算机设备和存储介质
PCT/CN2021/071819 WO2021143778A1 (zh) 2020-01-14 2021-01-14 一种基于激光雷达的定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010035720.7A CN111220993B (zh) 2020-01-14 2020-01-14 目标场景定位方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN111220993A CN111220993A (zh) 2020-06-02
CN111220993B true CN111220993B (zh) 2020-07-28

Family

ID=70829450

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010035720.7A Active CN111220993B (zh) 2020-01-14 2020-01-14 目标场景定位方法、装置、计算机设备和存储介质

Country Status (2)

Country Link
CN (1) CN111220993B (zh)
WO (1) WO2021143778A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111220993B (zh) * 2020-01-14 2020-07-28 长沙智能驾驶研究院有限公司 目标场景定位方法、装置、计算机设备和存储介质
CN111612829B (zh) * 2020-06-03 2024-04-09 纵目科技(上海)股份有限公司 一种高精度地图的构建方法、系统、终端和存储介质
CN111811530B (zh) * 2020-06-16 2022-06-21 北京五一视界数字孪生科技股份有限公司 车道线生成方法、装置、存储介质及电子设备
CN112070870B (zh) * 2020-07-31 2021-09-17 广州景骐科技有限公司 点云地图评估方法、装置、计算机设备和存储介质
US11702085B2 (en) * 2020-11-09 2023-07-18 Fca Us Llc Vehicle center of gravity height detection and vehicle mass detection using light detection and ranging point cloud data
CN112577488B (zh) * 2020-11-24 2022-09-02 腾讯科技(深圳)有限公司 导航路线确定方法、装置、计算机设备和存储介质
CN112348897A (zh) * 2020-11-30 2021-02-09 上海商汤临港智能科技有限公司 位姿确定方法及装置、电子设备、计算机可读存储介质
CN112987029A (zh) * 2021-02-09 2021-06-18 上海振华重工(集团)股份有限公司 一种适用于驾驶设备的定位方法、系统、设备及介质
CN113468941B (zh) * 2021-03-11 2023-07-18 长沙智能驾驶研究院有限公司 障碍物检测方法、装置、设备及计算机存储介质
CN113503883B (zh) * 2021-06-22 2022-07-19 北京三快在线科技有限公司 采集用于构建地图的数据的方法、存储介质及电子设备
CN113568997A (zh) * 2021-07-30 2021-10-29 京东鲲鹏(江苏)科技有限公司 点云地图更新方法、装置、电子设备和计算机可读介质
CN113791414B (zh) * 2021-08-25 2023-12-29 南京市德赛西威汽车电子有限公司 一种基于毫米波车载雷达视图的场景识别方法
CN114581481B (zh) * 2022-03-07 2023-08-25 广州小鹏自动驾驶科技有限公司 一种目标物速度的估计方法及装置、车辆和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318551A (zh) * 2014-10-15 2015-01-28 北京理工大学 基于凸包特征检索的高斯混合模型点云配准方法
EP2833322A1 (en) * 2013-07-30 2015-02-04 The Boeing Company Stereo-motion method of three-dimensional (3-D) structure information extraction from a video for fusion with 3-D point cloud data
CN104807460A (zh) * 2015-05-04 2015-07-29 深圳大学 无人机室内定位方法及系统
CN106441242A (zh) * 2016-08-27 2017-02-22 青岛秀山移动测量有限公司 一种基于激光点云与全景影像的交互式测图方法
CN108256417A (zh) * 2017-12-01 2018-07-06 西安电子科技大学 基于室外场景点云数据处理的违章建筑识别方法
CN109086786A (zh) * 2017-05-25 2018-12-25 通用汽车有限责任公司 对lidar数据进行分类以实现目标探测的方法和装置
CN109887028A (zh) * 2019-01-09 2019-06-14 天津大学 一种基于点云数据配准的无人车辅助定位方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106940186B (zh) * 2017-02-16 2019-09-24 华中科技大学 一种机器人自主定位与导航方法及系统
CN107015238A (zh) * 2017-04-27 2017-08-04 睿舆自动化(上海)有限公司 基于三维激光雷达的无人车自主定位方法
CN109657698B (zh) * 2018-11-20 2021-09-03 同济大学 一种基于点云的磁悬浮轨道障碍物检测方法
CN109725329B (zh) * 2019-02-20 2021-12-07 苏州风图智能科技有限公司 一种无人车定位方法及装置
CN110082779A (zh) * 2019-03-19 2019-08-02 同济大学 一种基于3d激光雷达的车辆位姿定位方法及系统
CN110084272B (zh) * 2019-03-26 2021-01-08 哈尔滨工业大学(深圳) 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法
CN111220993B (zh) * 2020-01-14 2020-07-28 长沙智能驾驶研究院有限公司 目标场景定位方法、装置、计算机设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2833322A1 (en) * 2013-07-30 2015-02-04 The Boeing Company Stereo-motion method of three-dimensional (3-D) structure information extraction from a video for fusion with 3-D point cloud data
CN104318551A (zh) * 2014-10-15 2015-01-28 北京理工大学 基于凸包特征检索的高斯混合模型点云配准方法
CN104807460A (zh) * 2015-05-04 2015-07-29 深圳大学 无人机室内定位方法及系统
CN106441242A (zh) * 2016-08-27 2017-02-22 青岛秀山移动测量有限公司 一种基于激光点云与全景影像的交互式测图方法
CN109086786A (zh) * 2017-05-25 2018-12-25 通用汽车有限责任公司 对lidar数据进行分类以实现目标探测的方法和装置
CN108256417A (zh) * 2017-12-01 2018-07-06 西安电子科技大学 基于室外场景点云数据处理的违章建筑识别方法
CN109887028A (zh) * 2019-01-09 2019-06-14 天津大学 一种基于点云数据配准的无人车辅助定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
利用点云重心距离进行边界检测的点云数据配准;王勇 等;《小型微型计算机系统》;20150930;第36卷(第9期);第2096-2101页 *

Also Published As

Publication number Publication date
CN111220993A (zh) 2020-06-02
WO2021143778A1 (zh) 2021-07-22

Similar Documents

Publication Publication Date Title
CN111220993B (zh) 目标场景定位方法、装置、计算机设备和存储介质
US20220028163A1 (en) Computer Vision Systems and Methods for Detecting and Modeling Features of Structures in Images
CN108369420B (zh) 用于自主定位的设备和方法
CN105667518B (zh) 车道检测的方法及装置
EP3735675A1 (en) Image annotation
CN104123730A (zh) 基于道路特征的遥感影像与激光点云配准方法及系统
CN112740225B (zh) 一种路面要素确定方法及装置
WO2021017211A1 (zh) 一种基于视觉的车辆定位方法、装置及车载终端
US11861855B2 (en) System and method for aerial to ground registration
US20200279395A1 (en) Method and system for enhanced sensing capabilities for vehicles
KR20200038140A (ko) 정밀 지도 업데이트 장치 및 방법
CN112749584B (zh) 一种基于图像检测的车辆定位方法及车载终端
Tao et al. Automated processing of mobile mapping image sequences
CN111709988A (zh) 一种物体的特征信息的确定方法、装置、电子设备及存储介质
CN114758086A (zh) 一种城市道路信息模型的构建方法及装置
CN114170499A (zh) 目标检测方法、跟踪方法、装置、视觉传感器和介质
Soleimani et al. A disaster invariant feature for localization
CN115345944A (zh) 外参标定参数确定方法、装置、计算机设备和存储介质
WO2021138372A1 (en) Feature coverage analysis
CN112907659A (zh) 移动设备定位系统、方法及设备
Jaspers et al. Fast and robust b-spline terrain estimation for off-road navigation with stereo vision
CN117576652B (zh) 道路对象的识别方法、装置和存储介质及电子设备
KR20220151572A (ko) IPM 이미지와 정밀도로지도(HD Map) 피팅을 통해 노면객체의 변화를 자동으로 판단하고 갱신하는 정밀도로지도 자동갱신 방법 및 시스템
Husain et al. AN AUTOMATED METHOD FOR STREET FLOOR DETECTION USING TERRESTRIAL LIDAR POINT CLOUD.
CN117576652A (zh) 道路对象的识别方法、装置和存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Target scene positioning method, device, computer equipment and storage medium

Effective date of registration: 20221031

Granted publication date: 20200728

Pledgee: Hunan Xiangjiang Zhongying Investment Management Co.,Ltd.

Pledgor: CHANGSHA INTELLIGENT DRIVING RESEARCH INSTITUTE Co.,Ltd.

Registration number: Y2022980020220