CN115685133A - 自动驾驶车辆的定位方法、控制装置、存储介质及车辆 - Google Patents

自动驾驶车辆的定位方法、控制装置、存储介质及车辆 Download PDF

Info

Publication number
CN115685133A
CN115685133A CN202211716436.1A CN202211716436A CN115685133A CN 115685133 A CN115685133 A CN 115685133A CN 202211716436 A CN202211716436 A CN 202211716436A CN 115685133 A CN115685133 A CN 115685133A
Authority
CN
China
Prior art keywords
point cloud
map
matching
cloud data
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211716436.1A
Other languages
English (en)
Other versions
CN115685133B (zh
Inventor
请求不公布姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Weilai Zhijia Technology Co Ltd
Original Assignee
Anhui Weilai Zhijia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Weilai Zhijia Technology Co Ltd filed Critical Anhui Weilai Zhijia Technology Co Ltd
Priority to CN202211716436.1A priority Critical patent/CN115685133B/zh
Publication of CN115685133A publication Critical patent/CN115685133A/zh
Application granted granted Critical
Publication of CN115685133B publication Critical patent/CN115685133B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

本发明涉及自动驾驶技术领域,具体提供一种自动驾驶车辆的定位方法、控制装置、存储介质及车辆,旨在解决在缺少初始定位时,如何准确高效地获取全局定位结果的问题。为此目的,本发明将激光雷达采集的连续多帧点云数据与点云地图中对应的子地图进行点云地图匹配,获得初步定位结果,再根据初步定位结果,获取每帧点云数据的全局定位结果,根据多帧点云数据的全局定位结果和车端里程计提供的相对位姿,获取车辆的最终的全局定位结果。通过上述配置方式,本发明能够在缺少初始定位的情况下,也能够获取到全局定位结果,且能够基于车端里程计提供的相对位姿,对获取的全局定位结果进行优化,能够改善非结构化场景中存在的定位误差大的问题。

Description

自动驾驶车辆的定位方法、控制装置、存储介质及车辆
技术领域
本发明涉及自动驾驶技术领域,具体提供一种自动驾驶车辆的定位方法、控制装置、存储介质及车辆。
背景技术
在自动驾驶领域中,地图匹配和蒙特卡洛定位(Monte-Carlo Localization,MCL)都需要一个初始定位,但在稀疏环境、GPS信号异常的情况下,获取初始定位需要花费很长时间。基于位置识别(place recognition)的方法可以将地图划分至更精确的范围,并为数据库和后续搜索提取全局特征,该方法的精度可以达到10-15m,但位姿仍不够精确。基于回归的方法结合传统的MCL等方法,使用单次扫描作为输入,可以快速获取准确的定位。然而,这些方法的主要局限性是定位器必须在测试环境中训练,因此可扩展性和可推广性较差。
现有技术中采用深度学习匹配神经网络(Deep Learned Matching NeuralNetwork)的方法,显示出高鲁棒性和对新场景的强通用性,一些无关键点的方法甚至在结构退化或低重叠(low-overlapped scenarios)的情况下也能工作。
但上述方法不能应用于全局定位。首先,这些方法只能匹配两个大小相近的点云,因为对于共享的主干网络来说,数值的分布应该是相同的。此外,用于定位的点云地图对于匹配神经网络而言太大,对内存的消耗过大。虽然强制下采样可以解决此问题,但同时也会导致其他问题的出现,比如需要推理太多环境细节等。
相应地,本领域需要一种新的自动驾驶的定位方案来解决上述问题。
发明内容
为了克服上述缺陷,提出了本发明,以提供解决或至少部分地解决在缺少初始定位时,如何准确高效地获取全局定位结果的问题。
在第一方面,本发明提供一种自动驾驶车辆的定位方法,所述方法包括:
获取所述车辆上设置的激光雷达采集的连续的多帧点云数据;
针对每帧点云数据,将所述点云数据与所述点云数据在点云地图中对应的子地图进行点云地图匹配,将匹配结果作为所述点云数据的初步定位结果;
根据所述初步定位结果,获取所述点云数据在所述点云地图中的全局定位结果;
根据所述多帧点云数据的全局定位结果以及所述车辆的车端里程计提供的相对位姿,获取所述车辆的最终的全局定位结果。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述针对每帧点云数据,将所述点云数据与所述点云数据在点云地图中对应的子地图进行点云地图匹配,将匹配结果作为所述点云数据的初步定位结果,包括:
针对多帧点云数据中的第一帧点云数据,将所述第一帧点云数据与所述点云地图中包含的所有子地图进行点云地图匹配,将匹配结果作为所述第一帧点云数据的初步定位结果,并根据所述初步定位结果获取所述第一帧点云数据的地图搜索范围;
针对多帧点云数据中的其他帧点云数据,判断所述当前帧点云数据的前一帧点云数据的初步定位结果中的匹配置信度是否大于预设的第一置信度阈值;
若是,则将前一帧点云数据的初步定位结果作为当前帧点云数据的初步定位结果,并根据初步定位结果获取当前帧点云数据的地图搜索范围;
若否,则将当前帧点云数据与所述点云地图中包含的所有子地图进行点云地图匹配,将匹配结果作为当前点云数据的初步定位结果,并根据所述初步定位结果获取当前点云数据的地图搜索范围。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述根据所述初步定位结果,获取所述点云数据在所述点云地图中的全局定位结果,包括:
根据所述初步定位结果和所述地图搜索范围,在所述地图搜索范围内对所述点云数据进行点云地图匹配;
将所述点云数据的匹配结果作为所述全局定位结果。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述在所述地图搜索范围内对所述点云数据进行点云地图匹配,包括:
根据所述地图搜索范围和所述点云数据的面积,确定在所述地图搜索范围中获取子地图的方式;
应用所述方式,获取所述地图搜索范围中的子地图,并将所述点云数据与其对应的子地图进行点云地图匹配。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述根据所述地图搜索范围和所述点云数据的面积,确定在所述地图搜索范围中获取子地图的方式,包括:
当所述搜索范围和所述点云数据的面积比值大于预设的比例阈值时,先采用网格搜索方式在所述搜索范围内获取所述子地图;当获取到网格搜索方式的匹配结果后,再采用滑动搜索方式在所述匹配结果确定的地图搜索范围内获取所述子地图;
当所述面积比值小于等于所述比例阈值时,采用滑动搜索方式在所述地图搜索范围内获取所述子地图。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述应用所述方式,获取所述地图搜索范围中的子地图,并将所述点云数据与其对应的子地图进行点云地图匹配,包括:
当应用所述网格搜索方式,将所述点云数据分别与其对应的子地图进行点云地图匹配时,获取匹配结果中的匹配置信度;
将所述匹配置信度为Top N的子地图组成的区域作为所述滑动搜索方式的地图搜索范围,其中,N为大于一的正整数;
当应用所述滑动搜索方式,将所述点云数据分别与其对应的子地图进行点云地图匹配时,获取匹配结果中的匹配置信度;
将所述匹配置信度与预设的第二置信度阈值进行比较;
当所述匹配置信度大于所述第二置信度阈值时,将所述匹配置信度对应的匹配结果作为当前的匹配结果,并结束所述滑动搜索方式。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述应用所述方式,获取所述地图搜索范围中的子地图,并将所述点云数据与其对应的子地图进行点云地图匹配,还包括:
当执行滑动搜索方式的次数大于预设的次数阈值时,停止所述滑动搜索方式;
根据获取的最大的匹配置信度对应的匹配结果,获取所述全局定位结果。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述点云地图匹配,包括:
将点云数据和子地图输入至训练好的深度学习神经网络中,通过所述深度学习神经网络获取所述点云数据与所述子地图之间的匹配关系;
根据所述匹配关系,获取所述匹配关系对应的匹配结果。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述通过所述深度学习神经网络获取所述点云数据与所述子地图之间的匹配关系,包括:
通过所述深度学习神经网络的核点卷积层分别获得所述点云数据和所述子地图的粗级别点云和精细点云;
将所述点云数据和所述子地图的粗级别点云进行粗匹配,获取粗匹配结果;
根据所述粗匹配结果,对所述点云数据和所述子地图的精细点云进行精细匹配,获取精细匹配结果,将所述精细匹配结果作为所述匹配关系。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述核点卷积层包含依次设置的五层编码器,以及设置在五层编码器之后的依次设置的三层解码器;
所述通过所述深度学习神经网络的核点卷积层分别获得所述点云数据和所述子地图的粗级别点云和精细点云,包括:
根据最后一层编码器的输出获取所述粗级别点云;
根据最后一层解码器的输出获取所述精细点云。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述将所述点云数据和所述子地图的粗级别点云进行粗匹配,获取粗匹配结果,包括:
将所述点云数据和所述子地图的粗级别点云进行特征交互;
根据特征交互后的粗级别点云,获取所述粗级别点云之间的基于距离的特征矩阵;
根据所述特征矩阵,获取所述点云数据和所述子地图的粗匹配结果。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述根据所述特征矩阵,获取所述点云数据和所述子地图的粗匹配结果,包括:
应用softmax函数对所述特征矩阵进行处理,将处理后的特征矩阵的元素与预设的距离阈值进行比较;
当所述元素小于所述距离阈值时,将所述元素对应的粗级别点云作为所述粗匹配结果。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述根据所述粗匹配结果,对所述点云数据和所述子地图的精细点云进行精细匹配,获取精细匹配结果,包括:
根据所述粗匹配结果中所述点云数据与所述子地图的粗级别点云与精细点云之间的空间距离,构建精细点云块;
根据所述粗匹配结果中对应的精细点云块,获取所述精细匹配结果。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述根据所述匹配关系,获取所述匹配关系对应的匹配结果,包括:
获取所述匹配关系对应的点云数据与子地图之间的位姿关系;
根据所述位姿关系,获取所述位姿关系的匹配置信度;
将所述位姿关系和对应的匹配置信度作为所述匹配关系的匹配结果。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述方法还包括根据以下步骤训练所述深度学习神经网络:
将预处理的点云数据与子地图组成的匹配对、子地图和子地图组成的匹配对以及对所述匹配对进行随机变换后的数据作为数据集;
应用所述数据集对所述深度学习神经网络进行训练,以获取训练好的深度学习神经网络。
在上述自动驾驶车辆的定位方法的一个技术方案中,所述根据所述多帧点云数据的全局定位结果以及所述车辆的车端里程计提供的相对位姿,获取所述车辆的最终的全局定位结果,包括:
根据所述多帧点云数据的全局定位结果和所述车辆的车端里程计提供的相对位姿,构建因子图;
根据所述因子图,对所述全局定位结果进行优化,获取所述最终的全局定位结果。
在第二方面,提供一种控制装置,该控制装置包括处理器和存储装置,所述存储装置适于存储多条程序代码,所述程序代码适于由所述处理器加载并运行以执行上述自动驾驶车辆的定位方法的技术方案中任一项技术方案所述的自动驾驶车辆的定位方法。
在第三方面,提供一种计算机可读存储介质,该计算机可读存储介质其中存储有多条程序代码,所述程序代码适于由处理器加载并运行以执行上述自动驾驶车辆的定位方法的技术方案中任一项技术方案所述的自动驾驶车辆的定位方法。
在第四方面,提供一种车辆,所述车辆包括上述控制装置技术方案中的控制装置。
本发明上述一个或多个技术方案,至少具有如下一种或多种有益效果:
在实施本发明的技术方案中,本发明将激光雷达采集的连续的多帧点云数据分别与每帧点云数据在点云地图中对应的子地图进行点云地图匹配,以获得初步定位结果,再根据初步定位结果,获取每帧点云数据的全局定位结果,并进一步根据多帧点云数据的全局定位结果和车端里程计提供的相对位姿,获取车辆的最终的全局定位结果。通过上述配置方式,本发明能够在缺少初始定位的情况下,也能够获取到全局定位结果,且能够基于车端里程计提供的相对位姿,对获取的全局定位结果进行优化,能够改善非结构化场景中存在的定位误差大的问题,具备鲁棒性高、可扩展性和可推广性好的特点。
附图说明
参照附图,本发明的公开内容将变得更易理解。本领域技术人员容易理解的是:这些附图仅仅用于说明的目的,而并非意在对本发明的保护范围组成限制。其中:
图1是根据本发明的一个实施例的自动驾驶车辆的定位方法的主要步骤流程示意图;
图2是根据本发明实施例的一个实施方式的点云地图匹配的主要步骤流程示意图;
图3是根据本发明实施例的一个实施方式的网格搜索方式和滑动搜索方式的对比示意图。
具体实施方式
下面参照附图来描述本发明的一些实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
在本发明的描述中,“模块”、“处理器”可以包括硬件、软件或者两者的组合。一个模块可以包括硬件电路,各种合适的感应器,通信端口,存储器,也可以包括软件部分,比如程序代码,也可以是软件和硬件的组合。处理器可以是中央处理器、微处理器、图像处理器、数字信号处理器或者其他任何合适的处理器。处理器具有数据和/或信号处理功能。处理器可以以软件方式实现、硬件方式实现或者二者结合方式实现。非暂时性的计算机可读存储介质包括任何合适的可存储程序代码的介质,比如磁碟、硬盘、光碟、闪存、只读存储器、随机存取存储器等等。术语“A和/或B”表示所有可能的A与B的组合,比如只是A、只是B或者A和B。术语“至少一个A或B”或者“A和B中的至少一个”含义与“A和/或B”类似,可以包括只是A、只是B或者A和B。单数形式的术语“一个”、“这个”也可以包含复数形式。
参阅附图1,图1是根据本发明的一个实施例的自动驾驶车辆的定位方法的主要步骤流程示意图。如图1所示,本发明实施例中的自动驾驶车辆的定位方法主要包括下列步骤S101-步骤S104。
步骤S101:获取车辆上设置的激光雷达采集的连续的多帧点云数据。
在本实施例中,可以获取车辆上设置的激光雷达采集的连续多帧点云数据。
步骤S102:针对每帧点云数据,将点云数据与点云数据在点云地图中对应的子地图进行点云地图匹配,将匹配结果作为点云数据的初步定位结果。
在本实施例中,可以将每帧点云数据与其对应的子地图进行点云地图匹配。即,将点云地图划分为多个子地图,点云数据与其中的部分或全部子地图进行匹配,从而获得初步定位结果。
一个实施方式中,可以应用基于概率分布的点云配准算法、基于局部特征描述子的点云配准算法和ICP(Iterative Closest Point,迭代最近点)算法等进行点云数据与子地图之间的匹配。
步骤S103:根据初步定位结果,获取点云数据在点云地图中的全局定位结果。
在本实施例中,可以根据步骤S102获取的初步定位结果,获取点云数据在点云地图中的全局定位结果。
一个实施方式中,可以在获取初步定位结果后,在初步定位结果的预设范围内,再应用点云配准算法将点云数据与预设范围内的点云地图进行匹配,以获取全局定位结果。如根据NDT(Normal Distribution Transform,正态分布转换)点云配准算法获取初步定位结果,再应用ICP点云配准算法获取全局定位结果。
步骤S104:根据多帧点云数据的全局定位结果以及车辆的车端里程计提供的相对位姿,获取车辆的最终的全局定位结果。
在本实施例中,可以根据多帧点云数据的全局定位结果以及车端里程计提供的相对位姿,来确定最终的全局定位结果。结合车端里程计获取最终的全局定位结果,能够对步骤S103获取的全局定位结果进行优化,以确定在非结构化场景下的全局定位的鲁棒性。
一个实施方式中,可以基于车端里程计提供的相对位姿,对步骤S103获取的全局定位结果进行修正,以获取最终的全局定位结果。
基于上述步骤S101-步骤S104,本发明实施例将激光雷达采集的连续的多帧点云数据分别与每帧点云数据在点云地图中对应的子地图进行点云地图匹配,以获得初步定位结果,再根据初步定位结果,获取每帧点云数据的全局定位结果,并进一步根据多帧点云数据的全局定位结果和车端里程计提供的相对位姿,获取车辆的最终的全局定位结果。通过上述配置方式,本发明实施例能够在缺少初始定位的情况下,也能够获取到全局定位结果,且能够基于车端里程计提供的相对位姿,对获取的全局定位结果进行优化,能够改善非结构化场景中存在的定位误差大的问题,具备鲁棒性高、可扩展性和可推广性好的特点。
下面对步骤S102至步骤S104作进一步地说明。
在本发明实施例的一个实施方式中,步骤S102可以进一步包括以下步骤S1021至步骤S1024:
步骤S1021:针对多帧点云数据中的第一帧点云数据,将第一帧点云数据与点云地图中包含的所有子地图进行点云地图匹配,将匹配结果作为第一帧点云数据的初步定位结果,并根据初步定位结果获取第一帧点云数据的地图搜索范围。
步骤S1022:针对多帧点云数据中的其他帧点云数据,判断当前帧点云数据的前一帧点云数据的初步定位结果中的匹配置信度是否大于预设的第一置信度阈值;若是,跳转至步骤S1023;若否,跳转至步骤S1024。
步骤S1023:将前一帧点云数据的初步定位结果作为当前帧点云数据的初步定位结果,并根据初步定位结果获取当前帧点云数据的地图搜索范围。
步骤S1024:将当前帧点云数据与点云地图中包含的所有子地图进行点云地图匹配,将匹配结果作为当前点云数据的初步定位结果,并根据初步定位结果获取当前点云数据的地图搜索范围。
在本实施方式中,可以根据每帧点云数据的前一帧点云数据的初步定位结果中的匹配置信度来确定当前点云数据是根据前一帧点云数据的初步定位结果来获取地图搜索范围,还是需要与点云地图中包含的所有子地图进行点云地图匹配,从而获得地图搜索范围。其中,地图搜索范围是以初步定位结果为中心,取半径为某一超参的区域。
一个实施方式中,步骤S103可以进一步包括以下步骤S1031和步骤S1032:
步骤S1031:根据初步定位结果和地图搜索范围,在地图搜索范围内对点云数据进行点云地图匹配。
在本实施方式中,步骤S1031可以进一步包括以下步骤S10311和步骤S10312:
步骤S10311:根据地图搜索范围和点云数据的面积,确定在地图搜索范围中获取子地图的方式。
在本实施方式中,步骤S10311可以进一步包括步骤S103111至步骤S103112:
步骤S103111:当搜索范围和点云数据的面积比值大于预设的比例阈值时,先采用网格搜索方式在搜索范围内获取子地图;当获取到网格搜索方式的匹配结果后,再采用滑动搜索方式在匹配结果确定的地图搜索范围内获取子地图。
步骤S103112:当面积比值小于等于比例阈值时,采用滑动搜索方式在地图搜索范围内获取子地图。
在本实施方式中,可以参阅附图3,图3是根据本发明实施例的一个实施方式的网格搜索方式和滑动搜索方式的对比示意图。其中,图3中左侧方框为网格搜索方式,即,将地图搜索范围通过网格的形式划分为多个网格,将点云数据与每个网格进行点云地图匹配,将匹配置信度较高的子地图用于下一轮搜索。图3中间的方框为滑动搜索方式,即,采用横纵坐标滑动的方式(step x;step y)来获取子地图,其中每次滑动的范围可以通过超参来控制,GT position可以为初步定位结果。如图3所示,如果搜索范围较大,即搜索范围与点云数据的面积比值大于比例阈值,则可以先使用网格搜索的方式获取子地图,在获取到网格搜索方式获得的匹配结果后,在该匹配结果的基础上使用滑动搜索的方式获取子地图。如果搜索范围较小,即搜索范围与点云数据的面积比值小于等于比例阈值,则可以直接采用滑动搜索的方式获取子地图。
步骤S10312:应用方式,获取地图搜索范围中的子地图,并将点云数据与其对应的子地图进行点云地图匹配。
在本实施方式中,步骤S10312可以进一步包括以下步骤S103121至步骤S103125:
步骤S103121:当应用网格搜索方式,将点云数据分别与其对应的子地图进行点云地图匹配时,获取匹配结果中的匹配置信度。
步骤S103122:将匹配置信度为Top N的点云数据组成的区域作为滑动搜索方式的地图搜索范围,其中,N为大于一的正整数。
步骤S103123:当应用滑动搜索方式,将点云数据分别与其对应的子地图进行点云地图匹配时,获取匹配结果中的匹配置信度。
步骤S103124:将匹配置信度与预设的第二置信度阈值进行比较。
步骤S103125:当匹配置信度大于第二置信度阈值时,将匹配置信度对应的匹配结果作为当前的匹配结果,并结束滑动搜索方式。
在本实施方式中,当应用网格搜索方式获取子地图时,可以将点云数据分别与其对应的子地图进行点云地图匹配,并选取匹配置信度为TOP N的子地图作为滑动搜索方式的地图搜索范围。当应用滑动搜索方式获取子地图时,可以将点云数据分别与其对应的子地图进行点云地图匹配,并将每次获得的匹配置信度与第二置信度阈值进行比较,当获取到的匹配置信度大于第二置信度阈值时,则认为匹配成功,则可以结束当前的点云地图匹配。
一个实施方式中,可以设置执行滑动搜索方式的次数阈值,当执行滑动搜索方式的次数超过次数阈值后,就可以停止滑动搜索,将获取的最大匹配置信度对应的匹配结果,作为全局定位结果。设置次数阈值的目的是为了避免高于置信度阈值的匹配置信度不存在,导致一直进行滑动搜索的情况。
步骤S1032:将点云数据的匹配结果作为全局定位结果。
在本实施方式中,可以将在地图搜索范围内与子地图进行点云地图匹配获得的匹配结果,作为点云数据的全局定位结果。
在本发明实施例的一个实施方式中,步骤S104可以进一步包括以下步骤S1041和步骤S1042:
步骤S1041:根据多帧点云数据的全局定位结果和车辆的车端里程计提供的相对位姿,构建因子图。
步骤S1042:根据因子图,对全局定位结果进行优化,获取最终的全局定位结果。
在本实施方式中,为了防止在复杂场景下,点云数据与点云地图匹配无法保证全局定位的鲁棒性的问题,采用因子图将多帧点云数据获得的连续的全局定位结果和车端里程计提供的相对位姿进行融合,以优化全局定位结果,获取最终的全局定位结果。具体为,将连续多帧点云数据和连续的全局定位结果作为因子图的顶点,将车端里程计的相对位姿作为因子图的边。以全局定位结果及其匹配置信度为基础构建一元因子,以车端里程计的相对位姿为基础构建二元因子。优化的过程可以采用SymForce框架。
下面参阅附图2对点云地图匹配的具体步骤作进一步地说明,图2是根据本发明实施例的一个实施方式的点云地图匹配的主要步骤流程示意图。
在本发明实施例的一个实施方式中,可以通过以下步骤S201和步骤S202进行点云地图匹配:
步骤S201:将点云数据和子地图输入至训练好的深度学习神经网络中,通过深度学习神经网络获取点云数据与子地图之间的匹配关系。
在本实施方式中,步骤S201可以进一步包括以下步骤S2011至步骤S2013:
步骤S2011:通过深度学习神经网络的核点卷积层分别获得点云数据和子地图的粗级别点云和精细点云。
在本实施方式中,如图2所示,核点卷积层包含依次设置的五层编码器,以及设置在五层编码器之后的依次设置的三层解码器,步骤S2011可以进一步包括以下步骤S20111至步骤S20112:
步骤S20111:根据最后一层编码器的输出获取粗级别点云。
步骤S20112:根据最后一层解码器的输出获取精细点云。
在本实施方式中,如图2所示,可以将最后一层编码器的输出获取粗级别点云,可以将最后一层解码器的输出获取精细点云。其中,粗级别点云的空间分辨率最小,但是特征维度最高;精细点云的空间分辨率高,特征维度低。
步骤S2012:将点云数据和子地图的粗级别点云进行粗匹配,获取粗匹配结果。
在本实施方式中,步骤S2012可以进一步包括步骤S20121至步骤S20123:
步骤S20121:将点云数据和子地图的粗级别点云进行特征交互。
在本实施方式中,如图2所示,可以将点云数据与子地图的粗级别点云进行特征交互,即通过图2中的RPE转换器中的自注意力层(Self-attention layer)和交叉注意力层(Cross-attention layer),进行粗级别点云的内部的特征交互和粗级别点云之间的特征交互。其中,自注意力层和交叉注意力层可以均以多头形式执行。
步骤S20122:根据特征交互后的粗级别点云,获取粗级别点云之间的基于距离的特征矩阵。
步骤S20123:根据特征矩阵,获取点云数据和子地图的粗匹配结果。
在本实施方式中,步骤S20123可以进一步包括步骤S201231至步骤S201232:
步骤S201231:应用softmax函数对特征矩阵进行处理,将处理后的特征矩阵的元素与预设的距离阈值进行比较
步骤S201232:当元素小于距离阈值时,将距离阈值对应的粗级别点云作为粗匹配结果。
在本实施方式中,可以应用softmax函数来对粗级别点云之间的基于距离的特征矩阵进行处理,可以通过softmax函数对特征矩阵进归一化处理,将归一化处理后的特征矩阵的元素分别与距离阈值进行比较,若元素小于距离阈值,则可以将该元素对应的粗级别点云作为粗匹配结果,从而获得多个粗级别点云的匹配对作为粗匹配结果。
步骤S2013:根据粗匹配结果,对点云数据和子地图的精细点云进行精细匹配,获取精细匹配结果,将精细匹配结果作为匹配关系。
在本实施方式中,步骤S2013可以进一步包括以下步骤S20131至步骤S20132:
步骤S20131:根据粗匹配结果中点云数据与子地图的粗级别点云与精细点云之间的空间距离,构建精细点云块。
步骤S20132:根据粗匹配结果中对应的精细点云块,获取精细匹配结果。
在本实施方式中,如图2所示,可以根据粗级别点云匹配的匹配结果,计算各个粗级别点云与精细点云之间的空间距离,并构建精细点云块(匹配块),以实现精细点云匹配,以获得多个精细点云匹配对,作为精细匹配结果。
一个实施方式中,可以通过sinkhorn算法计算精细点云块内的对应关系,从而获得精细匹配结果。
步骤S202:根据匹配关系,获取匹配关系对应的匹配结果。
在本实施方式中,步骤S202可以进一步包括以下步骤S2021至步骤S2023:
步骤S2021:获取匹配关系对应的点云数据与子地图之间的位姿关系。
步骤S2022:根据位姿关系,获取位姿关系的匹配置信度。
步骤S2023:将位姿关系和对应的匹配置信度作为匹配关系的匹配结果。
在本实施方式中,可以根据匹配关系获取对应的点云数据与子地图之间的位姿关系,并进一步获取匹配置信度,基于位姿关系和匹配置信度获取匹配结果。可以采用LGR(Local-to-Global Registration)配准方法获取匹配关系对应的点云数据与子地图之间的位姿关系。LGR配准方法为利用每个匹配关系中各个点的匹配关系配合加权SVD(Singular Value Decomposition,奇异值分解)计算一个局部转换关系,再将所有的局部转换关系在整个匹配关系中进行投票,选择一个最好的作为位姿关系,进行若干次迭代以实现位姿关系的优化。采用LGR配准方法避免了RANSAC(Random Sample Consensus,随机抽样一致)算法中上万次的随机采样过程,LGR配准方法与RANSAC算法的配准精度相当,但是具备更高的计算效率。
一个实施方式中,可以采用MCR(Matching Consistency Residuals,匹配一致性残差)的倒数作为匹配置信度,匹配结果中的匹配置信度越高,MCR值越低;反之,匹配结果中匹配置信度越低,MCR值越高。可以继续参阅附图3,图3中右侧为应用MCR指示匹配置信度的热图,高MCR(High MCR)表示低匹配置信度(Low confidence),对应的热图的颜色浅,低MCR(Low MCR)表示高匹配置信度(High confidence),对应的热图的颜色深。
一个实施方式中,可以将预处理的点云数据与子地图组成的匹配对、子地图和子地图组成的匹配对作为数据集来对深度学习神经网络进行训练。为了增加训练过程的泛化性,可以对以上匹配对进行随机分割和随机变换,将随机分割和随机变换后的数据,增加至数据集中,对深度学习神经网络进行训练。如以Taug对数据进行随机变换,Taug为随机产生的0°-360°的偏航角、0°-45°的俯仰角以及0°-45°的横滚角,以及0-10m的平移变换。可将Taug作为ground-truth(基准真相)。
需要指出的是,尽管上述实施例中将各个步骤按照特定的先后顺序进行了描述,但是本领域技术人员可以理解,为了实现本发明的效果,不同的步骤之间并非必须按照这样的顺序执行,其可以同时(并行)执行或以其他顺序执行,这些变化都在本发明的保护范围之内。
本领域技术人员能够理解的是,本发明实现上述一实施例的方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器、随机存取存储器、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读存储介质不包括电载波信号和电信信号。
进一步,本发明还提供了一种控制装置。在根据本发明的一个控制装置实施例中,控制装置包括处理器和存储装置,存储装置可以被配置成存储执行上述方法实施例的自动驾驶车辆的定位方法的程序,处理器可以被配置成用于执行存储装置中的程序,该程序包括但不限于执行上述方法实施例的自动驾驶车辆的定位方法的程序。为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。该控制装置可以是包括各种电子设备形成的控制装置设备。
进一步,本发明还提供了一种计算机可读存储介质。在根据本发明的一个计算机可读存储介质实施例中,计算机可读存储介质可以被配置成存储执行上述方法实施例的自动驾驶车辆的定位方法的程序,该程序可以由处理器加载并运行以实现上述自动驾驶车辆的定位方法。为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。该计算机可读存储介质可以是包括各种电子设备形成的存储装置设备,可选的,本发明实施例中计算机可读存储介质是非暂时性的计算机可读存储介质。
进一步,本发明还提供了一种车辆。在根据本发明的一个车辆实施例中,车辆可以包括控制装置实施例中的控制装置。
进一步,应该理解的是,由于各个模块的设定仅仅是为了说明本发明的装置的功能单元,这些模块对应的物理器件可以是处理器本身,或者处理器中软件的一部分,硬件的一部分,或者软件和硬件结合的一部分。因此,图中的各个模块的数量仅仅是示意性的。
本领域技术人员能够理解的是,可以对装置中的各个模块进行适应性地拆分或合并。对具体模块的这种拆分或合并并不会导致技术方案偏离本发明的原理,因此,拆分或合并之后的技术方案都将落入本发明的保护范围内。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (19)

1.一种自动驾驶车辆的定位方法,其特征在于,所述方法包括:
获取所述车辆上设置的激光雷达采集的连续的多帧点云数据;
针对每帧点云数据,将所述点云数据与所述点云数据在点云地图中对应的子地图进行点云地图匹配,将匹配结果作为所述点云数据的初步定位结果;
根据所述初步定位结果,获取所述点云数据在所述点云地图中的全局定位结果;
根据所述多帧点云数据的全局定位结果以及所述车辆的车端里程计提供的相对位姿,获取所述车辆的最终的全局定位结果。
2.根据权利要求1所述的自动驾驶车辆的定位方法,其特征在于,
所述针对每帧点云数据,将所述点云数据与所述点云数据在点云地图中对应的子地图进行点云地图匹配,将匹配结果作为所述点云数据的初步定位结果,包括:
针对多帧点云数据中的第一帧点云数据,将所述第一帧点云数据与所述点云地图中包含的所有子地图进行点云地图匹配,将匹配结果作为所述第一帧点云数据的初步定位结果,并根据所述初步定位结果获取所述第一帧点云数据的地图搜索范围;
针对多帧点云数据中的其他帧点云数据,判断所述当前帧点云数据的前一帧点云数据的初步定位结果中的匹配置信度是否大于预设的第一置信度阈值;
若是,则将前一帧点云数据的初步定位结果作为当前帧点云数据的初步定位结果,并根据初步定位结果获取当前帧点云数据的地图搜索范围;
若否,则将当前帧点云数据与所述点云地图中包含的所有子地图进行点云地图匹配,将匹配结果作为当前点云数据的初步定位结果,并根据所述初步定位结果获取当前点云数据的地图搜索范围。
3.根据权利要求2所述的自动驾驶车辆的定位方法,其特征在于,
所述根据所述初步定位结果,获取所述点云数据在所述点云地图中的全局定位结果,包括:
根据所述初步定位结果和所述地图搜索范围,在所述地图搜索范围内对所述点云数据进行点云地图匹配;
将所述点云数据的匹配结果作为所述全局定位结果。
4.根据权利要求3所述的自动驾驶车辆的定位方法,其特征在于,
所述在所述地图搜索范围内对所述点云数据进行点云地图匹配,包括:
根据所述地图搜索范围和所述点云数据的面积,确定在所述地图搜索范围中获取子地图的方式;
应用所述方式,获取所述地图搜索范围中的子地图,并将所述点云数据与其对应的子地图进行点云地图匹配。
5.根据权利要求4所述的自动驾驶车辆的定位方法,其特征在于,
所述根据所述地图搜索范围和所述点云数据的面积,确定在所述地图搜索范围中获取子地图的方式,包括:
当所述搜索范围和所述点云数据的面积比值大于预设的比例阈值时,先采用网格搜索方式在所述搜索范围内获取所述子地图;当获取到网格搜索方式的匹配结果后,再采用滑动搜索方式在所述匹配结果确定的地图搜索范围内获取所述子地图;
当所述面积比值小于等于所述比例阈值时,采用滑动搜索方式在所述地图搜索范围内获取所述子地图。
6.根据权利要求5所述的自动驾驶车辆的定位方法,其特征在于,
所述应用所述方式,获取所述地图搜索范围中的子地图,并将所述点云数据与其对应的子地图进行点云地图匹配,包括:
当应用所述网格搜索方式,将所述点云数据分别与其对应的子地图进行点云地图匹配时,获取匹配结果中的匹配置信度;
将所述匹配置信度为Top N的子地图组成的区域作为所述滑动搜索方式的地图搜索范围,其中,N为大于一的正整数;
当应用所述滑动搜索方式,将所述点云数据分别与其对应的子地图进行点云地图匹配时,获取匹配结果中的匹配置信度;
将所述匹配置信度与预设的第二置信度阈值进行比较;
当所述匹配置信度大于所述第二置信度阈值时,将所述匹配置信度对应的匹配结果作为当前的匹配结果,并结束所述滑动搜索方式。
7.根据权利要求5所述的自动驾驶车辆的定位方法,其特征在于,
所述应用所述方式,获取所述地图搜索范围中的子地图,并将所述点云数据与其对应的子地图进行点云地图匹配,还包括:
当执行滑动搜索方式的次数大于预设的次数阈值时,停止所述滑动搜索方式;
根据获取的最大的匹配置信度对应的匹配结果,获取所述全局定位结果。
8.根据权利要求1至7中任一项所述的自动驾驶车辆的定位方法,其特征在于,
所述点云地图匹配,包括:
将点云数据和子地图输入至训练好的深度学习神经网络中,通过所述深度学习神经网络获取所述点云数据与所述子地图之间的匹配关系;
根据所述匹配关系,获取所述匹配关系对应的匹配结果。
9.根据权利要求8所述的自动驾驶车辆的定位方法,其特征在于,
所述通过所述深度学习神经网络获取所述点云数据与所述子地图之间的匹配关系,包括:
通过所述深度学习神经网络的核点卷积层分别获得所述点云数据和所述子地图的粗级别点云和精细点云;
将所述点云数据和所述子地图的粗级别点云进行粗匹配,获取粗匹配结果;
根据所述粗匹配结果,对所述点云数据和所述子地图的精细点云进行精细匹配,获取精细匹配结果,将所述精细匹配结果作为所述匹配关系。
10.根据权利要求9所述的自动驾驶车辆的定位方法,其特征在于,
所述核点卷积层包含依次设置的五层编码器,以及设置在五层编码器之后的依次设置的三层解码器;
所述通过所述深度学习神经网络的核点卷积层分别获得所述点云数据和所述子地图的粗级别点云和精细点云,包括:
根据最后一层编码器的输出获取所述粗级别点云;
根据最后一层解码器的输出获取所述精细点云。
11.根据权利要求9所述的自动驾驶车辆的定位方法,其特征在于,
所述将所述点云数据和所述子地图的粗级别点云进行粗匹配,获取粗匹配结果,包括:
将所述点云数据和所述子地图的粗级别点云进行特征交互;
根据特征交互后的粗级别点云,获取所述粗级别点云之间的基于距离的特征矩阵;
根据所述特征矩阵,获取所述点云数据和所述子地图的粗匹配结果。
12.根据权利要求11所述的自动驾驶车辆的定位方法,其特征在于,
所述根据所述特征矩阵,获取所述点云数据和所述子地图的粗匹配结果,包括:
应用softmax函数对所述特征矩阵进行处理,将处理后的特征矩阵的元素与预设的距离阈值进行比较;
当所述元素小于所述距离阈值时,将所述元素对应的粗级别点云作为所述粗匹配结果。
13.根据权利要求9所述的自动驾驶车辆的定位方法,其特征在于,
所述根据所述粗匹配结果,对所述点云数据和所述子地图的精细点云进行精细匹配,获取精细匹配结果,包括:
根据所述粗匹配结果中所述点云数据与所述子地图的粗级别点云与精细点云之间的空间距离,构建精细点云块;
根据所述粗匹配结果中对应的精细点云块,获取所述精细匹配结果。
14.根据权利要求8所述的自动驾驶车辆的定位方法,其特征在于,
所述根据所述匹配关系,获取所述匹配关系对应的匹配结果,包括:
获取所述匹配关系对应的点云数据与子地图之间的位姿关系;
根据所述位姿关系,获取所述位姿关系的匹配置信度;
将所述位姿关系和对应的匹配置信度作为所述匹配关系的匹配结果。
15.根据权利要求8所述的自动驾驶车辆的定位方法,其特征在于,所述方法还包括根据以下步骤训练所述深度学习神经网络:
将预处理的点云数据与子地图组成的匹配对、子地图和子地图组成的匹配对以及对所述匹配对进行随机变换后的数据作为数据集;
应用所述数据集对所述深度学习神经网络进行训练,以获取训练好的深度学习神经网络。
16.根据权利要求1所述的自动驾驶车辆的定位方法,其特征在于,
所述根据所述多帧点云数据的全局定位结果以及所述车辆的车端里程计提供的相对位姿,获取所述车辆的最终的全局定位结果,包括:
根据所述多帧点云数据的全局定位结果和所述车辆的车端里程计提供的相对位姿,构建因子图;
根据所述因子图,对所述全局定位结果进行优化,获取所述最终的全局定位结果。
17.一种控制装置,包括处理器和存储装置,所述存储装置适于存储多条程序代码,其特征在于,所述程序代码适于由所述处理器加载并运行以执行权利要求1至16中任一项所述的自动驾驶车辆的定位方法。
18.一种计算机可读存储介质,其中存储有多条程序代码,其特征在于,所述程序代码适于由处理器加载并运行以执行权利要求1至16中任一项所述的自动驾驶车辆的定位方法。
19.一种车辆,其特征在于,所述车辆包括权利要求17所述的控制装置。
CN202211716436.1A 2022-12-30 2022-12-30 自动驾驶车辆的定位方法、控制装置、存储介质及车辆 Active CN115685133B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211716436.1A CN115685133B (zh) 2022-12-30 2022-12-30 自动驾驶车辆的定位方法、控制装置、存储介质及车辆

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211716436.1A CN115685133B (zh) 2022-12-30 2022-12-30 自动驾驶车辆的定位方法、控制装置、存储介质及车辆

Publications (2)

Publication Number Publication Date
CN115685133A true CN115685133A (zh) 2023-02-03
CN115685133B CN115685133B (zh) 2023-04-18

Family

ID=85057510

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211716436.1A Active CN115685133B (zh) 2022-12-30 2022-12-30 自动驾驶车辆的定位方法、控制装置、存储介质及车辆

Country Status (1)

Country Link
CN (1) CN115685133B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116030134A (zh) * 2023-02-14 2023-04-28 长沙智能驾驶研究院有限公司 定位方法、装置、设备、可读存储介质及程序产品

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009718A (zh) * 2019-03-07 2019-07-12 深兰科技(上海)有限公司 一种三维高精度地图生成方法及装置
CN110515055A (zh) * 2019-10-24 2019-11-29 奥特酷智能科技(南京)有限公司 利用半径搜索优化激光雷达定位的方法
US20200026925A1 (en) * 2018-07-23 2020-01-23 Baidu Online Network Technology (Beijing) Co., Ltd. Method, device and apparatus for generating electronic map, storage medium, and acquisition entity
CN111369602A (zh) * 2020-02-25 2020-07-03 北京百度网讯科技有限公司 点云数据的处理方法、装置、电子设备及可读存储介质
US20210270609A1 (en) * 2020-03-02 2021-09-02 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, computing device and computer-readable storage medium for positioning
US20210270612A1 (en) * 2020-03-02 2021-09-02 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, computing device and computer-readable storage medium for positioning
US20210303908A1 (en) * 2018-11-16 2021-09-30 Korea Advanced Institute Of Science And Technology Strong laser scanner matching method and apparatus considering movement of ground robot
CN113658257A (zh) * 2021-08-17 2021-11-16 广州文远知行科技有限公司 一种无人设备定位方法、装置、设备及存储介质
CN113701760A (zh) * 2021-09-01 2021-11-26 火种源码(中山)科技有限公司 基于滑动窗口位姿图优化的机器人抗干扰定位方法及装置
CN113740875A (zh) * 2021-08-03 2021-12-03 上海大学 一种基于激光里程计和点云描述符匹配的自动驾驶车辆定位方法
US20210405200A1 (en) * 2020-06-28 2021-12-30 Beijing Baidu Netcome Science Technology Co. Ltd. High-Precision Mapping Method And Device
CN114353807A (zh) * 2022-03-21 2022-04-15 沈阳吕尚科技有限公司 一种机器人的定位方法及定位装置
CN114509774A (zh) * 2021-10-20 2022-05-17 深圳元戎启行科技有限公司 定位方法、定位系统、车辆以及计算机可读存储介质
CN115372989A (zh) * 2022-08-19 2022-11-22 中国人民解放军陆军工程大学 基于激光雷达的越野自动小车长距离实时定位系统及方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200026925A1 (en) * 2018-07-23 2020-01-23 Baidu Online Network Technology (Beijing) Co., Ltd. Method, device and apparatus for generating electronic map, storage medium, and acquisition entity
US20210303908A1 (en) * 2018-11-16 2021-09-30 Korea Advanced Institute Of Science And Technology Strong laser scanner matching method and apparatus considering movement of ground robot
CN110009718A (zh) * 2019-03-07 2019-07-12 深兰科技(上海)有限公司 一种三维高精度地图生成方法及装置
CN110515055A (zh) * 2019-10-24 2019-11-29 奥特酷智能科技(南京)有限公司 利用半径搜索优化激光雷达定位的方法
CN111369602A (zh) * 2020-02-25 2020-07-03 北京百度网讯科技有限公司 点云数据的处理方法、装置、电子设备及可读存储介质
US20210270612A1 (en) * 2020-03-02 2021-09-02 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, computing device and computer-readable storage medium for positioning
US20210270609A1 (en) * 2020-03-02 2021-09-02 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, computing device and computer-readable storage medium for positioning
US20210405200A1 (en) * 2020-06-28 2021-12-30 Beijing Baidu Netcome Science Technology Co. Ltd. High-Precision Mapping Method And Device
CN113740875A (zh) * 2021-08-03 2021-12-03 上海大学 一种基于激光里程计和点云描述符匹配的自动驾驶车辆定位方法
CN113658257A (zh) * 2021-08-17 2021-11-16 广州文远知行科技有限公司 一种无人设备定位方法、装置、设备及存储介质
CN113701760A (zh) * 2021-09-01 2021-11-26 火种源码(中山)科技有限公司 基于滑动窗口位姿图优化的机器人抗干扰定位方法及装置
CN114509774A (zh) * 2021-10-20 2022-05-17 深圳元戎启行科技有限公司 定位方法、定位系统、车辆以及计算机可读存储介质
CN114353807A (zh) * 2022-03-21 2022-04-15 沈阳吕尚科技有限公司 一种机器人的定位方法及定位装置
CN115372989A (zh) * 2022-08-19 2022-11-22 中国人民解放军陆军工程大学 基于激光雷达的越野自动小车长距离实时定位系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSABABENEDEK ET AL.: "Positioning and perception in LIDAR point clouds" *
彭文正 等: "多传感器信息融合的自动驾驶车辆定位与速度估计" *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116030134A (zh) * 2023-02-14 2023-04-28 长沙智能驾驶研究院有限公司 定位方法、装置、设备、可读存储介质及程序产品

Also Published As

Publication number Publication date
CN115685133B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
Lu et al. Sparse coding from a Bayesian perspective
CN113065525B (zh) 年龄识别模型训练方法、人脸年龄识别方法及相关装置
CN111027576B (zh) 基于协同显著性生成式对抗网络的协同显著性检测方法
CN113095370B (zh) 图像识别方法、装置、电子设备及存储介质
CN115685133B (zh) 自动驾驶车辆的定位方法、控制装置、存储介质及车辆
CN111144214B (zh) 基于多层堆栈式自动编码器的高光谱图像解混方法
CN112884059A (zh) 一种融合先验知识的小样本雷达工作模式分类方法
CN111461753A (zh) 智能客服场景中的知识点召回方法及装置
CN112084895B (zh) 一种基于深度学习的行人重识别方法
CN115222983A (zh) 一种电缆破损检测方法及系统
CN109871907B (zh) 基于sae-hmm模型的雷达目标高分辨率距离像识别方法
CN113111706B (zh) 一种面向方位角连续缺失的sar目标特征解缠与识别方法
CN116958809A (zh) 一种特征库迁移的遥感小样本目标检测方法
CN111160198A (zh) 基于宽度学习的物体识别方法及系统
CN116451131A (zh) 一种基于自监督时间卷积网络的雷达脉冲序列识别方法
CN115102868A (zh) 一种基于SOM聚类与深度自编码器的web服务QoS预测方法
CN113011597B (zh) 一种回归任务的深度学习方法和装置
CN113051901B (zh) 一种身份证文本识别方法、系统、介质及电子终端
CN114677556A (zh) 神经网络模型的对抗样本生成方法及相关设备
Li et al. Eapruning: Evolutionary pruning for vision transformers and cnns
CN113888498A (zh) 图像异常检测方法、装置、电子设备及存储介质
CN114926701A (zh) 一种模型训练方法、目标检测方法、以及相关设备
Shi et al. SDNet: Image‐based sonar detection network for multi‐scale objects
CN116205916B (zh) 电力小样本缺陷检测方法、装置、计算机设备及存储介质
CN115146258B (zh) 请求处理方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant