CN115249266A - 航路点位置预测方法、系统、设备及存储介质 - Google Patents
航路点位置预测方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN115249266A CN115249266A CN202210866564.8A CN202210866564A CN115249266A CN 115249266 A CN115249266 A CN 115249266A CN 202210866564 A CN202210866564 A CN 202210866564A CN 115249266 A CN115249266 A CN 115249266A
- Authority
- CN
- China
- Prior art keywords
- feature extraction
- point cloud
- feature
- network
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种航路点位置预测方法、系统、设备及存储介质,该方法包括:获取摄像机采集的RGB图像和激光雷达采集的点云数据;将所述点云数据处理得到预设图像尺寸的点云图像;将所述RGB图像和所述点云图像输入特征提取网络的第一特征提取分支和第二特征提取分支,所述第一特征提取分支和所述第二特征提取分支之间设置有至少一个transformer模块;将所述特征提取网络输出的特征数据输入位置预测网络,获取所述位置预测网络输出的航路点信息。本发明使用transformer的自注意力机制对融合图像和点云的生成的特征进行全局融合,并通过位置预测模块预测航路点位置,提高位置预测的准确性。
Description
技术领域
本发明涉及定位技术领域,尤其涉及一种航路点位置预测方法、系统、设备及存储介质。
背景技术
目前,在自动驾驶的感知方面,一般使用比如摄像机/激光雷达等多种传感器进行感知。然而,摄像机和激光雷达传感器之间大多数是属于几何融合方法。3D点云投影到图像空间(摄像机输入)中的像素,并从投影位置聚合信息。再把与这些投影位置对应的特征组合在一起,而这种几何融合在涉及密集交通的复杂城市场景中往往表现不佳。
发明内容
针对现有技术中的问题,本发明的目的在于提供一种航路点位置预测方法、系统、设备及存储介质,使用transformer的自注意力机制对融合图像和点云的生成的特征进行全局融合,并通过位置预测模块预测航路点位置,提高位置预测的准确性。
本发明实施例提供一种航路点位置预测方法,包括如下步骤:
获取摄像机采集的RGB图像和激光雷达采集的点云数据;
将所述点云数据处理得到预设图像尺寸的点云图像;
将所述RGB图像和所述点云图像输入特征提取网络的第一特征提取分支和第二特征提取分支,所述第一特征提取分支和所述第二特征提取分支之间设置有至少一个transformer模块;
将所述特征提取网络输出的特征数据输入位置预测网络,获取所述位置预测网络输出的航路点信息。
在一些实施例中,将所述点云数据处理得到预设尺寸的点云图像,包括如下步骤:
根据预设图像尺寸对点云空间划分网格;
对所有点云数据按照点云高度划分为两类:第一类点云的高度大于预设高度,第二类点云的高度小于或等于预设高度;
对于第一类点云,分别统计各个网格中的点云数量,作为对应位置的特征值,生成第一通道点云图像;
对于第二类点云,分别统计各个网格中的点云数据,作为对应位置的特征值,生成第二通道点云图像;
将所述第一通道点云图像和所述第二通道点云图像合并得到预设图像尺寸的点云图像。
在一些实施例中,所述第一特征提取分支和所述第二特征提取分支分别包括多个依次串联的处理节点,且所述第一特征提取分支和所述第二特征提取分支的对应处理节点的输出特征图具有相同尺度。
在一些实施例中,所述特征提取网络中,各个所述transformer模块获取第一特征提取分支的一处理节点的输出特征和第二特征提取分支的一对应处理节点的输出特征,进行编码融合而得到融合特征,将所述融合特征输入第一特征提取分支的下一处理节点和所述第二特征提取分支的下一处理节点。
在一些实施例中,除第一个处理节点之外,所述第一特征提取分支的每个处理节点的输入端和所述第二特征提取分支的每个处理节点的对应处理节点的输入端之间均设置有一所述transformer模块。
在一些实施例中,所述特征提取网络中,各个所述transformer模块的输入数据还包括位置编码数据。
在一些实施例中,所述特征提取网络中,各个所述transformer模块的输入数据还包括速度编码数据。
在一些实施例中,所述transformer模块将速度标量进行线性映射,得到预设长度的特征向量,作为所述速度编码数据。
在一些实施例中,所述第一特征提取分支和所述第二特征提取分支的各个处理节点分别通过平均池化的方式提取特征图。
在一些实施例中,所述第一特征提取分支的输出特征数据和所述第二特征提取分支的输出特征数据通过全连接层叠加后输入所述位置预测网络。
在一些实施例中,还包括如下步骤:
采集样本RGB图像和样本点云数据;
将所述样本点云数据处理得到预设图像尺寸的样本点云图像;
将所述样本RGB图像和所述样本点云图像输入特征提取网络,提取样本特征数据;
将所述特征提取网络输出的样本特征数据输入位置预测网络,获取所述位置预测网络输出的预测航路点信息;
基于所述预测航路点信息和标记航路点信息构建损失函数,迭代训练所述特征提取网络和所述位置预测网络。
在一些实施例中,所述位置预测网络包括LSTM长短期记忆人工神经网络。
本发明实施例还提供一种航路点位置预测系统,用于实现所述的航路点位置预测方法,所述系统包括:
数据采集模块,用于获取摄像机采集的RGB图像和激光雷达采集的点云数据;
点云处理模块,用于将所述点云数据处理得到预设图像尺寸的点云图像;
特征提取模块,用于将所述RGB图像和所述点云图像输入特征提取网络的第一特征提取分支和第二特征提取分支,所述第一特征提取分支和所述第二特征提取分支之间设置有至少一个transformer模块;
位置预测模块,用于将所述特征提取网络输出的特征数据输入位置预测网络,获取所述位置预测网络输出的航路点信息。
本发明实施例还提供一种航路点位置预测设备,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行所述的航路点位置预测方法的步骤。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,所述程序被处理器执行时实现所述的航路点位置预测方法的步骤。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
本发明的航路点位置预测方法、系统、设备及存储介质具有如下有益效果:
本发明使用transformer的自注意力机制对融合图像和点云的生成的特征进行全局、多尺度融合,并通过位置预测模块预测航路点位置,提高了位置预测的准确性,整体网络架构可以采用端到端的训练方式,训练和使用更加方便。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明一实施例的航路点位置预测方法的流程图;
图2是本发明一实施例的将所述点云数据处理得到预设尺寸的点云图像的流程图;
图3是本发明一实施例的特征提取网络和位置预测网络的示意图;
图4是本发明一实施例的通过transformer模块对特征进行融合的示意图;
图5是本发明一实施例的位置预测网络的训练过程的流程图;
图6是本发明一实施例的航路点位置预测系统的结构示意图;
图7是本发明一实施例的航路点位置预测设备的结构示意图;
图8是本发明一实施例的计算机可读存储介质的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此,实际执行的顺序有可能根据实际情况改变。
如图1所示,本发明实施例提供一种航路点位置预测方法,包括如下步骤:
S100:获取摄像机采集的RGB图像和激光雷达采集的点云数据;
此处,摄像机和激光雷达设置于同一载体,其采集的RGB图像和点云数据根据采集时间对齐,将同一时间采集的RGB图像和点云数据作为一组;
S200:将所述点云数据处理得到预设图像尺寸的点云图像,此预设图像尺寸优选与RGB图像的尺寸相同,如果此次预设图像尺寸和RGB图像的尺寸不同,则需要通过卷积网络将RGB图像和点云图像调整至相同尺寸;
S300:将所述RGB图像和所述点云图像输入特征提取网络的第一特征提取分支和第二特征提取分支,所述第一特征提取分支和所述第二特征提取分支之间设置有至少一个transformer模块,所述transformer模块基于自注意力机制对两个特征提取分支分别提取的RGB图像的特征图和点云图像的特征图进行融合编码,可以实现两种数据在特征层面上的多尺度全局融合;
S400:将所述特征提取网络输出的特征数据输入位置预测网络,获取所述位置预测网络输出的航路点信息。
在公共道路上自动驾驶时,车辆在每一时刻都应能够在找到要遵循的最佳几何顺序的航路点后,决定进行最佳和最安全的操纵。自动驾驶车辆的控制过程包括遵循尽可能忠实生成的轨迹。路径是一系列航路点,每个航路点信息包含位置(x,y),角度(偏航角)和速度(v)中的一种或多种。
本发明的航路点位置预测方法中,通过步骤S100和S200获取到RGB图像和点云图像后,通过步骤S300输入到特征提取网络进行特征提取,使用transformer的自注意力机制对融合图像和点云的生成的特征进行全局、多尺度融合,并通过步骤S400基于位置预测模块预测航路点位置,提高了位置预测的准确性,整体网络架构可以采用端到端的训练方式,训练和使用更加方便。
如图2所示,在该实施例中,所述步骤S200:将所述点云数据处理得到预设尺寸的点云图像,包括如下步骤:
S210:根据预设图像尺寸对点云空间划分网格,具体地,所述预设图像尺寸包括每行的像素数和每列的像素数,将所述点云空间划分网格后,每个网格对应于一个像素,例如,预设图像尺寸为256x256,则将所述点云空间划分为256x256个网格;
以自动驾驶车辆为例,激光雷达和摄像机均设置于自动驾驶车辆前方,自动驾驶车辆的激光雷达采集前方32m,每侧16m内的点,包含了32m x 32m x 2m的点云空间。将该空间按照0.125m x 0.125m x1m的网格划分,从而得到256x256x2像素的双通道的伪图像;
S220:对所有点云数据按照点云高度划分为两类:第一类点云的高度大于预设高度,第二类点云的高度小于或等于预设高度,此处预设高度可以根据激光雷达所在的水平面的高度来确定;
S230:对于第一类点云,分别统计各个网格中的点云数量,作为对应位置的特征值,生成第一通道点云图像;
S240:对于第二类点云,分别统计各个网格中的点云数据,作为对应位置的特征值,生成第二通道点云图像;
S250:将所述第一通道点云图像和所述第二通道点云图像合并得到预设图像尺寸的点云图像,即所述点云图像为两通道的特征图,即BEV特征图以预设图像尺寸为256x256为例,所述点云图像即为2x256x256。
在该实施例中,所述第一特征提取分支和所述第二特征提取分支分别包括多个依次串联的处理节点,且所述第一特征提取分支与所述第二特征提取分支的网络架构相同,所述第一特征提取分支和所述第二特征提取分支的对应处理节点的输出特征图具有相同尺度。例如,所述第一特征提取分支采用Resnet34和Resnet18获得不同尺度的特征图。所述第二特征提取分支采用Resnet34和Resnet18获得不同尺度的特征图。
如图3所示,为本发明一示例的特征提取网络和位置预测网络的示意图。每个处理节点包括卷积层Conv和池化层Pool。所述第一特征提取分支和所述第二特征提取分支分别包括平均池化层AvgPool和展平层Flattn。所述第一特征提取分支中,输入第一个处理节点中RGB图像例如是3通道的256x256图像。通过所述第一特征提取分支的第一个处理节点后,得到与所述第二特征提取分支的第一个处理节点输出的特征图具有相同尺度的特征图。此次具有相同尺度指的是具有相同尺寸和相同通道。
所述特征提取网络中,各个所述transformer模块获取第一特征提取分支的一处理节点的输出特征和第二特征提取分支的一对应处理节点的输出特征,进行编码融合而得到融合特征,将所述融合特征输入第一特征提取分支的下一处理节点和所述第二特征提取分支的下一处理节点。在该实施例中,除第一个处理节点之外,所述第一特征提取分支的每个处理节点的输入端和所述第二特征提取分支的每个处理节点的对应处理节点的输入端之间均设置有一所述transformer模块。因此,对于第一特征提取分支的各个处理节点,除了第一个处理节点之外,其输入均为前一个处理节点的输出特征与transformer模块融合后的特征的叠加或concat。同样地,对于第二特征提取分支的各个处理节点,除了第一个处理节点之外,其输入均为前一个处理节点的输出特征与transformer模块融合后的特征的叠加或concat。
如图4所示,为该实施例的通过transformer模块对特征进行融合的示意图。所述transformer模块将第一特征提取分支的处理节点的特征图和第二特征提取分支的处理节点的特征图分别变为HxWxC个token进行合并变成(2*H*W)xC的touken放入到transformer中进行基于自注意力机制(Self-Attention)的信息融合,注意此时每个token都考虑到了两个分支的所有token信息,融合更加彻底,然后将融合后的特征再叠加到分支的主干上进行下一个stage。具体地,所述transformer模块采用自注意力机制对两种特征图进行编码融合后,得到的特征图与对应处理节点的输出图像的特征图具有相同尺度,将融合特征与对应处理节点的输出特征进行叠加或concat,如果采用叠加,则尺度不会变化,直接输入到下一个处理节点之后,如果采用concat,在输入到下一个处理节点之前可以先通过卷积对维度进行减半。
在该实施例中,所述特征提取网络中,各个所述transformer模块的输入数据还包括位置编码数据,此处所述位置编码的尺度与对应的融合特征图的尺度是相同的。此次位置编码指的是车辆定位的位置编码。
在该实施例中,所述特征提取网络中,各个所述transformer模块的输入数据还包括速度编码数据。具体地,所述transformer模块将速度标量进行线性映射,得到预设长度为C的特征向量,作为所述速度编码数据。
因此,在该实施例中,各个所述transformer模块的输入数据包括如下三个部分:
一个是RGB图像和点云图像对应处理节点输出的特征图堆叠在一起变成维度为(SxHxW)xC的特征序列Q;
另一个是可学习的位置嵌入信息(SxHxW)xC,该信息为特征序列引入了空间信息E;
最后一个是速度标量v通过一个线性层映射成C为的特征向量:V=Wv。
最后这三个输入按元素相加如下:
Input=Q+E+V
得到的Input即作为所述transformer模块的输入。
在该实施例中,为了降低计算规模,所述第一特征提取分支和所述第二特征提取分支的各个处理节点分别通过平均池化的方式提取特征图,即从特征图中提取token时可以采用采用平均池化的方式减少token的数量,然后再在与分支叠加时使用上采样统一尺寸。
在该实施例中,所述第一特征提取分支的输出特征数据和所述第二特征提取分支的输出特征数据经过平均池化后是长度相同的特征向量,该两个特征向量通过全连接层叠加后输入所述位置预测网络。如图3所示,预测部分MLP用于预测未来若干时刻的状态,预测部分MLP包括2个隐层,输入一组特征向量。在该实施例中,所述位置预测网络包括LSTM长短期记忆人工神经网络,其中包括多个LSTM模块,每个LSTM模块的输出表示为δw1、δw2、δw3和δw4……前一个LSTM模块的输出经过处理后作为下一个LSTM模块的输入,即图3中示出的w1、w2、w3。所述MLP输出的特征向量送入基于LSTM的自回归位置预测网络,输出的航路点信息可以馈送到载体的控制模块使用。
如图5所示,在该实施例中,所述航路点位置预测方法还包括所述特征提取网络和所述位置预测网络的训练过程。具体地,所述训练过程包括如下步骤:
S910:采集样本RGB图像和样本点云数据;
具体地,可以获取到载体上的摄像机和激光雷达采集的历史数据,从历史数据中筛选RGB图像和点云数据,将同一时刻采集的RGB图像和点云图像对齐,作为一组样本RGB图像和样本点云数据;
S920:将所述样本点云数据处理得到预设图像尺寸的样本点云图像;
对所述样本点云数据的处理过程可以与上述步骤S200中对点云数据的处理过程相同,将样本点云数据转换为两通道的样本点云图像;
S930:将所述样本RGB图像和所述样本点云图像输入特征提取网络,提取样本特征数据;所述特征提取采用如图2所示的特征提取网络的架构,其中,所述特征提取网络包括第一特征提取分支和第二特征提取分支,两个分支的处理节点之间设置有transformer模块,采用自注意力机制对两个特征提取分支提取的特征图进行融合;
S940:将所述特征提取网络输出的样本特征数据输入位置预测网络,获取所述位置预测网络输出的预测航路点信息;所述位置预测网络采用LSTM网络架构;
S950:基于所述预测航路点信息和标记航路点信息构建损失函数,迭代训练所述特征提取网络和所述位置预测网络,具体地,基于损失函数反向优化所述特征提取网络和所述位置预测网络的网络参数,使得损失函数小于预设损失阈值,即完成了训练,训练完成的模型可以应用于步骤S300和S400的特征提取和航路点位置预测。
因此,该实施例中,采用端到端的方式对整体的网络架构在大量数据上优化训练,更加方便,并且可以获得特征提取网络和位置预测网络的更优的网络性能。
如图6所示,本发明实施例还提供一种航路点位置预测系统,用于实现所述的航路点位置预测方法,所述系统包括:
数据采集模块M100,用于获取摄像机采集的RGB图像和激光雷达采集的点云数据;此处,摄像机和激光雷达设置于同一载体,其采集的RGB图像和点云数据根据采集时间对齐,将同一时间采集的RGB图像和点云数据作为一组;
点云处理模块M200,用于将所述点云数据处理得到预设图像尺寸的点云图像;
特征提取模块M300,用于将所述RGB图像和所述点云图像输入特征提取网络的第一特征提取分支和第二特征提取分支,所述第一特征提取分支和所述第二特征提取分支之间设置有至少一个transformer模块,所述transformer模块基于自注意力机制对两个特征提取分支分别提取的RGB图像的特征图和点云图像的特征图进行融合编码,可以实现两种数据在特征层面上的多尺度全局融合;
位置预测模块M400,用于将所述特征提取网络输出的特征数据输入位置预测网络,获取所述位置预测网络输出的航路点信息,每个航路点信息包含位置(x,y),角度(偏航角)和速度(v)中的一种或多种。
本发明的航路点位置预测系统中,通过数据采集模块M100和点云处理模块M200获取到RGB图像和点云图像后,通过特征提取模块M300输入到特征提取网络进行特征提取,使用transformer的自注意力机制对融合图像和点云的生成的特征进行全局、多尺度融合,并通过位置预测模块M400基于位置预测模块预测航路点位置,提高了位置预测的准确性,整体网络架构可以采用端到端的训练方式,训练和使用更加方便。
本发明的航路点位置预测系统中,各个模块的功能可以采用上述航路点位置预测方法中对应步骤的具体实施方式来实现,此处不再赘述。
在该实施例中,所述航路点位置预测系统还包括模型预测模块,用于采集样本RGB图像和样本点云数据;具体地,可以获取到载体上的摄像机和激光雷达采集的历史数据,从历史数据中筛选RGB图像和点云数据,将同一时刻采集的RGB图像和点云图像对齐,作为一组样本RGB图像和样本点云数据;将所述样本点云数据处理得到预设图像尺寸的样本点云图像;对所述样本点云数据的处理过程可以与上述步骤S200中对点云数据的处理过程相同,将样本点云数据转换为两通道的样本点云图像;将所述样本RGB图像和所述样本点云图像输入特征提取网络,提取样本特征数据;所述特征提取采用如图2所示的特征提取网络的架构,其中,所述特征提取网络包括第一特征提取分支和第二特征提取分支,两个分支的处理节点之间设置有transformer模块,采用自注意力机制对两个特征提取分支提取的特征图进行融合;将所述特征提取网络输出的样本特征数据输入位置预测网络,获取所述位置预测网络输出的预测航路点信息;所述位置预测网络采用LSTM网络架构;以及基于所述预测航路点信息和标记航路点信息构建损失函数,迭代训练所述特征提取网络和所述位置预测网络,具体地,基于损失函数反向优化所述特征提取网络和所述位置预测网络的网络参数,使得损失函数小于预设损失阈值,即完成了训练。训练完成的模型可以应用于特征提取模块M300和位置预测模块M400的特征提取和航路点位置预测。
因此,该实施例中,采用端到端的方式对整体的网络架构在大量数据上优化训练,更加方便,并且可以获得特征提取网络和位置预测网络的更优的网络性能。
本发明实施例还提供一种航路点位置预测设备,包括处理器;存储器,其中存储有所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行所述的航路点位置预测方法的步骤。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
下面参照图8来描述根据本发明的这种实施方式的电子设备600。图8显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同系统组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述航路点位置预测方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元610可以执行如图1中所示的步骤。
所述存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
所述存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
所述航路点位置预测设备中,所述存储器中的程序被处理器执行时实现所述的航路点位置预测方法的步骤,因此,所述设备也可以获得上述航路点位置预测方法的技术效果。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,所述程序被处理器执行时实现所述的航路点位置预测方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上执行时,所述程序代码用于使所述终端设备执行本说明书上述航路点位置预测方法部分中描述的根据本发明各种示例性实施方式的步骤。
参考图8所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上执行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
所述计算机存储介质中的程序被处理器执行时实现所述的航路点位置预测方法的步骤,因此,所述计算机存储介质也可以获得上述航路点位置预测方法的技术效果。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (15)
1.一种航路点位置预测方法,其特征在于,包括如下步骤:
获取摄像机采集的RGB图像和激光雷达采集的点云数据;
将所述点云数据处理得到预设图像尺寸的点云图像;
将所述RGB图像和所述点云图像输入特征提取网络的第一特征提取分支和第二特征提取分支,所述第一特征提取分支和所述第二特征提取分支之间设置有至少一个transformer模块;
将所述特征提取网络输出的特征数据输入位置预测网络,获取所述位置预测网络输出的航路点信息。
2.根据权利要求1所述的航路点位置预测方法,其特征在于,将所述点云数据处理得到预设尺寸的点云图像,包括如下步骤:
根据预设图像尺寸对点云空间划分网格;
对所有点云数据按照点云高度划分为两类:第一类点云的高度大于预设高度,第二类点云的高度小于或等于预设高度;
对于第一类点云,分别统计各个网格中的点云数量,作为对应位置的特征值,生成第一通道点云图像;
对于第二类点云,分别统计各个网格中的点云数据,作为对应位置的特征值,生成第二通道点云图像;
将所述第一通道点云图像和所述第二通道点云图像合并得到预设图像尺寸的点云图像。
3.根据权利要求1所述的航路点位置预测方法,其特征在于,所述第一特征提取分支和所述第二特征提取分支分别包括多个依次串联的处理节点,且所述第一特征提取分支和所述第二特征提取分支的对应处理节点的输出特征图具有相同尺度。
4.根据权利要求3所述的航路点位置预测方法,其特征在于,所述特征提取网络中,各个所述transformer模块获取第一特征提取分支的一处理节点的输出特征和第二特征提取分支的一对应处理节点的输出特征,进行编码融合而得到融合特征,将所述融合特征输入第一特征提取分支的下一处理节点和所述第二特征提取分支的下一处理节点。
5.根据权利要求4所述的航路点位置预测方法,其特征在于,除第一个处理节点之外,所述第一特征提取分支的每个处理节点的输入端和所述第二特征提取分支的每个处理节点的对应处理节点的输入端之间均设置有一所述transformer模块。
6.根据权利要求5所述的航路点位置预测方法,其特征在于,所述特征提取网络中,各个所述transformer模块的输入数据还包括位置编码数据。
7.根据权利要求5或6所述的航路点位置预测方法,其特征在于,所述特征提取网络中,各个所述transformer模块的输入数据还包括速度编码数据。
8.根据权利要求7所述的航路点位置预测方法,其特征在于,所述transformer模块将速度标量进行线性映射,得到预设长度的特征向量,作为所述速度编码数据。
9.根据权利要求1所述的航路点位置预测方法,其特征在于,所述第一特征提取分支和所述第二特征提取分支的各个处理节点分别通过平均池化的方式提取特征图。
10.根据权利要求1所述的航路点位置预测方法,其特征在于,所述第一特征提取分支的输出特征数据和所述第二特征提取分支的输出特征数据通过全连接层叠加后输入所述位置预测网络。
11.根据权利要求1所述的航路点位置预测方法,其特征在于,还包括如下步骤:
采集样本RGB图像和样本点云数据;
将所述样本点云数据处理得到预设图像尺寸的样本点云图像;
将所述样本RGB图像和所述样本点云图像输入特征提取网络,提取样本特征数据;
将所述特征提取网络输出的样本特征数据输入位置预测网络,获取所述位置预测网络输出的预测航路点信息;
基于所述预测航路点信息和标记航路点信息构建损失函数,迭代训练所述特征提取网络和所述位置预测网络。
12.根据权利要求1所述的航路点位置预测方法,其特征在于,所述位置预测网络包括LSTM长短期记忆人工神经网络。
13.一种航路点位置预测系统,其特征在于,用于实现权利要求1至12中任一项所述的航路点位置预测方法,所述系统包括:
数据采集模块,用于获取摄像机采集的RGB图像和激光雷达采集的点云数据;
点云处理模块,用于将所述点云数据处理得到预设图像尺寸的点云图像;
特征提取模块,用于将所述RGB图像和所述点云图像输入特征提取网络的第一特征提取分支和第二特征提取分支,所述第一特征提取分支和所述第二特征提取分支之间设置有至少一个transformer模块;
位置预测模块,用于将所述特征提取网络输出的特征数据输入位置预测网络,获取所述位置预测网络输出的航路点信息。
14.一种航路点位置预测设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至12任一项所述的航路点位置预测方法的步骤。
15.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被处理器执行时实现权利要求1至12中任一项所述的航路点位置预测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210866564.8A CN115249266A (zh) | 2022-07-22 | 2022-07-22 | 航路点位置预测方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210866564.8A CN115249266A (zh) | 2022-07-22 | 2022-07-22 | 航路点位置预测方法、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115249266A true CN115249266A (zh) | 2022-10-28 |
Family
ID=83700569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210866564.8A Pending CN115249266A (zh) | 2022-07-22 | 2022-07-22 | 航路点位置预测方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115249266A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861601A (zh) * | 2022-12-20 | 2023-03-28 | 清华大学 | 一种多传感器融合感知方法及装置 |
CN116989820A (zh) * | 2023-09-27 | 2023-11-03 | 厦门精图信息技术有限公司 | 一种智能导航系统及方法 |
-
2022
- 2022-07-22 CN CN202210866564.8A patent/CN115249266A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861601A (zh) * | 2022-12-20 | 2023-03-28 | 清华大学 | 一种多传感器融合感知方法及装置 |
CN115861601B (zh) * | 2022-12-20 | 2023-12-29 | 清华大学 | 一种多传感器融合感知方法及装置 |
CN116989820A (zh) * | 2023-09-27 | 2023-11-03 | 厦门精图信息技术有限公司 | 一种智能导航系统及方法 |
CN116989820B (zh) * | 2023-09-27 | 2023-12-05 | 厦门精图信息技术有限公司 | 一种智能导航系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109682381B (zh) | 基于全向视觉的大视场场景感知方法、系统、介质及设备 | |
CN113264066B (zh) | 障碍物轨迹预测方法、装置、自动驾驶车辆及路侧设备 | |
CN111079619B (zh) | 用于检测图像中的目标对象的方法和装置 | |
CN109214987A (zh) | 从上采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN109214986A (zh) | 从下采样的低分辨率lidar 3-d点云和摄像机图像生成高分辨率3-d点云 | |
CN109215067A (zh) | 基于cnn和crf模型生成高分辨率3-d点云 | |
CN115249266A (zh) | 航路点位置预测方法、系统、设备及存储介质 | |
CN110245579B (zh) | 人流密度预测方法及装置、计算机设备及可读介质 | |
US20230080133A1 (en) | 6d pose and shape estimation method | |
CN112329722B (zh) | 行车方向检测方法、系统、设备及存储介质 | |
US20230121534A1 (en) | Method and electronic device for 3d object detection using neural networks | |
US20240070972A1 (en) | Rendering new images of scenes using geometry-aware neural networks conditioned on latent variables | |
CN115147598A (zh) | 目标检测分割方法、装置、智能终端及存储介质 | |
CN113781519A (zh) | 目标跟踪方法和目标跟踪装置 | |
CN111220988B (zh) | 一种地图数据处理方法、装置、设备和介质 | |
CN110633718B (zh) | 用于确定环境图像中的行驶区域的方法和装置 | |
CN114399737A (zh) | 一种道路检测方法、装置、存储介质及电子设备 | |
CN112668596B (zh) | 三维物体识别方法及装置、识别模型训练方法及装置 | |
CN116452911A (zh) | 目标检测模型训练方法及装置、目标检测方法及装置 | |
CN114067371B (zh) | 一种跨模态行人轨迹生成式预测框架、方法和装置 | |
CN115546760A (zh) | 点云序列数据处理方法、装置、计算机设备和存储介质 | |
CN115565374A (zh) | 物流车驾驶优化方法、装置、电子设备及可读存储介质 | |
CN113763468B (zh) | 一种定位方法、装置、系统及存储介质 | |
CN115205855A (zh) | 融合多尺度语义信息的车辆目标识别方法、装置及设备 | |
CN116558541B (zh) | 模型训练方法和装置、轨迹预测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Applicant after: Shanghai Xijing Technology Co.,Ltd. Address before: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Applicant before: SHANGHAI WESTWELL INFORMATION AND TECHNOLOGY Co.,Ltd. |
|
CB02 | Change of applicant information |