CN111967373B - 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 - Google Patents
一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 Download PDFInfo
- Publication number
- CN111967373B CN111967373B CN202010818329.4A CN202010818329A CN111967373B CN 111967373 B CN111967373 B CN 111967373B CN 202010818329 A CN202010818329 A CN 202010818329A CN 111967373 B CN111967373 B CN 111967373B
- Authority
- CN
- China
- Prior art keywords
- image
- laser radar
- camera
- feature
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,所述方法包括:利用卷积神经网络分别提取目标的摄像头图像和激光雷达投影图的图像特征,分别得到第一图像特征和第二图像特征;自适应地分配第一图像特征和第二图像特征的权重,根据分配的第一权重对第一图像特征加权得到第三图像特征,根据分配的第二权重对第二图像特征加权得到第四图像特征,对第三图像特征和第四图像特征进行强化融合;根据所述融合后的图像特征,利用实时实例分割网络输出目标的类别、置信度、边界框、掩模,获取目标的实例分割结果。本发明能够在复杂环境下实时、精确且鲁棒地实现目标实例分割,在智能网联车辆感知领域具有广泛的应用前景。
Description
技术领域
本发明属于智能网联汽车的目标实例分割技术领域,特别是一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法。
背景技术
智能网联汽车在提高道路安全和交通效率方面具有很大的潜力,而对交通环境的精确感知是智能网联汽车进行规划、决策和控制的基础。摄像头作为智能网联汽车感知系统最常用的传感器,能够获取周围环境的详细形状和纹理信息。近些年,基于视觉的深度学习算法在环境感知方面已经取得了令人瞩目的成果。但是摄像头容易受到光线和天气条件的影响,导致算法性能严重降低甚至失效。所以,智能网联汽车的感知系统通常配备多种传感器,如摄像头、激光雷达、毫米波雷达、超声波雷达等,来获取全面的、互补的感知信息。由于激光雷达能够精确感知周围环境的三维信息且不易受环境变化影响,很多研究工作通过融合摄像头和激光雷达信息来获取鲁棒、精确、实时的环境感知能力。
中国发明专利申请“基于视觉、激光雷达和毫米波雷达的目标检测方法”(申请号:202010380040.9,公开日:2020.06.30)通过融合激光雷达点云鸟瞰图和摄像头图像来进行目标检测。目标检测利用边界框来定位图像中的目标,但是边界框中通常还包含来自背景以及其他目标的噪声;而实例分割利用掩模来精确分割图像中的目标个体,对环境的解析更详细、更自然。
中国发明专利申请“一种基于多传感器信息融合的三维目标检测方法及装置”(申请号:201911269486.8,公开日:2019.12.11)和“一种基于多传感器数据融合的3D目标检测方法”(申请号:201911423880.2,公开日:2020.05.29)公开了融合激光雷达和摄像头数据的两阶段三维目标检测方法,首先确定可能存在目标的感兴趣区域,然后再在该区域上进行目标检测,此类方法处理速度较慢,目前无法实际应用在智能网联汽车感知系统上。
在融合方式上,中国发明专利申请“一种基于单目视觉和激光雷达融合的车辆检测方法”(申请号:202010124991.X,公开日:2020.06.16)和“一种摄像头和激光雷达融合的端到端目标检测方法”(申请号:201911118301.3,公开日: 2019.11.15)利用级联、求和或按元素取均值等方式来融合图像和激光雷达特征图。但是,此类融合方式并没有考虑不同模态信息对于最后感知结果的贡献程度,如激光雷达在夜间通常比摄像头提供更多的环境信息,使得网络无法充分利用两个模态的互补特征,导致网络性能受限。
总之,现有技术存在的问题是:仅依赖单模态传感器无法精确、鲁棒的感知外部环境;而目前基于摄像头和激光雷达的融合感知方法的目标定位精度低且实时性较差,并且所采用的融合方法无法自适应地学习不同模态的互补特征。
发明内容
本发明的目的在于提供一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,该方法可以自适应地利用不同模态的互补特征,有效实现对复杂交通环境下不同交通要素目标的实时实例分割。
实现本发明目的的技术解决方案为:
一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,所述方法包括:
S10,特征提取:利用卷积神经网络分别提取目标的摄像头图像和激光雷达投影图的图像特征,得到对应摄像头图像的第一图像特征和对应激光雷达投影图的第二图像特征;
S20,自适应强化融合:将所述第一图像特征和所述第二图像特征输入到一个权重网络,自适应地分配第一图像特征和第二图像特征的权重,根据分配的第一权重对第一图像特征加权得到第三图像特征,根据分配的第二权重对第二图像特征加权得到第四图像特征,对第三图像特征和第四图像特征进行强化融合,得到融合后的图像特征;
S30,网络输出:根据所述融合后的图像特征,利用实时实例分割网络输出目标的类别、置信度、边界框、掩模,获取目标的实例分割结果。
进一步地,所述特征提取具体包括:
S11,将目标的摄像头图像和激光雷达点云时间同步:
由时间同步算法获取与当前激光雷达帧的最近的摄像头图像帧,得到时间同步后的摄像头图像帧和激光雷达点云帧;
S12,生成激光雷达投影图:
根据激光雷达坐标系到摄像头坐标系的外参矩阵Me,以及摄像头的内参矩阵Mi,激光雷达点云的某一点(X Y Z)可以由下式投影到摄像头图像上,对应的坐标为(u v):
z·(u v 1)T=Mi·Me·(X Y Z )T
式中,z表示摄像头图像坐标系下的该点的深度;
在投影时过滤掉摄像头图像视场外的点云,并用深度z或由对应的反射率值 r填充(u v)的像素值,得到激光雷达点云深度投影图作为激光雷达投影图;
S13,提取摄像头图像和激光雷达投影图的图像特征:
将时空一致的摄像头图像和激光雷达深度投影图作为特征提取网络的输入,利用所述特征提取网络分别提取对应摄像头图像的第一图像特征和对应激光雷达投影图的第二图像特征其中,C、H和W分别代表特征图的通道数、高度和宽度。
进一步地,所述自适应强化融合具体包括:
S21,自适应权重分配:
将所提取的第一图像特征和第二图像特征作为自适应强化融合网络的输入;首先将和沿通道C方向拼接,得到拼接特征图然后利用C个2C×1×1卷积核将维度减小为C,得到权重特征图最后利用sigmoid层将归一化,得到最终的权重系数矩阵其中分别对第一图像特征和第二图像特征进行权重分配,得到加权后的第三图像特征和第四图像特征
式中,⊙代表Hadamard乘积。
S22,加权特征强化融合:
进一步地,所述第一图像特征和第二图像特征为多尺度的高层语义特征。
进一步地,所述实时实例分割网络使用YOLACT++中的预测网络。
进一步地,所述激光雷达线束不小于40线。
进一步地,所述特征提取网络使用ResNet-50作为基础网络,并利用特征金字塔网络提取多尺度的高层语义信息。
进一步地,所述加权特征强化融合中的强化系数为:
通过以上技术方案,相对于现有技术,本发明具有以下有益效果:
1、实时性高:所提出的融合实例分割方法基于一个单阶段的端到端实时实例分割网络YOLACT++;且网络直接使用激光雷达投影图作为输入,避免了投影图上采样产生的大量计算开销,可直接应用于工程实践。
2、定位精度高:所提出的融合方法利用掩模来对目标进行定位,定位精度高。
3、适应性好且精确度、鲁棒性高:利用网络自适应地分配给每个模态不同的权重,并对加权后的各模态特征进行强化融合,能够适应复杂天气和光照变化,感知的精度和鲁棒性高。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明提供的一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法的网络结构图;
图2是本发明提供的一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法的流程图;
图3是本发明特征提取方法流程图;
图4是本发明自适应强化融合方法流程图。
具体实施方式
如图1所示,本发明的一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,包括如下步骤:
S10,特征提取:分别用卷积神经网络从时空一致的摄像头图像和激光雷达点云投影图中提取多尺度的高层语义特征;
结合图2,所述特征提取步骤包括:
S11,摄像头和激光雷达时间同步:
由时间同步算法获取与当前激光雷达帧的最近的摄像头图像帧,得到时间同步后的激光雷达点云帧和摄像头图像帧。
S12,生成激光雷达点云投影图:
根据激光雷达坐标系到摄像头坐标系的外参矩阵Me,以及摄像头的内参矩阵Mi,激光雷达点云的某一点(X Y Z)可以由下式投影到摄像头图像上,对应的坐标为(u v):
z·(u v 1)T=Mi·Me·(X Y Z)T
式中,z表示摄像头坐标系下的该点的深度;
在投影时过滤掉摄像头视场外的点云,并用深度z或由对应的反射率值r填充(uv)的像素值,由此可以分别得到激光雷达的点云深度投影图和反射率投影图。
优选地,所述激光雷达线束不小于40线。
S13,激光雷达投影图和摄像头图像特征提取:
优选地,所述特征提取网络使用ResNet-50作为基础网络,并利用特征金字塔网络(Feature Pyramid Network)提取多尺度的高层语义信息。
S20,自适应强化融合:根据所提取的高层语义特征利用一个权重网络来自适应地分配每个模态的权重,并将加权之后的高层语义特征进行强化融合;
其中,各个模态分别为目标的摄像头图像和激光雷达云投影图。
结合图3,所述自适应强化融合步骤包括:
S21,自适应权重分配:
如图1所示,将所提取的激光雷达投影图和摄像头图像的高层语义特征和作为自适应强化融合网络的输入。首先将和沿通道C方向拼接,得到拼接特征图然后利用C个2C×1×1卷积核将维度减小为 C,得到权重特征图最后利用sigmoid层将归一化,得到最终的权重系数矩阵按照下式分别对摄像头图像和激光雷达投影图的高层语义特征图和进行权重分配,得到加权后的高层语义特征和
式中,⊙代表Hadamard乘积。
S22,加权特征强化融合:
所述S 22加权特征强化融合中的强化系数按下式计算:
S30,网络输出:根据融合后的特征图,利用实时实例分割算法YOLACT++ 中的预测网络输出目标的类别、置信度、边界框、掩模,即获取目标的实例分割信息。
本发明基于单阶段实时实例分割网络YOLACT++,且使用摄像头图像和激光雷达稀疏投影图作为网络输入,能够实现实时处理;利用掩模进行目标定位,精度较高;并且能够自适应地调整每个模态的权重系数,并对加权后的各模态特征图进行强化融合,充分利用多模态的互补信息,能够适应复杂的天气和光照变化,感知精度和鲁棒性高。基于以上优点,本发明提出的基于摄像头和激光雷达的自适应强化融合实时实例分割方法在智能网联车辆感知领域具有广泛的应用前景。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本申请中所述的“和/或”的含义指的是各自单独存在或两者同时存在的情况均包括在内。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (6)
1.一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法,其特征在于,所述方法包括:
S10,特征提取:利用卷积神经网络分别提取目标的摄像头图像和激光雷达投影图的图像特征,得到对应摄像头图像的第一图像特征和对应激光雷达投影图的第二图像特征;
S20,自适应强化融合:将所述第一图像特征和所述第二图像特征输入到一个权重网络,自适应地分配第一图像特征和第二图像特征的权重,根据分配的第一权重对第一图像特征加权得到第三图像特征,根据分配的第二权重对第二图像特征加权得到第四图像特征,对第三图像特征和第四图像特征进行强化融合,得到融合后的图像特征;
S30,网络输出:根据所述融合后的图像特征,利用实时实例分割网络输出目标的类别、置信度、边界框、掩模,获取目标的实例分割结果;
其中,所述特征提取具体包括:
S11,将目标的摄像头图像和激光雷达点云时间同步:
由时间同步算法获取与当前激光雷达帧的最近的摄像头图像帧,得到时间同步后的摄像头图像帧和激光雷达点云帧;
S12,生成激光雷达投影图:
根据激光雷达坐标系到摄像头坐标系的外参矩阵Me,以及摄像头的内参矩阵Mi,激光雷达点云的某一点(X Y Z)可以由下式投影到摄像头图像上,对应的坐标为(u v):
z·(u v 1)T=Mi·Me·(X Y Z)T
式中,z表示摄像头图像坐标系下的该点的深度;
在投影时过滤掉摄像头图像视场外的点云,并用深度z或由对应的反射率值r填充(uv)的像素值,得到激光雷达点云深度投影图作为激光雷达投影图;
S13,提取摄像头图像和激光雷达投影图的图像特征:
将时空一致的摄像头图像和激光雷达深度投影图作为特征提取网络的输入,利用所述特征提取网络分别提取对应摄像头图像的第一图像特征和对应激光雷达投影图的第二图像特征其中,C、H和W分别代表特征图的通道数、高度和宽度;
其中,所述自适应强化融合具体包括:
S21,自适应权重分配:
将所提取的第一图像特征和第二图像特征作为自适应强化融合网络的输入;首先将和沿通道C方向拼接,得到拼接特征图然后利用C个2C×1×1卷积核将维度减小为C,得到权重特征图最后利用sigmoid层将归一化,得到最终的权重系数矩阵其中分别对第一图像特征和第二图像特征进行权重分配,得到加权后的第三图像特征和第四图像特征
式中,⊙代表Hadamard乘积;
S22,加权特征强化融合:
2.根据权利要求1所述的方法,其特征在于,所述第一图像特征和第二图像特征为多尺度的高层语义特征。
3.根据权利要求1所述的方法,其特征在于,所述实时实例分割网络使用YOLACT++中的预测网络。
4.根据权利要求1所述的方法,其特征在于,所述激光雷达线束不小于40线。
5.根据权利要求1所述的方法,其特征在于,所述特征提取网络使用ResNet-50作为基础网络,并利用特征金字塔网络提取多尺度的高层语义信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010818329.4A CN111967373B (zh) | 2020-08-14 | 2020-08-14 | 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010818329.4A CN111967373B (zh) | 2020-08-14 | 2020-08-14 | 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111967373A CN111967373A (zh) | 2020-11-20 |
CN111967373B true CN111967373B (zh) | 2021-03-30 |
Family
ID=73366029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010818329.4A Active CN111967373B (zh) | 2020-08-14 | 2020-08-14 | 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111967373B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112950640A (zh) * | 2021-02-23 | 2021-06-11 | Oppo广东移动通信有限公司 | 视频人像分割方法、装置、电子设备及存储介质 |
CN113537000A (zh) * | 2021-07-01 | 2021-10-22 | 大连民族大学 | 单目视觉实例分割深度链式特征提取网络、方法和系统 |
CN113569803A (zh) * | 2021-08-12 | 2021-10-29 | 中国矿业大学(北京) | 一种基于多尺度卷积的多模态数据融合车道目标检测的方法及系统 |
CN115393854B (zh) * | 2022-10-27 | 2023-02-21 | 粤港澳大湾区数字经济研究院(福田) | 一种视觉对齐处理方法、终端及存储介质 |
CN117115359B (zh) * | 2023-10-17 | 2024-02-02 | 国网江西省电力有限公司信息通信分公司 | 一种基于深度图融合的多视图电网三维空间数据重建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109118519A (zh) * | 2018-07-26 | 2019-01-01 | 北京纵目安驰智能科技有限公司 | 基于实例分割的目标Re-ID方法、系统、终端和存储介质 |
WO2019015785A1 (en) * | 2017-07-21 | 2019-01-24 | Toyota Motor Europe | METHOD AND SYSTEM FOR LEARNING A NEURAL NETWORK TO BE USED FOR SEMANTIC INSTANCE SEGMENTATION |
CN110135485A (zh) * | 2019-05-05 | 2019-08-16 | 浙江大学 | 单目相机与毫米波雷达融合的物体识别与定位方法和系统 |
CN111275026A (zh) * | 2020-03-23 | 2020-06-12 | 复旦大学 | 一种三维点云联合语义和实例分割的方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110414418B (zh) * | 2019-07-25 | 2022-06-03 | 电子科技大学 | 一种图像-激光雷达图像数据多尺度融合的道路检测方法 |
CN111339876B (zh) * | 2020-02-19 | 2023-09-01 | 北京百度网讯科技有限公司 | 用于识别场景中各区域类型的方法和装置 |
CN111429514B (zh) * | 2020-03-11 | 2023-05-09 | 浙江大学 | 一种融合多帧时序点云的激光雷达3d实时目标检测方法 |
-
2020
- 2020-08-14 CN CN202010818329.4A patent/CN111967373B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019015785A1 (en) * | 2017-07-21 | 2019-01-24 | Toyota Motor Europe | METHOD AND SYSTEM FOR LEARNING A NEURAL NETWORK TO BE USED FOR SEMANTIC INSTANCE SEGMENTATION |
CN109118519A (zh) * | 2018-07-26 | 2019-01-01 | 北京纵目安驰智能科技有限公司 | 基于实例分割的目标Re-ID方法、系统、终端和存储介质 |
CN110135485A (zh) * | 2019-05-05 | 2019-08-16 | 浙江大学 | 单目相机与毫米波雷达融合的物体识别与定位方法和系统 |
CN111275026A (zh) * | 2020-03-23 | 2020-06-12 | 复旦大学 | 一种三维点云联合语义和实例分割的方法 |
Non-Patent Citations (4)
Title |
---|
Adaptive Multi-Modal Fusion Instance Segmentation for CAEVs in Complex Conditions: Dataset, Framework and Verifications;Pai Peng et.al;《Research Square》;20200723;第3-9页 * |
Pai Peng et.al.Adaptive Multi-Modal Fusion Instance Segmentation for CAEVs in Complex Conditions: Dataset, Framework and Verifications.《Research Square》.2020, * |
Robust Semantic Segmentation in Adverse Weather Conditions by means of Sensor Data Fusion;Andreas Pfeuffer et.al;《arXiv:1905.10117v1 [cs.CV]》;20190524;第2-4页 * |
YOLACT++ Better Real-time Instance Segmentation;Daniel Bolya et.al;《arXiv:1912.06218v1 [cs.CV]》;20191203;第6-8页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111967373A (zh) | 2020-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111967373B (zh) | 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 | |
CN111798475B (zh) | 一种基于点云深度学习的室内环境3d语义地图构建方法 | |
CN111201451B (zh) | 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置 | |
CN108647646B (zh) | 基于低线束雷达的低矮障碍物的优化检测方法及装置 | |
CN113111887B (zh) | 一种基于相机和激光雷达信息融合的语义分割方法及系统 | |
WO2021082745A1 (zh) | 信息补全方法、车道线识别方法、智能行驶方法及相关产品 | |
CN112215306A (zh) | 一种基于单目视觉与毫米波雷达融合的目标检测方法 | |
CN113095154A (zh) | 基于毫米波雷达与单目相机的三维目标检测系统及方法 | |
CN113269040A (zh) | 结合图象识别与激光雷达点云分割的驾驶环境感知方法 | |
CN111046781A (zh) | 一种基于三元注意力机制的鲁棒三维目标检测方法 | |
CN117274749B (zh) | 一种基于4d毫米波雷达和图像的融合3d目标检测方法 | |
CN117237919A (zh) | 跨模态监督学习下多传感器融合检测的卡车智驾感知方法 | |
CN117058646B (zh) | 基于多模态融合鸟瞰图的复杂道路目标检测方法 | |
CN117975436A (zh) | 基于多模态融合和可变形注意力的三维目标检测方法 | |
CN116503803A (zh) | 障碍物检测方法、装置、电子设备以及存储介质 | |
CN116879870A (zh) | 一种适用于低线束3d激光雷达的动态障碍物去除方法 | |
CN116129234A (zh) | 一种基于注意力的4d毫米波雷达与视觉的融合方法 | |
CN117808689A (zh) | 基于毫米波雷达与摄像头融合的深度补全方法 | |
CN113012191B (zh) | 一种基于点云多视角投影图的激光里程计算法 | |
CN117392629A (zh) | 基于相机与雷达融合的多模态描述符地点识别方法及系统 | |
CN116797894A (zh) | 一种增强特征信息的雷达与视频融合目标检测方法 | |
CN116912786A (zh) | 一种基于车路协同的智能网联汽车多模态融合检测方法 | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN116189150A (zh) | 基于融合输出的单目3d目标检测方法、装置、设备和介质 | |
CN115937449A (zh) | 高精地图生成方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |