CN116071661B - 一种基于激光点云的城市道路场景语义分割方法 - Google Patents
一种基于激光点云的城市道路场景语义分割方法 Download PDFInfo
- Publication number
- CN116071661B CN116071661B CN202310359928.8A CN202310359928A CN116071661B CN 116071661 B CN116071661 B CN 116071661B CN 202310359928 A CN202310359928 A CN 202310359928A CN 116071661 B CN116071661 B CN 116071661B
- Authority
- CN
- China
- Prior art keywords
- point
- features
- points
- point cloud
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000011218 segmentation Effects 0.000 title claims abstract description 29
- 230000004927 fusion Effects 0.000 claims abstract description 36
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims description 18
- 238000012360 testing method Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000005096 rolling process Methods 0.000 claims description 5
- 230000002776 aggregation Effects 0.000 claims description 4
- 238000004220 aggregation Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000008520 organization Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
技术领域
本发明涉及计算机图形学领域,具体涉及一种基于激光点云的城市道路场景语义分割方法。
背景技术
在智慧交通和智慧城市建设的背景下,点云作为一种新兴的三维图像数据,受到了越来越多的关注。例如,在智慧交通技术中,通过对传感器获取的道路点云数据进行目标检测与分析,可以辅助汽车测算距离和速度等数据,以实现识别和躲避障碍物的功能。在智慧城市研究中,通过对扫描街道场景获得的点云分析,可以为街道布局、信息化管理以及后期维护等措施打下基础。而语义分割作为点云数据在上述应用的前序操作,也受到了越来越多研究。但是城市街道场景的点云具有规模庞大、密度不均匀和存在遮挡等特点,实现准确和高效的语义分割具有较大挑战。
传统的点云语义分割技术主要通过手动地提取特征实现类别划分。如计算点的法向量、密度和纹理等信息,用于边缘轮廓检测、隔离区划分和区域生长等方法。然而,这些方法难以实现城市街道等大规模场景点云的有效分割。一方面,这些方法高度依赖于对原始点云的先验知识,街道场景规模巨大且复杂,手动设计有效的特征极其困难。另一方面,这些方法还严重受异常点和点分布的影响,传感器扫描到的点分布不均和存在遮挡的情况,不利于特征的提取。
目前,基于深度学习的方法已经被广泛应用于点云的语义分割,这些方法主要分为基于投影和基于点两种形式。前者将点云转化为体素、网格等结构化数据,然后应用二维图像中成熟的卷积方法实现有效的语义分割,但网络的内存消耗随分辨率的提高成指数级增加。后者则直接处理原始点数据,可以充分利用点云的三维结构,但点云的不规则性和稀疏性导致网络难以有效的特征提取和语义分割。在基于点的方法中,图卷积网络可以较好地组织非结构化数据,然后利用邻域信息进行特征提取与语义分割,并且具有较好的泛化能力。但是,在处理城市街道这样的大场景时仍然存在较多局限性,如场景点数和构建邻域导致计算复杂度过大,不同级别语义特征的融合过于简单导致特征表征能力不强等。
发明内容
本发明提供了一种基于激光点云的城市道路场景语义分割方法,该方法使用图卷积和注意力融合等技术,提高了城市街道点云的语义分割准确性和效率。
一种基于激光点云的城市道路场景语义分割方法,包括以下步骤:
S3、训练基于图卷积和注意力融合的神经网络;
S4、通过基于图卷积和注意力融合的神经网络进行语义分割预测。
优选地,步骤S1的具体过程为:
优选地,步骤S2的具体过程为:
优选地,步骤S3的具体过程为:
优选地,步骤S31的具体过程为:
其中,是坐标特征,/>是点/>的坐标,/>是点/>的坐标,/>是中心点与邻近点的偏移量,/>是点/>和点/>的欧式距离,LBR表示特征向量依次经过Linear层、BatchNorm层和ReLU层,将嵌入的坐标特征映射成与点特征相同的维度;
其中,g表示卷积卷积核;
其中,表示多层感知机,/>表示按通道连接,则/>是连接的结果,/>表示局部注意力分数,/>和/>分别表示按元素相乘和按元素相加,/>表示随机下采样,/>时需分别记录采样点的索引以及丢弃点的索引,/>表示该层的输出,即为下层的输入;
优选地,步骤S32的具体过程为:
其中,表示残差注意力分数;/>表示最邻近上采样,/>使用/>时记录的丢弃点的索引找对应点,再寻找与下采样中的最邻近点作为自身的特征;/>表示残差连接特征;/>表示残差注意力融合模块的输出,即为下层的输入特征;
优选地,步骤S4的具体过程为:
采用上述技术方案后,本发明具有如下有益效果:
1、本发明使用计算机图形学对城市街道场景点云进行预处理,充分利用街道场景的分布特性。使用采样-投影的方式预测类别,减少网络推理数据量;使用KD-Tree这一数据结构有效查询邻近点,加快网络推理速度。
2、本发明采用构建局部邻域的图关系组织非结构化的点云,在网络训练中进行数据增强,从而提高网络的泛化能力和鲁棒性。通过多分辨率和多层次的语义特征学习实现分割精度上的提高,同时嵌入坐标信息减少网络对相同语义特征的长距离依赖,能够适用于各种复杂的街道场景数据。
3、本发明设计了双注意力融合机制,用于不同级别的语义特征的融合。一个局部注意力融合用于聚合不同分辨率的特征,另一个残差注意力融合用于聚合不同层次的特征。从而使点特征获取更强的表征能力,进一步提高最终的语义分割精度。
附图说明
图1为本发明的流程框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例
本实施例的流程示意图可见图1,具体操作过程如下:
1.实验城市道路点云下采样
利用移动激光扫描仪系统获取长约1000米的城市道路场景数据集。该数据集约包含80000000个点。通过手工标注的方式,将这些点划分为城市道路中常见的八种类别:地面、路标、植被、房屋、缆线、杆塔、汽车和栅栏。已知原始所有点为,先进行体素下采样减少点的数据量。本实施例中的移动激光扫描仪系统,由32线激光雷达传感器、Ladybug5全景相机、GNSS和SLAM组成。该系统每秒可在垂直视野-10°至+30°的范围内捕获约700000个点,精度优于3厘米。因此,将下采样的体素网格的大小/>设置为0.06米,并以体素网格中心代替网格内的点。根据以下公式可以得到每个点的网格划分:
使用体素下采样可以使点密度分布更加均匀,以及减少点数降低网络推理计算量,采样后的点云记为。然后,对点集/>根据空间坐标使用KD-Tree规则建立树/>用于邻近查询。对/>中的每个点使用树/>查询在/>中的最邻近点,并统一保存索引为投影文件/>。KD-Tree的建树和查询时间复杂度分别为O(nlogn)和O(n1/2),相比于直接排序的暴力搜索时间复杂度O(nlogn)速度更快。
2.构建网络输入
为了提高网络泛化能力和鲁棒性,在训练数据构建时额外增加噪声,对每个点随机增加或减少该点到中心点距离值的5%范围内的抖动。公式如下:
同时,对读入的训练和测试数据进行归一化操作,以减少数值范围变化过大对网络收敛情况的影响。归一化的计算公式如下:
3.训练网络与测试网络的停止条件设定
根据上述操作,采样后的点数约为40000000,并设置划分训练集和测试集的比例为3:1。训练集数据约30000000个点,每次读取65536个点,为了保证所有点被使用到,设置选取中心点数为500个。而测试集,需要对每个点多次预测来提高鲁棒性和准确性,停止条件设置为/>中最小的概率大于阈值2.5,即每个点至少预测3次。
4.训练基于图卷积和注意力融合的神经网络
将点集输入到编码器中,先使用多层感知机将三维坐标特征进行升维变换,本实施例中将输入的(65536,3)维张量映射成(65536,8)维。后续图卷积模块中,选取的邻近点数/>设为16。图卷积模块个数设为4次,依次变换维度[32, 128, 256, 512]。第一次图卷积运算的点特征维度为前一模块输出的特征维度,第二次图卷积运算的点特征维度为当前模块输出维度的1/2。两个点特征分别嵌入与自身相同维度的坐标特征,接着利用卷积核输出为与自身相同的新特征,并利用局部注意力融合模块聚合特征。接着,使用随机采样减少点数,下采样比例为[1/4, 1/4, 1/4, 1/4]。在本实施例中,卷积核选取为1D-CNN。通过计算得到编码特征/>,其维度为(256, 512)。
将使用多层感知机同维映射,然后输入到解码器中。利用编码器下层特征上采样学习注意力权重,按权重加成上层特征后,与解码器同层建立残差连接。最终,经过4次解码得到输出特征/>,其维度为(65536, 8)。
最后,经过一组维度变换为[64, 32, 32, 8]的全连接网络,并使用Softmax分类器实现分类。Softmax公式如下:
根据误差值计算损失,并使用梯度下降法优化网络。具体的网络超参数设置:网络训练100轮;每轮使用的中心点个数为500个;设置批次大小为4;学习率设为0.01,并采用指数衰减,每轮训练衰减5%;采用Adam优化方法;构建邻域个数设为16;损失函数设为交叉熵。
5、通过基于图卷积和注意力融合的神经网络进行语义分割预测
根据上述操作,将已经训练好的神经网络用于最终的测试。在测试集中,根据预设阈值决定推理的结束,阈值设为2.5,所以将对下采样的每个点进行最少三次的预测,为了更好利用多次预测结果,对所有点分别开辟一个(1, 8)维的张量记录预测结果。第i次预测与第i-1次预测表示为:
即第i次的预测结果为本次预测结果加上前一次的10%。最终,预测的标签结果为(1, 8)维张量中最大值对应的维度数值。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (6)
1.一种基于激光点云的城市道路场景语义分割方法,其特征在于,包括以下步骤:
步骤S1的具体过程为:
S3、训练基于图卷积和注意力融合的神经网络;
步骤S3的具体过程为:
S4、通过基于图卷积和注意力融合的神经网络进行语义分割预测。
2.如权利要求1所述的一种基于激光点云的城市道路场景语义分割方法,其特征在于,步骤S31的具体过程为:
S312、对于中心点及其邻近点集/>,将三维坐标信息嵌入到坐标特征内:/> = LBR(/> , /> , /> ,/>)其中,/>是坐标特征,/>是点/>的坐标,/>是点/>的坐标,/>是中心点与邻近点的偏移量,/>是点/>和点/>的欧式距离,LBR表示特征向量依次经过Linear层、BatchNorm层和ReLU层,将嵌入的坐标特征映射成与点特征相同的维度;
S313、将第次输入到图卷积模块的一组点特征表示为/>,连接邻域中每个点的坐标特征/>与点特征/>进行一次图卷积运算,计算中心点/>和其邻近点/>的边特征/>为: = ReLU(g(/>))其中,g表示卷积卷积核;
S315、将和/>使用局部注意力池化模块实现多分辨率特征聚合,其中,注意力分数计算公式为:/>则输出特征/>表示为:/> 其中,/>表示多层感知机,/>表示按通道连接,则/>是连接的结果,/>表示局部注意力分数,/>和/>分别表示按元素相乘和按元素相加,/>表示随机下采样,/>时需分别记录采样点的索引以及丢弃点的索引,/>表示该层的输出,即为下层的输入;
3.如权利要求2所述的一种基于激光点云的城市道路场景语义分割方法,其特征在于,步骤S32的具体过程为:
S322、将编码特征和/>,以及解码特征/>输入到残差注意力融合模块进行特征融合,下层解码特征计算为:/> 其中,/>表示残差注意力分数;/>表示最邻近上采样,/>使用/>时记录的丢弃点的索引找对应点,再寻找与下采样中的最邻近点作为自身的特征;/>表示残差连接特征;/>表示残差注意力融合模块的输出,即为下层的输入特征;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310359928.8A CN116071661B (zh) | 2023-04-06 | 2023-04-06 | 一种基于激光点云的城市道路场景语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310359928.8A CN116071661B (zh) | 2023-04-06 | 2023-04-06 | 一种基于激光点云的城市道路场景语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116071661A CN116071661A (zh) | 2023-05-05 |
CN116071661B true CN116071661B (zh) | 2023-06-23 |
Family
ID=86182316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310359928.8A Active CN116071661B (zh) | 2023-04-06 | 2023-04-06 | 一种基于激光点云的城市道路场景语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116071661B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449736A (zh) * | 2021-01-14 | 2021-09-28 | 浙江工业大学 | 一种基于深度学习的摄影测量点云语义分割方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110345952A (zh) * | 2019-07-09 | 2019-10-18 | 同济人工智能研究院(苏州)有限公司 | 一种序列化车道线地图构建方法及构建系统 |
US20220222824A1 (en) * | 2020-09-15 | 2022-07-14 | Sri International | Fully automated multimodal system architecture for semantic segmentation of large-scale 3d outdoor point cloud data |
CN115170950A (zh) * | 2022-06-21 | 2022-10-11 | 西安理工大学 | 基于多特征约束的室外场景建筑物提取方法 |
CN115424223A (zh) * | 2022-07-27 | 2022-12-02 | 浙江大华技术股份有限公司 | 图神经网络训练方法、点云特征提取方法、设备及介质 |
-
2023
- 2023-04-06 CN CN202310359928.8A patent/CN116071661B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449736A (zh) * | 2021-01-14 | 2021-09-28 | 浙江工业大学 | 一种基于深度学习的摄影测量点云语义分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116071661A (zh) | 2023-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679250B (zh) | 一种基于深度自编码卷积神经网络的多任务分层图像检索方法 | |
CN112766188B (zh) | 一种基于改进yolo算法的小目标行人检测方法 | |
CN111553201B (zh) | 一种基于YOLOv3优化算法的交通灯检测方法 | |
CN111898432B (zh) | 一种基于改进YOLOv3算法的行人检测系统及方法 | |
CN113516124B (zh) | 基于计算机视觉技术的电能表用电信息识别算法 | |
CN108986453A (zh) | 一种基于情境信息的交通状况预测方法、系统及装置 | |
CN112949338A (zh) | 深度学习与Hough变换结合的二维条码精确定位方法 | |
CN115223063B (zh) | 基于深度学习的无人机遥感小麦新品种倒伏面积提取方法及系统 | |
CN114283162A (zh) | 基于对比自监督学习的现实场景图像分割方法 | |
CN115424059A (zh) | 一种基于像素级对比学习的遥感土地利用分类方法 | |
CN115761735A (zh) | 一种基于自适应伪标签纠正的半监督语义分割方法 | |
CN112766136A (zh) | 一种基于深度学习的空间车位检测方法 | |
CN116824585A (zh) | 一种基于多级上下文特征融合网络的航空激光点云语义分割方法与装置 | |
CN116310350A (zh) | 基于图卷积和半监督学习网络的城市场景语义分割方法 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
Wang et al. | R2-trans: Fine-grained visual categorization with redundancy reduction | |
Zeng et al. | Multi-level context feature fusion for semantic segmentation of ALS point cloud | |
CN117523401A (zh) | 一种多模态遥感数据变化检测方法 | |
CN116071661B (zh) | 一种基于激光点云的城市道路场景语义分割方法 | |
CN115456238A (zh) | 一种基于动态多视图耦合图卷积的城市出行需求预测方法 | |
CN114332715A (zh) | 气象自动观测积雪识别方法、装置、设备及存储介质 | |
Xiwei et al. | Complex traffic scene image classification based on sparse optimization boundary semantics deep learning | |
Huang et al. | Improved small-object detection using YOLOv8: A comparative study | |
CN115050028B (zh) | 一种恶劣天气下小样本车牌检测方法 | |
CN118135405A (zh) | 基于自注意力机制的光学遥感影像道路提取方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |