CN117146841A - 一种基于激光雷达和双目视觉结合的语义地图构建方法 - Google Patents

一种基于激光雷达和双目视觉结合的语义地图构建方法 Download PDF

Info

Publication number
CN117146841A
CN117146841A CN202310982907.1A CN202310982907A CN117146841A CN 117146841 A CN117146841 A CN 117146841A CN 202310982907 A CN202310982907 A CN 202310982907A CN 117146841 A CN117146841 A CN 117146841A
Authority
CN
China
Prior art keywords
point cloud
semantic
construction method
laser radar
semantic map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310982907.1A
Other languages
English (en)
Inventor
郭运艳
秦雪娇
仝其胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Inspur Science Research Institute Co Ltd
Original Assignee
Shandong Inspur Science Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Inspur Science Research Institute Co Ltd filed Critical Shandong Inspur Science Research Institute Co Ltd
Priority to CN202310982907.1A priority Critical patent/CN117146841A/zh
Publication of CN117146841A publication Critical patent/CN117146841A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3819Road shape data, e.g. outline of a route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及自动驾驶技术领域,具体为一种基于激光雷达和双目视觉结合的语义地图构建方法,包括数据获取,点云处理,语义分割,特征提取与匹配,构建语义地图,地图更新与维护;有益效果为:本发明提出的基于激光雷达和双目视觉结合的语义地图构建方法,结合激光雷达和双目视觉的优势,既能够获取丰富的语义信息,又能够提供准确的几何信息,实现更准确和完整的地图构建;通过语义分割和点云处理,能够去除噪声、分割物体,并建立点云和图像之间的对应关系,提高地图构建的准确性和一致性;随着环境的变化,能够实时更新语义地图,保持地图的实时性和可靠性。本发明可以应用于机器人领域的各种场景。

Description

一种基于激光雷达和双目视觉结合的语义地图构建方法
技术领域
本发明涉及自动驾驶技术领域,具体为一种基于激光雷达和双目视觉结合的语义地图构建方法。
背景技术
语义地图是指在地图中加入语义信息,使得地图不仅仅是一个空间结构,而是能够表达出空间中各种语义信息的一种地图。在自动驾驶、智能机器人、元宇宙等领域,高精度的环境感知和地图构建是关键技术之一,主要应用于路径规划、SLAM(SimultaneousLocalization and Mapping)、物体检测和跟踪等,能帮助自主移动机器人、自动驾驶车辆等智能系统更好地理解和适应环境。
现有技术中,已经有许多研究者提出了各种各样的语义地图构建方法,其中最常用的是基于激光雷达的方法、基于视觉的方法。然而,这些方法都有各自的优点和缺点,基于激光雷达的方法主要利用激光雷达扫描获取环境中的三维点云数据,然后通过聚类、分割等算法将点云数据分离成不同的物体,并提取出物体的特征信息。
但是,由于激光雷达数据只能获取物体表面的信息,无法获取环境的语义信息,因此难以对复杂物体进行准确的识别和分类。
发明内容
本发明的目的在于提供一种基于激光雷达和双目视觉结合的语义地图构建方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于激光雷达和双目视觉结合的语义地图构建方法,所述语义地图构建方法包括以下步骤:
步骤1,数据获取,通过扫描设备上搭载的激光雷达扫描环境,获取环境中的三维点云数据;通过扫描设备上搭载的双目视觉系统获取环境中的图像数据;
步骤2,点云处理,对激光雷达获取的点云进行滤波、配准和分割处理,去除噪声并将点云分割为不同的物体;对于每个点,计算出位置、颜色信息,将点云数据转换成三维网格模型;
步骤3,语义分割,对双目图像进行语义分割,对于每张图像,提取出其中的特征点,并计算出位置和描述子,将图像中的物体分为不同的类别,并为每个像素赋予语义标签;
步骤4,特征提取与匹配,提取双目图像和点云中的特征,并进行特征匹配,建立点云和图像之间的对应关系,将步骤2中的点云数据和步骤3中的图像数据进行融合,得到综合的三维模型;
步骤5,构建语义地图,根据步骤4中得到的综合三维模型,构建语义地图;
步骤6,地图更新与维护,根据点云的几何信息,更新地图的拓扑结构和物体位置信息,不断更新语义地图,并根据新的数据进行地图的维护和优化。
优选的,将步骤2中的点云数据和步骤3中的图像数据进行融合时,对于每个物体,通过在点云数据和图像数据中的表现,进行语义分割和识别,利用深度学习技术,对物体进行分类、检测和跟踪。
优选的,构建语义地图后,将物体的位置、形状、属性信息,以节点的形式表示在地图中,利用图论技术,对地图进行分析和优化,以提高路径规划和任务执行的效率。
优选的,步骤2具体包括以下内容:
步骤2.1,点云滤波,使用体素滤波和统计滤波的方法对其进行滤波处理;
步骤2.2,点云配准和分割,在点三维点云中,采用基于区域生长的聚类方法进行点云聚类分割,将不同的物体分开;
步骤2.3,点信息计算,对于每个点,计算出位置、颜色信息,将点云数据转换成一个三维网格模型。
优选的,步骤3具体包括以下内容:
步骤3.1,图像预处理,通过图像去噪、直方图均衡化方法对图像进行预处理;
步骤3.2,图像中物体识别,采用深度学习技术对物体进行分类、检测和跟踪,以提高语义地图的精度和鲁棒性;
步骤3.3,语义分割,在物体识别的基础上,通过基于像素和区域的方式对图像进行语义分割,以将不同的物体分开。
优选的,步骤4具体包括以下内容:
步骤4.1,特征提取,对点云数据和图像数据分别进行特征提取,得到关键点、描述子特征信息;
步骤4.2,特征匹配,将点云数据和图像数据的特征进行匹配,以建立对应关系;
步骤4.3,特征融合,将匹配后的点云和图像数据进行融合,得到包含了环境的几何和语义信息的综合的三维模型;
步骤4.4,融合语义分割,对于每个物体,通过在点云数据和图像数据中的表现,进行加权语义分割和识别,利用深度学习技术,对物体进行分类、检测和跟踪。
与现有技术相比,本发明的有益效果是:
本发明提出的基于激光雷达和双目视觉结合的语义地图构建方法,结合激光雷达和双目视觉的优势,既能够获取丰富的语义信息,又能够提供准确的几何信息,实现更准确和完整的地图构建;通过语义分割和点云处理,能够去除噪声、分割物体,并建立点云和图像之间的对应关系,提高地图构建的准确性和一致性;随着环境的变化,能够实时更新语义地图,保持地图的实时性和可靠性。本发明可以应用于机器人领域的各种场景,如室内清洁、物流配送、医疗护理等,也可以应用于数字孪生、元宇宙场景的快速构建。
附图说明
图1为本发明方法流程图。
具体实施方式
为了使本发明的目的、技术方案进行清楚、完整地描述,及优点更加清楚明白,以下结合附图对本发明实施例进行进一步详细说明。应当理解,此处所描述的具体实施例是本发明一部分实施例,而不是全部的实施例,仅仅用以解释本发明实施例,并不用于限定本发明实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
请参阅图1,本发明提供一种技术方案:一种基于激光雷达和双目视觉结合的语义地图构建方法,具体包括以下步骤:
步骤1,数据获取。通过扫描设备上搭载的激光雷达扫描环境,获取环境中的三维点云数据;通过扫描设备上搭载的双目视觉系统获取环境中的图像数据;
步骤2,点云处理。对激光雷达获取的点云进行滤波、配准和分割处理,去除噪声并将点云分割为不同的物体;对于每个点,计算出它的位置、颜色等信息。将这些点云数据转换成一个三维网格模型;
步骤3,语义分割。对双目图像进行语义分割,对于每张图像,提取出其中的特征点,并计算出它们的位置和描述子,将图像中的物体分为不同的类别,并为每个像素赋予语义标签;
步骤4,特征提取与匹配。提取双目图像和点云中的特征,并进行特征匹配,建立点云和图像之间的对应关系。将步骤2中的点云数据和步骤3中的图像数据进行融合,得到一个综合的三维模型。对于每个物体,通过它在点云数据和图像数据中的表现,进行语义分割和识别。利用深度学习技术,对物体进行分类、检测和跟踪。
步骤5,构建语义地图。根据步骤4中得到的综合三维模型,构建语义地图。将物体的位置、形状、属性等信息,以节点的形式表示在地图中。利用图论技术,对地图进行分析和优化,以提高路径规划和任务执行的效率。;
步骤6,地图更新与维护。随着环境的变化,根据点云的几何信息,更新地图的拓扑结构和物体位置信息,不断更新语义地图,并根据新的数据进行地图的维护和优化。
进一步的,所述步骤2具体包括:
2.1,点云滤波。由于激光雷达扫描得到的点云数据中可能包含噪声、离群点等不必要的信息,使用体素滤波和统计滤波的方法对其进行滤波处理;
2.2,点云配准和分割。在点三维点云中,不同的物体通常会对应不同的聚类,采用基于区域生长的聚类方法进行点云聚类分割,将不同的物体分开;
2.3,点信息计算。对于每个点,计算出它的位置、颜色等信息,将这些点云数据转换成一个三维网格模型。
进一步的,所述步骤3具体包括:
3.1,图像预处理。由于图像中可能存在噪声、光照变化等不必要的信息,通过图像去噪、直方图均衡化等方法对其进行预处理;
3.2,图像中物体识别。采用深度学习技术对物体进行分类、检测和跟踪,以提高语义地图的精度和鲁棒性;
3.3,语义分割。在物体识别的基础上,通过基于像素和区域的方式对图像进行语义分割,以将不同的物体分开。
进一步的,所述步骤4具体包括:
4.1,特征提取。对点云数据和图像数据分别进行特征提取,得到它们的关键点、描述子等特征信息;
4.2,特征匹配。将点云数据和图像数据的特征进行匹配,以建立它们之间的对应关系;
4.3,特征融合。将匹配后的点云和图像数据进行融合,得到一张包含了环境的几何和语义信息的综合的三维模型;
4.4,融合语义分割。对于每个物体,通过它在点云数据和图像数据中的表现,进行加权语义分割和识别。利用深度学习技术,对物体进行分类、检测和跟踪。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (6)

1.一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:所述语义地图构建方法包括以下步骤:
步骤1,数据获取,通过扫描设备上搭载的激光雷达扫描环境,获取环境中的三维点云数据;通过扫描设备上搭载的双目视觉系统获取环境中的图像数据;
步骤2,点云处理,对激光雷达获取的点云进行滤波、配准和分割处理,去除噪声并将点云分割为不同的物体;对于每个点,计算出位置、颜色信息,将点云数据转换成三维网格模型;
步骤3,语义分割,对双目图像进行语义分割,对于每张图像,提取出其中的特征点,并计算出位置和描述子,将图像中的物体分为不同的类别,并为每个像素赋予语义标签;
步骤4,特征提取与匹配,提取双目图像和点云中的特征,并进行特征匹配,建立点云和图像之间的对应关系,将步骤2中的点云数据和步骤3中的图像数据进行融合,得到综合的三维模型;
步骤5,构建语义地图,根据步骤4中得到的综合三维模型,构建语义地图;
步骤6,地图更新与维护,根据点云的几何信息,更新地图的拓扑结构和物体位置信息,不断更新语义地图,并根据新的数据进行地图的维护和优化。
2.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:将步骤2中的点云数据和步骤3中的图像数据进行融合时,对于每个物体,通过在点云数据和图像数据中的表现,进行语义分割和识别,利用深度学习技术,对物体进行分类、检测和跟踪。
3.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:构建语义地图后,将物体的位置、形状、属性信息,以节点的形式表示在地图中,利用图论技术,对地图进行分析和优化,以提高路径规划和任务执行的效率。
4.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:步骤2具体包括以下内容:
步骤2.1,点云滤波,使用体素滤波和统计滤波的方法对其进行滤波处理;
步骤2.2,点云配准和分割,在点三维点云中,采用基于区域生长的聚类方法进行点云聚类分割,将不同的物体分开;
步骤2.3,点信息计算,对于每个点,计算出位置、颜色信息,将点云数据转换成一个三维网格模型。
5.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:步骤3具体包括以下内容:
步骤3.1,图像预处理,通过图像去噪、直方图均衡化方法对图像进行预处理;
步骤3.2,图像中物体识别,采用深度学习技术对物体进行分类、检测和跟踪,以提高语义地图的精度和鲁棒性;
步骤3.3,语义分割,在物体识别的基础上,通过基于像素和区域的方式对图像进行语义分割,以将不同的物体分开。
6.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:步骤4具体包括以下内容:
步骤4.1,特征提取,对点云数据和图像数据分别进行特征提取,得到关键点、描述子特征信息;
步骤4.2,特征匹配,将点云数据和图像数据的特征进行匹配,以建立对应关系;
步骤4.3,特征融合,将匹配后的点云和图像数据进行融合,得到包含了环境的几何和语义信息的综合的三维模型;
步骤4.4,融合语义分割,对于每个物体,通过在点云数据和图像数据中的表现,进行加权语义分割和识别,利用深度学习技术,对物体进行分类、检测和跟踪。
CN202310982907.1A 2023-08-07 2023-08-07 一种基于激光雷达和双目视觉结合的语义地图构建方法 Pending CN117146841A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310982907.1A CN117146841A (zh) 2023-08-07 2023-08-07 一种基于激光雷达和双目视觉结合的语义地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310982907.1A CN117146841A (zh) 2023-08-07 2023-08-07 一种基于激光雷达和双目视觉结合的语义地图构建方法

Publications (1)

Publication Number Publication Date
CN117146841A true CN117146841A (zh) 2023-12-01

Family

ID=88897782

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310982907.1A Pending CN117146841A (zh) 2023-08-07 2023-08-07 一种基于激光雷达和双目视觉结合的语义地图构建方法

Country Status (1)

Country Link
CN (1) CN117146841A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611762A (zh) * 2024-01-23 2024-02-27 常熟理工学院 一种多层级地图构建方法、系统及电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611762A (zh) * 2024-01-23 2024-02-27 常熟理工学院 一种多层级地图构建方法、系统及电子设备
CN117611762B (zh) * 2024-01-23 2024-04-30 常熟理工学院 一种多层级地图构建方法、系统及电子设备

Similar Documents

Publication Publication Date Title
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
Zai et al. 3-D road boundary extraction from mobile laser scanning data via supervoxels and graph cuts
CN111461245B (zh) 一种融合点云和图像的轮式机器人语义建图方法及系统
Sun et al. Aerial 3D building detection and modeling from airborne LiDAR point clouds
CN110222626B (zh) 一种基于深度学习算法的无人驾驶场景点云目标标注方法
Nguyen et al. 3D point cloud segmentation: A survey
Zhou et al. Self‐supervised learning to visually detect terrain surfaces for autonomous robots operating in forested terrain
CN112288857A (zh) 一种基于深度学习的机器人语义地图物体识别方法
CN113408584B (zh) Rgb-d多模态特征融合3d目标检测方法
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
Kirchmaier et al. A swarm intelligence inspired algorithm for contour detection in images
CN114492619B (zh) 一种基于统计和凹凸性的点云数据集构建方法及装置
CN117146841A (zh) 一种基于激光雷达和双目视觉结合的语义地图构建方法
Lin et al. CNN-based classification for point cloud object with bearing angle image
Zhang et al. Detection and tracking of human track and field motion targets based on deep learning
CN113936210A (zh) 塔吊防撞方法
CN115019163A (zh) 基于多源大数据的城市要素识别方法
CN116664851A (zh) 一种基于人工智能的自动驾驶数据提取方法
Guo et al. Digital transformation for intelligent road condition assessment
CN114359493B (zh) 一种用于无人船生成三维语义地图的方法和系统
CN116563310A (zh) 点云分割方法、装置、设备及存储介质
CN113256581B (zh) 基于视觉注意建模融合的缺陷样本自动标注方法及系统
CN109903386A (zh) 一种室内点云地图自动生成系统
CN111783580B (zh) 基于人腿检测的行人识别方法
Xu et al. Identification of street trees’ main nonphotosynthetic components from mobile laser scanning data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination