CN117146841A - 一种基于激光雷达和双目视觉结合的语义地图构建方法 - Google Patents
一种基于激光雷达和双目视觉结合的语义地图构建方法 Download PDFInfo
- Publication number
- CN117146841A CN117146841A CN202310982907.1A CN202310982907A CN117146841A CN 117146841 A CN117146841 A CN 117146841A CN 202310982907 A CN202310982907 A CN 202310982907A CN 117146841 A CN117146841 A CN 117146841A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- semantic
- construction method
- laser radar
- semantic map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 29
- 230000011218 segmentation Effects 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 17
- 238000001914 filtration Methods 0.000 claims description 15
- 238000005516 engineering process Methods 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000012423 maintenance Methods 0.000 abstract description 2
- 238000000605 extraction Methods 0.000 abstract 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/343—Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
- G01C21/3819—Road shape data, e.g. outline of a route
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Electromagnetism (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及自动驾驶技术领域,具体为一种基于激光雷达和双目视觉结合的语义地图构建方法,包括数据获取,点云处理,语义分割,特征提取与匹配,构建语义地图,地图更新与维护;有益效果为:本发明提出的基于激光雷达和双目视觉结合的语义地图构建方法,结合激光雷达和双目视觉的优势,既能够获取丰富的语义信息,又能够提供准确的几何信息,实现更准确和完整的地图构建;通过语义分割和点云处理,能够去除噪声、分割物体,并建立点云和图像之间的对应关系,提高地图构建的准确性和一致性;随着环境的变化,能够实时更新语义地图,保持地图的实时性和可靠性。本发明可以应用于机器人领域的各种场景。
Description
技术领域
本发明涉及自动驾驶技术领域,具体为一种基于激光雷达和双目视觉结合的语义地图构建方法。
背景技术
语义地图是指在地图中加入语义信息,使得地图不仅仅是一个空间结构,而是能够表达出空间中各种语义信息的一种地图。在自动驾驶、智能机器人、元宇宙等领域,高精度的环境感知和地图构建是关键技术之一,主要应用于路径规划、SLAM(SimultaneousLocalization and Mapping)、物体检测和跟踪等,能帮助自主移动机器人、自动驾驶车辆等智能系统更好地理解和适应环境。
现有技术中,已经有许多研究者提出了各种各样的语义地图构建方法,其中最常用的是基于激光雷达的方法、基于视觉的方法。然而,这些方法都有各自的优点和缺点,基于激光雷达的方法主要利用激光雷达扫描获取环境中的三维点云数据,然后通过聚类、分割等算法将点云数据分离成不同的物体,并提取出物体的特征信息。
但是,由于激光雷达数据只能获取物体表面的信息,无法获取环境的语义信息,因此难以对复杂物体进行准确的识别和分类。
发明内容
本发明的目的在于提供一种基于激光雷达和双目视觉结合的语义地图构建方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于激光雷达和双目视觉结合的语义地图构建方法,所述语义地图构建方法包括以下步骤:
步骤1,数据获取,通过扫描设备上搭载的激光雷达扫描环境,获取环境中的三维点云数据;通过扫描设备上搭载的双目视觉系统获取环境中的图像数据;
步骤2,点云处理,对激光雷达获取的点云进行滤波、配准和分割处理,去除噪声并将点云分割为不同的物体;对于每个点,计算出位置、颜色信息,将点云数据转换成三维网格模型;
步骤3,语义分割,对双目图像进行语义分割,对于每张图像,提取出其中的特征点,并计算出位置和描述子,将图像中的物体分为不同的类别,并为每个像素赋予语义标签;
步骤4,特征提取与匹配,提取双目图像和点云中的特征,并进行特征匹配,建立点云和图像之间的对应关系,将步骤2中的点云数据和步骤3中的图像数据进行融合,得到综合的三维模型;
步骤5,构建语义地图,根据步骤4中得到的综合三维模型,构建语义地图;
步骤6,地图更新与维护,根据点云的几何信息,更新地图的拓扑结构和物体位置信息,不断更新语义地图,并根据新的数据进行地图的维护和优化。
优选的,将步骤2中的点云数据和步骤3中的图像数据进行融合时,对于每个物体,通过在点云数据和图像数据中的表现,进行语义分割和识别,利用深度学习技术,对物体进行分类、检测和跟踪。
优选的,构建语义地图后,将物体的位置、形状、属性信息,以节点的形式表示在地图中,利用图论技术,对地图进行分析和优化,以提高路径规划和任务执行的效率。
优选的,步骤2具体包括以下内容:
步骤2.1,点云滤波,使用体素滤波和统计滤波的方法对其进行滤波处理;
步骤2.2,点云配准和分割,在点三维点云中,采用基于区域生长的聚类方法进行点云聚类分割,将不同的物体分开;
步骤2.3,点信息计算,对于每个点,计算出位置、颜色信息,将点云数据转换成一个三维网格模型。
优选的,步骤3具体包括以下内容:
步骤3.1,图像预处理,通过图像去噪、直方图均衡化方法对图像进行预处理;
步骤3.2,图像中物体识别,采用深度学习技术对物体进行分类、检测和跟踪,以提高语义地图的精度和鲁棒性;
步骤3.3,语义分割,在物体识别的基础上,通过基于像素和区域的方式对图像进行语义分割,以将不同的物体分开。
优选的,步骤4具体包括以下内容:
步骤4.1,特征提取,对点云数据和图像数据分别进行特征提取,得到关键点、描述子特征信息;
步骤4.2,特征匹配,将点云数据和图像数据的特征进行匹配,以建立对应关系;
步骤4.3,特征融合,将匹配后的点云和图像数据进行融合,得到包含了环境的几何和语义信息的综合的三维模型;
步骤4.4,融合语义分割,对于每个物体,通过在点云数据和图像数据中的表现,进行加权语义分割和识别,利用深度学习技术,对物体进行分类、检测和跟踪。
与现有技术相比,本发明的有益效果是:
本发明提出的基于激光雷达和双目视觉结合的语义地图构建方法,结合激光雷达和双目视觉的优势,既能够获取丰富的语义信息,又能够提供准确的几何信息,实现更准确和完整的地图构建;通过语义分割和点云处理,能够去除噪声、分割物体,并建立点云和图像之间的对应关系,提高地图构建的准确性和一致性;随着环境的变化,能够实时更新语义地图,保持地图的实时性和可靠性。本发明可以应用于机器人领域的各种场景,如室内清洁、物流配送、医疗护理等,也可以应用于数字孪生、元宇宙场景的快速构建。
附图说明
图1为本发明方法流程图。
具体实施方式
为了使本发明的目的、技术方案进行清楚、完整地描述,及优点更加清楚明白,以下结合附图对本发明实施例进行进一步详细说明。应当理解,此处所描述的具体实施例是本发明一部分实施例,而不是全部的实施例,仅仅用以解释本发明实施例,并不用于限定本发明实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
请参阅图1,本发明提供一种技术方案:一种基于激光雷达和双目视觉结合的语义地图构建方法,具体包括以下步骤:
步骤1,数据获取。通过扫描设备上搭载的激光雷达扫描环境,获取环境中的三维点云数据;通过扫描设备上搭载的双目视觉系统获取环境中的图像数据;
步骤2,点云处理。对激光雷达获取的点云进行滤波、配准和分割处理,去除噪声并将点云分割为不同的物体;对于每个点,计算出它的位置、颜色等信息。将这些点云数据转换成一个三维网格模型;
步骤3,语义分割。对双目图像进行语义分割,对于每张图像,提取出其中的特征点,并计算出它们的位置和描述子,将图像中的物体分为不同的类别,并为每个像素赋予语义标签;
步骤4,特征提取与匹配。提取双目图像和点云中的特征,并进行特征匹配,建立点云和图像之间的对应关系。将步骤2中的点云数据和步骤3中的图像数据进行融合,得到一个综合的三维模型。对于每个物体,通过它在点云数据和图像数据中的表现,进行语义分割和识别。利用深度学习技术,对物体进行分类、检测和跟踪。
步骤5,构建语义地图。根据步骤4中得到的综合三维模型,构建语义地图。将物体的位置、形状、属性等信息,以节点的形式表示在地图中。利用图论技术,对地图进行分析和优化,以提高路径规划和任务执行的效率。;
步骤6,地图更新与维护。随着环境的变化,根据点云的几何信息,更新地图的拓扑结构和物体位置信息,不断更新语义地图,并根据新的数据进行地图的维护和优化。
进一步的,所述步骤2具体包括:
2.1,点云滤波。由于激光雷达扫描得到的点云数据中可能包含噪声、离群点等不必要的信息,使用体素滤波和统计滤波的方法对其进行滤波处理;
2.2,点云配准和分割。在点三维点云中,不同的物体通常会对应不同的聚类,采用基于区域生长的聚类方法进行点云聚类分割,将不同的物体分开;
2.3,点信息计算。对于每个点,计算出它的位置、颜色等信息,将这些点云数据转换成一个三维网格模型。
进一步的,所述步骤3具体包括:
3.1,图像预处理。由于图像中可能存在噪声、光照变化等不必要的信息,通过图像去噪、直方图均衡化等方法对其进行预处理;
3.2,图像中物体识别。采用深度学习技术对物体进行分类、检测和跟踪,以提高语义地图的精度和鲁棒性;
3.3,语义分割。在物体识别的基础上,通过基于像素和区域的方式对图像进行语义分割,以将不同的物体分开。
进一步的,所述步骤4具体包括:
4.1,特征提取。对点云数据和图像数据分别进行特征提取,得到它们的关键点、描述子等特征信息;
4.2,特征匹配。将点云数据和图像数据的特征进行匹配,以建立它们之间的对应关系;
4.3,特征融合。将匹配后的点云和图像数据进行融合,得到一张包含了环境的几何和语义信息的综合的三维模型;
4.4,融合语义分割。对于每个物体,通过它在点云数据和图像数据中的表现,进行加权语义分割和识别。利用深度学习技术,对物体进行分类、检测和跟踪。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (6)
1.一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:所述语义地图构建方法包括以下步骤:
步骤1,数据获取,通过扫描设备上搭载的激光雷达扫描环境,获取环境中的三维点云数据;通过扫描设备上搭载的双目视觉系统获取环境中的图像数据;
步骤2,点云处理,对激光雷达获取的点云进行滤波、配准和分割处理,去除噪声并将点云分割为不同的物体;对于每个点,计算出位置、颜色信息,将点云数据转换成三维网格模型;
步骤3,语义分割,对双目图像进行语义分割,对于每张图像,提取出其中的特征点,并计算出位置和描述子,将图像中的物体分为不同的类别,并为每个像素赋予语义标签;
步骤4,特征提取与匹配,提取双目图像和点云中的特征,并进行特征匹配,建立点云和图像之间的对应关系,将步骤2中的点云数据和步骤3中的图像数据进行融合,得到综合的三维模型;
步骤5,构建语义地图,根据步骤4中得到的综合三维模型,构建语义地图;
步骤6,地图更新与维护,根据点云的几何信息,更新地图的拓扑结构和物体位置信息,不断更新语义地图,并根据新的数据进行地图的维护和优化。
2.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:将步骤2中的点云数据和步骤3中的图像数据进行融合时,对于每个物体,通过在点云数据和图像数据中的表现,进行语义分割和识别,利用深度学习技术,对物体进行分类、检测和跟踪。
3.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:构建语义地图后,将物体的位置、形状、属性信息,以节点的形式表示在地图中,利用图论技术,对地图进行分析和优化,以提高路径规划和任务执行的效率。
4.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:步骤2具体包括以下内容:
步骤2.1,点云滤波,使用体素滤波和统计滤波的方法对其进行滤波处理;
步骤2.2,点云配准和分割,在点三维点云中,采用基于区域生长的聚类方法进行点云聚类分割,将不同的物体分开;
步骤2.3,点信息计算,对于每个点,计算出位置、颜色信息,将点云数据转换成一个三维网格模型。
5.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:步骤3具体包括以下内容:
步骤3.1,图像预处理,通过图像去噪、直方图均衡化方法对图像进行预处理;
步骤3.2,图像中物体识别,采用深度学习技术对物体进行分类、检测和跟踪,以提高语义地图的精度和鲁棒性;
步骤3.3,语义分割,在物体识别的基础上,通过基于像素和区域的方式对图像进行语义分割,以将不同的物体分开。
6.根据权利要求1所述的一种基于激光雷达和双目视觉结合的语义地图构建方法,其特征在于:步骤4具体包括以下内容:
步骤4.1,特征提取,对点云数据和图像数据分别进行特征提取,得到关键点、描述子特征信息;
步骤4.2,特征匹配,将点云数据和图像数据的特征进行匹配,以建立对应关系;
步骤4.3,特征融合,将匹配后的点云和图像数据进行融合,得到包含了环境的几何和语义信息的综合的三维模型;
步骤4.4,融合语义分割,对于每个物体,通过在点云数据和图像数据中的表现,进行加权语义分割和识别,利用深度学习技术,对物体进行分类、检测和跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310982907.1A CN117146841A (zh) | 2023-08-07 | 2023-08-07 | 一种基于激光雷达和双目视觉结合的语义地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310982907.1A CN117146841A (zh) | 2023-08-07 | 2023-08-07 | 一种基于激光雷达和双目视觉结合的语义地图构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117146841A true CN117146841A (zh) | 2023-12-01 |
Family
ID=88897782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310982907.1A Pending CN117146841A (zh) | 2023-08-07 | 2023-08-07 | 一种基于激光雷达和双目视觉结合的语义地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117146841A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611762A (zh) * | 2024-01-23 | 2024-02-27 | 常熟理工学院 | 一种多层级地图构建方法、系统及电子设备 |
-
2023
- 2023-08-07 CN CN202310982907.1A patent/CN117146841A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611762A (zh) * | 2024-01-23 | 2024-02-27 | 常熟理工学院 | 一种多层级地图构建方法、系统及电子设备 |
CN117611762B (zh) * | 2024-01-23 | 2024-04-30 | 常熟理工学院 | 一种多层级地图构建方法、系统及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
Zai et al. | 3-D road boundary extraction from mobile laser scanning data via supervoxels and graph cuts | |
CN111461245B (zh) | 一种融合点云和图像的轮式机器人语义建图方法及系统 | |
Sun et al. | Aerial 3D building detection and modeling from airborne LiDAR point clouds | |
CN110222626B (zh) | 一种基于深度学习算法的无人驾驶场景点云目标标注方法 | |
Nguyen et al. | 3D point cloud segmentation: A survey | |
Zhou et al. | Self‐supervised learning to visually detect terrain surfaces for autonomous robots operating in forested terrain | |
CN112288857A (zh) | 一种基于深度学习的机器人语义地图物体识别方法 | |
CN113408584B (zh) | Rgb-d多模态特征融合3d目标检测方法 | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
Kirchmaier et al. | A swarm intelligence inspired algorithm for contour detection in images | |
CN114492619B (zh) | 一种基于统计和凹凸性的点云数据集构建方法及装置 | |
CN117146841A (zh) | 一种基于激光雷达和双目视觉结合的语义地图构建方法 | |
Lin et al. | CNN-based classification for point cloud object with bearing angle image | |
Zhang et al. | Detection and tracking of human track and field motion targets based on deep learning | |
CN113936210A (zh) | 塔吊防撞方法 | |
CN115019163A (zh) | 基于多源大数据的城市要素识别方法 | |
CN116664851A (zh) | 一种基于人工智能的自动驾驶数据提取方法 | |
Guo et al. | Digital transformation for intelligent road condition assessment | |
CN114359493B (zh) | 一种用于无人船生成三维语义地图的方法和系统 | |
CN116563310A (zh) | 点云分割方法、装置、设备及存储介质 | |
CN113256581B (zh) | 基于视觉注意建模融合的缺陷样本自动标注方法及系统 | |
CN109903386A (zh) | 一种室内点云地图自动生成系统 | |
CN111783580B (zh) | 基于人腿检测的行人识别方法 | |
Xu et al. | Identification of street trees’ main nonphotosynthetic components from mobile laser scanning data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |