CN113674355A - 一种基于相机与激光雷达的目标识别与定位方法 - Google Patents
一种基于相机与激光雷达的目标识别与定位方法 Download PDFInfo
- Publication number
- CN113674355A CN113674355A CN202110762668.XA CN202110762668A CN113674355A CN 113674355 A CN113674355 A CN 113674355A CN 202110762668 A CN202110762668 A CN 202110762668A CN 113674355 A CN113674355 A CN 113674355A
- Authority
- CN
- China
- Prior art keywords
- target
- point cloud
- point
- image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000006243 chemical reaction Methods 0.000 claims abstract description 7
- 238000013135 deep learning Methods 0.000 claims abstract description 7
- 230000011218 segmentation Effects 0.000 claims abstract description 5
- 230000004807 localization Effects 0.000 claims description 5
- 238000012360 testing method Methods 0.000 description 14
- 238000002474 experimental method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 241000219470 Mirabilis Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 231100000817 safety factor Toxicity 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Electromagnetism (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种基于相机与激光雷达的目标识别与定位方法,首先通过激光雷达获取目标点云数据;对获取的点云数据进行目标聚类分割,得到原始聚类点云;通过相机获取目标的像素信息;基于深度学习算法对目标进行识别,获取目标的像素位置;通过激光雷达和相机联合标定,建立激光雷达坐标系下点云坐标点到图像像素坐标系下像点的转换关系;最后将所述原始聚类点云转换到图像像素坐标系下,与目标识别框中心像素坐标进行比较,得到目标聚类点云,完成目标识别与定位。本发明能够在识别目标的同时对目标进行定位,准确性高。
Description
技术领域
本发明涉及目标识别与定位的技术领域,具体涉及一种基于相机与激光雷达的目标识别与定位方法。
背景技术
现有的技术中,班组伴随机器人人员跟随技术发展尚不成熟,有的只侧重于识别算法,有的只侧重于定位算法,例如基于无线通信、牵引绳及其他特殊设备的方法,主要存在以下问题:
1、难以有效识别与定位。对于采用特殊设备进行引导目标定位的方法,在运行过程中,仅能得到目标的位置,而无法得知当前引导目标的类别。对于依靠相机进行目标识别的算法,在位置解析上存在较大偏差,不能保证定位的精度。
2、安全因素。基于无线通信的方法受电磁干扰影响较大,因此实时传输目标定位的方式易丢失目标位置或解析错误,存在较大安全隐患;依靠牵引绳这类方法,由于牵引绳的限制,无法保证能有效通过所有地形路段,易造成安全事故。
3、便捷性不佳。依靠特殊设备对引导人员进行定位的方法,均对引导人员携带装备有较大限制,造成极大的不便,同时也对引导人员进行了较大约束,有违设计初衷。
现有的目标识别与定位算法在动态环境中需要长时间对目标进行运算以保证目标识别与定位成功率。
发明内容
有鉴于此,本发明提供了一种基于相机与激光雷达的目标识别与定位方法,能够在识别目标的同时对目标进行定位,准确性高。
本发明采用的技术方案如下:
一种基于相机与激光雷达的目标识别与定位方法,方法步骤如下:
步骤1:通过激光雷达获取目标点云数据;
步骤2:对获取的点云数据进行目标聚类分割,得到原始聚类点云;
步骤3:通过相机获取目标的像素信息;
步骤4:基于深度学习算法对目标进行识别,获取目标的像素位置;
步骤5:通过激光雷达和相机联合标定,建立激光雷达坐标系下点云坐标点到图像像素坐标系下像点的转换关系;
步骤6:将所述原始聚类点云转换到图像像素坐标系下,与目标识别框中心像素坐标进行比较,得到目标聚类点云,完成目标识别与定位。
进一步地,步骤6中得到目标聚类点云的具体方法如下:
将投影转换到图像像素坐标系下且位于目标识别框内的坐标点作为目标范围点云;
利用欧式聚类算法将所述目标范围点云数据分割为多个聚类点云;
将多个聚类点云的中心点转换为图像坐标系下的像点,再依次计算所有聚类点云中心的像点与目标识别框中心像点的距离,得到距离最短的聚类点云中心像点,该聚类点云即为目标聚类点云。
进一步地,确定目标聚类点云之后还包括:
将目标聚类点云中的所有点云数据通过坐标转换求出与之对应的图像像素坐标系中的像点,再依次计算所有像点与目标识别框中心像点的距离,得到距离的最小值,该值对应的坐标点即为目标的位置。
进一步地,所述深度学习算法采用YOLOv3算法。
进一步地,所述目标识别与定位方法搭载在MLU100 D2芯片上。
有益效果:
1、本发明通过激光雷达和相机联合标定,建立激光雷达坐标系下点云坐标点到图像像素坐标系下像点的转换关系,在联合标定的支持下,将原始聚类点云转换到图像像素坐标系下,与目标识别框中心像素坐标进行比较,得到目标聚类点云,完成目标识别与定位,在识别目标的同时对目标进行定位;
本发明不依赖辅助传感器,仅通过机器人主流传感器激光雷达与相机实现识别与定位功能;其次,本发明单帧目标处理识别与定位准确率高,在连续视频拆分为单帧进行处理时就能保证目标识别与定位的准确性。
2、本发明求解出目标点云聚类中与目标人员所对应的点的位置,能够避免目标人员与周围物体贴近时目标人员的位置出现极大偏差,提高定位的精确性。
3、本发明使用YOLOv3算法进行目标识别,该算法在识别速度上有着较大的优势,在硬件配置较低时也能基本满足实时性的需求。
4、现有的目标识别技术大都基于NVIDIA GPU进行图像处理运算,本算法使用搭载MLU100 D2芯片实现目标识别,实现了目标识别模块国产化。
附图说明
图1为本发明流程图。
图2为目标聚类点云的提取流程图。
图3为目标位置提取流程图。
图4为测试实验平台组成模块示意图。
图5为自主导航系统软件架构示意图。
图6为集成方案。
图7为实施例整体流程示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种基于相机与激光雷达的目标识别与定位方法,如图1所示,方法步骤如下:
步骤1:通过激光雷达获取目标点云数据;
步骤2:对获取的点云数据进行目标聚类分割,得到原始聚类点云;
步骤3:通过相机获取目标的像素信息;
步骤4:基于深度学习算法对目标进行识别,获取目标的像素位置;本实施例中深度学习算法采用YOLOv3算法;
步骤5:通过激光雷达和相机联合标定,建立激光雷达坐标系下点云坐标点到图像像素坐标系下像点的转换关系;
步骤6:将所述原始聚类点云转换到图像像素坐标系下,与YOLOv3目标识别框中心像素坐标进行比较,得到目标聚类点云,完成目标识别与定位。
其中,如图2所示,得到目标聚类点云的具体方法如下:
步骤601,提取目标范围点云:通过将原始点云数据投影到图像像素坐标系下,投影点落在目标识别框(基于YOLOv3的目标识别标出的目标识别框)内部的三维坐标点组成可能包含目标位置的点云,作为目标范围点云;
步骤602,对点云数据进行聚类分割:利用欧式聚类算法将所述目标范围点云数据分割为多个聚类点云;
步骤603,求解最近聚类中心得出目标聚类点云:将多个聚类点云的中心点转换为图像坐标系下的像点,再依次计算所有聚类点云中心的像点与目标识别框中心像点的距离,得到距离最短的聚类点云中心像点,该聚类点云即为目标聚类点云。
在实际环境中,极有可能出现目标人员与周围物体贴近的情况,如实验室中,目标人员与桌子靠在一起,实车环境中,目标人员与周围草堆、巨石太近。在这种情况下,若以目标点云聚类的中心点三维坐标表示目标人员的位置则会出现极大地偏差,因此,还需要求解出目标点云聚类中与目标人员所对应的点的位置。如图3所示,将目标聚类点云中的所有点云数据通过坐标转换求出与之对应的图像像素坐标系中的像点,再依次计算所有像点与目标识别框中心像点的距离,得到距离的最小值,该值对应的坐标点即为目标的位置。
如图4所示,基于地面无人机动系统的测试实验平台用于采集地面无人平台实际运行环境中的相关数据,为实验测试提供原始数据。该平台由操控单元、自主导航系统和地面机动平台组成。其中,自主导航系统承载于地面机动平台上,而操控单元则独立部署,操作人员通过操控单元与测试实验平台进行交互。操控单元由远程操控单元与近程操控单元组成。其中,远程操控单元基于加固型计算机构建,通过无线网络通信设备与测试实验平台链接;利用部署在计算机上的操控软件,实现平台状态监视、遥控操控及自主作业任务管理等功能。地面机动平台采用轮式电驱动方案,动力源采用高密度锂电池,总体布置采用分层隔舱化设计,下层布置动力电池、驱动电机及驱动控制设备;中层布置计算设备和网络设备;上层布置传感器设备和通信设备。自主导航系统是测试实验平台的核心,如图5所示,主要由环境感知设备、定位定向设备、网络设备、数据存储设备、计算设备及控制系统软件等组成。按照功能划分,主要包括环境感知、目标识别与定位、局部路径规划、路径跟踪控制、数据采集等模块组成,支撑平台自主作业。其中的目标识别与定位采用的即为本发明的方法。
本实验测试方案采用当前无人车的自主控制计算机与搭载国产智能加速卡的计算机相结合的方式,总体集成方案如图6所示。借助国产智能加速卡的并行运算能力(类似Nvidia的CUDA),使用移植的YOLOv3算法进行目标识别与定位,并输出目标边界框的像素坐标,然后发送到自主控制计算机。自主控制计算机的CPU负责将激光雷达采集的点云数据进行聚类,然后结合已接收目标中心点像素信息,与点云数据进行融合获取已识别目标中心的位置,即实现目标定位。为可视化目标识别与定位算法效果,将国产自主控制计算机获取的激光雷达坐标系统下的目标中心点坐标发送到国产智能加速卡计算机,然后投影到像素坐标系并绘制深度信息于图片上并输出。无人车自主导航系统的其他模块均在自主控制计算机上运行,两台计算机采用Dnet的以太网(TCP)通信方式,使用本发明提出的基于相机与激光雷达的目标识别与定位方法构建目标识别与定位模块。基于国产智能加速卡的计算机发布目标像素坐标信息(k,x,y,h,w),分别表示目标编号、识别框中心点坐标、识别框的高和宽,VLP16激光雷达模块发布三维点云信息,目标识别与定位模块订阅以上两组信息,整体流程如图7所示。结合目标的像素信息与点云信息,可以输出目标中心点在激光雷达坐标系下的三维坐标。
本应用实施例中,实验平台采用youbot机器人,youbot移动机器人平台由KUKA公司研制,底盘为四轮移动平台。在该平台部署基于国产芯片的智能计算机、自主控制计算机、VLP-16激光雷达、相机以及其他自主导航相关的传感器。其中,基于国产芯片的智能计算机配置见表1,寒武纪MLU100 D2芯片性能参数见表2。通过测试,基于YOLOv3的目标识别与定位方法在搭载国产智能芯片的计算机上识别速率为21帧/s,基于激光雷达的目标定位的帧率为20帧/s,因此算法工作速率由较低的决定,为20帧/s。
表1基于国产芯片的智能计算机配置
表2寒武纪MLU100 D2芯片性能参数
为测试算法定位准确率,本应用实施例分别进行了不同距离单目标静态测试、不同距离多目标静态测试和动态测试,不同距离单/多目标静态测试的距离设置分别为2m,3m,4m,5m,6m,动态测试将目标的活动范围限制在车前方6m范围内。通过实验得出本发明的准确率随距离的增加逐渐降低,有效检测范围为6m,静态条件下定位准确率在90%以上,在无遮挡条件下几乎不受目标数量的影响,但在机器人平台移动时,定位准确率有明显下降,受影响较大。
由此可见,本发明与现有的目标识别和目标定位算法相比,有以下优点:
(1)模块组成单一可靠:现有目标识别与定位算法对各类辅助传感器依赖较强,靠主流传感器很难保证识别与定位的准确性。本发明不依赖辅助传感器,仅通过机器人主流传感器激光雷达与相机实现识别与定位功能;
(2)能在识别目标的同时对目标进行定位:现有的目标识别与目标定位算法只是针对目标识别或目标定位某一项进行处理;
(3)识别模块国产化:现有的目标识别技术大都基于NVIDIA GPU进行图像处理运算,本发明使用寒武纪MLU100 D2芯片实现目标识别,实现目标识别模块国产化。
(4)单帧目标处理识别与定位准确率高:现有的目标识别与定位算法在动态环境中需要长时间对目标进行运算以保证目标识别与定位成功率,本发明将连续视频拆分为单帧进行处理时就能保证目标识别与定位的准确性。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于相机与激光雷达的目标识别与定位方法,其特征在于,方法步骤如下:
步骤1:通过激光雷达获取目标点云数据;
步骤2:对获取的点云数据进行目标聚类分割,得到原始聚类点云;
步骤3:通过相机获取目标的像素信息;
步骤4:基于深度学习算法对目标进行识别,获取目标的像素位置;
步骤5:通过激光雷达和相机联合标定,建立激光雷达坐标系下点云坐标点到图像像素坐标系下像点的转换关系;
步骤6:将所述原始聚类点云转换到图像像素坐标系下,与目标识别框中心像素坐标进行比较,得到目标聚类点云,完成目标识别与定位。
2.如权利要求1所述的基于相机与激光雷达的目标识别与定位方法,其特征在于,步骤6中得到目标聚类点云的具体方法如下:
将投影转换到图像像素坐标系下且位于目标识别框内的坐标点作为目标范围点云;
利用欧式聚类算法将所述目标范围点云数据分割为多个聚类点云;
将多个聚类点云的中心点转换为图像坐标系下的像点,再依次计算所有聚类点云中心的像点与目标识别框中心像点的距离,得到距离最短的聚类点云中心像点,该聚类点云即为目标聚类点云。
3.如权利要求2所述的基于相机与激光雷达的目标识别与定位方法,其特征在于,确定目标聚类点云之后还包括:
将目标聚类点云中的所有点云数据通过坐标转换求出与之对应的图像像素坐标系中的像点,再依次计算所有像点与目标识别框中心像点的距离,得到距离的最小值,该值对应的坐标点即为目标的位置。
4.如权利要求1-3任一项所述的基于相机与激光雷达的目标识别与定位方法,其特征在于,所述深度学习算法采用YOLOv3算法。
5.如权利要求4所述的基于相机与激光雷达的目标识别与定位方法,其特征在于,所述目标识别与定位方法搭载在MLU100 D2芯片上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110762668.XA CN113674355A (zh) | 2021-07-06 | 2021-07-06 | 一种基于相机与激光雷达的目标识别与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110762668.XA CN113674355A (zh) | 2021-07-06 | 2021-07-06 | 一种基于相机与激光雷达的目标识别与定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113674355A true CN113674355A (zh) | 2021-11-19 |
Family
ID=78538614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110762668.XA Pending CN113674355A (zh) | 2021-07-06 | 2021-07-06 | 一种基于相机与激光雷达的目标识别与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113674355A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114442101A (zh) * | 2022-01-28 | 2022-05-06 | 南京慧尔视智能科技有限公司 | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 |
CN114879153A (zh) * | 2022-06-08 | 2022-08-09 | 中国第一汽车股份有限公司 | 雷达参数的标定方法、装置和车辆 |
CN116503821A (zh) * | 2023-06-19 | 2023-07-28 | 成都经开地理信息勘测设计院有限公司 | 基于点云数据和图像识别的道路标识识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018071973A (ja) * | 2016-10-24 | 2018-05-10 | 日本電信電話株式会社 | 路面凹凸量推定装置、方法、及びプログラム |
CN110246159A (zh) * | 2019-06-14 | 2019-09-17 | 湖南大学 | 基于视觉和雷达信息融合的3d目标运动分析方法 |
CN110244322A (zh) * | 2019-06-28 | 2019-09-17 | 东南大学 | 基于多源传感器的路面施工机器人环境感知系统及方法 |
-
2021
- 2021-07-06 CN CN202110762668.XA patent/CN113674355A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018071973A (ja) * | 2016-10-24 | 2018-05-10 | 日本電信電話株式会社 | 路面凹凸量推定装置、方法、及びプログラム |
CN110246159A (zh) * | 2019-06-14 | 2019-09-17 | 湖南大学 | 基于视觉和雷达信息融合的3d目标运动分析方法 |
CN110244322A (zh) * | 2019-06-28 | 2019-09-17 | 东南大学 | 基于多源传感器的路面施工机器人环境感知系统及方法 |
Non-Patent Citations (2)
Title |
---|
薛培林 等: "基于信息融合的城市自主车辆实时目标识别", 机械工程学报 * |
谭铁牛 等: "人工智能用AI技术打造智能化未来", 31 August 2019, 科学普及出版社, pages: 109 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114442101A (zh) * | 2022-01-28 | 2022-05-06 | 南京慧尔视智能科技有限公司 | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 |
CN114442101B (zh) * | 2022-01-28 | 2023-11-14 | 南京慧尔视智能科技有限公司 | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 |
CN114879153A (zh) * | 2022-06-08 | 2022-08-09 | 中国第一汽车股份有限公司 | 雷达参数的标定方法、装置和车辆 |
CN116503821A (zh) * | 2023-06-19 | 2023-07-28 | 成都经开地理信息勘测设计院有限公司 | 基于点云数据和图像识别的道路标识识别方法及系统 |
CN116503821B (zh) * | 2023-06-19 | 2023-08-25 | 成都经开地理信息勘测设计院有限公司 | 基于点云数据和图像识别的道路标识识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112639882B (zh) | 定位方法、装置及系统 | |
EP3505869B1 (en) | Method, apparatus, and computer readable storage medium for updating electronic map | |
CN108955702B (zh) | 基于三维激光和gps惯性导航系统的车道级地图创建系统 | |
Luo et al. | A survey of intelligent transmission line inspection based on unmanned aerial vehicle | |
CN113674355A (zh) | 一种基于相机与激光雷达的目标识别与定位方法 | |
CA2950791C (en) | Binocular visual navigation system and method based on power robot | |
Bai et al. | Pillargrid: Deep learning-based cooperative perception for 3d object detection from onboard-roadside lidar | |
CN105930819A (zh) | 基于单目视觉和gps组合导航系统的实时城区交通灯识别系统 | |
CN109145677A (zh) | 障碍物检测方法、装置、设备及存储介质 | |
US12001517B2 (en) | Positioning method and apparatus | |
US11657572B2 (en) | Systems and methods for map generation based on ray-casting and semantic class images | |
CN113075686B (zh) | 一种基于多传感器融合的电缆沟智能巡检机器人建图方法 | |
CN111862200B (zh) | 一种煤棚内无人机定位方法 | |
CN115205311B (zh) | 图像处理方法、装置、车辆、介质及芯片 | |
EP4148599A1 (en) | Systems and methods for providing and using confidence estimations for semantic labeling | |
CN115909092A (zh) | 轻量化输电通道隐患测距方法及隐患预警装置 | |
CN114049362A (zh) | 一种基于transformer的点云实例分割方法 | |
CN116022657A (zh) | 路径规划方法、装置和起重机 | |
CN114167404A (zh) | 目标跟踪方法及装置 | |
CN114200527B (zh) | 一种基于倾斜摄影的无人机航磁测量方法及系统 | |
CN112651986B (zh) | 环境识别方法、识别装置、识别系统、电子设备及介质 | |
Jiang et al. | Research on path guidance of logistics transport vehicle based on image recognition and image processing in port area | |
CN112802095B (zh) | 定位方法、装置及设备、以及自动驾驶定位系统 | |
CN113935946A (zh) | 实时检测地下障碍物的方法及装置 | |
CN113298044A (zh) | 基于定位补偿的障碍物检测方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |