CN108089191B - 一种基于激光雷达的全局定位系统及方法 - Google Patents
一种基于激光雷达的全局定位系统及方法 Download PDFInfo
- Publication number
- CN108089191B CN108089191B CN201711423151.8A CN201711423151A CN108089191B CN 108089191 B CN108089191 B CN 108089191B CN 201711423151 A CN201711423151 A CN 201711423151A CN 108089191 B CN108089191 B CN 108089191B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- information
- cloud data
- frame
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及定位的技术领域,更具体地,涉及一种基于激光雷达的全局定位系统及方法。包括数据采集模块,数据处理模块,全局粗定位模块,局部精定位模块,定位反馈模块;本发明的激光雷达采用的是3D激光雷达,与以往的2D激光雷达相比,可以获取到更多的点云数据信息,能够获取到竖直平面的环境信息,可以更加全面的包含环境信息,使得数据更加丰富,便于处理并能够更加直观的将数据可视化。
Description
技术领域
本发明涉及定位的技术领域,更具体地,涉及一种基于激光雷达的全局定位系统及方法。
背景技术
随着时代的发展,激光雷达越来越被人们所使用。在导航,定位,地图等方面都用到了激光雷达。而在定位方面也有很多种方法,相机定位,2D激光雷达定位,3D激光雷达定位等等。而目前的3D激光雷达定位还没有一套比较快捷有效的全局定位方法,而现在很多地方都会用到3D激光雷达定位。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷,提供一种基于激光雷达的全局定位系统及方法,通过使用3D激光雷达采集数据,对于采集到的数据进行处理,并通过全局粗定位的方法从全局的地图中画出一部分数据作为参考数据帧,并使用局部精定位来进行精细的匹配,这样就可以达到定位的效果。本方法使用两种定位方法协同使用,即提高了精确度又减少了计算时间,是一种精确高效的全局定位方法。
本发明的技术方案是:一种基于激光雷达的全局定位系统,包括:
数据采集模块:利用3D激光雷达采集对应环境的数据信息,并传递到数据处理模块
数据处理模块:通过数据采集模块传递进来的数据信息,利用SLAM的形式进行处理,得到对应的全局坐标系下的路径信息和点云数据帧,并发送到全局粗定位模块和局部精定位模块。
全局粗定位模块:利用数据处理模块传递进来的路径信息和点云数据帧,进行地图的压缩,将三维地图进行降维,转化为二维地图,并提取对应的点云数据帧的图片特征,生成地图帧特征数据库。将传入的点云信息进行上面的操作,得到传入的点云信息的图片特征,利用图片的像素值进行hamming距离的计算,hamming距离越小的表示两个图片越相近。在地图帧特征数据库中找到与之最接近的前五帧,取每一帧的前后几帧存入到一个set之中。将得到的结果发送到局部精定位模块中。
局部精定位模块:利用全局粗定位模块传递的set,提取出对应的点云特征信息和其路径信息,并计算其二进制特征文本特征(bsc),得到其对应的特征信息,构建特征信息数据库。将输入的点云信息进行上面的操作,根据其对应的特征信息在特征信息数据库中进行检索,计算其二进制特征文本的几何一致性和特征一致性,两个结果加权平均,得到一个分数值,分数值越大的代表越相近,得到最相近的点云数据帧和其对应的路径信息。并将结果发送到定位反馈模块。
定位反馈模块:根据接收到的局部精定位模块传递过来的最相近的点云数据帧和路径信息,和需要定位的点云数据帧之间进行匹配,得到对应的姿态变换矩阵(6-DOF),然后,根据最相近点云数据帧的路径信息,结合姿态矩阵,得到需要匹配的点云数据帧的实际全局坐标信息,也就是最终所定位到的坐标信息,即完成了定位。
可选的,所述数据采集模块需要保证每一个机器人都含有一个激光雷达,且可以全方位的采集到环境信息
可选的,所述激光雷达为Velodyne 16线或32线的激光雷达。
一种基于激光雷达的全局定位方法,包括以下步骤:
步骤1、利用3D激光雷达对于实验环境进行数据的采集,得到对应的点云数据包;
步骤2、使用SLAM的方法对于采集到的数据进行处理,得到点云数据帧和其对应的路径信息;
步骤3、将得到的点云数据帧和对应的路径信息传递到全局粗定位模块;
步骤4、对于点云数据帧进行压缩,量化处理,将其转化为图片信息;
步骤5、提取图片的特征信息,生成地图帧的特征数据库;
步骤6、对于需要定位的点云数据帧进行3-5的操作,并将得到的图片特征信息在地图帧的特征数据库中检索,得到最相近的前五帧,取其前后20帧,存入set之中;
步骤7、将生成的set传入到局部精定位模块;
步骤8、提取set中对应的点云数据帧的二进制文本特征信息,构建bsc特征数据库;
步骤9、提取原始数据的bsc特征信息,并在bsc特征数据库中进行检索,得到最相近的点云数据帧;
步骤10、将得到的最相近的点云数据帧和其对应的路径信息传递到定位反馈模块;
步骤11、将最相近的点云数据帧和需要定位的点云数据帧进行点云匹配,得到姿态变换矩阵;
步骤12、利用最相近点云数据帧的坐标信息加以姿态矩阵得到需要定位的点云数据帧的实际的全局坐标信息。
与现有技术相比,有益效果是:
本发明的激光雷达采用的是3D激光雷达,与以往的2D激光雷达相比,可以获取到更多的点云数据信息,能够获取到竖直平面的环境信息,可以更加全面的包含环境信息,使得数据更加丰富,便于处理并能够更加直观的将数据可视化。
本发明进行了两种匹配方法的协同使用,粗定位可以减小候选帧的范围,而精定位可以得到精细的计算结果。
本发明消耗更少的时间,可以更快,更精准的得到最终的结果。
附图说明
图1为本发明中系统的结构简图。
图2为本发明中方法的流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本专利的限制。
如图1、2所示,一种基于激光雷达的全局定位系统,数据采集模块,数据处理模块,全局粗定位模块,局部精定位模块,定位反馈模块;数据采集模块:利用3D激光雷达采集对应环境的数据信息,并传递到数据处理模块;数据处理模块:通过数据采集模块传递进来的数据信息,利用SLAM的形式进行处理,得到对应的全局坐标系下的路径信息和点云数据帧,并发送到全局粗定位模块和局部精定位模块;全局粗定位模块:利用数据处理模块传递进来的路径信息和点云数据帧,进行地图的压缩,将三维地图进行降维,转化为二维地图,并提取对应的点云数据帧的图片特征,生成地图帧特征数据库。将传入的点云信息进行上面的操作,得到传入的点云信息的图片特征,利用图片的像素值进行hamming距离的计算,hamming距离越小的表示两个图片越相近。在地图帧特征数据库中找到与之最接近的前五帧,取每一帧的前后几帧存入到一个set之中。将得到的结果发送到局部精定位模块中;局部精定位模块:利用全局粗定位模块传递的set,提取出对应的点云特征信息和其路径信息,并计算其二进制特征文本特征(bsc),得到其对应的特征信息,构建特征信息数据库。将输入的点云信息进行上面的操作,根据其对应的特征信息在特征信息数据库中进行检索,计算其二进制特征文本的几何一致性和特征一致性,两个结果加权平均,得到一个分数值,分数值越大的代表越相近,得到最相近的点云数据帧和其对应的路径信息。并将结果发送到定位反馈模块;定位反馈模块:根据接收到的局部精定位模块传递过来的最相近的点云数据帧和路径信息,和需要定位的点云数据帧之间进行匹配,得到对应的姿态变换矩阵(6-DOF),然后,根据最相近点云数据帧的路径信息,结合姿态矩阵,得到需要匹配的点云数据帧的实际全局坐标信息,也就是最终所定位到的坐标信息,即完成了定位。本发明思路新颖,是一种全新的基于激光雷达的全局定位方法。本发明思路新颖,是一种全新的基于激光雷达的全局定位方法。
本方法的应用场景为室内或室外的平坦环境,需要尽可能的减少颠簸导致数据采集的信息出现偏差。
为了更好的说明本发明具体实施方案,下面将结合图2以及具体的实施方式对上述技术方案进行详细的说明:
步骤1、利用3D激光雷达对于实验环境进行数据的采集,得到对应的点云数据包;
步骤2、使用SLAM的方法对于采集到的数据进行处理,得到点云数据帧和其对应的路径信息;
步骤3、将得到的点云数据帧和对应的路径信息传递到全局粗定位模块;
步骤4、对于点云数据帧进行压缩,量化处理,将其转化为图片信息;
步骤5、提取图片的特征信息,生成地图帧的特征数据库;
步骤6、对于需要定位的点云数据帧进行3-5的操作,并将得到的图片特征信息在地图帧的特征数据库中检索,得到最相近的前五帧,取其前后20帧,存入set之中;
步骤7、将生成的set传入到局部精定位模块;
步骤8、提取set中对应的点云数据帧的二进制文本特征信息,构建bsc特征数据库;
步骤9、提取原始数据的bsc特征信息,并在bsc特征数据库中进行检索,得到最相近的点云数据帧;
步骤10、将得到的最相近的点云数据帧和其对应的路径信息传递到定位反馈模块;
步骤11、将最相近的点云数据帧和需要定位的点云数据帧进行点云匹配,得到姿态变换矩阵;
步骤12、利用最相近点云数据帧的坐标信息加以姿态矩阵得到需要定位的点云数据帧的实际的全局坐标信息。
其中,所述数据采集模块采集对应的环境信息,需要保证采集的数据可用,并且雷达的偏角得到了修正。
其中,所述数据处理模块中,使用激光雷达SLAM的方法对于采集到的数据进行处理,得到对应的点云数据帧和其路径信息,需要确保路径信息和点云数据帧是对应的。
其中,所述全局粗定位模块中,在得到数据处理模块传递进来的点云数据帧之后,可以预先进行地图的压缩和图片特征信息的提取,建立地图帧的特征数据库。
其中,所述全局粗定位模块中,保留进set里面的是点云数据帧的index信息,在传入到局部精定位模块中需要再次提取对应的点云数据帧和路径信息。
其中,所述局部精定位模块中,根据全局粗定位模块中传进来的set,提取对应的点云数据帧和路径信息,建立一个局部精定位的候选帧群。
其中,所述局部精定位模块中,是使用了一种二进制特征文本信息来作为特征数据的提取,并建立其对应的bsc特征数据库。
其中,所述定位反馈模块中,是利用最近帧的路径信息和姿态矩阵进行姿态的计算,得到需要定位的点云数据帧的实际的全局位置信息。
本发明所提供的一种基于激光雷达的全局定位方法包含模块有:数据采集模块,数据处理模块,全局粗定位模块,局部精定位模块,定位反馈模块;数据采集模块:利用3D激光雷达采集对应环境的数据信息,并传递到数据处理模块;数据处理模块:通过数据采集模块传递进来的数据信息,利用SLAM的形式进行处理,得到对应的全局坐标系下的路径信息和点云数据帧,并发送到全局粗定位模块和局部精定位模块;全局粗定位模块:利用数据处理模块传递进来的路径信息和点云数据帧,进行地图的压缩,将三维地图进行降维,转化为二维地图,并提取对应的点云数据帧的图片特征,生成地图帧特征数据库。将传入的点云信息进行上面的操作,得到传入的点云信息的图片特征,利用图片的像素值进行hamming距离的计算,hamming距离越小的表示两个图片越相近。在地图帧特征数据库中找到与之最接近的前五帧,取每一帧的前后几帧存入到一个set之中。将得到的结果发送到局部精定位模块中;局部精定位模块:利用全局粗定位模块传递的set,提取出对应的点云特征信息和其路径信息,并计算其二进制特征文本特征(bsc),得到其对应的特征信息,构建特征信息数据库。将输入的点云信息进行上面的操作,根据其对应的特征信息在特征信息数据库中进行检索,计算其二进制特征文本的几何一致性和特征一致性,两个结果加权平均,得到一个分数值,分数值越大的代表越相近,得到最相近的点云数据帧和其对应的路径信息。并将结果发送到定位反馈模块;定位反馈模块:根据接收到的局部精定位模块传递过来的最相近的点云数据帧和路径信息,和需要定位的点云数据帧之间进行匹配,得到对应的姿态变换矩阵(6-DOF),然后,根据最相近点云数据帧的路径信息,结合姿态矩阵,得到需要匹配的点云数据帧的实际全局坐标信息,也就是最终所定位到的坐标信息,即完成了定位。本发明思路新颖,是一种全新的基于激光雷达的全局定位方法。本发明思路新颖,是一种全新的基于激光雷达的全局定位方法。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (4)
1.一种基于激光雷达的全局定位系统,其特征在于,包括
数据采集模块:利用3D激光雷达采集对应环境的数据信息,并传递到数据处理模块;
数据处理模块:通过数据采集模块传递进来的数据信息,利用SLAM的形式进行处理,得到对应的全局坐标系下的路径信息和点云数据帧,并发送到全局粗定位模块和局部精定位模块;
全局粗定位模块:利用数据处理模块传递进来的路径信息和点云数据帧,进行地图的压缩,将三维地图进行降维,转化为二维地图,并提取对应的点云数据帧的图片特征,生成地图帧特征数据库;将传入的点云信息进行上面的操作,得到传入的点云信息的图片特征,利用图片的像素值进行hamming距离的计算,hamming距离越小的表示两个图片越相近;在地图帧特征数据库中找到与之最接近的前五帧,取每一帧的前后几帧存入到一个set之中;将得到的结果发送到局部精定位模块中;
局部精定位模块:利用全局粗定位模块传递的set,提取出对应的点云特征信息和其路径信息,并计算其二进制特征文本特征,得到其对应的特征信息,构建特征信息数据库;将输入的点云信息进行上面的操作,根据其对应的特征信息在特征信息数据库中进行检索,计算其二进制特征文本的几何一致性和特征一致性,两个结果加权平均,得到一个分数值,分数值越大的代表越相近,得到最相近的点云数据帧和其对应的路径信息;并将结果发送到定位反馈模块;
定位反馈模块:根据接收到的局部精定位模块传递过来的最相近的点云数据帧和路径信息,和需要定位的点云数据帧之间进行匹配,得到对应的姿态变换矩阵,然后,根据最相近点云数据帧的路径信息,结合姿态矩阵,得到需要匹配的点云数据帧的实际全局坐标信息,也就是最终所定位到的坐标信息,即完成了定位。
2.根据权利要求1所述的一种基于激光雷达的全局定位系统,其特征在于:所述的数据采集模块需要保证每一个机器人都含有一个激光雷达,且可以全方位的采集到环境信息。
3.根据权利要求2所述的一种基于激光雷达的全局定位系统,其特征在于:所述的激光雷达为Velodyne 16线或32线的激光雷达。
4.利用权利要求1所述的基于激光雷达的全局定位系统的方法,其特征在于,包括以下步骤:
步骤1、利用3D激光雷达对于实验环境进行数据的采集,得到对应的点云数据包;
步骤2、使用SLAM的方法对于采集到的数据进行处理,得到点云数据帧和其对应的路径信息;
步骤3、将得到的点云数据帧和对应的路径信息传递到全局粗定位模块;
步骤4、对于点云数据帧进行压缩,量化处理,将其转化为图片信息;
步骤5、提取图片的特征信息,生成地图帧的特征数据库;
步骤6、对于需要定位的点云数据帧进行3-5的操作,并将得到的图片特征信息在地图帧的特征数据库中检索,得到最相近的前五帧,取其前后20帧,存入set之中;
步骤7、将生成的set传入到局部精定位模块;
步骤8、提取set中对应的点云数据帧的二进制文本特征信息,构建bsc特征数据库;
步骤9、提取原始数据的bsc特征信息,并在bsc特征数据库中进行检索,得到最相近的点云数据帧;
步骤10、将得到的最相近的点云数据帧和其对应的路径信息传递到定位反馈模块;
步骤11、将最相近的点云数据帧和需要定位的点云数据帧进行点云匹配,得到姿态变换矩阵;
步骤12、利用最相近点云数据帧的坐标信息加以姿态矩阵得到需要定位的点云数据帧的实际的全局坐标信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711423151.8A CN108089191B (zh) | 2017-12-25 | 2017-12-25 | 一种基于激光雷达的全局定位系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711423151.8A CN108089191B (zh) | 2017-12-25 | 2017-12-25 | 一种基于激光雷达的全局定位系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108089191A CN108089191A (zh) | 2018-05-29 |
CN108089191B true CN108089191B (zh) | 2021-03-30 |
Family
ID=62177907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711423151.8A Active CN108089191B (zh) | 2017-12-25 | 2017-12-25 | 一种基于激光雷达的全局定位系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108089191B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829901B (zh) * | 2018-10-09 | 2019-01-29 | 上海岚豹智能科技有限公司 | 一种平面地图数据压缩方法和装置 |
CN109407115B (zh) * | 2018-12-25 | 2022-12-27 | 中山大学 | 一种基于激光雷达的路面提取系统及其提取方法 |
CN112393735B (zh) * | 2019-08-15 | 2023-05-30 | 纳恩博(北京)科技有限公司 | 定位方法及装置、存储介质、电子装置 |
CN110827305B (zh) * | 2019-10-30 | 2021-06-08 | 中山大学 | 面向动态环境的语义分割与视觉slam紧耦合方法 |
CN110880798A (zh) * | 2019-11-26 | 2020-03-13 | 爱菲力斯(深圳)科技有限公司 | 机器人充电方法、机器人充电装置、机器人和系统 |
CN111060131B (zh) * | 2019-11-27 | 2021-08-10 | 四川阿泰因机器人智能装备有限公司 | 一种基于激光雷达的机器人精确姿态矫正方法及装置 |
CN113252022A (zh) * | 2020-02-11 | 2021-08-13 | 北京图森智途科技有限公司 | 一种地图数据处理方法及装置 |
CN111693043B (zh) * | 2020-06-18 | 2023-04-07 | 北京四维图新科技股份有限公司 | 地图数据处理方法以及设备 |
CN114327334A (zh) * | 2021-12-27 | 2022-04-12 | 苏州金羲智慧科技有限公司 | 基于光线分析的环境信息传递系统及其传递方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009032773B3 (de) * | 2009-07-10 | 2010-12-02 | Fcs Flight Calibration Services Gmbh | Sekundärradarsignalempfänger und Verfahren zur Bestimmung definierter Empfangszeitpunkte von Sekundärradarsignalen in einem Multilaterationssystem |
WO2013071190A1 (en) * | 2011-11-11 | 2013-05-16 | Evolution Robotics, Inc. | Scaling vector field slam to large environments |
CN105866782A (zh) * | 2016-04-04 | 2016-08-17 | 上海大学 | 一种基于激光雷达的运动目标检测系统及方法 |
CN107015559A (zh) * | 2015-10-19 | 2017-08-04 | 福特全球技术公司 | 使用散列加权积分和求和的目标跟踪的概率推理 |
CN107167139A (zh) * | 2017-05-24 | 2017-09-15 | 广东工业大学 | 一种变电站巡检机器人视觉定位导航方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100434932C (zh) * | 2006-07-06 | 2008-11-19 | 上海交通大学 | 多激光雷达协同工作与数据处理方法 |
CN100492438C (zh) * | 2007-12-20 | 2009-05-27 | 四川川大智胜软件股份有限公司 | 基于图形化的雷达数据分析方法 |
KR20140009737A (ko) * | 2012-07-12 | 2014-01-23 | 한국과학기술원 | 하이브리드 맵 기반 로봇의 위치인식방법 |
CN103901774B (zh) * | 2012-12-28 | 2017-02-08 | 联想(北京)有限公司 | 高效鲁棒的基于多传感器的slam协调方法及系统 |
CN105631409A (zh) * | 2015-12-21 | 2016-06-01 | 北京科技大学 | 一种通过信标识别确定车辆位置姿态的方法 |
CN105607071B (zh) * | 2015-12-24 | 2018-06-08 | 百度在线网络技术(北京)有限公司 | 一种室内定位方法及装置 |
CN105843223B (zh) * | 2016-03-23 | 2018-11-20 | 东南大学 | 一种基于空间词袋模型的移动机器人三维建图与避障方法 |
CN106352870B (zh) * | 2016-08-26 | 2019-06-28 | 深圳微服机器人科技有限公司 | 一种目标的定位方法及装置 |
CN106548486B (zh) * | 2016-11-01 | 2024-02-27 | 浙江大学 | 一种基于稀疏视觉特征地图的无人车位置跟踪方法 |
CN107491071B (zh) * | 2017-09-04 | 2020-10-30 | 中山大学 | 一种智能多机器人协同测图系统及其方法 |
-
2017
- 2017-12-25 CN CN201711423151.8A patent/CN108089191B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009032773B3 (de) * | 2009-07-10 | 2010-12-02 | Fcs Flight Calibration Services Gmbh | Sekundärradarsignalempfänger und Verfahren zur Bestimmung definierter Empfangszeitpunkte von Sekundärradarsignalen in einem Multilaterationssystem |
WO2013071190A1 (en) * | 2011-11-11 | 2013-05-16 | Evolution Robotics, Inc. | Scaling vector field slam to large environments |
CN107015559A (zh) * | 2015-10-19 | 2017-08-04 | 福特全球技术公司 | 使用散列加权积分和求和的目标跟踪的概率推理 |
CN105866782A (zh) * | 2016-04-04 | 2016-08-17 | 上海大学 | 一种基于激光雷达的运动目标检测系统及方法 |
CN107167139A (zh) * | 2017-05-24 | 2017-09-15 | 广东工业大学 | 一种变电站巡检机器人视觉定位导航方法及系统 |
Non-Patent Citations (3)
Title |
---|
《A novel and effective moving-objects detection method combined with stereo localization and mapping system》;Libo Sun; Lei Fan; Long Chen;《2016 IEEE International Conference on Robotics and Biomimetics (ROBIO)》;20170302;1504-1509 * |
《Moving-Object Detection From Consecutive Stereo Pairs Using Slanted Plane Smoothing》;Long Chen; Lei Fan; Guodong Xie; Kai Huang; Andreas Nüchter;《IEEE Transactions on Intelligent Transportation Systems》;20170404;3093-3102 * |
《一种基于实景三维模型的定位方法》;徐安丽; 仲思东; 陈坚;《科学技术与工程》;20160118;第219-223页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108089191A (zh) | 2018-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108089191B (zh) | 一种基于激光雷达的全局定位系统及方法 | |
US20220319046A1 (en) | Systems and methods for visual positioning | |
EP4116462A2 (en) | Method and apparatus of processing image, electronic device, storage medium and program product | |
EP2874097A2 (en) | Automatic scene parsing | |
WO2021218123A1 (zh) | 用于检测车辆位姿的方法及装置 | |
US11367195B2 (en) | Image segmentation method, image segmentation apparatus, image segmentation device | |
CN110728210A (zh) | 一种三维点云数据的半监督目标标注方法和系统 | |
JP7393472B2 (ja) | 陳列シーン認識方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN113985445A (zh) | 一种基于相机与激光雷达数据融合的3d目标检测算法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
Ardeshir et al. | Geo-semantic segmentation | |
US11967132B2 (en) | Lane marking detecting method, apparatus, electronic device, storage medium, and vehicle | |
CN110298281B (zh) | 视频结构化方法、装置、电子设备及存储介质 | |
CN107358189B (zh) | 一种基于多视目标提取的室内环境下物体检测方法 | |
TWI745204B (zh) | 基於深度學習之高效率光達物件偵測方法 | |
TW202121331A (zh) | 基於機器學習的物件辨識系統及其方法 | |
CN112348885A (zh) | 视觉特征库的构建方法、视觉定位方法、装置和存储介质 | |
CN112330815A (zh) | 基于障碍物融合的三维点云数据处理方法、装置和设备 | |
CN114279433A (zh) | 地图数据自动化生产方法、相关装置及计算机程序产品 | |
CN113326773A (zh) | 识别模型训练方法、识别方法、装置、设备及存储介质 | |
CN108537109B (zh) | 基于OpenPose的单目相机手语识别方法 | |
JP2014116716A (ja) | 追尾装置 | |
CN114299230A (zh) | 一种数据生成方法、装置、电子设备及存储介质 | |
CN103646397A (zh) | 基于多源数据融合的实时合成孔径透视成像方法 | |
CN113932796A (zh) | 高精地图车道线生成方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |