CN108303096B - 一种视觉辅助激光定位系统及方法 - Google Patents
一种视觉辅助激光定位系统及方法 Download PDFInfo
- Publication number
- CN108303096B CN108303096B CN201810146208.2A CN201810146208A CN108303096B CN 108303096 B CN108303096 B CN 108303096B CN 201810146208 A CN201810146208 A CN 201810146208A CN 108303096 B CN108303096 B CN 108303096B
- Authority
- CN
- China
- Prior art keywords
- robot
- positioning
- laser positioning
- positioning mode
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及机器人定位领域,尤其涉及一种视觉辅助激光定位系统及方法,该方法包括:在机器人正常运行时采用激光定位方式,同时通过视觉定位方式检测周围环境;当通过视觉定位方式检测到机器人处于大量动态障碍或长廊环境时,由激光定位方式进入视觉定位方式;在视觉定位方式中,通过视觉定位方式输出定位值,同时检测周围环境,当环境达到激光定位方式所需的要求时,则切换回激光定位方式。本发明采用视觉辅助定位方法以弥补激光定位方法在动态及在重复几何环境中的定位困难问题,可有效提升整个定位方案的适用范围及可靠性;根据视觉环境检测结果进行自主切换,自动化程度高。
Description
技术领域
本发明涉及机器人定位领域,尤其涉及一种视觉辅助激光定位系统及方法。
背景技术
自主定位是机器人实现智能化的前提之一,是赋予机器人感知和行动能力的关键技术。只有在自主准确定位的基础上,机器人才能对周围环境进行分析、判断和选择,进而规划路径,从而到达目的地执行任务。目前,机器人自主定位技术中最为成熟与应用最为广泛的是激光定位技术,主要是采用激光雷达发射出一个激光信号,根据收到从物体反射回来的信号的时间差来计算这段距离,然后根据发射激光的角度来确定物体和发射器的角度,从而得出物体与发射器的相对位置。
激光定位方法具有算法简单、精度较高、受环境光影响较小的优点,但其不擅长动态环境中的定位,比如有大量人员遮挡其测量的环境,也不擅长在类似的几何环境中工作,比如在一个又长又直、两侧是墙壁的环境(长廊困境),另外,激光定位方法在定位丢失后很难重新回到工作状态。另外,由于成本及算法原因,激光定位使用的单线雷达往往只是扫描环境空间中的某一固定高度平面上的轮廓特征,从本质上讲,只是使用了环境所包含大量信息中的极小一部分,其具有较大的改进空间。
另一方面,近年来,随着计算机视觉技术及计算机运算能力的飞速发展,视觉定位方法取得了长足的进步,视觉定位模仿人眼的工作机制,可以从环境中获取海量的、富于冗余的纹理信息,拥有超强的场景辨识能力,从而获取更丰富的地图信息。虽然目前视觉定位的可靠性及定位精度仍逊于激光定位,但在较大尺度且动态的环境中,视觉方法因其具有的丰富冗余的信息,仍为克服上述激光定位所具有的问题带来了希望。
因此,本发明的目的是提出一种视觉辅助激光定位方法,以克服激光定位方法在动态及在重复几何环境中遇到的问题。通过检索,可以发现有相关科研及工程技术人员对于如何引入视觉定位方法以加强和改善激光定位效果进行了研究,其中与本发明最为接近的现有专利为:
《基于激光和视觉的移动机器人的混合定位方法》CN105865449A
该发明公开了一种基于激光和视觉的移动机器人混合定位方法,根据激光雷达采集的数据和视觉传感器采集的数据对各粒子的预测位置的权值进行更新,然后对权值高的粒子进行重采样,得到移动机器人在t时刻的真实位置分布。从本质上讲,该发明是对于目前激光定位常用方法——粒子滤波的改进,将视觉传感器获得的定位信息融合进入粒子分布概率的计算中,使粒子的多样性得到了保证。然而,该专利技术存在以下几个不足:
1)在激光定位正常工作的情况下,其可靠性是高于视觉方法的,且定位精度也不亚于视觉定位方法,也就是说这时引入视觉定位信息至粒子滤波计算中反而会引入不必要的噪声和干扰,影响总体定位的效果。
2)在激光定位失效的情况下,也就是参与信息融合计算的激光定位信息完全是错误的。此时,即使有视觉定位参与计算,也很有可能导致定位结果错误。
也就是说,上述融合方法无论在激光定位正常与失效情况下都无法较原有激光定位方法取得明显有效的改进。为克服上述问题,本发明将公开一种新的视觉辅助激光定位方法。
发明内容
为克服激光定位方法在动态及在重复几何环境中遇到的问题,本发明公开一种视觉辅助激光定位系统及方法。
一种视觉辅助激光定位方法,包括:在机器人正常运行时采用激光定位方式,同时通过视觉定位方式检测周围环境;当通过视觉定位方式检测到机器人处于大量动态障碍或长廊环境时,由激光定位方式进入视觉定位方式;在视觉定位方式中,通过视觉定位方式输出定位值,同时检测周围环境,当环境达到激光定位方式所需的要求时,则切换回激光定位方式。
优选的,在采用激光定位方式时,同时通过视觉定位方式实时跟踪激光定位结果值,并提取环境空间中的特征点并保存于历史数据库,如果激光定位方式出现定位丢失,则使用历史数据库中保存的特征点进行重定位,重定位成功后重新启动激光定位方式。
优选的,所述使用历史数据库中保存的特征点进行重定位的方法为:将当前获得的视觉图像中的特征点数据集与历史数据库中保存的全部特征点数据集进行匹配,该匹配在考虑特征点本身相似程度的基础上同时考虑多个特征点之间的相互空间关系的相似程度,进而得到历史数据库与当前视觉图像匹配程度最高的一组数据集,推断得到当前的机器人位置,作为重定位值输出。
优选的,所述大量动态障碍环境检测的方法为:
根据激光定位方式或视觉定位方式得到的当前机器人的位置,将当前激光扫描到的所有障碍物在空间中位置全部计算出来,生成一张障碍物图,将其与上一次扫描计算得到的障碍物图比较,如果同一个位置点两次都扫描到了同一障碍物,则判断该障碍物是静态的,反之,则判断这个点极可能是一个动态的障碍物,对当前障碍物图中所有的点进行比较,然后计算动态障碍物点所占障碍物总数的比例,当其大于某个给定的阈值时,则判断机器人处于大量动态障碍环境中。
优选的,所述长走廊环境检测的方法为:采用图形学方法对当前获得的图像进行处理,然后采用分类器方法对图形学处理完之后的图像是否属长廊进行判定。
一种视觉辅助激光定位系统,包括:激光定位模块、视觉模块、逻辑管理模块以及重定位模块,所述激光定位模块用于根据激光扫描数据结果实时确定当前机器人位置;所述视觉模块用于提取图像中特征点,并计算得到每个特征点的描述子;采用三角化方法计算出新获得的特征点的空间坐标值,将三角化成功的特征点保存进入历史数据库;通过当前特征点与历史数据库中最近得到的特征点的匹配计算得到当前机器人的位置;根据激光定位方式或视觉定位方式得到的当前机器人的位置,判断机器人是否处于大量动态障碍环境中;根据获得的图像,判断机器人是否处于长廊环境中;所述逻辑管理模块用于根据视觉模块的当前环境判断结果及当前机器人的定位方式确定将要采取的定位方式;所述重定位模块用于将当前获得的图像中的特征点数据集与历史数据库中保存的全部特征点数据集进行匹配,该匹配在考虑特征点本身相似程度的基础上同时考虑多个特征点之间的相互空间关系的相似程度,进而得到历史数据库与当前视觉图像匹配程度最高的一组数据集,推断得到当前的机器人位置,作为重定位值输出。
优选的,所述视觉模块将当前激光扫描到的所有障碍物在空间中位置全部计算出来,生成一张障碍物图,将其与上一次扫描计算得到的障碍物图比较,如果同一个位置点两次都扫描到了同一障碍物,则判断该障碍物是静态的,反之,则判断这个点极可能是一个动态的障碍物,对当前障碍物图中所有的点进行比较,然后计算动态障碍物点所占障碍物总数的比例,当其大于某个给定的阈值时,从而判断机器人处于较强的动态环境中。
优选的,所述视觉模块采用图形学方法对当前获得的图像进行处理,然后采用分类器方法对图形学处理完之后的图像是否属长廊进行判定。
优选的,所述逻辑管理模块采用如下步骤确定将要采取的定位方式:
S1:采集激光定位模块数据、视觉模块数据,其中激光定位模块数据、视觉模块同时获取上一时刻机器人定位模式及位置值;
S2:调用视觉模块判断机器人是否处于大量动态障碍或长廊环境中,如果是,则进入S6,否则,进入S3;
S3:判断目前激光定位是否需要重定位,如果是,则进入S4,否则,进入S5;
S4:基于重定位模块计算当前机器人重定位值,进入S7;
S5:基于激光定位模块计算当前机器人位置,进入S7;
S6:视觉模块计算当前机器人的位置;
S7:定位计算结束,输出计算值。
本发明的有益效果是:
1.本发明采用视觉辅助定位方法以弥补激光定位方法在动态及在重复几何环境中的定位困难问题,可有效提升整个定位方案的适用范围及可靠性;
2.本发明提出的以激光定位为主,视觉定位为辅的系统,二者根据视觉环境检测结果进行自主切换,自动化程度高,具有良好的操作性;
3.本发明采用计算机视觉方法提取并保存环境空间中的明显可靠的特征点,作为重定位的信息,可有效克服激光定位方法在定位丢失后很难重新回到工作状态的问题。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1是本发明实施例中视觉模块处理图像后得到的图;
图2是本发明实施例中的系统结构框图;
图3是本发明实施例中逻辑管理模块的工作流程图。
具体实施方式
以下结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
在本实施例中,一种视觉辅助激光定位方法,包括:在机器人正常运行时采用激光定位方式,同时通过视觉定位方式检测周围环境;当通过视觉定位方式检测到机器人处于大量动态障碍或长廊环境时,由激光定位方式进入视觉定位方式;在视觉定位方式中,通过视觉定位方式输出定位值,同时检测周围环境,当环境达到激光定位方式所需的要求时,则切换回激光定位方式。
进一步的,在采用激光定位方式时,同时通过视觉定位方式实时跟踪激光定位结果值,并提取环境空间中的特征点并保存于历史数据库,如果激光定位方式出现定位丢失,则使用历史数据库中保存的特征点进行重定位,重定位成功后重新启动激光定位方式。具体的,所述使用历史数据库中保存的特征点进行重定位的方法为:将当前获得的视觉图像中的特征点数据集与历史数据库中保存的全部特征点数据集进行匹配,该匹配在考虑特征点本身相似程度的基础上同时考虑多个特征点之间的相互空间关系的相似程度,进而得到历史数据库与当前视觉图像匹配程度最高的一组数据集,推断得到当前的机器人位置,作为重定位值输出。具体而言,本实施采用ORB描述并提取图像中的特征,可以通过比较特征点的ORB描述子的相似程度来判断任意两个特征点的相似程度。
具体而言,激光定位的方法为:激光雷达获取的信息是和周围物体之间的距离信息,通过这些信息与现有地图中轮廓信息的对比,可以找到目前机器人位置的最优估计使匹配程度最高,也就完成了对机器人自身的定位,本实施例中采用Gmapping方法作为激光定位方法。不失一般性,该模块还可以选择本领域内容易想到的其他常用的激光定位方法,如Hector,Cartographer,CSM等均可以作激光定位方法。
具体的,视觉定位的方法为:提取图像中特征点,并计算得到每个特征点的描述子。具体而言,图像的特征点可以理解为图像中比较显著的点,如轮廓点,角点,较暗区域中的亮点,较亮区域中的暗点等等。本领域中采用量化的特征描述算子可以找到一幅图像中的若干特征点,并计算得到每个特征点的描述子。本实施例选用ORB特征作为特征点描述算子,用以提取图像中ORB特征点。不失一般性,本领域内容易想到的其他常用的图像特征描述算子,比如SIFT,SURF,LBP,HOG等均可以作为特征定义,用以区分并提取图像中的特征点;采用三角化方法计算出新获得的特征点的空间坐标值,将三角化成功的特征点保存进入历史数据库。具体而言,由于机器人在运动过程中,因此,环境中的某一个特征点可以被机器人在多个不同位置观察到,但这些不同位置处该特征点在图像上的坐标位置肯定不同(本领域内称为视差),所以,三角化方法根据成像所使用相机的内参,各成像时刻机器人所处的位置,以及特征点在各幅图像上的坐标位置,计算得到特征点在环境空间中的坐标位置;通过当前特征点与历史数据库中最近得到的特征点的匹配计算得到当前机器人的位置。本实施例采用PnP算法计算机器人当前时刻的位置,具体而言,历史数据库中保存是空间3D坐标已知的特征点,而通过匹配计算,在当前图像中找到若干与历史数据库中特征点匹配的特征点,建立一组3D-2D一一映射关系,PnP算法就是找到一个最优的机器人当前位置,使这些3D-2D映射关系之间的误差最小化。
具体的,大量动态障碍环境检测的方法为:
根据激光定位方式或视觉定位方式得到的当前机器人的位置,将当前激光扫描到的所有障碍物在空间中位置全部计算出来,生成一张障碍物图,将其与上一次扫描计算得到的障碍物图比较,如果同一个位置点两次都扫描到了同一障碍物,则判断该障碍物是静态的,反之,则判断这个点极可能是一个动态的障碍物,对当前障碍物图中所有的点进行比较,然后计算动态障碍物点所占障碍物总数的比例,当其大于某个给定的阈值时,则判断机器人处于大量动态障碍环境中。
具体的,长走廊环境检测的方法为:采用图形学方法对当前获得的机器人图像进行处理,特别是提取其中大于一定长度的直线,如果处理完之后的图像中包含如图1所示的四条明显的长直线,且相互位置关系类似,则可以认为当前机器人处理长廊中,本实施例中,采用分类器方法对图形学处理完之后的图像是否属长廊进行判定。
基于上述技术方案,如图2所示,本实施例还涉及一种视觉辅助激光定位系统,包括:激光定位模块、视觉模块、逻辑管理模块以及重定位模块。
激光定位模块用于根据激光扫描数据结果实时确定当前机器人位置。
视觉模块用于提取图像中特征点,并计算得到每个特征点的描述子;采用三角化方法计算出新获得的特征点的空间坐标值,将三角化成功的特征点保存进入历史数据库;通过当前特征点与历史数据库中最近得到的特征点的匹配计算得到当前机器人的位置;根据激光定位方式或视觉定位方式得到的当前机器人的位置,判断机器人是否处于大量动态障碍环境中;根据获得的图像,判断机器人是否处于长廊环境中。
逻辑管理模块用于根据视觉模块的当前环境判断结果及当前机器人的定位方式确定将要采取的定位方式。
重定位模块用于将当前获得的图像中的特征点数据集与历史数据库中保存的全部特征点数据集进行匹配,该匹配在考虑特征点本身相似程度的基础上同时考虑多个特征点之间的相互空间关系的相似程度,进而得到历史数据库与当前视觉图像匹配程度最高的一组数据集,推断得到当前的机器人位置,作为重定位值输出。
如图3所示,逻辑管理模块采用如下步骤确定将要采取的定位方式:
S1:采集激光定位模块数据、视觉模块数据,其中激光定位模块数据、视觉模块同时获取上一时刻机器人定位模式及位置值;
S2:调用视觉模块判断机器人是否处于大量动态障碍或长廊环境中,如果是,则进入S6,否则,进入S3;
S3:判断目前激光定位是否需要重定位,如果是,则进入S4,否则,进入S5;
S4:基于重定位模块计算当前机器人重定位值,进入S7;
S5:基于激光定位模块计算当前机器人位置,进入S7;
S6:视觉模块计算当前机器人的位置;其具体步骤如下:
S6.1视觉定位模块分析所获取图像的纹理特征,选取其中具有明显特征的点作为候选路标
S6.2遍历S6.1中提取到的所有候选路标,将这些候选路标分别与候选路标集与历史数据库中的路标进行匹配,与候选路标集中路标匹配成功的进入步骤S6.3,与历史数据库中的路标匹配成功的进入步骤S6.4,二者如果匹配都不成功,则将该新的路标点直接加入候选路标集;
S7:定位计算结束,输出计算值。
本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (9)
1.一种视觉辅助激光定位方法,其特征在于,包括:在机器人正常运行时采用激光定位方式,同时通过视觉定位方式检测周围环境;当通过视觉定位方式检测到机器人处于大量动态障碍或长廊环境时,由激光定位方式进入视觉定位方式;在视觉定位方式中,通过视觉定位方式输出定位值,同时检测周围环境,当环境达到激光定位方式所需的要求时,则切换回激光定位方式。
2.根据权利要求1所述的视觉辅助激光定位方法,其特征在于,在采用激光定位方式时,同时通过视觉定位方式实时跟踪激光定位结果值,并提取环境空间中的特征点并保存于历史数据库,如果激光定位方式出现定位丢失,则使用历史数据库中保存的特征点进行重定位,重定位成功后重新启动激光定位方式。
3.根据权利要求2所述的视觉辅助激光定位方法,其特征在于,所述使用历史数据库中保存的特征点进行重定位的方法为:将当前获得的视觉图像中的特征点数据集与历史数据库中保存的全部特征点数据集进行匹配,该匹配在考虑特征点本身相似程度的基础上同时考虑多个特征点之间的相互空间关系的相似程度,进而得到历史数据库与当前视觉图像匹配程度最高的一组数据集,推断得到当前的机器人位置,作为重定位值输出。
4.根据权利要求1所述的视觉辅助激光定位方法,其特征在于,所述大量动态障碍环境检测的方法为:根据激光定位方式或视觉定位方式得到的当前机器人的位置,将当前激光扫描到的所有障碍物在空间中位置全部计算出来,生成一张障碍物图,将其与上一次扫描计算得到的障碍物图比较,如果同一个位置点两次都扫描到了同一障碍物,则判断该障碍物是静态的,反之,则判断这个点极可能是一个动态的障碍物,对当前障碍物图中所有的点进行比较,然后计算动态障碍物点所占障碍物总数的比例,当其大于某个给定的阈值时,则判断机器人处于大量动态障碍环境中。
5.根据权利要求1所述的视觉辅助激光定位方法,其特征在于,所述长廊环境检测的方法为:采用图形学方法对当前获得的图像进行处理,然后采用分类器方法对图形学处理完之后的图像是否属长廊进行判定。
6.一种视觉辅助激光定位系统,其特征在于,包括:激光定位模块、视觉模块、逻辑管理模块以及重定位模块,所述激光定位模块用于根据激光扫描数据结果实时确定当前机器人位置;所述视觉模块用于提取图像中特征点,并计算得到每个特征点的描述子;采用三角化方法计算出新获得的特征点的空间坐标值,将三角化成功的特征点保存进入历史数据库;通过当前特征点与历史数据库中最近得到的特征点的匹配计算得到当前机器人的位置;根据激光定位方式或视觉定位方式得到的当前机器人的位置,判断机器人是否处于大量动态障碍环境中;根据获得的图像,判断机器人是否处于长廊环境中;所述逻辑管理模块用于根据视觉模块的当前环境判断结果及当前机器人的定位方式确定将要采取的定位方式;所述重定位模块用于将当前获得的图像中的特征点数据集与历史数据库中保存的全部特征点数据集进行匹配,该匹配在考虑特征点本身相似程度的基础上同时考虑多个特征点之间的相互空间关系的相似程度,进而得到历史数据库与当前视觉图像匹配程度最高的一组数据集,推断得到当前的机器人位置,作为重定位值输出。
7.根据权利要求6所述的视觉辅助激光定位系统,其特征在于,所述视觉模块将当前激光扫描到的所有障碍物在空间中位置全部计算出来,生成一张障碍物图,将其与上一次扫描计算得到的障碍物图比较,如果同一个位置点两次都扫描到了同一障碍物,则判断该障碍物是静态的,反之,则判断这个点极可能是一个动态的障碍物,对当前障碍物图中所有的点进行比较,然后计算动态障碍物点所占障碍物总数的比例,当其大于某个给定的阈值时,从而判断机器人处于大量动态障碍环境中。
8.根据权利要求6所述的视觉辅助激光定位系统,其特征在于,所述视觉模块采用图形学方法对当前获得的图像进行处理,然后采用分类器方法对图形学处理完之后的图像是否属长廊进行判定。
9.根据权利要求6所述的视觉辅助激光定位系统,其特征在于,所述逻辑管理模块采用如下步骤确定将要采取的定位方式:
S1:采集激光定位模块数据、视觉模块数据,其中激光定位模块数据、视觉模块同时获取上一时刻机器人定位模式及位置值;
S2:调用视觉模块判断机器人是否处于大量动态障碍或长廊环境中,如果是,则进入S6,否则,进入S3;
S3:判断目前激光定位是否需要重定位,如果是,则进入S4,否则,进入S5;
S4:基于重定位模块计算当前机器人重定位值,进入S7;
S5:基于激光定位模块计算当前机器人位置,进入S7;
S6:视觉模块计算当前机器人的位置;
S7:定位计算结束,输出计算值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810146208.2A CN108303096B (zh) | 2018-02-12 | 2018-02-12 | 一种视觉辅助激光定位系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810146208.2A CN108303096B (zh) | 2018-02-12 | 2018-02-12 | 一种视觉辅助激光定位系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108303096A CN108303096A (zh) | 2018-07-20 |
CN108303096B true CN108303096B (zh) | 2020-04-10 |
Family
ID=62865463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810146208.2A Active CN108303096B (zh) | 2018-02-12 | 2018-02-12 | 一种视觉辅助激光定位系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108303096B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109297496A (zh) * | 2018-09-29 | 2019-02-01 | 上海新世纪机器人有限公司 | 基于slam的机器人定位方法及装置 |
CN109959937B (zh) * | 2019-03-12 | 2021-07-27 | 广州高新兴机器人有限公司 | 长廊环境基于激光雷达的定位方法、存储介质及电子设备 |
CN111105455B (zh) * | 2019-12-13 | 2024-04-16 | 灵动科技(北京)有限公司 | 仓储系统与相关方法 |
CN112539756B (zh) * | 2020-11-30 | 2023-06-20 | 深圳银星智能集团股份有限公司 | 一种长通道识别方法及机器人 |
CN112461230B (zh) * | 2020-12-07 | 2023-05-09 | 优必康(青岛)科技有限公司 | 机器人重定位方法、装置、机器人和可读存储介质 |
CN112964276B (zh) * | 2021-02-09 | 2022-08-05 | 中国科学院深圳先进技术研究院 | 一种基于激光和视觉融合的在线标定方法 |
CN113075668B (zh) * | 2021-03-25 | 2024-03-08 | 广州小鹏自动驾驶科技有限公司 | 一种动态障碍物对象识别方法和装置 |
CN112985416B (zh) * | 2021-04-19 | 2021-07-30 | 湖南大学 | 激光与视觉信息融合的鲁棒定位和建图方法及系统 |
CN114674308B (zh) * | 2022-05-26 | 2022-09-16 | 之江实验室 | 基于安全出口指示牌视觉辅助激光长廊定位方法及装置 |
CN115082665B (zh) * | 2022-08-22 | 2022-11-01 | 山东西曼克技术有限公司 | 可提高作业精度的agv小车视觉自检方法、装置及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102317040A (zh) * | 2010-02-10 | 2012-01-11 | 电力研究所有限公司 | 线路巡检机器人和系统 |
CN106092104A (zh) * | 2016-08-26 | 2016-11-09 | 深圳微服机器人科技有限公司 | 一种室内机器人的重定位方法及装置 |
CN106959697A (zh) * | 2017-05-16 | 2017-07-18 | 电子科技大学中山学院 | 一种面向长直廊环境的室内地图自动构建系统 |
CN107422735A (zh) * | 2017-07-29 | 2017-12-01 | 深圳力子机器人有限公司 | 一种无轨导航agv激光与视觉特征混合导航方法 |
-
2018
- 2018-02-12 CN CN201810146208.2A patent/CN108303096B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102317040A (zh) * | 2010-02-10 | 2012-01-11 | 电力研究所有限公司 | 线路巡检机器人和系统 |
CN106092104A (zh) * | 2016-08-26 | 2016-11-09 | 深圳微服机器人科技有限公司 | 一种室内机器人的重定位方法及装置 |
CN106959697A (zh) * | 2017-05-16 | 2017-07-18 | 电子科技大学中山学院 | 一种面向长直廊环境的室内地图自动构建系统 |
CN107422735A (zh) * | 2017-07-29 | 2017-12-01 | 深圳力子机器人有限公司 | 一种无轨导航agv激光与视觉特征混合导航方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108303096A (zh) | 2018-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108303096B (zh) | 一种视觉辅助激光定位系统及方法 | |
CN112396650B (zh) | 一种基于图像和激光雷达融合的目标测距系统及方法 | |
WO2021233029A1 (en) | Simultaneous localization and mapping method, device, system and storage medium | |
Chen et al. | Lidar-histogram for fast road and obstacle detection | |
CN108445480B (zh) | 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法 | |
CA2950791C (en) | Binocular visual navigation system and method based on power robot | |
CN111563442A (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN114782626B (zh) | 基于激光与视觉融合的变电站场景建图及定位优化方法 | |
CN113378760A (zh) | 训练目标检测模型和检测目标的方法及装置 | |
CN111257892A (zh) | 一种用于车辆自动驾驶的障碍物检测方法 | |
CN112097732A (zh) | 一种基于双目相机的三维测距方法、系统、设备及可读存储介质 | |
CN111913177A (zh) | 对目标物探测方法、装置以及存储介质 | |
CN116503803A (zh) | 障碍物检测方法、装置、电子设备以及存储介质 | |
CN115719436A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN113255779A (zh) | 多源感知数据融合识别方法、系统及计算机可读存储介质 | |
CN208937705U (zh) | 一种多源异构传感器特征深度融合的装置 | |
CN116879870A (zh) | 一种适用于低线束3d激光雷达的动态障碍物去除方法 | |
CN114217641B (zh) | 一种非结构环境下无人机送变电设备巡检方法及系统 | |
Li et al. | Mobile robot map building based on laser ranging and kinect | |
CN114972491A (zh) | 视觉slam方法、电子设备、存储介质及产品 | |
CN114152955A (zh) | 一种基于slam技术的障碍物高精度识别系统 | |
Son et al. | Optimized robot mapping and obstacle avoidance using stereo vision | |
Wang et al. | A system of automated training sample generation for visual-based car detection | |
Yin et al. | An Improved Variational Auto-Encoder With Reverse Supervision for the Obstacles Recognition of UGVs | |
CN116363615B (zh) | 数据融合方法、装置、车辆和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |