CN110108269A - 基于多传感器数据融合的agv定位方法 - Google Patents
基于多传感器数据融合的agv定位方法 Download PDFInfo
- Publication number
- CN110108269A CN110108269A CN201910419434.8A CN201910419434A CN110108269A CN 110108269 A CN110108269 A CN 110108269A CN 201910419434 A CN201910419434 A CN 201910419434A CN 110108269 A CN110108269 A CN 110108269A
- Authority
- CN
- China
- Prior art keywords
- agv
- camera
- pose
- csign
- mark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000004927 fusion Effects 0.000 title claims abstract description 18
- 230000004807 localization Effects 0.000 title claims abstract description 16
- 239000003550 marker Substances 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 3
- 238000009434 installation Methods 0.000 claims description 3
- HOWHQWFXSLOJEF-MGZLOUMQSA-N systemin Chemical group NCCCC[C@H](N)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](CCC(N)=O)C(=O)N[C@@H]([C@@H](C)O)C(=O)N[C@@H](CC(O)=O)C(=O)OC(=O)[C@@H]1CCCN1C(=O)[C@H]1N(C(=O)[C@H](CC(O)=O)NC(=O)[C@H](CCCN=C(N)N)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H]2N(CCC2)C(=O)[C@H]2N(CCC2)C(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@@H](NC(=O)[C@H](C)N)C(C)C)CCC1 HOWHQWFXSLOJEF-MGZLOUMQSA-N 0.000 claims description 2
- 108010050014 systemin Proteins 0.000 claims description 2
- 230000017105 transposition Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于多传感器数据融合的AGV定位方法,在AGV车体上安装IMU姿态传感器、激光雷达和摄像头,并在工作环境进行标志铺设,AGV运动过程中,采用IMU姿态传感器和基于历史定位结果得到位姿估计,将其作为激光雷达扫描匹配定位的初始值,由激光雷达得到位姿估计;然后通过摄像头拍摄工作环境图像,从中识别出标志,结合标志位姿对AGV进行位姿估计,然后通过动态加权的方式对基于激光雷达的位姿估计和基于摄像头的位姿估计进行数据融合得到最终位姿。采用本发明可以提高二维平面AGV定位的稳定性和精确度。
Description
技术领域
本发明属于机器人控制技术领域,更为具体地讲,涉及一种基于多传感器数据融合的AGV定位方法。
背景技术
AGV(Automated Guided Vehicles,自动导引车)是一种被广泛应用的智能轮式工业用移动机器人,通常具有承重、环境识别、自主导航、避障等功能,以其功能灵活、运行稳定、高度智能化等方面的优势,被广泛应用于智能制造、物流分拣、仓库存储、港口运输等行业。为生产运输过程带来了巨大的便利,具有良好的应用和发展前景。
在AGV设备的各项科学技术中,定位导航技术是实现AGV自动化、智能化运行的前提条件,也是AGV技术发展程度和发展水平的最重要标志。要实现精确可靠的定位,首先需要准确地感知环境信息。人类完整地感知环境需要眼、耳、鼻、舌、身等多种感官同时工作,各感官信息相互结合才能实现,机器依靠单一传感器只能获取特定的环境特征或运动状态的部分信息,为了更完整、更准确地进行定位,采用多种传感器组合感知环境是非常有必要的。同时,多个传感器之间也并非完全相互独立的,如何有效地进行传感器资源分配与管理,以及通过多源数据进行采集、识别、相关、组合和估计进而达到更加精确的姿态估计,具有极大的研究价值。此外,采用多传感器可以增强AGV系统的环境感知维度,对抵抗环境干扰、提升系统稳定性也是很有价值的。
现阶段也有很多研究者提出了各种各样的多传感器组合定位方案,但是在这些方案中引入的其它传感器很多都是用于对SLAM(simultaneous localization and mapping,即同时定位与地图构建)定位过程的优化,虽然可以在一定程度上提高AGV的构图定位效率和稳定性,但是在定位精度方面始终不能突破激光雷达自身的精度极限。许多研究者都认为基于视觉的SLAM方法是未来的SLAM技术的突破点,因为摄像头通常具有更高精度的环境分辨能力,但是目前相关算法都还不够成熟,并且完整的视觉SLAM过程又需要很高的计算能力,目前工业设备上的处理器还很难达到这样的计算能力。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于多传感器数据融合的AGV定位方法,结合IMU姿态传感器、激光雷达和摄像头,提高二维平面AGV定位的稳定性和精确度。
为实现上述发明目的,本发明基于多传感器数据融合的AGV定位方法的具体步骤包括:
S1:在AGV车体上安装IMU姿态传感器、激光雷达和摄像头,其中IMU姿态传感器安装于AGV车体中心,以其中心位姿坐标作为AGV的位姿坐标,激光雷达安装于AGV车体前方,摄像头安装位置可根据AGV工作环境中铺设的标志进行确定,须保证摄像头能够有效识别各个标志;
S2:在AGV工作环境中铺设若干标志,在AGV运行的每一个时刻至少有一个标志在AGV上搭载的摄像头视野范围之内,基于所铺设标志建立全局坐标系,并建立包含每个标志在全局坐标系中位姿坐标的标志坐标数据库;
S3:在AGV运动过程中,采用IMU姿态传感器获取当前定位周期的AGV姿态信息,记所得到的水平面方向上的旋转角度为west,利用之前定位周期所得到的AGV在全局坐标系下的位姿中的位置坐标,通过航迹推算得到当前定位周期AGV的位置估计[xest,yest],即可得到AGV当前定位周期的位姿估计Pest=[xest,yest,west];
S4:将步骤S3得到的位姿估计Pest=[xest,yest,west]作为激光雷达扫描匹配定位的初始值,通过激光雷达扫描匹配得到位姿估计Pscan=[xscan,yscan,wscan];
S5:摄像头通过标志识别和畸变矫正获取到当前视野中标志的像素坐标Ppixel=[xpixel,ypixel,wpixel],然后通过摄像头像素距离与空间实际距离的映射关系,得到在水平投影平面上标志相对摄像头视野中心的实际位姿坐标Pcsign=[xcsign,ycsign,wcsign];
根据Pcsign和Pscan计算得到标志的估计位姿坐标Pms=[xms,yms,0]:
其中,L为AGV车身中心与摄像头视野中心在水平面上的投影距离,θ为AGV在全局坐标系中的角度姿态,采用以下方法确定:
求取wcsign和wscan的差值λ=|(-wcsign)-wscan|,如果差值λ小于预设的阈值,令令θ=wscan,否则令θ=-wcsign;
根据估计位姿坐标Pms=[xms,yms,0],从标志坐标数据库搜索最接近的标志,确定所识别标志在全局坐标系中的准确位姿坐标Pfixed=[xfixed,yfixed,0];
S6:根据Pcsign和Pfixed计算得到摄像头视野中心在全局坐标系的位姿坐标Pcamera=[xcamera,ycamera,wcamera]:
Pcamera=[xcamera,ycamera,wcamera]=[xfixed-xcsigncosθ+ycsignsinθ,yfixed-xcsignsinθ-ycsigncosθ,θ]
进而得到AGV的全局位姿坐标Pcagv=[xcagv,ycagv,wcagv]:
Pcagv=[xcagv,ycagv,wcagv]=[xcamera(1-Lcosθ),ycamera(1-Lsinθ),θ];
S7:计算摄像头所识别到的标志面积Ssize,并以此为依据将Pscan和Pcagv两个数据进行动态加权融合,从而得到最终的AGV位姿Pout=[xout,yout,wout],完成AGV定位,融合公式如下:
其中Sq为标志的期望面积,[a,b]为预设的摄像头标志识别数据有效的阈值范围。
本发明基于多传感器数据融合的AGV定位方法,在AGV车体上安装IMU姿态传感器、激光雷达和摄像头,并在工作环境进行标志铺设,AGV运动过程中,采用IMU姿态传感器和基于历史定位结果得到位姿估计,将其作为激光雷达扫描匹配定位的初始值,由激光雷达得到位姿估计;然后通过摄像头拍摄工作环境图像,从中识别出标志,结合标志位姿对AGV进行位姿估计,然后通过动态加权的方式对基于激光雷达的位姿估计和基于摄像头的位姿估计进行数据融合得到最终位姿。采用本发明可以提高二维平面AGV定位的稳定性和精确度。
附图说明
图1是本发明基于多传感器数据融合的AGV定位方法的具体实施方式流程图;
图2是本发明AGV的传感器配置示例图;
图3是本实施例中工作环境设置示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明基于多传感器数据融合的AGV定位方法的具体实施方式流程图。如图1所示,本发明基于多传感器数据融合的AGV定位方法具体步骤包括:
S101:传感器配置:
在AGV车体上安装IMU(Inertial measurement unit,惯性测量单元)姿态传感器、激光雷达和摄像头,其中IMU姿态传感器安装于AGV车体中心,以其中心位姿坐标作为AGV的位姿坐标,激光雷达安装于AGV车体前方,摄像头安装位置可根据AGV工作环境中铺设的标志进行确定,须保证摄像头能够有效识别各个标志。图2是本发明AGV的传感器配置示例图。
S102:AGV工作环境设置:
在AGV工作环境中铺设若干标志,在AGV运行的每一个时刻至少有一个标志在AGV上搭载的摄像头视野范围之内,基于所铺设标志建立全局坐标系,并建立包含每个标志在全局坐标系中位姿坐标的标志坐标数据库。
所铺设的这些标志可以是铺设在地面的视觉可见标志,也可以是天花板上的电灯等标志物。为了使摄像头能够判别当前标志的方向,标志优选为由两部分不同图像特征组成的标志图像。若采用电灯等不具备明确方向特征的标志摄像头将无法判断标志的方向,但是水平面上的X、Y定位坐标依然有效,仍然可以实现定位。在铺设标志时,一般采用阵列分布,优选设置相邻标志之间的行、列间距相同,即标志在工作环境内均匀分布。图3是本实施例中工作环境设置示意图。如图3所示,本实施例中的标志由两种不同颜色矩形构成,且各个标志均匀分布,相邻标志之间横纵方向上的间距都为S,并以左下角第一个标志的中心为坐标原点建立全局坐标系,并且设置每个标志方向都与全局坐标系中X轴的方向一致。
S103:基于IMU姿态传感器和历史定位结果进行位姿估计:
在AGV运动过程中,采用IMU姿态传感器获取当前定位周期的AGV姿态信息,记所得到的水平面方向上的旋转角度为west,利用之前定位周期所得到的AGV在全局坐标系下的位姿中的位置坐标,通过航迹推算得到当前定位周期AGV的位置估计[xest,yest],即可得到AGV当前定位周期的位姿估计Pest=[xest,yest,west]。
本实施例中,航迹推算的具体方法为:
其中,Δtk、Δtk-1分别表示当前第k个定位周期和第k-1个定位周期的时间长度,表示第k-1个定位周期AGV在全局坐标系下的位姿中的位置坐标,表示第k-2个定位周期AGV在全局坐标系下的位姿中的位置坐标,显然分别为第k-1个定位周期AGV在X轴和Y轴上的运行速率。
由于本发明中AGV的定位结果是结合摄像头得到的,当摄像头正常工作时,由于摄像头标志识别的定位结果是没有累积误差的。因此在基于IMU姿态传感器进行位姿估计时,引入历史定位结果,可以减少累积误差。
S104:基于激光雷达进行定位:
将步骤S103得到的位姿估计Pest=[xest,yest,west]作为激光雷达扫描匹配定位的初始值,通过激光雷达扫描匹配得到位姿估计Pscan=[xscan,yscan,wscan]。一般来说,激光雷达在扫描匹配定位过程中会同时进行环境二维地图的构建。
S105:标志识别与定位:
摄像头通过标志识别和畸变矫正获取到当前视野中标志的像素坐标Ppixel=[xpixel,ypixel,wpixel],然后通过摄像头像素距离与空间实际距离的映射关系,得到在水平投影平面上标志相对摄像头视野中心的实际位姿坐标Pcsign=[xcsign,ycsign,wcsign]。记摄像头所拍摄的图像(即视野范围)的分辨率为m×n,对应实际空间面积为W×H,则标志相对摄像头视野中心的实际位姿坐标Pcsign获取方式如下:
其中:
上标T表示转置。
将Pcsign与步骤S104中得到的Pscan联合起来,可以得到一个不太准确的当前标志的估计位姿坐标Pms=[xms,yms,0],具体方法如下:
其中,L为AGV车身中心与摄像头视野中心在水平面上的投影距离(如图2),θ为AGV在全局坐标系中的角度姿态,由于本实施例中使用的标志识别方法角度识别精度较低,可以先由wcsign判断wscan有无明显失真,进行判断时可以先求取二者的差值,由于wcsign和wscan方向相反,所以差值λ=|(-wcsign)-wscan|,然后判断差值λ是否小于预设的阈值,如果是,则认为wscan没有明显失真,并令θ=wscan,否则认为wscan有明显失真,令θ=-wcsign,取反是因为wcsign是标志相对AGV的角度,而θ是AGV相对于标志(也是全局地图)的角度。
根据估计位姿坐标Pms=[xms,yms,0],从标志坐标数据库搜索最接近的标志,进而确定所识别标志在全局坐标系中的准确位姿坐标Pfixed=[xfixed,yfixed,0]。
由于本实施例中标志是等间距均匀铺设的,因此也可以直接根据估计位姿坐标Pms=[xms,yms,0]计算出其准确位姿坐标Pfixed=[xfixed,yfixed,0],计算方法如下:
上式中,L表示AGV车身中心与摄像头视野中心在水平面上的投影距离,S表示相邻标志之间的间隔距离,表示向下取整。
S106:基于摄像头进行定位:
将步骤S105中得到的Pcsign与Pfixed联合起来,就可以获取到摄像头视野中心在全局坐标系的位姿坐标Pcamera=[xcamera,ycamera,wcamera],具体的计算公式如下:
Pcamera=[xcamera,ycamera,wcamera]=[xfixed-xcsigncosθ+ycsignsinθ,yfixed-xcsignsinθ-ycsigncosθ,θ]
由于本发明中摄像头在AGV上的位姿是固定的,所以就可以得到AGV的全局位姿坐标Pcagv=[xcagv,ycagv,wcagv]:
Pcagv=[xcagv,ycagv,wcagv]=[xcamera(1-Lcosθ),ycamera(1-Lsinθ),θ]。
S107:AGV定位:
计算摄像头所识别到的标志面积Ssize,并以此为依据将Pscan和Pcagv两个数据进行动态加权融合,从而得到最终的AGV位姿Pout=[xout,yout,wout],完成AGV定位,融合公式如下:
其中Sq为标志的期望面积,[a,b]为预设的摄像头标志识别数据有效的阈值范围,即当标志面积Ssize超过此范围,则认为摄像头标志的识别数据无效。
为了更好地说明本发明的技术效果,采用图2所示的AGV和图3所示的工作环境对本发明进行实验验证,验证发现,当时,局部位置定位精度为±1cm,当Ssize∈[a,b]时,局部位置定位精度可以达到±0.3cm,可以有效满足实际需要。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (4)
1.一种基于多传感器数据融合的AGV定位方法,其特征在于,包括以下步骤:
S1:在AGV车体上安装IMU姿态传感器、激光雷达和摄像头,其中IMU姿态传感器安装于AGV车体中心,以其中心位姿坐标作为AGV的位姿坐标,激光雷达安装于AGV车体前方,摄像头安装位置可根据AGV工作环境中铺设的标志进行确定,须保证摄像头能够有效识别各个标志;
S2:在AGV工作环境中铺设若干标志,在AGV运行的每一个时刻至少有一个标志在AGV上搭载的摄像头视野范围之内,基于所铺设标志建立全局坐标系,并建立包含每个标志在全局坐标系中位姿坐标的标志坐标数据库;
S3:在AGV运动过程中,采用IMU姿态传感器获取当前定位周期的AGV姿态信息,记所得到的水平面方向上的旋转角度为west,利用之前定位周期所得到的AGV在全局坐标系下的位姿中的位置坐标,通过航迹推算得到当前定位周期AGV的位置估计[xest,yest],即可得到AGV当前定位周期的位姿估计Pest=[xest,yest,west];
S4:将步骤S3得到的位姿估计Pest=[xest,yest,west]作为激光雷达扫描匹配定位的初始值,通过激光雷达扫描匹配得到位姿估计Pscan=[xscan,yscan,wscan];
S5:摄像头通过标志识别和畸变矫正获取到当前视野中标志的像素坐标Ppixel=[xpixel,ypixel,wpixel],然后通过摄像头像素距离与空间实际距离的映射关系,得到在水平投影平面上标志相对摄像头视野中心的实际位姿坐标Pcsign=[xcsign,ycsign,wcsign];
根据Pcsign和Pscan计算得到标志的估计位姿坐标Pms=[xms,yms,0]:
其中,L为AGV车身中心与摄像头视野中心在水平面上的投影距离,θ为AGV在全局坐标系中的角度姿态,采用以下方法确定:
求取wcsign和wscan的差值λ,λ=|(-wcsign)-wscan|,如果差值λ小于预设的阈值,令θ=wscan,否则令θ=-wcsign;
根据估计位姿坐标Pms=[xms,yms,0],从标志坐标数据库搜索最接近的标志,确定所识别标志在全局坐标系中的准确位姿坐标Pfixed=[xfixed,yfixed,0];
S6:根据Pcsign和Pfixed计算得到摄像头视野中心在全局坐标系的位姿坐标Pcamera=[xcamera,ycamera,wcamera]:
Pcamera=[xcamera,ycamera,wcamera]
=[xfixed-xcsigncosθ+ycsignsinθ,yfixed-xcsignsinθ-ycsigncosθ,θ]
进而得到AGV的全局位姿坐标Pcagv=[xcagv,ycagv,wcagv]:
Pcagv=[xcagv,ycagv,wcagv]=[xcamera(1-Lcosθ),ycamera(1-Lsinθ),θ];
S7:计算摄像头所识别到的标志面积Ssize,并以此为依据将Pscan和Pcagv两个数据进行动态加权融合,从而得到最终的AGV位姿Pout=[xout,yout,wout],完成AGV定位,融合公式如下:
其中Sq为标志的期望面积,[a,b]为预设的摄像头标志识别数据有效的阈值范围。
2.根据权利要求1所述的AGV定位方法,其特征在于,所述步骤S2中的标志由两种不同颜色矩形构成,且各个标志均匀分布。
3.根据权利要求1所述的AGV定位方法,其特征在于,所述步骤S3中航迹推算的具体方法为:
其中,Δtk、Δtk-1分别表示当前第k个定位周期和第k-1个定位周期的时间长度,表示第k-1个定位周期AGV在全局坐标系下的位姿中的位置坐标,表示第k-2个定位周期AGV在全局坐标系下的位姿中的位置坐标。
4.根据权利要求1所述的AGV定位方法,其特征在于,所述步骤S5中实际位姿坐标Pcsign=[xcsign,ycsign,wcsign]的获取方法为:
记摄像头所拍摄的图像(即视野范围)的分辨率为m×n,对应实际空间面积为W×H,则标志相对摄像头视野中心的实际位姿坐标Pcsign获取方式如下:
其中:
上标T表示转置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910419434.8A CN110108269B (zh) | 2019-05-20 | 2019-05-20 | 基于多传感器数据融合的agv定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910419434.8A CN110108269B (zh) | 2019-05-20 | 2019-05-20 | 基于多传感器数据融合的agv定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110108269A true CN110108269A (zh) | 2019-08-09 |
CN110108269B CN110108269B (zh) | 2023-01-17 |
Family
ID=67491101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910419434.8A Expired - Fee Related CN110108269B (zh) | 2019-05-20 | 2019-05-20 | 基于多传感器数据融合的agv定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110108269B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111256689A (zh) * | 2020-01-15 | 2020-06-09 | 北京智华机器人科技有限公司 | 一种机器人定位方法、机器人和存储介质 |
CN111994169A (zh) * | 2020-09-08 | 2020-11-27 | 北京北特圣迪科技发展有限公司 | 基于位置补偿的独立驱动转向的表演小车运动控制方法 |
CN112734844A (zh) * | 2021-01-08 | 2021-04-30 | 河北工业大学 | 一种基于正八面体的单目6d位姿估计方法 |
CN112947475A (zh) * | 2021-03-22 | 2021-06-11 | 山东大学 | 一种激光导航叉车式agv车载系统及方法 |
CN113175925A (zh) * | 2021-04-14 | 2021-07-27 | 武汉理工大学 | 定位与导航系统以及方法 |
CN114166218A (zh) * | 2021-11-30 | 2022-03-11 | 上海智能网联汽车技术中心有限公司 | 基于多定位融合的室内定位导航系统及方法 |
CN114200481A (zh) * | 2020-08-28 | 2022-03-18 | 华为技术有限公司 | 一种定位方法、定位系统和车辆 |
CN117553800A (zh) * | 2024-01-04 | 2024-02-13 | 深圳市乐骑智能科技有限公司 | Agv定位与路径规划方法及装置 |
CN117760437A (zh) * | 2023-12-20 | 2024-03-26 | 北京远舢智能科技有限公司 | 一种自动驾驶中的车辆定位方法、装置、电子设备及介质 |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000054008A1 (en) * | 1999-03-11 | 2000-09-14 | Intelligent Technologies International, Inc. | Methods and apparatus for preventing vehicle accidents |
US20090138138A1 (en) * | 2006-09-29 | 2009-05-28 | Bran Ferren | Imaging and display system to aid helicopter landings in brownout conditions |
CN202008363U (zh) * | 2011-01-12 | 2011-10-12 | 湖南农业大学 | 基于全方位视觉传感器进行自动导航的z轴定位系统 |
US20130054129A1 (en) * | 2011-08-26 | 2013-02-28 | INRO Technologies Limited | Method and apparatus for using unique landmarks to locate industrial vehicles at start-up |
KR20150097062A (ko) * | 2014-02-18 | 2015-08-26 | 한국해양대학교 산학협력단 | 무인운반차의 복합항법 주행시스템 |
CN105279581A (zh) * | 2015-11-16 | 2016-01-27 | 电子科技大学 | 基于差分进化的geo-uav双基sar路径规划方法 |
CN205450772U (zh) * | 2016-01-05 | 2016-08-10 | 东莞市松迪智能机器人科技有限公司 | 一种全向自动导引车 |
CN106216284A (zh) * | 2016-08-14 | 2016-12-14 | 杭州锐冠科技有限公司 | 一种自动清板系统 |
CN106441234A (zh) * | 2016-09-22 | 2017-02-22 | 上海极清慧视科技有限公司 | 一种3d机器视觉空间检测标定方法 |
CN107481267A (zh) * | 2017-08-14 | 2017-12-15 | 华南理工大学 | 一种基于双目视觉的摄像投影交互系统及方法 |
CN107861507A (zh) * | 2017-10-13 | 2018-03-30 | 上海斐讯数据通信技术有限公司 | 一种基于惯导纠偏和slam室内定位的agv控制方法及系统 |
CN107967473A (zh) * | 2016-10-20 | 2018-04-27 | 南京万云信息技术有限公司 | 基于图文识别和语义的机器人自主定位和导航 |
CN108646750A (zh) * | 2018-06-08 | 2018-10-12 | 杭州电子科技大学 | 基于uwb非基站便捷式工厂agv跟随方法 |
CN108681711A (zh) * | 2018-05-17 | 2018-10-19 | 常州信息职业技术学院 | 一种面向移动机器人的自然路标提取方法 |
CN108932736A (zh) * | 2018-05-30 | 2018-12-04 | 南昌大学 | 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法 |
CN109062221A (zh) * | 2018-09-03 | 2018-12-21 | 成都市新筑路桥机械股份有限公司 | 一种智能编组车辆系统及其控制方法 |
CN109215071A (zh) * | 2018-10-08 | 2019-01-15 | 东南大学 | 基于视觉的智能稻麦收割机割幅测量方法 |
CN109579844A (zh) * | 2018-12-04 | 2019-04-05 | 电子科技大学 | 定位方法及系统 |
CN109583409A (zh) * | 2018-12-07 | 2019-04-05 | 电子科技大学 | 一种面向认知地图的智能车定位方法及系统 |
CN109677312A (zh) * | 2018-12-29 | 2019-04-26 | 广州蓝海机器人系统有限公司 | 双层输送二维码导航的agv及控制方法 |
CN109709801A (zh) * | 2018-12-11 | 2019-05-03 | 智灵飞(北京)科技有限公司 | 一种基于激光雷达的室内无人机定位系统及方法 |
CN109765901A (zh) * | 2019-02-18 | 2019-05-17 | 华南理工大学 | 基于线激光与双目视觉的动态代价地图导航方法 |
-
2019
- 2019-05-20 CN CN201910419434.8A patent/CN110108269B/zh not_active Expired - Fee Related
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000054008A1 (en) * | 1999-03-11 | 2000-09-14 | Intelligent Technologies International, Inc. | Methods and apparatus for preventing vehicle accidents |
US20090138138A1 (en) * | 2006-09-29 | 2009-05-28 | Bran Ferren | Imaging and display system to aid helicopter landings in brownout conditions |
CN202008363U (zh) * | 2011-01-12 | 2011-10-12 | 湖南农业大学 | 基于全方位视觉传感器进行自动导航的z轴定位系统 |
US20130054129A1 (en) * | 2011-08-26 | 2013-02-28 | INRO Technologies Limited | Method and apparatus for using unique landmarks to locate industrial vehicles at start-up |
KR20150097062A (ko) * | 2014-02-18 | 2015-08-26 | 한국해양대학교 산학협력단 | 무인운반차의 복합항법 주행시스템 |
CN105279581A (zh) * | 2015-11-16 | 2016-01-27 | 电子科技大学 | 基于差分进化的geo-uav双基sar路径规划方法 |
CN205450772U (zh) * | 2016-01-05 | 2016-08-10 | 东莞市松迪智能机器人科技有限公司 | 一种全向自动导引车 |
CN106216284A (zh) * | 2016-08-14 | 2016-12-14 | 杭州锐冠科技有限公司 | 一种自动清板系统 |
CN106441234A (zh) * | 2016-09-22 | 2017-02-22 | 上海极清慧视科技有限公司 | 一种3d机器视觉空间检测标定方法 |
CN107967473A (zh) * | 2016-10-20 | 2018-04-27 | 南京万云信息技术有限公司 | 基于图文识别和语义的机器人自主定位和导航 |
CN107481267A (zh) * | 2017-08-14 | 2017-12-15 | 华南理工大学 | 一种基于双目视觉的摄像投影交互系统及方法 |
CN107861507A (zh) * | 2017-10-13 | 2018-03-30 | 上海斐讯数据通信技术有限公司 | 一种基于惯导纠偏和slam室内定位的agv控制方法及系统 |
CN108681711A (zh) * | 2018-05-17 | 2018-10-19 | 常州信息职业技术学院 | 一种面向移动机器人的自然路标提取方法 |
CN108932736A (zh) * | 2018-05-30 | 2018-12-04 | 南昌大学 | 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法 |
CN108646750A (zh) * | 2018-06-08 | 2018-10-12 | 杭州电子科技大学 | 基于uwb非基站便捷式工厂agv跟随方法 |
CN109062221A (zh) * | 2018-09-03 | 2018-12-21 | 成都市新筑路桥机械股份有限公司 | 一种智能编组车辆系统及其控制方法 |
CN109215071A (zh) * | 2018-10-08 | 2019-01-15 | 东南大学 | 基于视觉的智能稻麦收割机割幅测量方法 |
CN109579844A (zh) * | 2018-12-04 | 2019-04-05 | 电子科技大学 | 定位方法及系统 |
CN109583409A (zh) * | 2018-12-07 | 2019-04-05 | 电子科技大学 | 一种面向认知地图的智能车定位方法及系统 |
CN109709801A (zh) * | 2018-12-11 | 2019-05-03 | 智灵飞(北京)科技有限公司 | 一种基于激光雷达的室内无人机定位系统及方法 |
CN109677312A (zh) * | 2018-12-29 | 2019-04-26 | 广州蓝海机器人系统有限公司 | 双层输送二维码导航的agv及控制方法 |
CN109765901A (zh) * | 2019-02-18 | 2019-05-17 | 华南理工大学 | 基于线激光与双目视觉的动态代价地图导航方法 |
Non-Patent Citations (4)
Title |
---|
LU FANG: "An improved passive location algorithm for maneuvering target emitter", 《IEEE 10TH INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING PROCEEDINGS》 * |
SHAOPING LU: "A RFID-enabled positioning system in automated guided vehicle for smart factories", 《JOURNAL OF MANUFACTURING SYSTEMS》 * |
于力: "外军反蜂群无人机技术发展分析", 《飞航导弹》 * |
魏书平: "基于RFID和DR的AGV室内定位算法优化研究", 《蚌埠学院学报》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111256689A (zh) * | 2020-01-15 | 2020-06-09 | 北京智华机器人科技有限公司 | 一种机器人定位方法、机器人和存储介质 |
CN114200481A (zh) * | 2020-08-28 | 2022-03-18 | 华为技术有限公司 | 一种定位方法、定位系统和车辆 |
CN111994169A (zh) * | 2020-09-08 | 2020-11-27 | 北京北特圣迪科技发展有限公司 | 基于位置补偿的独立驱动转向的表演小车运动控制方法 |
CN112734844A (zh) * | 2021-01-08 | 2021-04-30 | 河北工业大学 | 一种基于正八面体的单目6d位姿估计方法 |
CN112734844B (zh) * | 2021-01-08 | 2022-11-08 | 河北工业大学 | 一种基于正八面体的单目6d位姿估计方法 |
CN112947475A (zh) * | 2021-03-22 | 2021-06-11 | 山东大学 | 一种激光导航叉车式agv车载系统及方法 |
CN113175925A (zh) * | 2021-04-14 | 2021-07-27 | 武汉理工大学 | 定位与导航系统以及方法 |
CN114166218A (zh) * | 2021-11-30 | 2022-03-11 | 上海智能网联汽车技术中心有限公司 | 基于多定位融合的室内定位导航系统及方法 |
CN117760437A (zh) * | 2023-12-20 | 2024-03-26 | 北京远舢智能科技有限公司 | 一种自动驾驶中的车辆定位方法、装置、电子设备及介质 |
CN117553800A (zh) * | 2024-01-04 | 2024-02-13 | 深圳市乐骑智能科技有限公司 | Agv定位与路径规划方法及装置 |
CN117553800B (zh) * | 2024-01-04 | 2024-03-19 | 深圳市乐骑智能科技有限公司 | Agv定位与路径规划方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110108269B (zh) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110108269A (zh) | 基于多传感器数据融合的agv定位方法 | |
JP5588812B2 (ja) | 画像処理装置及びそれを用いた撮像装置 | |
CN104200086B (zh) | 宽基线可见光相机位姿估计方法 | |
Alonso et al. | Accurate global localization using visual odometry and digital maps on urban environments | |
CN102419178B (zh) | 基于红外路标的移动机器人定位系统和方法 | |
CN108388244A (zh) | 基于人工路标的移动机器人系统、停靠方法及存储介质 | |
CN112396656B (zh) | 一种视觉与激光雷达融合的室外移动机器人位姿估计方法 | |
CN113984081B (zh) | 定位方法、装置、自移动设备和存储介质 | |
Chen et al. | Vision-based autonomous vehicle guidance for indoor security patrolling by a SIFT-based vehicle-localization technique | |
CN107436422B (zh) | 一种基于红外线灯立体阵列的机器人定位方法 | |
CN110211228A (zh) | 用于建图的数据处理方法及装置 | |
Bischoff et al. | Fusing vision and odometry for accurate indoor robot localization | |
KR102174729B1 (ko) | 랜드마크를 활용한 주행차로 인식 방법 및 시스템 | |
CN113608556A (zh) | 一种基于多传感器融合的多机器人相对定位方法 | |
Avgeris et al. | Single vision-based self-localization for autonomous robotic agents | |
CN109213156A (zh) | 一种用于agv小车的全局引导系统及其方法 | |
CN110728684B (zh) | 地图构建方法、装置、存储介质及电子设备 | |
Jang et al. | Metric localization using a single artificial landmark for indoor mobile robots | |
CN110703773B (zh) | 一种使用圆和编码光源作为标识物进行agv定位的方法 | |
CN111380503B (zh) | 一种采用激光辅助标定的单目相机测距方法 | |
Yuan et al. | Estimation of vehicle pose and position with monocular camera at urban road intersections | |
CN112884832B (zh) | 一种基于多目视觉的智能小车轨迹预测方法 | |
CN112611344B (zh) | 一种自主移动式平面度检测方法、设备及存储介质 | |
CN110031014B (zh) | 基于图案识别的视觉定位方法 | |
Zheng et al. | Localization method based on multi-QR codes for mobile robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20230117 |