CN110018688A - 基于视觉的自动引导车定位方法 - Google Patents
基于视觉的自动引导车定位方法 Download PDFInfo
- Publication number
- CN110018688A CN110018688A CN201910289972.XA CN201910289972A CN110018688A CN 110018688 A CN110018688 A CN 110018688A CN 201910289972 A CN201910289972 A CN 201910289972A CN 110018688 A CN110018688 A CN 110018688A
- Authority
- CN
- China
- Prior art keywords
- characteristic point
- key frame
- pose
- current
- left mesh
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000004807 localization Effects 0.000 title claims abstract description 20
- 238000005457 optimization Methods 0.000 claims abstract description 27
- 230000009466 transformation Effects 0.000 claims abstract description 7
- 238000013459 approach Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 239000000571 coke Substances 0.000 claims 1
- 230000005291 magnetic effect Effects 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005294 ferromagnetic effect Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000010048 yiguan Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于视觉的自动引导车定位方法,包括:采集AGV前方的双目图像并进行特征点匹配,计算匹配成功的特征点深度;以舍弃未匹配上的特征点后的左目图像作为当前图片帧,并将其特征点与地图中上一关键帧的特征点进行匹配,根据匹配结果利用ICP算法解算左目相机的当前位姿;根据左目相机的当前位姿及AGV与左目相机之间的位姿变换关系解算AGV的当前位置;是否有二维码定位信息输入,是,将当前图片帧设为当前关键帧并做全局优化;否,判断当前图片帧是否满足预设条件,满足则将当前图片帧设为当前关键帧并做局部滑动窗口优化;不满足则重新采集图像;利用经过全局优化或局部滑动窗口优化的关键帧及其特征点更新地图,并进入下一次定位。
Description
技术领域
本发明涉及机器人视觉领域,具体涉及一种基于视觉的自动引导车定位方法。
背景技术
自动引导车,又称自动导引车(Automated Guided Vehicle,简称AGV),是指具有磁条、轨道或者激光等自动导引设备,可沿规划好的路径行驶,以电池为动力,并且装备了安全保护以及各种辅助机构(例如移载,装配机构)的无人驾驶自动化车辆。在控制中心的监控及任务调度下,AGV可以准确地按照规定的路径行走,到达任务指定位置后,完成一系列的作业任务。
目前的AGV定位导航方式主要有电磁导航、磁条导航、惯性定位导航、二维码定位导航、激光定位导航等几种方式。
电磁导航需要预先规划好AGV行走路径,然后将金属导线铺设在路径上,导线通电进而产生磁场,AGV车载感应线圈,通过跟踪磁场进行导航。磁条导航是在地上安装铁磁条,在AGV左右侧贴上磁条感应装置,通过比较两侧的磁场强度来矫正偏差,进行导航。电磁导航和磁条导航只能使AGV走固定的路线,而且只能用来牵引AGV,难以做到定位的功能。
惯性定位导航通过对惯导积分得到速度和位置,自由度高、灵活性高,且没有固定路径的限制。但是普通的惯性传感器的积分误差极大,高精度的惯性传感器造价过高难以普及。
激光定位导航的方式精度较高,无需其它辅助设备,行驶路线灵活,缺点是造价相对较高,算法较为复杂,信号易受干扰,对光线、能见度等要求较为严苛。
二维码定位方式需要提前铺设二维码,在AGV的底侧安装摄像头,通过拍摄识别二维码来获取当前位置。二维码定位优点是铺设成本相对较低,缺点是二维码能提供的定位是离散的,且需要对二维码进行频繁的维护。
以上背景技术内容的公开仅用于辅助理解本发明的发明构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日前已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
本发明的主要目的在于克服现有定位方式的不足,提出一种基于视觉的自动引导车定位方法,定位过程中通过利用二维码定位技术对视觉里程计定位的累积误差进行不断的矫正,从而保证了高精度的实时定位。
本发明为达上述目的提出以下技术方案:
一种基于视觉的自动引导车定位方法,包括以下步骤:
S1、使用双目相机实时采集自动引导车前方的图像;
S2、提取双目图像的特征点进行匹配,并计算匹配成功的特征点的深度;将左目图像舍弃未在右目图像中找到匹配的特征点后,作为当前图片帧;
S3、将所述当前图片帧中的特征点与地图中上一关键帧中的特征点进行匹配,并根据匹配结果,利用迭代最近点算法解算左目相机的当前位姿;其中,所述地图是所有关键帧及关键帧中所有特征点的集合;
S4、根据左目相机的当前位姿以及自动引导车与左目相机之间的位姿变换关系,解算自动引导车的当前位置;
S5、检测是否有二维码定位信息输入,若有,则执行步骤S6;若无,则执行步骤S7;
S6、将所述当前图片帧设为当前关键帧并对所述地图进行全局优化;
S7、判断所述当前图片帧是否满足预设条件,若满足,则将所述当前图片帧设为当前关键帧并对所述地图进行局部滑动窗口优化;若不满足,则舍弃当前图片帧并返回步骤S1;
S8、利用经过全局优化或者局部滑动窗口优化的关键帧及其特征点更新所述地图,然后返回步骤S1开始下一时刻的定位。
本发明上述技术方案所提供的定位方法,采用视觉里程计技术作为主要的定位手段,并在实时定位的过程中使用AGV的二维码定位技术对视觉里程计的累积误差进行矫正,从而能够保证在有限的计算资源情况下,视觉里程计定位具有较高的实时定位精度。
附图说明
图1是本发明基于视觉的自动引导车定位方法的流程图。
具体实施方式
下面结合附图和具体的实施方式对本发明作进一步说明。
本发明的具体实施方式提供了一种基于视觉的自动引导车定位方法,采用视觉里程计技术作为主要的定位手段,并在实时定位的过程中采用二维码定位技术来不断地矫正视觉里程计的累积误差,参考图1,本发明的该定位方法包括如下步骤S1~S8:
S1、使用双目相机实时采集自动引导车前方的图像,每一时刻可以得到左目图像和右目图像。其中,采集图像之前的准备工作包括:使用张氏标定法,用棋盘格对双目相机进行标定,使得标定后的相机无畸变,成像平面在同一平面上,且极线位于相机成像平面的同一水平线上。
S2、提取双目图像的特征点进行匹配,并计算匹配成功的特征点的深度;将左目图像舍弃未在右目图像中找到匹配的特征点后,作为当前图片帧。本发明中优选地提取双目图像的ORB特征点进行匹配,匹配过程包括:对于每一个在左目图像中出现的特征点,根据其特征描述子在右目图像中附近的行的左侧寻找与其匹配的特征点,并进行抛物线拟合来获得亚像素级别的匹配。匹配成功的每一对特征点,均对应于空间中的同一个点。对于每一对匹配成功的特征点,可采用如下公式计算其深度d:
其中,f是相机的焦距,b是双目相机的光心距离,uL、uR分别为匹配成功的特征点在左目图像和右目图像中竖直方向上的位置。
S3、将所述当前图片帧中的特征点与地图中上一关键帧中的特征点进行匹配,并根据匹配结果,利用迭代最近点(ICP)算法解算左目相机的当前位姿;其中,所述地图是所有关键帧及关键帧中所有特征点的集合。具体而言,可以使用光束平差法评估所述地图中的参考点和左目相机的观测之间的误差,并使用列文伯格马夸尔特方法最小化所述误差,从而计算出左目相机的当前位姿;其中,所述参考点是所述上一关键帧中与所述当前图片帧的特征点匹配成功的特征点。使用列文伯格马夸尔特方法最小化所述误差的目标函数如下:
其中,{R,t}为左目相机的当前位姿,也即当前图片帧的位姿;P为当前图片帧与上一关键帧匹配成功的特征点集合,ρ为Huber罚函数,xi表示相机坐标系下第i个特征点的位置,R表示左目相机的旋转,t表示左目相机的平移向量,Xi表示世界坐标系下第i个特征点的位置。其中,xi的横纵坐标可从图像中获取,深度可利用前述公式(1)计算得到,Xi可利用xi进行坐标系转换得到。
S4、根据左目相机的当前位姿以及自动引导车与左目相机之间的位姿变换关系,解算自动引导车的当前位置。一般情况下,相机坐标系与引导车的坐标系之间保持固定,有一个固定的位姿变换关系,固定的位姿变换关系是已知的。因此,在得到相机的位姿信息时,可利用位姿变换关系,解算引导车的当前位置,从而完成粗定位。
S5、检测是否有二维码定位信息输入,若有,则执行步骤S6;若无,则执行步骤S7。
S6、将所述当前图片帧设为当前关键帧并对所述地图进行全局优化。所述全局优化包括:
将所述当前关键帧及其特征点的位姿作为固定变量,将所述当前关键帧周围预定范围内的关键帧及其特征点的位姿作为待优化变量,进行联合优化,优化的公式为:
关键帧的位姿等同于相应时刻左目相机的位姿,关键帧中特征点的位姿根据特征点自身的深度、左目相机的位姿以及左目相机内部参数解算得到;在式(3)中,表示所述预定范围内所有特征点的集合,表示所述预定范围内所有关键帧的集合,Rj表示第j个关键帧的旋转矩阵,tj表示第j个关键帧的平移向量。
S7、判断所述当前图片帧是否满足预设条件,若满足,则将所述当前图片帧设为当前关键帧并对所述地图进行局部滑动窗口优化;若不满足,则舍弃当前图片帧并返回步骤S1。所述预设条件包括:与上一关键帧之间间隔了至少10个图片帧,至少包括20对匹配点,以及,与上一关键帧的匹配点对数少于80%。所述局部滑动窗口优化包括:
将所述当前关键帧及其特征点的位姿与之前数个(优选地,是选取之前的20个关键帧,如果之前的总关键帧数小于20则取最大值,有多少关键帧就取多少关键帧)关键帧及其特征点的位姿做联合优化,优化过程将前一半数量的关键帧及其特征点的位姿作为固定变量,将后一半数量的关键帧及其特征点的位姿作为待优化变量;其中,关键帧的位姿等同于相应时刻左目相机的位姿,关键帧中特征点的位姿根据特征点自身的深度、左目相机的位姿以及左目相机内部参数解算得到;优化的公式为:
式(4)中,表示所述后一半数量的关键帧中所有特征点的集合,表示所述后一半数量的关键帧的集合。
S8、利用经过全局优化或者局部滑动窗口优化的关键帧及其特征点更新所述地图,然后返回步骤S1开始下一时刻的定位。
在一些实施例中,更新地图的操作还包括,依据以下规则删除所述地图中的部分关键帧及其特征点:删除实际可见和预测可见的比值小于25%的特征点,删除90%以上的特征点都能被其它关键帧观测到的关键帧。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (10)
1.一种基于视觉的自动引导车定位方法,其特征在于,包括以下步骤:
S1、使用双目相机实时采集自动引导车前方的图像;
S2、提取双目图像的特征点进行匹配,并计算匹配成功的特征点的深度;将左目图像舍弃未在右目图像中找到匹配的特征点后,作为当前图片帧;
S3、将所述当前图片帧中的特征点与地图中上一关键帧中的特征点进行匹配,并根据匹配结果,利用迭代最近点算法解算左目相机的当前位姿;其中,所述地图是所有关键帧及关键帧中所有特征点的集合;
S4、根据左目相机的当前位姿以及自动引导车与左目相机之间的位姿变换关系,解算自动引导车的当前位置;
S5、检测是否有二维码定位信息输入,若有,则执行步骤S6;若无,则执行步骤S7;
S6、将所述当前图片帧设为当前关键帧并对所述地图进行全局优化;
S7、判断所述当前图片帧是否满足预设条件,若满足,则将所述当前图片帧设为当前关键帧并对所述地图进行局部滑动窗口优化;若不满足,则舍弃当前图片帧并返回步骤S1;
S8、利用经过全局优化或者局部滑动窗口优化的关键帧及其特征点更新所述地图,然后返回步骤S1开始下一时刻的定位。
2.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S8还包括:
依据预设规则删除所述地图中的部分关键帧及其特征点,以更新所述地图。
3.如权利要求2所述的基于视觉的自动引导车定位方法,其特征在于,依据预设规则删除所述地图中的部分关键帧及其特征点包括:删除实际可见和预测可见的比值小于25%的特征点,删除90%以上的特征点都能被其它关键帧观测到的关键帧。
4.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S2中所提取的是双目图像的ORB特征点。
5.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S7中所述预设条件包括:与上一关键帧之间间隔了至少10个图片帧,包括至少20对匹配点,以及,与上一关键帧的匹配点对数少于80%。
6.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S2中双目图像的特征点匹配包括:
对于每一个在左目图像中出现的特征点,根据其特征描述子在右目图像中附近的行的左侧寻找与其匹配的特征点,并进行抛物线拟合来获得亚像素级别的匹配。
7.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S3中利用迭代最近点算法解算左目相机的当前位姿包括:
使用光束平差法评估所述地图中的参考点和左目相机的观测之间的误差,并使用列文伯格马夸尔特方法最小化所述误差,从而计算出左目相机的当前位姿;其中,所述参考点是所述上一关键帧中与所述当前图片帧的特征点匹配成功的特征点。
8.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S6中的所述全局优化包括:
将所述当前关键帧及其特征点的位姿作为固定变量,将所述当前关键帧周围预定范围内的关键帧及其特征点的位姿作为待优化变量,进行联合优化,优化的公式为:
其中,关键帧的位姿等同于相应时刻左目相机的位姿,关键帧中特征点的位姿根据特征点自身的深度、左目相机的位姿以及左目相机内部参数解算得到;a表示所述预定范围内所有特征点的集合,b表示所述预定范围内所有关键帧的集合,Xi表示世界坐标系下第i个特征点的位置,Rj表示第j个关键帧的旋转矩阵,tj表示第j个关键帧的平移向量,ρ为Huber罚函数,xi表示相机坐标系下第i个特征点的位置。
9.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S7中的所述局部滑动窗口优化包括:
将所述当前关键帧及其特征点的位姿与之前数个关键帧及其特征点的位姿做联合优化,优化过程将前一半数量的关键帧及其特征点的位姿作为固定变量,将后一半数量的关键帧及其特征点的位姿作为待优化变量;其中,关键帧的位姿等同于相应时刻左目相机的位姿,关键帧中特征点的位姿根据特征点自身的深度、左目相机的位姿以及左目相机内部参数解算得到;优化的公式为:
a表示所述后一半数量的关键帧中所有特征点的集合,b表示所述后一半数量的关键帧的集合,Xi表示世界坐标系下第i个特征点的位置,Rj表示第j个关键帧的旋转矩阵,tj表示第j个关键帧的平移向量,ρ为Huber罚函数,xi表示相机坐标系下第i个特征点的位置。
10.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,在步骤S2中,对于每一对匹配成功的特征点,采用公式计算特征点的深度;其中,f是相机的焦距,b是双目相机的光心距离,uL、uR分别为匹配成功的特征点在左目图像和右目图像中竖直方向上的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910289972.XA CN110018688B (zh) | 2019-04-11 | 2019-04-11 | 基于视觉的自动引导车定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910289972.XA CN110018688B (zh) | 2019-04-11 | 2019-04-11 | 基于视觉的自动引导车定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110018688A true CN110018688A (zh) | 2019-07-16 |
CN110018688B CN110018688B (zh) | 2022-03-29 |
Family
ID=67191062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910289972.XA Active CN110018688B (zh) | 2019-04-11 | 2019-04-11 | 基于视觉的自动引导车定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110018688B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112204345A (zh) * | 2020-01-20 | 2021-01-08 | 珊口(深圳)智能科技有限公司 | 移动设备的室内定位方法、移动设备及控制系统 |
CN112307810A (zh) * | 2019-07-26 | 2021-02-02 | 北京初速度科技有限公司 | 一种视觉定位效果自检方法及车载终端 |
WO2022100134A1 (zh) * | 2020-11-11 | 2022-05-19 | 珠海格力智能装备有限公司 | 自动导引装置的控制方法及装置、处理器、电子设备 |
WO2022142808A1 (zh) * | 2020-12-30 | 2022-07-07 | 深圳市海柔创新科技有限公司 | 仓储机器人、摄像组件及定位方法 |
US11715229B2 (en) | 2019-11-15 | 2023-08-01 | Kabushiki Kaisha Toshiba | Moving body and system |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105300403A (zh) * | 2015-09-22 | 2016-02-03 | 清华大学 | 一种基于双目视觉的车辆里程计算法 |
CN105674993A (zh) * | 2016-01-15 | 2016-06-15 | 武汉光庭科技有限公司 | 基于双目相机的高精度视觉定位地图生成系统及方法 |
CN106052683A (zh) * | 2016-05-25 | 2016-10-26 | 速感科技(北京)有限公司 | 机器人运动姿态估计方法 |
CN106989746A (zh) * | 2017-03-27 | 2017-07-28 | 远形时空科技(北京)有限公司 | 导航方法及导航装置 |
CN107160395A (zh) * | 2017-06-07 | 2017-09-15 | 中国人民解放军装甲兵工程学院 | 地图构建方法及机器人控制系统 |
CN108090958A (zh) * | 2017-12-06 | 2018-05-29 | 上海阅面网络科技有限公司 | 一种机器人同步定位和地图构建方法和系统 |
CN108406731A (zh) * | 2018-06-06 | 2018-08-17 | 珠海市微半导体有限公司 | 一种基于深度视觉的定位装置、方法及机器人 |
CN208323361U (zh) * | 2018-06-06 | 2019-01-04 | 珠海市一微半导体有限公司 | 一种基于深度视觉的定位装置及机器人 |
CN109579843A (zh) * | 2018-11-29 | 2019-04-05 | 浙江工业大学 | 一种空地多视角下的多机器人协同定位及融合建图方法 |
-
2019
- 2019-04-11 CN CN201910289972.XA patent/CN110018688B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105300403A (zh) * | 2015-09-22 | 2016-02-03 | 清华大学 | 一种基于双目视觉的车辆里程计算法 |
CN105674993A (zh) * | 2016-01-15 | 2016-06-15 | 武汉光庭科技有限公司 | 基于双目相机的高精度视觉定位地图生成系统及方法 |
CN106052683A (zh) * | 2016-05-25 | 2016-10-26 | 速感科技(北京)有限公司 | 机器人运动姿态估计方法 |
CN106989746A (zh) * | 2017-03-27 | 2017-07-28 | 远形时空科技(北京)有限公司 | 导航方法及导航装置 |
CN107160395A (zh) * | 2017-06-07 | 2017-09-15 | 中国人民解放军装甲兵工程学院 | 地图构建方法及机器人控制系统 |
CN108090958A (zh) * | 2017-12-06 | 2018-05-29 | 上海阅面网络科技有限公司 | 一种机器人同步定位和地图构建方法和系统 |
CN108406731A (zh) * | 2018-06-06 | 2018-08-17 | 珠海市微半导体有限公司 | 一种基于深度视觉的定位装置、方法及机器人 |
CN208323361U (zh) * | 2018-06-06 | 2019-01-04 | 珠海市一微半导体有限公司 | 一种基于深度视觉的定位装置及机器人 |
CN109579843A (zh) * | 2018-11-29 | 2019-04-05 | 浙江工业大学 | 一种空地多视角下的多机器人协同定位及融合建图方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112307810A (zh) * | 2019-07-26 | 2021-02-02 | 北京初速度科技有限公司 | 一种视觉定位效果自检方法及车载终端 |
CN112307810B (zh) * | 2019-07-26 | 2023-08-04 | 北京魔门塔科技有限公司 | 一种视觉定位效果自检方法及车载终端 |
US11715229B2 (en) | 2019-11-15 | 2023-08-01 | Kabushiki Kaisha Toshiba | Moving body and system |
CN112204345A (zh) * | 2020-01-20 | 2021-01-08 | 珊口(深圳)智能科技有限公司 | 移动设备的室内定位方法、移动设备及控制系统 |
WO2021146862A1 (zh) * | 2020-01-20 | 2021-07-29 | 珊口(深圳)智能科技有限公司 | 移动设备的室内定位方法、移动设备及控制系统 |
WO2022100134A1 (zh) * | 2020-11-11 | 2022-05-19 | 珠海格力智能装备有限公司 | 自动导引装置的控制方法及装置、处理器、电子设备 |
WO2022142808A1 (zh) * | 2020-12-30 | 2022-07-07 | 深圳市海柔创新科技有限公司 | 仓储机器人、摄像组件及定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110018688B (zh) | 2022-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110018688A (zh) | 基于视觉的自动引导车定位方法 | |
CN113359757B (zh) | 一种无人驾驶车辆路径规划与轨迹跟踪方法 | |
CN106407315B (zh) | 一种基于街景图像数据库的车辆自主定位方法 | |
US11530924B2 (en) | Apparatus and method for updating high definition map for autonomous driving | |
CN112733270B (zh) | 车辆行驶轨迹预测和轨迹偏离危险度评估的系统与方法 | |
CN109520498B (zh) | 一种用于虚拟轨道车辆的虚拟道岔系统及方法 | |
CN107085938B (zh) | 基于车道线与gps跟随的智能驾驶局部轨迹容错规划方法 | |
CN105292116B (zh) | 自动驾驶车辆的车道变换路径规划算法 | |
CN103869820B (zh) | 一种巡视器地面导航规划控制方法 | |
EP0488828B1 (en) | Control device of an autonomously moving body and evaluation method for data thereof | |
CN111263960B (zh) | 用于更新高清晰度地图的设备和方法 | |
CN103411609B (zh) | 一种基于在线构图的飞行器返航路线规划方法 | |
Saab | A map matching approach for train positioning. I. Development and analysis | |
KR101214143B1 (ko) | 이동체의 위치 및 방향 인식 장치 및 그 방법 | |
JP2018062244A (ja) | 車両制御装置 | |
CN110126837A (zh) | 用于自主车辆运动规划的系统和方法 | |
CN111707272A (zh) | 一种地下车库自动驾驶激光定位系统 | |
CN107741229A (zh) | 一种光电/雷达/惯性组合的舰载机着舰导引方法 | |
CN112154449A (zh) | 车道线融合方法、车道线融合装置、车辆和存储介质 | |
US11158065B2 (en) | Localization of a mobile unit by means of a multi hypothesis kalman filter method | |
CN109900273B (zh) | 一种室外移动机器人导引方法及导引系统 | |
CN111624875B (zh) | 视觉伺服控制方法、装置和无人设备 | |
Avanzini et al. | Using monocular visual SLAM to manually convoy a fleet of automatic urban vehicles | |
CN109211260A (zh) | 智能车的行驶路径规划方法及装置、智能车 | |
CN112598730A (zh) | 用于确定至少部分自动化的移动平台的定位姿态的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |