CN110018688B - 基于视觉的自动引导车定位方法 - Google Patents

基于视觉的自动引导车定位方法 Download PDF

Info

Publication number
CN110018688B
CN110018688B CN201910289972.XA CN201910289972A CN110018688B CN 110018688 B CN110018688 B CN 110018688B CN 201910289972 A CN201910289972 A CN 201910289972A CN 110018688 B CN110018688 B CN 110018688B
Authority
CN
China
Prior art keywords
feature points
current
left eye
pose
guided vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910289972.XA
Other languages
English (en)
Other versions
CN110018688A (zh
Inventor
张凯
李�荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201910289972.XA priority Critical patent/CN110018688B/zh
Publication of CN110018688A publication Critical patent/CN110018688A/zh
Application granted granted Critical
Publication of CN110018688B publication Critical patent/CN110018688B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了基于视觉的自动引导车定位方法,包括:采集AGV前方的双目图像并进行特征点匹配,计算匹配成功的特征点深度;以舍弃未匹配上的特征点后的左目图像作为当前图片帧,并将其特征点与地图中上一关键帧的特征点进行匹配,根据匹配结果利用ICP算法解算左目相机的当前位姿;根据左目相机的当前位姿及AGV与左目相机之间的位姿变换关系解算AGV的当前位置;是否有二维码定位信息输入,是,将当前图片帧设为当前关键帧并做全局优化;否,判断当前图片帧是否满足预设条件,满足则将当前图片帧设为当前关键帧并做局部滑动窗口优化;不满足则重新采集图像;利用经过全局优化或局部滑动窗口优化的关键帧及其特征点更新地图,并进入下一次定位。

Description

基于视觉的自动引导车定位方法
技术领域
本发明涉及机器人视觉领域,具体涉及一种基于视觉的自动引导车定位方法。
背景技术
自动引导车,又称自动导引车(Automated Guided Vehicle,简称AGV),是指具有磁条、轨道或者激光等自动导引设备,可沿规划好的路径行驶,以电池为动力,并且装备了安全保护以及各种辅助机构(例如移载,装配机构)的无人驾驶自动化车辆。在控制中心的监控及任务调度下,AGV可以准确地按照规定的路径行走,到达任务指定位置后,完成一系列的作业任务。
目前的AGV定位导航方式主要有电磁导航、磁条导航、惯性定位导航、二维码定位导航、激光定位导航等几种方式。
电磁导航需要预先规划好AGV行走路径,然后将金属导线铺设在路径上,导线通电进而产生磁场,AGV车载感应线圈,通过跟踪磁场进行导航。磁条导航是在地上安装铁磁条,在AGV左右侧贴上磁条感应装置,通过比较两侧的磁场强度来矫正偏差,进行导航。电磁导航和磁条导航只能使AGV走固定的路线,而且只能用来牵引AGV,难以做到定位的功能。
惯性定位导航通过对惯导积分得到速度和位置,自由度高、灵活性高,且没有固定路径的限制。但是普通的惯性传感器的积分误差极大,高精度的惯性传感器造价过高难以普及。
激光定位导航的方式精度较高,无需其它辅助设备,行驶路线灵活,缺点是造价相对较高,算法较为复杂,信号易受干扰,对光线、能见度等要求较为严苛。
二维码定位方式需要提前铺设二维码,在AGV的底侧安装摄像头,通过拍摄识别二维码来获取当前位置。二维码定位优点是铺设成本相对较低,缺点是二维码能提供的定位是离散的,且需要对二维码进行频繁的维护。
以上背景技术内容的公开仅用于辅助理解本发明的发明构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日前已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
本发明的主要目的在于克服现有定位方式的不足,提出一种基于视觉的自动引导车定位方法,定位过程中通过利用二维码定位技术对视觉里程计定位的累积误差进行不断的矫正,从而保证了高精度的实时定位。
本发明为达上述目的提出以下技术方案:
一种基于视觉的自动引导车定位方法,包括以下步骤:
S1、使用双目相机实时采集自动引导车前方的图像;
S2、提取双目图像的特征点进行匹配,并计算匹配成功的特征点的深度;将左目图像舍弃未在右目图像中找到匹配的特征点后,作为当前图片帧;
S3、将所述当前图片帧中的特征点与地图中上一关键帧中的特征点进行匹配,并根据匹配结果,利用迭代最近点算法解算左目相机的当前位姿;其中,所述地图是所有关键帧及关键帧中所有特征点的集合;
S4、根据左目相机的当前位姿以及自动引导车与左目相机之间的位姿变换关系,解算自动引导车的当前位置;
S5、检测是否有二维码定位信息输入,若有,则执行步骤S6;若无,则执行步骤S7;
S6、将所述当前图片帧设为当前关键帧并对所述地图进行全局优化;
S7、判断所述当前图片帧是否满足预设条件,若满足,则将所述当前图片帧设为当前关键帧并对所述地图进行局部滑动窗口优化;若不满足,则舍弃当前图片帧并返回步骤S1;
S8、利用经过全局优化或者局部滑动窗口优化的关键帧及其特征点更新所述地图,然后返回步骤S1开始下一时刻的定位。
本发明上述技术方案所提供的定位方法,采用视觉里程计技术作为主要的定位手段,并在实时定位的过程中使用AGV的二维码定位技术对视觉里程计的累积误差进行矫正,从而能够保证在有限的计算资源情况下,视觉里程计定位具有较高的实时定位精度。
附图说明
图1是本发明基于视觉的自动引导车定位方法的流程图。
具体实施方式
下面结合附图和具体的实施方式对本发明作进一步说明。
本发明的具体实施方式提供了一种基于视觉的自动引导车定位方法,采用视觉里程计技术作为主要的定位手段,并在实时定位的过程中采用二维码定位技术来不断地矫正视觉里程计的累积误差,参考图1,本发明的该定位方法包括如下步骤S1~S8:
S1、使用双目相机实时采集自动引导车前方的图像,每一时刻可以得到左目图像和右目图像。其中,采集图像之前的准备工作包括:使用张氏标定法,用棋盘格对双目相机进行标定,使得标定后的相机无畸变,成像平面在同一平面上,且极线位于相机成像平面的同一水平线上。
S2、提取双目图像的特征点进行匹配,并计算匹配成功的特征点的深度;将左目图像舍弃未在右目图像中找到匹配的特征点后,作为当前图片帧。本发明中优选地提取双目图像的ORB特征点进行匹配,匹配过程包括:对于每一个在左目图像中出现的特征点,根据其特征描述子在右目图像中附近的行的左侧寻找与其匹配的特征点,并进行抛物线拟合来获得亚像素级别的匹配。匹配成功的每一对特征点,均对应于空间中的同一个点。对于每一对匹配成功的特征点,可采用如下公式计算其深度d:
Figure BDA0002024603650000031
其中,f是相机的焦距,b是双目相机的光心距离,uL、uR分别为匹配成功的特征点在左目图像和右目图像中竖直方向上的位置。
S3、将所述当前图片帧中的特征点与地图中上一关键帧中的特征点进行匹配,并根据匹配结果,利用迭代最近点(ICP)算法解算左目相机的当前位姿;其中,所述地图是所有关键帧及关键帧中所有特征点的集合。具体而言,可以使用光束平差法评估所述地图中的参考点和左目相机的观测之间的误差,并使用列文伯格马夸尔特方法最小化所述误差,从而计算出左目相机的当前位姿;其中,所述参考点是所述上一关键帧中与所述当前图片帧的特征点匹配成功的特征点。使用列文伯格马夸尔特方法最小化所述误差的目标函数如下:
Figure BDA0002024603650000041
其中,{R,t}为左目相机的当前位姿,也即当前图片帧的位姿;P为当前图片帧与上一关键帧匹配成功的特征点集合,ρ为Huber罚函数,xi表示相机坐标系下第i个特征点的位置,R表示左目相机的旋转,t表示左目相机的平移向量,Xi表示世界坐标系下第i个特征点的位置。其中,xi的横纵坐标可从图像中获取,深度可利用前述公式(1)计算得到,Xi可利用xi进行坐标系转换得到。
S4、根据左目相机的当前位姿以及自动引导车与左目相机之间的位姿变换关系,解算自动引导车的当前位置。一般情况下,相机坐标系与引导车的坐标系之间保持固定,有一个固定的位姿变换关系,固定的位姿变换关系是已知的。因此,在得到相机的位姿信息时,可利用位姿变换关系,解算引导车的当前位置,从而完成粗定位。
S5、检测是否有二维码定位信息输入,若有,则执行步骤S6;若无,则执行步骤S7。
S6、将所述当前图片帧设为当前关键帧并对所述地图进行全局优化。所述全局优化包括:
将所述当前关键帧及其特征点的位姿作为固定变量,将所述当前关键帧周围预定范围内的关键帧及其特征点的位姿作为待优化变量,进行联合优化,优化的公式为:
Figure BDA0002024603650000042
关键帧的位姿等同于相应时刻左目相机的位姿,关键帧中特征点的位姿根据特征点自身的深度、左目相机的位姿以及左目相机内部参数解算得到;在式(3)中,
Figure BDA0002024603650000043
表示所述预定范围内所有特征点的集合,
Figure BDA0002024603650000044
表示所述预定范围内所有关键帧的集合,Rj表示第j个关键帧的旋转矩阵,tj表示第j个关键帧的平移向量。
S7、判断所述当前图片帧是否满足预设条件,若满足,则将所述当前图片帧设为当前关键帧并对所述地图进行局部滑动窗口优化;若不满足,则舍弃当前图片帧并返回步骤S1。所述预设条件包括:与上一关键帧之间间隔了至少10个图片帧,至少包括20对匹配点,以及,与上一关键帧的匹配点对数少于80%。所述局部滑动窗口优化包括:
将所述当前关键帧及其特征点的位姿与之前数个(优选地,是选取之前的20个关键帧,如果之前的总关键帧数小于20则取最大值,有多少关键帧就取多少关键帧)关键帧及其特征点的位姿做联合优化,优化过程将前一半数量的关键帧及其特征点的位姿作为固定变量,将后一半数量的关键帧及其特征点的位姿作为待优化变量;其中,关键帧的位姿等同于相应时刻左目相机的位姿,关键帧中特征点的位姿根据特征点自身的深度、左目相机的位姿以及左目相机内部参数解算得到;优化的公式为:
Figure BDA0002024603650000051
式(4)中,
Figure BDA0002024603650000053
表示所述后一半数量的关键帧中所有特征点的集合,
Figure BDA0002024603650000052
表示所述后一半数量的关键帧的集合。
S8、利用经过全局优化或者局部滑动窗口优化的关键帧及其特征点更新所述地图,然后返回步骤S1开始下一时刻的定位。
在一些实施例中,更新地图的操作还包括,依据以下规则删除所述地图中的部分关键帧及其特征点:删除实际可见和预测可见的比值小于25%的特征点,删除90%以上的特征点都能被其它关键帧观测到的关键帧。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种基于视觉的自动引导车定位方法,其特征在于,包括以下步骤:
S1、使用双目相机实时采集自动引导车前方的图像;
S2、提取当前双目图像的特征点进行匹配,并计算匹配成功的特征点的深度以用于后续解算左目相机的当前位姿;将左目图像舍弃未在右目图像中找到匹配的特征点后,作为当前图片帧;
S3、将所述当前图片帧中的特征点与地图中上一关键帧中的特征点进行匹配,并根据匹配结果,利用迭代最近点算法解算左目相机的当前位姿;其中,所述地图是所有关键帧及关键帧中所有特征点的集合;
S4、根据左目相机的当前位姿以及自动引导车与左目相机之间的位姿变换关系,解算自动引导车的当前位置;
S5、检测是否有二维码定位信息输入,若有,则执行步骤S6;若无,则执行步骤S7;
S6、将所述当前图片帧设为当前关键帧并对所述地图进行全局优化;
S7、判断所述当前图片帧是否满足预设条件,若满足,则将所述当前图片帧设为当前关键帧并对所述地图进行局部滑动窗口优化;若不满足,则舍弃当前图片帧并返回步骤S1;
S8、利用经过全局优化或者局部滑动窗口优化的关键帧及其特征点更新所述地图,然后返回步骤S1开始下一时刻的定位。
2.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S8还包括:
依据预设规则删除所述地图中的部分关键帧及其特征点,以更新所述地图。
3.如权利要求2所述的基于视觉的自动引导车定位方法,其特征在于,依据预设规则删除所述地图中的部分关键帧及其特征点包括:删除实际可见和预测可见的比值小于25%的特征点,删除90%以上的特征点都能被其它关键帧观测到的关键帧。
4.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S2中所提取的是双目图像的ORB特征点。
5.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S7中所述预设条件包括:与上一关键帧之间间隔了至少10个图片帧,包括至少20对匹配点,以及,与上一关键帧的匹配点对数少于80%。
6.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S2中双目图像的特征点匹配包括:
对于每一个在左目图像中出现的特征点,根据其特征描述子在右目图像中附近的行的左侧寻找与其匹配的特征点,并进行抛物线拟合来获得亚像素级别的匹配。
7.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S3中利用迭代最近点算法解算左目相机的当前位姿包括:
使用光束平差法评估所述地图中的参考点和左目相机的观测之间的误差,并使用列文伯格马夸尔特方法最小化所述误差,从而计算出左目相机的当前位姿;其中,所述参考点是所述上一关键帧中与所述当前图片帧的特征点匹配成功的特征点。
8.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S6中的所述全局优化包括:
将所述当前关键帧及其特征点的位姿作为固定变量,将所述当前关键帧周围预定范围内的关键帧及其特征点的位姿作为待优化变量,进行联合优化,优化的公式为:
Figure FDA0003446946200000021
其中,关键帧的位姿等同于相应时刻左目相机的位姿,关键帧中特征点的位姿根据特征点自身的深度、左目相机的位姿以及左目相机内部参数解算得到;a表示所述预定范围内所有特征点的集合,b表示所述预定范围内所有关键帧的集合,Xi表示世界坐标系下第i个特征点的位置,Rj表示第j个关键帧的旋转矩阵,tj表示第j个关键帧的平移向量,ρ为Huber罚函数,xi表示相机坐标系下第i个特征点的位置。
9.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,步骤S7中的所述局部滑动窗口优化包括:
将所述当前关键帧及其特征点的位姿与之前数个关键帧及其特征点的位姿做联合优化,优化过程将前一半数量的关键帧及其特征点的位姿作为固定变量,将后一半数量的关键帧及其特征点的位姿作为待优化变量;其中,关键帧的位姿等同于相应时刻左目相机的位姿,关键帧中特征点的位姿根据特征点自身的深度、左目相机的位姿以及左目相机内部参数解算得到;优化的公式为:
Figure FDA0003446946200000031
a表示所述后一半数量的关键帧中所有特征点的集合,b表示所述后一半数量的关键帧的集合,Xi表示世界坐标系下第i个特征点的位置,Rj表示第j个关键帧的旋转矩阵,tj表示第j个关键帧的平移向量,ρ为Huber罚函数,xi表示相机坐标系下第i个特征点的位置。
10.如权利要求1所述的基于视觉的自动引导车定位方法,其特征在于,在步骤S2中,对于每一对匹配成功的特征点,采用公式
Figure FDA0003446946200000032
计算特征点的深度;其中,f是相机的焦距,b是双目相机的光心距离,uL、uR分别为匹配成功的特征点在左目图像和右目图像中竖直方向上的位置。
CN201910289972.XA 2019-04-11 2019-04-11 基于视觉的自动引导车定位方法 Active CN110018688B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910289972.XA CN110018688B (zh) 2019-04-11 2019-04-11 基于视觉的自动引导车定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910289972.XA CN110018688B (zh) 2019-04-11 2019-04-11 基于视觉的自动引导车定位方法

Publications (2)

Publication Number Publication Date
CN110018688A CN110018688A (zh) 2019-07-16
CN110018688B true CN110018688B (zh) 2022-03-29

Family

ID=67191062

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910289972.XA Active CN110018688B (zh) 2019-04-11 2019-04-11 基于视觉的自动引导车定位方法

Country Status (1)

Country Link
CN (1) CN110018688B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112307810B (zh) * 2019-07-26 2023-08-04 北京魔门塔科技有限公司 一种视觉定位效果自检方法及车载终端
JP7273696B2 (ja) 2019-11-15 2023-05-15 株式会社東芝 位置推定装置及びシステム
WO2021146862A1 (zh) * 2020-01-20 2021-07-29 珊口(深圳)智能科技有限公司 移动设备的室内定位方法、移动设备及控制系统
CN112286204B (zh) * 2020-11-11 2024-08-20 珠海格力智能装备有限公司 自动导引装置的控制方法及装置、处理器、电子设备
WO2022142808A1 (zh) * 2020-12-30 2022-07-07 深圳市海柔创新科技有限公司 仓储机器人、摄像组件及定位方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105300403B (zh) * 2015-09-22 2017-12-29 清华大学 一种基于双目视觉的车辆里程计算法
CN105674993A (zh) * 2016-01-15 2016-06-15 武汉光庭科技有限公司 基于双目相机的高精度视觉定位地图生成系统及方法
CN106052683A (zh) * 2016-05-25 2016-10-26 速感科技(北京)有限公司 机器人运动姿态估计方法
CN106989746A (zh) * 2017-03-27 2017-07-28 远形时空科技(北京)有限公司 导航方法及导航装置
CN107160395B (zh) * 2017-06-07 2020-10-16 中国人民解放军装甲兵工程学院 地图构建方法及机器人控制系统
CN108090958B (zh) * 2017-12-06 2021-08-27 上海阅面网络科技有限公司 一种机器人同步定位和地图构建方法和系统
CN108406731B (zh) * 2018-06-06 2023-06-13 珠海一微半导体股份有限公司 一种基于深度视觉的定位装置、方法及机器人
CN208323361U (zh) * 2018-06-06 2019-01-04 珠海市一微半导体有限公司 一种基于深度视觉的定位装置及机器人
CN109579843B (zh) * 2018-11-29 2020-10-27 浙江工业大学 一种空地多视角下的多机器人协同定位及融合建图方法

Also Published As

Publication number Publication date
CN110018688A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
CN110018688B (zh) 基于视觉的自动引导车定位方法
KR102367438B1 (ko) 마커를 결합한 동시 위치결정과 지도작성 내비게이션 방법, 장치 및 시스템
CN106607907B (zh) 一种移动视觉机器人及其测控方法
CN102646343B (zh) 车辆检测装置
CN110530372B (zh) 定位方法、路径确定方法、装置、机器人及存储介质
WO2015024407A1 (zh) 基于电力机器人的双目视觉导航系统及方法
CN112197770A (zh) 一种机器人的定位方法及其定位装置
CN103400392A (zh) 基于变电站巡检机器人的双目视觉导航系统及方法
CN111164648B (zh) 移动体的位置推断装置及位置推断方法
CN103927739A (zh) 一种基于拼接图像的巡视器定位方法
EP3690400B1 (en) Method and device for ego-vehicle localization to update hd map by using v2x information fusion
CN109085840B (zh) 一种基于双目视觉的车辆导航控制系统及控制方法
CN112232275B (zh) 基于双目识别的障碍物检测方法、系统、设备及存储介质
CN105444741A (zh) 基于双视野窗口的路径特征识别、偏差测量与精确定位方法
Kim et al. Autonomous mobile robot localization and mapping for unknown construction environments
Avanzini et al. Using monocular visual SLAM to manually convoy a fleet of automatic urban vehicles
CN103765476A (zh) 用于确定在车辆中安装的摄像机的俯仰运动的方法以及用于控制车辆的至少一个前照灯的光发射的方法
CN115436917A (zh) Lidar视轴对准误差和主车辆定位误差的协同估计和校正
CN112508933B (zh) 一种基于复杂空间障碍物定位的柔性机械臂运动避障方法
CN112083732B (zh) 一种检测可视线激光的机器人导航方法和导航系统
CN106444774A (zh) 基于室内照明灯的移动机器人视觉导航方法
CN113848912A (zh) 基于自主探索的室内地图建立方法及装置
JPH07296291A (ja) 車両用走行路検出装置
CN117470241A (zh) 一种用于非平坦地形下的自适应无地图导航方法及系统
CN113776540B (zh) 基于视觉导航定位的车载系留无人机实时跟踪移动车辆的控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant