CN110553650B - 一种基于小样本学习的移动机器人重定位方法 - Google Patents

一种基于小样本学习的移动机器人重定位方法 Download PDF

Info

Publication number
CN110553650B
CN110553650B CN201910806151.9A CN201910806151A CN110553650B CN 110553650 B CN110553650 B CN 110553650B CN 201910806151 A CN201910806151 A CN 201910806151A CN 110553650 B CN110553650 B CN 110553650B
Authority
CN
China
Prior art keywords
angle
map
image
class
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910806151.9A
Other languages
English (en)
Other versions
CN110553650A (zh
Inventor
毕盛
洪瀚思
董敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201910806151.9A priority Critical patent/CN110553650B/zh
Publication of CN110553650A publication Critical patent/CN110553650A/zh
Application granted granted Critical
Publication of CN110553650B publication Critical patent/CN110553650B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于小样本学习的移动机器人重定位方法,包括步骤:1)获取地图环境数据的训练集;2)构建原型网络,训练得到模型;3)获取小范围环境相关位置点数据的支撑集;4)将支持集输入模型,得到类别原型;5)输入失配机器人当前捕获的图像帧数据;6)得到反馈的位置估计结果,发布到话题/amcl_pose,修正机器人位姿。本发明采用小样本学习的思路,对于移动机器人导航过程中的失配情况,提供一种重定位的方法,利用机器人相机捕获的图像帧信息与小样本学习模型进行分类,较为精确地得到机器人的当前位置点信息并进行修正。

Description

一种基于小样本学习的移动机器人重定位方法
技术领域
本发明涉及移动机器人重定位和小样本学习的技术领域,尤其是指一种基于小样本学习的移动机器人重定位方法。
背景技术
近年来,随着人工智能产业的兴起,对于智能机器人的研究也逐渐深入,对机器人在复杂环境下的导航定位也有了更高的要求,智能化机器人面向市场和服务领域的需求与日俱增。
移动机器人的即时定位与地图创建(Simultaneous Localization and Mapping,SLAM)是指移动机器人通过结合里程计信息和传感器观测信息在部分已知环境或者完全未知环境下实现自主定位和地图创建的功能,同时可在已创建地图的基础上进行移动机器人的自主导航。然而,在移动机器人正常的导航移动过程中,经常会因系统卡顿或者人为因素,造成机器人定位错误,即机器人与预设的导航地图发生失配,也称为机器人绑架问题。由此,引出了对于机器人重定位方法的研究。
目前,研究者们已经提出了许多移动机器人的重定位方法,但仍面临着如下问题:
1)机器人重定位的定位精度低,匹配误差大。
2)机器人在环境中所能采集到的观测数据有限,数据量较少。
3)基于激光的粒子概率方法对于运算能力的要求高。
小样本学习(Few-shot Learning)是机器学习的一个分支,是元学习(MetaLearning)的应用。在机器学习模型在学习了一定类别的大量数据(训练集)后,对于新的类别,只需要少量的支持集即可学习新的分类。在小样本学习中,原型网络结构表现出了强大的鲁棒性,通过神经网络学习在表达空间中样本的均值来表示一个类别。原型网络分类器必须推广到训练集中未见的新类,只需给出每个新类的少量样本,在数据较少的情况下,相比于LSTM等网络,拥有着更好的适应性,符合解决机器人导航中重定位问题的实际需求。
发明内容
本发明的目的在于克服移动机器人在建图导航过程中采集观测数据不足的缺点,使用小样本学习的新思路,利用原型网络(Prototypical Networks),提出了一种基于小样本学习的移动机器人重定位方法,将小样本学习应用于移动机器人导航过程中的失配问题,实现机器人的重定位,进而解决移动机器人在导航过程中的定位错误问题,有着较好的研究意义和应用价值。
为实现上述目的,本发明所提供的技术方案为:一种基于小样本学习的移动机器人重定位方法,包括以下步骤:
1)获取地图环境数据的训练集;
2)构建原型网络,训练得到模型;
3)获取小范围环境相关位置点的数据支持集;
4)将支持集输入模型,得到类别原型;
5)输入失配机器人当前捕获的图像帧数据;
6)得到反馈的位置估计结果,发布到话题/amcl_pose,修正机器人位姿。
在步骤1)中,获取地图环境数据的训练集,包括以下步骤:
1.1)将Microsoft Kinectv1相机安装在移动机器人Turtlebot2上,相机视角中心线与机器人底盘正方向保持一致,实时获取图像数据;
1.2)将移动机器人放置在室内复杂环境下,控制其平移及旋转,逐次保存图像帧,图像尺寸指定为640*480,前进幅度为0.1m,旋转幅度为10°;
1.3)将获取的图像帧按顺序编号,进行数据标注,机器人位姿0度方向与地图坐标系X轴正方向保持一致,单帧图像数据P表示如下:
P(x,y,angle)
其中,x为2D地图下的x轴位置,y为2D地图下的y轴位置,angle为偏离地图x轴正方向的偏离角,这些数据将作为这帧图像的标签保存;
1.4)图像帧按地图位置点(x,y)进行分类表示如下:
Kx,y={angle1,angle2,...,anglei}
其中,Kx,y为地图位置点(x,y)处的图像集合,anglei表示偏离地图x轴正方向i单位角度保存的图像帧,单位角度为10°,利用分类好的图像集合Kx,y,构建训练集M:
M={K1.0,1.0,K1.1,1.0,K1.1,1.1,K1.2,1.1,...,Kx,y}。
其中,Kx,y为地图位置点(x,y)处的图像集合,且x∈R,y∈R,R为实数。
在步骤2)中,构建原型网络,训练得到模型,包括以下步骤:
2.1)采集得到的图像训练集输入CNN网络VGG Net,提取特征向量作为原型网络输入的原型向量;
2.2)原型网络模型通过嵌入函数fθ计算原型向量的M维空间表达:
fθ:RD→RM
其中,θ为预训练得到的学习参数,RD为D维的特征空间,RM为M维的表达空间,即投影空间;
2.3)一个类别k由其所有样本在RM中的平均值决定,由此,类别k的原型ck
Figure BDA0002183722130000041
其中,Sk为类别k标记的一组样本,|Sk|为类别k中样本的数量,(xi,yi)为类别k中样本i的特征向量和标签,且特征向量xi∈RD,标签yi∈{1,...,K},fθ(xi)为样本i在表达空间中的计算值;
2.4)基于平面图像数据,在M维表达空间RM内给定一个欧几里得距离函数d:
d:RM×RM→[0,+∞)
2.5)原型网络产生基于表达空间到类别原型的距离softmax关于测试样本x的分布,在类别k下,测试样本x对于所有类别的归一化概率函数pθ(y=k|x):
Figure BDA0002183722130000042
其中,θ为学习参数,d为给定的欧几里得距离,fθ(x)为测试样本x在表达空间中的计算值,ck为类别k的类别原型,k'为模型中所有类别数量,ck'为类别k'的类别原型;由此,计算得到样本x属于类别k的归一化概率;
2.6)计算目标函数J(θ):
J(θ)=-log(pθ(y=k|x))
其中,pθ(y=k|x)是类别k下样本x的归一化概率函数,这里通过梯度下降法求取目标函数的最小值,从而收敛得到适用于当前环境条件的学习参数θ,保存训练模型。
在步骤3)中,获取小范围环境相关位置点的数据支持集,包括以下步骤:
3.1)在一个小范围环境下,将机器人移动到间隔相等的常用位置点进行旋转,每间隔72°采集一帧图像;
3.2)每个位置点采集5张不同角度的图像,图像帧按地图位置点(x,y)进行分类表示如下:
K'x,y={angle1,angle2,angle3,angle4,angle5}
其中,K'x,y为地图位置点(x,y)处的图像集合,angle1为偏离地图x轴正方向0°采集的单帧图像,angle2为偏离地图x轴正方向72°采集的单帧图像,angle3为偏离地图x轴正方向144°采集的单帧图像,angle4为偏离地图x轴正方向216°采集的单帧图像,angle5为偏离地图x轴正方向288°采集的单帧图像;
3.3)利用分类好的图像集合K'x,y,构建支持集M':
M'={K'1.0,1.0,K'1.1,1.0,...,K'x,y}
其中,K'x,y为地图位置点(x,y)处的图像集合,且x∈R,y∈R,R为实数。
在步骤4)中,将支持集输入模型,得到类别原型,具体如下:
将支持集输入模型,利用前面训练得到的好的学习参数θ,重复步骤2中的网络训练方法,得到我们需要的小范围环境下地图的图像集合的类别原型。
在步骤5)中,输入失配机器人当前捕获的图像帧数据,包括以下步骤:
5.1)对于在导航过程中,移动机器人发生定位错误的情况,将信息反馈给系统,调用重定位方法;
5.2)调用相机,拍摄并保存当前的图像帧T作为测试图像帧;
5.3)将T输入模型,计算待测试图像到类别原型的距离,得到其与各类别原型的相似度,根据相似度,选取最优的进行分类,类别标签即是机器人当前的正确位置信息Pcorrect
在步骤6)中,得到反馈的位置估计结果,发布到话题/amcl_pose,修正机器人位姿,具体如下:
由于导航采用自适应蒙特卡洛定位(Adaptive Monte Carlo Localization,AMCL)算法,创建了接收机器人位姿估计信息的话题/amcl_pose,则将反馈的位置信息Pcorrect发布在话题/amcl_pose上;话题/amcl_pose的数据为一个六维的数据类型,包括三维空间下的坐标x,y,z和坐标轴方向Ax,Ay,Az,在当前平面空间的导航下,初始化z,Ax,Ay为0,结合反馈位置信息(x,y,Az),发布到话题上;故此,移动机器人能够对当前的位姿进行修正,达到重定位的目标。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明创新性地应用了小样本学习的方法,缓解了机器人相机采集样本量稀少的问题。
2、本发明对于实时运算能力的要求较低,可以适用于一些低功耗平台。
3、本发明对于复杂的小范围环境,有着较好的匹配效果。
附图说明
图1为本发明方法逻辑流程示意图。
图2为本发明使用的网络结构图。
图3为本发明使用的移动机器人Turtlebot2示意图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1至图3所示,本实施例所提供的基于小样本学习分类的移动机器人重定位方法,使用了Turtlebot2移动机器人、Intel Nuc微型电脑、Microsoft Kinect v1相机等辅助设备,其包括以下步骤:
1)获取地图环境数据的训练集。
1.1)将Microsoft Kinectv1相机安装在移动机器人Turtlebot2上,相机视角中心线与机器人底盘正方向保持一致,实时获取图像数据;
1.2)将移动机器人放置在室内复杂环境下,控制其平移及旋转,逐次保存图像帧,图像尺寸指定为640*480,前进幅度为0.1m,旋转幅度为10°;
1.3)将获取的图像帧按顺序编号,进行数据标注,机器人位姿0度方向与地图坐标系X轴正方向保持一致,单帧图像数据P表示如下:
P(x,y,angle)
其中,x为2D地图下的x轴位置,y为2D地图下的y轴位置,angle为偏离地图x轴正方向的偏离角,这些数据将作为这帧图像的标签保存;
1.4)图像帧按地图位置点(x,y)进行分类表示如下:
Kx,y={angle1,angle2,...,anglei}
其中,Kx,y为地图位置点(x,y)处的图像集合,anglei表示偏离地图x轴正方向i单位角度保存的图像帧,单位角度为10°,利用分类好的图像集合Kx,y,构建训练集M:
M={K1.0,1.0,K1.1,1.0,K1.1,1.1,K1.2,1.1,...,Kx,y}。
其中,Kx,y为地图位置点(x,y)处的图像集合,且x∈R,y∈R,R为实数。
2)构建原型网络,训练得到模型。
2.1)采集得到的图像训练集输入CNN网络VGG Net,提取特征向量作为原型网络输入的原型向量;
2.2)原型网络模型通过嵌入函数fθ计算原型向量的M维空间表达:
fθ:RD→RM
其中,θ为预训练得到的学习参数,RD为D维的特征空间,RM为M维的表达空间(投影空间);
2.3)一个类别k由其所有样本在RM中的平均值决定,由此,类别k的原型ck
Figure BDA0002183722130000081
其中,Sk为类别k标记的一组样本,|Sk|为类别k中样本的数量,(xi,yi)为类别k中样本i的特征向量和标签,且特征向量xi∈RD,标签yi∈{1,...,K},fθ(xi)为样本i在表达空间中的计算值。
2.4)基于平面图像数据,在M维表达空间RM内给定一个欧几里得距离函数d:
d:RM×RM→[0,+∞)
2.5)原型网络产生基于表达空间到类别原型的距离softmax关于测试样本x的分布,在类别k下,测试样本x对于所有类别的归一化概率函数pθ(y=k|x):
Figure BDA0002183722130000082
其中,θ为学习参数,d为给定的欧几里得距离,fθ(x)为测试样本x在表达空间中的计算值,ck为类别k的类别原型,k'为模型中所有类别数量,ck'为类别k'的类别原型。由此,计算得到样本x属于类别k的归一化概率。
2.6)计算目标函数J(θ):
J(θ)=-log(pθ(y=k|x))
其中,pθ(y=k|x)是类别k下样本x的归一化概率函数,这里通过梯度下降法求取目标函数的最小值,从而收敛得到适用于当前环境条件的学习参数θ,保存训练模型。
3)获取小范围环境相关位置点的数据支持集。
3.1)在一个小范围环境下,将机器人移动到间隔相等的常用位置点进行旋转,每间隔72°采集一帧图像;
3.2)每个位置点采集5张不同角度的图像,图像帧按地图位置点(x,y)进行分类表示如下::
K'x,y={angle1,angle2,angle3,angle4,angle5}
其中,K'x,y为地图位置点(x,y)处的图像集合,angle1为偏离地图x轴正方向0°采集的单帧图像,angle2为偏离地图x轴正方向72°采集的单帧图像,angle3为偏离地图x轴正方向144°采集的单帧图像,angle4为偏离地图x轴正方向216°采集的单帧图像,angle5为偏离地图x轴正方向288°采集的单帧图像。
3.3)利用分类好的图像集合K'x,y,构建支持集M':
M'={K'1.0,1.0,K'1.1,1.0,...,K'x,y}。
其中,K'x,y为地图位置点(x,y)处的图像集合,且x∈R,y∈R,R为实数。
4)将支持集输入模型,得到类别原型。
将支持集输入模型,利用前面训练得到的好的学习参数θ,重复步骤2中的网络训练方法,得到我们需要的小范围环境下地图的图像集合的类别原型。
5)输入失配机器人当前捕获的图像帧数据。
5.1)对于在导航过程中,移动机器人发生定位错误的情况,将信息反馈给系统,调用重定位方法;
5.2)调用相机,拍摄并保存当前的图像帧T作为测试图像帧;
5.3)将T输入模型,计算待测试图像到类别原型的距离,得到其与各类别原型的相似度,根据相似度,选取最优的进行分类,类别标签即是机器人当前的正确位置信息Pcorrect
6)得到反馈的位置估计结果,发布到话题/amcl_pose,修正机器人位姿,如下:
由于导航采用自适应蒙特卡洛定位(Adaptive Monte Carlo Localization,AMCL)算法,创建了接收机器人位姿估计信息的话题/amcl_pose,则将反馈的位置信息Pcorrect发布在话题/amcl_pose上;话题/amcl_pose的数据为一个六维的数据类型,包括三维空间下的坐标x,y,z和坐标轴方向Ax,Ay,Az,在当前平面空间的导航下,初始化z,Ax,Ay为0,结合反馈位置信息(x,y,Az),发布到话题上;故此,移动机器人能够对当前的位姿进行修正,达到重定位的目标。
综上所述,本发明为小范围环境下移动机器人导航失配问题提供了新的方法,利用小样本学习对机器人采集图像支持集进行训练,能够有效减少利用图像的重定位过程中对于训练样本数量的需求,有效解决了机器人的重定位问题,相比于传统的激光粒子概率方法,对于机器人平台的运算能力也有着较低的要求,在复杂的小范围环境下,能够表现出不错的鲁棒性和适应性,具有较好的研究意义和实际应用价值,值得推广。
上述实施例中,所包括的各个模块只是按照本发明的功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可,并不用于限制本发明的保护范围。

Claims (1)

1.一种基于小样本学习的移动机器人重定位方法,其特征在于,包括以下步骤:
1)获取地图环境数据的训练集,包括以下步骤:
1.1)将Microsoft Kinectv1相机安装在移动机器人Turtlebot2上,相机视角中心线与机器人底盘正方向保持一致,实时获取图像数据;
1.2)将移动机器人放置在室内复杂环境下,控制其平移及旋转,逐次保存图像帧,图像尺寸指定为640*480,前进幅度为0.1m,旋转幅度为10°;
1.3)将获取的图像帧按顺序编号,进行数据标注,机器人位姿0度方向与地图坐标系X轴正方向保持一致,单帧图像数据P表示如下:
P(x,y,angle)
其中,x为2D地图下的x轴位置,y为2D地图下的y轴位置,angle为偏离地图x轴正方向的偏离角,2D地图下的x轴位置、y轴位置和偏离地图x轴正方向的偏离角将作为这帧图像的标签保存;
1.4)图像帧按地图位置点(x,y)进行分类表示如下:
Kx,y={angle1,angle2,...,anglei}
其中,Kx,y为地图位置点(x,y)处的图像集合,anglei表示偏离地图x轴正方向i单位角度保存的图像帧,单位角度为10°,利用分类好的图像集合Kx,y,构建训练集M:
M={K1.0,1.0,K1.1,1.0,K1.1,1.1,K1.2,1.1,...,Kx,y}
其中,Kx,y为地图位置点(x,y)处的图像集合,且x∈R,y∈R,R为实数;
2)构建原型网络,训练得到模型,包括以下步骤:
2.1)采集得到的图像训练集输入CNN网络VGG Net,提取特征向量作为原型网络输入的原型向量;
2.2)原型网络模型通过嵌入函数fθ计算原型向量的M维空间表达:
fθ:RD→RM
其中,θ为预训练得到的学习参数,RD为D维的特征空间,RM为M维的表达空间,即投影空间;
2.3)一个类别k由其所有样本在RM中的平均值决定,由此,类别k的原型ck
Figure FDA0002997446740000021
其中,Sk为类别k标记的一组样本,|Sk|为类别k中样本的数量,(xi,yi)为类别k中样本i的特征向量和标签,且特征向量xi∈RD,标签yi∈{1,...,K},fθ(xi)为样本i在表达空间中的计算值;
2.4)基于平面图像数据,在M维表达空间RM内给定一个欧几里得距离函数d:
d:RM×RM→[0,+∞)
2.5)原型网络产生基于表达空间到类别原型的距离softmax关于测试样本x的分布,在类别k下,测试样本x对于所有类别的归一化概率函数pθ(y=k|x):
Figure FDA0002997446740000022
其中,fθ(x)为测试样本x在表达空间中的计算值,k'为模型中所有类别数量,ck'为类别k'的类别原型;由此,计算得到样本x属于类别k的归一化概率;
2.6)计算目标函数J(θ):
J(θ)=-log(pθ(y=k|x))
这里通过梯度下降法求取目标函数的最小值,从而收敛得到适用于当前环境条件的学习参数θ,保存训练模型;
3)获取小范围环境相关位置点的数据支持集,包括以下步骤:
3.1)在一个小范围环境下,将机器人移动到间隔相等的常用位置点进行旋转,每间隔72°采集一帧图像;
3.2)每个位置点采集5张不同角度的图像,图像帧按地图位置点(x,y)进行分类表示如下:
K'x,y={angle1,angle2,angle3,angle4,angle5}
其中,K'x,y为地图位置点(x,y)处的图像集合,angle1为偏离地图x轴正方向0°采集的单帧图像,angle2为偏离地图x轴正方向72°采集的单帧图像,angle3为偏离地图x轴正方向144°采集的单帧图像,angle4为偏离地图x轴正方向216°采集的单帧图像,angle5为偏离地图x轴正方向288°采集的单帧图像;
3.3)利用分类好的图像集合K'x,y,构建支持集M':
M'={K'1.0,1.0,K'1.1,1.0,...,K'x,y}
其中,K'x,y为地图位置点(x,y)处的图像集合;
4)将支持集输入模型,得到类别原型,具体如下:
将支持集输入模型,利用前面训练得到的学习参数θ,重复步骤2)中的网络训练方法,得到需要的小范围环境下地图的图像集合的类别原型;
5)输入失配机器人当前捕获的图像帧数据,包括以下步骤:
5.1)对于在导航过程中,移动机器人发生定位错误的情况,将信息反馈给系统,调用重定位方法;
5.2)调用相机,拍摄并保存当前的图像帧T作为测试图像帧;
5.3)将T输入模型,计算待测试图像到类别原型的距离,得到其与各类别原型的相似度,根据相似度,选取最优的相似度,类别标签即是机器人当前的正确位置信息Pcorrect
6)得到反馈的位置估计结果,发布到话题/amcl_pose,修正机器人位姿,具体如下:
由于导航采用自适应蒙特卡洛定位算法,创建了接收机器人位姿估计信息的话题/amcl_pose,则将反馈的位置信息Pcorrect发布在话题/amcl_pose上;话题/amcl_pose的数据为一个六维的数据类型,包括三维空间下的坐标x,y,z和坐标轴方向Ax,Ay,Az,在当前平面空间的导航下,初始化z,Ax,Ay为0,结合反馈位置信息(x,y,Az),发布到话题上;故此,移动机器人对当前的位姿进行修正,达到重定位的目标。
CN201910806151.9A 2019-08-29 2019-08-29 一种基于小样本学习的移动机器人重定位方法 Active CN110553650B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910806151.9A CN110553650B (zh) 2019-08-29 2019-08-29 一种基于小样本学习的移动机器人重定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910806151.9A CN110553650B (zh) 2019-08-29 2019-08-29 一种基于小样本学习的移动机器人重定位方法

Publications (2)

Publication Number Publication Date
CN110553650A CN110553650A (zh) 2019-12-10
CN110553650B true CN110553650B (zh) 2021-06-08

Family

ID=68738291

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910806151.9A Active CN110553650B (zh) 2019-08-29 2019-08-29 一种基于小样本学习的移动机器人重定位方法

Country Status (1)

Country Link
CN (1) CN110553650B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899298B (zh) * 2020-05-08 2023-08-15 中国矿业大学(北京) 基于实景图像机器学习的位置感知系统
CN111975769A (zh) * 2020-07-16 2020-11-24 华南理工大学 基于元学习的移动机器人避障方法
CN113222011B (zh) * 2021-05-10 2022-12-02 西北工业大学 一种基于原型校正的小样本遥感图像分类方法
CN113674324A (zh) * 2021-08-27 2021-11-19 常州唯实智能物联创新中心有限公司 基于元学习的类级别6d位姿追踪方法、系统及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109298629A (zh) * 2017-07-24 2019-02-01 来福机器人 用于为自主和非自主位置意识提供鲁棒跟踪的容错

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103034868B (zh) * 2012-11-29 2015-07-08 中国地质大学(武汉) 一种针对小样本以及高维图像的分类方法
US10062010B2 (en) * 2015-06-26 2018-08-28 Intel Corporation System for building a map and subsequent localization
CN107273891A (zh) * 2017-06-08 2017-10-20 深圳市唯特视科技有限公司 一种基于点击监督训练的目标类别检测方法
CN108053447A (zh) * 2017-12-18 2018-05-18 纳恩博(北京)科技有限公司 基于图像的重定位方法、服务器及存储介质
CN109858415A (zh) * 2019-01-21 2019-06-07 东南大学 适用于移动机器人行人跟随的核相关滤波目标跟踪方法
CN109800811B (zh) * 2019-01-24 2022-09-06 吉林大学 一种基于深度学习的小样本图像识别方法
CN110097094B (zh) * 2019-04-15 2023-06-13 天津大学 一种面向人物交互的多重语义融合少样本分类方法
CN110070139B (zh) * 2019-04-28 2021-10-19 吉林大学 面向自动驾驶环境感知的小样本在环学习系统和方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109298629A (zh) * 2017-07-24 2019-02-01 来福机器人 用于为自主和非自主位置意识提供鲁棒跟踪的容错

Also Published As

Publication number Publication date
CN110553650A (zh) 2019-12-10

Similar Documents

Publication Publication Date Title
CN110553650B (zh) 一种基于小样本学习的移动机器人重定位方法
CN106737692B (zh) 一种基于深度投影的机械手爪抓取规划方法及控制装置
CN106055091B (zh) 一种基于深度信息和校正方式的手部姿态估计方法
CN110480637B (zh) 一种基于Kinect传感器的机械臂零件图像识别抓取方法
CN106423656A (zh) 基于点云与图像匹配的自动喷涂系统及方法
CN108229587A (zh) 一种基于飞行器悬停状态的输电杆塔自主扫描方法
CN110463376B (zh) 一种插机方法及插机设备
CN106023211A (zh) 基于深度学习的机器人图像定位方法及系统
CN110796700A (zh) 基于卷积神经网络的多物体抓取区域定位方法
CN113103235B (zh) 一种基于rgb-d图像对柜体表面设备进行垂直操作的方法
CN113516108B (zh) 基于数据识别的工地抑尘数据匹配处理方法
CN111797688A (zh) 一种基于光流和语义分割的视觉slam方法
Ma et al. Crlf: Automatic calibration and refinement based on line feature for lidar and camera in road scenes
CN116052222A (zh) 自然采集牛脸图像的牛脸识别方法
WO2022228391A1 (zh) 一种终端设备定位方法及其相关设备
Yin et al. Overview of robotic grasp detection from 2D to 3D
CN107798329A (zh) 基于cnn的自适应粒子滤波目标跟踪方法
CN110910349A (zh) 一种基于航拍视觉的风电机组状态获取方法
CN113689459A (zh) 动态环境下基于gmm结合yolo实时跟踪与建图方法
CN108377368A (zh) 一种一主多从式智能视频监控装置及其控制方法
CN112947458A (zh) 基于多模态信息的机器人准确抓取方法及计算机可读介质
CN108074264A (zh) 一种分级多目视觉定位方法、系统及装置
Li et al. An intelligence image processing method of visual servo system in complex environment
Lin 3D object detection and 6D pose estimation using RGB-D images and mask R-CNN
CN107193965A (zh) 一种基于BoVW算法的快速室内定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant