CN111975769A - 基于元学习的移动机器人避障方法 - Google Patents

基于元学习的移动机器人避障方法 Download PDF

Info

Publication number
CN111975769A
CN111975769A CN202010685071.5A CN202010685071A CN111975769A CN 111975769 A CN111975769 A CN 111975769A CN 202010685071 A CN202010685071 A CN 202010685071A CN 111975769 A CN111975769 A CN 111975769A
Authority
CN
China
Prior art keywords
model
dronet
obstacle avoidance
meta
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010685071.5A
Other languages
English (en)
Inventor
董敏
钟浩钊
毕盛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202010685071.5A priority Critical patent/CN111975769A/zh
Publication of CN111975769A publication Critical patent/CN111975769A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于元学习的移动机器人避障方法,包括:1)获取基础数据集,包括Udacity无人驾驶数据集和UZH碰撞分类数据集;2)制作避障数据集,包括对步骤1)所得基础数据集进行预处理及合并Udacity无人驾驶数据集和UZH碰撞分类数据集;3)基于DroNet模型预测步骤2)所得避障数据集的图像数据对应的驾驶角度或碰撞概率;4)基于元学习训练步骤3)的DroNet模型;5)在实际应用场景中采集少量图像数据,即小样本数据集,对步骤4)训练好的DroNet模型进行微调,提高模型在新场景下的性能,最后将微调好的DroNet模型应用于实际的避障场景。本发明能够在样本数据不足的条件下提高移动机器人避障的鲁棒性。

Description

基于元学习的移动机器人避障方法
技术领域
本发明涉及移动机器人避障的技术领域,尤其是指一种基于元学习的移动机器人避障方法。
背景技术
最初,移动机器人的应用仅限于简单工况,但近年来,随着移动机器人相关技术的发展,移动机器人已经普遍用于娱乐、医疗、救援、教育等多个领域。面对日益复杂的工作环境,避障技术作为机器人移动导航的基础,具备快速适应新场景下的避障任务的能力显得尤为重要。
目前用于避障的主流传感器包括超声波传感器、红外传感器、激光传感器和视觉传感器等,在上述的传感器中,视觉传感器具有价格低廉、探测范围广和信息丰富等优点,缺点是图像处理中运算量较大。用于避障的主流算法包括遗传算法、模糊控制和神经网络等,在上述避障算法中,神经网络尤其是深层的神经网络能够拟合实际应用环境中复杂的关系,缺点是深层神经网络运算量大,而且需要大量训练数据。随着近年来算力的提升,使得计算机视觉和深度学习在实际应用中大放异彩,加速了基于深度学习的视觉避障算法在实际中广泛应用。目前为止深度学习需要大量数据用于训练模型,但是在机密、危险的场景中收集数据仍然存在问题,小样本学习则是针对这一问题提出的解决方法。元学习是实现小样本学习的手段之一,元学习的提出克服了深度学习在数据匮乏时的窘境,能够针对样本量较少的任务训练模型。基于元学习的移动机器人避障能够大幅节约学习成本,达到快速学习的效果。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一种基于元学习的移动机器人避障方法,能够在样本数据不足的条件下提高移动机器人避障的鲁棒性。
为实现上述目的,本发明所提供的技术方案为:基于元学习的移动机器人避障方法,包括以下步骤:
1)获取基础数据集,包括Udacity无人驾驶数据集和UZH碰撞分类数据集;
2)制作避障数据集,包括对步骤1)所得基础数据集进行预处理及合并Udacity无人驾驶数据集和UZH碰撞分类数据集;
3)基于DroNet模型预测步骤2)所得避障数据集的图像数据对应的驾驶角度或碰撞概率;
4)基于元学习训练步骤3)的DroNet模型;
5)在实际应用场景中采集少量图像数据,即小样本数据集,对步骤4)训练好的DroNet模型进行微调,提高模型在新场景下的性能,最后将微调好的DroNet模型应用于实际的避障场景。
所述步骤1)包括以下步骤:
1.1)下载Udacity无人驾驶数据集和UZH碰撞分类数据集;
1.2)从Udacity无人驾驶数据集中的bag文件中解析出图像数据和驾驶角度。
所述步骤2)包括以下步骤:
2.1)根据时间戳同步Udacity无人驾驶数据集的图像数据和对应驾驶角度;
2.2)将Udacity无人驾驶数据集和UZH碰撞分类数据集分别划分出训练集、验证集和测试集,然后合并两个数据集的对应集合;
2.3)对训练集的图像数据进行色彩抖动、尺寸裁剪、灰度转换和像素值标准化处理,对验证集和测试集的图像数据进行尺寸裁剪、灰度转换和像素值标准化处理。
在步骤3)中,所述DroNet模型由特征提取模块和输出模块组成,所述特征提取模块依次由5×5卷积层、ReLU激活层、3×3最大池化层、3个残差模块ResBlock、Dropout层、ReLU激活层和Flatten层组成,所述Flatten层后接输出模块,所述输出模块包括输出驾驶角度的全连接层、输出碰撞概率的全连接层和Sigmoid激活层;其中,所述残差模块ResBlock分为两路,主路依次由批量归一化层、ReLU激活层、3×3卷积层、批量归一化层、ReLU激活层和3×3卷积层组成,旁路由1×1卷积层组成;
将避障数据集的图像数据输入到DroNet模型,得到图像数据对应的驾驶角度和碰撞概率。
所述步骤4)包括以下步骤:
4.1)定义DroNet模型的输入和训练损失
DroNet模型单个训练步的输入数据是一个支持集,支持集是指从训练集中无放回抽样N个图像数据及对应驾驶角度或碰撞分类的训练条目,每个包含N个图像数据的支持集S描述为:
S={(x1,e1,L1),...,(xN,eN,LN)}
式中,xi表示图像数据,ei表示其标签类别,为驾驶角度或碰撞分类,Li表示其标签值,下标i=1,2,3,...,N为索引号,N为支持集大小;
DroNet模型单个训练步的损失定义如下:
Figure BDA0002587244950000031
式中,LMSE是驾驶角度的均方误差损失,LBCE是碰撞分类任务的二元交叉熵,Ltot是DroNet模型的总训练损失,epoch是当前训练回合数,decay和epoch0是平衡LMSE和LBCE的数值大小的参数;
4.2)定义元学习的输入和训练损失
元学习单个训练步的输入数据是一个任务集,任务集是指从所有支持集中无放回抽样M个支持集,每个包含M个支持集的任务集T描述为:
T={S1,...,SM}
式中,Si表示支持集,下标i=1,2,3,...,M为索引号,M为任务集大小;
单个元训练步的损失定义如下:
Figure BDA0002587244950000041
式中,
Figure BDA0002587244950000042
为任务集Ti的元损失,
Figure BDA0002587244950000043
为DroNet模型在任务集Ti中的支持集Si的总训练损失,M为任务集的大小;
4.3)定义训练方法
每个元训练步首先遍历当前任务集中的所有支持集,DroNet模型单个训练步损失仅用于计算梯度,待所有支持集遍历完毕后再用元损失更新DroNet模型的参数。
所述步骤5)包括以下步骤:
5.1)用单目相机采集实际场景中的图像数据并记录相应的驾驶角度和碰撞分类,制作实际应用场景的小样本数据集;
5.2)用步骤5.1)制得的小样本数据集对步骤4)训练所得DroNet模型进行微调,提高DroNet模型在新场景下的性能;
5.3)通过DroNet模型的输出来控制移动机器人,其中:
速度控制公式如下:
vk=(1-α)vk-1+α(1-pt)Vmax
式中,vk是当前时刻输入的速度,vk-1是上一时刻输入的速度,Vmax是机器人在无碰撞状态下的最大速度,pt是模型预测的碰撞概率,α是平滑系数;
驾驶角度控制公式如下:
Figure BDA0002587244950000051
式中,θk是当前时刻输入的驾驶角度,θk-1是上一时刻输入的驾驶角度,sk∈[-1,1],是模型预测的驾驶角度,β是平滑系数。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明提出将元学习用于解决移动机器人避障问题,克服了深度学习在数据匮乏时的问题,能够针对样本量较少的任务训练模型,实现小样本学习。
2、本发明使用基于优化的元学习训练方法,与模型无关,具有迁移成本低等优势,在实际场景中仅需少量样本对模型进行微调,即可快速适应新任务。
3、本发明将图像特征复用,用同一特征得到驾驶角度和碰撞概率两种信息,减少计算成本的同时获取了更多的环境信息,提高移动机器人的避障成功率。
4、本发明使用平滑的控制策略,增强了移动机器人在模型预测失误时的避障鲁棒性。
5、本发明仅用成本较低的单目相机完成移动机器人避障,有效控制移动机器人的成本。
附图说明
图1为本发明方法流程图。
图2为本发明中残差模块ResBlock结构示意图。
图3为本发明中DroNet模型的结构示意图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所提供的基于元学习的移动机器人避障方法,使用了RGB单目视觉传感器作为辅助设备,其包括以下步骤:
1)获取基础数据集:下载Udacity驾驶数据集和UZH碰撞数据集,并从Udacity无人驾驶数据集中的bag文件中解析出图像数据和驾驶角度。
2)制作避障数据集,具体如下:
2.1)根据时间戳同步Udacity无人驾驶数据集的图像数据和对应驾驶角度。
2.2)将Udacity无人驾驶数据集和UZH碰撞分类数据集分别划分出训练集、验证集和测试集,然后合并两个数据集的对应集合。
2.3)对训练集的图像数据进行色彩抖动、尺寸裁剪、灰度转换和像素值标准化处理,对验证集和测试集的图像数据进行尺寸裁剪、灰度转换和像素值标准化处理。
3)基于DroNet模型预测结果,具体如下:
如图2所示,定义残差模块ResBlock,每个ResBlock分为两路,主路依次由批量归一化层、ReLU激活层、3×3卷积层、批量归一化层、ReLU激活层和3×3卷积层组成,旁路由1×1卷积层组成。
如图3所示,定义DroNet模型,DroNet模型由特征提取模块和输出模块组成,特征提取模块依次由5×5卷积层、ReLU激活层、3×3最大池化层、3个ResBlock、Dropout层、ReLU激活层和Flatten层组成,Flatten层后接输出模块,输出模块包括输出驾驶角度的全连接层、输出碰撞概率的全连接层和Sigmoid激活层。
将避障数据集的图像数据输入到DroNet模型,得到图像数据对应的驾驶角度和碰撞概率。
4)基于元学习训练DroNet模型,具体如下:
4.1)定义DroNet模型的输入和训练损失。DroNet模型单个训练步的输入数据是一个支持集,支持集是指从训练集中无放回抽样N个图像数据及对应驾驶角度或碰撞分类的训练条目,每个包含N个图像数据的支持集S描述为:
S={(x1,e1,L1),...,(xN,eN,LN)}
式中,xi表示图像数据,ei表示其标签类别,为驾驶角度或碰撞分类,Li表示其标签值,下标i=1,2,3,...,N为索引号,N为支持集大小,在本实施例设置N=5。DroNet模型单个训练步的损失定义如下:
Figure BDA0002587244950000071
式中,LMSE是驾驶角度的均方误差损失,LBCE是碰撞分类任务的二元交叉熵,Ltot是DroNet模型的总训练损失,epoch是当前训练回合数,decay和epoch0是平衡LMSE和LBCE的数值大小的参数,在本实施例分别设置decay=0.1和epoch0=10。
4.2)定义元学习的输入和训练损失。元学习单个训练步的输入数据是一个任务集,任务集是指从所有支持集中无放回抽样M个支持集,每个包含M个支持集的任务集T描述为:
T={S1,...,SM}
式中,Si表示支持集,下标i=1,2,3,...,M为索引号,M为任务集大小,设置M=5。
单个元训练步的损失定义如下:
Figure BDA0002587244950000072
式中,
Figure BDA0002587244950000073
为任务集Ti的元损失,
Figure BDA0002587244950000074
为DroNet模型在任务集Ti中的支持集Si的总训练损失,M为任务集的大小,在本实施例设置M=5。
4.3)定义训练方法。每个元训练步首先遍历当前任务集中的所有支持集,DroNet模型单个训练步损失仅用于计算梯度,待所有支持集遍历完毕后再用元损失更新DroNet模型的参数。
5)在实际应用场景中采集少量样本,即小样本数据集,对步骤4)训练好的模型进行微调,提高模型在新场景下的性能,最后将微调好的DroNet模型应用于实际的避障场景,具体如下:
5.1)用单目相机采集实际场景中的图像数据并记录相应的驾驶角度和碰撞分类,制作实际应用场景的小样本数据集。
5.2)用步骤5.1)的小样本数据集对步骤4)训练所得DroNet模型进行微调,提高DroNet模型在新场景下的性能。
5.3)通过DroNet模型的输出来控制移动机器人,具体如下:
速度控制公式如下:
vk=(1-α)vk-1+α(1-pt)Vmax
式中,vk是当前时刻输入的速度,vk-1是上一时刻输入的速度,Vmax是机器人在无碰撞状态下的最大速度,pt是模型预测的碰撞概率,α是平滑系数,在本实施例设置α=0.7。
驾驶角度控制公式如下:
Figure BDA0002587244950000081
式中,θk是当前时刻输入的驾驶角度,θk-1是上一时刻输入的驾驶角度,sk∈[-1,1],是模型预测的驾驶角度,β是平滑系数,在本实施例设置β=0.5。
综上所述,本发明为移动机器人避障提供了小样本学习和快速适应新环境的能力,将元学习作为提高移动机器人避障能力通用性的一种有效手段,具有研究价值,值得推广。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (6)

1.基于元学习的移动机器人避障方法,其特征在于,包括以下步骤:
1)获取基础数据集,包括Udacity无人驾驶数据集和UZH碰撞分类数据集;
2)制作避障数据集,包括对步骤1)所得基础数据集进行预处理及合并Udacity无人驾驶数据集和UZH碰撞分类数据集;
3)基于DroNet模型预测步骤2)所得避障数据集的图像数据对应的驾驶角度或碰撞概率;
4)基于元学习训练步骤3)的DroNet模型;
5)在实际应用场景中采集少量图像数据,即小样本数据集,对步骤4)训练好的DroNet模型进行微调,提高模型在新场景下的性能,最后将微调好的DroNet模型应用于实际的避障场景。
2.根据权利要求1所述的基于元学习的移动机器人避障方法,其特征在于:所述步骤1)包括以下步骤:
1.1)下载Udacity无人驾驶数据集和UZH碰撞分类数据集;
1.2)从Udacity无人驾驶数据集中的bag文件中解析出图像数据和驾驶角度。
3.根据权利要求1所述的基于元学习的移动机器人避障方法,其特征在于:所述步骤2)包括以下步骤:
2.1)根据时间戳同步Udacity无人驾驶数据集的图像数据和对应驾驶角度;
2.2)将Udacity无人驾驶数据集和UZH碰撞分类数据集分别划分出训练集、验证集和测试集,然后合并两个数据集的对应集合;
2.3)对训练集的图像数据进行色彩抖动、尺寸裁剪、灰度转换和像素值标准化处理,对验证集和测试集的图像数据进行尺寸裁剪、灰度转换和像素值标准化处理。
4.根据权利要求1所述的基于元学习的移动机器人避障方法,其特征在于:在步骤3)中,所述DroNet模型由特征提取模块和输出模块组成,所述特征提取模块依次由5×5卷积层、ReLU激活层、3×3最大池化层、3个残差模块ResBlock、Dropout层、ReLU激活层和Flatten层组成,所述Flatten层后接输出模块,所述输出模块包括输出驾驶角度的全连接层、输出碰撞概率的全连接层和Sigmoid激活层;其中,所述残差模块ResBlock分为两路,主路依次由批量归一化层、ReLU激活层、3×3卷积层、批量归一化层、ReLU激活层和3×3卷积层组成,旁路由1×1卷积层组成;
将避障数据集的图像数据输入到DroNet模型,得到图像数据对应的驾驶角度和碰撞概率。
5.根据权利要求1所述的基于元学习的移动机器人避障方法,其特征在于:所述步骤4)包括以下步骤:
4.1)定义DroNet模型的输入和训练损失
DroNet模型单个训练步的输入数据是一个支持集,支持集是指从训练集中无放回抽样N个图像数据及对应驾驶角度或碰撞分类的训练条目,每个包含N个图像数据的支持集S描述为:
S={(x1,e1,L1),...,(xN,eN,LN)}
式中,xi表示图像数据,ei表示其标签类别,为驾驶角度或碰撞分类,Li表示其标签值,下标i=1,2,3,...,N为索引号,N为支持集大小;
DroNet模型单个训练步的损失定义如下:
Figure FDA0002587244940000021
式中,LMSE是驾驶角度的均方误差损失,LBCE是碰撞分类任务的二元交叉熵,Ltot是DroNet模型的总训练损失,epoch是当前训练回合数,decay和epoch0是平衡LMSE和LBCE的数值大小的参数;
4.2)定义元学习的输入和训练损失
元学习单个训练步的输入数据是一个任务集,任务集是指从所有支持集中无放回抽样M个支持集,每个包含M个支持集的任务集T描述为:
T={S1,...,SM}
式中,Si表示支持集,下标i=1,2,3,...,M为索引号,M为任务集大小;
单个元训练步的损失定义如下:
Figure FDA0002587244940000031
式中,
Figure FDA0002587244940000032
为任务集Ti的元损失,
Figure FDA0002587244940000033
为DroNet模型在任务集Ti中的支持集Si的总训练损失,M为任务集的大小;
4.3)定义训练方法
每个元训练步首先遍历当前任务集中的所有支持集,DroNet模型单个训练步损失仅用于计算梯度,待所有支持集遍历完毕后再用元损失更新DroNet模型的参数。
6.根据权利要求1所述的基于元学习的移动机器人避障方法,其特征在于:所述步骤5)包括以下步骤:
5.1)用单目相机采集实际场景中的图像数据并记录相应的驾驶角度和碰撞分类,制作实际应用场景的小样本数据集;
5.2)用步骤5.1)制得的小样本数据集对步骤4)训练所得DroNet模型进行微调,提高DroNet模型在新场景下的性能;
5.3)通过DroNet模型的输出来控制移动机器人,其中:
速度控制公式如下:
vk=(1-α)vk-1+α(1-pt)Vmax
式中,vk是当前时刻输入的速度,vk-1是上一时刻输入的速度,Vmax是机器人在无碰撞状态下的最大速度,pt是模型预测的碰撞概率,α是平滑系数;
驾驶角度控制公式如下:
Figure FDA0002587244940000041
式中,θk是当前时刻输入的驾驶角度,θk-1是上一时刻输入的驾驶角度,sk∈[-1,1],是模型预测的驾驶角度,β是平滑系数。
CN202010685071.5A 2020-07-16 2020-07-16 基于元学习的移动机器人避障方法 Pending CN111975769A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010685071.5A CN111975769A (zh) 2020-07-16 2020-07-16 基于元学习的移动机器人避障方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010685071.5A CN111975769A (zh) 2020-07-16 2020-07-16 基于元学习的移动机器人避障方法

Publications (1)

Publication Number Publication Date
CN111975769A true CN111975769A (zh) 2020-11-24

Family

ID=73438277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010685071.5A Pending CN111975769A (zh) 2020-07-16 2020-07-16 基于元学习的移动机器人避障方法

Country Status (1)

Country Link
CN (1) CN111975769A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023273178A1 (zh) * 2021-06-29 2023-01-05 达闼科技(北京)有限公司 机器人技能生成方法、装置、介质及云端服务器、机器人控制系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740910A (zh) * 2016-02-02 2016-07-06 北京格灵深瞳信息技术有限公司 一种车辆物件检测方法及装置
CN106873566A (zh) * 2017-03-14 2017-06-20 东北大学 一种基于深度学习的无人驾驶物流车
CN107553490A (zh) * 2017-09-08 2018-01-09 深圳市唯特视科技有限公司 一种基于深度学习的单目视觉避障方法
CN107972662A (zh) * 2017-10-16 2018-05-01 华南理工大学 一种基于深度学习的车辆前向碰撞预警方法
CN109213147A (zh) * 2018-08-01 2019-01-15 上海交通大学 一种基于深度学习的机器人避障轨迹规划方法及系统
CN109871892A (zh) * 2019-02-18 2019-06-11 华南理工大学 一种基于小样本度量学习的机器人视觉认知系统
CN110032949A (zh) * 2019-03-22 2019-07-19 北京理工大学 一种基于轻量化卷积神经网络的目标检测与定位方法
CN110553650A (zh) * 2019-08-29 2019-12-10 华南理工大学 一种基于小样本学习的移动机器人重定位方法
CN111026115A (zh) * 2019-12-13 2020-04-17 华南智能机器人创新研究院 一种基于深度学习的机器人避障控制方法及装置
CN111367282A (zh) * 2020-03-09 2020-07-03 山东大学 一种基于多模感知与强化学习的机器人导航方法及系统
CN111399505A (zh) * 2020-03-13 2020-07-10 浙江工业大学 一种基于神经网络的移动机器人避障方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740910A (zh) * 2016-02-02 2016-07-06 北京格灵深瞳信息技术有限公司 一种车辆物件检测方法及装置
CN106873566A (zh) * 2017-03-14 2017-06-20 东北大学 一种基于深度学习的无人驾驶物流车
CN107553490A (zh) * 2017-09-08 2018-01-09 深圳市唯特视科技有限公司 一种基于深度学习的单目视觉避障方法
CN107972662A (zh) * 2017-10-16 2018-05-01 华南理工大学 一种基于深度学习的车辆前向碰撞预警方法
CN109213147A (zh) * 2018-08-01 2019-01-15 上海交通大学 一种基于深度学习的机器人避障轨迹规划方法及系统
CN109871892A (zh) * 2019-02-18 2019-06-11 华南理工大学 一种基于小样本度量学习的机器人视觉认知系统
CN110032949A (zh) * 2019-03-22 2019-07-19 北京理工大学 一种基于轻量化卷积神经网络的目标检测与定位方法
CN110553650A (zh) * 2019-08-29 2019-12-10 华南理工大学 一种基于小样本学习的移动机器人重定位方法
CN111026115A (zh) * 2019-12-13 2020-04-17 华南智能机器人创新研究院 一种基于深度学习的机器人避障控制方法及装置
CN111367282A (zh) * 2020-03-09 2020-07-03 山东大学 一种基于多模感知与强化学习的机器人导航方法及系统
CN111399505A (zh) * 2020-03-13 2020-07-10 浙江工业大学 一种基于神经网络的移动机器人避障方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANTONIO LOQUERCIO等: "DroNet: Learning to Fly by Driving", 《IEEE ROBOTICS AND AUTOMATION LETTERS》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023273178A1 (zh) * 2021-06-29 2023-01-05 达闼科技(北京)有限公司 机器人技能生成方法、装置、介质及云端服务器、机器人控制系统

Similar Documents

Publication Publication Date Title
CN112949673B (zh) 一种基于全局注意力的特征融合目标检测与识别方法
CN112634276A (zh) 一种基于多尺度视觉特征提取的轻量级语义分割方法
WO2021249255A1 (zh) 一种基于RP-ResNet网络的抓取检测方法
CN111046948B (zh) 点云仿真和深度学习的工件位姿识别及机器人上料方法
CN110084221A (zh) 一种基于深度学习的带中继监督的序列化人脸关键点检测方法
CN111461083A (zh) 基于深度学习的快速车辆检测方法
CN104517103A (zh) 一种基于深度神经网络的交通标志分类方法
CN110795990A (zh) 一种面向水下设备的手势识别方法
CN112508014A (zh) 一种基于注意力机制的改进YOLOv3目标检测方法
CN112417973A (zh) 一种基于车联网的无人驾驶系统
CN108921044A (zh) 基于深度卷积神经网络的驾驶员决策特征提取方法
CN111975769A (zh) 基于元学习的移动机器人避障方法
CN115256377A (zh) 一种基于多源信息融合的机器人抓取方法和装置
CN113762159B (zh) 一种基于有向箭头模型的目标抓取检测方法及系统
CN111199255A (zh) 基于darknet53网络的小目标检测网络模型及检测方法
CN110689557A (zh) 一种基于kcf的改进型抗遮挡目标跟踪方法
CN112668473A (zh) 基于多特征深度融合神经网络的车辆状态准确感知方法
CN116797799A (zh) 一种基于通道注意力和时空感知的单目标跟踪方法及跟踪系统
CN116743633A (zh) 基于注意力机制的物联网异常流量检测方法
CN115272412B (zh) 一种基于边缘计算的低小慢目标检测方法及跟踪系统
CN111160089A (zh) 一种基于不同车辆类型的轨迹预测系统及方法
US20230102866A1 (en) Neural deep equilibrium solver
CN110852272A (zh) 行人检测方法
Permana et al. Hand movement identification using single-stream spatial convolutional neural networks
CN113255937B (zh) 一种面向智能车间不同智能体之间的联邦学习方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201124