CN109800864A - 一种基于图像输入的机器人主动学习方法 - Google Patents
一种基于图像输入的机器人主动学习方法 Download PDFInfo
- Publication number
- CN109800864A CN109800864A CN201910049649.5A CN201910049649A CN109800864A CN 109800864 A CN109800864 A CN 109800864A CN 201910049649 A CN201910049649 A CN 201910049649A CN 109800864 A CN109800864 A CN 109800864A
- Authority
- CN
- China
- Prior art keywords
- task
- robot
- response diagram
- network
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000004044 response Effects 0.000 claims abstract description 64
- 238000010586 diagram Methods 0.000 claims abstract description 60
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims abstract description 6
- 238000003062 neural network model Methods 0.000 claims abstract description 4
- 238000010606 normalization Methods 0.000 claims description 23
- 238000003475 lamination Methods 0.000 claims description 22
- 230000004913 activation Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 18
- 238000004519 manufacturing process Methods 0.000 claims description 11
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 8
- 230000007423 decrease Effects 0.000 claims description 8
- 239000000203 mixture Substances 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 4
- 239000003518 caustics Substances 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 abstract description 5
- 230000006866 deterioration Effects 0.000 description 3
- 210000004218 nerve net Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种基于图像输入的机器人主动学习方法。包括以下步骤:S1.在仿真环境中,搭建一个类似于现实场景的环境;S2.根据任务的可受性制作响应图和掩膜;S3.使用步骤S1采集的彩色图像、步骤S2制作的响应图和掩膜图,训练深度神经网络,使用编码器从图片中提取有效的信息,再使用解码器生成表示可受性区域响应图;S4.将训练好的深度神经网络模型部署到真实机器人上,尝试完成指定的任务;S5.保存当前状态下摄像头捕获的彩色图像和深度图像,进行标注;S6.使用标注数据对网络进行微调,重复步骤S4;S7.机器人开始执行任务。可以通过在仿真环境中采集少量的数据,训练一个效果良好的深度神经网络,并且能够直接迁移到真实环境之中。
Description
技术领域
本发明属于人工智能技术领域,更具体地,涉及一种基于图像输入的机器人主动学习方法。
背景技术
近些年来,随着计算力的提高和深度学习算法的不断发展,数据驱动的方法在机器人领域中大放异彩。数据驱动的方法通常需要采集大量的数据,才能较好地训练深度神经网络模型,控制机器人完成相应的任务。不同于其他领域,使用真实机器人采集数据不仅代价高昂,耗时耗力,还会不可避免出现物理损耗,甚至可能产生危险。受限于实际条件,通常不可能使用真实的机器人在现实环境中采集大量的数据。因此急需找到一些方法来减少数据驱动方法所需的真实环境数据的数据量,或者用仿真环境数据代替真实环境数据来训练模型,最后再迁移到真实机器人上。
机器人学习领域的研究方向主要分为监督学习和强化学习两个方向。监督学习通过采集大量的数据并进行标注,用来训练网络,按照标注数据的方法,又可以细分为自监督学习、模仿学习等方向;强化学习方法是通过机器人在环境中进行大量的随机探索来学会完成指定的任务。
主动学习通过对未标注的数据进行筛选,可以利用少量的标注数据取得较高的学习准确度。主动学习通过某种选择策略从数据集中寻找未标注的数据让专家进行标注,被选中的数据是最具有学习价值的数据,用这样的标注样本进行学习,是最高效的学习。通过不断的选择数据、进行标注和训练网络,直至满足终止条件,能够以最少的标注样本得到效果优良的模型。
A.Zeng et al.Robotic Pick-and-Place of Novel Objects in Clutter withMulti-Affordance Grasping and Cross-Domain Image Matching通过人工来标注真实环境采集的图片数据,对于每张RGB-D的图像,手动地标注出可供抓取的位置。使用这些数据训练全卷积深度神经网络,测试时输入RGB-D图片,输出对应的相应图(response map),在图中亮度最高的点即为应当执行抓取的点。该方法使用可受性(affordace)的概念来解决抓取问题,对见过和未见过的物体都有较高的抓取成功率,在物体堆叠的情况下也有较高的抓取成功率,泛化能力强。
Konyushkova et al.Learning Active Learning from Data首次提出了学习一个选择策略来选择标注数据的方法,而不是使用手工设计的特征。该方法将选择策略看作一个回归问题,通过数据集来学习一个效果良好的回归网络,通过网络来选择需要标注的数据,并且证明了该方法适用于多个领域.
监督学习需要采集大量的数据并进行标注来训练网络,缺点是对大量的数据进行标注耗时耗力,而且对于多解的问题不可能标注所有的解;自监督学习往往需要机械臂进行大量的试错实验,采集的样本成功率较低,效率不高,需要大量的人力物力;强化学习方法是通过机器人在指定的环境中进行大量的探索来学会完成指定的任务,缺点是需要的探索次数非常多,且随机的探索容易产生危险,在现实中几乎不可能完成。
A.Zeng et al.Robotic Pick-and-Place of Novel Objects in Clutter withMulti-Affordance Grasping and Cross-Domain Image Matching采集大量真实环境的图片,通过人工来标注数据,需要花费大量的时间和资源;该方法需要一套带有四个摄像头的RGB-D图片采集系统,对抓取的环境有较高的要求;该方法是一种开环的抓取方法,没有充分利用信息实现闭环抓取;该方法对于模型不能抓取的物体没有提出进一步的解决方法,不能持续地提高成功率。
在机器人领域上,现有的主动学习方法的选择策略大多是手工设计的特征,通过这些特征让机器人判断当前状态是否需要示教。手工设计的特征泛化性能较差,不仅无法多种任务通用,对于同一个任务也容易出现虚警和漏警。K.Konyushkova et al.LearningActive Learning from Data提出的学习一个回归网络来作为选择策略的方法无法直接应用在机器人领域。在真实的机器人操作中,机器人与环境是不断地进行实时交互的,选择策略所面对的数据集并不是一个已存在的确定的数据集,任务不是从已有的数据集中挑选数据进行标注;而是面对一个动态增长的数据集,任务是判断一个全新的场景是否需要标注。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷,提供一种基于图像输入的机器人主动学习方法,以提高机器人主动学习的效果。
为解决上述技术问题,本发明采用的技术方案是:一种基于图像输入的机器人主动学习方法,包括以下步骤:
S1.在仿真环境中,搭建一个类似于现实场景的环境,捕获仿真环境中的彩色图像和对应的物体的位置,保存为数据集;
S2.根据任务的可受性制作响应图和掩膜;
S3.使用步骤S1采集的彩色图像、步骤S2制作的响应图和掩膜图,训练深度神经网络,使用编码器从图片中提取有效的信息,再使用解码器生成表示可受性区域响应图;
S4.将训练好的深度神经网络模型部署到真实机器人上,尝试完成指定的任务;
S5.保存当前状态下摄像头捕获的彩色图像和深度图像,进行标注;
S6.使用标注数据对网络进行微调,重复步骤S4;
S7.机器人开始执行任务。
进一步的,所述的S1步骤具体包括:
S11.在场景中放置一张桌子,桌子上摆放了机器人、摄像头和一些物体;
S12.在仿真器中,随机设置桌子和地板的颜色,随机选择一个或多个物体摆放在桌子上,随机产生物体摆放的位置,随机改变物体的颜色和纹理,随机改变环境的光照强度;
S13.记录摄像头捕获的彩色图像和对应的物体的位置,保存为数据集。
进一步的,所述的S2步骤具体包括:
S21.根据任务的特点,计算对于指定任务下物体的可受性区域,对于抓取任务,可受性区域为物体的几何中心点;对于推动任务,可受性区域为终点物体与起点物体的连线的延长线某一区域处;
S22.根据可受性区域,制作响应图,在图上表示为一个服从高斯分布的高亮圆形,圆心的位置即为可受性区域的中心位置;
S23.根据可受性区域,制作掩膜图,在图上表示为一个服从高斯分布的高亮圆形,圆心的位置即为可受性区域的中心位置,半径比响应图的圆形要大。
进一步的,所述的S3步骤具体包括:
S31.对输入到网络的图片进行归一化,归一化后图像像素值的范围是(-1,1);
S32.网络使用Adam优化器进行梯度下降,学习率设定为10e-4,mini-batch设定为32,所有参数均随机初始化;
S33.编码器由4个卷积层组成,在每个卷积层后均跟有池化层和批标准化层;每个卷积层都使用4*4的卷积核,步长为2,使用leaky_relu函数作为激活函数;解码器由4个反卷积层组成,在每个反卷积层后均跟有批标准化层;反卷积层使用4*4的卷积核,步长为2;最后一个反卷积层使用tanh作为激活函数,其余层均使用leaky_relu函数作为激活函数;
S34.网络输出的响应图记为O,制作的响应图记为Y,掩膜图记为M,网络的损失函数定义为:
进一步的,所述的S4步骤具体包括:
S41.摄像头拍摄当前场景的彩色图像,将该图像进行步骤S31所述的归一化后输入到网络中;网络将会输出对应的响应图;
S42.计算输出的响应图的交叉熵,比较交叉熵和阈值大小的关系,判断能否完成任务;若交叉熵的值大于阈值,机器人能执行该任务,跳到步骤7;若交叉熵的值小于阈值机器人无法执行任务,跳到步骤5。
进一步的,所述的S5步骤具体包括:
S51.将未摆放物体的场景深度图记为D1,已摆放物体的场景深度图记为D2,通过D=D2-D1可以得到物体的位置信息;使用中值滤波、膨胀、腐蚀方法对D进行处理,去除噪声;
S52.寻找D中所有面积较大的轮廓,并计算轮廓的矩,得到轮廓的中心点位置,即为物体的位置。使用轮廓信息和中心点信息,可以描述物体的形状和位置。
进一步的,所述的S6步骤具体包括:
S61.通过步骤S5的标注,使用与步骤S2相同的方法制作响应图和掩膜图;
S62.使用步骤S5的彩色图像、步骤S61制作的响应图和掩膜图,训练深度神经网络,使用编码器从图片中提取有效的信息,再使用解码器生成表示可受性区域响应图;
S63.对输入到网络的图片进行归一化,归一化后图像像素值的范围是(-1,1);
S64.网络使用Adam优化器进行梯度下降,学习率设定为10e-5,mini-batch设定为32,所有参数均随机初始化;
S65.编码器由4个卷积层组成,在每个卷积层后均跟有池化层和批标准化层;每个卷积层都使用4*4的卷积核,步长为2,使用leaky_relu函数作为激活函数;解码器由4个反卷积层组成,在每个反卷积层后均跟有批标准化层;反卷积层使用4*4的卷积核,步长为2;最后一个反卷积层使用tanh作为激活函数,其余层均使用leaky_relu函数作为激活函数;
S66.网络输出的响应图记为O,制作的响应图记为Y,掩膜图记为M,网络的损失函数定义为:
进一步的,所述的S7步骤具体包括:
S71.寻找响应图上亮度最高的点,该点的位置表示物体可受性区域的位置;将该点的坐标映射到机器人坐标空间中,该位置即为机器人坐标系中物体的可受性区域的位置;
S72.机械臂移动到指定位置,执行指定任务。
与现有技术相比,有益效果是:
1.本发明在仿真环境中采集数据,避免了在现实环境中采集数据时可能遇到的问题:耗时耗力、出现物理损耗、可能出现危险。在仿真环境中采集数据,速度很快、不需要人工进行标注,能够避免使用真实机器人导致的物理损耗和潜在不安全因素,可以制作足够大的数据集;
2.本发明运用可受性区域(affordance)的概念,使深度模型不再过于关注物体的形状、纹理和颜色等表面特征,而是把更多的注意力放在发掘完成任务的affordance上。通过制作响应图作为标签,使得深度网络能够学会affordance的概念,对于不同的物体、不同的场景,都能完成指定的任务,泛化能力非常强。本发明仅使用仿真数据训练模型,训练后模型可以直接迁移到真实环境中;其他使用仿真数据训练的方法,在迁移到真实环境中往往需要加入一些真实数据,对模型进行微调。
3.本发明将主动学习的方法应用于机器人领域,通过主动学习来采集数据非常高效,可以有效地减少深度学习所需要的数据量。主动学习的机制不仅使机器人具备了增量学习和终身学习的能力,也从另一方面提升了机器人的安全性能。本发明通过响应图作为主动学习的选择策略,判断当前情况下是否需要示教。使用响应图的交叉熵作为选择策略,比其他方法使用手工设计的特征作为选择策略更为准确,减少了误警和虚警。本发明的现实环境数据标注方法可以大大加快标注速度,减少人力物力的消耗,能够全自动地完成标注。本发明的主动学习方法不仅适用于机器人领域,也适用于其他计算机视觉相关领域。
附图说明
图1是本发明方法流程图。
图2是本发明实施例中的网络结构是示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本发明的限制。
实施例1:
本发明提出一种基于图像输入的机器人主动学习方法,可以通过在仿真环境中采集少量的数据,训练一个效果良好的深度神经网络,并且能够直接迁移到真实环境之中。在真实环境执行任务时,机器人能够自行准确判断自己能否完成该任务,如果不能完成,将申请专家进行示教,通过示教信息微调模型,实现增量学习,直至能够完成所有相似的任务。包括以下阶段:
1.仿真数据采集:
在仿真环境中,搭建一个类似于现实场景的环境。在桌面上随机放置物体,在桌面上方设置摄像头,记录下摄像头捕获的图像和物体的坐标。然后计算完成某个指定任务时机械臂需要到达的可受性区域(affordance)。假设机械臂的任务是把物体A推动到物体B所在的位置使它们互相接触,在该任务中应当到达的可受性区域(affordance)是A物体和B物体的连线的延长线上距离A物体较近的一点。制作标签图像时,将该点标为高亮,其余点标为黑色;制作掩膜图像时,将该点附近标为高亮,其余点标为黑色。采集数据时,需要随机指定物体的位置,需要更换多种不同形状的物体,需要更换桌子背景的颜色。
2.网络结构和训练方法:
本发明使用编码器从图片中提取有效的信息,再使用解码器恢复成响应图(response map)。本发明中,编码器由4个卷积层组成,在每个卷积层后均跟有池化层和批标准化层(Batch Normalization)。每个卷积层都使用4*4的卷积核,步长为2,使用leaky_relu函数作为激活函数。解码器由4个反卷积层组成,在每个反卷积层后均跟有批标准化层。反卷积层使用4*4的卷积核,步长为2。最后一个反卷积层使用tanh作为激活函数,其余层均使用leaky_relu函数作为激活函数。输入到编码器的图片需要提前进行归一化。
本发明使用掩膜图像对损失函数进行加权,以此将网络的注意力更多地集中在响应图高亮的部分,减少背景图像的影响。假设标签响应图记为Y,网络输出的图片记为I,掩膜图片记为M,网络的损失函数可表示为:
网络使用Adam优化器进行梯度下降,学习率设定为10e-4,mini-batch的大小是32,所有参数均随机初始化。
3.主动学习阶段——真实机器人测试与真实数据采集:
使用仿真产生的数据训练网络,训练完毕后,输入真实环境的图片,能够准确地预测响应图。响应图表示的是网络模型认为机器人应该移动到图中的哪个位置去执行当前任务,亮度越大的位置表示置信度越高,亮度越低的表示置信度越低。因此,可以根据响应图的亮度,来判断网络模型对于该场景下执行该任务的自信程度。根据响应图的交叉熵与训练数据集中的响应图交叉熵的大小关系,执行不同的操作。如果当前响应图的交叉熵大于阈值,本次预测是置信度高的一次预测,机器人会移动到响应图最亮的点的位置,执行相应的任务;如果响应图的交叉熵小于阈值,本次预测是置信度较低的预测,机器人会主动停下,记录下当前的彩色图和深度图,请求标注。阈值可以是训练数据集的响应图的交叉熵平均值。通过改变实验的场景,机器人会做出一些置信度较低的预测,采集到一定数量的彩色图和深度图。
4.主动学习阶段——真实环境数据自动标注方法:
将未摆放物体的场景深度图记为D1,已摆放物体的场景深度图记为D2,通过D=D2-D1可以得到物体的位置信息。使用中值滤波、膨胀、腐蚀等方法对D进行处理,去除噪声。寻找D中的轮廓,并计算轮廓的矩,得到轮廓的中心点位置,即为物体的位置。使用轮廓信息和中心点信息,可以描述物体的形状和位置。将形状和位置信息从深度图映射到彩色图,在彩色图上进行标注。
5.主动学习阶段——网络微调:
使用标注后的真实环境图片对原来训练好的模型进行微调(finetune)。微调时按照原网络结构,使用已训练好的网络参数作为初始化参数,使用Adam优化器进行几次梯度下降即可。微调后的模型可以很好地完成原来不能完成的任务。
通过主动学习,模型可以实现增量学习,学会绝大部分相似的任务。
如图1所示,一种基于图像输入的机器人主动学习方法,包括以下步骤:
步骤1.在仿真环境中,搭建一个类似于现实场景的环境,捕获仿真环境中的彩色图像和对应的物体的位置,保存为数据集;
S11.在场景中放置一张桌子,桌子上摆放了机器人、摄像头和一些物体;
S12.在仿真器中,随机设置桌子和地板的颜色,随机选择一个或多个物体摆放在桌子上,随机产生物体摆放的位置,随机改变物体的颜色和纹理,随机改变环境的光照强度;
S13.记录摄像头捕获的彩色图像和对应的物体的位置,保存为数据集。
步骤2.根据任务的可受性制作响应图和掩膜;
S21.根据任务的特点,计算对于指定任务下物体的可受性区域,对于抓取任务,可受性区域为物体的几何中心点;对于推动任务,可受性区域为终点物体与起点物体的连线的延长线某一区域处;
S22.根据可受性区域,制作响应图,在图上表示为一个服从高斯分布的高亮圆形,圆心的位置即为可受性区域的中心位置;
S23.根据可受性区域,制作掩膜图,在图上表示为一个服从高斯分布的高亮圆形,圆心的位置即为可受性区域的中心位置,半径比响应图的圆形要大。
步骤3.使用步骤S1采集的彩色图像、步骤S2制作的响应图和掩膜图,训练深度神经网络,使用编码器从图片中提取有效的信息,再使用解码器生成表示可受性区域响应图;
S31.对输入到网络的图片进行归一化,归一化后图像像素值的范围是(-1,1);
S32.网络使用Adam优化器进行梯度下降,学习率设定为10e-4,mini-batch设定为32,所有参数均随机初始化;
S33.编码器由4个卷积层组成,在每个卷积层后均跟有池化层和批标准化层;每个卷积层都使用4*4的卷积核,步长为2,使用leaky_relu函数作为激活函数;解码器由4个反卷积层组成,在每个反卷积层后均跟有批标准化层;反卷积层使用4*4的卷积核,步长为2;最后一个反卷积层使用tanh作为激活函数,其余层均使用leaky_relu函数作为激活函数;
S34.网络输出的响应图记为O,制作的响应图记为Y,掩膜图记为M,网络的损失函数定义为:
步骤4.将训练好的深度神经网络模型部署到真实机器人上,尝试完成指定的任务;
S41.摄像头拍摄当前场景的彩色图像,将该图像进行步骤S31所述的归一化后输入到网络中;网络将会输出对应的响应图;
S42.计算输出的响应图的交叉熵,比较交叉熵和阈值大小的关系,判断能否完成任务;若交叉熵的值大于阈值,机器人能执行该任务,跳到步骤7;若交叉熵的值小于阈值机器人无法执行任务,跳到步骤5。
步骤5.保存当前状态下摄像头捕获的彩色图像和深度图像,进行标注;
S51.将未摆放物体的场景深度图记为D1,已摆放物体的场景深度图记为D2,通过D=D2-D1可以得到物体的位置信息;使用中值滤波、膨胀、腐蚀方法对D进行处理,去除噪声;
S52.寻找D中所有面积较大的轮廓,并计算轮廓的矩,得到轮廓的中心点位置,即为物体的位置。使用轮廓信息和中心点信息,可以描述物体的形状和位置。
步骤6.使用标注数据对网络进行微调,重复步骤S4;
S61.通过步骤S5的标注,使用与步骤S2相同的方法制作响应图和掩膜图;
S62.使用步骤S5的彩色图像、步骤S61制作的响应图和掩膜图,训练深度神经网络,使用编码器从图片中提取有效的信息,再使用解码器生成表示可受性区域响应图;
S63.对输入到网络的图片进行归一化,归一化后图像像素值的范围是(-1,1);
S64.网络使用Adam优化器进行梯度下降,学习率设定为10e-5,mini-batch设定为32,所有参数均随机初始化
S65.编码器由4个卷积层组成,在每个卷积层后均跟有池化层和批标准化层;每个卷积层都使用4*4的卷积核,步长为2,使用leaky_relu函数作为激活函数;解码器由4个反卷积层组成,在每个反卷积层后均跟有批标准化层;反卷积层使用4*4的卷积核,步长为2;最后一个反卷积层使用tanh作为激活函数,其余层均使用leaky_relu函数作为激活函数;
S66.网络输出的响应图记为O,制作的响应图记为Y,掩膜图记为M,网络的损失函数定义为:
步骤7.机器人开始执行任务。
S71.寻找响应图上亮度最高的点,该点的位置表示物体可受性区域的位置;将该点的坐标映射到机器人坐标空间中,该位置即为机器人坐标系中物体的可受性区域的位置;
S72.机械臂移动到指定位置,执行指定任务。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (8)
1.一种基于图像输入的机器人主动学习方法,其特征在于,包括以下步骤:
S1.在仿真环境中,搭建一个类似于现实场景的环境,捕获仿真环境中的彩色图像和对应的物体的位置,保存为数据集;
S2.根据任务的可受性制作响应图和掩膜;
S3.使用步骤S1采集的彩色图像、步骤S2制作的响应图和掩膜图,训练深度神经网络,使用编码器从图片中提取有效的信息,再使用解码器生成表示可受性区域响应图;
S4.将训练好的深度神经网络模型部署到真实机器人上,尝试完成指定的任务;
S5.保存当前状态下摄像头捕获的彩色图像和深度图像,进行标注;
S6.使用标注数据对网络进行微调,重复步骤S4;
S7.机器人开始执行任务。
2.根据权利要求1所述的一种基于图像输入的机器人主动学习方法,其特征在于,所述的S1步骤具体包括:
S11.在场景中放置一张桌子,桌子上摆放了机器人、摄像头和一些物体;
S12.在仿真器中,随机设置桌子和地板的颜色,随机选择一个或多个物体摆放在桌子上,随机产生物体摆放的位置,随机改变物体的颜色和纹理,随机改变环境的光照强度;
S13.记录摄像头捕获的彩色图像和对应的物体的位置,保存为数据集。
3.根据权利要求2所述的一种基于图像输入的机器人主动学习方法,其特征在于,所述的S2步骤具体包括:
S21.根据任务的特点,计算对于指定任务下物体的可受性区域,对于抓取任务,可受性区域为物体的几何中心点;对于推动任务,可受性区域为终点物体与起点物体的连线的延长线某一区域处;
S22.根据可受性区域,制作响应图,在图上表示为一个服从高斯分布的高亮圆形,圆心的位置即为可受性区域的中心位置;
S23.根据可受性区域,制作掩膜图,在图上表示为一个服从高斯分布的高亮圆形,圆心的位置即为可受性区域的中心位置,半径比响应图的圆形要大。
4.根据权利要求3所述的一种基于图像输入的机器人主动学习方法,其特征在于,所述的S3步骤具体包括:
S31.对输入到网络的图片进行归一化,归一化后图像像素值的范围是(-1,1);
S32.网络使用Adam优化器进行梯度下降,学习率设定为10e-4,mini-batch设定为32,所有参数均随机初始化;
S33.编码器由4个卷积层组成,在每个卷积层后均跟有池化层和批标准化层;每个卷积层都使用4*4的卷积核,步长为2,使用leaky_relu函数作为激活函数;解码器由4个反卷积层组成,在每个反卷积层后均跟有批标准化层;反卷积层使用4*4的卷积核,步长为2;最后一个反卷积层使用tanh作为激活函数,其余层均使用leaky_relu函数作为激活函数;
S34.网络输出的响应图记为O,制作的响应图记为Y,掩膜图记为M,网络的损失函数定义为:
5.根据权利要求4所述的一种基于图像输入的机器人主动学习方法,其特征在于,所述的S4步骤具体包括:
S41.摄像头拍摄当前场景的彩色图像,将该图像进行步骤S31所述的归一化后输入到网络中;网络将会输出对应的响应图;
S42.计算输出的响应图的交叉熵,比较交叉熵和阈值大小的关系,判断能否完成任务;若交叉熵的值大于阈值,机器人能执行该任务,跳到步骤7;若交叉熵的值小于阈值机器人无法执行任务,跳到步骤S5。
6.根据权利要求5所述的一种基于图像输入的机器人主动学习方法,其特征在于,所述的S5步骤具体包括:
S51.将未摆放物体的场景深度图记为D1,已摆放物体的场景深度图记为D2,通过D=D2-D1可以得到物体的位置信息;使用中值滤波、膨胀、腐蚀方法对D进行处理,去除噪声;
S52.寻找D中所有面积较大的轮廓,并计算轮廓的矩,得到轮廓的中心点位置,即为物体的位置。使用轮廓信息和中心点信息,可以描述物体的形状和位置。
7.根据权利要求6所述的一种基于图像输入的机器人主动学习方法,其特征在于,所述的S6步骤具体包括:
S61.通过步骤S5的标注,使用与步骤S2相同的方法制作响应图和掩膜图;
S62.使用步骤S5的彩色图像、步骤S61制作的响应图和掩膜图,训练深度神经网络,使用编码器从图片中提取有效的信息,再使用解码器生成表示可受性区域响应图;
S63.对输入到网络的图片进行归一化,归一化后图像像素值的范围是(-1,1);
S64.网络使用Adam优化器进行梯度下降,学习率设定为10e-5,mini-batch设定为32,所有参数均随机初始化;
S65.编码器由4个卷积层组成,在每个卷积层后均跟有池化层和批标准化层;每个卷积层都使用4*4的卷积核,步长为2,使用leaky_relu函数作为激活函数;解码器由4个反卷积层组成,在每个反卷积层后均跟有批标准化层;反卷积层使用4*4的卷积核,步长为2;最后一个反卷积层使用tanh作为激活函数,其余层均使用leaky_relu函数作为激活函数;
S66.网络输出的响应图记为O,制作的响应图记为Y,掩膜图记为M,网络的损失函数定义为:
8.根据权利要求7所述的一种基于图像输入的机器人主动学习方法,其特征在于,所述的S7步骤具体包括:
S71.寻找响应图上亮度最高的点,该点的位置表示物体可受性区域的位置;将该点的坐标映射到机器人坐标空间中,该位置即为机器人坐标系中物体的可受性区域的位置;
S72.机械臂移动到指定位置,执行指定任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910049649.5A CN109800864B (zh) | 2019-01-18 | 2019-01-18 | 一种基于图像输入的机器人主动学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910049649.5A CN109800864B (zh) | 2019-01-18 | 2019-01-18 | 一种基于图像输入的机器人主动学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109800864A true CN109800864A (zh) | 2019-05-24 |
CN109800864B CN109800864B (zh) | 2023-05-30 |
Family
ID=66559672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910049649.5A Active CN109800864B (zh) | 2019-01-18 | 2019-01-18 | 一种基于图像输入的机器人主动学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109800864B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110450153A (zh) * | 2019-07-08 | 2019-11-15 | 清华大学 | 一种基于深度强化学习的机械臂物品主动拾取方法 |
CN110889460A (zh) * | 2019-12-06 | 2020-03-17 | 中山大学 | 一种基于协同注意力机制的机械臂指定物体抓取方法 |
CN111127548A (zh) * | 2019-12-25 | 2020-05-08 | 深圳市商汤科技有限公司 | 抓取位置检测模型训练方法、抓取位置检测方法及装置 |
CN111178299A (zh) * | 2019-12-31 | 2020-05-19 | 深圳市商汤科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN111311672A (zh) * | 2020-02-12 | 2020-06-19 | 深圳市商汤科技有限公司 | 检测物体重心的方法及装置、电子设备和存储介质 |
CN111428796A (zh) * | 2020-03-27 | 2020-07-17 | 上海媒智科技有限公司 | 一种基于深度学习的通用物品检测方法及系统 |
CN111476087A (zh) * | 2020-03-02 | 2020-07-31 | 深圳市商汤科技有限公司 | 目标检测方法及其相关的模型训练方法、设备、装置 |
CN111709275A (zh) * | 2020-04-28 | 2020-09-25 | 北京工业大学 | 一种用于Affordance推理的深度网络构建方法 |
CN111814823A (zh) * | 2020-05-26 | 2020-10-23 | 北京控制工程研究所 | 一种基于场景模板生成的迁移学习方法 |
CN112183188A (zh) * | 2020-08-18 | 2021-01-05 | 北京航空航天大学 | 一种基于任务嵌入网络的机械臂模仿学习的方法 |
CN112454390A (zh) * | 2020-11-27 | 2021-03-09 | 中国科学技术大学 | 基于深度强化学习的仿人机器人面部表情模仿方法 |
CN113724367A (zh) * | 2021-07-13 | 2021-11-30 | 北京理工大学 | 一种机器人表情驱动方法及装置 |
CN114131603A (zh) * | 2021-12-02 | 2022-03-04 | 复旦大学 | 基于感知增强和场景迁移的深度强化学习机器人抓取方法 |
CN115026813A (zh) * | 2022-05-26 | 2022-09-09 | 中山大学 | 基于类小脑模型的机械臂视觉伺服控制方法及系统 |
CN115533905A (zh) * | 2022-10-09 | 2022-12-30 | 清华大学 | 机器人操作技能的虚实迁移学习方法、装置及存储介质 |
EP4122654A4 (en) * | 2020-03-31 | 2023-11-22 | Siemens Aktiengesellschaft | PREDICTIVE MODEL LEARNING METHOD, APPARATUS AND SYSTEM FOR AN INDUSTRIAL SYSTEM |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070073442A1 (en) * | 2005-09-28 | 2007-03-29 | Canadian Space Agency | Robust impedance-matching of manipulators interacting with unknown environments |
JP2011054088A (ja) * | 2009-09-04 | 2011-03-17 | National Institute Of Information & Communication Technology | 情報処理装置、情報処理方法、プログラム及び対話システム |
US20170091999A1 (en) * | 2015-09-25 | 2017-03-30 | Rafael Blumenfeld | Method and system for determining a configuration of a virtual robot in a virtual environment |
DE202017106132U1 (de) * | 2016-10-10 | 2017-11-13 | Google Llc | Neuronale Netze zum Auswählen von durch einen Roboteragenten auszuführenden Aktionen |
CN107553490A (zh) * | 2017-09-08 | 2018-01-09 | 深圳市唯特视科技有限公司 | 一种基于深度学习的单目视觉避障方法 |
KR101850410B1 (ko) * | 2016-12-26 | 2018-04-20 | 한국생산기술연구원 | 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법 |
CN108052004A (zh) * | 2017-12-06 | 2018-05-18 | 湖北工业大学 | 基于深度增强学习的工业机械臂自动控制方法 |
WO2018211139A1 (en) * | 2017-05-19 | 2018-11-22 | Deepmind Technologies Limited | Training action selection neural networks using a differentiable credit function |
-
2019
- 2019-01-18 CN CN201910049649.5A patent/CN109800864B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070073442A1 (en) * | 2005-09-28 | 2007-03-29 | Canadian Space Agency | Robust impedance-matching of manipulators interacting with unknown environments |
JP2011054088A (ja) * | 2009-09-04 | 2011-03-17 | National Institute Of Information & Communication Technology | 情報処理装置、情報処理方法、プログラム及び対話システム |
US20170091999A1 (en) * | 2015-09-25 | 2017-03-30 | Rafael Blumenfeld | Method and system for determining a configuration of a virtual robot in a virtual environment |
DE202017106132U1 (de) * | 2016-10-10 | 2017-11-13 | Google Llc | Neuronale Netze zum Auswählen von durch einen Roboteragenten auszuführenden Aktionen |
KR101850410B1 (ko) * | 2016-12-26 | 2018-04-20 | 한국생산기술연구원 | 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법 |
WO2018211139A1 (en) * | 2017-05-19 | 2018-11-22 | Deepmind Technologies Limited | Training action selection neural networks using a differentiable credit function |
CN107553490A (zh) * | 2017-09-08 | 2018-01-09 | 深圳市唯特视科技有限公司 | 一种基于深度学习的单目视觉避障方法 |
CN108052004A (zh) * | 2017-12-06 | 2018-05-18 | 湖北工业大学 | 基于深度增强学习的工业机械臂自动控制方法 |
Non-Patent Citations (2)
Title |
---|
ADRIEN BARANES,PIERRE-YVES OUDEYER: "Active learning of inverse models with intrinsically motivated goal exploration in", 《ROBOTICS AND AUTONOMOUS SYSTEMS》 * |
成慧 等: "基于视觉的无人机地面目标自主跟踪系统", 《人工智能》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110450153A (zh) * | 2019-07-08 | 2019-11-15 | 清华大学 | 一种基于深度强化学习的机械臂物品主动拾取方法 |
CN110889460A (zh) * | 2019-12-06 | 2020-03-17 | 中山大学 | 一种基于协同注意力机制的机械臂指定物体抓取方法 |
CN110889460B (zh) * | 2019-12-06 | 2023-05-23 | 中山大学 | 一种基于协同注意力机制的机械臂指定物体抓取方法 |
CN111127548A (zh) * | 2019-12-25 | 2020-05-08 | 深圳市商汤科技有限公司 | 抓取位置检测模型训练方法、抓取位置检测方法及装置 |
CN111127548B (zh) * | 2019-12-25 | 2023-11-24 | 深圳市商汤科技有限公司 | 抓取位置检测模型训练方法、抓取位置检测方法及装置 |
CN111178299A (zh) * | 2019-12-31 | 2020-05-19 | 深圳市商汤科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN111311672A (zh) * | 2020-02-12 | 2020-06-19 | 深圳市商汤科技有限公司 | 检测物体重心的方法及装置、电子设备和存储介质 |
CN111476087A (zh) * | 2020-03-02 | 2020-07-31 | 深圳市商汤科技有限公司 | 目标检测方法及其相关的模型训练方法、设备、装置 |
CN111428796B (zh) * | 2020-03-27 | 2024-04-02 | 上海媒智科技有限公司 | 一种基于深度学习的通用物品检测方法及系统 |
CN111428796A (zh) * | 2020-03-27 | 2020-07-17 | 上海媒智科技有限公司 | 一种基于深度学习的通用物品检测方法及系统 |
EP4122654A4 (en) * | 2020-03-31 | 2023-11-22 | Siemens Aktiengesellschaft | PREDICTIVE MODEL LEARNING METHOD, APPARATUS AND SYSTEM FOR AN INDUSTRIAL SYSTEM |
CN111709275A (zh) * | 2020-04-28 | 2020-09-25 | 北京工业大学 | 一种用于Affordance推理的深度网络构建方法 |
CN111709275B (zh) * | 2020-04-28 | 2024-02-06 | 北京工业大学 | 一种用于Affordance推理的深度网络构建方法 |
CN111814823A (zh) * | 2020-05-26 | 2020-10-23 | 北京控制工程研究所 | 一种基于场景模板生成的迁移学习方法 |
CN111814823B (zh) * | 2020-05-26 | 2023-08-15 | 北京控制工程研究所 | 一种基于场景模板生成的迁移学习方法 |
CN112183188A (zh) * | 2020-08-18 | 2021-01-05 | 北京航空航天大学 | 一种基于任务嵌入网络的机械臂模仿学习的方法 |
CN112183188B (zh) * | 2020-08-18 | 2022-10-04 | 北京航空航天大学 | 一种基于任务嵌入网络的机械臂模仿学习的方法 |
CN112454390A (zh) * | 2020-11-27 | 2021-03-09 | 中国科学技术大学 | 基于深度强化学习的仿人机器人面部表情模仿方法 |
CN113724367A (zh) * | 2021-07-13 | 2021-11-30 | 北京理工大学 | 一种机器人表情驱动方法及装置 |
CN114131603A (zh) * | 2021-12-02 | 2022-03-04 | 复旦大学 | 基于感知增强和场景迁移的深度强化学习机器人抓取方法 |
CN114131603B (zh) * | 2021-12-02 | 2023-09-12 | 复旦大学 | 基于感知增强和场景迁移的深度强化学习机器人抓取方法 |
CN115026813A (zh) * | 2022-05-26 | 2022-09-09 | 中山大学 | 基于类小脑模型的机械臂视觉伺服控制方法及系统 |
CN115533905A (zh) * | 2022-10-09 | 2022-12-30 | 清华大学 | 机器人操作技能的虚实迁移学习方法、装置及存储介质 |
CN115533905B (zh) * | 2022-10-09 | 2024-06-04 | 清华大学 | 机器人操作技能的虚实迁移学习方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109800864B (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109800864A (zh) | 一种基于图像输入的机器人主动学习方法 | |
CN106951870B (zh) | 主动视觉注意的监控视频显著事件智能检测预警方法 | |
CN104281853B (zh) | 一种基于3d卷积神经网络的行为识别方法 | |
CN108510194A (zh) | 风控模型训练方法、风险识别方法、装置、设备及介质 | |
CN107169435A (zh) | 一种基于雷达仿真图像的卷积神经网络人体动作分类方法 | |
CN108921879A (zh) | 基于区域选择的CNN和Kalman滤波的运动目标跟踪方法及系统 | |
CN104103033B (zh) | 图像实时处理方法 | |
CN106326874A (zh) | 一种人眼图像中的虹膜识别方法及其装置 | |
CN104992452B (zh) | 基于热成像视频的飞行目标自动跟踪方法 | |
Yu et al. | An object-based visual attention model for robotic applications | |
Protas et al. | Visualization methods for image transformation convolutional neural networks | |
CN108764447A (zh) | 一种群机器人麻将博弈智动化系统及麻将识别学习算法 | |
Smith et al. | Weed classification in grasslands using convolutional neural networks | |
CN110276784A (zh) | 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法 | |
CN107247952A (zh) | 基于深层监督的循环卷积神经网络的视觉显著性检测方法 | |
CN110472577A (zh) | 一种基于自适应相关滤波的长时视频跟踪方法 | |
Dawod et al. | ResNet interpretation methods applied to the classification of foliar diseases in sunflower | |
CN105716609B (zh) | 一种机器人室内视觉定位方法 | |
CN108257179A (zh) | 一种图像处理方法 | |
Rizvi et al. | Revolutionizing agriculture: Machine and deep learning solutions for enhanced crop quality and weed control | |
CN113554653A (zh) | 基于互信息校准点云数据长尾分布的语义分割方法 | |
CN105898288B (zh) | 共享注意的协同视觉搜索系统及方法 | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN108805004A (zh) | 功能区域检测方法和装置、电子设备、存储介质、程序 | |
Sattar et al. | Body shape privacy in images: understanding privacy and preventing automatic shape extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |