CN111300431B - 面向跨场景的机器人视觉模仿学习方法及系统 - Google Patents
面向跨场景的机器人视觉模仿学习方法及系统 Download PDFInfo
- Publication number
- CN111300431B CN111300431B CN202010241696.2A CN202010241696A CN111300431B CN 111300431 B CN111300431 B CN 111300431B CN 202010241696 A CN202010241696 A CN 202010241696A CN 111300431 B CN111300431 B CN 111300431B
- Authority
- CN
- China
- Prior art keywords
- context
- observation image
- depth
- image
- dynamic model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000006243 chemical reaction Methods 0.000 claims abstract description 42
- 230000009471 action Effects 0.000 claims abstract description 33
- 230000000007 visual effect Effects 0.000 claims abstract description 24
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 17
- 238000013461 design Methods 0.000 claims description 10
- 238000012546 transfer Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000014509 gene expression Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 241000287196 Asthenes Species 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims 1
- 238000013507 mapping Methods 0.000 abstract description 4
- 238000002474 experimental method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000010367 cloning Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003053 immunization Effects 0.000 description 1
- 238000002649 immunization Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本公开公开了面向跨场景的机器人视觉模仿学习方法及系统,将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;基于初始深度观察图像来预测目标深度观察图像;针对获取到多模态的初始观察和目标观察,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习。本公开语境转换模块负责将来自不同语境的视觉演示转换到机器人所在语境。本公开多模态逆动态模型负责将多模输入映射为动作来复现演示中动作,以颜色和深度观察信息作为输入,并将其映射为动作,从而实现根据演示进行模仿。
Description
技术领域
本公开属于领机器人学习技术领域,尤其涉及面向跨场景的机器人视觉模仿学习方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
机器人模仿学习旨在通过观看演示视频来学习复杂多样的任务。这种学习方式可以避免复杂的手动编程。未来,具备这种能力的机器人有望应用到我们的日常生活中,比如家庭服务或者照顾老人。
早期的模仿学习方法主要有两大类:行为克隆和逆强化学习。行为克隆是通过有监督学习的方式从“观察-动作”对数据中来学习技能。逆强化学习是通过学习出一个奖励函数来优化模仿学习的策略。值得一提的是,这两类方法都很难直接通过纯视觉的演示来完成模仿任务,因为这些方法都没有专门去研究视觉演示的有效特征表达。
为了解决上述问题,发明人在研究中发现,现有的文献提出了一种目标导向的逆动态模型来从视觉演示中模仿人类动作。但是,他们的方法都设定演示者(比如人类)和学习者(比如机器人)存在相同语境中,也就是具有相同的视角、背景、物体位置和样式。这样的设定严重制约了模仿学习在实际应用中的扩展性。
近几年,一些研究者开始关注跨语境模仿学习的研究。例如,现有文献存在尝试探究了如何提取具有“视角不变性”的特征并将其用于直接从视觉演示中来学习动作。也存在相关文献在已有工作的基础上又往前推进了一步,他们尝试直接通过一个语境转换模块把其他语境的演示转换到机器人的语境。但是他们的方法只考虑了由于视角变化而引起的语境差异,在实际应用中仍然缺乏灵活性。
发明内容
为克服上述现有技术的不足,本公开提供了面向跨场景的机器人视觉模仿学习方法,使机器人和演示者能够在不同的语境中进行学习。
一方面,为实现上述目的,本公开的一个或多个实施例提供了如下技术方案:
面向跨场景的机器人视觉模仿学习方法,包括:
将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;
基于原始语境的观察图像及初始深度观察图像来预测结束深度观察图像;
针对获取到的初始观察图像、初始深度观察图像、结束观察图像、结束深度观察图像,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习。
第二方面,为实现上述目的,本公开的一个或多个实施例提供了如下技术方案:
面向跨场景的机器人视觉模仿学习系统,包括:
语境转换模块,将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;
深度预测模块,基于原始语境的观察图像及初始深度观察图像来预测结束深度观察图像;
多模态逆动态模型,针对获取到的初始观察图像、初始深度观察图像、结束观察图像、结束深度观察图像,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习。
第三方面,为实现上述目的,本公开的一个或多个实施例提供了如下技术方案:
提供一种服务机器人,包括机械臂及计算设备,计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤,包括:
将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;
基于原始语境的观察图像及初始深度观察图像来预测结束深度观察图像;
针对获取到的初始观察图像、初始深度观察图像、结束观察图像、结束深度观察图像,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习,并将最终执行命令传送给机械臂,即可执行操作。
第三方面,为实现上述目的,本公开的一个或多个实施例提供了如下技术方案:
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时执行以下步骤:
将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;
基于原始语境的观察图像及初始深度观察图像来预测结束深度观察图像;
针对获取到的初始观察图像、初始深度观察图像、结束观察图像、结束深度观察图像,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习。
以上一个或多个技术方案存在以下有益效果:
本公开语境转换模块负责将来自不同语境的视觉演示转换到机器人所在语境。本公开多模态逆动态模型负责将多模输入映射为动作来复现演示中动作,以颜色和深度观察信息作为输入,并将其映射为动作,从而实现根据演示进行模仿。由于在实际应用中完整的深度观察信息是无法获取到的,本公开设计了一个深度预测模块来生成预测的深度信息。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1为本公开实施例完整系统架构图;
图2为本公开实施例语境转换模块结构图;
图3为本公开实施例深度预测模块结构图;
图4为本公开实施例多模态逆动态模型结构图;
图5为本公开实施例语境转换结果对比图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
由于演示者和学习者之间的视角、背景、物体位置和样式差异明显,导致跨语境视觉模仿学习非常具有挑战性。
本实施例公开了面向跨场景的机器人视觉模仿学习方法,为更通用的模仿学习方法,这其中的语境差异不仅包含视角变化,还包括背景、物体位置、角度和样式等,本公开实施例子的技术方案的目的是使学习者和演示者能够在不同的语境中进行学习。
具体包括以下步骤:
语境转换:将来自不同语境的视觉演示转换到机器人所在语境;
以颜色和深度观察信息作为输入,并将其映射为动作,从而实现根据演示进行模仿。
由于在实际应用中完整的深度观察信息是无法获取到的,因此,增加深度预测步骤:用来生成预测的深度信息。
具体步骤中,语境转换:将视觉演示从演示者的语境wd转换到学习者的语境wl,换句话说,给定一个原始演示Ds,通过语境转换将其转换为目标演示Dt。
在大部分的机器人模仿学习相关工作中,一段演示通常都是由一系列的观察图像组成,可定义为D={o1,o2,...,on}。在本实施例子的工作中,只使用初始观察图像和结束观察图像来描述一段演示,使用这种方式主要是基于以下三点考虑:第一,现有文献证明了仅使用初始图像和最终图像是可以充分地捕捉演示视频中的内容变化,并用来描述摞积木的任务;第二,逆动态模型的输入包括初始观察图像和结束观察图像;第三,现有文献限定人类和机器人使用相同工具来完成操作任务,以此来避免演示中出现人类手臂和机器手臂之间存在的差异。而本申请的方法由于只使用起始和结束两帧图像,因此很自然地解决了这个问题。
参见图2所示,展示了语境转换模块的详细结构图。语境转换模块以原始语境的初始观察图像和结束观察图像,和目标语境的初始观察图像作为输入,输出预测的目标语境的结束观察图像。给定来自原始语境的观察图像,使用两个分支的第一编码器Encoder1来提取特征,分别表示为和。第二编码器Encoder2负责对目标语境中的初始观察图像提取特征,表示为然后将和合并,并作为转换函数的输入。最后,使用一个解码器decoder将特征z解码为预测的目标观察图像第一编码器Encoder1和第二编码器Encoder2使用ResNet50网络的前3层模块来进行构建,但是第一编码器Encoder1和第二编码器Encoder2拥有不同的权重参数。整个模块使用成对的演示数据{Ds,Dt}来进行监督学习训练,其中Ds来源于随机设置的语境(原始语境),Dt来源于机器人所在的语境(目标语境)。训练过程是通过像素级别的图像损失函数Limage来进行监督训练的,定义如下:
本申请实施例子为保证网络设计的合理有效性,主要从两个方面进行提升改进:第一,正如前面提到的,现有文献证明了仅使用初始图像和最终图像是可以充分地捕捉演示视频中的内容变化,并用来描述任务。正是从这个角度出发,本公开实施例子设计了两个分支的第一编码器Encoder1而不是一个分支;第二,本公开实施例子设计的特征表达能够消除不同语境导致的视角、背景、物体样式等差异影响。基于这样的启发,本公开实施例子所设计的特征表达应当是“语境无关”的。为了保证这一点,本公开实施例子引入了语境损失函数Lcontext,下述公式和图2详细描述了语境损失函数。
虽然基于理论设计了上述损失函数,但在实际训练过程发现语境损失函数有时会出现糟糕的问题。具体来说,在网络训练时,优化器会尝试最小化和之间的差异。然而,在一些失败的案例中发现第一编码器Encoder1提取出的特征φ1会逼近零矩阵。在这样的情况下,φ1将会丢失大部分的图像信息。这种情况是不想看到的,理想情况下,φ1包含的图像越多越好。在信息论中,图像熵是一个非常重要的概念,它衡量了一幅图像中所包含的信息量。为了避免φ1丢失过多的图像信息,引入了图像熵损失函数,定义如下:
最终,使用一个加权融合后的损失函数来进行训练,如下式,其中pi是像素值,λ1,λ2和α是超参数,根据经验值都设为0.5。
L=Limage+λ1Lcontext+λ2Lentropy
从演示中学习技能:视觉演示的作用只是告诉机器人“做什么”,至于“怎么做”,可以使用逆动态模型来预测动作。逆动态模型的预测能力已经在现有文献的工作中得到了验证。但是,本实施例子希望能够解决一些更复杂的任务,比如摞积木。较比于现有文献中实施的摆绳子任务,本公开技术方案的摞积木任务要更为复杂,实施难度更大。因为对于摆绳子任务来说,只要机器人能够把绳子大致摆放到与目标形状差不多,即可视为任务成功。但是对于摞积木任务来说,一点点细小的位置偏差都可能导致积木无法成功摆放。为了实现这个目标,本实施例子提出了一种多模态逆动态模型,融合颜色和深度信息作为输入。但在实际应用中无法获取到完整的深度信息,所以本实施例子设计了一个深度预测模块来提供深度信息。模块的详细设计如下所述。
传统现有方法无法在跨语境视觉模仿学习中取得良好效果,因此本实施例子提出了一个多模态逆动态模型,通过融合颜色和深度信息作为输入,有效提高了逆动态模型性能。但是在实际应用中完整的深度信息是无法获取的,所以本实施例子设计了一个深度预测模块来预测深度信息。
如图3所示,本实施例子采用“编码器-解码器”框架,基于初始深度观察图像来预测目标深度观察图像。编码器是基于Alexnet网络来构建的。三个分支分别输入初始颜色图像、目标颜色图像和初始深度图像,然后分别生成特征向量x1,x2,x3,三个分支的CNN网络共享权重。x1,x2,x3合并之后输入到3层全连接网络中,然后经过一个解码器进行解码,最终得到预测的目标深度图像。由于三个分支共享权重,所以它们的输入维度必须一致。因此,将单通道的深度图像扩展为三通道。训练过程是通过预测深度图像和真实深度图像之间的损失函数来进行监督的。
利用语境转换模块和深度预测模块,便可以获取到多模态的初始观察和目标观察。利用这些数据,就可以学习出一个逆动态模型来输出预测动作,完成模仿学习。使用深度神经网络来构建逆动态模型,其数学表达形式如下:
u=F({iinit,dinit},{igoal,dgoal})
其中,{iinit,dinit}是初始状态的颜色和深度观察图像,{igoal,dgoal}是目标状态的颜色和深度观察图像,u是预测的动作。图4展示了多模态逆动态模型的结构。
本实施例子的逆动态模型由四个分支的卷积神经网络(CNN)组成,它们共享权重。每个分支中,先构建了5层卷积层,提取出特征h。然后四个分支的隐层特征h进行合并,合并后的特征分别输入到四个分支的全连接网络中,进行动作预测。整个网络采用多模态的初始观察和目标观察作为输入,然后输出预测动作元组。在本实施例子的任务设定中,预测的动作包含两个基本动作:在(x1,y1,θ1)处抓取积木、在(x2,y2,θ2)处放置积木。其中,(x1,y1,x2,y2)是机械臂坐标系空间下的坐标,(θ1,θ2)是机械臂夹具的旋转角度。最终完整的预测动作可以表示为一个动作元组(x1,y1,θ1,x2,y2,θ2)。
为了降低网络训练的难度,现有技术都把动作预测转换为分类问题。现有技术将动作空间离散化为20×20的空间网格,将角度均分为36份。正如前文提到,本实施例子的摞积木任务对于位置比较敏感,一点微小的位置偏差都可能导致失败,所以本实施例子不能类似地采用这种离散化动作空间的方式。取而代之,本实施例子通过回归的方式来输出坐标位置。多模态的输入能够保证本实施例子采用回归方式的精度和准确性。对于旋转角度的预测,本实施例子也采取类似的方式,将其离散化为36份。通过机器人随机探索采样收集数据,本实施例子的逆动态模型是使用自监督的方式来进行训练。本实施例子使用预测动作和真实动作之间的损失函数来监督训练过程,这样可以避免繁杂的人工标注过程。
本实施例子的目的是能够使机器人从不同语境的演示视频中学习动作。为了实现该目标,本实施例子首先使用语境转换模块将不同语境的演示视频转换到机器人所在语境。然后本实施例子使用逆动态模型将多模态观察图像映射为动作来复现演示视频。其中深度观察图像是由本实施例子设计深度预测模块来提供的。为了验证本实施例子的系统在跨语境模仿学习中的优势,在仿真环境(V-REP)和真实UR5机械臂上进行摞积木任务。最终结果表明,本实施例子的方法取得了明显优于其他传统方法的性能。
参见附图1所示,基于与上述实施例子的同样的发明构思,另一实施例子提供了面向跨场景的机器人视觉模仿学习系统,包括:
语境转换模块,将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;
深度预测模块,输入为初始观察图像、初始深度观察图像、结束观察图像这三个,输出预测的结束深度观察图像;
多模态逆动态模型,针对获取到多模态的初始观察和目标观察,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习。
基于与上述实施例子的同样的发明构思,另一实施例子提供了一种服务机器人,包括机械臂及计算设备,计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤,包括:
将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;
基于原始语境的观察图像及初始深度观察图像来预测结束深度观察图像;
针对获取到的初始观察图像、初始深度观察图像、结束观察图像、结束深度观察图像,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习,并将最终执行命令传送给机械臂,即可执行操作。
在该实施例子中,机器人本体为一台UR5机械臂,其本身内置一个主机系统,可以在不外接任何电脑的情况下执行动作。但其处理能力有限,尤其是运行深度学习模型。因此将机械臂外接了一台具备深度学习处理能力的服务器(2块1080Ti GPU)即计算设备,用于运行构建的模型,得到最终执行命令后将其传送给机械臂,即可执行操作。
基于同样的发明构思,本实施例子提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时执行以下步骤:
将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;
基于初始深度观察图像来预测目标深度观察图像;
针对获取到多模态的初始观察和目标观察,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习。
以上实施例的装置中涉及的各步骤与方法实施例一相对应,具体实施方式可参见实施例一的相关说明部分。术语“计算机可读存储介质”应该理解为包括一个或多个指令集的单个介质或多个介质;还应当被理解为包括任何介质,所述任何介质能够存储、编码或承载用于由处理器执行的指令集并使处理器执行本公开中的任一方法。
为了评估提出的方法,做了一系列的实验。转换结果的优劣对于整个系统来说是非常关键的,因此先进行了对比实验,比较了本实施例子的转换模块和[11]中的转换模块。然后,通过执行跨语境环境下的摞积木任务,在仿真环境V-REP中将本实施例子的多模态逆动态模型与[7]和[8]进行了对比。最后,在真实UR5机械臂上对本实施例子的方法进行了验证。
数据收集:有监督学习面临的一个主要挑战就是如何收集足够的数据用于训练,尤其是在机器人相关应用中。为了解决这个问题,采用了一种迁移策略:首先在仿真环境收集大量的数据对模块进行预训练,然后在真实环境收集少量的数据对模块进行微调即可。得益于本实施例子仿真环境和真实环境的高度对应性,上述迁移策略在实际应用中表现良好。本实施例子的仿真环境使用V-REP仿真软件,搭建了UR5机械臂仿真模块。在真实环境中,本实施例子使用的是真实UR5机械臂,并在顶部安装了Kinect深度相机。
跨语境演示视频:为了训练本实施例子的语境转换模块,本实施例子分别从原始语境和目标语境收集了成对的演示视频Ds和Dt。两种不同语境之间可能存在视角、背景、物体位置和样式等差异。在本实施例子的方法设定中,本实施例子使用起始图像和结束图像来描述一段演示视频D={os,oe},每一对演示都是描述了相同的任务。最终,本实施例子分别在仿真环境和真实环境收集了15200和2860对演示数据。所有的观察图像尺寸都调整到256×256,本实施例子使用整个数据库的70%数据来训练,剩余30%来测试。
多模“观察-动作”对:为了采集数据来训练本实施例子的深度预测模块和多模态逆动态模型,本仿真实施例子通过随机探索策略来让仿真和真实环境中的UR5机械臂进行数据采集。在每次采样中,记录下初始状态和目标状态的多模观察图像(颜色和深度)和与之对应的动作数据。数据采集是在机器人所在语境中进行的,但是背景、物体位置和数目都是随机变化的。采集到的图像尺寸都统一调整为300×300,最终,分别在仿真环境和真实环境收集了15200和2860对演示数据。
文献[11]Y.Liu,A.Gupta,P.Abbeel,and S.Levine,“Imitation fromobservation:Learning to imitate behaviors from raw video via contexttranslation,”in 2018IEEE International Conference on Robotics and Automation(ICRA),pp.1118–1125,IEEE,2018。
语境转换模块评估:为了评估本实施例子的语境转换模块的性能,本实施例子与竞争者[11]在本实施例子采集的数据库上进行了对比实验。目前评估合成图像的质量仍是一个开放性问题,尤其是针对机器人应用。参照现有的评价方法,使用一种特征级别的L2距离来衡量本实施例子转换后的观察图像的质量,其数学定义如下:
其中,和o分别表示预测观察图像和真实观察图像,CNN是基于卷积神经网络的特征提取器。在实验中,选取了4种基于ImageNet预训练好的主流特征提取器:VGG19,Inception v3,ResNet50和Xception。训练是在一块NVIDIA1080Ti GPU上进行,优化器使用Adam,仿真环境和真实环境的学习速率分别设为0.0005和0.001,batch_size设置为16。为了避免过拟合,使用概率0.5的dropout。最终实验结果通过L2距离来衡量,距离越小说明性能越好。最终实验结果如表1所示。
表1语境转换模块对比实验结果
从表1中可以看出,无论是在仿真环境还是真实环境,本实施例的语境转换模块性能表现都明显优于现有文献。图5详细展示了本公开技术方案转换结果的质量,第一行为真实数据,第二、三行分别是文献[11]的方法和本公开技术方案方法的转换结果。可以看出使用本实施例子方法得到的结果明显优于文献[11],更接近真实数据。
逆动态模型评估实验:将本公开实施例子的逆动态模型与[7]和[8]进行了对比,实验任务为跨语境的摞积木任务。实验是在仿真环境进行的,对随机生成的4560个任务进行测试,如果在一个任务中,机械臂能够根据演示正确模仿相应的动作,则视为该任务成功,否则视为失败。最终统计成功率来评价模块的性能。如表2所示,本公开实施例子的多模态逆动态模型取得了更高的准确率,比[7]高约36%,比[8]高约23%。
[7]A.Nair,D.Chen,P.Agrawal,P.Isola,P.Abbeel,J.Malik,and S.Levine,“Combining self-supervised learning and imitation for vision-based ropemanipulation,”in 2017IEEE International Conference on Robotics and Automation(ICRA),pp.2146–2153,IEEE,2017.
[8]D.Pathak,P.Mahmoudieh,G.Luo,P.Agrawal,D.Chen,Y.Shentu,E.Shelhamer,J.Malik,A.A.Efros,and T.Darrell,“Zero-shot visual imitation,”in Proceedingsof the IEEE Conference on Computer Vision and Pattern Recognition Workshops,pp.2050–2053,2018.
表2逆动态模型对比实验结果
真实环境评估实验:为了评估本申请实施例子的机器人系统在真实环境中的性能表现,提供人类演示视频给机械臂,然后由机械臂完成摞积木的模仿任务。演示视频是从随机设定的语境中生成,其视角、背景、物体位置和样式是随机的。机械臂在其自身的语境中执行,包含有不同的背景、物体位置和数量。本申请实施例子执行了120个随机生成的任务,并统计成功率。最终,本申请实施例子的机器人系统取得了17.5%(21/120)成功率。值得说明的是,本申请实施例子也尝试使用[7]和[8]的方法在真实环境中进行实验,但是它们基本不能正确工作。认为造成这样结果的原因是,摞积木属于精细化的操作任务,本申请实施例子的逆动态模型使用多模态输入,能够提供更多的信息来预测准确的动作。
本领域技术人员应该明白,上述本公开的各模块或各步骤可以用通用的计算机装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。本公开不限制于任何特定的硬件和软件的结合。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。
Claims (10)
1.面向跨场景的机器人视觉模仿学习方法,其特征是,包括:
将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;
具体包括:给定来自原始语境的观察图像,使用两个分支的第一编码器Encoder1来提取特征,分别表示为和第二编码器Encoder2负责对目标语境中的初始观察图像提取特征,表示为,然后将和合并,并作为转换函数的输入,通过像素级别的语境损失函数Lcontext来进行监督训练;
基于原始语境的观察图像及初始深度观察图像来预测结束深度观察图像;
针对获取到的初始观察图像、初始深度观察图像、结束观察图像、结束深度观察图像,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习;具体包括:多模态逆动态模型,通过融合颜色和深度信息作为输入,有效的提高了逆动态模型性能,并设计了一个深度预测模型来预测深度信息。
2.如权利要求1所述的面向跨场景的机器人视觉模仿学习方法,其特征是,演示者的视觉演示使用初始观察图像和最终观察图像来描述。
3.如权利要求1所述的面向跨场景的机器人视觉模仿学习方法,其特征是,所述语境转换步骤:
给定来自原始语境的观察图像,使用两个分支的第一编码器来提取特征;
第二编码器负责对目标语境中的初始观察图像提取特征;
将第二编码器提取的特征和第一编码器提取的特征合并,并作为转换函数的输入;
使用解码器将转换函数的输出特征解码为预测的目标观察图像。
4.如权利要求3所述的面向跨场景的机器人视觉模仿学习方法,其特征是,第一编码器和第二编码器使用ResNet50网络的前3层模块来进行构建,第一编码器和第二编码器拥有不同的权重参数;
使用成对的演示数据{Ds,Dt}对第一编码器和第二编码器进行监督学习训练,其中Ds来源于随机设置的语境即原始语境,Dt来源于机器人所在的语境即目标语境。
5.如权利要求4所述的面向跨场景的机器人视觉模仿学习方法,其特征是,训练过程是通过包含像素级别的图像损失函数、语境损失函数及图像熵损失函数的加权融合后的损失函数来进行训练。
6.如权利要求1所述的面向跨场景的机器人视觉模仿学习方法,其特征是,基于初始深度观察图像来预测目标深度观察图像的步骤为:
基于Alexnet网络构建编码器,编码器三个分支分别输入初始颜色图像、目标颜色图像和初始深度图像,然后分别生成特征向量,三个分支的CNN网络共享权重,特征向量合并之后输入到3层全连接网络中,然后经过解码器进行解码,最终得到预测的目标深度图像。
7.如权利要求1所述的面向跨场景的机器人视觉模仿学习方法,其特征是,使用深度神经网络来构建逆动态模型,其数学表达形式如下:
u=F({iinit,dinit},{igoal,dgoal})
其中,{iinit,dinit}是初始状态的颜色和深度观察图像,{igoal,dgoal}是目标状态的颜色和深度观察图像,u是预测的动作。
8.面向跨场景的机器人视觉模仿学习系统,其特征是,包括:
语境转换模块,将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;具体包括:给定来自原始语境的观察图像,使用两个分支的第一编码器Encoder1来提取特征,分别表示为和,第二编码器Encoder2负责对目标语境中的初始观察图像提取特征,表示为,然后将和合并,并作为转换函数的输入,通过像素级别的语境损失函数Lcontext来进行监督训练;
深度预测模块,基于原始语境的观察图像及初始深度观察图像来预测结束深度观察图像;
多模态逆动态模型,针对获取到的初始观察图像、初始深度观察图像、结束观察图像、结束深度观察图像,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习;具体包括:通过融合颜色和深度信息作为输入,有效的提高了逆动态模型性能,并设计了一个深度预测模型来预测深度信息。
9.一种服务机器人,包括机械臂及计算设备,计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征是,所述处理器执行所述程序时实现以下步骤,包括:
将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;具体包括:给定来自原始语境的观察图像,使用两个分支的第一编码器Encoder1来提取特征,分别表示为和 ,第二编码器Encoder2负责对目标语境中的初始观察图像提取特征,表示为 ,然后将和合并,并作为转换函数的输入,通过像素级别的语境损失函数Lcontext来进行监督训练;
基于原始语境的观察图像及初始深度观察图像来预测结束深度观察图像;
针对获取到的初始观察图像、初始深度观察图像、结束观察图像、结束深度观察图像,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习,并将最终执行命令传送给机械臂,即可执行操作;
具体包括:多模态逆动态模型,通过融合颜色和深度信息作为输入,有效的提高了逆动态模型性能,并设计了一个深度预测模型来预测深度信息。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征是,该程序被处理器执行时执行以下步骤:
将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;具体包括:
给定来自原始语境的观察图像,使用两个分支的第一编码器Encoder1来提取特征,分别表示为和 ,第二编码器Encoder2负责对目标语境中的初始观察图像提取特征,表示为 ,然后将和合并,并作为转换函数的输入,通过像素级别的语境损失函数Lcontext来进行监督训练;
基于初始深度观察图像来预测目标深度观察图像;
针对获取到多模态的初始观察和目标观察,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习;
具体包括:多模态逆动态模型,通过融合颜色和深度信息作为输入,有效的提高了逆动态模型性能,并设计了一个深度预测模型来预测深度信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010241696.2A CN111300431B (zh) | 2020-03-31 | 2020-03-31 | 面向跨场景的机器人视觉模仿学习方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010241696.2A CN111300431B (zh) | 2020-03-31 | 2020-03-31 | 面向跨场景的机器人视觉模仿学习方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111300431A CN111300431A (zh) | 2020-06-19 |
CN111300431B true CN111300431B (zh) | 2021-04-23 |
Family
ID=71159050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010241696.2A Active CN111300431B (zh) | 2020-03-31 | 2020-03-31 | 面向跨场景的机器人视觉模仿学习方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111300431B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3587046A1 (de) * | 2018-06-28 | 2020-01-01 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zum rechnergestützten ermitteln von regelparametern für eine günstige handlung eines technischen systems |
CN112975968B (zh) * | 2021-02-26 | 2022-06-28 | 同济大学 | 基于第三视角可变主体演示视频的机械臂模仿学习方法 |
US11772272B2 (en) * | 2021-03-16 | 2023-10-03 | Google Llc | System(s) and method(s) of using imitation learning in training and refining robotic control policies |
CN117464683B (zh) * | 2023-11-23 | 2024-05-14 | 中机生产力促进中心有限公司 | 控制机械臂模仿视频动作的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1586830A (zh) * | 2004-07-22 | 2005-03-02 | 张金铭 | 人造肌肉和仿真机器人 |
JP2017514709A (ja) * | 2014-04-17 | 2017-06-08 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 自律的生活能力を備えた人型ロボット |
CN106926242A (zh) * | 2017-04-28 | 2017-07-07 | 深圳市唯特视科技有限公司 | 一种基于视觉上自监督学习与模仿的绳索操纵方法 |
CN108986158A (zh) * | 2018-08-16 | 2018-12-11 | 新智数字科技有限公司 | 一种基于目标再识别的跨场景追踪方法和装置及计算机视觉平台 |
CN109682392A (zh) * | 2018-12-28 | 2019-04-26 | 山东大学 | 基于深度强化学习的视觉导航方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2728861T3 (es) * | 2013-03-15 | 2019-10-29 | Univ Carnegie Mellon | Sistema robótico autónomo supervisado para inspección y procesamiento de superficie compleja |
-
2020
- 2020-03-31 CN CN202010241696.2A patent/CN111300431B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1586830A (zh) * | 2004-07-22 | 2005-03-02 | 张金铭 | 人造肌肉和仿真机器人 |
JP2017514709A (ja) * | 2014-04-17 | 2017-06-08 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 自律的生活能力を備えた人型ロボット |
CN106926242A (zh) * | 2017-04-28 | 2017-07-07 | 深圳市唯特视科技有限公司 | 一种基于视觉上自监督学习与模仿的绳索操纵方法 |
CN108986158A (zh) * | 2018-08-16 | 2018-12-11 | 新智数字科技有限公司 | 一种基于目标再识别的跨场景追踪方法和装置及计算机视觉平台 |
CN109682392A (zh) * | 2018-12-28 | 2019-04-26 | 山东大学 | 基于深度强化学习的视觉导航方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111300431A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111300431B (zh) | 面向跨场景的机器人视觉模仿学习方法及系统 | |
Sharma et al. | Third-person visual imitation learning via decoupled hierarchical controller | |
Sharma et al. | Multiple interactions made easy (mime): Large scale demonstrations data for imitation | |
US20210390653A1 (en) | Learning robotic tasks using one or more neural networks | |
Ye et al. | Interpretable intuitive physics model | |
JP2021144679A (ja) | 視覚ベースの関節動作と姿勢運動の予想のためのシステム、コンピュータ実施方法、及びプログラム | |
US20230182296A1 (en) | Training and/or utilizing machine learning model(s) for use in natural language based robotic control | |
CN112605973A (zh) | 一种机器人运动技能学习方法及系统 | |
Bütepage et al. | Imitating by generating: Deep generative models for imitation of interactive tasks | |
JP2022553252A (ja) | 画像処理方法、画像処理装置、サーバ、及びコンピュータプログラム | |
Antonova et al. | A bayesian treatment of real-to-sim for deformable object manipulation | |
CN112199994B (zh) | 一种实时检测rgb视频中的3d手与未知物体交互的方法和装置 | |
Mayer et al. | FFHNet: Generating multi-fingered robotic grasps for unknown objects in real-time | |
CN117218300B (zh) | 三维模型的构建方法、三维构建模型的训练方法及装置 | |
TW202209257A (zh) | 具有自我學習能力的智慧型驅動裝置 | |
CN110598595B (zh) | 一种基于人脸关键点和姿态的多属性人脸生成算法 | |
CN115346262A (zh) | 一种表情驱动参数的确定方法、装置、设备及存储介质 | |
Chopin et al. | Human motion prediction using manifold-aware wasserstein gan | |
Ramachandruni et al. | Attentive task-net: Self supervised task-attention network for imitation learning using video demonstration | |
CN114782992A (zh) | 一种超关节与多模态网络及其在行为识别方法 | |
CN113326932B (zh) | 基于物体检测的物体操作指令跟随学习方法及装置 | |
Zacharatos et al. | Emotion recognition from 3D motion capture data using deep CNNs | |
Yuan et al. | Spatial transformer network with transfer learning for small-scale fine-grained skeleton-based tai chi action recognition | |
CN117392663A (zh) | 基于虚实协同学习策略的机器人数字孪生抓取方法及装置 | |
Yang et al. | Cross-context visual imitation learning from demonstrations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |