CN106600000A - 人‑机器人运动数据映射的方法及系统 - Google Patents

人‑机器人运动数据映射的方法及系统 Download PDF

Info

Publication number
CN106600000A
CN106600000A CN 201611102793 CN201611102793A CN106600000A CN 106600000 A CN106600000 A CN 106600000A CN 201611102793 CN201611102793 CN 201611102793 CN 201611102793 A CN201611102793 A CN 201611102793A CN 106600000 A CN106600000 A CN 106600000A
Authority
CN
Grant status
Application
Patent type
Prior art keywords
data
robot
motion
training
human
Prior art date
Application number
CN 201611102793
Other languages
English (en)
Inventor
陈益强
王晋东
张宇欣
胡春雨
忽丽莎
沈建飞
Original Assignee
中国科学院计算技术研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Classifications

    • G06N20/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computer systems based on biological models
    • G06N3/02Computer systems based on biological models using neural network models
    • G06N3/08Learning methods

Abstract

本发明提供了一种人‑机器人运动数据映射的方法。该方法包括:获取训练数据,所述训练数据包括人体运动数据和相应运动的机器人样本数据;以所述人体运动数据作为输入,以所述机器人样本数据作为期望的输出,通过训练深度学习网络获得深度学习模型,以得到人‑机器人运动数据之间的映射关系。本发明基于深度学习的方法实现人‑机器人运动数据的映射,避免了大量反复的运动学求解,可以更灵活精确地驱动机器人进行运动。

Description

人-机器人运动数据映射的方法及系统

技术领域

[0001] 本发明涉及机器人学习的技术领域,具体涉及基于深度学习的人-机器人运动数 据映射的方法及系统。

背景技术

[0002] 机器人/仿人机器人精准的动作生成,对机器人产业、动画制作、医疗健康等领域 都有着非常重要的现实意义。例如,在可穿戴设备中,通过相关的算法,使仿人机器人模拟 生成不同年龄、不同身体健康程度的用户的运动数据,可以为后期的设备调试、算法评估等 提供测试数据,方便了测试过程同时也节约了测试成本。

[0003] 在现有技术中,仿人机器人动作生成的技术主要包括运动解析法、运动捕捉数据 转换法和机器学习法。

[0004] 运动解析法根据机器人的物理运动原理,建立一整套的运动学解析方程,然后运 用相关的机器人和运动学知识,对这些方程进行求解,从而得到机器人的运动轨迹。这种方 法过程简单,但是求解过程比较复杂,很容易面临无解的情况。

[0005] 运动捕捉数据转换法利用运动捕捉设备对人体的特定动作进行捕获,接着运用相 关的运动学知识例如欧拉角变换等,把人体的运动数据迀移到对应的机器人模型上,完成 数据坐标的映射。这种方法可以一定程度上减少运动求解的复杂度,但是仍然需要进行大 量的坐标转换,计算复杂度高,不易于大规模部署求解。

[0006] 机器学习法对人体运动捕捉数据进行特征提取,然后运用机器学习算法,建立特 定的分类或回归模型,例如神经网络、线性回归等,将仿人机器人动作生成问题转换为一个 多元回归问题,完成坐标的映射。这类方法将运动学问题转换成机器学习的优化问题,避免 了大量繁复的运动学方程求解,充分利用了设备的计算能力与数据多样性,达到了较好的 精度与可部署性。然而,随着数据规模的增加以及机器人构造复杂度的增长,在实际应用 中,已有的机器学习模型容易受限于模型本身,对于不同的机器人设备,适应性不高,泛化 能力不强,易产生欠拟合、不收敛等瓶颈问题。

发明内容

[0007] 本发明的目的在于,克服上述现有技术的缺陷,提供一种人-机器人运动数据映射 的方法。该方法通过深度学习实现人体运动数据到机器人运动数据的映射,从而生成机器 人的运动轨迹。

[0008] 根据本发明的第一方面,提供了一种人-机器人运动数据映射的方法。该方法包 括:

[0009] 步骤1:获取训练数据,所述训练数据包括人体运动数据和相应运动的机器人样本 数据;

[0010] 步骤2:以所述人体运动数据作为输入,以所述机器人样本数据作为期望的输出, 通过训练深度学习网络获得深度学习模型,以得到人-机器人运动数据之间的映射关系。

[0011] 优选地,步骤2包括:

[0012] 步骤21:将所述训练数据分离为多个子训练数据,所述子训练数据中包括人体的 分部运动数据和机器人相应分部的样本数据;

[0013] 步骤22:基于所述多个子训练数据并行地训练深度学习网络,以获得与各个子训 练数据一一对应地的深度学习模型。

[00M] 优选地,所述子训练数据中包括人和机器人分部运动的空间关系和时序关系。

[0015] 优选地,所述将训练数据分离为多个子训练数据是基于机器人关节、机器人型号、 机器人的任务类型、动作复杂度中的至少一项。

[0016] 优选地,所述深度学习网络包括卷积神经网络、自动编码机或循环神经网络。

[0017] 优选地,上述方法还包括根据所述训练数据的数据量、数据格式、机器人型号中的 至少一项来调整所述深度学习网络的损失函数。

[0018] 根据本发明的第二方面,提供了一种预测机器人运动数据的方法。该方法包括:获 取人体运动数据;以所述人体运动数据作为输入,利用步骤2中获得的深度学习模型预测相 应的机器人运动数据。

[0019] 根据本发明的第三方面,提供了一种预测机器人运动数据的方法。该方法包括:获 取人体运动数据;以所述人体运动数据作为输入,利用步骤22中获得的深度学习模型预测 相应的机器人运动数据。

[0020] 优选地,在根据本发明的第三方面所提供的方法还包括:基于所述深度学习模型 预测所述人体运动数据中每一分部对应的机器人分部的运动数据;合成所述机器人分部的 运动数据以获得全部的机器人的运动数据。

[0021] 根据本发明的第四方面,提供了一种预测机器人运动数据的系统。该系统包括:用 于获取人体运动数据的模块;用于以所述人体运动数据作为输入,利用步骤2或步骤22中获 得的深度学习模型预测相应的机器人运动数据的模块。

[0022]与现有技术相比,本发明的优点在于:将深度学习网络应用于人-机器人运动数据 映射领域,降低了生成机器人运动轨迹的复杂度并同时提高了其动作的精准度。

附图说明

[0023]以下附图仅对本发明作示意性的说明和解释,并不用于限定本发明的范围。其中:

[0024]图1示出了根据本发明一个实施例的人-机器人运动数据映射的方法的示意流程 图。

[0025]图2示出了根据本发明的训练数据分离的原理示意图。

[0026]图3示出了根据本发明的一个实施例的人-机器人运动数据映射的系统的示意框 图。

具体实施方式

[0027] 为了对本发明的技术特征、目的和效果有更加清楚的理解,现参照附图对本发明 提出的人-机器人运动数据映射的方法及系统进一步详细说明。

[0028] 为了更好地理解本发明,首先介绍一些本发明涉及的概念。

[0029] 在本发明中,机器人/仿人机器人是指一种自动化的机器,这种机器具备一些与人 相似的智能能力,例如感知能力、规划能力、动作能力和协同能力,是一种具有高度灵活性 的自动化机器。

[0030] 深度学习网络采用与神经网络相似的分层结构:包括输入层、隐层(可包括单层或 多层)、输出层的多层网络,只有相邻层节点之间有连接,而同一层以及跨层节点之间相互 无连接。这种分层结构,比较接近人类大脑的结构。它的基本原理是通过计算输出层与期望 输出之间的误差,然后从输出层开始反向调整各神经元的权值和偏置值,最终使得网络的 输出与期望输出之间的误差满足预先设定的要求。

[0031] 图1示出了根据本发明一个实施例的人-机器人运动数据映射的方法的示意流程 图。该实施例的过程可以概括为:步骤S110,用于获得训练数据;步骤S120,利用获得的训练 数据训练深度学习网络,以获得深度学习模型;步骤S130,当有新的人体数据,利用已训练 好的深度学习模型,获得与新的人体数据对应的机器人的运动数据。

[0032] 下面介绍图1的实施例中各步骤的详细描述。

[0033] 1)获取人体运动数据

[0034] 获取人体运动数据是指人做出规定的动作,以获得能够产生该动作的运动信息, 例如,每个动作对应的关节以及关节角的位移等。

[0035] 人体运动数据的获取方式可以有多种,例如,利用光学、惯性、声学、电磁、机械式 等原理的动作捕捉设备。这些设备通常可以捕捉不同精度、不同范围的人体的运动数据并 将其转换成多种数据格式。生成的运动数据格式可以是任何包含运动信息的数据文件。针 对运动捕捉设备的不同原理、型号以及不同的采集位置、采样率等可以选择不同的运动数 据文件格式,将人体的运动数据保存下来。例如,可保存为BVH、D3D、BVR文件格式等。

[0036] BVH (Biovision Hierarchical Data)文件主要包括两个部分:第一部分定义了人 体的骨架信息,例如关节树和各关节点的名称、关节与关节之间的相对位置等,诸如hip (髋 关节)、spine (脊柱)、leg (腿关节)等。每个关节都有三个旋转参数(相对于X、Y、Z轴的旋转 角度)来描述运动信息。Hip关节点作为整个人体的根关节点还含有三维空间位置参数,从 而完成了对人体运动情况的完整描述。BVH文件的第二部分记录了运动的数据,定义了动作 数据持续的长度(即帧数)以及每帧之间的时间间隔。按照第一部分定义的关节顺序提供每 帧数据,记录了每一帧中各个关节节点的位置信息和旋转信息。一个完整的BVH文件格式如 下所示:

Figure CN106600000AD00061

[0038] 2)获取机器人的样本数据

[0039] 机器人的样本数据是指用于驱动机器人做出与人体一致的动作的运动信息。

[0040] 通常,机器人有可移动的身体结构、类似于马达的装置、用于感知外界的传感系 统、电源以及用来控制所有这些要素的计算机"大脑"。机器人的动作生成可以利用包含关 节角和关节位移等运动信息的数据,通过编程来驱动机器人产生相应的动作。例如,可以采 用运动捕捉设备获得的人体运动数据来驱动机器人。机器人运动过程的运动信息可由机器 人操作系统记录完成,例如,也可以存储为BVH文件格式。

[0041] 此步骤的目的在于,获得机器人运动的样本数据,使其能够与人体的动作相一致。 为了使机器人的样本数据尽量接近人体数据,在实际操作过程中,可以由专业人员进行判 断,将误差率低的机器人的行为进行记录,作为训练的样本数据。

[0042] 3)获得训练数据

[0043]训练数据是进行深度学习的基础,基于训练数据可以不断修正深度学习模型,使 其达到期望的精度。本文所述的训练数据包括人体运动数据和相应运动的机器人样本数 据。

[0044] 为了在深度学习过程中读取数据方便,可以将人体运动数据和机器人的样本数据 保存为数据结构形式或文件格式。例如,以BVH格式保存在同一个文件中或分别保存在两个 文件中。本发明对此不作限制。

[0045] 4)数据预处理

[0046] 对于获得的训练数据,由于动作捕捉设备的不精确、网络传输不可靠,或者是捕捉 过程中出现的一些人为的失误等因素,会导致数据出现突变值、缺失点等,因此要对训练数 据进行预处理。例如,降噪、平滑、缺失点补全等。通过这种方式,可以降低训练时间并提高 训练的精确度。

[0047] 5)子训练数据分离

[0048] 深度学习的过程是以机器人的样本数据作为期望的输出,以人体的运动数据作为 输入,训练深度学习网络,以获得深度学习模型。所述深度学习模型是指已经训练好的深度 学习网络,其已经确定了学习网络中各层的权重和偏置值等,以使模型实际的输出尽可能 的逼近期望的输出。

[0049] 在图1的实施例中,采用了并行训练的方式,即并行地训练多个深度学习网络,因 此,需要首先获得每个深度学习网络对应的训练数据,即需要将上述获得的训练数据分离 为多个子训练数据,每个子训练数据对应人体和机器人的分部运动信息。

[0050] 训练数据分离的原则例如可以基于人体与机器人相应关节部位的对应关系,图2 示出了此实施例中分离的基本思想。

[0051] 可以将人体和机器人对应分部的运动信息进行分离保存。例如,从保存完整信息 的BVH文件中提取各个不同的关节,将人体和机器人同一关节的运动数据提取到同一文件 中。

[0052] 每个分部的运动数据文件包含该分部(关节部位)的空间关系(如位置坐标)和时 序关系(例如,该关节产生动作的时间)。

[0053] 在保存文件时,例如可以将人体运动数据和机器人的样本数据按照时间戳的方式 进行对齐。当不存在完全相等的时间戳的情况下,假设人体数据的频率为f,人体数据当前 的时间戳为t,则对机器人的数据取[t_2/f,t+2/f]时间段内的数据做提取,与t时刻的人体 运动数据对齐。通过这种方式,可以获得各个分部运动数据的时序关系。

[0054] 图1中示意了两个子训练数据的情况,在实际应用中,还可以基于机器人关节、机 器人型号、机器人的任务类型、动作复杂度等中的一项或几项的综合评估来确定子训练数 据的数量。

[0055] 例如,同样采集机器人的全身运动信息,如果机器人是模拟人日常行为这些比较 粗粒度的活动,则应用下采样等方法,对运动信息进行压缩;如果机器人是模拟人作手术操 作精密仪器等精度高的行为,则采用过采样等方法,对运动信息进行更高层次的加工和提 取。通过这种方式,对于复杂动作和精度高的任务类型可以分离出更多数量的子训练数据, 即对关节部位和动作划分的更加精细。

[0056] 7)并行训练

[0057]并行训练是指构建多个深度学习网络,每个网络对应一个子训练数据同时进行学 习训练,相应地,最终获得多个深度学习模型。

[0058] 深度学习的过程即是对深度学习模型进行修正,以使其实际输出尽可能的逼近期 望的输出。例如,激励函数可以采用修正线性单元,模型的最后一层用S0FTMAX函数进行映 射输出,采用momentum (冲量)形式进行训练,以mini-batch (批处理)模式,反复调整batch 的规模,也可以调整迭代次数,直到模型达到期望的精度。对于深度学习的具体过程和其涉 及的函数属于现有技术,在此不再一一介绍。

[0059]训练模型的精确性可以采用平方误差来衡量。例如,在上述的模型训练过程中,会 根据实际的人体运动数据,生成模拟的机器人运动数据,与采集的真实机器人运动数据(机 器人的样本数据)相比,会产生一定的误差。误差越小,表示模型越精确,效果越好。对误差 的定义是,对生成的每一帧运动数据,计算其与样本相对应的关节的数值差,再将所有差值 计算平方和则为一次计算误差。当采用并行化训练,即身体的每一分部单独训练(例如,左 臂可以包括肩关节、肘关节、腕关节等关节),则对身体的每一分部,训练误差表示成公式 是:

Figure CN106600000AD00081

[0060]

[0061]该公式表示,对于所有η个关节,所有m帧数据与样本数据的平方误差,以此作为深 度学习的训练误差来衡量模型的实际输出和期望输出之间的逼近程度。

[0062] 模型训练好后,在真实环境中使用时,可以使用专家系统投票评判规则,即由了解 该问题的研究人员对动作进行评判,给出与真实人体运动的差距作为误差。

[0063] 上述的深度学习网络是多层神经网络,但根据应用不同,其网络结构可以不一样。 例如,包括但不限于卷积神经网络、自动编码机、循环神经网络、多层感知机(MLP,multi-layer perceptron)、自适应神经网络等。

[0064] 通过深度学习训练,一方面可以根据人体数据获得模拟的机器人运动数据;另一 方面,可以利用训练好的深度学习模型,较准确的预测新的人体数据对应的机器人的运动 数据。

[0065] 8)合成机器人的运动轨迹

[0066] 在此步骤中,示意了两个方面的内容,一是基于现有的训练数据,获得模拟的机器 人的运动数据;二是根据新的人体数据,利用训练好的深度学习模型,预测新的机器人的运 动数据。

[0067] 通过并行训练的方式,可以得到与各个子训练数据对应的各个分部的运动数据, 为了获得机器人的完整运动轨迹,需要进一步将各个分部的运动数据合成。

[0068] 为了使合成之后的运动信息更加准确,运动/动作的合成要求保持身体各部位之 间的时序与空间关系,将生成的运动数据进行有机的合成。例如,可以按照时间戳的关系, 把不同分部处于同一时间戳的运动信息组合。也就是说,按照运动数据的时序关系,将这些 关节部位的数据进行组合,以获得完整的机器人运动数据。例如,可以生成一个大的BVH文 件,其包含机器人所有分部的运动情况。

[0069] 通过此步骤可以获得更精准的机器人的全部运动数据。

[0070] 进一步地,当有新的人体运动数据。例如,图1所示的新分部数据1和新分部数据2, 利用已训练好的深度学习模型1、2可以预测机器人相应分部的运动数据,并采用相同的方 法进行合成。同样地,对合成的运动信息也可以采用降采样或过采样等不同处理方式,以满 足对机器人动作精准度的不同需求。

[0071] 将通过上述训练获得的机器人的运动数据或对新的人体运动数据预测的机器人 的运动数据输入到控制机器人运动的程序中,即可以驱动机器人产生与人体一致的运动轨 迹。

[0072] 根据本发明的方法,可以利用深度学习模型获得与人体运动数据对应的模拟的机 器人的运动数据,并可以通过不断的学习训练,使深度学习模型不断增强与新的人体数据 对应的机器人的运动数据的预测能力。此外,通过将训练数据按照动作的时序关系进行分 离,经过并行训练映射为机器人的运动数据之后,再合成的方式进一步降低了学习模型的 复杂度,提高了计算效率和灵活性,并且根据动作的时序进行合成时,考虑了时间的同步, 并根据需要采用不同的动作合成机制,提高了方法的可扩展性。

[0073] 为了进一步提高深度学习的效率和模型的精确度,还可以在本发明的精神和范围 内作一些变型和改进。

[0074] 例如,利用深度学习网络的训练过程以及深度学习模型调优的过程可以在计算机 中执行。而由于人体运动数据和机器人运动时均产生大量的数据,为了能够有效地、实时地 进行深度网络训练,实际的训练过程也可以在分布式的计算环境中执行,例如云端等,然后 将模型与机器人自身已经装备的学习模块(例如视觉模块、运动模块等)中的深度学习部分 结合,从而形成一个深度学习的整体,在不断的学习中使机器人变得更加智能。

[0075] 又如,为了避免由于训练数据少而使深度学习网络陷入局部最优解、或者出现无 梯度、过拟合的情况,可以基于训练数据的数据量、数据格式、机器人的型号等中的一项或 几项来调整所述深度学习网络的损失函数。损失函数是用来估量深度学习网络的预测值与 真实值之间的不一致程度。损失函数的越小,深度学习网络的鲁棒性就越好。

[0076] 损失函数通常包括损失项和正则项。适当的正则项的设置可以避免出现过拟合、 是为了使拟合的误差足够小,即:对训练数据的预测误差很小。例如,在损失函数中加入I2 正则项_ W Γη丟元疽始的梠 Φ函救_ Γ丟元加人正则后的损失函数,则有:

[0077]

Figure CN106600000AD00091

[0078] 其中,λ是可调整的参数,η是神经元的个数,w表示权重矩阵。

[0079] 将损失函数分别对权重矩阵w及偏差b求偏导分别得到:

Figure CN106600000AD00092

[0080]

[0081]

[0082] 从公式⑶和⑷可以看出,加入了 I2正则项后,结果对偏差b没有影响,但是对权 重矩阵w产生了影响。引入正则后,权重的更新变成

[0083]

Figure CN106600000AD00093

[0084]

Figure CN106600000AD00094

从公式(5)可以看出,不使用I2正则时,w的系数为1,使用I 2正则后,w的系数变为

[0085] 通过在损失函数中加入正则项,可以一定程度上避免过拟合,提高模型对新数据 的适应能力,即增加深度学习网络本身的泛化能力。

[0086] 图3示出了根据本发明的一个实施例的人-机器人运动数据映射的系统的示意框 图。

[0087] 该系统包括获取训练数据的模块310,其中,所述训练数据包括人体运动数据和相 应运动的机器人样本数据;用于以所述机器人样本数据作为期望的输出,以所述人体运动 数据作为输入,训练深度学习网络以获得深度学习模型的模块320;以及用于基于所述深度 学习模型预测与新的人体运动数据对应的机器人运动数据的模块330。

[0088] 根据本发明的方法和系统可以应用于机器人,使机器人通过不断地通过深度学习 过程将人体的运动数据映射为其本身的运动数据,从而可以精准的模仿人的运动。

[0089] 综上所述,根据本发明的方法和系统增加了人-机器人运动数据的非线性映射能 力:能学习和存贮大量输入-输出之间的数据映射关系,而无需事先了解描述这种映射关系 的数学方程。只要能提供丰富的训练数据进行学习训练,即可实现人-机器人运动数据之间 的映射。利用这种特性,可以使机器人很好地逼近人体的运动/动作。

[0090] 此外,本发明的方法还增强了泛化能力:当向深度学习网络输入未曾见过的新的 人体数据时,网络也能完成由输入空间向输出空间的正确映射。随着时间的推移,网络中的 流量数据也是在不断变化的。利用这点特性,可以直接利用新到的人体运动数据驱动机器 人的相应运动,而不需要随着输入数据的变化而重新调整网络。

[0091] 以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也 不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技 术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨 在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其 它普通技术人员能理解本文披露的各实施例。

Claims (10)

1. 一种人-机器人运动数据映射的方法,包括: 步骤1:获取训练数据,所述训练数据包括人体运动数据和相应运动的机器人样本数 据; 步骤2:以所述人体运动数据作为输入,以所述机器人样本数据作为期望的输出,通过 训练深度学习网络获得深度学习模型,以得到人-机器人运动数据之间的映射关系。
2. 根据权利要求1所述的方法,其中,步骤2包括: 步骤21:将所述训练数据分离为多个子训练数据,所述子训练数据中包括人体的分部 运动数据和机器人相应分部的样本数据; 步骤22:基于所述多个子训练数据并行地训练深度学习网络,以获得与各个子训练数 据一一对应地的深度学习模型。
3. 根据权利要求2所述的方法,其中,所述子训练数据中包括人和机器人分部运动的空 间关系和时序关系。
4. 根据权利要求2所述的方法,其中,所述将训练数据分离为多个子训练数据是基于机 器人关节、机器人型号、机器人的任务类型、动作复杂度中的至少一项。
5. 根据权利要求1至4中的任一项所述的方法,其中,所述深度学习网络包括卷积神经 网络、自动编码机或循环神经网络。
6. 根据权利要求1至4中的任一项所述的方法,其中,还包括根据所述训练数据的数据 量、数据格式、机器人型号中的至少一项来调整所述深度学习网络的损失函数。
7. -种预测机器人运动数据的方法,包括: 获取人体运动数据; 以所述人体运动数据作为输入,利用权利要求1所获得的深度学习模型预测相应的机 器人运动数据。
8. -种预测机器人运动数据的方法,包括: 获取人体运动数据; 以所述人体运动数据作为输入,利用权利要求2所获得的深度学习模型预测相应的机 器人运动数据。
9. 根据权利要求8所述的方法,还包括: 基于所述深度学习模型预测所述人体运动数据中每一分部对应的机器人分部的运动 数据; 合成所述机器人分部的运动数据以获得全部的机器人的运动数据。
10. -种预测机器人运动数据的系统,包括: 用于获取人体运动数据的模块; 用于以所述人体运动数据作为输入,利用权利要求1或2所获得的深度学习模型预测相 应的机器人运动数据的模块。
CN 201611102793 2016-12-05 2016-12-05 人‑机器人运动数据映射的方法及系统 CN106600000A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201611102793 CN106600000A (zh) 2016-12-05 2016-12-05 人‑机器人运动数据映射的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201611102793 CN106600000A (zh) 2016-12-05 2016-12-05 人‑机器人运动数据映射的方法及系统

Publications (1)

Publication Number Publication Date
CN106600000A true true CN106600000A (zh) 2017-04-26

Family

ID=58594834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201611102793 CN106600000A (zh) 2016-12-05 2016-12-05 人‑机器人运动数据映射的方法及系统

Country Status (1)

Country Link
CN (1) CN106600000A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850846A (zh) * 2015-06-02 2015-08-19 深圳大学 一种基于深度神经网络的人体行为识别方法及识别系统
CN106078752A (zh) * 2016-06-27 2016-11-09 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850846A (zh) * 2015-06-02 2015-08-19 深圳大学 一种基于深度神经网络的人体行为识别方法及识别系统
CN106078752A (zh) * 2016-06-27 2016-11-09 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
甘志刚: ""仿人机器人数字仿真与虚拟示教关键技术研究"", 《中国博士学位论文全文数据库 信息科技辑》 *

Similar Documents

Publication Publication Date Title
Veeriah et al. Differential recurrent neural networks for action recognition
Mohandes et al. Use of radial basis functions for estimating monthly mean daily solar radiation
Sahbani et al. An overview of 3D object grasp synthesis algorithms
Schaal et al. Learning control in robotics
Rogister et al. Asynchronous event-based binocular stereo matching
US20140032459A1 (en) Apparatus and methods for generalized state-dependent learning in spiking neuron networks
US7859540B2 (en) Reconstruction, retargetting, tracking, and estimation of motion for articulated systems
Parikh et al. A hybrid strategy to solve the forward kinematics problem in parallel manipulators
Lee et al. A hybrid neural network model for noisy data regression
Valero-Cuevas et al. Computational models for neuromuscular function
Liu Exploring human hand capabilities into embedded multifingered object manipulation
Todorov et al. Unsupervised learning of sensory-motor primitives
Cai et al. Different-level redundancy-resolution and its equivalent relationship analysis for robot manipulators using gradient-descent and Zhang's neural-dynamic methods
Faria et al. Extracting data from human manipulation of objects towards improving autonomous robotic grasping
WO2007076119A2 (en) Reconstruction, retargetting, tracking, and estimation of pose of articulated systems
Chella et al. A cognitive framework for imitation learning
Kulic et al. Incremental learning of full body motion primitives for humanoid robots
Tong et al. Modeling hysteresis using hybrid method of continuous transformation and neural networks
Gullapalli Learning control under extreme uncertainty
Yassin et al. Binary particle swarm optimization structure selection of nonlinear autoregressive moving average with exogenous inputs (NARMAX) model of a flexible robot arm
Lei et al. Whole-body humanoid robot imitation with pose similarity evaluation
Rezzoug et al. Prediction of fingers posture using artificial neural networks
Zhang et al. Study on adaptive Kalman filtering algorithms in human movement tracking
Deshpande et al. Anatomically correct testbed hand control: Muscle and joint control strategies
Ngeo et al. Control of an optimal finger exoskeleton based on continuous joint angle estimation from EMG signals

Legal Events

Date Code Title Description
PB01
SE01