CN105956601B - 一种基于轨迹模仿的机器人汉字书写学习方法 - Google Patents
一种基于轨迹模仿的机器人汉字书写学习方法 Download PDFInfo
- Publication number
- CN105956601B CN105956601B CN201610236851.5A CN201610236851A CN105956601B CN 105956601 B CN105956601 B CN 105956601B CN 201610236851 A CN201610236851 A CN 201610236851A CN 105956601 B CN105956601 B CN 105956601B
- Authority
- CN
- China
- Prior art keywords
- track
- writing
- imitation
- learning
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Feedback Control In General (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种基于轨迹模仿的汉字书写学习方法,属于人工智能和机器人学习领域。本发明将基于轨迹匹配的模仿学习引入到机器人书写技能的学习中,通过高斯混合模型对示教数据进行编码,提取轨迹特征,通过高斯混合回归对数据重构,得到轨迹的泛化输出,进而实现轨迹可连续汉字书写技能的学习。通过多次示教的方法对书写过程中的干扰问题加以处理,提高方法的容噪性。在基本高斯混合模型的基础上进行了多任务扩展,将一个复杂的汉字分解为若干部分,分别对分解的每一部分进行轨迹编码和重构,将其应用于离散轨迹的生成,实现了轨迹不可连续的汉字书写。本发明实现的汉字书写泛化效果良好。
Description
技术领域
本发明属于人工智能和机器人学习领域,特别涉及基于轨迹匹配的模仿学习在机器人书写技能中的实现,即一种基于轨迹模仿的汉字书写学习方法。
背景技术
随着机器人研究的不断发展,其运动行为越来越复杂,对于运动规律不易获取的复杂运动,如汉字书写任务,传统的算法实现,即有经验的“专家”通过底层的运动控制获取运动技能,变得越来越困难,甚至不可能实现。此时,机器人需要具备学习的能力,提高其智能性,使其能够在传统方法不易或不能实现的情况下,找到有效的控制策略以完成复杂的运动任务。
模仿学习(Imitation Learning)是机器人学习的一种方式,是机器人智能性的重要体现,在机器人仿生学中占有重要地位。所谓模仿学习是指模仿者(机器人)通过“观察”示教者(人或机器人)的运动行为,学习运动控制策略,进而获取运动技能。
根据模仿的生物仿生机制,机器人模仿学习可归结为行为获取、行为表征、行为再现这三个问题,分别对应示教数据采集,提取行为特征进行表征学习和泛化输出的过程。表征和泛化是模仿学习的重点,其典型方法有插值法,动态系统法及概率模型法,插值法能够快速生成轨迹,但具有时间依赖性,对干扰敏感;动态系统法将运动建模为动态吸引子模型,具有很强的鲁棒性,能够进行在线校正,但需要更多的示教信息;概率模型法通过建模随机模型如高斯混合模型模型、隐马尔科夫模型、贝叶斯网络等,进行轨迹编码,具有很强的编码和噪声处理能力,鲁棒性好,能够处理高维问题,实现复杂运动模仿。
基于轨迹匹配的模仿学习可用于复杂轨迹的表征泛化,建立感知和运动信息的非线性映射,进而实现复杂运动技能的学习。书写是复杂轨迹的运动,其学习过程存在如下两个问题:(1)连续性复杂轨迹的表征;(2)离散轨迹的生成。现有的方法,如底层运动控制、控制图模型、递归神经网络,可用于书写技能的获取,但均不能有效解决以上问题,传统控制较复杂,且泛化性能不足,不可移植,控制图模型能够生成离散轨迹,但对复杂轨迹的表征能力不足,递归神经网络只能用于简单轨迹的再现。针对以上存在的问题及模仿学习的特点,提出一种基于轨迹模仿的汉字书写学习方法,即采用基于高斯混合模型的模仿学习进行书写轨迹的表征与泛化,实现书写技能的学习。
发明内容
本发明将轨迹模仿的思想应用于书写技能的学习,提出一种基于轨迹模仿的汉字书写学习方法,通过高斯混合模型(Gaussian Mixture Model,GMM)对示教数据进行编码,提取轨迹特征,通过高斯混合回归(Gaussian Mixture Regression,GMR)对数据重构,进而实现轨迹可连续汉字书写技能的学习;在基本高斯混合模型的基础上进行了多任务扩展,将其思想应用于离散轨迹的生成,实现了轨迹不可连续的汉字书写。本方法具有较好的编码能力和抗干扰性,具有良好的汉字书写泛化效果。
根据模仿的仿生机制和机器人模仿学习的流程,构建了基于轨迹模仿的汉字书写学习方法流程,如图1所示,机器人从示教者处获取示教数据,经GMM编码,提取行为的本质特征,进行表征学习,之后,通过GMR泛化输出,实现行为再现。其中,GMM实现行为表征的过程是通过贝叶斯信息准则(BIC)和EM算法进行模型参数的确定,以k均值对EM初始化。具体流程如下:
(1)获取二维示教数据ξ={ξs,ξt},其中,ξs,ξt分别表示示教信息的空间值和时间值。
(2)基于高斯混合模型(GMM)对示教数据进行编码学习,实现轨迹表征。
设第j个示教数据点为ξj={ξs,j,ξt,j},j={1,2,…,N},其中,N是单次示教包含的数据点的个数,ξs,j是空间坐标值或节点角,ξt,j是时间值。假设每一个数据点ξj服从如下概率分布:
其中,p(k)是先验概率,p(ξj|k)是条件概率分布,服从高斯分布,于是,整个示教数据集合可以用高斯混合模型来表示,K即组成高斯混合模型的高斯分布的个数。
p(k)=πk (2)
其中,D是编码示教数据的GMM的维度。因此,高斯混合模型需要确定的参数是{K,πk,μk,Σk},分别表示组成高斯混合模型的高斯分布的个数及第k个高斯分布的先验概率,期望和方差。
2.1)K参数估计
K值的确定直接影响模型自由参数的个数,进而影响模型的复杂度,因此需要利用模型选择准则,在模型复杂度和数据拟合性能最优之间作出权衡,找出最合适的K值。利用贝叶斯信息准则(BIC)进行模型选择,通过最优化BIC指标函数SBIC对K值估计。
n(K)=(K-1)+K(D+1/2D(D+1)) (6)
其中,L(ξj)是高斯混合模型的对数似然函数,用来衡量模型对数据的表征性能,n(K)是模型自由参数的个数,是对模型复杂度的度量。
2.2)EM算法估计参数{πk,μk,Σk}
采用EM算法对含隐含变量的参数估计问题进行求解,其本质上是一最大似然估计问题,算法的思想是不断提高似然函数的下界,进而实现参数的优化。该算法分为两步:E步固定参数,优化隐含变量的函数Q,这一步是定下界;M步是固定Q,优化参数,这一步是优化提高下界。为防止陷入局部最优,k均值聚类被用于参数的初始化。
(3)基于高斯混合回归(GMR)对GMM学习的示教的数据进行重构,得到泛化的输出。
示教数据的ξt用作查询点,对应的重构空间值ξ′s利用GMR进行估计。已知p(ξj|k)满足高斯分布,即其中,μk={μs,k,μt,k},分别是高斯混合模型的第k个高斯分布的期望和协方差矩阵,均由空间值和时间值对应的期望和协方差组成,则在给定ξt,k下,ξs,k的条件概率也满足高斯分布,即ξs,k|ξt,k~N(μ′s,k,∑′s,k),μ′s,k和∑′s,k分别表示该高斯分布的期望和协方差。
μ′s,k=μs,k+Σst,k(Σt,k)-1(ξt,k-μt,k) (7)
Σ′s,k=Σs,k-Σst,k(Σt,k)-1Σts,k (8)
由(5)(6)可得,K个高斯成分的高斯混合模型的均值μ′s和方差Σ′s,其中ηk表示第k个高斯分布的权重系数,p(ξt|i)是K个高斯分布中第i个高斯分布。
设高斯混合模型的回归函数为m(ξt),是给定时间值ξt下,空间值ξs下的期望E(ξs|ξt),则
则均值μ′s就是要求的示教数据重构值,也即ξ′s=μ′s,最终得到泛化的数据点ξ′={ξ′s,ξt}及用于提取任务约束的协方差矩阵Σ′s。泛化的数据点ξ′不包含在示教数据中,但封装了示教行为的所有本质特征,在相关约束Σ′s下,能够生成平滑可靠的运动轨迹。
(4)获取书写的示教数据,将基于高斯混合模型的模仿学习应用于书写技能的学习之中,通过高斯混合回归得到泛化的输出,实现轨迹可连续汉字书写。
4.1)采集汉字书写轨迹的二维示教点ξj=(ξjx1,ξjx2),其中,j={1,2…N},N是示教点的数目,ξjx1 ξjx2分别表示二维平面上的空间坐标点,引入时间步ξt,得到最终的模型训练数据如下表所示(部分截取)。第一行是时间步ξt,第二行是ξjx1,第三行是ξjx2。
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 |
0.3317 | 0.3569 | 0.3936 | 0.4005 | 0.4051 | 0.4142 | 0.4257 | 0.4509 | 0.4601 | 0.4716 | 0.4784 | 0.4858 |
0.8036 | 0.8153 | 0.8327 | 0.8356 | 0.8356 | 0.8356 | 0.8356 | 0.8356 | 0.8356 | 0.8827 | 0.8327 | 0.8298 |
将每个汉字视为一条连续的轨迹,构建高斯混合模型(GMM)对其进行学习,实现数据的编码,对汉字“王”的书写,编码效果如图8所示,其中高斯混合模型中高斯分布的个数K=8,即图中阴影分布的个数,每个阴影分布的×表示该高斯分布的期望,阴影表示该高斯分布的方差。
之后通过高斯混合回归(GMR)进行轨迹数据的重构,得到泛化的输出,如图9所示,实线是通过学习最终得到的一系列重构点,阴影表示数据的波动性。
以上分别完成了二维数据的学习和重构,然后,以时间步ξt为参考,将ξjx1ξjx2对应输出,实现汉字的书写,如图10所示。
最后,引入均方差(Mean Squared Error,MSE)对模仿学习效果的进行分析,评价其泛化性能。
4.2)对书写过程中由于干扰导致示教数据存在噪声引入的问题进行分析,通过GMM可对多次示教进行同时编码的特性进行抗干扰处理,提取轨迹的本质特征,泛化得到一般轨迹,提高方法的容噪性。所谓多次示教是多次教机器人学习同一汉字,得到多次示教数据集,对这多个数据集进行同时编码学习。
(5)对GMM进行多任务扩展,针对复杂运动轨迹进行分解,通过多任务学习实现轨迹不可连续汉字书写模仿。所谓多任务学习是对不同运动轨迹进行同时编码学习,与多次示教不同,多次示教是对同一运动的多次(相似)轨迹进行同时编码学习。
针对汉字轨迹较复杂,一笔一划的特点,将一个复杂的汉字分解为若干部分,引入多任务学习,分别对分解的每一部分进行轨迹编码和重构,实现多条离散轨迹的同时学习与泛化,完成轨迹不可连续的汉字的书写。
(6)由轨迹表征和泛化得到书写轨迹的一般输出,经逆运动学转化,映射到机器人的执行器空间,得到机器人节点角的信息,获得控制策略,进而实现机器人书写技能的学习。
附图说明
图1基于轨迹模仿的汉字书写学习方法流程图
图2轨迹可连续的汉字“王”的编码与重构
图3汉字“机器人”的编码与重构
图4有噪声的单次示教编码学习
图5有噪声的多次示教编码学习
图6双任务学习
图7轨迹不可连续的汉字书写对比
图8编码效果图
图9轨迹数据的重构
图10汉字的书写实现
具体实施方式
利用手写板获取书写示教数据,将基于GMM的模仿学习应用于书写技能的学习之中,通过GMR得到泛化的输出,实现轨迹可连续汉字书写。对GMM进行多任务扩展,针对复杂运动轨迹进行分解,通过多任务学习对多条离散轨迹同时进行表征与泛化,实现轨迹不可连续汉字书写模仿。最后,将轨迹模仿得到书写轨迹的泛化输出作为机器人末端执行器的运动轨迹,经逆运动学转化,映射到机器人的执行器空间,得到机器人执行过程的节点角变化信息,实现机器人书写技能的学习。
引入均方差(MSE)作为模仿学习效果的评价标准,如式(13)所示,对实验结果进行定量说明:
xi为模仿学习算法重构得到的数据点与示教数据点的差值,为模仿学习算法重构得到的数据点与示教数据点的差值的均值,MSE用来计算泛化输出与示教点的差异离散程度,其值越小效果越好.
(1)轨迹可连续汉字书写
图2是利用基于GMM的模仿学习实现轨迹可连续汉字“王”的书写。图中,第一列表示每一维(x1或x2)相对于时间步t的轨迹,第二列表示对应时间步t得到的二维空间轨迹。其中,第一行是示教数据,第二行是经GMM编码的数据,本实验中K=6,最后一行是经GMR得到的重构数据。为说明该方法的有效性,对具有复杂轨迹的汉字“机器人”进行书写实验,如图3所示,该方法能够实现复杂轨迹的编码与重构,具有良好的泛化效果。
(2)噪声问题的研究及抗干扰性的解决方案
在书写过程,存在的一项大的问题就是书写过程的干扰,包括手的抖动,纸张的影响等,因此,模仿学习的抗干扰直接影响书写技能的学习的成败。
如图4,5所示,分别表示有噪声的单次和多次示教编码学习,是对含噪声的复杂轨迹曲线进行编码与复现,其中,噪声是红色线圈出部分。图4中,单次示教,由于噪声的存在,重构曲线变形(黄色线圈出),不能有效地提取示教行为的本质特征。图5中,采用多次示教的方式,能够消除噪声对重构曲线的影响,实现对示教行为的高效表征学习。该方法能够通过对多次示教数据进行同时编码,消除噪声影响,具有较强的抗干扰性,能够有效提高方法的容噪性和稳定性。
(3)基于多任务模仿学习的轨迹不可连续汉字书写
基于GMM的模仿学习进行汉字书写存在的一个问题是只能对连续轨迹进行编码学习,而很多汉字的轨迹是不连续的,为解决该问题,本方法对GMM进行多任务扩展,通过多任务学习实现轨迹不可连续汉字书写模仿。
3.1)基于GMR的多任务学习
GMM的训练数据可以归结为ξ={ξO,ξI},其中ξI是查询向量,ξO是编码向量,通过建模概率分布p(ξO,ξI)进行GMM的训练,通过GMR估计条件期望E[p(ξO|ξI)]及相应的协方差矩阵cov[p(ξO|ξI)]进行轨迹的重现。在基于GMM的机器人模仿学习中,示教数据是ξ={ξs,ξt},即以空间位置向量ξs代替ξO,时间步ξt代替ξI,进行轨迹的学习。与基本方法加载二维数据不同,多任务学习是以二维向量ξI作为查询向量,以多个二维向量ξO作为编码向量,通过学习多维示教数据进行模型的训练,进行轨迹编码学习。
以双任务为例,构建4维(2×2)示教数据集合ξ={ξ1 O,ξ2 O,ξ1 I,ξ2 I},即 分别表示两个维度上的编码向量, 分别表示两个维度上的查询向量,建模GMM为
其它各变量的含义与式(3)相同,在轨迹重构过程中,以ξI为查询点,通过GMR估计p(ξO|ξI)对余下的二维ξO进行学习,能够实现两组运动同时编码与再现,进行双任务学习,如图6所示,是对两组不同运动进行同时编码与复现,第一行是示教数据,第二行是GMM编码后的特征,第三行是GMR的重构复现。
将双任务推广到多任务,针对N任务,构建2N维(N×2)的示教数据ξ={ξ1 O1,ξ2 O1,ξ1 O2,ξ2 O2…ξ1 ON-1,ξ2 ON-1,ξ1 I,ξ2 I},即ξO={ξ1 O1,ξ2 O1,ξ1 O2,ξ2 O2…ξ1 ON-1,ξ2 ON-1},由N-1个二维向量组成,建模GMM,进行N组运动的同时编码学习,完成表征学习从二到多的推广,实现多任务学习。
3.2)轨迹不可连续的汉字书写
GMM凭借其强大的轨迹编码能力,能够实现轨迹可连续的汉字书写,如图2所示,但是对轨迹不可连续的汉字,如“大”,则不能完成任务,如图7第一列所示。本发明通过多任务学习方式实现轨迹不可连续的汉字书写,其思想在于,轨迹不可连续的汉字可以通过分解为一系列轨迹可连续的笔画,将每一笔画的书写模仿作为一个任务,则一个轨迹不连续的汉字就可以通过多任务学习来实现,如“大”字可以分解为“一”、“丿”和“ㄟ”三部分,考虑空间约束,用GMM编码后,通过GMR重构实现,如图7第二列所示,第一行是示教数据,第二行是GMM编码,第三行是重构复现。
多任务学习符合针对复杂任务进行分解,建立运动基元库的高水平表征学习思想,可以扩展的复杂任务的学习之中,具有良好的泛化能力。
Claims (3)
1.一种基于轨迹模仿的汉字书写学习方法,其特征在于,具体步骤如下:
(1)获取汉字书写的二维示教数据ξ={ξs,ξt},其中,ξs,ξt分别表示示教信息的空间值和时间值;
(2)基于高斯混合模型GMM对示教数据进行编码学习,实现轨迹表征;
设第j个示教数据点为ξj={ξs,j,ξt,j},j={1,2,…,N},其中,N是单次示教包含的数据点的个数,ξs,j是空间坐标值或节点角,ξt,j是时间值;假设每一个数据点ξj服从如下概率分布:
其中,p(k)是先验概率,p(ξj|k)是条件概率分布,服从高斯分布,于是,整个示教数据集合用高斯混合模型来表示,K即组成高斯混合模型的高斯分布的个数;
p(k)=πk (2)
其中,D是编码示教数据的GMM的维度;因此,高斯混合模型需要确定的参数是{K,πk,μk,Σk},分别表示高斯混合模型的高斯分布的个数及第k个成分的先验概率,期望和方差;
利用贝叶斯信息准则估计K参数,进行模型选择,实现在模型复杂度和数据拟合性能最优之间作出权衡,利用EM算法估计参数{πk,μk,Σk},最终实现模型的构建;
(3)基于高斯混合回归GMR对GMM学习的示教的数据进行重构,得到泛化的输出;
示教数据的ξt用作查询点,对应的空间值ξ′s利用GMR进行估计;已知p(ξj|k)满足高斯分布,即其中,μk={μs,k,μt,k},则在给定ξt,k下,ξs,k的条件概率也满足高斯分布,即ξs,k|ξt,k~N(μ′s,k,∑′s,k);
μ′s,k=μs,k+Σst,k(Σt,k)-1(ξt,k-μt,k) (4)
Σ′s,k=Σs,k-Σst,k(Σt,k)-1Σts,k (5)
可得,K个高斯成分的高斯混合模型的均值μ′s和方差Σ′s;
设高斯混合模型的回归函数为m(ξt),则
则均值μ′s就是要求的示教数据重构值,也即ξ′s=μ′s,最终得到泛化的数据点ξ′={ξ′s,ξt}及用于提取任务约束的协方差矩阵Σ′s;泛化的数据点ξ′不包含在示教数据中,在相关约束Σ′s下,生成运动轨迹;
(4)获取书写的示教数据,将基于高斯混合模型的模仿学习应用于书写技能的学习之中,通过高斯混合回归得到泛化的输出,实现轨迹可连续汉字书写;
采集汉字的书写示教数据,将每个汉字的整个轨迹作为一条连续的轨迹,分别对轨迹的每一维度构建一个高斯混合模型(GMM)对其进行学习,之后通过高斯混合回归(GMR)进行轨迹数据的重构,得到泛化的输出,引入均方差对模仿学习效果的进行分析,评价其泛化性能;
(5)由轨迹模仿得到书写轨迹的泛化输出作为机器人末端执行器的运动轨迹,经逆运动学转化,映射到机器人的执行器空间,得到机器人节点角的信息,获得控制策略,进而实现机器人书写技能的学习。
2.根据权利要求1所述的一种基于轨迹模仿的汉字书写学习方法,其特征在于:步骤4中通过多次示教对书写过程的噪声问题进行处理。
3.根据权利要求1所述的一种基于轨迹模仿的汉字书写学习方法,其特征在于:对GMM进行多任务扩展,针对复杂运动轨迹进行分解,引入多任务学习,分别对分解的每一部分进行轨迹编码和重构,实现多条离散轨迹的同时学习与泛化,完成轨迹不可连续的汉字的书写。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610236851.5A CN105956601B (zh) | 2016-04-15 | 2016-04-15 | 一种基于轨迹模仿的机器人汉字书写学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610236851.5A CN105956601B (zh) | 2016-04-15 | 2016-04-15 | 一种基于轨迹模仿的机器人汉字书写学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105956601A CN105956601A (zh) | 2016-09-21 |
CN105956601B true CN105956601B (zh) | 2019-01-29 |
Family
ID=56917565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610236851.5A Active CN105956601B (zh) | 2016-04-15 | 2016-04-15 | 一种基于轨迹模仿的机器人汉字书写学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105956601B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108345843B (zh) * | 2018-01-25 | 2020-12-29 | 电子科技大学 | 一种基于混合深度回归网络的头部姿态估计方法 |
CN110465952A (zh) * | 2018-05-09 | 2019-11-19 | 郑州科技学院 | 一种基于轨迹模仿的机器人汉字书写和学习的方法 |
CN109590986B (zh) * | 2018-12-03 | 2022-03-29 | 日照市越疆智能科技有限公司 | 机器人教学方法、智能机器人和存储介质 |
CN109664300B (zh) * | 2019-01-09 | 2021-01-15 | 湘潭大学 | 一种基于力觉学习的机器人多风格书法临摹方法 |
CN109702744A (zh) * | 2019-01-15 | 2019-05-03 | 北京工业大学 | 一种基于动态系统模型的机器人模仿学习的方法 |
CN110501421A (zh) * | 2019-07-24 | 2019-11-26 | 武汉大学 | 一种基于机械臂的轨道仿形探伤方法 |
CN110653824B (zh) * | 2019-07-26 | 2021-06-04 | 同济人工智能研究院(苏州)有限公司 | 基于概率模型的机器人离散型轨迹的表征与泛化方法 |
CN110782710A (zh) * | 2019-09-20 | 2020-02-11 | 厦门快商通科技股份有限公司 | 一种基于机器人实现的书写教学方法及装置 |
CN112989899A (zh) * | 2019-12-18 | 2021-06-18 | 湖南创乐博智能科技有限公司 | 一种基于写字机器人的可书写个性化字体的方法 |
CN111424380B (zh) * | 2020-03-31 | 2021-04-30 | 山东大学 | 一种基于技能学习与泛化的机器人缝制系统及方法 |
CN111839926B (zh) * | 2020-06-18 | 2022-04-12 | 南京邮电大学 | 一种头姿交互控制与自主学习控制共享的轮椅控制方法及系统 |
CN111983922A (zh) * | 2020-07-13 | 2020-11-24 | 广州中国科学院先进技术研究所 | 一种基于元模仿学习的机器人演示示教方法 |
CN111859297A (zh) * | 2020-07-20 | 2020-10-30 | 上海交通大学 | 一种基于高斯混合模型的上甑轨迹提取方法 |
CN112605973B (zh) * | 2020-11-19 | 2022-11-01 | 广东省科学院智能制造研究所 | 一种机器人运动技能学习方法及系统 |
CN112686134B (zh) * | 2020-12-29 | 2023-12-01 | 科大讯飞股份有限公司 | 手写识别方法、装置、电子设备和存储介质 |
CN116476081B (zh) * | 2023-06-21 | 2023-09-15 | 广东省科学院智能制造研究所 | 一种机器人节律性技能学习方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4850026A (en) * | 1987-10-13 | 1989-07-18 | Telecommunications Laboratories Dir. Gen'l Of Telecom. Ministry Of Communications | Chinese multifont recognition system based on accumulable stroke features |
CN1389996A (zh) * | 2001-06-04 | 2003-01-08 | 华为技术有限公司 | 手写字体的无线传输与识别方法 |
CN101377854A (zh) * | 2008-10-07 | 2009-03-04 | 浙江大学 | 一种计算机模仿汉字手写笔迹的方法 |
CN104105049A (zh) * | 2014-07-17 | 2014-10-15 | 大连理工大学 | 一种减少传声器使用数量的房间冲激响应函数测量方法 |
CN104900094A (zh) * | 2015-05-15 | 2015-09-09 | 广东小天才科技有限公司 | 终端中书写模拟的实现方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020040310A1 (en) * | 2000-09-30 | 2002-04-04 | Aaron Lieben | Method of tracking participants'behavior in a computerized dating or matchmaking service to determine underlying feature preferences that are used to rank matches based on level of compatibility |
-
2016
- 2016-04-15 CN CN201610236851.5A patent/CN105956601B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4850026A (en) * | 1987-10-13 | 1989-07-18 | Telecommunications Laboratories Dir. Gen'l Of Telecom. Ministry Of Communications | Chinese multifont recognition system based on accumulable stroke features |
CN1389996A (zh) * | 2001-06-04 | 2003-01-08 | 华为技术有限公司 | 手写字体的无线传输与识别方法 |
CN101377854A (zh) * | 2008-10-07 | 2009-03-04 | 浙江大学 | 一种计算机模仿汉字手写笔迹的方法 |
CN104105049A (zh) * | 2014-07-17 | 2014-10-15 | 大连理工大学 | 一种减少传声器使用数量的房间冲激响应函数测量方法 |
CN104900094A (zh) * | 2015-05-15 | 2015-09-09 | 广东小天才科技有限公司 | 终端中书写模拟的实现方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105956601A (zh) | 2016-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105956601B (zh) | 一种基于轨迹模仿的机器人汉字书写学习方法 | |
Calinon | Robot programming by demonstration | |
Calinon et al. | Learning of gestures by imitation in a humanoid robot | |
Billard et al. | Survey: Robot programming by demonstration | |
Zhu et al. | Inferring forces and learning human utilities from videos | |
Billard et al. | Discovering optimal imitation strategies | |
Jaeger | Using conceptors to manage neural long-term memories for temporal patterns | |
CN109829541A (zh) | 基于学习自动机的深度神经网络增量式训练方法及系统 | |
CN110490035A (zh) | 人体骨架动作识别方法、系统及介质 | |
CN110653824B (zh) | 基于概率模型的机器人离散型轨迹的表征与泛化方法 | |
CN101241600A (zh) | 一种运动捕捉技术中的链状骨骼匹配方法 | |
Jetchev et al. | Task Space Retrieval Using Inverse Feedback Control. | |
Zhang et al. | Learning accurate and stable point-to-point motions: A dynamic system approach | |
Namasivayam et al. | Learning neuro-symbolic programs for language guided robot manipulation | |
Atoofi et al. | Learning of central pattern generator coordination in robot drawing | |
Zhang et al. | Feature space decomposition for effective robot adaptation | |
Abdelrahman et al. | Context-aware task execution using apprenticeship learning | |
Reinhart et al. | Efficient policy search in low-dimensional embedding spaces by generalizing motion primitives with a parameterized skill memory | |
Petrović et al. | Efficient machine learning of mobile robotic systems based on convolutional neural networks | |
Chen | Neural networks in pattern recognition and their applications | |
Jang et al. | Observational learning algorithm for an ensemble of neural networks | |
CN116258818A (zh) | 一种三维仿生生成物的设计系统 | |
Kalithasan et al. | Learning neuro-symbolic programs for language guided robot manipulation | |
Watt et al. | Neuro-augmented vision for evolutionary robotics | |
Chen | Efficient movement representation and prediction with machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |