CN109664300A - 一种基于力觉学习的机器人多风格书法临摹方法 - Google Patents

一种基于力觉学习的机器人多风格书法临摹方法 Download PDF

Info

Publication number
CN109664300A
CN109664300A CN201910018351.8A CN201910018351A CN109664300A CN 109664300 A CN109664300 A CN 109664300A CN 201910018351 A CN201910018351 A CN 201910018351A CN 109664300 A CN109664300 A CN 109664300A
Authority
CN
China
Prior art keywords
robot
calligraphic
style
stroke
writing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910018351.8A
Other languages
English (en)
Other versions
CN109664300B (zh
Inventor
李明富
刘真兴
曾令城
吴帆
谢思晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiangtan University
Original Assignee
Xiangtan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiangtan University filed Critical Xiangtan University
Priority to CN201910018351.8A priority Critical patent/CN109664300B/zh
Publication of CN109664300A publication Critical patent/CN109664300A/zh
Application granted granted Critical
Publication of CN109664300B publication Critical patent/CN109664300B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0019End effectors other than grippers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)

Abstract

本发明提供了一种基于力觉学习的机器人多风格书法临摹方法,属于工业机器人控制及应用领域;其包括有多风格标准字库模块、书法风格识别模块、笔画信息提取模块、机器人关节轨迹规划模块;本发明通过采集力信号提取不同书法风格的特征,利用卷积神经网络学习书法风格,使用图像处理算法获取笔画信息,并将对应风格的用力特征和笔画信息转换成为机器人末端轨迹;采用本发明的技术方案,通过对几个标准字的模仿学习,可以在保留原作品的风格特征的前提下,实现机器人对输入的书法图像进行临摹的目的。

Description

一种基于力觉学习的机器人多风格书法临摹方法
技术领域
本发明涉及机器人轨迹规划领域,更具体地,涉及一种基于力觉学习的机器人多风格书法临摹方法。
背景技术
书法作为中华传统艺术中最为重要的一个组成部分,书法的传承与发展的重要性不言而喻。然而随着智能制造的推进,机器人技术快速发展,工业机器人作为一种面向工业领域的多自由度的机械装置,可以进行编程并自动执行特定的动作,在近年来已经大量应用于生产中,可以在较为恶劣的环境下进行喷涂、焊接和铣削等工作,具有较为广泛的应用前景。目前书法机器人仅通过图像分析来对机器人进行轨迹规划,没有考虑到下笔力度对书法效果的影响,为了更好的保留不同风格的书法特征,亟需一种结合力觉的机器人书法方法。
发明内容
为了解决上述问题,本发明旨在公开一种基于力觉学习的机器人多风格书法临摹方法,尤指一种基于机器学习对书法风格的分类与提取轨迹特征、书法力信息提取与机器人复现书法过程的解决方法。
为了实现上述目的,本发明所采用的技术方案主要包括以下过程:
步骤1、建立工业机器人的运动学模型,得到工业机器人的运动学正解与逆解,并设计一种能够固定在力传感器上的毛笔夹持工具,装配在机器人末端法兰盘上,并通过四点法标定得到机器人工具坐标系,通过三点法标定得到机器人工件坐标系;
所述一种能够固定在力传感器上的毛笔夹持工具,其三维模型参考图2,法兰盘(1) 可以固定在力传感器的感应区域的法兰盘上,松紧夹(2)可以通过螺栓螺母的松紧度调节松紧度,坐标系标定的工具坐标系中心点在毛笔笔尖处,工件坐标系中心点在宣纸的起始落笔点;
所述四点法为机器人末端装上夹持工具夹持毛笔,在机器人附近找一点,使工具中心点对准该点,保持工具中心点的位置,更换夹具的姿态,共记录四次,即可自动生成工具坐标系的参数,得到工具坐标系标定结果;
所述三点法为机器人末端装上夹持工具夹持毛笔,将毛笔笔尖对齐书写平面,通过示教三个示教点实现,第一个示教点是用户坐标系的原点,第二个示教点在X轴上,第一个示教点到第二个示教点的连线是X轴,所至方向为X正方向;第三个示教点在Y轴的正方向,示教完这三个点即可自动生成工件坐标系的参数,得到工件坐标系的标定结果;
步骤2、所述的多风格标准字库是通过机器学习的多元回归算法对力传感器信号进行拟合,来建立不同书法风格下的标准字库;
所述多风格标准字库的模块,通过手持加载了夹持工具的力传感器,进行不同风格书法字体几个标准字的书写,选用的标准字须能包含该风格下大部分笔画的书写特征,例如:玉、火、玉、七、永、田、心、少、之等,并按照50至300Hz的频率采集竖直方向上的力传感器的信号数据,力传感器信号数据参考图3;
通过使用机器学习库Scikit-learn的Sklearn.Preprocessing.PolynomialFeature s这个类对力传感器数据进行训练、评价,并将采集信号序列号除以采集信号的总数量来得到每个信号对应的时间百分比,从而得出力关于时间百分比的多元回归模型,并采用四个评价指标对该多元回归模型进行评价;
所述四个评价指标为:
SSE=∑(actual_y-predict_y)2
公式(1)中actual_y为实际信号反馈出来的力的值,predict_y为通过该回归模型预测的值,SSE为和方差,RMSE为均方根,R为决定系数R-Square,R2_adjusted为校正决定系数Adjusted R-Square;
通过机器人Frame示教,记录下笔尖恰好触碰到纸面的世界坐标系位置,使机器人朝 Z方向向下移动,并记录下ΔZ与Fz的对应关系,并使用相同的方法得出其回归模型。至此,可以得出从开始落笔到写完提笔过程中每个时间点的下笔深度,从而建立机器人书法的多风格标准字库;
步骤3、所述书法风格识别模块通过Tensorflow搭建卷积神经网络,实现书法风格识别模块;
数据集是不同书法家的碑帖中采集的数据集,该数据集包含了从十个著名书法家的碑帖中采集的图片,其中欧阳询的部分楷书书写数据集参考图4,;
所述卷积神经网络的结构由10层网络结构(不包括Flatten层)组成:四个卷积层,四个池化层,两个全连接层,参考图5;
第一、三、五、七层是卷积层,卷积核的个数分别为64、128、256、512,卷积核的大小为3*3;
第二、四、六、八层是池化层,都是采用一个2*2的filter,池化策略采取的是maxpooling,即在每一个区域中寻找最大值;
第九、十层是全连接层,都加入了dropout防止过拟合,第九层使用的激活函数为Relu函数,第十层没有使用激活函数;
所述激活函数为:
公式(2)中,x为输入,为输出,之所以使用Relu作为激活函数是因为ReLU 得到的SGD(Stochastic Gradient Descent随机最速下降法)的收敛速度会比sigmoid和tanh快很多;
可以通过GPU加速技术对这个网络结构对该数据集进行加速训练,这个网络结构在书法风格识别上能取得较高的准确率,同时具有不错的泛化能力;
步骤4、笔画信息提取模块通过Opencv对书法图像做预处理,包括二值化、去噪、灰度反转、中值滤波、图像细化得到字体的骨架,再按照笔画信息提取策略提取出骨架化后的笔画顺序和各笔画的起始终止点,参考图6。
所述图像细化算法为:
设已知目标点为1,背景点标记为0。定义边界点本身标记为1,而其8-连通邻域中至少有一个标记为0的点。
其细化算法具体步骤为:
考虑以边界点为中心的8-邻域,记中心为点p1,其邻域的8个点顺时针绕中心点分别标记为p2,p3,…,p9,其边界点满足其中两种条件之一即可标记:
条件一为:
2≤N(p1)≤6,
S(p1)=1,
p2×p4×p6=0,
p4×p6×p8=0
条件二为:
2≤N(p1)≤6,
S(p1)=1,
p2×p4×p8=0,
p2×p6×p8=0
其中N(p1)是p1的非零临点的个数,S(p1)是以p2,p3,....p9为序时这些点的至从0到1变化的次数,当所有边界点都检验完毕后,会把所有标记的点除去。此方法称为细化算法。
所述笔画信息提取策略如下:
对于无笔画交叉的字体,采取从上到下,再从左到右的顺序依次提取该字体图像的像素点坐标值;对于有笔画交叉的字体,如果该字体是有偏旁部首的字体,先对字体进行连通区域的划分,划分为偏旁和部首两部分,遍历第一个点的八邻域像素来判断下一个点的走势,当遇到第一个分叉点的时候,提取每个分叉路线之后的5个点来计算其平均走势,与原路线最为接近的即为下一笔画的路线;
根据细化算法提取出来的点,根据笔画走势,将其分为点、横、竖、撇、捺等几个基本笔画,并能得出每个笔画的起始点和终止点,即得到书法的笔画信息;
步骤5、所述机器人关节轨迹规划模块,即结合力信号数据和图像笔画信息提取模块提取的笔画信息转换成世界坐标,按照五次多项式插值对机器人进行轨迹规划;
所述力信号数据和笔画信息转换成世界坐标的方法是:
先将笔画信息提取模块中提取出来的像素坐标,根据图像的分辨率,按照不同的比例转换成为世界坐标系中XOY平面上的轨迹,结合多风格标准字库模块中对应风格的字库拆解成笔画的用力特征,即步骤4中机器人末端Z方向上的轨迹,可以得到机器人末端的轨迹,然后按照五次多项式插值的方法对该汉字书写进行轨迹规划。
五次多项式插值的方法如下:
θ(t)=a0+a1t+a2t2+a3t3+a4t4+a5t5 (3)
对公式(3)分别关于时间求一次导数和二次导数可以得出关节角速度和关节角加速度的函数表达式,并用t0和tn分别代表各插补之间的起始点和结束点的时间点,则可以得出如下方程组:
θ(t0)=a0+a1t0+a2t0 2+a3t0 3+a4t0 4+a5t0 5
θ(tn)=a0+a1tn+a2tn 2+a3tn 3+a4tn 4+a5tn 5
对公式(4)中的方程组求解可得五次多项式的六个系数,再代入边界条件, 可以解得五次多项式插值的角度、角速度和角加速度的表达式:
步骤6、将机器人关节轨迹规划模块得到的机器人关节轨迹信息发送给机器人驱动器。
附图说明
图1是本发明提出的一种基于力觉学习的机器人多风格书法临摹方法的流程图;
图2是本发明提出的一种能够固定在力传感器上的夹持毛笔的工具三维模型参考图;
图3是通过手持采集到的楷书“玉”字的部分力传感器信号图;
图4是书法风格数据集中欧阳询楷书的部分数据图;
图5是本发明使用的10层卷积神经网络结构图;
图6是汉字细化后的图像骨架图;
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图详细说明本发明的具体实施方式:
参考图1,本发明公开了一种基于力觉学习的机器人多风格书法临摹方法,其包括有多风格标准字库、书法风格识别模块、笔画信息提取模块、机器人关节轨迹规划模块。具体的实施主要步骤如下:
步骤1、建立工业机器人的运动学模型,得到工业机器人的运动学正解与逆解,并设计一种能够固定在力传感器上的毛笔夹持工具,通过四点法标定得到机器人工具坐标系,通过三点法标定得到机器人工件坐标系;
所述一种能够固定在力传感器上的毛笔夹持工具,其三维模型参考图2,法兰盘(1) 可以固定在力传感器的感应区域的法兰盘上,松紧夹(2)可以通过螺栓螺母的松紧度调节松紧度,坐标系标定的工具坐标系中心点在毛笔笔尖处,工件坐标系中心点在宣纸的起始落笔点;
所述运动学模型是指通过建立D-H参数表建立机器人各个连杆的坐标系,通过坐标系变换矩阵推导出运动学正解,通过Pieper准则推导出运动学逆解;
所述四点法为机器人末端装上夹持工具夹持毛笔,在机器人附近找一点,使工具中心点对准该点,保持工具中心点的位置,更换夹具的姿态,共记录四次,即可自动生成工具坐标系的参数,得到工具坐标系标定结果;
所述三点法为机器人末端装上夹持工具夹持毛笔,将毛笔笔尖对齐书写平面,通过示教三个示教点实现,第一个示教点是用户坐标系的原点,第二个示教点在X轴上,第一个示教点到第二个示教点的连线是X轴,所至方向为X正方向;第三个示教点在Y轴的正方向,示教完这三个点即可自动生成工件坐标系的参数,得到工件坐标系的标定结果;
步骤2、通过机器学习的多元回归算法来建立多风格标准字库;
通过手持加载了夹持工具的力传感器,进行不同书法风格几个标准字的书写,选用的标准字须能包含该风格下大部分笔画的书写特征,例如:玉、火、玉、七、永、田、心、少、之等,并按照50至300Hz的频率采集竖直方向上的力传感器的信号数据,通过手持采集到的楷书“玉”字的部分力传感器信号参考图3;
通过使用机器学习的PolynomialFeatures方法对力传感器数据进行训练、评价,并将采集信号序列号除以采集信号的总数量来得到每个信号对应的时间百分比,从而得出力关于时间百分比的多元回归模型,并采用四个评价指标(S、RMSE、R-Square、R2-adjustd)对该多元回归模型进行评价;
通过机器人Frame示教,记录下笔尖恰好触碰到纸面的世界坐标系位置,使机器人朝 Z方向向下移动,并记录下ΔZ与Fz的对应关系,并使用相同的方法得出其回归模型。至此,可以得出从开始落笔到写完提笔过程中每个时间点的下笔深度,即机器人末端Z的轨迹;
步骤3、通过Tensorflow搭建卷积神经网络实现书法风格识别模块;
所述卷积神经网络的结构由10层网络结构(不包括Flatten层)组成:四个卷积层,四个池化层,两个全连接层,参考图5;
第一、三、五、七层是卷积层,卷积核的个数分别为64、128、256、512,卷积核的大小为3*3;
第二、四、六、八层是池化层,都是采用一个2*2的filter,池化策略采取的是maxpooling,即在每一个区域中寻找最大值;
第九、十层是全连接层,都加入了dropout防止过拟合,第九层使用的激活函数为Relu函数,第十层没有使用激活函数;
可以通过GPU加速技术对这个网络结构对该数据集进行加速训练,这个网络结构在书法风格识别上能取得较高的准确率,同时具有不错的泛化能力;
步骤4、执行笔画信息提取模块;
对获取的书法图像进行二值化、去噪,然后将预处理后的图像进行灰度反转,中值滤波,再使用细化算法对图像进行细化,得到骨架。具体骨架化步骤为:
S1、设已知目标点为1,背景点标记为0。定义边界点本身标记为1,而其8-连通邻域中至少有一个标记为0的点;
S2、考虑以边界点为中心的8-邻域,记中心为点p1,其邻域的8个点顺时针绕中心点分别标记为p2,p3,…,p9;
S3、边界点满足其中两种条件之一即可标记,条件一为:2≤N(p1)≤6、S(p1)= 1、p2×p4×p6=0、p4×p6×p8=0;条件二为:2≤N(p1)≤6、S(p1)=1、p2×p4× p8=0、p2×p6×p8=0。其中N(p1)是p1的非零临点的个数,S(p1)是以p2,p3,....p 9为序时这些点的至从0到1变化的次数;
S4、当所有边界点都检验完毕后,会把所有标记的点除去。
所述笔画信息提取策略如下:
S1、对于无笔画交叉的字体,采取从上到下,再从左到右的顺序依次提取该字体图像的像素点坐标值;
S2、对于有笔画交叉的字体,如果该字体是有偏旁部首的字体,先对字体进行连通区域的划分,划分为偏旁和部首两部分,遍历第一个点的八邻域像素来判断下一个点的走势,当遇到第一个分叉点的时候,提取每个分叉路线之后的5个点来计算其平均走势,与原路线最为接近的即为下一笔画的路线;
S3、根据细化算法提取出来的点,根据笔画走势,将其分为点、横、竖、撇、捺等几个基本笔画,并能得出每个笔画的起始点和终止点,并通过步骤3中识别得到的汉字风格从步骤2的机器人多风格标准字库中提取相应风格的笔画结合,可以得到机器人的末端轨迹。
步骤5、执行机器人关节轨迹规划模块;
先将笔画信息提取模块中提取出来的像素坐标,根据图像的分辨率,按照不同的比例转换成为世界坐标系中XOY平面上的轨迹,结合多风格标准字库模块中对应风格的字库拆解成笔画的用力特征,即步骤4中机器人末端Z方向上的轨迹,可以得到机器人末端的轨迹,然后使用五次多项式θ(t)=a0+a1t+a2t2+a3t3+a4t4+a5t5对机器人进行轨迹规划;对该五次多项式分别关于时间求一次导数和二次导数可以得出关节角速度和关节角加速度的函数表达式,并用t0和tn分别代表各插补之间的起始点和结束点的时间点,再代入边界条件,可以解得五次多项式插值的角度、角速度和角加速度的表达式;
步骤6、将机器人关节轨迹规划模块得到的机器人关节轨迹信息发送给机器人驱动器。

Claims (7)

1.一种基于力觉学习的机器人多风格书法临摹方法,其特征在于以下几个步骤:
步骤1、建立工业机器人的运动学模型,得到工业机器人的运动学正解与逆解,设计一种能够固定在力传感器上的毛笔夹持工具,并安装在机器人末端法兰盘上,标定得到机器人工具坐标系和工件坐标系;
步骤2、建立多风格标准字库,通过采集标准字的书写力信号,获取不同风格字体的书写特征;
步骤3、构建书法风格识别模块,采用卷积神经网络对书法风格进行学习;
步骤4、建立笔画信息提取模块,对输入的书法图像进行处理,提取图像骨架,按照笔画信息提取策略提取出笔画顺序和各笔画的起始和终止点;
步骤5、创建机器人关节轨迹规划模块,将对应风格的用力特征和笔画信息提取转换成世界坐标,按照多项式插值对机器人进行轨迹规划;
步骤6、将机器人关节轨迹规划模块得到的机器人关节轨迹信息发送给机器人驱动器,实现保留原书写风格的临摹。
2.根据权利要求1中所述的基于力觉学习的机器人多风格书法临摹方法,其特征在于:所述步骤1中,一种能够固定在力传感器上的毛笔夹持工具,参考图2,法兰盘(1)可以固定在力传感器的感应区域的法兰盘上,松紧夹(2)可以通过螺栓螺母调节松紧度;所述坐标系标定的工具坐标系中心点在毛笔笔尖处,工件坐标系中心点在宣纸的起始落笔点。
3.根据权利要求1中所述的基于力觉学习的机器人多风格书法临摹方法,其特征在于:所述步骤2中,采集标准字的书写力信号的方法是通过步骤1中设计的能够固定在力传感器上的毛笔夹持工具,人手持毛笔进行不同风格下具有代表性的10至20个标准字,选用的标准字为“玉”、“火”、“宝”、“七”、“永”、“田”、“心”、“少”、“之”、“与”、“也”、“此”等能涵盖该风格下大部分笔画特征的汉字,并按照50至300Hz的频率采集竖直方向上的力传感器的信号数据。
4.根据权利要求1中所述的基于力觉学习的机器人多风格书法临摹方法,其特征在于:所述步骤2中,多风格标准字库建立方法是通过机器学习的多元回归算法对手写标准字的力传感器信号数据进行拟合,得到该书法风格书写过程中下笔力度大小随时间的变化情况,再通过机器人笛卡尔空间示教得到力度与下笔深度的关系,从而得到该书法风格在不同位置的下笔深度,即获得了该风格下各汉字的机器人书写末端Z方向上的轨迹。
5.根据权利要求1中所述的基于力觉学习的机器人多风格书法临摹方法,其特征在于:所述步骤3中,对书法风格进行学习的输入数据集为从不同书法家的碑帖中采集的图片数据,输出为不同书法风格的相应编码,使用的卷积神经网络结构由四个卷积层,四个池化层,两个全连接层组成;第一、三、五、七层是卷积层;第二、四、六、八层是池化层,池化策略采取的是最大池化;第九、十层是全连接层,并加入了dropout层防止过拟合,第九层使用的激活函数为Relu函数,第十层不使用激活函数,参考图4。
6.根据权利要求1中所述的基于力觉学习的机器人多风格书法临摹方法,其特征在于:所述步骤4中,所述的笔画信息提取模块中的笔画信息提取策略是指根据细化算法提取出来的像素点,按照从上到下、从左到右的规则提取出第一个点,然后遍历八邻域像素得到第一个笔画的起始点和终止点,如果有笔画交叉,提取每个分叉路线之后的5至10个点来计算其平均走势,与原路线最为接近的即为下一笔画的路线,并根据该笔画走势和长度,将其分为点、横、竖、撇、捺等几个基本笔画,即得到该书法图像的笔画信息。
7.根据权利要求1中所述的基于力觉学习的机器人多风格书法临摹方法,其特征在于:所述步骤5中,力信号数据和笔画信息转换成机器人末端笛卡尔坐标的方法是先根据图像的分辨率,将从笔画信息中提取出来的像素坐标,按照不同的比例转换成为世界坐标系中XOY平面上的轨迹,结合对应书法风格的用力特征,即机器人末端Z方向上的轨迹,综合起来就可以得到机器人末端的笛卡尔空间XYZ轨迹,然后按照多项式插值的方法对该汉字书写进行轨迹规划。
CN201910018351.8A 2019-01-09 2019-01-09 一种基于力觉学习的机器人多风格书法临摹方法 Active CN109664300B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910018351.8A CN109664300B (zh) 2019-01-09 2019-01-09 一种基于力觉学习的机器人多风格书法临摹方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910018351.8A CN109664300B (zh) 2019-01-09 2019-01-09 一种基于力觉学习的机器人多风格书法临摹方法

Publications (2)

Publication Number Publication Date
CN109664300A true CN109664300A (zh) 2019-04-23
CN109664300B CN109664300B (zh) 2021-01-15

Family

ID=66149403

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910018351.8A Active CN109664300B (zh) 2019-01-09 2019-01-09 一种基于力觉学习的机器人多风格书法临摹方法

Country Status (1)

Country Link
CN (1) CN109664300B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110095410A (zh) * 2019-05-07 2019-08-06 西北核技术研究所 靶板穿孔毁伤特征测量方法、系统及弹道偏转测量方法
CN110164238A (zh) * 2019-06-25 2019-08-23 西北大学 一种用于书法训练的智能系统及工作方法
CN110271016A (zh) * 2019-06-27 2019-09-24 华南理工大学 一种基于边界与力反馈的机械臂书法书写系统及方法
CN110444187A (zh) * 2019-07-31 2019-11-12 温州市动宠商贸有限公司 一种基于书法的古筝背景音乐控制系统
CN110695995A (zh) * 2019-10-11 2020-01-17 星际(重庆)智能装备技术研究院有限公司 一种基于深度学习的机器人书法方法
CN110782710A (zh) * 2019-09-20 2020-02-11 厦门快商通科技股份有限公司 一种基于机器人实现的书写教学方法及装置
CN110900598A (zh) * 2019-10-15 2020-03-24 合肥工业大学 机器人三维运动空间动作模仿学习方法和系统
CN111152234A (zh) * 2019-12-27 2020-05-15 深圳市越疆科技有限公司 用于机器人的书法临摹方法、装置及机器人
CN111178019A (zh) * 2019-12-30 2020-05-19 深圳市越疆科技有限公司 基于语音控制的机器人文字书写方法、装置和系统
CN111185902A (zh) * 2019-12-30 2020-05-22 深圳市越疆科技有限公司 基于视觉识别的机器人文字书写方法、装置和书写系统
WO2021072905A1 (zh) * 2019-10-16 2021-04-22 北京方正手迹数字技术有限公司 字库生成方法、装置、电子设备及存储介质
CN112959320A (zh) * 2021-02-08 2021-06-15 广州富港万嘉智能科技有限公司 控制机械手自动书写的方法及装置、机械手、系统
CN112975958A (zh) * 2021-02-08 2021-06-18 广州富港万嘉智能科技有限公司 文字的笔顺的路径点生成方法及装置、机械手控制系统
CN112989899A (zh) * 2019-12-18 2021-06-18 湖南创乐博智能科技有限公司 一种基于写字机器人的可书写个性化字体的方法
CN117830044A (zh) * 2024-03-04 2024-04-05 江苏汉丹云教育科技有限公司 一种基于云计算的互动教学数据管理系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105117741A (zh) * 2015-09-28 2015-12-02 上海海事大学 一种书法字风格的识别方法
CN105956601A (zh) * 2016-04-15 2016-09-21 北京工业大学 一种基于轨迹模仿的机器人汉字书写学习方法
CN106003033A (zh) * 2016-06-16 2016-10-12 哈尔滨工程大学 一种具有力控制的六自由度机械臂标准汉字书写方法
CN107088882A (zh) * 2017-06-18 2017-08-25 闾天驰 机器人拟人笔迹书写系统及其控制方法
CN108237544A (zh) * 2018-03-15 2018-07-03 北京化工大学 一种人工智能的书法机器人
CN108764054A (zh) * 2018-04-27 2018-11-06 厦门大学 基于生成式对抗网络的机器人书写书法的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105117741A (zh) * 2015-09-28 2015-12-02 上海海事大学 一种书法字风格的识别方法
CN105956601A (zh) * 2016-04-15 2016-09-21 北京工业大学 一种基于轨迹模仿的机器人汉字书写学习方法
CN106003033A (zh) * 2016-06-16 2016-10-12 哈尔滨工程大学 一种具有力控制的六自由度机械臂标准汉字书写方法
CN107088882A (zh) * 2017-06-18 2017-08-25 闾天驰 机器人拟人笔迹书写系统及其控制方法
CN108237544A (zh) * 2018-03-15 2018-07-03 北京化工大学 一种人工智能的书法机器人
CN108764054A (zh) * 2018-04-27 2018-11-06 厦门大学 基于生成式对抗网络的机器人书写书法的方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110095410A (zh) * 2019-05-07 2019-08-06 西北核技术研究所 靶板穿孔毁伤特征测量方法、系统及弹道偏转测量方法
CN110095410B (zh) * 2019-05-07 2021-10-08 西北核技术研究所 靶板穿孔毁伤特征测量方法、系统及弹道偏转测量方法
CN110164238A (zh) * 2019-06-25 2019-08-23 西北大学 一种用于书法训练的智能系统及工作方法
CN110164238B (zh) * 2019-06-25 2020-12-22 西北大学 一种用于书法训练的智能系统及工作方法
CN110271016A (zh) * 2019-06-27 2019-09-24 华南理工大学 一种基于边界与力反馈的机械臂书法书写系统及方法
CN110444187A (zh) * 2019-07-31 2019-11-12 温州市动宠商贸有限公司 一种基于书法的古筝背景音乐控制系统
CN110782710A (zh) * 2019-09-20 2020-02-11 厦门快商通科技股份有限公司 一种基于机器人实现的书写教学方法及装置
CN110695995A (zh) * 2019-10-11 2020-01-17 星际(重庆)智能装备技术研究院有限公司 一种基于深度学习的机器人书法方法
CN110900598A (zh) * 2019-10-15 2020-03-24 合肥工业大学 机器人三维运动空间动作模仿学习方法和系统
CN110900598B (zh) * 2019-10-15 2022-09-23 合肥工业大学 机器人三维运动空间动作模仿学习方法和系统
WO2021072905A1 (zh) * 2019-10-16 2021-04-22 北京方正手迹数字技术有限公司 字库生成方法、装置、电子设备及存储介质
CN112989899A (zh) * 2019-12-18 2021-06-18 湖南创乐博智能科技有限公司 一种基于写字机器人的可书写个性化字体的方法
CN111152234A (zh) * 2019-12-27 2020-05-15 深圳市越疆科技有限公司 用于机器人的书法临摹方法、装置及机器人
CN111178019A (zh) * 2019-12-30 2020-05-19 深圳市越疆科技有限公司 基于语音控制的机器人文字书写方法、装置和系统
CN111185902A (zh) * 2019-12-30 2020-05-22 深圳市越疆科技有限公司 基于视觉识别的机器人文字书写方法、装置和书写系统
CN112975958A (zh) * 2021-02-08 2021-06-18 广州富港万嘉智能科技有限公司 文字的笔顺的路径点生成方法及装置、机械手控制系统
CN112959320A (zh) * 2021-02-08 2021-06-15 广州富港万嘉智能科技有限公司 控制机械手自动书写的方法及装置、机械手、系统
CN117830044A (zh) * 2024-03-04 2024-04-05 江苏汉丹云教育科技有限公司 一种基于云计算的互动教学数据管理系统及方法
CN117830044B (zh) * 2024-03-04 2024-05-17 江苏汉丹云教育科技有限公司 一种基于云计算的互动教学数据管理系统及方法

Also Published As

Publication number Publication date
CN109664300B (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
CN109664300A (zh) 一种基于力觉学习的机器人多风格书法临摹方法
Chao et al. A robot calligraphy system: From simple to complex writing by human gestures
CN110599573B (zh) 一种基于单目相机的人脸实时交互动画的实现方法
Mohan et al. Teaching a humanoid robot to draw ‘Shapes’
CN108460369A (zh) 一种基于机器视觉的绘图方法及系统
CN109993073B (zh) 一种基于Leap Motion的复杂动态手势识别方法
CN108764054A (zh) 基于生成式对抗网络的机器人书写书法的方法
CN106737692A (zh) 一种基于深度投影的机械手爪抓取规划方法及控制装置
Jenkins et al. Primitive-based movement classification for humanoid imitation
CN111475667A (zh) 一种基于手写汉字的机械臂楷体风格书法撰写方法
CN108044625B (zh) 一种基于多Leapmotion虚拟手势融合的机器人机械臂操控方法
CN111125403B (zh) 一种基于人工智能的辅助设计绘图方法及系统
CN103020085A (zh) 一种个人风格化书法动态字库的实现方法及其应用
Chao et al. Robotic free writing of Chinese characters via human–robot interactions
Liang et al. A robot calligraphy writing method based on style transferring algorithm and similarity evaluation
CN108628455B (zh) 一种基于触摸屏手势识别的虚拟沙画绘制方法
CN116957866A (zh) 一种数字人教师个性化教学装置
Berio et al. Dynamic graffiti stylisation with stochastic optimal control
Shidujaman et al. “roboquin”: A mannequin robot with natural humanoid movements
Wang et al. Labanotation generation from motion capture data for protection of folk dance
CN108908353A (zh) 基于平滑约束逆向机械模型的机器人表情模仿方法及装置
CN108320326A (zh) 一种针对人手部的三维建模方法
Wu et al. A developmental evolutionary learning framework for robotic chinese stroke writing
Yang et al. Explicit-to-implicit robot imitation learning by exploring visual content change
Hsu et al. A chinese calligraphy-writing robotic system based on image-to-action translations and a hypothesis generation net

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant