CN113190161A - 一种基于卷积神经网络的电子书写练习方法 - Google Patents

一种基于卷积神经网络的电子书写练习方法 Download PDF

Info

Publication number
CN113190161A
CN113190161A CN202110451475.2A CN202110451475A CN113190161A CN 113190161 A CN113190161 A CN 113190161A CN 202110451475 A CN202110451475 A CN 202110451475A CN 113190161 A CN113190161 A CN 113190161A
Authority
CN
China
Prior art keywords
sample
writing
pen
neural network
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110451475.2A
Other languages
English (en)
Inventor
袁存鼎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuxi Le Chi Technology Co ltd
Original Assignee
Wuxi Le Chi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuxi Le Chi Technology Co ltd filed Critical Wuxi Le Chi Technology Co ltd
Priority to CN202110451475.2A priority Critical patent/CN113190161A/zh
Publication of CN113190161A publication Critical patent/CN113190161A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B11/00Teaching hand-writing, shorthand, drawing, or painting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于卷积神经网络的电子书写练习方法,该方法属于书法学领域。所述一种基于卷积神经网络的电子书写练习方法是将传统电子书写获得的结果根据运笔数据对真实的书写效果进行学习,建立真实笔与电容笔之间的联系,并将运笔数据作用在传统电子书写方式上,使触摸设备能够体现更加具有真实性的书写内容,从而解决电容笔的书写无法提供真实笔的书写带来的效果,本方法可以帮助练习者更好的认识自己的书写练习程度,掌握运笔规律,改进书写方式,从而提升书法水平。

Description

一种基于卷积神经网络的电子书写练习方法
技术领域
本发明涉及书法学领域,特别是涉及一种基于卷积神经网络的电子书写练习 方法。
背景技术
书法文化,书法是中国古典艺术的一件瑰宝,在世界各国文字书写中,没有 任何其他文字的书写,像汉字的书写一样,最终发展成为一种独特的艺术形式, 并且源远流长,中国五千年璀璨的文明及无与伦比的丰富文字记载都已为世人 所认可。
书法的练习无疑是学习中国文化中相当重要的一环,硬笔字中的藏锋、露锋、 逆锋、中锋、转锋、回锋、提、按、顿、驻、挫、转,每一个书写手法都会对书 写效果产生不同的影响。
受环境场地影响,毛笔书法不能随时随地进行练习,需要准备毛笔,墨汁, 宣纸,砚台和笔洗等工具,硬笔书法同理,随身携带练习工具为日常的训练也带 来了很大的不便性,训练的时间场地都受到了限制,对书法爱好者提高技艺造成 一定的困扰和经济上的压力。
对于这一问题,现有的技术已经可以很成熟的解决书写练习的场地和硬件设 备等条件的困扰,利用触摸设备和电容笔可以满足练习者随时随地的练习需求, 但是现有技术中是利用电容笔的笔尖在触摸设备上接触通过电磁反应在对应位 置显示着色情况。这种方式对真正的书法练习是欠缺真实性效果的,例如在硬 笔字中,“竖”这个笔画可以继续细分为悬针竖或者垂落竖,两种写法在练习者的 书写力度、书写速度等不同运笔方法的效果下的体现显然是不同的,但是传统的 书法练习工具,只能按照规定样式将其显示为“竖”,因此,现有的电子书法练习 方法缺少了对真实性的关联,采用传统的电子书法练习方法进行书写练习不容 易反馈书写内容的真实效果,从而无法为练习者提供更好的练习建议。
发明内容
为了解决上述传统电子书写设备中存在的问题,本发明提出了一种基于卷积 神经网络的电子书写练习方法,将传统电子书写获得的结果根据运笔数据对真 实的书写效果进行学习,建立真实笔与电容笔之间的联系,并将运笔数据作用在 传统电子书写方式上,使触摸设备能够体现更加具有真实性的书写内容。
鉴于以上情况,本发明提出了一种基于卷积神经网络的电子书写练习方 法,包括以下步骤:
步骤1:采集常规方式书写下的第一样本,
步骤2:获取利用触摸设备书写方式下的第二样本,
步骤3:获取步骤2所述触摸设备书写方式下的运笔数据;
步骤4:利用卷积神经网络对步骤1-步骤3的样本和数据进行训练,获取对应 关系;
步骤5:根据步骤4所述对应关系生成书写练习映射。
优选地,步骤1所述常规书写方式包括但不限于硬笔书写和毛笔书写,步骤 1所述第一样本为常规书写方式下的图片样本,步骤2所述第二样本为触摸设备 书写方式下的图片样本,步骤3所述运笔数据包括但不限于由触摸设备获取并 反馈的书写速度、书写时间、笔尖压力和书写路径,对于每一个用户而言,字迹 的不同取决于书写习惯的不同,而书写习惯即由每个用户的运笔数据决定,参考 笔迹鉴定方法,本发明所涉及的第一样本和第二样本为同一用户在采取不同形 式下书写而成的图片样本,因此同一用户书写的第一样本和第二样本具有一致 性。
优选地,步骤4所述训练方法包括:
步骤401:对相同内容的第一样本和第二样本进行预处理,所述预处理包 括:a、将第一样本和第二样本按照相同图片大小进行存储,选取两个样本的 同一显著特征点标记为原点后,分别获取第一样本和第二样本中的每个特征点 的坐标,
b、获取第一样本和第二样本的书写路径的轨迹坐标,用以判断笔锋方向,第 一样本的运动轨迹为同一笔画两侧对应点坐标的中点坐标构成的轨迹,例如对 于某一横,第一样本中任意一处轨迹相对应的两个点的坐标分别为(x1,y1)和 (x1,y2),则其中点坐标为(x1,(y1+y2)/2),第一样本的运动轨迹即为所有 中点坐标值连接形成的曲线,第二样本的笔尖的运动轨迹为笔尖的运动轨迹, c、获取在行笔轨迹相同处的第一样本和第二样本的形变差值,行笔轨迹相同 处的第一样本和第二样本的形变差值即中锋行笔只受运笔数据的影响;
步骤402:通过笔尖压力和书写速度对行笔方向中的形变差值进行训练;
步骤403:由于行笔轨迹不同处的第二样本可以体现逆锋起笔、回锋收笔的 影响,对步骤401中轨迹坐标相异处的第一样本和第二样本进行分析,将第一样 本对第二样本进行覆盖,获取轨迹坐标相异处的路径遍历数,对第二样本进行路 径遍历数的色彩深度叠加;
取任意两处运笔速度相同(定义为v0)的不同轨迹坐标处的色彩深度进行均 值计算,并将其均值定义为基础色深d0,继续获取其余轨迹坐标处的运笔速度 v1,此时对整个样本任意轨迹处的色彩深度d定义为:
d=α*d0*(v0/v1)
其中α代表色彩深度关系系数。
优选地,步骤3所述对应关系为步骤2所述第二样本在步骤3所述运笔数 据下生成的与步骤1所述的第一样本的差值关系,步骤4所述映射为步骤2所 述的第二样本在所述步骤3生成的方法下步生成步骤1所述第一样本的映射, 当通过上述方法计算出第一样本与第二样本的差值关系,并利用卷积神经网络 通过运笔数据训练后,即可获得在不同的运笔数据情况下,任意第二样本对应的 第一样本。
与现有技术相比,本发明具有如下有益效果:通过运笔数据对传统电子书写 方式获得的结果进行训练,通过学习使传统电子书写方式获得的结果与真实书 写获得的结果构建对应联系,形成映射后反馈至触摸设备对传统电子书写方式 获得的结果进行优化,从而构建电子书写与真实书写之间的联系,帮助练习者更 加准确的进行书法的学习。
附图说明
附图1为本发明提出的书写练习方法的流程图
附图2为本发明提出的训练方法的流程图
具体实施方式
为使本发明的技术手段、创作特征、达成目的与功效易于明白了解,下面结 合具体实施方式,进一步阐述本发明。
如图1-2所述,为本发明提出的一种基于卷积神经网络的电子书写练习方 法,包括以下步骤:
步骤1:采集毛笔书写方式书写下的第一样本,
步骤2:获取电容笔在电容屏上书写的第二样本,
步骤3:获取步骤2所述第二样本的书写速度、书写时间、笔尖压力和书写路 径;
步骤4:利用卷积神经网络对步骤1-步骤3的样本和数据进行训练,获取对应 关系,具体为:
步骤401:对相同内容的第一样本和第二样本进行预处理,所述预处理包 括:a、将第一样本和第二样本按照相同图片大小进行存储,选取两个样本的 同一显著特征点标记为原点后,分别获取第一样本和第二样本中的每个特征点 的坐标,
b、获取第一样本和第二样本的书写路径的轨迹坐标,用以判断笔锋方向,第 一样本的运动轨迹为同一笔画两侧对应点坐标的中点坐标构成的轨迹,例如对 于某一横,第一样本中任意一处轨迹相对应的两个点的坐标分别为(x1,y1)和 (x1,y2),则其中点坐标为(x1,(y1+y2)/2),第一样本的运动轨迹即为所有 中点坐标值连接形成的曲线,第二样本的笔尖的运动轨迹为笔尖的运动轨迹, c、获取在行笔轨迹相同处的第一样本和第二样本的形变差值,行笔轨迹相同 处的第一样本和第二样本的形变差值即中锋行笔只受运笔数据的影响;
步骤402:通过笔尖压力和书写速度对行笔方向中的形变差值进行训练;
步骤403:由于行笔轨迹不同处的第二样本可以体现逆锋起笔、回锋收笔的 影响,对步骤401中轨迹坐标相异处的第一样本和第二样本进行分析,将第一 样本对第二样本进行覆盖,获取轨迹坐标相异处的路径遍历数,对第二样本进 行路径遍历数的色彩深度叠加。
步骤5:根据步骤4所述对应关系生成书写练习映射,
当通过上述方法计算出第一样本与第二样本的差值关系,并利用卷积神经网 络通过运笔数据训练后,即可获得在不同的运笔数据情况下,任意第二样本对应 的第一样本。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来 说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技 术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替 换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于卷积神经网络的电子书写练习方法,其特征在于,包括以下步骤:
步骤1:采集常规方式下书写的第一样本;
步骤2:获取利用触摸设备书写方式下的第二样本;
步骤3:获取步骤2所述触摸设备书写方式下的运笔数据;
步骤4:利用神经网络对步骤1-步骤3的样本和数据进行训练,获取对应关系;
步骤5:根据步骤4所述对应关系生成书写练习映射。
2.根据权利要求1所述的一种基于卷积神经网络的电子书写练习方法,其特征在于:步骤1所述常规书写方式包括但不限于硬笔书写和毛笔书写,步骤1所述第一样本为常规书写方式下的图片样本,步骤2所述第二样本为触摸设备书写方式下的图片样本,步骤3所述运笔数据包括但不限于由触摸设备获取并反馈的书写速度、书写时间、笔尖压力和书写路径。
3.根据权利要求2所述的一种基于卷积神经网络的电子书写练习方法,其特征在于,步骤4所述训练方法包括:
步骤401:对相同内容的第一样本和第二样本进行预处理,所述预处理包括:
a、将第一样本和第二样本按照相同图片大小进行存储,
b、获取第一样本和第二样本的书写路径的轨迹坐标,用以判断笔锋方向,
c、获取在行笔轨迹相同处的第一样本和第二样本的形变差值;
步骤402:通过笔尖压力和书写速度对行笔方向中的形变差值进行训练;
步骤403:对步骤401中轨迹坐标相异处的第一样本和第二样本进行分析,将第一样本对第二样本进行覆盖,获取轨迹坐标相异处的路径遍历数,对第二样本进行路径遍历数的色彩深度叠加。
4.根据权利要求1所述的一种基于卷积神经网络的电子书写练习方法,其特征在于:步骤3所述对应关系为步骤2所述第二样本在步骤3所述运笔数据下生成的与步骤1所述的第一样本的差值关系,步骤4所述映射为步骤2所述的第二样本在所述步骤3生成的方法下步生成步骤1所述第一样本的映射。
5.根据权利要求1所述的一种基于卷积神经网络的电子书写练习方法,其特征在于:所述步骤1的第一样本的和所述步骤2的第二样本通过同一夹持部件同步进行输入。
CN202110451475.2A 2021-04-25 2021-04-25 一种基于卷积神经网络的电子书写练习方法 Pending CN113190161A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110451475.2A CN113190161A (zh) 2021-04-25 2021-04-25 一种基于卷积神经网络的电子书写练习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110451475.2A CN113190161A (zh) 2021-04-25 2021-04-25 一种基于卷积神经网络的电子书写练习方法

Publications (1)

Publication Number Publication Date
CN113190161A true CN113190161A (zh) 2021-07-30

Family

ID=76978848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110451475.2A Pending CN113190161A (zh) 2021-04-25 2021-04-25 一种基于卷积神经网络的电子书写练习方法

Country Status (1)

Country Link
CN (1) CN113190161A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070005537A1 (en) * 2005-06-02 2007-01-04 Microsoft Corporation Handwriting recognition using a comparative neural network
CN105247540A (zh) * 2013-06-09 2016-01-13 苹果公司 管理实时手写识别
US20160379048A1 (en) * 2015-06-26 2016-12-29 Arvind Kumar Substitution of handwritten text with a custom handwritten font
CN110443113A (zh) * 2019-06-18 2019-11-12 中国人民解放军军事科学院国防科技创新研究院 一种虚拟现实书写方法、系统和存储介质
CN111462576A (zh) * 2020-04-02 2020-07-28 中科院合肥技术创新工程院 一种书法练习方法、装置及系统
CN112364838A (zh) * 2020-12-09 2021-02-12 佛山市南海区广工大数控装备协同创新研究院 一种利用合成的联机文本图像改进手写ocr性能的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070005537A1 (en) * 2005-06-02 2007-01-04 Microsoft Corporation Handwriting recognition using a comparative neural network
CN105247540A (zh) * 2013-06-09 2016-01-13 苹果公司 管理实时手写识别
US20160379048A1 (en) * 2015-06-26 2016-12-29 Arvind Kumar Substitution of handwritten text with a custom handwritten font
CN110443113A (zh) * 2019-06-18 2019-11-12 中国人民解放军军事科学院国防科技创新研究院 一种虚拟现实书写方法、系统和存储介质
CN111462576A (zh) * 2020-04-02 2020-07-28 中科院合肥技术创新工程院 一种书法练习方法、装置及系统
CN112364838A (zh) * 2020-12-09 2021-02-12 佛山市南海区广工大数控装备协同创新研究院 一种利用合成的联机文本图像改进手写ocr性能的方法

Similar Documents

Publication Publication Date Title
CN104166499B (zh) 笔迹练习系统及练习笔迹自动评测方法
CN108399821A (zh) 一种电子智能辅助书写训练及分析评价系统
CN105046730B (zh) 应用于毛笔的书写笔迹呈现方法和装置
CN106128212A (zh) 基于增强现实技术的书法学习系统及方法
CN106409063A (zh) 一种机器人绘画教学方法、装置及其机器人
CN109886256A (zh) 智能评测设备及系统
US20140030679A1 (en) Art teaching system and related methods
CN103606315B (zh) 一种触摸屏书画练习方法及其练习装置
CN103488415B (zh) 基于纸介质的手书文字和图形识别系统及识别方法
CN104821005B (zh) 可模拟笔势风格的汉字书法作品书写过程动态复现的方法
KR20060084945A (ko) 터치 패드 기반의 붓 효과 생성방법
CN106503756A (zh) 基于图像轮廓化建立汉字笔迹模型的方法
CN1996347A (zh) 一种基于书法图像的可视化重现方法
CN108417111A (zh) 一种汉字书写辅助练习方法
CN109918991A (zh) 基于深度学习的软笔书法临摹评价方法
CN113191309A (zh) 一种手写汉字的识别、评分、纠错方法及系统
CN109189314A (zh) 手写设备的书写引导方法、装置、设备及介质
CN106846972A (zh) 图形绘制训练方法及装置
CN109754644A (zh) 一种基于增强现实技术的教学方法及系统
CN113190161A (zh) 一种基于卷积神经网络的电子书写练习方法
Alvarado et al. Properties of real-world digital logic diagrams
CN104951811B (zh) 应用于毛笔书写的行笔路线识别方法和装置
CN107577412A (zh) 一种基于按压提拿感应的数字书画实现方法及装置
CN112836542B (zh) 基于点阵码的练字方法、系统及计算机可读介质
CN109859565A (zh) 一种生成书法字帖的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 214000 1406 Ping'an wealth center, financial first street, Binhu District, Wuxi City, Jiangsu Province

Applicant after: Wuxi Leqi Technology Co.,Ltd.

Address before: 214000 1406 Ping'an wealth center, financial first street, Binhu District, Wuxi City, Jiangsu Province

Applicant before: Wuxi Le Chi Technology Co.,Ltd.

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination