CN113011341A - 佛经抄写辅助方法、装置、设备及存储介质 - Google Patents

佛经抄写辅助方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113011341A
CN113011341A CN202110301210.4A CN202110301210A CN113011341A CN 113011341 A CN113011341 A CN 113011341A CN 202110301210 A CN202110301210 A CN 202110301210A CN 113011341 A CN113011341 A CN 113011341A
Authority
CN
China
Prior art keywords
transcription
user
information
key point
buddha
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110301210.4A
Other languages
English (en)
Other versions
CN113011341B (zh
Inventor
万欣茹
杨艾琳
陈又新
肖京
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110301210.4A priority Critical patent/CN113011341B/zh
Publication of CN113011341A publication Critical patent/CN113011341A/zh
Application granted granted Critical
Publication of CN113011341B publication Critical patent/CN113011341B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/418Document matching, e.g. of document images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

本发明涉及人工智能领域,公开了一种佛经抄写辅助方法、装置、设备及存储介质,该方法用于对用户辅助用户进行佛经抄写,该方法包括:获取摄像设备拍摄的视频图像和用户抄写经书的手抄本图像;根据预设的姿态估计算法对视频图像进行姿态识别,获得用户的姿态信息;对手抄本图像进行文本识别,得到抄写文本,并将抄写文本和用户抄写经书的原本进行比对,得到抄写信息;根据姿态信息和抄写信息,结合预设的评分权重,对用户的佛经抄写过程进行评分,得到抄写综合评分。本方法通过预设的姿态估计算法和文本识别算法对用户的抄写行为进行综合评分,进而辅助用户进行佛经抄写。此外,本发明还涉及区块链技术,佛经可存储于区块链中。

Description

佛经抄写辅助方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种佛经抄写辅助方法、装置、设备及存储介质。
背景技术
佛经抄写就是用虔诚心、恭敬心把经文逐字抄写下来。抄经的重要功能之一,是藉着抄写经书来净化心灵,因此抄经也是一种修行,需持之以恒。在抄经修禅定的过程也有一些特定要求:1、须字迹工整,书写时切记需净手洁案;2、抄经过程中盘腿而坐,左手始终掐“三清印”置于胸前;3、在静心状态下,从右往左以楷体书写,写好每一个汉字;4、写经的要求:不能多写一字;不能少写一字;不能错写一字。
现有技术中将抄经与现代信息技术结合的方式主要有2种:
PC端/APP端在线抄经:即通过键盘输入经文,该方式不符合抄经的仪式仪轨;手写经文后在APP打卡:该方式下产品与用户的交互极其有限,难以产生用户黏性、创造产品使用价值。
发明内容
本发明的主要目的在于解决现有的信息技术方法辅助佛经抄写效果差的技术问题。
本发明第一方面提供了一种佛经抄写辅助方法,包括:
获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;
根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;
对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;
根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。
可选的,在本发明第一方面的第一种实现方式中,所述根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息包括:
将所述视频图像分解成每帧的姿态图片;
将所述姿态图片输入所述姿态估计模型中,提取所述姿态图片的关键点,并识别每帧所述姿态图片的关键点坐标信息;
根据所述关键点坐标信息,获得关键点连接信息,并根据所述关键点连接信息,识别所述用户抄写佛经的帧数;
根据所述帧数,计算所述用户抄写佛经的抄写时间、所述的用户最大不间断抄经时长和超过预设时间的非抄经行为次数;
将所述抄写时间、所述最大不间断抄经时长和所述非抄经行为次数作为所述用户的姿态信息。
可选的,在本发明第一方面的第二种实现方式中,所述姿态估计模型通过以下步骤训练得到:
采集人体动作姿态图片,并对所述人体动作姿态图片中的关键点进行标注,得到训练样本;
生成包含关键点坐标信息、关键点连接信息的文档;
将所述训练样本输入到单阶段人体姿态估计网络模型中,所述单阶段人体姿态估计网络模型计算并提取关键点坐标信息、关键点连接信息;
将单阶段人体姿态估计网络模型提取的信息与文档中的信息进行对比,得到对比误差;
判断所述对比误差是否小于预设的误差阈值;
若否,则将所述对比误差反向传播至所述单阶段人体姿态估计网络模型中,反复训练所述单阶段人体姿态估计网络模型,更新所述单阶段人体姿态估计网络模型参数直至所述对比误差小于预设的误差阈值,得到姿态估计模型。
可选的,在本发明第一方面的第三种实现方式中,所述根据所述关键点坐标信息,获得关键点连接信息,并根据所述关键点连接信息,识别所述用户抄写佛经的帧数包括:
将视频图像中的第一帧姿态图片作为当前帧姿态图片;
将所述当前帧姿态图片中的关键点进行相邻连接,得到关键点连接信息,并根据所述关键点连接信息识别当前帧姿态是否为用户抄写佛经的帧数;
读取下一帧姿态图片作为当前帧姿态图片,并继续进行帧数识别,直至下一帧姿态图片为空;
获取识别为用户抄写佛经的帧数的帧数号,并计算识别为用户抄写佛经的帧数的数量。
可选的,在本发明第一方面的第四种实现方式中,所述将所述当前帧姿态图片中的关键点进行相邻连接,得到关键点连接信息,并根据所述关键点连接信息识别当前帧姿态是否为用户抄写佛经的帧数包括:
将所述当前帧姿态图片中所述姿态估计模型提取的第i个关键点与其相邻的第i+1个关键点之间的连接线记为A,并将第i-1个关键点与其相邻的第i个关键点之间的连接线记为B;
将预设的人体标准抄写姿态中的第i个关键点与其相邻的第i+1个关键点之间的连接线为A′,第i-1个关键点与其相邻的第i个关键点之间的连接线为B′;
根据所述关键点坐标信息计算关键点连接线A、关键点连接线B之间的夹角α和关键点连接线A′、关键点连接线B′之间的夹角β;
判断所述夹角α和所述夹角β的误差是否大于预设角度阈值;
若是,则将所述第i个关键点作为非标准点,其中i为大于1的正整数;
当当前帧的非标准点的数量小于预设数量阈值时,将当前帧识别为用户抄写佛经的帧数。
可选的,在本发明第一方面的第五种实现方式中,所述对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息包括:
对所述手抄本图像进行ocr文本识别,得到抄写文本;
计算所述抄写文本的字数,得到抄写字数;
将所述抄写文本和所述原本进行比对,得到所述用户抄写的抄错信息;
将所述抄写字数和所述抄错信息作为抄写信息。
可选的,在本发明第一方面的第六种实现方式中,在根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分之后,还包括:
计算所述抄写文本的风格特征值;
根据所述风格特征值计算所述抄写文本与预设的风格库中的各书法作品的字体风格相似度;
根据所述字体相似度确定所述抄写文本的书法风格,并根据所述书法风格选择对应的经书推送给所述用户。
本发明第二方面提供了一种佛经抄写辅助装置,包括:
获取模块,用于获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;
姿态识别模块,用于根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;
文本识别模块,用于对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;
评分模块,用于根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。
可选的,在本发明第二方面的第一种实现方式中,所述姿态识别模块包括:
视频分解单元,用于将所述视频图像分解成每帧的姿态图片;
关键点提取单元,用于将所述姿态图片输入所述姿态估计模型中,提取所述姿态图片的关键点,并识别每帧所述姿态图片的关键点坐标信息;
帧数识别单元,用于根据所述关键点坐标信息,获得关键点连接信息,并根据所述关键点连接信息,识别所述用户抄写佛经的帧数;
计算单元,用于根据所述帧数,计算所述用户抄写佛经的抄写时间、所述的用户最大不间断抄经时长和超过预设时间的非抄经行为次数,并作为所述用户的姿态信息。
可选的,在本发明第二方面的第二种实现方式中,所述佛经抄写辅助装置还包括模型训练模块,所述模型训练模块具体用于:
采集人体动作姿态图片,并对所述人体动作姿态图片中的关键点进行标注,得到训练样本;
生成包含关键点坐标信息、关键点连接信息的文档;
将所述训练样本输入到单阶段人体姿态估计网络模型中,所述单阶段人体姿态估计网络模型计算并提取关键点坐标信息、关键点连接信息;
将单阶段人体姿态估计网络模型提取的信息与文档中的信息进行对比,得到对比误差;
判断所述对比误差是否小于预设的误差阈值;
若否,则将所述对比误差反向传播至所述单阶段人体姿态估计网络模型中,反复训练所述单阶段人体姿态估计网络模型,更新所述单阶段人体姿态估计网络模型参数直至所述对比误差小于预设的误差阈值,得到姿态估计模型。
可选的,在本发明第二方面的第三种实现方式中,所述帧数识别单元包括:
起始子单元,用于将视频图像中的第一帧姿态图片作为当前帧姿态图片;
当前帧识别子单元,用于将所述当前帧姿态图片中的关键点进行相邻连接,得到关键点连接信息,并根据所述关键点连接信息识别当前帧姿态是否为用户抄写佛经的帧数;
循环子单元,用于读取下一帧姿态图片作为当前帧姿态图片,并继续进行帧数识别,直至下一帧姿态图片为空;
帧数计算子单元,用于获取识别为用户抄写佛经的帧数的帧数号,并计算识别为用户抄写佛经的帧数的数量。
可选的,在本发明第二方面的第四种实现方式中,所述当前帧识别子单元具体用于:
将所述当前帧姿态图片中所述姿态估计模型提取的第i个关键点与其相邻的第i+1个关键点之间的连接线记为A,并将第i-1个关键点与其相邻的第i个关键点之间的连接线记为B;
将预设的人体标准抄写姿态中的第i个关键点与其相邻的第i+1个关键点之间的连接线为A′,第i-1个关键点与其相邻的第i个关键点之间的连接线为B′;
根据所述关键点坐标信息计算关键点连接线A、关键点连接线B之间的夹角α和关键点连接线A′、关键点连接线B′之间的夹角β;
判断所述夹角α和所述夹角β的误差是否大于预设角度阈值;
若是,则将所述第i个关键点作为非标准点,其中i为大于1的正整数;
当当前帧的非标准点的数量小于预设数量阈值时,将当前帧识别为用户抄写佛经的帧数。
可选的,在本发明第二方面的第五种实现方式中,所述文本识别模块具体用于:
对所述手抄本图像进行ocr文本识别,得到抄写文本;
计算所述抄写文本的字数,得到抄写字数;
将所述抄写文本和所述原本进行比对,得到所述用户抄写的抄错信息;
将所述抄写字数和所述抄错信息作为抄写信息。
可选的,在本发明第二方面的第六种实现方式中,所述佛经抄写辅助装置还包括风格推荐模块,所述风格推荐模块具体用于:
计算所述抄写文本的风格特征值;
根据所述风格特征值计算所述抄写文本与预设的风格库中的各书法作品的字体风格相似度;
根据所述字体相似度确定所述抄写文本的书法风格,并根据所述书法风格选择对应的经书推送给所述用户。
本发明第三方面提供了一种佛经抄写辅助设备,包括:存储器和至少一个处理器,所述存储器中存储有计算机程序,所述存储器和所述至少一个处理器通过线路互连;所述至少一个处理器调用所述存储器中的所述计算机程序,以使得所述佛经抄写辅助设备执行上述的佛经抄写辅助方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行上述的佛经抄写辅助方法。
本发明提供的技术方案中,公开了一种佛经抄写辅助方法、装置、设备及存储介质,所述佛经抄写辅助方法包括:获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。本发明可以预设的姿态估计算法获取用户抄写过程中的姿态信息,使用文本识别算法对用户抄写的佛经进行文本识别,获取抄写信息,根据姿态信息和抄写信息对用户的抄写行为进行综合评分,进而辅助用户进行佛经抄写。此外,本发明还涉及区块链技术,佛经可存储于区块链中。
附图说明
图1为本发明实施例中佛经抄写辅助方法的第一个实施例示意图;
图2为本发明实施例中佛经抄写辅助方法的第二个实施例示意图;
图3为本发明实施例中佛经抄写辅助方法的第三个实施例示意图;
图4为本发明实施例中佛经抄写辅助方法的第四个实施例示意图;
图5为本发明实施例中佛经抄写辅助方法的第五个实施例示意图;
图6为本发明实施例中佛经抄写辅助装置的一个实施例示意图;
图7为本发明实施例中佛经抄写辅助装置的另一个实施例示意图;
图8为本发明实施例中佛经抄写辅助设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种佛经抄写辅助方法、装置、设备及存储介质,所述佛经抄写辅助方法包括:获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。本发明可以预设的姿态估计算法获取用户抄写过程中的姿态信息,使用文本识别算法对用户抄写的佛经进行文本识别,获取抄写信息,根据姿态信息和抄写信息对用户的抄写行为进行综合评分,进而辅助用户进行佛经抄写。此外,本发明还涉及区块链技术,佛经可存储于区块链中。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中佛经抄写辅助方法的一个实施例包括:
101、获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像;
需要强调的是,为保证上述用户的私密和目标用户信息的安全性,上述用户抄写的佛经可以存储于一区块链的节点中。
可以理解的是,本发明的执行主体可以为佛经抄写辅助装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
在本实施例中,用户在抄经前,可以在抄经的位置前设置摄像设备,当用户进行抄经时,开启摄像设备进行摄像,将用户抄写的完整过程记录下来,用户在抄写完毕后,将摄像设备关闭,中间这段时间的拍摄内容即是所述摄影图像;
在本实施例中,用户可以在预设的佛经库中选择想要想写的佛经,服务器自动全屏显示该佛经供用户进行抄写,在用户抄写完成之后,将抄写的内容进行拍摄,得到拍摄的手抄本图像,并将该手抄本图像进行上传。
102、根据预设的姿态估计模型对视频图像进行姿态识别,获得用户的姿态信息;
在本实施例中,对视频图像的每帧图像进行识别,通过识别出每帧图像中哪一帧的图像为抄经动作,哪一帧的图像为非抄经动作,并将这些抄经动作和非抄经动作的帧数进行统计分析,得到的信息即为用户的姿态信息,所述姿态信息可以包括但不限于抄经时长、专注时间和开小差次数中的至少一种,其中,抄经时长主要是通过计算识别为抄经动作的第一帧和最后一帧中间的间隔时长,专注时间主要是识别为抄经动作的最大的连续帧,并根据最大连续帧的帧数量计算时长,开小差次数可以通过计算识别为非抄经动作的连续帧图像的时长大于预设时间,例如30秒的次数,同时,所述姿态信息还可以包括其他通过识别帧图像推导出的信息,本发明不作限定。
在本实施例中,所述姿态估计模型主要是追踪每帧图像中的人体关键点,根据这些人体关键点判断当前帧图像是否为抄经动作。
103、对手抄本图像进行文本识别,得到抄写文本,并将抄写文本和用户抄写经书的原本进行比对,得到抄写信息;
在本实施例中,对所述手抄本图像进行文本识别的方式主要是通过ocr(OpticalCharacter Recognition,光学字符识别)技术,ocr技术是指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,通过检测暗、亮的模式确定其形状,然后用字符识别方法将形状翻译成计算机文字的过程;即,针对印刷体字符,采用光学的方式将纸质文档中的文字转换成为黑白点阵的图像文件,并通过识别软件将图像中的文字转换成文本格式,供文字处理软件进一步编辑加工的技术,通过ocr技术,能够识别出用户抄写的内容,也就是抄写文本,将抄写文本和佛经的原本进行比对,能够得到例如抄写字数、抄写错字数量,抄写漏字数量,抄写多字数量等抄写信息。
104、根据姿态信息和抄写信息,结合预设的评分权重,对用户的佛经抄写过程进行评分,得到抄写综合评分。
在本实施例中,通过姿态识别和文本识别能够得到多个维度的信息,包括姿态信息和抄写信息,并且,还可以获取用户连续抄写的佛经的次数,作为一个维度的信息,以及根据姿态识别得到的抄写时长和文本识别得到的抄写字数计算抄写速度,作为一个维度的信息,并预先为各维度的信息配置一定的权重,根据各维度信息的值和权重,即可计算出用户抄写佛经的抄写综合评分。
本发明实施例提供了一种佛经抄写辅助方法,所述佛经抄写辅助方法包括:获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。本发明可以预设的姿态估计算法获取用户抄写过程中的姿态信息,使用文本识别算法对用户抄写的佛经进行文本识别,获取抄写信息,根据姿态信息和抄写信息对用户的抄写行为进行综合评分,进而辅助用户进行佛经抄写。此外,本发明还涉及区块链技术,佛经可存储于区块链中。
请参阅图2,本发明实施例中佛经抄写辅助方法的第二个实施例包括:
201、获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像;
202、将视频图像分解成每帧的姿态图片;
在本实施例中,将视频图像通过逐帧播放,可以将每帧播放的图像作为姿态图片;
203、将姿态图片输入姿态估计模型中,提取姿态图片的关键点,并识别每帧姿态图片的关键点坐标信息;
在本实施例中,所述姿态估计模型主要通过以下步骤进行训练得到:
采集人体动作姿态图片,并对所述人体动作姿态图片中的关键点进行标注,得到训练样本;生成包含关键点坐标信息、关键点连接信息的文档;将所述训练样本输入到单阶段人体姿态估计网络模型中,所述单阶段人体姿态估计网络模型计算并提取关键点坐标信息、关键点连接信息;将单阶段人体姿态估计网络模型提取的信息与文档中的信息进行对比,得到对比误差;判断所述对比误差是否小于预设的误差阈值;若否,则将所述对比误差反向传播至所述单阶段人体姿态估计网络模型中,反复训练所述单阶段人体姿态估计网络模型,更新所述单阶段人体姿态估计网络模型参数直至所述对比误差小于预设的误差阈值,得到姿态估计模型。
204、根据关键点坐标信息,获得关键点连接信息,并根据关键点连接信息,识别用户抄写佛经的帧数;
在本实施例中,通过姿态估计模型提取出用户的关键点后,将这些关键点进行相邻连接,即可得到关键点连接信息,其中,判断两点是否相邻主要是通过关键点坐标信息计算两个关键点之间的距离,距离最近的两个点则淡定为相邻。
在本实施例中,所述关键点主要是用户的关节部位,例如胸腔点、左右肩点、左右手肘点、左右手腕点、左右胯点、左右膝盖点及左右脚踝点等,主要通过模型训练时进行标注确定。
205、根据帧数,计算用户抄写佛经的抄写时间、的用户最大不间断抄经时长和超过预设时间的非抄经行为次数并作为用户的姿态信息;
在本实施例中,通过姿态识别后得到的主要是用户在视频图像中的哪一帧图像为抄经动作,哪一帧的图像为非抄经动作,通过对每帧图像的识别,即可推导计算出用户抄写佛经的抄写时间、的用户最大不间断抄经时长和超过预设时间的非抄经行为次数等姿态信息。
206、对手抄本图像进行文本识别,得到抄写文本,并将抄写文本和用户抄写经书的原本进行比对,得到抄写信息;
207、根据姿态信息和抄写信息,结合预设的评分权重,对用户的佛经抄写过程进行评分,得到抄写综合评分。
本实施例在上一实施例的基础上,详细描述了姿态识别的完整过程,通过将所述视频图像分解成每帧的姿态图片;将所述姿态图片输入所述姿态估计模型中,提取所述姿态图片的关键点,并识别每帧所述姿态图片的关键点坐标信息;根据所述关键点坐标信息,获得关键点连接信息,并根据所述关键点连接信息,识别所述用户抄写佛经的帧数;根据所述帧数,计算所述用户抄写佛经的抄写时间、所述的用户最大不间断抄经时长和超过预设时间的非抄经行为次数并作为所述用户的姿态信息,通过对用户的抄经过程进行姿态识别,得到姿态信息,方便对用户的抄写行为进行评价,并且所述姿态信息能够辅助用户对后续抄经进行调整。
请参阅图3,本发明实施例中佛经抄写辅助方法的第三个实施例包括:
301、获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像;
302、将视频图像分解成每帧的姿态图片;
303、将视频图像中的第一帧姿态图片作为当前帧姿态图片;
304、将当前帧姿态图片中姿态估计模型提取的第i个关键点与其相邻的第i+1个关键点之间的连接线记为A,并将第i-1个关键点与其相邻的第i个关键点之间的连接线记为B;
305、将预设的人体标准抄写姿态中的第i个关键点与其相邻的第i+1个关键点之间的连接线为A′,第i-1个关键点与其相邻的第i个关键点之间的连接线为B′;
306、根据关键点坐标信息计算关键点连接线A、关键点连接线B之间的夹角α和关键点连接线A′、关键点连接线B′之间的夹角β;
在本实施例中,通过两关键点的坐标值,能够确定关键点的连接线的坐标表示,并获得该连接线的单位向量,根据向量点积的计算公式,能够计算出两向量也就是两连接线的夹角,根据点积的计算公式得知两向量的点积值为两向量的模相乘,再乘以两向量的夹角的余弦值,当两向量的模均为单位向量时,也就是两向量的模均为1时,点积值即为两向量夹角的余弦值,根据反余弦公式,即可得到两向量也就是两连接线的夹角,即可得到夹角α和夹角β。
307、判断夹角α和夹角β的误差是否大于预设角度阈值;
308、若是,则将第i个关键点作为非标准点,其中i为大于1的正整数;
在本实施例中,主要通过将夹角α的角度减去夹角β的角度,获得误差,当计算的第i点得到的误差大于预设角度阈值说明在该关键点的角度并不符合抄经动作,为非标准点,当非标准点的数量达到一定的数值,即可将该帧图像作为非抄写动作的图像。
309、当当前帧的非标准点的数量小于预设数量阈值时,将当前帧识别为用户抄写佛经的帧数;
310、读取下一帧姿态图片作为当前帧姿态图片,并继续进行帧数识别,直至下一帧姿态图片为空;
在本实施例中,通过循环的方式,实现对每帧图像的姿态识别,并将每帧图像的识别结果进行标记,如某帧图像为抄写动作图像,以便后续进行姿态信息的计算。
311、获取识别为用户抄写佛经的帧数的帧数号,并计算识别为用户抄写佛经的帧数的数量,将帧数号和数量作为姿态信息;
312、对手抄本图像进行文本识别,得到抄写文本,并将抄写文本和用户抄写经书的原本进行比对,得到抄写信息;
313、根据姿态信息和抄写信息,结合预设的评分权重,对用户的佛经抄写过程进行评分,得到抄写综合评分。
本实施例在上一实施例的基础上,详细的描述了对视频图像的每帧图像进行循环姿态识别的过程,通过将视频图像中的第一帧姿态图片作为当前帧姿态图片;将所述当前帧姿态图片中的关键点进行相邻连接,得到关键点连接信息,并根据所述关键点连接信息识别当前帧姿态是否为用户抄写佛经的帧数;读取下一帧姿态图片作为当前帧姿态图片,并继续进行帧数识别,直至下一帧姿态图片为空;获取识别为用户抄写佛经的帧数的帧数号,并计算识别为用户抄写佛经的帧数的数量,通过对用户的抄经过程进行姿态识别,得到姿态信息,方便对用户的抄写行为进行评价,并且所述姿态信息能够辅助用户对后续抄经进行调整。
请参阅图4,本发明实施例中佛经抄写辅助方法的第四个实施例包括:
401、获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像;
402、根据预设的姿态估计模型对视频图像进行姿态识别,获得用户的姿态信息;
403、对手抄本图像进行ocr文本识别,得到抄写文本;
在本实施例中,ocr技术是指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,通过检测暗、亮的模式确定其形状,然后用字符识别方法将形状翻译成计算机文字的过程;即,针对印刷体字符,采用光学的方式将纸质文档中的文字转换成为黑白点阵的图像文件,并通过识别软件将图像中的文字转换成文本格式,供文字处理软件进一步编辑加工的技术,通过ocr技术,能够识别出用户抄写的内容,也就是抄写文本,将抄写文本和佛经的原本进行比对,能够得到例如抄写字数、抄写错字数量,抄写漏字数量,抄写多字数量等抄写信息。
404、计算抄写文本的字数,得到抄写字数;
405、将抄写文本和原本进行比对,得到用户抄写的抄错信息;
406、将抄写字数和抄错信息作为抄写信息;
在本实施例中,还能结合根据姿态识别得到的抄写时长和文本识别得到的抄写字数计算抄写速度,将抄写速度作为抄写信息。
407、根据姿态信息和抄写信息,结合预设的评分权重,对用户的佛经抄写过程进行评分,得到抄写综合评分。
本实施例在前实施例的基础上,描述了对用户的手抄本图像进行文本识别得到抄写信息的过程,对所述手抄本图像进行ocr文本识别,得到抄写文本;计算所述抄写文本的字数,得到抄写字数;将所述抄写文本和所述原本进行比对,得到所述用户抄写的抄错信息;将所述抄写字数和所述抄错信息作为抄写信息,通过对用户的手抄本图像进行文本识别,得到抄写信息,方便对用户的抄写行为进行评价,并且所述文本信息能够辅助用户对后续抄经进行调整。
请参阅图5,本发明实施例中佛经抄写辅助方法的第五个实施例包括:
501、获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像;
502、根据预设的姿态估计模型对视频图像进行姿态识别,获得用户的姿态信息;
503、对手抄本图像进行文本识别,得到抄写文本,并将抄写文本和用户抄写经书的原本进行比对,得到抄写信息;
504、根据姿态信息和抄写信息,结合预设的评分权重,对用户的佛经抄写过程进行评分,得到抄写综合评分;
505、计算抄写文本的风格特征值;
在本实施例中,在进行计算风格特征值前,需要对所述手抄本图像进行图像预处理,包括灰度化处理、二值化处理和大小归一化处理等,并对图像的文字进行特征获取,例如提取图像中文字的比例特征,也就是提起用户每个字的字符的笔画长度和所占面积比例作为风格特征值;
506、根据风格特征值计算抄写文本与预设的风格库中的各书法作品的字体风格相似度;
507、根据字体相似度确定抄写文本的书法风格,并根据书法风格选择对应的经书推送给用户。
本实施例在前实施例的基础上,增加了根据用户的抄写文本,对用户进行相似经书推荐的过程,通过计算所述抄写文本的风格特征值;根据所述风格特征值计算所述抄写文本与预设的风格库中的各书法作品的字体风格相似度;根据所述字体相似度确定所述抄写文本的书法风格,并根据所述书法风格选择对应的经书推送给所述用户,通过给用户推荐类似书写风格的经书作品,提高用户对佛经抄写的兴趣,进而起到辅助用户进行佛经抄写的效果。
上面对本发明实施例中佛经抄写辅助方法进行了描述,下面对本发明实施例中佛经抄写辅助装置进行描述,请参阅图6,本发明实施例中佛经抄写辅助装置一个实施例包括:
获取模块601,用于获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;
姿态识别模块602,用于根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;
文本识别模块603,用于对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;
评分模块604,用于根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。
需要强调的是,为保证上述本地缓存数据的私密和安全性,上述本地缓存数据可以存储于一区块链的节点中。
本发明实施例提供一种佛经抄写辅助装置,所述佛经抄写辅助装置运行所述佛经抄写辅助方法,包括:获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。本发明可以预设的姿态估计算法获取用户抄写过程中的姿态信息,使用文本识别算法对用户抄写的佛经进行文本识别,获取抄写信息,根据姿态信息和抄写信息对用户的抄写行为进行综合评分,进而辅助用户进行佛经抄写。此外,本发明还涉及区块链技术,佛经可存储于区块链中。
请参阅图7,本发明实施例中佛经抄写辅助装置的另一个实施例包括:
获取模块601,用于获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;
姿态识别模块602,用于根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;
文本识别模块603,用于对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;
评分模块604,用于根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。
其中,所述姿态识别模块602包括:
视频分解单元6021,用于将所述视频图像分解成每帧的姿态图片;
关键点提取单元6022,用于将所述姿态图片输入所述姿态估计模型中,提取所述姿态图片的关键点,并识别每帧所述姿态图片的关键点坐标信息;
帧数识别单元6023,用于根据所述关键点坐标信息,获得关键点连接信息,并根据所述关键点连接信息,识别所述用户抄写佛经的帧数;
计算单元6024,用于根据所述帧数,计算所述用户抄写佛经的抄写时间、所述的用户最大不间断抄经时长和超过预设时间的非抄经行为次数,并作为所述用户的姿态信息。
其中,所述佛经抄写辅助装置还包括模型训练模块605,所述模型训练模块605具体用于:
采集人体动作姿态图片,并对所述人体动作姿态图片中的关键点进行标注,得到训练样本;
生成包含关键点坐标信息、关键点连接信息的文档;
将所述训练样本输入到单阶段人体姿态估计网络模型中,所述单阶段人体姿态估计网络模型计算并提取关键点坐标信息、关键点连接信息;
将单阶段人体姿态估计网络模型提取的信息与文档中的信息进行对比,得到对比误差;
判断所述对比误差是否小于预设的误差阈值;
若否,则将所述对比误差反向传播至所述单阶段人体姿态估计网络模型中,反复训练所述单阶段人体姿态估计网络模型,更新所述单阶段人体姿态估计网络模型参数直至所述对比误差小于预设的误差阈值,得到姿态估计模型。
其中,所述帧数识别单元6023包括:
起始子单元60231,用于将视频图像中的第一帧姿态图片作为当前帧姿态图片;
当前帧识别子单元60232,用于将所述当前帧姿态图片中的关键点进行相邻连接,得到关键点连接信息,并根据所述关键点连接信息识别当前帧姿态是否为用户抄写佛经的帧数;
循环子单元60233,用于读取下一帧姿态图片作为当前帧姿态图片,并继续进行帧数识别,直至下一帧姿态图片为空;
帧数计算子单元60234,用于获取识别为用户抄写佛经的帧数的帧数号,并计算识别为用户抄写佛经的帧数的数量。
可选的,所述当前帧识别子单元60232具体用于:
将所述当前帧姿态图片中所述姿态估计模型提取的第i个关键点与其相邻的第i+1个关键点之间的连接线记为A,并将第i-1个关键点与其相邻的第i个关键点之间的连接线记为B;
将预设的人体标准抄写姿态中的第i个关键点与其相邻的第i+1个关键点之间的连接线为A′,第i-1个关键点与其相邻的第i个关键点之间的连接线为B′;
根据所述关键点坐标信息计算关键点连接线A、关键点连接线B之间的夹角α和关键点连接线A′、关键点连接线B′之间的夹角β;
判断所述夹角α和所述夹角β的误差是否大于预设角度阈值;
若是,则将所述第i个关键点作为非标准点,其中i为大于1的正整数;
当当前帧的非标准点的数量小于预设数量阈值时,将当前帧识别为用户抄写佛经的帧数。
可选的,所述文本识别模块603具体用于:
对所述手抄本图像进行ocr文本识别,得到抄写文本;
计算所述抄写文本的字数,得到抄写字数;
将所述抄写文本和所述原本进行比对,得到所述用户抄写的抄错信息;
将所述抄写字数和所述抄错信息作为抄写信息。
可选的,所述佛经抄写辅助装置还包括风格推荐模块606,所述风格推荐模块606具体用于:
计算所述抄写文本的风格特征值;
根据所述风格特征值计算所述抄写文本与预设的风格库中的各书法作品的字体风格相似度;
根据所述字体相似度确定所述抄写文本的书法风格,并根据所述书法风格选择对应的经书推送给所述用户。
本发明实施例在前实施例的基础上,详细描述了佛经抄写辅助装置中部分模块的单元构成,以及部分单元的子单元构成,通过上述模块、单元和子单元完成对用户抄写佛经的姿态识别和文本识别,获取姿态信息和抄写信息,根据姿态信息和抄写信息对用户的抄写行为进行综合评分,进而辅助用户进行佛经抄写,同时,本实施例中还增加了模型训练模块,通过模型训练模块能够获得姿态估计模型,根据所述姿态估计模型能够实现对用户的姿态识别。
上面图6和图7从模块化功能实体的角度对本发明实施例中的佛经抄写辅助装置进行详细描述,下面从硬件处理的角度对本发明实施例中佛经抄写辅助设备进行详细描述。
图8是本发明实施例提供的一种佛经抄写辅助设备的结构示意图,该佛经抄写辅助设备800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)810(例如,一个或一个以上处理器)和存储器820,一个或一个以上存储应用程序833或数据832的存储介质830(例如一个或一个以上海量存储设备)。其中,存储器820和存储介质830可以是短暂存储或持久存储。存储在存储介质830的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对佛经抄写辅助设备800中的一系列计算机程序操作。更进一步地,处理器810可以设置为与存储介质830通信,在佛经抄写辅助设备800上执行存储介质830中的一系列计算机程序操作,以实现上述各实施例提供的佛经抄写辅助方法的步骤。
佛经抄写辅助设备800还可以包括一个或一个以上电源840,一个或一个以上有线或无线网络接口850,一个或一个以上输入输出接口860,和/或,一个或一个以上操作系统831,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图8示出的佛经抄写辅助设备结构并不构成对本申请提供的佛经抄写辅助设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,使得计算机执行所述佛经抄写辅助方法的步骤,可选的,是通过计算机上的处理器来执行所述计算机程序。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干计算机程序用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-onlymemory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种佛经抄写辅助方法,其特征在于,所述佛经抄写辅助方法包括:
获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;
根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;
对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;
根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。
2.根据权利要求1所述的佛经抄写辅助方法,其特征在于,所述根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息包括:
将所述视频图像分解成每帧的姿态图片;
将所述姿态图片输入所述姿态估计模型中,提取所述姿态图片的关键点,并识别每帧所述姿态图片的关键点坐标信息;
根据所述关键点坐标信息,获得关键点连接信息,并根据所述关键点连接信息,识别所述用户抄写佛经的帧数;
根据所述帧数,计算所述用户抄写佛经的抄写时间、所述的用户最大不间断抄经时长和超过预设时间的非抄经行为次数并作为所述用户的姿态信息。
3.根据权利要求2所述的佛经抄写辅助方法,其特征在于,所述姿态估计模型通过以下步骤训练得到:
采集人体动作姿态图片,并对所述人体动作姿态图片中的关键点进行标注,得到训练样本;
生成包含关键点坐标信息、关键点连接信息的文档;
将所述训练样本输入到单阶段人体姿态估计网络模型中,所述单阶段人体姿态估计网络模型计算并提取关键点坐标信息、关键点连接信息;
将单阶段人体姿态估计网络模型提取的信息与文档中的信息进行对比,得到对比误差;
判断所述对比误差是否小于预设的误差阈值;
若否,则将所述对比误差反向传播至所述单阶段人体姿态估计网络模型中,反复训练所述单阶段人体姿态估计网络模型,更新所述单阶段人体姿态估计网络模型参数直至所述对比误差小于预设的误差阈值,得到姿态估计模型。
4.根据权利要求3所述的佛经抄写辅助方法,其特征在于,所述根据所述关键点坐标信息,获得关键点连接信息,并根据所述关键点连接信息,识别所述用户抄写佛经的帧数包括:
将视频图像中的第一帧姿态图片作为当前帧姿态图片;
将所述当前帧姿态图片中的关键点进行相邻连接,得到关键点连接信息,并根据所述关键点连接信息识别当前帧姿态是否为用户抄写佛经的帧数;
读取下一帧姿态图片作为当前帧姿态图片,并继续进行帧数识别,直至下一帧姿态图片为空;
获取识别为用户抄写佛经的帧数的帧数号,并计算识别为用户抄写佛经的帧数的数量。
5.根据权利要求4所述的佛经抄写辅助方法,其特征在于,所述将所述当前帧姿态图片中的关键点进行相邻连接,得到关键点连接信息,并根据所述关键点连接信息识别当前帧姿态是否为用户抄写佛经的帧数包括:
将所述当前帧姿态图片中所述姿态估计模型提取的第i个关键点与其相邻的第i+1个关键点之间的连接线记为A,并将第i-1个关键点与其相邻的第i个关键点之间的连接线记为B;
将预设的人体标准抄写姿态中的第i个关键点与其相邻的第i+1个关键点之间的连接线为A′,第i-1个关键点与其相邻的第i个关键点之间的连接线为B′;
根据所述关键点坐标信息计算关键点连接线A、关键点连接线B之间的夹角α和关键点连接线A′、关键点连接线B′之间的夹角β;
判断所述夹角α和所述夹角β的误差是否大于预设角度阈值;
若是,则将所述第i个关键点作为非标准点,其中i为大于1的正整数;
当当前帧的非标准点的数量小于预设数量阈值时,将当前帧识别为用户抄写佛经的帧数。
6.根据权利要求1-5中任一项所述的佛经抄写辅助方法,其特征在于,所述对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息包括:
对所述手抄本图像进行ocr文本识别,得到抄写文本;
计算所述抄写文本的字数,得到抄写字数;
将所述抄写文本和所述原本进行比对,得到所述用户抄写的抄错信息;
将所述抄写字数和所述抄错信息作为抄写信息。
7.根据权利要求6所述的佛经抄写辅助方法,其特征在于,在所述根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分之后,还包括:
计算所述抄写文本的风格特征值;
根据所述风格特征值计算所述抄写文本与预设的风格库中的各书法作品的字体风格相似度;
根据所述字体相似度确定所述抄写文本的书法风格,并根据所述书法风格选择对应的经书推送给所述用户。
8.一种佛经抄写辅助装置,其特征在于,所述佛经抄写辅助装置包括:
获取模块,用于获取预设的摄像设备拍摄的视频图像和用户抄写经书的手抄本图像,其中,所述视频图像的视频为用户抄写佛经的过程;
姿态识别模块,用于根据预设的姿态估计模型对所述视频图像进行姿态识别,获得所述用户的姿态信息;
文本识别模块,用于对所述手抄本图像进行文本识别,得到抄写文本,并将所述抄写文本和所述用户抄写经书的原本进行比对,得到抄写信息;
评分模块,用于根据所述姿态信息和所述抄写信息,结合预设的评分权重,对所述用户的佛经抄写过程进行评分,得到抄写综合评分。
9.一种佛经抄写辅助设备,其特征在于,所述佛经抄写辅助设备包括:存储器和至少一个处理器,所述存储器中存储有计算机程序,所述存储器和所述至少一个处理器通过线路互连;
所述至少一个处理器调用所述存储器中的所述计算机程序,以使得所述佛经抄写辅助设备执行如权利要求1-7中任一项所述的佛经抄写辅助方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7中任一项所述的佛经抄写辅助方法。
CN202110301210.4A 2021-03-22 2021-03-22 佛经抄写辅助方法、装置、设备及存储介质 Active CN113011341B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110301210.4A CN113011341B (zh) 2021-03-22 2021-03-22 佛经抄写辅助方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110301210.4A CN113011341B (zh) 2021-03-22 2021-03-22 佛经抄写辅助方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113011341A true CN113011341A (zh) 2021-06-22
CN113011341B CN113011341B (zh) 2024-06-28

Family

ID=76404086

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110301210.4A Active CN113011341B (zh) 2021-03-22 2021-03-22 佛经抄写辅助方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113011341B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805009A (zh) * 2018-04-20 2018-11-13 华中师范大学 基于多模态信息融合的课堂学习状态监测方法及系统
CN109670474A (zh) * 2018-12-28 2019-04-23 广东工业大学 一种基于视频的人体姿态估计方法、装置及设备
CN109801096A (zh) * 2018-12-14 2019-05-24 中国科学院深圳先进技术研究院 一种多模态客户满意度综合评价系统、方法
CN109919014A (zh) * 2019-01-28 2019-06-21 平安科技(深圳)有限公司 Ocr识别方法及其电子设备
CN111444812A (zh) * 2020-03-23 2020-07-24 星汉智能科技股份有限公司 一种用于公安日常训练的人体姿态评估方法及系统
CN111597908A (zh) * 2020-04-22 2020-08-28 深圳中兴网信科技有限公司 试卷批改方法和试卷批改装置
CN112347861A (zh) * 2020-10-16 2021-02-09 浙江工商大学 一种基于运动特征约束的人体姿态估计方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805009A (zh) * 2018-04-20 2018-11-13 华中师范大学 基于多模态信息融合的课堂学习状态监测方法及系统
CN109801096A (zh) * 2018-12-14 2019-05-24 中国科学院深圳先进技术研究院 一种多模态客户满意度综合评价系统、方法
CN109670474A (zh) * 2018-12-28 2019-04-23 广东工业大学 一种基于视频的人体姿态估计方法、装置及设备
CN109919014A (zh) * 2019-01-28 2019-06-21 平安科技(深圳)有限公司 Ocr识别方法及其电子设备
CN111444812A (zh) * 2020-03-23 2020-07-24 星汉智能科技股份有限公司 一种用于公安日常训练的人体姿态评估方法及系统
CN111597908A (zh) * 2020-04-22 2020-08-28 深圳中兴网信科技有限公司 试卷批改方法和试卷批改装置
CN112347861A (zh) * 2020-10-16 2021-02-09 浙江工商大学 一种基于运动特征约束的人体姿态估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"在家抄经的仪轨", Retrieved from the Internet <URL:http://www.shishuangsi.cn/show.asp?id=912> *

Also Published As

Publication number Publication date
CN113011341B (zh) 2024-06-28

Similar Documents

Publication Publication Date Title
Berg-Kirkpatrick et al. Unsupervised transcription of historical documents
Yadid et al. Extracting code from programming tutorial videos
JP6856091B2 (ja) 10指指紋カード入力装置、10指指紋カード入力方法、及び記憶媒体
CN111597817B (zh) 一种事件信息抽取方法及装置
Papaodysseus et al. Identifying the writer of ancient inscriptions and Byzantine codices. A novel approach
CN113408535B (zh) 一种基于中文字符级特征和语言模型的ocr纠错方法
US11854284B2 (en) Offline handwriting individual recognition system and method based on two-dimensional dynamic features
CN111581367A (zh) 一种题目录入的方法和系统
CN109684957A (zh) 一种自动按照纸质表单展现系统数据的方法及系统
Lins et al. The CNN-corpus: A large textual corpus for single-document extractive summarization
CN113283327A (zh) 一种视频文本生成方法、装置、设备及存储介质
US6567548B2 (en) Handwriting recognition system and method using compound characters for improved recognition accuracy
JP6768738B2 (ja) 学習データ生成装置、方法、およびプログラム
Dey et al. Clean Text and Full-Body Transformer: Microsoft's Submission to the WMT22 Shared Task on Sign Language Translation
CN113011341A (zh) 佛经抄写辅助方法、装置、设备及存储介质
Elnabawy et al. Image based hieroglyphic character recognition
CN106339726A (zh) 用于手写识别的方法及装置
US6320985B1 (en) Apparatus and method for augmenting data in handwriting recognition system
Kumar et al. Line based robust script identification for indianlanguages
JP6768750B2 (ja) 学習方法、誤り判定方法、学習システム、誤り判定システム、およびプログラム
Breci et al. A novel dataset for non-destructive inspection of handwritten documents
JP5709456B2 (ja) 処理装置、処理方法、医療支援システム及びプログラム
CN114067362A (zh) 基于神经网络模型的手语识别方法、装置、设备及介质
Lamb et al. Handwriting recognition for Scottish Gaelic
Wang et al. Listen, Decipher and Sign: Toward Unsupervised Speech-to-Sign Language Recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant