CN106020440A - 一种基于体感交互的京剧教学系统 - Google Patents
一种基于体感交互的京剧教学系统 Download PDFInfo
- Publication number
- CN106020440A CN106020440A CN201610292437.6A CN201610292437A CN106020440A CN 106020440 A CN106020440 A CN 106020440A CN 201610292437 A CN201610292437 A CN 201610292437A CN 106020440 A CN106020440 A CN 106020440A
- Authority
- CN
- China
- Prior art keywords
- user
- data
- gesture
- opera
- beijing opera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 46
- 230000008451 emotion Effects 0.000 title abstract 5
- 230000009471 action Effects 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000011156 evaluation Methods 0.000 claims abstract description 7
- 238000009499 grossing Methods 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 22
- 239000012634 fragment Substances 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 12
- 230000002452 interceptive effect Effects 0.000 claims description 8
- 230000013011 mating Effects 0.000 claims description 8
- 238000013461 design Methods 0.000 claims description 5
- 230000005012 migration Effects 0.000 claims description 5
- 238000013508 migration Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000009877 rendering Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000001932 seasonal effect Effects 0.000 claims description 3
- 230000001550 time effect Effects 0.000 claims 1
- 230000007613 environmental effect Effects 0.000 abstract description 4
- 230000001360 synchronised effect Effects 0.000 abstract 2
- 230000009191 jumping Effects 0.000 abstract 1
- 230000005477 standard model Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 230000008878 coupling Effects 0.000 description 7
- 238000010168 coupling process Methods 0.000 description 7
- 238000005859 coupling reaction Methods 0.000 description 7
- 230000003238 somatosensory effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 210000000988 bone and bone Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 210000002310 elbow joint Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 210000001699 lower leg Anatomy 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000013077 scoring method Methods 0.000 description 1
- 230000000392 somatic effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种基于体感交互的京剧教学系统,包括数据采集模块、数据处理模块和用户界面交互模块,数据采集模块通过体感交互设备获得用户的关节信息和声音数据;数据处理模块实现用户对系统的逻辑控制显示与用户动作同步的用户模型,进行京剧标准模型与用户模型的匹配与反馈,获取用户声音数据,进行标准唱腔与用户音频的匹配与反馈;用户界面交互模块通过对用户手势的识别进行操作界面显示与切换、京剧教学视频显示、动作表演评价显示以及音频打分显示。本发明的京剧教学系统全程体感操作,识别率高,无需键盘、鼠标作为输入。用户模型与实际用户姿势同步率高,且无抖动、跳帧现象,不受体感捕捉的硬件限制及骨骼追踪时的环境噪声影响。
Description
技术领域
本发明涉及体感交互领域,特别是涉及一种基于体感交互的京剧教学系统。
背景技术
京剧是中国国粹,代表着中华民族的传统文化,传承并发扬京剧有着深远的意义。然而,京剧教学的过程较为繁杂,唱、念、坐、打每个环节都需要相应的特殊教学步骤,专业性较强,且需要学习者在教师指导下,穿着专业的服装道具以配合练习。诸多因素导致京剧的教学成本过高,不利于京剧这类传统文化在年轻一代的传承与发扬。
京剧教学系统主要分为身体姿势教学与唱腔音调教学两个部分,相关技术主要包括3D模型渲染与平滑技术、手势识别技术、音频匹配技术与人体模型匹配与反馈技术等。
现有的骨骼关节点捕捉技术的数据量每秒是恒定的,当用户肢体运动过快时,接收到的骨骼关节点数据在三维空间中跳跃幅度较大,有些模型渲染与平滑算法不能够很好地处理此问题,导致模型运动僵硬或产生跳帧现象。现有手势识别算法的主要缺点在于识别成功率与准确率较低,当用户的手势过于复杂或相似度较高时,现有算法不能够区别不同手势之间的差异,准确地识别出不同复杂度的手势,因此加大了用户的体感操作难度。目前主流音频匹配技术主要是基于频率的匹配,对用户声音的能量处理较少,而用户的音频质量是由频率与能量共同决定的,对能量处理的缺失降低了匹配的准确率。此外,现有技术不能够较好地针对环境噪声进行过滤,导致匹配结果易受到环境影响,不能够真实地体现用户的歌唱水平。
因此,目前急需一种全程体感操作,并集京剧模型显示、人体同步控制、表演姿势动作校正和京剧唱腔校正于一体的京剧教学系统。
发明内容
本发明的目的是提供一种全程体感操作、用户模型流畅、评价矫正精准的基于体感交互的京剧教学系统。
为实现上述发明目的,本发明提供的技术方案是:
一种基于体感交互的京剧教学系统,包括数据采集模块、数据处理模块和用户界面交互模块,所述数据采集模块通过体感交互设备获得用户的关节信息和声音数据,所述体感交互设备与装载于Windows或微软XBOX平台中的感交互软件之间进行数据的通信;
所述数据处理模块通过手势识别算法,实现用户对系统的逻辑控制;在表演场景中,获取用户关节数据,显示与用户动作同步的用户模型,进行京剧标准模型与用户模型的匹配与反馈;获取用户声音数据,进行标准唱腔与用户音频的匹配与反馈;
所述用户界面交互模块通过对用户手势的识别,进行操作界面显示与切换、京剧教学视频显示、动作表演评价显示以及音频打分显示。
进一步地,在数据采集模块中,定义多个骨骼关节点的三维坐标,体感交互设备实时地获得用户关节位置和旋转参数;通过用户佩戴的耳麦将音频数据传输至计算机的音频接收器,获得用户演唱的声音数据。
进一步地,在数据处理模块中,基于线性指数平滑算法,利用霍尔特指数平滑来减少关节点的抖动,通过设置平滑值和修正值,减少骨骼关节点在帧与帧之间的跳跃,进行用户模型动作的渲染与平滑。
进一步地,在数据处理模块中,所述手势识别算法包括计算骨骼关节点间的距离,公式为其中,x、y、z表示关节点的三维坐标,D表示A、B点之间的距离;
计算两个骨骼关节点与基准点的X轴的角度大小θ,公式为
其中,Δx为两点间x轴坐标差Δx=|x1-x2|,Δy为两点间y轴坐标差Δy=|y1-y2|;
将常用手势定义为不同关节点间的角度条件,设定阈值范围,并建立常用手势库,用户动作落入手势库阈值范围内,判断手势匹配成功。
进一步地,在数据处理模块中加入定时器,为每个逻辑控制手势确定有效时间,使得逻辑控制手势仅在一定时间内有效,超出或不足限定时间则无效,由此区别用户的手势用于逻辑控制还是普通手势。
进一步地,所述线性指数平滑算法使用两个基本平滑公式和一个预测公式对骨骼动作进行平滑,其中两个基本平滑公式分别对时间序列的两种因素进行平滑公式如下:
St=αYt+(1-α)(St-1-Bt-1),
Bt=γ(St-St-1)+(1-γ)Bt-1,
其中St表示对时间趋势因素的平滑变量,Bt表示对趋势增量的平滑变量,α表示平滑系数、γ表示修正系数,T表示预测系数。
进一步地,在数据处理模块中所述标准模型与用户模型的匹配,通过标准京剧动作存储一定时间长度内京剧标准模型在坐标系下的关节点位置、旋转数据,将用户模型的关节点位置、旋转数据与京剧标准模型的数据进行匹配,根据设定的若干关键部位的偏移角度数据,进行打分,评分等级分为专家、优秀、良好和尚需努力,将打分结果在软件中进行反馈。
进一步地,在数据处理模块中,矫正矢量计算公式为并通过矫正矢量计算偏移夹角,通过偏移夹角和矫正矢量数据,在软件中显示矫正矢量,提醒用户动作姿势的偏移。
进一步地,在数据处理模块中,所述标准唱腔与用户音频的匹配与反馈,将标准唱腔库中的音频样例和用户音频都按照一定的时间间隔分为多个帧,进行音频短时能量的特征提取,根据每一帧的短时平均能量形成短时能量包络,将包络切分成不同的能量包络单元,利用ONSET检测法,形成能量包络单元图,选择每个能量包络单元的起始点作为匹配操作的点;用切分点位置和切分点的概率描述能量包络单元图;计算匹配概率和音频片段相似值;将相似值与设定若干等级的阈值进行比较,每个等级阈值对应相应的得分,若相似值在某个阈值范围内,则显示用户音频片段的得分。
进一步地,在用户界面交互模块中,所述操作界面显示与切换通过手势识别的判定结果来对界面进行切换,以完成对系统的逻辑控制,系统有单人模式,双人模式;
所述京剧教学视频显示,通过手势识别的判定结果用户选择曲目,显示京剧教学视频,用户根据此教学视频进行动作学习。
进一步地,在用户界面交互模块中,还包括通过手势识别的判定结果显示经由动作渲染和平滑处理,显示与用户实时同步的用户模型。
进一步地,在用户界面交互模块中,通过3D建模软件MAYA设计单人模式和双人模式的应用场景,分别为四合院和宫殿。
采用上述技术方案,本发明具有如下有益效果:
本发明的京剧教学系统全程体感操作,识别率高,无需键盘、鼠标作为输入。本系统采用了鲁棒、高效的手势识别算法,通过定义识别率高且不易混淆的常用手势,建立姿势库,当系统获取人体骨骼关节信息后,能够进行快速姿势匹配,并且添加定时器,仅当满足一定时间长度的姿势才识别为人体交互姿势,提升了整体动作识别的准确度,并降低了误识别的概率。全程体感操作能够提升用户的使用体验,不需要间断地使用鼠标、键盘等操作完成逻辑控制,只需简单的肢体动作,即可操控整个系统流程,操作简单,易学易用。
本发明用户模型与实际用户姿势同步率高,且无抖动、跳帧现象。由于体感捕捉的硬件限制及骨骼追踪时的环境噪声影响,当用户动作姿势过快时,京剧模型可能会产生抖动与跳帧现象。本系统采用了基于线性指数平滑算法的思想,并通过霍尔特指数平滑来减少关节点的抖动,并能够根据用户的动作幅度,自适应调整平滑值,修正值,使得用户模型的动作更流畅。
本发明的系统寓教于乐,能够给予用户姿势动作、演唱反馈与评价。通过离线记录的标准京剧角色动作与用户在线姿势进行匹配,当用户动作失误时,能够给予用户以动作矫正提醒,并在画面显示,帮助用户矫正身体姿态。当曲目结束后,系统会根据用户整体的动作标准程度进行评级,并且系统采用基于能量包络的音频匹配方法,将离线标准唱腔与用户演唱音频的频率和能量同时进行匹配,能够全面地估计音频匹配度。由此,系统协助用户不断提升京剧的动作表演与演唱水平。
三维场景与京剧人物模型逼真,能够给予用户身临其境之感。本发明的三维场景与京剧人物模型都采用三维建模软件MAYA进行设计,不论是单人模式的贵妃,或是双人模式的霸王和虞姬,在服装,配饰,发型,脸谱等方面的设计都是细致入微,尽量地还原专业的京剧装扮。同时,原始教学音频也采用京剧大师的唱段,能够给用户带来良好的视觉、听觉体验。
本发明京剧教学系统运行稳定流畅,没有画面卡顿现象,使得用户能够轻松地操作与娱乐。由于本系统全程采用简洁、高效的手势识别算法,能够不产生较大负载的情况下完成用户与系统的体感交互,减少了系统资源占用。另一方面,当用户动作变化过于迅速时,系统采用基于线性指数平滑算法的思想,通过霍尔特指数平滑来保持模型运动的连续性,消除抖动感,为用户呈现流畅的观感。
本发明系统具有较强的互动参与性,支持多人协同教学模式。用户可以选择进行单人模式或是多人模式,当用户选择多人模式时,可以相互协同进行京剧表演,更具乐趣。此外,针对于可能出现的用户身体相互遮挡的情况,设定遮挡阈值来判定是否存在骨骼遮挡。当遮挡发生时,匹配系统采用鲁棒的动作估计算法,根据遮挡前数帧骨骼关节运动数据来估计用户当前可能位置,由此消除了短时间遮挡引起的人物模型剧烈形变的现象。
附图说明
图1为本发明系统模块结构图;
图2为本发明一个实施例中动作表演与音频的匹配打分流程图;
图3为人体骨骼关节点示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的结构图及具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1
图1为本发明系统模块结构图,如图1所示,本发明涉及一种基于体感交互的京剧教学系统,包括数据采集模块、数据处理模块和用户界面交互模块,数据采集模块通过体感交互设备获得用户的关节信息和声音数据,体感交互设备与装载于Windows或微软XBOX平台中的体感交互软件之间进行数据的通信;
数据处理模块通过手势识别算法,实现用户对系统的逻辑控制;在表演场景中,获取用户关节数据,显示与用户动作同步的用户模型,进行京剧标准模型与用户模型的匹配与反馈;获取用户声音数据,进行标准唱腔与用户音频的匹配与反馈;
用户界面交互模块在通过对用户手势的识别进行操作界面显示与切换、京剧教学视频显示、动作表演评价显示以及音频打分显示。
优选地,在用户界面交互模块中,操作界面显示与切换通过手势识别的判定结果来对界面进行切换,以完成对系统的逻辑控制,系统有单人模式,双人模式;
京剧教学视频显示,通过手势识别的判定结果用户选择曲目,显示京剧教学视频,用户根据此教学视频进行动作学习。
另一优选实施方案在用户界面交互模块中,还包括通过手势识别的判定结果显示经由动作渲染和平滑处理,显示与用户实时同步的用户模型。
在用户界面交互模块中,通过3D建模软件MAYA设计单人模式和双人模式的应用场景,分别为四合院和宫殿。
实施例2
图2为动作表演与音频的匹配打分流程图,如图2所示,在数据采集模块中通过硬件设备来获取用户的关节信息和声音信息,以便后续的数据处理。
获取关节信息:经由Kinect体感交互系统,实时地获取到用户的人体20个关节位置、旋转参数。
获取音频信息:为用户佩戴无线耳麦,并在PC机安装音频接收器,获取用户演唱声音数据。
在数据处理模块中通过由数据采集模块得到的数据进行处理,通过手势识别算法,实现用户对系统的逻辑控制,在表演场景中,系统自动获取用户的关节数据,显示与人体模型同步的京剧模型,同时进行标准模型与人体模型的匹配与反馈,以及标准唱腔与用户音频匹配。
本发明完全基于手势操控,当用户进入主界面后,需要通过手势对整个系统进行逻辑控制,如图2所示。系统采用简单并常用的人体姿势用以逻辑控制,举例来说:左右手滑动——曲目选择、右手上举——确认曲目、双手放平(T pose)——切换模式、双手上举——退出。用户可以在主菜单通过左右滑动选择曲目,分别为单人模式的贵妃醉酒和双人模式的霸王别姬,上举右手以选择曲目,进入表演场景。进入场景后分为原声模式与伴唱模式,可使用T pose来进行相互切换。手势识别算法的实现过程如下:
优选地,通过设备硬件获取人体20块骨骼关节点的三维坐标,人体骨骼关节点图如图3所示,与命名见表1:
表1:人体骨骼关节点编号和名称
编号 | 命名 | 编号 | 命名 | 编号 | 命名 | 编号 | 命名 |
A | 臀部中心 | E | 左肘 | I | 右腕 | S | 左脚 |
B | 脊柱中心 | F | 左腕 | R | 右手 | M | 右臀部 |
C | 肩膀中心 | Q | 左手 | J | 左臀部 | N | 右膝盖 |
P | 头部 | G | 右肩 | K | 左膝盖 | O | 右踝 |
D | 左肩 | H | 右肘 | L | 左踝 | T | 右脚 |
计算骨骼关节点间的距离:设A(x1,y1,z1),B(x2,y2,z2)为空间坐标系的2个点,利用欧式距离公式:
可以求出两点之间的距离D。
计算骨骼关节点间的角度:此算法以一个骨骼关节点(骨骼关节点A)为基准点,再确定另外一个骨骼关节点(骨骼关节点B),求出两个骨骼关节点与基准点的X轴的角度大小θ。
根据空间坐标系的相对关系,计算角度θ,即:
其中,Δx为A、B两点x轴坐标差Δx=|x1-x2|,Δy为A、B两点y轴坐标差Δy=|y1-y2|。
定义人体常用手势:根据骨骼关节点间的角度大小,再确定骨骼关节点间的夹角关系,即可定义常用的手势。设θi(i=1,2,3,4...)为骨骼关节点间的角度。设定常用手势中所用到的骨骼关节点间夹角为:θ1=(左肩,左肘),θ2=(左肘,左腕),θ3=(右肩,右肘),θ4=(右肘,右腕)。为满足不同精度要求,设定角度阀值τ(默认τ=15°)τ。则常用手势定义满足的角度条件为:
Δ=(θ1,θ2,θ3,θ4,τ)
常用手势定义如表2所示:
表2常用手势定义
人体手势匹配:根据上述常用手势的定义,通过大量测试后设定适当阀值,设定常用手势库。遍历所有角度,根据公式判断4个角度是否在规定阀值范围内,若在,则手势匹配成功。判断公式为:
其中,θi为实际测量角度,αi为设定的定义角度。
添加定时器:为了防止误识别,即误将用户的普通动作识别成人机交互手势,我们加入一个定时器,为每个人机交互手势确定有效时间,使得人际交互手势仅在一定时间内有效,超出或不足限定时间则无效,由此区别用户的手势用于人机交互还是普通手势。
在用户与3D模拟京剧人物的匹配过程中,由于Kinect的硬件限制以及Kinect在进行骨骼追踪时受到的环境噪声影响,当用户一串动作时会出现骨骼关节点的相对位置在帧与帧之间变化较大时产生抖动或跳跃,造成虚拟动作的不真实。该模块基于线性指数平滑算法的思想,通过霍尔特指数平滑来减少关节点的抖动,解决了Kinect传感器无法保证骨骼关节所产生的持续准确性问题,优化Kinect生成的原始骨骼信息,提高了用户与3D模拟京剧人物模型动作的实时匹配度。
骨骼数据采集:通过Kinect采集人体数据,获取用户人体骨骼运动数据,保存于NUI_SKELETON_FRAME骨骼帧中。
设置Prediction(预测帧大小)、JitterRadius(抖动半径)、MaxDeviationRadius(最大偏离半径)等参数。其中参数Prediction用于设定未来预测帧的数目,防止数据变化快时导致过冲现象;参数JitterRadius用于设置修正的半径,决定从原始半径消除抖动的积极程度,一旦关节点“抖动”超过了该设定值,将会被纠正到该半径之内;参数MaxDeviationRadius用来和参数JitterRadius一起设定抖动半径的边界,任何超过这一半径的点不会认为是抖动产生的,而会被认为是一个新的点。Prediction、JitterRadius、MaxDeviationRadiuss是算法预期要求的数据,不需要自适应调整,根据经验与实验结果,分别取值0.5f、0.05f、0.04f。
自适应调节Smoothing(平滑值,记为参数α)、Correction(修正值,记为参数γ)两个平滑参数。参数Smoothing用于设定处理骨骼数据帧的平滑量,0表示不平滑,值越趋近于1表示平滑效果越好;参数Correction用于设定平滑的校正量,取[0,1]之间,值越大表示修正速度越快。当关节运动速度不快时,视觉对运动的关节轨迹较为敏感,较多地考虑消除关节的抖动,采用较小的α和γ参数以采取更积极的平滑策略,由于是慢速运动,可将γ取较小的值时所带来的延时抵消;相反地,为了能更好的相应输入变化,对于关节的高速运动,应选取较大数值的α和γ参数。
具体方法为,预设两组α值和γ值,一组对应于关节低速运动,设为αlow与γlow,一组对应于关节高速运动,设为αhigh与γhigh,并且设置了两组速度的临界值vlow和vhigh。对于每一个输入的关节节点Xn,对其的速度可判定为vn=|Xn-Xn-1|,因为关节点的速度越快,偏移的距离越长。由此构建α与关节运动速度vn的关系,如以下公式所示:
构建γ与关节运动速度v、n的关系,如下公式所示:
当运动的速度加快,即相邻两帧的距离变大超过阈值时,这时提高α、γ的值,以加大对骨骼运动的平滑。反之当运动的速度减慢,即相邻两帧的距离小到低于阈值下限时,降低α、γ的值。当运动速度介于上、下限之间时,α、γ值根据差值结果变动。
计算平滑后的骨骼关节点数据:结合经验参数Prediction、JitterRadius、MaxDeviationRadius和自适应参数Smoothing、Correction,计算平滑后的骨骼关节点数据。本算法结合霍尔特指数对骨骼关节点数据进行平滑,使用两个基本平滑公式和一个预测公式对骨骼动作进行平滑,其中两个基本平滑公式分别对时间序列的两种因素进行平滑,具体的公式如下:
对时间趋势因素的平滑式:St=αYt+(1-α)(St-1-Bt-1)
对趋势增量的平滑式:Bt=γ(St-St-1)+(1-γ)Bt-1
预测公式如下:
其中,St表示对时间趋势因素的平滑变量,Bt表示对趋势增量的平滑变量,α表示平滑系数、γ表示修正系数,T表示预测系数。
优选地,本发明为每个表演曲目中的每个京剧人物模型,邀请专业的京剧演员,通过软件将标准的京剧动作进行记录存储,得到一定时间长度范围内的京剧标准模型的世界坐标系下的关节点位置、旋转数据。用户使用时,将用户事实的骨骼数据与标准骨骼数据进行匹配,并进行动作反馈。以肘关节为例,进行方法说明。
计算相邻关节的空间矢量:通软件Kinect,获取用户肘关节实时坐标为(x,y,z),其父关节(即肩关节)的实时坐标为(x0,y0,z0),由此得到上臂矢量标准模型的肘关节坐标(x′,y′,z′),以及父关节坐标(x′0,y′0,z′0),得到上臂矢量
计算矢量夹角:令矢量与矢量始点相同,都为玩家的肩关节坐标,计算空间夹角,如下公式所示:
计算矫正矢量:由于得到了空间中的始点相同的两个空间矢量与因此能够确定在三维空间的唯一平面α。在此平面上,过肘关节与其父关节连线的中点,做垂直于矢量的空间直线,由此确定了指向标准骨骼位置的矫正矢量
同理,由于在进行京剧表演时,需要被提示矫正的身体部位为上臂、前臂、头部、大腿,小腿,对这几个身体部位的相应关节点计算偏移夹角与矫正矢量。系统中设定当骨骼角度相差超过15°时,将在画面中绘制矫正矢量,由此提醒玩家身体动作姿势的偏移。
当用户的表演结束后,根据这几个关键部位的偏移角度数据,进行打分。各身体部位动作平均偏移角度小于10°为专家,10°至20°为优秀,20°至40°为良好,40°以上为尚需努力。
本发明采集专业京剧从业者的京剧唱腔,并根据用户在线演唱的音频数据,提供一种音频打分方法,用于将待测音频流片段与标准音频库中音频样例的音频片段相比较,从而为待测音频流片段进行打分。
选择匹配操作的点:对待测试音频流片段以及标准音频库中的音频样例都按照一定的时间间隔分为多个帧,然后进行音频短时能量的特征提取,根据每一帧的短时平均能量形成短时能量包络。根据音频的短时能量特征,将包络切分成不同的能量包络单元,利用ONSET检测法,形成能量包络单元图。再在此图上,选择每个能量包络单元的起始点作为匹配操作的点。
将数据进行数对表示:将每个音频样例及待测音频流片段分别用切分点和概率对的数对形式表示。例如,用U表示一个音频样例,它的表示形式为其中,u1,u2,...,um为切分点的位置,p1,p2,...,pm表示切分点概率。同样的,对于待测音频流片段也可以用数对的形式表示,用V表示该数据,则V=(v1,q1),(v2,q2),...,(vn,qn),其中,vi,qi分别表示切分点位置和每个切分点的概率。这种数对表示形式实质上是能量包络单元图的另一种表达形式。
计算匹配概率:在音频样例的能量包络单元中存在一个切分点ui,而在待测音频流片段中存在一个切分点vj,当满足条件|ui-vj|<T时,认为ui为匹配点;其中,所述T是一个预先定义的阈值。匹配点对应的匹配概率为切分点ui的切分点概率和切分点vj的切分点概率的较小值。
计算音频片段相似值:对上述的匹配点以及对应音频样例中的相应切分点,计算召回率R与精确率P,进而计算相似性度量函数的值。
召回率R的计算公式为:
其中,U表示音频样例,V表示待测音频流片段中的一段,pm表示所述音频样例的能量包络单元中的切分点概率,p′k表示匹配点的匹配概率。
精确率P的计算公式为:
其中,U表示音频样例;V表示待测音频流片段中的一段;qn表示所述待测音频流片段中的一段的切分点概率;p′k表示匹配点的匹配概率。
相似性度量函数的计算公式为:
计算匹配分数:将相似值与预先设定的多个等级阈值进行比较,每个等级阈值对应相应的得分,若所述的相似值在某个阈值范围内,则显示待测音频片段的得分。
实施例3
本发明的用户界面交互模块中,获取数据处理模块的计算结果,在屏幕上显示相应交互信息。包括以下(a)到(h)功能。
(a)界面显示与切换
当用户进入系统时,通过手势识别的判定结果来对界面进行切换,以完成对系统的逻辑控制,系统有单人模式,双人模式等。
(b)京剧模型同步显示
经由京剧模型动作渲染与平滑的处理,显示与用户实时同步的京剧模型。
(c)模型矫正提示
通过标准模型与用户模型匹配的结果,获取到反馈矢量,并在三维空间中绘制反馈矢量,显示在画面中。
(d)京剧教学视频显示
用户选择曲目后,屏幕左上角会显示京剧教学视频的窗口,用户可以根据此教学视频进行动作表演。
(e)三维场景显示
本系统通过3D建模软件MAYA设计单人模式和双人模式的应用场景,分别为四合院和宫殿。
(f)字幕显示
在用户表演时,屏幕的中下方将实时地显示与教学视频同步的京剧唱词字幕,方便用户演唱。
(g)动作表演评价
曲目结束后,系统根据整个曲目中用户的表演动作匹配结果,显示其动作表演的评价结果。
(h)音频打分显示
当曲目结束后,系统将显示标准唱腔与用户音频匹配的评价分数。
以上所述实施例仅表达了本发明的实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (12)
1.一种基于体感交互的京剧教学系统,包括数据采集模块、数据处理模块和用户界面交互模块,其特征在于:所述数据采集模块通过体感交互设备获得用户的关节信息和声音数据,所述体感交互设备与装载于Windows或微软XBOX平台中的感交互软件之间进行数据的通信;
所述数据处理模块通过手势识别算法,实现用户对系统的逻辑控制;在表演场景中,获取用户关节数据,显示与用户动作同步的用户模型,进行京剧标准模型与用户模型的匹配与反馈;获取用户声音数据,进行标准唱腔与用户音频的匹配与反馈;
所述用户界面交互模块通过对用户手势的识别,进行操作界面显示与切换、京剧教学视频显示、动作表演评价显示以及音频打分显示。
2.根据权利要求1所述的基于体感交互的京剧教学系统,其特征在于:在数据采集模块中,定义多个骨骼关节点的三维坐标,体感交互设备实时地获得用户关节位置和旋转参数;通过用户佩戴的耳麦将音频数据传输至计算机的音频接收器,获得用户演唱的声音数据。
3.根据权利要求1所述的基于体感交互的京剧教学系统,其特征在于:在数据处理模块中,基于线性指数平滑算法,利用霍尔特指数平滑来减少关节点的抖动,通过设置平滑值和修正值,减少骨骼关节点在帧与帧之间的跳跃,进行用户模型动作的渲染与平滑。
4.根据权利要求1所述的基于体感交互的京剧教学系统,其特征在于:在数据处理模块中,所述手势识别算法包括计算骨骼关节点间的距离,公式为其中,x、y、z表示关节点的三维坐标,D表示A、B点之间的距离;
计算两个骨骼关节点与基准点的X轴的角度大小θ,公式为
其中,Δx为两点间x轴坐标差Δx=|x1-x2|,Δy为两点间y轴坐标差Δy=|y1-y2|;
将常用手势定义为不同关节点间的角度条件,设定阈值范围,并建立常用手势库,用户动作落入手势库阈值范围内,判断手势匹配成功。
5.根据权利要求4所述的基于体感交互的京剧教学系统,其特征在于:在数据处理模块中加入定时器,为每个逻辑控制手势确定有效时间,使得逻辑控制手势仅在一定时间内有效,超出或不足限定时间则无效,由此区别用户的手势用于逻辑控制还是普通手势。
6.根据权利要求3所述的基于体感交互的京剧教学系统,其特征在于:所述线性指数平滑算法使用两个基本平滑公式和一个预测公式对骨骼动作进行平滑,其中两个基本平滑公式分别对时间序列的两种因素进行平滑公式如下:
St=αYt+(1-α)(St-1-Bt-1),
Bt=γ(St-St-1)+(1-γ)Bt-1,
其中St表示对时间趋势因素的平滑变量,Bt表示对趋势增量的平滑变量,α表示平滑系数、γ表示修正系数,T表示预测系数。
7.根据权利要求1所述的基于体感交互的京剧教学系统,其特征在于:在数据处理模块中所述标准模型与用户模型的匹配,通过标准京剧动作存储一定时间长度内京剧标准模型在坐标系下的关节点位置、旋转数据,将用户模型的关节点位置、旋转数据与京剧标准模型的数据进行匹配,根据设定的若干关键部位的偏移角度数据,进行打分,评分等级分为专家、优秀、良好和尚需努力,将打分结果在软件中进行反馈。
8.根据权利要求1所述的基于体感交互的京剧教学系统,其特征在于:在数据处理模块中,矫正矢量计算公式为并通过矫正矢量计算偏移夹角,通过偏移夹角和矫正矢量数据,在软件中显示矫正矢量,提醒用户动作姿势的偏移。
9.根据权利要求1所述的基于体感交互的京剧教学系统,其特征在于:在数据处理模块中,所述标准唱腔与用户音频的匹配与反馈,将标准唱腔库中的音频样例和用户音频都按照一定的时间间隔分为多个帧,进行音频短时能量的特征提取,根据每一帧的短时平均能量形成短时能量包络,将包络切分成不同的能量包络单元,利用ONSET检测法,形成能量包络单元图,选择每个能量包络单元的起始点作为匹配操作的点;用切分点位置和切分点的概率描述能量包络单元图;计算匹配概率和音频片段相似值;将相似值与设定若干等级的阈值进行比较,每个等级阈值对应相应的得分,若相似值在某个阈值范围内,则显示用户音频片段的得分。
10.根据权利要求1所述的基于体感交互的京剧教学系统,其特征在于:在用户界面交互模块中,所述操作界面显示与切换通过手势识别的判定结果来对界面进行切换,以完成对系统的逻辑控制,系统有单人模式,双人模式;
所述京剧教学视频显示,通过手势识别的判定结果用户选择曲目,显示京剧教学视频,用户根据此教学视频进行动作学习。
11.根据权利要求3所述的基于体感交互的京剧教学系统,其特征在于:在用户界面交互模块中,还包括通过手势识别的判定结果显示经由动作渲染和平滑处理,显示与用户实时同步的用户模型。
12.根据权利要求1所述的基于体感交互的京剧教学系统,其特征在于:在用户界面交互模块中,通过3D建模软件MAYA设计单人模式和双人模式的应用场景,分别为四合院和宫殿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610292437.6A CN106020440A (zh) | 2016-05-05 | 2016-05-05 | 一种基于体感交互的京剧教学系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610292437.6A CN106020440A (zh) | 2016-05-05 | 2016-05-05 | 一种基于体感交互的京剧教学系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106020440A true CN106020440A (zh) | 2016-10-12 |
Family
ID=57082270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610292437.6A Pending CN106020440A (zh) | 2016-05-05 | 2016-05-05 | 一种基于体感交互的京剧教学系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106020440A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106971647A (zh) * | 2017-02-07 | 2017-07-21 | 广东小天才科技有限公司 | 一种结合肢体语言的口语训练方法及系统 |
CN107168518A (zh) * | 2017-04-05 | 2017-09-15 | 北京小鸟看看科技有限公司 | 一种用于头戴显示器的同步方法、装置及头戴显示器 |
CN107240049A (zh) * | 2017-05-10 | 2017-10-10 | 中国科学技术大学先进技术研究院 | 一种沉浸式环境中远程动作教学质量的自动评价方法和系统 |
CN107247924A (zh) * | 2017-05-19 | 2017-10-13 | 安徽信息工程学院 | 基于Kinect的动作比对系统和比对方法 |
CN107293175A (zh) * | 2017-08-04 | 2017-10-24 | 华中科技大学 | 一种基于体感技术的机车手信号操作训练方法 |
CN108053488A (zh) * | 2017-11-27 | 2018-05-18 | 广东畅响源教育科技有限公司 | 一种基于虚拟技术的建模与操控方法及系统 |
CN108227931A (zh) * | 2018-01-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 用于控制虚拟人物的方法、设备、系统、程序和存储介质 |
CN108304762A (zh) * | 2017-11-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种人体姿态匹配方法及其设备、存储介质、终端 |
CN108829232A (zh) * | 2018-04-26 | 2018-11-16 | 深圳市深晓科技有限公司 | 基于深度学习的人体骨骼关节点三维坐标的获取方法 |
CN109101879A (zh) * | 2018-06-29 | 2018-12-28 | 温州大学 | 一种vr虚拟课堂教学的姿态交互系统及实现方法 |
CN109243562A (zh) * | 2018-09-03 | 2019-01-18 | 陈怡� | 一种基于Elman神经网络和遗传算法的形象气质提升方法 |
CN110263723A (zh) * | 2019-06-21 | 2019-09-20 | 王森 | 室内空间的姿态识别方法、系统、介质、设备 |
CN110443167A (zh) * | 2019-07-23 | 2019-11-12 | 中国建设银行股份有限公司 | 传统文化手势的智能识别方法、智能交互方法及相关装置 |
CN111626247A (zh) * | 2020-06-01 | 2020-09-04 | 上海商汤智能科技有限公司 | 姿态检测的方法、装置、电子设备及存储介质 |
CN111639612A (zh) * | 2020-06-04 | 2020-09-08 | 浙江商汤科技开发有限公司 | 姿态矫正的方法、装置、电子设备及存储介质 |
CN111641841A (zh) * | 2020-05-29 | 2020-09-08 | 广州华多网络科技有限公司 | 虚拟蹦迪活动数据交换方法、装置、介质及电子设备 |
CN111836113A (zh) * | 2019-04-18 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 信息处理方法、客户端、服务器及介质 |
CN112835449A (zh) * | 2021-02-03 | 2021-05-25 | 青岛航特教研科技有限公司 | 一种基于虚拟现实与体感设备交互的安全体感教育系统 |
CN113283384A (zh) * | 2021-06-17 | 2021-08-20 | 贝塔智能科技(北京)有限公司 | 一种基于肢体识别技术的太极互动系统 |
CN115797559A (zh) * | 2022-11-24 | 2023-03-14 | 广州美术学院 | 基于虚拟现实的非物质文化遗产模拟体验交互方法及装置 |
-
2016
- 2016-05-05 CN CN201610292437.6A patent/CN106020440A/zh active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106971647A (zh) * | 2017-02-07 | 2017-07-21 | 广东小天才科技有限公司 | 一种结合肢体语言的口语训练方法及系统 |
CN107168518A (zh) * | 2017-04-05 | 2017-09-15 | 北京小鸟看看科技有限公司 | 一种用于头戴显示器的同步方法、装置及头戴显示器 |
CN107240049A (zh) * | 2017-05-10 | 2017-10-10 | 中国科学技术大学先进技术研究院 | 一种沉浸式环境中远程动作教学质量的自动评价方法和系统 |
CN107240049B (zh) * | 2017-05-10 | 2020-04-03 | 中国科学技术大学先进技术研究院 | 一种沉浸式环境中远程动作教学质量的自动评价方法和系统 |
CN107247924A (zh) * | 2017-05-19 | 2017-10-13 | 安徽信息工程学院 | 基于Kinect的动作比对系统和比对方法 |
CN107293175A (zh) * | 2017-08-04 | 2017-10-24 | 华中科技大学 | 一种基于体感技术的机车手信号操作训练方法 |
CN108053488A (zh) * | 2017-11-27 | 2018-05-18 | 广东畅响源教育科技有限公司 | 一种基于虚拟技术的建模与操控方法及系统 |
CN108304762A (zh) * | 2017-11-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种人体姿态匹配方法及其设备、存储介质、终端 |
CN108304762B (zh) * | 2017-11-30 | 2021-11-05 | 腾讯科技(深圳)有限公司 | 一种人体姿态匹配方法及其设备、存储介质、终端 |
CN108227931A (zh) * | 2018-01-23 | 2018-06-29 | 北京市商汤科技开发有限公司 | 用于控制虚拟人物的方法、设备、系统、程序和存储介质 |
CN108829232A (zh) * | 2018-04-26 | 2018-11-16 | 深圳市深晓科技有限公司 | 基于深度学习的人体骨骼关节点三维坐标的获取方法 |
CN108829232B (zh) * | 2018-04-26 | 2021-07-23 | 深圳市同维通信技术有限公司 | 基于深度学习的人体骨骼关节点三维坐标的获取方法 |
CN109101879A (zh) * | 2018-06-29 | 2018-12-28 | 温州大学 | 一种vr虚拟课堂教学的姿态交互系统及实现方法 |
CN109243562A (zh) * | 2018-09-03 | 2019-01-18 | 陈怡� | 一种基于Elman神经网络和遗传算法的形象气质提升方法 |
CN111836113A (zh) * | 2019-04-18 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 信息处理方法、客户端、服务器及介质 |
CN110263723A (zh) * | 2019-06-21 | 2019-09-20 | 王森 | 室内空间的姿态识别方法、系统、介质、设备 |
CN110443167A (zh) * | 2019-07-23 | 2019-11-12 | 中国建设银行股份有限公司 | 传统文化手势的智能识别方法、智能交互方法及相关装置 |
CN110443167B (zh) * | 2019-07-23 | 2022-05-17 | 中国建设银行股份有限公司 | 传统文化手势的智能识别方法、智能交互方法及相关装置 |
CN111641841A (zh) * | 2020-05-29 | 2020-09-08 | 广州华多网络科技有限公司 | 虚拟蹦迪活动数据交换方法、装置、介质及电子设备 |
CN111641841B (zh) * | 2020-05-29 | 2022-04-19 | 广州方硅信息技术有限公司 | 虚拟蹦迪活动数据交换方法、装置、介质及电子设备 |
CN111626247A (zh) * | 2020-06-01 | 2020-09-04 | 上海商汤智能科技有限公司 | 姿态检测的方法、装置、电子设备及存储介质 |
CN111639612A (zh) * | 2020-06-04 | 2020-09-08 | 浙江商汤科技开发有限公司 | 姿态矫正的方法、装置、电子设备及存储介质 |
CN112835449A (zh) * | 2021-02-03 | 2021-05-25 | 青岛航特教研科技有限公司 | 一种基于虚拟现实与体感设备交互的安全体感教育系统 |
CN113283384A (zh) * | 2021-06-17 | 2021-08-20 | 贝塔智能科技(北京)有限公司 | 一种基于肢体识别技术的太极互动系统 |
CN115797559A (zh) * | 2022-11-24 | 2023-03-14 | 广州美术学院 | 基于虚拟现实的非物质文化遗产模拟体验交互方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106020440A (zh) | 一种基于体感交互的京剧教学系统 | |
CN107349594B (zh) | 一种虚拟舞蹈系统的动作评价方法 | |
CN108764120B (zh) | 一种人体规范动作评价方法 | |
TWI377055B (en) | Interactive rehabilitation method and system for upper and lower extremities | |
KR101936692B1 (ko) | 댄스 키모션 자동생성을 이용한 댄스 트레이닝 장치 및 방법 | |
CN102470273B (zh) | 基于玩家表情的视觉表示表情 | |
JP2019532374A (ja) | ユーザの感情状態を用いて仮想画像生成システムを制御するための技術 | |
KR101979750B1 (ko) | 댄스 트레이닝 콘텐츠 저작 시스템 | |
CN103678859B (zh) | 动作比对方法与动作比对系统 | |
CN109758157A (zh) | 基于增强现实的步态康复训练评估方法与系统 | |
CN108986884A (zh) | 一种平衡康复与认知康复相融合的训练系统和方法 | |
CN104353240A (zh) | 基于Kinect的跑步机系统 | |
CN111617464B (zh) | 一种动作识别的跑步机健身方法 | |
JP2011258130A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
US11682157B2 (en) | Motion-based online interactive platform | |
Kitsikidis et al. | Multi-sensor technology and fuzzy logic for dancer’s motion analysis and performance evaluation within a 3D virtual environment | |
CN111539245B (zh) | 一种基于虚拟环境的cpr技术训练评价方法 | |
CN110812798B (zh) | 基于vr的前臂内外旋转训练评估系统、方法及存储介质 | |
CN103207667A (zh) | 一种人机互动的控制方法及其运用 | |
US20220335625A1 (en) | Video generation device | |
Shiro et al. | InterPoser: Visualizing interpolated movements for bouldering training | |
Jeanne et al. | EBAGG: Error-based assistance for gesture guidance in virtual environments | |
Pai et al. | Home Fitness and Rehabilitation Support System Implemented by Combining Deep Images and Machine Learning Using Unity Game Engine. | |
CN101579571A (zh) | 实景游戏装置及实现实景游戏的方法 | |
Yang et al. | Bimanual natural user interaction for 3D modelling application using stereo computer vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20161012 |