CN114360329B - 一种用于艺术教育的交互式多功能演播室 - Google Patents

一种用于艺术教育的交互式多功能演播室 Download PDF

Info

Publication number
CN114360329B
CN114360329B CN202210029967.7A CN202210029967A CN114360329B CN 114360329 B CN114360329 B CN 114360329B CN 202210029967 A CN202210029967 A CN 202210029967A CN 114360329 B CN114360329 B CN 114360329B
Authority
CN
China
Prior art keywords
interactive
data
interaction
teaching
feedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210029967.7A
Other languages
English (en)
Other versions
CN114360329A (zh
Inventor
赵耘曼
王苗苗
莫诚成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University Of Media And Communications
Original Assignee
Sichuan University Of Media And Communications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University Of Media And Communications filed Critical Sichuan University Of Media And Communications
Priority to CN202210029967.7A priority Critical patent/CN114360329B/zh
Publication of CN114360329A publication Critical patent/CN114360329A/zh
Application granted granted Critical
Publication of CN114360329B publication Critical patent/CN114360329B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提供一种用于艺术教育的交互式多功能演播室,涉及艺术教育领域。本发明在使用VR虚拟技术的同时,还部署有交互教学设备;通过交互教学设备能对授课老师的交互动作进行采集与呈现;可视化呈现能使学生能掌握各个动作细节,学习更加高效轻松;通过专用教学设备使学生能直观地观察到各教学设备的动作细节和量化指标;采用Htc Vive灯塔进行定位,具备计算能力非常小、延迟低、硬件成本低、定位跟踪都非常精确等优点;通过评分端可以考察学员的动作标准情况,将过去无法量化的动作量化为指标,通过纠正端可以将学员不标准的地方进行量化并指出,从而促进艺术教育的及时反馈与纠正,增加学员的学习积极性与效率。

Description

一种用于艺术教育的交互式多功能演播室
技术领域
本发明涉及艺术教育领域,尤其涉及一种用于艺术教育的交互式多功能演播室。
背景技术
随着时代的向前发展,艺术教育已经逐步占据教育体系的主要地位,艺术教育能提高人们对美的感受和理解,它是提高个人素质和修养的新兴教育模式。艺术教育的形式繁多,例如舞蹈、声乐、雕塑、绘画等。艺术教育可以让孩子解放天性、建立自信、塑造不凡谈吐,也能使孩子对艺术的见解力得到提高,增强艺术修养以及表演的胆识。为更大的舞台做好铺垫。学习艺术能使孩子性格变得开朗,能与陌生人更好地交流。培养孩子的社会活动能力,全面提高孩子的综合素质。发掘孩子的表演等天赋,增强适应社会的能力。
但是,现有艺术教育存在师资力量不足,在大班教学时,后排同学无法细致听取老师教授内容的情况,此外,艺术教育不像传统的书本文化课教育,需要学生从不同角度来观察老师,例如在学习雕塑时,需要观察老师的动作姿势,雕刻凿的摆放位置,锤凿的角度和力量等,这就导致传统课堂教育无法全方位地对其进行展示,从而影响艺术教育质量。
为此,公开号为:CN111192486A的发明申请提供了一种基于物联网的VR云端一体化智慧教学系统,包括控制芯片,所述控制芯片电性双向连接有云桌面系统,所述云桌面系统分别电性双向连接有智慧班牌系统、虚拟现实系统和VR识别教育系统,所述控制芯片电性双向连接有互动教学云平台,该发明通过采用VR技术,可实现将日常学习过程中,采用VR投影的方式,进一步将教学内容实体化,从而提高学习的真实互动感,提高学习质量,并且采用VR投影,可以实现远端的投影会议、信息播报、云端学习等方式,营造一种讲师一对一辅导的现实感觉,将现有的2D视频进行立体化,从而实现3D真人版一对一教学,提高教学效果。
但是,在进行艺术教育时,我们不仅需要身临其境的课堂体验,更需要将授课老师的动作细节进行展示,如:在进行绘画时,学生需要了解画笔的位置,画笔移动的速度,手部动作等。但该申请未就这些问题进行解决。
因此,有必要提供新的一种用于艺术教育的交互式多功能演播室来解决上述技术问题。
发明内容
为解决上述之一技术问题,本发明提供的一种用于艺术教育的交互式多功能演播室,包括多功能演播室、演播室云端服务器和交互终端。
具体的,所述多功能演播室包括多功能教学区和演播录制区;所述多功能教学区用于向授课老师提供教学空间并部署有交互教学设备,所述交互教学设备包括教学设备本体和互动反馈单元;所述互动反馈单元分别部署在各教学设备本体上;所述演播录制区用于提供演播录制空间并部署有VR演播录制设备、交互数据采集设备和数据融合单元;所述VR演播录制设备用于对多功能教学区进行多方位视频采集和音频采集,并将采集到的多方位视频数据构筑为VR视频数据;所述交互数据采集设备用于采集授课老师在进行教学时的动作反馈信息并与互动反馈单元电性连接;所述数据融合单元用于将VR视频数据与动作反馈信息进行时序匹配和融合,得到融合交互数据并上传至演播室云端服务器。
更加具体的,所述演播室云端服务器对融合交互数据进行接收/存储/管理/调用,并与各交互终端建立通信连接;所述交互终端部署在各智能设备上,并能对融合交互数据进行实时显示播放。
作为更进一步的解决方案,所述交互教学设备包括通用交互设备和专用教学设备;所述通用交互设备包括动作捕捉手套、动作捕捉头套和动作捕捉服,所述动作捕捉手套、动作捕捉头套和动作捕捉服分别与交互数据采集设备电性连接。
具体的,所述交互教学设备还包括专用教学设备,所述专用教学设备包括雕刻设备、画笔设备、鼓槌设备和声乐设备;所述雕刻设备、画笔设备、鼓槌设备和声乐设备分别与交互数据采集设备电性连接;所述声乐设备为音频采样器。
作为更进一步的解决方案,所述互动反馈单元包括若干互动反馈节点,并在所述多功能演播室内对应设置有互动反馈基站,所述互动反馈节点与互动反馈基站组成互动反馈系统。
具体的,所述互动反馈基站包括定位基站、数据处理基站和同步基站;所述定位基站和同步基站分别与数据处理基站电性连接;所述互动反馈节点包括姿态反馈模块、坐标反馈模块和同步反馈模块;所述姿态反馈模块、坐标反馈模块和同步反馈模块分别与数据处理基站电性连接。
作为更进一步的解决方案,所述定位基站、数据处理基站和同步基站通过HtcVive灯塔基站进行部署,所述Htc Vive灯塔基站包括X轴红外扫描基站、Y轴红外扫描基站、灯塔同步基站和灯塔数据处理基站。
具体的,所述坐标反馈模块是基于TS3633红外传感芯片的红外定位单元,所述同步反馈模块是基于光电二极管的光电同步单元;所述红外定位单元和光电同步单元通过定位同步电路进行部署,所述定位同步电路包括TS3633芯片、电阻R1、电阻R2、电阻R3、电阻R4、电容C1、电容C2、电容C3、直流稳压器、直流电源DC和光电二极管D1,所述TS3633芯片包括AVDD端、DVDD端、ENVELOPE端、AVSS1端、AVSS2端、INN端、DC_DET端、RBIAS端和STANDBY端。
其中,所述AVDD端接电容C3后与地连接;所述DVDD端与直流稳压器的输出端电性连接,所述直流稳压器的输入端与直流电源DC电性连接;所述ENVELOPE端连接电阻R1后进行引出;所述AVSS1端和AVSS2端接地;所述STANDBY端接电阻R2后与地连接;所述RBIAS端接电阻R3后与地连接;所述DC_DET端接电容C1后与地连接;所述INN端串接电容C2、电阻R4和电容C1后与地连接;所述光电二极管D1的一端接在电容C2于电阻R4,另一端与地连接。
作为更进一步的解决方案,所述姿态反馈模块是基于型号为MPU9250微型IMU九轴芯片的姿态传感单元,所述姿态传感单元包括MPU9250芯片、电容C6、电容C4、电容C5、电容C6、电阻R5和直流电源DC;所述MPU9250芯片包括两个RESV端、八个NC端、SDA/SDT端、SCL/SCLK端、nCS端、两个AUX_DA端、VDD端、INT端、FSYNC端、REGOUT端、ADO/SDO端、VDDOI端、AUX_CL端和CLKIN端。
其中,所述八个NC端、两个RESV端和任一个AUX_DA端均为断路,另一个AUX_DA端接电容C6后与地连接;所述SDA/SDT端作为SDA端进行引出;所述SCL/SCLK端作为SCL端进行引出;所述VDD端接直流电源DC;所述INT端接电阻R5后引出;所述FSYNC端接电容C4后,接直流电源DC;所述REGOUT端串接电容C4和电容C5后,接直流电源DC;所述ADO/SDO端和VDDOI端接直流电源DC;在直流电源DC与地之间还设置有电容C6;所述AUX_CL端悬空;所述CLKIN端与地连接。
作为更进一步的解决方案,所述雕刻设备、画笔设备和鼓槌设备均包括中部支撑杆,所述中部支撑杆通过交互反馈杆进行设置;所述交互反馈杆包括杆体和内部电路;所述内部电路安装在杆体内部,所述内部电路包括A端反馈电路、B端反馈电路、通信单元、供电单元和中控单元;所述A端反馈电路、B端反馈电路、通信单元和供电单元分别与中控单元电性连接;所述A端反馈电路和B端反馈电路均包括光电同步单元、红外定位单元和姿态传感单元;所述光电同步单元、红外定位单元和姿态传感单元分别与中控单元电性连接。
具体的,所述杆体上开设有A端透光窗、B端透光窗和通信供电口,所述A端透光窗和B端透光窗分别开设在A端反馈电路和B端反馈电路处;所述通信供电口分别与供电单元和通信单元电性连接。
作为更进一步的解决方案,所述互动反馈系统通过如下步骤进行互动反馈数据采集:
S1将Htc Vive灯塔基站部署在多功能演播室内,并以Htc Vive灯塔基站为原点建立
定位坐标系;
S2 Htc Vive灯塔基站通过灯塔同步基站向多功能演播室内发射同步光波;
S3多功能演播室内的互动反馈节点通过同步反馈模块进行X轴时钟同步;
S4 Htc Vive灯塔基站通过X轴红外扫描基站对多功能演播室内发射X轴红外扫描射线;S5互动反馈节点通过红外定位单元接收X轴红外扫描射线,并记录X轴接收时间TX1和X轴同步时钟,并发送给灯塔数据处理基站;
S6灯塔数据处理基站通过X轴同步时钟,查询X轴同步时钟对应X轴红外扫描基站的X轴扫描偏角ΘX和X轴扫描时刻TX0;通过公式LX=C*ΔTX;得到原点与互动反馈节点之间的距离LX,其中,ΔTX为红外飞行时间,即(TX1-TX0);C为红外光传播速率;S7 Htc Vive灯塔基站通过灯塔同步基站向多功能演播室内发射同步光波;
S8多功能演播室内的互动反馈节点通过同步反馈模块进行Y轴时钟同步;
S9 Htc Vive灯塔基站通过Y轴红外扫描基站对多功能演播室内发射Y轴红外扫描射线;S10互动反馈节点通过红外定位单元接收Y轴红外扫描射线,并记录Y轴接收时间TY1和Y轴同步时钟,并发送给灯塔数据处理基站;
S11灯塔数据处理基站通过Y轴同步时钟,查询Y轴同步时钟对应Y轴红外扫描基站的Y轴扫描偏角ΘY和Y轴扫描时刻TY0;通过公式LY=C*ΔTY;得到原点与互动反馈节点之间的距离LY,其中,ΔTY为红外飞行时间,即(TY1-TY0);C为红外光传播速率;
S12通过公式L=(LX+LY)/2;得到原点相对距离L;
S13通过X轴扫描偏角ΘX确定X轴扫描面;通过Y轴扫描偏角ΘY确定Y轴扫描面;S14通过X轴扫描面与Y轴扫描面的相交直线确定,互动反馈节点即在相交直线上,
通过原点相对距离L,即确定互动反馈节点在相交直线的位置,并计算位置坐标(X,Y,Z);S15互动反馈节点通过姿态传感单元采集当前姿态数据,并发送给灯塔数据处理基站,其中,姿态数据包括姿态角θ、各轴向加速度、温度补偿系数;
S16重复步骤S2至S15直至互动反馈数据采集结束。
作为更进一步的解决方案,所述演播室云端服务器通过融合交互数据对授课老师进行建模,并映射到虚拟教室中;通过可编辑虚拟人物对授课老师进行人物映射;并投影至虚拟教室中,所述虚拟教室包括虚拟背景、虚拟黑板和虚拟演示屏。
作为更进一步的解决方案,还包括教学交互系统,所述教学交互系统包括学生端和教室端;所述学生端和教室端通过演播室云端服务器进行数据交互。
具体的,所述交互终端包括平面交互终端和VR交互终端,所述学生端对应设置有平面互动系统和VR互动系统;所述平面交互终端包括智能设备、显示屏、摄像头、扬声器和麦克风;所述平面互动系统通过显示屏对融合交互数据进行单目成像,并通过摄像头、扬声器和麦克风进行教学互动;所述VR交互终端包括VR眼镜、耳机和VR手柄,所述VR互动系统通过VR眼镜对融合交互数据进行双目成像,并通过耳机和VR手柄进行教学互动;所述教室端包括教学控制台、教学显示屏、教学扬声器和教学麦克风;所述教学控制台分别与教学显示屏、教学扬声器和教学麦克风电性连接。
作为更进一步的解决方案,还包括动作分析系统,所述动作分析系统包括评分端、纠正端和标准动作库;
所述标准动作库通过如下步骤进行构建:
A1授课老师佩戴通用交互设备,并通过专用教学设备进行标准动作录入;
A2通过通用交互设备采集标准动作数据;
A3通过专用教学设备采集标准交互数据,其中,标准交互数据包括标准姿态数据、标准相对位置和标准动作力度,所述标准姿态数据通过姿态角θ得到,所述标准相对位置通过各互动反馈节点位置坐标(X,Y,Z)得到,所述标准动作力度通过各轴向加速度
和温度补偿系数得到;
A4将标准动作数据和标准交互数据进行异常点修正,并匹配对应动作的教学项目,录入标准动作库进行保存;
所述评分端通过如下步骤进行评分:
B1待评分者佩戴通用交互设备,并通过专用教学设备进行评分动作录入;
B2通过通用交互设备采集评分动作数据;
B3通过专用教学设备采集评分交互数据,其中,评分交互数据包括评分姿态数据、评分相对位置和评分动作力度,所述评分姿态数据通过姿态角θ得到,所述评分相对位置通过各互动反馈节点位置坐标(X,Y,Z)得到,所述评分动作力度通过各轴向加速度
和温度补偿系数得到;
B4计算标准动作数据与评分动作数据的动作相似度,得到动作评分;
B5计算标准交互数据与评分交互数据的动作相似度,得到交互评分;
B6将动作评分和交互评分分别输出,完成评分;
所述纠正端通过如下步骤进行纠正:
C1逐点计算标准动作数据与评分动作数据的差值,得到各点的动作偏差值;
C2逐点计算标准交互数据与评分交互数据的差值,得到各点的交互偏差值;
C3将动作偏差值和交互偏差值进行输出,指导学员进行动作纠正。
与相关技术相比较,本发明提供的一种用于艺术教育的交互式多功能演播室具有如下
有益效果:
1、本发明在使用VR虚拟技术的同时,还部署有交互教学设备;通过交互教学设备能对授课老师的交互动作进行采集与呈现;由于采用了交互教学设备,我们可以将交互数据进行可视化,如将鼓槌挥动速度与光谱进行匹配,当挥动越快,鼓槌在VR教室呈现的模型就更加偏向红色,这样就能使学生能掌握各个动作细节,学习更加高效轻松;
2、本发明通过专用教学设备对艺术教育所涉及的教学设备进行动作捕捉和采集,从而更好的构建融合交互数据。使学生能直观地观察到各教学设备的动作细节和量化指标;
3、本发明采用Htc Vive灯塔进行定位,具备计算能力非常小、延迟低、硬件成本低、定位跟踪都非常精确等优点,并结合IMU九轴芯片的姿态传感单元实现了对刚体位置与姿态的掌握;
4、本发明通过评分端可以考察学员的动作标准情况,将过去无法量化的动作量化为指标,计算相似度可以采用现有关于人体姿态动作相似度计算方法,通过纠正端可以将学员不标准的地方进行量化并指出,从而促进艺术教育的及时反馈与纠正,增加学员的学习积极性与效率。
附图说明
图1为本发明实施例提供的一种用于艺术教育的交互式多功能演播室的较佳系统示意图;
图2为本发明实施例提供的基于TS3633红外传感芯片的红外定位单元的电路示意图;
图3为本发明实施例提供的基于微型IMU九轴芯片的姿态传感单元的电路示意图;
图4为本发明实施例提供的交互反馈杆剖面结构示意图;
图5为本发明实施例提供的交互反馈杆布局剖面结构示意图;
图6为本发明实施例提供的一种交互反馈凿结构示意图;
图7为本发明实施例提供的Htc Vive灯塔基站定位原理示意图;
其中,附图标记号:1、杆体;11、A端透光窗;12、B端透光窗;2、内部电路;21、光电同步单元;22、红外定位单元;23、姿态传感单元;3、通信供电口;4、凿头;5、凿刃。
具体实施方式
下面结合附图和实施方式对本发明作进一步说明。
如图1至图7所示,本实施例提供的一种用于艺术教育的交互式多功能演播室,包括多功能演播室、演播室云端服务器和交互终端。
具体的,所述多功能演播室包括多功能教学区和演播录制区;所述多功能教学区用于向授课老师提供教学空间并部署有交互教学设备,所述交互教学设备包括教学设备本体和互动反馈单元;所述互动反馈单元分别部署在各教学设备本体上;所述演播录制区用于提供演播录制空间并部署有VR演播录制设备、交互数据采集设备和数据融合单元;所述VR演播录制设备用于对多功能教学区进行多方位视频采集和音频采集,并将采集到的多方位视频数据构筑为VR视频数据;所述交互数据采集设备用于采集授课老师在进行教学时的动作反馈信息并与互动反馈单元电性连接;所述数据融合单元用于将VR视频数据与动作反馈信息进行时序匹配和融合,得到融合交互数据并上传至演播室云端服务器。
更加具体的,所述演播室云端服务器对融合交互数据进行接收/存储/管理/调用,并与各交互终端建立通信连接;所述交互终端部署在各智能设备上,并能对融合交互数据进行实时显示播放。
需要说明的是:传统艺术教育通常是基于面对面授课的课堂形式,但是这种授课方式学生往往很难以不同角度对授课老师进行动作观察和学习,而艺术领域很多技巧是无法通过固定视角进行简单习得的,例如在老师进行打击乐教学时,老师手中鼓槌有着不同的手握姿势,不同的打击力度,不同的移动速度,不同的相对高度,每一个因素都是影响最后敲击出来的音色是否纯正悦耳的关键原因,每一个因素都不能进行忽视。现有艺术教育周期长,往往需要以年来计算学习时间,究其原因就是在每次教学时,学生能观察到的技术细节有限,老师无法通过传统授课方式将各个细节展示给每个学生。故只能通过较长的教学周期来使学生进行学生。
为此,现有技术结合VR等虚拟技术,实现了虚拟教室的构建,在虚拟教室里,学生可以多方位观察老师的行为,不受视野限制,极大地提高了学生可观测到的动作细节。
但是,进行艺术教育时,很多细节很难通过肉眼进行直观的观察,如授课老师敲击鼓的力度,授课老师挥舞鼓槌的轨迹等。这些是阻碍学生高效高质学习的主要原因。
针对上述问题,本实施例在使用VR虚拟技术的同时,还部署有交互教学设备;通过交互教学设备能对授课老师的交互动作进行采集与呈现;例如:在进行打击乐教学时,学生通过VR教室能对授课老师进行多方位观察,此外,由于采用了交互教学设备,我们可以将交互数据进行可视化,如将鼓槌挥动速度与光谱进行匹配,当挥动越快,鼓槌在VR教室呈现的模型就更加偏向红色,当鼓槌敲击到鼓膜上时,还可以通过颜色来表示敲击时的力度和敲击角度。这样就能使学生能掌握各个动作细节,学习更加高效轻松。
作为更进一步的解决方案,所述交互教学设备包括通用交互设备和专用教学设备;所述通用交互设备包括动作捕捉手套、动作捕捉头套和动作捕捉服,所述动作捕捉手套、动作捕捉头套和动作捕捉服分别与交互数据采集设备电性连接。
具体的,所述交互教学设备还包括专用教学设备,所述专用教学设备包括雕刻设备、画笔设备、鼓槌设备和声乐设备;所述雕刻设备、画笔设备、鼓槌设备和声乐设备分别与交互数据采集设备电性连接;所述声乐设备为音频采样器。
需要说明的是:通用交互设备主要是对授课老师的肢体动作进行采集,采用现有的动作捕捉服就可以实现,但是还未有针对艺术教育中使用的专用教学设备,本实施例通过专用教学设备对艺术教育所涉及的教学设备进行动作捕捉和采集,从而更好的构建融合交互数据。使学生能直观地观察到各教学设备的动作细节和量化指标。
作为更进一步的解决方案,所述互动反馈单元包括若干互动反馈节点,并在所述多功能演播室内对应设置有互动反馈基站,所述互动反馈节点与互动反馈基站组成互动反馈系统。
具体的,所述互动反馈基站包括定位基站、数据处理基站和同步基站;所述定位基站和同步基站分别与数据处理基站电性连接;所述互动反馈节点包括姿态反馈模块、坐标反馈模块和同步反馈模块;所述姿态反馈模块、坐标反馈模块和同步反馈模块分别与数据处理基站电性连接。
需要说明的是:本实施例通过若干互动反馈节点来进行互动反馈数据采集,互动反馈数据包括姿态反馈数据和坐标反馈数据;姿态反馈数据能反应出互动反馈节点的各向加速度和所处的姿态;进而得到专用教学设备的挥动速度、敲击力度和敲击角度等数据;坐标反馈数据主要是用于VR教室的实时在线定位,将姿态反馈数据定位到正确的VR教室模拟位置当中。
作为更进一步的解决方案,所述定位基站、数据处理基站和同步基站通过HtcVive灯塔基站进行部署,所述Htc Vive灯塔基站包括X轴红外扫描基站、Y轴红外扫描基站、灯塔同步基站和灯塔数据处理基站。
需要说明的是:本实施例采用Htc Vive灯塔进行定位,Htc Vive灯塔定位的好处繁多,第一条是其需要的计算能力非常小。传统的光学系统需要进行成像,然后程序就需要通过图像处理的方法来将成像中的马克点分辨出来。成像的细节越丰富,需要的图像处理计算能力就越高。所以红外摄像头比单色摄像头简单,单色摄像头比彩色摄像头简单。HtcVive灯塔定位使用的仅仅是时间参数,那么它就不涉及到图像处理,对于位置的计算在设备本地就可以完成。第二个优点是其延迟也很小。计算能力需求高就意味着延迟会高:图形处理的大量数据要从摄像头传输到电脑中,再从电脑传输到头显上,就会增加延迟。而Lighthouse可以直接将位置数据传输到电脑上,省略了从摄像头到电脑的高数据传输的步骤。第三个优点就是Htc Vive灯塔定位硬件成本低,其使用到的传感器和计算设备的成本都及其低廉。第四个优点是Vive定位跟踪都非常精确,延迟极低,其精确程度已经让人真的产生了“这就是现实”的错觉。
具体的,所述坐标反馈模块是基于TS3633红外传感芯片的红外定位单元22,所述同步反馈模块是基于光电二极管的光电同步单元21;所述红外定位单元22和光电同步单元21通过定位同步电路进行部署,所述定位同步电路包括TS3633芯片、电阻R1、电阻R2、电阻R3、电阻R4、电容C1、电容C2、电容C3、直流稳压器、直流电源DC和光电二极管D1,所述TS3633芯片包括AVDD端、DVDD端、ENVELOPE端、AVSS1端、AVSS2端、INN端、DC_DET端、RBIAS端和STANDBY端。
其中,所述AVDD端接电容C3后与地连接;所述DVDD端与直流稳压器的输出端电性连接,所述直流稳压器的输入端与直流电源DC电性连接;所述ENVELOPE端连接电阻R1后进行引出;所述AVSS1端和AVSS2端接地;所述STANDBY端接电阻R2后与地连接;所述RBIAS端接电阻R3后与地连接;所述DC_DET端接电容C1后与地连接;所述INN端串接电容C2、电阻R4和电容C1后与地连接;所述光电二极管D1的一端接在电容C2于电阻R4,另一端与地连接。
作为更进一步的解决方案,所述姿态反馈模块是基于型号为MPU9250微型IMU九轴芯片的姿态传感单元23,所述姿态传感单元23包括MPU9250芯片、电容C6、电容C4、电容C5、电容C6、电阻R5和直流电源DC;所述MPU9250芯片包括两个RESV端、八个NC端、SDA/SDT端、SCL/SCLK端、nCS端、两个AUX_DA端、VDD端、INT端、FSYNC端、REGOUT端、ADO/SDO端、VDDOI端、AUX_CL端和CLKIN端。
其中,所述八个NC端、两个RESV端和任一个AUX_DA端均为断路,另一个AUX_DA端接电容C6后与地连接;所述SDA/SDT端作为SDA端进行引出;所述SCL/SCLK端作为SCL端进行引出;所述VDD端接直流电源DC;所述INT端接电阻R5后引出;所述FSYNC端接电容C4后,接直流电源DC;所述REGOUT端串接电容C4和电容C5后,接直流电源DC;所述ADO/SDO端和VDDOI端接直流电源DC;在直流电源DC与地之间还设置有电容C6;所述AUX_CL端悬空;所述CLKIN端与地连接。
需要说明的是:本实施例将Htc Vive灯塔定位与IMU九轴芯片的姿态传感单元23进行结合,传统的Htc Vive灯塔定位精度依赖于系统的时间分辨率。这也就意味着,光敏传感器的分布之间需要一定的距离,设备不能制造的太小。光敏传感器本身也有一定宽度,如果传感器“挤”在一起,间距达到了传感器本身的宽度量级,那么测角本身就会出现误差了。故传统的Htc Vive灯塔定位需要需要至少5个传感器才能够保证一个刚体的6自由度跟踪。
但是艺术教育所用设备较小,故本实施例结合IMU九轴芯片,仅需要两个红外定位单元22进行轴向定位即可,当刚体发生旋转等行为时,通过姿态传感单元23就能得到刚体的姿态数据;两个红外定位单元22对刚体的坐标位置进行定位,从而实现了对刚体位置与姿态的掌握。通过结合IMU九轴芯片,当授课老师旋转手中的教学设备时,即使教学设备的位置未发生变化,我们也能察觉到其姿态的变化。从而实现了较小设备的9自由度跟踪。
作为更进一步的解决方案,所述雕刻设备、画笔设备和鼓槌设备均包括中部支撑杆,所述中部支撑杆通过交互反馈杆进行设置;所述交互反馈杆包括杆体1和内部电路2;所述内部电路2安装在杆体1内部,所述内部电路2包括A端反馈电路、B端反馈电路、通信单元、供电单元和中控单元;所述A端反馈电路、B端反馈电路、通信单元和供电单元分别与中控单元电性连接;所述A端反馈电路和B端反馈电路均包括光电同步单元21、红外定位单元22和姿态传感单元23;所述光电同步单元21、红外定位单元22和姿态传感单元23分别与中控单元电性连接。
具体的,所述杆体1上开设有A端透光窗11、B端透光窗12和通信供电口3,所述A端透光窗11和B端透光窗12分别开设在A端反馈电路和B端反馈电路处;所述通信供电口3分别与供电单元和通信单元电性连接。
需要说明的是:由于雕刻设备、画笔设备和鼓槌设备均包括中部支撑杆,故本实施将互动反馈节点设置在支撑杆中,并形成交互反馈杆。由于交互反馈杆为杆状结构,故本实施例需要对交互反馈杆A端和B端分别进行定位和姿态数据采集,进而确定整个交互反馈杆的具体位置和具体姿态。由于本实施例采用的红外定位单元22,故还在杆体1上开设有A端透光窗11、B端透光窗12。
作为一个较佳的实施例,提出一种交互反馈凿;所述交互反馈凿包括杆体1、通信供电口3、凿刃5和凿头4;所述凿刃5和凿头4分别设置在杆体1的两端,所述通信供电口3开设在杆体1侧面处。
通过交互反馈凿便能实现在进行雕刻艺术教育时,对凿子姿态和位置数据进行精确采集,同理,画笔设备和鼓槌设备均可通过交互反馈杆进行设置。
作为更进一步的解决方案,所述互动反馈系统通过如下步骤进行互动反馈数据采集:
S1将Htc Vive灯塔基站部署在多功能演播室内,并以Htc Vive灯塔基站为原点建立定位坐标系;
S2 Htc Vive灯塔基站通过灯塔同步基站向多功能演播室内发射同步光波;
S3多功能演播室内的互动反馈节点通过同步反馈模块进行X轴时钟同步;
S4 Htc Vive灯塔基站通过X轴红外扫描基站对多功能演播室内发射X轴红外扫描射线;
S5互动反馈节点通过红外定位单元22接收X轴红外扫描射线,并记录X轴接收时间TX1和X轴同步时钟,并发送给灯塔数据处理基站;
S6灯塔数据处理基站通过X轴同步时钟,查询X轴同步时钟对应X轴红外扫描基站的X轴扫描偏角ΘX和X轴扫描时刻TX0;通过公式LX=C*ΔTX;得到原点与互动反馈节点之间的距离LX,其中,ΔTX为红外飞行时间,即TX1-TX0;C为红外光传播速率;
S7 Htc Vive灯塔基站通过灯塔同步基站向多功能演播室内发射同步光波;
S8多功能演播室内的互动反馈节点通过同步反馈模块进行Y轴时钟同步;
S9 Htc Vive灯塔基站通过Y轴红外扫描基站对多功能演播室内发射Y轴红外扫描射线;
S10互动反馈节点通过红外定位单元22接收Y轴红外扫描射线,并记录Y轴接收时间TY1和Y轴同步时钟,并发送给灯塔数据处理基站;
S11灯塔数据处理基站通过Y轴同步时钟,查询Y轴同步时钟对应Y轴红外扫描基站的Y轴扫描偏角ΘY和Y轴扫描时刻TY0;通过公式LY=C*ΔTY;得到原点与互动反馈节点之间的距离LY,其中,ΔTY为红外飞行时间,即TY1-TY0;C为红外光传播速率;
S12通过公式L=(LX+LY/2;得到原点相对距离L;
S13通过X轴扫描偏角ΘX确定X轴扫描面;通过Y轴扫描偏角ΘY确定Y轴扫描面;
S14通过X轴扫描面与Y轴扫描面的相交直线确定,互动反馈节点即在相交直线上,通过原点相对距离L,即确定互动反馈节点在相交直线的位置,并计算位置坐标X,Y,Z;
S15互动反馈节点通过姿态传感单元23采集当前姿态数据,并发送给灯塔数据处理基站,其中,姿态数据包括姿态角θ、各轴向加速度、温度补偿系数;
S16重复步骤S2至S15直至互动反馈数据采集结束。
需要说明的是:如图7所示,通过X轴和Y轴的扫描可以确定X轴平面和Y轴平面,进而确定互动反馈节点所在直线,原点相对距离L就能确定互动反馈节点位于直线的具体位置,进而得到位置坐标X,Y,Z。
作为更进一步的解决方案,所述演播室云端服务器通过融合交互数据对授课老师进行建模,并映射到虚拟教室中;通过可编辑虚拟人物对授课老师进行人物映射;并投影至虚拟教室中,所述虚拟教室包括虚拟背景、虚拟黑板和虚拟演示屏。
作为更进一步的解决方案,还包括教学交互系统,所述教学交互系统包括学生端和教室端;所述学生端和教室端通过演播室云端服务器进行数据交互。
具体的,所述交互终端包括平面交互终端和VR交互终端,所述学生端对应设置有平面互动系统和VR互动系统;所述平面交互终端包括智能设备、显示屏、摄像头、扬声器和麦克风;所述平面互动系统通过显示屏对融合交互数据进行单目成像,并通过摄像头、扬声器和麦克风进行教学互动;所述VR交互终端包括VR眼镜、耳机和VR手柄,所述VR互动系统通过VR眼镜对融合交互数据进行双目成像,并通过耳机和VR手柄进行教学互动;所述教室端包括教学控制台、教学显示屏、教学扬声器和教学麦克风;所述教学控制台分别与教学显示屏、教学扬声器和教学麦克风电性连接。
作为更进一步的解决方案,还包括动作分析系统,所述动作分析系统包括评分端、纠正端和标准动作库;
所述标准动作库通过如下步骤进行构建:
A1授课老师佩戴通用交互设备,并通过专用教学设备进行标准动作录入;
A2通过通用交互设备采集标准动作数据;
A3通过专用教学设备采集标准交互数据,其中,标准交互数据包括标准姿态数据、标准相对位置和标准动作力度,所述标准姿态数据通过姿态角θ得到,所述标准相对位置通过各互动反馈节点位置坐标X,Y,Z得到,所述标准动作力度通过各轴向加速度和
温度补偿系数得到;
A4将标准动作数据和标准交互数据进行异常点修正,并匹配对应动作的教学项目,录入标准动作库进行保存;
所述评分端通过如下步骤进行评分:
B1待评分者佩戴通用交互设备,并通过专用教学设备进行评分动作录入;
B2通过通用交互设备采集评分动作数据;
B3通过专用教学设备采集评分交互数据,其中,评分交互数据包括评分姿态数据、评分相对位置和评分动作力度,所述评分姿态数据通过姿态角θ得到,所述评分相对位置通过各互动反馈节点位置坐标X,Y,Z得到,所述评分动作力度通过各轴向加速度和
温度补偿系数得到;
B4计算标准动作数据与评分动作数据的动作相似度,得到动作评分;
B5计算标准交互数据与评分交互数据的动作相似度,得到交互评分;
B6将动作评分和交互评分分别输出,完成评分;
所述纠正端通过如下步骤进行纠正:
C1逐点计算标准动作数据与评分动作数据的差值,得到各点的动作偏差值;
C2逐点计算标准交互数据与评分交互数据的差值,得到各点的交互偏差值;
C3将动作偏差值和交互偏差值进行输出,指导学员进行动作纠正。
需要说明的是:通过评分端可以考察学员的动作标准情况,将过去无法量化的动作量化为指标,计算相似度可以采用现有关于人体姿态动作相似度计算方法,通过纠正端可以将学员不标准的地方进行量化并指出,从而促进艺术教育的及时反馈与纠正,增加学员的学习积极性与效率。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种用于艺术教育的交互式多功能演播室,其特征在于,包括多功能演播室、演播室云端服务器和交互终端;
所述多功能演播室包括多功能教学区和演播录制区;所述多功能教学区用于向授课老师提供教学空间并部署有交互教学设备,所述交互教学设备包括教学设备本体和互动反馈单元;所述互动反馈单元分别部署在各教学设备本体上;所述演播录制区用于提供演播录制空间并部署有VR演播录制设备、交互数据采集设备和数据融合单元;所述VR演播录制设备用于对多功能教学区进行多方位视频采集和音频采集,并将采集到的多方位视频数据构筑为VR视频数据;所述交互数据采集设备用于采集授课老师在进行教学时的动作反馈信息并与互动反馈单元电性连接;所述数据融合单元用于将VR视频数据与动作反馈信息进行时序匹配和融合,得到融合交互数据并上传至演播室云端服务器;
所述演播室云端服务器对融合交互数据进行接收/存储/管理/调用,并与各交互终端建立通信连接;所述交互终端部署在各智能设备上,并能对融合交互数据进行实时显示播放;
所述交互教学设备包括通用交互设备和专用教学设备;所述通用交互设备包括动作捕捉手套、动作捕捉头套和动作捕捉服,所述动作捕捉手套、动作捕捉头套和动作捕捉服分别与交互数据采集设备电性连接;
所述专用教学设备包括雕刻设备、画笔设备、鼓槌设备和声乐设备;所述雕刻设备、画笔设备、鼓槌设备和声乐设备分别与交互数据采集设备电性连接;所述声乐设备为音频采样器;
所述互动反馈单元包括若干互动反馈节点,并在所述多功能演播室内对应设置有互动反馈基站,所述互动反馈节点与互动反馈基站组成互动反馈系统;
所述互动反馈基站包括定位基站、数据处理基站和同步基站;所述定位基站和同步基站分别与数据处理基站电性连接;所述互动反馈节点包括姿态反馈模块、坐标反馈模块和同步反馈模块;所述姿态反馈模块、坐标反馈模块和同步反馈模块分别与数据处理基站电性连接。
2.根据权利要求1所述的一种用于艺术教育的交互式多功能演播室,其特征在于,所述定位基站、数据处理基站和同步基站通过Htc Vive灯塔基站进行部署,所述Htc Vive灯塔基站包括X轴红外扫描基站、Y轴红外扫描基站、灯塔同步基站和灯塔数据处理基站。
3.根据权利要求2所述的一种用于艺术教育的交互式多功能演播室,其特征在于,所述姿态反馈模块是基于型号为MPU9250微型IMU九轴芯片的姿态传感单元(23),所述姿态传感单元(23)包括MPU9250芯片、电容C6、电容C4、电容C5、电容C6、电阻R5和直流电源DC;所述MPU9250芯片包括两个RESV端、八个NC端、SDA/SDT端、SCL/SCLK端、nCS端、两个AUX_DA端、VDD端、INT端、FSYNC端、REGOUT端、ADO/SDO端、VDDOI端、AUX_CL端和CLKIN端;
其中,所述八个NC端、两个RESV端和任一个AUX_DA端均为断路,另一个AUX_DA端接电容C6后与地连接;所述SDA/SDT端作为SDA端进行引出;所述SCL/SCLK端作为SCL端进行引出;所述VDD端接直流电源DC;所述INT端接电阻R5后引出;所述FSYNC端接电容C4后,接直流电源DC;所述REGOUT端串接电容C4和电容C5后,接直流电源DC;所述ADO/SDO端和VDDOI端接直流电源DC;在直流电源DC与地之间还设置有电容C6;所述AUX_CL端悬空;所述CLKIN端与地连接。
4.根据权利要求3所述的一种用于艺术教育的交互式多功能演播室,其特征在于,所述雕刻设备、画笔设备和鼓槌设备均包括中部支撑杆,所述中部支撑杆通过交互反馈杆进行设置;所述交互反馈杆包括杆体(1)和内部电路(2);所述内部电路(2)安装在杆体(1)内部,所述内部电路(2)包括A端反馈电路、B端反馈电路、通信单元、供电单元和中控单元;所述A端反馈电路、B端反馈电路、通信单元和供电单元分别与中控单元电性连接;所述A端反馈电路和B端反馈电路均包括光电同步单元(21)、红外定位单元(22)和姿态传感单元(23);所述光电同步单元(21)、红外定位单元(22)和姿态传感单元(23)分别与中控单元电性连接;
所述杆体(1)上开设有A端透光窗(11)、B端透光窗(12)和通信供电口(3),所述A端透光窗(11)和B端透光窗(12)分别开设在A端反馈电路和B端反馈电路处;所述通信供电口(3)分别与供电单元和通信单元电性连接。
5.根据权利要求4所述的一种用于艺术教育的交互式多功能演播室,其特征在于,所述互动反馈系统通过如下步骤进行互动反馈数据采集:
S1将Htc Vive灯塔基站部署在多功能演播室内,并以Htc Vive灯塔基站为原点建立定位坐标系;
S2 Htc Vive灯塔基站通过灯塔同步基站向多功能演播室内发射同步光波;
S3多功能演播室内的互动反馈节点通过同步反馈模块进行X轴时钟同步;
S4 Htc Vive灯塔基站通过X轴红外扫描基站对多功能演播室内发射X轴红外扫描射线;
S5互动反馈节点通过红外定位单元(22)接收X轴红外扫描射线,并记录X轴接收时间TX1和X轴同步时钟,并发送给灯塔数据处理基站;
S6灯塔数据处理基站通过X轴同步时钟,查询X轴同步时钟对应X轴红外扫描基站的X轴扫描偏角ΘX和X轴扫描时刻TX0;通过公式LX=C*ΔTX;得到原点与互动反馈节点之间的距离LX,其中,ΔTX为红外飞行时间,即(TX1-TX0);C为红外光传播速率;
S7 Htc Vive灯塔基站通过灯塔同步基站向多功能演播室内发射同步光波;
S8多功能演播室内的互动反馈节点通过同步反馈模块进行Y轴时钟同步;
S9 Htc Vive灯塔基站通过Y轴红外扫描基站对多功能演播室内发射Y轴红外扫描射线;
S10互动反馈节点通过红外定位单元(22)接收Y轴红外扫描射线,并记录Y轴接收时间TY1和Y轴同步时钟,并发送给灯塔数据处理基站;
S11灯塔数据处理基站通过Y轴同步时钟,查询Y轴同步时钟对应Y轴红外扫描基站的Y轴扫描偏角ΘY和Y轴扫描时刻TY0;通过公式LY=C*ΔTY;得到原点与互动反馈节点之间的距离LY,其中,ΔTY为红外飞行时间,即(TY1-TY0);C为红外光传播速率;
S12通过公式L=(LX+LY)/2;得到原点相对距离L;
S13通过X轴扫描偏角ΘX确定X轴扫描面;通过Y轴扫描偏角ΘY确定Y轴扫描面;
S14通过X轴扫描面与Y轴扫描面的相交直线确定,互动反馈节点即在相交直线上,
通过原点相对距离L,即确定互动反馈节点在相交直线的位置,并计算位置坐标(X,Y,Z);
S15互动反馈节点通过姿态传感单元(23)采集当前姿态数据,并发送给灯塔数据处理基站,其中,姿态数据包括姿态角θ、各轴向加速度、温度补偿系数;
S16重复步骤S2至S15直至互动反馈数据采集结束。
6.根据权利要求5所述的一种用于艺术教育的交互式多功能演播室,其特征在于,所述演播室云端服务器通过融合交互数据对授课老师进行建模,并映射到虚拟教室中;通过可编辑虚拟人物对授课老师进行人物映射;并投影至虚拟教室中,所述虚拟教室包括虚拟背景、虚拟黑板和虚拟演示屏。
7.根据权利要求6所述的一种用于艺术教育的交互式多功能演播室,其特征在于,还包括教学交互系统,所述教学交互系统包括学生端和教室端;所述学生端和教室端通过演播室云端服务器进行数据交互;
所述交互终端包括平面交互终端和VR交互终端,所述学生端对应设置有平面互动系统和VR互动系统;所述平面交互终端包括智能设备、显示屏、摄像头、扬声器和麦克风;所述平面互动系统通过显示屏对融合交互数据进行单目成像,并通过摄像头、扬声器和麦克风进行教学互动;所述VR交互终端包括VR眼镜、耳机和VR手柄,所述VR互动系统通过VR眼镜对融合交互数据进行双目成像,并通过耳机和VR手柄进行教学互动;所述教室端包括教学控制台、教学显示屏、教学扬声器和教学麦克风;所述教学控制台分别与教学显示屏、教学扬声器和教学麦克风电性连接。
8.根据权利要求7所述的一种用于艺术教育的交互式多功能演播室,其特征在于,还包括动作分析系统,所述动作分析系统包括评分端、纠正端和标准动作库;
所述标准动作库通过如下步骤进行构建:
A1授课老师佩戴通用交互设备,并通过专用教学设备进行标准动作录入;
A2通过通用交互设备采集标准动作数据;
A3通过专用教学设备采集标准交互数据,其中,标准交互数据包括标准姿态数据、标准相对位置和标准动作力度,所述标准姿态数据通过姿态角θ得到,所述标准相对位置通过各互动反馈节点位置坐标(X,Y,Z)得到,所述标准动作力度通过各轴向加速度和温度补偿系数得到;
A4将标准动作数据和标准交互数据进行异常点修正,并匹配对应动作的教学项目,录入标准动作库进行保存;
所述评分端通过如下步骤进行评分:
B1待评分者佩戴通用交互设备,并通过专用教学设备进行评分动作录入;
B2通过通用交互设备采集评分动作数据;
B3通过专用教学设备采集评分交互数据,其中,评分交互数据包括评分姿态数据、评分相对位置和评分动作力度,所述评分姿态数据通过姿态角θ得到,所述评分相对位置通过各互动反馈节点位置坐标(X,Y,Z)得到,所述评分动作力度通过各轴向加速度和温度补偿系数得到;
B4计算标准动作数据与评分动作数据的动作相似度,得到动作评分;
B5计算标准交互数据与评分交互数据的动作相似度,得到交互评分;
B6将动作评分和交互评分分别输出,完成评分;
所述纠正端通过如下步骤进行纠正:
C1逐点计算标准动作数据与评分动作数据的差值,得到各点的动作偏差值;
C2逐点计算标准交互数据与评分交互数据的差值,得到各点的交互偏差值;
C3将动作偏差值和交互偏差值进行输出,指导学员进行动作纠正。
CN202210029967.7A 2022-01-12 2022-01-12 一种用于艺术教育的交互式多功能演播室 Active CN114360329B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210029967.7A CN114360329B (zh) 2022-01-12 2022-01-12 一种用于艺术教育的交互式多功能演播室

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210029967.7A CN114360329B (zh) 2022-01-12 2022-01-12 一种用于艺术教育的交互式多功能演播室

Publications (2)

Publication Number Publication Date
CN114360329A CN114360329A (zh) 2022-04-15
CN114360329B true CN114360329B (zh) 2023-11-10

Family

ID=81109087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210029967.7A Active CN114360329B (zh) 2022-01-12 2022-01-12 一种用于艺术教育的交互式多功能演播室

Country Status (1)

Country Link
CN (1) CN114360329B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI824749B (zh) * 2022-09-28 2023-12-01 鄭博元 Vr中控教學系統

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154003A (zh) * 2017-06-01 2017-09-12 三峡大学 基于虚拟现实的传统手工艺保护与培训系统
CN108010394A (zh) * 2017-12-20 2018-05-08 杭州埃欧哲建设工程咨询有限公司 一种基于vr的虚拟教学方法、控制终端、虚拟教学系统
CN109102727A (zh) * 2018-09-26 2018-12-28 宋飞 一种虚拟现实教学设备
CN109799906A (zh) * 2018-12-29 2019-05-24 北京诺亦腾科技有限公司 一种利用动作捕捉手套在vr场景中绘画的方法及装置
CN110379259A (zh) * 2019-08-07 2019-10-25 泉州师范学院 基于动作捕捉的演员培训方法
CN112562433A (zh) * 2020-12-30 2021-03-26 华中师范大学 一种基于全息终端的5g强互动远程专递教学系统及其工作方法
CN113359987A (zh) * 2021-06-03 2021-09-07 煤炭科学技术研究院有限公司 基于vr虚拟现实的半实物综采实操平台

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7754955B2 (en) * 2007-11-02 2010-07-13 Mark Patrick Egan Virtual reality composer platform system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154003A (zh) * 2017-06-01 2017-09-12 三峡大学 基于虚拟现实的传统手工艺保护与培训系统
CN108010394A (zh) * 2017-12-20 2018-05-08 杭州埃欧哲建设工程咨询有限公司 一种基于vr的虚拟教学方法、控制终端、虚拟教学系统
CN109102727A (zh) * 2018-09-26 2018-12-28 宋飞 一种虚拟现实教学设备
CN109799906A (zh) * 2018-12-29 2019-05-24 北京诺亦腾科技有限公司 一种利用动作捕捉手套在vr场景中绘画的方法及装置
CN110379259A (zh) * 2019-08-07 2019-10-25 泉州师范学院 基于动作捕捉的演员培训方法
CN112562433A (zh) * 2020-12-30 2021-03-26 华中师范大学 一种基于全息终端的5g强互动远程专递教学系统及其工作方法
CN113359987A (zh) * 2021-06-03 2021-09-07 煤炭科学技术研究院有限公司 基于vr虚拟现实的半实物综采实操平台

Also Published As

Publication number Publication date
CN114360329A (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
CN108777081B (zh) 一种虚拟舞蹈教学方法及系统
Cai et al. Using the augmented reality 3D technique for a convex imaging experiment in a physics course
CN104346081B (zh) 扩增实境学习系统及其方法
CN108010394B (zh) 一种基于vr的虚拟教学方法、控制终端、虚拟教学系统
CN106327942A (zh) 基于虚拟现实的分布式电力培训系统
KR20100073076A (ko) 가상현실을 이용한 교육 장치 및 방법
CN112908355B (zh) 一种师范生教学技能量化评价系统及其方法
CN114360329B (zh) 一种用于艺术教育的交互式多功能演播室
CN112732087A (zh) 一种师范生教学技能智能评价与训练系统
CN111309154A (zh) 一种基于5g远程人体动作互动教育系统
CN112331001A (zh) 一种基于虚拟现实技术的教学系统
KR20220146366A (ko) 360도 영상과 hmd를 활용하고, 메타버스 공간 내에서 진행되는 비대면 실시간 교육 방법
CN106409033A (zh) 远程教学辅助系统及该系统用远程教学方法和设备
CN112037090B (zh) 基于vr技术和6dof姿态跟踪的知识教育系统
CN112150871A (zh) 一种基于互联网的在线音乐教学演示系统
Theodorou et al. ICTs and music in sensory and motor disabilities
CN106708266A (zh) 一种基于双目手势识别的ar动作矫正投影方法及系统
CN110262662A (zh) 一种智能人机交互方法
CN213634902U (zh) 体感互动教育集成设备
CN108345115A (zh) 一种手势感应的vr教学设备结构
JP7427906B2 (ja) 情報処理装置、制御方法及びプログラム
CN212750129U (zh) 一种动作教学交互镜
Liu et al. PianoSyncAR: Enhancing Piano Learning through Visualizing Synchronized Hand Pose Discrepancies in Augmented Reality
CN118038722B (zh) 基于虚拟现实的课堂实景再现交互式教学系统和方法
Stefanov et al. A real-time gesture recognition system for isolated Swedish Sign Language signs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant