CN115880111A - 基于图像的虚拟仿真实训课堂教学管理方法及系统 - Google Patents
基于图像的虚拟仿真实训课堂教学管理方法及系统 Download PDFInfo
- Publication number
- CN115880111A CN115880111A CN202310145786.5A CN202310145786A CN115880111A CN 115880111 A CN115880111 A CN 115880111A CN 202310145786 A CN202310145786 A CN 202310145786A CN 115880111 A CN115880111 A CN 115880111A
- Authority
- CN
- China
- Prior art keywords
- student
- evaluation result
- action
- classroom
- energy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于图像的虚拟仿真实训课堂教学管理方法及系统,属于图像处理技术领域;本发明解决了现有的虚拟仿真实训课堂对学生动作执行过程评价不全面的问题。本发明所述方法包括:依次进行去噪后的各学生连续视频帧图像的特征提取,得到初始学生动作特征序列;其中,初始学生动作特征序列包括角度特征和能量特征;根据角度特征和能量特征进行核心动作视频帧图像筛选,得到筛选后的学生动作特征序列;根据筛选后的学生动作特征序列以及预设的深度学习分类模型,得到学生连续动作识别结果,进而得到第一外部评估结果,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果;本发明实现了更准确的实训动作标准化评估。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于图像的虚拟仿真实训课堂教学管理方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术,并不必然构成现有技术。
虚拟仿真(Virtual Reality)是用一个系统模仿另一个真实系统的技术,随着虚拟仿真技术的不断发展,众多高校或者培训机构已经建立了虚拟仿真实训课堂,通过虚拟仿真的方式即可使得学生身临其境的进行实操学习,不仅能够用于真正实操前的预演,也能够弥补无法深入生产制造一线带来的技能缺失。
但是,发明人发现,现有的虚拟实训课堂,大多采用每个学生佩戴一副VR眼镜结合手臂和手腕上的传感器来实现虚拟实训,然后教师根据虚拟实训软件给出的学生评分进行学生学习内容的评估,由于不同的虚拟实训软件的评价标准存在差异,进行学生学习情况的评估大多存在较大的差异,而且由于学生个体间的差异,单纯的采用虚拟实训软件给出的评估结果进行评价容易出现学生操作正常但是评分较低的情况。
发明内容
为了解决现有技术的不足,本发明提供了一种基于图像的虚拟仿真实训课堂教学管理方法及系统,根据实时采集到的视频帧图像进行学生虚拟实训过程中的连续性动作识别,实现了学生虚拟实训的外部评估,结合虚拟实训课堂给出的内部评估,实现了更准确的实训动作标准化评估,避免了单一评价标准带来的片面性。
为了实现上述目的,本发明采用如下技术方案:
本发明第一方面提供了一种基于图像的虚拟仿真实训课堂教学管理方法。
一种基于图像的虚拟仿真实训课堂教学管理方法,包括以下过程:
获取虚拟仿真实训课堂的学生连续视频帧图像并进行预处理;
依次进行去噪后的各学生连续视频帧图像的特征提取,得到初始学生动作特征序列;其中,初始学生动作特征序列包括角度特征和能量特征;
根据角度特征和能量特征进行核心动作视频帧图像筛选,得到筛选后的学生动作特征序列;
根据筛选后的学生动作特征序列以及预设的深度学习分类模型,得到学生连续动作识别结果;
根据学生连续动作识别结果与预设虚拟仿真实训课堂的标准动作的偏差,得到第一外部评估结果;
获取虚拟仿真实训课程结束后给出的内部评估结果,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果。
作为本发明第一方面可选的一种实现方式,角度特征的获取,包括:
依次获取锁骨、左肩部、左手肘部、左手腕部、右肩部、右手肘部和右手腕部的关节向量,各相邻的关节向量之间的夹角分别作为第一夹角、第二夹角、第三夹角、第四夹角、第五夹角和第六夹角,以第一夹角、第二夹角、第三夹角、第四夹角、第五夹角和第六夹角构成某一视频帧的角度特征向量;
假定视频帧图像为N帧,去除第一帧视频帧图像,将N-1帧视频帧的角度特征向量组合后,得到N-1维的角度特征;
能量特征的获取,包括:
根据学生所在空间的三维模型,依次获取左肩部、左手肘部、左手腕部、右肩部、右手肘部和右手腕部的关节坐标;
根据获取的坐标值计算各关节的当前帧图像与上一帧图像之间的能量差,得到第一能量差、第二能量差、第三能量差、第四能量差、第五能量差和第六能量差,以第一能量差、第二能量差、第三能量差、第四能量差、第五能量差和第六能量差构成相邻视频帧的能量特征向量;
假定视频帧图像为N帧,则得到N-1帧视频帧的能量特征向量,将N-1帧视频帧的能量特征向量组合后,得到N-1维的能量特征。
作为本发明进一步的限定,根据角度特征和能量特征进行核心动作视频帧图像筛选,包括:
计算N-1维的角度特征中当前帧图像与下一帧图像的角度向量的欧氏距离,根据各个关节的权重,得到当前帧图像的角度欧式距离,依次计算,得到N-2个角度欧式距离值;
计算N-1维度的能量特征中当前帧图像与下一帧图像的能量向量的欧氏距离,根据各个关节的权重,得到当前帧图像的能量欧式距离,依次计算,得到N-2个能量欧式距离值;
将各帧的角度欧式距离和能量欧式距离相加,得到N-2个欧氏距离计算值;
去除N-2个欧氏距离计算值中最小的10%对应的视频帧图像,得到核心动作视频帧图像筛选结果。
作为本发明第一方面可选的一种实现方式,获取筛选后的学生动作特征序列中各视频帧对应时刻的学生脑电信号,根据获取的脑电信号计算各视频帧图像对应的专注度,得到第二外部评估结果;
以学生课堂评估结果和第二外部评估结果的加权值,为最终的学生课堂评估结果;
其中,获取教师规范操作时的学生课堂评估结果等级分以及第二外部评估结果的等级分,生成第二外部评估结果和学生课堂评估结果的权重,根据权重计算最终的学生课堂评估结果。
作为本发明第一方面可选的一种实现方式,根据学生连续动作识别结果与预设虚拟仿真实训课堂的标准动作的偏差,得到第一外部评估结果,包括:
假定学生连续动作识别结果为依次执行了N个动作;
当预设虚拟仿真实训课堂的标准动作为N个动作,且学生的动作顺序和动作内容与标准动作的动作顺序和动作内容相同时,则第一外部评估结果为第一等级分;
当预设虚拟仿真实训课堂的标准动作为N个动作,但学生的动作顺序和动作内容与标准动作的动作顺序和动作内容存在差异时,如果差异小于第一设定阈值,则第一外部评估结果为第二等级分;否则,第一外部评估结果为第三等级分。
作为本发明进一步的限定,当学生实际动作为M个动作,且M与N的差异大于第二设定阈值时,第一外部评估结果为第三等级分;M与N的差异大于1且小于第二设定数量范围时,第一外部评估结果为第二等级分。
作为本发明进一步的限定,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果,包括:
获取教师规范操作时的内部评估结果等级分以及第一外部评估结果的等级分,生成第一外部评估结果和内部评估结果的权重,根据权重计算学生课堂评估结果。
作为本发明第一方面可选的一种实现方式,获取虚拟仿真实训课堂的学生连续视频帧图像并进行预处理,包括:
对任一视频帧图像,将此视频帧图像的各个像素均添加像素增量,得到像素增强后的视频帧图像;
其中,像素增量为:优质像素值设定值与此视频帧图像的像素平均值的差值。
作为本发明进一步的限定,进行预处理,还包括:
采用卷积神经网络模型对像素增强后的视频帧图像进行图像增强,其中,
卷积神经网络模型包括依次连接的第一卷积层、第二卷积层、第三卷积层、池化层和全连接层,第一卷积层的输入与第一卷积层的输出级联后作为第二卷积层的输入,第二卷积层的输出、第一卷积层的输入与第一卷积层的输出级联后作为第三卷积层的输入;
其中,卷积神经网络模型的损失函数为:
其中,式中S(i,j)与T(i,j)为预处理后的图像和标准图像在(i,j)位置的像素值,P为i的最大值,Q为j的最大值。
本发明第二方面提供了一种基于图像的虚拟仿真实训课堂教学管理系统。
一种基于图像的虚拟仿真实训课堂教学管理系统,包括:
图像预处理模块,被配置为:获取虚拟仿真实训课堂的学生连续视频帧图像并进行预处理;
特征提取模块,被配置为:依次进行去噪后的各学生连续视频帧图像的特征提取,得到初始学生动作特征序列;其中,初始学生动作特征序列包括角度特征和能量特征;
图像筛选模块,被配置为:根据角度特征和能量特征进行核心动作视频帧图像筛选,得到筛选后的学生动作特征序列;
动作识别模块,被配置为:根据筛选后的学生动作特征序列以及预设的深度学习分类模型,得到学生连续动作识别结果;
外部评估模块,被配置为:根据学生连续动作识别结果与预设虚拟仿真实训课堂的标准动作的偏差,得到第一外部评估结果;
综合评估模块,被配置为:获取虚拟仿真实训课程结束后给出的内部评估结果,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果。
与现有技术相比,本发明的有益效果是:
1、根据实时采集到的视频帧图像进行学生虚拟实训过程中的连续性动作,实现了学生虚拟实训的外部评估,结合虚拟实训课堂给出的内部评估,能够更全面的进行实训动作标准化评估,避免了单一评价标准带来的片面性。
2、根据角度特征和能量特征进行核心动作视频帧图像筛选,得到筛选后的学生动作特征序列,减少了非必要视频帧图像的处理,提高了图像处理的效率。
3、对各视频帧图像进行像素增强预处理和图像增强预处理,采用特定设计的卷积层网络及损失函数,能够有效的提升图像的清晰度。
4、能够结合学生虚拟现实操作时的专注度数据,进一步提升了实训动作标准化评估的全面性。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例1提供的虚拟仿真实训课堂教学管理方法的流程示意图;
图2为本发明实施例2提供的虚拟仿真实训课堂教学管理系统的结构示意图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例
如图1所示,本发明实施例1提供了一种基于图像的虚拟仿真实训课堂教学管理方法,包括以下过程:
获取虚拟仿真实训课堂的学生连续视频帧图像并进行预处理;
依次进行去噪后的各学生连续视频帧图像的特征提取,得到初始学生动作特征序列;其中,初始学生动作特征序列包括角度特征和能量特征;
根据角度特征和能量特征进行核心动作视频帧图像筛选,得到筛选后的学生动作特征序列;
根据筛选后的学生动作特征序列以及预设的深度学习分类模型,得到学生连续动作识别结果;
根据学生连续动作识别结果与预设虚拟仿真实训课堂的标准动作的偏差,得到第一外部评估结果;
获取虚拟仿真实训课程结束后给出的内部评估结果,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果。
具体的,角度特征的获取,包括:
依次获取锁骨(这里单指锁骨中心位置)、左肩部、左手肘部、左手腕部、右肩部、右手肘部和右手腕部的关节向量(l 1 ,l 2 ,l 3 ,l 4 ,l 5 ,l 6 ,l 7 ),各相邻的关节向量之间的夹角分别作为第一夹角θ 1 (即l 1 与l 2 之间的夹角)、第二夹角θ 2 (即l 2 与l 3 之间的夹角)、第三夹角θ 3 (即l 3 与l 4 之间的夹角)、第四夹角θ 4 (即l 4 与l 5 之间的夹角)、第五夹角θ 5 (即l 5 与l 6 之间的夹角)和第六夹角θ 6 (即l 6 与l 7 之间的夹角),以第一夹角θ 1 、第二夹角θ 2 、第三夹角θ 3 、第四夹角θ 4 、第五夹角θ 5 和第六夹角θ 6 构成某一视频帧i的角度特征向量p i =(θ 1 ,θ 2 ,θ 3 ,θ 4 ,θ 5 ,θ 6 );
假定视频帧图像为N帧,去除第一帧视频帧图像,将N-1帧视频帧的角度特征向量组合后,得到N-1维的角度特征;
能量特征的获取,包括:
根据学生所在空间的三维模型,依次获取左肩部、左手肘部、左手腕部、右肩部、右手肘部和右手腕部的关节坐标(x 1 ,y 1 ,z 1 )、(x 2 ,y 2 ,z 2 )、(x 3 ,y 3 ,z 3 )、(x 4 ,y 4 ,z 4 )、(x 5 ,y 5 ,z 5 )、(x 6 ,y 6 ,z 6 );
根据获取的坐标值计算各关节的当前帧图像与上一帧图像之间的能量差,得到第一能量差、第二能量差、第三能量差、第四能量差、第五能量差和第六能量差,以第一能量差、第二能量差、第三能量差、第四能量差、第五能量差和第六能量差构成相邻视频帧的能量特征向量;
假定视频帧图像为N帧,则得到N-1帧视频帧的能量特征向量,将N-1帧视频帧的能量特征向量组合后,得到N-1维的能量特征。
按上述方式依次计算当真帧图像的F差1、F差2、F差3、F差4、F差5、F差6,则构建当前帧的能量特征向量q i =(F 差1 ,F 差2 ,F 差3 ,F 差4 ,F 差5 ,F 差6 )。
本实施例中,根据角度特征和能量特征进行核心动作视频帧图像筛选,包括:
计算N-1维度的角度特征中当前帧图像与下一帧图像的角度向量的欧氏距离,根据各个关节的权重,得到当前帧图像的角度欧式距离,依次计算,得到N-2个角度欧式距离值;
计算N-1维度的能量特征中当前帧图像与下一帧图像的能量向量的欧氏距离,根据各个关节的权重,得到当前帧图像的能量欧式距离,依次计算,得到N-2个能量欧式距离值;
将各帧的角度欧式距离和能量欧式距离相加,得到N-2个欧氏距离计算值;
去除N-2个欧氏距离计算值中最小的10%对应的视频帧图像,得到核心动作视频帧图像筛选结果。
可以理解的,在其他一些实现方式,这里的10%也可以根据具体工况进行选择,例如也可以选择15%或者20%等等,本领域技术人员可以根据具体工况进行选择,这里不再赘述。
本实施例中,获取筛选后的学生动作特征序列中各视频帧对应时刻的学生脑电信号,根据获取的脑电信号计算各视频帧图像对应的专注度,得到第二外部评估结果;
以学生课堂评估结果和第二外部评估结果的加权值,为最终的学生课堂评估结果;
其中,获取教师规范操作时的学生课堂评估结果等级分以及第二外部评估结果的等级分,生成第二外部评估结果和学生课堂评估结果的权重,根据权重计算最终的学生课堂评估结果。
具体的,当人脑的注意力较为集中时,脑电信号中的β脑波的能量值明显高于α脑波和θ脑波,反之则β脑波的能量值低于α脑波和θ脑波,即α脑波和θ脑波占主导地位,综合三种脑波能量值,可以得到评估人脑的专注度为:E β /(E β +E α +E θ );
其中,E β 为β脑波的能量值,E α 为α脑波的能量值,E θ 为θ脑波的能量值。
可选的,根据学生连续动作识别结果与预设虚拟仿真实训课堂的标准动作的偏差,得到第一外部评估结果,包括:
假定学生连续动作识别结果为依次执行了N个动作;
当预设虚拟仿真实训课堂的标准动作为N个动作,且学生的动作顺序和动作内容与标准动作的动作顺序和动作内容相同时,则第一外部评估结果为第一等级分;
当预设虚拟仿真实训课堂的标准动作为N个动作,但学生的动作顺序和动作内容与标准动作的动作顺序和动作内容存在差异时,如果差异小于第一设定阈值,则第一外部评估结果为第二等级分;否则,第一外部评估结果为第三等级分。
可选的,在其他一些实现方式中,当学生实际动作为M个动作,且M与N的差异大于第二设定阈值时,第一外部评估结果为第三等级分;M与N的差异大于1且小于第二设定数量范围时,第一外部评估结果为第二等级分。
具体的,这里的标准动作依次为左手抓握、右手抓握、左手抬起、右手抬起、右手旋转、右手松开、左手放下、左手松开、右手放下,为9个动作;
当学生的实训动作为9个动作,且动作顺序依次也为左手抓握、右手抓握、左手抬起、右手抬起、右手旋转、右手松开、左手放下、左手松开、右手放下时,给予第一等级分90分;
这里设定第一设定阈值为3,当两个动作顺序出现错误时,例如检测到左手抬起、左手放下、右手抬起、右手放下、右手旋转、右手松开、左手放下、左手松开、右手放下时,给予第一等级分70分;当动作顺序的错误数量大于或等于3时,则给予第三等级分60分;
这里设定第一设定阈值为4,当5个动作出现缺失时,例如只有右手旋转、右手松开、左手放下、左手松开等4个动作,则给予第三等级分60分;当3个动作出现缺失时,例如只有左手抬起、右手抬起、右手旋转、右手松开、左手放下、左手松开时,则给予第二等级分70分。
可选的,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果,包括:
获取教师规范操作时的内部评估结果等级分以及第一外部评估结果的等级分,生成第一外部评估结果和内部评估结果的权重,根据权重计算学生课堂评估结果。
可选的,教师规范操作时的得分如果为50分,而第一外部评估结果为100分,那么,给予第一外部评估结果更高的权重,例如0.9,给予内部得分更低的权重,例如0.1,以平衡软件带来的影响;当教师规范操作时的得分如果为100分,而第一外部评估结果为100分,则权重均为0.5,这里可以根据具体工况进行选择,这里不再赘述。
可选的,本实施例中,获取虚拟仿真实训课堂的学生连续视频帧图像并进行预处理,包括:
对任一视频帧图像,将此视频帧图像的各个像素均添加像素增量,得到像素增强后的视频帧图像;
其中,像素增量为:优质像素值设定值与此视频帧图像的像素平均值的差值。
可选的,在其他一些实现方式中,进行预处理,还包括:
采用卷积神经网络模型对像素增强后的视频帧图像进行图像增强,其中,
卷积神经网络模型包括依次连接的第一卷积层、第二卷积层、第三卷积层、池化层和全连接层,第一卷积层的输入与第一卷积层的输出级联后作为第二卷积层的输入,第二卷积层的输出、第一卷积层的输入与第一卷积层的输出级联后作为第三卷积层的输入;
其中,卷积神经网络模型的损失函数为:
其中,S(i,j)与T(i,j)为预处理后的图像和标准图像在(i,j)位置的像素值,P为i的最大值,Q为j的最大值。
本实施例中,卷积神经网络模型的卷积核大小均为3×3,步长均为1。
本实施例中,预设的深度学习分类模型均采用现有的深度学习模型,例如卷积神经网络模型或者长短期记忆神经网络模型,现有方式均能够实现动作识别,只要以本实施例角度特征和能量特征为输入,以具体的动作为输出进行训练即可得到预设的深度学习模型,这里不再赘述。
实施例
如图2所示,本发明实施例2提供了一种基于图像的虚拟仿真实训课堂教学管理系统,包括:
图像预处理模块,被配置为:获取虚拟仿真实训课堂的学生连续视频帧图像并进行预处理;
特征提取模块,被配置为:依次进行去噪后的各学生连续视频帧图像的特征提取,得到初始学生动作特征序列;其中,初始学生动作特征序列包括角度特征和能量特征;
图像筛选模块,被配置为:根据角度特征和能量特征进行核心动作视频帧图像筛选,得到筛选后的学生动作特征序列;
动作识别模块,被配置为:根据筛选后的学生动作特征序列以及预设的深度学习分类模型,得到学生连续动作识别结果;
外部评估模块,被配置为:根据学生连续动作识别结果与预设虚拟仿真实训课堂的标准动作的偏差,得到第一外部评估结果;
综合评估模块,被配置为:获取虚拟仿真实训课程结束后给出的内部评估结果,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果。
所述系统的工作方法与实施例1提供的基于图像的虚拟仿真实训课堂教学管理方法相同,这里不再赘述。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图中一个流程或多个流程和/或方框图中一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图中一个流程或多个流程和/或方框图中一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图中一个流程或多个流程和/或方框图中一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于图像的虚拟仿真实训课堂教学管理方法,其特征在于,包括以下过程:
获取虚拟仿真实训课堂的学生连续视频帧图像并进行预处理;
依次进行去噪后的各学生连续视频帧图像的特征提取,得到初始学生动作特征序列;其中,初始学生动作特征序列包括角度特征和能量特征;
根据角度特征和能量特征进行核心动作视频帧图像筛选,得到筛选后的学生动作特征序列;
根据筛选后的学生动作特征序列以及预设的深度学习分类模型,得到学生连续动作识别结果;
根据学生连续动作识别结果与预设虚拟仿真实训课堂的标准动作的偏差,得到第一外部评估结果;
获取虚拟仿真实训课程结束后给出的内部评估结果,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果。
2.如权利要求1所述的基于图像的虚拟仿真实训课堂教学管理方法,其特征在于,角度特征的获取,包括:
依次获取锁骨、左肩部、左手肘部、左手腕部、右肩部、右手肘部和右手腕部的关节向量,各相邻的关节向量之间的夹角分别作为第一夹角、第二夹角、第三夹角、第四夹角、第五夹角和第六夹角,以第一夹角、第二夹角、第三夹角、第四夹角、第五夹角和第六夹角构成某一视频帧的角度特征向量;
假定视频帧图像为N帧,去除第一帧视频帧图像,将N-1帧视频帧的角度特征向量组合后,得到N-1维的角度特征;
能量特征的获取,包括:
根据学生所在空间的三维模型,依次获取左肩部、左手肘部、左手腕部、右肩部、右手肘部和右手腕部的关节坐标;
根据获取的坐标值计算各关节的当前帧图像与上一帧图像之间的能量差,得到第一能量差、第二能量差、第三能量差、第四能量差、第五能量差和第六能量差,以第一能量差、第二能量差、第三能量差、第四能量差、第五能量差和第六能量差构成相邻视频帧的能量特征向量;
假定视频帧图像为N帧,则得到N-1帧视频帧的能量特征向量,将N-1帧视频帧的能量特征向量组合后,得到N-1维的能量特征。
3.如权利要求2所述的基于图像的虚拟仿真实训课堂教学管理方法,其特征在于,根据角度特征和能量特征进行核心动作视频帧图像筛选,包括:
计算N-1维度的角度特征中当前帧图像与下一帧图像的角度向量的欧氏距离,根据各个关节的权重,得到当前帧图像的角度欧式距离,依次计算,得到N-2个角度欧式距离值;
计算N-1维度的能量特征中当前帧图像与下一帧图像的能量向量的欧氏距离,根据各个关节的权重,得到当前帧图像的能量欧式距离,依次计算,得到N-2个能量欧式距离值;
将各帧的角度欧式距离和能量欧式距离相加,得到N-2个欧氏距离计算值;
去除N-2个欧氏距离计算值中最小的10%对应的视频帧图像,得到核心动作视频帧图像筛选结果。
4.如权利要求1所述的基于图像的虚拟仿真实训课堂教学管理方法,其特征在于,获取筛选后的学生动作特征序列中各视频帧对应时刻的学生脑电信号,根据获取的脑电信号计算各视频帧图像对应的专注度,得到第二外部评估结果以学生课堂评估结果和第二外部评估结果的加权值,为最终的学生课堂评估结果;其中,获取教师规范操作时的学生课堂评估结果等级分以及第二外部评估结果的等级分,生成第二外部评估结果和学生课堂评估结果的权重,根据权重计算最终的学生课堂评估结果。
5.如权利要求1所述的基于图像的虚拟仿真实训课堂教学管理方法,其特征在于,根据学生连续动作识别结果与预设虚拟仿真实训课堂的标准动作的偏差,得到第一外部评估结果,包括:
假定学生连续动作识别结果为依次执行了N个动作;
当预设虚拟仿真实训课堂的标准动作为N个动作,且学生的动作顺序和动作内容与标准动作的动作顺序和动作内容相同时,则第一外部评估结果为第一等级分;
当预设虚拟仿真实训课堂的标准动作为N个动作,但学生的动作顺序和动作内容与标准动作的动作顺序和动作内容存在差异时,如果差异小于第一设定阈值,则第一外部评估结果为第二等级分;否则,第一外部评估结果为第三等级分。
6.如权利要求5所述的基于图像的虚拟仿真实训课堂教学管理方法,其特征在于,当学生实际动作为M个动作,且M与N的差异大于第二设定阈值时,第一外部评估结果为第三等级分;M与N的差异大于1且小于第二设定数量范围时,第一外部评估结果为第二等级分。
7.如权利要求5所述的基于图像的虚拟仿真实训课堂教学管理方法,其特征在于,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果,包括:获取教师规范操作时的内部评估结果等级分以及第一外部评估结果的等级分,生成第一外部评估结果和内部评估结果的权重,根据权重计算学生课堂评估结果。
8.如权利要求1所述的基于图像的虚拟仿真实训课堂教学管理方法,其特征在于,获取虚拟仿真实训课堂的学生连续视频帧图像并进行预处理,包括:对任一视频帧图像,将此视频帧图像的各个像素均添加像素增量,得到像素增强后的视频帧图像;其中,像素增量为:优质像素值设定值与此视频帧图像的像素平均值的差值。
10.一种基于图像的虚拟仿真实训课堂教学管理系统,其特征在于,包括:
图像预处理模块,被配置为:获取虚拟仿真实训课堂的学生连续视频帧图像并进行预处理;
特征提取模块,被配置为:依次进行去噪后的各学生连续视频帧图像的特征提取,得到初始学生动作特征序列;其中,初始学生动作特征序列包括角度特征和能量特征;
图像筛选模块,被配置为:根据角度特征和能量特征进行核心动作视频帧图像筛选,得到筛选后的学生动作特征序列;
动作识别模块,被配置为:根据筛选后的学生动作特征序列以及预设的深度学习分类模型,得到学生连续动作识别结果;
外部评估模块,被配置为:根据学生连续动作识别结果与预设虚拟仿真实训课堂的标准动作的偏差,得到第一外部评估结果;
综合评估模块,被配置为:获取虚拟仿真实训课程结束后给出的内部评估结果,以第一外部评估结果和内部评估结果的加权和为学生课堂评估结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310145786.5A CN115880111B (zh) | 2023-02-22 | 2023-02-22 | 基于图像的虚拟仿真实训课堂教学管理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310145786.5A CN115880111B (zh) | 2023-02-22 | 2023-02-22 | 基于图像的虚拟仿真实训课堂教学管理方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115880111A true CN115880111A (zh) | 2023-03-31 |
CN115880111B CN115880111B (zh) | 2023-05-16 |
Family
ID=85761476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310145786.5A Active CN115880111B (zh) | 2023-02-22 | 2023-02-22 | 基于图像的虚拟仿真实训课堂教学管理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115880111B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117690331A (zh) * | 2024-02-04 | 2024-03-12 | 西南医科大学附属医院 | 一种前列腺穿刺手术训练系统及方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60195614A (ja) * | 1984-03-16 | 1985-10-04 | Hitachi Ltd | ロボツト教示方式 |
TWM563585U (zh) * | 2018-01-25 | 2018-07-11 | 首羿國際股份有限公司 | 用於虛擬實境環境的動作捕捉系統 |
CN108876672A (zh) * | 2018-06-06 | 2018-11-23 | 合肥思博特软件开发有限公司 | 一种远程教育教师自动识别图像优化跟踪方法及系统 |
CN111046823A (zh) * | 2019-12-19 | 2020-04-21 | 东南大学 | 基于课堂视频的学生课堂参与度分析系统 |
CN111709358A (zh) * | 2020-06-14 | 2020-09-25 | 东南大学 | 基于课堂视频的师生行为分析系统 |
CN112908355A (zh) * | 2021-01-18 | 2021-06-04 | 江苏师范大学 | 一种师范生教学技能量化评价系统及其方法 |
CN113158880A (zh) * | 2021-04-19 | 2021-07-23 | 中国海洋大学 | 一种基于深度学习的学生课堂行为识别方法 |
CN113239916A (zh) * | 2021-07-13 | 2021-08-10 | 北京邮电大学 | 一种表情识别及课堂状态评估方法、设备及介质 |
CN113496217A (zh) * | 2021-07-08 | 2021-10-12 | 河北工业大学 | 视频图像序列中人脸微表情识别方法 |
CN113536997A (zh) * | 2021-07-01 | 2021-10-22 | 深圳中智明科智能科技有限公司 | 基于图像识别和行为分析的智能安防系统及方法 |
CN113689093A (zh) * | 2021-08-09 | 2021-11-23 | 河南职业技术学院 | 基于人工智能的课堂质量评估方法及系统 |
CN114580882A (zh) * | 2022-02-28 | 2022-06-03 | 山东建筑大学 | 一种面向混合式教学方法的授课效果评估系统及方法 |
CN115311111A (zh) * | 2022-05-26 | 2022-11-08 | 内蒙古工业大学 | 课堂参与度评价方法及系统 |
-
2023
- 2023-02-22 CN CN202310145786.5A patent/CN115880111B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60195614A (ja) * | 1984-03-16 | 1985-10-04 | Hitachi Ltd | ロボツト教示方式 |
TWM563585U (zh) * | 2018-01-25 | 2018-07-11 | 首羿國際股份有限公司 | 用於虛擬實境環境的動作捕捉系統 |
CN108876672A (zh) * | 2018-06-06 | 2018-11-23 | 合肥思博特软件开发有限公司 | 一种远程教育教师自动识别图像优化跟踪方法及系统 |
CN111046823A (zh) * | 2019-12-19 | 2020-04-21 | 东南大学 | 基于课堂视频的学生课堂参与度分析系统 |
CN111709358A (zh) * | 2020-06-14 | 2020-09-25 | 东南大学 | 基于课堂视频的师生行为分析系统 |
CN112908355A (zh) * | 2021-01-18 | 2021-06-04 | 江苏师范大学 | 一种师范生教学技能量化评价系统及其方法 |
CN113158880A (zh) * | 2021-04-19 | 2021-07-23 | 中国海洋大学 | 一种基于深度学习的学生课堂行为识别方法 |
CN113536997A (zh) * | 2021-07-01 | 2021-10-22 | 深圳中智明科智能科技有限公司 | 基于图像识别和行为分析的智能安防系统及方法 |
CN113496217A (zh) * | 2021-07-08 | 2021-10-12 | 河北工业大学 | 视频图像序列中人脸微表情识别方法 |
CN113239916A (zh) * | 2021-07-13 | 2021-08-10 | 北京邮电大学 | 一种表情识别及课堂状态评估方法、设备及介质 |
CN113689093A (zh) * | 2021-08-09 | 2021-11-23 | 河南职业技术学院 | 基于人工智能的课堂质量评估方法及系统 |
CN114580882A (zh) * | 2022-02-28 | 2022-06-03 | 山东建筑大学 | 一种面向混合式教学方法的授课效果评估系统及方法 |
CN115311111A (zh) * | 2022-05-26 | 2022-11-08 | 内蒙古工业大学 | 课堂参与度评价方法及系统 |
Non-Patent Citations (6)
Title |
---|
余惠琴;孙停瑞;陈岚;孙立明;茅清;马洁;: "常用护理操作虚拟仿真训练系统的开发与应用", 护理实践与研究 * |
孟亚;张浩;郭晓娜;于晓静;李格;: "雨课堂联合虚拟仿真训练用于基础护理学教学的效果评价", 护理学杂志 * |
李璧江;张学军;韦涛;黄菊;韦依尼;孙映华;: "基于虚拟现实的腹部手术仿真系统研究", 医疗卫生装备 * |
杨默涵;陈万忠;李明阳;: "基于总体经验模态分解的多类特征的运动想象脑电识别方法研究", 自动化学报 * |
缪佳;禹东川;: "基于课堂视频的学生课堂参与度分析", 教育生物学杂志 * |
金庆;: "基于人工智能的课堂评价辅助系统研究", 科教导刊(下旬) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117690331A (zh) * | 2024-02-04 | 2024-03-12 | 西南医科大学附属医院 | 一种前列腺穿刺手术训练系统及方法 |
CN117690331B (zh) * | 2024-02-04 | 2024-05-14 | 西南医科大学附属医院 | 一种前列腺穿刺手术训练系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115880111B (zh) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108491880B (zh) | 基于神经网络的物体分类和位姿估计方法 | |
CN109359539B (zh) | 注意力评估方法、装置、终端设备及计算机可读存储介质 | |
Pathak et al. | Context encoders: Feature learning by inpainting | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
US11232286B2 (en) | Method and apparatus for generating face rotation image | |
CN107679522B (zh) | 基于多流lstm的动作识别方法 | |
CN110728209A (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
CN111681178B (zh) | 一种基于知识蒸馏的图像去雾方法 | |
CN113822982B (zh) | 一种人体三维模型构建方法、装置、电子设备及存储介质 | |
CN110728219A (zh) | 基于多列多尺度图卷积神经网络的3d人脸生成方法 | |
CN108921942B (zh) | 对图像进行2d转制3d的方法及装置 | |
CN111401156B (zh) | 基于Gabor卷积神经网络的图像识别方法 | |
CN113221663A (zh) | 一种实时手语智能识别方法、装置及系统 | |
CN115880111A (zh) | 基于图像的虚拟仿真实训课堂教学管理方法及系统 | |
CN114627290A (zh) | 一种基于改进DeepLabV3+网络的机械零部件图像分割算法 | |
CN112861659A (zh) | 一种图像模型训练方法、装置及电子设备、存储介质 | |
CN115240259A (zh) | 一种基于yolo深度网络的课堂环境下人脸检测方法及其检测系统 | |
CN111259950A (zh) | 一种基于3d模型训练yolo神经网络的方法 | |
CN116385667B (zh) | 三维模型的重建方法、纹理重构模型的训练方法以及装置 | |
CN117218300A (zh) | 三维模型的构建方法、三维构建模型的训练方法及装置 | |
CN111611917A (zh) | 模型训练方法、特征点检测方法、装置、设备及存储介质 | |
CN115937374B (zh) | 一种数字人体建模方法、装置、设备及介质 | |
CN111401209A (zh) | 一种基于深度学习的动作识别方法 | |
CN114155560B (zh) | 基于空间降维的高分辨率人体姿态估计模型的轻量化方法 | |
CN115797517A (zh) | 虚拟模型的数据处理方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |