CN116502923B - 虚拟仿真教学实训平台的仿真方法及系统 - Google Patents
虚拟仿真教学实训平台的仿真方法及系统 Download PDFInfo
- Publication number
- CN116502923B CN116502923B CN202310764013.5A CN202310764013A CN116502923B CN 116502923 B CN116502923 B CN 116502923B CN 202310764013 A CN202310764013 A CN 202310764013A CN 116502923 B CN116502923 B CN 116502923B
- Authority
- CN
- China
- Prior art keywords
- student
- rotation
- video
- picture
- students
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 title claims abstract description 20
- 238000004088 simulation Methods 0.000 title claims abstract description 17
- 238000004458 analytical method Methods 0.000 claims abstract description 89
- 238000011156 evaluation Methods 0.000 claims abstract description 80
- 230000000877 morphologic effect Effects 0.000 claims abstract description 58
- 230000009471 action Effects 0.000 claims description 56
- 238000005452 bending Methods 0.000 claims description 43
- 238000006073 displacement reaction Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000005484 gravity Effects 0.000 claims description 13
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000002360 preparation method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 210000002310 elbow joint Anatomy 0.000 claims description 5
- 210000000323 shoulder joint Anatomy 0.000 claims description 5
- 210000003857 wrist joint Anatomy 0.000 claims description 5
- 210000001503 joint Anatomy 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 210000000544 articulatio talocruralis Anatomy 0.000 claims description 2
- 210000004394 hip joint Anatomy 0.000 claims description 2
- 210000000629 knee joint Anatomy 0.000 claims description 2
- 210000001226 toe joint Anatomy 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 13
- 230000000694 effects Effects 0.000 abstract description 4
- 238000007689 inspection Methods 0.000 abstract description 4
- 230000006872 improvement Effects 0.000 description 3
- 230000004899 motility Effects 0.000 description 3
- 206010063385 Intellectualisation Diseases 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0637—Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Educational Administration (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Technology (AREA)
- Multimedia (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Operations Research (AREA)
- Human Computer Interaction (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及教学实训分析技术领域,具体公开虚拟仿真教学实训平台的仿真方法及系统,通过获取各学生的个人信息,对各学生进行身份比对,进而对各学生对应课程的练习视频中各帧画面进行形态分析,进而分析得出各学生对应的形态符合指数,并生成各学生的形态评价报告,在一定程度上有利于学生提高主观能动性,使得学生更好地掌握旋转技术的关键细节,提高了分析结果的参考性,同时还能为为学生技术提升提供正确可靠的依据,提高了检查结果准确性,有效的保障了分析的科学性和可靠性,有效的提高了学生学习兴趣与学习积极主动性,在一定程度上有效降低课堂教学难度,提高了课堂教学效果,保障了学生旋转分析的全面性。
Description
技术领域
本发明涉及教学实训分析技术领域,尤其涉及虚拟仿真教学实训平台的仿真方法及系统。
背景技术
随着教育信息化进程的不断推进,教学过程中出现了很多以技术为支撑的教育教学新形式,虚拟仿真实验便是近些年受关注度较高的教学方式,目的在于替代危险或者不易实施的实验进行教学,在实验教学中发挥巨大的影响,解决传统实验教学无法解决的诸多问题,为现代教学模式的研究提供了新思路。
在旋转技术教学过程中,由于旋转动作较难、速度过快、技术要点多以及细节很难观察到,这对教师的要求较高,一些细微错误很难通过肉眼及时发现反馈与学生,由此可见,当前技术对于旋转技术分析还存在以下几点问题:
1、当前仍然是通过人工方式去评判学生的旋转形态,在一定程度上不利于学生提高主观能动性,无法掌握旋转技术的关键细节,参考性不强,无法为学生技术提升提供正确可靠的依据,而且检查结果准确性不足,存在很大的误差,无法有效的保障分析的科学性和可靠性。
2、当前技术无法有效提高学生学习兴趣与学习积极主动性,在一定程度上无法有效降低课堂教学难度,无法提高课堂教学效果,无法保障学生旋转分析的全面性,无法有效规避当前线上人工分析模式中存在的随机性强、主观性大的弊端,智能化和自动化水平不高。
发明内容
鉴于以上现有技术存在的问题,本发明提供虚拟仿真教学实训平台的仿真方法及系统,用于解决据上述技术问题。
本发明第一方面提供了虚拟仿真教学实训平台的仿真方法,该方法包括以下步骤:
步骤一、学生动作获取:由学生准备姿势站立在拍摄空间内,通过布设的监测仪器对学生进行旋转动作获取,并通过计算机对视频进行VR动画制作,进而获取各学生的旋转视频,将其与各学生对应的个人信息同步上传至目标教学平台;
步骤二、信息比对分析:从目标教学平台中获取各学生的旋转视频,结合各学生对应的个人信息,进而对各学生进行身份比对,若比对成功,则执行步骤三,反之则将学生标记为未比对学生并同步执行步骤五;
步骤三、学生形态分析:根据各学生的旋转视频,进而对各学生的旋转视频进行形态分析,并综合分析得出各学生对应的形态符合指数;
步骤四、学生形态评价:依据各学生对应的形态符合指数,进而得出各学生对应的形态评价等级,并生成各学生对应的形态评价报告;
步骤五、学生预警终端:获取各未比对学生对应的个人信息,并对其进行平台预警处理。
示例性地,所述步骤一中个人信息包括学号和姓名。
示例性地,所述步骤二中对各学生进行身份比对,比对过程包括以下步骤:
A1、根据各学生对应的个人信息,从中提取出各学生的学号,并将各学生按照学号排列顺序进行编号,依次标记为1,2,...i,...m,根据各学生对应的学号和姓名,从学生数据库中提取出各学生对应的参考面部图像,并依据其进而构建各学生的参考面部直角坐标系,进而得出各学生参考面部图像中眼部中心点、嘴部中心点和鼻部中心点对应坐标,将其构成参考面部坐标集合,其中,/>表示为第i个学生的参考各面部坐标集合,i表示为各学生对应的编号,i=1,2,...m,m表示学生总数目,j表示为各面部坐标,j=j1、j2和j3,其中,j1、j2和j3分别表示为眼部中心点坐标、嘴部中心点坐标和鼻部中心点坐标;
A2、根据目标教学平台中获取各学生对应课程的练习视频,进而从中提取出各学生对应的面部图像,依据各学生对应的参考面部坐标集合的分析方式同理分析得出面部坐标集合,其中,/>表示为第i个学生的各面部坐标;
A3、通过计算得出各学生对应的面部符合系数,并将各学生对应的面部符合系数与预定义的参考面部符合系数进行比对,若某学生对应的面部符合系数大于或等于参考面部符合系数,则判定该学生身份比对成功,反之则判定该学生身份未比对成功。
示例性地,所述步骤三学生形态分析中包括体态分析和动作分析。
示例性地,所述体态分析用于对各学生的旋转视频进行形态分析,分析过程包括以下步骤:
B1、将各学生的旋转视频分割为各帧旋转画面,将各学生的旋转视频对应各帧旋转画面聚焦在脊柱部位,进而得出各学生的旋转视频对应各帧旋转画面的脊柱弯曲角度,并将其记为,k表示为各帧旋转画面对应的编号,k=1,2,...u,u表示为旋转画面总帧数;
B2、根据各学生的旋转视频对应各帧旋转画面,将各学生的旋转视频对应各帧旋转画面导入人体模型图中,进而得出各学生的旋转视频对应各帧旋转画面的膝关节中心点位置、脚踝中心点位置和头部中心点位置,并将各学生的旋转视频对应各帧旋转画面导入人体坐标系中,以各学生的旋转视频对应各帧旋转画面的膝关节中心点位置为原点,以连接各学生的旋转视频对应各帧旋转画面的膝关节中心点位置和脚踝中心点位置的线条为一边,再以连接各学生的旋转视频对应各帧旋转画面的膝关节中心点位置和头部中心点位置的线条为另一边,由此得出各学生的旋转视频对应各帧旋转画面的重心偏转角度,并将其记为;
B3、根据各学生的旋转视频对应各帧旋转画面,根据人体模型图进而得出各学生的旋转视频对应各帧旋转画面中的肘关节、肩关节和腕关节,依据各学生的旋转视频对应各帧旋转画面的中心偏转角度的分析方式同理获取各学生的旋转视频对应各帧旋转画面中各手臂弯曲角度,并利用均值计算公式得出各学生的旋转视频对应各帧旋转画面中平均手臂弯曲角度,并将其记为;
B4、依据分析公式,分析得出各学生对应旋转视频中各帧旋转画面的体态标准评估系数/>,其中,/>分别表示为预定义的许可脊柱弯曲角度差、许可手臂弯曲角度差,/>和/>分别表示为旋转数据库存储的标准脊柱弯曲角度、标准重心偏转角度和标准手臂弯曲角度,e表示为自然常数,/>和/>分别表示为设定的脊柱弯曲角度、重心偏转角度和手臂弯曲角度对应的权重因子,且/>,且。
示例性地,所述动作分析用于对各学生的旋转视频进行形态分析,分析过程包括以下步骤:
C1、获取各学生的旋转视频对应各帧旋转画面,将各学生的旋转视频对应各帧旋转画面按照预设顺序进行排序,进而得出各学生的旋转视频对应各单位旋转动作中的各旋转画面,将各学生的旋转视频对应各单位旋转动作中的各旋转画面导入VR虚拟模型中,即可得出各学生的旋转视频对应各单位旋转动作中各关节位移角速度,并将其构建成各关节位移角速度集合,其中,d表示为各单位旋转动作对应的编号,d=1,2,...f,/>表示为关节位移角速度,/>、/>、/>、/>、/>、/>和/>,/>、/>、/>、/>、/>、/>和/>分别表示为肩关节、肘关节、腕关节、髋关节、膝关节、踝关节和趾关节,/>表示为第i个学生的旋转视频对应第d个单位旋转动作中第/>个关节位移角速度;
C2、通过计算公式,计算得出各学生旋转视频对应各单位旋转动作的位移角速度评估系数/>,其中,/>表示为关节总编号,/>和/>分别表示为旋转数据库存储的单位旋转动作中第/>个关节对应的标准位移角速度和位移角速度许可差值。
示例性地,所述步骤三中分析得出各学生对应的形态符合指数,分析过程如下:
D1、根据各学生的旋转视频,进而获取各学生对应的旋转数量和旋转时间,将其分别标记为和/>;
D2、通过计算公式,计算得出各学生对应的形态符合指数/>,其中,u表示为旋转画面的总帧数,f表示为单位旋转动作总数目,和/>分别表示为设定的单位旋转动作耗费时间、体态标准评估系数和位移角速度评估系数对应的权重因子,其中,/>。
示例性地,所述步骤四中得出各学生对应的形态评价等级,获取过程如下:
将各学生对应的形态符合指数与旋转数据库存储的各形态评价等级对应的形态符合指数区间进行比对,若某学生对应的形态符合指数存在旋转数据库存储的某形态评价等级对应的形态符合指数区间之内,则判定该学生为对应该形态评价等级,进而得出各学生对应的形态评价等级。
示例性地,所述步骤四中生成各学生对应的形态评价报告,生成过程如下:
调取各学生对应的形态符合指数,进而将各学生对应旋转视频中各帧旋转画面的体态标准评估系数和各学生旋转视频对应各单位旋转动作的位移角速度评估系数智能录入形态评价报告模版中,自动生成各学生对应的形态评价报告。
本发明第二方面提供了虚拟仿真教学实训平台的仿真系统,该系统包括:
学生动作获取模块,用于由学生准备姿势站立在拍摄空间内,通过布设的监测仪器对学生进行旋转动作获取,并通过计算机对视频进行VR动画制作,进而获取各学生的旋转视频,将其与各学生对应的个人信息同步上传至目标教学平台;
信息比对分析模块,用于从目标教学平台中获取各学生的旋转视频,结合各学生对应的个人信息,进而对各学生进行身份比对;
学生形态分析模块,用于根据各学生的旋转视频,进而对各学生的旋转视频进行形态分析,并综合分析得出各学生对应的形态符合指数;
学生形态评价模块,用于依据各学生对应的形态符合指数,进而得出各学生对应的形态评价等级,进而生成各学生对应的形态评价报告;
学生预警终端,用于获取各未比对学生对应的个人信息,并对其进行平台预警处理;
学生数据库,用于存储各学生对应的参考面部图像;
旋转数据库,用于存储标准脊柱弯曲角度、标准重心偏转角度和标准手臂弯曲角度,用于存储单位旋转动作中各关节对应的标准位移角速度和位移角速度许可差值,还用于存储各形态评价等级对应的形态符合指数区间。
本发明的有益效果:
本发明提供的虚拟仿真教学实训平台的仿真方法及系统,通过获取各学生的个人信息,对各学生进行身份比对,进而对各学生对应课程的练习视频中各帧画面进行形态分析,进而分析得出各学生对应的形态符合指数,并生成各学生的形态评价报告,有效的解决了当前技术对于学生旋转技术分析智能化不高的问题,一方面,在一定程度上有利于学生提高主观能动性,使得学生更好地掌握旋转技术的关键细节,提高了分析结果的参考性,同时还能为为学生技术提升提供正确可靠的依据,提高了检查结果准确性,避免误差的存在,有效的保障了分析的科学性和可靠性,另一方面,有效的提高了学生学习兴趣与学习积极主动性,在一定程度上有效降低课堂教学难度,提高了课堂教学效果,保障了学生旋转分析的全面性,有效的规避了当前线上人工分析模式中存在的随机性强、主观性大的弊端,提高了智能化和自动化水平。
附图说明
图1为本发明的方法步骤连接结构示意图。
图2为本发明的系统模块连接结构示意图。
实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1所示,虚拟仿真教学实训平台的仿真方法,该方法包括以下步骤:
步骤一、学生动作获取:由学生准备姿势站立在拍摄空间内,通过布设的监测仪器对学生进行动作获取,并通过计算机对视频进行VR动画制作,进而获取各学生的旋转视频,将其与各学生对应的个人信息同步上传至目标教学平台。
需要说明的是,所述步骤一中个人信息包括学号和姓名。
步骤二、信息比对分析:从目标教学平台中获取各学生的旋转视频,结合各学生对应的个人信息,进而对各学生进行身份比对,若比对成功,则执行步骤三,反之则将学生标记为未比对学生并同步执行步骤五。
需要说明的是,所述步骤二中对各学生进行身份比对,比对过程包括以下步骤:
A1、根据各学生对应的个人信息,从中提取出各学生的学号,并将各学生按照学号排列顺序进行编号,依次标记为1,2,...i,...m,根据各学生对应的学号和姓名,从学生数据库中提取出各学生对应的参考面部图像,并依据其进而构建各学生的参考面部直角坐标系,进而得出各学生参考面部图像中眼部中心点、嘴部中心点和鼻部中心点对应坐标,将其构成参考面部坐标集合,其中,/>表示为第i个学生的参考各面部坐标集合,i表示为各学生对应的编号,i=1,2,...m,m表示学生总数目,j表示为各面部坐标,j=j1、j2和j3,其中,j1、j2和j3分别表示为眼部中心点坐标、嘴部中心点坐标和鼻部中心点坐标。
A2、根据目标教学平台中获取各学生对应课程的练习视频,进而从中提取出各学生对应的面部图像,依据各学生对应的参考面部坐标集合的分析方式同理分析得出面部坐标集合,其中,/>表示为第i个学生的各面部坐标。
A3、通过计算得出各学生对应的面部符合系数,并将各学生对应的面部符合系数与预定义的参考面部符合系数进行比对,若某学生对应的面部符合系数大于或等于参考面部符合系数,则判定该学生身份比对成功,反之则判定该学生身份未比对成功。
在一个具体地实施例中,计算得出各学生对应的面部符合系数,计算过程如下:
通过计算公式,计算得出各学生对应的面部符合系数/>,其中,/>表示为学生数据库存储的各面部坐标对应的许可坐标差,j3表示为面部坐标总数目。
在一个具体地实施例中,因为j1、j2和j3是按照顺序排列的,所以j3也可以表示面部坐标总数目。
步骤三、学生形态分析:根据各学生的旋转视频,将其按照预设划分方式进而划分为各帧画面,进而对各学生的旋转视频对应各帧画面进行形态分析,进而分析得出各学生对应的形态符合指数。
需要说明的是,所述步骤三学生形态分析中包括体态分析和动作分析。
需要说明的是,所述体态分析用于对各学生的旋转视频进行形态分析,分析过程包括以下步骤:
B1、将各学生的旋转视频分割为各帧旋转画面,将各学生的旋转视频对应各帧旋转画面聚焦在脊柱部位,进而得出各学生的旋转视频对应各帧旋转画面的脊柱弯曲角度,并将其记为,k表示为各帧旋转画面对应的编号,k=1,2,...u,u表示为旋转画面总帧数。
B2、根据各学生的旋转视频对应各帧旋转画面,将各学生的旋转视频对应各帧旋转画面导入人体模型图中,进而得出各学生的旋转视频对应各帧旋转画面的膝关节中心点位置、脚踝中心点位置和头部中心点位置,并将各学生的旋转视频对应各帧旋转画面导入人体坐标系中,以各学生的旋转视频对应各帧旋转画面的膝关节中心点位置为原点,以连接各学生的旋转视频对应各帧旋转画面的膝关节中心点位置和脚踝中心点位置的线条为一边,再以连接各学生的旋转视频对应各帧旋转画面的膝关节中心点位置和头部中心点位置的线条为另一边,由此得出各学生的旋转视频对应各帧旋转画面的重心偏转角度,并将其记为。
在一个具体地实施例中,膝关节中心点位置是取自各学生两侧膝关节中心点位置作为膝关节中心点位置,脚踝中心点位置是取自各学生两侧脚踝关节中心点位置作为脚踝关节中心点位置。
B3、根据各学生的旋转视频对应各帧旋转画面,根据人体模型图进而得出各学生的旋转视频对应各帧旋转画面中的肘关节、肩关节和腕关节,依据各学生的旋转视频对应各帧旋转画面的中心偏转角度的分析方式同理获取各学生的旋转视频对应各帧旋转画面中各手臂弯曲角度,并利用均值计算公式得出各学生的旋转视频对应各帧旋转画面中平均手臂弯曲角度,并将其记为。
在一个具体地实施例中,以各学生的旋转视频对应各帧旋转画面的肘关节中心点位置为原点,以连接各学生的旋转视频对应各帧旋转画面的肘关节中心点位置和肩关节中心点位置的线条为一边,再以连接各学生的旋转视频对应各帧旋转画面的肘关节中心点位置和腕关节中心点位置的线条为另一边,由此得出各学生的旋转视频对应各帧旋转画面中各手臂弯曲角度。
B4、依据分析公式,分析得出各学生对应旋转视频中各帧旋转画面的体态标准评估系数/>,其中,/>分别表示为预定义的许可脊柱弯曲角度差、许可手臂弯曲角度差,/>和/>分别表示为旋转数据库存储的标准脊柱弯曲角度、标准重心偏转角度和标准手臂弯曲角度,e表示为自然常数,/>和/>分别表示为设定的脊柱弯曲角度、重心偏转角度和手臂弯曲角度对应的权重因子,且/>,且。
需要说明的是,所述动作分析用于对各学生的旋转视频进行形态分析,分析过程包括以下步骤:
C1、获取各学生的旋转视频对应各帧旋转画面,将各学生的旋转视频对应各帧旋转画面按照预设顺序进行排序,进而得出各学生的旋转视频对应各单位旋转动作中的各旋转画面,将各学生的旋转视频对应各单位旋转动作中的各旋转画面导入VR虚拟模型中,即可得出各学生的旋转视频对应各单位旋转动作中各关节位移角速度,并将其构建成各关节位移角速度集合,其中,d表示为各单位旋转动作对应的编号,d=1,2,...f,/>表示为关节位移角速度,/>、/>、/>、/>、/>、/>和/>,/>、/>、/>、/>、/>、/>和/>分别表示为肩关节、肘关节、腕关节、髋关节、膝关节、踝关节和趾关节,/>表示为第i个学生的旋转视频对应第d个单位旋转动作中第/>个关节位移角速度。
在一个具体的实施例中,得出各学生的旋转视频对应各单位旋转动作中的各旋转画面,获取过程如下:
获取按照预设顺序排列的各学生的旋转视频对应各帧旋转画面,将各学生的旋转视频对应第一帧旋转画面标记为各学生对应的参考画面,并获取各学生对应的参考画面的面部朝向角度,并将与各学生对应的参考画面的面部朝向角度一致的各帧旋转画面标记为各学生的各参考画面,并将各学生的各参考画面作为单位旋转动作中的初始旋转画面,将各学生的单位旋转动作中的初始旋转画面的下一张初始旋转画面前的画面进行统合,由此得出各学生的旋转视频对应单位旋转动作的各旋转画面,进而得出各学生的旋转视频对应各单位旋转动作中的各旋转画面。
C2、通过计算公式,计算得出各学生旋转视频对应各单位旋转动作的位移角速度评估系数/>,其中,/>表示为关节总编号,/>和/>分别表示为旋转数据库存储的单位旋转动作中第/>个关节对应的标准位移角速度和位移角速度许可差值。
在一个具体的实施例中,因为、/>、/>、/>、/>、/>和/>是按照顺序排列的,所以也可以表示关节总编号。
需要说明的是,所述步骤三中分析得出各学生对应的形态符合指数,分析过程如下:
D1、根据各学生的旋转视频,进而获取各学生对应的旋转数量和旋转时间,将其分别标记为和/>。
D2、通过计算公式,计算得出各学生对应的形态符合指数/>,其中,u表示为旋转画面的总帧数,f表示为单位旋转动作总数目,和/>分别表示为设定的单位旋转动作耗费时间、体态标准评估系数和位移角速度评估系数对应的权重因子,其中,/>。
步骤四、学生形态评价:依据各学生对应的形态符合指数,进而得出各学生对应的形态评价等级,进而生成各学生对应的形态评价报告。
需要说明的是,所述步骤四中得出各学生对应的形态评价等级,获取过程如下:
将各学生对应的形态符合指数与旋转数据库存储的各形态评价等级对应的形态符合指数区间进行比对,若某学生对应的形态符合指数存在旋转数据库存储的某形态评价等级对应的形态符合指数区间之内,则判定该学生为对应该形态评价等级,进而得出各学生对应的形态评价等级。
需要说明的是,所述步骤四中生成各学生对应的形态评价报告,生成过程如下:
调取各学生对应的形态符合指数,进而将各学生对应旋转视频中各帧旋转画面的体态标准评估系数和各学生旋转视频对应各单位旋转动作的位移角速度评估系数智能录入形态评价报告模版中,自动生成各学生对应的形态评价报告。
在一个具体的实施例中,自动生成各学生对应的形态评价报告,生成过程包括以下步骤:
利用计算公式,计算得出各学生对应旋转视频的体态标准评估系数,将各学生对应旋转视频的体态标准评估系数与学生数据库存储的各体态标准评估系数区间对应的体态评价语进行比对,由此得出各学生对应的体态评价语。
利用计算公式,计算得出各学生旋转视频对应位移角速度评估系数/>,将各学生旋转视频对应位移角速度评估系数与学生数据库存储的各位移角速度评估系数区间对应的动作评价语进行比对,由此得出各学生对应的动作评价语。
将各学生对应的体态评价语和动作评价语智能录入各学生对应的形态评价报告中,由此得到各学生对应的形态评价报告。
本发明实施例在一定程度上有利于学生提高主观能动性,使得学生更好地掌握旋转技术的关键细节,提高了分析结果的参考性,同时还能为为学生技术提升提供正确可靠的依据,提高了检查结果准确性,避免误差的存在,有效的保障了分析的科学性和可靠性。
步骤五、学生预警终端:获取各未比对学生对应的个人信息,并对其进行平台预警处理。
本发明实施例有效的提高了学生学习兴趣与学习积极主动性,在一定程度上有效降低课堂教学难度,提高了课堂教学效果,保障了学生旋转分析的全面性,有效的规避了当前线上人工分析模式中存在的随机性强、主观性大的弊端,提高了智能化和自动化水平。
请参阅图2所示,虚拟仿真教学实训平台的仿真系统,该系统包括学生动作获取模块、信息比对分析模块、学生形态分析模块、学生形态评价模块、学生预警终端、学生数据库和旋转数据库;
所述学生动作获取模块与信息比对分析模块和学生形态分析模块连接,学生形态评价模块与学生形态分析模块连接,学生预警终端与信息比对分析模块连接,学生数据库与信息比对分析模块连接,旋转数据库与学生形态分析模块和学生形态评价模块连接。
所述学生动作获取模块,用于由学生准备姿势站立在拍摄空间内,通过布设的监测仪器对学生进行旋转动作获取,并通过计算机对视频进行VR动画制作,进而获取各学生的旋转视频,将其与各学生对应的个人信息同步上传至目标教学平台。
所述信息比对分析模块,用于从目标教学平台中获取各学生的旋转视频,结合各学生对应的个人信息,进而对各学生进行身份比对。
所述学生形态分析模块,用于根据各学生的旋转视频,进而对各学生的旋转视频进行形态分析,并综合分析得出各学生对应的形态符合指数。
所述学生形态评价模块,用于依据各学生对应的形态符合指数,进而得出各学生对应的形态评价等级,进而生成各学生对应的形态评价报告。
所述学生预警终端,用于获取各未比对学生对应的个人信息,并对其进行平台预警处理。
所述学生数据库,用于存储各学生对应的参考面部图像。
所述旋转数据库,用于存储标准脊柱弯曲角度、标准重心偏转角度和标准手臂弯曲角度,用于存储单位旋转动作中各关节对应的标准位移角速度和位移角速度许可差值,还用于存储各形态评价等级对应的形态符合指数区间。
以上内容仅仅是对本发明结构所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。
Claims (5)
1.虚拟仿真教学实训平台的仿真方法,其特征在于,该方法包括以下步骤:
步骤一、学生动作获取:由学生准备姿势站立在拍摄空间内,通过布设的监测仪器对学生进行旋转动作获取,并通过计算机对视频进行VR动画制作,进而获取各学生的旋转视频,将其与各学生对应的个人信息同步上传至目标教学平台;
步骤二、信息比对分析:从目标教学平台中获取各学生的旋转视频,结合各学生对应的个人信息,进而对各学生进行身份比对,若比对成功,则执行步骤三,反之则将学生标记为未比对学生并同步执行步骤五;
所述步骤二中对各学生进行身份比对,比对过程包括以下步骤:
A1、根据各学生对应的个人信息,从中提取出各学生的学号,并将各学生按照学号排列顺序进行编号,依次标记为1,2,...i,...m,根据各学生对应的学号和姓名,从学生数据库中提取出各学生对应的参考面部图像,并依据其进而构建各学生的参考面部直角坐标系,进而得出各学生参考面部图像中眼部中心点、嘴部中心点和鼻部中心点对应坐标,将其构成参考面部坐标集合,其中,/>表示为第i个学生的参考各面部坐标集合,i表示为各学生对应的编号,i=1,2,...m,m表示学生总数目,j表示为各面部坐标,j=j1、j2和j3,其中,j1、j2和j3分别表示为眼部中心点坐标、嘴部中心点坐标和鼻部中心点坐标;
A2、根据目标教学平台中获取各学生对应课程的练习视频,进而从中提取出各学生对应的面部图像,依据各学生对应的参考面部坐标集合的分析方式同理分析得出面部坐标集合,其中,/>表示为第i个学生的各面部坐标;
A3、通过计算公式,计算得出各学生对应的面部符合系数/>,其中,/>表示为学生数据库存储的各面部坐标对应的许可坐标差,j3表示为面部坐标总数目,并将各学生对应的面部符合系数与预定义的参考面部符合系数进行比对,若某学生对应的面部符合系数大于或等于参考面部符合系数,则判定该学生身份比对成功,反之则判定该学生身份未比对成功;
步骤三、学生形态分析:根据各学生的旋转视频,进而对各学生的旋转视频进行形态分析,并综合分析得出各学生对应的形态符合指数;
所述步骤三学生形态分析中包括体态分析和动作分析;
所述体态分析用于对各学生的旋转视频进行形态分析,分析过程包括以下步骤:
B1、将各学生的旋转视频分割为各帧旋转画面,将各学生的旋转视频对应各帧旋转画面聚焦在脊柱部位,进而得出各学生的旋转视频对应各帧旋转画面的脊柱弯曲角度,并将其记为,k表示为各帧旋转画面对应的编号,k=1,2,...u,u表示为旋转画面总帧数;
B2、根据各学生的旋转视频对应各帧旋转画面,将各学生的旋转视频对应各帧旋转画面导入人体模型图中,进而得出各学生的旋转视频对应各帧旋转画面的膝关节中心点位置、脚踝中心点位置和头部中心点位置,并将各学生的旋转视频对应各帧旋转画面导入人体坐标系中,以各学生的旋转视频对应各帧旋转画面的膝关节中心点位置为原点,以连接各学生的旋转视频对应各帧旋转画面的膝关节中心点位置和脚踝中心点位置的线条为一边,再以连接各学生的旋转视频对应各帧旋转画面的膝关节中心点位置和头部中心点位置的线条为另一边,由此得出各学生的旋转视频对应各帧旋转画面的重心偏转角度,并将其记为;
B3、根据各学生的旋转视频对应各帧旋转画面,根据人体模型图进而得出各学生的旋转视频对应各帧旋转画面中的肘关节、肩关节和腕关节,以各学生的旋转视频对应各帧旋转画面的肘关节中心点位置为原点,以连接各学生的旋转视频对应各帧旋转画面的肘关节中心点位置和肩关节中心点位置的线条为一边,再以连接各学生的旋转视频对应各帧旋转画面的肘关节中心点位置和腕关节中心点位置的线条为另一边,由此得出各学生的旋转视频对应各帧旋转画面中各手臂弯曲角度,并利用均值计算公式得出各学生的旋转视频对应各帧旋转画面中平均手臂弯曲角度,并将其记为;
B4、依据分析公式,分析得出各学生对应旋转视频中各帧旋转画面的体态标准评估系数/>,其中,/>分别表示为预定义的许可脊柱弯曲角度差、许可手臂弯曲角度差,/>和/>分别表示为旋转数据库存储的标准脊柱弯曲角度、标准重心偏转角度和标准手臂弯曲角度,e表示为自然常数,/>和/>分别表示为设定的脊柱弯曲角度、重心偏转角度和手臂弯曲角度对应的权重因子,且/>,且;
所述动作分析用于对各学生的旋转视频进行形态分析,分析过程包括以下步骤:
C1、获取各学生的旋转视频对应各帧旋转画面,将各学生的旋转视频对应各帧旋转画面按照预设顺序进行排序,进而得出各学生的旋转视频对应各单位旋转动作中的各旋转画面,将各学生的旋转视频对应各单位旋转动作中的各旋转画面导入VR虚拟模型中,即可得出各学生的旋转视频对应各单位旋转动作中各关节位移角速度,并将其构建成各关节位移角速度集合,其中,d表示为各单位旋转动作对应的编号,d=1,2,...f,/>表示为关节位移角速度,/>、/>、/>、/>、/>、/>和/>,/>、/>、/>、/>、/>、/>和/>分别表示为肩关节、肘关节、腕关节、髋关节、膝关节、踝关节和趾关节,/>表示为第i个学生的旋转视频对应第d个单位旋转动作中第/>个关节位移角速度;
C2、通过计算公式,计算得出各学生旋转视频对应各单位旋转动作的位移角速度评估系数/>,其中,/>表示为关节总编号,/>和/>分别表示为旋转数据库存储的单位旋转动作中第/>个关节对应的标准位移角速度和位移角速度许可差值;
所述步骤三中分析得出各学生对应的形态符合指数,分析过程如下:
D1、根据各学生的旋转视频,进而获取各学生对应的旋转数量和旋转时间,将其分别标记为和/>;
D2、通过计算公式,计算得出各学生对应的形态符合指数/>,其中,u表示为旋转画面的总帧数,f表示为单位旋转动作总数目,和/>分别表示为设定的单位旋转动作耗费时间、体态标准评估系数和位移角速度评估系数对应的权重因子,其中,/>;
步骤四、学生形态评价:依据各学生对应的形态符合指数,进而得出各学生对应的形态评价等级,并生成各学生对应的形态评价报告;
步骤五、学生预警终端:获取各未比对学生对应的个人信息,并对其进行平台预警处理。
2.根据权利要求1所述的虚拟仿真教学实训平台的仿真方法,其特征在于,所述步骤一中个人信息包括学号和姓名。
3.根据权利要求1所述的虚拟仿真教学实训平台的仿真方法,其特征在于,所述步骤四中得出各学生对应的形态评价等级,获取过程如下:
将各学生对应的形态符合指数与旋转数据库存储的各形态评价等级对应的形态符合指数区间进行比对,若某学生对应的形态符合指数存在旋转数据库存储的某形态评价等级对应的形态符合指数区间之内,则判定该学生为对应该形态评价等级,进而得出各学生对应的形态评价等级。
4.根据权利要求1所述的虚拟仿真教学实训平台的仿真方法,其特征在于,所述步骤四中生成各学生对应的形态评价报告,生成过程如下:
调取各学生对应的形态符合指数,进而将各学生对应旋转视频中各帧旋转画面的体态标准评估系数和各学生旋转视频对应各单位旋转动作的位移角速度评估系数智能录入形态评价报告模版中,自动生成各学生对应的形态评价报告。
5.虚拟仿真教学实训平台的仿真系统,该系统使用了如权利要求1所述的虚拟仿真教学实训平台的仿真方法,其特征在于,该系统包括:
学生动作获取模块,用于由学生准备姿势站立在拍摄空间内,通过布设的监测仪器对学生进行旋转动作获取,并通过计算机对视频进行VR动画制作,进而获取各学生的旋转视频,将其与各学生对应的个人信息同步上传至目标教学平台;
信息比对分析模块,用于从目标教学平台中获取各学生的旋转视频,结合各学生对应的个人信息,进而对各学生进行身份比对;
学生形态分析模块,用于根据各学生的旋转视频,进而对各学生的旋转视频进行形态分析,并综合分析得出各学生对应的形态符合指数;
学生形态评价模块,用于依据各学生对应的形态符合指数,进而得出各学生对应的形态评价等级,并生成各学生对应的形态评价报告;
学生预警终端,用于获取各未比对学生对应的个人信息,并对其进行平台预警处理;
学生数据库,用于存储各学生对应的参考面部图像;
旋转数据库,用于存储标准脊柱弯曲角度、标准重心偏转角度和标准手臂弯曲角度,用于存储单位旋转动作中各关节对应的标准位移角速度和位移角速度许可差值,还用于存储各形态评价等级对应的形态符合指数区间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310764013.5A CN116502923B (zh) | 2023-06-27 | 2023-06-27 | 虚拟仿真教学实训平台的仿真方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310764013.5A CN116502923B (zh) | 2023-06-27 | 2023-06-27 | 虚拟仿真教学实训平台的仿真方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116502923A CN116502923A (zh) | 2023-07-28 |
CN116502923B true CN116502923B (zh) | 2023-09-01 |
Family
ID=87327023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310764013.5A Active CN116502923B (zh) | 2023-06-27 | 2023-06-27 | 虚拟仿真教学实训平台的仿真方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116502923B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496786B (zh) * | 2024-01-02 | 2024-03-22 | 南昌菱形信息技术有限公司 | 基于数字孪生的运动控制实训方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057118A (ja) * | 1998-07-27 | 2000-02-25 | Shinu Ko | 学習機能付きダイナミックシミュレーションシステム |
CN107976811A (zh) * | 2017-12-25 | 2018-05-01 | 河南新汉普影视技术有限公司 | 一种基于虚拟现实混合的仿真实验室及其仿真方法 |
CN207601427U (zh) * | 2017-12-25 | 2018-07-10 | 河南新汉普影视技术有限公司 | 一种基于虚拟现实混合的仿真实验室 |
CN110731817A (zh) * | 2019-10-11 | 2020-01-31 | 浙江大学 | 一种基于光学扫描自动化轮廓分割匹配的无辐射经皮脊柱定位方法 |
CN115082266A (zh) * | 2022-06-27 | 2022-09-20 | 武汉市汉阳区爱萌托育服务有限公司 | 一种基于深度学习的学生教育学科综合化发展分析评价系统 |
CN115713875A (zh) * | 2022-11-09 | 2023-02-24 | 广东海洋大学 | 一种基于心理分析的虚拟现实仿真教学方法 |
WO2023045144A1 (zh) * | 2021-09-27 | 2023-03-30 | 华中师范大学 | 一种立体综合教学场系统的工作方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11039762B2 (en) * | 2015-11-13 | 2021-06-22 | Innomotion Incorporation (Shanghai) | Joint movement analysis system and method; knee-joint dynamic evaluation method and system |
US11875693B2 (en) * | 2018-05-01 | 2024-01-16 | Codescribe Corporation | Simulated reality technologies for enhanced medical protocol training |
US11417052B2 (en) * | 2020-06-30 | 2022-08-16 | Snap Inc. | Generating ground truth datasets for virtual reality experiences |
-
2023
- 2023-06-27 CN CN202310764013.5A patent/CN116502923B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057118A (ja) * | 1998-07-27 | 2000-02-25 | Shinu Ko | 学習機能付きダイナミックシミュレーションシステム |
CN107976811A (zh) * | 2017-12-25 | 2018-05-01 | 河南新汉普影视技术有限公司 | 一种基于虚拟现实混合的仿真实验室及其仿真方法 |
CN207601427U (zh) * | 2017-12-25 | 2018-07-10 | 河南新汉普影视技术有限公司 | 一种基于虚拟现实混合的仿真实验室 |
CN110731817A (zh) * | 2019-10-11 | 2020-01-31 | 浙江大学 | 一种基于光学扫描自动化轮廓分割匹配的无辐射经皮脊柱定位方法 |
WO2023045144A1 (zh) * | 2021-09-27 | 2023-03-30 | 华中师范大学 | 一种立体综合教学场系统的工作方法 |
CN115082266A (zh) * | 2022-06-27 | 2022-09-20 | 武汉市汉阳区爱萌托育服务有限公司 | 一种基于深度学习的学生教育学科综合化发展分析评价系统 |
CN115713875A (zh) * | 2022-11-09 | 2023-02-24 | 广东海洋大学 | 一种基于心理分析的虚拟现实仿真教学方法 |
Non-Patent Citations (1)
Title |
---|
Virtual Training System for the Teaching-Learning Process in the Area of Industrial Robotics;Jordan S etal.;electronics;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116502923A (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113706960B (zh) | 一种基于vr技术的护理操作练习平台及使用方法 | |
Chan et al. | A virtual reality dance training system using motion capture technology | |
CN108764120B (zh) | 一种人体规范动作评价方法 | |
CN116502923B (zh) | 虚拟仿真教学实训平台的仿真方法及系统 | |
CN111652078A (zh) | 一种基于计算机视觉的瑜伽动作指导系统和方法 | |
CN104887238A (zh) | 基于动作捕捉的手康复训练评估系统和方法 | |
CN111931804A (zh) | 一种基于rgbd摄像机的人体动作自动评分方法 | |
CN110490173B (zh) | 一种基于3d体感模型的智能动作打分系统 | |
CN111383735A (zh) | 一种基于人工智能的无人化健身分析方法 | |
CN111862758A (zh) | 一种基于人工智能的心肺复苏培训与考核系统及方法 | |
CN112933581A (zh) | 一种基于虚拟现实技术的体育动作评分方法与装置 | |
CN212394922U (zh) | 一种基于多维感官交互的颈椎运动评估与训练系统 | |
CN112185565A (zh) | 一种基于动作识别的患者康复评定方法 | |
CN114373351B (zh) | 一种光电经纬仪全景仿真训练系统 | |
CN115798040B (zh) | 一种心肺复苏ai自动分段系统 | |
CN116704603A (zh) | 一种基于肢体关键点分析的动作评估纠正方法及系统 | |
US20230237677A1 (en) | Cpr posture evaluation model and system | |
CN116740618A (zh) | 一种运动视频动作评估方法、系统、计算机设备及介质 | |
Shi et al. | Design of optical sensors based on computer vision in basketball visual simulation system | |
CN115641646A (zh) | 一种cpr自动检测质控方法及系统 | |
CN115761901A (zh) | 一种骑马姿势检测评估方法 | |
US20210097885A1 (en) | Quantified Movement Feedback System | |
CN115798676B (zh) | 一种基于vr技术的互动体验分析管理方法及系统 | |
Tolk et al. | Aims: applying game technology to advance medical education | |
TWI837038B (zh) | 創客教育學習辨識個體行為的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |