CN110648404B - 一种互动学习方法及其系统 - Google Patents
一种互动学习方法及其系统 Download PDFInfo
- Publication number
- CN110648404B CN110648404B CN201910940028.6A CN201910940028A CN110648404B CN 110648404 B CN110648404 B CN 110648404B CN 201910940028 A CN201910940028 A CN 201910940028A CN 110648404 B CN110648404 B CN 110648404B
- Authority
- CN
- China
- Prior art keywords
- data
- model
- calling
- module
- interactive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012545 processing Methods 0.000 claims description 50
- 238000012937 correction Methods 0.000 claims description 45
- 230000003993 interaction Effects 0.000 claims description 38
- 238000003780 insertion Methods 0.000 claims description 19
- 230000037431 insertion Effects 0.000 claims description 19
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000003238 somatosensory effect Effects 0.000 claims description 3
- 238000007596 consolidation process Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 5
- 238000001802 infusion Methods 0.000 abstract description 5
- 230000035945 sensitivity Effects 0.000 abstract description 5
- 241000692870 Inachis io Species 0.000 description 9
- 230000008921 facial expression Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000006694 eating habits Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请公开了一种互动学习方法及其系统,其中互动学习方法包括:创建调用数据,并存储;根据调用指令调取调用数据作为运行数据进行使用;采集根据运行数据反馈的动作数据,并根据动作数据创建反馈模型;显示反馈模型,完成互动学习。具有能在知识灌输环节与使用者进行交互,通过游戏巩固教育知识点,提高使用者使用体感度的技术效果。
Description
技术领域
本申请涉及教育技术领域,尤其涉及一种互动学习方法及其系统。
背景技术
传统的大多数父母和老师均采用口头、手势、视频、音频或书本等传统的教育方式对孩子进行教学,该方式比较古板无趣,孩子在学习的过程中走神,无法对学习一直持有浓郁兴趣,此外,学习过的知识无法及时得到巩固,容易出现学完忘完的情况,教学的体感比较差。
发明内容
本申请的目的在于提供一种互动学习方法及其系统,具有能在知识灌输环节与使用者进行交互,通过游戏巩固教育知识点,提高使用者使用体感度的技术效果。
为达到上述目的,本申请提供一种互动学习方法,包括:创建调用数据,并存储;根据调用指令调取调用数据作为运行数据进行使用;采集根据运行数据反馈的动作数据,并根据动作数据创建反馈模型;显示反馈模型,完成互动学习。
优选的,创建调用数据并存储的子步骤如下:获取原始数据;对原始数据进行处理,获得调用数据并存储。
优选的,对原始数据的进行处理的子步骤如下:对原始数据进行分类,并对不同类型的原始数据标记相应的处理标记;根据不同的处理标记进行相应的数据处理,获得调用数据并存储。
优选的,根据不同的处理标记进行不同处理的子步骤如下:R1:识别处理标记;若处理标记为第一类处理,则执行步骤R2至步骤R4;若处理标记为第二类处理,则直接执行步骤R3至步骤R4;R2:对原始数据进行视频化处理,获得视频化数据;R3:对原始数据或视频化数据进行互动点标定,该互动点标定位置为插入位;R4:创建互动模型,并将互动模型插入至相应的插入位,完成插入后构成调用数据。
优选的,创建互动模型的子步骤如下:从原始数据或视频化数据的内容中提取或选定互动素材;根据互动素材制作互动模型。
优选的,在互动学习的过程中,通过图像采集设备采集使用者图像,并通过教学评估模块分析教学情况后形成教学结果,并存储。
优选的,图像采集设备为多个广角摄像头,多个广角摄像头之间具有重叠视域,广角摄像头采集的图像存在非理想图像,其中对非理想图像进行校正的步骤如下:获取校正模型参数Si;调用校正模型,向校正模型导入校正模型参数Si获得校正前后图像的坐标对应关系,完成校正目的;其中,校正模型的Dr为定点到非理想图像中的任意像素点A的距离,非理想图像图像畸变前后的中心坐标点相互重合,向校正模型导入校正模型参数Si获得校正前后图像的坐标对应关系如下:其中,校正后图像的像素坐标为(a′,b′),非理想图像的像素坐标为(c,d),定点坐标为(e,f),Si(S1,S2,S3……Sn)为待优化的校正模型参数,n取5。
本申请还提供一种互动学习系统,包括:主机、数据采集器和显示器;主机分别与数据采集器和显示器连接;其中,主机:用于执行权利要求1-6的互动学习方法;数据采集器:用于采集使用者的反馈动作并作为动作数据发送至主机进行处理;显示器:用于接收主机反馈的数据并进行显示。
优选的,主机包括:数据获取模块、数据分类模块、模型创建模块、数据编辑模块、存储模块、调用模块;其中,数据获取模块:用于获取原始数据,并将获取到的原始数据上传至数据分类模块;数据分类模块:对接收到的原始数据进行分类,根据原始数据的类型进行相应的处理标记,并将完成标记后的原始数据上传至数据编辑模块;模型创建模块:用于创建互动模型,并将互动模型上传至数据编辑模块;用于接收动作数据并将动作数据与调用数据进行匹配,创建反馈模型;将反馈模型发送至显示器进行显示;数据编辑模块:用于处理原始数据,对原始数据进行互动点标定,以及根据标定的插入位插入互动模型,获得调用数据;存储模块:用于存储调用数据,并根据调用模块发送的调用指令调取数据;调用模块;用于向存储模块发送调用指令对调用数据进行调用。
优选的,数据采集器包括体感控制器。
本申请实现的有益效果如下:
(1)本申请的一种互动学习方法及其系统,具有能在知识灌输环节与使用者进行交互,通过游戏巩固教育知识点,提高使用者使用体感度的技术效果。
(2)本申请的一种互动学习方法及其系统,在互动学习的过程中,通过图像采集设备采集使用者图像,并通过教学评估模块分析教学情况后形成教学结果并存储,便于工作人员或老师、家长查看,从而对互动教学进行改动。
(3)本申请的一种互动学习方法及其系统,在校正采集的非理想图像时,通过模型创建模块创建模板模型及平面模型获取不同角度的模板模型图像,无需制备大量实体的模板及模板不同角度图像的获取工具,便于不同角度的模板模型图像的获取,有效的减少了模板模型图像的获取时间,简化了获取步骤。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为互动学习方法一种实施例的流程图;
图2为互动学习系统一种实施例的结构示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请提供一种互动学习方法及其系统,具有能在知识灌输环节与使用者进行交互,通过游戏巩固教育知识点,提高使用者使用体感度的技术效果。
如图1所示,本申请提供一种互动学习系统,包括:主机2、数据采集器1和显示器3;主机2分别与数据采集器1和显示器3连接。
其中,主机2:用于执行下述的互动学习方法。
数据采集器1:用于采集使用者的反馈动作并作为动作数据发送至主机进行处理。
显示器3:用于接收主机反馈的数据并进行显示。
进一步的,主机2包括:数据获取模块、数据分类模块、模型创建模块、数据编辑模块、存储模块、调用模块。
其中,数据获取模块:用于获取原始数据,并将获取到的原始数据上传至数据分类模块。
数据分类模块:对接收到的原始数据进行分类,根据原始数据的类型进行相应的处理标记,并将完成标记后的原始数据上传至数据编辑模块。
模型创建模块:用于创建互动模型,并将互动模型上传至数据编辑模块;用于接收动作数据并将动作数据与调用数据进行匹配,创建反馈模型;将反馈模型发送至显示器进行显示。
数据编辑模块:用于处理原始数据,对原始数据进行互动点标定,以及根据标定的插入位插入互动模型,获得调用数据。
存储模块:用于存储调用数据,并根据调用模块发送的调用指令调取数据。
调用模块;用于向存储模块发送调用指令对调用数据进行调用。
进一步的,数据采集器包括体感控制器。
进一步的,互动学习系统还包括图像采集设备,用于采集使用者的面部表情和/或肢体语言,并存储于存储模块,用于向工作人员、家长或老师提供判断互动学习状态好坏的依据。
进一步的,图像采集设备为多个广角摄像头,多个广角摄像头之间具有重叠视域。
如图2所示,本申请提供一种互动学习方法,包括:
S1:创建调用数据,并存储。
进一步的,创建调用数据并存储的子步骤如下:
S110:获取原始数据。
具体的,原始数据包括:文字数据(例如:古诗、数学题等)、图片数据(例如:绘画作品、照片等)、视频数据(例如:运动视频等)等数据。主机通过数据获取模块对原始数据进行获取,具体的,数据获取模块通过从网上搜索、录入书本或大数据库等方式获取原始数据。数据获取模块获取到原始数据后,将原始数据上传至数据分类模块进行分类。
S120:对原始数据进行处理,获取调用数据并存储。
具体的,对原始数据进行处理的子步骤如下;
T1:对原始数据进行分类,并对不同类型的原始数据标记相应的处理标记。
进一步的,原始数据的类型至少包括:图文类型和视频类型。
具体的,作为一个实施例,数据分类模块接收到原始数据后,根据原始数据的存储格式进行分类。例如,图形图像格式(dwg、dxf、Jpg、bmp、gif、pcx等)、图形格式(bmp、Jpg、wmf、tiff等)、文本格式(.txt、.doc、.docx、.wps等)等分类为图文类型。微软视频(wmv、asf、asx)、Real Player(rm、rmvb)、MPEG视频(mp4)、手机视频(3gp)、Apple视频(mov、m4v)以及其他常见视频(avi、dat、mkv、flv、vob等)等分类为视频类型。
进一步的,对于数据分类模块无法识别或无法判断类型的原始数据,数据分类模块标将其记为零类型,并反馈至显示界面,由工作人员进行人为分类或处理。
进一步的,处理标记包括第一类处理和第二类处理。
具体的,数据分类模块接收到数据获取模块上传的原始数据后,对原始数据进行分类。完成分类后,数据分类模块再根据该原始数据所属的类型对其标记相应的处理标记。例如:原始数据为图文类型,则标记为第一类处理;原始数据为视频类型,则标记为第二类处理。
T2:根据不同的处理标记进行相应的数据处理,获得调用数据并存储。
具体的,数据分类模块将完成标记后的原始数据发送给数据编辑模块进行相应的处理。
进一步的,根据不同的处理标记进行不同处理的子步骤如下:
R1:识别处理标记;若处理标记为第一类处理,则执行步骤R2至步骤R4;若处理标记为第二类处理,则直接执行步骤R3至步骤R4。
具体的,数据编辑模块接收到完成标记后的原始数据后,识别该原始数据的处理标记,若处理标记为第一类处理,则执行R2,之后继续执行R3等后续步骤;若处理标记为第二类处理,则直接执行R3以及后续步骤。
R2:对原始数据进行视频化处理,获得视频化数据。
具体的,处理标记为第一类处理的原始数据为非视频数据,数据编辑模块接收到该原始数据后,将该原始数据转化或制作为视频数据,获得视频化数据。其中,数据编辑模块具有现有的视频转换软件和/或现有的视频制作软件。视频化数据即指原始数据(该原始数据为非视频数据)处理为视频数据后的数据。
R3:对原始数据或视频化数据进行互动点标定,该互动点标定位置为插入位。
具体的,人为或通过深度学习自动利用数据编辑模块对原始数据或视频化数据进行互动点标定,即在需要增加与使用者进行互动的位置标定插入位。其中,插入位是指:向原始数据或者视频化数据中插入互动模型的位置。每个原始数据或视频化数据包括多个插入位,多个插入位分别标定为第一插入位、第二插入位……第N插入位,插入位的具体个数根据实际情况而定。
进一步的,在对原始数据或视频化数据进行互动点标定前,根据原始数据或视频化数据的内容确定需要插入的互动模型个数以及插入位个数,其中,互动模型个数与插入位个数相等。
R4:创建互动模型,并将互动模型插入至相应的插入位,完成插入后构成调用数据。
进一步的,创建互动模型的子步骤如下:
具体的,互动模型包括知识点巩固模型、知识点测试模型、游戏模型等模型。
R410:从原始数据或视频化数据的内容中提取或选定互动素材。
进一步的,互动素材的提取或选定可以为人为处理也可以通过深度学习后自动处理。
具体的,作为一个实施例,原始数据或视频化数据为动物认知视频,用于帮助使用者对认知动物进行学习,例如:孔雀认知,原始数据或视频化数据主要是向使用者灌输孔雀的基础知识,该基础知识包括孔雀的样子、孔雀的生活环境、孔雀的饮食习惯、孔雀的成长过程等,在向使用者灌输孔雀认知的过程中需要就重要知识点(例如:孔雀的样子)与使用者进行互动,则互动素材则应提取或选定为孔雀的样子。
具体的,作为另一个实施例,原始数据或视频化数据为接球运动,用于与使用者互动排接球,互动素材则应提取或选定为球。
R420:根据互动素材制作互动模型。
具体的,模型创建模块根据互动素材创建互动模型。模型创建模块包括多个现有的创建软件,创建软件包括:UE4(Unreal Engine 4,虚幻4引擎)、C3D、3D studio Max、Maya等。模型创建模块通过创建软件根据互动素材制作多个互动模型,互动模型的个数根据实际情况而定。创建好互动模型后,将互动模型存储于存储模块,执行S2。
S2:根据调用指令调取调用数据作为运行数据进行使用。
具体的,使用时,通过调用模块向存储模块发送调用指令,存储模块根据调用指令对调用数据进行调取,并反馈给显示器和数据采集器;使用者根据显示器的提示反馈动作,并执行S3。
进一步的,根据调用指令获取的调用数据包括创建信息,创建信息至少包括创建软件类型。
S3:采集根据运行数据反馈的动作数据,并根据动作数据创建反馈模型。
进一步,采集根据运行数据反馈的动作数据,并根据动作数据创建反馈模型的子步骤如下:
S310:接收调用数据,并与该调用数据的创建软件相关联。
具体的,数据采集器接收到调用数据后,识别创建软件类型,根据该创建软件类型与该创建软件相关联,关联后执行S320。
S320:采集动作数据,并将动作数据反馈至创建软件与关联的调用数据进行匹配,匹配后的调用数据即为反馈模型。
具体的,数据采集器与创建软件关联后,采集使用者反馈的动作数据,并将动作数据反馈至模型创建模块,由模型创建模块中的相关创建软件对动作数据进行处理,将动作数据与调用数据进行匹配,得到反馈模型,执行S4。
S4:显示反馈模型,完成互动学习。
具体的,创建反馈模型后,将反馈模型发送至显示器进行显示,完成互动学习。
进一步的,在互动学习的过程中,通过图像采集设备采集使用者图像,并通过教学评估模块分析教学情况后形成教学结果并存储。具体的,教学结果可由工作人员或老师、家长查看,从而对互动教学进行改动。
具体的,使用者图像包括使用者的面部表情和肢体语言。
进一步的,图像采集设备为多个广角摄像头,多个广角摄像头之间具有重叠视域。
进一步的,广角摄像头采集的图像存在非理想图像,即畸变图像,其中对非理想图像进行校正的步骤如下:
L1:获取校正模型参数Si。
具体的,对广角摄像头进行标定,获取广角摄像头参数和校正模型参数。
进一步的,对广角摄像头进行标定,获取广角摄像头参数和校正模型参数的子步骤如下:
L110:创建模板模型及平面模型,并获取若干张不同角度的贴于平面模型的模板模型的模板模型图像。
具体的,通过模型创建模块创建三维的模板模型以及平面模型,其中,作为一个实施例,模板模型为网格线模板,平面模型在世界坐标系Z=0的平面中。将模板模型贴在平面模型上,并通过调整模型视图角度获取若干张不同角度的模板模型图像。该方式无需制备大量实体的模板及模板不同角度图像的获取工具,便于不同角度的模板模型图像的获取,有效的减少了模板模型图像的获取时间,简化了获取步骤。
L120:检测模板模型图像中的特征点,通过特征点求取广角摄像头参数,广角摄像头参数包括内参数和外参数。
具体的,作为一个实施例,通过模型创建模块检测模板模型图像中的特征点,其中,特征点为模板模型中每行和每列的角点。每张模板模型图像根据特征点和平面模型坐标获取的广角摄像头参数的基础约束不同。
L130:通过广角摄像头参数获取校正模型参数Si。
具体的,通过在模型创建模块中设置现有算法(例如:畸变算法、cvInitUndistortMap()、cvRemap()等),将多张模板模型图像的多组广角摄像头参数及基本约束导入现有算法中,获取到多个校正模型参数Si。优选的,校正模型参数Si的个数大于或等于3,本申请优选为5,即Si(S1,S2,S3……Sn)为校正模型参数,n取5。
L2:调用校正模型,向校正模型导入校正模型参数Si获得校正前后图像的坐标对应关系,完成校正目的。
具体的,作为一个实施例,仅考虑径向畸变创建校正模型,并定义校正模型的Dr为定点(定点为中心位置或其他指定的位置)到非理想图像中的任意像素点A的距离,由模型创建模块获取。非理想图像图像畸变前后的中心坐标点相互重合,向校正模型导入校正模型参数Si获得校正前后图像的坐标对应关系如下:
其中,校正后图像的像素坐标为(a′,b′),非理想图像的像素坐标为(c,d),定点坐标为(e,f),Si(S1,S2,S3……Sn)为校正模型参数,n取5。
进一步的,作为另一个实施例,对广角摄像头进行标定也可采用现有的标定法进行标定,从而获得广角摄像头参数和校正模型参数,校正模型根据广角摄像头参数和校正模型参数获得校正前后图像的坐标对应关系,完成校正目的。
本申请的有益效果如下:
(1)本申请的一种互动学习方法及其系统,具有能在知识灌输环节与使用者进行交互,通过游戏巩固教育知识点,提高使用者使用体感度的技术效果。
(2)本申请的一种互动学习方法及其系统,在互动学习的过程中,通过图像采集设备采集使用者图像,并通过教学评估模块分析教学情况后形成教学结果并存储,便于工作人员或老师、家长查看,从而对互动教学进行改动。
(3)本申请的一种互动学习方法及其系统,在校正采集的非理想图像时,通过模型创建模块创建模板模型及平面模型获取不同角度的模板模型图像,无需制备大量实体的模板及模板不同角度图像的获取工具,便于不同角度的模板模型图像的获取,有效的减少了模板模型图像的获取时间,简化了获取步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。
Claims (7)
1.一种互动学习方法,其特征在于,包括:
创建调用数据,并存储;
根据调用指令调取调用数据作为运行数据进行使用;
采集根据运行数据反馈的动作数据,并根据动作数据创建反馈模型;
显示反馈模型,完成互动学习;
其中,创建调用数据并存储的子步骤如下:
获取原始数据,其中,原始数据至少包括:文字数据、图片数据和视频数据;
对原始数据进行处理,获得调用数据并存储;
其中,对原始数据进行处理,获得调用数据并存储的子步骤如下:
对原始数据进行分类,并对不同类型的原始数据标记相应的处理标记;
根据不同的处理标记进行相应的数据处理,获得调用数据并存储;
其中,根据不同的处理标记进行不同处理的子步骤如下:
R1:识别处理标记;若处理标记为第一类处理,则执行步骤R2至步骤R4;若处理标记为第二类处理,则直接执行步骤R3至步骤R4;
R2:对原始数据进行视频化处理,获得视频化数据;
R3:对原始数据或视频化数据进行互动点标定,该互动点标定位置为插入位;
R4:创建互动模型,并将互动模型插入至相应的插入位,完成插入后构成调用数据,互动模型至少包括知识点巩固模型、知识点测试模型和游戏模型;
其中,在对原始数据或视频化数据进行互动点标定前,根据原始数据或视频化数据的内容确定需要插入的互动模型个数以及插入位个数,其中,互动模型个数与插入位个数相等。
2.根据权利要求1所述的互动学习方法,其特征在于,创建互动模型的子步骤如下:
从原始数据或视频化数据的内容中提取或选定互动素材;
根据互动素材制作互动模型。
3.根据权利要求1所述的互动学习方法,其特征在于,在互动学习的过程中,通过图像采集设备采集使用者图像,并通过教学评估模块分析教学情况后形成教学结果,并存储。
4.根据权利要求3所述的互动学习方法,其特征在于,图像采集设备为多个广角摄像头,多个广角摄像头之间具有重叠视域,广角摄像头采集的图像存在非理想图像,其中对非理想图像进行校正的步骤如下:
获取校正模型参数Si;
调用校正模型,向校正模型导入校正模型参数Si获得校正前后图像的坐标对应关系,完成校正目的;
其中,校正模型的Dr为定点到非理想图像中的任意像素点A的距离,非理想图像图像畸变前后的中心坐标点相互重合,向校正模型导入校正模型参数Si获得校正前后图像的坐标对应关系如下:
其中,校正后图像的像素坐标为(a′,b′),非理想图像的像素坐标为(c,d),定点坐标为(e,f),Si(S1,S2,S3……Sn)为校正模型参数,n取5。
5.一种互动学习系统,其特征在于,包括:主机、数据采集器和显示器;所述主机分别与所述数据采集器和显示器连接;
其中,所述主机:用于执行权利要求1-4所述的互动学习方法;
所述数据采集器:用于采集使用者的反馈动作并作为动作数据发送至主机进行处理;
显示器:用于接收主机反馈的数据并进行显示。
6.根据权利要求5所述的互动学习系统,其特征在于,主机包括:数据获取模块、数据分类模块、模型创建模块、数据编辑模块、存储模块、调用模块;
其中,数据获取模块:用于获取原始数据,并将获取到的原始数据上传至数据分类模块;
数据分类模块:对接收到的原始数据进行分类,根据原始数据的类型进行相应的处理标记,并将完成标记后的原始数据上传至数据编辑模块;
模型创建模块:用于创建互动模型,并将互动模型上传至数据编辑模块;用于接收动作数据并将动作数据与调用数据进行匹配,创建反馈模型;将反馈模型发送至显示器进行显示;
数据编辑模块:用于处理原始数据,对原始数据进行互动点标定,以及根据标定的插入位插入互动模型,获得调用数据;
存储模块:用于存储调用数据,并根据调用模块发送的调用指令调取数据;
调用模块;用于向存储模块发送调用指令对调用数据进行调用。
7.根据权利要求5或6所述的互动学习系统,其特征在于,所述数据采集器包括体感控制器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910940028.6A CN110648404B (zh) | 2019-09-30 | 2019-09-30 | 一种互动学习方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910940028.6A CN110648404B (zh) | 2019-09-30 | 2019-09-30 | 一种互动学习方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110648404A CN110648404A (zh) | 2020-01-03 |
CN110648404B true CN110648404B (zh) | 2023-06-09 |
Family
ID=69012060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910940028.6A Active CN110648404B (zh) | 2019-09-30 | 2019-09-30 | 一种互动学习方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110648404B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110928520B (zh) * | 2020-02-07 | 2020-06-16 | 恒信东方文化股份有限公司 | 一种人机交互方法及其系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648525A (zh) * | 2018-05-03 | 2018-10-12 | 潍坊学院 | 一种数字音乐教室 |
CN109817040A (zh) * | 2019-01-07 | 2019-05-28 | 北京汉博信息技术有限公司 | 一种用于教学数据的处理系统 |
CN110069707A (zh) * | 2019-03-28 | 2019-07-30 | 广州创梦空间人工智能科技有限公司 | 一种人工智能自适应互动教学系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI670628B (zh) * | 2017-11-15 | 2019-09-01 | 財團法人資訊工業策進會 | 動作評量模型生成裝置及其動作評量模型生成方法 |
-
2019
- 2019-09-30 CN CN201910940028.6A patent/CN110648404B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648525A (zh) * | 2018-05-03 | 2018-10-12 | 潍坊学院 | 一种数字音乐教室 |
CN109817040A (zh) * | 2019-01-07 | 2019-05-28 | 北京汉博信息技术有限公司 | 一种用于教学数据的处理系统 |
CN110069707A (zh) * | 2019-03-28 | 2019-07-30 | 广州创梦空间人工智能科技有限公司 | 一种人工智能自适应互动教学系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110648404A (zh) | 2020-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162164B (zh) | 一种基于增强现实的学习互动方法、装置及存储介质 | |
CN108460707B (zh) | 一种学生的作业智能监管方法及其系统 | |
CN108399809A (zh) | 虚拟教学系统、云平台管理系统和处理终端管理系统 | |
KR20150008345A (ko) | 온라인 댄스 강의 시스템 | |
CN110956138B (zh) | 一种基于家教设备的辅助学习方法及家教设备 | |
CN106295687A (zh) | 一种智能书法临摹方法及系统 | |
CN110490173B (zh) | 一种基于3d体感模型的智能动作打分系统 | |
CN112101123B (zh) | 一种注意力检测方法及装置 | |
WO2020051999A1 (zh) | 一种基于图像识别的语言学习方法、电子设备及存储介质 | |
CN112613440A (zh) | 一种姿态检测的方法、装置、电子设备及存储介质 | |
Zou et al. | Intelligent fitness trainer system based on human pose estimation | |
CN108764149B (zh) | 一种针对班级学生人脸模型的训练方法 | |
CN110648404B (zh) | 一种互动学习方法及其系统 | |
CN116052222A (zh) | 自然采集牛脸图像的牛脸识别方法 | |
CN111078005B (zh) | 一种虚拟伙伴创建方法及虚拟伙伴系统 | |
CN111325853A (zh) | 一种基于增强现实眼镜的远程辅导系统及方法 | |
GB2622351A (en) | Automated scan of common ailments so that a consistent image can be given to a doctor for analysis | |
CN116844084A (zh) | 一种融合区块链的体育运动动作分析与纠正方法及系统 | |
KR102482841B1 (ko) | 인공지능 미러링 놀이 가방 | |
CN116205598A (zh) | 一种基于虚拟现实技术的在线教育平台 | |
CN115937961A (zh) | 一种线上学习识别方法及设备 | |
CN112016362A (zh) | 一种观察微观世界的学习系统 | |
CN115239533A (zh) | 一种交互式在线英语教学系统及其使用方法 | |
JP2021022157A (ja) | プログラム、情報処理方法、及び情報処理装置 | |
CN107592483B (zh) | 一种智能辅助学习系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |