CN112908066A - 基于视线跟踪的线上教学实现方法、装置及存储介质 - Google Patents
基于视线跟踪的线上教学实现方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112908066A CN112908066A CN202110239345.2A CN202110239345A CN112908066A CN 112908066 A CN112908066 A CN 112908066A CN 202110239345 A CN202110239345 A CN 202110239345A CN 112908066 A CN112908066 A CN 112908066A
- Authority
- CN
- China
- Prior art keywords
- teaching
- data
- learner
- strategy
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000003993 interaction Effects 0.000 claims abstract description 25
- 230000007786 learning performance Effects 0.000 claims abstract description 13
- 230000002996 emotional effect Effects 0.000 claims description 21
- 230000008909 emotion recognition Effects 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 16
- 230000008451 emotion Effects 0.000 claims description 13
- 238000012512 characterization method Methods 0.000 claims description 12
- 230000037007 arousal Effects 0.000 claims description 11
- 210000003205 muscle Anatomy 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 10
- 231100000430 skin reaction Toxicity 0.000 claims description 9
- 230000008569 process Effects 0.000 abstract description 12
- 230000000694 effects Effects 0.000 abstract description 10
- 239000003795 chemical substances by application Substances 0.000 description 38
- 230000000875 corresponding effect Effects 0.000 description 31
- 230000001276 controlling effect Effects 0.000 description 17
- 238000004590 computer program Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000010344 pupil dilation Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 239000012752 auxiliary agent Substances 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- DSKIOWHQLUWFLG-SPIKMXEPSA-N prochlorperazine maleate Chemical compound [H+].[H+].[H+].[H+].[O-]C(=O)\C=C/C([O-])=O.[O-]C(=O)\C=C/C([O-])=O.C1CN(C)CCN1CCCN1C2=CC(Cl)=CC=C2SC2=CC=CC=C21 DSKIOWHQLUWFLG-SPIKMXEPSA-N 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
- G09B5/14—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于视线跟踪的线上教学实现方法、装置及存储介质,通过传感器采集学习者的视线跟踪数据;基于视线跟踪数据确定对应的教学策略;控制教师角色代理实时执行教学策略。通过本发明的实施,在线上教学过程中,根据学习者的视线跟踪数据确定学习者的学习表现,并以此对应制定教学策略,以供教师角色代理实时适应性调整教学策略,由此可有效提高教学交互的友好性,激发学习者的学习兴趣,大大提升了教学效果。
Description
技术领域
本发明涉及电子技术领域,尤其涉及一种基于视线跟踪的线上教学实现方法、装置及存储介质。
背景技术
随着互联网技术的不断发展,线上教学已经成为世界范围内的一种重要的教学工具,在现有的线上教学实现中,通常是由虚拟化的教师角色代理与学习者进行教学交互。
在目前的线上教学实现方式中,针对教师角色代理通常预置有固定的教学策略,从而在实际教学过程中,不能针对学习者的表现作出灵活应对,导致教学效果较为局限。
发明内容
本发明实施例的主要目的在于提供一种基于视线跟踪的线上教学实现方法、装置及存储介质,至少能够解决相关技术中教师角色代理无法针对学习者的表现作出教学策略的灵活变化,所导致的教学效果较为局限的问题。
为实现上述目的,本发明实施例第一方面提供了一种基于视线跟踪的线上教学实现方法,该方法包括:
通过传感器采集学习者的视线跟踪数据;
基于所述视线跟踪数据确定对应的教学策略;
控制教师角色代理实时执行所述教学策略。
为实现上述目的,本发明实施例第二方面提供了一种基于视线跟踪的线上教学实现装置,该装置包括:
采集模块,用于通过传感器采集学习者的视线跟踪数据;
确定模块,用于基于所述视线跟踪数据确定对应的教学策略;
控制模块,用于控制教师角色代理实时执行所述教学策略。
为实现上述目的,本发明实施例第三方面提供了一种电子装置,该电子装置包括:处理器、存储器和通信总线;
所述通信总线用于实现所述处理器和存储器之间的连接通信;
所述处理器用于执行所述存储器中存储的一个或者多个程序,以实现上述任意一种线上教学实现方法的步骤。
为实现上述目的,本发明实施例第四方面提供了一种计算机可读存储介质,该计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述任意一种线上教学实现方法的步骤。
根据本发明实施例提供的基于视线跟踪的线上教学实现方法、装置及存储介质,通过传感器采集学习者的视线跟踪数据;基于视线跟踪数据确定对应的教学策略;控制教师角色代理实时执行教学策略。通过本发明的实施,在线上教学过程中,根据学习者的视线跟踪数据确定学习者的学习表现,并以此对应制定教学策略,以供教师角色代理实时适应性调整教学策略,由此可有效提高教学交互的友好性,激发学习者的学习兴趣,大大提升了教学效果。
本发明其他特征和相应的效果在说明书的后面部分进行阐述说明,且应当理解,至少部分效果从本发明说明书中的记载变的显而易见。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明第一实施例提供的线上教学实现方法的基本流程示意图;
图2为本发明第一实施例提供的一种情绪识别图谱;
图3为本发明第一实施例提供的一种线上教学显示画面的示意图;
图4为本发明第二实施例提供的线上教学实现装置的程序模块示意图;
图5为本发明第三实施例提供的电子装置的结构示意图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
第一实施例:
为了解决相关技术中教师角色代理无法针对学习者的表现作出教学策略的灵活变化,所导致的教学效果较为局限的问题,本实施例提出了一种基于视线跟踪的线上教学实现方法,如图1所示为本实施例提供的线上教学实现方法的基本流程示意图,本实施例提出的线上教学实现方法包括以下的步骤:
步骤101、通过传感器采集学习者的视线跟踪数据。
具体的,在实际教学过程中,学习者会针对当前教学内容作出视线跟踪行为方面的反应,学习者的视线跟踪行为关联于情绪方面的反应、注意力方面的反应等。
在实际应用中,当学习者进行线上学习的过程中可以连接特定传感器,传感器进行数字采样,而数据捕获可以通过使用Visual C++编写的模块来实现。
在本实施例中,视线跟踪数据可以包括瞳孔扩张数据、眼动数据等,在实际应用中可以通过学习者用于线上学习使用的电脑或手机上的图像传感器(例如摄像头)来进行用户眼部图像采集,然后根据图像识别算法识别连续多张眼部图像来获取视线跟踪数据。
步骤102、基于视线跟踪数据确定对应的教学策略。
具体的,学习者的视线跟踪数据与其线上学习表现相关,从而本实施例可以基于其视线跟踪数据适应性调整线上教学过程中的教学策略。
在本实施例中,基于视线跟踪数据确定对应的教学策略的具体实现方式包括:基于视线跟踪数据确定相应的注意力表征数据和兴趣表征数据;结合注意力表征数据和兴趣表征数据,确定对应的教学策略。
具体的,本实施例对学习者的视线信息作出实时反应,在线上学习过程中记录学习者的眼动数据和瞳孔扩张数据。眼动可以显示出学习者的兴趣和注意力,通过从学习者的实时眼动数据中检测注意力、兴趣等信息来丰富非语言信息,使用瞳孔扩张数据来促进情绪相关的推理。在实际应用中,如果学习者对教学内容表现出较少的兴趣,则其瞳孔的扩张量较小或眼球的活动量较少。
在本实施例的另一种可选的实施方式中,基于视线跟踪数据确定对应的教学策略之前,还包括:获取学习者的生体信息,以及获取学习者的情绪识别结果。相对应的,基于所述视线跟踪数据确定对应的教学策略,包括:结合视线跟踪数据、生体信息以及情绪识别结果,确定对应的教学策略。
具体的,除了对学习者的视线跟踪数据进行感知,本实施例还可以对学习者的生体信息、情绪信息等非语言信息进行感知,以从多方位感知学习者的学习状态,由此可以提高学习者的学习状态感知的准确性。
进一步地,在本实施例中,获取所述学习者的情绪识别结果的具体实现方式包括:获取学习者的皮肤电反应数据和肌肉电反应数据;基于皮肤电反应数据确定相应的情绪唤醒数据,以及基于肌肉电反应数据确定相应的情绪效价数据;结合情绪唤醒数据和情绪效价数据,确定学习者相应的情绪识别结果。
应当理解的是,在实际应用中,学习者情绪识别结果可以基于皮肤电反应数据和肌肉电反应数据进行分析实现,其中,通过皮肤电反应仪(GSR,Galvanic Skin Responseapparatus)来进行皮肤电反应数据的采集,皮肤电反应仪是以曲线波纹形式记录皮肤电反应变化的仪器,并可通过肌电仪来进行肌肉电反应数据的采集,对肌肉生物电图形进行记录。从而,可以基于皮肤电反应数据确定相应的情绪唤醒数据,以及基于肌肉电反应数据确定相应的情绪效价数据;然后,结合情绪唤醒数据和情绪效价数据,确定相应的学习者情绪识别结果。
应当说明的是,由于GSR数据相对于BVP数据的噪声信号较少,从而本实施例使用GSR传感器来检测情绪唤醒数据,测量皮肤电导率(SC)的GSR传感器连接在学习者非支配手的中指和食指上,并可用ProComp+装置记录信号。SC随整体唤醒水平线性变化,随焦虑和压力增加而增加。在实施例中,通过分析GSR数据的波峰和波谷即可检测得到情绪唤醒数据。
如图2所示为本实施例提供的一种情绪识别图谱,其中,横轴代表情绪效价数据,纵轴代表情绪唤醒数据,各象限中的元素则为不同类型的情绪识别结果,包括兴奋、放松、悲伤、恐惧等,在本实施例中,情绪效价数据表示学习者的情绪类型,负价情绪包括恐惧、悲伤等,正价情绪包括快乐、兴奋等,而情绪唤醒数据则表示学习者在相应情绪类型下的情绪强弱程度。
步骤103、控制教师角色代理实时执行教学策略。
具体的,本实施例的教师角色代理为线上教学客户端上所模拟的虚拟教师形象,在线上教学过程中通过教师角色代理与学习者进行交互,展示情感和教学内容,以让学习者更有学习动力。
应当说明的是,对于人机交互的线上教学接口(ESA,Empathic Software Agent)中的角色代理可以采用不同方式实现,例如可使用Microsoft代理引擎创建角色,并使用MPML代理控制语言创建情感、动作和控制功能,ESA可以使用一个二维图形窗口来显示教师角色代理和教育内容。在实际应用中,学习者的视线跟踪数据可以使用XML文件存储和传输。在这里,串行数据使用Com端口传输到XML文件,然后使用JavaScript将信息发送到接口。
在本实施例的一种可选的实施方式中,教学策略包括:教学内容交互策略和教学管理交互策略。相对应的,上述控制教师角色代理实时执行教学策略的步骤,具体包括:控制主教师角色代理实时执行教学内容交互策略,以及控制辅教师角色代理实时执行教学管理交互策略。
具体的,在实际应用中,可以在线上教学客户端的显示界面上模拟出两个不同类型的教师角色代理,其中一个是主代理,用于执行与学习者的教学内容交互,与学习者对话以及解释教学内容,而另一个则是辅助代理,用于执行学生监控管理,根据学习者当前是否专注于当前教学内容或是否对当前教学内容感兴趣来进行管理交互。
在本实施例的另一种可选的实施方式中,教学策略包括:情绪反馈形式和/或教学内容。相对应的,上述控制教师角色代理实时执行教学策略的步骤,具体包括:控制教师角色代理实时采用上述情绪反馈形式与学习者进行教学交互;和/或,控制教师角色代理实时对上述教学内容进行展示。
具体的,在一种实现中,教师角色代理可以根据学习者的表现采取对应的情绪与之进行交互,例如在根据视线跟踪数据确定学习者专注于当前的教学主题时,教师角色代理可以表现出快乐/满意情绪以激励学习者,以及,在学习者注意力不集中时,教师角色代理可以表现出轻微愤怒情绪以提醒学习者。在另一种实现中,教师角色代理还可以根据学习者的表现对应展示教学内容,例如在根据视线跟踪数据确定学习者正在注视特定教学内容超过一定时长时,可以对该教学内容的详细下级内容进行展示。如图3所示为本实施例提供的一种线上教学显示画面的示意图,图中有三张教学图片,圆圈所圈定的图片为学习者正在注视的图片,如果学习者“凝视”该面板,即眼睛停留时间超过所选阈值的时间,则系统将其视为选择输入,并放大给出相关主题的更多细节。
在本实施例的一种可选的实施方式中,上述基于视线跟踪数据确定对应的教学策略的步骤,具体包括:获取学习者的历史学习表现数据;结合视线跟踪数据以及历史学习表现数据确定对应的教学策略。
具体的,本实施例可以跟踪学习者以往的学习表现情况,然后结合以往的学习表现情况以及当前的视线跟踪数据来制定对应教学策略,由此,通过多维度的数据来制定教学策略,可以提升教学策略的有效性。
应当理解的是,线上教学往往需要在教师角色代理和学习者之间建立更有效的互动,特别是,通过激发学习者的兴趣来增加学习动机是很重要的。本发明可以通过从学习者的视线跟踪信息等非语言数据中检测学习者的注意力信息以及相关信息,并提取学习者的学习的轨迹与特点,并根据每个学习者的不同学习模式,反馈给学习者的个性化学习互动,学习者在线上教育的学习过程中将更有动力,并能提高学习的效率。
根据本发明实施例提供的基于视线跟踪的线上教学实现方法,通过传感器采集学习者的视线跟踪数据;基于视线跟踪数据确定对应的教学策略;控制教师角色代理实时执行教学策略。通过本发明的实施,在线上教学过程中,根据学习者的视线跟踪数据确定学习者的学习表现,并以此对应制定教学策略,以供教师角色代理实时适应性调整教学策略,由此可有效提高教学交互的友好性,激发学习者的学习兴趣,大大提升了教学效果。
第二实施例:
为了解决相关技术中教师角色代理无法针对学习者的表现作出教学策略的灵活变化,所导致的教学效果较为局限的问题,本实施例示出了一种基于视线跟踪的线上教学实现装置,具体请参见图4,本实施例的线上教学实现装置包括:
采集模块401,用于通过传感器采集学习者的视线跟踪数据;
确定模块402,用于基于视线跟踪数据确定对应的教学策略;
控制模块403,用于控制教师角色代理实时执行教学策略。
在本实施例的一些实施方式中,确定模块具体用于:基于视线跟踪数据确定相应的注意力表征数据和兴趣表征数据;结合注意力表征数据和兴趣表征数据,确定对应的教学策略。
在本实施例的另一些实施方式中,线上教学实现装置还包括:获取模块,用于在基于视线跟踪数据确定对应的教学策略之前,获取学习者的生体信息,以及获取学习者的情绪识别结果。相应的,确定模块具体用于:结合视线跟踪数据、生体信息以及情绪识别结果,确定对应的教学策略。
进一步地,在本实施例的一些实施方式中,获取模块在执行上述获取学习者的情绪识别结果的功能时,具体用于:获取学习者的皮肤电反应数据和肌肉电反应数据;基于皮肤电反应数据确定相应的情绪唤醒数据,以及基于肌肉电反应数据确定相应的情绪效价数据;结合情绪唤醒数据和情绪效价数据,确定学习者相应的情绪识别结果。
在本实施例的又一些实施方式中,确定模块具体用于:获取学习者的历史学习表现数据;结合视线跟踪数据以及历史学习表现数据确定对应的教学策略。
在本实施例的一些实施方式中,教学策略包括:情绪反馈形式和/或教学内容。相应的,控制模块具体用于:控制教师角色代理实时采用上述情绪反馈形式与学习者进行教学交互;和/或,控制教师角色代理实时对上述教学内容进行展示。
在本实施例的一些实施方式中,教学策略包括:教学内容交互策略和教学管理交互策略。相应的,控制模块具体用于:控制主教师角色代理实时执行教学内容交互策略,以及控制辅教师角色代理实时执行教学管理交互策略。
应当说明的是,前述实施例中的基于视线跟踪的线上教学实现方法,均可基于本实施例提供的基于视线跟踪的线上教学实现装置实现,所属领域的普通技术人员可以清楚的了解到,为描述的方便和简洁,本实施例中所描述的线上教学实现装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
采用本实施例提供的基于视线跟踪的线上教学实现装置,通过传感器采集学习者的视线跟踪数据;基于视线跟踪数据确定对应的教学策略;控制教师角色代理实时执行教学策略。通过本发明的实施,在线上教学过程中,根据学习者的视线跟踪数据确定学习者的学习表现,并以此对应制定教学策略,以供教师角色代理实时适应性调整教学策略,由此可有效提高教学交互的友好性,激发学习者的学习兴趣,大大提升了教学效果。
第三实施例:
本实施例提供了一种电子装置,参见图5所示,其包括处理器501、存储器502及通信总线503,其中:通信总线503用于实现处理器501和存储器502之间的连接通信;处理器501用于执行存储器502中存储的一个或者多个计算机程序,以实现上述实施例一中的线上教学实现方法中的至少一个步骤。
本实施例还提供了一种计算机可读存储介质,该计算机可读存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、计算机程序模块或其他数据)的任何方法或技术中实施的易失性或非易失性、可移除或不可移除的介质。计算机可读存储介质包括但不限于RAM(Random Access Memory,随机存取存储器), ROM(Read-Only Memory,只读存储器), EEPROM(Electrically Erasable Programmable read only memory,带电可擦可编程只读存储器)、闪存或其他存储器技术、CD-ROM(Compact Disc Read-Only Memory,光盘只读存储器),数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。
本实施例中的计算机可读存储介质可用于存储一个或者多个计算机程序,其存储的一个或者多个计算机程序可被处理器执行,以实现上述实施例一中的方法的至少一个步骤。
本实施例还提供了一种计算机程序,该计算机程序可以分布在计算机可读介质上,由可计算装置来执行,以实现上述实施例一中的方法的至少一个步骤;并且在某些情况下,可以采用不同于上述实施例所描述的顺序执行所示出或描述的至少一个步骤。
本实施例还提供了一种计算机程序产品,包括计算机可读装置,该计算机可读装置上存储有如上所示的计算机程序。本实施例中该计算机可读装置可包括如上所示的计算机可读存储介质。
可见,本领域的技术人员应该明白,上文中所公开方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件(可以用计算装置可执行的计算机程序代码来实现)、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。
此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、计算机程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。所以,本发明不限制于任何特定的硬件和软件结合。
以上内容是结合具体的实施方式对本发明实施例所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种基于视线跟踪的线上教学实现方法,其特征在于,包括:
通过传感器采集学习者的视线跟踪数据;
基于所述视线跟踪数据确定对应的教学策略;
控制教师角色代理实时执行所述教学策略。
2.如权利要求1所述的线上教学实现方法,其特征在于,所述基于所述视线跟踪数据确定对应的教学策略,包括:
基于所述视线跟踪数据确定相应的注意力表征数据和兴趣表征数据;
结合所述注意力表征数据和所述兴趣表征数据,确定对应的教学策略。
3.如权利要求1所述的线上教学实现方法,其特征在于,所述基于所述视线跟踪数据确定对应的教学策略之前,还包括:
获取所述学习者的生体信息,以及获取所述学习者的情绪识别结果;
所述基于所述视线跟踪数据确定对应的教学策略,包括:
结合所述视线跟踪数据、所述生体信息以及所述情绪识别结果,确定对应的教学策略。
4.如权利要求3所述的线上教学实现方法,其特征在于,所述获取所述学习者的情绪识别结果,包括:
获取所述学习者的皮肤电反应数据和肌肉电反应数据;
基于所述皮肤电反应数据确定相应的情绪唤醒数据,以及基于所述肌肉电反应数据确定相应的情绪效价数据;
结合所述情绪唤醒数据和所述情绪效价数据,确定所述学习者相应的情绪识别结果。
5.如权利要求1所述的线上教学实现方法,其特征在于,所述基于所述视线跟踪数据确定对应的教学策略,包括:
获取所述学习者的历史学习表现数据;
结合所述视线跟踪数据以及所述历史学习表现数据确定对应的教学策略。
6.如权利要求1至5中任意一项所述的线上教学实现方法,其特征在于,所述教学策略包括:情绪反馈形式和/或教学内容;
所述控制教师角色代理实时执行所述教学策略,包括:
控制教师角色代理实时采用所述情绪反馈形式与所述学习者进行教学交互;
和/或,控制所述教师角色代理实时对所述教学内容进行展示。
7.如权利要求1至5中任意一项所述的线上教学实现方法,其特征在于,所述教学策略包括:教学内容交互策略和教学管理交互策略;
所述控制教师角色代理实时执行所述教学策略,包括:
控制主教师角色代理实时执行所述教学内容交互策略,以及控制辅教师角色代理实时执行所述教学管理交互策略。
8.一种基于视线跟踪的线上教学实现装置,其特征在于,包括:
采集模块,用于通过传感器采集学习者的视线跟踪数据;
确定模块,用于基于所述视线跟踪数据确定对应的教学策略;
控制模块,用于控制教师角色代理实时执行所述教学策略。
9.一种电子装置,其特征在于,包括:处理器、存储器和通信总线;
所述通信总线用于实现所述处理器和存储器之间的连接通信;
所述处理器用于执行所述存储器中存储的一个或者多个程序,以实现如权利要求1至7中任意一项所述的线上教学实现方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1至7中任意一项所述的线上教学实现方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110239345.2A CN112908066A (zh) | 2021-03-04 | 2021-03-04 | 基于视线跟踪的线上教学实现方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110239345.2A CN112908066A (zh) | 2021-03-04 | 2021-03-04 | 基于视线跟踪的线上教学实现方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112908066A true CN112908066A (zh) | 2021-06-04 |
Family
ID=76108618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110239345.2A Pending CN112908066A (zh) | 2021-03-04 | 2021-03-04 | 基于视线跟踪的线上教学实现方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112908066A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112950398A (zh) * | 2021-03-04 | 2021-06-11 | 深圳技术大学 | 基于情绪识别的在线社交方法、装置及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101918908A (zh) * | 2007-09-28 | 2010-12-15 | 阿尔卡特朗讯 | 用于确定用户对显示页面的特定内容的反应的方法 |
CN105528917A (zh) * | 2016-02-15 | 2016-04-27 | 小天才科技有限公司 | 一种网络教学效果反馈的方法、装置和系统 |
CN108693974A (zh) * | 2018-05-11 | 2018-10-23 | 新华网股份有限公司 | 数据处理方法、系统及非易失性计算机存储介质 |
CN110503027A (zh) * | 2019-08-20 | 2019-11-26 | 合肥凌极西雅电子科技有限公司 | 一种基于数据采集与分析的儿童兴趣、性格分析系统和方法 |
CN110827595A (zh) * | 2019-12-12 | 2020-02-21 | 广州三人行壹佰教育科技有限公司 | 虚拟教学中的互动方法、装置及计算机存储介质 |
CN110992222A (zh) * | 2019-11-05 | 2020-04-10 | 深圳追一科技有限公司 | 教学交互方法、装置、终端设备及存储介质 |
CN111452616A (zh) * | 2020-03-30 | 2020-07-28 | 广州小鹏汽车科技有限公司 | 一种信息的显示控制方法、装置和车辆 |
CN112120716A (zh) * | 2020-09-02 | 2020-12-25 | 中国人民解放军军事科学院国防科技创新研究院 | 一种可穿戴式多模态情绪状态监测装置 |
-
2021
- 2021-03-04 CN CN202110239345.2A patent/CN112908066A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101918908A (zh) * | 2007-09-28 | 2010-12-15 | 阿尔卡特朗讯 | 用于确定用户对显示页面的特定内容的反应的方法 |
CN105528917A (zh) * | 2016-02-15 | 2016-04-27 | 小天才科技有限公司 | 一种网络教学效果反馈的方法、装置和系统 |
CN108693974A (zh) * | 2018-05-11 | 2018-10-23 | 新华网股份有限公司 | 数据处理方法、系统及非易失性计算机存储介质 |
CN110503027A (zh) * | 2019-08-20 | 2019-11-26 | 合肥凌极西雅电子科技有限公司 | 一种基于数据采集与分析的儿童兴趣、性格分析系统和方法 |
CN110992222A (zh) * | 2019-11-05 | 2020-04-10 | 深圳追一科技有限公司 | 教学交互方法、装置、终端设备及存储介质 |
CN110827595A (zh) * | 2019-12-12 | 2020-02-21 | 广州三人行壹佰教育科技有限公司 | 虚拟教学中的互动方法、装置及计算机存储介质 |
CN111452616A (zh) * | 2020-03-30 | 2020-07-28 | 广州小鹏汽车科技有限公司 | 一种信息的显示控制方法、装置和车辆 |
CN112120716A (zh) * | 2020-09-02 | 2020-12-25 | 中国人民解放军军事科学院国防科技创新研究院 | 一种可穿戴式多模态情绪状态监测装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112950398A (zh) * | 2021-03-04 | 2021-06-11 | 深圳技术大学 | 基于情绪识别的在线社交方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dewan et al. | Engagement detection in online learning: a review | |
Azevedo et al. | Understanding and reasoning about real-time cognitive, affective, and metacognitive processes to foster self-regulation with advanced learning technologies | |
JP3224675U (ja) | 瞳孔反応、顔追跡、及び感情検出を使用した対話型・適応型学習、神経認知障害診断、並びに非追随性検出のシステム | |
Chen et al. | Robust multimodal cognitive load measurement | |
Rosch et al. | A review of eye-tracking applications as tools for training | |
Droit-Volet et al. | The emotional body and time perception | |
US9230221B2 (en) | Instruction system with eyetracking-based adaptive scaffolding | |
Malmberg et al. | Are we together or not? The temporal interplay of monitoring, physiological arousal and physiological synchrony during a collaborative exam | |
WO2015027079A1 (en) | System and method for improving student learning by monitoring student cognitive state | |
CN112546390A (zh) | 一种注意力训练方法、装置、计算机设备及存储介质 | |
Menekse Dalveren et al. | Insights from surgeons’ eye-movement data in a virtual simulation surgical training environment: effect of experience level and hand conditions | |
US11288977B1 (en) | System and method for predicting performance to control interventions by assistive technologies | |
CN115713256A (zh) | 医学培训考核评价方法、装置、电子设备及存储介质 | |
Kasneci et al. | Aggregating physiological and eye tracking signals to predict perception in the absence of ground truth | |
D’Mello et al. | Machine-learned computational models can enhance the study of text and discourse: A case study using eye tracking to model reading comprehension | |
US20120282577A1 (en) | Measuring cognitive load | |
Buono et al. | Assessing student engagement from facial behavior in on-line learning | |
CN112908066A (zh) | 基于视线跟踪的线上教学实现方法、装置及存储介质 | |
El Haddioui et al. | Learner behavior analysis on an online learning platform | |
Sun et al. | The application of eye tracking in education | |
WO2022183423A1 (zh) | 基于视线跟踪的线上教学实现方法、装置及存储介质 | |
Cannon et al. | Action anticipation and interference: A test of prospective gaze | |
Papachristos et al. | Usability evaluation at the ship’s bridge: A multi-method approach | |
Biswas et al. | Investigation of an EEG-based indicator of skill acquisition as novice participants practice a lifeboat maneuvering task in a simulator | |
Bækgaard et al. | Pupillary measurement during an assembly task |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210604 |
|
RJ01 | Rejection of invention patent application after publication |