CN109919143B - 基于多感官交互体验和学习注意力评估的教育方法 - Google Patents

基于多感官交互体验和学习注意力评估的教育方法 Download PDF

Info

Publication number
CN109919143B
CN109919143B CN201910333193.5A CN201910333193A CN109919143B CN 109919143 B CN109919143 B CN 109919143B CN 201910333193 A CN201910333193 A CN 201910333193A CN 109919143 B CN109919143 B CN 109919143B
Authority
CN
China
Prior art keywords
experience
unit
face
display
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910333193.5A
Other languages
English (en)
Other versions
CN109919143A (zh
Inventor
郭钢
唐帮备
罗鑫
李承谋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Jiaohu Technology Co ltd
Original Assignee
Chongqing Jiaohu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Jiaohu Technology Co ltd filed Critical Chongqing Jiaohu Technology Co ltd
Priority to CN201910333193.5A priority Critical patent/CN109919143B/zh
Publication of CN109919143A publication Critical patent/CN109919143A/zh
Application granted granted Critical
Publication of CN109919143B publication Critical patent/CN109919143B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Image Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开了一种基于多感官交互体验和学习注意力评估的教育方法,该教育方法通过对学生学习过程中的注意力进行检测分析,并根据学生的注意力情调整学习模式,当检测发现学生注意力不集中时,通过启动多感官交互体验教育模式,可以使学生通过视觉、听觉、嗅觉、味觉和触觉等多感官交互体验式学习,以提高学生的注意力,从而达到增强学生对学习内容的记忆力的目的。并且,本申请还通过采用神经网络进行人脸姿态估计,再融合视线估计,不仅大大级高了计算的精度也提高了计算速度。

Description

基于多感官交互体验和学习注意力评估的教育方法
技术领域
本发明涉及一种基于多感官交互体验和学习注意力评估的教育方法。
背景技术
传统的教育方法只能简单地通过播放视频、图片、文字和声音向学生传递知识,给人的感受基本上只有听觉和视觉上的感受,营造的气氛过于单调,很难让学生产生身临其境的感觉,缺乏共鸣,从而使得学生产生深刻的记忆。
并且,由于学生在学习过程中的注意力不是会一直集中的,当学生学习一段时间注意力就会被分散,导致学习效率变低,此时,若还采用普通式视频教学方式很难吸引学生的注意力;不能有效地保持甚至提高学生对学习内容的注意力和记忆力。
此外,目前的人脸识别大部分采用关键点的3D脸部模型如(左眼角,右眼角,鼻尖,左嘴角,右嘴角等位置),然后通过人脸关键检测出图片中对应的脸部关键点,采用OpenCV的solvePnP函数解出旋转向量,最后将旋转向量转换为欧拉角。获取相应的人脸姿态信息。存在的问题是精度不高,由于脸部模型点的定义是人为定义,鲁棒性不高。
发明内容
本发明的目的是提供一种基于多感官交互体验和学习注意力评估的教育方法,以解决现有教育方法不能及时根据学生的注意力情况调整教学模式的问题。
为解决上述技术问题,本发明提供一种基于多感官交互体验和学习注意力评估的教育方法,包括以下步骤:
S1:采集学生的图像,获取人脸区域并对所述人脸区域进行预处理;
S2:将步骤S1的输出结果进行归一化处理后输入卷积神经网络进行人脸姿态检测,并判断学生人脸是否正对显示器,若是,则进行人眼注视方向计算;若否,则进行步骤S4;
S3:当检测人眼正视显示器的时间和频率在预设范围时,则继续普通教育模式;否则,则开启多感官交互体验教育模式;其中,所述的普通教育模式为传统通过播放视频、图片、文字和声音向学生传递知识的教育模式;所述多感官交互体验教育模式为通过多感官交互体验智能教具向学生提供视觉、听觉、嗅觉、味觉和触觉等多感官交互体验式教育模式。
S4:获取单位时间内学生面部正视和视线正视显示器时的帧率,根据单位时间内学生面部正视和视线正视显示器时的帧率计算学生注意程度。
进一步地,步骤S1具体包括:
S11:利用摄像头获取学生的图像并对采集到的所述图像进行人脸识别获取人脸区域;
S12:对所述人脸区域进行灰度化处理,然后采用插值法将图像调整为96×96大小的图像。
进一步地,所述卷积神经网络包括3层卷积层、3层池化层、2层全连接层和输出层;经回归处理后的图像首先进行卷积操作和最大值池化操作,然后再进行全连接操作和回归操作,输出层大小为3x1,分别表示头部姿势俯仰、偏航和侧倾角。
进一步地,所述卷积操作所采用的卷积计算公式为:
其中,表示第/>层的第i个特征映射,f()表示激活函数,/>是连接第/>层神经元i和第/>层神经元j的权重。卷积核由权重/>所确定。/>代表第/>层的第j个偏置值。Mj代表输入映射集合;
最大值池化公式为:
其中,imax,jmax代表对应的pool核区域最大的那个元素的索引。
进一步地,在每进行一次卷积操作和最大值池化操时随机丢弃部分特征检测器。
进一步地,当判断得出学生人脸是正对显示器时,则采用瞳孔角膜反射法计算人眼注视方向并同时计算人眼正视显示器的时间和频率。
进一步地,判断学生人脸是否正对显示器的判断方法为:
pitch∈[pmin,pmax],
yaw∈[ymin,ymax]
其中,pmin,pmax分别为人脸面对显示器时对应俯仰角pitch的最小值和最大值。ymin,ymax分别为对应的偏航角yaw最小值和最大值。
进一步地,采用瞳孔角膜反射法计算人眼注视方向的具体计算方法为:通过一个视线映射函数模型来估计视线方向,将从眼睛图像提取的二维眼动特征作为视线映射函数的自变量输入,函数的因变量即为所求的视线方向或注视点,所述视线映射函数模型为:
其中,(Px,Py)为视线落点,(Vx,Vy)为瞳孔反射光斑向量。
进一步地,根据单位时间内学生面部正视和视线正视显示器时的帧率计算学生注意程度所采用的计算公式为:
P=α1fa+α2fs,α1+α2=1
其中,P为注意力程度,α1,α2为权重,根据实验结果选取合适的权重值。fa,fs分别对应单位时间内面部正视和视线正视时的帧率。其中Nt为一定时间内总的帧数。Na,Ns分别代表一定时间内正视显示器和视线落在显示器范围内的总帧数。
进一步地,采用多感官交互体验智能教具向学生多感官交互体验教育模式;所述多感官交互体验教育模式包括教具本体,所述教具本体内设有中央处理器以及分别与所述中央处理器连接的视觉体验单元和听觉体验单元,其特征在于,该教具还包括设置在教具本体内的嗅觉体验单元、味觉体验单元和触觉体验单元的至少一种,所述嗅觉体验单元、味觉体验单元和触觉体验单元分别与所述中央处理器连接;所述视觉体验单元用于展示学习内容场景图像和文字;所述听觉体验单元用于形成与所述学习内容场景图像和文字相匹配的声音;所述嗅觉体验单元用于形成与所述学习内容场景图像和文字相匹配的气味;所述味觉体验单元用于形成与所述学习内容场景图像和文字相匹配的味道;所述触觉体验单元用于形成与所述学习内容场景图像和文字相匹配的触感;所述中央处理器用于根据获取的多媒体数据控制所述视觉体验单元、听觉体验单元、嗅觉体验单元、味觉体验单元和触觉体验单元中的至少一个单元工作。
本发明的有益效果为:通过对学生学习过程中的注意力进行检测分析,并根据学生的注意力情调整学习模式,当检测发现学生注意力不集中时,通过启动多感官交互体验教育模式,可以使学生通过视觉、听觉、嗅觉、味觉和触觉等多感官交互体验式学习,以提高学生的注意力,从而达到增强学生对学习内容的记忆力的目的。并且,本申请还通过采用神经网络进行人脸姿态估计,再融合视线估计,不仅大大级高了计算的精度也提高了计算速度。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,在这些附图中使用相同的参考标号来表示相同或相似的部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明一个实施例的流程图;
图2为本发明一个实施例的卷积过程示意图;
图3为本发明一个实施例的视线估计示意图;
图4为本多感官交互体验智能教具的原理框图;
图5为本多感官交互体验智能教具的内部结构示意图;
图6为本多感官交互体验智能教具的内部结构的正视图;
图7为图6的A-A剖视图;
图8为图6的B-B剖视图;
图9为多感官交互体验智能教具的外部结构示意图。
具体实施方式
如图1所示的基于多感官交互体验和学习注意力评估的教育方法,包括以下步骤:
S1:采集学生的图像,获取人脸区域并对所述人脸区域进行预处理;
S2:将步骤S1的输出结果进行归一化处理后输入卷积神经网络进行人脸姿态检测,并判断学生人脸是否正对显示器,若是,则进行人眼注视方向计算;若否,则进行步骤S4;
S3:当检测人眼正视显示器的时间和频率在预设范围时,则继续普通教育模式;否则,则开启多感官交互体验教育模式;
S4:获取单位时间内学生面部正视和视线正视显示器时的帧率,根据单位时间内学生面部正视和视线正视显示器时的帧率计算学生注意程度。
根据本申请的一个实施例,步骤S1具体包括:
S11:利用摄像头获取学生的图像并对采集到的所述图像进行人脸识别获取人脸区域;
S12:对所述人脸区域进行灰度化处理,然后采用插值法将图像调整为96×96大小的图像;
其中,灰度化处理所采用的的灰度化公式为:
Gary(i,j)=0.299*R(i,j)+0.587*G(i,j)+0.144*B(i,j)
其中R(i,j),G(i,j),B(i,j)表示图像对应的在该像素点的红,绿,蓝通道像素值。
插值法所采用的具体公式为:
xd=xs*fx
yd=ys*fy
fx=wd/ws
fy=hd/hs
其中,xd,yd,wd,hd为目标图像坐标以及长宽,xs,ys,ws,hs为源图像坐标以及长宽。
根据本申请的一个实施例,考虑到模型大小和计算速度,如图2所示,所述卷积神经网络包括3层卷积层、3层池化层、2层全连接层和输出层;经回归处理后的图像首先进行卷积操作和最大值池化操作,然后再进行全连接操作和回归操作,输出层大小为3x1,分别表示头部姿势俯仰、偏航和侧倾角。
根据本申请的一个实施例,所述卷积操作所采用的卷积计算公式为:
其中,表示第/>层的第i个特征映射,f()表示激活函数,/>是连接第/>层神经元i和第/>层神经元j的权重。卷积核由权重/>所确定。/>代表第/>层的第j个偏置值。Mj代表输入映射集合;
最大值池化表达式为:
其中,imax,jmax代表对应的pool核区域最大的那个元素的索引。
根据本申请的一个实施例,所述全连接表达式为:
hw,b(x)=f(wTx+b)
根据本申请的一个实施例,在每进行一次卷积操作和最大值池化操时随机丢弃部分特征检测器(例如,比如说采集10个数值,则可随机丢掉2个数值),可在提高计算速度的同时防止过拟合。
根据本申请的一个实施例,当判断得出学生人脸是正对显示器时,则采用瞳孔角膜反射法计算人眼注视方向并同时计算人眼正视显示器的时间和频率。
根据本申请的一个实施例,判断学生人脸是否正对显示器的判断方法为:
pitch∈[pmin,pmax]
yaw∈[ymin,ymax]
其中,pmin,pmax分别为人脸面对显示器时对应俯仰角pitch的最小值和最大值。ymin,ymax分别为对应的偏航角yaw最小值和最大值。
根据本申请的一个实施例,采用瞳孔角膜反射法计算人眼注视方向的具体计算方法为:通过一个视线映射函数模型来估计视线方向,将从眼睛图像提取的二维眼动特征作为视线映射函数的自变量输入,函数的因变量即为所求的视线方向或注视点,所述视线映射函数模型为:
其中,(Px,Py)为视线落点,(Vx,Vy)为瞳孔反射光斑向量。
根据本申请的一个实施例,根据单位时间内学生面部正视和视线正视显示器时的帧率计算学生注意程度所采用的计算公式为:
P=α1fa+α2fs,α1+α2=1
其中,P为注意力程度,α1,α2为权重,根据实验结果选取合适的权重值。fa,fs分别对应单位时间内面部正视和视线正视时的帧率。其中Nt为一定时间内总的帧数。Na,Ns分别代表一定时间内正视显示器和视线落在显示器范围内的总帧数。
根据本申请的一个实施例,采用多感官交互体验智能教具向学生多感官交互体验教育模式;如图4至图9所述多感官交互体验教育模式包括教具本体,所述教具本体内设有中央处理器以及分别与所述中央处理器连接的视觉体验单元和听觉体验单元,其特征在于,该教具还包括设置在教具本体内的嗅觉体验单元、味觉体验单元和触觉体验单元的至少一种,所述嗅觉体验单元、味觉体验单元和触觉体验单元分别与所述中央处理器连接;所述视觉体验单元用于展示学习内容场景图像和文字;所述听觉体验单元用于形成与所述学习内容场景图像和文字相匹配的声音;所述嗅觉体验单元用于形成与所述学习内容场景图像和文字相匹配的气味;所述味觉体验单元用于形成与所述学习内容场景图像和文字相匹配的味道;所述触觉体验单元用于形成与所述学习内容场景图像和文字相匹配的触感;所述中央处理器用于根据获取的多媒体数据控制所述视觉体验单元、听觉体验单元、嗅觉体验单元、味觉体验单元和触觉体验单元中的至少一个单元工作。
使用过程可通过视觉体验单元显示学习内场景图像和文字(如植物、食品诗词以及文章等),当学习内容为水果识别时候,学生通过点击视觉体验图标时,即可通过显示器查看图像;点击听觉体验图标时,即可通过听觉体验单元播放与所显示的内容相匹配的声音;点击嗅觉体验图标时,即可通过嗅觉体验单元释放与所显示的内容相匹配的气味;点击味觉体验图标时,即可通过味觉体验单元放出与所显示的内容相匹配的食物(如糖果)供学生品尝;点击触觉体验图标时,即可通过触觉体验单元向学生提供与所显示的内容相匹配的材质样品供学生触摸。该智能教具中的学习内容可根据学生的学习要求进行切换,每个学习内容对应一组交互体验素材,可以使学生通过视觉、听觉、嗅觉、味觉和触觉等多感官交互体验式学习,增强学生对学习内容的记忆力。此外,该智能教具通过将视觉体验单元、听觉体验单元、嗅觉体验单元、味觉体验单元和触觉体验单元中集成在一个智能教具本体1中,实现了产品化,且提高了学习的便捷性。
所述嗅觉体验单元包括设置在所述教具本体1内的气味发生装置,所述气味发生装置包括固定在所述教具本体1内的至少一个精油瓶5以及与所述精油瓶5配套的二流体瓶盖,所述二流体瓶盖内设有雾化器,精油瓶5中的精油通过雾化器实现雾化后由二流体瓶盖顶部的排气口喷出,然后再通过气味导向机构散发至教具本体1外。显然地,可通过在教具本体1内设置多个气味发生装置实现不同的嗅觉体验。
所述雾化器为二流体雾化芯,所述二流体雾化芯连接有气泵52,精油进入二流体雾化芯后在气泵52产生的高压气流的作用下由二流体瓶盖顶部的排气口喷出,最后再通过气味导向机构散发至教具本体1外。采用二流体雾化方式喷出的雾粒直径细小,可保证雾化效果,且不会堵塞喷头,维护工作量少。雾化器除了选择二流体雾化芯还可以选用超声波雾化片。
所述气味导向机构包括气味导向室71以及设置在所述气味导向室71后部的风扇6;所述气味导向室71的后壁设有与所述风扇6的出风口相配合的进风口711,所述教具本体1的前壁与作为导向室的前壁,所述教具本体1的前壁上设有与所述气味导向室71相配合的嗅觉体验口14;由所述二流体瓶盖的排气口排出的气体进入所述气味导向室71后在风扇6的作用下在从所述嗅觉体验口14散发出教具本体1外。但设置多个气味发生装置时,各个气味发生装置相应的导向室之间因当相互隔离。
所述精油瓶5通过夹持机构固定在所述气味导向室71的下方;所述夹持机构包括两个向对置的精油瓶支架7,所述精油瓶支架7的一端与所述气味导向室71连接,另一端向下延伸;所述精油瓶支架7靠近精油瓶5的一侧固定有安装座73,所述安装座73上固定有硅胶垫74,两个精油瓶支架7上的硅胶垫74形成夹持部件将所述精油瓶5夹持住。
所述味觉体验单元包括至少一个导向管2,所述导向管2的顶端与设置在教具本体1的顶部的进料口12连通,所述进料口12还设有密封盖121;导向管2的底部与一接料斗4连通,所述接料斗4的底部通过物料导出管与设置在教具本体1的前壁的底部的味觉体验口13连通;所述导向管2与接料斗4连接的一端设有物料控制室21,所述物料控制室21内设有物料控制器,所述物料控制器包括一导向筒,所述导向筒上均匀分布有若干挡板32,所述导向筒通过连接轴33与第一齿轮22连接,所述第一齿轮22与第二齿轮31相啮合,所述第二齿轮31与第一电机的输出轴连接;所述第一电机通过第一齿轮22驱动第二齿轮31转动,再通过连接轴33带动导向筒转动,通过导向筒上的挡板32控制物料通过的数量和频率。同理,导向管2可以根据需要多个,使用过程中可以通过进料口12向导向管2中投放与教学内容味道相关的糖果或其他固体食品,当用户点击味觉体验图标时,中央处理器控制相应的电机转动,相应的物料控制室21中的挡板32随电机转动控制糖果或其他固体食品的输出量,其中第一电机应选用步进电机。
所述触觉体验单元包括迎向教具本体1的前壁设置的材质体验盘8,所述材质体验盘8上设有若干沿其周向均匀分布的样品固定槽81,所述教具本体1的前壁上开设有与所述样品固定槽81相配合的触觉体验口15,所述材质体验盘8通过第二电机83驱动其转动,第二电机83为步进电机,其固定在电机支架上,材质体验盘8卡扣在体验盘支座上。通过在材质体验盘8上的样品固定槽81内布置与教学内容相关材质的样品,通过控制第二电机带动材质体验盘8转动,使材质体验盘8上的样品固定槽81与教具本体前部的触觉体验口5相重合,使学生可以通过触摸感知材质特性,使学习更加生动,以提高学生的印象。
所述视觉体验单元包括设置在所述教具本体1的前壁上且与所述中央处理器连接的触摸显示器11。触摸显示屏一方面为学生提供视觉体验,另一方面还可实现人机交互。
所述听觉体验单元包括设置在所述教具本体1内切与所述中央处理器连接的扬声器9,扬声器9作为该智能教具的声频输出,为学生提供听觉体验。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (9)

1.一种基于多感官交互体验和学习注意力评估的教育方法,其特征在于,包括以下步骤:
S1:采集学生的图像,获取人脸区域并对所述人脸区域进行预处理;
S2:将步骤S1的输出结果进行归一化处理后输入卷积神经网络进行人脸姿态检测,并判断学生人脸是否正对显示器,若是,则进行人眼注视方向计算;若否,则进行步骤S4;
S3:当检测人眼正视显示器的时间和频率在预设范围时,则继续普通教育模式;否则,则开启多感官交互体验教育模式;
S4:获取学生面部正视和视线正视显示器时的帧率,根据学生面部正视和视线正视显示器时的帧率计算学生注意程度;
根据学生面部正视和视线正视显示器时的帧率计算学生注意程度所采用的计算公式为:
P=α1fa+α2fs,α1+α2=1
其中,P为注意力程度,α1,α2为权重,根据实验结果选取权重值;fa,fs分别对应面部正视和视线正视时的帧率;其中Nt为一定时间内总的帧数;Na,Ns分别代表一定时间内正视显示器和视线落在显示器范围内的总帧数。
2.根据权利要求1所述的基于多感官交互体验和学习注意力评估的教育方法,其特征在于,步骤S1具体包括:
S11:利用摄像头获取学生的图像并对采集到的所述图像进行人脸识别获取人脸区域;
S12:对所述人脸区域进行灰度化处理,然后采用插值法将图像调整为96×96大小的图像。
3.根据权利要求1所述的基于多感官交互体验和学习注意力评估的教育方法,其特征在于,所述卷积神经网络包括3层卷积层、3层池化层、2层全连接层和输出层;经回归处理后的图像首先进行卷积操作和最大值池化操作,然后再进行全连接操作和回归操作;所述输出层大小为3x1,分别表示头部姿势俯仰、偏航和侧倾角。
4.根据权利要求3所述的基于多感官交互体验和学习注意力评估的教育方法,其特征在于,所述卷积操作所采用的卷积计算公式为:
其中,表示第/>层的第i个特征映射,f()表示激活函数,/>是连接第/>层神经元i和第/>层神经元j的权重;卷积核由权重/>所确定;/>代表第/>层的第j个偏置值;Mj代表输入映射集合;
最大值池化公式为:
其中,imax,jmax代表对应的pool核区域最大的那个元素的索引。
5.根据权利要求4所述的基于多感官交互体验和学习注意力评估的教育方法,其特征在于,在每进行一次卷积操作和最大值池化操时随机丢弃部分特征检测器。
6.根据权利要求1所述的基于多感官交互体验和学习注意力评估的教育方法,其特征在于,当判断得出学生人脸是正对显示器时,则采用瞳孔角膜反射法计算人眼注视方向并同时计算人眼正视显示器的时间和频率。
7.根据权利要求6所述的基于多感官交互体验和学习注意力评估的教育方法,其特征在于,判断学生人脸是否正对显示器的判断方法为:
pitch∈[pmin,pmax],
yaw∈[ymin,ymax]
其中,pmin,pmax分别为人脸面对显示器时对应俯仰角pitch的最小值和最大值;ymin,ymax分别为对应的偏航角yaw最小值和最大值。
8.根据权利要求7所述的基于多感官交互体验和学习注意力评估的教育方法,其特征在于,采用瞳孔角膜反射法计算人眼注视方向的具体计算方法为:通过一个视线映射函数模型来估计视线方向,将从眼睛图像提取的二维眼动特征作为视线映射函数的自变量输入,函数的因变量即为所求的视线方向或注视点,所述视线映射函数模型为:
其中,(Px,Py)为视线落点,(Vx,Vy)为瞳孔反射光斑向量。
9.根据权利要求6所述的基于多感官交互体验和学习注意力评估的教育方法,其特征在于,采用多感官交互体验智能教具向学生多感官交互体验教育模式;所述多感官交互体验教育模式包括教具本体,所述教具本体内设有中央处理器以及分别与所述中央处理器连接的视觉体验单元和听觉体验单元,其特征在于,该教具还包括设置在教具本体内的嗅觉体验单元、味觉体验单元和触觉体验单元的至少一种,所述嗅觉体验单元、味觉体验单元和触觉体验单元分别与所述中央处理器连接;所述视觉体验单元用于展示学习内容场景图像和文字;所述听觉体验单元用于形成与所述学习内容场景图像和文字相匹配的声音;所述嗅觉体验单元用于形成与所述学习内容场景图像和文字相匹配的气味;所述味觉体验单元用于形成与所述学习内容场景图像和文字相匹配的味道;所述触觉体验单元用于形成与所述学习内容场景图像和文字相匹配的触感;所述中央处理器用于根据获取的多媒体数据控制所述视觉体验单元、听觉体验单元、嗅觉体验单元、味觉体验单元和触觉体验单元中的至少一个单元工作。
CN201910333193.5A 2019-04-24 2019-04-24 基于多感官交互体验和学习注意力评估的教育方法 Active CN109919143B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910333193.5A CN109919143B (zh) 2019-04-24 2019-04-24 基于多感官交互体验和学习注意力评估的教育方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910333193.5A CN109919143B (zh) 2019-04-24 2019-04-24 基于多感官交互体验和学习注意力评估的教育方法

Publications (2)

Publication Number Publication Date
CN109919143A CN109919143A (zh) 2019-06-21
CN109919143B true CN109919143B (zh) 2023-08-18

Family

ID=66978316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910333193.5A Active CN109919143B (zh) 2019-04-24 2019-04-24 基于多感官交互体验和学习注意力评估的教育方法

Country Status (1)

Country Link
CN (1) CN109919143B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110444053B (zh) * 2019-07-04 2021-11-30 卓尔智联(武汉)研究院有限公司 语言学习方法、计算机装置及可读存储介质
CN110543828A (zh) * 2019-08-08 2019-12-06 南京励智心理大数据产业研究院有限公司 基于可穿戴设备和多模态智能分析的学生注意力分析系统
CN112115756A (zh) * 2020-03-22 2020-12-22 张冬梅 用于内容分析的区块链管理平台
CN111610862A (zh) * 2020-06-22 2020-09-01 江苏开放大学(江苏城市职业学院) 一种基于眼动信号的在线教学模式切换方法
CN112863254A (zh) * 2020-12-29 2021-05-28 河南库课数字科技有限公司 一种幼儿学前教育同步移动教育装置及方法
CN113313982B (zh) * 2021-07-29 2021-11-09 深圳市轻生活科技有限公司 一种基于5g网络的教育系统
CN113808441B (zh) * 2021-08-03 2023-07-07 郑州科技学院 便携式外语单词练习器

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930750A (zh) * 2011-08-08 2013-02-13 张文宇 全感教学法
CN103366618A (zh) * 2013-07-18 2013-10-23 梁亚楠 基于人工智能与虚拟现实用于汉语学习培训的场景设备
CN107103802A (zh) * 2017-04-28 2017-08-29 南京网博计算机软件系统有限公司 基于在线教育的实时人眼甄别系统和方法
CN107292271A (zh) * 2017-06-23 2017-10-24 北京易真学思教育科技有限公司 学习监控方法、装置及电子设备
CN107480872A (zh) * 2017-08-01 2017-12-15 深圳市鹰硕技术有限公司 一种基于数据交换网络的在线教学考评系统及方法
CN108154450A (zh) * 2016-12-06 2018-06-12 上海交通大学 数字学习智能监控系统
KR101881092B1 (ko) * 2017-11-24 2018-07-23 (주)인더텍 시청각 연동형 인지 훈련 시스템 및 방법
CN108399376A (zh) * 2018-02-07 2018-08-14 华中师范大学 学生课堂学习兴趣智能分析方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TR201505840A2 (tr) * 2015-05-14 2015-07-21 Biooram Saglik Egitim Danismanlik Ve Kozmetik Ueruenleri Tic Ltd Sti Bütüncül Öğrenme Sistemi

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930750A (zh) * 2011-08-08 2013-02-13 张文宇 全感教学法
CN103366618A (zh) * 2013-07-18 2013-10-23 梁亚楠 基于人工智能与虚拟现实用于汉语学习培训的场景设备
CN108154450A (zh) * 2016-12-06 2018-06-12 上海交通大学 数字学习智能监控系统
CN107103802A (zh) * 2017-04-28 2017-08-29 南京网博计算机软件系统有限公司 基于在线教育的实时人眼甄别系统和方法
CN107292271A (zh) * 2017-06-23 2017-10-24 北京易真学思教育科技有限公司 学习监控方法、装置及电子设备
CN107480872A (zh) * 2017-08-01 2017-12-15 深圳市鹰硕技术有限公司 一种基于数据交换网络的在线教学考评系统及方法
KR101881092B1 (ko) * 2017-11-24 2018-07-23 (주)인더텍 시청각 연동형 인지 훈련 시스템 및 방법
CN108399376A (zh) * 2018-02-07 2018-08-14 华中师范大学 学生课堂学习兴趣智能分析方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
多感官教学策略在高中生物教学中的应用研究;曹峰丽;《中国优秀硕士学位论文全文数据库 (社会科学Ⅱ辑)》;20180228(第2期);全文 *

Also Published As

Publication number Publication date
CN109919143A (zh) 2019-06-21

Similar Documents

Publication Publication Date Title
CN109919143B (zh) 基于多感官交互体验和学习注意力评估的教育方法
US11556741B2 (en) Devices, systems and methods for predicting gaze-related parameters using a neural network
EP2309307B1 (en) Eye tracking using a GPU
CA2545202C (en) Method and apparatus for calibration-free eye tracking
JP7420510B2 (ja) フォービエイテッド・レンダリング・システムおよび方法
Perrott et al. Aurally aided visual search under virtual and free-field listening conditions
TW202036465A (zh) 駕駛員注意力監測方法和裝置及電子設備
US20150243083A1 (en) Augmented Reality Biofeedback Display
EP3752902A1 (en) System and method of enhancing user's immersion in mixed reality mode of display apparatus
Regenbrecht et al. Out of reach?—A novel AR interface approach for motor rehabilitation
JP2012141965A (ja) 非触覚ユーザインタフェース用場面プロファイル
WO2019154509A1 (en) Devices, systems and methods for predicting gaze-related parameters
US11600189B2 (en) Therapeutic simulator system for stress disorders
WO2002001336A2 (en) Automated visual tracking for computer access
WO2019154510A1 (en) Devices, systems and methods for predicting gaze-related parameters
Block et al. In the arms of a robot: Designing autonomous hugging robots with intra-hug gestures
US20190019336A1 (en) Augmented Reality Biofeedback Display
CN110085069A (zh) 多感官交互增强学习记忆强度智能教学设备
KR20220014254A (ko) 버스와 같은 차량에서 여행 가상현실 컨텐츠를 제공하는 방법 및 시스템
US20210303070A1 (en) Devices and headsets
CN106919924A (zh) 一种基于人面识别的情绪分析系统
US20230072470A1 (en) Systems and methods for self-administered sample collection
CN110942327A (zh) 推荐方法及实境呈现装置
JPH06266497A (ja) マンマシンインタフェース装置
TWI463474B (zh) 影像調整系統及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230602

Address after: 401331 a-8-8, first floor, No. 25, South University Town Road, Shapingba District, Chongqing

Applicant after: CHONGQING JIAOHU TECHNOLOGY CO.,LTD.

Address before: No. 174 Shazhong Road, Shapingba District, Chongqing, 400044

Applicant before: Guo Gang

GR01 Patent grant
GR01 Patent grant