CN114281196B - 用于直播课堂的体感互动方法、装置、介质和电子设备 - Google Patents

用于直播课堂的体感互动方法、装置、介质和电子设备 Download PDF

Info

Publication number
CN114281196B
CN114281196B CN202111672542.XA CN202111672542A CN114281196B CN 114281196 B CN114281196 B CN 114281196B CN 202111672542 A CN202111672542 A CN 202111672542A CN 114281196 B CN114281196 B CN 114281196B
Authority
CN
China
Prior art keywords
motion
data
operation instruction
somatosensory
student
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111672542.XA
Other languages
English (en)
Other versions
CN114281196A (zh
Inventor
王珂晟
黄劲
黄钢
许巧龄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oook Beijing Education Technology Co ltd
Original Assignee
Oook Beijing Education Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oook Beijing Education Technology Co ltd filed Critical Oook Beijing Education Technology Co ltd
Priority to CN202111672542.XA priority Critical patent/CN114281196B/zh
Publication of CN114281196A publication Critical patent/CN114281196A/zh
Application granted granted Critical
Publication of CN114281196B publication Critical patent/CN114281196B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供了一种用于直播课堂的体感互动方法、装置、介质和电子设备。所述方法包括:获取直播课堂中目标学生的体感设备采集的体感数据;基于所述目标学生的第一运动特征数据获得针对多媒体黑板的用户界面的操作指令;基于所述操作指令在多媒体黑板的用户界面中显示互动操作。本公开使直播课堂中的目标学生不用离开作为,便可对多媒体黑板的用户界面进行直接操作。节省了目标学生来回往返的时间,提高了互动的效率。

Description

用于直播课堂的体感互动方法、装置、介质和电子设备
技术领域
本公开涉及图像处理领域,具体而言,涉及一种用于直播课堂的体感互动方法、装置、介质和电子设备。
背景技术
随着计算机技术的发展,基于互联网的直播教学开始在兴起,而一种结合多媒体技术的多媒体黑板也随着直播教学应运而生。
多媒体黑板的用户界面上通常包括多个显示区域,例如,一个显示区域显示授课教师的全身影像,另一个显示区域显示与教学内容相关的文字(比如演示文稿)。多媒体黑板通常安置在教室中,学生在教室中观看多媒体黑板中远程直播的教学内容。采用多媒体黑板进行教学适合于规模较大的教学场所。
但是,采用该方式,学生仅能被动观看显示的课程内容,却无法向使用个人电脑一样对显示的课程内容进行直接操作。仅能采用间接操作,比如,对提供信号源的电脑进行操作。对于大教室来说,学生往返该电脑前操作非常浪费时间。
因此,本公开提供了一种用于直播课堂的体感互动方法,以解决上述技术问题之一。
发明内容
本公开的目的在于提供一种用于直播课堂的体感互动方法、装置、介质和电子设备,能够解决上述提到的至少一个技术问题。具体方案如下:
根据本公开的具体实施方式,第一方面,本公开提供一种用于直播课堂的体感互动方法,包括:
获取直播课堂中目标学生的体感设备采集的体感数据,其中,所述直播课堂中设置多个体感设备,且每个学生前设置一个对应的体感设备,所述体感数据包括所述目标学生的手部的第一运动特征数据;
基于所述目标学生的第一运动特征数据获得针对多媒体黑板的用户界面的操作指令;
基于所述操作指令在多媒体黑板的用户界面中显示互动操作。
根据本公开的具体实施方式,第二方面,本公开提供一种用于直播课堂的体感互动装置,包括:
数据获取单元,用于获取直播课堂中目标学生的体感设备采集的体感数据,其中,所述直播课堂中设置多个体感设备,且每个学生前设置一个对应的体感设备,所述体感数据包括所述目标学生的手部的第一运动特征数据;
指令获得单元,用于基于所述目标学生的第一运动特征数据获得针对多媒体黑板的用户界面的操作指令;
指令执行单元,用于基于所述操作指令在多媒体黑板的用户界面中显示互动操作。
根据本公开的具体实施方式,第三方面,本公开提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上任一项所述用于直播课堂的体感互动方法。
根据本公开的具体实施方式,第四方面,本公开提供一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上任一项所述用于直播课堂的体感互动方法。
本公开实施例的上述方案与现有技术相比,至少具有以下有益效果:
本公开提供了一种用于直播课堂的体感互动方法、装置、介质和电子设备。本公开使直播课堂中的目标学生不用离开作为,便可对多媒体黑板的用户界面进行直接操作。节省了目标学生来回往返的时间,提高了互动的效率。
附图说明
图1示出了根据本公开实施例的用于直播课堂的体感互动方法的流程图;
图2示出了根据本公开实施例多媒体黑板的体感互动系统的结构示意图;
图3示出了根据本公开实施例当前距离与参考运动深度的示意图;
图4示出了根据本公开实施例的基准三维平面的示意图;
图5示出了根据本公开实施例的用于直播课堂的体感互动装置的单元框图;
图6示出了根据本公开实施例提供的一种电子设备连接结构示意图;
附图标记说明
21-体感设备,22-多媒体黑板,23-基准三维平面,24-身体;
d1-当前距离,d2-参考运动深度,d3-预设运动深度阈值;
v1-当前运动速度,v0-参考运动速度;
r1-当前运动方向,r0-参考运动方向;
d1-当前运动距离,d0-参考运动距离。
具体实施方式
为了使本公开的目的、技术方案和优点更加清楚,下面将结合附图对本公开作进一步地详细描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。
在本公开实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
应当理解,尽管在本公开实施例中可能采用术语第一、第二、第三等来描述,但这些描述不应限于这些术语。这些术语仅用来将描述区分开。例如,在不脱离本公开实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者装置中还存在另外的相同要素。
特别需要说明的是,在说明书中存在的符号和/或数字,如果在附图说明中未被标记的,均不是附图标记。
下面结合附图详细说明本公开的可选实施例。
实施例1
对本公开提供的实施例,即一种用于直播课堂的体感互动方法的实施例。
如图2所示,多媒体黑板22的体感互动系统包括多媒体黑板22和多个体感设备21。
在直播课堂中设置多个体感设备21,且每个学生前设置一个对应的体感设备21。例如,将体感设备21设置在课桌的前边沿。每个体感设备21与所述大媒体黑板通讯连接。通讯方式包括有线通讯和或无线通讯。每个体感设备21不仅能够采集对应学生的体感数据,而且能够采集对应学生发言的音频数据。体感设备21将目标学生的体感数据传送至多媒体黑板22,由多媒体黑板22根据体感数据生成操作指令,并在用户界面中执行该操作指令。
下面结合图1对本公开实施例进行详细说明。
步骤S101,获取直播课堂中目标学生的体感设备21采集的体感数据。
其中,所述直播课堂中设置多个体感设备21,且每个学生前设置一个对应的体感设备21。
所述体感数据是体感设备21采集目标学生的实际动作信息。由于该实际动作信息用于与虚拟目标进行互动,因此,也称为体感数据。
所述体感数据包括所述目标学生的手部的第一运动特征数据。
本公开实施例通过目标学生的手部动作控制对多媒体黑板22的用户界面的互动操作。例如,第一运动特征数据包括:所述目标学生的手部远离其身体24的当前距离d1、所述手部的当前运动速度、当前运动方向和当前运动距离。
所述目标学生是能够通过其体感数据对多媒体黑板22的用户界面中进行互动操作的学生。但是,由于在直播课堂中有许多学生同时参与教学活动,为了确定目标学生,在一些具体实施例中,所述获取直播课堂中目标学生的体感设备21采集的体感数据之前,还包括以下步骤:
步骤S100-1,获取每个学生的体感设备21采集的体感数据。
步骤S100-2,基于每个学生的体感设备21采集的体感数据获得对应学生的身体姿态数据。
例如,身体姿态数据包括身体高度数据。
步骤S100-3,响应于任意一个学生的身体姿态数据满足站立姿态条件,确定所述学生为目标学生。
例如,学生在坐姿时,其身体高度数据为1.2米,在站立时,其身体高度数据为1.7米;如果学生的身体高度数据由1.2米变成了1.7米时,则确定该学生为目标学生。
本公开具体实施例中,只有站立在体感设备21前的学生才能与多媒体黑板22的用户界面进行互动。
步骤S102,基于所述目标学生的第一运动特征数据获得针对多媒体黑板22的用户界面的操作指令。
在一些具体实施例中,所述基于所述目标学生的第一运动特征数据获得针对多媒体黑板22的用户界面的操作指令,包括以下步骤:
步骤S102-1,确定所述目标学生的基准三维平面23。
由于目标学生处于一个开放空间中,虽然在大方向上是面向多媒体黑板22,但是,手部动作在无约束的情况下,其方向无法确定。因此,本公开具体实施例提供了一个基准三维平面23,将目标学生在三维空间中的动作信息,转变为基准三维平面23上动作信息进行分析,以便在统一的基准下识别目标学生的动作。
由于目标学生基本是面向多媒体黑板22,其动作也是朝向多媒体黑板22,因此,所述基准三维平面23平行于所述多媒体黑板22的板面。
步骤S102-2,将所述第一运动特征数据转换成与所述基准三维平面23相关联的第二运动特征数据。
例如,第一运动特征数据包括:所述目标学生的手部远离其身体24的当前距离d1、所述手部的当前运动速度、当前运动方向和当前运动距离。
在一些具体实施例中,所述将所述第一运动特征数据转换成与所述基准三维平面23相关联的第二运动特征数据,包括以下步骤:
步骤S102-2-1,将所述第一运动特征数据中所述目标学生的手部远离其身体24的当前距离d1转变成所述第二运动特征数据中在垂直于所述基准三维平面23方向上的参考运动深度d2,如图3所示。
步骤S102-2-2,将所述第一运动特征数据中的当前运动速度转变成所述基准三维平面23方向上所述第二运动特征数据的参考运动速度。
例如,如图4所示,在三维坐标系中,xz平面构成了基准三维平面23;当运动到b1位置时,当前运动速度为v1,其与基准三维平面23存在一个夹角,其投射至基准三维平面23上b0位置的参考运动速度为v0。
步骤S102-2-3,将所述第一运动特征数据中的当前运动方向转变成所述基准三维平面23方向上所述第二运动特征数据的参考运动方向。
例如,继续上述例子,在三维坐标系中,如果当前运动方向r1与当前运动速度v1的方向一致,则其投射至基准三维平面23上的参考运动方向r0,与参考运动速度v0的方向一致。
步骤S102-2-4,将所述第一运动特征数据中的当前运动距离转变成所述基准三维平面23方向上所述第二运动特征数据的参考运动距离。
例如,继续上述例子,在三维坐标系中,如果是从a1位置运动至b1位置,当前运动距离为d1,则a1位置投射至基准三维平面23上为a0位置,b1位置投射至基准三维平面23上为b0位置,a0至b0的距离为参考运动距离d0。
本公开具体实施例将目标学生的第一运动特征数据,转变为基准三维平面23上第二运动特征数据进行分析,以便在统一的基准下识别目标学生的动作。可以理解为,将第一运动特征数据进行了标准化处理。经过标准化处理后的第二运动特征数据能够依据同一的标准进行判别。
步骤S102-3,基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令。
所述操作数据集中保存的每一个数据记录的对应关系中均包括识别操作的约束条件和对应的操作指令。只有在第二运动特征数据满足约束条件的情况下,才能确定执行对应的操作指令。
在一些具体实施例中,所述基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令,包括以下步骤:
步骤S102-3a-1,获取所述操作数据集中的滑动操作数据。
其中,所述滑动操作数据包括:预设运动深度阈值d3、第一运动速度阈值、第一运动方向范围、第一运动距离阈值、第一运动方向和滑动操作指令的对应关系。
预设运动深度阈值d3是预先设置的垂直于所述基准三维平面23方向上的运动深度的阈值。
步骤S102-3a-2,响应于所述参考运动深度d2大于所述预设运动深度阈值d3,且所述参考运动速度大于所述第一运动速度阈值,且所述参考运动方向满足所述第一运动方向范围,且所述参考运动距离大于所述第一运动距离阈值,确定基于所述参考运动速度、所述参考运动距离和所述第一运动方向为参数的所述滑动操作指令为匹配的操作指令。
本公开具体实施例以预设运动深度阈值d3确定手部动作的有效性。例如,在三维空间中,从三维位置坐标点A开始手部动作的参考运动深度d2大于所述预设运动深度阈值d3,也就意味着手部动作的操作开始;从三维位置坐标点B开始手部动作的参考运动深度d2小于所述预设运动深度阈值d3,也就意味着手部动作的操作结束。
由于目标对象的手部在运动中,不可能完全按照垂直于用户界面的边线的直线运动。总是存在一定的偏角,且可能是一条弧线运动。为了识别目标学生在滑动方向上的真实意图,本公开具体实施例采用第一运动方向范围作为判定滑动方向的依据。如果参考运动方向满足所述第一运动方向范围,则滑动操作数据中与第一运动方向范围对应的第一运动方向就是目标学生手部的滑动方向。
所述第一运动距离阈值是指目标学生手部在参考运动深度d2大于所述预设运动深度阈值d3的情况下的运动距离。只有在参考运动速度大于所述第一运动速度阈值,且参考运动距离大于所述第一运动距离阈值的情况下,才能确定目标学生手部的动作为滑动动作。
所述滑动操作指令用于控制一个具有多页的窗口快速的翻动页面。
所述基于所述参考运动速度、所述参考运动距离和所述第一运动方向为参数的所述滑动操作指令,可以理解为,第一运动方向决定了滑动操作指令中的翻页方向,所述参考运动速度和所述参考运动距离决定了翻页的速度和翻过的页数。
在另一些具体实施例中,所述基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令,包括以下步骤:
步骤S102-3b-1,获取所述操作数据集中的翻页操作数据。
其中,所述翻页操作数据包括:预设运动深度阈值d3、第二运动速度阈值、第二运动方向范围、第二运动距离阈值、第二运动方向和翻页操作指令的对应关系。
第二运动速度阈值可以等于第一运动速度阈值;第二运动方向范围可以与第一运动方向范围相同;第二运动距离阈值可以等于第一运动距离阈值。
步骤S102-3b-2,响应于所述参考运动深度d2大于所述预设运动深度阈值d3,且所述参考运动速度小于所述第二运动速度阈值,且所述参考运动方向满足所述第二运动方向范围,且所述参考运动距离大于所述第二运动距离阈值,确定基于所述第二运动方向为参数的所述翻页操作指令为匹配的操作指令。
由于目标对象的手部在运动中,不可能完全按照垂直于用户界面的边线的直线运动。总是存在一定的偏角,且可能是一条弧线运动。为了识别目标学生在翻页方向上的真实意图,本公开具体实施例采用第二运动方向范围作为判定翻页方向的依据。如果参考运动方向满足所述第二运动方向范围,则翻页操作数据中与第二运动方向范围对应的第二运动方向就是目标学生手部的翻页方向。
所述第二运动距离阈值是指目标学生手部在参考运动深度d2大于所述预设运动深度阈值d3的情况下的运动距离。只有在参考运动速度小于所述第二运动速度阈值,且参考运动距离大于所述第二运动距离阈值的情况下,才能确定目标学生手部的动作为翻页动作。
所述翻页操作指令用于控制一个具有多页的窗口逐页翻动。
所述基于所述第二运动方向为参数的所述翻页操作指令,可以理解为,第二运动方向决定了翻页操作指令中的翻页方向。
在另一些具体实施例中,所述基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令,包括以下步骤:
步骤S102-3c-1,获取所述操作数据集中的确认操作数据。
其中,所述确认操作数据包括:预设运动深度阈值d3、第三运动速度阈值、第三运动方向范围、第三运动距离阈值、第三运动方向和确认操作指令的对应关系。
步骤S102-3c-2,响应于所述参考运动深度d2大于所述预设运动深度阈值d3,且所述参考运动速度小于所述第三运动速度阈值,且所述参考运动方向满足所述第三运动方向范围,且所述参考运动距离小于所述第三运动距离阈值,确定所述确认操作指令为匹配的操作指令。
所述确认操作指令用于相当于在多媒体黑板22的用户界面中执行确认操作。由于手部动作在空中不可能始终停留在一个三维坐标点上,为此,本公开实施例提供了第三运动方向范围和第三运动速度阈值,如果第三运动方向范围限定了一个很小的范围,且第三运动速度阈值也是一个很小的阈值,且第三运动距离阈值也是一个很小的阈值,当参考运动方向在第三运动方向范围内运动,且参考运动速度小于所述第三运动速度阈值,且所述参考运动距离小于所述第三运动距离阈值,能够确定手部动作处于停留状态,也就是进行确认操作。
步骤S103,基于所述操作指令在多媒体黑板22的用户界面中显示互动操作。
当操作指令为滑动操作指令时,用户界面中的多页面窗口将执行快速翻页的操作。
当操作指令为翻页操作指令时,用户界面中的多页面窗口将执行逐页翻页的操作。
当操作指令为确认操作指令时,用户界面中的按键将执行确认操作。
本公开实施例使直播课堂中的目标学生不用离开作为,便可对多媒体黑板22的用户界面进行直接操作。节省了目标学生来回往返的时间,提高了互动的效率。
实施例2
本公开还提供了与上述实施例承接的装置实施例,用于实现如上实施例所述的方法步骤,基于相同的名称含义的解释与如上实施例相同,具有与如上实施例相同的技术效果,此处不再赘述。
如图5所示,本公开提供一种用于直播课堂的体感互动装置500,包括:
数据获取单元501,用于获取直播课堂中目标学生的体感设备采集的体感数据,其中,所述直播课堂中设置多个体感设备,且每个学生前设置一个对应的体感设备,所述体感数据包括所述目标学生的手部的第一运动特征数据;
指令获得单元502,用于基于所述目标学生的第一运动特征数据获得针对多媒体黑板的用户界面的操作指令;
指令执行单元503,用于基于所述操作指令在多媒体黑板的用户界面中显示互动操作。
可选的,所述指令获得单元502,包括:
平面确定子单元,用于确定所述目标学生的基准三维平面,所述基准三维平面平行于所述多媒体黑板的板面;
转换子单元,用于将所述第一运动特征数据转换成与所述基准三维平面相关联的第二运动特征数据;
匹配子单元,用于基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令。
可选的,所述转换子单元,包括:
第一转换子单元,用于将所述第一运动特征数据中所述目标学生的手部远离其身体24的当前距离转变成所述第二运动特征数据中在垂直于所述基准三维平面方向上的参考运动深度;
第二转换子单元,用于将所述第一运动特征数据中的当前运动速度转变成所述基准三维平面方向上所述第二运动特征数据的参考运动速度;
第三转换子单元,用于将所述第一运动特征数据中的当前运动方向转变成所述基准三维平面方向上所述第二运动特征数据的参考运动方向;
第四转换子单元,用于将所述第一运动特征数据中的当前运动距离转变成所述基准三维平面方向上所述第二运动特征数据的参考运动距离。
可选的,所述匹配子单元,包括:
第一获取子单元,用于获取所述操作数据集中的滑动操作数据,所述滑动操作数据包括:预设运动深度阈值、第一运动速度阈值、第一运动方向范围、第一运动距离阈值、第一运动方向和滑动操作指令的对应关系;
第一确定子单元,用于响应于所述参考运动深度大于所述预设运动深度阈值,且所述参考运动速度大于所述第一运动速度阈值,且所述参考运动方向满足所述第一运动方向范围,且所述参考运动距离大于所述第一运动距离阈值,确定基于所述参考运动速度、所述参考运动距离和所述第一运动方向为参数的所述滑动操作指令为匹配的操作指令。
可选的,所述匹配子单元,包括:
第二获取子单元,用于获取所述操作数据集中的翻页操作数据,所述翻页操作数据包括:预设运动深度阈值、第二运动速度阈值、第二运动方向范围、第二运动距离阈值、第二运动方向和翻页操作指令的对应关系;
第二确定子单元,用于响应于所述参考运动深度大于所述预设运动深度阈值,且所述参考运动速度小于所述第二运动速度阈值,且所述参考运动方向满足所述第二运动方向范围,且所述参考运动距离大于所述第二运动距离阈值,确定基于所述第二运动方向为参数的所述翻页操作指令为匹配的操作指令。
可选的,所述匹配子单元,包括:
第三获取子单元,用于获取所述操作数据集中的确认操作数据,所述确认操作数据包括:预设运动深度阈值、第三运动速度阈值、第三运动方向范围、第三运动距离阈值、第三运动方向和确认操作指令的对应关系;
第三确定子单元,用于响应于所述参考运动深度大于所述预设运动深度阈值,且所述参考运动速度小于所述第三运动速度阈值,且所述参考运动方向满足所述第三运动方向范围,且所述参考运动距离小于所述第三运动距离阈值,确定所述确认操作指令为匹配的操作指令。
可选的,所述装置还包括目标确定单元;
所述目标确定单元,包括:
初始获取子单元,用于所述获取直播课堂中目标学生的体感设备采集的体感数据之前,获取每个学生的体感设备采集的体感数据;
姿态获得子单元,用于基于每个学生的体感设备采集的体感数据获得对应学生的身体姿态数据;
目标确定子单元,用于响应于任意一个学生的身体姿态数据满足站立姿态条件,确定所述学生为目标学生。
本公开实施例使直播课堂中的目标学生不用离开作为,便可对多媒体黑板的用户界面进行直接操作。节省了目标学生来回往返的时间,提高了互动的效率。
实施例3
如图6所示,本实施例提供一种电子设备,所述电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上实施例所述的方法步骤。
实施例4
本公开实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行如上实施例所述的方法步骤。
实施例5
下面参考图6,其示出了适于用来实现本公开实施例的电子设备的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。

Claims (7)

1.一种用于直播课堂的体感互动方法,其特征在于,包括:
获取直播课堂中目标学生的体感设备采集的体感数据,其中,所述直播课堂中设置多个体感设备,且每个学生前设置一个对应的体感设备,所述体感数据包括所述目标学生的手部的第一运动特征数据;
基于所述目标学生的第一运动特征数据获得针对多媒体黑板的用户界面的操作指令;
基于所述操作指令在多媒体黑板的用户界面中显示互动操作;
所述基于所述目标学生的第一运动特征数据获得针对多媒体黑板的用户界面的操作指令,包括:
确定所述目标学生的基准三维平面,所述基准三维平面平行于所述多媒体黑板的板面;
将所述第一运动特征数据转换成与所述基准三维平面相关联的第二运动特征数据;
基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令;
所述将所述第一运动特征数据转换成与所述基准三维平面相关联的第二运动特征数据,包括:
将所述第一运动特征数据中所述目标学生的手部远离其身体的当前距离转变成所述第二运动特征数据中在垂直于所述基准三维平面方向上的参考运动深度;
将所述第一运动特征数据中的当前运动速度转变成所述基准三维平面方向上所述第二运动特征数据的参考运动速度;
将所述第一运动特征数据中的当前运动方向转变成所述基准三维平面方向上所述第二运动特征数据的参考运动方向;
将所述第一运动特征数据中的当前运动距离转变成所述基准三维平面方向上所述第二运动特征数据的参考运动距离;
所述基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令,包括:
获取所述操作数据集中的滑动操作数据,所述滑动操作数据包括:预设运动深度阈值、第一运动速度阈值、第一运动方向范围、第一运动距离阈值、第一运动方向和滑动操作指令的对应关系;
响应于所述参考运动深度大于所述预设运动深度阈值,且所述参考运动速度大于所述第一运动速度阈值,且所述参考运动方向满足所述第一运动方向范围,且所述参考运动距离大于所述第一运动距离阈值,确定基于所述参考运动速度、所述参考运动距离和所述第一运动方向为参数的所述滑动操作指令为匹配的操作指令。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令,包括:
获取所述操作数据集中的翻页操作数据,所述翻页操作数据包括:预设运动深度阈值、第二运动速度阈值、第二运动方向范围、第二运动距离阈值、第二运动方向和翻页操作指令的对应关系;
响应于所述参考运动深度大于所述预设运动深度阈值,且所述参考运动速度小于所述第二运动速度阈值,且所述参考运动方向满足所述第二运动方向范围,且所述参考运动距离大于所述第二运动距离阈值,确定基于所述第二运动方向为参数的所述翻页操作指令为匹配的操作指令。
3.根据权利要求1所述的方法,其特征在于,所述基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令,包括:
获取所述操作数据集中的确认操作数据,所述确认操作数据包括:预设运动深度阈值、第三运动速度阈值、第三运动方向范围、第三运动距离阈值、第三运动方向和确认操作指令的对应关系;
响应于所述参考运动深度大于所述预设运动深度阈值,且所述参考运动速度小于所述第三运动速度阈值,且所述参考运动方向满足所述第三运动方向范围,且所述参考运动距离小于所述第三运动距离阈值,确定所述确认操作指令为匹配的操作指令。
4.根据权利要求1所述的方法,其特征在于,所述获取直播课堂中目标学生的体感设备采集的体感数据之前,还包括:
获取每个学生的体感设备采集的体感数据;
基于每个学生的体感设备采集的体感数据获得对应学生的身体姿态数据;
响应于任意一个学生的身体姿态数据满足站立姿态条件,确定所述学生为目标学生。
5.一种用于直播课堂的体感互动装置,其特征在于,包括:
数据获取单元,用于获取直播课堂中目标学生的体感设备采集的体感数据,其中,所述直播课堂中设置多个体感设备,且每个学生前设置一个对应的体感设备,所述体感数据包括所述目标学生的手部的第一运动特征数据;
指令获得单元,用于基于所述目标学生的第一运动特征数据获得针对多媒体黑板的用户界面的操作指令;所述基于所述目标学生的第一运动特征数据获得针对多媒体黑板的用户界面的操作指令,包括:确定所述目标学生的基准三维平面,所述基准三维平面平行于所述多媒体黑板的板面;将所述第一运动特征数据转换成与所述基准三维平面相关联的第二运动特征数据;基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令;
所述将所述第一运动特征数据转换成与所述基准三维平面相关联的第二运动特征数据,包括:将所述第一运动特征数据中所述目标学生的手部远离其身体的当前距离转变成所述第二运动特征数据中在垂直于所述基准三维平面方向上的参考运动深度;将所述第一运动特征数据中的当前运动速度转变成所述基准三维平面方向上所述第二运动特征数据的参考运动速度;将所述第一运动特征数据中的当前运动方向转变成所述基准三维平面方向上所述第二运动特征数据的参考运动方向;将所述第一运动特征数据中的当前运动距离转变成所述基准三维平面方向上所述第二运动特征数据的参考运动距离;
所述基于所述第二运动特征数据对操作数据集进行匹配搜索,获得匹配的操作指令,包括:获取所述操作数据集中的滑动操作数据,所述滑动操作数据包括:预设运动深度阈值、第一运动速度阈值、第一运动方向范围、第一运动距离阈值、第一运动方向和滑动操作指令的对应关系;响应于所述参考运动深度大于所述预设运动深度阈值,且所述参考运动速度大于所述第一运动速度阈值,且所述参考运动方向满足所述第一运动方向范围,且所述参考运动距离大于所述第一运动距离阈值,确定基于所述参考运动速度、所述参考运动距离和所述第一运动方向为参数的所述滑动操作指令为匹配的操作指令;
指令执行单元,用于基于所述操作指令在多媒体黑板的用户界面中显示互动操作。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至4中任一项所述的方法。
7.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,所述一个或多个处理器实现如权利要求1至4中任一项所述的方法。
CN202111672542.XA 2021-12-31 2021-12-31 用于直播课堂的体感互动方法、装置、介质和电子设备 Active CN114281196B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111672542.XA CN114281196B (zh) 2021-12-31 2021-12-31 用于直播课堂的体感互动方法、装置、介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111672542.XA CN114281196B (zh) 2021-12-31 2021-12-31 用于直播课堂的体感互动方法、装置、介质和电子设备

Publications (2)

Publication Number Publication Date
CN114281196A CN114281196A (zh) 2022-04-05
CN114281196B true CN114281196B (zh) 2024-01-26

Family

ID=80879530

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111672542.XA Active CN114281196B (zh) 2021-12-31 2021-12-31 用于直播课堂的体感互动方法、装置、介质和电子设备

Country Status (1)

Country Link
CN (1) CN114281196B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104200328A (zh) * 2014-09-09 2014-12-10 河海大学常州校区 一种基于体感技术的智能教室教学系统及方法
CN204129723U (zh) * 2014-09-25 2015-01-28 广州大学 一种基于Kinect体感交互的课堂多媒体教学装置
CN109740446A (zh) * 2018-12-14 2019-05-10 深圳壹账通智能科技有限公司 课堂学生行为分析方法及装置
CN109817047A (zh) * 2019-02-13 2019-05-28 北京谦仁科技有限公司 一种网络课堂的互动方法、装置及电子设备
CN109872588A (zh) * 2019-02-28 2019-06-11 北京谦仁科技有限公司 一种网络课堂的互动方法、装置及系统
CN110673777A (zh) * 2019-08-28 2020-01-10 北京大米科技有限公司 在线教学方法、装置、存储介质及终端设备
CN111046823A (zh) * 2019-12-19 2020-04-21 东南大学 基于课堂视频的学生课堂参与度分析系统
CN112530219A (zh) * 2020-12-14 2021-03-19 北京高途云集教育科技有限公司 一种教学信息展示方法、装置、计算机设备和存储介质
CN112667085A (zh) * 2020-12-31 2021-04-16 北京高途云集教育科技有限公司 一种课堂互动方法、装置、计算机设备和存储介质
US11132913B1 (en) * 2015-04-21 2021-09-28 Educational Testing Service Computer-implemented systems and methods for acquiring and assessing physical-world data indicative of avatar interactions

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180301048A1 (en) * 2017-04-12 2018-10-18 Age Of Learning, Inc. Remote live tutoring platform
US20210407310A1 (en) * 2020-06-25 2021-12-30 Kamaria Finch Teaching and learning platform

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104200328A (zh) * 2014-09-09 2014-12-10 河海大学常州校区 一种基于体感技术的智能教室教学系统及方法
CN204129723U (zh) * 2014-09-25 2015-01-28 广州大学 一种基于Kinect体感交互的课堂多媒体教学装置
US11132913B1 (en) * 2015-04-21 2021-09-28 Educational Testing Service Computer-implemented systems and methods for acquiring and assessing physical-world data indicative of avatar interactions
CN109740446A (zh) * 2018-12-14 2019-05-10 深圳壹账通智能科技有限公司 课堂学生行为分析方法及装置
CN109817047A (zh) * 2019-02-13 2019-05-28 北京谦仁科技有限公司 一种网络课堂的互动方法、装置及电子设备
CN109872588A (zh) * 2019-02-28 2019-06-11 北京谦仁科技有限公司 一种网络课堂的互动方法、装置及系统
CN110673777A (zh) * 2019-08-28 2020-01-10 北京大米科技有限公司 在线教学方法、装置、存储介质及终端设备
CN111046823A (zh) * 2019-12-19 2020-04-21 东南大学 基于课堂视频的学生课堂参与度分析系统
CN112530219A (zh) * 2020-12-14 2021-03-19 北京高途云集教育科技有限公司 一种教学信息展示方法、装置、计算机设备和存储介质
CN112667085A (zh) * 2020-12-31 2021-04-16 北京高途云集教育科技有限公司 一种课堂互动方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN114281196A (zh) 2022-04-05

Similar Documents

Publication Publication Date Title
US9053455B2 (en) Providing position information in a collaborative environment
CN105493023A (zh) 对表面上的内容的操纵
Pitt et al. Deciding when to use tablets for business applications.
CN110188299B (zh) 响应式页面处理方法、装置及电子设备
CN110912870B (zh) 一种电子白板数据的同步方法、装置、介质和电子设备
CN111381790A (zh) 操控方法、装置、系统、电子白板及移动端
CN110969159A (zh) 图像识别方法、装置及电子设备
US10580115B2 (en) Scaling content on touch-based systems
CN113784046A (zh) 一种随动拍摄方法、装置、介质和电子设备
CN114281196B (zh) 用于直播课堂的体感互动方法、装置、介质和电子设备
Weir et al. Development and evaluation of sonified weather maps for blind users
CN113784045B (zh) 聚焦互动方法、装置、介质和电子设备
Sigitov et al. Task dependent group coupling and territorial behavior on large tiled displays
CN114095747B (zh) 直播互动系统和方法
CN111459443A (zh) 一种文字点读方法、装置、设备和可读介质
Yucel et al. An improved interactive whiteboard system: A new design and an ergonomic stylus
CN110377192B (zh) 一种实现互动效果的方法、装置、介质和电子设备
CN111435442B (zh) 文字选取方法、装置、点读设备、电子设备及存储介质
CN112883186B (zh) 一种信息地图的生成方法、系统、设备及存储介质
CN114125537B (zh) 直播教学的讨论方法、装置、介质和电子设备
CN110851097A (zh) 一种笔迹数据一致的控制方法、装置、介质和电子设备
CN113760140B (zh) 一种内容显示方法、装置、介质和电子设备
CN110929571B (zh) 一种笔迹拟合的方法、装置、介质和电子设备
CN114038255B (zh) 答疑系统和方法
CN114120729B (zh) 直播授课系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant