CN110600033A - 学习情况的评估方法、装置、存储介质及电子设备 - Google Patents
学习情况的评估方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN110600033A CN110600033A CN201910792559.5A CN201910792559A CN110600033A CN 110600033 A CN110600033 A CN 110600033A CN 201910792559 A CN201910792559 A CN 201910792559A CN 110600033 A CN110600033 A CN 110600033A
- Authority
- CN
- China
- Prior art keywords
- preset
- classroom
- voice data
- voice
- occurrence frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Abstract
本申请实施例公开了一种学习情况的评估方法、装置、存储介质及电子设备,属于在线教育领域。方法包括:获取课堂中的语音数据;对所述语音数据进行文本转换得到文本数据;确定所述文本数据中预设关键词的出现次数,以及提取所述语音数据的声学特征向量,根据预设的情感评估模型对所述声学特征向量进行评估以确定所述语音数据中预设感情类型的出现次数;基于所述预设关键词的出现次数和所述语音数据中预设情感类型的出现次数评估所述课堂中学生的学习情况。本申请能实现自动根据课堂的语音数据评估学生的学习情况,降低相关技术中人工评估造成的效率低和不客观的问题。
Description
技术领域
本申请涉及在线教育领域,尤其涉及一种学习情况的评估方法、装置、存储介质及电子设备。
背景技术
随着互联网的发展,在线教育收到越来越多人的欢迎,在线教育科研不限时间和地点灵活学习,充分提升自身的技能。相对于传统的使用固定教室更移动便捷化,在画面、音频更具视觉化和更具吸引力。
在相关技术中,对于学生的学习情况的观察和分析手段大多停留在人工实时查看教学视频流或回访在先课堂视频查看学生和老师的状态,来进行记录学生和老师的状态,或者通过学生端反馈信息判断教师的状态及教师的反馈判断学生在课堂中的学习情况,但判断学生和老师状态的时间比较滞后,获得的数据很少,评价结果比较主观。如何实时和准确的评估学生在课堂中的学习情况目前亟待解决的问题。
发明内容
本申请实施例提供了的学习情况的评估方法、装置、存储介质及终端,可以解决人工评估学生的学习情况造成的效率低和不客观的问题。所述技术方案如下:
第一方面,本申请实施例提供了一种学习情况的评估方法,所述方法包括:
获取课堂中的语音数据;
对所述语音数据进行文本转换得到文本数据;
确定所述文本数据中预设关键词的出现次数,以及提取所述语音数据的声学特征向量,根据预设的情感评估模型对所述声学特征向量进行评估以确定所述语音数据中预设感情类型的出现次数;
基于所述预设关键词的出现次数和所述语音数据中预设情感类型的出现次数评估所述课堂中学生的学习情况。
第二方面,本申请实施例提供了一种学习情况的评估装置,所述学习情况的评估装置包括:
获取单元,用于获取课堂中的语音数据;
转换单元,用于对所述语音数据进行文本转换得到文本数据;
确定单元,用于确定所述文本数据中预设关键词的出现次数,以及提取所述语音数据的声学特征向量,根据预设的情感评估模型对所述声学特征向量进行评估以确定所述语音数据中预设感情类型的出现次数;
评估单元,用于基于所述预设关键词的出现次数和所述语音数据中预设情感类型的出现次数评估所述课堂的学习情况。
第三方面,本申请实施例提供一种计算机存储介质,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行上述的方法步骤。
第四方面,本申请实施例提供一种电子设备,可包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行上述的方法步骤。
本申请一些实施例提供的技术方案带来的有益效果至少包括:
采集用户在课堂中的语音数据,以及解析语音数据的对话内容,判断语音数据的对话内容和语音数据的产生时间对应的教学信息是否匹配,在不匹配的情况下,显示不匹配的提示信息,这样自动对学生在课堂中错误的对话内容进行提示,辅助教师进行教学,提高授课效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种网络架构图;
图2是本申请实施例提供的学习情况的评估方法的流程示意图;
图3是本申请实施例提供的学习情况的评估方法的另一流程示意图;
图4是本申请实施例提供的学习情况的评估方法的另一流程示意图;
图5是本申请实施例提供的学习情况的评估方法的另一流程示意图;
图6是本申请实施例提供的一种装置的结构示意图;
图7是本申请实施例提供的一种装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。
图1示出了可以应用于本申请的学习情况的评估方法或学习情况的评估装置的示例性系统架构100。
如图1所示,系统架构100可以包括第一终端设备100、第一网络101、服务器102、第二网络103和第二终端设备104。第一网络104用于在第一终端设备101和服务器102之间提供通信链路的介质,第二网络103用于在第二终端设备104和服务器102之间提供通信链路的介质。第一网络101和第二网络103可以包括各种类型的有线通信链路或无线通信链路,例如:有线通信链路包括光纤、双绞线或同轴电缆的,无线通信链路包括蓝牙通信链路、无线保真(WIreless-FIdelity,Wi-Fi)通信链路或微波通信链路等。
第一终端设备100通过第一网络101、服务器102、第二网络103和第二终端设备104之间进行通信,第一终端设备100向服务器102发送消息,服务器102将消息转发给第二终端设备104,第二终端设备104将消息发送给服务器102,服务器102将消息转发给第二终端设备100,由此实现第一终端设备100和第二终端设备104之间的通信,第一终端设备100和第二终端设备104之间交互的消息类型包括控制数据和业务数据。
其中,在本申请中,第一终端设备100为学生上课的终端,第二终端设备104为教师上课的终端;或第一终端设备100为教师上课的终端,第二终端设备104为学生上课的终端。例如:业务数据为视频流,第一终端设备100通摄像头采集学生上课过程中的第一视频流,第二终端设备通过摄像头104采集教师上课过程中的第二视频流,第一终端设备100将第一视频流发送给服务器102,服务器102将第一视频流转发给第二终端设备104,第二终端设备104在界面上显示第一视频流和第二视频流;第二终端设备104将第二视频流发送给服务器102,服务器102将第二视频流转发给第一终端设备100,第一终端设备100显示第一视频流和第二视频流。
其中,本申请的上课方式可以是一对一或一对多,即一个教师对应一个学生或一个教师对应多个学生。相应的,在一对一的教学方式中,一个用于教师上课的终端和一个用于学生上课的终端之间进行通信;在一对多的教学方式中,一个用于教师上课的终端和多个用于学生上课的终端之间进行通信。
第一终端设备100和第二终端设备104上可以安装有各种通信客户端应用,例如:视频录制应用、视频播放应用、语音交互应用、搜索类应用、及时通信工具、邮箱客户端、社交平台软件等。
第一终端设备100和第二终端设备104可以是硬件,也可以是软件。当终端设备101~103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携式计算机和台式计算机等等。当第一终端设备100和第二终端设备104为软件时,可以是安装上上述所列举的电子设备中。其可以实现呈多个软件或软件模块(例如:用来提供分布式服务),也可以实现成单个软件或软件模块,在此不作具体限定。
当第一终端设备100和第二终端设备104为硬件时,其上还可以安装有显示设备和摄像头,显示设备显示可以是各种能实现显示功能的设备,摄像头用于采集视频流;例如:显示设备可以是阴极射线管显示器(cathode ray tubedisplay,简称CR)、发光二极管显示器(light-emitting diode display,简称LED)、电子墨水屏、液晶显示屏(liquid crystaldisplay,简称LCD)、等离子显示面板(plasma display panel,简称PDP)等。用户可以利用第一终端设备100和第二终端设备104上的显示设备,来查看显示的文字、图片、视频等信息。
需要说明的是,本申请实施例提供的学习情况的评估方法一般由服务器102执行,相应的,学习情况的评估装置一般设置于服务器102或终端设备中。
服务器102可以是提供各种服务的服务器,服务器102可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器102为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块,在此不做具体限定。
应理解,图1中的终端设备、网络和服务器的数目仅是示意性的。根据实现需要,可以是任意数量的终端设备、网络和服务器。
下面将结合附图2-附图6,对本申请实施例提供的学习情况的评估方法进行详细介绍。其中,本申请实施例中的学习情况的评估装置可以是图2-图5所示的电子设备。
请参见图2,为本申请实施例提供了一种学习情况的评估方法的流程示意图。如图2所示,本申请实施例的所述方法可以包括以下步骤:
S201、获取课堂中的语音数据。
其中,课堂表示学生和教师上课的场所,课堂可以是网络上的虚拟课堂,也可以是真实的课堂(即教室)。课堂预先配置有时间信息,课堂的时间信息可以使用开始时刻、持续时间和结束时刻中的一种或多种。学生在课堂中接收教师教授的教学信息,教学信息的类型可以是文本、图片、视频和音频中的一种或多种。
在一个或多个实施例中,课堂为真实的课堂,电子设备为终端设备,电子设备的音频采集装置设置在课堂中,音频采集装置采集课堂中教师和学生发出的语音,将振动形式的语音转换为模拟形式的语音信号,将模拟形式的语音信号进行预处理后转换为数字形式的语音数据。音频采集装置可以是单个麦克风,也可以是多个麦克风组成的麦克风阵列。预处理的过程包括滤波、放大、采样和格式转换等过程。课堂中的语音数据包括教师的语音数据和学生的语音数据,学生的数量可以是一个或多个。
在一个或多个实施例中,电子设备为服务器,课堂为在线教育平台创建的虚拟课堂,教学方式可以是一对一,也可以是一对多。学生使用第一终端设备接入到服务器,教师使用第二终端设备接入到服务器,服务器通过中转的方式实现第一终端设备和第二终端设备之间的视频通话和用户界面的显示。第一终端设备利用音频采集装置和图像采集装置采集第一视频流发送给服务器,第二终端设备利用音频采集装置和图像采集装置采集第二视频流发送给服务器,服务器可以基于第一视频流进行语音提取得到课堂的语音数据,该语音数据仅包含学生的语音数据;或服务器基于第二视频流进行语音提取得到课堂中的语音数据,该语音数据仅包含教师的语音数据;或服务器基于第一视频流和第二视频流进行语音提取得到课堂中的语音数据。
S202、对语音数据进行文本转换得到文本数据。
其中,电子设备利用语音文本转换(voice-to-text)将语音数据转换为文本数据,语音文本转换的过程可以基于卷积神经网络将语音数据转换为文本数据。文本数据的语言类型可以是中文、英文或其他类型的语言,本申请实施例不作限制。
S203、确定文本数据中预设关键词的出现次数,以及提取语音数据的声学特征向量,根据预设的情感评估模型对声学特征向量进行评估以确定所述语音数据中预设感情类型的出现次数。
其中,电子设备预存储或预配置有预设关键词,预设关键词的数量为一个或多个,电子设备预存储有预设情感类型,预设情感类型的数量可以是一个或多个,例如:预设情感类型为疑问和愤怒。电子设备统计文本数据中预设关键词的出现次数,以及语音数据中预设情感类型的出现次数。声学特征向量可以是梅尔频率倒谱(Mel-Frequency Cepstrum)。例如:通过预先训练的情感类型评估模型来识别语音分片的情感类型,语音分片对应一个完整的语句。
S204、基于预设关键词的出现次数和语音数据中预设情感类型的出现次数评估课堂中学生的学习情况。
其中,预设关键词和预设情感类型的出现次数越多,学生的学习情况越差;反之,预设关键词和预设情感类型的出现次数越少,学生在课堂中的学习情况越好。
在一个或多个实施例中,学生的学习情况分为正常和异常两个维度,在预设关键词的出现次数或预设情感类型的出现次数大于预设次数的情况下,确定学生的学习情况为异常;在预设关键词的出现次数和预设情感类型的出现次数都小于或等于预设次数的情况下,确定学生的学习情况为正常。
在一个或多个实施例中,使用量化的方式来评估学生在课堂中的学习情况,预设关键词或预设情感类型出现一次,在满分的基础上扣除预设分值,直到扣为0分,通过分值来量化的评估学生在课堂中的学习情况,分值越高表示学习情况越好,分值越低表示学习情况越差。
本申请实施例的方案在执行时,获取课堂中的语音数据,基于语音数据转换的文本数据中的预设关键词的出现次数,以及语音数据中预设感情的出现次数评估课堂中学生的学习情况,以便快速的掌握学生对课堂中所学知识点的掌握情况,避免相关技术中教师通过事后通过测试或主观评价来判断学习情况存在的滞后性和主观性的问题。本申请可以实现及时准确的评估学生在课堂中的学习情况,根据实时反馈的学习情况能实时的为后续的学习提供参考,及时改进教师的教学方法,提高学生学习的效率。
请参见图3,为本申请实施例提供了一种学习情况的评估方法的流程示意图。本实施例以学习情况的评估方法应用于电子设备中来举例说明,电子设备可以是服务器或终端设备。该学习情况的评估方法可以包括以下步骤:
S301、接收来自学生对应的第一终端设备在课堂中采集的第一视频流,以及接收来自教师对应的第二终端设备在课堂中采集的第二视频流,对第一视频流和第二视频流进行语音提取得到课堂中的语音数据。
其中,课堂是网络上的虚拟课堂,课堂为一个群组,课堂内的终端设备实现相互通信。课堂预先配置有时间信息,时间信息包括开始时刻、持续时间和结束时刻,在服务器在检测到到达课堂的开始时刻时,创建课堂,将第一终端设备和第二终端设备加入到课堂中,第一终端设备为学生使用的终端设备,第二终端设备为教师使用的终端设备。第一终端设备使用音频采集装置(例如:麦克风)和图像采集装置(例如:摄像头)进行视频采集得到第一视频流,第二终端设备使用音频采集装置和图像采集装置进行视频采集得到第二视频流,服务器将第一视频流和第二视频流进行合并得到上课视频流,在课堂结束时,提取上课视频流中的语音数据得到课堂的语音数据。
S302、对语音数据进行文本转换得到文本数据。
其中,电子设备利用语音文本转换将语音数据转换为文本数据,语音文本转换过程可以是基于卷积神经网络将语音数据转换为文本数据。文本数据的语言类型可以是中文、英文和其他类型的语言。例如:电子设备基于隐马尔可夫模型对语音数据进行转换得到英文的文本数据。
S303、确定语音数据的语言类型,以及确定与语言类型关联的预设关键词。
在一个或多个实施例中,电子设备确定语音数据的语音类型的方法包括:电子设备预先存储有课堂ID和语言类型信息之间的映射关系,在创建课堂时,电子设备获取课堂ID,根据映射查询查询课堂ID的语言类型信息,由此获知语音数据的语音类型。
在一个或多个实施例中,电子设备确定语音数据的语音类型的方法包括:
基于语言类型识别模型识别语音数据的语音类型,语言类型识别模型是一种机器学习模型,语言类型识别模型是预先通过训练样本训练得到的。
其中,电子设备预存储或预配置有语言类型和预设关键词之间的映射关系,电子设备根据确定的语言类型查询对应的预设关键词,预设关键词的数量可以是一个或多个。
例如:语音数据的语音类型为英文,预设关键词为“say it again”、“pardon”和“excuse me”。
S304、统计文本数据中预设关键词的出现次数。
其中,服务器采用遍历的方式统计文本数据中预设关键词的出现次数,每检索到一个关键词,出现次数加1,直到完成文本数据的检索。
S305、基于语句将语音数据划分为多个语音片段。
其中,服务器基于语句将语音数据划分为多个语音片段,每个语音片段对应一个完整的语句。例如:语音数据对应的文本数据为:“What can I do for you?I want to buya skirt for my daughter.”,文本数据中包含两个语句,电子设备将语音数据分别为两个语音片段,语音片段1对应的语句为:“What can I do for you?”,语音片段2对应的语句为:“I want to buy a skirt formy daughter”。进一步的,电子设备还可以识别出每个语句的用户身份,即该语句是教师发出的还是学生发出的,识别语句的用户身份的方法可以采用声音模板或声纹识别模型来识别,本申请实施例不作限制。
S306、基于情感评估模型对每个语音片段进行情感评估得到情感类型。
其中,情感评估模型是一种机器学习模型,利用训练样本进行训练得到的,预先划分为多个情感类型,多个情感类型的划分方法本申请实施例不作限制,多个情感类型包括疑问和愤怒。基于情感评估模型对每个语音片段进行情感评估得到的情感类型是多个情感类型中的一个。多个情感类型可以使用不同的取值区间来区分。
S307、统计多个语音片段中预设情感类型的出现次数。
其中,电子设备预存储有预设情感类型,电子设备获取多个语音片段对应的情感类型,统计预设情感类型的出现次数,例如:预设情感类型包括愤怒和疑问,电子设备统计多个语音片段各自对应的情感类型中愤怒和疑问的出现次数。
S308、判断预设关键词的出现次数和预设情感类型的出现次数是否都小于预设次数。
其中,电子设备预存储和与配置有预设次数,电子设备判断预设关键词的出现次数和预设情感类型的出现次数,若预设关键词的出现次数和预设情感类型的出现次数都小于预设次数,执行S309;若不满足预设关键词的出现次数和预设情感类型的出现次数都小于预设次数的条件,则执行S310;即预设关键词的出现次数和预设情感类型的出现次数中任意一个大于预设次数,则执行是310。预设次数的大小可以根据实际需求而定,本申请实施例不作限制。
S309、生成表示学生在课堂中的学习情况正常的提示信息。
其中,电子设备可以向第一终端设备和/或第二终端设备发送该提示信息,该提示信息表示学生在课堂中的学习情况正常,该学习情况是指课堂中所有学生的学习情况,学习情况表示学生对课堂中所学知识点的掌握情况。
S310、生成表示学生在课堂中的学习情况异常的提示信息。
其中,电子设备可以向第一终端设备和/或第二终端设备发送该提示信息,该提示信息表示学生在课堂中的学习情况是正常的。
实施本申请的实施例,获取课堂中的教师和学生的语音数据,基于语音数据转换的文本数据中的预设关键词的出现次数,以及语音数据中预设感情的出现次数评估课堂中学生的学习情况,以便快速的掌握学生对课堂中所学知识点的掌握情况,避免相关技术中教师通过事后通过测试或主观评价来判断学习情况存在的滞后性和主观性的问题。本申请可以实现及时准确的评估学生在课堂中的学习情况,根据实时反馈的学习情况能实时的为后续的学习提供参考,及时改进教师的教学方法,提高学生学习的效率。
参见图4,为本申请实施例提供的一种学习情况的评估方法的流程示意图。如图4所示,本申请实施例的所述方法可以包括以下步骤:
S401、接收来自学生对应的第一终端设备在课堂中采集的第一视频流,以及对第一视频流进行语音提取得到课堂中的语音数据。
其中,第一终端设备和第二终端设备是课堂中的终端设备,课堂是一个群组,群组内的终端设备可以实现相互通信。课堂配置有时间信息,时间信息包括开始时刻,持续时间和结束时刻。服务器在检测到到达课堂的开始时刻时,创建课堂,将第一终端设备和第二终端设备加入到课堂中,第一终端设备为学生使用的终端设备,第二终端设备为教师使用的终端设备。第一终端设备使用音频采集装置和图像采集装置进行视频采集得到第一视频流,第一视频流为学生的视频流,第一终端设备将第一视频流发送给服务器,服务器在课堂结束时,提取第一视频流中的语音数据得到课堂的语音数据,即该语音数据仅为学生的语音数据。
S402、获取学生的年龄。
其中,获取学生年龄的方法可以是,根据学生的登录信息获取预先注册的年龄信息,根据年龄信息获取学生的年龄;或在第一终端设备的显示对话框,提示学生输入年龄,接收学生输入的年龄来获知学生的年龄。
S403、根据学生的年龄在预设的多个文本转换模型中选择对应的目标文本转换模型
其中,电子设备预预设有多个文本转换模型,不同的文本转换模型对应不同的年龄段,每个文本转换模型是某个年龄段的训练样本训练得到的,本申请对年龄段的划分可以根据实际需求而定,例如:预先划分为3个年龄段,6岁以下的幼儿组,6岁~14岁的青少年组和14岁以上的成人组,分别使用训练样本集合1进行模型训练得到文本转换模型1,训练样本集合2中的训练样本对应的年龄为6周岁以下;使用训练样本集合2进行模型训练得到文本转换模型2,训练样本集合2中的训练样本对应的年龄为6岁~14岁;使用训练样本集合3进行模型训练得到文本转换模型3,训练样本集合3中的训练样本对应的年龄为14岁以上。假设学生的年龄为10岁,电子设备从上述的3个文本转换模型中选择文本转换模型2作为目标文本转换模型。
S404、基于目标文本转换模型对语音数据进行文本转换得到文本数据。
其中,目标文本转换模型为一种机器学习模型,目标文本转换模型用于将语音数据转换为文本数据。
S405、确定语音数据的语言类型,以及确定语言类型关联的预设关键词。
在一个或多个实施例中,电子设备确定语音数据的语音类型的方法包括:电子设备预先存储有课堂ID和语言类型信息之间的映射关系,在创建课堂时,电子设备获取课堂ID,根据映射查询查询课堂ID的语言类型信息,由此获知语音数据的语音类型。
在一个或多个实施例中,电子设备确定语音数据的语音类型的方法包括:
基于语言类型识别模型识别语音数据的语音类型,语言类型识别模型是一种机器学习模型,语言类型识别模型是预先通过训练样本训练得到的。
其中,电子设备预存储或预配置有语言类型和预设关键词之间的映射关系,电子设备根据确定的语言类型查询对应的预设关键词,预设关键词的数量可以是一个或多个。
例如:语音数据的语音类型为英文,预设关键词为“say it again”、“pardon”和“excuse me”。
S406、统计文本数据中预设关键词的出现次数。
其中,服务器采用遍历的方式统计文本数据中预设关键词的出现次数,每检索到一个关键词,出现次数加1,直到完成文本数据的检索。
S407、基于语句将语音数据划分为多个语音片段。
其中,服务器基于语句将语音数据划分为多个语音片段,每个语音片段对应一个完整的语句。例如:语音数据对应的文本数据为:“What can I do for you?I want to buya skirt for my daughter.”,文本数据中包含两个语句,电子设备将语音数据分别为两个语音片段,语音片段1对应的语句为:“What can I do for you?”,语音片段2对应的语句为:“I want to buy a skirt for my daughter”。进一步的,电子设备还可以识别出每个语句的用户身份,即该语句是教师发出的还是学生发出的,识别语句的用户身份的方法可以采用声音模板或声纹识别模型来识别,本申请实施例不作限制。
S408、基于情感评估模型对每个语音片段进行情感评估得到情感类型。
其中,情感评估模型是一种机器学习模型,利用训练样本进行训练得到的,预先划分为多个情感类型,多个情感类型的划分方法本申请实施例不作限制,多个情感类型包括疑问和愤怒。基于情感评估模型对每个语音片段进行情感评估得到的情感类型是多个情感类型中的一个。多个情感类型可以使用不同的取值区间来区分。
S409、统计多个语音片段中预设情感类型的出现次数。
其中,电子设备预存储有预设情感类型,电子设备获取多个语音片段对应的情感类型,统计预设情感类型的出现次数,例如:预设情感类型包括愤怒和疑问,电子设备统计多个语音片段各自对应的情感类型中愤怒和疑问的出现次数。
S410、基于预设关键词的出现次数和预设情感类型确定课堂中学生的最终得分值。
其中,最终得分值最大表示学生的学习情况越高,反之最终的分值越小表示学生的学习情况越差,本申请实施例可以根据以下公式确定所述课堂中所述学生的最终得分值:
S=A-(B1+B2)×m;
其中,S表示表示课堂的学习情况的最终得分值,A表示预设的满分值,B1为所述预设关键词的出现次数,B1为所述预设情感类型的出现次数,m为预设的常数值,m为大于0的整数。
例如:m为10分,预设关键词的查询次数为1次,预设情感类型的出现次数为2次,满分值为100分,那么学生的最终得分值为100-(1+2)×10=70分。
实施本申请的实施例,获取课堂中学生的语音数据,基于语音数据转换的文本数据中的预设关键词的出现次数,以及语音数据中预设感情的出现次数评估课堂中学生的学习情况,以便快速的掌握学生对课堂中所学知识点的掌握情况,避免相关技术中教师通过事后通过测试或主观评价来判断学习情况存在的滞后性和主观性的问题。本申请可以实现及时准确的评估学生在课堂中的学习情况,根据实时反馈的学习情况能实时的为后续的学习提供参考,及时改进教师的教学方法,提高学生学习的效率。
参见图5,为本申请实施例提供的一种学习情况的评估方法的又一流程示意图,在本申请实施例的所述方法可以包括如下步骤:
S501、接收来自教师对应的第二终端设备的课堂中采集的第二视频流,以及对第二视频流进行语音提取得到课堂中的语音数据。
其中,第一终端设备和第二终端设备是课堂中的终端设备,课堂是一个群组,群组内的终端设备可以实现相互通信。课堂配置有时间信息,时间信息包括开始时刻,持续时间和结束时刻。服务器在检测到到达课堂的开始时刻时,创建课堂,将第一终端设备和第二终端设备加入到课堂中,第一终端设备为学生使用的终端设备,第二终端设备为教师使用的终端设备。第二终端设备使用音频采集装置和图像采集装置进行视频采集得到第二视频流,第二视频流为教师的视频流,第二终端设备将第二视频流发送给服务器,服务器在课堂结束时,提取第二视频流中的语音数据得到课堂的语音数据,即该语音数据仅为教师的语音数据。
S502、获取教师的年龄。
其中,获取教师年龄的方法可以是,根据教师的登录信息获取预先注册的年龄信息,根据年龄信息获取教师的年龄;或在第二终端设备的显示对话框,提示教师输入年龄,接收教师输入的年龄来获知教师的年龄。
S503、根据教师的年龄在预设的多个文本转换模型中选择对应的目标文本转换模型。
其中,S503具体过程可参照S403的描述,此处不再赘述。
S504、基于目标文本转换模型对语音数据进行文本转换得到文本数据。
其中,S504的具体过程可参照S404的描述,此处不再赘述。
S505、确定语音数据的语言类型,以及确定与语音类型关联的预设关键词。
其中,S505的具体过程可参照S405的描述,此处不再赘述。
S506、统计文本数据中预设关键词的出现次数。
其中,S506的具体过程可参照S406的描述,此处不再赘述。
S507、基于语句将语音数据划分为多个语音片段。
其中,S507的具体过程可参照S407的描述,此处不再赘述。
S508、基于情感评估模型对每个语音片段进行情感评估得到情感类型。
其中,S508的具体过程可参照S408的描述,此处不再赘述。
S509、统计多个语音片段中预设情感类型的出现次数。
其中,S509的具体过程可参照S409的描述,此处不再赘述。
S510、基于预设关键词的出现次数和预设情感类型确定课堂中学生的最终得分值。
其中,S510的具体过程可参照S410的描述,此处不再赘述。
实施本申请的实施例,获取课堂中教师的语音数据,基于语音数据转换的文本数据中的预设关键词的出现次数,以及语音数据中预设感情的出现次数评估课堂中学生的学习情况,以便快速的掌握学生对课堂中所学知识点的掌握情况,避免相关技术中教师通过事后通过测试或主观评价来判断学习情况存在的滞后性和主观性的问题。本申请可以实现及时准确的评估学生在课堂中的学习情况,根据实时反馈的学习情况能实时的为后续的学习提供参考,及时改进教师的教学方法,提高学生学习的效率。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参见图6,其示出了本申请一个示例性实施例提供的学习情况的评估装置的结构示意图。以下简称装置6,装置6可以通过软件、硬件或者两者的结合实现成为终端的全部或一部分。装置6包括:获取单元601、转换单元602、确定单元603和评估单元604。
获取单元601,用于获取课堂中的语音数据。
转换单元602,用于对所述语音数据进行文本转换得到文本数据。
确定单元603,用于提取所述语音数据的声学特征向量,根据预设的情感评估模型对所述声学特征向量进行评估以确定所述语音数据中预设感情类型的出现次数。
评估单元604,用于基于所述预设关键词的出现次数和所述语音数据中预设情感类型的出现次数评估所述课堂中学生的学习情况。
在一个或多个实施例中,获取单元601具体用于:
接收来自所述学生对应的第一终端设备在所述课堂中采集的第一视频流,以及接收来自教师对应的第二终端设备在所述课堂中采集的第二视频流,对所述第一视频流和所述第二视频流进行语音提取得到所述课堂中的语音数据。
接收来自所述学生对应的第一终端设备在所述课堂中采集的第一视频流,以及在第一视频流进行语音提取得到所述课堂中的语音数据;或
接收来自教师对应的第二终端设备在所述课堂中采集的第二视频流,以及在所述第二视频流进行语音提取得到所述课堂中的语音数据。
在一个或多个实施例中,转换单元602具体用于:
在所述语音数据只包括单个用户的的语音数据时,获取所述用户的年龄;其中,所述用户为所述学习或所述教师;
根据所述用户的年龄在预设的多个文本转换模型中选择对应的目标文本转换模型;
基于所述目标文本转换模型对所述语音数据进行文本转换得到文本数据。
在一个或多个实施例中,所述确定所述文本数据中预设关键词的出现次数,包括:
确定所述语音数据的语言类型,以及确定与所述语言类型关联的预设关键词;
统计所述文本数据中所述预设关键词的出现次数。
在一个或多个实施例中,所述确定所述语音数据中预设感情的出现次数,包括:
基于语句将所述语音数据划分为多个语音片段;其中,每个语音片段对应一个语句;
基于情感评估模型对每个语音片段进行情感评估得到情感类型;
统计所述多个语音片段中预设情感类型的出现次数。
在一个或多个实施例中,评估单元604具体用于:
根据以下公式确定所述课堂中所述学生的最终得分值:
S=A-(B1+B2)×m;
其中,S表示表示课堂的学习情况的最终得分值,A表示预设的满分值,B1为所述预设关键词的出现次数,B1为所述预设情感类型的出现次数,m为预设的常数值,m为大于0的整数。
在一个或多个实施例中,评估单元604具体用于:
判断所述预设关键词的出现次数和所述预设情感类型的出现次数是否都小于预设次数;
若为是,生成表示所述学生在所述课堂中的学习情况正常的提示信息;
若为否,生成表示所述学生在所述课堂中的学习情况异常的提示信息。
需要说明的是,上述实施例提供的装置6在执行学习情况的评估方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的学习情况的评估方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本申请的装置6获取课堂中教师的语音数据,基于语音数据转换的文本数据中的预设关键词的出现次数,以及语音数据中预设感情的出现次数评估课堂中学生的学习情况,以便快速的掌握学生对课堂中所学知识点的掌握情况,避免相关技术中教师通过事后通过测试或主观评价来判断学习情况存在的滞后性和主观性的问题。本申请可以实现及时准确的评估学生在课堂中的学习情况,根据实时反馈的学习情况能实时的为后续的学习提供参考,及时改进教师的教学方法,提高学生学习的效率。
本申请实施例还提供了一种计算机存储介质,所述计算机存储介质可以存储有多条指令,所述指令适于由处理器加载并执行如上述图2-图5所示实施例的方法步骤,具体执行过程可以参见图2-图5所示实施例的具体说明,在此不进行赘述。
本申请还提供了一种计算机程序产品,该计算机程序产品存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现如上各个实施例所述的学习情况的评估方法。
图7为本申请实施例提供的一种学习情况的评估装置结构示意图,以下简称装置7,装置7可以集成于前述服务器或终端设备中,如图7所示,该装置包括:存储器702、处理器701、输入装置703、输出装置704和通信接口。
存储器702可以是独立的物理单元,与处理器701、输入装置703和输出装置704可以通过总线连接。存储器702、处理器701、输入装置703和输出装置704也可以集成在一起,通过硬件实现等。
存储器702用于存储实现以上方法实施例,或者装置实施例各个模块的程序,处理器701调用该程序,执行以上方法实施例的操作。
输入装置702包括但不限于键盘、鼠标、触摸面板、摄像头和麦克风;输出装置包括但限于显示屏。
通信接口用于收发各种类型的消息,通信接口包括但不限于无线接口或有线接口。
可选地,当上述实施例的分布式任务调度方法中的部分或全部通过软件实现时,装置也可以只包括处理器。用于存储程序的存储器位于装置之外,处理器通过电路/电线与存储器连接,用于读取并执行存储器中存储的程序。
处理器可以是中央处理器(central processing unit,CPU),网络处理器(network processor,NP)或者CPU和NP的组合。
处理器还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,ASIC),可编程逻辑器件(programmablelogic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complexprogrammable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gatearray,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。
存储器可以包括易失性存储器(volatile memory),例如存取存储器(random-access memory,RAM);存储器也可以包括非易失性存储器(non-volatile memory),例如快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD);存储器还可以包括上述种类的存储器的组合。
其中,处理器701调用存储器702中的程序代码用于执行以下步骤:
获取课堂中的语音数据;
对所述语音数据进行文本转换得到文本数据;
提取所述语音数据的声学特征向量,根据预设的情感评估模型对所述声学特征向量进行评估以确定所述语音数据中预设感情类型的出现次数;
基于所述预设关键词的出现次数和所述语音数据中预设情感类型的出现次数评估所述课堂中学生的学习情况。
在一个或多个实施例中,处理器701执行所述获取课堂中的语音数据,包括:
通过通信接口接收来自所述学生对应的第一终端设备在所述课堂中采集的第一视频流,以及接收来自教师对应的第二终端设备在所述课堂中采集的第二视频流,对所述第一视频流和所述第二视频流进行语音提取得到所述课堂中的语音数据。
通过通信接口接收来自所述学生对应的第一终端设备在所述课堂中采集的第一视频流,以及在第一视频流进行语音提取得到所述课堂中的语音数据;或
通过通信接口接收来自教师对应的第二终端设备在所述课堂中采集的第二视频流,以及在所述第二视频流进行语音提取得到所述课堂中的语音数据。
在一个或多个实施例中,处理器701执行所述对所述语音数据进行文本转换得到文本数据,包括:
在所述语音数据只包括单个用户的的语音数据时,获取所述用户的年龄;其中,所述用户为所述学习或所述教师;
根据所述用户的年龄在预设的多个文本转换模型中选择对应的目标文本转换模型;
基于所述目标文本转换模型对所述语音数据进行文本转换得到文本数据。
在一个或多个实施例中,处理器701执行所述确定所述文本数据中预设关键词的出现次数,包括:
确定所述语音数据的语言类型,以及确定与所述语言类型关联的预设关键词;
统计所述文本数据中所述预设关键词的出现次数。
在一个或多个实施例中,处理器701执行所述确定所述语音数据中预设感情的出现次数,包括:
基于语句将所述语音数据划分为多个语音片段;其中,每个语音片段对应一个语句;
基于情感评估模型对每个语音片段进行情感评估得到情感类型;
统计所述多个语音片段中预设情感类型的出现次数。
在一个或多个实施例中,处理器701执行所述基于所述预设关键词的出现次数和/或所述语音数据中预设情感类型的出现次数生成学习状况信息,包括:
根据以下公式确定所述课堂中所述学生的最终得分值:
S=A-(B1+B2)×m;
其中,S表示表示课堂的学习情况的最终得分值,A表示预设的满分值,B1为所述预设关键词的出现次数,B1为所述预设情感类型的出现次数,m为预设的常数值,m为大于0的整数。
在一个或多个实施例中,处理器701执行所述基于所述预设关键词的出现次数和/或所述语音数据中预设情感类型的出现次数生成学习状况信息,包括:
判断所述预设关键词的出现次数和所述预设情感类型的出现次数是否都小于预设次数;
若为是,生成表示所述学生在所述课堂中的学习情况正常的提示信息;
若为否,生成表示所述学生在所述课堂中的学习情况异常的提示信息。
本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例提供的学习情况的评估方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
Claims (10)
1.一种学习情况的评估方法,其特征在于,所述方法包括:
获取课堂中的语音数据;
对所述语音数据进行文本转换得到文本数据;
确定所述文本数据中预设关键词的出现次数,以及提取所述语音数据的声学特征向量,根据预设的情感评估模型对所述声学特征向量进行评估以确定所述语音数据中预设感情类型的出现次数;
基于所述预设关键词的出现次数和所述语音数据中预设情感类型的出现次数评估所述课堂中学生的学习情况。
2.根据权利要求1所述的方法,其特征在于,所述获取课堂中的语音数据,包括:
接收来自所述学生对应的第一终端设备在所述课堂中采集的第一视频流,以及接收来自教师对应的第二终端设备在所述课堂中采集的第二视频流,对所述第一视频流和所述第二视频流进行语音提取得到所述课堂中的语音数据。
接收来自所述学生对应的第一终端设备在所述课堂中采集的第一视频流,以及在第一视频流进行语音提取得到所述课堂中的语音数据;或
接收来自教师对应的第二终端设备在所述课堂中采集的第二视频流,以及在所述第二视频流进行语音提取得到所述课堂中的语音数据。
3.根据权利要求1或2所述的方法,其特征在于,所述对所述语音数据进行文本转换得到文本数据,包括:
在所述语音数据只包括单个用户的语音数据时,获取所述用户的年龄;其中,所述用户为所述学生或所述教师;
根据所述用户的年龄在预设的多个文本转换模型中选择对应的目标文本转换模型;
基于所述目标文本转换模型对所述语音数据进行文本转换得到文本数据。
4.根据权利要求3所述的方法,其特征在于,所述确定所述文本数据中预设关键词的出现次数,包括:
确定所述语音数据的语言类型,以及确定与所述语言类型关联的预设关键词;
统计所述文本数据中所述预设关键词的出现次数。
5.根据权利要求4所述的方法,其特征在于,所述确提取所述语音数据的声学特征向量,根据预设的情感评估模型对所述声学特征向量进行评估以确定所述语音数据中预设感情类型的出现次数,包括:
基于语句将所述语音数据划分为多个语音片段;其中,每个语音片段对应一个语句;
提取各个语音片段的声学特征向量;
基于情感评估模型对每个语音片段的声学特征向量进行情感评估得到情感类型;
统计所述多个语音片段中预设情感类型的出现次数。
6.根据权利要求3所述的方法,其特征在于,所述基于所述预设关键词的出现次数和所述语音数据中预设情感类型的出现次数评估所述课堂中学生的学习情况,包括:
根据以下公式确定所述课堂中所述学生的最终得分值:
S=A-(B1+B2)×m;
其中,S表示表示课堂的学习情况的最终得分值,A表示预设的满分值,B1为所述预设关键词的出现次数,B1为所述预设情感类型的出现次数,m为预设的常数值,m为大于0的整数。
7.根据权利要求4或5所述的方法,其特征在于,所述基于所述预设关键词的出现次数和/或所述语音数据中预设情感类型的出现次数生成学习状况信息,包括:
判断所述预设关键词的出现次数和所述预设情感类型的出现次数是否都小于预设次数;
若为是,生成表示所述学生在所述课堂中的学习情况正常的提示信息;
若为否,生成表示所述学生在所述课堂中的学习情况异常的提示信息。
8.一种学习情况的评估装置,其特征在于,所述装置包括:
获取单元,用于获取课堂中的语音数据;
转换单元,用于对所述语音数据进行文本转换得到文本数据;
确定单元,用于确定所述文本数据中预设关键词的出现次数,以及提取所述语音数据的声学特征向量,根据预设的情感评估模型对所述声学特征向量进行评估以确定所述语音数据中预设感情类型的出现次数;
评估单元,用于基于所述预设关键词的出现次数和所述语音数据中预设情感类型的出现次数评估所述课堂的学习情况。
9.一种计算机存储介质,其特征在于,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行如权利要求1~7任意一项的方法步骤。
10.一种电子设备,其特征在于,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如权利要求1~7任意一项的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910792559.5A CN110600033B (zh) | 2019-08-26 | 2019-08-26 | 学习情况的评估方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910792559.5A CN110600033B (zh) | 2019-08-26 | 2019-08-26 | 学习情况的评估方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110600033A true CN110600033A (zh) | 2019-12-20 |
CN110600033B CN110600033B (zh) | 2022-04-05 |
Family
ID=68855741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910792559.5A Active CN110600033B (zh) | 2019-08-26 | 2019-08-26 | 学习情况的评估方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110600033B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111144735A (zh) * | 2019-12-23 | 2020-05-12 | 北京欧珀通信有限公司 | 一种数据处理方法、装置、电子设备及存储介质 |
CN111598746A (zh) * | 2020-04-15 | 2020-08-28 | 北京大米科技有限公司 | 教学交互控制方法、装置、终端及存储介质 |
CN111681143A (zh) * | 2020-04-27 | 2020-09-18 | 平安国际智慧城市科技股份有限公司 | 基于课堂语音的多维度分析方法、装置、设备及存储介质 |
CN112331211A (zh) * | 2021-01-06 | 2021-02-05 | 北京世纪好未来教育科技有限公司 | 学情信息获取方法、装置、设备和存储介质 |
CN113673811A (zh) * | 2021-07-05 | 2021-11-19 | 北京师范大学 | 一种基于session的在线学习绩效评估方法及装置 |
CN114743274A (zh) * | 2022-06-09 | 2022-07-12 | 深圳市纬亚森科技有限公司 | 基于物联网的多媒体远程教学管理系统及方法 |
CN115240263A (zh) * | 2022-09-15 | 2022-10-25 | 深圳市企鹅网络科技有限公司 | 一种线上学习有效性判断方法、系统及介质 |
Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN201689416U (zh) * | 2009-09-24 | 2010-12-29 | 陈洁 | 教学自动监控系统 |
US20130283303A1 (en) * | 2012-04-23 | 2013-10-24 | Electronics And Telecommunications Research Institute | Apparatus and method for recommending content based on user's emotion |
CN104572877A (zh) * | 2014-12-22 | 2015-04-29 | 网易(杭州)网络有限公司 | 游戏舆情的检测方法及系统 |
CN105609117A (zh) * | 2016-02-19 | 2016-05-25 | 郑洪亮 | 一种识别语音情感的装置和方法 |
WO2016182393A1 (ko) * | 2015-05-13 | 2016-11-17 | 삼성전자 주식회사 | 사용자의 감성을 분석하는 방법 및 디바이스 |
CN106851216A (zh) * | 2017-03-10 | 2017-06-13 | 山东师范大学 | 一种基于人脸和语音识别的课堂行为监控系统及方法 |
US20170169008A1 (en) * | 2015-12-15 | 2017-06-15 | Le Holdings (Beijing) Co., Ltd. | Method and electronic device for sentiment classification |
CN107507612A (zh) * | 2017-06-30 | 2017-12-22 | 百度在线网络技术(北京)有限公司 | 一种声纹识别方法及装置 |
CN107704996A (zh) * | 2017-09-12 | 2018-02-16 | 青岛大学 | 一种基于情感分析的教师评价系统 |
CN107945790A (zh) * | 2018-01-03 | 2018-04-20 | 京东方科技集团股份有限公司 | 一种情感识别方法和情感识别系统 |
CN108154304A (zh) * | 2017-12-26 | 2018-06-12 | 重庆大争科技有限公司 | 具有教学质量评估功能的服务器 |
CN108281052A (zh) * | 2018-02-09 | 2018-07-13 | 郑州市第十中学 | 一种在线教学系统及在线教学方法 |
CN108305623A (zh) * | 2018-01-15 | 2018-07-20 | 珠海格力电器股份有限公司 | 电器控制方法及装置 |
CN108595406A (zh) * | 2018-01-04 | 2018-09-28 | 广东小天才科技有限公司 | 一种用户状态的提醒方法、装置、电子设备及存储介质 |
CN108647211A (zh) * | 2018-05-17 | 2018-10-12 | 宁波薄言信息技术有限公司 | 一种儿童学习内容的推送方法 |
CN108898115A (zh) * | 2018-07-03 | 2018-11-27 | 北京大米科技有限公司 | 数据处理方法、存储介质和电子设备 |
CN109448699A (zh) * | 2018-12-15 | 2019-03-08 | 深圳壹账通智能科技有限公司 | 语音转换文本方法、装置、计算机设备及存储介质 |
CN109545218A (zh) * | 2019-01-08 | 2019-03-29 | 广东小天才科技有限公司 | 一种语音识别方法及系统 |
CN109817213A (zh) * | 2019-03-11 | 2019-05-28 | 腾讯科技(深圳)有限公司 | 用于自适应语种进行语音识别的方法、装置及设备 |
CN110136543A (zh) * | 2019-04-26 | 2019-08-16 | 北京大米科技有限公司 | 在线教学互动方法、相关设备、存储介质以及系统 |
-
2019
- 2019-08-26 CN CN201910792559.5A patent/CN110600033B/zh active Active
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN201689416U (zh) * | 2009-09-24 | 2010-12-29 | 陈洁 | 教学自动监控系统 |
US20130283303A1 (en) * | 2012-04-23 | 2013-10-24 | Electronics And Telecommunications Research Institute | Apparatus and method for recommending content based on user's emotion |
CN104572877A (zh) * | 2014-12-22 | 2015-04-29 | 网易(杭州)网络有限公司 | 游戏舆情的检测方法及系统 |
WO2016182393A1 (ko) * | 2015-05-13 | 2016-11-17 | 삼성전자 주식회사 | 사용자의 감성을 분석하는 방법 및 디바이스 |
US20170169008A1 (en) * | 2015-12-15 | 2017-06-15 | Le Holdings (Beijing) Co., Ltd. | Method and electronic device for sentiment classification |
CN105609117A (zh) * | 2016-02-19 | 2016-05-25 | 郑洪亮 | 一种识别语音情感的装置和方法 |
CN106851216A (zh) * | 2017-03-10 | 2017-06-13 | 山东师范大学 | 一种基于人脸和语音识别的课堂行为监控系统及方法 |
CN107507612A (zh) * | 2017-06-30 | 2017-12-22 | 百度在线网络技术(北京)有限公司 | 一种声纹识别方法及装置 |
CN107704996A (zh) * | 2017-09-12 | 2018-02-16 | 青岛大学 | 一种基于情感分析的教师评价系统 |
CN108154304A (zh) * | 2017-12-26 | 2018-06-12 | 重庆大争科技有限公司 | 具有教学质量评估功能的服务器 |
CN107945790A (zh) * | 2018-01-03 | 2018-04-20 | 京东方科技集团股份有限公司 | 一种情感识别方法和情感识别系统 |
CN108595406A (zh) * | 2018-01-04 | 2018-09-28 | 广东小天才科技有限公司 | 一种用户状态的提醒方法、装置、电子设备及存储介质 |
CN108305623A (zh) * | 2018-01-15 | 2018-07-20 | 珠海格力电器股份有限公司 | 电器控制方法及装置 |
CN108281052A (zh) * | 2018-02-09 | 2018-07-13 | 郑州市第十中学 | 一种在线教学系统及在线教学方法 |
CN108647211A (zh) * | 2018-05-17 | 2018-10-12 | 宁波薄言信息技术有限公司 | 一种儿童学习内容的推送方法 |
CN108898115A (zh) * | 2018-07-03 | 2018-11-27 | 北京大米科技有限公司 | 数据处理方法、存储介质和电子设备 |
CN109448699A (zh) * | 2018-12-15 | 2019-03-08 | 深圳壹账通智能科技有限公司 | 语音转换文本方法、装置、计算机设备及存储介质 |
CN109545218A (zh) * | 2019-01-08 | 2019-03-29 | 广东小天才科技有限公司 | 一种语音识别方法及系统 |
CN109817213A (zh) * | 2019-03-11 | 2019-05-28 | 腾讯科技(深圳)有限公司 | 用于自适应语种进行语音识别的方法、装置及设备 |
CN110136543A (zh) * | 2019-04-26 | 2019-08-16 | 北京大米科技有限公司 | 在线教学互动方法、相关设备、存储介质以及系统 |
Non-Patent Citations (2)
Title |
---|
OUSSAMA EL HAMMOUMI ET AL: "Emotion Recognition in E-learning Systems", 《2018 6TH INTERNATIONAL CONFERENCE ON MULTIMEDIA COMPUTING AND SYSTEMS (ICMCS)》 * |
郝鹃等: "在线学习系统课程评价的情感分析研究", 《信息通信》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111144735A (zh) * | 2019-12-23 | 2020-05-12 | 北京欧珀通信有限公司 | 一种数据处理方法、装置、电子设备及存储介质 |
CN111144735B (zh) * | 2019-12-23 | 2023-08-04 | 北京欧珀通信有限公司 | 一种数据处理方法、装置、电子设备及存储介质 |
CN111598746A (zh) * | 2020-04-15 | 2020-08-28 | 北京大米科技有限公司 | 教学交互控制方法、装置、终端及存储介质 |
CN111681143A (zh) * | 2020-04-27 | 2020-09-18 | 平安国际智慧城市科技股份有限公司 | 基于课堂语音的多维度分析方法、装置、设备及存储介质 |
CN112331211A (zh) * | 2021-01-06 | 2021-02-05 | 北京世纪好未来教育科技有限公司 | 学情信息获取方法、装置、设备和存储介质 |
CN112331211B (zh) * | 2021-01-06 | 2021-05-07 | 北京世纪好未来教育科技有限公司 | 学情信息获取方法、装置、设备和存储介质 |
CN113673811A (zh) * | 2021-07-05 | 2021-11-19 | 北京师范大学 | 一种基于session的在线学习绩效评估方法及装置 |
CN113673811B (zh) * | 2021-07-05 | 2023-06-27 | 北京师范大学 | 一种基于session的在线学习绩效评估方法及装置 |
CN114743274A (zh) * | 2022-06-09 | 2022-07-12 | 深圳市纬亚森科技有限公司 | 基于物联网的多媒体远程教学管理系统及方法 |
CN115240263A (zh) * | 2022-09-15 | 2022-10-25 | 深圳市企鹅网络科技有限公司 | 一种线上学习有效性判断方法、系统及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110600033B (zh) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110600033B (zh) | 学习情况的评估方法、装置、存储介质及电子设备 | |
CN110033659B (zh) | 一种远程教学互动方法、服务器、终端以及系统 | |
CN109348275B (zh) | 视频处理方法和装置 | |
CN109360550B (zh) | 语音交互系统的测试方法、装置、设备和存储介质 | |
CN111651497B (zh) | 用户标签挖掘方法、装置、存储介质及电子设备 | |
CN107992195A (zh) | 一种教学内容的处理方法、装置、服务器及存储介质 | |
CN107133303A (zh) | 用于输出信息的方法和装置 | |
JP2017016566A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN110797010A (zh) | 基于人工智能的问答评分方法、装置、设备及存储介质 | |
CN106558252B (zh) | 由计算机实现的口语练习方法及装置 | |
CN110880324A (zh) | 语音数据的处理方法、装置、存储介质及电子设备 | |
US20240070397A1 (en) | Human-computer interaction method, apparatus and system, electronic device and computer medium | |
CN109256133A (zh) | 一种语音交互方法、装置、设备及存储介质 | |
CN110491369A (zh) | 口语等级的评估方法、装置、存储介质及电子设备 | |
CN111107442B (zh) | 音视频文件的获取方法、装置、服务器及存储介质 | |
US20200051451A1 (en) | Short answer grade prediction | |
CN110867187B (zh) | 语音数据的处理方法、装置、存储介质及电子设备 | |
CN110647613A (zh) | 一种课件构建方法、装置、服务器和存储介质 | |
CN109272983A (zh) | 用于亲子教育的双语切换装置 | |
CN110111778B (zh) | 一种语音处理方法、装置、存储介质及电子设备 | |
KR102272567B1 (ko) | 음성 인식 수정 시스템 | |
CN209625781U (zh) | 用于亲子教育的双语切换装置 | |
WO2021007331A1 (en) | Image representation of a conversation to self-supervised learning | |
CN112185186A (zh) | 一种发音纠正方法、装置、电子设备及存储介质 | |
CN109903594A (zh) | 口语练习辅助方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |