CN114240710A - 学生信息测评方法 - Google Patents
学生信息测评方法 Download PDFInfo
- Publication number
- CN114240710A CN114240710A CN202111584479.4A CN202111584479A CN114240710A CN 114240710 A CN114240710 A CN 114240710A CN 202111584479 A CN202111584479 A CN 202111584479A CN 114240710 A CN114240710 A CN 114240710A
- Authority
- CN
- China
- Prior art keywords
- class
- student
- data
- information
- students
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 17
- 230000014509 gene expression Effects 0.000 claims abstract description 49
- 230000002996 emotional effect Effects 0.000 claims abstract description 32
- 230000000694 effects Effects 0.000 claims abstract description 31
- 238000012544 monitoring process Methods 0.000 claims abstract description 30
- 230000006996 mental state Effects 0.000 claims abstract description 25
- 230000033001 locomotion Effects 0.000 claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 230000006399 behavior Effects 0.000 claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 11
- 230000002159 abnormal effect Effects 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 27
- 230000009471 action Effects 0.000 claims description 4
- 238000012300 Sequence Analysis Methods 0.000 claims description 3
- 230000003203 everyday effect Effects 0.000 claims description 2
- 230000002631 hypothermal effect Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000004590 computer program Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种学生信息测评方法,包括:获取教室的第一时长的监控视音频信息;对监控视音频信息进行分析,得到上课姿态数据、课间活动数据和表情数据;通过预设的行为时序分析异常智能检测模型,对上课姿态数据、课间活动数据和表情数据进行检测,得到情绪状态信息;通过预设的行为交叉智能融合建模模型,对上课姿态数据进行检测,得到头部姿态和手部动作;对头部姿态、手部动作和表情数据进行融合处理,得到精神状态信息;根据情绪状态信息和人际关系,对学生心理状态进行测评;根据精神状态信息和学习状态,对学生自律性进行测评;学习状态通过学生的考试成绩所获得。
Description
技术领域
本发明涉及数据处理领域,尤其涉及一种学生信息测评方法。
背景技术
课堂教学不是单方面的行为,老师和学生都需要参与进去,才能达到良好的教学效果,因此,学生的自律性和心理状态是一个重要的教学效果评价参数。但是学生的自律性和心理状态,是一个很难衡量的问题,由于学生千差万别,教学内容千变万化,教师对于不同的学生给予的关注也不同,因此,急需一种学生信息测评方法,以对学生的自律性和心理状态进行测评,以便对学生进行相应准确的引导。
发明内容
本发明实施例的目的是提供一种学生信息测评方法,以解决现有技术中所存在的问题。
本发明提供了一种学生信息测评方法,所述学生信息测评方法包括:
获取教室的第一时长的监控视音频信息;
对所述监控视音频信息进行分析,得到上课姿态数据、课间活动数据和表情数据;
通过预设的行为时序分析异常智能检测模型,对所述上课姿态数据、课间活动数据和表情数据进行检测,得到情绪状态信息;
通过预设的行为交叉智能融合建模模型,对所述上课姿态数据进行检测,得到头部姿态和手部动作;
对所述头部姿态、所述手部动作和所述表情数据进行融合处理,得到精神状态信息;
根据所述情绪状态信息和人际关系,对学生心理状态进行测评;
根据所述精神状态信息和学习状态,对学生自律性进行测评;所述学习状态通过学生的考试成绩所获得。
在一种可能的实现方式中,所述对所述监控视音频信息进行分析,得到上课姿态数据、课间活动数据和表情数据具体包括:
根据所述监控视音频信息和课程表,确定上课时间段和课间时间段;
根据所述上课时间段,从所述监控视音频信息中提取上课姿态数据;所述上课姿态数据包括每个学生的上课姿态数据;
根据所述课间时间段,从所述监控视音频信息中提取课间活动数据;所述课间活动数据包括每个学生的课间活动数据;
从所述上课姿态数据中提取第一表情数据;
从所述课间活动数据中提取第二表情数据;
根据所述第一表情数据和所述第二表情数据,得到每个学生的表情数据。
在一种可能的实现方式中,所述通过预设的行为时序分析异常智能检测模型,对所述上课姿态数据、课间活动数据和表情数据进行检测,得到情绪状态信息具体包括:
在时间轴上,对每个学生的上课姿态数据、课间活动数据和表情数据进行分析,得到学生每天的情绪状态信息;所述情绪状态信息包括开心、正常、低落。
在一种可能的实现方式中,所述通过预设的行为交叉智能融合建模模型,对所述上课姿态数据进行检测,得到头部姿态和手部动作具体包括:
通过所述行为交叉智能融合建模模型,将上课姿态数据中的头部2D图像映射到3D图像;
根据所述3D图像,得到人脸姿态的朝向;包括俯仰角、偏航角和滚转角;
根据所述俯仰角、偏航角和所述滚转角,确定头部姿态;所述头部姿态包括抬头、摇头和转头;
将上课姿态数据中进行手部特征提取,将手部进行标记,得到标记的手部动作检测框;
对所述手部动作检测框进行检测,得到手部动作;所述手部动作包括手部姿态和角度信息。
在一种可能的实现方式中,所述根据所述情绪状态信息和人际关系,对学生心理状态进行测评之前,所述方法还包括:
通过头部姿态和手部动作,确定人际关系;所述人际关系包括非常好、良好、正常和孤僻。
在一种可能的实现方式中,所述根据所述情绪状态信息和人际关系,对学生心理状态进行测评具体包括:
获取班级信息;所述班级信息包括班级学生总数、学生ID;
根据所述学生ID,统计每个学生的人际关系为非常好、良好、正常和孤僻中的任意一种;
根据学生总数,统计班级中人际关系为非常好、良好、正常和孤僻所占的比例,生成人际关系表;
统计每个学生的情绪状态信息开心、正常、失落中的任意一种;
根据学生总数,统计班级中情绪状态信息为开心、正常、失落所占的比例,生成情绪状态表。
在一种可能的实现方式中,所述根据所述精神状态信息和学习状态,对学生自律性进行测评之前,所述方法还包括:
获取学生的考试成绩;
根据学生的考试成绩,确定学生的学习状态,所述学习状态包括非常好、良好、正常和不佳,所述学习状态中的每一种通过成绩进行区分。
在一种可能的实现方式中,所述根据所述精神状态信息和学习状态,对学生自律性进行测评具体包括:
获取班级信息;所述班级信息包括班级学生总数、学生ID;
根据所述学生ID,统计每个学生的精神状态信息为积极、正常和疲惫中的任意一种;
根据学生总数,统计班级中精神状态信息为积极、正常和疲惫所占的比例,生成精神状态表;
统计每个学生的学习状态为非常好、良好、正常、不佳中的任意一种;
根据学生总数,统计班级中学习状态为非常好、良好、正常、不佳所占的比例,生成学习状态表。
在一种可能的实现方式中,所述方法还包括:
根据所述监控视音频信息,确定出勤人数。
在一种可能的实现方式中,所述方法还包括:
将所述监控视音频信息发送给后台服务器。
第二方面,本发明提供了一种设备,包括存储器和处理器,存储器用于存储程序,处理器用于执行第一方面任一所述的学生信息测评方法。
第三方面,本发明提供了一种包含指令的计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行如第一方面任一所述的学生信息测评方法。
第四方面,本发明提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如第一方面任一所述的学生信息测评方法。
通过应用本发明实施例提供的学生信息测评方法,可以通过监控视音频信息,对学生的心理状态和自律性进行自动测评,从而便于快速了解学生的状态,对学生管理、考核提供依据。
附图说明
图1为本发明实施例一提供的学生信息测评方法流程示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
第一、第二、第三和第四等编号仅予以区分,并无其他含义。
图1为本发明实施例一提供的学生信息测评方法流程示意图。该方法应用在教学场景中,该方法的执行主体为服务器、处理器、终端等具有处理功能的设备。如图1所示,该方法包括以下步骤:
步骤110,获取教室的第一时长的监控视音频信息;
具体的,在课堂中,可以通过录播系统获取监控视音频信息。
为了进行后续的横向和纵向比较,可以将授课地点设定在某个教室。其中,教室可以为某学校的教室a,该学校可以是小学、中学、大学、职业中学等学校中的任意一个。可以对该教室内的多个科目的教师授课和学生听课进行视音频采集,多个科目包括但不限于语文、数学、英语常规科目或者模拟电子、计算机基础等专业科目。
其中,第一时长可以是根据需要进行设定的时长,比如,第一时长可以是一个月、一周或者三个月,本申请对此并不限定。
步骤120,对监控视音频信息进行分析,得到上课姿态数据、课间活动数据和表情数据;
具体的,由于录播系统中有多路摄像头,可以对于班级内全部学生监控视音频信息进行分析。
对监控视音频信息进行分析,得到上课姿态数据、课间活动数据和表情数据具体包括:
根据监控视音频信息和课程表,确定上课时间段和课间时间段;根据上课时间段,从监控视音频信息中提取上课姿态数据;上课姿态数据包括每个学生的上课姿态数据;根据课间时间段,从监控视音频信息中提取课间活动数据;课间活动数据包括每个学生的课间活动数据;从上课姿态数据中提取第一表情数据;从课间活动数据中提取第二表情数据;根据第一表情数据和第二表情数据,得到每个学生的表情数据。
其中,第一表情数据可以是学生上课时的表情数据,第二表情数据可以是学生课间的情绪数据,为了对一个学生进行综合分析,可以将第一表情数据和第二表情数据进行叠加,得到一个学生的表情数据。表情数据可以分为开心、正常、低落。
至于如何具体分析出每个学生的表情,可以通过预设的训练好的模型,筛选得到表情数据。也可以通过表情算法,得到表情数据。本申请对此并不限定。
步骤130,通过预设的行为时序分析异常智能检测模型,对上课姿态数据、课间活动数据和表情数据进行检测,得到情绪状态信息;
具体的,在时间轴上,对每个学生的上课姿态数据、课间活动数据和表情数据进行分析,得到学生每天的情绪状态信息;情绪状态信息包括开心、正常、低落。时序分析异常智能检测模型是通过神经网络训练好的模型,其已经训练好每种情绪状态对应的表情,从而可以通过将上课姿态数据、课间活动数据和表情数据一起输入到该模型,该模型可以输出得到情绪状态信息。
步骤140,通过预设的行为交叉智能融合建模模型,对上课姿态数据进行检测,得到头部姿态和手部动作;
具体的,通过行为交叉智能融合建模模型,将上课姿态数据中的头部2D图像映射到3D图像;根据3D图像,得到人脸姿态的朝向;包括俯仰角、偏航角和滚转角;根据俯仰角、偏航角和滚转角,确定头部姿态;头部姿态包括抬头、摇头和转头;
将上课姿态数据中进行手部特征提取,将手部进行标记,得到标记的手部动作检测框;对手部动作检测框进行检测,得到手部动作;手部动作包括手部姿态和角度信息。其中,行为交叉智能融合建模模型是一个预设的模型,其中具有融合算法,可以进行姿态检测。
具体的,对上课姿态数据进行2D人脸关键点检测,然后进行3D人脸模型匹配求解,以得到该些人脸关键点在3D人脸模型中的相应检测点,再获取3D点和2D点的转换关系,根据旋转矩阵求解欧拉角,实现了2D图像映射到3D图像,得到人脸姿态的朝向,通过朝向,检测三个参数,俯仰角、偏航角和滚转角。而通过俯仰角、偏航角和滚转角。而根据俯仰角,可以判断是否抬头,根据偏航角,可以判断是否摇头,根据滚转角,可以判断是否转头。
对手部的检测可以根据手部检测算法,手部姿态包括但不县域握拳和展开拳头,角度信息包括但不县域正反角度、水平夹角,从而可以将人手的可能姿态语角度进行输出,以便于后续的行为分析。
步骤150,对头部姿态、手部动作和表情数据进行融合处理,得到精神状态信息;
具体的,根据头部姿态、手部动作和表情数据进行融合处理,可以得到精神状态信息,精神状态信息包括积极、正常和疲惫,具体融合的过程,是通过相应的算法进行的,此处不再赘述。
步骤160,根据情绪状态信息和人际关系,对学生心理状态进行测评;
具体的,步骤160包括以下内容:
获取班级信息;班级信息包括班级学生总数、学生ID;根据学生ID,统计每个学生的人际关系为非常好、良好、正常和孤僻中的任意一种;根据学生总数,统计班级中人际关系为非常好、良好、正常和孤僻所占的比例,生成人际关系表;统计每个学生的情绪状态信息开心、正常、失落中的任意一种;根据学生总数,统计班级中情绪状态信息为开心、正常、失落所占的比例,生成情绪状态表。
其中,可以通过获取课程表,以获取到班级信息,从而统计班级内学生的人际关系,得到每一种人际关系的学生所占的比例,统计班级内学生的情绪状态信息,得到每一种情绪状态的学生所占的比例。从而实现了对班级的测评。
步骤170,根据精神状态信息和学习状态,对学生自律性进行测评;学习状态通过学生的考试成绩所获得。
具体的,步骤170包括以下步骤:
获取班级信息;班级信息包括班级学生总数、学生ID;根据学生ID,统计每个学生的精神状态信息为积极、正常和疲惫中的任意一种;根据学生总数,统计班级中精神状态信息为积极、正常和疲惫所占的比例,生成精神状态表;统计每个学生的学习状态为非常好、良好、正常、不佳中的任意一种;根据学生总数,统计班级中学习状态为非常好、良好、正常、不佳所占的比例,生成学习状态表。
进一步的,本申请还包括:根据监控视音频信息,确定出勤人数。
具体的,在教室门口,可以设置有智慧班牌,可以通过智慧班牌获取到学生的出勤信息,比如,学生进入教室时,进行面部识别,从而确定学生进入教室的时间,或者,可以通过监控视音频信息,获取到学生的到课时间,或者,也可以进行无感考勤,比如,学生的校服或者书包上设置有射频识别(Radio Frequency Identification,RFID)标签,该RFID标签与学生身份标识(Identity document,ID)相关联,学生ID可以是学号,也可以是姓名,身份证号等,而教室设置有RFID读写器,当学生进入教室时,RFID读写器对RFID标签进行识别,从而识别出学生ID。
进一步的,本申请还可以包括以下步骤:
将监控视音频信息发送给后台服务器,以便于后台服务器进行统一监控。
通过应用本发明实施例提供的学生信息测评方法,可以通过监控视音频信息,对学生的心理状态和自律性进行自动测评,从而便于快速了解学生的状态,对学生管理、考核提供依据。
发明实施例二提供了一种设备,包括存储器和处理器,存储器用于存储程序,存储器可通过总线与处理器连接。存储器可以是非易失存储器,例如硬盘驱动器和闪存,存储器中存储有软件程序和设备驱动程序。软件程序能够执行本发明实施例提供的上述方法的各种功能;设备驱动程序可以是网络和接口驱动程序。处理器用于执行软件程序,该软件程序被执行时,能够实现本发明实施例一提供的方法。
本发明实施例三提供了一种包含指令的计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行本发明实施例一提供的方法。
本发明实施例四提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现本发明实施例一提供的方法。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种学生信息测评方法,其特征在于,所述学生信息测评方法包括:
获取教室的第一时长的监控视音频信息;
对所述监控视音频信息进行分析,得到上课姿态数据、课间活动数据和表情数据;
通过预设的行为时序分析异常智能检测模型,对所述上课姿态数据、课间活动数据和表情数据进行检测,得到情绪状态信息;
通过预设的行为交叉智能融合建模模型,对所述上课姿态数据进行检测,得到头部姿态和手部动作;
对所述头部姿态、所述手部动作和所述表情数据进行融合处理,得到精神状态信息;
根据所述情绪状态信息和人际关系,对学生心理状态进行测评;
根据所述精神状态信息和学习状态,对学生自律性进行测评;所述学习状态通过学生的考试成绩所获得。
2.根据权利要求1所述的方法,其特征在于,所述对所述监控视音频信息进行分析,得到上课姿态数据、课间活动数据和表情数据具体包括:
根据所述监控视音频信息和课程表,确定上课时间段和课间时间段;
根据所述上课时间段,从所述监控视音频信息中提取上课姿态数据;所述上课姿态数据包括每个学生的上课姿态数据;
根据所述课间时间段,从所述监控视音频信息中提取课间活动数据;所述课间活动数据包括每个学生的课间活动数据;
从所述上课姿态数据中提取第一表情数据;
从所述课间活动数据中提取第二表情数据;
根据所述第一表情数据和所述第二表情数据,得到每个学生的表情数据。
3.根据权利要求1所述的方法,其特征在于,所述通过预设的行为时序分析异常智能检测模型,对所述上课姿态数据、课间活动数据和表情数据进行检测,得到情绪状态信息具体包括:
在时间轴上,对每个学生的上课姿态数据、课间活动数据和表情数据进行分析,得到学生每天的情绪状态信息;所述情绪状态信息包括开心、正常、低落。
4.根据权利要求1所述的方法,其特征在于,所述通过预设的行为交叉智能融合建模模型,对所述上课姿态数据进行检测,得到头部姿态和手部动作具体包括:
通过所述行为交叉智能融合建模模型,将上课姿态数据中的头部2D图像映射到3D图像;
根据所述3D图像,得到人脸姿态的朝向;包括俯仰角、偏航角和滚转角;
根据所述俯仰角、偏航角和所述滚转角,确定头部姿态;所述头部姿态包括抬头、摇头和转头;
将上课姿态数据中进行手部特征提取,将手部进行标记,得到标记的手部动作检测框;
对所述手部动作检测框进行检测,得到手部动作;所述手部动作包括手部姿态和角度信息。
5.根据权利要求1所述的方法,其特征在于,所述根据所述情绪状态信息和人际关系,对学生心理状态进行测评之前,所述方法还包括:
通过头部姿态和手部动作,确定人际关系;所述人际关系包括非常好、良好、正常和孤僻。
6.根据权利要求1所述的方法,其特征在于,所述根据所述情绪状态信息和人际关系,对学生心理状态进行测评具体包括:
获取班级信息;所述班级信息包括班级学生总数、学生ID;
根据所述学生ID,统计每个学生的人际关系为非常好、良好、正常和孤僻中的任意一种;
根据学生总数,统计班级中人际关系为非常好、良好、正常和孤僻所占的比例,生成人际关系表;
统计每个学生的情绪状态信息开心、正常、失落中的任意一种;
根据学生总数,统计班级中情绪状态信息为开心、正常、失落所占的比例,生成情绪状态表。
7.根据权利要求1所述的方法,其特征在于,所述根据所述精神状态信息和学习状态,对学生自律性进行测评之前,所述方法还包括:
获取学生的考试成绩;
根据学生的考试成绩,确定学生的学习状态,所述学习状态包括非常好、良好、正常和不佳,所述学习状态中的每一种通过成绩进行区分。
8.根据权利要求1所述的方法,其特征在于,所述根据所述精神状态信息和学习状态,对学生自律性进行测评具体包括:
获取班级信息;所述班级信息包括班级学生总数、学生ID;
根据所述学生ID,统计每个学生的精神状态信息为积极、正常和疲惫中的任意一种;
根据学生总数,统计班级中精神状态信息为积极、正常和疲惫所占的比例,生成精神状态表;
统计每个学生的学习状态为非常好、良好、正常、不佳中的任意一种;
根据学生总数,统计班级中学习状态为非常好、良好、正常、不佳所占的比例,生成学习状态表。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述监控视音频信息,确定出勤人数。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述监控视音频信息发送给后台服务器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111584479.4A CN114240710A (zh) | 2021-12-22 | 2021-12-22 | 学生信息测评方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111584479.4A CN114240710A (zh) | 2021-12-22 | 2021-12-22 | 学生信息测评方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114240710A true CN114240710A (zh) | 2022-03-25 |
Family
ID=80761587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111584479.4A Withdrawn CN114240710A (zh) | 2021-12-22 | 2021-12-22 | 学生信息测评方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114240710A (zh) |
-
2021
- 2021-12-22 CN CN202111584479.4A patent/CN114240710A/zh not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Whitehill et al. | The faces of engagement: Automatic recognition of student engagementfrom facial expressions | |
CN108460707B (zh) | 一种学生的作业智能监管方法及其系统 | |
CN110059614A (zh) | 一种基于人脸情绪识别的智能辅助教学方法及系统 | |
CN111027865B (zh) | 基于行为和表情识别的教学分析与质量评估系统及方法 | |
CN110678935A (zh) | 采用面部追踪和情感检测及其相关的方法应用在一种交互式自适应学习及神经认知障碍诊断系统 | |
WO2021077382A1 (zh) | 一种学习状态的判断方法、装置及智能机器人 | |
CN111046819A (zh) | 一种行为识别处理方法及装置 | |
CN108898115B (zh) | 数据处理方法、存储介质和电子设备 | |
Sharma et al. | Student concentration evaluation index in an e-learning context using facial emotion analysis | |
CN114298497A (zh) | 教师课堂教学质量的评估方法以及装置 | |
Hieu et al. | Identifying learners’ behavior from videos affects teaching methods of lecturers in Universities | |
CN110516979A (zh) | 一种个性化学习评价方法及装置 | |
CN109276243A (zh) | 脑电心理测试方法及终端设备 | |
Padrón-Rivera et al. | Identification of action units related to affective states in a tutoring system for mathematics | |
CN114299617A (zh) | 一种教学互动情况识别方法、装置、设备及存储介质 | |
CN111178263B (zh) | 一种实时表情分析方法及其装置 | |
Villegas-Ch et al. | Identification of emotions from facial gestures in a teaching environment with the use of machine learning techniques | |
Zakka et al. | Estimating student learning affect using facial emotions | |
Shobana et al. | I-Quiz: An Intelligent Assessment Tool for Non-Verbal Behaviour Detection. | |
Magdin et al. | Are instructed emotional states suitable for classification? Demonstration of how they can significantly influence the classification result in an automated recognition system | |
Yi et al. | Real time learning evaluation based on gaze tracking | |
Oviatt et al. | I know what you know: What hand movements reveal about domain expertise | |
CN114240710A (zh) | 学生信息测评方法 | |
Rathi et al. | Embedding affect awareness into online learning environment using deep neural network | |
CN115689340A (zh) | 一种基于彩色动态人脸特征的课堂质量监控系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information |
Address after: Room 1002, floor 10, block B, No. 18, Zhongguancun Street, Haidian District, Beijing 100044 Applicant after: Beijing Biyun shuchuang Technology Co.,Ltd. Address before: Room 1002, floor 10, block B, No. 18, Zhongguancun Street, Haidian District, Beijing 100044 Applicant before: Beijing yundie Zhixue Technology Co.,Ltd. |
|
CB02 | Change of applicant information | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220325 |
|
WW01 | Invention patent application withdrawn after publication |