CN117391897A - 一种课堂学情的展示方法、系统及可读存储介质 - Google Patents
一种课堂学情的展示方法、系统及可读存储介质 Download PDFInfo
- Publication number
- CN117391897A CN117391897A CN202311334357.9A CN202311334357A CN117391897A CN 117391897 A CN117391897 A CN 117391897A CN 202311334357 A CN202311334357 A CN 202311334357A CN 117391897 A CN117391897 A CN 117391897A
- Authority
- CN
- China
- Prior art keywords
- classroom
- student
- area
- class
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 239
- 230000006399 behavior Effects 0.000 claims abstract description 309
- 230000008569 process Effects 0.000 claims abstract description 158
- 230000013016 learning Effects 0.000 claims abstract description 110
- 238000009826 distribution Methods 0.000 claims abstract description 85
- 230000008451 emotion Effects 0.000 claims abstract description 40
- 238000005070 sampling Methods 0.000 claims description 119
- 230000000694 effects Effects 0.000 claims description 116
- 238000010586 diagram Methods 0.000 claims description 44
- 239000003086 colorant Substances 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 17
- 230000001360 synchronised effect Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 4
- 230000001747 exhibiting effect Effects 0.000 claims 1
- 238000004458 analytical method Methods 0.000 abstract description 15
- 238000011160 research Methods 0.000 description 26
- 238000004422 calculation algorithm Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 14
- 238000012552 review Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 241001310793 Podium Species 0.000 description 6
- 238000013145 classification model Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000010354 integration Effects 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013506 data mapping Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000031836 visual learning Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/904—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Tourism & Hospitality (AREA)
- Educational Technology (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
一种课堂学情的展示方法、系统及可读存储介质,涉及教育技术领域。该方法包括:根据学情指标、课堂场景和学生行为分布显示课堂学情展示画面,课堂学情展示画面包括第一区域、第二区域、第三区域和指示线;在第一区域中展示学情指标图,学情指标图是学情指标随时间变化的图形化表示;在第二区域中展示课堂场景图,课堂场景图是教学过程的课堂场景随时间变化的序列的图形化表示;在第三区域中展示学生行为分布图,学生行为分布图是学生行为分布随时间变化的图形化表示;指示线用于指示第一区域、第二区域或第三区域的信息对教学过程进行解读。以此来提升AI对课堂学情数据的分析能力,改善数据的呈现方式,增强引导老师解读教学过程的能力。
Description
技术领域
本申请涉及教育技术领域,尤其涉及一种课堂学情的展示方法、系统及可读存储介质。
背景技术
老师教学能力是高质量教学的基础,教研活动是提高老师教学能力的最重要的手段。教研活动的种类很多,比如个人反思、听评课、集体研讨等。个人反思是指老师课后反思自己所讲课堂的优劣处;听评课是指老师对其它老师的课堂进行听课和点评;集体研讨是更正式的教研活动,有经验的教研员组织一群老师集体对一堂课进行分析,以提炼教学方法。
互联网时代之前,教研活动的开展方式只能是老师到教室去听课,比较低效,在互联网时代,教研活动可以基于课堂录像或课堂直播开展,老师们可以远程参与,扩展了教研活动的开展空间。但是老师的核心工作还是日常教学活动,虽然互联网技术缩短了时空距离,但是,有效的教研活动需要反复地观看课堂教学过程的视频录像,还是很耗时费力,效率不高。
近几年来,随着深度学习技术的发展,基于AI技术的教研活动研究成为了教育领域的一个热点。AI技术在教研领域的应用还处于初级阶段,目前,主要成果是利用AI技术提取一些针对整堂课的统计数据或指标,比如老师话语总时长、学生回答问题总时长等等,这种统计数据对老师理解课堂有一定的帮助,但是无法引导老师回看教学过程的重点时点或时段。利用AI技术对教学过程的研究成果还较少,典型的教学过程学情数据有师生行为时序、抬头率等,但是这些学情数据对教学过程学情的刻画能力不足,甚至不准确,更重要的是,关于教学过程的学情数据的呈现方式不佳,无法真正引导老师高效地回看课堂视频。
综上所述,现有技术中存在AI分析出来的关于教学过程的学情数据不足、呈现方式不佳,引导老师解读教学过程的作用有限的问题。
发明内容
本申请提供了一种课堂学情的展示方法、系统及可读存储介质,以提升AI对课堂学情的分析能力,改善学情数据的呈现方式,增强引导老师解读教学过程的能力。
第一方面,本申请提供了一种课堂学情的展示方法,包括:根据学情指标、课堂场景和学生行为分布显示课堂学情展示画面,课堂学情展示画面包括第一区域、第二区域、第三区域和指示线;
在第一区域中展示学情指标图,学情指标图是学情指标随时间变化的图形化表示;根据学情指标的高点、低点、或高低变化可以定位教学过程的重要时点和重要时段;
在第二区域中展示课堂场景图,课堂场景图是教学过程的课堂场景随时间变化的序列的图形化表示;课堂场景是根据教学活动特征对教学过程的切片;
在第三区域中展示学生行为分布图,学生行为分布图是学生行为分布随时间变化的图形化表示;
指示线可以移动,用于指示第一区域、第二区域或第三区域的信息对教学过程进行解读。
上述方法提高了对教学过程学情数据(即学情指标、课堂场景和学生行为分布)的分析能力,以提供更丰富、更直观的学情展示形式。将大规模的学生行为数据通过学生行为分布图进行图形化展示,以课堂场景图可视化的方式对整个教学过程进行大粒度、有教学含义的切片,以及通过学情指标图将高度综合的课堂学情指标进行有机地整合可视化展示。这三种展示方式将学生行为分布、教学过程和高度综合的学情指标有机地整合在一起,提供了一种丰富的、全新的、高效的学情呈现方式。
根据学生行为分布图,老师可以快速定位到感兴趣的学生行为分布时点或时段;根据课堂场景图,老师可以清晰地定位到感兴趣的课堂场景;根据学情指标图的高点、低点或高低变化,老师可以快速定位到课堂的重要时点和重要时刻。同时还设置了指示线,用于指示上述三种数据,让老师能够精准地观察到所指时刻的课堂学情。基于这种全新的学情呈现方式,不仅提升了AI对教学过程学情数据的分析能力,老师结合三者进行课堂观察,可以全局地、快速地找到感兴趣区域,大大增强了其在引导老师解读教学过程中的作用,提高教研活动的效率。
结合第一方面的一些实施例,在一些实施例中,指示线同步指示同一时刻下第一区域、第二区域和第三区域的信息,用于结合第一区域、第二区域和第三区域的信息对教学过程进行解读。
在上述实施例中,通过指示线的同步指示,可以在同一时刻综合获取到来自不同区域的信息,大大提高了学生行为分布、课堂场景序列、学情指标整合和处理的效率。同时将第一区域、第二区域和第三区域的信息结合起来,可以提供一个全面、深入的教学过程视角,从多个角度同时解读教学过程,进而有效引导老师高效地回看课堂视频,提高教研活动的效率。
结合第一方面的一些实施例,在一些实施例中,第一区域、第二区域和第三区域以上、中、下的布局方式竖直排放;
指示线同时穿过第一区域、第二区域和第三区域,实现对第一区域、第二区域和第三区域的信息的同步指示。
在上述实施例中,竖直排放的布局设计和指示线的同步指示,提供了一种有效的信息交互方式。可以通过移动指示线,快速获取和比较不同时刻下三个区域的信息,进而有效引导老师高效地回看课堂视频,提高教研活动的效率。
结合第一方面的一些实施例,在一些实施例中,课堂场景图的呈现格式为:由一个或若干个子段依次拼接组成的总段,每个子段对应一个课堂场景,子段的长度与对应的课堂场景的时长成正比,且不同种类的课堂场景的子段用不同的颜色绘制。
在上述实施例中,通过这种可视化方式使老师能够清晰地看到各种课堂场景的分布和持续时间,有助于引导老师高效地回看课堂视频,提高教研活动的效率。
结合第一方面的一些实施例,在一些实施例中,学生行为分布图的呈现格式为二维图,二维图的每条竖线对应一个课堂时刻,竖线包含一个或多个第一子段,每个第一子段对应课堂时刻的一种学生行为,且不同学生行为的第一子段用不同的颜色绘制,第一子段的长度与其对应的学生行为的人数成正比;
或;
二维图的每条横线对应一个课堂时刻,横线包含一个或多个第二子段,每个第二子段对应课堂时刻的一种学生行为,且不同学生行为的第二子段用不同的颜色绘制,第二子段的长度与其对应的学生行为的人数成正比。
在上述实施例中,通过这种可视化方式,可以帮助老师看到学生行为的变化趋势和分布,使得更好地理解课堂中学生行为的特点和规律,有助于引导老师高效地回看课堂视频,提高教研活动的效率。
结合第一方面的一些实施例,在一些实施例中,学情指标图包括一条或多条学情指标曲线,根据学情指标曲线的高点、低点或高低变化,定位教学过程的重要时点或重要时段,学情指标曲线以曲线的形式表示学情指标随时间变化。
在上述实施例中,学情指标曲线以直观的方式展示了学情指标随时间的变化,使得老师可以清晰地看到教学效果的变化趋势,提高了学情指标的可视性。同时根据学情指标曲线的高点、低点或高低变化,可定位教学过程的重要时点或重要时段,来提高教研活动的效率。
结合第一方面的一些实施例,在一些实施例中,学情指标曲线为学生参与度曲线、学生活跃度曲线和学生行为一致性曲线中一条或多条曲线;
学生参与度曲线体现每个课堂时刻学生参与教学活动的程度;根据每个学生的学生行为与课堂场景的符合性计算每个课堂时刻的学生参与度值,然后根据学生参与度值生成学生参与度曲线;
学生活跃度曲线体现每个课堂时刻学生的活跃程度;
学生行为一致性曲线体现每个课堂时刻学生行为的一致性程度。
在上述实施例中,通过学生参与度曲线、学生活跃度曲线和学生行为一致性曲线,老师可以直观地看到学生在课堂中的参与度、活跃度和行为一致性的变化,从而更好地理解和分析学生在课堂中的行为模式和特点,有助于老师高效地回看课堂视频,提高教研活动的效率。
结合第一方面的一些实施例,在一些实施例中,根据每个学生的学生行为与课堂场景的符合性计算每个课堂时刻的学生参与度值,具体包括:
根据预设的第一采样策略确定第一采样时刻,对于每个第一采样时刻,分析教学过程数据,识别预设学生行为,统计得到学生行为分布;
根据预设的第二采样策略确定第二采样时刻,对于每个第二采样时刻,分析教学过程数据,根据第二采样时刻前后预设时间段内的各种课堂活动参量的分布情况,确定课堂场景类别;根据课堂场景类别生成整个教学过程的课堂场景序列;
根据预设学生行为与课堂场景的符合性确定参与度权重表;
根据参与度权重表、学生行为分布和课堂场景序列计算每个课堂时刻的学生参与度值。
在上述实施例中,通过分析教学过程数据和课堂活动参量,明确考虑了课堂场景类别和学生参与度的关联性。通过生成整个教学过程的课堂场景序列,并根据预设的学生行为与课堂场景的符合性确定参与度权重表,能够更准确地反映学生在不同课堂场景下的实际参与度。同时,由于本发明能够在每个课堂时刻计算出学生的参与度值,综上,减少对学生参与度的误判,提高学生参与度结果的准确性。
结合第一方面的一些实施例,在一些实施例中,指示线移至目标位置后,通过预设的第一命令控制指示线所指的预设大小的区间信息放大显示,用于查看区间信息的细节。
在上述实施例中,可以放大指定区间的信息,使得细节更为清晰,从而提高了学情指标的可视性。同时可以更准确地解读和理解数据,从而提高了数据解读的精准度。
第二方面,本申请实施例提供了一种课堂学情的展示系统,包括计算机,计算机包括:
第一展示模块,用于根据学情指标、课堂场景和学生行为分布显示课堂学情展示画面,课堂学情展示画面包括第一区域、第二区域、第三区域和指示线,
第二展示模块,用于在第一区域中展示学情指标图,学情指标图是学情指标随时间变化的图形化表示;根据学情指标的高点、低点、或高低变化可以定位教学过程的重要时点和重要时段;
第三展示模块,用于在第二区域中展示课堂场景图,课堂场景图是教学过程的课堂场景随时间变化的序列的图形化表示;课堂场景是根据教学活动特征对教学过程的切片;
第四展示模块,用于在第三区域中,展示学生行为分布图,学生行为分布图是学生行为分布随时间变化的图形化表示;
指示线模块,用于可以移动指示线,用于指示第一区域、第二区域或第三区域的信息对教学过程进行解读。
结合第二方面的一些实施例,在一些实施例中,指示线同步指示同一时刻下第一区域、第二区域和第三区域的信息,用于结合第一区域、第二区域和第三区域的信息对教学过程进行解读。
结合第二方面的一些实施例,在一些实施例中,第一区域、第二区域和第三区域以上、中、下的布局方式竖直排放;
指示线同时穿过第一区域、第二区域和第三区域,实现对第一区域、第二区域和第三区域的信息的同步指示。
结合第二方面的一些实施例,在一些实施例中,课堂场景图的呈现格式为:由一个或若干个子段依次拼接组成的总段,每个子段对应一个课堂场景,子段的长度与对应的课堂场景的时长成正比,且不同种类的课堂场景的子段用不同的颜色绘制。
结合第二方面的一些实施例,在一些实施例中,学生行为分布图的呈现格式为二维图,二维图的每条竖线对应一个课堂时刻,竖线包含一个或多个第一子段,每个第一子段对应课堂时刻的一种学生行为,且不同学生行为的第一子段用不同的颜色绘制,第一子段的长度与其对应的学生行为的人数成正比;
或;
二维图的每条横线对应一个课堂时刻,横线包含一个或多个第二子段,每个第二子段对应课堂时刻的一种学生行为,且不同学生行为的第二子段用不同的颜色绘制,第二子段的长度与其对应的学生行为的人数成正比。
结合第二方面的一些实施例,在一些实施例中,学情指标图包括一条或多条学情指标曲线,根据学情指标曲线的高点、低点或高低变化,定位教学过程的重要时点或重要时段,学情指标曲线以曲线的形式表示学情指标随时间变化。
结合第二方面的一些实施例,在一些实施例中,学情指标曲线为学生参与度曲线、学生活跃度曲线和学生行为一致性曲线中一条或多条曲线;
学生参与度曲线体现每个课堂时刻学生参与教学活动的程度;根据每个学生的学生行为与课堂场景的符合性计算每个课堂时刻的学生参与度值,然后根据学生参与度值生成学生参与度曲线;
学生活跃度曲线体现每个课堂时刻学生的活跃程度;
学生行为一致性曲线体现每个课堂时刻学生行为的一致性程度。
结合第二方面的一些实施例,在一些实施例中,根据每个学生的学生行为与课堂场景的符合性计算每个课堂时刻的学生参与度值,具体包括:
根据预设的第一采样策略确定第一采样时刻,对于每个第一采样时刻,分析教学过程数据,识别预设学生行为,统计得到学生行为分布;
根据预设的第二采样策略确定第二采样时刻,对于每个第二采样时刻,分析教学过程数据,根据第二采样时刻前后预设时间段内的各种课堂活动参量的分布情况,确定课堂场景类别;根据课堂场景类别生成整个教学过程的课堂场景序列;
根据预设学生行为与课堂场景的符合性确定参与度权重表;
根据参与度权重表、学生行为分布和课堂场景序列计算每个课堂时刻的学生参与度值。
结合第二方面的一些实施例,在一些实施例中,指示线移至目标位置后,通过预设的第一命令控制指示线所指的预设大小的区间信息放大显示,用于查看区间信息的细节。
第三方面,本申请实施例提供了一种课堂学情的展示系统,该系统包括:一个或多个处理器和存储器;
该存储器与该一个或多个处理器耦合,该存储器用于存储计算机程序代码,该计算机程序代码包括计算机指令,该一个或多个处理器调用该计算机指令以使得该课堂学情的展示系统执行如第一方面以及第一方面中任一可能的实现方式描述的方法。
第四方面,本申请实施例提供一种包含指令的计算机程序产品,当上述计算机程序产品在系统上运行时,使得上述系统执行如第一方面以及第一方面中任一可能的实现方式描述的方法。
第五方面,本申请实施例提供一种计算机可读存储介质,包括指令,当上述指令在课堂学情的展示系统上运行时,使得上述课堂学情的展示系统执行如第一方面以及第一方面中任一可能的实现方式描述的方法。
可以理解地,上述第二方面提供的课堂学情的展示系统、第三方面提供的课堂学情的展示系统、第四方面提供的计算机程序产品和第五方面提供的计算机存储介质均用于执行本申请实施例所提供的课堂学情的展示方法。因此,其所能达到的有益效果可参考对应方法中的有益效果,此处不再赘述。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
1、本申请提供的课堂学情的展示方法,提供更丰富的关于课堂教学过程的学情数据(即学情指标、课堂场景和学生行为分布),以及更直观的学情数据展示形式,提高了对课堂教学过程的分析能力。将大规模的学生行为数据通过学生行为分布图进行图形化展示,以课堂场景图可视化的方式对整个教学过程进行大粒度、有教学含义的切片,以及通过学情指标图可视化展示高度综合的课堂学情指标,这三种展示方式将学生行为分布、教学场景序列和高度综合的学情指标有机地整合在一起,提供了一种全新的、高效的关于教学过程学情的呈现方式。
根据学生行为分布图,老师可以快速定位到感兴趣的学生行为分布时点或时段;根据课堂场景图,老师可以清晰地定位到感兴趣的课堂场景;根据学情指标图的高点、低点或高低变化,老师可以快速定位到课堂的重要时点和重要时刻。同时还设置了指示线,用于指示上述三种数据,让老师能够精准地观察到所指时刻的课堂学情。
综上所述,本申请方法提供了丰富的关于教学过程的学情数据,并提供了一种有机的数据整合呈现方式,提升了AI对教学过程学情的分析能力,大大增强了其在引导老师解读教学过程中的作用。
2、本申请提供的课堂学情的展示方法,通过指示线的同步指示,可以快速获取来自三个区域的同一时刻的信息,大大提高了学生行为分布、课堂场景序列、学情指标整合和处理的效率。同时将第一区域、第二区域和第三区域的信息结合起来,可以提供一个全面、深入的教学过程视角,从多个角度同时解读教学过程,进而有效引导老师高效地回看课堂视频,提高教研活动的效率。
附图说明
图1为本申请提供的课堂学情的展示方法的一个流程示意图。
图2为本申请提供的课堂学情的展示方法的一个展示示意图。
图3为图2的局部放大图。
图4为图2的另一个局部放大图。
图5为本申请提供的课堂学情的展示方法的另一个展示示意图。
图6为本申请提供的课堂学情的展示方法的另一个展示示意图。
图7为本申请提供的课堂学情的展示方法的另一个展示示意图。
图8为本申请提供的学生行为分布图的生成方法的流程图。
图9为本申请提供的学生参与度的计算方法的流程图。
图10为本申请提供的课堂学情的展示系统的模块化虚拟装置的示意图。
图11为本申请提供的课堂学情的展示系统的实体装置的示意图。
具体实施方式
本申请以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括复数表达形式,除非其上下文中明确地有相反指示。还应当理解,本申请中使用的术语“和/或”是指包含一个或多个所列出项目的任何或所有可能组合。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为暗示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征,在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
由于本申请实施例涉及课堂学情的应用,为了便于理解,下面先对本申请实施例涉及的相关术语及概念进行介绍。
(1)课堂学情概要地说是课堂教学过程的师生教与学的情况,相应的,课堂学情数据是关于教学特征的数据,在本申请中课堂学情数据包括学情指标、课堂场景和学生行为分布,上述例子只是适应性说明,此处不做限定。
(2)学情指标为关于教学过程学情的高度综合,学情指标有1个或多个,每个学情指标可以刻画教学过程的一个方面的学情特征,例如可以为学生参与度、学生活跃度和学生行为一致性中的一种或者多种,上述例子只是适应性说明,此处不做限定。
(3)课堂场景为课堂教学过程的一个重要概念,在教学过程中,在一定时间段内会呈现相似的教学活动特征。例如,在一个时间段内老师不断的发言,或在一个时间段内发生多次师生话语交错,或在一个时间段内学生声音很喧哗。将连续的特征相似的教学活动分割在一个片段中,可以对教学过程进行大粒度的、有教学含义的切片。这种片段称为课堂场景,概括地说,课堂场景是根据教学活动特征对教学过程的切片,是一种对教学过程大粒度、有教学含义的切片,相应的,整个教学过程可以切分成一个课堂场景序列。典型的课堂场景有老师讲授、课件演示、师生问答、生生互动、学生上台展示和学生练习等。所述老师讲授是指老师以话语为主进行知识点讲解的教学活动。所述课件演示是指以课件展示为主进行知识点讲解的教学活动。师生问答是指老师和一个或多个学生问答的教学活动。生生互动是指学生讨论问题的教学活动。学生上台展示是指学生在讲台上给其他学生示范的教学活动。学生练习是指学生自主学习的教学活动。在实际应用中,课堂场景种类可以更多或更少,上述例子只是适应性说明,此处不做限定。
(4)学生行为是指学生在学习环境中表现出的各种活动或反应。例如举手、站立、听讲、读书、书写、背转身(背向讲台)等等,上述例子只是适应性说明,此处不做限定。学生行为分布为各种学生行为的人数及其占比,通常会通过收集和分析大量的行为数据来得出。
本申请的执行主体为可以为运行有课堂学情分析软件、课堂学情展示软件或打开有课堂学情的展示网页的终端设备,例如可以为手机、平板电脑、台式电脑、智能电视等,此处不做限定。
本申请方法提出的课堂学情的展示方法,对于UI(用户界面)的具体技术手段不做限定,可以是任何实现方式,通常的UI实现方式有移动终端APP、网页、客户端软件等等,此处不做限定。
下面对本实施例中课堂学情的展示方法进行描述:
如图1所示,图1为本申请提供的课堂学情的展示方法的一个流程示意图。
S101、根据学情指标、课堂场景和学生行为分布显示课堂学情展示画面,课堂学情展示画面包括第一区域、第二区域、第三区域和指示线。
从另一角度而言,课堂学情数据包括学情指标、课堂场景和学生行为分布,因此也能根据课堂学情数据显示课堂学情展示画面。
一个示例性例子,课堂学情数据的基本处理过程为采集课堂的教学过程数据,课堂音视频是最常用的教学过程数据;对教学过程数据进行分析,提取课堂元数据;基于课堂元数据,通过综合算法计算出最终的课堂学情数据。需要说明的是,本申请对课堂学情数据的处理、计算等技术方案不做限定,可以采用任一课堂学情数据的处理、计算等技术方案。
为了采集教学过程数据,本申请提供了一种教学过程数据的采集系统,系统包括:老师摄像机,用于采集讲台区画面;
学生摄像机,用于采集学生区画面;
拾音设备,用于采集课堂声音;
课件采集设备,用于采集课件画面;
录像设备,用于录制采集的课堂音视频数据。
要说明的是,上述设备可以每个都是独立的,也可以整合,例如,学生摄像机、课件采集设备和录像设备整合为一个设备。
需要说明的是,课堂音视频数据为讲台区画面、学生区画面、课堂声音、课件画面。
将教学过程数据定义为包括讲台区画面、学生区画面、课堂声音和课件画面。然而,这并不意味着教学过程数据必须包含或仅限于这些元素。这些例子只是为了展示可能的数据类型,并不代表唯一或完全的定义。本实施例只是对可能的数据类型进行了示例性的描述,而不对其做出具体的限定。
教学过程数据的采集系统中的硬件和用法,由于相关技术在领域内已经非常成熟,此处不再赘述。
参考图2,图2为本申请提供的课堂学情的展示方法的一个展示示意图。
课堂学情展示画面包括第一区域、第二区域、第三区域和指示线,虽然画面也可能包含其他区域,但第一区域、第二区域、第三区域和指示线是不可或缺的组成部分。对于这三个区域以及可能存在的其它未提及的区域,将在接下来的描述中进行详细解释,此处不做限定。
S102、在第一区域中展示学情指标图,学情指标图是学情指标随时间变化的图形化表示;根据学情指标的高点、低点、或高低变化可以定位教学过程的重要时点和重要时段。
具体的,学情指标图包括一条或多条学情指标曲线,根据学情指标曲线的高点、低点或高低变化,定位教学过程的重要时点或重要时段,学情指标曲线以曲线的形式表示学情指标随时间变化。
可见,学情指标曲线以直观的方式展示了学情指标随时间的变化,使得老师可以清晰地看到教学效果的变化趋势,提高了课堂学情的可视性。同时根据学情指标曲线的高点、低点或高低变化,可定位教学过程的重要时点或重要时段,来提高教研活动的效率。
具体的,学情指标曲线为学生参与度曲线、学生活跃度曲线和学生行为一致性曲线中一条或多条曲线;学生参与度曲线体现每个课堂时刻学生参与教学活动的程度;根据学生行为与课堂场景的符合性计算每个课堂时刻的学生参与度值,然后根据学生参与度值生成学生参与度曲线;学生活跃度曲线体现每个课堂时刻学生的活跃程度;学生行为一致性曲线体现每个课堂时刻学生行为的一致性程度。
本实施例通过分析课堂中全部或部分学生的行为与课堂场景的符合性计算每个课堂时刻的学生参与度值。所谓学生行为与课堂场景的符合性是指各种学生行为相对于当前课堂场景的参与程度,例如,当前课堂场景是老师讲授,那么“听讲”行为是符合的,而“背身”(学生背对老师)是不符合的,那么,根据学生行为和课堂场景的符合性可以为当前课堂时刻的每个学生计算一个分值,汇总全部或部分学生的分值可以计算当前课堂时刻的学生参与度值。然后根据所有课堂时刻的学生参与度值生成学生参与度曲线。所述学生活跃度曲线体现每个课堂时刻学生的活跃程度,本实施例通过分析各个课堂时刻的学生音量、学生行为变化、学生头部运动量等参量计算学生活跃度。学生行为一致性曲线根据每个课堂时刻人数最多的那类学生行为的人数绘制,可以体现课堂中学生行动的整体性。
具体的,通过音频分析技术分析课堂声音,例如语音识别或声音检测,来量化学生的活跃度。例如,学生的发言频率、发言音量、以及发言的持续时间都可以作为评估其活跃度的指标。利用机器学习或人工智能技术,比如计算机视觉,来分析学生的行为变化。这可能包括对学生的手势、表情、坐姿等进行识别和分析,以此来评估他们的参与度和活跃度。使用摄像头或其他动态捕捉设备来记录学生的头部运动。通过分析这些运动的速度、方向、以及频率,可以得出学生的活跃度。以上所述的方案仅为示例性描述,用于表明通过分析课堂行为数据以计算学生活跃度的可能方法。实际上,相关技术已经达到了相当成熟的水平,此处不再赘述。
具体的,每个课堂时刻统计各种学生行为的人数,找到人数最多的学生行为,以该学生行为的人数除以总的学生人数,得出一个表示一致性的比例值,随着时间的推移,这些比例值连成一条曲线,得到学生行为一致性曲线,当然,学生行为的识别技术在相关技术已经达到了相当成熟的水平,此处不再赘述。
可见,通过学生参与度曲线、学生活跃度曲线和学生行为一致性曲线,老师可以直观地看到学生在教学过程中各个时刻的参与度、活跃度和行为一致性的变化,从而更好地理解和分析学生在课堂中的行为模式和特点,有助于老师高效地回看课堂视频,提高教研活动的效率。
一个示例性的实施例,参考图2,图2为本申请提供的课堂学情的展示方法的一个展示示意图。所述学情指标图包括两条学情指标曲线——学生参与度曲线和学生活跃度曲线,根据这两条学情曲线,可以观察教学过程中学生参与度和活跃度的变化情况及高低点。其中,学生参与度曲线体现每个课堂时刻学生参与教学活动的程度。
需要说明的是,将学情指标图定义为两条学情指标曲线——学生参与度曲线和学生活跃度曲线。然而,这并不意味着学情指标图仅限于这些元素。这些例子只是为了展示可能的学情指标,并不代表唯一或完全的定义。换言之,学情指标的范畴可以更广泛,本实施例只是对可能的学情指标进行了示例性的描述,而不对其做出具体的限定。学情指标曲线可以更少或更多,在另一个实施例中,学情指标图仅包含有一条学生参与度曲线,而在另一个实施例中,参考图5,图5为本申请提供的课堂学情的展示方法的另一个展示示意图。学情指标图包括学生参与度曲线、学生活跃度曲线和学生行为一致性曲线等三条曲线。
图2、图5所示实施例的学情指标图采用曲线的呈现方式,曲线能有效地呈现学情指标的高点、低点和高低变化。在另一个实施例中,学情指标图由一些离散点和/或离散线段组成。因此本申请对学情指标图中的呈现方式不做限定。
S103、在第二区域中展示课堂场景图,课堂场景图是教学过程的课堂场景随时间变化的序列的图形化表示;课堂场景是根据教学活动特征对教学过程的切片。
具体的,所述课堂场景图的呈现格式为:由一个或若干个子段依次拼接组成的总段,每个所述子段对应一个课堂场景,所述子段的长度与对应的课堂场景的时长成正比,且不同种类的课堂场景的子段用不同的颜色绘制。
可见,通过这种可视化方式使老师能够清晰地看到各种课堂场景的分布和持续时间,有助于引导老师高效地回看课堂视频,提高教研活动的效率。
一个示例性的实施例,参考图3,图3为图2的课堂场景图的局部放大显示及各个课堂场景对应的颜色说明。在该实施例有6种课堂场景(图中正下方):老师讲授、课件演示、师生问答、生生互动、学生上台和学生练习。教学过程切分成由若干个课堂场景组成的序列。课堂场景图由一个或若干个子段依次拼接组成的总段,每个所述子段对应一个课堂场景,所述子段的长度与对应的课堂场景的时长成正比,且不同种类的课堂场景的子段用不同的颜色绘制。
课堂场景图直观地图形化呈现了整个教学过程的课堂场景序列。本申请对于识别课堂场景的技术方案、课堂场景种类和课堂场景序列的图形化形式不做限定。例如,在另一个实施例子中,有7种课堂场景,除了上述6种课堂场景,还包括课堂组织,课堂组织的特征是老师组织指导学生进行学习活动,而不是讲解知识点。
需要说明的是,课堂场景图呈现课堂场景的数量和种类是由具体的实际情况决定的,此处不做限定。
S104、在第三区域中展示学生行为分布图,学生行为分布图是学生行为分布随时间变化的图形化表示。
一个示例性的实施例,参考图4,图4为图2的局部放大图;
在图2、图4所示的实施例中,学生行为分布图的呈现格式为二维图,二维图的每条竖线对应一个课堂时刻,竖线包含一个或多个第一子段,每个第一子段对应课堂时刻的一种学生行为,且不同学生行为的第一子段用不同的颜色绘制,第一子段的长度与其对应的学生行为的人数成正比;
或在另一个示例性的实施例中,二维图的每条横线对应每一个课堂时刻,横线包含一个或多个第二子段,每个第二子段对应课堂时刻的一种学生行为,且不同学生行为的第二子段用不同的颜色绘制,第二子段的长度与其对应的学生行为的人数成正比。
学生行为识别的技术已经达到了相当成熟的水平,此处不再赘述。参考图4,学生行为包括举手行为、站立行为、听讲行为、读写行为(读书行为和写字行为的合并)、背身行为、其它(除举手、站立、听讲、读写、背身外的其它行为)等6种行为,图4中的学生行为名称对应的颜色即为该学生行为的绘图颜色。整个课堂教学过程中,各种学生行为的人数体现了教学特征的一种细节特征,数据量很大,但是,将大规模的学生行为数据用图形化的方法展示后,根据图中每列(或每行)不同颜色线段的长度和各种色块的面积,老师可以直观地查看课堂中学生行为表现,定位感兴趣时点或感兴趣时段。
可见,通过这种可视化方式,可以帮助老师看到学生行为的变化趋势和分布,使得更好地理解课堂中学生行为的特点和规律,有助于引导老师高效地回看课堂视频,提高教研活动的效率。
S105、指示线可以移动,用于指示第一区域、第二区域或第三区域的信息对教学过程进行解读。
优选的,指示线同步指示同一时刻下第一区域、第二区域和第三区域的信息,用于结合第一区域、第二区域和第三区域的信息对教学过程进行解读。
优选的,指示线同步指示的是所述第一区域、第二区域和第三区域对应同一课堂时刻的信息。
可见,通过指示线的同步指示,可以快速获取到来自不同区域的同一时刻的信息,大大提高了学生行为分布、课堂场景序列、学情指标整合和处理的效率。同时第一区域、第二区域和第三区域的信息结合起来,可以提供一个全面、深入的教学过程视角,从多个角度同时解读教学过程,进而有效引导老师高效地回看课堂视频,提高教研活动的效率。
本申请的课堂学情的展示方法包括至少一条指示线,指示线可以移动,用于指示所述第一区域、第二区域和第三区域的信息对教学过程进行解读。
在另一些实施例中,在一个实施例中,指示线多于一条,它们可以同步移动,即任一条指示线移动,其它的指示线会跟随移动,实现对所述第一区域、第二区域和第三区域的信息的同步指示,让用户可以结合所述三个区域的信息对教学过程进行解读。
在另一些实施例中,第一区域、第二区域和第三区域以上、中、下的布局方式竖直排放;
指示线同时穿过第一区域、第二区域和第三区域,实现对第一区域、第二区域和第三区域的信息的同步指示。
可见,竖直排放的布局设计和指示线的同步指示,提供了一种有效的信息交互方式。可以通过移动指示线,快速获取和比较不同时刻下三个区域的信息,进而有效引导老师高效地回看课堂视频,提高教研活动的效率。
在另一些实施例中,第一区域、第二区域和第三区域以左、中、右并排的布局方式,该实施例有三条指标线,每个区域包含一条指示线,移动任何一个区域的指示线,另外两个区域的指示线会同步跟随移动,实现对三个区域的信息的同步指示。
需要强调的是,上述两个实施例仅仅是对第一区域、第二区域和第三区域的布局方式进行了示例性的描述。这些示例并未对区域的布局方式设定具体的限制。实际布局方式可以根据具体需求进行调整,以最有效地满足教学和数据展示的需求,此处不做限定。
在另一些实施例中,参考图2,第一区域中还设置了一个指示信息区,所述指示信息区汇总显示指示线所指的三个区域的课堂学情数据,
在另一些实施例中,参考图2,第一区域中还包含一个时间轴,课堂场景图上方的数字代表课堂时刻,它们构成了整个教学过程的时间轴,可以定位感兴趣位置所对应的课堂时间。
在另一些实施例中,参考图6,图6为本申请提供的课堂学情的展示方法的另一个展示示意图。指示线移至目标位置后,通过预设的第一命令控制指示线所指的预设大小的区间信息放大显示,用于查看区间信息的细节。第一命令被用来触发一段以指示线为中心的时间范围内的信息进行放大显示。需要说明的是,对第一命令的形式并不限定,它可以是计算机设备支持的任何形式的输入操作。同样,也并未设定对放大显示的时间区间相对于指示线的位置或区间大小的具体要求。在另一种实施例中,第一命令被用于触发放大显示指示线后方一段时间范围内的信息。因此可以根据实际需求进行调整,以最有效地满足用户的需求。
可见,可以放大指定区间的信息,使得细节更为清晰,从而提高了所放大的信息的可视性。同时可以更准确地解读和理解数据,从而提高了数据解读的精准度。
在另一些实施例中,参考图7,图7为本申请提供的课堂学情的展示方法的另一个展示示意图,本申请的方法根据视频播放器配合使用,可以联合课堂学情数据和课堂视频对教学过程进行解读,具体的结合方式有多种,本申请并不做限定。在一个可选的实施例中,课堂学情数据和课堂视频竖直叠放布局,课堂视频包括讲台区视频和学生区视频,视频播放时,指示线也跟随着播放进度移动。
可见,这种方式使得用户能够直观地看到课堂学情数据和课堂视频之间的对应关系,从而对教学过程有更深入的理解。
在另一些实施例中,设置第二命令,触发所述第二命令可以给外部系统发送一个命令,用于控制视频播放器将课堂视频的播放时间点跳转到指示线所指的课堂时刻,更利于结合课堂学情数据和课堂视频对教学过程进行解读。
在另一些实施例中,设置第三命令,触发所述第三命令可以将第一区域、第二区域和第三区域整体放大,并可以控制放大倍数。
综上所述,可见,本申请的方法提高了对课堂学情数据(即学情指标、课堂场景和学生行为分布)的分析能力,以提供更丰富、更直观的数据展示形式。将大规模的学生行为数据通过学生行为分布图进行图形化展示,以课堂场景图可视化的方式对整个教学过程进行大粒度、有教学含义的切片,以及通过学情指标图可视化展示高度综合的课堂学情指标,这三种展示方式将学生行为分布、教学过程和高度综合的学情指标有机地整合在一起,提供了一种全新的、高效的学情呈现方式。
根据学生行为分布图,老师可以快速定位到感兴趣的学生行为分布时点或时段;根据课堂场景图,老师可以清晰地定位到感兴趣的课堂场景;根据学情指标图的高点、低点或高低变化,老师可以快速定位到课堂的重要时点和重要时刻。同时还设置了指示线,用于指示上述三种数据,老师结合三者进行课堂观察,让老师能够精准地观察到所指时刻的课堂学情。这种改善后的学情数据类型和呈现方式,不仅提升了AI对课堂学情数据的分析能力,也大大增强了其在引导老师解读教学过程中的作用。老师以全局地、快速地找到感兴趣区域,高效地回顾教学过程,提高教研活动的效率。
本申请还提供了一种学生行为分布图的生成方法,下面对本实施例中学生行为分布图的生成方法进行描述:
如图8所示,图8为本申请提供的学生行为分布图的生成方法的流程图。
步骤S801、确定第一学生行为表和第二学生行为表,所述第一学生行为表包括行为识别算法要识别的学生行为,所述第二学生行为表包括所述学生行为分布图要展示的学生行为。
所述第一学生行为表包括行为识别算法要识别的学生行为,所述第二学生行为表包括学生行为分布图要展示的学生行为。
至于第一学生行为表和第二学生行为表中的学生行为种类,此处不做限定。
需要说明的是,第一学生行为表和第二学生行为表可以包含各种不同类型的学生行为。但是,第一学生行为表中的每个行为必须能够映射到第二学生行为表中的某一种行为,这种映射可以是一对一的,或者多对一的。例如:第一学生行为表包含“学生读书”、“学生书写”这两种行为,而第二学生行为表包含“学生读写”行为,映射关系为:第一学生行为表的“学生读书”行为和“学生书写”行为都映射到第二学生行为表的“学生读写”行为;通常,第二学生行为表包含一个名为“其它”的行为,第一行为表中不需要特别关注的行为都会映射为“其它”行为。
学生行为识别的相关技术已经达到了相当成熟的水平,此处不再赘述。
步骤S802、在每个采样时刻利用行为识别算法分析课堂视频,得到若干个学生行为,再利用第一学生行为表,提取当前采样时刻的全部或部分学生的行为,再统计当前采样时刻的学生行为分布数据;所有采样时刻的所述学生行为分布数据汇总成第一数据集,采样时刻由预设的采样策略确定。
所述采样策略可以以固定时间间隔确定采样时刻,例如每1秒或2秒采样一次。在另一些实施例中,不等时长的采样间隔也是可以的,此处不做限定。
便于理解的是:在每一个预设的采样时刻,都会使用行为识别算法对课堂视频进行分析,以此来识别和记录学生的行为。识别出的学生行为然后会被映射到第一学生行为表中。统计当前采样时刻的学生行为分布数据。
触发上述步骤,每个时刻的学生行为分布数据会被收集起来,汇总成一个第一数据集。
对于具体的识别算法,此处并不限定,可以是深度学习AI算法,用AI算法分析课堂视频,对当前采样时刻的全部或部分学生的行为进行分类。
在实际的使用过程中,有些学生被遮挡或其它原因,造成其行为无法识别到。在这种情况下,这部分无法准确识别的数据可能会对最终的分析结果产生干扰或误导,因此选择舍弃这部分数据。
可知,这样的处理方式有利于保证数据的质量和分析结果的准确性。
步骤S803、按照预设的映射算法,由所述第一数据集生成第二数据集。所述第二数据集的元素对应的学生行为包含在所述第二学生行为表内,所述第二数据集的时间相邻元素的时间间隔相同。
根据步骤S801可知,第一学生行为表和第二学生行为表包括的学生行为种类可能不同;根据步骤S801可知,根据所采用的采样策略不同,采样时刻可能是稀疏的、也可能不是等间隔的,因此,可能需要进行时间映射和学生行为映射,将第一数据映射生成第二数据集。第二数据集有两个特性:第一个特性是第二数据集的元素对应的学生行为包含在所述第二学生行为表内;第二个特性是时间相邻元素的时间间隔相同,对于具体间隔值,本申请不做限定,在本实施例中,时间间隔定为1秒,如果课堂时长为40分钟,那么第二数据集有2400个元素。
至于具体的映射方法,相关技术已经达到了相当成熟的水平,此处不再赘述。
步骤S804、为所述第二学生行为表的每种学生行为设置不同的绘图颜色,根据所述第二数据集绘制二维的学生行为分布图,其中,所述第二数据集的每个元素对应所述学生行为分布图的一根竖线,所述竖线包括一个或多个子段,每个所述子段对应一种学生行为,所述子段的长度与其对应的学生行为的人数成正比,不同学生行为的子段用不同的颜色绘制。
为第二学生行为表中的每种学生行为预设一种绘图颜色;用所述绘图颜色,根据所述第二数据集的一个元素,可以绘制学生行为分布图的一根竖线。下面是以示例性的方式说明如何为第二数据集的元素E绘制其对应的竖线,设学生总人数为48,要绘制的学生行为分布图的高度200个像点,即竖线的长度为200个像点,元素E的学生行为分布数据为:(举手=3,站立=2,听讲=30,读写=10,背身=0,其它=3);以举手、站立、听讲、读写、背身及其它的顺序从上往下绘制该竖线:首先用“举手颜色”自起点往下绘制一个长度为L1(L1=3*200/48=12)的线段,用“站立颜色”接着往下绘制一个长度为L2(L1=2*200/48=8)的线段,用相同的计算方法,继续绘制“听讲”对应的长为L3(125)的线段、“读写”对应长为L4(41)的线段,背身人数为0个,不用绘制其线段,最后,以“其它”对应的颜色绘制长为L5(L5=200-L1-L2-L3-L4-L5=14)的线段。要说明的是,上述只是一个示例,而不是限定,可以以其它方式绘制,例如,在上述例子中,以举手、站立、听讲、读写、背身及其它的顺序从上往下绘制竖线,实际上,可以以其它顺序绘制竖线。第二数据集的所有元素绘制的竖线构成学生行为分布图。设第二数据集有2400个元素,那么生成的学生行为分布图的分辨率为2400*200。
本申请还提供了一种学生参与度的计算方法,如图9所示,图9为本申请提供的学生参与度的计算方法的流程图。
步骤S901、根据预设的第一采样策略确定第一采样时刻,对于每个第一采样时刻,分析教学过程数据,识别预设学生行为,统计得到学生行为分布;
需要说明的是,第一采样策略的采样间隔可以是等长的,也可以是不等长的,此处不做限定。关于第一采样策略中的采样间隔,在实际的使用过程中较短的采样间隔会导致分析粒度的减小,这通常会提升分析结果的质量。但同时,较短的采样间隔也会带来更大的计算量,这就需要更高的计算能力,并可能增加计算设备的成本。一个优选的实施例中,采样间隔设定在1到2秒内,这意味着第一采样策略按照1到2秒的采样间隔进行采样,这样既可以保证较好的计算结果,又可以在一定程度上控制计算量和设备成本。
对于每个第一采样时刻,对课堂的教学过程数据进行分析,教学过程数据包括学生区画面,识别课堂中的预设学生行为,统计各种预设学生行为的人数及其占比,即可得到学生行为分布。对于预设的学生行为,本申请不作限定,根据具体的需求,可以包括举手、站立、听讲、读书、书写、背转身、趴桌中的若干个,也可以包括其它学生行为种类。
需要说明的是,教学过程数据除了学生区画面,还可以包含其它类型的数据以增强学生行为识别的准确性,此处并不限定。
识别学生行为的技术在相关技术已经达到了相当成熟的水平,此处不再赘述。
需要说明的是,在每个第一采样时刻,分析的教学过程数据并不局限于当前时刻的数据。在一个具体的实施例中,仅仅根据第一采样时刻的学生区画面识别学生行为,这样的方式相对简单,对计算设备的性能要求较低。另一个具体的实施例中,根据第一采样时刻前后几帧的学生区画面来识别学生行为,以增强识别准确度,例如,连续分析第一采样时刻前后连续15帧的学生区画面识别学生行为,这种技术方案对计算设备的性能要求较高,但效果较好。值得说明的是,通常,教学过程数据的采集间隔小于所述第一采样时刻的间隔,例如,学生区画面的采集为30帧/秒。
在实际的使用过程中,由于学生行为识别过程中可能会受到遮挡或其他因素的影响,可能生成一些可信度较低的识别结果,因此,一个优选的实施例中,根据预设的第一采样策略确定第一采样时刻;对于每个第一采样时刻,分析教学过程数据中的学生区画面,识别所述学生区画面中的预设学生行为;根据预设的可信度算法计算每个预设学生行为的可信度;提取可信度大于预设可信度阈值的预设学生行为;统计每个第一采样时刻的学生行为分布。本申请对于具体的可信度算法,不作限定。作为示例性的描述,计算一个学生行为可信度的参量可以包括:神经网络输出的可信度值、该行为对应学生的前后一段时间内的行为变化、该行为对应学生的遮挡程度、该行为对应学生的头像大小等等。结合各种可信度参量,容易实现一个可用的可信度算法,此处不再赘述。
可见,通过采用预设的第一采样策略确定每个第一采样时刻,并在每个第一采样时刻分析教学过程的数据,识别教学过程中的学生区画面中的预设学生行为。利用预设的可信度算法计算每个预设学生行为的可信度,并只提取出可信度大于预设可信度阈值的预设学生行为。不仅提高了识别学生行为的准确性,减少了误识别对学生参与度计算的影响,当然,在另一些实施例中也可以直接统计第一采样时刻的识别出的所有学生行为,此处不做限定。
教学过程数据的采集系统上述实施例已经详细描述,此处不再赘述。
步骤S902、根据预设的第二采样策略确定第二采样时刻,对于每个第二采样时刻,分析教学过程数据,根据第二采样时刻前后预设时间段内的各种课堂活动参量的分布情况,确定课堂场景类别;
第二采样策略的采样间隔可以是等长的,也可以是不等长的,此处不做限定。在一些实施例中,第二采样策略与第一采样策略不同,根据实际情况决定不同的采样间隔,此处不做限定。在另一些实施例中,第二采样策略与第一采样策略相同,此处不做限定。采用相同的第一采样策略和第二采样策略,系统流程较为简单。
步骤S902中的教学过程数据包括学生区画面、讲台区画面、课堂声音、课件画面等,还可以包括其它一些教学过程数据,如手持智能教学设备的操作记录等,此处并不限定。需要说明的是,步骤S902采用的教学过程数据实际上包含了步骤S901所采用的教学过程数据。步骤S901的教学过程数据主要体现了学生的行为,而步骤S902的教学过程数据则更全面,不仅包括学生的行为,还包含老师的行为和整个课堂的行为等。尽管数据的内容和重点有所不同,但无论是在步骤S901还是在步骤S902,统一将这些数据称为教学过程数据。
需要说明的是,在每个第二采样时刻,分析的教学过程数据并不局限于当前时刻的数据。例如,在分析课堂声音时,需要考虑连续的声音片段,而非仅仅当前第二采样时刻的声音,同样,对于师生行为的分析,可能会需要考虑当前第二采样时刻前后几帧的画面。
具体的,课堂活动参量包括老师行为、学生行为、课件行为和课堂声音;课堂声音包括老师声音、学生单人声、学生讨论声、学生齐声、静音中一种或多种。实质上,上述老师行为、学生行为、课件行为、课堂声音等,均为上位概括,例如老师行为可以细分:老师板书、老师的面部朝向、老师在教室中的位置等;学生行为可以细分:站立、举手、听讲、书写、读书、背转身等;课件行为是指操作课件的行为,如课件画面变化、课件内容被点击等;课堂声音也可以进一步细分类别,常见的有老师声音(老师发言)、学生单人声(单个学生发言)、学生讨论声(多个学生讨论问题)、学生齐声(多个学生齐读或齐答)、静音(没有声音或音量低于预设阈值)等。对于具体的行为类别,此处不做限定。更全面且细致的课堂活动参量的定义可以更深入、更全面地捕捉课堂活动特征,从而提高课堂场景识别的准确性。
具体的,课堂场景类别包括老师讲授、课件演示、师生问答、学生练习、生生互动、学生上台展示、课堂组织中两种或两种以上。在具体实现中,还可以包含更多的课堂场景,此处不做限定。要说明的是,课堂场景过少,可能无法准确地刻画课堂教学过程,而课堂场景种类过多,会将教学过程切分的过细,导致课堂场景图很细碎,不利于回看课堂教学过程,具体的切分粒度,需要根据实际用户需求确定。一种可选方式是,识别较多的课堂场景种类,可以提高学生参与度计算的准确性,而通过UI展示给用户时,将教学含义接近的几种课堂场景合并为一种课堂场景,例如可以识别老师语言讲授场景(老师以话语进行讲授)、老师板书讲授场景(老师边板书边讲授)、老师示范讲授场景(老师边示范边讲授)等讲授类子场景,而将这三种场景合并为老师讲授场景进行展示。
在步骤S902的一个实施例中,包括:
步骤S9021,根据预设的第二采样策略确定第二采样时刻;
步骤S9022,对于每个所述第二采样时刻,分析教学过程数据,识别课堂活动参量,生成课堂活动参量数据集;
对于每个第二采样时刻,分析教学过程数据,识别各种课堂活动参量,获得课堂活动参量数据,如包括老师行为类别和持续时长、课堂声音类别和持续时长、各种学生行为的人数等等,对于具体的课堂活动参量及课堂活动参量数据,此处不做限定。每一个第二采样时刻的课堂活动参量数据对应课堂活动参量数据集的一个元素,所有第二采样时刻的课堂活动参量数据生成课堂活动参量数据集。
课堂活动参量(即老师行为、学生行为、课件行为和课堂声音等)的识别技术是成熟技术,此处不再赘述。根据识别出的各种课堂活动参量获得课堂活动参量数据(包括老师行为类别和持续时长、课堂声音类别和持续时长、各种学生行为的人数等)的算法,根据具体需求,容易确定一个技术方案,本处不再赘述。
步骤S9023,对于当前第二采样时刻,根据预设的时间窗口选择策略,确定包含当前第二采样时刻的若干个时间窗口;当前第二采样时刻为任一第二采样时刻;
本申请对于时间窗口的选择策略不作限定。一个示例性的例子中,根据预设的时间窗口选择策略,选择了所有包含当前第二采样时刻的时长为16秒和20秒的时间段为时间窗口,例如,设当前第二采样时刻是教学过程的第100秒,那么,选择了85秒~100秒、86秒~101秒、…、100秒~115秒的时间段为时间窗口,还选择了81秒~100秒、82秒~101秒、…、100秒~119秒的时间段为时间窗口。
步骤S9024,对于当前时间窗口,根据课堂活动参量数据集统计课堂活动参量的分布情况,计算课堂活动特征值,当前时间窗口为任一时间窗口;
对于当前时间窗口,根据课堂活动参量数据集统计各种课堂活动参量的分布情况。显然,当前时间窗口中所有第二采样时刻的课堂活动参量数据也是一个集合,它是课堂活动参量数据集的一个子集,在该子集上统计各种课堂活动参量的分布情况。对于具体的统计方法,本申请不做限定,根据具体需求,容易确定一个技术方案。为了便于理解,下面是关于课堂活动参量分布数据的示例性描述,对于学生行为,要统计时间窗口内各个时刻的各种学生行为分布;对于老师声音,要统计在整个时间窗口中老师声音的时长和占比。
然后,根据上述各种课堂活动参量的分布情况计算当前时间窗口的课堂活动特征值。所述课堂活动参量的分布数据体现了该时间窗口的各种课堂活动特征,综合当前时间窗口中各种课堂活动参量的分布数据,计算该时间窗口的课堂活动特征值,用于识别课堂场景类别,课堂活动特征值可以是一个标量数值,也可以是一个向量。
步骤S9025,根据课堂活动特征值确定当前第二采样时刻的课堂场景类别。
对于当前第二采样时刻的所有时间窗口,都计算了相应的课堂活动特征值,综合分析所有时间窗口的课堂活动特征值,即综合分析当前第二采样时刻前后预设时间段内的各种课堂活动参量的分布情况,综合了当前第二采样时刻前后一段时间内的课堂活动特征,确定当前第二采样时刻的课堂场景类别;
对于课堂活动特征值的计算方法和课堂场景类别判断算法,本申请不做限定。作为提示性的说明,课堂活动特征值计算方法的设计思路是其结果要尽可能突出当前时间窗口的最主要的课堂活动特征,从而提高课堂场景的识别准确度。
在一个具体实施例中,对于每个时间窗口,针对每种课堂场景都计算一个分值,一个时间窗口的所有课堂场景分值即为该时间窗口的课堂活动特征值,按照预设策略,根据所有时间窗口的课堂活动特征值中最突出的一个来确定课堂场景类别,例如,如果老师讲授场景对应的分值最大,则判断当前第二采样时刻的课堂场景类别为“老师讲授”。
另一个实施例中,通过预设课堂场景表格,该表格包含多个栏目,每个栏目都对应一种特定的课堂场景。在这个表格中,每种课堂场景都对应一定范围的课堂活动特征值。这样,可以通过比较计算出的课堂活动特征值与表格中的范围,来确定对应的课堂场景。
可见,通过分析丰富的教学过程数据,获得详尽的体现课堂活动特征的课堂活动参量数据集。通过使用预设的时间窗口选择策略,不只分析了当前第二采样时刻的各种课堂活动参量的分布情况,而且还分析了其前后预设时间段内的各种课堂活动参量分布情况,这样避免单一的时刻所带来的误差问题,增强了课堂场景类别的识别准确性。
在步骤S902的另一个实施例中,包括:
根据预设的第二采样策略确定第二采样时刻;
对于每个第二采样时刻,将第二采样时刻前后预设时间段内的教学过程数据输入预设课堂场景分类模型,获得课堂场景类别,所述课堂场景分类模型的训练样本为历史教学过程数据,所述训练样本的每个课堂时刻的课堂场景类别根据该课堂时刻前后一段时间内的课堂活动参量的分布情况确定。
课堂场景分类模型的训练样本为历史教学过程数据,其中,历史教学过程数据包括历史课件画面、历史讲台区画面、历史学生区画面和历史课堂语音。对于每个训练样本,对应一个课堂教学过程,要标注每个课堂时刻的课堂场景类别,对于每个课堂时刻,标注人员反复观察该课堂时刻前后一段时间内的各种课堂活动参量的分布情况,从而确定具体的课堂场景类别。
对于课堂场景分类模型,本申请不做限定。它可以是一个端到端的模型,即接收教学过程数据,就可以直接输出课堂场景类别,也可以是两个阶段或更多阶段的模型,模型的第一阶段接收教学过程数据,输出中间结果给模型的下一阶段,逐级传递,模型的最后阶段输出课堂场景类别。
在一个实施例中,课堂场景分类模型的训练方式如下:预先收集包含历史课件画面、历史讲台区画面、历史学生区画面和历史课堂语音的相关数据。这些数据可以来自历史数据库,也可以人工输入。根据收集到的数据,使用监督学习的方式对模型进行训练。标注每个训练样本(每个训练样本对应一个课堂的教学过程)时,对于每个课堂时刻,标注人员反复观察该课堂时刻前后一段时间内的各种课堂活动参量的分布情况,确定具体的课堂场景类别,即每个课堂时刻的课堂场景类别与该课堂时刻前后一段时间内的各种课堂活动参量的分布情况建立关联。
当然,在另一些实施例中,课堂场景分类模型还可以利用其它方式训练,此处不做限定。
步骤S903、根据课堂场景类别生成整个教学过程的课堂场景序列;
可以通过每个第二采样时刻的课堂场景类别,生成整个教学过程的课堂场景序列。对于具体方法,本申请不做限定,一个简单的方法是将教学过程中具有相同课堂场景类别的连续时间段,切分为一个独立的课堂场景,这样就生成了一个表示整个教学过程的课堂场景序列。
然而,上述方法可能会导致教学场景的数量过多,粒度过小。为解决这个问题,可以引入一个过滤算法:如果某个课堂场景的时长小于某个设定的阈值,就将它归并到其相邻的教学场景中。这样的处理不仅可以减少课堂场景的数量,还可以确保每个课堂场景都有足够的长度,更有利于进行后续的分析和理解。
步骤S904、根据预设学生行为与课堂场景的符合性确定参与度权重表;
参考表1,表1为参与度权重表的一个示例,参与度权重表的行和列分别对应预设学生行为类别和课堂场景类别。每个表项的值由对应的学生行为和课堂场景的符合程度决定。这个值越大,意味着该种学生行为与该种课堂场景的匹配度越高,也就是说,对于该种课堂场景,学生的该种行为表现出更高的参与度。这种方式可以帮助更清晰地理解和量化学生在不同课堂场景中的参与程度。
在表1中,学生行为分为三种类别:听讲、书写和趴桌;课堂场景则有五种类别:老师讲授、课件演示、学生上台、学生练习和师生问答。在这个表中,“听讲”对应“老师讲授”的权重值是10,这个较高的权重值表示听讲行为与老师讲授场景高度匹配,学生的参与度很高。相反,“趴桌”对应“老师讲授”的权重值是-10,表示学生趴在桌子上的行为与老师讲授场景不匹配,学生的参与度很低。而“书写”对应“老师讲授”的权重值是3,表示学生书写与老师讲授场景部分匹配,学生的参与度适中。
表1:参与度权重表由上可见,学生行为与课堂场景的符合性刻画了学生参与当前课堂教学的程度,如果准确地提取了课堂中每个学生的行为,并准确识别了当前的课堂场景,就可以综合计算出当前学生整体上参与课堂教学活动的程度。
需要说明的是,参与度权重表可以是静态的,即各表项的值(权重)是整堂课固定不变的;也可以是动态的,即各表项的值对于各个课堂时刻是不同的,会根据当前课堂时刻前后一个时间段内的教学活动特征动态调整。对于参与度权重表的具体格式、表项的权重值及其确定方法、学生行为类别和课堂场景类别的数量或类型,此处并不限定。
步骤S905、根据参与度权重表、学生行为分布和课堂场景序列计算每个课堂时刻的学生参与度值。
步骤S905中的课堂时刻此处不做限定,间隔为1秒即可。
具体的,对于任意一个第一采样时刻,可以根据课堂场景序列确定该时刻的课堂场景,然后,可以从参与度权重表中查找该课堂场景下各种学生行为的权重值,从而可以计算每个第一采样时刻的学生参与度值。
具体的计算方法,本申请不做限定。在一个实施例中,采用一种简单的方法,其根据每个第一采样时刻的学生行为分布进行加权累加,并除以学生总人数,得到学生参与度值。为了便于理解,以表1权重表举例,设当前第一采样时刻的课堂场景为“老师讲授”,总共有学生50人,学生行为分布为(听讲=30人、书写=15人、趴桌=5人),那么当前第一采样时刻的学生参与度值为(30*10+3*15-5*10)/50=5.9。在另一个实施例中,对于每个第一采样时刻,综合考虑包含当前第一采样时刻的一个时间区间内的学生行为分布和课堂场景计算学生参与度值。
这样,计算出所有第一采样时刻的学生参与度值后,通过插值技术,填补在这些采样时刻之间的学生参与度值,即可得到课堂上每个时刻的学生参与度值。根据所有课堂时刻的学生参与度值,可以图示化绘制为一根学生参与度曲线。
综上所述,可见,通过分析教学过程数据和课堂活动参量,明确考虑了课堂场景类别与学生参与度的相关性。通过生成整个教学过程的课堂场景序列,并根据预设的学生行为与课堂场景的符合性确定参与度权重表,能够更精确地量化学生在教学过程各个时刻的参与情况,更准确地反映学生在不同课堂场景下的实际参与度。同时,由于本发明能够在每个课堂时刻计算出学生的参与度值,综上,减少对学生参与度的误判,提高学生参与度结果的准确性。
下述为本申请的装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
参考图10,本申请实施例提供了一种课堂学情的展示系统,包括计算机,计算机包括:
第一展示模块1001,用于根据学情指标、课堂场景和学生行为分布显示课堂学情展示画面,课堂学情展示画面包括第一区域、第二区域、第三区域和指示线;
第二展示模块1002,用于在第一区域中展示学情指标图,学情指标图是学情指标随时间变化的图形化表示;根据所述学情指标的高点、低点、或高低变化可以定位教学过程的重要时点和重要时段;
第三展示模块1003,用于在第二区域中展示课堂场景图,课堂场景图是教学过程的课堂场景随时间变化的序列的图形化表示;课堂场景是根据教学活动特征对教学过程的切片;
第四展示模块1004,用于在第三区域中,展示学生行为分布图,学生行为分布图是学生行为分布随时间变化的图形化表示;
指示线模块1005,用于可以移动指示线,用于指示第一区域、第二区域或第三区域的信息对教学过程进行解读。
在一些实施例中,指示线同步指示同一时刻下第一区域、第二区域和第三区域的信息,用于结合第一区域、第二区域和第三区域的信息对教学过程进行解读。
在一些实施例中,第一区域、第二区域和第三区域以上、中、下的布局方式竖直排放;
指示线同时穿过第一区域、第二区域和第三区域,实现对第一区域、第二区域和第三区域的信息的同步指示。
在一些实施例中,课堂场景图的呈现格式为:由一个或若干个子段依次拼接组成的总段,每个子段对应一个课堂场景,子段的长度与对应的课堂场景的时长成正比,且不同种类的课堂场景的子段用不同的颜色绘制。
在一些实施例中,学生行为分布图的呈现格式为二维图,二维图的每条竖线对应一个课堂时刻,竖线包含一个或多个第一子段,每个第一子段对应课堂时刻的一种学生行为,且不同学生行为的第一子段用不同的颜色绘制,第一子段的长度与其对应的学生行为的人数成正比;
或;
二维图的每条横线对应一个课堂时刻,横线包含一个或多个第二子段,每个第二子段对应课堂时刻的一种学生行为,且不同学生行为的第二子段用不同的颜色绘制,第二子段的长度与其对应的学生行为的人数成正比。
在一些实施例中,学情指标图包括一条或多条学情指标曲线,根据学情指标曲线的高点、低点或高低变化,定位教学过程的重要时点或重要时段,学情指标曲线以曲线的形式表示学情指标随时间变化。
在一些实施例中,学情指标曲线为学生参与度曲线、学生活跃度曲线和学生行为一致性曲线中一条或多条曲线;
学生参与度曲线体现每个课堂时刻学生参与教学活动的程度;根据每个学生的学生行为与课堂场景的符合性计算每个课堂时刻的学生参与度值,然后根据学生参与度值生成学生参与度曲线;
学生活跃度曲线体现每个课堂时刻学生的活跃程度;
学生行为一致性曲线体现每个课堂时刻学生行为的一致性程度。
在一些实施例中,根据每个学生的学生行为与课堂场景的符合性计算每个课堂时刻的学生参与度值,具体包括:
根据预设的第一采样策略确定第一采样时刻,对于每个第一采样时刻,分析教学过程数据,识别预设学生行为,统计得到学生行为分布;
根据预设的第二采样策略确定第二采样时刻,对于每个第二采样时刻,分析教学过程数据,根据第二采样时刻前后预设时间段内的各种课堂活动参量的分布情况,确定课堂场景类别;根据课堂场景类别生成整个教学过程的课堂场景序列;
根据预设学生行为与课堂场景的符合性确定参与度权重表;
根据参与度权重表、学生行为分布和课堂场景序列计算每个课堂时刻的学生参与度值。
在一些实施例中,指示线移至目标位置后,通过预设的第一命令控制指示线所指的预设大小的区间信息放大显示,用于查看区间信息的细节。
本申请还公开一种课堂学情的展示系统。参照图11,为本申请提供的课堂学情的展示系统的实体装置的示意图。该计算机1100可以包括:至少一个处理器1101,至少一个网络接口1104,用户接口1103,存储器1105,至少一个通信总线1102。
其中,通信总线1102用于实现这些组件之间的连接通信。
其中,用户接口1103可以包括显示屏(Display)、摄像头(Camera),可选用户接口1103还可以包括标准的有线接口、无线接口。
其中,网络接口1104可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
其中,处理器1101可以包括一个或者多个处理核心。处理器1101利用各种接口和线路连接整个服务器内的各个部分,通过运行或执行存储在存储器1105内的指令、程序、代码集或指令集,以及调用存储在存储器1105内的数据,执行服务器的各种功能和处理数据。可选的,处理器1101可以采用数字信号处理(DigitalSignalProcessing,DSP)、现场可编程门阵列(Field-ProgrammableGateArray,FPGA)、可编程逻辑阵列(ProgrammableLogicArray,PLA)中的至少一种硬件形式来实现。处理器1101可集成中央处理器(CentralProcessingUnit,CPU)、图像处理器(GraphicsProcessingUnit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示屏所需要显示的内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器1101中,单独通过一块芯片进行实现。
其中,存储器1105可以包括随机存储器(RandomAccessMemory,RAM),也可以包括只读存储器(Read-OnlyMemory)。可选的,该存储器1105包括非瞬时性计算机可读介质(non-transitorycomputer-readablestoragemedium)。存储器1105可用于存储指令、程序、代码、代码集或指令集。存储器1105可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等;存储数据区可存储上面各个方法实施例中涉及的数据等。存储器1105可选的还可以是至少一个位于远离前述处理器1101的存储装置。参照图5,作为一种计算机存储介质的存储器1105中可以包括操作系统、网络通信模块、用户接口模块以及课堂学情的展示的应用程序。
在图5所示的计算机1100中,用户接口1103主要用于为用户提供输入的接口,获取用户输入的数据;而处理器1101可以用于调用存储器1105中存储的课堂学情的展示的应用程序,当由一个或多个处理器1101执行时,使得计算机1100执行如上述实施例中一个或多个所述的方法。需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必需的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几种实施方式中,应该理解到,所披露的装置,可通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些服务接口,装置或单元的间接耦合或通信连接,可以是电性或其他的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储器包括:U盘、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述者,仅为本公开的示例性实施例,不能以此限定本公开的范围。即但凡依本公开教导所作的等效变化与修饰,皆仍属本公开涵盖的范围内。本领域技术人员在考虑说明书及实践真理的公开后,将容易想到本公开的其他实施方案。
本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未记载的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的范围和精神由权利要求限定。
Claims (12)
1.一种课堂学情的展示方法,其特征在于,所述方法包括:
根据学情指标、课堂场景和学生行为分布显示课堂学情展示画面,所述课堂学情展示画面包括第一区域、第二区域、第三区域和指示线;
在所述第一区域中展示学情指标图,所述学情指标图是学情指标随时间变化的图形化表示;根据所述学情指标的高点、低点、或高低变化可以定位教学过程的重要时点和重要时段;
在所述第二区域中展示课堂场景图,所述课堂场景图是教学过程的课堂场景随时间变化的序列的图形化表示;所述课堂场景是根据教学活动特征对教学过程的切片;
在所述第三区域中展示学生行为分布图,所述学生行为分布图是学生行为分布随时间变化的图形化表示;
所述指示线可以移动,用于指示所述第一区域、所述第二区域或所述第三区域的信息对教学过程进行解读。
2.根据权利要求1所述的课堂学情的展示方法,其特征在于:
所述指示线同步指示同一时刻下所述第一区域、所述第二区域和所述第三区域的信息,用于结合所述第一区域、所述第二区域和所述第三区域的信息对教学过程进行解读。
3.根据权利要求2的任一项所述的课堂学情的展示方法,其特征在于:
所述第一区域、所述第二区域和所述第三区域以上、中、下的布局方式竖直排放;
所述指示线同时穿过所述第一区域、所述第二区域和所述第三区域,实现对所述第一区域、所述第二区域和所述第三区域的信息的同步指示。
4.根据权利要求1至3的任一项所述的课堂学情的展示方法,其特征在于:
所述课堂场景图的呈现格式为:由一个或若干个子段依次拼接组成的总段,每个所述子段对应一个课堂场景,所述子段的长度与对应的课堂场景的时长成正比,且不同种类的课堂场景的子段用不同的颜色绘制。
5.根据权利要求1至3的任一项所述的课堂学情的展示方法,其特征在于:
所述学生行为分布图的呈现格式为二维图,所述二维图的每条竖线对应一个课堂时刻,所述竖线包含一个或多个第一子段,每个所述第一子段对应课堂时刻的一种学生行为,且不同学生行为的所述第一子段用不同的颜色绘制,所述第一子段的长度与其对应的学生行为的人数成正比;
或;
所述二维图的每条横线对应一个课堂时刻,所述横线包含一个或多个第二子段,每个所述第二子段对应课堂时刻的一种学生行为,且不同学生行为的所述第二子段用不同的颜色绘制,所述第二子段的长度与其对应的学生行为的人数成正比。
6.根据权利要求1至3的任一项所述的课堂学情的展示方法,其特征在于:
所述学情指标图包括一条或多条学情指标曲线,根据所述学情指标曲线的高点、低点或高低变化,定位教学过程的重要时点或重要时段,所述学情指标曲线以曲线的形式表示学情指标随时间变化。
7.根据权利要求6所述的课堂学情的展示方法,其特征在于:
所述学情指标曲线为学生参与度曲线、学生活跃度曲线和学生行为一致性曲线中一条或多条曲线;
所述学生参与度曲线体现每个课堂时刻学生参与教学活动的程度;根据学生行为与课堂场景的符合性计算每个课堂时刻的学生参与度值,然后根据所述学生参与度值生成学生参与度曲线;
所述学生活跃度曲线体现每个课堂时刻学生的活跃程度;
所述学生行为一致性曲线体现每个课堂时刻学生行为的一致性程度。
8.根据权利要求7所述的课堂学情的展示方法,其特征在于,所述根据学生行为与课堂场景的符合性计算每个课堂时刻的学生参与度值,具体包括:
根据预设的第一采样策略确定第一采样时刻,对于每个第一采样时刻,分析教学过程数据,识别预设学生行为,统计得到学生行为分布;
根据预设的第二采样策略确定第二采样时刻,对于每个第二采样时刻,分析教学过程数据,根据第二采样时刻前后预设时间段内的各种课堂活动参量的分布情况,确定课堂场景类别;
根据所述课堂场景类别生成整个教学过程的课堂场景序列;
根据预设学生行为与课堂场景的符合性确定参与度权重表;
根据所述参与度权重表、所述学生行为分布和所述课堂场景序列计算每个课堂时刻的学生参与度值。
9.根据权利要求1至2的任一项所述的课堂学情的展示方法,其特征在于,
所述指示线移至目标位置后,通过预设的第一命令控制指示线所指的预设大小的区间信息放大显示,用于查看所述区间信息的细节。
10.一种课堂学情的展示系统,其特征在于,包括计算机,所述计算机包括:
第一展示模块,用于根据学情指标、课堂场景和学生行为分布显示课堂学情展示画面,所述课堂学情展示画面包括第一区域、第二区域、第三区域和指示线;
第二展示模块,用于在所述第一区域中展示学情指标图,所述学情指标图是学情指标随时间变化的图形化表示;根据所述学情指标的高点、低点、或高低变化可以定位教学过程的重要时点和重要时段;
第三展示模块,用于在所述第二区域中展示课堂场景图,所述课堂场景图是教学过程的课堂场景随时间变化的序列的图形化表示;所述课堂场景是根据教学活动特征对教学过程的切片;
第四展示模块,用于在所述第三区域中,展示学生行为分布图,所述学生行为分布图是学生行为分布随时间变化的图形化表示;
指示线模块,用于可以移动所述指示线,用于指示所述第一区域、所述第二区域或所述第三区域的信息对教学过程进行解读。
11.一种课堂学情的展示系统,其特征在于,包括:一个或多个处理器和存储器;
所述存储器与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,所述一个或多个处理器调用所述计算机指令以使得所述课堂学情的展示系统执行如权利要求1-9中任一项所述的方法。
12.一种计算机可读存储介质,包括指令,其特征在于,当所述指令在课堂学情的展示系统上运行时,使得所述课堂学情的展示系统执行如权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311334357.9A CN117391897A (zh) | 2023-10-16 | 2023-10-16 | 一种课堂学情的展示方法、系统及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311334357.9A CN117391897A (zh) | 2023-10-16 | 2023-10-16 | 一种课堂学情的展示方法、系统及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117391897A true CN117391897A (zh) | 2024-01-12 |
Family
ID=89438455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311334357.9A Pending CN117391897A (zh) | 2023-10-16 | 2023-10-16 | 一种课堂学情的展示方法、系统及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117391897A (zh) |
-
2023
- 2023-10-16 CN CN202311334357.9A patent/CN117391897A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109801525B (zh) | 一种用于网络教学的师生多维匹配方法和系统 | |
CN110991381B (zh) | 一种基于行为和语音智能识别的实时课堂学生状态分析与指示提醒系统和方法 | |
KR102140075B1 (ko) | 학습, 검토, 연습 및 암기에서 사용자의 경험을 강화시키기 위한 통찰-기반 인지 보조 장치, 방법 및 시스템 | |
CN111027865B (zh) | 基于行为和表情识别的教学分析与质量评估系统及方法 | |
CN109637207B (zh) | 一种学前教育互动教学装置及教学方法 | |
Ez-Zaouia et al. | EMODA: A tutor oriented multimodal and contextual emotional dashboard | |
WO2020082566A1 (zh) | 基于生物识别的远程教学方法、装置、设备及存储介质 | |
CN110069707A (zh) | 一种人工智能自适应互动教学系统 | |
US20140045162A1 (en) | Device of Structuring Learning Contents, Learning-Content Selection Support System and Support Method Using the Device | |
CN113627779A (zh) | 一种基于大数据和ai技术的教学管理、质量评估系统 | |
US20240153395A1 (en) | Tracking concepts and presenting content in a learning system | |
CN111597305B (zh) | 实体标记方法、装置、计算机设备和存储介质 | |
WO2022009875A1 (ja) | 集中度判別プログラム | |
Villegas-Ch et al. | Identification of emotions from facial gestures in a teaching environment with the use of machine learning techniques | |
CN111563697A (zh) | 一种线上课堂学生情绪分析方法和系统 | |
WO2020116280A1 (ja) | 学習支援装置、学習支援方法および記録媒体 | |
CN117391897A (zh) | 一种课堂学情的展示方法、系统及可读存储介质 | |
CN115641537A (zh) | 教师多模态情感与学生行为相关性的可视分析方法及系统 | |
CN117372215A (zh) | 一种学生参与度的计算方法、系统及可读存储介质 | |
JP7427906B2 (ja) | 情報処理装置、制御方法及びプログラム | |
CN110853428A (zh) | 基于物联网的录播控制方法及系统 | |
CN113160925B (zh) | 多维度art学习测评系统与测评反馈方法 | |
Kang et al. | Predicting classroom activity index through multi-scale head posture classification network | |
Lassance et al. | Video lecture design and student engagement: Analysis of visual attention, affect, satisfaction, and learning outcomes | |
KR102154859B1 (ko) | 치매 예방을 위한 인지 강화 학습 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |