CN111611854B - 一种基于模式识别的课堂情况评价方法 - Google Patents
一种基于模式识别的课堂情况评价方法 Download PDFInfo
- Publication number
- CN111611854B CN111611854B CN202010300109.2A CN202010300109A CN111611854B CN 111611854 B CN111611854 B CN 111611854B CN 202010300109 A CN202010300109 A CN 202010300109A CN 111611854 B CN111611854 B CN 111611854B
- Authority
- CN
- China
- Prior art keywords
- student
- class
- template
- teacher
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 23
- 238000003909 pattern recognition Methods 0.000 title claims abstract description 18
- 239000013598 vector Substances 0.000 claims abstract description 46
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 27
- 230000009471 action Effects 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 8
- 230000008921 facial expression Effects 0.000 claims description 27
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 11
- 230000036544 posture Effects 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 claims description 2
- 208000024891 symptom Diseases 0.000 claims 1
- 238000004445 quantitative analysis Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种基于模式识别的课堂情况评价方法。本发明首先获取老师和学生的模板比对库;然后采集实时数据,确认出勤人数与名单,并输出缺勤人数与名单;获取出勤老师和学生的姿态、动作和面部表情特征,之后通过改进的模板匹配算法对获取的实时数据与模板进行匹配,得到学生听课情况评分,最后将所有学生的数据都进行听课情况评分,最后将获得一个Y向量。Y向量中每一个元素对应一个学生的上课情况,从Y向量的结果中可以看到每一个学生的上课情况以及总体上课情况,对于获得的老师的图像数据也进行评分,处理方式与学生相同。本发明可以为评价系统提供更加客观量化的分析结果,督促学生听课,提高教学质量。
Description
技术领域
本发明涉及到的是模式识别领域和现代化教学领域。提出了一种基于堆栈式去噪自编码器的深度学习框架(SDAE)和基于改进的模板匹配的模式识别算法,将这两种算法应用于现代化课堂教学评价,提高现代化教学水平。
背景技术
模式识别自上世纪五十年代末被首次提出后,就得到各界研究学者的广泛关注和研究。其概念为通过计算机用数学技术方法来研究模式的自动处理和判读。其处理过程为首先将被识别对象数字化,变换为适于计算机处理的数字信息。然后将获得的数字信息进行预处理。处理完后进行特征抽取,即从输入模式中抽取一组特征。所谓特征是选定的一种度量,它对于一般的变形和失真保持不变或几乎不变,并且只含尽可能少的冗余信息。特征抽取过程将输入模式从对象空间映射到特征空间。这时,模式可用特征空间中的一个点或一个特征矢量表示。这种映射不仅压缩了信息量,而且易于分类。在决策理论方法中,特征抽取占有重要的地位。特征抽取后可进行分类,即从特征空间再映射到决策空间。为此而引入鉴别函数,由特征矢量计算出相应于各类别的鉴别函数值,通过鉴别函数值的比较实行分类。
模式识别的应用范围十分广泛,也是近些年来研究的热点之一。根据模式识别的应用,其可以被细分为文字识别,语言识别,指纹识别等各个方向。其中对人的行为检测以及人脸识别,在近些年来得到了迅猛的发展。
随着信息技术的发展,传统的教育模式也发生了变化,逐渐被信息化教育模式取代。利用现代信息技术,开发教育资源,优化教育过程,培养和提高学生信息素养成为一种新的教育方式。而课堂教学评价是信息化教育的一个成果,课堂教育评价是对师生在课堂上进行的教与学的活动过程做出的价值判断,具有非常重要的意义,不仅能够促进课堂教学改革,加强教师之间的相互交流,还可以辅助学校教学管理,为学校教学管理提供依据。所以课堂教学评价方式也是教育领域一直研究的问题。随着信息技术的发展,将信息技术结合到课堂教育评价,是目前研究的一个热点。
在本专利中,我们将基于堆栈式去噪自编码器的深度学习框架(SDAE)和基于改进的模板匹配的模式识别算法应用到课堂教育评价中。通过SDAE算法对课堂上的老师和学生进行人脸识别,采集数据;通过基于改进的模板匹配的模式识别算法来对学生的学习状态和老师的教学状态进行评价,极大地提高了教学评价的精确度。
发明内容
针对现有技术中存在的不足,本发明提供一种基于模式识别的课堂情况评价方法。本发明是对教学领域课堂评价方面的改革,主要将模式识别领域中的基于堆栈式去噪自编码器的深度学习框架(SDAE)和基于改进的模板匹配的模式识别算法与现代教育结合在一起,从而发明一种新的课堂教学评价系统,更精确的辅助学校对教学方面的管理。
本发明涉及两个模式识别的算法,其中基于堆栈式去噪自编码器的深度学习框架(SDAE)与以往的堆栈式编码器相比,其通过增加噪音可以获取更加鲁棒的图像特征,取得更好的表现。而基于改进的模板匹配的模式识别算法将获得的数据与已经获得的模板特征进行匹配,最终得到上课状态的分析。这种匹配方法与以往的匹配方法相比具有更大的精确度。
本发明具体按以下步骤实施:
步骤(1)、获取老师和学生的模板比对库。
步骤(2)、采集实时数据。
步骤(3)、确认出勤人数与名单,并输出缺勤人数与名单;获取出勤老师和学生的姿态、动作和面部表情特征。
步骤(4)、通过改进的模板匹配算法对获取的实时数据与模板进行匹配,得到学生听课情况评分。
步骤(5)、将所有学生的数据都进行听课情况评分,最后将获得一个Y向量。Y向量中每一个元素对应一个学生的上课情况,从Y向量的结果中可以看到每一个学生的上课情况以及总体上课情况。
步骤(6)、对于获得的老师的图像数据也进行评分,处理方式与学生相同;通过输出向量对老师上课情况进行评分。
本发明方法有益结果如下:
1.目前现代教学评价大多还是采用的人工评价以及作业与考试评价,对课堂的关注比较少,对老师的关注更少,导致课堂氛围不佳,尤其是大学课堂,通过现代信息技术,随机及时获取课堂情况,并进行评价,可以为整个评价系统提供更加客观量化的分析结果,督促学生听课,提高教学质量。
2.将基于堆栈式去噪自编码器的深度学习框架(SDAE)引入评价系统,利用该算法提取学生与老师的人脸和行为特征数据,为信息化评价系统的及时获取数据提供了条件。
3.基于堆栈式去噪自编码器的深度学习框架(SDAE)相比于以往的人脸识别算法,其去噪策略与堆栈式结构的结合有助于指导网络模型去学习更加有用和高级的图像特征表示。
4.基于堆栈式去噪自编码器的深度学习框架(SDAE)采用无监督方式来提取数据。其网络结构中的无监督训练模式采用逐层训练参数权重,再将上一层的输出作为下一层的输入继续训练,从而可以获得较为抽象和精致的图像特征,为下一步特征匹配采集到了更加精确的数据,可以提高整个评价系统的性能。
5.在获取数据之后,通过基于改进的模板匹配的模式识别算法来对获取特征与原来拥有的模板进行比对,提高的特征匹配的精确度,减少了误差,让课堂评价系统更加的精准。
6.使用改进的模板匹配的算法解决了待识别图像与模板图像难以一一对应的困难,提高了匹配的精度,让课堂评价的效果更佳。
附图说明
图1是算法流程图;
图2是模板搭建流程图。
具体实施方式
以下结合附图与实施例对本发明方法进行进一步描述。
如图1所示,步骤(1)、获取老师和学生的模板比对库。
首先采集P段不同老师不同课程的课堂视频,每段课堂视频中每五分钟截取一张图片,通过人工标注分辨出截取的图片中的老师与学生,通过人脸识别特征提取算法分别提取出截取的图片中的老师和学生的动作、姿态和面部表情三种特征。将得到的老师的模板图片以矩阵A表示,矩阵A由动作、姿态和面部表情三个行向量组成,动作、姿态和面部表情分别以A1m,A2m,A3m表示。A1m,A2m,A3m的元素均为存储着图片像素数据的列向量。
其中m表示获得的老师模板图片的数量。
同理,将得到的学生的模板图片以矩阵B表示,矩阵B由动作、姿态和面部表情三个行向量组成,动作、姿态和面部表情分别以B1n,B2n,B3n表示。B1n,B2n,B3n的元素均为存储着图片像素数据的列向量。
其中n表示获得的学生模板图片的数量。
通过人工对获得的模板图片进行标注分类,具体规则如下:将A矩阵即老师模板图片中的动作、姿态和面部表情三种特征均进行分类并标注标签,分为优秀授课标签和及格授课标签。将B矩阵即学生模板图片中的动作、姿态和面部表情三种特征也进行分类并标注标签,分为专注听课标签与不专注听课标签。
步骤(2)、采集实时数据。
随机采集某一课堂的上课视频,每隔5秒采集一张图片,将采集的图片通过SDAE算法识别出人脸特征。(进行视频采集的课堂在教室前后都有监控摄像头,可以同时拍摄到老师和学生)
步骤(3)、确认出勤人数与名单,并输出缺勤人数与名单;获取出勤老师和学生的姿态、动作和面部表情特征。
每一节课都有自己对应的老师和学生的图像数据,将获得的人脸特征与这节课的老师和学生进行匹配,区别出老师和学生。确定老师出勤以及学生出勤名单,对出勤的学生进行标号,并输出缺勤学生人数以及名单。
通过人脸识别特征提取算法对获得的老师的图像数据进行特征提取,获得老师的姿态、动作和面部表情特征,并存储在矩阵C中。
其中i表示采集到的老师的图片数量。
通过人脸识别特征提取算法对获得的学生的图像数据进行特征提取,获得学生的姿态、动作和面部表情特征,将学生的图像数据存储在矩阵DP中。
其中p表示出勤学生的标号,j表示采集到的该出勤学生的图片数量。
步骤(4)、通过改进的模板匹配算法对获取的实时数据与模板进行匹配,得到学生听课情况评分。模板匹配是图像识别中经常用到的算法,计算两幅图像的像素距离,距离最小的即为匹配的图像。
从学生的特征矩阵DP中取出姿态特征向量在姿态特征向量/>中存储着很多姿态特征图片的数据。取出其中一个数据,即一张图片,记做向量/>
从模板库中取出学生的姿态特征向量B1。模板姿态特征向量B1中也有很多包含有姿态特征的图片,取出一张,记做B11。
B11={b1,b2,...bm1}T (7)
取一个相对于模板长度较小的整数k作为偏移量。从bk+1开始,计算bk+1与d1的距离,bk+2与d2的距离,...,bm1与dm1-k的距离,然后将计算获得的值相加,记做X1。再将模板特征向量向下移动一个位置,计算bk与d1的距离,bk+1与d2的距离,...,bm1与dm1-k+1的距离,然后将计算获得的值相加,记做X2。以此类推,最后计算b1与dn1-(m1-k-1)的距离,b2与dn1-(m1-k)的距离,...,bm1-k与dn1的距离,然后将计算获得的值相加,记做Xn1-m1+2k+1。
则与B11的距离为
按照上述方法,将与B1中的所有模板图片进行比较,并计算距离X,X值最小所对应的模板图片即为匹配的模板图片。当匹配到的图片标签为专注听课,则在/>位置处输出1,否则输出0。
将中的所有姿态特征图片都进行上述匹配操作,最终可以输出一个只含0和1的向量。扫描计算获得的向量中的1的个数,除以向量元素总个数,当1的个数超过三分之二时,则/>输出1。/>为学生P的姿态特征的结果输出,同理/>为动作和面部表情的结果输出。而Y为最后结合三者后的输出。
同理,对即动作和面部表情特征进行上述操作。当/> 中1的个数大于等于2,则YP输出为1.判定学生P专注听课,否则YP输出为0,判定学生P不专注听课。YP为学生P听课情况评分的结果输出;
步骤(5)、将所有学生的数据都进行听课情况评分,最后将获得一个Y向量。Y向量中每一个元素对应一个学生的上课情况,从Y向量的结果中可以看到每一个学生的上课情况以及总体上课情况。
步骤(6)、对于获得的老师的图像数据也进行评分,处理方式与学生相同;通过输出向量对老师上课情况进行评分。
Claims (2)
1.一种基于模式识别的课堂情况评价方法,其特征在于,步骤如下:
步骤(1)、获取老师和学生的模板比对库;
步骤(2)、采集实时数据;
步骤(3)、确认出勤人数与名单,并输出缺勤人数与名单;获取出勤老师和学生的姿态、动作和面部表情特征;
步骤(4)、通过改进的模板匹配算法对获取的实时数据与模板进行匹配,得到学生听课情况评分;
步骤(5)、将所有学生的数据都进行听课情况评分,最后将获得一个Y向量;Y向量中每一个元素对应一个学生的上课情况,从Y向量的结果中可以看到每一个学生的上课情况以及总体上课情况;
步骤(6)、对于获得的老师的图像数据也进行评分,处理方式与学生相同;通过输出向量对老师上课情况进行评分;
步骤(1)具体方法如下;
首先采集P段不同老师不同课程的课堂视频,每段课堂视频中每五分钟截取一张图片,通过人工标注分辨出截取的图片中的老师与学生,通过人脸识别特征提取算法分别提取出截取的图片中的老师和学生的姿态、动作和面部表情三种特征;将得到的老师的模板图片以矩阵A表示,矩阵A由姿态、动作和面部表情三个行向量组成,姿态、动作和面部表情分别以A1m,A2m,A3m表示;A1m,A2m,A3m的元素均为存储着图片像素数据的列向量;
其中m表示获得的老师模板图片的数量;
同理,将得到的学生的模板图片以矩阵B表示,矩阵B由姿态、动作和面部表情三个行向量组成,姿态、动作和面部表情分别以B1n,B2n,B3n表示;B1n,B2n,B3n的元素均为存储着图片像素数据的列向量;
其中n表示获得的学生模板图片的数量;
通过人工对获得的模板图片进行标注分类,具体规则如下:将A矩阵即老师模板图片中的姿态、动作和面部表情三种特征均进行分类并标注标签,分为优秀授课标签和及格授课标签;将B矩阵即学生模板图片中的姿态、动作和面部表情三种特征也进行分类并标注标签,分为专注听课标签与不专注听课标签;
步骤(2)具体方法如下;
随机采集某一课堂的上课视频,每隔5秒采集一张图片,将采集的图片通过SDAE算法识别出人脸特征;
步骤(3)具体方法如下;
每一节课都有自己对应的老师和学生的图像数据,将获得的人脸特征与这节课的老师和学生进行匹配,区别出老师和学生;确定老师出勤以及学生出勤名单,对出勤的学生进行标号,并输出缺勤学生人数以及名单;
通过人脸识别特征提取算法对获得的老师的图像数据进行特征提取,获得老师的姿态、动作和面部表情特征,并存储在矩阵C中;
其中i表示采集到的老师的图片数量;
通过人脸识别特征提取算法对获得的学生的图像数据进行特征提取,获得学生的姿态、动作和面部表情特征,将学生的图像数据存储在矩阵DP中;
其中p表示出勤学生的标号,j表示采集到的该出勤学生的图片数量;
步骤(4)具体方法如下;
模板匹配是图像识别中经常用到的算法,计算两幅图像的像素距离,距离最小的即为匹配的图像;
从学生的特征矩阵DP中取出姿态特征向量在姿态特征向量/>中存储着很多姿态特征图片的数据;取出其中一个数据,即一张图片,记做向量/>
从模板库中取出学生的姿态特征向量B1;模板姿态特征向量B1中也有很多包含有姿态特征的图片,取出一张,记做B11;
B11={b1,b2,...bm1}T (7)
取一个相对于模板长度小的整数k作为偏移量;从bk+1开始,计算bk+1与d1的距离,bk+2与d2的距离,...,bm1与dm1-k的距离,然后将计算获得的值相加,记做X1;再将模板特征向量向下移动一个位置,计算bk与d1的距离,bk+1与d2的距离,...,bm1与dm1-k+1的距离,然后将计算获得的值相加,记做X2;以此类推,最后计算b1与dn1-(m1-k-1)的距离,b2与dn1-(m1-k)的距离,...,bm1-k与dn1的距离,然后将计算获得的值相加,记做Xn1-m1+2k+1;
则与B11的距离为
按照上述方法,将与B1中的所有模板图片进行比较,并计算距离X,X值最小所对应的模板图片即为匹配的模板图片;当匹配到的图片标签为专注听课,则在/>位置处输出1,否则输出0;
将中的所有姿态特征图片都进行上述操作,最终可以输出一个只含0和1的向量;扫描计算获得的向量中的1的个数,除以向量元素总个数,当1的个数超过三分之二时,则Y1 P输出1;Y1 P为学生P的姿态特征的结果输出,同理/> 为动作和面部表情的结果输出;而Y为最后结合三者后的输出;
同理,对即动作和面部表情特征进行上述操作;当Y1 P,/>中1的个数大于等于2,则YP输出为1,判定学生P专注听课,否则YP输出为0,判定学生P不专注听课;YP为学生P听课情况评分的结果输出。
2.根据权利要求1所述的一种基于模式识别的课堂情况评价方法,其特征在于,步骤(5)、将所有学生的数据都进行听课情况评分,最后将获得一个Y向量;Y向量中每一个元素对应一个学生的上课情况,从Y向量的结果中可以看到每一个学生的上课情况以及总体上课情况;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010300109.2A CN111611854B (zh) | 2020-04-16 | 2020-04-16 | 一种基于模式识别的课堂情况评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010300109.2A CN111611854B (zh) | 2020-04-16 | 2020-04-16 | 一种基于模式识别的课堂情况评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111611854A CN111611854A (zh) | 2020-09-01 |
CN111611854B true CN111611854B (zh) | 2023-09-01 |
Family
ID=72203703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010300109.2A Active CN111611854B (zh) | 2020-04-16 | 2020-04-16 | 一种基于模式识别的课堂情况评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611854B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113781870A (zh) * | 2021-08-24 | 2021-12-10 | 辽宁装备制造职业技术学院 | 一种基于ai和大数据的教学监测平台 |
CN113823135B (zh) * | 2021-09-30 | 2023-06-27 | 创泽智能机器人集团股份有限公司 | 一种基于机器人的辅助教学方法及设备 |
CN116311060B (zh) * | 2023-03-17 | 2024-06-04 | 华中师范大学 | 一种基于计算机视觉的学生课堂学习投入度自动评价方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004029905A1 (ja) * | 2002-09-27 | 2004-04-08 | Ginganet Corporation | 遠隔教育システム、受講確認方法および受講確認プログラム |
JP2015075798A (ja) * | 2013-10-07 | 2015-04-20 | 株式会社日立ハイテクノロジーズ | データ処理装置、測長システム、欠陥検査システム、画像トラッキングシステム、及びデータ処理方法 |
CN106250822A (zh) * | 2016-07-21 | 2016-12-21 | 苏州科大讯飞教育科技有限公司 | 基于人脸识别的学生专注度监测系统及方法 |
CN107239763A (zh) * | 2017-06-06 | 2017-10-10 | 合肥创旗信息科技有限公司 | 基于人脸识别的课堂考勤系统 |
CN110348328A (zh) * | 2019-06-24 | 2019-10-18 | 北京大米科技有限公司 | 教学质量的评估方法、装置、存储介质及电子设备 |
CN110443226A (zh) * | 2019-08-16 | 2019-11-12 | 重庆大学 | 一种基于姿态识别的学生状态评价方法及系统 |
CN110472608A (zh) * | 2019-08-21 | 2019-11-19 | 石翊鹏 | 图像识别跟踪处理方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI674553B (zh) * | 2018-07-27 | 2019-10-11 | 財團法人資訊工業策進會 | 教學品質監測系統及方法 |
-
2020
- 2020-04-16 CN CN202010300109.2A patent/CN111611854B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004029905A1 (ja) * | 2002-09-27 | 2004-04-08 | Ginganet Corporation | 遠隔教育システム、受講確認方法および受講確認プログラム |
JP2015075798A (ja) * | 2013-10-07 | 2015-04-20 | 株式会社日立ハイテクノロジーズ | データ処理装置、測長システム、欠陥検査システム、画像トラッキングシステム、及びデータ処理方法 |
CN106250822A (zh) * | 2016-07-21 | 2016-12-21 | 苏州科大讯飞教育科技有限公司 | 基于人脸识别的学生专注度监测系统及方法 |
CN107239763A (zh) * | 2017-06-06 | 2017-10-10 | 合肥创旗信息科技有限公司 | 基于人脸识别的课堂考勤系统 |
CN110348328A (zh) * | 2019-06-24 | 2019-10-18 | 北京大米科技有限公司 | 教学质量的评估方法、装置、存储介质及电子设备 |
CN110443226A (zh) * | 2019-08-16 | 2019-11-12 | 重庆大学 | 一种基于姿态识别的学生状态评价方法及系统 |
CN110472608A (zh) * | 2019-08-21 | 2019-11-19 | 石翊鹏 | 图像识别跟踪处理方法及系统 |
Non-Patent Citations (1)
Title |
---|
左国才等.基于深度学习的人脸识别技术在学习效果评价中的应用研究.《智能计算机与应用》.2019,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111611854A (zh) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111611854B (zh) | 一种基于模式识别的课堂情况评价方法 | |
CN108648757B (zh) | 一种基于多维度课堂信息的分析方法 | |
CN108121702B (zh) | 数学主观题评阅方法及系统 | |
CN112069970B (zh) | 课堂教学事件分析方法及装置 | |
CN116311483B (zh) | 基于局部面部区域重构和记忆对比学习的微表情识别方法 | |
CN108345833A (zh) | 数学公式的识别方法及系统和计算机设备 | |
CN113283334B (zh) | 一种课堂专注度分析方法、装置和存储介质 | |
CN114898460B (zh) | 一种基于图卷积神经网络的教师非言语行为检测方法 | |
CN115719516A (zh) | 一种基于多通道的课堂教学行为识别方法及系统 | |
CN116050892A (zh) | 一种基于人工智能的智能教育评价监督方法 | |
Tang et al. | Automatic facial expression analysis of students in teaching environments | |
CN111242131B (zh) | 一种智能阅卷中图像识别的方法、存储介质及装置 | |
Seneviratne et al. | Student and lecturer performance enhancement system using artificial intelligence | |
CN118053331A (zh) | 一种在线教学人工智能辅导的方法、介质及系统 | |
CN113469001A (zh) | 一种基于深度学习的学生课堂行为检测方法 | |
CN117874573A (zh) | 基于多模态数据的人物画像构建方法 | |
CN110941976A (zh) | 一种基于卷积神经网络的学生课堂行为识别方法 | |
CN113688789B (zh) | 一种基于深度学习的在线学习投入度识别方法及系统 | |
CN110705610A (zh) | 一种基于检测书法临写能力的评估系统和方法 | |
CN114330943A (zh) | 一种面试辅助方法及装置 | |
Trabelsi et al. | Behavioral-based real-time cheating detection in academic exams using deep learning techniques | |
CN113723233A (zh) | 一种基于分层时序多示例学习的学生学习参与度评估方法 | |
CN111914683A (zh) | 一种基于仿生图像增强算法和fpga硬件加速的手写成绩录入系统 | |
CN110879966A (zh) | 一种基于人脸识别与图像处理的学生听课理解度评估方法 | |
CN112115949B (zh) | 一种烟草证件以及订单的光学文字识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |