CN111507283B - 基于课堂场景的学生行为识别方法及系统 - Google Patents
基于课堂场景的学生行为识别方法及系统 Download PDFInfo
- Publication number
- CN111507283B CN111507283B CN202010317276.8A CN202010317276A CN111507283B CN 111507283 B CN111507283 B CN 111507283B CN 202010317276 A CN202010317276 A CN 202010317276A CN 111507283 B CN111507283 B CN 111507283B
- Authority
- CN
- China
- Prior art keywords
- frame
- behavior
- face
- classroom
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computational Linguistics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Collating Specific Patterns (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及教学领域,公开了一种基于课堂场景的学生行为识别方法及系统。该方法包括:从摄像机获取课堂视频,该摄像机用于拍摄学生正面听课视角的视频;对于该课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别;对于识别的每帧图像,根据人脸识别结果构建人脸框并确定对应的身份标识,根据人体行为识别结果构建人体框并确定对应的行为标识,以及为每个该人脸框匹配出唯一的该人体框,得到该身份标识和该行为标识的匹配结果。本申请的实施方式可以准确地得到课堂上每个学生的身份标识与人体行为标识的匹配结果,实现监控课堂上每个学生的实时行为的效果。
Description
技术领域
本申请涉及教学领域,特别涉及基于课堂场景的学生行为识别技术。
背景技术
人体行为识别技术可以充分利用设备资源,从已有的课堂录播视频中提取学生听课状况相关的数据信息,辅助老师进行教学管理、教学决策。
但是,由于课堂场景学生行为识别属于复杂场景下多人姿态行为识别问题,目前通用的识别算法准确率低,使得人体行为识别结果与身份识别结果匹配准确率较低,大都只能实现整个班级学生行为数据整体粗略地统计汇总,而不能准确地将课堂人体行为细化精确到对应的每一个身份明确的学生。
发明内容
本申请的目的在于提供一种基于课堂场景的学生行为识别方法及系统,可以准确地得到课堂上每个学生的身份标识与人体行为标识的匹配结果,实现监控课堂上每个学生的实时行为的效果。
本申请公开了一种基于课堂场景的学生行为识别方法,包括:
从摄像机获取课堂视频,所述摄像机用于拍摄学生正面听课视角的视频;
对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别;
对于识别的每帧图像,根据人脸识别结果构建人脸框并确定对应的身份标识,根据人体行为识别结果构建人体框并确定对应的行为标识,以及为每个所述人脸框匹配出唯一的所述人体框,得到所述身份标识和所述行为标识的匹配结果。
在一个优选例中,所述对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别,进一步包括:
对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别得到对应所述每帧图像的所述人脸识别结果,所述人脸识别结果包括对应每张人脸的身份标识和眼睛、嘴的坐标信息;
对于所述课堂视频,每间隔预设帧数提取一帧图像进行人体行为识别得到对应所述每帧图像的所述人体行为识别结果,所述人体行为识别结果包括对应每个人体的行为标识和头顶、左肩、右肩、左脚、右脚的坐标信息。
在一个优选例中,所述对于所述课堂视频,每间隔预设帧数提取一帧图像进行人体行为识别得到对应所述每帧图像的所述人体行为识别结果,进一步包括:
建立包含学生行为标签的课堂视频的训练样本集,所述学生行为标签包括坐、站立、举手和趴桌子;
用所述训练样本集对预设检测模型进行训练,该预设检测模型为OpenPose、Detectron或AlphaPose模型;
使用训练后的预设检测模型对所述每帧图像进行人体行为识别得到对应每个人体的行为标识和头顶、左肩、右肩、左脚、右脚的坐标信息。
在一个优选例中,所述根据人脸识别结果构建人脸框并确定对应的身份标识,进一步包括:
根据所述人脸识别结果中的对应每张人脸的眼睛、嘴的坐标信息计算人脸框的上、下、左、右边界的坐标信息,以构建对应每张人脸的所述人脸框;
根据所述人脸识别结果中的对应每张人脸的身份标识,为每个人脸框确定对应的身份标识;
所述根据人体行为识别结果构建人体框并确定对应的行为标识,进一步包括:
根据所述人体动作识别结果中的对应每个人体的头顶、左肩、右肩、左脚、右脚的坐标信息,以构建对应每个人体的所述人体框;
根据所述人体动作识别结果中的对应每个人体的行为标识,为每个人体框确定对应的行为标识。
在一个优选例中,所述为每个所述人脸框匹配出唯一的所述人体框,得到所述身份标识和所述行为标识的匹配结果,进一步包括:
如果某个人体框中只有一个人脸框,则得到对应该人脸框的身份标识和对应该人体框的行为标识的匹配结果;
如果某个人体框内有多个人脸框,计算该人体框的上边沿的中点与该多个人脸框中每个人脸框的上边沿的中点之间的距离,选择距离最短的人脸框为该人体框的唯一匹配人脸框,得到对应该唯一匹配人脸框的身份标识和对应该人体框的行为标识的匹配结果。
在一个优选例中,所述对于识别的每帧图像,根据人脸识别结果构建人脸框并确定对应的身份标识,根据人体行为识别结果构建人体框并确定对应的行为标识,以及为每个所述人脸框匹配出唯一的所述人体框,得到所述身份标识和所述行为标识的匹配结果之后,还包括:
周期性地获取预设时间段内的多帧图像的多组匹配结果;
根据所述多组匹配结果,为每个身份标识确定占比最高的行为标识作为该身份标识在该预设时间段的行为标识。
在一个优选例中,所述对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别之前,还包括:
对于所述课堂视频中的每帧图像,将该图像灰度化;
采用3x3的拉普拉斯算子对灰度化后的图像进行处理;
计算处理后图像输出的方差,如果该方差小于预设阈值,则判定该图像为模糊图像并将其从所述课堂视频中删除以更新所述课堂视频;
在一个优选例中,所述从摄像机获取课堂视频之前,还包括:
将所述摄像机布置在教室讲台侧的中间位置,并调整摄像机与距其最远的学生的距离以满足该学生的人脸图像像素大于m*m,其中m*m为所述人脸识别的识别精度。
本申请还公开了一种基于课堂场景的学生行为识别系统包括:
获取模块,用于从摄像机获取课堂视频,所述摄像机用于拍摄学生正面听课视角的视频;
识别模块,用于对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别,对于识别的每帧图像,根据人脸识别结果构建人脸框并确定对应的身份标识,根据人体行为识别结果构建人体框并确定对应的行为标识,以及为每个所述人脸框匹配出唯一的所述人体框,得到所述身份标识和所述行为标识的匹配结果。
本申请还公开了一种基于课堂场景的学生行为识别系统包括:
存储器,用于存储计算机可执行指令;以及,
处理器,用于在执行所述计算机可执行指令时实现如前文描述的方法中的步骤。
本申请还公开了一种计算机可读存储介质所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现如前文描述的方法中的步骤。
本申请实施方式中,与现有技术相比,至少包括以下优点和效果:
通过获取学生正面听课视角的课堂视频,对该课堂视频逐帧或间隔提取帧进行人脸识别和人体行为识别,并且对于识别的每帧图像分别根据人脸识别结果、人体行为识别结果构建对应的人脸框及相应的身份标识、人体框及相应的行为标识,并为每个所述人脸框匹配出唯一的所述人体框,最终得到的人体行为标识与身份标识精准地一一对应的匹配结果,进而可以监控课堂上每个学生的实时行为,以便更好地辅助授课教师进行课堂管理和教学决策。例如,本申请的实施方式可以应用到课堂考勤,能够准确地判断学生缺席、迟到、早退以实现无感考勤,与学生签到或老师点名的考勤模式相比,节省教学时间。
进一步地,考虑到人脸框和人体框可能存在多种位置关系的情况,在“为每个人脸框匹配出唯一的人体框”时,如果某个人体框中只有一个人脸框,则该人体框就是该人脸框的唯一匹配人体框,如果某个人体框内有多个人脸框,计算该人体框的上边沿的中点与该多个人脸框中每个人脸框的上边沿的中点之间的距离,选择距离最短的人脸框为该人体框的唯一匹配人脸框,匹配准确度较高,进一步提高了人体行为标识与身份标识的匹配结果的准确性。
进一步地,在对课堂视频进行人脸识别和人体行为识别之前,对课堂视频的每帧图像进行预处理,将场景杂乱、运动模糊的图像帧删除,提高了后续识别、匹配过程的效率和识别、匹配结果的准确性。
进一步地,在对于每帧图像得到对应的人体行为标识与身份标识精准地一一对应的匹配结果之后,周期性地获取预设时间段内连续多帧图像的多组匹配结果,根据该多组匹配结果,为每个身份标识确定占比最高的行为标识作为该身份标识在该预设时间段的行为标识,有效地避免了单帧图像因噪声或局部遮挡等可能会造成的识别结果误差,进一步提高了人体行为标识与身份标识的匹配结果的准确性。
进一步地,预先设置摄像机的安装位置及角度以保证尽可能地拍摄到学生正脸,以及调整摄像机与最远端学生人脸的距离以保证所有学生人脸图像的像素满足后续识别精度要求,进一步提高人体行为标识与身份标识的匹配结果的准确性。
进一步地,在人体行为识别以及根据人体行为识别结果构建人体框时,设置自定义的学生行为标签,基于带有标签的训练样本集训练模型,并且根据训练好的模型进行每帧图像中人体行为的识别和关键点坐标信息的确认,进而可以基于得到的关键点坐标信息构建人体框以及对应该人体框的行为标识,为后续的识别过程和匹配过程提供有效基础。
本申请的说明书中记载了大量的技术特征,分布在各个技术方案中,如果要罗列出本申请所有可能的技术特征的组合(即技术方案)的话,会使得说明书过于冗长。为了避免这个问题,本申请上述发明内容中公开的各个技术特征、在下文各个实施方式和例子中公开的各技术特征、以及附图中公开的各个技术特征,都可以自由地互相组合,从而构成各种新的技术方案(这些技术方案均因视为在本说明书中已经记载),除非这种技术特征的组合在技术上是不可行的。例如,在一个例子中公开了特征A+B+C,在另一个例子中公开了特征A+B+D+E,而特征C和D是起到相同作用的等同技术手段,技术上只要择一使用即可,不可能同时采用,特征E技术上可以与特征C相组合,则,A+B+C+D的方案因技术不可行而应当不被视为已经记载,而A+B+C+E的方案应当视为已经被记载。
附图说明
图1是根据本申请第一实施方式的基于课堂场景的学生行为识别方法流程示意图;
图2是本申请的摄像机布置的一个示例示意图;
图3是根据本申请的人脸框和人体框示例位置关系示意图;
图4是根据本申请第二实施方式的基于课堂场景的学生行为识别系统结构示意图。
具体实施方式
在以下的叙述中,为了使读者更好地理解本申请而提出了许多技术细节。但是,本领域的普通技术人员可以理解,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请的实施方式作进一步地详细描述。
本申请的第一实施方式涉及一种基于课堂场景的学生行为识别方法,其流程如图1所示,该方法包括以下步骤:
在步骤101中,从摄像机获取课堂视频,该摄像机用于拍摄学生正面听课视角的视频。
可选地,该步骤101之前,还可以包括以下步骤:
将该摄像机布置在教室讲台侧位置,并调整摄像机与距其最远的学生的距离以满足该学生的人脸图像像素大于m*m,其中m*m为该人脸识别的识别精度。
如图2所示为该摄像机布置的一个示例示意图,图中摄像机离两侧墙的水平距离分别为a和b。优选地,设定a=b以保证摄像机尽可能地拍摄到学生的正脸,保证识别结果的准确性。可选地,a也可以不等于b,只要能够拍摄到学生正面听课视角的设置都在本申请的保护范围内。
可选地,步骤101之前,还包括以下步骤:
预先构建课程表库和学生档案库。
其中,该课程表库中课程表的属性信息包括教室信息(例如教室的唯一编码)、上课时间、下课时间、上课班级信息(例如班级的唯一编码)等。其中,学生档案库中的学生档案属性信息包括学生信息(例如包括学生姓名及其对应的学籍和人脸图像等)、所属班级信息等。
可选地,步骤101之前,还包括以下步骤:
首先,响应于某一教室的上课时间,从该课程表库中获取该教室的该上课时间对应的课程表;然后根据所获取的课程表确定当前上课班级信息,并根据当前上课班级信息从所述学生档案库中获取对应的学生信息(包括学生姓名及其对应的学籍和人脸图像等)。这为后续的学生人脸识别和学生行为识别提供基础。
之后,进入步骤102,对于该课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别。
其中,步骤102中的预设帧数可以为零或非零整数。在一个实施例中,该预设帧数为0,则该步骤102可以实现为:对于该课堂视频逐帧进行人脸识别和人体行为识别。
在另一个实施例中,该预设帧数为非零整数,优选地,该预设帧数小于该摄像机的帧率。例如,对于目前通用摄像机拍摄的课堂视频,帧率为30帧/秒(每秒钟30帧图像),当该预设帧数为1时,即每间隔1帧提取一帧图像进行人脸识别和人体行为识别,换言之,从每秒钟内的30帧图像中提取15帧图像进行人脸识别和人体行为识别,这可以在保证准确率的前提下,节省系统资源。
可选地,该步骤102之前,还可以包括以下步骤A和B:
在步骤A中,对于该课堂视频中的每帧图像,将该图像灰度化;之后采用3x3的拉普拉斯算子对灰度化后的图像进行处理;之后执行步骤B,计算处理后图像输出的方差,并且如果该方差小于预设阈值,则判定该图像为模糊图像并将其从该课堂视频中删除以更新该课堂视频。因为考虑到教师或学生在摄像机在学生区域走动时,可能会产生因人体运动而造成的部分图像模糊,该步骤A和B可以一定程度上检测并剔除模糊图像范畴的图像,可以有效提高后续学生行为识别的效率。其中该预设阈值可以根据需要进行设置。
可选地,该步骤102可以进一步包括以下步骤①和②:
在步骤①中,对于该课堂视频,每间隔预设帧数提取一帧图像进行人脸识别得到对应该每帧图像的该人脸识别结果,该人脸识别结果包括对应每张人脸的身份标识和眼睛、嘴的坐标信息;在步骤②中,对于该课堂视频,每间隔预设帧数提取一帧图像进行人体行为识别得到对应该每帧图像的该人体行为识别结果,该人体行为识别结果包括对应每个人体的行为标识和头顶、左肩、右肩、左脚、右脚的坐标信息。其中,步骤①和②可以按照先后顺序依次执行或者二者并行执行。
需要说明的是,人脸识别算法为通用算法,本申请不对其进行详细的说明及限定。
可选地,该步骤②还可以进一步包括以下步骤:
首先,建立包含学生行为标签的课堂视频的训练样本集,该学生行为标签包括坐、站立、举手和趴桌子;之后,用该训练样本集对预设检测模型进行训练,该预设检测模型为OpenPose、Detectron或AlphaPose模型(此三种模型均为开源的算法模型);之后,使用训练后的预设检测模型对该每帧图像进行人体行为识别得到对应每个人体的行为标识和头顶、左肩、右肩、左脚、右脚的坐标信息。其中,优选地,该训练样本集中各标签的数据量不少于两万个。
如下表1为各学生行为标签的自定义。例如,可以但不限于使用coco官方工具、labelling、CVAT等打标签工具对该课堂视频进行人工打标签操作,再使用视频切片工具,把所打好标签的课堂视频裁剪成对应的每帧图像。
表1
之后,进入步骤103,对于识别的每帧图像,根据人脸识别结果构建人脸框并确定对应的身份标识,根据人体行为识别结果构建人体框并确定对应的行为标识,以及为每个该人脸框匹配出唯一的该人体框,得到该身份标识和该行为标识的匹配结果。
可选地,步骤103中“根据人脸识别结果构建人脸框并确定对应的身份标识”可以进一步实现为:首先根据该人脸识别结果中的对应每张人脸的眼睛、嘴的坐标信息计算人脸框的上、下、左、右边界的坐标信息,以构建对应每张人脸的该人脸框;然后根据该人脸识别结果中的对应每张人脸的身份标识,为每个人脸框确定对应的身份标识。在一个实施例中,如果根据该人脸识别结果中的对应每张人脸的左眼、右眼、嘴的中心坐标分别为(x1,y1)、(x2,y2)、(x3,y3),则可以根据“左边界为x1-(x1+x2)*ξ1、右边界为x2+(x1+x2)*ξ1、上边界为(y1+y2)/2-[y3-(y1+y2)/2]*ξ2、下边界为y3+[y3-(y1+y2)/2]*ξ2”来构建人体框。其中,ξ1、ξ2为可调节的经验参数。
可选地,该步骤103中“该根据人体行为识别结果构建人体框并确定对应的行为标识”可以进一步实现为:首先根据该人体动作识别结果中的对应每个人体的头顶、左肩、右肩、左脚、右脚的坐标信息,以构建对应每个人体的该人体框;然后根据该人体动作识别结果中的对应每个人体的行为标识,为每个人体框确定对应的行为标识。在一个实施例,如果根据该人体行为识别结果中识别出头顶、左肩、右肩、左脚、右脚的坐标信息,则可以根据“以头顶的上边沿作为人体框水平方向的上边沿、以脚的下边沿为人体框的下边沿、分别以左右肩的位置为人体框水平方向的左右边沿”来构建人体框。
需要说明的是,如果人体的左脚、右脚被遮挡,可以根据头顶、左肩、右肩三点的坐标位置的比例关系来估算下边界的位置来构建人体框。
考虑到在进行步骤103的人脸框和人体框匹配时人脸框和人体框可能存在多种位置关系,如图3所示,可能存在一个人体框内只包含一个人脸框,也可能存在一个人体框内包含多个人体框(全部或部分)。可选地,该步骤103中“为每个该人脸框匹配出唯一的该人体框,得到该身份标识和该行为标识的匹配结果”进一步实现为:如果某个人体框中只有一个人脸框,则得到对应该人脸框的身份标识和对应该人体框的行为标识的匹配结果;如果某个人体框内有多个人脸框,计算该人体框的上边沿的中点M与该多个人脸框中每个人脸框的上边沿的中点N之间的距离,选择距离最短的人脸框为该人体框的唯一匹配人脸框,得到对应该唯一匹配人脸框的身份标识和对应该人体框的行为标识的匹配结果。
可选地,步骤102时,还包括以下步骤:
为提取的每帧图像从该课堂视频中获取对应的时间点。
可选地,该步骤103之后,还包括以下步骤:
周期性地从步骤103得到的匹配结果中获取预设时间段t内的多帧图像的多组匹配结果,并且根据该多组匹配结果,为每个身份标识确定占比最高的行为标识作为该身份标识在该预设时间段t的行为标识。这一可选步骤是考虑到单帧图像因噪声或局部遮挡等可能会造成的识别结果误差,取预设时间段内对连续多帧图像的判断结果进行分析,进而从多帧图像输出一个可能性最大的结果,从而达到剔除错误数据和冗余数据的目的。
例如,该课堂视频的帧率为25帧/秒,并且在对于该课堂视频逐帧进行人脸识别和人体行为识别时,取t=2秒,即获取2秒内的连续50帧图像的各学生的课堂行为的识别结果,将每个学生行为数量统计如下表2,那么例如,在该t秒内张三的动作行为标识为起立,因此剔除了“坐下”、“举手”的误判结果,同时也将50组结果数据仅保留一组数据进行存储,剔除了其余的冗余数据。
表2
本申请的第二实施方式涉及一种基于课堂场景的学生行为识别系统,其结构如图4所示,该基于课堂场景的学生行为识别系统包括获取模块和识别模块。
具体的,该获取模块用于从摄像机获取课堂视频,该摄像机用于拍摄学生正面听课视角的视频。
在实际应用中,本实施方式的学生行为识别系统可以利用教室中已安装的摄像机进行连接实施,也可以将摄像机作为该系统的一个组成部分同时实施。如果是后者,该摄像机在安装时,需要被布置在教室讲台侧位置,并调整摄像机与距其最远的学生的距离以满足该学生的人脸图像像素大于m*m,其中m*m为该人脸识别的识别精度。
如图2所示为该摄像机布置的一个示例示意图,图中摄像机离两侧墙的水平距离分别为a和b。优选地,设定a=b以保证摄像机尽可能地拍摄到学生的正脸,保证识别结果的准确性。可选地,a也可以不等于b,只要能够拍摄到学生正面听课视角的设置都在本申请的保护范围内。
可选地,该基于课堂场景的学生行为识别系统还包括构建模块和存储模块,该构建模块用于预先构建课程表库和学生档案库,该存储模块用于存储该课程表库和该学生档案库。其中,该课程表库中课程表的属性信息包括教室信息(例如教室的唯一编码)、上课时间、下课时间、上课班级信息(例如班级的唯一编码)等。其中,学生档案库中的学生档案属性信息包括学生信息(例如包括学生姓名及其对应的学籍和人脸图像等)、所属班级信息等。
可选地,该获取模块还用于响应于某一教室的上课时间,从该课程表库中所获取的该教室的该上课时间对应的课程表,并且根据获取课程表确定当前上课班级信息,并根据当前上课班级信息从所述学生档案库中获取对应的学生信息(包括姓名及其对应的学籍和人脸图像等)。这为后续的学生人脸识别和学生行为识别提供基础。
该识别模块用于对于该课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别,对于识别的每帧图像,根据人脸识别结果构建人脸框并确定对应的身份标识,根据人体行为识别结果构建人体框并确定对应的行为标识,以及为每个该人脸框匹配出唯一的该人体框,得到该身份标识和该行为标识的匹配结果。
其中,该预设帧数可以为零或非零整数。在一个实施例中,该预设帧数为0,则该步骤102可以实现为:对于该课堂视频逐帧进行人脸识别和人体行为识别。
在另一个实施例中,该预设帧数为非零整数,优选地,该预设帧数小于该摄像机的帧率。例如,对于目前通用摄像机拍摄的课堂视频,帧率为30帧/秒(每秒钟30帧图像),当该预设帧数为1时,即该识别模块每间隔1帧提取一帧图像进行人脸识别和人体行为识别,换言之,该识别模块从每秒钟内的30帧图像中提取15帧图像进行人脸识别和人体行为识别,这可以在保证准确率的前提下,节省系统资源。可选地,该基于课堂场景的学生行为识别系统还包括预处理模块,该预处理模块用于对于该课堂视频中的每帧图像,将该图像灰度化,采用3x3的拉普拉斯算子对灰度化后的图像进行处理,计算处理后图像输出的方差,并且如果该方差小于预设阈值,则判定该图像为模糊图像并将其从该课堂视频中删除以更新该课堂视频。
该识别模块还用于对于该课堂视频,每间隔预设帧数提取一帧图像进行人脸识别得到对应该每帧图像的该人脸识别结果,该人脸识别结果包括对应每张人脸的身份标识和眼睛、嘴的坐标信息,以及对于该课堂视频,每间隔预设帧数提取一帧图像进行人体行为识别得到对应该每帧图像的该人体行为识别结果,该人体行为识别结果包括对应每个人体的行为标识和头顶、左肩、右肩、左脚、右脚的坐标信息。
可选地,该识别模块还用于建立包含学生行为标签的课堂视频的训练样本集,该学生行为标签包括坐、站立、举手和趴桌子,用该训练样本集对预设检测模型进行训练,该预设检测模型为OpenPose、Detectron或AlphaPose模型,以及使用训练后的预设检测模型对该每帧图像进行人体行为识别得到对应每个人体的行为标识和头顶、左肩、右肩、左脚、右脚的坐标信息。其中,优选地,该训练样本集中各标签的数据量不少于两万个。
如上表1为各学生行为标签的自定义。例如,可以但不限于使用coco官方工具、labelling、CVAT等打标签工具对该课堂视频进行人工打标签操作,再使用视频切片工具,把所打好标签的课堂视频裁剪成对应的每帧图像。
可选地,该识别模块还用于根据该人脸识别结果中的对应每张人脸的眼睛、嘴的坐标信息计算人脸框的上、下、左、右边界的坐标信息,以构建对应每张人脸的该人脸框,并且根据该人脸识别结果中的对应每张人脸的身份标识,为每个人脸框确定对应的身份标识。在一个实施例中,该识别模块还用于如果根据该人脸识别结果中的对应每张人脸的左眼、右眼、嘴的中心坐标分别为(x1,y1)、(x2,y2)、(x3,y3),则可以根据“左边界为x1-(x1+x2)*ξ1、右边界为x2+(x1+x2)*ξ1、上边界为(y1+y2)/2-[y3-(y1+y2)/2]*ξ2、下边界为y3+[y3-(y1+y2)/2]*ξ2”来构建人体框。其中,ξ1、ξ2为可调节的经验参数。
可选地,该识别模块还用于根据该人体动作识别结果中的对应每个人体的头顶、左肩、右肩、左脚、右脚的坐标信息,以构建对应每个人体的该人体框,并且根据该人体动作识别结果中的对应每个人体的行为标识,为每个人体框确定对应的行为标识。在一个实施例,该识别模块还用于如果根据该人体行为识别结果中识别出头顶、左肩、右肩、左脚、右脚的坐标位置,则可以根据“以头顶的上边沿作为人体框水平方向的上边沿、以脚的下边沿为人体框的下边沿、分别以左右肩的位置为人体框水平方向的左右边沿”来构建人体框。
需要说明的是,如果人体的左脚、右脚被遮挡,可以根据头顶、左肩、右肩三点的坐标位置的比例关系来估算下边界的位置来构建人体框。
考虑到人脸框和人体框匹配时,人脸框和人体框可能存在多种位置关系,如图3所示,可能存在一个人体框内只包含一个人脸框,也可能存在一个人体框内包含多个人体框(全部或部分)。可选地,该识别模块还用于如果某个人体框中只有一个人脸框,则得到对应该人脸框的身份标识和对应该人体框的行为标识的匹配结果,以及如果某个人体框内有多个人脸框,计算该人体框的上边沿的中点M与该多个人脸框中每个人脸框的上边沿的中点N之间的距离,选择距离最短的人脸框为该人体框的唯一匹配人脸框,得到对应该唯一匹配人脸框的身份标识和对应该人体框的行为标识的匹配结果。
可选地,该识别模块还用于为提取的每帧图像从该课堂视频中获取对应的时间点。
可选地,该基于课堂场景的学生行为识别系统还包括后处理模块,该后处理模块用于周期性地从识别模块识别中获取预设时间段内的多帧图像的多组匹配结果,并且根据该多组匹配结果,为每个身份标识确定占比最高的行为标识作为该身份标识在该预设时间段的行为标识。
例如,该课堂视频的帧率为25帧/秒,并且在对于该课堂视频逐帧进行人脸识别和人体行为识别时,取t=2秒,即后处理模块获取2秒内的连续50帧图像的各学生的课堂行为的识别结果,将每个学生行为数量统计如上表2,那么例如,在该t秒内张三的动作行为标识为起立,因此剔除了“坐下”、“举手”的误判结果,同时也将50组结果数据仅保留一组数据进行存储,剔除了其余的冗余数据。
第一实施方式是与本实施方式相对应的方法实施方式,第一实施方式中的技术细节可以应用于本实施方式,本实施方式中的技术细节也可以应用于第一实施方式。
需要说明的是,本领域技术人员应当理解,上述基于课堂场景的学生行为识别系统的实施方式中所示的各模块的实现功能可参照前述基于课堂场景的学生行为识别方法的相关描述而理解。上述基于课堂场景的学生行为识别系统的实施方式中所示的各模块的功能可通过运行于处理器上的程序(可执行指令)而实现,也可通过具体的逻辑电路而实现。本申请实施例上述基于课堂场景的学生行为识别系统如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read OnlyMemory)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本申请实施例不限制于任何特定的硬件和软件结合。
相应地,本申请实施方式还提供一种计算机可读存储介质,其中存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现本申请的各方法实施方式。计算机可读存储介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于,相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读存储介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
此外,本申请实施方式还提供一种基于课堂场景的学生行为识别系统,其中包括用于存储计算机可执行指令的存储器,以及,处理器;该处理器用于在执行该存储器中的计算机可执行指令时实现上述各方法实施方式中的步骤。其中,该处理器可以是中央处理单元(Central Processing Unit,简称“CPU”),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,简称“DSP”)、专用集成电路(Application SpecificIntegrated Circuit,简称“ASIC”)等。前述的存储器可以是只读存储器(read-onlymemory,简称“ROM”)、随机存取存储器(random access memory,简称“RAM”)、快闪存储器(Flash)、硬盘或者固态硬盘等。本发明各实施方式所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
需要说明的是,在本专利的申请文件中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。本专利的申请文件中,如果提到根据某要素执行某行为,则是指至少根据该要素执行该行为的意思,其中包括了两种情况:仅根据该要素执行该行为、和根据该要素和其它要素执行该行为。多个、多次、多种等表达包括2个、2次、2种以及2个以上、2次以上、2种以上。
在本申请提及的所有文献都被认为是整体性地包括在本申请的公开内容中,以便在必要时可以作为修改的依据。此外应理解,以上所述仅为本说明书的较佳实施例而已,并非用于限定本说明书的保护范围。凡在本说明书一个或多个实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书一个或多个实施例的保护范围之内。
Claims (11)
1.一种基于课堂场景的学生行为识别方法,其特征在于,包括:
从摄像机获取课堂视频,所述摄像机用于拍摄学生正面听课视角的视频;
对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别;对于识别的每帧图像,根据人脸识别结果构建人脸框并确定对应的身份标识,根据人体行为识别结果构建人体框并确定对应的行为标识,以及为每个所述人脸框匹配出唯一的所述人体框,得到所述身份标识和所述行为标识的匹配结果;
所述根据人体行为识别结果构建人体框,进一步包括子步骤:根据人体动作识别结果中的对应每个人体的头顶、左肩、右肩、左脚、右脚的坐标信息,以构建对应每个人体的所述人体框;
其中,所述为每个所述人脸框匹配出唯一的所述人体框,得到所述身份标识和所述行为标识的匹配结果,进一步包括子步骤:如果某个人体框内有多个人脸框,计算该人体框的上边沿的中点与该多个人脸框中每个人脸框的上边沿的中点之间的距离,选择距离最短的人脸框为该人体框的唯一匹配人脸框,得到对应该唯一匹配人脸框的身份标识和对应该人体框的行为标识的匹配结果。
2.如权利要求1所述的基于课堂场景的学生行为识别方法,其特征在于,所述对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别,进一步包括:
对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别得到对应所述每帧图像的所述人脸识别结果,所述人脸识别结果包括对应每张人脸的身份标识和眼睛、嘴的坐标信息;
对于所述课堂视频,每间隔预设帧数提取一帧图像进行人体行为识别得到对应所述每帧图像的所述人体行为识别结果,所述人体行为识别结果包括对应每个人体的行为标识和头顶、左肩、右肩、左脚、右脚的坐标信息。
3.如权利要求2所述的基于课堂场景的学生行为识别方法,其特征在于,所述对于所述课堂视频,每间隔预设帧数提取一帧图像进行人体行为识别得到对应所述每帧图像的所述人体行为识别结果,进一步包括:
建立包含学生行为标签的课堂视频的训练样本集,所述学生行为标签包括坐、站立、举手和趴桌子;
用所述训练样本集对预设检测模型进行训练,该预设检测模型为OpenPose、Detectron或AlphaPose模型;
使用训练后的预设检测模型对所述每帧图像进行人体行为识别得到对应每个人体的行为标识和头顶、左肩、右肩、左脚、右脚的坐标信息。
4.如权利要求2所述的基于课堂场景的学生行为识别方法,其特征在于,所述根据人脸识别结果构建人脸框并确定对应的身份标识,进一步包括:
根据所述人脸识别结果中的对应每张人脸的身份标识,为每个人脸框确定对应的身份标识;
确定人体框对应的行为标识,进一步包括:
根据所述人体动作识别结果中的对应每个人体的行为标识,为每个人体框确定对应的行为标识。
5.如权利要求4所述的基于课堂场景的学生行为识别方法,其特征在于,所述为每个所述人脸框匹配出唯一的所述人体框,得到所述身份标识和所述行为标识的匹配结果,进一步还包括:
如果某个人体框中只有一个人脸框,则得到对应该人脸框的身份标识和对应该人体框的行为标识的匹配结果。
6.如权利要求1所述的基于课堂场景的学生行为识别方法,其特征在于,所述对于识别的每帧图像,根据人脸识别结果构建人脸框并确定对应的身份标识,根据人体行为识别结果构建人体框并确定对应的行为标识,以及为每个所述人脸框匹配出唯一的所述人体框,得到所述身份标识和所述行为标识的匹配结果之后,还包括:
周期性地获取预设时间段内的多帧图像的多组匹配结果;
根据所述多组匹配结果,为每个身份标识确定占比最高的行为标识作为该身份标识在该预设时间段的行为标识。
7.如权利要求1-6中任意一项所述的基于课堂场景的学生行为识别方法,其特征在于,所述对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别之前,还包括:
对于所述课堂视频中的每帧图像,将该图像灰度化;
采用3x3的拉普拉斯算子对灰度化后的图像进行处理;
计算处理后图像输出的方差,如果该方差小于预设阈值,则判定该图像为模糊图像并将其从所述课堂视频中删除以更新所述课堂视频;
所述从摄像机获取课堂视频之前,还包括:
将所述摄像机布置在教室讲台侧的中间位置,并调整摄像机与距其最远的学生的距离以满足该学生的人脸图像像素大于m*m,其中m*m为所述人脸识别的识别精度。
8.一种基于课堂场景的学生行为识别系统,其特征在于,包括:
获取模块,用于从摄像机获取课堂视频,所述摄像机用于拍摄学生正面听课视角的视频;
识别模块,用于对于所述课堂视频,每间隔预设帧数提取一帧图像进行人脸识别和人体行为识别,对于识别的每帧图像,根据人脸识别结果构建人脸框并确定对应的身份标识,根据人体行为识别结果构建人体框并确定对应的行为标识,以及为每个所述人脸框匹配出唯一的所述人体框,得到所述身份标识和所述行为标识的匹配结果,其中,所述识别模块还用于如果某个人体框内有多个人脸框,计算该人体框的上边沿的中点与该多个人脸框中每个人脸框的上边沿的中点之间的距离,选择距离最短的人脸框为该人体框的唯一匹配人脸框,得到对应该唯一匹配人脸框的身份标识和对应该人体框的行为标识的匹配结果;
所述识别模块还用于根据人体动作识别结果中的对应每个人体的头顶、左肩、右肩、左脚、右脚的坐标信息,以构建对应每个人体的所述人体框。
9.如权利要求8所述的基于课堂场景的学生行为识别系统,其特征在于,所述识别模块还用于如果某个人体框中只有一个人脸框,则得到对应该人脸框的身份标识和对应该人体框的行为标识的匹配结果。
10.一种基于课堂场景的学生行为识别系统,其特征在于,包括:
存储器,用于存储计算机可执行指令;以及,
处理器,用于在执行所述计算机可执行指令时实现如权利要求1至7中任意一项所述的方法中的步骤。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现如权利要求1至7中任意一项所述的方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010317276.8A CN111507283B (zh) | 2020-04-21 | 2020-04-21 | 基于课堂场景的学生行为识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010317276.8A CN111507283B (zh) | 2020-04-21 | 2020-04-21 | 基于课堂场景的学生行为识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111507283A CN111507283A (zh) | 2020-08-07 |
CN111507283B true CN111507283B (zh) | 2021-11-30 |
Family
ID=71864875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010317276.8A Active CN111507283B (zh) | 2020-04-21 | 2020-04-21 | 基于课堂场景的学生行为识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111507283B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001275A (zh) * | 2020-08-09 | 2020-11-27 | 成都未至科技有限公司 | 用于采集学生信息的机器人 |
CN112036299B (zh) * | 2020-08-31 | 2022-12-13 | 山东科技大学 | 标准考场环境下的考试作弊行为检测方法及系统 |
CN112287758B (zh) * | 2020-09-26 | 2022-08-26 | 浙江汉德瑞智能科技有限公司 | 基于关键点检测的攀爬识别方法 |
CN112287844B (zh) * | 2020-10-30 | 2023-04-18 | 北京市商汤科技开发有限公司 | 学情分析方法及装置、电子设备和存储介质 |
CN112257639A (zh) * | 2020-10-30 | 2021-01-22 | 福州大学 | 基于人体骨架的学生学习行为识别方法 |
CN112699755A (zh) * | 2020-12-24 | 2021-04-23 | 北京市商汤科技开发有限公司 | 一种行为检测方法、装置、计算机设备和存储介质 |
CN112598550B (zh) * | 2020-12-24 | 2024-03-26 | 苏州大学 | 基于行为分析的学生活动多维管理系统及管理方法 |
CN112613780B (zh) * | 2020-12-29 | 2022-11-25 | 北京市商汤科技开发有限公司 | 一种学习报告生成的方法、装置、电子设备及存储介质 |
CN113343850B (zh) * | 2021-06-07 | 2022-08-16 | 广州市奥威亚电子科技有限公司 | 视频人物信息检查的方法、装置、设备及存储介质 |
CN113283383A (zh) * | 2021-06-15 | 2021-08-20 | 北京有竹居网络技术有限公司 | 一种直播行为识别方法、装置、设备和可读介质 |
CN113610676B (zh) * | 2021-07-08 | 2022-10-04 | 湖南电子科技职业学院 | 一种基于云平台的计算机教学授课系统 |
CN113596485A (zh) * | 2021-07-12 | 2021-11-02 | 深圳市中科网威科技有限公司 | 一种音视频智能分片分布式存储方法、系统、终端及介质 |
CN114419739A (zh) * | 2022-03-31 | 2022-04-29 | 深圳市海清视讯科技有限公司 | 行为识别模型的训练方法、行为识别方法及设备 |
CN115457644B (zh) * | 2022-11-10 | 2023-04-28 | 成都智元汇信息技术股份有限公司 | 一种基于扩展空间映射获得目标的识图方法及装置 |
CN115798020A (zh) * | 2023-01-29 | 2023-03-14 | 北京林业大学 | 一种基于人工智能的中小学生学习投入度检测方法与系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609517A (zh) * | 2017-09-15 | 2018-01-19 | 华中科技大学 | 一种基于计算机视觉的课堂行为检测系统 |
CN108090857A (zh) * | 2017-12-29 | 2018-05-29 | 复旦大学 | 一种多模态的学生课堂行为分析系统和方法 |
CN108629766A (zh) * | 2018-04-26 | 2018-10-09 | 北京大米科技有限公司 | 图像模糊度检测方法、装置、计算机设备及可读存储介质 |
CN109740446A (zh) * | 2018-12-14 | 2019-05-10 | 深圳壹账通智能科技有限公司 | 课堂学生行为分析方法及装置 |
CN110287792A (zh) * | 2019-05-23 | 2019-09-27 | 华中师范大学 | 一种处于自然教学环境的课堂中学生学习状态实时分析方法 |
CN110781843A (zh) * | 2019-10-29 | 2020-02-11 | 首都师范大学 | 课堂行为检测方法及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104809687A (zh) * | 2015-04-23 | 2015-07-29 | 上海趣搭网络科技有限公司 | 三维人脸图像生成方法及系统 |
US10509952B2 (en) * | 2016-08-30 | 2019-12-17 | Irida Labs S.A. | Fast, embedded, hybrid video face recognition system |
CN108564673A (zh) * | 2018-04-13 | 2018-09-21 | 北京师范大学 | 一种基于全局人脸识别的课堂考勤方法及系统 |
CN109740516B (zh) * | 2018-12-29 | 2021-05-14 | 深圳市商汤科技有限公司 | 一种用户识别方法、装置、电子设备及存储介质 |
CN110650368B (zh) * | 2019-09-25 | 2022-04-26 | 新东方教育科技集团有限公司 | 视频处理方法、装置和电子设备 |
-
2020
- 2020-04-21 CN CN202010317276.8A patent/CN111507283B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609517A (zh) * | 2017-09-15 | 2018-01-19 | 华中科技大学 | 一种基于计算机视觉的课堂行为检测系统 |
CN108090857A (zh) * | 2017-12-29 | 2018-05-29 | 复旦大学 | 一种多模态的学生课堂行为分析系统和方法 |
CN108629766A (zh) * | 2018-04-26 | 2018-10-09 | 北京大米科技有限公司 | 图像模糊度检测方法、装置、计算机设备及可读存储介质 |
CN109740446A (zh) * | 2018-12-14 | 2019-05-10 | 深圳壹账通智能科技有限公司 | 课堂学生行为分析方法及装置 |
CN110287792A (zh) * | 2019-05-23 | 2019-09-27 | 华中师范大学 | 一种处于自然教学环境的课堂中学生学习状态实时分析方法 |
CN110781843A (zh) * | 2019-10-29 | 2020-02-11 | 首都师范大学 | 课堂行为检测方法及电子设备 |
Non-Patent Citations (3)
Title |
---|
Student Attendance System in Classroom Using Face Recognition Technique;Samuel Lukas 等;《2016 International Conference on Information and Communication Technology Convergence (ICTC)》;20161205;1032-1035 * |
基于 CNN 人脸识别模型的大学生课堂行为分析研究;左国才 等;《智能计算机与应用》;20191130;第9卷(第6期);107-110 * |
基于人工智能视频处理的课堂学生状态分析;贾鹂宇 等;《现代教育技术》;20191231;第29卷(第12期);82-88 * |
Also Published As
Publication number | Publication date |
---|---|
CN111507283A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111507283B (zh) | 基于课堂场景的学生行为识别方法及系统 | |
Alameda-Pineda et al. | Analyzing free-standing conversational groups: A multimodal approach | |
CN109690624A (zh) | 用于视频分析的自动场景校准方法 | |
CN105405150B (zh) | 基于融合特征的异常行为检测方法和装置 | |
CN111726586A (zh) | 一种生产体系操作规范监测提醒系统 | |
CN110427859A (zh) | 一种人脸检测方法、装置、电子设备及存储介质 | |
Tran et al. | Social cues in group formation and local interactions for collective activity analysis | |
CN110718067A (zh) | 违规行为告警方法及相关装置 | |
CN110659397A (zh) | 一种行为检测方法、装置、电子设备和存储介质 | |
CN107977639A (zh) | 一种人脸清晰度判断方法 | |
CN110321885A (zh) | 一种兴趣点的获取方法及装置 | |
CN110827432B (zh) | 一种基于人脸识别的课堂考勤方法及系统 | |
CN109977856B (zh) | 一种多源视频中复杂行为识别的方法 | |
CN117218703A (zh) | 智能学情分析方法及系统 | |
US10438066B2 (en) | Evaluation of models generated from objects in video | |
CN110309737A (zh) | 一种应用于香烟柜台的信息处理方法、装置及系统 | |
CN106846527B (zh) | 一种基于人脸识别的考勤系统 | |
Yadav et al. | Attendance Management System Based on Face Recognition Using Haar-Cascade | |
Anveshini et al. | Face Recognition Technique based Student Attendance Management System | |
Tian et al. | Intelligent consumer flow and experience analysis system based on cognitive intelligence: smart eye system | |
Tyagi et al. | Attendance System Implementation Using Real Time Face Recognition | |
CN111444803B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
US11798284B2 (en) | System and method for rough handling recognition in a distribution center via a robust visual solution | |
Mehta et al. | Real-time student surveillance system using machine learning and computer vision | |
CN113392776A (zh) | 一种结合座位信息和机器视觉的离开座位行为检测方法和存储设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |