CN109800662A - 一种教师教课行为识别方法、系统、装置和存储介质 - Google Patents

一种教师教课行为识别方法、系统、装置和存储介质 Download PDF

Info

Publication number
CN109800662A
CN109800662A CN201811617861.9A CN201811617861A CN109800662A CN 109800662 A CN109800662 A CN 109800662A CN 201811617861 A CN201811617861 A CN 201811617861A CN 109800662 A CN109800662 A CN 109800662A
Authority
CN
China
Prior art keywords
teacher
teaches
recognized
images
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811617861.9A
Other languages
English (en)
Inventor
郝禄国
杨琳
葛海玉
龙鑫
曾文彬
李伟儒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guang Zhou Hai Noboru Computer Science And Technology Ltd
Original Assignee
Guang Zhou Hai Noboru Computer Science And Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guang Zhou Hai Noboru Computer Science And Technology Ltd filed Critical Guang Zhou Hai Noboru Computer Science And Technology Ltd
Priority to CN201811617861.9A priority Critical patent/CN109800662A/zh
Publication of CN109800662A publication Critical patent/CN109800662A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种教师教课行为识别方法、系统、装置和存储介质,所述方法包括对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标,生成与所述运动目标相应的运动历史图,计算与所述运动历史图相应的运动特征,将所述运动特征输入到经过训练的卷积神经网络中,接收卷积神经网络输出的教师教课行为分类结果作为识别结果等步骤。本发明通过使用经过训练的卷积神经网络对从待识别图像提取出的运动特征进行分类,可以达到良好的识别效果,具有噪声小、时间复杂度小、识别精度高等优势。通过识别视频中的教师教课行为,可以对教师的教课质量进行客观评价。本发明广泛应用于图像识别技术领域。

Description

一种教师教课行为识别方法、系统、装置和存储介质
技术领域
本发明涉及图像识别技术领域,尤其是教师教课行为识别方法、系统、装置和存储介质。
背景技术
网络课堂是一种新的教学方式。通过播放教师教课的视频,网络课堂为在职人员和边远地区的学生提供了丰富的学习机会。对于录播或直播的视频,为了方便教学人员观看,需要识别视频中教师的教课行为,以对视频进行分类或分段处理,这项工作是由网络课堂供应商的工作人员人工进行的,工作量大、效率低。现有技术通过OpenCV、高斯混合模型和形态学处理等技术,可以自动识别视频中教师的教课行为,但是现有技术噪声大、时间复杂度大,识别精度较低。
发明内容
为了解决上述技术问题,本发明的目在于提供一种教师教课行为识别方法、系统、装置和存储介质。
一方面,本发明实施例包括一种教师教课行为识别方法,包括以下步骤:
对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标;
生成与所述运动目标相应的运动历史图;
计算与所述运动历史图相应的运动特征;
将所述运动特征输入到经过训练的卷积神经网络中;
接收卷积神经网络输出的教师教课行为分类结果作为识别结果。
进一步地,所述对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标这一步骤,具体包括:
将所述待识别图像与具有预设灰度值的标准背景模型进行各像素的差分运算;
将所述待识别图像上的各像素分别标记为背景区域或运动目标;所述背景区域中的各像素对应的差分运算结果小于设定阈值,所述运动目标中的各像素对应的差分运算结果大于设定阈值。
进一步地,在所述对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标这一步骤之前,还包括对待识别图像进行预处理的步骤。
进一步地,所述对从待识别图像进行预处理这一步骤,具体包括:
对所述待识别图像进行灰度化处理,得到灰度化图像;
对所述灰度化图像进行平滑处理,得到平滑化图像;
根据所述平滑化图像中各点的像素值,将所述平滑化图像划分为背景区域和教师对应区域;
保留所述教师对应区域的具有设定宽度的边缘部分,将所述教师对应区域的内部部分删除。
进一步地,所述运动特征为Zernike矩。
进一步地,所述Zernike矩的阶数为9阶。
进一步地,在所述接收卷积神经网络输出的教师教课行为分类结果作为识别结果这一步骤之后,还包括以下步骤:
对所述教师教课过程视频流中各画面进行识别,从而输出所述各画面对应的识别结果;
对所述教师教课过程视频流中各同类视频段的时长总和分别进行统计;所述同类视频段中的各画面对应相同的识别结果;
计算所述教师教课过程视频流中各同类视频段的时长总和占所述教师教课过程视频流的总时长的比例;
根据所述比例计算评分;所述评分用于对教师教课行为进行评价。
另一方面,本发明实施例还包括一种教师教课行为识别系统,包括:
运动目标检测系统,用于对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标;
运动历史图生成系统,用于生成与所述运动目标相应的运动历史图;
运动特征计算系统,用于计算与所述运动历史图相应的运动特征;
卷积神经网络系统,用于将所述运动特征输入到经过训练的卷积神经网络中;
识别结果系统,用于接收卷积神经网络输出的教师教课行为分类结果作为识别结果。
另一方面,本发明还包括一种教师教课行为识别装置,包括存储器和处理器,所述存储器用于存储至少一个程序,所述处理器用于加载所述至少一个程序以执行本发明方法。
另一方面,本发明还包括一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于执行本发明方法。
本发明的有益效果是:通过使用经过训练的卷积神经网络对从待识别图像提取出的运动特征进行分类,可以达到良好的识别效果,与OpenCV等现有技术相比,本发明方法具有噪声小、时间复杂度小、识别精度高等优势。进一步地,对待识别图像进行预处理,可以避免待识别图像中的噪声对卷积神经网络的分类操作造成干扰,进一步提高识别质量。通过识别视频中的教师教课行为,可以对教师的教课质量进行客观评价。
附图说明
图1为本发明教师教课行为识别方法实施例的原理图。
具体实施方式
实施例1
本发明包括一种教师教课行为识别方法,参照图1,包括以下步骤:
S2.对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标;
S3.生成与所述运动目标相应的运动历史图;
S4.计算与所述运动历史图相应的运动特征;
S5.将所述运动特征输入到经过训练的卷积神经网络中;
S6.接收卷积神经网络输出的教师教课行为分类结果作为识别结果。
本实施例的步骤S2中,教师教课过程视频流是指对教师进行讲课的课程拍摄的视频流,所述视频流既可以是直播信号,也可以是录制回放的信号。视频流是由多帧画面组成的,本实施例所述的待识别图像是指从视频流中提取的一帧画面。通过步骤S2,可以从视频流的一帧画面中提取出运动目标,也就是这帧画面中与教师相对应的部分。
步骤S3中所用的运动历史图(MIH)是一种基于视觉的模板方法,运动历史图的原理是:计算一个时间段内同一位置的像素变化,将目标运动情况以图像亮度的形式表现出来。运动历史图具有以下性质:它的每个像素的灰度值表示一组视频序列中该位置像素最近的运动情况,且最后运动的时刻越接近当前帧,该像素的灰度值越高。步骤S3中的运动历史图是根据运动目标计算出来的,因此它包含了用于描述待识别图像中教师教课行为动作的信息。
步骤S3中计算出来的运动历史图,实际上是一个与运动目标有关的高维的行为序列表示空间。步骤S4中计算相应的运动特征,实际上是对运动历史图进行降维处理,消除运动历史图中的信息冗余,而步骤S40计算出来的运动特征,仍然包含了用于描述待识别图像中教师教课行为动作的信息。
步骤S5中所用的卷积神经网络是一个分类器,它根据运动特征中包含的用于描述待识别图像中教师教课行为动作的信息,对待识别图像进行分类,也就是识别出待识别图像中的教师正在进行的教课行为动作。
本实施例中,需要识别的教师的教课行为动作包括板书、授课和走下讲台三种。步骤S5中的卷积神经网络,应针对这三种教课行为动作进行预先的训练。具体训练方法包括:召集200个教师,对每个教师完成板书、授课和走下讲台这三种动作进行拍摄,优选地,每个教师的每个动作分别拍摄10张照片,每张照片的拍摄角度应不相同,执行以上过程可以得到多张训练图片。以每张训练图片对应的教课行为动作,对各张训练图片进行标记,组成训练数据库。从训练数据库中随机抽取多张训练照片及其对应的标记,分别组成训练集和测试集,优选地训练集和测试集中包含的训练照片的数量比例为3:1。使用得到的训练集对卷积神经网络迭代训练30000次,然后使用测试集对卷积神经网络进行测试。完成训练和测试后的卷积神经网络具有相应的分类功能。
进一步作为优选的实施方式,所述步骤S2,即对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标这一步骤,具体包括:
S201.将所述待识别图像与具有预设灰度值的标准背景模型进行各像素的差分运算;
S202.将所述待识别图像上的各像素分别标记为背景区域或运动目标;所述背景区域中的各像素对应的差分运算结果小于设定阈值,所述运动目标中的各像素对应的差分运算结果大于设定阈值。
步骤S201和S202中,所使用的标准背景模型是一张所有的像素点都具有预设灰度值的照片,它的尺寸与所述待识别图像相同,使得标准背景模型上的各像素点可以与待识别图像上的各像素点一一对应。所述差分运算是指分别求出标准背景模型上的各像素点与待识别图像上的各对应像素点的灰度差值,所述差分运算结果是指所得到的灰度差值。对应的灰度差值小于设定阈值的,将该像素点标记为属于背景区域,所有属于背景区域的像素点组成了背景区域;对应的灰度差值大于设定阈值的,将该像素点标记为属于运动目标,所有属于运动目标的像素点组成了运动目标。
步骤S201和S202是应用了背景减除法。它的原理是,运动目标对应着教师,背景区域对应着教师身后的黑板或墙壁等背景,教师的衣着和灰色等使得教师对应的运动目标的像素点与背景区域的像素点具有灰度差异,因此可以通过背景减除法,将运动目标与背景区域区分开来。
步骤S201和S202中,优选地,还对待识别图像进行二值化,也就是将背景区域的所有像素点统一设为第一像素值,将运动目标的所有像素点统一设为第二像素值。
步骤S201和S202中,优选地,还对二值化后的待识别图像进行形态学处理,以对标准背景模型进行动态更新,使得步骤S201和S202能够适应动态处理过程。所述形态学处理是指对二值化后的待识别图像进行腐蚀、膨胀、开和闭运算等运算。
进一步作为优选的实施方式,在步骤S2,即所述对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标这一步骤之前,还包括步骤S1,即对待识别图像进行预处理的步骤。所述步骤S1具体包括:
S101.对所述待识别图像进行灰度化处理,得到灰度化图像;
S102.对所述灰度化图像进行平滑处理,得到平滑化图像;
S103根据所述平滑化图像中各点的像素值,将所述平滑化图像划分为背景区域和教师对应区域;
S104.保留所述教师对应区域的具有设定宽度的边缘部分,将所述教师对应区域的内部部分删除。
步骤S101可以消除待识别图像中彩色复杂背景的影响,简化后续步骤S2-S6的运算。
步骤S102使用中值滤波算法,消除灰度化图像中的噪声。
步骤S103可以参考步骤S201和S202,将所述平滑化图像划分为背景区域和教师对应区域。
步骤S104中,将所述教师对应区域的内部部分删除,仅保留教师对应区域的边缘部分。所述将所述教师对应区域的内部部分删除,可以是将所述教师对应区域的内部部分的像素值设定为与背景区域相同。所述教师对应区域的边缘部分,实际上是教师对应区域的轮廓,所述设定宽度实际上是轮廓的粗度。
通过步骤S101-S104的预处理,在执行步骤S2时提取运动目标的速度和精度更高。
进一步作为优选实施方式,所述运动特征为Zernike矩,所述Zernike矩的阶数为9阶。
本实施例中,使用各元素相互正交的Zernike矩作为步骤S4中所要提取的运动特征,Zernike矩的正交性、幅值旋转不变性使得Zernike矩具有信息冗余小、抗噪声能力强等特点,因此提取出来的运动特征可以更加全面准确地保留运动历史图的信息。
本实施例中,还可以选择从运动历史图中提取动作的直方图特征作为所述运动特征。直方图特征可以对运动目标的横向运动或纵向运动进行直观描述,能够代替Zernike矩作为所要提取的运动特征。
进一步作为优选实施方式,在所述步骤S6,即接收卷积神经网络输出的教师教课行为分类结果作为识别结果这一步骤之后,还包括以下步骤:
S7.对所述教师教课过程视频流中各画面进行识别,从而输出所述各画面对应的识别结果;
S8.对所述教师教课过程视频流中各同类视频段的时长总和分别进行统计;所述同类视频段中的各画面对应相同的识别结果;
S9.计算所述教师教课过程视频流中各同类视频段的时长总和占所述教师教课过程视频流的总时长的比例;
S10.根据所述比例计算评分;所述评分用于对教师教课行为进行评价。
本实施例中,步骤S7-S10中所述的教师教课过程视频流记录了教师进行教课的全过程。步骤S7中,针对所述教师教课过程视频流中的每一画面,分别执行步骤S1-S6,从而得到每一画面对应的识别结果。当教师教课过程视频流是录制的视频文件时,可以针对每一画面多次执行步骤S1-S6,再执行步骤S7;当教师教课过程视频流是直播的视频时,可以针对每一实时接收到的画面连续执行步骤S1-S7。
通过步骤S7中对各画面的识别,所述教师教课过程视频流中的每一画面都被标记上相应的识别结果。教师教课过程视频流中,多个对应相同识别结果的连续的画面组成一个视频段。本实施例中,一个教师教课过程视频流被分成视频段1-视频段2-视频段3……视频段n,其中各视频段对应的识别结果为板书-授课-板书-授课……-授课-走下讲台,因此,本实施例中,视频段1和视频段3均对应“板书”的识别结果,它们属于同类视频段;视频段2、视频段4和视频段n-1均对应“授课”的识别结果,它们属于同类视频段;视频段n对应“走下讲台”的识别结果。
步骤S8中,对所述教师教课过程视频流中各同类视频段的时长总和分别进行统计。本实施例中,整个教师教课过程视频流的总时长为100min,识别结果为“授课”的同类视频段的时长总和为60min,识别结果为“板书”的同类视频段的时长总和为39min,识别结果为“走下讲台”的同类视频段的时长总和为1min。
步骤S9中,计算所述教师教课过程视频流中各同类视频段的时长总和占所述教师教课过程视频流的总时长的比例。本实施例中,识别结果为“授课”的同类视频段对应的比例为60min/100min=60%,识别结果为“板书”的同类视频段对应的比例为39min/100min=39%,识别结果为“走下讲台”的同类视频段对应的比例为1min/100min=1%。
步骤S10中,根据所述比例进行评分。评分规则可以根据教学实际进行设定。本实施例中,将评分规则设定为:当识别结果为“授课”的同类视频段对应的比例达到60%时,评分为优;当识别结果为“授课”的同类视频段对应的比例达到50%时,评分为良;本实施例中,对教师教课行为的评分为优。也可以通过为“授课”、“板书”和“走下讲台”这三种同类视频段赋予不同的权重,计算这三种同类视频段各自的时长总和占所述教师教课过程视频流的总时长的比例的加权平均数作为得分,然后通过得分来对教师的教课质量进行评价。在实际教学课程中,一般只有“授课”和“板书”这两个动作具有实质的教学价值,因此,本实施例中,“走下讲台”这一动作,也可以解释为除“授课”和“板书”以外的其他动作。
通过步骤S7-S10,可以实现自动对教师教课过程的自动分析和评分,对教师的教课进行客观的评价。
本发明方法具有以下技术效果:通过使用经过训练的卷积神经网络对从待识别图像提取出的运动特征进行分类,可以达到良好的识别效果,与OpenCV等现有技术相比,本发明方法具有噪声小、时间复杂度小、识别精度高等优势。进一步地,对待识别图像进行预处理,可以避免待识别图像中的噪声对卷积神经网络的分类操作造成干扰,进一步提高识别质量。通过识别视频中的教师教课行为,可以对教师的教课质量进行客观评价。
本实施例还包括一种教师教课行为识别系统,包括:
运动目标检测系统,用于对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标;
运动历史图生成系统,用于生成与所述运动目标相应的运动历史图;
运动特征计算系统,用于计算与所述运动历史图相应的运动特征;
卷积神经网络系统,用于将所述运动特征输入到经过训练的卷积神经网络中;
识别结果系统,用于接收卷积神经网络输出的教师教课行为分类结果作为识别结果。
本实施例中的教师教课行为识别系统,可以执行本发明的教师教课行为识别方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
本实施例还包括一种教师教课行为识别装置,包括存储器和处理器,所述存储器用于存储至少一个程序,所述处理器用于加载所述至少一个程序以执行本发明方法。本实施例中的教师教课行为识别装置,可以执行本发明的教师教课行为识别方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
本实施例还包括一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于执行本发明方法。通过使用本实施例中的存储介质,可以执行本发明的教师教课行为识别方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
以上是对本发明的较佳实施进行了具体说明,但对本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (10)

1.一种教师教课行为识别方法,其特征在于,包括以下步骤:
对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标;
生成与所述运动目标相应的运动历史图;
计算与所述运动历史图相应的运动特征;
将所述运动特征输入到经过训练的卷积神经网络中;
接收卷积神经网络输出的教师教课行为分类结果作为识别结果。
2.根据权利要求1所述的一种教师教课行为识别方法,其特征在于,所述对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标这一步骤,具体包括:
将所述待识别图像与具有预设灰度值的标准背景模型进行各像素的差分运算;
将所述待识别图像上的各像素分别标记为背景区域或运动目标;所述背景区域中的各像素对应的差分运算结果小于设定阈值,所述运动目标中的各像素对应的差分运算结果大于设定阈值。
3.根据权利要求1所述的一种教师教课行为识别方法,其特征在于,在所述对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标这一步骤之前,还包括对待识别图像进行预处理的步骤。
4.根据权利要求3所述的一种教师教课行为识别方法,其特征在于,所述对从待识别图像进行预处理这一步骤,具体包括:
对所述待识别图像进行灰度化处理,得到灰度化图像;
对所述灰度化图像进行平滑处理,得到平滑化图像;
根据所述平滑化图像中各点的像素值,将所述平滑化图像划分为背景区域和教师对应区域;
保留所述教师对应区域的具有设定宽度的边缘部分,将所述教师对应区域的内部部分删除。
5.根据权利要求1所述的一种教师教课行为识别方法,其特征在于,所述运动特征为Zernike矩。
6.根据权利要求5所述的一种教师教课行为识别方法,其特征在于,所述Zernike矩的阶数为9阶。
7.根据权利要求1所述的一种教师教课行为识别方法,其特征在于,在所述接收卷积神经网络输出的教师教课行为分类结果作为识别结果这一步骤之后,还包括以下步骤:
对所述教师教课过程视频流中各画面进行识别,从而输出所述各画面对应的识别结果;
对所述教师教课过程视频流中各同类视频段的时长总和分别进行统计;所述同类视频段中的各画面对应相同的识别结果;
计算所述教师教课过程视频流中各同类视频段的时长总和占所述教师教课过程视频流的总时长的比例;
根据所述比例计算评分;所述评分用于对教师教课行为进行评价。
8.一种教师教课行为识别系统,其特征在于,包括:
运动目标检测系统,用于对从教师教课过程视频流中获取到的待识别图像进行运动目标检测,提取出运动目标;
运动历史图生成系统,用于生成与所述运动目标相应的运动历史图;
运动特征计算系统,用于计算与所述运动历史图相应的运动特征;
卷积神经网络系统,用于将所述运动特征输入到经过训练的卷积神经网络中;
识别结果系统,用于接收卷积神经网络输出的教师教课行为分类结果作为识别结果。
9.一种教师教课行为识别装置,其特征在于,包括存储器和处理器,所述存储器用于存储至少一个程序,所述处理器用于加载所述至少一个程序以执行权利要求1-7任一项所述方法。
10.一种存储介质,其中存储有处理器可执行的指令,其特征在于,所述处理器可执行的指令在由处理器执行时用于执行如权利要求1-7任一项所述方法。
CN201811617861.9A 2018-12-28 2018-12-28 一种教师教课行为识别方法、系统、装置和存储介质 Pending CN109800662A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811617861.9A CN109800662A (zh) 2018-12-28 2018-12-28 一种教师教课行为识别方法、系统、装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811617861.9A CN109800662A (zh) 2018-12-28 2018-12-28 一种教师教课行为识别方法、系统、装置和存储介质

Publications (1)

Publication Number Publication Date
CN109800662A true CN109800662A (zh) 2019-05-24

Family

ID=66557796

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811617861.9A Pending CN109800662A (zh) 2018-12-28 2018-12-28 一种教师教课行为识别方法、系统、装置和存储介质

Country Status (1)

Country Link
CN (1) CN109800662A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210750A (zh) * 2019-05-29 2019-09-06 北京天正聚合科技有限公司 一种识别导购员业务的方法、装置、电子设备及存储介质
CN110610310A (zh) * 2019-09-10 2019-12-24 北京字节跳动网络技术有限公司 一种教学考核的方法、装置、介质和电子设备
CN111144255A (zh) * 2019-12-18 2020-05-12 华中科技大学鄂州工业技术研究院 一种教师的非语言行为的分析方法及装置
CN111814587A (zh) * 2020-06-18 2020-10-23 浙江大华技术股份有限公司 人体行为检测方法、教师行为检测方法及相关系统和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101699469A (zh) * 2009-11-09 2010-04-28 南京邮电大学 课堂录像中教师黑板书写动作的自动识别方法
CN108154109A (zh) * 2017-12-22 2018-06-12 福州瑞芯微电子股份有限公司 一种智能录播模型的构建方法、装置及教学智能录播方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101699469A (zh) * 2009-11-09 2010-04-28 南京邮电大学 课堂录像中教师黑板书写动作的自动识别方法
CN108154109A (zh) * 2017-12-22 2018-06-12 福州瑞芯微电子股份有限公司 一种智能录播模型的构建方法、装置及教学智能录播方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
党冬利: "人体行为识别及在教育录播系统中的应用", 《社会科学Ⅱ辑》 *
徐岩峰: "教室运动目标检测与行为识别", 《信息科技辑》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210750A (zh) * 2019-05-29 2019-09-06 北京天正聚合科技有限公司 一种识别导购员业务的方法、装置、电子设备及存储介质
CN110610310A (zh) * 2019-09-10 2019-12-24 北京字节跳动网络技术有限公司 一种教学考核的方法、装置、介质和电子设备
CN111144255A (zh) * 2019-12-18 2020-05-12 华中科技大学鄂州工业技术研究院 一种教师的非语言行为的分析方法及装置
CN111144255B (zh) * 2019-12-18 2024-04-19 华中科技大学鄂州工业技术研究院 一种教师的非语言行为的分析方法及装置
CN111814587A (zh) * 2020-06-18 2020-10-23 浙江大华技术股份有限公司 人体行为检测方法、教师行为检测方法及相关系统和装置

Similar Documents

Publication Publication Date Title
Yang et al. An emotion recognition model based on facial recognition in virtual learning environment
CN109800662A (zh) 一种教师教课行为识别方法、系统、装置和存储介质
Parham et al. An animal detection pipeline for identification
CN107240047B (zh) 一种教学视频的学分评估方法和装置
CN101667245B (zh) 基于支持向量新颖检测分类器级联的人脸检测方法
CN107945153A (zh) 一种基于深度学习的路面裂缝检测方法
CN109598287A (zh) 基于深度卷积生成对抗网络样本生成的外观瑕疵检测方法
CN103824090B (zh) 一种自适应的人脸低层特征选择方法及人脸属性识别方法
Frintrop et al. A cognitive approach for object discovery
CN112001219B (zh) 一种多角度多人脸识别考勤方法及系统
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
CN110163567A (zh) 基于多任务级联卷积神经网络的课堂点名系统
US20220207266A1 (en) Methods, devices, electronic apparatuses and storage media of image processing
CN110765814A (zh) 一种黑板书写行为识别方法、装置及摄像机
Selim et al. Students engagement level detection in online e-learning using hybrid efficientnetb7 together with tcn, lstm, and bi-lstm
Kitada et al. Skin lesion classification with ensemble of squeeze-and-excitation networks and semi-supervised learning
Moayeri et al. Hard imagenet: Segmentations for objects with strong spurious cues
Guo et al. Open-eye: An open platform to study human performance on identifying ai-synthesized faces
Ruiz-Santaquiteria et al. Improving handgun detection through a combination of visual features and body pose-based data
Martin et al. Deep learning strategies for industrial surface defect detection systems
Pineda et al. Deep MAnTra: deep learning-based multi-animal tracking for Japanese macaques
CN108717522A (zh) 一种基于深度学习和相关滤波的人体目标跟踪方法
CN117058752A (zh) 一种基于改进YOLOv7的学生课堂行为检测方法
CN106650824A (zh) 基于支持向量机的运动目标分类方法
CN110443277A (zh) 基于注意力模型的少量样本分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190524