CN108416797A - 一种检测行为变化的方法、设备及存储介质 - Google Patents

一种检测行为变化的方法、设备及存储介质 Download PDF

Info

Publication number
CN108416797A
CN108416797A CN201810163732.0A CN201810163732A CN108416797A CN 108416797 A CN108416797 A CN 108416797A CN 201810163732 A CN201810163732 A CN 201810163732A CN 108416797 A CN108416797 A CN 108416797A
Authority
CN
China
Prior art keywords
behavior
pixel value
behavioral change
value difference
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810163732.0A
Other languages
English (en)
Inventor
贾世祥
危义民
李琪
王志成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ludong University
Original Assignee
Ludong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ludong University filed Critical Ludong University
Priority to CN201810163732.0A priority Critical patent/CN108416797A/zh
Publication of CN108416797A publication Critical patent/CN108416797A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Abstract

本发明提供了一种检测行为变化的方法,包括:将视频每相邻两帧的像素值做差得到像素差值集合;判断所述像素差值集合中的每个像素差值是否超出行为阈值,若不存在超出行为阈值的像素差值,则所述视频无行为变化;若存在超出行为阈值的像素差值,则将超出所述行为阈值的像素差值对应的像素点区域集合设定为待识别区域;将所述待识别区域输入分类模型进行分类,根据分类结果检测行为变化。本发明还提供了一种主动交互设备及非暂态可读存储介质,用来实现所述方法。本发明可以提高检测行为变化的灵敏度,拓宽能够检测到的行为变化的种类的范围。

Description

一种检测行为变化的方法、设备及存储介质
技术领域
本发明涉及模式识别领域,更具体地,涉及一种检测行为变化的方法、设备及存储介质。
背景技术
传统的行为变化检测方法通过颜色直方图的跟踪算法获取人的运动轨迹,不同行为对应不同的轨迹,但这种通过人体运动轨迹的差异区分不同行为类别的方式仅适用于变化特征较大的行为类别,对于变化幅度小的行为无法准确区分,且对异常行为的界定是当人的运动轨迹不符合周期性和重复性,具有较大主观性。例如,在课堂中,受限于教室空间的限制,学生在课堂上的行为变化幅度较小,不同行为之间差异小,无法通过人的运动轨迹不同得以准确界定不同行为,使用这种技术则行为识别的种类受限,且无法准确分类变化较小的行为,灵敏度低。另一方面,通过对整体的人体运动动能分析是否有异常行为。即对人群的运动速度和方向来判断是否有异常行为,因为考虑到出现异常行为时,人的动能变化比正常情况下剧烈得多。这种算法只能初步判定人群中是否有异常行为,但无法识别出准确的行为类别,且同一动作的方向和速度都有较大不同。例如,而课堂中的正异常行为多种多样,这种方式很可能将正确行为识别为异常行为。灵敏度低,无法准确分出各个行为类别,不适用于行为多样的课堂情景。因此,找到一种检测灵敏度较高,能够检测到的行为变化的种类较多的方法就成为业界广泛关注的问题。
发明内容
为克服上述问题或者至少部分地解决上述问题,本发明提供了一种检测行为变化的方法、设备及存储介质。
一方面,本发明提供了一种检测行为变化的方法,包括:将视频每相邻两帧的像素值做差得到像素差值集合;判断所述像素差值集合中的每个像素差值是否超出行为阈值,若不存在超出行为阈值的像素差值,则所述视频无行为变化;若存在超出行为阈值的像素差值,则将超出所述行为阈值的像素差值对应的像素点区域集合设定为待识别区域;将所述待识别区域输入分类模型进行分类,根据分类结果检测行为变化。
另一方面,本发明提供了一种主动交互设备及一种非暂态可读存储介质。所述一种主动交互设备包括:至少一个处理器;以及与所述处理器通信连接的至少一个存储器,其中:所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行所述一种检测行为变化的方法。所述一种非暂态可读存储介质存储程序指令,用于执行所述一种检测行为变化的方法。
本发明提供了一种检测行为变化的方法、设备及存储介质,通过在视频相邻帧中设定行为阈值,并构建行为类别集合,可以提高检测行为变化的灵敏度,拓宽能够检测到的行为变化的种类的范围。
附图说明
图1是本发明实施例中检测行为变化的方法的整体流程图;
图2是本发明实施例中训练初始分类模型得到分类模型的流程图;
图3是本发明实施例中构建行为类别集合的流程图;
图4是本发明实施例中采用3D CNN网络作为分类模型的模型结构示意图;
图5是本发明实施例中构建行为类别集合示意图;
图6是本发明实施例的硬件设备工作示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地描述,下文中提到的具体技术细节,仅为使读者更好的理解技术方案,并不代表本发明仅局限于以下技术细节。
本发明的实施例提供了一种检测行为变化的方法、设备及存储介质。参见图1,图1是本发明实施例中检测行为变化的方法的整体流程图,具体步骤包括:
S101:将视频每相邻两帧的像素值做差得到像素差值集合。
S102:判断所述像素差值集合中的每个像素差值是否超出行为阈值,若不存在超出行为阈值的像素差值,则所述视频无行为变化。所述行为阈值的大小决定检测的灵敏度:所述行为阈值越小,检测的灵敏度越高。具体地,使用opencv读入已存储的监控视频,对视频连续取帧,相邻帧中的像素值作差,当差值的绝对值超过阈值时(考虑到像素值从0-255,我们经多次实验测试,将阈值设为45),则认为该像素区域发生了行为变化,阈值越小则对行为的感知灵敏度越高,将该变化区域设为待识别区域,此时执行行为检测算法,以当前时刻连续的30帧图像作为输入,通过3D CNN网络得出行为类别,从而缩小了识别区域,加速了识别过程,并可由阈值控制对行为感知的灵敏度。
S103:若存在超出行为阈值的像素差值,则将超出所述行为阈值的像素差值对应的像素点区域集合设定为待识别区域。
S104:将所述待识别区域输入分类模型进行分类,根据分类结果检测行为变化。
参见图2,图2是本发明实施例中训练初始分类模型得到分类模型的流程图,包括:
S201:构建行为类别集合,所述行为类别集合限定能够检测到的行为变化的种类。
S202:将所述行为类别集合分为训练集和验证集。
S203:将所述训练集分批输入所述初始分类模型进行训练,得到训练初始分类模型。
S204:将所述验证集输入所述训练初始分类模型进行验证得到所述分类模型。
所述初始分类模型的结构包括:卷积层、池化层、防过拟合层及全连接层;所述卷积层用于提取视频帧的时空特征发送至所述池化层,所述池化层用于缩小所述卷积层输出的维度并提取主要特征发送至所述防过拟合层,所述防过拟合层用于在训练过程中断开若干神经元连接以防止过拟合。
参见图3,图3是本发明实施例中构建行为类别集合的流程图,包括:
S301:设定行为变化的种类及执行行为变化的主体集合。
S302:所述执行行为变化的主体集合中的每一元素执行所述行为变化的种类中的每一类行为变化,并分别拍摄成视频,即,检测到行为变化时获取相应视频。
S303:对所述视频截取连续的若干帧图像,以所述若干帧图像作为所述行为类别集合。
其中,以所述行为变化的种类作为标准,对所述行为类别集合进行分组。
具体地,选择50位不同的学生在教室做出所需识别的4个类别的动作,每个人连续做每一类动作并分别拍摄为视频,对每个视频随机截取连续的30帧图像制作成每个类别的视频样本,即每个类别有50位不同的学生连续做每一类动作多次拍摄成视频,然后由程序随机选择视频的起始时间点保存接下来的30帧图像,共计制作了约4000个小的视频片段,每一类各约1000个样本片段。
参见图4,图4是本发明实施例中采用3D CNN网络作为分类模型的模型结构示意图。具体地,采用keras深度学习框架中的序贯模型搭建3D CNN卷积神经网络用于训练我们采集的样本。将裁剪好的视频帧作为输入,用opencv自动读入每一个文件夹中的行为样本,对样本取连续的30帧,采用线性缩放的方法将帧图片归一化为32*32大小,图像深度为30的待训练样本。这些预处理操作可以加快训练速度,提高了模型的精确度。将预处理后的行为样本的像素值存入数组中,新建一个列表用来保存对应的样本行为类型,将站立标记为行为0,睡觉标记为行为1,举手标记为行为2,低头玩手机为行为3。分四个类共4000个样本,取80%作为训练集,20%做为验证集。经过两层3D卷积C1,C2,两层3D池化层P1,P2,两层dropout层S1,S2和2层全连接层N1,N2最终输出分类结果。卷积层用于提取视频帧的时空特征。池化层对卷积层的输出缩小维度,并提取主要特征。dropout层用于对池化层的输出在训练过程中每次更新参数时随机断开一定百分比的神经元连接,防止过拟合,提高模型效率和准确度。模型结构为先对待训练视频输入经过一层3D CNN卷积层C1,共16个滤波器,滤波器的卷积核大小为7*7*7,选择rule函数为卷积层的激活函数。再经过一层3D最大值池化层P1,池化核大小为3*3*3,将输出经过dropout层S1防过拟合,参数p=0.5。再输入到第二层3D CNN卷积层C2,共32个滤波器,滤波器的卷积核大小为3*3*3,再经过一层3D最大值池化层P2,池化核大小为3*3*3,将输出先通过Flatten函数变成一维的向量,即将所有维的向量连成一行,再经过dropout层S2防过拟合,参数p=0.5。将输出经过两层全连接层,第一层N1输出为16,第二层输出N2为3,通过softmax函数输出类别号,即可得分类结果。我们对模型采取SGD的优化方法进行训练,以交叉熵作为损失函数。分批进行训练,每一批为32个样本,共训练100次。训练好后的模型用HDF5文件保存,并采用交叉验证的方式检测验证集。最后训练出的模型精确度为98.3%,交叉验证误差1.69%,未出现过拟合的情况。
当用户通过用户界面请求或定时在上课开始时执行功能,我们的算法将实时用opencv打开监控视频,设置循环不断对视频进行行为检测。控制并截取30帧连续图像,输入到已训练好的模型中即可实时分类出行为类别。整个识别过程仅用0.279秒,可以达到实时检测并统计行为个数的效果。当检测到异常行为时,则取识别到的前30帧中相邻的两帧,对像素进行减法运算并设置阈值,找出前后变化幅度大的区域即可定位为行为区域,对于1920*1080的监控视频中,我们设置定位区域的大小为200*200,并对定位的行为区域使用dl ib库中的函数实现人脸识别,找出该异常行为对应的学生身份,并记录下来在图形界面上显示,待一节课结束后将课堂上统计的四种行为的人数输出。
在此基础上,采用笑脸分类器实时检测面部表情(所述行为变化包括面部表情)。具体地,使用优化后的opencv库中的笑脸分类器实时检测同学们的脸部表情,若室内有同学微笑,可以表明上课气氛活跃,配合着行为检测我们给出对课堂教学质量的评价。opencv笑脸检测的分类器存在于源码中的haarcascade_smi le.xml文件中,用opencv中cv2.CascadeClass ifier函数导入该分类器,即可在视频中实时检测出同学们笑的次数。并统计同一时刻笑脸个数的最大值和最小值,并用opencv库中人脸检测的方法实时检测人脸个数,并统计出一段时间内在同一时刻注视黑板的人数的最大值和最小值。因为考虑到抬头正脸面向前方的同学是在专心听讲的,故根据统计出的注视黑板人数量化出上课专心听讲的人数。
最后,根据面部表情及行为变化构建综合评价模型,所述综合评价模型用于评价包含所述面部表情及行为变化的场景的相应分值。所述综合评价模型的评价指标包括:评价项目、评价标准及权重,具体参见表1。
表1
将代码部署在GPU服务器上,让服务器远程控制监控摄像机,在实时监控的同时运行我们的算法,我们给用户端提供如下图所示的图形界面,各个功能模块都提供了人工控制接口,用户可以选择自动定时执行各项功能,也可以手动控制在任意时刻通过按钮触发执行功能。当选择定时执行时,在课堂上检测同学们的行为是否异常,配合着笑脸检测和专注度做出对课堂活跃度和教学质量的判断我们也在服务器开辟了不同权限的用户,并提供用户界面,让用户和管理人员方便使用。
参见图5,图5是本发明实施例中构建行为类别集合示意图,包括:待举手动作501、识别举手动作502、玩手机动作503、识别玩手机的人504、睡觉动作505、识别睡觉的人506、待站立动作507及识别站立动作508。可见,行为类别集合中共包含可以识别的动作种类共有4种,包括:举手、玩手机、睡觉及站立。
参见图6,图6是本发明实施例的硬件设备工作示意图,所述硬件设备具体包括:一种检测行为变化的设备601、处理器602及存储介质603。
检测行为变化的设备601:所述一种检测行为变化的设备601实现所述一种检测行为变化的方法。
处理器602:所述处理器602加载并执行所述存储介质603中的指令及数据用于实现所述的一种检测行为变化的方法。
存储介质603:所述存储介质603存储指令及数据;所述存储介质603用于实现所述的一种检测行为变化的方法。
通过执行本发明的实施例,本发明权利要求里的所有技术特征都得到了详尽阐述。
区别于现有技术,本发明的实施例提供了一种检测行为变化的方法、设备及存储介质,通过在视频相邻帧中设定行为阈值,并构建行为类别集合,可以提高检测行为变化的灵敏度,拓宽能够检测到的行为变化的种类的范围。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种检测行为变化的方法,其特征在于,包括:
将视频每相邻两帧的像素值做差得到像素差值集合;
判断所述像素差值集合中的每个像素差值是否超出行为阈值,若不存在超出行为阈值的像素差值,则所述视频无行为变化;
若存在超出行为阈值的像素差值,则将超出所述行为阈值的像素差值对应的像素点区域集合设定为待识别区域;
将所述待识别区域输入分类模型进行分类,根据分类结果检测行为变化;
其中,所述像素点区域是由超出所述行为阈值的像素差值对应的像素点所围成的区域。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
构建行为类别集合,所述行为类别集合用于限定检测到的行为变化的种类,所述行为类别集合分为训练集和验证集;
将所述训练集分批输入所述初始分类模型进行训练,得到训练初始分类模型,将所述验证集输入所述训练初始分类模型进行验证得到所述分类模型。
3.如权利要求2所述的方法,其特征在于,所述构建行为类别集合,包括:
检测到行为变化时获取相应视频;
对所述视频截取连续的若干帧图像,以所述若干帧图像作为所述行为类别集合;
其中,以所述行为变化的种类作为标准,对所述行为类别集合进行分组。
4.如权利要求2所述的方法,其特征在于,所述初始分类模型的结构包括:
卷积层、池化层、防过拟合层及全连接层;
所述卷积层用于提取视频帧的时空特征发送至所述池化层,所述池化层用于缩小所述卷积层输出的维度并提取主要特征发送至所述防过拟合层,所述防过拟合层用于在训练过程中断开若干神经元连接以防止过拟合。
5.如权利要求1至4任一所述的方法,其特征在于,所述行为变化包括面部表情,所述方法还包括:采用笑脸分类器实时检测面部表情。
6.如权利要求5所述的方法,其特征在于,所述方法还包括:根据所述面部表情及行为变化构建综合评价模型,所述综合评价模型用于评价包含所述面部表情及行为变化的场景的分值。
7.一种主动交互设备,其特征在于,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至6任一所述方法。
8.一种非暂态可读存储介质,其特征在于,所述非暂态可读存储介质存储程序指令,所述程序指令用于执行如权利要求1至6任一所述方法。
CN201810163732.0A 2018-02-27 2018-02-27 一种检测行为变化的方法、设备及存储介质 Pending CN108416797A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810163732.0A CN108416797A (zh) 2018-02-27 2018-02-27 一种检测行为变化的方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810163732.0A CN108416797A (zh) 2018-02-27 2018-02-27 一种检测行为变化的方法、设备及存储介质

Publications (1)

Publication Number Publication Date
CN108416797A true CN108416797A (zh) 2018-08-17

Family

ID=63129318

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810163732.0A Pending CN108416797A (zh) 2018-02-27 2018-02-27 一种检测行为变化的方法、设备及存储介质

Country Status (1)

Country Link
CN (1) CN108416797A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871775A (zh) * 2019-01-22 2019-06-11 北京影谱科技股份有限公司 一种基于行为检测的滑冰场监控方法和装置
CN110278023A (zh) * 2019-06-10 2019-09-24 航科院(北京)科技发展有限公司 一种基于空地宽带通信的应用系统及方法
CN110674728A (zh) * 2019-09-20 2020-01-10 重庆商勤科技有限公司 基于视频图像识别玩手机方法、装置、服务器及存储介质
CN111209774A (zh) * 2018-11-21 2020-05-29 杭州海康威视数字技术股份有限公司 目标行为识别及显示方法、装置、设备、可读介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096930A (zh) * 2011-01-30 2011-06-15 吴柯维 一种教学智能录播系统学生起坐检测方法
CN102629384A (zh) * 2012-02-28 2012-08-08 成都三泰电子实业股份有限公司 视频监控中异常行为的检测方法
CN106127114A (zh) * 2016-06-16 2016-11-16 北京数智源科技股份有限公司 智能视频分析方法
CN106204779A (zh) * 2016-06-30 2016-12-07 陕西师范大学 基于多人脸数据采集策略和深度学习的课堂考勤方法
CN106372576A (zh) * 2016-08-23 2017-02-01 南京邮电大学 一种基于深度学习的智能室内入侵检测方法及系统
US9565203B2 (en) * 2014-11-13 2017-02-07 Cyber-Ark Software Ltd. Systems and methods for detection of anomalous network behavior
CN106851216A (zh) * 2017-03-10 2017-06-13 山东师范大学 一种基于人脸和语音识别的课堂行为监控系统及方法
CN107292778A (zh) * 2017-05-19 2017-10-24 华中师范大学 一种基于认知情感感知的云课堂学习评价方法及其装置
CN107330437A (zh) * 2017-07-03 2017-11-07 贵州大学 基于卷积神经网络目标实时检测模型的特征提取方法
CN107437314A (zh) * 2017-07-19 2017-12-05 成都华安视讯科技有限公司 人员入侵检测检测系统
CN107526438A (zh) * 2017-08-08 2017-12-29 深圳市明日实业股份有限公司 根据举手动作进行跟踪录播的方法、装置及存储装置
CN107679524A (zh) * 2017-10-31 2018-02-09 天津天地伟业信息系统集成有限公司 一种基于视频的安全帽佩戴情况的检测方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096930A (zh) * 2011-01-30 2011-06-15 吴柯维 一种教学智能录播系统学生起坐检测方法
CN102629384A (zh) * 2012-02-28 2012-08-08 成都三泰电子实业股份有限公司 视频监控中异常行为的检测方法
US9565203B2 (en) * 2014-11-13 2017-02-07 Cyber-Ark Software Ltd. Systems and methods for detection of anomalous network behavior
CN106127114A (zh) * 2016-06-16 2016-11-16 北京数智源科技股份有限公司 智能视频分析方法
CN106204779A (zh) * 2016-06-30 2016-12-07 陕西师范大学 基于多人脸数据采集策略和深度学习的课堂考勤方法
CN106372576A (zh) * 2016-08-23 2017-02-01 南京邮电大学 一种基于深度学习的智能室内入侵检测方法及系统
CN106851216A (zh) * 2017-03-10 2017-06-13 山东师范大学 一种基于人脸和语音识别的课堂行为监控系统及方法
CN107292778A (zh) * 2017-05-19 2017-10-24 华中师范大学 一种基于认知情感感知的云课堂学习评价方法及其装置
CN107330437A (zh) * 2017-07-03 2017-11-07 贵州大学 基于卷积神经网络目标实时检测模型的特征提取方法
CN107437314A (zh) * 2017-07-19 2017-12-05 成都华安视讯科技有限公司 人员入侵检测检测系统
CN107526438A (zh) * 2017-08-08 2017-12-29 深圳市明日实业股份有限公司 根据举手动作进行跟踪录播的方法、装置及存储装置
CN107679524A (zh) * 2017-10-31 2018-02-09 天津天地伟业信息系统集成有限公司 一种基于视频的安全帽佩戴情况的检测方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209774A (zh) * 2018-11-21 2020-05-29 杭州海康威视数字技术股份有限公司 目标行为识别及显示方法、装置、设备、可读介质
CN111209774B (zh) * 2018-11-21 2024-03-26 杭州海康威视数字技术股份有限公司 目标行为识别及显示方法、装置、设备、可读介质
CN109871775A (zh) * 2019-01-22 2019-06-11 北京影谱科技股份有限公司 一种基于行为检测的滑冰场监控方法和装置
CN110278023A (zh) * 2019-06-10 2019-09-24 航科院(北京)科技发展有限公司 一种基于空地宽带通信的应用系统及方法
CN110674728A (zh) * 2019-09-20 2020-01-10 重庆商勤科技有限公司 基于视频图像识别玩手机方法、装置、服务器及存储介质
CN110674728B (zh) * 2019-09-20 2022-05-10 重庆商勤科技有限公司 基于视频图像识别玩手机方法、装置、服务器及存储介质

Similar Documents

Publication Publication Date Title
Pabba et al. An intelligent system for monitoring students' engagement in large classroom teaching through facial expression recognition
CN108509941B (zh) 情绪信息生成方法和装置
Han et al. Two-stage learning to predict human eye fixations via SDAEs
CN108416797A (zh) 一种检测行为变化的方法、设备及存储介质
CN112163638B (zh) 图像分类模型后门攻击的防御方法、装置、设备及介质
CN105469376B (zh) 确定图片相似度的方法和装置
Afshar et al. Investigation of event-based surfaces for high-speed detection, unsupervised feature extraction, and object recognition
CN110363084A (zh) 一种上课状态检测方法、装置、存储介质及电子
CN111126347B (zh) 人眼状态识别方法、装置、终端及可读存储介质
CN109460733A (zh) 基于单摄像头的人脸识别活体检测方法及系统、存储介质
CN112836602B (zh) 基于时空特征融合的行为识别方法、装置、设备及介质
CN110197116A (zh) 一种人体行为识别方法、装置和计算机可读存储介质
Setialana et al. Intelligent attendance system with face recognition using the deep convolutional neural network method
CN116958637A (zh) 图像检测模型的训练方法、装置、设备及存储介质
Zhu et al. NAGNet: A novel framework for real‐time students' sentiment analysis in the wisdom classroom
Sakthimohan et al. Detection and Recognition of Face Using Deep Learning
CN110276252A (zh) 一种基于生成式对抗网络的抗表情干扰的人脸识别方法
Ashwinkumar et al. Deep learning based approach for facilitating online proctoring using transfer learning
Salehin et al. Analysis of student sentiment during video class with multi-layer deep learning approach
Boncolmo et al. Gender Identification Using Keras Model Through Detection of Face
Martinez-Seras et al. A novel Out-of-Distribution detection approach for Spiking Neural Networks: Design, fusion, performance evaluation and explainability
Guo System analysis of the learning behavior recognition system for students in a law classroom: based on the improved SSD behavior recognition algorithm
Saealal et al. Three-Dimensional Convolutional Approaches for the Verification of Deepfake Videos: The Effect of Image Depth Size on Authentication Performance
CN110287759A (zh) 一种基于简化输入卷积神经网络o-cnn的眼部疲劳检测方法
CN115731620A (zh) 检测对抗攻击的方法和训练对抗攻击检测模型的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180817

RJ01 Rejection of invention patent application after publication