CN112464776A - 一种学习状态监测方法、系统和装置 - Google Patents
一种学习状态监测方法、系统和装置 Download PDFInfo
- Publication number
- CN112464776A CN112464776A CN202011315947.3A CN202011315947A CN112464776A CN 112464776 A CN112464776 A CN 112464776A CN 202011315947 A CN202011315947 A CN 202011315947A CN 112464776 A CN112464776 A CN 112464776A
- Authority
- CN
- China
- Prior art keywords
- joint
- image
- training
- target
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47B—TABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
- A47B13/00—Details of tables or desks
- A47B13/08—Table tops; Rims therefor
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47B—TABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
- A47B13/00—Details of tables or desks
- A47B13/08—Table tops; Rims therefor
- A47B13/081—Movable, extending, sliding table tops
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47B—TABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
- A47B83/00—Combinations comprising two or more pieces of furniture of different kinds
- A47B83/04—Tables combined with other pieces of furniture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/55—Push-based network services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机应用的技术领域,尤其是涉及一种学习状态监测方法,包括:获取目标的面容数据;获取目标的人体关节轮廓模型;根据预设规则获取目标实时的姿态状态数据,判断目标的学习状态,学生在犯困的时候,眨眼的频率会变快,而且闭眼的速度会变慢,头部也会出现一定程度的下垂,因此可通过获取面容数据来确定目标的身份,并获得眨眼频率和眨眼时间,而且如果还监测到目标头部相较于平时更靠近桌面,或者头部下垂的频率变高,则可以判定目标处于犯困的学习状态。
Description
技术领域
本发明涉及计算机应用技术领域,尤其是涉及一种学习状态监测方法、系统和装置。
背景技术
对于中小学学生来说,每日学习的学习状态是一个不容忽视的问题,好的学习状态可以集中注意力、提高学习效率。学习状态好坏的一个明显指标就是个人的坐姿规范程度,规范的坐姿让他人一见就觉得此人正处于专心致志的状态。而不规范的坐姿,不仅可能导致注意力不够集中影响学习效率,更严重的还会影响身体健康。有研究表明,学生学习时头部前倾、看书写字距离书本过近,会影响视力且很可能导致近视的情况发生。学生坐姿不端、保持弯腰驼背的习惯,不仅影响个人的形象和气质,而且影响学生的正常发育,诱发多种疾病比如脊柱侧弯、颈椎病、腰椎病等。
目前,对于如何使学生保持正确坐姿还未有好的方法,对于自律的学生,并不担忧其坐姿问题;然而对于不自律的学生,只能靠老师或家长平时的督促,但是这种方式的效果不见得理想,因为有些学生的坐姿不端,往往多是无意识的,久而久之就自然形成了习惯,进而影响到了学习状态。
发明内容
本发明的目的是提供一种能够准确的实时监测学习状态监测的方法、系统和装置。
第一方面,本发明实施例提供了一种学习状态监测方法,包括:
S1:获取目标的面容数据;
所述面容数据包括眨眼频率和眨眼时间以及面部特征;
S2:获取所述目标的人体关节轮廓模型;
所述人体关节轮廓模型包括所述目标的头部、颈部、双臂和躯干;
S3:根据预设规则获取所述目标实时的姿态状态数据,判断所述目标的学习状态。
进一步的,所述获取所述目标的人体关节轮廓模型包括:
将数据集按照训练和测试进行划分,并做预处理;
进行人体关节特征区域的识别学习模型训练,以识别人体关节部位图像区域的学习网络;
关节坐标定位学习模型训练;
检测图像尺寸预处理,将需要识别人体姿态的图像调整为网络输入要求大小;
通过该网络进行图像关节区域的识别,并划定相应矩形区域保存为子图像;
将所述子图像作为输入,送入关节坐标定位学习模型进行关节坐标获取;以及
按照人体骨骼模型连接获取的关节点构成人体姿态描述。
进一步的,所述步骤“将数据集按照训练和测试进行划分,并做预处理”中“将数据集按照训练和测试进行划分”包括:
将所有的数据集划分为训练集和测试集,训练集再划分为整体图像训练集和关节部位训练集两个部分,其中整体图像训练集选取原本的训练集,关节部位测试集为训练集中每张训练图片所对应的真实图像中关节坐标数据集。
进一步的,所述“人体关节特征区域的识别学习模型训练”包括:
将准备好的整体图像训练集作为输入,并将其输入至深度卷积神经网络中,该卷积神经网络包括依次设置的五个卷积层和两个完全连接层,五个卷积层中前两个卷积层中的每个卷积层后均依次设置一个非线性激活层和一个最大池层,五个卷积层后级联一个数据降维层,之后级联两个完全连接层;以及
所述深度卷积神经网络的输出为一二进制矩阵,该二进制矩阵通过与原始训练集内的图像进行误差计算,获取损失值,并最终获得训练损失值最小的网络参数,通过该训练损失值最小的网络参数即可得到学习网络。
进一步的,所述“人体关节特征区域的识别学习模型训练”还包括:
针对所述准备好的整体图像训练集中的每个图像:
获取每个图像在所述学习网络所对应的边界样本图像;
根据所述边界样本图像与其所对应该图像的扰动偏差,构造一个相反的反扰动偏差,并将所述反扰动偏差对应叠加到该图像上获得与该图像对应的反边界样本图像;
使用所述准备好的整体图像训练集对应的所有所述反边界样本图像与所述准备好的整体图像训练集训练一个辅助网络;
若所述学习网络和所述辅助网络针对一个输入的输出相同,则结果可信;
若所述学习网络和所述辅助网络针对一个输入的输出不同,则结果可信。
进一步的,所述“关节坐标定位学习模型训练”包括:
将关节部位训练集与对应的关节坐标(x,y)一一对应,送入关节定位网络中进行训练,关节定位训练网络包括两个卷积层,其中每个卷积层之后设置一个最大池层,所述最大池层用于消除邻域大小受限造成的估计值方差增大;
级联一个局部激活层用于激活数据中的特征;
通过全连接生成一个2×1的矩阵,分别记录关节所在位置的X轴坐标和Y轴坐标;以及
通过二级级联将输出关节坐标预测结果与实际结果进行误差运算,并通过adam梯度下降缩小误差。
第二方面,本发明实施例提供了一种学习状态监测系统,包括:
获取模块,用于获取目标的面容数据,获取所述目标的人体关节轮廓模型;其中,所述人体关节轮廓模型包括所述目标的头部、颈部、双臂和躯干;
分析模块,用于根据预设规则获取所述目标实时的姿态状态数据。
进一步的,所述获取模块包括:
摄像模块,用于获取图像数据;
麦克风模块,用于获取语音信息;
无线传输模块,用于传输所述图像数据和所述语音信以及判断结果;
所述分析模块包括:
AI模块,用于根据预设规则获取所述目标实时的姿态状态数据,输出判断结果;
云服务器,存储所述图像数据、所述语音信息、以及对应的所述判断结果。
第三方面,本发明实施例提供了一种学习状态监测装置,包括桌腿组件、桌体和桌面以及固定设置在所述桌体上的置物架,所述桌体下端安装有至少两组桌腿组件;
所述桌面相对于桌体转动连接,且桌面与桌体之间设置有角度调节器与角度传感器;
所述桌体上还固定设置有摄像头和距离传感器以及音响。
综上所述,本发明的有益技术效果为:
1.通过获取目标,也就是学生的面容数据以及姿态状态数据,可以得知当前学生的学习状态;
2.通过将摄像头、传感器、扬声器、麦克风、wifi模组以及处理模块集成到功能集成部中,能够减小装置整体的体积,提升客户的使用体验,另外通过辅助网络辅助学习网络对获得的图像数据进行识别,可大大减少识别错误的概率。
附图说明
图1是本发明实施例中学习状态监测方法的流程图;
图2是本发明实施例中学习状态监测系统的数据流向图;
图3是本发明实施例中学习状态监测装置的结构示意图。
具体实施方式
以下结合附图对本发明作进一步详细说明。
如图1所示,一种学习状态监测方法,包括:
S1:获取目标的面容数据;
面容数据包括眨眼频率和眨眼时间以及面部特征;
S2:获取目标的人体关节轮廓模型;
人体关节轮廓模型包括目标的头部、颈部、双臂和躯干;
S3:根据预设规则获取目标实时的姿态状态数据,判断目标的学习状态。
学生在犯困的时候,眨眼的频率会变快,而且闭眼的速度会变慢,头部也会出现一定程度的下垂,因此可通过获取面容数据来确定目标的身份,并获得眨眼频率和眨眼时间,而且如果还监测到目标头部相较于平时更靠近桌面,或者更加头部下垂的频率变高,则可以判定目标处于犯困的学习状态。
其中,获取目标的人体关节轮廓模型包括:
将数据集按照训练和测试进行划分,并做预处理;
进行人体关节特征区域的识别学习模型训练,以识别人体关节部位图像区域的学习网络;
关节坐标定位学习模型训练;
检测图像尺寸预处理,将需要识别人体姿态的图像调整为网络输入要求大小;
通过该网络进行图像关节区域的识别,并划定相应矩形区域保存为子图像;
将子图像作为输入,送入关节坐标定位学习模型进行关节坐标获取;以及
按照人体骨骼模型连接获取的关节点构成人体姿态描述。
进一步的,步骤“将数据集按照训练和测试进行划分,并做预处理”中“将数据集按照训练和测试进行划分”包括:
将所有的数据集划分为训练集和测试集,训练集再划分为整体图像训练集和关节部位训练集两个部分,其中整体图像训练集选取原本的训练集,关节部位测试集为训练集中每张训练图片所对应的真实图像中关节坐标数据集。
进一步的,“人体关节特征区域的识别学习模型训练”包括:
将准备好的整体图像训练集作为输入,并将其输入至深度卷积神经网络中,该卷积神经网络包括依次设置的五个卷积层和两个完全连接层,五个卷积层中前两个卷积层中的每个卷积层后均依次设置一个非线性激活层和一个最大池层,五个卷积层后级联一个数据降维层,之后级联两个完全连接层;以及
深度卷积神经网络的输出为一二进制矩阵,该二进制矩阵通过与原始训练集内的图像进行误差计算,获取损失值,并最终获得训练损失值最小的网络参数,通过该训练损失值最小的网络参数即可得到学习网络。
进一步的,“人体关节特征区域的识别学习模型训练”还包括:
针对准备好的整体图像训练集中的每个图像:
获取每个图像在学习网络所对应的边界样本图像;
根据边界样本图像与其所对应该图像的扰动偏差,构造一个相反的反扰动偏差,并将反扰动偏差对应叠加到该图像上获得与该图像对应的反边界样本图像;
使用准备好的整体图像训练集对应的所有反边界样本图像与准备好的整体图像训练集训练一个辅助网络;
若学习网络和辅助网络针对一个输入的输出相同,则结果可信;
若学习网络和辅助网络针对一个输入的输出不同,则结果可信。
因为,如此获得的辅助网络的决策边界与学习网络的决策边界存在较大的差异,可以对存在噪声扰动数据有更准确的识别效果,如果接受到的图片数据为存在扰动的数据,则该数据如果能够同时欺骗学习网络和辅助网络,则需要同时该存在噪声的数据相较于原始数据需要同时跨越学习网络和辅助网络的决策边界,但是会存在较高的难度,所以可以变相的提升神经网络的判断结果。
进一步的,“关节坐标定位学习模型训练”包括:
将关节部位训练集与对应的关节坐标(x,y)一一对应,送入关节定位网络中进行训练,关节定位训练网络包括两个卷积层,其中每个卷积层之后设置一个最大池层,最大池层用于消除邻域大小受限造成的估计值方差增大;
级联一个局部激活层用于激活数据中的特征;
通过全连接生成一个2×1的矩阵,分别记录关节所在位置的X轴坐标和Y轴坐标;以及
通过二级级联将输出关节坐标预测结果与实际结果进行误差运算,并通过adam梯度下降缩小误差。
本发明实施例提供了一种学习状态监测系统,包括:
获取模块,用于获取目标的面容数据,获取目标的人体关节轮廓模型;其中,人体关节轮廓模型包括目标的头部、颈部、双臂和躯干;
分析模块,用于根据预设规则获取目标实时的姿态状态数据。
进一步的,获取模块包括:
摄像模块,用于获取图像数据;
麦克风模块,用于获取语音信息;
无线传输模块,用于传输图像数据和语音信以及判断结果;
分析模块包括:
AI模块,用于根据预设规则获取目标实时的姿态状态数据,输出判断结果;
云服务器,存储图像数据、语音信息、以及对应的判断结果。
如图2所示,可通过摄像头获取学生的面容数据,以视频流的形式传送到AI模块,经AI模块识别处理后通过WIFI网络向外发送;向外发送的数据包括非结构化的视频流以及结构化的数据,非结构化的视频流通过OSS支持系统发送到后方服务器,结构化的数据通过Mysql管理系统发送到后方服务器,再由后方服务器整合后推送到用户APP上,家长可通过用户APP实时查看学生的学习情况,并在检测到学生犯困时获得提醒。
第三方面,一种学习状态监测装置,本发明实施例提供了一种学习状态监测装置,如图3所示包括桌腿组件1、桌体3和桌面2以及固定设置在桌体上的置物架4,桌体3下端安装有至少两组桌腿组件1;
桌面2相对于桌体3转动连接,且桌面2与桌体3之间设置有角度调节器与角度传感器;
所述桌体3上还设置有功能集成部,所述功能集成部包括摄像头、传感器、扬声器、麦克风、wifi模组以及处理模块。其中,功能集成部可以通过活动连接的方式与桌体3固定,将录音、扬声、摄像、检测、网络连接等功能器件进行集成能够缩小体积,方便后续的维修更换且使用方便,能够提升装置的稳定性以及客户的使用体验。
Claims (9)
1.一种学习状态监测方法,其特征在于,包括:
S1:获取目标的面容数据;
所述面容数据包括眨眼频率和眨眼时间以及面部特征;
S2:获取所述目标的人体关节轮廓模型;
所述人体关节轮廓模型包括所述目标的头部、颈部、双臂和躯干;
S3:根据预设规则获取所述目标实时的姿态状态数据,判断所述目标的学习状态。
2.如权利要求1所述的学习状态监测方法,其特征在于,所述获取所述目标的人体关节轮廓模型包括:
将数据集按照训练和测试进行划分,并做预处理;
进行人体关节特征区域的识别学习模型训练,以识别人体关节部位图像区域的学习网络;
关节坐标定位学习模型训练;
检测图像尺寸预处理,将需要识别人体姿态的图像调整为网络输入要求大小;
通过该网络进行图像关节区域的识别,并划定相应矩形区域保存为子图像;
将所述子图像作为输入,送入关节坐标定位学习模型进行关节坐标获取;以及
按照人体骨骼模型连接获取的关节点构成人体姿态描述。
3.如权利要求2所述的学习状态监测方法,其特征在于,所述步骤“将数据集按照训练和测试进行划分,并做预处理”中“将数据集按照训练和测试进行划分”包括:
将所有的数据集划分为训练集和测试集,训练集再划分为整体图像训练集和关节部位训练集两个部分,其中整体图像训练集选取原本的训练集,关节部位测试集为训练集中每张训练图片所对应的真实图像中关节坐标数据集。
4.如权利要求3所述的基于表情分析技术的视频面试方法,其特征在于,所述“人体关节特征区域的识别学习模型训练”包括:
将准备好的整体图像训练集作为输入,并将其输入至深度卷积神经网络中,该卷积神经网络包括依次设置的五个卷积层和两个完全连接层,五个卷积层中前两个卷积层中的每个卷积层后均依次设置一个非线性激活层和一个最大池层,五个卷积层后级联一个数据降维层,之后级联两个完全连接层;以及
所述深度卷积神经网络的输出为一二进制矩阵,该二进制矩阵通过与原始训练集内的图像进行误差计算,获取损失值,并最终获得训练损失值最小的网络参数,通过该训练损失值最小的网络参数即可得到学习网络。
5.如权利要求4所述的基于表情分析技术的视频面试方法,其特征在于,所述“人体关节特征区域的识别学习模型训练”还包括:
针对所述准备好的整体图像训练集中的每个图像:
获取每个图像在所述学习网络所对应的边界样本图像;
根据所述边界样本图像与其所对应该图像的扰动偏差,构造一个相反的反扰动偏差,并将所述反扰动偏差对应叠加到该图像上获得与该图像对应的反边界样本图像;
使用所述准备好的整体图像训练集对应的所有所述反边界样本图像与所述准备好的整体图像训练集训练一个辅助网络;
若所述学习网络和所述辅助网络针对一个输入的输出相同,则结果可信;
若所述学习网络和所述辅助网络针对一个输入的输出不同,则结果可信。
6.如权利要求1所述的基于表情分析技术的视频面试方法,其特征在于,所述“关节坐标定位学习模型训练”包括:
将关节部位训练集与对应的关节坐标(x,y)一一对应,送入关节定位网络中进行训练,关节定位训练网络包括两个卷积层,其中每个卷积层之后设置一个最大池层,所述最大池层用于消除邻域大小受限造成的估计值方差增大;
级联一个局部激活层用于激活数据中的特征;
通过全连接生成一个2×1的矩阵,分别记录关节所在位置的X轴坐标和Y轴坐标;以及
通过二级级联将输出关节坐标预测结果与实际结果进行误差运算,并通过adam梯度下降缩小误差。
7.一种学习状态监测系统,其特征在于,包括:
获取模块,用于获取目标的面容数据,获取所述目标的人体关节轮廓模型;其中,所述人体关节轮廓模型包括所述目标的头部、颈部、双臂和躯干;
分析模块,用于根据预设规则获取所述目标实时的姿态状态数据。
8.如权利要求7所述的学习状态监测系统,其特征在于,所述获取模块包括:
摄像模块,用于获取图像数据;
麦克风模块,用于获取语音信息;
无线传输模块,用于传输所述图像数据和所述语音信息以及判断结果;
所述分析模块包括:
AI模块,用于根据预设规则获取所述目标实时的姿态状态数据,输出判断结果;
云服务器,存储所述图像数据、所述语音信息、以及对应的所述判断结果。
9.一种学习状态监测装置,其特征在于,包括桌腿组件(1)、桌体(3)和桌面(2)以及固定设置在所述桌体上的置物架(4),所述桌体(3)下端安装有至少两组桌腿组件(1);
所述桌面(2)相对于桌体(3)转动连接,且桌面(2)与桌体(3)之间设置有角度调节器与角度传感器;
所述桌体(3)上还设置有功能集成部,所述功能集成部包括摄像头、传感器、扬声器、麦克风、wifi模组以及处理模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011315947.3A CN112464776A (zh) | 2020-11-22 | 2020-11-22 | 一种学习状态监测方法、系统和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011315947.3A CN112464776A (zh) | 2020-11-22 | 2020-11-22 | 一种学习状态监测方法、系统和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112464776A true CN112464776A (zh) | 2021-03-09 |
Family
ID=74799959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011315947.3A Pending CN112464776A (zh) | 2020-11-22 | 2020-11-22 | 一种学习状态监测方法、系统和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112464776A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255572A (zh) * | 2021-06-17 | 2021-08-13 | 华中科技大学 | 一种课堂注意力评估方法及系统 |
CN113807988A (zh) * | 2021-09-17 | 2021-12-17 | 中国联合网络通信有限公司重庆市分公司 | 基于学生头颈移动特征图像识别的学习质量智慧评价系统 |
-
2020
- 2020-11-22 CN CN202011315947.3A patent/CN112464776A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255572A (zh) * | 2021-06-17 | 2021-08-13 | 华中科技大学 | 一种课堂注意力评估方法及系统 |
CN113807988A (zh) * | 2021-09-17 | 2021-12-17 | 中国联合网络通信有限公司重庆市分公司 | 基于学生头颈移动特征图像识别的学习质量智慧评价系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105516280B (zh) | 一种多模态学习过程状态信息压缩记录方法 | |
CN106599881A (zh) | 学生状态的确定方法、装置及系统 | |
CN112464776A (zh) | 一种学习状态监测方法、系统和装置 | |
CN111444789B (zh) | 一种基于视频感应技术的近视预防方法及其系统 | |
CN111695442A (zh) | 一种基于多模态融合的在线学习智能辅助系统 | |
JP6712027B1 (ja) | 学習支援システム | |
KR102330159B1 (ko) | 수업 행동 패턴 분석을 통한 온라인 수업 집중도 평가 시스템 및 그 평가 방법 | |
CN112307855A (zh) | 一种用户状态检测方法、装置、电子设备及存储介质 | |
CN114120357B (zh) | 一种基于神经网络的防近视方法和装置 | |
Lu et al. | A dual model approach to EOG-based human activity recognition | |
Chukoskie et al. | Quantifying gaze behavior during real-world interactions using automated object, face, and fixation detection | |
Meena et al. | Controlling mouse motions using eye tracking using computer vision | |
WO2023041940A1 (en) | Gaze-based behavioural monitoring system | |
JP2020173787A (ja) | 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム | |
Pai et al. | Eye gesture based communication for people with motor disabilities in developing nations | |
Stiefelhagen | Tracking and modeling focus of attention in meetings | |
CN115019570A (zh) | 一种智能教学系统 | |
JP2006260095A (ja) | 講義支援システム、講義支援方法及び講義支援用コンピュータプログラム。 | |
CN115690867A (zh) | 课堂专注度检测方法、装置、设备及存储介质 | |
Horvat et al. | Quantitative measures for classification of human upper body posture in video signal to improve online learning | |
CN114557544B (zh) | 一种具有多种功能的学习桌的使用方法 | |
WO2024062935A1 (ja) | 情報処理装置、システム、情報処理方法、およびプログラム | |
CN214067935U (zh) | 一种视觉坐姿识别矫正提醒装置 | |
KR102340715B1 (ko) | 스마트 IoT 연필꽂이 | |
CN117315536B (zh) | 一种在线学习专注度监测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |