CN115312192A - 一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法 - Google Patents
一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法 Download PDFInfo
- Publication number
- CN115312192A CN115312192A CN202210768652.4A CN202210768652A CN115312192A CN 115312192 A CN115312192 A CN 115312192A CN 202210768652 A CN202210768652 A CN 202210768652A CN 115312192 A CN115312192 A CN 115312192A
- Authority
- CN
- China
- Prior art keywords
- data
- school
- students
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明涉及一种基于卷积神经网络表情识别的校园心理健康评估‑反馈方法,预先录入学生的数据信息,并且与前端程序进行连接。收集学校各个路口,教室,宿舍门口的高清摄像头的实时的脸部数据,将脸部数据作为表情识别的分析数据,将数据输入至人脸表情识别卷积神经网络模型进行分析,通过本系统监测获取在校生的情绪变化数据,并通过获取的数据进行分析评估,可对全体在校生的情绪进行即时反馈,也可为学生工作、心理健康干预工作、学生活动、环境变化外界因素等提供反馈信息。
Description
技术领域
本发明涉及在校大学生心理健康状况监测评估技术领域,具体设计一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法。
背景技术
由于心理健康造成的人际关系破裂,抑郁等问题日益成为社会关注的焦点。人类表达生理和心理活动的首要工具是表情和情绪,而面部表情是最敏感的情绪发生器与显示器,情绪的调适明显影响心理健康,针对面部表情的识别,是监测学生心理状态的一种方式。
目前对于大学生的心理健康状态的评估主要通过问卷调查,调查有效时限较短,并且存在不诚实作答的情况。这种方法主要缺陷是不能长时间的获取评估大学生全体对象心理状态的即时数据。并且现在多数的心理健康干预工作主要集中在对个体的干预。有部分专利通过深度学习设计了对学生个体的心理健康状态的追踪、干预系统,但是如何快速、全面地评估大学生的心理健康亟待解决,针对全校大学生的心理健康的反馈也具有重要的作用。而卷积神经网络作为目前最火的研究热点之一。目前已经被广泛应用于计算机视觉、自然语言处理、语音识别、等多个领域,在计算机视觉领域和机器学习领域的应用也取得了巨大的成果。但是在心理健康方面的应用相关研究还较少,本发明旨在探索卷积神经网络在大学生的心理健康方面应用的创新。
发明内容
本发明的目的是利用卷积神经网络表情识别来评估在校生的情绪变化,以及积极情绪与消极情绪的比例,根据系统的反馈,从而制定更科学,更及时的干预全体在校生心理健康状态政策,从大环境中,来干预在校生的情绪状态。
本发明的目的可以通过以下技术方案来实现:
一种基于卷积神经网络表情识别的校园心理健康评估,所述方法包括以下步骤:
步骤(1):预先录入在校生的源数据(人数,专业,年级,班级),并将数据与前端程序进行连接。
步骤(2):在学校的关键路口、门口架设高清网络摄像头,摄像头的分辨率不低于3840*2160即4k高清摄像头,高度适中,即学生面向摄像头走来,网络摄像头的位置能够拍摄到每位学生的脸部。此外,摄像头的安装也要符合公共安全视频图像信息系统的国家和行业标准。
步骤(2):将高清网络摄像头所采集到的视频实时传输回电脑主机,传输方法采用摄像头自带的无线网络协议传输。电脑主机端采用rtsp协议,实时的获取高清网络摄像头的视频流,将流媒体数据安帧数保存为jpg图像。
对图像中的人脸采用ImageLabel开源软件进行标注,标注的内容为人的脸部位置框。图片文件保存为jpg格式,标注信息保存为xml格式,并且制作成voc-2007标准格式。
步骤(2):将制作好的VOC-2007格式的数据集放入目标检测卷积神经网络模型中进行训练。训练的方法为迁移学习,即使用其他人已经训练好的模型参数进再训练,这里使用的原始模型为YOLOv3(you only look once)。
训练过程中仅修改模型的输入层和输出层,使模型适合学习人脸的捕捉。初始训练参数为:训练周期200次,学习率为0.001,学习率衰减度为0.0003,优化器采用经典的梯度下降(SGD)优化器,训练集和测试集的比例为7:3,并且根据训练的结果实时调整训练的参数,到模型对人脸的捕捉召回率达到95%以上。保存模型及其参数为h5py文件,以备下一步使用。
采用我们训练好的模型,在上述步骤中取得的路口或者教室门口的视频数据,根据rtsp协议采集下来。按帧数提取图片,图片直接输入到我们训练好的目标检测模型中。模型会自动的提取图片也就是视频中每个人的脸部图片,并且进行保存。完成实时捕捉人脸的信息,图片信息按jpg格式储存起来。
同时本模型由于采用的YOLOv3作为迁移学习的原模型,故我们可以采用公开的表情数据集对模型进行再训练,使模型同时具有对表情进行分类的功能。公开数据集处理后,包含的表情识别共7种,包括,生气,厌恶,害怕,开心,悲伤,惊讶,无表情。训练过程和参数和目标检测的模型训练相同,并且也实时调整模型的训练参数。使我们的模型最终对表情的分类准确率达到95%以上,结束训练保存模型。
步骤(3):将以上步骤人脸的信息,同时输入我们训练好的具有脸部捕捉表情识别的模型进行表情分类。表情分类结果为其中表情所占的比重,所有比重加起来为100%。我们将表情的分类设置一个具体阈值,当分类结果的比重超过这个阈值,我们就认为该测试者具有此表情,这里注意本模型允许测试者具有多个表情。
表情分类识别共7种,包括,生气,厌恶,害怕,开心,悲伤,惊讶,无表情。图片和表情分类一一对应的储存到数据库MySQL中以备分析,同时统计我们采集表情的人数,记录采集的地点、班级等信息。
步骤(4):将卷积神经网络模型的分类结果进行分析评估,比较在校生的情绪变化,得出在校生的情绪变化比例。
步骤(5):将在校生的情绪数据储存到系统中,对所得的数据进行统计分析,得出校园中在校学生的情绪变化,当消极情绪比例增高时可通过网络传输反馈心理健康中心以及相关学生工作部门负责人员。
附图说明
图1是基于卷积神经网络表情识别的校园心理健康评估示意图
图2是基于卷积神经网络表情识别的校园心理健康反馈示意图
图3是基于卷积神经网络表情识别的校园心理健康评估-反馈示意图
实施例1 对大学一年级新生心理健康的评估
以下描述中,结合现实状况对本发明做进一步详细说明。
预先录入该班级的数据,包括人数,专业,年级等。并将数据与前端程序进行连接。本事实例中,预先录入数据是为了将通过系统分析形成的表情分类数据,可以实现实时监测要关注的班级学生人群。大学新生通常会有角色转换与适应的过程,心理学上将这一时期称之为“大学新生心理失衡期”。大学新生由于生活环境、学习方式和社会角色等方面的转变,必然要经历一个从不适应到适应的过程。能否顺利渡过适应期,对大学新生的成长和成才至关重要。若有些问题处理不当或认知错误,就会出现心理问题,甚至导致心理障碍或心理疾病而及时觉察和预防出问题是最佳的手段。
在学校中该班级经常上课的教室门口,前后位置均安装好高清网络摄像头,摄像头的分辨率不低于3840*2160即4k高清摄像头,高度适中,即学生面向摄像头走来,网络摄像头的位置能够拍摄到每位学生的脸部。此外,摄像头的安装也要符合公共安全视频图像信息系统的国家和行业标准。
将高清网络摄像头所采集到的视频实时传输回电脑主机,传输方法采用摄像头自带的无线网络协议传输。电脑主机端采用rtsp协议,实时的获取高清网络摄像头的视频流,将流媒体数据安帧数保存为jpg图像。这里需要注意,将视频文件转化为图片格式时,有行人图片和没有行人图片的比例要接近1:1,以达到正负样本平衡,有利于卷积神经网络的模型训练的收敛。使用ImageLable软件人工的对图片上行人的信息进行标注,标注过程中只标注包含行人轮廓的方框,标注信息为行人的标注框的左上角坐标和右下角坐标,并且保存为xml文件。并且制作成voc-2007标准格式,图片文件和标注信息文件xml同时保存同一文件夹下制作成可用于训练的数据集。
将制作好的VOC-2007格式的数据集放入目标检测卷积神经网络模型中进行训练。训练的方法为迁移学习,即使用其他人已经训练好的模型参数进再训练,这里使用的原始模型为YOLOv3(you only look once)。
训练过程中仅修改模型的输入层和输出层,使模型适合学习人脸的捕捉。初始训练参数为:训练周期200次,学习率为0.001,学习率衰减度为0.0003,优化器采用经典的梯度下降(SGD)优化器,训练集和测试集的比例为7:3,并且根据训练的结果实时调整训练的参数,到模型对人脸的捕捉召回率达到95%以上。保存模型及其参数为h5py文件,以备下一步使用。
采用我们训练好的模型,在上述步骤中取得的教室里摄像头采集的视频数据,根据rtsp协议采集下来。按照帧数提取图片,图片直接输入到我们训练好的目标检测模型中。模型会自动的提取图片也就是视频中每个人的脸部图片,并且进行保存。完成实时捕捉人脸的信息,图片信息按jpg格式储存起来。
同时本模型由于采用的YOLOv3作为迁移学习的原模型,故我们可以采用公开的表情数据集对模型进行再训练,使模型同时具有对表情进行分类的功能。公开数据集处理后,包含的表情识别分类共7种,包括,生气,厌恶,害怕,开心,悲伤,惊讶,无表情。
训练过程、参数和目标检测的模型训练相同,并且也实时调整模型的训练参数。使我们的模型最终对表情的分类准确率达到95%以上,结束训练保存模型。
将以上步骤人脸的信息,同时输入我们训练好的具有脸部捕捉表情识别的模型进行表情分类。表情分类结果为其中表情所占的比重,所有比重加起来为100%。我们将表情的分类设置成50%的具体阈值,当分类结果的比重超过50%的阈值,机器会就判定该测试者具有此表情,这里注意本模型允许测试者具有多个表情。包括,生气,厌恶,害怕,开心,悲伤,惊讶,无表情。图片和表情分类一一对应的储存到数据库MySQL中以备分析,同时统计我们采集表情的人数,记录采集的地点、班级等信息。
将卷积神经网络模型的分类结果进行分析评估,提取大学一年级学生的表情识别数据,至少一个月,形成表情识别的数据表,连续观察班级学生的情绪比例变化,得出该班级学生的情绪比例指数。相关人员,尤其是辅导员,心理辅导老师可根据获得数据来评估该班级学生的表情变化,来评估其心理健康。
步骤五:将班级学生的情绪数据储存到系统中,对每天所得的数据进行统计分析,得出班级学生的表情比例变化,当消极情绪比例增高时,达到40%以上可自动报警,可通过网络传输反馈给心理健康中心以及相关学生工作部门负责人员。该系统的反馈功能,可以及时提醒班级负责老师(班主任、辅导员或心理辅导老师),在这一段关键时期,学生的心理适应情况,从而做出适宜的干预政策。
实施例2 校园封闭期间在校生的心理健康的影响
以下描述中,结合现实状况对本发明做进一步详细说明。
一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法,所述系统包括一些步骤。
预先录入在校生的数据,包括人数,专业,年级,班级等。并将数据库MySQL与前端程序进行连接。本事实例中,预先录入数据是为了将通过系统分析形成的表情分类数据,可以实现实时监测要关注的在校生人群,监测在校学生在实行封校前后的情绪比例。
在学校的宿舍门口,教室,食堂,操场门口等主要行人位置架设高清网络摄像头,摄像头的分辨率不低于3840*2160即4k高清摄像头,高度适中,即学生面向摄像头走来,网络摄像头的位置能够拍摄到每位学生的脸部。此外,摄像头的安装也要符合公共安全视频图像信息系统的国家和行业标准。
将高清网络摄像头所采集到的视频实时传输回电脑主机,传输方法采用摄像头自带的无线网络协议传输。电脑主机端采用rtsp协议,实时的获取高清网络摄像头的视频流,将流媒体数据安帧数保存为jpg图像。这里需要注意,将视频文件转化为图片格式时,有行人图片和没有行人图片的比例要接近1:1,以达到正负样本平衡,有利于卷积神经网络的模型训练的收敛。使用ImageLable软件人工的对图片上行人的信息进行标注,标注过程中只标注包含行人轮廓的方框,标注信息为行人的标注框的左上角坐标和右下角坐标,并且保存为xml文件。并且制作成voc-2007标准格式,图片文件和标注信息文件xml同时保存同一文件夹下制作成可用于训练的数据集。
将制作好的VOC-2007格式的数据集放入目标检测卷积神经网络模型中进行训练。训练的方法为迁移学习,即使用其他人已经训练好的模型参数进再训练,这里使用的原始模型为YOLOv3(you only look once)。
训练过程中仅修改模型的输入层和输出层,使模型适合学习人脸的捕捉。初始训练参数为:训练周期200次,学习率为0.001,学习率衰减度为0.0003,优化器采用经典的梯度下降(SGD)优化器,训练集和测试集的比例为7:3,并且根据训练的结果实时调整训练的参数,到模型对人脸的捕捉召回率达到95%以上。保存模型及其参数为h5py文件,以备下一步使用。
采用我们训练好的模型,在上述步骤中取得的各个路口、门口的视频数据,根据rtsp协议采集下来。按帧数提取图片,图片直接输入到我们训练好的目标检测模型中。模型会自动的提取图片也就是视频中每个人的脸部图片,并且进行保存。完成实时捕捉人脸的信息,图片信息按jpg格式储存起来。
同时本模型由于采用的YOLOv3作为迁移学习的原模型,故我们可以采用公开的表情数据集对模型进行再训练,使模型同时具有对表情进行分类的功能。公开数据集处理后,包含的表情识别共7种,包括,生气,厌恶,害怕,开心,悲伤,惊讶,无表情。
训练过程、参数和目标检测的模型训练相同,并且也实时调整模型的训练参数。使我们的模型最终对表情的分类准确率达到95%以上,结束训练保存模型。将以上步骤人脸的信息,同时输入我们训练好的具有脸部捕捉表情识别的模型进行表情分类。表情分类结果为其中表情所占的比重,所有比重加起来为100%。我们将表情的分类设置成50%的具体阈值,当分类结果的比重超过50%的阈值,机器会就判定该测试者具有此表情,这里注意本模型允许测试者具有多个表情,包括生气,厌恶,害怕,开心,悲伤,惊讶,无表情。图片和表情分类一一对应的储存到数据库MySQL中以备分析,同时统计我们采集表情的人数,记录采集的地点、班级等信息。
将卷积神经网络模型的分类结果进行分析评估,提取封闭学校前后的表情识别数据,至少一个月,前后各15天,对形成的表情识别的数据表,对比在校生前后的情绪比例变化,得出在校生的情绪比例。相关人员可根据获得数据来评价在校生因封闭校园是否会影响其心理健康。
将在校生的情绪数据储存到系统中,对每天所得的数据进行统计分析,如一个教室等,得出校园中在校学生的表情比例变化,当消极情绪比例增高时,达到40%以上可自动报警,可通过网络传输反馈心理健康中心以及相关学生工作部门负责人员。该系统的反馈功能,可以及时提醒负责人,相对一段时间,或者因为学校发生重大事件时,对全体学生的情绪影响,从而做出适宜的政策。
Claims (6)
1.一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法,其特征在于:所述方法包括以下步骤:
步骤(1):预先录入在校生的源数据(人数,专业,年级,班级),并将数据库与前端程序进行连接
步骤(2):收集获取在校生的待检测数据,主要为学校各个路口,教室,宿舍门口的高清摄像头的实时的脸部数据。
步骤(3):将脸部数据作为表情识别的分析数据,将数据输入表情识别卷积神经网络模型进行分类分析。
步骤(4):将卷积神经网络模型的分类结果进行分析评估,比较在校生的情绪变化,对在校生的情绪进行分析,得出情绪分析结果
步骤(5):将在校生的情绪数据储存到系统中,对所得的数据进行统计分析,得出校园中在校学生的情绪变化,当消极情绪比例增高时,可通过网络传输反馈给学校心理健康中心以及相关学生工作部门负责人员。
2.根据权利要求1所述的一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法,其特征在于:
在步骤(1)中,预先录入在校生的源数据,包括人数,学生的基本信息,专业,年级,班级,班级心理委员,辅导员,学生工作负责人员。
3.根据权利要求1所属的一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法,其特征在于:
在步骤(2)中,主要为获取在校生的待检测数据,收集数据的地点涵盖学校的各个路口,教室门口,宿舍门口,食堂门口等地方的高清摄像头的实时脸部数据。
4.根据权利要求1所属的一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法,其特征在于:
在步骤(3)中,将在校生的脸部数据作为表情识别的分析数据,将数据输入表情识别卷积网络模型中进行分类分析。表情识别分类共7种,包括,生气,厌恶,害怕,开心,悲伤,惊讶,无表情。卷积神经网络模型直接得出每一个表情的占比,我们设定阈值判断该学生具体属于哪种表情。
5.根据权利要求1所属的一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法,其特征在于:
在步骤(4):将卷积神经网络模型的分类结果进行分析评估,根据阈值分割,判断学生属于哪种表情,该表情是否消极。比较一段时间内在校生的情绪变化,得出在校生的情绪评价指数。
6.根据权利要求1所属的一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法,其特征在于:
在步骤(5)中。
综上所述本发明包括以下模块,录入数据模块,数据采集模块,表情识别模块,心理评估模块,数据反馈模块。本发明首次将卷积神经网络人工智能技术与心理学情绪分类和学校的管理运行链接起来,为学校及师生服务。本发明的模块,流程,及方法,都属于本发明保护范围。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210768652.4A CN115312192A (zh) | 2022-07-01 | 2022-07-01 | 一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210768652.4A CN115312192A (zh) | 2022-07-01 | 2022-07-01 | 一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115312192A true CN115312192A (zh) | 2022-11-08 |
Family
ID=83854647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210768652.4A Pending CN115312192A (zh) | 2022-07-01 | 2022-07-01 | 一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115312192A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116884068A (zh) * | 2023-07-14 | 2023-10-13 | 广州云天数据技术有限公司 | 基于人工智能的运维和物联网管理方法、平台及存储介质 |
-
2022
- 2022-07-01 CN CN202210768652.4A patent/CN115312192A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116884068A (zh) * | 2023-07-14 | 2023-10-13 | 广州云天数据技术有限公司 | 基于人工智能的运维和物联网管理方法、平台及存储介质 |
CN116884068B (zh) * | 2023-07-14 | 2024-01-26 | 广州云天数据技术有限公司 | 基于人工智能的运维和物联网管理方法、平台及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991381B (zh) | 一种基于行为和语音智能识别的实时课堂学生状态分析与指示提醒系统和方法 | |
CN109657529A (zh) | 基于面部表情识别的课堂教学效果评价系统 | |
CN110349667B (zh) | 结合调查问卷及多模态范式行为数据分析的孤独症评估系统 | |
WO2019028592A1 (zh) | 一种教学辅助方法及采用该方法的教学辅助系统 | |
CN108399376A (zh) | 学生课堂学习兴趣智能分析方法及系统 | |
CN111027865B (zh) | 基于行为和表情识别的教学分析与质量评估系统及方法 | |
CN107316261A (zh) | 一种基于人脸分析的教学质量评估系统 | |
CN107480872A (zh) | 一种基于数据交换网络的在线教学考评系统及方法 | |
CN110287895B (zh) | 一种基于卷积神经网络进行情绪测量的方法 | |
CN104464406A (zh) | 一种实时互动的在线学习平台 | |
CN113069080A (zh) | 一种基于人工智能的困难气道评估方法及装置 | |
CN110363129A (zh) | 基于微笑范式和音视频行为分析的孤独症早期筛查系统 | |
Ramakrishnan et al. | Toward automated classroom observation: Predicting positive and negative climate | |
CN111523445B (zh) | 一种基于改进的Openpose模型和面部微表情的考试行为检测方法 | |
Li et al. | Research on leamer's emotion recognition for intelligent education system | |
CN115312192A (zh) | 一种基于卷积神经网络表情识别的校园心理健康评估-反馈方法 | |
CN112102129A (zh) | 一种基于学生端数据处理的智能考试作弊识别系统 | |
CN114242235A (zh) | 一种基于多层级关键特征行为的孤独症患者画像方法 | |
Ashwin et al. | Unobtrusive students' engagement analysis in computer science laboratory using deep learning techniques | |
CN110298301A (zh) | 一种组织人员心态预测方法 | |
CN115966003A (zh) | 一种基于情绪识别的学习者线上学习效率评估系统 | |
Ning et al. | Application of psychological analysis of micro-expression recognition in teaching evaluation | |
Fekry et al. | Automatic detection for students behaviors in a group presentation | |
Padhiyar et al. | Visual Distance Fraudulent Detection in Exam Hall using YOLO Detector | |
CN111444877B (zh) | 一种基于视频照片的教室人数识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |