CN112767782A - 一种用于实时检测教师情绪的智能教鞭系统 - Google Patents

一种用于实时检测教师情绪的智能教鞭系统 Download PDF

Info

Publication number
CN112767782A
CN112767782A CN202110069926.6A CN202110069926A CN112767782A CN 112767782 A CN112767782 A CN 112767782A CN 202110069926 A CN202110069926 A CN 202110069926A CN 112767782 A CN112767782 A CN 112767782A
Authority
CN
China
Prior art keywords
teacher
emotion
audio
processing module
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110069926.6A
Other languages
English (en)
Other versions
CN112767782B (zh
Inventor
马力
孙乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202110069926.6A priority Critical patent/CN112767782B/zh
Publication of CN112767782A publication Critical patent/CN112767782A/zh
Application granted granted Critical
Publication of CN112767782B publication Critical patent/CN112767782B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B17/00Teaching reading
    • G09B17/02Line indicators or other guides or masks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种用于实时检测教师情绪的智能教鞭系统,包括:包括传感器组、硬件处理系统和外围提示电路;传感器组用于采集教师的行为动态数据,包括分别与硬件处理系统连接的音频传感器、MEMS传感器和摄像头;硬件处理系统用于将接收的传感器组的数据信号分别通过音频提取处理算法、运动轨迹提取算法、表情识别算法处理,向外围提示电路输出提示指令;硬件处理系统包括音频处理模块、运动轨迹处理模块、表情识别处理模块和控制模块;外围提示电路用于在接收提示指令后发出震动和/或闪烁信号。本发明运用在教学工作中,可很好的实时检测教师情绪,在其情绪可能会对教学产生不好的影响时对其做出提醒。

Description

一种用于实时检测教师情绪的智能教鞭系统
技术领域
本发明涉及教学用品和人工智能技术领域,具体地指一种用于实时检测教师情绪的智能教鞭系统。
背景技术
在教育信息化的潮流中,有一些出现在教学一线的问题逐渐浮出水面。其中较为明显的问题之一就是教师关于多媒体教学设备的使用问题。一套多媒体教学系统难以避免的让教师的活动范围限制在了电脑的周围,这不仅不利于教师利用好多媒体设备,而且对课堂教学质量也产生了一些不好的影响。而另一个问题是教师们的教学质量与他们的情绪是有联系的。2019年华中师范大学的研究团队对教师的情绪对课堂教学效果的影响的研究表明,当教师的情绪表现为积极、稳定时,此时的课堂氛围好,能够实现较好的课堂教学效果;而当教师的情绪维持在消极、悲观时,此时课堂氛围紧张,课堂教学效果较差。
在当前市场上,投影仪幻灯片遥控笔的控制技术已十分成熟,但在对于使用者的动作情绪的获取与处理方面并无涉及,而适当的情绪提示对于教师上课质量的提升有着可观的影响。
发明内容
针对上述现有技术的不足之处,本发明提出一种用于实时检测教师情绪的智能教鞭系统,实时分析教师当前情绪状态,并在其情绪可能会对教学产生不好的影响时对其做出提醒,帮助一线教师们为学生们提供更好的教学质量。
为实现上述目的,本发明所设计的一种用于实时检测教师情绪的智能教鞭系统,其特殊之处在于,包括传感器组、硬件处理系统、外围提示电路、无线模块以及Linux服务器和云端存储;
所述传感器组用于采集教师的行为动态数据,包括分别与硬件处理系统连接的音频传感器、MEMS传感器和摄像头;
所述硬件处理系统用于将接收的传感器组的数据信号分别通过音频提取处理算法、运动轨迹提取算法、情绪识别算法处理,向外围提示电路输出提示指令;所述硬件处理系统包括音频处理模块、运动轨迹处理模块、情绪识别处理模块和控制模块;
所述外围提示电路用于在接收提示指令后发出震动或闪烁信号;
所述的无线模块用于智能教鞭与Linux服务器进行数据传输;
所述的Linux服务器用于协助处理图片信息,准确识别表情信息,存储以及上传数据至云端。
进一步地,所述音频处理模块用于将音频传感器传输的音频信号经过音频提取处理算法输出为音频状态,处理过程包括:
11)读取音频传感器传输信号并转换为电压值存入存储区;
12)对存储区的数据求算数平均同时对算结果做累加平均;
13)将处理后的电压值进行FFT变换;
14)通过声音信号的频率以及幅值大小来判断使用者的情绪:声音频率或幅值大于累加平均值的20%,判断为情绪异常并将频率超过的部分以及幅值超过的部分除以累加平均值得到归一化值后输出。
更进一步地,所述系统还包括用于处理图像数据的DSP模块。
更进一步地,所述运动轨迹处理模块用于将MEMS传感器传输的信号经过运动轨迹提取算法输出为运动状态,处理过程包括:
21)将MEMS传感器输出的三轴角速度数据通过姿态矩阵算出重力加速度;
22)将MEMS传感器输出的三轴加速度数据滤除重力加速度分量后,计算出x,y,z三轴方向上的瞬时速度;
23)根据速度求出MEMS传感器在x,y,z三轴方向的位移;
24)通过连线每个时刻的空间位置坐标点得到MEMS传感器在三维空间的运动轨迹;将实际运动轨迹与预存储的模拟轨迹进行拟合,若拟合度达到预设值则输出拟合值。
更进一步地,所述表情识别处理模块用于将摄像头传输的图像信号经过表情识别算法输出为情绪状态值,处理过程包括:
31)将接收图像信号制作图像金字塔为输入网络准备;
32)将图像金字塔输入P-Net网络,获取含人脸的候选窗口,并通过非极大值抑制算法合并高度重合的候选框,去除冗余框;
33)将P-Net网络输出得到的人脸图像输入R-Net网络对人脸检测框回归校准,通过NMS算法去除冗余框;
34)将R-Net网络输出得到的人脸图像输入O-Net网络,一方面对人脸检测框坐标进行进一步的细化,另一方面输出人脸五个关键点坐标。
35)将人脸五个关键点处图像特征值进行分类并计算与模型中情绪标签进行拟合,将拟合程度加和,获取归一化处理结果。
更进一步地,所述控制模块对音频处理模块、运动轨迹处理模块、表情识别处理模块的输出结果进行分析,输出情绪值O,当情绪值O 超出预设值时向外围提示电路发出控制指令。
更进一步地,所述情绪值O的计算方法为:
O=0.2*A+0.2*B+0.5*C
其中,A为音频处理模块输出的音频状态值,B为运动轨迹处理模块输出的运动状态值,C为表情识别处理模块输出的情绪状态值。
更进一步地,所述硬件处理系统通过控制器将摄像头采集的图像信号由CPU传输至DSP经过表情识别算法输出为情绪状态值。
更进一步地,所述步骤22)中瞬时速度的计算方法为:
Figure RE-GDA0002975918990000031
所述步骤23)中位移的计算方法为:
Figure RE-GDA0002975918990000032
式中,Δt为运动传感器的采样时间间隔,a为运动传感器输出的加速度值,n表示取样编号。
更进一步地,所述摄像头为全局快门摄像头,采用带通滤光片对超出光谱范围的光线进行抑制。
通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
1、本发明实时收集教师上课时的行为动态数据进而分析教师当前情绪状态,并在其情绪可能会对教学产生不好的影响时对其做出提醒。
2、本发明在人脸识别方面随着卷积神经网络结构的逐步优化,人脸识别的功耗逐渐降低其准确性获得提升。人脸识别技术功耗的下降使得其应用范围更宽广,其准确性的提升也极大地增强了技术的可用性。
3、本发明在动作采集方面通过卡尔曼滤波器对传感器输出进行滤波减小系统中随机噪声造成的误差,对动作采集算法的梯度下降过程进行简化以降低计算复杂度,使该方案可以在嵌入式平台上运行。
4、本发明具有实时、快速、识别度高、低功耗等特点,运用在教学工作中,能够帮助一线教师们为学生们提供更好的教学质量。
附图说明
图1为本发明的系统架构示意图。
图2为本发明的系统结构框图。
图3为本发明的信号流程框图。
图4为本发明的软件流程图。
图5为本发明中神经网络架构图以及特征图尺寸。
具体实施方式
以下结合附图和具体实施例对本发明作进一步的详细描述。
如图1和图2所示,本发明所提出的一种用于实时检测教师情绪的智能教鞭系统,包括传感器组、硬件处理系统、外围提示电路和Linux服务器。
传感器组用于采集教师的行为动态数据,包括分别与硬件处理系统连接的音频传感器、MEMS传感器和摄像头;摄像头为全局快门摄像头,采用带通滤光片对超出光谱范围的光线进行抑制。
硬件处理系统用于将接收的传感器组的数据信号分别通过音频提取处理算法、运动轨迹提取算法、表情识别算法处理,向外围提示电路输出提示指令;硬件处理系统包括音频处理模块、运动轨迹处理模块、表情识别处理模块和控制模块;
外围提示电路用于在接收提示指令后发出震动和闪烁信号。
摄像头模块安装在智能笔顶端,MEMS传感器置于智能笔的中下部,麦克风置于智能笔底部。信息的传输如图3所示,系统运行时分为两种情况:①智能笔静置时,MEMS传感器输出为0,系统进入省电模式,仅保持MEMS与STM32H7低功耗运行。②使用者拿起智能笔时,NEMS传感器输出不为零,触发系统中断,唤醒系统。此后, STM32H7激活麦克风与摄像头模块,并完成摄像头模块初始化。麦克风模块实时采集音频信号,STM32H7对音频信号进行解调,从音频的强度、频率进行量化评分。此外还会对语音进行部分识别,当识别为特殊词汇或量化评分超过阈值时,调用循环存储的MEMS输出数据,进行动作拟合量化评分(动作拟合算法如图3所示)。若评分为危险动作,STM32H7处理器激活广角摄像头采集图像信息,并通过Chrom ART AcceleratorTM由CPU传输至DSP进行人脸关键信息提取、表情识别(神经网络如图5所示),并返回情绪量化结果。最后经过STM32H7 多维度加权计算,输出使用者情绪状态,上传后端服务器,同时根据情绪状态据触发相应的灯光提示和马达震荡。
如图4所示,软件系统采用多级触发方式工作,即仅当前一级传感器数据达到阈值,才会触发主控芯片对后级传感器数据处理。这种触发模式在确保识别准确度较高的情况下,整体系统功耗较小。传感器系统由音频传感器、MEMS传感器和摄像头模块组合而成,并与STM32H7硬件处理平台连接。硬件处理平台实时采集音频传感器和 MEMS传感器输出数据,并将音频数据进行处理。当输出语音特征大多数符合‘过激’语音特征,会触发激活运动轨迹处理程序。调取最近30s内MEMS传感器发送并储存在内存中的数据,并进行动作拟合。当拟合结果特征符合‘过激’动作特征,触发摄像头模块进行图片采集,CPU获取图片信息,调度DSP协同进行图像处理。表情识别处理程序将传统识别方法与深度学习模型结合,通过卷积神经网络提取特征值并进行分类、识别。当检测到情绪失控时,会通过灯光和震动马达发出提示,同时也会通过Linux服务器上传到云端,在LCD显示器中显示报警信号。
音频处理程序用于将音频传感器传输的音频信号经过音频提取处理算法输出为音频状态。音频传感器将声音信号转换为离散的电信号,电信号的幅值反应了声音的大小,信号的频率反映了语速的快慢,而且不同的群体在不同情绪状态下的语音特征值是不完全重合的,所以通过检测单位时间语音特征值来反应教师的情绪。音频处理模块有 5步处理过程:信号采集、信号处理、信号储存、信号比较和输出结果。采集到的电信号通过低通滤波器滤除高频率成分的噪音,由硬件处理平台的AD转换为数字信号,获取声音大小特征值。硬件平台对数字信号进行快速傅里叶(FFT)变换,获取声音的频率特征值:
Figure RE-GDA0002975918990000061
(X1(n)为奇数序列,X2(n)为奇数序列)。
式中,k为转换后序列编号,n为序列编号,N为序列长度,W 为旋转因子。
处理过程包括:
11)通过主控芯片读取8位高速模数转换器输出的数字量a,并转换为电压值存入深度为64的存储区;
12)对存储区的数据求算数平均同时对算结果做累加平均;
13)将处理后的电压值进行FFT变换;
14)通过声音信号的频率以及幅值大小来判断使用者的情绪。在多次实验中发现,声音频率或幅值大于累加平均值的20%,即输出为大于1.2时,可判断为情绪异常并将频率超过的部分以及幅值超过的部分除以他们的累加平均值得到归一化值后输出。
运动轨迹处理程序用于将MEMS传感器传输的信号经过运动轨迹提取算法输出为运动状态,运动轨迹提取算法所需的历史数据,由硬件平台实时读取MEMS传感器输出数据,并以循环链表的数据类型储存,即保证了数据的时效性也节省了存储空间。处理过程包括:
21)将MEMS传感器输出的三轴角速度数据通过姿态矩阵算出重力加速度;
22)将MEMS传感器输出的三轴加速度数据滤除重力加速度分量后,计算出x,y,z三轴方向上的瞬时速度;瞬时速度的计算方法为:
Figure RE-GDA0002975918990000071
式中,Δt为运动传感器的采样时间间隔,a为运动传感器输出的加速度值,n表示取样编号。
23)根据速度求出MEMS传感器在x,y,z三轴方向的位移;位移的计算方法为:
Figure RE-GDA0002975918990000072
24)通过连线每个时刻的空间位置坐标点得到MEMS传感器在三维空间的运动轨迹;将实际运动轨迹与预存储的模拟轨迹进行拟合,若拟合度达到80%,则输出拟合值。
硬件处理系统通过控制器将摄像头采集的图像信号由CPU传输至DSP经过人脸识别算法获取准确人脸图片,并由后端服务器辅助计算,输出情绪状态值。表情识别处理模块基于后端服务器上的DSP硬件模块加速计算实现,用于将传输过来的人脸图像经过表情识别算法输出为情绪状态值。多任务级联卷积网络(MTCNN)的人脸识别算法由三个网络构成,由粗到细进行人脸检测和人脸关键点定位并由服务器输出拟合结果,处理过程包括:
31)将图片调整到不同比例,制作图像金字塔(将图片缩放为不同大小并依次排序),为输入网络准备;
32)将金字塔图像输入P-Net(Proposal Network),获取含人脸的候选窗口(Proposal boundding boxes),并通过非极大值抑制(NMS) 算法合并高度重合的候选框,去除冗余框;
33)将P-Net输出得到的人脸图像输入R-Net(Refinement Network),对人脸检测框回归校准,通过NMS算法去除冗余框,此时的到的人脸检测框更加精准且冗余框更少。
34)将R-Net输出得到的人脸图像输入O-Net(Output Network),一方面对人脸检测框坐标进行进一步的细化,另一方面输出人脸5个关键点(左眼、右眼、鼻子、左嘴角、右嘴角)坐标。
35)将关键点处图像特征值进行分类并计算与模型中‘怒’情绪的拟合程度,然后将多个拟合程度算术平均,获取归一化处理结果。若平均拟合程度大于76%,则判断为‘怒’的情绪。
如果最后判断为‘怒’的情绪,且会触发教鞭上的马达震动同时闪烁,并将人脸表情图像、情绪值以及声音信息上传至云端记录。
反馈模块对音频处理程序、运动轨迹处理程序、表情识别处理程序的输出结果进行分析,计算情绪值O,并定时上传情绪值O至服务器:
41)音频、图像、运动状态读取:实时读取声音量化结果A、运动轨迹拟合度程度B以及表情‘怒’的拟合程度C;
42)核间通信:通过Chrom-ART AcceleratorTM形式进行信息的传输;
43)加权输出结果:将量化结果加权,从多个维度联合判断使用者情绪。情绪值O的计算方法为:
O=0.2*A+0.2*B+0.5*C
其中,A为音频处理模块输出的音频状态值,B为运动轨迹处理模块输出的运动状态值,C为表情识别处理模块输出的情绪状态值。
如图5所示,神经卷积网络采用经典的网络,该模型的构建主要参考谷歌的GoingDeeper设计如下网络结构,输入层后加入(1,1)卷积层增加非线性表示且模型层次较浅,参数较少(大量参数集中在全连接层)。
硬件处理系统基于STM32H7硬件平台底层架构,包含DSP模块,加速表情识别算法处理,模块间通过Chrom-ART AcceleratorTM (DMA2D)控制器传输数据,具体任务处理规划如下:
51)任务分配:以CPU作为控制核心,以DSP为从核作为计算核心;
52)CPU到DSP通信:采用Chrom-ART AcceleratorTM控制器加速图片数据由摄像头模块输出到DSP的传输,大大减轻了CPU的负载。
硬件平台为STM32H7VIT6处理器,运行IDE为KEIL 5.0版本IDE。
本发明的情绪实时识别系统,能达到准确度高、速度快的目的;多维度传感器综合加权评分大大降低了识别的难度与准确度;摄像头为全局快门摄像头,采用带通滤光片对其他光谱范围的光线进行抑制,具有帧率高、结构简单等优势;安置于智能笔中下端的MEMS传感器贴近手心,可以很好的拟合手势动作;基于深度模型的人脸识别能,能够简化快速的给出人脸检测框,算法过程简洁、明了,有效提升算法计算速度;STM32H7硬件平台通过Chrom ART AcceleratorTM控制器快速传输数据至DSP,能并行加速图像处理流程,满足情绪实时识别系统的实时性和处理速度。
本领域的技术人员容易理解,以上仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种用于实时检测教师情绪的智能教鞭系统,其特征在于,包括传感器组、硬件处理系统和外围提示电路;
所述传感器组用于采集教师的行为动态数据,包括分别与硬件处理系统连接的音频传感器、MEMS传感器和摄像头;
所述硬件处理系统用于将接收的传感器组的数据信号分别通过音频提取处理算法、运动轨迹提取算法、表情识别算法处理,向外围提示电路输出提示指令;所述硬件处理系统包括音频处理模块、运动轨迹处理模块、表情识别处理模块和控制模块;
所述外围提示电路用于在接收提示指令后发出震动和/或闪烁信号。
2.根据权利要求1所述的一种用于实时检测教师情绪的智能教鞭系统,其特征在于:所述音频处理模块用于将音频传感器传输的音频信号经过音频提取处理算法输出为音频状态,处理过程包括:
11)读取音频传感器传输信号并转换为电压值存入存储区;
12)对存储区的数据求算数平均同时对算结果做累加平均;
13)将处理后的电压值进行FFT变换;
14)通过声音信号的频率以及幅值大小来判断使用者的情绪:声音频率或幅值大于累加平均值的20%,判断为情绪异常并将频率超过的部分以及幅值超过的部分除以累加平均值得到归一化值后输出。
3.根据权利要求1所述的一种用于实时检测教师情绪的智能教鞭系统,其特征在于:所述系统还包括用于处理图像数据的DSP模块。
4.根据权利要求3所述的一种用于实时检测教师情绪的智能教鞭系统,其特征在于:所述运动轨迹处理模块用于将MEMS传感器传输的信号经过运动轨迹提取算法输出为运动状态,处理过程包括:
21)将MEMS传感器输出的三轴角速度数据通过姿态矩阵算出重力加速度;
22)将MEMS传感器输出的三轴加速度数据滤除重力加速度分量后,计算出x,y,z三轴方向上的瞬时速度;
23)根据速度求出MEMS传感器在x,y,z三轴方向的位移;
24)通过连线每个时刻的空间位置坐标点得到MEMS传感器在三维空间的运动轨迹;将实际运动轨迹与预存储的模拟轨迹进行拟合,若拟合度达到预设值则输出拟合值。
5.根据权利要求1所述的一种用于实时检测教师情绪的智能教鞭系统,其特征在于:所述表情识别处理模块用于将摄像头传输的图像信号经过表情识别算法输出为情绪状态值,处理过程包括:
31)将接收图像信号制作图像金字塔为输入网络准备;
32)将图像金字塔输入P-Net网络,获取含人脸的候选窗口,并通过非极大值抑制算法合并高度重合的候选框,去除冗余框;
33)将P-Net网络输出得到的人脸图像输入R-Net网络对人脸检测框回归校准,通过NMS算法去除冗余框;
34)将R-Net网络输出得到的人脸图像输入O-Net网络,一方面对人脸检测框坐标进行进一步的细化,另一方面输出人脸五个关键点坐标。
35)将人脸五个关键点处图像特征值进行分类并计算与模型中情绪标签进行拟合,将拟合程度加和,获取归一化处理结果。
6.根据权利要求1所述的一种用于实时检测教师情绪的智能教鞭系统,其特征在于:所述控制模块对音频处理模块、运动轨迹处理模块、表情识别处理模块的输出结果进行分析,输出情绪值O,当情绪值O超出预设值时向外围提示电路发出控制指令。
7.根据权利要求6所述的一种用于实时检测教师情绪的智能教鞭系统,其特征在于:所述情绪值O的计算方法为:
O=0.2*A+0.2*B+0.5*C
其中,A为音频处理模块输出的音频状态值,B为运动轨迹处理模块输出的运动状态值,C为表情识别处理模块输出的情绪状态值。
8.根据权利要求3所述的一种用于实时检测教师情绪的智能教鞭系统,其特征在于:所述硬件处理系统通过控制器将摄像头采集的图像信号由CPU传输至DSP经过表情识别算法输出为情绪状态值。
9.根据权利要求4所述的一种用于实时检测教师情绪的智能教鞭系统,其特征在于:所述步骤22)中瞬时速度的计算方法为:
Figure FDA0002905642930000031
所述步骤23)中位移的计算方法为:
Figure FDA0002905642930000032
式中,Δt为音频传感器的采样时间间隔,a为运动传感器输出的加速度值,n表示取样编号。
10.根据权利要求4所述的一种用于实时检测教师情绪的智能教鞭系统,其特征在于:所述摄像头为全局快门摄像头,采用带通滤光片对超出光谱范围的光线进行抑制。
CN202110069926.6A 2021-01-19 2021-01-19 一种用于实时检测教师情绪的智能教鞭系统 Active CN112767782B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110069926.6A CN112767782B (zh) 2021-01-19 2021-01-19 一种用于实时检测教师情绪的智能教鞭系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110069926.6A CN112767782B (zh) 2021-01-19 2021-01-19 一种用于实时检测教师情绪的智能教鞭系统

Publications (2)

Publication Number Publication Date
CN112767782A true CN112767782A (zh) 2021-05-07
CN112767782B CN112767782B (zh) 2022-08-19

Family

ID=75703180

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110069926.6A Active CN112767782B (zh) 2021-01-19 2021-01-19 一种用于实时检测教师情绪的智能教鞭系统

Country Status (1)

Country Link
CN (1) CN112767782B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110301433A1 (en) * 2010-06-07 2011-12-08 Richard Scott Sadowsky Mental state analysis using web services
CN102667672A (zh) * 2009-07-07 2012-09-12 韩铮 一种加速度动作识别系统及其方法
CN105244023A (zh) * 2015-11-09 2016-01-13 上海语知义信息技术有限公司 课堂教学中教师情绪的提醒系统及方法
CN106919251A (zh) * 2017-01-09 2017-07-04 重庆邮电大学 一种基于多模态情感识别的虚拟学习环境自然交互方法
CN109697982A (zh) * 2019-02-01 2019-04-30 北京清帆科技有限公司 一种讲授场景中的说话人语音识别系统
CN109829409A (zh) * 2019-01-23 2019-05-31 深兰科技(上海)有限公司 驾驶员情绪状态检测方法及系统
CN110175534A (zh) * 2019-05-08 2019-08-27 长春师范大学 基于多任务级联卷积神经网络的授课辅助系统
CN110751862A (zh) * 2019-10-25 2020-02-04 汉王科技股份有限公司 一种手持式读取器及其数据处理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102667672A (zh) * 2009-07-07 2012-09-12 韩铮 一种加速度动作识别系统及其方法
US20110301433A1 (en) * 2010-06-07 2011-12-08 Richard Scott Sadowsky Mental state analysis using web services
CN105244023A (zh) * 2015-11-09 2016-01-13 上海语知义信息技术有限公司 课堂教学中教师情绪的提醒系统及方法
CN106919251A (zh) * 2017-01-09 2017-07-04 重庆邮电大学 一种基于多模态情感识别的虚拟学习环境自然交互方法
CN109829409A (zh) * 2019-01-23 2019-05-31 深兰科技(上海)有限公司 驾驶员情绪状态检测方法及系统
CN109697982A (zh) * 2019-02-01 2019-04-30 北京清帆科技有限公司 一种讲授场景中的说话人语音识别系统
CN110175534A (zh) * 2019-05-08 2019-08-27 长春师范大学 基于多任务级联卷积神经网络的授课辅助系统
CN110751862A (zh) * 2019-10-25 2020-02-04 汉王科技股份有限公司 一种手持式读取器及其数据处理方法

Also Published As

Publication number Publication date
CN112767782B (zh) 2022-08-19

Similar Documents

Publication Publication Date Title
CN107030691B (zh) 一种看护机器人的数据处理方法及装置
CN110288978B (zh) 一种语音识别模型训练方法及装置
EP3665676B1 (en) Speaking classification using audio-visual data
EP4009328A1 (en) Method, device and apparatus for predicting protein structure information, and storage medium
CN110164421B (zh) 语音解码方法、装置及存储介质
CN111950570B (zh) 目标图像提取方法、神经网络训练方法及装置
CN113450771B (zh) 唤醒方法、模型训练方法和装置
CN111589138B (zh) 动作预测方法、装置、设备及存储介质
CN111738403A (zh) 一种神经网络的优化方法及相关设备
CN113744286A (zh) 虚拟头发生成方法及装置、计算机可读介质和电子设备
Makarov et al. Russian sign language dactyl recognition
Tang et al. Real-time robot localization, vision, and speech recognition on Nvidia Jetson TX1
CN112767782B (zh) 一种用于实时检测教师情绪的智能教鞭系统
CN111052127A (zh) 疲劳检测的系统和方法
CN115578494B (zh) 中间帧的生成方法、装置、设备及存储介质
Polap Voice control in mixed reality
CN112200169B (zh) 用于训练模型的方法、装置、设备以及存储介质
CN115512270A (zh) 叶片数量检测方法、装置、电子设备及存储介质
CN114662606A (zh) 行为识别方法及装置、计算机可读介质和电子设备
CN114722911A (zh) 应用运行终端切换方法及装置、介质和电子设备
Luo Research on gesture recognition based on YOLOv5
CN117095258B (zh) 一种扩散模型训练方法、装置、电子设备及存储介质
CN117854156B (zh) 一种特征提取模型的训练方法和相关装置
Tu et al. Improvement of chinese sign language translation system based on multi-node micro inertial measurement unit
CN116805486A (zh) 一种语音转换模型的确定方法和相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant