CN109101933A - 一种基于人工智能的情绪行为可视化分析方法 - Google Patents
一种基于人工智能的情绪行为可视化分析方法 Download PDFInfo
- Publication number
- CN109101933A CN109101933A CN201810947643.5A CN201810947643A CN109101933A CN 109101933 A CN109101933 A CN 109101933A CN 201810947643 A CN201810947643 A CN 201810947643A CN 109101933 A CN109101933 A CN 109101933A
- Authority
- CN
- China
- Prior art keywords
- result
- data
- classroom
- mood
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Abstract
本发明实施例涉及人工智能技术领域,具体而言,涉及一种基于人工智能的情绪行为可视化分析方法。该方法应用于一与设置于教室内的拍摄设备通信连接的电子设备,该方法包括:获得拍摄设备实时采集的图像数据和语音数据并存储,获取教学模型,将教学模型输入卷积神经网络,采用卷积神经网络对图像数据和语音数据进行挖掘和分析,以获得师生情绪分析结果和师生行为分析结果并存储,根据师生情绪分析结果和师生行为分析结果生成可视化报告并存储,采用卷积神经网络对可视化报告进行数据解读以获得数据解读结果并存储,根据数据解读结果进行教学诊断和预警。采用该方法能够提高多模态情感分析技术的延展性,进而提高卷积神经网络的延展性。
Description
技术领域
本发明实施例涉及人工智能技术领域,具体而言,涉及一种基于人工智能的情绪行为可视化分析方法。
背景技术
多模态情感分析技术能够对文字情感、面部表情和语音情绪等元素进行分析,进而推断和预测人类在时间维度上的情绪行为变化。但是现有的大多数多模态情感分析技术的跨领域应用性不高,缺少行业应用的延展性。
发明内容
有鉴于此,本发明提供了一种基于人工智能的情绪行为可视化分析方法。
本发明实施例提供了一种基于人工智能的情绪行为可视化分析方法,应用于一电子设备,所述电子设备与设置于教室内的拍摄设备通信连接,所述方法包括:
获得所述拍摄设备实时采集的图像数据和语音数据并存储;
获取教学模型,将所述教学模型输入卷积神经网络,采用所述卷积神经网络对所述图像数据和所述语音数据进行挖掘和分析,以获得师生情绪分析结果和师生行为分析结果并存储;
根据所述师生情绪分析结果和所述师生行为分析结果生成可视化报告并存储;
采用所述卷积神经网络对所述可视化报告进行数据解读以获得数据解读结果并存储,根据所述数据解读结果进行教学诊断和预警。
可选地,所述方法还包括:
将所述数据解读结果输入所述卷积神经网络进行训练。
可选地,采用所述卷积神经网络对所述图像数据和所述语音数据进行挖掘和分析,以获得师生情绪分析结果和师生行为分析结果并存储的步骤,包括:
提取所述图像数据中的人脸图像,结合预设微表情特征数据库对所述人脸图像进行分析,获得所述人脸图像中的特征点;其中,所述人脸图像包括老师的人脸图像和学生的人脸图像;
根据所述人脸图像和所述特征点生成人面模型,并标定所述人面模型中的特征点;
根据所述人面模型中的特征点的位置变化,调用心理行为特征分析数据库和所述预设微表情特征数据库分析所述人面模型的情绪变化,获得师生情绪分析结果;
提取所述图像数据中的动作图像,结合所述动作图像和所述人面模型中的特征点的位置变化,调用预设行为数据库分析所述人面模型的行为变化,获得师生行为分析结果。
可选地,提取所述图像数据中的人脸图像,结合预设微表情特征数据库对所述人脸图像进行分析,获得所述人脸图像中的特征点的步骤,包括:
调用预设颜色分析数据库对所述图像数据进行评估,获得评估结果,根据所述评估结果对所述拍摄设备的拍摄角度和拍摄焦距进行调整,以获得最佳图像;
调用所述预设颜色分析数据库对所述最佳图像的颜色参数和颜色变化情况进行分析,获得所述最佳图像中的人脸位置信息;
调用预设像素统计数据库对所述人脸位置信息进行识别,提取出所述最佳图像中的人脸图像;
调用预设特征点分析数据库,结合所述预设微表情特征数据库对所述最佳图像中的人脸图像进行分析,获得最佳图像中的人脸图像中的特征点。
可选地,根据所述人脸图像和所述特征点生成人面模型,并标定所述人面模型中的特征点的步骤,包括:
结合所述预设特征点分析数据库、所述预设像素统计数据库和所述预设微表情特征数据库生成人面模型,并标定所述人面模型中的特征点。
可选地,根据所述师生情绪分析结果和所述师生行为分析结果生成可视化报告并存储的步骤,包括:
根据所述师生情绪分析结果和所述师生行为分析结果生成课堂考勤饼状图、课堂行为统计图、课堂情绪统计图和课堂参与度图;
将所述课堂考勤饼状图、所述课堂行为统计图、所述课堂情绪统计图和所述课堂参与度图存储至预设可视化报告数据库。
可选地,所述方法还包括:
获得调取所述课堂考勤饼状图、所述课堂行为统计图、所述课堂情绪统计图和所述课堂参与度图的调取指令;
根据所述调取指令将所述课堂考勤饼状图、所述课堂行为统计图、所述课堂情绪统计图和所述课堂参与度图进行发送。
可选地,采用所述卷积神经网络对所述可视化报告进行数据解读以获得数据解读结果并存储,根据所述数据解读结果进行教学诊断和预警的步骤,包括:
将所述课堂情绪统计图输入所述卷积神经网络,采用所述卷积神经网络对所述课堂情绪统计图进行解读,获得负面情绪占比;
判断所述负面情绪占比是否超过第一设定阈值,若超过所述第一设定阈值,向管理系统或管理平台发送预警信息。
可选地,所述方法还包括:
采用所述卷积神经网络分析所述负面情绪占比产生的原因,将所述原因发送至所述管理系统或所述管理平台。
可选地,所述方法还包括:
将所述课堂情绪统计图输入所述卷积神经网络,采用所述卷积神经网络对所述课堂情绪统计图进行解读,获得积极情绪占比;
判断所述积极情绪占比是否超过第二设定阈值,若超过所述第二设定阈值,判定本次课堂为有效课堂教学
本发明实施例还提供了一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的一种基于人工智能的情绪行为可视化分析方法。
本发明实施例还提供了一种计算机可读存储介质,所述可读存储介质包括计算机程序,所述计算机程序运行时控制所述可读存储介质所在电子设备执行上述的一种基于人工智能的情绪行为可视化分析方法。
本发明实施例提供的一种基于人工智能的情绪行为可视化分析方法,能够结合人工智能卷积神经网络,将多模态情感分析技术应用到教育行业,进而实现对师生情绪、行为的可视化分析和解读,采用卷积神经网络能够提高多模态情感分析技术的延展性,进而提高卷积神经网络的延展性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例所提供的一种电子设备10的方框示意图。
图2为本发明实施例所提供的一种基于人工智能的情绪行为可视化分析方法的流程图。
图3为一实施方式中图2所示的步骤S22包括的子步骤的示意图。
图4为本发明实施例所提供的一种基于人工智能的情绪行为可视化分析装置20的模块框图。
图标:10-电子设备;11-存储器;12-处理器;13-网络模块;20-一种基于人工智能的情绪行为可视化分析装置;21-原始数据获取模块;22-情绪行为分析结果获取模块;23-可视化报告生成模块;24-数据解读模块。
具体实施方式
发明人经调查发现,现有的大多数多模态情感分析技术跨领域应用性不高,缺少行业应用的延展性。例如,不能针对场景应用个体对比的伴随时数据进行采集和记录,且难以数据的可视化报告,更难以对数据进行解读。又例如,鲜有多模态情感分析技术应用于教育行业。
以上现有技术中的方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本发明实施例针对上述问题所提出的解决方案,都应该是发明人在本发明过程中对本发明做出的贡献。
基于上述研究,本发明实施例提供了一种基于人工智能的情绪行为可视化分析方法。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例只是本发明的一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
图1示出了本发明实施例所提供的一种电子设备10的方框示意图。本发明实施例中的电子设备10可以为具有数据存储、传输、处理功能的服务端,如图1所示,电子设备10包括:存储器11、处理器12、网络模块13和一种基于人工智能的情绪行为可视化分析装置20。
存储器11、处理器12和网络模块13之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件互相之间可以通过一条或多条通讯总线或信号线实现电性连接。存储器11中存储有一种基于人工智能的情绪行为可视化分析装置20,所述一种基于人工智能的情绪行为可视化分析装置20包括至少一个可以软件或固件(firmware)的形式储存于所述存储器11中的软件功能模块,所述处理器12通过运行存储在存储器11内的软件程序以及模块,例如本发明实施例中的一种基于人工智能的情绪行为可视化分析装置20,从而执行各种功能应用以及数据处理,即实现本发明实施例中的一种基于人工智能的情绪行为可视化分析方法。
其中,所述存储器11可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器11用于存储程序,所述处理器12在接收到执行指令后,执行所述程序。
所述处理器12可能是一种集成电路芯片,具有数据的处理能力。上述的处理器12可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等。可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
网络模块13用于通过网络建立电子设备10与其他通信终端设备之间的通信连接,实现网络信号及数据的收发操作。上述网络信号可包括无线信号或者有线信号。
可以理解,图1所示的结构仅为示意,电子设备10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
本发明实施例还提供一种计算机可读存储介质,所述可读存储介质包括计算机程序。所述计算机程序运行时控制所述可读存储介质所在电子设备10执行下面的一种基于人工智能的情绪行为可视化分析方法。
图2示出了本发明实施例所提供的一种基于人工智能的情绪行为可视化分析方法的流程图。所述方法有关的流程所定义的方法步骤应用于电子设备10,可以由所述处理器12实现,该电子设备10与设置于教室内的拍摄设备通信连接。下面将对图2所示的具体流程进行详细阐述:
步骤S21,获得拍摄设备实时拍摄的图像数据和语音数据并存储。
可以理解,电子设备能够获取拍摄设备拍摄到的图像数据和语音数据,这些数据可以视作原始数据,可以将这些数据存储在资源数据库。其中,电子设备可以视作一平台,资源数据库可以视作平台资源库。
可以理解,拍摄设备实时拍摄数据并存储,能够实现伴随式采集功能。
步骤S22,获取教学模型,将教学模型输入卷积神经网络,采用卷积神经网络对图像数据和语音数据进行挖掘和分析,以获得师生情绪分析结果和师生行为分析结果并存储。
可以理解,该步骤是本方案的核心,本方案通过预先搭建卷积神经网络,然后结合教学模型,能够对图像数据和语音数据进行充分挖掘和分析,进而获得师生情绪分析结果和师生行为分析结果,其中,获得师生情绪分析结果和师生行为分析结果的方式可以采用多模态情感分析技术,但是本方案结合了卷积神经网络,能够将多模态情感分析技术应用到教育行业,并在卷积神经网络中输入对应的教学模型,进而获得对应的课情分析结果(师生情绪分析结果和师生行为分析结果)。在本实施例中,教学模型包括但不限于弗兰德互动分析模型和S-T分析评价模型。
请结合参阅图3,本实施例中通过步骤S221、步骤S222、步骤S223和步骤S224列举了步骤S22的其中一种实现方式。
步骤S221,提取图像数据中的人脸图像,结合预设微表情特征数据库对人脸图像进行分析,获得人脸图像中的特征点。
可以理解,在本实施例中,人脸图像包括老师的人脸图像和多个学生的人脸图像,该方法可以对每个人的人脸图像进行提取,并进行存储,例如,根据人脸图像进行个人、班级等档案管理,或存储在校园服务器上。
具体地,可以调用预设颜色分析数据库对图像数据进行评估,获得评估结果,根据评估结果对拍摄设备的拍摄角度和拍摄焦距进行调整,以获得最佳图像,调用预设颜色分析数据库对最佳图像的颜色参数和颜色变化情况进行分析,获得最佳图像中的人脸位置信息,调用预设像素统计数据库对所述人脸位置信息进行识别,提取出最佳图像中的人脸图像,调用预设特征点分析数据库,结合预设微表情特征数据库对最佳图像中的人脸图像进行分析,获得最佳图像中的人脸图像中的特征点。
可以理解,上面所提到的各种数据库都可以由卷积神经网络生成,这样能够保证整个卷积神经网络的深度学习和监督学习功能。
步骤S222,根据人脸图像和特征点生成人面模型,并标定人面模型中的特征点。
在本实施例中,可以结合预设特征点分析数据库、预设像素统计数据库和预设微表情特征数据库生成人面模型,并标定人面模型中的特征点。
步骤S223,根据人面模型中的特征点的位置变化,调用心理行为特征分析数据库和预设微表情特征数据库分析人面模型的情绪变化,获得师生情绪分析结果。
步骤S224,提取图像数据中的动作图像,结合动作图像和人面模型中的特征点的位置变化,调用预设行为数据库分析人面模型的行为变化,获得师生行为分析结果。
可以理解,卷积神经网络结合教学模型以及多模态情感分析技术,能够实现对图像数据和语音数据的自主分析和标注。
步骤S23,根据师生情绪分析结果和师生行为分析结果生成可视化报告并存储。
可以理解,该步骤也是本方案区别于现有多模态情感分析技术的技术点,本方案依靠卷积神经网络能够生成可视化报告,可供教师、学生、家长以及相关教育行业从业人员观看,能够将师生情绪分析结果和师生行为分析结果可视化。
在本实施例中,可视化报告可以存储与卷积神经网络生成的可视化报告库中。可视化报告可以包括课堂考勤饼状图、课堂行为统计图、课堂情绪统计图和课堂参与度图。
步骤S24,采用卷积神经网络对可视化报告进行数据解读以获得数据解读结果并存储,根据数据解读结果进行教学诊断和预警。
例如,将课堂情绪统计图输入卷积神经网络,采用卷积神经网络对课堂情绪统计图进行解读,获得负面情绪占比,判断负面情绪占比是否超过第一设定阈值,若超过第一设定阈值,向管理系统或管理平台发送预警信息,进一步地,还可以采用卷积神经网络分析负面情绪占比产生的原因,将原因发送至管理系统或管理平台,为之后的教学研究分析提供指导。
又例如,将课堂情绪统计图输入卷积神经网络,采用卷积神经网络对课堂情绪统计图进行解读,获得积极情绪占比,判断积极情绪占比是否超过第二设定阈值,若超过第二设定阈值,判定本次课堂为有效课堂教学。
如此设置,能够实现卷积神经网络的可预测、可诊断和可决策辅助等功能。
可选地,还可以将数据解读结果输入卷积神经网络进行训练,进而使得卷积神经网络运算得出的结果相似度随训练不断提高。
可选地,该电子设备还可以获得调取课堂考勤饼状图、课堂行为统计图、课堂情绪统计图和课堂参与度图的调取指令,根据调取指令将课堂考勤饼状图、课堂行为统计图、课堂情绪统计图和课堂参与度图进行发送,如此设置,能够实现可视化报告的随存随取。
在本实施例中,课堂行为统计图包括教师行为(教授、板书、互动等行为分析)和学生行为(专注、走神、发呆等行为分析),可以单独图表展示,也可以师生对比展示,相应地,课堂情绪统计图包括教师情绪(高兴、愤怒、恐惧等情绪分析)和学生情绪(高兴、愤怒、恐惧等情绪分析),可以单独图表展示,也可以师生对比展示。
可以理解,本方案所提供卷积神经网络能够接收其他模型,并对其他数据进行挖掘和分析,进而实现分析的延展性,能够服务于其他场景及行业应用。
在上述基础上,如图4所示,本发明实施例提供了一种基于人工智能的情绪行为可视化分析装置20,所述一种基于人工智能的情绪行为可视化分析装置20包括:原始数据获取模块21、情绪行为分析结果获取模块22、可视化报告生成模块23和数据解读模块24。
原始数据获取模块21,用于获得所述拍摄设备实时采集的图像数据和语音数据并存储。
由于原始数据获取模块21和图2中步骤S21的实现原理类似,因此在此不作更多说明。
情绪行为分析结果获取模块22,用于获取教学模型,将所述教学模型输入卷积神经网络,采用所述卷积神经网络对所述图像数据和所述语音数据进行挖掘和分析,以获得师生情绪分析结果和师生行为分析结果并存储。
由于情绪行为分析结果获取模块22和图2中步骤S22的实现原理类似,因此在此不作更多说明。
可视化报告生成模块23,用于根据所述师生情绪分析结果和所述师生行为分析结果生成可视化报告并存储。
由于可视化报告生成模块23和图2中步骤S23的实现原理类似,因此在此不作更多说明。
数据解读模块24,用于采用所述卷积神经网络对所述可视化报告进行数据解读以获得数据解读结果并存储,根据所述数据解读结果进行教学诊断和预警。
由于数据解读模块24和图2中步骤S24的实现原理类似,因此在此不作更多说明。
综上,本发明实施例所提供的一种基于人工智能的情绪行为可视化分析方法,能够将教学模型、多模态情绪分析技术与预先搭建的卷积神经网络进行结合,能够实时伴随式采集标注图像数据和语音数据,形成可视化报告,并进行教学诊断和预警,并将各类数据、报告输入卷积神经网络相应的数据库进行存储,能够提高多模态情绪分析技术的应用延展性,也能够提高卷积神经网络的延展性,能够使卷积神经网络服务于其他场景及行业。
在本发明实施例所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置和方法实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备10,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于人工智能的情绪行为可视化分析方法,其特征在于,应用于一电子设备,所述电子设备与设置于教室内的拍摄设备通信连接,所述方法包括:
获得所述拍摄设备实时采集的图像数据和语音数据并存储;
获取教学模型,将所述教学模型输入卷积神经网络,采用所述卷积神经网络对所述图像数据和所述语音数据进行挖掘和分析,以获得师生情绪分析结果和师生行为分析结果并存储;
根据所述师生情绪分析结果和所述师生行为分析结果生成可视化报告并存储;
采用所述卷积神经网络对所述可视化报告进行数据解读以获得数据解读结果并存储,根据所述数据解读结果进行教学诊断和预警。
2.根据权利要求1所述的一种基于人工智能的情绪行为可视化分析方法,其特征在于,所述方法还包括:
将所述数据解读结果输入所述卷积神经网络进行训练。
3.根据权利要求1所述的一种基于人工智能的情绪行为可视化分析方法,其特征在于,采用所述卷积神经网络对所述图像数据和所述语音数据进行挖掘和分析,以获得师生情绪分析结果和师生行为分析结果并存储的步骤,包括:
提取所述图像数据中的人脸图像,结合预设微表情特征数据库对所述人脸图像进行分析,获得所述人脸图像中的特征点;其中,所述人脸图像包括老师的人脸图像和学生的人脸图像;
根据所述人脸图像和所述特征点生成人面模型,并标定所述人面模型中的特征点;
根据所述人面模型中的特征点的位置变化,调用心理行为特征分析数据库和所述预设微表情特征数据库分析所述人面模型的情绪变化,获得师生情绪分析结果;
提取所述图像数据中的动作图像,结合所述动作图像和所述人面模型中的特征点的位置变化,调用预设行为数据库分析所述人面模型的行为变化,获得师生行为分析结果。
4.根据权利要求3所述的一种基于人工智能的情绪行为可视化分析方法,其特征在于,提取所述图像数据中的人脸图像,结合预设微表情特征数据库对所述人脸图像进行分析,获得所述人脸图像中的特征点的步骤,包括:
调用预设颜色分析数据库对所述图像数据进行评估,获得评估结果,根据所述评估结果对所述拍摄设备的拍摄角度和拍摄焦距进行调整,以获得最佳图像;
调用所述预设颜色分析数据库对所述最佳图像的颜色参数和颜色变化情况进行分析,获得所述最佳图像中的人脸位置信息;
调用预设像素统计数据库对所述人脸位置信息进行识别,提取出所述最佳图像中的人脸图像;
调用预设特征点分析数据库,结合所述预设微表情特征数据库对所述最佳图像中的人脸图像进行分析,获得最佳图像中的人脸图像中的特征点。
5.根据权利要求4所述的一种基于人工智能的情绪行为可视化分析方法,其特征在于,根据所述人脸图像和所述特征点生成人面模型,并标定所述人面模型中的特征点的步骤,包括:
结合所述预设特征点分析数据库、所述预设像素统计数据库和所述预设微表情特征数据库生成人面模型,并标定所述人面模型中的特征点。
6.根据权利要求1所述的一种基于人工智能的情绪行为可视化分析方法,其特征在于,根据所述师生情绪分析结果和所述师生行为分析结果生成可视化报告并存储的步骤,包括:
根据所述师生情绪分析结果和所述师生行为分析结果生成课堂考勤饼状图、课堂行为统计图、课堂情绪统计图和课堂参与度图;
将所述课堂考勤饼状图、所述课堂行为统计图、所述课堂情绪统计图和所述课堂参与度图存储至预设可视化报告数据库。
7.根据权利要求6所述的一种基于人工智能的情绪行为可视化分析方法,其特征在于,所述方法还包括:
获得调取所述课堂考勤饼状图、所述课堂行为统计图、所述课堂情绪统计图和所述课堂参与度图的调取指令;
根据所述调取指令将所述课堂考勤饼状图、所述课堂行为统计图、所述课堂情绪统计图和所述课堂参与度图进行发送。
8.根据权利要求6所述的一种基于人工智能的情绪行为可视化分析方法,其特征在于,采用所述卷积神经网络对所述可视化报告进行数据解读以获得数据解读结果并存储,根据所述数据解读结果进行教学诊断和预警的步骤,包括:
将所述课堂情绪统计图输入所述卷积神经网络,采用所述卷积神经网络对所述课堂情绪统计图进行解读,获得负面情绪占比;
判断所述负面情绪占比是否超过第一设定阈值,若超过所述第一设定阈值,向管理系统或管理平台发送预警信息。
9.根据权利要求8所述的一种基于人工智能的情绪行为可视化分析方法,其特征在于,所述方法还包括:
采用所述卷积神经网络分析所述负面情绪占比产生的原因,将所述原因发送至所述管理系统或所述管理平台。
10.根据权利要求8所述的一种基于人工智能的情绪行为可视化分析方法,其特征在于,所述方法还包括:
将所述课堂情绪统计图输入所述卷积神经网络,采用所述卷积神经网络对所述课堂情绪统计图进行解读,获得积极情绪占比;
判断所述积极情绪占比是否超过第二设定阈值,若超过所述第二设定阈值,判定本次课堂为有效课堂教学。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810947643.5A CN109101933B (zh) | 2018-08-21 | 2018-08-21 | 一种基于人工智能的情绪行为可视化分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810947643.5A CN109101933B (zh) | 2018-08-21 | 2018-08-21 | 一种基于人工智能的情绪行为可视化分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109101933A true CN109101933A (zh) | 2018-12-28 |
CN109101933B CN109101933B (zh) | 2021-05-28 |
Family
ID=64850440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810947643.5A Active CN109101933B (zh) | 2018-08-21 | 2018-08-21 | 一种基于人工智能的情绪行为可视化分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109101933B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460752A (zh) * | 2019-01-10 | 2019-03-12 | 广东乐心医疗电子股份有限公司 | 一种情绪分析方法、装置、电子设备及存储介质 |
CN109697577A (zh) * | 2019-02-01 | 2019-04-30 | 北京清帆科技有限公司 | 一种基于语音的课堂质量评价方法 |
CN109712718A (zh) * | 2018-12-29 | 2019-05-03 | 深圳阿塔基科技有限公司 | 基于人工智能分析学生心理的方法、装置及存储介质 |
CN109801105A (zh) * | 2019-01-17 | 2019-05-24 | 深圳壹账通智能科技有限公司 | 基于人工智能的服务评分方法、装置、设备及存储介质 |
CN109875579A (zh) * | 2019-02-28 | 2019-06-14 | 京东方科技集团股份有限公司 | 情绪健康管理系统和情绪健康管理方法 |
CN111833861A (zh) * | 2019-04-19 | 2020-10-27 | 微软技术许可有限责任公司 | 基于人工智能的事件评估报告生成 |
CN112101823A (zh) * | 2020-11-03 | 2020-12-18 | 四川大汇大数据服务有限公司 | 多维度情绪识别管理方法、系统、处理器、终端及介质 |
CN112115779A (zh) * | 2020-08-11 | 2020-12-22 | 浙江师范大学 | 可解释性课堂学生情感分析方法、系统、装置及介质 |
CN112132009A (zh) * | 2020-09-22 | 2020-12-25 | 湖南惟楚有才教育科技有限公司 | 课堂行为分析方法、系统及电子设备 |
CN112270281A (zh) * | 2020-11-02 | 2021-01-26 | 深圳市商汤科技有限公司 | 用户心理分析系统、方法、装置及存储介质 |
CN113127622A (zh) * | 2021-04-29 | 2021-07-16 | 西北师范大学 | 一种从语音到图像的生成方法及系统 |
CN113657302A (zh) * | 2021-08-20 | 2021-11-16 | 重庆电子工程职业学院 | 基于表情识别的状态分析系统 |
CN114445046A (zh) * | 2022-01-27 | 2022-05-06 | 北京碧云数创科技有限公司 | 一种教育系统 |
US11494477B2 (en) | 2019-04-12 | 2022-11-08 | Coupang Corp. | Computerized systems and methods for determining authenticity using micro expressions |
CN115982473A (zh) * | 2023-03-21 | 2023-04-18 | 环球数科集团有限公司 | 一种基于aigc的舆情分析编排系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090310939A1 (en) * | 2008-06-12 | 2009-12-17 | Basson Sara H | Simulation method and system |
CN106846949A (zh) * | 2017-03-07 | 2017-06-13 | 佛山市金蓝领教育科技有限公司 | 一种远程情感教学系统 |
CN106878677A (zh) * | 2017-01-23 | 2017-06-20 | 西安电子科技大学 | 基于多传感器的学生课堂掌握程度评估系统和方法 |
CN107958433A (zh) * | 2017-12-11 | 2018-04-24 | 吉林大学 | 一种基于人工智能的在线教育人机交互方法与系统 |
CN108053700A (zh) * | 2018-01-02 | 2018-05-18 | 北京建筑大学 | 一种人工智能教学辅助系统 |
-
2018
- 2018-08-21 CN CN201810947643.5A patent/CN109101933B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090310939A1 (en) * | 2008-06-12 | 2009-12-17 | Basson Sara H | Simulation method and system |
CN106878677A (zh) * | 2017-01-23 | 2017-06-20 | 西安电子科技大学 | 基于多传感器的学生课堂掌握程度评估系统和方法 |
CN106846949A (zh) * | 2017-03-07 | 2017-06-13 | 佛山市金蓝领教育科技有限公司 | 一种远程情感教学系统 |
CN107958433A (zh) * | 2017-12-11 | 2018-04-24 | 吉林大学 | 一种基于人工智能的在线教育人机交互方法与系统 |
CN108053700A (zh) * | 2018-01-02 | 2018-05-18 | 北京建筑大学 | 一种人工智能教学辅助系统 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109712718A (zh) * | 2018-12-29 | 2019-05-03 | 深圳阿塔基科技有限公司 | 基于人工智能分析学生心理的方法、装置及存储介质 |
CN109460752A (zh) * | 2019-01-10 | 2019-03-12 | 广东乐心医疗电子股份有限公司 | 一种情绪分析方法、装置、电子设备及存储介质 |
CN109801105A (zh) * | 2019-01-17 | 2019-05-24 | 深圳壹账通智能科技有限公司 | 基于人工智能的服务评分方法、装置、设备及存储介质 |
CN109697577A (zh) * | 2019-02-01 | 2019-04-30 | 北京清帆科技有限公司 | 一种基于语音的课堂质量评价方法 |
CN109875579A (zh) * | 2019-02-28 | 2019-06-14 | 京东方科技集团股份有限公司 | 情绪健康管理系统和情绪健康管理方法 |
US11494477B2 (en) | 2019-04-12 | 2022-11-08 | Coupang Corp. | Computerized systems and methods for determining authenticity using micro expressions |
CN111833861A (zh) * | 2019-04-19 | 2020-10-27 | 微软技术许可有限责任公司 | 基于人工智能的事件评估报告生成 |
CN112115779B (zh) * | 2020-08-11 | 2022-05-13 | 浙江师范大学 | 可解释性课堂学生情感分析方法、系统、装置及介质 |
CN112115779A (zh) * | 2020-08-11 | 2020-12-22 | 浙江师范大学 | 可解释性课堂学生情感分析方法、系统、装置及介质 |
CN112132009A (zh) * | 2020-09-22 | 2020-12-25 | 湖南惟楚有才教育科技有限公司 | 课堂行为分析方法、系统及电子设备 |
CN112270281A (zh) * | 2020-11-02 | 2021-01-26 | 深圳市商汤科技有限公司 | 用户心理分析系统、方法、装置及存储介质 |
CN112101823B (zh) * | 2020-11-03 | 2021-03-02 | 四川大汇大数据服务有限公司 | 多维度情绪识别管理方法、系统、处理器、终端及介质 |
CN112101823A (zh) * | 2020-11-03 | 2020-12-18 | 四川大汇大数据服务有限公司 | 多维度情绪识别管理方法、系统、处理器、终端及介质 |
CN113127622A (zh) * | 2021-04-29 | 2021-07-16 | 西北师范大学 | 一种从语音到图像的生成方法及系统 |
CN113657302A (zh) * | 2021-08-20 | 2021-11-16 | 重庆电子工程职业学院 | 基于表情识别的状态分析系统 |
CN114445046A (zh) * | 2022-01-27 | 2022-05-06 | 北京碧云数创科技有限公司 | 一种教育系统 |
CN115982473A (zh) * | 2023-03-21 | 2023-04-18 | 环球数科集团有限公司 | 一种基于aigc的舆情分析编排系统 |
CN115982473B (zh) * | 2023-03-21 | 2023-06-23 | 环球数科集团有限公司 | 一种基于aigc的舆情分析编排系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109101933B (zh) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109101933A (zh) | 一种基于人工智能的情绪行为可视化分析方法 | |
Pabba et al. | An intelligent system for monitoring students' engagement in large classroom teaching through facial expression recognition | |
CN109214664B (zh) | 一种基于人工智能的情绪行为综合分析系统 | |
CN108898115B (zh) | 数据处理方法、存储介质和电子设备 | |
CN111046819A (zh) | 一种行为识别处理方法及装置 | |
CN113627779A (zh) | 一种基于大数据和ai技术的教学管理、质量评估系统 | |
CN112132009A (zh) | 课堂行为分析方法、系统及电子设备 | |
CN110516979A (zh) | 一种个性化学习评价方法及装置 | |
CN110111223A (zh) | 基于人工智能的自适应教育方法和系统 | |
CN111666829A (zh) | 多场景多主体身份行为情绪识别分析方法及智能监管系统 | |
CN107578015A (zh) | 一种基于深度学习的第一印象识别与回馈系统及方法 | |
Villegas-Ch et al. | Identification of emotions from facial gestures in a teaching environment with the use of machine learning techniques | |
CN109214966A (zh) | 学习效果获取方法、装置以及电子设备 | |
Ray et al. | Design and implementation of affective e-learning strategy based on facial emotion recognition | |
CN111583739A (zh) | 一种基于vr的多媒体教学系统 | |
Sarrafzadeh et al. | See me, teach me: Facial expression and gesture recognition for intelligent tutoring systems | |
CN112347889B (zh) | 一种变电站作业行为辨识方法及装置 | |
CN109063854A (zh) | 智能运维云平台系统及其控制方法 | |
CN112115779B (zh) | 可解释性课堂学生情感分析方法、系统、装置及介质 | |
CN114255426A (zh) | 一种基于视频识别和语音分离技术的学生专注度评估系统 | |
Lu et al. | Recognition of students’ abnormal behaviors in English learning and analysis of psychological stress based on deep learning | |
Ahmad et al. | Comparative studies of facial emotion detection in online learning | |
CN111597997A (zh) | 一种计算机控制教学设备 | |
Malhotra et al. | Student Invigilation Detection Using Deep Learning and Machine After Covid-19: A Review on Taxonomy and Future Challenges | |
Kang et al. | Data visualization approaches in eye tracking to support the learning of air traffic control operations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |