CN110728194A - 基于微表情和动作识别的智能培训方法、装置及存储介质 - Google Patents
基于微表情和动作识别的智能培训方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110728194A CN110728194A CN201910879187.XA CN201910879187A CN110728194A CN 110728194 A CN110728194 A CN 110728194A CN 201910879187 A CN201910879187 A CN 201910879187A CN 110728194 A CN110728194 A CN 110728194A
- Authority
- CN
- China
- Prior art keywords
- micro
- training
- expression
- learning state
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 129
- 238000000034 method Methods 0.000 title claims abstract description 75
- 230000009471 action Effects 0.000 title claims abstract description 57
- 230000008569 process Effects 0.000 claims abstract description 39
- 239000011159 matrix material Substances 0.000 claims description 72
- 239000013598 vector Substances 0.000 claims description 66
- 230000008921 facial expression Effects 0.000 claims description 54
- 230000004424 eye movement Effects 0.000 claims description 36
- 230000001815 facial effect Effects 0.000 claims description 30
- 238000013473 artificial intelligence Methods 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 19
- 238000000513 principal component analysis Methods 0.000 claims description 12
- 230000007935 neutral effect Effects 0.000 claims description 8
- 238000010224 classification analysis Methods 0.000 claims description 6
- 238000010219 correlation analysis Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 6
- 230000014509 gene expression Effects 0.000 abstract description 11
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 210000004709 eyebrow Anatomy 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Abstract
本发明涉及一种生物识别技术,揭露了一种基于微表情和动作识别的智能培训方法、装置及计算机可读存储介质,该方法包括:基于培训过程中学员的微表情和微动作建立微表情和微动作样本集;基于所述微表情和微动作样本集分析构建学习状态识别模型;基于人脸识别确定参加培训的每一学员的真实信息;采集所述参加培训的每一学员在培训过程中的照片和视频流,所述照片和视频流包括所述参加培训的每一学员在培训过程中的微表情和微动作;上传所述照片和视频流至所述学习状态识别模型;通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果;基于所述参加培训的每一学员的学习状态结果生成个人及整体培训班分析报告。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种基于微表情和微动作识别的基于微表情和动作识别的智能培训方法、装置及计算机可读存储介质。
背景技术
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
现有的培训教学体系大多依赖讲师和助教的人工管理,人工管理模式只能通过人工模式判断学员的学习状态,不够智能,不能很好的确定学员的学习兴趣方向,也不能实现对学员的千人千面个性化培训和教学,且暂无基于微表情微动作识别的AI助教机器人或者方法;因此,有必要提供一种基于微表情和微动作识别的基于微表情和动作识别的智能培训方法。
发明内容
本发明提供一种基于微表情和动作识别的智能培训方法、装置及计算机可读存储介质,其主要目的在于判断学员的学习状态,从而确定学员的学习兴趣方向,优化调整培训课程内容;协助学校、机构等在学员培训、授课等环节提高效率。
为实现上述目的,本发明提供一种基于微表情和动作识别的智能培训方法,所述基于微表情和动作识别的智能培训方法包括:
基于培训过程中学员的微表情和微动作建立微表情和微动作样本集;
基于所述微表情和微动作样本集分析构建学习状态识别模型;
基于人脸识别确定参加培训的每一学员的真实信息;
采集所述参加培训的每一学员在培训过程中的照片和视频流,所述照片和视频流包括所述参加培训的每一学员在培训过程中的微表情和微动作;
上传所述照片和视频流至所述学习状态识别模型;
通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果;
基于所述参加培训的每一学员的学习状态结果生成个人及整体培训班分析报告。
可选地,所述上传所述照片和视频流至所述学习状态识别模型的步骤包括:
从所述照片和视频流中提取融合面部表情及肢体动作的特征向量后输入到所述学习状态识别模型中。
可选地,所述从所述照片和视频流中提取融合面部表情及肢体动作的特征向量的步骤包括:
采用基于Gabor滤波的特征检测方法,从所述视频流中提取脸部三维纹理特征;
设定一个兴趣点初选阈值条件及一个兴趣点下限值,再采用非极大值抑制算法搜索所述视频流中的脸部三维纹理特征满足所述兴趣点初选阈值条件的局部极大值点,并从搜索出的局部极大值点中,将所有的脸部三维纹理特征大于兴趣点下限值的局部极大值点选为最终的时空兴趣点,选取各个时空兴趣点的脸部三维纹理特征构建一个面部表情时空特征矩阵;
采用三维正交平面局部二进制模式算子从视频中提取人体肢体动作三维纹理特征构建一个肢体动作时空特征矩阵;
对面部表情时空特征矩阵及肢体动作时空特征矩阵中的脸部三维纹理特征、人体肢体动作三维纹理特征,采用PCA算法进行降维,从而得到面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵;
采用基于典型相关分析的融合算法,对面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵实施融合,得到融合后的特征向量。
可选地,所述通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果的步骤包括:
利用分类器对提取的特征向量实施分类分析,将分好类别的特征向量与预先建立的信息数据库中的状态信息相比对,所述信息数据库存放有多组积极、中性和消极三种学习状态的标准的特征向量,将所述信息数据库中的状态信息与分好类别的特征向量相匹配,从而得到学习状态分析结果。
可选地,所述采集所述参加培训的每一学员在培训过程中的照片和视频流的步骤包括:
在满足人脸表情图像识别的光线范围内,获取不同时间下人脸的正面图像和眼动信息;
从所述正面图像中提取面部表情特征向量,从眼动信息中提取眼动特征向量。
本发明还提供一种电子装置,所述电子装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的人工智能培训程序,所述人工智能培训程序被所述处理器执行时实现如下步骤:
基于培训过程中学员的微表情和微动作建立微表情和微动作样本集;
基于所述微表情和微动作样本集分析构建学习状态识别模型;
基于人脸识别确定参加培训的每一学员的真实信息;
采集所述参加培训的每一学员在培训过程中的照片和视频流,所述照片和视频流包括所述参加培训的每一学员在培训过程中的微表情和微动作;
上传所述照片和视频流至所述学习状态识别模型;
通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果;
基于所述参加培训的每一学员的学习状态结果生成个人及整体培训班分析报告。
可选地,所述上传所述照片和视频流至所述学习状态识别模型的步骤包括:
从所述照片和视频流中提取融合面部表情及肢体动作的特征向量后输入到所述学习状态识别模型中。
可选地,所述从所述照片和视频流中提取融合面部表情及肢体动作的特征向量的步骤包括:
采用基于Gabor滤波的特征检测方法,从所述视频流中提取脸部三维纹理特征;
设定一个兴趣点初选阈值条件及一个兴趣点下限值,再采用非极大值抑制算法搜索所述视频流中的脸部三维纹理特征满足所述兴趣点初选阈值条件的局部极大值点,并从搜索出的局部极大值点中,将所有的脸部三维纹理特征大于兴趣点下限值的局部极大值点选为最终的时空兴趣点,选取各个时空兴趣点的脸部三维纹理特征构建一个面部表情时空特征矩阵;
采用三维正交平面局部二进制模式算子从视频中提取人体肢体动作三维纹理特征构建一个肢体动作时空特征矩阵;
对面部表情时空特征矩阵及肢体动作时空特征矩阵中的脸部三维纹理特征、人体肢体动作三维纹理特征,采用PCA算法进行降维,从而得到面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵;
采用基于典型相关分析的融合算法,对面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵实施融合,得到融合后的特征向量。
可选地,所述通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果的步骤包括:
利用分类器对提取的特征向量实施分类分析,将分好类别的特征向量与预先建立的信息数据库中的状态信息相比对,所述信息数据库存放有多组积极、中性和消极三种学习状态的标准的特征向量,将所述信息数据库中的状态信息与分好类别的特征向量相匹配,从而得到学习状态分析结果。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有人工智能培训程序,所述人工智能培训程序可被一个或者多个处理器执行,以实现上述的基于微表情和动作识别的智能培训方法的步骤。
本发明提供的基于微表情和动作识别的智能培训方法、装置及计算机可读存储介质基于微表情和微动作识别,通过学习状态识别模型可以对学员参训过程进行分析,判断学员的学习状态,确定学员的学习兴趣方向,从而优化调整培训课程内容;且协助学校、机构等在学员培训、授课等环节提高效率,提升培训效果及学员学习成绩。
附图说明
图1为本发明一实施例提供的基于微表情和动作识别的智能培训方法的流程示意图;
图2为本发明一实施例提供的电子装置的内部结构示意图;
图3为本发明一实施例提供的电子装置中基于人工智能培训程序的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于微表情和动作识别的智能培训方法。参照图1所示,为本发明一实施例提供的基于微表情和动作识别的智能培训方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现,本实施例中,所述装置为智能终端。
在本实施例中,所述基于微表情和动作识别的智能培训方法包括:
S101,基于培训过程中学员的微表情和微动作建立微表情和微动作样本集;
S102,基于所述微表情和微动作样本集分析构建学习状态识别模型;
S103,基于人脸识别确定参加培训的每一学员的真实信息;
S104,采集所述参加培训的每一学员在培训过程中的照片和视频流,所述照片和视频流包括所述参加培训的每一学员在培训过程中的微表情和微动作;
S105,上传所述照片和视频流至所述学习状态识别模型;
S106,通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果;
S107,基于所述参加培训的每一学员的学习状态结果生成个人及整体培训班分析报告。
所述上传所述照片和视频流至所述学习状态识别模型的步骤包括:
从所述照片和视频流中提取融合面部表情及肢体动作的特征向量后输入到所述学习状态识别模型中。
所述从所述照片和视频流中提取融合面部表情及肢体动作的特征向量的步骤包括:
采用基于Gabor滤波的特征检测方法,从所述视频流中提取脸部三维纹理特征;
设定一个兴趣点初选阈值条件及一个兴趣点下限值,再采用非极大值抑制算法搜索所述视频流中的脸部三维纹理特征满足所述兴趣点初选阈值条件的局部极大值点,并从搜索出的局部极大值点中,将所有的脸部三维纹理特征大于兴趣点下限值的局部极大值点选为最终的时空兴趣点,选取各个时空兴趣点的脸部三维纹理特征构建一个面部表情时空特征矩阵;
采用三维正交平面局部二进制模式算子从视频中提取人体肢体动作三维纹理特征构建一个肢体动作时空特征矩阵;
对面部表情时空特征矩阵及肢体动作时空特征矩阵中的脸部三维纹理特征、人体肢体动作三维纹理特征,采用PCA算法进行降维,从而得到面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵;
采用基于典型相关分析的融合算法,对面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵实施融合,得到融合后的特征向量。
所述通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果的步骤包括:
利用分类器对提取的特征向量实施分类分析,将分好类别的特征向量与预先建立的信息数据库中的状态信息相比对,所述信息数据库存放有多组积极、中性和消极三种学习状态的标准的特征向量,将所述信息数据库中的状态信息与分好类别的特征向量相匹配,从而得到学习状态分析结果。
所述采集所述参加培训的每一学员在培训过程中的照片和视频流的步骤包括:
在满足人脸表情图像识别的光线范围内,获取不同时间下人脸的正面图像和眼动信息;
从所述正面图像中提取面部表情特征向量,从眼动信息中提取眼动特征向量。
其中,从所述正面图像中提取面部表情特征向量的具体步骤为:读取面部表情图像,以头顶为基准点估计面部特征的大概位置,在面部的各特征部位轮廓上均匀的设置标记点;通过眉心、两瞳孔连线的中点和口中央三点拟合出的中轴线将人脸分为左右对称的两部分,在不缩放、不平移、不旋转的条件下,调整图像,将相对于中轴线对称的标记点调整到同一水平线,并建立面部表情形状模型;在面部表情形状模型中按照左眼/左眉毛,右眼/右眉毛和嘴划分为不同区域,并且将这些区域定义为特征候选区域;针对每一个特征候选区域,采用差分图像法提取特征向量;通过将上一步处理后图像中的所有图像序列与数据库中的中性表情的图像进行差分运算,从各特征候选区域内差分值均值最大的图像序列中提取面部表情特征向量。
从眼动信息中提取眼动特征向量的具体步骤为:将采集的眼动信息按照眼动轨迹、眼动时间、眼动方向、眼动距离、注视时间、注视次数、瞳孔直径的大小和眨眼次数分类,得到八类眼动特征向量;将眼动信息按照眼动轨迹绘制成眼球轨迹图,并存储眼球轨迹图;根据整理分类得到的注视时间和注视次数,通过GazeLab得到眼动热点图,并存储眼动热点图。
所述微表情为采集到的学员的面部微表情,所述微动作为采集到的学员的身体的微小动作。
其中,所述采集到的学员的面部微表情,用于反馈一段时间学员的微表情的变化细节,所述采集到的学员的身体的微小动作,用于反馈一段时间学员身体的动作的变化细节。
本实施例提出的基于微表情和动作识别的智能培训方法基于微表情和微动作识别,通过学习状态识别模型可以对学员参训过程进行分析,判断学员的学习状态,确定学员的学习兴趣方向,从而优化调整培训课程内容;且协助学校、机构等在学员培训、授课等环节提高效率,提升培训效果及学员学习成绩。
本发明还提供一种电子装置1。参照图2所示,为本发明一实施例提供的电子装置的内部结构示意图。
在本实施例中,电子装置1可以是电脑、智能终端或服务器。所述电子装置1至少包括存储器11、处理器13,通信总线15,以及网络接口17。在本实施例中,所述电子装置1为智能终端。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是电子装置的内部存储单元,例如所述电子装置的硬盘。存储器11在另一些实施例中也可以是电子装置的外部存储设备,例如电子装置上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。进一步地,存储器11还可以既包括电子装置的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于电子装置1的应用软件及各类数据,例如人工智能培训程序111的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器13在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据。
通信总线15用于实现这些组件之间的连接通信。
网络接口17可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在电子装置1与其他电子设备之间建立通信连接。
可选地,电子装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子装置中处理的信息以及用于显示可视化的用户界面。
图2仅示出了具有组件11~17的电子装置1,本领域技术人员可以理解的是,图2示出的结构并不构成对电子装置的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图2所示的电子装置1的实施例中,存储器11中存储有人工智能培训程序111;处理器13执行存储器11中存储的人工智能培训程序111时实现如下步骤:
基于培训过程中学员的微表情和微动作建立微表情和微动作样本集;
基于所述微表情和微动作样本集分析构建学习状态识别模型;
基于人脸识别确定参加培训的每一学员的真实信息;
采集所述参加培训的每一学员在培训过程中的照片和视频流,所述照片和视频流包括所述参加培训的每一学员在培训过程中的微表情和微动作;
上传所述照片和视频流至所述学习状态识别模型;
通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果;
基于所述参加培训的每一学员的学习状态结果生成个人及整体培训班分析报告。
所述上传所述照片和视频流至所述学习状态识别模型的步骤包括:
从所述照片和视频流中提取融合面部表情及肢体动作的特征向量后输入到所述学习状态识别模型中。
所述从所述照片和视频流中提取融合面部表情及肢体动作的特征向量的步骤包括:
采用基于Gabor滤波的特征检测方法,从所述视频流中提取脸部三维纹理特征;
设定一个兴趣点初选阈值条件及一个兴趣点下限值,再采用非极大值抑制算法搜索所述视频流中的脸部三维纹理特征满足所述兴趣点初选阈值条件的局部极大值点,并从搜索出的局部极大值点中,将所有的脸部三维纹理特征大于兴趣点下限值的局部极大值点选为最终的时空兴趣点,选取各个时空兴趣点的脸部三维纹理特征构建一个面部表情时空特征矩阵;
采用三维正交平面局部二进制模式算子从视频中提取人体肢体动作三维纹理特征构建一个肢体动作时空特征矩阵;
对面部表情时空特征矩阵及肢体动作时空特征矩阵中的脸部三维纹理特征、人体肢体动作三维纹理特征,采用PCA算法进行降维,从而得到面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵;
采用基于典型相关分析的融合算法,对面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵实施融合,得到融合后的特征向量。
所述通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果的步骤包括:
利用分类器对提取的特征向量实施分类分析,将分好类别的特征向量与预先建立的信息数据库中的状态信息相比对,所述信息数据库存放有多组积极、中性和消极三种学习状态的标准的特征向量,将所述信息数据库中的状态信息与分好类别的特征向量相匹配,从而得到学习状态分析结果。
所述采集所述参加培训的每一学员在培训过程中的照片和视频流的步骤包括:
在满足人脸表情图像识别的光线范围内,获取不同时间下人脸的正面图像和眼动信息;
从所述正面图像中提取面部表情特征向量,从眼动信息中提取眼动特征向量。
其中,从所述正面图像中提取面部表情特征向量的具体步骤为:读取面部表情图像,以头顶为基准点估计面部特征的大概位置,在面部的各特征部位轮廓上均匀的设置标记点;通过眉心、两瞳孔连线的中点和口中央三点拟合出的中轴线将人脸分为左右对称的两部分,在不缩放、不平移、不旋转的条件下,调整图像,将相对于中轴线对称的标记点调整到同一水平线,并建立面部表情形状模型;在面部表情形状模型中按照左眼/左眉毛,右眼/右眉毛和嘴划分为不同区域,并且将这些区域定义为特征候选区域;针对每一个特征候选区域,采用差分图像法提取特征向量;通过将上一步处理后图像中的所有图像序列与数据库中的中性表情的图像进行差分运算,从各特征候选区域内差分值均值最大的图像序列中提取面部表情特征向量。
从眼动信息中提取眼动特征向量的具体步骤为:将采集的眼动信息按照眼动轨迹、眼动时间、眼动方向、眼动距离、注视时间、注视次数、瞳孔直径的大小和眨眼次数分类,得到八类眼动特征向量;将眼动信息按照眼动轨迹绘制成眼球轨迹图,并存储眼球轨迹图;根据整理分类得到的注视时间和注视次数,通过GazeLab得到眼动热点图,并存储眼动热点图。
所述微表情为采集到的学员的面部微表情,所述微动作为采集到的学员的身体的微小动作。
其中,所述采集到的学员的面部微表情,用于反馈一段时间学员的微表情的变化细节,所述采集到的学员的身体的微小动作,用于反馈一段时间学员身体的动作的变化细节。
本实施例提出的电子装置基于微表情和微动作识别,通过学习状态识别模型可以对学员参训过程进行分析,判断学员的学习状态,确定学员的学习兴趣方向,从而优化调整培训课程内容;且协助学校、机构等在学员培训、授课等环节提高效率,提升培训效果及学员学习成绩。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有人工智能培训程序111,所述人工智能培训程序111可被一个或多个处理器执行,以实现如下操作:
基于培训过程中学员的微表情和微动作建立微表情和微动作样本集;
基于所述微表情和微动作样本集分析构建学习状态识别模型;
基于人脸识别确定参加培训的每一学员的真实信息;
采集所述参加培训的每一学员在培训过程中的照片和视频流,所述照片和视频流包括所述参加培训的每一学员在培训过程中的微表情和微动作;
上传所述照片和视频流至所述学习状态识别模型;
通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果;
基于所述参加培训的每一学员的学习状态结果生成个人及整体培训班分析报告。
本发明计算机可读存储介质具体实施方式与上述电子装置和方法各实施例基本相同,在此不作累述。
可选地,在其他实施例中,所述人工智能培训程序111还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器13)所执行以完成本发明,本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段,用于描述人工智能培训程序在电子装置中的执行过程。
例如,参照图3所示,为本发明电子装置一实施例中的人工智能培训程序111的程序模块示意图,该实施例中,人工智能培训程序111可以被分割为建立模块10、分析模块20、确定模块30、采集模块40、上传模块50、获取模块60、生成模块70,示例性地:
所述建立模块10,用于基于培训过程中学员的微表情和微动作建立微表情和微动作样本集;
所述分析模块20,用于基于所述微表情和微动作样本集分析构建学习状态识别模型;
所述确定模块30,用于基于人脸识别确定参加培训的每一学员的真实信息;
所述采集模块40,用于采集所述参加培训的每一学员在培训过程中的照片和视频流,所述照片和视频流包括所述参加培训的每一学员在培训过程中的微表情和微动作;
所述上传模块50,用于上传所述照片和视频流至所述学习状态识别模型;
所述获取模块60,用于通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果;
所述生成模块70,用于基于所述参加培训的每一学员的学习状态结果生成个人及整体培训班分析报告。
所述建立模块10、分析模块20、确定模块30、采集模块40、上传模块50、获取模块60、生成模块70等程序模块被执行时所实现的功能或操作步骤与上述实施例大体相同,在此不再赘述。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种基于微表情和动作识别的智能培训方法,应用于电子装置中,其特征在于:所述基于微表情和动作识别的智能培训方法包括:
基于培训过程中学员的微表情和微动作建立微表情和微动作样本集;
基于所述微表情和微动作样本集分析构建学习状态识别模型;
基于人脸识别确定参加培训的每一学员的真实信息;
采集所述参加培训的每一学员在培训过程中的照片和视频流,所述照片和视频流包括所述参加培训的每一学员在培训过程中的微表情和微动作;
上传所述照片和视频流至所述学习状态识别模型;
通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果;
基于所述参加培训的每一学员的学习状态结果生成个人及整体培训班分析报告。
2.如权利要求1所述的基于微表情和动作识别的智能培训方法,其特征在于,所述上传所述照片和视频流至所述学习状态识别模型的步骤包括:
从所述照片和视频流中提取融合面部表情及肢体动作的特征向量后输入到所述学习状态识别模型中。
3.如权利要求2所述的基于微表情和动作识别的智能培训方法,其特征在于,所述从所述照片和视频流中提取融合面部表情及肢体动作的特征向量的步骤包括:
采用基于Gabor滤波的特征检测方法,从所述视频流中提取脸部三维纹理特征;
设定一个兴趣点初选阈值条件及一个兴趣点下限值,再采用非极大值抑制算法搜索所述视频流中的脸部三维纹理特征满足所述兴趣点初选阈值条件的局部极大值点,并从搜索出的局部极大值点中,将所有的脸部三维纹理特征大于兴趣点下限值的局部极大值点选为最终的时空兴趣点,选取各个时空兴趣点的脸部三维纹理特征构建一个面部表情时空特征矩阵;
采用三维正交平面局部二进制模式算子从视频中提取人体肢体动作三维纹理特征构建一个肢体动作时空特征矩阵;
对面部表情时空特征矩阵及肢体动作时空特征矩阵中的脸部三维纹理特征、人体肢体动作三维纹理特征,采用PCA算法进行降维,从而得到面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵;
采用基于典型相关分析的融合算法,对面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵实施融合,得到融合后的特征向量。
4.如权利要求3所述的基于微表情和动作识别的智能培训方法,其特征在于,所述通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果的步骤包括:
利用分类器对提取的特征向量实施分类分析,将分好类别的特征向量与预先建立的信息数据库中的状态信息相比对,所述信息数据库存放有多组积极、中性和消极三种学习状态的标准的特征向量,将所述信息数据库中的状态信息与分好类别的特征向量相匹配,从而得到学习状态分析结果。
5.如权利要求1所述的基于微表情和动作识别的智能培训方法,其特征在于,所述采集所述参加培训的每一学员在培训过程中的照片和视频流的步骤包括:
在满足人脸表情图像识别的光线范围内,获取不同时间下人脸的正面图像和眼动信息;
从所述正面图像中提取面部表情特征向量,从眼动信息中提取眼动特征向量。
6.一种电子装置,其特征在于,所述电子装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的人工智能培训程序,所述人工智能培训程序被所述处理器执行时实现如下步骤:
基于培训过程中学员的微表情和微动作建立微表情和微动作样本集;
基于所述微表情和微动作样本集分析构建学习状态识别模型;
基于人脸识别确定参加培训的每一学员的真实信息;
采集所述参加培训的每一学员在培训过程中的照片和视频流,所述照片和视频流包括所述参加培训的每一学员在培训过程中的微表情和微动作;
上传所述照片和视频流至所述学习状态识别模型;
通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果;
基于所述参加培训的每一学员的学习状态结果生成个人及整体培训班分析报告。
7.如权利要求6所述的电子装置,其特征在于,所述上传所述照片和视频流至所述学习状态识别模型的步骤包括:
从所述照片和视频流中提取融合面部表情及肢体动作的特征向量后输入到所述学习状态识别模型中。
8.如权利要求7所述的电子装置,其特征在于,所述从所述照片和视频流中提取融合面部表情及肢体动作的特征向量的步骤包括:
采用基于Gabor滤波的特征检测方法,从所述视频流中提取脸部三维纹理特征;
设定一个兴趣点初选阈值条件及一个兴趣点下限值,再采用非极大值抑制算法搜索所述视频流中的脸部三维纹理特征满足所述兴趣点初选阈值条件的局部极大值点,并从搜索出的局部极大值点中,将所有的脸部三维纹理特征大于兴趣点下限值的局部极大值点选为最终的时空兴趣点,选取各个时空兴趣点的脸部三维纹理特征构建一个面部表情时空特征矩阵;
采用三维正交平面局部二进制模式算子从视频中提取人体肢体动作三维纹理特征构建一个肢体动作时空特征矩阵;
对面部表情时空特征矩阵及肢体动作时空特征矩阵中的脸部三维纹理特征、人体肢体动作三维纹理特征,采用PCA算法进行降维,从而得到面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵;
采用基于典型相关分析的融合算法,对面部表情时空特征矩阵的主成分特征矩阵及肢体动作时空特征矩阵的主成分特征矩阵实施融合,得到融合后的特征向量。
9.如权利要求8所述的电子装置,其特征在于,所述通过所述学习状态识别模型分析所述照片和视频流,获取所述参加培训的每一学员的学习状态结果的步骤包括:
利用分类器对提取的特征向量实施分类分析,将分好类别的特征向量与预先建立的信息数据库中的状态信息相比对,所述信息数据库存放有多组积极、中性和消极三种学习状态的标准的特征向量,将所述信息数据库中的状态信息与分好类别的特征向量相匹配,从而得到学习状态分析结果。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有人工智能培训程序,所述人工智能培训程序可被一个或者多个处理器执行,以实现如权利要求1至5中任一项所述的基于微表情和动作识别的智能培训方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910879187.XA CN110728194A (zh) | 2019-09-16 | 2019-09-16 | 基于微表情和动作识别的智能培训方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910879187.XA CN110728194A (zh) | 2019-09-16 | 2019-09-16 | 基于微表情和动作识别的智能培训方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110728194A true CN110728194A (zh) | 2020-01-24 |
Family
ID=69219162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910879187.XA Pending CN110728194A (zh) | 2019-09-16 | 2019-09-16 | 基于微表情和动作识别的智能培训方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110728194A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476178A (zh) * | 2020-04-10 | 2020-07-31 | 大连海事大学 | 一种基于2d-3d cnn的微表情识别方法 |
CN111738196A (zh) * | 2020-06-30 | 2020-10-02 | 上海松鼠课堂人工智能科技有限公司 | 学习状态跟踪和分析设备和系统 |
CN112767199A (zh) * | 2020-12-25 | 2021-05-07 | 科讯嘉联信息技术有限公司 | 一种企业员工培训系统及培训方法 |
CN114997263A (zh) * | 2022-04-20 | 2022-09-02 | 平安科技(深圳)有限公司 | 基于机器学习的结训率分析方法、装置、设备及存储介质 |
CN116797090A (zh) * | 2023-06-26 | 2023-09-22 | 国信蓝桥教育科技股份有限公司 | 一种学员课堂学习状态在线评估方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868694A (zh) * | 2016-03-24 | 2016-08-17 | 中国地质大学(武汉) | 基于面部表情和眼球动作的双模态情感识别方法及系统 |
CN109145754A (zh) * | 2018-07-23 | 2019-01-04 | 上海电力学院 | 融合面部表情及肢体动作三维特征的情绪识别方法 |
WO2019028592A1 (zh) * | 2017-08-07 | 2019-02-14 | 中国科学院深圳先进技术研究院 | 一种教学辅助方法及采用该方法的教学辅助系统 |
CN109815795A (zh) * | 2018-12-14 | 2019-05-28 | 深圳壹账通智能科技有限公司 | 基于人脸监测的课堂学生状态分析方法及装置 |
-
2019
- 2019-09-16 CN CN201910879187.XA patent/CN110728194A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868694A (zh) * | 2016-03-24 | 2016-08-17 | 中国地质大学(武汉) | 基于面部表情和眼球动作的双模态情感识别方法及系统 |
WO2019028592A1 (zh) * | 2017-08-07 | 2019-02-14 | 中国科学院深圳先进技术研究院 | 一种教学辅助方法及采用该方法的教学辅助系统 |
CN109145754A (zh) * | 2018-07-23 | 2019-01-04 | 上海电力学院 | 融合面部表情及肢体动作三维特征的情绪识别方法 |
CN109815795A (zh) * | 2018-12-14 | 2019-05-28 | 深圳壹账通智能科技有限公司 | 基于人脸监测的课堂学生状态分析方法及装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476178A (zh) * | 2020-04-10 | 2020-07-31 | 大连海事大学 | 一种基于2d-3d cnn的微表情识别方法 |
CN111738196A (zh) * | 2020-06-30 | 2020-10-02 | 上海松鼠课堂人工智能科技有限公司 | 学习状态跟踪和分析设备和系统 |
CN112767199A (zh) * | 2020-12-25 | 2021-05-07 | 科讯嘉联信息技术有限公司 | 一种企业员工培训系统及培训方法 |
CN114997263A (zh) * | 2022-04-20 | 2022-09-02 | 平安科技(深圳)有限公司 | 基于机器学习的结训率分析方法、装置、设备及存储介质 |
CN116797090A (zh) * | 2023-06-26 | 2023-09-22 | 国信蓝桥教育科技股份有限公司 | 一种学员课堂学习状态在线评估方法及系统 |
CN116797090B (zh) * | 2023-06-26 | 2024-03-26 | 国信蓝桥教育科技股份有限公司 | 一种学员课堂学习状态在线评估方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110728194A (zh) | 基于微表情和动作识别的智能培训方法、装置及存储介质 | |
WO2020207281A1 (zh) | 姿态识别模型的训练方法、图像识别方法及装置 | |
CN110889672B (zh) | 一种基于深度学习的学生打卡及上课状态的检测系统 | |
Mac Aodha et al. | Teaching categories to human learners with visual explanations | |
EP3885965B1 (en) | Image recognition method based on micro facial expressions, apparatus and related device | |
CN111191599A (zh) | 姿态识别方法、装置、设备及存储介质 | |
CN110674664A (zh) | 视觉注意力的识别方法及系统、存储介质、处理器 | |
Mania et al. | A framework for self-training perceptual agents in simulated photorealistic environments | |
CN113538441A (zh) | 图像分割模型的处理方法、图像处理方法及装置 | |
CN112116684A (zh) | 图像处理方法、装置、设备及计算机可读存储介质 | |
CN110866469A (zh) | 一种人脸五官识别方法、装置、设备及介质 | |
Zatarain-Cabada et al. | Building a face expression recognizer and a face expression database for an intelligent tutoring system | |
Trejo et al. | Recognition of Yoga poses through an interactive system with Kinect based on confidence value | |
Ray et al. | Design and implementation of affective e-learning strategy based on facial emotion recognition | |
Rao et al. | Recognition of learners’ cognitive states using facial expressions in e-learning environments | |
Abdulhamied et al. | Real-time recognition of American sign language using long-short term memory neural network and hand detection | |
KR101734212B1 (ko) | 표정 연습 시스템 | |
CN115188051A (zh) | 基于对象行为的在线课程推荐方法及系统 | |
CN115019396A (zh) | 一种学习状态监测方法、装置、设备及介质 | |
Belhouchette | Facial action units detection to identify interest emotion: An application of deep learning | |
CN114140876A (zh) | 一种课堂实时人体动作识别方法、计算机设备及可读介质 | |
Nunes | Deep emotion recognition through upper body movements and facial expression | |
CN112309181A (zh) | 一种舞蹈教学辅助方法及装置 | |
CN113408329A (zh) | 基于人工智能的视频处理方法、装置、设备及存储介质 | |
Godavarthi et al. | Analysing emotions on lecture videos using CNN and HOG (workshop paper) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |