CN109034037A - 基于人工智能的在线学习方法 - Google Patents
基于人工智能的在线学习方法 Download PDFInfo
- Publication number
- CN109034037A CN109034037A CN201810797962.2A CN201810797962A CN109034037A CN 109034037 A CN109034037 A CN 109034037A CN 201810797962 A CN201810797962 A CN 201810797962A CN 109034037 A CN109034037 A CN 109034037A
- Authority
- CN
- China
- Prior art keywords
- face
- user
- expression
- video
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 26
- 230000014509 gene expression Effects 0.000 claims abstract description 45
- 230000008451 emotion Effects 0.000 claims abstract description 16
- 230000008859 change Effects 0.000 claims abstract description 7
- 230000036651 mood Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims description 9
- 230000008921 facial expression Effects 0.000 claims description 6
- 238000009432 framing Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000000513 principal component analysis Methods 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 6
- 238000012706 support-vector machine Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000008901 benefit Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 239000000463 material Substances 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000011897 real-time detection Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于人工智能的在线学习方法,包括:进行教学内容的播放;获取用户在教学内容的播放时的具有用户面部的视频;利用基于人工智能的人脸情绪识别方法对获取的具有用户面部的视频进行人脸情绪识别;根据识别到用户的情绪,进行对播放教学内容的改变,具体包括:当检测到用户一直表现出愉快、兴奋或期待的表情时,加快播放的进度;当测到用户表现出疑惑的表情时,减低播放的进度,并且重复播放已播放的内容。上述基于人工智能的在线学习方法,通过识别用户的表情,对播放内容进行调整,保证高质量的教学水平。
Description
技术领域
本发明涉及在线学习方法,特别是涉及基于人工智能的在线学习方法。
背景技术
在线学习现在虽然越来越普及,可是对于学习状态和效果的监控,是提高教学质量的重要环节,充分了解学生学习时的反应,才能保证高质量的教学水平。现有教学软件对用户的行为分析还很原始,都是基于对界面的操作来进行,此种方式不能够准确把握学习者的状态,也无法做到有效及时的调整。
发明内容
基于此,有必要针对上述技术问题,提供一种基于人工智能的在线学习方法,通过识别用户的表情,对播放内容进行调整,保证高质量的教学水平。
一种基于人工智能的在线学习方法,包括:
进行教学内容的播放;
获取用户在教学内容的播放时的具有用户面部的视频;
利用基于人工智能的人脸情绪识别方法对获取的具有用户面部的视频进行人脸情绪识别;
根据识别到用户的情绪,进行对播放教学内容的改变,具体包括:
当检测到用户一直表现出愉快、兴奋或期待的表情时,加快播放的进度;
当检测到用户表现出疑惑的表情时,减低播放的进度,并且重复播放已播放的内容;
当检测到用户进一步表现出失望、不耐烦或疲劳的表情时,更换播放内容,或播放音乐,或进入游戏界面,或进入聊天界面,或播放结束;
当检测到用户表现出生气、反感的表情时,停止播放当前内容,自动匹配其他教学课程。
上述基于人工智能的在线学习方法,通过识别用户的表情,对播放内容进行调整,保证高质量的教学水平。
在另外的一个实施例中,“利用基于人工智能的人脸情绪识别方法对获取的具有用户面部的视频进行人脸情绪识别;”中,基于人工智能的人脸情绪识别方法具体包括:
步骤1:获取视频素材,对视频进行分帧处理,划分出视频中所有完整的表情动作,具体方法为:
步骤2:标定面部关键点及图像预处理;在获取分帧后的人脸图像后,先进行特征点的标定,对于所有可识别的人脸标定出m个特征点,对获得的面部特征点进行旋转、平移和缩放的坐标变换几何归一化处理;
步骤3:计算特征向量;在n帧为一组的面部特征点信息中,计算每个特征点n个坐标序列的最大值、最小值、平均值、峰度、偏度、离散傅里叶变换(Discrete FourierTransform,DFT)峰值及其所对应频率,再使用主成分分析(PrincipalComponentAnalysis,PCA)降维,去除冗余数据,作为表情的特征向量;
步骤4:对表情进行分类及识别;将预先设定的表情的特征向量以及与之对应的标签输入分类器中进行训练,得到训练的结果模型,分类器采用支持向量机(SupportVectorMachine,SVM)或邻近算法(k-Nearest Neighbor,k-NN);在识别时,将要识别的图像序列的特征向量与训练的结果模型输入分类器,得到识别结果。
在另外的一个实施例中,步骤1具体包括:
步骤1.1:用分帧代码对拍摄到的视频进行分帧处理,保存视频的每一帧图像;
步骤1.2:划分出视频中所有的完整表情变化的图像,从正常表情开始,到表情最大化时结束,定义每n帧图像为单个表情动作的完整变化,n表示某一表情从正常到最大化的过程所占用的图像帧数,其取值根据被识别视频的清晰度确定;
步骤1.3:返回步骤1.1重复执行,直到所有视频都处理完毕。
在另外的一个实施例中,所述步骤2的具体方法为:
步骤2.1:使用人脸标定工具,检测出图像中的人脸,并标出m个特征点,m为人脸标定工具特定参数;
步骤2.2:将直角坐标转换为齐次坐标,定义每帧图像的特征点齐次坐标为M;
步骤2.3:旋转面部特征点,除去帧图像中人脸相对于图像坐标轴的倾斜角;
步骤2.4:将坐标原点平移到面部中心;
步骤2.5:以鼻梁左右距离L为基准值,将所有特征点的坐标除以L,对特征点坐标进行缩放,得到经过旋转、平移、缩放变换后的特征点齐次坐标M’;
步骤2.6:判断是否视频中所有图像均完成几何归一化处理,若是,则执行步骤3,若否,则返回步骤2.1重复执行,直到所有图像均被处理。
在另外的一个实施例中,在步骤2获得面部特征点坐标信息后,对于所有的表情素材,取每n帧为一个表情单位,随后计算每个特征点n维坐标序列的最大值、最小值、平均值、峰度、偏度、自相关性、以及DFT变换后的幅度峰值及其频率,具体方法为:
步骤3.1:人脸标定工具所标定的m个面部特征点中,除去r个定位不准确的脸部轮廓点,共m0个可供使用的特征点,m0=m-r;
步骤3.2:计算m0个可供使用的特征点中每个特征点的坐标序列中的最大值、最小值、平均值、峰度和偏度,得到m0×2×5个特征值;
步骤3.3:对m0个可供使用的特征点中每个特征点的坐标序列进行DFT变换,选取5个最大的傅里叶峰值及其所对应频率,获得m0×2×5个每个点对应的傅里叶峰值和m0×2×5个峰值所对应的频率;
步骤3.4:计算m0个可供使用的特征点中每个特征点坐标序列的自相关性,每个特征点选用n个不重复的值作为特征向量的一部分,共有m0×2×n维数据;
步骤3.5:在以上特征值计算后,得到特征向量的m0×2×5×3+m0×2×n个特征值,利用PCA函数对该特征向量进行降维;
步骤3.6:重复步骤3.1到3.5,直到计算出所有表情的特征向量。
在另外的一个实施例中,在进行教学内容的播放以前,根据面部特征实时检测登陆的用户身份,当检测到当前用户与登录用户不匹配时,暂停播放。
在另外的一个实施例中,在进行教学内容的播放以前,获取用户的年龄、性别、所在位置、语言能力、兴趣、填写的教学水平、填写的课程定价、填写的课程内容和填写的授课时间,自动匹配教学课程进行播放。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述方法的步骤。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行任一项所述的方法。
附图说明
图1为本申请实施例提供的一种基于人工智能的在线学习方法的流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参阅图1,一种基于人工智能的在线学习方法,包括:
S110、进行教学内容的播放。
S120、获取用户在教学内容的播放时的具有用户面部的视频。
S130、利用基于人工智能的人脸情绪识别方法对获取的具有用户面部的视频进行人脸情绪识别。
S140、根据识别到用户的情绪,进行对播放教学内容的改变,具体包括:
当检测到用户一直表现出愉快、兴奋或期待的表情时,加快播放的进度;
当检测到用户表现出疑惑的表情时,减低播放的进度,并且重复播放已播放的内容;
当检测到用户进一步表现出失望、不耐烦或疲劳的表情时,更换播放内容,或播放音乐,或进入游戏界面,或进入聊天界面,或播放结束;
当检测到用户表现出生气、反感的表情时,停止播放当前内容,自动匹配其他教学课程。
上述基于人工智能的在线学习方法,通过识别用户的表情,对播放内容进行调整,保证高质量的教学水平。
在另外的一个实施例中,“利用基于人工智能的人脸情绪识别方法对获取的具有用户面部的视频进行人脸情绪识别;”中,基于人工智能的人脸情绪识别方法具体包括:
步骤1:获取视频素材,对视频进行分帧处理,划分出视频中所有完整的表情动作,具体方法为:
步骤2:标定面部关键点及图像预处理;在获取分帧后的人脸图像后,先进行特征点的标定,对于所有可识别的人脸标定出m个特征点,对获得的面部特征点进行旋转、平移和缩放的坐标变换几何归一化处理;
步骤3:计算特征向量;在n帧为一组的面部特征点信息中,计算每个特征点n个坐标序列的最大值、最小值、平均值、峰度、偏度、离散傅里叶变换(Discrete FourierTransform,DFT)峰值及其所对应频率,再使用主成分分析(PrincipalComponentAnalysis,PCA)降维,去除冗余数据,作为表情的特征向量;
步骤4:对表情进行分类及识别;将预先设定的表情的特征向量以及与之对应的标签输入分类器中进行训练,得到训练的结果模型,分类器采用支持向量机(SupportVectorMachine,SVM)或邻近算法(k-Nearest Neighbor,k-NN);在识别时,将要识别的图像序列的特征向量与训练的结果模型输入分类器,得到识别结果。
在另外的一个实施例中,步骤1具体包括:
步骤1.1:用分帧代码对拍摄到的视频进行分帧处理,保存视频的每一帧图像;
步骤1.2:划分出视频中所有的完整表情变化的图像,从正常表情开始,到表情最大化时结束,定义每n帧图像为单个表情动作的完整变化,n表示某一表情从正常到最大化的过程所占用的图像帧数,其取值根据被识别视频的清晰度确定;
步骤1.3:返回步骤1.1重复执行,直到所有视频都处理完毕。
在另外的一个实施例中,所述步骤2的具体方法为:
步骤2.1:使用人脸标定工具,检测出图像中的人脸,并标出m个特征点,m为人脸标定工具特定参数;
步骤2.2:将直角坐标转换为齐次坐标,定义每帧图像的特征点齐次坐标为M;
步骤2.3:旋转面部特征点,除去帧图像中人脸相对于图像坐标轴的倾斜角;
步骤2.4:将坐标原点平移到面部中心;
步骤2.5:以鼻梁左右距离L为基准值,将所有特征点的坐标除以L,对特征点坐标进行缩放,得到经过旋转、平移、缩放变换后的特征点齐次坐标M’;
步骤2.6:判断是否视频中所有图像均完成几何归一化处理,若是,则执行步骤3,若否,则返回步骤2.1重复执行,直到所有图像均被处理。
在另外的一个实施例中,在步骤2获得面部特征点坐标信息后,对于所有的表情素材,取每n帧为一个表情单位,随后计算每个特征点n维坐标序列的最大值、最小值、平均值、峰度、偏度、自相关性、以及DFT变换后的幅度峰值及其频率,具体方法为:
步骤3.1:人脸标定工具所标定的m个面部特征点中,除去r个定位不准确的脸部轮廓点,共m0个可供使用的特征点,m0=m-r;
步骤3.2:计算m0个可供使用的特征点中每个特征点的坐标序列中的最大值、最小值、平均值、峰度和偏度,得到m0×2×5个特征值;
步骤3.3:对m0个可供使用的特征点中每个特征点的坐标序列进行DFT变换,选取5个最大的傅里叶峰值及其所对应频率,获得m0×2×5个每个点对应的傅里叶峰值和m0×2×5个峰值所对应的频率;
步骤3.4:计算m0个可供使用的特征点中每个特征点坐标序列的自相关性,每个特征点选用n个不重复的值作为特征向量的一部分,共有m0×2×n维数据;
步骤3.5:在以上特征值计算后,得到特征向量的m0×2×5×3+m0×2×n个特征值,利用PCA函数对该特征向量进行降维;
步骤3.6:重复步骤3.1到3.5,直到计算出所有表情的特征向量。
在另外的一个实施例中,在进行教学内容的播放以前,根据面部特征实时检测登陆的用户身份,当检测到当前用户与登录用户不匹配时,暂停播放。
在另外的一个实施例中,在进行教学内容的播放以前,获取用户的年龄、性别、所在位置、语言能力、兴趣、填写的教学水平、填写的课程定价、填写的课程内容和填写的授课时间,自动匹配教学课程进行播放。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述方法的步骤。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行任一项所述的方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于人工智能的在线学习方法,其特征在于,包括:
进行教学内容的播放;
获取用户在教学内容的播放时的具有用户面部的视频;
利用基于人工智能的人脸情绪识别方法对获取的具有用户面部的视频进行人脸情绪识别;
根据识别到用户的情绪,进行对播放教学内容的改变,具体包括:
当检测到用户一直表现出愉快、兴奋或期待的表情时,加快播放的进度;
当检测到用户表现出疑惑的表情时,减低播放的进度,并且重复播放已播放的内容;
当检测到用户进一步表现出失望、不耐烦或疲劳的表情时,更换播放内容,或播放音乐,或进入游戏界面,或进入聊天界面,或播放结束;
当检测到用户表现出生气、反感的表情时,停止播放当前内容,自动匹配其他教学课程。
2.根据权利要求1所述的基于人工智能的在线学习方法,其特征在于,“利用基于人工智能的人脸情绪识别方法对获取的具有用户面部的视频进行人脸情绪识别;”中,基于人工智能的人脸情绪识别方法具体包括:
步骤1:获取视频素材,对视频进行分帧处理,划分出视频中所有完整的表情动作,具体方法为:
步骤2:标定面部关键点及图像预处理;在获取分帧后的人脸图像后,先进行特征点的标定,对于所有可识别的人脸标定出m个特征点,对获得的面部特征点进行旋转、平移和缩放的坐标变换几何归一化处理;
步骤3:计算特征向量;在n帧为一组的面部特征点信息中,计算每个特征点n个坐标序列的最大值、最小值、平均值、峰度、偏度、离散傅里叶变换(Discrete Fourier Transform,DFT)峰值及其所对应频率,再使用主成分分析(Principal ComponentAnalysis,PCA)降维,去除冗余数据,作为表情的特征向量;
步骤4:对表情进行分类及识别;将预先设定的表情的特征向量以及与之对应的标签输入分类器中进行训练,得到训练的结果模型,分类器采用支持向量机(SupportVectorMachine,SVM)或邻近算法(k-NearestNeighbor,k-NN);在识别时,将要识别的图像序列的特征向量与训练的结果模型输入分类器,得到识别结果。
3.根据权利要求2所述的基于人工智能的在线学习方法,其特征在于,步骤1具体包括:
步骤1.1:用分帧代码对拍摄到的视频进行分帧处理,保存视频的每一帧图像;
步骤1.2:划分出视频中所有的完整表情变化的图像,从正常表情开始,到表情最大化时结束,定义每n帧图像为单个表情动作的完整变化,n表示某一表情从正常到最大化的过程所占用的图像帧数,其取值根据被识别视频的清晰度确定;
步骤1.3:返回步骤1.1重复执行,直到所有视频都处理完毕。
4.根据权利要求2所述的基于人工智能的在线学习方法,其特征在于,所述步骤2的具体方法为:
步骤2.1:使用人脸标定工具,检测出图像中的人脸,并标出m个特征点,m为人脸标定工具特定参数;
步骤2.2:将直角坐标转换为齐次坐标,定义每帧图像的特征点齐次坐标为M;
步骤2.3:旋转面部特征点,除去帧图像中人脸相对于图像坐标轴的倾斜角;
步骤2.4:将坐标原点平移到面部中心;
步骤2.5:以鼻梁左右距离L为基准值,将所有特征点的坐标除以L,对特征点坐标进行缩放,得到经过旋转、平移、缩放变换后的特征点齐次坐标M’;
步骤2.6:判断是否视频中所有图像均完成几何归一化处理,若是,则执行步骤3,若否,则返回步骤2.1重复执行,直到所有图像均被处理。
5.根据权利要求4所述的基于人工智能的在线学习方法,其特征在于,在步骤2获得面部特征点坐标信息后,对于所有的表情素材,取每n帧为一个表情单位,随后计算每个特征点n维坐标序列的最大值、最小值、平均值、峰度、偏度、自相关性、以及DFT变换后的幅度峰值及其频率,具体方法为:
步骤3.1:人脸标定工具所标定的m个面部特征点中,除去r个定位不准确的脸部轮廓点,共m0个可供使用的特征点,m0=m-r;
步骤3.2:计算m0个可供使用的特征点中每个特征点的坐标序列中的最大值、最小值、平均值、峰度和偏度,得到m0×2×5个特征值;
步骤3.3:对m0个可供使用的特征点中每个特征点的坐标序列进行DFT变换,选取5个最大的傅里叶峰值及其所对应频率,获得m0×2×5个每个点对应的傅里叶峰值和m0×2×5个峰值所对应的频率;
步骤3.4:计算m0个可供使用的特征点中每个特征点坐标序列的自相关性,每个特征点选用n个不重复的值作为特征向量的一部分,共有m0×2×n维数据;
步骤3.5:在以上特征值计算后,得到特征向量的m0×2×5×3+m0×2×n个特征值,利用PCA函数对该特征向量进行降维;
步骤3.6:重复步骤3.1到3.5,直到计算出所有表情的特征向量。
6.根据权利要求1所述的基于人工智能的在线学习方法,其特征在于,在进行教学内容的播放以前,根据面部特征实时检测登陆的用户身份,当检测到当前用户与登录用户不匹配时,暂停播放。
7.根据权利要求1所述的基于人工智能的在线学习方法,其特征在于,在进行教学内容的播放以前,获取用户的年龄、性别、所在位置、语言能力、兴趣、填写的教学水平、填写的课程定价、填写的课程内容和填写的授课时间,自动匹配教学课程进行播放。
8.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1到7任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1到7任一项所述方法的步骤。
10.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1到7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810797962.2A CN109034037A (zh) | 2018-07-19 | 2018-07-19 | 基于人工智能的在线学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810797962.2A CN109034037A (zh) | 2018-07-19 | 2018-07-19 | 基于人工智能的在线学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109034037A true CN109034037A (zh) | 2018-12-18 |
Family
ID=64643965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810797962.2A Pending CN109034037A (zh) | 2018-07-19 | 2018-07-19 | 基于人工智能的在线学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109034037A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110069991A (zh) * | 2019-03-18 | 2019-07-30 | 深圳壹账通智能科技有限公司 | 反馈信息确定方法、装置、电子设备及存储介质 |
CN110728604A (zh) * | 2019-12-18 | 2020-01-24 | 恒信东方文化股份有限公司 | 一种分析方法及装置 |
CN111093113A (zh) * | 2019-04-22 | 2020-05-01 | 广东小天才科技有限公司 | 一种视频内容的输出方法及电子设备 |
CN111506183A (zh) * | 2019-01-30 | 2020-08-07 | 阿里巴巴集团控股有限公司 | 一种智能终端及用户交互方法 |
CN112507243A (zh) * | 2021-02-07 | 2021-03-16 | 深圳市阿卡索资讯股份有限公司 | 一种基于表情的内容推送方法与装置 |
CN112949554A (zh) * | 2021-03-22 | 2021-06-11 | 湖南中凯智创科技有限公司 | 智能儿童陪伴教育机器人 |
CN114168547A (zh) * | 2021-12-10 | 2022-03-11 | 洪恩完美(北京)教育科技发展有限公司 | 教学资源配置系统、方法以及设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107203953A (zh) * | 2017-07-14 | 2017-09-26 | 深圳极速汉语网络教育有限公司 | 一种基于互联网、表情识别和语音识别的教学系统及其实现方法 |
CN107292289A (zh) * | 2017-07-17 | 2017-10-24 | 东北大学 | 基于视频时间序列的人脸表情识别方法 |
-
2018
- 2018-07-19 CN CN201810797962.2A patent/CN109034037A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107203953A (zh) * | 2017-07-14 | 2017-09-26 | 深圳极速汉语网络教育有限公司 | 一种基于互联网、表情识别和语音识别的教学系统及其实现方法 |
CN107292289A (zh) * | 2017-07-17 | 2017-10-24 | 东北大学 | 基于视频时间序列的人脸表情识别方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111506183A (zh) * | 2019-01-30 | 2020-08-07 | 阿里巴巴集团控股有限公司 | 一种智能终端及用户交互方法 |
CN110069991A (zh) * | 2019-03-18 | 2019-07-30 | 深圳壹账通智能科技有限公司 | 反馈信息确定方法、装置、电子设备及存储介质 |
CN111093113A (zh) * | 2019-04-22 | 2020-05-01 | 广东小天才科技有限公司 | 一种视频内容的输出方法及电子设备 |
CN110728604A (zh) * | 2019-12-18 | 2020-01-24 | 恒信东方文化股份有限公司 | 一种分析方法及装置 |
CN112507243A (zh) * | 2021-02-07 | 2021-03-16 | 深圳市阿卡索资讯股份有限公司 | 一种基于表情的内容推送方法与装置 |
CN112507243B (zh) * | 2021-02-07 | 2021-05-18 | 深圳市阿卡索资讯股份有限公司 | 一种基于表情的内容推送方法与装置 |
CN112949554A (zh) * | 2021-03-22 | 2021-06-11 | 湖南中凯智创科技有限公司 | 智能儿童陪伴教育机器人 |
CN114168547A (zh) * | 2021-12-10 | 2022-03-11 | 洪恩完美(北京)教育科技发展有限公司 | 教学资源配置系统、方法以及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109034037A (zh) | 基于人工智能的在线学习方法 | |
EP3796112B1 (en) | Virtual vehicle control method, model training method, control device and storage medium | |
CN109034099B (zh) | 一种表情识别方法及装置 | |
WO2018168220A1 (ja) | 学習材推薦方法、学習材推薦装置および学習材推薦プログラム | |
Johnson et al. | Detecting hand posture in piano playing using depth data | |
CN108898115B (zh) | 数据处理方法、存储介质和电子设备 | |
CN111914633B (zh) | 基于人脸特征时域稳定性的换脸视频篡改检测方法及其应用 | |
CN115205764B (zh) | 基于机器视觉的在线学习专注度监测方法、系统及介质 | |
CN107292289A (zh) | 基于视频时间序列的人脸表情识别方法 | |
CN111986180B (zh) | 基于多相关帧注意力机制的人脸伪造视频检测方法 | |
CN116563738A (zh) | 一种基于不确定性的多阶段引导的小目标半监督学习检测方法 | |
CN113283334B (zh) | 一种课堂专注度分析方法、装置和存储介质 | |
CN108256454A (zh) | 一种基于cnn模型的训练方法、人脸姿态估测方法及装置 | |
CN106339917A (zh) | 一种商品模型训练方法及装置 | |
Johnson et al. | Detecting pianist hand posture mistakes for virtual piano tutoring | |
CN112835807B (zh) | 界面识别方法、装置、电子设备和存储介质 | |
CN110889366A (zh) | 一种基于面部表情判断用户兴趣度的方法及系统 | |
CN112802439B (zh) | 一种演奏数据识别方法、装置、设备及存储介质 | |
CN112446360A (zh) | 目标行为检测方法、装置及电子设备 | |
JP7293658B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111967383A (zh) | 年龄估计方法、年龄估计模型的训练方法和装置 | |
CN111860199B (zh) | 图像中关键点的检测方法及设备 | |
JP2021177312A (ja) | 情報処理装置、情報処理方法 | |
CN111581911B (zh) | 实时文本自动添加标点的方法、模型构建方法及装置 | |
Kerdvibulvech et al. | Guitarist fingertip tracking by integrating a Bayesian classifier into particle filters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181218 |
|
RJ01 | Rejection of invention patent application after publication |