CN109920539A - 一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统 - Google Patents

一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统 Download PDF

Info

Publication number
CN109920539A
CN109920539A CN201910178802.4A CN201910178802A CN109920539A CN 109920539 A CN109920539 A CN 109920539A CN 201910178802 A CN201910178802 A CN 201910178802A CN 109920539 A CN109920539 A CN 109920539A
Authority
CN
China
Prior art keywords
matrix
expression vector
user
value
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910178802.4A
Other languages
English (en)
Inventor
李太福
廖志强
尹蝶
段棠少
张志亮
黄星耀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Science and Technology
Original Assignee
Chongqing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Science and Technology filed Critical Chongqing University of Science and Technology
Priority to CN201910178802.4A priority Critical patent/CN109920539A/zh
Publication of CN109920539A publication Critical patent/CN109920539A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供了一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统,通过开发一款手机App,获取用户在使用不同类型(滚筒颜色、滚筒材质、滚筒宽度、滚筒直径、机架长、宽、高等参数不同)的拥抱机过程视频(可以通过手机App现场拍摄或者读取视频文件)传输到云端;在云端把该视频分解成连续的系列照片;应用人脸识别技术,识别该系列照片对应的人脸表情类型,获得表情随时间变化的代码向量,在云平台上,通过GRNN神经网络建立用户体验数据与对应用户体验过程评分的复杂非线性关系模型;进行视频的录入即可自动获得该用户体验过程的用户体验评价结果,作为企业进行自闭症拥抱机产品升级优化的依据。

Description

一种处于无意识、自由状态下的自闭症拥抱机体验评价方法 及系统
技术领域
本发明涉及大数据领域,具体涉及一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统。
背景技术
如今,正值心理健康危机日益严重的时期,尤其是年轻人。根据2015年的《高等教育纪事报》的一份报道中指出,自杀是大学生死亡的第二大杀手,仅次于交通事故;自1999年以来,美国的整体自杀率飙升了约25%。针对那些患有自闭症、SPD(感觉紊乱)、抑郁症、发育迟缓人群或者仅仅是压力过大的用户。有研究表明,借助外物适度挤压身体能够极大缓解焦虑情绪舒缓压力,像拥抱机这样声称能够通过背腹双侧按摩减轻心理压力,改善肢体运动能力,能够有效减轻患者普遍存在的紧张情绪,让用户在放松的状态下更容易学会与他人的互动交流。嵌入情绪识别系统,将患者体验过程中的情绪变化进行采集、计算、分析,在大多情况下还是可以作为企业进行自闭症拥抱机产品升级优化的依据。
现有技术在拥抱机产品优化改进过程中,拥抱机研发人员不能快速获取改进型拥抱机的用户体验数据,进而不能对产品优化结果做出快速评价。
发明内容
为了解决现在产品研发过程中,研发人员不能快速获取改进型拥抱机用户体验数据的问题,本申请提供一种处于无意识、自由状态下的自闭症拥抱机体验评价方法,包括以下步骤,
S1:采集用户使用拥抱机的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵,;
S2:采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建的GRNN模型,采用所述输入矩阵和所述结果矩阵对GRNN模型进行训练。
S3:采集用户使用拥抱机的第二过程视频,采用训练完成的GRNN模型对所述用户使用拥抱机的第二过程视频进行分析并获取用户体验数据。
进一步的,所述步骤S1包括,
S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为
[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7
S13:构造矩阵M=A·AT
S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ123,…,λ7]1×7
S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。
进一步的,所GRNN模型方程式为:
其中,表示所有样本观测值Yi的加权平均;Yi表示观测值;X网络输入变量;Xi表示第i个神经元对应的学习样本;σ表示网络扩展因子。
进一步的,所述步骤S2包括以下步骤:
S21:设置网络扩展因子的取值范围[σminmax],设置σ的取值间距Δh;
S22:取σ0=σmin,采用样本集A作为训练样本构建GRNN模型,B作为测试样本,利用建立的GRNN模型预测采样集B的所有估计值计算测试集B的预测值与实际值的误差E1,并令Emin=E1,令最佳训练样本集为A;
S23:取σ0=σmin,采用样本集B作为训练样本GRNN模型,A作为测试样本,利用建立的GRNN模型预测采样集A的所有估计值计算测试集A的预测值与实际值的误差E2,若E2<E1,则并令Emin=E2,令最佳训练样本集为B;否则Emin=E1,最佳训练样本集仍为A;
S24:取σ1=σmin+Δh,重复第二步和第三步过程,如果出现E小于S22步或者S23步中的Emin,则σ1优于σ0;否则最佳的网络扩展因子取值仍为σ0
S25:在[σminmax]内取遍所有的σ值不断更新测试样本最小误差值、最佳训练样本集、最小扩展因子;取测试样本误差最小情况下的σ值、训练样本集为最优的σ值和训练样本集。
进一步的,所述步骤S3还包括,
将用户体验数据发送至管理员移动终端并进行展示。
为了保证上述方法的实施,本发明还提供一种处于无意识、自由状态下的自闭症拥抱机体验评价系统,其特征在于,包括以下模块
采集模块,用于采集用户使用拥抱机的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵,;
训练模块,用于采集第一用户调查数据,依据所述第一用户调查数据得到结果矩阵Y,构建的GRNN模型,采用所述输入矩阵和所述结果矩阵对GRNN模型进行训练。
结果输出模块,用于采集用户使用拥抱机的第二过程视频,采用训练完成的GRNN模型对所述用户使用拥抱机的第二过程视频进行分析并获取存储用户体验数据。
进一步的,所述采集模块采用以下步骤获取输入矩阵,
S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为
[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7
S13:构造矩阵M=A·AT
S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ123,…,λ7]1×7
S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。
进一步的,,所述训练模块采用的GRNN模型方程式为:
其中,表示所有样本观测值Yi的加权平均;Yi表示观测值;X网络输入变量;Xi表示第i个神经元对应的学习样本;σ表示网络扩展因子。
进一步的,所述训练模块采用以下步骤对GRNN模型进行训练:
S21:设置网络扩展因子的取值范围[σminmax],设置σ的取值间距Δh;
S22:取σ0=σmin,采用样本集A作为训练样本构建GRNN模型,B作为测试样本,利用建立的GRNN模型预测采样集B的所有估计值计算测试集B的预测值与实际值的误差E1,并令Emin=E1,令最佳训练样本集为A;
S23:取σ0=σmin,采用样本集B作为训练样本GRNN模型,A作为测试样本,利用建立的GRNN模型预测采样集A的所有估计值计算测试集A的预测值与实际值的误差E2,若E2<E1,则并令Emin=E2,令最佳训练样本集为B;否则Emin=E1,最佳训练样本集仍为A;
S24:取σ1=σmin+Δh,重复第二步和第三步过程,如果出现E小于S22步或者S23步中的Emin,则σ1优于σ0;否则最佳的网络扩展因子取值仍为σ0
S25:在[σminmax]内取遍所有的σ值不断更新测试样本最小误差值、最佳训练样本集、最小扩展因子;取测试样本误差最小情况下的σ值、训练样本集为最优的σ值和训练样本集。
进一步的,所述结果输出模块还用于,将用户体验数据发送至管理员移动终端并进行展示。
本发明的有益效果是,
1遵循神经和肌肉等解剖学,具有共同特征;表情识别是一种无意识、自由状态下的数据获取方法,保证了数据的可靠性与客观性。
2容易整合到数据分析系统进行分析和可视化。
3允许其他软件实时访问面部表情分析系统的数据收集。
4能够分析所有种族的面部表情,包括儿童的面部表情。
5本发明通过训练完成的神经网络模型来对用户在使用拥抱机过程的视频进行分析快速得出用户体验数据,可以方便研发人员快速对改进型拥抱机进行评估,提高了拥抱机的研发效率。
附图说明
图1为本发明一种处于无意识、自由状态下的自闭症拥抱机体验评价方法流程图。
图2为本发明一种处于无意识、自由状态下的自闭症拥抱机体验评价系统结构示意图。
图3为本发明一实施例二维表情谱示意图。
图4为本发明一实施例GRNN神经网络示意图。
具体实施方式
在下面的描述中,出于说明的目的,为了提供对一个或多个实施例的全面理解,阐述了许多具体细节。然而,很明显,也可以在没有这些具体细节的情况下实现这些实施例。
针对产品研发过程中,研发人员不能快速获取改进型拥抱机用户体验数据的问题,本发明一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统
本发明通过采集用户视频和用户调查数据对GRNN模型进行训练,通过训练完成的GRNN模型对用户使用改进型拥抱机的视频识别,快速获取用户的用户体验评价数据。
其中,需要说明的是,GRNN(general regression neural network)中文释义是广义回归神经网络在数学建模领域,径向基函数网络(Radial basis function network,缩写RBF network)是一种使用径向基函数作为激活函数的人工神经网络。径向基函数网络的输出是输入的径向基函数和神经元参数的线性组合,广义回归神经网是基于径向基函数网络一种改进。广义回归神经网络也可以可以通过径向基神经元和线性神经元来设计。
以下将结合附图对本发明的具体实施例进行详细描述。
为了说明本发明提供的处于无意识、自由状态下的自闭症拥抱机体验评价方法,图1示出了本发明一种处于无意识、自由状态下的自闭症拥抱机体验评价方法流程图。
如图1所示,本发明提供的处于无意识、自由状态下的自闭症拥抱机体验评价方法包括以下步骤:S1:采集用户使用拥抱机的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;
S2:采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建的GRNN模型,采用所述输入矩阵和所述结果矩阵对GRNN模型进行训练;
S3:采集用户使用拥抱机的第二过程视频,采用训练完成的GRNN模型对所述用户使用拥抱机的第二过程视频进行分析并获取用户体验数据。
第一过程视频,第一过程系列照片均为用于训练神经网络模型的训练数据,第二过程视频为待检测数据,采用已经训练好的神经网络对第二过程视频进行分析获取第二过程视频对应的用户体验数据。
在本发明实施过程中步骤S1包括,利用手机App获取用户在使用不同颜色、型号、压力的拥抱机过程视频(可以通过手机App现场拍摄或者读取视频文件)传输到云端,在云端把该视频分解成连续的系列照片,应用人脸识别技术,识别该系列照片对应的人脸表情,获得表情随时间变化的代码向量(7种表情类型愤怒、厌恶、恐惧、高兴、伤心、惊讶、无情绪分别对应的代码为1、2、3、4、5、6、7)、年龄N(岁)、性别B(男/女对应代码为1/0)对该数据矩阵作以下处理,获得输入矩阵X;
具体的,在本发明一实施例中步骤S1包括,
S11:画出表情代码向量随时间变化的二维表情谱,其中,横坐标为时间,纵坐标为表情类型代码1-7,得到“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T;利用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n(en为七种表情向量之一)。例如,当n=10时,E=[5,7,6,6,4,4,4,4,6,7];画出表情代码矩阵随时间的表情谱如图3所示,由表情谱得到表情谱矩阵A:
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7
S13:构造新的矩阵为M=A·AT
S14:计算出矩阵M的特征值,其征值矩阵为λ=[λ123,…,λ7]1×7
S15:输入参数矩阵由矩阵特征值、性别、年龄构成X=[λ,N,B]1×9
在本发明实施过程中步骤S2包括,调查用户该视频过程的真实用户体验,选择分数1分、2分、3分、4分、5分(分别对应体验过程很差、差、一般、好、很好)之一作为体验测试结果,并作为输出结果y;应用大量输入矩阵X与对应输出结果矩阵Y,利用GRNN神经网络进行建模,GRNN在结构上由四层构成,分别为输入层、模式层、求和层和输出层。输入层神经元的数目等于学习样本中输入向量的维数,各神经元是简单的分布单元,直接将输入变量传递给模式层。模式层神经元数目等于学习样本的数目n,各神经元对应不同的样本。求和层中使用两种类型神经元进行求和。输出层中的神经元数目等于学习样本中输出向量的维数k,各神经元将求和层的输出相除,经元j的输出对应估计结果Y(X)的第j个元素。
在本发明实施过程中,构建的GRNN模型方程式如下:
其中,表示所有样本观测值Yi的加权平均;Yi表示观测值;X网络输入变量;Xi表示第i个神经元对应的学习样本;σ表示网络扩展因子
在本发明实施过程中在采用所述GRNN模型对云服务器所得数据进行建模,获取网络扩展因子的过程中包括以下步骤,
S21:设置网络扩展因子的取值范围[σminmax],设置σ的取值间距Δh;
S22:取σ0=σmin,采用样本集A作为训练样本构建GRNN模型,B作为测试样本,利用建立的GRNN模型预测采样集B的所有估计值计算测试集B的预测值与实际值的误差E1,并令Emin=E1,令最佳训练样本集为A;
S23:取σ0=σmin,采用样本集B作为训练样本GRNN模型,A作为测试样本,利用建立的GRNN模型预测采样集A的所有估计值计算测试集A的预测值与实际值的误差E2,若E2<E1,则并令Emin=E2,令最佳训练样本集为B;否则Emin=E1,最佳训练样本集仍为A;
S24:取σ1=σmin+Δh,重复第二步和第三步过程,如果出现E小于S22步或者S23步中的Emin,则σ1优于σ0;否则最佳的网络扩展因子取值仍为σ0
S25:在[σminmax]内取遍所有的σ值不断更新测试样本最小误差值、最佳训练样本集、最小扩展因子;取测试样本误差最小情况下的σ值、训练样本集为最优的σ值和训练样本集。
在本发明实施过程中,步骤S3包括上述训练好的GRNN模型放入云端,把该过程开发成软件;对于新研发的拥抱机,只要录入视频即可自动获得该用户体验过程的用户体验评价结果,对公司进行产品升级优化结果进行评价。
应当指出的是,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的普通技术人员在本发明的实质范围内所做出的变化、改性、添加或替换,也应属于本发明的保护范围。

Claims (10)

1.一种处于无意识、自由状态下的自闭症拥抱机体验评价方法,其特征在于,包括以下步骤,
S1:采集用户使用拥抱机的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;
S2:采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建GRNN模型,采用所述输入矩阵和所述结果矩阵对GRNN模型进行训练;
S3:采集用户使用拥抱机的第二过程视频,采用训练完成的GRNN模型对所述用户使用拥抱机的第二过程视频进行分析并获取用户体验数据。
2.如权利要求1所述的一种处于无意识、自由状态下的自闭症拥抱机体验评价方法,其特征在于,所述步骤S1包括,
S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7
S13:构造矩阵M=A·AT
S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ123,…,λ7]1×7
S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。
3.如权利要求2所述的一种处于无意识、自由状态下的自闭症拥抱机体验评价方法,其特征在于,所GRNN模型方程式为:
其中,表示所有样本观测值Yi的加权平均,Yi表示观测值,X网络输入变量,Xi表示第i个神经元对应的学习样本σ表示网络扩展因子。
4.如权利要求3所述的一种处于无意识、自由状态下的自闭症拥抱机体验评价方法,其特征在于,所述步骤S2包括以下步骤:
S21:设置网络扩展因子的取值范围[σminmax],设置σ的取值间距Δh;
S22:取σ0=σmin,采用样本集A作为训练样本构建GRNN模型,B作为测试样本,利用建立的GRNN模型预测采样集B的所有估计值计算测试集B的预测值与实际值的误差E1,并令Emin=E1,令最佳训练样本集为A;
S23:取σ0=σmin,采用样本集B作为训练样本GRNN模型,A作为测试样本,利用建立的GRNN模型预测采样集A的所有估计值计算测试集A的预测值与实际值的误差E2,若E2<E1,则并令Emin=E2,令最佳训练样本集为B;否则Emin=E1,最佳训练样本集仍为A;
S24:取σ1=σmin+Δh,重复第二步和第三步过程,如果出现E小于S22步或者S23步中的Emin,则σ1优于σ0;否则最佳的网络扩展因子取值仍为σ0
S25:在[σminmax]内取遍所有的σ值不断更新测试样本最小误差值、最佳训练样本集、最小扩展因子;取测试样本误差最小情况下的σ值、训练样本集为最优的σ值和训练样本集。
5.如权利要求4所述的一种处于无意识、自由状态下的自闭症拥抱机体验评价方法,其特征在于,所述步骤S3还包括,
将用户体验数据发送至管理员移动终端并进行展示。
6.一种处于无意识、自由状态下的自闭症拥抱机体验评价系统,其特征在于,包括以下模块
采集模块,用于采集用户使用拥抱机的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;
训练模块,用于采集第一用户调查数据,依据所述第一用户调查数据得到结果矩阵Y,构建的GRNN模型,采用所述输入矩阵和所述结果矩阵对GRNN模型进行训练;
结果输出模块,用于采集用户使用拥抱机的第二过程视频,采用训练完成的GRNN模型对所述用户使用拥抱机的第二过程视频进行分析并获取存储用户体验数据。
7.如权利要求6所述的一种处于无意识、自由状态下的自闭症拥抱机体验评价系统,其特征在于,所述采集模块采用以下步骤获取输入矩阵,
S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7
S13:构造矩阵M=A·AT
S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ123,…,λ7]1×7
S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。
8.如权利要求7所述的一种处于无意识、自由状态下的自闭症拥抱机体验评价系统,其特征在于,所述训练模块采用的GRNN模型方程式为:
其中,表示所有样本观测值Yi的加权平均;Yi表示观测值;X网络输入变量;Xi表示第i个神经元对应的学习样本;σ表示网络扩展因子。
9.如权利要求8所述的一种处于无意识、自由状态下的自闭症拥抱机体验评价系统,其特征在于,所述训练模块采用以下步骤对GRNN模型进行训练:
S21:设置网络扩展因子的取值范围[σminmax],设置σ的取值间距Δh;
S22:取σ0=σmin,采用样本集A作为训练样本构建GRNN模型,B作为测试样本,利用建立的GRNN模型预测采样集B的所有估计值计算测试集B的预测值与实际值的误差E1,并令Emin=E1,令最佳训练样本集为A;
S23:取σ0=σmin,采用样本集B作为训练样本GRNN模型,A作为测试样本,利用建立的GRNN模型预测采样集A的所有估计值计算测试集A的预测值与实际值的误差E2,若E2<E1,则并令Emin=E2,令最佳训练样本集为B;否则Emin=E1,最佳训练样本集仍为A;
S24:取σ1=σmin+Δh,重复第二步和第三步过程,如果出现E小于S22步或者S23步中的Emin,则σ1优于σ0;否则最佳的网络扩展因子取值仍为σ0
S25:在[σminmax]内取遍所有的σ值不断更新测试样本最小误差值、最佳训练样本集、最小扩展因子;取测试样本误差最小情况下的σ值、训练样本集为最优的σ值和训练样本集。
10.如权利要求9所述的一种处于无意识、自由状态下的自闭症拥抱机体验评价系统,其特征在于,所述结果输出模块还用于,将用户体验数据发送至管理员移动终端并进行展示。
CN201910178802.4A 2019-03-11 2019-03-11 一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统 Pending CN109920539A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910178802.4A CN109920539A (zh) 2019-03-11 2019-03-11 一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910178802.4A CN109920539A (zh) 2019-03-11 2019-03-11 一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统

Publications (1)

Publication Number Publication Date
CN109920539A true CN109920539A (zh) 2019-06-21

Family

ID=66964010

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910178802.4A Pending CN109920539A (zh) 2019-03-11 2019-03-11 一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统

Country Status (1)

Country Link
CN (1) CN109920539A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160063303A1 (en) * 2014-09-02 2016-03-03 Hong Kong Baptist University Method and apparatus for eye gaze tracking
CN107273845A (zh) * 2017-06-12 2017-10-20 大连海事大学 一种基于置信区域和多特征加权融合的人脸表情识别方法
CN107608956A (zh) * 2017-09-05 2018-01-19 广东石油化工学院 一种基于cnn‑grnn的读者情绪分布预测算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160063303A1 (en) * 2014-09-02 2016-03-03 Hong Kong Baptist University Method and apparatus for eye gaze tracking
CN107273845A (zh) * 2017-06-12 2017-10-20 大连海事大学 一种基于置信区域和多特征加权融合的人脸表情识别方法
CN107608956A (zh) * 2017-09-05 2018-01-19 广东石油化工学院 一种基于cnn‑grnn的读者情绪分布预测算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王镇镇: "基于人脸子区域加权和LDA的表情识别算法", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
谷学静 等: "《交互设计中的人工情感》", 31 July 2015 *

Similar Documents

Publication Publication Date Title
Jiang et al. Expert feature-engineering vs. deep neural networks: which is better for sensor-free affect detection?
Liu et al. Towards smart educational recommendations with reinforcement learning in classroom
CN109637222B (zh) 脑科学智慧教室
CN109919102A (zh) 一种基于表情识别的自闭症拥抱机体验评价方法及系统
Bai et al. Emotional monitoring of learners based on EEG signal recognition
Romney et al. Scaling semantic domains
CN109919099A (zh) 一种基于表情识别的用户体验评价方法及系统
Qi et al. [Retracted] Higher Education Teaching Quality Evaluation Model Based on Improved RBF Neural Network
CN117237766A (zh) 一种基于多模态数据的课堂认知投入识别方法和系统
Wei et al. (Retracted) Image analysis and pattern recognition method of three-dimensional process in physical education teaching based on big data
CN109920539A (zh) 一种处于无意识、自由状态下的自闭症拥抱机体验评价方法及系统
He et al. Analysis of concentration in English education learning based on CNN model
CN109920514A (zh) 一种基于卡尔曼滤波神经网络的自闭症拥抱机体验评价方法及系统
Cheng et al. Neural cognitive modeling based on the importance of knowledge point for student performance prediction
CN109934156A (zh) 一种基于elman神经网络的用户体验评价方法及系统
Zhao et al. On-line teaching appraisal system of vocational education based on convolutional neural network and big data platform
CN109886249A (zh) 一种基于elman神经网络的蹦蹦袋体验评价方法及系统
Xiang Application and Prospect Analysis of Artificial Intelligence in the Field of Physical Education
CN109902648A (zh) 一种处于无意识、自由状态下的用户体验评价方法及系统
Liu et al. Design flow of english learning system based on item response theory
CN109886250A (zh) 一种基于kf-pls的加重毯体验评价方法及系统
CN110349673A (zh) 一种基于高斯混合分布的群体体质评估方法
Jiang et al. Ensembled neural networks applied to modeling survival rate for the patients with out-of-hospital cardiac arrest
Wu et al. Computer-assisted children physical fitness detection and exercise intervention evaluation based on artificial intelligence model
Wang et al. A Method of Students’ Online Learning Status Analysis Based on Facial Expression

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190621

RJ01 Rejection of invention patent application after publication