CN109919101A - 一种基于手机客户端的用户体验评价方法及系统 - Google Patents
一种基于手机客户端的用户体验评价方法及系统 Download PDFInfo
- Publication number
- CN109919101A CN109919101A CN201910178775.0A CN201910178775A CN109919101A CN 109919101 A CN109919101 A CN 109919101A CN 201910178775 A CN201910178775 A CN 201910178775A CN 109919101 A CN109919101 A CN 109919101A
- Authority
- CN
- China
- Prior art keywords
- user
- matrix
- expression vector
- moment
- user experience
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 68
- 238000013528 artificial neural network Methods 0.000 claims abstract description 24
- 230000008921 facial expression Effects 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 61
- 239000013604 expression vector Substances 0.000 claims description 46
- 238000012360 testing method Methods 0.000 claims description 27
- 210000004027 cell Anatomy 0.000 claims description 18
- 238000011835 investigation Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 15
- 238000001914 filtration Methods 0.000 claims description 7
- 210000002569 neuron Anatomy 0.000 claims description 7
- 238000001228 spectrum Methods 0.000 claims description 7
- 230000008451 emotion Effects 0.000 claims description 6
- 235000013399 edible fruits Nutrition 0.000 claims description 2
- 238000012827 research and development Methods 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000005457 optimization Methods 0.000 abstract description 2
- 238000011160 research Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于手机客户端的用户体验评价方法及系统,通过开发一款手机App,获取用户在使用新研发APP的过程视频(可以通过手机App现场拍摄或者读取视频文件)传输到云端;在云端把该视频分解成连续的系列照片;应用人脸识别技术,识别该系列照片对应的人脸表情类型,获得表情随时间变化的代码向量,在云平台上,通过KFNN神经网络建立用户体验数据与对应用户体验过程评分的复杂非线性关系模型;进行视频的录入即可自动获得该用户体验过程的用户体验评价结果,作为企业进行APP产品升级优化的依据。
Description
技术领域
本发明涉及大数据领域,具体涉及一种基于手机客户端的用户体验评价方法及系统。
背景技术
如今,各种APP软件产品的开发层出不穷,一个APP软件产品是否能够成功,用户体验逐渐变成了一个关键因素。大数据已成为提升用户体验的重要参考工具,有效的数据挖掘和分析可以被企业用来提升现有产品的用户体验,通过上述结果来开发新的产品和服务。有针对性的采取用户体验措施,从而使用户在心理上有一个良好的用户体验,但是用户体验结果很难用一种直观、真实的方式表达出来,然而表情是人类用来表达各种情绪状态最直观、最真实的一种方式,是一种十分重要的非语言交流手段。
现有技术在APP软件研发过程中,采用传统用户调查的方式,无法快速准确获取新研发APP软件的用户使用体验数据,研发效率较低。
发明内容
为了解决现在产品研发过程中,研发人员不能快速获取新研发APP用户体验数据的问题,本申请提供一种基于手机客户端的用户体验评价方法,包括以下步骤
S1:采集用户使用测试APP的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;
S2:通过测试APP采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建KFNN模型,采用所述输入矩阵和所述结果矩阵对KFNN模型进行训练;
S3:采集用户使用目标APP的第二过程视频,采用训练完成的KFNN模型对所述用户使用目标APP的第二过程视频进行分析并获取用户体验数据。进一步的,所述步骤S1包括,
S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n;
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7;
S13:构造矩阵M=A·AT;
S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ1,λ2,λ3,…,λ7]1×7;
S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。
进一步的,所述步骤S2包括以下步骤,
S21:生成前馈神经网络,记M为输入层神经元数,s1为隐层神经元数,l为输出层神经元数;输入层至隐含层神经元的连接权值阈值为隐含层至输出层的连接权值阈值为
S22:构建卡尔曼滤波过程中的系统方程:
上述公式中:X(k)是k时刻的系统状态,U(k)是k时刻对系统的控制向量,φ和B是系统参数,Z(k)是k时刻的测量值,H是测量系统的参数。w(k)和v(k)是高斯白噪声;
S23:KF神经网络中所有权值和阈值组成的状态变量X为:
设X中的个数为n个值;
S24:求出k-1时刻的最优状态估计X(k-1|k-1)和该状态对应的协方差P(k-1|k-1),根据上述S22中的方程进行k时刻状态估计得到X(k|k-1);
S25:根据k时刻状态估计得X(k|k-1)计算k-1时刻的协方差P(k|k-1);
S26:求出k时刻最优状态估计X(k|k);
S27:求出k时刻最优状态估计X(k|k)对应的协方差P(k|k)。
进一步的,所述步骤S3还包括,
将用户体验数据发送至管理员移动终端并进行展示。
为了保证上述方法的实施,本发明还提供一种基于手机客户端的用户体验评价系统,其特征在于,包括以下模块,
采集模块,用于采集用户使用测试APP的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;
训练模块,用于通过测试APP采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建KFNN模型,采用所述输入矩阵和所述结果矩阵对KFNN模型进行训练;
结果输出模块,采集用户使用目标APP的第二过程视频,采用训练完成的KFNN模型对所述用户使用目标APP的第二过程视频进行分析并获取用户体验数据。
进一步的,所述采集模块采用以下步骤获取输入矩阵,
S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n;
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7;
S13:构造矩阵M=A·AT;
S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ1,λ2,λ3,…,λ7]1×7;
S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。
进一步的,所述训练模块还执行以下步骤,
S21:生成前馈神经网络,记M为输入层神经元数,s1为隐层神经元数,l为输出层神经元数;输入层至隐含层神经元的连接权值阈值为隐含层至输出层的连接权值阈值为
S22:构建卡尔曼滤波过程中的系统方程:
上述公式中:X(k)是k时刻的系统状态,U(k)是k时刻对系统的控制向量,φ和B是系统参数,Z(k)是k时刻的测量值,H是测量系统的参数。w(k)和v(k)是高斯白噪声;
S23:KF神经网络中所有权值和阈值组成的状态变量X为:
设X中的个数为n个值;
S24:求出k-1时刻的最优状态估计X(k-1|k-1)和该状态对应的协方差P(k-1|k-1),根据上述S22中的方程进行k时刻状态估计得到X(k|k-1);
S25:根据k时刻状态估计得X(k|k-1)计算k-1时刻的协方差P(k|k-1);
S26:求出k时刻最优状态估计X(k|k);
S27:求出k时刻最优状态估计X(k|k)对应的协方差P(k|k)。
进一步的,所述结果输出模块还用于,将用户体验数据发送至管理员移动终端并进行展示。
本发明的有益效果是,
1遵循神经和肌肉等解剖学,具有共同特征;表情识别是一种无意识、自由状态下的数据获取方法,保证了数据的可靠性与客观性。
2容易整合到数据分析系统进行分析和可视化。
3允许其他软件实时访问面部表情分析系统的数据收集。
4能够分析所有种族的面部表情,包括儿童的面部表情。
5本发明通过训练完成的神经网络模型来对用户在使用APP过程的视频进行分析快速得出用户体验数据,可以方便研发人员快速对新研发APP进行评估,提高了APP的研发效率。
附图说明
图1为本发明一种基于手机客户端的用户体验评价方法流程图。
图2为本发明一种基于手机客户端的用户体验评价系统结构示意图。
图3为本发明一实施例二维表情谱。
图4为本发明一实施例KNNF神经网络示意图。
具体实施方式
在下面的描述中,出于说明的目的,为了提供对一个或多个实施例的全面理解,阐述了许多具体细节。然而,很明显,也可以在没有这些具体细节的情况下实现这些实施例。
针对产品研发过程中,研发人员不能快速获取新研发APP用户体验数据的问题,本发明一种基于手机客户端的用户体验评价方法及系统
本发明通过采集用户视频和用户调查数据对KNNF神经网络进行训练,通过训练完成的KNNF神经网络对用户使用新研发APP的视频识别,快速获取用户的用户体验数据。
本发明在实施过程中采用KNNF(Kalman Filter Neutral Network)网络,中文名称为卡尔曼滤波神经网络,建立用户体验数据与对应用户体验过程评分的复杂非线性关系模型;进行视频的录入即可自动获得该用户体验过程的用户体验评价结果,作为企业进行新研发APP产品升级优化的依据。卡尔曼滤波是一种递推线性最小方差估计,主要解决从加法型信号中提取有用信号,根据前一个估计值和最近一个观测数据来估计信号的当前值,对于状态空间模型的状态矢量估计是一种强有力的手段,在理论上具有重要价值。
以下将结合附图对本发明的具体实施例进行详细描述。
为了说明本发明提供的基于手机客户端的用户体验评价方法,图1示出了本发明一种基于手机客户端的用户体验评价方法流程图。
如图1所示,本发明提供的基于手机客户端的用户体验评价方法包括以下步骤:S1:采集用户使用测试APP的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;
S2:通过测试APP采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建KFNN模型,采用所述输入矩阵和所述结果矩阵对KFNN模型进行训练;
S3:采集用户使用目标APP的第二过程视频,采用训练完成的KFNN模型对所述用户使用目标APP的第二过程视频进行分析并获取用户体验数据。
第一过程视频,第一过程系列照片均为用于训练神经网络模型的训练数据,第二过程视频为待检测数据,采用已经训练好的神经网络对第二过程视频进行分析获取第二过程视频对应的用户体验数据。
测试APP安装于用户手机端用于获取用户使用测试APP的第一过程视频和调查结果数据,测试APP通过用户手机端的前置摄像头获取用户使用测试APP的第一过程视频。测试APP在完成测试后直接通过用户输入来获取用户使用测试APP过程的调查结果数据。
目标APP为待检测的新研发APP,在用户使用目标APP的过程中,测试APP通过用户手机端的前置摄像头获取用户第二过程视频。
测试APP的测试内容与目标APP为同一类型的内容,例如,如果目标APP为游戏类APP,则测试APP通过一段模拟游戏来获取用户玩游戏过程中的第一过程视频,若目标APP为音乐播放类APP,则测试APP通过一段模拟音乐播放来获取用户听音乐过程中的第一过程视频,测试APP使用与目标APP同一类型的测试内容,使得神经网络训练更加有针对性,提高了通过神经网络获取目标APP用户体验数据的准确性。
本发明采集用户的第一过程视频和调查结果来对神经网络进行训练,神经网络训练好后,输入同一用户的第二过程视频获取该用户的用户体验数据。相对于传统的采用多个用户数据进行神经网络训练,训练好的神经网络对多个不同用户数据进行测试的方式,本发明针对每一个用户训练一个神经网络,每个用户都有自已特定的神经网络参数,本发明相对于现有技术中的通用神经网络产品具有更高的结果检测准确性。
在本发明实施过程中步骤S1包括,获取用户在使用测试APP的过程视频(可以通过手机App现场拍摄或者读取视频文件)传输到云端,在云端把该视频分解成连续的系列照片,应用人脸识别技术,识别该系列照片对应的人脸表情,获得表情随时间变化的代码向量(7种表情类型愤怒、厌恶、恐惧、高兴、伤心、惊讶、无情绪分别对应的代码为1、2、3、4、5、6、7)、年龄N(岁)、性别B(男/女对应代码为1/0)对该数据矩阵作以下处理,获得输入矩阵X;
具体的,在本发明一实施例中步骤S1包括,
S11:画出表情代码向量随时间变化的二维表情谱,其中,横坐标为时间,纵坐标为表情类型代码1-7,得到“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T;利用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n(en为七种表情向量之一)。例如,当n=10时,E=[5,7,6,6,4,4,4,4,6,7];画出表情代码矩阵随时间的表情谱如图3所示,由表情谱得到表情谱矩阵A:
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7;
S13:构造新的矩阵为M=A·AT;
S14:计算出矩阵M的特征值,其征值矩阵为λ=[λ1,λ2,λ3,…,λ7]1×7;
S15:输入参数矩阵由矩阵特征值、性别、年龄构成X=[λ,N,B]1×9。
在本发明实施过程中步骤S2包括,调查用户该视频过程的真实用户体验,选择分数1分、2分、3分、4分、5分(分别对应体验过程很差、差、一般、好、很好)之一作为体验测试结果,并作为输出结果y;应用大量输入矩阵X与对应输出结果矩阵Y.
在本发明实施过程中,步骤S2还包括以下步骤,
S21:生成前馈神经网络,记M为输入层神经元数,s1为隐层神经元数,l为输出层神经元数;输入层至隐含层神经元的连接权值阈值为隐含层至输出层的连接权值阈值为
S22:构建卡尔曼滤波过程中的系统方程:
上述公式中:X(k)是k时刻的系统状态,U(k)是k时刻对系统的控制向量,φ和B是系统参数,Z(k)是k时刻的测量值,H是测量系统的参数。w(k)和v(k)是高斯白噪声;
S23:KF神经网络中所有权值和阈值组成的状态变量X为:
设X中的个数为n个值;
S24:求出k-1时刻的最优状态估计X(k-1|k-1)和该状态对应的协方差P(k-1|k-1),根据上述S22中的方程进行k时刻状态估计得到X(k|k-1);
S25:根据k时刻状态估计得X(k|k-1)计算k-1时刻的协方差P(k|k-1);
S26:求出k时刻最优状态估计X(k|k);
S27:求出k时刻最优状态估计X(k|k)对应的协方差P(k|k)。
在本发明实施过程中,步骤S3包括上述训练好的KNNF神经网络放入云端,把该过程开发成软件;对于新研发的APP,只要录入视频即可自动获得该用户体验过程的用户体验评价结果,对公司进行产品升级优化结果进行评价。
应当指出的是,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的普通技术人员在本发明的实质范围内所做出的变化、改性、添加或替换,也应属于本发明的保护范围。
Claims (8)
1.一种基于手机客户端的用户体验评价方法,其特征在于,包括以下步骤
S1:采集用户使用测试APP的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;
S2:通过测试APP采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建KFNN模型,采用所述输入矩阵和所述结果矩阵对KFNN模型进行训练;
S3:采集用户使用目标APP的第二过程视频,采用训练完成的KFNN模型对所述用户使用目标APP的第二过程视频进行分析并获取用户体验数据。
2.如权利要求1所述的一种基于手机客户端的用户体验评价方法,其特征在于,所述步骤S1包括,
S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n;
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7;
S13:构造矩阵M=A·AT;
S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ1,λ2,λ3,…,λ7]1×7;
S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。
3.如权利要求2所述的一种基于手机客户端的用户体验评价方法,其特征在于,所述步骤S2还包括,
S21:生成前馈神经网络,记M为输入层神经元数,s1为隐层神经元数,l为输出层神经元数;输入层至隐含层神经元的连接权值阈值为隐含层至输出层的连接权值阈值为
S22:构建卡尔曼滤波过程中的系统方程:
上述公式中:X(k)是k时刻的系统状态,U(k)是k时刻对系统的控制向量,φ和B是系统参数,Z(k)是k时刻的测量值,H是测量系统的参数。w(k)和v(k)是高斯白噪声;
S23:KF神经网络中所有权值和阈值组成的状态变量X为:
设X中的个数为n个值;
S24:求出k-1时刻的最优状态估计X(k-1|k-1)和该状态对应的协方差P(k-1|k-1),根据上述S22中的方程进行k时刻状态估计得到X(k|k-1);
S25:根据k时刻状态估计得X(k|k-1)计算k-1时刻的协方差P(k|k-1);
S26:求出k时刻最优状态估计X(k|k);
S27:求出k时刻最优状态估计X(k|k)对应的协方差P(k|k)。
4.如权利要求3所述的一种基于手机客户端的用户体验评价方法,其特征在于,所述步骤S3还包括,
将用户体验数据发送至管理员移动终端并进行展示。
5.一种基于手机客户端的用户体验评价系统,其特征在于,包括以下模块
采集模块,用于采集用户使用测试APP的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;
训练模块,用于通过测试APP采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建KFNN模型,采用所述输入矩阵和所述结果矩阵对KFNN模型进行训练;
结果输出模块,采集用户使用目标APP的第二过程视频,采用训练完成的KFNN模型对所述用户使用目标APP的第二过程视频进行分析并获取用户体验数据。
6.如权利要求5所述的一种基于手机客户端的用户体验评价系统,其特征在于,所述采集模块采用以下步骤获取输入矩阵,
S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n;
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7;
S13:构造矩阵M=A·AT;
S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ1,λ2,λ3,…,λ7]1×7;
S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。
7.如权利要求6所述的一种基于手机客户端的用户体验评价系统,其特征在于,所述训练模块还执行以下步骤:
S21:生成前馈神经网络,记M为输入层神经元数,s1为隐层神经元数,l为输出层神经元数;输入层至隐含层神经元的连接权值阈值为隐含层至输出层的连接权值阈值为
S22:构建卡尔曼滤波过程中的系统方程:
上述公式中:X(k)是k时刻的系统状态,U(k)是k时刻对系统的控制向量,φ和B是系统参数,Z(k)是k时刻的测量值,H是测量系统的参数。w(k)和v(k)是高斯白噪声;
S23:KF神经网络中所有权值和阈值组成的状态变量X为:
设X中的个数为n个值;
S24:求出k-1时刻的最优状态估计X(k-1|k-1)和该状态对应的协方差P(k-1|k-1),根据上述S22中的方程进行k时刻状态估计得到X(k|k-1);
S25:根据k时刻状态估计得X(k|k-1)计算k-1时刻的协方差P(k|k-1);
S26:求出k时刻最优状态估计X(k|k);
S27:求出k时刻最优状态估计X(k|k)对应的协方差P(k|k)。
8.如权利要求7所述的一种基于手机客户端的用户体验评价系统,其特征在于,所述结果输出模块还用于,将用户体验数据发送至管理员移动终端并进行展示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910178775.0A CN109919101A (zh) | 2019-03-11 | 2019-03-11 | 一种基于手机客户端的用户体验评价方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910178775.0A CN109919101A (zh) | 2019-03-11 | 2019-03-11 | 一种基于手机客户端的用户体验评价方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109919101A true CN109919101A (zh) | 2019-06-21 |
Family
ID=66964005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910178775.0A Pending CN109919101A (zh) | 2019-03-11 | 2019-03-11 | 一种基于手机客户端的用户体验评价方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109919101A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297906A (zh) * | 2019-06-28 | 2019-10-01 | 谭浩 | 生成访谈报告的方法、计算机可读存储介质和终端设备 |
CN114282882A (zh) * | 2021-11-15 | 2022-04-05 | 深圳市东信时代信息技术有限公司 | 素材工单审核方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106019940A (zh) * | 2016-06-21 | 2016-10-12 | 重庆科技学院 | 基于ukf神经网络的转炉炼钢工艺成本控制方法及系统 |
CN109248413A (zh) * | 2018-09-03 | 2019-01-22 | 秦怡静 | 一种基于bp神经网络和遗传算法的掷实心球姿势矫正方法 |
-
2019
- 2019-03-11 CN CN201910178775.0A patent/CN109919101A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106019940A (zh) * | 2016-06-21 | 2016-10-12 | 重庆科技学院 | 基于ukf神经网络的转炉炼钢工艺成本控制方法及系统 |
CN109248413A (zh) * | 2018-09-03 | 2019-01-22 | 秦怡静 | 一种基于bp神经网络和遗传算法的掷实心球姿势矫正方法 |
Non-Patent Citations (1)
Title |
---|
王得胜: "气味用户体验测试评价技术研究及应用", 《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297906A (zh) * | 2019-06-28 | 2019-10-01 | 谭浩 | 生成访谈报告的方法、计算机可读存储介质和终端设备 |
CN114282882A (zh) * | 2021-11-15 | 2022-04-05 | 深圳市东信时代信息技术有限公司 | 素材工单审核方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107220600B (zh) | 一种基于深度学习的图片生成方法及生成对抗网络 | |
CN101561868B (zh) | 基于高斯特征的人体运动情感识别方法 | |
CN102715889B (zh) | 一种脑力负荷检测方法 | |
CN106779087A (zh) | 一种通用机器学习数据分析平台 | |
CN105841961A (zh) | 一种基于Morlet小波变换和卷积神经网络的轴承故障诊断方法 | |
CN107945817A (zh) | 心肺音信号分类方法、检测方法、装置、介质和计算机设备 | |
WO2024098649A1 (zh) | 一种基于生理唤醒识别的街道绿化品质检测方法 | |
CN106874950A (zh) | 一种暂态电能质量录波数据的识别分类方法 | |
CN108694953A (zh) | 一种基于Mel子带参数化特征的鸟鸣自动识别方法 | |
CN109919099A (zh) | 一种基于表情识别的用户体验评价方法及系统 | |
CN110245080A (zh) | 生成场景测试用例的方法及装置 | |
CN114429152A (zh) | 基于动态指数对抗性自适应的滚动轴承故障诊断方法 | |
CN104361203A (zh) | 基于脑网络时空动力学分析的社会情绪能力评测系统 | |
CN109919101A (zh) | 一种基于手机客户端的用户体验评价方法及系统 | |
CN109815855A (zh) | 一种基于机器学习的电子设备自动测试方法及系统 | |
CN107301497A (zh) | 工作记忆能力考核的方法及系统 | |
CN115919330A (zh) | 基于多层次se注意力和图卷积的eeg情绪状态分类方法 | |
CN101561881A (zh) | 人体非程式化运动的情感识别方法 | |
CN108717548A (zh) | 一种面向传感器动态增加的行为识别模型更新方法及系统 | |
CN103150476B (zh) | 一种基于数据站场的系统效能评估方法 | |
CN117542121B (zh) | 基于计算机视觉的智能化训练考核系统及方法 | |
CN114699063A (zh) | 体脂率的测量方法、装置及计算机可读存储介质 | |
CN110192860A (zh) | 一种面向网络信息认知的脑成像智能测试分析方法及系统 | |
CN112998652B (zh) | 一种光电容积脉搏波压力识别方法及系统 | |
Bilang et al. | Cactaceae detection using MobileNet architecture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190621 |