CN117114048A - 一种app用户感知结果预测方法、系统及存储介质 - Google Patents
一种app用户感知结果预测方法、系统及存储介质 Download PDFInfo
- Publication number
- CN117114048A CN117114048A CN202311025509.7A CN202311025509A CN117114048A CN 117114048 A CN117114048 A CN 117114048A CN 202311025509 A CN202311025509 A CN 202311025509A CN 117114048 A CN117114048 A CN 117114048A
- Authority
- CN
- China
- Prior art keywords
- app user
- improved
- neural network
- optimization algorithm
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008447 perception Effects 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 120
- 238000005457 optimization Methods 0.000 claims abstract description 74
- 238000013528 artificial neural network Methods 0.000 claims abstract description 47
- 230000000739 chaotic effect Effects 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000013507 mapping Methods 0.000 claims abstract description 11
- 230000007246 mechanism Effects 0.000 claims abstract description 5
- 238000011156 evaluation Methods 0.000 claims description 18
- 241000283973 Oryctolagus cuniculus Species 0.000 claims description 8
- 230000006872 improvement Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 241000272184 Falconiformes Species 0.000 description 42
- 230000006870 function Effects 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 8
- 230000005484 gravity Effects 0.000 description 6
- 230000000750 progressive effect Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 241000283153 Cetacea Species 0.000 description 2
- 241000282575 Gorilla Species 0.000 description 2
- 102100032352 Leukemia inhibitory factor Human genes 0.000 description 2
- 108090000581 Leukemia inhibitory factor Proteins 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013401 experimental design Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000002028 premature Effects 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 241000282461 Canis lupus Species 0.000 description 1
- 241000254173 Coleoptera Species 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000034994 death Effects 0.000 description 1
- 231100000517 death Toxicity 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000003608 fece Anatomy 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种APP用户感知结果预测方法、系统及存储介质,涉及APP用户感知预测技术领域,从三个方面改进了哈里斯鹰优化算法,引入改进的Logistic混沌映射策略初始化哈里斯鹰种群,增加算法寻找最优解的概率;引入正态变异扰动的正交对立学习机制,更好的提高算法收敛速度;加入改进的正余弦算子,避免算法陷入局部最优的问题。并使用改进的哈里斯鹰优化算法对BP神经网络进行优化,进而使用数据集进行训练,得到最终的APP用户感知预测模型,以对用户感知结果进行预测。本发明提出的改进的哈里斯鹰优化算法有很好的寻优能力,使得模型的预测精度更高。
Description
技术领域
本发明涉及APP用户感知预测技术领域,更具体的说是涉及一种APP用户感知结果预测方法、系统及存储介质。
背景技术
近年来,智能应用APP行业发展迅速,用户数量达到了前所未有的规模。不同的用户对APP的网络状况有不同的感知,这使得移动运营商需要提升网络质量以满足不同用户的需求。因此,需要一种方法用于APP用户感知结果预测,预测结果有助于移动运营商获取用户的感知结果,对于感知不好的网络状况进行优化,以减少用户的流失。用于分类预测的方法有很多,在这些方法中,优化对提高预测准确率起着重要作用。目前已报道的优化方法非常多,其中哈里斯鹰优化算法因具有控制参数少、全局搜索能力出色和易于实现等优点受到广泛关注,而其精度有待提高。因此如何对APP用户感知结果进行科学、准确的预测,是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种APP用户感知结果预测方法、系统及存储介质,通过改进哈里斯鹰优化算法,对BP神经网络进行优化,提高了模型预测精度。
为了实现上述目的,本发明提供如下技术方案:
一种APP用户感知结果预测方法,包括以下步骤:
步骤1、建立APP用户历史感知数据集;
步骤2、对哈里斯鹰优化算法进行改进;
步骤3、使用改进的哈里斯鹰优化算法对BP神经网络进行优化;
步骤4、使用APP用户历史感知数据集对优化的BP神经网络进行训练,得到APP用户感知预测模型;
步骤5、使用所述APP用户感知预测模型对APP用户感知结果进行预测。
可选的,所述步骤1中,建立APP用户历史感知数据集,具体包括以下步骤:
采集环境搭建:搭建用户使用APP时的数据采集环境;
指标的确立:基于APP属性,确定评价指标;
数据采集:依据所述评价指标,对用户使用过程中的评价指标进行采集,并按照预设规则对采集的评价指标进行评级;
数据预处理:对所述评价指标中的非数值类指标进行排序编码,将评价指标分为三类,分别是分类型、二分类型以及数值型;对评价指标以及评级结果进行归一化处理。
可选的,所述步骤2中,从三个方面对哈里斯鹰优化算法进行改进。
(1)引入改进的Logistic混沌映射策略初始化哈里斯鹰种群,增加算法寻找最优解的概率。
原始的种群初始化方法得到的种群均匀性较差,采用Logistic混沌映射对种群进行初始化。Logistic混沌映射是一种常用的混沌映射,它可以生成一系列均匀分布的随机数。通过将这些随机数映射到一个指定的区间内,可以用它们来初始化算法的种群,使得种群多样性更丰富,传统的Logistic混沌映射的公式如下所示:
Xi+1=μXi.*(1-Xi)
改进的Logistic混沌映射的公式为:
Xi+1=μ/4*sin(Xi)
其中,Xi+1为第i+1代的种群位置,μ为常数,取值为2,Xi为第i代的种群位置。
(2)引入正态变异扰动的正交对立学习机制,更好的提高算法收敛速度。
基于对立学习(Opposition-Based Learning,OBL)策略是一种有效的优化技术。其主要思想是根据搜索空间中已有的点获取对点,从而挖掘有效信息。在OBL的基础上,提出了重心反向,充分利用群搜索信息,以重心点为参考点计算反向点。
正交实验设计用于通过使用较少的正交表试验来找到每个因素不同水平的令人信服的组合,这已被嵌入到性能增强和应用的算法中。
将OBL策略与正交实验设计相结合,设计了一种基于对立的正交学习(OrthogonalOpposition-Based Learning,OOBL)策略交叉法从所选点与相对点之间逃避局部最优。根据OOBL策略的设计,搜索空间的维数与因素相对应。利用维度上点和其对应的值进行正交实验构造实验解时,如果元素为0,相应维数中确定正解的值;否则,如果正交表的元素为1,则在实验解的相应维数中取相对个体的值。
假设正交表的行数为R,则当前正解通过正交实验将得到R个实验解。计算R的公式如下所示,其中函数“ceil”用于返回向上舍入到最近整数的元素值。生成2层和D因素正交表的算法见。
根据正交表的特点,第一个实验解与正解相同,不需要评价。(R-1)实验解,称为正交对立候选解。在OOBL策略中,从P1分裂阶段产生的2*D点中随机选择一个点作为正解,对面个体使用2*D分裂点相对于重心点计算出的一组重心-对位点。当候选解使用对面个体的信息时,将随机选取对面点任意点上任意维的信息。因此,它有助于充分利用正解和对面个体的不同维度的信息,选择更好的解进入下一次迭代。
通过加入正态变异扰动提升正交对立学习的搅扰和搜索能力。正态变异通过对好的哈里斯鹰进行适当干扰,使其重新进行搜寻,以免陷入局部最优。加入正态变异扰动的位置更新公式为:
X=Rabbit_Location+F.*randn.*Rabbit_Location
其中,Rabbit_location为兔子的位置,rand是0到1之间的随机数,randn表示均值为0方差为1的正态分布。
(3)加入改进的正余弦算子,避免算法陷入局部最优的问题。
在哈里斯鹰优化算法中,哈里斯鹰的位置更新主要受到位置较优的哈里斯鹰的引导,为提高哈里斯鹰优化算法搜索精度,引入正余弦搜索算法。哈里斯鹰优化算法进行位置更新之后,通过正余弦算子再次更新位置;
正弦余弦算子搜索的数学表达式为:
其中,Pj(t)表示全局最优位置,max_it表示最大迭代次数,Xij(t)表示t时刻种群的位置,Xij(t+1)表示位置更新后t+1时刻种群的位置,r1随迭代次数的增加而自适应减少,a为常数此处取值为2;r2,r3和r4为[0,1]上的均匀分布的随机数;
将正余弦算子融入到哈里斯鹰优化算法中,改进的公式为:
X1(i,j)=(1-w)*X(i,j)+w*sin(r1)*abs(r2*Rabbit_location(j)-X(i,j))
X1(i,j)=(1-w)*X(i,j)+w*cos(r1)*abs(r2*Rabbit_location(j)-X(i,j))
其中为X1(i,j)更新后位置,w=wmin+(wmax-wmin)*sin(pi*t/T),w为非线性学习因子,wmin,wmax分别为最小和最大权值,X(i,j)为更新前的位置,sin(r1),cos(r1)为正弦和余弦,Rabbit_location(j)为兔子的位置。
可选的,所述步骤3中,使用改进的哈里斯鹰优化算法对BP神经网络进行优化,具体包括以下步骤:
步骤3.1、搭建BP神经网络,利用改进的哈里斯鹰优化算法初始化BP神经网络的权值和阈值;
步骤3.2、计算适应度值,将通过迭代产生的最优个体保留,然后逐次迭代以得到最佳种群;
步骤3.3、判断改进的哈里斯鹰优化算法的迭代是否满足次数要求,若是,则获得最佳初始权值和阈值,否则继续执行步骤3.2;
步骤3.4、进行BP神经网络的预测,通过BP神经网络进行权值和阈值更新,如果满足误差精度和次数要求则结束执行,否则,继续执行操作。
可选的,所述步骤4中,使用APP用户历史感知数据集对优化的BP神经网络进行训练时,以评价指标为特征,以评级结果为标签,对优化的BP神经网络进行训练。
一种APP用户感知结果预测系统,包括:
数据集建立模块,用于建立APP用户历史感知数据集;
算法改进模块,用于对哈里斯鹰优化算法进行改进;
模型优化模块,用于使用改进的哈里斯鹰优化算法对BP神经网络进行优化;
模型训练模块,用于使用APP用户历史感知数据集对优化的BP神经网络进行训练,得到APP用户感知预测模型;
预测模块,用于使用所述APP用户感知预测模型对APP用户感知结果进行预测。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器进行加载,以执行以上任一项所述的一种APP用户感知结果预测方法中的步骤。
经由上述的技术方案可知,本发明提供了一种APP用户感知结果预测方法、系统及存储介质,与现有技术相比,具有以下有益效果:
本发明从三个方面改进了哈里斯鹰优化算法,引入改进的Logistic混沌映射策略初始化哈里斯鹰种群,增加算法寻找最优解的概率;引入正态变异扰动的正交对立学习机制,更好的提高算法收敛速度;加入改进的正余弦算子,避免算法陷入局部最优的问题。并使用改进的哈里斯鹰优化算法对BP神经网络进行优化。本发明提出的改进的哈里斯鹰优化算法有很好的寻优能力、预测精度更高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明改进的哈里斯鹰优化算法优化BP神经网络方法流程图;
图2为实施例2中一种APP用户感知结果预测系统示意图;
图3为实施例4中一种APP用户感知结果预测装置示意图;
图4(a)为实施例5步骤二中八种算法在基准测试函数F1条件下的收敛图;
图4(b)为实施例5步骤二中八种算法在基准测试函数F2条件下的收敛图;
图4(c)为实施例5步骤二中八种算法在基准测试函数F3条件下的收敛图;
图4(d)为实施例5步骤二中八种算法在基准测试函数F4条件下的收敛图;
图4(e)为实施例5步骤二中八种算法在基准测试函数F5条件下的收敛图;
图4(f)为实施例5步骤二中八种算法在基准测试函数F6条件下的收敛图;
图4(g)为实施例5步骤二中八种算法在基准测试函数F7条件下的收敛图;
图4(h)为实施例5步骤二中八种算法在基准测试函数F8条件下的收敛图;
图5(a)为实施例5步骤三中四种算法在基准测试函数F1条件下的收敛图;
图5(b)为实施例5步骤三中四种算法在基准测试函数F2条件下的收敛图;
图5(c)为实施例5步骤三中四种算法在基准测试函数F3条件下的收敛图;
图5(d)为实施例5步骤三中四种算法在基准测试函数F4条件下的收敛图;
图5(e)为实施例5步骤三中四种算法在基准测试函数F5条件下的收敛图;
图5(f)为实施例5步骤三中四种算法在基准测试函数F6条件下的收敛图;
图5(g)为实施例5步骤三中四种算法在基准测试函数F7条件下的收敛图;
图5(h)为实施例5步骤三中四种算法在基准测试函数F8条件下的收敛图;
图6为实施例4中一种APP用户感知结果预测装置界面示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本发明实施例公开了一种APP用户感知结果预测方法,参见图1,包括以下步骤:
步骤1、按照ITU-T标准,建立APP用户历史感知数据集,包括采集环境搭建、指标的确立、数据采集、数据预处理。
以手机游戏《王者荣耀》作为目标APP,其用户历史感知数据集建立过程如下:
采集环境搭建:在现网条件下进行测试。测试用户需要一台RAM为4GB,Ubuntu20.04.3系统笔记本电脑和一部RAM为8GB的安卓智能手机,安卓智能手机连接笔记本电脑的WiFi网络,笔记本电脑需安装Wireshark抓包软件,手机上需安装Ping测试软件和王者荣耀游戏。
指标的确立:确定所需指标:考虑的特征有20种,分别是玩家序号、性别序号、时间段、IP类型、归属地序号、运营商序号、游戏结果、游戏模式、游戏队伍、额外时延、额外抖动、额外丢包、原始时延、原始抖动、原始丢包、最值差、技能水平、击杀次数、死亡次数、助攻次数。评分分为3类,即标签为:优、中、差。
Wireshark用来抓取IP,Ping测试软件通过Wireshark抓取的IP,记录从进入游戏到游戏结束的Ping值。
数据采集:
选择不同的测试人员进行测试,分早,中,晚分别测试,游戏可分为三种模式,匹配模式、排位模式和娱乐模式,测试人员随机选择一种模式开始游戏。在进入游戏的同时,打开手机上下载的Ping测试软件,获取整局游戏的Ping值,然后游戏结束,将记录的Ping值进行保存,并通过问卷调查形式记录整局游戏的感受情况,给出评分。
数据预处理:
由于影响手机游戏用户感知结果的因素较为复杂,进行数据采集时,不同的网络环境状况和人的主观感受都会影响数据的采集。因此,对原始数据进行预处理是十分重要的。
由于本发明所采集的数据集,部分指标是名称或者代号,并非数值,本发明对这些指标进行排序编码,让每个指标都能用数字表示,便于后续的预测工作,将其分为三类,分别是:分类型、二分类型以及数值型。
不同的指标对应的值有不同的量纲,为了让数据更加直观,更加适合进行预测工作,本发明对所采集的手机游戏用户感知结果数据进行归一化处理。
步骤2、从三个方面对哈里斯鹰优化算法进行改进,具体过程如下:
步骤2.1、通过利用Logistic混沌映射初始化种群。
原始的种群初始化方法得到的种群均匀性较差,采用Logistic混沌映射对种群进行初始化。Logistic混沌映射是一种常用的混沌映射,它可以生成一系列均匀分布的随机数。通过将这些随机数映射到一个指定的区间内,可以用它们来初始化算法的种群,使得种群多样性更丰富,传统的Logistic混沌映射的公式如下所示:
Xi+1=μXi.*(1-Xi)
将传统的Logistic进行改进,改进公式如下:
Xi+1=μ/4*sin(Xi)
其中,Xi+1为第i+1代的种群位置,μ为常数,取值为2,Xi为第i代的种群位置。
步骤2.2、将产生的混沌序列映射到解的搜索空间内:
Xid=XL+(XU-XL)×Zid
式中,Xid为哈里斯鹰的位置;XU为范围上限,XL为范围下限;Zid为混沌序列。
步骤2.3、引入正态变异扰动的正交对立学习机制,更好的提高算法收敛速度。
基于对立学习(Opposition-Based Learning,OBL)策略是一种有效的优化技术。其主要思想是根据搜索空间中已有的点获取对点,从而挖掘有效信息。OBL的基本定义如下:
设P(x1,x2,...,xn)是n维搜索空间中x1,...xn∈R和xi∈[ai,bi]的一个点。对反向点对应的/>坐标定义为:
在OBL的基础上,提出了重心反向,充分利用群搜索信息,以重心点为参考点计算反向点。重心点和基于重心反向点定义如下:
设(X1,...,Xn)是D维搜索空间中的n个点,每个点都有一个单位质量Xi=(xi1,xi2,...,xiD),i=1,2,...,n,重心点Gj=(G1,G2,...,GD)定义如下:
点Xi的重心反向点计算公式为:
反向点是在动态边界的搜索空间[ai,bi],动态边界计算公式为:
ai=min(Xi),bi=max(Xi)
当反向点超出了动态边界,通过公式重新计算点,其中rand是0到1之间的随机数。
步骤2.4、正交实验设计用于通过使用较少的正交表试验来找到每个因素不同水平的令人信服的组合,这已被嵌入到性能增强和应用的算法中。
将OBL策略与正交实验设计相结合,设计了一种基于对立的正交学习(OrthogonalOpposition-Based Learning,OOBL)策略交叉法从所选点与相对点之间逃避局部最优。根据OOBL策略的设计,搜索空间的维数与因素相对应。利用维度上点和其对应的值进行正交实验构造实验解时,如果元素为0,相应维数中确定正解的值;否则,如果正交表的元素为1,则在实验解的相应维数中取相对个体的值。
假设正交表的行数为R,则当前正解通过正交实验将得到R个实验解。计算R的公式如下所示,其中函数“ceil”用于返回向上舍入到最近整数的元素值。生成2层和D因素正交表的算法见。
根据正交表的特点,第一个实验解与正解相同,不需要评价。(R-1)实验解,称为正交对立候选解。在OOBL策略中,从P1分裂阶段产生的2*D点中随机选择一个点作为正解,对面个体使用2*D分裂点相对于重心点计算出的一组重心-对位点。当候选解使用对面个体的信息时,将随机选取对面点任意点上任意维的信息。因此,它有助于充分利用正解和对面个体的不同维度的信息,选择更好的解进入下一次迭代。
通过加入正态变异扰动提升正交对立学习的搅扰和搜索能力。正态变异通过对好的哈里斯鹰进行适当干扰,使其重新进行搜寻,以免陷入局部最优。加入正态变异扰动的位置更新公式为:
X=Rabbit_Location+F.*randn.*Rabbit_Location
其中,Rabbit_location为兔子的位置,rand是0到1之间的随机数,randn表示均值为0方差为1的正态分布。
步骤2.5、提出改进的正余弦算子,增强寻优的能力。
在哈里斯鹰优化算法中,哈里斯鹰的位置更新主要受到位置较优的哈里斯鹰的引导,为提高哈里斯鹰优化算法搜索精度,引入正余弦搜索算法。哈里斯鹰按照四种围攻方式进行位置更新之后,通过正余弦搜索再次更新位置。
正弦余弦搜索的数学表达式如下
其中,Pj(t)表示全局最优位置,max_it表示最大迭代次数,Xij(t)表示t时刻种群的位置,Xij(t+1)表示位置更新后t+1时刻种群的位置,r1随迭代次数的增加而自适应减少,a为常数此处取值为2。r2,r3和r4为[0,1]上的均匀分布的随机数。正余弦交叉搜索策略可以防止算法早熟从而提高算法的寻优精度。
将正余弦算子融入到哈里斯鹰算法中,改进的公式如下式所示。
X1(i,j)=(1-w)*X(i,j)+w*sin(r1)*abs(r2*Rabbit_location(j)-X(i,j))
X1(i,j)=(1-w)*X(i,j)+w*cos(r1)*abs(r2*Rabbit_location(j)-X(i,j))
其中为X1(i,j)更新后位置,w=wmin+(wmax-wmin)*sin(pi*t/T),w为非线性学习因子,wmin,wmax分别为最小和最大权值,X(i,j)为更新前的位置,sin(r1),cos(r1)为正弦和余弦,Rabbit_location(j)为兔子的位置,r1和r2如前文所描述。
步骤3、使用改进的哈里斯鹰优化算法对BP神经网络进行优化,参见图1,具体包括以下步骤:
步骤3.1、搭建BP神经网络,利用改进的哈里斯鹰优化算法初始化BP神经网络的权值和阈值;
步骤3.2、计算适应度值,将通过迭代产生的最优个体保留,然后逐次迭代以得到最佳种群;
步骤3.3、判断改进的哈里斯鹰优化算法的迭代是否满足次数要求,若是,则获得最佳初始权值和阈值,否则继续执行步骤3.2;
步骤3.4、进行BP神经网络的预测,通过BP神经网络进行权值和阈值更新,如果满足误差精度和次数要求则结束执行,否则,继续执行操作。
步骤4、使用APP用户历史感知数据集,以评价指标为特征,以评级结果为标签,对优化的BP神经网络进行训练,得到APP用户感知预测模型。
步骤5、使用所述APP用户感知预测模型对APP用户感知结果进行预测。
在图1所示流程中,为了平衡HHO算法的两个阶段(全局搜索阶段和局部开采阶段)的进攻状态,HHO算法通过猎物的逃逸能量进行过渡,逃逸能量表示为:
E0=2*rand-1
其中,E表示猎物的逃逸能量值,E0是猎物初始状态下的能量值,T是最大的迭代次数,t是当前的迭代次数。在HHO中E0在区间(-1,1)随机变化。当值E0从0降低到-1时,兔子的能量会渐渐衰减,相反,则兔子能量逐步增强。
在局部开采阶段,根据实际条件下,猎物的逃跑规律和追捕者的追捕方式,该阶段可以分为四种捕食策略:软围攻、硬围攻、渐进式快速俯冲软围攻以及渐进式快速俯冲硬围攻。在此阶段,用E的值的大小来区分软硬围攻,|E|大于等于1时,哈里斯鹰进行全局搜索,相反,|E|小于1,进行此阶段,|E|与0.5的关系,决定了软硬围攻的方式。当|E|大于等于0.5,即猎物能量还有很多,哈里斯鹰需要放慢捕食节奏,进行软围攻,与之相反,|E|小于0.5时,猎物能量很少,猎物只能坐以待毙,采取硬围攻。用λ的值来区分普通围攻还是渐进式快速俯冲围攻。λ取值为0到1的随机数,表示猎物逃脱的概率,当λ小于0.5,表示猎物可以逃脱,由于猎物此时可以逃脱,所以哈里斯鹰如果想要捕食成功,需要采取一些有效的策略,因此,HHO算法在λ小于0.5时加入莱维飞行策略,哈里斯鹰通过此策略修正自己的位置,提高成功抓捕的概率,此方式就是渐进式快速俯冲围攻;当λ大于等于0.5时,猎物逃脱失败,普通的软硬围攻就可以成功捕获猎物。
因而,本阶段的捕食通过E和λ进行调节,哈里斯鹰可以在不同的情况下,捕获猎物,求解问题也因此得到优化。
实施例2
本发明另一实施例还公开一种APP用户感知结果预测系统,参见图2包括:
数据集建立模块,用于建立APP用户历史感知数据集;
算法改进模块,用于对哈里斯鹰优化算法进行改进;
模型优化模块,用于使用改进的哈里斯鹰优化算法对BP神经网络进行优化;
模型训练模块,用于使用APP用户历史感知数据集对优化的BP神经网络进行训练,得到APP用户感知预测模型;
预测模块,用于使用所述APP用户感知预测模型对APP用户感知结果进行预测。
实施例3
本发明另一实施例还公开一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器进行加载,以执行以上任一项所述的一种APP用户感知结果预测方法中的步骤。
实施例4
本发明另一实施例还公开一种APP用户感知结果预测装置,参见图3和图6,包括:处理器和存储器;
所述的存储器中存储有程序指令,所述的处理器调用所述的存储器中存储的程序指令,以使所述APP用户感知结果预测装置执行以上任一项所述的一种APP用户感知结果预测方法中的步骤。
实施例5
以上述手机游戏《王者荣耀》作为本实施例的目标APP,验证本发明方法的优越性:
步骤一、收敛曲线分析。
采用8个基准测试函数,基准测试函数如表1所示。
表1
对鲸鱼优化算法(Whale Optimization Algorithm,WOA)、蜣螂优化算法(DungBeetle Optimizer,DBO)、人工大猩猩部队优化算法(Artificial Gorilla TroopsOptimizer,GTO)、象群优化算法(Elephant Herding Optimization,EHO)、综合学习粒子群优化算法(Comprehensive Learning Particle Swarm Optimization Algorithm,CLPSO)、哈里斯鹰优化算法(Harris Hawks Optimization,HHO)、灰狼优化算法(Grey WolfOptimizer,GWO)、改进的哈里斯鹰优化算法(Improved Harris Hawks Optimization,LSLHHO)的性能进行对比测试。设置每种方法的种群规模均为30,最大迭代次数为500。为了减小随机性干扰,每种方法均独立运行30次。改进的哈里斯鹰优化算法中参数均按本发明提出公式更新。
步骤二、为了直观展示LSLHHO算法的寻优速度与性能,本发明给出了上述算法在8种基准测试函数下的收敛曲线,如图4(a)-图4(h)所示。从图4(a)和图4(c)中很容易看出,LSLHHO算法的收敛精度比WOA、DBO、EHO、CLPSO、HHO以及GWO的收敛精度具有明显的优势,GTO也比除LSLHHO之外的其他算法有很大优势,但相比于LSLHHO,其性能还是相差很多。并且,在初始阶段,LSLHHO的收敛精度就远远优于其他几种算法。可以看出,逃逸能量因子和混沌映射在LSLHHO算法的收敛中起着很大的作用。从图4(b)和图4(d)可以看出,类似与前文的几种函数情况下的收敛情况,但与之有区别的是,在这些函数条件下,LSLHHO算法在200到300代之间收敛结束。观察图4(e)和图4(f)可以发现,其他几种算法都陷入局部最优,LSLHHO具有良好的早期优化性能和避免过早收敛的能力。对于图4(e),与图4(a)和图4(c)类似,LSLHHO都是收敛速度最快的。对于图4(g),LSLHHO具有最快的收敛速度,并且,由于收敛速度快,并未显示在图像中,说明正交对立学习对于该算法的优化起到了很大作用。对于图4(h),GTO、DBO、HHO以及LSLHHO都可以收敛到全局最优,并且LSLHHO算法具有最快的收敛速度。图4(a)、图4(b)、图4(c)和图4(d)中的收敛曲线很类似,是因为这几种函数是一个类型的,由于LSLHHO算法收敛性相比于其他算法有很大优势,所呈现出来的效果也比较类似。综上所述,LSLHHO算法有效地提高了全局搜索和局部开发能力,是一种高效的算法。
步骤三、改进哈里斯鹰优化算法有效性验证。
图5(a)-图5(h)显示了4种算法在8种基准测试函数条件下的收敛曲线图,图中可以看出,使用正交对立学习的OOHHO算法改进的算法效果在单策略改进的算法中最好,使用了三种策略改进的LSLHHO算法性能最好。
步骤四、手机游戏用户感知结果预测。
对于手机游戏感知数据集,感知结果为差的情况较少,手机游戏用户感知数据集属于不平衡数据集,因此本发明选用weighted-average方法。BP神经网络、WOA优化BP神经网络、DBO优化BP神经网络、GTO优化BP神经网络、EHO优化BP神经网络、CLPSO优化BP神经网络、HHO优化BP神经网络、GWO优化算法优化BP神经网络以及改进的哈里斯鹰优化算法优化BP神经网络这六种方法分类指标对比结果如表2所示。
表2
本发明利用8个基准测试函数对改进的哈里斯鹰优化算法和其它对比模型进行测试,通过三种指标评价改进的哈里斯鹰优化算法的寻优能力,结果表明改进的哈里斯鹰优化算法在不同的基准测试函数上均有最好的收敛速度和收敛精度,说明了改进的哈里斯鹰优化算法有很好的寻优能力,并通过对比三种不同改进策略的性能表现验证了改进的哈里斯鹰优化算法的有效性。并通过优化BP神经网络来进行手机游戏用户感知结果预测,对比发现,改进的哈里斯鹰优化算法优化BP神经网络的预测精度要高于其他方法优化的BP神经网络,更能体验改进方法的优越性。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统、装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种APP用户感知结果预测方法,其特征在于,包括以下步骤:
步骤1、建立APP用户历史感知数据集;
步骤2、对哈里斯鹰优化算法进行改进;
步骤3、使用改进的哈里斯鹰优化算法对BP神经网络进行优化;
步骤4、使用APP用户历史感知数据集对优化的BP神经网络进行训练,得到APP用户感知预测模型;
步骤5、使用所述APP用户感知预测模型对APP用户感知结果进行预测。
2.根据权利要求1所述的一种APP用户感知结果预测方法,其特征在于,所述步骤1中,建立APP用户历史感知数据集,具体包括以下步骤:
采集环境搭建:搭建用户使用APP时的数据采集环境;
指标的确立:基于APP属性,确定评价指标;
数据采集:依据所述评价指标,对用户使用过程中的评价指标进行采集,并按照预设规则对采集的评价指标进行评级;
数据预处理:对所述评价指标中的非数值类指标进行排序编码,将评价指标分为三类,分别是分类型、二分类型以及数值型;对评价指标以及评级结果进行归一化处理。
3.根据权利要求1所述的一种APP用户感知结果预测方法,其特征在于,所述步骤2中,从三个方面对哈里斯鹰优化算法进行改进,分别为:
引入改进的Logistic混沌映射策略初始化哈里斯鹰种群;
引入正态变异扰动的正交对立学习机制;
加入改进的正余弦算子。
4.根据权利要求3所述的一种APP用户感知结果预测方法,其特征在于,改进的Logistic混沌映射的公式为:
Xi+1=μ/4*sin(Xi)
其中,Xi+1为第i+1代的种群位置,μ为常数,取值为2,Xi为第i代的种群位置。
5.根据权利要求3所述的一种APP用户感知结果预测方法,其特征在于,加入正态变异扰动的位置更新公式为:
X=Rabbit_Location+F.*randn.*Rabbit_Location
其中,Rabbit_location为兔子的位置,rand是0到1之间的随机数,randn表示均值为0方差为1的正态分布。
6.根据权利要求3所述的一种APP用户感知结果预测方法,其特征在于,哈里斯鹰优化算法进行位置更新之后,通过正余弦算子再次更新位置;
正弦余弦算子搜索的数学表达式为:
其中,Pj(t)表示全局最优位置,max_it表示最大迭代次数,Xij(t)表示t时刻种群的位置,Xij(t+1)表示位置更新后t+1时刻种群的位置,r1随迭代次数的增加而自适应减少,a为常数此处取值为2;r2,r3和r4为[0,1]上的均匀分布的随机数;
将正余弦算子融入到哈里斯鹰优化算法中,改进的公式为:
X1(i,j)=(1-w)*X(i,j)+w*sin(r1)*abs(r2*Rabbit_location(j)-X(i,j))
X1(i,j)=(1-w)*X(i,j)+w*cos(r1)*abs(r2*Rabbit_location(j)-X(i,j))
其中为X1(i,j)更新后位置,w=wmin+(wmax-wmin)*sin(pi*t/T),w为非线性学习因子,wmin,wmax分别为最小和最大权值,X(i,j)为更新前的位置,sin(r1),cos(r1)为正弦和余弦,Rabbit_location(j)为兔子的位置。
7.根据权利要求1所述的一种APP用户感知结果预测方法,其特征在于,所述步骤3中,使用改进的哈里斯鹰优化算法对BP神经网络进行优化,具体包括以下步骤:
步骤3.1、搭建BP神经网络,利用改进的哈里斯鹰优化算法初始化BP神经网络的权值和阈值;
步骤3.2、计算适应度值,将通过迭代产生的最优个体保留,然后逐次迭代以得到最佳种群;
步骤3.3、判断改进的哈里斯鹰优化算法的迭代是否满足次数要求,若是,则获得最佳初始权值和阈值,否则继续执行步骤3.2;
步骤3.4、进行BP神经网络的预测,通过BP神经网络进行权值和阈值更新,如果满足误差精度和次数要求则结束执行,否则,继续执行操作。
8.根据权利要求2所述的一种APP用户感知结果预测方法,其特征在于,所述步骤4中,使用APP用户历史感知数据集对优化的BP神经网络进行训练时,以评价指标为特征,以评级结果为标签,对优化的BP神经网络进行训练。
9.一种APP用户感知结果预测系统,其特征在于,包括:
数据集建立模块,用于建立APP用户历史感知数据集;
算法改进模块,用于对哈里斯鹰优化算法进行改进;
模型优化模块,用于使用改进的哈里斯鹰优化算法对BP神经网络进行优化;
模型训练模块,用于使用APP用户历史感知数据集对优化的BP神经网络进行训练,得到APP用户感知预测模型;
预测模块,用于使用所述APP用户感知预测模型对APP用户感知结果进行预测。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器进行加载,以执行权利要求1-8任一项所述的一种APP用户感知结果预测方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311025509.7A CN117114048A (zh) | 2023-08-15 | 2023-08-15 | 一种app用户感知结果预测方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311025509.7A CN117114048A (zh) | 2023-08-15 | 2023-08-15 | 一种app用户感知结果预测方法、系统及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117114048A true CN117114048A (zh) | 2023-11-24 |
Family
ID=88799438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311025509.7A Pending CN117114048A (zh) | 2023-08-15 | 2023-08-15 | 一种app用户感知结果预测方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117114048A (zh) |
-
2023
- 2023-08-15 CN CN202311025509.7A patent/CN117114048A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220351019A1 (en) | Adaptive Search Method and Apparatus for Neural Network | |
Wu et al. | A discrete particle swarm optimization for covering array generation | |
US20210224692A1 (en) | Hyperparameter tuning method, device, and program | |
CN110738362A (zh) | 一种基于改进的多元宇宙算法构建预测模型的方法 | |
CN108509996A (zh) | 基于Filter和Wrapper选择算法的特征选择方法 | |
CN117911799B (zh) | 一种基于多策略改进鳌虾算法的特征分类方法 | |
CN109871934A (zh) | 基于Spark分布式的并行二进制飞蛾扑火算法的特征选择方法 | |
CN105446742A (zh) | 一种人工智能执行任务的优化方法 | |
CN116383816A (zh) | 一种基于遗传算法的安卓恶意软件检测特征选择方法 | |
US20240330774A1 (en) | Method of searching for an optimal combination of hyperparameters for a machine learning model | |
CN114547964B (zh) | 基于改进hho优化delm的脱丁烷塔软测量建模方法 | |
CN118192472A (zh) | 一种柔性作业车间调度问题的改进星雀优化方法 | |
CN117194502B (zh) | 一种基于长短期记忆网络的数据库内容缓存替换方法 | |
CN117133446A (zh) | 基于改进的哈里斯鹰优化算法的中医证型分类方法和装置 | |
Arunadevi et al. | Comparison of feature selection strategies for classification using rapid miner | |
CN109347900B (zh) | 基于改进狼群算法的云服务系统自适应演化方法 | |
CN117114048A (zh) | 一种app用户感知结果预测方法、系统及存储介质 | |
CN110796198A (zh) | 基于混合蚁群优化算法的高维特征筛选方法 | |
CN105956680A (zh) | 一个基于强化学习的自适应规则的生成和管理框架 | |
CN115511052A (zh) | 一种神经网络搜索方法、装置、设备及存储介质 | |
CN110263906B (zh) | 非对称负相关搜索方法 | |
CN113205185A (zh) | 网络模型优化方法、装置、计算机设备和存储介质 | |
CN114691518B (zh) | 一种基于深度强化学习的efsm输入序列生成方法 | |
CN117648585B (zh) | 基于任务相似度的智能决策模型泛化方法和装置 | |
KR102668544B1 (ko) | 정수 최적화 기반 인공 신경망 모델 성능 최적화 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |