CN116943226A - 基于情绪识别的游戏难度调节方法、系统、设备及介质 - Google Patents
基于情绪识别的游戏难度调节方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN116943226A CN116943226A CN202311217592.8A CN202311217592A CN116943226A CN 116943226 A CN116943226 A CN 116943226A CN 202311217592 A CN202311217592 A CN 202311217592A CN 116943226 A CN116943226 A CN 116943226A
- Authority
- CN
- China
- Prior art keywords
- emotion
- target
- game
- difficulty
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 45
- 230000008451 emotion Effects 0.000 claims abstract description 409
- 230000006870 function Effects 0.000 claims description 114
- 238000013145 classification model Methods 0.000 claims description 52
- 239000013598 vector Substances 0.000 claims description 43
- 238000013507 mapping Methods 0.000 claims description 33
- 238000004422 calculation algorithm Methods 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 19
- 230000006397 emotional response Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 8
- 230000001419 dependent effect Effects 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 230000036651 mood Effects 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 11
- 230000006399 behavior Effects 0.000 description 8
- 210000004556 brain Anatomy 0.000 description 8
- 230000008921 facial expression Effects 0.000 description 6
- 239000004973 liquid crystal related substance Substances 0.000 description 6
- 230000007935 neutral effect Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000009191 jumping Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000001816 cooling Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/69—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于情绪识别的游戏难度调节方法、系统、设备及介质,其技术要点是,包括:获取当前游戏难度、目标用户的多源生理数据和目标用户的历史游戏数据,其中,所述多源生理数据包括:多个从不同角度反映目标用户情绪的生理数据;将所述多源生理数据输入训练好的情绪识别模型后,得到目标用户的当前情绪;根据所述历史游戏数据获得目标用户的理想情绪;根据所述当前情绪和理想情绪计算难度调整值,根据所述难度调整值调整当前游戏难度得到目标游戏难度;本方案中能够通过多源生理数据准确获取用户的当前情绪,根据用户的当前情绪和理想情绪计算难度调整值实现个性化的难度调节。
Description
技术领域
本发明属于游戏难度调节技术领域,具体涉及一种基于情绪识别的游戏难度调节方法、系统、设备及介质。
背景技术
随着感知和情感计算技术的发展,实现游戏根据用户情绪状态调整难度的想法也被逐步提出。
早期的相关研究主要基于检测单一生理信号变化来推断用户情绪,仅能做出简单的游戏参数调整,实现的自适应效果有限。如现有技术中公开的公开号为CN109758767A,名称为游戏难度调整方法、终端及计算机可读存储的发明专利申请中,主要公开了获取用户的脑电波信号,对所述脑电波信号进行处理,得到对应的专注度指数、放松度指数和疲劳度指数;根据所述专注度指数、放松度指数、疲劳度指数和预设映射关系表得到对应的专注度分值、放松度分值和疲劳度分值;根据所述专注度分值、放松度分值和疲劳度分值计算得到游戏状态分值,并根据所述游戏状态分值对应调整游戏难度,其利用单一的脑电波信号得到用户的情绪状态,做出游戏难度调整。
进入当前的信息时代后,各类先进传感器的出现使得能同时采集用户的多源生理数据,如脑电图、面部表情等,还可利用深度学习等技术处理这些多源生理数据,因此,如何运用多源生理数据,实现智能化的个性化的游戏难度调节仍有进一步的改进空间。
发明内容
本发明的目的在于提供一种基于情绪识别的游戏难度调节方法、系统、设备及介质,能够通过多源生理数据准确获取用户的当前情绪,根据用户的当前情绪和理想情绪计算难度调整值实现个性化的难度调节。
本发明第一方面公开了一种基于情绪识别的游戏难度调节方法,其特征在于,包括:
获取当前游戏难度、目标用户的多源生理数据和目标用户的历史游戏数据,其中,所述多源生理数据包括:多个从不同角度反映目标用户情绪的生理数据;
将所述多源生理数据输入训练好的情绪识别模型后,得到目标用户的当前情绪;
根据所述历史游戏数据获得目标用户的理想情绪;
根据所述当前情绪和理想情绪计算难度调整值,根据所述难度调整值调整当前游戏难度得到目标游戏难度。
可选的,所述情绪识别模型包括:
多个与多个所述生理数据一一对应的LSTM网络,用于提取对应的生理数据的特征向量;
多源融合网络,用于将所有生理数据对应的特征向量进行拼接得到多源特征向量,提取所述多源特征向量的多源情感特征,根据所述多源情感特征预测得到目标用户的当前情绪。
可选的,所述根据所述历史游戏数据获得目标用户的理想情绪,包括:
采用预设滑动窗口对所述历史游戏数据进行分割,对分割后的历史游戏数据使用onehot编码得到编码数据,对所述编码数据提取时间统计特征;
将所述时间统计特征输入训练好的用户情感分类模型中得到所述目标用户的目标情感类别及对应的目标情感值;
根据所述目标情感类别从多个预设情感函数中选取对应的目标情感函数,其中,所述目标情感函数的自变量为游戏难度,因变量为情感预测值;
初始化第一参数对所述目标情感函数进行调整得到优化目标函数,将所述目标情感值和优化目标函数在当前游戏难度下的情感预测值输入预设目标函数得到输出值,根据所述输出值更新第一参数,进行多次迭代,直至预设目标函数收敛,将预设目标函数收敛后对应的第一参数带入优化目标函数得到最优目标情感函数;
将所述最优目标情感函数在当前游戏难度下的情感预测值作为目标用户的理想情绪。
可选的,所述用户情感分类模型的训练方法,包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
采用所述样本集对用户情感分类模型进行训练,使用预设损失函数计算预测误差,通过反向传播算法更新用户情感分类模型的参数,直至收敛,得到训练好的用户情感分类模型;
所述预设损失函数为:
Loss = MSE(y_pred, y_true) + CE(p(y|y_pred), y_true),
其中,所述y_pred为用户情感分类模型根据输入预测的用户的预测情感类别概率,y_true为样本集中的样本对应的真实情感类别,MSE代表均方误差损失,用于衡量y_pred和 y_true之间的差异,p(y|y_pred)是用户情感分类模型预测情感分类的概率分布,CE代表交叉熵损失,用于评估y_pred和 y_true的差异。
可选的,所述预设情感函数的构建方法包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
将所述样本集中的样本输入训练好的用户情感分类模型得到各个用户对应的情感类别,根据所述情感类别对所有用户进行初始分类,通过聚类算法对初始分类后的用户重新进行分类得到多个簇;
获取所述样本集中的各个用户在不同游戏难度下的情感值;
在所述样本集中的各个用户对应的情感值与游戏难度上,利用回归算法拟合所述样本集中的各个用户对应的个体情感响应曲线,根据各个所述个体情感相应曲线计算得到样本集中各个用户在各个游戏难度下的情感值;
根据所述样本集中各个用户在各个游戏难度下的情感值计算各个簇在各个游戏难度下的平均情感值,在各个所述簇对应的平均情感值与游戏难度上,利用回归算法拟合各个所述簇对应的平均情感响应曲线,利用预设的第二参数对各个平均情感响应曲线进行调整,得到各个簇对应的预设情感函数。
可选的,所述根据所述当前情绪和理想情绪计算难度调整值,包括:
计算所述当前情绪与理想情绪之间的情绪差值;
在所述情绪差值大于上限阈值,且持续时间超过第一预设时间的情况下,以及在所述情绪差值小于下限阈值,且持续时间超过第二预设时间的情况下,通过难度调整公式计算难度调整值;
所述难度调整公式为:
,
,
其中,所述k(U) 表示用户情感类别系数,k表示根据用户情感类别U采用不同的系数,err表示情绪差值,表示时间衰减因子,实现难度调整的衰减效果,T表示用户情感类别U对应的衰减时间常数,控制衰减速率,t表示时间,A 表示映射上限,B表示映射的增长速率,C表示映射的中间点。
可选的,在所述获取当前游戏难度之前,包括:
根据游戏需求和机制,确定影响难度的关键参数;
对各个所述关键参数,设定多个参数值,将所有关键参数中的参数值进行排列组合,组成不同游戏难度的多个参数组合;
测试各个所述参数组合的难易程度,确定各个参数组合的游戏难度;
根据各个参数组合对应的参数值和对应的游戏难度,构建关键参数与游戏难度的映射表。
本发明第二方面公开了一种基于情绪识别的游戏难度调节系统,包括:
数据获取模块,用于获取当前游戏难度、目标用户的多源生理数据和目标用户的历史游戏数据,其中,所述多源生理数据包括:多个从不同角度反映目标用户情绪的生理数据;
当前情绪模块,用于将所述多源生理数据输入训练好的情绪识别模型后,得到目标用户的当前情绪;
理想情绪模块,用于根据所述历史游戏数据获得目标用户的理想情绪;
难度调整模块,用于根据所述当前情绪和理想情绪计算难度调整值,根据所述难度调整值调整当前游戏难度得到目标游戏难度。
本发明第三方面公开了一种计算机设备, 包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述的方法的步骤。
本发明第四方面公开了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法的步骤。
本发明所提供的技术方案具有以下的优点及效果:通过目标用户的多源生理数据准确获取目标用户的当前情绪,然后计算目标用户的理想情绪,根据当前情绪和理想情绪计算难度调整值实现个性化的难度调节,可以保持目标用户处于最佳情绪状态,避免由于情绪波动产生的负面游戏体验,从而提高用户的游戏满意度;通过用户情感分类模型和预设情感函数的建立,可以针对不同类型用户进行精准情感判断,从而实现个性化的难度调节,不同用户可以获得符合自身情感模式的游戏体验。
附图说明
图1是本发明实施例公开的基于情绪识别的游戏难度调节方法的流程示意图;
图2是本发明实施例公开的基于情绪识别的游戏难度调节系统的结构框图;
图3是本发明实施例中公开的计算机设备的内部结构图。
具体实施方式
为了便于理解本发明,下面将参照说明书附图对本发明的具体实施例进行更详细的描述。
除非特别说明或另有定义,本文所使用的“第一、第二…”仅仅是用于对名称的区分,不代表具体的数量或顺序。
除非特别说明或另有定义,本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
需要说明的是,本文中“固定于”、“连接于”,可以是直接固定或连接于一个元件,也可以是间接固定或连接于一个元件。
如图1所示,本发明实施例公开了一种基于情绪识别的游戏难度调节方法,包括:
步骤1、获取当前游戏难度、目标用户的多源生理数据和目标用户的历史游戏数据,其中,所述多源生理数据包括:多个从不同角度反映目标用户情绪的生理数据。
具体地,多源生理数据包括:目标用户在游戏过程中所采集的脑电数据、面部表情数据和语音数据等;脑电数据能够采用脑电头环采集电极,采集频率可设置为500Hz;面部表情数据使用RGB摄像头,采集面部表情图像,定位眉毛、眼睛和嘴部的关键点,提取形状和表情变化信息,采集频率为30Hz;语音数据能够通过麦克风,采集语音声音信号,采样频率设为16kHz,进行消噪处理后,提取语音特征如音高、语调等;通过发送同步触发指令,确保脑电数据、面部表情数据和语音数据时间对齐采集,如设定一个主控制模块,向所有采集设备发送同步采集的触发指令,触发指令包含精确的时间戳信息,如GPS时间、网络时间等,各采集设备接收到指令后,记录当前时间与触发时间的偏移量,根据该偏移量,调整采集开始时间,使各设备同步开始采集,也可以在数据存储时,将时间戳偏移量记录在数据标签中,后续处理时将数据按时间标签对齐,无需考虑设备之间的时间偏差,整个同步过程精度可以达到毫秒级别。
在实际应用中,还能够将采集的脑电数据、面部表情数据和语音数据等多源生理数据进行统一格式化排序,然后进行标注、存档。具体地,对多源生理数据进行格式校验、去噪、插值、归一化等预处理,将预处理后的多源生理数据转换为统一的数字矩阵格式,方便存储和处理,如脑电数据转换为(通道数×采样点数)的矩阵。
在获取当前游戏难度之前,包括:
根据游戏需求和机制,确定影响难度的关键参数;其中,所述关键参数通常包括:玩家生命值、敌人数量、玩家攻击力、敌人移动速度、物品出现概率、过关时间限制等,根据游戏需求和机制的不同,选取不同的关键参数。
对各个所述关键参数,设定多个参数值,将所有关键参数中的参数值进行排列组合,组成不同游戏难度的多个参数组合;在本实施例中,如关键参数为生命值和敌人数量,为生命值和敌人数量设定多个参数值,如生命值:100、80、60、40、20,敌人数量:5、10、15、20、30,将所有关键参数中的参数值进行排列组合,如得到不同游戏难度的生命值100、敌人数量5的参数组合,生命值100、敌人数量10的参数组合…生命值20、敌人数量30的参数组合。
测试各个所述参数组合的难易程度,确定各个参数组合的游戏难度;在实际应用中,得到不同游戏难度的多个参数组合后,能够邀请有代表性的玩家进行游戏测试,让玩家在不同参数组合下尝试游戏,根据游戏时间、过关率、生命值剩余等客观指标评估难易度,能够通过问卷形式获得玩家的主观反馈,统计各个参数组合的客观指标和主观反馈,确定参数组合对应的难度级别,能够重复测试,收集更多数据,优化级别划分,使其能够有效反映游戏难度。
根据各个参数组合对应的参数值和对应的游戏难度,构建关键参数与游戏难度的映射表。在本实施例中,映射表的横轴为参数值,纵轴为游戏难度,建立二维映射关系。除了设定固定的几个游戏难度之外,可以在游戏难度之间插入更多中间值。例如生命值,除了[100,80,60,40,20]之外,还可以插入[90,70,50,30]等中间值,通过插值算法,可以得到参数值在整个取值范围内与游戏难度的映射函数关系,假设参数值的取值范围为[x_min,x_max],对应游戏难度的范围[y_min,y_max],则参数x与难度y之间的映射函数可以采用线性插值公式:
,
其中,x 表示当前的参数值,y表示当前的参数值对应的游戏难度;如,生命值范围[0,100] 映射到难度范围[1,10],当生命值x=80时,,通过线性插值公式,可以建立参数值到游戏难度的连续映射关系,从而实现平滑调节难度的效果。
步骤2、将所述多源生理数据输入训练好的情绪识别模型后,得到目标用户的当前情绪。在本实施例中,得到目标用户的当前情绪后,能够将该当前情绪映射到连续情绪值,具体地,如果表示正面情绪程度最大的值设为1,表示负面情绪程度最大的值设为-1,在将多源生理数据输入训练好的情绪识别模型后得到目标用户属于正面、中性、负面情绪的概率为(0.7,0.1,0.2),其中最大概率0.7对应的是正面情绪,所以判定该目标用户的当前情绪为正面情绪,0.7为目标用户的当前情绪概率值,为了得到一个连续值表示情绪强度,将其映射到[-1,1]区间,能够使用线性映射方式:
,
其中,0.5是中间值,2是缩放系数,在其他实施例中,中间值和缩放系数能够根据实际情况进行调整。在当前情绪概率值为0.7的情况下,,即目标用户的正面情绪强度值为0.4。
在本实施例中,所述情绪识别模型包括:
多个与多个所述生理数据一一对应的LSTM网络,用于提取对应的生理数据的特征向量;LSTM(Long Short Term Memory,长短期记忆)是一种特殊的递归神经网络;在有脑电数据、面部视频数据和语音数据这三个生理数据的情况下,则具有与脑电数据对应的脑电LSTM网络、与面部视频数据对应的面部LSTM网络、与语音数据对应的语音LSTM网络;各个脑电LSTM网络、面部LSTM网络和语音LSTM网络均具有第一输入层、多隐藏层和第一输出层,脑电LSTM网络的第一输入层节点数为脑电数据的特征维度,多隐藏层为多个LSTM模块叠加,各个LSTM模块处理一个时间步的数据,提取时序特征,然后经过第一输出层的向量化,得到定长的脑电数据对应的特征向量;面部LSTM网络的第一输入层节点数为面部视频数据的特征维度,多隐藏层为多个LSTM模块叠加,各个LSTM模块处理一个时间步的数据,提取时序特征,然后经过第一输出层的向量化,得到定长的面部视频数据对应的特征向量;语音LSTM网络的第一输入层节点数为语音数据的特征维度,多隐藏层为多个LSTM模块叠加,各个LSTM模块处理一个时间步的数据,提取时序特征,然后经过第一输出层的向量化,得到定长的语音数据对应的特征向量。
多源融合网络,用于将所有生理数据对应的特征向量进行拼接得到多源特征向量,提取所述多源特征向量的多源情感特征,根据所述多源情感特征预测得到目标用户的当前情绪。
具体地,所述多源融合网络包括:
拼接层,用于将所有生理数据对应的特征向量进行拼接得到多源特征向量,如将脑电数据对应的特征向量、面部视频数据对应的特征向量和语音数据对应的特征向量依次拼接得到多源特征向量。
全连接层,用于提取所述多源特征向量的多源情感特征,所述全连接层包括多个节点,该节点的数量通常按照特征向量长度的2-4倍来设置,全连接层可以学习多源特征向量之间的非线性组合关系,提取多源情感特征,能够在全连接层使用ReLU等激活函数引入非线性,还能采用Dropout技术随机丢弃节点,防止过拟合,Dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。
第一输出层,用于根据所述多源情感特征预测得到目标用户的当前情绪,包含3个节点,分别代表正面情绪、中性情绪和负面情绪的概率。通过Softmax函数,可以将第一输出层的原始值转换为归一化的概率分布,Softmax能够映射任意实数到(0,1)区间,并满足概率的性质,使得3个节点的输出值和为1,均在0到1范围内,表示概率。
在构建好情绪识别模型后,还需要对情绪识别模型进行训练,具体的训练方法包括:
收集标注有真实情绪标签的多源训练数据集,多源训练数据集包括脑电数据、面部视频数据、语音数据等多个生理数据。具体地,对各个生理数据按时间顺序进行排序,确保各生理数据时间对齐,邀请标注人员,在游戏关键时刻手动添加情绪标签,标注数据,得到标注有真实情绪标签的生理数据,将生理数据和对应的标签一起,存入云端数据库中。
定义情绪识别模型的损失函数,比如交叉熵损失,用来衡量情绪识别模型预测结果和真实标签的差距。进行多次迭代训练,在训练过程中,反向传播算法根据损失函数的梯度,迭代更新模型参数。通过多轮的梯度下降,逐步优化参数,使损失函数的值降低,情绪识别模型预测结果逼近真实标签。
在对情绪识别模型进行训练的过程中,每隔预设轮数对使用验证集对情绪识别模型进行测试,所述验证集为不同用户的标注有真实情绪标签的多源生理数据,便于训练时监控多源训练数据集和验证集上损失函数的变化情况,当多源训练数据集损失继续下降而验证集损失开始上升时,说明情绪识别模型开始过拟合。通过优化训练轮数、正则化、提前停止训练等技术控制过拟合,得到在验证集上效果较好的情绪识别模型,完成对多源情绪特征的融合与判断,最后在独立的测试集上评估模型的最终性能,测试集为不同用户的标注有真实情绪标签的多源生理数据,多源训练数据集、验证集和测试集中的生理数据各不相同。
步骤3、根据所述历史游戏数据获得目标用户的理想情绪。
在本实施例中,所述根据所述历史游戏数据获得目标用户的理想情绪,包括:
采用预设滑动窗口对所述历史游戏数据进行分割,对分割后的历史游戏数据使用onehot编码得到编码数据,对所述编码数据提取时间统计特征;其中,所述历史游戏数据包括:操作序列、关卡特征等,其中,操作序列反映用户的控制习惯,包含用户的至少一基本操作,如移动、跳跃、攻击等基本操作,并记录各个基本操作对应的时刻和操作参数(如跳跃高度),关卡特征可以反映用户对不同难度关卡的适应性,包含每关的基本信息,如难度系数、关卡元素配置等,并记录用户在每关的通过次数、失败次数、完成用时。假设目标用户的操作序列为:[跳跃,移动,攻击,跳跃,跳跃,移动,攻击,移动] ,可以采用固定长度为3的滑动窗口进行分割,窗口重叠大小为2,则可以得到:[跳跃,移动,攻击]、[移动,攻击,跳跃]、[攻击,跳跃,跳跃]、[跳跃,跳跃,移动]、[跳跃,移动,攻击]、[移动,攻击,移动],然后对每个基本操作使用onehot编码,例如跳跃编码为[1,0,0],移动编码为[0,1,0],攻击编码为[0,0,1],便于提取出以下时间统计特征:
一、操作次数:跳跃7次,移动6次,攻击5次;
二、操作持续时间:计算各个基本操作的持续窗口数,跳跃3窗口,移动2窗口,攻击2窗口;
三、操作频率:跳跃在80%的窗口有出现,移动在80%的窗口有出现,攻击在80%的窗口有出现。
通过对操作序列的分割、编码和特征提取,目标用户的操作行为模式可以有效地表达出来,使得目标用户的复杂游戏行为被转换成算法可识别的特征表达形式。
将所述时间统计特征输入训练好的用户情感分类模型中得到所述目标用户的目标情感类别及对应的目标情感值。
在本实施例中,所述用户情感分类模型也是基于LSTM网络构建,包括:第二输入层、LSTM层和第二输出层;第二输入层用于接收预处理后的游戏数据,如操作序列的编码向量和时间统计特征,以将离散的游戏数据转换成用户情感分类模型可以处理的张量格式;LSTM层用于捕捉操作序列中的长期依赖关系,学习用户的行为模式,LSTM层通过遗忘门、输入门、输出门来控制信息的流动,遗忘门、输入门、输出门的计算公式如下:
遗忘门计算公式:,
输入门计算公式:,
输出门计算公式:,
细胞状态通过遗忘门和输入门来更新,更新公式如下:
,
最终的LSTM层输出为:,
其中,表示输入,/>表示上一时刻的输出,Wf表示遗忘门的权重向量,bf表示遗忘门的偏置向量,Wi表示输入门的权重向量,bi表示输入门的偏置向量,Wo表示输出门的权重向量,bo表示输出门的偏置向量,Wc表示细胞状态的权重向量,bc表示细胞状态的偏置向量,/>表示sigmoid激活函数。Wf、bf、Wi、bi、Wo、bo、Wc、bc都是用户情感分类模型需要学习的参数,通常会随机初始化,然后在训练过程中通过反向传播算法逐步调整,使模型对输入到输出的映射关系误差最小化。具体的初始化方法有:使用均匀分布或高斯分布随机初始化权重向量,将偏置向量初始化为全0或很小的常数在用户情感分类模型训练过程中,这些参数会被优化,使用户情感分类模型能够捕捉时间序列数据中的长期依赖,实现对用户行为模式到情感的有效建模。
所述用户情感分类模型的训练方法,包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
采用所述样本集对用户情感分类模型进行训练,使用预设损失函数计算预测误差,通过反向传播算法更新用户情感分类模型的参数,直至收敛,得到训练好的用户情感分类模型;
所述预设损失函数为:
Loss = MSE(y_pred, y_true) + CE(p(y|y_pred), y_true),
其中,所述y_pred为用户情感分类模型根据输入预测的用户的预测情感类别概率,y_true为样本集中的样本对应的真实情感类别,MSE代表均方误差损失,用于衡量y_pred和 y_true之间的差异,p(y|y_pred)是用户情感分类模型预测情感分类的概率分布,CE代表交叉熵损失,用于评估y_pred和 y_true的差异。
在本实施例中,通过将不同用户的游戏数据输入用户情感分类模型,使得用户情感分类模型学习到不同用户行为模式的特征,例如,频繁攻击可能反映负面的用户情感类别,保守操作则表示中性的用户情感类别。MSE可以很好地捕捉连续情感值的变化趋势;CE可以有效地惩罚分类错误,提升分类效果,通过MSE和CE,使得用户情感分类模型可以同时适合表示连续情感和区分离散情感分类,可以增强模型的预测能力。在本实施例中通过Adam优化器更新参数,以最小化损失函数,Adam优化器的公式如下:
,
,
,
其中,表示梯度gt的一阶矩估计,/>表示梯度gt的二阶矩估计,/>表示第一滑动平均系数,/>表示第二滑动平均系数,/>是学习率,/>避免分母为0。通过迭代地计算梯度的统计量,并应用自适应学习率,Adam可以有效地更新Wf、bf、Wi、bi、Wo、bo、Wc、bc以及全连接层的权重矩阵和偏置向量,实现模型训练。
根据所述目标情感类别从多个预设情感函数中选取对应的目标情感函数,其中,所述目标情感函数的自变量为游戏难度,因变量为情感预测值;
初始化第一参数对所述目标情感函数进行调整得到优化目标函数,将所述目标情感值和优化目标函数在当前游戏难度下的情感预测值输入预设目标函数得到输出值,根据所述输出值更新第一参数,进行多次迭代,直至预设目标函数收敛,将预设目标函数收敛后对应的第一参数带入优化目标函数得到最优目标情感函数;
将所述最优目标情感函数在当前游戏难度下的情感预测值作为目标用户的理想情绪。
在本实施例中,所述预设情感函数的构建方法包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
将所述样本集中的样本输入训练好的用户情感分类模型得到各个用户对应的情感类别,根据所述情感类别对所有用户进行初始分类,从标记了相同情感类别的用户行为数据中,提取表示用户游戏行为特征的变量,作为聚类算法的输入,如操作频率、完成难关用时、失败次数等,为了不同特征尺度一致,对提取的表示用户游戏行为特征的变量进行数据标准化处理,如将特征值处理为标准偏差为1,平均值为0的正态分布,然后通过聚类算法对初始分类后的用户重新进行分类得到多个簇,可以采用K-Means聚类算法,具体地,在本实施例中分为三个簇:正面型用户,其操作频繁,用时短,失败少;中性型用户,其操作频率一般,用时和失败次数适中;负面型用户,其操作不频繁,完成难关用时长,失败次数多。
获取所述样本集中的各个用户在不同游戏难度下的情感值;如用户A在不同游戏难度下的情感值为(game_parami, pi),1≤i≤N,game_parami表示游戏难度,pi表示情感值,具体地,调节游戏难度参数以调节游戏难度,调节游戏难度包括:提高/降低关卡难度系数、改变关卡配置等,然后将各个用户在不同游戏难度下的游戏数据输入用户情感分类模型,得到对应的情感类别及对应的情感值,将各个用户在不同游戏难度下的情感值映射到二维空间,横轴是game_param,纵轴是对应的情感值p。
在所述样本集中的各个用户对应的情感值与游戏难度上,利用回归算法拟合所述样本集中的各个用户对应的个体情感响应曲线f(p|game_params),如使用简单的线性回归,得到线性响应曲线,也可以用高阶多项式曲线拟合,或者使用神经网络拟合复杂非线性响应曲线;
根据各个所述个体情感相应曲线计算得到样本集中各个用户在各个游戏难度下的情感值;
根据所述样本集中各个用户在各个游戏难度下的情感值计算各个簇在各个游戏难度下的平均情感值,在各个所述簇对应的平均情感值与游戏难度上,利用回归算法拟合各个所述簇对应的平均情感响应曲线,f_negative(p | game_params)、f_neutral(p |game_params)和f_positive(p | game_params),利用预设的第二参数对各个平均情感响应曲线进行调整,得到各个簇对应的预设情感函数,如负面型对应的预设情感函数为:
,
中性型对应的预设情感函数为:
,
其中,1.2、0.8和0.1为预设的第二参数,1.2和0.8是缩放系数,用于放大或缩小平均情感响应曲线的幅度,0.1是平移量,用于整体移动平均情感响应曲线的位置。通过 放大或缩小幅度,以适应不同类型用户的响应曲线幅度差异,通过平移位置,使计算得到的情感预测值处在合理的区间内,在其他实施例中,具体数值1.2和0.8可以增大或减小约20%的幅度,0.1也能够根据实际需求进行调整。
在本实施例中,预设目标函数设为:
,
其中,表示优化目标函数,p_type表示目标情感值;第一参数包括参数a和b,使用第一参数对目标情感函数E0_type进行调整得到优化目标函数/>:
,
其中,a和b的值能够通过优化算法(如梯度下降)迭代确定,以最小化预设目标函数,在迭代过程中,不断调整a和b,使逼近p_type。当预设目标函数收敛时,获得最终的a和b,将优化得到的参数a和b带入优化目标函数,得到最优目标情感函数/>,该最优目标情感函数在当前游戏难度下的情感预测值为目标用户的理想情绪。
步骤4、根据所述当前情绪和理想情绪计算难度调整值,根据所述难度调整值调整当前游戏难度得到目标游戏难度。
在本实施例中,所述根据所述当前情绪和理想情绪计算难度调整值,包括:
计算所述当前情绪与理想情绪之间的情绪差值;
在所述情绪差值大于上限阈值,且持续时间超过第一预设时间的情况下,以及在所述情绪差值小于下限阈值,且持续时间超过第二预设时间的情况下,通过难度调整公式计算难度调整值;
所述难度调整公式为:
,
,
其中,所述k(U) 表示用户情感类别系数,k表示根据用户情感类别U采用不同的系数,err表示情绪差值,表示时间衰减因子,实现难度调整的衰减效果,T表示用户情感类别U对应的衰减时间常数,控制衰减速率,t表示时间,A 表示映射上限,B表示映射的增长速率,C表示映射的中间点。
具体地,中性型用户k取较小值,调整量相对较缓,负面型用户k取较大值,调整量更剧烈,k的取值能够通过训练学习获得,目标是针对不同用户达到最佳的难度调整效果,在当前情绪大于理想情绪的情况下,表示需要增加游戏难度,在当前情绪等于理想情绪的情况下,表示不需要调整游戏难度,在当前情绪小于理想情绪的情况下,表示需要降低游戏难度,通过时间衰减因子的设置,可以使游戏参数随时间衰减,逐渐返回原设置,以防止游戏参数永远保持在调整后的参数值,实现动态调节难度后回归的效果;上限阈值设为0.2,下限阈值设为-0.2,第一预设时间和第二预设时间相同,都为60秒,在其他实施例中,上限阈值、下限阈值、第一预设时间和第二预设时间能够根据实际需求进行调整,第一预设时间和第二预设时间可不同。在是本实施例中当err>0.2(上限阈值),且持续时间超过60秒时,表示目标用户的情绪值已经明显高于理想情绪,则计算S值,同时触发增加游戏难度的调整,当err<-0.2(下限阈值),且持续时间超过90秒时,表示目标用户的情绪值明显低于理想情绪,则计算S值,同时触发降低游戏难度的调整,通过上限阈值、下限阈值、第一预设时间和第二预设时间的设置,能避免过于敏感的触发游戏难度调整。
具体地,计算目标游戏难度level_targE = 难度调整值S + 当前游戏难度level,在游戏参数和游戏难度的映射表中,查找级别为level_targE对应的游戏参数设置,获取该游戏参数设置,作为新的游戏参数动态平滑加载到游戏中,调整游戏难度至level_targE,如当前游戏难度level = 5,难度调整值S = 2,则目标游戏难度level_targE = S + level= 2 + 5 = 7,在映射表中查找难度级别7的参数设置:生命值 60,攻击力10,将生命值60和攻击力10作为新的游戏参数将游戏难度调整至7。
在本实施例中,还能设置冷却时间,在每次触发游戏难度调整后,会启动一个冷却计时器,时长设为120秒,在该120秒内,将不考虑新的游戏难度调整请求,冷却时间过后,才会再次检测是否满足触发条件,可以防止在短时间内触发多次游戏难度调整,在其他实施例中冷却计时器的时长能够根据实际需求进行调整。
本发明实施例公开的基于情绪识别的游戏难度调节方法,通过目标用户的多源生理数据准确获取目标用户的当前情绪,然后计算目标用户的理想情绪,根据当前情绪和理想情绪计算难度调整值实现个性化的难度调节,可以保持目标用户处于最佳情绪状态,避免由于情绪波动产生的负面游戏体验,从而提高用户的游戏满意度;通过用户情感分类模型和预设情感函数的建立,可以针对不同类型用户进行精准情感判断,从而实现个性化的难度调节,不同用户可以获得符合自身情感模式的游戏体验;通过游戏参数与游戏难度的映射,可以实现平滑连续的难度调节,防止由于不合理参数产生的突兀体验,用户可以得到更流畅自然的游戏过程;通过映射表的设置,可以快速查找对应游戏难度的游戏参数组合,缩短设计和测试游戏难度的时间周期。
如图2所示,本发明实施例公开了一种基于情绪识别的游戏难度调节系统,包括:
数据获取模块10,用于获取当前游戏难度、目标用户的多源生理数据和目标用户的历史游戏数据,其中,所述多源生理数据包括:多个从不同角度反映目标用户情绪的生理数据;
当前情绪模块20,用于将所述多源生理数据输入训练好的情绪识别模型后,得到目标用户的当前情绪;
理想情绪模块30,用于根据所述历史游戏数据获得目标用户的理想情绪;
难度调整模块40,用于根据所述当前情绪和理想情绪计算难度调整值,根据所述难度调整值调整当前游戏难度得到目标游戏难度。
关于基于情绪识别的游戏难度调节系统的具体构成可以参见上文中对于基于情绪识别的游戏难度调节方法的构成,在此不再赘述。上述基于情绪识别的游戏难度调节系统的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于情绪识别的游戏难度调节方法。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备, 包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行计算机程序时实现以下步骤:
获取当前游戏难度、目标用户的多源生理数据和目标用户的历史游戏数据,其中,所述多源生理数据包括:多个从不同角度反映目标用户情绪的生理数据;
将所述多源生理数据输入训练好的情绪识别模型后,得到目标用户的当前情绪;
根据所述历史游戏数据获得目标用户的理想情绪;
根据所述当前情绪和理想情绪计算难度调整值,根据所述难度调整值调整当前游戏难度得到目标游戏难度。
在一个实施例中,所述情绪识别模型包括:
多个与多个所述生理数据一一对应的LSTM网络,用于提取对应的生理数据的特征向量;
多源融合网络,用于将所有生理数据对应的特征向量进行拼接得到多源特征向量,提取所述多源特征向量的多源情感特征,根据所述多源情感特征预测得到目标用户的当前情绪。
在一个实施例中,所述根据所述历史游戏数据获得目标用户的理想情绪,包括:
采用预设滑动窗口对所述历史游戏数据进行分割,对分割后的历史游戏数据使用onehot编码得到编码数据,对所述编码数据提取时间统计特征;
将所述时间统计特征输入训练好的用户情感分类模型中得到所述目标用户的目标情感类别及对应的目标情感值;
根据所述目标情感类别从多个预设情感函数中选取对应的目标情感函数,其中,所述目标情感函数的自变量为游戏难度,因变量为情感预测值;
初始化第一参数对所述目标情感函数进行调整得到优化目标函数,将所述目标情感值和优化目标函数在当前游戏难度下的情感预测值输入预设目标函数得到输出值,根据所述输出值更新第一参数,进行多次迭代,直至预设目标函数收敛,将预设目标函数收敛后对应的第一参数带入优化目标函数得到最优目标情感函数;
将所述最优目标情感函数在当前游戏难度下的情感预测值作为目标用户的理想情绪。
在一个实施例中,所述用户情感分类模型的训练方法,包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
采用所述样本集对用户情感分类模型进行训练,使用预设损失函数计算预测误差,通过反向传播算法更新用户情感分类模型的参数,直至收敛,得到训练好的用户情感分类模型;
所述预设损失函数为:
Loss = MSE(y_pred, y_true) + CE(p(y|y_pred), y_true),
其中,所述y_pred为用户情感分类模型根据输入预测的用户的预测情感类别概率,y_true为样本集中的样本对应的真实情感类别,MSE代表均方误差损失,用于衡量y_pred和 y_true之间的差异,p(y|y_pred)是用户情感分类模型预测情感分类的概率分布,CE代表交叉熵损失,用于评估y_pred和 y_true的差异。
在一个实施例中,所述预设情感函数的构建方法包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
将所述样本集中的样本输入训练好的用户情感分类模型得到各个用户对应的情感类别,根据所述情感类别对所有用户进行初始分类,通过聚类算法对初始分类后的用户重新进行分类得到多个簇;
获取所述样本集中的各个用户在不同游戏难度下的情感值;
在所述样本集中的各个用户对应的情感值与游戏难度上,利用回归算法拟合所述样本集中的各个用户对应的个体情感响应曲线,根据各个所述个体情感相应曲线计算得到样本集中各个用户在各个游戏难度下的情感值;
根据所述样本集中各个用户在各个游戏难度下的情感值计算各个簇在各个游戏难度下的平均情感值,在各个所述簇对应的平均情感值与游戏难度上,利用回归算法拟合各个所述簇对应的平均情感响应曲线,利用预设的第二参数对各个平均情感响应曲线进行调整,得到各个簇对应的预设情感函数。
在一个实施例中,所述根据所述当前情绪和理想情绪计算难度调整值,包括:
计算所述当前情绪与理想情绪之间的情绪差值;
在所述情绪差值大于上限阈值,且持续时间超过第一预设时间的情况下,以及在所述情绪差值小于下限阈值,且持续时间超过第二预设时间的情况下,通过难度调整公式计算难度调整值;
所述难度调整公式为:
,
,
其中,所述k(U) 表示用户情感类别系数,k表示根据用户情感类别U采用不同的系数,err表示情绪差值,表示时间衰减因子,实现难度调整的衰减效果,T表示用户情感类别U对应的衰减时间常数,控制衰减速率,t表示时间,A 表示映射上限,B表示映射的增长速率,C表示映射的中间点。
在一个实施例中,在所述获取当前游戏难度之前,包括:
根据游戏需求和机制,确定影响难度的关键参数;
对各个所述关键参数,设定多个参数值,将所有关键参数中的参数值进行排列组合,组成不同游戏难度的多个参数组合;
测试各个所述参数组合的难易程度,确定各个参数组合的游戏难度;
根据各个参数组合对应的参数值和对应的游戏难度,构建关键参数与游戏难度的映射表。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取当前游戏难度、目标用户的多源生理数据和目标用户的历史游戏数据,其中,所述多源生理数据包括:多个从不同角度反映目标用户情绪的生理数据;
将所述多源生理数据输入训练好的情绪识别模型后,得到目标用户的当前情绪;
根据所述历史游戏数据获得目标用户的理想情绪;
根据所述当前情绪和理想情绪计算难度调整值,根据所述难度调整值调整当前游戏难度得到目标游戏难度。
在一个实施例中,所述情绪识别模型包括:
多个与多个所述生理数据一一对应的LSTM网络,用于提取对应的生理数据的特征向量;
多源融合网络,用于将所有生理数据对应的特征向量进行拼接得到多源特征向量,提取所述多源特征向量的多源情感特征,根据所述多源情感特征预测得到目标用户的当前情绪。
在一个实施例中,所述根据所述历史游戏数据获得目标用户的理想情绪,包括:
采用预设滑动窗口对所述历史游戏数据进行分割,对分割后的历史游戏数据使用onehot编码得到编码数据,对所述编码数据提取时间统计特征;
将所述时间统计特征输入训练好的用户情感分类模型中得到所述目标用户的目标情感类别及对应的目标情感值;
根据所述目标情感类别从多个预设情感函数中选取对应的目标情感函数,其中,所述目标情感函数的自变量为游戏难度,因变量为情感预测值;
初始化第一参数对所述目标情感函数进行调整得到优化目标函数,将所述目标情感值和优化目标函数在当前游戏难度下的情感预测值输入预设目标函数得到输出值,根据所述输出值更新第一参数,进行多次迭代,直至预设目标函数收敛,将预设目标函数收敛后对应的第一参数带入优化目标函数得到最优目标情感函数;
将所述最优目标情感函数在当前游戏难度下的情感预测值作为目标用户的理想情绪。
在一个实施例中,所述用户情感分类模型的训练方法,包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
采用所述样本集对用户情感分类模型进行训练,使用预设损失函数计算预测误差,通过反向传播算法更新用户情感分类模型的参数,直至收敛,得到训练好的用户情感分类模型;
所述预设损失函数为:
Loss = MSE(y_pred, y_true) + CE(p(y|y_pred), y_true),
其中,所述y_pred为用户情感分类模型根据输入预测的用户的预测情感类别概率,y_true为样本集中的样本对应的真实情感类别,MSE代表均方误差损失,用于衡量y_pred和 y_true之间的差异,p(y|y_pred)是用户情感分类模型预测情感分类的概率分布,CE代表交叉熵损失,用于评估y_pred和 y_true的差异。
在一个实施例中,所述预设情感函数的构建方法包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
将所述样本集中的样本输入训练好的用户情感分类模型得到各个用户对应的情感类别,根据所述情感类别对所有用户进行初始分类,通过聚类算法对初始分类后的用户重新进行分类得到多个簇;
获取所述样本集中的各个用户在不同游戏难度下的情感值;
在所述样本集中的各个用户对应的情感值与游戏难度上,利用回归算法拟合所述样本集中的各个用户对应的个体情感响应曲线,根据各个所述个体情感相应曲线计算得到样本集中各个用户在各个游戏难度下的情感值;
根据所述样本集中各个用户在各个游戏难度下的情感值计算各个簇在各个游戏难度下的平均情感值,在各个所述簇对应的平均情感值与游戏难度上,利用回归算法拟合各个所述簇对应的平均情感响应曲线,利用预设的第二参数对各个平均情感响应曲线进行调整,得到各个簇对应的预设情感函数。
在一个实施例中,所述根据所述当前情绪和理想情绪计算难度调整值,包括:
计算所述当前情绪与理想情绪之间的情绪差值;
在所述情绪差值大于上限阈值,且持续时间超过第一预设时间的情况下,以及在所述情绪差值小于下限阈值,且持续时间超过第二预设时间的情况下,通过难度调整公式计算难度调整值;
所述难度调整公式为:
,
,
其中,所述k(U) 表示用户情感类别系数,k表示根据用户情感类别U采用不同的系数,err表示情绪差值,表示时间衰减因子,实现难度调整的衰减效果,T表示用户情感类别U对应的衰减时间常数,控制衰减速率,t表示时间,A 表示映射上限,B表示映射的增长速率,C表示映射的中间点。
在一个实施例中,在所述获取当前游戏难度之前,包括:
根据游戏需求和机制,确定影响难度的关键参数;
对各个所述关键参数,设定多个参数值,将所有关键参数中的参数值进行排列组合,组成不同游戏难度的多个参数组合;
测试各个所述参数组合的难易程度,确定各个参数组合的游戏难度;
根据各个参数组合对应的参数值和对应的游戏难度,构建关键参数与游戏难度的映射表。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
Claims (9)
1.基于情绪识别的游戏难度调节方法,其特征在于,包括:
获取当前游戏难度、目标用户的多源生理数据和目标用户的历史游戏数据,其中,所述多源生理数据包括:多个从不同角度反映目标用户情绪的生理数据;
将所述多源生理数据输入训练好的情绪识别模型后,得到目标用户的当前情绪;
根据所述历史游戏数据获得目标用户的理想情绪;
根据所述当前情绪和理想情绪计算难度调整值,根据所述难度调整值调整当前游戏难度得到目标游戏难度;
所述根据所述历史游戏数据获得目标用户的理想情绪,包括:
采用预设滑动窗口对所述历史游戏数据进行分割,对分割后的历史游戏数据使用onehot编码得到编码数据,对所述编码数据提取时间统计特征;
将所述时间统计特征输入训练好的用户情感分类模型中得到所述目标用户的目标情感类别及对应的目标情感值;
根据所述目标情感类别从多个预设情感函数中选取对应的目标情感函数,其中,所述目标情感函数的自变量为游戏难度,因变量为情感预测值;
初始化第一参数对所述目标情感函数进行调整得到优化目标函数,将所述目标情感值和优化目标函数在当前游戏难度下的情感预测值输入预设目标函数得到输出值,根据所述输出值更新第一参数,进行多次迭代,直至预设目标函数收敛,将预设目标函数收敛后对应的第一参数带入优化目标函数得到最优目标情感函数;
将所述最优目标情感函数在当前游戏难度下的情感预测值作为目标用户的理想情绪。
2.如权利要求1所述的基于情绪识别的游戏难度调节方法,其特征在于,所述情绪识别模型包括:
多个与多个所述生理数据一一对应的LSTM网络,用于提取对应的生理数据的特征向量;
多源融合网络,用于将所有生理数据对应的特征向量进行拼接得到多源特征向量,提取所述多源特征向量的多源情感特征,根据所述多源情感特征预测得到目标用户的当前情绪。
3.如权利要求1所述的基于情绪识别的游戏难度调节方法,其特征在于,所述用户情感分类模型的训练方法,包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
采用所述样本集对用户情感分类模型进行训练,使用预设损失函数计算预测误差,通过反向传播算法更新用户情感分类模型的参数,直至收敛,得到训练好的用户情感分类模型;
所述预设损失函数为:
Loss = MSE(y_pred, y_true) + CE(p(y|y_pred), y_true),
其中,所述y_pred为用户情感分类模型根据输入预测的用户的预测情感类别概率,y_true为样本集中的样本对应的真实情感类别,MSE代表均方误差损失,用于衡量y_pred和y_true之间的差异,p(y|y_pred)是用户情感分类模型预测情感分类的概率分布,CE代表交叉熵损失,用于评估y_pred和 y_true的差异。
4.如权利要求1所述的基于情绪识别的游戏难度调节方法,其特征在于,所述预设情感函数的构建方法包括:
收集不同用户的游戏数据,对不同用户的游戏数据进行预处理,形成样本集;
将所述样本集中的样本输入训练好的用户情感分类模型得到各个用户对应的情感类别,根据所述情感类别对所有用户进行初始分类,通过聚类算法对初始分类后的用户重新进行分类得到多个簇;
获取所述样本集中的各个用户在不同游戏难度下的情感值;
在所述样本集中的各个用户对应的情感值与游戏难度上,利用回归算法拟合所述样本集中的各个用户对应的个体情感响应曲线,根据各个所述个体情感相应曲线计算得到样本集中各个用户在各个游戏难度下的情感值;
根据所述样本集中各个用户在各个游戏难度下的情感值计算各个簇在各个游戏难度下的平均情感值,在各个所述簇对应的平均情感值与游戏难度上,利用回归算法拟合各个所述簇对应的平均情感响应曲线,利用预设的第二参数对各个平均情感响应曲线进行调整,得到各个簇对应的预设情感函数。
5.如权利要求1所述的基于情绪识别的游戏难度调节方法,其特征在于,所述根据所述当前情绪和理想情绪计算难度调整值,包括:
计算所述当前情绪与理想情绪之间的情绪差值;
在所述情绪差值大于上限阈值,且持续时间超过第一预设时间的情况下,以及在所述情绪差值小于下限阈值,且持续时间超过第二预设时间的情况下,通过难度调整公式计算难度调整值;
所述难度调整公式为:
,
,
其中,所述k(U) 表示用户情感类别系数,k表示根据用户情感类别U采用不同的系数,err表示情绪差值,表示时间衰减因子,实现难度调整的衰减效果,T表示用户情感类别U对应的衰减时间常数,控制衰减速率,t表示时间,A 表示映射上限,B表示映射的增长速率,C表示映射的中间点。
6.如权利要求1所述的基于情绪识别的游戏难度调节方法,其特征在于,在所述获取当前游戏难度之前,包括:
根据游戏需求和机制,确定影响难度的关键参数;
对各个所述关键参数,设定多个参数值,将所有关键参数中的参数值进行排列组合,组成不同游戏难度的多个参数组合;
测试各个所述参数组合的难易程度,确定各个参数组合的游戏难度;
根据各个参数组合对应的参数值和对应的游戏难度,构建关键参数与游戏难度的映射表。
7.基于情绪识别的游戏难度调节系统,其特征在于,包括:
数据获取模块,用于获取当前游戏难度、目标用户的多源生理数据和目标用户的历史游戏数据,其中,所述多源生理数据包括:多个从不同角度反映目标用户情绪的生理数据;
当前情绪模块,用于将所述多源生理数据输入训练好的情绪识别模型后,得到目标用户的当前情绪;
理想情绪模块,用于根据所述历史游戏数据获得目标用户的理想情绪,所述根据所述历史游戏数据获得目标用户的理想情绪,包括:采用预设滑动窗口对所述历史游戏数据进行分割,对分割后的历史游戏数据使用onehot编码得到编码数据,对所述编码数据提取时间统计特征;将所述时间统计特征输入训练好的用户情感分类模型中得到所述目标用户的目标情感类别及对应的目标情感值;根据所述目标情感类别从多个预设情感函数中选取对应的目标情感函数,其中,所述目标情感函数的自变量为游戏难度,因变量为情感预测值;初始化第一参数对所述目标情感函数进行调整得到优化目标函数,将所述目标情感值和优化目标函数在当前游戏难度下的情感预测值输入预设目标函数得到输出值,根据所述输出值更新第一参数,进行多次迭代,直至预设目标函数收敛,将预设目标函数收敛后对应的第一参数带入优化目标函数得到最优目标情感函数;将所述最优目标情感函数在当前游戏难度下的情感预测值作为目标用户的理想情绪;
难度调整模块,用于根据所述当前情绪和理想情绪计算难度调整值,根据所述难度调整值调整当前游戏难度得到目标游戏难度。
8.计算机设备, 包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述的方法的步骤。
9.计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311217592.8A CN116943226B (zh) | 2023-09-20 | 2023-09-20 | 基于情绪识别的游戏难度调节方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311217592.8A CN116943226B (zh) | 2023-09-20 | 2023-09-20 | 基于情绪识别的游戏难度调节方法、系统、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116943226A true CN116943226A (zh) | 2023-10-27 |
CN116943226B CN116943226B (zh) | 2024-01-05 |
Family
ID=88460519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311217592.8A Active CN116943226B (zh) | 2023-09-20 | 2023-09-20 | 基于情绪识别的游戏难度调节方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116943226B (zh) |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002126346A (ja) * | 2001-09-14 | 2002-05-08 | Konami Co Ltd | ゲーム装置、ゲーム機の制御方法及び記録媒体 |
CN101393599A (zh) * | 2007-09-19 | 2009-03-25 | 中国科学院自动化研究所 | 一种基于人脸表情的游戏角色控制方法 |
US20100123588A1 (en) * | 2008-11-19 | 2010-05-20 | Immersion Corporation | Method and Apparatus for Generating Mood-Based Haptic Feedback |
CN102076387A (zh) * | 2008-04-29 | 2011-05-25 | 百利游戏有限公司 | 用于诸如电子游戏机(egm)的游戏装置的生物反馈 |
CN104898941A (zh) * | 2015-05-15 | 2015-09-09 | 广东小天才科技有限公司 | 基于用户生理状态调节学习或娱乐项目的方法、装置及系统 |
US20170259177A1 (en) * | 2016-03-08 | 2017-09-14 | Electronic Arts Inc. | Dynamic difficulty adjustment |
CN109107162A (zh) * | 2018-11-01 | 2019-01-01 | 杭州勺子网络科技有限公司 | 游戏难度调节方法及装置 |
CN111375196A (zh) * | 2018-12-27 | 2020-07-07 | 电子技术公司 | 基于感知的动态游戏状态配置 |
CN111461204A (zh) * | 2020-03-30 | 2020-07-28 | 华南理工大学 | 一种用于游戏评估的基于脑电信号的情感识别方法 |
CN111530081A (zh) * | 2020-04-17 | 2020-08-14 | 成都数字天空科技有限公司 | 游戏关卡设计方法、装置、存储介质及电子设备 |
CN112949575A (zh) * | 2021-03-29 | 2021-06-11 | 建信金融科技有限责任公司 | 情绪识别模型的生成、情绪识别方法、装置、设备及介质 |
CN113350798A (zh) * | 2021-05-31 | 2021-09-07 | 多益网络有限公司 | 一种游戏模式设置方法、装置、设备和存储介质 |
CN113660987A (zh) * | 2019-03-19 | 2021-11-16 | 莫达尔有限公司 | 生成适用于游戏应用程序的游戏机器人 |
CN115565640A (zh) * | 2022-10-19 | 2023-01-03 | 深圳脑吾脑网络科技有限公司 | 基于游戏行为评估的个性化神经调控认知训练系统 |
CN115952736A (zh) * | 2023-01-04 | 2023-04-11 | 北方工业大学 | 一种多智能体目标协同搜索方法及系统 |
CN116520681A (zh) * | 2023-07-03 | 2023-08-01 | 小舟科技有限公司 | 轮椅自动行驶控制方法及装置、自动行驶轮椅 |
CN116630736A (zh) * | 2023-04-12 | 2023-08-22 | 世优(北京)科技有限公司 | 一种用户表情捕捉模型的训练方法及系统 |
-
2023
- 2023-09-20 CN CN202311217592.8A patent/CN116943226B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002126346A (ja) * | 2001-09-14 | 2002-05-08 | Konami Co Ltd | ゲーム装置、ゲーム機の制御方法及び記録媒体 |
CN101393599A (zh) * | 2007-09-19 | 2009-03-25 | 中国科学院自动化研究所 | 一种基于人脸表情的游戏角色控制方法 |
CN102076387A (zh) * | 2008-04-29 | 2011-05-25 | 百利游戏有限公司 | 用于诸如电子游戏机(egm)的游戏装置的生物反馈 |
US20100123588A1 (en) * | 2008-11-19 | 2010-05-20 | Immersion Corporation | Method and Apparatus for Generating Mood-Based Haptic Feedback |
CN104898941A (zh) * | 2015-05-15 | 2015-09-09 | 广东小天才科技有限公司 | 基于用户生理状态调节学习或娱乐项目的方法、装置及系统 |
US20170259177A1 (en) * | 2016-03-08 | 2017-09-14 | Electronic Arts Inc. | Dynamic difficulty adjustment |
CN109107162A (zh) * | 2018-11-01 | 2019-01-01 | 杭州勺子网络科技有限公司 | 游戏难度调节方法及装置 |
CN111375196A (zh) * | 2018-12-27 | 2020-07-07 | 电子技术公司 | 基于感知的动态游戏状态配置 |
CN113660987A (zh) * | 2019-03-19 | 2021-11-16 | 莫达尔有限公司 | 生成适用于游戏应用程序的游戏机器人 |
CN111461204A (zh) * | 2020-03-30 | 2020-07-28 | 华南理工大学 | 一种用于游戏评估的基于脑电信号的情感识别方法 |
CN111530081A (zh) * | 2020-04-17 | 2020-08-14 | 成都数字天空科技有限公司 | 游戏关卡设计方法、装置、存储介质及电子设备 |
CN112949575A (zh) * | 2021-03-29 | 2021-06-11 | 建信金融科技有限责任公司 | 情绪识别模型的生成、情绪识别方法、装置、设备及介质 |
CN113350798A (zh) * | 2021-05-31 | 2021-09-07 | 多益网络有限公司 | 一种游戏模式设置方法、装置、设备和存储介质 |
CN115565640A (zh) * | 2022-10-19 | 2023-01-03 | 深圳脑吾脑网络科技有限公司 | 基于游戏行为评估的个性化神经调控认知训练系统 |
CN115952736A (zh) * | 2023-01-04 | 2023-04-11 | 北方工业大学 | 一种多智能体目标协同搜索方法及系统 |
CN116630736A (zh) * | 2023-04-12 | 2023-08-22 | 世优(北京)科技有限公司 | 一种用户表情捕捉模型的训练方法及系统 |
CN116520681A (zh) * | 2023-07-03 | 2023-08-01 | 小舟科技有限公司 | 轮椅自动行驶控制方法及装置、自动行驶轮椅 |
Also Published As
Publication number | Publication date |
---|---|
CN116943226B (zh) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109145112B (zh) | 一种基于全局信息注意力机制的商品评论分类方法 | |
CN109615226B (zh) | 一种运营指标异常监测方法 | |
CN111191841A (zh) | 一种电力负荷预测方法、装置、计算机设备及存储介质 | |
CN116757534B (zh) | 一种基于神经训练网络的智能冰箱可靠性分析方法 | |
KR20170044102A (ko) | 데이터에 대한 지식-그래프 바이어싱된 분류 | |
KR20220117336A (ko) | 소비 전력을 예측하기 위한 방법 및 장치, 디바이스 및 판독 가능한 저장 매체 | |
CN110705428B (zh) | 一种基于脉冲神经网络的脸部年龄识别系统及方法 | |
CN112037179B (zh) | 一种脑疾病诊断模型的生成方法、系统及设备 | |
CN112288137A (zh) | 一种计及电价和Attention机制的LSTM短期负荷预测方法及装置 | |
CN114694379B (zh) | 一种基于自适应动态图卷积的交通流预测方法及系统 | |
CN115766125A (zh) | 一种基于lstm和生成对抗网络的网络流量预测方法 | |
CN115308558A (zh) | Cmos器件寿命预测方法、装置、电子设备及介质 | |
CN116943226B (zh) | 基于情绪识别的游戏难度调节方法、系统、设备及介质 | |
CN117036834A (zh) | 基于人工智能的数据分类方法、装置及电子设备 | |
CN116029604B (zh) | 一种基于健康舒适度的笼养肉鸭养殖环境调控方法 | |
CN112381213A (zh) | 一种基于双向长短期记忆网络的工业设备剩余寿命预测方法 | |
CN116469574A (zh) | 一种基于woa-bilstm的传染病预测方法 | |
CN116543289A (zh) | 一种基于编码器-解码器及Bi-LSTM注意力模型的图像描述方法 | |
CN115391523A (zh) | 风电场多源异构数据处理方法及装置 | |
CN110009132A (zh) | 一种基于lstm深度神经网络的短期电力负荷精细化预测方法 | |
CN115293249A (zh) | 一种基于动态时序预测的电力系统典型场景概率预测方法 | |
CN113420680A (zh) | 一种基于gru注意力的遥感影像区域关注与文本生成方法 | |
CN110991685A (zh) | 一种气象温度预测方法 | |
CN113743670B (zh) | 一种基于gru模型的电路故障实时预测方法及验证电路 | |
CN117851784A (zh) | 一种基于多尺度空洞卷积的时间序列预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |