CN113660987A - 生成适用于游戏应用程序的游戏机器人 - Google Patents
生成适用于游戏应用程序的游戏机器人 Download PDFInfo
- Publication number
- CN113660987A CN113660987A CN202080022881.0A CN202080022881A CN113660987A CN 113660987 A CN113660987 A CN 113660987A CN 202080022881 A CN202080022881 A CN 202080022881A CN 113660987 A CN113660987 A CN 113660987A
- Authority
- CN
- China
- Prior art keywords
- game
- data
- player
- gaming
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/46—Computing the game score
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/58—Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/67—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/77—Game security or game management aspects involving data related to game devices or game servers, e.g. configuration data, software version or amount of memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
在各个实施例中,提出了一种方法,包括以下步骤:通过包括一个处理器的一种系统生成一个游戏机器人;通过所述系统从游戏应用程序中接收与实际玩家相对应的游戏遥测数据;通过所述系统从游戏应用程序中生成与游戏机器人相对应的游戏遥测数据;基于与实际玩家相对应的游戏遥测数据以及与游戏机器人相对应的游戏遥测数据,通过所述系统生成差异数据,所述差异数据表示由实际玩家生成的第一角色与由游戏机器人生成的第二角色之间随时间变化的差异;以及基于差异数据,通过所述系统更新游戏机器人。
Description
技术领域
本发明涉及用于开发游戏系统及其他游戏设备所用的游戏应用程序的处理系统和应用程序。
附图说明
图1为符合本发明一个实施例的游戏开发系统的图形/框图。
图2为符合本发明一个实施例的游戏开发平台的框图。
图3A为符合本发明一个实施例的游戏开发流水线的流程图/框图。
图3B为符合本发明一个实施例的一般体验角色的一个组成部分的流程图/框图。
图4为符合本发明一个实施例的一种方法的流程图。
图5为符合本发明一个实施例的游戏遥测数据的图示。
图6为符合本发明一个实施例的一种方法的流程图。
图7为符合本发明一个实施例的一种方法的流程图。
图8为符合本发明一个实施例的一种方法的流程图。
图9为符合本发明一个实施例的一种方法的流程图。
图10为符合本发明一个实施例的一种方法的流程图。
图11为符合本发明一个实施例的CNN架构的框图。
图12A为符合本发明一个实施例的视频帧的图像。
图12B和图12C为符合本发明一个实施例的激活映射。
图13A为符合本发明一个实施例的一种方法的流程图。
图13B为符合本发明一个实施例的视频帧的图像。
图14为符合本发明一个实施例的一种方法的流程图。
具体实施方式
图1为符合本发明一个实施例的游戏开发系统的图形/框图。特别是,提供了一种游戏开发平台125,所述平台通过网络115与游戏设备(如移动设备113)和游戏系统112进行游戏数据118和玩家数据119通信。网络115可以是互联网或其他广域网或局域网。游戏开发系统125可用于创建、开发、测试、平衡和更新游戏应用程序。
例如,游戏数据118可能包括一个提供给游戏设备进行游戏的当前版本的游戏应用程序。此外,从游戏设备向游戏开发平台125发送的游戏数据118可能包括游戏遥测数据,或经过处理产生游戏遥测数据和/或游戏开发时使用的其他游戏分析。玩家数据119可能包括一种或多种模式的输出,如通过麦克风产生的与游戏系统112或113有关的玩家或观众口头数据、与玩家或观众有关的聊天数据和/或玩家或观众的非口头数据(如面部表情、头部姿势)以及通过摄像头或其他成像传感器捕获的与游戏系统112或113有关的其他非口头数据,此类数据表示玩家和/或观众的参与度、反应或情绪。
将结合图2-14详细说明游戏开发平台125的运行,包含不同的可选功能和特征以及其示例。特别是,本文介绍了对游戏应用程序开发技术和游戏应用程序本身的技术的改进。
图2为符合本发明一个实施例的游戏开发平台的框图。特别是,游戏开发平台125包括一个网络接口220,如3G、4G、5G或其他蜂窝无线收发器、蓝牙收发器、WiFi收发器、超宽带收发器、WIMAX收发器、ZigBee收发器或其他无线接口、通用串行总线(USB)接口、IEEE1394火线接口、以太网接口或其他有线接口和/或用于通信的其他网卡或调制解调器,以通过网络115与一个或多个游戏设备通信。网络115可以是互联网或其他公用网或专用网。
游戏开发平台125还包括一个处理模块230和存储操作系统(O/S)244(如Apple、Unix、Linux或Microsoft操作系统或其他操作系统)的存储器模块240、一个游戏开发应用程序246、一个或多个游戏应用程序248、一个或多个游戏机器人250、一个或多个程序化内容生成(PCG)工具252以及一个或多个行为体验分析(BEA)工具254。特别是,O/S 244、游戏开发应用程序246、游戏应用程序248、游戏机器人250、PCG工具252和BEA工具254均各自包括操作指令,当处理模块230执行这些指令时,其将共同合作将所述处理模块配置成专用设备,以便执行本文所述的特定功能。
游戏开发平台125还可能包括一个用户接口(I/F)262,如显示设备、触摸屏、键盘、触摸板、操纵杆、拇指滚轮、鼠标、一个或多个按钮、扬声器、麦克风、加速计、陀螺仪或其他运动或位置传感器、摄像机或其他接口设备,这些设备会向游戏开发平台125的用户提供信息,并根据用户与游戏开发平台125的交互生成数据。
处理模块230可通过一个处理设备或多个处理设备实现。此类处理设备可能包括麦克风、微控制器、数字信号处理器、微型计算机、中央处理单元、现场可编程门阵列、可编程逻辑设备、状态机、逻辑电路、模拟电路、数字电路和/或根据存储在存储器(如存储器240)中的操作指令操纵信号(模拟和/或数字)的任何设备。存储器模块240可能包括硬盘驱动器或其他磁盘驱动器、只读存储器、随机存取存储器、易失性存储器、非易失性存储器、静态存储器、动态存储器、闪存存储器、高速缓冲存储器和/或存储数字信息的任何设备。请注意,当处理设备通过状态机、模拟电路、数字电路和/或逻辑电路实现其一个或多个功能时,存储相应操作指令的存储器可能嵌入由状态机、模拟电路、数字电路和/或逻辑电路组成的电路内,也可能在此电路之外。虽然本文提供了一种包括一个单总线260的特定总线架构,但是,其他架构也可能包括附加数据总线和/或一个或多个要素的直接连接。此外,游戏开发平台125可能包括一个或多个未明确显示的附加要素。
游戏开发人员可使用游戏开发应用程序246,协助并促进创建、开发、测试、平衡、改进、修订、优化调整和/或更新游戏应用程序248。例如,游戏应用程序248可能是一种多人或单人游戏,包括射击或其他战斗游戏、幻想游戏或其他动作或冒险游戏、模拟实际车辆设备或系统运作的模拟游戏、即时战略游戏、益智游戏、体育游戏、角色扮演游戏、棋盘游戏或其他视频或数字动画游戏。在各个实施例中,可存储一个或多个版本的游戏应用程序248,包括游戏应用程序的多个版本或更新、一组或多组游戏参数、游戏配置文件或游戏选项、一个或多个关卡及其他内容和/或其他游戏数据。
游戏机器人250与游戏开发应用程序246一起运行,可测试游戏应用程序246的运行情况和/或在游戏中充当一个或多个非玩家角色(NPC)。游戏机器人250可能包括和/或充当游戏AI(人工智能)角色,此类角色通过机器学习算法构建和实现,并作为自动测试器运行,旨在代表特定的游戏风格或技能水平。例如,使用这些AI角色,可比实际玩家更快地通过游戏,以便快捷评估游戏内容;通过上千种通关变化随机评估关卡难度;生成关键性能指标(KPI),增加设计迭代速度,使设计师腾出时间专注于游戏玩法和高级概念;用相同的技能水平和风格反复测试,例如,通过游戏应用程序248的各个版本和/或迭代。
此外,一个或多个AI角色可充当回归游戏测试器,基于人类演示记录的机器学习玩游戏,并检查在内容或代码更改后游戏是否仍可玩。特别是,回归游戏测试器可在游戏中发现错误时生成报告,生成KPI,预测总游戏时间和游戏难度变化,和/或与BEA工具250一起运行,预测玩家的积极和消极行为动机,包括厌倦、兴奋、完成等。
如上所述,在单人和多人游戏中,AI角色可作为玩家替身、AI对手和/或NPC。这使游戏开发人员可确保在启动前后始终有人对抗和模仿实际对手;用不同技能水平和风格的对手来挑战玩家;并使用行为模式不同的角色创造一个逼真、令人信服的世界。
PCG工具252利用程序化内容生成功能尽快启动,并加快游戏开发人员使用游戏开发应用程序246开发新游戏应用程序248和/或现有游戏应用程序的新内容或关卡的创意过程。PCG工具252通过构造算法、生成和检验算法、搜索算法和/或机器学习算法进行构建,并包括卷积神经网络、堆叠神经网络、生成对抗网络或其他深度学习算法,此类算法基于游戏遥测数据、行为动机数据和一个或多个AI角色的游戏玩法进行迭代训练,并可生成新游戏内容,如新游戏变化、新关卡及其他内容。
例如,游戏AI角色可通过AI角色游戏痕迹和游戏内容的统计数据来评估和评论通过PCG生成的内容,并在KPI预测和/或其他性能指标方面评估程序生成的内容。这使游戏开发应用程序246可自动、快速地协助游戏开发人员了解并评估PCG激活游戏的游戏空间,防止PCG设计不可玩或性能发生退化。
此外,PCG工具252可通过学习游戏开发人员向游戏开发平台125提供的示例生成新的益智游戏、关卡或其他内容,从而建立深度学习算法,并生成新的候选内容以供评估。这使游戏开发人员可使用游戏开发平台125来增加其预生成益智游戏、关卡和/或其他内容的生产力;关注概念和重要细节,而不是平凡的布局;从生成的示例开始创建,而不是空白画布,和/或基于游戏开发人员向游戏开发平台125提供的建立示例以及根据向先前的游戏开发人员学习的风格和偏好生成内容。
BEA工具254与游戏开发应用程序246一起运行,可根据游戏遥测数据或玩家/观众的实时游戏痕迹自动预测玩家动机以及其他玩家/观众体验,并生成行为动机数据(也称为“动机数据”、“玩家/用户动机”预测或“用户动机”预测),例如,此类数据包括一个评分或表明多个动机因素中每个因素数量的其他数值或表明关于玩家/观众动机或其他玩家/观众体验的预测的其他指标。此外,组合使用BEA工具254与游戏机器人250和/或PCG工具252,使游戏开发人员可根据模拟玩法预测未来玩家/观众动机,并根据AI角色的游戏痕迹预测其他玩家体验。
以上述方式使用游戏开发平台125,可协助游戏开发人员了解玩家或观众为何喜欢特定游戏应用程序248,并调整游戏应用程序,以减少用户流失,优化玩家体验和长期参与。特别是,潜在游戏玩家各不相同,其玩游戏的原因也各有不同。预测玩家动机有助于游戏开发人员在潜在玩家基数上理解此类差异和分组。
可通过偏好学习或基于玩家调查问卷、游戏遥测数据或其他游戏数据进行训练的其他机器学习技术来构建BEA工具254,以学习和预测实际玩家动机。经训练后,BEA工具254利用其他玩家/观众的游戏遥测数据来预测各玩家/观众与游戏交互的原因。例如,动机数据表明玩家/观众受多个动机因素驱动的程度或数量,以此类数据的形式生成BEA数据,使游戏开发人员可相应优化玩家体验;根据其动机匹配玩家,以创建更好的游戏回合;针对玩家优化游戏并使游戏个性化,以留住玩家/观众并提高终身价值;在玩家匹配不佳(即玩家匹配不当)和潜在消极交互成为问题之前进行识别;跟踪游戏玩家基数随时间的发展,并在典型玩家动机或行为模式发生变化时通过每天跟踪来管理游戏应用程序。
考虑以下用例示例。
用例1
背景技术
·游戏开发人员正在使用游戏开发平台125开发游戏应用程序248,此应用程序是一种多人手机游戏。
·所述游戏为两支对立球队玩一种幻想美式足球,每支球队最多包括4个角色。
·玩家可使用的角色将从较大的角色池中选择,提供给玩家,并针对特定比赛内置于“牌组”中。
·每个角色具备不同的能力,此类能力将彻底改变玩家体验。组合不同牌组中的不同角色将使玩家组成不同的球队。
·此外,在生命值、伤害、速度等组合方面,每个角色均可进行无限调整。
·了解这些不同牌组如何相互对抗很重要,这可确保游戏达到良好平衡,并激励玩家在玩游戏时获得更多的角色。
·游戏开发人员计划不断开发新角色,并在初始启动后定期发布新角色。
·此外,游戏开发人员还计划开发并发布会更改游戏玩法属性的新游戏领域,这将再次影响特定牌组的游戏价值。
需求
·游戏开发人员需要了解每个角色单独时以及与牌组中其他角色组合时的游戏属性。
·这意味着,游戏开发人员需要了解不同角色在游戏中相互对抗的动态表现。
·这意味着在不同的角色牌组配置下玩多个游戏,并观察和分析使用各种组合的各种游戏风格和策略的影响。
·游戏包括18个角色,除选择4个角色之外,玩家还可以在4个法术中选择可添加到其牌组中的法术。
·这意味着,当前版本的游戏支持293760个不同的牌组组合,其角色和法术属性具有无限差异。
·由于每场比赛均使用两个牌组(可能相同),因此,在调整任何游戏值前,可设置并进行86294937600场比赛。
·此外,不同的游戏地图会进一步增加复杂性。
·随着更多角色和地图的不断扩展,游戏将出现这种组合问题。
·游戏开发人员想研究尽可能多的不同牌组解决方案和比赛组合的属性,以优化游戏玩法,并确保产品具有较高的保留率和盈利能力,以使客户终身价值(LTV)最大化。
使用游戏开发平台125
·如果为研究角色和牌组的属性而进行一场比赛,对于两个人来说,目前需要5分钟左右的时间,为在相同时间开始比赛,这两个人需要进行协调。
·如果为研究角色和牌组的属性而进行一场比赛,对于两个游戏机器人250来说,目前需要20-25秒的时间。
·除比人类玩家快15倍之外,游戏机器人250还可以同时进行多场比赛、聚合数据并使用统计数据进行比较,而且无需定性解释。
·想定性检查角色的游戏开发人员可与游戏机器人250进行对抗,这将减少50%的人力,使员工腾出时间来完成其他任务,同时无需占用两名员工的时间。
·此外,游戏机器人250可作为NPC参与已完成的游戏,对抗玩家。这样,游戏开发人员将无需在内部单独开发与AI对抗的玩家,并通过为新玩家提供无限数量的对手来改进游戏的硬启动,因为游戏开发人员正在建立其玩家基数。
用例2
背景技术
·游戏开发人员拥有可实现益智游戏的现有游戏应用程序248。
·需要不断生成新内容,才能保持玩家对游戏的新鲜感。
·新内容需要具有较高质量。
·内容不可互换:游戏开发人员根据分析报告,关卡质量差异对客户终身价值有重大影响,良好的关卡是留住玩家的关键因素。
·创建新关卡的当前团队包括创建新关卡的2-3名关卡设计师。
·在此之前,设计师每两周可创建15个新关卡,并发布到游戏中。与外部游戏测试公司一起评估这些关卡需要1周的时间。
·减少迭代时间使设计师可以关注能增加关卡质量的新特征,这是游戏性能的主要预测因素。
需求
·游戏开发人员希望算法可自动生成新关卡概念,供设计师选择,使设计师可以关注新颖的关卡想法,而不是构建关卡设计的各个平凡方面。
·游戏开发人员希望使用自动内容生成功能进一步激发设计师的新想法,解决“空白画布”问题,即从头开始构思。
·游戏开发人员希望机器人的游戏方式更像人类,以便更好地评估设计师创建的关卡。
使用游戏开发平台125
·通过一个游戏机器人250的自动化游戏测试,此速率可以增至每周完成30个关卡。关卡评估几乎瞬间完成,使设计师可以在想法新颖时进行迭代。
用例3
背景技术
·游戏开发人员正在开发游戏应用程序248,在PC、Mac和PlayStation 4上,此应用程序可实现多平台叙事游戏。
·所述游戏是一种高度复杂的分支叙事游戏,需要约8小时的游戏时间才能完全通关。
需求
·所述游戏的各个要素高度独立。
·更改故事的前面部分可能会影响故事的后面部分,导致游戏无法完成。
·为满足在开发后期确定的需求或修复漏洞而更改代码,会破坏所述游戏前面部分的功能。
·团队规模有限,并且团队中没有全职质量保证人员。
·当非程序员团队成员遇到漏洞时,由于不能测试游戏或体验所创建的内容,其工作通常因此而停止。
·这会破坏创意流,显著增加故事想法的迭代时间。
·让程序员进行紧急漏洞修复往往会破坏程序员的工作流,因此具有连锁成本效应。
·根据变化测试整个游戏,需要至少8小时的全职工作,加上记录、用例创建及派生任务。
·游戏开发人员需要一种解决方案来自动确定贯穿游戏故事内容的失败点。
使用游戏开发平台125
·游戏机器人250自动贯穿游戏故事,使游戏开发人员可以确定游戏何时会崩溃或玩家何时会陷入困境。
·此系统以两种方式运行:
1.通过玩家模仿,游戏机器人250会模拟先前玩家的动作,以验证在更改游戏代码或内容后,之前的演示是否仍可完成。
2.游戏机器人250自动搜索游戏,贯穿故事线,寻找崩溃情况和/或僵局。
·游戏开发平台125的实现具有以下三个好处:
1.游戏开发平台125可持续验证在更改后游戏是否正常运行。
2.游戏开发平台125可持续验证游戏是否可完成。
3.游戏开发平台125可以无限地玩游戏,还允许进行应力测试,模拟人工交互,并提供比简单地让游戏在没有输入的情况下运行更现实的用例。
·游戏开发平台125大致相当于一名QA员工的工作量。
·对于一个大约10人的团队,在最初实施后,这会节省大致7%的预算。
·此外,游戏开发平台125可提高创意效率,产生更高质量的内容,这将对最终游戏性能产生积极影响。
用例4
背景技术
·游戏开发人员已实现一种无限跑步游戏。
需求
·当玩家基数非常大时,很难了解玩家。
·仅5%左右的玩家可完成游戏。
·游戏设计师的目标是让更多的玩家完成游戏。
使用游戏开发平台125
·使用BEA工具254可确定实时玩家体验,包括用于调整游戏的玩家动机,以提高游戏完成率和玩家保留率。
图3A为符合本发明一个实施例的游戏开发流水线325的流程图/框图。此游戏开发流水线325与图1和图2的游戏开发平台125一起运行,并利用所述的一个或多个功能和特征。特别是,提出了一种游戏开发流水线,其中,从在步骤300中最初生成游戏到α测试、β测试和/或软启动,再到在步骤314生成改进游戏以进行硬启动,游戏开发暂时取得进展。
在步骤300中,生成一个游戏,如应用程序248的初始版本。在各个实施例中,由游戏开发人员根据由游戏开发人员或其他用户开发的先前游戏或先前版本的游戏,使用游戏开发应用程序246从头或从PCG工具252生成的初始游戏内容开始开发游戏的初始版本。
在步骤302中,使用非模仿游戏机器人250测试游戏,例如,根据由游戏开发人员开发的先前游戏或先前游戏版本的测试和评估进行开发和训练的游戏机器人。在各个实施例中,游戏机器人250包括非模仿游戏机器人库以及描述性元数据,此类元数据表明每个游戏机器人的来源、先前使用情况、玩家风格、技能水平、相应玩家动机和/或其他特性。游戏开发人员可以选择并评估用于此测试的一个或多个现有游戏机器人。在选择一个或多个游戏机器人250后,可测试并改进游戏,以确定僵局,并开始平衡游戏、增加可玩性等。
在步骤304中,基于实际玩家(如在硬启动前用于测试的内部或外部玩家)的游戏遥测数据生成模仿游戏机器人250。在各个实施例中,游戏遥测数据可能包括从游戏痕迹中收集的数据,其中可能包括游戏音频和视频输出,如像素数据和音频数据、玩家输入、游戏状态、游戏事件、游戏成绩、游戏目标进展、游戏参数、KPI、游戏完成数据、游戏玩法数据、游戏进程数据、来源于上述任何内容以及其他游戏遥测数据和游戏分析的玩家风格。
在各个实施例中,游戏机器人250通过机器学习算法运行,此类算法通过游戏遥测数据和/或实际玩家/观众的其他数据进行训练。此类机器学习算法的示例包括人工神经网络(或本文所用的更简单的“神经网络”)、支持向量机(SVM)、贝叶斯网络、遗传算法和/或通过无监督、半监督、监督和/或强化学习训练的其他机器学习技术,可能进一步包括特征学习、稀疏字典学习、异常检测、决策树、关联规则和/或其他过程。
在步骤306中,通过监测输出(如游戏遥测数据,包括KPI以及游戏机器人250通过玩游戏生成的其他游戏分析)进一步测试并改进游戏。通过这种方式,可测试、评估和改进各个版本的游戏,以确定僵局,并进一步平衡游戏,从而增加可玩性,优化玩家保留率、参与度、动机以及其他体验等的预测。
在步骤308中,从玩家调查问卷或其他体验指标中收集BEA数据,包括可能与KPI、游戏事件、玩家行为、游戏状态、游戏成绩、游戏目标进展、游戏参数以及其他游戏分析有关的各种玩家动机因素。玩家动机因素可能是广泛的动机因素,如胜任感、自主感、归属感和存在感。此外,或可供选择地,玩家动机因素和/或行为可能与游戏相关,包括竞争、完成、幻想、破坏、发现、策略、兴奋、力量,包括更具体的动机,如达到高分、不断受到挑战、受到其他频率的挑战、达到游戏目标和成绩、完成关卡、放松、研究、避免厌倦、打败其他玩家或破坏其他玩家游戏、作弊、避免作弊的其他玩家、破坏作弊的其他玩家以及其他游戏风格等。
在步骤310中,BEA数据用于训练一个或多个BEA工具。如前所述,可通过偏好学习或基于BEA数据和/或游戏遥测数据进行训练的其他有序机器学习技术来构建BEA工具254,从而学习和预测实际玩家动机。
在步骤312中,可通过BEA工具自动及实时预测玩家体验(如玩家动机)或其他体验,此工具基于实际玩家和/或模仿或非模仿游戏机器人250的游戏遥测数据。这种玩家体验数据可与步骤306中的游戏机器人测试一起使用,例如,通过提高游戏性能、游戏的玩家满意度预测、玩家保留率预测和/或收入产生率预测,可在步骤314中进一步改进游戏,实现硬启动。
虽然游戏开发流水线325被描述为对应于调整、测试、分析并完善游戏的初始版本,产生经改进的游戏,以实现硬启动,但是,游戏开发流水线325中的一个或多个步骤也可以用于对游戏应用程序248的新版本、更新和/或新增加内容进行类似处理。此外,虽然游戏开发流水线325被描述为包括收集BEA数据的步骤308和基于BEA数据生成BEA工具254的步骤310,但是,在游戏开发平台125用于处理类似游戏、游戏应用程序248的新版本、更新和/或新增加内容时,可选择重复采用从先前游戏版本或类似游戏中生成的一个或多个BEA工具254。例如,BEA工具254包括BEA工具库及描述性元数据,此类元数据表明每个BEA工具的来源、先前使用情况和/或其他特性。游戏开发人员可以选择并评估一个或多个现有BEA工具254,在步骤312中,这些工具用于预测玩家体验,包括动机和/或行为,以及基于外部玩家游戏遥测数据的其他体验。
此外,考虑以下关于获得生成和一般玩家体验计算模型的进一步示例(例如“一般体验角色”)。所述角色属于生成角色,因为他们能够模拟作为人类体验演示提供的玩家体验。在涉及人类体验数字化和模拟的特定领域的各种实例化中,此过程也通用。
为了获得一般体验角色,游戏开发平台125可在计算模型的三个方面融合创新:模型输入、计算和模型输出。这种方法可建立在心理学锚定方法上,根据这种方法,人类以比较(相对)的方式进行数值编码。根据创新有序建模方法,角色通过可概括特征感知人类(或其演示),这些角色就像人类一样,逐渐通过机器学习体验环境。。
一般来说,游戏开发平台125解决了心理测量学和人类心理学的一个基本问题:从计算方面以一种可靠、有效的方式衡量体验。此平台还解决了人机交互和玩家体验研究的一个核心问题:如何在模拟世界中模拟体验,获得与人类相同的感觉。最后,此平台解决了机器学习与情感计算交叉的一个传统问题:如何从少量的主观性数据中学习到最多知识,以提高AI模型生成速度,减少其复杂性并进一步提高其准确率。
图3B为符合本发明一个实施例的一般体验角色的一个组成部分的流程图/框图350。特别是,提出了一种方法与结合图1、图2和图3A说明的任何功能和特征一起使用。通过组合三个核心子过程的创新:输入(描述符映射)、计算本身(生成模型)和输出(演示),此过程提供了一种可靠、有效的玩家体验(包括动机和/或行为)生成建模解决方案。
步骤352-体验演示:拟定的角色输出处理方法通用,因为此方法可支持传统心理测量学中的任何注释类型。就收集和处理体验标签的方式而言,此方法可能与之前的方法不同。特别是,可通过从交互中提取的参与度指标连续收集人类体验演示。其中包括从观众被动观看视频(例如游戏玩法视频)到任何交互的主动注释(例如游戏)的整个范围。以有序、无限的方式处理体验标签,从而构建价值不可知的一般体验模型。通过遵循一阶和二阶组合技术,既可以产生有效、可靠的人类体验演示,也可以从有限的数据中生成大型数据集。虽然仍可处理调查问卷数据,但是不再需要任何类型的调查问卷(人机交互的主导实践状态),人类的参与仅限于实际的小规模玩家群体。
步骤354-体验生成模型:体验角色可学习预测人类体验,甚至以与人类相同的方式表达此类体验。对于前者,游戏开发平台包括深度(偏好)学习方法,其中将学习预测标签体验的整体或部分顺序。对于后者,人类演示顺序(如上所述)定义了强化学习方法(例如神经进化)学习推断的效用。结果形成了一种体验生成模型,此类模型在模拟环境中的“感觉”与人类玩家相同。
步骤356-体验描述符映射:体验通过交互方式感知,并受体验标签限制。感知模型关注对于模型具有意义的标签体验领域,并消除在体验方面未观察到或报告任何变化的领域。通过观察交互的一般方面(即一般体验描述符映射)学习体验表示。从高级行为表征到序列交互模式,再到映射到体验标签的详细潜在变量,映射的设计可能有所不同。后者通过模拟交互(如可能)直接构建或在无法获取生成交互的代码时,通过机器学习的正向交互模型间接构建。
除单纯的游戏开发之外,可将游戏开发平台125的BEA工具254纳入最终游戏本身。通过这种方式,可根据动机和/或行为评估各玩家。在各个实施例中,可以从可能的游戏版本/设置库中为各玩家选择特定的游戏版本或游戏参数设置,以补充或匹配预测对应各玩家的特定动机和/或行为,从而改进特定玩家的体验。通过这种方式,可向喜欢挑战的玩家发起挑战,并向喜欢完成的玩家提供更容易完成的游戏。
此外,游戏开发平台125的BEA工具254可用于在多人游戏中根据各自的动机和/或行为将玩家配对。例如,如果BEA工具确定一个有价值的玩家喜欢扮演破坏者,则可将其经常与缺乏经验的玩家配对,以衬托其能力,留住此类玩家。在另一个示例中,如果BEA工具确定一个玩家作弊,则可将其与其他此类玩家或对作弊持中立态度的玩家进行配对,避免与确定会因对方玩家作弊而失去动力的其他玩家配对。
虽然上文结合生成游戏的BEA数据进行了说明,但是,上述技术也可应用于其他行业。人类体验的建模和生成能力可用于涉及人类行为和体验的任何研究领域或工业部门。这一过程的潜在应用列表范围很广泛,包括创意产业、营销、零售、网络服务、建筑与建筑环境、网络物理系统、汽车工业和数码艺术等部门。生成及一般体验角色不仅可利用此能力更快、更有效地测试、开发和提供服务,还允许在从服务、项目或与人类交互的对象构思直到原型、生产和发布的整个过程中做出更好的(角色驱动)决定。
图4为符合本发明一个实施例的一种方法的流程图。特别是,提出了一种方法与结合图1-2、图3A和图3B说明的任何功能和特征一起使用。在步骤400中,生成与游戏机器人(如上述游戏机器人250中的任何一个)相对应的游戏机器人模型。
步骤402包括从游戏应用程序(app)(如游戏应用程序348)接收游戏输出。步骤404包括通过游戏机器人模型生成游戏应用程序的游戏输入,其中,游戏输入与一个或多个模拟玩家相对应的游戏玩法。步骤406包括根据模拟玩家的游戏玩法生成游戏性能数据。这种游戏性能数据可用于更快地评估游戏内容;通过上千种通关变化随机评估关卡难度;并包括关键性能指标(KPI)或其他游戏分析。
图5为符合本发明一个实施例的游戏遥测数据的图示500和510。在各个实施例中,游戏机器人包括一种人工神经网络,此网络经训练,可基于游戏遥测数据模仿实际玩家,如大师级玩家或其他人类玩家。游戏遥测数据可能包括视频数据帧,其中包含与实际玩家和游戏机器人相对应的像素数据。在所示特定示例中,在图500的时间t1和图510的时间t2以实际游戏输出的形式提供了游戏遥测数据。游戏遥测数据包括由游戏机器人模型(如游戏机器人250)、另一个AI角色或其他AI)生成的一个角色502。游戏遥测数据还包括由实际玩家(如大师级玩家、典型玩家或游戏机器人模型试图模仿或模拟的其他玩家)生成的一个角色504。
游戏开发应用程序246生成不同的数据,此类数据表示角色502的位置和角色504的位置之间随时间变化的差异。例如,随时间变化的差异表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的像素距离。在游戏遥测数据500所示的示例中,时间t1时的差异d(t1)为角色502和504质心之间的欧几里得距离。在游戏遥测数据510所示的示例中,时间t2时的差异d(t2)为角色502和504质心之间的欧几里得距离。在时间段t0–tn内,此时间段对应于大师级玩家完成一个关卡所需的时间、大师级玩家游戏痕迹示例时间或其他时间间隔,通过对i=0,n时的d(ti)数值进行积分或求和,可生成差异数据。
通过这种方式生成的差异数据可用于衡量更新游戏机器人的适合度,以更真实地模仿大师级玩家。在各个实施例中,游戏机器人包括一种人工神经网络,经过训练后可基于游戏遥测数据模仿实际玩家。例如,通过强化学习,游戏机器人250可学习如何成为人类大师级玩家的“影子”,同时也从环境中学习如何应对看不见的新情况。更新游戏机器人250可能包括通过强化学习将游戏机器人迭代再训练至游戏机器人调整后的配置、迭代生成与游戏机器人调整后的配置相对应的更新差异数据、在相应更新差异数据与差异阈值进行有利比较时接受一种游戏机器人调整后的配置,差异阈值表示模拟玩家与实际玩家之间的可接受匹配。更新游戏机器人250还可能包括通过游戏机器人参数搜索算法将游戏机器人迭代调整至游戏机器人调整后的配置、迭代生成与游戏机器人调整后的配置相对应的更新差异数据、在相应更新差异数据与差异阈值进行有利比较时接受一种游戏机器人调整后的配置,差异阈值表示一种可接受或期望的适合度。
通过测量大师级玩家到影子的距离,了解离复制人类行为到底有多近。应注意,数值d(ti)可以是直线距离测量值、对数距离测量值或通过其他非线性函数转换的距离测量值。此外,虽然上文将其描述为欧几里得距离,但是,也可以使用其他距离,包括非欧几里得距离、非参数距离排名以及其他单调测度。
虽然上文在累计距离测量值方面进行了说明,但是,差异数据可能包括除距离之外的一个或多个其他测量值,如在时间段t0–tn内游戏机器人和人类玩家之间的累计游戏分数差异、在时间段t0–tn内游戏机器人和人类玩家之间的游戏成绩差异、在时间段t0–tn内游戏机器人和人类玩家之间达到游戏目标的时间差异、游戏机器人和人类玩家和/或任何其组合之间的其他游戏指标或其他游戏分析差异。
图6为符合本发明一个实施例的一种方法的流程图。特别是,提出了一种方法与结合图1-2、图3A、图3B、图4和图5说明的任何功能和特征一起使用。步骤602包括生成游戏机器人。步骤604包括从游戏应用程序中接收与实际玩家相对应的游戏遥测数据。步骤606包括从游戏应用程序中生成与游戏机器人相对应的游戏遥测数据。
步骤608包括根据基于与实际玩家相对应的游戏遥测数据以及与游戏机器人相对应的游戏数据生成的差异数据更新游戏机器人,上述数据表示由实际玩家生成的第一角色与由游戏机器人生成的第二角色之间随时间变化的距离。
在各个实施例中,随时间变化的差异表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的距离。所述距离可能表示欧几里得距离。随时间变化的差异可能表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的累计距离。
在各个实施例中,随时间变化的差异表示以下一项或多项:在某一个时间段内由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的距离、所述时间段内游戏机器人和人类玩家之间的累计游戏分数差异、所述时间段内游戏机器人和人类玩家之间的游戏成绩差异或所述时间段内游戏机器人和人类玩家之间达到游戏目标的时间差异。
在各个实施例中,游戏机器人包括一种人工神经网络,经过训练后可基于游戏遥测数据模仿实际玩家。游戏遥测数据可能包括与实际玩家和游戏机器人相对应的像素数据,其中,随时间变化的差异表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的像素距离。步骤608可能包括将游戏机器人迭代调整至游戏机器人调整后的配置、迭代生成与游戏机器人调整后的配置相对应的更新差异数据、在相应更新差异数据与差异阈值进行有利比较时接受一种游戏机器人调整后的配置。
图7为符合本发明一个实施例的一种方法的流程图。特别是,提出了一种方法与结合图1-2、图3A、图3B和图4-6说明的任何功能和特征一起使用。步骤702包括基于偏好学习模型生成行为体验分析(BEA)工具。步骤704包括从与用户有关的游戏应用程序中接收游戏遥测数据。步骤706包括通过将BEA工具应用于游戏遥测数据来生成用户动机预测。步骤708包括基于用户动机预测调整游戏。
在各个实施例中,基于与先前游戏玩法相关的多份玩家调查问卷以及与先前游戏玩法相关的先前游戏遥测数据,对偏好学习模型进行训练。也可使用从多份玩家调查问卷中组合生成的二阶数据对偏好学习模型进行训练。偏好学习模型可通过支持向量机实现。SVM可能包括配备径向基函数核的非线性SVM。
在各个实施例中,游戏遥测数据至少包括以下一项:游戏时间数据、完成数据或进程数据。游戏遥测数据可能包括表明通过其他游戏遥测数据的聚类分析生成的多种玩家类型之一。可基于游戏机器人生成游戏遥测数据。游戏遥测数据可能包括与游戏视频有关的像素数据。
在各个实施例中,所述系统可通过游戏开发平台实现,此平台进一步包括一个游戏开发应用程序,其中,促进调整游戏应用程序包括通过游戏开发应用程序促进调整游戏应用程序。所述游戏应用程序可能包括多个可选版本,其中,通过执行游戏应用程序的游戏系统实现所述系统,其中,促进调整游戏应用程序包括基于用户动机预测选择一个可选版本。
在各个实施例中,促进调整游戏应用程序包括确定玩家错配问题。用户动机预测可能包括动机数据,此类数据表明多个动机因素中每个因素的分数。用户动机预测可能包括随着时间推移收集的动机数据,此类数据表明玩家动机预测发生变化。
本文所述的方法通过基于游戏遥测数据自动、准确地预测玩家动机,改进了游戏开发技术。例如,BEA工具254可为游戏应用程序的各迭代/版本提供用户动机预测,促进游戏开发平台125的用户迭代调整所述游戏,以获得用户动机预测与预定的期望用户动机相匹配的游戏调整版本。此外,可创建多个版本的游戏应用程序,并根据各玩家的用户动机预测调整这些版本,从而增强各玩家在游戏中的体验。玩家可匹配,和/或可根据用户动机预测避免玩家错配,例如,匹配相同动机、匹配兼容动机和/或避免不兼容动机,为玩家提供一种引人入胜的体验。自我激励返回游戏并继续玩游戏的玩家可提高游戏过程的成功率。
许多研究均强调了动机对于游戏设计及其引发的体验的核心作用,这些研究采用游戏内部动机的心理学理论。但是,此类研究遵循自上而下的动机现象学模型整合,旨在根据定性原则确定并解释典型的玩家行为。相比之下,游戏用户研究和行业游戏测试已将其重点转向基于玩家分析的量化方法,这些方法旨在更深入地了解玩家行为和体验。此类方法的重点在于根据玩家的行为模式对玩家进行聚类分析,或预测其游戏行为的客观定义方面,以确保盈利,而不是对多个不同的动机因素进行量化。在这方面,考虑到衡量游戏中用户体验的主观概念的复杂性,旨在基于玩家分析捕获玩家体验各个方面(如参与度或动机)的这些方法仍保持定性。
考虑以下示例。BEA工具254可采用数据驱动的玩家建模方法,例如,假设玩家在游戏中的行为(通过其游戏玩法数据表现)与其动机之间的底层函数未知。特别是,BEA工具254可假设仅从玩家游戏玩法中获得的行为数据就能准确预测游戏动机。动机可基于自我决定理论动机的积极心理框架,还可检查四个核心动机因素:胜任感、自主感、归属感和存在感,这通常与视频游戏领域中的理论有关。
可使用动机衡量工具对BEA工具254进行训练,如育碧感知体验调查问卷(UPEQ),此调查问卷旨在作为观察玩家动机的游戏特定工具。例如,为了推断玩家动机与游戏玩法之间的关系,从《汤姆克兰西:全境封锁》的400多个玩家中收集了数据。处理并聚合此类数据,并独立收集与游戏有关的玩家动机调查。UPEQ问卷调查用于衡量玩家在游戏中的一般胜任感、自主感、归属感和存在感水平。考虑到报告概念的主观性,BEA工具254可采用二阶数据处理方法,并将玩家的报告UPEQ李克特量表值作为有序数据进行处理,而不是分数。BEA工具254可在基于支持向量机(SVM)的偏好学习模型中应用简单的统计排序方法,以推断游戏玩法与报告动机因素之间的函数。结果表明,可依靠一些高级游戏玩法特征,按照较高的准确率预测报告动机因素。特别是,BEA工具254的非线性机器学习偏好学习模型设法预测看不见的玩家的四个动机因素,准确率至少达93%;对于存在感,最佳模型的准确率可达97%。获得的结果补充了有关对主观定义的概念进行有序的数据处理的好处的现有证据,还验证了可在检查的游戏中以最高准确率对动机进行定性捕获,而这仅基于游戏的行为高级数据。
本文所述的动机模型展示了几项技术改进。首先,仅通过游戏中的游戏玩法数据对玩家动机进行计算建模。在BEA工具254进行训练后,仅基于游戏玩法数据(如游戏遥测数据),即可预测用户/玩家动机。其次,使用二阶方法处理李克特量表分数,此类分数一般常用于游戏测试和游戏用户研究。这种有序方法将比较所有用户的主观分数,因此,仅基于少数参与者,即可组合生成大规模数据集。所述方法也可有效消除受访者的报告偏差,从而更好地接近报告动机的真值。再次,使用完全基于少数关键游戏玩法特征的偏好学习针对玩家动机的不同方面进行建模。还使用游戏《汤姆克兰西:全境封锁》(育碧,2016年)针对400多个玩家评估了这些方法的示例,对于此游戏,近乎肯定动机模型的预测能力(即准确率超过93%)。也可能存在其他技术改进。
自我决定理论(SDT)是一种积极的心理学理论,基于德西和瑞安的工作促进动机。所述核心理论旨在通过关注动机背后因果关系的内在和外在轨迹的二分法,对比作为单一概念的早期动机框架。后者由外部或内部的奖励、压力和期望促成,而前者则基于活动本身的内在属性,即可在多大程度上满足胜任感、自主感和归属感这三个基本心理需求。视频游戏包括大量的压力和奖励,可促进外在动机,这些通常被视为内在动机的良好促进因素。即使在游戏中观察到动机发生短期变化,游戏仍支持在更高水平上促进内在动机的必要心理需求。对于视频游戏,R.M.Ryan、C.S.Rigby和A.Przybylski的“视频游戏的动机拉力:自我决定理论方法”(《动机与情绪》,第30卷,第4期,344–360页,2006年)将内在动机的潜在基本心理需求描述为:
·胜任感或成绩感以及对掌握行动的渴望,这通过玩家的中心目标和边缘目标得到体现。这种需求通常与自我效能和有意义的进步感有关,并通过玩家必须掌握的交互提供支持,以完成游戏,而不是完成本身。
·自主感或控制感以及对自我决定行动的渴望,这通过玩家可做出的有意义的选择、战术和战略决定得到体现,并通过规则系统和不同的游戏机制提供支持,此类系统和机制不仅可以构建游戏体验,而且提供高度自由和有意义的不同结果。
·归属感或归宿感以及对与他人联系和交互的渴望,这通过与其他玩家和可信计算机代理进行交互得到体现,并通过多层交互、可信且丰富的非玩家角色、叙事设计,甚至与游戏外部的其他玩家的交互提供支持。
·存在感或间接体验感是胜任感和自主感的主要促进因素,并且可视为具有物理、情绪和叙事成分。的确,存在感或沉浸感追求可能是游戏动机的驱动力。基于STD和存在感之间的牢固关系,玩家体验需求满意度调查问卷和UPEQ将其用于衡量游戏参与程度,这可促进其他积极心理需求。
需注意,上述因素在不同程度上促进了内在动机的形成;在将胜任感或归属感视为核心催化剂时,自主感通常在促进动机中发挥支持作用。然而,在缺乏自主感时,只能将动机视为内摄性或强迫性动机。在游戏中,由于活动的结构,内在动机的主要驱动力通常为胜任感,而归属感可增强体验。BEA工具254依靠SDT对动机的上述四个方面进行量化。为此,将UPEQ用作游戏定制调查问卷,旨在衡量受游戏体验影响的SDT因素。UPEQ由MassiveEntertainment的研究人员开发,专门用于预测与行业设计师和利益相关者有关的游戏结果。UPEQ可根据SDT的测量因素预测游戏时间、游戏成本以及团体游戏时间。除其效用之外,UPEQ还解决了先前领域特定SDT调查问卷(如游戏参与调查问卷、BrainHex和玩家体验需求满意度)的限制,同时还关注将基本需求满足量表调整为一项特定于视频游戏的调查。结果是一种可靠、一致的评估工具,具有扎实的SDT理论基础。
偏好学习(PL)是一种监督机器学习技术,其中,算法将学习推断两个变量之间的偏好关系。由于这种有序机器学习范式与玩家体验如何在游戏中运作之间的紧密联系,BEA工具254采用偏好学习(PL)模型。本质上,PL通过关注事件之间的差异(而不是其绝对值)来模拟某些心理过程。这种方法的优势在于它更接近玩家的认知过程(例如锚定偏差、适应、习惯化以及其他近因效应),并且有助于对玩家自己的体验进行内部评估。
PL是一种稳健的方法,依靠相对关系而不是绝对值或类边界,而且基于将原始数据集成对转换为查询中所采用的特征向量之间的差异表达。数据集的这种转换以二元分类器可以解决的方式重述了原始问题。在新数据集中,偏好关系的方向可能与两类之一有关。例如,观察偏好关系:
基于其相关输出:
yi>yj.
通过成对转换,创建了两个新特征:
xI=(xi-xj),
与以下有关
y′1=1和x′2=(xj-xi),
与以下有关
y′2=-1.
每对特征向量之间的这种比较将提供
新数据点。xI为所有可能独特组合的子集,因为并不总是可推断出明确的偏好关系。
BEA工具也可以使用排序支持向量机(SVM),因为它们在偏好学习工具箱中实施1,而偏好学习工具箱基于LIBSVM库。甚至使用有限数量的数据和输入特征,SVM也可产生稳健模型。通过使超平面边际最大化,将投影到高维特征空间的数据点分离,将SVM最初用于解决分类任务,但后期也将其用于解决PL任务。BEA工具254可使用线性SVM以及配备径向基函数(RBF)核的非线性SVM。线性SVM的目标是数据点之间的线性分离,与线性SVM不同,RBFSVM则强调数据点的局部邻近度,在转换特征空间中拟合最大边际超平面。为调整这些算法,BEA工具254可依靠C正则项,C正则项控制边际最大化和训练集分类最小化之间的权衡,对于RBF核,γ超参数通过限制各点之间相似度测度的方差,控制如何在非线性拓扑结构中对数据点之间的每次比较进行加权。
在本示例中分析的数据为游戏中的行为数据(玩家指标)以及《汤姆克兰西:全境封锁》(育碧,2016年)(以下简称《全境封锁》)玩家的调查问卷回答。《全境封锁》是一款在线多人动作角色扮演游戏,将角色进程系统与第三人称、基于掩护的战术射击战斗机制相结合。这款游戏的背景设定在世界末日后的纽约,此处爆发了天花流行病。作为政府特工,玩家必须合作(彼此对抗),对城市展开搜寻和调查,由于流行病余波以及有组织犯罪活动的增加,城市正陷入混乱。
这款游戏的核心是一个进程系统,玩家通过参与不同的游戏中活动(包括以故事为中心的任务和可选任务)获得新等级,解锁新能力,并获得包括武器和盔甲在内的新装备。玩家的实力可通过其等级(最高30级)来衡量,他们的装备质量以装备分数表示。在游戏的玩家对战环境(PvE)部分中,玩家可以组队,一起完成任务。游戏还设有一个称为“暗区”的竞技性玩家对战玩家(PvP)区域,此区域配备自用进程系统。在这个特殊区域中,玩家仍可进行组队通关,获得更好的装备;但是,他们也可以自相残杀,通过击杀其他玩家并为自己获取奖励成为盗贼。达到最高等级后,玩家可以参与入侵,对于团体来说,这是特别困难的任务。育碧还以可下载内容(DLC)的形式发布了游戏的多个扩展包,为游戏添加了新的区域、装备以及PvE和PvP内容。这款游戏不仅广受好评(consoles2上的Metacritic分数为80/100),而且第3版是育碧最畅销的一款游戏。这款游戏集成了大型多人在线角色扮演游戏和多人射击游戏的不同系统,并支持不同的游戏风格和交互游戏模式(即玩家对战环境和玩家对战玩家),因此为动机研究提供了丰富、复杂的游戏测试平台。
收集的数据包括很长一段时间内玩家的游戏中活动的聚合信息及其相应UPEQ调查分数。独立收集这两类数据,并在两者之间记录游戏玩法特征,通过网络接口单独收集调查数据。因此,调查数据可衡量玩家的一般性情。
数据集包括每个玩家的数据点,共443个玩家参与上述数据收集过程。大约51%的调查对象为18-34岁的年轻人,9%为15-17岁的未成年人,34%为35-54岁,6%为55岁以上。就国家而言,23%的受访者来自英国、15%来自澳大利亚、14%来自瑞典、9%来自丹麦、5%来自芬兰、5%来自挪威、1%来自新西兰,其余28%未提供答案。
清理具有缺失值、破坏条目和异常值的数据点,以防影响任何统计分析过程。由于异常值会扭曲一般游戏指标的分布,以及数据记录服务产生的噪声会增加游戏时间,需要进行广泛剪枝。在清理过程后,数据集包含298个玩家。
为了从计算方面表示玩家在游戏中的行为,使用30个高级游戏玩法特征,此类特征可源自更广泛的游戏遥测数据。虽然大多数特征均为描述玩家时间分配和进程的简单聚合游戏指标,但是,其中4个游戏玩法特征是独特游戏风格或玩家类型的专属类别,基于通过聚类分析进行的玩家游戏中活动的序列分析。此外,数据集包含4个李克特分数,这4个分数表示通过UPEQ调查衡量的每个玩家的四个动机因素。所考虑的三种类型的数据详述如下:
·游戏指标:此类原始特征可分类为涉及以下各项:一般游戏时间(游戏天数、团队天数、暗区天数、回合、游戏时间、团队游戏时间、暗区游戏时间、作为盗贼的游戏时间);完成(非日常任务、日常任务、旁支任务、入侵天数、入侵);进程(装备分数、暗区排名、等级、早期30级、达到30级);早期游戏玩法(等级<30、早期游戏时间、早期团队游戏时间、早期暗区游戏时间、作为盗贼的早期游戏时间);以及DLC游戏玩法(地下游戏时间、生存游戏时间、季票)。
·玩家类型:4种不同的玩家类型包括冒险家、精英、PvE全能玩家和社交暗区玩家。这些类型可通过聚合游戏数据的传统k均值聚类得到。
·动机因素:UPEQ以平均李克特量表值的形式对四个动机因素进行评分。虽然计算有序数据均值在概念上可能有问题,平均点差分数是使用李克特类数据的一种普遍方法,因为它们仍可显示分数内的一定趋势(例如,假定高分对应于总体更积极的响应)。如上所述,通过成对比较所有玩家,使用二阶建模方法,将这些分数视为有序数据。
由于原始数据集包含每个玩家的一个数据点,因此,用于偏好学习任务的各个特征向量均独立。这意味着,在准备PL实验室的过程中,在成对转换数据集时,将所有数据点进行相互比较。这种转换应用偏好阈值(Pt)参数,此参数控制显著性边际,在此之下,认为两个数据点相等。阈值Pt的目的是对抗真值数据中的噪声,此类噪声会影响建模结果。此外,为了将数据点关系转化为偏好关系,本步骤还将为机器学习任务创建新数据点。数据集大小接近原始数据集的二次比例,平均具有64、705个训练点和775个测试点,具体取决于真值和最佳Pt参数。此外,由于每次成对比较都会创建两个新数据点,在两个方向说明偏好关系,因此,转换会将分类任务的基线平衡至50%的准确率。
通过10折交叉验证,对所有PL模型进行验证。为了防止数据泄露,在数据归一化和成对转换前,将训练折和测试折分开。在转化前,z归一化技术可应用于训练集和测试集。为了保持测试集的独立性,假设从与训练集相同的分布中提取测试集,并将相同转换应用于相应测试集。
通过值范围内的穷举搜索,发现RankSVM的最佳参数。特别是,所述方法对C、γ和Pt值进行穷举搜索,可提供最高的10折交叉验证准确率。在以下范围内搜索C正则项:
C∈{1,2,3,4,5},
γRBF参数:
γ∈{0.1,0.5.0.75,1,2},
最佳偏好阈值:
Pt∈{0,0.5,1}.
虽然在所有实验中均发现最佳γ参数为0.5,但是,C和Pt对数据的拓扑结构更敏感;见图3。所选C和Pt参数如下:对于线性SVM,C=2,Pt=1(胜任感);C=1,Pt=0(自主感);C=4,Pt=1(归属感);C=3,Pt=0.5(存在感);对于RBF SVM,C=3,Pt=0.5(胜任感);C=4,Pt=0(自主感);C=4,Pt=0(归属感);C=2,Pt=0.5(存在感)。
在第一次实施时,仅使用四种游戏风格作为SVM模型的输入,以测试其动机预测能力。尽管输入特征集的维度较低,但线性模型和非线性模型均优于50%基线,在所有模型中,平均准确率分别达3.7%和3.57%。
在第二次实施时,PL模型仅考虑将26个游戏指标视为模型输入。游戏指标本身就能成功预测报告动机参数。特别是,线性SVM模型很成功,在所有模型中,平均准确率达65.89%,同时还在几乎80%的准确率下对某些折叠采用了各个因素的最佳模型:对于胜任感、自主感、归属感和存在感,分别为79.66%、75.62%、71.69%和79.68%。归属感似乎是线性模型最容易预测的因素,这并不奇怪,因为在统计分析过程中,归属感与大多数独立游戏指标相关。另一方面,线性SVM可能与自主感斗争,这可通过数据描述性统计分析时发现的自主感与其他特征之间的相关性较低来解释。
非线性核进一步改进了模型的性能,在所有模型中,平均准确率达75.62%。最佳独立模型远远优于相应的线性模型,准确率几乎可达90%(胜任感:86.73%;自主感:89.31%;归属感:89.95%;存在感:87.60%)。与线性模型相比,RBF SVM似乎在任何动机因素中均更加稳健,因为它们设法极大地改进性能不良的线性模型(即自主感)。完全不同于基于游戏风格的模型所获得的不良性能,基于游戏指标的模型在所有四个因素中均非常准确、稳健。
包括玩家类型或其他高级游戏风格配置文件,可添加领域特定信息,从而提高游戏指标的预测能力。将游戏风格以及其他26个游戏指标包括在PL任务中,可提高非线性模型的准确率,使其超出仅基于游戏指标的模型的能力。一方面,在所有测试中,线性模型平均仅达65.92%(对于胜任感、自主感、归属感和存在感,分别为79.66%、70.94%、71.79%和76.52%),这与通过基于游戏指标的模型获得的性能类似。另一方面,使用非线性RBF核的模型的平均准确率达82.36%,在其最高性能折叠中准确率值达93%以上:对于胜任感、自主感、归属感和存在感,分别为93.01%、94.35%、95.02%和96.83%。即使各个特征和动机因素之间无明显的线性关系,非线性PL技术也可提供有效的动机预测方法,并为游戏设计提供完善的定性工具。
图8为符合本发明一个实施例的一种方法的流程图。特别是,提出了一种方法与结合图1-2、图3A、图3B和图4-7说明的任何功能和特征一起使用。步骤800包括通过包括一个处理器的一种系统接收基于先前游戏内容的程序化内容。步骤804包括通过所述系统迭代改进基于机器学习的程序化内容以及游戏痕迹数据和/或来自游戏机器人模拟游戏的行为动机数据。步骤806包括通过所述系统生成基于改进程序化内容的候选游戏内容。
图9为符合本发明一个实施例的一种方法的流程图。特别是,提出了一种方法与结合图1-2、图3A、图3B和图4-8说明的任何功能和特征一起使用。步骤902包括通过包括一个处理器的一种系统接收与游戏相对应的游戏应用程序。步骤904包括基于至少一个非模仿游戏机器人的游戏体验,通过所述系统更新游戏应用程序,以生成与第一更新游戏相对应的第一更新游戏应用程序。步骤906包括基于因第一批多个实际玩家在第一更新游戏中获得的游戏体验而生成的第一批游戏遥测数据,通过所述系统至少生成一个模仿游戏机器人。步骤908包括基于第一批多个实际玩家在第一更新游戏中获得的游戏体验,通过所述系统生成行为体验分析(BEA)数据。步骤910包括基于BEA数据,通过所述系统至少生成一个BEA工具。步骤912包括基于至少一个非模仿游戏机器人的游戏体验,通过所述系统更新第一游戏应用程序,以生成与第二更新游戏相对应的第二更新游戏应用程序。步骤914包括基于因第二批多个实际玩家在第二更新游戏中的游戏体验而生成的第二批游戏遥测数据,通过所述系统生成玩家体验预测。步骤916包括基于玩家体验预测,通过所述系统更新第二游戏应用程序,以生成与第三更新游戏相对应的第三更新游戏应用程序。
图10为符合本发明一个实施例的一种方法的流程图。特别是,提出了一种方法与结合图1-2、图3A、图3B和图4-9说明的任何功能和特征一起使用。虽然上文主要关注人工智能模型,此类模型基于游戏遥测数据进行训练,如从游戏痕迹中收集的数据,其中可能包括游戏输出、玩家输入、游戏状态、游戏事件、游戏成绩、游戏目标进展、游戏参数、KPI以及其他游戏分析等,游戏应用程序的像素数据也可用于生成人工智能模型,此类模型可用于以用户动机的形式预测用户体验,和/或执行结合游戏开发平台125说明的任何其他功能和特征,包括但不限于本文所述的PCG或BEA工具。
步骤1002包括基于机器学习,通过包括一个处理器的一种系统生成行为体验分析(BEA)工具。步骤1004包括通过所述系统从游戏应用程序中接收像素数据。步骤1006包括通过将BEA工具应用于像素数据,通过所述系统生成用户体验预测。步骤1008包括基于用户体验预测,通过所述系统促进调整游戏应用程序。
在各个实施例中,所述系统通过游戏开发平台实现,此平台进一步包括一个游戏开发应用程序,其中,促进调整游戏应用程序包括通过游戏开发应用程序促进调整游戏应用程序。所述游戏应用程序可能包括多个可选版本,其中,通过执行游戏应用程序的游戏系统实现所述系统,其中,促进调整游戏应用程序包括基于用户体验预测选择一个可选版本。促进调整游戏应用程序可能包括确定玩家错配问题。用户体验预测可能包括动机数据和/或随着时间推移收集的体验数据,前者表明多个动机因素中每个因素的分数,后者则表明玩家体验预测发生变化。可基于游戏机器人生成像素数据。机器学习可能包括机器学习模型,此类模型基于与先前游戏玩法相关的多份玩家调查问卷以及与先前游戏玩法相关的先前游戏遥测数据进行训练。
考虑使用三种类型的深度卷积神经网络(CNN)架构的一个示例,此架构基于视频帧或视频序列中的像素数据,对带注释的唤醒痕迹的低值和高值进行分类。例如,在一个包含一款3D生存射击游戏的50个游戏玩法视频的数据集中测试CNN。玩家自己使用RankTrace连续注释工具对所有视频添加了注释(第一人称注释),以便唤醒。根据体验内容像素预测情感的任务不仅可能执行,而且非常准确。具体地说,使用严格的视频留一交叉验证法,所获得的唤醒模型的平均准确率可达78%以上;而获得的最佳模型的准确率高于98%。结果还表明,至少对于检查的游戏来说,可完全通过屏幕上的像素以高度准确且通用的方式捕获玩家体验。
本文所述的方法为游戏应用程序分析和设计技术提供了多项改进。可完全通过观察交互背景对玩家情感/体验进行建模,而非通过任何其他直接的情绪表现或用户输入模式;在这方面,所述方法通用且用户不可知。游戏玩法屏幕可映射到游戏体验,并用于对两者之间的关系进行建模和预测。对三个CNN变体的能力进行比较,以在情感计算中推断此类映射;获得的高准确率值表明其适用于任务。玩家体验建模的这些技术改进促进更快、更容易、更准确的体验建模,从而更快、更容易、更有效地进行游戏分析和设计。
这些示例中所使用的游戏玩法视频从在Unity 3D游戏引擎开发的一款射击游戏中捕获。具体地说,本发明使用了《噩梦射手》,这是一款根据Unity 3D教程包改编的游戏。在这款游戏中,玩家有60秒的时间来尽可能多地射击敌对玩具,并避免因玩具与玩家替身碰撞而耗尽健康值。继续在关卡的预定区域生成敌对玩具,并向替身聚集。玩家替身持枪,此枪会发射出明亮的激光束,几枪即可消灭每个玩具。每消灭一个玩具都会增加玩家分数。
从25个不同玩家中收集数据,每个玩家会生成两个游戏玩法视频,并进行注释。每个玩家玩完一个游戏回合(60秒),然后,在唤醒方面,对其录制的游戏画面进行注释。使用RankTrace注释工具进行注释,此工具可使用Griffin PowerMate轮接口连续、无限地进行情感注释。在30Hz的频率下捕获(即每秒30帧)游戏玩法视频,而RankTrace工具每秒提供四个注释示例。
通过省略15秒以下的游戏画面,清理游戏玩法视频语料库,产生包含45个游戏玩法视频以及共8093条唤醒注释的干净语料库。虽然此语料库中通关的平均持续时间为44秒,但在60%的通关中,玩家存活了整整60秒,并完成了游戏关卡。
为了评估CNN如何将原始视频数据映射到情感状态,CNN模型将仅包含空间信息的单帧以及包含时间和空间信息的视频片段用作输入。由于RankTrace提供无限注释,通过最大值最小值归一化将每个视频的注释值转换为数值[0,1]。通过将不带注释的任何帧的唤醒值视为最后一个带注释帧的唤醒值,将此类值与带注释(4Hz)的视频录制频率(30Hz)同步。为了降低CNN训练和评估的计算复杂性,将RGB视频帧转换为灰度图,并重新调整为72×128像素;会产生更加紧凑的表示形式,此表示形式只考虑图像亮度,而不考虑颜色。由于《噩梦射手》中鲜明的阴影和明亮的替身和投射物,亮度更有可能是提取游戏行为的核心特征。虽然RGB通道或较大帧尺寸可用于提供有关游戏玩法和情感维度的更多信息,但是,也会为CNN提供更多的数据进行训练。对于CNN输入,少量的后续帧足以捕获场景内容。特别是,使用8个后续帧表示玩家的情感状态。具体地说,将游戏玩法视频分成8个后续帧的非重叠片段,它们将用作时间感知CNN架构的输入。如果输入单一图像,则使用每个视频片段的最后一帧。
基于8帧视频片段,很容易计算CNN的输出。由于在4Hz的频率下进行注释,在大多数情况下,视频帧片段将包括一个注释。如果在8个帧内提供两个注释,则计算其平均值。RankTrace会产生区间数据,因此将问题表述为回归任务似乎很自然;但是,由于旨在提供一种用户不可知的通用方法,因此无需对输出值做任何假设,因为这可能导致产生高度偏差和用户特定的模型。可将底层方法视为一种分类任务,以及使用每个痕迹的平均值作为类分割准则将区间值转换为二元类(低唤醒和高唤醒)。类分割可使用可选阈值参数(E)来确定在分类过程中将接近均值的唤醒值标记为“不确定”并忽略的区域。虽然可使用替代类分割方法(如曲线下面积或中值),但下面的示例基于其均值对痕迹进行了分割。
如前所述,本发明对三个示例CNN架构进行了评价。前两个架构将2D可训练过滤器应用于输入(单帧或视频),而第三个架构则应用3D可训练过滤器。所有CNN架构均具有相同数量的卷积层和全连接层,在其相应卷积层上具有相同数量的过滤器,并在其全连接层上具有相同数量的隐藏神经元。这允许对这三个架构的能力进行公平比较,以将视频数据映射到情感状态,同时,获得关于时间信息对分类任务的影响的见解。应注意,视频和图像的其他CNN可使用比所用架构更大的结构。
虽然前面的大部分讨论均集中在所使用的AI模型基于像素数据进行训练并且AI模型会应用像素数据,但是,游戏音频也可用作游戏开发平台125的AI模型输入,包括但不限于BEA工具。特别是,添加音频可将AI模型的性能提高5-10%,具体取决于游戏类型。体验的像素音频AI模型的准确率可达90%或以上。
图11为符合本发明一个实施例的CNN架构的框图1100。卷积层用“C”表示,最大池化层用“P”表示,全连接层用“F”表示。
第一个示例CNN架构2DFrameCNN使用单帧作为输入,并对其应用2D过滤器。2DFrameCNN架构包括三个卷积层,这三个卷积层分别包括8个、12个和16个5x5像素尺寸的过滤器。每个卷积层后面是一个尺寸为2x2的2D最大池化层。卷积的输出是960个要素的特征向量,其通过连接至输出的64个隐藏神经元输送到全连接层。此架构具有大约6.9x104个可训练参数,仅基于视频频数据的空间信息。
第二个CNN架构2DSeqCNN应用2D过滤器来输入视频片段。2DSeqCNN网络的拓扑结构与2DFrameCNN架构完全相同,但是,由于输入是视频序列,可训练参数的数量略高(大约7x104个)。此架构隐式地利用了数据的空间和时间信息。
第三个CNN架构3DSeqCNN应用3D过滤器来输入视频片段。与其他架构一样,3DSeqCNN包括三个卷积层,这三个卷积层分别包括8个、12个和16个5x5x2像素尺寸的过滤器。每个卷积层后面是一个尺寸为2x2x1的3D最大池化层。3D卷积层会产生1920个要素的特征向量,其通过64个隐藏神经元输送到全连接层。由于3D可训练过滤器,3DSeqCNN具有大约14.5x104个可训练参数。由于在空间和时间维度上应用可训练过滤器,此架构隐式地利用了数据的空间和时间信息。
2DFrameCNN接收单帧作为输入,而2DSeqCNN和3DSeqCNN则接收8帧序列作为输入,即持续267毫秒的视频时间片。在所有三个网络架构中,将批归一化应用于由卷积层构建的特征,然后将其输送到最后一个全连接层,反过来再输送两个输出神经元进行二元分类。手动选择CNN架构的所有超参数,以试图平衡两个不同的准则:(a)计算复杂性(训练和评估时间)以及(b)学习复杂性(避免欠拟合/过拟合的能力)。
所有三个CNN均用于将游戏画面分类为高唤醒或低唤醒。如前所述,这种二元分类方法非常适用于无限、连续痕迹(因为每个注释痕迹的均值各有不同),并且可产生足够丰富的数据集,供深度学习使用。在所有报告实验中,使用一种严格的视频留一方案;这意味着,使用44个视频的数据对模型进行训练,然后使用其他数据评估其性能,而不是用于训练(即测试集)。重复此程序45次,直至对所有视频的数据进行CNN性能测试。在模型训练过程中,使用提前停止准则来避免过拟合。对于提前停止,将44个视频的数据洗牌并进一步分成一个训练集(90%的数据)和一个用于测试过拟合的验证集(10%的数据)。如果验证集损失在15个训练阶段内未得到改善,则提前停止可激活。报告准确率是测试集的分类准确率,从45次运行中获得平均值。显著性由此测试准确率的95%置信区间推导得出。基线准确率是测试集的平均分类准确率,始终在训练集的44个视频中选择最常见的一类。基线自然也表明了两类之间的真值分布。
对游戏画面片段进行分类的一种最直接的方式是基于注释痕迹的唤醒均值,将高于所述均值的所有注释视为高唤醒,将低于所述均值的所有注释视为低唤醒。对于所有45个视频,这种简单的分类一共会产生8093个数据点(即向一类分配8帧片段)。
表I
不同CNN架构二元分类以及不同分类阈值(E)的测试准确率。包括95%置信区间。
表I的顶行报告了通过朴素分类方法获得的CNN模型的平均分类准确率(E=0)。所有模型的准确率均比基线分类器高20%,这表明,无论使用何种架构,CNN均可将原始游戏玩法视频映射到唤醒二元状态。具有最佳性能的模型为2DSeqCNN,此架构隐式地利用了数据的时间信息,其准确率比2DFrameCNN高3%,而2DFrameCNN仅利用空间信息,但它仅比3DSeqCNN略好一点。3DSeqCNN隐式利用时间信息的能力似乎显著影响了其性能。将2DFrameCNN的性能与另外两个CNN模型进行比较,结果表明,虽然时间信息有助于学习过程,但输入的主导信息来自其空间结构,而不是其时间结构。这可能是由于输入视频片段的持续时间非常短(267毫秒),或游戏的抬头显示器中存在强大的唤醒预测因素。
虽然将高于唤醒痕迹均值的所有数据分类为高唤醒会产生大型数据集,但是,此数据集的任意分割可能会歪曲基本真值,也可能会引入分割准则偏差。具体地说,根据细微差异,将唤醒值接近均值的各帧分类为高唤醒或低唤醒。为了过滤掉不明确的注释(即接近唤醒均值),在不确定性界内的任何唤醒值A数据点取决于:
表I显示了不同CNN架构对不同阈值E的性能。应注意,删除数据点对基线值的影响相当大,因为一类的代表比另一类更频繁。无论如何,在删除唤醒值不明确的数据时,所有架构的准确率均增加,尤其是对于较高E值。E=0.20时,所有三个CNN架构的准确率均比基线高26%-28%。2DFrameCNN也受益于更干净的数据集,E=0.10和E=0.20时,其准确率仅次于2DSeqCNN。与稀疏数据集的可用数据相比,3DSeqCNN的其他可训练参数似乎需要更多数据。的确,E=0.05、E=0.10和E=0.20时,总数据点的数量分别减少12%、25%和44%(共4534个数据点)。很显然,拥有一个更干净但更紧凑的数据集可让不太复杂的架构(2DFrameCNN、2DSeqCNN)产生更准确的模型,但也可挑战复杂架构(3DSeqCNN)。对于类似的游戏注释任务,这种权衡带来一个有趣的问题。
示例表明,仅从屏幕上的游戏画面,甚至从单帧快照中,就可以生成准确率惊人的玩家唤醒模型。特别是在删除唤醒注释不明确的数据时,2DFrameCNN模型的测试准确率可达98%(E=0.20时),但其平均测试准确率为77%。但是,更有趣的是观察屏幕的哪些特征将帧或视频区分为低唤醒类或高唤醒类。这可以通过显示帧的哪些部分对模型预测有最大的影响来实现,例如,通过梯度加权类激活映射。在特定输入下,这种方法将计算输出节点相对于卷积层节点的梯度。通过将输入与梯度相乘、对此层中的所有节点求平均值并对结果值进行归一化处理,可以获得一个热图,此图将显示输入的每个区域对增加输出节点值的贡献程度。
图12A为符合本发明一个实施例的视频帧的图像1200。图12B和图12C为示例游戏帧1200的低唤醒激活的激活映射1202和高唤醒激活的激活映射1204,它们基于2DFrameCNN计算,符合本发明的一个实施例。虽然2DSeqCNN的准确率很高,但是,在静态图像中视觉捕获序列更具挑战性,因此提供了2DFrameCNN的纯帧信息。应注意,低唤醒和高唤醒预测因素关注抬头显示器(HUD)的各个方面,这些方面叠加在玩家导航、射击并与敌对玩具碰撞的3D世界中。具体地说,屏幕顶部中心处的分数非常有助于高唤醒。有趣的是,在游戏进程中,随着玩家击杀越来越多的敌对玩具,分数会不断上升。游戏时间以及在一定程度上增加分数对唤醒的影响可通过注释本身证实:在大多数情况下,随着时间的推移,注释者会不断提高唤醒水平,而不是降低唤醒水平。引人关注的是,在整个数据集的所有唤醒值变化中,807个实例为增加,297个实例为减少。因此,分数和剩余时间将成为低唤醒或高唤醒的简单指标。有趣的是,对于两类来说,均不考虑玩家健康值的HUD要素。在3D游戏世界的其他特征中,敌对玩具被低唤醒输出捕获,而玩家旁边的障碍物则被高唤醒输出捕获。
图13A为符合本发明一个实施例的一种方法的流程图。特别是,提出了一种方法与结合图1-2、图3A、图3B和图4-12说明的任何功能和特征一起使用的。虽然上文主要关注对用户体验、动机和行为进行建模和预测,也可以使用上述工具和方法预测观众体验,和/或执行结合游戏开发平台125说明的任何功能和特征,包括但不限于本文所述的PCG或BEA工具。
步骤1302包括基于机器学习,通过包括一个处理器的一种系统生成行为体验分析(BEA)工具。步骤1304包括通过所述系统接收与游戏应用程序有关的游戏数据。步骤1306包括通过将BEA工具应用于游戏数据,通过所述系统生成观众体验预测。步骤1308包括基于观众体验预测,通过所述系统促进调整游戏应用程序。
在各个实施例中,所述机器学习包括基于与先前游戏玩法相关的多份玩家调查问卷以及与先前游戏玩法相关的先前游戏遥测数据进行训练的机器学习模型。游戏数据可能包括多个观众的聊天数据。所述系统可通过游戏开发平台实现,此平台进一步包括一个游戏开发应用程序,其中,促进调整游戏应用程序包括通过游戏开发应用程序促进调整游戏应用程序。所述游戏应用程序可能包括多个可选版本,其中,通过执行游戏应用程序的游戏系统实现所述系统,其中,促进调整游戏应用程序包括基于观众体验预测选择一个可选版本。促进调整游戏应用程序可能包括确定玩家错配问题。观众体验预测可能包括随着时间推移收集的参与度数据,此类数据表明观众参与度预测发生变化。
对即时游戏参与度进行可靠估计,对游戏开发很有价值。准确的参与代理不仅可增强游戏的盈利策略,而且可用于通过参与度驱动代理人快速测试游戏。此类代理人反过来可改进玩家体验,并通过游戏内容生成创造全新且富有吸引力的游戏体验。下面的示例重新定义了建模问题,并从观众的角度看待游戏参与度,而不是将玩家行为视为参与度的预测因素。为此,可将参与度定义为游戏观众积极参与,假设玩家在玩游戏时的行为状态(向观众实时直播)与游戏观众参与度之间存在映射关系。
下面的示例使用来自受欢迎的视频实时流媒体服务(Twitch1)的数据,并从《绝地求生大逃杀》(PUBG)游戏(PUBG公司,2017年)中获得流式数据。为了在本示例中构建即时游戏参与度模型,我们研究了游戏的关键事件与聊天提要中消息的相应频率之间的关系。特别是,本发明使用了人工神经网络(ANN),此网络可预测游戏中每个关键事件(例如玩家死亡、爆头、击杀等)的游戏参与度(归因于观众聊天频率)。推导出的ANN模型的平均准确率达80%,最佳准确率达85%,这表明游戏玩法事件可以准确预测观众参与度,并且可通过聊天频率将游戏玩法归因于观众的行为。这些ANN模型能够以同样高的准确率预测主播内部及之间的参与度,这展示了此方法的可扩展性和通用性。这项工作的结果是连续预测任何给定实时PUBG视频的参与度(参与线)(见图13B)。
图13B为符合本发明一个实施例的视频帧的图像。特别是,本文提供了PUBG游戏的示例屏幕显示1310,在此屏幕的顶部,包括一个参与分数,此分数表明观众参与度预测的当前水平1312,还显示了当前游戏时间1314。在屏幕1310的底部附近,显示了游戏期间观众参与度预测1316的轨迹。
PUBG是一款多人在线射击游戏,其中,一组玩家(一次最多100个)进入一张大型开放地图中,然后去寻找武器和道具,最终与对方交战,直至只剩下赢家。游戏动态的特点是长时间穿越和准备,再穿插着快速行动爆发情况。随着游戏的进行,可玩区域会缩小,迫使剩下的玩家靠得更近,从而增加了战斗的可能性。如果玩家留在可玩半径区域之外,他们会不断受到伤害;这个区域被称为蓝区。蓝区所包围的安全区将分阶段缩小。在每个阶段,都会指定一个撤离区,在撤离区之外,玩家会收到撤离此区域的警告。然后,蓝区会逐渐将安全区缩小至撤离区的尺寸。游戏节奏偶尔会被随机局部区域的轰炸打断,此区域由红区表示,并迫使玩家躲在建筑物内或撤离此区域。
PUBG公司提供API和遥测服务,开发人员和研究人员可通过此服务生成密集的游戏遥测数据集。每个回合都会详细记录在分级结构中,按游戏事件和对象(如玩家、皮卡、车辆和武器)进行组织。通过API提供了40个游戏事件和10个对象,其中涵盖关卡中的所有玩家和一般游戏状态。由于本示例仅关注主播(即正在播放其游戏玩法的人员)的内容,因此可过滤与其他玩家相关的数据(例如,其位置、行动和不涉及主播的战斗时间)。
在本示例中,提取了40个PUBG游戏特征。可将这些特征分成5个主要类别:健康值、穿越、战斗、道具使用和一般游戏状态。“健康值”类别包括主播的健康值水平和多个布尔事件:治愈、复活、接受复活、盔甲被摧毁、眩晕无力、受到伤害以及被击杀。“穿越”类别包括自上一个事件(Delta位置)以及蓝区内、红区内、游泳开始、游泳结束、跳跃开始、乘车、下车、布尔游戏事件之后所经过的距离。“战斗”类别包括射击计数、已受伤害标量值和以下布尔特征:正在攻击、武器发射、造成伤害、毁坏物体、毁坏盔甲、毁坏车轮、毁坏车辆、使敌人眩晕无力。“道具使用”类别持续跟踪道具掉落、道具装备、道具未装备、道具拾取、从护理包中拾取道具、从战利品箱中拾取道具、道具使用、道具连接、道具拆卸布尔事件。最后,“一般游戏状态”类别包括经过的时间(单位:秒)、存活团队数量和存活玩家数量以及游戏阶段(即蓝区或红区)。
在本示例中,从Twitch流媒体平台获取实时PUBG游戏玩法数据。虽然Twitch是一种通用的实时流媒体平台,但此网站的大部分流量均通过休闲和竞技视频游戏流媒体生成。随着电子竞技和游戏流媒体越来越受欢迎,选择更有吸引力的流媒体的需求上升。对于视频游戏流媒体来说,尤其如此,因为快速上升的趋势可能会颠覆之前成功的各个类型,新的消费者喜爱类型可推动公司发展。Twitch可将主播与观众连接起来,还为观众提供了相互连接的平台。边看直播边聊天是共享体验的一个重要组成部分。的确,关于Twitch收视率背后动机的当代研究表明,最强烈的动机是社交需求,其次是情感需求和压力释放需求。虽然观众确实在观看流媒体并与其他观众互动的过程中获得某种程度的满足,但是,认知需求(即学习)需求和个人整合需求(即同伴认可)在平台用户中不太明显。
可通过游戏中两个连续事件之间的聊天消息反频率来衡量即时参与度。按照在0-1的范围内归一化的连续事件之间的聊天消息数对该值进行计算。可将参与度预测视为二元分类任务,其目标是预测“高”或“低”参与度标签。特别是,本示例考虑分别以高于和低于所选阈值α的消息频率低度和高度参与这些事件。虽然将较低频率与观众高度参与的时刻联系起来似乎令人惊讶,但是,通过定性检查视频,可以观察到,当屏幕上出现快节奏动作时,聊天室通常更加安静(即,观众更加关注屏幕),在更平静的慢节奏时刻,聊天会更多(例如,作为无聊的表现)。
为了测试可以在何种程度上通过遥测事件预测PUBG参与度,从PUBG API和TwitchAPI中收集分别来自chocoTaco、Danucd、sprEEEzy、jeemzz和hambinooo这五名主播的游戏中事件以及相应聊天消息,这将基于其受欢迎程度和数据集的可用性,这些数据集足够大,可以通过机器学习进行研究。表II提供了上述五名主播各自的主播排名3、收集的视频和比赛数量、平均观众数量4、平均持续时间、聊天消息数量以及在所选时间段内收集的事件数量。标准差显示在括号中。
表II
根据这些统计数据,我们注意到,前两名主播chocoTaco和Danucd的观众和聊天消息数量明显高于另外三名主播,而另外三名主播则不相上下。受欢迎程度排名的一个有趣的例外情况是sprEEEzy的平均比赛持续时间,其游戏时间似乎大概是其他主播的两倍。
在提取和预处理输入特征并将消息频率转换为二元标签(如上所述)后,共获得119345个带标签的事件。与所选类分割阈值(α)值无关,数据集显示两类之间的比率高度不平衡,大多数标签被分类为高参与度。为了平衡数据集,将过取样和欠取样分别应用于少数类和多数类,这将导致基线准确率为50%。训练集和验证集分别遵循这一过程,以消除数据泄漏到验证集的问题。
对于本示例中包含的所有实验,将人工神经网络(ANN)用作预测模型,然而,也可以采用其他机器学习技术。所使用的ANN具有一个包括128个节点的全连接隐藏层以及一个随机失活层;此网络包括一个输出节点,可预测高参与度(1)或低参与度(0)。所有节点均使用ELU激活功能,学习速率等于1e-5,并在100个阶段内对ANN进行训练。在第一组实验中,分别针对五名主播对模型进行训练和测试。在第二组实验中,在所有主播之间对这些参与度模型的可扩展性进行测试。在另一种方法中,在所有主播之间确定不同游戏风格并进行建模。
在第一组实验中,仅从一名主播处收集数据点,并使用5折交叉验证方法对模型进行验证;比赛随机分布在各折叠中。为了评估哪种分割准则会提供最佳性能,对四个不同的阈值α值(0.0、0.1、0.2和0.3)进行评估。这种方法可能导致分割准则偏差,因为所述模型可能学习基于事件频率的细微差异来分类高参与度和低参与度。为了应对这一挑战,在分割数据时,使用不确定性界(∈),以过滤掉任何接近所选阈值的明确数据点;特别是,所有省略这一点的事件都在α+或-∈的范围内。除这四个α值之外,本示例还研究了∈=0.02、0.05、0.08时的三个不同值,详尽地研究了所有可能的α和∈组合,并选择了5折交叉验证准确率最高的一种配置。表III显示了为每名主播选择的设置。
表III
所有主播参与度模型的性能均类似,平均达76%-79%。特别是,观察到主播Danucd(平均:79.7%;最佳:84.3%)、sprEEEzy(平均:78.0%;最佳:82.4%)和hambinooo(平均:77.8%;最佳:80.43%)具有最佳准确率,而jeemzz(平均:76.8%;最佳:80.8%)和chocoTaco(平均:76.0%;最佳:83.2%)的准确率值则略低。这些结果表明,此方法可以非常高的准确率在四名不同的主播之间捕获主播遥测技术与观众参与度之间的关系。
前一组实验的结果表明,各主播可以非常高的准确率捕获参与度。所述模型可进一步推广,以捕获看不见的主播的参与价值。为了测试模型的通用性,使用主播留一交叉验证方案,其中,基于从四名主播处收集的数据对模型进行训练,并针对剩余主播进行测试。重复此过程五次,每名主播一次,然后对结果求平均值。
对于所有报告实验(表IV),基于上述所有α和∈组合的穷举搜索,选择最佳参数设置。所发现的最佳模型(平均:74.7%;最佳:78.7%)的准确率低于针对各主播的数据进行测试时的模型准确率。这不足为奇,因为与模型在主播之间的通用性相比,模型在主播内部的通用性更容易实现。
表IV
考虑到在前2轮实验中获得的结果,很明显,可以采用一定的准确性执行主播之间的一般参与度模型。主播可在其比赛之间描述不同(不一致)的行为,这可以提高参与度模型的准确率(如考虑)。特别是,假设主播之间存在机器学习可捕获并关联到参与度的一般游戏模式,则这些模式可用于协助模型训练。
为了研究五名主播是否表现出不同的游戏风格,对所收集数据进行聚类。首先,从324场比赛的119345个事件中聚合原始数据,对布尔事件进行求和(例如,通过治愈),对标量值求平均值(例如,通过Delta位置),对于每场比赛,通过最大值最小值归一化对数据进行归一化。为了确定数据中的簇数,使用两种不同的聚类算法,即k均值和分级聚类,并对结果进行一致性测试。首先,对于1-10的k范围,将k均值应用于归一化数据,并计算量化误差,即每个数据点到相应聚类质心的距离总和。结果表明,k增加时,对于两个和三个簇,量化误差的减少百分比特别高,分别减少53%和20%。k值越高(>=4),差异越小(1%-10%)。
发现合适簇数的另一种方法是从每场比赛开始以分级方式对数据进行划分,然后观察簇数与分隔这些簇的相应平方欧几里德距离之间的关系。在分级聚类的这一应用中,Ward距离度量用于使聚类内总方差最小化。这种方法的结果与k均值的结果类似:产生高于6.6的平方欧几里德距离阈值会产生三个簇,而高于10.3的阈值则会产生两个簇。使用这两种无监督学习算法进行了分析,这两种算法共同表明,最合适的数据簇数为两到三个。两个簇将数据分成具有不同高度的簇,其中,第一簇包括86场比赛(74947个事件),第二簇包括238场比赛(44398个事件)。但是,三个簇的比赛数据划分分布更加均匀,第一簇、第二簇和第三簇分别包括105场比赛(42878个事件)和64场比赛(61609个事件)。使用信息熵(E)来衡量所获比赛的分布平衡时,三个簇的熵(E=0.94)高于两个簇的解决方案(E=0.83)。考虑到两个簇所划分的比赛具有高度不平衡性,通过两种聚类算法获得的结果的相似性表明,此数据集存在三个簇。
为了标记已聚类的三种玩家风格,开展了相关研究,即研究如何在每个簇内对游戏玩法特征进行分组。可在三个簇之间考虑四个代表游戏特征。这四个特征为Delta位置(在比赛中经过的距离)、击杀(在比赛中击杀的对手数量)、受到伤害(在比赛中玩家受到伤害)以及时间(比赛持续时间,单位:秒)。使用受欢迎的游戏文化术语,将第一簇标记为“新手”游戏风格,因为在这些比赛中,主播玩的不是很好,他的击杀次数很低,经常被击杀。同时,此类比赛时间更短,最有可能的原因时主播在比赛前几分钟内死亡。将游戏风格的第二簇标记为“探索者”:在这些比赛中,主播将更深入地探索地图,因为Delta位置特征高于另外两个簇,但玩家仍表现平平(如击杀和被击杀特征所示)。最后,将第三种玩家风格标记为“职业玩家”,因为在这些比赛中,主播发挥了最好的水平:他往往会击杀更多的玩家,死亡频率也低于另外两个簇,虽然会受到相当大的伤害,但他能活得更久(即时间值较高),很有可能赢得比赛。
在五名主播之间,可发现这三种游戏风格的分布,不同的主播表现出不同的游戏风格。chocoTaco应用这种分布,以新手风格完成了大多数比赛,并以职业玩家的风格完成了少量比赛。另一方面,sprEEEzy似乎更倾向于探索者玩家类型。Hambinooo、Danucd和Jeemzz在其游戏玩法中呈现出更均匀的三种游戏风格分布。
考虑到这三种不同的游戏风格,可根据独立的游戏风格而不是主播来建立即时参与度模型。针对每种游戏风格,对独立参与度模型进行训练。对每个游戏风格模型的α和∈预定值进行穷举搜索。为了比较获得的结果,使用主播留一交叉验证方案对模型进行验证。所有模型均以较高的准确率(平均75%以上)预测参与度,但是,新手玩法风格模型的准确率(平均:78.8%;最佳:84.8%)高于探索者(平均:77%;最佳:81.4%)和职业玩家游戏风格(平均:75.4%;最佳:80.7%)。这些示例表明,不仅可以完全依靠关键游戏事件数量并基于标准游戏遥测技术连续观众参与度预测,而且这种预测的准确率很高。
本示例通过使用受欢迎的实时流媒体游戏的特定应用程序连续即时预测游戏参与度,改进了游戏分析技术。参与度模型具有较高的准确率,并且在主播内部及之间通用,这表明可准确掌握观众参与度与玩家行为之间的关系。
图14为符合本发明一个实施例的一种方法的流程图。特别是,提出了一种方法与结合图1-2、图3A、图3B和图4-13说明的任何功能和特征一起使用。虽然上文主要关注基于各输入模式对用户体验、动机和行为进行建模和预测,也可以使用多个输入模式预测用户体验,和/或执行结合游戏开发平台125说明的任何功能和特征,包括但不限于本文所述的PCG或BEA工具。
特别是,游戏数据118(包括游戏遥测数据,如游戏玩法特征、游戏屏幕像素和/或游戏音频)组合可与玩家数据119(如口头或非口头观众信息,包括多模式玩家数据,如通过麦克风接收生成的玩家口头信息,和/或通过摄像机或其他传感器生成的玩家非口头信息)一起使用。游戏数据和/或观众信息和行为(包括多模式玩家数据)的这种组合可用于生成可靠、通用的玩家体验预测因素。特别是,可使用玩家的附加口头和非口头信息(例如,包括语言、面部表情、头部姿势等)来补充基于游戏数据和/或观众体验组合的预测模型。这种附加玩家信息可提高AI模型的预测能力。有序情感计算方法结合深度偏好学习及其他流式机器学习算法,可学习以更高的准确率预测玩家动机、玩家参与度及其他体验状态。在玩家的多模式数据(例如,在线平台内容主播)可用后,这些信息可与游戏玩法特征和/或游戏像素和音频融合,获得更准确的玩家体验模型。
步骤1402包括基于机器学习,通过包括一个处理器的一种系统生成行为体验分析(BEA)工具。步骤1404包括通过所述系统接收与操作游戏应用程序有关的游戏数据和多模式玩家数据。步骤1406包括通过将BEA工具应用于游戏数据和多模式玩家数据,通过所述系统生成用户体验预测。步骤1408包括基于用户体验预测,通过所述系统促进调整游戏应用程序。
在各个实施例中,机器学习包括基于与先前游戏玩法相关的多份玩家调查问卷以及与先前游戏玩法相关的先前游戏遥测数据进行训练的机器学习模型。游戏数据可能至少包括以下一项:游戏时间数据、完成时间或进程数据。游戏数据可能包括表明通过其他游戏数据的聚类分析生成的多种玩家类型之一。所述系统可通过游戏开发平台实现,此平台进一步包括一个游戏开发应用程序,其中,促进调整游戏应用程序包括通过游戏开发应用程序促进调整游戏应用程序。所述游戏应用程序可能包括多个可选版本,其中,通过执行游戏应用程序的游戏系统实现所述系统,其中,促进调整游戏应用程序包括基于用户体验预测选择一个可选版本。促进调整游戏应用程序可能包括确定玩家错配问题。用户体验预测可能包括动机数据和/或随着时间推移收集的动机数据,前者表明多个动机因素中每个因素的分数,后者则表明玩家动机预测发生变化。可基于游戏机器人生成游戏数据。游戏数据可能包括与游戏视频有关的像素数据。
人们注意到,本文可能使用的术语(如比特流、流、信号序列等或其对应词)以可交换的方式用于描述数据信息,其内容对应于任何所需类型的内容,例如,数据、视频、语言、文本、图形、音频、面部表情、身体姿态、凝视模式、自然语言等,其中任何一项通常均可称为“数据”。
在本文中,术语“大体上”和“大约”为其相应术语和/或零件之间的相关性提供了行业认可公差。对于一些行业,行业认可公差小于1%,对于其他行业,行业认可公差为10%或更大。行业认可公差的其他示例从小于1%到50%不等。行业认可公差对应于但不限于组件值、集成电路工艺变化、温度变化、上升和下降时间、热噪声、尺寸、信号错误、丢包、温度、压力、材料成分和/或性能指标。在一个行业内,认可公差的公差差异可能大于或小于一个百分比水平(例如尺寸公差小于+/-1%)。零件之间的相关性可能从小于一个百分比水平的差异到几个百分比不等。零件之间的其他相关性可能从几个百分比的差异到各量级差异不等。
此外,在本文中,术语“配置为”、“可操作地耦合到”、“耦合到”和/或“耦合”包括直接耦合和/或通过中间件间接耦合(例如,零件包括但不限于组件、元件、电路和/或模块),其中,对于间接耦合,中间件不会修改信号信息,但可能调整其电流水平、电压水平和/或功率水平。在本文中,推断耦合(即根据推断,一个元件耦合到另一个元件)包括两个零件之间以与“耦合到”相同的方式直接耦合和间接耦合。
在本文中,术语“配置为”、“可操作”、“耦合到”或“可操作地耦合到”表明一个零件包括一个或多个电源连接、输入、输出,当它们激活时,可执行其一个或多个相应功能,还进一步包括推断耦合到一个或多个其他零件。在本文中,术语“与……有关”包括直接和/或间接耦合独立零件和/或嵌入另一个零件中的一个零件。
在本文中,术语“有利比较”表明两个或多个零件、信号等之间的比较提供了所需关系。例如,如果所需关系为信号1的量级大于信号2,当信号1的量级大于信号2或信号2的量级小于信号1时,可实现有利比较。在本文中,术语“不利比较”表明两个或多个零件、信号等之间的比较未能提供所需关系。
在本文中,一项或多项权利要求可能包括短语“a、b和c中至少一个”(以此通用形式的一种特定形式)或“a、b或c中至少一个”(此通用形式),其中的要素可能多于或少于“a”、“b”和“c”。在任何一种措辞中,短语的解释均应相同。特别是,“a、b和c中至少一个”等同于“a、b或c中至少一个”,并且应系指a、b和/或c。例如,它应系指:仅“a”、仅“b”、仅“c”、“a”和“b”、“a”和“c”、“b”和“c”和/或“a”、“b”和“c”。
此外,在本文中,术语“处理模块”、“处理电路”、“处理器”和/或“处理单元”可能是一个处理设备或多个处理设备。此类处理设备可能包括麦克风、微控制器、数字信号处理器、微型计算机、中央处理单元、现场可编程门阵列、可编程逻辑设备、状态机、逻辑电路、模拟电路、数字电路和/或根据电路硬编码和/或操作指令操纵信号(模拟和/或数字)的任何设备。所述处理模块、模块、处理电路和/或处理单元可能是或进一步包括存储器和/或集成存储元件,其可能是一个存储设备、多个存储设备和/或另一个处理模块、模块、处理电路和/或处理单元的嵌入电路。此类存储设备可能包括只读存储器、随机存取存储器、易失性存储器、非易失性存储器、静态存储器、动态存储器、闪存存储器、高速缓冲存储器和/或存储数字信息的任何设备。请注意,如果所述处理模块、模块、处理电路和/或处理单元包括一个以上的处理设备,则所述处理设备可能位于中心(例如,通过有线和/或无线总线结构直接耦合在一起)或可能分布式放置(例如通过局域网和/或广域网间接耦合的云计算)。应进一步注意,如果处理模块、模块、处理电路和/或处理单元通过状态机、模拟电路、数字电路和/或逻辑电路实现其一个或多个功能,则存储相应操作指令的存储器和/或存储元件可能嵌入由状态机、模拟电路、数字电路和/或逻辑电路组成的电路内,也可能在此电路之外。还应进一步注意,所述存储元件可存储,并且所述处理模块、模块、处理电路和/或处理单元执行至少与一个或多个图中所示的一些步骤和/或功能相对应的硬编码和/或操作指令。此类存储设备或存储元件可能包括在一件制造品中。
借助于说明特定功能的性能及其关系的方法步骤,上文对一个或多个实施例进行了说明。为便于描述,本文对这些功能构建块和方法步骤的边界和序列进行了任意定义。只要适当执行特定功能和关系,就可以定义替代边界和序列。因此,任何此类替代边界或序列均在权利要求书的范围和精神之内。此外,为便于描述,对这些功能构建块的边界进行了任意定义。只要适当执行某些重要功能,就可以定义替代边界。同样,也可以对流程图块进行任意定义,以说明某些重要功能。
在使用的程度上,也可以采用其他方式定义流程图块边界和序列,并且仍可执行某些重要功能。因此,功能构建块和流程图块的此类替代定义均在权利要求书的范围和精神之内。本领域的一般技术人员还将认识到,所述功能构建块以及本文中的其他说明性块、模块和组件可按图示或通过分立组件、应用特定集成电路、执行适当软件的处理器等或其任何组合来实现。
此外,流程图可能包括“开始”和/或“继续”指示。“开始”和“继续”指示表明所示步骤可纳入一个或多个其他程序中或与其结合使用。此外,流程图可能包括“结束”和/或“继续”指示。“结束”和/或“继续”指示表明所示步骤可按图示结束,或纳入一个或多个其他程序中或与其一起使用。在这种情况下,“开始”表明所示第一个步骤开始,在此之前可执行未明确显示的其他活动。此外,“继续”指示表明所示步骤可多次执行,和/或在此之后可执行未明确显示的其他活动。此外,虽然流程图表明了特定步骤顺序,但是,只要保持因果关系原则,同样也可以采用其他顺序。
在本文中,所述一个或多个实施例用于说明一个或多个方面、一个或多个特征、一个或多个概念和/或一个或多个示例。一个装置、一件制造品、一台机器和/或一个过程的物理实施例可能包括参照本文所述的一个或多个实施例说明的一个或多个方面、特征、概念、示例等。此外,在各图之间,所述实施例可能包括具有相同或相似名称的功能、步骤和模块等,可能会采用相同或不同的参考编号,因此,这些功能、步骤和模块等可能是相同、相似或不同的功能、步骤、模块等。
除非另有明确的相反规定,否则,在本文所示的任意一个附图中,进出元件和/或元件之间的信号可能是模拟信号或数字信号、连续时间信号或离散时间信号以及单端信号或差分信号。例如,如果信号路径显示为单端路径,则它也代表差分信号路径。同样,如果信号路径显示为差分路径,则它也代表单端信号路径。虽然本文描述了一种或多种特殊架构,但其他架构也可以实现,此类架构可使用未明确显示的一种或多种数据总线,元件之间可直接连接,和/或其他元件之间可间接耦合,这是本领域的一般技术人员均已认识到的事实。
一个或多个实施例说明中使用术语“模块”。通过处理器或其他处理设备等设备或可能包括一个存储操作指令的存储器或与其一起运行的其他硬件,模块实现一个或多个功能。模块可独立运行和/或与软件和/或固件一起运行。在本文中,模块可能包括一个或多个子模块,每个子模块可能又是一个或多个模块。
此外,在本文中,计算机可读存储器包括一个或多个存储元件。存储元件可能是一个独立存储设备、多个存储设备或存储设备内部的一组存储位置。此类存储设备可能包括只读存储器、随机存取存储器、易失性存储器、非易失性存储器、静态存储器、动态存储器、闪存存储器、高速缓冲存储器和/或存储数字信息的任何设备。所述存储设备可能为固态存储器、硬盘存储器、云存储器、拇指驱动器、服务器存储器、计算设备存储器和/或其他用于存储数字信息的物理媒体中。
虽然本文明确描述了一个或多个实施例的各个功能和特征的特定组合,也可以使用这些功能和特征的其他组合。本发明不受本文所公开的特定示例的限制,并明确包含此类其他组合。
Claims (47)
1.一种方法,包括以下步骤:
通过包括一个处理器的一种系统生成一个游戏机器人;
通过所述系统从游戏应用程序中接收与实际玩家相对应的游戏遥测数据;
通过所述系统从游戏应用程序中生成与游戏机器人相对应的游戏遥测数据;
基于与实际玩家相对应的游戏遥测数据以及与游戏机器人相对应的游戏遥测数据,通过所述系统生成差异数据,所述差异数据表示由实际玩家生成的第一角色与由游戏机器人生成的第二角色之间随时间变化的差异;以及
基于差异数据,通过所述系统更新游戏机器人。
2.根据权利要求1所述的方法,其中,随时间变化的差异表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的距离。
3.根据权利要求2所述的方法,其中,所述距离是欧几里得距离。
4.根据权利要求2所述的方法,其中,随时间变化的差异表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的累计距离。
5.根据权利要求1所述的方法,其中,随时间变化的差异表示某一时间段内游戏机器人和实际玩家之间的累计游戏分数差异。
6.根据权利要求1所述的方法,其中,随时间变化的差异表示某一时间段内游戏机器人和实际玩家之间的游戏成绩差异。
7.根据权利要求1所述的方法,其中,随时间变化的差异表示某一时间段内游戏机器人和实际玩家之间达到游戏目标的时间差异。
8.根据权利要求1所述的方法,其中,随时间变化的差异表示以下两项或多项的组合:在某一个时间段内由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的距离、所述时间段内游戏机器人和实际玩家之间的累计游戏分数差异、所述时间段内游戏机器人和实际玩家之间的游戏成绩差异或所述时间段内游戏机器人和实际玩家之间达到游戏目标的时间差异。
9.根据权利要求1所述的方法,其中,所述游戏机器人包括一种人工神经网络,经过训练后可基于游戏遥测数据模仿实际玩家。
10.根据权利要求9所述的方法,其中,所述游戏遥测数据包括与实际玩家和游戏机器人相对应的像素数据,其中,随时间变化的差异表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的像素距离。
11.根据权利要求1所述的方法,其中,基于差异数据更新游戏机器人包括将游戏机器人迭代调整至游戏机器人调整后的配置、迭代生成与游戏机器人调整后的配置相对应的更新差异数据、在相应更新差异数据与差异阈值进行有利比较时接受一种游戏机器人调整后的配置。
12.一种系统,包括:
一个处理器;
一个配置为存储操作指令的存储器,当处理器执行这些指令时,它们会执行以下操作:
生成一个游戏机器人;
从游戏应用程序中接收与实际玩家相对应的游戏遥测数据;
从游戏应用程序中生成与游戏机器人相对应的游戏遥测数据;
基于与实际玩家相对应的游戏遥测数据以及与游戏机器人相对应的游戏遥测数据,生成差异数据,所述差异数据表示由实际玩家生成的第一角色与由游戏机器人生成的第二角色之间随时间变化的差异;以及
基于差异数据,更新游戏机器人。
13.根据权利要求12所述的系统,其中,随时间变化的差异表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的距离。
14.根据权利要求13所述的系统,其中,随时间变化的差异表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的累计距离。
15.根据权利要求12所述的系统,其中,随时间变化的差异表示某一时间段内游戏机器人和实际玩家之间的累计游戏分数差异。
16.根据权利要求12所述的系统,其中,随时间变化的差异表示某一时间段内游戏机器人和实际玩家之间的游戏成绩差异。
17.根据权利要求12所述的系统,其中,随时间变化的差异表示某一时间段内游戏机器人和实际玩家之间达到游戏目标的时间差异。
18.根据权利要求12所述的系统,其中,随时间变化的差异表示以下两项或多项的组合:在某一个时间段内由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的距离、所述时间段内游戏机器人和实际玩家之间的累计游戏分数差异、所述时间段内游戏机器人和实际玩家之间的游戏成绩差异或所述时间段内游戏机器人和实际玩家之间达到游戏目标的时间差异。
19.根据权利要求12所述的系统,其中,所述游戏机器人包括一种人工神经网络,经过训练后可基于游戏遥测数据模仿实际玩家,其中,游戏遥测数据包括与实际玩家和游戏机器人相对应的像素数据,其中,随时间变化的差异表示由实际玩家多次生成的第一角色与由游戏机器人多次生成的第二角色之间的像素距离。
20.根据权利要求12所述的系统,其中,基于差异数据更新游戏机器人包括将游戏机器人迭代调整至游戏机器人调整后的配置、迭代生成与游戏机器人调整后的配置相对应的更新差异数据、在相应更新差异数据与差异阈值进行有利比较时接受一种游戏机器人调整后的配置。
21.一种方法,包括以下步骤:
通过包括一个处理器的一种系统接收与游戏相对应的游戏应用程序;
基于至少一个非模仿游戏机器人的游戏体验,通过所述系统更新游戏应用程序,以生成与第一更新游戏相对应的第一更新游戏应用程序;
基于因第一批多个实际玩家在第一更新游戏中获得的游戏体验而生成的第一批游戏遥测数据,通过所述系统至少生成一个模仿游戏机器人;
基于第一批多个实际玩家在第一更新游戏中获得的游戏体验,通过所述系统生成行为体验分析(BEA)数据;
基于BEA数据,通过所述系统至少生成一个BEA工具;
基于至少一个非模仿游戏机器人的游戏体验,通过所述系统更新第一游戏应用程序,以生成与第二更新游戏相对应的第二更新游戏应用程序;
基于因第二批多个实际玩家在第二更新游戏中的游戏体验而生成的第二批游戏遥测数据,通过所述系统生成玩家动机预测;以及
基于玩家动机预测,通过所述系统更新第二游戏应用程序,以生成与第三更新游戏相对应的第三更新游戏应用程序。
22.一种方法,包括以下步骤:
基于机器学习,通过包括一个处理器的一种系统生成行为体验分析(BEA)工具;
通过所述系统从游戏应用程序中接收像素数据;
通过将BEA工具应用于像素数据,通过所述系统生成用户体验预测;以及
基于用户体验预测,通过所述系统促进调整游戏应用程序。
23.根据权利要求22所述的方法,其中,所述系统通过游戏开发平台实现,此平台进一步包括一个游戏开发应用程序,其中,促进调整游戏应用程序包括通过游戏开发应用程序促进调整游戏应用程序。
24.根据权利要求22所述的方法,其中,所述游戏应用程序包括多个可选版本,其中,通过执行游戏应用程序的游戏系统实现所述系统,其中,促进调整游戏应用程序包括基于用户体验预测选择一个可选版本。
25.根据权利要求22所述的方法,其中,促进调整游戏应用程序包括确定玩家错配问题。
26.根据权利要求22所述的方法,其中,用户体验预测包括动机数据,此类数据表明多个动机因素中每个因素的分数。
27.根据权利要求22所述的方法,其中,用户体验预测包括随着时间推移收集的体验数据,此类数据表明玩家体验预测发生变化。
28.根据权利要求22所述的方法,其中,基于游戏机器人生成所述像素数据。
29.根据权利要求22所述的方法,其中,所述机器学习包括基于与先前游戏玩法相关的多份玩家调查问卷以及与先前游戏玩法相关的游戏遥测数据进行训练的机器学习模型。
30.一种方法,包括以下步骤:
基于机器学习,通过包括一个处理器的一种系统生成行为体验分析(BEA)工具;
通过所述系统接收与游戏应用程序有关的游戏数据;
通过将BEA工具应用于游戏数据,通过所述系统生成观众体验预测;以及
基于观众体验预测,通过所述系统促进调整游戏应用程序。
31.根据权利要求30所述的方法,其中,所述机器学习包括基于与先前游戏玩法有关的与先前游戏玩法相关的多份玩家调查问卷以及与先前游戏玩法相关的先前游戏遥测数据进行训练的机器学习模型。
32.根据权利要求30所述的方法,其中,所述游戏数据包括多个观众的聊天数据。
33.根据权利要求30所述的方法,其中,所述系统通过游戏开发平台实现,此平台进一步包括一个游戏开发应用程序,其中,促进调整游戏应用程序包括通过游戏开发应用程序促进调整游戏应用程序。
34.根据权利要求30所述的方法,其中,所述游戏应用程序包括多个可选版本,其中,通过执行游戏应用程序的游戏系统实现所述系统,其中,促进调整游戏应用程序包括基于观众体验预测选择一个可选版本。
35.根据权利要求30所述的方法,其中,促进调整游戏应用程序包括确定玩家错配问题。
36.根据权利要求30所述的方法,其中,观众体验预测包括随着时间推移收集的参与度数据,此类数据表明观众参与度预测发生变化。
37.一种方法,包括以下步骤:
基于机器学习,通过包括一个处理器的一种系统生成行为体验分析(BEA)工具;
通过所述系统接收与操作游戏应用程序有关的游戏数据和多模式玩家数据;
通过将BEA工具应用于游戏数据和多模式玩家数据,通过所述系统生成用户体验预测;以及
基于用户体验预测,通过所述系统促进调整游戏应用程序。
38.根据权利要求37所述的方法,其中,所述机器学习包括基于与先前游戏玩法相关的多份玩家调查问卷以及与先前游戏玩法相关的先前游戏遥测数据进行训练的机器学习模型。
39.根据权利要求37所述的方法,其中,游戏数据至少包括以下一项数据:游戏时间数据、完成数据或进程数据。
40.根据权利要求37所述的方法,其中,游戏数据包括表明通过其他游戏数据的聚类分析生成的多种玩家类型之一。
41.根据权利要求37所述的方法,其中,所述系统通过游戏开发平台实现,此平台进一步包括一个游戏开发应用程序,其中,促进调整游戏应用程序包括通过游戏开发应用程序促进调整游戏应用程序。
42.根据权利要求37所述的方法,其中,所述游戏应用程序包括多个可选版本,其中,通过执行游戏应用程序的游戏系统实现所述系统,其中,促进调整游戏应用程序包括基于用户体验预测选择一个可选版本。
43.根据权利要求37所述的方法,其中,促进调整游戏应用程序包括确定玩家错配问题。
44.根据权利要求37所述的方法,其中,用户体验预测包括动机数据,此类数据表明多个动机因素中每个因素的分数。
45.根据权利要求37所述的方法,其中,用户体验预测包括随着时间推移收集的动机数据,此类数据表明玩家动机预测发生变化。
46.根据权利要求37所述的方法,其中,基于游戏机器人生成所述像素数据。
47.根据权利要求37所述的方法,其中,所述游戏数据包括与游戏视频有关的像素数据。
Applications Claiming Priority (17)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962820417P | 2019-03-19 | 2019-03-19 | |
US201962820424P | 2019-03-19 | 2019-03-19 | |
US201962820412P | 2019-03-19 | 2019-03-19 | |
US62/820,417 | 2019-03-19 | ||
US62/820,412 | 2019-03-19 | ||
US62/820,424 | 2019-03-19 | ||
US201962946019P | 2019-12-10 | 2019-12-10 | |
US62/946,019 | 2019-12-10 | ||
US201962946824P | 2019-12-11 | 2019-12-11 | |
US62/946,824 | 2019-12-11 | ||
US202062966669P | 2020-01-28 | 2020-01-28 | |
US62/966,669 | 2020-01-28 | ||
US202062967845P | 2020-01-30 | 2020-01-30 | |
US62/967,845 | 2020-01-30 | ||
US16/821,020 | 2020-03-17 | ||
US16/821,020 US10918948B2 (en) | 2019-03-19 | 2020-03-17 | Game bot generation for gaming applications |
PCT/US2020/023290 WO2020191015A1 (en) | 2019-03-19 | 2020-03-18 | Game bot generation for gaming applications |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113660987A true CN113660987A (zh) | 2021-11-16 |
Family
ID=72515957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080022881.0A Pending CN113660987A (zh) | 2019-03-19 | 2020-03-18 | 生成适用于游戏应用程序的游戏机器人 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10918948B2 (zh) |
EP (1) | EP3911425A4 (zh) |
KR (1) | KR20210130232A (zh) |
CN (1) | CN113660987A (zh) |
CA (1) | CA3131321A1 (zh) |
WO (1) | WO2020191015A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116943226A (zh) * | 2023-09-20 | 2023-10-27 | 小舟科技有限公司 | 基于情绪识别的游戏难度调节方法、系统、设备及介质 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10946281B2 (en) * | 2019-03-29 | 2021-03-16 | Nvidia Corporation | Using playstyle patterns to generate virtual representations of game players |
WO2022015463A1 (en) * | 2020-07-16 | 2022-01-20 | Sony Interactive Entertainment Inc. | Influencer stream customization for follower viewers |
US11565182B2 (en) * | 2020-09-21 | 2023-01-31 | Zynga Inc. | Parametric player modeling for computer-implemented games |
US11806624B2 (en) | 2020-09-21 | 2023-11-07 | Zynga Inc. | On device game engine architecture |
US11420115B2 (en) | 2020-09-21 | 2022-08-23 | Zynga Inc. | Automated dynamic custom game content generation |
US11291915B1 (en) | 2020-09-21 | 2022-04-05 | Zynga Inc. | Automated prediction of user response states based on traversal behavior |
US12083436B2 (en) | 2020-09-21 | 2024-09-10 | Zynga Inc. | Automated assessment of custom game levels |
US11738272B2 (en) | 2020-09-21 | 2023-08-29 | Zynga Inc. | Automated generation of custom content for computer-implemented games |
CN112221156B (zh) * | 2020-10-27 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 数据异常识别方法、装置、存储介质以及电子设备 |
FR3123487B1 (fr) | 2021-05-27 | 2024-01-19 | Ovomind K K | Procédé pour la prédiction automatique de l’effet émotionnel produit par une séquence de jeu vidéo |
EP4392155A1 (en) * | 2021-08-27 | 2024-07-03 | Modl.Ai ApS | Quality assurance game bots for gaming applications |
US20230315605A1 (en) * | 2022-03-31 | 2023-10-05 | Dell Products L.P. | User session identification based on telemetry data |
US11964206B2 (en) * | 2022-04-01 | 2024-04-23 | Garena Online Private Limited | Method for shrinking an area in battle royale games |
GB2625073A (en) * | 2022-12-02 | 2024-06-12 | Sony Interactive Entertainment Inc | System and method for training a machine learning model |
US20240273402A1 (en) * | 2023-02-14 | 2024-08-15 | Sony Interactive Entertainment Inc. | Artificial Intelligence (AI)-Based Generation of In-App Asset Variations |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7296007B1 (en) * | 2004-07-06 | 2007-11-13 | Ailive, Inc. | Real time context learning by software agents |
US8047915B2 (en) * | 2006-01-11 | 2011-11-01 | Lyle Corporate Development, Inc. | Character for computer game and method |
WO2010011773A2 (en) * | 2008-07-22 | 2010-01-28 | Sony Online Entertainment Llc | System and method for providing persistent character personalities in a simulation |
US9105178B2 (en) | 2012-12-03 | 2015-08-11 | Sony Computer Entertainment Inc. | Remote dynamic configuration of telemetry reporting through regular expressions |
US10112113B2 (en) | 2016-03-30 | 2018-10-30 | Sony Interactive Entertainment Inc. | Personalized data driven game training system |
US10888788B2 (en) * | 2016-06-30 | 2021-01-12 | Sony Interactive Entertainment Inc. | Automated artificial intelligence (AI) control mode for playing specific tasks during gaming applications |
EP3378204B1 (en) * | 2016-09-20 | 2019-12-25 | Google LLC | Bot interaction |
DE112017003594T5 (de) * | 2016-09-20 | 2019-04-25 | Google Llc | Bot, der Genehmigung zum Zugriff auf Daten anfordert |
US10361975B2 (en) * | 2016-10-10 | 2019-07-23 | Microsoft Technology Licensing, Llc | Messaging bot selection in multi-bot chat sessions |
US10491548B2 (en) * | 2017-04-17 | 2019-11-26 | Facebook, Inc. | Techniques to configure bot flow |
-
2020
- 2020-03-17 US US16/821,020 patent/US10918948B2/en active Active
- 2020-03-18 WO PCT/US2020/023290 patent/WO2020191015A1/en unknown
- 2020-03-18 CN CN202080022881.0A patent/CN113660987A/zh active Pending
- 2020-03-18 KR KR1020217032290A patent/KR20210130232A/ko unknown
- 2020-03-18 CA CA3131321A patent/CA3131321A1/en active Pending
- 2020-03-18 EP EP20773761.0A patent/EP3911425A4/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116943226A (zh) * | 2023-09-20 | 2023-10-27 | 小舟科技有限公司 | 基于情绪识别的游戏难度调节方法、系统、设备及介质 |
CN116943226B (zh) * | 2023-09-20 | 2024-01-05 | 小舟科技有限公司 | 基于情绪识别的游戏难度调节方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020191015A1 (en) | 2020-09-24 |
KR20210130232A (ko) | 2021-10-29 |
US10918948B2 (en) | 2021-02-16 |
EP3911425A1 (en) | 2021-11-24 |
EP3911425A4 (en) | 2022-11-09 |
CA3131321A1 (en) | 2020-09-24 |
US20200298118A1 (en) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113660987A (zh) | 生成适用于游戏应用程序的游戏机器人 | |
US12076645B2 (en) | Pixel-based AI modeling of player experience for gaming applications | |
Yannakakis et al. | Artificial intelligence and games | |
US11325048B2 (en) | User experience modeling for gaming applications | |
Yannakakis et al. | Experience-driven procedural content generation | |
Ortega et al. | Imitating human playing styles in super mario bros | |
Shaker et al. | The 2010 Mario AI championship: Level generation track | |
US7636701B2 (en) | Query controlled behavior models as components of intelligent agents | |
Nguyen et al. | Analytics-based AI techniques for a better gaming experience | |
Li et al. | Measuring diversity of game scenarios | |
Bicalho et al. | A Dynamic Difficulty Adjustment Algorithm With Generic Player Behavior Classification Unity Plugin In Single Player Games | |
Mahlmann | Modeling and Generating Strategy Games Mechanics | |
Vozaru | The Game Situation: An object-based game analysis framework | |
US20240367053A1 (en) | Modeling of player motivations for gaming applications | |
CN115175750A (zh) | 基于ai的游戏应用程序内容生成 | |
CN118159342A (zh) | 用于游戏应用程序的质量保证游戏机器人 | |
Rieder | Using procedural content generation via machine learning as a game mechanic | |
Cowley | Player profiling and modelling in computer and video games | |
Steurer | A Framework for Player Profiling and Adaptation in a Jump’n’Run Game | |
Lillerovde | AI and Game complexity: Game benchmarking by using reinforcement learning | |
Green | Automated Video Game Tutorial Generation | |
Vozaru | The Game Situation | |
dos Santos Lima | Adaptivity in Single Player Video Games | |
Buckley | Skill capture in first-person shooters | |
Φραγκιάς | Video game character learning with artificial intelligent algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |