CN111375196A - 基于感知的动态游戏状态配置 - Google Patents

基于感知的动态游戏状态配置 Download PDF

Info

Publication number
CN111375196A
CN111375196A CN201910268092.4A CN201910268092A CN111375196A CN 111375196 A CN111375196 A CN 111375196A CN 201910268092 A CN201910268092 A CN 201910268092A CN 111375196 A CN111375196 A CN 111375196A
Authority
CN
China
Prior art keywords
video game
user
data
emotional state
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910268092.4A
Other languages
English (en)
Other versions
CN111375196B (zh
Inventor
C·M·苏曼特
N·维克托
T·阿加瓦尔
P·甘奈沙恩
S·纳拉芙拉
金宇
J·科伦
N·阿赫代尔
K·A-U·泽曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronic Arts Inc
Original Assignee
Electronic Arts Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronic Arts Inc filed Critical Electronic Arts Inc
Publication of CN111375196A publication Critical patent/CN111375196A/zh
Application granted granted Critical
Publication of CN111375196B publication Critical patent/CN111375196B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Cardiology (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Oral & Maxillofacial Surgery (AREA)

Abstract

本文呈现的系统可以至少部分地基于确定的或预测的用户情绪状态来自动地和动态地修改用户玩的视频游戏。使用一个或多个机器学习算法,可以生成使用通过监测玩视频游戏的用户获得的感知和/或生物识别数据的参数函数。基于感知和/或生物识别数据,可以预测用户的情绪状态。例如,可以确定用户在玩视频游戏时是否可能感到无聊、快乐或害怕。至少部分地基于确定的用户情绪状态,可以修改视频游戏以增加积极感受并减少在对视频游戏的回应中出现的消极感受。

Description

基于感知的动态游戏状态配置
背景技术
软件开发人员通常希望他们的软件尽可能长时间地吸引用户。用户使用该软件的时间越长,该软件成功的可能性就越大。对于视频游戏,用户的参与长度与软件的成功之间的关系尤其如此。用户玩特定视频游戏的时间越长,用户喜欢游戏的可能性就越大,因此用户越有可能继续玩游戏,或者决定玩与该特定视频游戏相关的续集、扩展或其他相关的视频游戏(例如移动陪伴游戏或游戏的移动版本)。
勿庸置疑,用户不喜欢的游戏可能导致用户参与度低。此外,由于不同的用户可能对视频游戏的特定方面或挑战做出不同的反应,因此通常不可能制作出吸引所有用户的视频游戏。因此,游戏开发的挑战之一是设计一种能够吸引更可能多的玩家的游戏。
发明内容
本公开内容的系统、方法和设备各自具有若干创新方面,其中没有一个方面单独负责本文公开的所有期望属性。在附图和以下描述中阐述了本说明书中描述的主题的一个或多个实施方案的细节。
本公开内容的一些方面涉及一种计算机实施的方法,该方法可以由包括一个或多个处理器并配置有具体计算机可执行指令的交互式计算系统实现。该计算机实施的方法可以包括:从玩视频游戏的用户接收一组感知数据;使用第一预测模型,以至少部分地基于所述一组感知数据确定用户的预测情绪状态;至少部分地基于所述用户的预测情绪状态,确定对视频游戏状态的第一修改;并且至少部分地基于所确定的对所述视频游戏状态的所述第一修改来修改所述视频游戏状态。
前一段的方法可包括以下特征的任何组合或子组合:其中所述一组感知数据包括一种或多种类型的感知数据;其中所述一组感知数据包括生物识别数据;其中所述一组感知数据包括以下中的至少之一:音频数据;视觉数据;心率数据;呼吸频率数据;或皮肤电反应数据;其中,该方法还包括:接收与一个或多个传感器对应的一组信号;并转换所述一组信号以获得所述一组感知数据;其中该方法还包括通过至少将所述用户的预测情绪状态应用于第二预测模型来确定用户的预测流失率,其中确定对视频游戏状态的第一修改包括至少部分地基于预测流失率确定对所述视频游戏状态的第一修改;其中,确定所述预测情绪状态包括:将所述一组感知数据提供给参数函数,所述参数函数至少部分地基于机器学习算法生成;并且至少部分地基于所述参数函数的输出来确定所述预测情绪状态;其中,所述方法还包括:至少通过以下方式生成所述参数函数:访问第二组感知数据,所述第二组感知数据与玩视频游戏的多个用户相关联并对应于一个或多个情绪状态;并且使用机器学习算法至少部分地基于所述第二组感知数据和对应的一个或多个情绪状态来确定所述参数函数;其中,所述感知数据包括包含语音的音频数据,该方法还包括:将所述语音转换为文本;确定所述语音的语调;并且,执行所述语音的语义分析,其中,确定所述用户的预测情绪状态包括:将语音的语调和语音的语义分析的结果提供给第一预测模型;其中感知数据包括多种类型的感知数据,并且其中第一预测模型将至少一种类型的感知数据与至少一种其他类型的感知数据不同地加权;其中,确定对视频游戏状态的第一修改包括:确定多个潜在视频游戏状态修改,每个潜在视频游戏状态修改与将用户的情绪状态从第一情绪状态改变为第二情绪状态相关联;确定用户的期望情绪状态;从多个潜在视频游戏状态修改中,选择与将用户的情绪状态从预测情绪状态改变为期望情绪状态相关联的对视频游戏状态的第一修改;其中,在修改视频游戏状态之后,该方法还包括:从玩视频游戏的用户接收第二组感知数据;使用第一预测模型,以至少部分地基于第二组感知数据确定用户的第二预测情绪状态;至少部分地基于用户的第二预测情绪状态,确定对视频游戏状态的第二修改;并且至少部分地基于所确定的对视频游戏状态的第二修改来修改视频游戏状态;以及其中,当确定用户的第二预测情绪状态比所述用户的预测情绪状态更远离期望情绪状态时,对视频游戏状态的第二修改将视频游戏状态恢复到视频游戏的先前状态;与所述视频游戏状态的第一修改相比,对所述视频游戏状态的第二修改与视频游戏状态的相反修改相关联。
本公开内容的另外方面提供了一种系统,该系统包括电子数据存储器,该电子数据存储器被配置为存储关于视频游戏的感知数据;以及与电子数据存储器通信的硬件处理器。硬件处理器可以被配置为执行具体的计算机可执行指令以至少:从玩视频游戏的用户接收一组感知数据;使用第一预测模型,以至少部分地基于所述一组感知数据来确定所述用户的预测情绪状态;至少部分地基于所述用户的预测情绪状态,确定对视频游戏状态的第一修改;和至少部分地基于所确定的对所述视频游戏状态的所述第一修改来修改所述视频游戏状态。
前一段的系统可以包括以下特征的任何组合或子组合:其中硬件处理器还被配置为通过确定用于一部分视频游戏的修改的种子值,来确定对视频游戏状态的第一修改,修改的种子值与先前确定的待要应用于所述一部分视频游戏的现有种子值不同,并且其中所述硬件处理器还被配置为通过用所述修改的种子值替换所述现有的种子值来修改所述视频游戏状态;其中,硬件处理器还被配置为通过至少将用户的预测情绪状态应用于第二预测模型来确定用户的预测流失率,其中确定对所述视频游戏状态的所述第一修改包括至少部分地基于所述预测流失率来确定对所述视频游戏状态的所述第一修改;其中,确定预测情绪状态包括:将所述一组感知数据提供给参数函数,所述参数函数至少部分地基于机器学习算法生成;并且至少部分地基于参数函数的输出来确定预测情绪状态;其中,硬件处理器还被配置为至少通过以下方式生成参数函数:访问第二组感知数据,所述第二组感知数据与玩视频游戏的多个用户相关联并且对应于一个或多个情绪状态;并且使用机器学习算法至少部分地基于第二组感知数据和对应的一个或多个情绪状态来确定参数函数;并且硬件处理器还被配置为至少通过以下方式确定对所述视频游戏状态的所述第一修改:确定多个潜在视频游戏状态修改,每个潜在视频游戏状态修改与将用户的情绪状态从第一情绪状态改变为第二情绪状态相关联;确定用户的期望情绪状态;从多个潜在视频游戏状态修改中,选择与将用户的情绪状态从预测情绪状态改变为期望情绪状态相关联的对视频游戏状态的第一修改。
本公开内容的又一些方面提供了一种存储计算机可执行指令的非暂时性计算机可读存储介质,所述计算机可执行指令在由一个或多个计算设备执行时被配置为使一个或多个计算设备执行对应于本文公开的实施方案中的一个或多个的一组操作。
尽管本文公开了一些实施方案和实施例,但本发明的主题超出具体公开的实施方案中的实施例,扩展到其他替代实施方案和/或用途,并且扩展到其修改和等同物。
附图说明
在整个附图中,重复使用附图标记来指示所引用元件之间的对应关系。提供附图是为了说明本文描述的主题的实施方案,而不是限制其范围。
图1A示出了基于感知的动态视频游戏状态修改系统的一个实施方案的构思图。
图1B示出了可以实现基于感知的动态视频游戏状态配置系统的一个或多个实施方案的联网计算环境的一个实施方案。
图1C示出了图1B的模型生成系统的一个实施方案。
图1D示出了图1B的保留分析系统的一个实施方案。
图2呈现了预测模型生成过程的一个实施方案的流程图。
图3呈现了至少部分地基于流失率的视频游戏状态修改过程的一个实施方案的流程图。
图4呈现了至少部分地基于期望情绪状态的视频游戏状态修改过程的一个实施方案的流程图。
图5呈现了游戏状态配置评估过程的一个实施方案的流程图。
图6示出了用户计算系统的一个实施方案。
图7示出了用于图6的用户计算系统的硬件配置的一个实施方案。
具体实施方案
通常希望视频游戏吸引大量用户。但是,不同的用户对他们玩的视频游戏类型有不同的偏好。此外,不同的游戏引起不同用户的不同心情或情绪。在一些情况下,不同的心情或情绪与视频游戏的难度或挑战有关。例如,一些用户更喜欢相对具有挑战性的视频游戏,并且在玩具有挑战性的游戏时可能产生积极情绪,即使挑战导致成功率低。在玩具有挑战性的游戏时,其他用户可能会产生消极情绪,特别是当挑战导致成功率低时。产生积极情绪(例如快乐、成就感、兴奋感等)的用户相对于产生消极情绪(例如沮丧、悲伤、恐惧)的用户往往更被视频游戏吸引。因此,通常希望开发引起用户积极情绪的视频游戏。然而,也可能有一些用户渴望其他用户可能认为是消极的情绪。例如,虽然一些用户可能不喜欢玩引起恐惧或厌恶的视频游戏,但是其他用户可能喜欢引起恐惧或厌恶的视频游戏。因此,设计用于引发特定情绪的静态视频游戏,可能比基于用户的检测到的或预测的情绪在运行时期期间能够动态修改的视频游戏吸引的人少。
本文公开的实施方案可以基于一个或多个感知信号来检测或预测玩视频游戏的用户的情绪。可以将感知信号或从感知信号导出的数据提供给使用机器学习过程生成的参数函数或预测模型。参数函数可以预测玩视频游戏的用户的情绪或心情。基于用户的预测心情,可以动态地修改视频游戏以调整用户的心情。通过调整用户玩视频游戏的心情,在一些实施方案中,可以修改用户的保留率或流失率。
本文公开的系统可以通过改变视频游戏的不同状态或特征来修改视频游戏。在一些实施方案中,可以修改视频游戏的难度以试图改变视频游戏的流失率。在2018年3月20日的题为“DYNAMIC DIFFICULTY ADJUSTMENT”的美国专利No.9,919,217中公开了用于改变视频游戏的难度以试图修改视频游戏的流失率的实施方案,该专利的全部内容通过引用方式被纳入本文。
难度不是能够影响心情并且因此影响用户的保留率的唯一因素。在一些实施方案中,其他特征诸如氛围、血腥、亵渎等)可以影响用户的情绪或心情。此外,由游戏引起的情绪,例如恐惧、悲伤、快乐等,可以影响玩视频游戏的用户的保留率。本文公开的实施方案可以修改视频游戏状态以修改游戏特征或由视频游戏引发的情绪,从而提高满意度,并因此提高玩视频游戏的用户的保留率。
图1A示出了根据本文描述的一些实施方案的基于感知的动态视频游戏状态修改系统的一个实施方案的构思图。信号捕获系统10可用于获得与玩视频游戏的用户相关联的感知数据。信号捕获系统可包括用于捕获音频的传感器(例如传声器)、用于捕获图像或视频的光学传感器(例如相机)、用于测量用户的皮肤电反应(或皮肤电活动(EDA))的皮肤电反应(GSR)传感器和用于捕获可用于预测用户情绪状态的数据的任何其他类型的传感器。
可以将由信号捕获系统10捕获的数据或信号提供给情绪捕获系统20,该情绪捕获系统20可以使用从信号捕获系统10接收的数据来确定或预测用户的情绪。情绪捕获系统20可以将信号转换为可以用于确定或预测用户情绪的数据。例如,情绪捕获系统20可以将音频转换为文本,该文本可随后被分析以确定用户的感情。此外,使用语调分析器可以分析音频和文本以确定其语调。代替或者除感情之外,参数函数可以使用音频和文本的语调来确定用户的情绪状态。可用于确定或预测用户情绪的感知数据的其他示例包括视觉数据和生物识别数据。视觉数据可以包括姿势、姿态、面部表情等。生物识别数据可以包括心率、呼吸率、皮肤或体温等。
由信号捕获系统10获得的捕获信号和/或由情绪捕获系统20从捕获信号获得的数据可以被聚合和/或存储在数据聚合和管理系统30中。数据聚合和管理系统30可以将数据存储在数据仓库中。该存储的数据可用于促进测试不同版本的视频游戏。例如,可以执行A/B测试(例如,测试不同用户群之间的不同版本的视频游戏),并且可以存储和比较情绪状态数据以确定视频游戏的第一版本(版本A)还是第二版本(版本B)在用户之间产生更积极的情绪状态。
至少部分地基于从情绪捕获系统20接收和/或存储在数据聚合和管理系统30的数据仓库的情绪状态数据,可以在用户的游戏期间由一组一个或多个人工智能或机器学习应用40修改视频游戏。替代地,或者附加地,可以由机器学习应用40预先修改呈现给不同用户组的视频游戏的实例,以便于测试不同版本的游戏引擎。应当理解的是,图1A表示基于感知的动态视频游戏状态修改系统的一个构思性实施方案。可以实现能够确定用户的情绪状态并基于用户的情绪状态修改视频游戏的配置和/或状态以获得用户的不同情绪状态的基于感知的动态视频游戏状态修改系统的其他实施方案。修改用户的情绪状态可以用于提高保留用户作为视频游戏的玩家的概率,或者用于相对于不能基于用户的情绪状态进行修改的视频游戏的静态版本保留用户较长时间段的概率。
为了简化讨论,主要是关于视频游戏描述本公开内容。然而,本公开内容不限于此,因为其可以应用于其他类型的应用。例如,本文公开的实施方案可以应用于教育应用程序或可以应用于基于用户与应用程序交互的历史来修改的其他应用程序。此外,本公开不限于视频游戏的类型。本文使用的术语“视频游戏”包括所有类型的游戏,包括但不限于基于网络的游戏、控制台游戏、个人计算机(PC)游戏、计算机游戏、用于移动设备的游戏(例如,智能手机、便携式控制台、游戏机或可穿戴设备,例如虚拟现实眼镜、增强现实眼镜或智能手表),或虚拟现实游戏,以及其他类型的游戏。
示例的网络计算环境
图1B示出了可以实现基于感知的动态视频游戏状态配置系统的一个或多个实施方案的联网计算环境100的一个实施方案。联网计算环境100包括可以经由网络104与交互计算系统130通信的用户计算系统110。此外,联网计算环境100可以包括多个额外用户计算系统102。至少一些用户计算系统102可以被配置为与用户计算系统110相同或相似。
用户计算系统110可以包括或托管视频游戏112。在一些情况下,视频游戏112可以完全在用户计算系统110上执行。在其他情况下,视频游戏112可以至少部分地在用户计算系统110上执行和至少部分地在交互计算系统130上执行。在一些情况下,视频游戏112可以完全在交互计算系统130上执行,但是用户可以经由用户计算系统110与视频游戏112交互。例如,游戏可以是大型多人在线角色扮演游戏(MMORPG),其包括由用户计算系统110执行的客户端部分和由包括作为交互计算系统130的一部分的一个或多个应用主机系统138执行的服务器部分。作为另一示例,视频游戏112可以是在用户计算系统110上玩的而不与交互计算系统130交互的冒险游戏。
视频游戏112可以包括修改或影响视频游戏112的状态的多个调节器(knobs)114。通常,调节器114是影响视频游戏112的执行或操作的变量。在一些情况下,调节器114是直接修改视频游戏112的执行的状态变量。在其他情况下,调节器114是可以改变视频游戏112内发生的概率或视频游戏112内的随机(或伪随机)配置或事件的种子或种子变量。例如,一个种子可以对应于并且可以影响生成视频游戏112中的级别布局。作为另一示例,一个种子可以对应于并且影响当用户玩视频游戏112时物品丢弃的发生次数或丢弃的物品类型。在一些情况下,种子值是初始化或影响随机数或伪随机数生成器的值。在这样的一些情况下,基于种子值生成的随机数可以由视频游戏112的一个或多个函数用来影响视频游戏112的操作。在一些情况下,种子变量可以被称为杠杆,并且种子变量是各种类型的调节器的非限制性示例。应当理解的是,调节器114(有时称为杠杆或状态变量)不限于种子,而是可以包括可以修改视频游戏112的执行的任何类型的变量。系统可以通过调整可以改变视频游戏112的任何类型的调节器或杠杆修改视频游戏的执行,并且可以进行流失率的调节器级别分析或者关于状态变量的值对用户的情绪或预测的情绪的影响的调节器级别分析。系统不限于基于种子值调节所述调节器或杠杆。
调节器114可以包括与视频游戏112的难度级别相关的变量。应当理解的是,调节器114通常包括修改视频游戏112的操作的变量的子集,并且视频游戏112可以包括不涉及视频游戏112的难度级别的设置和/或不可用于修改的其他变量。此外,调节器114可以包括以用户不可感知或者用户难以察觉的方式修改视频游戏112的变量。在一些情况下,用户是否可感知视频游戏112的修改可取决于具体的视频游戏。例如,假设一个调节器114涉及视频游戏112中的敌人具有的生命数量。在一些情况下,修改分配给调节器114的值可以是用户可检测的,因为例如敌人的健康状况以数字方式呈现给用户。在这种情况下,敌人的健康状况可能在视频游戏112的难度级别中保持不变,但是视频游戏112的难度级别可以通过不同的调节器114来修改。然而,在一些情况下,修改敌人的健康状况可是用户可能无法检测的,因为例如,敌人的健康状况未呈现给用户,并且击败敌人所需的命中数量在一个范围内变化,使得用户难以确定相比于与敌人的另一次遭遇,敌人的健康状况可能已经根据与敌人的一次遭遇被修改(例如,相比于视频游戏112中的另一次游戏,根据视频游戏112中的一次游戏被修改)。
本文公开的一些实施方案可以尝试通过改变视频游戏112的难度来修改用户的情绪状态。替代地,或附加地,本文公开的一些实施方案可以尝试通过改变视频游戏112的其他特征(例如,通过调整可能与视频游戏112的难度无关或略微相关的视频游戏112的游戏状态或调节器114)来修改用户的情绪状态。例如,如果用户看起来害怕或过度害怕,如可以通过用户的感知或生物识别测量值超过阈值来确定的,可以修改造成视频游戏112的恐怖性的游戏状态变量。例如,可以增加游戏中的照明,可以在视频游戏中将怪物或者敌人做出的噪声从更远的距离处增加或从更远的距离处可检测到,可以将音乐修改为较不险恶,或者可以使敌人看起来更加远离用户可玩角色等等。作为另一示例,如果用户在玩特别血腥的游戏或具有过多粗言秽语或粗鲁幽默的游戏时看起来感到厌恶、震惊或其他不愉快的感受时,则可以修改游戏状态以减少显示的血液量或血腥程度,或者可以减少粗言秽语或粗鲁幽默的数量。
用户计算系统110还可包括一组感知和生物识别传感器116,其从玩视频游戏112的用户获得感知数据。在一些实施方案中,该一组感知和生物传感器116产生提供给交互计算系统130的情绪捕获和确定系统118的感知信号,所述情绪捕获和确定系统可以将感知信号转换为感知数据。该感知数据可以是音频、视觉或皮肤电反应(GSR)数据(有时称为皮肤电活动(EDA)数据)。该组感知和生物识别传感器116可包括可捕获与用户有关的感知数据的任何类型的系统或传感器。例如,传感器可以包括传声器、图像捕获系统(例如相机)、可穿戴设备、心率监测器;呼吸率监测器等。在一些实施方案中,传感器可以是用户计算系统110的一部分,例如相机或传声器。替代地或另外地,传感器可以是用户计算系统110的附件,例如包括GSR传感器或相机附件的游戏手柄。
在一些实施方案中,如用户计算系统110外部的感知和生物识别传感器116所示,传感器可以与用户计算系统110分立。在一些情况下,传感器可以与用户计算系统110通信。替代地或另外地,传感器可以经由网络104与交互计算系统130通信。例如,传感器可以是可穿戴设备(例如健身监测器),其可以监测用户的心率。可穿戴设备可以与用户计算系统110和/或与交互计算系统130通信。
用户计算系统110可以包括用于通过通信网络104建立通信的硬件和软件组件。例如,用户计算系统110可以配备有网络设备和网络软件应用程序(例如,网络浏览器),以便于通过网络(例如,互联网)或内联网进行通信。用户计算系统110可以具有各种本地计算资源,诸如中央处理单元和架构、内存、大容量存储器、图形处理单元、通信网络可用性和带宽等等。此外,用户计算系统110可以包括任何类型的计算系统。例如,用户计算系统110可以包括任何类型的计算设备,诸如台式机、膝上型计算机、视频游戏平台、电视机顶盒、电视(例如,互联网电视)、支持网络的信息亭、汽车-控制台设备、计算机化设备、可穿戴设备(例如,具有计算功能的智能手表和眼镜)以及无线移动设备(例如,智能电话、PDAs、平板电脑等),仅举几个例子。在一些实施方案中,用户计算系统110可以包括下面参考图5和6描述的一个或多个实施方案。
如前所述,可能希望维持或增加用户参与视频游戏112的程度。用于维持或增加用户参与视频游戏112的程度的一种解决方案包括当玩视频游戏112时至少部分地基于用户的情绪状态配置视频游戏112的状态。交互计算系统130可以在玩视频游戏112时确定或预测用户的情绪状态并且对视频游戏112进行改变以维持或修改用户的情绪状态。如下面将更详细描述的,对用户的情绪状态的这种确定或预测可以至少部分地基于针对用户玩视频游戏112获得的感知和/或生物识别信息,和/或针对其他用户使用相同的配置和/或不同的配置玩视频游戏112获得的感知和/或生物识别信息。在一些实施方案中,情绪状态预测可以基于响应于用户可访问的其他视频游戏而获得的感知和/或生物识别信息。
交互计算系统130可以包括便于确定玩视频游戏112的用户的心情或情绪状态以及用于至少部分地基于玩视频游戏112的用户的情绪状态来修改视频游戏112的状态的多个系统或子系统。这些系统或子系统可包括情绪捕获和确定系统118、游戏配置系统134、游戏测试引擎136、应用程序主机系统138、保留分析系统140以及模型生成系统146。此外,交互计算系统130可以包括一个或多个存储库,以存储用于便于执行本文描述的过程的数据。这些存储库可以包括用户数据存储库142和游戏配置存储库144。应当理解的是,交互计算系统130可以包括更多或更少的存储库,用于最佳存储和管理与本文描述的过程一起使用的数据。
交互式计算系统130的前述系统中的每个可以在硬件、软件或硬件和软件的组合中实现。此外,每个系统可以在包括计算机硬件的单个计算系统中或在一个或多个单独或分布式计算系统中实现。而且,虽然图1B中示出的系统要在交互计算系统130上存储或执行,但应认识到的是,在一些实施方案中,可以在用户计算系统110上存储和执行部分或全部系统。
在一些实施方案中,当用户计算系统110经由网络104与交互计算系统130连接或通信时,交互计算系统130可以执行本文描述的过程。然而,在用户计算系统110和交互计算系统130不通信的一些情况下,用户计算系统110可以使用可以存储在用户计算系统110中的用户的最近情绪状态信息来执行本文描述的一些过程。
情绪捕获和确定系统118可以包括可以使用从一个或多个感知和生物识别传感器116获得的感知信号和/或感知数据来确定或预测玩视频游戏112的用户的情绪的任何系统。在一些实施方案中,情绪捕获和确定系统118可以获得和/或聚集感知数据,并将感知数据提供给保留分析系统140的情绪分析系统126,以确定或预测玩视频游戏112的用户的情绪状态。
在一些实施方案中,情绪捕获和确定系统118可以包括多个子系统,以便于从感知和生物识别传感器116接收的感知信号中获得或提取感知数据。此外,多个子系统中的至少一些可以执行分析感知数据和/或可以聚合或整理一些感知数据。可以将分析结果和/或聚合的感知数据提供给情绪分析系统126,其可以使用例如使用机器学习过程生成的一个或多个参数或预测函数来确定或预测玩视频游戏112的用户的情绪状态。情绪捕获和确定系统118的子系统可以包括语音转文本系统120、语调和感情分析系统122和/或生物识别分析系统124。
语音转文本系统120可以包括可以接收音频信号并将其转换为文本的任何系统。此外,语音转文本系统120可以识别与非字母数字通信相关联的音频信号,并将非字母数字通信转换为代表性文本。例如,与呻吟声或咕噜声相关联的音频信号可以被转换为表明用户呻吟或咕噜的文本。
语调和感情分析系统122可以包括可以确定音频或视觉数据的语调或感情的任何系统。例如,语调和感情分析系统122可以从语音转文本系统120接收文本,并且可以至少部分地基于文本确定用户的语音的感情。作为另一示例,语调和感情分析系统122可以处理从感知和生物识别传感器116接收的音频以确定用户语音的语调。
除了确定用户做出的语音或音频的语调和/或感情之外,语调和感情分析系统122还可以确定关于由感知和生物识别传感器116捕获的用户的图像和/或视频的感情。例如,用户微笑或大笑的图像或用户可以指示在玩视频游戏112时的积极情绪状态。相反,用户皱眉或给出厌恶的脸部的图像或视频可以指示在玩视频游戏112时的消极情绪状态。
生物识别分析系统124可以包括可以至少部分地基于从感知和生物识别传感器116获得的感知数据来确定玩视频游戏112的用户的生理信息的任何系统。例如,生物识别分析系统124可以至少部分地基于感知数据来确定心率或呼吸率。替代地或另外地,在一些实施方案中,生理信息可以直接从感知和生物传感器116接收。例如,感知和生物识别传感器116可以提供用户的心率或呼吸率给情绪捕获和确定系统118。在一些实施方案中,生物识别分析系统124可以至少部分地基于由感知和生物识别传感器116获得的音频或图像来确定用户的额外情绪状态信息。例如,生物识别分析系统124可以从接收的图像中确定用户正在出汗,这可能因此指示用户的许多可能的情绪状态,例如恐惧。在一些情况下,预测情绪状态可以至少部分地基于用户正在玩的特定视频游戏112。例如,当玩艰难游戏时确定用户正在出汗表示恐惧,而当玩健身游戏时确定用户正在出汗可表示热情参与到视频游戏112中。
保留分析系统140可包括用于基于用户的确定或预测情绪状态来确定用户的预测流失率或保留率的一个或多个系统。在一些实施方案中,由情绪捕获和确定系统118根据从感知和生物传感器116接收的感知信号确定的感知数据被应用于由模型生成系统146生成的参数或预测模型。基于将传感器数据应用到预测模型,保留分析系统140可以确定用户的预测流失率或保留率。替代地或另外地,通过保留分析系统140的情绪分析系统126将感知数据应用于预测或参数模型,以预测或确定用户的情绪状态。在这样的一些实施方案中,用户的预测情绪状态可以由保留分析系统140应用于另一参数函数以确定用户的流失率。
除了可以使用一个或多个参数函数确定或预测用户的情绪状态的情绪分析系统126之外,保留分析系统140可以包括游戏配置分析系统128。游戏配置分析系统128可以至少部分地基于另一参数模型来确定修改视频游戏112的一个或多个调节器114或游戏状态变量。该额外的参数或预测模型可以基于用户的预测情绪状态或用户满意视频游戏112的预测流失率中的一个或多个确定要修改的视频游戏112的配置或状态的一个或多个方面。
游戏配置系统134设置或调整视频游戏112的状态或配置。在一些实施方案中,游戏配置系统134修改视频游戏112的现有配置。设置或修改视频游戏112的配置可以包括通过调整视频游戏112的一个或多个调节器114或状态变量来修改或改变视频游戏112的一个或多个部分。在一些实施方案中,修改视频游戏112以便调整视频游戏112的难度级别。然而,本公开不限于修改视频游戏的难度级别。相反,本公开内容的实施方案可以用于设置或修改视频游戏112的各种不同方面,这些方面可以在玩视频游戏112时影响用户对视频游戏112的喜欢程度或用户的情绪状态。例如,游戏配置系统134可以修改改变视频游戏112的氛围的视频游戏112的各方面。例如,视频游戏112可以被修改以使其更多血或更少血、更加血腥或者更不血腥、更加可怕或更不可怕、更加幽默或者更不幽默、更加严肃或更不严肃等等。例如,可以修改照明量或着色器或纹理的颜色以调整视频游戏112的心情或氛围。
在一些实施方案中,游戏配置系统134可以通过修改游戏中的阶段顺序、在游戏期间丢弃的物品、游戏的难度级别、在游戏期间遭遇的不可玩的角色、以及视频游戏112的可以导致不同的游戏体验并且因此在一些情况下导致用户的不同情绪状态的任何其他特征,来调整玩视频游戏112的游戏体验。在一些实施方案中,游戏配置系统134可以通过修改用于生成视频游戏112的一些部分或视频游戏112的其他方面(例如物品丢失率或敌人出现)的种子值来调整视频游戏112。游戏配置系统134可以代替直接修改视频游戏112的状态变量或调节器114来调整种子值,或者除了直接修改视频游戏112的状态变量或调节器114之外调整种子值。
模型生成系统146可以使用一个或多个机器学习算法来生成一个或多个预测模型或参数函数。这些预测模型中的一个或多个可用于基于一组输入确定预期值或事件。例如,预测模型可用于基于预测模型的一个或多个输入(例如,用于玩视频游戏112、类似视频游戏或通常其他视频游戏的用户的历史用户感知数据或情绪状态)来确定预期的流失率或用户将停止玩视频游戏112的概率。作为另一示例,预测模型可用于基于预测模型的一个或多个感知数据输入来确定或预测用户的情绪状态。在一些情况下,预测模型可以被称为预测模型,因为例如输出可以是对动作或事件的预测或者可以与对动作或事件的预测相关,例如用户继续玩视频游戏112的预测;或者输出可以是对状态的预测或者可以与对状况的预测相关,例如对用户的情绪状态的预测。模型生成系统146可以使用许多不同类型的算法。例如,本文的一些实施方案可以使用逻辑回归算法。然而,其他算法也是可能的,例如线性回归算法、离散选择算法或广义线性算法。
机器学习算法可以被配置为基于由模型生成系统146接收的新输入随时间自适应地开发和更新模型。例如,模型可以在可获得新用户信息(例如,额外的感知数据)时周期性地重新生成,来帮助保持模型中的预测更准确,因为用户信息随着时间的推移而变化。本文更详细地描述了模型生成系统146。在生成模型之后,可以将其提供给保留分析系统140。
可用于生成和更新参数函数或预测模型的机器学习算法的一些非限制性示例可包括监督和非监督机器学习算法,包括回归算法(例如,普通最小二乘法回归)、基于实例的算法(例如,学习矢量量化)、决策树算法(例如,分类和回归树)、贝叶斯算法(例如,朴素贝叶斯)、聚类算法(例如,k-means聚类)、关联规则学习算法(例如,Apriori算法)、人工神经网络算法(例如,感知(Perceptron))、深度学习算法(例如,深玻尔兹曼机(Deep BoltzmannMachine))、降维算法(例如,主成分分析)、集合算法(例如,Stacked Generalization)和/或其他机器学习算法。
如前所述,游戏配置系统134可以基于玩视频游戏112的用户的情绪状态来修改视频游戏112的一个或多个部分,以试图修改用户的情绪状态。在用户的游戏会话期间可以动态地调整用户的情绪状态。如果确定对视频游戏112的改变是使得用户的情绪状态恶化(例如,更消极),则游戏配置系统134可以对视频游戏112的状态进行不同的改变。
在一些实施方案中,本文公开的系统可用于测试或试验视频游戏112的不同版本以确定它们对不同用户的情绪状态的影响。游戏测试引擎136可以包括可以执行视频游戏112的测试以确定对视频游戏112的改变的影响的任何系统。虽然游戏测试引擎136通常可以用于检测开发视频游戏112中存在的错误或毛病,本文公开的实施方案使得游戏测试引擎136能够确定视频游戏112的一些部分的不同配置对玩视频游戏112的用户的情绪状态的影响。因此,例如,游戏测试引擎136可以使得将视频游戏112的一个版本呈现给第一用户组,以及将视频游戏112的另一版本呈现给第二用户组。将视频游戏112的不同版本呈现给不同的用户组可以称为A/B测试。情绪捕获和确定系统118可以从不同的用户组获得感知数据。感知数据可用于确定不同用户组的情绪状态。基于不同用户组的情绪状态,游戏测试引擎136可以确定与视频游戏112的其他版本相比更加可能使得更多数量的用户处于积极情绪状态的视频游戏112的版本。
游戏配置储存库144可以包括预测模型的输出与视频游戏112的配置或状态之间的一个或多个映射,其可以由例如游戏配置系统134使用以确定如何修改视频游戏112以调整情绪状态,并因此调整视频游戏112的用户的流失率。例如,如果用户在玩冒险游戏时的预测情绪状态是“厌恶”,则可以进一步预测流失级别是高。在这样的一些情况下,游戏配置储存库144可以包括在情绪状态之间的映射:厌恶和/或流失率:高,以及用于调整视频游戏112以具有更少的可能导致厌恶的元素的数据(例如,较低级别的血腥)。应该理解的是,视频游戏和情绪状态的各方面之间并不总是一一对应。通常情境可能会影响用户的情绪状态。例如,在前面的例子中,视频游戏是一个冒险游戏,血腥可能会导致一些用户更厌恶,而其他用户可能不会受到血腥存在的影响,或者可能对血腥可能会引入视频游戏的现实主义有更积极的反应。相反,如果游戏是恐怖游戏,那么血腥的存在可能导致更积极的情绪状态,因为对玩恐怖游戏感兴趣的用户可能希望看到更多的血腥。然而,其他用户可能更喜欢暂停恐怖游戏,并且可能对血腥的存在做出消极反应。
此外,参考函数的生成和应用及其在调整视频游戏112的状态中的使用将在下面关于保留分析系统140进一步详细描述。在一些实施方案中,交互计算系统130的一个或多个元件可以被组合或进一步分开在一个或多个计算系统之间。
用户数据储存库142可以存储与一个或多个用户与视频游戏112和/或一个或多个其他视频游戏的交互相关联的感知数据。该感知数据可以在视频游戏112的一个或多个游戏会话上获得。在一些情况下,存储在用户数据存储库142中的至少一些数据可以存储在用户计算系统110的存储库中。本文描述的存储库可以包括非易失性存储器,或者易失性和非易失性存储器的组合。
如前所述,在一些实施方案中,视频游戏112或其一部分可以由交互计算系统130的应用主机系统138托管。例如,MMORPG可以具有在用户计算系统110上执行或托管的部分和在交互计算系统130的应用主机系统138上执行或托管的部分。在这样的一些实施方案中,游戏配置系统134可以通过修改在用户计算系统110和/或应用程序主机系统138处托管的视频游戏112的调节器、状态变量或者特征来修改视频游戏112的状态。
网络104可以包括任何类型的通信网络。例如,网络104可以包括广域网(WAN)、局域网(LAN)、蜂窝网络、ad hoc网络、卫星网络、有线网络、无线网络等中的一个或多个。此外,在一些情况下,网络104可以包括因特网。
示例模型生成系统
图1C示出了图1B的模型生成系统146的一个实施方案。模型生成系统146可以用于基于多个用户的历史数据152来确定一个或多个预测模型160。通常地,尽管不是必须的,历史数据152包括与大量用户相关联的数据,例如数百、数千、数十万或更多用户。然而,本文公开不限制于此,并且用户数可包括任意数量的用户。此外,历史数据152可以包括从一个或多个数据源接收的数据,例如,应用程序主机系统(未示出)和/或一个或多个用户计算系统102。此外,历史数据152可以包括来自不同数据源的数据、不同数据类型以及由一个或多个感知和生物识别传感器116基于用户与视频游戏112的交互生成的任何数据的数据。在一些实施方案中,历史数据152可包括非常大量的数据点(例如数百万个数据点),其可以聚合成一个或多个数据集。在一些情况下,可以从用户数据储存库142访问历史数据152。在一些实施方案中,历史数据152限于关于特定视频游戏112的历史信息,但是在其他实施方案中,历史数据152可以包括来自一个或多个其他视频游戏的信息。在一些情况下,其他视频游戏是相似的(例如,相同的类型、相同的主题、相同或相似类型的目标等)。在其他情况下,提供历史数据152的视频游戏在类型或相似性方面不受限制。此外,在一些实施方案中,历史数据的一个或多个子集可以受到日期约束的限制,例如,限制仅包括来自过去6个月的数据、在3-6个月之间的数据或少于1年的数据。
在一些情况下,模型生成系统146还可以接收反馈数据154。该数据可以作为监督模型生成过程的一部分被接收,该过程使得用户(诸如管理员)能够将额外输入提供给可以用于便于预测模型160的生成的模型生成系统146。例如,如果历史数据152中存在异常,则用户可以标记异常数据,使得模型生成系统146能够不同地处理标记的数据,例如,通过对数据应用不同的权重或从模型生成过程中排除数据。
此外,模型生成系统146可以接收控制数据156。该控制数据156可以标识模型生成系统146将为其确定模型的一个或多个特征或特性。此外,在一些情况下,控制数据156可以指示在控制数据156中识别的一个或多个特征的值。例如,假设控制数据156指示使用历史数据152生成预测模型以确定用户玩视频游戏112的时间长度。如果每个用户玩游戏的时间量是已知的,则该数据可以作为控制数据156的一部分提供,或者作为历史数据152的一部分提供。作为另一示例,如果要生成预测模型以估计所确定的保留率,例如,基于用户是否玩视频游戏112达阈值时间段或者在特定阈值时间段之后继续玩视频游戏112,控制数据156可以包括其数据被包括在历史数据152中的用户的保留率。作为又一个示例,如果要生成预测模型以基于为用户获得的感知数据估计用户的情绪状态(例如,快乐、悲伤、沮丧、厌恶、恐惧等),控制数据156可以包括对于其感知数据被包括在历史数据中的用户的情绪状态的识别。用作控制数据的所识别的情绪状态可以是自我报告的和/或可以由训练确定用户的情绪状态的其他用户(例如心理学家)确定的。
模型生成系统146通常可以包括用于生成预测模型160的模型生成规则集170。规则集170可以包括一个或多个参数162。可以使用一个或多个数学函数来组合每组参数162以获取参数函数。此外,可以通过权重164对一个或多个特定参数进行加权。在一些情况下,可以通过将一组参数与相应的一组权重164组合来获得参数函数。预测模型160和/或预测模型160的相应参数162可以在训练过程期间基于特定输入数据(例如历史数据152,反馈数据154和控制数据156)以及用于训练目的的限定的输出标准来获得,所述输出标准可以包括在控制数据156中。模型生成规则集170可以定义模型生成系统146用于基于定义的目标函数(诸如确定用户的流失率或情绪状态)生成模型的特定机器学习规则和/或算法。在一些实施方案中,初始参数162和权重164可以在模型生成过程的初始化期间手动提供。可以在模型生成阶段期间更新和修改所述参数162和权重164以生成预测模型160。
模型生成系统146可以根据数据的各种特性和参数来过滤和分类历史数据集。例如,数据可以根据数据源(例如,游戏应用数据、主机应用数据或用户简介数据)、信息类型(例如,游戏情节信息、交易信息、交互信息、游戏账户信息)、或与数据相关的其他类别进行分类。模型生成系统146可以过滤信息以识别用于进一步处理的信息。在一些实施方案中,模型生成系统146被配置为在进一步处理之前将历史数据152过滤并分离成多个数据类型或类别。而且,在一些情况下,可以基于与不满足由模型生成系统146确定的阈值相关性的相关性相关联的数据,从历史数据152中过滤掉或移除一些历史数据152。
可选地,预测模型160中的一个或多个可以与惩罚166相关联。这些惩罚166可以用于基于用于得出惩罚的一个或多个因素来便于特定预测模型160的生成或选择。例如,特定预测模型160中包括的数学复杂度或参数的数量可用于生成特定预测模型160的惩罚,这可能影响模型的生成和/或选择算法或选择特定预测模型160的选择概率。
在生成预测模型160之后,可以在保留分析系统140或情绪分析系统126的运行期间使用模型来确定用户的情绪状态。此外,预测模型160或另一个生成的预测模型160可以由游戏配置分析系统128使用来确定对视频游戏112的状态的调整以尝试按照可以改善视频游戏112的流失率的方式修改用户的情绪状态。在一些情况下,难度的调整可以是动态的并且可以在用户与视频游戏112的交互期间发生。此外,在一些情况下,难度调整可以实时或接近实时发生。
示例保留分析系统
图1D示出了图1B的保留分析系统140的一个实施方案。保留分析系统140可以应用或使用由模型生成系统146生成的一个或多个预测模型160。尽管作为单独的系统示出,但是在一些情况下,保留分析系统140可以被包括作为游戏配置系统134的一部分。保留分析系统140可以使用一个或多个预测模型160A,160B,160N(其可以统称为“预测模型160”或以单独称为“预测模型160”)来处理输入数据172以获得输出数据174。预测模型160也可以称为参数模型。
保留分析系统140可以在游戏期间应用预测模型160。在一些实施方案中,预测模型160被连续地或重复地应用,但不一定连续地应用,以确定由视频游戏状态的改变对玩视频游戏112的用户的情绪状态所产生的影响的类型。在其他实施方案中,在游戏期间的不同时间和/或在游戏的不同阶段应用预测模型160。在确定玩视频游戏112的一个或多个部分的用户的情绪状态期间,保留分析系统140接收可以应用于预测模型160中的一个或多个的输入数据172。输入数据172可以包括与正在玩视频游戏112的用户相关联的感知数据的一个或多个部分。该数据可以包括直接从感知和生物识别传感器116获得的感知数据和/或由情绪捕获和确定系统118从感知和生物识别传感器116接收的感知信号中提取的数据。例如,感知数据可以包括从音频信号导出的文本、从音频信号导出的用户语音的语调、从由图像传感器捕获的面部表情或姿势确定的用户语调、捕获的语音的感情以及可用于预测用户的情绪状态的任何其他数据。在一些实施方案中,可以在将输入数据172提供给保留分析系统140之前对输入数据172进行过滤。
在一些实施方案中,对于保留分析系统140可以存在单个预测模型160。然而,如图所示,保留分析系统140可以包括多个预测模型160。例如,保留分析系统140可以包括用于估计用户的情绪状态的一些预测模型、用于基于用户的情绪状态估计用户的流失率的一些预测模型以及用于确定对视频游戏112的改变将会把用户的情绪状态改变到估计会提高视频游戏112的保留率的状态的一些预测模型。保留分析系统140可以基于输入数据172和/或与输入数据172相关联的额外标识符来确定使用哪个预测模型(例如模型160A-N中的任何一个)。另外,对预测模型160的选择可以基于所提供的特定输入数据172。作为输入数据172的一部分的特定类型的数据的可用性可以影响对预测模型160的选择。例如,包括作为输入数据的一部分的人口统计数据(例如,年龄、性别、第一语言)可以导致使用预测模型160A。然而,如果特定用户的人口统计数据不可用,则可以替代地使用预测模型160B。作为另一示例,单独的音频数据的可用性可导致使用预测模型160A,但音频和视觉数据或音频和心率数据的可用性可导致使用预测模型160B。
如上所述,预测模型160中的一个或多个可能已经生成具有惩罚166,或可能与惩罚166相关联。惩罚可用于影响模型的生成或预测模型的选择以供保留分析系统140使用。
输出数据174可以是与用户停止玩视频游戏112的预测相关联的保留率或流失率。例如,在一些实施方案中,保留率可以在0到100之间,指示与在阈值时间段内停止玩视频游戏112的、与作为输入数据172一样包括的相似或相同数据相关联的用户的预测百分比。在一些情况下,输出数据174还可以识别保留率的原因。例如,保留分析系统140可以指示特定用户的90%保留率至少部分地基于在玩视频游戏112时花费的金额。然而,保留分析系统140可以指示另一个用户的90%保留率可以至少部分地基于用户所在的地理区域中的低于冰点的温度。作为另一个示例,保留分析系统140可以指示用户的20%保留率可以至少部分地基于低于25%的胜率。
在另一个示例中,输出数据174可以是玩视频游戏112的用户的预测情绪状态。与保留率一样,输出数据可以在0到100之间的范围内,其中范围的一端与积极情绪相关,并且范围的另一端与消极情绪相关。在一些实施方案中,不同的预测模型160可以与不同类型的情绪或不同方面的情绪相关联。这些预测模型的输出可以被组合、聚合或以其他方式处理以确定用户的预测情绪。例如,幸福、恐惧、厌恶、紧张和兴奋(以及其他情绪属性)可以各自通过单独的预测模型在单独的范围内独立评估。结果的输出数据174可以被组合以确定用户的整体预测情绪状态。然后可以使用预测的整体情绪状态来确定是否修改视频游戏状态,以及如何修改视频游戏状态(例如,通过调整游戏中的光或音乐来使游戏变得更加可怕或更不可怕)。
预测模型160A,160B,160N通常可以分别包括一组一个或多个参数162A,162B,162N(其可以统称为“参数162”)。可以使用一个或多个数学函数来组合每组参数162(诸如参数162A)以获得参数函数。此外,来自参数162A,162B,162N的一个或多个特定参数可以用权重164A,164B,164N(其可以统称为“权重164”)加权。在一些情况下,可以通过将一组参数(诸如参数162A)与相应的一组权重164(诸如权重164A)组合来获得参数函数。可选地,预测模型160A,160B,160N中的一个或多个可以分别与惩罚166A,166B,166N相关联(其可以统称为“惩罚166”)。
机器学习过程
图2呈现了机器学习过程200的一个实施方案的流程图。过程200可以由可以生成包括一个或多个参数的一个或多个参数函数或预测模型的任何系统来实现。在一些情况下,过程200用作基于历史数据或其他已知数据开发一个或多个参数函数或预测模型的训练过程。过程200的全部或部分可以通过例如交互式计算系统130、游戏配置系统134、保留分析系统140、模型生成系统146或用户计算系统110以及其他来实现。尽管任何数量的系统可以全部或部分地实现过程200,但为了简化讨论,将关于具体系统描述所述过程200。此外,应该理解的是,可以随时间更新或重复执行过程200。例如,过程200可以每月重复一次,添加或发布新的视频游戏,或者添加可用于分析的阈值数量的新用户或正在玩视频游戏112的新用户。然而,可以更加频繁或更不频繁地执行过程200。
过程200在框202处开始,其中模型生成系统146接收包括视频游戏112的多个用户的感知数据的历史数据152。感知数据可包括可从传感器获得的并且可以与用户情绪或情绪状态相关联,或者可以用于预测用户的情绪状态的任何类型的数据。例如,感知数据可包括音频数据(包括语音和非字母数字声音,例如,咕噜声和呻吟声)、视觉或图像数据(包括可用于确定面部表情或姿势的静止图像和视频)、生理数据(例如,心率、呼吸率、出汗级别等)以及可用于确定或预测用户的情绪状态的任何其他数据。
历史数据152可以用作模型生成系统146的训练数据,并且除了感知数据之外,还可以包括用户人口统计或特征,例如年龄、地理位置、性别或社会经济类别。另外,历史数据152可以包括与一个或多个用户的游戏风格有关的信息;在玩视频游戏112上花费的金额;关于视频游戏112的用户成功或失败信息(例如,用户获胜率);玩视频游戏112的频率;使用特定可选游戏元素的频率(例如,可用提升、等级跳过、游戏内提示、加能量等);用于购买视频游戏112的游戏内物品的真实金额(例如,美元或欧元);等等。该额外历史数据可以与可用于确定用户的情绪状态的感知数据组合或相关联。此外,在一些情况下,历史数据152可以包括与视频游戏112相关的数据,诸如玩视频游戏112的用户使用的一个或多个种子值。可以作为历史数据152的一部分接收的与视频游戏112相关的数据的额外示例可以包括视频游戏112的一个或多个调节器或状态变量的设置、用户使用的视频游戏112的一个或多个难度级别的标识、视频游戏112的类型等等。
在框204处,模型生成系统146接收指示对应于历史数据的所述多个用户的期望预测的控制数据156。该控制数据156可以指示模型生成系统146将根据其确定模型的一个或多个特征或特性。替代地或另外地,控制数据156可以包括与接收的历史数据152相关联的特征或特性的值。
例如,控制数据156可以识别情绪状态、与情绪状态相关联的值(例如0表示悲伤,100表示幸福)或者与可能形成情绪状态的不同情绪相关联的值的范围,作为由模型生成系统146生成的模型预测的期望特征。作为另一示例,控制数据156可以识别流失率或保留率作为由模型生成系统146生成的模型预测的期望特征。流失率或保留率可以对应于与停止玩视频游戏112的历史数据152相关联的用户的百分比。此外,控制数据156可以识别与历史数据相关联的保留率。例如,控制数据156可以指示对于其数据包括在历史数据152中的一些用户的保留率是60%。在一些实施方案中,控制数据156可包括由模型生成系统146生成的模型预测的多个特征或特性。例如,控制数据156可识别保留率和保留率的原因(例如视频游戏112的难度对于其数据作为在框202处的历史数据152的一部分被提供的用户来说太低或太高),或者保留率以及其数据作为历史数据152被提供的用户所花费的平均金额。
在框206处,模型生成系统146基于历史数据152和控制数据156生成一个或多个预测模型160。预测模型160可包括一个或多个变量或参数162,所述变量或参数162可使用数学算法或模型生成规则集170被组合以基于历史数据152并且在一些情况下基于控制数据156生成预测模型160。此外,在一些实施方案中,框206可以包括应用一个或多个反馈数据154。例如,如果预测模型160被生成作为监督机器学习过程的一部分,则用户(例如,管理员)可以在生成预测模型160时向模型生成系统146提供一个或多个输入和/或提供一个或多个输入给模型生成系统146以改善预测模型160生成过程。例如,用户可能意识到特定区域或地理区域具有断电。在这种情况下,用户可以提供反馈数据154以减少可能对应于在停电期间来自受影响地理区域的用户的历史数据152的一部分的权重。此外,在一些情况下,可以使用例如权重164对一个或多个变量或参数进行加权。变量的权重值可以至少部分地基于变量在生成预测模型160中满足控制数据156和/或历史数据152或者在一个阈值偏差内满足控制数据156和/或历史数据152的影响。在一些情况下,变量和权重的组合可用于生成预测模型160。在一些情况下,一些类型的数据可以认为比其他类型的数据更有价值,因此可能更重地加权。例如,音频数据可以比与出汗相关的生理参数更重地加权。在数据丢失的情况下(例如,因为用户没有摄像机),相应的变量可以更少地加权或消除。
可选地,在框208处,模型生成系统146将惩罚166施加到在框206处生成的一个或多个预测模型160中的至少一些,或者将惩罚166与在框206处生成的一个或多个预测模型160中的至少一些相关联。与一个或多个预测模型160中的每个相关联的惩罚可以不同。此外,用于每个预测模型160的惩罚可以至少部分地基于预测模型160的模型类型和/或用于组合所述预测模型160的参数162的数学算法和包含在参数函数中的参数数量。例如,当生成预测模型160时,可以施加不利于非常大量的变量或更大量的处理能力的惩罚以应用到模型。作为另一示例,与使用较少变量的另一预测模型相比,比该另一预测模型使用更多的参数或变量的预测模型160可以与更大的惩罚166相关联。作为另一示例,比需要较低处理能力来计算的模型类型或数学算法的另一预测模型相比,比该另一预测模型需要使用更大量的处理能力来计算的模型类型或数学算法的预测模型可以与更大的惩罚相关联。
在框210处,模型生成系统146至少部分地基于预测模型160的准确度和任何相关惩罚来选择预测模型160。在一些实施方案中,模型生成系统146选择比另一预测模型160与更低的惩罚相关联的预测模型160。然而,在一些实施方案中,如果例如和与较低惩罚相关联的预测模型相比,预测模型160的输出是更准确的阈值程度的话,模型生成系统146可以选择与更高的惩罚相关联的预测模型。在一些实施方案中,框210可以是可选的或省略的。例如,在一些情况下,预测模型160可能不与惩罚相关联。在一些这样的情况下,可以基于由预测模型生成的输出的准确性从多个预测模型中选择预测模型。
示例视频游戏状态修改过程
图3呈现了至少部分地基于流失率的视频游戏状态修改过程300的一个实施方案的流程图。过程300可以由能够基于玩视频游戏112的用户的预测情绪状态来修改视频游戏状态或视频游戏112的配置以改善视频游戏112的流失率或保留率的任何系统实现。过程300的全部或部分可以通过例如交互式计算系统130、情绪捕获和确定系统118、游戏配置系统134、模型生成系统146、保留分析系统140或者用户计算系统110等来实现。尽管任何数量的系统可以全部或部分地实现过程300,但为了简化讨论,将关于具体系统描述过程300。此外,应该理解的是,可以随时间更新或重复执行过程300。例如,可以在以下情况下重复过程300:针对视频游戏112的每个游戏会话、针对每一轮视频游戏112、每周、每个月、针对每个阈值数量的游戏会话、针对用户失去或未能完成目标的每个阈值次数、每次胜率低于阈值级别等。然而,可以更加频繁或更不频繁地执行过程300。还应该理解的是,过程300可以实时地或基本上接近实时地执行,使得在用户正在玩视频游戏112时能够修改视频游戏112。因此,过程300可以用于获得动态的游戏体验。替代的,可以在一个或多个游戏会话之后执行过程300,使得修改视频游戏112以用于随后的游戏会话。
过程300在框302处开始,其中情绪捕获和确定系统118接收与玩视频游戏112的用户相关联的一组感知和生物识别数据。可以从一组感知和生物识别传感器116接收该组感知和生物识别数据。可选地或另外地,情绪捕获和确定系统118从感知和生物识别传感器116接收一组感知信号。在这样的一些实施方案中,情绪捕获和确定系统118可以转换感知信号或以其他方式从感知信号中提取数据。例如,情绪捕获和确定系统118可以使用语音转文本系统120将音频信号转换为文本。可以使用语调和感情分析系统122分析结果文本以确定文本的语调或感情。在一些实施方案中,该组感知和生物识别传感器116包括单个传感器,例如音频传感器(例如传声器)或图像传感器。在其他实施方案中,该组感知和生物识别传感器116包括多个传感器,例如音频传感器、视频传感器、生理传感器等。这些生理传感器可包括健身监测器、皮肤电反应传感器和/或其他可穿戴设备。在一些情况下,传感器116中的至少一些可以被包括作为游戏控制器、虚拟现实或增强现实系统的一部分,或者作为可以用于玩视频游戏112的任何其他用户界面设备的一部分。
在框304处,保留分析系统140的情绪分析系统126使用预测模型来至少部分地基于在框302处接收的或以其他方式获得的一组感知和生物识别数据来确定用户的预测情绪状态。该组感知和生物识别数据可以用作预测模型160的输入数据172。在一些实施方案中,框304可以包括确定在框302处接收的感知数据的语调和/或感情(例如,语音)的情绪捕获和确定系统118。此外,框304可以包括聚合和/或以其他方式创建根据在框302处接收的感知数据确定的感情的组合。所确定的感情和/或语调数据可以被提供给情绪分析系统126以便于确定用户的预测情绪状态。例如,可以将感情和/或语调数据作为参数提供给预测函数。
在框306处,至少部分地基于用户的预测情绪状态,保留分析系统140确定用户的预测流失率。在一些实施方案中,保留分析系统140使用预测模型来确定用户的预测流失率。该预测模型可以使用预测情绪状态作为输入数据172,作为输入数据172的一部分被提供到预测模型。在框306处使用的预测模型通常不同于在框304处使用的预测模型。然而,在一些实施方案中在框306处的预测模型与在框304处处使用的预测模型相同。在这样的一些实施方案中,可以至少部分地基于提供给预测模型作为输入数据172的一组感知和生物识别数据来确定预测流失率。此外,在一些实施方案中,预测情绪状态可以用作反馈数据或用作在求解预测模型中使用的权重来确定流失率。
在一些实施方案中,至少部分地基于预测情绪状态与流失率或保留率之间的映射来确定预测流失率。可以基于从监测用户组的情绪状态获得的对历史数据的分析来确定这些映射。用户组可以是随时间监测的测试用户或真实用户。在一些实施方案中,使用一个或多个机器学习模型来分析历史数据,以确定流失率或保留率中的预测情绪状态之间的映射。在一个实施方案中,预测流失率是至少部分地基于预测情绪状态和训练者保留率之间的映射来确定的,保留分析系统140可以访问存储库(诸如用户数据存储库142)以基于在框304处所确定的用户的预测情绪状态来确定用户的预测流失率。在一些实施方案中,预测情绪状态可以用作访问用户数据储存库142的索引来确定相应的预测流失率。例如,一个或多个通常为消极的预测情绪状态,例如恐惧感、厌倦感或厌恶感(例如,由于过多的血液或血腥),可能与高流失率或低保留率相关联。另一方面,一个或多个通常为积极的预测情绪状态,例如兴奋感、快乐感或惊奇感,可能与低流失率或高保留率相关联。在一些实施方案中,不同的视频游戏可以具有与不同的流失率或保留率相关联的不同情绪状态。而且,在一些情况下,对于特定的视频游戏通常为消极的预测情绪状态可能是中性的甚至是积极的。例如,与恐惧相关的情绪状态可以被认为对于具有恐怖主题的视频游戏是积极的。
在一些实施方案中,框306可以是可选的或省略的。例如,预测情绪状态可以作为流失率或者保留率的替代。例如,开发者可以将特定预测情绪状态视为消极的并且可以自动地假设这样的情绪状态将导致过度的流失。在一些这样的情况下,用于确定流失率的单独过程可以从过程300中省略。
在框308处,至少部分地基于用户的预测流失率,游戏配置系统134修改视频游戏112的配置。在一些实施方案中,游戏配置系统134可以访问游戏配置存储库144以基于用户的预测流失率来确定对视频游戏112的状态或视频游戏112的配置将要做出的一个或多个改变。替代地或另外地,游戏配置系统134可以至少部分地基于用户的预测情绪状态来确定对视频游戏112将要做出的改变。
修改视频游戏112的状态或配置可以包括修改视频游戏112的一个或多个状态变量和/或游戏设置。对状态变量和/或游戏设置的改变可以导致对视频游戏112的一个或多个方面并且可以包括视频游戏112的任何方面的改变。例如,视频游戏112的一些非限制性改变可以涉及难度、血液量或血腥量、音乐、声音效果、音乐或声音效果的音量级别、使用的灯光、纹理或着色器、特定游戏事件、用户可用的级别、阶段或级别的顺序或序列、敌人或对手的数量或类型、非可玩角色的数量或类型、丢失或可用的游戏内物品、呈现给用户的游戏选项或扩展、或者与视频游戏112相关的能够在用户玩视频游戏112或与视频游戏112交互时对用户的情绪状态产生影响的任何其他因素。
在一些实施方案中,代替改变状态变量或游戏设置的特定值,或者除了改变状态变量或游戏设置的特定值之外,游戏配置系统134可以修改视频游戏112使用的种子值。种子值可以影响在视频游戏112中出现的一个或多个随机生成的事件或在视频游戏112中出现的角色或事件的一个或多个特征。例如,种子值的改变可影响提供给击败敌人或完成目标的用户的物品类型或数量、视频游戏112中的对手的难度、或呈现给玩视频游戏112的用户的追求。
在一些实施方案中,确定对视频游戏112做出的改变可以至少部分地基于预测模型。例如,游戏配置分析系统128可以向预测模型提供以下作为输入:用户的预测情绪状态、用户的流失率或保留率、和/或视频游戏112的一个或多个特性(例如,视频游戏的主题或视频游戏的预计观众),并且预测模型可以确定对视频游戏112将要做出的建议改变以改善或使用户的预测情绪状态更积极和/或改善用户的流失率或保留率。
在一些实施方案中,预测情绪状态是积极的或与高于积极阈值程度相关联或者其中流失率或保留率满足阈值,游戏配置系统134可以不对视频游戏112进行任何改变。类似地,在一些实施方案中,在预测情绪状态和/或预测的流失率或保留率无法确定或者不能用阈值置信度确定的情况下,配置系统134可以不对视频游戏112进行任何改变。预测情绪状态是否被认为是积极的或消极的可至少部分地基于开发者对情绪状态的分类,将机器学习算法应用于历史数据以确定情绪状态对保留率的影响的结果,视频游戏112的类型,或可能影响情绪状态是积极的还是消极的任何其他因素。
第二示例视频游戏状态修改过程
图4呈现了至少部分地基于期望情绪状态的视频游戏状态修改过程的一个实施方案的流程图。过程400可以由能够至少部分地基于玩视频游戏112的用户的期望情绪状态来修改视频游戏状态或视频游戏112的配置的任何系统来实现。过程400全部或者部分地可以通过例如交互式计算系统130、情绪捕获和确定系统118、游戏配置系统134、模型生成系统146、保留分析系统140、或用户计算系统110等等来实现。尽管任何数量的系统全部或部分可以实现过程400,但为了简化讨论,将关于具体系统描述过程400。此外,应该理解的是,可以随时间更新或重复执行过程400。例如,可以在以下情况下重复过程400:针对视频游戏112的每个游戏会话、针对每一轮视频游戏112、每周、每个月、针对每个阈值数量的游戏会话、针对失去或未能完成目标的用户的每个阈值次数、每次胜率低于阈值级别等。然而,可以更加频繁或更不频繁地执行过程400。还应该理解的是,过程400可以实时地或基本上接近实时地执行,使得在用户正在玩视频游戏112时能够修改视频游戏112。因此,过程400可以用于获得动态的游戏体验。可选地,可以在一个或多个游戏会话之后执行过程400,以便修改视频游戏112以用于后续的游戏会话。
过程400在框402处开始,其中情绪捕获和确定系统118接收与玩视频游戏112的用户相关联的一组感知和生物识别数据。在一些实施方案中,框402可包括先前关于框302描述的一个或多个实施方案。
在框404处,保留分析系统140的情绪分析系统126使用预测模型来至少部分地基于在框402处接收的或以其他方式获得的一组感知和生物识别数据来确定用户的预测情绪状态。在一些实施方案中,框404可以包括先前关于框304描述的一个或多个实施方案。
在框406处,保留分析系统140确定玩视频游戏112的用户的期望情绪状态。该期望情绪状态可以至少部分地基于与用户的预测情绪状态相关联的流失率来确定。此外,该用户的期望情绪状态可以至少部分地基于视频游戏的类型来确定。例如,恐怖游戏被认为是至少在某种程度上是可怕的,因此,期望情绪状态可能包括某种程度的恐惧。在一些情况下,所希望的恐惧程度可以基于目标观众是针对儿童还是成人和/或开发者渴望视频游戏有多么可怕。然而,一个轻松愉快的冒险游戏,尤其是具有较年轻的目标观众的冒险游戏,预计不会是可怕的,因此,期望情绪状态可能不包括任何级别的恐惧。在一些实施方案中,确定期望情绪状态可以包括将视频游戏的特性和/或目标观众的特性提供给参数或生产函数。替代地或另外地,视频游戏112的开发者或发布者可以指定期望情绪状态。
在决策框408处,保留分析系统140确定期望情绪状态是否与预测情绪状态匹配。确定期望情绪状态是否与预测情绪状态匹配可以包括确定预测情绪状态是否在阈值程度内与期望情绪状态匹配。此外,确定预测情绪状态是否与期望情绪状态匹配可以包括将预测情绪状态和期望情绪状态转换为数值并比较所述数值。例如,如果期望情绪状态是幸福,则期望情绪状态和预测情绪状态可以各自被转换为范围内的一个数值,其中范围内的一端与特定的幸福程度相关联,并且范围内的另一端与不同程度的幸福相关联或者与不幸福的程度相关联。保留分析系统140可以比较与情绪状态相关联的值以确定预测的幸福量是否与期望的幸福量相匹配。在一些实施方案中,预测情绪状态可能比单个情绪更复杂。因此,在一些实施方案中,预测情绪状态可以与多个值相关联,其中每个值与用户的预测情绪状态的不同方面相关联。可以将这些值单独地与期望情绪状态的对应值进行比较。替代地或另外地,可以聚合或以其他方式组合这些值以获得可以与期望情绪状态的对应值进行比较的复合值。
如果确定期望情绪状态与预测情绪状态匹配,则过程400可以返回到框402。在用户达到视频游戏中的特定目标时,在关于视频游戏112发生某个事件或多个事件之后,或者可以导致与框402相关联的操作重复的任何其他触发之后,可以随后以设定的间隔连续地重复与框402相关联的操作。
如果确定决策框408处期望情绪状态与预测情绪状态不匹配,则过程400前进到框410。在框410,游戏配置系统134选择与用户的期望情绪状态相关联的视频游戏配置。在一些实施方案中,游戏配置系统134可以通过访问在游戏配置储存库144处存储的或以其他方式识别的一组游戏配置来选择与期望情绪状态相关联的视频游戏配置。例如,假设视频游戏112是具有成人目标观众的恐怖游戏,并且进一步假设用户的预测情绪状态表明用户不害怕。在该示例中,可能期望使视频游戏112更加可怕以提高用户继续玩视频游戏的机会。为了使视频游戏112更加可怕,游戏配置系统134访问游戏配置存储库144以确定与在玩视频游戏112时提供更可怕的体验相关联的设置。设置可包括播放更加可怕的音乐、减少游戏中的照明、让怪物等待直到游戏中扮演角色接近他们之后再跳出来,和/或让怪物在意想不到的地方出现。有利地,通过动态地调整恐惧因子或视频游戏112的可怕程度,可以增加喜欢可怕游戏的用户的保留。类似地,通过动态地减少视频游戏112的可怕程度,可以增加喜欢动作游戏但不喜欢害怕的用户的保留。因此,在一些实施方案中,可以通过至少部分地基于玩视频游戏112的特定用户的情绪状态动态地调整视频游戏112的一个或多个特征来增加视频游戏112的整体保留。在一些实施方案中,框410可以包括关于框308描述的一个或多个实施方案。
在框412处,游戏配置系统134至少部分地基于所选择的视频游戏配置来配置所述视频游戏112。在一些实施方案中,游戏配置系统134动态地或基本上实时地配置所述视频游戏112。换句话说,在一些实施方案中,当用户正在玩视频游戏112时,游戏配置系统134可以修改视频游戏112的一个或多个方面。可选地,或另外,游戏配置系统134可以至少部分地基于专门针对视频游戏112的当前游戏会话的决定来在视频游戏112的后续游戏会话之前修改视频游戏112的一个或多个方面。例如,如果确定在视频游戏112的当前游戏会话期间视频游戏112的特定级别太难或太可怕,游戏配置系统134可以修改视频游戏112,使得下次用户玩视频游戏112时特定级别不太难或者不那么可怕。虽然在一些实施方案中,游戏配置系统134基于对特定用户的预测情绪状态的分析,针对玩视频游戏112的特定用户对视频游戏112进行改变,并且在一些其他实施方案中,游戏配置系统134可以基于特定用户的预测情绪状态对用于其他用户的视频游戏112进行改变。在一些实施方案中,框412可以包括关于框308描述的一个或多个实施方案。
在一些实施方案中,过程300和400的操作可以至少部分地基于从多个用户获得的感知数据。例如,在一些情况下,用户可以与房间中可能正在或可能没有与用户一起玩视频游戏112的其他用户一起玩视频游戏112。在一些这样的情况下,在框302或402处获得的感知和/或生物识别数据可以与多个用户相关联。在一些情况下,情绪捕获和确定系统118可以过滤掉与不玩视频游戏的用户相关联的感知和/或生物识别数据。例如,如果视频游戏112是单个玩家视频游戏,则情绪捕获和确定系统118可以过滤掉非玩家用户的感知和/或生物识别数据。情绪捕获和确定系统118可以至少部分地基于感知数据来识别与非玩家用户相关联的感知和/或生物识别数据。例如,基于由感知和生物识别传感器116捕获的图像,情绪捕获和确定系统118可以确定房间中没有玩视频游戏112的用户并且可以过滤掉从这些用户获得的任何生物识别数据。
在一些实施方案中,用户可以与在房间中的其他用户或者在基于网络的多玩家的情况下与在别处的其他用户一起玩视频游戏112。在一些这样的实施方案中,过程300和/或400可以确定玩视频游戏112的用户的聚合预测情绪状态。确定是否修改视频游戏112可以至少部分地基于用户的聚合预测情绪状态。替代地或另外地,确定是否修改视频游戏112可以基于玩视频游戏112的大多数用户。例如,如果确定玩视频游戏112的六个玩家中的四个是与消极情绪状态相关联,则游戏配置系统134可以修改视频游戏112的状态或配置。如果另一方面,例如,确定六个玩家中的仅一个与消极情绪状态相关联,游戏配置系统134可以确定不对视频游戏112进行任何改变。
示例游戏配置评估过程
图5呈现了游戏状态配置评估过程500的一个实施方案的流程图。过程500可以由能够执行视频游戏状态的测试以确定在玩具有特定视频游戏状态的视频游戏112的用户中生成的情绪状态的任何系统来实现。有利地,过程500的实施方案可以用于测试视频游戏112的不同配置,以确定最有可能满足或满足最大数量的玩家的配置。过程500全部或部分可以通过例如交互式计算系统130、情绪捕获和确定系统118、游戏配置系统134、游戏测试引擎136、模型生成系统146、保留分析系统140或用户计算系统110等来实现。尽管任何数量的系统全部或部分可以实现过程500,但为了简化讨论,将关于具体系统描述所述过程500。
过程500在框502处开始,其中游戏测试引擎136配置具有多个配置的视频游戏112。在一些实施方案中,游戏测试引擎136配置视频游戏112的多个实例,其中视频游戏112的至少一些实例与视频游戏112的至少一些其他实例的不同配置或状态相关联。在一些实施方案中,视频游戏112的不同配置中的每个可以基于单个变量或配置属性而不同,该单个变量或配置属性使得能够对视频游戏112的配置之间的差异进行细粒度分析。在其他实施方案中,可以对视频游戏112的每个配置进行大量改变,以执行对引起视频游戏112的配置内的差异的情绪状态改变的更粗粒度分析。视频游戏112的配置差异可能与游戏玩法、气氛、困难或可能影响玩视频游戏112的用户的情绪状态的任何其他因素有关。
在框504处,游戏测试引擎136可以向一组用户呈现或使得呈现视频游戏112的每个配置。在一些实施方案中,视频游戏的每个配置通过多个不同的游戏会话呈现给同一组用户。例如,如果存在视频游戏112的两种配置,则在第一游戏会话期间,可以向用户呈现视频游戏的第一配置,并且在第二游戏会话期间,可以向用户呈现视频游戏的第二配置。替代地或另外地,视频游戏112的每个配置可以通过一个或多个游戏会话呈现给不同组的用户。例如,可以指定或以其他方式选择第一组用户来玩视频游戏112的第一版本,并且可以指定或以其他方式选择第二组用户来玩视频游戏112的第二版本。
在框506处,情绪捕获和确定系统118为视频游戏112的每个配置获取该组用户的感知和/或生物识别数据。在一些实施方案中,框506可以包括关于框302和/或402先前描述的一个或多个实施方案。
使用预测模型,情绪分析系统126在框508处基于对于视频游戏的每个配置的感知和/或生物识别数据来确定该组用户的预测情绪状态。在一些实施方案中,框508可以包括关于框304和/或404先前描述的一个或多个实施方案。
在框510处,游戏测试引擎136将用于视频游戏112的每个配置的预测情绪状态与游戏配置存储库144中的视频游戏配置的身份相关联。在一些实施方案中,游戏测试引擎136存储所有测试的视频游戏配置以及其在该组测试用户中引起的情绪状态类型的指示和/或其在该组测试用户中引起的情绪状态的程度。在其他实施方案中,游戏测试引擎136可以仅存储在该组测试用户中引起积极情绪状态的视频游戏配置。在其他实施方案中,游戏测试引擎136可以存储引起最积极的情绪状态或引起满足或超过阈值的积极情绪状态的视频游戏配置。
有利地,在一些实施方案中,通过将不同的视频游戏配置与游戏配置储存库144中的不同的情绪状态相关联,可以在将来的游戏会话期间或为其他用户动态地修改视频游戏112。而且,在一些实施方案中,可以减少实时需要的处理量或者减少在用户正在玩特定视频游戏会话时需要的处理量,因为可以预先确定对不同视频游戏状态配置的确定。
此外,本文公开的一些实施方案可以提供唯一的动态可配置用户界面。例如,可以基于玩视频游戏112的特定用户的特定预测情绪状态在不同游戏情节会话期间动态地修改视频游戏112的用户界面。该用户界面可以包括用户在玩视频游戏时与之交互的可玩用户界面。
在一些实施方案中,过程500可以用于识别不期望的视频游戏112的配置。例如,如果确定视频游戏的特定配置导致对于超过阈值数量的用户的消极情绪状态,则开发者可以确定不使用视频游戏112的该特定配置。因此,本文公开的一些实施方案可以用于便于测试一组用户(例如测试用户或公测用户)中的视频游戏112。此外,在一些实施方案中,与消极情绪状态相关联的视频游戏的特定配置可以从游戏配置储存库144中省略。或者,在一些实施方案中,与消极情绪状态相关联的视频游戏112的特定配置可以用指示符存储在游戏配置储存库144中,该指示符使得游戏配置系统134在确定如何修改视频游戏112的配置时不使用视频游戏的所述特定配置。
在一些实施方案中,过程300、400或500中的一个或多个可用于确定对视频游戏112的修改是否导致用户的情绪状态或预测情绪状态在特定方向上移动。基于情绪状态或预测情绪状态的改变的特定方向,游戏配置系统134可以确定是否对视频游戏112进行额外的改变。可以选择对视频游戏112的这些额外改变,以进一步在相同方向改变情绪,或者试图颠倒所述情绪状态或预测情绪状态的改变的所述特定方向。例如,如果确定对视频游戏112的配置的改变使得用户感知到更积极的情绪,则可以不对视频游戏112进行进一步的改变,可以对视频游戏112的额外部分进行类似的改变,或者,可以增加对视频游戏112所做的改变的程度。相反,如果确定对视频游戏112的配置的改变使得用户提出更消极情绪,则可以颠倒视频游戏112的改变或者可以对视频游戏112的额外部分进行不同的改变。
计算系统概述
图6示出了用户计算系统110的一个实施方案,其也可以被称为游戏系统。如图所示,用户计算系统110可以是可以包括多个元件的单个计算设备。然而,在一些情况下,用户计算系统110可以包括多个设备。例如,用户计算系统110可以包括:包括中央处理单元和图形处理单元的一个设备,包括显示器的另一个设备,以及包括输入装置例如键盘或鼠标的另一个设备。
用户计算系统110可以是可以执行游戏系统的计算系统的一个实施方案。在图6的非限制性示例中,用户计算系统110是能够经由触摸屏显示器602从用户接收输入的能够触摸的计算设备。然而,用户计算系统110不限制于此,并且可以包括不能够触摸的实施方案,其不包括触摸屏显示器602。
用户计算系统110包括触摸屏显示器602和触摸屏界面604,并且被配置为执行游戏应用程序610。该游戏应用程序可以是视频游戏112或与视频游戏112结合执行或支持视频游戏112执行的应用程序,例如视频游戏执行环境。虽然被描述为游戏应用程序610,但是在一些实施方案中,应用程序610可以是可以至少部分地基于用户的偏好或能力(例如教育软件)而具有可变执行状态的另一类型的应用程序。虽然用户计算系统110包括触摸屏显示器602,但是应当认识到的是,除了触摸屏显示器602之外或代替触摸屏显示器602,可以使用各种输入设备。
用户计算系统110可以包括一个或多个处理器,诸如中央处理单元(CPUs)、图形处理单元(GPUs)和加速处理单元(APUs)。此外,用户计算系统110可以包括一个或多个数据存储元件。在一些实施方案中,用户计算系统110可以是为执行游戏应用程序610的目的而创建的专用计算设备。例如,用户计算系统110可以是视频游戏控制台。由用户计算系统110执行的游戏应用程序610可以使用特定应用程序编程接口(API)来创建,或者被编译成可以专门用于用户计算系统110的特定指令集。在一些实施方案中,用户计算系统110可以是能够执行游戏应用程序610和非游戏应用程序的通用计算设备。例如,用户计算系统110可以是具有集成触摸屏显示器的笔记本电脑或具有外部触摸屏显示器的台式计算机。参考图7更详细地描述用户计算系统110的一个示例实施方案的组件。
触摸屏显示器602可以是电容式触摸屏、电阻式触摸屏、表面声波触摸屏或被配置为从用户接收触觉输入(也称为触摸输入)的其他类型的触摸屏技术。例如,可以经由触摸屏幕的手指、触摸屏幕的多个手指、触控笔或可以用于在触摸屏显示器602上注册触摸输入的其他刺激来接收触摸输入。触摸屏界面604可以被配置为将触摸输入转换成数据并输出数据,使得它可以由用户计算系统110的组件(例如操作系统和游戏应用程序610)解释。触摸屏界面604可以将触觉触摸输入的特性转换成触摸输入数据。触摸输入的一些示例特性可以包括形状、大小、压力、位置、方向、动量、持续时间和/或其他特性。触摸屏界面604可以被配置为确定触摸输入的类型,例如敲击(例如,在单个位置处的触摸和释放)或滑动(例如,用单个触控输入移动通过触摸屏上的多个位置)。触摸屏界面604可以被配置为检测和输出与同时或基本上并行发生的多个触摸输入相关联的触摸输入数据。在一些情况下,同时的触摸输入可以包括用户在触摸屏显示器602上保持第一触摸同时随后在触摸屏显示器602上执行第二触摸的情况。触摸屏界面604可以被配置为检测触摸输入的移动。可以将触摸输入数据发送到用户计算系统110的组件以进行处理。例如,可以将触摸输入数据直接发送到游戏应用程序610以进行处理。
在一些实施方案中,触摸输入数据可以在被输出到游戏应用程序610之前由触摸屏界面604、操作系统或其他组件进行处理和/或过滤。作为一个示例,原始触摸输入数据可以从触摸输入捕获。可以过滤原始数据以去除背景噪声,可以测量与输入相关联的压力值,并且可以计算与触摸输入相关联的位置坐标。提供给游戏应用程序610的触摸输入数据的类型可以取决于触摸屏界面604的具体实现方式和与触摸屏界面604相关联的特定API。在一些实施方案中,触摸输入数据可以包括触摸输入的位置坐标。触摸信号数据可以以定义的频率输出。处理触摸输入可以每秒计算多次,并且触摸输入数据可以输出到游戏应用程序以进行进一步处理。
游戏应用程序610可以被配置为在用户计算系统110上执行。游戏应用程序610还可以被称为视频游戏、游戏、游戏代码和/或游戏程序。游戏应用程序应该被理解为包括用户计算系统110可以用来为用户提供游戏来玩的软件代码。游戏应用程序610可以包括向用户计算系统110告知处理器指令来执行的软件代码,但是也可以包括在玩游戏中使用的数据,例如与常数、图像和其他数据结构有关的数据。例如,在所示的实施方案中,游戏应用程序包括游戏引擎612、游戏数据614和游戏状态信息616。
触摸屏界面604或用户计算系统110的另一组件(诸如操作系统)可向游戏应用程序610提供用户输入(诸如触摸输入)。在一些实施方案中,用户计算系统110可包括替代的或另外的用户输入设备,例如鼠标、键盘、相机、游戏控制器等。用户可以经由触摸屏界面604和/或一个或多个替代或另外的用户输入设备与游戏应用程序610交互。游戏引擎612可以被配置为执行用户计算系统110内的游戏应用程序610的操作的各方面。游戏应用程序内的游戏玩法的各方面的执行可以至少部分地基于所接收的用户输入、游戏数据614和游戏状态信息616。游戏数据614可包括游戏规则、预先记录的运动捕获姿势/路径、环境设置、约束、动画参考曲线、骨架模型和/或其他游戏应用信息。此外,游戏数据614可以包括用于设置或调整游戏应用610的难度的信息。
游戏引擎612可以根据游戏规则在游戏内执行游戏玩法。游戏规则的一些示例可以包括评分的规则、可能的输入、动作/事件、响应于输入的移动等。其他组件可以控制接受哪些输入以及游戏如何进展,以及游戏玩法的其他方面。在执行游戏应用程序610期间,游戏应用程序610可以存储游戏状态信息616,其可以包括角色状态、环境状态、场景目标存储和/或与游戏应用程序610的执行状态相关联的其他信息。例如,游戏状态信息616可以识别特定时间点的游戏应用程序的状态,例如角色位置、角色动作、游戏等级属性以及导致游戏应用程序的状态的其他信息。
游戏引擎612可以接收用户输入并确定游戏内事件,例如动作、碰撞、跑步、投掷、攻击和适合于游戏应用程序610的其他事件。在操作期间,游戏引擎612可以读入游戏数据614和游戏状态信息616以便确定适当的游戏内事件。在一个示例中,在游戏引擎612确定角色事件之后,可以将角色事件传送给运动引擎,该运动引擎可以确定角色响应于事件应该做出的适当运动并将这些运动传递给动画引擎。该动画引擎可以确定角色的新姿势,并提供新姿势给蒙皮和渲染引擎。反过来,蒙皮和渲染引擎可以向目标组合器提供角色图像,以便将有生命的、无生命的和背景目标组合成完整的场景。可以将完整的场景传送给渲染器,渲染器可以生成用于向用户显示的新帧。可以重复该过程以在执行游戏应用期间渲染每个帧。尽管已经在角色的背景中描述了该过程,但是该过程可以应用于用于处理事件和渲染向用户显示的输出的任何过程。
计算系统的硬件配置示例
图7示出了用于图6的用户计算系统110的硬件配置的一个实施方案。用户计算系统110的其他变体可以代替本文明确呈现的示例,诸如向用户计算系统110移除或添加组件。用户计算系统110可以包括专用游戏设备、智能电话、平板电脑、个人计算机、台式电脑、笔记本电脑、智能电视、汽车控制台显示器等。此外,如关于图6所描述的(尽管在图7中未明确示出),用户计算系统110可以可选地包括触摸屏显示器602和触摸屏界面604。
如图所示,用户计算系统110包括处理单元20,该处理单元20与用户计算系统110的其他组件以及用户计算系统110外部的组件交互。可以包括能够与游戏介质12通信的游戏介质读取器22。游戏介质读取器22可以是能够读取光盘的光盘读取器,例如CD-ROM或DVDs,或者可以从游戏介质12接收和读取数据的任何其他类型的读取器。在一些实施方案中,游戏介质读取器22可以是可选的或者省略。例如,可以经由网络I/O 38通过网络访问游戏内容或应用程序,使得游戏介质读取器22和/或游戏介质12成为可选的。
用户计算系统110可以包括单独的图形处理器24。在一些情况下,图形处理器24可以内置在处理单元20中,例如用APU。在这样的一些情况下,图形处理器24可以与处理单元20共享随机存取存储器(RAM)。替代地,或另外地,用户计算系统110可以包括与处理单元20分立的独立图形处理器24。在一些这样的情况下,图形处理器24可以具有与处理单元20分立的RAM。此外,在一些情况下,图形处理器24可以与一个或多个额外的图形处理器一起工作和/或与嵌入式或非独立的图形处理单元一起工作,所述图形处理单元可以嵌入主板中并且有时称为板载图形芯片或设备。
用户计算系统110还包括用于能够实现输入/输出的各种组件,例如I/O 32、用户I/O 34、显示器I/O 36和网络I/O 38。如前所述,在一些情况下,输入/输出组件可以包括能够触摸的设备。I/O 32与存储元件40交互,并且通过设备42与可移动存储介质44交互,以便为计算设备600提供存储。处理单元20可以通过I/O 32进行通信以存储数据,例如游戏状态数据和任何共享数据文件。除了存储器40和可移动存储介质44之外,还示出了包括ROM(只读存储器)46和RAM 48的计算设备600。RAM 48可以用于频繁访问的数据,例如当正在玩游戏时。
用户I/O 34用于在处理单元20和用户设备(例如游戏控制器)之间发送和接收命令。在一些实施方案中,用户I/O 34可以包括触摸屏输入。如前所述,触摸屏可以是电容式触摸屏、电阻式触摸屏或被配置为通过来自用户的触觉输入来接收用户输入的其他类型的触摸屏技术。显示器I/O 36提供输入/输出功能,用于显示正在玩的游戏的图像。网络I/O38用于网络的输入/输出功能。网络I/O 38可以在游戏的执行期间使用,例如当在线玩游戏或在线访问游戏时。
显示器输出信号可以由显示器I/O 36产生,并且可以包括用于在显示设备上显示由计算设备600产生的视觉内容的信号,例如图形、用户界面、视频和/或其他可视内容。用户计算系统110可以包括一个或多个集成显示器,其被配置为接收由显示器I/O 36产生的显示输出信号,该显示输出信号可以被输出以显示给用户。根据一些实施方案,由显示器I/O 36产生的显示输出信号也可以输出到计算设备600外部的一个或多个显示设备。
用户计算系统110还可以包括可以与游戏一起使用的其他特征,诸如时钟50、闪存52和其他组件。音频/视频播放器56也可用于播放视频序列,例如电影。应当理解的是,可以在用户计算系统110中提供其他组件,并且本领域技术人员将理解用户计算系统110的其他变型。
程序代码可以存储在ROM 46、RAM 48或存储器40中(其可以包括硬盘、其他磁存储器、光存储器、固态驱动器和/或其他非易失性存储器,或者这些的组合或变体)。至少部分程序代码可以存储在可编程的ROM(ROM、PROM、EPROM、EEPROM等)、存储器40和/或可移动介质例如游戏介质12(可以是CD-ROM、盒式磁带、存储器芯片等,或根据需要通过网络或其他电子渠道获得)中。通常,可以在有形的非暂时性信号承载介质中找到程序代码。
随机存取存储器(RAM)48(以及可能的其他存储器)可用于根据需要存储变量和其他游戏和处理器数据。RAM被使用并保存在玩游戏期间生成的数据,并且RAM的一部分也可以保留用于存储帧缓冲器、游戏状态和/或用于解释用户输入和生成游戏显示所需或可用的其他数据。通常,RAM 48是易失性存储器,并且当用户计算系统110关闭或断电时,存储在RAM 48内的数据可能丢失。
当用户计算系统110读取游戏介质12并提供游戏时,可以从游戏介质12读取信息并将其存储在存储器设备(诸如RAM 48)中。另外,来自存储器40、ROM 46、经由网络(未示出)访问的服务器或可移动存储介质46的数据可以被读取并且加载到RAM 48中。虽然数据被描述为在RAM 48中找到,但是应该理解的是,数据不必存储在RAM 48中并且可以存储在处理单元20可访问的其他存储器中或分布在若干介质(诸如游戏介质12和存储器40)之间。
附加实施方案
要理解的是,根据本文描述的任何具体实施方案不一定可以实现所有的目标或优点。因此,例如本领域技术人员将认识到,某些实施方案可以被配置为以实现或优化如本文所教示的一个优点或一组优点而不一定实现如本文可能教示或暗示的其他目标或优点的方式运作。
本文描述的所有过程均可以体现在软件代码模块中并且经由软件代码模块完全自动化,所述软件代码模块由包括一个或多个计算机或处理器的计算系统执行。代码模块可以被存储在任何类型的非暂时性计算机可读介质或其他计算机存储设备中。一些或所有上述方法可以以专用的计算机硬件来实施。
根据本公开内容将明了除本文描述的那些之外的许多其他变型。例如,根据实施方案,本文描述的算法中任一个的某些动作、事件或功能可以以不同的顺序执行,或者可以被添加、合并或完全被省略(例如,对于算法的实行而言,并非所有描述的动作或者事件都是必需的)。此外,在某些实施方案中,动作或事件可以被并行执行——例如,通过多线程处理、中断处理或者多个处理器或处理器内核被并行执行或在其他并行架构上被同时执行,而不是被顺序地执行。此外,不同的任务或过程可以由可以一起运行的不同机器和/或计算系统来执行。
结合本文公开的实施方案描述的各种说明性逻辑框和模块可以由机器实施或执行,所述机器诸如处理单元或处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件、分立门或晶体管逻辑电路、分立硬件部件或被设计成执行本文描述的功能的其任何组合。处理器可以是微处理器,但在替代方案中,处理器可以是控制器、微控制器或者状态机,其组合等。处理器可以包括被配置为处理计算机可执行指令的电路。在另一实施方案中,处理器包括执行逻辑操作而不处理计算机可执行指令的FPGA或其他可编程器件。处理器还可以被实现为计算设备的组合,例如DSP和微处理器的组合、多个微处理器、一个或多个微处理器连同DSP内核或者任何其他这样的配置。虽然本文中主要关于数字技术描述了处理器,但处理器还可以包括主要是模拟性的部件。计算环境可以包括任何类型的计算机系统,包括但不限于:基于微处理器的计算机系统、大型计算机(mainframe computer,主机计算机)、数字信号处理器、便携式计算设备、设备控制器或者器具内的计算引擎,仅举几例。
除非另外特别说明,否则条件性用语,诸如“能(can)”、“可(could)”、“可能(might)”或“可以(may)”等,应在上下文中如通常所使用的被理解为表达:某些实施方案包括某些特征、元件和/或步骤,而其他实施方案不包括所述的某些特征、元件和/或步骤。因此,这样的条件性用语通常并不意在暗示:特征、元件和/或步骤以任何方式是一个或多个实施方案所需要的,或者一个或多个实施方案必需包括用于判定——在具有或不具有用户输入或提示的情况下——这些特征、元件和/或步骤是否被包括在任何特定的实施方案中或是否要在任何特定的实施方案中执行的逻辑。
除非另外特别说明,否则析取性(disjunctive)用语,诸如短语“X、Y或Z中的至少一个”,应在上下文中如通常所使用的被理解为表示:项、术语等可以是X、Y或Z,或它们的任何组合(例如,X、Y和/或Z)。因此,这样的析取性用语通常并不意在并且不应当暗示,某些实施方案需要至少一个X、至少一个Y或至少一个Z均存在。
在本文中描述的和/或在附图中描绘的流程图中的任何过程描述、要素或框均应当被理解为潜在地表示包括用于实现过程中的特定逻辑功能或要素的一个或多个可执行指令的代码模块、代码段或代码部分。在本文描述的实施方案的范围内包括替代的实施方式,在所述替代的实施方式中,要素或功能可以被删除、不按照所示出的或讨论的次序执行,包括基本上并行执行或以颠倒的顺序执行,这取决于所涉及的功能,如本领域技术人员会理解的。
除非另外明确说明,否则冠词,诸如“一个(a)”或“一(an)”,通常应被解释为包括一个或多个所描述的项。相应地,诸如“被配置成……的设备”之类的措辞意在包括一个或多个所叙述的设备。这样的一个或多个所叙述的设备还可以被共同配置成执行所陈述的叙述项(recitation)。例如,“被配置为执行叙述项A、B和C的处理器”可以包括连同被配置为执行叙述项B和C的第二处理器一起工作的、被配置为执行叙述项A的第一处理器。
应当强调的是,可以对上述实施方案做出许多变型和修改,这些变型和修改的要素应被理解为在其他可接受的示例之中。所有这样的修改和变型都意在被包括在本文中在本公开内容的范围内。

Claims (20)

1.一种计算机实施的方法,包括:
由配置有具体计算机可执行指令的交互式计算系统实现的:
从玩视频游戏的用户接收一组感知数据;
使用第一预测模型,以至少部分地基于所述一组感知数据确定所述用户的预测情绪状态;
至少部分地基于所述用户的所述预测情绪状态,确定对视频游戏状态的第一修改;和
至少部分地基于所确定的对所述视频游戏状态的所述第一修改来修改所述视频游戏状态。
2.如权利要求1所述的计算机实施的方法,其中,所述一组感知数据包括一种或多种类型的感知数据。
3.如权利要求1所述的计算机实施的方法,其中,所述一组感知数据包括生物识别数据。
4.如权利要求1所述的计算机实施的方法,其中,所述一组感知数据包括以下中的至少之一:音频数据;视觉数据;心率数据;呼吸频率数据;或皮肤电反应数据。
5.如权利要求1所述的计算机实施的方法,还包括:
接收对应于一个或多个传感器的一组信号;和
转换所述一组信号以获得所述一组感知数据。
6.如权利要求1所述的计算机实施的方法,还包括通过至少将所述用户的预测情绪状态应用于第二预测模型来确定所述用户的预测流失率,其中确定对所述视频游戏状态的所述第一修改包括至少部分地基于所述预测流失率来确定对所述视频游戏状态的所述第一修改。
7.如权利要求1所述的计算机实施的方法,其中,确定所述预测情绪状态包括:
将所述一组感知数据提供给参数函数,所述参数函数至少部分地基于机器学习算法生成;和
至少部分地基于所述参数函数的输出来确定所述预测情绪状态。
8.如权利要求7所述的计算机实施的方法,还包括至少通过以下方式生成所述参数函数:
访问第二组感知数据,所述第二组感知数据与玩视频游戏的多个用户相关联并且对应于一个或多个情绪状态;和
使用所述机器学习算法以至少部分地基于所述第二组感知数据和对应的一个或多个情绪状态来确定所述参数函数。
9.如权利要求1所述的计算机实施的方法,其中,所述感知数据包括包含语音的音频数据,并且所述方法还包括:
将所述语音转换为文本;
确定所述语音的语调;和
执行对所述语音的语义分析,其中,确定所述用户的预测情绪状态包括将所述语音的语调和所述语音的语义分析的结果提供给所述第一预测模型。
10.如权利要求1所述的计算机实施的方法,其中,所述感知数据包括多种类型的感知数据,并且其中所述第一预测模型将至少一种类型的感知数据和至少一种其他类型的感知数据不同地加权。
11.如权利要求1所述的计算机实施的方法,其中,确定对所述视频游戏状态的所述第一修改包括:
确定多个潜在视频游戏状态修改,每个潜在视频游戏状态修改与将所述用户的情绪状态从第一情绪状态改变为第二情绪状态相关联;
确定所述用户的期望情绪状态;和
从所述多个潜在视频游戏状态修改中,选择与将所述用户的情绪状态从所述预测情绪状态改变为所述期望情绪状态相关联的对所述视频游戏状态的第一修改。
12.如权利要求1所述的计算机实施的方法,其中,在修改所述视频游戏状态之后,该方法还包括:
从玩视频游戏的用户接收第二组感知数据;
使用所述第一预测模型,至少部分地基于所述第二组感知数据确定所述用户的第二预测情绪状态;
至少部分地基于所述用户的第二预测情绪状态,确定对视频游戏状态的第二修改;和
至少部分地基于所确定的对所述视频游戏状态的所述第二修改来修改所述视频游戏状态。
13.如权利要求12所述的计算机实施的方法,其中,当确定所述用户的第二预测情绪状态比所述用户的预测情绪状态更远离期望情绪状态时,对所述视频游戏状态的所述第二修改将所述视频游戏状态恢复到所述视频游戏的先前状态。
14.如权利要求12所述的计算机实施的方法,其中,相对于所述视频游戏状态的所述第一修改而言,对所述视频游戏状态的所述第二修改与对所述视频游戏状态的相反修改相关联。
15.一种系统,包括:
电子数据存储器,被配置为存储关于视频游戏的感知数据;和
与所述电子数据存储器通信的硬件处理器,所述硬件处理器被配置为执行具体的计算机可执行指令以至少:
从玩视频游戏的用户接收一组感知数据;
使用第一预测模型,以至少部分地基于所述一组感知数据来确定所述用户的预测情绪状态;
至少部分地基于所述用户的预测情绪状态,确定对视频游戏状态的第一修改;和
至少部分地基于所确定的对所述视频游戏状态的所述第一修改来修改所述视频游戏状态。
16.如权利要求15所述的系统,其中,所述硬件处理器还被配置为通过确定用于一部分视频游戏的修改的种子值,来确定对所述视频游戏状态的所述第一修改,所述修改的种子值与先前确定的待要应用于所述一部分视频游戏的现有的种子值不同,并且其中所述硬件处理器被进一步配置为通过用所述修改的种子值替换所述现有的种子值来修改所述视频游戏状态。
17.如权利要求15所述的系统,其中,所述硬件处理器还被配置为通过至少将所述用户的预测情绪状态应用于第二预测模型来确定所述用户的预测流失率,其中确定对所述视频游戏状态的所述第一修改包括至少部分地基于所述预测流失率来确定对所述视频游戏状态的所述第一修改。
18.如权利要求15所述的系统,其中,确定所述预测情绪状态包括:
将所述一组感知数据提供给参数函数,所述参数函数至少部分地基于机器学习算法生成;和
至少部分地基于所述参数函数的输出来确定所述预测情绪状态。
19.如权利要求15所述的系统,其中,所述硬件处理器还被配置为至少通过以下方式生成所述参数函数:
访问第二组感知数据,所述第二组感知数据与玩视频游戏的多个用户相关联并且对应于一个或多个情绪状态;和
使用机器学习算法以至少部分地基于所述第二组感知数据和对应的一个或多个情绪状态来确定所述参数函数。
20.如权利要求15所述的系统,其中,所述硬件处理器还被配置为至少通过以下方式确定对所述视频游戏状态的所述第一修改:
确定多个潜在视频游戏状态修改,每个潜在视频游戏状态修改与将用户的情绪状态从第一情绪状态改变为第二情绪状态相关联;
确定所述用户的期望情绪状态;和
从所述多个潜在视频游戏状态修改中,选择与将所述用户的情绪状态从所述预测情绪状态改变为所述期望情绪状态相关联的对所述视频游戏状态的第一修改。
CN201910268092.4A 2018-12-27 2019-04-03 基于感知的动态游戏状态配置 Active CN111375196B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/234,149 2018-12-27
US16/234,149 US10835823B2 (en) 2018-12-27 2018-12-27 Sensory-based dynamic game-state configuration

Publications (2)

Publication Number Publication Date
CN111375196A true CN111375196A (zh) 2020-07-07
CN111375196B CN111375196B (zh) 2023-08-04

Family

ID=71121629

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910268092.4A Active CN111375196B (zh) 2018-12-27 2019-04-03 基于感知的动态游戏状态配置

Country Status (3)

Country Link
US (1) US10835823B2 (zh)
KR (1) KR102239062B1 (zh)
CN (1) CN111375196B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112221162A (zh) * 2020-10-15 2021-01-15 蒋海斌 基于人工智能识别的网络游戏交互方法及智能游戏平台
CN113350798A (zh) * 2021-05-31 2021-09-07 多益网络有限公司 一种游戏模式设置方法、装置、设备和存储介质
CN113689256A (zh) * 2021-08-06 2021-11-23 江苏农牧人电子商务股份有限公司 一种虚拟物品推送方法和系统
WO2022141894A1 (zh) * 2020-12-31 2022-07-07 苏州源想理念文化发展有限公司 融合表情和肢体运动的三维特征情绪分析方法
CN116943226A (zh) * 2023-09-20 2023-10-27 小舟科技有限公司 基于情绪识别的游戏难度调节方法、系统、设备及介质

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8454437B2 (en) * 2009-07-17 2013-06-04 Brian M. Dugan Systems and methods for portable exergaming
US10694857B2 (en) * 2017-04-10 2020-06-30 Nike, Inc. Sport chair with game integration
WO2020069517A2 (en) * 2018-09-30 2020-04-02 Strong Force Intellectual Capital, Llc Intelligent transportation systems
CN116614661A (zh) * 2018-10-01 2023-08-18 杜比实验室特许公司 经由生理监测的创作意图可扩展性
US11331581B2 (en) 2019-03-19 2022-05-17 modl.ai ApS Experience based game development and methods for use therewith
US11325048B2 (en) * 2019-03-19 2022-05-10 modl.ai ApS User experience modeling for gaming applications
US11385884B2 (en) * 2019-04-29 2022-07-12 Harman International Industries, Incorporated Assessing cognitive reaction to over-the-air updates
EP3965611A1 (en) * 2019-05-06 2022-03-16 CareOS Smart mirror system and methods of use thereof
EP3955807B1 (en) * 2019-06-12 2023-07-26 Hewlett-Packard Development Company, L.P. Extended reality adjustments based on physiological measurements
US20200394933A1 (en) * 2019-06-13 2020-12-17 International Business Machines Corporation Massive open online course assessment management
US11526375B2 (en) * 2019-06-17 2022-12-13 Bank Of America Corporation Systems and methods for pre-executing idiosyncratic computation through the application of algorithmic prediction of user behavior patterns
US11727291B2 (en) * 2019-07-23 2023-08-15 Microsoft Technology Licensing, Llc Predicting disengagement and selectively delivering engagement content
KR102297795B1 (ko) * 2019-09-25 2021-09-03 주식회사 센티언스 게임 사용자의 심리를 분류하기 위한 데이터 전처리 장치 및 데이터 전처리 장치의 동작 방법
US11170800B2 (en) * 2020-02-27 2021-11-09 Microsoft Technology Licensing, Llc Adjusting user experience for multiuser sessions based on vocal-characteristic models
WO2021185600A1 (en) * 2020-03-20 2021-09-23 Sony Group Corporation System, game console and method for adjusting a virtual environment
KR102313037B1 (ko) * 2020-03-23 2021-10-14 윤종식 동영상을 추천하기 위한 방법 및 시스템
US11902091B2 (en) * 2020-04-29 2024-02-13 Motorola Mobility Llc Adapting a device to a user based on user emotional state
US20210346806A1 (en) * 2020-05-11 2021-11-11 Nvidia Corporation Reaction prediction using one or more neural networks
FR3112747A1 (fr) * 2020-07-21 2022-01-28 Valeo Systemes Thermiques Système interactif et procédé d’interaction associé
US20220067384A1 (en) * 2020-09-03 2022-03-03 Sony Interactive Entertainment Inc. Multimodal game video summarization
US11465052B2 (en) 2020-09-21 2022-10-11 Zynga Inc. Game definition file
US11420115B2 (en) 2020-09-21 2022-08-23 Zynga Inc. Automated dynamic custom game content generation
US11565182B2 (en) 2020-09-21 2023-01-31 Zynga Inc. Parametric player modeling for computer-implemented games
US11318386B2 (en) 2020-09-21 2022-05-03 Zynga Inc. Operator interface for automated game content generation
US11806624B2 (en) 2020-09-21 2023-11-07 Zynga Inc. On device game engine architecture
US11738272B2 (en) 2020-09-21 2023-08-29 Zynga Inc. Automated generation of custom content for computer-implemented games
US11291915B1 (en) * 2020-09-21 2022-04-05 Zynga Inc. Automated prediction of user response states based on traversal behavior
US12083436B2 (en) 2020-09-21 2024-09-10 Zynga Inc. Automated assessment of custom game levels
US11596869B2 (en) * 2021-01-12 2023-03-07 Dell Products L.P. System and method of adjusting attributes of an application based at least on a stress index associated with a user
US11957986B2 (en) 2021-05-06 2024-04-16 Unitedhealth Group Incorporated Methods and apparatuses for dynamic determination of computer program difficulty
FR3123487B1 (fr) 2021-05-27 2024-01-19 Ovomind K K Procédé pour la prédiction automatique de l’effet émotionnel produit par une séquence de jeu vidéo
US11551031B2 (en) 2021-06-11 2023-01-10 Hume AI Inc. Empathic artificial intelligence systems
GB2608991A (en) * 2021-07-09 2023-01-25 Sony Interactive Entertainment Inc Content generation system and method
US11883744B2 (en) * 2021-10-26 2024-01-30 Sony Interactive Entertainment LLC Memory-based motivational mode
US20230205313A1 (en) * 2021-12-27 2023-06-29 Koninklijke Kpn N.V. Affect-based rendering of content data
GB2614880A (en) * 2022-01-19 2023-07-26 Sony Interactive Entertainment Inc Data processing
GB2617385A (en) * 2022-04-07 2023-10-11 Sony Interactive Entertainment Inc Game launching system and method
US20240033640A1 (en) * 2022-07-27 2024-02-01 Sony Interactive Entertainment Inc. User sentiment detection to identify user impairment during game play providing for automatic generation or modification of in-game effects
GB2623294A (en) * 2022-10-04 2024-04-17 Sony Interactive Entertainment Inc Harassment detection apparatus and method
GB2623349A (en) * 2022-10-13 2024-04-17 Sony Interactive Entertainment Inc Affective gaming system and method
GB2623345A (en) * 2022-10-13 2024-04-17 Sony Interactive Entertainment Inc Affective gaming system and method
GB2627469A (en) * 2023-02-22 2024-08-28 Sony Interactive Entertainment Europe Ltd Dynamic content

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090292583A1 (en) * 2008-05-07 2009-11-26 Nice Systems Ltd. Method and apparatus for predicting customer churn
CN102076387A (zh) * 2008-04-29 2011-05-25 百利游戏有限公司 用于诸如电子游戏机(egm)的游戏装置的生物反馈
US20110218045A1 (en) * 2010-03-08 2011-09-08 University Of Southern California Predicting game player monetization based on player logs
CN102216876A (zh) * 2008-11-19 2011-10-12 英默森公司 用于生成基于心情的触觉反馈的方法和装置
US20140108842A1 (en) * 2012-10-14 2014-04-17 Ari M. Frank Utilizing eye tracking to reduce power consumption involved in measuring affective response
KR101733458B1 (ko) * 2016-11-01 2017-05-10 주식회사 코어사이트 게임 로그 분석 방법
CN106730812A (zh) * 2016-11-30 2017-05-31 吉林大学 一种基于多生理参数情绪量估的游戏调控系统及调控方法
US20180366143A1 (en) * 2017-06-19 2018-12-20 International Business Machines Corporation Sentiment analysis of mental health disorder symptoms

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100269147A1 (en) 2009-04-15 2010-10-21 Echostar Technologies Llc Video stream index generation at a video content transmitter
US8751527B1 (en) 2010-10-11 2014-06-10 Paul Riggio Information retrieval system
US20140108445A1 (en) 2011-05-05 2014-04-17 Google Inc. System and Method for Personalizing Query Suggestions Based on User Interest Profile
US20140324749A1 (en) * 2012-03-21 2014-10-30 Alexander Peters Emotional intelligence engine for systems
JP5984153B2 (ja) * 2014-09-22 2016-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、プログラム、及び情報処理方法
US10105608B1 (en) * 2015-12-18 2018-10-23 Amazon Technologies, Inc. Applying participant metrics in game environments
JP6524049B2 (ja) 2016-10-28 2019-06-05 株式会社東芝 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム
US10796217B2 (en) * 2016-11-30 2020-10-06 Microsoft Technology Licensing, Llc Systems and methods for performing automated interviews
KR101933281B1 (ko) 2016-11-30 2018-12-27 주식회사 트라이캐치미디어 게임플레이어의 얼굴 인식을 통한 게임운영 방법
KR20170086427A (ko) 2017-06-05 2017-07-26 주식회사 엔씨소프트 게임 제공 장치 및 방법
US10706674B2 (en) * 2018-05-15 2020-07-07 Igt Electronic gaming machines and related methods with player emotional state prediction
US20200051582A1 (en) 2018-08-08 2020-02-13 Comcast Cable Communications, Llc Generating and/or Displaying Synchronized Captions

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102076387A (zh) * 2008-04-29 2011-05-25 百利游戏有限公司 用于诸如电子游戏机(egm)的游戏装置的生物反馈
US20090292583A1 (en) * 2008-05-07 2009-11-26 Nice Systems Ltd. Method and apparatus for predicting customer churn
CN102216876A (zh) * 2008-11-19 2011-10-12 英默森公司 用于生成基于心情的触觉反馈的方法和装置
US20110218045A1 (en) * 2010-03-08 2011-09-08 University Of Southern California Predicting game player monetization based on player logs
US20140108842A1 (en) * 2012-10-14 2014-04-17 Ari M. Frank Utilizing eye tracking to reduce power consumption involved in measuring affective response
KR101733458B1 (ko) * 2016-11-01 2017-05-10 주식회사 코어사이트 게임 로그 분석 방법
CN106730812A (zh) * 2016-11-30 2017-05-31 吉林大学 一种基于多生理参数情绪量估的游戏调控系统及调控方法
US20180366143A1 (en) * 2017-06-19 2018-12-20 International Business Machines Corporation Sentiment analysis of mental health disorder symptoms

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112221162A (zh) * 2020-10-15 2021-01-15 蒋海斌 基于人工智能识别的网络游戏交互方法及智能游戏平台
CN112221162B (zh) * 2020-10-15 2021-05-14 武汉卧友网络科技有限公司 基于人工智能识别的网络游戏交互方法及智能游戏平台
WO2022141894A1 (zh) * 2020-12-31 2022-07-07 苏州源想理念文化发展有限公司 融合表情和肢体运动的三维特征情绪分析方法
CN113350798A (zh) * 2021-05-31 2021-09-07 多益网络有限公司 一种游戏模式设置方法、装置、设备和存储介质
CN113689256A (zh) * 2021-08-06 2021-11-23 江苏农牧人电子商务股份有限公司 一种虚拟物品推送方法和系统
CN116943226A (zh) * 2023-09-20 2023-10-27 小舟科技有限公司 基于情绪识别的游戏难度调节方法、系统、设备及介质
CN116943226B (zh) * 2023-09-20 2024-01-05 小舟科技有限公司 基于情绪识别的游戏难度调节方法、系统、设备及介质

Also Published As

Publication number Publication date
KR20200081171A (ko) 2020-07-07
CN111375196B (zh) 2023-08-04
KR102239062B1 (ko) 2021-04-12
US10835823B2 (en) 2020-11-17
US20200206631A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
CN111375196B (zh) 基于感知的动态游戏状态配置
US11369880B2 (en) Dynamic difficulty adjustment
KR102060879B1 (ko) 비디오 게임 애플리케이션 내의 게임플레이 파라미터들의 실시간 동적 수정 및 최적화
KR102291044B1 (ko) 멀티 플레이어 비디오 게임 매치 메이킹 최적화
CN107970612B (zh) 多玩家视频游戏匹配系统和方法
US11471764B2 (en) Predictive execution of distributed game engines
CN109200578B (zh) 用于视频游戏的交互式语音控制的伴随应用
US10171858B2 (en) Utilizing biometric data to enhance virtual reality content and user response
US10940396B2 (en) Example chat message toxicity assessment process
US10279264B1 (en) Adaptive gaming tutorial system
CN117122915A (zh) 用于在视频游戏的游戏玩法期间自动控制用户打断的方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant