CN109200578B - 用于视频游戏的交互式语音控制的伴随应用 - Google Patents

用于视频游戏的交互式语音控制的伴随应用 Download PDF

Info

Publication number
CN109200578B
CN109200578B CN201810722328.2A CN201810722328A CN109200578B CN 109200578 B CN109200578 B CN 109200578B CN 201810722328 A CN201810722328 A CN 201810722328A CN 109200578 B CN109200578 B CN 109200578B
Authority
CN
China
Prior art keywords
user
video game
utterance
command
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810722328.2A
Other languages
English (en)
Other versions
CN109200578A (zh
Inventor
M·萨尔达里
K·A·摩斯
K·A·扎曼
N·阿格戴尔
J·科隆
M·M·马塔尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronic Technology Co
Original Assignee
Electronic Technology Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronic Technology Co filed Critical Electronic Technology Co
Publication of CN109200578A publication Critical patent/CN109200578A/zh
Application granted granted Critical
Publication of CN109200578B publication Critical patent/CN109200578B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/352Details of game servers involving special game server arrangements, e.g. regional servers connected to a national server or a plurality of servers managing partitions of the game world
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6027Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

使用语音识别,用户可以与伴随应用交互以控制来自移动设备的视频游戏。有利的是,当视频游戏由于例如用户的位置而不可用时,用户可以与伴随应用交互。此外,可以使用机器学习来促进生成所预测的对用户话语的语音响应,以改善或保持用户与伴随应用或其相应的视频游戏的参与度。

Description

用于视频游戏的交互式语音控制的伴随应用
背景技术
软件开发者通常期望他们的软件尽可能长时间地吸引用户参与。用户参与软件的时间越长,软件越有可能成功。对于视频游戏,用户参与的时长与软件的成功之间的关系尤其如此。用户玩特定视频游戏的时间越长,用户喜欢该游戏的可能性越大,因此用户继续玩该游戏的可能性越大。
参与原则不限于单玩家游戏,并且还能够应用于多玩家视频游戏。为用户提供有趣的多玩家体验的视频游戏更有可能使得用户再次玩这些视频游戏。相反地,为用户提供不良的多玩家体验的视频游戏不太可能维持高数量的用户。因此,视频游戏开发的挑战之一在于提供一种确保或增加有趣的玩游戏体验的几率。
发明内容
本公开文本的系统、方法和设备每个都具有若干创新性方面,其中没有任何单个方面单独负责本文中公开的所有期望属性。本说明书中描述的主题的一个或多个实施方式的细节在附图和下面的描述中阐述。
在本公开文本的某些实施方案中,公开了一种计算机实施的方法。该方法可以由配置有特定计算机可执行指令的交互式计算系统来实施。该方法可以包括从用户计算设备接收话语。所述话语可以包括与视频游戏相关联并且由用户说出的一个或多个所说词语。另外,该方法可以包括确定话语的话语分类,并且响应于确定所述话语分类对应于命令,该方法可以包括确定由话语提到的命令。另外,该方法可以包括确定与命令相关联的视频游戏。视频游戏可以是多个视频游戏中的一个视频游戏。此外,该方法可以包括:标识与用户相关联的用户账户,并且标识与视频游戏和用户账户相关联的主机系统(host system,托管系统)。主机系统可以被配置为托管所述视频游戏的实例的至少第一部分。另外,该方法可以包括:在主机系统处加载与用户账户相关联的用户游戏账户,以及在没有所述用户访问所述视频游戏的情况下,代表所述用户在所述主机系统处关于所述用户的用户游戏账户执行所述命令。
在某些实施方案中,该方法还包括:确定话语的优先级,并且根据话语的优先级来处理话语。根据话语的优先级来处理话语可以包括当所述优先级低于阈值优先级时向辅助处理系统提供话语以处理话语。在一些实施方案中,话语可以是从用户计算设备托管的伴随应用接收的。伴随应用可以不同于所述视频游戏但是与所述视频游戏相关联。
在某些实施方案中,代表用户执行所述命令可以包括:实例化被配置为执行视频游戏的实例的至少第二部分的无界面客户端(headless client),在无界面客户端处执行视频游戏的实例的第二部分,以及在无界面客户端处执行命令。此外,响应于确定所述话语分类对应于询问,该方法还可以包括访问与询问相关联的一个或多个知识源。所述一个或多个知识源中的至少一个知识源可以包括游戏状态信息的储存库。此外,所述方法可以包括至少部分基于从所述一个或多个知识源获取的数据来生成对所述询问的询问响应,以及向所述用户计算设备传输所述询问响应。生成所述询问响应可以包括:访问用户的用户交互数据,至少部分基于从一个或多个知识源获取的数据来确定多个合格询问响应,并且基于用户交互数据和参数函数来为每个合格询问响应生成得分。所述参数函数可以至少部分基于机器学习算法来生成。此外,该方法可以包括至少部分基于每个合格询问响应的得分来从多个合格询问响应中选择询问响应。另外,该方法可以包括确定与话语相对应的信号的一个或多个特征。为每个合格询问响应生成得分还可以基于与所述话语相对应的信号的一个或多个特征。在一些实施方案中,从多个合格询问响应中选择询问响应包括选择与来自多个询问响应的其余合格询问响应相比更有可能增加来自用户的参与度(engagement,保留率)的询问响应。
在某些实施方案中,响应于确定所述话语分类对应于陈述,该方法还包括将所述陈述应用于参数函数以确定动作。该动作可以是从多个动作中选择的以保持或增加所述用户关于所述视频游戏的参与度。此外,该方法可以包括关于视频游戏的实例的执行来执行该动作。将所述陈述应用于参数函数以确定动作可以包括将与多个话语相对应的多个陈述应用于参数函数。此外,该方法还可以包括对话语执行语音识别以确定一个或多个所说词语。
本公开文本的某些实施方案涉及一种系统。该系统可以包括应用主机系统和交互式计算系统,所述应用主机系统被配置为托管视频游戏的至少第一部分,所述交互式计算系统包括一个或多个硬件处理器。所述交互式计算系统可以被配置为执行特定计算机可执行指令以至少从用户计算设备接收话语。所述话语可以与视频游戏相关联并且由用户说出。此外,所述系统可以确定所述话语的话语分类,并且响应于确定所述话语分类对应于命令来确定由所述话语提到的命令。另外,该系统可以确定与所述命令相关联的视频游戏。所述视频游戏可以是多个视频游戏中的一个视频游戏。另外,所述系统可以标识与用户相关联的用户账户,从多个应用主机系统中标识与所述视频游戏和所述用户账户相关联的应用主机系统,在所述应用主机系统处加载与所述用户账户相关联的用户游戏账户,并且代表所述用户在应用主机系统处关于用户的用户游戏账户执行命令。
在某些实施方案中,所述交互式计算系统还被配置为通过以下方式代表用户执行命令:实例化被配置为执行视频游戏的实例的至少第二部分的无界面客户端,在无界面客户端处执行视频游戏的实例的第二部分,以及在无界面客户端处执行命令。响应于确定所述话语分类对应于询问,交互式计算系统还可以被配置为执行特定计算机可执行指令以至少访问与询问相关联的一个或多个知识源,至少部分基于从一个或多个知识源获取的数据来生成对询问的询问响应,并且向用户计算设备传输询问响应。在一些实施方案中,交互式计算系统还可以被配置为通过以下方式来生成询问响应:访问用户的用户交互数据,至少部分基于从一个或多个知识源获取的数据来确定多个合格询问响应,并且基于用户交互数据和参数函数来为每个合格询问响应生成得分。所述参数函数可以至少部分基于机器学习算法来生成。此外,该系统还可以被配置为至少部分基于每个合格询问响应的得分来从多个合格询问响应中选择询问响应。
在某些实施方案中,响应于确定所述话语分类对应于陈述,所述交互式计算系统还被配置为执行特定计算机可执行指令以至少将所述陈述应用于参数函数以确定动作,以及关于所述视频游戏的实例的执行来执行所述动作。在一些实施方案中,所述交互式计算系统还被配置为通过以下方式将所述陈述应用于参数函数:从用户计算设备接收包括所述陈述的多个陈述,确定所述多个陈述中的每个陈述的意见,聚合所述多个陈述中的每个陈述的意见以获取聚合意见,以及向所述参数函数提供所述聚合意见。
本公开文本的某些实施方案涉及一种存储计算机可执行指令的非暂态计算机可读存储介质,所述计算机可执行指令在被一个或多个计算设备执行时配置所述一个或多个计算设备以执行特定操作。这些操作可以包括从用户计算设备接收话语。所述话语可以与视频游戏相关联。此外,所述操作可以包括确定所述话语分类对应于命令,标识由所述话语提到的命令,标识与通过所述话语接收的标识符相对应的视频游戏的用户账户,以及至少部分基于所述用户账户来为所述视频游戏选择主机系统。所述主机系统可以被配置为托管所述视频游戏的实例的至少第一部分。在一些情况下,所述操作可以包括在主机系统处加载与用户账户相关联的游戏数据,以及在没有所述用户访问所述视频游戏的情况下,代表与所述用户账户相关联的用户在所述主机系统处关于所述视频游戏的实例执行所述命令。
在某些实施方案中,执行所述命令包括实例化被配置为执行所述视频游戏的所述实例的至少第二部分的无界面客户端,在所述无界面客户端处执行所述视频游戏的所述实例的所述第二部分,以及在所述无界面客户端处执行所述命令。
虽然本文中公开了某些实施方案和实施例,但是本发明的主题扩展到超出具体公开的实施方案中的实施例之外的其他替代实施方案和/或用途,并且扩展到其修改和等同物。
附图说明
在整个附图中,附图标记被重复使用以指示在所提到的元素之间的对应关系。所述附图被提供用以说明本文中描述的主题的实施方案,而不是限制其范围。
图1A示出了可以实施用于视频游戏的伴随应用系统的一个或多个实施方案的联网计算环境的一个实施方案。
图1B示出了图1A的模型生成系统的一个实施方案。
图1C示出了图1A的参与度系统的一个实施方案。
图2呈现了用于话语处理的过程的一个实施方案的流程图。
图3呈现了命令执行过程的一个实施方案的流程图。
图4呈现了基于参与度的话语响应选择过程的一个实施方案的流程图。
图5呈现了预测模型生成过程的一个实施方案的流程图。
图6示出了用户计算系统的一个实施方案。
图7示出了用于图6的用户计算系统的硬件配置的一个实施方案。
具体实施方式
引言
通常希望视频游戏吸引大量用户。此外,期望视频游戏保持用户参与度,使得用户在多个游戏会话上或在延长的时间段内继续玩或使用视频游戏。经常有一段时间用户无法玩视频游戏。例如,用户可能有诸如工作、上学、家庭义务等责任。在某些情况下,用户的附加责任可能阻止用户访问或使用视频游戏系统或托管视频游戏的其他主机计算系统。
本文中呈现的实施方案使用与视频游戏相关联的交互式伴随应用,以在用户不能与视频游戏交互的时间段期间保持用户参与度。伴随应用使得用户能够与视频游戏的至少一部分交互,而不执行视频游戏本身。例如,伴随应用使得用户能够更改用户的角色或团队,购买或出售用户在玩视频游戏时可以使用的数字物品,指示用户的角色或团队采取动作或前往视频游戏中的位置,或者将在视频游戏中获取的技能点指派给游戏内角色的不同方面。此外,用户可以使用伴随应用来获取关于视频游戏的信息,诸如用户角色的状态、可用任务的列表、或者当前正在玩视频游戏或当前正在特定主机服务器中玩视频游戏的用户的数目。
在一些情况下,伴随应用执行或使得用户能够玩与视频游戏相关的元游戏或迷你游戏。这些迷你游戏中的一些可能会影响视频游戏。例如,用户可以玩如下迷你游戏,该迷你游戏使得用户能够获取或解锁特殊物品、武器、化身、技能点或角色服装,这些特殊物品、武器、化身、技能点或角色服装可以随后在用户玩视频游戏时在视频游戏中使用。通常,与相关联的视频游戏相比,迷你游戏可以与较低的系统要求相关联,以使得迷你游戏能够在不能执行相关联的视频游戏的设备上玩耍。
在某些实施方案中,伴随应用可以生成对用户的语音输入的响应。伴随应用可以确定将最大化或改善用户参与度的响应。对可以改善用户的参与度的响应的确定可以基于对用户提供的语音输入或话语的分析来确定。使用一个或多个机器学习算法,可以基于历史交互数据来确定在增加用户参与度的目标内的预测模型或参数函数。可包括历史用户信息或历史话语的历史交互数据可以被馈送到生成预测模型的机器学习系统中,所述预测模型相对于先前玩过视频游戏的一组历史用户来预测预期的用户参与度或保留率。在一些情况下,用于生成预测模型的目标函数可以针对除了用户参与度之外的目标进行优化。例如,目标函数可以与相对于其他用户的用户行为相关联。
有利的是,在某些实施方案中,伴随应用可以是比一些视频游戏需要更少资源来执行的“轻”或“精简”应用,从而使得伴随应用能够在更广泛的各种计算系统上运行,包括可能无法托管视频游戏的计算机系统。例如,伴随应用可以在具有比用于执行视频游戏可能需要的更少计算资源的智能手机或计算设备上运行。此外,在某些情况下,伴随应用可以至少部分通过网络或作为云服务的一部分来运行。在某些这样的情况下,用户可以经由语音控制扬声器——诸如Amazon
Figure BDA0001714324880000061
或Google HomeTM设备——与伴随应用交互。
在一些实施方案中,本文中公开的语音控制特征可以用于在视频游戏正在执行时与视频游戏交互。例如,当用户正在经由游戏手柄或其他用户输入设备控制可玩角色时,语音控制特征可以用于控制非玩家角色(NPC)。
为了简化讨论,本公开文本主要关于视频游戏进行描述。然而,本公开本文不限于此,并且可以应用于其他类型的应用。例如,本文中公开的实施方案可以应用于教育应用(例如,帮助用户学习新语言的应用)或者其中保持用户参与度可能很重要的其他应用。
示例联网计算环境
图1A示出了可以实施语音控制的伴随应用106的一个或多个实施方案的联网计算环境100的一个实施方案。联网计算环境100包括可以经由网络104与交互式计算系统101通信的用户计算系统110。此外,联网计算环境100可以包括多个附加用户计算系统,诸如但不限于用户计算系统108。至少一些附加用户计算系统可以被配置为与用户计算系统110相同或相似。
用户计算系统110可以包括、托管或执行伴随应用106。伴随应用106可以包括使得用户能够与视频游戏交互而不执行视频游戏的任何类型的应用。例如,伴随应用106可以使得用户能够访问与视频游戏相关联的拍卖行。作为另一示例,伴随应用106可以使得用户能够交易角色、获取游戏中物品、出售游戏中物品、重构用户的角色队、获取用于玩视频游戏的提示或建议、获取游戏新闻、订阅游戏内的任务或者执行可以在用户没有访问视频游戏的实例本身的情况下执行的任何其他动作或询问。本文中在下面关于图2介绍的表1提供了可以经由伴随应用发生的与视频游戏112的交互的其他示例。一些交互可能不需要与视频游戏112本身交互,但是可以提供关于视频游戏112的信息或者可以与能够影响视频游戏112的玩耍的其他应用交互。伴随应用106可以不是游戏本身,但是能够提供关于视频游戏112的信息或者对视频游戏112的元素进行改变的能力。在其他实施方案中,伴随应用106可以包括游戏特征。例如,伴随应用106可以提供对其结果可能影响或不影响视频游戏112的迷你游戏的访问。
用户计算系统110还可以包括能够捕获通过用户与用户计算系统110交互而做出的一个或多个话语的音频捕获系统102。音频捕获系统可以从一个或多个传声器接收话语。此外,音频捕获系统102可以将一个或多个话语转换成一个或多个词语、命令或语音。这些词语可以是一种或多种语言的。此外,词语可以包括与视频游戏112相关联的虚构词语。在一些实施方案中,音频捕获系统102可以与基于云或网络的系统交互,以便于识别用户说出的话语。例如,音频捕获系统102可以与语音识别系统114交互,所述语音识别系统114可以将捕获的话语转换成一个或多个词语。音频捕获系统102可以经由传声器从用户接收话语或音频。该捕获的音频可以被传输给语音识别系统114。在一些情况下,捕获的音频可以在被提供给语音识别系统114之前由伴随应用106处理或者由用户计算系统110上的音频处理系统处理。例如,可以在将音频传输给语音识别系统114之前执行一个或多个噪声滤波处理。
语音识别系统114可以是或可以包括能够将由音频捕获系统102捕获的音频解析成词语或其他识别的声音的音频或语音分析系统。所解析的词语可以被提供回用户计算系统110用于由伴随应用106使用。替代地或另外地,所解析的词语可以被提供给调度系统116用于根据本文中描述的实施方案进行处理。
由音频捕获系统102经由伴随应用106捕获的话语可以经由网络104被提供给交互式计算环境101的调度系统116。调度系统116可以包括具有一个或多个硬件处理器的一个或多个计算系统,所述硬件处理器可以分析接收的话语以确定要响应于话语执行的一个或多个动作。调度系统116可以包括多个子系统以便于响应于接收的话语。例如,调度系统116可以包括话语分类器118、命令管理器120以及询问和陈述管理器122。
话语分类器118可以确定话语是命令、询问还是陈述。在一些实施方案中,话语分类器可以利用机器学习系统,所述机器学习系统至少部分基于先前或在更早的时间点获取或捕获的训练数据来确定话语的分类。此外,在某些实施方案中,话语分类器118可以确定话语的优先级。基于话语的优先级,调度系统116可以确定是否要处理话语,要在何时处理话语,或者是否要将话语提供给辅助计算系统(未示出)用于处理。
命令管理器120可以处理话语分类器118已经确定为命令的话语。在一些实施方案中,某些命令可以被命令管理器120预加载或以其他方式识别。命令管理器120可以能够结合命令执行系统122执行预加载的命令。在一些实施方案中,命令可以包括需要或导致用户计算系统108或应用主机系统124上的视频游戏的状态的改变的任何动作。没有被命令管理器120识别的命令可以在对话管理器128处被提供给上下文管理器134。上下文管理器134可以标识来自话语的命令,并且可以向命令管理器120提供命令的身份以及在一些情况下提供用于执行命令的上下文信息。命令管理器120然后可以结合命令执行系统122来执行命令。
命令执行系统122可以在视频游戏112处执行命令。执行命令可以包括标识托管所述视频游戏112的应用主机系统124。此外,在一些情况下,执行命令可以包括实例化无界面客户端以在应用主机系统124处执行命令。无界面客户端可以表示用户计算系统108,并且可以执行通常在用户计算系统108处执行的视频游戏112的一部分,诸如视频游戏112的客户端部分,而视频游戏的服务器部分在应用主机系统124处执行。无界面客户端可以包括如下计算系统或在如下计算系统上执行,该计算系统被配置为在没有监视器或者没有显示来自视频游戏112的图形的情况下操作。无界面客户端可以由命令执行系统122控制或启动。在一些情况下,一旦无界面客户端被命令执行系统122启动,它可以结合由应用主机系统托管的视频游戏112的一部分来执行视频游戏112的一部分。无界面客户端可以用作用户计算系统108或110的替代品,并且可以与应用主机系统124交互以启用视频游戏112的执行。因此,视频游戏112的全功能实例可以在无界面客户端或无界面客户端和应用主机系统124的组合处执行,而不显示或输出包括图形或音频的用户接口数据。有利地,在某些实施方案中,无界面客户端的使用使得在由伴随应用106获取的话语中提到的命令能够在用户不与视频游戏112交互的情况下执行。
执行命令的结果可以由用户接口系统126输出。用户接口系统126可以将音频、视频或图像传输给用户计算系统110,以经由伴随应用106呈现给用户。在一些情况下,输出可以由视频游戏112在用户计算系统108处呈现。
被确定为不是命令的话语(诸如作为询问或陈述的那些话语)可以被提供给询问和陈述管理器122。询问和陈述管理器122可以包括用于管理对作为询问或陈述的话语的处理的管理系统。询问和陈述管理器122可以将话语提供给意图管理器132。意图管理器132可以包括用于确定话语是询问还是陈述的系统。此外,意图管理器132可以确定可以指示用户的精神状态的话语的特征。用户的精神状态可以用于确定如何响应于用户的话语或者对用户的话语的响应应当采取什么形式。
话语的特征可以包括指示用户的精神状态的话语的特征。这些特征可以从与话语相对应的音频或语音信号的特征中推断出。特征可以是音频或语音信号的时间或频谱特征。例如,特征可以包括可以从话语的频率测量来确定的话语的语调。更高的音高可以表明用户的兴奋程度更高。话语的特征可以与特定用户的基线相比较,以说明不同用户之间的语调差异。此外,特定用户的基线可以用于确定用户的不兴奋的语音语调与兴奋的语音语调之间的差异。
对话管理器128还可以包括知识管理器130。知识管理器130可以用于标识响应于包括在话语中的询问的信息。知识管理器130可以访问一个或多个知识储存库以获取响应于询问的信息。此外,在一些情况下,知识管理器130可以访问一个或多个附加系统以获取响应于询问的信息。知识管理器可以访问以获取响应于询问的信息的系统和储存库的一些非限制性示例包括新闻服务143、游戏数据引擎144和推荐服务145。
新闻服务143可以包括可以提供关于视频游戏112或视频游戏112的发布者的新闻的任何系统。例如,用户可以询问是否存在针对视频游戏112发布的任何新的补丁,是否存在用于视频游戏112的新的可下载内容,发布者是否发布视频游戏112的续集,等等。此外,新闻服务可以包括关于与视频游戏112相关的促销的信息。这些促销可以用于附加产品,诸如扩展、可下载内容(DLC)或续集。替代地或另外地,促销可以用于游戏内的内容,诸如游戏内物品的折扣、游戏内信用的折扣、有限时间内的奖励经验点等。
游戏数据引擎144可以包括能够提供具体针对于视频游戏112的状态或视频游戏112的执行的信息的任何系统。例如,游戏数据引擎144可以包括视频游戏储存库147,所述视频游戏储存库147可以提供关于在视频游戏112中可用的物品或可玩角色的信息。作为另一示例,视频游戏储存库147可以提供关于视频游戏112内的可用任务或位置的信息。在一些情况下,由游戏数据引擎144提供的信息可以具体针对于特定用户。例如,视频游戏112的用户可用的任务可以是用户特定的。在一些实施方案中,游戏数据引擎144还可以能够获取关于一个或多个应用主机系统124的信息。例如,游戏数据引擎可以确定不同的应用主机系统124上的负载,特定用户是否在线或在特定应用主机系统124上,或者哪个应用主机系统124可以具有可用于视频游戏112的特定特征。
此外,游戏数据引擎144可以包括提供专门针对视频游戏112的用户账户的信息的用户数据储存库148。例如,用户数据储存库148可以标识视频游戏112的用户可用的角色、视频游戏112的用户拥有的物品、或视频游戏112的用户可用的积分。作为附加示例,用户数据储存库可以包括关于以下各项的信息:用户多久玩一次视频游戏112,用户的得分与其他用户相比较如何,或者与用户和视频游戏112的交互相关的任何其他信息。
推荐服务145可以包括能够生成与视频游戏112相关的推荐的任何系统。推荐可以与用户对视频游戏112的访问或者玩视频游戏112相关联。例如,推荐可以与以下各项相关:用户应当尝试获取的物品、用户应当尝试玩的任务、或者用户应当在玩视频游戏112时采用的玩法。替代地或另外地,推荐可以涉及用户基于用户玩视频游戏112而可能感兴趣的其他游戏或应用。例如,推荐服务145可以推荐与视频游戏112类型相似的其他视频游戏、基于用户对视频游戏112的兴趣而可能感兴趣的新的资源、或者用户可能感兴趣的即将到来的视频游戏规则。
对话管理器128还可以包括上下文管理器134。上下文管理器134可以包括可以确定由话语提到的命令的任何系统。在一些实施方案中,上下文管理器可以使用先前谈话或话语的历史、所提供的属性和所确定的响应来促进确定由话语提到的命令。上下文管理器134可以标识用于执行命令的参数并且可以将参数提供给命令管理器120以使用命令执行系统122来执行命令。在一些实施方案中,上下文管理器134可以预加载或预测可以由用户请求的命令,并且可以在请求命令的话语被执行之前将用于执行命令的参数或信息提供给命令管理器120。有利地,在某些实施方案中,预加载或预测命令可以减少对时间敏感命令的时间延迟,或者满足特定命令的低等待时间要求。在某些情况下,可以预先加载时间敏感或低等待时间的必需命令。所预测的待要执行的命令可以至少部分基于历史数据来预测。在一些实施方案中,可以至少部分基于用户的一个或多个先前话语来预测命令待要被执行。例如,如果用户请求特定物品的成本信息,则上下文管理器134可以预测用户可以请求从拍卖行购买物品。上下文管理器134然后可以在命令管理器120处预加载从拍卖行购买物品所需要的应用编程接口(API)调用或附加信息。有利的是,在某些实施方案中,通过在命令管理器120处预测命令和/或预加载用于执行命令的信息,调度系统116的响应性可以通过减少执行所请求的命令时的等待时间来提高。
对话管理器128可以使用响应生成器138生成对话语的响应。响应生成器138可以包括可以生成响应或话语的任何系统。在一些实施方案中,响应生成器138可以包括参与度系统140,所述参与度系统140可以评估对话语的一个或多个潜在响应对用户的参与度的影响。参与度系统140可以应用使用机器学习技术生成的一个或多个参数函数或预测函数来预测对话语的潜在响应并且影响参与度。参数函数可以由模型生成系统146使用训练数据来生成,模型生成系统146在下面参考图1B更详细地描述。
在一些实施方案中,对话语的响应可以被修改以反映特定个性类型。个性特质引擎142可以修改话语以反映被确定为改善用户的参与度的特定个性。例如,与更严重的响应相比,如果参与度系统140确定特定用户的更轻松的响应将导致改善的参与度,则个性特质引擎142可以将由响应生成器138生成的响应修改为更加轻松。此外,个性特质引擎142可以将笑话插入到对话语的响应中。
由响应生成器138生成的响应可以由用户接口系统126输出到用户计算系统110。此外,响应生成器138可以将在调度系统116处接收的话语和对话语的响应存储在日志储存库136中。存储在日志储存库136中的信息可以用于更新由模型生成系统146生成的预测模型的参数模型。
虽然未示出,但是联网计算环境100还可以包括可以用于与交互式计算环境101交互的一个或多个管理或管控计算系统。使用管理计算系统,用户诸如管理员可以执行关于交互式计算环境101的维护任务。例如,管理员可以更新一个或多个知识管理系统(诸如新闻服务143)以能够访问与视频游戏112相关的最新新闻。
此外,虽然对话管理器128中的调度系统116被示出为单独的系统,但是在某些实施方案中,调度系统116和/或对话管理器128可以被包括作为视频游戏112的一部分。例如,对话管理器128可以被包括作为由应用主机系统124托管的视频游戏112部分的一部分。
在联网计算环境100中示出的每个系统可以被实施为计算机硬件。然而,在某些实施方案中,一些系统可以被实施为软件或者硬件和软件的组合。例如,话语分类器118可以是由调度系统116的一个或多个硬件处理器实施的软件。
在一些实施方案中,代替或者除了伴随应用106的实例,由音频捕获系统102捕获的话语还可以用于与视频游戏112交互。例如,用户计算系统108可以使用音频捕获系统102捕获话语。随后,这些话语可以用于与视频游戏112交互,诸如用于命令视频游戏112的NPC。
用户计算系统108和110可以包括用于通过通信网络104建立通信的硬件和软件组件。例如,用户计算系统108和110可以配备有促进经由网络(例如,互联网)或内联网进行通信的网络设备和网络软件应用(例如,网络浏览器)。用户计算系统108和110可以具有多种本地计算资源,诸如中央处理单元和架构、存储器、大容量存储器、图形处理单元、通信网络可用性和带宽等。此外,用户计算系统108和110可以包括任何类型的计算系统。例如,用户计算系统108和110可以包括任何类型的计算设备,诸如台式计算机、膝上型计算机、视频游戏平台、电视机顶盒、电视机(例如,互联网电视机)、具有网络功能的信息亭、汽车控制台设备、计算机化设施、可穿戴设备(例如,具有计算功能的智能手表和眼镜)以及无线移动设备(例如,智能电话、PDA、平板电脑等)等。在某些实施方案中,视频游戏112可以在视频游戏控制台上执行。在一些这样的情况下,可以经由游戏手柄输入来接收用户话语或输入。在一些实施方案中,用户计算系统108和110可以包括下面关于图6和图7描述的一个或多个实施方案。
模型生成系统146可以使用一个或多个机器学习算法来生成一个或多个预测模型或参数函数。这些参数函数中的一个或多个可以用于基于一组输入来确定预期值或事件。例如,可以使用预测模型以基于预测模型的一个或多个输入(诸如例如用户的历史用户交互信息或用户所做出的历史话语)来确定用户将继续玩视频游戏112的预期参与度或概率。作为另外的示例,可以使用预测模型以基于预测模型的一个或多个输入来确定保留率或用户在购买视频游戏的游戏内物品上所花费的预期金额。在一些情况下,所述预测模型可以被称为预测模型,因为例如输出可以是对动作或事件的预测,或者可以与对动作或事件的预测(诸如用户继续玩视频游戏112的预测)相关。模型生成系统146可以使用多种不同类型的算法。例如,本文中的某些实施方案可以使用逻辑回归模型。但是,其他模型也是可能的,诸如线性回归模型、离散选择模型或广义线性模型。
机器学习算法可以被配置为基于由模型生成系统146接收的新输入自适应地开发并且随着时间更新模型。例如,可以周期性地重新生成模型,因为在用户信息随着时间而发展时,新的用户信息可用于帮助保持模型中的预测更加准确。本文中更详细地描述了模型生成系统146。在模型生成之后,它可以被提供给参与度系统140。
可以用来生成和更新参数函数或预测模型的机器学习算法的一些非限制性示例可以包括有监督和非监督的机器学习算法,包括回归算法(诸如例如,普通最小二乘回归)、基于实例的算法(诸如例如,学习矢量量化)、决策树算法(诸如例如,分类和回归树)、贝叶斯算法(诸如例如,朴素贝叶斯)、聚类算法(诸如例如,k均值聚类)、关联规则学习算法(诸如例如,关联规则(Apriori)算法)、人工神经网络算法(诸如例如,感知器)、深度学习算法(诸如例如,深度玻尔兹曼机)、维度降低算法(诸如例如,主成分分析)、集合算法(诸如例如,堆叠泛化)和/或其他机器学习算法。
参与度系统140可以包括用于基于将用户的用户话语和/或用户交互数据应用于由模型生成系统146生成的预测模型来确定用户的参与度的一个或多个系统。在一些情况下,响应生成器138可以使用由参与度系统140确定的预期参与度水平来确定响应的类型、响应的语调、或要包括在对话语的响应中的信息。
网络104可以包括任何类型的通信网络。例如,网络104可以包括广域网(WAN)、局域网(LAN)、蜂窝网络、自组织网络、卫星网络、有线网络、无线网络等中的一个或多个。此外,在一些情况下,网络104可以包括因特网。
示例模型生成系统
图1B示出了图1A的模型生成系统146的一个实施方案。模型生成系统146可以用于基于多个用户的历史数据152来确定一个或多个预测模型160。典型地,但是不一定,历史数据152包括与大量用户相关联的数据,诸如数百、数千、数十万或更多的用户。然而,本公开文本不限于此,并且用户的数目可以包括任何用户数目。此外,历史数据152可以包括从一个或多个数据源(诸如例如,一个或多个应用主机系统124和/或一个或多个用户计算系统108和/或110)接收的数据。此外,历史数据152可以包括来自不同数据源的数据、不同数据类型的数据、以及由一个或多个用户与视频游戏112和/或伴随应用106的交互所生成的任何数据。在一些实施方案中,历史数据152可以包括非常大的数目的数据点,诸如数百万个数据点,这些数据点可以被聚合成一个或多个数据集。在一些情况下,可以从用户数据储存库148中访问历史数据152。在一些实施方案中,历史数据152限于关于视频游戏112或伴随应用106的历史信息,但是在其他实施方案中,历史数据152可以包括来自一个或多个其他视频游戏或伴随应用的信息。此外,在一些实施方案中,历史数据的一个或多个子集受到日期限制的约束,诸如例如限于仅包括来自最近6个月的数据。
历史数据152可以包括关于视频游戏112或伴随应用106的用户的用户交互数据。此外,历史数据152可以包括与不同用户如何对由调度系统116生成的响应做出反应或者对话管理器128如何对用户说出的话语做出反应相关的信息。
在一些情况下,模型生成系统146还可以接收反馈数据154。该数据可以作为监督模型生成过程的一部分被接收,监督模型生成过程使得用户诸如管理员能够向模型生成系统146提供附加输入,所述附加输入可以用于促进预测模型160的生成。例如,如果历史数据152中存在异常,则用户可以标记异常数据,使得模型生成系统146能够不同地处理标记的数据,诸如对数据应用不同的权重或者将数据从模型生成过程中排除。
此外,模型生成系统146可以接收控制数据156。该控制数据156可以标识所述模型生成系统146将要确定的模型的一个或多个特征或特性。此外,在一些情况下,控制数据156可以指示在控制数据156中标识的一个或多个特征的值。例如,假定控制数据156指示将要使用历史数据152来生成预测模型以确定用户玩视频游戏112的时长(其可以用作参与度的度量)。如果每个用户玩游戏的时间量是已知的,则该数据可以被提供作为控制数据156的一部分,或作为历史数据152的一部分。作为另一示例,如果要生成预测模型以估计例如基于用户是否在阈值时间段内玩视频游戏112或者在特定阈值时间段之后继续玩视频游戏112而确定的保留率,控制数据156可以包括其数据被包括在历史数据152中的用户的保留率和与伴随应用106的交互历史。
模型生成系统146通常可以包括用于预测模型160的生成的模型生成规则集170。规则集170可以包括一个或多个参数162。每个参数集162可以使用一个或多个数学函数来组合以获取参数函数。此外,可以用权重164来加权一个或多个特定参数。在一些情况下,参数函数可以通过组合一组参数与相应的一组权重164来获取。预测模型160和/或预测模型160的相应参数162可以在训练过程中基于特定输入数据(诸如历史数据152、反馈数据154和控制数据156)以及用于训练目的的定义的输出标准(其可以与控制数据156一起被包括)来导出。模型生成规则集170可以基于定义的目标函数(诸如确定流失率)来定义所述模型生成系统146用于生成模型的特定机器学习规则和/或算法。在一些实施方案中,可以在模型生成过程的开始期间手动提供初始参数162和权重164。可以在模型生成阶段更新和修改所述参数162和权重164以生成预测模型160。在一些实施方案中,可以向参数函数或预测模型本身应用权重。例如,被包括在特定预测模型160中的数学复杂度或参数数目可以影响特定预测模型160的权重,这可以影响模型和/或选择算法的生成或者特定预测模型160被选择的选择概率。
模型生成系统146可以根据数据的各种特性和参数对历史数据集进行过滤和分类。例如,数据可以按照数据源(诸如例如,伴随应用交互数据、游戏应用数据、主机应用数据或用户配置数据)、信息类型(诸如例如,话语命令、话语陈述、话语询问、游戏玩法信息、交易信息、交互信息或游戏账户信息)、对手数据(诸如例如,对手的技能、对手选择或扮演的角色、或相对于对手的成功率)、队友数据(诸如例如,队友的技能、队友选择或扮演的角色、或在与特定队友一起玩时的成功率)或与数据相关的其他类别来分类。模型生成系统146可以对信息进行过滤以标识用于进一步处理的信息。在一些实施方案中,模型生成系统146被配置为在进一步处理之前且将历史数据152过滤并且分成多个数据类型或类别。此外,在一些情况下,基于数据与不满足由模型生成系统146确定的阈值相关性的相关性相关联,一些历史数据152可以被滤除或从历史数据152中移除。
在生成预测模型160之后,可以在参与度系统140和/或响应生成器138的运行时期中使用该模型来批准、拒绝或选择对从伴随应用106或视频游戏112的用户接收的话语的响应。在一些情况下,预测模型160可以用于促进生成对话语的音频或视觉响应、或者响应于话语而执行的动作。在其他情况下,预测模型160可以用于确认对话语的特定响应是否满足一组条件,诸如例如特定阈值参与率。
示例参与度系统
图1C示出了图1A的参与度系统140的一个实施方案。参与度系统140可以应用或使用由模型生成系统146生成的一个或多个预测模型160。虽然被示出为单独的系统,但是在一些情况下,参与度系统140的特征由响应生成器138执行。参与度系统140可以使用一个或多个预测模型160A、160B、160N(其可以统称为“预测模型160”或单数形式的“预测模型160”)来处理输入数据172以获取输出数据174。
参与度系统140可以在确定对从伴随应用106或视频游戏112接收的话语的响应期间应用预测模型160。在一些实施方案中,在接收到多个话语之后应用预测模型160。例如,可以由音频捕获系统102捕获并且由对话管理器128聚合一系列陈述。聚合的一系列陈述可以被应用于预测模型160以确定预期的参与度、响应于所述陈述是否要采取动作、或者响应于所述陈述要采取什么动作(如果有的话)。在一些情况下,在触发发生之后,预测模型160应用于陈述。例如,可以将陈述应用于预测模型160,以在用户丢失一系列匹配物之后确定用户的参与度或预期保留率。当将话语应用于预测模型160时,还可以提供附加的输入数据172。输入数据172可以包括与如下用户相关联的一条或多条数据,所述用户正在玩视频游戏112或伴随应用106或者已经表明希望玩视频游戏112的实例。该数据可以包括伴随应用106的用户交互数据、视频游戏112的用户交互数据、用户的配置数据、以及可以应用于预测模型160以确定用户的参与度水平或者保留率或流失率的任何其他数据。此外,输入数据172可以包括与可以被选择为用户的对手和/或队友的一个或多个附加用户相关联的一条或多条数据。与附加用户相关联的数据可以包括与针对用户接收的数据相同类型的数据、针对用户接收的数据类型的子集和/或除了针对用户接收的数据类型之外的附加类型的数据。在一些实施方案中,输入数据172可以在被提供给参与度系统140之前被过滤。
在一些实施方案中,对于参与度系统140可以存在单个预测模型160。然而,如图所示,参与度系统140可以包括多个预测模型160。参与度系统140可以基于输入数据172和/或与输入数据172相关联的附加标识符来确定要使用哪个检测模型,诸如模型160A-N中的任意个。另外,所选择的预测模型160可以基于作为输入数据172提供的特定数据来选择。作为输入数据172的一部分的特定类型的数据的可用性可以影响预测模型160的选择。例如,包括人口统计数据(例如,年龄、性别、第一语言)作为输入数据的一部分可以导致预测模型160A的使用。然而,如果人口统计数据不可用于特定用户,则可以替代地使用预测模型160B。在一些情况下,输入数据172可以包括可以响应于接收的话语而被提供给用户的响应选项,诸如响应的内容或者响应的语调。
输出数据174可以是与用户将继续玩视频游戏112的时长相关联的预期参与度。替代地或另外地,输出数据174可以是与用户或一组用户停止玩视频游戏112的预测相关联的保留率或流失率。例如,在一些实施方案中,参与度可以在0和100之间,其表明与被包括作为输入数据172的类似或相同数据相关联的用户将在阈值时间段内返回玩视频游戏112的后续游戏会话的预测百分比。在一些情况下,输出数据174还可以标识参与度的原因。例如,参与度系统140可以指示特定用户的90%的参与度至少部分基于经由伴随应用106而做出的话语的语调。然而,参与度系统140可以指示对于另一用户而言的90%的参与度可以至少部分基于该用户所在的地理区域处于零下温度。作为另一示例,参与度系统140可以指示用户的20%的参与度可以至少部分基于缺少可用于用户的技能水平的任务。
预测模型160A、160B、160N通常可以分别包括一组一个或多个参数162A、162B、162N(其可以统称为“参数162”)。可以使用一个或多个数学函数来组合每组参数162(诸如参数162A)以获取参数函数。此外,来自参数162A、162B、162N的一个或多个特定参数可以用权重164A、164B、164N(其可以统称为“权重164”)加权。在一些情况下,参数函数可以通过将一组参数(诸如参数162A)与相应的一组权重164(诸如权重164A)组合来获取。
话语处理的示例过程
图2呈现了用于话语处理的过程200的一个实施方案的流程图。过程200可以由可以从用户接收一个或多个话语以确定要响应于一个或多个话语而采取的响应或动作的任何系统来实施。过程200全部或部分地可以由例如音频捕获系统102、伴随应用106、交互式计算环境101、调度系统116、对话管理器128或命令执行系统122等来实施。尽管任何数目的系统全部或部分地可以实施过程200,但是为了简化讨论,过程200将关于特定系统来描述。此外,应当理解,过程200可以在每次接收到话语时重复,或者可以响应于特定话语或者在接收到特定数目的话语之后执行。在一些情况下,过程200响应于触发被执行。例如,过程200可以响应于从用户接收到命令或者响应于用户与伴随应用106交互来执行。
过程200开始于框202,在框202处,调度系统116接收话语。话语可以从用户计算系统110或用户计算系统108的音频捕获系统102接收。在一些情况下,话语可以从语音识别系统114接收。
在框204处,话语分类器118确定话语的话语分类。话语分类可以包括命令、询问或陈述。在一些情况下,话语分类可以包括未确定的分类。例如,如果话语分类器118不能确定话语是命令、询问还是陈述,则话语可以被分类为未确定的。如果话语是未确定的,则指示这样的情况的消息或错误消息可以被发送到用户计算系统110以呈现给用户。该错误消息可以作为视觉或音频反馈或者视觉和音频反馈的组合呈现给用户。
在框206处,话语分类器118可以向话语指派优先级。在一些情况下,基于指派给话语的优先级,可以确定话语是否应当继续依次被处理,或者话语是否应当在较高优先级话语之后被处理。此外,在一些情况下,基于指派给话语的优先级,可以确定是否应将话语提供给辅助系统用于处理,所述辅助系统可能比分派系统116花费更长的时间来处理话语。在一些情况下,话语的优先级基于话语类型。例如,命令可以具有比询问或陈述更高的优先级,因为命令可能改变视频游戏112的状态。相反地,询问可以具有比命令更高的优先级,因为用户可能想要快速地接收对询问的响应,但是经由伴随应用106接收的命令的结果可能不会影响用户,直到用户选择玩视频游戏112的会话。在某些实施方案中,如由框206周围的虚线指示的,与框206相关联的操作可以是可选的或被省略。
在判定框208处,话语分类器118确定话语在框204处被分类为命令、询问还是陈述。如果确定话语被分类为命令,则在框210处,命令管理器120标识与话语相对应的命令。命令管理器120可以通过访问存储在命令管理器120处或可用于命令管理器120的命令储存库来标识与话语相对应的或由话语引用的特定命令。在一些情况下,命令管理器120可以存储与更常见的命令相关联的信息。在这种情况下,命令管理器120可能不会识别出较不常见的命令。如果命令未被命令管理器120识别出,则话语可以被提供给上下文管理器134,上下文管理器134可以访问一个或多个知识储存库(诸如视频游戏储存库147)以标识在话语中提到的命令。
在一些实施方案中,框210可以包括确定所标识的命令是否可以在接收到话语的特定时间段内或者关于视频游戏112的当前状态来执行。如果确定命令不能在特定时间或关于视频游戏112的当前状态来执行,则命令可以被拒绝。拒绝命令可以包括提醒用户所述命令不能被执行。
所标识的命令可以被提供给命令执行系统122,所述命令执行系统122可以在框212处执行命令。执行命令可以包括关于由应用主机系统124托管的视频游戏112执行命令。在一些情况下,执行命令212可以是多步骤过程。执行命令可导致视频游戏112的状态改变。通常,询问将不会导致视频游戏112的状态改变。参考图3进一步详细描述这个多步骤过程的一个非限制性示例。
如果在判定框208处确定话语是询问,则询问和陈述管理器122在框214处确定与话语相对应的特定询问。在一些实施方案中,框214可以包括确定询问是否为修辞性询问。如果询问是修辞性询问,则过程200可以将询问视为陈述。
在框216处,知识管理器130可以确定询问所暗示的一个或多个知识源。在一些实施方案中,知识源可以是一个或多个储存库,诸如视频游戏储存库147。替代地或另外地,知识源可以包括视频游戏112本身。在一些情况下,知识管理器130可以引起视频游戏112被执行以确定对询问的响应。例如,如果用户询问用户的勇士队是否可以被发送到特定的村庄,则知识管理器130可以实例化视频游戏112并且加载用户的账户以确定用户是否已经发现村庄,用户是否具有足够的游戏内积分来购买通往村庄的通道,和/或用户的勇士队是否能够离开他们的当前位置而不采取另外的动作。
在框218处,知识管理器130可以访问所标识的一个或多个知识源以获取用于回答询问的数据。如果不能标识出用于回答询问的数据,则可以将叙述这样的情况的错误消息提供或传输给用户计算系统110以呈现给用户。
在框220处,响应生成器138至少部分基于从一个或多个知识源获取的数据来生成询问响应。在一些实施方案中,响应生成器138可以至少部分基于用户在当前会话期间和/或在与伴随应用106或视频游戏112交互的先前会话期间所做出的先前话语来生成询问响应。例如,如果当询问响应包括游戏相关幽默时用户具有较长的参与历史,则响应生成器128可以在生成询问响应时包括游戏相关幽默。此外,对命令或陈述的响应可以基于用户检测到的偏好来被类似地定制。在一些实施方案中,用户可以指定响应偏好。询问响应生成过程的一个非限制性示例在下面参考图4来描述。
在框222处,用户接口系统126输出询问响应。输出询问响应可以包括将询问响应传输给用户计算系统110,所述用户计算系统110可以将询问响应输出给用户。在一些情况下,询问响应作为音频被输出。替代地或另外地,询问响应可以作为视频或作为图像被输出。然而,本公开文本不限于可以为询问响应生成的输出类型。例如,在一些情况下,询问响应可以作为物理响应被输出,诸如通过引起用户计算系统110或相关联的游戏手柄发生振动。在一些实施方案中,询问响应可以由响应生成器138提供给调度系统116,所述调度系统116可以将响应提供给伴随应用106或视频游戏112以呈现给用户。
如果在判定框208处确定话语是陈述,则在框224,参与度系统140将所述陈述应用于一个或多个预测模型。在一些实施方案中,所述陈述可以与其他陈述相聚合地应用于一个或多个预测模型。可以在向预测模型提供与陈述的语调意见相对应的聚合得分时比较陈述的语调或意见来聚合陈述。此外,在一些实施方案中,框224可以包括向一个或多个预测模型应用一个或多个询问。
在框226处,响应生成器138基于将陈述应用于一个或多个预测模型的结果来确定动作。在一些实施方案中,一个或多个预测模型提供该动作作为输出。在其他实施方案中,一个或多个潜在动作作为输入提供给预测模型,并且预测模型输出用于响应选项的参与度得分。响应生成器138可以基于针对一个或多个潜在动作而生成的参与度得分来选择动作或响应选项。在一些实施方案中,一个潜在动作可以是不采取动作。要采取的动作的其他非限制性示例可以包括调节视频游戏112的难度等级,选择不同的组件或对手的类型,将更多或更少的笑话引入响应于询问或陈述而提供的响应中,具有与用户的更短或更长的对话,或者可以修改用户的参与度得分的任何其他类型的动作。
在框228处,响应生成器138执行在框226处确定的动作。如前所述,动作可以包括不采取任何动作。换言之,在某些情况下,陈述可能不会导致动作的执行。在这种情况下,框228可以被省略。在一些情况下,执行动作可以包括诸如通过调节视频游戏112的难度级别来调节视频游戏112的状态。另外地或替代地,执行动作可以包括通过例如输出与用户做出的一个或多个陈述相关的音频来与用户对话。例如,如果用户在视频游戏112中做出表明用户对头目感到沮丧的多个陈述,则响应生成器138可以生成音频输出告诉用户:“哇!你做得很棒。我打赌你下次会击败头目”。如果预测模型指示这样的输出可能增加用户的参与度,则响应生成器138可以生成所述音频输出。替代地或另外地,如果预测模型指示对视频游戏112的难度的调节可能增加用户的参与度,则响应生成器138可以调节视频游戏112的状态以使头目更容易失败。
在框202处接收的话语可以包括和与视频游戏112交互相关或者与视频游戏112相关的任何类型的话语。如前所述,所述话语可以是可以调节视频游戏112的游戏状态的命令、询问关于视频游戏112的信息的询问、或与视频游戏112相关的陈述。由用户使用伴随应用106说出的与视频游戏112相关的话语的一些非限制性示例在下面的表1中列出。表1中的第一列示出了话语的潜在话题。表1中的第二列示出了第一列的每个主题的潜在话语。
Figure BDA0001714324880000221
Figure BDA0001714324880000231
Figure BDA0001714324880000241
表1
从表1中的示例可以看出,话语在语法上可能不是正确的。此外,作为询问的话语可以作为陈述或命令被说出。因此,在某些实施方案中,调度系统116可以使用自然语言处理和机器学习算法的组合以确定话语的含义来确定话语的意图。此外,对话管理器128可以将话语与可接受话语列表和历史话语相比较以得出话语的含义。在一些实施方案中,诸如当话语不明确时,对话管理器128可以请求用户确认用户的话语是否与对话管理者128对话语的标识相匹配。在一些实施方案中,对话管理器128可以基于对话管理器128的历史使用来选择话语的最可能的含义。
示例命令执行过程
图3呈现了命令执行过程300的一个实施方案的流程图。过程300可以由能够响应于从用户接收的话语而在视频游戏112中执行命令的任何系统来实施。过程300可以全部或部分地由例如音频捕获系统102、伴随应用106、交互式计算环境101、调度系统116、命令管理器120或命令执行系统122等来实施。尽管任何数目的系统全部或部分地可以实施过程300,但是为了简化讨论,过程300将关于特定系统来描述。此外,过程300可以在每次执行命令时作为框212的操作的一部分被执行。
过程300开始于框302,在框302处,命令管理器120标识与至少部分基于接收的话语而标识的命令相对应的视频游戏112。在一些情况下,视频游戏112可以至少部分基于接收的话语来标识。在其他情况下,视频游戏112可以由伴随应用106来标识。视频游戏112也可以基于用户账户信息(诸如用户登录)来标识。在某些情况下,用户登录可以与游戏服务相关联,因此可以不专门针对特定的视频游戏。在这种情况下,可能需要附加信息来标识视频游戏112,诸如与用户的游戏账户相关联的昵称。在一些情况下,用户可以口头地或者通过与伴随应用106的用户接口交互来指定视频游戏。在其他情况下,伴随应用106可以专门针对特定的视频游戏112,并且因此视频游戏112自动地或者基于用户与伴随应用106的交互而固有地被标识。在一些情况下,话语被视频游戏112接收,并且因此视频游戏112标识其自身。
在框304处,命令管理器120标识与命令相对应的游戏账户。游戏账户可以专门针对视频游戏112、用户、视频游戏112的用户扮演的角色、或视频游戏112上的保存文件或游戏配置。在一些情况下,游戏账户可以包括与游戏应用相关联的游戏账户信息。例如,游戏账户信息可以包括用户账户信息(诸如用户名、显示名称、电子邮件域、出生日期、安全问题的答案)、用户认证信息(诸如用户名和密码)、游戏配置信息(诸如例如,多个游戏内用户配置的设置)、保存游戏文件、与游戏内角色相关联的特性(诸如例如,角色设备、角色等级、成就等)、或其他信息。游戏账户可以包括与说出话语的用户相关联的账户。在一些情况下,话语可以包括游戏账户的身份。在其他情况下,游戏账户可以基于在接收到话语之前发生的伴随应用106或视频游戏112的用户登录来标识。
在框306处,命令执行系统122确定与游戏账户中的视频游戏112相关联的主机系统。主机系统可以包括被配置为执行视频游戏112的至少一部分的应用主机系统124。在一些情况下,主机系统可以是被配置为执行视频游戏112的至少一部分的用户计算系统108。框306可以包括标识被配置为托管所述视频游戏112的多个应用主机系统124。因此可以至少部分基于与提供话语的用户相关联的游戏账户来从多个应用主机系统124中选择特定应用主机系统124。
在一些实施方案中,在框306处标识的系统托管所述视频游戏的支持组件而不是视频游戏本身。例如,如果命令涉及在与视频游戏112相关联的拍卖行处的交易,则在框306处标识的系统可以是专用于托管与视频游戏112相对应的“不灭世界”的一个或多个实例的拍卖行的应用主机系统。
在框308处,命令执行系统122在应用主机系统124处加载在框304处标识的游戏账户。加载游戏账户可以包括加载与用户相关联的视频游戏112的特定保存游戏或特定配置。此外,加载游戏账户可以包括将视频游戏112恢复或设置为与用户玩视频游戏112相关联的特定状态。视频游戏112的特定状态可以对应于用户对视频游戏112的最近玩会话。在一些情况下,视频游戏112可以自从用户最近玩会话以来已经改变,因为例如视频游戏112包括与其他用户交互的“不灭世界”。在一些这样的情况下,加载游戏账户可以包括加载关于视频游戏112的特定部分的与用户相关联的可玩角色。
在一些实施方案中,加载游戏账户可以包括实例化被配置为代表用户与应用主机系统124交互的无界面客户端。在一些情况下,无界面客户端可以被配置为在应用主机系统处与视频游戏112交互。此外,框308可以包括执行视频游戏112或视频游戏112的一部分。执行视频游戏112可以包括引起视频游戏112达到特定状态,诸如与至少部分基于用户的游戏账户所标识的用户在视频游戏112内的进展相对应的状态。
在一些实施方案中,框308可以包括接收可以用于在应用主机系统124处登录到视频游戏112的实例的用户证书。用户证书可以从用户计算系统108或用户计算系统110来接收。在一些情况下,伴随应用106的用户账户与应用主机系统124处的视频游戏112的用户账户配对。在一些这样的情况下,用户可能需要向视频游戏112提供用户凭证,因为伴随应用106可以自动向视频游戏112提供用户凭证。
在框310处,命令执行系统122代表用户执行与在框304处标识的游戏账户相对应的命令。执行命令可以包括进行一个或多个应用编程接口(API)调用。在一些实施方案中,命令可以不被标识或者可能不能执行命令,因为例如视频游戏112的当前状态不满足执行命令的必要条件。在一些这样的情况下,所请求的命令可以被记录在日志储存库136处。在一些实施方案中,命令可以在视频游戏112满足执行命令的必要条件的未来时间点执行。
在框312处,命令执行系统122生成与命令的执行相关联的确认消息。确认消息可以指示命令已经成功执行。替代地或另外地,确认消息可以指示命令的结果。例如,如果命令是在拍卖行出售一件盔甲,则确认消息可以指示在拍卖行完成出售时为该盔甲获取的价格。此外,作为执行命令的结果,确认消息可以指示视频游戏112的任何状态改变。
确认消息可以被提供给伴随应用106。伴随应用106可以引起确认消息在用户计算系统110的显示器上和/或使用用户计算系统110的扬声器被输出给用户。如果命令执行失败,则确认消息可以指示命令执行失败并且在某些情况下可以呈现失败的原因并且执行命令。
示例基于参与度的话语响应过程
图4呈现了基于参与度的话语响应选择过程400的一个实施方案的流程图。过程400可以由能够生成对话语的响应的任何系统来实施。过程400可以全部或部分地由例如音频捕获系统102、伴随应用106、交互式计算环境101、调度系统116、命令管理器120、对话管理器128、响应生成器138或命令执行系统122等来执行。尽管任何数目的系统全部或部分地可以实施过程400,但是为了简化讨论,过程400将关于特定系统来描述。此外,过程400可以在每次生成询问响应时作为框220的操作的一部分执行。在一些实施方案中,过程400可以作为用于处理陈述或执行由话语提到的命令的过程的一部分来执行。
过程400开始于框402,在框402处,意图管理器132接收从用户计算设备110接收的话语。在框404处,意图管理器确定话语的特征。话语的特征可以包括话语的语调和/或话语的意见。为了确定话语的特征,意图管理器可以执行意见分析和/或一个或多个其他自然语言处理算法。此外,在一些实施方案中,确定话语的特征可以包括确定话语是高音还是低音,这可以指示用户是否兴奋。
在框406处,参与度系统140访问说出话语的用户的用户交互数据。该用户交互数据可以存储在用户数据储存库148处。用户交互数据可以包括用户关于视频游戏112做出的过去话语的历史或由用户提供给伴随应用106的过去话语。
在框408处,响应生成器138确定对在框402处接收的话语的多个潜在响应。对话语的多个潜在响应可以至少部分基于对从一个或多个知识源(诸如视频游戏储存库147或新闻服务143)确定的询问的响应。替代地或另外地,对话语的多个潜在响应可以基于由用户做出的一个或多个陈述。
在一些情况下,多个响应中的每个可以包括相同或相似的信息。然而,多个潜在响应中的每个可以以不同的方式呈现信息。例如,多个潜在响应中的每个可以具有不同的语调或不同的响应长度。作为另一示例,多个潜在响应中的一些可以包括一个或多个笑话,而其他潜在响应可以不包括笑话。在一些情况下,对话语的多个响应中的一些可以包括不同的信息。例如,一些响应可以包括在一些其他潜在响应中的响应于用户询问的更详细的信息。
使用预测模型,参与度系统140为多个响应中的每个响应确定参与度得分。参与度得分可以至少部分基于在框406处获取的用户的用户交互数据和/或在框404处确定的话语的特征来确定。在一些情况下,连同对话语的潜在响应,可以将用户交互数据和/或话语的特征连同话语本身一起提供给预测模型。如果对话语的特定响应被输出给用户,则所生成的参与度得分可以指示用户的可能的参与度水平。例如,与在参与度得分为20的情况下对话语的响应相比,在参与度得分为80的情况下对话语的响应可以指示用户更有可能参与并且继续与伴随应用106和/或视频游戏112交互。
在框412处,响应生成器138基于针对多个响应中的每个的参与度得分来从多个响应中选择对话语的响应。对话语的响应可以作为询问响应输出。替代地或另外地,对话语的响应可以基于由用户做出的一个或多个陈述话语。
在一些情况下,话语响应可以响应于由用户说出的命令。例如,用户可以发出重新配置足球视频游戏112中的用户的足球队中的一队球员的命令。多个潜在响应可以包括表明足球队已经被重新配置的短陈述、或者包括笑话并且表明足球队正在重新配置的较长陈述、或者确认足球队的重新配置并且提供有关重新配置后的足球队如何可能影响下一场比赛结果的信息的较长陈述。基于针对命令的不同潜在响应的所生成的参与度得分,响应生成器138可以确定是输出短陈述、具有笑话的较长陈述还是具有关于用户足球队的附加细节的较长陈述。
示例预测模型生成过程
图5呈现了预测模型生成过程的一个实施方案的流程图。过程500可以由能够生成包括一个或多个参数的一个或多个参数函数或预测模型的任何系统来实施。在一些情况下,过程500用作用于基于历史数据或其他已知数据来开发一个或多个参数函数或预测模型的训练过程。过程500全部或部分地可以由例如交互式计算环境101、参与度系统140、模型生成系统146或用户计算系统110等来实施。尽管任何数目的系统全部或部分地可以实施所述过程500,但是为了简化讨论,将关于特定系统来描述所述过程500。此外,应当理解,过程500可以随时间重复地更新或执行。例如,过程500可以每月重复一次,添加或释放新的视频游戏,或者添加可用于分析或正在玩视频游戏112的阈值数目的新用户。然而,过程500可以或多或少频繁地执行。
过程500在框502处开始,在框502处,模型生成系统146接收包括视频游戏112的多个用户的用户交互数据的历史数据152。该用户交互数据可以包括经由伴随应用106或视频游戏112接收的来自用户的言论。该历史数据152可以用作用于模型生成系统146的训练数据,并且还可以包括用户人口统计数据或特性,诸如,年龄、地理位置、性别或社会经济阶层。替代地或另外地,历史数据152可以包括与下述相关的信息:一个或多个用户的玩的风格;玩视频游戏112所花费的金额;用户关于视频游戏112的成功或失败信息(例如,用户胜率);玩视频游戏112的游戏频率;使用特定可选游戏要素(例如,可用优化工具(boost)、跳级、游戏内提示、能力提升等)的频率;购买视频游戏112的游戏内物品所花费的实际货币(例如,美元或欧元)的数额等。另外,历史数据152可以包括关于和来自多个用户的一个用户玩视频游戏112的一个或多个其他用户的数据。在一些情况下,历史数据152可以包括对于多个用户集的用户交互数据和其他用户或视频游戏相关的数据,其中每个集包括作为对手、队友或二者一起玩视频游戏的一个多玩家实例的一组用户。用户或视频游戏数据可以不仅包括上述数据,还包括每个用户关于视频游戏112的技能信息和/或可在视频游戏112中执行的一个或多个动作和/或视频游戏112的一个或多个要素(诸如等级或障碍物)。此外,数据可以包括游戏内角色选择偏好、角色偏好以及可用来区分不同用户的玩的风格、偏好或技能的其他信息。
在框504处,模型生成系统146接收控制数据156,该控制数据指示与历史数据152相对应的期望预测标准。该控制数据156可以指示模型生成系统146将针对其确定模型的一个或多个特征或特性。替代地或另外地,控制数据156可以包括与所接收的历史数据152相关联的特征或特性的值。例如,控制数据156可以识别参与水平、流失率或保留率,作为模型生成系统146将要生成的模型待要预测的期望特征。参与水平可以指示用户可能玩视频游戏112多久或用户有多大可能在特定时间段内玩视频游戏112的附加游戏会话。流失率或保留率可以对应于与历史数据152相关联的停止玩视频游戏112的用户的百分比。此外,控制数据156可以识别与历史数据相关联的保留率。例如,控制数据156可以指示,对于其数据被包括在历史数据152中的某些用户的保留率为60%。在一些实施方案中,控制数据156可以包括模型生成系统146将要生成的模型待要预测的多个特性或特征。例如,控制数据156可以识别其数据被提供作为历史数据152的用户的保留率和该保留率的原因(诸如,对手的技能水平相异不止阈值技能增量,或在比赛完成之前高于阈值百分比的队友和/或对手退出视频游戏112的实例),或者识别其数据被提供作为历史数据152的用户的保留率和所花费的平均金钱数额。
在框506处,模型生成系统146基于历史数据152和/或控制数据156生成一个或多个预测模型160。预测模型160可以包括一个或多个变量或参数162,可以使用数学算法或模型生成规则集170将这些变量或参数组合在一起,以基于历史数据152以及在一些情况下还基于控制数据156生成预测模型160。此外,在某些实施方案中,框506可以包括应用一个或多个反馈数据154。例如,如果预测模型160被生成作为监督式机器学习过程的一部分,用户(例如,管理员)可以在正生成预测模型160时提供一个或多个输入至模型生成系统146,和/或可以提供一个或多个输入以改进预测模型160生成过程。例如,用户可能知道特定地区或地理区域出现断电。在这种情况下,用户可以提供反馈数据154,以减小历史数据152中的、可对应于来自在断电期间受影响地理地区的用户的一部分的权重。此外,在一些情况下,可以使用例如权重164为变量或参数中的一个或多个加权。一个变量的权重的值可以至少部分地基于该变量在生成满足或者在阈值差异范围内满足控制数据156和/或历史数据152的预测模型160方面所具有的影响。在一些情况下,可以使用变量和权重的组合来生成预测模型160。
在框508处,模型生成系统146至少部分地基于预测模型160的准确度以及可选地任何相关联的处罚或加权来选择预测模型160。在一些实施方案中,模型生成系统146选择与比另一预测模型160较低的处罚相关联的预测模型160。然而,在一些实施方案中,例如,如果预测模型160的输出为比与较低的处罚相关联的预测模型更准确的阈值度的话,模型生成系统146可以选择与较高的处罚相关联的预测模型。在某些实施方案中,框508可以是可选的或者可以省略。例如,在一些情况下,预测模型160可以不与处罚相关联。在一些这样的情况下,预测模型可以基于由预测模型生成的输出的准确度来从多个预测模型选择,或者可以随机选择。
计算系统的概览
图6示出了用户计算系统110的一个实施方案,其也被称为游戏系统。尽管图6针对用户计算系统110,但应该理解的是,用户计算系统108可以具有相同或相似的配置。替代地,用户计算系统108可以具有与用户计算系统110不同的配置。如所示出的,用户计算系统110可以是可以包括多个元件的单个计算设备。然而,在一些情况下,用户计算系统110可以包括多个设备。例如,用户计算系统110可以包括:包括中央处理单元和图形处理单元的一个设备,包括显示器的另一设备,以及包括输入机构诸如键盘或鼠标的另一设备。
用户计算系统110可以是可以执行游戏系统的计算系统的一个实施方案。在图6的非限制性实施例中,用户计算系统110是能够经由触摸屏显示器602从用户接收输入的可触摸计算设备。然而,用户计算系统110并不限于此,而是可以包括非触摸式的实施方案,该非触摸式的实施方案不包括触摸屏显示器602。
用户计算系统110包括触摸屏显示器602和触摸屏接口604,并且被配置为执行游戏应用。该游戏应用可以是伴随应用106、视频游戏112,或者是连同所述伴随应用106或视频游戏112一起执行或支持所述伴随应用106或视频游戏112的应用,诸如应用执行环境或视频游戏执行环境。虽然被描述为游戏应用112,但是在一些实施方案中,应用112可以是能够跨多个用户计算系统与多个用户交互的另一种类型的应用,诸如教学软件或语言软件。尽管用户计算系统110包括触摸屏显示器602,但应认识到,可以除所述触摸屏显示器602之外或代替所述触摸屏显示器602使用多种输入设备。
用户计算系统110可以包括一个或多个处理器,诸如中央处理单元(CPU)、图形处理单元(GPU)和加速处理单元(APU)。此外,用户计算系统110可以包括一个或多个数据存储元件。另外,用户计算系统110可以包括一个或多个易失性存储元件,诸如随机存取存储器(RAM)。在一些实施方案中,用户计算系统110可以是出于执行游戏应用112的目的创建的专用计算设备。例如,用户计算系统110可以是视频游戏控制台。由用户计算系统110执行的游戏应用112可以是使用特定的应用编程接口(API)创建的,或者可以被编译为可以针对用户计算系统110的特定指令集。在一些实施方案中,用户计算系统110可以是能够执行游戏应用112和非游戏应用的通用计算设备。例如,用户计算系统110可以是具有集成触摸屏显示器的膝上型计算机或者具有外部触摸屏显示器的台式电脑。关于图6更详细地描述了用户计算系统110的示例实施方案的部件。
触摸屏显示器602可以是电容性触摸屏、电阻式触摸屏、表面声波触摸屏或被配置成从用户接收触觉输入——也被称为触摸输入——的其他类型的触摸屏技术。例如,可以经由一个手指触摸屏幕、多个手指触摸屏幕、手写笔或者可以用于在触摸屏显示器602上记录触摸输入的其他刺激物来接收触摸输入。触摸屏接口604可以被配置为将触摸输入转化成数据并且输出该数据,使得其可以被用户计算系统110的部件——诸如操作系统和游戏应用112——解读。该触摸屏接口604可以将触觉触摸输入触摸的特性转化成触摸输入数据。触摸输入的一些示例特性可以包括形状、大小、压力、位置、方向、动量、持续时间和/或其他特性。触摸屏接口604可以被配置为确定触摸输入的类型,诸如,例如轻击(例如,在单个位置处触摸并释放)或者滑动(例如,在单个触摸输入中移动通过触摸屏上的多个位置)。触摸屏接口604可以被配置成检测和输出与同时地或基本上并行地发生的多个触摸输入相关联的触摸输入数据。在一些情况下,同时的触摸输入可以包括其中用户维持在触摸屏显示器602上的第一触摸,同时随后在触摸屏显示器602上执行第二触摸的实例。触摸屏接口604可以被配置为检测触摸输入的移动。可以将触摸输入数据传输到用户计算系统110的部件以用于处理。例如,可以将触摸输入数据直接传输到游戏应用112以用于处理。
在一些实施方案中,在被输出到游戏应用112之前,触摸输入数据可以经受由触摸屏接口604、操作系统或者其他部件进行的处理和/或滤波。作为一个示例,可以从触摸输入捕获原始触摸输入数据。可以对原始数据进行滤波以移除背景噪声,可以测量与输入相关联的压力值,以及可以计算与触摸输入相关联的位置坐标。提供给游戏应用112的触摸输入数据的类型可以取决于触摸屏接口604和与触摸屏接口604相关联的特定API的具体实施方式。在一些实施方案中,触摸输入数据可以包括触摸输入的位置坐标。可以以限定的频率输出触摸信号数据。处理触摸输入可以每秒计算许多次,并且可以将触摸输入数据输出到游戏应用以用于进一步处理。
游戏应用112可以被配置成在用户计算系统110上执行。游戏应用112还可以被称为视频游戏、游戏、游戏代码和/或游戏程序。游戏应用应当被理解为包括用户计算系统110可以使用以提供供用户玩的游戏的软件代码。游戏应用112可能包括向用户计算系统110通知要执行的处理器指令的软件代码,但还可能包括在玩游戏方面使用的数据,诸如与常量、图像和其他数据结构相关的数据。例如,在所示出的实施方案中,游戏应用包括游戏引擎612、游戏数据614以及游戏状态信息616。如前文所述,本文中描述的实施方案可以用于不同于视频游戏的应用,诸如教学软件或视频会议。因而,在一些这样的情况下,游戏应用112可以用可以包括经由网络通信并选择服务器或多个用户计算系统之一来充当主机的多个用户的其他类型的应用代替。
用户计算系统110的触摸屏接口604或另一部件诸如操作系统可以提供用户输入诸如触摸输入至游戏应用112。在一些实施方案中,用户计算系统110可以包括替代的或者附加的用户输入设备,诸如鼠标、键盘、相机、游戏控制器等。此外,用户计算系统110可以包括虚拟现实显示器和/或增强现实显示器。用户可以经由触摸屏接口604和/或一个或多个替代的或附加的用户输入设备与游戏应用112交互。游戏引擎612可以被配置为在用户计算系统110内执行游戏应用112的操作的各方面。游戏应用内的玩游戏的各方面的执行可以至少部分地基于所接收的用户输入、游戏数据614以及游戏状态信息616。游戏数据614可以包括游戏规则、预录的运动捕获姿势/路径、环境设置、约束、动画参考曲线、骨架模型和/或其他游戏应用信息。此外,游戏数据614可以包括用于设置或调整游戏应用112的难度的信息。
游戏引擎612可以根据游戏规则来执行游戏内的玩游戏。游戏规则的一些示例可以包括用于打分、可能的输入、动作/事件、响应于输入的移动等的规则。其他部件可以控制接受哪些输入和游戏如何进展,以及玩游戏的其他方面。在游戏应用112的执行期间,游戏应用112可以存储游戏状态信息616,该游戏状态信息可以包括角色状态、环境状态、场景对象存储和/或与游戏应用112的执行状态相关联的其他信息。例如,游戏状态信息616可以识别游戏应用在特定时间点的状态,诸如角色位置、角色动作、游戏等级属性以及影响游戏应用的状态的其他信息。
游戏引擎612可以接收用户输入,并且确定适于游戏应用112的游戏内事件,诸如动作、碰撞、奔跑、投掷、攻击和其他事件。在运行期间,游戏引擎612可以读取游戏数据614和游戏状态信息616,以便确定合适的游戏内事件。在一个实施例中,在游戏引擎612确定角色事件之后,这些角色事件可以被传送到运动引擎,该运动引擎可以确定角色响应于该事件应当做出的合适运动,并将那些运动传递到动画引擎。动画引擎可以确定角色的新姿势,并且将新姿势提供到皮肤和渲染引擎。皮肤和渲染引擎又可以将角色图像提供至对象组合器,以便将有生命对象、无生命对象和背景对象组合成完整场景。可以将该完整场景传送至渲染器,该渲染器可以生成用于显示给用户的新帧。在执行游戏应用期间,可以重复该过程以用于渲染每一帧。虽然在角色的情况下描述了该过程,但是该过程可以应用于用于处理事件和渲染用于显示给用户的输出的任何过程。
在一些情况下,视频游戏引擎612的至少一些可以驻留在服务器上,该服务器诸如视频游戏服务器152中的一个。此外,在一些情况下,完整的视频游戏引擎612可以驻留在服务器上。因而,在一些情况下,视频游戏引擎612可以从视频游戏应用112的托管在用户计算系统110上的那部分中省略。类似地,在一些实施方案中,除托管在用户计算系统110上之外或代替托管在用户计算系统110上,视频游戏状态信息616和视频游戏数据614可以托管在服务器上。此外,在一些情况下,在视频游戏应用112内执行的用户的动作可以传输到托管所述视频游戏112的一部分的服务器。该服务器可以计算或确定用户关于视频游戏应用112的交互诸如碰撞、攻击或移动的结果。该服务器然后可以将用户的动作的结果发送至用户计算系统110上的视频游戏应用112。视频游戏应用112然后可以响应于该结果执行动作,诸如向用户显示该结果。
计算系统的示例硬件配置
图7示出了用于图6的用户计算系统110的硬件配置的一个实施方案。应该理解的是,用户计算系统108可以与用户计算系统110类似地或相同地配置。替代地,用户计算系统108可以具有与用户计算系统110不同的配置。用户计算系统110的其他变型可以代替本文明确呈现的实施例,诸如移除用户计算系统110的部件或向该用户计算系统110添加部件。用户计算系统110可以包括专用游戏设备、智能手机、平板计算机、个人计算机、台式计算机、膝上型计算机、智能电视、汽车控制台显示器等。此外,(虽然没有在图7中明确地示出)如关于图6所描述的,用户计算系统110可以可选地包括触摸屏显示器602和触摸屏接口604。
如所示出的,用户计算系统110包括处理单元20,该处理单元与用户计算系统110的其他部件交互并且还与在用户计算系统110外部的部件交互。可以包括可以与游戏介质12通信的游戏介质读取器22。游戏介质读取器22可以是能够读取光盘诸如CD-ROM或者DVD的光盘读取器,或者可以是可以从游戏介质12接收和读取数据的任何其他类型的读取器。在一些实施方案中,游戏介质读取器22可以是可选的或者被省略。例如,可以经由网络I/O38通过网络访问游戏内容或应用,从而使游戏介质读取器22和/或游戏介质12是可选的。
用户计算系统110可以包括单独的图形处理器24。在一些情况下,图形处理器24可以诸如用APU内置于处理单元20中。在一些这样的情况下,图形处理器24可以与处理单元20共享随机存取存储器(RAM)。替代地或附加地,用户计算系统110可以包括与处理单元20分开的分立图形处理器24。在一些这样的情况下,图形处理器24可以具有与处理单元20分开的RAM。此外,在一些情况下,图形处理器24可以连同一个或多个另外的图形处理器和/或连同嵌入的或非分立的图形处理单元一起工作,该嵌入的或非分立的图形处理单元可以被嵌入到主板中并且有时被称为板上图形芯片或设备。
用户计算系统110还包括用于使得能够输入/输出的各种部件,诸如I/O 32、用户I/O 34、显示I/O 36和网络I/O 38。如前所述,在一些情况下,输入/输出部件可以包括触控设备。I/O 32与存储元件40交互,并且通过设备42与可移动存储介质44交互,以便提供用于用户计算系统110的存储装置。处理单元20可以通过I/O 32进行通信以存储数据,诸如游戏状态数据和任何共享的数据文件。除了存储装置40和可移动存储介质44之外,用户计算系统110还被示出包括ROM(只读存储器)46和RAM 48。RAM 48可以用于诸如当正在玩游戏时被频繁访问的数据,或者可以用于由处理单元20和/或图形处理器24访问的所有数据。
用户I/O 34用于在处理单元20与用户设备诸如游戏控制器之间发送和接收命令。在一些实施方案中,用户I/O 34可以包括触摸屏输入。如前所述,触摸屏可以是电容性触摸屏、电阻式触摸屏或者被配置为通过触觉输入从用户接收用户输入的其他类型的触摸屏技术。显示I/O36提供用于显示来自正在玩的游戏的图像的输入/输出功能。网络I/O38用于针对网络的输入/输出功能。在执行游戏期间,诸如当在线玩游戏或者在线访问游戏时,可以使用网络I/O 38。
显示输出信号可以由显示I/O 36产生,并且可以包括用于在显示设备上显示由用户计算系统110产生的可视内容的信号,所述可视内容诸如图形、用户接口、视频和/或其他可视内容。用户计算系统110可以包括被配置为接收由显示I/O 36产生的显示输出信号的一个或多个集成显示器,所述显示输出信号可以被输出以用于显示给用户。根据一些实施方案,由显示I/O 36产生的显示输出信号还可以被输出到在用户计算系统110外部的一个或多个显示设备。
用户计算系统110还可以包括可以与游戏一起使用的其他特征,诸如时钟50、闪存52以及其他部件。音频/视频播放器56还可以用于播放视频序列,诸如电影。应当理解的是,可以在用户计算系统110中设置其他部件,并且本领域技术人员将会意识到用户计算系统110的其他变型。
程序代码可以存储在ROM 46、RAM 48或者存储装置40(其可以包括硬盘、其他磁存储装置、光存储装置、固态驱动器和/或其他非易失性存储装置,或者它们的组合或变型)中。程序代码的至少一部分可以存储在可编程的ROM(ROM、PROM、EPROM、EEPROM等)中、存储在存储装置40中和/或存储在可移动介质诸如游戏介质12(其可以是CD-ROM、盒式磁带(cartridge)、存储器芯片等,或者可以根据需要通过网络或其他电子渠道获得)上。通常,可以发现程序代码被包含在有形的非暂时性信号承载介质中。
随机存取存储器(RAM)48(以及可能的其他存储装置)可根据需要用于存储变量以及其他游戏和处理器数据。使用RAM,RAM保存在玩游戏期间生成的数据,并且其一部分还可以被留出用于帧缓冲、游戏状态和/或对于解读用户输入和生成游戏显示而言所需要的或可用的其他数据。一般地,RAM 48是易失性存储装置,并且当用户计算系统110被关闭或者失去电力时,存储在RAM 48内的数据可能会丢失。
当用户计算系统110读取游戏介质12并提供游戏时,可以从游戏介质12读取信息并且将信息存储在存储设备诸如RAM 48中。另外地,来自存储装置40、ROM 46、经由网络(未示出)访问的服务器或可移动存储介质46的数据可以被读取且加载到RAM 48中。虽然描述了在RAM 48中得到数据,但将理解的是,数据不是非要存储在RAM 48中,而是可以存储在处理单元20可访问的其他存储器中,或者分布在若干介质诸如游戏介质12和存储装置40中。
要理解的是,根据本文描述的任何具体实施方案不一定可以实施所有的目标或优点。因此,例如本领域技术人员将认识到,某些实施方案可以被配置为以实施、增加或优化如本文所教示的一个优点或一组优点而不一定实施如本文可能教示或暗示的其他目标或优点的方式进行操作。
本文描述的所有过程均可以体现在软件代码模块中并且经由软件代码模块完全自动化,所述软件代码模块由包括一个或多个计算机或处理器的计算系统执行。上述代码模块可以被存储在任何类型的非暂时性计算机可读介质或其他计算机存储设备中。一些或所有上述方法可以以专用的计算机硬件来实施。
根据本公开内容将明了除本文描述的那些之外的许多其他变型。例如,根据实施方案,本文描述的算法中任一个的某些动作、事件或功能均可以以不同的顺序执行,可以被添加、合并或完全被省略(例如,对于算法的实行而言,并非所有描述的动作或者事件都是必需的)。此外,在某些实施方案中,动作或事件可以被同时执行——例如通过多线程处理、中断处理或者多个处理器或处理器内核被同时执行或在其他并行架构上被同时执行,而不是被顺序地执行。此外,不同的任务或过程可以由可以一起运行的不同机器和/或计算系统来执行。
结合本文公开的实施方案描述的各种说明性逻辑框和模块可以由机器实施或执行,所述机器诸如处理单元或处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件、分立门或晶体管逻辑电路、分立硬件部件或被设计成执行本文描述的功能的其任何组合。处理器可以是微处理器,但在替代方案中,处理器可以是控制器、微控制器或者状态机,其组合等。处理器可以包括被配置为处理计算机可执行指令的电路。在另一实施方案中,处理器包括执行逻辑操作而不处理计算机可执行指令的FPGA或其他可编程器件。处理器还可以被实施为计算设备的组合,例如DSP和微处理器的组合、多个微处理器、一个或多个微处理器连同DSP内核或者任何其他这样的配置。虽然本文中主要关于数字技术描述了处理器,但处理器还可以包括主要是模拟性的部件。计算环境可以包括任何类型的计算机系统,包括但不限于基于微处理器的计算机系统、大型计算机、数字信号处理器、便携式计算设备、设备控制器或者器具内的计算引擎等,仅举几例。
除非另外特别说明,否则条件性用语,诸如“能(can)”、“可(could)”、“可能(might)”或“可以(may)”等,应在上下文中如通常所使用的被理解为表达:某些实施方案包括某些特征、元件和/或步骤,而其他实施方案不包括所述的某些特征、元件和/或步骤。因此,这样的条件性用语通常并不意在暗示:特征、元件和/或步骤以任何方式是一个或多个实施方案所需要的,或者一个或多个实施方案必需包括用于判定——在具有或不具有用户输入或提示的情况下——这些特征、元件和/或步骤是否被包括在任何特定的实施方案中或是否要在任何特定的实施方案中执行的逻辑。
除非另外特别说明,否则析取性(disjunctive)用语,诸如短语“X、Y或Z中的至少一个”,应在上下文中如通常所使用的被理解为表示:项、术语等可以是X、Y或Z,或它们的任何组合(例如,X、Y和/或Z)。因此,这样的析取性用语通常并不意在并且不应当暗示,某些实施方案需要至少一个X、至少一个Y或至少一个Z均存在。
在本文中描述的和/或在附图中描绘的流程图中的任何过程描述、要素或框均应当被理解为潜在地表示包括用于实施过程中的特定逻辑功能或要素的一个或多个可执行指令的代码模块、代码段或代码部分。在本文描述的实施方案的范围内包括替代的实施方式,在所述替代的实施方式中,要素或功能可以被删除、不按照所示出的或讨论的次序执行,包括基本上同时执行或以颠倒的顺序执行,这取决于所涉及的功能,如本领域技术人员会理解的。
除非另外明确说明,否则冠词,诸如“一个”或“一”,通常应被解释为包括一个或多个所描述的项。相应地,诸如“被配置成……的设备”之类的措辞意在包括一个或多个所叙述的设备。这样的一个或多个所叙述的设备还可以被共同配置成执行所陈述的列举项(recitation)。例如,“被配置为执行列举项A、B和C的处理器”可以包括连同被配置为执行列举项B和C的第二处理器一起工作的、被配置为执行列举项A的第一处理器。
应当强调的是,可以对上述实施方案做出许多变型和修改,这些变型和修改的要素应被理解为在其他可接受的示例之中。所有这样的修改和变型都意在被包括在本文中在本公开内容的范围内。

Claims (20)

1.一种计算机实施的方法,包括:
由配置有特定计算机可执行指令的交互式计算系统所实施的,
从用户计算设备接收话语,所述话语包括与视频游戏相关联并且由用户说出的一个或多个所说词语;
确定所述话语的话语分类;以及
响应于确定所述话语分类对应于命令:
确定所述话语提到的命令;
确定与所述命令相关联的视频游戏,所述视频游戏是多个视频游戏中的一个视频游戏;
标识与所述用户相关联的用户账户;
标识与所述视频游戏和所述用户账户相关联的主机系统,所述主机系统被配置为托管所述视频游戏的实例的至少第一部分;
在所述主机系统处加载与所述用户账户相关联的用户游戏账户;以及
在没有所述用户访问所述视频游戏的情况下,代表所述用户在所述主机系统处关于所述用户的用户游戏账户执行所述命令。
2.根据权利要求1所述的计算机实施的方法,还包括:
确定所述话语的优先级;以及
根据所述话语的优先级来处理所述话语。
3.根据权利要求2所述的计算机实施的方法,其中根据所述话语的优先级来处理所述话语包括当所述优先级低于阈值优先级时向辅助处理系统提供所述话语以处理所述话语。
4.根据权利要求1所述的计算机实施的方法,其中所述话语是从所述用户计算设备托管的伴随应用接收的,所述伴随应用不同于所述视频游戏但是与所述视频游戏相关联。
5.根据权利要求1所述的计算机实施的方法,其中代表所述用户执行所述命令包括:
实例化被配置为执行所述视频游戏的实例的至少第二部分的无界面客户端;
在所述无界面客户端处执行所述视频游戏的实例的所述第二部分;以及
在所述无界面客户端处执行所述命令。
6.根据权利要求1所述的计算机实施的方法,其中响应于确定所述话语分类对应于询问,所述方法还包括:
访问与所述询问相关联的一个或多个知识源,所述一个或多个知识源中的至少一个知识源包括游戏状态信息的储存库;
至少部分基于从所述一个或多个知识源获取的数据来生成对所述询问的询问响应;以及
向所述用户计算设备传输所述询问响应。
7.根据权利要求6所述的计算机实施的方法,其中生成所述询问响应包括:
访问所述用户的用户交互数据;
至少部分基于从所述一个或多个知识源获取的数据来确定多个合格询问响应;
基于所述用户交互数据和参数函数来为所述合格询问响应中的每个合格询问响应生成得分,所述参数函数至少部分基于机器学习算法来生成;以及
至少部分基于所述合格询问响应中的每个合格询问响应的得分来从所述多个合格询问响应中选择询问响应。
8.根据权利要求7所述的计算机实施的方法,还包括确定与所述话语相对应的信号的一个或多个特征,其中为所述合格询问响应中的每个合格询问响应生成得分还基于与所述话语相对应的所述信号的一个或多个特征。
9.根据权利要求7所述的计算机实施的方法,其中从所述多个合格询问响应中选择询问响应包括选择与来自所述多个询问响应的其余合格询问响应相比更有可能增加来自所述用户的参与度的询问响应。
10.根据权利要求1所述的计算机实施的方法,其中,响应于确定所述话语分类对应于陈述,所述方法还包括:
将所述陈述应用于参数函数以确定动作,其中所述动作是从多个动作中选择的以保持或增加所述用户关于所述视频游戏的参与度;以及
关于所述视频游戏的实例的执行来执行所述动作。
11.根据权利要求10所述的计算机实施的方法,其中将所述陈述应用于参数函数以确定动作包括将与多个话语相对应的多个陈述应用于所述参数函数。
12.根据权利要求1所述的计算机实施的方法,还包括对所述话语执行语音识别以确定所述一个或多个所说词语。
13.一种系统,包括:
应用主机系统,所述应用主机系统被配置为托管视频游戏的至少第一部分;
交互式计算系统,所述交互式计算系统包括一个或多个硬件处理器,所述交互式计算系统被配置为执行特定计算机可执行指令以至少:
从用户计算设备接收话语,所述话语与视频游戏相关联并且由用户说出;
确定所述话语的话语分类;
响应于确定所述话语分类对应于命令:
确定由所述话语提到的命令;
确定与所述命令相关联的视频游戏,所述视频游戏是多个视频游戏中的一个视频游戏;
标识与所述用户相关联的用户账户;
从多个应用主机系统中标识与所述视频游戏和所述用户账户相关联的应用主机系统;
在所述应用主机系统处加载与所述用户账户相关联的用户游戏账户;以及
代表所述用户在所述应用主机系统处关于所述用户的用户游戏账户执行所述命令。
14.根据权利要求13所述的系统,其中所述交互式计算系统还被配置为通过以下方式代表所述用户执行所述命令:
实例化被配置为执行所述视频游戏的实例的至少第二部分的无界面客户端;
在所述无界面客户端处执行所述视频游戏的实例的所述第二部分;以及
在所述无界面客户端处执行所述命令。
15.根据权利要求13所述的系统,其中响应于确定所述话语分类对应于询问,所述交互式计算系统还被配置为执行特定计算机可执行指令以至少:
访问与所述询问相关联的一个或多个知识源;
至少部分基于从所述一个或多个知识源获取的数据来生成对所述询问的询问响应;以及
向所述用户计算设备传输所述询问响应。
16.根据权利要求15所述的系统,其中所述交互式计算系统还被配置为通过以下方式来生成所述询问响应:
访问所述用户的用户交互数据;
至少部分基于从所述一个或多个知识源获取的数据来确定多个合格询问响应;
基于所述用户交互数据和参数函数来为所述合格询问响应中的每个合格询问响应生成得分,所述参数函数至少部分基于机器学习算法来生成;以及
至少部分基于所述合格询问响应中的每个合格询问响应的得分来从所述多个合格询问响应中选择询问响应。
17.根据权利要求13所述的系统,其中,响应于确定所述话语分类对应于陈述,所述交互式计算系统还被配置为执行特定计算机可执行指令以至少:
将所述陈述应用于参数函数以确定动作;以及
关于所述视频游戏的实例的执行来执行所述动作。
18.根据权利要求17所述的系统,其中所述交互式计算系统还被配置为通过以下方式来将所述陈述应用于所述参数函数:
从所述用户计算设备接收包括所述陈述的多个陈述;
确定所述多个陈述中的每个陈述的意见;
聚合所述多个陈述中的每个陈述的意见以获取聚合意见;以及
向所述参数函数提供所述聚合意见。
19.一种存储计算机可执行指令的非暂态计算机可读存储介质,所述计算机可执行指令在被一个或多个计算设备执行时配置所述一个或多个计算设备以执行包括以下的操作:
从用户计算设备接收话语,所述话语与视频游戏相关联;
确定所述话语分类对应于命令;
标识由所述话语提到的命令;
标识与通过所述话语接收的标识符相对应的所述视频游戏的用户账户;
至少部分基于所述用户账户来为所述视频游戏选择主机系统,所述主机系统被配置为托管所述视频游戏的实例的至少第一部分;
在所述主机系统处加载与所述用户账户相关联的游戏数据;以及
在没有所述用户访问所述视频游戏的情况下,代表与所述用户账户相关联的用户在所述主机系统处关于所述视频游戏的实例执行所述命令。
20.根据权利要求19所述的非暂态计算机可读存储介质,其中执行所述命令包括:
实例化被配置为执行所述视频游戏的所述实例的至少第二部分的无界面客户端;
在所述无界面客户端处执行所述视频游戏的所述实例的所述第二部分;以及
在所述无界面客户端处执行所述命令。
CN201810722328.2A 2017-06-30 2018-06-29 用于视频游戏的交互式语音控制的伴随应用 Active CN109200578B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/639,973 2017-06-30
US15/639,973 US10449440B2 (en) 2017-06-30 2017-06-30 Interactive voice-controlled companion application for a video game

Publications (2)

Publication Number Publication Date
CN109200578A CN109200578A (zh) 2019-01-15
CN109200578B true CN109200578B (zh) 2021-10-22

Family

ID=64734570

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810722328.2A Active CN109200578B (zh) 2017-06-30 2018-06-29 用于视频游戏的交互式语音控制的伴随应用

Country Status (3)

Country Link
US (2) US10449440B2 (zh)
KR (1) KR102190684B1 (zh)
CN (1) CN109200578B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10449440B2 (en) 2017-06-30 2019-10-22 Electronic Arts Inc. Interactive voice-controlled companion application for a video game
US10621317B1 (en) 2017-09-14 2020-04-14 Electronic Arts Inc. Audio-based device authentication system
US10629192B1 (en) 2018-01-09 2020-04-21 Electronic Arts Inc. Intelligent personalized speech recognition
US10878808B1 (en) * 2018-01-09 2020-12-29 Amazon Technologies, Inc. Speech processing dialog management
EP3935581A4 (en) 2019-03-04 2022-11-30 Iocurrents, Inc. DATA COMPRESSION AND COMMUNICATION USING MACHINE LEARNING
US11547930B2 (en) * 2019-04-19 2023-01-10 Skydance Media Voice control for virtual reality platform
US10926173B2 (en) 2019-06-10 2021-02-23 Electronic Arts Inc. Custom voice control of video game character
US11033824B2 (en) * 2019-06-14 2021-06-15 Roblox Corporation Predictive data preloading
US10901689B1 (en) * 2019-07-11 2021-01-26 International Business Machines Corporation Dynamic augmented reality interface creation
US11250322B2 (en) * 2019-07-15 2022-02-15 Sony Interactive Entertainment LLC Self-healing machine learning system for transformed data
CN111081225B (zh) * 2019-12-31 2022-04-01 思必驰科技股份有限公司 技能语音唤醒方法及装置
CN111311321B (zh) * 2020-02-14 2021-11-02 北京百度网讯科技有限公司 用户消费行为预测模型训练方法、装置、设备及存储介质
US11238100B2 (en) * 2020-02-28 2022-02-01 International Business Machines Corporation Adapting conversational agent communications to different stylistic models
US11544595B2 (en) * 2020-03-30 2023-01-03 Microsoft Technology Licensing, Llc Integrated GLMix and non-linear optimization architectures
CN111899732A (zh) * 2020-06-17 2020-11-06 北京百度网讯科技有限公司 语音输入方法、装置及电子设备
US20220114912A1 (en) * 2020-10-13 2022-04-14 MySureStart, Inc. Digital platform for proxy mentor / mentee communication
KR102598239B1 (ko) * 2021-06-08 2023-11-03 국민대학교산학협력단 Ai 스피커를 이용한 매트 기반의 인지력/체력 향상게임 시스템 및 방법
CN113707144B (zh) * 2021-08-24 2023-12-19 深圳市衡泰信科技有限公司 一种高尔夫模拟器的控制方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1716150A (zh) * 1996-09-04 2006-01-04 英特托拉斯技术公司 一种从用户站点向外部站点发布使用数据的方法
US7369997B2 (en) * 2001-08-01 2008-05-06 Microsoft Corporation Controlling speech recognition functionality in a computing device
WO2009146234A1 (en) * 2008-05-30 2009-12-03 Sony Computer Entertainment America Inc. Determination of controller three-dimensional location using image analysis and ultrasonic communication
CN102136269A (zh) * 2010-01-22 2011-07-27 微软公司 经由标识信息的语音识别分析
CN104509079A (zh) * 2012-08-01 2015-04-08 谷歌公司 基于位置标记的语音识别模型
CN105188516A (zh) * 2013-03-11 2015-12-23 奇跃公司 用于增强和虚拟现实的系统与方法
CN106484115A (zh) * 2011-10-28 2017-03-08 奇跃公司 用于增强和虚拟现实的系统和方法

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080147404A1 (en) 2000-05-15 2008-06-19 Nusuara Technologies Sdn Bhd System and methods for accent classification and adaptation
US6669564B1 (en) * 2000-06-27 2003-12-30 Electronic Arts Inc. Episodic delivery of content
JP2004061843A (ja) * 2002-07-29 2004-02-26 Denso Corp 音声対話におけるしりとりゲーム装置及びプログラム
US7467087B1 (en) 2002-10-10 2008-12-16 Gillick Laurence S Training and using pronunciation guessers in speech recognition
US8443288B2 (en) * 2002-11-22 2013-05-14 Sony Pictures Entertainment Inc. Ubiquitous companion agent
US7303474B2 (en) * 2003-06-24 2007-12-04 At&T Bls Intellectual Property, Inc. Methods and systems for establishing games with automation using verbal communication
US7266495B1 (en) 2003-09-12 2007-09-04 Nuance Communications, Inc. Method and system for learning linguistically valid word pronunciations from acoustic data
US20060040718A1 (en) * 2004-07-15 2006-02-23 Mad Doc Software, Llc Audio-visual games and game computer programs embodying interactive speech recognition and methods related thereto
US7958151B2 (en) 2005-08-02 2011-06-07 Constad Transfer, Llc Voice operated, matrix-connected, artificially intelligent address book system
US20070244751A1 (en) * 2006-04-17 2007-10-18 Gary Zalewski Using visual environment to select ads on game platform
US9349201B1 (en) * 2006-08-03 2016-05-24 Sony Interactive Entertainment America Llc Command sentinel
TWI322945B (en) 2006-09-18 2010-04-01 Quanta Comp Inc Audio data transmission system and audio data transmission method
US8926395B2 (en) 2007-11-28 2015-01-06 Patent Category Corp. System, method, and apparatus for interactive play
KR20100009292A (ko) 2008-07-18 2010-01-27 삼성전자주식회사 페어링 방법 및 제어 디바이스
US8374873B2 (en) 2008-08-12 2013-02-12 Morphism, Llc Training and applying prosody models
US8095365B2 (en) 2008-12-04 2012-01-10 At&T Intellectual Property I, L.P. System and method for increasing recognition rates of in-vocabulary words by improving pronunciation modeling
US8177643B2 (en) * 2008-12-05 2012-05-15 Microsoft Corporation Out-of-band voice communication with interactive voice response services during gameplay
US20110086712A1 (en) 2009-09-15 2011-04-14 Katherine Cargill Online games integrated with an online green mall
JP5443918B2 (ja) 2009-09-18 2014-03-19 株式会社ソニー・コンピュータエンタテインメント 端末装置、音声出力方法および情報処理システム
WO2011041516A1 (en) * 2009-09-30 2011-04-07 Zynga Game Network Inc. Apparatuses, methods and systems for an online game manager
US20120225703A1 (en) * 2010-10-21 2012-09-06 Aibelive Co., Ltd Method for playing a video game on a mobile device
US20120100900A1 (en) * 2010-10-21 2012-04-26 Aibelive Co., Ltd Method for operating a mobile device to control a main Unit in playing a video game
US8490871B1 (en) 2011-04-28 2013-07-23 Amazon Technologies, Inc. Method and system for product restocking using machine-readable codes
US8656067B2 (en) 2011-07-29 2014-02-18 Hewlett-Packard Development Company, L.P. Peripheral device identification for pairing
JP5596649B2 (ja) 2011-09-26 2014-09-24 株式会社東芝 文書マークアップ支援装置、方法、及びプログラム
US8469816B2 (en) * 2011-10-11 2013-06-25 Microsoft Corporation Device linking
KR101351575B1 (ko) 2012-05-22 2014-01-22 성균관대학교산학협력단 이어폰 포트를 이용한 신호 처리 시스템 및 방법
US20130325474A1 (en) 2012-05-31 2013-12-05 Royce A. Levien Speech recognition adaptation systems based on adaptation data
US20140122086A1 (en) * 2012-10-26 2014-05-01 Microsoft Corporation Augmenting speech recognition with depth imaging
US9266018B2 (en) * 2012-11-08 2016-02-23 Audible, Inc. Customizable in-vehicle gaming system
WO2014087714A1 (ja) 2012-12-04 2014-06-12 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置、サーバ装置、対話システムおよびプログラム
US20140163980A1 (en) 2012-12-10 2014-06-12 Rawllin International Inc. Multimedia message having portions of media content with audio overlay
US20140164507A1 (en) 2012-12-10 2014-06-12 Rawllin International Inc. Media content portions recommended
CN103888436B (zh) 2012-12-20 2018-09-14 伊姆西公司 用户认证的方法和装置
BR112015014830B1 (pt) 2012-12-28 2021-11-16 Sony Corporation Dispositivo e método de processamento de informação, e, meio de armazenamento de memória.
US9129478B2 (en) * 2013-05-20 2015-09-08 Microsoft Corporation Attributing user action based on biometric identity
US20140372892A1 (en) * 2013-06-18 2014-12-18 Microsoft Corporation On-demand interface registration with a voice control system
US9741339B2 (en) 2013-06-28 2017-08-22 Google Inc. Data driven word pronunciation learning and scoring with crowd sourcing based on the word's phonemes pronunciation scores
US10956433B2 (en) 2013-07-15 2021-03-23 Microsoft Technology Licensing, Llc Performing an operation relative to tabular data based upon voice input
US10186262B2 (en) * 2013-07-31 2019-01-22 Microsoft Technology Licensing, Llc System with multiple simultaneous speech recognizers
US8994774B2 (en) * 2013-08-01 2015-03-31 Sony Corporation Providing information to user during video conference
US9889383B2 (en) 2013-10-03 2018-02-13 Voyetra Turtle Beach, Inc. Configuring headset voice morph based on player assignment
US9767803B1 (en) * 2013-12-16 2017-09-19 Aftershock Services, Inc. Dynamically selecting speech functionality on client devices
KR102250599B1 (ko) 2014-02-11 2021-05-10 이주협 엄지손가락을 이용한 터치 실행 장치
US9412363B2 (en) * 2014-03-03 2016-08-09 Microsoft Technology Licensing, Llc Model based approach for on-screen item selection and disambiguation
US9582246B2 (en) * 2014-03-04 2017-02-28 Microsoft Technology Licensing, Llc Voice-command suggestions based on computer context
KR20150122510A (ko) 2014-04-23 2015-11-02 엘지전자 주식회사 영상 표시 장치 및 그것의 제어방법
KR102248474B1 (ko) * 2014-04-30 2021-05-07 삼성전자 주식회사 음성 명령 제공 방법 및 장치
US20150347912A1 (en) 2014-05-27 2015-12-03 Sony Corporation Activity tracking based recommendation
US20150370272A1 (en) 2014-06-23 2015-12-24 Google Inc. Intelligent configuration of a smart environment based on arrival time
US10262655B2 (en) * 2014-11-03 2019-04-16 Microsoft Technology Licensing, Llc Augmentation of key phrase user recognition
US9795879B2 (en) * 2014-12-31 2017-10-24 Sony Interactive Entertainment America Llc Game state save, transfer and resume for cloud gaming
US9959129B2 (en) * 2015-01-09 2018-05-01 Microsoft Technology Licensing, Llc Headless task completion within digital personal assistants
KR102460459B1 (ko) 2015-02-27 2022-10-28 삼성전자주식회사 전자 장치를 이용한 카드 서비스 방법 및 장치
US9685156B2 (en) * 2015-03-12 2017-06-20 Sony Mobile Communications Inc. Low-power voice command detector
CN106157955A (zh) * 2015-03-30 2016-11-23 阿里巴巴集团控股有限公司 一种语音控制方法及装置
US20170010860A1 (en) * 2015-07-07 2017-01-12 Matthew James Henniger System and method for enriched multilayered multimedia communications using interactive elements
US9811313B2 (en) * 2015-08-17 2017-11-07 Microsoft Technology Licensing, Llc Voice-triggered macros
US9443192B1 (en) * 2015-08-30 2016-09-13 Jasmin Cosic Universal artificial intelligence engine for autonomous computing devices and software applications
KR20170031517A (ko) 2015-09-11 2017-03-21 엘지전자 주식회사 이동 단말기 및 그의 동작 방법
KR102443087B1 (ko) 2015-09-23 2022-09-14 삼성전자주식회사 전자 기기 및 그의 음성 인식 방법
US10549204B2 (en) * 2015-09-30 2020-02-04 Sony Interactive Entertainment America Llc Systems and methods for providing augmented data-feed for game play re-creation and dynamic replay entry points
US9653075B1 (en) * 2015-11-06 2017-05-16 Google Inc. Voice commands across devices
US9886958B2 (en) * 2015-12-11 2018-02-06 Microsoft Technology Licensing, Llc Language and domain independent model based approach for on-screen item selection
US20170171594A1 (en) 2015-12-14 2017-06-15 Le Holdings (Beijing) Co., Ltd. Method and electronic apparatus of implementing voice interaction in live video broadcast
JP6784022B2 (ja) 2015-12-18 2020-11-11 ヤマハ株式会社 音声合成方法、音声合成制御方法、音声合成装置、音声合成制御装置およびプログラム
CN105912187A (zh) 2015-12-30 2016-08-31 乐视致新电子科技(天津)有限公司 语音控制方法及其设备
CN108697938B (zh) 2016-01-06 2020-07-10 埃沃洛夫有限公司 具有可变角色的机器人
US10152965B2 (en) 2016-02-03 2018-12-11 Google Llc Learning personalized entity pronunciations
CN105957530B (zh) 2016-04-28 2020-01-03 海信集团有限公司 一种语音控制方法、装置和终端设备
US10332513B1 (en) * 2016-06-27 2019-06-25 Amazon Technologies, Inc. Voice enablement and disablement of speech processing functionality
US10311863B2 (en) 2016-09-02 2019-06-04 Disney Enterprises, Inc. Classifying segments of speech based on acoustic features and context
US10304463B2 (en) * 2016-10-03 2019-05-28 Google Llc Multi-user personalization at a voice interface device
US10449440B2 (en) 2017-06-30 2019-10-22 Electronic Arts Inc. Interactive voice-controlled companion application for a video game
US11423879B2 (en) * 2017-07-18 2022-08-23 Disney Enterprises, Inc. Verbal cues for high-speed control of a voice-enabled device
US10607595B2 (en) 2017-08-07 2020-03-31 Lenovo (Singapore) Pte. Ltd. Generating audio rendering from textual content based on character models
US10621317B1 (en) 2017-09-14 2020-04-14 Electronic Arts Inc. Audio-based device authentication system
JP6682488B2 (ja) 2017-10-03 2020-04-15 株式会社スクウェア・エニックス コマンド処理プログラム、画像コマンド処理装置、及び画像コマンド処理方法
US10600404B2 (en) 2017-11-29 2020-03-24 Intel Corporation Automatic speech imitation
US10629192B1 (en) 2018-01-09 2020-04-21 Electronic Arts Inc. Intelligent personalized speech recognition
US10586369B1 (en) 2018-01-31 2020-03-10 Amazon Technologies, Inc. Using dialog and contextual data of a virtual reality environment to create metadata to drive avatar animation
KR101935585B1 (ko) 2018-10-02 2019-04-05 넷마블 주식회사 게임 커맨드 인식 방법 및 장치
US20200251089A1 (en) 2019-02-05 2020-08-06 Electronic Arts Inc. Contextually generated computer speech

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1716150A (zh) * 1996-09-04 2006-01-04 英特托拉斯技术公司 一种从用户站点向外部站点发布使用数据的方法
US7369997B2 (en) * 2001-08-01 2008-05-06 Microsoft Corporation Controlling speech recognition functionality in a computing device
WO2009146234A1 (en) * 2008-05-30 2009-12-03 Sony Computer Entertainment America Inc. Determination of controller three-dimensional location using image analysis and ultrasonic communication
CN102149436A (zh) * 2008-05-30 2011-08-10 美国索尼电脑娱乐有限责任公司 利用图像分析和超声波通信对控制器三维定位的确定
CN102136269A (zh) * 2010-01-22 2011-07-27 微软公司 经由标识信息的语音识别分析
CN106484115A (zh) * 2011-10-28 2017-03-08 奇跃公司 用于增强和虚拟现实的系统和方法
CN104509079A (zh) * 2012-08-01 2015-04-08 谷歌公司 基于位置标记的语音识别模型
CN105188516A (zh) * 2013-03-11 2015-12-23 奇跃公司 用于增强和虚拟现实的系统与方法

Also Published As

Publication number Publication date
US10449440B2 (en) 2019-10-22
KR102190684B1 (ko) 2020-12-14
US11077361B2 (en) 2021-08-03
US20200129851A1 (en) 2020-04-30
CN109200578A (zh) 2019-01-15
KR20190003355A (ko) 2019-01-09
US20190001219A1 (en) 2019-01-03

Similar Documents

Publication Publication Date Title
CN109200578B (zh) 用于视频游戏的交互式语音控制的伴随应用
US11471764B2 (en) Predictive execution of distributed game engines
CN111375196B (zh) 基于感知的动态游戏状态配置
CN107970612B (zh) 多玩家视频游戏匹配系统和方法
US11141663B2 (en) Multiplayer video game matchmaking optimization
US11369880B2 (en) Dynamic difficulty adjustment
CN108499108B (zh) 视频游戏应用程序内玩游戏参数的实时动态修改和优化
US11120113B2 (en) Audio-based device authentication system
US10940396B2 (en) Example chat message toxicity assessment process

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant